Lo que hace unos años considerábamos lejano o prácticamente imposible está tomando cada
vez más terreno en el campo de la Inteligencia Artificial. Nos acercamos a una era en la que
cada vez resulta más complicado distinguir realidad de ficción. Ya es algo habitual ver una
imagen que nunca fue verdaderamente fotografiada, escuchar canciones que nunca fueron
cantadas por un supuesto artista, o incluso ver videos que nunca ocurrieron en la realidad.
Todo ello lleva a un común denominador que ya forma parte de nuestras vidas, la Inteligencia
Artificial.
Según el estudio realizado por ExpressVPN "La IA avanzada está produciendo imágenes de
dobles digitales muy realistas, lo que plantea importantes cuestiones sobre la seguridad de la
identidad y la privacidad personal". No cabe duda que los "Deepfakes" ya se encuentran a la
órden del día. Desde recrear rostros de personas que no existen con un realismo asombroso
hasta doblar a celebridades o seres queridos. El uso de la Inteligencia Artificial para estos fines
puede llegar a ser emocionante, a la vez que peligroso si se utiliza de forma indebida.
Actualmente si se dispone de la huella digital de una persona (fotografías, vídeos, o mensajes
de voz) es totalmente posible recrear una representación virtual de la misma.
Al sufrir la pérdida de un ser querido, atravesamos un momento de dolor y, a veces,
intencionalmente replicamos conversaciones pasadas con esa persona con tal de sentir una
mayor cercanía. A veces nos quedamos con la palabra en la boca y sentimos la necesidad de
expresarlo. Es por ello que cada vez surgen más proyectos que imitan el comportamiento de
personas fallecidas a partir de interacciones previas, redes sociales, u otros registros digitales.
Los deadbots son programas de software que simulan conversaciones con otros seres
humanos a través de texto o voz. Interpretando interacciones del usuario a partir de su huella
digital, son capaces de proporcionar respuestas coherentes, e incluso recordar anécdotas
compartidas con la persona con la que esté hablando.
Hace unos meses el hormiguero recreó la escena con un grupo de personas que acudió al
plató tras enviar un mensaje de voz de un ser querido fallecido. Gracias a la Inteligencia
Artificial, el programa clonó las voces de los difuntos para que los invitados pudieran hablar con
ellos. Durante el programa, el familiar difunto simulaba realizar preguntas acerca de
conversaciones pendientes o sucesos ocurridos tras la pérdida. El episodio generó gran
impacto en los medios y en las reacciones de los participantes, que regresaron a casa tras
haber vivido una experiencia tan conmovedora.
Un estudio de la Universidad de Cambridge afirma que "La Industria del Más Allá Digital" está
causando un daño social y psicológico de alto riesgo. Por macabro que pueda llegar a parecer,
según los investigadores, este fenómeno está potenciando el uso controvertido de publicidad
subliminal a través del difunto, dado que el usuario se encuentra en un momento de lo más
vulnerable y susceptible a ser manipulado. Estás interacciones diarias pueden llegar a provocar
un estrés emocional, incluso en aquellos que inicialmente reconocen y aceptan la superflua
existencia del bot. Según el estudio, "Este área de la IA es un campo minado por la ética. Es
importante priorizar la dignidad del fallecido, y asegurar que esta no va a ser comprometida por
ánimo de lucro".
Por otra parte, a nivel psicológico puede ser devastador ya que es un impedimento al atravesar
el duelo tras la pérdida de un ser querido. En un primer momento es reconfortante escuchar la
voz de esa persona, pero a medida que avanza el tiempo la carga emocional es cada vez más
grande. El usuario tiende a aferrarse a la apariencia digital del difunto, lo cual acaba
suponiendo una mayor implicación afectiva a largo plazo. Es totalmente de esperar que el
usuario se convierta en dependiente del clon digital, alejándose de familiares y otras figuras de
apoyo.
Esta tecnología ya se utiliza en la actualidad, y es una necesidad abordar este campo,
priorizando la dignidad de la persona. Considerar los potenciales impactos sociales para evitar
daños psicológicos es una cuestión urgente dentro del campo de la Inteligencia Artificial