Aunque la afirmación de que Meta, la empresa matriz de Facebook, está desarrollando inteligencia artificial para «reanimar» a usuarios fallecidos, que circuló por las redes sociales en los últimos días, parece ser falsa, el bulo sirvió para arrojar luz sobre cómo los avances en IA plantean cuestiones cada vez más serias para la sociedad a medida que los ordenadores emulan a los humanos.
El viaje empezó cuando el 23 de febrero se publicó en el foro anónimo 4Chan un post supuestamente de un «empleado de Meta» en el que se afirmaba que se trataba de un desarrollador de software que trabajaba en el «Proyecto Lazarus».
“Estamos construyendo una IA que puede hacerse cargo de las cuentas de redes sociales de una persona fallecida [sic] y continuar haciendo publicaciones relevantes como si esa persona todavía estuviera viva”, decía la publicación. “Esto incluye fotos de edad avanzada, interacción con el contenido de otras personas [sic] y todo lo demás necesario para que esa persona continúe en el ámbito digital después de la muerte física”.
El «informante» explicó: «Originalmente nos dijeron que este sería un servicio ofrecido a las personas que luchan con la pérdida de seres queridos y a las personas que tenían niños desaparecidos».
El posteo decía que aunque el proyecto «parecía una idea decente», estaban preocupados porque «las cosas se están poniendo raras ahora y estoy teniendo dudas sobre para qué se va a usar esto».
“Una isla entera de personas podría desaparecer y con poco o ningún tiempo de inactividad, la IA podría hacerse cargo de todas sus redes sociales y el mundo no tendría ni idea de que la vida no continúa como de costumbre”, decía el posteo en 4Chan.
La conexión fue especialmente sensible para algunos internautas a la luz del reciente desastre medioambiental de East Palestine, Ohio, que escapó ampliamente a las redes sociales durante más de una semana hasta que -algo irónico- se pensó que el escándalo de los globos meteorológicos chinos, y los siguientes informes sobre «ovnis» que resultaron ser probablemente nada más que globos de aficionados, eran una distracción después de que la diputada estadounidense Majorie Taylor Greene (R-GA) aprovechara el revuelo para llamar la atención sobre el descarrilamiento en un post de Twitter del 12 de febrero que obtuvo más de 17 millones de visitas.
Sin embargo, si Project Lazarus existe, no se ha anunciado en absoluto y aún no ha sido aludido por el departamento de marketing de la empresa.
Los únicos resultados de una búsqueda básica en la web de términos que incluyen «Meta», «Facebook» y «Project Lazarus» son para el juego independiente de Steam Project Lazarus, una serie dramática de televisión titulada The Lazarus Project producida por la red BT del Reino Unido y referencias a una historia en la Biblia donde Jesús resucita a un hombre llamado Lázaro.
Sin embargo, el momento de la «información privilegiada» es especialmente curioso dado un anuncio de Meta AI del 24 de febrero de que la compañía lanzaría públicamente el modelo de lenguaje grande Meta AI (LLaMA), pero solo «caso por caso para investigadores académicos»; aquellos afiliados a organizaciones en el gobierno, la sociedad civil y la academia; y laboratorios de investigación de la industria en todo el mundo”.
“Durante el último año, los grandes modelos de lenguaje (sistemas de procesamiento de lenguaje natural (NLP) con miles de millones de parámetros) han demostrado nuevas capacidades para generar texto creativo, resolver teoremas matemáticos, predecir estructuras de proteínas, responder preguntas de comprensión de lectura y más», dice el comunicado fijado.
Abismo de desinformación
4Chan, uno de los primeros tableros de mensajes al estilo de Internet escasamente moderado que no requiere la creación de una cuenta para publicar, se beneficia, por un lado, de ser un lugar donde la falta de censura puede servir como una vía para denunciantes auténticos, pero sufre en por otro lado, de servir como un pozo negro de información errónea y desinformación.
Un artículo de septiembre de 2020 publicado por la Escuela Kennedy de Harvard apuntó tanto a 4Chan como al foro de marketing social e influencia social Reddit por su papel en la supuesta «difusión de información errónea durante las últimas etapas de las elecciones estadounidenses de 2016».
En un caso más reciente, en agosto de 2022, la mesa redonda de política globalista Foro Económico Mundial lamentó el papel de 4Chan en impulsar el sentimiento público contra el grupo y sus ideales en un artículo titulado Las cuatro formas clave en que la desinformación se propaga en línea.
El WEF declaró que “una cuenta antisemita anónima en el tablero de imágenes 4chan provocó una campaña de desinformación dirigida al Foro” luego de la indignación en línea después de que el consorcio publicó un video que decía “No serás dueño de nada. Y serás feliz”, se volvió viral.
Tableros de ouija virtuales
Aunque lo más probable es que el «empleado de Meta» y su historia no fueran más que auténtica desinformación, los avances en IA que se están utilizando para emular a los fallecidos son cualquier cosa menos eso.
Por ejemplo, un artículo de Associated Press de 2019 informó que Facebook “utilizará inteligencia artificial para ayudar a encontrar perfiles de personas que han muerto para que sus amigos y familiares no reciban, por ejemplo, recordatorios dolorosos sobre sus cumpleaños”.
Mientras que Microsoft, que a principios de mes lanzó su propia alternativa a la herramienta de procesamiento de lenguaje de inteligencia artificial ChatGPT, que en particular pareció descarrilarse por completo amenazando a los usuarios y teniendo lo que a veces parecía ser un episodio psicótico, presentó una patente en 2020 que recopilaría «imágenes, datos de voz, publicaciones en redes sociales, mensajes electrónicos, cartas escritas» de cuentas en línea y usaría inteligencia artificial de aprendizaje automático para entrenar a un chatbot para replicar la existencia del objetivo, informó el sitio web de tecnología Protocol.
El avance de la informática ha llevado al despliegue de múltiples negocios.
Un artículo del 9 de enero del sitio web de tecnología PetaPixel mostró cómo el reclamo de fama de DeepBrain AI de Corea del Sur fue una tecnología llamada «Re;Memory» que «utiliza el aprendizaje automático para procesar fotos y clips de personas fallecidas recientemente para crear un gemelo digital que puede interactuar con los vivos como si estuvieran en una videollamada».
Y la idea está lejos de ser vaporware.
En agosto de 2021, la revista de entretenimiento Deadline informó que Universal Television había comprado los derechos de la historia de Joshua Barbeau, de 33 años, un hombre que perdió a su prometida, Jessica, ocho años antes de una enfermedad hepática, para crear un programa.
Según una exclusiva publicada por el San Francisco Chronicle en ese momento, Barbeau “se conectó a un misterioso sitio web de chat llamado Proyecto Diciembre” (Project December).
“Diseñado por un programador del Área de la Bahía, el Proyecto Diciembre fue impulsado por uno de los sistemas de inteligencia artificial más capaces del mundo, una pieza de software conocida como GPT-3”, decía el artículo.
Barbeau pagó 5 dólares por una cuenta en el Proyecto Diciembre, que tenía una función de «Entrenamiento personalizado de IA» que le permitía al hombre ingresar los datos de su prometida fallecida.
“Joshua había guardado todos los mensajes de texto y mensajes de Facebook antiguos de Jessica, y solo le tomó un minuto identificar algunos que le recordaban su voz. Los cargó en Project December, junto con un ‘párrafo de introducción’ que pasó una hora elaborando”, decía el artículo.
Los resultados fueron tan convincentes que el hombre pasó 10 horas seguidas hablando con el bot.
“Cada respuesta… apareció en su ventana como un bloque completo de palabras, como un mensaje de texto en un teléfono”, resumió el Chronicle. “Aunque las respuestas del bot solían llegar más rápido de lo que una persona típica podría escribir la misma información, el ritmo de las bromas parecía capturar algo sobre Jessica: siempre le gustó socavar declaraciones poderosas con un emoji de cara de lengua o una broma, y así hizo el bot.
GPT-3 es muy notable porque también fue desarrollado por OpenAI, la misma empresa que posee y opera ChatGPT.
Según un artículo del 2 de febrero del sitio web Science Focus de la BBC, GPT-3 es el «modelo de inteligencia artificial de procesamiento de lenguaje de última generación» de OpenAI, del cual ChatGPT es simplemente un derivado.
Familia sintética
También se ha demostrado que la tecnología se aplica a aquellos que todavía están entre los vivos.
En octubre de 2022, la publicación Technology Review del Instituto de Tecnología de Massachusetts publicó un artículo titulado La tecnología que nos permite «hablar» con nuestros parientes muertos ha llegado. ¿Estamos listos?
La autora Charlotte Jee escribió sobre cómo contrató los servicios de una empresa llamada HereAfter AI para simular una llamada telefónica con sus padres (todavía vivos y coleando) “impulsada por más de cuatro horas de conversaciones que cada uno tuvo con un entrevistador sobre sus vidas y recuerdos”.
Jee le hizo a su «padre» la pregunta: «¿Qué es lo peor de ti?», a lo que «él» respondió: «Mi peor cualidad es que soy perfeccionista. No soporto el desorden y el desaliño, y eso siempre supone un reto, sobre todo estando casado con Jane».
Jee reflexionó sobre su experiencia: «Por lo que pude deducir en una docena de conversaciones con mis padres prácticamente fallecidos, esto realmente facilitará mantener cerca a las personas que queremos».
“No es difícil ver el atractivo”, continuó. “La gente puede recurrir a réplicas digitales por comodidad o para marcar hitos especiales como aniversarios”.
El avance de la IA no solo está afectando la emoción humana y la psicología que rodea la muerte, sino también el nacimiento.
En mayo de 2022, el Telegraph citó un extracto de un libro de la experta en inteligencia artificial del Reino Unido, Catriona Campbell, quien afirmó: “Los niños virtuales pueden parecer un gran salto desde donde estamos ahora… pero dentro de 50 años la tecnología habrá avanzado hasta tal punto que los bebés que existen en el metaverso son indistintos de los del mundo real”.
“Sobre la base de que la demanda de los consumidores existe, y creo que así será, los niños de AI estarán ampliamente disponibles por una tarifa mensual relativamente pequeña”, agregó.
La tecnología ya está en desarrollo. Al menos una empresa de Nueva Zelanda llamada Soul Machines comercializa «Baby X» como una «prueba de concepto».
El sitio web promocional del software afirma que Baby X ha sido equipado con un «cerebro digital» que es capaz de «permitirle sentir, aprender, adaptarse y comunicarse de forma interactiva de una manera que se siente viva y atractiva».
Difícil de discernir
La tecnología deepfake se está volviendo cada vez más difícil de discernir para los usuarios promedio.
En marzo de 2021, Vision Times informó sobre cómo una serie de clips que parecían mostrar al ícono de Hollywood Tom Cruise haciendo trucos de magia y hablando sobre el exlíder de la URSS Mikhail Gorbachev habían aparecido en la aplicación de video viral Tiktok del Partido Comunista Chino.
Los clips eran tan convincentes que, a simple vista, parecían legítimos. Solo los que estaban lo suficientemente familiarizados con la tecnología y con lo que debían buscar pudieron discernir, al ralentizar el video y buscar los píxeles faltantes, que estaban viendo réplicas de Tom Cruise superpuestas a un actor muy convincente con una constitución similar.
Otro caso muy notable surgió en febrero cuando un anuncio de una droga de «mejora masculina» apareció en TikTok disfrazado en forma de una falsificación profunda de un episodio del podcast Joe Rogan Experience.
El clip deepfake se cortó de manera muy convincente para que apareciera en el estilo conversacional de una entrevista de Joe Rogan Experience en la que incluso el propio Rogan apareció para promocionar el producto, junto con su invitado, durante las bromas naturales.
El clip iba acompañado de un enlace a Amazon para comprar el medicamento.
Según el informe de Mashable del 15 de febrero, aunque el video fue retirado, rápidamente volvió a aparecer en varias otras cuentas y fue visto más de 5 millones de veces.
Un largo camino por delante
Sin embargo, a pesar de todos los avances que ha dado la IA, las aplicaciones potenciales más distópicas y utópicas de la tecnología pueden estar fuera de su alcance, según el profesor de Ingeniería Eléctrica e Informática y Presidente de Robótica en UC Riverside Amit Roy-Chowdhury.
Roy-Chowdhury declaró en un artículo de agosto de 2021 publicado en el sitio web de la Universidad: “Cuando aprendemos sobre un uso muy sofisticado de la IA… tendemos a extrapolar de esa situación que la IA es mucho mejor de lo que realmente es”.
El profesor explicó que la creación de chatbots que simulen personas es absolutamente factible, siempre que la computadora tenga un amplio conjunto de datos para entrenar.
Pero “los desafíos surgen en entornos no estructurados, donde el programa tiene que responder a situaciones que no ha enfrentado antes”, señaló.
Continuó: “Si puede registrar datos, puede usarlos para entrenar una IA, y se comportará según los parámetros que ha aprendido. Pero no puede responder a ocurrencias más ocasionales o únicas”.
“Los humanos tienen una comprensión de la semántica más amplia y pueden producir respuestas y reacciones completamente nuevas. Sabemos que la maquinaria semántica es desordenada”, agregó Roy-Chowdhury.