Meta ha reconocido que utilizó publicaciones públicas en sus plataformas de Facebook e Instagram para entrenar a su nuevo asistente virtual de inteligencia artificial (IA).
El Presidente de Asuntos Globales de Meta, Nick Clegg, argumentó que la compañía utilizó sólo publicaciones públicas y se mantuvo alejada tanto de las publicaciones privadas que se compartieron con amigos y familiares como de los mensajes privados para entrenar al bot de IA de la compañía, según un informe de Reuters.
“Hemos tratado de excluir los conjuntos de datos que tienen una gran preponderancia de información personal”, dijo Clegg durante la conferencia anual Connect de la compañía, añadiendo que la “gran mayoría” de los datos utilizados ya estaban disponibles públicamente.
Las empresas tecnológicas han estado en el punto de mira en los últimos meses por las denuncias que indican que han estado utilizando información de para entrenar modelos de IA, capaces de clasificar una cantidad masiva de datos. En algunos casos, los análisis de datos han dado lugar a demandas judiciales, según Reuters, especialmente cuando se acusa a la IA de reproducir materiales protegidos por derechos de autor.
“Las IA necesitan cantidades asombrosas de datos de entrenamiento, por lo que las publicaciones de los usuarios son una forma ideal de ‘alimentar a la bestia’”, dijo Christopher Alexander, director de análisis de Pioneer Development Group, a Fox News Digital. “Lo que preocupa es cómo se utilizan estos personajes de IA mejor entrenados. Existe la posibilidad de que las IA sean increíblemente persuasivas y hablen exactamente como mejor se identifica la persona con la que se comunican. Existe una preocupación real sobre la apariencia humana que puede llegar a tener la IA, y eso debe tenerse en cuenta”.
Jon Schweppe, director de políticas de American Principles Project, cuestionó cuántas “medidas de protección” se han puesto en marcha para proteger la información personal.
“Meta parece estar construyendo su IA a costa de las publicaciones, fotos y datos personales de sus usuarios. ¿Es eso realmente lo que los consumidores firmaron?”. dijo Schweppe a Fox News Digital. “Estados Unidos se encuentra en un punto álgido, similar a donde estábamos cuando las redes sociales entraron en escena hace casi 20 años y lanzaron el mayor experimento social de la historia de la humanidad. O el Congreso actúa ahora y otorga al pueblo estadounidense la supervisión de la IA, o volveremos a quedar a merced de nuestros señores tecnológicos.”
El director ejecutivo de Meta, Mark Zuckerburg, desveló públicamente la nueva herramienta de IA de la empresa durante la conferencia sobre el producto celebrada la semana pasada, que se realizó utilizando un modelo personalizado similar al gran modelo de lenguaje Llama 2, según Reuters. El producto será capaz de generar texto, audio e imágenes, al tiempo que tendrá acceso a información en tiempo real al asociarse con el buscador Bing, señala el informe.
Las publicaciones públicas de Facebook e Instagram se utilizaron para entrenar la herramienta de IA de Meta tanto para la generación de imágenes como para las respuestas de chat, mientras que las interacciones de los usuarios con el bot le ayudarán a mejorar sus funciones en el futuro, dijo Meta a Reuters.
Ziven Havens, director de políticas del Bull Moose Project, dijo a Fox News Digital que “no debería sorprender a los usuarios” que sus publicaciones se utilizaran para entrenar las herramientas de IA de Meta, pero argumenta que los usuarios deberían preocuparse por “si sus datos se están utilizando de forma responsable y segura”.
“Sin una acción real del Congreso, los estadounidenses tienen que asumir que estas empresas de IA están siendo responsables con sus datos, algo que muchos estadounidenses encontrarían difícil de creer dada la última década”, dijo Havens. “Si el Congreso no actúa, las preocupaciones sobre la privacidad de los datos solo van a seguir aumentando”.
Phil Siegel, fundador del Center for Advanced Preparedness and Threat Response Simulation, dijo a Fox News Digital que “no es sorprendente” que Meta esté utilizando posts para entrenar su IA, señalando que esto le da al bot acceso a “datos únicos y le permitirá entrenar un LLM (modelo de lenguaje grande) para actuar como si fueran usuarios de medios sociales, y será distinto de los LLM que simplemente recogen información objetiva del mundo de Internet.”
Pero Siegel señaló que podría preocupar la propagación de personajes artificiales, sobre todo teniendo en cuenta el impacto que las redes sociales ya han tenido en la salud mental de los usuarios.
“Me preocupa que los modelos difundan información mala u ofensiva, hiperalucinen (piensen en combinar respuestas humanas emocionales con LLM ya delirantes), creen personalidades deformadas para interactuar con los adolescentes y mucho más. Puede que así sea como progrese realmente el metaverso”, afirma. “Seamos honestos, las compañías de medios sociales han dañado la salud mental de muchas personas mayores y jóvenes sin IA en la mezcla… tienen que garantizar que esta IA no amplifique el problema aún más”.
Al ser contactado por Fox News Digital para hacer comentarios, un portavoz de Meta dijo que algunos de los detalles en el informe de Reuters eran inexactos, señalando que la IA de Meta utilizó publicaciones públicas de Facebook e Instagram para entrenar el modelo para “características de generación de imágenes”, pero no utilizó datos públicos o privados para “entrenar el modelo personalizado para texto/LLM en nuestro Asistente de IA y personajes.” El portavoz añadió que la nueva IA de Meta no “generará audio”, una función que algunos informes han indicado que estará disponible.