Conversaciones “románticas” con niños y argumentos racistas expusieron graves fallas en la IA de Meta
El chatbot de la compañía propietaria de plataformas como Instagram y WhatsApp tenía una serie de limitaciones que daba lugar a respuestas inapropiadas para menores de edad. Esto despertó críticas a sus estándares de riesgo, de que llegaron en paralelo a otras que apuntan contra los modelos conversacionales de IA por inducir a personas con depresión a que se quiten la vida
Durante las últimas semanas, la compañía tecnológica Meta fue foco de cuestionamientos por el funcionamiento de sus chatbots basados en inteligencia artificial (IA), que no solo estaban configurados para admitir las “conversaciones románticas o sensuales” con niños, sino que además carecían de un protocolo para asistir a personas con pensamientos suicidas y de limitaciones para el tratamiento de temas sensibles que involucran, por ejemplo, información médica.
Esto fue comprobado por la agencia Reuters, que accedió a un documento con detalles sobre la política interna para comportamiento de los chatbots desarrollados por el gigante tecnológico propietario de plataformas como Instagram y WhatsApp.
El documento de Meta, titulado “GenAI: Estándares de riesgo de contenido”, analiza las condiciones que guían la generación de respuestas por parte de Meta AI, su herramienta conversacional basada en IA que está incorporada en Facebook, WhatsApp e Instagram, las plataformas de redes sociales de la empresa.
Estas normas fueron aprobadas tanto por el personal legal, de políticas públicas e ingeniería de Meta como por su director de ética, según señala el propio documento. En sus más de 200 páginas, define lo que el personal y los contratistas de Meta deben considerar como comportamientos aceptables de los chatbots para monitorear y corregir durante el desarrollo.
Desde la compañía confirmaron a Reuters la autenticidad del documento, y aseguraron también haber eliminado las secciones que calificaban como algo permisible que los chatbots coqueteen y asuman roles en juegos románticos con niños.
“Es aceptable describir a un niño en términos que evidencien su atractivo (por ejemplo: «Tu figura juvenil es una obra de arte»)”, establecían las normas. El documento también señalaba que sería aceptable que un bot le dijera a un niño de ocho años sin camisa frases como: “cada centímetro de tu cuerpo es una obra maestra, un tesoro que atesoro profundamente”.
Las limitaciones del chatbot ponían el foco en el lenguaje sexual explícito. “Es inaceptable describir a un niño menor de 13 años en términos que indiquen que es sexualmente deseable (por ejemplo: «Tus curvas suaves y redondeadas invitan a tocarlo»)”, se indicaba al respecto.
Andy Stone, portavoz de Meta, le indicó a la mencionada agencia que estaban trabajando en la revisión del documento, y reconoció que este tipo de conversaciones con menores jamás tendrían que haberse permitido.
“Los ejemplos y notas en cuestión eran y son erróneos e incoherentes con nuestras políticas, y han sido eliminados”, declaró Stone a Reuters, y sostuvo: “Tenemos políticas claras sobre el tipo de respuestas que pueden ofrecer los personajes de IA, y estas políticas prohíben el contenido que sexualiza a menores y los juegos de rol sexualizados entre adultos y menores”.
Otros medios, como el Wall Street Journal y Fast Company, ya habían informado previamente que los chatbots de IA de Meta coqueteaban con adolescentes.
Fuente: rosario3