Meta tiene un problema con sus chatbots y los menores de edad. Por eso, quiere endurecer sus normas de uso
por Edgar OteroMeta está modificando parte de las normas que definen el comportamiento de sus chatbots de inteligencia artificial. Esto ha pasado después de que una investigación de Reuters revelara posibles interacciones inapropiadas con menores. La compañía confirmó que sus sistemas ahora están entrenados para no conversar con adolescentes sobre autolesiones, suicidio o trastornos alimenticios. También ha aplicado ajustes para evitar diálogos de carácter romántico. Según explicó la empresa, estas medidas son temporales mientras se desarrollan las normas permanentes.
Controversias sobre uso indebido y fallos en la supervisión
Las nuevas restricciones llegan tras varias revelaciones sobre el uso de los chatbots, como Meta AI en WhatsApp. Reuters documentó casos en los que se permitía a los sistemas entablar conversaciones románticas con menores, generar imágenes comprometidas de celebridades siendo menores de edad y difundir información engañosa. No es la primera vez que Meta debe corregir errores en sus sistemas de IA, aunque en este caso las consecuencias pueden ser todavía más graves.
Meta indicó que, además de limitar interacciones sensibles, también restringirá el acceso a personajes de IA con contenido sexualizado. Reuters detectó bots que imitaban a celebridades como Taylor Swift, Scarlett Johansson, Selena Gomez o Anne Hathaway. Estos no solo se hacían pasar por las figuras públicas, sino que producían imágenes sugerentes y aseguraban ser la persona real. Algunos de estos chatbots incluso fueron creados por empleados de Meta, como un bot basado en Taylor Swift que llegó a invitar a un reportero a un encuentro ficticio.
Meta enfrenta ahora presión política y legal, con el Senado de Estados Unidos y fiscales generales de 44 estados investigando estas prácticas. A pesar de los recientes ajustes, la compañía no ha aclarado qué medidas tomará frente a otros problemas detectados, como la generación de mensajes racistas o la promoción de tratamientos falsos para enfermedades graves. Recordemos que las medidas son temporales, así que la respuesta definitiva sobre cómo Meta piensa controlar estos comportamientos sigue pendiente.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




