Meta ha confirmado que solucionó un fallo de seguridad que permitía a usuarios de su chatbot Meta AI acceder a los prompts privados y respuestas generadas por otros usuarios. El problema fue detectado por Sandeep Hodkasia, fundador de la firma AppSecure, que lo reportó de forma privada a Meta el pasado 26 de diciembre de 2024. Gracias a esta divulgación responsable, Hodkasia recibió una recompensa de 10.000 dólares a través del programa de bug bounty de la compañía.
Meta implementó la corrección del fallo el 24 de enero de 2025 y, según ha confirmado, no encontró pruebas de que hubiera sido explotado de manera maliciosa, por lo que los datos privados de los usuarios no habrían caído en las manos equivocadas.
Prompts expuestos por culpa de un identificador
Hodkasia descubrió el error al analizar cómo los usuarios pueden editar sus prompts para regenerar texto e imágenes en Meta AI. En este proceso, los servidores de Meta asignan un número único a cada prompt y su respuesta generada.
Al examinar el tráfico de red desde el navegador mientras editaba un prompt, Hodkasia se dio cuenta de que era posible modificar manualmente ese identificador. Al hacerlo, los servidores devolvían el prompt y la respuesta de otro usuario diferente, sin verificar si quien realizaba la petición tenía permisos para ver ese contenido.
El problema se agravaba porque esos identificadores eran fáciles de adivinar, lo que habría permitido a un atacante automatizar la recolección de prompts privados cambiando los números de forma secuencial o aleatoria. A pesar de que el error fue corregido hace más de medio año, no ha sido hasta ahora que se ha tenido conocimiento de él.
Meta AI es la plataforma que da vida al chatbot integrado en WhatsApp o en las gafas inteligentes de Ray-Ban. Los modelos de lenguaje de la compañía de Mark Zuckerberg también se pueden utilizar sin conexión gracias a herramientas como Ollama.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




