Vivobook S14 BannerMPG 272URX QD-OLED + MPG Infinite X3 AI 2 Banner
OpenAI busca a un nuevo "jefe de preparación" ante los riesgos piscológicos, sociales y de ciberseguridad de la IA

OpenAI busca a un nuevo "jefe de preparación" ante los riesgos piscológicos, sociales y de ciberseguridad de la IA

por Edgar Otero

OpenAI ha iniciado la búsqueda de un nuevo ejecutivo de alto nivel para liderar su división de seguridad y riesgos emergentes. La compañía está contratando un nuevo jefe de preparación, (en inglés, Head of Preparedness) un rol indispensable para estudiar y mitigar las amenazas que la inteligencia artificial está empezando a plantear en áreas tan sensibles como la seguridad informática y la salud mental de los usuarios.

El propio Sam Altman, CEO de la compañía, ha abordado el asunto con franqueza a través de una publicación en X. Altman ha reconocido que los modelos actuales están "empezando a presentar algunos desafíos reales", destacando específicamente el "impacto potencial de los modelos en la salud mental". Además, señaló la capacidad de estas herramientas para detectar vulnerabilidades críticas de seguridad, lo que obliga a buscar un equilibrio: ayudar a los que promueven la ciberseguridad sin ponerle las cosas fáciles a los atacantes.

La descripción del puesto detalla la responsabilidad de ejecutar el "marco de preparación" de la empresa, una estrategia para rastrear capacidades de frontera que podrían generar riesgos de daño severo. Esto incluye escenarios complejos como la liberación de capacidades biológicas o la gestión de sistemas que pueden mejorar por sí solos. Este movimiento llega tras un año convulso para el equipo de seguridad de OpenAI que vio cómo su anterior líder, Aleksander Madry, era reasignado a otras tareas y otros ejecutivos de seguridad abandonaban la empresa.

Conectar emocionalmente con la IA es posible y peligroso

La urgencia de esta contratación no es casual. Los chatbots de IA generativa se enfrentan a un escrutinio cada vez mayor, con demandas recientes que alegan que ChatGPT ha llegado a reforzar los delirios de los usuarios, aumentar su aislamiento social e incluso inducir al suicidio en casos extremos. Aunque la compañía asegura que trabaja para mejorar la detección de signos de angustia emocional, el problema de fondo persiste.

Más allá de las vulnerabilidades técnicas, el verdadero riesgo latente reside en la psique humana. A medida que la IA se vuelve más humana y convincente en su interacción, el peligro de establecer lazos emocionales con la máquina se dispara. Cuando un algoritmo diseñado para complacer sustituye la interacción social real, se crea un bucle de retroalimentación que puede validar comportamientos peligrosos o aislar al individuo de la realidad.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Redactor del Artículo: Edgar Otero

Edgar Otero

Soy técnico en sistemas informáticos, empecé a experimentar un Pentium II, aunque lo mío siempre ha sido el software. Desde que actualicé de Windows 95 a Windows 98 no he dejado de instalar sistemas. Tuve mi época Linuxera y fui de los que pidió el CD gratuito de Canonical. Actualmente uso macOS para trabajar y tengo un portátil con Windows 11 en el que también he instalado Chrome OS Flex. En definitiva, experimentar, probar y presionar botones.

Comentarios y opiniones sobre: OpenAI busca a un nuevo "jefe de preparación" ante los riesgos piscológicos, sociales y de ciberseguridad de la IA ¿Qué opinas? ¿Alguna pregunta?
BestiaBanquete Banner