Vivobook S14 BannerAnno 117 Banner
Así se usa ChatGPT para hacer el mal: del espionaje en redes sociales en China a la creación de estafas y malware

Así se usa ChatGPT para hacer el mal: del espionaje en redes sociales en China a la creación de estafas y malware

por Edgar Otero 2

OpenAI ha vuelto a tomar medidas contra el uso malicioso de su tecnología, bloqueando varias cuentas que utilizaban ChatGPT para fines ilícitos. Entre los casos más destacados se encuentra el de una cuenta con origen en China que empleaba el chatbot para diseñar herramientas de vigilancia masiva en redes sociales. No es la primera vez que la compañía interrumpe esfuerzos similares, pero este último informe trimestral revela una preocupante variedad de actividades maliciosas.

La compañía ha detallado que una de las cuentas suspendidas estaba utilizando ChatGPT para desarrollar materiales promocionales y planes de proyecto para una herramienta de monitorización de redes sociales. Según OpenAI, este trabajo se realizaba supuestamente para un cliente gubernamental. La herramienta tenía la capacidad de rastrear plataformas como X, Facebook, Instagram y TikTok en busca de contenido político, étnico o religioso específico, definido previamente por el operador.

Vigilancia de contenido político y étnico

Aunque OpenAI ha aclarado que no puede verificar de forma independiente si la herramienta fue finalmente utilizada por una entidad del gobierno chino, la intención detrás de su creación es clara. En un caso separado, pero relacionado, la empresa también bloqueó una cuenta que usaba ChatGPT para desarrollar un sistema `para ayudar a rastrear los movimientos de personas vinculadas a la etnia Uigures.

Este descubrimiento es especialmente sensible, dado que China ha sido acusada durante mucho tiempo de presuntas violaciones de los derechos humanos contra la población musulmana uigur en el país. Estos casos demuestran cómo los modelos de lenguaje pueden ser adaptados para crear sofisticadas herramientas de control y vigilancia.

Pero el espionaje no es el único uso indebido que OpenAI ha detectado. El informe también revela que desarrolladores de habla rusa, coreana y china han utilizado ChatGPT para perfeccionar malware. Asimismo, se han desmantelado redes enteras en Camboya, Myanmar y Nigeria que empleaban el chatbot para ayudar a crear estafas y fraudes a gran escala. Como contrapunto, la compañía estima que su inteligencia artificial se utiliza para detectar estafas tres veces más de lo que se usa para crearlas.

Estos descubrimientos de usos maliciosos se suman a las operaciones que OpenAI ya interrumpió durante el verano en Irán, Rusia y China. En aquella ocasión, algunos usuarios usaban ChatGPT para generar publicaciones y comentarios en redes sociales como parte de campañas para influenciar a la población.

Estos casos nos recuerda que, a pesar de las grandes ventajas que tiene ChatGPT y la IA en general, también es una herramienta magnífica para desarrollar prácticas ilegales o poco éticas. Lamentablemente, cuando hablamos de modelos de IA local, como los propios de OpenAI GPT-OSS, no es posible aplicar un control sobre el uso real.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Temas Relacionados: Software OpenAI ChatGPT
Redactor del Artículo: Edgar Otero

Edgar Otero

Soy técnico en sistemas informáticos, empecé a experimentar un Pentium II, aunque lo mío siempre ha sido el software. Desde que actualicé de Windows 95 a Windows 98 no he dejado de instalar sistemas. Tuve mi época Linuxera y fui de los que pidió el CD gratuito de Canonical. Actualmente uso macOS para trabajar y tengo un portátil con Windows 11 en el que también he instalado Chrome OS Flex. En definitiva, experimentar, probar y presionar botones.

Comentarios y opiniones sobre: Así se usa ChatGPT para hacer el mal: del espionaje en redes sociales en China a la creación de estafas y malware ¿Qué opinas? ¿Alguna pregunta?
BestiaBanquete Banner