La empresa que desarrolla ChatGPT, OpenAI, ha presentado GPT-OSS, un nuevo modelo de lenguaje de peso abierto que puede descargarse de forma gratuita y ejecutarse localmente, incluso en ordenadores portátiles. Es el primer modelo de este tipo que la compañía lanza desde antes del nacimiento de ChatGPT (en la época de GPT-2) y podría suponer un cambio de estrategia.
El modelo está disponible en dos variantes: una versión con 120.000 millones de parámetros, que puede ejecutarse con una sola GPU de Nvidia, y otra de 20.000 millones de parámetros, diseñada para funcionar con solo 16 GB de memoria. Ambas versiones se publican bajo la licencia Apache 2.0, lo que permite su uso, modificación y explotación comercial sin restricciones.
Un modelo local, personalizable y con enfoque en la seguridad
GPT-OSS puede realizar tareas de razonamiento, escribir código, operar agentes y acceder a internet, todo a través de las APIs ya existentes de OpenAI. El modelo estará disponible a través de plataformas como Hugging Face, Databricks, Azure y AWS. Según OpenAI, se trata de su modelo más probado en términos de seguridad, con validaciones externas para evitar riesgos relacionados con ciberseguridad o uso indebido en áreas sensibles.
Una de las novedades destacadas es la visibilidad del proceso de razonamiento del modelo, una función pensada para detectar posibles comportamientos no deseados o engañosos. GPT-OSS genera solo texto y, como es habitual en OpenAI, la compañía no ha revelado los datos utilizados para su entrenamiento.
Chris Cook, investigador de OpenAI, indicaba que la mayoría de sus clientes ya usan modelos abiertos y que GPT-OSS busca llenar ese vacío con una alternativa propia. Por su parte, el cofundador Greg Brockman destacó que estos modelos están pensados para facilitar el acceso a la IA a pequeñas empresas y desarrolladores independientes, que necesitan mayor control sobre sus datos.
OpenAI no ha publicado comparativas directas entre GPT-OSS y otros modelos abiertos como Llama, DeepSeek o Gemma, aunque afirma que su rendimiento es similar al de sus modelos cerrados más recientes en tareas de programación y razonamiento. Técnicamente, se podrá usar con herramientas como Ollama, que permite la ejecución de modelos en local.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




