La Inteligencia Artificial Gemma de Google se integrará con Chat en RTX

Google ha lanzado su modelo para IA liviano Gemma basado en Gemini, un modelo que pretende ejecutarse de forma local en dispositivos como ordenadores, centros de datos y servidores. Pero también ha anunciado su compatibilidad con el hardware de NVIDIA y la biblioteca NVIDIA TensorRT-LLM, algo que la compañía ha aprovechado para ofrecer Inteligencia Artificial casera gracias al hardware de sus gráficas RTX. Con  este soporte NVIDIA TensorRT-LLM por parte de esta IA de Google será posible añadir Gemma a su tecnología Chat con RTX.

Gracias a Chat con RTX y al modelo liviano Gemma de Google, los usuarios podrán obtener capacidades de Inteligencia Artificial generativa cuando ejecutan hardware NVIDIA RTX. Una característica que da acceso a esta tecnología en más de 100 millones de GPUs NVIDIA que hay disponibles en equipos PC por todo el mundo. Chat con RTX permitirá a los usuarios personalizar su propio chat con Inteligencia Artificial y sus propios datos proporcionando respuestas de manera rápida y eficaz directamente desde tu ordenador.

Chat con RTX prescindirá de servicios en la nube y te ofrecerá mayor seguridad al trabajar con datos más sensibles, sin necesidad de una conexión a internet. Aun así, los desarrolladores también podrán ejecutar Gemma en las GPU en la nube, como las instancias de Google Cloud basadas en las GPU de NVIDIA H100, permitiendo personalizar e implementar el modelo Gemma optimizado para sus propias aplicaciones.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!