Este miércoles, Google marcó un hito en el campo de la inteligencia artificial con el lanzamiento de Gemini, su modelo más ambicioso hasta la fecha. Presentado como el "modelo de IA más grande y capaz" de la empresa, Gemini es la apuesta de Google para competir con los exitosos modelos GPT de OpenAI.

Lo que distingue a Gemini es su enfoque "multimodal". A diferencia de otros modelos que se centran en un tipo de entrada del usuario, como texto o imágenes, Gemini acepta una variedad de medios, incluyendo texto, imágenes, audio, video y código de programación.

Según Sundar Pichai, CEO de Google, esta incursión en una "nueva era de modelos" representa uno de los mayores esfuerzos de ciencia e ingeniería de la compañía. El chatbot de IA de Google, Bard, ya ha sido actualizado con una versión de Gemini, y la empresa tiene planes de implementar Gemini en productos ampliamente utilizados, como el motor de búsqueda de Google y el navegador web Chrome.

El anuncio busca recuperar la delantera en el campo de la IA generativa después de que OpenAI sorprendiera a la industria con el lanzamiento masivo de ChatGPT el año pasado. Google está posicionando a Gemini no solo como un avance en la inteligencia artificial, sino también como un impulso para la computación en la nube, utilizando procesadores basados en la nube que aceleran el entrenamiento de modelos de IA.

Google clasifica a Gemini en tres tamaños: Nano, optimizado para dispositivos móviles; Pro, el modelo por defecto para una variedad de tareas; y Ultra, el más avanzado que aún se encuentra en pruebas de seguridad. La compañía afirma que, en las pruebas, Gemini superó a los modelos rivales en diversas evaluaciones de comprensión lectora, capacidad matemática y razonamiento multipaso.

A pesar de los avances, Google reconoce los riesgos asociados con los grandes modelos de lenguaje. Eli Collins de Google DeepMind señaló que, aunque han trabajado en mejorar la objetividad en Gemini, los modelos aún pueden "alucinar". En respuesta a estas preocupaciones, Gemini Ultra se lanzará gradualmente a usuarios selectos para experimentación y retroalimentación antes de llegar al público general a principios del próximo año, sujeto a evaluaciones de seguridad por parte de terceros.