
Alphabet (GOOGL.O) presentó el miércoles su modelo de inteligencia artificial más avanzado, una tecnología capaz de procesar diferentes formas de información como video, audio y texto, informó la Agencia de Noticias Reuters.
Llamado Gemini, el muy esperado modelo de inteligencia artificial del propietario de Google es capaz de razonar de manera más sofisticada y comprender información con un mayor grado de matices que la tecnología anterior de Google, dijo la compañía.
«Esta nueva era de modelos representa uno de los mayores esfuerzos de ciencia e ingeniería que hemos emprendido como empresa», escribió el director ejecutivo de Alphabet, Sundar Pichai, en una publicación de blog.
Desde el lanzamiento de ChatGPT de OpenAI hace aproximadamente un año, Google ha estado compitiendo para producir software de inteligencia artificial que rivalice con lo que ha introducido la compañía respaldada por Microsoft (MSFT.O).
Google agregó una parte de la tecnología del nuevo modelo Gemini a su asistente de inteligencia artificial Bard el miércoles y dijo que planeaba lanzar su versión más avanzada de Gemini a través de Bard a principios del próximo año.
Alphabet dijo que está fabricando tres versiones de Gemini, cada una de las cuales está diseñada para utilizar una cantidad diferente de potencia de procesamiento. La versión más potente está diseñada para ejecutarse en centros de datos y la más pequeña funcionará de manera eficiente en dispositivos móviles, dijo la compañía.
Gemini es el modelo de IA más grande que la unidad de IA de Google DeepMind de la compañía ha ayudado a crear, pero es «significativamente» más barato para servir a los usuarios que los modelos anteriores más grandes de la compañía, dijo a los periodistas el vicepresidente de Producto de DeepMind, Eli Collins.
«Así que no sólo es más capaz, sino también mucho más eficiente», afirmó Collins. El último modelo todavía requiere una cantidad sustancial de potencia informática para entrenarse, pero Google está mejorando su proceso, añadió.
Alphabet también anunció una nueva generación de sus chips de IA personalizados, o unidades de procesamiento de tensores (TPU). El Cloud TPU v5p está diseñado para entrenar grandes modelos de IA y está integrado en módulos de 8.960 chips.
La nueva versión de los procesadores de sus clientes puede entrenar modelos de lenguaje grandes casi tres veces más rápido que las generaciones anteriores. Los nuevos chips estarán disponibles para los desarrolladores en «vista previa» a partir del miércoles, dijo la compañía.
Fuente: Reuters