GOOGLE

Google lanza modelos de IA ‘abiertos’ después de Meta

El mercado de los modelos de lenguaje avanzados continúa creciendo. Con un creciente interés por parte de empresas que buscan competir en un segmento dominado actualmente por IA como ChatGPT y Copilot.

Google busca competir en el mercado anunciando Gemma.
Google busca competir en el mercado anunciando Gemma.FreepikFreepik

En vista de esta tendencia, Google anunciaría planes de lanzar modelos de IA “abiertos”, en línea con la estrategiaque presentó Meta el año pasado.Recordemos que en julio, Meta lanzó de forma abierta su modelo de lenguaje, Llama 2, marcando una diferencia con sus competidores principales. Una decisión que ampliaría su accesibilidad para muchos usuarios. Por lo que, siguiendo esa mima línea, Google adoptaría un enfoque similar en futuras fechas, brindando acceso a sus innovaciones en modelos de IA abiertos.

Google busca competir en el mercado de los modelos de IA ‘abiertos’ con Gemma

Es así como el gigante tecnológico Google anunció el lanzamiento de sus nuevos modelos de código abierto, denominados Gemma. Esto en un movimiento estratégico que busca competir con empresas emergentes en este mercado como Meta, Mistral y Hugging Face. Si bien los modelos “abiertos” de IA suelen ser más pequeños y menos eficaces que sus contrapartes propietarias, Google observa una tendencia que podría cerrar esta brecha en sus capacidades.

Por ello, con el objetivo de atraer a más clientes, Google optaría por ofrecer una combinación de modelos propietarios. Además de los de código abiertos, para construir aplicaciones de IA en su plataforma en la nube. Esto le brinda beneficios significativos al evitar transferencias de datos entre múltiples servidores, lo cual puede resultar en demoras y posibles errores.

Google devela la versatilidad de sus modelos de IA abiertos

Por su parte, Tris Warkentin de Google DeepMind menciona que los modelos de IA abiertos suelen utilizarse para el desarrollo de aplicaciones de menor envergadura. Esto por su versatilidad, accesibilidad y menos necesidad de recursos. Mientras que los modelos más costosos son reservados para situaciones donde se requieren capacidades específicas y de mayor rendimiento. Sin embargo, esta es una brecha que continúa reduciéndose constantemente.

Asimismo, se observa mayor diversidad de tamaños y capacidades entre las nuevas propuestas. De ahí que los modelos Gemma tendrían un tamaño de 2.000 millones o 7.000 millones de parámetros. En comparación a los modelos Llama 2 de Meta, que tienen un tamaño de entre siete y 70 mil millones de parámetros. En este punto, cabe destacar que en su lanzamiento inicial, el modelo GPT-3 (2020) de OpenAI tenía 175 mil millones de parámetros.

Nvidia y Google revelan su enfoque estratégico en le mercado de la IA

El fabricante Nvidia también se pronunció recientemente, afirmando que ya trabaja junto a Google para garantizar la compatibilidad de Gemma con sus chips. De igual manera dijo que pronto hará que su chatbot, actualmente en desarrollo, pueda ejecutar modelos de IA en Windows que funcionen conlos modelos de IA de Google. Lo que se traduce en una asociación estratégica que impulsará la integración de la IA en ambas compañías.

Google informó que el lanzamiento de Gemma irá acompañado de directrices destinadas a promover un uso responsable y ético de sus modelos de IA. Así como una técnica para desarrollar filtros de seguridad que los usuarios podrán implementar con el objetivo de prevenir salidas problemáticas o situaciones no deseadas. Esto en pro de fomentar la transparencia y la confianza en la IA.

Asimismo, Jeanine Banks (Vicepresidenta Directora General y Jefa de Relaciones con Desarrolladores), afirmó que la compañía cuenta con extensos términos y condiciones de licencia. De manera que se prohíbe a los programadores utilizar Gemma con propósitos maliciosos o nefastos.Ya que Google desea que sus modelos abiertos de IA se empleen de manera constructiva para la industria.

Google reafirma su compromiso en el desarrollo de Gemma

Como ya mencionamos, Google detalló que sus modelos de IA, Gemma, estarán disponibles en dos tamaños distintos. Uno de ellos consistirá en una red neuronal con 2.000 millones de variables ajustables, conocidas como parámetros. Mientras que el otro contará con una red neuronal más extensa, compuesta por 7 mil millones de parámetros. Así pues, permitiéndole a desarrolladores elegir la versión más adecuada para sus necesidades.

Aun así ambos son más grandes que el modelo propietario más pequeño de Google, el Gemini Nano, optimizado para su uso en teléfonos inteligentes y otros dispositivos de última generación, con un total de 1.800 millones de parámetros. Sin embargo, es probable que estos modelos Gemma sean considerablemente más compactos en comparación con los modelos Pro y Ultra de la línea Gemini, trayendo una gama más diversa a los servicios de Google.