Recientemente, Google presentó su nuevo modelo de lenguaje, Google Gemma, generando gran interés y comparaciones con Google Gemini. A diferencia de Gemini, Gemma es un modelo de lenguaje grande (LLM) diseñado para ejecutarse localmente en computadoras, lo que lo hace altamente personalizable y adaptable para las necesidades individuales de investigadores y programadores. Gemma está disponible de forma gratuita y es de código abierto, aunque también ofrece una licencia comercial. Comparado con otros modelos de lenguaje grandes de código abierto, Gemma se destaca por su potencia y versatilidad, ofreciendo modelos como Gemma 2B y Gemma 7B para satisfacer diversas necesidades.
En contraste, Google Gemini es un modelo comercial destinado a la explotación económica tanto para usuarios finales como para empresas. Gemini es más grande en tamaño y más complejo en sus tareas, lo que conlleva un costo económico mayor para mantenerlo en funcionamiento, debido al alto consumo energético inherente a los modelos de IA. Aunque Gemma es más flexible y personalizable, carece de la potencia inherente de los modelos de código cerrado como Gemini.
Para utilizar Google Gemma, es importante tener un ordenador potente con capacidades de IA, como los chips AMD Ryzen AI o Intel Deep Learning Boost. Si bien es posible usar Gemma sin estos chips especializados, el rendimiento y la eficiencia de recursos pueden verse afectados. Una forma conveniente de obtener Gemma es a través de Kaggle, donde Google ha compartido versiones pre entrenadas para facilitar su uso y acelerar su implementación.