Cómo instalar Gemma 4 paso a paso y ejecutarlo en tu PC con Ollama
Cómo instalar Gemma 4 paso a paso y ejecutarlo en tu PC con Ollama
Una guía clara para descargar, elegir el tamaño correcto, instalar Ollama y dejar funcionando Gemma 4 en local en pocos minutos.
Gemma 4 es la nueva familia de modelos abiertos de Google DeepMind y una de sus grandes ventajas es que puede correr tanto en equipos pequeños como en workstations más potentes. Si quieres probarlo sin meterte todavía en configuraciones complejas, la ruta más simple es Ollama. En esta guía vas a ver qué versión elegir, cómo instalarla y cómo hacer tu primera prueba real desde la terminal.
Para la mayoría de usuarios, Ollama es la forma más rápida de dejar Gemma 4 funcionando sin pelearse con dependencias avanzadas.
Si tu equipo no tiene mucha VRAM, arranca con E2B o E4B y sube de tamaño solo cuando ya tengas el flujo estable.
Gemma 4 no es solo texto: todos los modelos aceptan imagen y los modelos pequeños además soportan audio.
Qué es Gemma 4 y por qué está llamando tanto la atención
Lo interesante de Gemma 4 es que Google DeepMind no lo presenta solo como otro modelo abierto, sino como su familia más capaz hasta la fecha para razonamiento, coding y flujos agentic. Además, llega en varios tamaños para que no todo el mundo necesite una máquina enorme para probarlo.
La familia incluye cuatro variantes: E2B, E4B, 26B A4B y 31B. Los modelos pequeños están pensados para edge y equipos más modestos, mientras que los grandes van mejor en estaciones de trabajo o GPUs con más memoria.
Galería rápida del tutorial
Video tutorial recomendado
Requisitos antes de instalar Gemma 4
Antes de descargar nada, conviene elegir bien el tamaño del modelo. No todos los equipos están preparados para mover igual de bien las versiones grandes. Si vas a empezar en local, la mejor decisión es adaptar el tamaño a la memoria disponible.
| Modelo | Uso recomendado | Memoria aproximada Q4_0 |
|---|---|---|
| Gemma 4 E2B | Portátiles modestos y pruebas rápidas | 3.2 GB |
| Gemma 4 E4B | Equipos personales con más margen | 5 GB |
| Gemma 4 26B A4B | Workstations o GPUs con buen espacio | 15.6 GB |
| Gemma 4 31B | Equipos potentes para máxima calidad local | 17.4 GB |
Paso 1: instala Ollama
El primer paso es tener Ollama funcionando. Puedes instalarlo en macOS, Linux o Windows. En macOS y Linux el script oficial simplifica mucho el proceso. En Windows puedes usar PowerShell o descargar el instalador desde la web oficial.
Cuando termine la instalación, comprueba que Ollama está disponible:
Paso 2: descarga Gemma 4
Con Ollama listo, ahora toca bajar el modelo. El comando más simple descarga la variante por defecto de Gemma 4:
Si quieres elegir el tamaño exacto, usa uno de estos tags:
Después puedes revisar qué modelos tienes disponibles:
Paso 3: ejecuta tu primer chat con Gemma 4
Ahora viene la parte buena. Una vez descargado, puedes abrir un chat interactivo desde la terminal con este comando:
O si prefieres llamar directamente a una variante específica:
Para una prueba rápida, escribe algo como:
Paso 4: prueba Gemma 4 con imágenes
Una de las partes más interesantes de Gemma 4 es que acepta imagen en todas sus variantes. Si tienes una imagen local, puedes pedírsela directamente desde Ollama en la misma línea del prompt.
Esto es útil para OCR, descripciones, revisión de diagramas o capturas de pantalla. Si eliges E2B o E4B, además tienes entrada de audio nativa según la documentación oficial.
Paso 5: úsalo por API local
Si quieres integrar Gemma 4 en una app, un script o un flujo local, Ollama levanta una API en tu máquina. Puedes probarla con curl antes de escribir una sola línea de backend:
Esta parte es clave porque convierte a Gemma 4 en algo más que un chat de terminal: lo vuelve reutilizable dentro de tus propios proyectos.
Cronología rápida para no perder el contexto
Google publica oficialmente Gemma 4 en cuatro tamaños: E2B, E4B, 26B A4B y 31B.
Google actualiza su documentación y publica guías para correr Gemma 4 en local con Ollama y otras integraciones.
La forma más simple para la mayoría de usuarios sigue siendo instalar Ollama, hacer pull del modelo y ejecutarlo localmente.
Errores comunes al instalar Gemma 4
- Elegir un modelo demasiado grande para tu equipo y pensar que Gemma 4 “va mal”.
- No dejar suficiente espacio en disco para el modelo y su caché.
- Olvidar que la memoria necesaria no es solo la del peso del modelo, sino también la del contexto y el sistema.
- Intentar empezar por 31B cuando E2B o E4B ya sirven perfectamente para validar el flujo.
Preguntas rápidas sobre Gemma 4
¿Gemma 4 se puede usar comercialmente?
Sí, Google lo distribuye con licencia Apache 2.0 y documentación pública para su uso responsable.
¿Cuál versión debería instalar primero?
Para empezar, E2B o E4B. Son las variantes más amigables para pruebas locales en equipos personales.
¿Gemma 4 solo sirve para texto?
No. Todos los modelos aceptan imagen, y los modelos pequeños E2B y E4B también tienen soporte nativo de audio.
Conclusión: así instalas Gemma 4 sin complicarte de más
Si tu objetivo es probar Gemma 4 hoy mismo, la mejor ruta es clara: instala Ollama, baja una variante pequeña como E2B o E4B y valida primero el flujo básico desde terminal. Con eso ya tienes una base real para experimentar con prompts, imágenes y llamadas por API local.
Después, cuando todo funcione bien, sí tiene sentido subir a 26B o 31B, o incluso mover el modelo a una workstation más seria. Pero para empezar, lo importante no es montar el entorno más espectacular, sino dejar corriendo Gemma 4 de forma estable y útil.
Leer más tutoriales de IA Ver herramientas de IA🚀 ¿Quieres estar siempre actualizado en IA?
Únete a nuestra comunidad exclusiva donde compartimos diariamente las últimas noticias, herramientas y tutoriales en IA.
📲 Unirme a la Comunidad



Publicar comentario