Cargando ahora

Cómo instalar Gemma 4 paso a paso y ejecutarlo en tu PC con Ollama

gemma4
Cómo instalar Gemma 4 paso a paso y ejecutarlo en tu PC con Ollama
🛠️ Tutorial práctico | Gemma 4

Cómo instalar Gemma 4 paso a paso y ejecutarlo en tu PC con Ollama

Una guía clara para descargar, elegir el tamaño correcto, instalar Ollama y dejar funcionando Gemma 4 en local en pocos minutos.

📂 Tutoriales y Guías 📅 7 de abril de 2026 ⏱️ 9 min

Gemma 4 es la nueva familia de modelos abiertos de Google DeepMind y una de sus grandes ventajas es que puede correr tanto en equipos pequeños como en workstations más potentes. Si quieres probarlo sin meterte todavía en configuraciones complejas, la ruta más simple es Ollama. En esta guía vas a ver qué versión elegir, cómo instalarla y cómo hacer tu primera prueba real desde la terminal.

La vía más fácil

Para la mayoría de usuarios, Ollama es la forma más rápida de dejar Gemma 4 funcionando sin pelearse con dependencias avanzadas.

Empieza por pequeño

Si tu equipo no tiene mucha VRAM, arranca con E2B o E4B y sube de tamaño solo cuando ya tengas el flujo estable.

También sirve para imágenes

Gemma 4 no es solo texto: todos los modelos aceptan imagen y los modelos pequeños además soportan audio.

Qué es Gemma 4 y por qué está llamando tanto la atención

Lo interesante de Gemma 4 es que Google DeepMind no lo presenta solo como otro modelo abierto, sino como su familia más capaz hasta la fecha para razonamiento, coding y flujos agentic. Además, llega en varios tamaños para que no todo el mundo necesite una máquina enorme para probarlo.

La familia incluye cuatro variantes: E2B, E4B, 26B A4B y 31B. Los modelos pequeños están pensados para edge y equipos más modestos, mientras que los grandes van mejor en estaciones de trabajo o GPUs con más memoria.

Consejo rápido: si solo quieres probar Gemma 4 hoy mismo, usa gemma4:e2b o gemma4:e4b. Son la entrada más amigable para portátil o PC sin montar un entorno pesado.

Galería rápida del tutorial

Logo de Google DeepMind
Google DeepMind lanzó Gemma 4 como su nueva familia de modelos abiertos orientada a razonamiento, multimodalidad y agentes.
Logo de Ollama
Ollama es la ruta más práctica para ejecutar Gemma 4 en local con una instalación rápida y comandos simples.
Miniatura del video tutorial de Gemma 4
También te dejo este video tutorial integrado dentro del artículo para que puedas seguir el proceso visualmente.

Video tutorial recomendado

Requisitos antes de instalar Gemma 4

Antes de descargar nada, conviene elegir bien el tamaño del modelo. No todos los equipos están preparados para mover igual de bien las versiones grandes. Si vas a empezar en local, la mejor decisión es adaptar el tamaño a la memoria disponible.

Modelo Uso recomendado Memoria aproximada Q4_0
Gemma 4 E2B Portátiles modestos y pruebas rápidas 3.2 GB
Gemma 4 E4B Equipos personales con más margen 5 GB
Gemma 4 26B A4B Workstations o GPUs con buen espacio 15.6 GB
Gemma 4 31B Equipos potentes para máxima calidad local 17.4 GB
Importante: esas cifras son aproximadas y corresponden a carga del modelo con cuantización. A eso todavía debes sumar margen para contexto, software y sistema operativo.

Paso 1: instala Ollama

El primer paso es tener Ollama funcionando. Puedes instalarlo en macOS, Linux o Windows. En macOS y Linux el script oficial simplifica mucho el proceso. En Windows puedes usar PowerShell o descargar el instalador desde la web oficial.

# macOS / Linux curl -fsSL https://ollama.com/install.sh | sh # Windows PowerShell irm https://ollama.com/install.ps1 | iex

Cuando termine la instalación, comprueba que Ollama está disponible:

ollama –version
Tip práctico: si prefieres interfaz gráfica en lugar de pura terminal, Google también documenta una ruta oficial con LM Studio. Pero para empezar más rápido, Ollama suele ser el camino más directo.

Paso 2: descarga Gemma 4

Con Ollama listo, ahora toca bajar el modelo. El comando más simple descarga la variante por defecto de Gemma 4:

ollama pull gemma4

Si quieres elegir el tamaño exacto, usa uno de estos tags:

ollama pull gemma4:e2b ollama pull gemma4:e4b ollama pull gemma4:26b ollama pull gemma4:31b

Después puedes revisar qué modelos tienes disponibles:

ollama list

Paso 3: ejecuta tu primer chat con Gemma 4

Ahora viene la parte buena. Una vez descargado, puedes abrir un chat interactivo desde la terminal con este comando:

ollama run gemma4

O si prefieres llamar directamente a una variante específica:

ollama run gemma4:e2b ollama run gemma4:e4b

Para una prueba rápida, escribe algo como:

Explícame en español qué es un modelo multimodal y dame tres ejemplos prácticos.
128K–256K es la ventana de contexto oficial de Gemma 4: los modelos pequeños llegan a 128K y los medianos/grandes a 256K.

Paso 4: prueba Gemma 4 con imágenes

Una de las partes más interesantes de Gemma 4 es que acepta imagen en todas sus variantes. Si tienes una imagen local, puedes pedírsela directamente desde Ollama en la misma línea del prompt.

ollama run gemma4 “describe esta imagen /Users/tu_usuario/Desktop/foto.png”

Esto es útil para OCR, descripciones, revisión de diagramas o capturas de pantalla. Si eliges E2B o E4B, además tienes entrada de audio nativa según la documentación oficial.

Paso 5: úsalo por API local

Si quieres integrar Gemma 4 en una app, un script o un flujo local, Ollama levanta una API en tu máquina. Puedes probarla con curl antes de escribir una sola línea de backend:

curl http://localhost:11434/api/generate -d ‘{ “model”: “gemma4”, “prompt”: “Dame una idea de startup con IA para educación” }’

Esta parte es clave porque convierte a Gemma 4 en algo más que un chat de terminal: lo vuelve reutilizable dentro de tus propios proyectos.

Cronología rápida para no perder el contexto

31 de marzo de 2026

Google publica oficialmente Gemma 4 en cuatro tamaños: E2B, E4B, 26B A4B y 31B.

Primeros días de abril

Google actualiza su documentación y publica guías para correr Gemma 4 en local con Ollama y otras integraciones.

Hoy

La forma más simple para la mayoría de usuarios sigue siendo instalar Ollama, hacer pull del modelo y ejecutarlo localmente.

Errores comunes al instalar Gemma 4

  • Elegir un modelo demasiado grande para tu equipo y pensar que Gemma 4 “va mal”.
  • No dejar suficiente espacio en disco para el modelo y su caché.
  • Olvidar que la memoria necesaria no es solo la del peso del modelo, sino también la del contexto y el sistema.
  • Intentar empezar por 31B cuando E2B o E4B ya sirven perfectamente para validar el flujo.
“La mejor forma de empezar con Gemma 4 no es perseguir el modelo más grande, sino lograr un setup estable y rápido que luego puedas escalar.”

Preguntas rápidas sobre Gemma 4

¿Gemma 4 se puede usar comercialmente?

Sí, Google lo distribuye con licencia Apache 2.0 y documentación pública para su uso responsable.

¿Cuál versión debería instalar primero?

Para empezar, E2B o E4B. Son las variantes más amigables para pruebas locales en equipos personales.

¿Gemma 4 solo sirve para texto?

No. Todos los modelos aceptan imagen, y los modelos pequeños E2B y E4B también tienen soporte nativo de audio.

Conclusión: así instalas Gemma 4 sin complicarte de más

Si tu objetivo es probar Gemma 4 hoy mismo, la mejor ruta es clara: instala Ollama, baja una variante pequeña como E2B o E4B y valida primero el flujo básico desde terminal. Con eso ya tienes una base real para experimentar con prompts, imágenes y llamadas por API local.

Después, cuando todo funcione bien, sí tiene sentido subir a 26B o 31B, o incluso mover el modelo a una workstation más seria. Pero para empezar, lo importante no es montar el entorno más espectacular, sino dejar corriendo Gemma 4 de forma estable y útil.

Leer más tutoriales de IA Ver herramientas de IA

🚀 ¿Quieres estar siempre actualizado en IA?

Únete a nuestra comunidad exclusiva donde compartimos diariamente las últimas noticias, herramientas y tutoriales en IA.

📲 Unirme a la Comunidad

© 2026 Eduky Blog IA – Tu fuente confiable de IA

#gemma4 #googledeepmind #ollama #tutorialia #modelosopensource

Puede que te lo hayas perdido