3-Configurando Ollama: Ejecutar tu primer LLM localmente en Windows
Configurando Ollama: Ejecutar tu primer LLM localmente en Windows
¿Quieres ejecutar modelos de lenguaje grandes (LLM) directamente en tu computadora con Windows, sin depender de servicios en la nube? Con Ollama, puedes instalar y usar modelos como Llama 3, Mistral o Gemma de manera sencilla y local.
En este tutorial, te guiaré paso a paso para configurar Ollama en Windows y ejecutar tu primer modelo de IA.
📌 Requisitos previos
Windows 10/11 (64 bits).
WSL (Windows Subsystem for Linux) activado (Ollama se ejecuta mejor en un entorno Linux).
Docker Desktop (opcional, pero recomendado para mayor compatibilidad).
Al menos 8GB de RAM (16GB o más recomendado para modelos grandes).
🔧 Paso 1: Instalar WSL (Windows Subsystem for Linux)
Ollama funciona mejor en Linux, pero podemos usarlo en Windows mediante WSL.
Abre PowerShell como Administrador y ejecuta:
wsl --installReinicia tu computadora.
Una vez reiniciado, se instalará Ubuntu automáticamente. Ábrelo desde el menú de inicio y configura un usuario y contraseña.
🚀 Paso 2: Instalar Ollama en WSL
Abre Ubuntu (WSL) desde el menú de inicio.
Ejecuta el siguiente comando para instalar Ollama:
curl -fsSL https://ollama.com/install.sh | shVerifica que Ollama esté funcionando:
ollama --version
🤖 Paso 3: Descargar y ejecutar tu primer modelo
Ollama permite descargar modelos preentrenados con un solo comando.
Para probar un modelo pequeño como Mistral (7B), ejecuta:
ollama pull mistralUna vez descargado, inicia una conversación:
ollama run mistral¡Listo! Ya puedes interactuar con el modelo directamente en tu terminal.
💡 Modelos recomendados para probar:
ollama pull llama3(Meta's Llama 3)ollama pull gemma(Google's Gemma)ollama pull phi3(Microsoft Phi-3)
🌐 Usar Ollama con una interfaz gráfica (Opcional)
Si prefieres una interfaz más amigable que la terminal, puedes usar:
Open WebUI: Una interfaz estilo ChatGPT para Ollama (instrucciones aquí).
Lm Studio: Alternativa con GUI para Windows.
🔎 Conclusión
Con Ollama, ahora puedes ejecutar LLMs localmente en Windows sin necesidad de conexión constante a Internet. Es ideal para desarrolladores, investigadores o cualquier persona que quiera experimentar con IA de manera privada y rápida.
¿Qué modelo probarás primero? ¡Déjame saber en los comentarios! 👇
🔗 Recursos útiles:
¡Espero que este tutorial te haya sido útil! Si tienes dudas, no dudes en preguntar.
🎥 Basado en el tutorial de Ed Donner
Siguiendo el ejemplo del instructor Ed Donner, quien grabó su clase en Windows, vamos a replicar el mismo proceso de forma sencilla.
📥 Paso 1: Descargar Ollama para Windows
Abre tu navegador (Edge, Chrome, Firefox, etc.).
Ve a la página oficial de Ollama: ollama.com.
Haz clic en "Download" (el sitio detectará automáticamente que usas Windows).
Se descargará un archivo
OllamaSetup.exeen tu carpeta de descargas.
⚙️ Paso 2: Instalar Ollama
Ejecuta el archivo
OllamaSetup.exe.Sigue el asistente de instalación (clic en Siguiente, acepta los términos y finaliza).
Una vez instalado, Ollama estará listo para usarse desde la terminal.
💻 Paso 3: Ejecutar tu primer modelo (Llama 3)
Abre Windows PowerShell (búscalo en el menú de inicio).
Escribe el siguiente comando para descargar y ejecutar el modelo Llama 3:
ollama run llama3(La primera vez tardará unos minutos en descargarse).
¡Listo! Ahora puedes interactuar con el modelo directamente en la terminal.
🌍 Ejemplo práctico: Aprendiendo español con Ollama
Ed Donner usó el modelo para practicar español. Puedes hacer lo mismo con un prompt como este:
"I'm trying to learn Spanish. I'm a complete beginner. Please chat with me in simple Spanish to teach me." El modelo responderá en español básico y hasta corregirá tus errores (como olvidar acentos o signos de interrogación).
🔍 ¿Qué más puedes hacer con Ollama en Windows?
✅ Probar otros modelos como Mistral, Gemma o Phi-3.
✅ Usarlo como asistente para programación, escritura o traducción.
✅ Integrarlo con interfaces gráficas como Open WebUI para una experiencia tipo ChatGPT.
🚀 Conclusión
Ahora ya sabes cómo instalar y ejecutar un LLM localmente en Windows con Ollama. Es rápido, privado y ¡no necesitas una Mac para hacerlo!
¿Qué modelo probarás primero? ¡Déjalo en los comentarios!
🔗 Recursos útiles:
Comentarios
Publicar un comentario