Ollama
ia-localModelos de IA en tu PC, sin depender de nadie
Lo uso para correr modelos locales cuando no quiero mandar datos a terceros o cuando quiero experimentar con modelos sin coste por token. Para probar modelos nuevos como Qwen, DeepSeek o Llama antes de decidir si los uso en producción, Ollama es perfecto. La instalación es absurdamente simple comparado con otros stacks. Un comando y tienes el modelo corriendo. Para desarrollar y probar flujos de automatización localmente antes de conectarlos a APIs de pago, es una herramienta muy útil. En 2026 han añadido una capa cloud además del local, con planes Pro y Max. Yo lo uso principalmente en local, que es donde está su valor real. El rendimiento depende de tu hardware — con una buena GPU vuela, sin ella hay que tener paciencia.