LM Studio
ia-localLa forma más cómoda de probar modelos locales con interfaz
★★★★★3/5 — valoración de Talis
// cómo la uso yo
No lo he probado en profundidad — uso Ollama para los modelos locales. Pero LM Studio tiene una reputación muy buena entre quienes prefieren una interfaz gráfica para gestionar y probar modelos sin tocar la terminal. La diferencia principal con Ollama es la UX: LM Studio tiene una GUI muy cuidada para explorar, descargar y probar modelos de forma visual. Para alguien que no quiere pelearse con la terminal, es probablemente la mejor entrada al mundo de la IA local. La app es gratis para uso personal y profesional, lo cual es generoso. Solo cobran en Enterprise para despliegues privados a escala. Lo tengo en el radar para cuando quiera una interfaz más cómoda que el CLI de Ollama.
// pros y contras
+La mejor GUI para explorar y probar modelos locales
+Gratis para uso personal y profesional
+Soporte para modelos populares: Gemma, Qwen, DeepSeek, Llama
+LM Link para usar modelos remotos como si fueran locales
+Ideal para quienes no quieren pelearse con la terminal
−No lo he probado en profundidad — opinión pendiente de actualizar
−Enterprise opaco en pricing y requiere trato comercial
−Si eres CLI-first, Ollama puede resultarte más directo
−Menos integraciones comunitarias que Ollama
// planes y precios
Free
0€
·GUI para Windows, macOS y Linux
·Catálogo de modelos y servidor local
·Privacidad local completa
Enterprise
Personalizado
·Despliegue privado en tu infraestructura
·Controles enterprise para modelos y MCPs
·Para equipos con flujos seguros de IA