inicio / herramientas / lm-studio

LM Studio

ia-local

La forma más cómoda de probar modelos locales con interfaz

3/5 — valoración de Talis
Probar LM Studio
// cómo la uso yo

No lo he probado en profundidad — uso Ollama para los modelos locales. Pero LM Studio tiene una reputación muy buena entre quienes prefieren una interfaz gráfica para gestionar y probar modelos sin tocar la terminal. La diferencia principal con Ollama es la UX: LM Studio tiene una GUI muy cuidada para explorar, descargar y probar modelos de forma visual. Para alguien que no quiere pelearse con la terminal, es probablemente la mejor entrada al mundo de la IA local. La app es gratis para uso personal y profesional, lo cual es generoso. Solo cobran en Enterprise para despliegues privados a escala. Lo tengo en el radar para cuando quiera una interfaz más cómoda que el CLI de Ollama.

// pros y contras
+La mejor GUI para explorar y probar modelos locales
+Gratis para uso personal y profesional
+Soporte para modelos populares: Gemma, Qwen, DeepSeek, Llama
+LM Link para usar modelos remotos como si fueran locales
+Ideal para quienes no quieren pelearse con la terminal
No lo he probado en profundidad — opinión pendiente de actualizar
Enterprise opaco en pricing y requiere trato comercial
Si eres CLI-first, Ollama puede resultarte más directo
Menos integraciones comunitarias que Ollama
// planes y precios
Free
0€
·GUI para Windows, macOS y Linux
·Catálogo de modelos y servidor local
·Privacidad local completa
Enterprise
Personalizado
·Despliegue privado en tu infraestructura
·Controles enterprise para modelos y MCPs
·Para equipos con flujos seguros de IA
// mi recomendación
Probar LM Studio
// info rápida
categoríaia-local
preciofreemium
weblmstudio.ai
// otras herramientas
ClaudeElevenLabsLeonardo AIMake