Chatgpt, gemini de Google y Inteligencia de Apple son poderosos, pero todos comparten un inconveniente importante: necesitan acceso constante a Web para trabajar. Si valora la privacidad y desea un mejor rendimiento, ejecutar un modelo de lenguaje grande como Deepseek, Gemma de Google o Llama de Meta en su Mac es una gran alternativa.
¿Crees que suena complicado? Es más fácil de lo que piensas. Con las herramientas adecuadas, puede ejecutar Deepseek o cualquier otro LLM fashionable localmente en su Mac con un esfuerzo mínimo.
¿Por qué ejecutar Deepseek u otros LLM localmente en su Mac?
La privacidad y la seguridad son las principales razones para ejecutar un LLM localmente. Esto garantiza que el modelo no pueda compartir datos con servidores externos, lo que le brinda un management completo cuando trabaja con información privada y confidencial.
También es más rápido y más barato ejecutar modelos de IA localmente para evitar tarifas de API recurrentes. Además, al ejecutar un LLM localmente, puede entrenarlo con datos propietarios, adaptando sus respuestas para adaptarse mejor a sus necesidades. Este enfoque también ahorrará un tiempo precioso a largo plazo si tiene la intención de usar Deepseek u otros LLM para fines laborales.
Si usted es un desarrollador, es posible que desee ejecutar LLM localmente y jugar con ellos para ver cómo pueden ayudar a su trabajo. Con los conocimientos técnicos necesarios, también puede usar los modelos AI disponibles para construir herramientas de agente para su trabajo.
Cómo ejecutar LLM como Deepseek y Llama localmente en tu Mac
Puede pensar que ejecutar LLM localmente requiere acceso a una Mac de alta gama con mucha RAM. Pero ese no es el caso. Es posible ejecutar un LLM localmente si tiene una Mac de Silicon Apple con al menos 16 GB de memoria del sistema. Incluso 8 GB de memoria funcionan, pero el rendimiento de su sistema se verá afectado negativamente.
Tenga en cuenta que los LLM están disponibles en varias variaciones y con diferentes parámetros. Cuanto mayor sea el parámetro, más complejo y más inteligente es el LLM. Y esto también significa que el modelo AI necesitará más espacio y recursos para ejecutar. Por ejemplo, Meta’s Llama está disponible en varias variaciones, incluida una con un parámetro de 70 mil millones. Pero para ejecutar este modelo, debe usar una Mac con más de 40 GB de almacenamiento gratuito y más de 48 GB de memoria del sistema.
Idealmente, intente ejecutar un LLM como Deepseek con un parámetro de 7 mil millones o 8 mil millones. Eso debería ejecutarse sin problemas localmente en una Mac con 16 GB de memoria del sistema. Si tiene acceso a una Mac más potente, use cualquier modelo que se adapte a sus requisitos.
Es importante descargar el modelo correcto, dependiendo de su caso de uso. Algunos LLM son buenos para el razonamiento, mientras que otros son buenos para resolver consultas de codificación. Algunos trabajarán mejor en los chats y tareas STEM, mientras que otros serán buenos en las conversaciones multiturno y la larga coherencia del contexto.
LM Studio es la forma más fácil de ejecutar LLM localmente en su Mac

Captura de pantalla: Rajesh Pandey/CultOfmac
Si desea ejecutar LLM como Deepseek y Llama localmente en su Mac, LM Studio es la forma más fácil de comenzar. El software program es gratuito para uso private.
Aquí está cómo comenzar:
- Descargar e instalar LM Studio En su Mac, luego inicie la aplicación.
- Si su objetivo principal es ejecutar Deepseek localmente, full el proceso de incorporación y descargue el modelo. De lo contrario, puede omitir el paso de incorporación.
- Deberías ver un barra de búsqueda en la parte superior de LM Studio, pidiéndote que Seleccione un modelo para cargar. Haga clic en él y busque el LLM que desea descargar e instalar.
- Alternativamente, revise la lista de LLM disponibles haciendo clic en el Ajustes Engranaje en la esquina inferior derecha de LM Studio. Desde la ventana que se abre, seleccione el Búsqueda de modelos pestaña desde la izquierda. Alternativamente, abra directamente esta ventana usando el atajo de teclado de comando + shift + m.
- Verá todos los modelos AI disponibles para la descarga enumerados aquí. La ventana de la derecha proporcionará una concept de un modelo dado, proporcionando una breve descripción y su límite de token.
- Seleccione Deepseek, Meta’s Llama, Qwen, Phi-4 o cualquiera de los otros LLM disponibles. Luego haga clic en el Descargar botón en la parte inferior derecha
- Nota: Si bien puede descargar múltiples LLMS, LM Studio solo puede cargar y ejecutar un modelo a la vez.
Use su LLM descargado

Captura de pantalla: Rajesh Pandey/CultOfmac
Después de que termina su descarga de LLM, cierre la ventana de management de la misión de LM Studio. Luego, haga clic en la barra de búsqueda superior y cargue el LLM recientemente descargado. Al cargar un modelo AI, LM Studio le permitirá configurar su longitud de contexto, tamaño de la piscina de subprocesos de CPU y otras configuraciones de clave. Puede dejar estas configuraciones como están si no están seguros de lo que hacen.
Ahora puede hacer preguntas o usar el LLM como desee.
LM Studio le permite tener múltiples chats separados con un LLM. Para iniciar una nueva conversación, haga clic en el icono + desde la barra de herramientas en la parte superior. Esta es una opción útil si está utilizando simultáneamente el LLM para trabajar en múltiples proyectos. También puede crear carpetas y ordenar sus chats en ellas.
Cómo evitar que use todos los recursos de su Mac

Captura de pantalla: Rajesh Pandey/CultOfmac
Si le preocupa que el modelo de IA coma todos los recursos del sistema de Mac, mencione la configuración de LM Studio utilizando el atajo de teclado Comando +,. Luego, asegúrese de la Modelo de carga de barandas La configuración está configurada en estricto. Esto debería garantizar que el LLM no sobrecarga su Mac.
Puede ver el uso de recursos de LM Studio y su LLM descargado en la barra de herramientas inferior. Si la CPU o el uso de la memoria es demasiado alto, considere cambiar a un modelo de IA con un parámetro más bajo para reducir el uso de recursos.
Durante las últimas semanas, he estado usando LM Studio para ejecutar LLAMA y Deepseek LLMS localmente en mi Mac, y me ha impresionado el rendimiento de mi M1 Mac Mini con 16 GB de RAM. Ha manejado la carga de trabajo sin esfuerzo. Sí, las LLM se ejecutan más sin problemas en mi M1 Professional MacBook Professional. Y el rendimiento debería ser aún mejor en las Mac más nuevas equipadas con M2, M3 o M4 con memoria del sistema más alta.
Aún así, incluso si posee un Apple Silicon Mac más antiguo, no asuma que no puede ejecutar LLM sin problemas. Te sorprenderá su rendimiento.
Asegúrese de eliminar cualquier LLM no deseado de su Mac para liberar el espacio. De lo contrario, si descarga algunos de ellos para probar, se quedará sin espacio en poco tiempo.