Nuevo: compatibilidad MCP disponible

Ollamac ProLa app Mac nativa para Ollama.

La única aplicación Ollama que necesitarás en Mac. Chatea con LLM locales, documentos, imágenes, proyectos y herramientas MCP en un espacio de trabajo macOS pulido.

macOS 14+Apple Silicon e IntelFunciona con Ollama local
Interfaz nativa de macOS de Ollamac Pro con chats locales, proyectos y estado de Ollama.

Ollama ejecuta los modelos. Ollamac Pro les da un espacio de trabajo Mac.

Ollama facilita ejecutar LLM localmente. Ollamac Pro añade la interfaz del día a día: selección de modelo, contexto guardado, adjuntos, proyectos y perfiles de servidor en una app nativa.

Descargar la beta

Demo

Mira la app Mac en acción.

Ve un recorrido corto de cómo funciona Ollamac Pro en un flujo real de Ollama local, desde el chat hasta los documentos y el uso diario de modelos.

Funciones

Todo lo que necesita tu flujo de IA local, sin los bordes ásperos.

Creado para macOS

Usa Ollama desde una interfaz Mac nativa con atajos familiares, ventanas limpias y cambio rápido de modelo.

Chat con documentos locales

Haz preguntas sobre PDF, notas y archivos de proyecto mientras mantienes los documentos cerca de tu instalación de Ollama.

PDF
MD
TXT

Compatibilidad con MCP

Conecta servidores Model Context Protocol locales o remotos para que tus LLM trabajen con las herramientas que ya usas.

Compatibilidad con modelos de visión

Añade capturas de pantalla, diagramas o fotos y pide a modelos Ollama multimodales compatibles que los expliquen.

Control rápido de modelos Ollama

Cambia de modelo, ajusta parámetros, gestiona prompts y alterna perfiles de servidor sin salir del chat.

Proyectos para trabajar con foco

Separa trabajo de clientes, investigación, sesiones de código y experimentos de modelos en espacios dedicados.

Ollama local o remoto

Empieza con Ollama en localhost, añade servidores Ollama remotos más tarde y cambia de perfil en segundos.

Local-first

Chat LLM local que se mantiene cerca de tu instalación Ollama.

Ollamac Pro está construido alrededor de Ollama, así que prompts, archivos y respuestas del modelo pueden gestionarse con los modelos que eliges y los servidores que controlas.

Capacidad
Ollamac Pro
Chat en terminal
Chat cloud
Interfaz Mac nativa
x
x
Servidores Ollama locales
x
Chat con documentos
x
Integraciones MCP
x
x
Modelos de visión
x
Compra única
x

Privado por diseño. Conecta Ollamac Pro a tu propia instalación Ollama en lugar de mover cada chat, documento y experimento a un servicio de IA alojado.

Descargar

Para quién

Para usuarios de Mac que quieren que los LLM locales se sientan terminados.

1

El builder de LLM local

Desarrolladores

Usa modelos Ollama para probar prompts, escribir código, depurar, redactar documentación o conectar herramientas MCP a tu flujo.

2

El investigador privado

Trabajadores del conocimiento

Resume archivos, haz preguntas de seguimiento y revisa material sensible sin depender por defecto de un producto de chat cloud.

3

El experimentador de modelos

Usuarios avanzados

Compara modelos locales, ajusta parámetros, prueba perfiles de servidor y mantén los experimentos organizados sin carga de terminal.

4

El equipo pequeño

Equipos Mac

Dale a tu equipo un cliente Ollama pulido que se siente familiar en macOS y evita crear tooling interno a medida.

Preguntas frecuentes

Preguntas comunes

Ollamac Pro es una aplicación nativa de macOS para Ollama. Te da una interfaz Mac pulida para chatear con LLM locales, organizar proyectos, trabajar con documentos e imágenes y conectar herramientas MCP.

La app Ollama nativa que le faltaba a tu Mac.

Chatea con modelos locales, organiza proyectos, analiza documentos, trabaja con imágenes y conecta herramientas MCP. Una descarga, sin suscripción.

Descargar Ollamac Pro

macOS 14+ - Apple Silicon e Intel - Funciona con Ollama local