Ollamac ProL'application Mac native pour Ollama.
La seule application Ollama dont vous aurez besoin sur Mac. Discutez avec des LLM locaux, des documents, des images, des projets et des outils MCP dans un espace de travail macOS soigné.
Ollama exécute les modèles. Ollamac Pro leur donne un espace de travail Mac.
Ollama simplifie l'exécution locale des LLM. Ollamac Pro ajoute l'interface du quotidien : sélection de modèle, contexte enregistré, pièces jointes, projets et profils de serveur dans une app native.
Télécharger la bêtaDémo
Découvrez l'app Mac en action.
Regardez une courte présentation d'Ollamac Pro dans un vrai workflow Ollama local, du chat aux documents en passant par l'usage quotidien des modèles.
Fonctionnalités
Tout ce qu'il faut à votre workflow d'IA locale, sans les frictions.
Pensé pour macOS
Utilisez Ollama dans une interface Mac native avec des raccourcis familiers, des fenêtres propres et un changement rapide de modèle.
Chat avec documents locaux
Posez des questions sur des PDF, des notes et des fichiers de projet tout en gardant vos documents près de votre installation Ollama.
Prise en charge MCP
Connectez des serveurs Model Context Protocol locaux ou distants pour que vos LLM travaillent avec les outils que vous utilisez déjà.
Prise en charge des modèles vision
Ajoutez des captures d'écran, schémas ou photos et demandez à des modèles Ollama multimodaux compatibles de les expliquer.
Contrôle rapide des modèles Ollama
Changez de modèle, ajustez les paramètres, gérez les prompts et passez d'un profil serveur à l'autre sans quitter le chat.
Projets pour rester concentré
Séparez le travail client, la recherche, les sessions de code et les expérimentations de modèles dans des espaces dédiés.
Ollama local ou distant
Commencez avec Ollama sur localhost, ajoutez ensuite des serveurs distants et changez de profil en quelques secondes.
Local-first
Un chat LLM local qui reste proche de votre installation Ollama.
Ollamac Pro est construit autour d'Ollama : vos prompts, fichiers et réponses peuvent être traités par les modèles que vous choisissez et les serveurs que vous contrôlez.
Conçu pour la confidentialité. Connectez Ollamac Pro à votre propre installation Ollama au lieu de déplacer chaque chat, document et expérimentation vers un service d'IA hébergé.
Pour qui
Pour les utilisateurs Mac qui veulent des LLM locaux vraiment aboutis.
Le builder LLM local
Développeurs
Utilisez les modèles Ollama pour tester des prompts, écrire du code, déboguer, rédiger de la documentation ou brancher des outils MCP dans votre workflow.
Le chercheur privé
Travailleurs du savoir
Résumez des fichiers, posez des questions de suivi et examinez du contenu sensible sans dépendre par défaut d'un chat cloud.
L'expérimentateur de modèles
Utilisateurs avancés
Comparez des modèles locaux, ajustez les paramètres, testez des profils serveur et gardez vos expériences organisées sans surcharge de terminal.
La petite équipe
Équipes Mac
Donnez à vos collègues un client Ollama soigné, familier sur macOS, sans développer d'outil interne sur mesure.
Questions fréquentes
Questions courantes
L'application Ollama native qui manquait à votre Mac.
Discutez avec des modèles locaux, organisez vos projets, analysez des documents, travaillez avec des images et connectez des outils MCP. Un téléchargement, sans abonnement.
Télécharger Ollamac PromacOS 14+ - Apple Silicon et Intel - Fonctionne avec Ollama en local