Nouveau : prise en charge MCP disponible

Ollamac ProL'application Mac native pour Ollama.

La seule application Ollama dont vous aurez besoin sur Mac. Discutez avec des LLM locaux, des documents, des images, des projets et des outils MCP dans un espace de travail macOS soigné.

macOS 14+Apple Silicon et IntelFonctionne avec Ollama en local
Interface native macOS d'Ollamac Pro avec chats locaux, projets et statut Ollama.

Ollama exécute les modèles. Ollamac Pro leur donne un espace de travail Mac.

Ollama simplifie l'exécution locale des LLM. Ollamac Pro ajoute l'interface du quotidien : sélection de modèle, contexte enregistré, pièces jointes, projets et profils de serveur dans une app native.

Télécharger la bêta

Démo

Découvrez l'app Mac en action.

Regardez une courte présentation d'Ollamac Pro dans un vrai workflow Ollama local, du chat aux documents en passant par l'usage quotidien des modèles.

Fonctionnalités

Tout ce qu'il faut à votre workflow d'IA locale, sans les frictions.

Pensé pour macOS

Utilisez Ollama dans une interface Mac native avec des raccourcis familiers, des fenêtres propres et un changement rapide de modèle.

Chat avec documents locaux

Posez des questions sur des PDF, des notes et des fichiers de projet tout en gardant vos documents près de votre installation Ollama.

PDF
MD
TXT

Prise en charge MCP

Connectez des serveurs Model Context Protocol locaux ou distants pour que vos LLM travaillent avec les outils que vous utilisez déjà.

Prise en charge des modèles vision

Ajoutez des captures d'écran, schémas ou photos et demandez à des modèles Ollama multimodaux compatibles de les expliquer.

Contrôle rapide des modèles Ollama

Changez de modèle, ajustez les paramètres, gérez les prompts et passez d'un profil serveur à l'autre sans quitter le chat.

Projets pour rester concentré

Séparez le travail client, la recherche, les sessions de code et les expérimentations de modèles dans des espaces dédiés.

Ollama local ou distant

Commencez avec Ollama sur localhost, ajoutez ensuite des serveurs distants et changez de profil en quelques secondes.

Local-first

Un chat LLM local qui reste proche de votre installation Ollama.

Ollamac Pro est construit autour d'Ollama : vos prompts, fichiers et réponses peuvent être traités par les modèles que vous choisissez et les serveurs que vous contrôlez.

Capacité
Ollamac Pro
Chat terminal
Chat cloud
Interface Mac native
x
x
Serveurs Ollama locaux
x
Chat avec documents
x
Intégrations MCP
x
x
Modèles vision
x
Achat unique
x

Conçu pour la confidentialité. Connectez Ollamac Pro à votre propre installation Ollama au lieu de déplacer chaque chat, document et expérimentation vers un service d'IA hébergé.

Télécharger

Pour qui

Pour les utilisateurs Mac qui veulent des LLM locaux vraiment aboutis.

1

Le builder LLM local

Développeurs

Utilisez les modèles Ollama pour tester des prompts, écrire du code, déboguer, rédiger de la documentation ou brancher des outils MCP dans votre workflow.

2

Le chercheur privé

Travailleurs du savoir

Résumez des fichiers, posez des questions de suivi et examinez du contenu sensible sans dépendre par défaut d'un chat cloud.

3

L'expérimentateur de modèles

Utilisateurs avancés

Comparez des modèles locaux, ajustez les paramètres, testez des profils serveur et gardez vos expériences organisées sans surcharge de terminal.

4

La petite équipe

Équipes Mac

Donnez à vos collègues un client Ollama soigné, familier sur macOS, sans développer d'outil interne sur mesure.

Questions fréquentes

Questions courantes

Ollamac Pro est une application macOS native pour Ollama. Elle offre une interface Mac soignée pour discuter avec des LLM locaux, organiser des projets, travailler avec des documents et des images, et connecter des outils MCP.

L'application Ollama native qui manquait à votre Mac.

Discutez avec des modèles locaux, organisez vos projets, analysez des documents, travaillez avec des images et connectez des outils MCP. Un téléchargement, sans abonnement.

Télécharger Ollamac Pro

macOS 14+ - Apple Silicon et Intel - Fonctionne avec Ollama en local