Neu: MCP-Unterstützung verfügbar

Ollamac ProDie native Mac-App für Ollama.

Die einzige Ollama-App, die du auf dem Mac brauchst. Chatte mit lokalen LLMs, Dokumenten, Bildern, Projekten und MCP-Tools in einem ausgereiften macOS-Arbeitsbereich.

macOS 14+Apple Silicon und IntelFunktioniert mit lokalem Ollama
Native macOS-Oberfläche von Ollamac Pro mit lokalen Chats, Projekten und Ollama-Status.

Ollama führt die Modelle aus. Ollamac Pro gibt ihnen einen Mac-Arbeitsbereich.

Ollama macht es einfach, LLMs lokal auszuführen. Ollamac Pro ergänzt die tägliche Oberfläche: Modellauswahl, gespeicherter Kontext, Anhänge, Projekte und Serverprofile in einer nativen App.

Beta herunterladen

Demo

Sieh die Mac-App in Aktion.

Sieh dir einen kurzen Rundgang an, wie Ollamac Pro in einem echten lokalen Ollama-Workflow funktioniert, vom Chat bis zu Dokumenten und täglicher Modellnutzung.

Funktionen

Alles, was dein lokaler KI-Workflow braucht, ohne die rauen Kanten.

Für macOS entwickelt

Nutze Ollama über eine native Mac-Oberfläche mit vertrauten Kurzbefehlen, klaren Fenstern und schnellem Modellwechsel.

Chat mit lokalen Dokumenten

Stelle Fragen zu PDFs, Notizen und Projektdateien, während deine Dokumente nah an deiner Ollama-Installation bleiben.

PDF
MD
TXT

MCP-Unterstützung

Verbinde lokale oder entfernte Model Context Protocol Server, damit deine LLMs mit den Tools arbeiten, die du bereits nutzt.

Unterstützung für Vision-Modelle

Füge Screenshots, Diagramme oder Fotos hinzu und lass kompatible multimodale Ollama-Modelle sie erklären.

Schnelle Ollama-Modellsteuerung

Wechsle Modelle, passe Parameter an, verwalte Prompts und wechsle zwischen Serverprofilen, ohne den Chat zu verlassen.

Projekte für fokussiertes Arbeiten

Trenne Kundenarbeit, Recherche, Coding-Sessions und Modellexperimente in eigenen Arbeitsbereichen.

Lokales oder remote Ollama

Starte mit Ollama auf localhost, füge später entfernte Ollama-Server hinzu und wechsle in Sekunden zwischen Profilen.

Local-first

Lokaler LLM-Chat, der nah an deiner Ollama-Installation bleibt.

Ollamac Pro ist um Ollama herum gebaut, damit Prompts, Dateien und Modellantworten von Modellen verarbeitet werden können, die du auswählst, und Servern, die du kontrollierst.

Fähigkeit
Ollamac Pro
Terminal-Chat
Cloud-Chat
Native Mac-Oberfläche
x
x
Lokale Ollama-Server
x
Chat mit Dokumenten
x
MCP-Integrationen
x
x
Vision-Modelle
x
Einmaliger Kauf
x

Privat von Grund auf. Verbinde Ollamac Pro mit deiner eigenen Ollama-Installation, statt jeden Chat, jedes Dokument und jedes Experiment in einen gehosteten KI-Dienst zu verschieben.

Download

Für wen

Für Mac-Nutzer, die möchten, dass lokale LLMs sich fertig anfühlen.

1

Der lokale LLM-Builder

Entwickler

Nutze Ollama-Modelle beim Testen von Prompts, Schreiben von Code, Debuggen, Dokumentieren oder Verbinden von MCP-Tools mit deinem Workflow.

2

Der private Recherche-Workflow

Knowledge Worker

Fasse Dateien zusammen, stelle Nachfragen und prüfe sensibles Material, ohne standardmäßig auf ein Cloud-Chat-Produkt auszuweichen.

3

Der Modell-Tüftler

Power User

Vergleiche lokale Modelle, passe Parameter an, teste Serverprofile und halte Experimente organisiert, ohne Terminal-Aufwand.

4

Das kleine Team

Mac-Teams

Gib Teammitgliedern einen ausgereiften Ollama-Client, der sich auf macOS vertraut anfühlt und internes Spezial-Tooling vermeidet.

Häufig gefragt

Häufige Fragen

Ollamac Pro ist eine native macOS-App für Ollama. Sie bietet dir eine ausgereifte Mac-Oberfläche zum Chatten mit lokalen LLMs, Organisieren von Projekten, Arbeiten mit Dokumenten und Bildern sowie Verbinden von MCP-Tools.

Die native Ollama-App, die deinem Mac gefehlt hat.

Chatte mit lokalen Modellen, organisiere Projekte, analysiere Dokumente, arbeite mit Bildern und verbinde MCP-Tools. Ein Download, kein Abo.

Ollamac Pro herunterladen

macOS 14+ - Apple Silicon und Intel - Funktioniert mit lokalem Ollama