Zum Inhalt springen

Fotos nie wieder manuell taggen.

VisionTagger nutzt On-Device-KI, um Titel, Beschreibungen, Keywords und mehr für deine Bilder zu erzeugen — in Batches, ohne Uploads und ohne Kosten pro Bild.

Benötigt einen Apple Silicon-Mac mit macOS 26

Von VisionTagger erzeugte Metadaten für ein Bild mit lokaler KI Von VisionTagger erzeugte Metadaten für ein Bild mit lokaler KI

Bessere Ergebnisse mit Kontext, den du schon hast

Sag der KI, was sie vor sich hat, und die Ergebnisse werden deutlich besser. Füge einen Kontexthinweis hinzu wie “Produktfotos für einen Vintage-Möbelladen”, aktiviere GPS-Standort, um Ortsnamen aus eingebetteten Koordinaten nachzuschlagen, oder übergib Kamera- und redaktionelle Metadaten, die schon in deinen Dateien stecken. Jede Quelle ist optional und fließt direkt in den Prompt ein — damit die KI nicht raten muss.

VisionTagger Additional Context-Bereich mit Kontextquellen

Erzeuge genau die Metadaten, die du brauchst

Starte mit den Feldern, die die meisten brauchen — Titel, Beschreibung und Keywords — und geh dann weiter mit Inhalt & Stil, Sicherheit & Compliance oder füge komplett eigene Sektionen mit deinen Feldern und Prompts hinzu. Brauchst du die Ausgabe in einer anderen Sprache? VisionTagger kann generierte Metadaten automatisch mit der in macOS integrierten Übersetzung übersetzen. Das Ergebnis sind strukturierte, konsistente Metadaten über Tausende von Fotos.

VisionTagger-Inhaltskonfiguration mit anpassbaren Metadaten-Sektionen und Feldern

Passt nahtlos in deinen Workflow

Für XMP-Sidecars und eingebettete Metadaten integriert sich VisionTagger mit ExifTool — einem Branchenstandard und weithin vertrauenswürdigen Tool. Deine Metadaten erscheinen in Apps wie Adobe Lightroom, Bridge, Capture One, Photo Mechanic und jeder anderen Software, die XMP liest. Schreib zurück in deine Fotos-Mediathek, exportiere JSON, CSV oder TXT pro Bild oder erzeuge eine einzelne Datei für einen kompletten Run. Füge Finder-Tags für schnelle Organisation in macOS hinzu. Wähle mehrere Ausgaben gleichzeitig und konfiguriere sie zusammen — damit ein Generierungslauf jedes Ziel versorgt, das du nutzt.

Beispiel für VisionTagger-Publish-Konfiguration

Automatisiere es und vergiss es

Zwei Kurzbefehle-Aktionen — eine für Dateien im Finder, eine für deine Fotos-Mediathek — lassen dich den kompletten Prozess im Hintergrund ausführen, ohne die App zu öffnen. Richte eine Ordnerautomatisierung ein, eine Finder-Schnellaktion, oder starte es über die Kommandozeile. Nutze die aktuellen Einstellungen der App oder liefere ein gespeichertes Preset für jedes Mal reproduzierbare Ergebnisse.

VisionTagger Kurzbefehle-Integration mit Automatisierungsaktionen

So funktioniert’s

Demo auf YouTube ansehen

Einmalkauf

29,99 €
Launch-Angebot 24,99 €

MwSt. inklusive

Kostenlose Testversion: 100 Bilder, ohne Zeitlimit
Einmal bezahlen. Keine laufenden Gebühren.
Ein Nutzer. Mehrere Macs.

VisionTagger FAQ

Erste Schritte

Wie funktioniert die kostenlose Testversion?

Mit der kostenlosen Testversion kannst du bis zu 100 Bilder ohne Kosten verarbeiten, ohne Zeitlimit. Du kannst den kompletten Workflow erkunden — Modellauswahl, eingebaute Sektionen, Custom-Felder und Export-Optionen — bevor du kaufst.

Bilder & Metadaten

Welche Bildformate und Quellen werden unterstützt?

VisionTagger unterstützt gängige Bildformate wie JPEG, PNG, TIFF, HEIC und WebP sowie verschiedene RAW-Formate einschließlich DNG. Du kannst Bilder aus Ordnern auf deinem Mac auswählen oder direkt aus deiner Fotos-Mediathek.

Kann ich die Ausführlichkeit der Beschreibung anpassen?

Ja. Du kannst zwischen drei Stufen wählen: Kurz für einen knappen Satz, passend für Alt-Text, Standard für zwei Sätze mit Kontext, ideal für Bildunterschriften, oder Detailliert für eine umfassende Beschreibung.

Kann ich steuern, welche Keywords generiert werden?

Ja. Du kannst eine maximale Anzahl an Keywords festlegen, damit das Modell bis zu dieser Anzahl pro Bild generiert. Außerdem kannst du Keywords definieren, die immer am Anfang oder Ende der Liste stehen sollen, und Keywords angeben, die ausgeschlossen werden sollen. Nach der Generierung kannst du pro Bild Keywords manuell umsortieren, bearbeiten, hinzufügen oder löschen, bevor du exportierst.

Kann ich eigene Metadaten-Felder definieren?

Ja. Zusätzlich zu den eingebauten Sektionen (Titel, Beschreibung, Keywords, Inhalt & Stil, Sicherheit & Compliance) kannst du eigene Sektionen erstellen und deine eigenen Felder hinzufügen. Jedes Feld unterstützt einen Datentyp (Boolean, Text oder Liste von Texten) und einen eigenen Prompt, damit du genau festlegen kannst, was das Modell extrahiert.

Exports & Integrationen

Kann VisionTagger in meine Fotos-Mediathek zurückschreiben?

Ja. VisionTagger kann Metadaten zurück in deine Fotos-Mediathek schreiben, wenn du diese Ausgabeoption auswählst. Du siehst immer eine Veröffentlichungszusammenfassung, bevor irgendetwas geschrieben wird.

Welche Ausgaben kann VisionTagger erzeugen?

VisionTagger kann pro Bild JSON, CSV oder TXT exportieren oder eine einzelne JSON/CSV/TXT-Datei für einen gesamten Batch. Außerdem kann es Finder-Tags anwenden. Für XMP-Sidecars und das Einbetten von Metadaten in Bilddateien integriert sich VisionTagger mit ExifTool (separat installiert).

Kann VisionTagger Metadaten in anderen Sprachen als Englisch ausgeben?

Ja. VisionTagger erzeugt Metadaten immer auf Englisch für optimale KI-Modellqualität. Wenn du in den Einstellungen eine andere Ausgabesprache wählst, werden die erzeugten Metadaten automatisch mit der in macOS integrierten Übersetzung übersetzt. Unterstützte Sprachen sind Arabisch, Chinesisch, Niederländisch, Französisch, Deutsch, Hindi, Indonesisch, Italienisch, Japanisch, Koreanisch, Polnisch, Portugiesisch, Russisch, Spanisch, Thailändisch, Türkisch, Ukrainisch und Vietnamesisch. Sprachpakete müssen in den Systemeinstellungen heruntergeladen werden, bevor die Übersetzung verfügbar ist.

Muss ich ExifTool installieren?

ExifTool wird nur für XMP-Sidecars und das Einbetten von Metadaten in Bilddateien benötigt. Wenn du nur JSON/CSV/TXT exportierst oder Finder-Tags anwendest, brauchst du ExifTool nicht.

Überschreibt VisionTagger vorhandene Dateien oder Metadaten?

VisionTagger zeigt vor dem Schreiben von Ausgaben eine Veröffentlichungszusammenfassung und warnt dich, wenn vorhandene Dateien überschrieben werden könnten. Du kannst die Aktionen prüfen und bestätigen, bevor irgendetwas gespeichert wird.

Voraussetzungen

Muss ich etwas Technisches konfigurieren?

Nein. Lade ein Modell mit einem Klick herunter und starte die Verarbeitung. VisionTagger wird mit sinnvollen Standardeinstellungen geliefert. Wenn du mehr Kontrolle willst, kannst du Parameter wie die Ausgabelänge in den Einstellungen anpassen — aber die meisten Nutzer brauchen das nie.

Braucht VisionTagger eine Internetverbindung?

VisionTagger läuft lokal und lädt weder deine Bilder noch die erzeugten Metadaten hoch. Eine Internetverbindung brauchst du nur, um Modelle in der App herunterzuladen und um nach App-Updates zu suchen und sie herunterzuladen.

Wie schnell ist es, und welchen Mac brauche ich?

VisionTagger erfordert Apple Silicon (M1 oder neuer) und läuft unter macOS Tahoe 26.0 oder neuer. 16 GB RAM sind das Minimum; für größere Modelle werden 32 GB oder mehr empfohlen. Die Geschwindigkeit hängt von deinem Mac, dem ausgewählten Modell, der Bildauflösung und deinen gewählten Metadaten-Feldern ab. Kleinere Modelle sind typischerweise schneller; größere Modelle können bessere Ergebnisse liefern.

Wie viel Speicherplatz brauchen Modelle?

Modell-Downloads werden lokal gespeichert. Plane grob 4–8 GB pro Modell ein (variiert je nach Modell).

Automatisierung

Kann ich VisionTagger automatisieren?

Ja. VisionTagger integriert sich über zwei Aktionen mit Apple Kurzbefehle: Generate Image Metadata (für Dateien im Finder) und Generate Photo Metadata (für deine Fotos-Mediathek). Beide führen den kompletten Prozess im Hintergrund aus und exportieren Ergebnisse an deine konfigurierten Ziele. Du kannst sie in der Kurzbefehle-App, Finder-Schnellaktionen, Ordnerautomatisierungen, der Kommandozeile und AppleScript verwenden. Optional kannst du ein aus der App exportiertes Einstellungs-Preset mitgeben, für reproduzierbare Automatisierung.

KI-Modelle

Welche Vision-Modelle sind enthalten?

VisionTagger enthält sechs vorkonfigurierte Vision-Modelle: Qwen3-VL 8B Instruct, Qwen3-VL 30B-A3B Instruct, Qwen2.5-VL 7B Instruct, Gemma 3 4B IT, InternVL3 8B Instruct und Pixtral 12B. Kleinere Modelle laufen meist schneller, während größere Modelle je nach deinem Mac und den gewählten Einstellungen mehr Details liefern können, aber mehr Speicher brauchen. Nutze die Testversion, um Modelle zu vergleichen und Parameter so lange zu justieren, bis die Ergebnisse zu deinem Workflow und deinem gewünschten Detailgrad passen.

Kann ich eigene Modelle verwenden?

Ja. Wenn du ein GGUF-kompatibles Vision-Modell und die passende Projektor-Datei (auch GGUF) hast, kannst du sie in VisionTagger verknüpfen und wie die eingebauten Optionen nutzen. Du bist dafür verantwortlich sicherzustellen, dass deine Nutzung von Drittanbieter-Modellen ihren Lizenzen und Bedingungen entspricht.

Kann ich die Modell-Parameter tunen?

Ja. In den Einstellungen kannst du Generierungsparameter wie Temperatur, Max Tokens, Kontextlänge, Top-P und Top-K über Slider anpassen. So kannst du Kreativität versus Konsistenz ausbalancieren und Ausgabelänge und Detailgrad steuern.

Datenschutz

Wie unterscheidet sich VisionTagger von Cloud-Keywording-Diensten?

Die meisten Cloud-Keywording-Dienste berechnen pro Bild und erfordern das Hochladen deiner Fotos auf ihre Server. VisionTagger ist ein Einmalkauf ohne Kosten pro Bild — verarbeite so viele Bilder, wie du willst. Deine Fotos verlassen nie deinen Mac, und Metadaten werden direkt in XMP-Sidecars und deine Dateien geschrieben, statt in einen CSV-Export, den du manuell importieren musst.

Sendet die GPS-Location-Funktion meine Daten irgendwohin?

In deinen Bildern eingebettete GPS-Koordinaten werden anonym an Apple Maps gesendet, um Ortsnamen nachzuschlagen. Es werden nur die Koordinaten gesendet — Apple erhebt keine personenbezogenen Daten im Zusammenhang mit deiner Kartennutzung. Die GPS-Location-Funktion ist in der App standardmäßig deaktiviert.

Sendet die Übersetzungsfunktion Daten an Apple?

Standardmäßig kann macOS Apples Online-Übersetzungsdienste für verbesserte Genauigkeit nutzen. Um sicherzustellen, dass alle Übersetzungen vollständig auf deinem Mac stattfinden, ohne dass Daten dein Gerät verlassen, aktiviere “On-Device Mode” in Systemeinstellungen > Übersetzen.

Sammelt VisionTagger Nutzungsdaten oder Analytics?

Nein. VisionTagger enthält keine Analytics oder Telemetrie und lädt deine Daten nicht hoch. Lizenzaktivierung und Update-Checks beinhalten bei Bedarf Netzwerk-Anfragen für diese Funktionen.