コンテンツへスキップ

写真のタグ付け、もう手作業は不要。

VisionTagger はオンデバイスAIで、画像のタイトル、説明、キーワードなどを一括生成 — アップロードなし、1枚あたりの課金もなし。

macOS 26 の Apple Silicon Mac が必要

ローカルAIで画像に対して VisionTagger が生成したメタデータ ローカルAIで画像に対して VisionTagger が生成したメタデータ

手持ちのコンテキストでよりスマートな結果を

AIに何の写真か伝えると、結果が格段に良くなる。「ヴィンテージ家具店の商品写真」のようなコンテキストヒントを追加したり、GPS Location を有効にして埋め込み座標から地名を取得したり、ファイルに既にあるカメラ情報や編集メタデータを渡したりできる。各ソースはオプションで、プロンプトに直接反映される — AIが推測する必要がなくなる。

VisionTagger の Additional Context パネル(コンテキストソースを表示)

必要なメタデータをピンポイントで生成

ほとんどの人が必要とするフィールド — タイトル、説明、キーワード — から始めて、さらにコンテンツ&スタイル、安全性&コンプライアンスへ進んだり、自分のフィールドとプロンプトで完全にカスタムなセクションを追加したりできる。他の言語で出力したい?VisionTagger は macOS 内蔵の翻訳機能を使って、生成したメタデータを自動的に翻訳できる。結果は、数千枚の写真にわたる構造化された一貫したメタデータ。

カスタマイズ可能なメタデータのセクションとフィールドを表示している VisionTagger の設定画面

ワークフローにぴったり合う

XMP サイドカーや埋め込みメタデータには、VisionTagger は ExifTool と連携する — 業界標準で広く信頼されているユーティリティ。メタデータは Adobe Lightroom、Bridge、Capture One、Photo Mechanic、そしてXMPを読む他のソフトにも表示される。写真ライブラリへの書き戻し、画像ごとの JSON/CSV/TXT 書き出し、または一回の実行分を1ファイルにまとめることもできる。macOS で素早く整理できるように Finder タグも追加可能。複数の出力先を同時に選んでまとめて設定 — 1回の生成で使ってる全部の行き先に流し込める。

VisionTagger の公開設定の例

自動化して、あとはおまかせ

2つのショートカットアクション — Finder のファイル用と写真ライブラリ用 — で、アプリを開かずにバックグラウンドで全プロセスを実行できる。フォルダの自動化や Finder のクイックアクションを設定したり、コマンドラインから起動したりできる。アプリの現在の設定をそのまま使うか、保存したプリセットを渡して毎回再現性のある結果を。

VisionTagger のショートカット連携と自動化アクション

買い切り

€29.99
ローンチ特典 €24.99

VAT込み

無料トライアル: 100 枚、期限なし
一回払い。継続料金なし。
1ユーザー。複数のMacで。

VisionTagger FAQ

はじめに

無料トライアルはどういう仕組み?

無料トライアルは最大100枚まで、無料で処理できる。期限もないよ。購入前に、モデル選択、内蔵セクション、カスタムフィールド、エクスポートのオプションまで、全部の流れを試せる。

画像とメタデータ

対応してる画像形式と取り込み元は?

VisionTagger は JPEG、PNG、TIFF、HEIC、WebP みたいな一般的な形式のほか、DNG をはじめとする各種 RAW 形式にも対応してる。Mac 上のフォルダから選ぶことも、写真ライブラリから直接選ぶこともできる。

説明の詳しさは調整できる?

できるよ。3段階から選べる:簡潔はaltテキスト向けの短い1文、標準はキャプション向けの文脈を含む2文、詳細は包括的な説明。

生成されるキーワードをコントロールできる?

できるよ。キーワードの最大数を設定すれば、画像ごとにその数までキーワードが生成される。リストの先頭や末尾に必ず含めるキーワードを定義したり、除外するキーワードを指定したりもできる。生成後は、エクスポート前に画像ごとにキーワードを手動で並べ替え、編集、追加、削除できる。

カスタムメタデータフィールドを定義できる?

できるよ。内蔵セクション(タイトル、説明、キーワード、コンテンツ&スタイル、安全性&コンプライアンス)に加えて、カスタムセクションを作って自分のフィールドを追加 できる。各フィールドはデータ型(Boolean、Text、または List of Texts)と専用のプロンプトを持てるから、モデルに何を抽出させるかをピンポイントで決められる。

エクスポートと連携

写真ライブラリに書き戻せる?

書き戻せるよ。その出力オプションを選べば、VisionTagger が写真ライブラリにメタデータを書き戻せる。書き込む前に、必ず公開サマリーが表示される。

VisionTagger はどんな出力ができる?

VisionTagger は画像ごとに JSON、CSV、TXT を書き出せるし、バッチ全体を1つの JSON/CSV/TXT ファイルにまとめることもできる。Finder タグも付けられる。XMP サイドカーや画像ファイルへのメタデータ埋め込みは、ExifTool と連携して対応する(別途インストール)。

VisionTagger は英語以外の言語でメタデータを出力できる?

できるよ。VisionTagger は最適な AI モデル品質のためにメタデータを常に英語で生成する。設定で別の出力言語を選ぶと、生成されたメタデータが macOS 内蔵の翻訳機能で自動的に翻訳される。対応言語はアラビア語、中国語、オランダ語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、日本語、韓国語、ポーランド語、ポルトガル語、ロシア語、スペイン語、タイ語、トルコ語、ウクライナ語、ベトナム語。翻訳を利用するには、事前にシステム設定で言語パックをダウンロードしておく必要がある。

ExifTool は入れないとダメ?

ExifTool が必要なのは、XMP サイドカーと画像ファイルへのメタデータ埋め込みだけ。JSON/CSV/TXT の書き出しや Finder タグの適用だけなら、ExifTool はいらない。

既存のファイルやメタデータを上書きしちゃう?

VisionTagger は出力を書き込む前に公開サマリーを出して、既存ファイルが上書きされる可能性があるなら警告する。保存される前に、やることを確認してOKできる。

必要な環境

技術的な設定は必要?

不要。モデルをワンクリックでダウンロードして、すぐ処理を始められる。VisionTagger は合理的なデフォルト設定で出荷される。もっと細かくコントロールしたいなら、設定で出力の長さなどのパラメータを調整できる — でもほとんどのユーザーはその必要がない。

VisionTagger はネット接続が必要?

VisionTagger はローカルで動いて、画像や生成したメタデータをアップロードしない。ネットが必要なのは、アプリ内でモデルをダウンロードするときと、アプリのアップデートを確認してダウンロードするときだけ。

どれくらい速い?どんなMacが必要?

VisionTagger は Apple Silicon(M1 以降)が必須で、macOS Tahoe 26.0 以降で動く。RAM は 16 GB が最低限で、大きいモデルには 32 GB 以上を推奨。速度は Mac、選んだモデル、画像の解像度、選んだメタデータ項目に左右される。小さいモデルはだいたい速くて、大きいモデルはより高品質な結果を出せる。

モデルってどれくらい容量食う?

モデルのダウンロードはローカルに保存される。だいたい1モデルあたり 4–8 GB くらい見込んで(モデルによって変わる)。

自動化

VisionTagger を自動化できる?

できるよ。VisionTagger は Apple ショートカットと2つのアクションで連携してる:Generate Image Metadata(Finder のファイル用)と Generate Photo Metadata(写真ライブラリ用)。どちらもバックグラウンドで全プロセスを実行して、設定済みの出力先に結果をエクスポートする。ショートカットアプリ、Finder のクイックアクション、フォルダの自動化、コマンドライン、AppleScript で使える。アプリからエクスポートした設定プリセットを渡せば、再現性のある自動化もできる。

AIモデル

どのビジョンモデルが入ってる?

VisionTagger には、あらかじめ設定されたビジョンモデルが6つ入ってる:Qwen3-VL 8B Instruct、Qwen3-VL 30B-A3B Instruct、Qwen2.5-VL 7B Instruct、Gemma 3 4B IT、InternVL3 8B Instruct、Pixtral 12B。小さいモデルはだいたい速く動く一方で、大きいモデルはより細かい出力になりやすいけど、Mac と設定次第でメモリが多めに必要になる。トライアルでモデルを比べて、ワークフローと欲しいディテールに合うまでパラメータをいじってみて。

自分のモデルも使える?

使えるよ。GGUF 対応のビジョンモデルと、それに対応するプロジェクターファイル(これも GGUF)があるなら、VisionTagger で リンク して内蔵の選択肢みたいに使える。サードパーティ製モデルの利用がライセンスや利用規約に合ってるかは自分で確認してね。

モデルのパラメータは調整できる?

できる。設定で、temperature、max tokens、context length、top-P、top-K みたいな生成パラメータをスライダーで調整できる。創造性と一貫性のバランスを取ったり、出力の長さやディテールをコントロールできる。

プライバシー

VisionTagger はクラウドのキーワード付けサービスと何が違う?

ほとんどのクラウドキーワード付けサービスは1枚あたり課金で、写真をサーバーにアップロードする必要がある。VisionTagger は買い切りで1枚あたりの課金なし — 好きなだけ画像を処理できる。写真が Mac の外に出ることはなく、メタデータは手動でインポートが必要な CSV エクスポートではなく、XMP サイドカーやファイルに直接書き込まれる。

GPS Location 機能はデータをどこかに送る?

画像に埋め込まれた GPS 座標は、地名を検索するために匿名で Apple Maps に送信される。送信されるのは座標のみ — Apple はマップの利用に関連する個人データを収集しない。GPS Location 機能はデフォルトで無効。

翻訳機能は Apple にデータを送る?

デフォルトでは、macOS はより正確な翻訳のために Apple のオンライン翻訳サービスを使用する場合がある。すべての翻訳がデバイス上で完結し、データがデバイスの外に出ないようにするには、システム設定 > 翻訳 で「オンデバイスモード」を有効にしてね。

利用データとか分析は取ってる?

取ってない。VisionTagger には analytics や telemetry がなく、データもアップロードしない。ライセンスの有効化とアップデート確認は、必要なときだけその機能のためにネットワークリクエストが発生する。