コンテンツへスキップ

画像メタデータを生成。ローカルで。

ローカルのビジョンモデルで画像からリッチで構造化されたメタデータを作れる — アップロードもサブスクもなし、データがMacの外に出ない。

ローカルAIで画像に対して VisionTagger が生成したメタデータ

モデルを選ぶ — それとも自分のを持ち込む

アプリ内で用意済みのビジョンモデルをダウンロードするか、自分の GGUF モデルとプロジェクターファイルをリンクして使える。画像と求める品質にいちばん合うモデルを選んだら、調整できるパラメータで生成を微調整して、一貫して再現できる結果に仕上げよう。処理はすべて Apple Silicon(M1 以降)上でローカル実行。クラウドサービスじゃなくて、Mac の性能をそのまま使う。

VisionTagger のモデル選択画面

自分のメタデータスキーマを定義する

本当に必要なメタデータだけ生成しよう。タイトル、説明、キーワード、コンテンツ&スタイル、安全性&コンプライアンスみたいな内蔵セクションを有効にして、そこにワークフローに合わせたカスタムセクションやフィールドを追加できる。各フィールドごとにデータ型(Boolean、Text、または List of Texts)を選んで、モデルに何を抽出させるかをはっきり指示するプロンプトを書ける。結果は、あなたのルールに合って、大量バッチでもブレにくい構造化メタデータになる。

カスタマイズ可能なメタデータのセクションとフィールドを表示している VisionTagger の設定画面

必要な場所へメタデータを出力する

パイプラインにいちばん合う形式でメタデータを公開しよう。XMP サイドカーや埋め込みメタデータには、VisionTagger は ExifTool と連携する — 業界標準で、広く信頼されてるユーティリティ。メタデータは Adobe Lightroom、Bridge、Capture One、Photo Mechanic、そして XMP を読む他のソフトにも表示される。写真ライブラリへ書き戻す、画像ごとに JSON/TXT を書き出す、または一回の実行分を1ファイルにまとめることもできる。macOS で素早く整理できるように Finder タグも追加できる。複数の出力先を同時に選んでまとめて設定できるから、1回の生成で使ってる全部の行き先に流し込める。

VisionTagger の公開設定の例

ユースケース

  • あとであの一枚を見つけたい人 ライブラリ用に検索できるタイトル、説明、キーワード、タグを生成して。

  • Webチームが大量にaltテキストを生成する場合 Webサイト画像のアクセシビリティとSEOを改善するために、正確で一貫したaltテキストをローカルで作成(アップロード不要)。

  • 大量の撮影データを管理するフォトグラファー 一貫したメタデータで、選別、カタログ化、納品、アーカイブの作業をスピードアップ。

  • アセットライブラリを整理するデザイナー ムード、スタイル、被写体、用途をプロジェクト横断で探しやすくする。

  • コレクションにタグ付けする研究者・アーキビスト データセット、記録、長期保存のために、構造化された一貫したメタデータを作る。

システム要件

  • macOS Tahoe 26.0 以降

  • Apple Silicon 必須(M1 以降)

  • 大きめのモデルで最適なパフォーマンスを出すなら 16GB RAM 以上推奨

  • モデル保存容量: 1 モデルあたり約 4–8 GB を見込んで(ローカルにダウンロード)

画像からメタデータへ — 6ステップ

YouTubeでデモを見る

買い切り

€29.99
ローンチ特典 €24.99

VAT込み

無料トライアル: 100 枚、期限なし
一回払い。継続料金なし。
1ユーザー。複数のMacで。

VisionTagger FAQ

どのビジョンモデルが入ってる?

VisionTagger には、あらかじめ設定されたビジョンモデルが4つ入ってる:Qwen2.5-VL 7B Instruct、Gemma 3 4B IT、InternVL3 8B Instruct、Pixtral 12B。小さいモデルはだいたい速く動く一方で、大きいモデルはより細かい出力になりやすいけど、Mac と設定次第でメモリが多めに必要になる。トライアルでモデルを比べて、ワークフローと欲しいディテールに合うまでパラメータをいじってみて。

自分のモデルも使える?

使えるよ。GGUF 対応のビジョンモデルと、それに対応するプロジェクターファイル(これも GGUF)があるなら、VisionTagger で リンク して内蔵の選択肢みたいに使える。サードパーティ製モデルの利用がライセンスや利用規約に合ってるかは自分で確認してね。

VisionTagger はネット接続が必要?

VisionTagger はローカルで動いて、画像や生成したメタデータをアップロードしない。ネットが必要なのは、アプリ内でモデルをダウンロードするときと、アプリのアップデートを確認してダウンロードするときだけ。

無料トライアルはどういう仕組み?

無料トライアルは最大100枚まで、無料で処理できる。期限もないよ。購入前に、モデル選択、内蔵セクション、カスタムフィールド、エクスポートのオプションまで、全部の流れを試せる。

対応してる画像形式と取り込み元は?

VisionTagger は JPEG、PNG、TIFF、HEIC、WebP みたいな一般的な形式に対応してる。Mac 上のフォルダから選ぶことも、写真ライブラリから直接選ぶこともできる。

メタデータの項目はカスタマイズできる?

できるよ。内蔵セクション(タイトル、説明、キーワード、コンテンツ&スタイル、安全性&コンプライアンス)に加えて、カスタムセクションを作って自分のフィールドを追加 できる。各フィールドはデータ型(Boolean、Text、または List of Texts)と専用のプロンプトを持てるから、モデルに何を抽出させるかをピンポイントで決められる。

VisionTagger はどんな出力ができる?

VisionTagger は画像ごとに JSON か TXT を書き出せるし、バッチ全体を1つの JSON/TXT ファイルにまとめることもできる。Finder タグも付けられる。XMP サイドカーや画像ファイルへのメタデータ埋め込みは、ExifTool と連携して対応する(別途インストール)。

ExifTool は入れないとダメ?

ExifTool が必要なのは、XMP サイドカーと画像ファイルへのメタデータ埋め込みだけ。JSON/TXT の書き出しや Finder タグの適用だけなら、ExifTool はいらない。

写真ライブラリに書き戻せる?

書き戻せるよ。その出力オプションを選べば、VisionTagger が写真ライブラリにメタデータを書き戻せる。書き込む前に、必ず公開サマリーが表示される。

モデルのパラメータは調整できる?

できる。設定で、temperature、max tokens、context length、top-P、top-K みたいな生成パラメータをスライダーで調整できる。創造性と一貫性のバランスを取ったり、出力の長さやディテールをコントロールできる。

どれくらい速い?どんなMacが必要?

VisionTagger は Apple Silicon(M1 以降)が必須で、macOS Tahoe 26.0 以降で動く。速度は Mac、選んだモデル、画像の解像度、選んだメタデータ項目に左右される。小さいモデルはだいたい速くて、大きいモデルは品質が上がることが多いけど、RAM が多めに必要になることがある。

モデルってどれくらい容量食う?

モデルのダウンロードはローカルに保存される。だいたい1モデルあたり 4–8 GB くらい見込んで(モデルによって変わる)。

既存のファイルやメタデータを上書きしちゃう?

VisionTagger は出力を書き込む前に公開サマリーを出して、既存ファイルが上書きされる可能性があるなら警告する。保存される前に、やることを確認してOKできる。

利用データとか分析は取ってる?

取ってない。VisionTagger には analytics や telemetry がなく、データもアップロードしない。ライセンスの有効化とアップデート確認は、必要なときだけその機能のためにネットワークリクエストが発生する。