콘텐츠로 건너뛰기

사진 태그, 더 이상 수작업은 그만.

VisionTagger는 온디바이스 AI로 이미지의 제목, 설명, 키워드 등을 일괄 생성해요 — 업로드도, 이미지당 요금도 없이요.

macOS 26를 실행하는 Apple Silicon Mac이 필요해요

로컬 AI로 이미지에 대한 메타데이터를 생성한 VisionTagger 로컬 AI로 이미지에 대한 메타데이터를 생성한 VisionTagger

이미 가진 정보로 더 정확한 결과를

AI에게 무엇을 보고 있는지 알려주면 결과가 훨씬 좋아져요. “빈티지 가구 매장의 제품 사진”처럼 Context Hint를 추가하고, GPS Location을 켜서 내장된 좌표에서 장소 이름을 조회하거나, 파일에 이미 있는 카메라 및 편집 메타데이터를 전달할 수 있어요. 각 소스는 선택 사항이고 프롬프트에 직접 반영돼요 — 그래서 AI가 추측할 필요가 없어요.

VisionTagger Additional Context 패널 - 컨텍스트 소스 표시

필요한 메타데이터를 정확히 생성해요

대부분의 사람이 필요로 하는 필드 — 제목, 설명, 키워드 — 부터 시작한 다음, 콘텐츠 및 스타일, 안전 및 컴플라이언스까지 확장하거나, 나만의 필드와 프롬프트로 완전히 커스텀 섹션을 추가할 수 있어요. 다른 언어로 출력이 필요해요? VisionTagger는 macOS 내장 번역 기능을 사용하여 생성된 메타데이터를 자동으로 번역할 수 있어요. 결과는 수천 장의 사진에 걸쳐 구조적이고 일관된 메타데이터예요.

커스터마이즈 가능한 메타데이터 섹션과 필드를 보여주는 VisionTagger 콘텐츠 설정 화면

기존 워크플로에 바로 연결돼요

XMP 사이드카와 임베디드 메타데이터를 위해 VisionTagger는 ExifTool과 통합돼요 — 업계 표준이자 널리 신뢰받는 유틸리티예요. 메타데이터는 Adobe Lightroom, Bridge, Capture One, Photo Mechanic 같은 앱과 XMP를 읽는 다른 어떤 소프트웨어에서도 표시돼요. Photos Library에 다시 쓰거나, 이미지별로 JSON, CSV 또는 TXT를 내보내거나, 전체 실행에 대해 단일 파일을 생성할 수도 있어요. macOS에서 빠르게 정리할 수 있도록 Finder 태그도 추가해요. 여러 출력을 한 번에 선택하고 함께 설정할 수 있어서, 한 번의 생성 패스로 사용하는 모든 목적지로 보낼 수 있어요.

VisionTagger 게시 설정 예시

자동화하고 잊어버려요

두 가지 단축어 동작 — Finder의 파일용과 Photos Library용 — 으로 앱을 열지 않고도 전체 프로세스를 백그라운드에서 실행할 수 있어요. 폴더 자동화, Finder 빠른 동작을 설정하거나 명령어 줄에서 실행할 수도 있어요. 앱의 현재 설정을 그대로 쓰거나, 저장된 프리셋을 지정해서 매번 재현 가능한 결과를 얻을 수 있어요.

자동화 동작을 보여주는 VisionTagger 단축어 통합

일회성 구매

€29.99
출시 기념 할인 €24.99

VAT 포함 (US & CA 제외)

무료 체험: 이미지 100장, 시간 제한 없음
한 번만 결제해요. 반복 요금은 없어요.
1인 사용자. 여러 대의 Mac.

VisionTagger FAQ

시작하기

무료 체험판은 어떻게 동작하나요?

무료 체험판에서는 시간 제한 없이 최대 100장의 이미지를 무료로 처리할 수 있어요. 구매 전에 전체 워크플로—모델 선택, 내장 섹션, 커스텀 필드, 내보내기 옵션—를 전부 확인해 볼 수 있어요.

이미지 및 메타데이터

어떤 이미지 형식과 소스를 지원하나요?

VisionTagger는 JPEG, PNG, TIFF, HEIC, WebP 같은 일반적인 이미지 형식은 물론, DNG를 포함한 다양한 RAW 형식도 지원해요. Mac의 폴더에서 이미지를 선택하거나 Photos Library에서 바로 가져올 수 있어요.

설명의 상세 수준을 조절할 수 있나요?

네. 세 가지 수준 중에서 선택할 수 있어요: 간략은 alt 텍스트에 적합한 간결한 한 문장, 표준은 캡션에 이상적인 맥락이 포함된 두 문장, 상세는 포괄적인 설명이에요.

생성되는 키워드를 제어할 수 있나요?

네. 키워드의 최대 수를 설정하면 모델이 이미지당 그 수까지 키워드를 생성해요. 리스트의 앞이나 뒤에 항상 포함할 키워드를 정의하거나, 제외할 키워드를 지정할 수도 있어요. 생성 후에는 내보내기 전에 이미지별로 키워드를 수동으로 재정렬, 편집, 추가 또는 삭제할 수 있어요.

커스텀 메타데이터 필드를 정의할 수 있나요?

네. 내장 섹션(제목, 설명, 키워드, 콘텐츠 및 스타일, 안전 및 컴플라이언스) 외에도, 커스텀 섹션을 만들고 나만의 필드를 추가할 수 있어요. 각 필드는 데이터 타입(Boolean, Text, List of Texts)과 전용 프롬프트를 지원해서, 모델이 무엇을 추출할지 정확히 맞출 수 있어요.

내보내기 및 연동

Photos Library에 다시 써 넣을 수 있나요?

네. 해당 출력 옵션을 선택하면 VisionTagger가 Photos Library에 메타데이터를 다시 써 넣을 수 있어요. 무엇이든 쓰기 전에 항상 게시 요약을 보여줘요.

VisionTagger는 어떤 출력물을 만들 수 있나요?

VisionTagger는 이미지별로 JSON, CSV 또는 TXT를 내보내거나, 배치 전체에 대해 하나의 JSON/CSV/TXT 파일로 내보낼 수 있어요. Finder 태그도 적용할 수 있어요. XMP 사이드카와 이미지 파일에 메타데이터를 임베드하는 기능은 ExifTool과 연동돼요(별도 설치).

VisionTagger가 영어 외 다른 언어로 메타데이터를 출력할 수 있나요?

네. VisionTagger는 최적의 AI 모델 품질을 위해 메타데이터를 항상 영어로 생성해요. 설정에서 다른 출력 언어를 선택하면 생성된 메타데이터가 macOS 내장 번역 기능으로 자동 번역돼요. 지원 언어에는 아랍어, 중국어, 네덜란드어, 프랑스어, 독일어, 힌디어, 인도네시아어, 이탈리아어, 일본어, 한국어, 폴란드어, 포르투갈어, 러시아어, 스페인어, 태국어, 터키어, 우크라이나어, 베트남어가 포함돼요. 번역을 사용하려면 먼저 시스템 설정에서 언어 팩을 다운로드해야 해요.

ExifTool을 설치해야 하나요?

ExifTool은 XMP 사이드카와 이미지 파일에 메타데이터를 임베드할 때만 필요해요. JSON/CSV/TXT로 내보내거나 Finder 태그만 적용한다면 ExifTool은 필요 없어요.

VisionTagger가 기존 파일이나 메타데이터를 덮어쓰나요?

VisionTagger는 어떤 출력이든 쓰기 전에 게시 요약을 보여주고, 기존 파일이 덮어써질 수 있으면 경고해요. 저장 전에 동작을 검토하고 확인할 수 있어요.

요구 사항

기술적으로 설정할 게 있나요?

아니요. 모델을 클릭 한 번으로 다운로드하고 바로 처리를 시작하면 돼요. VisionTagger는 합리적인 기본값이 설정돼 있어요. 더 많은 제어가 필요하면 설정에서 출력 길이 같은 파라미터를 조절할 수 있지만, 대부분의 사용자는 그럴 필요가 없어요.

VisionTagger는 인터넷 연결이 필요해요?

VisionTagger는 로컬에서 실행되고 이미지나 생성된 메타데이터를 업로드하지 않아요. 인터넷 연결은 앱 안에서 모델을 다운로드할 때, 그리고 앱 업데이트를 확인하고 다운로드할 때만 필요해요.

속도는 어느 정도고 어떤 Mac이 필요해요?

VisionTagger는 Apple Silicon(M1 이상)이 필요하고 macOS Tahoe 26.0 이상에서 실행돼요. RAM은 최소 16 GB이고, 더 큰 모델에는 32 GB 이상을 권장해요. 속도는 Mac 사양, 선택한 모델, 이미지 해상도, 선택한 메타데이터 필드에 따라 달라져요. 더 작은 모델은 보통 더 빠르고, 더 큰 모델은 더 높은 품질의 결과를 낼 수 있어요.

모델이 디스크 공간을 얼마나 사용하나요?

모델 다운로드는 로컬에 저장돼요. 모델당 대략 4–8 GB 정도를 예상해 주세요(모델에 따라 달라요).

자동화

VisionTagger를 자동화할 수 있나요?

네. VisionTagger는 Apple 단축어와 두 가지 동작으로 통합돼요: Generate Image Metadata(Finder의 파일용)와 Generate Photo Metadata(Photos Library용). 둘 다 전체 프로세스를 백그라운드에서 실행하고 설정된 목적지로 결과를 내보내요. 단축어 앱, Finder 빠른 동작, 폴더 자동화, 명령어 줄, AppleScript에서 사용할 수 있어요. 앱에서 내보낸 설정 프리셋을 제공하면 재현 가능한 자동화도 할 수 있어요.

AI 모델

어떤 비전 모델이 포함돼 있나요?

VisionTagger에는 미리 설정된 비전 모델 6개가 포함돼 있어요: Qwen3-VL 8B Instruct, Qwen3-VL 30B-A3B Instruct, Qwen2.5-VL 7B Instruct, Gemma 3 4B IT, InternVL3 8B Instruct, Pixtral 12B. 더 작은 모델은 보통 더 빠르게 돌아가고, 더 큰 모델은 더 디테일한 출력이 나올 수 있지만 Mac과 선택한 설정에 따라 더 많은 메모리가 필요할 수 있어요. 체험판으로 모델을 비교하고 파라미터를 조정해서 결과가 워크플로와 원하는 디테일 수준에 맞을 때까지 맞춰 보세요.

내 모델을 사용할 수 있나요?

네. GGUF 호환 비전 모델과 그에 맞는 프로젝터 파일(이것도 GGUF)이 있다면, VisionTagger에서 연결해서 기본 옵션처럼 사용할 수 있어요. 서드파티 모델 사용이 해당 라이선스와 약관을 준수하는지 확인하는 책임은 사용자에게 있어요.

모델 파라미터를 튜닝할 수 있나요?

네. 설정에서 temperature, max tokens, context length, top-P, top-K 같은 생성 파라미터를 슬라이더로 조절할 수 있어요. 창의성 vs 일관성의 균형을 맞추고 출력 길이와 디테일을 제어하는 데 도움이 돼요.

개인정보 보호

VisionTagger는 클라우드 키워드 서비스와 비교하면 어떤가요?

대부분의 클라우드 키워드 서비스는 이미지당 요금을 부과하고 사진을 서버에 업로드해야 해요. VisionTagger는 이미지당 요금 없이 한 번 구매 — 원하는 만큼 이미지를 처리할 수 있어요. 사진은 절대 Mac 밖으로 나가지 않고, 메타데이터는 수동으로 가져와야 하는 CSV 대신 XMP 사이드카와 파일에 직접 기록돼요.

GPS Location 기능이 내 데이터를 어딘가로 전송하나요?

이미지에 포함된 GPS 좌표는 장소 이름을 조회하기 위해 익명으로 Apple Maps에 전송돼요. 좌표만 전송되며, Apple은 지도 사용과 관련된 개인 데이터를 수집하지 않아요. GPS Location 기능은 기본적으로 비활성화돼 있어요.

번역 기능이 Apple에 데이터를 전송하나요?

기본적으로 macOS는 더 나은 정확도를 위해 Apple의 온라인 번역 서비스를 사용할 수 있어요. 모든 번역이 Mac에서만 처리되고 데이터가 기기 밖으로 나가지 않도록 하려면, 시스템 설정 > 번역에서 “기기 내 모드”를 활성화해 주세요.

VisionTagger가 사용 데이터나 분석 정보를 수집하나요?

아니요. VisionTagger에는 분석(analytics)이나 텔레메트리가 없고, 데이터를 업로드하지도 않아요. 라이선스 활성화와 업데이트 확인은 해당 기능에 필요할 때만 네트워크 요청이 발생해요.