Saltar para o conteúdo

Gera metadados de imagens. Localmente.

Cria metadados ricos e estruturados a partir de imagens com modelos de visão locais — sem envios, subscrições, nem dados a sair do teu Mac.

Metadados gerados pelo VisionTagger para uma imagem usando IA local

Escolhe um modelo — ou traz o teu

Descarrega modelos de visão pré-configurados na app, ou liga o teu próprio modelo GGUF e ficheiros projector. Escolhe o modelo que melhor se adapta às tuas imagens e aos requisitos de qualidade, e depois afina a geração com parâmetros ajustáveis para obteres resultados consistentes e repetíveis. Todo o processamento corre localmente em Apple Silicon (M1 ou posterior), usando o desempenho do teu Mac em vez de um serviço na cloud.

Interface de seleção de modelos do VisionTagger

Define o teu próprio esquema de metadados

Gera apenas os metadados de que realmente precisas. Ativa secções incluídas como Título, Descrição, Palavras-chave, Conteúdo e estilo, e Segurança e conformidade — e depois estende-as com secções e campos personalizados ajustados ao teu fluxo de trabalho. Para cada campo, escolhe um tipo de dado (Booleano, Texto ou Lista de textos) e escreve um prompt que instrua o modelo exatamente sobre o que extrair. O resultado são metadados estruturados que seguem as tuas convenções e se mantêm consistentes em lotes grandes.

Configuração de conteúdo do VisionTagger a mostrar secções e campos de metadados personalizáveis

Exporta metadados para onde precisares

Publica metadados no formato que melhor se encaixa na tua pipeline. Para sidecars XMP e metadados incorporados, o VisionTagger integra-se com o ExifTool — um utilitário padrão da indústria, amplamente confiável. Os teus metadados vão aparecer em apps como Adobe Lightroom, Bridge, Capture One, Photo Mechanic e qualquer outro software que leia XMP. Escreve de volta na tua Biblioteca de Fotos, exporta JSON ou TXT por imagem, ou gera um único ficheiro para uma execução inteira. Adiciona etiquetas do Finder para organização rápida no macOS. Seleciona vários outputs de uma vez e configura-os em conjunto — para que uma única passagem de geração alimente todos os destinos que usas.

Exemplo de configuração de publicação do VisionTagger

Casos de uso

  • Qualquer pessoa que queira encontrar aquela imagem mais tarde ao gerar títulos, descrições, palavras-chave e etiquetas pesquisáveis para a tua biblioteca.

  • Equipas web a gerar texto alternativo em escala criam texto alternativo preciso e consistente para imagens do site para melhorar acessibilidade e SEO — localmente, sem enviar.

  • Fotógrafos a gerir grandes sessões aceleram seleção, catalogação, entrega e arquivo com metadados consistentes.

  • Designers a organizar bibliotecas de assets tornam mood, estilo, tema e utilização mais fáceis de pesquisar entre projetos.

  • Investigadores e arquivistas a etiquetar coleções criam metadados estruturados e consistentes para datasets, registos e preservação a longo prazo.

Requisitos do sistema

  • macOS Tahoe 26.0 ou posterior

  • Apple Silicon obrigatório (M1 ou posterior)

  • Para um desempenho ideal com modelos maiores, recomenda-se 16 GB de RAM ou mais

  • Armazenamento de modelos: conta com ~4–8 GB por modelo (descarregado localmente)

De imagens a metadados — em seis passos

Ver demo no YouTube

Compra única

29,99 €
Oferta de lançamento 24,99 €

IVA incluído (exceto US & CA)

Teste gratuito: 100 imagens, sem limite de tempo
Pagamento único. Sem taxas recorrentes.
Um único utilizador. Vários Macs.

FAQ do VisionTagger

Que modelos de visão estão incluídos?

O VisionTagger inclui quatro modelos de visão pré-configurados: Qwen2.5-VL 7B Instruct, Gemma 3 4B IT, InternVL3 8B Instruct e Pixtral 12B. Em geral, modelos mais pequenos correm mais depressa, enquanto modelos maiores podem produzir resultados mais detalhados, mas exigem mais memória, dependendo do teu Mac e das definições escolhidas. Usa o teste para comparar modelos e ajustar parâmetros até os resultados baterem certo com o teu fluxo de trabalho e o nível de detalhe que preferes.

Posso usar os meus próprios modelos?

Sim. Se tiveres um modelo de visão compatível com GGUF e o respetivo ficheiro projector correspondente (também GGUF), podes ligá-los no VisionTagger e usá-los como as opções incluídas. Tu és responsável por garantir que o teu uso de modelos de terceiros cumpre as respetivas licenças e termos.

O VisionTagger precisa de ligação à internet?

O VisionTagger corre localmente e não envia as tuas imagens nem os metadados gerados. A internet só é necessária para descarregar modelos dentro da app e para verificar e descarregar atualizações.

Como funciona o teste gratuito?

O teste gratuito deixa-te processar até 100 imagens sem custo, sem limite de tempo. Podes explorar o fluxo completo—seleção de modelo, secções incluídas, campos personalizados e opções de exportação—antes de comprares.

Que formatos e fontes de imagem são suportados?

O VisionTagger suporta formatos comuns como JPEG, PNG, TIFF, HEIC e WebP. Podes selecionar imagens a partir de pastas no teu Mac ou diretamente da tua Biblioteca de Fotos.

Posso personalizar os campos de metadados?

Sim. Para além das secções incluídas (Title, Description, Keywords, Content & Style, Safety & Compliance), podes criar secções personalizadas e adicionar os teus próprios campos. Cada campo suporta um tipo de dado (Boolean, Text ou List of Texts) e o seu próprio prompt, para poderes definir exatamente o que o modelo extrai.

Que saídas é que o VisionTagger consegue criar?

O VisionTagger pode exportar JSON ou TXT por imagem, ou um único ficheiro JSON/TXT para um lote inteiro. Também pode aplicar etiquetas do Finder. Para sidecars XMP e para incorporar metadados nos ficheiros de imagem, o VisionTagger integra-se com o ExifTool (instalado separadamente).

Preciso de instalar o ExifTool?

O ExifTool só é necessário para sidecars XMP e para incorporar metadados nos ficheiros de imagem. Se só exportares JSON/TXT ou aplicares etiquetas do Finder, não precisas do ExifTool.

O VisionTagger pode escrever de volta na minha Biblioteca de Fotos?

Sim. O VisionTagger pode escrever metadados de volta na tua Biblioteca de Fotos quando escolheres essa opção de saída. Vais sempre ver um resumo de publicação antes de qualquer coisa ser escrita.

Posso afinar os parâmetros do modelo?

Sim. Em Definições podes ajustar parâmetros de geração como temperature, max tokens, context length, top-P e top-K com sliders. Isto ajuda-te a equilibrar criatividade vs consistência e a controlar o comprimento e o detalhe da saída.

Quão rápido é, e que Mac é que preciso?

O VisionTagger requer Apple Silicon (M1 ou posterior) e corre em macOS Tahoe 26.0 ou posterior. A velocidade depende do teu Mac, do modelo selecionado, da resolução da imagem e dos campos de metadados escolhidos. Modelos mais pequenos costumam ser mais rápidos; modelos maiores podem produzir resultados de maior qualidade, mas podem exigir mais RAM.

Quanto espaço em disco é que os modelos ocupam?

Os downloads dos modelos são guardados localmente. Conta com cerca de 4–8 GB por modelo (varia conforme o modelo).

O VisionTagger vai sobrescrever ficheiros ou metadados existentes?

O VisionTagger mostra um resumo de publicação antes de escrever qualquer saída e avisa-te se alguns ficheiros existentes puderem ser sobrescritos. Podes rever as ações e confirmar antes de qualquer coisa ser guardada.

O VisionTagger recolhe dados de uso ou analytics?

Não. O VisionTagger não inclui analytics nem telemetria, e não envia os teus dados. A ativação da licença e as verificações de atualização envolvem pedidos de rede quando necessário para essas funções.