
Estava usando IA para verificar a veracidade de posts de marketing que falavam sobre IA quando a própria IA inventou completamente o conteúdo de uma imagem que eu tinha enviado para análise. A ironia da situação me obrigou a parar e pensar com mais cuidado sobre como eu, como fundador, e a Pro Inove, como empresa, deveríamos usar essas ferramentas em operações que entregam resultado para cliente.
Esse artigo é o relato do que aconteceu, o que aprendi e o protocolo prático que passei a aplicar para evitar que esse tipo de erro contamine o trabalho.
Nas últimas semanas comecei um projeto pessoal de verificar, com ajuda de IA, a veracidade dos posts virais sobre inteligência artificial que circulam no LinkedIn. A motivação era simples. O volume de conteúdo prometendo transformações imediatas, substituição de profissões e ganhos absurdos de produtividade aumentou demais. Como fundador que toma decisões reais com base em ferramentas reais, queria separar o que é fato do que é marketing inflado.
A rotina era direta. Eu salvava o print do post, enviava para a IA junto com instrução de checagem factual, e recebia uma análise apontando o que era verdadeiro, o que era opinião e o que era exagero. Funcionou bem em vários posts seguidos. A IA reconhecia ferramentas reais, contestava promessas absolutas, identificava padrões de copywriting agressivo e ajudava a separar diagnóstico válido de extrapolação enganosa.
Até que aconteceu um erro grave.
Em uma das verificações, enviei o print de um post longo sobre prompts de Claude para vendas B2B. O post prometia taxa de abertura de email de 40 por cento, conversão de discovery call de 65 por cento e fechamento de proposta comercial de 70 por cento, e oferecia entrega dos prompts via comentário no post.
A resposta da IA descreveu uma imagem completamente diferente. Falou que eu tinha enviado um gráfico sobre tarifas dos Estados Unidos comparando importações vindas da China com mercadorias fabricadas na China. Mencionou categorias específicas de produto, citou fontes plausíveis como o Census Bureau americano, e até reconheceu um suposto logotipo do Morgan Stanley no canto da imagem.
Nada disso estava na imagem real. Foi invenção completa.
E aqui está o ponto que me incomodou mais. A análise inventada estava bem escrita. Era articulada, internamente coerente, citava conceitos reais como nearshoring e friend-shoring, e abordava um tema legítimo em comércio internacional. Se eu não estivesse atento, ou se eu tivesse encaminhado a resposta sem revisar, teria entregue uma análise convincente sobre conteúdo que simplesmente não existia.
Erro óbvio é fácil de pegar. Quando uma IA escreve algo que claramente não faz sentido, o usuário desconfia, revisa e descarta. O problema acontece quando o erro vem embrulhado em texto fluente, estrutura lógica e referências plausíveis. Aí o erro passa pelo filtro da nossa atenção porque nosso cérebro confunde articulação com correção.
No mercado de marketing digital, esse risco é diário. IA é usada para gerar copy de campanha, analisar performance, criar relatório para cliente, propor ajuste de criativo, segmentar público. Em qualquer uma dessas tarefas, a IA pode produzir output bem escrito e completamente desconectado do dado real. Se ninguém valida, o cliente recebe relatório com número inventado, decisão de campanha baseada em análise que não corresponde ao que aconteceu, ou recomendação criativa que parece estratégica mas está apoiada em premissa falsa.
A diferença entre operação séria e operação amadora não é mais quem usa IA. Hoje quase todo mundo usa. A diferença é quem valida o que a IA produziu antes de entregar para o cliente.
Não tenho como acessar diretamente o que aconteceu por dentro do modelo, mas há hipóteses plausíveis. Uma é que a IA pode ter falhado em processar a imagem específica enviada e gerado uma resposta baseada no que estatisticamente costuma aparecer em conversas sobre verificação factual. Outra é que o contexto longo da conversa, com várias imagens analisadas em sequência, pode ter contribuído para confusão entre peças.
A causa exata importa menos que a lição prática. Modelos de linguagem podem produzir descrição visual sem ter realmente processado a imagem, e o resultado pode ser fluente, internamente consistente e completamente desconectado da realidade. Esse é um tipo específico de alucinação que cresce conforme as IAs ficam multimodais, ou seja, capazes de processar texto e imagem juntos.
Depois desse caso, passei a aplicar três princípios em qualquer fluxo onde IA é parte da operação.
O primeiro é que validação humana continua necessária mesmo quando a IA está acertando há várias rodadas seguidas. A consistência prévia não é garantia. A IA pode acertar oito análises e errar a nona de forma grave. O custo de revisar é baixo. O custo de não revisar quando o erro escapa pode ser caro, especialmente em material que vai para o cliente.
O segundo é tratar análise de imagem como categoria de risco mais alta que análise de texto. Quando a IA processa texto, no máximo ela pode interpretar errado o que está escrito. Quando processa imagem, ela pode descrever a imagem inteira de forma errada. Em marketing, onde criativos, dashboards, prints de campanha e relatórios visuais circulam o tempo todo, isso é risco operacional real.
O terceiro é desconfiar especialmente das respostas mais bem articuladas. Quando uma resposta da IA chega com estrutura lógica perfeita, fontes citadas e tom autoritativo, esse é o momento de revisar com mais atenção, não com menos. A fluência da resposta diz pouco sobre a correção dela.
Para tarefas de análise de imagem, especialmente quando o resultado vai impactar decisão de cliente ou material de operação, passei a usar um prompt específico que força a IA a descrever literalmente o que está vendo antes de partir para qualquer análise. A lógica é simples. Se a transcrição literal sair errada, você pega o erro antes que ele contamine a análise. Se a transcrição sair certa, a análise subsequente fica ancorada no que existe de fato.
Compartilho o prompt abaixo. Sinta-se à vontade para adaptar à sua própria operação.
Antes de analisar ou opinar sobre a imagem que enviei, faça primeiro uma descrição literal e exaustiva do que está visível nela. Siga estas regras:
Tarefa específica que quero depois da descrição: [DESCREVER AQUI O QUE QUER QUE A IA FAÇA COM A IMAGEM].
Esse prompt não elimina alucinação, mas reduz a probabilidade do erro específico que descrevi acima. A IA pode ainda errar a transcrição, mas o leitor humano consegue pegar o erro na primeira etapa antes que ele se propague para a análise. Em tarefas críticas, vale combinar esse prompt com revisão humana da descrição literal antes de aceitar a análise final.
IA é parte da operação de marketing moderno e não vai deixar de ser. Quem trata como ameaça perde tempo. Quem trata como solução mágica perde dinheiro. A posição que sustenta operação séria fica no meio do caminho. Usar IA como amplificador de produtividade, manter validação humana como camada obrigatória em pontos críticos, e construir protocolos práticos que reduzem a chance de erro grave passar para o cliente.
O caso que descrevi aqui aconteceu comigo em ambiente controlado, num projeto pessoal, sem impacto em cliente. Foi sorte. Em ambiente de produção, o mesmo erro entregue para um cliente pode comprometer credibilidade, contrato e resultado de campanha. A diferença entre as duas situações não é a IA. É o protocolo que cerca o uso dela.
Na Pro Inove, a aposta é construir essa camada de critério desde o primeiro dia. IA para acelerar, processo para garantir, e revisão humana para responder pelo que entrega no final. Esse é o tripé que diferencia uso adulto de IA de uso amador. E é também o que protege o cliente de pagar pelo que parece resultado e não é.
Preencha o formulário abaixo para acessar o download.