Agentic SEO
Método

Prompts para SEO: como instruir um agente para produzir com método

Prompts para SEO bem feitos têm objetivo, contexto da Wiki, ferramentas e critérios de parada. Por que templates virais falham e como escrever instruções que produzem.

Por Diego Ivo28 de abril de 20266 min de leitura

Prompts para SEO, quando funcionam, não são frases mágicas. São instruções operacionais que dão ao agente cinco coisas: objetivo claro, contexto proprietário, ferramentas disponíveis, restrições e critério de parada. Quando uma dessas peças está faltando, o output regride para a média da internet — texto correto, longo, previsível e sem autoria. Quando todas estão presentes, o resultado começa a soar como o seu time, não como o ChatGPT genérico.

A confusão começa cedo. Existe um mercado inteiro de "templates virais" que prometem o melhor prompt para escrever um artigo, fazer uma auditoria ou montar um cluster. Esses templates funcionam mal por um motivo simples: eles tratam o agente como uma máquina de copiar e colar, em vez de tratar como um executor com objetivo. O método é outro.

A diferença entre prompt único e prompt agêntico

Um prompt único é uma frase isolada que o usuário cola em um chat. Ele assume que o agente sabe o que fazer com pouca informação. Funciona para tarefas pequenas — reescrever um parágrafo, sugerir um título, traduzir uma frase. Falha para tarefas que importam, porque a tarefa que importa quase nunca cabe em uma frase.

Um prompt agêntico é uma instrução estruturada que prepara o agente para executar uma tarefa real. Ele descreve o objetivo de negócio, fornece o contexto necessário, indica as ferramentas que podem ser usadas, define o que está fora de escopo e estabelece o sinal de "trabalho terminado". Esse tipo de prompt costuma carregar uma skill da biblioteca — porque a skill já contém o protocolo, e o prompt apenas situa a execução.

A diferença prática aparece no output. O prompt único produz uma resposta plausível. O prompt agêntico produz um artefato utilizável.

Por que templates virais falham

Templates virais são populares porque vendem certeza. "Cole este prompt e tenha um briefing perfeito." O problema é que briefing perfeito não existe descontextualizado. Briefing bom depende do que a marca quer ser, de quem é o público, do que já está publicado, da tese editorial, dos critérios de EEAT da equipe, do tom de voz, das fontes que valem citar.

Nada disso cabe em um template universal. Quando você cola um template viral em um agente, ele responde com a média daquilo que aprendeu na internet — e a média da internet é exatamente o que sua marca não quer parecer. O texto sai correto, mas sem voz. Compete com tudo e diferencia-se de nada.

A saída é parar de buscar prompts mágicos e começar a tratar prompt como instrumento operacional, escrito para o seu contexto. É menos romântico e mais útil.

A anatomia de um prompt agêntico

Um prompt operacional tem partes reconhecíveis. Não precisa ser longo — precisa ser completo.

O objetivo abre o prompt. Não basta dizer "escreva um artigo". É preciso declarar o que esse artigo precisa entregar: atender a intenção de busca X, reforçar o cluster Y, posicionar a marca em torno de Z, servir de referência para um público específico. Sem objetivo declarado, qualquer output é defensável — e nenhum é avaliável.

O contexto vem em seguida. Aqui entra o ativo que mais diferencia uma operação séria: a Wiki LLM. Em vez de pedir "escreva sobre SEO Agêntico", o prompt aponta para a Wiki, indica os trechos relevantes, lista os exemplos canônicos e nomeia o glossário a respeitar. O agente passa a operar sobre uma fonte de verdade, não sobre a memória difusa do treinamento.

As ferramentas declaram o que o agente pode usar. Em um setup moderno, isso pode incluir busca web, leitura de páginas internas, consulta a um banco de dados, acesso a uma API de SERP, leitura de arquivos da Wiki. Declarar ferramentas é importante porque limita alucinação: se o agente não tem acesso à fonte, ele não deve inventar uma. Ele deve registrar a lacuna.

As restrições e o critério de parada fecham o prompt. Restrições incluem o que não pode aparecer — afirmações sem fonte, listas longas que viraram tique de IA, jargões fora do glossário, opiniões da Wikipedia disfarçadas de tese da marca. O critério de parada diz quando o trabalho está pronto: formato esperado, tamanho mínimo, checklist de qualidade, validações automáticas. Sem esse sinal, o agente entrega quando "achar" que terminou — e o que ele acha varia.

Quando essas quatro partes estão presentes, o prompt deixa de ser sugestão e vira contrato. O resultado fica avaliável, comparável e melhorável. Foi essa transição que a Anthropic descreveu bem no guia oficial de prompt engineering para Claude, e os princípios valem para qualquer modelo de fronteira.

Prompts conversam com skills

Um prompt agêntico raramente carrega o protocolo inteiro de uma tarefa. Ele invoca uma skill que já contém o protocolo. Pense na skill como a definição do método e no prompt como a chamada que dispara aquele método em um caso concreto.

Um exemplo torna isso menos abstrato. A skill "briefing editorial" já sabe o formato YAML esperado, os campos obrigatórios, os critérios de EEAT, a checagem contra o glossário. O prompt apenas diz: "Use a skill briefing-editorial para o tópico X, cluster Y, com a Wiki Z e a intenção de busca W. Pare quando o YAML estiver válido e os campos obrigatórios preenchidos." É curto porque o método já está empacotado.

Quem ainda escreve prompts longos para cada execução está reescrevendo o método toda vez. É lento e inconsistente. A passagem para uma operação madura acontece quando a equipe percebe que prompts pequenos e skills boas produzem mais do que prompts gigantes e improvisados.

Erros comuns e como corrigir

O erro mais comum é confundir verbosidade com qualidade. Adicionar parágrafos de adjetivos não melhora a saída — costuma piorar, porque dilui o foco. O ajuste é cortar, não adicionar.

O segundo erro é não declarar a fonte. Pedir "use dados confiáveis" sem apontar quais não funciona; o agente vai produzir números plausíveis. O ajuste é nomear a fonte, ou pedir que o agente registre quando não souber.

O terceiro é tratar o agente como humano. "Seja criativo" não é instrução, é desejo. "Gere três variações com tom mais técnico, eliminando adjetivos genéricos e mantendo o glossário X" é instrução. A diferença é mensurável.

O quarto é não revisar. Mesmo o melhor prompt produz saída que precisa de leitura humana. Quem é responsável pelo conteúdo precisa ler, ajustar, devolver crítica e atualizar a skill quando o problema for sistêmico. Esse loop é o que separa quem usa IA de quem opera com IA.

Continue lendo

Para entender o método maior, leia O que é SEO Agêntico. Para ver como prompts e skills se encaixam, Skills para SEO explica o lado modular. Quando vários prompts e skills precisam compor um processo, Workflows agênticos mostra a orquestração. E para entender de onde vem o contexto que torna o prompt útil, Wiki LLM é leitura obrigatória — assim como Agente de SEO para o lado profissional da equação.

Quer ver isso na prática?

Inscreva-se na masterclass gratuita de 06/05 com Diego Ivo.