Textos de IA posicionam no Google? Testei 300 conteúdos

Testei publicar 300 conteúdos com IA, em fases diferentes, usando modelos da OpenAI e fluxos reais de produção. Os dados mostram o que funciona, o que não performa — e onde a IA ainda precisa de um redator pra entregar resultado.

Felipe Pener

7/12/20253 min read

Todo mundo fala sobre IA e conteúdo.

Pouca gente testa com método.

Nesse experimento, desenvolvi um sistema completo pra gerar textos com IA — desde estrutura até publicação automática — e publiquei 300 conteúdos em duas fases, com objetivos e ajustes bem definidos.

Os resultados? Reais, comparáveis e, como era de se esperar:

IA ajuda. Mas não entrega sozinha.

Como o sistema foi desenvolvido

O objetivo era claro: usar IA pra reduzir tempo e custo de produção de conteúdo para SEO, mantendo o mínimo de qualidade pra ranquear no Google.

O sistema foi desenvolvido com:

Backend em Python (Flask)

Deploy no Google Cloud

Geração via API da OpenAI

Interface de aprovação automática baseada em critérios técnicos (título, heading tags, palavra-chave, CTA, links)

Painel leve para revisão e publicação no CMS

O conteúdo era gerado a partir de 3 URLs referência + briefing do produto/marca, e organizado por projeto.

Importante: tudo isso foi testado em sites próprios, sem risco direto pra clientes.

Fase 1 — 200 conteúdos 100% gerados por IA, sem revisão

Nessa primeira fase, publicamos 200 textos na íntegra gerados por IA — inicialmente com o gpt-3.5-turbo, e depois com o gpt-4 e gpt-4 turbo, que entregaram estrutura melhor, mas ainda sem impacto real.

Critérios:

Temas com volume entre 5.000 e 50.000 buscas mensais

Site com DA acima de 35

Estrutura de conteúdo completa: título, intertítulos, parágrafos, CTA, links

Publicação sem revisão humana

Resultado:

Apenas 3% dos conteúdos chegaram à primeira página do Google.

Mesmo com conteúdo coerente e on-page ajustado, não houve tração significativa de tráfego.

Fase 2 — IA como base + revisão de redator e especialista

Na segunda fase, mudamos a abordagem: a IA continuava gerando a base, mas agora os textos eram validados por um redator e por um especialista técnico (quando o tema exigia).

Foram publicados 100 conteúdos, com os mesmos critérios da fase anterior:

Temas com volume entre 5k e 50k, site com DA > 35, mesma lógica de estrutura.

O que mudou foram os temas em si — mas sempre dentro do mesmo nível de dificuldade e competitividade.

Resultado:

7x mais tráfego orgânico, com metade do número de textos

Muito mais conteúdos ranqueando nas primeiras posições

Menos volume, mais resultado

Fase 3 — Clonagem de estilo (em andamento)

A fase atual é focada em clonar o estilo de um redator real com bom desempenho em SEO.

Usamos 20 textos como base, criamos um prompt de style transfer e publicamos 10 conteúdos simulando:

  • Tom de voz

  • Ritmo

  • Vocabulário

  • Estrutura de raciocínio

O modelo usado continua sendo o GPT-4 Turbo, e os primeiros sinais são positivos.

Mas mesmo com um texto mais “humano”, ainda é preciso revisar, adaptar e ajustar — senão o texto volta a perder vida.

O que aprendemos

IA sozinha não sustenta uma estratégia de SEO competitiva.

Mesmo com bons prompts e bons modelos, o conteúdo precisa de filtro humano.

IA gera estrutura, contexto e velocidade

Mas falta profundidade, nuance e leitura de intenção

A IA funciona melhor como copiloto estruturado — e não como redator substituto

A clonagem de estilo traz ganho de consistência, mas ainda não garante performance sem revisão

Conclusão: IA ajuda, mas não substitui critério

Esse experimento, feito em projetos internos, mostrou o que muita gente só descobre depois de perder tempo (ou verba):

Conteúdo por IA sem revisão não performa.

Não é sobre a IA não ser capaz de escrever.

É sobre ela ainda não entender o suficiente pra convencer o Google.

Hoje, a combinação mais segura é:

IA organiza.

O redator dá voz.

O especialista dá peso.

E o Google — talvez — dê tráfego.