Textos de IA posicionam no Google? Testei 300 conteúdos
Testei publicar 300 conteúdos com IA, em fases diferentes, usando modelos da OpenAI e fluxos reais de produção. Os dados mostram o que funciona, o que não performa — e onde a IA ainda precisa de um redator pra entregar resultado.
Felipe Pener
7/12/20253 min read


Todo mundo fala sobre IA e conteúdo.
Pouca gente testa com método.
Nesse experimento, desenvolvi um sistema completo pra gerar textos com IA — desde estrutura até publicação automática — e publiquei 300 conteúdos em duas fases, com objetivos e ajustes bem definidos.
Os resultados? Reais, comparáveis e, como era de se esperar:
IA ajuda. Mas não entrega sozinha.
Como o sistema foi desenvolvido
O objetivo era claro: usar IA pra reduzir tempo e custo de produção de conteúdo para SEO, mantendo o mínimo de qualidade pra ranquear no Google.
O sistema foi desenvolvido com:
Backend em Python (Flask)
Deploy no Google Cloud
Geração via API da OpenAI
Interface de aprovação automática baseada em critérios técnicos (título, heading tags, palavra-chave, CTA, links)
Painel leve para revisão e publicação no CMS
O conteúdo era gerado a partir de 3 URLs referência + briefing do produto/marca, e organizado por projeto.
Importante: tudo isso foi testado em sites próprios, sem risco direto pra clientes.
Fase 1 — 200 conteúdos 100% gerados por IA, sem revisão
Nessa primeira fase, publicamos 200 textos na íntegra gerados por IA — inicialmente com o gpt-3.5-turbo, e depois com o gpt-4 e gpt-4 turbo, que entregaram estrutura melhor, mas ainda sem impacto real.
Critérios:
Temas com volume entre 5.000 e 50.000 buscas mensais
Site com DA acima de 35
Estrutura de conteúdo completa: título, intertítulos, parágrafos, CTA, links
Publicação sem revisão humana
Resultado:
Apenas 3% dos conteúdos chegaram à primeira página do Google.
Mesmo com conteúdo coerente e on-page ajustado, não houve tração significativa de tráfego.
Fase 2 — IA como base + revisão de redator e especialista
Na segunda fase, mudamos a abordagem: a IA continuava gerando a base, mas agora os textos eram validados por um redator e por um especialista técnico (quando o tema exigia).
Foram publicados 100 conteúdos, com os mesmos critérios da fase anterior:
Temas com volume entre 5k e 50k, site com DA > 35, mesma lógica de estrutura.
O que mudou foram os temas em si — mas sempre dentro do mesmo nível de dificuldade e competitividade.
Resultado:
7x mais tráfego orgânico, com metade do número de textos
Muito mais conteúdos ranqueando nas primeiras posições
Menos volume, mais resultado
Fase 3 — Clonagem de estilo (em andamento)
A fase atual é focada em clonar o estilo de um redator real com bom desempenho em SEO.
Usamos 20 textos como base, criamos um prompt de style transfer e publicamos 10 conteúdos simulando:
Tom de voz
Ritmo
Vocabulário
Estrutura de raciocínio
O modelo usado continua sendo o GPT-4 Turbo, e os primeiros sinais são positivos.
Mas mesmo com um texto mais “humano”, ainda é preciso revisar, adaptar e ajustar — senão o texto volta a perder vida.
O que aprendemos
IA sozinha não sustenta uma estratégia de SEO competitiva.
Mesmo com bons prompts e bons modelos, o conteúdo precisa de filtro humano.
IA gera estrutura, contexto e velocidade
Mas falta profundidade, nuance e leitura de intenção
A IA funciona melhor como copiloto estruturado — e não como redator substituto
A clonagem de estilo traz ganho de consistência, mas ainda não garante performance sem revisão
Conclusão: IA ajuda, mas não substitui critério
Esse experimento, feito em projetos internos, mostrou o que muita gente só descobre depois de perder tempo (ou verba):
Conteúdo por IA sem revisão não performa.
Não é sobre a IA não ser capaz de escrever.
É sobre ela ainda não entender o suficiente pra convencer o Google.
Hoje, a combinação mais segura é:
IA organiza.
O redator dá voz.
O especialista dá peso.
E o Google — talvez — dê tráfego.
Ideias
Um espaço para compartilhar conhecimento e projetos.
contato@felipepener.com.br
© 2025. All rights reserved.