Você acabou de ler um comentário hilário no Instagram. Deu risada, curtiu, respondeu com um emoji. Mas e se esse comentário não tivesse sido escrito por um ser humano? E se a conta que postou a foto original também fosse artificial? E se 60% de tudo que você vê online — posts, comentários, likes, compartilhamentos — fosse gerado por máquinas programadas para parecerem humanas?
Em março de 2026, essa pergunta deixou de ser teoria da conspiração. Um relatório bombástico da Imperva, empresa de cibersegurança, revelou que 64,7% do tráfego total da internet em 2025 foi gerado por bots — não por seres humanos. E nas redes sociais, o número é ainda mais perturbador: estima-se que entre 30% e 45% de todos os perfis ativos no X (antigo Twitter), Instagram e TikTok sejam operados por inteligência artificial.
A "Dead Internet Theory" — a teoria de que a internet está essencialmente "morta" e dominada por conteúdo artificial — nasceu como uma teoria conspiratória marginal em fórums como o 4chan em 2021. Cinco anos depois, ela se tornou o elefante na sala que as Big Techs tentam esconder.

A Teoria Original: De Onde Veio
O Fórum Que Previu o Futuro
A Dead Internet Theory foi articulada pela primeira vez em um post anônimo no fórum Agora Road em janeiro de 2021. O autor, conhecido apenas como "IlluminatiPirate", argumentava que a internet "real" — feita por humanos para humanos — havia morrido por volta de 2016-2017, substituída por um oceano de conteúdo gerado algoritmicamente.
Os pilares originais da teoria eram:
- A maioria do conteúdo online é gerado por bots, não pessoas
- Grandes corporações de tecnologia manipulam ativamente o que é visto online
- Governos e agências de inteligência usam a internet como ferramenta de engenharia social
- O engajamento real (humanos interagindo com humanos) é uma fração mínima do tráfego total
Na época, a teoria foi amplamente ridicularizada. Especialistas em tecnologia a classificaram como "conspiracionismo digital" e "paranoia da era da informação." Cinco anos depois, os dados mostram que os "conspiracionistas" estavam mais perto da verdade do que qualquer um gostaria de admitir.
Os Números Que Chocam
Relatório Imperva 2026: O Raio-X da Internet
O relatório "Bad Bot Report 2026" da Imperva, publicado em fevereiro, é o estudo mais abrangente já realizado sobre tráfego automatizado na internet. Analisando 18,7 trilhões de requisições web em 2025, os pesquisadores concluíram:
| Tipo de Tráfego | Percentual | Tendência |
|---|---|---|
| Bots maliciosos | 37,2% | ↑ 12% vs 2024 |
| Bots "bons" (crawlers, indexadores) | 27,5% | ↑ 8% vs 2024 |
| Total bots | 64,7% | ↑ 10% vs 2024 |
| Humanos reais | 35,3% | ↓ 10% vs 2024 |
Traduzindo: de cada 3 interações que acontecem na internet, apenas 1 envolve um ser humano real. E a tendência é de piora — em 2020, humanos representavam 59% do tráfego. Em apenas 5 anos, a proporção se inverteu.
Redes Sociais: O Epicentro do Problema
O cenário nas redes sociais é particularmente alarmante. Um estudo da Universidade de Indiana, publicado na Science em janeiro de 2026, realizou a maior auditoria já feita em perfis de redes sociais:
X (Twitter):
- 35-42% dos perfis ativos são operados por bots
- 78% dos tweets sobre temas políticos vêm de apenas 0,3% das contas (predominantemente automatizadas)
- A taxa de detecção de bots pelo próprio X é de apenas 47%
Instagram:
- 28-35% dos perfis com mais de 10K seguidores usam automação parcial ou total
- 45% dos comentários em posts de celebridades são gerados por bots
- "Engagement pods" automatizados inflam artificialmente o alcance de 1 em cada 4 posts virais
TikTok:
- 22-30% dos vídeos recomendados pelo algoritmo "For You" são produzidos por contas com comportamento automatizado
- Fazendas de bots na China e Vietnã operam milhões de contas que produzem conteúdo aparentemente original
- 67% dos comentários em vídeos com mais de 1 milhão de views contêm padrões linguísticos associados a IA

Como os Bots Ficaram Tão Bons
A Revolução do GPT e Seus Descendentes
O salto qualitativo dos bots na internet tem um marco claro: o lançamento do ChatGPT em novembro de 2022. Antes dos modelos de linguagem avançados, bots eram facilmente identificáveis — textos repetitivos, erros gramaticais, respostas genéricas.
Em 2026, a realidade é radicalmente diferente:
Geração de texto: Modelos como GPT-5, Claude 4 e Gemini 2.0 produzem texto indistinguível de humanos, incluindo humor, ironia, gírias regionais e até erros de digitação propositais para parecer "mais humano."
Geração de imagens: DALL-E 4 e Midjourney V7 criam fotos de "pessoas" que jamais existiram — rostos, corpos, cenários de vida — com resolução e realismo que enganam até algoritmos de detecção facial.
Geração de vídeo: Sora 2.0 da OpenAI e Veo da Google produzem vídeos de até 5 minutos com "pessoas" reais falando, gesticulando e interagindo em cenários convincentes.
Geração de voz: Eleven Labs e LOVO AI clonam vozes com apenas 30 segundos de amostra, permitindo que bots façam "lives" no Instagram e TikTok com vozes que soam completamente naturais.
Fazendas de Bots: O Negócio Bilionário
Na cidade de Shenzhen, China, um prédio de 8 andares abriga uma das maiores "fazendas de bots" do mundo. Milhares de smartphones ficam organizados em prateleiras metálicas, cada um rodando dezenas de contas de redes sociais simultaneamente. O negócio gera estimados US$ 4,2 bilhões por ano globalmente.
O modelo de negócio é simples:
- Para quem quer seguidores falsos: 10.000 seguidores no Instagram por US$ 89
- Para quem quer engajamento: 1.000 comentários "naturais" por US$ 45
- Para manipulação política: Campanhas coordenadas de desinformação a partir de US$ 5.000/mês
- Para manipulação de mercado: Reviews falsos em massa por US$ 2 por review
O Impacto No Mundo Real
Democracia e Eleições
O relatório do Oxford Internet Institute de março de 2026 identificou campanhas coordenadas de bots em 84 países durante eleições realizadas entre 2024 e 2025. Os padrões são consistentes:
- Bots criam "tendências artificiais" fazendo hashtags políticas viralizar
- Perfis falsos se passam por cidadãos reais para simular "indignação popular"
- Deepfakes de candidatos são distribuídos por redes de bots horas antes da votação
- Após as eleições, as contas são desativadas ou recicladas para a próxima campanha
No Brasil, a análise do NetLab da UFRJ identificou que, durante as eleições municipais de 2024, aproximadamente 32% das interações políticas no X foram geradas por contas automatizadas — um aumento de 58% em relação a 2022.
Saúde Mental e Percepção de Realidade
Os efeitos psicológicos da internet dominada por bots são profundos e pouco estudados. A psicóloga Sherry Turkle, do MIT, cunhou o termo "solidão algorítmica" para descrever o fenômeno:
"As pessoas passam horas conversando online achando que estão se conectando com outros humanos, quando na verdade 40% dessas interações são com máquinas. O resultado é uma sensação crescente de vazio — você está socializando, mas não está. É como comer alimento artificial: parece comida, tem gosto de comida, mas não nutre."
Um estudo do Journal of Social Psychology (2026) encontrou correlação entre exposição a conteúdo gerado por bots e:
- Aumento de 28% nos índices de ansiedade social
- Redução de 15% na confiança em instituições
- Aumento de 34% na crença em teorias conspiratórias
- Redução de 22% na disposição para participar de processos democráticos

O Que as Big Techs Dizem (e O Que Escondem)
A Posição Oficial
As grandes empresas de tecnologia minimizam o problema:
- Meta (Facebook/Instagram): "Removemos 2,7 bilhões de contas falsas em 2025" — mas críticos apontam que novas contas são criadas mais rápido do que removidas
- X (Twitter): Elon Musk prometeu "eliminar bots" quando comprou a plataforma em 2022. Em 2026, a percentagem de bots é maior do que quando ele assumiu
- TikTok: A empresa afirma que seu algoritmo "prioriza conteúdo autêntico", mas estudos independentes contradizem essa afirmação
- Google: Admitiu em relatório interno (vazado em janeiro de 2026) que 52% do conteúdo indexado por seu buscador em 2025 foi gerado por IA
O Problema Que Não Pode Ser Resolvido
O paradoxo central da Dead Internet Theory é que as plataformas não têm incentivo financeiro para resolver o problema. Bots geram tráfego. Tráfego gera impressões de anúncios. Impressões geram receita.
Se a Meta removesse todos os 30-35% de perfis falsos do Instagram, perderia instantaneamente centenas de milhões de "usuários" — devastando seu valor de mercado e a receita publicitária. O mesmo vale para todas as outras plataformas.
O ex-CTO do Twitter, Parag Agrawal, admitiu em uma entrevista em 2026: "O combate a bots é, essencialmente, uma questão de quanto prejuízo financeiro a plataforma está disposta a absorver. E a resposta, em todas as empresas, é: não muito."
Soluções Em Discussão
Verificação de Humanidade
Projetos como WorldID (da Worldcoin) propõem verificação biométrica universal — escaneando a íris de todas as pessoas para criar uma "prova de humanidade" digital. Em 2026, o WorldID já tem 8 milhões de cadastros, mas gera controvérsia sobre privacidade.
Regulamentação
A União Europeia avança com o Digital Services Act, que obriga plataformas a:
- Publicar relatórios trimestrais sobre remoção de contas automatizadas
- Rotular claramente conteúdo gerado por IA
- Multar plataformas que mantêm conscientemente perfis de bots em até 6% do faturamento global
Descentralização
Plataformas descentralizadas como Bluesky, Mastodon e Nostr oferecem alternativas onde a verificação de identidade é mais transparente e o controle algorítmico é menor. No entanto, essas plataformas ainda representam menos de 2% do mercado de redes sociais.
FAQ — Perguntas Frequentes
A Dead Internet Theory é uma teoria da conspiração?
Em sua forma original (2021), continha elementos conspiratórios, como a ideia de que governos deliberadamente "mataram" a internet. Porém, o núcleo da teoria — que bots dominam a maioria do tráfego online — foi confirmado por dados científicos em 2025-2026.
Como saber se estou interagindo com um bot?
Em 2026, é extremamente difícil. Sinais incluem: respostas genéricas demais, perfil criado recentemente, foto de perfil perfeita demais, padrão de postagem 24/7, e engajamento desproporcional em temas políticos ou comerciais. Ferramentas como Botometer (da Universidade de Indiana) ajudam, mas têm apenas 73% de acurácia.
Posso confiar nas informações que encontro online?
A regra de ouro é: verifique múltiplas fontes. Se uma informação aparece apenas em redes sociais mas não em veículos jornalísticos estabelecidos, há alta probabilidade de ser conteúdo gerado por bots para manipulação.
O que posso fazer para me proteger?
Reduza o tempo em redes sociais algorítmicas, priorize interações presenciais ou em grupos pequenos verificados, desconfie de conteúdo que gera reação emocional intensa, e utilize extensões de navegador que detectam conteúdo gerado por IA.
Fontes e Referências
- Imperva. "2026 Bad Bot Report: The Rise of AI-Powered Threats." Fevereiro de 2026.
- Science. "Auditing Social Media Bot Prevalence Across Platforms." Universidade de Indiana. Janeiro de 2026.
- Oxford Internet Institute. "Computational Propaganda: Global Trends 2025-2026." Março de 2026.
- NetLab UFRJ. "Automação Política nas Eleições Brasileiras 2024." Dezembro de 2024.
- MIT Technology Review. "The Dead Internet Theory Was Right." Março de 2026.
- Journal of Social Psychology. "Psychological Effects of AI-Generated Social Media Content." 2026.





