Mais de um terço dos novos sites na Internet foram criados por IA, de acordo com um artigo publicado online por pesquisadores do Imperial College London, da Universidade de Stanford e do Internet Archive.
O estudo é baseado em dados coletados pela Wayback Machine do Internet Archive desde o final de 2022 (quando o ChatGPT deu início à mania da IA) até meados de 2025. Em maio de 2025, os pesquisadores descobriram que 35,3% de todos os sites recém-publicados na Internet foram criados com a ajuda de IA, incluindo 17,6% dos sites que foram totalmente gerados por IA.
Isso pode não chocá-lo totalmente se você assinar a Teoria da Internet Morta, também conhecida como a crença de que a maior parte da Internet é impulsionada pela atividade de bots, com seus proponentes mais conspiratórios alegando que isso está sendo feito de propósito para controlar o público.
O número aproximado que os pesquisadores encontraram também está de acordo com descobertas anteriores. A Cloudflare relatou em setembro de 2025 que quase um terço de todo o tráfego da Internet era conduzido por bots. Poucos dias depois, o CEO da empresa, Matthew Prince, apareceu num podcast para partilhar a sua previsão “assustadoramente provável” de que a IA mudará completamente a forma como a informação é partilhada online e concentrará o poder sobre este conhecimento online nas mãos de alguns gigantes da tecnologia.
Um relatório ainda anterior da empresa de segurança de dados Imperva afirmou que a navegação automatizada ultrapassou a atividade humana na Internet pela primeira vez em 2024, representando cerca de metade de todo o tráfego da web. O relatório concluiu que isto foi “em grande parte impulsionado pela rápida adoção da IA e de grandes modelos de linguagem”.
Existem algumas evidências anedóticas que mostram o quão difundidos os sites gerados por IA também se tornaram na Internet. Os golpistas estão usando ferramentas de IA para gerar rapidamente sites falsos para enganar as vítimas. A IA também está sendo usada para plagiar organizações de notícias e criar sites inúteis com o único propósito de cultivo de SEO.
Um novo relatório da Model Republic também afirma que um site vinculado ao super PAC Leading The Future, apoiado pela OpenAI, estava publicando uma série de artigos de “notícias”, em sua maioria gerados por IA, para atacar os críticos de produtos de inteligência artificial.
Mas o estudo do Internet Archive vai ainda mais longe do que as evidências anteriores, explorando se os bots tomaram conta da Internet e se isso está a levar aos resultados amplamente esperados. Muitas pessoas temem que, à medida que a IA se infiltra na Internet, a linguagem e a precisão da Internet mudem junto com ela. No estudo, os pesquisadores testaram seis crenças que, segundo eles, a maioria dos adultos norte-americanos tem sobre um futuro online dominado por conteúdo de IA. Mas eles descobriram que apenas duas dessas hipóteses estavam funcionando.
Os pesquisadores descobriram que o conteúdo online gerado pela IA não era tão factualmente incorreto quanto o esperado. Eles também descobriram que citava suas fontes por meio de links externos, não extinguia estilos de escrita individuais em favor de uma voz genérica e não era um bloco de texto longo e sinuoso com pouca informação significativa, apesar da crença comum.
Mas o que eles descobriram, como esperado, foi que mais conteúdo de IA significava menos “gama de ideias únicas e pontos de vista diversos” e uma escrita que “parece cada vez mais higienizada e artificialmente alegre”.
Até o CEO da OpenAI, Sam Altman, admitiu essa falsa positividade. No ano passado, depois que a empresa lançou seu agente de codificação de IA Codex, Altman disse que os intensos elogios ao lançamento no subreddit r/Claudecode pareciam um tanto impulsionados por bots.
Este estudo é apenas o começo e pode se tornar uma ferramenta útil para ajudar os usuários a discernir informações confiáveis na Internet. Os investigadores disseram à 404 Media esta semana que estavam a trabalhar na criação de “uma ferramenta contínua” para monitorizar este fenómeno e compreender “que tipos de websites são mais afetados, discriminados por categoria ou idioma, e geralmente fornecendo mais nuances sobre onde estes impactos estão a chegar”.