97.895 conversas em fóruns undergrounds te dizem: a comunidade de hackers na verdade também odeia IA

Universidade de Edimburgo, Universidade de Cambridge e Universidade de Strathclyde realizaram uma pesquisa conjunta, analisando 97.895 diálogos em fóruns underground de 2022 a 2025, desde o surgimento do ChatGPT, e descobriram que a IA não reduziu significativamente a barreira de entrada para hackers, nem impactou de forma relevante os modelos de negócio criminosos existentes.
(Resumindo: golpes com código Morse enganaram Grok, BankrBot transferiu fundos em segundos: hackers roubaram 170 mil dólares em DRB, wallets de IA foram invadidas pela primeira vez)
(Complemento: Trump quer que modelos de IA sejam revisados antes do lançamento: Mythos assustou a Casa Branca, Pentágono liderará testes de segurança)

Índice deste artigo

Alternar

  • A guerra de reputação nos fóruns, a IA como elemento disruptivo
  • 97.895 diálogos, derrubando o pânico de que “IA reduz barreiras para hackers”
  • AI slop é o inimigo comum das comunidades globais

Uma pesquisa que abrange três anos e quase cem mil diálogos em fóruns underground chegou a uma conclusão surpreendente para a indústria de segurança cibernética: as pessoas que mais odeiam conteúdo gerado por IA podem ser justamente aquelas que você menos espera por compaixão.

O cotidiano nos fóruns de hackers não é ensinar a invadir sistemas, mas reclamar de pessoas que usam IA para preguiçosamente escrever textos. Essa visão contraintuitiva vem de uma pesquisa conduzida por Ben Collier, pesquisador de segurança da Universidade de Edimburgo, em colaboração com as universidades de Cambridge e Strathclyde. Eles analisaram sistematicamente os diálogos de fóruns underground de 2022 a 2025, com uma amostra de 97.895 registros, tentando responder a uma questão pendente na indústria: quanto a IA realmente fortaleceu os hackers?

A guerra de reputação nos fóruns, a IA como elemento disruptivo

Para entender por que hackers odeiam tanto o AI slop, é preciso compreender a estrutura dessas comunidades. Os fóruns underground não são apenas mercados negros de troca de dados roubados, mas também uma “economia de reputação” — onde o status, a confiança e a influência dos membros dependem do reconhecimento técnico por parte dos pares.

Esses fóruns possuem sistemas de pontos, concursos de escrita, cultura de provocações, e sua lógica central não difere essencialmente de plataformas como Stack Overflow ou GitHub: você precisa demonstrar que realmente entende do assunto.

O AI slop (conteúdo de baixa qualidade, gerado em massa por IA) causa destruição nesse ecossistema, assim como em plataformas legítimas. Um usuário do Hack Forums comentou: “Vejo muita gente usando IA para escrever, isso me deixa irritado, eles nem se dão ao trabalho de escrever duas frases.” Outro usuário disse: “Se quero conversar com IA, há muitos lugares na internet; estou aqui para interagir com pessoas de verdade.”

Ben Collier apontou uma contradição estrutural: “Eles têm uma certa ambivalência com a IA, porque ela abala a base de sua alegação de serem mestres em tecnologia.” Quando qualquer iniciante consegue postar tutoriais de penetração aparentemente profissionais, a reputação que antes era conquistada por conhecimento escasso se dilui.

97.895 diálogos, derrubando o pânico de que “IA reduz barreiras para hackers”

A principal descoberta dessa pesquisa é uma desaceleração na narrativa predominante de segurança cibernética. A conclusão é clara:

“A IA não reduziu significativamente a barreira técnica, nem impactou de forma relevante os modelos de negócio ou práticas operacionais existentes. Seu impacto principal se concentra em áreas altamente automatizadas, incluindo golpes de SEO, bots de redes sociais e algumas formas de fraudes emocionais.”

Em outras palavras, o que a IA realmente mudou foram cenários que já não exigiam alta tecnologia. Fraudes emocionais usam IA para traduzir mensagens e tornar ataques sociais mais fluentes; fazendas de conteúdo usam IA para gerar textos em massa; bots de redes sociais usam IA para respostas mais naturais — essas mudanças ocorrem em operações de baixo nível de barreira técnica. Quanto às técnicas que realmente definem os limites das habilidades dos hackers, como testes de penetração, exploração de vulnerabilidades, pesquisa de zero-day, a IA quase não deixou marcas mensuráveis.

A discussão ampla na comunidade hacker sobre o modelo avançado Claude Mythos Preview, da Anthropic, gerou alguma preocupação na indústria de segurança. Mas a pesquisa de Collier sugere que o nível de pânico pode estar desproporcional ao risco real.

AI slop é o inimigo comum das comunidades globais

Fóruns de hackers e plataformas como Reddit enfrentam problemas semelhantes: a proliferação de conteúdo de IA destrói a qualidade das discussões, dilui sinais de especialização e afasta usuários reais. A pesquisa também registrou que, devido ao uso de resumos de IA do Google, o tráfego de alguns fóruns está caindo.

Esse não é um problema exclusivo de comunidades criminosas, mas uma pressão estrutural que afeta toda a ecologia da internet.

Alguns hackers não rejeitam totalmente a IA; eles aceitam ajuda na correção gramatical ou na estruturação de textos, mas desprezam a ideia de “IA escrevendo tudo”. Essa postura é quase unânime entre muitos grupos de escrita técnica.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar