Reddit declara guerra aos bots com novas verificações humanas

Robôzinho pairando ao lado da tela de um notebook

O Reddit anunciou, nesta quarta-feira (25), uma nova estratégia para combater contas automatizadas em sua plataforma. A rede social implementará um sistema de verificação humana direcionado a usuários suspeitos de serem bots, uma medida que surge após o fechamento do concorrente Digg devido a problemas similares com automação.

Continua após a publicidade

A empresa deixou claro que não haverá verificação obrigatória para todos os usuários. O sistema será ativado apenas quando sinais técnicos ou padrões de atividade indicarem comportamento não humano na conta.

Como funciona a detecção de bots no Reddit

  • Para identificar possíveis contas automatizadas, o Reddit utiliza ferramentas especializadas que analisam sinais no nível da conta e outros fatores técnicos. A velocidade com que uma conta tenta escrever ou publicar conteúdo é um dos indicadores monitorados pela plataforma;
  • A empresa esclarece que usar inteligência artificial (IA) para criar posts ou comentários não viola suas políticas gerais. No entanto, moderadores de comunidades individuais podem estabelecer suas próprias regras sobre o uso de IA;
  • Contas que não conseguirem passar no teste de verificação humana poderão ter suas atividades restringidas na plataforma, segundo o Reddit.

O processo de verificação utilizará ferramentas de terceiros, como passkeys da Apple, Google e YubiKey. Serviços biométricos, como Face ID e até mesmo o World ID de Sam Altman, estão entre as opções disponíveis.

Em alguns países, como Reino Unido e Austrália, além de determinados estados estadunidenses, o uso de documentos governamentais pode ser necessário. Essa exigência deriva de regulamentações locais sobre verificação de idade, embora não seja o método preferido da empresa.

Steve Huffman, cofundador e CEO do Reddit, enfatizou o compromisso com a privacidade: “Se precisarmos verificar se uma conta é humana, faremos isso priorizando a privacidade. Nosso objetivo é confirmar que há uma pessoa por trás da conta, não quem essa pessoa é.”

Ferramenta vai verificar se a conta é um bot ou um humano (Imagem: khunkornStudio/Shutterstock)

Leia mais:


Identificação de bots benéficos

Paralelamente às medidas contra automação maliciosa, o Reddit começará a rotular contas automatizadas que prestam serviços úteis aos usuários. O sistema funciona de forma similar à marcação de “bots bons” no X.

Desenvolvedores que operam esses bots benéficos podem obter mais informações sobre como aplicar o novo rótulo “APP” na comunidade r/redditdev.

O Reddit se tornou um destino popular para bots que tentam manipular narrativas, fazer marketing disfarçado para empresas, repostar links, publicar spam, direcionar tráfego e conduzir pesquisas.

Como o conteúdo da plataforma é usado para treinamento de IA por meio de acordos lucrativos com provedores de modelos, há suspeitas de que bots estejam postando perguntas especificamente para gerar mais dados de treinamento em áreas onde a IA carece de informações.

Continua após a publicidade

Alexis Ohanian, outro cofundador do Reddit, já abordou um problema relacionado conhecido como “teoria da internet morta“. Esta teoria sugere que bots superam humanos online e que a maior parte do conteúdo, interações e atividade web é automatizada ou gerada por IA, ao invés de vir de pessoas reais. Na era dos agentes de IA, essa teoria está se tornando realidade, segundo observações da empresa.

Implementação e perspectivas futuras

O Reddit havia anunciado no ano passado que começaria a exigir verificação humana em resposta ao número crescente de bots e à necessidade de atender “requisitos regulatórios em evolução“.

Huffman reconheceu recentemente no podcast TBPN que as soluções atuais não são as melhores. “As melhores soluções de longo prazo serão descentralizadas, individualizadas, privadas e, idealmente, não exigirão ID algum”, escreveu no anúncio desta quarta.

Continua após a publicidade

Além das novas medidas de verificação, o Reddit continuará removendo bots e spam por meio de suas operações regulares, que resultam em uma média de 100 mil remoções de contas por dia. A empresa também se baseia em relatórios de usuários sobre contas suspeitas e planeja melhorar suas ferramentas de detecção no futuro.




Fonte ==> Semanário SC

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *