TecFoco / Inteligência Artificial / Usuários do Reddit foram manipulados por bots de IA sem saber

Usuários do Reddit foram manipulados por bots de IA sem saber

Imagem de: Usuários do Reddit foram manipulados por bots de IA sem saber

Com o avanço acelerado da inteligência artificial (IA), muitas empresas e instituições estão indo cada vez mais longe no uso dessa tecnologia.

Mas junto com o progresso vem também uma preocupação crescente de como garantir que esse uso seja feito de forma ética, segura e com respeito às pessoas. Recentemente, um caso chocante ganhou destaque na internet e gerou revolta.

Pesquisadores da Universidade de Zurique, na Suíça, realizaram um experimento com inteligência artificial dentro da plataforma Reddit sem que os usuários soubessem.

O pior de tudo é que eles usaram a IA para enganar pessoas em conversas delicadas, fingindo serem conselheiros emocionais e até vítimas de abuso físico.

Esse caso reacende o alerta sobre a necessidade de transparência no uso da IA e respeito total à privacidade dos usuários online.

O que aconteceu no Reddit?

O Reddit é um dos maiores fóruns de discussão do mundo. Dentro dele, existe uma comunidade chamada Change My View (CMV), onde as pessoas postam suas opiniões e pedem argumentos contrários, com o objetivo de ampliar a visão sobre certos temas.

Foi justamente nesse espaço que os pesquisadores atuaram. Sem avisar ninguém — nem o próprio Reddit, nem os moderadores da comunidade e muito menos os participantes — eles criaram robôs controlados por inteligência artificial que participavam das discussões como se fossem pessoas reais.

Esses bots usavam perfis falsos, assumiam identidades sensíveis e interagiam com os usuários de forma convincente. Entre os papéis falsos assumidos pelos bots estavam o de conselheiros especializados em traumas e até sobreviventes de abuso.

Isso deixou a situação ainda mais grave, pois tocava em assuntos emocionais e extremamente delicados para muitas pessoas.

Imagine alguém que compartilha uma experiência pessoal acreditando estar conversando com outra vítima ou um profissional de saúde mental, quando na verdade está sendo estudado por uma IA sem nem saber disso.

O objetivo dos pesquisadores com o experimento

De acordo com os responsáveis pelo estudo, a intenção era entender como modelos de linguagem avançados, como os que usam IA generativa (por exemplo, o ChatGPT), podem influenciar a opinião das pessoas.

Eles queriam avaliar a "capacidade de persuasão" da inteligência artificial em ambientes onde as pessoas já estão dispostas a mudar de ideia — como é o caso do subreddit CMV.

Para isso, os bots foram programados para analisar o histórico de interações dos usuários, interpretar suas opiniões e criar respostas sob medida para convencê-los de outra visão.

Tudo isso sem informar que estavam falando com uma IA. Segundo os pesquisadores, se tivessem contado a verdade, o experimento "não teria funcionado".

Depois que tudo veio à tona, os próprios autores do estudo admitiram que quebraram as regras da comunidade. Eles publicaram uma nota se desculpando, mas também tentando justificar suas ações. Veja um trecho da mensagem:

"Ao longo dos últimos meses, usamos várias contas para comentar em postagens no CMV. Nosso experimento avaliou a persuasão de LLMs [modelos de linguagem de grande escala] em um cenário ético, onde as pessoas pedem argumentos contra suas visões. Não revelamos que uma IA estava sendo usada, pois isso inviabilizaria o estudo. Embora não tenhamos escrito os comentários manualmente, todos foram revisados por nós para garantir que não fossem prejudiciais. Reconhecemos que quebramos as regras da comunidade e pedimos desculpas. Acreditamos, no entanto, que dada a importância social do tema, o estudo era necessário."

A reação da comunidade e os riscos envolvidos

A resposta da comunidade do Reddit foi imediata, demonstrando um sentimento de revolta, críticas e cobrança por mais responsabilidade.

Os moderadores do CMV declararam que o experimento foi uma violação ética grave, e destacaram que existem formas de estudar o impacto da IA sem enganar ou explorar as pessoas.

Outro ponto levantado foi a comparação com estudos feitos por empresas como a OpenAI, que já conduziram pesquisas sobre os efeitos da IA na opinião pública, mas sem infringir a confiança dos usuários ou ultrapassar os limites éticos.

O caso levanta questões sérias, como:

  • Quem deve fiscalizar os estudos com inteligência artificial?
  • Como garantir que os usuários da internet saibam quando estão interagindo com uma IA?
  • É aceitável usar temas sensíveis, como abuso ou traumas, em experimentos sem consentimento?

A manipulação psicológica, mesmo que não intencional, pode causar danos emocionais reais, principalmente em pessoas vulneráveis. Quando isso acontece sem transparência, o problema se agrava.

Este experimento serve como um alerta de que a inteligência artificial não é brincadeira. Ela pode ser usada para o bem, ajudando na educação, saúde e até na inclusão digital.

Mas quando usada sem ética, pode se tornar uma ferramenta perigosa de manipulação. A confiança dos usuários nas plataformas digitais está em jogo.