Investigação da FTC mira chatbots de IA por riscos à segurança, impacto em adolescentes e privacidade de dados

Inteligência Artificial (IA) - Alucinação

As ferramentas de inteligência artificial (IA) estão se espalhando rápido, não só entre empresas, mas também no dia a dia das pessoas.

Hoje, muita gente usa IA para facilitar tarefas simples, aprender coisas novas ou até buscar companhia em momentos de solidão.

Mas a realidade é que, embora gigantes da tecnologia como OpenAI e outros já alertem para não depender desses bots para terapia ou suporte emocional, a preocupação com a segurança, privacidade e influência sobre jovens está aumentando — e agora os órgãos reguladores também estão de olho.

Nos Estados Unidos, a Federal Trade Commission (FTC) iniciou uma investigação ampla contra empresas que desenvolvem chatbots de companhia com IA. Parece que há indícios de que essas plataformas podem afetar negativamente crianças e adolescentes.

Entre as sete grandes empresas envolvidas estão Google, Meta, OpenAI, Snap, xAI e Character.AI. O foco da investigação está principalmente na segurança e saúde mental dos jovens.

Esses bots, apesar de serem criados para ajudar e aumentar a produtividade, muitas vezes imitam vínculos emocionais humanos, oferecem conselhos e, em alguns casos, chegam a reproduzir interações românticas.

Isso chama a atenção de adolescentes, mas também gera riscos sérios, principalmente quando filtros de segurança e monitoramento adequado não estão presentes.

De acordo com uma publicação da FTC, a agência está exigindo que essas empresas expliquem detalhadamente como os chatbots são construídos e monitorados. Entre os pontos solicitados estão:

  • Como os dados dos usuários são coletados e armazenados;
  • Que filtros de segurança existem para prevenir interações inapropriadas;
  • Como é feita a moderação de conteúdo sensível;
  • De que forma os dados, especialmente os de menores, são utilizados;
  • E de que forma essas empresas monetizam o engajamento dos usuários.

O objetivo é garantir que as tecnologias de IA não coloquem adolescentes em risco e que a privacidade dos usuários seja respeitada.

Especialistas em tecnologia já alertam há tempos sobre o crescimento acelerado da IA e a necessidade de criar barreiras de segurança para evitar desinformação e comportamentos prejudiciais.

Com essa investigação da FTC, a responsabilidade das empresas precisa acompanhar a evolução da tecnologia. Sem medidas preventivas, o risco é que o uso desses bots se normalize, trazendo impactos negativos para a saúde emocional e a privacidade dos usuários.

No fim das contas, a iniciativa é uma forma de colocar limites para a tecnologia, garantindo que benefício não vire problema, principalmente entre os mais jovens.