Investigação da FTC mira chatbots de IA por riscos à segurança, impacto em adolescentes e privacidade de dados

Imagem de: Investigação da FTC mira chatbots de IA por riscos à segurança, impacto em adolescentes e privacidade de dados

As ferramentas de inteligência artificial (IA) estão se espalhando rápido, não só entre empresas, mas também no dia a dia das pessoas.

Hoje, muita gente usa IA para facilitar tarefas simples, aprender coisas novas ou até buscar companhia em momentos de solidão.

Mas a realidade é que, embora gigantes da tecnologia como OpenAI e outros já alertem para não depender desses bots para terapia ou suporte emocional, a preocupação com a segurança, privacidade e influência sobre jovens está aumentando — e agora os órgãos reguladores também estão de olho.

Nos Estados Unidos, a Federal Trade Commission (FTC) iniciou uma investigação ampla contra empresas que desenvolvem chatbots de companhia com IA. Parece que há indícios de que essas plataformas podem afetar negativamente crianças e adolescentes.

Entre as sete grandes empresas envolvidas estão Google, Meta, OpenAI, Snap, xAI e Character.AI. O foco da investigação está principalmente na segurança e saúde mental dos jovens.

Esses bots, apesar de serem criados para ajudar e aumentar a produtividade, muitas vezes imitam vínculos emocionais humanos, oferecem conselhos e, em alguns casos, chegam a reproduzir interações românticas.

Isso chama a atenção de adolescentes, mas também gera riscos sérios, principalmente quando filtros de segurança e monitoramento adequado não estão presentes.

De acordo com uma publicação da FTC, a agência está exigindo que essas empresas expliquem detalhadamente como os chatbots são construídos e monitorados. Entre os pontos solicitados estão:

  • Como os dados dos usuários são coletados e armazenados;
  • Que filtros de segurança existem para prevenir interações inapropriadas;
  • Como é feita a moderação de conteúdo sensível;
  • De que forma os dados, especialmente os de menores, são utilizados;
  • E de que forma essas empresas monetizam o engajamento dos usuários.

O objetivo é garantir que as tecnologias de IA não coloquem adolescentes em risco e que a privacidade dos usuários seja respeitada.

Especialistas em tecnologia já alertam há tempos sobre o crescimento acelerado da IA e a necessidade de criar barreiras de segurança para evitar desinformação e comportamentos prejudiciais.

Com essa investigação da FTC, a responsabilidade das empresas precisa acompanhar a evolução da tecnologia. Sem medidas preventivas, o risco é que o uso desses bots se normalize, trazendo impactos negativos para a saúde emocional e a privacidade dos usuários.

No fim das contas, a iniciativa é uma forma de colocar limites para a tecnologia, garantindo que benefício não vire problema, principalmente entre os mais jovens.

Romário Leite
Fundador do TecFoco. Atua na área de tecnologia há mais de 10 anos, com rotina constante de criação de conteúdo, análise técnica e desenvolvimento de código. Tem ampla experiência com linguagens de programação, sistemas e jogos. Estudou nas universidades UNIPÊ e FIS, tendo passagem também pela UFPB e UEPB. Hoje, usa todo seu conhecimento e experiência para produzir conteúdo focado em tecnologia.