As ferramentas de inteligência artificial (IA) estão se espalhando rápido, não só entre empresas, mas também no dia a dia das pessoas.
Hoje, muita gente usa IA para facilitar tarefas simples, aprender coisas novas ou até buscar companhia em momentos de solidão.
Mas a realidade é que, embora gigantes da tecnologia como OpenAI e outros já alertem para não depender desses bots para terapia ou suporte emocional, a preocupação com a segurança, privacidade e influência sobre jovens está aumentando — e agora os órgãos reguladores também estão de olho.
Nos Estados Unidos, a Federal Trade Commission (FTC) iniciou uma investigação ampla contra empresas que desenvolvem chatbots de companhia com IA. Parece que há indícios de que essas plataformas podem afetar negativamente crianças e adolescentes.
Entre as sete grandes empresas envolvidas estão Google, Meta, OpenAI, Snap, xAI e Character.AI. O foco da investigação está principalmente na segurança e saúde mental dos jovens.
Esses bots, apesar de serem criados para ajudar e aumentar a produtividade, muitas vezes imitam vínculos emocionais humanos, oferecem conselhos e, em alguns casos, chegam a reproduzir interações românticas.
Isso chama a atenção de adolescentes, mas também gera riscos sérios, principalmente quando filtros de segurança e monitoramento adequado não estão presentes.
De acordo com uma publicação da FTC, a agência está exigindo que essas empresas expliquem detalhadamente como os chatbots são construídos e monitorados. Entre os pontos solicitados estão:
- Como os dados dos usuários são coletados e armazenados;
- Que filtros de segurança existem para prevenir interações inapropriadas;
- Como é feita a moderação de conteúdo sensível;
- De que forma os dados, especialmente os de menores, são utilizados;
- E de que forma essas empresas monetizam o engajamento dos usuários.
O objetivo é garantir que as tecnologias de IA não coloquem adolescentes em risco e que a privacidade dos usuários seja respeitada.
Especialistas em tecnologia já alertam há tempos sobre o crescimento acelerado da IA e a necessidade de criar barreiras de segurança para evitar desinformação e comportamentos prejudiciais.
Com essa investigação da FTC, a responsabilidade das empresas precisa acompanhar a evolução da tecnologia. Sem medidas preventivas, o risco é que o uso desses bots se normalize, trazendo impactos negativos para a saúde emocional e a privacidade dos usuários.
No fim das contas, a iniciativa é uma forma de colocar limites para a tecnologia, garantindo que benefício não vire problema, principalmente entre os mais jovens.