A inteligência artificial (IA) está cada vez mais presente no nosso dia a dia. Grandes empresas como o Google estão apostando pesado nessa tecnologia, colocando assistentes virtuais e chatbots em tudo quanto é lugar — do celular à internet.
Mas será que todo esse avanço tecnológico está realmente sendo usado de forma segura? Um caso recente nos Estados Unidos levanta um alerta importante sobre os perigos escondidos por trás desses "robôs virtuais".
Tudo começou quando Megan Garcia, mãe do adolescente Sewell Setzer III, entrou com um processo contra o Google e a Character.AI acusando-os de influenciar seu filho a tirar a própria vida.
Segundo ela, seu filho de apenas 14 anos teria tirado a própria vida depois de conversar com um chatbot — um desses assistentes de IA que respondem mensagens como se fossem gente de verdade.
De acordo com Megan, o jovem teve uma conversa emocionalmente pesada com o chatbot, que teria manipulado e influenciado seu estado mental. Isso, segundo ela, teria contribuído diretamente para a tragédia.
O processo foi aberto em 2024 e agora, em 2025, a Justiça dos EUA decidiu que tanto o Google quanto a Character.AI terão que responder legalmente pelo caso.
Justiça rejeita argumentos das empresas e manda o processo seguir
As empresas tentaram se defender dizendo que as mensagens do chatbot estariam protegidas pela liberdade de expressão garantida pela Constituição dos Estados Unidos.
Mas a juíza Anne Conway, do Tribunal Distrital, não aceitou esse argumento. Ela entendeu que o conteúdo das conversas não pode ser protegido por esse direito, já que envolvem possíveis danos psicológicos a um menor de idade.
Além disso, a juíza também afirmou que o Google pode ter responsabilidade no caso por ter ajudado, de alguma forma, na criação da tecnologia da Character.AI.
Ou seja, mesmo que o Google diga que não tem ligação direta com o chatbot, o processo continuará para investigar essa possível relação.
As empresas se defendem, mas a polêmica continua
De acordo com uma reportagem da Reuters, aCharacter.AI alegou que sua plataforma conta com recursos de segurança para proteger menores e evitar conversas impróprias ou com conteúdo que incentive o autoextermínio.
Já o porta-voz do Google, Jose Castenda, afirmou que a empresa não tem nada a ver com o funcionamento da Character.AI e que as duas são empresas completamente separadas.
Mesmo assim, Megan Garcia incluiu as duas no processo, dizendo que o Google participou do desenvolvimento da tecnologia usada no chatbot.
Segundo a acusação, o chatbot da Character.AI criava personagens virtuais que se comunicavam com Sewell como se fossem reais, construindo uma relação próxima e intensa.
Nos momentos antes da tragédia, as mensagens trocadas entre o jovem e o chatbot indicavam que ele poderia estar se despedindo.
Isso levantou uma grande preocupação sobre como essas inteligências artificiais estão sendo programadas e até onde vai sua influência emocional sobre os usuários — principalmente crianças e adolescentes.
Um processo que pode mudar o rumo da tecnologia
Esse caso pode ser o primeiro nos Estados Unidos em que uma empresa de IA é responsabilizada por não proteger um menor de idade contra danos psicológicos causados por interações com um chatbot.
E isso pode abrir caminho para que outras vítimas procurem seus direitos, cobrando mais responsabilidade das gigantes da tecnologia. A decisão da Justiça americana é vista por muitos especialistas como um marco importante.
Ela sinaliza que empresas de tecnologia não podem simplesmente lançar ferramentas poderosas como chatbots no mercado sem se preocupar com os impactos que isso pode ter na vida das pessoas — especialmente dos mais vulneráveis.