TecFoco / Inteligência Artificial / Ferramenta de IA do FDA nos EUA "inventa" estudos e preocupa especialistas em saúde

Ferramenta de IA do FDA nos EUA "inventa" estudos e preocupa especialistas em saúde

Imagem de: Ferramenta de IA do FDA nos EUA "inventa" estudos e preocupa especialistas em saúde

A inteligência artificial (IA) está cada vez mais presente no nosso dia a dia, facilitando tarefas e trazendo mais rapidez para vários setores. Na área da saúde, isso não é diferente.

Recentemente, a FDA — a agência reguladora dos Estados Unidos, parecida com a Anvisa aqui no Brasil — lançou uma ferramenta chamada Elsa, baseada em IA, com a promessa de acelerar a aprovação de medicamentos e equipamentos médicos.

Mas, ao que tudo indica, o tiro pode ter saído pela culatra. A ideia era que o Elsa ajudasse os profissionais a revisar documentos mais rápido, sem perder qualidade.

Só que surgiram denúncias sérias de funcionários da própria agência, dizendo que a IA estaria "alucinando" — ou seja, inventando estudos científicos que nunca existiram.

O objetivo do Elsa era tornar mais ágil o processo de aprovação de remédios e dispositivos médicos, evitando burocracia desnecessária.

Mas relatos de funcionários atuais e antigos da FDA, divulgados pela CNN, mostram que a ferramenta tem gerado resumos errados e até citado pesquisas que simplesmente não existem.

Pelo menos três pessoas que trabalharam com a ferramenta confirmaram esse comportamento, afirmando que o sistema distorce resultados de estudos reais.

Isso é extremamente grave, já que qualquer erro nesse tipo de processo pode colocar vidas em risco. Afinal, estamos falando de decisões que envolvem a saúde de milhões de pessoas.

Um dos pontos mais preocupantes é que o uso do Elsa dentro da FDA é voluntário. Ninguém é obrigado a usar, nem mesmo a passar por treinamentos.

Isso significa que a ferramenta pode ser usada de qualquer jeito, sem preparo adequado. E quando se fala em decisões de saúde pública, qualquer vacilo pode custar caro.

Mesmo com os alertas, os líderes da agência não deram a devida atenção ao problema. Alegaram que o uso do Elsa é opcional e, por isso, não seria necessário um controle maior.

Mas especialistas estão questionando. Será que o problema está mesmo na tecnologia ou na forma como ela está sendo aplicada, sem o devido cuidado humano?

Ferramentas de inteligência artificial, como o Elsa, podem sim apresentar falhas, como criar informações falsas ou errar na interpretação de dados.

Isso já foi visto em outras plataformas parecidas. Porém, o que mais assusta nesse caso é que a IA está sendo usada em um ambiente onde não pode haver margem para erro.

Na prática, o problema não está apenas na IA "alucinar", mas na confiança cega que se coloca nela, sem checagem humana. Principalmente quando se trata de decisões que afetam diretamente a segurança e a vida das pessoas.