A inteligência artificial (IA) está cada vez mais presente no nosso dia a dia, facilitando tarefas e trazendo mais rapidez para vários setores. Na área da saúde, isso não é diferente.
Recentemente, a FDA — a agência reguladora dos Estados Unidos, parecida com a Anvisa aqui no Brasil — lançou uma ferramenta chamada Elsa, baseada em IA, com a promessa de acelerar a aprovação de medicamentos e equipamentos médicos.
Mas, ao que tudo indica, o tiro pode ter saído pela culatra. A ideia era que o Elsa ajudasse os profissionais a revisar documentos mais rápido, sem perder qualidade.
Só que surgiram denúncias sérias de funcionários da própria agência, dizendo que a IA estaria "alucinando" — ou seja, inventando estudos científicos que nunca existiram.
O objetivo do Elsa era tornar mais ágil o processo de aprovação de remédios e dispositivos médicos, evitando burocracia desnecessária.
Mas relatos de funcionários atuais e antigos da FDA, divulgados pela CNN, mostram que a ferramenta tem gerado resumos errados e até citado pesquisas que simplesmente não existem.
Pelo menos três pessoas que trabalharam com a ferramenta confirmaram esse comportamento, afirmando que o sistema distorce resultados de estudos reais.
Isso é extremamente grave, já que qualquer erro nesse tipo de processo pode colocar vidas em risco. Afinal, estamos falando de decisões que envolvem a saúde de milhões de pessoas.
Um dos pontos mais preocupantes é que o uso do Elsa dentro da FDA é voluntário. Ninguém é obrigado a usar, nem mesmo a passar por treinamentos.
Isso significa que a ferramenta pode ser usada de qualquer jeito, sem preparo adequado. E quando se fala em decisões de saúde pública, qualquer vacilo pode custar caro.
Mesmo com os alertas, os líderes da agência não deram a devida atenção ao problema. Alegaram que o uso do Elsa é opcional e, por isso, não seria necessário um controle maior.
Mas especialistas estão questionando. Será que o problema está mesmo na tecnologia ou na forma como ela está sendo aplicada, sem o devido cuidado humano?
Ferramentas de inteligência artificial, como o Elsa, podem sim apresentar falhas, como criar informações falsas ou errar na interpretação de dados.
Isso já foi visto em outras plataformas parecidas. Porém, o que mais assusta nesse caso é que a IA está sendo usada em um ambiente onde não pode haver margem para erro.
- Leia também: A Justiça dos EUA decide que treinar IA com livros comprados é permitido, mas pirataria ainda pode dar problema
Na prática, o problema não está apenas na IA "alucinar", mas na confiança cega que se coloca nela, sem checagem humana. Principalmente quando se trata de decisões que afetam diretamente a segurança e a vida das pessoas.