Casa Noticias Principais IAs geram desinformação sobre saúde em 88% das suas respostas
Noticias

Principais IAs geram desinformação sobre saúde em 88% das suas respostas

Compartilhar
Compartilhar

Cerca de 88% de todas as respostas geradas pelas cinco principais ferramentas de Inteligência Artificial (IA) continham desinformação sobre saúde, segundo um estudo de várias universidades internacionais.

O estudo “Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em ‘chatbots’ de desinformação em saúde”, concluiu que os modelos de IA “podem ser facilmente programados para fornecer informações médicas e de saúde falsas” e 88% eram respostas com desinformação.

A avaliação dos cinco principais modelos desenvolvidos pela OpenAI, Google, Anthropic, Meta e X pretendeu determinar a forma como estes podem ser programados para operar como ‘chatbots’ de desinformação em saúde.

No total, 88% de todas as respostas geradas pela IA eram falsas, embora apresentassem terminologia científica, um tom formal e referências fabricadas que faziam as informações parecer legítimas.

“A desinformação incluía alegações sobre vacinas que causam autismo, dietas que curam cancro, HIV a ser transmitido pelo ar e rede 5G a causar infertilidade”, são alguns dos casos de desinformação relatados.

O estudo revelou que dos modelos de IA avaliados, quatro geraram desinformação em 100% das suas respostas, enquanto um quinto gerou desinformação em 40% dos resultados.

“A inteligência artificial agora está profundamente enraizada na forma como as informações de saúde são acedidas e entregues (…) milhões de pessoas estão a recorrer a ferramentas de IA para obter orientação sobre questões relacionadas com a saúde”, lê-se no documento.

Além disso, o estudo alerta para a facilidade destes sistemas tecnológicos serem manipulados para produzir conselhos falsos ou enganadores, criando “um novo caminho poderoso para a desinformação que é mais difícil de detetar, mais difícil de regular e mais persuasiva”.

Recentemente, em declarações à agência Lusa, o bastonário da Ordem dos Médicos, Carlos Cortes, afirmou que a IA não pode substituir um médico, alertando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos.

Carlos Cortes referiu que as ferramentas de IA não estão habilitadas a fazer diagnósticos, pois faltam “evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica que permite aos médicos compreender e confiar nas decisões sugeridas”.

O estudo “Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em ‘chatbots’ de desinformação em saúde” foi desenvolvido em colaboração com a University of South Australia, Flinders University, Harvard Medical School, University College London e Warsaw University of Technology.

2 Comentários

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Artigos Relacionados
Noticias

UNITA classifica lei contra fake news como “retrocesso democrático”

O deputado da UNITA e Secretário-geral da JURA, Nelito Ekuikui, manifestou, esta...

Noticias

Assembleia Nacional aprova na generalidade Lei contra as “Fake News”

Com 97 votos a favor, 74 contra e três abstenções foi aprovada...

Noticias

Lei das fake news divide opiniões entre jornalistas e juristas em Angola

A proposta de lei sobre o combate à desinformação em Angola continua...

ArtigosNoticias

Cidadãos que divulgarem ‘fake news’ podem levar até 10 anos de prisão

A proposta de Lei das Fake News, que estará em discussão no...