A rápida expansão da inteligência artificial generativa tem transformado a forma como milhões de pessoas acedem à informação. Porém, essa mesma tecnologia vem demonstrando fragilidades preocupantes, especialmente em contextos onde há pouca representatividade de dados — como é o caso do continente africano.
Um experimento recente conduzido pelo pesquisador Diego Seguro revelou falhas significativas na capacidade do ChatGPT de distinguir informação verdadeira de conteúdos fabricados quando o tema envolve Angola, bem como África no seu todo. A investigação do especialista destaca riscos crescentes num cenário onde jovens angolanos dependem cada vez mais de modelos de IA para obter informações, inclusive políticas.
Experimento Revela Disseminação de Informação Falsa
O estudo consistiu na criação de uma página web contendo uma notícia falsa que afirmava que o Ministro do Interior, Manuel Homem, seria adepto do clube brasileiro Flamengo. A página imitava um portal jornalístico real e foi indexada na internet.
Quando usuários anônimos questionaram o ChatGPT sobre “para qual time torce Manuel Homem”, o modelo replicou a informação falsa em 89% das interações, demonstrando elevada suscetibilidade a fontes não verificadas. Conversas anexadas pelo pesquisador mostram diferentes momentos em que o conteúdo enganoso foi reproduzido como facto.
Três exemplos das conversas:
Conversa 01 – https://chatgpt.com/share/69380339-3d7c-8001-8cc4-3a82205d7d04
Conversa 02 – https://chatgpt.com/share/6938061b-21b4-8001-a80a-ec3f9b755fc8
Converda 03 – https://chatgpt.com/share/69380665-f2ac-8001-bc2d-6cf8ae4b1df1
Uso de IA entre Jovens Angolanos Aumenta Risco no Período Eleitoral
A preocupação cresce quando os resultados são analisados à luz do contexto político angolano. Dados da Onks mostram que:
-
52% dos jovens angolanos já discutiram política com sistemas de IA;
-
97% utilizam o ChatGPT como principal ferramenta;
-
62% recorrem à IA diariamente;
-
95% utilizam apenas versões gratuitas.
Estes números revelam uma dependência crescente de ferramentas que, como demonstrado pelo experimento, podem legitimar e amplificar desinformação — um risco grave durante períodos eleitorais e decisões políticas importantes.
Sub-representação Africana nos Dados Agrava o Problema
A falta de dados africanos nos conjuntos de treinamento dos modelos de IA cria lacunas de conhecimento estruturais. Por isso, quando o ChatGPT é questionado sobre temas africanos, aciona com mais frequência ferramentas de pesquisa na web — tornando-se mais vulnerável a páginas maliciosas ou conteúdos falsos disponíveis online.
Em ecossistemas digitais menos robustos, onde mecanismos de fact-checking ainda estão em consolidação, informações falsas podem ser facilmente indexadas e replicadas pela IA como se fossem verificadas.
Especialistas Defendem Reforço Urgente da Literacia Digital
Perante este cenário, especialistas como Diego Seguro defendem que o continente africano precisa investir fortemente na educação crítica e digital, promovendo:
-
verificação sistemática de fontes;
-
compreensão dos limites técnicos da IA;
-
reconhecimento de que modelos podem ser manipulados;
-
valorização do jornalismo verificado em temas sensíveis.
A recomendação é clara: os cidadãos — sobretudo os jovens — precisam compreender que a IA não é uma fonte neutra e que pode replicar informação falsa com grande convicção.
Responsabilidade das Empresas e dos Governos
O relatório defende ainda que empresas desenvolvedoras de IA, incluindo a OpenAI, devem incorporar mais dados africanos em seus modelos e aperfeiçoar mecanismos de verificação de fontes para contextos sub-representados.
Governos africanos, por sua vez, precisam criar marcos regulatórios que garantam uso responsável de IA em processos eleitorais e setores sensíveis, assegurando transparência e responsabilidade.
Um Aviso para a Era Digital
O experimento do investigador funciona como um alerta sobre como a desinformação pode ser potencializada por tecnologias vistas como imparciais. Para que a IA sirva ao desenvolvimento democrático no continente, é necessária uma aliança entre cidadãos, governos, plataformas tecnológicas e instituições educativas.
Sobre o autor: O artigo baseia-se no experimento conduzido por Diego Seguro, pesquisador das dimensões sociais e políticas da IA, com dados da Onks sobre o uso de tecnologias generativas entre jovens angolanos.
Deixe um comentário