O professor da Universidade de Stanford Mehran Sahami considera, em entrevista à Lusa, que adicionar marcas de água para indicar uma imagem ou vídeo gerado por IA é uma das abordagens para combater a desinformação.
Questionado sobre a disseminação da desinformação com recurso à inteligência artificial (IA), nomeadamente as ‘deepfakes’, o professor, que antes de ingressar no corpo docente de Stanford foi cientista de investigação sénior na Google, considerou que existem “algumas formas de abordar” o tema.
“Uma delas é, por exemplo, com tecnologias que permitem adicionar marcas de água [watermarking] para indicar quando uma imagem ou um vídeo foi gerado por IA”, aponta.
Portanto, “existem formas de o fazer, formas que facilitam a deteção se esses conteúdos são falsos ou não. E depois, as plataformas que fornecem a distribuição poderiam verificar se essas marcas de água existem e optar por não distribuir amplamente conteúdo falso, por exemplo”, prossegue o professor.
Ou seja, a questão “passa a ser a criação de padrões e a obtenção da concordância das empresas com esses padrões”, salienta.
Se as empresas não o conseguirem “fazer voluntariamente, talvez seja necessário regulamentar”, admite.
Mas um dos lados da questão “é a solução tecnológica, o outro lado tem a ver com a forma como a informação se dissemina. E a informação não se dissemina necessariamente apenas pela IA”, enfatiza Mehran Sahami.
“Difunde-se através de uma plataforma de rede social, por exemplo, que cria múltiplas cópias dessa informação ou a exibe nos ‘feeds’ de diferentes pessoas”, continua.
Portanto, refere o académico, “existem opções sobre como uma rede decide verificar a validade das informações na sua plataforma, moderar o conteúdo e determinar o grau de viralidade que o conteúdo alcança”.
Todos esses “são problemas que podem ser abordados de diferentes maneiras, basta que haja vontade política por parte das empresas ou regras que definam o que deve ser feito”, defende Mehran Sahami.
Questionado se, com o desenvolvimento da IA generativa, a disseminação de desinformação poderá aumentar, o professor admite que sim.
“Penso que a situação tem potencial para piorar, sim, porque agora temos melhores ferramentas para a produzir”, afirma.
Por outro lado, “é preciso compreender que estas ferramentas existem” enquanto se podem tomar medidas “mais rigorosas para combater este tipo de informação”.
Instado a comentar como se torna a IA mais perfeita, o professor de Stanford diz que “parte disso é perceber quais são os valores” que se quer que a inteligência artificial demonstre.
“Com isto quero dizer valores humanos. Pode pensar em coisas como a bondade, mas também pode pensar em justiça, igualdade. Como é que ela interage com alguém? Que tipo de coisas diz em termos da forma como descreve as diferentes pessoas ou interage com elas”, explica.
Para o fazer, “uma das formas é avaliar esses modelos para ver que tipo de resultados estão a produzir atualmente”, salienta.
“Se não estiverem a produzir resultados alinhados com o tipo de coisas que gostaríamos de ver ou com os valores que desejamos, trata-se de treinar os modelos para que estejam mais alinhados com os valores que queremos que exibam”, aponta.
Portanto, “é uma questão de avaliação e, em seguida, de formação adicional do modelo para obter os resultados desejados. Penso que, até certo ponto, fazem um pós-formação para tentar que os modelos aprendam coisas que estejam de acordo com as preferências humanas”.
“Há uma questão sobre até que ponto isto vai e se pode ser feito melhor”, pelo que certamente “esta é uma das áreas que poderia ser melhorada”, mas “há tentativas, de várias formas, por parte das empresas, para o fazer”, conclui.
Deixe um comentário