Estudo aponta ‘diferença de visão’ sobre temas polêmicos entre ferramentas de IA

Receba notícias todo dia no seu e-mail.

Assine agora. É grátis.

Em mais uma prova de que a inteligência artificial cada vez mais próxima da mente humana, um estudo demonstrou de diferentes modelos de IA não conseguem chegar a um acordo sobre temas polêmicos. Pesquisadores de três instituições estudaram as respostas de ferramentas baseadas em análise de texto, incluindo a Llama 3, da Meta, referentes a questões como direitos da população LGBTQIA+, bem-estar social, adoção etc. Eles constataram que todas ofereceram respostas inconsistentes, refletindo a ótica das fontes usadas para treiná-las. “Encontramos discrepâncias significativas na forma como cada modelo lida com temas sensíveis, dependendo a cultura, da região e da linguagem de seu treinamento”, disse Giada Pistilli, especialista em estudos éticos da IA e uma das autoras do relatório. (Techcrunch)

PUBLICIDADE

Encontrou algum problema no site? Entre em contato.