Estudo mostra erro de chatbot de IA sobre informações eleitorais 30% das vezes

Receba as notícias mais importantes no seu e-mail

Assine agora. É grátis.

Quer informações precisas sobre as eleições? Não pergunte a um chatbot de inteligência artificial, mesmo que ele pareça confiante em suas respostas e cite fontes aparentemente confiáveis. O alerta está em uma pesquisa feita pela AI Forensics e pela AlgorithmWatch, organizações europeias sem fins lucrativos. O estudo descobriu que o Bing AI da Microsoft, rebatizado como Microsoft Copilot, respondeu de forma imprecisa a uma de cada três perguntas básicas sobre candidatos, pesquisas, escândalos e votação em dois ciclos eleitorais recentes na Alemanha e na Suíça. Em vários casos, citou incorretamente as fontes. Também houve respostas imprecisas sobre as eleições americanas do ano que vem. A descoberta não chega a dizer que houve desinformação, mas destaca a preocupação de que os atuais chatbots de IA contribuam para isso em eleições futuras, à medida que a Microsoft e outras big techs correm para integrar essas ferramentas em produtos quotidianos, como a busca na internet. “À medida que a IA generativa se torna mais difundida, isso poderá afetar um dos pilares da democracia: o acesso a informação pública, confiável e transparente”, afirma a pesquisa. (Washington Post)

PUBLICIDADE

Encontrou algum problema no site? Entre em contato.