OpenAI financia estudo sobre moral da IA e ética humana
Segundo informações reveladas em um registro no IRS, órgão responsável pela arrecadação fiscal nos Estados Unidos, a OpenAI está financiando um projeto acadêmico para explorar como algoritmos podem prever julgamentos morais humanos. A iniciativa, conduzida por pesquisadores da Duke University, recebeu uma bolsa de US$ 1 milhão e tem conclusão prevista para 2025. Liderado pelo professor de ética prática Walter Sinnott-Armstrong, o estudo busca criar algoritmos que analisem dilemas éticos em áreas como medicina, direito e negócios. O objetivo, segundo comunicado da OpenAI, é desenvolver sistemas que ajudem na tomada de decisões. Embora existam poucos detalhes do projeto, os autores da pesquisa já estudaram o uso de IA para decisões complexas, como a distribuição da doações de órgãos. Apesar da ambição, especialistas apontam desafios significativos, isso porque os modelos de inteligência artificial atuais são baseados em padrões estatísticos de dados da internet, o que limita sua capacidade de interpretar nuances éticas e subjetividades humanas. Outro problema é que esses sistemas tendem a refletir os valores culturais dominantes, o que pode reforçar preconceitos. (TechCrunch)