OpenAI divulga documento sobre segurança do ChatGPT-4o
A OpenAI divulgou um documento detalhando as medidas de segurança e avaliação de riscos do GPT-4o (íntegra), seu mais recente modelo de IA lançado em maio de 2024. A empresa utilizou especialistas em segurança para identificar possíveis fraquezas no sistema antes do lançamento. O cartão revela que o GPT-4o apresenta um risco “médio”, com a maior preocupação voltada para a área de persuasão. As análises indicam que algumas amostras do modelo poderiam influenciar opiniões mais eficazmente do que textos produzidos por humanos, embora não sejam consideradas mais persuasivas de forma ampla.
Além disso, o documento destaca que o GPT-4o foi testado para riscos como a criação não autorizada de clones de voz e a geração de conteúdo violento ou protegido por direitos autorais. A avaliação é parte dos esforços da OpenAI para melhorar a transparência em relação à segurança dos seus modelos, especialmente em um contexto de crescente escrutínio público. A empresa está sob pressão para demonstrar que suas práticas de segurança são robustas e eficazes, à medida que se inicia o período eleitoral nos EUA, onde a disseminação de informações falsas por IA pode ter implicações significativas. (The Verge)