Usando IA nas eleições
Ontem à noite, o Tribunal Superior Eleitoral aprovou regras para o uso de inteligência artificial durante as eleições. Elas são particularmente rígidas. Mas é difícil fazer regras do zero para uma tecnologia muito nova. E, de regras, a gente precisa. Quem deveria fazer essas regras é o Congresso Nacional. Mas cadê Congresso? Inoperante. Não avança com essas questões.
Esse é um ponto essencial de a gente entender nessa relação, que anda muito mal, entre o Congresso Nacional e o Judiciário. Os problemas existem na sociedade. É o caso de dois exemplos que são frequentemente levantados quando se reclama que os juízes estão fazendo leis, estão legislando: casamento homoafetivo e porte de drogas.
Pessoas vão sendo presas com quantidades pequenas de drogas, a lei diz que existe diferença entre usuário e traficante. Só que a lei nunca foi regulamentada pelo Congresso. Ela diz que é diferente, mas não diz que quantidade diferencia um do outro. As pessoas entram na Justiça. Claro. Tem uma hora que, se o Congresso não faz, a Justiça tem a obrigação de dizer quem é um e quem é o outro, porque a lei diz que um é diferente do outro. Com casamento homoafetivo é idêntico. A Constituição diz que somos todos iguais perante a lei. Um casal de homens, um casal de mulheres, passa décadas juntos. Se tratam, perante a família, perante os amigos, como um casal. Um deles morre. Aparece um sobrinho longe dizendo que é o único herdeiro de tudo que aquelas duas pessoas construíram juntas. O viúvo, a viúva, não tem a certidão de casamento porque casamento homoafetivo não pode. Isso vai parar na Justiça. E se o Congresso Nacional não aprovou uma lei clara, seguindo as regras pétreas da Constituição, organizando a coisa, a Justiça tem de fazê-lo.
Com inteligência artificial, nesta eleição, é a mesma coisa. Se você está completamente perdido, veio de Marte agora, o problema é muito simples de explicar e muito complicado de resolver. Qualquer um com conhecimentos bastante rudimentares de tecnologia consegue, hoje, produzir fotografias e áudios absolutamente indistinguíveis de fotos e áudios verdadeiros. Fica exatamente a voz da pessoa, o jeito dela falar. E tudo indica que, antes de o segundo semestre chegar, o mesmo será verdade para vídeos.
Então o que o TSE decidiu é o seguinte. Deepfakes estão terminantemente proibidos. Não pode usar. A gente está falando aqui de vídeos e áudios que foram manipulados para que a pessoa pareça fazendo ou falando algo que não fez. Deepfakes estão proibidos mesmo quando tiverem a aprovação escrita de uso ou voz da pessoa ou representantes, esteja ela viva ou morta. Mesmo que a pessoa seja fictícia. Quer um exemplo de deepfake? Lembra a campanha da Volkswagen em que Elis Regina e sua filha, Maria Rita, cantam Como Nossos Pais? Aquilo é deepfake.
Inteligência artificial pode ser usada, mas desde que rotule claramente que aquilo é IA. Todo conteúdo produzido com IA-Generativa deve ser cuidadosamente identificado. E tem o caso dos chatbots. Aqueles robôs que cada vez mais parecem gente com quem conversamos. Não vai poder usar robô para simular uma conversa do eleitor com o candidato ou qualquer outro.
Quem for pego quebrando as regras do tribunal perde o registro da candidatura. Se for condenado só depois de eleito, não adianta. Perde o mandato.
Mas a gente precisa ter uma conversa mais alongada sobre isso. Sobre se essas regras fazem sentido ou não e sobre como será viver num mundo em que não sejamos capazes de distinguir entre vídeos, fotos e áudios verdadeiros e falsos. Vamos lá?
Eu sou Pedro Doria, editor do Meio.
Nesta quinta-feira vai ter a aula inaugural do nosso curso de media training. A jornalista Leila Sterenberg, craque de TV como poucas pessoas são, vai falar ao vivo, gratuitamente, para todos os assinantes premium. É só assinar e você pode assistir. Aliás, você por algum motivo precisa falar com jornalistas de vez em quando? Isso é algo que mexe com os nervos? Precisa falar no vídeo? Precisa se comunicar pelas redes? É isso que media training ensina. São cursos em geral muito caros. Bem, aqui no Meio a gente é do ramo. A gente sabe falar pra câmera, nós somos jornalistas, e somos digitais. E esse curso cabe no seu bolso. Chamamos para isso três feras, três especialistas na coisa. Além da Leila, Natália Lima e Elis Monteiro, que vão dar aulas essenciais para quem quer construir uma marca pessoal ou empresarial que seja forte no mundo digital. Assinante do Meio tem 20% de desconto, tá? Só esse desconto já quase paga a assinatura premium. Assina o Meio, pega o desconto e já assiste à aula desta quinta.
E este aqui? Este é o Ponto de Partida.
De cara, a resolução do TSE parece ter um problema, mas é importante compreender a intenção da corte. Deepfake é proibido mas uso de inteligência artificial generativa pode. As duas coisas são diferentes só que produzem resultados equivalentes. Vamos voltar lá na definição?
O que é um vídeo deepfake? Nós tivemos um numa eleição no Brasil, já. No segundo turno das eleições de 2018, circulou um filmete em que o candidato ao governo de São Paulo tucano, João Doria, aparecia nu, num quarto de hotel, com três mulheres igualmente nuas. O vídeo era falso. Alguém arranjou um ator, pôs as mulheres ali, filmaram. Aí usaram uma técnica de substituição de rosto. O software pega várias fotografias do rosto que se quer usar e mapeia a cara do ator. Vê quando os pontos da boca, dos olhos, mexem. Aí ele vai, quadro a quadro, substituindo aquela face. Fica muito próximo da perfeição.
Quer dizer, houve uma manipulação de um vídeo já existente para produzir um segundo, que é falso.
Com Inteligência Artificial generativa, a coisa é diferente. Hoje, se você quer produzir uma fotografia, descreve em texto a imagem que procura, e o algoritmo cria aquela imagem. Ao fim, você pode substituir o rosto que está lá por qualquer outro. Não houve manipulação de uma foto real, tudo é sintético. Nasce do zero. Ainda não funciona em vídeo, mas vai funcionar. Sora, o novo sistema da OpenAI, a empresa que criou o ChatGPT, permite fazer exatamente isso em vídeo. É uma coisa de meses até ser lançado. Tudo indica que estará à disposição para as eleições.
Por que, então, se for gerado com IA pode, desde que devidamente identificado? Mas deepfake, a manipulação, não pode? Ambos os resultados não são falsos?
Muita coisa pode ser produzida com inteligência artificial. Um vídeo mostrando como será uma escola que o candidato a prefeito deseja construir, por exemplo. Como ficará uma rua quando asfaltada. O Tribunal Superior Eleitoral não deseja proibir o uso da tecnologia se ela for usada para ajudar o eleitor a compreender alguma coisa. Mas se for para enganar o eleitor, aí não pode. Esta é a distinção essencial. Não dá pra botar o candidato num envento em que ele não estava, fazer com que o adversário diga algo que ele jamais falou.
Então, sim, a regra tem uma ambiguidade. A distinção é essa. Aquilo que ajuda o eleitor a compreender, pode. Aquilo que ajuda na comunicação, pode. Só precisa dizer que foi gerado usando IA. Agora, aquilo que pode levar o eleitor a ser enganado, aí não pode. Haverá, por certo, uma zona cinzenta. Nesses casos, vai caber aos juízes eleitorais de todo Brasil, em última análise ao próprio TSE, definir qual é a jurisprudência.
A regra vale para esta eleição, a de 2024. Eleição municipal. Será o primeiro pleito brasileiro em que inteligência artificial generativa existe. Vamos começar a aprender como lidar com esse tipo de coisa. Na de 2026, sucessão do presidente Lula, vai ser bastante mais complicado. Essas tecnologias estarão muito mais sofisticadas e mais simples de usar. A regra vai ter de ser outra, então precisamos aprender muito agora.
Como a gente lida com um mundo em que áudios, vídeos e fotos não podem mais ser prova de que algo aconteceu ou não. Desinformação já é um problema concreto. O fato de que vivemos em realidades paralelas, idem. Estas ferramentas maravilhosas vão acirrar esse processo.
Uma das coisas que a gente viu serem quebradas, na sociedade, são as instituições nas quais confiamos. Coletivamente, já não confiamos em mais nada. Não confiamos nas igrejas, no Congresso, na Justiça, na Presidência, não confiamos na imprensa, não confiamos nas universidades. Cada subconjunto de nós humanos confia na autoridade que escolhe. Coletivamente, não temos mais isso. Vamos perder de vez, agora, a confiança nos nossos sentidos. Na visão, na audição.
Qual vai ser o impacto dessa coisa na vida em sociedade? Num mundo ideal, todos iríamos desenvolver a capacidade de pensamento crítico, uma postura mais cética perante a vida. Mas não é isso que acontece no mundo real, né?
Outro dia, um leitor que não gostou de algo que escrevi, me respondeu de bate pronto. Com raiva, sabe? Você não diz mais as coisas que penso. Parando de seguir em 3, 2, 1. Acho sempre divertido quando as pessoas informam que estão parando de seguir, mas fiquei bastante impressionado com a clareza da pessoa. Em geral as reclamações são de que estou mentindo, de que estou desinformando, de que estou cada vez mais bolsonarista, ou cada vez mais petista. Tem gente que reclama que o centrismo radical cega. Mas não aqui. Esse cara tinha claro para ele. O problema é que, nesta fase em que estamos, não estou mais refletindo aquilo que ele pensa. E é isso mesmo.
O que acontece é que todos nós cada vez mais tendemos a acreditar em quem confirma nossos vieses e tendemos a desconfiar de quem não confirma. Todos nós. Estamos cada vez mais intolerantes a quem fala aquilo que não pensamos. O contraditório está incomodando. Isso vai tornando a vida em sociedade cada vez mais difícil porque, olha, a gente vai discordar. É inevitável. Talvez a era da desinformação esteja só começando. Já pensou nisso? Pode ficar muito pior.