Em 2024, estão previstas eleições em mais de 60 países, envolvendo quase 50% da população adulta mundial e incluindo a escolha do presidente dos Estados Unidos, dos integrantes do Parlamento Europeu e dos prefeitos e vereadores no Brasil. Nos Estados Unidos, como noticiado pelo New York Times em março de 2023, os engenheiros republicanos e democratas estão empenhados em usar a inteligência artificial (IA) para aprimorar técnicas de microtargeting, gerar mensagens personalizadas e aumentar o impacto da publicidade. O temor dominante é o dano potencial da desinformação à democracia, particularmente com as deepfakes (amálgama de deep learning e fake, técnica que sintetiza imagens ou sons humanos com IA).
O ministro Alexandre de Moraes, presidente do Tribunal Superior Eleitoral (TSE), tem manifestado sua preocupação com o uso de inteligência artificial nas eleições de 2024:
— A sanção deve ser drástica. Quem se utilizar de inteligência artificial para manipular a vontade do eleitor para ganhar as eleições, se descoberto for, é cassação do registro, e, se for eleito, é cassação do mandato — alerta o ministro.
Em dezembro, ele se reuniu com representantes da Meta solicitando o monitoramento e a explicitação de conteúdos manipulados por IA em suas redes sociais (Facebook, Instagram, WhatsApp e Thread).
Em 4 de janeiro, o TSE colocou em audiência pública uma minuta de resolução assinada pela ministra Cármen Lúcia, que exercerá a presidência do tribunal a partir do meio de 2024, com o objetivo de punir o uso fraudulento da IA, estabelecendo que as campanhas deverão explicitar a adoção da tecnologia na propaganda eleitoral. O escopo da resolução define a fabricação ou a manipulação de conteúdo político-eleitoral como “a criação ou a edição de conteúdo sintético que ultrapasse ajustes destinados à melhoria da qualidade da imagem ou som”.
A eficácia dessas medidas, contudo, é limitada, como atesta o próprio Alexandre de Moraes:
— Depois que as notícias fraudulentas são produzidas, por mais que você combata, é impossível conseguir anular 100% os malefícios. Até você comprovar que isso não é verdade, imagine o estrago que faz na escolha do eleitor.
Ele complementa ponderando que nem todos terão acesso ao desmentido ou acreditarão nele. Na recente eleição argentina, ambas as campanhas usaram IA para produzir conteúdo autoelogioso e destratar o oponente. Os rótulos de “conteúdo sintético” nas peças publicitárias foram pouco eficazes, gerando confusão entre os eleitores em relação ao que era verdadeiro ou falso.
Imaginemos que um candidato a prefeito usou IA para produzir uma peça publicitária sintética contra seu oponente. Coerente com o teor da minuta de resolução do TSE, a campanha desse candidato deveria explicitar o uso de IA. Cenário 1: o candidato, cumprindo as regras eleitorais, explicitou o uso de IA — a peça fake circulou nas redes sociais, como reconhece o ministro Alexandre de Moraes, causando estrago na escolha dos eleitores (parte significativa deles não compreende o que seja “produzido por IA” ou rótulos assemelhados). Cenário 2: o candidato não explicitou o uso de IA — o TSE identificou o problema ou a campanha adversária denunciou ao TSE. Em ambos os casos, leva tempo até a proibição, o suficiente para causar dano. Vale lembrar que as eleições de 2024 envolvem a escolha de prefeitos e vereadores em 5.568 municípios brasileiros.
A única maneira de salvaguardar o processo eleitoral de 2024 — garantindo a integridade do sistema e protegendo a democracia — é proibir explicitamente o uso de IA na propaganda eleitoral e bani-la da criação das peças publicitárias de campanha, sejam elas no formato de texto, imagem ou voz.
Dora Kaufman, professora na PUC-SP e colunista da Época Negócios, é autora do livro “Desmistificando a inteligência artificial”.
Fonte: https://oglobo.globo.com/