Bússola

Um conteúdo Bússola

Opinião: desafios globais para inteligência artificial e deep fakes nos processos eleitorais

Entenda como a utilização de IA pode interferir nos processos eleitorais. Confira o artigo de Fabrício Bertini Pasquot Polido

 (Tero Vesalainen/Bússola)

(Tero Vesalainen/Bússola)

Bússola
Bússola

Plataforma de conteúdo

Publicado em 23 de setembro de 2024 às 10h00.

Por Fabrício Bertini Pasquot Polido*

Com a crescente utilização de tecnologias digitais e inteligência artificial (IA) nas campanhas eleitorais, os sistemas democráticos enfrentam um novo espectro de desafios jurídicos e institucionais. As operações de influência e campanhas de desinformação por meio de deep fakes se tornaram armas cada vez mais sofisticadas, ameaçando a integridade dos processos eleitorais. A combinação de inovação tecnológica e desinformação coloca em xeque a confiança do eleitorado e a estabilidade das instituições democráticas.

Característico da ciência política e relações internacionais, o conceito de "operações de influência" refere-se ao conjunto de esforços coordenados por atores estatais e não estatais visando manipular a opinião pública e afetar processos domésticos dos Estados. Na atualidade, essas operações usam ferramentas digitais para atingir seus objetivos, com a IA sendo uma das principais aliadas. Segundo o Relatório sobre Riscos Digitais das Eleições de 2024, do Stern Center da NYU – Universidade de Nova Iorque, as inovações tecnológicas, a digitalização e artificialização do discurso possibilitaram a criação de narrativas falsas com um alcance e uma velocidade sem precedentes para os pleitos eleitorais deste ano em grandes democracias, como vem ocorrendo na União Europeia, nos Estados Unidos e no Brasil.

Deep fakes podem ser veiculadas por conteúdos sintéticos ou manipulados por IA, como materiais de áudios e vídeos enganosos de figuras públicas. Exemplo disso foi a disseminação de deep fakes durante as eleições para o Parlamento Europeu em 2024, quando vídeos falsos apresentavam apoios fictícios a candidatos da extrema direita por personalidades confiáveis, evidenciando o potencial desestabilizador dessas práticas. Nos Estados Unidos ficou escancarada a grosseira utilização da imagem da cantora Taylor Swift, supostamente a apoiar o ex-presidente Donald Trump em sua atual campanha eleitoral contra a candidata Kamala Harris.

A proliferação de deep fakes e desinformação tem impactos diretos na confiança pública nas instituições democráticas. Relatórios influentes de organizações como Nações Unidas, Conselho da Europa e União Europeia apontam que a desinformação, particularmente em contextos eleitorais, contribui para a polarização política, a percepção de insegurança nos processos de votação e falso endosso de apoios políticos que são inexistentes. Como também experimentado no Brasil e Estados Unidos, o impacto de campanhas de desinformação, respectivamente nas eleições de 2020 e 2022 foi devastador, com alegações infundadas de fraudes eleitorais fomentando violentos ataques à democracia, como os infames eventos de 8 janeiro de 2021 e 2023 no Capitólio, Washigton D.C, e na Praça dos Três Poderes, em Brasília.

Um cenário nada vibrante ou promissor levanta importantes discussões a respeito da necessidade premente e legitimidade de regulação ‘dura’ sobre o uso de IA e deep fakes em contextos eleitorais. As instituições têm começado a tomar medidas para mitigar os efeitos prejudiciais dessas tecnologias e seus efeitos deletérios para o funcionamento das eleições democráticas.  Na Europa, a entrada em vigor do Regulamento de Serviços Digitais (DSA) e do Regulamento de Inteligência Artificial (“AI Act”) já consolida um marco regulatório que busca garantir a transparência e a responsabilização de agentes não estatais, como organizações e empresas. Elas podem ser responsabilizadas quando deixarem de tomar medidas diante de conteúdo infrativo ou de, adequadamente, detectar e divulgar se resultados dos sistemas de IA são artificialmente gerados ou manipulados com intuito de influenciar ou desestabilizar pleitos eleitorais.

O Brasil, por sua vez, também deu passos significativos desde fevereiro deste ano. O Tribunal Superior Eleitoral (TSE) tem implementado resoluções que proíbem o uso de deep fakes em campanhas eleitorais, estabelecem restrições ao uso de ‘bots’ e assistentes virtuais em campanhas e exigem a rotulagem de conteúdos manipulados. A Resolução nº 23.732/2024, por exemplo, estabelece obrigações claras para as plataformas digitais na detecção e remoção de conteúdos prejudiciais. A escolha de política normativa e as novidades trazidas pela Resolução do TSE, pela própria regra contida no art. 57-J da Lei Eleitoral brasileira, não parecem exorbitar competências do Legislativo no contexto de produção normativa em matéria de direito eleitoral. Ao contrário, elas capturam a existência de novas tecnologias ao âmbito de aplicação de certas regras de conduta no campo eleitoral, em linha com as atribuições normativas e fiscalizatórias do Tribunal. Afinal, ali também subsiste uma função preventiva para disputas eleitorais, mesmo porque serão os tribunais – no âmbito da Justiça eleitoral – os futuramente acionados para responder a questões interpretativas e adjudicar litígios em torno de novas tecnologias aplicadas ao ambiente eleitoral.

Juristas preocupados com a higidez do sistema eleitoral e com a segurança do ambiente digital brasileiro devem se comprometer com a compreensão analítica das implicações legais da IA, do uso descontrolado de deep fakes e do exercício legítimo dos direitos e liberdades comunicativas e informativas. Não poderiam, como alguns têm feito indiscriminadamente no caso da suspensão do acesso à plataforma X pelas violações à lei brasileira, empregar um subterfúgio cínico a respeito de defesas seletivas em liberdade de expressão ou livre iniciativa econômica para a exclusão de responsabilidades.

As condutas de escrutinar atos ilícitos e de sancionar maus atores permanecem, portanto, papéis fundamentais de agentes de aplicação das leis no Brasil e componentes centrais da jurisdição do Estado brasileiro. Paralelamente, existe uma demanda enorme na academia, advocacia, no judiciário e legislativo brasileiros quanto à discussão e elaboração de políticas que levem em consideração tecnologias emergentes e aplicações de IA. Responsabilidades e obrigações de agentes, bem como a proteção dos cidadãos contra a desinformação, devem ser o foco de um debate jurídico engajado com cidadania digital e com a exata e necessária presença das instituições democráticas em nossas vidas.

Iniciativas direcionadas ao fortalecimento das legislações, à implementação de sistemas de auditoria e ao desenvolvimento de melhores práticas para o uso responsável, ético e transparente de tecnologias baseadas em IA são essenciais no presente e futuro. Um manifesto mais afinado com as profissões jurídicas permanecerá na oportunidade de moldar a maneira como as políticas, as leis e decisões judiciais respondem às inovações digitais, garantindo que direitos fundamentais sejam respeitados e não sistematicamente violados.  O futuro das eleições será, sem dúvida, baseado no espectro digital, mas não sem desafios concretos que colocam à prova a ausência de um debate humanista mais acurado também no aparente “livre desenvolvimento” e implementação de tecnologias baseadas em IA por parte da indústria e seu manejo político, muitas vezes absolutamente conivente com a deterioração da paz e da democracia em diferentes partes do mundo.

Por essas razões, a combinação entre IA e deep fakes representa uma nova fronteira nas batalhas eleitorais que exigem nossa atenção. O desenvolvimento de um marco legal robusto e socialmente responsivo para IA será necessário para preservar a integridade dos processos eleitorais e a confiança pública aqui no Brasil, como já tem sido ao redor do globo e não seria diferente. Ao navegarmos por uma nova dimensão da 'tecnodiceia', nossa capacidade de discernir e responder às ameaças legais trazidas pela manipulação, da fraude e da distorção de resultados a partir de plataformas sociodigitais será fundamental. Aliás, será um pleito válido para qualquer forma de irrestrita proteção dos valores democráticos que todos buscaremos defender.

*Fabrício Bertini Pasquot Polido - Sócio de L.O. Baptista, Professor de Direito Internacional, Direito Comparado e Novas Tecnologias da UFMG. Doutor em Direito Internacional pela USP.

Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube 

Assine nossa newsletter e fique por dentro de todas as novidades 

Acompanhe tudo sobre:PolíticaInteligência artificial

Mais de Bússola

97% das empresas com receita de US$ 1 bi já sofreram violação por IA generativa, aponta instituto

Luiz Garcia: como a construção civil pode superar os desafios provocados pelo aumento do INCC

Bússola Cultural: moda periférica com Karol Conká e Tasha&Tracie

Creator Economy: 5 passos para ter uma parceria de sucesso com criadores de conteúdo