União Europeia: projeto de lei inédito regulamenta a inteligência artificial no bloco (Yves Herman/File Photo/Reuters)
Chief Artificial Intelligence Officer da Exame
Publicado em 27 de março de 2024 às 15h55.
Última atualização em 27 de março de 2024 às 16h25.
A União Europeia vai colocar em vigor as regulamentações de IA mais duras do mundo.
Aplicações de IA perigosas foram designadas como "inaceitáveis" e serão ilegais, exceto para governos, aplicação da lei e estudos científicos sob condições específicas. Literalmente, consideraram a IA uma arma e como tal, monopólio do Estado, em alguns casos.
Como o GDPR, a nova legislação da UE cria obrigações para qualquer um que faça negócios dentro dos 27 Estados-membros, não apenas para as empresas baseadas lá.
Os eurodeputados disseram que o objetivo é proteger os direitos e liberdades dos cidadãos, ao mesmo tempo que promove a inovação e o empreendedorismo. Mas as cerca de 460 páginas publicadas da lei contêm muito mais do que isso.
Se você lidera um negócio que opera dentro ou fora da Europa, existem algumas coisas importantes que você precisa saber, porque essa lei será a base para as que serão criadas nos demais países.
Destaquei as principais conclusões para quem quer estar preparado para essas mudanças significativas.
A Lei de Inteligência Artificial foi adotada pelo Parlamento da UE em 13 de março e espera-se que em breve se torne lei quando for aprovada pelo Conselho Europeu. Levará até 24 meses para que tudo seja aplicado, mas a aplicação de certos aspectos, como as práticas recém-banidas, pode começar em apenas seis meses.
Assim como no caso do GDPR, esse atraso é para permitir que as empresas garantam que estão em conformidade. Após esse prazo, elas podem enfrentar penalidades por quaisquer violações.
Estas são escalonadas, com as mais sérias reservadas para aqueles que violam a proibição de "usos inaceitáveis". No extremo superior, estão multas de até € 30 milhões ou 6% do faturamento global da empresa (o que for maior).
Potencialmente ainda mais prejudicial, no entanto, seria o impacto na reputação de uma empresa se for constatado que ela está violando as novas leis. A confiança é tudo no mundo da IA, e as empresas que mostram que não podem ser confiáveis provavelmente serão ainda mais punidas pelos consumidores.
A lei afirma que "a IA deve ser uma tecnologia centrada no ser humano. Ela deve servir como uma ferramenta para as pessoas, com o objetivo final de aumentar o bem-estar humano."
Para fazer isso, a UE proibiu o uso de IA para vários fins potencialmente prejudiciais. Aqueles especificamente listados incluem:
Existem algumas isenções. Há uma lista de situações em que as organizações de aplicação da lei podem implantar IAs "inaceitáveis", incluindo prevenção do terrorismo e localização de pessoas desaparecidas. Também há isenções para estudos científicos.
A lei diz que "a IA deve ser uma tecnologia centrada no ser humano. Ela deve servir como uma ferramenta para as pessoas, com o objetivo final de aumentar o bem-estar humano." Portanto, é bom ver que limitar as maneiras como ela poderia causar danos foi colocado no centro das novas leis.
No entanto, há uma boa dose de ambiguidade e abertura em torno de algumas das redações, o que poderia potencialmente deixar as coisas abertas à interpretação. O uso de IA para direcionar marketing para produtos como fast food e refrigerantes com alto teor de açúcar poderia ser considerado uma influência de comportamentos de maneiras prejudiciais? E como julgamos se um sistema de pontuação social levará à discriminação em um mundo onde estamos acostumados a ser verificados e pontuados por uma infinidade de órgãos governamentais e privados?
Esta é uma área em que teremos de esperar por mais orientação ou informações sobre como a aplicação será feita para entender as consequências completas.
Além dos usos considerados inaceitáveis, a lei divide as ferramentas de IA em mais três categorias — alto, limitado e risco mínimo.
A IA de alto risco inclui casos de uso como carros autônomos e aplicações médicas. As empresas envolvidas nesses campos ou similarmente arriscados enfrentarão regras mais rígidas, bem como uma maior obrigação em relação à qualidade e à proteção dos dados.
Casos de uso de risco limitado e mínimo podem incluir aplicações de IA puramente para entretenimento, como em videogames, ou em processos criativos, como gerar texto, vídeo ou sons.
Haverá menos requisitos aqui, embora ainda haja expectativas em relação à transparência e ao uso ético da propriedade intelectual.
A Lei deixa claro que a IA deve ser o mais transparente possível. Novamente, há alguma ambiguidade aqui — pelo menos aos olhos de alguém como eu que não é advogado. São feitas estipulações, por exemplo, em torno de casos em que há necessidade de "proteger segredos comerciais e informações comerciais confidenciais". Mas é incerto agora como isso seria interpretado quando os casos começarem a chegar aos tribunais.
A lei cobre a transparência de duas maneiras. Primeiro, ela decreta que as imagens geradas por IA devem ser claramente marcadas para limitar os danos que podem ser causados por engano, deepfakes e desinformação.
Também cobre os próprios modelos de uma forma que parece particularmente direcionada a grandes provedores de IA de tecnologia, como Google, Microsoft e OpenAI. Novamente, isso é escalonado por risco, com os desenvolvedores de sistemas de alto risco se tornando obrigados a fornecer informações extensas sobre o que fazem, como funcionam e quais dados usam. Estipulações também são colocadas em torno da supervisão e responsabilidade humana.
Exigir que as imagens geradas por IA sejam marcadas como tal parece uma boa ideia em teoria, mas pode ser difícil de aplicar, pois é improvável que criminosos e disseminadores de engano cumpram. Por outro lado, pode ajudar a estabelecer uma estrutura de confiança, que será fundamental para permitir o uso eficaz da IA.
Quanto às grandes empresas de tecnologia, espero que isso provavelmente se resuma a uma questão de quanto elas estão dispostas a divulgar. Se os reguladores aceitarem as prováveis objeções de que documentar algoritmos, ponderações e fontes de dados são informações comerciais confidenciais, então essas disposições podem acabar sendo bastante ineficazes.
É importante notar, porém, que mesmo empresas menores que constroem sistemas personalizados para indústrias e mercados de nicho podem, em teoria, ser afetadas por isso. Ao contrário dos gigantes da tecnologia, elas podem não ter o poder legal para argumentar em tribunal, colocando-as em desvantagem quando se trata de inovar. Deve-se tomar cuidado para garantir que isso não se torne uma consequência não intencional da lei.
Em primeiro lugar, mostra que os políticos estão começando a se movimentar quando se trata de enfrentar os enormes desafios regulatórios criados pela IA. Embora eu seja geralmente positivo sobre o impacto que espero que a IA tenha em nossa vida, não podemos ignorar que ela também tem um enorme potencial para causar danos, deliberada ou acidentalmente. Portanto, qualquer aplicação de vontade política para abordar isso é uma coisa boa!
Mas escrever e publicar leis é a parte relativamente fácil. É colocar em prática as estruturas regulatórias, de fiscalização e culturais para apoiar a mudança que requer um esforço real.
A lei da UE é a primeira do tipo, mas espera-se amplamente que seja seguida por mais regulamentações em todo o mundo, incluindo nos EUA e na China.
Isso significa que, para os líderes empresariais, onde quer que estejam no mundo, tomar medidas para garantir que estejam preparados para as mudanças que estão por vir é essencial.
Duas conclusões importantes da lei são que todas as organizações terão de entender onde suas próprias ferramentas e aplicações se situam na escala de risco e tomar medidas para garantir que suas operações de IA sejam o mais transparentes possível.
Além disso, há uma necessidade real de se manter informado sobre o cenário regulatório em constante mudança da IA. O ritmo relativamente lento com que a lei se move significa que você não deve ser pego de surpresa!
Acima de tudo, porém, acredito que a verdadeira mensagem-chave é a importância de construir uma cultura positiva em torno da IA ética. Garantir que seus dados sejam limpos e imparciais, que seus algoritmos sejam explicáveis e que qualquer potencial para causar danos seja claramente identificado e mitigado é a melhor maneira de garantir que você esteja preparado para qualquer legislação que possa surgir no futuro.
Mesmo que o Brasil ainda não tenha uma lei específica, acompanhar de perto a regulamentação em outras jurisdições será importante para se antecipar às tendências. Investir em uma cultura interna de IA ética, com foco em dados de qualidade, algoritmos explicáveis e mitigação de riscos, será a melhor preparação para as mudanças regulatórias que virão.
A reputação e a confiança do público serão ativos essenciais conforme a IA se torna mais prevalente. Ser percebido como uma empresa que usa a IA de forma responsável será uma vantagem competitiva. Lideranças no Brasil devem colocar a regulamentação de IA no radar e começar desde já a preparar suas organizações, técnica e culturalmente, para operar em um ambiente em que a tecnologia será cada vez mais escrutinada. Liderar pelo exemplo na adoção ética da IA será fundamental.