Inteligência Artificial

Riscos da IA dividem governo Biden sobre regras propostas por UE

O porta-voz do Conselho de Segurança Nacional, Adam Hodge, disse que o governo Biden trabalha para “avançar uma abordagem coesa

 (Foto/Getty Images)

(Foto/Getty Images)

Bloomberg
Bloomberg

Agência de notícias

Publicado em 13 de junho de 2023 às 19h58.

Autoridades do governo Biden estão divididas sobre qual deve ser o nível de regulamentação das ferramentas de inteligência artificial — e suas divergências se tornam evidentes esta semana na Suécia.

Alguns funcionários da Casa Branca e do Departamento de Comércio apoiam as fortes medidas propostas pela União Europeia para produtos de IA, como ChatGPT e Dall-E, disseram pessoas envolvidas nas discussões. Enquanto isso, algumas autoridades de segurança nacional dos EUA e do Departamento de Estado dizem que uma regulamentação agressiva dessa tecnologia nascente vai deixar o país em desvantagem competitiva, de acordo com as pessoas, que pediram para não serem identificadas.

Durante a reunião do Conselho de Comércio e Tecnologia (TTC) UE-EUA desta semana na Suécia, essa dissonância deixou o governo americano sem uma resposta coerente ao plano do bloco de submeter a IA generativa a mais regras. A proposta obrigaria desenvolvedores de ferramentas de inteligência artificial a cumprir uma série de regulamentos rigorosos, como exigir que documentem qualquer material protegido por direitos autorais usado para treinar seus produtos e rastrear mais de perto como essa informação é usada.

O porta-voz do Conselho de Segurança Nacional, Adam Hodge, disse que o governo Biden trabalha com todo o governo para “avançar uma abordagem coesa e abrangente para os riscos e oportunidades relacionados à IA”.

A forma como a UE decide regular a IA é indiscutivelmente mais importante do que o debate em Washington. Como é improvável que o Congresso aprove regras obrigatórias para a IA, o bloco europeu será o primeiro a ditar como gigantes de tecnologia, como Microsoft e a Alphabet, dona do Google, desenvolvem os modelos básicos por trás da próxima fronteira da inteligência artificial.

Campo de batalha

Esses modelos dependem de dados de treinamento – geralmente grandes amostras de linguagem retiradas da Internet – para aprender como responder em várias situações, em vez de serem criados para uma tarefa específica. Esta é a tecnologia por trás da IA generativa, que pode responder a perguntas de tarefas escolares, projetar um powerpoint ou criar imagens fantásticas a partir de entradas de texto.

A questão para os reguladores é quem deve assumir a responsabilidade pelos riscos associados à tecnologia, como a disseminação de desinformação ou violações de privacidade. As regras da UE propostas aumentariam os requisitos de relatórios para empresas que desenvolvem modelos usados em chatbots, como a OpenAI.

Michelle Giuda, diretora do Krach Institute for Tech Diplomacy e ex-secretária de Estado assistente para relações públicas globais no governo Trump, disse que uma das tarefas fundamentais do TTC será fortalecer a confiança entre os aliados para promover a inovação e se manter à frente dos avanços da China.

Alto risco

Até recentemente, os EUA e a UE compartilhavam um certo consenso para regular o uso em vez da tecnologia em si, com foco em áreas de alto risco, como infraestrutura crítica e aplicação da lei.

No entanto, o lançamento do ChatGPT tornou os maiores riscos mais aparentes. Neste mês, uma imagem falsa aparentemente gerada por IA de uma explosão perto do Pentágono assustou os mercados dos EUA, enquanto a tecnologia já cria vencedores e perdedores corporativos.

O Parlamento Europeu propôs novas regras que visam especificamente os modelos de fundação usados para a IA generativa. Parlamentares do comitê concordaram no início deste mês sobre um maior escrutínio de companhias que desenvolvem esses modelos de fundação. A maioria dessas empresas, incluindo Microsoft e Google, está sediada nos EUA.

A Lei de IA revisada pode ser votada no parlamento em junho, antes das negociações finais com os 27 estados membros da UE.

Sam Altman, CEO da OpenAI, se tornou o porta-voz da preocupação de empresas com o excesso regulatório quando sugeriu que sua empresa poderia retirar produtos do mercado europeu se as regras fossem muito difíceis de seguir. O comissário da UE, Thierry Breton, respondeu com um tuíte acusando Altman de “tentativa de chantagem”.

Altman disse posteriormente que trabalharia para cumprir as regras da UE. O executivo tem um encontro agendado com a presidente da Comissão Europeia, Ursula von der Leyen, na quinta-feira.

Acompanhe tudo sobre:Inteligência artificialGoverno Biden

Mais de Inteligência Artificial

Ex-engenheira de metaverso de Zuckerberg assume divisão de robôs da OpenAI

IA revoluciona a reprodução de uvas e aumenta eficiência em 400%

Manychat: aprenda a automatizar vendas no WhatsApp e Instagram com IA

O país vizinho que deixou o Brasil para trás na criação de empresas de inteligência artificial