Inteligência Artificial

Pequim lança projeto-piloto para regulamentar uso de dados em grandes modelos de IA

Iniciativa de sandbox regulatório visa controlar riscos e garantir segurança no uso de dados para IA em Pequim

China2Brazil
China2Brazil

Agência

Publicado em 17 de junho de 2025 às 14h23.

Desde 2025, a DeepSeek tem liderado uma onda de entusiasmo em torno da inteligência artificial. Nas sessões anuais da Assembleia Popular Nacional, os termos “Inteligência Artificial+” e “grandes modelos” passaram a integrar o relatório de trabalho do governo.

Com o avanço da IA, a coleta, o uso e a circulação de dados tornaram-se complexos, o que gerou preocupações sobre quem garante a privacidade e a segurança desses dados.

No dia 17 de junho, repórteres visitaram a primeira base nacional de treinamento de dados para IA, em Pequim. A resposta para as preocupações com a segurança de dados veio na forma do mecanismo de sandbox regulatório.

O que é o sandbox regulatório?

O sandbox regulatório permite, sob condições de risco controlado, testar produtos, tecnologias, serviços ou modelos de negócio inovadores em ambientes reais de mercado, com usuários reais.

No campo da IA, esse mecanismo viabiliza o desenvolvimento controlado da tecnologia, garantindo segurança e conformidade.

Inaugurada em março de 2024, a base de Pequim implementou o sandbox e oferece às empresas serviços completos, como solicitação de entrada, verificação de integridade, avaliação de propostas, validação de treinamento, avaliações preliminar e final, além da transformação de resultados e promoção.

Políticas de proteção e segurança de dados

O mecanismo adota políticas de proteção de direitos autorais, regras de notificação e remoção, mecanismos de compensação de riscos e soluções inovadoras para disputas. Em segurança técnica, aplica medidas para garantir proteção no armazenamento, processamento, entrega e conformidade dos dados.

Como o primeiro sandbox regulatório da China dedicado à IA, a base já reuniu mais de 100 conjuntos de dados nas áreas de saúde, administração pública e direção autônoma.

Impacto para as empresas e para o setor de IA

O mecanismo ajuda empresas a evitar riscos relacionados a dados dentro dos limites legais, garantindo um treinamento normativo e uma exploração mais segura para grandes modelos de IA.

Yan Min, presidente do Instituto de Pesquisa da Cidade Inteligente de Yizhuang, informou que Pequim emitiu, em 10 de junho de 2024, o primeiro certificado de saída de sandbox regulatório para grandes modelos de IA. A meta até o fim de 2025 é construir 10 cenários de referência com sandboxes de dados para setores como saúde, direção autônoma e diagnóstico por imagem médica, gerando mais de 30 casos de aplicação.

Acompanhe tudo sobre:Inteligência artificialChinaPequimDeepSeek

Mais de Inteligência Artificial

O chip europeu que escreve no cérebro

Musk sai em busca de mais US$ 4,3 bi após de ter queimado caixa do X com IA

Com €600 milhões do fundador do Spotify, Helsing vira maior aposta da Europa para defesa com IA

Após crítica, Meta AI ganha aviso para impedir compartilhamento acidental de conversas privadas