A Meta divulgou o Frontier AI Framework, um documento detalhando sua abordagem para o desenvolvimento de inteligência artificial avançada. A empresa afirma que não construirá sistemas que apresentem risco crítico, aqueles que poderiam viabilizar cenários catastróficos sem possibilidade de mitigação.
Para isso, a Meta classifica modelos de IA em três níveis de risco: crítico, alto e moderado. A categorização considera o potencial de cada tecnologia para permitir ameaças significativas.
Diferentemente dos níveis alto e moderado, o risco crítico significa que a IA poderia viabilizar, de forma única, cenários catastróficos, como o desenvolvimento de armas biológicas ou ataques cibernéticos de larga escala. Segundo a empresa, tais sistemas não serão desenvolvidos.
Modelos de risco alto serão restritos; moderados terão segurança variável
Os sistemas de alto risco poderão ser desenvolvidos, mas não lançados ao público. A Meta afirma que esses modelos terão acesso restrito a equipes de pesquisa e contarão com medidas de segurança contra infiltração hacker.
Já os de risco moderado poderão ser implementados, com medidas de segurança ajustadas conforme a estratégia de lançamento. Esses modelos não apresentariam ameaças significativas, segundo o documento.
A Meta também reconhece que o desenvolvimento da IA envolve múltiplos fatores externos, além do próprio modelo tecnológico. O relatório destaca que há divergências internas entre especialistas da empresa sobre a velocidade e a forma como essas capacidades irão evoluir.
Com essa iniciativa, a Meta busca definir um padrão para avaliar riscos na construção de sistemas de IA avançados. A abordagem, no entanto, não conta com validação externa, pois a estrutura foi criada pelos próprios especialistas da companhia.