Tecnologia

Grupo de Elon Musk quer regras para evitar revoltas de robôs

"O perigo do cenário mostrado na série Exterminador do Futuro é que ele nos distraia dos problemas reais gerados pela Inteligência Artificial", diz pesquisador


	"O perigo do cenário mostrado na série Exterminador do Futuro é que ele nos distraia dos problemas reais gerados pela Inteligência Artificial", diz pesquisador
 (Divulgação)

"O perigo do cenário mostrado na série Exterminador do Futuro é que ele nos distraia dos problemas reais gerados pela Inteligência Artificial", diz pesquisador (Divulgação)

DR

Da Redação

Publicado em 5 de julho de 2015 às 15h38.

Um consórcio de pesquisadores especializados em inteligência artificial foi formado nesta semana para impedir que as máquinas dominem os seres humanos, ao mesmo tempo que estabelece as fundações técnicas e éticas para o campo de pesquisa.

O Future of Life Institute, sediado na cidade americana de Boston, distribuiu 37 bolsas de estudos para pesquisadores com projetos que buscam "manter a Inteligência Artificial vigorosa e benéfica."

Os cientistas são especializados nos mais diversos campos de pesquisa: desde matemáticos, que constroem modelos probabilísticos para softwares de Inteligência Artificial, até filósofos que estudam a estrutura teórica para o "controle humano" de armas autônomas.

A maior parte do dinheiro das bolsas foi doada por Elon Musk, fundador da Tesla e SpaceX, que teria dado 10 milhões de dólares para a iniciativa. O bilionário sul-africano já manifestou sua preocupação a respeito do desenvolvimento da inteligência das máquinas.

O anúncio das bolsas de estudo aconteceu na mesma semana do lançamento de Exterminador do Futuro: Gênesis, o quinto filme da franquia sobre as máquinas que se voltam contra os humanos e geram o apocalipse nuclear na Terra.

"O perigo do cenário mostrado na série Exterminador do Futuro não é de que um dia ele aconteça", afirma Max Tegmar, presidente do Future of Life Institute e físico do MIT, "mas sim que ele nos distraia dos problemas reais gerados pela Inteligência Artificial no futuro."

Problemas com robôs armados ou superinteligentes podem surgir e aumentar em um futuro próximo, disse Tegmar em um comunicado, mas por enquanto, eles ainda não devem aparecer. Ou seja, não veremos tão cedo robôs carregando metralhadoras por aí.

O Future of Life quer desenvolver um critério para estabelecer um código de boas práticas de engenharia e princípios éticos para quando universidades, empresas e indivíduos lidem com máquinas inteligentes.

A fundação deu 136 mil dólares para uma professora da Universidade de Denver, Heather Roff, para investigar o uso de armas com inteligência artificial, uma questão estudada pelas Nações Unidas.

Outros 200 mil dólares foram dados a uma iniciativa que pesquisa cibersegurança em inteligência artificial. Já um projeto de filosofia, chamado "Alinhando a superinteligência com os interesses humanos", recebeu 250 mil dólares.

Em janeiro, o Future of Life apresentou seu manifesto em uma convenção em Porto Rico. A carta aberta foi assinada por integrantes da maioria das grandes empresas de tecnologia do planeta, incluindo os diretores de pesquisa do Google e da Microsoft, o chefe de inteligência artificial do Facebook, além dos três fundadores da DeepMind, a empresa de deep learning que o Google comprou no ano passado.

Acompanhe tudo sobre:Elon MuskInteligência artificialRobôsRobótica

Mais de Tecnologia

Canadá ordena fechamento do escritório do TikTok, mas mantém app acessível

50 vezes Musk: bilionário pensou em pagar US$ 5 bilhões para Trump não concorrer

Bancada do Bitcoin: setor cripto doa US$135 mi e elege 253 candidatos pró-cripto nos EUA

Waze enfrenta problemas para usuários nesta quarta-feira, com mudança automática de idioma