Tecnologia

Apple quer vasculhar iPhones nos EUA em busca de imagens de abuso infantil

Se valendo de uma nova ferramenta, a empresa quer comparar fotos abusivas nos telefones com uma base de dados de imagens vítimas de abuso sexual

Quando uma foto for problemática, a Apple a revisará manualmente, desabilitará a conta do usuário se necessário e enviará um relatório ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) (Getty Images/Getty Images)

Quando uma foto for problemática, a Apple a revisará manualmente, desabilitará a conta do usuário se necessário e enviará um relatório ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) (Getty Images/Getty Images)

TL

Thiago Lavado

Publicado em 6 de agosto de 2021 às 14h57.

Última atualização em 6 de agosto de 2021 às 16h08.

A Apple pretende instalar softwares nos iPhones de usuários nos Estados Unidos para que seja possível rastrear a presença de imagens de abuso infantil, afirmou nesta quinta-feira, 5, o jornal britânico Financial Times.

De acordo com o FT, a empresa teria apresentado o sistema, chamado de "neuralMatch" a alguns acadêmicos e professores americanos. Os planos podem ser tornados públicos ainda esta semana, disse o jornal.

A tecnologia "varreria" os telefones atrás de imagens ilegais e alertaria um time de revisores humanos se acreditasse que o material viola as leis e as autoridades seriam contatadas para investigar. A ideia é disponibilizar a função inicialmente nos EUA.

"Queremos ajudar a proteger as crianças dos predadores que usam ferramentas de comunicação para recrutá-las e explorá-las, e limitar a difusão de pornografia infantil", disse o grupo de pesquisa da companhia em sua página.

O grupo também planeja novas ferramentas para prevenir crianças e pais que tenham uma conta para "Compartilhar em família" (Family Sharing) quando fotos explícitas lhes forem enviadas ao aplicativo de mensagens.

As fotos ficarão embaçadas e o menor receberá mensagens preventivas como advertência de que não é obrigado a abri-las.

Os pais podem optar por receber uma mensagem quando o filho abrir as fotos. Serão implementadas proteções similares para crianças que enviarem fotos sexualmente explícitas.

Há também a intenção de implementar informações de prevenção via assistente de voz Siri quando as crianças ou os pais pedirem conselhos sobre situações determinadas.

A Siri também podem intervir quando os usuários buscarem imagens de pornografia infantil, advertindo-lhes que o conteúdo é problemático.

Estas ferramentas estarão disponíveis gradativamente com as próximas atualizações dos sistemas operacionais no iPhone, iPad, iWatch e iMac.

Acompanhe tudo sobre:AppleCriançasSmartphones

Mais de Tecnologia

Gigantes das redes sociais lucram com ampla vigilância dos usuários, aponta FTC

Satélites da SpaceX estão causando interferência nos equipamentos de pesquisadores, diz instituto

Desempenho do iPhone 16 chama atenção e consumidores preferem modelo básico em comparação ao Pro

iPhone 16 chega às lojas – mas os recursos de inteligência artificial da Apple, não