Tecnologia

Facebook lançará novo sistema para prevenir suicídio de usuários

A empresa tentará reconhecer padrões nas publicações e nos vídeos ao vivo dos usuários que sugerem que uma pessoa está considerando o suicídio

Facebook: a empresa indicou que pretende que a ferramenta esteja disponível não só em território americano (Getty Images/Getty Images)

Facebook: a empresa indicou que pretende que a ferramenta esteja disponível não só em território americano (Getty Images/Getty Images)

E

EFE

Publicado em 27 de novembro de 2017 às 21h23.

Washington - O Facebook iniciará uma nova ferramenta de inteligência artificial para ajudar usuários que possam estar pensando em suicídio enquanto usam a plataforma, com o objeto de evitar que deem esse passo, informou nesta segunda-feira a rede social.

A companhia tentará reconhecer padrões nas publicações e nos vídeos ao vivo dos usuários que sugerem que uma pessoa está considerando a opção de acabar com sua própria vida, como afirmou a empresa em comunicado.

Segundo o vice-presidente de Gestão Produtiva do Facebook, Guy Rosen, também serão aprimorados os mecanismos de identificação de quem seriam os primeiros a responder a casos assim, e acrescentarão mais investigadores em sua equipe para informar suicídios e autolesões.

As técnicas, que já estão sendo testadas em usuários, incluem um novo algoritmo para detectar situações que, até agora, passavam despercebidas.

O Facebook, que está há mais de dez anos trabalhando na prevenção do suicídio, indicou que pretende que a ferramenta esteja disponível não só em território americano, mas também na maioria de países do mundo, exceto na União Europeia (UE).

"Podemos conectar uma pessoa angustiada com alguém que possa apoiá-la", afirmou Rosen, que disse que nos trabalhos de prevenção é analisada a aparição de comentários como "está bem?" e uma grande quantidade de respostas dos usuários nas transmissões de vídeo.

Com o mesmo propósito, a companhia já contratou em março 3 mil pessoas para revisar o conteúdo que pode estar relacionado com o crime ou o suicídio, que se somaram aos 4.500 que trabalhavam no Facebook para evitar práticas que violam seus padrões.

A empresa tenta evitar casos como o ocorrido em abril deste ano, quando um tailandês transmitiu ao vivo através da rede social como matava sua filha de 11 meses e posteriormente se suicidava, um vídeo que depois foi apagado pela plataforma.

Acompanhe tudo sobre:FacebookInteligência artificialRedes sociaisSuicídio

Mais de Tecnologia

Apple deve lançar nova Siri similar ao ChatGPT em 2026, diz Bloomberg

Instagram lança ferramenta para redefinir algoritmo de preferências dos usuários

Black Friday: 5 sites para comparar os melhores preços

China acelera integração entre 5G e internet industrial com projeto pioneiro