Como a inteligência artificial é usada para combater o bullying e monitorar pensamentos suicidas:rb bet
Os jovens submetidos ao cyberbullying sofrem mais com a depressão do que aqueles que não são vítimas e têm pelo menos duas vezes mais chancesrb betse automutilar e tentar o suicídio, segundo pesquisadores. Ao menos 59% dos adolescentes americanos dizem ter sido vítimasrb betbullying online.
Mattocks, que superou o cyberbullying com a ajudarb betnovos amigos na universidade, agora como ativistarb betsaúde mental, ajudando outras pessoas que enfrentam bullying. Ela defende um esforço maior da sociedade para conter a prática.
Monitoramento inteligenterb betbullying
A tecnologia tanto pode aumentar o potencial para o bullying quanto ser usada para acabar com ele. Computadores alimentados por inteligência artificial estão sendo usados para detectar e lidar com casosrb betassédio.
"É quase impossível para os moderadores humanos ler todos os posts e determinar se há algum problema", diz Gilles Jacobs, pesquisadorrb betidiomas da Universidaderb betGhent, na Bélgica. "Por isso, a IA é fundamental para automatizar a detecção e moderaçãorb betbullying e trolling."
A equiperb betJacbos criou um algoritmorb betaprendizadorb betmáquina para identificar palavras e frases associadas ao bullying no siterb betmídia social AskFM, que permite aos usuários fazer e responder perguntas. O sistema conseguiu detectar e bloquear quase 2/3 dos insultosrb betquase 114 mil postagensrb betinglês. Também foi mais preciso do que uma simples pesquisarb betpalavras-chave. Ainda assim, teve dificuldades com comentários sarcásticos.
O discurso abusivo é notoriamente difícilrb betdetectar porque as pessoas usam linguagem ofensiva por várias razões, e alguns dos comentários mais desagradáveis não usam palavras hostis. Pesquisadores da Universidade McGill,rb betMontreal, no Canadá, estão treinando algoritmos para detectar o discursorb betódio, ensinando a eles como comunidades específicas no Reddit têm como alvo mulheres, negros e pessoas com excessorb betpeso usando palavras específicas.
"Minhas descobertas sugerem que precisamosrb betfiltros separadosrb betfalarb betódio para alvos distintos do discursorb betódio", diz Haji Saleem, um dos responsáveis pela pesquisa.
Surpreendentemente, a ferramenta foi mais precisa do que a treinada para identificar palavras-chave. Também foi capazrb betidentificar abusos menos óbvios - palavras como "animais", por exemplo - que podem ter um efeito desumanizador.
Abusosrb betredes sociais
Detectar bullying online está longerb betser uma tarefa meramente acadêmica. Tome como exemplos gigantes da mídia social como o Instagram. Uma pesquisa realizadarb bet2017 descobriu que 42% dos adolescentes sofreram bullying no Instagram, a taxa mais altarb bettodos os sitesrb betmídia social avaliados no estudo. Em alguns casos extremos, alguns usuários cometeram suicídio.
E os alvos não são apenas os adolescentes - o guitarrista do Queen Brian May está entre aqueles que foram atacados na plataforma.
"O que sofri me fez ver com outros olhos aquelas históriasrb betcrianças sendo intimidadas a pontorb betse suicidarem por mensagensrb betseus 'amigos' nas redes sociais", disse May na época. "Agora, seirb betprimeira mão como é sentir que você estárb betum lugar seguro, relaxado, aberto e sem supervisão, e então,rb betuma palavra, ser subitamente invadido."
O Instagram agora está usando a inteligência artificial para detectar bullyingrb betcomentários, fotos e vídeos. Embora a empresa esteja usando um "filtrorb betbullying" para ocultar comentários nocivos desde 2017, foi apenas recentemente que começou a usar o aprendizadorb betmáquina para rastrear ataques verbais a usuários,rb betfotografiasrb bettela dividida, por exemplo. Também rastreia ameaças contra indivíduosrb betcomentários e fotos.
A rede social diz que identificar e remover ativamente esse material é uma medida crucial, já que muitas vítimasrb betbullying não prestam queixa. O aprendizadorb betmáquina também permite que ações sejam tomadas contra aqueles que postarem repetidamente conteúdo ofensivo.
Mesmo com essas medidas, no entanto, os agressores continuam a criar "páginasrb betódio" anônimas para atacar suas vítimas e enviar mensagens diretas nocivas.
Mas o bullying não está restrito ao espaço virtual. Revelaçõesrb betcasosrb betassédio sexual dentro das principais empresasrb bettecnologia no Vale do Silício vêm lançando luz sobre como o bullying e a discriminação podem afetar as pessoas no localrb bettrabalho. Quase metade das mulheres experimentou alguma formarb betdiscriminação enquanto trabalhava na indústriarb bettecnologia na Europa.
De que modo a tecnologia poderia trazer benefícios?
O chatbot inteligente Spot visa ajudar as vítimas a relatar suas experiênciasrb betassédio no localrb bettrabalho com precisão e segurança. O sistema gera um 'interrogatório' com registrorb betdata e hora que o usuário pode manter arquivado ou enviar ao seu empregador, anonimamente, se necessário. A ideia é "transformar uma lembrançarb betevidência", diz Julia Shaw, psicóloga da University College London e co-criadora da Spot.
Em outras palavras, um registro com data e horarb betum incidenterb bettornorb betquando o abuso ocorreu poderia tornar mais difícil lançar dúvidas sobre as evidências posteriormente extraídas da memória, como os críticosrb betChristine Blasey Ford tentaram fazer depois que ela acusou Brett Kavanaugh, nomeado pelo presidente americano Donald Trump para a Surprema Corte americana,rb betagressão sexual quando ambos ainda estavam na faculdade.
Outra ferramenta chamada Botler AI vai um passo além, fornecendo conselhos a pessoas que foram assediadas sexualmente. Usando informaçõesrb betmaisrb bet300 mil processos judiciais nos Estados Unidos e no Canadá, o sistema usa o processamentorb betlinguagem natural para avaliar se um usuário foi vítimarb betassédio sexual aos olhos da lei e gera um relatório do incidente, que pode ser entregue ao departamentorb betRH da empresa ou à polícia. A primeira versão ficou no ar por seis meses e alcançou 89%rb betprecisão.
"Umarb betnossas usuárias sofreu agressão sexualrb betum político e disse que a ferramenta lhe deu a confiançarb betque precisava e a capacitou para agir", diz Amir Moravej, fundador da Botler AI. "Ela abriu um processo judicial e o caso estárb betandamento."
A AI não só poderia ajudar a acabar com o bullying, mas também salvar vidas. Cercarb bet3.000 pessoasrb bettodo o mundo cometem suicídio todos os dias. Ou seja, uma morte a cada 40 segundos. Mas prever se alguém está mais suscetível ao suicídio é notoriamente difícil.
Embora fatores como o histórico do indivíduo possa oferecer algumas pistas, não há um fatorrb betrisco único que seja um forte indicadorrb betsuicídio. O que torna ainda mais difícil a previsão é que os profissionaisrb betsaúde mental muitas vezes precisam examinar evidências e avaliar o riscorb betum telefonemarb betcinco minutos.
Mas as máquinas inteligentes podem ajudar.
"A IA pode coletar muitas informações e montar o quebra-cabeça rapidamente, o que pode ser útil para analisar vários fatoresrb betrisco", diz Martina Di Simplicio, professorarb betpsiquiatria da Universidade Imperial College London, no Reino Unido.
Análise estatística sobre automutilação
Cientistas do Centro Médico da Universidaderb betVanderbilt e da Universidade Estadual da Flórida treinaram algoritmosrb betaprendizadorb betmáquina para examinar os registrosrb betsaúderb betpacientes que cometeram automutilação. Os algoritmos foram capazesrb betprever se um paciente tentaria ceifarrb betvida na semana seguinte a uma ocorrênciarb betautomutilação com uma precisãorb bet92% .
"Podemos desenvolver algoritmos que dependem apenasrb betdados já coletados rotineiramente no centro médico para prever o riscorb betpensamentos e comportamentos suicidas", diz Colin Walsh, professor-assistenterb betinformática biomédica no Centro Médico da Universidaderb betVanderbiltrb betNashville, no Estado americano do Tennessee, que liderou o estudo.
Apesarrb beta pesquisa oferecer a esperançarb betque os especialistasrb betsaúde mental tenham outra ferramenta para ajudá-los a proteger os pacientes que estãorb betrisco no futuro, há muito trabalho ainda a ser feito.
"Os algoritmos desenvolvidos neste estudo podem abordar com bastante precisão quem tentará suicídio, mas não quando alguém vai morrer", dizem os pesquisadores. "Embora o conhecimento precisorb betquem pode se suicidar ainda seja criticamente importante para informar as decisões clínicas sobre o risco, não é suficiente para determinar o risco iminente".
Outro estudo realizado por pesquisadores da Universidade Carnegie Mellon,rb betPittsburgh, no Estado americano da Pensilvânia, foi capazrb betidentificar indivíduos que tinham pensamentos suicidas com 91%rb betprecisão. Os cientistas pediram a 34 participantes que pensassemrb bet30 conceitos específicos relacionados a aspectos positivos ou negativos da vida e da morte enquanto escaneavam seus cérebros usando uma máquinarb betressonância magnética. Eles então usaram um algoritmorb betaprendizadorb betmáquina para identificar "assinaturas neurais" para esses conceitos.
Os pesquisadores descobriram diferenças na forma como pessoas saudáveis e suicidas pensavam sobre conceitos como "morte" e "despreocupação". O computador foi capazrb betidentificar com 94%rb betprecisão nove pessoas que experimentaram pensamentos suicidas e que haviam tentado o suicídio e oito que não tentaram, observando essas diferenças.
"Pessoas com pensamento suicida costumam expressar um sentimentorb betvergonha, mas isso não aconteceu com os participantes saudáveis", diz Marcel Just, diretor do Centrorb betImagem do Cérebro Cognitivo da Universidade Carnegie Mellon. Ele diz acreditar que um dia os terapeutas poderiam usar essa informação para criar um tratamento personalizado para alguém com pensamentos suicidas.
À primeira vista, esses tratamentos personalizados podem parecer futuristas. Mas gigantesrb betbuscas erb betmídias sociais estão tentando identificar usuáriosrb betcrise. Por exemplo, quando alguém busca no Google algo relacionado à tentativarb betsuicídio, o buscador oferece o número do telefonerb betuma instituição que atua na prevenção,rb betvez do resultado da pesquisa.
No ano passado, o Facebook começou a usar a inteligência artificial para identificar postsrb betpessoas que possam estarrb betriscorb betcometer o suicídio. Outras redes sociais, como o Instagram, também começaram a explorar como a IA pode ajudar a evitar o compartilhamentorb betimagensrb betautoflagelação e posts relacionados ao suicídio.
O Facebook também treinou seus algoritmos para identificar padrõesrb betpalavras tanto no post principal quanto nos comentários para ajudar a confirmar casosrb betdesejo suicida. Isso é combinado com outros detalhes, como se as mensagens são postadas nas primeiras horas da manhã. Todos esses dados são canalizados para outro algoritmo que é capazrb betdescobrir se a postagemrb betum usuário do Facebook deve ser revisada pela equiperb betOperações Comunitárias do Facebook, que pode disparar o alarme se achar que alguém estárb betrisco.
Em casos graves, o Facebook pode entrarrb betcontato com autoridades locais. Além disso, a empresa já atuourb betconjunto com socorristas para realizar maisrb betmil verificações sobre a saúde mental dos usuários até o momento.
"Não somos médicos e não estamos tentando fazer um diagnósticorb betsaúde mental", explica Dan Muriello, engenheiro da equipe que produziu as ferramentas. "Estamos tentando obter informações para as pessoas certas rapidamente".
O Facebook não é a única empresa que analisa texto e comportamento para prever se alguém pode estar passando por problemasrb betsaúde mental. Maria Liakata, professora-associada da Universidaderb betWarwick, no Reino Unido, está trabalhando na detecçãorb betmudançasrb bethumorrb betpostsrb betmídias sociais, mensagensrb bettexto e dadosrb bettelefones celulares.
"A ideia é poder monitorar passivamente e prever,rb betforma confiável, mudançasrb bethumor e pessoasrb betrisco", afirma. Ela diz esperar que a tecnologia seja incorporadarb betum aplicativo capazrb betler mensagens no telefonerb betum usuário.
Embora essa iniciativa possa aumentar as preocupações com a privacidade, milharesrb betpessoas já estão compartilhandorb betbom grado seus pensamentos mais profundos com os aplicativosrb betIArb betuma tentativarb betcombater a depressão, que é um indicador do suicídio.
Aplicativos como o Woebot e o Wysa permitem que os usuários conversem sobre seus problemas com um bot que responde seguindo padrõesrb bettratamento certificados pelas autoridadesrb betsaúde, como a terapia cognitivo-comportamental.
As máquinas também podem ajudar a intervir e acabar com o bullying. Mas até que a IA aperfeiçoe uma maneirarb betdetectar as táticasrb betintimidação mais sutis e astutas, essa responsabilidade caberá a nós.
- rb bet Leia a versão original rb bet desta reportagem (em inglês) no site BBC Future.
rb bet Já assistiu aos nossos novos vídeos no YouTube rb bet ? Inscreva-se no nosso canal!
Este item inclui conteúdo extraído do Google YouTube. Pedimosrb betautorização antes que algo seja carregado, pois eles podem estar utilizando cookies e outras tecnologias. Você pode consultar a políticarb betusorb betcookies e os termosrb betprivacidade do Google YouTube antesrb betconcordar. Para acessar o conteúdo cliquerb bet"aceitar e continuar".
Finalrb betYouTube post, 1
Este item inclui conteúdo extraído do Google YouTube. Pedimosrb betautorização antes que algo seja carregado, pois eles podem estar utilizando cookies e outras tecnologias. Você pode consultar a políticarb betusorb betcookies e os termosrb betprivacidade do Google YouTube antesrb betconcordar. Para acessar o conteúdo cliquerb bet"aceitar e continuar".
Finalrb betYouTube post, 2
Este item inclui conteúdo extraído do Google YouTube. Pedimosrb betautorização antes que algo seja carregado, pois eles podem estar utilizando cookies e outras tecnologias. Você pode consultar a políticarb betusorb betcookies e os termosrb betprivacidade do Google YouTube antesrb betconcordar. Para acessar o conteúdo cliquerb bet"aceitar e continuar".
Finalrb betYouTube post, 3