Como a inteligência artificial é usada para combater o bullying e monitorar pensamentos suicidas:casas bet

Mulher olha celular assustada

Crédito, Getty Images

Legenda da foto, Bullying pode arrasar a vida das pessoas e deixar cicatrizes permanentes

Os jovens submetidos ao cyberbullying sofrem mais com a depressão do que aqueles que não são vítimas e têm pelo menos duas vezes mais chancescasas betse automutilar e tentar o suicídio, segundo pesquisadores. Ao menos 59% dos adolescentes americanos dizem ter sido vítimascasas betbullying online.

Mattocks, que superou o cyberbullying com a ajudacasas betnovos amigos na universidade, agora como ativistacasas betsaúde mental, ajudando outras pessoas que enfrentam bullying. Ela defende um esforço maior da sociedade para conter a prática.

Monitoramento inteligentecasas betbullying

A tecnologia tanto pode aumentar o potencial para o bullying quanto ser usada para acabar com ele. Computadores alimentados por inteligência artificial estão sendo usados para detectar e lidar com casoscasas betassédio.

"É quase impossível para os moderadores humanos ler todos os posts e determinar se há algum problema", diz Gilles Jacobs, pesquisadorcasas betidiomas da Universidadecasas betGhent, na Bélgica. "Por isso, a IA é fundamental para automatizar a detecção e moderaçãocasas betbullying e trolling."

A equipecasas betJacbos criou um algoritmocasas betaprendizadocasas betmáquina para identificar palavras e frases associadas ao bullying no sitecasas betmídia social AskFM, que permite aos usuários fazer e responder perguntas. O sistema conseguiu detectar e bloquear quase 2/3 dos insultoscasas betquase 114 mil postagenscasas betinglês. Também foi mais preciso do que uma simples pesquisacasas betpalavras-chave. Ainda assim, teve dificuldades com comentários sarcásticos.

Menina no escuro com smartphone

Crédito, Getty Images

Legenda da foto, Agressores se valem do anonimato virtual para praticar abusos

O discurso abusivo é notoriamente difícilcasas betdetectar porque as pessoas usam linguagem ofensiva por várias razões, e alguns dos comentários mais desagradáveis não usam palavras hostis. Pesquisadores da Universidade McGill,casas betMontreal, no Canadá, estão treinando algoritmos para detectar o discursocasas betódio, ensinando a eles como comunidades específicas no Reddit têm como alvo mulheres, negros e pessoas com excessocasas betpeso usando palavras específicas.

"Minhas descobertas sugerem que precisamoscasas betfiltros separadoscasas betfalacasas betódio para alvos distintos do discursocasas betódio", diz Haji Saleem, um dos responsáveis pela pesquisa.

Surpreendentemente, a ferramenta foi mais precisa do que a treinada para identificar palavras-chave. Também foi capazcasas betidentificar abusos menos óbvios - palavras como "animais", por exemplo - que podem ter um efeito desumanizador.

Abusoscasas betredes sociais

Detectar bullying online está longecasas betser uma tarefa meramente acadêmica. Tome como exemplos gigantes da mídia social como o Instagram. Uma pesquisa realizadacasas bet2017 descobriu que 42% dos adolescentes sofreram bullying no Instagram, a taxa mais altacasas bettodos os sitescasas betmídia social avaliados no estudo. Em alguns casos extremos, alguns usuários cometeram suicídio.

E os alvos não são apenas os adolescentes - o guitarrista do Queen Brian May está entre aqueles que foram atacados na plataforma.

"O que sofri me fez ver com outros olhos aquelas históriascasas betcrianças sendo intimidadas a pontocasas betse suicidarem por mensagenscasas betseus 'amigos' nas redes sociais", disse May na época. "Agora, seicasas betprimeira mão como é sentir que você estácasas betum lugar seguro, relaxado, aberto e sem supervisão, e então,casas betuma palavra, ser subitamente invadido."

O Instagram agora está usando a inteligência artificial para detectar bullyingcasas betcomentários, fotos e vídeos. Embora a empresa esteja usando um "filtrocasas betbullying" para ocultar comentários nocivos desde 2017, foi apenas recentemente que começou a usar o aprendizadocasas betmáquina para rastrear ataques verbais a usuários,casas betfotografiascasas bettela dividida, por exemplo. Também rastreia ameaças contra indivíduoscasas betcomentários e fotos.

A rede social diz que identificar e remover ativamente esse material é uma medida crucial, já que muitas vítimascasas betbullying não prestam queixa. O aprendizadocasas betmáquina também permite que ações sejam tomadas contra aqueles que postarem repetidamente conteúdo ofensivo.

Mesmo com essas medidas, no entanto, os agressores continuam a criar "páginascasas betódio" anônimas para atacar suas vítimas e enviar mensagens diretas nocivas.

Manifestaçõescasas betmulheres contra abuso no trabalho

Crédito, Getty Images

Legenda da foto, Revelaçõescasas betcasoscasas betassédio sexual dentro das principais empresascasas bettecnologia no Vale do Silício vêm lançando luz sobre como bullying e discriminação podem afetar pessoas no localcasas bettrabalho

Mas o bullying não está restrito ao espaço virtual. Revelaçõescasas betcasoscasas betassédio sexual dentro das principais empresascasas bettecnologia no Vale do Silício vêm lançando luz sobre como o bullying e a discriminação podem afetar as pessoas no localcasas bettrabalho. Quase metade das mulheres experimentou alguma formacasas betdiscriminação enquanto trabalhava na indústriacasas bettecnologia na Europa.

De que modo a tecnologia poderia trazer benefícios?

O chatbot inteligente Spot visa ajudar as vítimas a relatar suas experiênciascasas betassédio no localcasas bettrabalho com precisão e segurança. O sistema gera um 'interrogatório' com registrocasas betdata e hora que o usuário pode manter arquivado ou enviar ao seu empregador, anonimamente, se necessário. A ideia é "transformar uma lembrançacasas betevidência", diz Julia Shaw, psicóloga da University College London e co-criadora da Spot.

Em outras palavras, um registro com data e horacasas betum incidentecasas bettornocasas betquando o abuso ocorreu poderia tornar mais difícil lançar dúvidas sobre as evidências posteriormente extraídas da memória, como os críticoscasas betChristine Blasey Ford tentaram fazer depois que ela acusou Brett Kavanaugh, nomeado pelo presidente americano Donald Trump para a Surprema Corte americana,casas betagressão sexual quando ambos ainda estavam na faculdade.

Outra ferramenta chamada Botler AI vai um passo além, fornecendo conselhos a pessoas que foram assediadas sexualmente. Usando informaçõescasas betmaiscasas bet300 mil processos judiciais nos Estados Unidos e no Canadá, o sistema usa o processamentocasas betlinguagem natural para avaliar se um usuário foi vítimacasas betassédio sexual aos olhos da lei e gera um relatório do incidente, que pode ser entregue ao departamentocasas betRH da empresa ou à polícia. A primeira versão ficou no ar por seis meses e alcançou 89%casas betprecisão.

"Umacasas betnossas usuárias sofreu agressão sexualcasas betum político e disse que a ferramenta lhe deu a confiançacasas betque precisava e a capacitou para agir", diz Amir Moravej, fundador da Botler AI. "Ela abriu um processo judicial e o caso estácasas betandamento."

A AI não só poderia ajudar a acabar com o bullying, mas também salvar vidas. Cercacasas bet3.000 pessoascasas bettodo o mundo cometem suicídio todos os dias. Ou seja, uma morte a cada 40 segundos. Mas prever se alguém está mais suscetível ao suicídio é notoriamente difícil.

Embora fatores como o histórico do indivíduo possa oferecer algumas pistas, não há um fatorcasas betrisco único que seja um forte indicadorcasas betsuicídio. O que torna ainda mais difícil a previsão é que os profissionaiscasas betsaúde mental muitas vezes precisam examinar evidências e avaliar o riscocasas betum telefonemacasas betcinco minutos.

Smartphone

Crédito, Getty Images

Legenda da foto, Algoritmos que buscam sinaiscasas betbullying nas redes sociais podem ajudar a rastrear agressores

Mas as máquinas inteligentes podem ajudar.

"A IA pode coletar muitas informações e montar o quebra-cabeça rapidamente, o que pode ser útil para analisar vários fatorescasas betrisco", diz Martina Di Simplicio, professoracasas betpsiquiatria da Universidade Imperial College London, no Reino Unido.

Análise estatística sobre automutilação

Cientistas do Centro Médico da Universidadecasas betVanderbilt e da Universidade Estadual da Flórida treinaram algoritmoscasas betaprendizadocasas betmáquina para examinar os registroscasas betsaúdecasas betpacientes que cometeram automutilação. Os algoritmos foram capazescasas betprever se um paciente tentaria ceifarcasas betvida na semana seguinte a uma ocorrênciacasas betautomutilação com uma precisãocasas bet92% .

"Podemos desenvolver algoritmos que dependem apenascasas betdados já coletados rotineiramente no centro médico para prever o riscocasas betpensamentos e comportamentos suicidas", diz Colin Walsh, professor-assistentecasas betinformática biomédica no Centro Médico da Universidadecasas betVanderbiltcasas betNashville, no Estado americano do Tennessee, que liderou o estudo.

Apesarcasas beta pesquisa oferecer a esperançacasas betque os especialistascasas betsaúde mental tenham outra ferramenta para ajudá-los a proteger os pacientes que estãocasas betrisco no futuro, há muito trabalho ainda a ser feito.

"Os algoritmos desenvolvidos neste estudo podem abordar com bastante precisão quem tentará suicídio, mas não quando alguém vai morrer", dizem os pesquisadores. "Embora o conhecimento precisocasas betquem pode se suicidar ainda seja criticamente importante para informar as decisões clínicas sobre o risco, não é suficiente para determinar o risco iminente".

Outro estudo realizado por pesquisadores da Universidade Carnegie Mellon,casas betPittsburgh, no Estado americano da Pensilvânia, foi capazcasas betidentificar indivíduos que tinham pensamentos suicidas com 91%casas betprecisão. Os cientistas pediram a 34 participantes que pensassemcasas bet30 conceitos específicos relacionados a aspectos positivos ou negativos da vida e da morte enquanto escaneavam seus cérebros usando uma máquinacasas betressonância magnética. Eles então usaram um algoritmocasas betaprendizadocasas betmáquina para identificar "assinaturas neurais" para esses conceitos.

Os pesquisadores descobriram diferenças na forma como pessoas saudáveis e suicidas pensavam sobre conceitos como "morte" e "despreocupação". O computador foi capazcasas betidentificar com 94%casas betprecisão nove pessoas que experimentaram pensamentos suicidas e que haviam tentado o suicídio e oito que não tentaram, observando essas diferenças.

"Pessoas com pensamento suicida costumam expressar um sentimentocasas betvergonha, mas isso não aconteceu com os participantes saudáveis", diz Marcel Just, diretor do Centrocasas betImagem do Cérebro Cognitivo da Universidade Carnegie Mellon. Ele diz acreditar que um dia os terapeutas poderiam usar essa informação para criar um tratamento personalizado para alguém com pensamentos suicidas.

À primeira vista, esses tratamentos personalizados podem parecer futuristas. Mas gigantescasas betbuscas ecasas betmídias sociais estão tentando identificar usuárioscasas betcrise. Por exemplo, quando alguém busca no Google algo relacionado à tentativacasas betsuicídio, o buscador oferece o número do telefonecasas betuma instituição que atua na prevenção,casas betvez do resultado da pesquisa.

No ano passado, o Facebook começou a usar a inteligência artificial para identificar postscasas betpessoas que possam estarcasas betriscocasas betcometer o suicídio. Outras redes sociais, como o Instagram, também começaram a explorar como a IA pode ajudar a evitar o compartilhamentocasas betimagenscasas betautoflagelação e posts relacionados ao suicídio.

Menino no escuro com celular

Crédito, Getty Images

Legenda da foto, Mensagens nas redes sociais e dadoscasas betcelular podem identificar mudançascasas bethumor que ajudariam a prever se alguém quer tentar tirarcasas betprópria vida

O Facebook também treinou seus algoritmos para identificar padrõescasas betpalavras tanto no post principal quanto nos comentários para ajudar a confirmar casoscasas betdesejo suicida. Isso é combinado com outros detalhes, como se as mensagens são postadas nas primeiras horas da manhã. Todos esses dados são canalizados para outro algoritmo que é capazcasas betdescobrir se a postagemcasas betum usuário do Facebook deve ser revisada pela equipecasas betOperações Comunitárias do Facebook, que pode disparar o alarme se achar que alguém estácasas betrisco.

Em casos graves, o Facebook pode entrarcasas betcontato com autoridades locais. Além disso, a empresa já atuoucasas betconjunto com socorristas para realizar maiscasas betmil verificações sobre a saúde mental dos usuários até o momento.

"Não somos médicos e não estamos tentando fazer um diagnósticocasas betsaúde mental", explica Dan Muriello, engenheiro da equipe que produziu as ferramentas. "Estamos tentando obter informações para as pessoas certas rapidamente".

O Facebook não é a única empresa que analisa texto e comportamento para prever se alguém pode estar passando por problemascasas betsaúde mental. Maria Liakata, professora-associada da Universidadecasas betWarwick, no Reino Unido, está trabalhando na detecçãocasas betmudançascasas bethumorcasas betpostscasas betmídias sociais, mensagenscasas bettexto e dadoscasas bettelefones celulares.

"A ideia é poder monitorar passivamente e prever,casas betforma confiável, mudançascasas bethumor e pessoascasas betrisco", afirma. Ela diz esperar que a tecnologia seja incorporadacasas betum aplicativo capazcasas betler mensagens no telefonecasas betum usuário.

Embora essa iniciativa possa aumentar as preocupações com a privacidade, milharescasas betpessoas já estão compartilhandocasas betbom grado seus pensamentos mais profundos com os aplicativoscasas betIAcasas betuma tentativacasas betcombater a depressão, que é um indicador do suicídio.

Aplicativos como o Woebot e o Wysa permitem que os usuários conversem sobre seus problemas com um bot que responde seguindo padrõescasas bettratamento certificados pelas autoridadescasas betsaúde, como a terapia cognitivo-comportamental.

As máquinas também podem ajudar a intervir e acabar com o bullying. Mas até que a IA aperfeiçoe uma maneiracasas betdetectar as táticascasas betintimidação mais sutis e astutas, essa responsabilidade caberá a nós.

casas bet Já assistiu aos nossos novos vídeos no YouTube casas bet ? Inscreva-se no nosso canal!

Pule YouTube post, 1
Aceita conteúdo do Google YouTube?

Este item inclui conteúdo extraído do Google YouTube. Pedimoscasas betautorização antes que algo seja carregado, pois eles podem estar utilizando cookies e outras tecnologias. Você pode consultar a políticacasas betusocasas betcookies e os termoscasas betprivacidade do Google YouTube antescasas betconcordar. Para acessar o conteúdo cliquecasas bet"aceitar e continuar".

Alerta: Conteúdocasas betterceiros pode conter publicidade

Finalcasas betYouTube post, 1

Pule YouTube post, 2
Aceita conteúdo do Google YouTube?

Este item inclui conteúdo extraído do Google YouTube. Pedimoscasas betautorização antes que algo seja carregado, pois eles podem estar utilizando cookies e outras tecnologias. Você pode consultar a políticacasas betusocasas betcookies e os termoscasas betprivacidade do Google YouTube antescasas betconcordar. Para acessar o conteúdo cliquecasas bet"aceitar e continuar".

Alerta: Conteúdocasas betterceiros pode conter publicidade

Finalcasas betYouTube post, 2

Pule YouTube post, 3
Aceita conteúdo do Google YouTube?

Este item inclui conteúdo extraído do Google YouTube. Pedimoscasas betautorização antes que algo seja carregado, pois eles podem estar utilizando cookies e outras tecnologias. Você pode consultar a políticacasas betusocasas betcookies e os termoscasas betprivacidade do Google YouTube antescasas betconcordar. Para acessar o conteúdo cliquecasas bet"aceitar e continuar".

Alerta: Conteúdocasas betterceiros pode conter publicidade

Finalcasas betYouTube post, 3