Algoritmos das rede sociais promovem preconceito e desigualdade, diz matemáticaHarvard:

Algoritmos

Crédito, Getty Images

Legenda da foto, Para Cathy O'Neil, por trás da aparente imparcialidade ddos algoritmos escondem-se critérios nebulosos que agravam injustiças

A obra é recheadaexemplosmodelos matemáticos atuais que ranqueiam o potencialseres humanos como estudantes, trabalhadores, criminosos, eleitores e consumidores. Segundo a autora, por trás da aparente imparcialidade desses sistemas, escondem-se critérios nebulosos que agravam injustiças.

É o caso dos segurosautomóveis nos Estados Unidos. Motoristas que nunca tomaram uma multa sequer, mas que tinham restriçõescrédito por morarembairros pobres, pagavam valores consideravelmente mais altos do que aqueles com facilidadecrédito, mas já condenados por dirigirem embriagados. "Para a seguradora, é um ganha-ganha. Um bom motorista com restriçãocrédito representa um risco baixo e um retorno altíssimo", exemplifica.

Confira abaixo os principais trechos da entrevista:

BBC Brasil - Há séculos pesquisadores analisam dados para entender padrõescomportamento e prever acontecimentos. Qual é novidade trazida pelo Big Data?

Cathy O'Neil - O diferencial do Big Data é a quantidadedados disponíveis. Há uma montanha gigantescadados que se correlacionam e que podem ser garimpados para produzir a chamada "informação incidental". É incidental no sentidoque uma determinada informação não é fornecida diretamente - é uma informação indireta. É por isso que as pessoas que analisam os dados do Twitter podem descobrirqual político eu votaria. Ou descobrir se eu sou gay apenas pela análise dos posts que curto no Facebook, mesmo que eu não diga que sou gay.

Ambientetrabalho automatizado

Crédito, Getty Images

Legenda da foto, 'Essa ideiaque os robôs vão substituir o trabalho humano é muito fatalista. É preciso reagir e mostrar que essa é uma batalha política', diz autora

A questão é que esse processo é cumulativo. Agora que é possível descobrir a orientação sexualuma pessoa a partirseu comportamento nas redes sociais, isso não vai ser "desaprendido". Então, uma das coisas que mais me preocupam é que essas tecnologias só vão ficar melhores com o passar do tempo. Mesmo que as informações venham a ser limitadas - o que eu acho que não vai acontecer - esse acúmuloconhecimento não vai se perder.

BBC Brasil - O principal alerta do seu livro éque os algoritmos não são ferramentas neutras e objetivas. Pelo contrário: eles são enviesados pelas visõesmundoseus programadores e,forma geral, reforçam preconceitos e prejudicam os mais pobres. O sonhoque a internet pudesse tornar o mundo um lugar melhor acabou?

O'Neil - É verdade que a internet fez do mundo um lugar melhoralguns contextos. Mas, se colocarmos numa balança os prós e os contras, o saldo é positivo? É difícil dizer. Dependequem é a pessoa que vai responder. É evidente que há vários problemas. Só que muitos exemplos citados no meu livro, é importante ressaltar, não têm nada a ver com a internet. As prisões feitas pela polícia ou as avaliaçõespersonalidade aplicadasprofessores não têm a ver estritamente com a internet. Não há como evitar que isso seja feito, mesmo que as pessoas evitem usar a internet. Mas isso foi alimentado pela tecnologiaBig Data.

Por exemplo: os testespersonalidadeentrevistasemprego. Antes, as pessoas se candidatavam a uma vaga indo até uma determinada loja que precisavaum funcionário. Mas hoje todo mundo se candidata pela internet. É isso que gera os testespersonalidade. Existe uma quantidade tão grandepessoas se candidatando a vagas que é necessário haver algum filtro.

BBC Brasil - Qual é o futuro do trabalho sob os algoritmos?

O'Neil - Testespersonalidade e programas que filtram currículos são alguns exemploscomo os algoritmos estão afetando o mundo do trabalho. Isso sem mencionar os algoritmos que ficam vigiando as pessoas enquanto elas trabalham, como é o casoprofessores e caminhoneiros. Há um avanço da vigilância. Se as coisas continuarem indo do jeito como estão, isso vai nos transformarrobôs.

Reproduçãopropaganda no Facebook usada para influenciar as eleições nos EUA
Legenda da foto, Reproduçãopropaganda no Facebook usada para influenciar as eleições nos EUA: 'não deveriam ser permitidos anúncios personalizados, customizados', opina autora

Mas eu não quero pensar nisso como um fato inevitável - que os algoritmos vão transformar as pessoasrobôs ou que os robôs vão substituir o trabalho dos seres humanos. Eu não quero admitir isso. Isso é algo que podemos decidir que não vai acontecer. É uma decisão política. Essa ideiaque os robôs vão substituir o trabalho humano é muito fatalista. É preciso reagir e mostrar que essa é uma batalha política. O problema é que estamos tão intimidados pelo avanço dessas tecnologias que sentimos que não há como lutar contra.

BBC Brasil - E no caso das companhiastecnologia como a Uber? Alguns estudiosos usam o termo "gig economy" (economia"bicos") para se referir à organização do trabalho feita por empresas que utilizam algoritmos.

O'Neil - Esse é um ótimo exemplocomo entregamos o poder a essas empresas da gig economy, como se fosse um processo inevitável. Certamente, elas estão se saindo muito bem na tarefaburlar legislações trabalhistas, mas isso não quer dizer que elas deveriam ter permissão para agir dessa maneira. Essas companhias deveriam pagar melhores remunerações e garantir melhores condiçõestrabalho.

No entanto, os movimentos que representam os trabalhadores ainda não conseguiram assimilar as mudanças que estão ocorrendo. Mas essa não é uma questão essencialmente algorítmica. O que deveríamos estar perguntando é: como essas pessoas estão sendo tratadas? E, se elas não estão sendo bem tratadas, deveríamos criar leis para garantir isso.

Eu não estou dizendo que os algoritmos não têm nada a ver com isso - eles têm, sim. É uma forma que essas companhias usam para dizer que elas não podem ser consideradas "chefes" desses trabalhadores. A Uber, por exemplo, diz que os motoristas são autônomos e que o algoritmo é o chefe. Esse é um ótimo exemplocomo nós ainda não entendemos o que se entende por "responsabilidade" no mundo dos algoritmos. Essa é uma questãoque venho trabalhando há algum tempo: que pessoas vão ser responsabilizadas pelos erros dos algoritmos?

BBC Brasil - No livro você argumenta que é possível criar algoritmos para o bem - o principal desafio é garantir transparência. Porém, o segredo do sucessomuitas empresas é justamente mantersegredo o funcionamento dos algoritmos. Como resolver a contradição?

O'Neil - Eu não acho que seja necessária transparência para que um algoritmo seja bom. O que eu preciso saber é se ele funciona bem. Eu precisoindicadoresque ele funciona bem, mas isso não quer dizer que eu necessite conhecer os códigosprogramação desse algoritmo. Os indicadores podem seroutro tipo - é mais uma questãoauditoria do queabertura dos códigos.

A melhor maneiraresolver isso é fazer com que os algoritmos sejam auditados por terceiros. Não é recomendável confiar nas próprias empresas que criaram os algoritmos. Precisaria ser um terceiro, com legitimidade, para determinar se elas estão operandomaneira justa - a partir da definiçãoalguns critériosjustiça - e procedendo dentro da lei.

Cathy O'Neil

Crédito, Divulgação

Legenda da foto, Para Cathy O'Neil, polarização política e fake news só vão parar se "fecharmos o Facebook"

BBC Brasil - Recentemente, você escreveu um artigo para o jornal New York Times defendendo que a comunidade acadêmica participe mais dessa discussão. As universidades poderiam ser esse terceiroque você está falando?

O'Neil - Sim, com certeza. Eu defendo que as universidades sejam o espaço para refletir sobre como construir confiabilidade, sobre como requerer informações para determinar se os algoritmos estão funcionando.

BBC Brasil - Quando vieram a público as revelaçõesEdward Snowdenque o governo americano espionava a vida das pessoas através da internet, muita gente não se surpreendeu. As pessoas parecem dispostas a abrir mão daprivacidadenome da eficiência da vida virtual?

O'Neil - Eu acho que só agora estamos percebendo quais são os verdadeiros custos dessa troca. Com dez anosatraso, estamos percebendo que os serviços gratuitos na internet não são gratuitosmaneira alguma, porque nós fornecemos nossos dados pessoais. Há quem argumente que existe uma troca consentidadados por serviços, mas ninguém faz essa trocaforma realmente consciente - nós fazemos isso sem prestar muita atenção. Além disso, nunca fica claro para nós o que realmente estamos perdendo.

Mas não é pelo fatoa NSA (siglainglês para a AgênciaSegurança Nacional) nos espionar que estamos entendendo os custos dessa troca. Isso tem mais a ver com os empregos que nós arrumamos ou deixamosarrumar. Ou com os benefíciosseguros ecartõescrédito que nós conseguimos ou deixamosconseguir. Mas eu gostaria que isso estivesse muito mais claro.

No nível individual ainda hoje, dez anos depois, as pessoas não se dão conta do que está acontecendo. Mas, como sociedade, estamos começando a entender que fomos enganados por essa troca. E vai ser necessário um tempo para saber como alterar os termos desse acordo.

Aplicativo do Uber

Crédito, EPA

Legenda da foto, 'A Uber, por exemplo, diz que os motoristas são autônomos e que o algoritmo é o chefe. Esse é um ótimo exemplocomo nós ainda não entendemos o que se entende por "responsabilidade" no mundo dos algoritmos', diz O'Neil

BBC Brasil - O último capítulo do seu livro fala sobre a vitória eleitoralDonald Trump e avalia como as pesquisasopinião e as redes sociais influenciaram na corrida à Casa Branca. No ano que vem, as eleições no Brasil devem ser as mais agitadas das últimas três décadas. Que conselho você daria aos brasileiros?

O'Neil - Meu Deus, isso é muito difícil! Está acontecendotodas as partes do mundo. E eu não sei se isso vai parar, a não ser que fechem o Facebook - o que, a propósito, eu sugiro que façamos. Agora, falando sério: as campanhas políticas na internet devem ser permitidas, mas não deveriam ser permitidos anúncios personalizados, customizados - ou seja, todo mundo deveria receber os mesmos anúncios. Eu sei que essa ainda não é uma proposta realista, mas acho que deveríamos pensar grande porque esse problema é grande. E eu não consigo pensaroutra maneiraresolver essa questão.

É claro que isso seria um elementoum conjunto maiormedidas porque nada vai impedir pessoas idiotasacreditar no que elas querem acreditar - epostar sobre isso. Ou seja, nem sempre é um problema do algoritmo. Às vezes, é um problema das pessoas mesmo. O fenômeno das fake news é um exemplo. Os algoritmos pioram a situação, personalizando as propagandas e amplificando o alcance, porém, mesmo que não existisse o algoritmo do Facebook e que as propagandas políticas fossem proibidas na internet, ainda haveria idiotas disseminando fake news que acabariam viralizando nas redes sociais. E eu não sei o que fazer a respeito disso, a não ser fechar as redes sociais.

Eu tenho três filhos, eles têm 17, 15 e 9 anos. Eles não usam redes sociais porque acham que são bobas e eles não acreditamnada do que veem nas redes sociais. Na verdade, eles não acreditammais nada - o que também não é bom. Mas o lado positivo é que eles estão aprendendo a checar informações por conta própria. Então, eles são consumidores muito mais conscientes do que os da minha geração. Eu tenho 45 anos, a minha geração é a pior. As coisas que eu vi as pessoas da minha idade compartilhando após a eleiçãoTrump eram ridículas. Pessoas postando ideias sobre como colocar Hilary Clinton na presidência mesmo sabendo que Trump tinha vencido. Foi ridículo. A esperança é ter uma geraçãopessoas mais espertas.