A “inteligência artificial” continua a lidar mal com a estupidez humana

A “inteligência artificial” continua a lidar mal com a estupidez humana

3 Novembro, 2018 /

Índice do Artigo:

Ambos os casos podem ser obviamente relativizados mas o fundamental é que deixam clara a inércia e dificuldade das tecnológicas para conter discursos ou práticas impróprias para a plataforma mesmo nos países onde concentram a sua actividade.

Na manhã do último sábado um homem entrou numa sinagoga, em Pittsburgh, na Pensilvânia, e disparando indiscriminadamente acabou por matar 11 pessoas. Robert Bowers, o principal suspeito e até agora tido como o autor do crime, terá entrado no espaço religioso gritando frases como “Os judeus têm todos de morrer”. As motivações, por de trás deste seu ataque de loucura — chamemos-lhe assim — foram mais tarde desvendadas, quer por alegadas declarações suas à polícia quer em comentários que havia deixado no serviço online Gab.

Numa série de comentários desde pelo menos 2017, Bowers revelava a sua crença na teoria da conspiração do genocídio branco que propõe que as outras etnias e religiões querem substituir o homem branco e católico.
“Eles estão a matar o nosso povo”, terá dito ao polícia que o deteve.

Apesar de aparentemente descabida e sem grandes bases que a fundamentam, esta teoria é bem conhecida das autoridades que a vêm como uma das linhas de pensamento instigadoras do extremismo branco que se tem instado nos últimos anos. É nesse sentido que se espera que as tecnológicas, nomeadamente as que controlam as redes sociais, se preparem atempadamente para lidar com ela. Contudo, na sequência do massacre, ficou mais uma vez provado que a inteligência artificial ainda não consegue conter a estupidez humana. Em dois casos distintos, Facebook e Twitter revelaram uma inércia preocupante e que deixa a cru as fragilidades da gestão da rede em torno de um discurso saudável.

A questão do Facebook é provavelmente a mais grave. Depois de no ano passado um estudo da ProPublica ter detectado que o Facebook permitia a segmentação de anúncios para pessoas interessadas em termos impróprios como “Jew Hater” (pessoas que odeiam Judeus), o The Intercept decidiu repetir o teste e os resultados não foram melhores. A equipa do media norte-americano conseguiu criar um anúncio direcionado aos “crentes na teoria da conspiração do genocídio branco”, a mesma em que Robert Bowers se inspirara para o hediondo crime.

Não é certo como o Facebook distingue quem crê nestas teorias, uma vez que categorias como esta são criadas automaticamente pelo algoritmo, mas o que é certo é que a estimativa da rede social correspondia a 168 mil pessoas e sugeria de seguida sites associados à extrema direita.

Um dia depois da campanha do The Intercept ser aprovada, o anúncio foi retirado do ar com a justificação a seguir num e-mail automático que dizia que esta não se enquadrava nas políticas da rede social. Mais tarde um porta-voz da rede social— Joe Osborne —corroborou a tese, ainda que deixando em aberto sobre se crentes “genocídio branco” são ou não um segmento válido no mercado de anúncios e anunciantes do Facebook.

Noutro tópico mas na mesma rede social, também a Vice e o Business Insider fizeram anúncios falsos de modo a testar a velocidade de aplicação dos filtros e das políticas obtendo resultados igualmente preocupantes.

Quanto ao Twitter, o caso é menor mas não menos preocupante, e não advém do massacre de Pittsburgh mas antes a um acto de vandalismo ocorrido esta sexta feira em que alguém escreveu “Kill All Jews” numa sinagoga. O evento gerou dezenas de reportagens e comentários com essa mesma expressão que a rede social foi incapaz de garantir que não chegava aos trending topics onde figurou por alguns minutos.

Ambos os casos podem ser obviamente relativizados mas o fundamental é que deixam clara a inércia e dificuldade das tecnológicas para conter discursos ou práticas impróprias para a plataforma mesmo nos países onde concentram a sua actividade e em línguas nas quais têm os seus sistemas altamente treinados.

Autor:
3 Novembro, 2018

O Shifter é uma revista comunitária de pensamento interseccional. O Shifter é uma revista de reflexão e crítica sobre tecnologia, sociedade e cultura, criada em comunidade e apoiada por quem a lê.

Ver todos os artigos
Partilha este artigo:
Recebe os conteúdos do Shifter, semanalmente no teu e-mail.
Partilha este artigo:

Outros artigos de que podes gostar:

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.