Procurar

Inteligência Artificial, indignação viral e o conflito real

Recorte da imagem gerada em IA, que se tornou viral, com o texto 'All Eyes on Rafah'

Inteligência Artificial, indignação viral e o conflito real

A democracia precisa de quem pare para pensar.

Num ambiente mediático demasiado rápido e confuso, onde a reação imediata marca a ordem dos dias, o Shifter é uma publicação diferente. Se gostas do que fazemos subscreve a partir de 2€ e contribui para que tanto tu como quem não pode fazê-lo tenha acesso a conteúdo de qualidade e profundidade.

O teu contributo faz toda a diferença. Sabe mais aqui.

Uma imagem gerada por IA tornou-se no maior viral desde que começou a operação militar de Israel em Gaza. Se as intenções de cada partilha não são mensuráveis e as consequências se diluem no tempo, o momento é um pretexto interessante para reflectir sobre o que este coro de partilhas nos diz sobre a mediatização digital do conflito, e falar mais uma vez sobre a perversa utilização da Inteligência Artificial no terreno.

Na última semana de Maio, Rafah foi alvo de mais um violento ataque por parte do exército israelita. O ataque mereceu a condenação de diversos estados, um pouco por todo o mundo, que acusaram o governo israelita, mais uma vez, de desproporcionalidade na ofensiva e de não procurar salvaguardar a vida de civis. Perante as condenações, Netanyahu veio a público dizer que o incêndio que deflagrou num dos campos de refugiados, matando 45 pessoas, e gerando algumas das imagens mais brutais, foi um “trágico acidente que não devia ter acontecido”. 

Ao mesmo tempo, pelas redes sociais, o silêncio (muitas vezes ensurdecedor) em torno do que se vai passando nos territórios da Palestina, foi-se quebrando. Para além daqueles que habitualmente vão falando sobre o assunto, uma imagem onde se lia “All Eyes on Rafah” — obviamente criada com Inteligência Artificial — tornou-se viral. Nesta imagem vemos aquilo que parece ser um campo de refugiados se fosse imaginado por um realizador, com tendas milimetricamente alinhadas compondo simetrias perfeitas, e trabalhado para ser fundo de cartaz de um qualquer blockbuster hollywoodesco – incluindo uma referência ao autor no fundo da composição. 

Se as intenções de cada partilha não são mensuráveis e as consequências da partilha se diluem no tempo, o momento é um pretexto interessante para reflectir sobre o que este coro de partilhas nos diz sobre a mediatização digital do conflito, e falar mais uma vez sobre a perversa utilização da Inteligência Artificial no terreno. Comecemos por aí. 

Tecnologia como arma de desresponsabilização

“A dependência de Israel de produtos tecnológicos civis para levar a cabo as suas operações letais está em contradição com muitas das políticas e termos de utilização emitidos pelas empresas com as quais colaboram.” “Why human agency is still central to Israel’s AI-powered warfare” em +972 Mag.

Imaginar os limites éticos de uma tecnologia é um exercício difícil, de estabelecimento de limites. Mais difícil ainda quando sob um conceito como o de Inteligência Artificial cabe uma grande variedade de diferentes tecnologias que simplesmente desistimos de nomear. Se para imaginar uma pistola ética podemos simplesmente propor que seja incapaz de disparar – num exemplo quase infantil -, pensar o que há de ético ou não-ético na Inteligência Artificial leva-nos até um conjunto de questões de outra amplitude.

Apesar da inundação de tecnologia no nosso quotidiano ofuscar essa relação, a verdade é que hoje, tal como noutros momentos da história, o desenvolvimento tecnológico está intimamente ligado às grandes questões do mundo – e aos grandes conflitos. No caso do conflito entre Israel e a Palestina, a sua relação com as grandes tecnológicas ou a Inteligência Artificial é evidente. Não só o exército israelita recorre a modelos de Inteligência Artificial criados especificamente com propósito militar, como utiliza tecnologias correntes, como a computação na cloud, armazenamento ou similar, para operar todo o seu arsenal. Com isto crescem relações entre as empresas que providenciam alguns dos serviços digitais mais populares, que não passam sem gerar controvérsia. 

Em 2018, milhares de trabalhadores da Google – entre eles alguns destacados investigadores em IA – endereçaram uma carta a Sundar Pichai dizendo que a empresa “não deveria entrar na indústria da guerra”, dando início a um importante debate que entretanto se perdeu. Em causa estava o projecto Maven, uma colaboração entre a Google e o Departamento de Defesa dos Estados Unidos para o desenvolvimento de um sistema de vigilância com Inteligência Artificial. A empresa reagiu, numa primeira instância da polémica, dizendo que o sistema não pilotaria drones, nem lançaria armas, afirmando que o seu envolvimento não teria propósitos letais. Mas os empregados responderam numa carta com mais de 4 mil assinaturas, mantendo firme a sua recusa em colaborar em qualquer tipo de aplicação militar, e exigindo que a empresa definisse uma política clara que garantisse que nunca criaria equipamentos de guerra. Isso fez com que a Google acabasse por cancelar esse contrato, mas engana-se quem acha que este caso serviu de lição.

Cerca de 3 anos depois, a Google voltou a demonstrar a intenção de trabalhar não só com o Pentágono, mas também com o governo Israelita. Numa parceria conjunta com a Amazon, a Google assinou com este último um acordo de 1,2 mil milhões de dólares para providencia computação na cloud e o acesso a uma vasta gama de ferramentas de Inteligência Artificial com propósitos variados como monitorização de objectos ou reconhecimento facial — peças fáceis de encaixar na teia de vigilância que conhecemos. É contra esse contrato que os trabalhadores da Google recentemente se têm feito ouvir – como nos testemunhos que podemos ler no site No Tech for Apartheid. A empresa rejeita mais uma vez a relação directa com tecnologias letais mas a ambiguidade do objecto dos contratos deixa margem para dúvidas. 

Mas o fenómeno não se cinge à Google, que serve neste caso apenas como um exemplo pela sua prevalência no nosso quotidiano. E a ideia nem é apontar para as empresas mas para as tecnologias, e a forma como os usos se dissimulam. Mais recentemente, vale a pena referir que a OpenAI deixou cair dos seus termos e condições a proibição de usos militares (benefício de toda a humanidade, prometeram em tempos), bem como a revelação feita pelo jornalista Jack Poulson de que a Microsoft terá promovido potenciais usos das aplicações como o Dall-E ao Departamento de Defesa dos Estados Unidos, mesmo antes desta mudança. 

Voltando a Gaza e às relações com o governo israelita, é preciso perceber que os investimentos em infraestrutura permitem um desenvolvimento exponencial. Os serviços de inteligência de Israel têm assim capacidade para desenvolver as suas próprias aplicações de Inteligência Artificial, nomeadamente em unidades como a Unit 8200. E a sua visão sobre o papel que a IA pode ter é, de alguma forma, expressa no livro The Human Machine Team que, soube-se recentemente, foi escrito pelo seu actual líder. No livro, o autor, então anónimo, descreve a oportunidade de desenvolver um sistema capaz de identificar alvos durante uma guerra. É essa visão que dá corpo ao projecto  Lavender e Where’s Daddy?, ferramentas de Inteligência Artificial que ajudam a compor o arsenal de guerra e que mascaram com uma falsa objectividade tecnológica as acções desumanas de um estado de direito. Israel não está a usar armas completamente automatizadas, mas a recorrer a tecnologia para aumentar exponencialmente a sua capacidade de identificar potenciais alvos – com recurso a IA consegue listar tantos num dia como um humano conseguiria identificar num ano. 

O projecto Lavender, como explicam os media israelitas +972 e Local Call, colecta informações sobre a população de Gaza, classifica as pessoas pela probabilidade calculada de serem afiliadas do Hamas, e constitui listas de pessoas a serem bombardeadas. Já o Where’s Daddy? acompanha em tempo real indivíduos que constem da lista de alvos do exército israelita para que os possam bombardear quando chegam às suas casas. Ambos chegam para percebermos como estas tecnologias são usadas para fazer os cálculos da guerra; isto é, substituir a presença, a intermediação e a responsabilidade humana por aparelhos tecnológicos e cálculos de probabilidades. E como a IA serve como uma espécie de manto. Que tal como os nomes de código, a linguagem abstracta e os contratos secretos tornam quase impossível rastrear as responsabilidades no terreno e perceber onde começa e acaba cada projecto, quem deve ser responsável por eles, e quais os limites da sua utilização. 
A distância entre a inteligência utilizada na guerra e a que utilizamos para gerar imagens e textos a metro é grande –  não haja dúvida disso, embora a Microsoft tenha sugerido, como vimos, usos do Dall-E em contexto militar. A ideia deste ensaio não é eliminar essa distância, nem propagar preconceitos sobre a tecnologia. Pelo contrário, é preencher o espaço vazio entre os nossos usos quotidianos e os usos que mudam o mundo com a substância que o compõe, as complexas relações sociais, financeiras, políticas, mas também culturais. Para que percebamos que os modelos de desenvolvimento que nos envolvem e modelam, também ecoam nos principais conflitos dos nossos tempos.

Moderação Artificial

«É claro, quem disse que a verdade vos libertará? Esta verdade fará parecer mentira qualquer outra revelação. No fundo, a BBC prestou-lhes um óptimo serviço. A partir de amanhã podes andar por aí a dizer que o Papa degola crianças e que depois as come, ou que foi Madre Teresa de Calcutá que pôs a bomba no Italicus, que as pessoas dirão: ‘Ah, sim? Curioso’, virar-se-ão para o outro lado e continuarão a tratar dos seus assuntos.” – Umberto Eco em Número Zero

Costuma dizer-se que, na guerra, uma das primeiras vítimas é a verdade. Em tempos de Inteligência Artificial, de deep fakes e de fake news, este clichê ganha ainda mais sentido. Como fomos assistindo ao longo dos últimos meses, são centenas as instâncias em que informações são mal veiculadas, imagens são retiradas do contexto, e a veracidade dos retratos dá azo a discussões intermináveis. E nem mesmo profissionais, media, e instituições são imunes a este fenómeno. 

Como registam as threads de verificação de factos (por exemplo as do português Luís Galrão), com a proliferação das imagens sobre os diversos conflitos, e o colapso dos contextos em que estas imagens circulam, embora haja cada vez mais tecnologia que permita a correcta identificação, a relação entre as imagens e a realidade parece cada vez mais ténue. Atravessamos uma espécie de psicose colectiva, onde é cada vez mais difícil sabermos no que acreditar, resistir à crueldade do que vamos vendo, e especialmente completar o puzzle mental e saber onde encaixar cada imagem. E onde a moderação artificial desempenha um papel fundamental. 

Com as redes geridas essencialmente por algoritmos que avaliam e determinam se cada conteúdo deve ou não aparecer no feed de outrem, as regras de governança do espaço público alteraram-se profundamente. E, com isso, altera-se também a nossa forma de participação. Hoje a publicação de uma imagem nas redes sociais não obedece só a critérios expressivos ou informativos, mas também a uma espécie de estratégia de captação da atenção. Sabemos que uma má fotografia – ou de que o algoritmo não goste – nos pode valer um corte no alcance, e deixar-nos a falar sozinhos. E assim transformamos a nossa participação digital numa espécie de jogo em que somos constantemente obrigados a procurar o ponto entre o que queremos e devemos dizer, sem que necessariamente tenhamos consciência disso. A viralização da tal imagem que motivou este ensaio, com as suas 47 milhões de partilhas, é um excelente exemplo disso. 

Criada por combinações probabilísticas, isto é, combinando outras imagens de acordo com a sua prevalência estatística nos dados de treino, é importante termos em consideração que estas imagens não são um retrato da realidade. Ou melhor, são retratos de uma outra realidade; não a que se passa no terreno ou em Gaza, mas a realidade dos dados que produzimos no passado. Se quisermos, estas imagens reflectem mais o passado que nos fez chegar a este lugar do que qualquer realidade factual que represente o presente. Um passado que foi relevante para uma comunidade online predominantemente ocidental, masculina e branca. Como uma memória (digital) incapaz de incorporar o que vai para lá do hegemónico, reproduzida por um sistema programado para ser politicamente correcto aos olhos do público ocidental – que replicamos acriticamente perpetuando estas formas de censura da realidade que é a síntese probabilística e a moderação automatizada. 

No confronto entre o grotesco de algumas imagens e o palatável de outras, o critério de validação das imagens deixa de ser a sua relação com os factos que retratam e passa a ser a sua adequabilidade às plataformas onde circulam. E, sem nos apercebermos, este fenómeno empobrece a discussão como uma espécie de censura. A dificuldade de circulação de informação real, das vozes locais, das análises que mostram a profundidade do conflito é contornada, não pela rejeição das plataformas que limitam o discurso e a mobilização em torno de outras, mas pela partilha de uma imagem inofensiva, superficial, onde o conflito aparece tão higienizado que não conseguimos ver uma só pessoa. E tudo parece tão distante e irreal como o próximo blockbuster

À medida que a tecnologia evolui, se complexifica, e que a linguagem em seu torno se abstrai tornando difícil compreender o que é a tecnologia na realidade e quais as relações que lhe estão subjacentes, no campo da cultura visual e da produção tecnológica de imagens o fenómeno parece ter paralelo. Por um lado, as tecnologias escondem-se atrás de palavras difíceis, abstratas e com um sentido ambíguo. Por outro, as imagens adequam-se aos algoritmos, numa espécie de seleção artificial onde a expressão da dissidência é altamente controlada.  E os efeitos do empobrecimento do espaço público são evidentes.

Imagens Incovenientes


“Sentimo-nos pressionados a dizer que gostaríamos de ler ou ver, ou mesmo que preferiríamos ler ou ver, em vez de copiar ou gravar, mas sentimos igualmente que as circunstâncias nos impedem de o fazer. Falta-nos tempo, oportunidade ou paz de espírito. Mas, em vez de simplesmente ler ou não ler, ver ou não ver, escolhemos uma terceira via, bastante evasiva: adiamos provisoriamente – ou, de certa forma, ‘sublimamos’ – os nossos planos propostos.”
“Interpassivity revisited: a critical and historical reappraisal of interpassive phenomena” em The International Journal of Zizek Studies

Num reel partilhado na mesma plataforma onde tem circulado a imagem, Salma Shawa, jovem palestiniana que tem produzido muito conteúdo sobre o decurso do conflito, reflecte sobre como essa partilha é em si mesma uma cedência à linguagem do opressor, resumindo o problema numa questão simples: quão irónico é dizer que temos os olhos em Gaza se a imagem que partilhamos é uma recriação artificial e romantizada do que se passa na realidade? – Estaremos a olhar realmente para a Gaza? Ou a desviar o olho convenientemente? A resposta pode não ser tão simples como a pergunta, e a repetição do fenómeno alimenta a necessidade do debate. Afinal de contas, e como lembra Selma, este momento é em tudo reminiscente do movimento de solidariedade em torno do movimento Black Lives Matter que inundou o Instagram com uma das expressões mais literais de solidariedade de que há memória – a publicação de um simples quadrado preto. 

Com a partilha quase automatizada pelo tal botão do Instagram, a partilha destas imagens cumpre a função de marcar ponto nesta discussão, sem qualquer sacríficio – nem do alcance no Instagram para publicar a próxima fotografia – criando uma sensação de que é, ou pode ser fácil, solidarizar-mo-nos com o que vamos assistindo; mas, em última análise, essa é a principal perversidade. Convictos de que estamos a fazer algo ao clicar num botão, não assumimos a dificuldade deste debate. Basicamente, mantemos os olhos em Rafah até fazermos scroll.

Este fenómeno é análogo àquilo que Zizek e Robert Pfaller chamaram de Interpassividade, numa tentativa de explicar as novas formas de relação entre as pessoas e a arte. Como os livros que apontamos ou compramos para nunca ler, os filmes que gravamos para nunca ver, os discos que pomos a rodar e nos esquecemos de ouvir, e todos os objectos culturais por que mostramos interesse, e pouco mais fazemos para deles usufruir do que apontar o seu nome, esta imagem afirma um olhar que não tem realmente de existir. Como se a afirmação da acção fosse em si mesma a acção. 

É certo que no meio das cerca de 40 milhões de partilhas que a imagem atingiu, muitos e muito diversos terão sido os motivos que levaram a cada partilha. Mas para olhar aos efeitos sistémicos devemos ver o fenómeno em toda a sua amplitude, olhando ao papel da própria plataforma. Não terá o Instagram deixado esta imagem tornar-se viral precisamente para sinalizar uma intenção pela qual pouco está disposto a fazer? 

A concepção probabilística e a natureza artificial da imagem, que a tornam adequada aos algoritmos e uma partilha apetecível, também a tornariam adequada aos discursos políticos que procuram entreter a opinião pública se envolver na realidade de facto Não há nada nesta imagem artificial que nos faça questionar directamente alguma dimensão do conflito porque, em abono da verdade, esta nada transmite sobre ele. Nem tão pouco ajuda a re-estabelecer o elo de ligação com a frase (“All Eyes on Rafah”) e o momento em que se tornou icónica, quando proferida por um médico que pedia atenção sobre o conflito 3 meses antes, em Fevereiro. 

Esta imagem serve, portanto, mais como uma caricatura do conflito, do que como evidência que nos obrigue a encarar ou relacionar novos factos. Nela não existe nada que contribua realmente para o debate, que se dá sobretudo no campo das palavras (com que se escrevem leis, se discutem relações diplomáticas ou se definem genocídios), mas antes uma espécie de redução da multiplicidade do discurso a um momento de votação online, onde os votos são partilhas (e o único vencedor é a rede social onde estas se dão) porque não temos tempo, cabeça ou disposição para mais. Não há dúvidas das boas intenções, mas não será também importante pensar nos seus efeitos? E para além disso, se o problema é de visão e de alcance ou de interpretação e consenso.

Índice

  • João Gabriel Ribeiro

    O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.