Procurar

Qual a aparência da Inteligência Artificial?

Qual a aparência da Inteligência Artificial?

/
17 Julho, 2024 /
Imagem criada pelos artistas Anne Fehres e Luke Conroy com o título "Data is a Mirror of Us". A imagem é uma colagem digital com múltiplas camadas onde um elemento se destaca pela sua repetição: o espelho. Entre os diversos espelhos surgem cabos, processadores e figuras humanas, dando corpo a esta ideia de que os nossos dados digitais, utilizados pela IA, são o nosso reflexo.
Anne Fehres and Luke Conroy & AI4Media / Better Images of AI / Data is a Mirror of Us / CC-BY 4.0

Índice do Artigo:

Ao expandir as nossas representações visuais e discursivas da IA, temos a oportunidade de influenciar positivamente como esta tecnologia será integrada e utilizada no futuro, promovendo um desenvolvimento mais ético e sustentável. Todas as respostas à pergunta do título estarão de alguma forma erradas, o importante é pararmos de errar sempre no mesmo sentido.

Se procurarmos uma resposta para a pergunta de título deste artigo numa pesquisa rápida no Google com as palavras “Inteligência Artificial”, os primeiros resultados do separador “imagens” mostram: um humanóide com ar pensativo, um cérebro em neon, um processador em forma de cérebro, uma rede de conexões a pairar sobre o teclado ou umas mãos humanas e uma mão robótica. Se utilizarmos um modelo de geração de imagem para nos dar resposta à mesma questão, as quatro opções em resposta ao prompt misturam todos estes elementos. 

Captura de ecrã do Microsoft Designer em resposta ao prompt “Artificial Intelligence”

Se quisermos perder mais uns minutos, formos ao motor de busca e alternarmos para o separador “notícias”, as reminiscências de um dos quatro truques de representação da IA surgem de imediato. E se pensarmos nas grandes obras culturais que alteraram a percepção colectiva sobre a tecnologia, podemos estabelecer um espectro desde as temíveis aplicações ao estilo Skynet, de Terminator, e Hal9000, 2001:Odisseia no Espaço (interfaces desprovidos de grande materialidade mas equipados com grandes planos) até Her (a voz de Scarlett Johansson ao serviço de um homem só).

Este exercício facilmente nos dá uma ideia das representações mais frequentes da Inteligência Artificial e, mais do que isso, mostra-nos como na maioria destas representações a estilização se sobrepõe a qualquer tentativa de ilustrar o concreto. A pobreza das representações é evidente, e sublinhada pelo carácter genérico de cada uma das imagens, mas terá isso implicações na forma como nos relacionamos com a tecnologia? A resposta é, obviamente, sim. 

Num ensaio publicado recentemente por Jaron Lanier, o famoso cientista da computação crítico do discurso em torno das novas tecnologias põe a questão de uma forma simples: “precisamos de bonecos para perceber como as tecnologias funcionam”. Como nos diz, uma tecnologia nunca é só uma tecnologia mas também a forma como as pessoas a imaginam. Portanto, refletir sobre como a IA aparece nas nossas mentes é essencial, tanto para entender as contingências futuras quanto para imaginar livremente o futuro.

Pensando sobre as imagens que acabámos de descrever é possível observar duas grandes tendências. A antropomorfização, que consiste na atribuição de características humanas à máquina e em representações como uma hibridização do humano; e a desmaterialização, que se expressa nas ilustrações da IA como algo sem qualquer materialidade, algures entre uma luz e uma voz. É certo que ilustrar conceitos e tecnologias complexas é um exercício condenado ao falhanço (em 2024, os hackers continuam a usar capuz e a programar em binário), e que nenhuma ilustração apelativa será uma representação fiel dos processos internos da máquina, mas isso não nos deve pensar sobre as consequências das imagens mentais que criamos. 

O mito da Antropomorfização

Evocada desde logo na expressão inteligência, e na maioria dos enunciados que reduzem este conceito ambíguo a uma definição do género ‘aquilo que o humano faz’, a relação de reflexo entre o humano e esta tecnologia acompanham-na desde os seus primórdios.

Ainda antes desta tecnologia existir, Alan Turing, um de seus precursores, sugeriu que, devido à dificuldade de definir a palavra ‘pensar’, a inteligência deveria ser atribuída às máquinas capazes de se fazer passar por humanos, naquilo a que chamou ‘O Jogo da Imitação’. Este exercício acabou por se tornar uma referência na área, embora visto com algum cepticismo pelos especialistas, e por ser assimilado no mainstream como o Teste de Turing, contribuindo para consolidar a ideia de que a tecnologia é tanto mais inteligente quanto mais se confundir com um humano.

Por outro lado, no campo da investigação, foi inspirado no que era conhecido do funcionamento em rede dos neurónios humanos que Frank Rosenblatt criou o Perceptron. O aparelho que ficou conhecido como a primeira rede neuronal não tinha as capacidades que testemunhamos hoje, mas já na altura foi anunciado como “uma máquina que sente, reconhece, lembra-se e responde como a mente humana.”. Esta metáfora usada pelos criadores foi sendo absorvida acriticamente e assim se foi criando outra sobreposição na relação humano-máquina, capaz de gerar grande confusão. 

O mais icónico dos exemplos desta confusão decorreu ainda nos anos 60, quando Joseph Weizenbaum criou um modelo chamado Eliza. Programado para simular um psiquiatra, a aplicação convenceu um grupo alargado de profissionais de que o seu emprego tinha os dias contados, fez com que a secretária de Weizenbaum lhe pedisse um tempo a sós com o computador e com que alguns dos seus pares sobrevalorizassem o potencial de evolução da IA. Perante estas reações, Weizenbaum revelou, uma década mais tarde, a sua preocupação. Em Computer Power and Human Reason: From Judgment to Calculation (1976), o cientista reflete sobre a nossa tendência para sobreavaliar as máquinas projetando características humanas e, simultaneamente, sobre o impacto que isso pode ter na forma como nos vemos a nós próprios. 

Desde então, as redes neuronais evoluíram muito, embora não necessariamente no sentido de replicar a biologia humana, e o Teste de Turing provou repetidamente a sua falibilidade como instrumento de avaliação da tecnologia. Mas nem por isso a relação fundamental que representam se modificou. Se a lição de Weizenbaum podia servir para ponderar as reações à inovação, a massificação dos modelos de linguagem e a antropomorfização (figurativa e discursiva) da IA no espaço público multiplicou o efeito Eliza por milhões.

Avatar utilizado no chatbot da Administração Pública

Actualmente, não só as potenciais consequências da confusão são frequentemente ignoradas, como a antropomorfização é constantemente reforçada. Seja nas subidas ao palco do Web Summit da Sophia, a cidadã da Arábia Saudita, seja em implementações de chatbots como o do Administração Pública portuguesa, acompanhada com um avatar humano no mínimo bizarro; ou no discurso público que repetidamente recorre ao teste de Turing para de forma leviana afirmar com certeza que as máquinas pensam e coisas do género. 

Estas escolhas têm várias implicações. Perpetuam estereótipos, por exemplo quando que se associa repetidamente a figura da mulher ao papel de assistência – da Siri à Scarlett, os exemplos são mais que muitos; geram uma falsa ideia em torno da tecnologia, que se traduz na expectativa de que a tecnologia demonstre comportamentos aparentemente humanos para que seja considerado IA; limitam a nossa capacidade de imaginar outras utilizações da IA que sejam inteligentes noutro sentido qualquer que não o de imitar humanos. E, ao mesmo tempo, moldam a forma como olhamos para nós mesmos através do significado da inteligência. 

Num estudo recente, levado a cabo nos Estados Unidos da América, mais de metade dos inquiridos afirmaram que o ChatGPT tinha algum tipo de consciência. Esta percepção que vai contra a opinião dos especialistas, quer nas ciências da mente, quer nas ciências dos dados, mostra o poder da linguagem na criação desta ilusão. E sublinha a importância de divergir da figura humana as representações da Inteligência Artificial, e quebrar este ciclo de auto-referencialidade que tem como único referente concreto o humano – com tudo o que este ainda tem de subjectivo e misterioso. 

Ao olharmos para esta nova forma de inteligência, corremos a traçar correspondências entre as suas capacidades e as nossas, perdendo uma oportunidade única de, por comparação, compreender melhor o que significa esse conceito e qual o seu papel nas nossas sociedades. Pegando nas palavras do filósofo Benjamin Bratton no seu mais recente ensaio sobre IA: “A inteligência avançada das máquinas não sugere a nossa extinção, nem como uma abdicação nobre nem como insectos a gritar para o vazio. (…) Significa, no entanto, que a inteligência humana não é o que a inteligência humana pensava que era durante todo este tempo.” mas enquanto insistirmos em ver nela o nosso reflexo, dificilmente abandonaremos este impasse. 

A cultura da desmaterialização

Se a antropomorfização traz consigo uma série de questões até do foro filosófico, impactando a forma como vemos o papel da inteligência no mundo e conduzindo-nos a uma visão reducionista e instrumental, a desmaterialização das representações da Inteligência Artificial não tem um impacto menor. Na verdade, ambos os fenómenos podem ser vistos como sintomas da mesma doença. 

Enquanto uma se refere à concepção humanizada, outra refere-se à representação de sistemas complexos como algo imaterial, etéreo, sem qualquer forma física ou tangibilidade. E se isso se explica pelo facto de a Inteligência Artificial ser, no fundo, um conjunto de algoritmos, códigos e funções matemáticas com um aspecto muito pouco apelativo, acaba por ocultar a dimensão material que sustenta todos estes processos que, por sua vez, têm uma presença física assinalável e crescente e um custo energético comparável, por exemplo, às criptomoedas. 

Para termos uma ideia, cada pedido ao ChatGPT representa um custo energético 10x superior a uma pesquisa no Google, imaginar sucessivas interações, e conversas infinitas sobre coisa nenhuma, permitem-nos imaginar por inferência a escala que o problema pode tomar. A Agência Internacional de Energia estima que em 2026 a Inteligência Artificial consuma tanta energia como o Japão. Numa investigação recente da Bloomberg sobre este consumo e a ocupação de espaço das infraestruturas que alimentam a IA, percebemos o ritmo desta evolução. Mas as relações materiais em torno da tecnologia não se ficam por aí. Não é só o consumo energético que implica a queima de combustíveis fósseis ou grandes espaços dedicados à produção de energia renovável. Também a necessidade de processadores de última geração, a concentração massiva de dados e o envolvimento de humanos no processo são relações materiais que se escondem. 

Como se víssemos um mágico a fazer aparecer moedas e acreditássemos mesmo no truque, olhamos para os outputs da Inteligência Artificial e esquecemos todas relações em que esta assenta: uma complexa rede de relações entre pessoas, processos e matérias primas, como nos revelam os trabalhos Anatomy of an AI System e Calculating Empires, de Kate Crawford e Vladan Joler, que carregam consigo um lastro histórico e político incontornável.

Como lembra o filósofo italiano Matteo Pasquinelli, em The Eye of the Master: A Social History of Artificial Intelligence, em referência à criação de Charles Babbage, conhecido como o pai da computação digital,  “[p]ara fazer com que as máquinas parecessem inteligentes, era necessário tornar invisíveis as fontes do seu poder, a força de trabalho que as rodeava e dirigia”. Assim, esta tendência de desmaterialização, a IA herda não tanto da sua genealogia – até porque o tamanho do Perceptron a tornava difícil de esconder – mas sobretudo do discurso em torno da internet e da digitalização. Um discurso marcado por representações fantasiosas e pela omissão de elementos fundamentais, desde os cabos submarinos que atravessam o mundo até aos massivos datacenters, que dificultam a compreensão crítica da tecnologia e a sua politização. 

A desmaterialização impacta não só pelo que esconde, mas também pela forma como deixa a visão sobre a tecnologia à mercê dos discursos que a envolvem, muitos deles concebidos pelos departamentos de marketing que têm como interesse maximizar as utilizações e subscrições – tendo consequências desde a nossa relação individual com a tecnologia até à definição de políticas. Desde o uso irresponsável do ChatGPT até à falta de pensamento e discussão sobre toda a política que envolve o software, que se exprime, por exemplo, na pressa do estado português em lançar uma série de chatbots – na sua maioria recorrendo a parcerias com a Microsoft sem que tenha havido um debate sobre a gestão de recursos e investimentos, e o posicionamento que queremos assumir nesta alegada revolução.

Como escreve num artigo publicado na revista Electra, o sociólogo Vania Baldi, “[t]alvez a primeira urgência à qual somos convocados pela propagação e pelo desenvolvimento da IA corresponda à oportunidade de termos de definir, antes, o tipo de sociedade que se pretende construir aproveitando este processo de re-ontologização computacional” mas, para isso, “é necessário entender o que podemos realmente esperar dela, uma vez que os seus sistemas automatizados não devem criar ilusões sobre a sua autonomia e não devem ser confundidos com capacidades de autogestão”

Há melhores imagens para a IA?

As pobres representações da IA não só não permitem olhar para a tecnologia como é, como não permitem ver todas as suas contingências e aplicações. E fazem com que o reconhecimento do que é de facto Inteligência Artificial se vá convenientemente alterando. Este mover da fasquia que ficou conhecido como AI Effect é hoje mais evidente que nunca, na medida em que a subida de popularidade do ChatGPT ou outros modelos conversacionais, criou uma sombra a pairar sobre todas as outras aplicações da Inteligência Artificial. Desde os usos quotidianos – nos motores de busca, nos feeds das redes sociais, até nas câmaras dos nossos telemóveis – até aos usos críticos, como em ambiente militar, onde algoritmos são utilizados para reconhecer alvos, todas estas aplicações vão perdendo protagonismo como representantes do que é a IA. 

Com isto, perde-se também a capacidade de traçar uma genealogia que nos permita perceber como surge e como se enquadra no grande esquema das coisas cada uma das iterações da IA. E cria-se mais espaço para o triunfo de narrativas sobre o génio individual e mitos de criação com um teor quase religioso, do que para compreender os processos que são automatizados e como. E explorar a partir daí como enquanto sociedade poderíamos beneficiar dessas operações concretas.

Este problema não tem passado indiferente. Nem à sociedade civil, de onde nasceram projectos como o Better Images of AI, onde podemos encontrar um guia para a ilustração da IA e um banco de imagens para utilização gratuita, disponibilizadas por diversos artistas. Nem às próprias empresas, como a Google, que, com objetivos bem diferentes (mostrar a diversidade das suas investigações), contratou uma série de artistas para ilustrar alguma das vertentes da sua investigação e disponibilizou todas essas imagens gratuitamente. Uma dessas imagens, escolhida para capa da nossa última revista, foi criada pela portuguesa Nidia Dias, que numa conversa com o Shifter partilhou a sua perspectiva sobre a importância e os desafios de ilustrar a IA. 

Na sua opinião, uma das maiores tentações é deixar as representações de IA serem influenciadas pelos filmes de ficção científica, “o que tende a vincar uma visão mais negativa da IA”. “O desafio mais significativo ao ilustrar estes temas reside na capacidade de desdobrar conceitos relativamente complexos em ilustrações simplificadas e de fácil compreensão”, acrescenta.

A si, numa lista recheada de artistas trabalhando nos mais diversos estilos, tocou-lhe o desafio de ilustrar a sustentabilidade, o conceito de Inteligência Artificial Geral e, mais tarde, um projecto sobre o genoma e biodiversidade. E, como conta ao Shifter, o projecto permitiu-lhe estar próxima de investigadores e perceber diferentes utilizações para a IA, como no caso da biodiversidade onde a tecnologia serve para processar horas e horas de vídeo identificando espécies que aparecem na imagem. Um exemplo claro de como mesmo que as ilustrações não contem toda a história da IA, podem ajudar a completá-la e a fugir aos estereótipos. 

No fundo, refletir sobre as imagens e metáforas que utilizamos para representar a IA não é apenas um preciosismo, mas uma necessidade cultural e social. Somente com uma compreensão mais clara e honesta podemos orientar a evolução da tecnologia de forma que beneficie a todos, evitando os riscos de uma visão distorcida e limitada. Expandir as nossas representações visuais e discursivas da IA, dá-nos a oportunidade de influenciar positivamente como esta tecnologia é integrada e utilizada no presente e no futuro, promovendo um desenvolvimento mais ético e politicamente responsável.

É claro que todas as respostas à pergunta do título estarão de alguma forma erradas, o importante é pararmos de errar sempre no mesmo sentido.

Autor:
17 Julho, 2024

O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Ver todos os artigos
Partilha este artigo:
Recebe os conteúdos do Shifter, semanalmente no teu e-mail.

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.