“Não me envolverei mais em discussões filosóficas sobre IA consciente, e esta é a razão”

Giada Pistilli, especialista em ética aplicada a sistemas de conversação com IA, não precisou de mais de 11 de tweets para expôr a sua desilusão com o debate em torno da tecnologia, abordando a famigerada discussão sobre IA consciente.
6 minutos de leitura
Post Author
  • O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Ilustração Decorativa sobre IA consciente via Unsplash
Ilustração via Unsplash

Foi com a citação que serve de título a este artigo que Giada Pistilli começou uma série de tweets sobre as discussões em torno da Inteligência Artificial, que se viria a tornar viral e a acolher a concordância de nomes sonantes neste domínio, como Timnit Gebru ou Emily Bender. Giada, mestre em Filosofia Política e Ética pela Universidade de Sorbonne, especialista em ética aplicada a sistemas de conversação com I.A., actual principal responsável de ética da Hugging Face, não precisou de mais de 11 de tweets para expôr a sua desilusão com a dessincronia entre o debate e o desenvolvimento de Inteligência Artificial (I.A.). 

Este posicionamento acabaria diluído na onda mediática que se criou com a sugestão do engenheiro da Google de que a I.A. havia ganho consciência — até Gebru, que foi despedida do seu cargo de líder de ética de I.A. da Google em 2020, retweetou a sequência dizendo que a devia ter lido mais cedo. Mas o seu contributo para a reflexão é indispensável e, em certa medida, urgente. Em entrevista ao Shifter, Giada Pistilli deu continuidade à sua crítica ao status quo numa reflexão que se lê como apelo ou convite para uma nova forma de integrar na sociedade a Inteligência Artificial, sem o deslumbramento e a excitação que atualmente predominam. 

O fascínio e a antropomorfização

Foi pelo deslumbramento e a excitação, as fantasias e falsidades a que se referia na sua sequência de tweets, que a conversa começou. Recordando os seus anos de trabalho e investigação, Giada começou por partilhar como muitas das histórias sobre a I.A. têm tanto de artificial como a própria tecnologia. “Nos últimos anos, infelizmente, tenho descoberto que os lucros insuflam muitas histórias em torno da Inteligência Artificial. Muitas vezes as empresas vendem produtos como sendo I.A. quando, na verdade, não são mais do que simples algoritmos” — diz-nos, levantando a cortina sobre uma realidade tantas vezes oculta — “muitos processos vendidos como automatizados [que] são na verdade cliques manuais de trabalhadores precários: vejam os ‘click farmers‘”.

Giada Pistilli / DR

Giada alerta quer para o exagero em torno da promessa da Inteligência Artificial, quer para a dissimulação da importância dos humanos em todo este processo, dois pontos fundamentais para um entendimento crítico da tecnologia que parecem cada vez mais preteridos da conversa em prol de uma visão mágica das capacidades da máquina. “Quando comecei a examinar e estudar a interacção humano-máquina, descobri que muitos investigadores estavam a utilizar a experiência do Feiticeiro de Oz, fazendo o utilizador acreditar que está a interagir com uma máquina autónoma quando um humano se esconde atrás do ecrã; e que muitos chatbots e assistentes virtuais não são autónomos, mas escritos e supervisionados por humanos”, prossegue. E  recuando ainda mais na sua experiência pessoal, dá exemplos de como se propaga a confusão: “Eu já fui um dessas pessoas por de trás de um chatbot e nunca alguém questionou a minha moralidade como uma pessoa real a ter de lidar com conteúdo tóxico dos utilizadores”. 

Para a Giada este equívoco não é novo: “[O] fascínio por detrás da possibilidade de desenvolver inteligência artificial capaz de competir com os seres humanos tem feito parte das medidas da empresa há alguns anos” e a “antropomorfização deste domínio científico ajudou a incrementar esta percepção”. O aparentemente simples uso de termos como “inteligência”, “intenções” ou “capacidades” representa, no seu entendimento, uma escolha linguística que outrora apenas concedíamos a seres humanos e animais e faz parte da herança histórica de Alan Turing — o britânico foi um dos primeiros a fazer avanços na área e autor de “Maquinaria Informática e Inteligência” um artigo seminal sobre Inteligência Artificial. 

“De um ponto de vista ético, não declarar que se está a falar com um chatbot e não com um ser humano pode ser perigoso. (…) E quando os chatbots são confundidos com humanos, são criadas expectativas que não suportam comparações e correm o risco de alimentar emoções de utilizadores que não podem ser satisfeitas.”

As consequências no desenvolvimento 

“Não preciso de ser eu a explicar a um jornalista como é muito mais sensacional fazer uma declaração dizendo que a IA se tornou consciente, em vez de falar de questões aborrecidas como a amplificação dos problemas sociais existentes” — ironiza a eticista reflectindo sobre uma das últimas ondas de entusiasmo mediático em torno da Inteligência artificial.

“É muito mais fácil e mais apelativo explicar ao “público em geral” que uma I.A. está consciente do que mostrar, por exemplo, como as línguas minoritárias estão sub-representadas na construção de Grandes Modelos de Linguisticos (em inglês, Large Language Models ou LLM).”, continua, aproveitando o pretexto para um exemplo concreto e bastante menosprezado num universo de desenvolvimento que usa o inglês por defeito. 

“Como já dizia na minha thread, alimentar este tipo de sensacionalismo prejudica a investigação à sua volta e atira gasolina sobre o medo irracional que o público tem da I.A.”. E se esse pânico leva o debate por caminhos pouco produtivos, afasta-o de importantes pontos, como os problemas provocados pelos sistemas vigentes e fortemente debatidos em pequenos nichos — da amplificação de viés racistas ou machistas ao elevado custo energético do desenvolvimento. Ecoando uma ideia também partilhada por Timnit Gebru na sua conta de twitter pessoal, Giada Pistilli alerta para a forma como os ciclos de entusiasmo, e a produção da indústria, condicionam o seu trabalho enquanto investigadora: “há já duas semanas que, em vez de investigar o que considero importante, dou por mim a falar de ‘inteligência artificial consciente’ e a limpar a confusão causada por indivíduos específicos.”

“Há muito misticismo e ideologia misturados com falta de conhecimentos técnicos. Esta combinação letal por vezes amplia problemas que parecem urgentes, deixando passar outros problemas, que estão mesmo debaixo dos nossos olhos, são extremamente reais e impactam os indivíduos no dia-a-dia.”

As excepções que confirmam a regra

As condicionantes que se fazem no sentir no trabalho de responsáveis de ética pode não ter um reflexo imediato com o mesmo mediatismo que as famigeradas declarações sobre a consciência da I.A., mas para Pistilli não há dúvida quanto à necessidade de envolver o máximo de pessoas neste debate, com as mais diferenças proveniências e especialidades. “O que está em jogo no desenvolvimento da I.A. requer a participação e o pensamento do maior número possível de pessoas no maior número possível de campos de investigação diferentes.” Actualmente a trabalhar na Hugging Face, Giada Pistilli diz ter encontrado na empresa um alinhamento com esta visão de um desenvolvimento mais democrático. “A única forma de assegurar uma ampla participação da comunidade e, ao mesmo tempo, permitir que os investigadores participem no debate, é a pressão para um desenvolvimento tecnológico aberto e colaborativo.”

Já quanto ao papel dos filósofos nesta questão que toma uma dimensão praticamente existencial para a sociedade, diz que ultimamente se tem apercebido de estar numa posição peculiar deambulando entre a academia e a indústria, sugerindo — com uma humildade que vale a pena sublinhar — que talvez seja a dificuldade em se posicionar “na realidade factual deste domínio científico” que torna difícil o seu envolvimento mais próximo.

“É verdade que trabalhar neste campo significa ter um orçamento confortável e hardware compatível. Infelizmente, nem todos os laboratórios de investigação se podem dar a esse luxo, pelo que nos encontramos hoje a chamar a atenção para os avanços da I.A. principalmente dentro do sector privado.”

Partilha nas redes sociais:
Post Author
  • O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Autor

  • O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Sugestões de Leitura

Estamos a criar uma revista de reflexão e crítica sobre tecnologia, sociedade e cultura.

Uma revista criada em comunidade e apoiada por quem a lê.

Queremos fazer do Shifter um espaço de publicação para pensamento colectivo e comunitário, aberto a sugestões e diálogos. Um ponto de encontro entre diferentes actores da sociedade, da academia ao activismo, da cultura à política.

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt