Joe Paton: “algumas abordagens à Inteligência Artificial ignoram a história natural”

Joe Paton: “algumas abordagens à Inteligência Artificial ignoram a história natural”

26 Janeiro, 2023 /
Fotografia de Alexandre Azinheira/Fundação Champalimaud
Joe Paton, neurocientista e Director das Neurociências (Co-Diretor de Research) do Centro Champalimaud, falou com o Shifter sobre Inteligência Artificial e Inteligência Natural, as suas grandes diferenças e por onde seguir para aprofundar este debate.

Este artigo antecipa a conversa “What is AI? From natural to artificial intelligence“, que decorrerá no dia 28 de janeiro pelas 19h30, integrada no evento Metamersion: Latent Spaces da Fundação Champalimaud, . O painel será composto por Joe Paton (Champalimaud Neuroscience Research), Daniel McNamee (Champalimaud Neuroscience Research) e Helena Moniz (INESC-ID at IST), com moderação de João Gabriel Ribeiro.

A Inteligência Artificial (IA) tem um potencial revolucionário. Com um impacto imprevisível e utilizações ainda por descobrir, não há dúvida de que as tecnologias a que damos este título estão e estarão cada vez mais presentes no nosso quotidiano. A questão sobre se estes modelos são ou não realmente inteligentes define a forma como a tecnologia é encarada, ao mesmo tempo que modela a forma como a inteligência é percebida. E abre a porta para uma viagem de descoberta sobre como existimos e funcionamos. 

Com potenciais diversos que vão desde a criação de texto, como tanto temos visto ultimamente, à utilização em contexto científico, terapêutico ou artístico, os modelos de IA ganham o seu espaço e desafiam o mundo ao seu redor. Como vamos socialmente enquadrar e tirar partido destas tecnologias de um modo benéfico e democrático? Em que contextos vamos aceitar a sua utilização, como vamos regular e lidar com os seus impactos? Até que ponto consideramos estes sistemas realmente inteligentes? São tudo questões que se impõem perante a iminência de implementação de modelos desta natureza. E para responder a todas elas é preciso conjugar diversas perspectivas.

Com o lançamento do ChatGPT – uma aplicação do GPT3 que arrebatou por completo a atenção mediática –, de todas as questões acima citadas uma das que se voltou a destacar (como em outros momentos da história) foi a de que poderia estar encontrado um caminho para uma um modelo artificial realmente inteligente, uma sensação reforçada pelo anúncio para breve do GPT4 com potencialidades alegadamente ainda mais impressionantes. Que adquire novas tonalidades quanto vista sobre a lente de disciplinas como as neurociências. 

“O próprio nome ‘Inteligência Artificial’ é aspiracional, porque ainda não o atingimos” — quem o diz é Joe Paton, neurocientista e director de Investigação em Neurociências da Fundação Champalimaud, numa conversa sobre as diferenças entre Inteligência Artificial e Natural. “O que vemos acontecer é que os limites se vão movendo. Porque Inteligência é aquilo que na realidade a Inteligência Artificial não é, mesmo que esta se torne melhor”, conclui. À ideia de uma Inteligência Artificial capaz de replicar a Inteligência Humana dá-se o nome de Inteligência Artificial Geral, e é sobre a distância a percorrer nesse caminho, e nessa direção, que viajaremos ao longo desta conversa. 

Simulação? Ou emulação?

Para Joe Paton explicar a razão porque, para si, aplicações como o ChatGPT são muitas vezes percebidas como inteligentes, enuncia uma ideia de um colega da Fundação Champalimaud, Daniel McNamee, com quem partilhará uma conversa sobre o tema no sábado, dia 28 de Janeiro: a distinção entre simulação e emulação. “O ChatGPT é um bom emulador daquilo com que se parece a inteligência, mas não simula todos os processos que normalmente dão origem à inteligência (…). Torna-se tão apelativo por ser tão bom emulador. Como nunca vimos nada que faça tão bem estas funções e que não seja inteligente, o que inferimos? Que deve ser inteligente.”

Recorrendo a uma das criações da fundação, o Wingy, com capacidade de reconhecimento facial e que segue com o olhar aqueles com que interage, Paton exemplifica como é comum que ao vermos uma máquina fazer algo deste género atribuamos algum tipo de inteligência, em função dos nossos próprios modelos do mundo. E que é também por isso que a projectam num modelo como o ChatGPT.

Introduzindo na conversa a importância da linguagem, surge de imediato o Teste de Turing – aquele que é popularmente conhecido como a prova a inteligência das máquinas. Para Joe Paton, este é um critério enganoso se o objectivo for comparar com a Inteligência natural. Relacionando como a sua área de investigação – a inteligência comportamental –, Paton afirma que “o comportamento é um conjunto de coisas  mais vasto do que um comportamento como a linguagem. E o conjunto sobre o qual a inteligência se formou”.

O ponto não é, de modo algum, sobre desvalorizar a importância da linguagem que para Paton é “um meio de comunicação fundamental, uma capacidade muito importante”, “um dos produtos da inteligência e uma das razões pelas quais os humanos se admiram com a sua mente e com as suas capacidades”. “Penso que a linguagem e a capacidade de armazenar e informação de forma simbólica e de a partilhar ao longo de gerações é crítico para tudo o que hoje concebemos como criações da mente humana. E às vezes faço este exercício de pensamento: se amanhã apagássemos todo o conhecimento humano acumulado, quão espertos seriam realmente os seres humanos?”, questiona retoricamente Paton, numa tirada que não deixa margem para dúvidas.

Por outro lado, procura-se precisamente iluminar aquilo que não é a linguagem, e revelar a importância dessa dimensão para o que chamamos inteligência. Para Paton uma das características fundamentais desta inteligência é a incorporação e conta porquê: “Escrevi recentemente esta frase: ‘Como é que um modelo é capaz de agarrar o sentido desta palavra, sem nunca ter agarrado nada.’ É esse tipo de abstração, muito física, que eu acho que é a raiz da inteligência – é o facto de construirmos essas abstrações.” 

Esta discussão sobre se a Inteligência Artificial estaria a caminhar realmente no sentido de criar uma Inteligência Artificial Geral não é nova. Um artigo publicado por um investigador do MIT nos anos 1980, Elephants Dont Play Chess, apontava para falhas nas abordagens correntes e que mesmo algumas dessas falhas, embora alimentem modelos de grande sucesso, continuam lá porque “algumas das abordagens à Inteligência Artificial ignoram a história natural”.

Pensar na Inteligência Humana, partindo de um olhar sobre o cérebro obriga-nos a considerar multiplicidade de funções do cérebro humano. Joe Paton lembra que “o cérebro humano moderno resolve muitos problemas complexos, mas não só problemas relacionados com a linguagem”, e sugere que é uma certa pressa por respostas imediatas que nos distrai das respostas que se escondem nestes longos processos evolutivos. O tempo é de resto uma questão chave, como refere Paton em reforço desta nota a única Inteligência Artificial Geral que conhecemos evoluiu durante, basicamente, toda a vida na Terra, que começou há quatro mil milhões de anos“.

O cérebro é incrivelmente bizarro

Falar sobre tempo em grande escala pode ser tão abstracto quanto falar dos pormenores técnicos que compõem os modelos de Inteligência Artificial, e essa é uma dimensão que torna mais complexa a compreensão e distinção entre as inteligências. “É muito difícil imaginar 600 milhões de anos; ninguém tem ideia do que isso é. Não temos nenhuma experiência directa dessa escala. Por isso ela é necessariamente abstracta, e nós perdemos a noção de como as coisas que acontecem nessa escala nos impactam”, explica, comparando de seguida esta imensidão com a imensidão de dados que compõem os modelos de IA actuais: “Temos poucas bases para os compreender, são muitos parâmetros, é uma quantidade absurda de dados.” E é esta escala que não só os torna difíceis de compreender como também de distinguir quando, para Paton, “[a Inteligência Artificial] desenvolveu-se de um modo bastante diferente daquele como nós aprendemos” e essa diferença testemunha-se na forma como as coisas funcionam. 

Mais uma vez, sem pretender diminuir a IA – no sentido em que esta tem capacidades que já hoje podem ter grande utilidade –, a perspectiva das neuro-ciências pretende alargar e aprofundar o conceito, mantendo em cheque a relação que se estabelece a partir da palavra inteligente. E para isso é preciso recordar as capacidades do cérebro, que para Paton são “algo incrivelmente bizarro” e que não são propriamente fáceis de compreender. “Se imaginarmos, por exemplo, que o nosso sistema visual é como se fosse uma câmara que está a criar a imagem, isso levar-nos-ia à questão sobre quem está a ver a imagem. A questão leva-nos sempre a uma questão seguinte e não explica simplesmente como a imagem é analisada.”

“Mesmo na visão, temos um ponto cego onde não vemos literalmente nada, mas nem temos consciência disso. O cérebro constrói a realidade activamente. Considera a história e o conhecimento sobre o mundo, combina-o com informação sensorial de baixo nível e dá respostas sobre o que se passa no mundo, o que é importante e como reagimos. O cérebro foi criado para acção, criado para actuar, e essa é outra grande diferença” , diz-nos Paton, continuando a relacionar a reflexão com a sua prática lectiva. 

No leque de diferenças discerníveis entre Inteligência Artificial e natural, outra questão surge de imediato. A Inteligência Artificial funciona de forma digital, já a Inteligência natural é um processo analógico, marcado por processos electroquímicos. E se, por um lado, a complexidade dos modelos pode aproximar estes processos (pensemos num sinal digital tão complexo que se torna praticamente um sinal analógico) por outro, a questão faz-nos retornar nas respostas. “O cérebro está sempre lá. O computador tem de ir verificando os sensores, embora o possa fazer em alta frequências. Mas o olho não, quando um fotão entra no olho não existe um atraso no processamento. E é possível que com altas frequências de processamento o computador se aproxime, é uma questão em aberto, mas uma questão fundamental.”

As diferenças existem em várias dimensões. “O cérebro guarda a informação e opera-a no mesmo espaço, já o computador funciona de forma diferente, há o processador, o disco rígido, a memória, com funções diferentes. Nesse sentido, quando olhamos para a activação do cérebro, por exemplo, para a representação de uma banana, vemos que tudo seja activado desde um nível muito baixo, visão, olfacto, sabor, textura, até tudo o que está associado com isso, até memórias”, continua.

A forma como o cérebro funciona, tal como os modelos de Inteligência Artificial, está intimamente ligada com a sua arquitectura – uma questão que deriva directamente da anterior. Para Paton, o cérebro funciona de uma forma mais estruturada do que as redes neuronais em uso corrente. “Muitos algoritmos de IA, pelo menos no princípio, são pouco estruturados. São uma grande rede, com muitas conexões mas pouca estrutura, depois pega-se num algoritmo de treino, numa função objectivo e alimenta-se com dados, conseguindo assim uma função.” Já por ser turno, no cérebro, convergem informações provenientes de uma estrutura altamente organizada de controlo com diferentes instrumentos ao seu dispor (pensemos no córtex, no cerebelo, etc.), que evoluíram com funções e tarefas específicas, que são processadas de forma completamente automática promovendo o equilíbrio do corpo – ou o controlo, aquilo para que evoluí durante toda a história da vida. 

Perspectivas

Se a lente das neuro-ciências pode parecer temperar o entusiasmo sobre a IA, é importante localizar esta discussão no seu domínio próprio. E lembrar que o seu caminho é paralelo ao da implementação da IA nas nossas sociedades e de forma impactante para as nossas vidas. Nesse sentido, Paton não tem dúvidas de que mesmo que não esteja necessariamente no caminho da Inteligência natural, a IA será muitíssimo útil e a sua utilização não esfriará a vontade de ir mais a fundo na sua compreensão. O importante é definir regras para a sua utilização nos protejam a todos, mesmo quem possa não compreender como funcionam estes mecanismos. 

“Penso que as pessoas podem usar estas tecnologias, mesmo que não compreendam como funcionam. Desde que tenhamos estabelecido como um conjunto de directrizes em torno de como usar.” E para que isso aconteça, Paton alerta, não podemos preocupar-nos apenas com questões de performance. A explicabilidade da Inteligência Artificial, uma área especialmente próxima da filosofia, tem também sido uma preocupação premente na sociedade. A ideia de que os modelos devem ser capazes de explicar porque dão determinados resultados seria fundamental para uma assimilação mais democrática da tecnologia mas, para isso, é preciso que não se considere só a performance destes modelos em tarefas muito específicas. 

Apesar de a aplicação de IA não ser propriamente a área de Paton – que, como vimos, se ocupa mais da investigação da Inteligência Natural da distinção entre ambas – deixa a sua visão para o futuro: “Precisaremos que filósofos, eticistas, políticos e legisladores se envolvam realmente porque, no final de contas, a sociedade não é só feita de engenheiros.”

É com esse mote que, de resto, se sela a promessa de retornar este debate ao vivo e na companhia de outros intervenientes na mesa redonda Artificial Intelligence vs Natural Intelligence, que decorrerá no dia 28 de Janeiro, pelas 19h30, no Warehouse da Champalimaud. O evento Metamersion: Latent Spaces, na qual essa mesa está inserida, começa no dia 26 de Janeiro com performances musicais e decorre nos dois dias que se seguem com duas mesas redondas. A entrada para as conversas é livre mediante inscrição prévia através deste link.

Autor:
26 Janeiro, 2023

O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Ver todos os artigos
Partilha este artigo:
Recebe os conteúdos do Shifter, semanalmente no teu e-mail.
Partilha este artigo:

Outros artigos de que podes gostar: