Quem controlar os Modelos de Linguagem, como o ChatGPT, controla a política

Procurar
Close this search box.
Imagem de fundo vermelho com ilustração de um jogo de palavras cruzadas com as palavras: "Inteligência", "Lucro", "Democracia", "Política", "Controlo"
João Ribeiro/Shifter

Quem controlar os Modelos de Linguagem, como o ChatGPT, controla a política

A democracia precisa de quem pare para pensar.

Num ambiente mediático demasiado rápido e confuso, onde a reação imediata marca a ordem dos dias, o Shifter é uma publicação diferente. Se gostas do que fazemos subscreve a partir de 2€ e contribui para que tanto tu como quem não pode fazê-lo tenha acesso a conteúdo de qualidade e profundidade.

O teu contributo faz toda a diferença. Sabe mais aqui.

O risco dos grande modelos de linguagem como o ChatGPT não é o de uma catástrofe técnica de computadores maliciosos. Muito mais concretamente, os grandes modelos de linguagem ameaçam tornar-se um desastre democrático.

O mundo da inteligência artificial pensa simultaneamente em grande e de forma simples — e fê-lo desde o seu início. Quando o grupo que criou o conceito, tal como a área, da “inteligência artificial” se reuniu no Dartmouth College, no verão de 1956, a tarefa a que se propunha era a de perceber “como fazer as máquinas utilizar palavras, abstrações de formas e conceitos, e resolver o tipo de problemas actualmente reservado aos humanos, e melhorá-los”. O tempo estimado para o projecto: dois meses. 

Quase setenta anos depois — a 28 de Março de 2023 — foi publicada no website do instituto longotermista Future of Life Institute uma carta aberta com mais de vinte mil assinaturas, incluindo as de Elon Musk e de muitos investigadores de renome da I.A. A carta exige uma pausa no desenvolvimento dos Grandes Modelos de Linguagem (LLM do inglês Large Language Models) de, pelo menos, seis meses. Os autores afirmam que sistemas como o ChatGPT, grandes modelos de linguagem, já se tornaram demasiado poderosos e perigosos. Que há “profundos riscos para a sociedade e a humanidade” colocados por uma “I.A. que compete com humanos”. E sugerem que até que haja um acordo em como regular este complexo, todos os laboratórios de I.A. devem suspender avanços na pesquisa. 

Se Dartmouth subestimou espetacularmente quão difícil seria a automatização da inteligência, a carta aberta é igualmente bombástica ao tirar as conclusões erradas do poder da tecnologia actual.

Primeiro, mesmo hoje os objetivos de Dartmouth não foram atingidos — com todos os seus sucessos, o GPT-4 e outros não operam ao nível humano. Tais fantasias são parte do hype em torno da IA, que em última instância serve as empresas que a estão a desenvolver. Qual é a melhor prova do poder de uma empresa do que a habilidade de distribuir um produto que pode destruir o mundo? (Desde logo, insiders especularam que o plano seria continuar em segredo nos próximos seis meses, e que o verdadeiro objetivo seria minar a regra de longa data nesta indústria de manter as investigações abertas.)

Segundo, e mais importante, a carta alude a um entendimento desastroso da relação entre tecnologia e política, quer em termos dos seus perigos, quer em termos dos meios para os abordar. Enquanto o medo de que texto gerado por I.A. possa inundar os nossos canais de informação com falsidade e propaganda é inteiramente válido, a carta é movida por uma fantasia apocalíptica de total substituição dos humanos por máquinas e de “perda de controlo da nossa civilização”.

Estas são preocupação dos longotermistas — uma escola de pensamento utilitarista que dá aos possíveis futuros seres humanos um peso moral incomparavelmente superior do que aos atuais. Os seus proponentes — por quem Musk também sente grande afinidade — pensam em milénios, e é por isso que a ameaça de uma máquina hiper-inteligente os preocupa mais do que, por exemplo, os danos da mudança climática, a injustiça social ou a pobreza. 

Mas o risco dos grande modelos de linguagem como o ChatGPT não é de uma catástrofe técnica de computadores maliciosos. Muito mais concretamente, os grandes modelos de linguagem ameaçam tornar-se um desastre democrático — através da privatização das tecnologias de linguagem como futuro espaço das esferas públicas políticas. É aqui que a política e a sociedade civil devem intervir. 

O desenvolvimento tecnológico dos últimos anos tem demonstrado o seguinte: quanto mais dados alimentam um sistema, mais poderoso ele se torna — mas mais caro se torna desenvolvê-lo. A competição por modelos mais abrangentes levou a que só sobrasse um punhado de empresas nesta corrida. Para além da empresa que desenvolve o GPT, a OpenAI, há o Deepmind da Google e o Facebook; projectos não comerciais de menor dimensão e as universidades praticamente não desempenham nenhum papel na conquista dos actuais recordes de dimensão e desempenho destes modelos.

Aquilo com que nos deparamos é, por isso, um novo oligopólio que concentra o poder das tecnologias de linguagem na mão de poucas empresas. Estes poderosos agentes não exercem domínio sobre nenhum produto já existente, como a YKK que produz 46% de todos os fechos zipper do mundo. Os modelos de linguagem não servem apenas para manter os casacos fechados. Pelo contrário, o futuro da formação da opinião política e da deliberação será decidido nos Grandes Modelos de Linguagem. 

O porquê disto acontecer pode ser mostrado olhando para o que até agora tem sido visto como o maior problema político dos sistemas de I.A. – os seus vieses. Os LLM modelam os seus outputs nos textos em que foram treinados, que são mais ou menos a escrita de toda a internet, incluindo os seus vieses — os preconceitos, racismos, sexismos — que constituem uma grande parte. Contrariar isto significa censurar a produção (o output), como é feito (até certo ponto) com o ChatGPT, e assim limitando assim a sua utilização. Ou, como também é feito, filtrar o conjunto de dados para os seus componentes indesejáveis — e assim alimentar o modelo com um mundo melhor. Esta é uma decisão eminentemente política. A desintoxicação da I.A. implica necessariamente a formulação de uma visão social.

Isto não tem de ser algo consciente. Porque o ChatGPT tende para representar valores políticos progressistas, os media conservadores ficaram rapidamente entusiasmados com a “I.A. woke”. Na realidade, contudo, esta curadoria é mais motivada por considerações reputacionais: insultos sexistas, posições políticas extremas ou outputs racistas simplesmente têm um impacto negativo nas margens de lucro das empresas tecnológicas. A I.A. é sempre ideológica, e mesmo tentativas de a tornar neutra — mesmo que só por interesse económico — estão condenadas a falhar. 

No entanto, as decisões sobre a visão social que os modelos linguísticos articulam está nas mãos de algumas empresas que não estão sujeitas a controlo democrático e não são responsáveis perante ninguém a não ser os seus accionistas. Tornando-se assim, para se apropriarem indevidamente de um termo da filósofa Elizabeth Anderson, “governo privado”.

O seu produto é o principal recurso a contribuir para uma democracia vital: a linguagem para negociar alternativas políticas ao único nível onde isso é possível — a esfera pública política. Em vez de debater em que tipo de mundo queremos viver, essa decisão já foi tomada antes de qualquer palavra ser trocada, porque a linguagem à disposição foi ela mesma sujeita a uma decisão política preliminar. 

Não ajuda que esses LLMs possam, claro, também ser orientados para a direita, como o cientista de computação David Rozado mostrou recentemente com a criação do “RightWingGPT”. Na verdade, um futuro em que uma I.A. com linguagem conservadora coexistisse com uma mais progressiva eliminaria a discussão entre grupos sociais cujos conflitos idealmente contribuem para a formação de opiniões do público informado. Em vez dessa troca, haveria apenas o reforço das opiniões já existentes; e, tal como nas muito faladas bolhas dos social media, não seriam sequer as pessoas a estabelecer os parâmetros dessa discussão, mas um complexo sistema de empresas privadas de processamento de linguagem natural com fins lucrativos. 

Assim, no futuro, os grandes modelos de linguagem podem eles mesmos assumir o estatuto de uma esfera pública de aluguer. À medida que mais e mais textos forem gerados por sistemas de Inteligência Artificial — e é muito provável que assim seja — a proporção do discurso produzido por humanos irá decrescer constantemente. E porque os grandes modelos de linguagem, depois de treinados são difíceis de alterar, e porque eles inferem o futuro através do passado, surge o que Emily Bender et al. chamaram de ”value lock” [bloqueio de valor]. Isto significa que os valores se tornam fixos devido à incapacidade do sistema de mudar, de modo que nenhuma discussão pode levar a uma mudança de opinião; o resultado é uma estagnação política tecnologicamente produzida. 

Quem controlar os modelos de linguagem controla a política. A regulação da I.A. — aquilo a que a carta assinada por Musk e companhia alude primariamente é à auto-regulação voluntária da indústria — não pode contentar-se com meras directrizes éticas. Para ser claro, é absolutamente necessário criar regulamentos legais para proibir o engano com I.A. ou a utilização de dados privados para o treino dos modelos sem consentimento. (É aqui que há um impasse entre a Big Tech e as leis de privacidade de dados da UE). Mas é preciso pensar em grande também aqui. 

Se os sistemas de Inteligência Artificial se tornam espaços de articulação de visões sociais, um factor dominante na construção da esfera pública, ou, eles mesmos, infraestruturas políticas, há muito a argumentar a favor de os submeter a um controlo igualmente público. E se isto for levado à sua conclusão lógica, em último caso levaria, horrible dictu, à sua comunização — em outras palavras, expropriação. 

Visto desta forma, a carta aberta surge sob uma luz diferente. Não apenas como o catastrofismo tecnológico de um grupo de longotermistas histéricos, mas como uma tentativa de desviar a atenção das consequências políticas desta tecnologia. Pois estas são muito mais concretas do que a ditadura das máquinas – mas regulá-las é muito mais perigoso para as empresas e indivíduos que mais lucram com o hype em torno da IA.

Tradução de João Gabriel Ribeiro
Texto publicado originalmente aqui.

Índice

  • Hannes Bajohr

    Hannes Bajohr [ˈhʌnəs bʌˈjɔː] nasceu em 1984 em Berlim. Vive em Basileia e Berlim. Estudou filosofia, literatura alemã, e história moderna na Universidade Humboldt de Berlim. Doutorou-se na Universidade de Columbia, Nova Iorque, com uma dissertação sobre a teoria da linguagem do filósofo Hans Blumenberg. Actualmente, é Junior Fellow no Collegium Helveticum, Instituto de Estudos Avançados da ETH Zurique, Universidade de Zurique, e Universidade das Artes de Zurique. Bajohr escreve textos literários e académicos; a sua investigação centra-se nos estudos dos media, filosofia política, antropologia filosófica, e teorias do digital.

Subscreve a newsletter e acompanha o que publicamos.

Eu concordo com os Termos & Condições *

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt