E se a IA for um problema e não uma solução para a crise climática?

E se a IA for um problema e não uma solução para a crise climática?

/
29 Outubro, 2024 /
,
Imagem ilustrativa que segundo os seus autores pretende representar o poder e o lucro das empresas, sustentados pela exploração, controlo e dominação, nas mãos de alguns especuladores com poder de decisão, na sua maioria brancos e homens. Na imagem temos uma representação estilizada do complexo sistema da Inteligência Artificial, várias mãos aparentemente brancas a controlar esse sistema, e alguns elementos que recordam o seu impacto global, como notas que aparecem a desfazer, um emoji repetindo sequencialmente e que parece ir derretendo, e um conjunto e homens reunidos sobre uma mesa onde se vê o mapa mundo.
Clarote & AI4Media / Better Images of AI / Power/Profit / CC-BY 4.0

Índice do Artigo:

Embora o hype tecnológico em torno da blockchain tenha gerado críticas pelo alto consumo energético, a Inteligência Artificial segue sem receber o mesmo escrutínio. E se a IA for parte do problema e não da solução para a crise climática? Esta é uma análise crítica sobre esses impactos e a necessidade de incluir a questão ambiental no debate sobre o futuro da tecnologia.

Se pensarmos no último grande hype tecnológico, as criptomoedas e tudo o que está associado à blockchain, é impossível não nos lembrarmos das acesas discussões em torno do custo energético desta tecnologia. Com aplicações pouco claras e servindo sobretudo para alimentar febres como a dos NFTs, a reputação da blockchain foi severamente atacada pelo alto uso de energia que a fazia figurar entre os maiores consumidores do planeta. Esse hype morreu – ou pelo menos desvaneceu – mas curiosamente, para o que se seguiu, esse critério parece ter perdido relevância. 

Apesar de ser amplamente reconhecido que a cadeia de desenvolvimento e a utilização dos modelos de Inteligência Artificial dependem de grandes centros de dados que, por sua vez, dependem de grandes quantidades de energia e de água, a forma como esta informação tem sido transmitida não tem feito disparar os alarmes que soaram, e bem, no caso das criptomoedas. Isso pode ter que ver com o apelo mais popular exercido por aplicações como o ChatGPT, usadas para além de uma bolha particularmente interessada, mas também com a forma como as empresas gerem a questão. E vão escondendo o problema debaixo do tapete. 

Um dos primeiros momentos em que o tema do consumo energético gerou tração acabou por ser um presságio de como essa questão seria gerida. Em 2020, bem antes do lançamento do ChatGPT e da consequente loucura em torno da IA, Timnit Gebru, responsável de ética da Google, perdeu o lugar na empresa depois de uma polémica em torno de um artigo de investigação onde apontava para os grandes custos energéticos associados ao treino dos modelos de IA. O trabalho de Timnit foi uma das primeiras evidências públicas sobre o custo dos modelos, mas surgiu antes do tempo. E foi o suficiente para que caísse em completo esquecimento. 

Ainda assim, este não foi o único momento em que o tema esteve em cima da mesa. Os avisos de que o treino e manutenção dos modelos de IA representaria uma grande factura ambiental foram-se sucedendo, mas foram ignorados. Ou, pior ainda, foram gratuitamente justificados com os alegados benefícios que a IA poderia trazer – entre eles, claro, a promessa de ajudar a resolver a crise climática. Uma promessa perigosa que não resiste à análise mais fina das evidências, que triunfa graças a todas as confusões e profecias que continuam a dominar este debate. 

Um exemplo cabal deste tipo de lógica foi proferido por Eric Schmidt, o antigo CEO da Google, e co-autor de The Age of AI: And Our Human Future, em parceria com Henry Kissinger e Daniel Huttenlocher. Numa intervenção pública num evento, Schmidt disse não ter esperança nenhuma no cumprimento das metas estabelecidas nos acordos climáticos e que, por isso, mais valia apostar tudo na Inteligência Artificial enquanto solução para a crise climática. Mas Schmidt está longe de ser o único.

E se podemos concordar que a Inteligência Artificial tem um potencial de tornar alguns processos mais eficientes, através da monitorização e optimização de diferentes variáveis, e com isso pode contribuir para mitigar a crise climática, a verdade é que essa é uma aposta que, como todas as outras, tem um risco inerente que não pode ser ignorado, e que as odds não estão a favor. 

“What if AI is part of the problem?” 

Se abrirmos o ChatGPT e pedirmos soluções para a crise climática, não é preciso esperar muito tempo até termos uma lista de ideias do que podia ser feito para sistemicamente mitigar o grande flagelo dos nossos tempos. Formatado numa lista simples, de fácil compreensão, o chatbot da OpenAI gera em três tempos a receita perfeita. E se exercícios como este contribuem, todos os dias, para aumentar a percepção da capacidade da tecnologia, escondem constantemente todos os gastos que estão por trás. 

Numa entrevista publicada no The Syllabus, assim como na edição n.º 5 da Revista Shifter, Benedetta Brevini, investigadora australiana, aponta para o relatório do Fórum Económico Mundial para mostrar um exemplo mais evidente. Nesse documento podia ler-se: “os ganhos de inteligência e produtividade que a IA irá proporcionar podem desbloquear novas soluções para os desafios ambientais mais prementes da sociedade: alterações climáticas, biodiversidade, saúde dos oceanos, gestão da água, poluição atmosférica e resiliência, entre outros”. O que para a investigadora é bem demonstrativo de como, até em altas instâncias, este conjunto de tecnologias – altamente complexo – é retratado como uma espécie de varinha mágica — um fenómeno a que chama sublimação. 

Em química, dá-se o nome de sublimação à transição directa entre o estado sólido e o gasoso; Brevini recorre à mesma terminologia para evidenciar como algo que tem uma componente material e extrativista tão acentuada é divulgado, vendido e debatido como se fosse inócuo, etéreo, seguindo a mesma tendência de desmaterialização que tem assombrado todo o discurso em torno da tecnologia e da digitalização. Assim, na prática a Inteligência Artificial significa um aumento dos custos materiais, mas na retórica a tecnologia é enquadrada como uma forma de reduzir esses mesmos custos, numa relação altamente paradoxal. 

Se, como dissemos anteriormente, a Inteligência Artificial pode efectivamente desempenhar um papel na mitigação de alguns problemas relacionados com a crise climática, é difícil pesar com exactidão os prós e os contras desta utilização ao ponto de justificar o risco. Uma ilustração da dificuldade em encontrar este ponto de equilíbrio é o percurso de investigação de Sasha Luccioni, investigadora da Hugging Face, considerada pela revista TIME como uma das vozes a ouvir sobre IA. Há cerca de cinco anos, pouco antes do entusiasmo em torno do ChatGPT, Luccioni dedicava o seu trabalho de investigação a procurar formas como a Inteligência Artificial pudesse contrariar a crise climática, até se deparar com uma pergunta que mudou o seu rumo: “E se a IA for parte do problema?” 

Desde então, Luccioni tem participado e conduzido trabalhos de investigação que se focam em quantificar os custos e gastos inerentes aos modelos de IA, estando, neste momento, a desenvolver um sistema de classificação semelhante ao da eficiência energética que encontramos nos electrodomésticos. Com este trabalho, a investigadora não pretende desincentivar o uso da tecnologia, mas antes fornecer uma ferramenta para medir os prós e contras da sua utilização. Uma vez que, como diz na sua TED Talk, ainda que a IA não nos vá matar a todos, as más utilizações desta tecnologia podem contribuir para acelerarmos rumo ao colapso. E as profecias que vão alimentando o entusiasmo e a fé nos usos futuros, distraem-nos dos impactos reais que a tecnologia tem no presente. 

Não é defeito, é feitio

Os modelos de Inteligência Artificial têm evoluído muito. E uma das vias dessa evolução tem sido a sua optimização. Assim, é expectável que, no futuro, um modelo com as mesmas capacidades que revela hoje em dia precise de menos recursos, quer para ser treinado, quer para ser utilizado. Contudo, se esse cenário é uma hipótese fácil de imaginar, a verdade é que custos materiais inimagináveis se vão acumulando. Para se perceber a dimensão, e a sua natureza sistémica, é preciso dar um passo atrás e perceber como funcionam de facto as componentes do processo que ocorrem nesses grandes servidores.

Sobre o treino dos modelos, uma das componentes fundamentais, as contas são difíceis de fazer, mas mais fáceis de compreender. Embora os dados oficiais não sejam públicos sobre todos os modelos, existem vários trabalhos que dão uma estimativa dos custos. Um modelo com a dimensão e capacidade do GPT3 (já vamos no 4.0) consome aproximadamente 1 300 megawatt hours (MWh) de energia, o equivalente ao consumo anual de cerca de 130 casas nos Estados Unidos da América, ou 1 625 000 horas de streaming numa das plataformas correntes. Dado que os modelos não têm de ser treinados todos os dias, e que um ciclo de treino pode dar origem a diversas melhorias, este custo costuma contextualizar-se dividindo os valores pelo potencial de aplicações que daí podem resultar. No caso da utilização e aplicações, o caso é inverso, uma vez que cada utilização é um potencial multiplicador dos gastos.

Para se entender como funciona o esquema de consumos associados à utilização da Inteligência Artificial, é preciso perceber a forma como o mercado se tem desenvolvido e quais as grandes tendências. E compreender que a maioria dos modelos de Inteligência Artificial implica um poder de processamento que não está ao alcance dos nossos computadores pessoais. Os modelos de Deep Learning, tipologia mais comum e que está por detrás dos avanços mais recentes, dependem de poder computacional que não está ao acesso de qualquer um, mesmo que o modelo esteja – por serem open-source ou passíveis de um licenciamento para uso próprio. Assim, para tornar os modelos acessíveis (e populares), o que as grandes tecnológicas fazem, basicamente, é alugar essa capacidade de processamento (de computação).

Isto significa que quando corremos um modelo como o ChatGPT, o Microsoft Copilot ou outro semelhante, o processo de geração de resposta do modelo de IA não se dá no nosso computador. Em vez disso, o nosso prompt é enviado para ser processado na tão famosa nuvem, a rede composta pelos diversos datacenters de cada uma das empresas. 

Simplificando, podemos considerar que aquilo que na realidade obtemos ao subscrever um destes serviços é o acesso à computação em grandes servidores. Este modelo de desenvolvimento comum nas grandes tecnologias – o tão badalado cloud computing – permite o acesso generalizado ao software mas, ao mesmo tempo, concentra a sua propriedade. Isto faz com que as tecnológicas se vejam obrigadas a criar datacenters cada vez mais maiores e mais potentes, capazes de dar resposta a um número de pedidos de forma centralizada.

Enquanto isso, no nosso quotidiano implementamos soluções tecnológicas cada vez mais distantes do nosso controlo, cujo processamento centralizado incentiva à concentração do poder computacional e à externalização dos custos (que ficam longe da vista e do coração); subscrevendo modelo de negócio gera questões importantes sobre a soberania dos estados, criação de rendas entre estados e grandes empresas (como as subscrições do Estado português da API da Microsoft), e contribui para que a pressão ambiental se concentre em determinados pontos do globo, muitos deles em situação social, económica e ambiental já por si só vulnerável. 

Soluções ideias e problemas reais 

Como vimos, o crescimento desenfreado da IA e a mudança de paradigma para uma maior utilização de algoritmos de Deep Learning – que requerem mais energia e recursos, no geral –, promovido pelas empresas de Silicon Valley, põem em causa os planos de transição energética de diversos países. E embora muitas vezes se use como argumento a utilização de energias renováveis, é preciso olhar com realismo para os dados, e observar que,  apesar de todos os alertas, globalmente, a procura por combustíveis fósseis continua a aumentar; e que esse aumento é em grande parte motivado pelos consumos crescentes associados ao desenvolvimento e implementação tecnológica.

Uma reportagem publicada pela Bloomberg Businessweek mostra como a Inteligência Artificial — ainda numa fase inicial da sua penetração social — já está aos dias de hoje a pressionar os sistemas de fornecimento global de energia, com a procura por datacenters com maior capacidade computacional um pouco por todo o mundo. Incidindo sobre planos concretos de países tão diferentes como Arábia Saudita, Irlanda ou Malásia, o analista ouvido pela Bloomberg, Patrick Finn, não tem dúvidas em afirmar que os gastos excedem a capacidade de produção de energias renováveis, criando pressão sobre os combustíveis fósseis. E os efeitos deste consumo de recursos são ainda mais prementes em geografias mais vulneráveis – e não se esgotam na electricidade ou nos dados de consumo absoluto, mas sim na intersecção entre todas as variáveis.

Numa reportagem publicada no britânico The Guardian, a construção de novos centros de dados na região de Querétaro, no México, dá-nos o exemplo paradigmático para percebermos o que está em causa. Só no referido estado, Amazon, Google e Microsoft planeiam investir vários milhares de milhões de dólares na construção de infraestruturas. Se, por um lado, esse investimento é enquadrado pelo governo como um potenciador do crescimento económico, por outro, num território já suscetível a secas e a blackouts de energia, a pressão sobre os serviços de fornecimento levanta um debate urgente. Água e energia são ambos fundamentais na manutenção dos servidores, de forma praticamente intermutável que resulta num paradoxo sem solução à vista.

Na normal operação de um centro de dados, o grande consumo de água resulta da sua utilização para arrefecimento das máquinas onde tudo acontece. Em alternativa, é possível poupar água, tornando este sistema de arrefecimento num circuito fechado ou optando por substituir a água por ar. Esta solução foi, de resto, escolhida pela Google para um datacenter planeado para o Uruguai. Contudo, estas alternativas estão longe de ser solução porque os métodos que não dependem de água fazem aumentar o consumo de energia e a pressão sobre os sistemas de produção de energia vigentes, em grande parte ainda assentes no consumo de combustíveis fósseis – como no caso do México em que 77% da electricidade é proveniente desta fonte. 

Estas tecnologias não só precisam de muita energia, como precisam que essa energia seja constante durante largos períodos de tempo, o que implica o recurso a fontes de energia estáveis. E a procura é tão ampla que não é só em geografias mais periféricas que a pressão se faz sentir. Também nos Estados Unidos da América tem sido reportado uma desaceleração nos planos de transição energética, provocada pela procurada gerada pela nova geração. Não só foram adiados planos de descontinuação das centrais de carvão, como existem planos para a construção de novas centrais de gás — combustível que embora liberte carbono para a atmosfera, tem o potencial de libertar metano, e é obtido através de processos com impacto ambiental conhecido, como o fracking.

Um problema de difícil solução

Apesar de o custo climático não ser até agora propriamente impeditivo do entusiasmo em torno da IA, os alarmes institucionais começam a soar, bem como a pressão externa para que as empresas encontrem soluções. Enquanto um uso crítico e ponderado da Inteligência Artificial — com uma avaliação concreta de custos e benefícios — parece ainda uma espécie de utopia, e as grandes empresas tecnológicas apostam tudo na manutenção do modelo de negócio acima descrito, a urgência para a procura de soluções cresce. 

Uma das soluções mais badaladas no discurso sobre Inteligência Artificial tem sido, sem dúvida, a energia nuclear. Sam Altman, CEO da OpenAI, tem entre o seu portfólio um investimento avultado numa empresa que explora o futuro da energia nuclear, e não é o único a escolher esta via. Amazon, Microsoft e Google, todas elas anunciaram apostas avultadas em pequenos reactores nucleares. Efectivamente esta pode ser uma solução para alimentar esta indústria intensiva reduzindo as emissões de carbono, mas por outro lado mantém intocadas as relações entre os diversos intervenientes e segue a tendência da centralização do poder energético e computacional. Ou seja, se até pode contribuir para menos emissões, nada faz propriamente para contribuir para uma distribuição mais justa e democrática dos recursos, uma componente fundamental da transição climática e energética.

Todavia, o nuclear está longe de ser a única solução procurada pelas big tech; e longe de ser a única controversa. Para além da via infraestrutural, chamemos-lhe assim, as empresas tecnológicas recorrem também à via burocrática, o que tem feito disparar a procura dos créditos de carbono e dos Renewable Energy Certificates (RECs). O que é que isto significa? No primeiro caso, significa que as empresas interessadas em poluir pagam para que uma outra empresa recolha da atmosfera um nível poluente semelhante ao emitido pela primeira. Se esta solução tem na teoria um balanço neutro, ou positivo, a verdade é que dada a complexidade das tecnologias envolvidas é difícil medir o seu impacto real. Críticos citados pelo The Financial Times sugerem mesmo que a tecnologia utilizada para captar o carbono da atmosfera recorre a tanta energia por si só que não chega para compensar o carbono que é capturado. 

Já no segundo caso, os RECs, trata-se da sigla inglesa para Certificados de Energia Renovável. Isto é, as empresas compram certificados onde está indicado que utilizaram energias renováveis. Mais uma vez, uma ideia que na teoria tem um efeito, mas na prática pode ter outro. A título de exemplo, segundo uma reportagem da Bloomberg Businessweek, 52% dos certificados obtidos pela Amazon em 2022 foram certificados obtidos de forma que é impossível garantir se a energia usada pela gigante foi efectivamente verde ou não, o que é por muitos visto como uma oportunidade para as empresas fazerem greenwashing, anunciando metas ambientais que na realidade não cumprem. Um pouco como a compensação carbónica através da plantação de árvores que nunca sabemos se efetivamente sobrevivem aos primeiros anos e crescem para cumprir a sua função.

Devemos abandonar a IA? 

Isto significa que a IA é má e que o custo energético devia ser razão para pararmos colectiva de desenvolver e apostar na tecnologia? Não é bem assim. Para além da incapacidade prática de pararmos o comboio da IA agora que ele está em movimento (e com tantos milhões de investimento) existe um potencial benéfico neste desenvolvimento tecnológico que podemos e devemos explorar. 

Como referido, a arquitectura em torno dos modelos evolui a cada dia, a sua optimização é uma possibilidade, e os benefícios para a humanidade que podem vir desta tecnologia em áreas basilares, como a ciência, podem efectivamente compensar os custos. Importante é que, neste caso e neste momento, estes benefícios hipotéticos não sirvam para ignorar os riscos reais que existem hoje em dia. E que esta camada fundamental do discurso seja sempre varrida para debaixo do tapete. 

Não só a questão climática nos diz respeito a todos, como a necessidade de concentração de energia é um dos elementos que faz com que esta tecnologia esteja longe de ser democrática, e contribua para o agravamento de dinâmicas neocoloniais, expressas sobre a forma de desigualdade de acesso a recursos e pressão ambiental. Por isso, não é só a tecnologia como um todo que deve ser visada, mas também os modelos de negócio que escondem os custos e gastos do utilizador comum enquanto prometem todas as funcionalidades possíveis e imaginárias. 

Sem entrar em demasiado detalhe, é possível intuir que o desenvolvimento de modelos open-source e de diferentes formas de governança sobre a computação (pensemos em cooperativas de computação) pudessem figurar como alternativas, por aproximar os custos dos benefícios e tornar mais clara a relação entre ambos, mas para essa via de desenvolvimento não existe um sistema de incentivos suficientemente forte que permita competir com as enormes quantias investidos na IA com fins lucrativos. Nem tão pouco a resposta dos reguladores – como o AI ACT – parece ser suficiente para mudar o curso do mercado. 

Com tudo isto, e perante uma certa sensação de impotência face à desproporção de forças, não há muito que possamos fazer no imediato, e qualquer pânico moral pode ser contra producente. Contudo, podemos e devemos procurar que qualquer discussão sobre o uso e o futuro da Inteligência Artificial passe pela questão ambiental, como mais um custo a ser calculado. Porque perante tudo o que se sabe sobre crise climática, a subida da temperatura média, a dificuldade em atingirmos as metas de redução de combustíveis fósseis, e as consequências da libertação de carbono para atmosfera, seria irresponsável continuar a ignorar o problema com fé na capacidade da IA para o resolver num futuro hipotético. E, afinal de contas, gastar ciclos de computação para pedir ao ChatGPT para fazer um roast ao nosso perfil de Instagram, ou qualquer outra utilização fútil de uma tecnologia com custos tão elevados, é um exercício muito pouco inteligente.

Autor:
29 Outubro, 2024

A rede de colaboradores do Shifter

Ver todos os artigos

O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Ver todos os artigos
Partilha este artigo:
Recebe os conteúdos do Shifter, semanalmente no teu e-mail.

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.