Meredith Whittaker: “A Inteligência Artificial reforça o modelo de negócio da vigilância”

Procurar
Close this search box.
Fotografia de Meredith Whittaker
© Meredith Whittaker / Formato adaptado por Shifter

Meredith Whittaker: “A Inteligência Artificial reforça o modelo de negócio da vigilância”

A democracia precisa de quem pare para pensar.

Num ambiente mediático demasiado rápido e confuso, onde a reação imediata marca a ordem dos dias, o Shifter é uma publicação diferente. Se gostas do que fazemos subscreve a partir de 2€ e contribui para que tanto tu como quem não pode fazê-lo tenha acesso a conteúdo de qualidade e profundidade.

O teu contributo faz toda a diferença. Sabe mais aqui.

Meredith Whittaker tornou-se numa das principais vozes na defesa da ética dos produtos tecnológicos, da diversidade das equipas e do respeito pelos utilizadores. Conversou com o Shifter sobre todas essas questões, com os recentes desenvolvimentos de Inteligência Artificial no centro da conversa.

Os modelos de Inteligência Artificial que têm captado toda a atenção mediática nos últimos tempos não surgiram do nada. Apesar de a Inteligência Artificial (I.A.) ser geralmente apresentada como uma enorme, inesperada e inevitável novidade tecnológica, a verdade é que a aposta nos grandes modelos de linguagem — como o ChatGPT — não é assim tão linear. Os modelos que hoje ocupam todo o conceito de I.A. na cabeça do grande público são o resultado da combinação entre uma visão específica do que pode ser a Inteligência Artificial e a concentração dos recursos que os permitem criar. 

A ideia da I.A., para além de implicar alguma reflexão do ponto de vista técnico que nos permita compreender como funcionam os modelos, implica também uma visão sobre as condições políticas e económicas em que se desenvolvem. E uma reflexão sobre a transformação que nesse campo podem induzir. A capacidade das grandes tecnológicas de provocar alterações significativas no tecido social, de formas concretas, mas também de inúmeras formas discretas que poucas vezes consciencializamos, é inegável. Para compreendermos todas as contingências desta alteração precisamos de olhar para as condições materiais em que nascem estas modas. E ninguém melhor para conduzir essa observação do que alguém que, já tendo passado por uma das maiores tecnológicas, tem desenvolvido nos últimos anos um consistente trabalho de análise e crítica ao modelo de desenvolvimento vigente. 

Meredith Whittaker, que ainda na última edição do Web Summit subia ao palco como uma das vozes mais disruptivas e interessantes — sobre o qual escrevemos aqui —, falou com o Shifter. Numa videochamada breve, mas rica, o tema da Inteligência Artificial foi o princípio para uma ilustração mais geral sobre a indústria tecnológica. Meredith Whittaker esteve durante mais de uma década na Google, onde foi responsável por uma área de integração de projectos Open Source, o Google Open Research. Foi quando fundou o AI NOW Institute, em 2017, e se tornou numa das principais organizadoras das marchas de trabalhadores pela consciencialização para a necessidade de mudanças estruturais na Google, em 2018, que a sua voz se começou a fazer ouvir com maior notoriedade. Na defesa da ética dos produtos, da diversidade das equipas e do respeito pela privacidade dos utilizadores. 

Enquanto ainda trabalhava na Google Research, Whittaker foi co-autora, juntamente com Sarah Myers West e Kate Crawford (à data na Microsoft) de “Discriminating Systems: Gender, Race, and Power in AI” — um artigo em que abordam a desigualdade de género e fraca diversidade na base da concepção destes modelos. Pouco tempo depois, e a meio dos “Google Walkouts” (as paralisações na Google que aconteceram em 2018), Whittaker acabou por abandonar a empresa para se concentrar no trabalho sobre ética na área de I.A. e na promoção de uma agenda por uma indústria tecnológica responsável e respeitadora — considerando as duas posições incompatíveis pelo caminho tomado pela Google

Actualmente, Whittaker continua com os contributos na área da ética, muitos deles publicados em longos artigos, como este sobre uma visão realmente progressista da tecnologia ou este sobre controlo industrial, fruto do seu conhecimento técnico aprofundado e do seu sentido crítico apurado. Ocupação que conjuga com a Presidência da Fundação Signal, gestora da aplicação de mensagem sem fins lucrativos e que põe a privacidade acima de qualquer predicado. 

Shifter: Porque chama aos modelos corporativos de Inteligência Artificial de “Derivados da Vigilância”? Quer falar-nos um pouco sobre esta ideia?

Meredith Whittaker: Eu chamo à Inteligência Artificial de “Derivados da Vigilância” porque, ao olhar para a história da indústria da tecnologia que a está a criar, o meu olhar é sempre pelo lado material. É sobre os recursos materiais e a política económica que conduz o desenvolvimento destas tecnologias. E, quando olho para a história, vejo uma indústria que foi construída em torno da vigilância. Tivemos a privatização e comercialização da internet, no final dos anos 90, que acompanhou a viragem para uma política neoliberal. Isto permitiu que fossem indústrias privadas a criar as regras sobre a privacidade e a comercialização da computação em rede, ou da internet. A partir daí, surgiu o modelo de negócio da publicidade, com que todos somos familiares e do qual resultaram inúmeros dos produtos gratuitos. O e-mail, as redes sociais, todas estas coisas que costumavam ser opções e são agora utilitários básicos que temos de usar se queremos participar na vida normal, usar tanto serviços do estado como privados, arranjar um emprego, etc.

O modelo de negócio da vigilância é o motor da tecnologia. É o que financia todas as aplicações gratuitas e, na retaguarda, um monte de dados sobre nós é usado para criar perfis que os anunciantes pagam para ter acesso. Se quiserem anunciar para alguém em Portugal a usar t-shirts verdes, haverá um perfil baseado em alguns dados e alguma especulação e inferência, e os anunciantes terão forma de anunciar para ti e para pessoas como tu. Esse é o modelo económico da tecnologia. Assim, as empresas que chegaram cedo a este modelo de negócio, as que tiveram mais sucesso, criaram gigantes bases de dados. Criaram enormes infraestruturas computacionais — todos os data centers por todo o mundo. E criaram um alcance de mercado realmente poderoso. Este efeito de rede em que os consumidores, as pessoas no geral, voluntária ou involuntariamente estão constantemente a contribuir com dados. 

Por isso, não é surpreendente que no princípio dos anos 2010 a Inteligência Artificial tenha voltado a ser uma moda, precisamente quando estas empresas começaram a consolidar o seu poder. Tinham grandes quantidades de dados, tinham grande potência computacional e tinham o mercado. E perceberam que, se aplicassem velhas técnicas, algumas dos anos 1980 — as redes neuronais convolucionais, por exemplo, são uma tecnologia antiga —, aos novos dados e com a nova capacidade de computação, podiam criar coisas novas. E por isso chamo-lhes “Derivados da Vigilância” porque vejo a I.A., e a corrida à I.A., essencialmente como uma forma de expandir a rentabilidade e o alcance de mercado destas empresas. De reutilizar os seus recursos de vigilância, e os dados que são coletados e criados através desta infraestrutura de vigilância.

Por isso, num certo sentido, a Inteligência Artificial reforça ainda mais este modelo de negócio da vigilância e é um mecanismo para fazer mais com os dados e a computação que já têm. Enquanto, simultaneamente, criam mais dados, porque estes sistemas de I.A. são treinados com dados, mas também estão constantemente a cuspir novas informações que, num círculo recursivo, se torna parte dos nossos dossiers privados, do que estas empresas sabem sobre nós. Os modelos também produzem vigilância, para além de se alimentarem dela. 

S.: Acha que os canais em que temos as discussões hoje em dia, como as redes sociais privadas, dificultam o debate? Debatermos tanto nas redes sociais — proprietárias, com base neste modelo de negócio — pode prejudicar a consequência do debate? Como vê esta relação?

M.W.: Eu acho que vivemos num mundo onde precisamos de utilizar ferramentas que foram criadas por sistemas dos quais discordamos. Essa é a realidade. Penso que o que nos afasta mais de uma conversa materialmente fundamentada é  esta narrativa que equivale tecnologia a progresso científico e a génio individual. A ideia dos dois rapazes numa garagem que podem simplesmente ter uma ideia e, de repente, graças a propriedades transitivas da tecnologia, transformar essa ideia em negócios bilionários, apaga o montante significativo de capital que é necessário, apaga os grandes custos de infraestrutura e trabalho que são precisos. E dá esta ideia de que Silicon Valley, e os seus produtos comerciais criados por empresas privadas, são sinónimo de progresso tecnológico. E de que se questionarmos estas empresas, se questionarmos o papel da tecnologia no nosso mundo e as motivações de quem está a lançar estas tecnologias, somos anti-ciência, estamos a travar o progresso, a interromper o arco do avanço humano. 

Isso afeta a habilidade das pessoas de fazer as perguntas certas. E é combinado com o facto destas empresas serem privadas, de tudo o que fazem estar protegido por segredo corporativo. E com a capacidade que têm de contratar departamentos de marketing talentosos que escrevem histórias sobre o que estão a fazer sem incluir os factos materiais de como isso funciona. De onde vem o dinheiro, quais são os incentivos, o que move o modelo de negócio, que o melhoramento do humano não é o objectivo de facto. O objectivo é lucro infinito e crescimento perpétuo.

Por isso, acho que temos de não só contar uma história diferente, mas também de desmantelar uma série de relatos enganadores e, nalguns casos, completamente imprecisos sobre o que é a tecnologia, como funciona e a sua importância para o nosso bem-estar social e económico.

S.: Eu falava das redes sociais porque ultimamente o Twitter, uma das plataformas onde a acompanho, tem sido só “o ChatGPT pode fazer…”, “Veja 10 maneiras de usar o ChatGPT”…

M.W.: Penso que tratar a nossa realidade partilhada como conteúdo e optimizá-lo para engajamento é uma forma terrível de navegar e estruturar um ecossistema informativo. E tem conduzido a imenso non sense. A solução para isso é financiar media locais independentes que possam contrariar o papel destas plataformas na disseminação de informação sobre a nossa realidade partilhada, e reconhecer a função cívica do jornalismo e dos media. E não tentar ajustar as próprias plataformas que, em última análise, serão sempre um negócio que está a vender anúncios e não uma empresa que se preocupa com a veracidade da informação que é utilizada para vender anúncios.

S.: Acha que este momento, e esta ameaça de que a I.A. poderá causar desemprego em massa, fazem parte de uma crise mais alargada? Parece-me que o racional por detrás desta perspectiva é mais extenso, como se estivéssemos a avaliar o trabalhador até ao ponto em que o próprio trabalhador acredita que é substituível por uma máquina. Concorda com esta perspectiva?

M.W.: Concordo, até porque li muita da história da introdução da maquinaria industrial e da mecanização, e vi como algumas dessas tecnologias vão ser, e já são, usadas pelos empregadores quem detêm o poder para justificar degradar o trabalho das pessoas. 

Um exemplo: olhando para a greve dos trabalhadores de Hollywood — que acho que será uma frente bastante importante nesta luta —  é que vemos os estúdios a especular que podiam despedir os trabalhadores, ter guiões gerados por Inteligência Artificial e depois contratar algumas pessoas de volta com um título menos prestigioso. Talvez como Editores de I.A., a recibos, cujo trabalho é rever o guião escrito pela I.A. Agora, isto não significa que a I.A. seja criativa, que seja realmente capaz de substituir um escritor. Isso não é o que está a acontecer. O que está a acontecer é que a I.A. produz a impressão que é boa o suficiente ao ponto de substituir trabalhadores, e isso faz com que os patrões peguem nessa ideia e anunciem que podem substituir os escritores, e a usem para degradar a força de trabalho. Então, o problema é fundamentalmente quem controla o processo de trabalho, quem define os termos do trabalho, da distribuição de recursos que está associada a um determinado trabalho. 

Esta é a mesma luta dos Luditas tiveram, que os trabalhadores industriais rebeldes travaram ao longo de quase um século na Grã-Bretanha dos séculos XVIII e XIX. Eu apontaria para o livro do Gavin Mueller, Breaking Things at Work, que conta a história polémica dos luditas. A questão não é se a tecnologia pode ou não substituir trabalhadores, porque me parece claro que há sempre uma enorme quantidade de trabalho envolvido. A questão é mais se esse trabalho é reconhecido. Se esses trabalhadores têm agência. Se podem escolher como o seu trabalho é estruturado, ou se isso é ditado por uma combinação de patrões influenciados por uma espécie de mitologia tecnológica que convenceu toda a gente que estas tecnologias são mágicas, super-humanas, capazes de substituir trabalhadores, mesmo que não seja o caso. 

É por isso que acho a luta da Writers Guild of America (WGA) em Hollywood tão incrivelmente importante. Porque eles estão em greve e a dizer “nem pensar que nos vão substituir por I.A.”; a exigir controlo sobre como e quanto esses sistemas são utilizados. E têm uma greve pendente do Screen Actors Guild (SAG), que basicamente é composto pelos actores de Hollywood, que também dizem “não podem reproduzir as minhas parecenças, não podem reproduzir a minha voz; não podem simplesmente extrair o que é meu de mim e reutilizá-lo; não têm direito”. E é por isso que me parece que esta é uma frente de luta tão importante. 

S.: Ia perguntar precisamente sobre a greve dos guionistas. Acha que é importante este tipo de mobilização de trabalhadores? Pode ser importante até para contrariar as narrativas dominantes? 

M.W.: Acho que sim. Acho que este caso é particularmente poderoso porque são os escritores que estão na luta e eles são extremamente criativos, extremamente engraçados. E já tiveram exposição suficiente ao ChatGPT para saber que é uma treta. Por isso, quando pensamos na necessidade de reclamar a narrativa, para desmanchar o entusiasmo criado pelo marketing, não consigo pensar em melhores pessoas do que aquelas que estão a ser alvo de verdadeira ameaça existencial proveniente da narrativa de que a tecnologia os pode substituir, que têm conhecimento na prática de que isso não é verdade, e que são muito mais engraçados e muito melhores a criar narrativas do que a média dos CEOs de Silicon Valley. Por isso acho tão importante. Mas em última análise, o trabalho é ponto de alavancagem. Retirar o teu trabalho, fazer greve, é extremamente poderoso. Ter a possibilidade de dizer “não, não faremos isto”, a mim, parece-me uma das vias mais promissoras que temos em direcção a regulação significativa. 

S.: Mudando um pouco de assunto, ou não. Recentemente tenho visto algumas intervenções sobre outras matérias de enorme importância no que toca à Internet, como a UK Online Bill ou a proposta em Espanha para acabar com a encriptação ponta a ponta. Contudo, parece que a I.A. tem ocupado todo o espaço mediático, que temos esquecido outras questões importantes. Como vê esta divisão?

M.W.: Eu acho que erradamente separamos as lutas em torno da Inteligência Artificial das lutas em torno da privacidade e de outros direitos fundamentais. Mas são a mesma luta, certo? Num mundo em que a trajetória da I.A. é bem sucedida, em que a I.A. se torna tudo, e somos governados por basicamente quatro empresas que detém toda a infraestrutura e todos os dados, a privacidade não existe. É muito incerto até se o Signal existiria. O caminho que estamos a seguir de fortalecer e expandir o negócio da vigilância é o caminho para a I.A.. A Inteligência Artificial requer vigilância e conduz vigilância, mesmo que essa vigilância seja por inferência estatística e não por uma observação mais directa. É a mesma coisa. Os efeitos são os mesmos. 

Por isso, temos de reconhecer que são a mesma luta e que a luta é minimizar a coleção de dados, garantir a privacidade. Resistir a estes modelos de negócio que têm sido tão nocivos  é também, mesmo que não nos demos conta, uma luta contra a I.A., porque são as mesmas forças. Penso que temos de reconhecer que, na verdade, temos uma coligação em potência. Precisamos deste tipo de solidariedade e temos de começar a falar sobre estas coisas a uma só voz, não lutar por atenção nesta ou naquela luta. É a mesma coisa, sabes, estamos só a olhar para lados diferentes do mesmo conjunto de problemas. 

S.: A minha última pergunta é sobre a regulação da I.A. e regulação tecnológica no geral.  Como temos visto, parece que há uma tendência para regular a internet de uma perspectiva securitária, que degrada constantemente a privacidade dos utilizadores em nome da segurança que nunca se atinge. O que acha que está por trás desta visão regulatória da internet? 

M.W.: Bem, não sei por completo, mas sei que nunca vimos isso ir embora. Podemos voltar a meio dos anos 1990 e ao Clipper Chip, que segue o mesmo princípio de pensamento mágico. O desejo de criar um tipo de sistema privado que deixe os bons entrar e proteja dos maus. E o que vimos na altura foi um desperdício enorme, um desastre total, que foi posto na prateleira poucos anos depois porque se percebeu matematicamente que é impossível fazê-lo. Depois avançamos, temos o 11 de Setembro e o Patrioct Act, e a vigilância em massa da NSA que continua basicamente legitimada por esses acontecimentos.

Em 2015, tivemos o caso da Apple e do pedido do FBI por uma entrada traseira. E em todos esses casos o pretexto era o terrorismo, tinhamos de apanhar terroristas. As pessoas foram mobilizadas em torno desse pretexto e a apple rejeitou. Em 2018, foi quando comecei a ouvir falar de um novo pretexto, a proteção das crianças. Ao utilizar estas novas tecnologias, que na verdade não eram novas, estavam a enquadrá-las de outra forma. Dizendo que não partiriam a encriptação porque fariam a vigilância fora da encriptação. E agora parece que é a mesma questão. Mas não me parece que a questão seja a falta de informação. A questão é que a vigilância é uma ferramenta de poder. A assimetria de informação é uma ferramenta de poder. E isto leva-nos para muito antes da computação em rede fazer parte das nossas vidas e das nossas instituições.

Podemos percebê-lo ao olhar para o trabalho do Ian Hacking sobre o nascimento das estatísticas de estado, de James C. Scott em Seeing Like a State ou outros, como Christopher Dandeker, que escreveram sobre vigilância nos anos 1980 e 1990 fora deste âmbito computacional. Mas ser capaz de enumerar, ter informação sobre os assuntos ou pessoas é uma ferramenta extraordinária de poder. E o que tenho visto é que este poder não desaparece. Só muda de forma. E esta não é uma luta que um dia vamos simplesmente ganhar. Vamos ter sempre de lhe continuar a fazer frente.

Índice

  • João Gabriel Ribeiro

    O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Subscreve a newsletter e acompanha o que publicamos.

Eu concordo com os Termos & Condições *

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt