O tempo passa e a realidade altera-se. Os símbolos das vitórias do passado continuam a projectar-se no presente lembrando os esforços de outrora, e é a forma como os vemos que mais influencia a forma como os concebemos. Mas não estamos sós. Entre nós, aqui, no espaço digital, multiplicam-se presenças não-humanas que modelam e condicionam a nossa forma de estar e até de ser. Como vêem essas máquinas os símbolos? O que representam? Como servem os símbolos do ontem para a luta simbólica do quotidiano, que novos elementos contribuem para a distorção das mensagens, ou para os limites de expressão? Estas são algumas das questões despertadas pelo mais recente trabalho de Catarina Rodrigues, fotógrafa e programadora criativa portuguesa a viver em Londres – cujo trabalho pode ser encontrado aqui (website ou Instagram).
Num projecto artístico, Catarina treinou um modelo de aprendizagem automática com uma série de mais de 500 fotografias de um dos símbolos maiores do 25 de Abril, o cravo, e outro com outras tantas imagens de edifícios tipicamente portugueses, gerando a partir daí uma série de imagens que ilustram a forma como a máquina vê, processa e recria estes símbolos. Um trabalho que dá continuidade ao seu interesse em visuais generativos e tecnologias interactivas, aproveitando a celebração dos 47 anos de 25 de Abril para desencadear um diálogo mais alargado sobre a intercepção entre a tecnologia e o mundo que a rodeia. Falámos com a artista, por e-mail, que nos explicou um pouco mais da sua intenção com este trabalho, e partilhou algumas das suas reflexões sobre este tema.
O teu trabalho explora a visão da máquina sobre um símbolo tão importante na história nacional, devolvendo imagens distorcidas do mesmo. Consideras esta uma boa analogia para explicar aquilo que se pode resumir como ‘visão da tecnologia sobre a realidade’ e expôr a forma não só como as máquinas vêem mas também de como as máquinas ilustram?
C.R.: Sim, sem dúvida. Neste projeto queria reforçar a ideia que, independentemente da qualidade dos dados que forneces à máquina, os resultados terão sempre um elemento de distorção e que cabe a nós, as pessoas que trabalham com estas tecnologias, ter a máxima responsabilidade com a informação que selecionamos durante o treino do algoritmo. A forma como o cravo foi recriado durante as imensas horas de treino mostrou-me o quão abstrata e inesperada a forma como a máquina pode interpretar a informação visual presente no dataset. Porém, acho que as texturas e fragmentos presentes nas imagens resultantes acabam por ser uma metáfora visual da fragilidade da nossa privacidade nesta era digital. Além disso, retratam o quão vulnerável é a nossa liberdade de expressão tendo em conta o rápido desenvolvimento de novas tecnologias, nomeadamente no campo da inteligência artificial. Foi também durante esse tempo de espera durante o treino que me fez refletir na forma como muitas vezes delegamos e esperamos a decisão do outro, quer seja noutras pessoas, empresas, governo. Por vezes é fácil esquecermo-nos do poder da nossa voz e da nossa decisão quando temos aparelhos que influenciam por completo o que vamos ver, ler, ouvir, comer, etc.
Vivemos numa altura de tecnosolucionismo, em que se crê que a tecnologia nos pode salvar dos principais problemas da humanidade muitas vezes sem ponderar os contras da sua utilização. Acreditas que é papel da prática artística aportar uma reflexão sobre essa dimensão crítica? Quase como que mostrando que nem tudo é assim tão “objectivo” e “isento” no universo das tecnologias?
C.R.: Penso que neste universo das tecnologias a objetividade é definida primeiramente por quem tem a responsabilidade de desenvolver o produto em questão. Um ótimo exemplo disto é o documentário Coded Bias, que recomendo a todos verem. O artista tem a oportunidade de olhar para a tecnologia com outra perspetiva muito mais subjetiva do que o objetivismo presente na indústria tech. É essencial olhar para os avanços tecnológicos com um olhar crítico pois estes desenvolvimentos muitas vezes trazem consequências negativas para a forma como acedemos e partilhamos informação. Isto leva a decisões muito injustas, tais como quem é selecionado para entrevistas de emprego, quem é identificado por ter cometido um crime, fake news que aparecem no nosso feed, por exemplo. Para analisar estes riscos de forma eficaz, é crucial considerar o contexto sociotécnico em que a IA é inserida, por quem é usada e para qual finalidade. Penso que num futuro próximo muitos mais artistas irão querer trabalhar com estes temas, o que irá trazer uma interpretação totalmente diferente do que a que neste momento temos acesso num mundo claramente dominado pelos tech giants.
A ideia de inteligência artificial tem sido amplamente massificada e quanto mais se torna popular mais perde o seu sentido. Achas que é essencial ocupar esse espaço aberto pela dúvida, ambiguidade e incerteza sobre conceitos tão complexos com trabalhos artísticos que fomentem estas reflexões?
C.R.: O espaço de ambiguidade e incerteza que referes é certamente o lugar onde uma nova perspetiva e reflexão pode surgir. Quando existe uma divisão rígida entre o mundo técnico e o mundo artístico, perde-se a oportunidade de olhar para o papel das artes na melhoria da compreensão e explicação da inteligência artificial. Os bias que encontramos no desenvolvimento das tecnologias são ainda mais exacerbados quando acreditamos que não temos a capacidade de interagir a um nível mais profundo com esse conhecimento tecnológico. Quando artistas trabalham com os mesmos algoritmos que são usados para fins antiéticos, o nosso poder de escolha e expressão é de certa forma recuperado. Na minha prática artística uso machine learning como se fosse um novo tipo de colaborador que me surpreende, dá detalhes nunca antes visto do meu trabalho e proporciona novas oportunidades para colaborações criativas. É uma ferramenta que uso para expandir a minha criatividade, em vez de substituí-la.
Nestes novos tempos de redes sociais onde todos temos um espaço para nos exprimir (redes sociais), quais achas que são os novos desafios à liberdade de expressão e que papel achas que pode desempenhar a tecnologia para os ultrapassarmos?
C.R.: As tecnologias emergentes oferecem oportunidades sem precedentes para o nosso exercício da liberdade de expressão. A forma como comunicamos e de como interagimos com conteúdo está a ser continuamente influenciada com o desenvolvimento das redes sociais, por exemplo. Tal como em muitos outros avanços tecnológicos, IA tem um grande potencial para o bem, porém também representa uma ameaça genuína aos direitos humanos – nomeadamente a liberdade de expressão e liberdade dos media. Bailey Poland, ativista e escritora, diz que um dos novos desafios é encontrar o equilíbrio entre a proteção do anonimato e empregar as consequências necessárias para quem facilita o comportamento abusivo que tem habitado e caracterizado as discussões online. Acho que a tecnologia pode ser o nosso maior aliado quando os algoritmos criados cumprem um caráter ético – isto é, quem os desenvolve deve ter uma responsabilidade ainda mais acrescida e deve haver uma maior supervisão do trabalho desenvolvido por pessoas de diferentes ramos para que haja um controle rigoroso e justo.
Infelizmente quanto mais tempo passamos online, maior é o lucro que as empresas obtêm através de publicidade e da obtenção dos nossos dados pessoais. Como consequência, as maiores corporações têm mais controle do que se está a desenvolver e, por isso, não é surpreendente o facto de usarem os avanços tecnológicos para o seu próprio benefício.
Para ultrapassarmos esses desafios, acho vital reconhecermos o que não está a funcionar e investigar outras formas de termos controlo sobre a tecnologia que usamos para o bem maior de todos. Esta infinita rede que nos liga a todos deve ser usada como um meio para promover a importância de nos educarmos em relação ao rápido progresso das tecnologias usadas em diversas áreas da nossa vida.
You must be logged in to post a comment.