“É uma espécie de Black Mirror da vida real” – Ocasio-Cortez critica reconhecimento facial

“É uma espécie de Black Mirror da vida real” – Ocasio-Cortez critica reconhecimento facial

16 Janeiro, 2020 /
Screenshot via C-SPAN

Índice do Artigo:

Segundo Ocasio-Cortez, este tipo de tecnologia tem uma maior taxa de erro “para pessoas pretas ou mulatas” e, nesse sentido podem tornar, como a própria diz, “num mecanismo de injustiça automática”.

Alexandra Ocasio-Cortez, ou na sigla AOC, tem sido um verdadeiro fenómeno na política norte-americana. Chegada à Câmara dos Representantes dos EUA com apenas 30 anos, é uma das caras novas e mais populares do Partido Democrata norte-americano, dando a cara pela promoção da igualdade e, entre outras coisas, o Green New Deal.

Esta quarta-feira, dia 15 de Janeiro, protagonizou mais um momento sonante no congresso ao expressar a sua opinião de forma assertiva sobre as tecnologias de reconhecimento facial. Ocasio-Cortez mostrou conhecimento de causa e, para além disso, manifestou saber o público a quem este tipo de assuntos interessa.

A sua intervenção decorreu durante uma audição sobre o tema, em que foram ouvidos activistas pela privacidade e que deu, assim, voz a um movimento de críticas que se vai fazendo sentir especialmente online, em resposta ao desenvolvimento de tecnologias de reconhecimento facial por empresas como a Microsoft e a Amazon.

Durante os mais ou menos cinco minutos de intervenção, Ocasio-Cortez interrogou Meredith Whittaker do AI Now Institute, uma organização que estuda as implicações sociais do uso deste tipo de tecnologia, para traçar o cenário completo sobre o que considera ser uma tecnologia com potencial perverso.

AOC começou por reforçar o ponto anterior de Whittaker, perguntando-lhe se considera que a tecnologia pode ser utilizada por regimes autoritários, distinguindo em seguida a possibilidade desse poder ser exercido pelo Estado, como na China, ou por mega-corporações, como nos Estados Unidos da América – recordemos o caso do Ring, de que já falámos no Shifter.

Meredith Whittaker explicou, em seguida, a forma como são construídas as bases de dados de reconhecimento facial, aludindo à forma como as fotografias online em sites como Flickr, Wikipédia ou Facebook podem ser usadas para a construção desses armazenamentos, utilizados à posteriori para identificação facial.

— Então, se alguma vez puseste uma fotografia no Facebook, ela pode ser usada para uma base de dados de reconhecimento facial?
— Sem dúvida – pelo Facebook e potencialmente por outros.

— Podem os filtros de Snapchat ou Instagram, ajudar a melhorar algoritmos de reconhecimento facial?
— Sem dúvida.

Ocasio-Cortez continua as suas perguntas no sentido de estabelecer em primeiro lugar um ponto central sobre o desconhecimento dos utilizadores sobre esta realidade, partindo depois para um ponto menos explorado e de grande interesse: o potencial discriminatório da tecnologia. Segundo Ocasio-Cortez, em audições anteriores soube-se que este tipo de tecnologia tem uma maior taxa de erro para pessoas pretas ou mulatas e, nesse sentido podem tornar, como a própria diz, num mecanismo de injustiça automática.

Para AOC, a possibilidade de uma pessoa ser acusada sem conhecer que esta tecnologia está por de trás da acusação representa uma extensão do potencial discriminatório da justiça dos EUA, onde nem sempre os acusados têm acesso às evidências porque são acusados. A juntar a isso, a deputada chama a atenção para o facto de estas tecnologias serem criadas à imagem das empresas que as desenvolvem, nomeadamente da famosa Sillicon Valley, onde a falta de diversidade leva à criação de viéses na própria tecnologia; uma ideia corroborada pela interlocutora, que diz que estas tecnologias são feitas para o interesse de muito poucos.

Foi a terminar o seu tempo de antena que Ocasio-Cortez largou o chavão que tornou a sua intervenção mais popular e a direcionou àqueles para quem ela quer falar. “Isto é algo como Black Mirror da vida real”, disse a congressista norte-americana, reiterando a necessidade de as tecnologias de reconhecimento facial serem mais divulgadas bem como os perigos que acarretam – algo que não acontece actualmente, visto que grande parte do desenvolvimento é feito de um modo quase secreto.

Autor:
16 Janeiro, 2020

O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Ver todos os artigos
Partilha este artigo:
Recebe os conteúdos do Shifter, semanalmente no teu e-mail.
Partilha este artigo:

Outros artigos de que podes gostar:

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.