É possível a IA não nos identificar? Talvez, recorrendo a um desenho colorido

Procurar
Close this search box.
Imagem via KU Leuven

É possível a IA não nos identificar? Talvez, recorrendo a um desenho colorido

A democracia precisa de quem pare para pensar.

Num ambiente mediático demasiado rápido e confuso, onde a reação imediata marca a ordem dos dias, o Shifter é uma publicação diferente. Se gostas do que fazemos subscreve a partir de 2€ e contribui para que tanto tu como quem não pode fazê-lo tenha acesso a conteúdo de qualidade e profundidade.

O teu contributo faz toda a diferença. Sabe mais aqui.

Numa universidade belga, foi criado uma imagem colorida que permite que um sistema de videovigilância inteligente não nos detecte.

Videovigilância equipada com inteligência artificial (IA) para reconhecimento de indivíduos começa a ser comum em lojas, escritórios ou espaços públicos, constituindo uma nova e poderosa forma de segurança mas também de surveillance. Pode parecer impossível escapar a tal escrutínio; todavia, investigadores de uma universidade belga dizem ter encontrado uma forma de o fazer.

Os autores da investigação agora publicada, e que pertencem à KU Leuven, mostram ser possível escondermo-nos de um sistema de videovigilância com IA através da impressão de um desenho colorido específico, que eles próprios criaram. Com essa imagem pendurada ao pescoço, por exemplo, o sistema não detecta a pessoa. Os investigadores recorreram a um mecanismo de reconhecimento disponibilizado em código aberto e chamado YoLo(v2).

Como escreve o MIT Technology Review, o truque tanto pode permitir que criminosos se escondam de câmaras de segurança como oferecer a dissidentes uma forma de evitar escrutínio governamental. “O que o nosso trabalho prova é que é possível contornar sistemas de videovigilância usando patches adversários”, comenta à mesma publicação um dos autores da investigação, Wiebe Van Ranst. O cientista diz que cada sistema é um sistema, mas que não deve difícil adaptar o desenho a cada caso. “O que gostaríamos de fazer no futuro é gerar um patch que funcione em múltiplos detectores ao mesmo tempo.”

Para criarem o desenho, a equipa belga recorreu a uma técnica conhecida como ‘aprendizagem automática adversa’, que consiste em alimentar uma rede neural com imagens que possam confundir ou enganar o sistema de IA. Este trabalho belga surge num contexto em que algumas lojas experimentais da Amazon e de outras empresas recorrem a sistemas de videovigilância inteligentes para evitar filas em caixas, ou que na China essa tecnologia é usada para apanhar criminosos ou perseguir determinados grupos étnicos.

Índice

  • Shifter

    O Shifter é uma revista comunitária de pensamento interseccional. O Shifter é uma revista de reflexão e crítica sobre tecnologia, sociedade e cultura, criada em comunidade e apoiada por quem a lê.

Subscreve a newsletter e acompanha o que publicamos.

Eu concordo com os Termos & Condições *

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt