Treinaram reconhecimento facial com as fotos que os utilizadores carregavam

Imagem via Ever

Treinaram reconhecimento facial com as fotos que os utilizadores carregavam

"Eles estão a usar imagens das famílias das pessoas, fotografias de uma aplicação privada, e usam-nas para construir tecnologia de vigilância. É altamente preocupante", refere um advogado especialista em direitos digitais.

Ainda há pouco tempo publicávamos o artigo sobre a Lookout e chamávamos à atenção para o facto de uma inovação tecnológica embrulhada numa narrativa bem polida se tornar difícil de deter. O apelo do marketing supera a razão do cepticismo numa altura em que os estímulos chegam de todo o lado e a utilização de um novo produto ou serviço está à distância de um clique para o download ou para o login. Foi isso que aconteceu com a aplicação Ever, como agora dá conta o canal norte-americano NBC.

Imagem via Ever

Com a assinatura “Make Memories”, a aplicação prometia, à semelhança do que fazem serviços como o Google Photos ou o Apple Photos, ajudar no armazenamento e na organização das infindáveis fotografias tiradas com o telemóvel. Como diferenciação tecnológica especialmente interessante, a Ever oferecia (e oferece) uma funcionalidade de análise automática das fotografias que prometia aos utilizadores auxiliá-los na gestão de fotografias repetidas, na organização por similaridades e na catalogação de cada registo.

O que os utilizadores não sabiam é que as suas fotografias também estava a ser utilizadas para treinar os algoritmos da empresa, entre eles um sistema de reconhecimento facial que a empresa vende posteriormente a empresas privacidades, autoridades e organizações militares.

O CEO da Ever, Doug Aley, garantiu à NBC News que a Ever AI não partilha fotografias nem qualquer outro tipo de informação com os compradores da tecnologia de reconhecimento facial. Ainda assim, Jacob Snow, advogado especialista em direitos digitais, considera a prática altamente preocupante e uma violação séria da privacidade dos utilizadores que não são informados do sucedido: “Eles estão a usar imagens das famílias das pessoas, fotografias de uma aplicação privada, e usam-nas para construir tecnologia de vigilância. É altamente preocupante.”

Imagem via Ever IA

Actualmente na política de privacidade da empresa já aparece uma referência a esta utilização do material mas, segundo a mesma peça, esta só surgiu após o contacto da NBC, em Abril, sendo que a Ever já opera desde 2013 e criou a empresa-irmã Ever AI no final de 2016.

De resto, apesar da discrição, nada desta estratégia comercial é secreta. Se Ever é o nome da aplicação, Ever AI é o nome da subsidiária que comercializa as soluções de reconhecimento facial; no site ever.ai, podemos ver uma descrição do serviço bem como da base de dados utilizada para treinar o algoritmo – sem menção à app Ever.

Screenshot via Ever IA

Contactados pela equipa de reportagem, utilizadores da aplicação revelaram que não sabiam que as suas fotografias estavam a ser utilizadas com esse fim. Já o CEO da empresa desde 2016, Doug Aley, acrescentou que considera que a política de privacidade é explícita, “clara e bem articulada”. Ainda assim, outros advogados ouvidos pela NBC denunciam que a empresa devia fazer mais para informar os utilizadores da app Ever.

Até agora, a Ever AI terá feito apenas um contracto com uma subsidiária da Softbank Robotics, mas a lista de serviços que a empresa oferece mostra a amplitude do potencial do algoritmo. A incursão por este modelo de negócio foi uma decisão relativamente recente da equipa – há cerca de dois anos e meio –, depois de se aperceber que uma aplicação gratuita com apenas pequenas funções pagas teria pouco futuro. Logo após a mudança de modelo de negócio, a Ever conseguiu um investimento de 16 milhões de dólares, sinónimo do potencial que é visto pelos investidores neste tipo de mercado.

Se chegaste até ao fim, esta mensagem é para ti

Num ambiente mediático que, por vezes, é demasiado rápido e confuso, o Shifter é uma publicação diferente e que se atreve a ir mais devagar, incentivando a reflexões profundas sobre o mundo à nossa volta.

Contudo, manter uma projecto como este exige recursos significativos. E actualmente as subscrições cobrem apenas uma pequena parte dos custos. Portanto, se gostaste do artigo que acabaste de ler, considera subscrever.

Ajuda-nos a continuar a promover o pensamento crítico e a expandir horizontes. Subscreve o Shifter e contribui para uma visão mais ampla e informada do mundo.

Índice

  • João Gabriel Ribeiro

    O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Subscreve a newsletter e acompanha o que publicamos.

Eu concordo com os Termos & Condições *

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.

Preenche as informações abaixo para garantires a tua presença no Workshop sobre I.A. e podermos adequar os conteúdos ao público presente.

No decorrer desta atividade, poderão ser captadas imagens e som para divulgação pela CML, entidade parceira ou promotora, nos respetivos meios de comunicação, como redes sociais e sites institucionais.

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt