A prevenção do pior cenário na violência doméstica: I get by with a little help from AI?

A prevenção do pior cenário na violência doméstica: I get by with a little help from AI?

18 Setembro, 2024 /
Na imagem temos uma composição gráfica onde se vê a sombra de uma arma em punho, do lado direito, apontada para uma mão que aparenta pedir ajuda, do lado esquerdo. Projectado nessa sombra vemos frases de cartazes, entre as quais se consegue ler "porque voltar para casa tem de ser um privilégio?". Esta composição tem elementos deformados, pixelizados, criando a ideia de algo ser 'mediado' por tecnologia, aquil que acontece com os algoritmos preditivos abordados no texto.
Composição por Shifter / Imagens via Unsplash
O femicídio ou homicídio de vítimas de violência doméstica quando já decorria uma investigação criminal denota uma grande falha dos sistemas de avaliação de risco, que deveriam ser a base da intervenção dos órgãos de polícia criminal face à denúncia deste tipo de condutas violentas, que se sabe terem tendência a escalar quando ocorre a denúncia da situação pela vítima.

Em Portugal, todos os anos, sucedem-se notícias sobre vítimas de violência doméstica, sobretudo mulheres e crianças, mortas às mãos dos seus agressores. É este, demasiadas vezes, o trágico culminar de situações de violência doméstica, muitas vezes já participadas às autoridades. O femicídio ou homicídio de vítimas de violência doméstica quando já decorria uma investigação criminal denota uma grande falha dos sistemas de avaliação de risco, que deveriam ser a base da intervenção dos órgãos de polícia criminal face à denúncia deste tipo de condutas violentas, que se sabe terem tendência a escalar quando ocorre a denúncia da situação pela vítima. Em Espanha, onde esta avaliação de risco é feita através de uma ferramenta de Inteligência Artificial, sucedem-se, de forma semelhante, as notícias de casos que culminam em homicídio. Porque falham os dois sistemas, e o que justifica que nenhum dos métodos ofereça, ainda, melhores resultados?

Quando uma situação de violência doméstica é denunciada, o primeiro passo a tomar é fazer uma avaliação rápida do risco de continuação ou escalada de violência, de forma a tomar as medidas de proteção mais apropriadas. Para esta avaliação, contribui o conhecimento criminológico sobre os factores de risco da violência, que tem vindo a identificar circunstâncias e características das vítimas e dos agressores que podem potenciar a probabilidade e o grau de violência. Mas, na prática, quem realiza esta avaliação não é um especialista em violência de género, mas antes um membro do próprio órgão de polícia criminal que recebe a denúncia, o que, muitas vezes, leva a uma compreensão incompleta do risco real em causa.

Esta avaliação, em Portugal, é feita imediatamente após a elaboração do auto de violência doméstica, com base num modelo relativamente simples, que consiste no preenchimento de fichas de avaliação de risco, que requerem que a vítima responda a 20 perguntas de resposta fechada de “sim” ou “não”. De acordo com as respostas dadas, é calculado o grau de risco como baixo, médio ou elevado, a partir do qual se determinam as medidas a tomar – quer as medidas ao alcance dos órgãos de polícia criminal, como o contacto frequente com a vítima, quer medidas a ser propostas por estes ao Ministério Público e que devem ainda ser validadas pelo Juiz de Instrução, nomeadamente a aplicação de medidas de coação ao arguido (que podem ir da proibição de contactos até à prisão preventiva). 

Atualmente, existem dois modelos da ficha em vigor: o RVD – 1L e o RVD-2L, este último para a reavaliação em momento posterior ao da denúncia. Muito se tem reivindicado a atualização destas fichas de avaliação de risco, e é facto que este sistema está continuamente em melhoria, embora não tão rapidamente quanto seria desejável. A Resolução da Assembleia da República 81/2021, de 18 de março, recomendou ao Governo a reformulação das fichas de avaliação de risco para situações de violência doméstica, de modo a garantir uma maior proteção das vítimas, nomeadamente “com o intuito de melhorar a exatidão das respostas das vítimas e facilitar a sua compreensão pelos elementos das forças de segurança”, tendo o anterior Governo iniciado esforços nesse sentido. Neste momento, o atual Governo formou o Grupo de Trabalho das 72h, que pretende justamente, entre outros objetivos, proceder à revisão do modelo de avaliação e gestão do grau de risco da vítima e sua posterior implementação. A Ministra da Juventude avançou ainda que a Escola Egas Moniz de Saúde e Ciência está a rever a ficha de avaliação de risco para vítimas de violência doméstica, que não é alterada desde 2014.

É interessante, sobretudo neste momento de reflexão sobre modos de melhoria dos sistemas de avaliação de risco em vigor em Portugal, contrapor o sistema português ao espanhol, em que a avaliação de risco é feita de modo ligeiramente diferente, através do chamado Sistema VioGén – Sistema de Seguimiento Integral en los casos de Violencia de Género, introduzido em 2004. Este sistema avalia o risco (numa escala entre irrelevante, baixo, médio, alto ou extremo) através de um algoritmo, levando à aplicação de medidas apropriadas, que podem ir de simples chamadas telefónicas de acompanhamento até a vigilância 24 horas por dia. Segundo o New York Times, algoritmos preditivos para prevenir a violência doméstica têm similarmente sido utilizados em partes do Reino Unido, Canadá, Alemanha e Estados Unidos da América, embora em nenhum destes lugares o tenham sido à escala nacional, como em Espanha. 

Este sistema pioneiro surge integrado numa tendência maior para a utilização das supostas capacidades “preditivas” da Inteligência Artificial, nomeadamente no âmbito da política penal (como é exemplo mais badalado o do policiamento preditivo), tendo algumas destas práticas sido consideradas como comportando um risco inaceitável e sendo, por isso, proibidas à luz do recente AI Act. Infelizmente, como em muitas outras destas tecnologias, a alegada capacidade preditiva destas ferramentas de Inteligência Artificial corre o risco de ser quase endeusada, fazendo esquecer que não se trata de uma previsão infalível, mas antes de um apuramento, que se quer mais isento, neutro e fidedigno do que o humano, daquilo que provavelmente irá ou não acontecer. O risco é que, ao confiar essa avaliação à tecnologia, se ocultem as intervenções humanas que levaram ao seu próprio modus operandi.

O VioGén é, na mesma, autor de conhecidos falhanços: ainda recentemente, em junho de 2024, foram 6 as vítimas mortais num só dia em Espanha, que viram, mais uma vez, uma deficiente avaliação de risco culminar na sua morte antecipada às mãos de agressores. Críticos da ferramenta realçam ainda o facto de o algoritmo do VioGén não ser conhecido, o que, como indicam, pode levar a ferramenta a sugerir a aplicação de medidas de  coação altamente restritivas a certos arguidos (como vimos, podendo ir até à prisão preventiva), de formas potencialmente discriminatórias. Por outro lado, uma investigação do El Mundo sobre o ano de 2014 concluiu que 14 em 15 dos casos de homicídio no contexto de violência doméstica nesse ano tinham considerado que as situações comportavam um risco baixo. Em suma, a ferramenta peca tanto por excesso como por defeito, sugerindo a imposição de severas medidas a arguidos quando seriam desnecessárias ou sugerindo a não imposição das medidas apropriadas a situações de risco elevado.

Enquanto que sistemas como o VioGén realizam o cálculo do risco concreto da situação de cada potencial vítima através de um sistema preditivo, com base num algoritmo, eles dependem, de qualquer modo, da informação que lhes é fornecida, e essa depende da forma como esta é recolhida pelos órgãos de polícia criminal, bem como, em ultima ratio, não deixam de depender das decisões humanas sobre que medidas operacionais e de coação propor e implementar.

O que é, então, comum a estes dois sistemas – o Português, mais “analógico”, e o Espanhol, mais tecnológico -, e o que provoca as falhas repetidas dos dois, que levam sempre à renovada exasperação de todos os que contam, de forma macabra mas necessária, a cada ano, o número de vítimas mortais da violência doméstica? A resposta é simples: as pessoas que realizam a avaliação de risco. Enquanto que sistemas como o VioGén realizam o cálculo do risco concreto da situação de cada potencial vítima através de um sistema preditivo, com base num algoritmo, eles dependem, de qualquer modo, da informação que lhes é fornecida, e essa depende da forma como esta é recolhida pelos órgãos de polícia criminal, bem como, em ultima ratio, não deixam de depender das decisões humanas sobre que medidas operacionais e de coação propor e implementar.

No caso do VioGén, tem sido denunciada uma falta de intervenção humana na apreciação da decisão tomada pelo algoritmo: embora os agentes da autoridade possam aumentar o risco com que se categoriza uma situação, com base nas suas perceções, um estudo de 2014 concluiu que, em 95% dos casos, os agentes simplesmente aceitam a avaliação de risco feita pelo algoritmo. Também as fichas de avaliação em Portugal correm o risco de ser cegamente seguidas, ainda que o agente possa desviar-se do resultado por estas encontrado, com base na sua experiência e apreciação do caso. Outros problemas identificados por uma avaliação independente da ferramenta espanhola foram a falta de informação às vítimas do concreto risco identificado, bem como a falta de sensibilidade sobre a dificuldade de pedir às vítimas que respondam de forma fidedigna e completa, no momento da denúncia, às perguntas destinadas a avaliar o risco, tendo em conta este ser um momento particularmente conturbado e em que as vítimas, muitas vezes, não têm apoio jurídico.

É importante pensar no VioGén como uma forma evoluída das fichas de avaliação de risco, mas que não deixa de reproduzir alguns dos seus defeitos. De facto, segundo estudos realizados sobre o tema, as ferramentas de IA teriam como benefício a diminuição do chamado “officer effect”, que explica como a avaliação do risco concreta dependerá bastante do agente de autoridade que avaliar o risco em que se encontra a (potencial) vítima, criando uma espécie de lotaria quanto à trajetória futura dessa vítima e do acompanhamento que possa vir a ter. Segundo o Algorithm Watch, “o programa é, de longe, o mais complexo do seu género no mundo” e “melhor que nada”, mas, ainda assim, são recorrentes as decisões erradas que toma.

No entanto, é preciso vê-lo por aquilo que é: uma ferramenta ao serviço de profissionais que devem, eles próprios, avaliar o risco presente numa dada situação. O grande risco deste tipo de soluções tecnológicas é o de fazer outsourcing de uma tarefa necessariamente humana e jurídica de apreciação do caso concreto, e de ofuscar a necessidade de intervenção na formação contínua destes profissionais para que tenham uma sensibilidade apurada para as manifestações da violência doméstica, bem como para os modos de comunicação das vítimas, que nem sempre são bem acolhidos pelo sistema de justiça. Podemos certamente dizer que o atual sistema em Portugal também é melhor que nada, mas isso é dizer muito pouco. Assim, qualquer que seja a direção tomada, nunca deverá ser descurada a importância da intervenção humana no contacto com a vítima.

Autor:
18 Setembro, 2024

Sou advogada, licenciada em Direito pela Universidade Nova de Lisboa e mestre em Sociologia do Direito pela Universidade de Lund, na Suécia. Sou feminista interseccional e acredito numa justiça transformativa, não-carcerária e que defenda as sobreviventes. Luto para entender e combater o fenómeno da violência sexual, e de todas as violências.

Ver todos os artigos
Partilha este artigo:
Recebe os conteúdos do Shifter, semanalmente no teu e-mail.
Partilha este artigo:

Outros artigos de que podes gostar:

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.