Molly Russell e a importância de um olhar humano sobre as redes sociais

Uma história sobre a complexa relação das redes sociais na adolescência e na saúde mental.
11 minutos de leitura
Post Author
  • O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

A trágica morte de Molly Russell deu-se há quase 5 anos. A jovem britânica de apenas 14 anos pôs fim à sua vida a meio do mês de Novembro de 2017 deixando para trás uma família desolada. Pouco tempo depois do fatídico dia, enquanto fazia scroll pela caixa de e-mail de Molly, Ian Russell, o pai da jovem, encontrava um e-mail do Pinterest onde se podia ler “Pins sobre Depressão de que podes gostar”, o que desencadearia um debate sem precedentes em torno das redes sociais. 

As autoridades britânicas prometeram investigar melhor o caso, tentando perceber ao certo o papel desempenhado pelas redes sociais no desfecho da vida da jovem. Passados 5 anos, foram na semana passada apresentados os resultados desse inquérito. Dos cerca de 16300 posts guardados, partilhados ou gostados pela jovem no Instagram, nos seis meses anteriores ao momento da sua morte, 2100 eram relacionados com suicídio, auto-mutilação ou depressão; já no Pinterest foram encontradas 469 imagens sobre os mesmos tópicos.  

É perante estes dados que Andrew Walker, médico-legista e um dos responsáveis pela investigação, não tem dúvidas em afirmar a influência negativa do conteúdo online na agudização do problema de saúde mental da jovem. E perante toda esta controvérsia que se reiniciou uma discussão recorrente sobre o problema da moderação nas redes sociais e o acesso de menores a conteúdos indevidos. Durante o inquérito ao caso foram ouvidos responsáveis das redes sociais: Elizabeth Lagone, responsável do departamento de Políticas de Saúde e bem estar da Meta (dona do Instagram) e Judson Hoffman, responsável da Comunidade no Pinterest, bem como um especialista em pedopsiquiatria – todos reconheceram a falha dos algoritmos mas com diferentes nuances nessa assunção.

Segundo as conclusões de Walker, a seleção algorítmica dos conteúdos resultou em longos períodos de ‘binge watching’ de conteúdos perturbadores, sem que houvesse uma acção de procura por esses conteúdos. A forma como os algoritmos criam perfis dos utilizadores e lhes dão conteúdos que se enquadram com essa caracterização fizeram com que Molly acabasse por aceder àquilo a que o seu pai chamou um “gueto online” – apontando para o facto de grande parte desses conteúdos serem praticamente invisíveis nas redes sociais, uma vez que acabam por ser direcionados apenas para os perfis identificados como potencial interessados.  

A influência das imagens em Molly foi corroborada pelo psiquiatra. Navin Venugopal, ouvido pelo inquérito, disse que viu parte dos conteúdos citados no relatório e que durante semanas teve dificuldade em dormir ao imaginar que aquilo estaria ao acesso de crianças e jovens daquele idade. Para Venugopal, “aqueles materiais romantizam, glamorizam, e esvaziam o sentido da auto-mutilação, tiram-no da realidade e fazem-no parecer quase surreal, tiram desse acto terrível qualquer tipo de consequência” e é óbvio que tiveram algum tipo de efeito na saúde mental da jovem. 

As reações das empresas

Se 5 anos não é propriamente muito tempo, a verdade é que no domínio da moderação, nas políticas de bem estar e governança das redes sociais muitos passos têm sido dados – ou, pelo menos, muitas promessas têm sido feitas. Essa foi uma das notas fundamentais dadas pelos responsáveis ouvidos. 

Judson Hoffman, representante do Pinterest, foi peremptório em dizer que a plataforma de 2017 era muito diferente do que é hoje. Ao executivo da rede social do pin foram mostradas duas séries de conteúdos – uma do princípio da utilização da app pela jovem, e outra de meses antes de tirar a sua própria vida – que, segundo consta, testemunham a alteração do perfil do conteúdo que lhe seria sugerido. Confrontado com isso e com e-mails enviados pela plataforma com conteúdos sobre depressão e títulos “10 depression pins you might like” [“10 pins sobre depressão de que poderás gostar”] e “depression recovery, depressed girl and more pins trending on Pinterest” [“recuperação de depressão, rapariga deprimida e mais pins populares no Pinterest”], Hoffman reiterou estar muito arrependido por a jovem ter acedido a esses conteúdos e disse que são hoje mais difíceis de encontrar na plataforma. Sublinhando, no entanto, que não existem formas isentas de risco de gerir uma plataforma do género, Hoffman diz que o Pinterest está melhor e afirma mesmo que não era seguro nessa altura. 

Já a audição de Elizabeth Lagone parece ter tido uma maior nota de tensão. A responsável da Meta rejeitou a ideia de que é perigoso que jovens de 13 e 14 anos fiquem nos seus quartos sozinhos a fazer scroll. Posteriormente, foi confrontada com o conteúdo – igualmente dividido em duas fases como no caso do Pinterest. Perante uma análise do conteúdo em concreto, segundo o The Guardian, considerou que a maioria dos conteúdos do primeiro tomo se enquadrava na política de publicação da rede social (Instagram); já sobre o segundo tomo detectou um maior número de conteúdos que deveriam ter sido excluídos da plataforma, o que acabou por se traduzir num pedido de desculpa de Lagone em nome da empresa. 

Importa relembrar que logo em resposta aos acontecimentos as plataformas envolvidas concentraram esforços na mudança das políticas de moderação, dado a repercussão do caso a nível global. Adam Mosseri, um dos responsáveis pelo Instagram, chegou mesmo a dizer que o caso desencadeou a mudança nas políticas de moderação da rede social em entrevista à BBC. Ainda assim, o jornalista da BBC Tony Smith que acompanha o caso, diz que numa pesquisa recente por este tipo de conteúdos bastaram alguns minutos para que fossem encontrados — apesar das promessas das empresas.

O problema das redes sociais

O problema da moderação nas redes sociais está longe de ser uma novidade, sendo tão antigo quanto o hábito das plataformas sociais em que a maioria do conteúdo é gerado pelos utilizadores. As dificuldades em controlar o conteúdo que circula na plataforma aumenta com o crescimento das plataformas, e representa um desafio especialmente complexo para pais. Dado que nas redes sociais o algoritmo se encarrega de criar uma experiência individualizada para cada utilizador, torna-se difícil para uma pessoa externa prever ou antecipar que tipo de conteúdos estão a ser exibidos.  

Por outro lado, a relação do Twitter com este caso também é particularmente reveladora da forma de relação com as tecnologias. Depois de investigar os telemóveis de Molly, a polícia descobriu uma conta de Twitter onde a jovem expunha como se sentia. Com o handler “Idfc_nomore” que o pai diz significar “I dont fucking care no more” (“Eu não quero mais saber”), a jovem repartilhava conteúdos sobre suicídio, como uma imagem de um céu nocturno estrelado onde se podia ler “estou pronta para me tornar uma das estrelas”. Noutra interação descrita em tribunal, a jovem terá tweetado para a actriz Lili Reinhart, com 3,3 milhões de seguidores, algo que se lê como um pedido de ajuda: “Não aguento mais. Preciso de falar com alguém, simplesmente não aguento mais”. Ainda na mesma rede social, Molly desenvolveu uma admiração pela influencer Salice Rose, que publica habitualmente sobre ter ultrapassado a sua depressão – algo que parecia inspirar Molly que, no seu telemóvel, guardava até uma nota de agradecimento a Salice, a quem enviava frequentemente tweets dando nota do seu desespero.

Todo este envolvimento, a relação intricada entre a vida online e offline, dá ao caso várias dimensões de análise – e levanta questões sobre a forma como as redes são moderadas. Apesar dos desenvolvimentos na introdução de meios automatizados de moderação, é preciso ter em conta que alguns destes conteúdos ganham a sua real dimensão no contexto, acabando por passar pelos filtros de moderação por não serem notoriamente prejudiciais quando desenquadrados – exemplo paradigmático é a supra-citada ilustração da noite estrelada. 

Neste ponto importa relembrar todos os avisos que se têm ouvido sobre o pouco investimento das redes na moderação e, mais do que isso, as condições desumanas a que muitas vezes são sujeitos os moderadores de redes sociais (uma reportagem recente da rádio Renascença traçava esse retrato sobre a rede TikTok). Isto para dizer que por muita tecnologia que se desenvolva, está provado que a moderação humana é mais eficaz, mas que não são dadas as condições necessárias – de formação, acompanhamento e remuneração – que reconheça essa importância. 

Toda esta relação entre a vida da jovem, o uso das redes sociais e as desculpas das tecnológicas deu aso a uma das grandes discussões sobre políticas de moderação e sobre a forma de as levar a cabo, aumentando, sem qualquer dúvida, a atenção dos pais para os perigos das redes. Tudo isto enquanto no Reino Unido se tem discutido um dos maiores pacotes legislativos sobre moderação online, algo que tem tornado o debate particularmente sensível. Proposto pela primeira vez em Maio de 2019, no então executivo de Theresa May, o pacote tem sido largamente apoiado pela fundação criada pela família – com o pai à cabeça do movimento – mas a discussão em detalhe tem sido adiada por sucessivas questões políticas e há quem receie os efeitos colaterais. 

Em suma a lei procura encontrar enquadramento para prevenir “a divulgação de conteúdo e actividades ilegais relacionadas com abuso infantil, material terrorista, crimes de ódio e racismo”, “proteger as crianças de conteúdo perigoso” e proteger os adultos de conteúdo “legal mas perigoso”. E dá a Ofcom, reguladora das comunicações, o poder de investigação sobre a aplicação destas políticas. Já do lado das sanções, prevêem-se multas para as tecnologias até um máximo de 18 milhões de libras ou 10% da facturação anual. 

O Comité Para os Direitos Humanos do Parlamento britânico foi uma das vozes institucionais a fazer-se ouvir, ecoando a preocupação de que ao legislar desta forma se possa cair em alguns excessos. Note-se que este é um argumento comum em todas as jurisdições que procuram legislar online. E que até as dúvidas levantadas pelo comité são semelhantes, por exemplo, às levantadas na altura da Carta dos Direitos Fundamentais Online promovida em Portugal. 

Por um lado, o Comité Para os Direitos Humanos levanta questões sobre como, por exemplo, se distingue conteúdo “abusivo” de simplesmente “ofensivo” e como se distingue se algo foi “ofensivo” ou “prejudicial” para uma pessoa; e, noutra dimensão, sobre como essas categorias podem ser avaliadas por algoritmos e sistemas de inteligência artificial potencialmente enviesadas. Por outro lado questionam porque é determinadas passagens da lei são apenas expandidas no documento de guia do regulador, sem terem uma avaliação ao nível legal, e se esse processo não pode prejudicar a liberdade de expressão nas redes sociais. 

Já para Ruth Smeeth uma das grandes preocupações é a de que a lei possa fazer com que Nick Clegg ou Zuckerberg (responsáveis pelas grandes plataformas) ganhem demasiada preponderância no momento de decidir e controlar o que é publicado online. E para a Electronic Frontier Foundation, uma das associações de defesa dos direitos digitais, a lei pressupõe que a OFCOM tenha capacidade de ordenar o fim da encriptação de determinadas comunicações, algo que poria em risco a dimensão das comunicações encriptadas e, no entendimento geral, podia até ser explorada por cibercriminosos. Para além das consequências directas, defensores dos direitos digitais alertam para o facto do pacote legal se poder tornar numa espécie de pegadas a seguir por outros países. 

As interações geradas pelas redes sociais, os caminhos que os seus utilizadores podem seguir sem a supervisão dos demais, a exposição excessiva a determinados conteúdos e as políticas de moderação das redes sociais são, sem sombra para dúvida, uma das grandes questões sociais deste tempo. Se é certo e estudado que a exposição a redes sociais pode trazer consequências a nível de saúde mental, importa não cair na fácil tentação de as responsabilizar por todo o mal. Da mesma forma, as políticas e leis que regem a internet devem ser avaliadas com semelhante ponderação. No meio de toda essa ponderação existem alguns conselhos que podem ser dados a pais e outros responsáveis próximos de pessoas que possam estar numa situação de vulnerabilidade. 

É recomendado que se abra uma via para a conversa sem que haja um julgamento inerente, quer do uso das redes sociais quer do conteúdo que é visto – como dá conta o The Conversation, criar um espaço livre de julgamento resulta geralmente numa maior abertura dos jovens para partilhar as suas experiências online. Para além disso, recomenda-se que não se opte por uma proibição desproporcional das redes, uma vez que por muito que seja difícil para pessoas de outras gerações compreender, estas ocupam hoje um espaço central à sociabilização entre os jovens. 

A poucos dias do Dia Mundial da Saúde Mental, o caso de Molly recorda-nos da importância do lado humano mesmo em histórias como esta, que se desenrolam maioritariamente onlineE da complexidade de factores que podem levar a um desfecho destes, para o qual nem sempre é fácil encontrar uma explicação simples ou ferramentas tecnológicas que o evitem.


Linhas de Apoio e de Prevenção do Suicídio em Portugal

Número Europeu de Emergência (112)

Se alguém está em perigo de vida, ligue imediatamente 112 e siga as indicações.

Serviço de Aconselhamento Psicológico (SNS 24)

Se tem sintomas de depressão ou tem pensamentos de suicídio, utilize o Serviço de Aconselhamento Psicológico, integrado na linha telefónica do SNS 24, através do 808 24 24 24.

Linhas de apoio

As linhas de apoio telefónico, na sua generalidade garantem o anonimato e oferecem a possibilidade de falar sobre as questões relacionadas com o suicídio com voluntários sem a pressão de uma conversa face-a-face. Falar sobre o problema ou compartilhar a dor com outra pessoa que se interessa pode ser uma grande ajuda em situações de crise.  

Os voluntários estão habilitados e podem dar indicações sobre os locais especializados onde poderá dirigir-se para obter ajuda ou tratamento específico. Se está preocupado/a com outra pessoa, as linhas de apoio também podem ajudar.

SOS VOZ AMIGA
Horário:
15:30 – 0:30
Contacto Telefónico:
213 544 545
912 802 669
963 524 660
Website: sosvozamiga.org
TELEFONE DA AMIZADE  
Horário:
16:00 – 23:00
Contacto Telefónico:
222 080 707
CONVERSA AMIGA
Horário: 15:00 – 22:00
Contacto Telefónico:
808 237 327
210 027 159
VOZ DE APOIO
Horário:
21:00 – 24:00
Contacto Telefónico:
225 506 070
Email: sos@vozdeapoio.pt
VOZES AMIGAS DE ESPERANÇA DE PORTUGAL
Horário:
16:00 – 22:00
Contacto Telefónico:
222 030 707
*O atendimento é da responsabilidade de cada uma das linhas.
Partilha nas redes sociais:
Post Author
  • O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

João Gabriel Ribeiro

João Gabriel Ribeiro

O João Gabriel Ribeiro é Co-Fundador e Director do Shifter. Assume-se como auto-didacta obsessivo e procura as raízes de outros temas de interesse como design, tecnologia e novos media.

Sugestões de Leitura

Estamos a criar uma revista de reflexão e crítica sobre tecnologia, sociedade e cultura.

Uma revista criada em comunidade e apoiada por quem a lê.

Queremos fazer do Shifter um espaço de publicação para pensamento colectivo e comunitário, aberto a sugestões e diálogos. Um ponto de encontro entre diferentes actores da sociedade, da academia ao activismo, da cultura à política.

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt