Alan Sokal é professor emérito de física na Universidade de Nova Iorque (NYU). Em 1996, tornou-se num nome extremamente popular no meio académico, mas não pelos feitos no campo da mecânica estatística ou combinatória, áreas que investigava ativamente. Em vez disso, foram os estudos culturais que protagonizaram a sua subida astronómica até à fama.
O Sokal affair [1] — “caso Sokal” — começou com a publicação de um artigo numa reputada revista de estudos culturais. Contudo, este não era um artigo qualquer — na verdade, era completamente ridículo, como afirmou o autor. Alan Sokal escreveu um artigo propositadamente mau com o intuito de demonstrar que qualquer artigo seria aceite desde que confirmasse uma certa forma de pensar, alinhada com os editores da revista. Este erro de pensamento — quando acreditamos mais facilmente naquilo que favorece a nossa maneira de pensar — é comum a todos os meros mortais e é conhecido como “viés da confirmação”. Por exemplo: se o Eduardo torcer pela equipa de futebol A e lhe disserem que foram desfavorecidos pela arbitragem num jogo com a equipa B, o Eduardo tendencialmente vai assumir que isso é verdade. Outro exemplo: o Eduardo é militante do partido X quando o partido Y está no poder — tendencialmente, o Eduardo irá achar que as medidas do partido X não são as melhores para o país, ao passo que as medidas rejeitadas do partido Y são muito superiores.
No fundo, Sokal tentou criar uma experiência para demonstrar a existência deste viés nos estudos culturais, uma área tendencialmente progressiva e de esquerda. E como seria de esperar, adeptos do conservadorismo viram isto como um triunfo — para eles, Sokal acabara de provar que os estudos culturais não são robustos e não deviam ser levados a sério. Infelizmente, ao que parece, a academia teimou em não aprender com o erro — anos depois, outros casos Sokal voltaram a acontecer. O mais conhecido, o Grievance studies affair [2] – “caso dos estudos da ofensa” – foi anunciado em 2018, com 4 artigos propositadamente ridículos aceites em revistas de estudos culturais, de género, queer, raciais ou de sexualidade.
Escândalo com os outros para mim é refresco
O caso Sokal é uma menção frequente para os críticos de áreas académicas como as humanidades ou até algumas ciências. Contudo, há uma falha nesta análise – as ciências também são frequentemente afectadas por casos semelhantes. O mais icónico será o “Sokal das ciências computacionais”, em que mais de 120 artigos sem qualquer nexo e gerados por uma inteligência artificial foram publicados em várias revistas e conferências [3]. Mas não é surpreendente que a fama destes casos não faça frente à do caso Sokal original. Há uma razão concreta para isso, atada ao modelo de produção científico e à percepção da sua utilidade. Comecemos por considerar outros exemplos de fraude e decepção na publicação científica. Estas controvérsias não são novas nem escassas e estão bem documentadas – o site Retraction Watch é uma plataforma dedicada à exposição destes casos problemáticos, mas citemos alguns.
Um desses exemplos são as “fábricas de artigos” (paper mills) [4], empresas que produzem artigos científicos “Frankenstein” a partir de resultados já publicados. Estas fábricas são uma maneira fácil de produzir artigos para cientistas que precisam de publicar muito para subir na carreira: a troco de algum dinheiro, cientistas podem aumentar o seu número de publicações facilmente. Outros escândalos relacionam-se com a publicação resultados falsos e fabricados em revistas altamente prestigiadas — veja-se o exemplo de Anil Potti [5] ou Sónia Melo [6] ou o mais recente de Sylvain Lesné.
Em 2022, Matthew Schrag [7] demonstrou que uma das maiores teorias sobre a doença de Alzheimer foi o resultado de uma fabricação de dados — desvendando finalmente este mistério. A publicação fraudulenta, de 2006 [8], terá resultado num desvio de milhões de dólares e tempo de trabalho para uma direção de investigação que, de outra maneira, não teria qualquer apoio, e levado a que Sylvain Lesné, primeiro autor desse estudo, tivesse uma carreira brilhante depois disso. Contudo, e apesar da fraude ter sido descoberta, isto não levou, por enquanto, à popularização de um “caso Schrag” ou a que fossem levantadas questões sobre toda a área; as acusações de má conduta ficaram restritas aos investigadores e são raramente generalizadas para todo o campo das neurociências. O que mostra que o peso colocado sobre o caso Sokal não é só injusto para os estudos culturais; beneficia tremendamente as ciências e previne que um olhar mais sério e cético seja colocado sobre inumeráveis estudos.
Seria ingénuo da minha parte considerar que o caso Sokal e o “caso dos estudos da ofensa” não são reveladores — demonstram problemas sérios no processo de publicação de artigos académicos que podem pôr em causa o conhecimento que temos sobre diferentes áreas. Seria também ingénuo da minha parte considerar que o caso Sokal e casos semelhantes ao “caso Schrag” são análogos perfeitos — de um lado temos um engodo, do outro uma fraude; num lado o alvo são os estudos culturais, no outro são as ciências; de um lado temos o bobo, do outro temos o artista da decepção1. A motivação maquiavélica do caso Sokal é substituída pela motivação financeira dos casos de má conduta científica. Isto explica, em parte, a diferença nas perceções — o caso Sokal foi um acto de má fé, um momento Kodak que pretendia capturar os estudos culturais a publicarem um artigo que não deviam ter publicado, os casos de má conduta científica são o produto do modelo capitalista e carreirista na ciência; os pecados da ganância atribuem-se ao indivíduo, os da decepção a um campo inteiro2. Por outras palavras, a má fé e má conduta carreiristas nas ciências não são o suficiente para condenar uma área inteira, mas a má fé intencional nos estudos culturais chegam para que uma área inteira seja posta em causa. Dois pesos, dois “casos”, duas medidas.
1- Uso a palavra “artista” aqui de forma propositada: a fraude em causa consistiu na fabricação de imagens que confirmavam a teoria de Lesné [8], tal como muitos outros casos de fraude científica [10] – uma das grandes contribuidoras para a popularização deste fenómeno é sem dúvida Elizabeth Bik e seria um ótimo ponto de partida para quem quiser saber mais sobre o assunto [9], [10].
2- devo parte destes reparos – o perdão dado ao caso Schrag por ser, até certo ponto, motivado financeiramente – a uma curta conversa que tive com Guilherme Queiroz.
O leitor atento poder-me-á dizer que esta diferença é considerável e uma justificação razóavel para as diferenças na percepção pública destes casos: no caso dos estudos culturais publicaram artigos que meramente confirmam aquilo em que já acreditavam! Contudo, este fenómeno — o viés da confirmação — é facilmente observável na ciência; em qualquer área, desde a física [11] até à ecologia [12] é claro que há vieses específicos em jogo e a porem em causa descobertas científicas. Um estudo publicado em 2022 mostra que chegamos até a procurar activamente os casos específicos que confirmam as nossas expectativas sem que demos por isso [13]. Os erros cometidos sob a sombra destes vieses não são novos e há estratégias eficazes para os colmatar [14]. Contudo, é necessário reconhecer que a prevalência destes equívocos na ciência não é um problema que começa na pessoa que faz investigação — é apenas o produto das condições de produção científica, que a afastam cada vez mais dos frutos do seu trabalho e dos seus potenciais impactos.
Pontos de tensão
Nos dias que correm, maior parte dos investigadores sabem que podem ser alvo de viéses; contudo, este conhecimento convive com a necessidade de publicar — mais artigos implicam uma progressão de carreira mais imediata e consistente para a esmagadora maioria dos cientistas. Há portanto uma tensão entre um ideal de produzir boa ciência a um ritmo que permita a auto-inspeção saudável e outro de progredir na carreira ao produzir ciência a um ritmo acelerado.
Em 2012 [15], a Amgen, uma farmacêutica americana, confirmou resultados antes reportados pela Bayer, farmacêutica alemã [16] — menos de um quarto dos estudos-chave que reportavam fármacos para o tratamento de cancro são replicáveis. Por outras palavras, quando alguém diz “fizemos A, B e C e descobrimos que o fármaco X é eficaz”, há uma oportunidade relativamente baixa de outro investigador fazer A, B e C e confirmar que X é eficaz. Este fenómeno, transversal a várias ciências, é conhecido como a crise de replicabilidade. Uma meta-análise (“análise de análises”) mostrou, em 2009, que menos de 2% dos investigadores admitem ter alguma vez falsificado resultados, apesar de 14% reportarem que conhecem colegas que falsificaram resultados e 72% conhecerem colegas com práticas de investigação questionáveis [17]. Com estas considerações em mente, é importante esclarecer que não há necessariamente uma crise na ciência, mas sim na sua produção; por outras palavras, conseguimos progredir cientificamente, mas é preciso um olhar mais cuidadoso sobre os resultados. E para além disso é preciso que as instituições responsáveis pela curadoria da ciência não tenham medo de admitir que há lugar para erros e controvérsia.
Consideremos o caso Schrag acima referido. As provas de que os resultados reportados pudessem ser replicados sempre foram escassas e durante anos houve acusações de falsificação, mas foi preciso que Matthew Schrag, no seu tempo livre, se dedicasse a provar essa falsificação [7]. Apesar destas provas agora serem abundantes, o artigo original é tímido nas suas palavras: ao acedermos à versão online deste artigo na revista Nature (uma das mais prestigiadas no mundo científico), somos alertados de que há “preocupações relativamente a algumas figuras neste artigo” e que os resultados devem ser usados com cuidado. E entretanto, outros estudos continuam a usar estes resultados como verídicos. A comunidade científica conseguiu caracterizar o problema extensivamente, mas a revista capaz de o resolver toma medidas insuficientes. No caso Sokal, os editores admitiram o seu erro e confessaram ter publicado o artigo em parte por acharem importante diversificar as opiniões que apresentavam na sua revista; Sokal era um físico com boa reputação, portanto configurava um elemento raro nos estudos culturais3. No caso Schrag, os editores colocam um pequeno aviso, enquanto Sylvain Lesné continua a ter acesso a financiamento. Em maio de 2022, Lesné recebeu uma bolsa de 760,000$ do NIH – National Institute of Health [19], 4 meses depois de Schrag ter exposto as suas preocupações relativamente a este instituto [7].
3 – um estudo de 2022 mostrou a escala deste viés – artigos com autores conhecidos têm uma probabilidade muito maior de serem aceites para publicação [18].
A mensagem é clara: a comunidade científica levantou as suas suspeitas durante anos, mas as instituições responsáveis por ouvir os investigadores — desde revistas até agências de financiamento — escolheram ignorá-la.
Fundamentalmente, as motivações de Lesné parecem ter sido claras — prestígio, financiamento —, uma vez que a possibilidade de engano ou ingenuidade foi minimizada pela consistente publicação de dados falsificados ao longo dos anos [7]. Mas outros fatores podem ser facilmente relacionados, como a precariedade associada à profissão [20] e os elevados níveis de burnout [21] , que tornam um trabalho que podia ser recompensador numa fonte de stress tremenda, dado que o financiamento é em grande parte temporário. Num inquérito feito em 2018 com 1,175 pessoas conduzido nos EUA, em 2018, 90% das pessoas disseram que achavam que os cientistas trabalham pelo bem da humanidade [22], o que mostra que o público tende a confiar na ciência enquanto instituição e nos seus atores, mas a consistência de alguns escândalos pode prejudicar isso. Outro ponto de tensão gera-se, desta vez, do lado do público — é importante termos princípios e descobertas científicas como uma maneira de guiar a sociedade, mas é importante reconhecermos o valor que descobertas individuais podem (não) ter. A consistência e reprodução dos resultados faz parte da epistemologia científica — da maneira como o conhecimento científico é produzido — e é importante que o público o saiba, que os órgãos de comunicação social o ecoem, e que os investigadores o refiram.
Ciência Lda.
Uma questão importante levanta-se aqui: já sabemos que as carreiras dos investigadores dependem da publicação de artigos, mas qual é o interesse das revistas em publicá-los? Não podiam as revistas ser as guardiãs imparciais do conhecimento? Será talvez um choque para grande parte dos leitores saber que a indústria da publicação científica é mais lucrativa do que a indústria da música [23], com uma receita na ordem dos 19 mil milhões de dólares em 2017. Mas a receita em si pouco nos diz — que parte disso se traduz em lucro? A Elsevier, a maior editora de revistas científicas a nível global, tem uma margem de lucro de aproximadamente 40%, maior do que as margens de lucro de empresas como a Google, Microsoft e Coca–Cola [24]. E uma rápida pesquisa revela mais uma questão: se os jornais tradicionais têm margens de lucro inferiores a 15% [25], como é possível que revistas científicas tenham margens de lucro mais de duas vezes superiores? A resposta está no trabalho que fica por pagar na comunidade científica.
Os jornais tradicionais pagam, salvo algumas exceções [27] , aos jornalistas e editores encarregues de escreverem os seus artigos. Por outro lado, grande parte dos editores de revistas científicas não recebe por isso, e nenhum investigador é pago por publicar em revistas científicas. O pagamento é feito na forma de “prestígio” e publicações, essa moeda de troca essencial para a progressão da carreira. Os investigadores também revêem os artigos de outros investigadores gratuitamente para as revistas científicas. Este processo é conhecido como peer review, ou revisão por pares, e é um processo essencial para certificar a qualidade de um artigo. Durante este processo podem ser sugeridas alterações que tornem a investigação mais robusta como experiências adicionais ou melhor contextualização dos resultados. E a razão para a não-remuneração é simples mas triste: as revistas recusam-se a compensar os investigadores que levam a cabo a revisão, e os investigadores, individualmente, não têm o poder necessário para motivar uma mudança sistemática. Tem de haver uma luta organizada que coloque os investigadores e as agências de financiamento na busca por alternativas melhores, em que nenhum tenha de contribuir para uma indústria cativa dos lucros que produz para os seus acionistas.
Para tornar tudo pior, vale a pena notar que é necessário que os investigadores paguem para publicar em praticamente todas as revistas de acesso aberto (revistas que disponibilizam “livremente” artigos científicos). Caso os artigos não estejam em acesso aberto, os investigadores — ou os centros de investigação que os empregam — têm de pagar por subscrições ou artigos. E, finalmente, que estes lucros não revertem para os investigadores, sendo que o financiamento público considerável tem de contribuir não só para a investigação em si mas também para a publicação destes artigos [24], [26]. Em Portugal e noutros países europeus, há medidas dedicadas à publicação em acesso aberto, de forma a que a investigação produzida com financiamento público seja disponibilizada para o público [27]. Esta medida, apesar de ótima pela sua transparência, é também uma forma complicada de continuar a financiar a indústria de publicação científica; alternativas internacionais e federadas que não priviligiem os lucros são necessárias, mas esta é uma conversa que, apesar de essencial, é evitada para não perturbar o mercado livre.
Em suma, os investigadores:
- Estão sob pressão para publicar porque isto tem uma influência directa sobre a carreira e caso não o consigam fazer podem perder o emprego
- Beneficiam muitas vezes a quantidade e não a qualidade dos artigos científicos pois a primeira determina grande parte da carreira dos investigadores
- Têm, na esmagadora maioria dos casos, a responsabilidade de garantir o financiamento que lhes permitirá sobreviver e conduzir e publicar a própria investigação
- Têm de contribuir com trabalho não pago para rever o trabalho de colegas
Torna-se fácil de perceber que há incentivo para os investigadores, enquanto indivíduos captivos de um sistema que os explora, produzirem investigação questionável a ritmos acelerados, tal como há incentivos para publicar esses artigos por parte das revistas científicas, que continuam a criar jornais e edições especiais para poderem motivar um maior número de publicações [28], [29]. O caso Schrag não é acidental; é um produto natural do complexo industrial de publicação científica. O caso Sokal e outros parecidos revelam algo importante: muitas vezes somos inconscientemente afectados por vieses que não nos permitem julgar algo correctamente. O caso Schrag e os seus muitos semelhantes tornam evidente que, na ciência, a combinação da conflação de “conhecimento” e “artigo científico” com a “quantidade de artigos científicos” como métrica de qualidade tem potenciais altamente danosos 4.
4 – a noção de que o conhecimento científico é equivalente a um conjunto de artigos científicos foi levada ao absurdo pela Meta: após treinarem um modelo de linguagem com um grande volume de artigos científicos [30], publicitaram-no como tendo sido treinado com o “conhecimento científico da humanidade” [31]. Foi disponibilizado e, após 3 dias, foi removido da internet após ter produzido artigos anti-semitas ou artigos sobre os benefícios de comer vidro, entre outros [32].
O problema não é o caso Sokal ter levantado controvérsia – seria preocupante caso tivesse sido ignorado – mas sim os casos Schrag não motivarem a tração necessária que levaria, ultimamente, a uma revolução no sistema de publicação, que remova o poder das mãos de grandes editoras e os passe para as mãos da comunidade científica.
Quebrar o molde para imaginar soluções
“É mais fácil imaginar o fim do mundo do que o fim do capitalismo.”
Frederic Jameson/Slavoj Žižek/Mark Fisher
Esta citação refere-se à omnipresença do sistema capitalista que leva a que possibilidades pareçam impossíveis. No entanto, neste contexto não deve ser lida como um diagnóstico terminal, mas como uma sugestão de que as soluções devem ser radicais e transformativas, contemplando maneiras completamente novas de ver o mundo da publicação científica. O nosso próprio corolário é necessário, não esquecendo que o próprio sistema de publicação é inerentemente capitalista: “É mais fácil imaginar o fim da ciência do que o fim da indústria de publicação científica.”
Publicar ou perecer
O mecanismo atual, em que a publicação é o requisito para o sucesso do investigador, foi resumida há décadas: publicar ou perecer. Ao longo dos anos, as candidaturas a bolsas aumentam e os mesmos comités têm de as rever. Por isso, foram criadas métricas simples e imediatas para dar vazão a este sem fim de publicações — o volume de publicações e os “factores de impacto”, tipicamente abreviado para IF (do inglês impact factor), e representante meramente do número médio de citações que uma revista tem por ano.
Usando estas duas medidas (ou semelhantes), comités de avaliação procuram avaliar a quantidade de artigos produzidos e a popularidade potencial dos mesmos. O principal problema é que nenhuma das métricas se traduz numa avaliação directa da qualidade da ciência que cada investigador produziu. Revistas com IF mais elevado têm, em teoria, processos de peer review mais exigentes, mas isto nem sempre é verdade. Dos 40,405 artigos retraídos na Retraction Watch Database, 257 pertencem a revistas grandes do grupo Nature, 161 à revista Science e 78 à Cell Press, 3 dos grandes grupos de publicação com IF tipicamente alto (números retirados no dia 19 de Novembro de 2022) [33]. É, portanto, necessário que, caso o sistema de financiamento continue a depender de bolsas, sejam dadas maiores capacidades aos comités de seleção para que possamos abandonar métodos de avaliação fracos que não representam verdadeiramente a qualidade da investigação.
Contudo, continuam a haver problemas fundamentais nesta abordagem. Quem escolhe o comité? O que define a “qualidade” de um artigo científico? É preciso pensar para lá desta pequena esfera de avaliação centrada no comité e pensar em alternativas que federalizem o poder por universidades ou centros de investigação. Porque é que há um comité, provavelmente enviesado, a avaliar propostas de investigação científica, quando podemos recorrer ao conhecimento agregado de milhares de investigadores?
A decisão de considerar uma proposta de investigação merecedora de bolsa devia cair na comunidade, não numa qualquer elite que representa a comunidade: avaliadores voluntários, cujo conhecimento é certificado por outros membros da comunidade (preferencialmente externos à rede de contactos do avaliador) podem constituir uma poderosa força para a avaliação de propostas científicas. Podemos também certificar-nos de que o roubo de ideias é minimizado ao tornar públicos os avaliadores de cada proposta após a avaliação, e minimizar o viés associado à popularidade dos autores ao manter o anonimato absoluto durante a avaliação (descrito abaixo na nota 1). Isto é semelhante ao que já é feito na peer review de algumas revistas – o processo de revisão é anónimo, mas as identidades dos autores e revisores são reveladas após a publicação, prevenindo o abuso por parte dos revisores.
Plataformas ou protocolos
Em 2019 Mike Masnick publica o ensaio “Protocols, Not Platforms: A Technological Approach to Free Speech”. Neste notável documento, parte do perigoso falhanço associado à centralização das redes sociais e das suas capacidades de deter cativos dados de milhares de milhões de pessoas que as usam enquanto regulam o discurso como lhes é conveniente [34]. Daqui, Masnick imagina um mundo novo, em que são os protocolos, e não as plataformas, as estrelas. Mas o que queremos dizer por protocolos e plataformas? O exemplo mais simples será o do e-mail, em que apesar de haver várias plataformas de e-mail (Protonmail, Outlook, Gmail, etc.) elas conseguem comunicar facilmente entre si; o que se deve ao facto da comunicação por e-mail se servir de um protocolo comum. Isto é drasticamente diferente daquilo que vemos com as redes sociais populares que pertencem a empresas diferentes. Não é possível publicar um tweet directamente no Facebook, por exemplo. Masnick argumenta que, ao orientarmos a internet para protocolos, podemos criar um ambiente competitivo entre plataformas; em vez de podermos aceder ao nosso feed do Facebook apenas no site da empresa, poderíamos usar um sem número de alternativas, que tentam capturar o nosso interesse para poderem derrotar os seus competidores. Atualmente, isto acontece com plataformas como o Reddit, um protocolo que pode ser acedido a partir de múltiplas apps e que permite aos utilizadores escolher a maneira como acedem ao protocolo dependendo dos critérios pessoais de cada um [35].
A relação desta abordagem com a publicação científica pode parecer elusiva, mas espero torná-la evidente aqui 5. Primeiro, os paralelos: tal como poucas empresas de redes sociais detêm os dados pessoas de milhares de milhões de pessoas, pelo menos 70% das publicações nas áreas da química, psicologia e ciências sociais pertencem a grandes grupos de publicação [376]. “Pertencem”, aqui, não é uma forma de expressão — as revistas detêm o artigo científico como posse própria, impedindo que a comunidade científica seja dona dos próprios produtos que fabrica. Portanto, como pode a comunidade científica destas grilhetas? Com isto identificamos os 2 problemas essenciais que nos permitem melhor ver o paralelo entre as plataformas de redes sociais e as plataformas de publicação científica (“revistas”): a centralização dos dados pessoais/da produção científica em pouquíssimas empresas e a falta de poder que cada indivíduo/investigador tem sobre os dados/a ciência que produz.
5 – devo a “Decentralized Infrastructure for (Neuro)science”, ensaio de Jonny Saunders [36], a inspiração para escrever sobre plataformas descentralizadas na ciência e algumas das soluções.
Para a comunidade científica poder deter os frutos do seu trabalho com o atual sistema seriam necessárias regulações a nível global, livrando as revistas científicas da posse do seu maior produto – o artigo científico. Como vemos vezes e vezes sem conta, regulações a nível global são raras e ineficientes — após décadas de múltiplas “conferências de partes” sobre assuntos tão variados como o clima (COP27) ou corrupção (Convenção das Nações Unidas Contra a Corrupção) vemos pouca ação e um excesso de conversa sobre trivialidades, levando a “soluções” que pecam por tardias ou insuficientes. É portanto necessário desconsiderar corpos regulatórios — que prestam muito mais atenção às elites e outros grupos poderosos do que à comunidade de civis comuns [38] — e imaginar as nossas próprias soluções, livres dos interesses deturpados adoptados pelos nossos “representantes políticos”.
Cada centro ou grupo de centros de investigação podia ter um pequeno servidor onde artigos científicos pudessem ser disponibilizados livremente antes da sua peer review – tipicamente chamados de preprints ou “pré-publicação”. Isto levaria a alguns custos – particularmente a nível informático e de pessoal. Contudo, se considerarmos o arXiv – um dos maiores servidores de preprints, lar para quase 2 milhões e quinhentos mil preprints, vemos que esta solução constitui uma fração dos custos de publicar em grandes grupos. No ano de 2021, o orçamento para hospedar este volume considerável de informação e pagar à equipa que cuida deste serviço não ultrapassou os 2 milhões e quinhentos mil dólares — praticamente um dólar por artigo por ano. Comparado com os custos médios da publicação em acesso aberto — 1917 e 1753 dólares para as ciências e medicina, respetivamente [39] — temos uma distância nas ordens de grandeza entre um serviço sem fins lucrativos e outros que têm de satisfazer acionistas.
A criação destes sistemas de armazenamento descentralizado serviriam para criar uma rede distribuída de conhecimento científico, onde os direitos de autor e propriedade intelectual não deixariam o cientista ou, na pior das hipóteses, o centro de investigação. Com uma maneira que permitisse partilhar artigos científicos com diferentes níveis de privacidade e acesso – para salvaguardar a disseminação restria de artigos ou preprints com material potencialmente sensível – teríamos enfim o nosso protocolo de partilha de artigos, representando um investimento mínimo (potencialmente público) em comparação com aquilo que é pedido por empresas de publicação científica.
A peer review, dentro deste protocolo, podia ser feita de uma maneira semelhante àquela que foi descrita para a avaliação de candidaturas a bolsas — uma comunidade de investigadores e centros de investigação valida e certifica-se mutuamente 6. Para além disso, a peer review em si podia ser objecto de avaliação — quando “centramos” o poder nos indivíduos que compõe a comunidade, as possibilidades multiplicam-se 7. Finalmente, caso houvesse alguma alocação de recursos para isso, poderia haver uma motivação financeira para a peer review — finalmente teríamos um sistema capaz de compensar monetariamente quem usa o seu tempo para melhorar a robustez do processo científico.
Podemos considerar o papel que as revistas poderiam ter neste modelo — de forma semelhante a jornais periódicos, as revistas científicas podiam, no máximo, servir como plataformas de divulgação construídas sobre o protocolo de publicação — caso um artigo fosse de interesse magnânimo, várias plataformas teriam de competir para aceder ao direito de o divulgar em primeira mão. Isto existe em oposição ao modelo atual, em que vários investigadores se vêem forçados a gastar tempo na produção de artigos formatados especificamente para diferentes revistas, competindo com os seus pares e perdendo os direitos de publicação sobre o trabalho que produzem.
6 devo este reparo – o facto de ser possível uma rede de certificação mútua entre cientistas e instituições que torna outras plataformas centrais de acreditação desnecessárias – a uma conversa (ou possivelmente mais) que tive com António José Preto.
7 há, claro, o caso de maus atores na rede – investigadores que conseguiram credencializar-se falsamente. Mas isto não é específico deste protocolo – há casos semelhantes no atual modelo de financiamento [40]. Com uma rede onde o poder é descentralizado, seria possível que movimentos populares pudessem destituir fraudes – seria desnecessário esperar que alguma plataforma central tomasse uma ação que, fundamentalmente, também a prejudica a ela.
Panaceias ou problemas
Em outubro de 2022 a eLife, popular revista científica nas áreas das ciências da vida, anunciou uma nova maneira de publicar. Em vez de publicar apenas os artigos que aceita, publica todos e ajusta o estado daqueles que conseguiram passar a peer review [41]. Mas a eLife não é a campeã de publicação aberta que muitos pensam — apesar de mais transparente, o processo de publicação com a eLife captura de igualmente os direitos de publicação que, de outra forma, pertenceriam aos autores. Plataformas como a SciPost garantem que os autores mantêm os seus direitos e não cobram por publicações em acesso aberto [42]. Esta forma de publicar, que respeita os plenamente os autores, é conhecida como “acesso aberto diamante” [43] e adopta um modelo de peer review mais democrático e semelhante ao delineado acima – a opção e iniciativa de contribuir para a revisão científica de artigos parte dos investigadores. É, tanto quanto consigo imaginar, algo mais próximo de um sistema de publicação centralizado ideal8.
8- é impossível não referir aqui dois importantes aspecto destas plataformas: em primeiro lugar, muitas comunidades locais (particularmente na América Latina e Médio Oriente) dependem delas para publicarem, constituindo um importante órgão destes ecossistemas científicos. Em segundo lugar, o financiamento destas plataformas é, muitas vezes, escasso – a maior parte tem apenas um empregado a tempo inteiro, sendo que o resto do trabalho associado à publicação depende consideravelmente de trabalho voluntário [44]. Contudo, este último ponto não nos deve fazer desconsiderar este modelo de publicação; pelo contrário, deve fazer-nos perguntar: porque é que os recursos provenientes de bolsas de investigação para pagar taxas de publicação em acesso aberto exorbitantes não são canalizados para desenvolver alternativas sustentáveis e democráticas?
Estes novos métodos de publicação, apesar de centralizarem o poder de decisão e acreditação de cientistas, são uma lufada de ar fresco numa indústria que muitas vezes se recusa a inovar. Mostram-nos ainda que a disponibilização de artigos científicos para a apreciação da comunidade é importante e bem vinda. Finalmente, tornam evidente que é possível reimaginar a indústria de publicação científica — só nos falta imaginar o seu fim.
Quando as soluções dependem de nós, a grande dificuldade em imaginar o que existe para lá do que vemos é vermo-nos enquanto seres capazes; disto, creio, temos todos culpa. É difícil imaginar as estruturas que podem surgir para capacitar novas maneiras de viver e trabalhar, tal como é difícil reconhecer que a atual existência é necessariamente hipócrita — o leitor atento, apontar-me-á o dedo, triunfante, por citar aqui artigos de revistas científicas que critico, ou até por já ter publicado com algumas das empresas que aqui critico. É uma crítica justa, mas não nos podemos esquecer que é sempre do sistema atual que partimos para o mudar.
Não podemos livrar-nos, espontaneamente, das condições em que existimos, do mundo com o qual convivemos — é o nosso ar, quer queiramos quer não. E enquanto cientistas, é a partir daqui que vem a nossa subsistência. A maneira como a necessidade de publicar se torna indissociável do trabalho científico levou muitos a carreiras científicas de sucesso, mas tornou a produção de um bem comum numa indústria tóxica e lamacenta. Para seguir em frente, nada garante que tenhamos de continuar assim, e pouco ganhamos em fazê-lo: nada nos obriga a não ser tão livres como podemos.
[1] A. Sokal, “A physicist experiments with cultural studies,” 1996.
[2] Y. Mounk, “What an audacious hoax reveals about academia,”The Atlantic. Atlantic Media Company, Oct. 2018. Available: https://www.theatlantic.com/ideas/archive/2018/10/new-sokal-hoax/572212/
[3] A. Conner-Simons, “How three MIT students fooled the world of scientific journals.”https://news.mit.edu/2015/how-three-mit-students-fooled-scientific-journals-0414, Apr. 2015.
[4] H. Else and V. Noorden, “The fight against fake-paper factories that churn out sham science.”http://dx.doi.org/10.1038/d41586-021-00733-5, Mar. 2021.
[5] D. Lowe, “The Duke/Potti scandal, from the inside,”Science, Jan. 2015.
[6] T. Firmino, “Sónia melo ilibada de fraude mas foi negligente e pouco rigorosa.”https://www.publico.pt/2016/10/28/ciencia/noticia/sonia-melo-ilibada-de-fraude-mas-foi-negligente-e-pouco-rigorosa-1749279, Oct. 2016.
[7] C. Piller, “Blots on a field?”Science, Jul. 2022.
[8] S. Lesné et al., “A specific amyloid-beta protein assembly in the brain impairs memory,”Nature, vol. 440, no. 7082, pp. 352–357, Mar. 2006.
[9] E. Bik, “Science has a nasty photoshopping problem,”The New York Times, Oct. 2022.
[10] H. Shen, “Meet this super-spotter of duplicated images in science papers.”http://dx.doi.org/10.1038/d41586-020-01363-z, May 2020.
[11] M. Jeng, “A selected history of expectation bias in physics,” Aug. 2005, Available: https://arxiv.org/abs/physics/0508199
[12] E. L. Zvereva and M. V. Kozlov, “Biases in ecological research: Attitudes of scientists and ways of control,”Sci. Rep., vol. 11, no. 1, p. 226, Jan. 2021.
[13] P. Kaanders, P. Sepulveda, T. Folke, P. Ortoleva, and B. De Martino, “Humans actively sample evidence to support prior beliefs,”Elife, vol. 11, Apr. 2022.
[14] C. Rock, “Five ways to take confirmation bias out of your experimental results.”https://blogs.stjude.org/progress/avoiding-confirmation-bias-scientific-research.html, Jan. 2018.
[15] C. Glenn and L. M. Ellis, “Raise standards for preclinical cancer research.”http://dx.doi.org/10.1038/483531a, Mar. 2012.
[16] F. Prinz, T. Schlange, and K. Asadullah, “Believe it or not: How much can we rely on published data on potential drug targets?”Nat. Rev. Drug Discov., vol. 10, no. 9, p. 712, Aug. 2011.
[17] D. Fanelli, “How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data,”PLoS One, vol. 4, no. 5, p. e5738, May 2009.
[18] N. Jones, “Authors’ names have ‘astonishing’ influence on peer reviewers.”http://dx.doi.org/10.1038/d41586-022-03256-9, Oct. 2022.
[19] “RePORT ⟩ RePORTER.”https://reporter.nih.gov/search/B0q-ZVTtnk6p4TZffENe1Q/project-details/10464632.
[20] OECD, “Reducing the precarity of academic research careers,” Organisation for Economic Co-Operation; Development (OECD), May 2021.
[21] V. Gewin, “Pandemic burnout is rampant in academia.”http://dx.doi.org/10.1038/d41586-021-00663-2, Mar. 2021.
[22] B. G. Southwell and K. White, “Science and technology: Public perceptions, awareness, and information sources.”https://ncses.nsf.gov/pubs/nsb20227/public-perceptions-of-science-and-technology.
[23] S. Buranyi, “Is the staggeringly profitable business of scientific publishing bad for science?”The Guardian, Jun. 2017.
[24] M. Hagve, “The money behind academic publishing,”Tidsskr. Nor. Laegeforen., vol. 140, no. 11, Aug. 2020.
[25] K. Pequenino, “Carta aberta denuncia falta de pagamentos no novo semanário.”https://www.publico.pt/2022/07/20/sociedade/noticia/carta-aberta-denuncia-falta-pagamentos-novo-semanario-2014407.
[26] Scienceogram, “Global private and public R&D funding.”https://scienceogram.org/blog/2013/05/science-technology-business-government-g20/.
[27] “FCT — open access policies.”https://www.fct.pt/acessoaberto/index.phtml.en.
[28] M. Zul, “How many academic journals are there in the world?”https://publishingstate.com/how-many-academic-journals-are-there-in-the-world/2021/.
[29] P. Crosetto, “Is MDPI a predatory publisher?”https://paolocrosetto.wordpress.com/2021/04/12/is-mdpi-a-predatory-publisher/, Apr. 2021.
[30] R. Taylor et al., “Galactica: A large language model for science,” Nov. 2022, Available: https://arxiv.org/abs/2211.09085
[31] W. D. Heaven, “Why meta’s latest large language model survived only three days online,”MIT Technology Review, Nov. 2022.
[32] T. Greene, “Meta takes new AI system offline because twitter users are mean.”https://thenextweb.com/news/meta-takes-new-ai-system-offline-because-twitter-users-mean, Nov. 2022.
[33] “Retraction watch database.”http://retractiondatabase.org/RetractionSearch.aspx?AspxAutoDetectCookieSupport=1.
[34] M. Masnick, “Protocols, not platforms: A technological approach to free speech.”https://knightcolumbia.org/content/protocols-not-platforms-a-technological-approach-to-free-speech, Aug. 2019.
[35] “Which reddit app do you use and why? (2021 edition).”https://www.reddit.com/r/Android/comments/o1z1dk/which_reddit_app_do_you_use_and_why_2021_edition/, Jun. 2021.
[36] J. Saunders, “Decentralized infrastructure for (neuro)science.”https://jon-e.net/infrastructure/.
[37] F. MacDonald, “These five companies control more than half of academic publishing.”https://www.sciencealert.com/these-five-companies-control-more-than-half-of-academic-publishing, 2015.
[38] M. Gilens and B. I. Page, “Testing theories of american politics: Elites, interest groups, and average citizens,”Perspectives on Politics, vol. 12, no. 3, pp. 564–581, Sep. 2014.
[39] H. Morrison, L. Borges, X. Zhao, T. L. Kakou, and A. N. Shanbhoug, “Open access article processing charges 2011 - 2021,” 2021.
[40] J. Rasko and C. Power, “Dr con man: The rise and fall of a celebrity scientist who fooled almost everyone,”The Guardian, Sep. 2017.
[41] M. B. Eisen et al., “Peer review without gatekeeping,”Elife, vol. 11, Oct. 2022.
[42] P. Rudolf, “SciPost: about.” https://scipost.org/about
[43] Science Europe, “Diamond open access.” https://www.scienceeurope.org/events/diamond-open-access/
[44] J. Bosman, J. E. Frantsvåg, B. Kramer, P.-C. Langlais, and V. Proudman, “OA diamond journals study. Part 1: findings.” Mar. 2021.