Chatbots do Facebook: um apocalipse robótico iminente?

A inteligência artificial tem o potencial de melhorar tremendamente a vida das pessoas e não deve ser encarada com pânico cego.

Com o avanço da inteligência artificial, avizinha-se um futuro excitante mas potencialmente perigoso. No entanto, os problemas mais próximos estão longe de um cenário semelhante à de The Terminator ou de Westworld.

O último dia de Julho começou com a imprensa nacional e internacional em alvoroço. Alegadamente, o FAIR, o laboratório de investigação em inteligência artificial do Facebook, teria encerrado um programa de optimização de bots do Messenger por estes terem começado a comunicar numa nova língua.

Com a falta de respostas, o desconforto do público tornou-se notório nas redes sociais, particularmente alimentado pelos cabeçalhos eticamente duvidosos de várias publicações. Haverá, no entanto, motivo para alarme?

Após o aparato inicial, Michael Lewis, o autor principal do estudo dos chatbots do FAIR esclareceu que as alegações eram falsas. Para o estudo, foram colocados dois sistemas a negociar de forma autónoma apenas com o intuito de atingir um objectivo inicial. Não sendo penalizada a não utilização de inglês corrente na comunicação, após milhares de conversas os sistemas começaram a utilizar palavras de formas que não são utilizadas pelos humanos. Isto não significa que os sistemas inventaram uma nova língua, apenas que a simplificaram, muito à semelhança do que acontece com os humanos ao longo dos anos.

O programa não foi encerrado – apenas foram mudados os parâmetros para que os chatbots interajam apenas em inglês, sendo o seu propósito comunicar com pessoas. Lewis afirma ainda que o avanço mais importante do seu estudo passou ao lado da imprensa. O grupo do investigador foi bem sucedido a colocar os sistemas a negociar utilizando ao mesmo tempo capacidades linguísticas e de raciocínio, dando margem para predição. Os chatbots tornaram-se então capazes de perceber que “se eu disser isto, é provável que respondas aquilo, portanto vou dizer outra coisa”.

Quando questionado sobre os perigos de se permitir que sistemas de inteligência artificial desenvolvam as suas próprias linguagens, Lewis e os seus colegas são unânimes. Os investigadores crêem que embora o funcionamento de sistemas de inteligência artificial seja extremamente complexo, os seus objectivos são sempre dados por seres humanos.

Opiniões dividem-se: Musk vs Zuckerberg

Na comunidade científica, as opiniões sobre o futuro da inteligência artificial dividem-se. Alguns dias antes do incidente do chatbots, Elon Musk, bilionário e CEO de empresas como a Tesla e SpaceX, declarou publicamente que a inteligência artificial é “o maior risco com que nos deparamos enquanto civilização”. Esta é uma opinião que Musk tem apresentado desde 2014, sendo partilhada por personalidades como Bill Gates, da Microsoft, Steve Wozniak, co-fundador da Apple, ou o físico Stepen Hawking, e tendo levado a sérios debates sobre as questões éticas e de regulamentação dos avanços tecnológicos nesta área.

Em resposta a Musk, Mark Zuckerberg, CEO do Facebook, refutou o cenário alarmista e considerou as declarações como “irresponsáveis” por porem em causa os benefícios directos da inteligência artificial para a humanidade em várias áreas, como a saúde. A tensão entre os dois bilionários não é recente, após um satélite do projecto Free Basics da Internet.org/Facebook, que daria acesso à Internet em zonas rurais de África, ter sido destruído na explosão do foguetão Falcon 9 da SpaceX, durante o seu lançamento em Setembro de 2016.

No entanto, a preocupação de Elon Musk é mais direcionada para a necessidade de regulamentação da tecnologia a priori do que para impedir o seu desenvolvimento. O bilionário adverte: “Normalmente, a forma como a regulamentação é feita é quando algo de mau acontece, há descontentamento do público e, após vários anos, uma entidade regulatória é criada para regular a indústria. Demora imenso tempo. Isto, no passado, foi mau, mas nunca algo que tenha constituído um perigo para a existência de civilização.”

Uma ameaça bem real que está lentamente a ganhar forma

Em Fevereiro deste ano, um grupo liderado por Dirk Helbing publicou na revista Scientific American uma análise sobre a sobrevivência da democracia à Big Data e inteligência artificial. A questão do apocalipse robótico que vai exterminar a raça humana não é o que deve preocupar as pessoas. Uma ameaça bem mais real está lentamente a ganhar forma.

A digitalização do mundo é um processo em curso e a sociedade é cada vez mais dependente de sistemas de informação. Grandes corporações detêm cada vez mais dados sobre as pessoas, que vão expondo cada vez mais as suas vidas na Internet. A necessidade de optimização dos negócios leva a uma tendência de que os conteúdos a que somos expostos diariamente seja cada vez mais direcionado para as nossas opiniões e crenças, e isto está a levar a uma “bolha de filtragem”. A não exposição a ideias contrárias às nossas promove a intolerância e, consequentemente, o conflito.

Por outro lado, corre-se o risco de que a filtragem tenda lentamente para um cenário quase orwelliano. A certo ponto, poderemos vir a ser impactados apenas com os conteúdos que uma grande corporação ou estado determina. Para impedir um cenário semelhante a este, ou ainda pior, de um sistema de inteligência artificial centralizado que controle toda a sociedade “à la Skynet” (The Terminator), os autores da análise propõem uma série de princípios que devem ser seguidos pelas instituições e pelas pessoas:

  1. Progressivamente descentralizar o funcionamento dos sistemas de informação;
  2. Promover auto-determinação da informação pelas pessoas, e a sua participação;
  3. Melhorar a transparência para aumentar o grau de confiança;
  4. Reduzir a distorção e poluição de informação;
  5. Utilizar filtros de informação controlados pelo utilizador;
  6. Apoiar a diversidade social, económica e cultural;
  7. Melhorar a interoperabilidade e oportunidades de colaboração;
  8. Criar assistentes digitais e ferramentas de coordenação;
  9. Apoiar informação colectiva;
  10. Promover o comportamento responsável dos cidadãos na era digital através de literacia digital e informação.

A inteligência artificial tem o potencial de melhorar tremendamente a vida das pessoas e não deve ser encarada com pânico cego. Robôs assassinos com consciência própria estão longe de se tornarem uma realidade. Estando a inteligência artificial irrevogavelmente ligada às neurociências e, havendo tanto por desvendar sobre o nosso cérebro, podemos dormir descansados durante as próximas décadas.

No entanto, face à ameaça emergente de controlo da informação, cabe a cada um de nós trabalhar para que os nossos governos e instituições sigam um caminho ético e de preservação da liberdade individual.

Texto de: Pedro Sá
Editado por: João Ribeiro

Previous CNN vai transmitir o eclipse solar em 4K e 360º
Next Atomic Blonde: Grande músculo, cérebro pequeno