Gerador de texto com IA assusta os seus criadores que adiam publicação

Ainda não é desta que falamos de robots treinados para lutar contra os seus criadores ou alguma coisa que abra a caixa de pandora da interação física entre sistemas de inteligência artificial e humanos.

Apesar de o título poder criar essa primeira imagem mental, comecemos por esclarecer que ainda não é desta que falamos de robôs treinados para lutar contra os seus criadores – ou alguma outra coisa que abra a caixa de pandora da interação física entre sistemas de inteligência artificial e humanos. É no software que está o perigo e este exemplo serve perfeitamente para nos lembrar do que podemos enfrentar daqui para a frente numa série de campos, das notícias à ficção.

O sistema chamado GPT2 foi criado por uma empresa sem fins lucrativos, chamada OpenAI, apoiada por nomes como Elon Musk ou Reid Hoffman, co-fundador do Linkedin e trata-se de um simples gerador de texto como tantos outros, mas com uma capacidade nunca antes vista. O GPT2 consegue criar texto com uma elevada verosimilhança e sem cair nos erros dos sistemas apresentados até agora, como esquecer-se do texto a meio ou entrar em loops repetitivos. Em sentido contrário, o sistema consegue dar continuidade a um bloco de texto sem que se detecte imediatamente onde parou o homem e onde começou a máquina, criando os chamados “deep fakes”, desta feita em texto — e por agora apenas em inglês.

Na base de todo este potencial do sistema, os seus criadores dizem estar a forma como ele foi criado. O modelo é 12 vezes maior que o normal e foi treinado em 15x mais dados do que o normal, concentrado mais informação no seu sistema. Para o efeito, os investigadores recorreram a 10 mil artigos noticiosos partilhados no Reddit e com mais de 3 votos positivos, algo que perfez um total de 40 GB de informação em texto — como nota o The Guardian, o equivalente a 35 mil cópias do Moby Dick.

Se por um lado nada disto parece perigoso, os seus criadores acharam por bem não tornar totalmente pública a sua investigação e explicaram os motivos. Por ser treinada em conteúdo da web, temem que este sistema seja pródigo a criar spam e/ou teorias da conspiração com pequenas alterações, e que possa vir a ser uma potente arma na guerra de informação e desinformação que actualmente vivemos, atravessando fronteiras e eleições.

A decisão da equipa de investigação foi, por isso, manter o projecto internamente e continuar a investigar sobre ele tentando perceber como minimizar os usos maliciosos. Como Jack Clark, responsável pelas políticas da empresa disse em entrevista ao The Guardian, “há muito mais gente que nós que são melhores a pensar usos maliciosos”.

Partilha nas redes sociais:
Share on facebook
Share on twitter
Share on linkedin

Contribui para o Shifter para mais artigos como este:

2 €/mês

5 €/mês

10 €/mês

15 €/mês

Donativo

Artigos Relacionados

Junta-te à Comunidade
Jornalismo é aquilo que fazemos todos juntos. Entra na Comunidade Shifter e faz parte da conversa.
Sabe mais
Em teste

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt