Sistema desenvolvido pela OpenAI não vai ser disponibilizado de forma pública pelo perigo que representa
Foi revelado, no dia 14 de fevereiro pela organização sem fins lucrativos – OpenAI, os primeiros resultados de seu modelo de inteligência artificial de linguagem natural, que é capaz de ler texto, fazer traduções, responder a questões, resumir ideias, escrever notícias e comentários online.
Esse projeto já tinha sido detalhado anteriormente pelo diretor de tecnologia da OpenAI, Greg Brockman, numa entrevista à Insider durante o evento Web Summit. “É capaz de gerar texto que é quase indistinguível de comentários na Amazon, tweets e pode criar spam”, disse, para depois acrescentar: “este são o tipo de coisas às quais não queres que toda a gente tenha acesso”.
O sistema, batizado como GPT-2, prevê a próxima palavra a ser usada, tendo em conta todas as palavras anteriores do texto. Nas experiências que foram demonstradas a alguns meios de comunicação, foi dado à máquina um único parágrafo de texto, sendo que as restantes foram criadas pelo algoritmo.
“O modelo é como um camaleão – adapta-se ao estilo e ao conteúdo do texto condicional. Isto permite ao utilizador gerar continuações realistas e coerentes sobre o tópico que quer”, explicou Greg Brockman.
Porém, a OpenAI reconhece o potencial perigo deste seu novo modelo de inteligência artificial. Quando publicado o projeto no blog da organização foi dito que: “Por causa das nossas preocupações sobre o uso malicioso da tecnologia, não vamos disponibilizar o modelo treinado. Vamos antes disponibilizar um modelo muito mais pequeno que pode ser experimentado pelos investigadores”.
O próprio Greg Brockman publicou um exemplo de um texto produzido pelo algoritmo:
A imprensa internacional destaca o perigo que uma ferramenta semelhante pode representar na produção das chamadas fake news.
“Apesar de a inteligência artificial escrever notícias que são algumas vezes convincentes o suficiente que não ficaria surpreendido se as visse num jornal, não consegue escrever verdadeiras notícias: as citações e as estatísticas são todas inventadas”, descreveu o jornalista da Vox sobre o GPT-2.