Novo modelo de processamento em linguagem natural pode ser „a maior coisa desde Bitcoin“.

Este novo modelo de processamento de linguagem é a maior coisa desde Bitcoin?

Em resumo

  • O modelo de processamento de linguagem de terceira geração do OpenAI foi lançado recentemente como um beta privado.
  • Os testes iniciais mostram que ele pode ser usado para uma enorme variedade de propósitos, incluindo a geração de textos realistas.
  • Um notável testador beta compara o GPT-3 a uma cadeia de bloqueio em termos de potencial disruptivo.
  • O novo modelo de processamento de linguagem natural de propósito geral do OpenAI acaba de ser aberto para o beta privado, e já está sendo elogiado pelos primeiros testadores.

O modelo, conhecido como Generative Pretrained Transformer, ou simplesmente GPT-3, é uma ferramenta que pode ser usada para analisar uma sequência de palavras, texto ou outros dados, e expandir sobre isso para produzir uma saída original, como um artigo ou imagem.

„A maior coisa desde o bitcoin“

O potencial desta tecnologia foi recentemente demonstrado por Zeppelin Solutions CTO Manuel Araoz, que gerou todo um artigo complexo sobre um falso experimento no popular fórum Bitcoin Era talk usando um prompt básico como diretriz.

Na peça, intitulada „O GPT-3 do OpenAI pode ser a maior coisa desde Bitcoin“, o GPT-3 gerou uma entrada no blog de 746 palavras que descreve como o GPT-3 foi capaz de enganar os membros do fórum Bitcointalk a acreditar que seus comentários são genuínos.

Em vários pontos do texto, o GPT-3 também descreve vários casos de uso possíveis para modelos de previsão de linguagem, observando que eles poderiam ser usados para „notícias simuladas, ‚jornalismo pesquisado‘, publicidade, política e propaganda“.

Além de um punhado de pequenas questões, incluindo uma tabela omitida e screenshots em falta que foram referenciados no texto, o texto é praticamente indistinguível daquele escrito por uma pessoa real.

Este texto foi gerado usando apenas um título, um punhado de tags, e o pequeno resumo abaixo:

„Partilho as minhas primeiras experiências com o novo modelo de previsão de linguagem do OpenAI (GPT-3) beta. Explico porque acho que o GPT-3 tem um potencial disruptivo comparável ao da tecnologia de cadeias de bloqueios“.

O cientista de computação argentino também usou o GPT-3 para tornar textos complexos mais compreensíveis, escrever poesia no estilo de Borges (em espanhol não menos), e escrever música na notação ABC, entre outras coisas. Resultados similares também foram gerados pelo fundador da Debuild.co, Sharif Shameem, que conseguiu fazer o GPT-3 escrever código JSX a partir de uma descrição básica do layout de um site.

A última versão do Transformador Generativo Pré-treinado, GPT-3, parece acabar completamente com as capacidades dos seus predecessores, ao incluir um incrível valor de 175 bilhões de parâmetros de aprendizagem que permitem que a IA seja apontada para praticamente qualquer tarefa. Isto torna o GPT-3 de longe o maior modelo de linguagem da atualidade, em uma ordem de magnitude maior do que o modelo de linguagem Turing-NLG de 17 bilhões de parâmetros da Microsoft.

O acesso à API do GPT-3 é atualmente apenas por convite, mas há uma lista de espera para a versão completa. O preço ainda não foi decidido.