Skip to content

Usando o GPT2

Introdução

A biblioteca transformers da Hugging Face torna muito mais fácil trabalhar com modelos pré-treinados como GPT-2. Aqui está um exemplo de como gerar texto usando o GPT-2 pré-treinado:

image

from transformers import pipeline
pipe = pipeline('text-generation', model='gpt2')
input = 'Olá, como vai você?'
output = pipe(input)
print(output)
[{'generated_text': 'The book is on one of the most exciting,'},
 {'generated_text': 'The book is on sale via Amazon.com for'}, 
 {'generated_text': 'The book is on sale tomorrow for $2.'}, 
 {'generated_text': 'The book is on sale now, read more at'}, 
 {'generated_text': 'The book is on the bookshelf in the'}]

Este código é simples porque ele usa um modelo que já foi treinado em um grande dataset. Também é possível ajustar (fine-tune) um modelo pré-treinado em seus próprios dados para obter resultados melhores.

Todos os direitos reservados.