基于 GPT-2 的文本生成

Easy-to-use Wrapper for GPT-2 117M and 345M Transformer Models