GPT-J 自然语言处理 AI 模型

GPT-J 是一个基于 GPT-3,由 60 亿个参数组成的自然语言处理 AI 模型。该模型在一个 800GB 的开源文本数据集上进行训练,并且能够与类似规模的 GPT-3 模型相媲美

GPT-J 自然语言处理 AI 模型

2020 年,微软与 OpenAI 达成了协议,微软将拥有对 GPT-3 源代码的独家访问权,自此 OpenAI 就不像以往一样开放其 GPT-3 AI 模型,而 OpenAI 的 GPT-1 和 GPT-2 仍然是开源项目

打破 OpenAI 和微软对自然语言处理 AI 模型的垄断,Connor Leahy、Leo Gao 和 Sid Black 创立了 EleutherAI,这是一个专注于人工智能对齐、扩展和开源人工智能研究的组织。近日 EleutherAI 研究团队开源了一个基于 GPT-3 的自然语言处理 AI 模型 GPT-J

最新的模型 GPT-J 是用 Mesh-Transformer-JAX 这个新库来训练的,

GPT-J 自然语言处理 AI 模型

JAX + xmap + TPU 是快速大规模模型开发的完美工具集合,

 GitHub  的GPT-J 的源代码和模型,

EleutherAI 的官方网站互动演示

上一篇:计算机视觉+NLP : DALL·E 从文本中创建图像


下一篇:NLP:NLP领域没有最强,只有更强的模型——GPT-3的简介、安装、使用方法之详细攻略