一个极简的、无依赖的纯 JavaScript (Node.js) GPT 实现。
这是对 Andrej Karpathy “原子级” Python(https://gist.github.com/karpathy/8627fe009c40f57531cb18360106ce95 ) 实现的直接移植。仅使用 Node.js 标准库 + ES5语法,演示 Transformer 的核心算法——自动求导、注意力机制和优化器,代码中没有复杂的语法糖,你可以理解每一步代码做了什么。
增加了一组中文古诗词数据,也可以同样训练。
- 纯 JavaScript 实现:无需安装 TensorFlow、PyTorch 或任何 npm 包。
- 完整的自动求导引擎:通过
Value类实现反向传播。 - 完整 GPT 架构:
- Token 与位置嵌入
- 多头自注意力机制
- 层归一化
- 前馈神经网络 (MLP) 与残差连接
- Adam 优化器:完整实现了 Adam 优化算法。
- 已安装 Node.js 。
- 系统包含
curl命令(用于自动下载训练数据)。
- 克隆仓库
- 运行脚本