Skip to content

Commit 5cc1f8e

Browse files
authored
Update README.md
- upload XVERSE-13B-2-Chat GGUF/GPTQ quant models for vLLM/llama.cpp to inference on MacOS/Linux/Windows system.
1 parent c4e86d2 commit 5cc1f8e

File tree

1 file changed

+6
-5
lines changed

1 file changed

+6
-5
lines changed

README.md

Lines changed: 6 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -19,11 +19,12 @@
1919
</h4>
2020

2121
## 更新信息
22-
**[2024/01/16]** 发布长序列对话模型**XVERSE-13B-256K** ,该版本模型最大支持 256K 的上下文窗口长度,约 25w 字的输入内容,可以协助进行文献总结、报告分析等任务。
23-
**[2023/11/06]** 发布新版本的 **XVERSE-13B-2** 底座模型和 **XVERSE-13B-2-Chat** 对话模型,相较于原始版本,新版本的模型训练更加充分(从 1.4T 增加到 3.2T),各方面的能力均得到大幅提升,同时新增工具调用能力。
24-
**[2023/09/26]** 发布 7B 尺寸的 [XVERSE-7B](https://github.com/xverse-ai/XVERSE-7B) 底座模型和 [XVERSE-7B-Chat](https://github.com/xverse-ai/XVERSE-7B) 对话模型,支持在单张消费级显卡部署运行,并保持高性能、全开源、免费可商用。
25-
**[2023/08/22]** 发布经过指令精调的 XVERSE-13B-Chat 对话模型。
26-
**[2023/08/07]** 发布 13B 尺寸的 XVERSE-13B 底座模型。
22+
- **[2024/03/25]** 发布XVERSE-13B-2-Chat GGUF、GPTQ量化模型,支持llama.cpp、vLLM在MacOS/Linux/Windows系统上推理xverse-13b模型。
23+
- **[2024/01/16]** 发布长序列对话模型**XVERSE-13B-256K** ,该版本模型最大支持 256K 的上下文窗口长度,约 25w 字的输入内容,可以协助进行文献总结、报告分析等任务。
24+
- **[2023/11/06]** 发布新版本的 **XVERSE-13B-2** 底座模型和 **XVERSE-13B-2-Chat** 对话模型,相较于原始版本,新版本的模型训练更加充分(从 1.4T 增加到 3.2T),各方面的能力均得到大幅提升,同时新增工具调用能力。
25+
- **[2023/09/26]** 发布 7B 尺寸的 [XVERSE-7B](https://github.com/xverse-ai/XVERSE-7B) 底座模型和 [XVERSE-7B-Chat](https://github.com/xverse-ai/XVERSE-7B) 对话模型,支持在单张消费级显卡部署运行,并保持高性能、全开源、免费可商用。
26+
- **[2023/08/22]** 发布经过指令精调的 XVERSE-13B-Chat 对话模型。
27+
- **[2023/08/07]** 发布 13B 尺寸的 XVERSE-13B 底座模型。
2728

2829
## 模型介绍
2930

0 commit comments

Comments
 (0)