MiniCPM:修订间差异

来自WHY42
Riguz留言 | 贡献
创建页面,内容为“https://github.com/OpenBMB/MiniCPM MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量, 总计2.7B参数量。 Category:Deep Learning
 
Riguz留言 | 贡献
无编辑摘要
第3行: 第3行:
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量, 总计2.7B参数量。
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量, 总计2.7B参数量。


= Download Model =


<syntaxhighlight lang="bash">
pip install -U huggingface_hub
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download openbmb/MiniCPM-2B-dpo-bf16 --local-dir=./models/openbmb/MiniCPM-2B-dpo-bf16 --cache-dir=./cache --local-dir-use-symlinks=False --resume-download
# if huggingface-cli command not found
# echo "export PATH=\"`python3 -m site --user-base`/bin:\$PATH\"" >> ~/.bashrc
# source ~/.bashrc
</syntaxhighlight>






[[Category:Deep Learning]]
[[Category:Deep Learning]]

2024年6月6日 (四) 11:10的版本

https://github.com/OpenBMB/MiniCPM

MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量, 总计2.7B参数量。

Download Model

pip install -U huggingface_hub
export HF_ENDPOINT=https://hf-mirror.com

huggingface-cli download openbmb/MiniCPM-2B-dpo-bf16 --local-dir=./models/openbmb/MiniCPM-2B-dpo-bf16 --cache-dir=./cache --local-dir-use-symlinks=False --resume-download

# if huggingface-cli command not found
# echo "export PATH=\"`python3 -m site --user-base`/bin:\$PATH\"" >> ~/.bashrc
# source ~/.bashrc