llama.cpp 编译使用
llama.cpp
是一个基于 llama 模型 (https://github.com/ggerganov/llama.cpp) 的 C++ 库,用于在 C++ 程序中运行 LLaMA(Large Language Model Meta AI)模型。
安装必要组件/工具
bash
1 | apt install cmake |
编译安装llama.cpp
bash
1 | git clone https://github.com/ggerganov/llama.cpp.git |
安装python组件
bash
1 | pip install sentencepiece |
从魔搭下载一个大模型
bash
1 | pip install modelscope |
将模型从 Huggingface Safetensors 格式转换成通用模型格式 GGML。
bash
1 | python3 convert_hf_to_gguf.py ../models/Qwen/Qwen2___5-3B-Instruct |
验证查看模型基本情况
bash
1 | ./build/bin/llama-lookup-stats -m ../models/Qwen/Qwen2___5-3B-Instruct/Qwen2___5-3B-Instruct-F16.gguf |
测试运行
plaintext
1 | ./build/bin/llama-cli -m ../models/Qwen/Qwen2___5-3B-Instruct/Qwen2___5-3B-Instruct-F16.gguf -cnv -p "你是通义千问简版" |
使用ollama来加载
bash
1 | mkdir ollama |
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 AGI Explained!
评论