ChrisKim
Do not go gentle into that good night.
颢天

LLM
文章归档

基于 llama.cpp 实现高性能本地大模型推理

一听到大语言模型,想必大家想到的一点就是“耗算力”“难以本地部署”。但实际上,大语言模型也有较小的版本,同时如果结合量化技术和高性能框架,在本地平台部署一个可用的大模型是完全可行的。本篇文章将会介绍使用 llama.cpp 这个高性能大模型推理框架,在本地部署开源…

   2024-12-04   0   查看全文