LM Studio 是一款将目前主流大模型 LLM 元素打包在一起的工具,可以让你在自己的电脑上,“0门槛”运行本地大语言模型 LLM,并且用起来就像 ChatGPT 那样。支持 Windows、macOS、Linux。@Appinn
傻瓜、一站式部署本地大语言模型,大概就是打开电脑 > 双击运行程序 > 开始提问 > 获得 AI 回答这样三步走。
LM Studio
我觉得 LM Studio 就是这样的软件,它长这样:
你唯一需要操心的事情,就是挑选模型,然后下载使用,就好了。
不过整个软件的难点也在这里,因为…目前的主流模型托管网站 huggingface 它不能访问 😂
于是,用镜像也不是不行。
下载模型
直接在目前可用的镜像网站 HF-Mirror 搜索你需要的模型,比如 Meta-Llama-3.1-8B-Instruct-GGUF
,然后找到对应的 Files 页面,挑选你需要的模型,点击那个下载按钮
最终,你将得到一个类似 Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf
的文件,很大,一般都好几个 GB。
安装模型
LM Studio 默认的模型保存路径在 C:\Users\appinn.cache\lm-studio\models
,可以更换:
不过这里注意,你需要使用 ${Publisher}/${Repository}/${ModelFile}
这样的路径结构,如上图第二个红色框框,需要将手动下载的 .gguf 模型文件保存在路径的两级文件夹下才能正确识别。
然后,就能提问了。会自动使用你的 CPU、GPU…
本地 LLM 服务器
LM Studio 也支持 OpenAI 类的服务器,即可以在第三方服务器上使用这个 LLM,就像使用 OpenAI API 一样,只不过这里的 API 服务器是你自己的。
和 OpenAI 一样,使用过 /v1/chat/completions
、 /v1/completions
、 /v1/embeddings
即可。
获取
原文:https://www.appinn.com/lm-studio/
用本地算例跑,不需要联网?
是的
这款其实不算傻瓜,anythingllm才是,多平台,单文件安装
模型下载内部选,集成了ollama。
支持中文界面。
ollama官网推荐的win平台下全都试了,论便利首选anythingllm,可github或官网下载,全免费,chatbox有些还要收费的。
这款模型也是内部选…额外下载的原因还不是…