完全免费,离线可用!用LobeChat+Ollama搭建本地大模型

本博客用什么VPS?创作不易,欢迎请咕咕喝杯咖啡☕☕☕

这期我们来分享一下如何部署本地大模型,让它成为你的离线助手。

准备工作

  • 服务器或者电脑一台,配置越高越好, Windows和Mac皆可,Widows最好内存8G以上而且带一块好一点的显卡;Mac的话建议M系列芯片,内存建议16G以上(咕咕用的是Apple M1 Max 64G版
  • 下载好docker桌面版
  • 下载好Ollama

注意:运行 7B 模型时,您应至少有 8 GB 的可用内存,运行 13B 模型时应有 16 GB 的可用内存,运行 33B 模型时应有 32 GB 的可用内存。

M系列MacBook采用统一内存架构,这意味着CPU和GPU可以共享同一内存池。这种设计减少了数据在不同处理单元之间传输的需要,从而可以显著提高大型数据集处理的速度和效率。

下载Ollama

67c46a3feb85d570a13fa6a242e9c380.png

其实这个也可以用docker来装,但是既然给了安装版,我们就直接到官网下载即可。

什么是Ollama?

62dc7ef085dd48a06b4bcce9782a12c5.png

Ollama 是一个便于本地部署和运行大型语言模型(Large Language Models, LLMs)的工具。使用通俗的语言来说,如果你想在自己的电脑上运行如 GPT-3 这样的大型人工智能模型,而不是通过互联网连接到它们,那么 Ollama 是一个实现这一目标的工具。

Ollama支持非常多的开源模型,比如:

0bbb50a6f238e105966021293bd3bebf.png

更多支持的模型可以看这边:https://ollama.com/library

当然它还支持自定义模型,这边就不深入了,有兴趣的可以研究:https://github.com/ollama/ollama

装好之后,命令行运行:

ollama -v

查看到版本号说明安装好了。

接下来我们下载一个llama3 8B的模型:

ollama run llama3

这边可能需要比较长的时间,取决于你的网速。

下载好了就可以进行交互了:

b8179cebba4cd58465fd233020035fc9.png

/? 可以查看帮助:

576b3e8c12d6561d8c9059e8b8504d14.png
7a9e6a8e285b4562c6a39c83a0c468b5.png

/bye 可以退出

f6b660f17b96db1219cff57b888ec428.png

其实现在已经搞定了,你可以让它帮你干活了,但是每次都要用命令行,有些人觉得不方便,而且也不能给别人用,下面我们就给它搞一个图形化界面,扩展一下功能,也能让局域网里的其他小伙伴也用上你的这个模型(注意多人同时访问会导致机器负载飙升,具体取决于你机器的性能和模型参数的大小)

搭建LobeChat

这个之前已经搭建过了,B站上被下架了,YouTube还有。

【好玩儿的Docker项目】支持图片识别+语音输入!10分钟搭建无门槛ChatGPT WEB应用——LobeChat,随时随地使用ChatGPT!|GPT-4模型

下面给出docker-compose.yaml的文件,大家可以用之前学习过的docker知识参考搭建。(不清楚的可以找一篇之前的项目文章,去B站看一下docker项目怎么跑的,一看就懂了,很简单)

services:
  lobe-chat:
    image: lobehub/lobe-chat
    container_name: lobe-chat
    restart: always
    ports:
      - '11432:3210'
    environment:
      ACCESS_CODE: lobe66
      OLLAMA_PROXY_URL: http://host.docker.internal:11434/v1

本地装好docker,可以去docker官网直接下载一个安装包。

d2d3ab17e9eed7c74d9cc1641a0ed3df.png

同样的,输入docker -v,有版本号说明安装好了。

8cfdbf7f7b0314a7e2180f4914b69a04.png

这边还会涉及docker换源,由于防火墙的原因,我们大陆可能无法访问docker的镜像仓库,建议大家换成中科大的源:https://docker.mirrors.ustc.edu.cn/

5c1cf57c4ab2a5013da511a22282bd92.png

改成这个:

{
  "builder": {
    "gc": {
      "defaultKeepStorage": "20GB",
      "enabled": true
    }
  },
  "experimental": false,
  "features": {
    "buildkit": true
  },
  "registry-mirrors": [
    "https://docker.mirrors.ustc.edu.cn"
  ]
}

ee117c95db9c26a8adae7cb72e35912f.png

使用如下命令查看Docker配置

docker info

3c158daac7e908df23db4bede4f8db8d.png

就可以了。

Lobechat配置

先在浏览器输入:http://127.0.0.1:11434

636b1ebe36a19e705fea6cc96830d6cf.png

确保ollama在运行中。

再浏览器输入:http://127.0.0.1:11432

ee0f9c39571e344accd0c3f31693745d.png

点击左上角小人头像:

6c8a24bb05dd38d505c9aecfb2c7488b.png

语言设置这边,把llama3 8B选上:

55c79b0f7b6daf2f8667889471570f81.png

检查一下:

68ee8db3481149176339039d95c2a33a.png

终端运行ollama ls

可以看到目前你下载的所有模型。

咕咕这边下载的比较多:

02decab983441dfb87b082e276229d4d.png

选择模型,就可以使用了:

a2e9915f61ee02b007e1379718726a55.png

记得这边输入一下密码:

10e1ee2da319da172ffa85d93df98756.png

4aee12df36f4f88b1675190b82c450f4.png

33943a61ef0c9c2a69e745d909dd40ca.png

5defb1945d9583e2df71f07d0a5e9f86.png

愉快地用起来吧,后续介绍如何利用这个搭配沉浸式翻译使用!

---------------
如何觉得文章内容不错,欢迎点击一下广告,支持一下咕咕😍😍😍

原创文章,作者:Roy,如若转载,请注明出处:https://iwanlab.com/lobechat-ollama-deploy-offline/

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
Roy的头像Roy
上一篇 2024年4月24日 上午9:18
下一篇 2天前
   

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

评论列表(2条)

  • evan
    evan 2024年5月23日 上午9:10

    这个需要什么水平的显卡

    • Roy的头像
      Roy 2024年5月26日 下午6:22

      @evan因为我用的是Mac,好久没用Windows了,对显卡研究也不是很多,可能需要自己再搜索看看,不过我建议你可以先用自己电脑下载Ollama先试试跑一个参数少一点的模型,看看能不能跑动,再来升级

持有Olink法兰克福的服务器的小伙伴,请注意查收邮件( 由于德国数据中心持续的网络问题,经过慎重考虑,Olink决定关闭德国区域的所有业务),及时回复工单选择退款或者迁移服务器至圣何塞。