欢迎访问我的网站,希望内容对您有用,感兴趣的可以加入我们的社群。

给Ollama套个WebUI,方便使用

AIGC 迷途小书童 3个月前 (05-03) 527次浏览 0个评论

Ollama

基本的安装使用参考前文 https://xugaoxiang.com/2024/05/01/ollama-offline-deploy/,前文使用的模型是 llama2,本篇将使用 llama3,因此在启动时,命令是 ollama run llama3

Ollama

Llama3

Llama3Meta 发布的大语言模型,有两种大小:80亿和700亿参数。这种模型经过大量文本数据的训练,可用于各种任务,包括生成文本、翻译语言、编写不同类型的创意内容以及以信息丰富的方式回答您的问题。Meta 宣称 Llama3 是最好的开放模型之一,但它仍在开发中。这是与 MistralGemma 相比的 8B 模型基准。

Llama3

给Ollama套个WebUI

这里使用的是 open-webui,使用 docker 的方式进行。关于 windows 平台如何安装 docker,参考前面的文章 https://xugaoxiang.com/2023/11/16/windows-install-docker/

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要连接到其他服务器上的 Ollama,请将 OLLAMA_BASE_URL 更改为服务器的 URL,如

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

open-webui

成功后,打开浏览器,输入 http://127.0.0.1:300

注册账号

open-webui

open-webui

选择使用的模型,这里就 llama3

open-webui

可以向 llama3 提问了

open-webui

参考资料

喜欢 (0)

您必须 登录 才能发表评论!