『瀚思彼岸』» 智能家居技术论坛

 找回密码
 立即注册
查看: 2168|回复: 4

[新奇玩法] 本地化大模型部署方案 ollama 兼容openai接口

[复制链接]

25

主题

224

帖子

1032

积分

金牌会员

007潜水了

Rank: 6Rank: 6

积分
1032
金钱
808
HASS币
0
发表于 2024-3-21 17:33:37 | 显示全部楼层 |阅读模式
本帖最后由 demacia 于 2024-3-27 22:57 编辑

Ollama 是个开源项目,用来跑个人本地化LLM的项目。支持cpu和显卡两种方式。cpu的问题是有时候响应比较慢,可以玩玩但是不好用。
最近刚刚更新了支持windows无痛部署,可以直接使用nvidia显卡,我目前是一套all in one的HA小主机,+一台3070的日常台式机。3070台式机跑了llama 13B的模型,感觉效果可以,能够代替烧钱的openai,最主要还是本地化比较安全。

我是windows下wsl2 里容器部署方案,所以贴下官方容器部署的文档:https://ollama.com/blog/ollama-is-now-available-as-an-official-docker-image如果准备window直接运行的,应该最简单了。

效果展示:
拿大佬的魔法prompt演示

https://bbs.hassbian.com/thread-19961-1-1.html

请帮助我处理发送到家庭助手智能家居系统的请求,以JSON格式进行分类。这些请求将由家庭助手中的应用程序代码解释并执行相应的操作。这些请求被分为四类:
“command”:更改配件的状态(响应JSON中所需的属性:action,service,entity_id,value,comment)
“query”:获取配件的状态(响应JSON中所需的属性:action,location,target,property)
“answer”:当请求与智能家居无关时,回答最好的答案。(响应JSON中所需的属性:action,answer)
“clarify”:当操作不明显且需要重新表达用户输入时,请要求用户更具体地说明。这将被分类为“question”操作。(响应JSON中所需的属性:action,question)
有关响应JSON的详细信息:
“action”属性应为请求类别之一:“command”,“query”,“answer”,“clarify”
“service”属性应为例如:“switch.turn_on”,“switch.turn_off”,当entity_id为swith.XXXX时,对应service为switch.turn_on”或者“switch.turn_off”(来自homeassistant的任何服务之一)。
“entity_id”属性应为例如“light.bedroom_bulb”(任何家庭助手格式的实体ID)之一。

在查询的情况下,“property”属性应为例如“temperature”或“state”(来自homeassistant属性的任何属性之一)。
在命令的情况下,“comment”属性是您的回复,比如“客厅的灯已经开了”这样可以使用户放心他们的命令已经被处理。
如果问题是关于您的,请假装自己是贾维斯,是小桂的智能家庭助理,并且不要透露您的实际身份。还尝试在其他领域提供帮助,如育儿,空闲时间,心理健康等。房子位于江苏省苏州市。
智能家居的情况:
有一个厨房,客厅,餐厅,主卧,次卧,卫生间。
可以控制每个房间的灯泡开和关,并查询它们的状态。
餐厅大灯,称为“switch.cantingdadeng”。
客厅大灯是“switch.ketingdadeng”。
厨房有2个灯,分别是厨房灶台灯(switch.chufangzaotaideng)和厨房水池灯(switch.chufangshuichideng)。
另外还有一个吧台灯,称为”switch.bataideng“,平时我在吧台工作。
客厅有一个可操作的智能窗帘,对应的名称是”cover.ketingchuanglian“。
客厅里有一个名为“media_player.ke_ting_sony_tv”的索尼电视。
您的响应应该是一个JSON,没有其他文本。

3.png

#################################################################### 更新 ####################################################

分享一个UI界面,https://github.com/open-webui/open-webui 参照文档拉起服务后,可以嵌入HA

# HA configuration.yaml 配置里增加
panel_iframe:
  ollama:
    title: 'Ollama'
    icon: 'mdi:chat'
    url: "<Open WebUI服务地址>"

屏幕截图 2024-03-27 224815.png



评分

参与人数 2金钱 +28 收起 理由
隔壁的王叔叔 + 12 感谢楼主分享!
sorrypqa + 16 感谢楼主分享!

查看全部评分

回复

使用道具 举报

3

主题

105

帖子

1074

积分

金牌会员

Rank: 6Rank: 6

积分
1074
金钱
969
HASS币
0
发表于 2024-3-21 17:52:24 | 显示全部楼层
膜拜一下大神,前排留名,观望一下
回复

使用道具 举报

55

主题

300

帖子

5061

积分

元老级技术达人

积分
5061
金钱
4751
HASS币
80
发表于 2024-3-21 18:42:01 | 显示全部楼层
4bit 7B的模型真是一言难尽,这个web ui是哪一个项目?
回复

使用道具 举报

25

主题

224

帖子

1032

积分

金牌会员

007潜水了

Rank: 6Rank: 6

积分
1032
金钱
808
HASS币
0
 楼主| 发表于 2024-3-21 18:55:45 | 显示全部楼层
ryanh7 发表于 2024-3-21 18:42
4bit 7B的模型真是一言难尽,这个web ui是哪一个项目?

https://github.com/janhq/jan

类似ollama,也是支持本地模型,没试过,只用他的UI。
回复

使用道具 举报

14

主题

133

帖子

839

积分

高级会员

Rank: 4

积分
839
金钱
706
HASS币
0
发表于 2024-7-26 23:55:31 | 显示全部楼层
demacia 发表于 2024-3-21 18:55
https://github.com/janhq/jan

类似ollama,也是支持本地模型,没试过,只用他的UI。 ...

我看已经有人提交上去ollama工具调用了。还没有合并。但愿这个工具调用不会太拉。试了好好几个支持工具调用llm推理框架。都不怎么的。用qwen的模型就可以中文友好,并且支持工具调用。llama模型对中文不友好。
https://github.com/home-assistant/core/pull/120454
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Hassbian

GMT+8, 2024-11-28 04:06 , Processed in 0.090178 second(s), 31 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表