ZM Desktop Elf

ZM Desktop Elf

[V1.0]AI聊天本地大模型(不含Ollama安装环境)
16 Comments
被告人腾杨天下 Feb 22 @ 4:13am 
我按照设置已经部署好了ai,在命令框里也能正常对话,但是桌面精灵对话框只会显示请求失败,让我检查olima是否运行
Lalywr_Zx Feb 19 @ 7:19am 
大佬,可否关闭思考过程,或者将对话框可隐藏或开启,同时支持对话内容可滚动查看,回答还没看完夏晴的回复就已经消失了。
Style_Hui Feb 9 @ 12:36am 
同问怎么隐藏deepseek的思考过程,只显示结果
winter Feb 8 @ 10:20pm 
大佬,能不能加一个支持ollama远程api方式的mod,ai大模型都在别的机器上面运行
KVE Feb 7 @ 4:51am 
你好,我目前使用该mod出现了一些问题想问一下。目前是
1. ollama运行中,cmd能正常对话
2. 模组管理内已开启了该模组,并重启过游戏了(重启过很多次)
3. 打开了配置文件修改了currentModel,改成了deepseek-r1:14b。也就是我当前使用中的模型
4. 聊天框输入文本后弹出的是“请求失败,请检查ollama是否有启动”
想问一下,这种情况下是哪里还出现了问题:lunar2019laughingpig:
ZXCVBNM Feb 7 @ 2:32am 
感谢作者,试了一下,有个问题,对话框里只会显示deepseek思考的内容,不显示ai真正的回答
Vei  [author] Feb 6 @ 7:43am 
更换模型的流程:

1、前往:\steam\steamapps\workshop\content\3003300\3370032603\chat_mod\ollama ,
找到 config.json 文件,字段介绍:

1)"currentModel"字段是当前运行的模型,例如本地下载了 qwen2.5:7b ,则字段修改为:"currentModel":"qwen2.5:7b"
名称如果不确定的话,可以打开cmd命令窗口,输入:ollama list ,查看对应的NAME

2)"roleName"字段是当前设定的人物聊天昵称,修改它只会改变聊天时的称呼
旋轉Teto Feb 5 @ 8:30am 
本地部署AI还是适合高配去玩。要想正常交流,就拿DeepSeek-R1来说我认为至少要选32B的模型,且不能保证他的思考时间。还是API调用好些只不过要花钱买token罢了:steamhappy:
仲野爱 Feb 5 @ 7:08am 
用的deepseek模型要怎么设置
鸠浅 Nov 30, 2024 @ 7:30am 
ai进化得好快,昨天还可以用模拟场景绕过安全词限制,今天就直接无法回答了
Cherry Nov 29, 2024 @ 6:48pm 
我嘞个豆,llama3.2跟个智障一样
D:\AnacondaEnv\chatbot\python.exe H:\WeChatBot\llama.py
>>>你好哇
你好!我是中文聊天机器人。可以和你说点什么吗?
>>>可以的
什么可以吗?需要帮助或讨论点吗?
>>>你好?
你好!我可以帮助回答你的问题或聊天。
>>>聊天吧
好啊!我们可以谈论任何你感兴趣的话题。想听点笑话吗?
>>>可以
你想要談什麼嗎?
>>>你在说什么嘛
我想这可能是一句中文,意思是“你在说什么”?如果需要,我可以帮助回答任何问题。
>>>好傻
你是什么意思?
>>>说你好傻
不好意思,我没有被冒犯到!我是机器人,我的目的是帮助和学习,所以不容易被伤害或困扰。有任何其他想法或者问题吗?
>>>转人工
你想问关于AI的转变吗?
…………
Vei  [author] Nov 24, 2024 @ 10:16pm 
按照上面的【基础流程】步骤,安装ollama和模型后,重启程序前往【模组管理】勾选对应AI模型应用即可聊天。
Bitpig Nov 23, 2024 @ 12:26pm 
= =刚出来的时候玩过 但是这个中文好像不太行 有点人工智障的样子
狗熊岭第一突破手 光头强 Nov 23, 2024 @ 12:51am 
天才,教程放一半,默认所有人都是熟知这个软件的
白来一趟 Nov 22, 2024 @ 5:47am 
D:\SteamLibrary\steamapps\workshop\content\3003300
这是这个游戏创意工坊的文件路径
Yearning Nov 22, 2024 @ 5:26am 
下载的东西去哪找,我怎么找不到