Install Steam
login
|
language
简体中文 (Simplified Chinese)
繁體中文 (Traditional Chinese)
日本語 (Japanese)
한국어 (Korean)
ไทย (Thai)
Български (Bulgarian)
Čeština (Czech)
Dansk (Danish)
Deutsch (German)
Español - España (Spanish - Spain)
Español - Latinoamérica (Spanish - Latin America)
Ελληνικά (Greek)
Français (French)
Italiano (Italian)
Bahasa Indonesia (Indonesian)
Magyar (Hungarian)
Nederlands (Dutch)
Norsk (Norwegian)
Polski (Polish)
Português (Portuguese - Portugal)
Português - Brasil (Portuguese - Brazil)
Română (Romanian)
Русский (Russian)
Suomi (Finnish)
Svenska (Swedish)
Türkçe (Turkish)
Tiếng Việt (Vietnamese)
Українська (Ukrainian)
Report a translation problem
and when the bug will be patched?
из за ошибки(скачивает до 85%, потом скачивание не идёт) невозможно опробовать его
whats next? them being able to build/farm
Cuando lo instalé y lei que "deberia instalarse" una de las versiones que sugiere (la mini, la mediana, etc.) escogí la mini, fui a configurar el mod y le di a "start". Me salia algo de que un "servidor" no está disponible o algo asi, imagino que desde ahi es de donde se instala y actualiza no lo sé.
La cosa es que mientras (al parecer) lo estaba "instalando", se detuvo al 78% y decia que "el servidor esta ocupado". Entonces no sé si al final lo instalé bien realmente pero como sea no sé tampoco si es necesario instalar la otra extension "IA Items".
Eso comento, por mi parte no lo entendi jaja, espero a uds. les sirva
之前存在一个问题,Windows用户在尝试安装或运行AI服务器时会遇到"AI服务器忙碌0%"或"AI服务器错误"的情况。这个问题应该在最新更新中得到修复。如果你们遇到任何问题,请告诉我。
Ранее существовала проблема, когда пользователи Windows, пытающиеся установить или запустить AI Server, сталкивались с ошибками "AI Server Busy 0%" или "AI Server Error". Это должно быть исправлено в последнем обновлении. Дайте мне знать, если у вас возникнут проблемы.
im weak bro
不过我还是很喜欢这个mod的点子的,感谢你的mod,希望以后能看见更多关于这个mod的应用
1. 我是可以访问github等地址的,但是你的程序并不会给我下载 llamafile.com 和 AIServer.pyz 文件,且无任何提示我文件缺失...而是提示服务器离线
2. 更新的大小不一致,你的文件大小写死的.比如 Phi-3-mini-4k-instruct-q4.gguf 这个模型文件他现在的大小为 2318921728,你写的是2320000000,我不清楚以后更新文件是否会出问题.和他相似的问题 llamafile.com 这个文件更新的应该比较频繁,上次更新为两周前,你查询的记录是最新的,两文件大小肯定会不一致.也许可以使用 HEAD 在下载文件之前获取 Content-Length 来获取实际大小,来解决这个问题?
bin
|curl.com
|llamafile.com
|python.com
models
|你需要的模型
.version
AIServer.pyz
bootstrap.py
curl.com 一般会自动生成,如果没有 https://cosmo.zip/pub/cosmos/bin/curl 下载
llamafile.com https://github.com/Mozilla-Ocho/llamafile/releases/download/0.8.12/llamafile-0.8.12
python.com 自动生成
AIServer.pyz https://github.com/igoforth/RWAILib/releases/download/v0.2.2-alpha/AIServer.pyz
bootstrap.py 自动生成
一个成功运行的目录是这样的
bin
|curl.com
|llamafile.com
|python.com
models
|你需要的模型
platform-packages-xxxx
| 很多自动的 (AIServer.pyz解压的)
.version
AIServer.pyz
bootstrap.py
llama.log
llama_stderr.log
xxxxx.pem