能不能提供大语言模型的本地模型库?

观星云用户_Uqy4bi39 反馈建议 9

GPU算力服务器的带宽只有32M,下一个Gemma3 27B要等一个多小时。

能不能提前把一些常用ollama上的大模型存到服务器的本地硬盘,部署到服务器时收点钱也行啊,真不想跑个模型要等几个小时。

回复

共1条回复 我来回复
关注微信
观星云问答社区正式上线,欢迎大家讨论!