能不能提供大语言模型的本地模型库? 观星云用户_Uqy4bi39 2026 年 2 月 6 日 下午6:39 反馈建议 9 GPU算力服务器的带宽只有32M,下一个Gemma3 27B要等一个多小时。 能不能提前把一些常用ollama上的大模型存到服务器的本地硬盘,部署到服务器时收点钱也行啊,真不想跑个模型要等几个小时。 回复 共1条回复 我来回复 观星云官方 这个人很懒,什么都没有留下~ 评论 这边反馈一下 赞同 2026 年 2 月 6 日 下午8:09 0条评论 请 登录 或者 注册 后回复。 相关问题 aliyun域名无法解析 2025 年 11 月 12 日 下午4:54 1 53 云主机的UBUNTU22安装不了 2025 年 11 月 12 日 下午4:14 1 28 服务器数据保存 2024 年 4 月 11 日 下午6:25 3 202 学生党 2025 年 1 月 9 日 下午5:06 3 424