首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
?
OpenAI
目前最快的模型, 微软 Phi-3
zsxzy
·
14 天前
· 612 次点击
(
腾讯云最新优惠活动来了:云产品限时1折,云服务器低至88元/年 ,
点击这里立即抢购:9i0i.cn/qcloud
,更有2860元代金券免费领取,付款直接抵现金用,
点击这里立即领取:9i0i.cn/qcloudquan
)
(福利推荐:
你还在原价购买阿里云服务器?现在阿里云0.8折限时抢购活动来啦!4核8G企业云服务器仅2998元/3年,立即抢购>>>:9i0i.cn/aliyun
)
在我的 3060 6G GPU , 基本能即时响应. 使用 ollama run phi3 即可体验, llama3 测试起来就没那么快
2 条回复
?
2024-04-26 23:25:39 +08:00
1
maymay5
14 天前
3060 6G 最高可以跑 llama3 几 b 的呢?我有台闲置的 3060 笔记本想试试,谢谢!
2
xudong
12 天前
@
maymay5
8b 模型 5g 左右
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
我们的愿景
·
实用小工具
·
3320 人在线
最高记录 6543
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 28ms ·
UTC 12:16
·
PVG 20:16
·
LAX 05:16
·
JFK 08:16
Developed with
CodeLauncher
? Do have faith in what you're doing.
http://www.vxiaotou.com