首页
Agent Skills
devops
内容与媒体
区块链
商业
工具
开发
数据与AI
数据库
文档
测试与安全
生活方式
研究
关于我们
登录
注册
找回密码
快速登录
首页
Agent Skills
devops
内容与媒体
区块链
商业
工具
开发
数据与AI
数据库
文档
测试与安全
生活方式
研究
关于我们
登录
注册
找回密码
快速登录
4-bit量化
共1篇
排序
更新
浏览
点赞
评论
显存不够用?AWQ量化让70B大模型塞进消费级显卡,速度还快3倍🔥
AWQ(Activation-aware Weight Quantization)是MIT Han Lab提出的4-bit大模型量化方案,荣获MLSys 2024最佳论文奖。通过激活感知权重保护技术,将70B模型显存从140GB压缩至35GB,推理速度提升2...
免费资源
数据与AI
Skill优仓
6天前
0
48
5
在手机上浏览此页面
登录
没有账号?立即注册
用户名或邮箱
登录密码
记住登录
找回密码
登录
社交账号登录
注册
已有账号,立即登录
设置用户名
手机号或邮箱
验证码
发送验证码
设置密码
注册