首页
Agent Skills
devops
内容与媒体
区块链
商业
工具
开发
数据与AI
数据库
文档
测试与安全
生活方式
研究
关于我们
登录
注册
找回密码
快速登录
首页
Agent Skills
devops
内容与媒体
区块链
商业
工具
开发
数据与AI
数据库
文档
测试与安全
生活方式
研究
关于我们
登录
注册
找回密码
快速登录
MiniLLM
共1篇
排序
更新
浏览
点赞
评论
70B模型压缩到7B还能保住90%性能?Knowledge Distillation这个操作真的绝了🔥
Knowledge Distillation是一个专注LLM压缩的实战Skill,支持将70B大模型压缩至7B同时保留90%以上性能。覆盖温度缩放、软目标、MiniLLM反向KLD、logit蒸馏等核心技术,内置生产级DistillationTra...
免费资源
数据与AI
Skill优仓
5天前
0
51
12
在手机上浏览此页面
登录
没有账号?立即注册
用户名或邮箱
登录密码
记住登录
找回密码
登录
社交账号登录
注册
已有账号,立即登录
设置用户名
手机号或邮箱
验证码
发送验证码
设置密码
注册