LLM推理速度直接拉满🔥SGLang比vLLM快5倍这不是在吹牛
SGLang是专为LLM推理设计的高性能框架,核心技术RadixAttention实现自动前缀缓存,Agent工作流场景比vLLM快5倍,few-shot场景快10倍,JSON结构化输出快3倍。支持JSON schema、正则、语法约束的...
社交网络、知识图谱全拿下!NetworkX Skills让Python图分析爽到飞起🔥
NetworkX Skill是面向Python开发者的图网络分析工具包封装,覆盖图创建、最短路径、PageRank、社区检测、合成网络生成、多格式读写和可视化全流程。适用于社交网络分析、知识图谱构建、交通路网...
部署代码还在手动敲命令?railway-deploy一键ship到Railway,真的救命了😭🚀
railway-deploy是专为Railway平台设计的自动化部署Skill,支持detach和CI两种模式,覆盖日常推代码、调试构建失败、多服务指定部署等场景。完美适配Cursor、GitHub Copilot、Claude Code等主流A...
技术债务、团队扩张全靠它?CTO Advisor这个Skill真的绝了🔥
CTO Advisor是一个面向技术领导者的综合型Skill,内置技术债务分析脚本、团队扩张计算器、ADR模板、技术评估框架和DORA指标体系。无论是评估技术债务优先级、规划工程团队扩张节奏,还是做架构...
pandas用户看过来!Polars数据处理快到离谱,这速度差距真的绷不住😭🔥
Polars是基于Apache Arrow的高性能DataFrame库,支持Python和Rust,提供表达式API、懒执行框架和默认并行计算能力。相比pandas,Polars在大数据集处理上速度快5到10倍,内存占用更低。支持CSV、...
PyTorch推理太慢?TensorRT-LLM让Llama 3推理速度暴涨100倍,H100跑出24000 tokens/sec🔥
TensorRT-LLM是NVIDIA开源的LLM推理优化库,在H100 GPU上跑Llama 3-8B可达24,000 tokens/秒,比PyTorch快100倍。支持FP8/INT4量化、In-flight Batching、多GPU张量并行,覆盖LLaMA、Qwen、DeepS...
文献综述写到崩溃?literature-review自动搜库+验证引用,救命神器来了🔥
literature-review是一个面向学术研究者的系统性文献综述Skill,支持同时检索PubMed、arXiv、Semantic Scholar等多个数据库,自动去重聚合结果,通过verify_citations.py脚本逐条核查DOI准确性...
训练百亿参数大模型还在手动分片?PyTorch FSDP Skill帮你搞定参数切片+混合精度,真的绝了🔥
pytorch-fsdp是一个专为大规模分布式训练设计的AI编程Skill,基于PyTorch官方FSDP文档提炼而来。覆盖全分片数据并行、混合精度、CPU卸载、FSDP2、DeviceMesh多维并行等核心能力,同时内置NCCL调...
240M+学术文献一网打尽!OpenAlex Database这个Skill真的救命😭🔥
OpenAlex Database是一个基于全球最大开放学术目录的Skill,覆盖2.4亿+学术文献,支持论文检索、引用分析、作者/机构研究产出统计、发文趋势分析和大规模数据导出。无需API密钥,完全免费,内置...
推理token狂省50%!NOWAIT Reasoning Optimizer这个操作真的绝了🔥
NOWAIT Reasoning Optimizer是一款基于2025年论文的无训练推理优化Skill,专为QwQ、DeepSeek-R1、Phi4-Reasoning、Qwen3等R1风格推理模型设计。通过在推理阶段压制







