VLLM历次会议(2024.9)

多模态上做了很多新功能

量化新增功能:

拆进程、CPU和GPU异步并行、调度等工程优化:

痛点:

TPU使用torch.compile来编译为静态图,加速执行:

为PD分离准备的KV cache缓存+读取

优化:

cascade inference: 优化self-attention部分的计算。针对batch里共享前缀的情况,可以使共享前缀树上的所有分支只计算一次,每个prompt途径的所有分支加叶子后缀,最后将计算结果进行归一化加和,类似FlashAttention用的原理,把每个分支的s结果和加和v结果,最后scaling并归一化加和。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值