FlashMLA: 高效的MLA解码核
FlashMLA FlashMLA: Efficient MLA decoding kernels 项目地址: https://gitcode.com/gh_mirrors/fl/FlashMLA
1. 项目介绍
FlashMLA 是一个为 Hopper GPU 优化的高效 MLA(Matrix Linear Algebra)解码核。它专门针对可变长度序列进行处理,支持 BF16 和 FP16 精度。FlashMLA 目前支持 Paged kvcache,块大小为 64。该项目的目标是实现极高的内存和计算性能。
2. 项目快速启动
安装
首先,确保您已经安装了 CUDA 12.3 或更高版本。为了最佳性能,推荐使用 CUDA 12.8。同时,您需要安装 PyTorch 2.0 或更高版本。
接下来,可以通过以下命令安装 FlashMLA:
python setup.py install
基准测试
安装完成后,可以通过以下命令运行基准测试:
python tests/test_flash_mla.py
3. 应用案例和最佳实践
以下是一个简单的使用 FlashMLA 的示例代码:
from flash_mla import get_mla_metadata, flash_mla_with_kvcache
# 获取 MLA 元数据
cache_seqlens, num_splits = get_mla_metadata(cache_seqlens, s_q * h_q // h_kv, h_kv)
# 循环处理每一层
for i in range(num_layers):
# 使用 MLA 进行解码
o_i, lse_i = flash_mla_with_kvcache(
q_i,
kvcache_i,
block_table,
cache_seqlens,
dv,
tile_scheduler_metadata,
num_splits,
causal=True,
)
在这个示例中,我们首先获取了 MLA 的元数据,然后在一个循环中调用 flash_mla_with_kvcache
函数来处理每一层的数据。
4. 典型生态项目
FlashMLA 支持多种 GPU 架构,并且有针对不同 GPU 的版本。以下是一些典型的生态项目:
- MetaX: 针对 MetaX GPU 的 FlashMLA 版本可以在 MetaX-MACA/FlashMLA 找到。
- Moore Threads: 针对摩尔线程 GPU 的版本可在 MooreThreads/MT-flashMLA 找到。
- Hygon DCU: 针对 Hygon DCU 的版本可在 OpenDAS/MLAttention 找到。
- Intellifusion NNP: 针对英特尔融合 NNP 的版本可在 Intellifusion/tyllm 找到。
- Iluvatar Corex: 针对伊卢维塔 Corex GPU 的版本可在 Deep-Spark/FlashMLA 找到。
- AMD Instinct: 针对AMD Instinct GPU 的版本可在 AITER/MLA 找到。
请注意,上述项目链接仅为示例,实际链接请在 GitHub 上搜索相应项目名称获取。
FlashMLA FlashMLA: Efficient MLA decoding kernels 项目地址: https://gitcode.com/gh_mirrors/fl/FlashMLA
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考