来源 | TensorFlow 公众号
我们非常激动地宣布 TensorFlow 新增一个优化工具包,这是一套让新手和高级开发者都可以用来优化机器学习模型以进行部署和执行的技术。
我们预期这些技术对优化任何准备部署的 TensorFlow 模型都会非常有用,但对于 TensorFlow Lite 开发者而言,这些技术尤为重要,因为他们在设备上提供模型时会受到内存紧张、功耗约束及存储空间限制等条件的制约。如果您尚未试用过 TensorFlow Lite,可以点击此处,了解更多信息。
注:此处链接
https://www.tensorflow.org/lite/
优化模型以缩减尺寸、延时和功率,令其在精确度上的损耗可以忽略不计
我们新支持的第一项技术是 TensorFlow Lite 转换工具的训练后量化。对于相关机器学习模型,这项技术可以实现高达 4 倍的压缩,并能将执行速度提升 3 倍。
通过模型量化,开发者还可以获得因功耗降低而带来的额外益处。这有助于开发者在除手机之外的边缘设备上部署模型。
启用训练后量化
我们将训练后量化技术集成到 TensorFlow Lite 转换工具中。这项技术很容易入门:在完成 TensorFlow 模型构建后,开发者只需在 TensorFlow Lite 转换工具中启用 “post_training_quantize” 标记即可。假设保存后的模型存储在 saved_model_dir 中,则可以生成量化的 tflite fla