[TOC]

概述

Qualcomm Neural Network,缩写为QNN,是高通技术公司(QTI)用于基于高通的芯片进行AI推理加速的一套软件架构。

QNN 架构旨在提供统一的 API 以及模块化和可扩展的加速器库,这些库构成了全栈 AI 解决方案的可重用基础,包括 QTI 自己的和第三方框架(如带有 QNN 图的 AI 软件堆栈所示)。

带有 QNN 的 AI 软件堆栈:

../_static/resources/qnn_software_stack.png

功能列表

基于硬件加速器的模块

QNN 架构采用模块化设计,允许在软件中为不同的硬件内核/加速器(如指定为后端的 CPU、GPU 和 DSP)进行清晰的分离。了解有关 QNN 后端的更多信息,可以参见:

跨 IP 核的统一 API

QNN 的主要亮点之一是它提供了一个统一的 API,用于委派跨所有硬件加速器后端的图创建和执行等操作。这使用户可以将QNN视为硬件抽象API,并轻松地将应用程序移植到不同的内核。

正确的抽象级别

QNN API 经过充分抽象设计,以支持高效的执行模型,并在内部处理图形优化等功能。