Neural Networks HAL 1.2 引入了「突發執行」的概念。爆發執行作業是針對同一準備好的模型,快速連續進行的一系列執行作業,例如執行相機所拍攝的影格或連續音訊取樣。爆發物件可用於控制一組爆發執行作業 保留執行作業之間的資源,讓執行作業能減少 同時免除不必要的負擔爆發物件支援三種最佳化功能:
- 爆發物件會在一系列執行作業之前建立,並在序列結束時釋放。因此,Burst 物件的生命週期會向驅動程式提示,該物件應以高效能狀態運作多久。
- 爆發物件可在執行作業之間保留資源。舉例來說,驅動程式可以在第一次執行時對應記憶體物件,並在爆發物件中快取對應項目,以便在後續執行作業中重複使用。任何快取的資源 等到爆發物件刪除或 NNAPI 後 執行階段會通知爆發物件,說明不再需要資源。
- 爆發物件會使用 快速訊息佇列 (FMQ) 以在應用程式和驅動程式程序之間進行通訊。這麼做可以減少延遲,因為 FMQ 會略過 HIDL,並透過共用記憶體中的原子循環 FIFO 將資料直接傳遞至另一個程序。消費者程序會知道要從佇列中移除項目,並開始處理,方法是輪詢 FIFO 中的元素數量,或是等待 FMQ 的事件標記,由生產者發出信號。這個事件旗標是快速的使用者空間互斥 (futex)。
FMQ 是低階資料結構,不會在各個程序之間提供生命週期保證,也沒有內建機制可判斷 FMQ 另一端的程序是否正常執行。因此,如果 FMQ 的生產端停止運作,取用端可能會一直等待永遠不會傳送的資料。一 此問題的解決方法,是駕駛人將 FMQ 與 來偵測爆發執行何時結束。
因為爆發執行作業會在相同的引數上運作
與其他執行路徑一樣,基礎 FMQ 必須將相同的資料傳送至
以及依據 NNAPI 服務驅動程式不過,FMQ 只能轉
純粹的資料型別傳輸複雜資料的方式,是直接在 FMQ 中序列化和反序列化巢狀緩衝區 (向量類型),並使用 HIDL 回呼物件視需求傳輸記憶體集區句柄。製作人
FMQ 最終必須將要求或結果訊息傳送給用戶端
如果佇列為封鎖狀態,則使用 MessageQueue::writeBlocking
,或者
如果佇列為非阻斷式,請使用 MessageQueue::write
。
爆發介面
神經網路 HAL 的突發介面位於 hardware/interfaces/neuralnetworks/1.2/
中,並在下文中加以說明。請參閱 NDK 中爆發介面的詳細資訊
圖層,請參閱
frameworks/ml/nn/runtime/include/NeuralNetworks.h
。
types.hal
types.hal
定義 FMQ 所傳送的資料類型。
FmqRequestDatum
: 執行Request
序列化表示法的單一元素 物件和MeasureTiming
值,可在快速訊息中傳送 佇列。FmqResultDatum
:執行作業 (ErrorStatus
、OutputShapes
和Timing
) 傳回值的序列化表示法單一元素,透過快速訊息佇列傳回。
IBurstContext.hal
IBurstContext.hal
會定義位於類神經網路服務中的 HIDL 介面物件。
IBurstContext
: 管理爆發資源的情境物件。
IBurstCallback.hal
IBurstCallback.hal
會為類神經網路執行階段建立的回呼定義 HIDL 介面物件,並由類神經網路服務用來擷取與插槽 ID 相對應的 hidl_memory
物件。
- IBurstCallback:服務用來擷取記憶體物件的回呼物件。
IPreparedModel.hal
IPreparedModel.hal
已在 HAL 1.2 中擴充,並提供從IBurstContext
預先準備的模型
configureExecutionBurst
: 設定爆發物件,用來對準備的多個推論執行多項推論 快速連續執行模型
支援在驅動程式中執行爆發作業
在 HIDL NNAPI 服務中支援突發事件物件的最簡單方法,就是使用突發事件公用程式函式 ::android::nn::ExecutionBurstServer::create
,這個函式位於 ExecutionBurstServer.h
中,並且已封裝在 libneuralnetworks_common
和 libneuralnetworks_util
靜態程式庫中。這個工廠函式有兩個超載:
- 其中一個超載接受指向
IPreparedModel
物件的指標。這個 公用函式會使用executeSynchronously
方法,IPreparedModel
物件來執行模型。 - 其中一個超載方法會接受可自訂的
IBurstExecutorWithCache
物件,可用於快取在多個執行作業中持續存在的資源 (例如hidl_memory
對應)。
每個超載都會傳回 IBurstContext
物件 (代表 burst 物件),該物件會包含及管理專屬的事件監聽器執行緒。這個對話串
接收來自「requestChannel
」FMQ 的要求,執行推論,然後
會透過 resultChannel
FMQ 傳回結果。當 burst 的用戶端失去對 IBurstContext
的參照時,這個執行緒和 IBurstContext
物件中的所有其他資源都會自動釋出。
或者,您也可以自行建立 IBurstContext
實作,並將
知道如何透過 requestChannel
收發訊息,並且
resultChannel
個 FMQ 已傳送給 IPreparedModel::configureExecutionBurst
。
爆發公用程式函式位於
ExecutionBurstServer.h
。
/**
* Create automated context to manage FMQ-based executions.
*
* This function is intended to be used by a service to automatically:
* 1) Receive data from a provided FMQ
* 2) Execute a model with the given information
* 3) Send the result to the created FMQ
*
* @param callback Callback used to retrieve memories corresponding to
* unrecognized slots.
* @param requestChannel Input FMQ channel through which the client passes the
* request to the service.
* @param resultChannel Output FMQ channel from which the client can retrieve
* the result of the execution.
* @param executorWithCache Object which maintains a local cache of the
* memory pools and executes using the cached memory pools.
* @result IBurstContext Handle to the burst context.
*/
static sp<ExecutionBurstServer> create(
const sp<IBurstCallback>& callback, const FmqRequestDescriptor& requestChannel,
const FmqResultDescriptor& resultChannel,
std::shared_ptr<IBurstExecutorWithCache> executorWithCache);
/**
* Create automated context to manage FMQ-based executions.
*
* This function is intended to be used by a service to automatically:
* 1) Receive data from a provided FMQ
* 2) Execute a model with the given information
* 3) Send the result to the created FMQ
*
* @param callback Callback used to retrieve memories corresponding to
* unrecognized slots.
* @param requestChannel Input FMQ channel through which the client passes the
* request to the service.
* @param resultChannel Output FMQ channel from which the client can retrieve
* the result of the execution.
* @param preparedModel PreparedModel that the burst object was created from.
* IPreparedModel::executeSynchronously will be used to perform the
* execution.
* @result IBurstContext Handle to the burst context.
*/
static sp<ExecutionBurstServer> create(const sp<IBurstCallback>& callback,
const FmqRequestDescriptor& requestChannel,
const FmqResultDescriptor& resultChannel,
IPreparedModel* preparedModel);
以下是在
類神經網路範例驅動程式
frameworks/ml/nn/driver/sample/SampleDriver.cpp
。
Return<void> SamplePreparedModel::configureExecutionBurst(
const sp<V1_2::IBurstCallback>& callback,
const MQDescriptorSync<V1_2::FmqRequestDatum>& requestChannel,
const MQDescriptorSync<V1_2::FmqResultDatum>& resultChannel,
configureExecutionBurst_cb cb) {
NNTRACE_FULL(NNTRACE_LAYER_DRIVER, NNTRACE_PHASE_EXECUTION,
"SampleDriver::configureExecutionBurst");
// Alternatively, the burst could be configured via:
// const sp<V1_2::IBurstContext> burst =
// ExecutionBurstServer::create(callback, requestChannel,
// resultChannel, this);
//
// However, this alternative representation does not include a memory map
// caching optimization, and adds overhead.
const std::shared_ptr<BurstExecutorWithCache> executorWithCache =
std::make_shared<BurstExecutorWithCache>(mModel, mDriver, mPoolInfos);
const sp<V1_2::IBurstContext> burst = ExecutionBurstServer::create(
callback, requestChannel, resultChannel, executorWithCache);
if (burst == nullptr) {
cb(ErrorStatus::GENERAL_FAILURE, {});
} else {
cb(ErrorStatus::NONE, burst);
}
return Void();
}