99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁(yè)大數(shù)據(jù)時(shí)代python訓(xùn)練的pytorch模型,如何使用c 調(diào)用并使用TensorRT加速?
python訓(xùn)練的pytorch模型,如何使用c 調(diào)用并使用TensorRT加速?
2023-04-07
收藏

PyTorch 是一種非常流行的深度學(xué)習(xí)框架,但是它不太適合在嵌入式系統(tǒng)和實(shí)時(shí)部署上使用,因?yàn)樗谟?jì)算上的速度相對(duì)較慢。為了加速 PyTorch 模型的推理,可以使用 NVIDIA 的 TensorRT 庫(kù)。TensorRT 旨在優(yōu)化深度學(xué)習(xí)模型的推理,并提供了一個(gè) API,可以將訓(xùn)練好的模型轉(zhuǎn)換為 TensorRT 可以優(yōu)化的格式。

本文將介紹如何將 PyTorch 模型轉(zhuǎn)換為 TensorRT 格式,并使用 C++ 代碼來(lái)加載和運(yùn)行優(yōu)化的模型。

步驟一:安裝必要的軟件

在開始之前,您需要安裝以下軟件:

確保將這些軟件正確安裝并配置。

步驟二:將 PyTorch 模型轉(zhuǎn)換為 ONNX 格式

首先,需要將 PyTorch 模型轉(zhuǎn)換為 ONNX 格式。ONNX 是一種開放式神經(jīng)網(wǎng)絡(luò)交換格式,可以使模型在不同框架之間移植。對(duì)于本示例,我們將使用 ResNet18 模型演示如何將其轉(zhuǎn)換為 ONNX 格式。

import torch
import torchvision.models as models

# 加載模型
model = models.resnet18(pretrained=True)
model.eval()

# 創(chuàng)建一個(gè)虛擬輸入張量
x = torch.randn(1, 3, 224, 224)

# 將模型轉(zhuǎn)換為 ONNX 格式
torch.onnx.export(model, x, "resnet18.onnx", opset_version=11)

torch.onnx.export 函數(shù)將模型及其輸入張量作為輸入,并將其導(dǎo)出到指定的文件中。在此示例中,我們將該文件命名為 resnet18.onnx。

步驟三:使用 TensorRT 轉(zhuǎn)換器將 ONNX 模型轉(zhuǎn)換為 TensorRT 格式

接下來(lái),我們將使用 TensorRT 轉(zhuǎn)換器將 ONNX 模型轉(zhuǎn)換為 TensorRT 格式。TensorRT 提供了一個(gè)用于轉(zhuǎn)換 ONNX 模型的 Python API。

import tensorrt as trt
import onnx

# 加載 ONNX 模型
onnx_model = onnx.load("resnet18.onnx")

# 創(chuàng)建 TensorRT 引擎
TRT_LOGGER = trt.Logger(trt.Logger.WARNING)
with trt.Builder(TRT_LOGGER) as builder, builder.create_network() as network, trt.OnnxParser(network, TRT_LOGGER) as parser:
    # 解析 ONNX 模型
    parser.parse(onnx_model.SerializeToString())

    # 配置構(gòu)建器
    builder.max_batch_size = 1
    builder.max_workspace_size = 1 << 30

    # 構(gòu)建引擎
    engine = builder.build_cuda_engine(network)
    
    # 保存 TensorRT 引擎
    with open("resnet18.engine", "wb") as f:
        f.write(engine.serialize())

在此示例中,我們首先加載 ONNX 模型,然后創(chuàng)建一個(gè) TensorRT 構(gòu)建器和網(wǎng)絡(luò)。接下來(lái),我們使用 TensorRT 的 ONNX 解析器解析 ONNX 模型。一旦解析完畢,我們就可以使用構(gòu)建器構(gòu)建引擎。最后,我們將引擎序列化并保存到磁盤上。

步驟四:使用 C++ 代碼加載和運(yùn)行優(yōu)化的模型

現(xiàn)在,我們已經(jīng)將 PyTorch 模型轉(zhuǎn)換為 TensorRT 格式并保存了 TensorRT 引擎。接下來(lái),我們需要使用 C++ 代碼加載并運(yùn)行優(yōu)化的模型。

以下是加載引擎并運(yùn)行推理的簡(jiǎn)單示例:

#include 
#include 
#include "NvInfer.h"

using namespace nvinfer1;

int main()
{
    // 讀取 TensorRT

引擎 std::ifstream engineFile("resnet18.engine", std::ios::binary); engineFile.seekg(0, engineFile.end); int modelSize = engineFile.tellg(); engineFile.seekg(0, engineFile.beg); std::vector engineData(modelSize); engineFile.read(engineData.data(), modelSize);

// 創(chuàng)建 TensorRT 的執(zhí)行上下文
IRuntime* runtime = createInferRuntime(gLogger);
ICudaEngine* engine = runtime->deserializeCudaEngine(engineData.data(), modelSize);
IExecutionContext* context = engine->createExecutionContext();

// 創(chuàng)建輸入和輸出張量
const int batchSize = 1;
const int inputChannel = 3;
const int inputHeight = 224;
const int inputWidth = 224;
const int outputClass = 1000;

float inputData[batchSize * inputChannel * inputHeight * inputWidth];
float outputData[batchSize * outputClass];

// 設(shè)置輸入數(shù)據(jù)
// ...

// 執(zhí)行推理
void* bindings[] = {inputData, outputData};
context->execute(batchSize, bindings);

// 處理輸出數(shù)據(jù)
// ...

// 清理內(nèi)存
// ...

}


在此示例中,我們首先讀取之前保存的 TensorRT 引擎。然后,我們使用 TensorRT 的運(yùn)行時(shí) API 創(chuàng)建一個(gè)執(zhí)行上下文,并從引擎中創(chuàng)建一個(gè) CUDA 引擎對(duì)象。

接下來(lái),我們?cè)O(shè)置輸入和輸出張量,并將輸入數(shù)據(jù)傳遞給模型。最后,我們使用執(zhí)行上下文執(zhí)行推理,并處理輸出數(shù)據(jù)。

## 總結(jié)

在本文中,我們介紹了如何使用 TensorRT 將 PyTorch 模型轉(zhuǎn)換為優(yōu)化的 TensorRT 格式,并使用 C++ 代碼加載和運(yùn)行優(yōu)化的模型。這種方法可以加速深度學(xué)習(xí)模型的推理速度,并使它們更適合于嵌入式系統(tǒng)和實(shí)時(shí)部署。

數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測(cè)極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說(shuō)明請(qǐng)參見(jiàn):http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }