99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁大數(shù)據(jù)時代python訓練的pytorch模型,如何使用c 調用并使用TensorRT加速?
python訓練的pytorch模型,如何使用c 調用并使用TensorRT加速?
2023-04-07
收藏

PyTorch 是一種非常流行的深度學習框架,但是它不太適合在嵌入式系統(tǒng)和實時部署上使用,因為它在計算上的速度相對較慢。為了加速 PyTorch 模型的推理,可以使用 NVIDIA 的 TensorRT 庫。TensorRT 旨在優(yōu)化深度學習模型的推理,并提供了一個 API,可以將訓練好的模型轉換為 TensorRT 可以優(yōu)化的格式。

本文將介紹如何將 PyTorch 模型轉換為 TensorRT 格式,并使用 C++ 代碼來加載和運行優(yōu)化的模型。

步驟一:安裝必要的軟件

在開始之前,您需要安裝以下軟件:

確保將這些軟件正確安裝并配置。

步驟二:將 PyTorch 模型轉換為 ONNX 格式

首先,需要將 PyTorch 模型轉換為 ONNX 格式。ONNX 是一種開放式神經網絡交換格式,可以使模型在不同框架之間移植。對于本示例,我們將使用 ResNet18 模型演示如何將其轉換為 ONNX 格式。

import torch
import torchvision.models as models

# 加載模型
model = models.resnet18(pretrained=True)
model.eval()

# 創(chuàng)建一個虛擬輸入張量
x = torch.randn(1, 3, 224, 224)

# 將模型轉換為 ONNX 格式
torch.onnx.export(model, x, "resnet18.onnx", opset_version=11)

torch.onnx.export 函數(shù)將模型及其輸入張量作為輸入,并將其導出到指定的文件中。在此示例中,我們將該文件命名為 resnet18.onnx。

步驟三:使用 TensorRT 轉換器將 ONNX 模型轉換為 TensorRT 格式

接下來,我們將使用 TensorRT 轉換器將 ONNX 模型轉換為 TensorRT 格式。TensorRT 提供了一個用于轉換 ONNX 模型的 Python API。

import tensorrt as trt
import onnx

# 加載 ONNX 模型
onnx_model = onnx.load("resnet18.onnx")

# 創(chuàng)建 TensorRT 引擎
TRT_LOGGER = trt.Logger(trt.Logger.WARNING)
with trt.Builder(TRT_LOGGER) as builder, builder.create_network() as network, trt.OnnxParser(network, TRT_LOGGER) as parser:
    # 解析 ONNX 模型
    parser.parse(onnx_model.SerializeToString())

    # 配置構建器
    builder.max_batch_size = 1
    builder.max_workspace_size = 1 << 30

    # 構建引擎
    engine = builder.build_cuda_engine(network)
    
    # 保存 TensorRT 引擎
    with open("resnet18.engine", "wb") as f:
        f.write(engine.serialize())

在此示例中,我們首先加載 ONNX 模型,然后創(chuàng)建一個 TensorRT 構建器和網絡。接下來,我們使用 TensorRT 的 ONNX 解析器解析 ONNX 模型。一旦解析完畢,我們就可以使用構建器構建引擎。最后,我們將引擎序列化并保存到磁盤上。

步驟四:使用 C++ 代碼加載和運行優(yōu)化的模型

現(xiàn)在,我們已經將 PyTorch 模型轉換為 TensorRT 格式并保存了 TensorRT 引擎。接下來,我們需要使用 C++ 代碼加載并運行優(yōu)化的模型。

以下是加載引擎并運行推理的簡單示例:

#include 
#include 
#include "NvInfer.h"

using namespace nvinfer1;

int main()
{
    // 讀取 TensorRT

引擎 std::ifstream engineFile("resnet18.engine", std::ios::binary); engineFile.seekg(0, engineFile.end); int modelSize = engineFile.tellg(); engineFile.seekg(0, engineFile.beg); std::vector engineData(modelSize); engineFile.read(engineData.data(), modelSize);

// 創(chuàng)建 TensorRT 的執(zhí)行上下文
IRuntime* runtime = createInferRuntime(gLogger);
ICudaEngine* engine = runtime->deserializeCudaEngine(engineData.data(), modelSize);
IExecutionContext* context = engine->createExecutionContext();

// 創(chuàng)建輸入和輸出張量
const int batchSize = 1;
const int inputChannel = 3;
const int inputHeight = 224;
const int inputWidth = 224;
const int outputClass = 1000;

float inputData[batchSize * inputChannel * inputHeight * inputWidth];
float outputData[batchSize * outputClass];

// 設置輸入數(shù)據(jù)
// ...

// 執(zhí)行推理
void* bindings[] = {inputData, outputData};
context->execute(batchSize, bindings);

// 處理輸出數(shù)據(jù)
// ...

// 清理內存
// ...

}


在此示例中,我們首先讀取之前保存的 TensorRT 引擎。然后,我們使用 TensorRT 的運行時 API 創(chuàng)建一個執(zhí)行上下文,并從引擎中創(chuàng)建一個 CUDA 引擎對象。

接下來,我們設置輸入和輸出張量,并將輸入數(shù)據(jù)傳遞給模型。最后,我們使用執(zhí)行上下文執(zhí)行推理,并處理輸出數(shù)據(jù)。

## 總結

在本文中,我們介紹了如何使用 TensorRT 將 PyTorch 模型轉換為優(yōu)化的 TensorRT 格式,并使用 C++ 代碼加載和運行優(yōu)化的模型。這種方法可以加速深度學習模型的推理速度,并使它們更適合于嵌入式系統(tǒng)和實時部署。

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師考試動態(tài)
數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調,回調的第一個參數(shù)驗證碼對象,之后可以使用它調用相應的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }