onnx를 inference 용으로 사용하기 위해서는 ms에서 제공하는 onnxruntime을 이용하는 것이 좋다.
https://microsoft.github.io/onnxruntime/
위 공식 페이지에서는 다양한 os, 언어, 하드웨어가속기를 선택하여 설치하는 옵션을 제공하니
다른 방법을 원한다면 한번 찾아보자.
visual studio를 이용할 경우에는 Nuget 패키지 관리자를 이용하는 것이 가장 편한 것 같다.
물론 다양한 다른 옵션을 필요로 한다면 소스로부터 빌드해야겠지만..
설치 순서는 아래와 같다.
- VS Solution - Tools - NuGet Package Manager - Package Manager Console
- PM> Install-Package Microsoft.ML.OnnxRuntime.Gpu -Version 1.1.0
(참고 : https://www.nuget.org/packages/Microsoft.ML.OnnxRuntime.gpu )
설치가 완료 된 후에는 패키지 관리자에서 프로젝트 단위로 설치 제거 등도 손쉽게 처리 가능하다.
'전공관련 > Deep Learning' 카테고리의 다른 글
[Onnx] Onnxruntime - GPU를 사용하자 (8) | 2020.03.09 |
---|---|
[Onnx] onnx 모듈을 사용하기 위한 class를 만들어보자 (0) | 2020.02.26 |
[Onnx] pytorch model을 onnx로 변환하여 사용하자 (1) | 2020.02.26 |
[Pytorch] Custom Dataloader를 사용하자 (0) | 2019.12.23 |
[Pytorch] multiGPU 에서 학습한 모델을 singleGPU에서 사용하자2 (1) | 2019.12.17 |