• トピックス
  • 製品情報
  • 導入事例
  • スクール
  • コンサルティング
  • お客様サポート

MathWorks社が数値計算ソフトウェア「MATLAB」へ「NVIDIA TensorRT」連携機能を導入

2018年4月2日

MathWorks社 2018年3月28日

2018年3月28日 ―― MathWorks社は2018年3月28日、同社製数値計算ソフトウェアの「MATLAB」へ、GPU Coderを介した「NVIDIA TensorRT」連携機能を導入すると発表した。NVIDIA TensorRT連携機能の導入により、データセンターや組み込み機器、および自動車用アプリケーションなどで成長している需要に応えるために必要なパフォーマンスと効率性を備えた、新しいAIやディープラーニングモデルの開発を支援することができる。

MATLABは、ディープラーニングモデルの訓練や検証、および展開を迅速に実施するための完全なワークフローを提供している。技術者が特別なプログラムを追加することなく、GPUリソースを用いることができるため、パフォーマンスのチューニングではなく、アプリケーションの開発自体に注力することができる。GPU Coderを介した新たなNVIDIA TensorRTとの連携機能により、MATLAB上で開発したディープラーニングモデルを、NVIDIA社製GPU上で、高スループット・低レイテンシで実行することができる。社内で実施されたベンチマークでは、MATLABが生成したTensorRTと組み合わされたCUDAコードは、ディープラーニングによる推論処理におけるTensorFlowとの比較で、Alexnetの展開では5倍、VGG-16の展開では1.25倍、それぞれ高速に実行することができた(注)。

MathWorks社取締役のDavid Rich氏は、「技術者は、画像や会話、センサー、およびIoTテクノロジーの急速な進化のために、より優れた性能と効率を備えたAIソリューションを開発する必要に迫られています。加えて、ディープラーニングモデルはより複雑なものとなりつつあります。これらの全てが、技術者にとって潜在的な圧力となっています。これからは、MATLABとNVIDIA社製GPUを用いてディープラーニングモデルを訓練する開発チームは、クラウドから組み込み型の最先端デバイスにいたるまで、ありとあらゆる環境でリアルタイム推論を展開できるようになるでしょう」と述べている。

注:全てのベンチマークはMATLAB R2018a とGPU Coder、TensorRT 3.0.1、TensorFlow 1.6.0、CUDA 9.0およびcuDNN 7がインストールされ、NVIDIA TITAN Xp GPUとIntel Xeon E5-1650 v3、および64GB RAMを搭載した、Linux 12環境上で実行された。

More Information

お問い合わせ

この記事は業界ニュースとなりますので、当サイトではお取り扱いのない製品・サービスの場合がございます。

ご相談・お問い合わせ

ニュース一覧

ニュース一覧の最後です

お探しの情報は見つかりましたか?

お気軽にご質問ください。販促担当よりお答えします。

質問フォーム

PAGE TOP