Software -

Vereinfachte Entwicklung von KI- und Deep-Learning-Modellen

Mathworks teilt mit, dass Matlab jetzt eine Integration mit Nvidia TensorRT über GPU Coder bietet. Dies erleichtert die Entwicklung neuer Modelle für KI und Deep Learning in Matlab mit der notwendigen Leistung und Effizienz, um die steigenden Anforderungen an Anwendungen für Rechenzentren sowie im Embedded- und Automobilbereich zu erfüllen.

Matlab bietet einen vollständigen Arbeitsablauf zum schnellen Trainieren, Validieren und Bereitstellen von Deep-Learning-Modellen. Ingenieure können GPU-Ressourcen ohne zusätzliche Programmierung nutzen, sodass sie sich auf ihre Anwendungen konzentrieren können statt auf die Leistungsoptimierung. Dank der neuen Integration können Deep-Learning-Modelle auf Nvidia-GPUs mit hohem Durchsatz und geringer Latenz ausgeführt werden.

Interne Benchmarks zeigen, dass von Matlab generierter Cuda-Code in Kombination mit TensorRT Alexnet mit fünfmal höherer Leistung und VGG-16 mit 1,25-mal höherer Leistung bereitstellen kann als die Deep-Learning-Inferenz der entsprechenden Netze in TensorFlow. Alle Benchmarks wurden mit Matlab R2018a mit GPU Coder, TensorRT 3.0.1, TensorFlow 1.6.0, Cuda 9.0 und cuDNN 7 auf einer Nvidia-Titan-Xp-GPU auf einem Linux-basierten 12-Core-Intel-Xeon-E5-1650-v3-PC mit 64 GByte RAM ausgeführt.

Firmeninformationen
Weitere Beiträge zum Thema Software
Alle Artikel des Ressorts
© elektronikinformationen.de 2018 - Alle Rechte vorbehalten