Nvidia heeft in het kader van zijn GPU Technology Conference software aangekondigd waarmee getrainde neurale netwerken sneller worden op het gebied van inference, bijvoorbeeld het herkennen van objecten.
Bij de software gaat het om TensorRT 3, de opvolger van versie 2. De nieuwe versie is bedoeld voor gebruik met Nvidia's Volta-gpu's en moet volgens de fabrikant veertig keer sneller zijn dan een systeem dat alleen op cpu's draait. De Volta-gpu wordt toegepast in de Tesla V100-accelerator, die Nvidia in mei aankondigde. Met de nieuwe software moet de accelerator 3,7 keer sneller zijn dan de P100-accelerator met Pascal-gpu.
Nvidia zelf omschrijft de software als een 'high performance deep learning inference optimizer'. Neurale netwerken moeten eerst getraind worden om een bepaalde taak uit te voeren, bijvoorbeeld het herkennen van objecten. Dat gebeurt aan de hand van grote datasets. Als het neurale netwerk eenmaal getraind is, kan het voor die specifieke taak ingezet worden. Volgens Nvidia is inference het toepassen van het 'geleerde' op nieuwe data.
TensorRT moet deze activiteit versnellen, wat bijvoorbeeld tot lagere latency leidt bij taken die in real-time gebeuren, zoals het analyseren van videostreams. Daarvoor introduceerde het bedrijf de zogenaamde Deepstream-sdk. Ook op het gebied van zelfrijdende auto's en robots zijn toepassingen denkbaar, aldus de fabrikant. Concurrent AMD presenteerde in de zomer zijn eigen Radeon Instinct-accelerators op basis van Vega-gpu's.
Afbeelding via Nvidia