Franse toezichthouder onderzoekt Nvidia vanwege oneerlijke handelspraktijken

De Franse mededingingsautoriteit Autorité de la concurrence start een officieel onderzoek naar Nvidia. De chipmaker zou zich schuldig maken aan oneerlijke handelspraktijken. Dat bevestigt de toezichthouder aan persbureau Reuters.

Eerder deze maand meldde Reuters op basis van gesprekken met ingewijden dat de Franse toezichthouder een aanklacht tegen Nvidia voorbereid. Benoît Cœuré, de voorzitter van de Franse toezichthouder, bevestigt nu dat er een onderzoek loopt naar Nvidia om vermeende oneerlijke concurrentiepraktijken. Afhankelijk van de uitkomsten van het onderzoek kan de chipmaker worden aangeklaagd door de Franse autoriteit, zegt Cœuré.

Het onderzoek richt zich mogelijk op de cloudcomputingtak van het bedrijf. Uit een eerder gepubliceerd rapport blijkt dat de toezichthouder bezorgd is dat Nvidia zijn macht misbruikt doordat de sector afhankelijk is van Nvidia's CUDA-software. De toegenomen vraag naar chips voor AI-toepassingen heeft ertoe geleid dat toezichthouders wereldwijd meer belangstelling hebben voor bedrijven die zich met (chips voor) kunstmatige intelligentie bezighouden.

Nvidia bereikte in juni een beurswaarde van 3,34 biljoen dollar, waarmee het Microsoft en Apple inhaalde als waardevolste bedrijf ter wereld. Op het moment van schrijven hebben Apple en Microsoft weer een iets hogere beurswaarde dan de chipmaker. Nvidia bevindt zich al enige tijd in het vizier van de Autorité de la concurrence. De Franse waakhond heeft in september van vorig jaar al een inval gedaan bij de chipmaker, waarbij naar verluidt computers en documenten zijn onderzocht en meegenomen.

Door Sabine Schults

Redacteur

15-07-2024 • 14:35

14

Reacties (14)

Sorteer op:

Weergave:

Een spannend onderzoek wat bovendien nogal forse impact kan hebben. Hoewel ONNX een vrij open standaard is om deep learning en AI modellen te "runnen" (Intel, AMD, nVidia, Qualcomm en alle software boeren ondersteunen het), is het trainen/retrainen/bouwen van training en validatie data inderdaad nogal een CUDA-wereldje tenzij je bereid bent verder te gaan.

Het is namelijk niet zo dat de "anderen" incompetent zijn, het is helaas wel zo dat CUDA echt zo'n "kip/ei" ding is waar je niet omheen kan. Er zijn wel wát workarounds zoals ZLUDA, wat een beetje op WINE lijkt (een 7900XTX doet het ongeveer vergelijkbaar met een 4080), maar net zoals de begindagen WINE is de compatibiliteit niet gegarandeerd en het is nogal tinkeren. Op het moment dat je een 7-cijferige investering hardware gaat doen, waar je maanden van te voren die hardware volboekt/uitquota'd/verhuurt, dan ga je niet je users kostbare minuten laten testen om dat op de hardware draaiend te krijgen.

ZLUDA doet één ding, net zoals andere "open" tooling, en dat is bewijzen dat het kan, en niet hardware afhankelijk is. nVidia heeft echter qua handelspraktijken ook natuurlijk wel een beetje een grip op de markt, het is niet enkel puur omdat ze de grootste zijn.

Ik ben benieuwd wat hieruit komt, en wat nVidia gaat doen. Het zal ze sieren als ze, net zoals toen Freesync groter werd en dé VESA-standaard werd, als ze "open" ook omarmen vanuit deze next-gen compute hoek.
CUDA is een programmeertaal. Deze is niet specifiek gemaakt voor AI werk, maar is breed inzetbaar voor High Performance Computing in al zijn vormen.

Wat je meestal ziet is dat mensen hun modellen ontwerpen en trainen in pakketten zoals TensorFlow, welke in principe hardware agnostisch zijn (iedere fabrikant van CPUs en GPUs heeft zijn eigen backend voor TensorFlow). Echter voor het doen van inference (zeg maar het runnen van het getrainde model op nieuwe data) zul je zien dat de meeste gebruikers een optimalisatie slag doen voor hun target hardware. Voor NVIDIA is dat TensorRT, een abstractie laag bovenop hun CUDA cores en belangrijker, de Tensor Cores die onderdeel zijn van hun GPUs sinds de Volta architectuur.

Daarvoor heeft NVIDIA een inference framework ontwikkeld dat Triton Server heet en je een groot gedeelte van het zware werk van je afneemt.

Hiermee is het relatief eenvoudig om modellen voor maximale performance op NVIDIA hardware te converteren en uit te laten voeren.

BTW: AMD heeft zijn eigen variant van een generieke HPC taal gemaakt. Die heet HIP en is onderdeel van RocM. Sterker nog: HIP lijkt sterk op CUDA en er is zelfs een tool om HIP code te converteren naar CUDA code om deze zo op NVIDIA hardware te kunnen compileren en runnen.

Alleen Intel heeft weer zijn eigen incompatibele HPC taal geproduceerd genaamd DPC++, welke sterk leunt op OpenCL en SYCL. Deze taal lijkt niet op CUDA en vereist dus een complete rewrite van code die op CUDA gebaseerd is.

BTW: ZLUDA is zo goed als dood aangezien de ontwikkelaar eerst intern bij AMD aan dit tool gewerkt heeft en dit alleen op GitHub heeft mogen plaatsen omdat AMD geen interesse meer had voor het project. Zonder interesse vanuit de GPU fabrikanten is er weinig ontwikkeling aan ZLUDA.

Er is geen nieuwe code meer gepushed naar de repo sinds minstens 2 maanden en dat was slechts een kleine update voor Meshroom compatibiliteit.

[Reactie gewijzigd door CrazyJoe op 22 juli 2024 14:27]

Onnx is model formaat en runtime, draai uiteindelijk gewoon weer op cuda.
Klopt, maar in theorie meer portable. Er zijn in de GIS-wereld een lading modellen die bijvoorbeeld op AMD/Intel kunnen draaien, maar niet als input voor nieuwe iterations kunnen gebruiken. Denk aan een boomherkenning/classificatie model wat op basis van RGB-Infrarood luchtfoto's soorten kan herkennen, wat mogelijk getraind is op een Australische set, wat je zou kunnen "enhancen" met een west-europese set. Toepassen kan, verrijken helaas niet.
Ik mis het probleem hiermee. Converteer je ONNX model terug naar Tensorflow/Keras, train daar, converteer weer naar ONNX. ONNX is inderdaad niet het native model waarin je traint, maar dat is geen grote belemmering.
De Fransen hebben natuurlijk niks meer met hardware na Bull en Olivetti gestopt zijn.
Dat was jaren negentig misschien nog iets .
Bij de eerste ben ik nog langs geweest tijdens de studie, Olivetti had ik daarna wel in onderhoud. Die verdwenen direct maar de domeinen aangezien de vorige beheerders het wachtwoord van de bios hadden achter gehouden. En de leverancier niet wilde mee werken. Vaak kon je die wel bij andere leveranciers gewoon wissen door een een paar contacten te verbinden.
Het is namelijk niet zo dat de "anderen" incompetent zijn, het is helaas wel zo dat CUDA echt zo'n "kip/ei" ding is waar je niet omheen kan.
Nvidia heeft jaren lang gebouwd aan CUDA, ze zijn er in 2007 mee gekomen. Dus in die zin is het een kwestie van een lange adem hebben en er in (blijven) investeren.
Je noemt allemaal consumenten kaarten terwijl het onderzoek over cloud computing gaat.
Ik denk wel dat ze dingen gaan vinden......
Ik ben nog wel benieuwd. CUDA werkt gewoon heel goed werkt en is redelijk eenvoudig te implementeren. Dit maakt CUDA erg populair onder ontwikkelaars. Alleen, door deze populariteit creëer je een afhankelijkheid van CUDA/NVIDIA voor eindgebruikers.
Veel machine learning modellen zijn op CUDA gebouwd en de iteraties binnen deze modellen zijn eveneens op CUDA gebaseerd, wat zorgt voor een zelf gecreëerde afhankelijkheid van CUDA.
Maar of je dan daarvan de schuld bij Nvidia kan leggen is nog maar de vraag.
Er zijn weinig mensen die hun AI modellen ontwikkelen met CUDA. Dit gebeurt eerder met pakketten zoals TensorFlow of PyTorch. Deze zijn in principe hardware agnostisch. Iedere fabrikant van compute hardware heeft zijn eigen backend ontwikkeld om TensorFlow en/of PyTorch efficient te laten werken op hun spullen.

CUDA is een algemene ontwikkeltaal voor massief parallelle programma's. Ongetwijfeld heeft NVIDIA hun backends voor TensorFlow en PyTorch ontwikkeld met CUDA, maar AMD en Intel hebben dat ongetwijfeld ook gedaan voor hun hardware (AMD met HIP/RocM en Intel met oneAPI/DPC++)

Echter wat interessanter is voor de meeste AI aanbieders zijn de zogenaamde inference prestaties van de verschillende aanbieders.

En daar heeft NVIDIA een voordeel doordat hun GPUs beschikken over Tensor Cores, welke specifiek geoptimaliseerd zijn voor het snel uitvoeren van de matrix berekeningen waarop AI nu eenmaal leunt. Daarvoor hebben ze TensorRT gecreëerd, een speciaal formaat voor AI modellen welke vervolgens optimaal uitgevoerd kunnen worden op hun modernere GPUs (alles na Volta).

Je ziet nu alle processor fabrikanten soortgelijke speciale hardware toevoegen aan hun CPUs en GPUs, in de vorm van NPUs en matrix coprocessoren.

Echter NVIDIA heeft dit natuurlijk allemaal al in place en heeft allerlei tooling om het gebruik van TensorRT te vergemakkelijken. Zaken zoals de Triton Inference Server welke het eenvoudig maakt om TensorRT modellen te executeren en de tooling om ONNX modellen om te zetten naar TensorRT modellen.

Daar zit de sterke kant van NVIDIA: het creëren van goede tooling om optimaal van hun hardware gebruik te kunnen maken. Daar zit ook de zwakke kant van AMD en Intel, hun tooling is om het zwakjes uit te drukken ondermaats.
CUDA als basis API voor custom AI stacks is misschien wat zeldzamer, maar NVidia levert ook CuDNN mee. Dat is al een stuk completer, daar zitten de standaard NN lagen al in.

Dat is dus nog een andere reden voor het succes van NVidia in AI: er zijn op meerdere hoogtes API's beschikbaar, van bijna bare-metal tot Python.
het gaat me niet zo zeer over het product, maar wat er om heen zit , het handelen van het bedrijf, je hoeft alleen maar te kijken wat ze bij de video kaarten doen, dan is het niet gek dat men bij de CUDA vergelijkbare dingen doet.
Dit zal dan eerder draaien rond de verkoop van hardware, dan dat dit aan CUDA gerelateerd is.

Op dit item kan niet meer gereageerd worden.