'Frankrijk doet inval bij Nvidia in onderzoek naar cloudcomputingmarkt'

De Franse marktwaakhond heeft deze week een inval gedaan bij de Franse tak van Nvidia naar aanleiding van een onderzoek naar concurrentiebeperkend gedrag. Dat schrijft The Wall Street Journal. De toezichthouder bevestigt dat er een inval is geweest, maar zegt niet bij wie.

De Franse toezichthouder Autorité de la concurrence zegt dat er eerder deze week een inval is geweest bij een bedrijf 'dat actief is op de gpu-markt'. De waakhond vermoedt dat dit bedrijf concurrentiebeperkend gedrag heeft vertoond binnen deze branche, specifiek in de cloudcomputingsector. De toezichthouder geeft verder geen details over de inval.

Volgens bronnen van The Wall Street Journal gaat het om Nvidia. Bij zo'n inval wordt normaliter het pand van het bedrijf onderzocht, worden computers en documenten onderzocht en meegenomen, en worden werknemers geïnterviewd. De Franse autoriteit zegt voor de inval toestemming te hebben gekregen van een rechter. De Autorité gaf eerder aan zich zorgen te maken over de cloudcomputingmarkt en in hoeverre grote bedrijven het lastig maken voor kleinere spelers om voet aan de grond te krijgen. Nvidia is wereldwijd de grootste leverancier van AI-gpu's die in cloudcomputing worden gebruikt voor het draaien van kunstmatige-intelligentietoepassingen, een markt die onlangs sterk is gegroeid.

Door Hayte Hugo

Redacteur

29-09-2023 • 10:34

53

Reacties (53)

53
53
36
5
0
9
Wijzig sortering
En wat AMD doet met DLSS is geen concurrentiebeperkend gedrag?

EDIT:

Wat ik daarmee bedoel is, blokkeren in games of zelfs eruit halen na release, dat is toch ook concurrentiebeperkend?

[Reactie gewijzigd door TheDeeGee op 25 juli 2024 00:49]

AMD heeft softwarematige implementaties:
- FSR die voor ieder toegankelijk is en in een game ingebouwd wordt.
- RSR dat ingebouwd is in hun drivers. Dit omdat dit dan automatisch in allerhande games (zonder extra support) te gebruiken is. Gezien dit in drivers zit, is dit natuurlijk niet voor Nvidia beschikbaar.

Nvidia heeft DLSS, wat steunt op hun Tensor cores, welke je niet vindt in AMD (of intel) grafische kaarten.
Dit is dus een implementatie die steunt op beschikbare hardware

Hoe hard mensen ook ruzie willen maken, niets hier heeft te maken met de ene die de ander de nek wilt om doen. DLSS draait gewoon niet op AMD hardware en FSR is gewoon beschikbaar voor iedereen - omdat het kan. Eens dat AMD meer een open-source mentaliteit behartigd, maar dat maakt Nvidia niet slecht. Zonder hen stonden we tenslotte niet waar we nu staan.
Nee, misschien zouden we zonder Nvidia wel juist verder staan. Oke, ze innoveren. Maar ze zijn ook enorm anti-competetief en zullen je geen "flop" performance teveel geven dan wat ze minimaal nodig achten, tegen natuurlijk de zo hoogst mogelijke prijs.

Ik denk net dat de markt er veel beter had voor gestaan naar value voor je product als iemand anders dan nvidia marktleider was geweest, en al helemaal als de marktleider niet 70%+ van de markt in handen had, maar dat we een gezond concurrerend aantal bedrijven hadden (3-4) op deze markt.
Blijkbaar verdienen ze dat marktaandeel want er is geen chipfabrikant die tegen ze op kan. AMD doet het best goed maar veel meer concurrentie is er ook niet. Intel doet al decennia pogingen maar die lopen echt wel dik achter en de rest nog meer.

Dat we het anders willen is duidelijk maar dan moet er wel een andere partij opstaan.
Nvidia is marktleider omdat mensen toch hun producten kopen. Dus de prijs die jij te hoog vond, is blijkbaar niet te hoog voor de massa. Of de kwaliteit of performance die ze boden, was hun prijs waard voor de mensen die ze kochten.
Er waren altijd alternatieven voor de kopers, dus het is niet Nvidia zijn schuld dat hun producten gekocht worden.
Ik heb geen idee wat de markt zou zijn, indien Nvidia er niet zou zijn geweest. Ik doe zelden aan zulke onvoorspelbare speculaties. Misschien had AMD dan geen motivator gehad om hierin te investeren tot de performance die er nu is. Geen Nvidia betekent natuurlijk ook geen games die deze performance vereisen, dus geen nut voor Intel of AMD om deze weg in te slaan.
Er was dan ook geen sprake geweest van Raytracing voor games. Dit was een gewaagde keuze van Nvidia. Ook waren zij de eerste met DLSS; FSR en RSR zijn gelijkaardige technieken, maar zien er uit als een antwoord op DLSS.
Het gaat niet om de massa, het gaat erom dat ze voor exorbitant hoge bedragen AI GPUs verkopen omdat ze al jaren de enterprisemarkt kapot hebben geconcurreerd.
ze vragen 40-60k per gen4 A100 gpu, + een duur licentiemodel. daar zit ongeveer net zoveel compute in als een 4090,met 2x zoveel RAM. De 4090 is al overpriced, en de A100 is niet van zichzelf actief gekoeld dus ook nog eens een stuk makkelijker te produceren. Er is nooit een alternatief geweest op de enterprisemarkt, de consumentenmarkt is sinds een heel aantal jaren al bijzaak om marketing redenen, kijk maar naar het verschil in omzet. AMD had daarbij een aantal paper launches en komt pas net weer mee in de consumentenmarkt.
Op Enterprisegebied is AMD dwarsgeboomd door concurrentiebeperkend gedrag omdat Nvidia al jaren onder een hoedje speelt met vendoren als Microsoft, AWS, Dell, HP en VMware, en onder tafel kortingen kan geven waar AMD niet tegenop kan.

Anekdotisch bewijs: Ik heb hier best wat mensen over gesproken tijdens inkooptrajecten voor GPU-enabled servers en op conventies (voor hetzelfde)
Dus ik ben benieuwd wat er uit het onderzoek komt.
- NVM; off-topic

[Reactie gewijzigd door shufflez op 25 juli 2024 00:49]

AMD en DLSS? ik snap je niet. DLSS is een NVIDIA feature
Ik vermoed dat TheDeeGee doelt op games zoals Starfield die geleverd wordt/werd met enkel een FSR-implementatie en daarbij betere FPS haalt op AMD dan op Intel/Nvidia:
https://www.youtube.com/watch?v=ciOFwUBTs5s

Starfield heeft een samenwerking met AMD, er gaan verhalen rond dat de prestaties in vergelijkbare CPU's/GPU's qua ratio veel slechtere prestaties halen t.o.v. AMD-apparatuur, terwijl dit bij andere spellen niet het geval is.

Men die de community 'mod' DLSS implementatie gebruikte merkte al op dat ze veel betere prestaties behaalden dan met FSR of zonder beide en vanwege AMD-samenwerking, vermoed men dat dit een bewuste keuze is om AMD-apparatuur een 'win' te geven.

Nu doen Intel en Nvidia uiteraard hetzelfde, maar goed daar zal het verhaal denk ik vandaan komen.
Nvidia is vrij DLSS en FSR ondersteuning in hun kaarten in te bouwen als ze dat willen. Nvidia blijft gewoon het bedrijf dat concurrentie beperkend optreed met hun handelswijze op de GPU en AI markt door niet samen te werken met andere bedrijven om samen open standaarden te maken zodat iedereen weer met gelijke kansen met elkaar kan concurreren.

Edit: Daarnaast ik het optimaliseren voor AMD niet perse om AMD een "win" te geven. Dit is te kort door de bocht. Het is een logisch gevolg doordat de consoles zoals de PS5 en Xbox ook AMD GPU's gebruiken en je dus door voor AMD optimaliseren gelijk 3 platformen raakt. Ook het ondersteunen van FSR heeft hiermee te maken omdat deze ook op de consoles gaat komen.

[Reactie gewijzigd door rjd22 op 25 juli 2024 00:49]

Maar waarom moet dat? Het hele punt van een GPU is gespecialiseerde hardware om bepaalde software beter te laten draaien. Dan ga je toch niet met iedere innovatie op de concurrentie wachten die met een fors kleiner budget werkt?

Neem Blender, open source software dus het staat AMD volledig vrij om compatibiliteit te verbeteren op welke manier dan ook. Nvidia kaarten zijn daar ruim twee keer zo snel dankzij Nvidia's innovaties op het gebied van software, en ray tracing. Zou het beter zijn als Blender net zo traag was als op AMD kaarten? Het lijkt mij eerder gezonde concurrentie dat ze ook op softwaregebied kunnen innoveren.

[Reactie gewijzigd door Wolfos op 25 juli 2024 00:49]

ik snap je punt, maar je voorbeeld gaat wel wat mis, waarmee je ook andere mensen verkeerde informatie geeft (imo grootste probleem van AMD's imago)

Bij blender is het heel afhankelijk welke workload je uitvoert en wie dan sneller is AMD of nVidia

https://youtu.be/3r6TasObpRU

Wel is het zo dat er workloads zijn die puur op nVidia draaien, waardoor als Blender je hoofd workload is je waarschijnlijk beter voor nVidia kan gaan
Het implementeren van technieken die de consument "dwingt" om bepaalde hardware aan te schaffen is wat anders dan een betere techniek leveren. Gsync, DLSS van Nvidia is propietary en dat soort praktijken zijn nou eenmaal niet echt consument of milieuvriendelijk. Dat soort praktijken, waarbij bedrijven zoals Nvidia, Apple(alle hardware), Sony (SD-kaarten, games) regelmatig consumenten voor een extreem lange periode "dwongen/dwingen" om binnen hun infrastructuur te blijven om volledige functionaliteit te hebben, zijn niet echt hoera-praktijken.
Gsync heeft ervoor gezorgd dat freesync ontwikkeld werd - wat uiteindelijk de race won omdat Gsync geen echte voordelen bood. Dat is gewoon de vrije markt die z'n werk doet. Als het open alternatief beter is dan zal de markt altijd daarvoor gaan.

Hetzelfde gebeurt met DLSS. We zien nu drie concurrerende methodes waarvan machine learning steeds de beste resultaten geeft. AMD weet nu dat ze machine learning hardware aan hun consumentenkaarten moeten toevoegen om straks een open standaard mogelijk te maken.
Zou DLSS niet hebben bestaan, dan zaten we waarschijnlijk nog vast aan TAA upscaling.

[Reactie gewijzigd door Wolfos op 25 juli 2024 00:49]

Sterker nog, Blender heeft een boel donaties gekregen van AMD en werkt samen om de performance te verbeteren. De nVidia compatibiliteit blijft gewoon beter.
Starfield heeft een samenwerking met AMD, er gaan verhalen rond dat de prestaties in vergelijkbare CPU's/GPU's qua ratio veel slechtere prestaties halen t.o.v. AMD-apparatuur, terwijl dit bij andere spellen niet het geval is.

Men die de community 'mod' DLSS implementatie gebruikte merkte al op dat ze veel betere prestaties behaalden dan met FSR of zonder beide en vanwege AMD-samenwerking, vermoed men dat dit een bewuste keuze is om AMD-apparatuur een 'win' te geven.
Hardware Unboxed heeft een verhaal helpen verspreiden dat AMD developers zou dwingen om geen DLSS in hun games toe te voegen en dat AMD daarmee dus anti-consumer gedrag zou vertonen. Hier is echter geen enkel bewijs voor gepresenteerd. Er is alleen een korte lijst met games die wel FSR maar geen DLSS hebben. That's it. Dat is het hele verhaal.

Zonder enig bewijs roepen dat een bedrijf slechte dingen doet is natuurlijk behoorlijk onzinnig. Als een developer nou uit de school zou klappen of als er emails/chats zouden lekken waaruit blijkt dat AMD developers dwingt (of aanmoedigd, whatever) om geen upscaling van andere fabrikanten toe te voegen, dan prima. Aan de schandpaal met ze. Maar dat is niet het geval.

Toen Linus Tech Tips onterecht nare dingen zei over de proto type koeler van Billet labs toen was de wereld te klein. LTT kreeg hier terecht heel veel kritiek op. Hardware Unboxed roep nu ongegrond nare dingen over een miljarden bedrijf (AMD) en dan is het opeens prima? Rare gang van zaken.

Vraag: is Bethesda het soort studio die je met een zak geld kunt kopen om geen DLSS toe te voegen? Hoeveel zou dat kosten om daar mensen om te kopen of zo'n deal te sluiten? Zeker nu ze onder de paraplu van mega corp Microsoft vallen. Dat lijkt met een behoorlijke opgave om voor elkaar te krijgen. Maar goed, dat terzijde.

Het probleem van ontbrekende DLSS lijkt in ieder geval iets van tijdelijke aard te zijn gezien dit nieuws bericht op Tweakers:

Bethesda gaat Nvidia DLSS-ondersteuning en fov-slider toevoegen aan Starfield
Ik vond het zelf ook inderdaad heel erg jammer van HUB dat ze hier zo over deden, ik had heel lang een erg goed beeld van ze maar dat is nu dus helemaal kapot, vooral omdat ze zelfs nadat het allemaal onzin bleek te zijn er niet op terug zijn gegaan.

Ik denk dat de echte reden eerder gewoon luiheid is, er zit (of in ieder geval tijdens de launch, ik weet niet zeker of ze hem inmiddels al toe hebben gevoegd) zelfs geen brightness slider in het spel en de accessibility opties gaan niet verder dan de ADS van hold naar toggle kunnen veranderen. Ik verwacht ook dat FSR er puur in zit omdat mensen van AMD zelf dat er waarschijnlijk in gestopt hebben, en die gaan niet ook gelijk gratis de techniek van de competitie die niet eens op hun eigen hardware werkt inbouwen.
Luiheid betwijfel ik als ik zie de staat van het spel.
En daarbij heeft Microsoft hun ook al een kans gegeven om het spel een jaar uit te stellen.
Nee spel was lang niet af.
Kleine kanttekening m.b.t. je vergelijking van Linus plus onterechte kritiek aan Billet Labs en games die geen DLSS hebben mogelijk door oneerlijke dwang. De een is gewoon een foutieve beoordeling (produkt is zogezegd niet goed), de ander is een mogelijke conclusie gebaseerd op een set van games die wel/niet een bepaald kenmerk bezitten. Natuurlijk ook niet juist - want zonder aanleiding is het pure verdachtmakerij. Maar de incorrecte beoordeling van de koeler door Linus was pure incompetentie en stemmingmakerij richting andere techsites (en het aantrekken van views.).

Je hebt wel gelijk dat beide partijen nare dingen over andere bedrijven zeggen. Maar de motivatie daarvoor is wel verschillend.

Dat is vermoedelijk ook waarom de reacties op beide incidenten nietvan dezelfde aard zijn.
Starfield gebruikt shaders die o.a. baat hebben bij grotere registers. En dus efficiënter werken op AMD hardware omdat AMD (bijv RDNA3 vs Ada) grotere registers heeft dan Nvidia consumenten GPUs. Dat is opzich niet gek als je bedenkt dat de game eerst voor Xbox geoptimaliseerd zal zijn en daarna voor PC. Verklaard ook enigszins de lage "utilization" van Nvidia GPUs omdat de registers daar moeite hebben om o.a. de execution units bezig te houden. Terugvallen op L1$ en hoger is traag.

Dat is niet persé kwade wil maar gewoon een architectuur verschil wat bij bepaalde shaders naar boven komt. Nvidia en AMD maken simpelweg andere keuzes en performance zal niet altijd naar verhouding schalen.

Interessant leesvoer: https://chipsandcheese.co...s-4090-and-amds-7900-xtx/
Dank voor de aanvullende informatie!
... er gaan verhalen rond dat de prestaties in vergelijkbare CPU's/GPU's qua ratio veel slechtere prestaties halen t.o.v. AMD-apparatuur, terwijl dit bij andere spellen niet het geval is.

Men die de community 'mod' DLSS implementatie gebruikte merkte al op dat ze veel betere prestaties behaalden dan met FSR of zonder beide en vanwege AMD-samenwerking, vermoed men dat dit een bewuste keuze is om AMD-apparatuur een 'win' te geven.
Verhalen, vermoedens... Maar uiteindelijk bleek het (zoals zo vaak) 'iets anders' ;) :

https://www.techspot.com/...sted-features-coming.html

[Reactie gewijzigd door HuisRocker op 25 juli 2024 00:49]

Wat echter wel een afweging was van Bethesda, en niet van AMD.
Je bedoelt waarschijnlijk FSR?

Het wordt tijd dat Microsoft met een DirectX API komt voor FSR. (en eentje voor raytracing)
Dan kan dit op AMD en Intel kaarten draaien in software
en op Nvidia kaarten draaien op hardware (in de vorm van DLSS).

Wat je met Starfield ziet, is dat Nvidia kaarten zonder alle DLSS-poespas (dus in rauwe pure rasterizing performance) eigenlijk nauwelijk/amper beter zijn dan AMD kaarten.
Vandaar dat de AMD kaarten het zo goed doen in Starfield.
Alleen, dan laat je op Nvidia kaarten wel een heleboel transistors ongebruikt.
Namelijk alle raytracing en tensor cores.
Raytracing zit al heel lang in DirectX 12, dat heet DXR.
Veel mensen noemen het misschien wel "RTX" maar "RTX" is puur Nvidia's feature suite rondom raytracing (en nu dus ook meer dingen zoals DLSS), als een spel DXR heeft (buiten Vulkan spellen eigenlijk alle spellen met raytracing) werkt het als het goed is ook gewoon op AMD, tenzij ze dus dingen zoals Nvidia-specifieke denoiser forceren maar dat ligt op zich buiten het raytracen zelf.
Hetzelfde geld voor Vulkan Raytracing (of hoe ze het ook precies genoemd hebben).
DLSS gaat niet over de cloudcomputing markt dus dat is in dit geval irrelevant.
Video games zijn natuurlijk van veel minder belang dan de de hele cloud computing markt.
Zoals wat phray al zegt, DLSS is van NVidea, AMD heeft zijn variant met FSR, echter staat het anderen vrij om de FSR-technologie te implementeren voor zover ik weet, terwijl dat voor DLSS niet geldt, dus hoe is dat dan concurrentiebeperkend gedrag vanuit AMD vraag ik mij af.

[Reactie gewijzigd door Lt.Kraken op 25 juli 2024 00:49]

ze maken software die samengaat met hun hardware?
het beste wat je kan claimen is dat ze vragen aan gamemakers om het in hun games te stoppen, en dat is ook compleet legaal.
Je zou kunnen speculeren dat ze betalen om dlss in games te hebben en zelfs DAN is het niet alsof je die games niet zonder DLSS kan spelen, DLSS is gewoon een toevoeging voor NVIDIA eigenaren, niet een minimum requirement om een game te kunnen spelen.
Wat doet AMD dan met DLSS? :?
Blokkeren in games of zelfs eruit halen na release, dat is toch ook concurrentiebeperkend ?

[Reactie gewijzigd door TheDeeGee op 25 juli 2024 00:49]

Bedoel je AMD FSR, AMDs techniek voor het scalen van games dat ook werkt op GPUs van concurrenten en deels vastgelegd is in een open standaard?

In dat geval mag je net iets meer toelichting dan een oneliner geven.
Indien je DLSS bedoelt, zoals anderen zeggen, da's van Nvidia.
Als je het Starfield AMD vs Nvidia verhaal bedoelt dan is dit al gedebunked door de makers van Starfield zelf. Nvidia heeft gewoon niet geïnvesteerd in optimalisatie wat betreft hun drivers. DLSS wordt gewoon ondersteund maar had niet prioriteit bij Bethesda. nieuws: Bethesda gaat Nvidia DLSS-ondersteuning en fov-slider toevoegen aan S...

[Reactie gewijzigd door Brawler1986 op 25 juli 2024 00:49]

Het gaat over 'CloudComputing'. Dit heeft helemaal niets met gaming of dlss te maken.
Wat heeft dat met een inval op Nvidia te maken?
Ik vind het wel vreemd dat heel veel nieuwe technologien alleen maar op NVIDIA GPUs werken. Weet iemand waarom dat do is? Schrijft NVIDIA veel software waar veel gebruik van wordt gemaakt ofzo?

Neem bijvoorbeeld NeRFs of Gaussian Splatting. Om die te genereren heb je het liefst 24 GB VRAM nodig en ik heb het idee dat NVIDIA zijn consumenten GPUs met opzet beperkt qua VRAM.
Als diezelfde technologie nou op m'n Macbook met 64GB shared memory getrained zou kunnen worden, dan hoef ik geen extra windows machine met NVIDIA kaart te kopen...

[Reactie gewijzigd door Menesis op 25 juli 2024 00:49]

omdat het in nvidia's interesse is om patenten te houden op nieuwere technologien, hoogst waarschijnlijk is het gewoon het simpele antwoord van gierigheid.
Ik vind het wel vreemd dat heel veel nieuwe technologien alleen maar op NVIDIA GPUs werkt. Weet iemand waarom dat is?
Toegankelijkheid en exclusiviteit van CUDA.

[Reactie gewijzigd door The Zep Man op 25 juli 2024 00:49]

Nvidia heeft cuda. Dat is een platform met zowel bibliotheken als een compiler voor hun kaarten. Alle software die daarop geschreven is draait op Nvidia kaarten. Er zijn wel andere platformen maar die zijn minder aantrekkelijk. Soms missen ze features, soms zijn ze minder snel of soms is de debugging mogelijkheid minder. Ander voordeel dat cuda heeft is dat deze al langer beschikbaar is en veel onderzoekers alle ins en outs ervan weten en dat geld niet voor sommige andere platformen. Er zijn ook door de tijd convertors gemaakt om te vertalen tussen cuda en ander platformen. Maar die hebben niet altijd 100% coverage. De projecten die jij linkte zijn sowieso onderzoeksprojecten en niet bedoelt om er iets mee te doen, een onderzoeker heeft meestal geen tijd/budget om deze te porten naar verschillende platformen. De tijd wordt eerder gestoken in het halen van de beste resultaat.
Waarschijnlijk schrijft Nvidia alles zo dat het alleen maar met CUDA werkt, en dat is een soort van taal voor Nvidia's GPU-macroachitectuur volgens mij. Iets wat specifiek voor CUDA geschreven is werkt met niets anders, Iemand heeft volgens mij wel een keer een of andere emulatiesoftware geschreven maar ik weet niet hoe goed / snel dat werkt.

Een alternatief voor CUDA in veel gevallen is OpenCL, maar Nvidia heeft nooit fatsoenlijke ondersteuning voor OpenCL 2.0 toegevoegd (AMD en Intel wel, erg grappig daaraan is dat zij daar heel erg van profiteren tenopzichte van OpenCL 1.2 en dus veel beter tegenover CUDA staan), en doordat ze dat nooit hebben gedaan heeft bijna geen enkele software ondersteuning voor OpenCL 2.0 maar alleen soms 1.2 (snap ik trouwens niet helemaal, als je toch OpenCL inbouwt, waarom dan niet gelijk 2.0, het is niet alsof je het op Nvidia nodig hebt).

Een tijdje terug is OpenCL 3.0 wel uitgekomen, en dat klinkt dan leuk maar dat is dus echt niets.
OpenCL 3.0 is OpenCL 1.2 met optioneel de onderdelen van OpenCL 2.0 / 2.1, dus nu claimt Nvidia dat ze "OpenCL 3.0" ondersteunen terwijl het waarschijnlijk stiekem nog steeds OpenCL 1.2 is, en er dus niets anders is geworden.

[Reactie gewijzigd door TheGiantPotato op 25 juli 2024 00:49]

Ja, NVIDIA investeert heel veel in hun software.
Interessant. Nvidia is natuurlijk vaker negatief in beeld gebracht als anti-consumenten/partnership praktijken van het ram debacle, het uitknijpen van partners zoals EVGA, cheaten op benchmarks (2003) en het ontransparant maken van namingscheme en producten anders verpakken en verkopen dan logischerwijs is (denk 4070ti vs 4080 van dit jaar, of het 1060 3GB debacle). Dit zou ook nog anti-competitieve praktijken zijn, indien dit blijkt te kloppen. Dat wordt nog even wachten op de uitkomst.
Ahh ja de 4080 12GB, die zo slecht werd ontvangen dat ze het product gingen 'unlaunchen' en iets later een 4070ti uitbrengen wat dus dezelfde kaart was voor een uiteindelijk hogere prijs dan die 4080 12GB.
Mwah, ze zijn eikels, maar zo illegaal kan ik het allemaal niet vinden. Het uitknijpen van partners iswwat de hele industrie doet maar dat komt omdat de winstmarge op consumententechnologie nu eenmaal flinterdun is. Het naming scheme was altijd al vaag, ik kan me niet bedenken waarom ze zich zouden moeten houden aan hun vage nummersysteem als ze al jaren lang willekeurige nummers pikken (wat is de 1660?).

Dat cheaten op benchmarks van twintig jaar terug is wel misleiding, maar ik denk niet dat het tegenwoordig relevant is. Die halve GB trager VRAM was technisch gezien correct qua grootte al was hun marketing (zoveel GB op zoveel MB/s) natuurlijk wel fout.

De ergste dingen die Nvidia (en AMD overigens ook) doet qua misleiding is het relaunchen van oude hardware. Beide partijen hebben een kaart van de vorige generatie gepakt, daar het een en ander aan getweakt, en de kaart voorgedaan als onderdeel van een nieuwe generatie. De verschillen qua performance waren klein, dus ik denk dat je daar daadwerkelijk van misleiding zou kunnen spreken.

Nvidia is gewoon een kutbedrijf dat leuk spul maakt, net als Disney en Nestlé. Je mag een zelfzuchtige eikel zijn van de wet (voor bedrijven met aandeelhouders is dat soms zelfs verplicht). Als de consument verbetering wil zien, moeten ze bij de concurrentie kopen.
Je vergeet nog één groot debacle, dat was met de 8000-series, waarvan niet de vraag was of de GPU defect zou raken, maar meer wanneer. Door designfout hielden betreffende GPU's er gewoon mee op doordat metname soldeerverbindingen niet tegen de optredende temperatuurverschillen bestand waren. Nvidia lied consument, maar ook partners gewoon in de kou staan door eerst heel lang te ontkennen, terwijl HP reeds bewijs had geleverd (tentijde was ik werkzaam voor HP). Vervolgens alleen GPU's ging vergoeden, zonder er rekening mee te houden dat veel GPU's op een moederbord waren gesoldeerd (laptop) of überhaubt op een kaart zitten, wat veel meer kosten met zich meebrengt bij vervanging.
Zijn er noemenswaardige alternatieven voor NVIDIA's datacenter GPU's ?

Als je bijvoorbeeld op een AWS of Azure gaat kijken, heb je bijna niets anders.

[Reactie gewijzigd door SilkensJ op 25 juli 2024 00:49]

Zou dat niet juist veroorzaakt kunnen zijn door anti-concurrerend gedrag? Ik laat het oordeel graag over aan de autoriteiten. Maar het zou kunnen zijn dat Nvidia andere hardwaremakers heeft overgenomen of gedwarsboomd. Misschien met patenten, of het omkopen van winkels of afnemers zodat die meer Nvidia-spul afnemen. Nvidia staat niet boven dat soort trucs gezien het verleden (Intel heeft daar op de CPU-markt nogal een handje van overigens, en AMD heeft ook geen schone handen hoewel zij kleinschaliger en minder vaak anti-concurrerend zijn geweest voor zover ik weet, vergeleken met Nvidia).

Maar goed, Nvidia heeft zich ook serieus ingezet om CUDA te ontwikkelen, en dat is een handig framework voor allerlei complexe compute-taken. Hun succes zal zeker niet alleen komen door oneerlijk voordeel, maar misschien wel deels?

[Reactie gewijzigd door geert1 op 25 juli 2024 00:49]

Microsoft gaat AMD gebruiken voor hun next gen cloud stond in die gelekte documenten van een tijdje terug.
Bijzonder dat de Franse toezichthouder dit doet. Gezien de omzet van Nvidia en het feit dat ze in heel Europa actief zijn zou je verwachten dat dit een taak is voor de Europese Commissie.
Een Franse waakhond kan dit prima in Frankrijk doen, dat hoeft niet door een Europese instantie te gebeuren. Landen hebben ook nog hun egen regeles en instanties, die hier prima in kunnen optreden. Dit kan wel weer precident scheppen voor andere waakhonden om ook weer actie te ondernomen, als het onder europese regels valt.
Fijn dat de Franse waakhond er goed op zit, kritisch zijn is indirect vaak goed voor de consument.
Hoe werkt dat, een inval anno 2023?
Tegenwoordig staat alle data in de cloud. En al het personeel heeft een laptop met een encrypted disk.
Waarvan ook nog eens de helft thuis werkt.
Voor de rest heeft een modern kantoor wat buro's, vergaderkamers en een koffie automaat.
Redelijk kansloos dat een inval wat oplevert.
Wat denk jij dat een raid inhoudt?

Er word gerapporteerd dat het op 1 locatie was, maar is dat wel zo?, Frankrijk heeft genoeg dienders in huis om op meer dan 1 plek een raid uit te voeren. Zij hebben ook genoeg kennis en kunde in huis om eerst te onderzoeken in welk datacenter de "cloud" van NVidia zich bevind. En het datacenter helpt de dienders, want als die de verkeerde servers in beslag nemen of nogal lomp servers off-linen, dat kan nare gevolgen hebben voor andere klanten van het datacenter, waardoor er schadeclaims vanwege SLA's mag worden opgehoest.

Dus nee, de uitbater van een datacenter is uitermate behulpzaam wanneer zij worden gepresenteerd met een gerechtelijk dwangbevel. Het gezeur van die ene klant is het ge-emmer bij andere klanten simpelweg niet waard.

De "cloud" is echt niets magisch of ongrijpbaar. Het draait op servers in datacenters. En dat is echt nog altijd fysieke hardware, alleen niet jouw fysieke hardware, maar van een 3e partij. En dat is een partij die jouw belang afweegt tegen het ge-emmer dat ze van andere klanten kunnen verwachten. En dat valt veel vaker uit in jouw nadeel dan in het nadeel van andere klanten.

SLA zijn niets meer dan woorden op een papier met een paar handtekeningen erop. Meer dan een belofte zijn SLA's niet. Wil natuurlijk niet zeggen dat alle betrokken partijen de overeengekomen beloften/beloningen niet waar willen maken, maar het betekent ook niet dat jouw SLA meer waard is dan dat van een ander. Natuurlijk laten diegenen die SLA's aanbieden graag die indruk achter, want dat helpt met het rollen van geld uit jouw koffer naar hun schatkist. En geloof me, niets anders dan die schatkist is van belang voor de SLA aanbieder.

Jij bent namelijk nooit hun grootste klant. En zonder ook maar 1 keer met de ogen te knipperen zal jij worden geslachtoffered als dat beter blijkt voor "het grote goed". Alleen op dat soort momenten komt men erachter wat de werkelijke waarde van een SLA is.

Want bedenk jezelf: Is jouw dwangsom lager dan de gecombineerde dwangsom van andere klanten die zich in de buurt van jouw servers/server rack(s) bevinden? Dan is het voor het datacenter simpelweg goedkoper om mee te werken met het gerechtelijke bevel en vooral niet in jouw voordeel. "Costs of doing business", voor het datacenter.

Op dit item kan niet meer gereageerd worden.