'Ook EU onderzoekt concurrentiebeperkend gedrag van Nvidia in gpu-sector'

De Europese Unie is een onderzoek gestart naar vermeend concurrentiebeperkend gedrag door Nvidia op het gebied van gpu's. Dat schrijft Bloomberg op basis van gesprekken met ingewijden. De Franse markttoezichthouder is naar verluidt al langer bezig met een dergelijk onderzoek.

Volgens de ingewijden die Bloomberg heeft gesproken, is de Europese Commissie bezig met het verzamelen van standpunten over mogelijk concurrentiebeperkend gedrag door Nvidia op het gebied van gpu's. Op basis daarvan wordt bepaald of er 'verdere interventie' nodig is. Meer informatie is niet bekendgemaakt. Aangezien het onderzoek zich nog in een vroeg, oriënterend stadium bevindt, is het goed mogelijk dat het nergens toe zal leiden.

Het gaat volgens Bloomberg om een soortgelijk onderzoek als dat wat Frankrijk al enige tijd zou uitvoeren. De Franse waakhond is volgens het persbureau gesprekken aan het voeren met marktspelers over de rol van Nvidia in de AI-chipbranche, waarbij onder meer gekeken wordt naar de chiptekorten en welke impact de prijs daarop heeft, alsook het algemene prijsbeleid van de chipfabrikant.

De Franse toezichthouder heeft op het moment van schrijven nog niet bevestigd dat deze een onderzoek naar Nvidia is gestart. Wel deed de waakhond op vrijdag een inval bij een bedrijf 'dat actief is op de gpu-markt'. The Wall Street Journal claimt dat dat Nvidia betreft. Nvidia is wereldwijd de grootste leverancier van AI-gpu's die in cloudcomputing worden gebruikt voor het draaien van kunstmatige-intelligentietoepassingen, een markt die onlangs sterk is gegroeid.

Door Kevin Krikhaar

Redacteur

01-10-2023 • 12:33

163

Reacties (163)

163
160
74
3
0
56
Wijzig sortering
Linksquest Moderator Spielerij 1 oktober 2023 13:16
Veel concurrentie is de GPU markt is er toch niet volgens mij, je hebt AMD (vroegere ATI) en Intel heb je nog, of mis ik nog een GPU partij?
Gaat dus ook om vermeend chip te kort of het creëren daarvan en zo de prijs verder op te drijven.

Nvidia staat bekend enkel voor de maximale winst te gaan en prijs/prestaties vaak niet van belang vind want de mensen kopen het toch wel.

En nu ze zakelijk ook veel meer verkopen willen ze voor de reguliere markt veel minder investeren en de prijs daar ook kunstmatig hoog houden omdat ze het niet erg vinden tekorten te hebben omdat ze voor maximale winst dus gaan.
Gaat dus ook om vermeend chip te kort of het creëren daarvan en zo de prijs verder op te drijven.
Maar dat heeft niets met het hinderen van de concurrentie te maken, sterker nog, het biedt de concurrentie juist meer ruimte en mogelijkheden om te concurreren.
Ik ben geen gpu programmeur maar ik kan me voorstellen dat het ecosysteem nu zo in elkaar zit dat iets als CUDA de defacto standaard is waardoor je voor AI werk geen andere keuze hebt dan nvidea.

Ergens hebben ze het slim gedaan maar je weet dat je een issue hebt als je de enige speler bent. Vroeg of laat moet je een stukje van je systeem openstellen voor concurrenten.
Maar opnieuw, is dat de schuld van Nvidia? Wat had Nvidia anders moeten doen om dat te voorkomen? Alle werk erin moeten steken, jaren en miljarden aan RnD en dan maar gewoon alles te grabbel gooien voor de concurentie zodat er concurerende chips kunnen zijn? Is dat dan eerlijk?

Neen, je moet je systeem niet openstellen voor concurenten, je moet wel toestaan dat die concurentie probeert een stuk van je markt af te snoepen. Je mag je niet anti-competitief opstellen door afspraken te maken die de concurentie tegenwerken.
Je zou ze kunnen dwingen CUDA open te stellen zodat het een open (source) standaard wordt. Zodat (o.a.) Intel en AMD het ook kunnen implementeren.
Op basis van welke bevoegdheid zou de EU dat kunnen eisen? Concreet, welk artikel van het EU verdrag? Het stuk over misbruik van dominante machsposities (zo daar al sprake van zou zijn) heeft dat nie als mogelijke sanctie.
Kan me nog herinneren dat het opsplitsen ook een mogelijke oplossing zou zijn (is het ook geweest mbt Ma Bell al was dat een andere jurisdictie), eventueel daar mee dreigen en dit dan voorstellen als compromis.

Als het momenteel niet kan verander je de wet zodat het wel kan. Kan dan helaas niet per terugwerkende kracht dus zul je moeten bewijzen dat het op moment dat wet geïmplementeerd wordt geldig is.
Het idee van opsplitsen is niet helemaal ondenkbaar. De EU overweegt het bij Google, omdat daar vastgesteld is dat Google z'n marktpositie intern misbruikte. (Google Ads en AdX). In dat soort situaties (waar er sprake is van een sanctie) kan die sanctie inderdaad behelzen dat een bedrijf wordt opgesplitst zodat die twee onderdelen die de overtreding pleegden niet meer in dezelfde holding vallen.

Het punt is: dit is een verregaande sanctie, en de EU moet dan aantonen dat lichtere sancties niet werken. Maar er is niet eens sprake van een aangetoonde overtreding rondom NVidia CUDA.
Voor wat betreft AI en de GPU bakkers, wat mij opvalt is dat alleen Nvidia haar driver eco systeem voor AI op orde lijkt te hebben.
De ondersteuning door Intel en AMD van de bekende AI frameworks, libraries etc is simpelweg niet optimaal en geeft minder goede performance
.
Dit is een reden waarom een business case op basis van Nvidia momenteel sneller loont.
Het zijn dus niet eens zozeer de chips als wel de gebrekkig implementatie van de HW en de AI ecosystemen.
Correct. Waarom zou CUDA opengesteld moeten worden? AMD heeft zelf laten zien dat het niet nodig is; ze hebben een beginnetje gemaakt met ROCm support voor Tensorflow. Alleen, dat werkt niet met een 7700XTX, en het is ook niet echt onderhouden.

Vanuit de EU bezien is CUDA een implementatie detail. Ongeveer iedereen gebruikt een abstractielaag. Het zou pas een probleem worden als NVidia expres AMD hindert bij het ondersteunen van Tensorflow of PyTorch. Dat is nergens voor nodig, AMD hindert zichzelf al genoeg.
EU wetgeving kijkt niet hoe je aan de positie komt, maar wat de effectieve positie is.

Zo had ik jaren geleden een klant die marktleider (80%-90% van de markt) was met zijn product.

Ze waren marktleider geworden door als eerste in die markt te stappen en door inzetten op innovatie ook het beste product te houden.

Ze hadden letterlijk al twee vernieuwingen op de plank liggen die ze niet op de markt durfden brengen uit angst dat hun laatste concurrenten het niet zouden overleven en ze helemaal niets meer mochten.

Wat mochten ze dan op dat moment al niet meer? Ze mochten geen onderzoek meer doen naar innovaties tot de concurrentie de achterstand groot deels had ingelopen. Dan konden ze hun verbeteringen van de plank halen en nog een tijdje wachten en daarna mochten ze pas weer onderzoek doen.

Het hele R&D budget was daarom verschoven naar product verbreding en proberen een nieuwe markt aan te boren. Ik heb die klant 5 jaar gehad en aan het eind van die 5 jaar mochten ze nog steeds niets besteden aan R&D voor hun belangrijkste product.

De EU mededingingsautoriteit had beslist: de consumenten zijn meer gebaat bij concurrentie dan bij snelle verbetering van het product. (En ik kon ze daar geen ongelijk in geven)

EU beleid gaat dus wel iets verder dan 'je mag je niet anti-competitief opstellen' Je mag je markt positie ook niet gebruiken om de concurrentie uit de markt te innoveren!
Grote onzin, en schadelijke onzin daarbovenop.

Ten eerste: In de EU is het absoluut niet verboden om een dominante marktpositie te hebben. Totaal niet. Ook niet in nationale wetgeving (en dat laatste kan ook niet veranderen, want dat zou in strijd zijn met EU regels).

Ten tweede is het net zo min verboden om je product te verbeteren. Alweer: geen EU verbod, geen nationaal verbod, en geen nationale competentie om een verbod uit te vaardigen. Sterker nog: productverbetering is concurrentie op kwaliteit, en daarom expliciet toegestaan.

De verboden waar we het hier over hebben volgen uit Art 102 van het EU verdrag. Er is een hele waslijst aan dingen die wel verboden zijn voor partijen met een dominante marktpositie. Maar als je iedereen hetzelfde behandeld, en geen arbitraire verplichtingen aan je klanten oplegt, dan heb je 90% van die eisen al aan voldaan.
Ten eerste zei ik nergens dat een dominante positie verboden was.

Het probleem hier was dat zonder ingrijpen, doordat hun produkt beter was en ze door schaal grootte goedkoper konden produceren, ze dreigden met normale winstmarges de resterende concurrentie uit de markt te drukken.

De eerste maatregel die ze kregen was dat ze hun kosten voordeel niet mochten gebruiken, ze moesten minimaal even duur zijn als de - inferieure - concurrentie. Dat was op basis van de wetgeving.

Maar kort gezegd, jij zegt dat het niet kan, ik heb gezien dat het niet alleen kan, maar ook gewoon is gebeurd.

Het gevolg was dat ze in vergelijking met de concurrentie gigantische winsten maakten die in R&D werden gepompt. Daar is vervolgens een deal voor gesloten die er een eind aan maakten. Ze maakten die winsten door een mededingingsmaatregel en het was niet de bedoeling dat een mededingingsmaatregel een markt dominantie in stand hield. Die deal was om verdere stappen vanuit de EU te voorkomen.

Vraag me niet welk artikel het om gaat, ik ben geen jurist, ik werkte aan de accountantscontrole.

Het kan best dat die laatste maatregel niet in de wet staat, maar jij weet net zo goed als ik dat als er deals gesloten worden alles mogelijk wordt.
Als die dominantie positie niet verboden was, waarom kregen ze dan prijs sancties opgelegd? Want zoals ik verder uitleg, die "verplichting" die jij veronderstelt volgt niet direct uit het EU verdrag.

Wat jij hier zegt is dat ze een deal hebben gesloten - blijkbaar hebben ze eerst andere regels mededingingsregels overtreden. Om die zaak te schikken hebben ze een deal gesloten waarin ze dingen beloven. Maar ik weet natuurlijk niet welke regels dat dan waren.
Ze werden onderzocht vanwege de grote snel groeiende dominantie, maar daar was niets uitgekomen.

Men viel alleen over een voornemen de prijs te verlagen, wat zoals gezegd vrijwel zeker van een markt dominantie tot een monopolie zou hebben geleid. Dat is ze verboden, omdat men dat als machtsmisbruik bestempelde en daarmee dreigde naar de rechter te gaan. Dat is nooit bij de rechter getoets, maar geaccepteerd door mijn klant.

Alles daarna is gevolg van en onderling overleg om acties te voorkomen.

De klant is nooit schuldig bevonden aan anti competitief gedrag.
Ik snap dat ze onderzocht zijn als ze overwogen om een (illegale) prijsverlaging te gebruiken om concurrenten uit de markt te drukken. Dat is inderdaad een duidelijk voorbeeld van een verboden actie, niet vanwege de prijsverlaging zelf, maar vanwege de concurrentiegevolgen.

Alsnog is het dus een besluit van het bedrijf zelf geweest om die twee innovaties op de plank te houden. De EU kan het niet verplichten vanwege een dominante marktpositie, en er is geen veroordeling geweest waar het als sanctie is opgelegd. Het is dus géén besluit van de EU mededingingsautoriteit; die missen ten enenmale die bevoegdheid.
Is het een keuze als de mededinging autoriteit zegt dat als je het niet doet ze actie ondernemen op een ander punt.

Overigens was de prijsverlaging niet ingegeven door een poging de concurrentie dwars te zitten, maar door kosten verlagingen en men niet de negatieve PR wilde als men er achter kwam dat de marges astronomisch waren. Wat dat betreft was de aanwijzing dat men de prijzen niet mocht verlagen erg welkom.
Ik ga twee scenario's samenvatten. Scenario 1: De EU mededingingsautoriteit chanteert een bedrijf. Ze grijpen niet in waar ze moeten en tegelijkertijd eisen ze een specifieke prestatie die buiten hun bevoegdheid past. Scenario 2: de directie van een bedrijf claimt dat hun astronomisch hoge prijzen verplicht zijn door de EU, en dat klanten daarom geen korting kunnen onderhandelen. "Wij willen wel, maar het mag niet van Brussel".

Welk van de twee lijkt jou het meest realistisch?
Dat noemen ze een false dichotomy in goed Engels.

Documenten dat ze de prijs niet mochten verlagen heb ik zelf gezien. De deal dat men geen vernieuwingen op de markt brengt en onderzoek naar andere producten kwam van de CEO maar klopte met de boeken.

Maar wat jij chantage noemt valt op dat niveau blijkbaar gewoon onder onderhandelingsruimte. Is niet anders als belasting deals, daar heb ik er ook een aantal van voorbij zien komen die als jij en ik dat zouden doen geheid tot een rechtzaak zouden leiden, maar bij multinationals geaccepteerd werden.
Oh, die prijsverlagingen geloof ik op zich wel. Dat kan namelijk wel een Art.102 ding zijn: zodra het bedrijf zelf weet dat hun concurrenten uit de markt geduwd worden, is die prijsverlaging al verboden. Daarom is het is geen dictum van EMA, het is gewoon de wet.

Erlijk gezegd, als ik bij het EMA werkte en wist van R&D verbeteringen die een dominante marktpartij opzettelijk op de plank liet, dan zou ik dat juist gaan onderzoeken. Opzettelijk een inferieur product op de markt zetten lijkt me namelijk wél misbruik van die marktpositie. En een verweer dat de concurrentie zonder die innovatie ten onder ging? Geen excuus, onder art 102 kan het nu eenmaal noodzakelijk zijn voor een dominante partij om technologie in licentie te geven (tegen een faire prijs).
Heel vreemd verhaal.
Een monopolie positie verkregen op eigen kracht geeft normaal weinig belemmeringen.
ASML is al jaren de marktleider (meer dan 85% marktaandeel) en doet nog volop aan R&D.
Klinkt meer als een marketing praatje, verbreding levert meer winst op dan verder onderzoek. En met nieuwe productien / patenten op de plank is er genoeg dreiging om toetreding te voorkomen.
Het ging hier om een consumenten product, niet om een b2b product zoals ASML maakt.

Dan is de impact op de consument directer en is het wat makkelijker ingrijpen voor toezichthouders. Maar reken maar dat ASML heel goed in de gaten gehouden wordt dat ze alleen de landen en entiteiten benadelen waar een embargo tegen is.
Het maakt inderdaad uit dat ASML grote klanten heeft. Daardoor ligt de grens voor een dominante marktpositie hoger. Grote bedrijven worden geacht structureel na te denken over alternatieven voor hun leverannciers. Daardoor kun je met 55% marktpositie in een B2B markt niet-dominant zijn. Maar ASML zit op 85%, en is zelfs voor B2B afnemers dominant.

En tóch mag ASML gewoon aan R&D doen. Want dat is simpelweg geen onderdeel van de verboden handelingen. ASML moet inderdaad opletten dat ze niemand bevoordelen of benadelen; ze moeten onderdelen leveren en geen koppelverkoop gebruiken.

NVidia heeft in de AI een positie die vergelijkbaar is met ASML: 85% of zo marktaandeel, B2B. Dus mogen ze ook net zoals elk bedrijf, dominant of niet, R&D blijven doen.
Da's ook krom. Hier wordt dus innovatie tegengehouden omdat de grootste innovateur toevallig het meeste marktaandeel heeft.
het probleem is dat zodra je geen concurentie meer hebt, de innovatie heel snel ophoud. want waarom zou je nog? (kijk hoe weinig intel in cpus investeerde voordat zen uitkwam)

en in veel markten is de barrier to entry ook heel hoog, dus als de concurentie weg is kan die niet zomaar terug komen. (de kosten om een europese concurrent voor intel/google/microsoft te starten zijn astronomisch zonder garantie voor succes.)
Kijk ik heb voor redelijk wat grote bedrijven gewerkt in Belgie.
Ik werkte voor een bedrijf die behangpapier producent was, en een zusterbedrijf van een grote multinational. Deze hebben 8.5 jaar met verlies gewerkt om alle concurrentie uit te schakelen in de omringende landen, zoals Duisland Frankrijk Nederland. Als de andere bedrijven bv een rol papier verkochten voor 40€, dan gingen zij daar ruim onder met hun prijs. Met het resultaat dat alle andere bedrijven in de problemen kwamen door bijna geen winst meer orders, werknemers ontslagen enz...
Vervolgens kochten ze deze bedrijven op die in de problemen zaten, of namen de grootste aandelenpositie in. Werden ook multinational in dat product, en trokken de prijzen ferm omhoog ! Met als gevolg dat het verlies van 8.5 jaar op 1.5 jaar goedgemaakt werd, want alle concurrentie was uit de markt.
Zo zie je maar dat de bedrijven of mensen met het meeste geld, de markten makkelijk kunnen manipuleren. Geld is een véél te machtig wapen op wereldvlak, een mens moet er alles voor doen zelf dingen die we nooit willen :)
NVidia had bijvoorbeeld kunnen beginnen met het deftig ondersteunen van open standaarden zoals OpenCL. Hoewel ze in het begin mee op de OpenCL boot gesprongen zijn liepen ze op de duur steeds 3-4 jaar achter bij het implementeren van een nieuwe OpenCL versie (zie bijvoorbeeld OpenCL 1.2 en 2.0).

De reden daarvoor is duidelijk: het creëeren van een vendor lock-in met behulp van CUDA. Gevolg is dat veel software enkel op NVidia kaarten kon (en nog steeds kan) draaien: gebruikers kunnen niet eenvoudig overschakelen op andere systemen (zoals CPU's - traag uiteraard -, AMD kaarten, ...) waardoor ze terug voor NVidia moeten kiezen.

Je hoeft dus niet je bedrijfsgeheimen verborgen te houden om de concurrentie (en eigen gebruikers eigenlijk ook) tegen te werken.

AMD heeft dat in het verleden netter gedaan in mijn ogen. Destijds hebben ze een graphics API genaamd "Mantle" aangekondigd, die o.a. beter de multithreading capaciteiten van CPU's kon benutten bij het sturen van instructies. Toen Khronos aankondigde aan "OpenGL Next" te werken heeft AMD Mantle vrijgegeven en heeft Mantle gediend als de basis van OpenGL Next, hetgeen we nu kennen als Vulkan en door alle major vendors ondersteund wordt.

[Reactie gewijzigd door jerisson op 22 juli 2024 15:44]

Het duurde jaren voordat AMD OpenCL een beetje serieus begon te nemen. Er was helemaal geen vraag naar een open API in die tijd. AMD deed toen alleen maar gaming.
Daarom dat zowel AMD als Intel binnen het jaar van een nieuwe spec release een werkende implementatie hadden, terwijl je bij NVidia 4 jaar mocht wachten en dan weeral een release achterliep. Ik heb een tijd op OpenCL 1.2 vastgezeten omdat dat het hoogste was wat NVidia ondersteunde, terwijl AMD reeds 2.1 ondersteuning had.

Zaken als compute shaders, en - indien cs niet beschikbaar waren - het hacken van compute taken in fragment shaders, tonen net aan dat er wel degelijk vraag was naar open en cross-vendor oplossingen.

Veelal ben ik fan van NVidia: ontwikkelingen zoals RTX en hun bijdrages aan machine learning/AI zorgen ervoor dat er zoveel nieuwe mogelijkheden ontstaan. Maar, je kan simpelweg niet ontkennen dat ze ook smerige spelletjes spelen.
Ik had een OpenCL 2 project wat ik niet naar snellere AMD hardware kon brengen, omdat AMD de driver architectuur had omgegooid en op nieuwe hardware alleen 1.2 met een subset van 2.0 ondersteunde en het veel te lang duurde voor de nieuwe driver de functionaliteit van de oude had.

In plaats daarvan heb ik naar CUDA geport en nooit meer omgekeken.
Wel als je software makers flinke sommen geld geeft om deze cuda cores te gebruiken.

Zowel AMD als nvidia werken vaak samen met bv game developers. En tja dat kan natuurlijk doorslaan.
Machtsmisbruik is een ding, een machtspositie verworven hebben is geen vrijbrief voor alles, dus ja, een kunstmatig tekort is mogelijk verwijtbaar.
Correct - in tegenstelling tot een aantal andere reacties is dit wel een concreet verbod in Art 102 EU verdrag. Weigeren om sommige klanten te leveren terwijl je het wel kan, en wel aan andere klanten levert, is een prima facie overtreding. In theorie kun je daar alsnog een verweer tegen leveren. Als je boot gezonken is, ja, dan zullen je klanten niet in gelijke mate leveringsproblemen hebben.

Maar als je alle klanten hetzelfde behandeld? Er is dan weer geen verplichting om aan alle vraag van je kanten te voldoen. "Zo lang de voorraad strekt" is honderd procent toegestaan, en er is geen verplichte productie om die voorraad weer aan te vullen.
je moet je systeem niet openstellen voor concurenten, je moet wel toestaan dat die concurentie probeert een stuk van je markt af te snoepen. Je mag je niet anti-competitief opstellen door afspraken te maken die de concurentie tegenwerken.
Elk bedrijf stelt zich competitief op en zal van alles introduceren om zijn product het meest attractief te maken inclusief anti-cuncurrentiemaatregelen.

Wat niet mag zijn de prijsafspraken. Dat mag niet volgens economisch recht.

Het is aan de politiek om richtlijnen, handelsverdragen en wetten op te stellen die economie reguleert. Inclusief het al dan niet toestaan van een overname.

Nvidia treft idd geen schuld maar zodra ze de macht overnemen en tot een semi-monopolie neigen moet je ingrijpen. Het klinkt als het beknotten van innovatie maar het doel is net een vrije markt te bevorderen en via regels competitie toe te laten.

Het is niet aan Nvidia om AMD een bestaansrecht te gunnen. Dat doet regelgeving. Dat is dus 100% een politieke kwestie om spelregels en regulering op te leggen omdat je uw producten verkoopt in een democratische markt = het volk beslist via de politiek.

Misschien bedoelde je dat ook maar het is een andere nuance.
is dat de schuld van Nvidia, direct niet want de concurrent heeft gewoon weg niet de slagkracht die Nvidia heeft. Je kan je wel afvragen hoe dit komt.

Je systemen openstellen voor de concurrent, is misschien wel een goed idee als je standaarden wilt ontwikkelen of handhaven. Nvidia zit juist in deze situatie omdat hun Cuda en Tensor van hun is en er geen alternatief is wat kan concureren hiermee, beetje hetzelfde op moment met X86 en X64.

Laten we 1 ding wel stellen dat Nvidia anti-competief is en dit niet iets is van de laatste paar jaar. Geforce Partner Program is makkelijk voorbeeld en volgens de geruchten bestaat het nog steeds (lees china).
Als iets een de facto standaard is geworden zegt dat vooral iets over de anderen. Die hadden blijkbaar geen beter alternatief of de hele branche heeft zitten slapen waardoor er geen open standaard is. De markt bepaalt wat een de facto standaard wordt, niet een enkel bedrijf.
Mag ik je de inferieure VHS aanbieden in plaats van het superieure betamax? O-)
Je hoeft niet de beste standaard of het beste product te zijn om de markt te overheersen.
Klopt - prijs is óók een belangrijke eigenschap van een product. Net zoals beschikbaarheid. Of vertrouwen van klanten.

NVidia is duur, was slecht beschikbaar, maar scoort hoog in performance, software support en klantvertrouwen.
VHS kan meer uren aan video opnemen dan betamax. En als je een langzamere opnamesnelheid gebruikt op betamax ben je de videoqualiteit kwijt.
Of er is veel geld tegenaan gegooid om het de standaard te maken (CUDA). Of het wordt gepushed met een ander product, waardoor concurrentie moeilijker toegang heeft tot klanten (IE6) .
CUDA & DLSS. that's it. je hebt volgens mij helemaal gelijk.

Waarom koop ik Nvidia in mijn dikke game pc?

1. kwaliteit (stabiliteit)
2. DLSS.
3. er is geen 3.

Over 1 ga ik nadenken bij de juiste prijs/kwaliteit verhouding. Als AMD zoveel goedkoper is... dan ga ik het overwegen. Maar 2, daar overweeg ik niks. Dat moet de kaart gewoon doen.

het zelfde zie je in de profi-markt maar daar is 2 vervangen door Cuda.
Tekorten veroorzaken om de prijs op te drijven is net waarvoor anti-monopolie wetgeving gemaakt werd.

Het is al sinds de Romeinen dat we dat haten en hatelijk vinden: meermaals werd er gepoogd veel geld te verdienen door graan vast te houden ipv te verkopen om zo de prijs op te drijven. Vele miljoenen mensen stierven daardoor.

Waarom vindt NVIDIA dat zij dit plots wel mogen doen? Dat mogen ze niet en daar zijn al 2000 jaar oude wetten tegen.
However, Dionysius did not enjoy his success for very long, as the emperor Commodus later ordered his death
We moeten met andere woorden terug naar de Romeinse tijden gaan: De CEO van NVIDIA zou door het veroorzaken van tekorten namelijk geëxecuteerd worden. Het was ook niet de eerste keer dat de geldwolven een hongersnood veroorzaakten: tijdens bv. Augustus' afwezigheid gebeurde dit ook al.

M.a.w. weet de mensheid en de geschiedenis heel goed dat de extreem neo-liberalen er op uit zijn om iedereen te laten verhongeren en kapot te maken gewoon enkel en alleen voor hun geldgewin. Daarom vinden we dat hatelijk. En daarom zijn er wetten tegen. Op het niveau van de EU zelfs. En daarom treden we daar vrij hard tegen op. Volledig terecht.

Dat extreem neo-liberaal kapitalisme mag eens een toontje lager gaan zingen, Ze hebben al meer dan genoeg naar de kloten geholpen met hun faux-ideologie.

Die eigenlijk ook nergens op slaat. Want wat zeggen ze eigenlijk? Omdat hun ideologie van eigen bezit fundamenteel is (en kan leiden tot monopolies), mogen ze (als monopolist) tekorten (en zelfs hongersnoden) veroorzaken voor eigen winst en profijt. Toch? Dat zeggen ze he? En wat als de rest van de mensheid nu eens neen zegt? En hen opknoopt daarvoor?

[Reactie gewijzigd door Verwijderd op 22 juli 2024 15:44]

Tekorten veroorzaken om de prijs op te drijven is net waarvoor anti-monopolie wetgeving gemaakt werd.
Klopt, maar het is geen concurentiebeperkend gedrag.... en daar wordt Nvidia van beschuldigt, niet van het misbruik van een (bijna) monopolie. Sorry, maar je verhaal is dus niet zo relevant...
Er is een bepaalde capaciceit om chips te maken. Een chip-fabriek stamp je niet zomaar uit de grond en heeft een heleboel hoog-opgeleid en kundig personeel nodig, alsmede hoogwaardige grondstoffen. Daar gaat gauw 5 jaar in zitten, als het al geen 10 jaar is. Dus als NVidia overbied voor het inkopen van chip-produktie in huidige facaliteiten, dan kunnen die chip-fabrieken dus geen chips maken voor andere klanten.

En jij durft glashard te beweren dat dit niet concurrentie-belemmerend werkt? Ha, dan heb ik me toch een geweldige brug voor jou in de aanbieding.

NVidia is vooral een partij die veel winst wil maken zonder daarvoor alteveel moeite te hoeven doen (want dat kost geld). En als zij de de-facto enige speler zijn, dan is het vragen van woekerwinsten kinderspel. En dat moet dan weer door klanten zoals jij en ik weer worden opgehoest.

Of voor jou hetzelfde geldt, dat weet ik niet, maar mijn beurs word al snel genoeg leeg-getrokken door alle abonnementen voor zo'n beetje alles tegenwoordig.
Dus als NVidia overbied voor het inkopen van chip-produktie in huidige facaliteiten, dan kunnen die chip-fabrieken dus geen chips maken voor andere klanten.
NVidia is vooral een partij die veel winst wil maken
Overbieden op productie capaciteit draagt niet bij tot meer winst :P
Los van de vraag of daar sprake van is, je concurrentie toegang tot de markt ontzeggen tegen kosten kan wel degelijk winstgevend zijn. Direct als je daardoor een hogere prijs kan vragen door de enige leverancier te zijn die aan de vraag kan voldoen of later door je concurrenten uit een markt te drukken met een hoge instap drempel.
Élke eindige resource is op die manier concurrentie-gevoelig. Elke medewerker van NVidia werkt niet tegelijkertijd voor AMD. Elke euro aan lening kan niet tegelijkertijd aan Intel uitgeleend worden. Dit soort "concurrentie belemmering" is inherent en niet verboden.

Sterker nog, als NVidia en AMD wél afspraken zouden maken over de verdeling van TSMC capaciteit, dan zou dat juist een overtreding zijn. NVidia moet zelfstandig handelen, zonder rekening te houden met anderen.
Een fabrikant bepaald zelf hoeveel hij van zijn product produceert. Ze zouden in theorie hun productie per model kunnen beperken tot 100 per jaar en er dan 10 miljoen per stuk voor vragen. Het is dat er dan weinig software verkocht kan worden en daardoor dus ook niet gemaakt zou worden dat het niet zou werken bij GPUs. En de kosten zitten vooral in de ontwikkeling, als je het ontwerp dan eindelijk klaar hebt kan je er net zo goed maar zoveel mogelijk proberen te verkopen.
Het is wat anders als ze afspraken gaan maken met concurrenten over productie aantallen en prijzen. Of als ze helemaal geen concurrentie zouden hebben zouden ze ook minder vrij kunnen opereren.
En tijdens al deze hetze hebben wij heel goed laten blijken aan nVidia dat wij dat ook daadwerkelijk doen. Letterlijk 2 maanden voor het hele gebeuren had ik een 1660s verkocht. Had ik gewacht, had ik hem tweedehands voor (iirc) 450 euro kunnen verkopen ipv. 90. Ja 450, dat lees je goed.

Kan je nagaan hoeveel men overheeft voor iets dergelijks, nieuw.
Je hebt ook nog Intel die sinds kort de Enterprise GPU markt is opgekomen, ook AMD met een MI300X is een interessante speler omdat ze heel veel memory per kaart hebben, 192GB dat is veel meer dan Nvidia op dit moment.
De concurrentie komt nu wel op gang.
Grootste probleem is dat de SDK van Nvidia de facto standaard is wat overstappen voor bedrijven erg lastig maakt.
Op de high-end AI markt is er nog wel concurrentie. Na het hele mining incident zijn de prijzen omhoog gedreven en die prijzen willen ze nu graag aan vasthouden en dat gaat niet meer op de consumenten markt. Ze zijn zelfs minder videokaarten gaan maken in de hoop de prijs op te drijven (waarschijnljik reden van het onderzoek), ze konden waarschijnlijk hun orders bij TSMC verplaatsen naar AI chips die ze met dikke winsten kunnen verkopen.

De laatste videokaart series hebben wel duidelijk gemaakt dat de consument op de 2e plek komt. De 4090 is de enige die de voorsprong laat zien die mogelijk is, de rest is allemaal naar beneden afgesteld. Bedrijfskundig geef ik ze geen ongelijk, maar ik wil ook graag een nieuwe videokaart en niet voor de belachelijke prijs van een 4090.

Dan nog het geheugen van de nieuwe serie, we hebben inmiddels al telefoons gehad met 16GB geheugen maar nVidia vindt het nog steeds nodig om videokaarten met maar 8GB uit te brengen in een tijd dat het geheugen nog maar een fractie is van de prijs. AMD volgt nVidia in pricing en serie en dan houden we alleen Intel over die hard hun best doet om hun drivers op orde te krijgen.

SDK wise is nVidia idd de beste, veel software vereist Cuda voor versnelling. Inmiddels is er ook al AI die draait op WebGPU, hopelijk brengt dat ook weer iets mee concurentie.

https://webllm.mlc.ai/#chat-demo

Daar heb ik inmiddels een paar 7b modellen op een Macbook Pro M1 en een nVidia kaart kunnen draaien.
we hebben inmiddels al telefoons gehad met 16GB geheugen maar nVidia vindt het nog steeds nodig om videokaarten met maar 8GB uit te brengen
Je hebt natuurlijk geheugen en geheugen. Ik kan je garanderen dat de bandbreedte van GPU geheugen een heel stuk hoger ligt dan van het geheugen in je telefoon. Er zitten in een GPU duizenden processortjes die allemaal regelmatig met dat geheugen moeten praten dus die bandbreedte is erg belangrijk.
Ja klopt, ik programmeer er wel eens voor. Ze hebben ze ook nog sneller HBM geheugen, maar dat gaat niet meer naar de consument. AMD heeft dat nog geprobeerd met de VEGA kaart ergens in 2015 nu zit het alleen nog op datacenter kaarten "vanwege de prijs" maar daar kom je naar mij menig niet meer weg als je 1800euro vraagt voor een kaart met nog geen $100 aan geheugen.

8GB gddr6 geheugen koste $27 dollar in juli, tomshardware had er ook al een artikel over.

https://www.tomshardware.com/news/gddr6-vram-prices-plummet
Dan nog het geheugen van de nieuwe serie, we hebben inmiddels al telefoons gehad met 16GB geheugen maar nVidia vindt het nog steeds nodig om videokaarten met maar 8GB uit te brengen in een tijd dat het geheugen nog maar een fractie is van de prijs. AMD volgt nVidia in pricing en serie en dan houden we alleen Intel over die hard hun best doet om hun drivers op orde te krijgen.
Ik dacht in het verleden iets opgevangen te hebben dat Nvidia de keuze had orders te plaatsen van videogeheugen, maar dit deden ze niet omdat ze het nut niet inzagen van meer videogeheugen.
Amd zag wel nut in meer videogeheugen op een videokaart en nam de beslissing een zeer groot order af te nemen aan goede prijs. Op dit gebied maakte AMD een zeer goede beslissing, en Nvidia de verkeerde :)
Dat is volgens mij ook de reden dat AMD al geruime tijd véél meer geheugen kan plaatsen op hun videokaarten aan betaalbare prijzen !
Precies dit, de winst die je met ai haalt door GPU kan alleen met een nvidia kaart met cuda libraries. Zonder nvidia kaart moet je ontzettend veel moeite doen voor een kleine snelheids winst.

Zo lang de concurenten niet dezelfde support in pytorch of tensorflow kunnen bieden gaan alle modellen op nvidia of op heel veel cpu.
Het probleem is vooral dat de mens een gewoonte beest is en velen kijken op den duur niet verder dan hun neus

Jouwverhaal is er net zo 1tje van en in 2023 is er al heel wat verandert....

https://pytorch.org/blog/democratizing-ai-with-pytorch/

[Reactie gewijzigd door d3x op 22 juli 2024 15:44]

Dat valt dus vies tegen:
https://www.reddit.com/r/...he_current_state_of_rocm/

Ik hoop echt dat het er komt (en de dure nvidia kaarten helpen daarbij)
maar als je state of the art modellen modellen wilt gebruiken loop je juist tegen ontbrekende implementaties aan die CUDA wel inbouwt.

Het prepareren van je systeem om gebruik te maken van cudnn en cuda is de laatste jaren ook flink makkelijker gemaakt, maar met ROCm is het een drama.
er zijn verschillende universiteiten in NL die nu verder werken met de AMD ROCm als alternatief dus misschien is het ook een kwestie van info delen en bij de juiste personen terechtkomen.

ik zeg niet dat het allemaal ok zal zijn of het ideale alternatief, maar het lijkt mij vooral voor ingenomen assumpties. ook net als in x86 waren er lang libraries die intel voorkeur hadden en dus slecht werkten om amd, net als hier zit je met veel code die op CUDA staat en dan natuurlijk niet hetzelfde werkt... kwestie van code optimalisatie.

een reddit opmerking van 5 maanden geleden met wat consumer GPU zou ik nu niet stellen als een vaste waarde aan info, in hoeverre ben je dan zelf echt op de hoogte en maak je er gebruik van.

https://github.com/RadeonOpenCompute/ROCm/releases

ook is er tussen de comentaar een hint naar speciefiek je typische manier van rediit nieuws sprawl..

Hey - I work at the largest supercomputing centre in Europe, where we have over 20k MI250X AMD GPUs for large scale ML. Reading through the comments I see there’s a lot of people that don’t know what they’re talking about.

Don’t listen to the naysayers here, AMD works fine for compute, but it’s important to recognise how “high level” your ML tasks are going to be. Additionally there many be some issues which you need to patch, but the ROCm guys at PyTorch are very active so they will help you.

One of the worst-case issues you will encounter is that some people/groups provide ML libraries with custom CUDA code. In this instance you’ll need to put in a little extra work to convert those CUDA files to HIP. This is fairly easy to do (HIP provides a tool that automatically does this), but you’ll need to invest a bit of time learning it). It really depends on how deep you’re willing to dive on this point.

Ultimately it’s up to you - if you’re doing fairly high level implementations then you’ll be fine. But if you envisage yourself using lots of tools which are not maintained by the PyTorch guys, you’ll inevitably encounter issues which may be fairly easy to fix, to the worst case scenario above.

[Reactie gewijzigd door d3x op 22 juli 2024 15:44]

Je zit er duidelijk dieper in, mijn observaties zijn de laatste tijd meer vanuit de kant van het productionaliseren.

Je hebt me in ieder geval overtuigd om er weer eens beter naar te kijken.

Het blijft nog wel een nobrainer voor beginnende data scientists, want de workaround die hier genoemd worden vereisen dat je het framework en de achterliggende libraries wel kent. Vergeleken met een duurdere nvidia kaart ben je dan uiteindelijk nog goedkoper uit door de tijd die je bespaart.

Voor een grotere schaal is het zeker wel interessant als je de modellen die je voor ogen hebt aan de praat krijgt.
Dat zijn ze wel ja, voor de consumentenmarkt.

Vroeger had je veel meer producenten van GPU chips. Denk aan CirrusLogic, S3, Matrox, Ark Logic, Trident, TsengLabs, Oak Technologies, 3dfx, 3DLabs, Weitek, NumberNine etc.

Maar die zijn allemaal overgenomen, gestopt, of zijn andere dingen gaan doen.

Nvidia heeft nu een ongezond hoog marktaandeel, AMD en Intel zijn veel kleinere spelers op de GPU markt.

Imho dus terecht dat de diverse toezichthouders er scherp bovenop zitten.

[Reactie gewijzigd door wildhagen op 22 juli 2024 15:44]

als je de cijfers juist bekijkt niet, ja het is HEEL krom maar Intel heeft hoogste markaandeel op gebied van GPU, omdat Intel namelijk als sinds jaar en dag hun CPU van IGPU voorziet.

Je moet als nuance Discrete GPU vermelden dan klopt het wat je stelt namelijk wel. Dit is namelijk ook ZEER waarschijnlijk de reden dat hier niet eerder op gehandeld is door een regering want die krijgen de grafieken aangeboden waar GPU marketshare in staat. Dat Nvidia op gebied van Discrete GPU gewoon bovenaan staat zijn wel allemaal zelf schuld geweest (nou ja eigenlijk fan boys en hun invloed)
Juridisch gezien is dit niet dezelfde product groep met betrekking tot mededinging. Immers, intel concurreert met zijn igpus niet met NVIDIAs dedicated GPUs. In de productgroep dedicated GPUs is NVIDIA inderdaad zwaar dominant. Voor dominante spelers op de markt gelden aanvullende zorgvuldigheidsnormen, zoals een verbod op misbruik van een machtspositie.
tja en dan komt lobby om te hoek kijken, aanvullend heb je dan ook nog eens de onwetendheid op tech gebied binnen de politiek en krijg je een hele mooie combinatie waar cijfertjes dermate gemanipuleerd kunnen worden om een totaal ander beeld te schetsen. Dit resulteert dan weer een onderzoek wat nooit zal opstarten hierdoor.
Andere mogelijkheid is een gevalletje vergelijkbaar van Intel en AMD rechtzaak . Dit grapje heeft AMD meer dan 10-15 jaar achterstand opgeleverd.

Word Nvidia op dit moment gezien als dominante speler binnen de markt?
NVIDIA zal er inderdaad alles aan doen om aan te tonen dat ze horen tot een bredere productgroep. Op die manier kunnen ze hun “marktaandeel” verkleinen waardoor er niet langer sprake is van een machtspositie. Dit soort analyses zijn vrij complex. Zo is Europa ook al een tijd bezig om aan te tonen dat de Apple Store een machtspositie heeft binnen zijn eigen ecosysteem. Recent is die beschuldiging uitgebreid met Apple Pay. De onderzoeken zijn berucht technisch ingewikkeld.
daar zal Apple zelf schuld aan hebben, hun kennende.

Maar als je de cijfers bekijkt en welke ook gepresenteerd worden zie je gewoon duidelijk dat Intel boven aan staat met 60-70% marketshare in 2022 en dat AMD en Nvidia beide 15-20% pakken, hier valt dan totaal niet in op dat Nvidia van discrete GPU 70+% in handen heeft.
Discrete GPU is nou eenmaal een kleine markt ten opzichte van de totale markt.
Nvidia heeft vrijwel een monopolie op het gebied van Machine Learning en AI toepassingen. Gezien de steeds groter wordende vraag gaat dit wel een probleem zijn ja.
dat komt voornamelijk door Cuda en Tensor als ik het goed heb? Daarnaast is Nvidia hier al jaren geleden op ingesprongen en andere bedrijven beginnen hier nu pas mee. Veel succes AMD en Intel om die voorsprong bij te benen, zullen we hierna hebben over software optimalisatie voor Cuda en Tensor?

Mijn vriendin doet hier veel mee met haar werk en heeft sinds jaar en dag Nvidia en kan hier niet van afwijken puur omdat de software het niet toelaat, CPU zijn ze veelal overgestapt op Threadripper en nu Epyc maar GPU zit er voorlopig niet in.
Er zijn veel meer partijen die GPU's maken, maar je bedoeld waarschijnlijk voor Intel/AMD gebaseerde PC's?
Welke dan? Want we hebben het hier natuurlijk over de chips die in je Asus/MSI/gigabyte kaart gaan. Want die bouwen de chips niet zelf.
GPU worden ook ontworpen door ARM, Qualcom en Apple. Niet perse te vergelijken met de kracht van een rtx4090 maar wel gpu's met een flink marktaandeel.
Klopt... ik las zijn reactie verkeerd.
Ik ben heel eerlijk, laatste PC die ik zelf gebouwd heb was een Intel Q6600 met een Nvidia grafische kaart. Ik probeer zeker met hulp van Tweakers met de laatste technieken bij te blijven, alleen lees je met betrekking tot PC alleen intel en AMD kwa processor.
Matrox LUMA series en de M-Series.
Op de cloud GPU markt lijkt er zelfs überhaupt geen concurrentie:
https://docs.aws.amazon.com/dlami/latest/devguide/gpu.html
https://cloud.google.com/gpu

Alle instances incl. de ARM systemen hebben alleen NVIDIA GPU's bij AWS en Google.

Bij Azure is er iets meer keuze:
https://learn.microsoft.c...irtual-machines/sizes-gpu (1x AMD voor rdp only, 1 AMD in preview voor gaming, 6x NVIDIA voor alles; gaming, ML etc).

Dus eigenlijk is er nul concurrentie voor NVIDIA in cloud in de EU. Dat er RDP met AMD GPU zijn om een desktop door te geven liggen ze echt niet wakker van.
ARM (mali). Apple. Imagination Technologies (PowerVR).
Maar je hebt gelijk. In de doelgroepen gaming en workstation is het practisch een duopolie van nVidia en AMD, en in workstation is zelfs dat al wankel. Des te meer reden om het laatse beetje concurrentie dat we nog hebben te gaan beschermen.
Ik kan uit het artikel niet zo snel opmaken WAT nVidia precies doet wat concurrentie belemmerend zou werken…

[Reactie gewijzigd door vanaalten op 22 juli 2024 15:44]

My guess: productie tekorten expres laten oplopen, om prijzen de lucht in te krijgen, om vervolgens een nieuw product hoger geprijsd in de markt te zetten om winst te maximaliseren. Nieuw product is een nieuwe markt geworden waar de prijzen nu torenhoog liggen en concurrentie moeilijk kan meedoen ivm de (te) hoge prijzen. Daarmee de markt toe eigenen voordat er daadwerkelijke concurrentie is.
Maar hoge prijzen zijn voor de concurrent toch juist voordelig? Dan gaan zij iets onder die prijzen zitten en hebben ze ook dikke winst. First-to-market zijn is geen concurrentiebelemmering.

Kan me ook niet bedenken wat ze gedaan moeten hebben. Zal wel niks openbaars zijn.

[Reactie gewijzigd door Wolfos op 22 juli 2024 15:44]

NV bied ook meer. Alleen niet elke gamer heeft dat nodig dus is AMD optie.
Maar als puur gamed geen RT gebruik ook geen DLLS geen ML, maar perse nV moet hebben en prijzen gortig vind. Na ja nv heeft resources gespendeerd aan die features dus daar betaal je voor. Dat is de status van g-kaarten markt. AMD is iets goedkoper maar mist veel van die features en dat maakt hun ook duurder.
Dus wat heb je ervoor over.
Het is algemeen bekend dat er een groot tekort is aan CoWoS packaging. Nvidia kan daarom ook niet meer leveren dan ze momenteel doen. TSMC, Samsung en kleinere aanbieders zijn als een gek nu hun CoWos aanbod voor volgend jaar aan het ophogen. Tot die tijd zal er een enorme schaarste heersen.

Als je nu een DGX server met A100/H100 GPUs besteld kan je wachten tot ergens in Q4 2024.

Vraag me ook af of de EU hier wat tegen kan doen. Er is een enorme vraag naar NVIDIA GPUs door de opkomst van LLMs, terwijl er tegelijkertijd schaarste is door gebrek aan productiecapaciteit. Prijzen schieten logischerwijs dan ook door het dak.

Daarnaast bestaan er ook nog voldoende concurrerende producten zoals Intel Gaudi, AMD MI200/300, Ceberus Wafer Scale en SambaNova.
Maarja, dat is niet verboden, als bedrijf mag je doen met je productiecapaciteit wat je wilt. En zoals ik begrijp is het sowieso een behoorlijke wachtrij bij de chipbakkers, daar heeft nvidia geen invloed op.
Kijk naar Samsung en andere bedrijven die hun productie terugdraaien om de prijs weer wat op te voeren. Kijk naar de grootste kartel van olie-producerende bedrijven die minder oppompen om de prijs omhoog te drijven.
Nieuwe producten op de markt brengen en de concurrent die dan niet bij kan houden, kan nooit een reden zijn voor een onderzoek, dat is namelijk gewoon hoe de vrije markt werkt, anders is er sowieso geen sprake van vrije markt.
Blijkbaar zijn daar ook grenzen aan. Wat men niet wilt is monopool positie. Dat zal daar mee te maken hebben. Ook dat nV monopool positie bereiken is in AI en dat de klant dan gevangen wordt in hun ecosystem. Dat ecosysteem in de pro markten is zeer ver uitgebreid en gekoppeld tussen verschillende branches. Van design productie logistisc en AI alles gekoppeld. In de AI wil men niet achterblijven ivm achterstand en is men bereid zeer veel voor de hardware te betalen. Waarmee de al insane hoge pro prijzen nog extremer worden 10.000 naar veelvoud daarvan voor pro kaart.
Vraag mij ook af of het enigzins met gamen te maken heeft. Daar speelt dit ook licht mee als software frameworks feature sdk die ook gekoppeld zijn.
even he... heel even... als Nvidia torenhoge prijzen inzet, ben je toch gek als je daar intrapt? Dan ga je juist naar de concurrent omdat die veel goedkoper is, lijkt mij. Daarom heb ik na jaaaren Nvidia nu een AMD.
Veel goedkoper en op sommige vlakken veel beter.. helaas moet ik echte RT missen, maar dat mij niet zo veel uit. Laat je portemonnee spreken. Het gros dat wel die hoge prijzen kan en wil betalen, soi!
Als ze de enige zijn die producten beschikbaar hebben, zal een bedrijf dat iets met AI wilt doen toch wel moeten? :)
Nv wil niet onder de MSRP verkopen en gezonde marge houden. Gezonde marge is in heden met energie en inflatie wereldwijd stuk hoger geworden. Naast dat hogere prijs tov de concurrentie ivm de vele extra features en features die tier hoger werken ook met dedicated hardware is hogere prijs terecht. Ook de software stack en grotere driver team daar betaal je ook voor want dat zijn ook kosten.
+ extra features
+ betere features
+ feature die leunen op extra hardware on die
+ larger software team
+ larger driver team
+ larger die monolithic lower yields

AMD
+ multimon
+ sommige non game app kan AMD toch beter zijn dus toepassing review blijven belangrijk.

Als die productie features belangrijk zijn en AMD dat niet bied dan kan 50 tot 200 meerprijs het waard zijn. Als puur gamed native geen ruk geeft om RT kan 50 meerprijs al teveel zijn.

Voor mij is multimon belangrijk.
Wat ook belangrijk is dat games soms extreem slecht en goed op merk kunnen genereren dus veld is verspreid over -20 tot +30%.
Als performance belangrijk is en veel verschillende games speelt is NV en Radeon gamerig het ultieme. Gezien AMD geen high-end bied RDNA3 en 4 is 4090 bak voldoende ook voor AMD titels.
Naast dat voor sommige productie task een Mac beter is . Dat hangt ook sterk af welke pro software en soort pro software je gebruikt.
even he... heel even... als Nvidia torenhoge prijzen inzet, ben je toch gek als je daar intrapt? Dan ga je juist naar de concurrent omdat die veel goedkoper is, lijkt mij. Daarom heb ik na jaaaren Nvidia nu een AMD.
Veel goedkoper en op sommige vlakken veel beter.. helaas moet ik echte RT missen, maar dat mij niet zo veel uit. Laat je portemonnee spreken. Het gros dat wel die hoge prijzen kan en wil betalen, soi!
100% mee eens !
Nvidia vraagt gewoon absurde prijzen voor hun high end kaarten, omdat mensen tijdens de pandemie zelfs kaarten opkochten van scalpers aan nog veel hogere prijzen. Dan geef je als consument een signaal van, vraag wat je wil ik koop het toch. Maar daar zijn alle andere mensen met een mindere portemonee de dupe van, en word het onbetaalbaar. Amd vraagt dan ook hogere prijzen enz..
Ieder bedrijf probeert met zo min mogelijk middelen zoveel mogelijk te verdienen. Dat is ook niet verboden.
Maar dat zeg ik dan ook niet. ;)
Monopool positie proberen ze wel te mijden. Als de playfield shrinkt naar 2 en 2de kan het niet aan dan komen er maatregelen omdat als je naar 1 gaat dan is bijna onmogelijk om daar weer in te komen. Kijk maar hoe moeizaam intel erin komt. Ondanks igpu software stack. INtel had er al mee te maken sinds Cyrix weg viel en AMD overbleef moest x86 licentie met AMD delen.
ze hebben er ook meer dan 20 jaar aan gewerkt om zover te komen. De GPU markt (CPU markt idem) is nou ook niet echt makkelijk om in te komen. Een GPU ontwikkelen is op dit moment gewoon bijna onmogelijk voor een bedrijf buiten Nvidia, AMD of Intel (matrox doet nog wel wat maar niet op de consumenten markt). We hebben de tijden gezien waar er nog meer spelers op de markt waren maar bijna allemaal verdwenen in begin 2000 door de dominantie van Nvidia en ATI. We hebben gezien hoeveel moeite het kost om in de GPU markt te komen bij Intel de laatste jaren en hoeveel dat hun gekost heeft.

Nvidia heeft daarnaast genoeg op hun kerfstok staan qua concurrentie tegen te gaan binnen de industrie (AMD en Intel idem daar niet van). Games die optimised zijn voor Nvidia (sponsored titles), benchmarks die gemanipuleerd werden, G-sync tax, GPU allocation.
EVGA is niet zonder reden gestopt met GPU verkoop. Apple en Nvidia strijd is ook niet zonder reden. Geforce Partner Program is ook nog een mooi voorbeeld, recent weer in China aan licht gekomen dat ze het toch weer proberen.
Ze hebben 20 jaar de concurrentie gedwarsboomd
Wat ze wel goed gedaan hebben en vrijspel in gekregen hebben is de nadruk op software stack en actief lobbyen voor hun API en zich bij dev op te dringen.
Die Cuda de markt in te drukken en software stack daaromheen bouwen.
Is de concurrentie te laat op ingesprongen. Die voorsprong is niet meer in te halen en heeft nV in pro markten nagenoeg een monopool positie gekregen.
Doel van intel gpu devisie is ook om in deze branch uit te vallen. Want Xeon vs nV pro gpgpu . Maar ja de software stack en die ecosysteem staat heel sterk.

Het is niet zozeer de hardware en software maar de marketing. Elk api hardware en software ding kreeg een naampje dat zwaar gemarket werd en tot mytische hoogte. Lijk wel of consument en idioten zijn die soort van magic aan kreet infinityfx gaven. Gewoon naam voor hun hardware architectuur ATI had ook naam gaf men geen reet om ondanks nv30 faal . NV kreeg naam en toen werd het stuk makkelijker. Men ging blind voor nV net als intel inside.

Wat men ook vergeet is dat AMD ATI overname en ten gronde gaande cpu tak ATI afdeling mee trok in de afgrond wat nV vrijspel gaf. Dan wordt excecutie van plannen stuk makkelijker als AMD radeon al niet TSMC allocatie kan financieren laat staan dure bigchips. Ze waren toen eigenlijk al in monopool positie. Hier heeft AMD nog steeds last van het downsizen en upsizen. Je hebt dan te maken met verloren resources
Ik denk dat het enige dat ze hen kunnen aanwrijven de optimalisatie van games is, enkel voor nVidia. Misschien dat daar wel wat geld tussen nVidia en spelmakers vloeit die concurrentie nadelig beïnvloedt.
Gesloten softwaresystemen ontwikkelen (cuda, dlss, rtx) die door het grote marktaandeel snel ondersteund moeten worden door software. En vervolgens kunnen gebruikers niet meer naar de concurrenten.
De concurrenten (intel, AMD) ontwikkelen natuurlijk hun eigen systemen, soms open, soms gesloten, maar door een beperkt marktaandeel (in workstation en/of gaming) worden deze maar beperkt ondersteund. Gebruikers moeten daarom bij nvidia blijven.
Met andere woorden, nvidia gebruikt zijn marktaandeel om concurrenten moeilijk te maken en keuzevrijheid bij de consument te beperken.
En dit is een beetje een grijs gebied. Natuurlijk mag nvidia gesloten systemen ontwikkelen, en extra's bieden om klanten te binden. Echter, wanneer deze systemen zo essentieel worden dat men eigenlijk niet zonder kan, en alternatieven geen kans krijgen door het marktoverwicht, kan het zijn dat het nodig wordt geacht dat er ingegrepen moet worden ter bevordering van een gezonde markt. Ik denk dat dit zou kunnen gelden voor cuda.
Was het al niet opgedoken uit verschillende reviewers dat Nvidia 300% markup deed op die AI chips/GPUs? Van mij mag het dat onderzoek. Al die domme prijzen op die kaarten, kan de consument ook even rustig adem halen als er goed concurrentie is.
Mooie video hierover van JayzTwoCents over de huidige prijzen in de markt:
https://www.youtube.com/watch?v=SA5YwIIQlAc
Maar in een vrije markt is men toch vrij om de prijs te bepalen? Als concurenten geen competitief product op de markt kunnen zetten en Nvidia valt niets te verwijten op het belemmeren van die concurrentie, wat is dan het probleem?
Dat jij als klant de NVidia woekerprijzen niet meer op kan hoesten?
Ik kan mezelf ook geen Rolex veroorloven, is dat de schuld van Rolex?
Ik kan mezelf ook geen Rolls Royce veroorloven, is dat de schuld van Rolls Royce?
Ik zal nooit een AmEx Centurion Black Card ontvangen, is dat de schuld van Amex?

Nvidia heeft een product waarop de concurentie geen antwoord heeft, dan kan Nvidia de prijs helemaal alleen bepalen en instellen op een punt waarvan het vindt dat het een optimale balans geeft tussen verkoopsaantallen en winstmarge.

Het enige wat belangrijk is in deze is dat Nvidia toestaat dat de concurentie een kans krijgt. Zij mogen geen afspraken maken met bedrijven om enkel hun producten te gebruiken of te verdelen of daar extra voordelen aan vasthangen.
Daar is wel een grijs gebied.
nvidia hun Partner program destijds bepaalde allocatie van chips naar hun AIB, geruchten molen gaat dat het in een vergelijkbare vorm gehandhaafd word maar ze proberen het nu in China.
Daaropvolgend is hun sponsorship aan bedrijven waar ze betalen voor optimalisatie voor hun hardware.
Dan nog software welke heel goed draait op Nvidia maar slecht tot totaal niet op AMD of Intel.

In elk van de bovengenoemde krijgt de concurrentie één kans maar staat die per definitie al 3-0 achter. Stel nvidia hun product is 10% sneller dan de concurrentie maar wel drie dubbel de prijs (stel 4500 tegenover 1500) (verbruik hetzelfde). Die 10% meer productiviteit resulteert in grotere kostenbesparing op jaarbasis. Zolang de ROI bestaat in welke grootte dan zullen de meeste mensen hun keuze duidelijk zijn, crypto mining is een goed voorbeeld.

Wat jij in eerste instantie beschrijft betreft luxe artikelen terwijl nvidia veelal voor productie gebruikt word. De concurrentie heeft wel een product maar dat is minderwaardig in professionele doeleinden waar dit onderwerp over gaat. Een consument denkt aan zijn beurs terwijl een bedrijf denkt aan ROI.

[Reactie gewijzigd door Richo999 op 22 juli 2024 15:44]

De EU markt is, om uitwassen te voorkomen, dan ook geen volledig vrije markt. Er is wetgeving met beperkende maatregelen voor monopolisten en bijna monopolisten. Er is wetgeving tegen kartel vorming etc...

Zelfs de VS heeft geen volledig vrije markt, al staat men daar veeel extremere situaties toe en kan ik mij niet aan de indruk onttrekken dat de lobby miljarden die wetgeving doorgaans vrij effectief torpederen.
Ja, dat is allemaal leuk en wel als er niet een grote maatschappelijke afhankelijkheid is.
En sowiso bestaan er geen vrije markten. Vrije marten zijn een theoretisch begrip en kunnen helemaal niet normaal functioneren omdat ze allemaal uiteindelijk in monopolies veranderen.
Vrije markten zijn dus helemaal geen stabiele entiteiten. Ja, mischien heel soms in heel uitzonderlijke gevallen. Maar voor de rest is er altijd wel regulering nodig om de slechte kanten van vrije markten tegen te houden.
Er is ook iets zoals een vrije markt belemmeren door overschot aan geld te hebben en alle concurrentie op te kopen of uit te schakelen. Als geld geen probleem is, dan heb je de macht om iedereen uit te kopen of om te kopen. Brainwashen met overvloedige reclame zijn er ook een voorbeeld van. Youtubers influencers betalen om enkel jouw product aan te prijzen enz...
Allemaal vormen om concurrenten het ongelooflijk moeilijk te maken, en er zijn nog tal van redenen !
Als je product zo uniek is dat je blijkbaar 300% markup kunt hanteren dan mag het van mij hoor. Het is niet nvidia's schuld dat de concurrentie geen alternatieven heeft.
Ik weet niet of dat product zo vreselijk uniek is. Schaal speelt ook nog een enorme rol als het gaat om dit soort rekencentrahardware.
Al jij voor je rekenwerk honderden of duizenden van die GPUs nodig hebt dan kan een paar procent performance per watt al de beslissende factor zijn, maar dat is niet heel erg uniek ofzo.
Het is een moeilijk onderwerp voor de politiek, hun onwetendheid en de sterke lobby maakt het nog complexer dan het al is.

Daarnaast moeten we ons realiseren dat de boetes die gegeven worden de bedrijven ook niet afdoende afschrikt om het te laten. Ze calculeren dit soort uitgaves gewoon in en wat minder is is extra winst. De vraag is het alternatief voor een passende straf, het is ook lekker makkelijk roepen om hier de CEO voor verantwoordelijk te stellen (hij is het uiteindelijk wel en ben persoonlijk voorstander van daadwerkelijke vervolging en gevangenis straf).

Hoe ga je Nvidia in dit geval afschrikken, praktisch gezien onmogelijk tenzij je ze de totale winst van een jaar als boete op legt (dit moet uiteraard in samenspraak met de VS gebeuren). hierbij pak je afgelopen kalender jaar winst en die trek je van de winst van het komende jaar af, binnen 12 maanden betalen en hun kredietwaardigheid verslechteren voor minimaal 12-24 maanden. Dit zou meteen een effect hebben op de markt gezien ze slecht tot niet kunnen investeren en hun concurrentie wat adem lucht krijgen (en de aandeelhouders hebben hier ook natuurlijk hun mening over)

[Reactie gewijzigd door Richo999 op 22 juli 2024 15:44]

Werk zelf in een politiek klimaat en onwetendheid zou geen issue moeten zijn. Nvidia moet bij dergelijke inquiries aantonen wat de kosten zijn en waar de kosten in zitten. Een bureau van de EU (of welk overheidsorgaan dan ook) doet aan de hand van die gegevens zelf een onderzoek en daaruit komt dan een rapportage waar de antitrust organisatie een oordeel over mag scheppen. Bij een goed onderzoek worden ook de grondstoffen, productie, ontwikkelingskosten en marktaandeel onderzocht waaruit moet blijken of Nvidia wel of niet "integer" werkt en niet concurrentie verstorend.

Je hebt wel een punt met de straf, dat is altijd lastig te bepalen omdat een theoretisch model is waar Nvidia invloed op zou kunnen hebben of hebben gehad.
Het feit dat de EU onderzoek doet is ansich al een goede stap gelukkig.
Er hoeft niets in samenspraak met de VS te gebeuren. De EU kan boetes opleggen obv wereldwijde omzet en als de VS niet mee doet kan nVidia zich terugtrekken uit de EU markt, maar dat is veel duurder dan gewoon aan de EU regels voldoen.
Ai ai ai... Daar gaat het aandeel. ;)

[Reactie gewijzigd door bouvrie op 22 juli 2024 15:44]

Dat aandeel gaat hard omhoog sinds begin dit jaar, zelf na het nieuws van de inval ging het aandeel omhoog:
https://www.iex.nl/Nieuws...in-mededingingszaken.aspx
Komt waarschijnlijk omdat aandeelhouders nu gezien hebben dat de boete die Intel heeft gekregen voor hen gedrag minimaal is en het meer dan waard is.
Ja dat is vaak gewoon onderdeel van de te verwachte uitgaven. Het is echt geen verrassing dat er een paar waakhonden achter ze aan komen, maar het levert miljarden op dus waarom zou je het niet doen?
Niet alleen het bedrag was een lachertje, ook nog na zoveel jaar.
Soms stel ik me ook vragen bij de boetes die opgelegd worden en de bedragen.
Je geeft een bedrijf 250 miljoen boete, terwijl het voor miljarden winst gemaakt heeft.
Wat kan het bedrijf dat schelen, deze betalen de boetes met een brede glimlach.
Zoals de boetes die opgelegd worden aan sociale media platformen zoals facebook destijds :)
Beetje zoals een misdadiger die zijn straf afkoopt en er miljoenen mee verdiende, terwijl de winkeldief die steelt omdat hij honger of dorst heeft de bak invliegt omdat hij geen geld heeft.
Awel daar zetten ze hard op in op die ai ai ai :D
Mag ik vragen waarom dat je eerste gedachte is?
Deels een knipoog, deels miss een boete volgend?
De een zijn boete de ander zijn instap kans. 🥳😂
Knipoog? Verkeerde emoticon gebruikt. Maar desondanks zag ik daar de humor wel van in.
Ik vind onderzoek naar Nvidia wel een must nu, gezien hun prijzen.
Hoeveel hun AI kaarten kosten weet ik zo niet, maar hun gaming gpu's zijn al te gek voor woorden.
Instap kaart durven ze 300 voor te vragen. Vroeger had je nog kaarten van 100. En een kaart waar je prima op kon gamen ( gtx1050 ) koste toen 150.
Amd is ook geen brave meer, aangezien ze Nvidia gewoon volgen in prijs. Intel is ook niet goedkoop, als je kijkt dat ze 300+ op launch durven te vragen voor hun goedkoopste Arc gpu.
Hoe de prijzen nu van de ouwe gen zijn zijn nu prima. Toen ze nieuw waren, waren ze allemaal te duur.
Dus je pleit er eigenlijk voor dat de EU gaat bepalen wat een product mag kosten? Ik denk dat we de reacties wel kunnen voorspellen als ze dat echt gaan doen.
Het gaat erom dat ze monopolie positie hebben en die misbruikt.
Karen terug was hun winstmarge al 70%, das veelste hoog.
Nu zal het nog hoger zijn door AI gpu's te verkopen. Maar ik zit niet in die tak.
Dus je pleit er eigenlijk voor dat de EU gaat bepalen wat een product mag kosten? Ik denk dat we de reacties wel kunnen voorspellen als ze dat echt gaan doen.
Eigenlijk zouden alle andere hardware fabriekanten hier moeten tegen optreden !
En zeggen Nvidia je zorgt er voor dat de pc markt instort, door de hoge prijs verkopen we ook bijna niks meer.
De prijzen zijn zo hoog omdat mensen het ervoor over hebben. Simpelere marktwerking kan ik niet bedenken. Ook willen ze de psychologische waarde van kaarten verhogen. Daarmee bedoel ik dat we het uiteindelijk normaal moeten gaan vinden dat kaarten €1000 kosten.

Waarom moet een overheid zich hiermee bemoeien?

[Reactie gewijzigd door Filthypagan op 22 juli 2024 15:44]

AMD heeft gemerkt (Intel net zo hard), dat de concurrentie afsnijden op basis van prijs gewoon weg niet werkt (kijk maar naar de laatste 10-13 jaar). AMD heeft (en op moment ook Intel) zet producten op de markt die prijs/ kwaliteit gewoon goed zijn en beter dan Nvidia, toch blijft men Nvidia kopen.
Amd tot rx5700xt, eigenlijk de rx6800xt waren goed.
De rx480 en 580 waren pas zoet geprijsd.
Toen hadden ze maar 30% winst. Nu zit Amd ook al op 50%.

Deze generatie is puur dat de low ends niks mee opgeschoten zijn. RX7600 is 5%sneller dan de rx6650xt. Helaas kan ik met deze kaarten niks alles op ultra zetten op 1440p.
Dan maar terug naar 1080p.
Ga mijne 1440 monitor verkopen en een 1080 halen.
Dus als je het goed doet sta je in de belangstelling vanwege concurrentiebelemmering.
Ja? Vind je dat vreemd?
Lijkt me niet meer dan logisch dat we zulke grote machtige bedrijven in de gaten houden... Dat wil nog niet zeggen dat ze bestraft gaan worden, daarvoor moeten ze ook werkelijk iets vinden.
Goed doet? ze doen wat goed?
wij { consument } worden vanaf de 2 serie al in de boot genomen met deze achterlijke prijzen!

Dat een bedrijf winst moet maken.....snap ik maar klanten goed willig oplichten?
Zij maken meer dan 60% winst
Dit gaat nergens over.
Inflatie? hahaha

Ik heb zelf ook een Nvidia kaart....wel een oude { 1070 ti } doet het nog steeds goed voor 1080p.
Misschien moet je even opzoeken wat oplichten precies is. Value based pricing is dat in ieder geval niet. Jouw werkgever wil toch ook zoveel mogelijk kunnen vragen voor wat jullie doen? Dat de meesten die hoge percentages niet halen betekent alleen maar dat het product of dienst niet uniek genoeg is.
Dat de meesten die hoge percentages niet halen betekent alleen maar dat het product of dienst niet uniek genoeg is.
Dat klinkt als een veel te naive kijk op de economie.
Jouw uitspraak werkt alleen onder heel speciale marktomstandigheden. Veel vaker hebben hoge winsten meer te maken met uitgaven aan marketing en het actief wegdrukken van concurentie en hebben vaak dus helemaal niks te maken met de kwaliteit van het product zelf.
Ze maken bijvoorbeeld goede GPU's dat is alvast 1 van de dingen wat Nvidia goed doet.
niet alles haha...die 4060 is om te janken maar goed
Het is maar net hoe je er naar kijkt en waar mee je de RTX 4060 vergelijkt. Tegenover de RTX 3060 is het een goede GPU met 60W minder verbruik en 20% sneller op 1080p.
dat is de mid range. Vind je argument dat de 4060 sneller is en minder verbruikt ook raar. de RTX 3060 en RTX 4060 zitten in dezelfde groep als zijnde mid range kaart in de Nvidia XX106 categorie. verschil is de generatie van het product, dat de nieuwe generatie BETER is mag ik toch hopen voor dezelfde prijs (niet altijd het geval ff niet vergeten)
de 1080 kostte $599 op release, de 4080 kostte $1199 op launch. Die size verschil is 20% dus daar zitten de kosten niet Yields voor de 4000 serie is van 50% naar 75% gegaan en de 16 nm had toendertijd ook goede yields (kan helaas geen cijfers vinden hierover). Dus zeg het maar, waarin zit het prijsverschil?
Geen flauw idee maar als jij zegt dat Nvidia een 4080 voor $599 kan maken/verkopen dan zou je als AMD toch gek zijn om ook zoveel te vragen voor je GPU's.

En je weet 100% zeker dat grondstoffen niet duurder zijn geworden? Stroom niet omhoog is gegaan? Personeels kosten niet duurder zijn geworden? De apparatuur die je nodig hebt voor het maken van GPU's? Het expres duurder maken/houden van je producten zorgt JUIST voor dat de concurrent een voorsprong kan krijgen. Maar ergens is het voor AMD lastig om in de buurt te komen van een RTX 4090.

[Reactie gewijzigd door loki504 op 22 juli 2024 15:44]

Andere poster geloof criticalhits_nl liet toch link zien daar over.
Kijk zelf en oordeel zelf
Ik heb een deel gekeken. En deel die mening niet volledig.(net zoals zoveel video's van hem).
Waarom heb je inzicht nodig in de productie kosten als je weet dat bedrijven zoals Nvidia tientallen miljarden winst per jaar maken? Beduidend meer winst jaar op jaar toevallig wanneer de prijzen van producten generatie omhoog gaan? En dan hebben we het nog niet over de miljarden stock buy backs.

Het mag duidelijk zijn dat dit soort bedrijven het ongekend goed doen en als consument (en bedrijf) betalen wij ervoor. Bedrijven die door anti competief gedrag een triljard waard zijn geworden.

Zelfs de EU kijkt hier wat aan de hand is, dat is een indicatie dat iets toch niet goed is. Bedrijven die zo groot zijn is niet in het voordeel van ons. Het geeft hogere prijzen, minder competief, slechtere regelgeving, minder werkgelegenheid, lagere lonen en zo kunnen we nog wel even door gaan.
En het was ook het jaar mining booming was en dat AI extreem in trek was. Dus of dat door de prijzen van de kaarten komt geen flauw idee.

AH heeft ook flink winst gemaakt. Maar niet met de Nederlandse winkels maar voornamelijk in de VS.

[Reactie gewijzigd door loki504 op 22 juli 2024 15:44]

Dat klopt niet wat je typt..zuinig ok maar sneller dan de 3060 ..klopt niet.
Op youtube zijn er genoeg voorbeelden van dat de 3060 sneller of gelijk is aan de 4060.
Dus nul vooruitgang :)
In de meeste reviews is de RTX 4060 dus wel sneller dan de RTX 3060. Bij TPU is de gaming x trio rond de 30% sneller op 1080p.
https://www.techpowerup.c...-ti-gaming-x-trio/32.html

En bij Tweakers is de RTX 4060 FE 17% sneller dan de RTX 3060.
review: Nvidia GeForce RTX 4060 - De kleinste chip voor de grootste doelgroep

Dus tussen de 17% en 32% vooruitgang.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 15:44]

Vind prima.
Er is Zat op youtube filmpjes te zien dat de 3060 in games op 1080/1440 de 4060 verslaat.
Ik koop die dure kreupele kaart niet met 128bus.
Als jij dat een opvolger vind...mijn zege heb je
Bus breedte zegt niet alles. Architectuur, ontwerp en functies, geheugen snelheid etc de te meer. De 4060 is absoluut beter dan de 3060.
Het enige wat er niet goed aan is is de prijs.
Ik begrijp niet helemaal waar je het over hebt, maar volgens mij is het geIuI.
Wat bedoel je precies met 'softwarematig afgebakend' en wat bedoel je met het voorrecht van Steam? :?
En je weet hoop ik dat Steam gewoon een programma is en geen bedrijf?
Met softwarematig afgebakend bedoel ik dat de effectieve aansturing van 3d-graphics hardware wordt voorbehouuden voor game-producenten en aanverwanten.
Onzin. Jij kunt vandaag nog beginnen met GPUs leren programmeren.
Dit is hoe het werkt sinds videokaarten een (proprietary) driver nodig hebben.
Onzin omdat vrijwel alle graphics al zo'n 20 jaar via een voor programmeurs opengestelde API verloopt, zoals Cuda, OpenCL, DirectX, OpenGL, Vulcan of Metal. Je hebt als graphicsprogrammeur amper iets te maken met de drivers van de fabrikant en dat is maar goed ook omdat je anders voor elke GPU op de markt eigen drivers of aanpassingen eraan zou moeten ontwikkelen. De situatie jij hier fantaseerd zou geen enkele gamedeveloper willen. Zo werkte het mischien tot aan halverwege de jaren 90, maar toen begon de situatie al dusdanig complex te worden dat er juist vanuit de gamedevelopment hoek om standaardisatie werdt gevraagd.
Ook de reden dat 3d-gaming altijd Windows-only geweest is.
Onzin. De reden waarom er veel games voor windows uitkomen is omdat het een hele grote markt is waar men prettig op kan ontwikkelen. De makers van games gaan meestal voor de makkelijkste en grootste platformen. Daarom valt (native) linux en mac vaak buiten de boot.
En er is volgens mij geen modern platform waar gamedevelopers nog overwegen om eigen drivers te ontwikkelen voor een bepaalde GPU. Het loont gewoon aan alle kanten niet. Games worden al 20+ jaar voornamelijk via API's geschreven.
Het is niet dat de hardware gewoon de complex is.
Onzin. Ik wil je dan toch echt aanraden om een technisch document van een willekeurige moderne GPU te lezen. Die dingen zijn echt heel gecompliceerd (mogelijk zelfs, maar dat is mijn inschatting, de meest complexe processors die de mensheid heeft geproduceerd) en er zijn op deze wereld weinig mensen die bijvoorbeeld in staat zijn daar drivers voor te schrijven.
De consument wordt er actief vandaan gehouden.
'De consument' heeft helemaal geen behoefte om eigen drivers te schrijven of die hardware direct aan te sturen. Voor 'de consument' is het werkelijk een godszegen dat er APIs bestaan anders hadden we die hele ontwikkeling in games van de afgelopen 25 jaar nooit gehad en waren er mischien wereldwijd 5 bedrijven die genoeg technische kennis in huis hadden om games te maken.
Nogmaals, jij kunt vandaag nog beginnen met vette spellen maken, Daar hoef je niet duizenden pagina's aan technische documentatie die bij een enkele GPU-chip hoort voor te kennen.
Punt is min of meer dat er naast die API gewoon een library zou kunnen zijn met de complete (PCIe?) aansturing, behalve als de hardware-fabrikant zich ervan bewust is dat het de game-markt pijn doet als je die informatie openbaar beschikbaar maakt.
Zoals ik al zei haalt geen enkele gamesdeveloper het in zn hoofd om die hardware direct aan te sturen. Vroeger gebeurde dat nog wel met consoles omdat die binnen 1 generatie allemaal precies dezelfde hardware hadden. En daarvoor ook op de PC toen alles nog CGA was. Maar tegenwoordig (nou ja, al zo'n 25 jaar) op de PC heb je honderden GPU's die allemaal moeten werken met jouw game. En de toekomstige GPU's moeten ook werken. Dat kan je niet allemaal afvangen. Daarnaast, zoals ik al zei, heeft een enkele moderne GPU chip al een technische handleiding van duizenden pagina's. Dat moet je dan als developer allemaal begrijpen en daar code voor gaan schrijven. En dat voor elke GPU waarvan jij wilt dat het met je spel werkt. Dus honderden documenten van duizenden pagina's die je moet snappen en in software moet gieten. Ik garandeer je dat als dit de manier was dat er dan helemaal geen PC spellen meer uitkwamen.

Zoals ik dus al zei, het loslaten van low-level driver programmeren was een godszege voor game development. Dat is wat de games van de afgelopen pakumbeet 25 jaar mogelijk heeft gemaakt. Nou ja, bij consoles is dat wat langer doorgegaan omdat als je je inleest in 1 generatie van een bepaald merk je vervolgens 10 jaar lang games voor dat platform kunt maken. Dan had zo'n investering nog wel zin. Maar ook dat is niet meer aan de hand bij consoles.
Dus te complex? Zei ik toch? Wie gelooft dat?
De meeste gamedevelopers zijn contractueel gebonden aan de API.
Ze mogen niks anders.

"Videokaarten zijn te ingewikkeld voor het grote publiek, daarom is de interne werking afgeschermd voor de consument en voorbehouden aan game-ontwikkelaars

[Reactie gewijzigd door blorf op 22 juli 2024 15:44]

Dus te complex? Zei ik toch? Wie gelooft dat?
Ja, de chips zelf zijn enorm complex. Dat is waarom de fabrikant er drivers voor maakt. Anders ben je 10 jaar bezig om zo'n chip te leren aansturen. En zelfs de driver is al behoorlijk complex terwijl ie een hele hoop complexiteit al wegabstraheert. Dat is waarom er API's zijn.
De meeste gamedevelopers zijn contractueel gebonden aan de API.
Ze mogen niks anders.
Dat is nog steeds onzin. Een game developer developt wat zn baas hem/haar vertelt. Die maakt de keuze voor platform en API helemaal niet tenzij het een one-man show is. Maar normaal gesproken bedenk je voordat het project begint waar je het allemaal op wilt uitbrengen en develop je voor die set aan API's. Daar is niks raars aan want je kunt niet zomaar halverwege een project alles in de vuilnisbak gooien omdat je liever voor een andere API schrijft ofzo.
Ik snap je probleem niet echt. Niks wat je insinueert klopt. Je hebt een soort paranoide wanen van hoe gamedevelopment eruit ziet.
"Videokaarten zijn te ingewikkeld voor het grote publiek, daarom is de interne werking afgeschermd voor de consument en voorbehouden aan game-ontwikkelaars
Nee, zelfs dit klopt niet. Het grote publiek heeft helemaal niks te maken met de ingewikkeldheid van de GPU. Daar zijn developers voor. En die willen API's omdat dat de enige realistische manier is om al dat grafisch geweld mogelijk te maken.
Daarnaast kun je zelf voor een groot deel bepalen hoe die 'interne werking' plaatsvindt middels de verschillende shader talen. Wat heb je nog meer nodig?

De consument heeft ook helemaal niks aan kennis over de precieze inerne werking van een GPU. Ik snap niet helemaal wat je ervan verwacht ook. Wat denk je te kunnen winnen door eigen API's of drivers te schrijven voor een bepaalde GPU?
De consument heeft ook helemaal niks aan kennis over de precieze inerne werking van een GPU. Ik snap niet helemaal wat je ervan verwacht ook.
Niet de interne werking maar de aansturing via de bus. Die standaard bestaat precies om dit soort zaken duidelijk en compatible te houden.
Afgezien daarvan, de complexiteit van een produkt vereist nog steeds geen maatregelen om ervoor te zorgen dat alleen game-huizen er (legaal) bij kunnen met hulp van speciale informatie. Maar dat is wel hoe het sinds versnelde graphics geweest is.
Die standaard bestaat precies om dit soort zaken duidelijk en compatible te houden.
Welke standaard? Bedoel je de (PCIe) bus? Die zegt niks over hoe je een GPU moet aansturen.
Afgezien daarvan, de complexiteit van een produkt vereist nog steeds geen maatregelen om ervoor te zorgen dat alleen game-huizen er (legaal) bij kunnen met hulp van speciale informatie.
Je bent in de war. Er is normaalgesproken helemaal geen reden voor een gamedeveloper om er op een andere manier bij te kunnen dan via de driver of een API.

Nogmaals, wat heb je te winnen door een moderne GPU direct aan te sturen? Die vraag heb je steeds niet beantwoord.
Welke standaard? PCIe, in het geval van een PC van de afgelopen 20 jaar.
En wat men eraan zou kunnen hebben dat een GPU direct aangestuurd zou worden? O.a. geen Valve en MS meer nodig om hetzelfde in beeld te kunnen krijgen. Een OSS engine die de hardware -volledig- kan bereiken. Het zou zelfs zover doorgezet kunnen worden dat voor een specifieke GPU bestemde data als hardware-executable beschouwd kan worden. Nu is dat een opsomming van API calls op OS-level.

Niet in detail aantoonbaar, maar ik vermoed dat de hele 3d-GPU markt al lang kunstmatig overeind en ingebunkerd wordt gehouden om te voorkomen dat het ingehaald wordt door 2d-3d conversie door de ALU van conventionele processoren. Die afzonderelijke hardware voor ruimtelijke projectie is waarschijnlijk al jaren overbodig.

[Reactie gewijzigd door blorf op 22 juli 2024 15:44]

Welke standaard? PCIe, in het geval van een PC van de afgelopen 20 jaar.
Je snapt, hoop ik, dat PCIe gewoon een busstandaard is die helemaal niks te maken heeft met de werking van een GPU? Je kunt gewoon de documentatie opvragen van hoe PCIe werkt. Dit is niet geheim en niet propietair. Je lult dus maar wat.
O.a. geen Valve en MS meer nodig om hetzelfde in beeld te kunnen krijgen.
Maar dit is helemaal niet aan de hand. Jij kunt gewoon tegen de driver van de chipfabriekant aan programmeren en dan heb je niks met microsoft of valve te maken. Je lult maar wat.
Een OSS engine die de hardware -volledig- kan bereiken.
Dat kan nu al. Engines worden doorgaans op APIs gebouwd en praten al een paar decennia niet meer direct tegen de hardware aan. Je lult echt onzin.
Het zou zelfs zover doorgezet kunnen worden dat voor een specifieke GPU bestemde data als hardware-executable beschouwd kan worden.
In technisch opzicht slaat deze zin nergens op. Je lult maar wat.
Niet in detail aantoonbaar, maar ik vermoed dat de hele 3d-GPU markt al lang kunstmatig overeind en ingebunkerd wordt gehouden om te voorkomen dat het ingehaald wordt door 2d-3d conversie door de ALU van conventionele processoren.
Dude, zoveel gelul heb ik nog nooit bij elkaar gezien.
Een ALU op een CPU is totaal ongeschikt om 3D mee te doen (blijkbaar weet je niet wat een ALU is?). Had je de SIMD engine genoemd dan had het nog enige waarde (hoewel nog steeds ordes van grootte langzamer dan een GPU) maar wat je hier roept is totale onzin.
Je hebt paranoia waanbeelden ontwikkeld over computerhardware omdat je een klok hoort maar geen idee hebt waar de klepel hangt. |:(

Als het allemaal op de CPU kon en als je de GPU niet nodig had dan had er toch al lang een OSS versie geweest? Hoe is dat een argument? Waarom hebben alle consoles een GPU? Die kunnen volgens jou dan toch alles gewoon op de CPU?
Je hebt echt geen idee hoeveel rekenkracht er tegenwoordig in een GPU zit en zo te horen heb je ook geen idee wat een moderne GPU zoal doet. Wat een onzin allemaal.

Je snapt er echt helemaal niks van en je moet je echt beter inlezen voordat je dit soort onzin gaat fantaseren. In ieder geval niet lullen over dingen die je niet snapt.
~Mag weg~

[Reactie gewijzigd door bouvrie op 22 juli 2024 15:44]

Waar rook is, is vuur.
Mooie zet. Maar wat is de uitkomst die ze verwachten? Dat er een herleving krijgen van de jaren 90, met meerdere chipbakkers op de GPU markt? Gewoon het feit dat Intel GPUs bestaat is iets wat we tegenwoordig best een wonder kunnen noemen. Als veel games niet zouden worden gemaakt met specifieke Nvidia methodes zou de Arc echt een speler kunnen zijn, maar die hebben gewoon (nog) niet de mogelijkheid die AMD wel heeft om Nvidia instructies goed om te zetten. Ik benieuwd naar de uitkomst.

Op dit item kan niet meer gereageerd worden.