Google, Intel, Arm en andere bundelen krachten tegen AI-hegemonie van Nvidia

Een aantal grote techbedrijven, waaronder Google, Samsung, Arm, Qualcomm en Intel, werkt samen aan een opensourcesoftwarepakket voor AI-ontwikkelaars. Hun doel is om de marktdominantie van Nvidia te verstoren.

De bedrijven vormden een groep die de Unified Acceleration Foundation heet. De opensourcesoftware die UXL ontwikkelt, zorgt ervoor dat AI-code op eender welk apparaat met eender welke chip kan draaien. Op deze manier zijn AI-ontwikkelaars niet gebonden aan de gesloten technologie van Nvidia, zoals het programmeermodel CUDA.

De groep vertelde aan Reuters dat de technologie gebaseerd is op OneAPI, een uniform programmeermodel van Intel dat met verschillende architecturen werkt. Hierdoor kunnen ontwikkelaars zich losmaken van beperkingen zoals specifieke programmeertalen en andere tools die hen binden aan de architectuur van Nvidia.

UXL wil de technische specificaties dit jaar vastleggen. Een releasedatum is er nog niet. Hoewel het project in eerste instantie gericht is op de bedrijven binnen de groep zelf, zegt UXL dat in de toekomst ook hardware en code van Nvidia worden ondersteund.

Door Andrei Stiru

Redacteur

26-03-2024 • 07:55

60

Reacties (60)

Sorteer op:

Weergave:

Ben benieuwd. Meer concurrentie op dat vlak is altijd goed.
Ben benieuwd. Meer concurrentie op dat vlak is altijd goed.
Meer concurrentie? Als zulke grote namen zich bundelen in één initiatief, dan riekt dat mijns inziens naar een poging tot marktdominantie en uiteindelijk monopolisering.
Een monopolie van minstens 8 bedrijven? (Zoveel steering members zijn er). Hoe zou dat werken als monopolie? Er is toch ook geen Bluetooth monopolie omdat Bluetooth als standaard voor interoperabiliteit bestaat?
Een monopolie op basis van opensource software is daarnaast best uitdagend denk ik.
Google is daar met Android wel in geslaagd ;)
En voor je Apple opgooit als bewijs van het tegendeel: dat klopt niet, Google heeft in de praktijk een monopolie in de markt van mobiele operating systems: als jij een fabrikant bent en je maakt telefoons, is de enige reële optie nu om een Android toestel te maken, en om echt me te spelen met Google Play Services. Apple is geen optie, die zit niet in de markt van mobiele OSen, die zit in de markt van telefoons verkopen.

Vroeger was er nog Windows Mobile als alternatief, en Ubuntu en Firefox hebben ook even geprobeerd, maar nu is er geen enkele andere optie.

Alsnog: dit gaat hier niet mee gebeuren, dit is oprecht gewoon een actie om het monopolie van nvidia te doorbreken. Ik zie hierin een parallel met de AOMedia die AV1 heeft ontwikkeld om tegengewicht te bieden aan het effectieve monopolie van de MPEG.
Natuurlijk Google is de absolute leider. Google apps zijn niet te verwijderen. Blijven altijd werken al wil jij andere apps gebruiken als standaard. De gebruiker hoort te bepalen wat er op de smartphone of tablet draait niet Google.
Tuurlijk niet, je kan altijd AOSP draaien, Google apps zijn prima te verwijderen. Voor de gemiddelde gebruiker misschien niet maar voor hun maakt het mogelijk wat minder uit. Wij als tweakers staan altijd vrij of zelf AOSP te porten of 1 van de vele custom ROM's/vanilla versies te gebruiken. Vergeet niet dat je ook privacy-focussed telefoons kan kopen die ook zonder Gapps worden geleverd
Ik heb het over de massa gewone gebruikers. Die gebruiken hierdoor altijd Google spul. Krijgen het niet verwijderd dus zo hoort het. Concurrentie is daardoor niet eerlijk.
Of Samsung spul als een Samsung hebben. OnePlus spul als je ze OnePlus hebben, beetje kort door de bocht
Dit gaat compleet off-topic maar KaiOS is een reële optie voor low-end telefoons. Feature phones noemen ze het, maar met een app store kan je het eigenlijk wel smartphones noemen.
Gesponsord door Google. Pri-installed met Google.

Maar de assistent, maps en search kunnen er wel afgehaald worden (als tweaker)
Android een "monopolie op basis van open source software" noemen is natuurlijk ook wel erg kort door de bocht. Het enige open source aan Google's Android is de basis die volledig op zichzelf een onbruikbaar systeem is geworden met dank aan Google's jaren aan timmerwerk aan de weg om steeds meer en meer van AOSP weg te trekken en in hun eigen gesloten code te steken...
AOSP op zichzelf is prima bruikbaar
Meer concurrentie? Als zulke grote namen zich bundelen in één initiatief, dan riekt dat mijns inziens naar een poging tot marktdominantie en uiteindelijk monopolisering.
Het is juist een open standaard om het CUDA-monopolie van Nvidia te doorbreken.

Feitelijk is dit een machtsstrijd tussen de gebruikers en de leverancier(s) van de hardware. Nvidia wil als marktleider graag iedereen vastklinken aan de Nvidia-specifieke CUDA API, terwijl het in het belang is van de gebruikers als ze eenvoudig kunnen overstappen naar AMD, Intel, of een andere leverancier, zonder dat ze hun software hoeven te herschrijven.
Als zoveel grote bedrijven samenwerken dan is er meestal meer sprake van paniek omdat een concurrent een monopolie dreigt te krijgen.
Het zal zeker niet komen omdat ze alle drie genoeg rechtszaken tegen zich lopen hebben waar hun misbruik in het heden en verleden onder loep genomen wordt.
Dominantie en Monopolisering hebben we al. Dat is NVidia momenteel.
Ja, meer concurrentie. Een 2de grote speler op de markt is beter dan geen. Het is ook nog eens een open systeem, waaraan iedereen mee kan doen.
> marktdominantie en uiteindelijk monopolisering.

Je weet wat momenteel de positie van nvidia is op het gebied van AI?
? "opensourcesoftware"

Hoe ga je daarmee een monopolie vormen?
Je ziet het een beetje met Chrome en Android. Ja beiden zijn deels open source, met daarover heen een laag propriëtaire Google saus. En je hebt (als tweaker) alternatieven, maar je hoort steeds meer geluiden dat FireFox het lastig heeft omdat Chrome en Edge allebei chromium based zijn. Er zijn ook alternatieven buiten Android, maar dan zit je of vast aan 1 specifieke suplier die veel te veel voor zijn hardware vraagt of custom roms die niet-tweakers gewoon niet gaan gebruiken.

Dus het is mogelijk om met open source software (bijna) monopolies te vormen.
chrome is niet opensource chromium is, en safari ed zijn daar ook op gebaseerd.
Je kan dus goed zien dat daar zoiets werkt immers als chrome rare dingen zou doen dan gaan gebruikers gewoon naar andere browsers daarop gebaseerd en moeten ze amper moeite doen omdat die gelijkaardig zijn.
Chrome is deels open source, namelijk het chromium gedeelte...

Safari is niet gebaseerd op chromium, de rendering engine van chromium (blink) is gebaseerd op de rendering engine van safari (webkit), welke oorspronkelijk weer gebaseerd is op een andere open source rendering engine (KHTML).
Webkit is ook opensource, nogmaals dit toont gewoon aan dat dit werkt bedrijven doen hun eigen ding daarmee waardoor je amper geen echt monopolie kan krijgen .
Chrome doet al jaren vreemde dingen waardoor ze de hele markt forceren, and yet here we are.

Ook, Safari is uiteraard niet gebaseerd op Chromium.
Monopool is als 1 partij alleen...niet als iedereen mag meedoen. ;)
Gaat niet veel voorstellen:

Google kan tegenwoordig geen project lanceren dat niet binnen een jaar al uitgestorven is. Microsoft en Intel, tja, op software vlak maken ze de ene kemel na de andere.
De vraag is hoe efficiënt code is die universeel moet zijn qua hardware tov code die specifiek voor hardware is geschreven.

Opvallende ontbrekende in het rijtje is AMD.
De vraag is hoe efficiënt code is die universeel moet zijn qua hardware tov code die specifiek voor hardware is geschreven.
Dat is helemaal niet “de” vraag. Het is maar één van een heleboel aspecten. Talen als C en Java domineren de markt en bijna niemand ontwikkelt in pure assembly omdat de voordelen van universele code meestal veel zwaarder wegen dan een beetje inefficiëntie.
assembly is voor zover ik het me goed herinner een lagere taal, maar ik doel eerder op het feit dat een universele taal zonder support van de fabrikant quasi per definitie slechter zal presteren, net omdat die geen gebruik zou kunnen maken van (ongedocumenteerde) hardware features of omgedraaid: features die in software inefficiënt zijn op termijn in de hardware worden afgehandeld (zoals in het verleden encryptie en andere instructies).
AMD zet in op hun eigen ROCm software, gezien ze al een project gefinancierd hebben om CUDA naar ROCm porten. https://www.phoronix.com/review/radeon-cuda-zluda
Niet alleen AMD ontbreekt, ook Microsoft staat niet in het rijtje
Ik vermoed dat die zichzelf liever niet in de voeten schiet.
Die hebben een redelijk goed AI model in handen dat hoogstwaarschijnlijk 100% afhankelijk is van NVidia.
In principe gaat het hier om de CUDA library die alleen NVIDEA heeft en waar de meeste AI libs betrouwbaar op draaien.
Als daar een opensource initiatief voor komt dat compatible is met alle soorten GFX hardware is dat een goed plan.
Al zie ik nvidea dat niet snel implementeren. En de performance moet ook meekomen omdat AI training typisch erg lang duurt en dan maakt performance dus wel degelijk uit.
AMD heeft nu een project om CUDA libraries op hun hardware te runnen met een "glue" layer er tussen,
en dat lijkt veel belovend.
Wel jammer dat je op windows eigenljk alleen NVIDEA/CUDA kan gebruiken omdat ROCm van AMD alleen op linux en server gfx officieel loopt :( Wel een reden om linux te gebruiken :)
Blijkbaar hebben ze sinds kort toch eindelijk ook consumenten kaarten RDNA3 toegevoegd. Ik ben benieuwd als ik dat eens probeer met PyTorch. Tot voorkort was het linux en workstation HW.
Ik denk dat je je Nivea en nVidia een beetje door elkaar heen haalt.
Qualcomm's nieuwe Snapdragon X Elite chip komt binnenkort. Ze hebben verschillende youtubers uitgenodigd om de eerste resultaten te komen bekijken. Erg goede resultaten, ook voor AI. intel moet zich zorgen maken, veel zorgen, en Apple wordt het vuur aan de schenen gelegd. Binnenkort Windows laptops die qua performance/verbruik in de buurt komen van de M-serie.
https://www.youtube.com/watch?v=4KF9W49Gjxw
https://www.youtube.com/watch?v=8FrNBsXtrsA
Als ik een Euro had voor elke keer dat ARM CPUs de x86s gingen verdrijven, dan had ik genoeg geld om een Apple laptop met ARM CPU te kopen...
Je kan natuurlijk sarcastisch zijn over deze SoC maar bekijk de resultaten eens en met name de AI implementatie. Die is erg snel. En ja, de tests die er gedaan zijn door Qualcomm zijn cherry picking, maar wel veelbelovend. Feit is en blijft dat Apple heeft laten zien dat een ARM gebaseerde SoC Intel mobiele CPU de dag goed zuur maakt.
Feit is en blijft dat Apple heeft laten zien dat een ARM gebaseerde SoC Intel mobiele CPU de dag goed zuur maakt.
Valt wel mee. Apple doet wat Apple doet. De massa non-Apple notebooks die verkocht worden hebben een x86 CPU. Enterprise (grote aantallen = grote omzet) is Intel. Enthousiastelingen (gamers, designers die geen Apple kiezen) gebruiken een x86 CPU.

Ik draag alternatieven een warm hart toe, maar "het jaar van Linux ARM op de PC" is nog steeds niet aangebroken, ondanks herhaaldelijk aangekondigd.
1. Het gaat niet om omzet, het gaat om marge.
2. Je kijkt naar het verleden, ik schreef over wat de toekomst gaat brengen.

Bekijk de clips eens, wat Qualcomm daar neerzet is op zijn minst indrukwekkend.
Bekijk de clips eens, wat Qualcomm daar neerzet is op zijn minst indrukwekkend.
Er zijn in de geschiedenis zat technologieën langsgekomen die indrukwekkend waren, maar die toch niet de verwachte adoptie behaalde. Daar doen YouTubers met clickbaitachtige titels niets aan af.

Wij gaan het ontdekken wat de toekomst brengt, maar ik zie het niet snel omslaan. End-user computing is juist steeds minder interessant voor bedrijven (waar de grote aantallen zitten).
Duidelijk minder stroomverbruik is voor bedrijven wel degelijk interessant, ivm klimaatdoelstellingen
Maar we zullen zien
In mijn bedrijf blaast de airco altijd even hard, als er niemand in mijn ruimte is is het ijskoud en heb ik een trui nodig.

Ik geloof dat je het interesse in een CPU die in idle een paar watt minder gebruikt nogal overschat. Wat we wel nodig hebben is een PC waar alle software her op doet.
Stroomverbruik is een heel belangrijke kostenfactor in Datacenters, iedere Watt die je minder gebruikt voor rekenen bespaart ook op koeling, en deze besparingen zijn direct marge op je DC.
Datacenters zijn een commodity, waarbij eigenlijk alleen prijs een belangrijke onderscheidende factor is.
En op welke laptop ga je dan duidelijk minder stroomverbruik zien? Iets wat je terugziet op de energienota.

Ik vermoed dat mijn monitor meer stroom verbruikt dan m'n laptop...
Lokale modellen zijn praktisch totaal niet van belang, behalve voor Apple door hun privacy insteek. Een deel van Microsoft heeft er dan wel hoop in, maar ik ben er vrij zeker van dat intern de cloud divisie de grootste vinger in de pap heeft. Lokale toepassingen worden ondergeschoven kindje, behalve voor Apple.
Ik denk dat we ons voorlopig geen zorgen hoeven te maken of AI de mens gaat vervangen... laten we eerst maar eens zien wie/wat de AI-War gaat overwinnen. Zolang die druk met elkaar bezig zijn hoeven wij ons nog even geen zorgen te maken. :+
Ik denk dat mensen die bijvoorbeeld stukjes schrijven voor Tweakers diegenen zijn die zich zorgen moeten maken.
Toko's als Cnet laten/lieten AI al artikelen schrijven en dat ging niet goed. Maar dat komt ook omdat de technologie nog volop in ontwikkeling is. Maar het is onvermijdelijk dat het zeker consequenties zal hebben voor de media.

https://www.washingtonpos...s-journalism-corrections/
Laat ff in het midden over het verschil tussen cnet en tweakers, maar het zit er aan te komen, en snel. Burda, een Duits tijdschrift dat zich op vrouwen richt publiceerde bijna een jaar geleden een special met 99 pasta gerechten/recepten. Deze waren allemaal door een AI gegenereerd. Lezers hadden er niets van gemerkt en de verontwaardiging in de D pers was groot.
https://www.heise.de/news...d-Midjourney-9057001.html

https://www.deutschlandfu...stellter-rezepte-100.html
Ik denk juist dat bij creatieve stukken, (artikelen, films, fotos, etc) AI het niet zal overnemen, maar eerder als hulpstuk ingezet wordt. Van binnen waarderen we toch eerder creaties waar een stuk passie achter zit, of iets/iemand waarmee we het eens zijn, of kunnen identificeren.

Ik denk dat zodra mensen weten dat iets met ai gegenereerd is, dat het in veel gevallen z'n waarde behootlijk verliest. nu is de wow factor natuurlijk nog best groot met veel AI gegenereerde dingen, maar als het zometeen "normaal" is, voelen we er waarschijnlijk weinig meer bij.

[Reactie gewijzigd door rickvdvulkaan op 23 juli 2024 09:05]

Automatisering a.d.h.v AI gaat er niet voor zorgen dat mensen vervangen worden, het zorgt er gewoon voor dat bepaalde mensen weer meer productief kunnen zijn.

Neem software ontwikkeling. Er is nu een AI die 13% succesrate haalt op het autonoom oplossen van softwareopdrachten. En dat word gezien als een hele hoge succesrate (en begrijp me niet verkeerd, het is echt heel indrukwekkend!). Ik denk niet dat mijn opdrachtgever blij zou zijn als ik maar 13% van de gegeven opdrachten succesvol kan afronden. Maar a.d.h.v. een programmeerassistent kan je nu al wel als software engineer veel meer automatisch schrijven.

Of video- en fotobewerking. Dingen die een editor vroeger allemaal met de hand moest doen kan AI nu automatisch doen. Maar je hebt nogsteeds de mens nodig om de juiste edits te doen.

Vroeger dacht men ook dat door middel van automatisering alle mensen in de toekomst hun hele leven konden besteden aan hobby's, de realiteit liet zien dat automatisering er enkel voor gezorgd heeft dat we in dezelfde hoeveelheid uren simpelweg veel productiever zijn geworden.

[Reactie gewijzigd door jaapzb op 23 juli 2024 09:05]

Niet helemaal, er zullen banen verdwijnen en nieuwe banen ontstaan, net als door automatisering is gebeurd. Als mensen veel productiever worden of zaken geautomatiseerd worden zijn er minder mensen nodig. Er zijn bijvoorbeeld geen hoogproductieve dames die je telefoonverbinding voor je stekkeren, die zijn weg geautomatiseerd.
Dat is dus niet perse waar, als mensen productiever worden blijkt dus dat we met dezelfde hoeveelheid mensen dus gewoon meer gaan produceren (want meer productiviteit is meer waarde in de economie). Het is niet zo dat er minder mensen aan het werk hoeven omdat een kleinere hoeveelheid mensen hetzelfde werk doen. Nee, we doen met dezelfde hoeveelheid mensen dan gewoon meer werk.
Google en ARM zijn zelf haast monopolisten.
Intel drukte in hun periode de concurrentie weg
Ik denk dat een grote reden voor de wildgroei van GPU pools het copy pasten van super fragiele python stacks met CUDA onderop is. Het is niet puur CUDA die van belang is maar dat pytorch, HF Transformers etc er zo nauw mee zijn verweven. Daar helpen low level talen niets tegen, projecten als vLLM zijn belangrijker (maar dat is niet voor trainen).
@Andrei Stiru Dit klinkt een beetje als OpenVino zoals in nieuws: Intel brengt AI-tools met muziekgeneratie en transcriptie uit voor Au...

Bij mij op mijn AMD 3700X en NVIDIA 2070S is het verschil als volgt:
  • Spleeter native via VirtualDJ op 20% GPU: 10 tot 18 seconden per liedje.
  • Demux via OpenVino via Audacity op GPU: iets langer dan de lengte van het liedje (230 seconden)
Ik hoop dat dit initiatief dus een stuk betere performance gaat halen want als het zelfde model 12x (of meer) trager draait via de Unified Acceleration Foundation zal het weinig tot niet concurreren met NVIDIA native implementaties. Anders dan voor "gewone" gebruikers die 12x langer wachten (minuten i.p.v. seconden) voor lief nemen, of modellen draaien die sowieso in een seconde of wat klaar zijn.

[Reactie gewijzigd door djwice op 23 juli 2024 09:05]

Op dit item kan niet meer gereageerd worden.