Apple voegt ondersteuning voor AMD RDNA 2-videokaarten toe aan macOS 11.4

Apple heeft deze week een macOS-bèta uitgebracht die ondersteuning voor AMD’s RDNA 2-gpu-architectuur toevoegt aan dat besturingssysteem. Dat suggereert dat Apple binnenkort een systeem met een dergelijke RDNA 2-gpu uitbrengt.

De changelog van de update noemt ondersteuning voor AMD's Navi RDNA 2-architectuur, waaronder de Radeon RX 6800, RX 6800 XT en RX 6900 XT vallen. Apple biedt momenteel nog geen systeem aan die een dergelijke desktopvideokaart bevat, hoewel de Mac Pro van het bedrijf wél met AMD-videokaarten wordt geleverd. Mogelijk komt het bedrijf dan ook met een nieuwe Radeon Pro 6000-videokaart voor de Mac Pro. Het bedrijf bracht na de release van de Mac Pro al een Navi-videokaart uit die is gebaseerd op de oorspronkelijke RDNA-architectuur.

Enkele dagen geleden verscheen al een foto van een vermeende RDNA 2-videokaart voor Apple Mac-computers op het Chinese forum Chiphell, hoewel de leaker die deze afbeelding plaatste geen specificaties deelde. Recentelijk verscheen bovendien een mogelijke Radeon Pro W6900X-videokaart in Geekbench, die werd opgemerkt door Twitter-gebruiker BenchLeaks.

De Geekbench-listing bevat, los van de naam van de gpu, weinig concrete informatie. De gpu is getest met een Apple Metal API-benchmark, waarin de gpu scores haalt tussen de 152.000 en 171.000, schrijft ook VideoCardz. De benchmark zou uitgevoerd zijn op een Mac Pro. Het is overigens ook mogelijk dat deze test is gedaan op een zogeheten 'Hackintosh', ofwel een pc waarop macOS is geïnstalleerd. Het systeem in kwestie gebruikte een Intel Core i9-10920X-cpu, terwijl Apple de Mac Pro alleen levert met Xeon-processors. Bekende leaker _rogame speculeert op Twitter dat de gpu eigenlijk een Radeon RX 6900 XT is, die mogelijk verkeerd wordt weergegeven als Radeon Pro W6900X binnen Geekbench.

Vermeende AMD Radeon Pro W6900X-videokaart via Chiphell
Afbeelding via Chiphell

Door Daan van Monsjou

Nieuwsredacteur

24-04-2021 • 17:06

73

Reacties (73)

73
71
39
10
1
27
Wijzig sortering
Mijns inziens suggereert het meer dat het dan als eGPU te gebruiken zal zijn dan dat Apple zelf een apparaat met deze kaart uitbrengt.
De M1 heeft geen ondersteuning voor eGPU's, dus ik verwacht eerder een Mac Pro refresh.
Weet iemand eigenlijk waarom? Ik zag bij linus tech tips dat ze een PCIe 10gbit lan kaart in zo’n behuizing hadden gedaan en die deed het zonder problemen. Het is dus niet dat de thunderbolt/usb4 (achtige) PCIe werking niet werkt. Het is enkel GPU’s
Je hebt drivers nodig voor de M1 architectuur. Dus moet nVIDIA of AMD meewerken met Apple. Ik weet niet of deze driver voor Intel en/of ARM gebouwd is maar indien ARM kun je inderdaad een eGPU met Navi2 gebruiken in de M1. NVIDIA is ook bezig met Arm ondersteuning voor Cuda/GPU dus hopelijk binnenkort ga je ook een 3090 op een Raspberry Pi kunnen draaien - goedkope GPU miner.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 15:02]

Nvidia en Apple hebben schijnbaar ruzie, niemand weet echt goed waarom.

Dus Nvidia support voor Apple (of vice versa) zou ik mijn adem niet voor inhouden.
niemand weet echt goed waarom.
Volgens mij is dat gewoon bekend: Bumpgate en nvidia's (gebrekkige) afhandeling daarvan.
En dat ze met AMD/ATI gewoon een veel betere deal konden afsluiten dan met nVidia. Dat zal nu ook minder worden gezien de veel betere prestaties van AMD van nu.
En dat ze met AMD/ATI gewoon een veel betere deal konden afsluiten dan met nVidia. Dat zal nu ook minder worden gezien de veel betere prestaties van AMD van nu.
Nee, het gaat verder terug dan dat, er was een tijd dat er heel veel Mac’s terug moesten omdat er iets niet goed was, waardoor de GPU bij hoge belasting en temperaturen geen contact meer maakte en crashte.

Daarna stapte Apple resoluut over op AMD/ATI.
Die veel betere prestaties zijn op het gebied van CPU's, niet de videokaarten.
En laat op dat gebied de andere concurrent Intel zijn en niet NVidia.

De GPU's van AMD zijn zeker niet slecht, maar NVidia heeft voorlopig nog de prestatiekroon vast.
Die veel betere prestaties zijn op het gebied van CPU's, niet de videokaarten.
En laat op dat gebied de andere concurrent Intel zijn en niet NVidia.

De GPU's van AMD zijn zeker niet slecht, maar NVidia heeft voorlopig nog de prestatiekroon vast.
Ik denk dat hij/zij gewoon bedoelde dat de prestaties van AMD videokaarten een grote sprong voorwaarts gemaakt hebben en niet de vergelijking met Nvidia prestaties wou maken.

AMD heeft voor hun GPU’s mss inderdaad een betere deal aangeboden, zoveel verschil in prestatie is er nu ook weer niet.
De GPU's van AMD zijn zeker niet slecht, maar NVidia heeft voorlopig nog de prestatiekroon vast.
Ook dat klopt niet helemaal, genoeg gevallen waar een 6900XT het (dik) wint van een RTX3090, dus in dat geval is er niet echt een duidelijke winnaar wie de snelste GPU heeft
Dan heb ik een update nodig.

Ga ik eens bekijken.
8)7
Dat er tien jaar geleden een technisch probleem was... Waarom zou dat nu een issue blijven.

Apple en Microsoft waren mid-jaren ‘90 gezworen vijanden, na 2000 niet meer. Apple en IBM hebben een moeilijke relatie gehad (de beroemde 1984-ad was gericht tegen IBM!), maar later maakte IBM de cpu’s totdat ze werden gedumpt voor Intel. En toen kwamen ze weer terug voor een Enterprise-partnership.

Kortom, als Nvidia nu die issues niet meer heeft, waarom blijft Apple zo zuur?
Kortom, als Nvidia nu die issues niet meer heeft, waarom blijft Apple zo zuur?
Vaak is in een (business) relatie niet het punt dát er iets fout kan gaan, maar meer hóe het aangepakt en opgelost wordt als er iets fout gaat. Als ze nog buikpijn hebben van het 'hoe', dan snap je wel waarom ze afstand houden. Het 'hoe' is vaak niet iets dat veranderd.
Dat maakt me dus alleen nog nieuwsgieriger. Wat heeft Nvidia dan specifiek geflikt?
Dat maakt me dus alleen nog nieuwsgieriger. Wat heeft Nvidia dan specifiek geflikt?
Slechte kwaliteit GPU’s geleverd en dat slecht afgehandeld. Die CPU crashten bij hoge belasting / temperaturen. Ze waren vreselijk onbetrouwbaar.
Ter aanvulling, dit heeft Nvidia zeer lang ontkend. Totdat HP met bewijslast kwam (ik werkte op dat moment voor HP). Echter ook daarna werden zaken zeer slecht door Nvidia afgehandeld. OEM-fabrikanten kregen niet meer dan alleen de GPU vergoed, terwijl de kosten voor herstel van geleverde producten en aanpassing van design om de fouten van Nvdia en het effect deaarvan te kunnen compenseren. Dit was vooral voor laptops o.a. Macbook zeer nadelig. Doordat fan's eerder moesten aanslaan en sneller moesten draaien, om de GPU's op een betere constante temperatuur te houden, maakten de laptops / macbooks meer lawaai en gingen deze minder lang mee op één accu lading.

Overigens mijn ervaring is dat Nvidia het 'moeilijk' doen in zijn natuur heeft, het is geen makkerlijke partij om mee samen te werken.

[Reactie gewijzigd door _Dune_ op 22 juli 2024 15:02]

Apple is nog altijd boos op Nvidia over de kwaliteit van geleverde mobiele videokaarten in macbooks een hele tijd terug. Er is toen een enorme recall geweest wat beide Nvidia en Apple veel geld heeft gekost. Ook veel onenigheid over de drivers.
Ik had begrepen dat Apple wilde dat ze custom drivers konden ontwikkelen en Nvidia dat absoluut niet wilde. AMD ging wel akkoord (ook al was dat waarschijnlijk vanwege hun marktpositie toen)
AMD is daar volgens mij sowieso makkelijker in. Daarom zitten in de consoles ook AMD chips.
Nu ja, daar werden vroeger net zo hard nvidia chips gebruikt voorbeeldje,
nieuws: Meer nVidia chips in Xbox
nieuws: nVidia Xbox GPU details
Moet je bedenken dat nV in die tijd op de GPGPU markt leidend was/is met grote voorsprong. En dat Apple ze dan nog weigert. Dus het zit dus zeer hoog. Dus het is geen subtiele reden voor wat nV bied of toestaat. Apple heeft dus hun fingers verbrand aan nV en dat zijn ze niet vergeten en dan maakt het ook niet uit of zij markt leidend zijn.
Het is dat AMD nu goed meekomt. Zo niet zou apple naast CPU ook eigen GPU gaan om niet afhankelijk zijn van partner die niet kan leveren.
Ik denk dat Apple wel RDNA2 gaat ondersteunen omdat het degelijke high-end is.
En zelf met geen apple GPU hebben.
nV heeft het goed verbruid bij apple.
Mogelijk vergroten de kansen bij CEO wissel bij Apple.
Mogelijk vergroten de kansen bij CEO wissel bij Apple.
Nee, want ook een nieuwe CEO zal niet zomaar voor nV gaan. Ze zijn gewoon geen betrouwbare partner voor Apple, en dat is gigantisch belangrijk voor Apple. Dat betekend niet dat er niets mis mag gaan, Apple snapt ook wel dat dat altijd mogelijk is. Maar hoe je het oplost, dat is een veel zwaarder wegend iets.

Het Nvidia debacle was onder Steve Jobs als CEO, en hoewel de huidige CEO daar toen ook heel veel last van had (Tim Cook was toen de COO) zal dit in het corporate geheugen van Apple heel lang leven.

Eigelijk zie je hetzelfde met hun relatie met Intel, hoewel ik denk dat Intel het slimmer / verstandiger heeft aangepakt. Apple leverde de helft van de gemelde bugs voor de nieuwe CPU architectuur. Daar schrok Apple behoorlijk van. ( normaal gesproken vind de fabrikant wel bugs, maar lost die op voor ze bij een belangrijke afnemer terechtkomen ). Paar jaar later: de M1. (Doch houden ze nog wel een relatie met Intel op andere vlakken. Dus helemaal verziekt hebben ze het niet).
Loose lips sink ships: Nvidia was ook niet altijd stil over komende producten en daar is Apple erg gevoelig voor, zeker toen.
Dat zal zeker de 8000-serie geweest zijn, dat was gewoon een rampenplan. Niet de vraag of je GPU zou sterven, maar meer wanneer. Ik had een Dell XPS M1330 met een 8400GS als ik mij goed herinner. Tot tweemaal het moederbord, gelukkig onder garantie, mogen laten vervangen.

Dell, Apple maar ook andere fabrikanten hebben tussentijdse draconisch aanpassingen mogen maken om deze GPU's te kunnen blijven gebruiken. Voor laptops betekende dat veelal aangepaste koeling, sneller draaiende fan's, eerder aan slaan van fan's waar door meer geluid en minder lang op een accu lading kunnen werken.

Wat dat betreft had Nvidia het met dat debakel het voor mij wel afgedaan. Nvidia reageerde namelijk heel slecht op dit alles hebben het heel lang ontkend, totdat HP (waar ik op dat moment voor werkte) met bewijslast kwam en men het niet meer kon ontkennen. Vervolgens werden oem-fabrikanten alleen voor de GPU gecompenseerd, ondanks dat de kosten voor vervanging vele malen hoger lag. Dat heeft ze in ieder geval Apple als klant gekost.

[Reactie gewijzigd door _Dune_ op 22 juli 2024 15:02]

Volgens mij was het de 8xxx inderdaad.
Ik weet er het fijne niet van, maar kan dit komen doordat de drivers maken voor een andere architectuur een hoop extra werk is vergeleken met een nieuwe generatie GPUs ondersteunen op een bestaande architectuur?

Daarnaast, ze leveren met de M1 nu ook hun eigen iGPU als ik mij niet vergis, mogelijk willen ze nu meer in eigen hand houden. Zeker als er ook workstations gaan komen met met GPU cores, willen ze vast niet dat mensen de versie een goedkopere Mac Pro variant met (e-)GPU erbij gaan gebruiken.
Wie weet inderdaad. Wellicht is het een driver issue, wellicht ligt het aan de SoC (aangezien er al veel limieten aan de M1 zitten qua displays enzo) of Apple zou dit expres zo doen.
Maar voorlopig weten we niks. Apple heeft niks bevestigd of ontkend, dus het zou een van die 3 kunnen zijn. We hebben helaas ook niet echt vergelijkingsmateriaal momenteel aangezien dit de eerste keer pas is dat dit soort problemen aan het licht komen doordat Apple de eerste is die mainstream ARM is
ARM ltd (UK) is opgericht in 1990 door Acorn, Apple en VSLI technologies (nu NXP). De ontwikkelingen van ARM begonnen al in 1983 door Acorn, en de A van ARM stond initieel ook voor Acorn Risc Machine, later Advanced Risc Machine. Sinds 2016 zijn de aandelen in handen van softbank en Nvidia is in het proces om alle aandelen te kopen.

Behoudens gebruik van de ARM instructieset, maakt de Apple M1 SOC geen gebruik van de ARM referentie-architectuur. Ze hebben vanaf de A4 in de iphone 4 gewerkt aan een eigen architectuur, wat nu de M1 SOC (system on a chip) is geworden. De gedachten achter de SOC, met het delen van het geheugen, dat 'geïntegreerde' is in de SOC, geeft het voordeel dat het een supersnelle CPU is, maar met nadeel dat er maar beperkte I/O met onderdelen buiten de SOC. Dat er geen eGPU wordt ondersteund ligt enerzijds aan de beperkte I/O maar ook dat het voordeel van een bepaalde performance van het gedeelde geheugen geheel te niet wordt gedaan. Tussen de RAM in de M1 SOC en het RAM van de externe GPU zou dan datacommunicatie moeten zijn, waardoor je veel PCI lanes zou moeten hebben en een bepaalde bandbreedte voor data transfer, die de M1 gewoonweg niet heeft. Zijn ontwerp keuzes.
Als ze Apple Soc voor Mac Pro line ontwikkelen kan best een bakbeest worden.
Dat zal geen M1 zijn misschien M1X voor kleine krachtige Mac pro mini.
Of is van zo groot chip dat M2 wordt met flinke iGPU of met wel sloot PCIE 5.0 lanes.
Wat ook mogelijk is dat CPU en GPU op moederboard of eigen design expansie kaart met AMD GPU. En als Apple iets ontwikkeld is in sync. met Hardware partner het OS en drivers.
Die moeten ze dan wel ontwikkelen. En het punt is meer dat de M1 een doorontwikkeling is van de mobile chips, de A4 en verder. De stap vanaf A12Z was niet zo groot getuige dat de dev kits daarvan gebruik maakte.

Een chip ontwikkelen met een sloot PCIE 5.0 lanes, RAM voor CPU en GPU weer apart, DDR5 of zelfs DDR6 geheugen, thunderbolt 4, etc is another cup of tea.
Maar zou z’n gpu wel zomaar werken met een arm cpu?
Er zou geen reden moeten zijn dat dit niet moet werken aangezien alle andere PCIe insteek kaarten wel werken
Ik denk het niet. Denk gewoon een mogelijkheid om deze kaart (-en) in de 'oude' Mac pro te stoppen. Niet meer niet minder.
De Mac Pro 5.1 ondersteunt deze versie van Mac OS niet officieel. De Ivy Bridge-E Mac Pro wél, maar daar kun je deze kaarten niet in kwijt.
Sorry. Ik was niet duidelijk met 'oude' bedoel ik die van 2019.
En in je hackintosh.
De M1 heeft geen ondersteuning voor eGPU's, dus ik verwacht eerder een Mac Pro refresh.
Het niet ondersteunen van eGPU's is puur een software issue
Nouja, vergeet niet dat huidige macpro's gewoon te upgraden zijn. Ik vind dit nieuws niet zo spectaculair, want de oudere versies van macos hebben ook altijd AMD kaarten ondersteund, misschien vind ik het eerder nieuwswaardig dat de ondersteuning voor die nieuwere kaarten zo lang op zich heeft laten wachten.
Eindelijk.. maar hopelijk wel met HDMI 2.1 ondersteuning want dat ontbreekt bijv. onder Linux door de gesloten specificatie van het HDMI Forum.
Hadden ze best nog een jaar mee kunnen wachten want die kaarten zijn voorlopig nog niet aan te komen...
Wellicht wel als je ze via apple aanschaft voor een nieuwe mac pro
Het hele tweakers forum (en V&A) staat elke week vol met tweakers die het redelijk eenvoudig lukt anders (mijzelf inclusief).

Vooral nvidia kaarten zijn amper te krijgen..
Jawel hoor, je betaalt er alleen exorbitante prijzen voor aan scalpers. Maar nog altijd minder exorbitant dan high end custom versies van Vega-GPU's die Apple verkoopt.

Wie zo idioot is om duizenden euro's voor een workstation-GPU neer te tellen via Apple ipv. zelf gewoon Vega-GPU's te kopen (die immers gewoon de enterprise drivers van AMD ondersteunen) kan ook wel 1500 euro voor een 6800 XT neertellen op EBay.
Apple zal net als elke andere grote OEM levering contract of te wel voorrang hebben. Als je nu toch voor deze tijd relatief snel G-kaart moet hebben bestel je OEM PC met midrange G-kaart erin. Waar je ook dichter bij de MSRP komt.
Voor nu alleen Big Navi 21 (6800, 6800 XT en 6900 XT) maar nog niet de 6700 XT, dat is namelijk Big Navi 22 en daarvoor zit er nog geen ondersteuning in, mogelijk komt dit nog.
Laten we wel wezen, wanneer je een Mac Pro koopt, ga je dan bezuinigen met een 6700xt tegenover een 6800 of beter?
Niet alleen een Mac Pro, ook een oudere iMac kan middels een eGPU daar worden van voorzien. :)
Precies dit ;) Mondjesmaat kwam de code binnen voor ondersteuning sinds de release van Big Sur. Al met al dus best een poos geduurd. Mij te lang en ik ben voor een desktop gegaan als primaire werkplek.

Wel mooi dat het alsnog kan!

[Reactie gewijzigd door Ventieldopje op 22 juli 2024 15:02]

Dat kan wel, maar dan ga je toch een beetje voorbij aan het doel van een all-in-one zoals de imac. Daar wil je natuurlijk liever niet van alles en nog wat extern op aansluiten als dat niet nodig is. Maar je hebt gelijk, het is wel een optie.
Apple is daar precies goed in, om vervolgens de betere kaart als duurbetaalde upgrade aan te kunnen bieden. Zoals ze ook doen met SSD en Geheugen upgrades die vele malen duurder zijn dan eenzelfde upgrade voor welk ander systeem dan ook zou kosten.
In de Mac Pro kun je gewoon 3rd party GPU’s schroeven. Dus als de 6900xt ondersteunt wordt koop je die gewoon rond de 1050 euro op AMD en dan werkt hij in je Mac Pro.
De mac pro is daar de uitzondering; in de macbooks / imacs / mac mini kan dit niet. Daarnaast bedoel ik vooral de "upgrade" opties die apple je biedt als je de mac pro aanschaft, niet wat je er evt zelf nog in kan schroeven.

[Reactie gewijzigd door stefanass op 22 juli 2024 15:02]

De mac pro is daar de uitzondering; in de macbooks / imacs / mac mini kan dit niet
Op de Intel Macs kun je dan een eGPU gebruiken, en ik vermoed dat dat voor de Apple silicon Macs uiteindelijk ook officially ondersteund zal worden.

Mijn oude iMac had wel een heus MXM slot. Jammer dat die standaard nooit echt wat geworden is.
Dat is niet echt een uitzondering, dat is by design. Apple heeft gewoon een duidelijk onderscheid tussen hardware voor consumenten en hardware voor pro’s. De Mac Pro bedient een hele andere markt dan een iMac of een MacBook. De Mac Pro is gewoon niet bedoeld als computer voor in je woonkamer. En als je dan naar de behoefte van een zeer gespecialiseerde pro markt kijkt moet je wel modulair en uitbreidbaar zijn. Die les heeft Apple geleerd met de vorige Mac Pro. Ik vind het altijd vreemd dat men hier in de comments de Mac Pro bespreekt alsof het een consumenten product is. De prijs vergelijken met consumenten hardware, etc is gewoon onzinnig.


De iMac Pro is wat dat betreft een vreemde eend in de bijt.

[Reactie gewijzigd door cmegens op 22 juli 2024 15:02]

Lui die een Mac Pro kopen (behalve een 4.1/5.1-versie om die met onderdelen van AliExpress te upgraden) hebben geen flauw idee van de waarde van geld.
Nee, jij hebt geen flauw idee van de doelgroep van dat ding. Die doelgroep koopt namelijk als ze een Dell of HP zouden kopen een workstation class met ongeveer hetzelfde prijskaartje en specs.

Dat ding is niet voor consumenten of de gemiddelde pro, maar voor bedrijven/mensen met extreme requirements. Dat is een nichemarkt. Dat geld ook voor dat XDR scherm van ze. Weet je waarom die poot zo duur is? Omdat het een niche binnen een niche is. 99% van de partijen die zo’n ding koopt plettert ‘m in de VESA Mount (wat standaard is op het scherm) in de video suite.
Dan is dat omdat dozenschuivers zoals Dell en HP ook exorbitante prijzen rekenen voor hardware.

Wat klopt. Heb je ooit (in normale tijden, dus geen extreme GPU- en CPU-schaarste) gezien wat die oplichters voor een Alienware-PC vragen? Daar bouw je zelf een systeem voor met betere specs, of je kunt een fors deel van de prijs in je zak steken. Je bent ook bij een bouwer als NZXT bijvoorbeeld minder geld kwijt (en voor betere gear, aangezien je dan een volledig upgradable systeem hebt dat er gelikt uit ziet ipv. een aan alle kanten afgesloten cocon vol proprietary shit waar je met een beetje pech zelfs gewoon single channel RAM in hebt zitten)

Geef mij 20 ruggen en ik bouw je een Threadripper-systeem dat rondjes rent om het topmodel Mac Pro. Zet iemand met verstand van zaken een paar uur aan het werk en je hebt er de nieuwste versie van Mac OS op draaien. Het gaat letterlijk om een meerprijs van tienduizenden euro's waarmee je ook nog eens veroordeeld bent tot een gesloten software-ecosysteem en het niet het maximale uit je hardware kunnen halen.

Je zou een kleiner, maar nog steeds zeer fors bedrag uitsparen als je het entrylevel model van de Mac Pro aanschaft en gewoon zélf de hardware koopt. Waarom moeten een paar rottige sticks RAM-geheugen via die oplichters van Apple dubbel zoveel kosten als wat ze waard zijn? En ga zo maar door. Wat die lui aan meerprijs rekenen voor spullen, is gezien dat hun software-ecosysteem gesloten is, niks anders dan racketeering. Shit die crimineel zou horen te zijn.

De enige reden dat het de kopers van een Mac Pro niets kan schelen is omdat het letterlijk gaat om lui die bulken van het geld en dus gaan voor extreme gemakzucht ipv. dat ze zich de prijs van een tweedehands sportwagen uit sparen om dezelfde gear goedkoper te gebruiken. Het is létterlijk zo dat die lui geen idee meer hebben van de waarde van geld, simpelweg omdat ze het achteloos met de koffers tegelijk weg kunnen smijten aan hardware.

Ik spreek uit ervaring: lui die Apple spul kopen hebben géén idee van wat shit waard is. Een laptop met een quadcore CPU zonder hyperthreading uit 2015 is géén 500 euro waard. Je haalt letterlijk de dubbele prestaties uit een entry level notebook met een Ryzen 5 3500U (die hyperthreading en betere IPC biedt). Toch betalen mensen 500 euro voor zo'n oud barrel met armzalige specs alleen omdat er een lichtgevend stuk fruit op staat. Echt sick.

Je zou ze zelfs onchristelijk kunnen noemen, want in de Tien Geboden staat; 'gij zult niet stelen', zonder mitsen of maren, dwz. van jezelf stelen is ook verboden.

[Reactie gewijzigd door Pianist1985 op 22 juli 2024 15:02]

Nee, je betaald voor het feit dat hun een hele vracht werk voor je uit handen hebben genomen. (En bij Apple, ook het OS).

Dat soort niveau machines wordt door wetenschappers, etc ingezet. Of in video suites, rendering studio’s, etc. Kunnen ze dat zelf bouwen? Ja. Maar dat kost ongelofelijk veel manuren, ook om eerst uit te zoeken of alle componenten wel met elkaar overweg kunnen, etc. Dat kost een hoop geld, en die tijd is ook geld. En dan moeten supported zelf, vervangende hardware moeten hebben, zelf, de lijst wordt langer en langer, daar hebben ze echt allemaal geen zin in. Ze hebben een highend product nodig wat werkt. Direct, compromisloos.

Onderaan de streep is zo’n ding kant en klaar kopen bij Apple, hp of dell altijd goedkoper. (Want manuren zijn het grootste kostenpostje binnen ieder bedrijf). Er zijn niet veel bedrijven die dat oplossen door hun eigen Pianist1985 een gruwelijke threadripper te laten bouwen. Als ze al zo iemand überhaupt hebben rondlopen in de hut, want dat is behoorlijk zeldzaam.
Klopt. De doelgroep voor dit apparaat zijn de wetenschappers en de video-editors in Hollywood. Het enige wat zij willen is het beste van het beste dat never nooit een keer crasht. En dat is precies wat dit apparaat nooit zal doen.
Heeft iemand zich eigenlijk afgevraagd waarom de videokaart naam AMD RDNA 2 is?
Persoonlijk vind ik de naamgeving in deze Covid-19 periode nogal stompzinnig.
Okee, zal best goed spul zijn, daar het niet om.
Maar dat vroeg ik me dus af.
waarom de videokaart naam AMD RDNA 2 is?
Dat is de architectuur, niet de letterlijke naam van de kaart(en).

https://en.wikipedia.org/wiki/RDNA_(microarchitecture)

Het is dan ook van voor Covid-19 (en natuurlijk al jaren in ontwikkeling daarvoor):
The first product lineup featuring RDNA was the Radeon RX 5000 series of video cards, launched on July 7, 2019.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 15:02]

Omdat het de tweede generatie is van de Radeon DNA-architectuur?

En nee, ik vroeg het me niet af.
Daarnaast is RDNA iet wat ouder dan de vaccins die op de rDNA- wijze zijn gemaakt voor CoVid-19.

Ik vind je bijdrage eerder stompzinnig.
In de Hackintoshgroep op Reddit heb ik deze week inderdaad een 6800XT voorbij zien komen nav de nieuwste beta. Dat verklaart de Geekbenchscore denk ik. Het resultaat vind ik tegenvallen, mijn 5700XT 16Gb scoort vergelijkbaar.
Dit is wat mij betreft het grootste nadeel van Mac OS: Apple moet expliciet toestemming geven voor drivers.
Nee hoor. Alleen deze GPU drivers zitten in 't OS ingebakken en da's dan weer een ander verhaal.
Apple heeft gezegd dat de transitie naar Apple on silicon in 2 jaar wordt afgerond, maar dat ze ook modellen met Intel CPU's updaten.

Nu we deze week zagen dat er geen M1X of M2 is aangekondigd, is het plausibel dat de Mac Pro een update krijgt van Intel modellen.
Ik vraag me eerder af of dit niet een toevoeging op bijvoorbeeld de toekomstige MacBook Pro lijn zou kunnen zijn. Kan een prima toevoeging op een 'pro' product zijn, om naast de M1 een krachtigere GPU te zetten voor dedicated workloads. Trek je niet gelijk alsnog de accu leeg, behoud je de voordelen van de M1, maar wél met betere grafische prestaties voor bijv. videobewerking.
M1 en een externe GPU zijn geen goede match; de M1 heeft gewoon te beperkende I/O (met dedicated GPU etc). Er zijn ook redenen waarom ze de M1 niet kunnen leveren met 32GB etc. Ze zullen toch op zijn minst met een M2 of M1X moeten komen. M1 is nu gemaximaliseerd op 3,1Ghz; ook niet zonder reden.
Mochten jullie geïnteresseerd zijn in behaalde resultaten, en een kaart aan de praat krijgen in een Hackintosh, dan zijn hier al veel successen behaald:

https://www.tonymacx86.co...xt-big-sur.306736/page-79
Dat het niet meer botert tussen Nvidia en Apple - zou dat niet kunnen ontstaan zijn door de overname van ARM door Nvidia. Die krijgen een hefboom via de licentieheffingen die ze aan Apple kunnen opleggen (en geef toe - voor Apple zou ik prijzen per cpu-stuk aanrekenen, en die zouden veel hoger zijn dan voor de rest - gezien Apple een tax van rond de 30% heft, op hardware is't soms tot +50%).
Vandaar dat Apple zich bekocht voelt natuurlijk gaan zij achter de schermen stokken in de wielen van die overname proberen te steken - wees gerust - dit verhaal is nog lang niet ten einde - en wij gaan niet alles te weten komen. Er wordt in ict-middens altijd zwaar onder de gordel gebokst.
ARM is in 1990 opgericht door Acorn, Apple en VSLI Technologie (nu onderdeel van het Nederlandse NXP). Fastforward, sinds 2016 is Softbank eigenaar van ARM en die willen het verkopen aan Nvidia. Marktautoriteiten over de wereld moeten hier goedkeuring op geven. Apple maakt heden ten dagen alleen nog gebruik van de ARM instructieset, maar niet van de ARM referentiearchitectuur voor de chips. Zullen best nog wel geld voor gebruik bepaalde patenten betalen. De M1 is een SOC (system on chip) en is een CPU met ARM instructies + GPU + memory controller +security laag + thunderbolt +AI cores + .. + .. kortom veel meer.

Dat het niet meer botert tussen Nvidia en ARM heeft eerder een andere reden dat afspraken niet nagekomen zijn in het verleden.

Op dit item kan niet meer gereageerd worden.