Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD heeft Radeon Instinct-accelerator met 7nm-gpu werkend in lab

AMD heeft een Radeon Instinct-accelerator met een gpu die op 7nm is gemaakt door TSMC werkend in zijn lab. Het bedrijf zegt op schema te liggen met de plannen om Instinct-accelerators gemaakt op 7nm dit jaar aan klanten te kunnen leveren.

Radeon Instinct-accelerator

AMD noemt de Radeon Instinct-kaart met 7nm-gpu in de bespreking van zijn kwartaalcijfers en meldt het nieuwsfeit ook kort in een tweet. Specifieke details over de Radeon Instinct-accelerator met 7nm-gpu maakt AMD verder niet bekend. Het bedrijf geeft alleen aan dat het een werkend exemplaar heeft in zijn lab. De Instinct-kaarten zijn geoptimaliseerd voor machine learning, maar gebruiken dezelfde gpu's als de Radeon RX-videokaarten voor gamers.

Waarschijnlijk is de 7nm-gpu een Navi-gpu, dat is de opvolger van Vega. Er gingen vorig jaar al geruchten dat AMD rond augustus 2018 een kaart met Navi-gpu op 7nm zou aankondigen. De gpu op de kaart in het lab is gemaakt op het 7nm-procedť van TSMC, bevestigt AMD-ceo Lisa Su bij de bespreking van de kwartaalcijfers. Su zegt dat AMD de eerste generatie 7nm-producten zowel bij TSMC als GlobalFoundries zal laten maken.

Chipfabrikant TSMC maakte eerder deze week bekend dat het de massaproductie van 7nm-chips is begonnen. Daarbij gaf het ook aan dat onder de tape-outs gpu's zijn. Naast AMD laat ook Nvidia gpu's bij TSMC maken.

Verder zegt Lisa Su dat AMD later dit jaar begint met het sturen van samples van op Zen 2-gebaseerde processors naar klanten. Dat zijn nieuwe Ryzen-processors die ook op het 7nm-procedť worden gemaakt. Processors op basis van de Zen 2-architectuur gaan in 2019 in productie.

AMD behaalde goede financiŽle cijfers in het afgelopen kwartaal. De omzet kwam uit op 1,65 miljard dollar, 40 procent meer dan een jaar geleden. Onder aan de streep bleef er 81 miljoen dollar winst over. In hetzelfde kwartaal een jaar geleden maakte AMD nog 17 miljoen dollar verlies.

Door Julian Huijbregts

Nieuwsredacteur

26-04-2018 • 14:07

57 Linkedin Google+

Submitter: BiG_ChilD

Reacties (57)

Wijzig sortering
AMD maakt tegenwoordig GPU's die goed kunnen concurreren met de mid-range van Nvidia en hun Ryzen-CPU's komen goed mee met de Intel-CPU's terwijl je er minder geld voor kwijt bent. Concurreren met twee grootmachten met een fractie van hun budgetten. Best een prestatie als je 't mij vraagt. Goed om te zien dat ze weer gezonde cijfers hebben. Een GPU- of CPU-markt gedomineerd door een enkel merk is voor niemand goed.

[Reactie gewijzigd door SomerenV op 26 april 2018 14:12]

Op GPU vlak is dit altijd zo geweest, met als kanttekening dat tot een paar jaar terug Ati/AMD ook in de high end markt de concurrentie met nvidia prima aankon, wat dat betreft is AMD wel echt aan het wegzakken aan de bovenkant.

Jammer inderdaad, want voor de consument is hevige concurrentie beter, en persoonlijk overweeg ik vanwege al die GPP bullshit ook de overstap naar AMD bij een volgende GPU aankoop
Nog een kanttekening is dat zowel Nvidia als Intel er monopolistische praktijken op na houden om AMD te beperken in haar slagkracht. Zo waren (en mogelijk nog zijn ze dat nog steeds) sommige compilers beter geconfigureerd voor Intel processoren. En met PhysX van Nvidia stopten sommige games met physics rendering op AMD gpu's. Op die manier kan AMD zelfs met dezelfde rauwe kracht niet dezelfde prestaties leveren.
Maar physics vs physx kwam doordat physx enkel via CUDA werkte en dat dat vele malen efficiŽnter was toch?

En compilers beter geconfigureerd voor Intel... Tja. Wat is het marktaandeel van Intel tov amd? Waarom extra tijd verspillen aan 1/5 van de markt. Of, waarom zou intel verplicht moeten worden amd CPUs op dezelfde manier te behandelen als hun eigen hardware? Wat belet AMD om dit zelf te doen?
PhysX was juist heel inefficiŽnt geprogrammeerd en draaide op hele oude instructie sets.
PhysX als je alle instructie mogelijkheden gebruikt van CPU's zou hij hier beter op lopen van op Nvidia GPU's.

En het Intel verhaal is nogal competitievervalsing, als je in je compiler hebt staan een vendor check voordat je gaat kijken wel instructie set het best te gebruiken is ben je bewust dingen aan het vetragen. Om vervolgens te roepen wij zijn beter is niet goed voor de consument.
Dat bullshit verhaal weer over de Intel compiler.

Elke CPU architectuur heeft variatie in de hoeveelheid cycles die elke instructie kost. Dat is doorgaans een dalende lijn, maar soms worden sommige instructies langzamer (in cycles) om daardor een hogere clock te kunnen realiseren.

De Intel compiler had en heeft hele tabellen met voor elke Intel architectuur de exacte doorlooptijd. Daardoor kan die compiler elke functie op meerdere manieren compileren, en voorspellen welke methode het snelste is op welke architectuur. Die keuze kan vervolgens met een run-time check worden gemaakt, als de compiler alle varianten in de executable meeneemt. En uiteraard, je moet opletten dat je geen AVX instructies gebruikt op pre-AVX processoren. Maar zelfs zoiets doms als een multiply varieert in snelheid.

De Intel compiler heeft die tabellen simpelweg niet voor AMD architecturen. Dat is dus niet "bewuwst vertragen", je claim suggereert dat Intel actief AMD tegenwerkte. Het was dus passief, Intel deed niet de moeite om AMD chips te profilen om die tabellen te produceren.
Prima dat niet de 100% meest optimale gebruikt word, daar zul je mij ook niet over horen.

Maar met het cpuid commando kan prima worden gezien dat een cpu sse, sse2, sse3, enz aankan.
Wanneer de intel compiler dan op een AMD systeem ipv sse2 of hoger "plotsling" terugvalt op de FPU (x87) instructies is toch wel van een andere orde.
Het is een compleet correcte conclusie dat op AMD SSE2 sneller is dan x87 FP math.. Dat weet jij, dat week ik, maar dat weet een Intel compiler niet. Als die informatie simpelweg niet in de compiler zit, dan is er geen enkele reden voor die compiler om een SSE2 functie aan te roepen. Compilers doen alleen wat je ze verteld hebt, en Intel had de compiler actief moeten vertellen dat AMD's SSE2 sneller is dan AMD's x87, en beschikbaar vanaf de Athlon "Dublin" modellen.
En weer Intel-verdediging die de helft van het verhaal weglaat. Ja, het is volledig redelijk dat de INTEL compiler niet model-specifieke optimalisaties op AMD cpus levert.

De helft die je weglaat echter is als volgt:
  • De Intel compiler boekt veruit de beste resultaten op Intel CPUs. Tenzij je doelpubliek dus specifiek AMD gebruikers zijn, wil je die gebruiken, dat is een rechtstreeks gevolg van Intels dominantie.
  • De Intel compiler kijkt niet naar featureflags ij zijn keuze om bepaalde instrcuties wel/niet te gebruiken, hij kijkt enkel naar de vendorstring en het modelnummer. In plaats van dus te kijken "kan deze CPU SSE3 gebruiken? want dan kan ik de code lekker snel maken met SSE3!", zegt de compiler "is het een Intel CPU vanaf generatie X? zo neen, dan gebruik ik die instructies die al bestaan sinds de Pentium 4 niet!".
Dat maakt de Intel compiler wel degelijk een stuk kanker dat doelbewust alles dat niet Intel is stront-traag maakt. En vooral door de marktdominantie van Intel, wat devs ertoe beweegt om de intel compiler te gebruiken, is dit de zoveelste anti-competitieve actie van intel.

[Reactie gewijzigd door kiang op 30 april 2018 09:38]

Dat deel van het verhaal laat ik helemaal niet weg. Jij kijkt naar de gegenereerde executable (resultaat), ik kijk hoe naar de compiler om te begrijpen hoe dat resultaat tot stand is gekomen.

En jouw analyse is nogal naief. Jij vat snelheid samen als "SSE3 is lekker snel", maar wat als het resultaat vanuit een SSE register naar een gewonn register moet voor de volgende instructie? Misschien is het dan beter om die berekening marginaal langzamer te doen zonder SSE, zodat je die data move vervolgens kwijt bent. Intel weet exact hoeveel klokcycli een SSE-to-GP move kost op elke Intel CPU, maar nogmaals: ze hebben geen vergelijkbare tabellen voor AMD. Sterker nog, de structuur van zo'n tabel is al Intel-specifiek. Een goed voorbeeld was de aliasing van MMX en SSE registers, wat op AMD en Intel anders werkte.
Sorry, maar dat is een flutexcuus. De GCC compiler kan zonder die model-specifieke tabellen wel snelle generieke code produceren die wel gebruik maakt van moderne instructiesets, gebaseerd op de featureflags. Dat de Intel compiler dit niet doet is niet omdat het niet kan, of zelfs maar moeilijk is, maar simpelweg omdat Intel zijn AMD wil saboteren.
Je denkt dat de GCC compiler die per-CPU tabellen niet heeft? Kijk eens naar de verzameling `-mtune=` architectuur-opties van GCC. Dat is niet op basis van feature-flags. En net zoals Intel heeft GCC sinds GCC^de "multi-versioning" optie. Het grote verschil is dat je "-mtune=znver1" mee kunt geven voor Ryzen.

Daarom kan de GCC compiler dus snelle code genereren voor AMD; die kennis is er gewoon.
Is dat zo? Ik heb eigenlijk altijd meegekregen dat het eigenlijk kwam doordat physx vanwege nvidia voor CUDA geoptimaliseerd was.

En misschien zou physx beter werken op jouw manier. Maar hoeveel meer zou het kosten om dat zo werkend te krijgen vs de huidige implementatie?

Dat physx voor nvidia het overnam op een andere manier werkte is natuurlijk niet echt relevant. AMD, of ATI destijds had dat ook kunnen doen.

[Reactie gewijzigd door Ricolientje op 26 april 2018 15:47]

Voordat Nvidia het overnam werkte het ook gewoon met AMD, maar Nvidia heeft er een vendorlock op gezet, zodat het alleen nog maar door Nvidia hardware gebruikt kon worden. *Als ik mij goed kan herinneren.
Altijd gedacht dat dat kwam omdat het na de overname enkel op CUDA werkte. Maar CUDA is al een ding sinds 2006 oid en nvidia nam in 2008 of 2009 pas physx over geloof ik.

Werkte het voorheen ook op bv een GeForce 7600 en na de overname en switch nog steeds dan hebben ze ati waarschijnlijk gewoon buitenspel gezet. Maar als ook de 7000 serie niet meer werkte lijkt het toch op een CUDA dingetje.
Dat AMD hetzelfde had kunnen doen is toch geen argument. Punt is dat die move als onwenselijk gezien wordt, niet dat een ander het ook had kunnen doen.

[Reactie gewijzigd door watercoolertje op 26 april 2018 16:10]

Onwenselijk, hoe? Nvidia is gewoon een bedrijf dat winst wil maken. Een concurrent sponsoren is niet iets wat als wenselijk gezien wordt in het bedrijfsleven.

AMD/ATI is in dat opzicht echt niet anders.
PhysX was geen open standaard, dus AMD kon er niets mee. Daarnaast bestond PhysX voordat Nvida het over kocht. Daarna verscheen PhysX zelfs op kaarten van Nvidia die al ruim voor de overname op de markt waren. Nvidia heeft PhysX om zeep geholpen, en niet anders.
Nvidia heeft physx om zeep geholpen?

Het bestaat anders nog steeds toch?
Kijk eens naar de lijst van games die PhysX ondersteunen: https://en.wikipedia.org/...accelerated_PhysX_support

Maar een handje vol titels elk jaar ondersteunen het. Dus lijkt mij redelijk dood.
Probeer eens een Android emulator onder Windows - deze heeft enkel hardware acceleratie als je een Intel CPU gebruikt bijvoorbeeld.

Dit maakt het praktisch onmogelijk om Android apps te ontwikkelen op een AMD systeem.
Ze gebruiken nu hun budgetten effectiever in het budget- en midrange-segment. Opboksen tegen de high-end van Nvidia kost waarschijnlijk een stuk meer dan dat het ze opbrengt. Je bent dan flink wat meer kwijt aan R&D voor een paar procent meer prestatie. Daarbij kun je met een kaart van 200/300 euro prima gamen op 1080p. Zelfs 4K is nog enigszins mogelijk met een kaart van 300 euro (moet je alleen geen wonderen verwachten).
Tja, maar het zijn juist die wonderen die de 4K gamer wil.

Ik denk niet dat de purist nou zo graag de beste graphics wil, maar gewoon zonder stotteren op 60fps+ kan spelen. Maar dat is dus zo'n wonder. Met een top of the line Nvidiakaart heb je met wat graphics niet geheel op ultra wel een probleemloze spelbeleving, waar je met de midrange mogelijk wel de resolutie haalt, maar je er ook gratis framedrops bij krijgt.

Als je dus zeker van je zaak wilt zijn moet je ůf je verwachtingspatroon naar beneden bijstellen of de portemonnee trekken.

Premium mag gewoon een prijs hebben. Als je dan ook geen concurrentie hebt dan is het makkelijk cashen.

offtopic:
Apple en Samsung zijn wat dat betreft wel een beetje de nvidia's van deze wereld, ik had van mijn samsung galaxy S series allang willen afstappen als er goedkopere alternatieven zijn, maar sinds de S2 niet gevonden..

En ja, ze zijn er wel, maar wanneer is een alternatief een alternatief als de schermkwaliteit niet on-par is? Als het scherm wel de zelfde of betere kwaliteit heeft, maar er minder opslag of uitbreidingsmogelijkheden zijn (extra simkaart, sd-kaart uitbreiding, wel/geen audio jack). Wel een snellere CPU en meer RAM, maar dan weer een kleiner scherm.
Ik zoek dan ook niet zoveel, maar als... dan kom ik toch altijd weer uit bij de Samsung. En ja, dan betaal je 900+ euro voor 'the best they have to offer'. Een 'identiek' toestel is niet te vinden voor een paar honderd euro minder.
Weet je hoeveel spelers er op 4K spelen? Zoveel zijn er dat nog niet, zeker ook gezien dat de investering daarin heel hoog is; niet alleen een grafische kaart a raison de § 600,-- minimaal, maar ook een schermpje wat het deftig moet kunnen verwerken (dus liefst een 100hz), en dan ben je nog eens § 2.500,-- kwijt. Plus natuurlijk de rest van het systeem, wat echt geen Ryzen 3 of Pentium zal zijn, maar iets met een 7 in de serie, met een deftig mobo'tje er onder, genoeg geheugen wat snel genoeg is, enzovoorts enzoverder.

Nee, dan ben je er niet met een rug zonder de monitor, een bedrag wat je anders een leuk systeempje geeft.

Vergelijk het maar met een top tier telefoon of high end luxe auto; niet iedereen kan er een betalen, dus er is een hele grote markt voor andere dingen, dus daarom is de tactiek van AMD nog eens niet zo gek bekeken door zich meer op het middensegment te richten. Daar gaat nog altijd het meeste geld in om.
R9 290 met 4k LG scherm (met freesync) en ouder model 8 core AMD CPU.

Werkt top op mid/high settings en ziet er dan ook heel goed uit door de hoge resolutie. Minder AA nodig etc. Als een spel echt te zwaar wordt schakel ik over op fullhd, liefst door interne render schaal aan te passen zodat de interface op 4k blijft.
En ziet dat er dan even scherp uit op Full HD als een native Full HD scherm?
Het ziet er prima uit! Veel games kunnen dit ook automatisch, waardoor een snelle scene in iets lagere resolutie worden gerenderd en langzamere scenes in hogere resolutie, zo heb je geen framedrops. De lagere resolutie wordt opgeschaald. Eigenlijk precies zoals de consoles doen :Y
Mijn reactie was gericht op de 'budget' midrange kaarten en het statement dat je voor 300 euro ook wel op 4K kunt gamen met concessies.

Dat je wel een paar centen moet meebrengen als je er echt van wilt genieten mag duidelijk zijn. Maar voor minder dan 300 euro heb je ook wel een 4K scherm. En als je dan toch al een GPU van 300 euro koopt hoef je ook geen '2,5k' te steken in een goede monitor.
Ik geef toe dat ik beetje chargeerde met de prijzen, maar voor topkwaliteit heb je het wel over die bedragen.

Maar hoe dan ook; het gros van de mensen speelt op 1080, en zal dat nog wel even doen, en dat is de markt waar AMD zich op richt.
Ik denk dat de reden dat ze niet meer mee doen in het hoge segment is omdat ze er simpelweg het budget er niet voor hebben.

Sinds de 600-700 series is het zo dat Nvidia hun "mid-range gpu's" als high end verkoopt, de 1080 is bijvoorbeeld lang niet de sterkste Gpu die Pascal heeft, en toch heeft de Vega 64 moeite om deze GPU bij te benen, terwijl Nvidia ook nog eens de titan en de 1080 Ti heeft. Telkens als AMD weer een snellere kaart uitbrengt, heeft nvidia weer eentje liggen die dan toch beter is. Ik zie het graag anders, maar dat zit er voorlopig niet in helaas.

[Reactie gewijzigd door Derpotron op 26 april 2018 17:28]

Laatst een stukje gelezen over de nieuwste Ryzen generatie maar ik was inderdaad verbaasd hoe goed AMD het doet qua specs en zeker als je naar de prijs kijkt.

Ik was intussen al aardig Intel only minded geworden terwijl ik in het Athlon/Duron tijdperk helemaal AMD was, maar het tij zo wel eens kunnen keren :)
GTX 1080>Vega 64 gelijke performance
GTX 1070>Vega 56 gelijke performance

AMD maakt alleen geen dure enthousiast GPU's waar van de performance ver boven een paar procent liggen.
Edit: Klopte niet

[Reactie gewijzigd door dikki dik op 27 april 2018 11:59]

AMD maakt tegenwoordig GPU's die goed kunnen concurreren met de mid-range van Nvidia en hun Ryzen-CPU's komen goed mee met de Intel-CPU's terwijl je er minder geld voor kwijt bent. Concurreren met twee grootmachten met een fractie van hun budgetten. Best een prestatie als je 't mij vraagt. Goed om te zien dat ze weer gezonde cijfers hebben. Een GPU- of CPU-markt gedomineerd door een enkel merk is voor niemand goed.
Ja ze concurreren goed met mid-range grafische kaarten, maar hun high end grafische kaarten zo als de Radeon RX Vega 64 zijn VEELTE duur, een Geforce GTX 1080 is +/- gelijk aan de Radeon RX Vega 64, maar een een Geforce GTX 1080 heb je al voor §569,- maar de goedkoopste Radeon RX Vega 64 kost je §729,- dat is §160,- duurder, dat is een grote verschil.
Dat prijzen verhaal is bs aangezien geen enkele prijs nu klopt en dik overdreven is door de mining hype...
Nou dat is totale onzin, de GeForce GTX 1080 zijn nu zo goed als bijna de prijs wat ze waren voordat ze absurd duur werden door mining, en dan nog is het geen bs, aangezien de GeForce GTX 1080 §160,- goedkoper is, en dan ben je stom om nu de Radeon RX Vega 56/64 te kopen.

De goedkoopste Geforce GTX 1080 kost nu al §549,-

[Reactie gewijzigd door AmigaWolf op 27 april 2018 15:04]

Ja dus je beweerd dat de Amd kaarten nu op hun nornale prijs zitten? Das pas onzin
Nee, ik zeg dat je nu het beste een Nvidia kaart kan kopen als je een sneller grafische kaart wil hebben.
Het beste kan je nu geen kaart kopen en mooi wachten op de 1/2*** serie, en dan de nieuwe kopen of een stuk goedkoper een vd huidige halen ;)
In mijn mening krijg je gewoon waar je voor betaald. Je betaald iets minder en ze zijn dan ook iers minder voor gamen.
Voor overige dinfen zijn ze so s sneller en dat betaal he via de stroomrekening zeker bij de videokaarten aangezien de vega gewoon het dubbele van mijn 1070oc gebruikt!

Zelf hou ik nog altijd vast aan mijn prestatie per core adviesals het om de cpu gaat.
Iets langer wachten op een render is nog altijd veel minder erg dan tot 40% fps mislopen.zeker als het om toekomstbestendigheid van een systeem gaat.
Als een onderdeel 20% duurder is bij aanschaf en dat gedeeltelijk of helemaal terug verdient word door stroomverbruik over 4 a 5 jaar en vervolgens ook nog eens betere fps haald en dus langer mee zal gaan wat minder snel een nieuwe aanschaf betekend is dit dus goedkoper.
Ik denk dat de tijd die het kost om te renderen van een gemiddelde modeler en die dan op zijn gat zit meer kost dan die 10% fps die jij mist als consument.
Stroomverbruik van Ryzen is prima, daar ga je niks op winnen. De kosten van stroom gebruik is ook niks vergeleken met een werknemer die niks doet.
Ik denk dat daar waar het geld kost er gewoon een flink ysteem staat geen huis tuin en keuken computer.
Er zijn specifieke systemen voor die vele malen sneller zijn als een cpu voor thuis.
Al deze gardware is niet echt interesant voor bedrijven aangezien er betere opties zijn als tijd geld is.
Je slaat wel aardig de plank mis met je 40%. Het scheelt vaak 1 a 2 fps.. In de nieuwe AMD generatie zou dit nog wel eens andersom kunnen zijn.

Verder heb je misschien het nieuws niet heel erg gevolgd of sta je niet open voor het idee dat een andere fabrikant dan Intel sneller zou kunnen zijn. Maar dat kan zeker wel.

Wie nu precies waar het snelste in is, weet ik zelf ook niet precies. Veel reviews gelezen, maar het lijkt redelijk gelijk op te lopen. Soms in voordeel Intel soms in voordeel AMD.

Intel is nu echter wel een paar keer beschuldigd/veroordeeld? van concurrentie vervalsing, Dat heeft wel invloed op waar mijn voorkeur ligt. Maar ook ik kijk nu weer naar iets nieuws uit, ik heb momenteel nog een oude i5. Ik denk dat het volgende iets in de Zen2 wordt, maar daar ben ik nog niet over uit.
Waarom als het zo weinig games zijn.

Nvidia staat er bekend om dat ze zo nauw mogelijk betrokken raken bij de ontwikkeling van games. Daarbij optimaliseren ze de data voor hun chips.

Echter maakt AMD weer een inhaalslag dankzij de spelconsoles. 4K is in opkomst en game-ontwikkelaars moeten mee. Optimaliseren zal in eerste instantie voor de functies van AMD zijn, en Nvidia mag deze niet aansluiten, maar aansluiting zoeken.
Het zal maar net de game zijn waar je al een jaar op wacht die get door je cpu ineens belabberd doet.
Dat risico wil ik gewoon niet lopen.

4k kan het hele verhaal wel eens gaan veranderen omdat je dan sneller tegen een gpu cap aan loopt dan tegen een cpu cap maarja daar zijn we nog niet. Serieus 4k gamen zal nog wel minimaal 3 jaar op zich laten wachten voordat dat met 1 kaart kan.
De overstap naar 8gb video ram heeft veholpen maar 16gb lijkt een volgende nodige stap te zijn aangezien de nieuwe games met 4k textures deze 8gb rap volproppen.
Ik ben nu met FFXV bezig en die game slurpt echt geheugen. De volledige 8gb van de gpu 16 gb van pc en ook nog eens 16 gb pagefile!
Het grheugen swappen veroorzaakt dus ook merkbaar fps spikes.

We gaan dus wel zien waar het heen gaat maar vooralsnog plan ik op wat we weten en niet op wat er mogelijk wel of niet komt.
Hoe de piep kun je politieke ideologieŽn koppelen aan monopolistische hardware verkoop praktijken.
Teleurstellend en ongepast.
Anderzijds hadden we "zionistische Khazari Nvidia" nog nooit gehoord. En ik sta altijd open voor nieuwe woordencombinaties, ook al is het je reinste onzin.
Ik verontschuldig mij als blijkt dat het de nieuwe "zionistische Khazari"architectuur is :+
Een logische opvolger voor "Volta".
Mooi om te zien dat AMD weer winst draait. Ook al is het maar een beetje, maar het gaat de goeie kant op!
Zeker, goed nieuws.
Je moet er niet aan denken dat ze failliet gaan en er eigenlijk maar 1 serieuze partij overblijft.
Als er 1 partij over zou blijven, dan zijn wij als consument genaaid. Maar met een beetje geluk Intel ook.
ik teken voor 81 miljoen hoor O-)
Betekend weer goeie business voor TSMC :*)

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True