Foto's tonen mogelijke Intel Arc Alchemist-videokaart voor desktops

Er zijn foto's verschenen van een mogelijke Intel Arc Alchemist-desktopvideokaart. De afbeeldingen tonen het ontwerp van een Intel-referentiekaart met DG2-512EU-gpu. De eerste Arc-gpu's staan op de roadmap voor de eerste helft van 2022.

Foto's van de Arc Alchemist-referentiekaart zijn gedeeld door YouTube-kanaal Moore's Law is Dead. De foto's tonen een videokaart met een zilverkleurige koeler en twee fans. Het zou gaan om een videokaart met DG2-512EU-gpu, die zoals de naam doet vermoeden beschikt over 512 execution units. Dat zou het hoogst gepositioneerde model worden in Intels Arc Alchemist-line-up, blijkt uit eerdere uitgelekte informatie.

Intel Arc Alchemist DG2-512EU-foto's via Moore's Law is DeadIntel Arc Alchemist DG2-512EU-foto's via Moore's Law is Dead

Foto's van een Intel Arc Alchemist-referentiekaart met 512 eu's. Bron: Moore's Law is Dead

Uit de afbeeldingen blijkt dat de videokaart een 8-pins- en een 6-pinsaansluiting heeft voor stroomvoorziening. Volgens eerdere leaks beschikken de DG2-512EU-modellen over 4096 shading units en maximaal 16GB GDDR6 met een 256bit-geheugenbus. Een uitgelekte slide stelde daarnaast dat de videokaart moet concurreren met AMD Radeon RX 6700 XT en de GeForce RTX 3070 van Nvidia. De videokaart zou volgens diezelfde slide een tdp van 225W krijgen.

Moore's Law is Dead deelde eerder dit jaar al foto's van een engineering sample van een Intel DG2-512EU-gpu, schrijft VideoCardz. Hij toonde ook eerder al renders van een DG2-512EU-referentiekaart, die vrijwel exact hetzelfde ontwerp toonde als de Arc Alchemist-videokaarten in de recent gepubliceerde foto's.

De YouTuber publiceerde deze week ook renders van een Intel-desktopvideokaart met DG2-128EU-gpu. Dat wordt naar verwachting het laagst gepositioneerde model in Intels Arc Alchemist-serie. Dit model zou 1024 shading units krijgen met 4 of 8GB GDDR6-vram op een 64bit-geheugenbus. De videokaart krijgt volgens Moore's Law is Dead geen 6-pinsaansluiting voor stroomvoorziening, wat zou betekenen dat de videokaart minder dan 75W verbruikt.

Intel introduceert zijn eerste Arc Alchemist-videokaarten in het eerste kwartaal van 2022, maar volgens VideoCardz betreffen dat mogelijk alleen laptopvarianten. Desktopmodellen volgen naar verwachting een kwartaal later. Intel heeft eerder bevestigd dat zijn Arc Alchemist-gpu's op 6nm geproduceerd worden door TSMC.

Intel Arc Alchemist DG2-128EU-renders via Moore's Law is DeadIntel Arc Alchemist DG2-128EU-renders via Moore's Law is DeadIntel Arc Alchemist DG2-128EU-renders via Moore's Law is DeadIntel Arc Alchemist DG2-128EU-renders via Moore's Law is Dead

Renders van een Intel Arc Alchemist-referentiekaart met 128 eu's. Bron: Moore's Law is Dead

Door Daan van Monsjou

Nieuwsredacteur

30-10-2021 • 15:03

102

Lees meer

Reacties (102)

102
98
35
5
0
31
Wijzig sortering
Weer zo'n lawaaibeest met fans. Waar blijven de desktop videokaarten zonder ongewenste 3D-meuk, maar mét hardware video decoding en 4K+ resoluties? Daar moet toch een grote markt voor zijn?
  • Een grafische kaart, ook wel 3D kaart genoemd, heeft processoren erop zitten die speciaal gemaakt zijn om 3D berekeningen zo snel mogelijk te kunnen doen. Dat ze toevallig ook goed zijn in hardware video encoding/decoding is een bijeffect. Zonder de 'ongewenste 3D meuk' heb je ook geen video decoding of encoding; dus de '3D meuk' is de main selling point.
  • De meeste CPU's hebben geïntegreerde GPU's die allang voldoen voor de lage eisen die jij in jouw bericht stelt. Dus nee; er is geen markt voor slome GPU's die alleen video encoding/decoding doen.

[Reactie gewijzigd door MaestroMaus op 3 augustus 2024 01:55]

Niet helemaal mee eens, dat er geen markt is. Als je een zeer krachtige AMD CPU hebt, heb je geen geïntegreerde GPU. Je hebt sinds niet zo lang wel 8-core APU's, maar daarboven is er niets.

Maar dat zal dan ook wel een heel beperkte markt zijn. Dat zijn dus 1) alleen AMD-gebruikers, die 2) echt een erg high end CPU willen, en 3) maar een beetje hardwarekracht nodig hebben. En eventueel kunnen die een GT 1030 kopen. Is wel aan de dure kant, voor rond de 100 euro terwijl je weinig performance krijgt. Maar als je zo'n dure CPU kan kopen kan die videokaart ook wel. Of een GT 710 of 730, die kunnen wat goedkoper, maar die zijn ook end-of-life. De 1000 series kaarten worden nog meegenomen met de drivers.
Is wel aan de dure kant, voor rond de 100 euro terwijl je weinig performance krijgt. Maar als je zo'n dure CPU kan kopen kan die videokaart ook wel.
Dat is ook alleen maar met de huidige videokaart-gekte. Doorgaans zijn kaarten in dat segment voor de helft van die prijs ook wel te krijgen.

Ik zie weinig reden voor een 5950G (en kennelijk AMD ook, anders was 'ie wel uitgebracht).
Ik heb wel eerder gekeken, een paar jaar terug dus voor de gekte, en toen waren die hele goedkope ook best aan de prijs. Ik heb eigenlijk de indruk dat bij deze budgetmodellen (tot zover ik ze dat mag noemen) weinig is veranderd.

[Reactie gewijzigd door Amanoo op 3 augustus 2024 01:55]

Klopt want het is een niche en de marge is ook nog vrij laag. Hoe uitgekleed de kaart ook is..
Nvidia werkt aan een GT1010, maar de markt voor dit soort kaarten lijkt echt heel klein. Er staan maar twee PC's in de Pricewatch met een GT1030. En dan te bedenken dat de zelfbouw markt nog een stuk kleiner is.

[Reactie gewijzigd door Wolfos op 3 augustus 2024 01:55]

Voor dat soort kaarten moet je denk ik ook niet naar de consumenten markt kijken.
3D berekeningen... leg mij uit :?
Om een wereld met 3D-modellen weer te geven moeten er een hoog volume specifieke (simpele) berekeningen gedaan worden. Hier is een CPU (processor) slecht in omdat deze gemaakt is om allerlei (meer complexe) berekeningen uit te kunnen voeren. Daarom kan je hier een hardware component voor kopen, de GPU (grafische kaart/3D kaart), welke een gespecialiseerde processor heeft voor dit werk.

Zo heeft een NVIDIA RTX 3080 (GPU) bijvoorbeeld 10240 cores en een Intel i9 (CPU) 16 cores. Het enorme verschil in het aantal cores zorgt ervoor dat de 3080 veel meer berekeningen tegelijk kan doen wat nodig is als je zeer snel een 3D wereld moet berekenen. Maar de cores in de i9 zijn veel complexere cores dan die in de 3080 waardoor deze andere typen berekeningen veel sneller uit kan voeren dan de 3080 (als deze de berekeningen al uit zou kunnen voeren).

Ik heb de uitleg zo simpel mogelijk proberen te houden. Als je een gedetailleerder antwoord wil dan adviseer ik om de vraag te Googlen of om op de Engelse Wikipediapagina voor GPU te gaan kijken.

[Reactie gewijzigd door MaestroMaus op 3 augustus 2024 01:55]

Ik deed eigenlijk een slechte poging tot sarcasme. ;) De berekeningen zijn niet 3D, maar de berekeningen betreffen 3D objecten. Toch bedankt voor de uitleg.
Dat ze toevallig ook goed zijn in hardware video encoding/decoding is een bijeffect. Zonder de 'ongewenste 3D meuk' heb je ook geen video decoding of encoding; dus de '3D meuk' is de main selling point
Dit is in algemeen gebruik niet waar. Ja, bij Adobe kan de "3D meuk gebruikt worden voor ggpu encoding.

Maar als je specifiek kijkt naar h265 encoding/decoding dan zijn het NIET de algemene 3d "processoren" die gebruikt worden. Tenminste, als je de snelste oplossing met hoge kwaliteit wil.
Dan zie je dat er specifieke hardware support voor ingebouwd word waardoor je ineens 8k h265 encoding decoding op hoge snelheid kunt doen, terwijl de 3d cores vrijwel niet gebruikt worden. (5% of zo op een 6800XT)
En dan gaat het ook nog eens vele malen sneller dan dat je ggpu encoding gebruikt. Of 16 cores van een Ryzen cpu.

Die hardware support is niet zo duur, dus je ziet dat het ook in de lagere performance 3D kaarten ingebouwd zit. De beste optie is dan de laagst gepositioneerde videokaart te kiezen die die hardware support aan boord heeft.
Bij AMD is dat de laagste van de 6000 serie: RX6600
En dan betaalt ari3 tenminste niet al te veel voor 3D units die hij toch niet gaat gebruiken
maar mét hardware video decoding en 4K+ resoluties?
Die zijn er al jaren, heet iGPU
Niet met HDMI out op 60HZ, die zijn er pas sinds dit jaar.
Dus dat mijn oude 3570K met HDMI vanaf het moederbord gewoon 1080p60 kon weergeven is iets heel exotisch? Volgens Intel zelf ondersteunde hun IGPs 1080p60 over HDMI sinds 2005 met de 945G chipset.
Je kijkt over het feit heen dat ari3 het over 4K+ heeft, wat ook in de quote van sfranken staat.
Ik reageer op jou en jij hebt het alleen over 60Hz, zonder opgave van resolutie.

Overigens is het wel een heel erg niche scenario. Iemand die wel een resolutie boven de 4K eist, maar die niet bereid is om een paar tientjes uit te geven aan een videokaart die dat ook kan uitsturen.
De meest basic 4K monitor in de pricewatch kost al 220 euro. Wil je hoger dan 4K dan beginnen de prijzen bij 937 euro.

Ik vind het moeilijk te geloven dat er iemand zou zijn die ruim 900 euro (want er wordt gesproken over 4K+) aan een monitor zou uitgeven, maar dat diegene ondertussen niet de zeg 100 euro heeft die een entry-level VGA kaart kost om zo'n scherm aan te sturen.

Het is wat mij betreft een scenario zoeken met een theoretische uitzondering, waar in de praktijk in de markt gewoon geen vraag naar is.
Een 2D-only kaart, met hardware matige acceleratie voor video codecs, die passief gekoeld is en die 4K+ resoluties kan uitsturen op tenminste 60Hz. Dat bestaat niet, heeft nooit bestaan en gaat ook niet bestaan, om de stom simpele reden dat er geen markt voor is. De bulk van de klanten bij een SI of andere OEM interesseert het geen ruk dat de IGP in hun kantoor PC 99% van de tijd niets aan het doen is.
Niet met HDMI out op 60HZ, die zijn er pas sinds dit jaar.
De ATI Radeon X1600 Pro HDMI uit 2006 was de eerste GPU met HDMI aansluiting, en die had gewoon 60 Hz ondersteuning. Elke opvolgende (integrated) GPU met HDMI ondersteuning heeft dit ook.

[Reactie gewijzigd door The Zep Man op 3 augustus 2024 01:55]

Dat is geen iGPU, 8)7 dat is wat sfranken zegt en waar ik op reageer....
Dat maakt niet uit. Elke nieuwere generatie na die kaart (ook uit de stallen van Intel en Nvidia) heeft 60 Hz ondersteuning. Daar vallen geïntegreerde GPU's ook onder.

Met andere woorden, al 15 jaar is het mogelijk om met een PC een HDMI uitgang te hebben met 60 Hz ondersteuning.
Niet met HDMI out op 60HZ, die zijn er pas sinds dit jaar.
Dit is dus onwaar.

[Reactie gewijzigd door The Zep Man op 3 augustus 2024 01:55]

Dat een kaart 4K@60 HZ ondersteund betekend niet dat dit op HDMI is, dit is meestal alleen op DP, dat maakt voor mij wel uit, want ik heb dit jaar gezocht op een iGPU die ik kan gebruiken om mijn nieuwe 4K TV via HDMI op 60 HZ kan aansturen. Volgens mij is dat pas mogelijk sinds HDMI 2.0 die specificatie is van 2013, dus een kaart uit 2005 kan dat nooit ondersteund hebben.

edit 4K toegevoegd

[Reactie gewijzigd door Eldee op 3 augustus 2024 01:55]

Dat een kaart 60 HZ ondersteund betekend niet dat dit op HDMI is,
Ik kan je garanderen dat elke kaart met HDMI 60 Hz ondersteuning heeft.
want ik heb dit jaar gezocht op een iGPU die ik kan gebruiken om mijn nieuwe 4K TV via HDMI op 60 HZ kan aansturen. Volgens mij is dat pas mogelijk sinds HDMI 2.0 die specificatie is van 2017, dus een kaart uit 2005 kan dat nooit ondersteund hebben.
Je kan prima een 60 Hz signaal naar je 4K TV sturen met een videokaart van 15 jaar oud. Dat dat niet kan op 2160p is geen onderdeel van jouw stelling. 1080p zal echter wel mogelijk zijn. Dat is ook nog eens pixel perfect (als je TV er goed mee omgaat).
edit 4K toegevoegd
Ah, nu ga je het doel verplaatsen.

[Reactie gewijzigd door The Zep Man op 3 augustus 2024 01:55]

Volgens mij niet volgens jou wel, ik hou er mee op

https://en.wikipedia.org/wiki/HDMI#Version_2.1

HDMI 1.4 added support for 4096 × 2160 at 24 Hz, 3840 × 2160 at 24, 25, and 30 Hz, and 1920 × 1080 at 120 Hz.

This enables HDMI 2.0 to carry 4K video at 60 Hz with 24 bit/px color depth

[Reactie gewijzigd door Eldee op 3 augustus 2024 01:55]

Nee, dat heeft de vraagsteller waar ik op reageer ook al gezegd (maar ben jij bliijkbaar vergeten):
... maar mét hardware video decoding en 4K+ resoluties? ...
Ik wil net als de vraagsteller ook een passieve oplossing die 4K@60Hz of hoger (mijn TV kan 120HZ aan) op HDMI kan aansturen, En dat kunnen iGPU's pas sinds dit jaar.
Of dat een kaart met 3D GPU is of niet waar de vraagsteller over klaagt maakt mij persoonlijk niet uit

[Reactie gewijzigd door Eldee op 3 augustus 2024 01:55]

Niet met HDMI out op 60HZ, die zijn er pas sinds dit jaar.
[...]


Nee, dat heeft de vraagsteller waar ik op reageer ook al gezegd (maar ben jij bliijkbaar vergeten):

[...]
... Stond alleen 60Hz....
Ik ga voor jullie niet alles herhalen, je moet wel bijhouden waar je op reageert. Hij vergeet ook al dat het om een passieve videokaart gaat, Als hij zo graag z'n gelijk wil halen moet hij beter lezen en onthouden.

[Reactie gewijzigd door Eldee op 3 augustus 2024 01:55]

Dat maakt niet uit.
Dat maakt wél uit, want het ging over een iGPU.
De meeste moderne GPU's hebben semi actieve koeling. Dat wil zeggen dat de koeling pas aan gaat op het moment dat de kaart te warm word.
Mocht je alleen hele lichte taken doen dan zal je PC dus ook nauwelijks herrie maken
Nee, want een videokaart voor enkel 2D gebeuren is geen markt voor. Je geïntegreerde gpu kan dat normaal gesproken prima aan.
Wat een rare reactie is dit dan? Een GPU is allang geen simpele 3D kaart meer. Het draagt bij in vele andere functies. Maar hoezo zijn 3D functies ongewenst? Het is voor nagenoeg niemand met een computer ongewenst. Zelfs jouw mobiele telefoon heeft GPU cores op de SOC.

Maar om je gelukkig te maken. Intel gaat ook een "low end" variant uitbrengen die voornamelijk op de taken gericht is die jij wenst.

Ook Nvidia lijkt een 3050 uit te gaan brengen die met een beetje geluk passief gekoeld kan worden. Dus je wenst wordt vervuld.

Maar waarom zouden Intel, AMD of Nvidia die kaarten uitbrengen als hun duurdere producten ook direct de schappen vliegen?

Maar nogmaals, je reactie is echt raar en oogt gefrustreerd.

[Reactie gewijzigd door HandheldGaming op 3 augustus 2024 01:55]

Ik wil nog even aanvullen dat die andere functies ook vaak afhangen van 3D. Decoding misschien niet (maar zelfs dat durf ik niet zeker te zeggen). Maar juist dingen als AI zijn naar de GPU gegaan omdat al die parallelle cores voor 3D berekeningen er juist zo geschikt voor waren. Juist die 3D meuk maakt dat ze erg goed voor die andere taken zijn.
Een videokaart is al jaren niet meer specifiek toegespitst op 3D. Dat was ooit wel zo (zo uit mijn hoofd zo maar een decennium of twee geleden) maar een moderne shader is gewoon een vrij algemeen toepasbaar cluster aan parallele rekenkernen. Dat kan net zo goed voor video-decoding, crypto-mining of wetenschappelijke berekeningen worden ingezet als voor "3D-meuk".

Haal je die "3D-meuk" weg, dan blijft er dus vrij weinig over wat nog jouw video's gaat decoden.
Ook eind jaren 90 was het meer uitzondering dan regel dat een kaart alleen een 3D accelerator was. Volgens mij is dat eigenlijk iets dat alleen zo was bij de Voodoo1 en 2 series, even de Voodoo Rush (Voodoo 1 met 2D kaart in een sandwich board) en Voodoo Banshee (Voodoo 2 die ook 2D kon) daar gelaten.

Alle wat nieuwere kaarten dan dat zoals een ATi Rage of een nVidia Riva of een S3 Savage waren allemaal kaarten die gewoon 2D en 3D konden draaien zoals we dat vandaag de dag kennen.

Mijn oude 'retro' gaming PC heeft er 3 "videokaarten" in zitten. Een GeForce2 GTS met wel 32MB en 2 stuks Voodoo 2 in SLI. Die Voodoo 2 kaarten kunnen geen 2D weergeven en die waren ooit gecombineerd met een of andere S3 kaart, ik meen een S3 Trio64 als ik het mij goed herinner.
Haal je die "3D-meuk" weg, dan blijft er dus vrij weinig over wat nog jouw video's gaat decoden.
Afgezien van het niet-3D stukje hardware dat specifiek voor video encoding/decoding in de videokaart zit waardoor je de 3D meuk helemaal niet nodig hebt en ook nog veel sneller is.
Bij AMD heeft dat VCN.
https://codecalamity.com/...encoding-in-2021-vce-vcn/

Generieke encoding/decoding met de 3D compute units is achterhaald.
Misschien moet je switchen naar apple krachtige cpu en gpu en heel stil
Of je koopt gewoon een Windows pc, die zijn er net zo stil en dan ook nog eens significant goedkoper ;)
Ik betwijfel dat aangezien videokaarten onbetaalbaar zijn en ddr5 niet betaalbaar is. Dikke Game laptops zijn netzo duur als de nieuwe MacBook pros en kunnen misschien net 1-2 uur op een accu werken als je geluk hebt. mbp kunnen recortijden halen... En wegen niet een ton . Hebben niet 2 powerbriks nodig.. en je kunt ook gewoon Windows 10 er op zetten.
Apple gebruikt gewoon off-the-shelf hardware.
Die zelfde hardware kun je ook in je pc stoppen.
De hogere gepositioneerde APU'S kunnen dat toch?
Wat moet je met een losse GPU zonder 3D? Simpele integrated GPU's zijn al krachtig genoeg voor video alleen.
geen idee of je ook slechts 1 scherm kan aansluiten, maar Matrox heeft videokaarten zonder 3D meuk :)
https://www.matrox.com/en...ideo-walls/d-series/d1450
Dat is niet bepaald een koopje voor 120,07 euro
Lol @ de huidige markt idd

Ik heb vele jaren terug (10+ ofzo) een HD5450 (passief, 1 of 2GB DDR3) nieuw gekocht voor veel minder dan wat hij nu kost. :D
In dit segment is meer concurrentie beter voor de consument. Laat maar komen!
Ik ben het eens dat meer concurrentie noodzakelijk is in de GPU markt waar je maar twee grote spelers hebt momenteel. Maar als ik kijk naar wat Intel de laatste jaren in de CPU sector laten zien heeft, dan moet ik zeggen dat ze hoogstwaarschijnlijk weinig concurrentie zullen leveren voor AMD en Nvidia.

We zijn 2021, maar de CPU architectuur die Intel momenteel gebruikt is nog steeds gebaseerd op de Nehalem generatie uit 2008. (https://www.techpowerup.c...y%20as%20its%20new%20CEO.) The original "Nehalem" CPU microarchitecture from 2008 was pivotal to Intel, as it laid the foundation for Intel's mainline server and client x86 processors for the following 12-odd years. En Intel gaat blijkbaar pas terug innoveren rond 2025: https://www.theverge.com/...e-roadmap-naming-7nm-2025

Intel heeft nu wel het geluk dat er momenteel een chip tekort is, zodanig dat ze hun productie makkelijker kwijt kunnen. Maar zonder chip tekorten had Intel waarschijnlijk heel veel marktaandeel verloren. Wat ik me persoonlijk afvraag is wat Nvidia met ARM van plan is. Gaan ze ARM competitief gebruiken om de processormarkt en grafische markt te domineren en gigantische innovaties te maken? Of hebben ze ARM enkel opgekocht om geen echte concurrentie te hebben? (zodat hun positie niet in gevaar kan komen en de CPU en GPU markt niet gedwongen worden om sterk te innoveren)

Verder is er op gebied van efficiëntie nog een laatste vraag die misschien belangrijker is dan wat Intel, AMD en Nvidia momenteel doen. Volgend jaar komen 3nm nodes en rond 2025 of 2026 gaan we waarschijnlijk 1nm nodes hebben. Maar ik heb mijn vragen of deze 3nm, 2nm en 1nm nodes even duurzaam en kwalitatief gaan zijn als de huidige nodes. Want je zit dan met heel veel problemen zoals quantum tunnelling en enkele andere problemen.

1 nanometer is meestal 2 tot 5 'silicon atomen'. Dus je kunt niet veel kleiner gaan. De transistor industrie zit hierdoor over enkele jaren bijna volledig vast. En dat is een probleem als je weet hoe snel de IT en AI sector groeit. We kunnen om deze redenen concluderen dat Intel, AMD en Nvidia al jaren zitten verder te boorduren in een doodlopend straatje. En dit is blijkbaar al decennialang geweten dat men al de biljoenen investeringen die in transistors decennialang gestoken zijn tijd en geld verspilling zijn geweest omdat lichtcomputers waarschijnlijk superieur en noodzakelijk zullen zijn: https://www.heise.de/hint...chnen-laesst-6165686.html

[Reactie gewijzigd door FateTrap op 3 augustus 2024 01:55]

..... Wat staan hier een gigantische hoop aannames in.

GPU divisie zegt niks over de CPU divisie, kijk maar naar AMD. Daar heeft de GPU divisie de CPU divisie jaren levend gehouden totdat Ryzen opstoom kwam. Intel heeft die geld problemen absoluut niet, AMD was bijna failliet.

Je weet ook toch dat die "nm" geen echte nanometers zijn? De "7nm" transistor van AMD is bijna net zo groot als de "14nm" transistor, het is een naam geen waarde.

Ook wordt t elk jaar weer gezegd dat over 5 jaar de transistor industrie volledig vast zit, dat dachten ze in 1990 ook.

Ook is je ARM filosofie erg bijzonder om het minst te zeggen en onzin. ARM verkoopt licenties op designs (onder andere), Apple gebruikt die designs geeneens en hangt niet meer van ARM af. Het enige wat Apple van ARM gebruikt is de instructieset, ze designed hun eigen alles.

Zo kan je nog wel even doorgaan over alles wat je hebt getypt.
De "7nm" transistor van AMD is bijna net zo groot als de "14nm" transistor, het is een naam geen waarde.
Hij is gelijk aan intel's 10nm transistors. intel's 14nm is beduidend groter met ongeveer 35 miljoen transistors per mm2 terwijl TSMC's (AMD) 7nm er 96.5 miljoen heeft en intels 10nm 100.76.
Ook wordt t elk jaar weer gezegd dat over 5 jaar de transistor industrie volledig vast zit, dat dachten ze in 1990 ook.
Misschien wel, maar nu gaat het om natuurkundige limieten. je kan isolatie lagen maar zo dun maken voor ze gewoon helemaal niet meer werken, en dan houdt het semi van semiconductor snel op.
Er zal dus iets fundamenteel anders voor in de plaats moeten komen.

[Reactie gewijzigd door Countess op 3 augustus 2024 01:55]

[...]


Hij is gelijk aan intel's 10nm transistors. intel's 14nm is beduidend groter met ongeveer 35 miljoen transistors per mm2 terwijl TSMC's (AMD) 7nm er 96.5 miljoen heeft en intels 10nm 100.76.


[...]
https://www.techpowerup.c...nning-electron-microscope

Gate width van AMD is 22nm and die van Intel 24nm
Wat dus niet een heel relevante manier van meten is.
Van je eigen link (letterlijk de zin na het stuk dat je quote) :
While these are not much different, TSMC's node is still much denser compared to Intel's
Intel 10nm zal vergelijkbare cijfers geven.

[Reactie gewijzigd door Countess op 3 augustus 2024 01:55]

Nog sterker: De huidige Intel processoren maken gebruik van de architectuur van de Pentium 3, wat nog veel verder terug gaat dan 2008. Maar zoals er in de gequote text staat: "it LAID THE FOUNDATION for ...."
Ja, de 8086 heeft de fundering ook gelegd. Voor zowel Intel als AMD. Het zegt dus precies helemaal niets....
Alder Lake is echt wel een compleet andere filosofie dan dat Intel en AMD tot nu toe gehad hebben en daarmee dus zeker geen stilstand.

Daarnaast: Ja, quantum tunneling is een enorm probleem. Net als dat iedere proces verkleining een "Enorm probleem" had en heeft overwonnen. Quantum tunneling, en alle andere problemen van kleinere procedes, zijn niet anders dan alle andere problemen die de afgelopen 50 jaar overwonnen zijn.
Ja, de atoomgrens is wat lastiger te overwinnen maar het een "doodlopend straatje" noemen is een enorme overdrijving. Er zijn nú geen lichtcomputers, noch quantumcomputers op bruikbare schaal dus is Intel (en ook AMD, nVidia, Apple, Google en ieder ander bedrijf wat ICs ontwikkeld) aan het ontwikkelen op technologie die er nú wél is.

Overigens passen er zo'n 10 Si atomen in een nm dus men kan nog best wat kleiner dan 1nm voordat het formaat van Si in de weg gaat zitten.
Hij snapt niet dat bij CPU design ook heel veel knip en plakken bij komt kijken met de software die ze daarvoor gebruiken ;-)

In de huidige Ryzens zullen vast ook heel veel secties hergebruikt zijn van hun vorige processoren. Ze gaan echt niet elke keer op 0 beginnen.

[Reactie gewijzigd door Marctraider op 3 augustus 2024 01:55]

Bedenk je wel dat de intel GPU afdeling behoorlijk wat ex-AMD werknemers beslaat.
Hoop dat ze leverbaar zijn. Als ze iets slechter dan de huidige generatie presteren, maar voor de msrp verkrijgbaar zijn, dan ga ik er zéker een halen.
Als ze voor normale prijs te verkrijgen zijn haalt iedereen er wel eentje, ik sws
voor adobe software heb ik toch liever Nvidia.
En precies daarom hebben we meer bedrijven in dit segment nodig. zodat andere leveranciers niet gaan denken dat ze er mee weg komen om maar 1 GPU fabrikant goed te ondersteunen.

[Reactie gewijzigd door Countess op 3 augustus 2024 01:55]

zoals Intel de betere processor is voor gaming is Nvidia de betere processor voor Adobe software. overigens support ondersteunt Adobe AMD en andere fabrikanten wel alleen cuda cores werken beter en driver support komt er in 2 smaken, gaming en studio. dat doet intel en AMD dus niet. en dan begin ik nog niet over gaming en welke beter is voor welke games.
Je spreekt hier met heel veel overtuiging over bepaalde zaken die niet noodzakelijk correct zijn. Intel is hun gaming-kroon verloren aan AMD. AMD EPYC en Threadripper stelen genoeg markt weg van Intel op de professionele markt. AMD heeft met de RX6900XT een equivalent voor de RTX3090 en onderhoudt al jaren een lijn aan workstation GPUs en bijhorende drivers. Ook op GPU-compute kant komen ze behoorlijk mee.
nee intel heeft op dit moment een processor die beter presteert voor gaming en dat was inderdaad 2 jaar lang anders tot AMD weer een sprong vooruit maakt. nu is het kwartje wisselen per generatie. maar hou professionele hardware en consumenten werk wel uit elkaar. dat zijn andere markten met andere behoeftes,. ik werk zelf met AMD en NVIDIA. AMD als gpu hoeft van mij om meerdere redenen niet meer waaronder slechte ervaring. ze gaan dood.
Cuda is dus precies een mooi voorbeeld van het soort vendor lockin dat we juist niet willen.
(en intel is inmiddels al een jaar niet meer de beste processor voor gaming).
Intel heeft de kroon terug met de nieuwe procs
Die zijn nog niet uit. Eerst zijn dan geloven. En AMD's v cache zou 15% boost geven voor gaming gemiddeld terwijl, volgens intels cijfers die nieuw cpu's met 12% gemiddeld zouden winnen van AMD. dus dan zijn ze het al snel weer kwijt.
Dus, te dure moederborden voor de 12600k, te hoge prijs voor de 12900k en te hoog verbruik bij productivity en dan als nog vaak verliezen. En een schamele winst in gaming, gemiddeld ruim onder de 15%, waar ook nog eens DDR5 voor nodig is om dat te halen.

Dus na een jaar kunnen ze waarschijnlijk max 3 maanden van hun kroon genieten.
klets je er maar uit man. :+
Ook nog een tegen argument? Kloppen de resultaten niet met wat ik eerder zei dan? (behalve dat intel zijn gaming winst overschatten)
@Countess
Gamer nexus lijkt het met mij eens te zijn.

bron
Die is gewoon blij dat hij weer iets heeft om het over te hebben dat views op levered.

Die gast was laatst nog aan het klagen over de launch prijs van de 6600, en vergeleek dat met de launch prijs van de 5700, er even niet bij zeggende dat die dingen nu meer als het dubbele daarvan kosten. zijn woord is voor mij dus alles behalve gospel.

Maar het is wat jij wil horen, dus voor jouw wel in dit geval.

[Reactie gewijzigd door Countess op 3 augustus 2024 01:55]

Eerst zien, dan geloven!
Er is nog geen enkele onafhankelijke review, alleen wat 'gekleurde' benchmark cijfers van Intel zelf (ongelijke omstandigheden door ongepatchte Windows 11).
Op de een of andere manier voelt het woord Intel niet aan als een subliem videokaart ofzo. Ik word er niet warm van. Meer mensen last van?
Nja... Ik weet het niet. Intel is een slapende gigant. Als ik de lekken moet geloven wordt het een 3070/6700XT equivalent. Ik heb een 5700XT die nog niet aan vervanging toe is. Maar dan nog vind ik het fijn voor diegene die een upgrade behoeven.
hopelijk wordt ie
a) tenminste equivalent aan 6700XT
b) stuk betaalbaarder
c) beschikbaar
d) geleverd met goeie drivers
e) ook prima ondersteund in Linux

want ik wil overstappen naar een 6700XT op dit moment, maar niet voor de belachelijke prijzen die er nu op staan.

Ik vraag me af of alle vakjes hierboven afgevinkt kunnen worden!
Opzich heeft Intel qua Linux support wel een redelijk track record
beschikbaar ... dat zal een goeie vraag worden, zelfde als de prijs.
Als Intel een kaart kan leveren en die is vlot beschikbaar en die komt in de buurt van een 3060 of zelfs een 3070 aan een "normale" prijs, dan hebben de andere 2 een probleem. Maaaar er is een maar, de winkels moeten ook hun prijs naar beneden halen dan. Als zij em gewoon verkopen aan dezelfde prijzen als de AMD en NVIDIA kaarten, dan zal de prijs niet veel lager zijn. Maar er zijn veel maars, eerst eens zien wat de prestaties zijn
Zeker aangezien de Intel GPU's uit dezelfde fabrieken gaan komen als Nvidia en AMD. Dat gaat denk ik niet veel levering worden. Er is vast wat gereserveerd, maar het gaat krap worden.
Ik denk dat het er vanaf hangt wat je wilt hebben.
Mijns inziens is dit een redelijke middemoter en als de prijs goed is dan kan het nog heel interessant worden.
Dat is denk ik meer een teken dat we met zn allen iets teveel nVidia / Radeon marketing geabsorbeerd hebben dan dat het iets over Intel zegt.

Intel bouwt al jaren redelijke integrated graphics in zijn processors. Niet vergelijkbaar met een dedicated kaart natuurlijk, maar de basics kunnen ze in ieder geval. En ze zijn al een hele tijd bezig met andere parellel computing dingen als Xeon Phi.

Ik geloof best dat ze een nette grafische kaart kunnen neerzetten als ze er voor gaan, en een mooie moderne fabricage techniek gebruiken.

Daarnaast is dit ook wel een ideaal jaar om in de markt te stappen, aangezien er overal tekorten zijn en de prijzen belachelijk hoog zijn.
Als het een 3700 of bijna equivalent is maar een normale prijs heeft en leverbaar is dan koop ik hem direct. Met mijn GTX 1070 moet ik in de modernste games stilaan teveel concessies doen om 60fps te halen op 1440p.
De eerste Intel grafische kaart voor consumenten sinds i740?
Hopelijk een verdienstelijke poging tot concurrentie na hun - ooit - afgevoerd project waar iedereen toen hard naar uitkeek:

https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)
heb deze in 1999 gekocht voor iets van 25 Euro.
U was er optijd bij met die €
Moeten dan guldens zijn geweest. Die gpu was dan wel heel goedkoop.
Als in losse GPU, want integrated GPU's voor consumenten hebben ze natuurlijk al sinds jaar en dag.
Serieus mores law is dead als bron? Dat is toch geen nieuws artikel dan? Dat is op zijn best speculatie met een kilo zout. Daarnaast zijn dit speculaties die al tig keer opgegooid zijn.
Ik heb dit allemaal maanden geleden al een keer voorbij zien komen.
De nieuwswaarde zit hem in de door hen gereleaste foto's.
Persoonlijk vindt ik het eerder vreemd dat er een engels talig filmpje wordt gebruikt. Als moderator hier op het forum, moet je practisch alle engels reagerende personen weren (er op wijzen dat er in het Nederlands gereageerd dient te worden). Had Tweakers beter gesierd als men zelf een filmpje met tekst en uitleg hadden gemaakt.
Op zich niet verkeerd dat er wat meer variatie komt qua videokaarten maar veel zal ook afhangen van het prijskaartje. Ook speelt mee in hoeverre softwaremakers bereid zijn hun software aan te passen voor deze videochip. Daarbij denk ik aan games maar ook b.v. aan Adobe Premiere Pro vooral te bedenken dat Adobe al niet de snelste is in aanpassingen voor videochips. Nog steeds werken b.v. Nvidiakaarten het beste in combinatie met Adobe Premiere Pro door de Cuda ondersteuning.
Als deze kunnen presteren als een 3060 voor VR maar onder de 400 euro blijven, dan kan dit best eens een vervanging voor mn 2060super zijn. Liefst nog in een complete nieuwe NUC.
Zal mij benieuwen, Ik denk dat voor concurrentie Intel nu net het verkeerde bedrijf is namelijk.
Mocht AMD er niet zijn betaalden wij nu voor een Quad core CPU nu nog steeds de hoofdprijs. (en ja dat is voor de tijd dat webwinkels 250 euro marge hadden "want ja schaarste")

zal mijn RX580 nog maar flink schoonmaken en hopen dat deze kaart het nog heel lang uit gaat houden

Op dit item kan niet meer gereageerd worden.