Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: The Inquirer, submitter: XWB

The Inquirer heeft een aantal geruchten verzameld over toekomstige videochips. Zowel ATi als nVidia zijn zich op dit moment aan het voorbereiden op een nieuwe ronde in hun strijd om het geld van rijke gamers. Van nVidia wordt de eerste slag verwacht, met de introductie van de G70-core in april. Ten opzichte van NV45 zou deze vier of acht extra pipelines en een hogere kloksnelheid hebben. Aan het einde van het jaar zou deze opgevolgd worden door de 90nm G80, wat lijkt te bevestigen dat G70 nog steeds 110 of 130nm is. Het antwoord van ATi - de R520 - wordt in mei of juni verwacht. Dit zou een 90nm-chip zijn met 300 tot 350 miljoen transistors, eveneens goed voor 20 of 24 pipes. Beide fabrikanten zijn inmiddels aan het overwegen om in de toekomst ook dual-core GPU's te gaan produceren, hoewel er nog geen concrete plannen voor lijken te bestaan.

Lees meer over

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (58)

En wat mag dat gaan kosten? Ach ik hoop dat de huidige GF6800 kaartjes zo wat omlaag gaan in prijs.. is voor mij meer dan genoeg.

Dualcore.. Kan iemand mij uitleggen wat het nut hier van is? Op het moment dat je 32 pixel pipelines in je core bakt tov 16 en je ook het aantal shaders verdubbeld, dan heb je toch ook vrijwel een verdubbeling van de performance?.. Zou dualcore (dus 2x 24pipes goedkoper zijn dan 1x 48?)

Who knows.
Dual-Core zal zeker wel voordeel hebben, kan je namelijk 2 shader programs tegelijk laten uit voeren die ieder gebruik maakt van 24 pipelines.

Zou bijvoorbeeld een voordeel hebben bij een object waar maar 24 pixels hoeven uitgerekend te worden op een 48 kaart, staat de andere 24 pixel pipelines uit hun neus te eten. Correct me if i am wrong. want ik weet dat dus niet helemaal zeker.
Volgens mij is dat vrij zinloos: je hebt toch dezelfde functie nodig voor heel het scherm (ok, behalve dan het HUD ofzo)?
Ik zoek het voordeel in een andere hoek. De lijnen van pipeline 1-48 zouden even lang moeten zijn (op de 10 nanometer ofzo) en dat is erg moeilijk te realiseren. Probeer maar eens 48 even lange staafjes met 1 punt te verbinden, werkt niet echt makkelijk. Als je 2 cores hebt, moet je dat met 2 punten doen, wat veel makkelijker te timen is (lijkt mij).
Soort van serieel vs. parallel: PCI express x16 is makkelijker omhoog te klokken dan PCI, toch?
als er iemand echt verstand van heeft, hoor ik het graag. Ik probeer maar wat met mijn technische 'inzicht' mijn gebrek aan kennis te verdoezelen :)
@MBV

Ik denk dat jouw redenatie wel eens kon kloppen.

Want theoretisch gezien is het volslagen onzinnig om een dual-core GPU te maken, omdat een GPU nu al zo ontzettend veel parallel doet. (Totaal niet vergelijkbaar met een CPU dus)

1 core met 16 pipelines zal sneller zijn dan 2 cores met 8 pipelines omdat 2 cores altijd overhead met zich mee zal brengen.

Technologische beperkingen om maar steeds meer pipelines in een core te stoppen lijken dan een logische reden om toch naar multi-core te kijken.

Hoewel je je kan afvragen of multi-gpu niet net zo handig kan zijn. Dat doet ATI nu al immers voor die militaire simulatie kaarten gebaseerd op de R300 en R400.

Een beetje het idee zoals XGI dat ook had. 1x gpu voor je low-end, 2x gpu voor je midrange en 4 gpu's voor je high-end kaart. Aangezien je voor je complete range kaarten dan maar 1 gpu maakt, moet dat heel gunstig zijn voor de kosten.

Het zou me niet verbazen als dat uiteindelijk gunstiger is voor de fabrikant dan een multicore voor high-end en een single core voor mid-end en een uitgeklede singlecore voor low-end.

(gelukkig kunnen ze bij the Inquirer geen Nederlands, anders komt dit straks ook nog op hun site te staan ;))
zo ver ik weet..

elke pipeline van je grafische kaart berekend per kloktik (of soms meerdere kloktikken) een pixel van je scene.

hier haal ik nu een hoop oude gegevens mee op:

vroeger hadden grafische kaarten b.v.: 2 pipelines met 2x TMU's dus 2x een texture over één pixel per pipeline. dus 4 texels / 2 pixels per kloktik. als één van die 2 pipelines meer kloktikken nodig had bleef er ééntje natuurlijk wachten op de andere.. (dit is niet efficient)

modernere grafische kaarten hebben vaak een 4x1/8x1/16x1 (pipeline*tmu) configuraties (al kun je van TMU niet meer spreken) en kunnen dus 16 pixels per kloktik rendereren van je scene.

maar modernere grafische kaarten kunnen ipv vroeger "door blijven rendereren" omdat je een soort van scheduler erin zit. als pixelpipeline 1, 2, 3, 4, 7 en 8 nog bezig zijn terwijl 5 en 6 klaar zijn beginnen deze weer alvast met de volgende reeks pixels en zitten dus niet stil.

dus hoe dan ook.. je pixelpipelines gaan dus niet uit hun neus eten :P

sterker nog. alle 48 pipes op je grafische kaart is altijd nog beter dan 2x24 SLi / multigpu rendering. Omdat hierin stukken minder latency in zit en het beeld niet hoeft worden samengevoegd. SLi heeft een efficiency van ongv. 75%

kortom: (3dmark05 score * 2)*0.75 = SLi score ;)
Het ontwikkelen van een nieuwe core is erg duur. Het uiteindelijk maken ervan is vele malen goedkoper.

Dual core is dus eigenlijk voor de fabrikanten een 'goedkope' manier om een boel extra performance op een kaartje te krijgen.

En aangezien het altijd "leuk" is als een fabrikant de beste genoemd kan worden (marketing...), is het ook interessant om een dual core versie van een toch al snelle core te maken. Deze versie zal dan toch gezien worden als het paradepaardje van de fabrikant, en zal in benchmarks duidelijk naar boven komen, en het bestaande verschil alleen maar vergroten.
Vergeet niet dat het ontwerpen van moederborden (in dit geval kaarten) en cores voor multi-proc opstellingen echt veel ingewikkelder is vergeleken met single-proc technologie.
Er dienen zich dan vrij lastige problemen aan.

Daarom was multi-proc tot nu toe erg duur en eigenlijk alleen voor proffesionele toepassingen.

Nu AMD en Intel echt niet door kunnen gaan met de GHz race, vanwege materiaal beperkingen, moeten ze wel naar dual-core cpu's uitwijken.
Ik vermoed dat als het aan hun lag, ze het het arme silicium wel to 100Ghz zouden opfokken met single-core cpu's omdat de ontwikkelosten dan lager zouden zijn.

Daarom denk ik ook dat GPU fabrikanten pas echt naar dual-gpu cores gaan als ze echt niet op een andere manier meer pipelines kunnen toevoegen.
x86 technologie en GPU's zijn echt niet met elkaar te vergelijken hoor, een P4 heeft bv 2 pipelines, een R400 of NV40 heeft er 16...
grafische verwerking is in tegenstelling tot de CPU perfect parallel te berekenen, 3dfx deed het trouwens al jaren geleden
single chip is goedkoper om te produceren... tot de chip zo groot wordt dat de yields naar beneden gaan of de hitte te groot wordt, ik denk dat vooral dit laatste begint te spelen
@SuperNull,

Het maken van dual-proc is aantoonbaar NIET veel duurder en ingewikkelder.

Maar die borden worden in kleine oplagen voor een markt gemaakt, die bereid is een stuk meer te betalen voor een mobo. DAAROM zijn ze zoveel duurder.

Het bewijs is het beroemde Abit BP6 mobo. Een dual socket370 mobo dat dezelfde prijs had als een normaal mobo. Omdat je er normale celerons dual op kon draaien was dat bord zeer populair omdat je eindelijk een goedkope smp oplossing had.

Als je zoveel lastige problemen zijn hebben met dual cpu borden, dan zouden die zelfde lastige problemen ook op moeten treden met dualcore oplossingen. Dat die alleen een bios update nodig hebben zegt genoeg!

Als je echter naar dure server borden gaat kijken dan spelen daar heel andere zaken die de boel duur maken. Bv speciale chipsets om 64bit PCI, of PCI-X mogelijk te maken.
Beide fabrikanten zijn inmiddels aan het overwegen om in de toekomst ook dual-core GPU's te gaan produceren, hoewel er nog geen concrete plannen voor lijken te bestaan.
Tjah, waarom niet.
Het ontwikkelen van gpu's wordt steeds complexer & duurder.
Waarom dan niet de kracht van 2 bestaande gpu's bundelen. Goed, je hebt nu al SLI, maar het kan nog altijd nog sneller (gpu's liggen dichter bij elkaar)

Natuurlijk zijn hier ook nadelen aan verbonden, omdat 2 gpu's hetzelfde geheugen moeten delen, moet er dus aardig wat geheugen op de kaart aanwezig zijn. (min 512MB, heb je 256MB per core)

Een ander nadeel kan de grootte van de kaart zijn: meer geheugen & mss een grotere koeler kunnen hier een rol in spelen.
Nou nee 2 GPU cores maar wel met één Crossbar mem controler en mem Cache buffer per GPU. Ben je van die texture copien waar SLI last van heeft vanaf.
en van een hoop pcb en componenten, die kosten ook geld ;)
Gepost door Tha_Killer - zondag 13 maart 2005 - 21:03

Volgens mij wordt er in de tekst bedoeld dat er in april een doorontwikkeling van de NV40 komt (of iig wordt voorgesteld) en dat er aan het eind van het jaar een (compleet) nieuwe generatie komt.
Iig dat is wat ik hoop. ik wil nl in april/mei een nieuw systeem kopen.
Ik lijk dus gelijk te hebben, alleen nu vraag ik me af of de G70 eigelijk de NV48(toch?) is die nvidia gecanceld heeft. Ook vraag ik me af vanwaar de wijzinging in naamgeving door nvidia.

Wat betreft Ati vraag ik me af of de R520 een vorm van sli (MultiRenderingArray/System) is, het komt wel uit in de tijd waarvan verwacht wordt dat ati de eerste Sli producten uit zou brengen. Als dat zo is dat wordt het weer een intressante strijd. Want absoluut gezien is NV nu de snelste. Alleen 1 tegen 1 is Ati vaak net ietsjepietsje sneller.

Een ander punt wat betreft sli:
Gaan NV sli kaarten ook op een ati sli bord werken en anders om? Als dit neit het geval is dan denk ik dat NV een kleine voorsprong heeft omdat de Nforce bordjes over het algemeen net iets stabieler zijn in de reviews. Natuurlijk weten we alleen nog neit hoe de NForce op het intel platform gaat werken.
Ati heeff overgens al eerder een soort sli systeem gehad, alleen kwam dat bij gebrek aan drivers niet echt uit de verf volgens mij. (2e gpu zat dan uit z'n neus te eten.)

Ati Rage Maxx heette dat ding geloof ik?
ATI heeft al heel lang multi gpu technieken, alleen niet voor particuleren.
het americanse leger heeft computers staan met meer als 16 ATI GPU's die allemaal samenwerken.

maar om da killers vraag te beantworden. ATI's multi rendering gaat op elke PCI-express moederbord werken met 2 16xpci-e sloten (8x of lager mag ook als de sloten maar 16x groot zijn, anders past de kaart niet namelijk)
ook gaat ATI geen interconnector nodig hebben.

http://www.xbitlabs.com/articles/editorial/display/cebit2005-2.html
onderaan

of NVidias techniek ook werkt op moederborden met andere chipsets is de vraag, maar vooral een vraag van drivers.
SLI heeft namelijk niets nodig wat al niet standaard door pci-e word onderstuend.
het zal dus volledig aan nvidia zelf liggen of ze het gaan ondersteunen of niet, want nvidia blokt op dit moment alle chipsets die geen nforce4 sli chips zijn.
April en Mei gelanceerd, volgend jaar in de winkel. :(
Ik denk dat vooral ATi wat goed te maken heeft. X800XT PE's zijn nog altijd niet tekoop. X700XT's ook niet. Om maar van de AMD moederborden van ATi te zwijgen (lauch was in november)
Ja het is gewoon een kwestie van goed zoeken en heeeel veeel mazzel hebben... Ik heb nu sinds 2 maanden een X850XT-PE en heb die gelijktijdig met 3 vrienden besteld bij tientallen zaken. Ik had de mazzel dat ik precies op het juiste moment alternate belde en ze er een voor me vast hielden.

Wat blijkt is dat de high end kaarten van de laatste 3 generaties gewoon eigenlijk nooit in overvloed verkrijgbaar waren. De prijzen blijven dus gewoon hoog helaas.
Sommige high-end kaarten zijn best heel goed verkrijgbaar geweest. Zo is het bv nooit een probleem geweest om een Radeon 9700Pro te vinden.

Maar als je alleen maar een Dynabyte in de buurt hebt, dan is je keuze wel erg beperkt. (Die hadden in die tijd geen enkele Radeon 9xxx in het assortiment en alleen Nvidia FX kaarten. Zelfs de 5800 Ultra. Volgens mij hebben ze nu nog steeds alleen maar Nvidia)
Ahem, aval0ne....

Af en toe moet je wel even controleren of je anti-ATI uitspraken nog wel kloppen hoor.

Als je namelijk een blik op pricewatch werpt dan zie je dat de X800 XT PE's direct uit voorraad leverbaar zijn bij verscheidene winkels. (zowel AGP als PCI-E)

Een gewone consument zal ze nog moeilijk kunnen vinden, maar voor een tweaker is het nu dus geen probleem meer. (En een PE is toch geen kaart voor een gewone consument)
als het goed is hebben ati en nvidia beide geleerd van hun fouten en zullen nu wat langer wachten met de lanchering om te zorgen dat ze ook daadwerkelijk kunnen leveren.
Hoezo zou Nvidia/Ati willen wachten? Tegen de tijd dat jij zo'n kaart hebt, heeft Nvidia/Ati allang genoeg GPU"s verkocht, zo dat de kaart die jij koopt winstgevend is
je ziet toch hier en daar ook al kaarten verschijnen met 2 cores erop?.
Natuurlijk zal het allemaal wel sneller gaan maar een beetje prestige zal er ook wel bijhoren.
Vraag me wel eens af waar het einde is omtrend deze ontwikkelingen.
Grafische kaarten produceren zoveel mogelijkheden op het scherm die een normaal mens niet eens waar kan nemen.
Ze zijn qua ontwerp ver hun tijd vooruit en voor deze technieken toegepast zijn in games is er al weer een nieuwe techniek.
van GPU's op een kaart kan je het uitbreiden naar 4 GPU's middels SLI.
Resultaat een enorme energieslurper die alleen al van zichzelf uit een eigen zware voeding nodig zal hebben.
Het word eens tijd dat ze wat aan het energieverbruik gaan doen.
Als we een aantal jaren verder zijn is een pcvoeding van rond de 1000 watt noodzakelijk met de huidige ontwikkelingen.
Vraag me wel eens af waar het einde is omtrend deze ontwikkelingen.
Zolang we het beeld uit een game nog kunnen onderscheiden van de echte wereld zijn we er nog niet denk ik.

Zag op slashdot tijdje geleden iets staan over een speciale raytrace chip, die op 90Mhz een veel betere raytrace performance neerzette dan een systeem wat met een P4 3Ghz was uitgerust.
Ook leuk...
Ze vergeten weereens wat verschillen, dual core, eigenlijk zouden graphics net zo goed dual die kunnen zijn, net als wat VIA doet, 2 die's op een package, scheelt productie kosten door minder transistors per die te gebruiken en dus hogere yield. Niet echt helemaal zoals dual core, ook al lijkt het op wat Intel zegt te doen, 2 prescotts tegen mekaar aan lijmen , die in prenciepe ook los te gebruiken zijn....Ik voorzie hierin veel goeds, het zorgt ervoor dat het goedkoper en mogelijk energie vriendelijker wordt, dat is toch wat wij graag zien of niet?
Goeie zaak dat er nieuwe cores worden ontwikkeld, inplaats van "domme" oplossingen als SLI....
SLI is niet echt een domme oplossing, het is een vrij nette techniek die een flinke prestatiewinst laat zien, en op dit moment het allersnelste wat er verkrijgbaar is.

Niet vergeten dat het ontwerpen van een core verschrikkelijk veel geld en tijd kost en dat je bedrijven het niet kwalijk kan nemen dat ze tussendoor met andere dingen komen om de performance te verhogen.
24 pipelines zal wel soepel gaan :z
Idd.. binnenkort realtime Toy Story e.d. als demo in 3DMark06
En dan te bedenken dat ze daar vroeger supercomputers voor nodig hadden...
Geeft wel een hele nieuwe mogelijkheid om films te maken natuurlijk. Geen films meer die je gewoon afspeelt, maar films die direct door je PC gerenderd worden. Ik zie nog even niet het voordeel ervan, maar sommige hoog geplaatste marketing mensen zullen dat vast wel kunnen.
Als pc's de film zouden renderen dan zou het ook mogelijk zijn om je plaats in de film te bepalen. Samen met zon vr bril ding kun je dan door de film lopen. :9
Hoezo "film"? Gewoon games die er even goed uitzien als gerenderde films.
ehm, betekent dit dat de andere kaarten goedkoper gaan worden :9
NEE ! ! ! !

dit is ook niet gebeurt bi de 5x serie zijn gewoon duur gebleven

ps vind wel dat ze nu wat teveel haast maken met een nieuwe serie kaarten
Om de 3 maand een nieuwer model. Is het de laatste 3 jaar anders geweest?
nee, het is niet anders geweest. ze waren echter 2 a 3 jaar geleden wel beter leverbaar en het verschil met de kaarten van toen is niet noemenswaardig. als je van een voodoo 3 kaart naar een R9700 Pro gaat gaat er een wereld voor je open. dit gevoel heb ik nu veel minder

* 786562 whizzy81
zal uiteindelijk wel zo zijn dat de andere kaarten goedkoper worden, maar kan heel lang duren, de 5950 Ultra is ook nooit goedkoop geworden
maar dat was ook geen superieure kaart oid..je had nog altijd de 9800pro en in erg korte tijd waren er al kwalitatief betere en ook gelijke opvolgers en dus had de 5950 eigenlijk 'geen nut meer'.
9800XT is ook nooit goedkoop geworden...

de lage prijs van de 9800Pro was om de concurrentie met de FX5900XT aan te gaan, die op dat moment veel scherper geprijsd was. Daartegen moest ATi iets doen, in de vorm van een fikse prijsverlaging van de 9800Pro. :z

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True