Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Bron: The Inquirer, submitter: zwahillius

The Inquirer zou van 'bronnen dicht bij nVidia' een aantal specificaties van de nog te lanceren NV40 GPU ontvangen hebben. De belangrijkste onthulling is dat de NV40 wel degelijk zestien fysieke pipelines zou hebben. Dat staat lijnrecht tegenover de eerder verspreide speculaties dat er slechts acht echte pipelines zouden zijn, en dat dit getal door middel van een aantal 'trucjes' kunstmatig opgekrikt zou worden naar zestien. Het heeft tot gevolg dat de chip ruim 200 miljoen transistors zou bevatten, een stuk meer dan de 175 miljoen waarover tot nu toe werd gespeculeerd. Zoals gebruikelijk bij The Inquirer vertellen we erbij dat deze gegevens met een korrel zout mogen genomen worden, gezien de niet altijd even betrouwbare reputatie van de site. Als The Inquirer echter de waarheid vermeldt zou dat betekenen dat nVidia weer een extra slag om de arm heeft in de strijd tegen ATi's R420, die binnenkort zal losbarsten. ATi had er tot nu toe veel vertrouwen in, maar dat was mogelijk met de (valse?) wetenschap dat de NV40 'slechts' acht echte pipelines zou bevatten.

nVidia logo op gebouw

Lees meer over

Gerelateerde content

Alle gerelateerde content (30)
Moderatie-faq Wijzig weergave

Reacties (60)

volgens mij weet ati de specs al wel ..... en zullen dondersgoed weten waar ze zich mee zullen moeten concureren en wat nvidia kan kan ati natuurlijk ook ;) , en daar zullen ze zeker gebruik van maken , in hun voordeel natuurlijk ;) , als de nv40 sneller is dan de r420 , dan komt ati met gddr3 uit de bus !
aangezien de r420 er ook support voor heeft
nvidia is ook ooit met het gadget "supersnel DDR2 geheugen" op de markt gekomen. Op zeer kort erna weer naar DDR1 terug te schakelen.
ATI hetzelfde : eerst een zware pro kaart (X2) met DDR2. Momenteel zit de X2 weer op DDR1.
Ik beweer niet dat het geheugen onbelangrijk is. Er speelt veel meer mee. De Matrox Parhelia was bij release verweg de meest geavanceerde en meest complexe grafische chip die voor handen was. Maar toch viel de snelheid in games enorm tegen door het ontbreken van 1 enkele techniek : copressie.
Als fabrikanten met een nieuw ontwerp komen wordt er altijd gegoocheld met grote getallen, zware speculaties etc etc. Maar meestal presteert de hardware toch iets minder dan vooropgesteld werd. En dan hebben de fabrikanten een uitleg klaar waarom dat dat toch wel is. Doorschalen lukt niet, techniek A doet niet echt wat er van verwacht wordt, techniek B eist teveel geheugenbandbreedte op,....
Die nV30 verhaal speels meer mee dan snelheid.
DDR2 is sneller maar niet de nV30 implementatie
De bandbreedte is minder doordat het eind resultaat bir breedte x clock lager is dan die van DDR.

Als ze met DDRII 256bit pad komen is DDR2 zeker sneller dan DDR1 256bit, DDR1 heeft dan 512bit nodig omdat te counteren

De Pharhilia viel tegen om twee redenen ene heb je al genoemd het missen van vergelijkbare LMAIII HyperZIII technieken.
Tweede de GPU klok van Parhilia was veels te laag.
Als ze met DDRII 256bit pad komen is DDR2 zeker sneller dan DDR1 256bit, DDR1 heeft dan 512bit nodig omdat te counteren
Sorry maar daar klopt dus echt helemaal niets van. De DDR2 uitvoeringen van de Radeon 9800 256mb hebben ook gewoon een 256bit datapad. Bij DDR 256bit datapad vs een DDR2 256bit datapad, wint DDR het van DDR2 op gelijke kloksnelheden. Dit komt door de hogere latencies van DDR2. Echter DDR2 kan veel beter doorschalen tot hogere snelheden dan DDR.

ATI gebruikte DDR2 voor zijn 256mb kaarten, omdat het stroomverbruik lager was. Dit om aan de eisen van de OEM leveranciers te voldoen. Om vervolgens de hogere latency te compenseren hebben ze het geheugen 10mhz sneller laten lopen.
Bij de volgende generatie spellen zal vooral de snelheid van uitvoeren van shader transformaties belangrijk zijn. Als dat weer op peil is zal geheugenbandbreedte misschien weer interessant worden. Kijk nu maar. In directx9 spellen heeft nvidia nog het nakijken omdat hun minder conventionele architectuur voor de shaders zoveel overhead kost om bestaande shaders te transformeren zodat hun pipelines er aan kunnen rekenen. Een geforce heeft meer geheugenbandbreedte maar dat helpt dus weinig (wat logisch is omdat de bottleneck elders ligt).
Dat denk ik ook. Volgens de laaste geruchten richt ATI Architektuur keuze voor R420 op shader performance en niet zozeer op nieuwe feature implementatie, dus krachtige 2.0 shaders ipv 3.0 shader featureset.

Welke keuze de betere is zal de teokomst uitwijzen.
Vooral omdat er niks officieels bekend is.
Sneller memory heeft in beperkte Vid memory intensievere situaties 'n voordeel. Vooral als het verschil rond 'n kwart zit.

De GPU power is zeer belangrijk vooral in de standaard bench settings van
1024x768x32 non-AF & Non-FSAA

Dus mocht die nV40 sneller zijn dan is naast memory op klokken vooral de GPU opklokken van belang.

Doordat nV40 meer transistorenheeft zal die niet zo hoog gaan als een lichtere GPU op diezelfde dieschrink van 0,13.

Daarnaast zou dit bevestigde nV40 spect's zijn maar die van ATI R420 zijn nog pure geruchten.
Hoe interessant is het hoeveel pijpjes het ding gaat krijgen? Aan het einde van de rit is toch alleen maar een goede benchmark waarin deze kaart vergeleken wordt met zijn voorgangers en concurrenten belangrijk.

Blijkt deze Geforce kaart maar 10% sneller te zijn dan zijn voorganger, dan boeit het mij niks of ie nu 8 of 800 pipelines heeft. De kaart is dan niet interessant genoeg om aan te schaffen. Maar als ie 100% sneller blijkt te zijn ... ja dan ... :P

Ik vraag me sowieso wel af of NV40 zo'n stap vooruit gaat zijn. Bij de vorige generatie was dat nog wel doodat we van DX8.1 naar 9 gingen, maar nu? Betwijfel het.
Hoe interessant is het hoeveel pijpjes het ding gaat krijgen? Aan het einde van de rit is toch alleen maar een goede benchmark waarin deze kaart vergeleken wordt met zijn voorgangers en concurrenten belangrijk.
Het aantal pipelines is ontzettend belangrijk voor de prestaties van een chip. Het feit dat de Radeon 9800 acht volledige pipelines heeft en de GeForce FX slechts vier (die in zeer specifieke gevallen acht pixels tegelijk kunnen verwerken), is één van de grootste nadelen die nVidia op dit moment heeft (naast het gebrek aan ondersteuning van 24-bits kleuren en te weinig registers voor shaders).

Het werd algemeen aangenomen dat nVidia dit probleem ging oplossen door van 4x2 naar 8x1 of 8x2 te gaan, terwijl van ATi R420 een 8x2 of 12x1 configuratie wordt verwacht (eerste waarschijnlijker dan de tweede optie). Volgens dit bericht wordt NV40 echter 16x1, en dus is dus wel een redelijk belangrijk verschil voor mensen die nu alvast willen inschatten wat de uitkomst van de volgende veldslag in GPU-land wordt. Je hebt wel gelijk dat het uiteindelijk om de benchmarks gaat, maar aangezien we die nog niet hebben moeten we nog even speculeren ;).
Ik vraag me sowieso wel af of NV40 zo'n stap vooruit gaat zijn. Bij de vorige generatie was dat nog wel doodat we van DX8.1 naar 9 gingen, maar nu? Betwijfel het.
Van de overstap naar DX9 hebben we nog weinig gemerkt. Er zijn wat spellen die het gebruiken, maar om nou te zeggen dat het een stap vooruit was toen de huidige generatie uitkwam, niet echt. Sowieso zullen de features van videokaarten in de toekomst steeds minder belangrijk worden voor de consument, omdat ze gewoon allemaal hetzelfde zullen zijn. De trend die we al sinds DX8 zien is dat videokaarten net als processors programma's gaan uitvoeren in plaats van dat ze een aantal vaste functies hebben. In DirectX Next zal dit zo ver worden doorgevoerd dat praktisch alles mogelijk is, en dat de snelheid van een chip de enige beperking van zijn mogelijkheden is.
Het werd algemeen aangenomen dat nVidia dit probleem ging oplossen door van 4x2 naar 8x1 of 8x2 te gaan, terwijl van ATi R420 een 8x2 of 12x1 configuratie wordt verwacht (eerste waarschijnlijker dan de tweede optie). Volgens dit bericht wordt NV40 echter 16x1
In overeenstemming met mijn reactie hierboven denk ik dus dat nVidia de chip inderdaad zal roemen als een 16x1 chip, net zoals de huidige chip een 8x1 chip wordt genoemd.
Ik geloof echter niet dat het echt 16 fysieke pipelines zijn, dat zou een te grote stap zijn. Voor mij is dit bericht dus de bevestiging dat de chip een 8x2 ontwerp krijgt (dat in marketing zal worden aangeprezen als 16x1). De informatieve waarde is dus dat 8x1 waarschijnlijk afvalt :)
Behalve het feit dat dit een gerucht is en natuurlijk altijd met een korrel zout genomen moet worden, ben ik wel benieuwd naar je precieze redenen om het niet te geloven. Je zegt dat het een te grote stap zou zijn, maar een grote stap is ook precies wat nVidia nodig heeft om niet alleen R360 te verslaan maar ook nog eens sneller te zijn dan R420. Het aantal transistors van NV40 is waarschijnlijk niet voor niets van 150 naar 210 verhoogd de laatste maanden: nVidia wil die performance-kroon gewoon terughebben.

Het extreem modulaire NV3x-ontwerp wat ze de afgelopen 18 maanden zoveel problemen heeft opgeleverd zou nu wel eens z'n investering kunnen gaan terugbetalen omdat het het toevoegen van extra pipeline units in een laat stadium van ontwikkeling toelaat. Als ze het technisch voor elkaar kunnen spelen zullen ze volgens mij zeker niet aarzelen om een echte 16x1 uitbrengen. Ook al zou het een duur heet niche-product worden, het zou toch een psychologische overwinning zijn die ze goed kunnen gebruiken.
Wat leuk toch weer dat iedereen hier zo kikt op wat getalletjes in een geruchtje.

Ga eens bij beyond3D op de forums kijken, want daar zitten de mensen die echt wat van videokaarten af weten.
Eén ding is daarbij duidelijk. Bij de nieuwe generatie kaarten, zegt door nieuwe technieken het aantal fysieke pipelines nog maar erg weinig over de prestaties.
Maar dat kan je zelfs bij de huidige generatie kaarten al zien. Kijk eens naar de laatste kaarten van Nvidia en ATI. Daaruit blijkt heel duidelijk dat de pipelines bij ATI veel efficienter zijn. En dat aspect zie je bij deze geruchten dus niet.

En uiteindelijk is het allemaal zinloos gespeculeer. De prestaties worden pas duidelijk wanneer de eerste onafhankelijke benchmarks verschijnen. Je kan er alleen iets zinvols over zeggen wanneer je inside information hebt, en in dat geval heb je een NDA, dus mag je dat niet naar buiten brengen.
Sja het blijft toch nieuws ............ al is het van The Inquirer. En zelfs die hebben het wel es bij het rechte eind, als zijnde numero uno in de roddelpers hier.

offtopic:
Het is op zich natuurlijk nog veel zinlozer om te schrijven dat alle reacties hier zinloos zijn en dat er maar dom geklikt wordt.


En je spreekt jelf een beetje tegen, het fysieke aantal pipelines heeft geen invloed, maar bij ATi gebruiken ze die effectiever ? Wie zegt dat nVidia niet iets nieuws bedacht heeft ? Innovatie en ontwikkeling heet dat. Dat iets vorig jaar niet zo was, wil uiteraard niet zeggen dat het nu nog zo is. En zelfs dan, als het je niet lukt om ze effectiever te gebruiken, dan maken we er gewoon fysiek nog een paar meer, het is dan aan de software ontwikkelaars om er ook echt wat mee te doen.
Nee, daarmee spreek ik mezelf niet tegen.

Dat iets efficienter werkt, betekent dat je met hetzelfde aantal meer gedaan krijgt. En dat is dus niet in tegenspraak met de mening dat het fysieke aantal weinig meer zegt over prestaties.

Het idee van "dan maken we er maar een paar meer" is ook geopperd op de beyond3D forums. Daar werd het zelfs gezien als een mogelijke noodmaatregel omdat de NV40 niet hoog genoeg geklokt zou kunnen worden en op die manier toch de noodzakelijke prestatie gehaald zou moeten worden. Volgend probleem is dat de grotere die dan nog lager geklokt zou moeten worden.
Allemaal nog meer speculaties.
*grammaticale fout*
"zou dat betekenen dat nVidia weer een extra slag om de arm heeft in de strijd tegen ATi's R420"

Een slag om de arm houden, betekent iets anders;
"Bij het vrijgeven van specificaties houd men een slag om de arm. " men neemt een bepaalde veiligheidsmarge in acht.

Hetgeen in dit artikel wordt bedoeld is dat nVidia een extra wapen in handen heeft in de strijd met Ati.
8 of 16 pipelines zegt ook zo lekker veel.

Kijk eens naar de techische verschillen tussen een P4 en een AMD64 of Athlon XP cpu. Een heel andere aanpak maar performance is nagenoeg hetzelfde.

LB dus hoeveel pipelines. Gaat erom wat die pipelines uiteindelijk presteren.
Het zegt niet alles, maar weten wel hoe NV38 / R360 in elkaar steken en we kennen de sterke en zwakke punten van die architecturen. Helemaal gokken is het dus ook weer niet, want we hebben het niet over radicale nieuwe features in deze nieuwe generatie GPU's. Om je vergelijking met processors door te trekken: stel komt een dual-core versie van de Pentium. Je weet niet precies hoe dat gaat presteren, en helemaal niet ten opzichte van toekomstige Athlons, maar om nou te zeggen dat het "lekker belangrijk" is of hij nou één of twee cores heeft is ook overdreven.
Om even op je dual-core voorbeeld door te gaan: vergelijk het dan met die XGI kaart.
"lekker belangrijk" dat het ding twee GPU's aan boord heeft, als ze samen niet eens half zo snel zijn als één enkele GPU van Nvidia of ATI.
Nee, de R420 is niet een uitgebouwd R360.
Wel is het zo dat ATI vond dat de R400 te revolutionair zou zijn en dat die performance nog niet nodig zou zijn, en dat het dus een wat minder revolutionaire gpu zou worden: R420.
Maar dat betekent nog niet automatisch dat het een uitgebouwde R360 is.
(overigens is het ook niet zo dat de org R400 nu R500 genoemd wordt. ATI was tegelijkertijd bezig met de R400 en R500)

Maar van beide kampen is op dit moment zowiezo bijna niets concreets bekend. Dus het is gewoon onmogelijk om te voorspellen of het nu wel of niet radicale veranderingen zullen zijn.
Voor NV40 is het zowiezo wel te verwachten omdat ze gewoon een stel grote fouten hebben gemaakt bij NV30 architectuur die ze nu moeten corrigeren.
Die vergelijking gaat niet op. De XGI Volari was een complete nieuwkomer dus er was geen vorige generatie om mee te vergelijken toen zij een dual-chip kaart aankondigden. Van de GeForce weten we in grote lijnen wat er is te verwachten, en dus is het aantal pipelines veel nuttigere informatie dan de uitspraak "lekker belangrijk" suggereert.
Hoezo weten we in grote lijnen wat er is te verwachten?

Dat bleek niet te gelden bij de stap van GF4 naar NV30 en op dezelfde manier is er ook geen reden om aan te nemen dat dat geldt bij NV30 naar NV40.
Idem bij ATI van R100 -> R200 -> R300 -> R400
Hoezo dat bleek niet te gelden? Het was ruim van te voren bekend dat NV30 een vrij radicale verandering qua architectuur zou zijn. Verder is het algemeen bekend dat R420 een uitgebouwde R360 is, omdat de originele R400 naar achter geschoven is en nu R500 genoemd wordt.
Waneer gaan deze krachtpatsers uitkomen; of zijn het niet zulke vernieuwingen wat ik leest is dat wel de bedoeling. en als ze zo snel gaan zijn zullen ze zeker wel duur worden (weet iemand al waar de prijs gaat liggen ?)
Reken gewoon op dezelfde introductie prijzen zoals de vorige generatie kreeg. (Wellicht ietsje hoger, met name Nvidia heeft daar nog wel een handje van)

En wat betreft de snelheid. ATI heeft altijd voor een 2x zo snelle kaart gezorgd bij een nieuwe generatie. Weinig reden om aan te nemen dat ze dit keer niet daarop gemikt hebben.
En Nvidia zal dus ook wel op zo'n nivo gemikt moeten hebben.
valt wel mee sinds enkele generaties zijn de prijzen juist weer iets lager voor nieuwe videokaarten, en sinds een tijd ligt ati qua introductieprijs weer boven nvidia.

En qua snelheid zijn ati's nieuwe gpu's ook nooit bijster veel meer in snelheid omhoog gegaan dan hun nvidia tegenhangers tov elkaar.

Maar ja, het is allemaal speculatie todat ze echt uit zijn, ik gok dat nvidia nu gedwongen wordt de minder elegante shadertechnieken van d3d9 te gaan gebruiken
Ik vraag me af welke prijzen jij dan bekijkt.

Maar wat betreft die vermeende minder elegante shadertechnieken, dat is echt de grootste kolder die er maar bestaat.
Ik dacht altijd dat het aantal pixel pipelines wel heel belangrijk was! Neem nou de R9500, die te flashen was naar een R9700. Hierdoor werden 4 extra pipelines ge-aktiveerd, en de kaart ging me toch een partij sneller! Ik kan mij natuurlijk voorstellen dat het op één gegeven moment geen zin meer heeft om extra pipelines er in te zetten, maar als er inderdaad 16 in zitten, is dat toch een verdubbeling...
Het aantal pipelines is natuurlijk wel van belang, maar er is al lang niet meer sprake van echte fysieke parallele verwerking.
Er zitten gewoon een aantal aparte functionele units op zo'n videokaart die bijvoorbeeld heel snel 4 pixels kunnen renderen met 2 textures. Of bijvoorbeeld 8 pixels met 1 texture per clock.
Het voordeel van 8x1 is dat in het geval van een single-texture je 8 pixels in één keer kunt verwerken. Het 4x2 ontwerp zit echter gedeeltelijk uit zijn neus te vreten want die kan dan maar 4 pixels produceren.
Dus singletexture: 8x1 ontwerp is maar 1 clock kwijt om 8 pixels te doen en 4x2 ontwerp is 2 clocks kwijt om 8 pixels te verwerken.
In dualtexture zijn 8x1 en 4x2 theoretisch even snel.

Het probleem is natuurlijk iets ingewikkelder, want het 4x2 ontwerp dat nVidia nu gebruikt kan in sommige gevallen wel gebruikt worden als 8x1. Bovendien is het dus afhankelijk van het aantal textures enz enz.

16 pipelines zou dus gigantisch veel zijn want dan kun je ten alle tijden 16 pixels met texture / clock produceren.
Een simpeler ontwerp is om 8 pixels met twee textures / clock te produceren dat op dezelfde manier als nu soms in te zetten is als 16x1 ontwerp. Waarschijnlijk zit Ati met zijn R420 ook op het pad van 8x2 omdat dat gewoon een logische uitbreiding is van het huidige ontwerp en niet al te veel veranderingen vraagt.
Het probleem is natuurlijk iets ingewikkelder, want het 4x2 ontwerp dat nVidia nu gebruikt kan in sommige gevallen wel gebruikt worden als 8x1. Bovendien is het dus afhankelijk van het aantal textures enz enz.
De nv30(/5/8) kan nooit volledig 8x1 werken omdat bepaalde stappen in de pijplijn altijd 4x2 worden gedaan (colour & Z).
16 pipelines zou dus gigantisch veel zijn want dan kun je ten alle tijden 16 pixels met texture / clock produceren.
Dat is natuurlijk de mooie theorie, in werkelijkheid worden er zelden 16 pixels per clock uitgestpuwt door interne multipasses.
Hoe sterker, groter, uitgebreider je een pijplijn maakt hoe minder multipasses er nodig zijn maar hoe groter de kans dat er delen niet gebruikt worden. Daardoor kan een 8x1 chip zelfs sneller zijn dan een 16x1 chip.
Anyway, we weten niet hoe NV die 16x1 heeft gehaalt, zie de gathering voor speculaties. Volgens mij is die 16x1 niet helemaal zuiver.
Een simpeler ontwerp is om 8 pixels met twee textures / clock te produceren dat op dezelfde manier als nu soms in te zetten is als 16x1 ontwerp. Waarschijnlijk zit Ati met zijn R420 ook op het pad van 8x2 omdat dat gewoon een logische uitbreiding is van het huidige ontwerp en niet al te veel veranderingen vraagt.
De kans dat ATi voor een 8x2 chip gaat is nihil, zeker nu we weten dat het 8x1(natuurlijk veel sterkere pijpen dan de R300) is met 6 vertex eenheden.
Ik denk dat het geen true 16x1 chip zal zijn, maar een 8x2 (sommige gevallen een 16x1). Het aantal transistoren is niet hoog genoeg om een volledig 16x1 design te hebben lijkt me.

Ik verwacht zelf een 8x2 kaart.

Nvidia zal het marketen met:
"Up to 16 pixels per clock rendering engine".

Dit was ook het geval met de NV30:
"Up to 8 pixels per clock rendering engine".
Ik geloof inderdaad ook niet in een "echte" 16x1 chip en wel om de volgende redenen:

De GeForceFX is een 4x2 architectuur die in sommige gevallen 8x1 doet. Het logische vervolg daarop is een "echte" 8x1 (die dus altijd 8x1 haalt en niet alleen in uitzonderingsgevallen) of eventueel 8x2 chip. Dus zeker geen 16x1 chip. Het zou betekenen dat het aantal pipelines verviervoudigt en de chip nog niet 2x zoveel transistors krijgt. Een andere mogelijkheid zou zijn 16x0 :)
nVidia kan misschien wel een 16x1 chip claimen, maar dat zal dan alleen onder zeer specifieke (optimale) opstandigheden gebruikt kunnen worden, net zoals ze nu claimen dat de GeForceFX een 8x1 chip is.

Het hele pipelines verhaal is trouwens toch achterhaald en niet veel meer dan een logische representatie? Ik dacht dat intern helemaal niet met 4 of 8 echte afzonderlijke pipelines gewerkt werd.
ATi had er tot nu toe veel vertrouwen in, maar dat was mogelijk met de (valse?) wetenschap dat de NV40 'slechts' acht echte pipelines zou bevatten.

Volgens mij weet ATi veel meer dan wij weten hoor.
Ik denk dat, dat wel meevalt. Ze lopen vast niet zomaar bij nVidia naar binnen om te kijken wat ze aan het doen zijn.
Maar er zijn vast zat medewerkers bij Nvidia die wel een "extra zakcentje" willen verdienen. Overigens zal dat de andere kant op net zo goed gebeuren.
Muwha.. Das wel erg negatief gedacht. Behalve dat dit niet erg netjes is en een hoop werknemers toch echt wel loyaal zijn aan hun bedrijf, is bedrijfsspionage strafbaar. Dus dit is niet iets dat mensen zomaar even doen.
Muwha.. Das wel erg negatief gedacht.
Welkom in de echte wereld ;)
Behalve dat dit niet erg netjes is en een hoop werknemers toch echt wel loyaal zijn aan hun bedrijf, is bedrijfsspionage strafbaar. Dus dit is niet iets dat mensen zomaar even doen.
Een hoop werknemers zal loyaal zijn, 't hoeven er maar 5 te zijn en je hebt je info. En dat het strafbaar is wil ook niets zeggen aangezien er dagelijks strafbare feiten worden gepleegd.
Ik denk ook dat ATI (en andersom) echt wel meer van elkaar weet dan dat ze eigenlijk hebben vrijgegeven.
Welkom in de wereld die bedrijfsspionage heet.

Ik denk dat nVidia de deuren wel kan sluiten als er vijf medewerkers zijn die geheimen zouden willen én kunnen verkopen.

Dus, als nou daadwerkelijk blijkt dat de NV40 16 ipv 8 pipes heeft dan hebben ze een leuke coup geland.
Dit zijn geen geheimen, dit zijn specs.

Iemand met een érg goede microscoop en een sample kan die al achterhalen.
Over binnenwandelen gesproken... Ik heb hier op geen enkele nieuwspost nog een foto van het gebouw van ATi gezien...

Dat Nvidia een mooie gevel heeft weten we nu wel... maar hoe zit het met ATi?
Maar ati zal in ieder geval alle patenten en technische papieren die nvidia maar half uitbrengt lezen en beter kunnen interpreteren.
Bovendien zullen beiden elkaar best vaak spreken in specificatie discussies en daar het een en ander uit kunnen afleiden.
Tsja, hoe zouden die tructjes moeten werken, dan? Gewoon de benchmark vertellen dtat je er 16 ipv 8. Volgens mij is zo'n opmerking niet vol te houden.

Of zijn daar echte mogelijkheden in?
Volgens mij zal het dan net zoiets zijn als Hyperthreading, maar dan voor de pipelines in een GPU.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True