Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 53, views: 17.896 •

Nvidia claimt dat de nieuwe videokaarten op basis van de Fermi-architectuur hardwarematig 3d blu-ray-content kunnen decoderen. Eerder werd al bekend dat de nieuwe videokaarten een nieuwe anti-aliasing-modus ondersteunen.

Blu-ray 3D logoNvidia is niet erg scheutig met informatie omtrent zijn nieuwe videokaarten, die zij zelf aanduiden met GF100, maar op hun Facebook-pagina is nu bekend gemaakt dat de kaarten hardwarematig 3d blu-ray content af kunnen spelen. Of de videokaarten ook daadwerkelijk 3d blu-ray materiaal zonder problemen kunnen decoderen, zal echter nog moeten blijken, aangezien de specificatie pas deze maand is uitgebracht is en de eerste 3d blu-ray films nog moeten verschijnen.

Eerder werd op de Facebook-pagina van Nvidia al bekend gemaakt dat de Fermi-architectuur over een nieuwe anti-aliasing-modus beschikt, met maar liefst 32 samples. Of het echter om een csaa-modus of een msaa-modus gaat, is onduidelijk. Verder is nogmaals bevestigd dat de GF100-kaarten in het eerste kwartaal van 2010 te koop zullen zijn. Volgens Digitimes zal dat echter pas in maart het geval zijn, de laatste maand van het kwartaal.

In maart zou dan de high-end uitvoering gelanceerd worden, waarna er in het tweede kwartaal een zogenaamde GF104-videokaart wordt uitgebracht. Samen moeten deze videokaarten de GTX 295, 285, 275 en 260 doen vergeten. De huidige GTS 250, GT 240, GT 220 en de GT 9000-serie zullen het in het performance-segment op moeten nemen tegen AMD's 5000-serie, zoals de HD 5770 en HD 5750, maar ook de HD 5670, HD 5650 en de HD 5450, die AMD op de komende CES zou gaan introduceren.

Reacties (53)

Waarom gaan ze nu weer over op 1xx series, het lijkt wel of ze alle nummers willen vullen voordat ATI dit doet..

Verder klopt mijn hartje vol verwachting.. Ik hoop dat er een Mobile versie uitkomt die compatible is met mijn Clevo lappy :)
Dit is gewoon hun product benaming net zoals GTX280 een GT200 is. De kaarten zullen gewoon als GTX3xx uitkomen. De geforce variant heet ook gewoon GT300. GF100 is van tesla dacht ik.
Dit wordt nergens in deze post duidelijk gemaakt, ik was namelijk ook in de veronderstelling dat het GT300 zou worden, wat logisch is.

Tesla wordt volgens mij niet omgenummerd, dit zijn namelijk meer ruwe GPU-kaarten voor clustered supercomputing en niet echt bedoeld voor de consument.
Digitimes(volgens mij de originele bron) zegt dit:
Nvidia plans to launch a 40nm GDDR5 memory-based Fermi-GF100 GPU in March, and will launch a GF104 version in the second quarter to target the high-end market with its GeForce GTX295/285/275/260, the sources pointed out.
(bron)

Je kan dit op meerdere manieren interpreteren:

1) GF100 is Tesla en komt in maart, Geforce komt in April.
2) GF100 is Geforce en komt in maart, Tesla komt in April.
3) GF100 en GF104 zijn interne benamingen voor Geforce kaarten.(Dit denkt Tweakers dus)

Persoonlijk denk ik dat tweakers niet gelijk heeft aangezien dat zou betekenen dat Tesla helemaal niet wordt genoemd. En aangezien het Tesla is die voor Q2 is aangekondigd en Geforce voor Q1 lijkt het me dat GF100 de Geforce reeks is en GF104 de Tesla reeks.

Edit:

Ik vind de bewoording van digitimes overigens erg onduidelijk. Dit:
to target the high-end market with its GeForce GTX295/285/275/260
lijkt namelijk te zeggen dat ze de high end markt met de oude kaarten gaan bedienen terwijl het natuurlijk over het vervangen van die oude kaarten moet gaan.

Ook is het vreemd dat ze dat in één zin met en de GF100 en de GF104 zetten. Dit duid er namelijk op dat beide Geforce zijn en de GF104 de high-end variant. Voor zover ik weet is de high-end variant bij Nvida echter altijd degene met het lagere nummer geweest(de GF100 dus).

[Reactie gewijzigd door hollandismad op 29 december 2009 12:06]

Volgens mij gaat het hele artikel van digitimes alleen over GPU's, en ik denk niet dat Tesla daar uberhaupt onder valt. Tesla wordt namelijk door NVIDIA zelf gemaakt en verkocht, en niet via AIB partners die de chips op een plankje zetten zoals bij gewone GPUs het geval is. Daarom vind ik deze zin ook interessant:
However, the company recently notified graphics card makers that the official launch will now be in March 2010, the sources noted.
Aangezien die AIB partners geen Tesla maken denk ik dat de GF100 chip dus gewoon een normale GPU is (zou digitimes uberhaupt anders wel de hele tijd het woord GPU gebruiken als het ook op GPGPU kaarten gaat?)

Ik denk dus dat Tweakers interpretatie dat het hier allemaal om gewone GPU's gaat correct is. Wat NVIDIA met hun Tesla kaarten gaat doen is ook veel lastiger om te achterhalen voor de pers, omdat alleen NVIDIA hier over gaat, terwijl bij de gewone GPUs ook bronnen bij de AIBs info kunnen lekken.
3) GF100 en GF104 zijn interne benamingen voor Geforce kaarten.(Dit denkt Tweakers dus)
GF100 en GF104 zijn, als de NVIDIA tradities rond codenamen enigszins gevolgd worden, geen namen voor kaarten maar namen voor chips. GF100 zou hierbij de high-end Fermi architectuur kunnen zijn zoals NVIDIA die al heeft voorgesteld, terwijl GF104 een kleinere, minder complexe chip is voor mid-range segment. Daarbij wordt 1 chip ook vaak voor meerdere kaarten gebruikt. Zo zijn GTX285, 280, 275 en 260 allemaal gebaseerd op G200. Goede kans dat we dus een GTX360 en 380 krijgen met GF100 en dan een GT3XX met GF104. Los daarvan kunnen de Tesla kaarten ook gewoon gebaseerd zijn op dezelfde GF100 chips.
Ik hoop dat nVidia dit keer echt uit de verf gaat komen met die producten. Want mijn kaart is aan vervanging toe. Ik begin me een beetje te ergeren aan de werkwijze van dit bedrijf. Als het aan mij lag dan koos ik nu voor ATI. Maar ATI is geen optie ivm met brakke Linux driver
Hoelang is het geleden dat je een ATi Linux driver hebt geprobeerd? Lees eens goed de laatste nieuws postings en reacties op het forum door. AMD/ATi heeft de Linux support een stuk verbeterd.
Bij mij nog geen paar dagen geleden op m'n laptop met de nieuwste ati drivers die ik kon vinden.
Daar steekt een HD3650M in.

Ze zijn inderdaad stukken verbeterd tov hun ati rage tijden, maar blijven nog altijd de meest buggy/minst performante van de twee hoor.

Ik persoonlijk heb zelfs problemen met een bepaalde bug die na een tijd je WM z'n acties zo traag laat lopen, bv een window minimizen duurt 30secs.
De enige oplossing die ik vond was zo goed als alle versnellingen *uitzetten*.
Pas dan ging het redelijk goed.

Nee ik gebruik geen compiz oid, gewoon standaard ati drivers op een gentoo distro (en moet geforceerd xorg 6.5 blijven gebruiken).
radeonhd drivers werken dan weer goed, maar zonder deftige 3D rendering en zonder suspend support.

Maargoed, genoeg offtopic.
Ik hoop dat ze bij de launch weer niet zoals gewoonlijk 500 a 700€ gaan kosten.
Alsook ben ik benieuwd naar de performance in games. Ziende dat ze hiervoor toch nog een groot deel van de tijd gebruikt worden.

Alsook, VDPAU is ondertussen al goed gevorderd. Ik wacht nog altijd op deftige hardwarematige video decoding versnelling voor m'n ATi kaartje in linux :). spijtig dat ze zeiden dat het enkel voor de 4*** reeksen en hoger ging zijn, al reporteert de X.org logs dat m'n 3650M die feature ook ondersteunt?

[Reactie gewijzigd door GuntherDW op 29 december 2009 15:54]

Das voor mij de reden om te wachten op nVidia. Ik had goede hoop toen AMD / ATI de drivers aan de open source gemeenschap deden doneren dat de ondersteuning snel zou verbeteren. Maar dat duurt en dat duurt maar. Dus mijn 8800GT moet het nog even uitzingen. En dat kan deze keer op keer hernoemde kaart best nog wel een maand of 3 volhouden :D
@Dune: wijs mijj dan eens op goede drivers die video decoding doen op een 780G (HD3200) op Linux en *BSD...

Onder FreeBSD is zelfs geen native 64-bit Xorg ATI driver. Dus ja, ATI/AMD is echt brak met zijn support.
Zijn er niet. Echt jammer. Top kaart met slechte Linux drivers. ***dilemma***dilemma***dilemma***
Dit is gewoon hun product benaming net zoals GTX280 een GT200 is.
Sterker nog, iedereen praat wel over GT200, maar de chip heet gewoon G200. Het is dan ook gewoon een voortzetting van G80, G92, G200. Wel interessant is dat NVIDIA dus nu kennelijk GF100 gebruikt, hoewel ik ook wel eens heb gelezen dat ze intern nog steeds werken met de NVXX chip codenamen.

Al dit gedoe laat wel zien dat NVIDIA nog steeds goed is in het creeeren van verwarring :P Wij consumenten moeten vooral niet te veel belang hechten aan de codenamen, NVIDIA is daar de laatste jaren altijd erg wispelturig in geweest. Ik zou er dus niet zomaar conclusies aan verbinden :)

[Reactie gewijzigd door Snoitkever op 29 december 2009 13:39]

het is voor nvidia te hopen dat ze nu weer eens waar gaan maken wat ze roepen, het zoveelste rookgordijn kan ze wel eens meer gaan kosten dan ze lief is.. voornamelijk omdat amd ook niet stil zit en intel nog steeds wel eens heel plotseling het larrabee konijn uit de hoed kan gaan toveren.
kortom: nvidia zal waar moeten maken wat ze roepen, anders heb je over een jaar amd voor de losse kaartjes, intel voor de meeste igp's en waar staat nvidia dan?
Die HW blueray decodering zal geen nut hebben als ze gpu niet sneller is met dezelfde prijs als de ati(of iets hoger qua prijs), tenzij dit ook op goedkope mobile chips komt, dan is dat wel een goed selling point. Maar die dingen worden toch goed afgespeeld dus waarom dan persé HW decoding.
en wat mag het verschil nou wezen tussen
csaa-modus en msaa-modus?
Andere/Betere manier van het zoeken naar de gedeeltes waar de AA ook echt toegepast moet worden?
Bij deze wat leesvoer ;) alle soorten AA zijn hier uitgelegd en t verschil onderling ook. Het is te uitgebreid om hier alles neer te zetten.
http://www.behardware.com...ce-8800-gtx-8800-gts.html

Het is alleen nog te hopen dat Nvidia ook in t midden en lage segment ook iets nieuws introduceert.
Waarom kiezen ze niet meer voor een logische benaming van de videokaarten? Tot de 9000 serie was het iig nog een beetje overzichtelijk... Nu wordt het 1 grote puinhoop voor veel mensen...

Is hetzelfde als toen ze de 9000 serie gingen hernoemen naar GTS en GTX... Veel mensen gingen van een 9800 over naar een GTS260 omdat ze dachten dat het veel verschil dermate groot was door de nieuwe benaming...
Waarom kiezen ze niet meer voor een logische benaming van de videokaarten?
Je geeft het antwoord zelf al:
Veel mensen gingen van een 9800 over naar een GTS260 omdat ze dachten dat het veel verschil dermate groot was door de nieuwe benaming
Maar de vraag blijft eigenlijk nog open staan... Want als de GF100 kaarten de GTX 295, 285, 275 en 260 moeten doen vergeten is het geen logische benaming...

Dan krijg je weer dezelfde situatie als met de benaming van de 9000 serie naar de GT200 serie...
Wat dus goed verkoopt
Nvidia is niet erg scheutig met informatie omtrent zijn nieuwe videokaarten, die zij zelf aanduiden met GF100
GF100 is een codenaam voor de chip, niet voor de kaarten. Aangezien NVIDIA al een paar kaarten heeft hernoemd naar de Geforce 300 serie is het logisch dat de Fermi/GF100 chips straks op GTX3X0 kaarten komen.

[Reactie gewijzigd door Snoitkever op 29 december 2009 12:51]

Het duurt allemaal erg lang bij nvidia, nu maar hopen dat de prestaties de 5870 doen vergeten want anders wordt het wel heel zwaar voor nvidia. Ik wil zelf een nieuwe kaart kopen en ik ga echt voor de beste bang for buck kaart in het hogere segment en daar is er maar 1 keuze op het moment...

verder wel triest dat nvidia nog steeds de G92 chip gebruikt voor het middensegment, hiermee geven ze eigenlijk gewoon die hele markt aan ATI aangezien die op elk vlak nu de betere keuze heeft. Qua snelheid en qua features.
Eerlijk gezegd niet erg indrukwekkend dit soort dingen zijn ook toe te voegen via driver updates.
Hoe wil je hardwarematige decodering toevoegen middels een driverupdate?
Wat ik begreep zijn er aardig wat dingen herprogrammerbaar bij de DX11 kaarten :) En dit is er vast ook wel in te bakken///
Da's wel een erg dapper statement, bronnen?

Als je ook maar een idee hebt van hoe gecompliceerd het is om AA te berekenen of 3d bluray te decoderen dan had je dit niet gezegd :)

[Reactie gewijzigd door 4g0ny op 29 december 2009 11:34]

http://en.wikipedia.org/wiki/DirectCompute
DirectCompute zou gebruikt kunnen worden voor het decoderen van 3D BluRay content.
Met DX11 / Cuda / OpenCL kan je dan ook behoorlijk veel, lijkt mij wel te doen. Het voornaamste voordeel van dedicated hardware is de grote performance winst die je ermee haalt.
AMD heeft op 7 December 2009 ook een PR de wereld in gestuurd dat ze tijdens CES ook een Blu Ray Stereoscopic 3D Playback demonstratie zullen geven. Dus NV is niet de enige die het kan, maar de huidige HD5000 serie schijnt er ook al toe in staat te zijn:

http://www.amd.com/us/pre...ages/amd-3d-2009dec7.aspx
De gehele HD5000 serie (en talloze krachtige HD4000 versies) kan al Picture-In-Picture Blu-Ray hardwarematig versnellen. Aangezien 3D niets meer is dan 2 aparte beelden voor linker en rechter oog, was dit dan ook wel te verwachten.

Wie het eerste is met 3D PiP, zal echter afwachten worden :+

NVidia doet echter alleen de laatste tijd aan press-statements, en daadwerkelijke produkten laten op zich wachten. Ik hoorde al een lange tijd terug dat ze de G300/Fermi pas laat in 2010 voor elkaar zouden krijgen, omdat ze nieuwe tape-outs moesten doen, die vaak 6 maanden tijd vergen. Maar zo groot als nVidia is, had ik toch wel verwacht dat ze het nog in het einde van 2009 zouden redden, of in ieder geval Jan/Feb.

De prijzen van de AMD/ATi HD5000 series zijn om die reden dan ook amper verandert, omdat er simpelweg geen concurrentie is. Aan de andere kant komen we nu wel in een mooie situatie dat als we inderdaad in Maart 2010 het Fermi geweld tegemoet mogen zien, dat we op dat moment al waarschijnlijk halverwege de ontwikkelingstijd van de HD6000 series zitten. Op die manier veroveren AMD en nVidia elke keer de koppositie, zodat er meer druk op innovatie komt en wij als consument kunnen genieten van de massieve prestatie verhogingen O-)
Word met 3d hier het zelfde effect bedoelt als nu in de bios de film Avatar 3d?
Want als dat zo is dan MOET ik dat hebben:D
Yup, 'Circular Polarization' zoals het RealD van Avatar.

Het oude 3D waar je een rood/groen brilletje voor nodig hebt is rijp voor de geschiedenis.

Overigens vind ik het bijzonder vreemd dat zoiets niet in software (driver) opgelost kan worden.
Ja en nee. Het idee is inderdaad dat je straks thuis avatar ook in 3D kan kijken, net als in de bios. De techniek is alleen heel anders, waar bioscopen werken met gepolariseerde glazen (dus links en rechts worden tegelijk geprojecteerd) werkt de thuisversie met brillen waar afwisselend links en rechts donker gemaakt wordt en om de beurt links en rechts op het scherm wordt weergegeven. De vraag is dus wel of dit systeem net zo makkelijk en fijn wegkijkt als de bios-versie, maar dat hangt waarschijnlijk ook van de persoon af.
Interlaced :)

Kijk maar naar het nieuwe scherm van Zalman:

http://www.acousticpc.com/zalman_zm_m220w_lcd_monitor.html
Denk dat nvidea het nog moeilijk gaat krijgen, al zouden ze nu met een kaart komen die net zo goed presteerd als een ATI 5 serie, en ze zouden er een prijs aanhangen die rond (meestal nvidea iets hoger) dezelfde prijs is als een vergelijkbaar bordje van ati, dan zal ati niet lang wachten en hun prijzen naar beneden gooien en dan alsnog de "slag" gewonnen hebben met meeste bang for buck.

Kijk zelf ook nog naar een nieuwe 3d kaart, heb altijd nog nvidea gehad maar deze keer wordt het wel een ati!
Het plan is niet om even goed te gaan presteren als de 5 serie. Het plan is om veel beter te presteren. Niet zo raar ook, ze hebben een veel grotere complexere chip, dus als ze uiteindelijk niet beter presteren dan AMD's RV870 hebben ze een probleem.
Inderdaad; ze hebben een dik half jaar langer gedaan over het lanceren van een nieuwe lijn, dus het zou nogal vreemd zijn als de kaarten hetzelfde presteren als de dan al verouderde Ati-tegenhangers.

In ieder geval is nu bekend wanneer de nieuwe nvidia kaartjes gelanceerd worden, uit een meer betrouwbare bron dan het vorige nieuwsbericht. (al ging dat niet specifiek over de lancering)
Inderdaad; ze hebben een dik half jaar langer gedaan over het lanceren van een nieuwe lijn, dus het zou nogal vreemd zijn als de kaarten hetzelfde presteren als de dan al verouderde Ati-tegenhangers.
No offence, maar de tijd wanneer de kaart gelanceerd wordt zegt niets over de performance van een chip. AMD heeft ook een half jaar langer gedaan over de lancering van de HD5600 serie dan de HD5800 serie, maar is toch echt een stuk langzamer dan de HD5800 :P Daarnaast weet niemand hoe lang het ontwikkeltraject van beide chips is geweest, wat veel interessanter is. Het is natuurlijk niet zo dat NVIDIA en AMD met elkaar afspreken om tegelijk te beginnen aan de ontwikkeling van een nieuwe chip, dus als NVIDIA ook een half jaar later zou zijn begonnen aan Fermi dan AMD zou het niet vreemd zijn dat ze er ook een half jaar later mee klaar zijn. Het hangt van zoveel factoren af, start van het project, complexiteit, hoeveelheid mensen die er aan zitten, ervaring van die mensen, focus van het project, druk om deadlines te halen, enzovoort.

Wat Fermi sneller moet maken dan RV870 is niet de ontwikkeltijd maar de complexiteit van de chip. Fermi heeft 3 miljard transistors op 450-500mm2, terwijl RV870 maar 2 miljard transistors op 334mm2 heeft. Heel simpel bekeken kan Fermi dus 50% sneller zijn dan RV870. In de praktijk hangt dat natuurlijk totaal af van de gekozen architectuur en gehaalde clocksnelheden, maar 50% of zelfs meer performance is zeker niet onhaalbaar.
noone taken. Nvidia zal wel moeten met iets nieuws te komen, ze slaan op dit moment namelijk nogal een gek figuur in de gfx-kaarten wereld. Maw. er is iets hevig mis gegaan op de afdeling planning van nvidia, want mi. hadden ze al lang een nieuwe kaart moeten hebben. Dat weet NV ook, getuige de paperlaunches en zelfs een nep-fermi die getoond werd... Ondanks dus dat de architectuur wellicht complexer is, heeft nv. een deel markt moeten afgeven aan concurrentie, en dat kan nooit de bedoeling van een commercieel bedrijf zijn, hoe technisch hoogstaand je uitleg dus ook is, de plank, bedrijfseconomisch gezien, wordt hier door NV nogal misgeslagen...
Nvidia heeft sowieso al een probleem want Fermi is te groot, te warm, te lage yields, te duur en zal geen gigantische sprong voorwaarts zijn op wat AMD tegen die tijd heeft. Zelfs als Nvidia de snelste kaart heeft dan nog verliezen ze eigenlijk want AMD heeft het grote voordeel dat hun chips veel kleiner dus sowieso een stuk goedkoper te produceren zijn wat AMD bij de grote massa (OEM's) altijd zal laten winnen. Misschien winnen ze niet op de 500+ euro markt, maar ja, lekker belangrijk daar kan je geen bedrijf op runnen op die markt.
Nvidia heeft sowieso al een probleem want Fermi is te groot, te warm, te lage yields, te duur
en dat weet jij natuurlijk, want je bent een ingewijde bij NVIDIA. Of baseer je je nou op de geruchten die op roddelsites de ronde doen? Zijn dat dezelfde geruchtensites die beweerden dat G200 yields waardeloos waren, en dat G80 geen unified shaders zouden hebben, die maanden geleden al zo nauwkeurig de foute specs van Fermi wisten te voorspellen, die sites??
en zal geen gigantische sprong voorwaarts zijn op wat AMD tegen die tijd heeft.
Toch interessant dat jij dat al weet, terwijl verder nog niemand handen op de kaart heeft weten te leggen.
Zelfs als Nvidia de snelste kaart heeft dan nog verliezen ze eigenlijk want AMD heeft het grote voordeel dat hun chips veel kleiner dus sowieso een stuk goedkoper te produceren zijn
Ja, AMD heeft kleinere chips, maar als NVIDIA 50% sneller is dan AMD heeft AMD toch echt een probleem. Bovendien komt NVIDIA niet alleen met high-end kaarten gebaseerd op Fermi, maar ook later met mid-range kaarten, en zolang hun perf/mm2 maar beter is dan die van AMD winnen ze makkelijk.
Misschien winnen ze niet op de 500+ euro markt, maar ja, lekker belangrijk daar kan je geen bedrijf op runnen op die markt.
Waarom koopt iedereen nog steed NVIDIA? De huidige marktsituatie waarin NVIDIA met een slechter product nog steeds veel meer weet te verkopen laat zien dat halo producten en een goede naam veel belangrijker zijn dan prijs/prestatie verhouding.

[Reactie gewijzigd door Snoitkever op 29 december 2009 15:51]

[...]

en dat weet jij natuurlijk, want je bent een ingewijde bij NVIDIA. Of baseer je je nou op de geruchten die op roddelsites de ronde doen? Zijn dat dezelfde geruchtensites die beweerden dat G200 yields waardeloos waren, en dat G80 geen unified shaders zouden hebben, die maanden geleden al zo nauwkeurig de foute specs van Fermi wisten te voorspellen, die sites??


[...]

Toch interessant dat jij dat al weet, terwijl verder nog niemand handen op de kaart heeft weten te leggen.


[...]

Ja, AMD heeft kleinere chips, maar als NVIDIA 50% sneller is dan AMD heeft AMD toch echt een probleem. Bovendien komt NVIDIA niet alleen met high-end kaarten gebaseerd op Fermi, maar ook later met mid-range kaarten, en zolang hun perf/mm2 maar beter is dan die van AMD winnen ze makkelijk.


[...]

Waarom koopt iedereen nog steed NVIDIA? De huidige marktsituatie waarin NVIDIA met een slechter product nog steeds veel meer weet te verkopen laat zien dat halo producten en een goede naam veel belangrijker zijn dan prijs/prestatie verhouding.
oh gut, ik had je naam nog niet zien staan maar toen ik je triade zat te lezen kreeg ik al een voorgevoel. Een aantal Ingewijden hier op het forum bevestigen al dat Fermi geen top game kaart gaat worden en dat ze blij mogen zijn als ze een voorsprong van 15% op de 5870 hebben. Meerdere bronnen hebben al bevestigd dat de Fermi is gecastreerd naar 448 shaders in plaats van 512.
Als de matige yields nog even aan houden worden de core clocks ook niet denderend en kijk ik er niet van op dat de Fermi maar net even snel word als de 5870.
Nee ik geloof niet in sprookjes, jij nog wel ?
Meerdere bronnen en ingewijden hebben bevestigd dat Fermi op 55nm gebakken wordt.
Meerdere bronnen en ingewijden hebben bevestigd dat Fermi een MIMD gebaseerde architectuur is.
Meerdere bronnen en ingewijden hebben bevestigd dat Fermi nog voor RV870 op de markt komt.
Meerdere bronnen en ingewijden hebben bevestigd dat Fermi een 512 bit geheugeninterface heeft.
Meerdere bronnen en ingewijden hebben bevestigd dat er al werkende Fermi samples zijn in Q2 09
Meerdere bronnen en ingewijden hebben bevestigd dat er nog geen werkende Fermi samples zijn in Q2 09
Meerdere bronnen en ingewijden hebben bevestigd dat er....

Nee, ik geloof niet in sprookjes, maar ik geloof ook niet in tabloids, ik geloof niet in de prive en de story, en ik geloof dus ook niet in BSN, Fudo, SemiAccurate of meer van die rioolpers. Ze hebben het vaker fout dan goed. Ik heb nu alleen even een lijstje met voorbeelden rond Fermi genoemd, maar er was natuurlijk veel en veel meer onzin omheen gepost, en hetzelfde geldt natuurlijk voor alle AMD chips. Waarom is al die speculatie uberhaupt nodig? Is het zo moeilijk om gewoon af te wachten en te zien wat er daadwerkelijk aan eindresultaten uitkomt?

In tegenstelling tot wat sommigen lijken te denken ben ik geen NVIDIA fanboy. Ik raad vrienden al tijden AMD kaarten aan. Ik ben de eerste om toe te geven dat AMD sinds de 4000 serie flink op NVIDIA voorloopt, dat G200 een zware tegenvaller was, dat NVIDIA's renaming-strategie zuigt. Als Fermi straks uitkomt en hij heeft inderdaad lage clocks, hoog verbruik en minder clusters dan beloofd zal ik dat direct toegeven. Echter, ik zie niet in waarom we nu al zijdes moeten gaan innemen, waarom we nu al alle nieuwtjes moeten gaan volgen en nu al een winnaar moeten gaan uitroepen. Als er iets is waar ik de laatste jaren slecht tegen kan is het alle onzinnige en vaak ook slecht-geinformeerde discussies rond chips die nog lang niet uit zijn. Als iemand als t_o_c dan aankomt met een op basis van dat soort ongegronde speculatie geschreven post die NVIDIA afmaakt reageer ik daar verontwaardigd op ja.

[Reactie gewijzigd door Snoitkever op 29 december 2009 17:45]

Waarom schrijven heel veel mensen nvidea en blue-ray? Het is toch echt Nvidia en Blu-ray. Ik probeer niet de wijsneus uit te hangen, ik vraag het mij echt af.
Nou, niet om lullig te doen, maar hoewel iedereen Nvidia, NVidia of nVidia schrijft is de echt correct schrijfwijze alleen NVIDIA met alleen hoofdletters. Dus je doet het zelf eigenlijk ook fout :P Denk dat de meeste mensen er gewoon geen aandacht aan besteden of dat het er per ongeluk tussendoor slipt.
Moeten dan de uitgangen van de kaarten ook niet HDMI 1.4 aankunnen? De laatste kaarten (5XXX serie) van AMD ondersteunen alleen 1.3. Zou dit betekenen dat Nvidia dit wel kan? Misschien komt AMD met een update van de kaarten met een nieuwere HDMI uitgang of zou het dan toch softwarematig opgelost worden?

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013