Door Marc Rademaker

Redacteur

Nvidia onthult GF100-architectuur

18-01-2010 • 15:24

103

Multipage-opmaak

De GF100: 512 cuda-cores

In oktober vorig jaar presenteerde Nvidia zijn Fermi-architectuur voor gpu's, maar de fabrikant richtte zich toen vooral op de toepassingen voor Tesla en bleef angstvallig stil over de consumentenkant. De Fermi-gpu voor de GeForce-lijn heeft als codenaam GF100. Tijdens de CES, begin januari, toonde Nvidia de GF100-architectuur achter gesloten deuren al aan een selecte groep van journalisten, en maandag mocht de informatie aan het grote publiek worden vrijgegeven.

De GF100 is voor een deel gebaseerd op de GT200-architectuur, maar op een aantal punten veranderde Nvidia het ontwerp radicaal. Het aantal rekeneenheden, oftewel cuda-cores, spreekt het meest tot de verbeelding, en daar heeft GF100 er maximaal 512 van. De opbouw is als volgt. Op het laagste niveau zijn er 32 cuda-cores aanwezig in een zogenaamde Streaming Multiprocessor; vier van die sm's vormen samen een Graphics Processing Cluster; en vier gpc's vormen samen de GF100-chip.

GF100 Blokschema

De GT200 op de schop

Het verdwijnen van een enkel blok fixed-function-hardware is de meest opvallende verandering ten opzichte van de vorige architectuur, aldus Anandtech. De GigaThread Engine, die alle rekeneenheden van instructies voorziet, is het enige stuk vaste-functiehardware dat is overgebleven. De Raster Engine, die alle raster-operaties voor zijn rekening neemt, lijkt veel op die van de GT200-architectuur, maar bij de GF100 beschikt elke gpc over een Raster Engine, voor een totaal van vier. Op de tweede plaats is er de PolyMorph Engine, waar alle geometrische berekeningen gedaan worden en waar ook de Tesselator is gehuisvest.

GF100 Raster Engine

De PolyMorph Engine zou weleens de reden kunnen zijn waarom de GF100 zoveel vertraging heeft opgelopen. Terwijl de GT200 nog een enkele grote rekeneenheid had voor de geometrie, zijn het er nu zestien: een voor elke sm. De PolyMorph Engines afzonderlijk zijn zelf nog gewone in-order-pijplijnen, maar omdat er zestien aanwezig zijn, is het door de paralelle structuur toch mogelijk om rekentaken out of order uit te voeren. Dit levert ook de problemen op van out of order-execution, aangezien bij sommige instructies de uitkomst ervan noodzakelijk is om de volgende berekening te kunnen uitvoeren.

GF100 PolyMorph Engine

Het opsplitsen van de fixed-function-hardware heeft als voordeel dat kleinere gpu's, afgeleiden van GF100, niet alleen over minder cuda-cores beschikken, maar ook over minder Rasterizer Engines en PolyMorph Engines. Een andere aanpassing, die ook betrekking hebben op de schaalbaarheid, is die van het aantal texture units. De GF100 heeft vier texture units per sm, terwijl de texture units bij de GT200 nog aan de Thread Processing Cluster, vergelijkbaar met de GPC, gebonden waren. Al met al zou GF100 een veel hogere texture fetch rate hebben dan de GT200. Tevens draaien de texture units op de helft van de snelheid van de shaderclock, in tegenstelling tot de texture units bij GT200, die op de gpu-kloksnelheid liepen.

GF100 Streaming Multiprocessor

Als laatste zijn er nog de render back-ends oftewel de rops. Er zijn zes blokken met elk acht rops, wat het totaal op 48 brengt. Elk blok wordt gevoed door een 64bit-geheugenbus, wat uiteindelijk een geheugenbus van 384bit oplevert. De rops draaien samen met de gedeelde L2-cache op de gpu-kloksnelheid, terwijl alle andere onderdelen, waaronder de texture units, de PolyMorph Engines, de Rasterizer Engines en de shaders zelf op de helft of op de gehele shader-kloksnelheid draaien. De kloksnelheden zijn tot op heden echter onbekend, niet omdat Nvidia ze niet wil vrijgeven, maar Nvidia-technici de optimale snelheden nog aan het vaststellen zijn.

Nvidia's overige troeven

Nvidia heeft uitgelegd waarom er zoveel tijd is gestoken in het ontwerpen van de PolyMorph Engines, die zoals gezegd de Tesselator aan boord hebben: een belangrijk onderdeel van de DirectX 11-specificatie. Om GF100 in perspectief te zetten, wijst de videochipfabrikant erop dat de prestaties op het gebied van geometrie in de periode tussen het verschijnen van de NV30, uit 2003, en de GT200, in 2008, slechts met een factor drie zijn toegenomen. Ten opzichte van GT200 biedt GF100 echter geometrische prestaties die tot acht keer hoger liggen. Hiermee hoopt Nvidia AMD af te troeven op het gebied van tesselatie: de Fermi-kaarten zouden een betere beeldkwaliteit met meer polygonen bieden dan AMD's videokaarten momenteel kunnen.

GF100 Tesselation Performance

GF100 Tesselation demo GF100 Tesselation demo 2

Ook in de render-backend heeft Nvidia nog een aantal aanpassingen doorgevoerd. Ten eerste werd er een enkele vector-instructie in de hardware ingebouwd, die ervoor zorgt dat het gebruik van jittered sampling minder prestatieverlies oplevert dan voorheen. Met behulp van jittered sampling is het onder andere mogelijk om schaduwen natuurgetrouwer te renderen. Verder zorgt de toename in het aantal rops en een aantal aanpassingen bij de rops zelf ervoor dat er bij het gebruik van 8xAA niet veel prestatieverlies is ten opzichte van 4xAA.

GF100 AA Prestaties

Benchmark afkomstig van Nvidia

Nvidia is echter nog een stapje verder gegaan. Het aantal samples bij coverage sampling anti-aliasing is opgekrikt van 16 naar 24. Veel belangrijker is echter de mogelijkheid van de CSAA-hardware om samples te nemen bij zogeheten alpha to coverage-testwerk. Voorheen kon alleen de MSAA-hardware dit, waardoor het aantal samples op maximaal 8 lag. Met de mogelijkheid om de CSAA-hardware te gebruiken, ligt het aantal samples op 32. Het effect hiervan is dat textures die gebruikt worden om gras, hekken en bladeren weer te geven, er stukken beter uit komen te zien, terwijl de prestaties er nauwelijks onder zouden lijden.

GF100 Gras zonder CSAA GF100 Gras met CSAA

De nieuwe functie zou eigenlijk weinig meer zijn dan de reeds bestaande transparancy multisample anti-aliasing-functie, maar dan zonder het bijbehorende prestatieverlies. Ook zou de nieuwe architectuur minder last hebben van het bekende fenomeen texture popping.

3D Vision Surround: multimonitorweergave in 3d

Bij Nvidia's eerdere aankondiging van Fermi benadrukte de videochipmaker vooral de gpgpu-kracht van zijn nieuwe architectuur. Door de verbeterde gpgpu-mogelijkheden zouden de game-prestaties echter ook toe moeten nemen. De architectuur kan namelijk erg snel schakelen tussen het renderen van grafische beelden en het berekenen van bijvoorbeeld PhysX-simulaties. Hierdoor zou de prestatievermindering door het uitvoeren van PhysX-calculaties bij videokaarten op basis van GF100 duidelijk lager liggen dan bij GT200-videokaarten.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Zodra GF100-kaarten te koop zijn, zal Nvidia een aantal demo's vrijgeven die de sterke punten van de nieuwe architectuur moeten benadrukken. Gepland is onder meer een raytracing-demo van de nieuwe Ferrari 458 Italia. De demo maakt gebruik van zowel rasterization - de techniek die door vrijwel alle videokaarten gebruikt wordt - als raytracing. In de demo werd de snelheid van GF100 geschat op het drievoudige van die van GT200, maar van daadwerkelijk realtime raytracing is nog geen sprake: het aantal fps lag op 0,63.

Nvidia laat de aankondiging samenvallen met die van 3D Vision Surround, dat al tijdens de CES werd gedemonstreerd. Met deze techniek kunnen twee videokaarten tezamen drie beeldschermen aansturen en de beeldschermen vormen dan samen één geheel. De techniek is dan ook vergelijkbaar met ATI Eyefinity, maar Nvidia gaat nog een stapje verder door het ook mogelijk te maken om met de drie beeldschermen gebruik te maken van 3D Vision. Daar zijn dan wel drie 120Hz-panelen of -projectors voor nodig. De techniek is overigens niet voorbehouden aan GF100: de techniek werkt softwarematig en met nieuwe drivers kunnen ook twee GT200-kaarten in sli drie beeldschermen aansturen.

Nvidia 3D Vision Surround

Reacties (103)

103
98
74
13
0
8
Wijzig sortering
Hier meer:
NVIDIA’s GF100: Architected for Gaming Anandtech

NVIDIA's Fermi GF100 Facts & Opinions HardOCP

NVIDIA GeForce GF100 Architecture TechpowerUp

NVIDIA GF100 (Fermi) Technology preview Guru3D

Vooral die van Anandtech en HardOCP bezitten veel info. :)

[Reactie gewijzigd door -The_Mask- op 23 juli 2024 06:42]

Voor zover er sprake is van informatie. Ik zie het echt meer als zoethoudertje en misinformatie. De info in kwestie is namelijk niet onafhankelijk en de tests die ze gebruiken zijn overduidelijk uitgezocht.

De tesselation demo is bijvoorbeeld heel erg licht qua textures en shaders.
Ook wordt Fermi vergeleken met HD5870 wat irreeel is gezien de verwachting voor de prijs (de gelijk of hoger zal liggen dan HD5970).

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

Dat ze de GT100 met een HD5870 vergelijken vindt ik niet zo'n probleem, ik vraag me meer af wat de grafiekjes werkelijk vertellen. Dat iets 6 keer sneller is is leuk, maar hoe goed merkt je dit in een game? Is het zelfs wel te zien met het blote oog. Leuke cijfertjes, daar niet van, maar wat stellen ze voor. (Het zijn natuurlijk wel goede zoethoudertjes; een enorm verschil en ze zullen later in reviews niet snel gecontroleerd worden) En in het Hawx plaatje komt geen AMD / ATi kaart voor, alleen een GTX285 die gelukkig verslagen wordt door Fermi.

Voor nVidia zal het er heel erg vanaf hangen hoe snel ze goedkopere (zowel productie als consumentenprijs) derivaten kunnen leveren, zodat ze een groter deel van de gamersmarkt kunnen bedienen.

Edit:
Volgens Tweakers.net is de HD5870 ongeveer 50% sneller dan de GTX285 (zie tekst onderaan) in HAWX met 4xAA. De GTX285 staat op 160%, dus dan zou de HD5870 op 1.5*160% = 240% uitkomen, terwijl de GF100 op 257% staat.
Heel simpel, in 5 minuten opgezocht en uitgewerkt. Veel mogelijke factoren genegeerd.

Edit2 @ kalizec : De yields van TSMC voor het 40 nm precede zijn de laatste tijd aardig vooruit gegaan. En aangezien afgeleide (lower-end) chips kleiner zijn, hebben die ook betere yields. Daarnaast heeft ATI AMD last van dezelfde yield problemen.

[Reactie gewijzigd door Zaffo op 23 juli 2024 06:42]

Dat iets 6 keer sneller is is leuk, maar hoe goed merkt je dit in een game?
Niet want die demo is niet vergelijkbaar met een game. En Fermi is dan ook niet 6x sneller in een game.
Voor nVidia zal het er heel erg vanaf hangen hoe snel ze goedkopere (zowel productie als consumentenprijs) derivaten kunnen leveren, zodat ze een groter deel van de gamersmarkt kunnen bedienen.
Het zal er nog veel meer vanaf hangen hoe snel de yields gaan toe nemen. Want als die ten opzichte van enkele maanden geleden niet fors zijn toegenomen zullen ze geld bij moeten leggen op elke Fermi.
De GTX285 staat op 160%, dus dan zou de HD5870 op 1.5*160% = 240% uitkomen, terwijl de GF100 op 257% staat.
Een Fermi is dus 7% sneller in HawkX (een TWIMTBP titel) als een HD5870. Dat is erg teleurstellend voor Nvidia. Gezien een GTX380 rond de 280 watt zal liggen qua energie-verbruik en een HD5870 op 188 watt zit.

Edit2 @ Zaffo :
De yields van TSMC voor het 40 nm procede zijn de laatste tijd aardig vooruit gegaan.
Klopt, maar gezien Fermi fors groter is dan Cypress en de foutgevoeligheid afhankelijk is van het kwadraat van het oppervlak heeft Nvidia veel meer last van dezelfde yield problemen dan AMD // ATI.

Dus ja, het zijn dezelfde yield problemen, maar Fermi heeft hier altijd meer last van.

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

Anoniem: 196662 @Zaffo19 januari 2010 08:50
Nah AMD heeft juist veel minder last van die yields omdat hun chip veel kleiner is. Daarom kan AMD al kaarten maken terwijl NVIDIA nog met oude revisies en yields van 2% bezig was.
Voor de massa en meeste high-end user speeld prijs een grote rol.
Dus daarmee is 5870 vs GF100 vergelijken tussen twee verschillende prijs klassen.

Maar als je snelste single chip kaart wilt vergelijken met wat de concurent heeft. Dan krijg je dus die wel tegen overmekaar.
Daarnaast kun je de seems ook erg goed zien in de Ocean scene, NVidia demo code is nooit erg netjes helaas :(, er missen meestal een paar puntjes op de i.
Anoniem: 151917 @kalizec19 januari 2010 00:29
Inderdaad, niet meer als een zoethoudertje. nVidia komt de laatste tijd steeds met meer en meer informatie over hoe de techniek werkt en dat het gpgpu gedeelte zo gigantisch veel verbeterd is. Maar ik mis nog steeds feiten: wanneer een release datum, wanneer zien we benchmarks, wat moet het gaan kosten, stroomverbruik etc

Op papier kan de GF100 architectuur wel de beste zijn, maar we moeten nog maar afwachten of ze in de praktijk ook wel zo goed zijn. Misschien brengt nVidia wel een beest van een kaart uit, maar daar zal het prijskaartje dan ook naar zijn. Op dit moment vind ik dat AMD zijn zaken beter voor elkaar heeft: kaarten over de gehele prijsrange, van budget/instap tot high end. Over AMD gesproken, misschien hebben ze hun volgende serie al uit als nVidia met de GF100 komt :)
Wat ik een beetje gek vind is dat Nvidia een tesselation test weergeeft, terwijl deze test eigenlijk een beetje gemanipuleer is vanuit hun standpunt. De nieuwe nvidia GPU(of CPUGPU) heeft geen hardware matige tesselation elke shader van de GPU kan tesselation doen maar hiermee ben je wel meteen een shader kwijt. Ati heeft een apart gedeelte van hun GPU beschikbaar die hardwarematig tesselation kan verwerken hier verlies je dus geen of niet al teveel performance als je tesselation aanzet(mits de drivers van goede kwaliteit zijn). Als je de Nvidia GPU tegenover de Ati GPU zet in een tesselation test zal de Nvidia chip dus zijn volledige aantal shaders gebruiken om tesselation te verwerken terwijl de ATI GPU maar een klein deel daarvoor vast beschikbaar heeft. In een echte benchmark (dus in een game) zullen de shaders van Nvidia bezig zijn om de game te verwerken en moet hij dus shaders afstaan om tesselation te verwerken. Nvidia zal in real life dus niet alle shaders beschikbaar hebben om alleen tesselation te verwerken. Hierdoor zal het verschil velen malen groter zijn in vergelijking met hoe Nvidia het nu aangeeft in die benchmark.

Bron:
http://www.semiaccurate.c...80w-and-unmanufacturable/
Charlie weet niet goed waar hij over praat, hij lult een eind in de lucht. Het werk dat de fixed-function tesselator in DX11 doet is minimaal. Het meeste werk zit in de hull en domain shader, die zowel bij AMD als NVIDIA door de "stream processor" wordt uitgevoerd (het is immers programmeerbare shadercode). De tesselator berekent in feite alleen de posities van de nieuwe (high-poly) geometrie. Zelfs als NVIDIA dit niet in hardware maar in software doet is de kans aanwezig dat dit niet of amper te merken zal zijn in "real world" situaties.

Ik twijfel echter ook aan Charlie's claim dat er totaal geen tesselator hardware op de chip zit. Hoe zou hij dat moeten weten? Zaken als hoeveelheden beschikbare chips, levertijden, introductiedatum, dat is allemaal te ontdekken met bronnen in de AIB wereld, maar om te weten of er daadwerkelijk tesselator hardware op de chip zit moet hij een bron hebben die of designer of driverprogrammeur is bij NVIDIA. En laten medewerkers bij NVIDIA nou eens (terecht) een schijthekel aan Charlie hebben.

Ik hecht hier dus niet veel waarde aan, het lijkt mij een stuk nuttiger om vooroordelen gewoon achterwege te laten en af te wachten tot we over 2 maand daadwerkelijke hardware kunnen kopen. Dan kan er in alle rust gekeken worden hoe tesselation zich verhoudt bij NVIDIA en AMD, of NVIDIA daadwerkelijk minder fixed-function hardware heeft dan AMD, of dit daadwerkelijk een impact geeft voor wie van beiden dan ook in echte situaties. Wat schieten we er nu mee op door hard te gaan roepen dat een van beide partijen vals speelt? Volgens mij alleen gepolariseerd fanboygeschreeuw en daar zit ik in ieder geval niet op te wachten :)

EDIT: Soortement gerelateerd hieraan deze interessante posts op Beyond3D. GPUs van dit moment zijn zo vreselijk complex dat geblaat als dat van Charlie over wel of geen tesselator zo compleet irrelevant is zolang we nog geen hardware hebben om mee aan het testen te gaan

[Reactie gewijzigd door Snoitkever op 23 juli 2024 06:42]

Nou is het wel zo dat Charlie een echte nVidia hater is, maar zo hoor je misschien wel dingen die nVidia liever niet wil horen.

Het volgende stuk komt uit die links en is gewoon zeer feitelijk
280W and 550mm^2 means Nvidia is maxed out on both power use and reticule area for any product from TSMC. There is precious little room to grow on either constraint. The competition on the other hand can grow its part by 60 percent in die area and over 50 percent in power draw while staying below what Nvidia is offering. That puts an upper bound on Nvidia's pricing in a fairly immutable way, barring a massive performance win. If you don't feel like reading to the end, the short story is that it didn't get that win.
(Hierbij moet je even weten dat de PCIe specificatie slechts kaarten toelaat met maximaal 300watt, ondanks dat ze niet van uit het slot gevoed worden, en dat hoe groter de die, hoe slechter de yields geld. Als je de resultaten en yields van ATI doortrekt naar nVidia's GF100 (niet helemaal eerlijk aangezien ATI al langer op 40nm produceert en dit dus de resultaten positief biased voor nVidia) zouden op dit moment door grote (minder chips per wafer) en slechte yields (met slechts 335mm^2 minder dan 40%, dus op 550mm^2 nog een stuk lager).

Dus ja tikkeltje zout verhaal, maar er staan wel dingen in die gewoon feitelijk zijn en die toch echt een probleem aan het vormen zijn voor nVidia. (En al een half jaar geleden door Charlie gesignaleerd werden).

Kort door de bocht: ATI heeft meer ruimte qua mm^2 en watt om zijn kaarten te laten groeien, heeft voor de huidige generatie een stuk meer goede chips per waffer en tenzij nVidia nogmaals zijn architectuur omgooit blijft dit voordeel voor ATI bestaan totdat ze zelf ook zo'n grote stroom vretende chip hebben.

Hierbij moeten we ook nog even zien dat de HD5xxx serie een evolutie is die komt van de HD2xxx serie, en ATI dus nog geen echt helemaal nieuw ontwerp heeft gemaakt, terwijl dit (de GF100) het nieuwe ontwerp is voor nVidia, waar ze toch echt een hoop meer problemen hebben dan ATI met 'het oude design'. (Tegen zo te zien nu 20% performance winst, maar weinig ruimte voor uitbouw).

Ik hoop dat nVidia nog iets uit zijn hoge hoed tovert anders krijgen mensen zoals Charlie nu toch echt gelijk.

hoi Mart!
Nou is het wel zo dat Charlie een echte nVidia hater is, maar zo hoor je misschien wel dingen die nVidia liever niet wil horen.
Dat klopt, maar misschien ook een boel dingen die gewoon een negatieve interpretatie van feiten of zelfs complete fabricatie zijn. ;)
Het volgende stuk komt uit die links en is gewoon zeer feitelijk
Nee, dat is het niet, en dat is precies het probleem met Charlie. Hij neemt een boel gokjes, halve waarheden en andere cijfers. Dat vormt de basis. vervolgens doet hij alsof die cijfers feiten zijn (let maar een op in z'n teksten hoe de getallen die hij eerst als "aanname" of als info van een "bron" gebruikt later opeens feiten in de argumenten zijn) en gaat hij op basis daarvan de meest negatief mogelijke gevolgen voor NVIDIA of omgekeerd de positieve versie voor AMD afleiden. Aan het einde van het verhaal zijn alle AMD fanboys verheugd en alle NVIDIA fanboys kwaad en daardoor letten ze niet meer goed op het feit dat zijn complete verhalen gebaseerd zijn op twijfelachtige aannames.
Kijk eens hier bijvoorbeeld. Prachtig verhaal, totdat je op het laatst gaat afvragen waar zijn cijfers op gebaseerd zijn. Zijn wafer prices voor NVIDIA wel gelijk aan die van AMD? Waar zijn die yields op gebaseerd? Hoe zit het met componentprijzen als de volumes veranderen? Er zijn zoveel variabelen en als er maar een verandert kan de hele uitslag van het verhaal opeens onderuit gehaald worden.

On topic dan:
280W and 550mm^2 means Nvidia is maxed out on both power use and reticule area for any product from TSMC.
Met 280W en 55mm2 wel ja. Maar wie heeft er al daadwerkelijk een GF100 chip gemeten?
The competition on the other hand can grow its part by 60 percent in die area and over 50 percent in power draw while staying below what Nvidia is offering.
Dat klinkt leuk, maar is natuurlijk bullshit. Charlie praat bij NVIDIA altijd graag over hoe lang het wel niet duurt om van ontwerp via tape-outs en fixes uiteindelijk in de winkel te komen, maar AMD kan opeens wel "groeien" in die area in een paar maand tijd?* Zelfde geldt natuurlijk voor stroomgebruik. De clocks op HD5870 zijn niet bepaald door stroomverbruik, daar is nog meer dan genoeg ruimte. Dat betekent dat de clocks op een ander front vastzitten, dus stroomverbruik is een compleet loos punt. Overigens kan het zelfde punt van stroomverbruik ook gezegd worden van HD5970 die ook gecastreerd is omdat het anders niet binnen de 300W PCI-E standaard past.
That puts an upper bound on Nvidia's pricing in a fairly immutable way, barring a massive performance win.
Uiteraard. Het zelfde geldt voor elke GPU, of deze nu van NVIDIA of van AMD komt. Als je je GPU te duur maakt voor z'n performance koopt niemand hem. De truc is om perf/mm2 zo hoog mogelijk te krijgen. Wat is hier nieuw?
If you don't feel like reading to the end, the short story is that it didn't get that win.
Dat weten we dus nog niet. Clocks liggen niet vast en de architectuur is compleet niet getest. Niemand, behalve de ingenieurs bij NVIDIA, weet hoe deze architectuur het in het echt gaat doen bij verschillende snelheden. Charlie roept dat de target van 1500 of 1600 MHz niet gehaald kan worden, maar dat zegt nog niets. Met 1200MHz kan dit nog steeds goed de snelste single-chip GPU worden.
Dus ja tikkeltje zout verhaal, maar er staan wel dingen in die gewoon feitelijk zijn en die toch echt een probleem aan het vormen zijn voor nVidia. (En al een half jaar geleden door Charlie gesignaleerd werden).
Ach ja, Charlie de grote eenzame profeet die in de woestijn staat te schreeuwen terwijl niemand anders van iets af wist. Hij doet er veel aan om dat imago van de underdog te houden, maar het is natuurlijk bullshit. Alleen omdat NVIDIA fanboys een half jaar geleden (en nu nog steeds) hem tegenspraken wil dat niet zeggen dat hij de problemen "gesignaleerd" heeft. Ik raad je eens aan om op de Beyond3D forums rond te kijken, daar waren mensen al sinds de release van G200 over GF100 aan het discussieren waren. Ze zijn daar letterlijk al jaren aan het debatteren over de pros en cons van de monolithische monsterchip aanpak van NVIDIA. Charlie hangt daar ook graag rond trouwens, raad eens waar hij zijn info vaak vandaan heeft.
hoi Mart!
hey Roy! No offence ofzo ;)

* en begin maar niet over lange termijn plannen, want op 28nm en kleiner is het hele probleem van GF100's grootte en verbruik natuurlijk in een klap weg.

[Reactie gewijzigd door Snoitkever op 23 juli 2024 06:42]

Kijk, je kunt natuurlijk compleet voorbij gaan aan het feit dat Charlie al heel erg lang in de business zit en vele bronnen heeft, waaronder bronnen bij fabs als TSMC. Daardoor zijn bepaalde aannames over het algemeen ook gebasseerd op informatie ipv uit de lucht gegrepen getalletjes. Diezelfde bronnen kunnen ook dingen zeggen over yields en andere zaken, waardoor het plaatje langzaamaan duidelijker wordt.

Het probleem is dat Charlie er een groot genoegen in schept om het nieuws zo te brengen, dat alle fans van nVidia gelijk alles niet meer willen geloven. Neem bijvoorbeeld die die-size die je betwijfelt. Theo Valich van BSN noemt eenzelfde orde van grote die-size, namelijk 570mm2, dit terwijl men hem graag aanhaalt omdat hij altijd positief is over nVidia. Daarnaast zijn er ook andere bronnen die een dergelijke omvang aangeven. Bovendien kunnen mensen van TSMC met hun ervaring een behoorlijk goede schatting doen hoe groot de chip is, en die mensen dienen vaak ook als bron.

Verder betreffende het oppervlak, is het geen onzin dat AMD nog verder zou kunnen groeien. Technich is er ruimte om er nog een blok van 800 SPU's tegenaan te gooien. Of ze dit doen? Niet waarschijnlijk, maar het zou kunnen. Ook kunnen veel van de Cypress-cores doorgeklokt worden tot 1000MHz. Waarom ze het niet doen? Wellicht omdat het niet echt nodig was en om op die manier iets achter de hand te hebben. Misschien om AIB's als MSI en Gigabyte de ruimte te geven om super-overclocked kaarten uit te brengen, zoals ze momenteel plannen.

De uiteindelijke clocks liggen inderdaad nog niet vast, zolang nVidia daar geen uitspraken over doet. Wat wel duidelijk is, is dat de doel-clocks moeilijk of geheel niet haalbaar zijn (stepping A3 ondertussen, rumoer rond stepping A4). Dat wil niet zeggen dat de kaart uiteindelijk langzamer zal zijn dan de HD5870, maar wel dat hij niet zo snel zal zijn als nVidia zou willen.

Wat wel een feit is, is dat Charlie als enige van alle auteurs de hele ontwikkelfase dat Fermi is aangekondigd (mei 2009) behoorlijk spot-on was met zijn verhalen. Dit kun je afdoen als mazzel ofzo, maar je kunt ook gewoon stellen dat hij goede bronnen heeft en zijn huiswerk gewoon op orde heeft (dubbelchecken etc). Theo Valich en tot voor kort Fuad hebben daarentegen vele uitspraken gedaan die al lang en breed door de tijd zijn ingehaald. Misschien moet men daar eens een conclusie uit trekken.

nVidia kan over een jaar wellicht 28nm chips hebben, waardoor Fermi opeens een oppervlak heeft vergelijkbaar met GT200b, maar dacht je niet dat AMD ook 28nm chips zal maken? Wat voor omvang zullen die dan hebben? Overigens is kleiner niet altijd gunstiger met betrekking tot verbruik. Lekstromen worden almaar grotere problemen en Fermi lijkt daar niet al te goed mee overweg te kunnen.
Neem bijvoorbeeld die die-size die je betwijfelt. Theo Valich van BSN noemt eenzelfde orde van grote die-size, namelijk 570mm2, dit terwijl men hem graag aanhaalt omdat hij altijd positief is over nVidia. Daarnaast zijn er ook andere bronnen die een dergelijke omvang aangeven.
Het is niet zozeer dat ik twijfel aan Charlie of aan die specifieke info die ik aanhaalde, het is eerder dat ik gewoon liever afwacht tot onafhankelijke bronnen (dus journalisten die een kaart in handen hebben, liefst met foto's erbij) uitmeten hoe groot de chip nu daadwerkelijk is en hoeveel stroom die verbruikt. Charlie mag dan een uitstekende reputatie hebben en ik zal ook direct toegeven dat hij de laatste 2 a 3 jaar in ieder geval erg vaak gelijk had, dat neemt niet weg dat ik die informatie graag onafhankelijk geverifieerd wil zien voor er zomaar conclusies getrokken gaan worden. Het probleem zit bij mij niet in speculatie op basis van die gegevens, want daar doe ik graag aan mee. Het probleem zit in mensen die (zoals Charlie dus doet) op basis van die onzekere gegevens harde conclusies gaan trekken.
Verder betreffende het oppervlak, is het geen onzin dat AMD nog verder zou kunnen groeien. Technich is er ruimte om er nog een blok van 800 SPU's tegenaan te gooien. Of ze dit doen? Niet waarschijnlijk, maar het zou kunnen.
Natuurlijk doen ze dat niet. Waarom niet?
-Vele maanden ontwikkeltijd
-Vele manjaren aan werk
-Een dergelijke chip is compleet niet gebalanceerd meer, tenzij er ook meer TMU's, ROPs, bandbreedte, enzovoort bij gegooid wordt, maar dat is nog veeeel meer werk
-Neemt tijd en geld weg van de ontwikkeling van een nieuwe generatie chips
Een dergelijke betere chip is in het verleden nog niet eerder ontwikkeld en zal ook in de toekomst neit zomaar ontwikkeld worden.
Ook kunnen veel van de Cypress-cores doorgeklokt worden tot 1000MHz
Kijk, dat klinkt dan veel logischer, kost veel minder tijd en geld. Of AMD dat doet zou ik inderdaad ook niet weten, maar dit is tenminste een mogelijkheid.
Wat wel een feit is, is dat Charlie als enige van alle auteurs de hele ontwikkelfase dat Fermi is aangekondigd (mei 2009) behoorlijk spot-on was met zijn verhalen. Dit kun je afdoen als mazzel ofzo, maar je kunt ook gewoon stellen dat hij goede bronnen heeft en zijn huiswerk gewoon op orde heeft (dubbelchecken etc).
Ik ga voor optie 2, ik denk dat Charlie inderdaad erg goed is in z'n vak. Dat neemt echter niet weg dat het riooljournalistiek is :P Het probleem dat ik heb is dat veel mensen dit niet zien. De meeste mensen die de Prive zien weten dat ze het nieuws daarin niet direct als waarheid moeten aannemen. Bij Charlie (en ergere sites als Fudo en BSN) zien mensen dit niet.

Ik denk dat dit komt omdat er in de techjournalistiek nog weinig verschil is tussen roddelpers en kwaliteitsjournalistiek. Of misschien is er gewoon bijna geen kwaliteitsjournalistiek in ons vakgebied. Ook sites als tweakers nemen, zeker als het gaat om populaire onderwerpen als GPUs, de meest belachelijke onzin over van de meest ongeloofwaardige bronnen zonder duidelijk aan te geven hoe betrouwbaar iets wel of niet kan zijn. De "tweaker-met-de-pet" die niet bekend is met deze onderwerpen weet dus niet wat feit is, wat speculatie is en wat puur gerucht is. In een discussie iets hierboven haalde iemand zelfs Semi-Accurate aan als "bron" bij de claim dat GF100 geen hardware tesselator heeft. Dat is hetzelfde als iemand die Prive opnoemt als bron dat een showbizpaar uit elkaar gaat!

Wat je ziet is dus dat mensen allerlei harde conclusies gaan trekken op basis van speculatie en geruchten. De toch wel zeker aanwezige NVIDIA-afkeer en zelfs NVIDIA-haat van dit moment wordt door een groot deel gevoed door speculatie die overal gepost wordt, door FUD of getinte nieuwsberichten van mensen als Charlie en door fanboys van AMD die op dit moment hun kans grijpen om wraak te nemen op de NVIDIA fanboys die hun 2 jaar lang (tijdens G80 en G92) op de kop hebben gezeten. Dit alles in een walgelijk persklimaat waar de kleinste scheet die Jen-Hsun, volgens een anonieme Chinees op een half vertaalde forumpagina, heeft gelaten al dan niet via-via op websites als tweakers terecht komt, omdat er bij de redactie een angst lijkt te bestaan dat als het nieuws niet op tweakers terecht komt de site de scoop heeft gemist en bezoekers wel eens op een andere website kunnen gaan kijken voor hun nieuws.

Wat is er mis met wachten tot de producten daadwerkelijk in de winkel liggen en dan eens kijken hoe de onafhankelijk uitgevoerde benchmarks uitvallen en daarna pas een conclusie trekken? Ondertussen kan het speculatiecircuit zich dan lekker voortzetten op weinig bezochte fora, in lange stoffige posts over de voordelen van het wel of niet in software uitvoeren van texture filtering of de daadwerkelijke locatie van bottleneck in de nieuwste NVIDIA of AMD architectuur, waar het thuis hoort. Het hoort namelijk niet in een schreeuwerig Fok! klimaat in nieuwsposts op tweakers waar mensen denken dat Fudo een betrouwbare bron is en dat wat een Chinese blogger schrijft over de volgende AMD architectuur waar is omdat het anders toch niet op tweakers zou staan.

Zo, dat moest ik even kwijt :P

[Reactie gewijzigd door Snoitkever op 23 juli 2024 06:42]

In een discussie iets hierboven haalde iemand zelfs Semi-Accurate aan als "bron" bij de claim dat GF100 geen hardware tesselator heeft.
En is daar wat mis mee? Niets, alleen past het niet in jouw visie op wat wel en geen bron is. Wat je echter niet door hebt is dat de argumenten in een stukje speculatieve journalistiek ook een bron kunnen zijn. Een bron die niet uit feiten bestaat, maar uit inzicht. En ook sites als SemiAccurate hebben hun bronnen, deze kunnen ze alleen niet openbaar maken, want dan raken ze ze kwijt (dat of die bronnen raken hun baan kwijt).

Kortom, ik vind het nogal hypocriet om eerst alle geboden informatie als harde feiten te interpreteren terwijl je zelf al weet dat het onmogelijk is er iets over te zeggen tot er daadwerkelijk kaarten uitgegeven zijn. Om vervolgens, nadat je alles als harde feiten geïnterpreteerd hebt, de ander ervan langs te willen geven omdat het geen harde feiten waren.
Anoniem: 135756 18 januari 2010 20:24
Die tesselator zal ook meer mogelijkheden geven m.b.t. hogere geometrie. (NURBS, subdiv's, etc) Vooralsnog gaven deze zaken door het ontbreken van snelle tesselatie te veel overhead en waren de voordelen te gering t.o.v. de nadelen. (i.e. behoorlijk performance degredatie)

Nu zou het kunnen dat hier verandering in gaat komen.
Met name variabele animatie van oppervlakken kan door gebruik van hogere geometrie veel organischer en vloeiender.
realtime raytracing
Er zijn inmiddels al zoveel "workarounds" bedacht voor "true raytracing" die vele malen sneller zijn. Uiteraard hebben die "foefjes" niet de precisie van ware raytracing, maar op een zeker punt moet je je afvragen wanneer dat nog wenselijk is als de performance die je kan winnen zo groot is en de kwaliteits impact zo laag. Daarbij is de precisie in een game een stuk minder belangrijk dan bijvoorbeeld een lichtsimulatie van een architect.
En zelfs hier worden veel concessies gedaan t.b.v. performance. Zo worden tegenwoordig vaak "photons" gebruikt binnen software renderers om licht te simuleren, zoals bijvoorbeeld in de mental ray renderer. Dit i.p.v. radiosity of Path tracing , hetgeen preciezer is, al heel lang bestaat maar gigantisch intensief is.
Veel architecten gebruiken tegenwoordig snellere lichtberekeningen (mental ray) i.p.v. de veel zwaardere en preciezere algoritmen (lightscape), puur voor de performance en omdat het resultaat zo goed is. Ook in 3D animatiefilms gebruikt men veelal foefjes in de belichting om rendertijd te versnellen. zeker geen path tracing. De resultaten zijn simpelweg goed genoeg.

Mijn punt kort samengevat is: Waarschijnlijk is raytracing zoals je het nu kent uit de software renderers niet eens meer nodig als implementatie in games. Er is en komen workarounds die de kwaliteit zo strak benaderen met dusdanige performance winst dat de keuze snel gemaakt zal zijn.
Anoniem: 300573 19 januari 2010 13:11
CUDA applicaties maken is niet zomakkelijk als het lijkt, vaak genoeg moet je meer verstand hebben van Visual Basic, direct x, maar wat berekeningen gaan via GPU, maar CUDA kan niet via GPU naar GPU communiseren zonder de CPU host te gebruiken. Je bent dan ook gebonden aan de bandbreedte van de PCI en de snelheid van QPI. Multi GPU is dan ook lastig programmeren als je dan ook meerdere GPU berekeningen laat uitwerken, moet je Applicatie meerdere lagen bevaten en lagen die de berekeningen samenvoegen dat samenvoegen zou je ook over GPU kunnen doen maar is allemaal wel heel complex.

Nu heeft de Fermi een EEC geheugen functie maar als het gaat om de betrouwbaarheid van je gehele systeem zul je dus ook snel RAM geheugen nodig moeten hebben, momenteel is er NIET echt snelle RAM geheugen dat EEC is.

Ik zou gewoon, wachten tot dat end users software producten, gebruik maken van de faciliteiten die de GPU eventueel kan uitvoeren.

Mooi voorbeeld zou I-Ray, "deze applicatie wordt opgenomen in Mental Ray 3.8" kunnen zijn maar moet zich nog bewijzen, namelijk waar iedereen momenteel mee struikeld is het renderen van de final renderd film in cad gerelateerde software programmas. Echter zeggen zij 'final rendering', ben dan ook benieuwd of dat alleen live is in de user interface of ook de uiteindelijke render van een product annimatie bijv.

PS: Deze applicatie maakt gebuik van CUDA.

Is allemaal maar een beetje vaag en hoop binnenkort meer duidelijkheid te ontvangen.
Anoniem: 80466 18 januari 2010 15:31
Wat vooral opvalt aan de GF 100 architectuur op dit moment is het gebrek aan kaarten die het implementeren.
nVidia lijkt het grote gat in hun nieuwe productlijnen te vullen met hosanna verhaaltjes over toekomstige prestaties maar komt voorlopig niet met producten aanzetten.

Op zijn minst willen we releasedata maar zelfs dat is onduidelijk.
Jammer dat de release date er nog niet is maar aan de andere kant geeft het niet zo veel. Tenzij je op dit moment met pak weg 800 euro in je broekzak zit waar je absoluut van af moet en je een enorme behoefte hebt aan de snelst mogelijke grafische kaart die absoluut ook de komende ruw weg 6 maanden de snelste moet blijven dan denk ik dat het weinig uit maakt dat er nog geen release datum is.

Wat de uit eindelijke release datum ook gaat woorden de kaart zal minimaal rond de 800 euro kosten en waarschijnlijk de snelste kaart zijn die er op dat moment te koop is. Realistisch gezien kan het eigenlijk niet anders want NVidia doet al jaren alle mogelijke moeite om de prestatie kroon in handen te houden zelfs als ze een kaart moeten uit brengen die meer kost dan twee van de snelste kaarten van AMD samen NVidia moet en zal de snelste kaart hebben. Dus gezien de hoeveelheid tijd die men genomen heeft voor de development kun je er van uit gaan dat het ze wel gelukt zal zijn om AMD te verslaan.

Al met al klinkt het er, ondanks alle marketing praat, verdacht veel naar dat NVidia goed gekeken heeft naar het geen AMD gedaan heeft met hun kaarten en op een vergelijkbare manier de prestaties heeft weten te verhogen en schaalbaar te houden, door meer kleine onderdelen te maken in plaats een enorme monster cluster van transistors die samen even alles af handelen. Het probleem met de laatste aanpak is natuurlijk dat het niet te schalen valt zeker niet zo mooi als AMD nu al een tijdje doet war men gewoon een aantal extra core's aan of uit zet om een beter of slechter presterende kaart te maken. Natuurlijk is het niet een 100% kopie en zijn er grote verschillen maar de achter liggende gedachte van 100 kleine (of 512 in dit geval) is beter dan een paar grote reken eenheden lijkt nu ook bij NVidia door gedrongen te zijn.

Ik denk dat als je zo naar de marketing plaatjes kijkt en een flinke schep zout er bij neemt deze nieuwe architectuur van NVidia zeker interessant is en misschien zelfs NVidia kan helpen zich weer eens wat beter met AMD te meten wat betreft de prijs prestatie verhouding van het geen zij aanbieden. Juist door dat een aantal defecten op een chip niet meteen hoeft te betekenen dat het ding waardeloos is maar eerder dat het een budget model wordt in plaats van een high end versie. Iets dat met de oude architectuur een flink stuk moeilijker was.
Voor nu kunnen we alleen afwachten en hopen dat de marketing praat van zo wel Nvidia als Intel (die nog steeds niet met hun GPU op de markt zijn gekomen) redelijk dicht in de buurt komt van het geen hun nieuwe producten ook echt kunnen waarmaken. Want het zou geweldig zijn als NVidia en Intel minimaal met AMD mee kunnen wat prijs prestatie verhouding en natuurlijk wat overal prestaties betreft. Het zou de makrt veel goed doen als er eindelijk weer eens een beetje hardere concurrentie komt dan alleen AMD en Nvidia. En eerlijk gezegd hoop ik dat er nog een andere speler de markt zal betreden en voor flink wat opschudding zal zorgen, want het is maar wat saai zo de keuze uit twee redelijk aan elkaar gewaagde bedrijven met producten die niet of nauwelijks voor elkaar onder doen.
Ben er enigzins mee eens dat GF100 sneller zal zijn. Maar belangrijker voor zo'n duur bakbeest, is dat het duidelijk een flink stuk sneller moet zijn voor een toch niet geringe meerprijs. Van de mensen die wel het geld hebben. Zullen er velen zijn, die toch ook wel een redelijke prijs performance ratio aanhouden.
Voor de massa is prijs van groter belang.

Het grootschalige modulair design houd in dat men er sneller kleinere afgeleiden van kan maken. Waar nV wat laat mee bezig is. Top GPU eerst beleid.

En ja nV heeft altijd zo'n grote drang om eerste te moeten zijn. En dat zie je duidelijk terug in hun 'to big' chip beleid.

[Reactie gewijzigd door SG op 23 juli 2024 06:42]

Op zijn minst willen we releasedata maar zelfs dat is onduidelijk.
Ik hoop dat je die 'we' in het vervolg omzet naar een 'ik', want je spreekt niet voor mij. Ik vind tech-verhalen als deze interessant om te lezen, ook zonder concrete produktaankondiging. Verder moet je met nieuwe technologie previews altijd enigszins door de PR praat heen lezen, maar dat is met nVidia niet anders dan enige andere fabrikant van technologie.

Kleine tip: Het staat jou natuurlijk volledig vrij om verhalen over technologie niet te lezen om jouw diepe teleurstelling te voorkomen en te wachten tot de eerste reviews van concrete producten.
agreed. dit is veel interessanter dan de zoveelste aankondiging dat bedrijf X product Y met specificaties Z1, Z2 en Z3 uitbrengt.....

(hoewel dat op zn tijd natuurlijk ook heel nuttig is!)

[Reactie gewijzigd door antiekeradio op 23 juli 2024 06:42]

Om eerlijk te zijn, ja de aankondigingen van bedrijven X, Y en Z met producten A, B en C met specificaties P, Q en R zijn interessanter dan een presentatie vol met marketing en zonder veel feitelijke informatie anders dan de resultaten van een enkele tech-demo (die eigenlijk bedoeld zijn om de kwaliteiten en mogelijkheden van allang bekende feature X te tonen.)

Maar dat is mijn menig.

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

Noem mij eens 1 presentatie van een bedrijf over zijn produkt wat niet marketing doorspekt is.
Ik had het dan ook over presentaties waar gelijk hoeveelheden marketing als feitelijke informatie in zaten. En daar vind ik in deze presentatie geen sprake van.
Wat vooral opvalt aan de GF 100 architectuur op dit moment is het gebrek aan kaarten die het implementeren.
Dat komt omdat Nvidia altijd eerst hun top-of-the-line product ontwerpt en vanaf daar naar beneden werkt. Je hoeft geen op Fermi gebaseerde derivaten te verwachten tot Fermi leverbaar is.
Dus ze gaan van GT200 naar GF100. Heerlijk die NVIDIA logica :). Verder wel interressant die tessellation grafieken. Zouden ze echt zoveel meer performance halen? ATI is toch ook al heel lang met tessellation bezig tenslotte.

[Reactie gewijzigd door Goron op 23 juli 2024 06:42]

Nee, zoveel meer performance is het niet. De gebruikte demo is heel licht op de overige vlakken (textures + shaders) dus hebben de shaders van Fermi niets te doen. en kunnen ze volop met tesselation bezig. De verwachting is dat zodra je een echt spel pakt dat het (grotendeels) verschil weg zal vallen of mogelijk zelfs de andere kant op uit valt.

PS.

Verder qua naamgeving. Na GT200 stond de G2T12 gepland. Dit ontwerp is echter naar de prullenbak verwezen vanwege problemen met het ontwerp. Vervolgens hebben ze een ander ontwerp van de plank gepakt en dat ontwerp heette GF100. (GF100 was initieel bedoeld om tegenover Larrabee te zetten, maar door uitblijven ervan was het niet nodig).

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

Jij hebt bronnen dat er niet zoveel meer performance is? De kaart zal presteren naar een HD5970..

http://gathering.tweakers...message/33297812#33297812

[Reactie gewijzigd door Xenomorphh op 23 juli 2024 06:42]

De cijfers in die grafieken hebben het over een factor zeven tegenover een HD5870. Als je dan in ogenschouw neemt dat die tech-demo irreeel is qua shaders en textures kom je inderdaad een stuk lager uit.

Ga er voor het gemak maar van uit dat een HD5970 niet onder zal doen voor een Fermi, zeker niet als je ook de prijs mee neemt in je overweging.

PS. Wellicht kan ik nog onderstaande duidelijk vermelden
HD5xxx serie heeft een discrete hardware tesselator.
Fermi gebruikt zijn shaders voor tesselation en die shaders zijn dan niet beschikbaar voor andere zaken.

[edit]

Het woord "discrete" toegevoegd om duidelijk dat maken dat hoewel beide GPU's fixed function hardware hebben, dat die bij AMD // ATI een los en aanwijsbaar onderdeel is op de GPU dat geheel onafhankelijk van de overige delen kan functioneren.

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

HD5xxx serie heeft een hardware tesselator.
Fermi gebruikt zijn shaders voor tesselation en die shaders zijn dan niet beschikbaar voor andere zaken.
Whoa! Bron! Bron! Bron!

Ten eerste, geef me maar eens een fatsoenlijke bron die uitwijst dat de tesselator in RV870 daadwerkelijk volledig fixed function is en niet een deel door de ALU's laat doen.
Ten tweede, geef me een fatsoenlijke bron die die uitwijst dat NVIDIA tesselation door de "stream processors" laat doen. Ik zie maar liefst 16 keer een blokje "tesselator" in de diagrammen van GF100 staan, dus wat is dat dan volgens jou?

[Reactie gewijzigd door Snoitkever op 23 juli 2024 06:42]

http://www.guru3d.com/art...ermi-technology-preview/4
http://www.hardocp.com/im...0ekRuc2RfMV8xMV9sLmdpZg==

Zoals je daar kunt lezen (en op het plaatje kunt zien) wordt de Tesselation gedaan door Hull en Domain Shaders. Het inderdaad fixed-function hardware. Punt is echter dat die shaders dus niet bruikbaar zijn voor andere zaken in die tijd. (De shaders worden gebruikt om dat stukje fixed function hardware (in het blok diagram) aan te sturen.

Je hebt wel gelijk dat ik beter had kunnen schrijven "heeft een losse hardware tesselator". Dat heb ik dan ook in mijn voorgaande post verbeterd. Ook is op de lange termijn een geintegreerde oplossing beter, maar op de korte termijn hakt het wel in de performance en zorgt het voor een vertekend beeld voor reallife-performance in de gebruikte tech-demo.

En dat AMD // ATI er wel een heeft. Ga voor de gein eens kijken hoe lang AMD // ATI al ondersteuning heeft voor Tesselation. Je zult zien dat dat al sinds HD2xxx is, en volledig in hardware (discreet) want het is een discreet blok dat op de die-shot gewoon aanwijsbaar is.

Een bron: http://en.wikipedia.org/wiki/HD2900#Hardware_tessellation

Als je verder gaat zoeken zul je zien dat alle volgende GPU's van AMD // ATI het ook hebben.
No offence, maar volgens mij haal je nu echt heel wat zaken door elkaar (of ik volg je niet ;)). Je verwart DX11 tesselation met software of hardware implementatie.

DX11 biedt voor het eerst ondersteuning voor tesselation. Dit gaat door middel van 3 nieuwe pipeline stages, hull shader, tesselator en domain shader. De hull en domain shaders zijn nieuwe stages waarvoor shadercode geschreven kan worden, gelijk aan de bestaande vertex, geometry en pixel shaders. De tesselator is fixed function net andere stages als de input assembler en rasterizer. Er kunnen wel wat parameters aangepast worden, maar de rest is niet programmeerbaar.

Dit heeft echter niets te maken met AMD of NVIDIA. Beiden hebben namelijk zich te houden aan de DX specificatie. Beiden hebben dus support voor hull en domain shader, en die worden beiden uitgevoerd door de "stream processors" op de kaart. Het is dus niet zo dat AMD speciale hardware op de kaart heeft zitten die dat werk voor z'n rekening neemt (dan zou het immers niet meer programmeerbaar zijn).
AMD heeft al een tijdje tesselation functionaliteit in z'n chips zitten, maar voor zover ik het weet werkte dat toch anders (in ieder geval niet zo direct programmeerbaar) dan het DX11 systeem. Wellicht dat het DX systeem daar deels van is afgeleid, dat durf ik niet te zeggen. Hoe dan ook, zowel NVIDIA als AMD voeren tesselation (of beter gezegd, de hull en domain shaders) dus uit met hun "stream processors". Het bestaande AMD systeem wordt echter (helaas?) door niemand fatsoenlijk gebruikt omdat het geen standaard is, en met de komst van DX11 gaat helemaal niemand dat nog doen natuurlijk.

[Reactie gewijzigd door Snoitkever op 23 juli 2024 06:42]

Moving on to tessellation we said last May that Nvidia does not have dedicated hardware tessellators. Nvidia said the GF100 has hardware tessellation, even though our sources were adamant that it did not. You can say that Nvidia is either lying or splitting hairs, but there is no tessellator.

Instead, the GF100 has what Nvidia calls a 'polymorph engine', and there is one per SM. Basically it added a few features to a subset of the shaders, and that is now what it is calling a tessellator, but it is not. ATI has a single fairly small dedicated tessellator that remains unchanged up and down the Evergreen HD5xxx stack. On ATI 5xxx cards, tessellation performance takes almost no shader time other than dealing with the output just like any other triangle. On GF100, there is no real dedicated hardware, so the more you crank up the tessellation, the more shaders you co-opt.

Nvidia is going to tout the 'scaling' of its tessellation capabilities, but since it is kicking off the GF100 line at the top, scaling is only going down from there. ATI's 5xxx parts don't lose anything when going down, nor do they lose die area when going up.
De DX11 Tessellator in HD5x hardware is fixed-function en discreet. Het is een op de die aanwijsbaar onderdeel en het gebruik ervan gaat niet ten koste van het aantal aanstuurbare shaders.

Je hebt wel gelijk dat er nog ondersteuning is voor de oude vorm van Tessellation, en dat die methode niet DX11 gebruikt wordt.

Verder is duidelijk dat de Tessellator in Fermi per block shaders zit, en het wordt een Polymorph Engine genoemd. Wat deze hardware doet is de shaders aan het werk zetten om de Tessellation uit te voeren.
[...]quote: http://www.semiaccurate.c...80w-and-unmanufacturable/
En als we niets anders meer weten gaan semi-accurate quoten |:(
[...]

En als we niets anders meer weten gaan semi-accurate quoten |:(
Wil je zeggen dat Charlie het volledig en compleet mis had met betrekking tot Fermi tot nog toe? Dat Fermi daadwerkelijk oktober/november 2009 is gelanceerd? Dat productie geweldig loopt en er honderdduizenden kaarten beschikbaar zijn, omdat de yields zo fantastisch zijn, dat A3-stepping niet bestaat?

Nee, Charlie zat er inderdaad volledig naast met zijn informatie. Zo ver zelfs, dat iedereen nu GTX380's in zijn pc heeft zitten, in plaats van de vertraagde HD5870/HD5970.

Ohh wacht...

[Reactie gewijzigd door dahakon op 23 juli 2024 06:42]

De DX11 Tessellator in HD5x hardware is fixed-function en discreet. Het is een op de die aanwijsbaar onderdeel en het gebruik ervan gaat niet ten koste van het aantal aanstuurbare shaders.
De DX11 tesselator van AMD is inderdaad een aanwijsbaar onderdeel volgens de slides van AMD, maar hoe weten wij dat er niet gewoon een deel door de "stream processors" wordt uitgevoerd? Omdat AMD dat zegt? Nee, dat lijkt me betrouwbaar... of omdat Charlie het zegt? Want die weet natuurlijk alle ins en outs van het ontwerp van R800 :P Het enige dat we zeker weten is dat AMD DX11 tesselation ondersteunt. Daarnaast is het met enige zekerheid te zeggen dat er wel een deel van de tesselation in fixed-function hardware zit. Het is ook absoluut mogelijk dat alle tesselation functies in fixed-function hardware zitten, maar dit kunnen wij gewoon niet met zekerheid zeggen. De enige die dit 100% zeker weten zijn de ontwerpers en driver schrijvers bij AMD.
Verder is duidelijk dat de Tessellator in Fermi per block shaders zit, en het wordt een Polymorph Engine genoemd. Wat deze hardware doet is de shaders aan het werk zetten om de Tessellation uit te voeren.
Er is niks duidelijk! Er zijn slides waar op staat dat er een tesselator functie per SM is, maar dat zegt niets. Opnieuw hetzelfde verhaal als bij AMD, misschien is er een compleet blokje hardware dat alle tesselation functies uitvoert, misschien is er helemaal geen specifieke tesselation hardware of misschien iets daar tussenin. De enige die het weten zijn de ontwerpers en driverschrijvers bij NVIDIA. Dat Charlie dit met zekerheid zou moeten weten vind ik hoogst onwaarschijnlijk. Semi-accurate als bron gebruiken is zoals aval0ne zegt helemaal bizar ;)

[Reactie gewijzigd door Snoitkever op 23 juli 2024 06:42]

De tesselation op HD2xxx, HD3xxx en HD4xxx kaarten is wel degelijk programmeerbaar. Er is een OpenGL extensie (al ongeveer een jaar) die daar gebruik van kan maken. Mbv die extensie kun je programmeren hoe een triangle of quad getesselate moet worden.

Je hebt wel gelijk dat er een verschil is in de hardware tessellator van de HD5xxx serie en de tessellator van de kaarten die daarvoor kwamen. De tessellator in de HD4xxx, HD3xxx en HD2xxx is dan ook niet geschikt voor DX11 tessellation. Wat het exacte verschil is weet ik niet precies. Eens kijken of ik dat uit kan vinden...
Anoniem: 286576 @kalizec18 januari 2010 16:31
Imo is dat een verhaaltje als met de AA...

Vroeger ging dat bij nVidia ook niet door de shaders maar bij ATI wel.

ATI zei toen dat hun implementatie beter was, maar de eerste generatie (3870 en 2900) hadden gewoon niet de rekenkracht om dit goed te doen.


voor mij gaat hetzelfde verhaaltje op bij Tesselation. Je moet dat door je shaders laten doen en niet door wat dedicated hardware.

Overigens zijn het Texture units die het grootste tesselation deel op zich nemen en daar heft Fermi er zat van :+
Imo is dat een verhaaltje als met de AA...
Vroeger ging dat bij nVidia ook niet door de shaders maar bij ATI wel.
Yup, zelfde verhaal.
ATI zei toen dat hun implementatie beter was, maar de eerste generatie (3870 en 2900) hadden gewoon niet de rekenkracht om dit goed te doen.
En daarom heeft AMD // ATI sinds de HD4xxx weer hardware AA support.
Voor mij gaat hetzelfde verhaaltje op bij Tesselation. Je moet dat door je shaders laten doen en niet door wat dedicated hardware.
Nu trek je precies de verkeerde conclusie.
Overigens zijn het Texture units die het grootste tesselation deel op zich nemen en daar heft Fermi er zat van :+
Dit is onjuist, het zijn de shaders die de Tesselation of zich nemen. De Texture Units hebben helemaal niets mee te maken en ze hoeven hier helemaal niets aan te doen. De Texture Units zitten verderop in de pijp.
Anoniem: 286576 @kalizec18 januari 2010 17:08
Imo heb ik de juiste conclusie.
:p

[Reactie gewijzigd door Anoniem: 286576 op 23 juli 2024 06:42]

Ook goed, zijn we het daar niet over eens.

Punt blijft wel dat als je het door de shaders laat doen dat de tech-demo voor tessellation niet representatief is voor performance tijdens games die de shaders ook op andere wijzen belasten.

PS.

De reden waarom ik het daar niet mee eens ben is omdat ik meen dat dat iets voor later is. (Zeg twee volle generaties na nu). Tegen die tijd heeft het namelijk vrijwel geen negatieve gevolgen voor de overige performance meer.

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

De conclusie is als je veel in shader logic wilt doen dan heb je heel veel extra shaders nodig.

Dan is de shader methode ook goed kwa performance en flexible. Doe je dat niet dan is extra taken door shader, juist minder.
Beter had ik het niet samen kunnen vatten. Ik ben benieuwd of BieBiepGTR dat ook denkt :P
Dat zijn cijfers afkomstig van nVidia's eigen 'benchmarking'. Hoe betrouwbaar zullen die zijn? Totdat er kaarten in het wild zijn die getest kunnen worden door mensen die dat objectief en uitgebreid doen, is elke claim alszodanig niet veel meer dan PR en spinning. Zo zijn er ook verhalen van mensen vanuit de industrie, die stellen dat de performance dicht bij die van de HD5870 ligt (iets als ~5% sneller).

Mijn vermoeden is dat de waarheid ergens in het midden ligt, maar boven alles vooral afhangt van welke game je bekijkt, meer nog dan ooit tevoren.
Nou, afgaand op de oude NVIDIA naamgeving (die volgens geruchten intern nog steeds gehanteerd wordt, ongeacht de naamgeving naar buiten) gaan ze van NV55 (G200) naar NV60 (GF100/Fermi)
Nouja ATI heeft gewoon al heel erg lang een goede chip die hardware tessellation verzorgt omdat de generieke grafische processors hier heel erg slecht in zijn, nVidia ziet dit eindelijk ook in zou je kunnen zeggen :).
Ben benieuwd wat voor antwoord AMD/ATI zal hebben tegen de tijd dat Nvidia deze kaarten daadwerkelijk released (wat best nog wel eens een paar maanden zou kunnen duren).
ATI heeft dan al zowat een half jaar de tijd gehad om een goede opvolger fijn te slijpen.
Tja, natuurlijk weet alleen AMD // ATI dat zeker.

Wel is duidelijk dat geen van beide partijen een volgende half-node naar beneden kan. (Er komt geen 32nm bullk, noch bij TSMC noch bij GF).

Ook is duidelijk dat 28nm waarschijnlijk rond Q4, 2010 beschikbaar wordt.
Dus misschien dat ze bij AMD nog eenzelfde trucje hebben zoals bij de HD4890.
(Die zou dan mooi tegenover de GTX360 geplaatst kunnen worden.)

[edit]
Vermeldt dat er geen 32nm bulk proces komt. (Stond eerst alleen 32nm). Er komt natuurlijk wel een 32nm SOI proces.

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

Ik zie niet in waarom ze geen high end GPU in SOI zouden kunnen uitbrengen, de marges zijn er wel ... en sinds ATI bij AMD zit hebben ze er wel een handje van om zich zeer snel aan nieuwe processen aan te passen.
Om te beginnen is 32nm SOI voor GPU's minder interessant zijn dan 28nm bulk. Dit omdat GPU's dusdanig parallel zijn dat die 40-45% extra transistors relevanter zijn dan de 10-20% hogere kloksnelheden die je kunt verwachten met SOI.

(Dus daarmee is 32nm SOI geen optie als 28nm beschikbaar is).

Rest de vraag waarom niet van 40nm bulk (TSMC) overstappen op 32nm SOI (GF)?
  • SOI is ~20% duurder per wafer dan bulk.
  • 32nm SOI wordt ook al gebruikt voor CPU's, het is onduidelijk of er voldoende capaciteit is.
  • 32nm SOI komt maar een kwartaal eerder beschikbaar dan 28nm. Te weinig voor een generatie. Dus hoewel je dan een kwartaal voorloopt op Nvidia, loop je daarna twee of meer kwartalen achter omdat je weer over moet stappen van 32nm naar 28nm.
  • Een ontwerp voor 40nm bulk is niet simpel om te zetten in 32nm SOI en vanaf daar weer naar 28nm bulk. Terwijl je voor 40nm --> 28nm een 'optical shrink' kunt doen. (Bibliotheek met componenten wijken af).

[Reactie gewijzigd door kalizec op 23 juli 2024 06:42]

Gemiddelde 5870 geraakt nu al tot 1000MHz klok maar AMD laat het nog steeds niet toe bij fabrikanten. Als ze die kaartjes herstempelen gaat NVIDIA meteen een laag prijsje voor hun ontwerp moeten vragen.

De vraag is niet hoe AMD beter spul gaat brengen, de vraag is of ze het gaan durven om NVIDIA de loef af te steken en na jaren (in de wereld van gpu's lijkt het zelfs eeuwen) slechte producten misschien zelfs van de markt jagen.
Eigenlijk niet veel.

Die chip of refresh zal nog steed op grof 2miljard transistoren semi grote blijven.
Ze hebben Dual chip kaarten voor high-end.

Dus hoe vul je dat grote gat waar Fermi ergens zal tussen zitten.

Met iets snellere revisie. 'n hoog geklokte versie. 10 á 15% sneller dan 5870
Laat Nvidia nu eerst maar eens daadwerkelijk dergelijke (echte) kaarten op de markt zetten, in plaats van het onophoudelijk strooien met dergelijke informatie om iedereen zoet te houden. Ondertussen de oude technologie omkatten, naar nieuw naamgevingen.

Daarnaast mag Nvidia eerst ook weer gaan bewijzen dat zij iets degelijks op de markt kunnen zetten wat ook werkt binnen de specificaties en niet een verkort leven is beschoren door nooit opgeloste produktie fouten, tenminste daar heb ik nog geen statment over kunnen terug vinden en ik houod dit zeer nauwlettend in de gaten. (Verwijzende naar het G84, G86 en G92 debakel, zowel bij mobiele als inmiddels naar het blijkt desktop kaarten)

@toekie, jij koopt dus liever een duurdere kaart welke technologies achter ligt op de concurrentie en daarbij ook nog te kampen heeft met produktie fouten, waardoor de normale levensduur niet gehaald kan worden. Want dat is er de afgelopen 2 a 3 jaar gaande bij Nvidia.

Als laatste nog even commetaar op het demo fimpje, wat is dit selcht gemaakt er is werkelijk niets natuurlijks aan hoe de planten bewegen of hoe het hout van het huisje uitelkaar spat en neervalt. Dat heb ik wel veel beter gezien.

[Reactie gewijzigd door _Dune_ op 23 juli 2024 06:42]

Laat Nvidia nu eerst maar eens daadwerkelijk dergelijke (echte) kaarten op de markt zetten, in plaats van het onophoudelijk strooien met dergelijke informatie om iedereen zoet te houden. Ondertussen de oude technologie omkatten, naar nieuw naamgevingen.
Wat dacht je van G215, G216 en G218? Respectievelijk GT240, GT220 en GT210. Low-end kaarten weliswaar, en helaas voor NVIDIA ook niet opgewassen tegen de AMD tegenhangers. Het zijn echter wel nieuwe 40nm kaarten, gebaseerd op G200, en niet zoals bij de mid-range (G92) kaarten 2 jaar oude chips met een nieuwe naam. NVIDIA doet dus wel meer dan alleen renamen :)
De G210 (zonder T) kun je echter ook al krijgen als G310 en de GT220 kun je ondertussen ook al krijgen als G(T?)315. Met andere woorden, hun 'nieuwe' hardware krijgt ook al rebrand-naampjes mee.
In de demo werd de snelheid van GF100 geschat op het drievoudige van die van GT200, maar van daadwerkelijk realtime raytracing is nog geen sprake: het aantal fps lag op 0,63.
Kunnen we hieruit opmaken dat realtime raytracing nog zeker 5 á 6 verdubbelingen (20-40fps) op zich laat wachten, of schaalt dat anders?

Natuurlijk is realtime raytracing technisch nog erg moeilijk haalbaar en kent het nog enkele problemen (en het is zeker niet de heilige graal waar het vaak voor uit gemaakt wordt), maar het is toch wel interessant om een schatting te krijgen wanneer we het ongeveer kunnen verwachten.
Kunnen we hieruit opmaken dat realtime raytracing nog zeker 5 á 6 verdubbelingen (20-40fps) op zich laat wachten, of schaalt dat anders?
Dat klopt. Probleem is dat dat altijd al het geval is geweest. Je kunt nu met gemak games van een jaar of 8 geleden real-time raytracen. Tegen de tijd dat ray-tracing even ver is als rasterizing nu zullen mensen waarschijnlijk weer precies hetzelfde zeggen :P
Er valt mogelijk nog wel een kanttekening bij te plaatsen.

Rasterizing schaalt linear op met de resolutie.

Ik meen dat ray-tracing goedkoper dan linear opschaalt qua resolutie. Dit zou komen omdat "belissingen" de kenmerken van een "btree" vertoont en die schalen met volgens log n.

Gezien er echter ook linear schalende stukken in ray-tracing zitten vallen huidige algoritmen als log n + n uit te drukken dat asymptotisch n benadert.

Simpeler gezegd.

Het verschil tussen ray-tracing en rasterizing zou dan ook met de tijd kleiner moeten worden, naarmate de gebruikte resoluties toenemen. Wel zal het verschil altijd blijven bestaan.
Ja, vervelend wordt het als er iets bewogen moet worden, wat in een spelletje (shooter) toch regelmatig voorkomt. Rasterizers kunnen het beeld dan sneller weer opbouwen, op basis van de bestaande informatie. Ray-tracing moet op zo'n moment die hele beslissingenboom opnieuw bouwen, er kan vrijwel niets van hergebruikt worden tenzij het stilstaat, juist vanwege die preciesie.

Dat probleem kan waarschijnlijk wel slim opgelost worden, met zo min mogelijk verlies van precisie. Eigenlijk is rasterizen gewoon 1 grote truuk om een scherm zo snel mogelijk op te bouwen en correct genoeg in te vullen.

Ook biedt ray-tracing op dit moment niet echt een meer visuele mogelijkheden dan rasterizers. Het enige wat ik echt mooier vond was glas en andere transparante voorwerpen.

Het fijne van ray-tracing is wel, dat mocht het op een gegeven moment net zo snel zijn als rasterizers (afhankelijk van oplossing voor bovengenoemde probleem èn resolutie), dat het ontwerpen van spelletjes een stuk goedkoper wordt. Niet langer hoeft elk model door een dozijn grafische artiesten verfijnd te worden met schaduwmappen, verschillende textures en mesh modellen, maar is het model na 1 artiest gewoon klaar. Details zijn daarna ray-trace afhankelijk.


Terug ontopic: De tesselator van nVidia klinkt leuk, maar zal afhankelijk zijn van hun TWIMTBP programma met spel ontwikkelaars, om DAAMiT op tesselation te 'verslaan'. Iets wat ik niet snel zie gebeuren, omdat het uitrekenen van de via wiskundige formules verplaatste kruispunten van de driehoekjes niet bijster veel kost. De meeste rekendruk ligt zelfs mèt tesselation sinds 2000 nog altijd op schaduw berekening.
Anoniem: 126655 18 januari 2010 22:00
Goed nieuws. Dan kan ik binnenkort een 295gtx kopen voor 75 euro :)
Natuurlijk willen we allemaal mooier en sneller. Dat we wat langer moeten wachten vind ik niet z'n probleem. Is altijd nog beter dan brakke drivers en brakke kaarten.
Wat ik alleen jammer vind is dat nvidia geen licentie geeft aan Intel. Want ik ga echt geen nvidia gebazeerd mobo kopen :D.
Crossfire heeft dus toch nog toekomst :)
Je kunt allang SLI draaien op een X58 mobo, dus daar hoef je niet meer op te wachten ;) En ik kan je vertellen dat dat perfect draait :P
Maar je betaalt er dan wel voor terwijl die CFX-ondersteuning gratis is. NVIDIA is zo'n lage bedrijfscultuur aan het worden dat het zeer moeilijk wordt om ze nog een euro te gunnen.

Op dit item kan niet meer gereageerd worden.