Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Bron: Beyond3d

In een webcast voor analisten heeft Michael Hara, vice-president of investor relations bij nVidia, gezegd dat de volgende generatie gpu's in staat zal zijn bijna een biljoen floating-point berekeningen per seconde uit te voeren.

In april werd al gespeculeerd over het op de markt brengen van de G80-core als supercomputer, waarbij vooral de 128 streamprocessors gebruikt zouden kunnen worden voor specifieke taken. Met het gpgpu-systeem Cuda moet de grafische kern voor complexe rekenkundige taken ingezet kunnen worden. Of die geruchten kloppen, zal in juni - want dan wordt de supercomputerversie van de G80 verwacht - moeten blijken, maar het is alvast duidelijk dat nVidia plannen heeft om zijn grafische chips interessant te maken voor een bredere markt. Van de G92 wordt nog voor het einde van het jaar een high-end versie verwacht, waarna de budgetedities in het voorjaar van 2008 moeten volgen. De G92 zal op die manier vermoedelijk tegenover een eventuele refresh van ATi's R600 gepositioneerd worden. Aangezien het niet in de lijn der verwachting ligt dat er nog voor de tweede helft van 2008 een nieuwe nVidia-core komt, lijkt het er echter op dat de G92 na een paar maanden ook met de R700 zal moeten concurreren. Wellicht zal nVidia tegen die tijd echter de stap van 65nm naar 55nm wagen, om zo alsnog wat extra slagkracht te krijgen.

Nvidia GeForce 8800 Ultra
Moderatie-faq Wijzig weergave

Reacties (60)

ziet er bruut uit die kaart,

maar heeft het op dit moment nut zoveel rekenkracht ivm de huidige games of wat er op korte termijn uitkomt, of hoe moet ik de bredere markt zien?

(net iets te vlug zie link hierboven)
Bedenk dat als je een game als GTA (IV) gaat spelen op een bd, dat er ongelooflijke werelden berekend dienen te worden. Een dergelijke videokaart kan voorberekeningen maken dus het berekende scherm is alvast groter dan wat je ziet.

En in professionele applicaties, ik zie wel wat 3d-catters vrolijk worden, sterrenkundigen?

Alles waarbij in een 3d wereld grote berekeningen gedaan dienen te worden heeft baat bij zo'n snel rekenende kaart.
mijn 7800 GS had al moeite met de spidyman 3 game

mijn huidige 8800 gtx niet meer (gelukkig)
Dat ligt meer aan de knullige programmeurs dan aan de graphics.
wat heeft blu-ray nu te maken met "ongelooflijke werelden"?

het is perfect mogelijk 3d modellen te maken die op een diskette passen en die door de meest moderne videokaarten tegen 1 fps gerendered worden...

if anything, zorgen textures er voor dat er minder moet gerekend worden.
vandaar dat real time raytracing nog steeds in de kinderschoenen staat, de kleur van een pixel berkenen adhv materiaaleigenschappen en invallend licht kost veel meer rekentijd dan wat bitmap coordinaten mappen op een draadmodel.
dus het berekende scherm is alvast groter dan wat je ziet.
[flauw]
jammer dat je er alleen zo weinig van ziet
[/flauw]
deze kaarten (zoals de Quadro-reeks) zijn helemaal niet bedoeld voor de consumentenmarkt, dus ook niet voor high-end gamers.
deze kaarten worden gebruikt om gigantische en uiterst complexxe modellen snel te berekenen/renderen.
bv: kan gebruikt worden om een 3Danimatiefilm live te renderen.
De Quadro reeks is helemaal niet krachtiger.
Ze hebben alleen veel beter drivers voor sommige softwarepaketten en voor de ontwikkeling/ondersteuning daarvan moet je geoon extra betalen
niet krachtiger maar bekijk ook eens de resoluties die ze ondersteunen
deze kaarten (zoals de Quadro-reeks) zijn helemaal niet bedoeld voor de consumentenmarkt, dus ook niet voor high-end gamers.

Ja ja. G80 vindt je alleen in Quadro, R600 alleen in Rage en de G92 is ook weer bedoeld voor de Quadro. :Z

Quado is alleen maar duurder omdat het betere driverondersteuning heeft en omdat je vierkant opgelicht wordt. Quadro is NIET duurder omdat de hardware krachtiger is. ;)
en zoals bekend, als er een vette kaart komt, dan komen er ook vette games.
Dus uiteindelijk heb je het gewoon nodig...
Hmmm en onder "vette games" wordt verstaan games die er ongeloofelijk mooi uitzien, geen verhaal lijn kennen, in 1 dag (+/- 6 uur) uit te spelen zijn. En behalve de graphics niet veel voorstellen... of niet soms?
Veel plezier met je tetris ;-)
chris heeft anders wel gelijk, de enige innovatie van de afgelopen 5 jaar is de Wii geweest

of je nou unreal tournament '99 speelt (die ik overigens nog altijd het beste vind) of de nieuwste FPS, het blijft toch hetzelfde. Alleen is een cirkel nu wat ronder, en een kubus nog meer ge-anti-aliased. tof :Z

edit:
ga het ajb niet overdrijven door te zeggen dat ik dan maar wolfenstein 3D moet gaan spelen,
vette game = game dat erg veel overtollig nutteloos gewicht moet rondtorsen.
De bredere markt.. "voor complexe rekenkundige taken...", Het is dus niet alleen voor games.
Die kaart die afgebeeld is is een 8800GTX ultra oid? niet de kaart die in 2008 moet verschijnen....
1.000 miljard?

Of 1 miljard en is bilion verkeerd vertaald.
Mega = miljoen

Giga = miljard = 1.000 miljoen = "billion"

Tera = biljoen = 1.000 miljard = "trillion"
In de bron zie ik nergens billion staan, dus verkeerd vertaald gaat niet op volgens mij. 1 Teraflop is 1000 Gigaflop, dus inderdaad 1.000 miljard
'a billion' is het woord dat wordt gebruikt voor een miljard in Engelssprekende landen.

Een biljoen is hier 1000 miljard, terwijl het daar '1000 billion' zou zijn.

In de nieuwspost zou het dus nog aangepast moeten worden naar 'billion' in plaats van het Nederlandse 'biljoen'
Uhm nee,

In de VS is een billion == 1,000,000,000
En in andere landen is een biljoen == 1,000,000,000,000

Hoe kan dit nou een dubbelposting zijn! als ik iemand boven mij corrigeer en ik totaal iets anders post dan de mensen boven mij

|:(
Jammer genoeg zijn ze het woord 'milliard' vergeten.. zou het nog ietsjes makkelijker maken voor ons. Helaas geen woorden voor biljard en triljard (hoewel een triljard in het Amerikaans weer een 'sextillion' is, maar goed)
@n00bs

omdat je EXACT hetzelfde zegt
@jaapstobbe

Hij stelt dat alleen in de VS dit woord wordt gebruikt, niet in alle Engelssprekende landen. Niet exact hetzelfde dus.
Het engel/amerikaanse Bilion staat voor het nederlandse miljard wat ze aan de andere kant van de zee niet kennen
Er wordt iedere keer geroepen dat grafische kaarten zo veel kunnen en dat er iets geweldigs ontwikkeld wordt dat dan toevallig alleen weer voor de nieuwste kaart is en uiteindelijk komt er weer niets bruikbaars. Ik wacht al heel lang op een mpeg encoder die bijvoorbeeld op een 8800GTS draait zodat ik supersnel van divx naar mpeg2 kan converteren maar tot nu toe nog helemaal niets.
Dan wordt het toch eens tijd voor een programmeercursus.
Dan zal je wel snappen waarom het zo lang duurt. :D
Als je dan toch bezig bent, maak dan gelijk het programma zelf. Twee vliegen in een klap. ;)
Als Nvidia gewoon een compiler voor die kaart kan leveren is er geen probleem. Als ze er drivers voor kunnen schrijven kunnen ze er ook een compiler voor schrijven.
Een compiler is toch wel heel iets anders dan een driver hoor... een driver is een brug/vertaler tussen de OS en de videochip terwijl een compiler je code omzet naar machine taal zodat jouw'n programma kan draaien.

dus compilen doe je altijd al, die hoeft Nvidia niet te ontwikkelen(Of ze willen windows op een 8800GTX gaan draaien :P ) Het moeilijke is om een driver de programmeren waardoor je die super computer funties kan uitvoeren op die videokaart chip.
@tha Lord
die compiler is er al zoek maar naar CUDA....

check this:
http://developer.nvidia.com/object/cuda.html

verwacht alleen niet dat het porten van een encoding makkelijk is ivm met de beperkingen die je hebt...
Zonde! Zoiets kunnen ze ook op mijn 7600GT doen ... dan kan ik de door hun gebruikte 8800GTX voor belangrijkere doeleinden inzetten ;)
Wat men allemaal zegt over realtime een film renderen en in 3ds max of maya of wat voor 3d programma dan ook live je animatie renderen.

Dat zou al wel kunnen, maar is niet mogelijk vanwege het des betreffende programma, het komt er op neer dat alle effecten die je in een 3d programma maakt , belichting, reflectie, dof, gi, hdr ,light bounces enz enz, veel nauwkeuriger zijn in dat soort programma's dan in een game
zoals crysis bv.

een beetje oke render met alles er op en er aan duurd gewoon al wel een uur, en soms nog veel langer. uitgaande van gi enz op 1024 bv.

ook al heb je de snelste huidige kaart, dan moet je nogsteeds zo een uur renderen, ga na wat je nodig hebt om dat realtime te kunnen doen, dan moet je het met minder kwaliteit gaan doen en cheats inbouwen en nog even verzinnen hoe je met een paar miljoen polygonen weg komt realtime, en ga zo maar door..

kortom daar zijn we nog lange na niet, er zal misschien in de nabije toekomst wel een leuke programmeur komen die voor een des betreffend 3d programma een setting programmeeerd waarbij het min of meer realtime kan met alle effecten er op en er aan, maar dan moet je helaas toch weer denken aan game technieken die dan toegepast worden.

maar krachtige videokaarten als deze zijn altijd handig, zoiezo voor programmas als zbrush of mudbox, waar je zoveel mogelijk detail. polygonen wil hebben als het kan, om je gewenste detail te bereiken zonder delen te hoeven masken.
Vandaag net een stukje over rendering gelezen op tom's hardware guide. Een frame uit Shrek berekenen kost gemiddeld 8000 seconden op een p4 (zie tabelletje). Wil je dat in 60 fps, dan heb je 480.000 keer de snelheid van een p4 nodig. Of je moet het uitbesteden aan de gpu. Of truucs zoals tessellation gebruiken, waar die pagina eigenlijk over gaat.

@fevenhuis: Het was ook bedoeld om te illustreren hoeveel power er nodig is voor dat soort graphics (een uitbreiding op wat Daikiri hierboven al zei), laat staan als je dat dus in realtime wilt doen.
Er zijn niet zo heel veel mensen die een film als shrek thuis aan het renderen zijn...
Dat zou betekenen dat de van 400 Gigaflops naar meer dan 1000 Gigaflops.

Dus dat is meer dan twee keer zo snel. Ik denk niet dat ze het hier over de G9x serie hebben want dat is en opgeleukte G80 core en daar krijg je denk ik geen dubbele performance uit zonder 300+ watt aan stroom te verbruiken.

Als dit al zou kloppen gaat dit over de Next gen dus de G1xx serie. En voor ATi zal dit de R700 zijn.
Waarom niet? De G80 wordt nog op 90 nm geproduceerd, de G92 zou meteen op 65 nm overstappen. Dat laat een dubbel aantal transistors toe, én een hogere kloksnelheid. Huidige geruchten spreken van 192 stream processors op 2,5 GHz.
@kiang: 'n game wordt "live" gerenderd, 'n film bijna nooit.. dat zijn voorbedachte paden, net als 'n "on-rails shooter"
Maar dat neemt niet weg dat ook de 3D-animatie-film gerenderd moet worden. Dat kan dan wel van tevoren gebeuren maar kan toch een hoop tijd in beslag nemen wat je met zo'n kaart aardig omlaag kan brengen!
Nu weet ik er niet al teveel van, maar ik ben benieuwd wanneer iemand een OS gaat schrijven die op deze videokaarten draait.

Als ik alles zo lees, zijn die dingen sneller dan een CPU.
Als ik alles zo lees, zijn die dingen sneller dan een CPU.
Voor gespecialiseerde zaken, niet voor algemeen gebruik.
ik zie hier verschillende keren voorbij komen om een 7-serie gpu hier ook voor in te zetten, maar voor zover ik weet gaat dit niet.
Ik meen dat CUDA alleen toepasbaar is op de 8-serie en hoger :Y) door de apparte streamprocessors
Het plan van Nvidia was om dit allemaal op de 7 serie te doen, de praktijk wees uit dat het allemaal pas echt mogelijk werd met de 8 serie vanwege hardware verbeteringen en gewoon de tijd die het kost om de mogelijkheden te programmeren.
Men stuitte dus al vrij snel op hardwarematige belemmeringen met de 7 serie en de ontwikkeling vondt pas echt weer doorgang na introductie van de 8 serie.
Het is dus pas op de 9 serie waarmee men de teraflop (vergelijkbaar met intels 80core) verwacht te behalen.
Live een animatiefilm renderen? Dat zou wel gaaf zijn. Betekend dat dan ook dat je een kaart als deze zou kunnen inzetten om 3DMax gewoon live te laten renderen terwijl je met een 3D model bezig bent, a la SketchUp?
Dat kan natuurlijk al met een redelijke videokaart, maar het valt gewoon altijdt wel complex genoeg te maken dat je weer op 1 fps zit, ook met een teraflop.
En een 3D-kaart doet dus al 3D rendering (realtime) daarvoor hoef je dus niet eerst andersom te rekenen.
En met multicore zou je effectief ook bijv één core laten rekenen en eentje gebruken om te modellen, het is dus eerder een software toepassing, dan dat er nieuwe hardware voor nodig is.
Alleen voor voor het aansturen vaan een snelle GPU heb je dus wel redelijk wat CPU tijd nodig.

Nvidia Gelato
Dit is gewoon een psychologische kaap, verbeteringen in de architectuur zijn veel belangrijker.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True