Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: InfoWorld

In een presentatie tijdens een bijeenkomst van de Fabless Semiconductor Association in Taipei liet een van de oprichters en CEO van nVidia, Jen-Hsun Huang, weten dat in 2008 het aantal transistors van een GPU meer dan een miljard zal bedragen. Ter vergelijking, de huidige GeForce 7-serie telt 302 miljoen transistors, terwijl de allereerste GPU van nVidia, de NV1 uit 1995, slechts een miljoen transistors telt. In 2013 zou het aantal transistors zelfs op 5,4 miljard uit kunnen komen. Hoewel de huidige technologie wel een flink stuk verbeterd zal moeten worden om dit aantal op een chip onder te brengen. Met een dergelijke rekenkracht zouden spellen en films niet meer van elkaar te onderscheiden zijn.

Verder gaf Jen-Hsun Huang ook zijn visie op VoIP. In de toekomst bestaat volgens de CEO de mobiele telefoon zoals we hem nu kennen niet meer. In plaats daarvan zullen we allemaal een button dragen met een chip erin. Deze staat via WiFi in verbinding met een VoIP-netwerk waarin een aantal krachtige computers automatisch de stem van de beller en degene die hij probeert te bereiken herkennen en de verbinding maken. Deze visie van Jen-Hsun Huang is niet nieuw, want in Star Trek wordt er ook op deze manier gecommuniceerd. De topman van nVidia gaf dan ook aan dat heel wat technische doorbraken gebaseerd zijn op deze serie.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (59)

Met een dergelijke rekenkracht zouden spellen en films niet meer van elkaar te onderscheiden zijn.
Het gaat natuurlijk wel over de vergelijking van films van nú en de games in 2013. De opnamekwaliteit van de films in 2013 zal namelijk aanzienlijk beter zijn ivm de vele betere schermen (oa HDR zal dan wel standaard zijn), en natuurlijk niet te vergeten het eventuele 3D ooit!
Met "spellen aan filmkwaliteit" wordt bedoeld dat de spellen er fotorealistisch uitzien.
Natuurlijk zullen in de toekomst films in hogere resolutie en misschien in 3D weergegeven worden maar dat is eigenlijk eerder een questie van schermtechnologieën. Wanneer het op een TV scherm kan, zullen de PC schermen snel genoeg volgen (waarschijnlijk nog voor de TV schermen).
Het blijft natuurlijk een feit dat nog geenéén spel er "echt" uitziet. En ik denk ook niet dat dit over enkele jaren het geval is, realtime realistisch renderen vergt voorlopig gewoon nog te veel rekenkracht.
En het vergt teveel mensenwerk om zoveel details in de virtuele wereld te stoppen als nodig is om het niet meer van echt te onderscheiden.
(Tenzij het om totaal kunstmatige of klinische werelden gaat waar geen vergelijk met onze dagelijkse wereld mogelijk is.)
Met een dergelijke rekenkracht zouden spellen en films niet meer van elkaar te onderscheiden zijn.

Het is niet zozeer de rekenkracht die dat bepaalt natuurlijk, maar de software, de design van het grafische geheel dat zoiets waarmaakt. En dat heeft talent nodig, in grafische design. Men hoeft in 2008 alleen minder te downsampelen van de virtuele objecten.
Ben ik het niet mee eens. Met software en design (bijv raytracing) kunnen nu al afbeeldingen woden gemaakt die niet te onderscheiden zijn van echt. Ook zijn de special effects in films al zo realistisch dat we ze niet kunnen onderscheiden van de andere beelden. Het enige obstakel dat dus in de weg zit is de rekenkracht om dit real time te kunnen doen.
3D-shapers wordt in de toekomst ook een blijvend beroep.
Tja, hier sta ik niets van te kijken. In een eerder interview met één van de mannen die op het moment aan de Unreal 3 engine aan het werk is, beweerde die ook al dat bedrijven als Dreamworks en Pixar in de toekomst gewoon een game-engine gaan gebruiken om de te maken film daarin de renderen. Dus dit verbaast me eigenlijk ook niet echt.

En er is ook nog die HQ render van die dame uit de Final Fantasy film. Die hadden ze gemaakt om te laten zien dat foto-realistische CG characters al wel mogelijk zijn. Alleen nog niet real-time. Maar dat komt vanzelf.
De GPU zal als "entiteit" dan niet meer bestaan, evenals de speciale geluidskaart en andere dedicated spul.
Het is namelijk de celprocessor die de kar gaat trekken. Het grote voordeel is dat dan voor alle type media en instructies het allersnelste geheugen beschikbaar zal zijn, wat ook gelijk een voorwaarde is.
Als games daarwerkelijk binnen een 5-tal jaar realistisch op het oogvlies moeten lijken moet er ook flinke physics-engines komen.

Ik vind het diep triest dat zo iemand als Jen-Hsun dat niet ziet. Geeft wel aan waar nVidia nu nog steeds mee bezig is: "simpele" pipelines om grafisch rekenwerk te versnellen i.p.v. meer generieke snelle hardware waarmee allerlei soorten berekeningen dynamisch gemaakt kunnen worden. ATI is hier al mee bezig, zie de Xenos in de Xbox360 en in iets mindere mate de nieuwe X1K serie voor de PC.

Nog eens de lachwekkende visie van die Hsun op de korrel te nemen: hoeveel combinaties stemmen van bellers en ontvangers kunnen er wel niet zijn per milliseconde? "een aantal krachtige computers", is niet voldoende meneer Jen, er zullen miljarden van de op dit moment snelste supercomputers ter wereld nodig zijn om zo'n heftige processor-load te kunnen opvangen, per milliseconde.
Wat een kolder, je bent die man nu aan het afbranden

a) op dingen die hij helemaal niet gezegd heeft en
b) door net te doen alsof hij dingen die hij *niet* gezegd heeft ook automatisch niet weet

Het enige wat hij heeft gedaan zijn voorspellingen over het aantal transistors, en niets, maar dan ook echt helemaal niets, over de manier waarop die gebruikt zullen worden. Zou ook waanzin zijn om als bedrijf zo open kaart te gaan spelen tegenover al je concurrenten.

Trouwens, die ATi-chips waar je zo positief over bent groeien net zo hard in aantal transistors als die van nVidia, dus die zullen in 2008 ook wel de miljard halen.
Heel goed dat je kritisch kijkt naar wat Hsun voor een visie heeft. Maar ik zou niet meteen willen zeggen dat jou visie veel beter is.. Er zijn namelijk al systemen die stem herkenning doen en dat ook nog eens zeer succesvol doen. Daar is echter zeer weinig processor kracht voor nodig.
Voorbeeld ontwikkeld door TNO:
Klik hier
Daarnaast de cell processor is snel en goed en fantastisch maar dat wil nog niet zeggen dat dat het systeem gaat worden wat de komende jaren gebruikt gaat worden... Er zijn in het verleden meer fantastische producten geweest maar die hebben het ook niet gered, waarom? marketing en acceptatie van de consument.
Dus verdiep je ook eens meer in waarom mensen zoals Jen-Hsun dingen zeggen..
Ik denk dat inderdaad de tijd zal komen dat meer pipelines en transistors geen effect meer zal hebben. Nog een, misschien beter, voorbeeld van dit zijn de CPUs. Het aantal GHz'en gaat nauwelijks omhoog (relatief gezien dan) -- 5 GHz is toch wel een aardig maximum. In plaats daarvan worden de CPUs efficienter zodat ze minder energie gebruiken en meer instructies per clockcycle kunnen gebruiken. En er wordt ook multiprocessing (multi-core) gebruikt, zodat taken parallel kunnen worden uitgevoerd.

Het probleem met dit, en nog meer met een cell-processor, is alleen dat het een grote verandering aan de manier van schrijven van software vergt. Software moet immers geschreven worden om meerdere threads te gebruiken.
De processorload zal lijkt mij niet het ergste probleem zijn, grotere bottleneck zit m denk in de snelheid van de verbindingen van en naar de server...
Tja, dat dacht Intel ook met hun Itanium, "laten we x86 vergeten en een volledige nieuwe ISA bouwen".
Cell is misschien nu wel een beest maar tegen de tijd dat het ding ooit eens volledig benut gaat worden (lees: als er efficiënt geprogrammeerd kan worden voor zo'n idioot geparallelliseerde cpus) staan de pc's al weer - minstens - op gelijk niveau.
Cell heeft dus niet de toekomst zoals ook de Emotion Engine }> die niet had wegens slechte programmeerbaarhied en niet te vergeten, belachelijk weinig ram zoals bij iedere console. t'Is even idioot als een 7800GTX met 64MB ram dat zou zijn. :D
De toekomst ligt in een platform dat makkellijk te programmeren is, dit is de pc aangezien de onderliggende structuur daarvan altijd gelijk (compatibel) blijft (x86, dx-x,...).
Nog eens de lachwekkende visie van die Hsun op de korrel te nemen: hoeveel combinaties stemmen van bellers en ontvangers kunnen er wel niet zijn per milliseconde? "een aantal krachtige computers", is niet voldoende meneer Jen, er zullen miljarden van de op dit moment snelste supercomputers ter wereld nodig zijn om zo'n heftige processor-load te kunnen opvangen, per milliseconde.
Jouw methode is wel buitengewoon inefficient. Er is een vele betere manier die Jen-Hsun Huang volgens mij bedoelt:

Je laat simpelweg de "buttons" zichzelf aanmelden bij de cellen. Exact zoals dat nu gebeurt. De cel matcht vervolgens simpelweg de naam van de gebelde met het telefoonboek van de beller. Dat matchen kunnen gewone GSM's nu al redelijk dus een redelijk potente server per cel heeft daar helemaal geen moeite mee. Niks ter miljarden supercomputers dus.
En hoe weten ze dat je met 5,4 Miljard transistoren het verschil tussen games en film niet meer ziet ?

Lijkt mij dat niet alleen de hardware maar ook de software erop vooruit moet dan. En of dat mogelijk is........................

Aantal transistoren staat niet garant voor beter beeld, imho
Final fantasy:the sprits within gezien?

Van een afstandje zie je het verschil nauwelijks..en die film is uit 2001 ofzo...
Dat is pre-rendered.

Dit gaat over real-time.
Ik denk dat de beste heer bedoeld dat je tegen die tijd zoiets dus real-time kan renderen met je GPU, in plaats van (zoals dat nu gaat) pre-rendered. :)
Het is overigens na die tijd niet echt veel beter geworden... 'Final Fantasy: Advent Children' ziet er niet eens zo veel beter uit, en nogsteeds zijn bijde films heel duidelijk gerenderd. Afgezien van de beelden is het grootste probleem vooral physics wat voor realiteit zorgt en dat is veel moeilijker goed te realiseren. Daarom is het ook een goeie ontwikkeling dat er de laatste tijd wat meer tijd aan physics word besteed inplaats van dat eeuwige gedoe over renderkwaliteit. Zelfs spellen die er totaal niet realistisch uitzien maar WEL super physics hebben ogen vaak realistischer. In die gerenderde films zie je dat goed terug, ik let vooral op de bewegingen en als die onrealistisch lijken is dat jammer. Op grafisch gebied ligt alles geheel bij de designers, het ene personage lijkt veel echter dan de ander etc. In die film lijkt het water heel echt, in de ander wat minder, ga zo maar door.
Goed voorbeeld is een hele oude game genaamd Another World, een spel met maar een paar kleuren, maar met geweldige bewegingen, zeker voor die tijd.
Wat we dus op het beeld kunnen toveren en hoe echt dat eruit ziet hangt van de grafische lieden af. Het ene spel ziet er ook veel echter uit dan het ander. Zelfs met de huidige videokaarten zouden we veel betere graphics kunnen realiseren, maar de programmeurs etc. lopen achter de fijten aan. En dan zijn die enkele ontwikkelaars van de Doom3 Engine of Unreal Engine 3 doorslaggevend voor de realiteit van graphics die we krijgen in games. Zonder die lui zouden spellen er niet veel beter uit gaan zien en alles behalve optimaal draaien maar dat is wel wat we nodig hebben om in die paar jaar 'filmrealistische' beelden waar te maken.

Overigens zou de Geforce4 ook al cinematic graphics hebben... de gamedevelopers lopen gewoon achter, videokaarten kunnen echt al veel beter. Om dit wat meer te bevorderen en de ontwikkeling op grafisch gebied wat te stimuleren hebben we de Xbox360. Lekker stabiel, optimaal en 'solid state' zullen we maar zeggen, veel beter om op te ontwikkelen dan op die megatroep die we momenteel PC's noemen. Als de PC wereld in de komende jaren niet drastisch zal veranderen in architectuur zijn we over 20 jaar nog niet eens bij wat ze hier beweren. Jah ze beweren dat de videokaart het kan renderen, maar als er geen spellen zijn om dit weer te geven is er niet veel aan. Even als de optimalisatie, die is tegenwoordig zo beroerd dat we tegen die tijd nog maar 20% van de videokaart kunnen benutten, de rest is overhead.
wat dacht je van star wars dan :P
Het lijkt nu en groot verschil, maar als je het rustig opbouwd door steeds een iets snellere chip dan nu te nemen valt het inderdaad niet zo erg meer op. Maar wees blij dat het vooruit gaat... Mensen willen nou eenmaal dat alles sneller/beter etc word :9
Ze maken zeker ook software tegen die tijd die mbv die 4G5 transistoren mooi kan renderen.;)
omdat software en hardware nu eenmaal onlosmakkelijk verbonden zijn. Je maakt een chip niet zonder te wetn hoe je hem kan programmeren en waar de grenzen liggen.
Die mannen weten echt wel waar ze mee bezig zijn hé ;)

Natuurlijk is filmrealistisch wel heel erg relatief: Toy Story is een film, Resevoir Dogs is een film, Donald Duck And The Gorilla is een film...
op wat moet ie nou gaan lijken :? :P
Nu nog de virtualisatietechnieken verbeteren :)

Je moet immers wel modellen maken die er ook realistisch uitzien en dat is al een tijdje het grootste probleem: denk bijvoorbeeld aan de hoekige koppen van mensen en beesten in Doom 3.

Wordt tegenwoordig vaak gedaan door een soort scansysteem dat met laserstralen personen/objecten aftast en ze zo naar de 3D-wereld omzet. Dit alles maakt het produceren van games niet echt goedkoper ;)
Dan vindt ik die ene ppu beter, Dan kan je kleding laten wapperen en bewegen.
die ultra low-poly modellen uit doom3 zijn er omdat het spel anders nergens op zou draaien :)
1 Miljard transistors? 5 Miljard? Lieve help, denken de ontwerpers ook na over hoe ze de airco in de PC willen krijgen? Want we praten hier toch over een flinke warmteontwikkeling. Zie de koeling die nodig is voor een dual 7800 (met in totaal circa 600+ miljoen transistors).
Je kunt niet puur naar transistors kijken en dan een uitspraak gaan doen over het stroomverbruik. Intels Montecito gebruikt bijvoorbeeld maar 100 watt met zijn 1,7 miljard stuks. En dat is op 90nm, terwijl we in 2008 waarschijnlijk al over 45nm praten.
"Maar" 100 watt? de FX 57 heeft 89 watt :z
(en mijn OC'ed Thunderbird 90 :P )
Deze staat via WiFi in verbinding met een VoIP-netwerk waarin een aantal krachtige computers automatisch de stem van de beller en degene die hij probeert te bereiken herkennen en de verbinding maken.
Via WiFi lijkt me onwaarschijnlijk, dat is wireless naar lokale netwerken/inbelpunten en dus allemaal tussenstations. Algemenere zendmasten met een groter bereik die bv HSDPA (en tegen die tijd nog iets beters) ondersteunen lijkt me handiger?

Of tegen die tijd is de definitie van WiFi veranderd en is het geen lokaal inbelpunt meer te noemen.
En daar komt WiMax om de hoek kijken. Over niet al te lange tijd is zelfs UMTS passé en bellen we allemaal via internet!
als je een spel kan spelen die zo mooi is als bijvoorbeeld een film als final fantasie. Of the filmpjes die je nu soms in spellen ziet.. of misschien wel mooier
Dan wordt het games echt realistisch :D
Ik bedoel zulk soort films worden toch ook met een grafische pc gemaakt. dan kan je denk ik met zo'n extreme video kaart wel zoiets als een spel spelen. bedoel kijk al naar die laatste 3D test canyon flight in 3Dmark05 als je die op ze hoogst zet.. Zat ziet er al ongeveer zo uit al b.v. schrek :P
die filmpjes zijn gerenderd he, ze worden niet realtime afgespeeld.
Star Trek is natuurlijk in steeds grotere mate science no-more-fiction, hoewel wij de meest interessante zaken uit de serie (met name de warp drive) waarschijnlijk nooit zullen meemaken.

@Boushh: Erg leuk inderdaad dat beamen maar erg problematisch door de onzekerheidsrelatie. Ik geef de warp drive meer kans van slagen, alleen al vanwege het eenvoudigere concept.
Warpen is leuk: 'To go bold where nobody has gone bold before', Of was het 'To boldly go where nobody has gone before' :)

Maar ik ga voorlopig voor het beamen: Nooit meer files, geen auto's, schoner milieu, geen openbaarvervoer, geen wachttijden..

Scheeld mij al gauw een uurtje of twee per dag..

WAUW !!!!
Het is de tweede versie, to Boldly go... :)

Dat overbeamen lijkt mij ook geweldig.
Geen vliegtuig meer nodig of auto's of wat dan ook qua vervoer.
Ook voor het bedrijfsleven heeft dit zeer veel voordelen.
Geen dure trucks meer, of stakende fransosen.
Gewoon overbeamen en klaar.

Maar wat gebeurd er wanneer er twee dingen tegelijk aankomen op hetzelfde platform?
Zeg een mens en een tv???
Krijg je dan echt de teletubbies met die geintegreerde tv?? :P
rekenkracht + veel tijd en geld = waargetrouwe beelden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True