Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: The Inquirer

De videochip van Intel - waarvan eerder werd beweerd dat deze wel zestien keer sneller zal worden dan de huidige topkaarten - is volgens The Inquirer gebaseerd op een uitgebreide x86-instructieset. Men noemt het daarom een 'cgpu'.

De belangrijkste bouwsteen van de 'Larrabee' zou een zwaar versimpelde x86-core zijn die vier threads tegelijk kan verwerken. Daaraan vastgeplakt zit een 'enorm brede' vectoreenheid die voor de rauwe rekenkracht moet zorgen. Een ringbus met een bandbreedte die in termen van terabits uitgedrukt moet worden kan in principe zoveel van deze cores aan elkaar knopen als men maar wil. Op dit moment denkt men aan 16 stuks (64 threads), maar alles van 4 tot 24 zou mogelijk zijn: het ligt maar net aan de afweging tussen prestaties, stroomverbruik en prijs die men wil maken.

Omdat de chip niet gebaseerd is op de traditionele 3d-rendertechniek met polygonen en pixels maar in plaats daarvan gebruikmaakt van dezelfde instructieset als de processor, kan hij veel flexibeler ingezet worden dan een GeForce of Radeon. Dit zou een voordeel moeten zijn voor het draaien van 'general purpose'-code op de kaarten. Schijnbaar wist Intel toen het met het ontwerp begon niet eens zeker of het een processor of een videochip zou moeten worden, maar omdat de single-thread prestaties te slecht waren koos men voor de laatste optie. De chip brengt de samensmelting tussen cpu en gpu weer een stap dichterbij.

Moderatie-faq Wijzig weergave

Reacties (78)

Toch wel vaag, het idee van een video kaart is juist dat hij goed is in beeldverwerking. Gaan ze een videokaart maken die je voor van alles kunt gebruiken. Dan is het ook geen video kaart, maar een multifunctionele kaart.

Opzich wel een mooie ontwikkeling, zeker als er goedde software ondersteuning voorkomt, zodat zware simulatie pakketten het kunnen gebruiken.
Goed, dan noemen we het een multifunctionele kaart waar je ook nog eens heel prima mee kan gamen. :Y)
Schijnbaar wist Intel toen het met het ontwerp begon niet eens zeker of het een processor of een videochip zou moeten worden, maar omdat de single-thread prestaties te slecht waren koos men voor de laatste optie
Van dit soort uitspraken word ik anders niet zo vrolijk.
Dat "schijnbaar" geeft al aan dat de schrijver van het artikel dat vermoedt.
Lijkt me alleen erg sterk, want welk bedrijf zegt nou tegen zijn ontwikkelafdeling "ga eens ff wat ontwikkelen, maakt niet uit wat het wordt".
Meer bedrijven dan je wellicht zou denken.

Ze zullen de R&D-afdeling altijd wel enigzins een globale richting op sturen (een elektronicabedrijf heeft er immers niks aan als de R&D-afdeling met een parfum op de proppen komt), maar veel van de meest revolutionaire uitvindingen waar bedrijven mee gekomen zijn, zijn wel degelijk op een "hier heb je geld, doe er wat leuks mee" manier tot stand gekomen.

Philips is hier bijvoorbeeld altijd goed in geweest.
En hoe denk je dat Google aan alle ideeën komt waarmee ze op de proppen komen?
Ja er wordt misschien wel veel gebrainstormd, maar een cpu blijkt echt niet per ongeluk in één keer een goede gpu te zijn.
En anders kun je er evt physics berekeningen op doen. Scheelt je weer zo'n (belachelijke) Ageia te kopen.
Iedereen ziet wel in dat een CPU geen GPU kan vervangen maar goed het is natuurlijk The Inquirer die het roept. Je kunt onderaan de pagina op een link klikken om de vrachtwagen zout te bestellen.
Gezien dat dubbel zoveel kost die Physics API middleware Havok Kaching FX kaching blijft PhysX toch ook wel populair onder de Dev's.
:? Wat staat daar nou eigenlijk??
Belachelijke gedachte. Want
1 ) Zonder PPU kan je PhysX supportende games niet optimaal spelen. GPU doen het alleen met HAvokFX games. FX zal dan wel onderhuids Quantum en stream gebruiken van nV & ATI

2 ) In 2007 zullen de meest Hardware accelererende games PPU supporten. HavokFX start dan in 2007 zijn inhaalslag.

Dus 2007 is het jaar dat Ageia zich waar moet maken.
2008 wordt heel zwaar want dan zijn er ook veel meer Havok FX games.

En waarom zijn die er. Die HAvokFX en GPU voor Phyioscs. Dat komt door Ageia brilliant idee om Physics hardware matig te versnellen.

Erzijn nog geen GPU Physics ondersteunende games.

Gezien dat dubbel zoveel kost die Physics API middleware Havok Kaching FX kaching blijft PhysX toch ook wel populair onder de Dev's.

Ik zie Ageia meer als een underdog. Die in tegenstelling tot begin tijd van 3DFX Voodoo al binnen één jaar met zware competie te maken krijgt van twee grote spelers.

Wat is daar belachelijk aan. Ik zie het meer als een aangeboren markt overnemen.
Unified shaders, anyone? :)
Beeldverwerking in traditionele zin is juist niks voor videokaarten. Videokaarten kunnen modellen renderen. Met het bewerken van 2D beelden (okee, misschien anti-aliasing) zijn ze echt nergens, want ze kunnen bijvoorbeeld totaal geen statistische berekeningen, zelfs niet een simpel histogram. Een simpele programmeerbare shader moet het alsnog doen met een gemankeerde instructieset.

Wel moet ik toegeven dat het steeds meer gedaan wordt; beeldbewerking op videokaarten. Ik was laatst nog bij een lezing waarbij iemand een programma demonstreerde waarbij een van de laatste GeForce kaarten in real time het beeld kon inverteren en ruis Gaussisch kon filteren. Dat is nou niet echt een bijzondere toepassing, maar het was wel significant sneller dan op een moderne CPU. De ontwikkeltijd ligt natuurlijk veel hoger, omdat je allerlei kunstgrepen moet uithalen om je probleem om te schrijven in termen van GPU bewerkingen. Een integraalbeeld hoef je bijvoorbeeld al niet meer te gaan berekenen; Ten eerste gaat dat op een CPU veel sneller en ten tweede krijg je bij de GPU sneller last van overflow door de kleinere datatypes.

Met deze combinatie CGPU hebben ze denk ik wel een goede stap in de juiste richting gezet om de grenzen nog verder te doen vervagen. Het zou mooi zijn als er delen specialistisch zijn en delen generalistisch en dat de compilers zo slim worden dat ze de programmeur er niet langer mee lastig vallen, net zoals ook al mondjesmaat met de uitgebreide x86 instructie-sets gebeurt.
En het idee van een co-processor wordt weer nieuw leven ingeblazen. Grappig, hoe alles uit het verleden ooit weer terugkomt ;)
de GPU was altijd bedoelt als Co-processor, vooral omdat de CPU enorm slecht waren in dit soort taken.

en aangezien het verchil toch steeds kleiner word is er niet echt meer een markt voor een product dat maar een ding kan voor 500 euro.
Ray tracing: Dat zat ik ook meteen te denken... We zijn bij de NHTV (IGAD, game academy) bezig met een real-time ray traced game, maar daar hebben we nog wel even een fors systeem voor nodig (8-core, voor 1024x768 @ 30fps). Als The Inquirer het bij het rechte eind heeft zou het wel eens kunnen zijn dat Intel zich voorbereid op de overgang van GPU naar RPU (ray processing unit), die ik erg graag zou zien.

Demootje van wat wij doen: http://www.zshare.net/download/arauna_jan_10-zip.html
Dit loopt redelijk op een dual core, of iets van rond de 3Ghz.
Eerlijk gezegd gok ik erop dat ze de strijd aangaan met de Stream-GPUs en hopen dat games (nu de grootste GPUmarkt) overstapt.
Dit is waarschijnlijk leuk nieuws voor Folding@home mensen, maar of gamers er zo blij van worden betwijfel ik, al was het alleen maar omdat shaders en andere grafische bewerkingen heel veel voordeel hebben bij de huidige architectuur. Uiteraard als dat verandert of dit ding zoveel meer power heeft (met gelijk verbruik, 16 cores lust wel wat) is de uitkomst alsnog positief. Feitelijk weten we gewoon nog te weinig, tot ie uitkomt.
Knap werk! Ik heb een keer op een vrije dag ff snel een raytracertje in elkaar geknutseld. Ik kreeg 2 fps met het renderen van drie bollen met alleen maar diffuse en specular shading, reflectie(diepte=2) en refractie. Jullie 'spel' is met zo'n grote mesh nog best snel. Als die 16 core komt dan zal het denk ik heel wat sneller draaien.
Hier snap ik niks meer van. En x86 architectuur die een orde grootte beter presteert dan een zwaar voor video werk geoptimaliseerde GPU? Als x86 dat zo goed zou kunnen, waarom bestaan er dan GPU's? Ik geloof best dat je zonder alle backwards compatibility zooi en andere rommel heel wat meer uit x86 kan persen dan we gewend zijn, maar dit is toch wel een erg sterk verhaal.
Ik denk dat je die x86 cores niet moet proberen te vergelijken met de huidige cpu cores. Ze zijn kleiner en simpeler en hebben een gigantische vectorunit meedraaien. ben wel benieuwd naar een schema en details
Lijkt mijn voorspelling van een jaartje terug toch steeds verder uit te komen... Over een jaar of 2-3 hebben we helemaal geen videokaarten meer, maar CPU's met een configureerbaar aantal vector units die gewoon software rendering doen. Ik zag het al een beetje aankomen met de cell CPU, en dit lijkt mijn vermoeden te bevestigen. Met een standaard reference-renderer die de taak van de videodriver en de firmware die in de GPU gebakken zit overneemt zou je veel meer flexibiliteit hebben dan nu met fixed-function hardware. Verzint er weer eens iemand een nieuw uber-cool gfx algoritme of effect dan heb je alleen maar een software update en genoeg vrije vector units nodig om je 'grafische kaart' op te waarderen naar een nieuwe generatie...

Bijkomend voordeel is dan nog dat een dergelijke CGPU ook prima voor physics/ai/etc ingezet kan worden... Het is een beetje back to the future from the past: van gespecialiseerde chips voor alles (C64, Amiga, etc) naar steeds meer integratie van onderdelen (onboard video, onboard sound, etc), naar gespecialiseerde hardware (dikke gpu's, physics kaarten) en dan straks weer terug naar een oplossing die zoveel mogelijk op 1 chip concentreert. Interessante ontwikkelingen, en ik ben blij dat we een jaartje of 2 terug eindelijk van die 'Ghz-hype' af zijn geraakt... :-)
Ai, zo komen we natuurlijk NOOIT van die x86 architectuur af!
Hopelijk zijn we dan af van die hopeloos ouderwetse manier van het fitten van oppervlakken, nl. de polygonen.

Er zijn veel betere parametriseermethodes voor het 3D modelleren, bv. bezier/spline curve-fitting. Deze kunnen bij de zelfde rekenkracht veel nauwkeuriger de werkelijkheid representeren. Het lijkt erop dat er alleen wiskunde-prutsers bij video-kaart ontwerp bedrijven rondlopen |:(
Er zijn veel betere parametriseermethodes voor het 3D modelleren, bv. bezier/spline curve-fitting. Deze kunnen bij de zelfde rekenkracht veel nauwkeuriger de werkelijkheid representeren. Het lijkt erop dat er alleen wiskunde-prutsers bij video-kaart ontwerp bedrijven rondlopen

FYI, wiskunde en IC design zijn 2 disciplines die elkaar op veel gebieden bijten. Uiteraard heb je gelijk dat er veel betere manieren zijn om surfaces realistisch te renderen, maar je moet niet denken dat de NVidia's en ATI's van deze wereld daar niet van op de hoogte zijn. Als ze het zouden kunnen zouden ze echt wel even een natuurkundig correcte lichtsimulatie zoals een radiosity renderer in hun GPU's bakken, maar dat is momenteel gewoon niet mogelijk.

Je moet bedenken dat de geweldige beelden die er nu uit een moderne GPU getoverd worden het resultaat zijn van jarenlange doorontwikkeling van bestaande benaderingstechnieken van de echte wereld. Texturing, shading, polygonal meshes etc, het is allemaal een versimpelde representatie van de werkelijkheid, die met allerhande slimme trucs zodanig wordt gerendered dat het er 'zo realistisch mogelijk' uitziet. Zou je ineens volledig van polygonen als primitieven van 3D scenes afstappen dan gaan een heleboel van dit soort dingen niet meer mogelijk zijn. Pixel shaders & vertex shaders zijn bijvoorbeeld een prachtig voorbeeld van 'workarounds' om een wiskundig niet exacte oplossing toch zo krachtig en realistisch mogelijk te laten overkomen.

Overigens worden Bezier splines etc. al jarenlang gebruikt om geometrie (in polygonen) op te bouwen. Hoe krachtiger je hardware is, hoe nauwkeuriger de splines worden geconverteerd naar polygonen (tesselated). Maar uiteindelijk zijn het nog steeds polygonen met textures erop die naar de gpu gaan, en dat zal nog wel even zo blijven.

Edit:
Wil ik er ook nog even aan toevoegen dat niet alle toepassingen foto-realisme willen behalen trouwens. Voor bepaalde surrealistische effecten zijn de huidige shaders en texturing zelfs veel krachtiger dan iets als een raytracer of radiosity renderer (zoals vuur en gloei-effecten bijvoorbeeld).
Als jij denkt dat het ray tracen van een curved surface net zoveel rekenkracht kost als het rasteren van een zooitje polygonen die dezelfde surface benaderen, dan weet ik wel wie hier de wiskunde prutser is.

Als je echt geen idee hebt waar je het over hebt, hou dan aub je mond.
Je hebt helemaal gelijk als je het over ray-tracing hebt. Er zijn echter geavanceerdere methodes. Bv. het licht-veld door de scene benaderen (bv. met met spherisch harmonische functies). Ray-tracing is een doodlopende weg! Het atikel "Geometrical modes as a general method to treat diffuse interreflections in radiometry" van Koenderink uit 1983 geeft inderdaad een goed inzicht waarom interreflection veel makkelijker te berekenen valt met polygonen.
En in 2009 mogen we dan NVIDIA gaan begraven.
Heeft ATI-AMD toch gelijk gekregen.

Edit:
Wat is er zo overbodig aan het inzicht dat dit de doodsteek van een chipgigant betekend?
Hoewel NVIDIA een perfect marketing apparaat heeft, lijkt het mij onwaarschijnlijk dat ze straks nog hun kaarten kunnen verkopen onder de huidige vorm. Dat was in eerdere nieuwsberichten die over FUSION vertelden al een mogelijk probleem, maar dit lijkt dankzij Intel steeds concreter te worden.
GPU's zullen niet meer bestaan in hun huidige vorm, dus NVIDIA (jammer genoeg) ook niet.
grote onzin, niets staat Nvidia in de weg om ook een cpu te produceren. de IP is gewoon te koop, dus het zal eerder de kant opgaan van 3 grote producenten. Bovendien is het AMD platform open en kan ook Nvidea gewoon de CPU socket gebruiken om iets in te prikken.
Ik denk niet dat het zo makkelijk is als jij beweert.
Er zijn nu zo'n 1000 werknemers direct/indirect bezig om GPU's te ontwerpen, bij intel zijn er dat waarschijnlijk 2x zoveel.
Daarnaast zijn er ook nog dingen als licenties.
Intel heeft VIA al practisch de laan uit gewerkt en ook AMD heeft bij elke CPU die ze bakken nog last van intel's licentie op x86. Daar omheen werken door een eigen instructieset te introduceren zal niet waarschijnlijk zijn; zie de overstap van powerpc naar x86 door apple.
Hoewel het niet onwaarschijnlijk is dat nvidia al begonnen is aan het ontwerpen van een cpu is het maar de vraag of ze in de weerwar van licenties niet verstrikt raken voordat hun geld op is.
Dit is weer zo'n lekker onderbouwd verhaal van the The Inquirer.
Ik wens Intel veel succes om van de x86 architectuur een GPU te maken...

Vandaag al bij NVIDIA: general purpose computing op je GPU: http://developer.nvidia.com/object/cuda.html

Ze lopen dus maar een paar jaar achter bij Intel.
Ik denk eerder dat nvidia en ati een paar jaar achterlopen met hun 'general purpose GPU's'. Intel heeft veel ervaring met die dingen, nl. de Intel Pentiums en de Core x Duos enz. Het enige wat intel nu gaat doen is een standaard x86 pakken en dat modden zodat het goed wordt in FP en vector berekeningen + een ver doorgevoerde parallelisatie.
Hmm, hoe kunnen NVIDIA and AMD/ATI nu achterlopen als Intel nu helemaal niets "high performance" heeft op het gebied van GPUs.

Natuurlijk is Intel 's werelds beste als het aankomt op het maken van CPUs, maar het maken van een GPU (of een GPGPU) is een heel andere tak van sport. Niet dat Intel het niet zou kunnen, maar een voorsprong hebben ze zeker niet.

Sterker nog, alles want Intel tot nu toe op het gebied van high-end GPU heeft geprobeerd is mislukt.
Als je goed gelezen had, had je gezien dat ik het had over general purpose GPU's en niet normale GPU's.
De nieuwste GPU van NVIDIA (G80) is zowel "oude stijl" GPU (met directX/openGL) als GPGPU (met CUDA).

Dus mijn punt blijft staan: NVIDIA (en ATI) hebben al GPGPUs, Intel moet eerst nog maar iets maken.
Ze concurreren met 2 verschillende aanpakken. Is daar iets mis mee?

NVidia kan net zo goed achterlopen als Intel, dat kan jij helemaal niet beoordelen. Zullen we gewoon over 5 jaar in de winkels kijken naar wat het geworden is?
Ik claim alleen dat NVIDIA (met CUDA) erg ver voor ligt op Intel, omdat ze vandaag deze technologie al aanbieden.

Ook denk ik dat Intel zich in de vingers snijdt als ze teveel aan x86 vasthouden.
NVIDIA heeft die beperking niet en kan daardoor een veel efficientere architectuur neerzetten.

(Dezelfde argumenten gelden voor een groot deel uiteraard ook voor AMD/ATI).
Klopt x86 is de meest succesvolle architectuur.

Ook zijn de x86 chips (van zowel Intel als AMD) erg krachtig. Alleen op het gebied van prestaties/watt of prestaties/oppervlak delven ze nu het onderspit t.o.v. GPUs.

Je zou zowel een GPU en een x86 chip intern dezelfde microcode kunnen laten uitvoeren. Dan moeten de x86 chip nog steeds "x86" naar "micro code" vertalen op de chip. Dat maakt de x86 chip dan weer minder efficient.

Ik denk daarom ook niet dat Intel de x86 instructieset zelf zal gaan gebruiken hiervoor. Wel zouden ze dezelfde interne microcode van bijvoorbeeld de Core Duo kunnen gebruiken. Maar dan is het ook geen x86 chip meer natuurlijk...

En wat CUDA betreft, meer dan op http://developer.nvidia.com/object/cuda.html staat kan ik je niet vertellen. In het algemeen voor toepassingen die erg rekenintensief zijn, en waar een grote "compute-dichtheid" noodzakelijk is (veel rekenkracht per volume).
Ten eerste, wat is er mis met x86 en waarom zou het je in de vingers snijden als je eraan vasthoud? Het is een van de succesvolste architecturen, en dat is niet omdat het zo'n slechte is...

Je bent ervan op de hoogte dat er niemand is die nog werkelijk x86 cpu's maakt? Alle moderne AMD en Intel chips hebben intern een andere architectuur die x86 min of meer emuleert (uiteraard zeer performant, ze doen niet voor niks ingewikkeld).

Wat intel gaat doen is hun bestaande x86 chips gebruiken om een 3Dchip te bakken. Nergens blijkt uit dat het een veredelde Core Duo word ofzo, die chips moeten natuurlijk software of eenzelfde manier gaan draaien als NVidia en Ati, OpenGL, DirectX etc. Hoe de bestaande x86 chips dat gaan doen, is de vraag waarover Intel zich nu gaat buigen.

En geef me 1 voorbeeld waar Cuda handig voor zou zijn of daadwerkelijk gebruikt wordt.
Goh.. eerst sturen ze heel stoer een bericht de wereld in dat ze in 2009 een videokchip kunnen maken die 16x zo snel is als een menig Geforce 8800kaart.

Nu ontkrachten ze het weer gedeeltelijk.... Tjah.. wat is het nou ? :z Typisch Intel.. Altijd flink overhyped.
in 2009 16x zo snel is geen goede prestatie. Als je nagaat dat videokaarten per jaar twee generaties hebben en elke generatie bijna 2x zo snel is als de voorgaande, valt Intel weer buiten de boot
Maar dat is dan toch ook 16 keer zo snel...

Als je nu als 100% neemt, dan heb je 2 generaties per jaar die 2 keer zo snel worden. dat is dus 4 generaties!

100*2(eerste generatie 2007)=200
200*2(tweede generatie 2007)=400
400*2(derde generatie 2008)=800
800*2(vierde generatie 2008)=1600

en dan iss het: tadaaaa 2009

Maar jah ik eindig altijd zo:

Maar het zal wel weer aan mij liggen
Let wel: het is geen officiele informatie. Als je als lezer gaat twijfelen is dus meer de berichtgeving die overhyped geinterpreteerd wordt door de lezer zelf. Gewoon rustig genieten van de roddels of afwachten wat Intel officieel naar buiten brengt is het advies lijkt me dan.

Het zal mij zelf niets verbazen als beide berichten ergens een kern van waarheid hebben. Het een sluit het ander verder ook niet eens uit.
Misschien dat ze dan ook
ray traced gaming mogelijk maken, dat zou een mooie schok zijn (en mooie games opleveren ;))

nog meer info:
http://www.openrt.de/gallery.php
en
http://www.pcper.com/arti...aid=334&type=expert&pid=1
was de ps3 niet daartoe instaat? puur op rekenkracht beredeneerd, dat wel.
Ik vind het er niet fantastisch uitzien, gemiddelde game ziet er beter uit eigenlijk.
Ik denk dat die screenshots er zo 'lelijk' uitzien omdat er (op het moment) juist geen rekenkracht is om een goede trace uit te voeren. Het raytracing algoritme kan wel degelijk mooie plaatjes opleveren maar vergt erg veel rekenkracht. Special effects in de Hollywood hoek maken bijvoorbeeld veelvuldig van raytracing gebruik.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True