Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties
Bron: VR-Zone

Intels Visual Computing Group (VCG) heeft deze week een boude uitspraak gedaan over zijn toekomstige videokaarten. Voor het einde van 2009 zou het een chip hebben die zestien keer zo snel is als de GeForce 8800.

Het team geeft niet veel details vrij over de manier waarop het deze prestaties wil bereiken, maar zegt te werken aan een ontwerp waarin tot zestien cores op ÚÚn chip kunnen worden ge´ntegreerd, waarmee ge´mpliceerd wordt dat ieder van die cores dezelfde prestaties levert als de G80 van nVidia. Daarbij zal het bedrijf waarschijnlijk maximaal gebruikmaken van de voorsprong die het heeft op het gebied van productietechnologie. Hoe serieus de uitspraken genomen moeten worden zal nog moeten blijken: de ge´ntegreerde videochips van het bedrijf zijn nooit bijster interessant geweest en een eerdere poging om ook losse kaarten te gaan verkopen liep volledig de soep in.

Intel i740
Intels laatste videokaart maakte weinig indruk...

Dit keer wordt de markt met zwaarder geschut bestormd: voor de nieuw opgerichte Visual Computing Group heeft men onder andere een groot deel van het 3DLabs-team - makers van de Wildcat-kaarten - overgenomen. Hun talent gecombineerd met Intels capaciteiten zouden over een paar jaar wel eens een serieuze bedreiging kunnen worden voor nVidia en AMD/ATi, maar nu deze weten van de naderende concurrent hebben ze ook ruim de tijd om zich voor te bereiden.

Moderatie-faq Wijzig weergave

Reacties (98)

1 2 3 ... 6
De Intel 740 was toch niet zo rampzalig als in dit bericht wordt voorgesteld? Voor zover ik weet was het toentertijd een leuke middenmoot oplossing.
De i740 werd binnen de kortste keren uit de markt gedrukt door de concurrentie en moest toen noodgedwongen tegen bodemprijzen verkocht worden. De opvolger i752 lag nog erger achter en binnen een paar maanden na dat die werd uitgebracht nam Intel al het besluit om het volledig op te geven met de videokaartenmarkt, ondanks het feit dat er nog een i754 midden in ontwikkeling was. In iets meer dan een jaar tijd zijn er vele miljoenen dollars voor niets weggegooid.

Zakelijk gezien was dat gpu-avontuur dus een complete flop en het commentaar in de nieuwspost heeft dus weinig te maken met het feit dat tweakers niet van middenmoters houden. Er waren gewoon betere middenmoters, zelfs toen. Natuurlijk is er veel geld te verdienen in het middensegment, maar op het moment dat je als Intel zijnde uitspraken doet als "16x G80" dan leg je de lat voor jezelf ook erg hoog en dan moet je niet verbaasd opkijken als mensen je daar (later) aan houden.
Wat de i740 wel kon, naast elke 4 uur volledig freezen dan, was elke videofile keurig op exact de juiste framerate afspelen, dus ook echt 29,97 als dat in de file stond. Iets wat een Riva TNT niet echt lukte, die hinkelde telkens wel op 29,3 ofzo, net als huidige vidkaarten er een beetje omheen fluctueren.
Was waarschijnlijk al in de i740-dump tijd want mijn pc was heel goedkoop, maar was voor mijn gebruik toen echt prima. Direct3D alleen op bepaalde resoluties, wat een tijd..
Fans van highend hardware (wat Tweakers vaak zijn) vergeten nogal eens dat daar idd het meeste te halen is. Kijk maar eens naar de verkoopaantallen van onboard Intel video.

Dat echter niet alleen, game er ook eens een keer op en let, ipv het uitpersen van de laatste frames op 1600x1200 met 8xFSAA en 16xAF eens op mat je wel met die chips kan. The Sims 2 op modale instellingen draaien en een nette resolutie als 1280x1024, zo'n beetje alle RTS'en (ook AoE3 bijvoorbeeld) geldt hetzelfde, zelfs NFS Carbon is nog prima aan de praat te krijgen. En reken maar dat je daar ook lol aan kunt beleven.

3 jaar geleden was een Geforce 6800 top of the bill, nu wordt je ermee uitgelachen door sommige gamers. Je kunt met zo'n kaart toch nog echt wel deftig gamen?

Leve de concurrentie iig, hoewel ik niet hoop dat er een speler kapot geconcurreerd gaat worden. Ik zie er toch wel een aanval op de flank van AMD in, gezien hun recent aanschaf van Ati. Intel probeerd AMD te pakken waar het kan, en Intel kan zich _veel_ veroorloven.
waarin tot zestien cores op ÚÚn chip kunnen worden ge´ntegreerd, waarmee ge´mpliceerd wordt dat ieder van die cores dezelfde prestaties levert als de G80 van nVidia
Dat slaat natuurlijk ook nergens op. Een hele belangrijke bottleneck binnen de GPU is over het algemeen nog altijd het geheugen en niet rauwe vertex/pixel throughput (tenzij je echt lange shaders gebruikt). Met meer cores verhoog je idd effectief die throughput, maar als het geheugen vervolgens de vertex/texture fetches en de pixel writes niet aankan heb je er alsnog niets aan. En geheugen kun je niet zomaar vermeerderen zoals bij cores kan, tenzij je de content ook daadwerkelijk gaat dupliceren (zoals bij SLI e.d. gebeurt), maar daar hangt dan een behoorlijk prijskaartje aan (leuk, een kaart met 8GB mem aan boord terwijl je er maar effectief 512MB van kunt gebruiken omdat de textures 16x gedupliceerd zijn 8)7)

Ik vind het zoals het er nu staat dan ook nogal een loze statement. Desalniettemin interessant dat er weer een nieuwe speler is die de boel wat op kan schudden, maar daar zijn er in het verleden wel meer van geweest die het uiteindelijk niet hebben kunnen waarmaken.
Ik vermoed dat als ze "16x" zeggen het ook meer over de theoretische rekenkracht gaat dan over de uiteindelijke framerate.
Of het zegt iets over de prestaties van Intel's videokaarten tot nu. :7
Er staat GeForce 8800 ofwel de G80 dus niet intels eigen videokaarten.

Maar ach dit is een claim die iedereen in 2009 alweer vergeten is om te laten zien dat ze leuk bezig zijn.
Tuurlijk intel zal vast achterstand inhalen maar als intel 16x sneller kan in 2009 dan zal AMDATI en nVidia dat ook wel kunnen zo niet beter.

Overigens 16x is een grove overschatting naar mijn mening tenminste wel ten opzichte van de g80
Natuurlijk is het een loos statement. Het geeft echter wel aan dat Intel echt de concurrentie met ATI en nVidia aan wil gaan. Hoe ze dat gaan doen? Geen flauw idee, maar Intel heeft de kennis (opgekocht) het geld en de productiefaciliteiten om een hele krachtige grafische chip te ontwerpen.

Als Intel de daad bij het woord voegt kan het de ingedutte grafische markt drastisch opschudden. Ik denk dan ook dat zowel nVidia als ATI niet blij zijn met dat vooruitzicht.
Op zich niet zo'n raar uitgangspunt: zet 16x zoveel geheugen op de kaart om de extra cores te gebruiken. Dat je "slechts" 512MB effectief geheugen overhoud... who cares? Ten opzichte van de huidige systemen is 512MB videogeheugen echt niet zo verkeerd.
(en als het tegen 2009 om 2GB videogeheugen gaat, dan zet je er toch 32GB aan geheugen op?)
Omdat het een vieze inefficiente truuk is, die bovendien met een stevige prijskaart komt misschien?

Komop zeg, ik kan ook de Toy Story renderstudio in m'n kelder inbouwen, maar dat doe ik ook niet vanwege een aantal tamelijk vanzelfsprekende redenen.... ;)
is niets vies en inefficent aan ... als je de truuk goed toepast ... En dat is meer bandbreedte willen hebben dan technische (en prijstechnisch) mogelijk is...

3DFX paste dit truckje ook toe... maar behaalde er wel behoorlijke prestatiewinsten mee
dat toy story meuk is nooit realtime, het is allemaal pre-renderred en dan erin gemonteerd.
Ik denk dat ik idd meer verstand heb van GPUs dan het marketing departement van intel, "dude" (het is namelijk essentieel voor mijn werk om te weten hoe een GPU werkt). En je moet mijn reactie beter lezen want ik heb helemaal niet gezegd dat ik dat denk, dat maak jij er van. Ik heb gezegd dat, om het met 16 cores ook daadwerkelijk 16x zo snel te maken, al het geheugen ook moet worden gedupliceerd. Niet dat intel dat gaat doen of dat dat ook maar het enige is om 16 cores voordeliger te maken tov een enkele core.
Mja ik vraag me af of het werkelijk waar zal zijn. Kan best zijn daar niet van alleen vanuit een kapitalistisch oogpunt gezien lijkt het me niet verstandig en logisch tenzij Intel vertrouwen heeft dat de technologie die ze gaan gebruiken makkelijk te schalen is om bijvoorbeeld zuiniger en snellere modellen uit te brengen na die tijd die de moeite waard zijn voor de consument om te kopen.
op zich zou het wel kunnen, ze hebben tenslotte ook al een quad chip op hun naam staan, en zijn zeker goed in kleine architectuur ! ,

2009 he... dat is over effectief 3 jaar..ik denk niet dat de rest van de computerwereld 16 x zo snel is geworden (lees, harde schijf, moederbord, geheugen, ) en dan hebben we het niet over de timing dat alles goed op elkaar is ingesteld enzo !

Kortom je kan wel een snelle motor hebben , maar als je auto geen wielen hebt kom je niet ver :)
Met een beetje geluk zal Intel het begrip zuinigheid introduceren in de videokaartindustrie! misschien geeft het de doorslag die nodig is om Nvidia of Ati zo ver te krijgen op het verbruik te letten :)
Het voordeel van Intel is wel dat de productiecapciteit wel van hun zelf is.

Ook dat ze op 65nm en misschien dit jaar op 45nm kunnen produceren, scheelt kosten en warmte waardoor het zooitje sneller kan worden...

Ook chipsets icm met een Intel videokaart kan sneller zijn (eigen systeem van SLI/CF ontwikkelen?)
Niemand die denkt dat het zou kunnen dat ze met 16 cores de kant uitgaan die AMD/ATI wilt uitgaan?
Bijvoorbeeld: 8 cores voor CPU en 8 cores voor GPU op 1 chip met een speciaal slotje op je mobo voor het grafisch geheugen?
imo zou dit voor hen realiseerbaar zijn als je ziet dat ze toch al het "xx-aantal" cores-kant aan het begaan zijn...
3 jaar geleden zaten we met z'n allen ook nog op een geforce2.....

Een 8800GTX is zeker ook al 16x zo snel als zoon ouwe bak.

Dus ja.... niets nieuws onder de zon. Ik hoop wel dat Nvidia en ATI iets beters kunnen brouwen want ik zie dat nog niet echt zitten zo'n Intel videokaart (intel onboard? |:( )
3 Jaar geleden had je x800 en de 6800 al meen ik, maar die waren nog al duur dus heb ik een 9800pro gekocht.
De geforce 8800 is snel maar niet 16x zo snel als de 9800!

Verder denk ik dat dit gewoon een onzin uitspraak is, intel belooft elke week wel dat ze geweldige verbeteringen gaan maken in hun (onboard) graphics en dat is nog nooit gelukt. Warom zou dit anders zijn.
Het lijkt wel of intel van iedere markt een graantje wil meepikken.

En intel zou toch moeten weten dat men door schaamte zou moeten leren.

Als intel nu eerst eens ezels ging produceren zouden ze leren dat die zijn kop nooit 2 keer tegen dezelfde steen stoot. |:(

Intel Donkey Core Inside
Het is denk ik niet omdat ze losse kaarten willen verkopen, misschien zal dat idee pas komen als de chips erg gewild zijn. ;)

Het heeft denk ik meer te maken met Windows Vista.

Deze heeft de eisen voor de videokaart al verhoogt, waardoor intel wel hun videokaarten moet verbeteren. Als hun huidige onboard chip niet meer voldoende is, komt daar dan een concurrent voor in de plaats.

En ondanks het 'onboard' gehalte, heeft Intel voor weinig effort toch bijna 1/3 deel van de markt in handen!
Dat willen ze natuurlijk niet verspillen. :)

edit: linkje
Ik was voorheen tevreden over de Radeon 8500LE in mijn systeem. Meer had ik niet nodig. Nu heb ik een Core 2 Duo systeem met een i945G chipset, prestaties zijn nagenoeg gelijk aan die 8500LE.
IMHO zijn de huidige Intel, ATI en Nvidia chipsets met integrated graphics best redelijk en ruim voldoende voor het gros van de gebruikers. Aangezien er altijd nog een PCI-e slot over is kan je naderhand altijd nog wel upgraden met een Geforce 8800 als je dat wilt.
Dat vind ik niet bepaald een knappe prestatie, de 8500LE is een midrange kaart van bijna 5 jaar oud :?

Ik zou eerder stellen dat de huidige onboard grafische chips nog steeds zwaar achterlopen bij losse budgetkaarten als de 7300GS of de X1300.
Dat komt denk ik meer door de brakke opengl en d3d drivers dan de chip zelf.
Als Intel dit doet voor Vista dan zijn ze nogal laat.
"...binnen een paar jaar...."
Ik ben nog altijd aan het wachten op hun 10GHz P4.
Voor de rest geven ze zo wel nuttige informatie prijs, nu weten AMD/Nvidia direct welke weg intel uitgaat.
Zo hard mogelijk naarvoren hoezo? Alsof men elkaars plannen niet ongeveer kent :+

Ik vraag me af of Intel een Core 2 Duo achtige truuk kan uithalen op de videochip-markt. Ze zijn natuurlijk wel erg veel groter dan nVidia en ook het voormalige ATI en ze hebben een voorsprong wat betreft procestechnologie, CPU-architectuur en in mindere mate software op bijvoorbeeld AMD/ATI.

Ik denk dat ze met dat in het achterhoofd ver kunnen komen. Er zal veel afhangen van het team wat ze samengesteld hebben; Als dat een beetje gesmeerd loopt kunnen ze denk ik wel het wonder wat aan deze boude uitspraak verbonden is volbrengen.
@COOP

Ik kan de QuadCore 2.66Ghz wel als vervanger zien voor een 10GHz P4. Met name ook omdat ik veel met 3d apps bezig ben. Ik kijk nu ook uit naar mijn eerste Dual XEON Quadcore. Maar ik kan mij voorstellen dat er veel mensen niet veel aan hebben en liever een single threaded 10 GHz CPU hebben.
Het gaat er COOP volgens mij niet zozeer om of de Quadcore Xeon als vervanging voor de 10ghz P4 door kan. Maar meer dat Intel ooit gezegd heeft met de P4 tot 10Ghz te gaan.
ATi is al bezig met een chip systeem dat uit meerdere cores bestaat ( R700 ).
geloof me, dat wisten ze toch al wel hoor ;)
:) kan je nog lang wachten nu Intel gestopt is met de Pentium
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True