Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD neemt Nvidia op de hak

Door , 32 reacties

Reclamefilmpje waarin ATI de warmte-ontwikkeling van Nvidia's Fermi-videokaarten op de hak neemt.

Reacties (32)

Wijzig sortering
Hehe, wel mooi bedacht.
Maar wel heel voorspelbaar.

Toen ik het zag dacht ik... heee.... dat bedoelen ze.
Dus erg origineel niet.
Ja, vooral als de titel ook zegt dat ATi de draak steekt met Nvidia.
Het moest lijken op een echte briefing die vertelt over een mogelijke wietplantage.
Zonder die titel was er geen enkele clue dat het daarover ging.
Behalve "I'll bet we'll find something green in there."

Wat ik verwachte was dat ze wel wisten dat het om een Nvidia gebruiker ging en dat ze hem zouden 'booken'. Maar zo'n einde als dit is ook hilarisch :P.

Ik vind het wel grappig dat AMD een connectie trekt tussen (het verbruik van) wietplantages en Nvidia kaarten :P. Blijkt maar weer dat ze toch iets met 'groen' hebben. }:O
Hahah :P
Nu ben ik wel een nVidia-fan en geen ATI-fan, maar goed. Ze hebben gelijk.
En een nvidia kaart heeft goede en sterke "fans" nodig, snap je hem lol 8)7
Geniaal, al zijn ze een beetje laat, dit hadden ze maanden geleden moeten doen, op het hoogtepunt van al het fermi gebash.
Beetje laat idd, de GF104 (momenteel alleen op GTX460) is gearriveerd, en is een tikkie zuiniger dan de 5850.
Het zal niet lang duren voor nVidia zal komen met meer kaarten gebaseerd op de GF104.
Toen ze het over warmte en energieverbruik gingen hebben verwachtte ik al dat ze een Nvidea kaart gingen vinden. En ja hoor! Toch is het best grappig.

Edit: Willem de Moor heeft deze gisteren al geupload. Maar daar is niet op gereageerd :?

Blijkbaar proberen de redactieleden elkaar de loef af te steken }>

[Reactie gewijzigd door Plasma_Wolf op 11 augustus 2010 10:57]

1) Wat een mooie graphics van ATI zitten er in het filmpje. :P
2) Filmpje is meesterlijk. _/-\o_
Haha, briljant.

Detail. De jongens spelen het spel SWAT 4.
Heb net even doosje gapkt, achterop staat een mooie sticker. 'The way it's meant to be played. NVIDIA' _/-\o_
geniaal,

beetje laat maar wel leuk

en erg grappig aangezien ze swat aan spelen waren :)
Mooi filmpje, maar met de GTX 460 klopt het punt niet meer helemaal.
Ja, ATI heeft nog een voorsprong in efficientie, maar die is niet zo groot meer.

Also, LOL @ 2.05, leuke referentie naar PhysX met die ventilator.
Lame.

En Fermi is veel meer dan een GPU. Waar blijft AMD's nieuwe architectuur? NVIDIA zit op dat vlak heel veel voor op AMD. De GTX 460 heeft bovendien een prima prestaties/energieverbruik-verhouding en de refresh van de GTX 480 veegt ongetwijfelt alles van AMD van tafel. Fermi schaalt fantastisch goed. Om bij te benen heeft AMD een nieuwe architectuur nodig, en wees maar zeker dat zal gepaard gaan met een verlies van rekenkracht of verhoogd energieverbruik. NVIDIA heeft reeds de grote sprong genomen en is daar alles bij elkaar erg goed uit gekomen.

Tegen kerst of zo kan NVIDIA dus ook zo'n filmpje maken, mt goede acteurs en dieper gegrondde kritiek.

En neen ik ben geen fan van NVIDIA, ik ben ingenieur en ben fan van goede technologie, en momenteel is dat Fermi.
Filmpje: Geniaal! :)
Fanboys die meteen in de verdediging springen: Priceless. :')
Fanboys die meteen in de verdediging springen: Priceless
Lees m'n laatste paragraaf nogmaals.
Als je geen fanboy bent, hoe kom je dan aan de ronduit onzinnige conclusie dat fermi zo superieur zou zijn aan AMD's huidige chips? Zeker zonder duidelijke onderbouwing is zo'n mening niets zeggend. Je hebt het over schaling zonder te vermelden wat je precies bedoeld. Waarin schaalt het dan zo goed in vergelijking tot AMD's chips? De grote GF100 chip is overduidelijk een faal product, nu ze de chip kleiner hebben gemaakt in de vorm van de GF104 is het pas een goed product geworden.

Het enige concrete wat je vermeld hebt is lager energie verbruik. Het is maar welke bron je neemt. Enkel op tweakers afgaande heb je gelijk. Maar op anandtech doet de 5850 het bijvoorbeeld beter in de review. En op tomshardware zit de 5850 tussen de 768mb en 1gb versies in. Dus ik denk dat als er een verschil is in het voordeel van de gtx 460 dat die best miniem is over het algemeen genomen.

Als je het mij vraagt zijn de chips redelijk gelijkwaardig alleen is die van nvidia driekwart jaar later pas op de markt gekomen.

En voordat je over de prijs begint. De GF104 is een fractie groter dan de Cypress chip. AMD kan er dus prima mee concureren.
Als je geen fanboy bent, hoe kom je dan aan de ronduit onzinnige conclusie dat fermi zo superieur zou zijn aan AMD's huidige chips?
Waarom concludeer je reeds dat mijn conclusie onzinnig zou zijn zonder eerst m'n uitleg af te wachten? Nogal omgekeerde discussiemethode...

Soit, kijk even naar CUDA en OpenCL. AMD heeft om te beginnen niks zoals CUDA. CTM is dood en begraven. En Fermi kan meerdere kernels in parallel uitvoeren. Dat zorgt voor superieure prestaties voor GPGPU-doeleinden. Fermi ondersteunt zelfs een uniforme addresseerruimte, recursie en excepties, waardoor er ook in C++ op geprogrammeerd kan worden.
De grote GF100 chip is overduidelijk een faal product, nu ze de chip kleiner hebben gemaakt in de vorm van de GF104 is het pas een goed product geworden.
En hoe komt dat? Het is dezelfde architectuur. Jij hebt duidelijk geen verklaring dus moet je ook geen onzinnige conclusies gaan trekken.

De GF100 heeft rekeneenheden die allemaal voorzien zijn om double-precision floating-point bewerkingen uit te voeren. De SIMD-eenheden zijn ook minder breed, waardoor de branch granularity lager is. Al dit maakt de GF100 een krachtpatser voor berekeningen met hoge precisie. Dit is zeer nuttig voor zaken zoals ray-tracing en wetenschappelijke berekeningen. In vergelijking is de GF104 slechts een slappeling, met amper 1/6 van de rekeneenheden in staat om doubles te verwerken.

De GF100 heeft hierdoor een hoger verbruik maar daar krijg je ook heel wat voor in de plaats. Het is allesbehalve een epic fail als je alle mogelijkheden beschouwd. Hij is misschien net iets minder afgestemd op de games van vandaag, maar zal nog ettelijke jaren meekunnen als men meer doubles en kortere branches gebruikt.

En zoals ik al zei zal AMD genoodzaakt zijn om serieuze architecturale aanpassingen te maken om daarin mee te kunnen. Dat zal ook gepaard gaan met een hoger verbruik.
Je hebt het over schaling zonder te vermelden wat je precies bedoeld. Waarin schaalt het dan zo goed in vergelijking tot AMD's chips?
Kijk naar de theoretische GFLOPS. Die van AMD liggen hoger en toch halen ze voor een vergelijkbare chip geen hogere prestaties in de praktijk. NVIDIA is in staat z'n rekeneenheden veel beter aan het werk te houden, terwijl AMD's chips vaak moeten wachten tot registers vrijkomen of data uit RAM-geheugen uitgelezen is.

Als je AMD's architectuur verdubbelt (i.e. schaalt) dan wordt het probleem alleen maar erger. De gedeelde componenten ondervinden contentie en de boel blokkeert nog vaker. Om meerdere kernels in parallel te kunnen draaien zullen ze heel wat aanpassingen moeten maken.

Fermi's architectuur heeft die aanpassingen reeds en schaalt dus lekker door. Het hoongelach van AMD zal van korte duur zijn als ze niet snel met iets gelijkaardigs komen. Het is dan waarschijnlijk aan NVIDIA om te lachen met AMD's verbruik. NVIDIA heeft langzaam opgebouwd naar de Fermi-architectuur en heeft er dus al heel wat ervaring mee om zo'n complexe chip toch effcient te maken. AMD zal genoodzaakt zijn om in n keer een grote sprong te maken en de geschiedenis leert dat dit altijd groeiproblemen met zich meebrengt...
I could not agree more.. _/-\o_

Leuk ingespeeld op feiten, die inmiddels met de GF104 alweer achterhaald zijn.. Dus idd, beetje laat ATI!
*Grote grijns*

Eens met beide.

Wat wel zo is natuurlijk is dat nVidia niet stilzit. Zij ontwikkelen driftig door, en komen met technieken die straks wellicht weer sterk in de markt staan. AMD zal heus niet ook niets doen, maar ik denk dat ze wel in de gaten moeten houden dat nVidia niet opeens straks een sprintje trekt met een lange neus erbij, en AMD er dan opeens aan moet gaan trekken.
Fanboys die zo'n filmpje uberhaupt maken terwijl ze trager zijn: Priceless! :')

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*