Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties

In een pdf-document van Nvidia valt te lezen dat de Tesla C2050- en Tesla C2070-videokaarten 448 'cuda cores' krijgen. Dat is minder dan de 512 cuda cores die Nvidia in eerste instantie voor de Fermi-architectuur aankondigde.

Het is niet zeker of het pdf-document een indicatie is voor het aantal cuda cores van de toekomstige videokaarten voor gamers, maar het lijkt erop dat Nvidia het aantal streamprocessors naar beneden heeft bijgesteld van 512 naar 448. Een van de redenen hiervoor zou het energieverbruik kunnen zijn, dat volgens het document minder dan 225W gaat bedragen. Om in die energiebehoefte te voorzien zijn de videokaarten uitgerust met een zespins- en een achtpins-pci-e-connector.

Behalve het verbruik zouden ook de yields ten grondslag kunnen liggen aan het verminderde aantal cuda cores. Zo is het mogelijk dat de chips niet ongeschonden uit de wafers komen, waardoor Nvidia genoodzaakt is om twee van de 16 shaderclusters uit te schakelen. Elke cluster bevat 32 cuda cores, waardoor het aantal van 512 in dat geval afneemt naar 448.

Volgens het document worden de cuda cores bij de Tesla-kaarten geklokt op een snelheid die tussen de 1,25GHz en 1,4GHz ligt, wat marginaal langzamer is dan de kloksnelheden van de huidige GT200-gpu's. Desondanks zouden de gpu's in staat zijn om 600 double-precision gflops uit te voeren.

Nvidia Tesla C2050 / C2070

Moderatie-faq Wijzig weergave

Reacties (93)

Lijkt er meer en meer op dat er grote problemen zijn met deze grafische kaart in gebruik en/of productie. Vraag me af of ze uberhaupt tijd hebben om iets te bedenken dat het tegen EF op kan nemen - dit kon physx zijn, maar dit word ondertussen elke patch opnieuw gehackt.
Volgens Semiaccurate waren de yields van de GT300 in september nog onder de 2%...
Uiteindelijk is het ook logisch: 3 miljard transistors op een chip is gigantisch, en bovendien is/was het 40nm productieproces van TSMC nog niet in orde.
Om de yields toch omhoog te halen schakelen ze 2 blokken uit, dat is ook logisch: er geraken slechts 104 GT300's uit een wafer, dus elke mislukte chip heeft een enorme invloed op de prijs van de werkende chips (wat ze dus proberen te minimaliseren).
Ik kan me niet voorstellen dat yield hier iets mee te maken heeft. Laten we even naar een worst-case scenario kijken. Stel dat de yields maar 25% zijn, dan komen er dus maar 26 werkende chips uit een wafer. Stel dat een wafer 5000 dollar kost, dat is 192 dollar per chip. Daar komt het bord en geheugen nog bij, maar ik denk niet dat we over de 250 dollar heen gaan, totaalprijs, maar laten we voor de zekerheid 300 dollar aanhouden, inclusief shipping, verpakking, etcetera.

Tesla boards verkopen voor prijzen vanaf 1300 dollar.
Need I say more? :P
Volgens Intel kost een 300mm wafer 10000 dollar ;)
Dan kom je dus al aan 385 dollar per chip. Stel dat er slechts 25 chips uit een wafer gaan, dan stijgt de prijs plots met 15 dollar...

Stel dat de overige componenten dan nog 100 dollar kosten, dan zit je aan 500 dollar.
Maar dan heb je nog de marge voor het verwisselen van kaarten onder garantie, ontwikkelingskosten voor de kaart, productiekosten aan TSMC (ontwikkelingskosten voor het 40nm proces), extra support voor professionele kaarten, en dan ook nog de uiteindelijke winstmarge.
Dus elke chip die ze extra uit een wafer kunnen halen geeft rechtstreeks 400 dollar extra, en aangezien alles -buiten het laatste- vaste kosten zijn, heeft dat dus hopelijk winst voor Nvidia.
Volgens Intel kost een 300mm wafer 10000 dollar
Nee hoor, het originele artikel zegt dat dat een gerucht is van onbekende bronnen.
Preceding the official unveiling at IDF Shanghai, we were told my industry sources that the production cost of one 300 mm wafer with Silverthorne dies is about $10,000
Ik geloof er niets van trouwens, alle inschattingen over wafer prijzen die ik tot nu toe heb gezien gaan tot een maximum van 5000 dollar, en dat is bij een derde partij als TSMC. Wel is het zo dat een high-k procedee (wat Intel wel heeft maar TSMC niet) stukken duurder is, misschien dat je dan richting 10.000 dollar gaat, en dan nog vind ik het bizar hoog.
productiekosten aan TSMC (ontwikkelingskosten voor het 40nm proces)
Waarom denk je dat die wafers zo duur zijn? Dat is niet alleen productiekosten, daar zit natuurlijk R&D bij in. Net als dat wij als consument MS niet betalen voor het ontwikkelen van de volgende Windows betaalt NVIDIA TSMC niet voor hun R&D.
Dan kom je dus al aan 385 dollar per chip.
Ik geloof er niks van. Hoe zou NVIDIA dan ooit winst kunnen maken op hun 500mm2 chips? En zeg nou niet "dat doen ze ook niet", want dat is onzin. Als ze er nooit winst op zouden kunnen maken waren ze nooit begonnen met een chip met zo'n die-size budget.
Hoe zou NVIDIA dan ooit winst kunnen maken op hun 500mm2 chips?
ze rekenen normaal gesproken op hogere yields als 25%... zelfs met zo'n gigantische chip
en dan zouden ze er makkelijk winst op kunnen maken als ze er 500 euro voor kunnen vragen. maar dat kunnen ze niet meer.

ATI's nieuwe ontwerp-richting vanaf de hd4xxx series heeft ervoor gezorgd, en nvidia was al veel te ver met het ontwikkelen van ferme om echt grote veranderingen aan te brengen.

met de vorige generatie had nvidia nog geluk en konden ze voor ATI met de hd4xxx kwam nog wel die 500+ euro vragen en winst maken voor ze de prijzen drastische moesten laten dalen. deze keer zijn ze echter veel later, en moeten ze hun kaart vanaf het begin al meteen voor een lage prijs verkopen.
en welke prijs ze ook kiezen, ATI kan ze matchen op prijs/performance en tegelijkertijd meer winst maken per chip.

Nvidia zit gewoon in een lastig parket. deel van hun eigen makelij(heel veel extra transistors gespendeerd aan andere dingen als GFX), deels door TSMC(lage yields), deels door ATI(veel goedkopere chip met bijna net zo veel performance).

[Reactie gewijzigd door Countess op 23 december 2009 02:08]

ze rekenen normaal gesproken op hogere yields als 25%..
Dat weet ik, maar 25% leek mij een mooi voorbeeld van extreem lage yield voor mijn eerste reactie.
maar dat kunnen ze niet meer.

ATI's nieuwe ontwerp-richting vanaf de hd4xxx series heeft ervoor gezorgd, en nvidia was al veel te ver met het ontwikkelen van ferme om echt grote veranderingen aan te brengen.
Nee, dat kunnen ze wel. Ze konden het niet omdat G200 nogal tegenviel en RV770 een geweldige perf/mm2 ratio had. NVIDIA had ook ingezet op veel hogere clocksnelheden, wat ook flink zou hebben geholpen, maar ze hebben gewoon die slag verloren. Jij verwart een enkele slag echter met de hele oorlog. RV870 heeft een veel en veel lagere perf/mm2 ratio dan RV770, als je meeneemt dat het een 40nm chip is ipv een 55nm chip. Als NVIDIA deze generatie met Fermi wel een goede perf/mm2 ratio weet te halen is AMD weer in de problemen.

Om de een of andere reden hebben mensen sinds AMD's marketingpraat over kleinere chips ineens het rare idee gekregen dat grotere chips slecht zijn. Dat is natuurlijk onzin, er is maar 1 ding dat echt belangrijk is en dat is perf/mm2. Dit is in alle vorige generaties te zien geweest:
G80 vs R600 - G80 had een fantastische perf/mm2 verhouding ondanks de grote van de chip. R600 was een flinke flop. AMD was verloren en het zou nooit meer goedkomen.
G92 vs RV670 - AMD wist zich verbazingwekkend goed te herstellen, maar RV670 kon het nog steeds niet winnen van G92. AMD had geen keuze en moest op prijs concurreren. De AMD fans putten hier hoop uit, maar algemene consensus is dat AMD het moeilijk heeft tegenover de heer en meester NVIDIA die niets fout kan doen.
G200 vs RV770 - De situatie is opeens omgedraaid, en hoe. NVIDIA is niet alleen veel te laat, maar G200 presteert ook flink onder verwachting. RV770 is echter een fantastische chip. Opeens is het NVIDIA die naar de filistijnen gaat. Het kan nooit meer goedkomen en hun volgende chip moet ook wel een mislukking zijn.
Fermi vs RV870 - Geen idee nog. RV870 is een prima chip maar wel redelijk groot. De dual-chip kaart valt tegen qua performance, het is verre van 2x de single-chip performance. Fermi heeft de nodige vertraging, maar ziet er qua design en GPGPU functies erg sterk uit. Echter, na het G200 debacle kan NVIDIA uiteraard nooit meer iets goed doen, want ja... waarom eigenlijk?

Even terug kijken naar het verleden zet dingen toch mooi in perspectief, niet waar?
Inderdaad, de Tesla klanten betalen een smak meer voor de support maar dat wil niet zeggen dat verspild silicium niets kost. En voor de comsumer graphics waar je niet een smak meer kan vragen voor CUDA en ECC geheugen moet je hard op prijs kunnen concurreren en slechte yields helpen daar bepaald niet bij.
Op hoeveel inch wafers worden ze gebakken dan dat er maar 104 uitkomen?
En hoe verhoudt dat zich precies t.o.v. gewone processoren? En zijn dit kaarten voor echte workstations? Want aan zoveel cores heb je niet ontzettend veel bij games en dergelijke.
Hier praten we over parallelle berekeningen. Het renderen van graphics in games is een ultiem parallel proces, immers voor iedere pixel moet dezelfde berekening gedaan worden (heel eenvoudig gezegd). Bij games heb je als je over de grafische kaart praat dus heel erg veel aan veel cores.

Als je praat over het gedeelte van games dat traditioneel gezien op de gewone processor draait, dan heb je gelijk dat hier tot voor kort niet zo heel goed gebruik werd gemaakt van meerdere cores. Maar dat staat volledig los van Direct3D of OpenGL rendering in games (dat is altijd al heel erg parallel geweest).

Tesla is echter bedoelt voor berekeningen en niet voor games. Je moet hierbij vooral denken aan berekeningen die gemakkelijk in parallel gedaan kunnen worden. Een voor de hand liggend voorbeeld zijn natuurkundige berekeningen. Vaak worden hierbij vele deeltjes gesimuleerd die elk berekend moeten worden. Maar ook in de economische sector zijn toepassingen denkbaar waarbij zware rekenkracht nodig is om dingen te simuleren en waarbij parallellisatie goed bruikbaar is. Of denk eens aan klimaat simulaties.

De verhouding ten opzichte van gewone processors:
Ik weet het niet helemaal precies, maar ik dacht dat een gewone processor iets in de buurt van 50 gigaflops double precision kan doen. Tesla is dus dik tien keer zo snel. In vergelijking met een Ati HD5870, deze heeft een theoretisch maximum van zo'n 540 gigaflops in double precision (2.7 terraflops single precision) als ik me niet vergis.

[Reactie gewijzigd door The Flying Dutchman op 22 december 2009 13:31]

Ik vraag me dan altijd af of dit soort kaarten niet uitermate geschikt zijn voor renderfarms voor special effects en 3d animatie.
Zou dit in de toekomst mogelijk kunnen? Zouden renderengines zoals Renderman en Mentalray hier snel drivers voor krijgen?

@Freaq

Nice, Ik heb nog even gezocht maar helaas stopt Nvidia met Gelato

"As a freely downloadable product, NVIDIA will no longer be developing or supporting the Gelato software products."

Maar het klinkt wel erg interesant. Het is dus wachten op de larrabee van Intel =).

[Reactie gewijzigd door nr12 op 22 december 2009 17:36]

ja dat kan.
nvidia is hier al een tijd mee
bezig.

met bij gelato http://en.wikipedia.org/wiki/Gelato_(software)

en nu met Iray.
(min of meer mentalray met gpu )

gelato is gratis en het waard om eens te proberen
iray komt met de volgende mentalray release mee

echter raytracing met gpu's is over het algemeen trager dan op cpu's
dat icm met de extra problemen die de restricties meebrengen betekent dat het meeste op cpu's gedaan wordt.

ook heb je voor raytracing veel random accessesnodig
en daardoor is het niet (veel) sneller op de gpu.
maar dat duurt niet lang meer,
fermi lijkt al veel meer geoptimaliseerd voor C++ en raytracing.

dus het zal neit lang duren voor je echt kan raytracen met je videokaart.
en anders pusht intel dat nog wel (larrabee, al lukt dat nog niet al te erg)

[Reactie gewijzigd door freaq op 22 december 2009 15:04]

Dit zijn kaarten voor bepaalde commerciŽle en wetenschappelijke berekeningen waar CPUs relatief langzaam in zijn. Voornamelijk floating point berekeningen die erg parallel uit te voeren zijn (natuurkundige simulaties bijv.).

Heeft verder niets met gamen of standaard workstation applicaties te maken.
Dus... zijn ze nou sneller of wat?
En hoeveel uren werk gaat me dat kosten? :>
Als je het vergelijkt met AMD/ATI kaarten is die 600 double precision GigaFLOPS niet heel veel. Een HD5870 haalt volgens de AMD site 544 GigaFLOPS (double precision).

Hier vind je een Double Floating-Point benchmark met cpu's en gpu's.
Je kan de SiSoft benchmark resultaten ook goed gebruiken om een referentie te maken met vorige produkten.

SiSoft (pixel benchmark) HD5870 = 912 Mpixels/s (single) / 459 Mpixels/s (double)
AMD Specs (FLOPS) HD5870 = 2720 GigaFLOPS (single) / 544 GigaFLOPS (double)

Als we dat dan uitwerken dan kom je uit op het volgende:

SiSoft (pixel benchmark) GT260 = 426 Mpixels/s (single) / 52 Mpixels/s (double)
nVidia (uitgewerkt) GT260 = 1270 GigaFLOPS (single) / 62 GigaFLOPS (double)

Deze Tesla Fermi kaarten zouden dus in theorie 10x sneller zijn dan een GT260 in double-precision berekeningen, en daar zijn ze ook voor geoptimaliseerd.

Het verschil tussen de twee modellen is trouwens als volgt:
Tesla C2050 comes standard with 3 GB of GDDR5 memory at
more than 170 GB/s bandwidth. Tesla C2070 comes standard with 6 GB of GDDR5
memory.
Als je het vergelijkt met AMD/ATI kaarten is die 600 double precision GigaFLOPS niet heel veel.
Als je het vergelijkt met AMD kaarten hebben die geen CUDA, C++, errorhandling, ECC, etcetera. Dit soort GPGPU kaarten wordt niet alleen gekocht om de performance, maar ook om de features, en daar mist AMD op dit moment veel te veel. :)

[Reactie gewijzigd door Snoitkever op 22 december 2009 15:20]

CUDA is geen pluspunt, aangezien OpenCL de standaard is/word.
Dan zou je ook kunnen stellen dat nV weer geen ATi stream heeft...
CUDA is wel degelijk een pluspunt, want het wordt op dit moment heel veel gebruikt, het is al een paar jaar op de markt en er is al een flinke bak kennis en libraries voor beschikbaar, terwijl OpenCL nog maar net een maand uberhaupt bruikbaar is. Bovendien heb je meer en betere tools voor CUDA op dit moment.
Dan zou je ook kunnen stellen dat nV weer geen ATi stream heeft...
En wie gebruikt dat dan? Noem eens wat grote bedrijven en universiteiten die Stream gebruiken? Ik durf te wedden dat er minstens 100 keer zoveel zijn die CUDA gebruiken. Je kan zeggen wat je wilt van AMD, ze hebben voor gaming geweldige GPU's op dit moment, maar op het gebied van GPGPU is NVIDIA heer en meester, en met reden.
heel veel gebruikt?... dat is erg relatief natuurlijk. het word heel veel gebruik in de GPGPU markt... maar heel die markt staat pas in de kinderschoenen.

ik verwacht dan ook dat cuda vrij snel gaat verdwijnen, want software makers willen niet vast zitten aan 1 GPU fabrikant. en met openCL zitten ze niet eens vast aan GPU's maar kan hun software draaien op alle mogelijke massive paralele hardware.
de kleine voorsprong die cuda heeft weten op te bouwen gaat daar echt niet tegenop wegen.

zelfs microsoft's DirectCompute gaat succesvoller zijn als Cuda in de nabije toekomst, opnieuw omdat developers niet vast willen zitten aan 1 GPU fabrikant.

[Reactie gewijzigd door Countess op 23 december 2009 01:50]

heel veel gebruikt?... dat is erg relatief natuurlijk. het word heel veel gebruik in de GPGPU markt... maar heel die markt staat pas in de kinderschoenen.
Uiteraard, maar dat de markt in de kinderschoenen staat heeft hier niets mee te maken. Je haalt een heleboel zaken bij de discussie die er niet mee te maken hebben. Ik had het niet over hoe groot de markt is, ik had het niet over hoe groot CUDA wel of niet gaat zijn in de toekomst, ik reageerde op de opmerking dat CUDA geen voordeel is. Aangezien 99% van de mensen die met GPGPU bezig zijn CUDA gebruiken is CUDA ondersteuning op dit moment echt wel een selling point.
Het geheugen van AMD/ATI is wel uit gerust met ECC.
Bron? Ik zie er helemaal niets van hier in ieder geval.

Overigens is bij Fermi niet alleen het externe geheugen ECC beschermd, ook de cache's op de chip, en zelfs de registers hebben ECC bescherming
Het geheugen van AMD/ATI is wel uit gerust met ECC.
Dat is klok horen luiden, maar niet weten waar de klepel hangt. De verbinding tussen de geheugenchips en de GPU is middels ECC beveiligd (is onderdeel van de uitgebreide GDDR5 specs), maar de rest is echt geen ECC. Er schiet me niet 123 een bron-artikel en bijbehorende link te binnen maar dat het in de GDDR5 specs staat is zeker en dat AMD voor de HD5xxx serie wel de uitgebreide GDDR5 specs geÔmplementeerd heeft is ook zeker.
Is toch weer 10% meer. En we weten niet wat het prijsverschil word dus misschien is dit wel een hele goede kaart qua prijs/performance.
aangezien deze chip ongeveer 50% groter is als die van ATI, is dat erg onwaarschijnlijk.
btw zie ik nou echt alleen een DVI aansluiting?

edit: http://img696.imageshack.us/img696/4236/brack1.png
Ja dus.

[Reactie gewijzigd door A.M.D op 22 december 2009 13:32]

Het is een "rekenkaart" en geen "multimedia of game kaart" dus het is eerder verspilling dan nuttig er ook dp en of hdmi op te maken.
Hoeveel uren hij moet werken om dit te kunnen betalen.
veel... om dan tot de ontdekking te komen dat je er weinig mee opschiet ...
http://hpc.sprinx.cz/tesla/c2070.aspx

[Reactie gewijzigd door JoJo_nl op 22 december 2009 13:32]

uren kosten geld, of werk jij gratis?
Ehm, uren leveren geld op, of betaal jij je werkgever om te mogen werken?
volgens mij moeten ze een nieuwe vorm van PCI express uitbrengen, de huidige energievoorziening voldoet niet meer, we moeten tegenwoordig altijd maar meer en meer rechtstreeks op de voeding aansluiten.
225 Watt.. Dit soort semi ridicule hoeveelheden stroom die voor slechts een klein percentage van de computers nodig is rechtvaardigt geen nieuwe PCIexpress spec imho.
De wereldwijde trend is groener en zuiniger. Alleen de GPU fabrikanten doen er nog niet aan mee, maar dat komt vanzelf.
Die doen er zeker wel aan mee, getuige de grote focus op het minimaliseren van idle verbruik. Ook al vereisen de nieuwe ATi kaarten een flinke hoeveelheid stroom onder load, in idle gebruiken ze slechts 20W.

Dit zijn nu eenmaal kaarten die prestaties moeten verrichten en daar is dit nu eenmaal voor nodig. Van een vrachtwagen verwacht je ook niet dat hij hetzelfde verbruikt als een personenauto, ondanks dat ook vrachtwagens waarschijnlijk wel zuiniger worden gemaakt.
Dat lijkt me zo beter. Als je 200W door je moederbord gaat trekken moeten die weer helemaal aangepast worden, wat niet voordelig gaat zijn voor de consument. Daarintegen een kabeltje rechtstreeks van je voeding naar je videokaart, kan het nog eenvoudiger?
De vraag is alleen of je wel zoveel vermogen door je moederbord wil pompen, als je iets wat zo'n bult stroom nodig heeft ook dedicated van stroom kan voorzien.

Ik heb er verder niet zoveel verstand van, maar ik kan me zo voorstellen dat dit er mee te maken zou kunnen hebben. :)
Waar denk jij dat het moederbord zijn stroom/spanning aan ontrekt, ook gewoon de voeding. Zoals iemand al opmerkte die grote/hoge vermogens wil jij niet door het moederbord willen transporteren, daar wordt een moederbord alleen maar veel en veel duurder van. Het is veel makkelijker en goedkoper even een lijntje direct van de voeding in de VGA kaart te pluggen.
In het document staat dat ze er 1,8Ghz- 2,0Ghz geheugen voor gebruiken, draait het nu op 450-500 Mhz GDDR5 of draait het nu op 7200Mhz-8000Mhz? (zou een beetje vreemd zijn aangezien er gisteren pas een bericht was dat Hynix was begonnen met 7000 Mhz GDDR5)

Edit: @watercoolertje: Ik haal ook uit het document dat er GDDR5 inzit.

[Reactie gewijzigd door cheeks op 22 december 2009 13:51]

Nvidia heeft volgens mij nog geen GDDR5 gebruikt denk ook niet dat ze dat gaan doen en dan kan je best (effectief) 2Ghz GDDR3 gebruiken :)
De GT240 van nvidia gebruik GDDR5.
http://tweakers.net/price...cay6nQaNP9c20b-ZuhbUWf5xc

Maar ik denk idd dat ze hier nog voor DDR3 kiezen. Semi schreef dat nvidia een erg hoge core clock nodig had om efficiŽnt gebruik te maken van het snelle GDDR5. Wat daar van waar is, weet ik niet, dat zijn de geruchten.

[Reactie gewijzigd door Reinman op 22 december 2009 14:00]

Het is een beetje tegenstrijdig (of mijn berekening klopt niet :9 )
Tesla C2050 comes standard with 3 GB of GDDR5 memory at more than 170 GB/s bandwidth. Tesla C2070 comes standard with 6 GB of GDDR5 memory.
Volgens mijn berekeningen gebruiken ze dan ongeveer 3542MHz geheugen op een 384bit bus. (Wat overigens wel net dubbel zo veel is als de 1,8GHz waarvan ze spreken :/ )

@watercoolertje
In de pdf staat dat ze GDDR5 geheugen gebruiken. Maar 2GHz GDDR5 lijkt me echt wel weinig, en effectief 8GHz lijkt me dan weer veel..

[Reactie gewijzigd door Malantur op 22 december 2009 13:58]

Ik heb hetzelfde. Het zal wel Gddr3 zijn,
IK zou zeggen die het nVidia nieuws topic op GOT

http://gathering.tweakers.net/forum/list_messages/1378180/17

Persoonlijk was ik er ook in het begin de mist mee in gegaan;
Wat ze uiteindelijk bedoelen is 900-950Mhz GDDR5 geheugen.
Het lijkt me dat het niet zo goed gaat bij Nvidia, wil zeker geen Ati vs Nvidia flamewar starten, heb nml zelf een Nvidia kaart, maar Ati domineert momenteel overduidelijk, en uitstellen en downgraden van wat je nieuwe top product moet gaan worden lijkt mij niet echt een signaal dat je er snel bovenop komt.
Niet dat het echt slecht is, zo gaat het gewoon in GPU en CPU land, Ati kan even de schade inhalen en ondertussen moet Nvidia gewoon extra hard proberen.
De consument kan in elk geval niet klagen met de huidige generatie kaarten en de prijzen.
Ati heeft niks wat tegenover de Tesla staat. Tesla is helemaal geen GPU zoals bestemd voor desktop consumenten gebruik.

Dit is een compleet verkeerde vergelijking.
Het stomme is dat het gewoon een consumenten GPU is met speciale ondersteuning van uit Nvidia. Je kan op een GTX 285 het zelfde als op de Tesla variant.
Je kan op Intel's 300 dollar CPU bijna hetzelfde als op hun 1000 dollar extreme edition CPU. Toch kopen mensen die laatste. Kennelijk zijn er genoeg mensen/bedrijven die die extra features belangrijk genoeg vinden om het extra geld te betalen daarvoor.
Wat kan de tesla GTX 285 wat de GTX 285 niet kan? Helemaal niets idd. Je krijgt alleen veel meer ondersteuning van uit Nvidia. De extreme edition bied wel wat over de normale(al zou dat niet nodig zijn) namelijk een losse multi.

[Reactie gewijzigd door Reinman op 22 december 2009 18:03]

meer geheugen en dat is naast de ondersteuning ook echt alles
Ik weet wel dat dit geen consumentenproduct is maar de geforce 300 series zal ook gebaseerd zijn op de fermi architectuur, mijn punt was dat alles wat met fermi te maken heeft uitgesteld en/of gedowngrade wordt, en dat lijkt me toch niet echt een positief vooruitzicht voor Nvidia's marktaandeel bij de consumenten, dat het momenteel al niet te goed doet.

[Reactie gewijzigd door Robby517 op 22 december 2009 14:09]

ATI kan de 5870 er tegenover zetten.
Je bent niet verplicht die 5870 alleen voor videogames te gebruiken.
ATI domineert vooral in het niet supporten van *BSD en Linux. Zit nog steeds te wachten op een 780G driver die video decoding doet in FreeBSD.
Dat is onzin, tegenwoordig komen er ook steeds update drivers voor Linux. ATi support Linux weldegelijk, alleen zijn zij er wat later mee begonnen dan Nvidia.

Zo kun je ook stellen dat Nvidia domineert in het vervaardigen van ondeugdelijke GPU's kijk maar naar het G84, G86 en G92 (mobile) debakel, overigens wordt dit nog erger nu blijkt dat de 8800 desktop serie dezelfde problematiek ondervindt en bij bosjes neer gaat (uitvallen). Nee, op het moment valt er heel veel te verbeteren bij Nvidia als het op GPU gebied aan komt.

Het wordt tijd dat Nvidia zijn arrogantie opzij zet en eens aan het werk gaat, anders blijven wij straks alleen met AMD/ATi en Intel zitten, concurrentie is alleen maar goed voor de markt en consument.

[Reactie gewijzigd door _Dune_ op 22 december 2009 14:30]

ATI is al een hele tijd bezig met een proces om te zorgen voor volledige opensource drivers voor linux en dus ook freeBSD. daar kan nvidia nog een puntje aan zuigen. maar zo'n proces duurt langer als een paar weken of maanden.

maar zoals al vaker is uitgelegd in ATI's video decodeer gedeelte zitten patenten van de 3de verwerkt waardoor ATI dat niet zomaar kan vrijgeven.
in deze of nieuwe generaties gaan ze dat splitsen, ten koste van extra transistors.

er is trouwens wel een hack om de videodecoder aan de praat te krijgen.
wat is die hack dan?
Wat een energieverbruik, 225 watt is erg veel. Ik ben benieuwd hoe de Fermi's presteren tov de ATi's. nVidia begint zich ook alleen maar meer op parallel computing(of hoe ze het maar noemen) te concentreren.
De 5970 zou zelfs gecapped zijn in snelheid om niet boven de 300W uit te geraken dacht ik van ergens gelezen te hebben.
Deze kaart wordt juist gericht op de zakelijke markt. als je kijkt wat deze kaart dan kan doen in vergelijking met een CPU. dan verbruikt deze maar een fractie van het vermogen.

Tesla aankondiging, volgens Nvidia tot 20x zuiniger dan CPU systemen:
http://tweakers.net/nieuw...n-fermi-architectuur.html

de vraag is wat AMD in de zakelijke markt er tegenover heeft staan, en in welk merk/product het bedrijfsleven het meeste vertrouwen heeft. Liever een stabiele kaart die makkelijk inzetbaar is, dan een iets snellere kaart van de concurentie waarbij het langer duurt om het systeem online te krijgen.

je kunt aan de hand van dit nieuws wel gaan speculeren over de GTX3xx kaarten van Nvidia, en dan denk ik dat AMD het op prijs/performance en performance/watt het deze ronde weer gaat winnen.
Dus nu al twee keer gedowngrade eerst de core snelheid en nu minder cuda cores..
Misschien komen er ook nog andere modellen die wel 512 cores hebben. Net zoals je bij de GT200 ook niet aan een vast aantal cores zit. Mja dat zal de tijd vertellen. Ben wel benieuwd naar een benchmark maar dan niet van een tesla maar een Geforce.
Juist bij een tesla gpu die niet op gamers gericht is, zijn zaken als yield en dus prijs minder van belang.
Er moeten dus wel zwaarwegende redenen zijn geweest om het aantal cores te verminderen. En dat maakt het niet waarschijnlijk dat er reg snel modellen komen die meer cores hebben.

Het is nog slechter nieuws voor de gamer kaarten die uiteindelijk op dezelfde gpu gebaseerd zijn.
Even lezen wijst op ons een gerucht:
Een van de redenen hiervoor zou het energieverbruik kunnen zijn, dat volgens het document minder dan 225W gaat bedragen. Om in die energiebehoefte te voorzien zijn de videokaarten uitgerust met een zespins- en een achtpins-pci-e-connector.
;)
En dat is dus een gerucht waar niet eerst even over nagedacht is voordat de nieuwsposter het overnam.

Je snijdt in je aantal cores voor yields.
Je snijdt in je kloksnelheid voor energieverbruik // temperatuur.

De reden:

Snijden in cores voor energieverbruik is altijd minder rendabel als snijden in kloksnelheid. Dit omdat het verband tussen verbruik en cores snijden minder dan linear is, terwijl het verband tussen verbruik en kloksnelheid (en bijbehorende minimum voltages) meer dan linear is.

Kortom, Nvidia snijdt in het aantal cores vanwege de yields, zelfs bij een kaart waar enorm veel marge op zit. Dat voorspelt dus niet veel goeds voor de Geforce GTX3xx.
Tesla GPU?
De GPU's zijn hetzelfde. En yields zijn altijd van belang. De tesla-kopers betalen een flinke smak meer dan geforce kopers voor de support en betrouwbaarheid.
de shaders van mijn GT260 draaien op 1242mhz, de fermi is dus niet marginaal langzamer
En de GTX260 is de enige in de serie 8)7. De snelste in de serie, de GTX285, heeft zijn SPU's op 1476mhz. Hij gaat dus naar alle waarschijnlijkheid langzamer dan het top model van de GT200 serie. Als hij op 1225mhz draait is hij ook marginaal langzamer dan jouw GTX 260.
Waarom vergelijken met desktop kaarten? Dat is appels met peren vergelijken, maak dan liever een eerlijke vergelijking met ATI FirePro/FireGL en Nvidia Tesla kaarten ;)
Omdat een desktop kaart precies het zelfde kan als zon professionele kaart?
Als je geen sloot geheugen nodig hebt voor je dataset kan de desktop kaart zelfs meer ;)
Deze quote komt van SemiAccurate
IT LOOKS LIKE we were right about Fermi being too big, too hot, and too late, Nvidia just castrated it to 448SPs. Even at that, it is a 225 Watt part, slipping into the future.
The main point is from an Nvidia PDF first found here. On page 6, there are some interesting specs, 448 stream processors (SPs), not 512, 1.40GHz, slower than the G200's 1.476GHz, and the big 6GB GDDR5 variant is delayed until 2H 2010. To be charitable, the last one isn't Nvidia's fault, it needs 64x32GDDR5 to make it work, and that isn't coming until 2H 2010 now.
In het artikel van Tweakers wordt weliswaar het verbruik genoemd, maar niet de relatie met warmte productie. Dat videokaarten hitte problemen kunnen hebben is eigenlijk ook helemaal niet gek. IN mijn ogen is het een wonder dat er niet veel meer probemen zijn. Het verbruik wordt gespecificeerd op <=225W. Het voltage van de GPU's op 1.05V. Op dat voltage loopt er dus een whopping ~200 Ampere door dit bord. De GPU's zullen hier 't merendeel van consumeren, hoewel ik geen idee heb hoe efficient de componenten zijn die de conversie van voedingsspanning (12v? 5v?) naar 1.05V doen. nVIdia heeft die 64 cores vast niet voor niks gesnoeid en hetzelfde geldt voor de kloksnelheid. Zal dit de opbrengst per wafer verhogen? Warmte problemen aanpakken?
De voedingsspanning is vooral 12V (66W via het PCIe slot en 150W via de connectors) maar ook 3,3V (9,9W via het PCIe slot).
Aangezien de VRM's ook aardig warm worden neem ik aan dat er toch ook een redelijke hoeveelheid energie verloren gaat bij het omvormen van 12V naar 1,05V.

Maar uiteindelijk is 225W niet extreem veel meer dan een 5870 (die 188W verbruikt). Of erger nog: de 5970 verbruikt 294W.

Maar je hebt ook wel gelijk: ATI heeft voor de 5970 in de kloksnelheden gesnoeid om het verbruik onder de 300W te houden. (En doeltreffend ook, immers is 188W x2 = 376W..)
In dat opzicht zou het zelfs beter zijn om in cores te snoeien, zodat er tegelijk betere opbrengsten zijn en minder problemen met het afvoeren van warmte.

[Reactie gewijzigd door Malantur op 22 december 2009 18:33]

Het snoeien in het aantal cores is juist een slechtere oplossing dan snoeien in de kloksnelheid.

Deze kaarten (maar ook reguliere videokaarten) zijn bedoeld voor Parallelle berekeningen. Het is energie-efficiŽnter om de kloksnelheid te verlagen dan het aantal cores. Dit omdat het verlagen van het aantal cores een linear verband oplevert en de kloksnelheid, omdat het deels berust op het voltage, ergens tussen linear en kwadratisch in hangt.

Kort samengevat, ze hebben in het aantal cores gesneden vanwege de yields en niet vanwege het energie-verbruik.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True