Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 102 reacties

Nvidia zal in januari trachten om de performancekroon voor grafische kaarten terug te veroveren. Op dit moment is die in handen van ATI, dat met de Radeon HD 4870 X2 de snelste videokaart ter wereld in zijn assortiment heeft.

Nvidia zal begin januari zijn grafische kaart met twee GT200-chips uitbrengen en zou dan 's werelds snelste grafische kaart produceren. Nvidia zou zelfs nog dit jaar al aanspraak op de titel van ATI kunnen maken, omdat de eerste samples van de grafische kaart medio december aan fabrikanten uitgeleverd zullen worden. Over prijzen voor de voorlopig naamloze kaart is nog niets bekend.

Net als ATI dat met de 4870 X2-videokaart heeft gedaan, zal Nvidia twee gpu's op één grafische kaart combineren. Van de op 65nm gebakken GT200-gpu, die ook voor de Geforce GTX 260- en 280-kaarten wordt gebruikt, zijn nu twee varianten beschikbaar. De GTX 260 bevat een model met 216 streamprocessors, terwijl de 280 over 240 streamprocessors beschikt. Nvidia heeft voor de GT200 een die-shrink naar 55nm aangekondigd, en twee van dergelijke gpu's met 240 streamprocessors zullen in de HD 4870-killer worden gebruikt.

Geforce GT200
Moderatie-faq Wijzig weergave

Reacties (102)

Wat ik niet begrijp is dat ik juist steeds meer het idee krijg dat de hele PC gaming markt steeds slechter gaat (steeds meer exclusieve console games, bijna geen PC exclusives meer en als het er al is, komt het meestal nog een stuk later ook)
terwijl de hardware fabrikanten ons willen doen geloven dat het nog springlevend is! We moeten 500 euro moeten gaan neertellen voor een videokaart terwijl we daar ook een high-end console voor kunnen kopen die nog langer courant blijft met dezelfde graphics ook nog!
Want verklaar mij nu eens waarom een Xbox 360 van 3,5 jaar oud (!!) gewoon 1920x1080 games kan draaien terwijl dat je daar in een PC al een redelijke kaart voor moet meebrengen?!

Ik doe het niet meer, de volgende videokaart wordt een PS3/XBOX360 of iets dergelijks...
Want verklaar mij nu eens waarom een Xbox 360 van 3,5 jaar oud (!!) gewoon 1920x1080 games kan draaien terwijl dat je daar in een PC al een redelijke kaart voor moet meebrengen?!
Ok. De hardware die in een Xbox zit is veel meer afgestemd waar hij voor bedoeld is. De game-ontwikkelaars weten ook precies wat erin zit en kunnen dan een balans maken van prestatie en hoe het eruit ziet (grafisch). Ook het OS van de Xbox is veel meer afgesteld.

Daarbij zien de graphics van een PC op alles op vol er ook mooier uit dan een Xbox. (heb zelf beide). Als je de Xbox al vol wil benutten moet je al een Full HD scherm kopen van ~¤1000. Ook zijn spellen van een Xbox vaak duurder (kwestie van dat ze op het zelfde prijsniveau blijven hangen).
Een 21.5" Acer monitor kost $210 en heeft 1920x1080 resolutie (1080p dus) en HDMI aansluiting, waarbij hij dus met gemak op zowel PC als XBox360/PS3/Blu-Ray kan worden aangesloten

http://www.newegg.com/Pro...aspx?Item=N82E16824236051

Dus je kan het dan perfect vergelijken. Alleen kan je op een PC dus ook een 30" 2560x1600 resolutie LCD aansluiten en met een krachtige GPU opstelling ook op die resolutie spelen.

De consoles lopen dus al ver achter, omdat die amper 1080p kunnen spelen en vaak upscale en fps troefjes gebruiken. De videokaarten in zowel de XBox360 als de PS3 zijn ook aangepaste versies van 2 generaties terug. De PS3 maakt bijvoorbeeld gebruik van een nVidia GPU die meer te vergelijken is met een GeForce 7 serie kaart. Nu is daar niks mis mee, maar is totaal niet te vergelijken met een Quad-SLi opstelling met een GTX280. De XBox360 heeft een HD2000 serie vergelijkbare kaart, wat totaal niet te vergelijken is met een CrossFireX opstelling van twee HD4870-X2.

Qua prijs loopt zo'n PC opstelling dan de spuigaten uit natuurlijk, maar ik loop hier niet op prijs te vergelijken maar op kwaliteit. En PCs laten de consoles gewoon ver achter momenteel.

Het punt is echter dat niet veel spelletjes geoptimaliseert worden voor zulke krachtige PCs en dat ze eigenlijk meer geschreven worden voor de consoles. De PC poort is dan vaak een brakkig aftreksel van de console versie wat er daardoor nooit beter op een PC uit zal zien, omdat er geen extra tijd in wordt gestoken voor hogere kwaliteit textures, etc.

Gelukkig zijn er altijd wel wat ontwikkelaars die het wel goed doen, waarbij de PC versie er veel beter uit ziet dan de console versies, zolang het systeem maar krachtig genoeg is.
offtopic:
Volgens mij is 1920x1080 toch 1080i en 1920x1200 1080p ... maar ik kan het natuurlijk ook mis hebben...


Mooi.... prachtig.... onnodig.... Dit is momenteel ALLEEN maar goed om te kunnen laten zien dat ze beter kunnen dan AMD/ATI..

Want waarom zou je nou voor een GTX280x2(??) gaan als de GTX280 al alles trekt :/ Als je het mij vraagt is het toch allemaal pure show-off
Nope 1080p is 1920x1080.
1080i is effectief 1920x540.(Om de frame wordt even-oneven lijnen gerendered)

1920x1200 is een gewone breedbeeld 16:10 resolutie.(En is ook geen FullHD of FullHD plus, want echte HD resoluties hebben een aspect van 16:9)

P.s. FullHD is uiteraard maar een term, 1920x1200 ziet er natuurlijk nog scherper uit ;)

[Reactie gewijzigd door Bejit op 3 december 2008 11:36]

Het grootste verschil is ook texture resolutie, deze is op PC games een stuk hoger.

Je hoeft trouwens geen 1000 euro uit te geven aan een goed scherm, zo heb ik deze week nog een Hanns.G scherm van 28" gehaald met een resolutie van 1920x1200, dus ook prima voor native 1080p. Hij heeft een HDMI ingang dus je kunt er zo een console op aansluiten, en dit scherm kost zo'n 350-400 euro.
Een xbox360 kan niet aan die resolutie draaien. Het wordt gewoon ge-upscalled ( uitgerokken) naar die resolutie. De meeste games draaien op een resolutie van 1280x720 of 1152x640 zoals HALO3 bijvoorbeeld.

Ook moet je geen 500¤ gaan uitgeven aan een grafsche kaart. De grafische kaarten van 150¤ presteren al pakken beter dan hetgeen in een xbox360 zit, daarin zit een aangepaste versie van de R520-chip( van de ATI X1XXX reeks).
Nee, daar zit een R500 in, die niet overeenkomt met de code naam voor de normale lijn(welke R520 is voor de X1000 serie). Een soort voorloper van de R600, X2900 dus. Met unified shaders!

http://en.wikipedia.org/wiki/Xenos

[Reactie gewijzigd door Reinman op 2 december 2008 15:37]

Um pc graphics zijn veeel beter dan die van de consoles. Kijk maar eens naar GTA4. Die schokt zelfs op de PS3 :o . Ook hoef je helemaal geen GTX280 of HD3870X2 te kopen. De HD4850 en GTX 260 216 zijn lang niet zo duur, maar kan je makkelijk op hoge resolutie met eye candy aan op gamen. Het is nog nooit zo goedkoop geweest een nieuwe en goeie videokaart te kopen! Exlusief randapperatuur heb je voor 500 euro ook een game pc!

[Reactie gewijzigd door Reinman op 2 december 2008 15:28]

Die indruk heb ik ook.
op console kan er ook meer geoptimaliseerd worden door minder variatie in de Hardware.
op PC gebied komen er meestal maar ports meer uit, die het dan meer van brute kracht moeten hebben omdat er :
1. teveel verschillende hardware is om echt te optimalizeren
2. Amerikaans gedachtegoed ,greater bigger faster , heerst. waardoor brute kracht minder een probleem is. Ironisch genoeg is deze kaart er het voorbeeld van.
3. De software makers idd liever iedereen op console zou krijgen.

maar daarom een console aanschaffen ? nee dank u. koop dan wel geen games meer.

Gelukkig zijn er wel nog uitgevers die voor PC ontwikkelen.
met dezelfde graphics ook nog!

Ik denk dat je hier de plank misslaat. De prestaties van 260/280 GTX en 4870X2 overtreffen die van een XBOX360 en PS3 al met gemak. Games op een console doen grafisch vaak onder voor de PC versie.
- console games zien er nu al slechter uit dan PC games (GTA4 console vs PC)

- console games nemen niet gestaag toe in detail, maar per revisie van de console, wat de evolutie tegenhoudt.

- Een PC van 3,5 jaar oud kan nog steeds hedendaagse games draaien, zij het neit op maximale details. Dit kan niet met oudere console.

- Consoles hebben een vaste hardware setup, waardoor je betere afstemming van software op hardware krijgt, en zo betere prestaties.

- Consoles zijn nu eenmaal wel ontworpen om te gamen, waardoor je voor de specs die ze hebben natuurlijk wel betere prestaties dan hun PC-tegenhangers krijgen.

Dit laatste wil echter niet weggen dat PC-gaming een groot nadeel heeft tov consoles: tenslotte heeft iedereen al een PC, terwijl consoles bijna gratis moeten worden weggegeven alleer iemand er een game voor maakt. De afzetmarkt is er dus al, terwijl die van consoles telkens opnieuw moet worden opgebouwd.
We moeten 500 euro moeten gaan neertellen voor een videokaart terwijl we daar ook een high-end console voor kunnen kopen die nog langer courant blijft met dezelfde graphics ook nog!
E8400 + Gigabyte P45-DS4 + HD4850 = 450euro.. een ps3 kost 500 euro.. Dan heb ik toch liever het eerste.. Dit is slechts een voorbeeld van een toch redelijk high-end systeem vind ik.

Bovendien zijn, zoals gezegd hierboven, de graphics toch wat mooier op de pc dan op een ps3/xbox360.
Voeding en kast erbij is het wel 500 euro en meer denk ik. En de PS3 heeft ook nog een Blu-ray speler die de prijs flink opdrijft dus dat is niet echt een eerlijke vergelijking.
Het is toch een keuze van Sony om een Blu-ray speler in hun console in te bouwen. Voor de pc is dat niet nodig aangezien de meeste spellen toch op dvd uitkomen. Voor de filmliefhebber kan dit wel een gemis zijn, maar dat is een kleine markt.

Bovendien kan je met je pc meer dingen dan met de PS3. Bovendien hebben veel mensen ook een simpele pc. Als je daar de kosten van aftrekt, dan zit je (ruim) onder de prijs van de PS3.
Lijkt me zeer onwaarchijnlijk gezien de grootte van de chips van de 260/280. Zelfs met een procesverkleining blijven dit te grote chips om op 1 kaart te krijgen. En dan spreken we nog niet over de warmteproductie en dus de koeling die nodig is. De chips zijn nu rond de 584 mm², zelfs met een productieverkleining zal dit niet kleiner dan 475 mm² zijn. Ter vergelijking, de HD4870 heeft een chipsize van 256 mm² wat 2 keer zo klein is.
Hoezo niet kleiner dan 475 mm²?

584mm² wil zeggen een chip van 24,2 * 24,2 mm.
Een die-shrink van 65 naar 55 nm wil zeggen dat de chip 84,6% van de huidige maatvoering krijgt, dus 20,5 bij 20,5 mm, wat neer komt op ca. 420mm².

Ik zou niet weten waarom er geen 2 chips van 20,5 bij 20,5 mm op een full-size grafische kaart zouden passen.
idd, je berekening klopt (ik heb maar geschat, en zat er duidelijk een beetje naast :p.)Maar alsnog is dat zo goed als onmogelijk te steken op 1 kaart. Ondertussen zag ik dat in het fudzilla artikel staat dat het op 2 PCB's zal komen te staan, wat wel weer wel kan, maar dan noem ik het niet echt 1 kaart, maar 2 kaarten tegen elkaar geplakt zoals de 7950GX2.

Om je een idee te geven van de huidige gtx280 zonder cooler:

http://www.3dnews.ru/_imgdata/img/2008/06/16/85917.jpg

dit is een PCB met dezelfde grootte als een 4870x2 (10.5 inch oftewel +-26.7cm)

Dit is dan een 4870 X2:

http://static.pcinpact.com/images/bd/news/59088-4870x2.jpg

Veel plaats heb je niet echt om zo'n 2de 280 chip + geheugen erbij te zetten.

Moest het er komen zal het alleszins enorm veel verbruiken en een fameuze cooling nodig hebben gezien ze dan 2 PCB's moeten coolen.
door de grotere geheugen bandbreedte en het hogere verbruik per chip heb je denk ik toch een stuk meer ruimte nodig om een 2de gt200 chip erbij te zetten als een 2de rv770
Deze dual-GT200 zal de grootste, (duurste), warmste, meest energieslurpende gpu ooit worden. Het enige doel van deze GPU is om de prestatiekroon van AMD af te snoepen. Ook al gebeurd dat door een GPU die niet veel zal geleverd worden.
Ergens anders was ook te lezen dat dit een dual pcb kaart zal worden zoals de vorige dual gpu kaart van Nvidia. Maw niet gemakkelijk te koelen dus.
Reken maar dat Nvidia hier veel verlies zal mee maken, maar indirect hoopt het om winst te maken op andere producten enkel en alleen omdat het de prestatiekroon vast heeft.
Nou ik denk dat 2x Geforce 280 GTX meer stroom vraagt dan 1 keer 1 Geforce 280 met 2 GPU's, en hij krijgt een kleiner die-shrink naar 55nm, en dat sheeld ook stroom.

En 1 Geforce 280 GTX kost helemaal niet 500 euro, kost 379 euro, das een groot verschil.

http://www.dollarshops.eu/product_info.php/products_id/37336

[Reactie gewijzigd door AmigaWolf op 2 december 2008 23:13]

De GTX280 is al niet zuinig te noemen. En nu komen er dus 2 van die chips op 1 kaart....
Stel je dan eens voor dat iemand 2 of 3 van die kaarten in zijn systeem gaat zetten.

Je hebt dan al snel een 1500W-voeding nodig. Te vergelijken met een wasmachine. En bij een wasmachine adviseert men (electriciens zijn het volgens mij verplicht) een aparte groep aan te leggen. Dus straks moet iedereen precies aan gaan geven waar je je pc gaat plaatsen, zodat ze een aparte groep kunnen aanleggen.

ik heb zo'n gevoel dat dit nieuwsbericht bij Eneco en Nuon met gejuich wordt ontvangen......

Ik ben van mening dat de politiek in moet grijpen. Alleen weet ik niet zo goed hoe: men kan wel eisen dat het maximale energieverbruik verlaagd gaat worden, maar gevolg gaat zijn dat producenten overclocken nog makkelijker gaan maken. Dan bereik je er nog niets mee. Maar ik vind het milieutechnisch echt te extreem worden. En dan ben ik nog iemand die al dat gedoe rond co2 heel erg overdreven vind.

Ik besef dat het een keuze is om voor zo'n kaart te kiezen. Maar als gamer wil je toch een mooi systeem en wil je het spel toch op zn mooist kunnen spelen. Ik vind het dus niet redelijk om van gamers te verwachten dat ze slechte videokaarten moeten kopen, omdat de goede het milieu te erg verzieken.
Auto's worden ook steeds milieuvriendelijker: waarom computers dan niet?
wil je dan ook dat de politiek ingrijpt bij serverparken met hun slurpende 16-core renderkanonnen? Of de buurjongen die van zijn krantenwijk monitoren koopt en er 8 aan zijn systeem hangt?

Dit gaat echt nergens over. Hoe mensen hun stroom verfikken moeten ze zelf weten. Begin anders maar bij het afschaffen van kerstverlichting.

Ik ben het wél met je eens dat dit een weinig zinnige kaart zal worden. Ik vindt het trouwens vreemdt dat nVidia zó lang op zich laat wachten met een antwoord op de productlijn van ATI. In een half jaar presteren ze het om een 260 met wat extra streamprocessors (en naamsverwarring!) uit te geven, een die-shrink aan te kondigen (nou woeptiedoe!, ATI zit al op dat proces), en nu deze belachelijke dual-PCB kaart aan te kondigen.

Echt heel bizar hoe de industrie om kan slaan, een jaar geleden zat iedereen te vrezen voor het faillissement van ATI, omdat ze de achterstand nooit meer in gingen lopen...
Nou ik vind een 1500Watt slurpend systeem toch erg overdreven en als dat op grote schaal gebeurt worden de energieproblemen nog groter dan ze al zijn. Prima als de eindgebruiker dat wil betalen maar dan mag er wat mij betreft een dikke vette ecotaks op zon systeem. We moeten ook een stukje eigen verantwoordelijkheid nemen en 1500W voor een pc vind ik echt te gek voor woorden.
ecotaks? hoezo? die ecotaks komt het milieu niet ten goede hoor, het is gewoon een verkapte straf/boete omdat je genoeg geld hebt voor wat luxe.
Voor het wattage alleen moet je niet echt een ander circuit te leggen.
Was vroeger het geval omdat toen nog veel stopcontacten op het "lichtnet" aangesloten was.
Gebruik speciaal de term lichtnet daarvoor.
De zekering voor het lichtnet (juister voor licht kringen/groep als je wil) moet men een 10A smeltzekering of 16A automaat gebruiken. 1.5mm² draad gebruiken
Tegenwoordig hebben de "normale stopcontact kringen" 16A smelt of 20A automaat. 2.5mm² draad.
Elektrische fornuizen kunnen tot 35A 4mm² gaan.
De reden waarom er een andere kring gebruikt moet worden voor aan wasautomaat is dat er daar water en elektriciteit samen gebruikt worden en je dus een gevoeligere differentieel nodig heb. Keuken en badkamer hebben die ook als er aansluitingen binnen bepaalde afstand van water bevinden. bvb een aansluiting vlak boven de wastafel voor een haardroger of scheerapparaat.
Bron : AREI 1997 (of toch hetgeen ik ervan onthouden heb)
MR_QAZOO heeft gelijk alleen zijn er inderdaad speciale zone indelingen in de badkamer daar heb je wel gelijk in.

Maar de meeste huizen heb een 16amper groep met daar op licht en kracht om zo maar te zeggen. Daar bij gaan we in de praktijk er van uit dat er nooit meer dan max 80% van het geheele totaal vermogen wordt opgenomen. bv alles bijelkaar zou er 4000watt aan appratuur op een groep kunnen zitten maar er wordt maar 3200watt gebruikt en dat valt binnen de grenzen van 3680watt( 16A bij 230volt ). Je zet namelijk niet de radio en de tv aan in de zelfde kamer en dan nog heb je kans dat er twee groepen zitten.
Een 20 A zekeringsautomaat? Waar denk je die in een gewoon huishouden voor te gebruiken.

Standaard is 10 A. Maar tegenwoordig wordt meestal 16 A gebruikt. Deze laatste kan tot rond de 4000 Watt belast worden. Dan mag je van goede huize komen (of een serverpark in je woonkamer hebben staan) om hier aan te komen.

De enige reden om keukenapparaten (denk inductie/keramische kookplaat en en wasmachines) in aparte groepen te zetten is omdat er een bij deze apparaten een hoge piek belasting ontstaat. Hiervoor worden dan ook speciale "trage" zekeringen/zekeringsautomaat ingezet. Daarbij komt dat voor wasmaschines/vaatwassers etc de combinatie water/electriciteit voor meer problemen zorgt en je dan niet je hele huis zonder stroom wilt hebben. Deze groepen werden dan ook als eerste met een aardlek-schakelaar uitgerust.

Als je naar de nieuwbouw van tegenwoordig kijkt zijn echter alle groepen reeds voorzien van een aardlekschakelaar.
Auto's worden ook steeds milieuvriendelijker: waarom computers dan niet?
Dat is een fabel.

Een gemiddelde auto is even efficiënt met benzine als een Ford-T van 100 jaar geleden. (1 op 5 tot 1 op 9) Natuurlijk heb je tegenwoordig auto's als de Toyota Prius, maar dat is pas van de laatste tijd. (En ook niet zo significant veel beter, als je dat vergelijkt met 100 jaar vooruitgang in techniek.) Auto's zijn veel zwaarder en sneller, maar het brandstof gebruik is hetzelfde gebleven.

[Reactie gewijzigd door Bl@ckbird op 2 december 2008 17:10]

helemaal géén fabel.
trouwens de prius is niet zo zuinig. Met een zuinige diesel auto van tegenwoordig kom je al veel verder. (and I quote Topgear)
topgear and een zuinige auto reviewen.... ja tuurlijk...

de prius is vooral zuinig in de stad, waar je vaak optrekt en weer afremt. op de snelweg waar je altijd op de zelfde snelheid rijd bied de prius geen voordeel boven een andere auto. topgear heeft de verkeerde omstandigheden getest.
Topgear heeft hem voor de grap vergeleken met een BMW M3, om het punt te maken dat het vooral uitmaakt HOE je de auto rijd hoeveel brandstof hij verbruikt. Als je een Prius een circuit rond plankt en dit houd je bij met een M3, dan is de M3 zuiniger. Das duidelijk.

Enige punt met een Prius is dat hij in de stad nauwelijks genoeg stroom kan opwekken om veel met zn electra te doen, en dat hij op de snelweg net zo zuinig is als een goede diesel. Daarnaast is de Prius ook echt niet op de stadsrijder (boodschappenwagen) gemarket, maar op de leaserijder, omdat onze verstandige overheid het nuttig vond om daar subsidie op te doen, en pas vanaf 1 januari 2009 ook iets voor de zuinige diesels te doen. Als ik jou lees dan zijn we het er beiden in ieder geval over eens dat een subsidie voor lease (en dus over het algemeen snelweg) rijders op een Prius redelijk onzin is. Hooguit bespaar je wat in de file.
sorry maar een nieuwe auto die even veel weegt als een ford-t van toen (1300kg) haalt gemiddeld makkelijk 1 op 13 tot 1 op 15 als je zuinig rijd.
en de 800kg 1liter nissan micra van ons mam haalt de 1 op 20 zo af en toe.

er zit dus wel degelijk vooruitgang in.
1 op 5 vind je eigenlijk in geen een normale auto meer, en 1 op 9 is ook bar slecht en dat vind je alleen in speciale autos of hele zware auto's

[Reactie gewijzigd door Countess op 2 december 2008 17:38]

Zoals eerder gezegd: Ten opzichte van 100 jaar ontwikkeling is het bijzonder beroerd.
Elektrisch is veel efficiënter.

Sterker nog: Onder het bewind van Bill Clinton heeft de Am. automobiel industrie een miljarden subsidie opgestreken om een energie efficiëntere auto te onwikkelen.
Hier hebben ze niets mee gedaan. De Japanners zijn zich rot geschrokken en zij zijn nu degenen die met hybride voertuigen komen.

Bovendien: Oliemaatschappijen kopen patenten op voor energie besparing bij voertuigen, maar doen hier verder niets mee.

Lees / kijk voer.

[Reactie gewijzigd door Bl@ckbird op 2 december 2008 19:40]

Hoe word elektriciteit opgewekt?
Zolang bulk nog met kolencentrales gaat vraag ik mij af of het daadwerkelijk beter is als een verbrandingsmotor.
Bovendien lijkt het mij moeilijk om elektriciteit lange tijd op te slaan en accuus schijnen ook niet al te milieuvriendelijk te zijn.

Wat dat betreft zie ik wel wat in waterstof ware het niet dat het productieproces van waterstof zover ik weet ook niet zo schoon is.

Tijdje terug kostte het produceren en assembleren van een zonnepaneel ook meer energie dan dat zo'n ding in zijn leven kan produceren.

Er is genoeg techniek en potentie maar het moet nog behoorlijk wat uitrijpen.
In feit spreek je jezelf al tegen als je zegt dat auto's even veel verbruiken, zwaarder zijn, sneller zijn en even efficiënt..
Performance: 0 - 100 in minder dan 4 seconde (Iets minder snel dan een Ferrari Enzo.)
Bereik: 350 km
Brandstof kosten: 3.5 uur laden (Paar euro)

Bij de traditionele fabrikanten is er afgelopen 100 jaar weinig veranderd.
De Toyota Prius heeft een veel groter verbruik dan je denk hoor.
Voordat dat ding in de showroom staat kost het ook aardig wat energie ;)
Hoe denk je dat alle onderdelen van de Prius bij elkaar komen (transport) en weet je wel uit welke hoeken van de wereld alle onderdelen bij elkaar komen om vervolgens die auto de halve wereld om te sturen?
Dat ding heeft al meer energie verbruikt dan je normaal in een jaar op rijd.... voordat je uberhaupt de sleutel al hebt omgedraaid.
Welke wagen niet? Alleen al om staal/alu te produceren heb je best wat energie nodig. Een electromoter, wat extra electronica en een batterijtje maakt op het totaal niet zoveel verschil.
Helemaal gelijk. Plus het feit dat we het hier over TOP kaarten op hun max verbruik hebben!

Neem dan niet een prius maar een bugatti veyron, die verstookt op top prestatie 100 lieter benzine in 15 minuten :)
De Toyota Prius is overall milieu-vervuilender dan dezelfde auto zonder de hybride aandrijf-lijn. Het afvoeren en verwerken van de accu's is belastender voor het milieu dan het verschil in uitstoot dat hij zou hebben zonder die accu's e.d.
En ja, dit heb ik te horen gekregen van een monteur die bij Toyota werkt; die zat een klaagzang over de Prius af te steken omdat die accu's ontzettend rot te vervangen zijn, en je moet elektro-technisch iets beter onderlegt zijn dan de doorsnee automonteur.
Als energie leveranciers zorgen dat ze millieu vriendelijke manieren van energie opwekken gaan gebruiken dan kan iedereen gewoon lekker met deze videokaart spelen.
De GTX280 is al niet zuinig te noemen. En nu komen er dus 2 van die chips op 1 kaart....

bla bla
Niet correct, er komen 2 van de 55nm variant van de GTX280 chip op deze kaarten.
de vorige die shrink van nvidia naar 55nm zorgde voor een schamele 7% hogere kloksnelheid en een HOGER verbruik.

het is dus heel erg voor nvidia te hopen dat ze nu een paar maanden later het er een stuk beter vanaf brengen.
Nvidia heeft al wel een groen logo :o
De 'enorme' groep die een kaart van meer dan 500 euro kopen is natuurlijk niet zo bijzonder. De meeste mensen zullen een grafische kaart van 100 euro al veel vinden. Je ziet juist voor de gewone mensen steeds meer energie zuinige dingen die voor hun genoeg prestaties leveren, zoals de atom en de chipsets van ati en nvidia. Ik vind dat ze in de politiek wel iets beters te doen hebben dan hier aan aandacht te besteden.
volgens mij houdt jij de ontwikkelingen niet echt bij, er komen wel degelijk zuinigere processoren ed uit.. alleen of je er een aanschaft is een 2e. prestatie per watt gaat ook wel omhoog vergeleken met jaren terug.
Bij processors gaat het goed: die hebben het wel goed begrepen. In de tijd van de Pentium 4 (prescott) ging het daar ook de verkeerde kant op.
Maar ik heb wel het gevoel dat ook processors weer steeds meer energie gaan verbruiken. Ze presteren dan ook wel stukken beter, maar verbruiken toch ook steeds meer.
Gelukkig zijn er ook zuinige exemplaren.

En begrijp me goed: ik wil ook een snelle pc. Ik kies ook voor een snelle HD4870 en niet voor een relatief zuinige ehh... Ik weet niet eens welke videokaart zuinig maar toch nog aardig presteert. De 9600-serie van Nvidia ofzo???
Jij bent een lekkere... tuurlijk is dat zo, eigenlijk zou je moetebn vergelijken met een wasmachine die 3 trommels heeft... je upgrade iets tot de max en dan ga je het met een standaard iets vergelijken :S

Moeten auto's steeds sneller, nee dat hoeven ze niet... En ja diegene die daar wel voor gemaakt worden zuipen ook brandstof als een gek... Dus ja dat kunnen ze gewoon optimaliseren om weinig te gebruiken bij een snelheid van 120 km/h maar een pc moet altijd sneller worden en dat gaat niet tegelijk met zuiniger... Het is het een OF het ander.
Deze dual-GT200 zal de grootste, (duurste), warmste, meest energieslurpende gpu ooit worden. Het enige doel van deze GPU is om de prestatiekroon van AMD af te snoepen. Ook al gebeurd dat door een GPU die niet veel zal geleverd worden.
Ergens anders was ook te lezen dat dit een dual pcb kaart zal worden zoals de vorige dual gpu kaart van Nvidia. Maw niet gemakkelijk te koelen dus.
Reken maar dat Nvidia hier veel verlies zal mee maken, maar indirect hoopt het om winst te maken op andere producten enkel en alleen omdat het de prestatiekroon vast heeft.
Ja, en AMD doet dit nu met de HD4870X2. Dus je punt is?
zijn punt zal zijn dat de hd4870x2 nog relatief te betalen is in vergelijking met de gtx280, en dat het verbruik wel zeer hoog is maar weer in het niets zal vallen in vergelijking met een gtx280x2.

en AMD doet het nu niet echt met de hd4870x2. dat ze die gingen maken stond al vast voor ze zelfs de hd4870 hebben uitgebracht. ze hebben er zelfs hun chips speciaal voor ontworpen en hun hele strategie er om heen gebouwd... voor nvidia is dit duidelijk iets voor erbij.

o de hd4870x2 was bij introductie niet de duurste nog de warmste kaart ooit. maar wel de snelste.

[Reactie gewijzigd door Countess op 2 december 2008 17:52]

Mission accomplished lijkt mij!

Het is toch goed nieuws voor ons tweakers dat er wordt gevochten om de kroon? Kan alleen maar goeds opleveren! Want reken er maar op dat ATI nu weer onder druk staat en dus weer een mooi kaartje gaat leveren, iets eerder of iets later dan dat dit krachtig misbaksel op de markt komt.

(ik weet niet hoe de kaart uiteindelijk wordt, maar hij wordt vast wel sterk misschien door de switch naar 45nm dat er winst wordt gemaakt)

(dit kan ik even niet laten)
1. Make killer videocard
2. Remake it on 45nm
3. Sell it for way much
4. ???
5. PROFIT
je bedoeld 40nm neem ik aan?
de gpu's zijn juist makkelijker te koelen, je hebt als het ware twee koelblokken op de zelfde plek in een airflow lijn, bij de ati 4870x2 zal de tweede gpu het deels moeten doen met de warme lucht van zijn broertje, wat dan wel een nadeel is dat je twee complexe pcb's hebt (misschien beide met 512bits bus) wat de prijzen voorbij de hemel jaagt, dan kun je beter een 4870x2 (of tegen die tijd de 5870x2) kopen die nét ietsjes minder fps eruit poept.
nvidia maakt zowieso al verlies, doordat ze de prijzen enorm moesten verlagen om hun kaarten nog kwijt te kunnen raken, door de rv770 van ati.
natuurlijk hebben ze nu de performance kroon, maar daar let nauwelijks nog iemand op, het gaat nu meer om drivers, verbruik en natuurlijk de prijs die je betaalt voor de prestaties die je krijgt.

Ben wel benieuwd hoe dit monster gaat uitzien, nvidia heeft altijd al heel mooie kaarten gemaakt :P
Mij zou het niet verbazen als die kaart 800+ eurotjes gaat kosten en 300+ Watt vermogen opslurpt. (Dat betekent 2 maal 8-pins PCIe Stekker).
Meh wat stroom betreft zal het wel mee vallen, klein beetje meer dan een GTX280 ... die shrink komt er aan ... dus koeler, wss beter overclockbaar en energie zuiniger =]
Een GTX280 kost nu al +/- ¤500,-, mag je wel even uit gaan leggen waarom ze dan voor hetzelfde geld 2x die GPU zouden leveren (in principe worden het dus 2 kaarten (PCB's) die intern al SLi lopen, dus dat maakt het zelfs duurder). ¤800,-, prijsverlagingen e.d. meegerekend lijkt me een leuke richtprijs.
wordt gewoon het topmodel videokaart, max 550 eur.
Ik snap ook niet waarom een topmodel automatisch een vast prijskaartje zou krijgen :? Dat ligt echt niet voor iedere kaart al van te voren vast, "omdat het een topmodel is".
Juist omdat het een topmodel is, ligt de prijs niet vast :z
Het lijkt mij al onwaarschijnlijk dat Nvidia de Dual-GT200 kaart voor ±500 dollar kan maken, laat staan verkopen voor 500 euro (incl BTW).

Alleen al twee GT200-chips + 2GB aan GDD3 geheugen kosten 400 dollar. En dan heb je nog geen PCB's, koeler, assemblage, verpakking, extra. En bovenal, geen R&D-aflossing.
Een GTX280 kost al lang geen 500 euro meer, je hebt ze nu vanaf 380 euro:

pricewatch: Sparkle SF-PX280GTX1024D3-HP

Dat gezegd hebbende zou het best wel een kunnen dat de dual 280 voor 800 euro over de toonbank gaat. Echter, is de prijs voor de 280 nu al vrij hoog en zal de dual versie een kleiner procede krijgen en waarschijnlijk daardoor betere yields hebben, waardoor ze waarschijnlijk een stuk goedkoper gemaakt kunnen worden.

Ik gok dat ie bij de launch zo'n 700 euro zal kosten. De prijs van de 280 zal mogelijkerwijs verlaagd worden, zeker als ook deze overgaat op een 55nm procede.
ik denk dat het voor AMD niet veel uitmaakt, ik denk dat dat AMD de prijzen laat zakken als die eenmaal uit is en mensen kopen nou eenmaal goedkoop spul wat ook nog vrij snel is en het aantal wattage zal ook niet van de lage kant zijn.

[Reactie gewijzigd door chaospower op 2 december 2008 15:04]

ja daar heb je een punt...

en tegen de tijd dat nVidia deze GT200 uit heeft heeft ATI al een refresh van de huidge HD 4800... onder de vorm van een RV790-chip... zie ook:

http://www.hardware.info/...AMD_RV770_krijgt_refresh/

En dan de prijs... hou je maar vast ... naar goede nVidia gewoonte

@ Beer: heb je ook bronnen?

[Reactie gewijzigd door Bardirella op 2 december 2008 16:57]

Dit is niet bedoeld om voor grote aantallen verkocht te worden. Dit is enkel en alleen om de prestatiekroon terug te pakken. Het doet er niet echt toe hoe voor Nvidia.
En de RV790 zal niet uitkomen. Dit was een gerucht en is niet bevestigd. AMD zal zo snel mogelijk naar 40nm over schakelen. En nu TSMC even wat minder producte heeft zal het wat sneller kunnen.
In de 4850 en 4870 zit wel nog wat rek, AMD haalt hier mooie winsten mee die ze goed kunnen gebruiken.
dan is Nvidia economisch hartstikke slecht bezig een kaart produceren om alleen de prestatiekroon terug te pakken, iedereen weet toch dat die dingen bijna niet verkocht worden ten eerste omdat ze harstikke duur worden en ten tweede ze meer verbruiken dan een kern centrale aankan (overdreven :P).

[Reactie gewijzigd door chaospower op 2 december 2008 15:44]

De chips die erop zitten zullen wel goed verlopen. Zoveel meerkosten heb je dus niet terwijl het goed is voor je marketing. En wereldwijde marketing kost ook veel. Uiteindelijk is het dus nog steeds rendabel
Ben ik het mee eens... Zo pakt ATI het meestal aan. En het
werkt goed!

Ben benieuwd wat de GTX260/80 prijzen gaan doen als de
dual-gt200 op de markt komt.
Dat is wel waar. Als je met de 4870X2 Crysis nog op Very High kunt spelen is er niet echt een noodzaak voor deze kaart. Alleen maar mooi dit tot een prijsverlaging van de 4870X2 en 4850X2 leidt. Tenminste, als nVidia deze kaart niet voor 600 euro uitbrengt, want dan zit ie weer in zijn geheel eigen prijsklasse.

Toch wel grappig om te zien hoe nVidia redelijk wanhopig is, want het GT200-ontwerp is nooit bedoeld om twee GPUs op één plankje te plaatsen.
Ik kan op een GTX260 crysis al op very high spelen, laat staan een gtx280, hd4780x2 of zelfs 2x280
Dat ligt er maar helemaal aan wat je speelbaar vind. Crysis loopt bij mij ook op mijn HD3870x2. Maar alleen met 25 fps, en dat vind ik niet bepaald speelbaar.
Daar heb je het ook over de 3870 serie ;)
GT200 65nm nee die niet ten zij je kaaten 500Wat mogen trekken.
GT206 55nm. Ja kan maar dan het 7950GTX2 princiepe. Niet 2x de single GPU topper SLI maar een middemoot. Dus GT265x2 ofzo.
GT212 40nm. GT290x2 mogelijk.

De GT200 transistor count past beter bij 40nm.
Ik weet niet onder welke steen jij de afgelopen maanden hebt, maar AMD heeft deze ronde gewonnen op prijs en performance en loopt dus voor op nvidia. Verder ligt er maar net aan wat je voor vind. Alleen performance of ook features. AMD heeft DX10.1(en neem van mij aan, het is echt een verbetering, ik ben nog aan het testen, maar damn DX10.1+4xAA+AdaptiveAA+Edge Detect=ongelofelijk!). Nivida heeft physX en in mindere mate ook cuda. Al komt in dat laatste een sterke tegenhanger met openCL.

Verder is het gewoon zoals countess zegt. De GTX 280 werd bijna gehalveerd in prijs dankzij de 4870X2 en AMD kan nog veeeel lager gaan met de prijs. Die dual GT200 zal zelfs op 55nm heel erg duur zijn om te maken. Hij is dan zelfs nog groot vergeleken met een RV770. Dat ie zo groot is heeft 2 nadelen. Grotere kans op een defecte chip en minder uit een wafer. De eerste is verloren geld, de 2e is minder opbrengst. Beide zorgen er voor dat de GT200 gewoon erg duur is. Vergeet ook niet de 512bits bus. De PCB moet dus ook veel meer lagen hebben. Dat maakt hem ook nog eens weer duurder.

[Reactie gewijzigd door Reinman op 2 december 2008 22:49]

ferrari weet ook hoe je snelle autos moet maken... maar voor welke prijs.
en nvidia gaat niet overleven op aantallen die ferrari verkoopt.

de hd4870x2 is idd niet goedkoop maar wel GOEDKOPER als de gtx280 bij launch. en sneller.
ATI heeft deze generatie duidelijk beter werk afgeleverd.
Gelukkig zien we dat nVidia dit nieuws bevestigd heeft en zijn er mensen die foto's van een dergelijke kaart hebben laten zien. Ook zijn er dus al samples in omloop en is een release date ongeveer bekend..

Ow, wacht even...

Nee, het is een gerucht van FudZilla, niets meer dan dat. |:(

nVidia komt in ieder geval met de DieShrinks van de GTX260/280, de nieuwe 8800GT's hopelijk. Verder zijn er alleen maar zwaar onbevestigde geruchten...

[Reactie gewijzigd door IceEyz op 2 december 2008 15:10]

jij denkt dat de gtx260 een nieuwe 8800GT kan worden? zeg je dat nou echt?

lijkt me HEEL sterk. de 55nm die shrink van de 9800GT was maar 7% hoger geclocked en had een HOGER verbruik. het is te hopen voor nvidia dat ze nu iets beters afleveren met deze 55nm shrink. dat moet wel als ze een x2 kaart willen maken.

en fudzilla heb ik nog niet op een fout kunnen betrappen tot nu toe. ik zou het dus niet zomaar aan de kant schuiven.

[Reactie gewijzigd door Countess op 2 december 2008 17:31]

Berekeningen door middel van CUDA zullen met deze kaart wel lekker snel gaan!!!!
no offence naar nvidia (ik heb er momenteel ook 1) maar ze lopen achter de feiten aan vind ik gezien de kracht van ATi.

Zo is de 4870X2 al weer een aantal maanden oid (weet niet precies) op de markt en nu kom NVidia pas met een echte noemens waardige tegen hanger, welke wel meer geld kost (waarschijnlijk) en meer Watt gaat gebruiken (waar schijnlijk).

De eerste reactie van ATi is de prijs laten zakken (zoals hier al gezegd is door mede tweakers). Maar ze brengen hun nieuwe super kaart ook weer uit. Ik denk namelijk dat ATi niet stil zit en nu al bezig zijn met hun nieuwe krachtpatser.

Voor de consument heeft het zowel voordelen als nadelen, deze grote krachten strijd.
Voordelen zijn dat er veel soorten kaarten komen en als er nieuwe komen dat de oude dan meestal lekker in prijs zakken.
Echter dit is ook direct een nadeel (de velen kaarten). De kaart van de consument is zo snel 'oud'. (als je up-to-date wil blijven. maarja dat is met alles in de PC branch)
4 van dezelfde chips op 1 kaart zetten?
Neeh, ik denk niet dat ATI/AMD dit gaat doen. Ik denk niet dat dit al echt mogelijk is.

Dus Nvidia heeft tot AMD met een echt nieuwe GPU komt weer de snelste videokaart.
Alleen de vraag is wat ze daaraan hebben, als de meeste kaarten in andere prijsklasses verkocht worden?
Het is net zoiets als Mercedes die de formule 1 wint, maar het moet hebben van het verkopen van normale auto's (en dat loopt niet zo goed)
Ik doelde niet op een X4 kaart, dat kan niet echt nee.

Maar ik doelde op een hele nieuwe GPU van ATi. NVidia heeft veel tijd gestoken in deze kaart lijkt mij, terwijl ATI het hele team (bij wijze van spreken) op een nieuwe GPU kan zetten en dus niet zoals NVidia een deel op een nieuwe GPU en een deel op een betere versie van een oudere GPU.

Dus in mijn ogen resulteerd dat logischer wijs in een eerdere nieuwe GPU van ATi.

Hoop dat dit duidelijker is, want mijn post hiervoor was niet echt super duidelijk ben ik achter gekomen :P
Dus Nvidia heeft tot AMD met een echt nieuwe GPU komt weer de snelste videokaart.
Als je het logisch gaat bekijken volgens wat er gezegd word, heeft AMD nog steeds de snelste kaart.
Als het echt zo is dat Nvidia hiervan een dual kaart van gaat maken ipv een dual gpu, dan is het eerder te omschrijven als een SLI opstelling. En dat is niet bepaald eerlijk het spelletje spelen :P

[Reactie gewijzigd door DonRozeboom op 2 december 2008 16:59]

Of ik hem aanschaf hangt voornamelijk af van hoe koud de winter wordt dit jaar ;-)

Hopelijk worden de 260 & 280 hiermee goedkoper...
Leipe shit ouwe!

Ik had eerlijk gezegd dit niet verwacht! Ik had gedacht dat ze zouden wachten tot de volgende generatie kaarten. ATi heeft een flinke voorsprong qua marktaandeel omdat ze al een tijdje verreweg de snelste 2-gpu kaart heeft.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True