Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 66 reacties

Nvidia zal eind augustus, tijdens het Nvision-evenement, de 55nm-versie van de Geforce GTX 280 introduceren. Door het kleinere productieprocedé kan de chip goedkoper geproduceerd worden en tegelijkertijd hogere kloksnelheden halen.

Bij de introductie van de GTX 260 en 280, twee maanden geleden, verbaasde Nvidia door de 1,4 miljard transistors tellende chip te bouwen met een 65nm-procedé. Vanwege het grote aantal transistors kunnen maximaal 94 GT200-chips uit een enkele 300mm-wafer gezaagd worden, waarmee Nvidia de grootste chip heeft ontworpen die ooit geproduceerd is door fabricagepartner Tsmc. Door het gebruik van het 55nm-procedé kunnen meer chips uit een wafer gezaagd worden, waardoor de productiekosten dalen. Tevens zullen de kloksnelheden omhoog kunnen terwijl het energieverbruik daalt.

De 55nm-GT200 wordt niet de eerste chip van nVidia die met dit productieprocedé gebakken is. Het bedrijf heeft al kunnen oefenen met de Geforce 9800 GTX+, die in juni werd geďntroduceerd. De 55nm-GTX 280 zal het moeten opnemen tegen de Radeon HD 4870 X2 die morgen aangekondigd zal worden. Aangezien Nvision plaatsvindt van 25 augustus tot 27 augustus zal er nog twee weken gewacht moeten worden voordat nVidia's antwoord geďntroduceerd zal worden, indien de geruchten kloppen. Vooralsnog zijn specificaties zoals kloksnelheden, de naam en de prijs nog onbekend.

Wafer met 65nm GT200-chips
Moderatie-faq Wijzig weergave

Reacties (66)

Het lijkt me vrij waarschijnlijk dat nVidia nu met een GX2 variant komt. Met de 65nm chips was dit niet te doen, vanwege het stroomverbruik, de hitte en de prijs. De 55nm chip zal minder stroom verbruiken, minder hitte genereren en goedkoper zijn dan de 65nm variant. Deze is dus eerder als GX2 uit te brengen dan de 65nm.

Het is bekend dat nVidia veel doet om de performance kroon te hebben. De 9800GX2 was ook te groot, te heet, te duur, maar ze moesten de HD3870X2 inhalen. Met een enkele chip zitten ze voorlopen niet boven de prestaties van de HD4870X2, dus is een GX2 de enige optie om de performance kroon terug te pakken.

Wat erg positief is voor nVidia is dat de 55nm chips, doordat ze kleiner zijn, goedkoper zijn om te produceren. Ze hebben hun prijzen erg moeten verlagen om concurrerend te blijven met ATi en zullen erg krap zitten met hun huidige winstmarges. De nieuwe chips zullen hun ademruimte wat vergroten.

@ZpAz:
Dat zou inderdaad best goed kunnen zijn, maar dat is wel afhankelijk van de mate van besparing op stroom, hitte en prijs met deze 55nm variant. Het wordt dus nog even afwachten...

[Reactie gewijzigd door Depep op 11 augustus 2008 23:39]

Mja als een GX2 de enige optie is dan lijkt me dat ook niet verkeerd, immers is de 4870 ook een X2?
Is het al bekend of er ook een GTX260 op 55 nm komt? En wordt dit product onder een andere naam verkocht? (Zodat je niet verwarrende situaties zoals bij de 8800 GT krijgt)
gezien 55nm een kosten reductie is. Zal nV liever 55nm chips zien.
Er zijn twee mogelijk heden.
Of de huidige GTX260 word EOL
OF wordt simpel vervangen door 55nm. Verschil zou dan zijn zuiniger en beter OC'baar.

Omdat R700 HD4870X2 de performance kroon wegneemd tov de GTX280.
Lijkt mij dat met 55 nm GT200B nV hem niet puur voor zuinigheid gebruikt zal worden.
Er komt denk gezien nV at all cost drang naar Performance kroon, toch ook een snellere. Misschien GTX290 gedoopte. Die zal dan iig 'n stuk sneller moeten zijn en niet zozeer zuiniger. mischien 'n beetje.

Wil eigenlijk wel 'n GT260/GT280 ivm PhysX als vervanger voor mijn PPU+ huidige Gkaart. Ook al laat ik de PPU er bij.
'n GT200B versie lijkt mij dan wel het even wachten wel waard. Duurt ook even eer
Farcry2 Crysiswarhead etc uit is.

Misschien dat er dan een wat beter PhysX title dan ook uit is.
Vooralsnog zijn specificaties zoals kloksnelheden, de naam en de prijs nog onbekend.
Even tot het einde lezen ;)
Daarmee bedoelen ze dat het nog niet bekend is ofdat de 55nm-kaarten een andere naam krijgen (GTX 260/280+?)
heh leuk een refresh van de G200-100 aka GT200 GPU, maare dan nog zal die nooit de HD 4870 X2 verslaan aangezien dat de HD 4870 X2 in de meeste games een GTX 280 met ease verslaat en zelfs Dual GTX 280's in SLI opstelling worden vaak verslagen door een enkele HD 4870 X2.

En ten tweede nVidia heeft geen DX10.1 support dus ook daarbij blijft die GPU een nadeel behouden op het API front.

Maar als de porijs prestatie goed bevalt en dat er ook een nieuwe GX2 komt met Dual G200-200 aka GT200B GPU's dan kan het nog wel spannend worden :)

Ik ben iig erg benieuwd er na een leuke vervanger voor me XFX GeForce 9800 GX2 XXX Edition van nVidia of van ATi is altijd welkom ;)
GT200 GX2 is gewoon niet te doen zonder downclocken, en als je ze downclockt kan hij de HD4870X2 never nooit aan.

Als je dat niet doet heb je een 450 Watt verstokende kaart. Vind er eens een koeling voor, dat word standaard waterkoeling, dat word 600 euro per kaart, plus de verhoogde energie rekening.

nVidia kan beter in een nieuwe chip investeren, de GT200 is het niet meer waard.
Dat weet ik masr als je me bericht opnieuw leest zei ik een GX2 versie van de GT200B en niet GT200A ;) omdat de GT200B 55nm is, is een GX2 echter wel mogelijk.

de huidige 9800GX2 is ook in de meeste games sneller als een GTX 280 zelfs een geOCde versie houd de 9800 GX2 zeer moeilijk bij, me 9800 GX2 XXX Edition van XFX kan zo nog wel even mee , maar ik zit erg hard te denken om een HD 4870 X2 te nemen Multi GPU/VPU wordt over het algemeen goed ondersteunds als de meeste titels van nu ondersteunen het juist beter als een paar jaar terug :) 1 Superchip heeft toch geen zin met twee kleintjes doet men meestal meer voor veel minder ;) vergelijk 2 HD 4850's en 1 GTX 280 de HD 4850's in CF zijn 90% van de gevallen sneller, dus wat heb me nu aan een super chip als Multi VPU/GPU gewoon beter in de werking komt? Ik denk niet veel meer.

Voordeel van ATi's CF is dat Multi Monitor mogelijk is met als zonder Multi Chip, bij nvidia is dit nog echter een probleem, dus weer een groot nadeel.

[Reactie gewijzigd door Gold Leader op 11 augustus 2008 22:52]

Nadeel van de 4870 X2 is dat het twee GPUs zijn, een aantal games (zoal Supreme Commander) kunnen enkel twee monitoren aansturen als deze van dezelfde GPU komen. Waardoor een GTX280 opeens wel weer interessant wordt, een enkele 4870 is niet zo denderend op hoge resoluties (2560*1600), zie preview 3dguru.

Ik moet zeggen dat de 4870 X2 wel heel mooi opschaalt op hogere resoluties.
Misschien komt dat wel doordat de eerste 4870's 512 MB geheugen hebben, met 1GB zouden de prestaties best omhoog kunnen gaan op zulke resoluties. Wanneer je maar 1 core gebruikt hebt je in feite zo'n 1GB 4870.
Ik heb vooralsnog helemaal geen games die dx10.1 nodig hebben. De enige mage die even dx10.1 support gehad heeft liep zonder dx10.1 hardware uitstekend.
AC kreeg wel 'n leuke boost met DX10.1. Maar twimtbp houd aktief DX10.1 support uit de markt. Het klopt dat DX10.1 niet zo aantrekkelijk is omdat je dan maar 'n deel van de markt beslaat. Maar zonder TWIMTBP aggressief gelobby waren er toch wel 'n paar DX10.1 titles. Dat is niet in het belang van de gamer eerder ten koste van de gamer de competitie aktief buiten spel zetten.
ik denk dat nvidia een kat en muis spel speelt met ati om de verkoop hoog te houden :+
Juist door dat kat en muis spel komt (blijft?) de ontwikkeling van nieuwe, betere GPU's in een stroomversnelling. Dat is alleen maar gunstig voor de consument. Want we krijgen in rap tempo voor hetzelfde geld krachtigere GPU's. De enige extra kosten zijn het hogere energieverbruik }>
Het is een beetje naief om te denken dat cuncurrentie alleen goed is voor de consument. In dit geval maakt concurrentie duidelijk behoeften los die er anders niet/nauwelijks zouden zijn en zet het de consument aan tot het uitgeven van veel meer geld dan hij/zij anders zou doen.

Dit gerommel tussen Nvidia en AMD gaat over het leveren van vermeende performance winst die nog voor praktisch geen game nodig is. Alleen Crysis heeft echt meer nodig maar ik vraag me af of we Crysis het komende jaar, helemaal maxed out, op 1920x1200, met AA en Vsync, in DX10 op 1 kaart super gaan zien draaien.

Ikzelf heb 2 bescheiden 8800GTS512 kaartjes, een beetje overclocked (9800GTX+ snelheid) en alleen Crysis zou meer power kunnen gebruiken. Howel het me leuk lijkt een 4870, 4870x2 of gtx280(+?) te kopen wacht ik ff lekker af. Die kaarten doe mij niet genoeg voor Crysis en om nou alleen voor een beetje winst in 1 game, een nieuwe kaart te kopen..... nah.

Voor wie is die concurrentie nou precies goed?;) Ik zou zeggen, uiteindelijk voor de aandeelhouders van Nvidia en AMD:)

[Reactie gewijzigd door bozotheclown op 12 augustus 2008 08:17]

Dit is wel een verkeerd beeld dat je hebt. De performance winst is wel nodig om hogere IQ levels te kunnen draaien. Jouw bescheiden setup kan voldoende zijn voor eigen gebruik maar ik durf wedden dat je in 99% van de games geen 16x transparency AA en 32x AF kan draaien.
Bovendien is soms technische vooruitgang op hardware gebied nodig om de softwaremakers te doen volgen. Geen voorutigang is achteruitgang, evolutie naar steeds snellere kaarten kan gewoon niet slecht zijn. Al was het maar dat de budgetkaarten nu fenomenale prestaties leveren.

Concurrentie is dus goed voor de consument en niet voor de aandeelhouders want kaarten worden met zo met minder marge verkocht en investeringen zijn nodig om steeds snellere kaarten te ontwikelen.

Je gehele redenering is gewoon verkeerd.
Uhm, ik wil niet veel zeggen hoor maar de sli zealots zeggen niks anders dan dat je op 1920x1200 helemaal geen AA nodig hebt. Ik draai alle games helemaal maxed out, op 1280x1024 +Vsync +ten minste 4xAA en dat kan mijn bescheiden setup makkelijk aan. De enige game die ik heb waar dat niet werkt is Crysis maar dat is geen schande want er is nog geen kaart die echt helemaal zonder horten of stoten Crysis compleet maxed out kan draaien in DX10. BTW, waarom heb ik het over 1920x1200? Waarom zou je een gtx280 of 4870(x2) kopen om 1280x1024 te doen als je dat al heel goed kan met wat je hebt.

Technische vooruitgang op hardwaregebied is nodig om softwaremakers te doen volgen? Jahoor, leuk bedacht maar even voor alle duidelijkheid, DX9->DX10 was optimalisering, geen echte vooruitgang en DX10.1 was suboptimalisering.

Ik ben verder helemaal met je eens dan stilstand achteruitgang is en ik zit ook zeker met spanning te wachten op iets interessants om te upgraden maar laten we reeel zijn, als ik met mijn huidige setup alles wat ik draai op Crysis na, maxed out kan draaien, en juist Crysis is nog steeds niet top met de nieuwe kaarten, dan is dit niet het moment voor een upgrade:)

Je hoeft mij niet uit te leggen dat vooruitgang leuk is, ik heb de eerste dag dat ze beschikbaar waren een 8800GTX gekocht en er super veel plezier van gehad, later een tweede er bij geprikt(was uit de doos defect) en toen het financieel interessant was heb ik de 8800GTX verkocht en 2 8800GTS512 kaarten gehaald. Net zo snel en stiller onder belasting en zeker minder warm. Ik heb dus al met al ruim 2 jaar plezier gehad van mijn g80+ kaartjes tot nu toe.
Als ik nu een gtx280 of 4870(x2) koop denk ik niet dat ik daar net zo lang plezier van heb dus ik wacht nog ff:)

Je verhaal over concurrentie is leuk hoor maar je denkt zeker dat Nvidia geen winst maakt? Dat gebazel over hoge kosten die ze hebben door dure dies is leuk maar men vergeet nog wel eens dat Nvidia een begrijfje is waar ze prima kunnen rekenen en er is dan ook niks mis met mijn redenering dat concurrentie in dit verband met name goed is voor de leveranciers/aandeelhouders want zoals ze bezig zijn houden ze ons constant aan het kopen. Ook als dat niet zo nodig is omdat er nog geen noodzaak is om over te stappen. Je maakt mij niet wijs dat wij, kopers er net zoveel beter van worden als Nvidia en AMD. Immers, ons spelplezier is niet groter geworden met relatief mooiere graphics en financieel zijn we er ook zeker niet op vooruit gegaan;)

ps. zie alle benchmarks en je weet dan een 9800gx2 (langzamer dan mijn sli combo) het uitstekend doet tussen al het 4870(x2) en gtx280 geweld. Pas als je 1920x1200 draait begint het echt interessant te worden voor wat anders maar het is nog steeds niet nodig.
Koop je nu wat nieuws? Zou ik zeker geen 8800GTS512 kopen maar een 4870(x2) maar heb je een 8800gts of beter, dan zie ik geen reden om nu te upgraden.

Mijn redenering over concurrentie is waterdicht en de rest van mijn redenering is gewoon verstandig voor nerdbegrippen;)

[Reactie gewijzigd door bozotheclown op 12 augustus 2008 12:50]

De enige extra kosten zijn het hogere energieverbruik }>
Dit is dus niet terecht. GPU's van vandaag verbruiken veel minder dan vroeger als je de performance per watt bekijkt.
Ik vraag me af of die chip zoveel zuiniger wordt. De 9800gtx plus verbruikte namelijk maar een paar watt minder op iets hogere klok-snelheden ten opzichte van de 9800gtx.
Deze chip mag dan wel groter zijn dan de 9800gtx (en dan gaat het verbruik denk ik meer omlaag met een die shrink, correct me if i'm wrong), maar de klok-snelheden zullen wel flink omhoog moeten als hij moet concurreren met de 4870x2.
Het lijkt me overigens verstandiger als ze een 260+ gx2 maken, omdat die veel minder stroom verbruikt.
nvidia's antwoord. nou laat me raden.
GTX 280 x 2 met 2gb geheugen op basis van 55nm.
geen ondersteuning van 10.1 omdat nvidia vind dat het niet nodig is.

hij zal sneller zijn dan de ati kaarten maar ook duurder.
hij zal met veel praatjes en glimmende vdeos en hype geintroduceerd worden.

feit blijft dat AMD ook al is hij dan niet meer de snelste gewoon de betere keus blijft.
De huidige KDE 4 is op NVidia niet vooruit te branden, omdat die itt ATI hun drivers niet op orde hebben. Wie moet er nu zorgen dat ze fatsoenlijke linux drivers gaan leveren? :?
De klanten zijn de enige groep mensen met dat soort macht.
Met ons koopgedrag kunnen we samen NVidia duidelijk maken dat we dit soort praktijken niet tolereren. Maar het werkt dus alleen als een significant aantal mensen meewerkt, omdat NVidia (en dus ook AMD en Intel) het in zijn omzetportemonnee gaat voelen.
Recentelijk geen ati kaart in linux gebruikt merk ik. De ATI drivers zijn op dit moment bijna of zelfs net zo goed als die van nvidia.
Ik durf gerust te zeggen beter. Waarom? Omdat AMD iets hanteert dat "same-day supoprt" heet, wat simpelweg inhoudt dat windows niet meer voorgetrokken wordt tov Linux. Zeker, er ontbreken nog een paar dingen (zoals Crossfire / Corssfire X bijvoorbeeld) maar die worden toegevoegd in de komende 3 maanden als het goed is.
Inderdaad, als ik nu de ondersteuning onder linux voor m'n ATI kaartje in m'n laptop vergelijk met 2 jaar geleden is er een zeer grote vooruitgang geboekt. De gebrekkige drivers onder linux zijn niet langer een argument om geen ATI te kopen.
en waarom blijft dat de betere keus?
wat prijs/prestatie betreft liggen ze vrijwel gelijk:

http://www.techspot.com/r...eon-4850-4870/page11.html

ati heeft het voordeel van 10.1 en nvidia het voordeel van PhysX
Nvidia heeft geen voordeel van PhysX. Die word namlijk ook geschikt gemaakt voor ATI kaarten op de eerste plaats. Op de 2e plaats staat AMD in dit geval achter HAVOK. Samen met wat kleine bedrijfjes als noem eens wat intel, microsoft....
Nvidia heeft wel voordeel van PhysX want het is er namelijk al! Hardware accelerated physx is er vanaf kaarten in de g80 serie.
AMD is wel iets van plan maar wanneer er hardware accelerated physx support voor AMD kaarten is, weten we niet.
Dat is er al? Waar dan? Hoeveel games ondersteunen hardwarematige physx? Bijna geen en nauwlijks AAA titels.Ook ondersteund AMD/ATI (onofficieel, maar wel gewoon mogleijk met de hulp van nvidia aan die schrijvers daar van)physx, dus welk voordeel heeft nvidia dan? Nvidia is klein vs het Intel, microsoft, AMD/ATI kamp van havok. Wie van die 2 kampen zou meer geld hebben om hun standaard te pushen als ze zouden willen? Verder zijn er veeeel veeel meer games welke havok hebben. AMD/ATI gaat waarschijnlijk per game bekijken welke dingen van havok de GPU het beste kan doen. Dan zou het ook nog wel eens deels backwards compatible worden.

Lees ook wat CJ er over zegt, ben het namelijk volledig met hem eens.

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 91

[Reactie gewijzigd door Reinman op 11 augustus 2008 22:32]

Je kan hem ook quoten. Want die link wijs naar 'n grote thread met een grote topic start lap text. Dus geen clue waar je het mee eens bent. gezien het zoek werk.

Bijna geen is +/- 10 games die ik ken. 6 heb ik zelf al

Graw1 2
BOS 1 2 3
Cellfactor
Warmonger
UT3

plus nog een paar die mij totaal niet boeien
COV
etc.

Maar juist dit gaat hard mee spelen. Het normaal ATI naai programma TWIMTBP gaat PhysX pushen ook bij de meer highprofile games. En heeft ATI juist ook nodig om een grotere front tegen iNTel. Daarnaast heeft ageia ook al veel voorwerk verricht om hun SDK te pushen. 140 titles console meegeteld. Dat nogal sucses vol hoe ze de SDK gepushed hebben.
Havok mag dan nr 1 zijn PhysX is nr 2 en is al lang geen klein duimpje meer in de markt.

Er staan nu ook meer interresantere grotere projecten in de planning kwa games. Niet alle spreken mij aan.
Maar Aliens Space marines ? spreekt mij kwa theme wel aan. Nu de PhysX nog.

PhysX ondersteund Gameplay en effect Physics gelijkwaardig. 'n PhysX game kan dus de gehele Physics load van CPU afschuiven naar 'n krachtigere PU en optioneel ook 'n Dedicated PU. Dat is ene grote voordeel.

Zoals Havok in het evrleden bezig was. Gameplay physics moet met hydracore op de multi core CPU. Wat wel mag op gPU is effectPhysics. Je krijgt dan zoiets als GRAW. Physics hardware voor eyecandy. Met PhysX krijg je dan meer dat PhysX demo map uit gRAW2 nl GRAW ageia island. Waar ook aardig wat hardware accelerated gameplay physics gebruikt wordt.

Wat nV met PhysX op GPU gaat doen wordt steeds duidelijker. Meer van de sluier gelicht. Zoals PhysX sLI en multiGPU PhysX. Havok is nu nog vaag. En loopt dus achter. Met ATI GPU havok versnelling. En of dat wel komt.

Daarnaast is het wel leuk dat ATI PhysX ook kan via HAck. Maar dat is voor de massa toch weer 'n hack rompslomp en zal dus niet zomaar werken.
Tenzij dit een simpele ingreep is wat de massa makkelijk kan dus ook noobs.
Daarnaast ben ik wel benieuwd hoe ATI Tera flop power het gaat doen tegen nV bijna teraflop power. In PhysX.

1 en 1,2 en 2,4 teraflop tegen 0,9Teraflop en met GT200b gaat nV mogelijk eens wat ruimer over de 1 terraflop.

Gezien aTI overcapaciteit aan shader power is de ATI platform juist beter geschikt om Physics even erbij te doen.

Als GPGPU Physics gemeen goed wordt zal voor de next gen GPU de shader unit verhouding een flink stuk omhoog kunnen. Zodat dedicated gpGPU physics semi overbodig wordt.

PhysX komt niet for free. Het gebruikt 'n deel van de shader, die dan niet gebruikt kunnen worden voor PS GS vS taken. en dus de render task leverd kwa shader kracht in.
UT3 en de rest die hier genoemd is, lijkt me duidelijk toch? Leuk dat AMD officieus nvidia physx support maar wat heb je aan niet officiele support? Kan morgen weer afgelopen zijn. Wie klein is en wie niet maakt in deze niks uit. Intel en AMD zijn nou al even bezig en ik zie nergens hardware accelerated physx voor Intel en/of AMD. Eerst zien, dan geloven. Met AMD gaat het financieel niet zo heel best dus hoe goed denk je dat ze daar iets kunnen pushen? En dat geld niet bepalend is voor succes, mag je afleiden dat Intel nu al voor de zoveelste keer de GPU markt serieus zegt de bestormen en nog steeds moet slagen in het leveren van een goed performende gpu voor 3d toepassingen zoals games.

En nou nog wat commentaar, je doet veronderstelling op veronderstelling op veronderstelling. Hoe groot denk je, als je een mening op zo weinig feiten baseerd, dat je gelijk hebt?

Oh ja, nog wat. Als AMD het handig speelt, ondersteunen ze beide standaarden hw matig. Dat kunnen ze en dan pas hebben ze een voordeel. En dat is dan meteen tov. nvidia EN Intel.

[Reactie gewijzigd door bozotheclown op 12 augustus 2008 08:10]

ik zie toch meer toekomst in physix over de cpu aangezien die steeds meer kernen krijgt moet dat makkelijk kunnen.
Plus dat niet iedereen een multicard opstelling heefd en dan lijkt me die physix over de kaart minder prettig omdat je fps inleverd, en dat zul je met latere games gaan voelen!
niet alleen dat maar hardware accelerated physics kosten vaak FPS
zie reviews maar. je offert een deel van je gpu op dus kost het je frames.
meestal is de gpu zowieso de limiterende factor dus werkt het averechts
Nou en? En ik vind het een heel grote ramp als ik niet meer 110fps haal maar bijvoorbeeld 70 en naast 70fps hw physx heb?

UT3 draat super smooth hier, inclusief hw physx support, in de physx levels.
Wat nu nog het geval is, is dat Physics op de CPU gedraait wordt. Dit geeft bv 50 fps. Je GPU draait hier op volle toeren om de grafische kracht erbij te pompen.
Als Physics van de CPU naar de GPU geoffload wordt, zal de CPU minder werk hebben, maar zal de GPU minder kracht over hebben om de grafische toeters en bellen weer te kunnen geven. En dan kom je uit op 35 fps, met volledig dezelfde Physics kwaliteiten, maar met een verlaagde grafische kwaliteit.

AMD heeft aangegeven dat het Physics zal ondersteunen wanneer het nuttig is, maw wanneer er geen frames verloren zouden gaan omdat de GPU geen kracht meer genoeg heeft om de rest te kunnen renderen.
Wat nu nog het geval is, is dat Physics op de CPU gedraait wordt. Dit geeft bv 50 fps. Je GPU draait hier op volle toeren om de grafische kracht erbij te pompen.
Als Physics van de CPU naar de GPU geoffload wordt, zal de CPU minder werk hebben, maar zal de GPU minder kracht over hebben om de grafische toeters en bellen weer te kunnen geven. En dan kom je uit op 35 fps, met volledig dezelfde Physics kwaliteiten, maar met een verlaagde grafische kwaliteit.

AMD heeft aangegeven dat het Physics zal ondersteunen wanneer het nuttig is, maw wanneer er geen frames verloren zouden gaan omdat de GPU geen kracht meer genoeg heeft om de rest te kunnen renderen.
Je kan het ook omdraaien. De meeste games zijn cpu limited en hebben veel baat bij een snellere cpu. Als de cpu meer werk kan verrichten doordat de grafische kaart werk ervan over neemt dan is dat alleen maar positief.
Wat jij zegt is gewoon pure ATI PR en is duidelijk niet echt over nagedacht.
De meeste games zijn helemaal niet cpu limited; eerder gpu limited. Zet in de meeste spellen maar es de reso op 800x600, en kijk hoe hoog de framerate wordt.
De CPU speelt zeker mee, maar is van veel kleinere invloed als de meeste mensen denken. Op een paar spellen daargelaten (supreme commander bv)
Verder scheelt het alleen in de benchmarks.
Nvidia heeft geen voordeel van PhysX. Die word namlijk ook geschikt gemaakt voor ATI kaarten op de eerste plaats. Op de 2e plaats staat AMD in dit geval achter HAVOK. Samen met wat kleine bedrijfjes als noem eens wat intel, microsoft....
En ATI heeft geen voordeel van dx10.1 omdat er gewoon geen dx10.1 games bestaan en alles wat in dx10.1 kan ook met dx10 kan.
maar in dx10.1 kan het sneller.
en het lijkt erop alsof blizzard well games gaat maken met 10.1 ondersteuning.
Iets goedkopers en snellers was wel even nodig nu ATI weer even de leukste kaarten lijkt te maken :-)
En wat gebeurd er dan met de huidige 65nm versie. Uitgerangeerd of word de nieuwe verkocht als + versie net als bij de 9800GTX+ tot de voorraad op is.
Door het gebruik van het 55nm-procedé kunnen meer chips uit een wafer gezaagd worden, waardoor de productiekosten dalen.
Ze zouden wel gek zijn als ze het oude procedé blijven gebruiken. Ze hebben een grotere winstmarge op de 55nm versie plus die zal zuiniger en sneller zijn, dus ook nog eens beter voor benchmarks en marketing.
Is er eigenlijk al iets bekend over een GTX280 X2 ?
De vorige generatie videokaarten van nVidia had namelijk de 9800X2 welke vrij nette prestaties neerzette.
Het lijkt mij dat als nVidia de 4870X2 van AMD wil overtreffen, dat ze dan ook met een multi GPU oplossing voor de huidige generatie zullen moeten komen, echter heb ik hierover nog geen berichten gezien.

Weet iemand misschien iets over een multi GPU oplossing van nVidia voor de huidige generatie?
ten eerste is het de 9800 GX2 en ten 2de deze enkele GTX280 zou snel genoeg moeten zijn om 2 gpu's bij te kunnen beenen en nu ze er ook nog is een 55nm process van gaan maken belooft dit veel
De GTX 280 verliest van de 4870X2 hoor. Moeten ze wel veel bij de clocksnelheid bij doen om dat te winnen.

http://www.guru3d.com/article/radeon-hd-4870-x2-preview/9

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True