Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 137 reacties

De eerder uitgelekte informatie over de nVidia GeForce 7800 GTX-videokaart blijkt authentiek te zijn. Tweakers.net heeft de officiële specificaties van de nieuwe G70-core recent in handen gekregen en deze blijkt zeer goed overeen te komen met de geruchten: Het wordt een 0,11µ-core met een kloksnelheid van 430MHz, voorzien van 24 pixel pipelines en 8 vertex shaders. In de G70-core is een vernieuwde shaderarchitectuur (CineFX 4.0) aanwezig die de prestaties van met name Shader Model 3.0-spellen flink zou verbeteren. nVidia claimt in het document dat bepaalde shaders wel twee keer zo snel uitgevoerd kunnen worden op G70 dan op NV45, met name dankzij een nieuw ontwerp van de texture units. Hiermee wordt specifiek gedoeld op HDR-effecten (high dynamic range) met 64-bits floating point textures. Deze techniek om de belichting natuurlijker over te laten komen zal onder andere intensief gebruikt worden in Unreal Engine 3.0. Volgens onze informatie zou de kaart in de praktijk ongeveer 50% sneller zijn dan de GeForce 6800 Ultra, en tussen de 18.000 en 20.000 punten scoren in 3DMark03.

High Dynamic Range (HDR) effect in Unreal Engine 3.0

De GeForce 7-serie zou naast betere prestaties ook een iets betere beeldkwaliteit moeten leveren dan de huidige generatie. Onder de noemer Intellisample 4.0 zijn namelijk een aantal relatief kleine verbeteringen aangebracht op het gebied van anti-aliasing (AA) en anisotropic filtering (AF). Ook de videodecoder is getweakt voor betere prestaties en kwaliteit. Verder is interessant om te weten dat de kaart geschikt is voor de nieuwe architectuur van Longhorn. Hoogstwaarschijnlijk wordt hiermee de Windows Graphics Foundation (versie 1.0) bedoeld. Dit wil onder andere zeggen dat de chip aan multithreading kan doen.

De kaart - die de slogan "Full Throttle Graphics" meekrijgt - zal op Computex (31 mei tot 4 juni) getoond worden door Asus en MSI, maar het is onduidelijk of nVidia hem op die beurs ook gaat aankondigen. Eerdere geruchten spraken namelijk over 22 juni. Tot slot kunnen we nog een foto presenteren van de nieuwe kaart. Wat meteen opvalt is de compacte koeler, die slechts één slot in beslag lijkt te nemen. Hoewel de informatie over de vereiste 400 watt-voeding wel lijkt te kloppen, valt de warmte-ontwikkeling wellicht dus toch mee.

nVidia GeForce 7800 GTX
Moderatie-faq Wijzig weergave

Reacties (137)

Wat meteen opvalt is de compacte koeler, die slechts één slot in beslag lijkt te nemen. Hoewel het de informatie over de vereiste 400 watt-voeding wel lijkt te kloppen, is het met de warmte wellicht dus toch iets minder erg dan voorheen.
Wat mij opvalt, is dat deze kaart erg lang is. Als ik hem even (op het oog) vergelijk met mijn AIW 9800 en een voorzichtige schatting doe, dan kom ik op +/- 20cm uit. Dit kan misschien voor problemen zorgen in de wat minder ruim bedeelde pc kasten.

De lengte van de kaart kan ook de compacte koeler verklaren. de koeler hoeft niet hoger gemaakt te worden omdat de lengte al voor genoeg oppervlakte zorgt. Verder kunnen de componenten die voor deze warmte zorgen iets verder uit elkaar geplaatst worden wat de warmte productie/afvoer ten goede komt.
Wat mij opvalt, is dat deze kaart erg lang is. Dit kan misschien voor problemen zorgen in de wat minder ruim bedeelde pc kasten.
Niet als die kasten zich gewoon aan de standaard (ATX/BTX) houden ;).
Een standaard ATX behuizing hoeft maar plaats te bieden aan een moederbord en insteekkaarten van 11". Dus zo'n 27,5cm. Deze kaart is zo te zien een stuk korter dus iedere kast waar een normaal moederbord in past moet geschikt zijn.
Ander verhaal met de kaarten van 3D Labs. Daar heb je meteen een E-ATX kast voor nodig.
Ligt er ook een beetje aan wat voor moederbord je hebt natuurlijk. Mischien dat 'ie net past op een auss a8n-e (mijn moederbord) maar de chipset komt er dan wel superdicht op te zitten.
Dat het standaard in ATX/BTX MOET passen is wel zeker.. maar ik heb bijv een grote Koolance PC2-901BW server case vergelijkbaar met de grootste chieftec server desktops en ik weet dat als je alle 3,5" slots gebruikt hebt hij er echt niet in past!! |:(

Laatst bij het vervangen van m'n radeon 9800 met een x800XL schrok ik al met de lengte van die kaarten.. zeker een 3 á 5 cm langer.. en die kwam zowat tegen m'n HD's aan.. bij het bekijken van de GeForce 7800 kwam ik tot de conclusie dat deze nog een 2 á 3 cm langer zou kunnen zijn.. :?
Het kan ook zijn dat deze koeler gebruik maakt van de in opkomst zijnde metaal koeling.

http://www.tweakers.net/nieuws/37384

Op het oog lijkt echter het ontwerp ook te zijn geoptimaliseerd, meer de manier die BTX gebruikt, waarbij de luchtstroom in één richting wordt geforceerd. Echter lijkt die richting in dit ontwerp naar de voorkant te zijn, en niet naar de achterkant waar het uit de kast kan. Zit wel zo te zien een heatpipe constructie in en wordt er gebruikt gemaakt van een combinatie van Koper voor de GPU en Aluminium voor het geheugen.

Wat betreft lengte, dit kan simpelweg een foto van een prototype zijn, die zijn wel vaker full-length tijdens de test-fase.
mmm nee hoor, gezien waar het slot ophoudt, lijkt deze even lang als mijn 6800ultra
Wou deze zomer misschien nog een surfplank kopen, maar een speedboat met waterskies is natuurlijk ook niet slecht ^^.
Tussen de 18.000 en 20.000 punten scoren in 3DMark03??? Dit klopt niet, Ik denk dat ze 05 bedoelen.
Tussen de 18.000 en 20.000 punten scoren in 3DMark03??? Dit klopt niet, Ik denk dat ze 05 bedoelen.
Nee, ze bedoelen 3DMark03. De kaart is naar verluid ~50% sneller dan een 6800 Ultra en die haalt stock zo'n 12.000-13.000 punten in 3DMark03. 12.000 x 150% = 18.000 punten ;)

Standaardscore van een 6800 Ultra in 05 is ~6500 punten, dus de 7800 zou dan bijna 3x zo snel moeten zijn om aan 18.000 punten in 05 te komen. Da's wat te veel van het goede voor 1 generatie verder ;)
even een kanttekening: Een 6800ultra haalt nog geen 6000 in 05
Ik zit met m'n GT nét voor de 6000 punten ... http://service.futuremark.com/compare?3dm05=722302
Maar boven de 6000 krijg ik hem net niet :(

En wat is de naam van deze website? Je gaat me toch niet vertellen dat we hier over standaard - niet overclockte - hardware aan het praten zijn eh? :)
Raar hoor Shaidar...je zou toch zeggen dat het hoger zou moeten...
Klopt het als ik zeg dat je FSB van 220Mhz een klein btje de boosdoener kan zijn? Dat zie ik namelijk staan bij je General Info van je testresults. :+

"kwoot"

AGP Rates (Current/Available) 8x / 4x, 8x
CPU Intel Pentium 4 3526 MHz
FSB 220 MHz
Memory 1022 MB

"kwoot"
hahah, ik heb zelf niet eens een 6800 ultra. Ook heb ik geen p4. Ik weet niet waar je die info vandaan hebt hoor....

Maar het is nog steeds zo dat een non OC 6800ultra geen 6000 haalt in 05 (zonder SLI!!!!)

edit: Ik zie het al. Je had het tegen Shaidar
Misschien even leuk om te weten, maar ik heb hier nog een 6600gt (out-of-pc) liggen, en die haalt zo'n 13.000 in 3dmark03. Die 6600gt is op 625/1250 geclockt, gewoon met een zalman :). Met een 6800 ultra is de 18000 denk wel haalbaar en met zo'n 7800 moet 25000 ook wel lukken, laat maar komen 8-)
Natuurlijk is dit geen 3dmark 05 score, iedereen die een beetje 3dmark kent, weet dat dit onmogelijk is.

Een standaard 6800ultra scoort rond de 5000 punten in 3dmark05, zeker geen 6500. De 7800GTX zou 7800 (vandaar de naam 7800GTX naar verluid) punten halen in 05 wat toch aanzienlijk beter is.
Een videokaart die vernoemt wordt naar software.. Zie je het al voor je?
Een zwaar overgeklokte 6800 Ultra haalt volgens de ORB iets van 11.000 punten in 3DMark05. Ik denk niet dat de 7800 GTX er zó gigantisch dik overheen gaat zonder over te klokken.
Dit is onjuist. Het wereldrecord staat op 9000 punten met een dual cascade. Wat jij noemt zijn SLI scores.
Zit er nou eindelijk eens Dual-link DVI op zon kaart zodat ook resoluties van 2560x1600 ondersteund worden? Zou toch wel eens mogen voor de 600-700 euro die deze kaarten gaan kosten. :(
Dual DVI support

Able to drive the industry's largest and highest resolution flat-panel displays.
Er staat niet letterlijk Dual Link, maar de regel er onder suggeert dat het wel bedoeld wordt. Trek je eigen conclusie maar, ik durf er geen uitspraak over te doen :).
Oh plz breng ook een AGP8x variant uit. Ik ben op zoek naar een vervanger voor mijn GeForce IV Ti4800 en steek liever over een paar maaden mijn geld in een GeForce VII dan in een GeForce VI 6800 GT of Ultra.

Wat brengt mij ook tot een andere vraag, zal een kaart als deze onderhand de maximale bandbreedte van AGP8x gebruiken of al meer dan dat? Ik heb begrepen dat de huidige PCI-E kaarten dat al niet eens doen...
:D Haha dat gaat dus echt niet gebeuren, volgens mij zitten deze kaarten al over de maximale bandbreedte van AGP heen. En als jij nu nog een PC met AGP hebt zit daar dus een Proc op die de prestaties van de kaart zo enorm gaar beneden gaat halen dat het zonde is om de kaart aan te schaffen. Nee mooi op PCI-E uitbrengen en AGP maar lekker laten voor wat het is. Ik heb zelf nu ook nog AGP maar deze kaart is nog maanden van ons verwijderd en nieuwe mobo's met AGP zijn nu al enorm zeldzaam, over een maand of 5 of 6 zullen ze wel langzaam van het toneel zijn verdwenen en is het zonde om deze kaarten met AGP uit te brengen, die raken ze dan gewoon niet meer kwijt.
En als jij nu nog een PC met AGP hebt zit daar dus een Proc op die de prestaties van de kaart zo enorm gaar beneden gaat halen dat het zonde is om de kaart aan te schaffen.
Er zijn genoeg snelle processors voor AGP-moederborden, dus wat jij hier zegt is een beetje kortzichtig. AGP of PCI-E staat los van een snelle of minder snelle CPU.
Ten eerste: Wel eens van nForce3 ultra gehoord? Die hebben AGP en zijn even snel als de nforce4 met pci-e.

Ten tweede: AGP zou deze kaart echt nog wel aankunnen, als je kijkt naar bijv de test van Anandtech, waarin ze een pci-e videokaart in een pci-e4x en 2x slot stoppen, en het prima werkt (in enkele gevallen had de 2x poort wat problemen met de hoeveelheid data).
volgens mij zitten deze kaarten al over de maximale bandbreedte van AGP heen
eigenlijk word de bandbreedte steeds minder gebruikt
vanaf dx8.x en zeker in dx9 en opengl2.0 doet de kaart het meeste werk zelf en hoeft er weinig met met de cpu gepraat te worden.
en alle textures en andere info past makelijk in het grote geheugen wat de gemiddelde vid kaart tegenwoordig heeft (256mb word nog niet eens gebruikt en 512mb is al te koop).
enige verschil zou een iets langer laad tijd kunnen zijn, maar die is waarschijnlijk voor het overgrote deel bepaalt door je HD.
Wat ik me af vraag is, waar uit blijkt dat deze informatie authentiek is? Op
http://www.penstarsys.com/editor/company/nvidia/g70_spec/index.html
wordt dit verhaal in twijfel gebracht.

" Marv Burkett clearly stated that the first 90 nm part will be introduced this quarter (which definitely cannot be characterized as "Fall"), and that all "large" products will be 90 nm from here on out. This suggests, in very strong language, that the G70 will be 90 nm (as it has not been released as of yet, and it is a large part). So, was the leak last week legitimate? If Marv really meant what he said, then no, the G70 will not be a 110 nm part." :?

Lees maar de rest van het articel, voor meer speculatie.

Het is wel waar dat de nv42 op 110 nm gemaakt is, maar g70 ? Ik weet het zo net nog niet. Het kan ook zijn dat de nieuwe tech. van nvidia, wat ze gebruiken in de Ps3 door gesluisd wordt naar de G80. 8-)
ik vraag me ook af wat de bronnen van T.net zijn. Ik geloof ook niet dat de chip 110nm gaat worden. De G70 in de PS3 wordt ook 90nm
Het zou kunnen dat nVidia bewust misleidende informatie verspreid om concurrenten op het verkeerde been te zetten, dat zou niet de eerste keer zijn. Het procédé staat in de ontvangen informatie ieder geval minder hard in steen gebeiteld dan de rest van de featureset, laat ik het zo zeggen.
Door wie is dit nou precies geconfirmeerd?
Daar kan/mag/wil ik om voor de hand liggende redenen geen antwoord op geven :). Ik vond het betrouwbaar genoeg om te posten, en iedereen moet zelf maar bepalen hoeveel waarde hij/zij daaraan hecht.
Door wie is dit nou precies geconfirmeerd?
Hmm, hij wordt waarschijnlijk wel 0.11 Micron.
Vergelijk hem maar eens met zijn grote breor in de PS3:

PC:
24 Pipes
~430 Mhz

PS3:
32 pipes
~550 Mhz

Als het 90nm-proces zou worden gebruikt, dan zouden ze de core hoger moeten kunnen clocken dan de RSX (aangezien de G70 minder pipes heeft).

En daarbij komt dat momenteel 110nm al veel wordt gebruikt in de grafische markt en 90nm niet. Daardoor is het economisch veel aantrekkelijker dan het 90nm-proces te gebruiken. Aangezien TMSC dat nog gereed aan het maken is voor de GPU's.
Fout... die 32 pipelines uit de PS3 zijn gedeeld pipeline, gedeeld vertex. 24 pipelines uit de G70 voor pc + 8 vertex =,,, jawel die 32.
Nee hoor, jij zit in de war met USA: Unified Shader Architecture, iets wat nVidia (nog) niet ondersteund, in zowel de G70 niet als in de RSX chips in de playstation 3 niet. Bij de USA kan elke pipeline ingezet worden in dat wat op dat moment nodig is. Een pipeline fungeert dus de ene keer als normale pipe, en het andere moment wat nu beter bekend is als de vertex shader. Nu heb je dus per pipeline een x aantal shaders. De NV45 (6800Ultra) heeft bijvoorbeel 16 pipelines, met ieders 6 vertex shaders. Straks zal elke enkele pipeline ingezet kunnen worden voor meerdere taken, en dat is wat USA doet, maar daar heeft nVidia nog geen ondersteuning voor itt Ati. Het is dus wel degelijk zo dat die RSX gpu wél 32 pipelines heeft en 8 vertex shaders pér pipeline, wat dus duidelijk beter zal moeten zijn dan de G70.
Lijkt me echt geweldig als bij de introductie alles 90nm blijkt te zijn, idle 40 graden bij lager dB en 200% sneller dan de 6800U. nVidia staat wat dat betreft vaak wel goed met verrassingen. Veel teveel geroddel en onbetrouwbare bronnen voor mij om alles te geloven maar ze maken het wel spannend!!!
Waarom zou 90nm koeler zijn dan 110nm?
Misschien ondervinden ze nog wat problemen met 90nm en hebben ze daarom voor 110nm gekozen. Tegen de tijd dat ze het 90nm-proces onder de knie hebben is het tijd om de consoles te verkopen ;)
En daarbij is het overstappen op een ander, in dit geval kleiner proces ook redelijk prijzig en zal nVidia het moeten doen met fabrieken van TSMC... want zelf hebben ze geen productiecapaciteit :)
ik lees dagelijks mijn tweakers en ook de reacties echter ik post niet zoveel.

Wat me vooral opvalt is hoe de mensen hier soms dingen bekijken als het gemaakt is door prutsers, bv die opmerkingen over die koeling die erop zit, ze is niet effectief??
komaan, er zit een team achter waar je een puntje kunt aan zuigen en die gaan geen domme fouten maken zoals een niet effectieve koeling, misschien beter leren kijken hoe de koeling effectief zou kunnen zijn ipv conclusies te trekken van een foto.

andere opmerking, 't is slechts een upgrade van de 6800serie en niet echt de moeite waard??

straf, bijna verdubbeld in pipelines, 8 vertex shaders ipv 6, gebruikt een nieuwe shaderarchitectuur, nieuuw ontwerp van de texture units, volgens de roddels geen grotere gebruiker van stroom dan zijn voorganger.

dit is niet slechts een upgrade van de 6800, dit is een nieuwe core met architecture veranderingen, onder een upgrade versta ik eerder verhoging in kloksnelheid, bandbusbreedte, geheugen uitbreiding, enz....

deze kaart is een serieuze sprong vooruit
Volgens mij heb je de introductie van de 5800 gemist ;)
Bye Bye Playstation 3 and Xbox 360!
Valt wel mee denk ik :)
Van de PS3 werd aangegeven dat hij een grafische chipset zou hebben die ongeveer 1 generatie vooruit is op de huidige desktop kaarten. Die zal dus misschien nog wat geavanceerder zijn dan de Geforce 7800.
De ATi kaart in de Xbox360 is ~2 generaties vooruit en heeft in totaal 48 pipes... ofwel 1,5x zo veel als de 7800 (die heeft er 24 + 8 = 32).

Verder is het sowieso geen vergelijk, gezien deze kaart in zijn eentje waarschijnlijk meer gaat kosten dan een hele PS3 of Xbox360 ;)

<edit>
@ Tankeriv:
Uiteraard zijn de prestaties van een videokaart niet alleen afhankelijk van het aantal pipes, maar het is wel een goede indicatie voor de geavanceerdheid van de architectuur en dus ook de prestaties.
> Radeon 8500 heeft 4 pixel + 2 vertex = 6 pipes totaal
> Radeon 9800 heeft 8 pixel + 4 vertex = 12 pipes totaal
> X800 / 6800U hebben 16 pixel + 6 vertex = 22 pipes totaal
> Gf7800 (en verm. ook R520) heeft 24 pixel + 8 vertex = 32 pipes totaal
> Xbox360 GPU heeft een Unified Shader Architecture met 48 pipes totaal
Zegt toch wel wat nietwaar? ;)

@ Elmaros:
Bij de oorspronkelijke Xbox was de GPU ook geavanceerder dan de toen net geintroduceerde Geforce3. Maar als je niet van mij wilt aannemen dat de Xbox360 en PS3 GPU's geavanceerder zijn dan de huidige generatie wil ik je met alle plezier wel van een bron voorzien hoor ;)

Verder weet ik niet of jij al een nVidia of ATi desktop GPU bent tegengekomen met de specs van de Xbox360 GPU:
* 48 shader pipelines
* 10MB Embedded DRAM (cache)
* Dual die
* Toegang tot 512MB (unified) GDDR3 geheugen
* 192 floating point units

Ik nog niet in ieder geval ;)
Jah ho ff.

Wil je beweren dat de werkelijke prestaties van een videokaart afhangen van het aantal pipelines?

Dus hoe meer pipes hoe beter? :?

Lijkt me sterk.

D'r komen ook nog andere dingen bij kijken.
Ontwerp. Units etc etc etc.
Wil je beweren dat de werkelijke prestaties van een videokaart afhangen van het aantal pipelines?

Dus hoe meer pipes hoe beter?
Deels wel zou ik denken, waarom gebruiken ze anders steeds meer pipelines met elke nieuwe generatie die uitkomt?
Er is wel degelijk een verband, en ik denk dat dat het enige is dat Cheeta wil aangeven in zijn vergelijking met consoles.
Wat dat betreft ben ik het ook met hem eens. Ati heeft gewoon iets meer innovatie gestoken in de kaart die in de toekomstige XBox360 moet komen (merk je aan de iets vettere features als je gaat vergelijken), dan in zijn eerstvolgende nieuwe generatie dat uit moet komen op de pc.
ATi heeft een paar dagen geleden in London tijdens een persconferentie aangegeven dat de 48 shaderpipelines in de R500 van de Xbox360 wat betreft performance het beste te vergelijken zijn met 32 reguliere pipelines. Dat is dus nog altijd meer dan deze specs van de 7800 GTX. Bron: http://www.bit-tech.net/news/2005/05/25/ati_xbox_360_london/

En vergeet niet dat de Xbox360 alles standaard op 4x AA draait zonder noemenswaardig performanceverlies (ongeveer 1% tot maximaal 4%) op HD resoluties! Dat zie ik een 24 pipelines-kaart zonder eDRAM niet doen en dit (free AA) is iets wat veel mensen over het hoofd zien....
op HD resoluties!
1280 x 720 zeker?
Het is nog maar de vraag of het op 1920 x 1080 ook 'free' is.
1280 x 720 zeker?
Het is nog maar de vraag of het op 1920 x 1080 ook 'free' is.
Het antwoord op die vraag is in dit artikel betreffende de Xbox360 en PS3 GPU's terug te vinden:
Er blijft [..] meer dan genoeg capaciteit over om zelfs op een resolutie van 1920*1080 zonder noemenswaardige vertraging viervoudige anti-aliasing toe te passen.
HDTV reso 1080i / 1080p (=1920x1080) met 4x AA dus :)

Ik verwacht wel dat de aankomende generatie nVidia en ATI GPU's hier ook niet ver meer vanaf zal zitten, in ieder geval met de huidige games.
hoe kunnen die ps3 en xbox 360 ooit goedkoper worden:s

ik denk echt dat ze veel duurder worden dan de huidige prijzen (hoewel dat ook wel zo was toen die oude eerst uitkwamen) de ps2 verkocht zo goed omdat hij niks kost
Op de spellen draaien ze juist de winst, meestal maken ze op de console verlies. Naar mate de prijs daalt in de verkoop, naar mate het verlies nog meer toeneemt, het schijnt dat het verlies erg hoor is nu bij de GameCube. Ik ben benieuwd of ze het nog kunnen terugwinnen met de verkoop van spellen.
Van de PS3 werd aangegeven dat hij een grafische chipset zou hebben die ongeveer 1 generatie vooruit is op de huidige desktop kaarten.
Maar de PS3 wordt pas volgend jaar gereleased.
Wat te denken van 2 van deze kaarten in SLI opstelling dan?

Bovendien zullen deze kaarten samen met 512MB geheugen uitkomen, dus in SLI heb je 1GB aan videogeheugen en 48 pipes.

Dat geheugen is nog steeds iets wat een console nooit kan evenaren.

Dan moet een console wel supersnel zijn omdat ie gewoon niet zo veel geheugen heeft als een PC.

Bovendien als je zo gek bent om deze kaart in SLI opstelling te draaien dan zal je ook wel 2GB aan RAM hebben in je PC.

Met DirectX10 wordt het helemaal mooi, DirectX 10 kan namelijk gebruik maken van je RAM als een soort videogeheugen, te vergelijken met AGP texturing maar dan een totaal andere techniek.

Bovendien als DirectX10 videokaarten uitkomen vegen ze sowieso de vloer aan met welke console dan ook.

Waarshijnlijk komen die videokaarten dan geleverd met 1GB aan geheugen, dus dan heb je in principe Edram niet zo hard nodig.

Oja en dan die pipelines, meer pipelines heeft NIKS te maken met een nieuwere generatie, dat ze bij een nieuwere generatie ALTIJD meer pipelines toevoegen is gewoon om de performance te verhogen, maar het zegt op zichzelf niks.
Ik snap niet waarom die vergelijking van console met PC steeds terugkomt... Als je eens kijkt wat de - technisch t.o.v. PC toch wel behoorlijk verouderde - Xbox, PS2 en GC presteren, dan zul je het waarschijnlijk wel met me eens zijn dat de nieuwe generatie consoles nog wel even mee kan.
Neem daarbij dat je voor een nextgen console vermoedelijk slechts de helft tot tweederde kwijt bent van het bedrag dat je bij introductie zult moeten uitgeven voor de Geforce 7800 alleen... om een high-end PC eromheen te bouwen die grafisch ongeveer vergelijkbare prestaties neerzet als 1 van de nieuwe consoles ben je zeker 4-5x zo veel geld kwijt als de console zal kosten. Dus waar hebben we het eigenlijk over in deze "vergelijking"?

Maar goed, zoals je wenst:
De videokaart van ATi draait op 500MHz en is uitgerust met 10MB DRAM en 48 pipelines. Het interne geheugen bestaat uit 512MB GDDR3 werkend op 700MHz.
De Xbox 360 heeft net als zijn voorganger een Unified Memory Architecture (UMA), wat betekend dat afhankelijk van de load zowel systeem als GPU volledige en snelle toegang tot het systeemgeheugen hebben.

Verder is er ook nog de 10MB DRAM welke dient als cache voor de videokaart, en da's nog niet in desktop GPU's toegepast en erg ruim (zie ook het turbocache/hypermemory principe).

Gezien de Xbox 360 op een gestript operating system draait dat weinig intern geheugen nodig heeft kun je er van uit gaan dat een groot deel van de 512MB GDDR3 ter beschikking staat van de GPU ;)
Op je PC draaien naast een GUI een heleboel geheugenverslindende processen welke overbodig - en dus niet geimplementeerd - zijn op een console. Verder kunnen ontwikkelaars zich bij een console op een vaststaande architectuur concentreren, waar zij bij de PC in hun programmatuur rekening moeten houden met compatibility met duizenden mogelijke configuraties - wat ook de nodige resources vergt.
Euhmz :? Het kan aan mij liggen, en kan er overheen kijken hoor. Maar ik zie nergens een SLi aansluiting op deze videokaart zitten?

Wellicht dat die er nog op komt dat dit pas een protosample is oid? Maar vooralsnog zie ik (helaas) geen aansluiting voor SLi zitten.
Neem daarbij dat je voor een nextgen console vermoedelijk slechts de helft tot tweederde kwijt bent van het bedrag dat je bij introductie zult moeten uitgeven voor de Geforce 7800 alleen... om een high-end PC eromheen te bouwen die grafisch ongeveer vergelijkbare prestaties neerzet als 1 van de nieuwe consoles ben je zeker 4-5x zo veel geld kwijt als de console zal kosten.
Inderdaad, maar met een PC kan je ook véél meer dan alleen gamen, het is dus gewoon een persoonlijke keuze. Mensen die alleen gamen: Console. Mensen die gamen, surfen, mailen, chatten, video- en fotobewerking, office,... doen: PC.
Lijkt me toch stug dat ze in die spelcomputers een generatie lager zitten. Hoe krom zou die redenatie wel niet zijn. Dus dan releasen ze een kaart die eigenlijk oud is, denk het niet hoor. Dat de architechtuur anders is, betekend per definitie niet dat het een generatie verschil is. Een PS3 is geen PC en vice versa.
Komt er dus op neer dat het een update is van de 6800ultra. Als het aantal 3d marks echt tussen de 18k en 20k zou liggen dan is deze kaart toch niet gemiddeld 50% sneller?
De architectuur is ongeveer gelijk gebleven dus waarom overstappen op de 7xxx series? Als je een nieuwe video kaart wilt, dan zou dit een goede kans zijn maar mensen met een 6xxx kaart zullen het ook lang vol moeten kunnen houden.
2 6800 ultra's in sli hadden toch moeite met het draaien van de unreal engine 3 dus zouden 2 van deze 7xxx kaarten de unreal engine 3 probleemloos moeten kunnen draaien.
Als het aantal 3d marks echt tussen de 18k en 20k zou liggen dan is deze kaart toch niet gemiddeld 50% sneller?
Zoals eerder berekend: Een 6800 Ultra haalt gemiddeld 12.000~13.000 punten in 3Dmark03. 13.000 x 150% = 19.500 punten ;)
De architectuur is ongeveer gelijk gebleven dus waarom overstappen op de 7xxx series? Als je een nieuwe video kaart wilt, dan zou dit een goede kans zijn maar mensen met een 6xxx kaart zullen het ook lang vol moeten kunnen houden.
2 6800 ultra's in sli hadden toch moeite met het draaien van de unreal engine 3 dus zouden 2 van deze 7xxx kaarten de unreal engine 3 probleemloos moeten kunnen draaien.
Verder snap ik je post niet echt...
Eerst zeg je dat je niet begrijpt waarom iemand zou overstappen van een 6800 naar een 7800... direct daarna meldt je dat 2x6800 Ultra in SLI niet voldoende is voor Unreal 3, maar dat die game met een 7800 wel probleemloos moet draaien.

>> Dat is toch exact de reden waarom je het nieuwe topmodel videokaart koopt? Het kunnen spelen van de nieuwste spellen op de hoogste resoluties met alle eye-candy aan! ;)
Ik zie geen SLI connector, maar ik mag toch hopen dat ie er alsnog opkomt?
Het 'gerucht' was toch dat er drie modellen kwamen en dat alleen het topmodel SLI zou ondersteunen....?
Volgens mij zijn er soldeerpunten voor voorzien naast de tv-out. Maar ik kan me vergissen. Het is dan ook een kleine pic...
volgens mij zit die er wel degelijk op, en als k me niet vergis aan de linker kant van de pci-e connector. dat zou dus betekenen dat de SLI connector niet meer in het zicht zit...
Dat is nou juist nog een onderdeel van de PCIe connector. Die bestaat uit een standaarddeel plus een rits aan lanes voor het dataverkeer.
neej, dat bedoel k niet. je ziet van rechts naar links een smal stukje, dan een breed stuk, nog een smal stukje en dan een smal stukje wat hoger ligt dan de rest.
http://www.penstarsys.com/editor/company/nvidia/g70_spec/index.html
Nou jongens, wat een bevestigging, ondanks dat de techniek er is om de chip kleiner goedkoper en sneller te maken, gaat nvidia voor een procede wat in eerste instantie bedoelt is voor budget GPU's.....Waarom?
gaat nvidia voor een procede wat in eerste instantie bedoelt is voor budget GPU's.....Waarom?

----------------------------------------------------------------------------------

is gemakkelijker om te maken en betere warmte spreiding, ook in eerste instantie goedkoper, verbruikt wel meer .


wat ik me wel afvraag, er werd ook gezegd dat alleen de GTX versie in een SLI opstelling kan, de GT en de andere versie zouden niet in SLI kunnen geplaatst worden, iemand een idee hoe het daarmee zit?
warmte spreiding is geen issue, dat is het af en toe bij CPU's, maar helemaal niet bij videokaarten.

Het zou niet zo handig zijn als nvidia SLI aan banden gaat leggen, markteting technisch gezien zou het erg slecht zijn. Ik vermoed haast dat daar niet veel van kan kloppen. Eigenlijk brengt deze hele post op het plaatje na weinig nieuws.
Van waar haal je dat?
Nvidia test ALTIJD een nieuw procede eerst op de lower-end kaarten om het nadien pas te gebruiken voor high-end. Zo leren ze het procede alvast kennen zonder risico op al te veel imago-verlies te leiden moest er iets foutlopen
BEHALVE dan bij de 5800....

(Maar daar zullen we het verder maar niet meer over hebben ;))
Waat slaat dat nou weer op ?

Door 0.11 te gebruiken kunnen ze meer pipelines er in stoppen zonder de chip veel groter wordt. En de voltages gaan omlaag @ zelfde core speeds. Dus iets minder warmte productie.

Bij cpu's is dit toch ook zo ? Ati heeft er voor gekozen om 0.09U te gaag gebruiken of dit echt zo is moeten we nog even zien.

Maar 0.11 kan harder dan 0.13 dat is duidelijk.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True