Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties
Bron: The Inquirer

Er is nog maar weinig bekend over de nieuwe G70-chip van nVidia, maar stukje bij beetje komen steeds meer details vrij over nVidia’s toekomstige paradepaardje. Zo is er nu bekend dat de G70 een koelsysteem gaat gebruiken ter grootte van een enkel slot. Bovendien wordt er gezegd dat de chip “niet erg warm” zal worden; wat we ons hierbij moeten voorstellen wordt echter niet vermeld. De nieuwe chip zal geen speciale eisen stellen aan de voeding. Wellicht heeft nVidia vandaag al een van de eerste G70-kaarten gereed. Het bedrijf zegt het volste vertrouwen te hebben dat zijn nieuwe chip de concurrentieslag zal winnen van de nieuwe R520 van grote concurrent ATi.

nVidia kantoor (kleiner)
Moderatie-faq Wijzig weergave

Reacties (74)

Heerlijk concurrentie, ik zou eerder kiezen voor iets mindere prestaties, maar minder herrie en minder warmte dan voor een straalkachel. Ik hoop dat de volgende stap in de strijd op de kroon te maken heeft met stroomverbruik.
Nou je kan ook gewoon een van die nieuw HIS kaarten halen.
HIS ATi 850XT
die dingen zijn <20dB
-11 graden C* koeler dan stock.

dus het ligt er maar net aan val welke fabrikant je het koopt hoor, en daar zou het 2e gedeelte van de concurentie moeten liggen.
maar het is wel een dual-slot koeler.
Dat klopt, maar dan verbruikt de kaart nog evenveel stroom als een normaal model en neemt hij ZEKER het slot eronder ook in beslag. HIS heeft niets anders dan zeer goede koelers. Ik heb liever dat de kaart zelf gewoon efficienter is dan dat ik persé een gigantische stofzuiger erop moet zetten om 'm koel te houden
Heb je dat ook liever wanneer dat betekent dat een kaart duurder wordt of minder snel is?

Volgens mij zijn mensen alleen bereid dat soort afwegingen te maken als je daarmee ipv een boel herrie een stille kaart krijgt.
Je kan toch altijd kiezen voor mindere prestaties en een zuinigere kaart. Niemand die je dat belet. De toprange kaart zal dit niet zijn nee, eerder een budget versie. Ik snap al dat gedoe over energie en zuinigheid niet, misschien iets typisch voor de Nederlanders?
Voor een ekele desktop maakt het misschien een paar tientjes per jaar uit. Maar bij ons op de campus hebben ze lokalen gehad die vol stonden met PC's die samen goed waren voor tientallen huishoudens aan energie verbruik!

Let's say: 25% zuiniger zou dan al een enorme kosten besparing opleveren. Energie vebruik maakt dus wel uit, hetzij op grote schaal. (afgezien van boomknuffelaars en mullieu redenen).
Ik zie eigenlijk zelden iemand over energie en zuinigheid klagen.

In 90% van de gevallen gaat de discussie over herrie.
En dat heeft indirect natuurlijk wel met die energie en zuinigheid te maken. Als het ding idioot veel warmte produceert is ie immers moeilijk stil te krijgen.
Daarom ook dat iedereen hard zat te klagen over de koeler van de 5800Ultra, maar dat daarna eigenlijk niemand meer moeilijk deed over de veel stillere koelers van de 6800Ultra en de X850XT.

Dan hou je nog 10% over die moet overwegen een nieuwe voeding te kopen omdat een kaart teveel trekt. En dat is dan niet vervelend omdat mensen zo milieubewust zijn, maar omdat een nieuwe voeding extra geld kost.
En als er dan een concurerende kaart is waarbij je geen nieuwe voeding hoeft aan te schaffen, dan is dat uiteraard een punt waarover geklaagd word.

De beoordeling van een kaart is nou eenmaal altijd in relatie tot z'n concurentie. En de punten waarover geklaagd wordt dus ook.
offtopic:
Vervuiling misschien typisch iets voor de Belgen??

Je kunt nu misschien wel op deze post vliegen maar ik heb wel een punt.

Alsof wij weer de krenten zouden zijn :z
Toegegeven Nederlanders zijn vrij zuinig.
Mijn zus heeft trouwens in Belgie EN in Nederland op school gezeten en is er dus achter gekomen dat Belgen juist gieriger zijn dan Nederlanders. Tja.
Ik denk ook dat het veel mensen vooral gaat om de zuinigheid in relatie tot de milieubelasting.
Het lijkt mij dus dat ding bij minder warmte ook een lager energie verbruik heeft.
Tis maar net wat je efficient noemt... in de winter heeft je kaart een rendement van 100%, naast rekenkracht levert ie ook nuttige warmte :P

Misschien is het tijd dat je je GPU & vidmem ook gewoon in een socket op je mobo drukken kan net als je cpu en ram....
In princiepe zal het energie verbruik van chips langzaam ALTIJD toenemen, ze kunne wat trukjes bedenken om het even weg te poetsen, maar de laatste 30 jaar gaat het verbruik, de warmte ontwikkeling, enzovoorts, langzaam omhoog.
Volgens Theregister.com is de G70 al lang klaar en wacht nVidia gewoon totdat ATI z' n 520 lanceert.

Wat betreft het energieverbruik: dit wordt de top van de lijn kaart, er zullen ongetwijfelt versies komen met de helft van de pipelines en geheugen die minder energie verbruiken. Als je een snelle auto koopt kijk je ook niet naar verbruik, ander kocht je een VW Lupo }>
Volgens Theregister.com is de G70 al lang klaar en wacht nVidia gewoon totdat ATI z' n 520 lanceert.
Klinkt niet ongeloofwaardig. De Geforce Series 6 is heel schaalbaar (zelfs de 6200 heeft alle DirectX 9c features), en dus zou het mogelijk moeten zijn om vrij snel een chip te maken met 24 pijplijnen op een 110 of 90 nm proces.
De G70 heeft reeds zijn tape-out bereikt, dus het design is af en er zijn reeds werkende exemplaren.
en dus zou het mogelijk moeten zijn om vrij snel een chip te maken met 24 pijplijnen op een 110 of 90 nm proces.
En wie zegt dat de G70 dat niet is? Het is niet omdat de naam anders is (dit is trouwens maar een codenaam) dat het een totaal nieuw ontwerp is.
waarom dan g70? waarom dan niet nv50 ;) dat zou een stukje duidelijk zijn, nee ik denk dat nvidia nog wat meer geavanceerde functies erin doet, net zoals in hun vorige kaart (6xxx serie met ps3, en mpeg decoding, hoewel dat laatste niet werkt) nee ik verwacht weer iets speciaals....om zich te kunnen onderscheiden van de concurrentie
Maar van eerste tape-out tot exemplaren in de winkel, daar gaat nog heeeeeel veel tijd overheen.
6 maand is daarbij niet ongewoon.
Welke man wil nou niet 24 Pijplijnen?

Als Nvidia dat kon maken hadden ze wel een GAT in de markt ontdekt. }>
24 is wel en erg vreemd getal, staat in de lijst van 3,6,12 zijn geen gebruikelijke getallen....

Bovendien verwacht ik niet dat ATi's kaart 24 pipelines heeft, hij heeft er waarschijnlijk maar 8, net als de huidige serie.
Lol :S waar heb jij het over:

X600= 4 Pipes 2 Vertex
X700= 8 Pipes 6 Vertex
X800 pro= 12 Pipes 6 vertex
X800 XT = 16 pipes 6 vertex

R520 zou dus makkelijk 20, 24 of zelfs 32 pipes kunnen krijgen.

Huidige R480 en R430/R420 waren allemaal in quads van 4 opgebouwd.
Je punt is me niet echt duidelijk, quads, is precies dat, kwats, niet meer dan dat, er is geen reden waarom 4 er beter bemekaar te binden zijn dan 2 of 8.

Begin alsjeblieft niet over vertex units als ik het over pixelpipelines heb.

Feit, x800 draaid om een of andere reden veel minder effecient (clock/clock) dan een GeForce 6 series. Gelijkwaardige prestaties met ongeveer 20-25% grotere clocksnelheid.

Feit, x800 heeft niet zo veel transistors, niet zoveel als de GeForce 6, en eigenlijk is het verschil te groot om het alleen op PSM 3.0 te gooien.

Gerucht, PSM2.0b zou beter om gaan met met de 'erg lange' pixel pipelines van de X800 serie.

Doet mij geloven dat, de x800 series slechts 8 pixel pipelines hadden, met per pixelpipeline 2 shader units en 2 texture units.

Gerucht, De R520 heeft als het om texture units gaat 24 pixelpipelines en als het om shaders gaat 32 pixelpipelines.

Doet mij geloven dat de R520 in werkelijkheid 8 pixelpipelines, met per pixelpipeline 3 texture units en 4 shader units heeft.
@Database freak.

Waar lees jij bij The Register dat de G70 al lang klaar is dat Nvidia gewoon afwacht?
Dit bericht komt juist van The Register en daar staat dat helemaal niet in.
Volgens mij is het dan veel slimmer om vast te lanceren: dan heb je een voorsprong op je concurrent.
Nee, als Nvidia even wacht kunnen ze de precieze snelheid van de R520 bekijken en zorgen dat de G70 net een héél klein beetje sneller is. Als ze nu lanceren kan ATI dat doen.

Dat heeft ATI dus vorige keer gedaan bij de lancering van de NV40.
Ik vraag me af warom zijn grafische kaarten zo gebouwd dat de koeler, gpu, enz zit an de kant van vrije PCI sloten... an andre kant is genoeg ruimte om 5 cm koeler te platsen...
Dat is voor small form faxtor moederborden gedaan, omdat de processor koeler anders in de weg zit. Ook op sommige "gewoon form factor" borden heb je dat probleem.
Ik vraag me af warom zijn grafische kaarten zo gebouwd dat de koeler, gpu, enz zit an de kant van vrije PCI sloten...
Bij ISA kaarten zaten de chips aan de 'bovenkant'. Om een slotplaat te kunnen delen tussen ISA en PCI, zitten bij PCI de chips dus aan de onderkant.
Hoewel je in SLI opstelling dan nog altijd het zelfde probleem houdt natuurlijk!
zitten bij PCI de chips dus aan de onderkant.

En AGP is dan weer een verbeterde versie van PCI, dus eveneens 'ondersteboven' :)
Nou daar zal dit bedrijf blij mee zijn :D
Zal wel mee vallen:
Uit de forse Extended ATX-formaat behuizing ontspruiten negen tentakels die de gebruiker de beschikking geven over een mini-stroomconnector en twee PCI Express-, zes SATA- en acht Molex-stroomconnectors.
Het ding blijft interessant als je iets zoekt met veel uitbouw mogelijkheden.
dat werd dus wel eens tijd, op de cpu's hebben ze al een tijdje door (amd) hoe je zuiniger met energie om kunt gaan. Bij gpu's kon het niet op qua energieverbruik. Voedingen konden het bijna niet, gelukkig lijkt energiebesparing ook tot de gpu-markt doorgedrongen.
Komt dit ding nou ook in de PS3?
als dat zo is, bestaat er een kans dat ie XDR geheugen krijgt.

Wat we weten is dat net na nVidia de NV48 en de NV50 heeft gecancelled, en net voor bekent werd dat er helemaal geen NV47 was, hebben ze contracten met Sony gesloten, en er zou een volgende generatie chip in de PS3 komen, aangezien de G70 een volgende generatie chip is, en aangezien ze hem nog steeds niet hebben uitgebracht, acht ik de kans vrij groot dat het ook de G70 of een vreemde versie daarvan is die in de PS3 terecht gaat komen.
Lijkt me vrij logisch aangezien NV40 dat ook al had :)

Ati's r520 zal daarentegen de eerste ati chip worden die ps3.0 ondersteund
Ik denk dat hier de PlayStion 3 bedoeld wordt.
Klopt, alleen zal die waarschijnlijk weer een generatie verder zijn
Eindelijk doe nVidia er iets aan met zijn warme 3d kaarten! Moet ik geen 2 sloten meer opofferen... ;)
De nieuwste PCI-E (en dat zal deze kaart vooral worden) moederborden houden vaak al rekening met een dual-slot koeler. Ookal zou de kaart dus weer een 2 slot koeler hebben, dit is geen argument om de kaart links te laten liggen. Natuurlijk kun je problemen beter bij de kern aanpakken (minder warmte ontwikkeling), maar dat is een ander verhaal.
Eindelijk? Mijn Geforce SDR, Geforce 4 Ti en mijn huidige 6800 zijn allemaal niet heet en op allen zit een eenslots stockcooling.

Ik weet niet waar je het over hebt. Wat ik wel weet is dat er te veel 9700PRO en 9800PRO kaartjes defect raakten. Ik denk persoonlijk door slechte koeling.

Als je naar de kwaliteit van de reference koelers kijkt, neemt NVidia zijn zaakjes schijnbaar serieuzer dan ATI. Wat dan nog dat een koeler 2 slots in gebruikt neemt als het de lucht direct naar buiten blaast en goed koelt? Je moet tegenwoordig de ruimte om je videokaart toch vrijhouden zodat deze zijn warmte behoorlijk kan afgeven.

Ik snap dat gezeur over koelers toch niet. We willen wel allemaal sneller en sneller, maar als het een beetje meer energie verbruikt en warmer wordt gaan we in de contramine.
Iemand die een mATX mobo + kast heeft heeft vaak maar 2 en heel misschien 3 PCI sloten tot de beschikking. Knap lastig dus als je een zware GPU wilt en meer dan onboard sound.
Als je goed naar de 2 slots koeler van een 6800 Ultra kijkt, dan zie je dat die eigenlijk 3 slots in gebruik neemt.

De warme lucht wordt namelijk niet naar buiten geblazen maar naar beneden. Daar wil je dus een derde slot vrij houden.

De 5800Ultra koeler was wat dat betreft beter, alleen maakte die weer vreselijk veel herrie.

Wat dat betreft is de ATI 2-slot koeler nog de beste. Stil, warme lucht naar buiten en dus geen derde slot nodig en en koelt goed.

Hoe je dan tot de conclusie kan komen dat Nvidia zijn zaakjes wat koeling betreft serieuzer neemt is me dan ook een raadsel.


Wat betreft die 9700Pro kaarten die veel defect zouden raken door slechte koeling: Dat heeft helemaal niets met de ATI koelers te maken. Het gebeurd alleen maar bij gigabyte kaarten, en dat komt doordat gigabyte er zijn eigen koelers op heeft gezet. En die blijken dus brak te zijn.
Daarom kon ik er ook geen traan om laten dat Gigabyte overstapte naar Nvidia.
@ onair: tjah als jij zowiezo een kaart onder je graka steekt, ben je iig niet goed bezig, iedereen klaagt over die 2 slots, maar denk je nu echt dat een kaart in een slot vlak onder je graka steken goed is? goed om de temperaturen in de hoogte te laten schieten ja... en dan komen klagen dat je artifacts krijgt/graka raar doet... :Z
Hoe krijgen ze de warmte productie naar beneden? Dat kan je toch alleen naar beneden krijgen door kleiner procedé te gebruiken?
Jullie vergeten twee belangrijke opties om de warmte naar beneden te krijgen: Kloksnelheid en betere efficiëntie per kloktik. Het is niet voor niets dat de AMD64 processoren minder warm worden dan de Intel varianten.
nVidia ging tot nu toe voor ruwe performance zonder al te veel trucs om efficiënter te processen. Hopelijk hebben ze nu wel een aantal slimme trucs toegepast, waardoor de efficiëntie per kloktik stijgt en ze de kloksnelheid dus naar beneden kunnen gooien. Met die slimme trucs kunnen ze ook het verkeer tussen GPU en geheugen verminderen wat ook al weer een hoop warmte kan schelen.
Nee, je kunt ook de verschillende onderdelen van de core (cache en vertex/pixel shaders) beter verdelen over de chip. Over het algemeen is de cache verweg het heetst, dus kun je die goed gaan plaatsen, wordt de rest ook vanzelf koeler
Een GPU heeft nauwelijks cache. De heetste componenten zijn de shaders units, en die zitten zowat over de hele chip. "Beter verdelen" gaat dus niet.

Wat je wel kan proberen is dezelfde bewerkingen met minder transistors. Maar er is dan weer een balans met de haalbare kloksnelheid.

Dus het enige dat nog echt de warmteproductie naar beneden haalt is inderdaad het procedé...
Het kan door meerdere die's te gebruiken op een package, zoals VIA al van plan was, door dat de stroom dan door minder transistors heen kan lekken, is er gewoon minder lekstroom, je moet er een beetje een soortelijke weerstand achtige formule op los laten.
Ofwel spannign omhoog en stromm naar beneden, tis de stroom dat de warmte veroorzaakt (denk ik)
De hoeveelheid stroom die er doorheen loopt (amperes)
Bovendien wordt er gezegd dat de chip “niet erg warm” zal worden
Hoe geloofwaardig is een fabrikant, die er niet voor terugdeinst koelers van het formaat van een dubbele karbonade op zijn kaarten te gooien :+

Ik denk niet dat fabrikanten snel geneigd zullen zijn hun chips zuiniger te maken; als ze moeten kiezen tussen investeren in prestatiewinst of energiebesparing, is de keuze snel gemaakt. Bovendien zit de fabrikant toch niet met de stroomkosten, die worden mooi op de consument afgewenteld :Z

Videokaartbakkers willen blijkbaar ook niet pronken met energiebesparing. De X800-serie van ATi verstookte evenveel als de 9800 PRO/XT-modellen terwijl ze dubbel zo goed presteerden :z, zetten ze dat zelfs niet eens op de verpakking }:O
stroombesparing zit anders bij de cpu's aardig in de lift
oa doordat intel en AMD tegen een limiet aan liepen, maar als ik de 6800GT bv bekijk, zal die ook niet ver van die limiet af zitten

btw, "tweakers" vinden het blijkbaar normaal, maar als ik zo reken dat een nieuwe pc 500W verbruikt + 125W voor het scherm, en dan nog wat kleine dingen, dan staat de pc echt geen uren meer aan als het niet hoeft hoor, bekijk de stroomreking maar eens

de tijd dat je pentium 24/7 aanstond, want het ding verbruikt toch niks is echt al een tijdje voorbij

vergeet ook de remmende factor niet!
ik heb getwijfeld om een 6600 te kopen en heb dit (voorlopig) niet gedaan omdat ik anders ook een nieuwe voeding moet kopen... opeens wordt een videokaart een stuk duurder :(
500 Watt ? Kan je het nog eens laten narekenen op deze site? Ik denk dat je het verbruik ferm overschat.
http://www.jscustompcs.com/power_supply/Power_Supply_Calculator.php?cm d=AMD
Volgens die berekening heb ik een voeding van ruim 500 watt nodig. Toch Draait mijn systeempje al een hele tijd zonder problemen op een 350 watt noname voeding. Zegt helemaal niets dus.
Ik denk dat ie gewoon is uigegaan van het maximale vermogen dat een goede voeding nominaal kan leveren. Hoewel je met een intel CPU van 120 watt en een GF FX van 120watt al op 240 zit.

Uit ervaring: AMD64 3500+ met luxe skt 939 moederbord met 512MB DDR een GF 6800GT met 128MB GDDR1 en verder nog een 36GB raptor, 2e HDD van 250GB en nog wat losse PCI kaartjes verstookt: (gemeten bij het stopcontact)
145watt idle
160 watt met cpu op 100%
200 tot 220watt tijdens NFS underground.
Ik weet niet hoe jij rekent, maar mijn behoorlijk luxe uitgeruste pc doet onder 100% belasting (gamen) ongeveer 200 watt en idle 140 watt, en mijn 24" TFT scherm doet daar ongeveer 60 watt bij.
De 6600(GT) is helemaal niet zo'n stroomvretende kaart.
ik heb in een van mijn systemen (pats pats :Y)) een 6600gt zitten en dit systeem (3000+ A64, 1gb geheugen, raptor 36gieg en 3X 300gb hdd's en dus 6600gt) heeft 2 dagen zonder problemen op een HP |:( voeding van 250 watt gelopen... dus sorry, maar je standpunt kun je maar beter weerleggen
ik denk persoonlijk dat de fabrikant niet enkel kiest tussen prestaties of energiebesparing. Ze moeten vooral kiezen tussen kosten en opbrengsten.
De laatste tijd groeit alsmaar sterker het besef dat het alsmaar stijgende vermogen dat computers nodig hebben, onhoudbaar is. Zo 2 molexen op een kaart rammen, das toch geen oplossing
Ik denk dan ook dat er genoeg consumenten zijn die het feit dat een kaart minder stroom verbruikt zouden meewegen als ze de kans geboden wordt. Het is maw gewoon een nieuw punt om op te concurreren.
Videokaartbakkers willen blijkbaar ook niet pronken met energiebesparing. De X800-serie van ATi verstookte evenveel als de 9800 PRO/XT-modellen terwijl ze dubbel zo goed presteerden , zetten ze dat zelfs niet eens op de verpakking
Oh ja, is dat wel zo ? Iedereen maakt zich er druk over dat de GeForce 6 reeks veel meer energie zou verstoken dan de X8xx reeks van ATi. Volgens mij komt dat voornamelijk omdat nVidia de eerste was die aangaf dat er een voeding van een bepaald wattage gebruikt moest worden. Als we kijken naar het verbruik van de high-end kaarten (www.anandtech.com/video/showdoc.aspx?i=2299&p=2) en de low-end kaarten (www.anandtech.com/video/showdoc.aspx?i=2238&p=4) dan valt het allemaal reuze mee.

En daar komt nog bij dat alle nVidia kaarten al SM 3.0 zijn, en ATi heeft al meerdere malen aangegeven dat zij er nog een fiks aantal transistoren bij moeten plakken om SM 3.0 te doen. Als je in de grafiekjes ziet dat de X700 en de X850XT (bij gebruik) de grootste energie verbuikers zijn, stel je die kaarten dan nu eens voor met een fiks aantal extra transistoren erop voor SM 3.0.

Er is echt wel een reden waarom ATi haar SM 3.0 kaart op 90 nm gaat bakken ipv 130 of 110. Hell, het zou mij niet eens verbazen als het ook de reden is waarom ATi SM 2.0b heeft geintroduceerd terwijl ze zat tijd hadden gehad om een SM 3.0 kaart te maken (in ieder geval meer tijd dan nVidia, want die kon een complete generatie kaarten in de prullenbak gooien).

Ik denk zelfs dat als je het verbruik deelt door het aantal transistoren dat nVidia er per transistor zelfs beter uit komt dan ATi.
PS2.0b gaat goed om met de onconventioneel lange pixelpipelines van de x800 serie.

GeForce FX is erg sterk vertegenwoordigd binnen de GeForce 6, ook al zou je dat niet uit de performance kunnen halen.....
Het lijkt mij gewoon logisch dat de stroombehoefte weer gaat toenemen. Echter niet in zulke grote stappen. Maar er het lijkt mij heel onwaarschijnlijk dat er nu een kaart komt die minder stroom gaat slurpen dan een geforce 6 serie.

En stel nou dat de G70 al klaar ligt, dan is het markttechnisch toch erg handig om dit nu al te lanceren. Net zoals sli, nvidia lanceert dit een dik half jaar eerder als ati, er zijn nu toch steeds meer mensen die hierop overstappen. Mensen die voor 150 een leuk kaartje er bij in kunnen prikken.

[creatieve modus]
Zou het voor sli niet veel handiger naast losse kaarten ook speciale sli setjes te verkopen. 1 kaart gpu boven ander onder, dit moet de stilte wel ten goede doen komen.
[creatieve modus]
Het belangrijkste verkooppunt van SLI is volgens mij de goedkope upgrade mogelijkheid.

Met speciale sli setjes is dat niet mogelijk.

SLI met een speciaal sli setje betekent gewoon een extreem dure videokaart oplossing. Daar is de markt volgens mij veeeeeel te klein voor.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True