Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 113 reacties
Bron: The Inquirer, submitter: T.T.

The Inquirer komt met het nieuws dat nVidia's NV40-chip klaar is voor levering aan videokaart-fabrikanten. De fabrikanten hebben nog geen NV40-samples ontvangen om hun kaarten op te baseren, die zullen ze eind februari ontvangen. Met deze ontwikkeling is het volgens het artikel nog de vraag of de fabrikanten op tijd klaar kunnen zijn om hun op de NV40-GPU gebaseerde kaarten te laten zien op CeBIT, aangezien ATi zijn R420 wel op de show zal tonen. De echte produktie van de videokaarten zal in maart beginnen, waardoor de eerste kaarten in april of mei in de winkels verwacht worden. Ten slotte verwacht The Inquirer dat de NV40 en R420 elkaar qua prestaties weinig zullen toegeven, waardoor een strijd tussen de twee interessant kan worden.

nVidia logo op gebouw

Lees meer over

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (113)

De omvang van de koeler over de kaart is niet van zo'n groot belang. Wat echter wel iedereen wil weten of NVidia op het referencedesign weer een "hoge" koeler zal plaatsen zoals we bij de 5800/5900 series wel zagen en waardoor men PCI slot 1 kwijt was.
zucht hoe vaak moet dit nog uitgelegd worden ???

1. het 1e PCI slot deelt zijn IRQ met het AGP slot en video kaarten houden niet van IRQ sharing.
2. bijna alles wat je op je PC wil hebben zit onboard of kan via IDE1, IDE2, SATA, USB 1.1 of 2.0, firewire of een oude serieele of paralelle aansluiting de enkele dingen waar je een PCI kaart voor nodig heb is een slot of 4 zeer ruim voldoende!
3. door de hitte van de video kaarten wil je deze vrij houden

verder ben ik erg benieuwd naar de prestatie en het geluids niveau maar ook de prijs en OC baarheid
Volgens mij is het niet zo erg als het IRQ met bijvoorbeeld een netwerkkaartje gedeeld wordt. Als je de mogelijkheid hebt om het IRQ van de videokaart niet te laten delen, moet je dat altijd doen. Maar geluidskaarten willen ook wel eens moeilijk doen met IRQ delen.

En er zijn toch nog wel mensen die veel PCI kaarten ingebouwd hebben, denk aan:
--> TV Kaart
--> Geluidskaart
--> Netwerkkaart
--> SCSI kaart
--> Extra PCI Videokaart

Daarnaast kost een USB / Firewire Bracket je ook een PCI Slot.
eh tv kaart ok
geluidskaart valt mee
veel mensen denk ik wel
ike heb soundforce.
netwerk kaart denk ik niet steeds meer mensen gebruiken de onboard netwerk kaart.

en brackets nemen toch niet letterlijk een pci slot in beslag?
heb mijn kabels ervan lekker weg geborgen.

denk zelf niet dat de meeste mensen meer dan 2 of 3 PCI slots echt gebruiken voor een kaart.
(brackets niet meegerekent)
Het klopt dat het ruim voldoende is voor de meeste mensen.

Onboard sound is toch voor veel mensen niet goed genoeg, beetje gamer heeft ook Audigy erin. Laat staan mensen die wat profesioneler werken met geluid.

Netwerkkaart voor diegene die een netwerkje hebben waarbij je vaak toch bij PC tweede netwerkkaart nodig hebt.

Het gaat hier ook om een klein deel van de mensen, maar ik ken er toch genoeg die 5 PCI Kaarten erin gepropt hebben.
ja das waar meesta onboard geluidskaarten zuigen een gat in de muur.
behalve de NForce onboard sound :*)

maar zijn relatief weinig mensen die alle 5 slots gebruiken.
en ik vind als je al 5 PCI slots gebruikt zul je ook met een radeon die niet een giga koeler heeft problemen hebben.
omdat je als je 5 slots gebruikt meestal het slot onder de AGP ook gebruikt wat dus de koeling kapot maakt.
Ik heb al tweemaal een board in handen gehad waarbij PCI slot 1 en 5 een IRQ deelde. Of AGP een apart IRQ had of gedeeld was met ander PCI slot heb ik niet opgezocht..
Als je naar dat witte lijntje kijkt wat rondom de GPU en het GDDR3 geheugen loopt lijkt het erop dat het koelblok en fan van een redelijk formaat zijn.

Zouden de koelproblemen wat meer onder controle zijn?

update 11:07 - het plaatje is bij mij opeens verdwenen :?
update 13:11 - het plaatje is nu veranderd in het nVidia gebouw ;(
Als ik de witte lijn bekijk komen ze op een koelerformaat dat redelijk gelijk is aan hedendaagse kaarten. Ik geloof dat mijn Radeon 9800XT ook ongeveer zo'n koelblok heeft.

De omvang van de koeler over de kaart is niet van zo'n groot belang. Wat echter wel iedereen wil weten of NVidia op het referencedesign weer een "hoge" koeler zal plaatsen zoals we bij de 5800/5900 series wel zagen en waardoor men PCI slot 1 kwijt was.

Ik ben ook zeer benieuwd of NVidia dit keer compleet compatible is met Directx 9. De 59xx serie was dat nog niet helemaal.

Edit: typo
Het verlies van het eerste PCI slot is eigelijk ook niet meer van belang. Ook al neemt de grafische kaart niet het eerste PCI slot in beslag je kun het ook dan beter vrij houden vanwege de koeling van de kaart. En er zit tegenwoordig zo ontzettend veel op moederborden geintegreerd dat bijna niemand alle 5/6 PCI sloten van een moederbord gebruikt.
ja maar met de ATI kaart kon je in het eerstvolgende slot tenminste nog je USB poort kwijt.

verder denk ik dat nVidia de plank mis zal slaan als ze niet ook op de CeBIT met hun nieuwste model komen.

Wat ik verder hoop is dat de drivers (van zowel ati als nVidia) geen benchmarkdetecting software bevatten
In dat geval als je het eerste PCI slot kwijt ben, waar dan de koeler zit, wil je toch het 2de PCI slot vrijhouden om daar dan toch alsnog, net zoals bij de PCI 1 slot situatie, ruimte vrij te houden voor de airflow.
Zo'n slot is in een volle computer een uitstekende plaats voor lage kaartjes, zoals een Realtek netwerkkaartje.
Maakt niet uit of je de 1ste PCI slot kwijt bent want met het BTX formaat kan de koeling van de videokaart niet meer in de weg zitten van de PCI sloten.

Dus nog even geduld en dan kan de koeling van de videokaarten veel groter zonder dat ze in de weg zitten van de andere PC componenten.
Ik heb een Asus gf fx 5900 ultra en kan toch echt ook zo'n usb kwijt. }>
ijdele hoop.. De huidige NVidia drives bevatten immers *nog steeds* benchmarkdetecting software. De enige reden dat 3Dmark NVidia cijfers laat zien, is dat hun laatste patch die benchmark detecting netjes om zeep helpt. Maar de detectie zit er dus nog wel in.

Bij ATI lijken ze op dit moment wel redelijk netjes. Of ze zijn gewoon beter in het onzichtbaar houden. :)
als het goed is zullen ze beiden DX9.1 compatible zijn zelfs.
het verschil met dx9 is dat ze nu pixel shaders 3.0 moeten ondersteunen.
dit is heel programeerbaar op hardware nivo en dat kan dus nog best interestand worden.

als nvidia high-k materiaal gebruikt voor de GPU en ATI low-k dan maken ik me alleen weer wat zorgen om de warmte productie van de nvidia kaarten.
Even ter info: pixel shader 3.0 betekent dus eindelijk hardware bumpmaps :)
dx 9.1 bestaat niet, vs/ps 3.0 is al in 9.0
Huh????

Hardware bumpmaps hebben we al sinds jaaaaaren.
Pixel shaders is juist *per definitie* software.
Maar dan wel software die door de GPU uitgevoerd wordt i.p.v. door de CPU.

Enne.... het dondert niet of dat nu pixel shader 1, 2 of 3 is.
Zo heel groot vind ik dat toch niet.
Zijn kaarten waarbij het bijna de hele kaart in beslag neemt.
Ik denk erger dan hun FX welke 2 slots in beslag nam kan het toch niet? :)

Edit: Kaap was me net voor
Als je al ziet wat de 9800XT moet kosten, rond de 600 Euro, dan zal deze kaart wel iets duurder worden, mede omdat Nvidia nog wat verlies goed te maken heeft. Verder moeten we denk ik maar even afwachten hoe de kaart presteert, voorlopig heeft Nvidia nogal wat diskrediet opgebouwd.

Ik vind deze nieuwe generatie chips nog niet zo bijzonder, de nieuwe modellen presteren vaak niet veel beter dan de vorige generatie. Hoeveel % winst, 15, hooguit 20 ? Dat is de uitgave niet waard. @ genratie's overslaan komt meer in de buurt voor echte performance winst, maar goed, dat is mijn ervaring.
Hoe kan je zeggen dat deze generatie niet interessant als je de feature-set nog niet weet.

PS / VS 3.0 lijkt me erg interessant iig...
Zoveel verlies heeft nvidia niet goed te maken, op de belangrijkste markten (budget en mid-range) heeft nvidia nog steeds interessantere producten dan ati, daarnaast is ati de laatste jaren structureel duurder geweest met zijn high-end modellen dus ik verwacht niet dat nvidia de nv40 nog duurder gaat maken (iig zeker niet wanneer het performance verschil niet al te groot zal zijn)
Nog even over de twee DVI: voor sommige mensen kan dit een beperking zijn, want DVI gaat meestal maar tot 1600x1200.
Klopt, het wordt tijd voor een nieuwe DVI standaard die hogere resoluties aankan. Er zijn nu nog niet veel consumer TFTs die 1600x1200 aankunnen, laat staan dat er behoefte is aan hoger, maar tegen de tijd dat deze chips gemeengoed worden zal dat wellicht veranderd zijn.
BTW: resolutie heeft weinig te maken met lettergrootte, je kan op 1600x1200 best leesbare letters hebben als je alles een beetje normaal instelt (het nadeel is dan wel dat er weer minder tekst op je scherm past, maar plaatjes hebben dan nog steeds een mooie resolutie)
Ja en? Waarvoor zou een normale gebruiker 1600x1200 gebruiken? En uberhaupt nog meer?
Naar mijn weten kunnen normale TFT schermen helemaal niet zo'n hoge resolutie aan, en bij CRT ook niet
(bijv 17" CRT met dot pitch .26 komt ongeveer uit op
1024x786, fijner kan hij gewoon niet weergeven)

Zelf vind ik zo klein helemaal niet handig, 1024x786 is goed
genoeg, vooral met Linux en 4 desktops (oke, met windows is soms wel handig, omdat alles op 1 scherm gepropt is)
Mmm... Werk eens een week op een GOEDE monitor die 1600x1200x32bpp @ 100hz aankan ...

En kruip dan eens terug achter je belabberde 1024x768?

Je zal moeite hebben om je terug aan te passen.
1600x1200 werkt zoveel beter!
Ik zeg ook niet dat iedereen dat doet. Wel heb ik bijna een 22" CRT die 2048x1536@85Hz draait. Zal ik niet altijd gebruiken, maar soms wil ik het wel gebruiken en dan moet het wel kunnen.
Nog maar een keer reageren dus...

Voor veel gebruikers (waaronder ik) is 1024*768 gewoon te laag.
Beetje multitasking is gewoon onmogelijk met zo'n resolutie!

Dat de gemiddelde computerhobbyist (zeker de 50+ groep) dat nou niet gebruikt wil niet zeggen dat het niet handig is!
Kom maar eens naar mijn 22" buis op 1600*1200 kijken, haarscherp beeld!
Mooi 4 SSH sessies naast elkaar ;)

Het is hoe dan ook niet aan ons om te bepalen "dat we toch niet meer nodig hebben"

"640Kb memory will be enough for all computers" of zoiets was het toch? :)
Het 15" TFT schermpje van mijn Dell Latitude C840 doet 1600x1200 en is perfect om op te werken... als ik op dezelfde afstand van een 17" CRT met 1600x1200 ga zitten is dat niet werkbaar omdat die CRT er niet in slaagt om het beeld zo scherp en stabiel te krijgen... het is echt een kwestie van goed materiaal.
Ja een kwestie van goed materiaal en goeie ogen
de meeste mensen hebben over het algemeen toch hun resolutie op 1024X768 staan want ik vind dat hogere resoluties na 1024X768 niet functioneel zijn,
moet je uren zoeken naar je start knop :P
ik moet zeggen dat het mij vrij on aannemenlijk lijkt dat de meeste mensen maar op 1024x786 draaien omdat jJij dat functioneel vindt,

een grote resolutie is juist functioneler dan een lage aangezien je dan simpelweg meer content/menu's/schermen op je monitor kwijt kan, en als je dan een uur moet lopen zoeken moet je wellicht eens langs de opticien langs om de boel te laten checken, ik ken namenlijk bijna geen mensen die een lagere resolutie van 1280x1024 draaien (op een 15") of 1600x1200 op een 17 of 19"

zelf draai ik altijd 1600x1200 op 2 19" buisjes en dat is een stuk functioneler dan 1x 1024x786.
Beetje kort door de bocht hoor....

Mijn 22" buis draait toch echt 1600*1200 en kan nog hoger.
Met 1024*768 moet ik mijn stoel een meter achteruit rijden omdat de iconen op mijn netvlies in beginnen te branden!

Zelfs mijn laptopje met 15" TFT draait al 1400*1050

Prima leesbaar, werk er de hele dag op.
Moet je ook eens proberen, kun je eindelijk vensters naast elkaar plaatsen :)
Bevendien weet je toch dat je start knopje (meestal) links onder zit, zoeken is dus niet nodig :+ En als je hem zelf verplaatst hebt hoef je ook niet te zoeken, want dan weet je waar je hem heen verplaatst hebt :+
'Funtioneel' bij de thuisgebruiker is waarschijnlijk:
- Goed leesbare tekst ook na vier uur hardcore fraggen met felle kleuren in een donker kamertje.
Dan zien die lettertjes op 1600*1200 op een 17" er niet meer uit.

Ook voor mensen die een bril dragen of hun ogen niet meer zijn zoals ze geweest zijn, ik onder andere, vinden 1280*1024 misschien nog nét te doen, maar naargelang activiteiten en duur, zullen terug gaan naar een 1152 of 1024*786. (17" / 19").

Bij mijn grootmoe daarentegen moet ik spontaan ff achteruitgaan als ik die opstart, 800*600 op 19" |:(
En het contrast is ook zoveel mogelijk naar beneden gedraait voor de ogen te sparen.
(Beetje tunen aan derest, en het 'compenseert' wel.)

Zij moet dan ook geen x-aantal boxen en terminals hebben openstaan om haar IO life te volgen ofzo ;)
Het ziet er naar uit dat het geheugen gekoeld gaat worden door hetzelfde koelblok. Dat betekend dat passieve zalman koelers dus niet meer werken, jammer als dat het geval is.
onder de koeler is nog wat ruimte over.
daar kan je eventuween een eigen koelblokje op plakken. werkt vrij goed namelijk
als je een lage pakt (en die eventuweel iets bij schuurt) moet hij er makelijk onder kunnen.

daarnaast hebben geheugen moduels extra koeling meestal niet echt nodig.
Wat is dat nu precies voor kaart die op dat plaatje te zien is? Volgens het artikel heeft nog geen enkele fabrikant NV40-samples ontvangen en bij mijn weten maakt nVidia zelf geen kaarten. Dus waar komt de kaart op de foto dan vandaan? Of zou dat een implementatie van het reference-design van nVidia zijn?

/edit: shikora7, bedankt voor de informatie, hoewel daarmee natuurlijk nog niet vaststaat dat het plaatje waar we het hier over hebben ook daadwerkelijk zo'n kaart is.

/edit2: das lekker, haalt de nieuwsposter zonder extra informatie het plaatje weg, waardoor deze hele discussie meteen offtopic is
Ik was gisteren een review van de Asus V9980 op Firingsquad.com aan het lezen en daar stond het volgende stukje:

As you probably know, NVIDIA technically doesn't manufacture its own boards. We use the word "technically" because they actually manufacture quite a few graphics cards via their manufacturing partnership with Flextronics, who also manufacture their Xbox parts. If you've read a few of our reviews, then you should know that these boards are sold at retail by their board partners BFG, eVGA, and PNY, although a few other board partners will also participate from time to time. These boards are strict reference designs since they essentially are coming straight from the mother ship (NVIDIA).

Heb je meteen antwoord op je vraag. ;)
Het is onzin om te zeggen dat deze kaart meer dan 600 euro zal gaan kosten. De Geforce 4 kaarten waren bij hun introductie ook al rond de 600 euro, net als de kaarten erna. Een 9800XT kun je nu al voor 479 euro kopen. Je kan natuurlijk altijd een maandje wachten met aanschaffen, dat scheelt ook altijd wel een 50-100 euro!
De GeForce4 heeft nooit 500eur of meer gekost, dat waren de GF2Ultra en de GF3 bij launch. De Ti4600 is gelanceerd aan pakweg 400eur.
Ehm heren, dit is een mock-up van een NV36 (aka GeForce5700 (Ultra)) van Micron waarin ze die mooie GDDR-3 (die NV36 ondersteund) chipjes laten zien (waarom anders stickertjes op 't RAM).

Deze kaart heeft dus absoluut niks met NV40 te maken.

Gegroet,
'k Lees hier dat R420 waarschijnlijk ook een tape-out heeft gehad.

http://www.xbitlabs.com/news/video/display/20040113140143.html

@ JoHn DoH: 5 of 6 GPU's?! Graag bron specificeren of anders niet zo als 'n kip zonder kop praten. NVIDIA heeft sinds jaar en dag drie lijnen GPU's; low-end (huidige NV34), mid-range (huidige NV31 / NV36) en high-end (huidige NV35 / NV38)...
Wat een load of crap idd dat die 9800xt 600 euro kost en dat de nieuwe kaarten waarschijnlijk nog duurder worden...

Alleen bij de SUPERdure zaken is tie nog zo duur en zelfs de duurst van alle 9800xt's (de asus) is nog maar 479 euro. (Behalve dan die gare limited edition met cardreader en koffertje :s)
En dan nog te bedenken dat die nieuwe kaarten pas over 3-4 maanden in de winkel liggen als die 9800xt nog maar 400 euro of minder kost.

@Wouter Voorlopig heeft The Inquirer wel altijd de scoops en dat kan ik van Tweakers niet echt zeggen. Ik volg wel meer van dit soort sites en als je kijkt naar een Xbitlabs en Inquirer moet ik zeggen dat Tweakers haar nieuws meer daarvandaan haalt dan andersom.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True