Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 19 reacties
Bron: X-bit Labs

Onze collega's van X-bit Labs hebben de hand weten te leggen op een reference designkaart gebaseerd op nVidia's NV31-core. Natuurlijk zijn ze bereid om hun bevindingen met ons te delen. Een groot voordeel van de NV31-kaart is dat hij geen PCI-slot zal gaan innemen, aangezien hij niet het enorme en luidrichtige koellichaam zal hebben dat we eerder zagen. Helaas integreert nVidia de TV-out- en VIVO-controller nog altijd niet in de GPU, zoals ATi al een tijdje doet. Verder zullen alle NV31-kaarten meer monitors kunnen voorzien van beeld, dankzij de nView-technologie. De kaart, gebaseerd op het reference design van nVidia, heeft de beschikking over D-Sub-, DVI-I- en TV-out-aansluitingen. Verder zal er gewoon gebruik worden gemaakt van DDR-I-geheugen, wat de kosten ten goede komt:

nVidia GeForce FX logoThe PCB design of the novelty is not too complex, hence, I believe there are not going to be a lot of problems with building the GeForce FX 5600 powered solutions. Therefore, at least, such products will not be too expensive.

Specially for all those who disliked the power connector even on the RADEON 9500-based graphics cards, NVIDIA installs it on the GeForce FX 5600 in order to improve stability of this power-hungry beast.
Moderatie-faq Wijzig weergave

Reacties (19)

erm, speciaal voor alle mensen die een hekel hadden aan de powerconnector op de ati 9500, heeft nvidia er ook maar eentje erop gezet ??

huh, of lees ik hier nou iets verkeerd :?
tja.... misschien probeert X-bit Labs sarcastisch te zijn? in de trend van "je gaat er niet aan ontsnappen, de volgende generaties videokaarten hebben extra voeding nodig!" ??

wat wel een flink voordeel is dat het ding niet zoveel plek in neemt, en je dus niet een PCI slot moet opofferen voor het enorme koelblok.
Om hun "sarcasme"wat te verduidelijken hadden ze er wel een plaatje bij kunnen zetten van dat kaartje. Voor een website die een reference design kaartje heeft is het artikel een beetje magertjes imo. Het is meer een opsomming van features en eigenschappen.

Als je dat ding dan hebt: benchmarks zouden ook aardig geweest zijn (bv. aantal games/3dmark2k1/2k3) en niet minder belangrijk in het geval van de FX-reeks, temperaturen?
waarschijnlijk rust er nog een NDA (non-disclosure agreement) op de NV31.

Overigens zullen toekomstige kaarten helemaal geen externe powerconnector nodig hebben, want over een jaartje gaan we over naar PCI Express, wat meer dan twee maal zoveel voeding kan leveren...
De R9600 zal geen power connector nodig hebben.

De wonderen van 0.13 technologie :)
Zodra PCI Express het licht ziet op de Desktop moederborden dan hebben we ook geen last meer van stroomtekort :) ATi en Nvidia worden gedwongen door Intel om PCI Express kaarten te gaan maken :7
Inderdaad! Als PCI Express komt zullen de GPU's voor een tijd geen extra voeding nodig hebben.
De laatste berichten over NV31 en NV34 zijn overigens als volgt:

FX 5600 Ultra: 350/350
FX 5600: 325/275
FX 5200 Ultra: 325/325
FX 5200: 250/200
FX 5200: 250/166

Allen maken ze gebruik van DDR1 en de in ieder geval de NV34 zal gemaakt worden op 0.15 micron. Deze kaarten zullen een 'echte' 4x1 architectuur hebben itt de NV30 die een 'nep' 8x1 had en uiteindelijk dus een 'echte' 4x2 bleek te zijn.

Om de kosten nog verder te drukken worden sommige functies op de NV31, waaronder enkele shaderfuncties, softwarematig ondersteund ipv hardwarematig. Op de NV34 zal dit nog verder worden toegepast.

Dit heeft echter geen invloed op de DX9 compliancy, maar zal wel invloed hebben op de snelheid waarmee dit zal worden uitgevoerd (hardwarematig is namelijk sneller dan softwarematig).

Ik heb dan ook het gevoel dat NV34 niet zo'n succes zal worden als de GF4MX reeks.

edit:
Reactie op Whizzy81

GF4MX is wel degelijk een succes. Hoeveel OEM-GF4MX-kaartjes zijn er wel niet in bakken van Dell, Fujitsu, HP, Compaq, Medion, en weet ik veel hoeveel andere merken? Daar is het grote geld te verdienen, en daar hebben de GF4MX kaarten heel erg goed verkocht.

Een tweaker weet dat een GF4MX geen DX8.0/1 ondersteunt en zal daarom eerder een Ti of Radeon kopen, maar daar heeft de OEM-markt schijt aan. nVidia heeft zoveel design-wins voor de GF4MX, dat wil je niet weten. Daar verdienen ze bakken met geld aan. Meer nog dan met de retail verkoop van bijvoorbeeld een GF4Ti4600. En dus is de GF4MX zeker een financieel succes.

Maar zelfs de onwetende retailconsument koopt de GF4MX. Hoeveel mensen zijn er wel niet in de nVidia marketingtruken getrapt? Veel mensen dachten "ohw da's een echte GF4", maar wisten niet dat het eigenlijk een veredelde GF2 was.

Dus ook al is het in technologisch opzicht geen succes, in financieel dus zeker wel. En daar draaide het bij de GF4MX om. Gewoon cashen op een bekende naam.
de GF4MX succces???? volgens mij zijn die mx kaartjes helemaal geen succes, ze missen support voor dx 8.1 en zijn ook zeker niet snel, waar haal jij dat vandaan????
De mx serie was inderdaad niet zo best. Hier ben ik het dus ook niet mee eens
de GFMX is zeker een succes, de meeste winkels zetten nu standaard een gf4 mx440 in hun pc's, hiervoor was het de gf mx2, die is ZEER veel verkocht, veel meer dan de Ti's

de MX serie is een succes in de zin van dat nvidia er zeer veel verkocht heeft, niet in de zin van de kwaliteit
En hoeveel monitors kunnen we daar dan juist op aansluiten?

Trouwens, dat multimonitoring is tof, maar je kan niet op 1 scherm "fullscreen" werken terwijl je op het andere scherm ook nog wat doet. Dat ze daar eens iets aan veranderen...
ze hebben inmiddels ook plaatjes er bij

klik
De kaart, gebaseerd op het reference design van nVidia, heeft de beschikking over D-Sub-, DVI-I- en TV-out-aansluitingen
Klinkt alsof hele kaart vol zit met aansluitingen :?

(sorry, nog niet wakker, dacht ze meervoud van elke aansluiting bedoeld ;))
Dit zal heus niet veel verschillen van wat we tot nu toe gezien hebben van Nvidia. Maar ja, een plaatje van de kaart had wellicht verduidelijkend gewerkt bij dit vrij vage stukje.
Is dit alles? Ze hebben een kaart maar het enige wat ze vertellen zijn de specs. Daarvoor heb je die kaart niet nodig. Hopelijk hebben Anandtech, Tomshardware en HardOCP ook een kaart ontvangen. Want dit was :r .

Weet iemand overigens waarom Nvidia de TVout niet in de chip wil stoppen?
Weet iemand overigens waarom Nvidia de TVout niet in de chip wil stoppen?
Bekijk het anders: komt het nVidia beter uit als ze het in de GPU integreren?
Mmmmh....niet echt veel wijzer geworden van dit stukje. cijfer: 5 (mager)
Ummm,
(quote)
dat multimonitoring is tof, maar je kan niet op 1 scherm "fullscreen" werken terwijl je op het andere scherm ook nog wat doet
(quote)
Ik kan dat wel fullscreen...
ligt mischien aan kaart?
ik heb gainward ti4600 (xp750)

gr mt

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True