Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: VC-News

Volgens VC-News zal nVidia op 26 februari, een dag eerder dan volgens de gangbare geruchten, de GeForce3 GPU aankondigen. Dit zal gebeuren tijdens een groot feest op Cebit. De dag daarna wordt de NDA opgeheven, vanaf dat moment mogen reviews van de kaart geplaatst worden en mogen fabrikanten hun kaarten aankondigen. Er zijn dus al websites die GeForce3 samples hebben liggen . De GeForce3 (ook bekend onder zijn codenaam NV20) heeft volgens de laastste geruchten onder andere een verbeterde T&L engine, hidden surface removal en drie texture units per pipeline. De eerste kaarten zullen draaien op 200MHz met 64MB 460MHz geheugen, maar er worden ook Pro en Ultra versies verwacht:

Here is the real scoop on the Nvidia GeForce3 video card. The rumors about it being official on the 27th of this month is true, but the real unveiling of the chipset known as the NV20 will happen on Feb 26th at the announcement party.

[...] So there you have it. The unveiling of GeForce on monday night the 26th, and the lifted NDA which you will start seeing previews of the reference board on tuesday. Want to talk about it more? Head to this link here and converse amongst other readers in the VC-Forums.

GeForce3 logo
Moderatie-faq Wijzig weergave

Reacties (50)

Het is nogal klinkklare onzin dat de prijs van 1500,- gerechtvaardigt is vanwege de complexiteit. Er zijn tig chips & controllers van dezelfde complexiteit als de GeForce3.

Persoonlijk krijg ik een beetje een zure smaak in de mond van nVidea de laatste maanden. Ze bouwen nu al de derde (eigenlijk al 5e) chip gebasseerd op hetzelfde ontwerp. De 2D beeldkwaliteit is nog altijd minder dan concurenten & van de T&L ondersteuning zie ik nog steeds erg weinig terug (al kunnen ze daar misschien niet zoveel aan doen ; is een taak van de softwarehuizen).

Dus wat is dan het nut van die kaarten ; puur de consument weer iets nieuws voorleggen. En je ziet hoe de prijzen zijn opgelopen zie je dat de mensen ook nog zo stom zijn om voor die paar fps meer honderden guldens meer neer te leggen dan strikt noodzakelijk is (ik weet dat dit een non-tweaker uitspraak is :) ).

Ik ken nog zo'n bedrijf wat al jaren teert op dezelfde technologie en constant er een klein beetje bijvoegt en verkoopt als nieuw. Weet iemand waar ik het over heb ?

Nou, nVidea heeft nu de markt in handen en hebben minder concurentie gekregen de laatste paar jaren. Hopelijk misbruiken ze dat niet zo als 3Dfx dat heeft geprobeerd. Als dat wel gebeurd wens ik nVidea hetzelfde lot toe :(
Er zijn tig chips & controllers van dezelfde complexiteit als de GeForce3
Je praat wel over 60 miljoen transistors hier, dat is onderveer evenveel als een Pentium 4 en een Itanium samen. Een groot deel van de prijs zit trouwens ook in het geheugen, 460MHz DDR wordt nu eenmaal niet met bakken tegelijk gemaakt.
60 millioen transistoren -hoef-t niets te zeggen over de complexiteit van de CPU, meer over wat voor design ze hebben gekozen. De illusie in de wereld is juist dat meer complexer is terwijl het net nu andersom is. Hoe minder transistoren hoe beter het ontwerp & hoe complexer dus. Het verbruik is dan ook gelijk minder.

Veel bedrijven ontwikkelen soms hun chips eerst in een meer count aan transistoren en gaan dan re-designen

In vergelijking met Pentium & Itanium zit je misschien niet goed met de vergelijking. GeForce heeft een heel groot gedeelte als pure hardwired software. De T&L engine is daar een goed voorbeeld van.

Voorbeeld van de nieuwe Sony engine waar Dram aan boord zit. 287.5 miljoen transisitoren....gewoon vanwege die shit die eraan geplakt zit.

Qua complexiteit zit de GeForce gewoon aan een TNT2 vast met wat hardwired blokken voor de eerder genoemde zaken. Tuurlijk stel ik het allemaal wat simpel en hebben ze extra pipelines toegevoegd & allerlei andere features...maar veel van de experts geven toe dat het cut& 2x paste is geweest.

Dat is in mijn ogen niet veel complexer dan een GeForce, een ATI of oudere kaart van nVidea
De GeForce3 maakt niet meer gebruik van simpele vertex buffers als T&L engine. nVidia heeft een eigen programmeertaaltje ontwikkeld om ontwerpers meer vrijheid te geven Hier lees je daarover meer informatie.

Het gebruik van de oude basis is heeft veel voordelen, waaronder kortere ontwikkeltijd en betere compatibiliteit. De nadelen zijn dat je op een gegeven moment tegen beperkingen oploopt, in zo'n geval kan een bedrijf twee kanten op. 1) opnieuw van scratch beginnen en 2) allerlei workarounds en patches verzinnen. Maar je hoeft niet altijd in zo'n korte tijd aan de grens van een architectuur te zitten, Intel doet het ook al jarenlang met P6 en zelfs nu P7 er is zal het nog wel even duren voordat P6 helemaal verdwenen is.

De overstap van GeForce naar GeForce2 naar GeForce2 Ultra stelt inderdaad niet veel voor, maar NV20 is dermate uitgebreid dat ik nVidia niet kan beschuldigen van het verkopen van overgeklokte oude modellen.
Alle grote nieuwe generatie spellen maken volledig gebruik van t&l om complexe scenes mogelijk te maken

bv. unreal 2 engine (epic heeft daarvoor zelfs een contract met nvidia)
doom 3 engine
littech
etc...

Daarnaast heeft men bij nvidia gezegd dat de gf3 nieuwe ramdac filters bevat voor betere beeldkwaliteit
Ja dat bedrijf is microsoft,
vergelijk windows 98 (of second edition) maar eens met windows 95 of zelfs WindowsMe,
het grootste verschil is :

-enkele nieuwe gatget progjes
-betere layout
-betere hardware detect programma

Maar de kernel? Die is bijna niet veranderd sinds windows95, eigenlijk is het opstarten alleen maar steeds trager gegaan, en windows alleen maar groter wat betreft capaciteit in MB's. Steeds meer onnodige troep die je ook 1x in het jaar gebruikt. Maar ze vragen er wel telkens weer F200,- (oem versie) voor. Omdat ze anders hun hoofdproduct verwaarlozen (de oude versie dus) waardoor ze minder winst zouden maken.

Betreurend allemaal, maargoed, wat moet de gemiddelde consument gebruiken, in zijn omgeving (voor lan's bijvoorbeeld) is windows nog altijd toonaangevend en veel compatibeler. Tjah de keuze is niet zo moeilijk als je geen zin hebt om je te verdiepen in je besturingssysteem.

Sry dat deze message offtopic is, maar ik moest echt even replyen, excuus voor het evt. ongemak.
Hoe zit het eigenlijk met de beeldkwaliteit in 2D van de GeForce3, is daar al wat over bekend? De huidige GeForce 2 laat daar nl. behoorlijk wat steekjes vallen, zeker gezien z'n prijs :( Licht wazig beeld en trillende letters bij 1600x1200 op 85Hz of hoger is geen uitzondering (en die resolutie is al niet eens zo bijzonder meer). Ik hoop dat nVidia daar wat meer aandacht aan heeft geschonken, anders betaal je toch geen 1000 piek of zoiets voor zo'n kaart?
Helemaal mee eens (zelf een trotse g400 dualhead eigenaar :Y) )

Eigenlijk is de GeForce2 dus alleen geschikt als addon-kaart voor spelletjes }> }> }>
addon-kaart
1. Sins de tijd van Voodoo 1&2 zijn er al geen add-on kaarten meer dus dat zal het wel niet worden..

2. Niemand heeft nog maar iets van de GeForce gezien.. in real dus zodat je de beeldkwaliteit kan zien en ze beginnn er al over dat 2D slecht is..

* 786562 Rene
Absoluut,
deze kaarten zijn duidelijk voor 1600x1200 en hoger gemaakt (GF2Ultra liep quake3 alles hoogst 32bit texture detail hoogst etc.) al met 52 fps in timedemo met de 1e officiele demo.

En dat draait dus al "vet", maar als die kaarten voor 1600x1200 en hoger zijn gemaakt, dan zouden je daar juist de kwaliteit omhoog moeten gooien. Want juist in high res is de GF2 (en vriendjes) altijd al de minderen geweest.
Ik denk niet aan hogere resoluties bij dit soort kaarten, maar juist aan meer detail. Ik denk namelijk niet dat dit erg lekker zal lopen op een GeForce2 :)
Ik heb zo'n interview gelezen met een nvidia pr gast en deze beweerde dat er nieuwe ramdac filters in zaten. Voor dit goedje hebben ze bij nvidia namelijk ook wat matrox lui weggekocht
Hier lijkt me een MX versie wel interessant van. }>

Hopelijk komt er ook zo'n versie, betaalbaar en toch weer wat sneller (en nieuwere technieken) dan de Gefoce2 MX.....

Is hier nog geen info over bekend?
Beschouw binnenkort de GeForce2 GTS maar als de MX versie, deze zal denk ik erg gaan zakken in prijs en voor zo'n fl 400 wel te koop zijn.
Je mist dan wel de nieuwe funties van de GF3.. maar dat is wel vaker met een MX achtige variant, kijk maar naar de Radeon LE, deze heeft geen HyperZ ondersteuning.
Mwa ik koop er een over een jaar misschien. Voorlopig te duur. Als de prijs geruchten kloppen. Ook eerst maar eens afwachten of de geruchten over de prestaties kloppen, maar we zullen het snel weten :9
Ik vraag me eerlijk gezegd een beetje af of er op dit moment al een markt is voor videokaarten van meer dan 1500 piek :(.
Toen ik mijn GTS 2 32 MB kocht, lapte ik zo'n 600 piek. Vond ik veel, heel veel. En dat terwijl ik niet beroerd ben om veel aan compu-spullen uit te geven....
Bovendien, er zijn nog maar weinig spellen die op dit moment gebruik maken van 64 MB videogeheugen. Tuurlijk, dit zal in de toekomst zeker gaan veranderen, maar kun je dan niet beter wachten tot de toekomst? Prijstechnisch sowieso wel, maar ach, er zullen ongetwijfeld freaks zijn die zo veel pieken neertellen voor de Geforce3.

Marketing technisch erg slim van nVidia: ze bevestigen hun technologische superioriteit t.o.v. de concurrenten, suggereren met de naam Geforce 3 een enorme technische vooruitgang en voila: hun positie als marktleider is weer bevestigd, dan wel versterkt.
Toch opmerkelijk snelle releasedatum wanneer je bekijkt hoe lang de Geforce2 nu feitelijk op de markt is. Kijkend naar de performance van de GF2, staat deze nog steeds bovenaan in de benchmark tests. Ik vraag me af wat de filosofie is om nu toch alweer verbeterde technologie uit te brengen. :?

Overigens: voor zover ik kan zien is de NV20 niet veel meer dan n GF2 met wat extra's. Vraag me af of dit qua performance echt veel zoden aan de dijk zet, zeker gezien de verwachtte prijs. Ik denk daarom ook dat de GF2 kaarten voorlopig niet enorm goedkoper worden; ze maken de nieuwe techniek gewoon NOG duurder.... :(
Door de GeForce 3 nu al op de markt te gooien geven ze zichzelf
- dikke winst van gekken die m kopen
- ver voorsprong op de concurrentie (ATI zal nu toch snel met versie 2 van de Radeon moeten komen)
- Tijd om wat langer te doen over een opvolger van de Geforce 3

NVidia staat er dus gewoon :*) voor, al hoop ik dat de concurrentie snel komt (zodat de prijzen wat omlaag gaan)
Denk je niet dat ze de R&D kosten er nog uit moeten halen, als ze er 300,- op winst zouden hebben gaat dat per kaart af van die half miljard R&D kosten
Als nVidia met de NV20 ook een soort van kyro trukjes heeft toegepast dan is toch wel heel veel mogelijk zit niks anders op dan te wachten op benchmark/reviews.
ze moeten echt met meer kwaliteits technieken komen en natuurlijk bandbreedte besparende technieken zoals tile-based rendering. ik denk dat ze dat in de geforce 4(of een nieuwe naam) gaan zetten omdat ze veel technologie van 3DFX hadden, dan nog de FSAA methode van 3DFX in de geforce 4 en het geheugen kan weer op 200mhz DDR. maar jah dat zal wel niet omdat ze geld willen verdienen :( oh en kaarten zijn nu zo duur puur door het geheugen maar dat is al 100 duizend keer gezegd
Waarom maken ze dan geen kaarten waar je zelf je geheugen in kan proppen.
En waarom duur vanwege het geheugen??
Geheugen is nu spotgoedkoop. 128MB Infineon (of hoe dan ook) is 177,-
Je maakt gewoon het slotje aan de achterkant. Zodat de kaart niet de hoogte ingaat maar de breedte en lengte.
Het probleem is dat 460 MHz DDR RAM high-tech stuff is. Die Infinion is low-tech in vergelijking.

Ik zit eigenlijk te wachten totdat iemand een progje schrijf waarmee je de overtollige MB's op de videokaart kunt gebruiken ipv de swap-file bv.
Ja. Maar maak mij maar wijs dat een chipje van 256 MB 460Mhz DDR chip maar F300,- kost,
dan heb je normale sdram op 133Mhz ja.

Die is zou een supergrote bottleneck vormen in videokaarten, het 233Mhz DDR geheugen is zoieso als bijna 2x sneller, en het heeft nog een dubbele data rate ook (effectief dus 460MHz). En die kosten al snel F1000,- voor 256 MB hoor. De GPU zou niets kunnen met dit gehugen en zou enorm worden tegengehouden door deze bottleneck van 128MB 133MHz SD-RAM.

Niet echt om op een kaart te zetten, en "wat extra 233Mhz DDR-SDRAM (effectief 460MHz)" maakt de kaart al snel NOG duurder dus bijna boven de F2000,-als je het over de GF3 hebt.

Het normale (Kingston of Infenion) geheugen van 133Mhz SD-RAM is helemaal niet meer geschikt voor high-end game kaarten als de geforce 1/2/3 series. Anders zou er nu allang 128MB op zitten (hoewel dat helemaal niet nodig is voor 1600x1200 echt veel versnelling krijg je alleen in bv. 2048x1440).

Dus de vergelijking die je maakt met normale, is niet zo praktisch denk ik.

Daarmee kom je trouwens weer op een ander punt, hoe willen ze Ultra versies gaan koelen (eerst 460MHz wat bij de GF3-Ultra? 550MHz?). Zeker een koelblok MET fan nu per geheugenchip? Dat zou wel grappig zijn om te zien. En waarom 128MB? 64 is toch al voldoende voor 1600x1200, tenminste dat kun je wel zien aan de benchmarks van de 64MB GF2's.
Snelheid van het geheugen zal de bottleneck eerder verkleinen.

Dus maar afw8en op de GF3 die in de vakantie komt! En ik ben reuze benieuwd over de benchmarks, want ik vraag me af met welke technieken (buiten de 60mil. transistors natuurlijk) ze deze kaart zoveel sneller willen maken dan de Gf2-Ultra.
Ik zit eigenlijk te wachten totdat iemand een progje schrijf waarmee je de overtollige MB's op de videokaart kunt gebruiken ipv de swap-file bv.
Kun je lang wachten denk ik zo.. een reepje van 256 MB kost je maar 300 piek. Waarom dan zo moeilijk gaan doen over die 64 MB? Buiten dat is het denk ik niet echt mogelijk om dat voor elkaar te krijgen...
Was ook meer een ideetje. Windows wilt altijd een swap file, ook al heb je 256MB geheugen. Het zou toch leuk zijn als je bv. 48MB van je videogeheugen dat je onder 2d Windows toch niet gebruikt als swap kunt gebruiken. Hmm, ik bedenk me nu ineens dat ook alle spellen onder windows draaien. Niet erg doordacht idee dus :)
Niet praktisch,
ze zijn nu superhard bezig het geheugen qua bandbreedte volledig te benutten en te tweaken.

En wat doe jij? Je zet er maar supertraag (voor videokaarten) 133MHz SDRAM in? Dat is een supergrote bottleneck in de videokaarten en dus nite praktisch. Als jou alternatief zo praktisch was zaten we nu allang met 128MB 133Mhz SDRAm kaarten, want zo door is het geheugen niet.

Maar het is dus veel te traag.
GeForce3 1500,-? hoeveel zal dan die Geforce3 Ultra kosten :? :? :? :? :? :? :( :( :( :( :( ;(
tegen de tijd dat de Ultra uitkomt zal de gewone hopelijk de 1000 gulden grens doorbreken (naar beneden dan }>), en de ultra zal dan waarschijnlijk 1800-2000 gulden betalen, waar je al een aardig bugdet systeem voor kunt krijgen.
Eerste aankondigingen zijn $580-600 voor de "basic" uitvoeringen (wel 64Mb maar dat kost nix meer tegenwoordig .. alhoewel DDR high end)
600x2.40 = 1440 (en in Nederland + 250/300 piek) ..
Het is toch logisch dat die kaarten zo duur zijn? De graphische processoren zijn nu de CPU's voorbij gestreeft qua complixiteit! Dan is het toch logisch dat je dat ook weer terug ziet in de prijs. En ik denk omdat de wet van moore ongeveer een factor 6x (complexiteit) sneller gaat als bij de cpu's het ook logisch is dat de prijs niet echt stabiel zal blijven, maar zal oplopen.

Dan heb ik het nog niet eens over het dure hoge kwaliteitsgeheugen wat op die kaarten moet. Wat dus al bij de laatste generatie 64MB zal zijn. Dat is al minimaal een kwart van de prijs.

En ja dan nog blijft het duur, maar ondertussen is een grafische kaart al voor meer dan 50% (als het niet 75% is) verantwoordelijk voor de performance in spellen. Koop maar eens een huidige pc en zet er een simpele trident kaart ofzo in en vergelijk het resultaat dan met een laatste generatie geForce.

Ik ben zelf heel benieuwd wat de volgende stap wordt.Vorige grafische cpu's konden heel makkelijk snel upgraden door gebruik te maken van beschikbare technieken, maar nu zit de laatste geforce3 toch echt aan de huidige grenzen van de techniek (een andere reden waarom ze steeds duurder worden).

Het zal me niets verbazen als de volgende generatie (geforce4) niet echt veel sneller zal zijn of fors duurder (vanwege extra research naar nieuwe technieken: sneller ram, etc.).
Koop maar eens een huidige pc en zet er een simpele trident kaart ofzo in en vergelijk het resultaat dan met een laatste generatie geForce.
das net zo'n kromme vergelijking als een GF3 op een 386 zetten
videokaart is idd een groot deel van de performance in (3D) games, net als cpu, ram etc etc
maar om nou zo'n vergelijking neer te gooien lijkt me wat nutteloos
Wat ik probeerde te zeggen, is dat de huidige generatie videokaarten een enorme performance impact hebben, misschien wel de meeste impact van alle onderdelen in een computer.

Ik heb toch het idee, dat vroeger de impact van een grafische kaart minder was. Toen werd alles door de cpu gedaan, nu wordt er steeds meer door de grafische kaart gedaan.

Ik kan me voorstellen dat in de toekomst (gokje: 5 jaar) de GPU zo belangrijk/snel is, dat het eigenlijk niet meer zo uitmaakt wat voor cpu erin zit. Je ziet het nu al dat de vraag naar cpu kracht afneemt. Ik zit nu nog steeds met een 333Mhz cpu en ik merk alleen bij enkele spellen (bijv. Deus Ex) dat ik tekort kom. Nu wordt de GPU nog niet zo goed gebruikt en er is nog het probleem van de bandbreedte naar de GPU (AGP16x anyone?). Maar als die problemen zijn opgelost....

Trouwens je ziet het al aan de Xbox, daar stoppen ze maar een 733Mhz cpu in (oke, waarschijnlijk ook om de kosten te drukken), maar daar hebben ze het bandbreedte probleem opgelost (dacht ik).
Hebben jullie toevallig ook niet zo'n sample liggen ?
Volgens mij wel...anders zouden ze er geen :P achter hebben gezet. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True