Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 14 reacties
Bron: AnandTech

Anand heeft besloten de verwarring (die hij zelf veroorzaakt heeft) wat te verkleinen en heeft aan nVidia gevraagd wat nu de releasedate van de NV20 is. AnandTech veroorzaakte wat onduidelijkheid nadat zij zeiden dat de NV20 was uitgesteld tot voorjaar 2001, waarop anderen weer protesteerden dat dit niet zo was, etc. Het was in principe logisch te veronderstellen dat de NV20 was uitgesteld, aangezien nVidia de GeForce2 Ultra ineens tussendoor gereleased heeft.

Het antwoord dat Anand rechtstreeks van nVidia kreeg luidt: 4 tot 8 maanden nadat de GeForce2 Ultra gereleased is. Volgens Anand klopte zijn bewering dan ook:

The average of those two numbers is 6 months which places the NV20 as a Spring 2001 product.

Klinkt duidelijk. Lees de rest hier. Met dank aan hjs voor de tip.

Moderatie-faq Wijzig weergave

Reacties (14)

Het zal er wel aan liggen wanneer ati met een raedon MAXX komt. Want op dat moment zijn ze niet de snelste meer en releasen ze de NV20 om weer voor te lopen.
Ik denk dat het ook meetelt wanneer de Matrox G800 Fusion (Ook twee chips) uitkomt. Ik denk dat er in een korte periode 3 hele snelle kaarten uitkomen.

Ik wil alleen niet weten wat dat moois allemaal moet gaan kosten...

NV20
Radeon Maxx
G800 Fusion (Nog weinig over bekend, maar dat is vaak zo bij Matrox)
Daar ga je wel heel makkelijk uit van dat de nv20 ook echt af is.
Eerst zien etc.
De prijs gaat inderdaad gelijk op met de geheugenprijs, waar helaas niks vanaf gesnoept kan worden (dit blijft duur).

De TNT was al heel wat met 16 MB, de GeForce 1 komt standaard met 32 MB en de Geforce2 (Ultra) met 64 MB videoRAM... En das duur spul dat geen dollar goedkoper wordt.

Misschien moeten ze eens wat efficienter met het geheugen omgaan, want als de NV20 standaard met 128 MB geheugen uitgerust worden ( :r) dan kun je er vanuit gaan dat dat ding inderdaad zo'n 1500 piek gaat kosten.
En vergeet de DDR moederborden ook niet die er ook aan zitten te komen.

* 786562 Bob
Een half jaar? En de videokaarten zijn nu al de beperking bij een beetje snelle CPU.
Het is te hopen dat dit
NVIDIA’s equivalent of ATI’s HyperZ technology that allows for very efficient memory bandwidth usage
gaat werken en
insane amount of memory bandwidth which would be courtesy of its ‘borrowing’ some techniques from tile-based rendering architectures
in de NV20 verwerkt gaat worden.
Het is een beetje belachelijk hoe snel Nvidia op het moment met zijn videokaarten uitkomt. De 64 MB GF2 is nog 1000 gulden en nu komt de Ultra eraan. Gaat nog duurder kosten. Ben benieuwd wat die NV20 dan gaat kosten 2000 gulden? En kom nou niet met het verhaal dat de kaarten dalen in prijs want na de komst van de Geforce2 is de Geforce 1 ook amper in prijs gedaald. En dit hadden we toch met z'n allen gehoopt. Nee slechte zet. Processoren blijven maar dalen terwijl de grafische kaarten zo'n beetje in prijs stil staan. Zelfs de die hard tweaker vindt het de moeite niet waard om telkens te upgraden.
Processoren blijven maar dalen terwijl de grafische kaarten zo'n beetje in prijs stil staan
Nou, was het maar stilstaan !

Bij iedere introdructie van de volgende kaart is die stukken duurder dan de introdructieprijs van zijn voorganger !

Kijk maar eens naar de prijzen van TNT -> TNT2 -> Geforce -> Geforce 2.

Bij iedere stap is daar minimaal 30$ bovenop gekomen...
Hmz,
Maar het is toch zo dan cpu's en alles duur is omdat ze de research kosten er uit willen hebben...want een cpu...alles wat erop zit kost echt niet zoveel geld toch die onderdelen ?

dus wanneer er veel gf2's worden verkocht zal de prijs ook sneller dalen...miscchien hebben ze de gf2 dan tesnel uitgebracht..
Zo ver ik weet is vooral het geheugen de grote bottleneck. Dit houd de prijzen van de bestaande nv10/15 kaartjes aardig prijzig denk. Ook het simpele vraag/aanbod geld natuurlijk. De meeste bedrijven vinden het helemaal niet erg om hun huidige 2-3e generatie kaartjes aan de simpele gebruiken kwijt te kunnen. De mensen die perse op die-hard games zijn gericht zullen over het algemeen toch wel happen. Ik wacht persoonlijk ook op de nv20 terwijl ik het nu nog moet doen met `maar` een tnt2u. Ik zou best wel eens een vergelijkings grafiekje zien van de prijsdaling van bv de tnt2u tegen de nv10 tegen tijd uitgezet.
Voor mij (en m'n portemonnaie) zijn deze snelle opvolgingen een reden om juist géén hVidia kaart te kopen; heb je steeds het gevoel dat je weer achter de feiten aan loopt en ben ik geneigd mijn beurs weer n's te legen. Met een Matrox kaart doe ik veel langer (hoewel het wel snel stuff is die hVidia kaarten en ik erg in de verleiding ben geweest). Maar dan wil ik ook echt het nieuwste, en meer dan een mille voor een videokaartje? Waanzin, da's de helft van m'n monitor!! (ik wil ze overigens niet de kost geven die een duurdere vga-kaart hebben dan hun monitor in aanschaf was/is)
Met de huidige Geforce 2 GTS merk je op dit moment bijna niet het verschil met de 64 mb en de 32 mb versies. Nvidia's kaartjes sinds de Geforce 1 worden allemaal wel sneller maar in
de huidige games komt dat niet door al die opties zoals T&L en Shading enz. Ok, de GeForce 2 GTS is de snelste voor games maar
niet door al die foefjes waar Nividia reclame mee
maakt. En dat is al sinds de eerste Geforce en
eigelijk al sinds de TNT 2 met die Stencil buffer
die in geen een game een vereiste of wat is.
Conclusie: Nividia doet aan geldklopperij maar aan de andere kant,die kaarten van hun worden wel degelijk sneller en dat merk je in de games wel.
VIA ? Ik werk hier mee een VIA - moederbord en die presteert slechter dan m'n systeem thuis (Intel BX-moederbord). Thuis zit ik met een PII 450, op werk met een PIII 500. Als ik benchmarks draai van bv Q3 dan presteert ie thuis een stuk beter, dan op het systeem op het werk (met de zelfde videokaart, beide op een schoon systeem). Collega van me komt het zelfde tegen en die werkt ook met een PIII500 en dezelfde videokaart op een Intel moederbordje.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True