Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: Reactor Critical

Volgens een bron van Reactor Critical zou de reden achter het uitstellen van GeForce3 reviews en drivers zijn dat er ernstige problemen onstaan als de kaart in een Pentium 4 systeem wordt geprikt, ooggetuigen melden dat de kaart om de haverklap crashed. Hoewel er geen oorzaak van de problemen is aangewezen heeft nVidia wel aangekondigd dat de drivers van de GeForce3 voor de Pentium 4 geoptimaliseerd zouden worden. Blijkbaar is dat door de (gehaaste?) introductie nog niet helemaal gelukt. In het ergste geval is het een probleem met de kaart zelf, bijvoorbeeld een te hoog stroomverbruik. nVidia zit nu in het lastige parket dat het in de winkels verschijnen bijna niet meer te stoppen is:

Probably, NVidia has hastened with the announce of NV20 - it was necessary to wait some time to reinsure from this kind of incidents. It is very funny - a week ago NVidia has informed about Pentium4 and SSE2 optimization for the GF3 GPU, and now it becomes clears that GeForce3 cards can`t work in Pentium4 system properly... I understand, that actually, the drivers, not cards, are optimized, but it it is great when the card simply works It seems, that there is at least one reason not to send GeForce3 samples for rewievers...

[...] In contrast to the previous news, we received a word from a person who works at Electronic Boutique and he has told us, that they expect GeForce3 cards in stock in 2 weeks or less. That means in the twentieth of March. The prices and brands of accelerators are not known.

Moderatie-faq Wijzig weergave

Reacties (47)

Ik hoorde gisteren dat alle GF3 kaarten die tot nu toe gemaakt zijn teruggeroepen zijn naar de fabriek vanwege een fout in de chip.

Wat het precies was kon men mij niet zeggen maar het was in ieder geval zo ernstig dat het niet met een driver of BIOS update op te lossen was. De GF3 kaarten die rond de 20e op de markt moeten komen zijn voorzien van een nieuwe revisie van de chip.

Vandaar dat je tot nu toe ook nauwelijks reviews hebt gezien. De paar sites die tot nu toe een review hebben gemaakt hebben kaarten gebruikt die de fabriek nooit uit hadden mogen gaan + beta drivers. Alle grote sites branden daar hun handen niet aan, vandaar dat Anand, Tom, Sharky (en wij :)) nog geen review hebben.
Zo, dat is een flinke schadepost.
Het is niet te hopen dat er"foute" achterblijven en dadelijk sommige zaken er mee adverteren.
Niks kopen voor de 20e dus, bedankt voor de info Daniel.
God mag het weten hoeveel bugs er in die Geforce3 chip zitten. Het ding heeft iets van 57 Miljoen transistoren toch? Nogal wat marge om er een foutje in te maken......... :)

Ik vertrouw er gewoon op dat de kaarten die uiteindelijk via de OFFICIELE kanalen hier in de winkels komen gewoon goed werken. Eventuele minor issue's worden er in een redelijke termijn 'uitgestreken' met nieuwe driver-updates.
Een nadeel van de PIV borden is dat de chipset 1,5V only is. Dit betekend dus dat de stroom door het moederbord met ruim een factor 2 toeneemt t.o.v. de 3,3V AGP pro sloten. (meer stroom betekend warmere torretjes op het mobo dus mogelijke instabiliteit waardoor de spanning niet constant blijft en de GF3 crashed)
Dus een power probleem lijkt me niet ondenkbaar, aangezien de enorme hoeveelheid aan transistoren op de GF3 chip.
Wellicht wordt het ook voor nVidea tijd om een externe power-supply a la 3dfx bij de kaarten te gaan leveren. Dit komt IMO de stabiliteit van het hele systeem ten goede. Als er immers fluctuaties in de stroomvoorziening zijn zal dit niet alleen de videokaart beinvloeden, maar ook zaken als de processer ed. Daarbij, wat kost een externe PSU nou helemaal, met de belachelijk hoge prijzen kunnen ze zoiets er makkelijk bijleveren. Hoeft nVidea zich ook niet meer het hoofd te breken hoe ze het stroomgebruik omlaag kunnen krijgen.
nVidia Met i dus :)
Misschien begrijp ik je verkeerd, maar wat je zegt lijkt me onzin. Als de spanning lager wordt, dan is het waarschijnlijker dat de stroom die er loopt ook veel kleiner wordt. Dat is net als een CPU die je op een lagere spanning laat draaien. En dan nog: Zelfs als de spanning halveert en de stroom verdubbelt, dan is het vermogen hetzelfde gebleven! Betekent dus niet meer belasting voor de torren op het bord, en dus ook niet meer warmte. Ik snap je redenering niet :?
Misschien dat ik het een en ander kan verduidelijken. Je hebt inderdaad gelijk dat het vermogen gelijk blijft als de spanning gehalveerd wordt en de stroom verdubbeld(P=V*I). Echter, de hoeveelheid "verlies" aan vermogen (die weglekt als warmte) is alleen afhankelijk van de stroom. Daarom transformeren elektriciteitsmaatschappijen hun elektriciteit ook naar een veel hogere spanning bij transport over lange afstanden. Dan is het verlies en de warmteontwikkeling veel kleiner. Als er op de AGP-kaart met een spanning van 3,3 v gewerkt wordt, en op het moederbord met een spanning van 1,5 v betekent dit dat de stroom door het moederbord meer dan 2 x zo groot wordt. Als je hier het bovenstaande meeneemt kun je concluderen dat er op het moederbord dus een grotere warmteontwikkeling is, die dus tot instabiliteit kan leiden.

/edit
Ghe... 2 minds 1 thought!
Vooral dat we allebei die hoogspanningsmasten gebruiken....
Even voor de duidelijkheid, ik beweer dus niet dat een power probleem de oorzaak is.

Electrische stroom wordt omgezet in warmte, dat is gewoon een basis regel van de natuurkunde. Dus hoe meer stroom, hoe meer warmte er wordt ontwikkeld. Dit is de reden waarom we in nederland bijvoorbeeld een hoogspanningsnet hebben voor het transport van electriciteit. Hogere spanningen en lagere stromen geven minder verlies aan vermogen dan wanneer het anders om zou zijn. Om deze verliezen te compenseren moet je dus meer vermogen aan het begin van je schakeling hebben om aan het eind hetzelfde over te houden.
Transistoren die warm worden gaan meer stroom verbruiken en kunnen onbetrouwbaar worden wanneer de specs krap gekozen zijn of gewoon worden overschreden.
Een voorbeeld van dergelijke problemen was bijvoorbeeld de Abit LX6 waar een spanningsregulator op zat (T9 voor de insiders) die NIET voldeed aan de door Intel opgestelde AGP specs. Hierdoor waren kaarten als de Voodoo 3 niet bruikbaar op dergelijke borden. Wanneer je nu deze regulator ging koelen met een fan werkte het allemaal weer. Ik heb zitten meten toen en kwam gewoon tot de conclusie dat ie uitzich zelf de 3,3V niet constant kon houden doordat ie te warm werd.

edit:

DaJaN was me een minuutje voor, maar we zijn het er behoorlijk overeens zo te zien ;)
Erm dit is een reactie op nutfreak verderop .. ging nogal fout blijkbaar

Ik weet wel dat de nv 4 de riva 128 is.

Er zijn in principe 5 fases waar men doorheen moet
1 business planning
2 definition
3 design basis
4 design & development
5 implementation

Maar een andere reden zou kunnen zijn omdat ze het leuk vinden.
Dat verhaal van de hoogspanning ken ik wel, maar ik moet eerlijk zeggen dat ik niet wist dat de invloed ook zo groot is bij een lage spanning van bijvoorbeeld 1,5 of 3,3 Volt. Bedankt voor de uitleg ;)
Kijk dat krijg je er nou van als je zo supercommercieel bezig bent!

Ze willen persÚ liefst nog voor de deadline hun product op de markt brengen om zo de evt. concurrent weer helemaal voor te zijn. Jah en de nVidia engineers zijn ondergeschikt aan de marketing managers en dus moeten ze het product maar zo snel mogelijk af hebben. En dan onstaan deze conflicten weleens.

Waar wees maar niet bang, nVidia heeft allang een heel ┤driver team┤ onder zich samengesteld. Ik verwacht dan ook dat deze problemen behoorlijk snel worden opgelost. Als je nagaat dat meerdere malen per maand een drivers update uitkomt van nVidia.

Er zit dus weer niets anders op dan een enkele week of weken te wachten tot de driver update uit is (duh :). Maar dan nog, ik neem aan dat hooguit een halve procent van alle tweakers hier een GF/3 op het moment heeft.

Mijn boodschap is dat nVidia eerst maar eens zijn product echt HELEMAAL af moet hebben en zich niet laat leiden door de dominerende commerciele factoren in dat bedrijf.
Bedenk hierbij wel dat de Pentium 4 een wereld van verschil is vergeleken met de Pentium (1) tm de Pentium 3. Het is dus niet zo heel vreemd dat er de nodige problemen zijn met nieuwe video-chipsets in combinatie met een nieuwe processor. Waarschijnlijk hebben de driver en bios-bouwers van nVidea de P4 nog niet helemaal onder de knie.

Sommigen zullen de gehaaste introductie van de Geforce3 slordig vinden. Ik vind het eerder gehaaid van nVidea. Het aantal P4's is immers nog vrij klein. De meeste kaarten zullen op een P3/Athlon/Duron terechtkomen waar ze het wel naar behoren doen. nVidea kan zo toch een behoorlijke afzet krijgen, en ondertussen verder sleutelen aan de P4 optimalisatie.

Helemaal netjes is het niet, maar wel begrijpelijk...
De Pentium(1) heeft niets met de generatie Pentium's t/m de PentiumIII te maken. De Pentium Pro is het begin van die generatie CPU's. De PentiumII is een Pentium Pro clone met 512KB half-speed off-die L2 cache en MMX. De PentiumIII Katmai is een PentiumII maar dan met SSE (Streaming SIMD Extensions) en de PentiumIII Coppermine is een PentiumIII Katmai, maar dan met wat extra registers om de processor geschikter te maken voor een FSB van 133MHz, ook heeft de Coppermine 256KB on-die L2 cache.
De Pentium4 is idd een geheel nieuwe architectuur.
Sorry, maar aan de chip architectuur is sinds de invoering van de 386 weinig veranderd , de Pipelines en de indeling van de registers en de manier van verwerken in de ALU's is het zelfde gebleven (allemaal nog IA32 met IA16 ondersteuning), nu is er echter de P-IV :Z uit welke een geheel nieuwe ontwikkeling is (de IA64 met nog ondersteuning van IA32 en IA16).

Het orginele idee was nog beter namelijk het totaal laten vallen van IA32 en IA16 (dit is onmogelijk gemaakt door AMD) want dit had namelijk onze grote vrienden van Microsoft B-) gedwongen om heel windows opnieuw te schrijven }>
Tomshardware had anders weinig problemen?
Maargoed, om nou alles uit te stellen, imago hoog houden?
Tom's Hardware heeft nog geen GeForce3 in handen gehad. nVidia heeft nog geen kaarten uitgedeeld aan sites en ook in Japan e.d. waar je foto's van hebt gezien hebben ze alleen nog maar de dozen. De "reviews" die nog online zijn zijn met beta-kaarten en beta-drivers gemaakt, of bevatten helemaal geen benchmarks.
Ik bedoel eigenlijk het screenshot, op de Tomshardwaresite, van een P4 met een GeForce3 met een demonstratie van Quincunx A-A
Ah, klopt ja, maar als Tom is een professional, geen sensatie-journalist (hoewel ik daar af en toe over twijfel, maar goed). Hij kan moeilijk in zijn artikel klagen over de stabiliteit als hij weet dat zowel de kaart als de drivers niet af zijn, en hij mag dat nog niet eens vanwege de NDA, een soort contract met nVidia.
ik vindt het slim dat ze dan nog even wachten misschien dat ze over een paar weken uitkomen maar dan wel met goede drivers.

Dan heb je er toch veel meer aan het is beter even te wachten dan dat iedereen met een p4 terug naar de winkel gaat omdat het kaartje het niet doet dan gaat e winkellier ook weer zeuren.

ik vindt het goed dat ze nog even wachten

als hij nu maar niet duurder wordt door het uitstel
Ze worden waarschijnlijk niet duurder, maar alle andere kaartjes blijven langer duur en aangezien ik door de geringe snelheidswinst van de Geforce 3wil wachten op de NV30 (25 geskipped :?). Zal dat ook wel weer langer gaan duren.

Kan NVidia zich deze keer misschien niet hun product-cycle van een half jaar handhaven.
"(25 geskipped :?)"

De NV25 is de chip die in de XBOX komt te zitten. (aangepaste / uitgebreidde NV20 )

Dus volgende chip is logischerwijs gezien de NV30.
:P

Iemand idee waarom NVidia met stappen van 5 gaat?
:?
"Iemand idee waarom Nvidia met stappen van 5 gaat?"

Dan lijkt het alsof ze een grotere stap vooruit hebben gedaan;

Van NV20 naar NV21 denkt men ook van jaja..... :Z :Z :r
XBOX chip = NV2A

er zijn geruchten dat NV25 slechts een speedbump vande NV20 is en NV30 weer een nieuwe design is.
Lijkt me toch dat een kaart voor dat hij in de winkel komt te liggen op alle mogelijke manieren getest wordt? Dus ook op een Intel P4 bordje. Ik snap niet dat dit heeft kunnen gebeuren, volgens mij zit er een addertje onder het gras.
Er staat ook:
Volgens een bron
Zo/n kaart wordt op alle mogelijke systemen getest. En ook echt wel op een P4-systeem, ik kan me niet voorstellen dat deze kaart niet op een Pentium 4 werkt. Er zal vast wel een andere logische verklaring zijn voor dit uitstel..
Zoals het andere bericht al zegt :
In contrast to the previous news, we received a word from a person who works at Electronic Boutique and he has told us, that they expect GeForce3 cards in stock in 2 weeks or less. That means in the twentieth of March. The prices and brands of accelerators are not known
Ik denk dat het pas tot eind maart, begin april gaat duren voordat er P4 systemen uitkomen met een standaard GF3 erin. Voor de makkelijkheid ongeveer een kleine 2 weken. Mocht het compatibiliteitsprobleem (?) toch aan de drivers ligt, zoals er staan :
I understand, that actually, the drivers, not cards, are optimized
, dan zal er heus wel binnen 2 weken nieuwere drivers zijn zodat je kaart wel gewoon werkt ipv met de drivers van nu.
Maar toch begrijp ik het niet hoor


Je bent nvidia en maakt een chippie
vervolgens stuur je dat naar je kaart makers,

heeft er nou niemand bij asus,hercules etc zijn kaartje
getest op een p4 systeem ?
ik bedoel hercules maakt altijd een eigendriver
met hercules in je scherm enzo die moeten dat dan toch ook ff testen op een p4 , amd etc.

Vind het maar wazig kijk nog wel ff de kat uit de boom
Ja en hier zit ATI nu precies op te wachten. Ze hebben de prijzen van de radeon al omlaag gegooid, nu nog even de radeon II uitbrengen, na rustig de tijd genomen te hebben om hem te testen. Ik hoop dat ATI ditmaal wel een stabiele driver met behoorlijk wat performance kan leveren, dan steken ze nvidia mooi de loef af. HOPPA! meer strijd in dat grafische wereldje!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True