Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: Akiba's

Akibaís (aka het wazige plaatjes paradijs) heeft deze eerste GeForce3 kaarten gespot in de winkels in Japan. Daarnaast is volgens Guru3D de ETA (Expected Time to Arrival) van de Elsa Gladiac-920 GeForce3 in de USA 22 maart. Waarschijnlijk zullen wij dus aan het eind van deze maand ook de eerste GeForce3 kaarten in de winkels gaan zien. Voor de echte patsers onder ons met een flinke portemonnee goed nieuws :

Leadtek GeForce3 doos
Leadtek GeForce3 kaart
Moderatie-faq Wijzig weergave

Reacties (58)

Zie ik daar 4 miniatuur geschakelde voedinkjes zitten?
(twee aan de linkerkant en twee bijn de CRT-uitgang)
Dan ben ik best wel benieuwd wat het stroomverbruik van dit ding is.
Ik bedoel; als je voor een GeForce2 in je AMD-computer eigenlijk al verplicht een 300W-voeding moet kopen... Misschien dat dankzij die geintegreerde voedinkjes het een beetje binnen de perken wordt gehouden, maar dit voorspelt niet veel goeds.
Het lijken mij meer spanning-convertors, dit omdat de spanningen die de AGP-bus geven niet zo netjes zijn en dat kan je natuurlijk niet hebben, vandaar die convertors volgens mij.
Hmmm een GeForce3 waarbij de core heatsink ook het geheugen bedekt moet ik dus NIET hebben. De core wordt meestal een stuk warmer dan het geheugen, dus ipv dat je het geheugen koelt warm je het juist op. Tenzij die fan heel heel hard kan blazen en het koelblok een beetje koel kan houden, maar mijn pentium koelblok :) op m'n GeForce is nog steeds kokend.

edit:
Spellingsfoutje
Ik denk dat je het fout ziet, hij bedekt het geheugen niet, hij steek er overheen. waarschijnlijk als je een foto van de zijkant zou zien zie je het beter.
De Leadtek gf2 ultra heeft ook ongeveer zo'n heatsink en ook heatsink op het geheugen, als je van boven kijkt lijkt het uit een stuk, maar kijk je van de zijkant dan zie je dat dat niet zo is.
Ja je hebt gelijk.
Als je hier kijkt zie je dat de heatsink boven het geheugen zit.
Daardoor heb je nog wel stralingswarmte die op de chips terecht komt. Ik denk dat een koelertje alleen op de CPU wel genoeg is. Dit is een beetje, kijk ons eens een grote koelplaat hebben...
Ook al zou de heatsink voor core en mem dezelfde zijn, de kans dat de sink warmer wordt dan het geheugen is erg klein. Zolang dat niet het geval is kan de sink het geheugen niet opwarmen.

Een grote heatsink voor mem+core zal in totaal beter koelen, maar dan met name het heetste onderdeel. Wil je de minder hetere onderdelen ook flink in temperatuur laten dalen (dus verder dan de core), dan kan je beter een losse sink gebruiken.
edit:
Spellingsfoutje
Euh :? ? Spelfoutje ?
Als je die edit er nou niet in had gezet dan hadden we het niet eens gezien. T.net heeft volgens mij namelijk een fout marge van 20(????) tekens.
Dit is vast bij een winkel die hem al binnen heeft gehad maar hem nog niet mag verkopen.

Anders waren er idd al meerdere benchmarks.

Krijg je weer van je japanners die met hun systeem op de noordpool gaan staan en 200% gaan overklokken.. daarna een longontsteking maar dat maakt ze toch niet uit. ;)
Waar staat dat TD voor?
Turbo Diesel? :)
Nee TD staat voor: Te Duur :P
Niet in Japan. De meeste dingen daar zijn zelfs halve prijs van wat je hier moet betalen. De extra kosten hier zit 'm in de shipping en marketing. En dat is duur. |:(
Ik schat in: Twin Drive, voor het kunnen aanSTUREN van TWEE monitoren.
nvidia zuigt je niet uit hoor. het is gewoon het te dure geheugen dat er op moet komen. nvidia vangt misschien 150 gulden voor zon videokaart en dat is dus lang geen winst.
nVidia krijgt nix voor de kaart, die krijgen alleen centjes voor het chippie erop.
nVidia krijgt nix voor de kaart, die krijgen alleen centjes voor het chippie erop.
Misschien moet er ook nog wel betaald worden voor het gebruik maken van het reference design. Zou mij eerlijk gezegd niet echt verbazen. NVidia heeft het slimste design bedacht (zou NVidia zeggen) dus daar mag dan ook wel voor betaald worden. Scheelt de fabrikant ontwikkelkosten.
ik d8 iets van $82 voor een gf3 chippie (bij 1000)
Dat is dus niet zo... het zou me mniks verbazen als de nettowinst tegen de 400 piek ligt, minstens
dat is zo.... maar niet voor nvidia. ik las dat ze die chippies voor 75dollar per stuk verkochten aan de makers. GF3 chippies dus he. dat geheugen zit het echte geld in hoor. tuurlijk is er een winstmarge van 400 gulden ofzow. maar die ligt zeker niet bij nvidia
de netto winst tegen de 400 piek ?
ga jij es snel studeren of zo :)
400 piek winst ?
zo ontzettend veel mensen vergeten dat bedrijven niet alleen productiekosten hebben, maar ook ontwikkelkosten, fabrieken (grond + apperatuur) moeten ze betalen, medewerkers moeten goed betaald worden, en ga zo maar door..
400 piek netto winst op zo'n chip ? no way
volgens mij kun je er meer op aansluiten dan alleen je monitor :*) :*)
of zie ik dat verkeerd :? :? :?
Van boven naar beneden:

DVI uitgang (flatpanel)
TV-out (lijkt me logisch)
D-Sub uitgang (gewone monitor)

Wel handig, mijn Radeon heeft ook een DVI uitgang maar geen gewone D-Sub...zit je weer te klooien met een verloopstukje :P
Iemand alvast enig idee hoeveel deze kaartjes gaan kosten? (In US Dollars $$) :9
Als je kijkt op de Akiba's staat dat deze verkocht wordt voor 65800 JPY = 1309,- gulden = 553 USD
Inzichtvol dat je de prijs even berekend hebt. Maar als die kaaten ECHT F1300,- of F1400,- in Nederland zouden gaan kosten, dan zouden ze evenduurzijn als de huidige ASUS GF-II Ultra's. En dat lijkt me sterk.

Dus tel er nog maar enkele honderden guldens bij op voor de transport, distributie (verpakking voor massa vervoer etc.) etc.
Ik vind het maar vreemd, wel kaarten te koop, maar nog geen enkele echte review.
Dat is omdat nVidia niet wil dat de kaarten verkocht of gereviewed worden zonder goede drivers. Als we de geruchten mogen geloven zal Detonator 4 (11.00) binnenkort uitkomen (de Elsa versie staat al in de meuktracker) en dan zullen hardware-site's ook kaarten ontvangen om te reviewen.
De AGP PRO functie wordt trouwens ook bij een GeForce3 niet gebruikt...
AGP PRO was toch alleen voor de stroomvoorziening (110W ipv 25W)? :?
Blijkbaar is de chip iets slimmer in elkaar gezet of hij is weer een 3 um kleiner.
is dat nou een normaal AGP slot dan of loop ik een beetje achter ?
Ja het is een normaal AGP slot en ja je loopt waarschijnlijk een beetje achter. Ouwere kaarten hadden dat laatste stukje niet er op zitten, waarmee je em kan vastzetten in het AGP-slot.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True