Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: TweakTown

TweakTown heeft het persbericht en wat high-res foto's van Gigabyte's GV-GF3000DF GeForce3 videokaart online geplaatst. Deze is zojuist op het Intel Developer Forum aangekondigd en zal als een van de eerste GF3 kaarten beschikbaar zijn. De GV-GF3000DF wordt uitgerust met 64MB DDR SDRAM tot 500MHz en hij is voorzien van een DVI-uitgang:

Gigabyte's top of the range 3D card - GeForce3 is here

NV20 chipset is a renown chipset which has sparked debates recently. On February 26, it will be announced as GeForce3 and ends all the speculations. Gigabyte has been doing R&D and will launch the GV-GF3000DF (GeForce3) 3D Video card to satisfy the users.

Gigabyte GV-GF3000DF 3D card is based on new generation nVIDIA's GeForce3 3D chipset. It features the latest Nfitnite FX engine and Lightspeed Memory Architecture which easily accomplish complex textures at light speed. Conforms to T&L (Transform & Lighting), it can process up to 150 million polygons transformations in a second. Incorporating the state of the art high speed 64MB new generation DDR graphics memory, it could reach up to 500Mhz, display performance exceeds GeForce2. With the new AGP fast write function, it provides up to 350Mhz RAMDAC and supports up to a maximum resolution of 2048x1536. For 3D gamers of Need for Speed:High Stakes ™, Quake3 Arena™, and graphics designers that needs high speed graphics capabilities, Gigabyte GV-GF3000DF statisfies it all.

GV-GF3000DF also provides DVI output especially for users who requires LCD plat panel display. It is the best choice for users who require high graphics computing power. The package is bundled with DVD playback software & games, allowing you to enjoy your movies just like in the theatre and have the ultimate enjoyment in your games. Gigabyte GV-GF3000DF is currently available and we welcome enquiries from distributors, resellers and consumers.
Gigabyte GV-GF3000DF doosGigabyte GV-GF3000DF kaart
Moderatie-faq Wijzig weergave

Reacties (37)

Even offtopic... ;) Maarre..., altijd in deze postings zie ik geouwehoer over welke framerates je nu nog ziet en welke niet enzo. En de meesten slaan gewoon de plank mis, terwijl ze overtuigd zijn dat ze gelijk hebben. :9 Er zit bij de meeste opmerkingen heus wel waarheid in, maar het is nergens compleet.

Waarom?

Feit 1) Wie gaat er eens naar de bioscoop? Ja elke film die daar vertoond wordt draait maar met slechts 24 frames per seconde!!! Toch geeft dit een redelijk scherp beeld dat niet echt hinderlijk is voor je ogen en je beleving.

Feit 2) Elke TV werkt normalerwijs met 50Hz; maar per keer wordt elk beeldje/frame 1/2 getekend; zodat er maar effectief 25 beeldjes per seconde zichtbaar zijn. De meeste mensen worden echt niet gestoord van dat zg. geknipper, wat overigens pas echt opvalt als je onder een schuine hoek naar je TV kijkt.

Feit 3) 100Hz tv's hebben een refresch van 100Hz; effectief maar 50Hz!!!! (halve beeldjes per keer weet u nog :z ) Maar een framerate van maar slechts 25 fps. En toch is iedereen er van overtuigd dat deze combinatie een ontzettend rustig en strak beeld geeft. :)

En nu de truuk waar het dus eigenlijk allemaal om draait. ;) Je hebt een effectieve framerate en refreshrate op een TV/monitor. de eerste gedachte is dat deze zo hoog mogelijk moeten zijn om het beeld beter en rustiger voor je ogen te maken. Nu daar zit hem nu juist de kneep. Is niet zo..... ;)

Een refreshrate van meer dan 50 Hz is altijd welkom op een monitor, want een tv heeft een type fosfor in de beeldbuis zitten wat langer nagloeit; waardoor je met minder HZ toch redelijk kan kijken. EEn monitor daaraantegen heeft fosfor met een zeer korte gloeitijd, waardoor je scherpere en vloeiender bewegingen kunt laten zien, zonder het sg. 'smeer' effect. Dat zie je bijv. nog redelijk sterk op LCD schermen. En tevens biedt snel dovende fosfor de mogelijkheid om hogere resoluties te tonen etc.. :+

Nu dit heeft wel tot gevolg dat die 50Hz eigenlijk te weinig is voor een 'strak' beeld op een monitor. In praktijk is 75 of zelfs 85 Hz nodig om die fosfor zo snel te bombarderen met elektronen, zodat die fosfor toch helder blijft. Maar in principe geldt; hoe groter de monitor en resolutie; des te sneller moet die fosfor beschoten worden. :> Daarom is het juist dat je altijd op een computermonitor meer dan 75Hz moet instellen, maar het lieft 85Hz of zelfs nog meer! Nogmaals puur en alleen om die toegepaste fosfor goed te laten gloeien....

Nu heeft dit geen enkele invloed op de framerate!!! Al zou je videokaart zelfs meer dan 85HZ draaien; zeg 100Hz; zelfs dan zou een spel dat gewoon 4x hetzelfde frame-pje toont op een 100Hz monitor, net zo strak zijn als een die 100 frames toont! Alle bewegingen zijn voor het menselijk oog in principe scherp rond de 20 - 25 beeldjes p. sec.!!! Maar de enen mens ziet iets beter dan de ander, en dit effect wordt versterkt doordat we eigenlijk met zijn allen veel te dicht op een monitor zitten. (de beste kijkafstand is altijd 4x - 5x de diagonaal van het beeldscherm!! Aanbevolen door philips zelf! ;) )
Dus als je een videokaart hebt met een framerate van meer dan 30-35 frames per seconde in een bepaalde resolutie; dan zou dit meer dan genoeg zijn om een spelletje vlot en scherp te kunnen spelen, zonder schokkerige beeldjes. *-)

Dat is theorie. in praktijk heb je echter ook te maken met het effect dat optreedt, doordat de meeste mensen hun Vsync uit hebben staan, om een paar frames meer te kunnen krijgen. Dit heeft altijd tot gevolg dat er onrustige frames ontstaan, doordat er tijdens het schrijven van een beeldje op je scherm (Hz) ook een frame veranderd wordt en dan trillende/onscherpe beeldjes weergeeft!!! Dan lijkt het beter om een zo hoog mogelijke framerate te hebben in combinatie met een hoge refreshrate, zodat de kans dat dit optreed tijdens het schrijven van een frame kleiner wordt en het beeld rustiger :)

In principe kan je dus het beste altijd VSync aanzetten; ook al kost dit nuttige GPU tijd, als deze moet wachten met het volgende frame te berekenen voordat de vorige op het scherm staat!!! Is je framerate vrijwel gelijk aan de refreshrate of zelfs hoger; zet hem dan uit.

Dus:
- refresh >85Hz en framerate/resolutie <60Hz Vsync aan
- refresh >85Hz en framerate/reso >60Hz Vsync off


Verder vindt ik het persoonlijk een slechte zaak dat inderdaad die prijzen schrikbarend omhoog gaan voor het gebodene. Het staat in geen contrast met vroeger. Voor de top of de bill kaarten/combies was je toen max. 1000 ballen kwijt; nu stijgt het nar het dubbele toe; en de te gebruiken levensduur is meer dan gehalveerd! :r
Het valt me een beetje op (of tegen) dat de RAM-modules geen heatsinks hebben.
Alle modellen waar ik tot nu toe pics van gezien heb, hadden dit wel.
Waarom deze dan niet, misschien een soort low-budget model?
dan zet je die der als rechtgeaard tweaker toch zelf op.
Moet niet zo moeilijk zijn.
Aan 64 mb heb je (nog) niet zo veel, de spellen zijn nog niet zo geavanceerd!
Heeft niet zoveel met de spellen te doen. Meer met de resolutie die je gebruikt. Zo heeft die 64 MB echt wel zin vanaf 1280 op 32 bits kleuren.
Omdat deze kaart zo snel is kun je op hoge resoluties werken en dus zjn de textures geavenceerder en dus groter.. En dan heb je veel geheugen nodig..
(nog) niet nee.. dat komt nog wel :)
m'n broertje wordt ook vet uitgelachen om z'n 4 mb stealth II.. > :)
(en ik dan met m'n Rage Fury Pro.. het bewijs dat 32 mb videokaart nix zegt.. :(
voor 1800 piek koop je een halve pc. Die prijzen van videokaarten beginnen wel errug uit de hand te lopen. En zo vernieuwend als dat ze zeggen is het toch allemaal niet. Veel wordt niet ondersteund. Het is godsvergeten moeilijk om spellen te vinden die de T&L en TCL functies ondersteunen.

"ja maar het is leuk om 100 fps met quake 3 op 1600x1200x32 te hebben" hoor ik dan een stelletje imbicielen zeggen. Hoezo :? je ziet het toch niet. Na 33 fps zien je ogen het verschil toch al niet meer. en mijn huidige videokaart (ATI Radeon) kan dat ook nog met gemak halen. Het is puur geldklopperij wat Nvidia hier uitvoert.
Je vergeet een paar zaken: je Radeon trekt geen FSAA op 1600x1200x32, laat staan op >33fps.
Daarbij komt ook nog dat je meestal de _top_ waarden ziet weergegeven en die de _dal_ waarden. Hoeveel van die fps blijven er over als er 10 mannetjes met raketten door je beeld springen terwijl jij aan het ronddraaien bent? Niet veel kan ik je zeggen!

Kaarten worden ook duur, maar een jaar of 5 geleden kostte een Voodoo2 combo iets van 1200-1400,- En dan had je voor 2D nog een gewone kaart nodig (als je dit uitgaf voor V2's dan had je zeker ook een Matrox van 400-500,-)

Tuurlijk is het veel geld, maar niet iedereen _moet_ een GF3 kopen. Als jij niet zo veeleisend bent dat je 1600x1200x32@FSAA wilt dan kun je gewoon een GF2(MX) kopen voor een stuk minder geld (of een Radeon).

Wees blij dat ze dit soort kaarten zo snel (opvolgend) maken: de oude kaarten dalen in prijs en je kunt er bijna zeker van zijn dat over 3 jaar deze kaarten voor iedereen betaalbaar zijn (dwz: <400-500,-)
nou mijn voodoo 2 combo kostte toen in die tijd 900 gulden. Dat is nog altijd de helft van wat dit nu moet gaan kosten. (en ja het was brandje nieuw).

en Hielko als je Quake 3 Arena op een 22 inch scherm speelt dan kan je het zien ja maar niet op en 17" scherm.

En dan 3 jaar later kostte de Voodoo 2 nog geen 250 piek meer. Dus dan is 500 piek voor een low budget kaart nog aso duur. Het feit is gewoon dat Nvidia veel te hoge prijzen hanteerd omdat het te weinig concurrentie heeft van andere fabrikanten. Met de snelheid die ze nu gebruiken zijn de kaarten over 3 jaar 3000 gulden. Dus ga maar vast sparen voor je Geforce 8.

Het feit is gewoon zo dat een normaal mens dit niet kan betalen. En dan nog wat. Is de Geforce 2 nu zoveel goedkoper geworden sinds de komst van de Ultra versie :? Hmmm nee niet echt eigenlijk he.
En wie gaat er op die resolutie nog FSAA'en? welk doel zou dat moeten hebben?
Sommige mensen hebben misschien gewoon een goede monitor....... FSAA @ 1600x1200 kan je echt wel zien.
correctie Dude.

het menselijk ook is GEMIDDELD in staat om zo'n 65 tot 70 flikkeringen per seconde waar te nemen. Hoe dat bij jou ziet weet ik niet. Maar zet voor de gein je monitor eens op 35 hz en daarna op 75 hz ? veel test plezier.
1. hz is iets anders dan frames.
2. 35 hz vergelijken met 75 hz is wel een HEEL groot verschil.
3. Je ziet het niet maar je hersenen registreren het wel. Wat resulteerd in wat de volksmond genoemd wordt rusiger beeld.
4. je dat voor geen ene barst merkt met een spel of ie 75 frames draait of 35 frames.
Na 33 fps zien je ogen het verschil toch al niet meer. en mijn huidige videokaart (ATI Radeon) kan dat ook nog met gemak halen.
Het menselijk oog neemt 60 wisselingen per seconde waar. 60 FPS dus geen 33.. :Z
Voor 1800,- heb je een halve super pc, en voor 500,- minder heb ik 2 jaar geleden een AMD K6-2 400/96MB/TNT2-M64 32MB/15" gekocht. Ik vond toen de TNT2-M64 voor 179,-(!!!hij is alleen maar duurder geworden in 2 jaar!!!) een goed prijsje. Maar van mij mogen ze zulke hoge prijzen hanteren hoor, dan heb ik weer wat extra's om over te dromen. En over 't algemeen is het dromen van en verlangen naar leuker dan het ook meteen te hebbuh hebbuh hebbuh. Maar dit is mijn persoonlijke ervaring, 'k zal vast niet voor iedereen spreken.
Waar kan je deze kaartjes kopen?
En welk merk is het beste?
Ik zou niet verwachten om deze kaarten binnen 2/3 weken in de winkels te zien. En ASUS/Hercules enzo zullen wel weer de leukste modellen maken waarschijnlijk........ :)
Nou die koeler op die Leadtek ziet er wel wat beter uit, ik heb nu ook al problemen met me koeler op me ASUS AGP-V6600 Deluxe.
Maarre misschien is deze wel goedkoper want ruim 1800 piekemansen vind ik toch een berg centen
64 Mb vrij impressive ... ben stiekum ook wel benieuwd wattie presteerd op 2d niveau.
Op 3d zallie volgens mij wel geweldig zijn maar 2d vinnik eigenlijk ook wel belangrijk.
En hoelang gaat het duren voordat deze een beetje betaalbaar is

* 786562 cyclone
B17 Flying Fortress 2 is zo'n spel wat goed zal doen aan dit kaartje. Ik ken jongens met een super high end pc en een GF2 Ultra die dat spel nog niet voluit kunnen draaien.

Afijn, de GF2 Ultra is al niet zo echt succes en naar mijn mening is de GF2 MX populairder dan zijn vader, de GTS.

De GF3 is gewoon te duur en het is dus maar wachten tot er een MX versie uitkomt die mischien wel betaalbaar is. De GF2 GTS'en en Ultra's zullen nu natuurlijk wel wat goedkoper worden en mischien interesanter.

Ik denk dat Nvidia de gamers gaat kwijtraken.
Ik bedoel, hoeveel gamers kunnen nou zo'n kaart aanschaffen? ik niet in ieder geval, dan koop ik liever een AMD 1.2TB met mobo en geheugen en dan hou ik mischien nog geld over.
Dat heet een DVI-uitgang die andere connector :)

staat in de tekst trouwens...

Mooi kaartje.. wat me opvalt is dat er hier GEEN heatsinks op de memory zit...
tja en van de buitenkant zie je eigenlijk maar weinig van het kaartje.... :D

ik denk....dat spellen die de technieken dan gebruiken .... gewoon een nieuwe ervaring zullen zijn qua beeldkwaliteit

snelheid is ook niet alles meer.... nu gaat kwaliteit meer een rol spelen...
de prijzen zijn idd achtelijk duur....maarja blijkbaar verkopen ze er toch genoeg om die prijzen zo hoog te houwen... dus de fout ligt ook een beetje bij de cosumenten toch...
Wie zei dat de Geforce Ultra geen succes is?
Die snapt er de ballen van of die heeft van ze lang zal ze leven geen Ultra in zijn machine gehad!!!!!
Geforce Ultra is een wereldkaart!! Ik kan het weten heb ze allemaal gehad van sdr tot de ultra en daar komt binnenkort de Geforce 3 natuurlijk bij(gniffel).
Dus voor dat je commentaar gaat geven zorg eerst dat je hem zelf hebt!!
Er is geen spel dat ik niet kan spelen zonder ook maar een hapering(of het spel is niet goed) en dat in alle resoluties ja zelfs 1600x1200.Ben benieuwd wat er over de Geforce 3 geschreven word over een half jaar.(misschien ook geen succes ha ha)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True