Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties
Bron: AnandTech

nVidia logonVidia heeft vandaag de GeForce 7300 GS geïntroduceerd. Deze kaart is de budgetvariant van de duurdere GeForce 7800 en zal de concurrentie moeten aangaan met de Radeon X1300 en de GeForce 6200 TC die voor minder dan 100 dollar over de toonbank gaan. De GeForce 7300 GS heeft alle features van zijn grote broer aan boord, maar moet het doen met drie vertex pipelines, vier pixel pipelines en een kloksnelheid van 550MHz. Vergeleken met de GeForce 6200 TC is dit een flinke stap voorwaarts. Deze budgetchip heeft hetzelfde aantal pipelines, maar doet zijn werk op slechts 350MHz en is daarnaast gebaseerd op een oudere architectuur. Evenals de GeForce 6200 TC is de GeForce 7300 GS uitgerust met nVidia’s TurboCache-technologie waarmee het systeemgeheugen gebruikt kan worden om de prestaties te verbeteren. Hoewel nVidia de kaart vandaag geïntroduceerd heeft is deze momenteel in Europa en Amerika nog niet in de winkelschappen te vinden, alleen in Azië is de kaart verkrijgbaar.

Moderatie-faq Wijzig weergave

Reacties (42)

Iemand enig idee hoe deze tegenover de 9800Pro/XT staat? Dat is volgens mij een kaart die nog door vrij veel mensen gebruikt wordt, en daarom een mooie maatstaf :)

@Endless_NL
Het verschil tussen AGP/PCI-E zou niet zoveel moeten uitmaken, het gaat om de algehele prestatie. Bovendien lijkt me persoonlijk de kans vrij groot dat deze kaart, aangezien het een budgetkaart is, JUIST WEL op AGP wordt uitgebracht, al is het met enige vertraging...
De directe 'mededingers' zijn de Radeon X1300 van ATI en de GeForce 6200 van nVidia, zoals gezegd in het artikel ("Radeon X1300 en de GeForce 6200 TC"). Ik denk dat het dus moeilijk is om te vergelijken met een ATI Radeon 9800 Pro/XT qua prestaties ;)
Jah het is inderdaad een wat overbodige vergelijking, maar ik zou het ook graag willen weten. Niet dat ik hem zou willen hebben, maar om gewoon het verschil te weten tussen een nieuwe budgetkaart en een zo'n 3 jaar oude radeon 9700Pro. De interface maakt mij daarbij helemaal niets uit, daarnaast is Turbocache natuurlijk klote als het op prestaties aankomt, en ik denk ook dat de radeon9700 sneller is als deze budgetkaart van nVidia hoewel de laatste natuurlijk over nieuwere technieken beschikt, is het nog maar de vraag wat je daar aan hebt in het geval van een vrij trage videokaart. Tenslotte is een Geforce 6600 ook langzamer als een Radeon 9700, zelfs als deze 6600 in een nieuw PCIe moederbord zit met athlon64 3500+ etc. is mijn budget Sempron@2GHz op een nForce2 plank in combinatie met radeon9500@9700 toch een behoorlijk stuk sneller. Dat laat maar weer zien hoe weinig je kan hebben aan nieuwere hardware t.o.v oudere de laatste tijd. Ik vind het verschil en het belang van de nieuwste spullen lang zo groot niet als een aantal jaren geleden, toen moest ik elke maand iets anders, nu heb ik al bijna 2 jaar niets nieuws gekocht, echt een wonder :)

Maargoed, ik vind het vooral irritant dat er steeds weer nieuwe kaartjes uit blijven komen met nieuwe architechtuur en allemaal extra shit, die vervolgens trager zijn dan een videokaart van een paar jaar oud, bij heel veel mensen wekt dit een totaal verkeerd beeld. Net als dat turbocache, het lijkt net alsof je er wat aan hebt, maar de performance zakt in zodra het toegepast wordt. Dat is logisch, want er is momenteel geen snellere oplossing als het lokale videogeheugen te gebruiken. Zodra dit geheugen te weinig is en het ergens anders vandaan gahaald moet worden gaat het een stuk trager. Sinds PCIe kan het iets sneller, maar het blijft relatief traag. Krom dus eigenlijk, ze hebben het over de traagste vorm van 'cache' die er bestaat er ze zetten er nog turbo voor ook. :P
9700 Pro
Specs
325MHz Core
8 pixelpipelines
1 Texture unit/pipeline
4 vertex pipelines
310MHz DDR 128Bit geheugen

Goedvoor:[i]
2,6 Gpixels/s (pixelberekeningen)
325 Mverts/s (vertexberekeningen)
19.84 GB/s (geheugenbandbreedte)

7300GS
Specs
550MHz core
4 pixelpipelines
1 Texture unit/pipeline
3 Vertex pipelines
400MHz DDR 64bit geheugen
Turbocache (+4GB/s geheugenbandbreedte)

goed voor
2,2 Gpixels/s (pixelberekeningen)
413 Mverts/s (vertexberekeningen)
10.4GB/s (geheugenbandbreedte)


De verglijking is niet helemaal eerlijk omdat de 7300GS een deel van zijn bandbreedte dus aan TurboCache te danken heeft, en het valt nog te bezien of dat ECHT werkt...

Als het goed is is de 9700 in de meeste dingen nog steeds verre weg de betere kaart, echter, misschien niet in 3dMarks, aangezien die vrij vertex intensief zijn.

Als je dit al als upgrade optie wilde beschouwen, raad ik het af.
9800 pro is nog steeds te koop in een hoop winkels, voor +/- 100 euro... dus waarom niet deze vergelijking?
Dat valt heel erg mee hoor... Een 9800XT haalt 3-4000 punten in 3D Mark 2005. Mijn X700 pro haalt er ook 3700.

De huidige X1300 gaat daar niet voor onder, daar is 3500 punten (zij het met overklokken) geen uitzondering. NVidia kennende zal de 7300 net iets krachtiger zijn dan de gemiddelde X1300, maar dat zullen we nog wel zien.

Echt waar, de 9800 is al weer 2 series oud hè? ;)
Dit is gewoon een kaart die mooi in standaard systemen kan worden ingebouwd.

Bij een nieuwe PC heb je aan de onderkant van de markt nu dus een keuze. Een intel onboard chip of dit (of een ATI 1300) Voor upgrades lijkt mij dit net niks. Je upgrade naar de bodem van de videokaarten markt.

Mensen die een 9800 hebben zullen toch op zijn minst willen upgraden naar een moderne mid end kaart.
Er komt iets in me op van een verschil met AGP/PCI-E?!
En wat heeft dat ermee te maken?
Componenten in systemen met AGP en PCI-E interface zijn eigenlijk niet te verglijken, vanwege alle verschillen tussen beide.

Het bandbreedte verschil speeld overgens niet zo'n hele grote rol hierin.

Alhoewel Turbo Cache dus weer wel erg handig gebruik maakt van gigantische bandbreedte van PCI-E16x
Ben ik ook wel benieuwd naar...
En zoals gebruikelijk is Nvidia weer onduidelijk over de DVI-mogelijkheden van deze kaart. Wij gebruikers moeten maar weer gissen of Dual-link DVI mogelijk is :( . Het lijkt mij op zich een mooie kaart om te gebruiken in combinatie met de nieuwe Dell 3007. Maar dan moet Dual-link DVI wel werken.
Op het eerste zicht zou men denken van wel. Zoals te lezen valt op de nvidia website:

Advanced Display Functionality

* Dual integrated 400MHz RAMDACs for display resolutions up to and including 2048x1536 at 85Hz
* Dual DVO ports for interfacing to external TMDS transmitters and external TV encoders
* Full NVIDIA® nView® multi-display technology capability

Maar het is me ook niet helemaal duidelijk of dit betekent dat er 2 DVI poorten zijn...
Is dat niet aan de kaartbouwers?
En tja, P4 systemen zijn vanzichzelf al niet al te geweldig in games...

Ik haal anders met mijn P4 530 3,0Ghz meer CPU punten in 3dmark06 dan een AMD 3500+ (die toch iets duurder is) En ook in-game kan je echt niet veel verschil merken tussen die 2, als je videokaart maar goed is....
Pentium is helemaal zo slecht nog niet, afgezien van de warmte (wat heel makkelijk op te lossen is) en het stroomverbruik....

Edit: @ hieronder
sorry hoor maar die links maken het er echt niet duidelijker op.
Die eerste is een rijtje met alleen maar benchmarks die op 640x480 zijn gemaakt. De meeste mensen spelen op hogere resoluties en daarom wordt dat verschil (grotendeels) opgeheven, de 3dkaart wordt dan de bottleneck. Niet representatief dus.

Die 2e link is een of andere vage test met allerlei al dan niet overgeklokte processors. Daar nemen ze zelfs semprons mee in de test en om em dan boven de P4 uit te laten komen klokken ze em flink over (zo komt het bij mij iig over).
Ok, er zit vast wel een verschil tussen, maar dat merk je echt niet als je met 1280x1024 op full detail een zware game speelt. Dus om P4 nou meteen niet goed te noemen vind ik flauwekul.
Ook komen er steeds vaker intel-patches voor games om HT optimaal te benutten (Quake 4, CoD2) en ik denk dat ze dat wel blijven doen.
En ook in-game kan je echt niet veel verschil merken tussen die 2, als je videokaart maar goed is....
Neen, 3Dmark is altijd erg pentium vriendelijk geweest, Games echter, Half-life2 Doom3 Quake4 Splinter Cell Far Cry, allemaal gaan sneller op een 3500+ dan op een P4 3,0GHz.

EDIT:
en wat links
Toen de 3500+ gelanceerd werd:
link

En een wat recenter artikel
link2
Laten we eerlijk wezen, enkel in de Serious Sam test is het performance verschil tussen een 630 en een 3200+ meer dan 5 procent. Een knappe jongen die bij de andere games een wezenlijk verschil merkt.

Tuurlijk, ben je een echte fanaat, koop dan vooral een Athlon64. Maar voor de casual gamer heeft Dynacore best wel gelijk. Ook in games merk je weinig échte verschillen tussen een P4 en Athlon64.Als je dus een PC ook voor andere toepassingen wilt gebruiken kun je beter de aandacht richten op andere aspecten dan enkel welk merk CPU erin zit.
Laat die 630 nou net iets duurder zijn? En toch net iets minder dan een 3200+ presteren? Dat is waar ik naar kijk, maar ik moet toegeven dat het verschil tegenwoordig miniem is. Maar de Amd klokt toch beter over...
Zolang intel niet grondig zijn pentiums verbouwd heeft, blijft AMD de absolute gaming koning (al merk je er weinig van met slechte videokaarten en hoge resoluties).
Geheugen bandbreedte kan deze kaart maken of breken, ik ben zeer benieuwd, ik hoop minstens 128bit interface...
Inquirer meldt dat de kaart -alleen- met een 64-bit mem interface komt..
Ik denk dat dit gewoon de nieuwe kaart wordt die ze bij de duurdere home systemen gaan steken..
Jup, 64bit... :r En in Turbo cache heb ik nu ook weer niet ZOVEEL vertrouwen...Bovendien werkt dat toch alleen maar erg goed op die P4 systemen met hooggeclocked DDR2 geheugen....

AMD64's geheugen zit voor de video kaart af gezien verder weg, heeft minderbandbreedte, en is niet 'echt' dual channel. Vooral voor dual core AMD64 systemen zal het geheugen dan een grote bottleneck gaan vormen...

En tja, P4 systemen zijn vanzichzelf al niet al te geweldig in games...
Een dual core AMD met een 7300GS?

Ik denk dat het aantal AMD X2 systemen die met een GF6200 zijn verkocht ook op een hand te tellen zijn.

Als je zo veel voor een CPU uitgeeft koop je (denk ik) ook een duurdere GPU imho
@SkyOwner, dat ligt puur aan wat je met die PC gaat doen, als je niet gaat gamen heeft 't weinig zin om er een (redelijk) prijzige kaart in te zetten; als 't puur 'n workstation oid wordt kan 'n ubdgetkaartje voldoende zijn.
OEM's doen dat soort dingen maar al te graag. Processoren daar hebben meer mensen verstand van, "Dual Core X2 4400 met GeForce 7 Series videokaart".
En tja, P4 systemen zijn vanzichzelf al niet al te geweldig in games...
Maar als ik jou redenatie volg kun je dus beter een P4 met deze kaart combineren dan een Athlon 64. Voor mensen op een budget is dat toch weer handige info. Maar eerst maar eens benchmarks.
Op Anandtech staat de bandbreedte: (64bit)
Dat is jammer want sommige X1300s hebben altijd nog 128bit.

Bron: http://anandtech.com/video/showdoc.aspx?i=2674&p=2
ik ben eigenlijk meer benieuwd wanneer ze nu eindelijk met een opvolger voor de 6600(gt) komen. Zo'n 7300 , daar interesseren de meesten tweakers zich niet voor. Voor de meeste computeraars die toch wel wel willen weten wat er in hun pc zit maar geen zin hebben om 300 euro neer te tellen voor een 7800 gt is een midrangekaartopvolger veel interessanter.

Het is natuurlijk wel zo dat meestal de budget kaarten de maatstaf zijn voor nieuwe technologien, omdat fabrikanten zo'n groot mogelijk publiek willen aanspreken.
Op die plaats heeft ATi ook weinig nieuws ondr de zon, zolang nVidia geen kaart uit hoeft te brengen op die plaats in de markt doen ze dat ook niet.
ik ben eigenlijk meer benieuwd wanneer ze nu eindelijk met een opvolger voor de 6600(gt) komen.
nVidia heeft nog een 7600 op de planning staan voor volgende maand geloof ik.
De GeForce 7300 GS heeft alle features van zijn grote broer aan boord
Zou dit dan ook kunnen betekenen dat die misschien wel met een mod om te toveren is naar de 7800GS met TC?
Wat net zo het geval was (mits je geluk had) bij de 6800XL naar een 6800GT.

Maar als de 7300GS echt mee wil komen en hij heeft de zelfde eigensachappen als zijn broer dan moet die dus ook een 256Bits bus hebben wat voor de presetatie een flinke boost zou geven en de X1300 hard in het stof kan bijten.
;) niet echt.
er word gezegd dat deze 7300GS alle features van zijn grote broer heeft zoals purevideo SM3.0 etc etc.
niet dat hij alle eigenschappen heeft.

het is dus een 7800 met minder pipes etc.

daarnaast al zou hij die pipes hebben zou je er nog nix aan hebben omdat de 7300 geen 256bit bus heeft en langzamer geheugen etc.

de 7300 zal er niet opg erciht zijn om super performence te leveren maar om een goedkoop kaartje te zijn voor onder andere multi media PCs.
-spam removed- levert deze kaart al, 79 euries
En gaan we nu ook weer lekker unlocken omdat het op dezelfde core zit? :+ :D
1. Het is financieel niet haalbaar een G70 classe GPU voor rond de 100 euro op de markt te brengen, het zijn gewoon te veel transistors, het ding kost te veel om te fabriceren.

2. nVidia heeft wat nieuwe techniekjes zodat we vanaf de 7800GT al niet meer kunnen unlocken (voor zover ik weet).
ik heb nog geen ens de 7800 series in de winkel zien ligen:?
In welke van de buitenwereld afgesloten gemeenschap woon jij dan precies?
Ik denk ergens bij Tholen... ;)
Kan je wel tegen je vriendje's zeggen dat je een heuse Geforce 7 hebt :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True