Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: Gamers Depot

Gamers Depot heeft een review geschreven over de Creative Annihilator 2 Ultra. Deze kaart is voorzien van 64MB DDR geheugen op 460MHz terwijl de core zijn werk doet op 250MHz. De Creative wordt met weinig extra's geleverd. Handig is echter wel het programma BlasterControl, hiermee kun je vanuit de systray direkt settings wijzigen zonder eerst naar het configuratiescherm te hoeven gaan. Verder is ook het programma LAVA! bijgesloten. De Creative Annihilator onderscheidt zich qua snelheid niet van andere GeForce2 Ultra kaarten zo bewijst de test. De Elsa Gladiac Ultra en het nVidia GeForce2 Ultra reference model scoren in alle tests vrijwel gelijk aan de Creative kaart. Het is dan ook de lagere prijs en het handige BlasterControl dat kopers moet doen besluiten te kiezen voor de Creative Annihilator 2 Ultra:

Again, we have a very nice card based around the GeForce2 Ultra. The price doesn’t assault our senses as much as with the Gladiac Ultra, but it still smarts a bit. Once more, it’s up to you to decide if $200 - $300 more is worth it for a video card, i'll bet it's one that kicks butt.

[...] There’s going to be a lot of these GeForce2 Ultra cards released from different manufacturers very soon, but definitely consider this one, especially because of BlasterControl and the drivers. In addition, when I fall to the ground and start twitching when I hear the Annihilator2 Ultra’s price, I don’t twitch as much as when I hear the Gladiac Ultra’s price .


Creative Annihilator 2 Ultra
Moderatie-faq Wijzig weergave

Reacties (37)

Even afgezien van de prijs, zie ik hier nogal wat reacties in de trant van :

"Wat moet je nu in vredesnaam met XXX FPS ??"

Ik denk dat je het zo moet zien :

Op het moment dat jij zit te Gamen op 800X600X16, en je hebt dan 320 ( :P ) FPS, dan kun je de boel gaan draaien op 1024X768X32 High Detail, dan zul je zien dat je er met mazzel 100 FPS van over houdt.

Draai je al op 1024X768X32 High Detail, en je hebt dan nog steeds 250 FPS, dan kun je lekker op 1600X1200 gaan Gamen.

Het lijkt me inderdaad niet logisch voor iemand met een Trust 14" monitor om een GF2 Ultra te kopen, daar heb je in dat geval nix aan, behalve als je vindt dat gamen onder de 400 FPS zuigt. :)

Kortom :

Vraag :

Wat moet je met zoveel FPS ?

Antwoord :

Op een hogere resolutie met veel meer Eye-candy gaan gamen !

Mag je voor jezelf beslissen of jij het voor jezelf waard om die stap te maken van 800X600 naar 1600X1200, en het prijskaartje wat daar dan (nu nog) bij hoort...
Behalve op super hoge resolutie spelen, kan je de kaart natuurlijk ook gebruiken om 1024x768 op 4xFSAA te spelen. Dat trekken alle andere kaarten niet :)
Elke keer als ik zo'n berichtje lees over weer een nieuw video-kanon dan vraag ik me toch echt af hoe men de torenhoge prijs van die dingen kan verdedigen.

Kan een van jullie me misschien uitleggen hoe je er in hemelsnaam bij komt om een video-kaart van boven de 800 gulden te kopen.. ?
De prijs is zo torenhoog om de volgende twee redenen:

- Dat de euro zwak staat tegenover de dollar, dus daarmee ook automatisch de Nederlands gulden. :-(

- Omdat geheugen de bottleneck is tegenwoordig, stopt men of het meest snelle geheugen wat er is op (nVidia, ATI) of men propt er twee maal zoveel goedkoper geheugen op om de bandbreedte te verhogen (3dfx). Beide methodes zijn zeer kostbaar.

En of iemand zo'n dure kaart koopt is geheel afhankelijk wat die persoon een redelijke prijs/prestatie verhouding vindt. En dat is voor iedereen verschillend, dus het heeft geen nut om daar over te discussieren met een ander. ;)
En omdat je in nederland naast de officiele verkoopprijs (gecorrigeerd voor de wisselkoers) altijd een mysterieus extra bedragje erop krijgt, in de vs betaal je voor een kaart die in nederland 500 piek kost vaak honderden guldens minder (en nee, het verschil zit niet in de importkosten ed, aangzien de importeur hier dezelfde prijs dokt als de winkels in de vs, ook btw-verschil verklaart het enome verschil in prijs vaak niet)
Zozo doe mij maar zo'n kaart, maar als deze goedkoper is dan de anderen, dan is hij toch nog te duur :(. Als de opvolger al over een paar maanden komt wat moet je dan met zo'n kaart?
Het verschil tusssen 70 fps en 100 fps merk je waarschijnlijk toch niet
Mag ik even opmerken dat je het verschil tussen 70 en 100 fps WEL DEGELIJK merkt? OK, je ogen kunnen geen verschil meer meten maar in bijv. Quake 3 kunnen sommige speciale bewegingen (zoals in t2 van tele naar bovenplatform - voor de insiders ;) ) makkelijker uitgevoerd worden als je meer fps hebt, bij voorkeur zelfs 124 of meer (!!!). Ja je leest het goed, 124.
Bovendien wil een timedemo van 70 fps zeggen dat je framerate GEMIDDELD 70 fps is en dat het goed kan dat hij in een hevig gevecht zakt tot onder de 50 fps.

Zelfs nu ik met mijn MX-je 35 fps meer haal (van 80 naar 115) in vergelijking met m'n oude TNT2U, merk ik dat alles veel soepeler gaat en dat ik dat soort 'truukjes' makkelijker kan uitvoeren.
Daar wil ik nog aan toevoegen dat je visuele cortex (dat stukje hersens waar alles verwerkt wordt wat je ogen zien) niet meer dan pak-m-beet 30 tot 40 FPS kunnen zien.

Maar je ogen registreren het wel degelijk. En je ogen sturen ook je reacties aan zonder dat je verwerkt wat je ziet. Vergelijk het met een schrikreactie. Dan reageer je sneller dan als je iets wel verwacht had.
Dus op 100 FPS kun je sneller reageren dan dat je met 30 FPS speelt, ook al zie je die extra snelheid niet bewust.

MetalStef
1) 'k mot nog 'n (betaalbare) monitor zien die 360Hz aankan.
2) meer fps dan refreshrate is onzin. 'n monitor kan namelijk niet meer frames afbeelden dan z'n refreshrate.
3) zie m'n andere mail over het Quake loopje....
MetalStef post hier echt een berg complete onzin.
30 tot 40
Warm, het is 22-28 of 23-27 oid. Afhankelijk van de omstandigheden. Gemiddeld iig 25.
Maar je ogen registreren het wel degelijk
Volgens mij zijn toch je ogen en niet je hersenen de beperkende factor. In je ogen moet een chemische reactie plaatvinden die blijkbaar niet sneller gaat. Maar misschien heb ik het mis.

Dan komen we nu bij de complete onzin.
En je ogen sturen ook je reacties aan zonder dat je verwerkt wat je ziet
Moet ik dit nou echt uitleggen? Je ogen zien niets. Alleen losse "pixels". Denk je nou echt dat als je oog ineens een paar donkere pixels waarneemt dat dat een teken om te schrikken is oid? Er moet juist in je hersenen een heel stuk beeldherkenning plaatsvinden voordat je maar het geringste idee krijgt van wat er op die bitmap op je netvlies staat. En dan kun je pas schrikken. Dit gebeurt weliswaar onbewust, maar zoals jij het zegt is het echt onzin.
En zelfs als ik het in de vorige paragraaf mis had, is het toch zeker zo dat je niet sneller kunt schrikken. Je ogen (ofwel je hersenen als ik het mis had) kunnen maximaal zo'n 25 fps verwerken en je hersenen zijn nou eenmaal noodzakelijk om te kunnen schrikken.

Deze reactie is niet als flamebait bedoeld, ik wilde alleen maar even duidelijk maken dat er niets van het verhaal klopte.

---------------------------
Je ogen zien niets. Alleen losse "pixels". Er moet juist in je hersenen een heel stuk beeldherkenning plaatsvinden voordat je maar het geringste idee krijgt van wat er op die bitmap op je netvlies staat. En dan kun je pas schrikken.
Wat begrijpen jullie hier nou niet aan?
En dan komen er allerlei mensen met refresh rates van motitors. Daar zeg ik toch helemaal niets over. (Zou ik wel kunnen doen maar heb ik geen zin in want het is al 100x aan de orde geweest. Sorry dat ik zo arrogant klink, maar ik raak hier nogal over de zeik van)
Als je in 1 seconde een rondje van 360° draait (ps dit is een voorbeeld) en je hebt 100 FPS, dan draai je 3,6° per frame, als je 360° FPS draai je dus 1° per frame, en dat gaat dus een stuk soepeler, dus je ogen kunnen misschien wel niet meer dan +/- 60 FPS waarnemen, als je bijv. een rondje draait is het voor je ogen geen 60 FPS meer maar dan daalt het gigantisch :7.
Mooi irrelevant, mag jij me ff uitleggen waarom je op een monitor dan echt wel het verschil ZIET tussen 25 Hz en 80 Hz. Als je toch maar 25 beeldjes per seconde kunt waarnemen zou dit geen verschil mogen geven. Helaas merk je het verschil wel (jij misschien niet). Het is een medisch feit dat de integratie tijd van de ogen rond de .01 seconde ligt, dus theoretisch zou het mogelijk zijn om 100 beelden per seconde te 'zien'. Dat bewegingen vanaf 25 fps vloeiend 'lijken' komt doordat de hersenen het vloeiend 'maken', niet omdat je niet meer fps kun zien. Dus dat is ook meteen de reden waarom het stukje waarop jij reageerde als interessant gemodereerd was (overigens niet door mij).
Hoe komt het dan dat je wel het verschil ziet tussen 85Hz en 100hz refreshrate van een beeldscherm?
Dat komt omdat Quake z'n loopje sneller kan uitvoeren:

1 Scan input,
2 bereken nieuwe situatie,
3 stuur beeld naar GPU,
4 goto 1

Als je dus meer fps hebt, dan doe je vaker je input scannen, vaker je nieuwe situatie berekenen en dan gaat dus alles vloeiender.
'n bettere engine zou zijn om iedere 1/30 van 'n seconde het beeld te updaten en de rest van de tijd input scannen en situaties berekenen.
Ik denk dat je het verschil tussen 70 fps en 100fps neit merkt, wat je wel merkt is een klein verschil tussen gemiddeld 70fps en gemiddeld 100fps, zeker wanneer de de laagste en de hoogste frames flink uit elkaar liggen...als ik dus steady op 70 fps zou spelen zou ik het verschil met steady 100 fps niet merken...maar ja.

Ik ken ook nog wel een paar mensen dieeen verschil zeggen te zien tussen 85 hz refresh en 120 hz...LOL
Zouden ze niet een keer een prijsoverzicht kunnen geven van alle Geforce 2 en Ultra kaarten die in de NL op de markt zijn. Lijkt me makkelijk voor vwo-tje...
Daar hebben we de pricewatch voor. (zie menu buyers zone) Nu staan er alleen deze Creative en de Hercules in, voor resp. f1299 en f1599.

En waarom het zo duur is heb ik al 300x verteld, dus nogmaals:
www.tweakers.net/reacties.dsp?Action=Posting&ParentID=184734
en
www.tweakers.net/reacties.dsp?Action=Posting&ParentID=193133
Alle nieuwe hardware is duur. De nieuwste processoren hebben ook altijd prijzen die de pan uitrijzen. Kijk nou naar de P4 en de 1GHz systeempjes toen die net uitwaren. Gemiddeld een 12K voor een 1GHz systeempje terwijl je er nu nog niet een 4de van betaald.
Ik kocht mijn Geforce DDR nog voor 900 (Asus 6800 Deluxe) terwijl nu deze met enig zoeken al voor 400 gulden te krijgen is.
Conclusie : Nieuw spul is duur. Wil je top of the line, betaal veel. Wil je goed spul en goedkoper koop het model net onder de top of the line.
*uche*
Kijk nou naar de P4 en de 1GHz systeempjes toen die net uitwaren.
Euhhhh. P4? Die is nog niet uit hoor.

Verder kan ik niets anders dan me helemaal bij irrelevant aansluiten, die heeft het al eens netjes uitgelegd:
Softwareontwikkelingen lopen nou eenmaal altijd voor op vernieuwingen in de hardware, wen eraan...
Software loopt achter. Hoeveel games maken gebruik van T&L? Hoelang werken we nog met 16-bits code (Win 95 / 98 / ME)? etc. etc.
wacht effe hoor!! software loopt vóór, het is voor een programmeur geen moeite om op een 64 bits platform te programmeren, om 128 bits kleurdiepten in te stellen. De enige reden dat dit niet gebeurd is omdat de hardware er nog niet op voorbereid is. Het heeft dus gewoon geen zin.
En dat windows nog steeds met compatible is met 16-bits applicaties wil niet zeggen dat software niet vóór loopt hoor, alleen maar dat het 'downwards compatible' is. Denk effe aan de nieuwste 3D games die doen het niet op je pc-tje van 2 jaar geleden, terwijl dat spel toch echt wel 2 jaar in ontwikkeling is geweest. ik leg het een beetje raar uit maar snappie?
Je hebt gelijk als het mogelijk is je app van de nieuwe hardware gebruik te laten maken door een recompile of het tweaken van wat parameters. Maar dan heb je het over graduele verschillen, vergelijkbaar met het kopen van een nieuwe PC die twee keer zo snel is als je oude zodat al je software ook ineens twee keer zo snel is.

Het heeft jaren geduurd voor er een succesvol 32 bit OS voor de PC kwam (Windows 3.0) na de introductie van de 80386 (ik weet ook wel dat er andere 32-bit OS'en waren maar die zijn nooit echt groot geworden, incl. Xenix). Het heeft nog langer geduurd voordat mainstream applicaties 32 bit werden. Spellen hebben nog veel langer onder DOS gedraaid, en het gebruik van hardware acceleratie heeft pas echt een grote vlucht genomen na de introductie van DirectX dat op zijn beurt weer behoorlijk lang op zich heeft laten wachten.

De volgorde is:
1) Nieuwe hardware (revolutie, geen evolutie)
2) Ondersteuning door OS (drivers)
3) Gebruik in applicaties.

Er komt geen 64-bit OS voor er een 64-bit CPU is. Hardware T&L gaat pas door spellen ondersteund worden als het er is & als het ondersteund wordt door het OS. Daarom profiteerden spellen die OpenGL gebruikten eerder van hardware T&L als spellen afhankelijk van Direct3D.

Bedenk ook dat het aanpassen van software voor nieuwe hardware meer is dan het wijzigen van een paar parameters. Ontwikkelingen in hardware dwingen de applicatie makers het ontwerp van de software te herzien. Voorbeeld: rendering in spellen. Die is in een paar jaar tijd van software matig (waarbij voor 3D depth-sort, BSP trees of scan-line alg. gebruikt werden) naar hardware geaccelereerd (low level rendering in drivers, z-buffering etc.) gegaan. Als je je software niet compleet opnieuw ontwerpt om dit uit te buiten gaat je concurrent er met zijn veel mooiere spel met je klanten vandoor.

Je kunt je als software ontwikkelaar niet permitteren om op de hardware vooruit te lopen. Er is zoiets als de grootste gemene deler, en je business applicatie moet het ook op de 'kantoor-pc' van 3 jaar oud nog redelijk doen. Met games en professionele software kan je je richten op machines van grofweg minder dan 1 jaar oud. Dat betekent dat je bij het ontwerpen en maken van de applicatie uit moet gaan van de snelste hardware die er op dat moment te krijgen is. Dan zit je tegen de tijd dat het uitkomt goed. En bedenk dan eens wat er het afgelopen jaar allemaal gebeurd is op hardware gebied.

Software ontwikkelaars zijn nog maar net begonnen om dit allemaal uit te buiten. Gelukkig veel evolutie en weinig revolutie, maar bedenk maar weer eens wat om al die cycles op te branden :)
fun kaartje maarja waarom zou je em kopen. Hercules Prophet Geforce 2 met 64 MB rulez! Voor zo'n kleine prestatiewinst tegenover zo'n prijsverschil lijkt het me duidelijk! ;)
Ik vind het eigenlijk te ver gaan met die videokaarten van tegenwoordig. Kocht je vroeger (jaartje of 4-5 terug) nog een top-of-the-range-model voor Fl. 300,-, betaal je tegenwoordig 5x zoveel wil je het snelste dat er te krijgen is (in de consumentenmarkt). :'(

Ik stel voor om met z'n allen MX-jes te kopen en zo alle kaarten boven de Fl. 450,- te boycotten }>
in principe heb je best wel gelijk maar ik kan mij nog herinneren dat de eerste voodoo en voodoo2 kaarten ook 600 respectievelijk 750 gulden kostten als je hem als eerst wou hebben.
als je een kaart koopt die net nieuw is betaal je de onderzoekskosten en marketing kosten ook vet mee. wacht je ff dan wordt daar niet meer zo naar gekeken en dan worden de marges ook kleiner (door cuncurrentie) en dus gaat de prijs weer aardig richting normaal.
als je een kaart koopt die net nieuw is betaal je de onderzoekskosten en marketing kosten ook vet mee.
onderzoekskosten aan de ultra zullen wel niet zo enorm geweest zijn he ;)
Geheugen is duur, en er gaat steeds meer en sneller geheugen op een videokaart, dus prijzen uit het verleden en heden zijn niet vergelijkbaar.
Dit kaartje ziet er goed uit :P
Alleen het zou heel erg mooi zijn als die idiote prijzen van het geheugen is gaan dalen.
Dan zou deze kaart VEEL goedkoper worden.

En toch snap ik niet waarom het geheugen nou zo duur moet zijn....
Als je het namelijk goedkoper maakt word er meer verkocht en maak je in verhouding toch zelfs meer winst.... of zien die momopolisten dat nog niet in :?
Ja, als ze voldoende megasnel geheugen zouden hebben zou dat kunnen, Maar dit megasnelle (230mhz DDR) is er gewoon niet in voldoende mate om de prijs laag te houden.
(veel vraag, zeer laag aanbod = astronomische prijs)
Ik koop toch liever een Asus met die TV-Out gein d'r op.

BDW: Dat Blastercontrol prog zat ook bij de vorige, ik heb namelijk de Pro DDR versie.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True