Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

Column 11 maart 2001 aankondigingIn de afgelopen weken is veel te lezen geweest over de introductie van nVidia's langverwachte GeForce3. Het is ook te voorspellen dat wij de komende tijd nog een hele hoop reviews zullen zien over dit onderwerp, aangezien elke zichzelf respecterende site wel een artikeltje wil schrijven over dit nieuwe fenomeen. Aan de komst van de GeForce3 ging een behoorlijke hype vooraf, al maanden wordt gespeculeerd over de precieze specificaties van de GeForce3 en het effect van nieuwe technieken als HSR (Hidden Surface Removal, techniek waarbij oppervlakken die toch niet zichtbaar zijn niet gerendered worden om een hogere snelheid te bereiken) op de prestaties ervan.

Er zijn al wat GeForce3 benchmarks in de nieuwsberichten verschenen, al waren het er niet veel. Wat voortdurend opvalt aan deze benchmarks is dat ze, op zijn zachtst gezegd, een beetje tegenvallen. In de benchmarks die gedraaid worden met de huidige, gangbare applicaties is de GeForce3 vaak even snel of zelfs iets langzamer dan een GeForce2 Ultra, die qua prijs op dit moment een stuk onder de introductieprijs van de GeForce3 zit. Ik wil niet teveel op de zaken vooruit lopen; de Detonator 4 drivers met echte ondersteuning voor de GeForce3 zouden volgens de laatste berichten morgen moeten uitkomen, en deze zouden nog voor een performance boost kunnen zorgen. Toch lijkt het me dat dat nooit zo'n enorme winst kan geven dat de GeForce3 ver boven de GeForce2 Ultra uit kan steken (met de huidige software).

Dit zette mij toch even aan het denken. Ik twijfel er niet aan dat de GeForce3 tot veel nieuwe dingen in staat is, en superieur is aan de voorgaande series. Filmpjes als de Doom 3 demo en allerlei screenshots die wij zo hier en daar te zien krijgen bevestigen dat. Maar dan gaat het allemaal om toekomstige software, programma's die nog niet verkrijgbaar zijn. Het toverwoord lijkt 'optimaliseren' te zijn; de prestaties zijn dan nu misschien nog niet om over naar huis te schrijven, maar het gaat allemaal beter worden met 'geoptimaliseerde' software. We moeten gewoon rustig wachten tot die software er is, en dan zullen wij onze ogen uitkijken en blij zijn met onze prachtige nieuwe GeForce3.

Waar heb ik dat toch eerder gehoord? Bij de introductie van de Pentium 4 kregen - en krijgen wij nog steeds - ook dit soort dingen te horen. De Pentium 4 is dan wel in veel applicaties niet veel sneller, even snel of soms zelfs langzamer dan de huidige processors, maar dit wordt allemaal opgelost met geoptimaliseerde software. En hier zijn de bewijzen ook voor - benchmarks die sterk geoptimaliseerd zijn voor de Pentium 4 laten een stuk betere resultaten zien.

Ik wil het niet gaan hebben over de kwaliteit van de Pentium 4, en of de prijs/prestatieverhouding slecht of goed is. Ik ben er van overtuigd dat Intel met de Pentium 4 een processor heeft neergezet die veel mogelijkheden biedt voor de toekomst, met goed doordachte nieuwe features, waar ze nog veel plezier van zullen hebben. Alleen is dat zo moeilijk te zien met de huidige software. Wat mij op het volgende punt brengt.

Was het niet altijd zo dat de software voorliep op de hardware? Dat je een nieuwe videokaart aanschafte omdat je wŪst dat het dan toch sneller liep? Dat je dat schokkerige beeld op die hoge resolutie kon voorkomen door een nieuwe processor in te slaan? Dat nieuwe software je altijd tot wanhoop dreef omdat het niet meer werkte zoals jij dat wilde op jouw hardware?

Eerder klaagde ik over het ontbreken van ontwikkelingen in de hardware. Nu zie ik het iets anders: de ontwikkelingen zijn er, maar ze worden niet meer op de voet gevolgd door de softwareproducenten. Dat is niet per se de schuld van de softwaremakers. Er is namelijk een groot verschil tussen de soorten veranderingen in de hardware nu en, zeg, zo'n vier jaar geleden.

De ontwikkelaars die toen begonnen aan een spel, wisten waar ze aan toe waren. Ze konden de techniek gebruiken van de net uitgekomen 3dfx Voodoo chipset, en er van uitgaan dat er nog vele kaarten zouden komen die min of meer dezelfde mogelijkheden en architectuur - zij het natuurlijk op hogere kloksnelheden en met betere prestaties - als de Voodoo. Hetzelfde geldt voor de processoren: de Pentium II was net uitgekomen, en hierop gebaseerde of hiervan afgeleide processoren zouden de komende tijd nog wel de computerwereld bepalen.

Nu zitten we echter op een soort breekpunt. Intel heeft zich gerealiseerd dat de Pentium II architectuur nu uitgeput is, dat het geen kwestie meer is van simpelweg de kloksnelheid ophogen en dan-zal-het-wel-goedkomen: die mogelijkheid is er gewoon niet meer. Dus worden er allerlei technieken uit de kast getrokken om iets nieuws te maken wat weer een tijdje meekan. Het resultaat is de Pentium 4. Door nieuwe vindingen kan de kloksnelheid weer flink omhoog gegooid worden, maar voor echte prestatiewinst is de processor ook voor een groot deel afhankelijk van software die geoptimaliseerd is voor SSE2.

Hetzelfde geldt ook, misschien in mindere mate, voor de GeForce3. Met de GeForce2 Ultra heeft nVidia alle rauwe snelheid die in de GeForce2 chipset zat eruit gehaald, maar dat stopt ook een keer. Het is opvallend dat de hardwarespecificaties van de GeForce3 (en dan doel ik vooral op de kloksnelheid van de core en het geheugen) niet veel verschillen van die van de GeForce2 Ultra. Ook hier was het dus nodig om nieuwe technieken toe te passen om het beoogde effect - een snellere chipset met meer mogelijkheden - te bereiken. En ook hier geldt dat er weer een grote afhankelijkheid is van de software: zowel in de vorm van de eigen drivers als ook de software die erop moet draaien.

Het is dus erg belangrijk voor voorgenoemde bedrijven om ervoor te zorgen dat softwareontwikkelaars hun software optimaliseren voor deze technieken. En als belangrijkste producenten op hun verschillende gebieden hebben zij ook de 'macht' om dit door te drukken. Dan valt het me toch op dat zij niet eerder met softwareproducenten zijn gaan praten om ervoor te zorgen dat hun technieken goed ondersteund worden bij het uitbrengen van de nieuwe producten.

Natuurlijk moeten die softwareproducenten ook rekening houden met bezitters van oudere of andere processoren en videokaarten. Maar is het niet zo dat de Radeon ook geoptimaliseerd is voor DirectX 8 features, net als de GeForce3? En is het niet zo dat AMD heeft aangegeven in de toekomst ook SSE2 te willen gaan gebruiken, om ervoor te zorgen dat er wel ťťn standaard blijft? De softwaremakers willen uiteindelijk natuurlijk dat hun programma zo snel mogelijk en mooi mogelijk draait, en als dat beter kan met nieuwe producten, dan is het in het verleden nooit zo geweest dat er nagelaten werd om een programma pas goed te laten draaien op de nieuwste hardware, omdat er zoveel mensen waren met wat oudere componenten. In tegendeel, de software was juist altijd de belangrijkste reden voor mensen om nieuwe hardware te kopen.

Ik weet niet door wie het komt dat de nieuwe technologieŽn zo slecht opgepakt worden. Ik weet niet of de hardwarebakkers niet genoeg hun best doen om de softwaremakers van de voordelen te overtuigen, of dat de softwareproducenten het te ingewikkeld of teveel werk vinden om die nieuwe technologieŽn te implementeren. Maar ik denk wel dat het de ontwikkeling van zowel software als hardware ten goede komt als de makers van beiden eens wat vaker om de tafel gaan zitten en het allemaal wat beter op elkaar afstemmen. Dan verlopen dit soort overgangen, zoals we nu meemaken, net een stukje soepeler, en worden ook de hardware-verkopen positief beÔnvloed, doordat de afwachtende houding die veel mensen nu hebben voorkomen wordt. De technologie is voorhanden, doe er iets mee!


Lees meer over

Moderatie-faq Wijzig weergave

Reacties (57)

Om maar even bij het onderwerp videokaarten te blijven:

Er moet gewoon 1 interface komen voor de aansturing van videokaarten die universeel is. Nu moeten spelletjes makers al kijken of ze voor DirectX of voor OpenGL gaan programmeren. De voorkeur gaat uit naar een open standaard waar alles van bekend is, dus geen 'verborgen' mogelijkheden die alleen bepaalde spelletjes makers / operating systems kunnen gebruiken. Het voordeel hiervan is de portability naar andere OS'en sterk verbeterd.

Microsoft is de schuldige naar mijn idee. Iedere keer opnieuw het wiel uitvinden (OpenGL --> DirectX, Java --> C#) ze flikken het gewoon iedere keer weer. Door al die standaarden zien fabrikanten van games/software door de bomen het bos niet meer en is het zo enorm veel werk om nieuwe dingen bij te houden. De vernieuwing moet op hardware niveau plaats vinden.

Compatibiliteit is het keyword, het lijkt alleen of niemand van de software makers daar rekening mee houdt tegenwoordig :(
Microsoft heeft Java niet uitgevonden, ook C++ is niet door Microsoft uitgevonden, en OpenGL ook niet zover ik weet.
Alleen DirectX is door hun uitgevonden, en God Bless them voor datte.
Het voordeel van DirectX is dat al die bomen (api's) samengevoegd worden in 1 grote boom (DirectX) zodat spellenmakers alleen DirectX hoeven aan te schrijven en niet meer al die afzonderlijke api's wat de compabiliteit verhoogt en de ontwikkeltijd en kosten van spellen verlaagt.
En aangezien er op een bepaald gebied altijd meerdere standaarden zijn heb je ook OpenGL waardoor een spellenmaker de keuze moet maken tussen 1 van de 2. Maar meestal wordt dat toch beide.
Bovendien ontwikkelt Microsoft wel standaarden, maar of die ook als standaard worden gezien is natuurlijk een ander verhaal. Als geen enkele spellenmaker DirectX zou gebruiken zouden we nou niet bij versie 7 (4 heeft nooit bestaan) beland.
Dat bedoel ik niet echt...Ik bedoel als er een nieuwe standaard ontwikkeld wordt. Overleg dan met ALLE betrokken partijen ipv zomaar te beginnen met een 'standaard' te maken die er door gedrukt kan worden omdat ze zo'n groot marktaandeel hebben. Dat is nog lang niet het ergste, de standaard is nog closed ook, dus werkt ALLEEN onder dat betreffende OS.

OpenGL is naar mijn idee een veel betere oplossing voor 3D toepassingen (is al vele malen uitgewerkter en doordachter dan DX van MS. Waarom dan weer opnieuw het wiel uitvinden???

edit:

enorme flame eruit gehaald :P
<div class=r>[Reaktie gewijzigd door [Felix]]</div><!-- end -->
Waarom steken ATI en nVidia de koppen niet bij mekaar om tot 1 nieuwe extentie te komen die dan ook in OpenGL 1.3 :? doorgevoerd gaat worden? Nee gewoon ff snel een 'quickfix' voor een structureel probleem maken voor specifieke chip. Daardoor gaat heel de markt fragmenteren en wint uiteindelijk niet de beste, maar de speler met het grootste marktaandeel, en daar word ik niet goed van :(
Ja, daarom gebruikt _iedereen_ behalve Carmack en wat rare oostblok-developers DirectX voor hun games, omdat het zoals je zegt zo extreem inferieur is aan OpenGL.
Als OpenGL zo veel beter is als DX, dan moet je mij toch eens uitleggen waarom een allround 3d modelling-, rendering- & animation-applicatie als 3ds max 4, het nu helemaal op DX8 gooit om mooiere real-time viewports te creŽren, i.p.v. met OpenGL.
http://www2.discreet.com/animation/
Ja bovenstaande is een troll maar ik reageer toch omdat ik me niet kan inhouden :)
OpenGL is veruit superieur aan DirectX (het 3d gedeelte van dx iig) en zal wel zo blijven.
Ja, daarom gebruikt _iedereen_ behalve Carmack en wat rare oostblok-developers DirectX voor hun games, omdat het zoals je zegt zo extreem inferieur is aan OpenGL. Al die lui willen immers zichzelf alleen maar kwellen ipv kwaliteit leveren en winst maken.

Waar ontwikkelaars helemaal blij van worden, is dat ze voor bijvoorbeeld vertexshaders straks zowel de hele reut mogen gaan implementeren op basis van de nVidia GL-extensies EN apart voor de ATI GL-extensies! Dat is nog eens produktief toch? En dan te bedenken dat ze dan dubbel werk doen tov DirectX waar dat allemaal niet hoeft en ze NOG alleen maar nVidia en ATI ondersteunen.

Welkom op aarde Felix.
Het grote voordeel van OpenGL is dat het door meerdere platforms wordt ondersteund. Games als Unreal en Quake zijn met weinig moeite over te porten naar andere platforms (Linux, Unix, Mac, Playstation, etc.)
DirectX is gebaseerd op Windows, dus werkt niet zomaar op ander platforms, hooguit op de aankomende X-box.
Aan Cookie: dat was sarcastisch slimmerik. Maar troost je, het ging niet alleen aan jou, maar ook aan die moderators die je op Score 3 hebben gezet voorbij }>
Er wordt op het moment hard gewerkt aan een nieuwe standaard. De standaard willen ze openML noemen. Dit is overigens al een tijdje bekend. Opengl wordt gebruikt voor 3d, misschien OpenAL voor 3d-geluid en een ander nieuw te ontwikkelen onderdeel voor het overige multimedia gedeelte.
DirectX zuigt! Hierdoor komen er niet zo snel linux spellen. De meeste spellen die opengl gebruiken zijn onder linux te gebruiken. Het ene spel native en het andere spel d.m.v. wine.
Direct X zuigt niet omdat daardoor minder spellen naar Linux geport worden, ik vind het slim van microsoft. Ik zou het zelfde hebben gedaan om mijn markt te beschermen.

Sorry mensen, die OpenGL/DirectX discussie is er weer net zo een als alle andere discussies over dit-beter-dan-dat. Je hebt er helemaal geen bal aan.
We hebben geen invloed op de industrie, en zullen dat ook niet hebben, tenzij wij hun ontwikkelaars betalen.

Punt.
Diegene met het grootste marktaandeel IS meestal de best, of iig WAS de beste, anders krijgen ze nooit een groot martkaandeel.

Eerst was 3Dfx de beste, en dus ook het grootste martkaandeel. Maar ze maakten fouten, nVidia werd beter, dus tja, nu is nVidia de martkleider. volgens mij staat de fixes in OpenGL bv daar los van.

Als ze alles moeten overleggen duurt het een halve eeuw voordat er eens overeenstemming is (zie DVD+RW)
we zijn toch al bij Directx 8? (8>
Ik vind dit eigenlijk een vreemde stelling, normaal zeggen alle mensen hier dat ze zo tegen 1 'standaart' zijn: Mensen willen meer keuze in welke processor ze nemen (AMD/Intel), willen meer keuze in het OS (MS Windows/Linux/beOS/enz.) en nu is het opeens zo dat je maar 1 standaart qua spellen en programmeer taal wil :? Dat is eigenlijk wel een beetje vreemd....
Stel dat dat dus doorgaat en OpenGL de standaart wordt en dat Java de standaart wordt, gaat iedereen dan weer zeuren: "ja, we willen meer standaarden, dit is helemaal niets, monopolie", tja wel een beetje vreemd..

Conclusie: het is ook nooit goed of het deugd niet }>
Sinds wanneer is een standaard een monopolie??? Ik geloof niet dat je het echt begrijpt...Microsoft maakt van een standaard een monopolie |:(
De voorkeur gaat uit naar een open standaard waar alles van bekend is, dus geen 'verborgen' mogelijkheden die alleen bepaalde spelletjes makers / operating systems kunnen gebruiken.
Een deel van die "verborgen" mogelijkheden wordt ook door fabrikanten als nvidia gebruikt, zoals de extra nv_ extensies in opengl, die speciaal bedoelt zijn voor de proucten van nvidia.
Misschien een soort 3dgraphics virtual machine? Misschien kunnen DirectX en OpenGL samen mergen - het beste van de 2 nemen - en zo een compleet nieuwe standaard maken. Deze kun je dan op een soort virtual machine laten aansturen, zodat de hardware niet meer van belang is. Als je iets aanstuurt wat alleen de Geforce 3 kan, kun je dat meestal wel emuleren op andere manieren (ten koste van performance of visueel spektakel). Hiermee zou je alles kunnen aanspreken, en door de standaard steeds te vernieuwen, kun je ook de hardware gebruiken..

\[Jaja.. ik weet dat dit errug lijkt op m$ idee van directX.. DirectX heeft alleen bijna altijd een minder goeie performance dan openGL. Daarbij ben ik tegen m$ standaards, dus gebruik ik het sowieso niet als ik het kan vermijden..]

Nu krijg je wel weer het probleem dat er weinig (geen) alternatieven zijn. Heb je een standaard, wordt alles voor die standaard geschreven. (zie m$) Als iemand dus met een betere versie komt, kan die het vergeten..
Het had niet veel gescheeld of er was op 3d gebied een standaard. Microsoft zou met OpenGL in zee gaan om een standaard te maken. Dit zou dan al in DirectX 8 te zien zijn. Helaas rezen er enkele meningsverschillen zodat de samenwerking beeindigd werd. Dit las ik afgelopen zomer al in een blad.
Ik denk dat Intel en nVidia juist meer dan wie dan ook zorgen voor software. nVidia heeft een hele grote invloed gehad op de ontwikkeling van DirectX 8. Intel geeft miljoenen uit aan reclame voor de Pentium 4, ook bij ontwikkelaars. Van beide bedrijven is kilo's documentatie te krijgen over optimalisatie. SDK's zijn gratis en voor de release van werkelijke hardware de downloaden. De echt belangrijke mensen worden al vroeg van samples voorzien.

Het probleem is echter dat men op software ook geld probeert te verdienen. Wat voor nut had het een jaar terug om zwaar veel tijd (lees: geld) in optimalisatie voor Pentium 4 en GeForce3 te steken. Je programma komt nu uit en het aantal mensen met die hardware dat ook nog eens die software van jou wil kopen is op ťťn hand te tellen. Het voordeel dat je er als ontwikkelaar van hebt is dus minimaal.

En stel dat je wel zou willen dat je software geoptimaliseerd is voor de hardware die op het moment van release gloednieuw is. Hoe weet je in godsnaam welke hardware er over een jaar is? Men wist een jaar terug nog niets over GeForce3's of Pentium 4's. Intel en nVidia zullen wel iets van informatie over de features die er in de toekomst aankomen naar buiten hebben gebracht, maar ga je je daarop baseren loop je het risico nemen dat de hardware er heel anders eruit komt te zien dan je had verwacht, of dat de release een half jaar wordt uitgesteld zodat je met een programma zit zonder hardware om het op te draaien.

Dus pas zodra de hardware wijd is verspreid en geaccepteerd wordt het aantrekkelijk om er rekening mee te houden. Ontwikkelaars nemen geen risico en wachten gewoon op een volgend project.

Ik denk niet dat daar iets aan te doen valt vanwege de zeer wispelturige markt. Stel dat ID Software al een jaar bezig was geweest om de Doom3 engine helemaal voor de 3dfx Rampage/Sage kaarten te optimaliseren. Dat was ook een veelbelovende architectuur (heeft zelfs nVidia toegegeven) en als de kaart samen met Doom3 zou uitkomen zou dat een groot succes zijn voor beide bedrijven. Toch heeft Carmack dat niet gedaan en dat is maar goed ook...

Nu is de GeForce3 uit, deze is tastbaar en beschikbaar... Tja, we moeten wel weer even wachten, dat is frustrerend, maar vanuit het oogpunt van de ontwikkelaar zeker zo veilig en noodzakelijk.

Wil je meteen optimaal gebruik kunnen maken van je nieuwe hardware moet je oudere dingen kopen. Koop je nieuwere dingen weet je dat het veel langer mee kan, het is een een persoonlijke afweging (je bent niet verplicht een GeForce3 of Pentium 4 te kopen!), maar niet iets wat zomaar even gefixed kan worden met wat overleg.
Dat was ook een veelbelovende architectuur (heeft zelfs nVidia toegegeven) en als de kaart samen met Doom3 zou uitkomen zou dat een groot succes zijn voor beide bedrijven. Toch heeft Carmack dat niet gedaan en dat is maar goed ook...
Misschien is dat juist niet goed. Als het een veelbelovende architectuur was en veel spellenontwikkelaars waren ermee bezig gegaan, zou nVidia er wel voor gezorgd hebben dat zo'n goede kaart verder ontwikkeld wordt (en uitgebracht). Ik vind het zonde, 3dfx technology die al uit had kunnen zijn, ligt nu te wachten om in de NV30(?) geÔmplanteerd te worden, die misschien over een jaar uitkomt...
Nieuwe technieken: hehehe.... meestal zijn het gewoon tweaks om een bestaand proces te verbeteren. Neem nu bv de kopertechnologie voor CPU's. is hartstikke nieuw en biedt erg veel mogelijkheden, maar uiteindelijk is het niet meer dan een middel om meer van hetzelfde te maken. Voor de Athlon is het overstappen naar de kopertechnieken namelijk slechts een bijkomstigheid gebleken (want wie ziet het verschil :?). En een garantie voor hogere kloksnelheden, maar zoals gezegt, het is niet meer dan een middel.

Technieken zijn vaak meer van hetzelfde. Daardoor zijn prestaties niet vaak duidelijk fundamenteel beter. Echte rigoreuze wijzigingen vallen in het begin dan weer niet op omdat de rest nog niet uitgetweaked is. P4 valt daar weer onder. SSE2 is superieur en toch presteert de chip niet extreem veel hoger.

De rigoreuze veranderingen komen slechts sporadisch voor. De Kyro heeft HSR tot nieuwe hoogten doen stijgen en de HyperZ heeft ATi weer op topniveau gebracht. Een rigoreuze wijziging zorgt hier voor een oogomschijnlijke aansluiting met gemak. Tussen de bedrijven door is het niet meer dan bestaande technieken uitbouwen (lees: opklokken en bandbreedte toevoegen).

Persoonlijk denk ik dat er nog veel rigoreuze technieken aan de horizon liggen. Draadloze communicatie begint en kan daarna natuurlijk paralel worden gezet. koolstof-technieken blijken ook uitermate geschikt te zijn om chips te maken en met deze nano-tubes worden nu testen gedaan. De resultaten zijn nu al beter dan wanneer de huidige optimale condities worden gebruikt (Arseen/siliciumgeleiding).
Je vergelijkt de GeForce3 met een Pentium IV. Er is echter een belangrijk verschil tussen die twee. Bij een processor is duidelijk te zeggen wat performance is: hoe sneller je programma draait, hoe beter de performance. Bij een 3D kaart is dat een stuk minder duidelijk: de hoeveelheid polygonen per seconde zegt lang niet alles. 16-bit of 32-bit kleur, verschillende soorten FSAA, bumpmapping ed bepalen hoe mooi je plaatje eruit komt te zien.

Ik denk dat nVidia een goede beslissing genomen heeft door niet een snellere versie van de GeForce2 te ontwikkelen, maar in plaats daarvan de functionaliteit enorm heeft uitgebreid zodat er veel meer effecten gemaakt kunnen worden. Het is natuurlijk leuk als je Quake 3 in 2048x1536 kan spelen op 100 fps, maar wie heeft nou een monitor die dat aankan? Een lagere resolutie met een complexer plaatje vol special effects is veel aantrekkelijker.
Dan valt het me toch op dat zij niet eerder met softwareproducenten zijn gaan praten om ervoor te zorgen dat hun technieken goed ondersteund worden bij het uitbrengen van de nieuwe producten.
Praten kunnen ze wel, maar voordat ze zowel GeForce3 samples als drivers kunnen leveren kunnen de spellenmakers er ook niet veel mee.

Dankzij sites als tweakers.net kunnen we nu elke dag over nieuwe hardware ontwikkelingen lezen, misschien dat het daarom lijkt alsof ze trager geaccepteerd raken als vroeger. Volgens mij heeft er altijd al een behoorlijke vertraging gezeten tussen introductie en ondersteuning door de meeste software. 386 protected mode (zoals _Teun_ al noemde), 16-bit geluidskaarten, CD-ROMs, het duurde altijd even voor ze veel gebruikt werden. DVDs met software erop zie je ook nog niet veel, bijna alle DVD schijfjes die verkocht worden zijn films.
Was het niet altijd zo dat de software voorliep op de hardware?
Nee dat was niet altijd zo. Een ander voorbeeld waar het niet zo was. Toen Intel in 1995 de Pentium Pro introduceerde draaide bijna alle computers nog Windows 3.1 en beperkt Windows 95. Windows 3.1 is 99.9% 16 bit en ook Windows 95 heeft nog veel 16-bit code. Op het moment van introductie was de Ppro trager dan de Pentium terwijl de kloksnelheid hoger was en er meer cache op de chip zat. Alleen bij Windows NT, wat nauwelijks gebruikt werd, draaide de chip sneller.

Met de Pentium Pro is het nooit echt goed gekomen, maar met een paar modificaties (o.a werd z'n dure cache buiten de chip geplaatst) werd het de Pentium II en die heeft het niet slecht gedaan...
het mag van mij wel ff stil staan
ff 2 jaar ofzo niet sneller dan 1,7ghz
en niet sneller dan Geforce 3.
gewoon hoe het nu is, en wat nu nog verwacht word
en dan mag het wel ff stilstaan
de software die er allemaal nog aan moet komen
en dan zul je zien dat met de "nieuwe" pc's van nu
alles tegek te spelen is
en als er dan over een jaar of 3 4 weer een spel uitkomt
wat echt traag draait op je 1,2ghz athlon met geforce ofzo, dan wordt het tijd voor een nieuwe kaart en een nieuwe proc

=)
en als er dan over een jaar of 3 4 weer een spel uitkomt
wat echt traag draait op je 1,2ghz athlon met geforce ofzo, dan wordt het tijd voor een nieuwe kaart en een nieuwe proc


Juist, alleen is het wel zo dat dat sneller gaat dan 3 of 4 jaar...
Ik heb Nascar Racing 4 uit amerika over laten komen, en daar heb ik een nieuwe PC voor gekocht (en de vorige had ik gekocht voor Grand Prix Legends).

Ik heb nu een AMD Ath TB 1.2 met GeForce 2 MX voor de games... Dat loopt nu wel lekker. Echter... Als Papyrus nu een nieuwe racing game gaat maken (waarschijnlijk weer een Indycar (CART) of een F1 sim) dan loopt ie misschien nog nŤt aan lekker op die machine.

Als zoals jij dan zegt, de machines een beetje blijven hangen op de snelheid, dan gaat er dus een heleboel realisme verloren, omdat voor realisme nou eenmaal zo veel mogelijk processor kracht nodig is, en zoveel mogelijk effecten op je vidcard. Als voorbeeld Nascar Racing 4 (geen idee hoeveel van jullie hem al hebben, of willen), de physics engine is zů realistisch dat je het verschil van 1 millimeter damping al merkt in de bochten. Nou loopt dat met 43 auto's op de baan erg gauw in enorme aantallen berekeningen per seconde... Maar het is nog steeds niet Ťcht realisme. Daarvoor hebben we nog meer parameters nodig, en dus nog meer rekenkracht.

Denk jij nou echt dat game producers geld gaan stoppen in iets wat niet beter is als de vorige? Nee...Precies...Als ze dat wel zouden doen, dan zouden we blijven hangen op het huidige niveau. Want wat is het nut om iets te bouwen wat toch niet verkocht wordt. Alles draait immers nog lekker, en de applicaties vereisen niet meer...Dus why?

Mijn opinie is dat de software nog steeds de hardware vooruit is... Misschien niet op VidCard gebied, maar zeker wel op andere gebieden. En de screenshots die je ziet zien er bijna allemaal hetzelfde uit. Veel kleur, en vooral helder. Video is en zal altijd ondergeschikt blijven aan rekenkracht. Het enige wat een GeForce 3 doet is een heleboel rekenkracht van de processor vrijgeven voor physics die anders voor rendering gebruikt had moeten worden. En het enige verschil tussen een GeForce 2 en een GF 3 is dat de GF3 extra dingen aankan die nu nog door de (te langzame) processoren gedaan zouden moeten worden (ik kan namelijk ook kiezen om software matige rendering te laten doen, en dan kan ik ook de meeste opties aanzetten die met hardware ook kunnen, als ze niet door MS of de Producers softwarematig uitgezet worden). Je moet alleen niet op de framerates letten, want dan zie je pas hoe langzaam de processoren zijn.

Nou ben ik zo lang mijn mening aan het beschrijven geweest dat ik glad ben vergeten wat mijn mening eigenlijk was...Maar het had er mee te maken dat de PCs en Video kaarten gewoon doorontwikkeld moeten blijven worden, omdat wij met z'n allen steeds betere games willen. En dat als je 1 van de 2 stopzet deze hele branche in elkaar dondert als een kaartenhuis.

(Ik heb het niet geteld, maar ik kom qua aantal woorden denk ik in de buurt van de originele feature...
Ugh
* 786562 TagForce
Het is eigelijk heel simpel. Spelontwikkelaars willen zoveel mogelijk spellen verkopen. Om dit te doen kun jje niet met extreem hoge systeem eisen komen aanzetten. Er zijn namelijk nog genoeg mensen met een 300Mhz Celeron en een TNT2 die ook mogelijk jouw spel willen aanschaffen. Hierdoor is en blijft het meestal maar droevig gesteld met het aantal polygonen en de hoge resolutie textures. Natuurlijk is het mogelijk om extra hoge res textures e.d. erbij te leveren, maar dit wordt helaas maar weinig gedaan.

Je kunt dus nu wel een Geforce3 aanschaffen, maar met die extra features wordt pas wat gedaan op het moment dat de GF3 als budgetkaart in een Aldi pc zit. :'(
Hmmm... ik zie netto niet echt je punt, Arjan. Als er nieuwe hardware net uitkomt (denk aan de 386 die voor het eerst 32bit aankon) duurt het een tijdje voor de software er gebruik van maakt. Dat is al jaren zo en dat zal zo blijven. Er zijn nu spelmakers die aangekondigd hebben hun nieuwe engine te baseren op de mogelijkheden die de GeForce 3 nu biedt.
Mijn interpretatie:
Je koopt iets bv.:
GeForce3 en P4 met 256 MB geheugen en op dat moment is een systeem dat bijna de helft kost even snel als het beste wat deze fabrikanten leveren en het andere systeem leveren ze ook als middenklasser.
Het is eigenlijk ook misschien wel internet die ervoor zorgt, zodra er engineringssamples zijn worden die gereviewd, maar eigenlijk horen de softwarefabrikanten die te krijgen om een nieuw spel te gaan bouwen, alles draait om zo snel mogelijk maar de spullen te hebben liggen in de winkel, terwijl het eigenlijk de stomheid is van de consument, de Geforce 3 is gewoon niet klaar om verkocht te worden in de winkels: de software is niet klaar, dan is het eigenlijk raar dat je zo'n kaart dadelijk meteen op grote schaal verkocht ziet worden. Alsof je een auto koopt die op benzine en lpg loopt zonder lpg stations in je land en tegen de tijd dat er wel lpgstations zijn is de auto al de helft minder waard, en kun je pas gebruik maken van de voordelen.
e Geforce 3 is gewoon niet klaar om verkocht te worden in de winkels
En bovendien komt er tegen het ogenblik dat die software uitkomt meestal nog een revisie van de kaarten, zodat je meestal nog een snellere kaart hebt (en er vťťl minder voor betaalt).
Hmpz ja inderdaad, net zoals toen de Pentium 60 er kwam. In die tijd was een 486DX4 100 ook sneller in de meeste dingen, alleen maar doordat de "Pentium-instructies" niet (goed) werd gebruikt...
Groot verschil met vroeger is dat je nu onmiddellijk op de hoogte bent van alle nieuwe producten en trends. Je weet nu al wat er over een maand in de winkel zal liggen, en je hebt al op 30 sites benchmarks kunnen zien.
Vroeger (bij het uitkomen van die 386 met 32-bits adressering) moest je toch mooi wachten op de computerbladen, en was dat niet meteen te koop in de winkel.
geforce 3 en p4 zijn net nieuw en is dus zeker niet raar dat de software NOG niet gebruikt maakt van alle features dat de nieuwe hardware te bieden heeft.

Bovendien is de nieuwe hardware in het begin veel te duur, waardoor niet iedereen het heeft en dus zijn producenten van software vaak geneigd om het optimaliseren voor bepaalde hardware uit te stellen tot dat de hardware een beetje mainstream is.

just my 2 cents.
geforce 3 en p4 zijn net nieuw en is dus zeker niet raar dat de software NOG niet gebruikt maakt van alle features dat de nieuwe hardware te bieden heeft.
Inderdaad. Maar ik vraag er ook niet om dat alle features van die nieuwe hardware gebruikt worden - maar dat er in ieder geval verbetering is te zien. Als je een Pentium II kocht, dan was die in de bestaande software sneller dan de Pentium I. Met de Pentium 4 geldt lang niet altijd hetzelfde t.o.v. de Pentium III, en de situatie is dus anders dan de laatste jaren. Er is mijns inziens niet genoeg gedaan om deze 'overgang' soepel te laten verlopen.

In het verleden was er nog een hele duidelijke reden om nieuwe, dure spullen te kopen: het resultaat was eigenlijk altijd zichtbaar. Er was altijd een snelheidswinst, ook bij bestaande software. Nu is dat niet zo: de GF2Ultra geeft betere resultaten dan een GF3, en een Pentium III of Athlon haalt soms de Pentium 4 in.
Ik vind eigenlijk dat je een beetje te kort door de bocht gaat met je artikel. Natuurlijk heb je gelijk: met een P4 en/of GeForce 3 heb je niet direct een snellere pc. De overgang van P1 naar P2 en van een TNT2 naar een GeForce liep beter, de software kon er al meteen prima mee overweg en draaide (over 't algemeen) stukken beter.

Maar dat de P4 en de GeForce 3 de overeenkomsten hebben niet perse sneller te zijn is in mijn inzicht gewoon toevallig. Toevallig, dat het nou 's een keertje anders verloopt dan anders. Maar dat is toch helemaal niet erg? Het mag toch wel 's een keertje een andere richting inschieten? Als het maar vooruit gaat, en dat gaat het. Want zeg nou zelf: al zou de P4 een beetje gebrekkig blijven qua ondersteuning (lijkt me niet, maar voor het verhaal, he), het is weer een nieuwe lijn, die al snel de 2GHz barriere zal doorbreken, en misschien haalt hij de 3GHz nog wel met deze architectuur. Een AMD Athlon 1.2GHz is soms sneller dan een P4 1.4GHz, maar een P4 2GHz is dan toch echt wel weer sneller: het is toch echt een sprongetje voorwaarts.

Als straks de GeForce4 (hopelijk bedenken ze nu weer 's andere naam, ben 'm eigenlijk al een beetje zat aan 't worden) uitkomt, heb je grote kans dat hij wel meteen sneller is dan een GF3. Hoeft niet, maar het lijkt me aannemelijk. En de P5 zal waarschijnlijk een verbeterde P4 zijn, die daardoor meteen sneller zal zijn.

Persoonlijk ben ik het er wel mee eens dat het beter zou kunnen, maar ik kan er mee leven omdat ik in het achterhoofd weet dat het beter zal worden.

Ik wou er nog veel meer in gaan betrekken, maar ik zie dat vele anderen die punten ook wel aankaarten, dus laat ik het hier maar bij.

Conclusie: het is gewoon toeval dat dit gebeurt. Het kan vaker voorkomen, het [i]is[/is] vast wel 's eerder voorgekomen en het is nu het geval. Het blijft vooruitgang, hoe je het ook went of keert. Je kan er in ieder geval wel een leuk artikeltje over schrijven, en een heleboel reacties lospeuteren.
Ik weet niet door wie het komt dat de nieuwe technologieŽn zo slecht opgepakt worden.
ik wel;
de techtniek gaat gewoon te snel,
het is gewoon niet meer bij te houden.
Ik ben net een week op vakantie geweest, en je weet niet wat je allemaal mist in zo'n week. Het is echt erg.
Ik ben net een week op vakantie geweest
Je laptop + modem + portable satcom vergeten? Vakantie is gťťn excuus meer voor de echte tweaker om nog nieuws te missen! Overal ter wereld kun je al dan niet draadloos prettig geÔnformeerd blijven :).

* 786562 Renť
Dat heb je als je geen WAP mobieltje hebt.
Tja het is tegenwoordig weer is anders dan de jaren '20 :*)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True