Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Bron: The Inquirer, submitter: FFWD

The Inquirer heeft weer nieuwe informatie over de nieuwe videokaart van nVidia te weten achterhalen, ondanks de extra beveiligde lippen van het bedrijf. Zo is men te weten gekomen dat de NV40 inderdaad 210 miljoen transistors zal gaan bevatten en verder zestien pipelines. De clou is echter dat dit niet de NV40 is, maar de opvolger daarvan. nVidia heeft hiertoe besloten nadat gebleken is dat de nieuwe videokaart van ATi - de R420 - over twaalf pipelines zal gaan beschikken. Hierdoor zou de NV40 met slechts acht pipelines niet mee kunnen komen met het Radeon-geweld.

Vandaar de onmiddellijke overstap naar de NV45 in plaats van de NV40, iets wat verder ook treurig nieuws voor de CeBIT inhoudt. nVidia zal in dit geval geen werkende versie van de chip kunnen tonen en daarnaast zal de lancering in april wederom een papieren zijn. Zeker omdat de NV45 in eerste instantie was bedoeld als de PCI Express-versie van de NV40 en daardoor pas voor medio 2004 was gepland. Nu de lancering van deze videochip naar voren is gehaald, zal in eerste instantie de laatste ontwerpfase versneld moeten worden uitgevoerd. Hierbij is te hopen dat er tijdens de productiefase geen nieuwe fouten zullen worden ontdekt, anders komt de kaart nog later in de schappen.

nVidia Twirl
Moderatie-faq Wijzig weergave

Reacties (60)

Dat is goed nieuws voor ATI, die zullen dus de komende maanden nog steeds koploper blijven op de grafische markt voor consumenten.

Ik ben ook bang voor NVidia doordat dit weer half lijkt te floppen zoals met de eerste FX serie zij, de productie eerder zullen starten zonder de hardware volledig te kunnen doorontwikkelen en maybe je straks weer met een herriebak zit die 3 PCI sloten in beslag neemt.
Daarnaast zullen de drivers nooit tijdig tijdig geoptimaliseerd zijn waardoor consumenten die deze kaarten gaan kopen, voorlopig het zullen moeten doen met "oude" drivers waardoor de performance en mogelijk compatibiliteit niet optimaal zal zijn.
Ik ben ook bang voor NVidia doordat dit weer half lijkt te floppen zoals met de eerste FX serie
Toen was de Radeon 9700pro echter op papier ook sneller, terwijl dit nu het geval niet is. Met de 16 pixelpipelines, hooggeklokte GDDR3 en andere verbeteringen (PS 3.0) zal deze kaart normaalgezien niet floppen. De GDDR3-technologie is ook zo gemaakt, dat het geheugen niet zo warm krijgt per MHz, waardoor het warmteprobleem van bij de introductie van de FX hierdoor al wat uitgesloten wordt.
Verder stappen ze voor zover ik weet ook niet meer over op een nieuw productieprocédé, zoals dat bij de introductie van de FX het geval was. Juist dit leverde zoveel problemen. Intss heeft de fabrikant van de nVidiachips het productieprocédé echter goed onder de knie: dit is te merken aan de ocprestaties.
ocprestaties Anandtech
Toen was de Radeon 9700pro echter op papier ook sneller, terwijl dit nu het geval niet is.
Pardon? Kun je misschien met enkele DX9 tests aantonen?
Kijk maar eens op de vergelijking van THG naar de scores met 4xAA en 8x aniso. Je wilt met je dure videokaart tenslotte wel de beste beeldkwaliteit bij framerates boven de 50. En dan heb ik het nog niet eens over de subjectieve kwaliteitsvergelijking.
het warmteprobleem van bij de introductie van de FX
Het warmteprobleem lag niet aan het geheugen maar aan de GPU. Het was al DDR2 en dus minder warm.

@mjt
oh ja. Zo kun je het ook opvatten. Maar dan nog: het ligt er niet aan wat er op papier staat, maar hoe goed je het interpreteert.

Oppervlakkig gezien als je alleen naar de pipelines kijkt wel. Maar als je ook de berekende kleurdiepte erin betrekt niet. Met 12 pipelines kun je net zo snel aan 24 bits rekenen (Ati) als met 16 PL aan (niet door DX9 verlangde) 32 bits (nV).
Zelfde met kloksnelheid en ipc, geheugennelheid en busbreedte.
Hij bedoeld waarschijnlijk dat nu op papier de R420 niet sneller lijkt dan de NV40.

Maar dat is nogal een dubieuze uitspraak. De R300 leek op papier ook niet meteen zoveel sneller als de NV30.
Dat papier zegt niet zoveel.

Aantal pixelpipelines zegt niets over de prestaties als je niet meer over de pipelines zelf weet. (vooral niet gezien de verhalen over "extreme pipelines")

PS3.0 heeft niemand behoefte aan en wordt niet gebruikt. Dat is anders dan bij PS2.0 waar de developers om zaten te springen.

Als het gerucht waar is van dat uitstel dan kan je al dat papiertje al helemaal weggooien. Want zo'n kostbaar uitstel en weggooien van een design waar al zo lang aan gewerkt is doe je alleen als de zaak goed mis is.
het is de enquirer die dit post dus het is maar de vraag of het klopt.

verder is de semi-pro markt nog steeds gedomineerd door nvidia zelfs nu ati "betere" chipsets heeft uitgebracht. houdt tevens er rekening mee dat het maar de vraag is hoelang het gaat duren eer de nieuwe chipset zal worden uitgebracht tegenover elkaar.
Gepost door n4m3l355 -
het is de enquirer die dit post dus het is maar de vraag of het klopt.
Waarom worden ze hier dan wel gepost? Is Tweakers ook onbetrouwbaar?
tweakers is an sich geen nieuws-site, althans, niet vanuit de basis.
Tweakers.net is een nieuws-verzameling van alle andere nieuws-sites op het net en vormt dus een soort archief. Een verzameling heeft een bron, blijkt die bron onbetrouwbaar dan is de bron de fout, niet de boodschapper ;)

don't shoot the messenger! :+
@ Dethred
Ik ben persoonlijk nog steeds niet overtuigd dat de chippen van ATI even stabiel zijn
als je ze niet probeerd, dan kan je jezelf niet overtuigen ook

(ik ben een blije gebruiker van een R9700pro op dit moment)
<offtopic> Der wordt helemaal niet gesuggereert dat Tweakers onbetrouwbaar is, en het wordt hier gepost omdat er een groot vermoeden bestaat dat het waar is wat erop The inquirer staat. Dat neemt niet weg dat ze nog altijd ongelijk kunnen hebben. </offtopic>

Verder hoop ik wel dat Nvidia een goede chip uitbrengt. Ik ben persoonlijk nog steeds niet overtuigd dat de chippen van ATI even stabiel zijn.
Gepost door BezurK - dinsdag 16 maart 2004 - ]Tweakers.net is een nieuws-verzameling van alle andere nieuws-sites op het net en vormt dus een soort archief. Een verzameling heeft een bron, blijkt die bron onbetrouwbaar dan is de bron de fout, niet de boodschapper
Dat is wel erg makkelijk! Dus kun je zomaar alles klakkeloos overnemen?
Maar dit is puur suggestief, naar mijn mening kan ATi dit ook overkomen in plaats van NVidia. We shall see what the future brings us :)
Ik zie hier een zwaar evil scheme tussen idsoftware en nVidia...

Die zijn de kaart nu lekker aan het uitstellen, zodat ze hem tegelijkertijd met Doom 3 kunnen releasen...

Geeft niets... dan heb ik tot die tijd de kans om in ieder geval mn sound vast tot Doom 3 niveau en hoger te liften.

[Creative Gigaworks S750 & SB Audigy 2 Platinum Pro] it's time for some excessive overkill baby!
Als dit bericht waar is, dan is NVidia ongelooflijk stom bezig. Lijkt erop dat ze de fout van de NV30 gaan herhalen.

Je ziet dat veel van de DX9 spellen die op dit moment uitkomen primair ontwikkelt zijn op de Radeon 9700. Niet omdat de ontwikkelaar nou zo'n vriendje van ATI was, maar simpelweg omdat dat de enige DX9 kaart was die op dat moment beschikbaar was. En dan is het natuurlijk onvermijdelijk dat zo'n spel relatief (ietsje) beter speelt op een Radeon dan op een concurrerende kaart. Idem wat betreft bugs in spellen.

Vroeger had NVidia altijd dat voordeel, en dat lijken ze zo niet alleen voor de NV3.x, maar ook voor de NV4.x serie weg te gooien. Die mythe van de goede NVidia drivers zit voor 90% erin dat spellen op NVidia kaarten ontwikkeld waren...


Verder vraag ik me af of zo'n super NV45 in de praktijk wel zo super zo zijn.... ATI lijkt precies het tegenovergestelde pad bewandelde te hebben. Zij hadden een qua features te gevanceerde cpu, met te lage prestaties voor de op dit moment uitkomende spellen. En hebben daarom op zeer hoge prestaties op de nu uitkomende spellen ingezet, en de nieuwe featureset (PS 3.0) een generatie uit te stellen.

Je zou nu de situatie kunnen krijgen dat NVidia op het moment dat die NV45 uitkomt
1) een halve generatie achter loopt,
2) een enorme berg extra features heeft t.o.v. de ATI, die echter door geen enkel spel wordt gebruikt, omdat ATI de markt bepaald (o.a. vanwege 1)
3) te weinig prestatie heeft wat betreft de features die wel gebruikt worden.

Eigenlijk een beetje zoals de 32bit floating point problematiek van de NV3x

Wat hierbij nog extra meespeelt, is dat ATI heel goed begrepen heeft dat optimale prestaties komen uit een samenwerking tussen videokaart, OS en spel fabrikanten via de DirectX specs.
Je ziet dat aan het pushen van shaders, i.p.v. proprietare features, aan pushen van HLSL, aan de naadloze aansluiting van de Radeon op DX9.

NVidia daarentegen is zeer sterk proprietair bezig. Dat kun je doen als marktleider, maar niet wanneer je nummer twee bent. Als ze door die arogantie de goodwill van de spel fabrikanten kwijtraken, dan zitten ze flink in de penarie.
En dat lijkt al enigzins te gebeuren. DX9 wordt omarmd door de fabrikanten, en de NV3.x wordt simpelweg tot PS1.x gedoemd als het niet helemaal lekker met PS2.0 gaat. Er is weinig animo om specifiek NV3.x optimalisatie te programmeren. En terecht natuurlijk... je gebruikt een DirectX standaard omdat je dan niet voor iedere kaart een eigen pad moet schrijven, maar met 1 code base uit de voeten kunt.

Maarja... voorlopig allemaal hersenspinsels.... Eerst maar eens zien of het allemaal klopt. En of ATI en NVidia niet bewust zand in onze ogen strooien. (En daarmee ook in de ogen van de concurrentie)
En dan is het natuurlijk onvermijdelijk dat zo'n spel relatief (ietsje) beter speelt op een Radeon dan op een concurrerende kaart. Idem wat betreft bugs in spellen.
En je denkt niet dat dit komt omdat Ati net als de spellenmakers zich wel aan de DX9 standaart conformeert terwijl nVidia zijn eigen standaard denkt door te kunnen drukken? (juist vanwege die goede historie)

Bovendien maakt met veel extra werk voor Halflife 2 en Doom 3 aparte paden aan voor de FX en nóg is het trager. De pixelshader engine van de GFX is gewoon minder.
omdat ATI de markt bepaald (o.a. vanwege 1)
Nee; het is DirectX die de markt bepaalt. Aan de ontwikkeling van een nieuwe DirectX doen niet alleen veel software maar ook hardwarefabrikanten mee. Daar word de koers voor de komende jaren uitgezet.
Als je daar als nVidia niet meer aan mee wilt doen is denk ik toch niet zo slim. Ati houdt zich er wel netjes aan de standaard en plukt daar nu de vruchten van.
dit is rampzalig voor de consument

als het ATI ontbreekt aan echte concurrentie zal dit betekenen dat de prijzen (dus de winstmarges) in ieder segment omhoog gaan.
een budgetversie van het beste van ATI zal zomaar eens 50 euro duurder kunnen worden omdat de concurrentie toch ontbreekt

het is te hopen dat nVidia zich snel hersteld, je mag sowieso kanttekeningen plaatsen bij de strategie van nVidia. Lijken ze met de 5950 eindelijk op niveau te komen verzaken ze direct weer in de volgende ronde.
De hele FX strategie kon ze nog wel eens fataal worden. gek dat ze zo arogant zijn, misschien is er wat 3dfx arogantie blijven hangen toen ze het opkochten
als het ATI ontbreekt aan echte concurrentie zal dit betekenen dat de prijzen (dus de winstmarges) in ieder segment omhoog gaan.
een budgetversie van het beste van ATI zal zomaar eens 50 euro duurder kunnen worden omdat de concurrentie toch ontbreekt
Dat de kaarten van nvidia net iets minder dan die van ati presteren, wil niet meteen zeggen dat ati torenhoge prijzen kan gaan vragen. De consument kijkt vaak ook naar prijs/kwaliteit. Natuurlijk zullen er dan enkele gamers zijn die nog de topkaart van ati kopen, maar ze verliezen iig een hoop kopers.
dit is rampzalig voor de consument
De consument heeft hier totaal geen last van. Die kijkt helemaal niet naar dit type kaarten. Die koopt eerder een pc met geintegreerde video kaart van Dell of Packhard Bell. En als ze er al een kopen dan is het een kaartje van 20-40 Euro. De meeste mensen zal het worst wezen wat er voor kaart in zit. Die gebruiken hun PC om een documentje te maken, te chatten en zo nu een dan een mailtje te versturen.
Ik ben zelf nog nooit tegen de grenzen van mijn video kaart aangelopen. Ik heb 4 Pc's thuis staan en 3 er van hebben on board video en ze voldoen uitstekend, ook voor games. Ik ken ook niemand in mijn omgeving die dat heeft meegemaakt. En zeker niet in de zakelijke omgeving. Daar telt het al helemaal niet.
Er zijn meer pc consumenten dan alleen diegenen van de zakelijke markt, hoor Ortep... Sterker nog, gamers bijv. hebben juist geen ene zak aan onboard rotzooi, die jij voldoende acht. Je koopt geen 9800XT omdat XP daar zo lekker soepel van draait, toch? :)

Echter, ik denk niet dat ATi prijzen omhoog zal gaan doen, lijkt me nogal economisch niet verantwoord, dat de afroom-politiek (dus het goedkoper worden van de producten naar gelange de tijd) langzamer verloopt lijkt me meer een gevolg van dat er niets te duchten is van concurrentie.

Bovendien zal nVidia ondanks hun verslechterde marktpositie niet opeens geen concurrent meer zijn, die bijten de eerstkomende jaren nog wel van zich af.
Ik ben het met je eens dat er meer klanten zijn dan de zakelijke markt. Dat gaf ik ook aan. Maar gamers zijn een minderheid...en zelf gamers hebben dit soort kaarten niet altijd nodig...Het is voor een subgroep van een subgroep. Niet iedereen die gamed doet dat ook met 'snelle' spelen. Ik reageerde op Troy_BP omdat hij suggereerde dat ongeveer iedere consument aan dit soort kaarten dacht.
Hieruit blijkt dat nVidia volger is geworden in plaats van leider, wat ze vroeger waren. Dat is jammer, want ik heb liever dat ze van eigen kracht uitgaan in plaats van Ati volgen.

Bovendien is het zakelijk gezien ook geen goede keuze, je loopt namelijk altijd achter zo.

Maar goed; Het blijft de Inquierer natuurlijk. Eerst maar eens even zien.
Jij hebt liever dat ze dat ze van eigen kracht uitgaan, ik heb liever dat ATI dat doet, wat ze gelukkig op dit moment ook doen ;)

nVidia heeft ten tijde van de GF3 en 4 bewezen niks nieuws te brengen, ATI kwam toen ineens uit het niets met de Radeon 9500 en 9700 serie en toen was het ineens stil bij nVidia. Ik denk dat nVidia zijn beste tijd heeft gehad. Het wordt tijd voor een andere partij.

Verders denk ik dat ze de NV40 misschien wel hadden kunnen uitbrengen. Nu zitten er weer een aantal maanden tussen en ATI zal die maanden zeker nutig besteden door een nieuwe kaart te brengen waardoor nVidia weer verder achter op komt en marktaandeel verliest
en wat d8t jij dan van de Geforce 4 Ti.

man geweldige kaarten kwa prijs prestatie verhouding....
Hoewel ik zeker hoop dat nvidia kan volgen... ik bedoel maar met nvidia en ati zo gewaagd aan elkaar. Zijn we op een punt gekomen waarop de graphics er toch weer prachtig uitzien!

Maar nu gaan we de tweede ronde van de DX9 kaarten in, alle NV3x en R9x kaarten zijn eigenlijk als avonturiers... die "het nieuwe land onderzoeken en op de map zetten" de volgende ronde zijn de boeren... de kaarten die net zoals de GF4 ti serie gewoon hun werk doen en zeer goede performance geven....en het "land" gebruiken dat er is!

In de tweede ronde zullen we ook games zien die daar gebruik van maken... meer PS 2.0 shaders in games... zwaardere Opengl 2.0 shaders....

noem het maar op..

Over 1 jaar is het gewoon normaal dat een DX9 game zeer veel pixel shader actie vereist..en dat textures er door technieken zeer mooi uit moeten zien..dat de belichting top berekent wordt....Dan is een game zonder die dingen gewoon "zo 2000"
nVidia heeft ten tijde van de GF3 en 4 bewezen niks nieuws te brengen, ATI kwam toen ineens uit het niets met de Radeon 9500 en 9700 serie en toen was het ineens stil bij nVidia. Ik denk dat nVidia zijn beste tijd heeft gehad. Het wordt tijd voor een andere partij
We gaan van nVidia-tijdperk naar ATI-tijdperk, zoals we vroeger van 3dfx-tijdperk naar nVidia-tijdperk gaan.

Voodoo1 en Voodoo2 waren in hun tijd de snelste 3D kaarten. nVidia kwam met Riva TNT en het was trager dan Voodoo2. Maar Riva TNT2 is sneller dan Voodoo3.

Sinds GeForce256 is het nVidia-tijdperk, tot GeForce 2 zat nVidia safe. Vanaf GeForce 3 bracht nVidia weinig vernieuwing en ATI begint met de Radeon serieuze concurrentie te worden.

Sinds Radeon 9700 (ten tijde van GeForce 4 Ti) begint het ATI-tijdperk.
De riva tnt was juist sneller dan de v2 (al was die laatste wel eerder uitgekomen), 3dfx ging te onder door een comibnatie van slechte producten en hoge prijzen, nvidia mag de performance kroon (op direct3d gebied) aan ati hebben moeten laten, qua prijsstelling zitten ze onder ati en op het budget en mid-range vlak hebben ze producten die vaak een betere prijs/prestatie hebben.
Daarnaast heeft ati natuurlijk mazzel gehad dat nvidia op hun eigen cg gegokt heeft terwijl de microsft implementatie in direct3d meer in ati's voordeel uitpakte

Ati's opmars begon ook eerder, de gewone radeon was de eerste stap maar vooral de 8500 was de doorbraak, aangezien de voor de eerste keer een betere prijs/prestatie had, daarna is natuurlijk ook de naam onder meer mensen bekend geworden, helaas is ati's succes voor een gedeelte een hype, aangezien veel mensen nu eerder voor het merk gaan dan voor de betere kaart (en dan heb ik het vooral over het middensegment)

Ach ja, hiervoor was 3dfx de lieveling die niets fout kon doen en nu is ati dat, ik hoop dat beide gpu bouwers gewoon lekker blijven concurreren en dat wij er uiteindelijk van profiteren
Het is absoluut geen mazzel dat ATI perfect op DirectX aansluit, en NVidia op een dood spoor zit met cg.
Dat is een direct gevolg van beleidsbeslissingen van ATI en NVidia.

ATI heeft heel bewust een nauwe samenwerking met Microsoft en de spel fabrikanten opgezocht, met als doel te zorgen dat de mogelijkheden van de hardware perfect aansluiten met de wensen/mogelijkheden van de software kant. Geen prachtige maar ongebruikte features meer op hun videokaart. (zoals tot dan toe steeds het val was)

NVidia daarentegen is vanuit hun marktleider positie bezig geweest, en probeerde hun wil op te leggen. Ze zijn uit de DirectX groep gestapt, en dachten met cg een proprietary standaard te kunnen opleggen. En dat is dus mislukt...
De Linux en Windows OpenGL support van NVidia is nogsteeds meerdere malen beter dan die van ATI, dus ik zou het erg jammer vonden als ze verdwenen.
ATI richt vooral op pixel-pusher-performance in direct3d, ondertussen gebruiken ze 24 bit ipv 32 bit precisie voor shaders en besluiten ze Shaders 3.0 niet te ondersteunen in hun volgende generatie!
Kwaliteit opofferen voor snelheid vind ik maar niets.. Ik heb zelf ook een ATI kaart dus ben zeker geen NVidia freak maar dit stuit me toch tegen de borst.
Dit is niet waar want wat jij nu beweert is dat ATI het beste is in alles. En dat is het nog steeds niet. Net als Nvidia is ATI een bedrijf een bedrijf gerund door mensen en mensen maken fouten. En ook ATI maakt die nog steeds te merken in hun drivers. Kijk maar naar hun chipset daar kunnen ze nog steeds geen fatsoenlijke drivers voor maken.(ik bedoeld de moederbord chipset ) kijk maar op het forum daar loopt een draadje over dit bord. En wat blijkt, niets dan BSOD's. Maar dat maakt niet uit. Want ze kunnen het verbeteren. En dat geld ook voor Nvidia. Het is echt niet zo zoals ik opmaak uit jouw stelling dat Nvidia de bad-guy is en ATI the good guy. Het zijn beiden de bad-guys. Want ze proberen alleen maar beter te worden OM JOUW geld en het mijne. Want als zij beter uit de test komen koop je hun spullen. Of het nou net het high-end is dat als beste getest is of niet maar men koopt het.

Op dit moment is de 9600 Pro volgens mij nog steeds gewilder als de FX 5900XT of de 5700 Ultra terwijl de kaart zich aan beiden kaarten zijn meerdere moet erkennen.

Dat is gewoon dankzij de naamsbekendheid van de 9800 en 9800 XT.
Tsja, dat is de wet van de remmende voorsprong he. nVidida had al heel lang geen echte concurrent gehad dus toen ATI opeens opdook wisten ze niet meer hoe ze moesten reageren.

Gelukkig is nVidia nu duidelijk wel van plan concurrerende producten in de markt te zetten, zodat ATI niet dezelfde fout als nVidia kan maken. Met als netto resultaat dat wij consumenten grafische prestaties krijgen waar je eerst een renderpark voor nodig had, en dat nog voor redelijke prijzen ook. :)

Ik vraag me alleen af wanneer er software komt die al dit grafische geweld volledig kan benutten. En hoeveel warmte gaan deze videoplankjes mijn pc-kast inslingeren?
vraag me nou af of al dat gehaast nou wel zo goed is, straks maken ze een fout die ATI nog betere voorsprong geeft. ;(
Ik verwacht dat ze gaan proberen de NV40 alsnog uit te brengen maar dan niet als High-end maar als mid-range. En de NV45 als High end.

Zodat je dus niet een verbetering van 5% krijgt van FX5950 Ultra tov opvolger maar een verbetering van 50% of meer.

En dat hebben ze nodig want er zijn toch wel een behoorlijk aantal consumenten vertrouwen verloren in Nvidia of dat nu terecht is of niet. Want 50% verbetering zal zowiezo sterker zijn als de R42 verwacht ik. Of zit ik nu te blaaten??
Wat een onzin toch weer allemaal, iedereen hier heeft het erover dat het het einde van NVIDIA is! Nou ik ben het daar dus absoluut mee eens! Omdat nou toevallig de ATI kaarten in verhouding sneller zijn wil niet zeggen dat NVIDIA meteen niks meer is! Ze maken nog steeds goede videokaarten. Over NVIDIA drivers heb ik ook helemaal niets aan te merken. De belangrijkste elementen in concurrentie zijn behalve prestaties ook de prijs. Op dit moment is een9700pro/9800Pro zeer interessant. Maar vergeet niet dat NVIDIA weer een FX5900XT op de mark bracht dat een prachtig kaartje was. Ik heb nu dan wel een ATI kaartje, maar persoonlijk vind ik de meeste kritiek op NVIDIA onterecht. Ik heb jaren met plezier een NVIDIA kaart gehad!

Ik denk inderdaad niet dat het slim is om producten af te raffelen, dat komt de kwaliteit nooit ten goede! Dat geld voor zowel NVIDIA als ATI. Maar goed, ik wacht lekker af. Mocht ATI sneller blijven, dan hoop ik in ieder geval de de prijs/kwaliteit verhouding van alle kaarten mooi wordt.

Maar totdat deze kaarten afzijn blijft het gissen.
Wat hij zegt... :9
Helemaal mee eens, misschien dat NV weer op het verkeerde paard gokt, maar dat betekent niet dat ze meteen knockout zijn. En idd de 5900XT is een mooi kaartje voor een erg nice priceje. Ik hoop dat we dezelfde situatie krijgen als bij de 9800XT/5950, dus vergelijkende resultaten met af en toe een kleine overwinning voor de een en dan weer voor de ander. Hopelijk beide bruutjes snel! :Y)
Yup, deze ronde lag nvidia gewoon wat achter... maar wat te volgende ronde brengt... dat moeten de benchmarks maar laten zien.

Ik heb genoten van de GF4 ti... heerlijk kaart... daarna een ati 9500 Pro... top kaart, heerlijk snel en wat een kwaliteit van het beeld.

En nu dan een 9800 Pro ( nieuw gekocht ).... in afwachting tot de volgende generatie op de tweede hands markt terecht komt..hehe
Ik vind het juist slim. Ik denk dat je beter een goed en snel product in de markt kunnen zetten dan een slecht product die niet mee kan komen zoals met de FX5800. Ik denk dat dat slechter is voor het imago van NVidia dan wat langer bezig te zijn met een waardig opvolger.
Maar als je langer bezig bent met een opvolger dan verlies je al wel een flink stuk verkoop. Bovendien zit de concurent natuurlijk niet stil in de tijd dat je nog een opvolger aan het maken bent.

Als dit bericht waar is dan is het gewoon kiezen tussen twee kwaden voor Nvidia.

De NV40 zou immers bijna klaar zijn, en als je die niet uitbrengt dan gooi je daarmee een heleboel manuren en dus geld in de prullenbak.
Je zou 'm ook wel uit kunnen brengen om in de tussentijd toch wat er aan te verdienen om dan met de NV45 te proberen weer de koppositie te pakken.
Toch ook wel een beetje fout dat ze maar 8 pipelines van plan waren in hun nieuwste core. Ati heeft in de 9800 serie al 8 pipelines en bij een compleet nieuwe serie cores kun je uiteraard verwachten dat er een hoop optimalisaties/versnellingen zijn, waaronder meer pipelines (dit betekent niet ALTIJD een snellere kaart, maar in 9 van de 10 gevallen wel). Ik vindt het een beetje slecht van Nvidia dat ze daar geen rekening mee hebben gehouden. Nu willen ze meteen een mokerslag gaan slaan dmv 16 pipelines maar als deze dan veelste laat in de winkel ligt zijn ze nog nergens. Ik had goede hoop voor Nvidia voor een soort van comeback maar de toekomst *lijkt* er toch niet zo zonnig uit te zien...

Het blijft The Inquirer natuurlijk...
Ik hoop niet dat het net zoals met de NV30 een en al uitstellen word, en dat het uiteindelijk product nog een afgang word, of in iedergeval zwakker dan de R420
idd het Déja-vu gevoel slaat toe, de nv30 werd ook aangepast nadat er meer informatie was over de R300
Die zijn de kaart nu lekker aan het uitstellen, zodat ze hem tegelijkertijd met Doom 3 kunnen releasen...

Dit klopt toch niet! Doom 3 word op 31 maart uitgebracht waardoor NV45 ruim achter komt te liggen om hier een antwoord op te geven.

En wat betreft de gene die vind dat 32 bit kleur beter is dan 24 bit heeft wat mij betreft ongelijk, theoretisch natuurlijk wel maar is niet belangerijk.
Daar omdat de beeldkwaliteit van een ati gewoon beter is, en wat betreft de driver die is in de afgelopen jaren bij ati al meer dan voldoende. }>

Niet dat nvidia slecht is of zo, maar wel op z'n tijd een beetje arogant, laat hun nu maar eens komen met een kaart die geen stofzuiger aan boort heeft en toch puike prestaties neer zet, dat zijn ze wel aan hun naam verplicht vind ik.

Kom maar op met die kaarten............ :9
de heer Wumpus waarvan ik vermoed dat je die aanhaalt had het over 32 bit precisie en niet kleur.

voor de goede orde:
32 bit kleur wil alleen zeggen 24 bit kleur(8 bit R, G en B) + 8 bit alpha

dit heeft dus niks met beeldkwaliteit te maken.
Dat 24bit v.s. 32bit verhaal gaat over 32bit floating point! Dus geen 8 bit integer per RGB, + alpha!

Enne... ja, dit heeft allemaal wel degelijk met beeldkwaliteit te maken. Voordat je beeld op het scherm komt, wordt er nogal veel berekend. Intensiteit omlaag, omhoog, etc etc...
Wat er dan kan gebeuren is dat als je zeer lage intensiteit in integers hebt, je maar een paar gradities hebt. Blaas dat op, en je krijgt ver uitvergrote afrondings fouten.
Dat ondervang je door intern met hogere precisie te werken. Hoeveel extra precisie je nodig hebt, is nu de vraag.

Verder zijn er met floating points nog wat andere truuks mogelijk. Het effect dat zeer hoge intensiteit gezien door een masker, een halo produceren, over de randen gaat heenvloeien is iets dat je kunt berekenen met die hoge range van floating points.
Zie de HL2 screenshots. (Voorlopig trouwens alleen ondersteunt door de Radeons)

Het eindresultaat is en blijft gewoon 24bit integers RGB, omdat je beeldscherm daarmee werkt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True