Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Bron: 3DChipset

De mensen van 3Dchipset hebben wat informatie bijeen weten te schrapen over een aantal toekomstige kaarten van nVidia en ATi. Het gaat hier om de ATi Radeon 8500 MAXX en nVidia's NV30, NV31 en NV40.

*Radeon 8500 MAXX

ATi Radeon 8500 MAXX (klein) 3DChipset heeft van (volgens de site) betrouwbare bronnen binnen ATi vernomen dat de Radeon 8500 MAXX geen fabeltje is. De kaart, waarover eerder werd gespeculeerd, zal gaan beschikken over twee cores en is op dit moment al in productie. Volgens de bronnen binnen ATi zal het bedrijf zeer binnenkort met een aankondiging van de kaart komen.

*nVidia NV30

Ook over nVidia's grafische kaarten heeft 3DChipsets wat te zeggen. De NV30, die direct moet gaan concurreren met ATi's R300 en Matrox' Parhelia chips, zal een AGP8X chip zijn. Ook zal de chip de mogelijkheid hebben met meerdere chips op een printplaat samen te werken. Op dit punt is 3Dchipsets onduidelijk, het zal gaan om een 'vreemd' aantal chips, maar in ieder geval minder dan acht. De NV30 zal de mogelijkheid hebben zonder performance verlies 4X FSAA te gebruiken. Kwa specificaties wilde nVidia nog het volgende kwijt. De chip zal gebruik maken van '4-1' kleur compressie en zal ook voorzien zijn van Firewire. Dit in verband met de hardware mpeg2 encoding mogelijkheden. De kaart zal waarschijnlijk ongeveer twee keer zo snel worden als de GF4 Ti4600.

*nVidia NV31, NV40

nVidia Logo (graphics^n) De NV31 zal het budgetmodel worden van de NV30 en zal een maand later uitkomen. Deze chip zal niet zoals de GF4 MX een volledig andere architectuur gebruiken, maar zal simpelweg lager geklokt worden dan zijn grote broer, de NV30. Dit is waarschijnlijk een reactie op de verwarring die ontstond rond de GF4 MX, aangezien deze een verouderde architectuur gebruikte.

Over de NV40 zijn nog niet veel details bekend, maar een ruwe schatting van de kracht van de kaart brengt de fillrate op 4 Gigapixel. De kaart moet in staat zijn om 600 miljoen polygonen per seconde te verwerken.

Moderatie-faq Wijzig weergave

Reacties (88)

Ook zal de chip de mogelijkheid hebben met meerdere chips op een printplaat samen te werken.
Zou me niets verbazen als ze SLI gebruiken. die technologie bezitten ze immers en heeft z'n nut wel bewezen.
SLI ging wel met 2 PCI kaarten, maar ik ken toch nog geen borden met 2 AGP slots. Of ga je ervan uit dat het om 2 PCI-Express kaarten zouden gaan?

Het is wel al langer bekend dat NV30 de eerste chip van NVidia zal zijn die 3Dfx tech gebruikt. Wat ze daar dan precies mee bedoelen weet ik niet.

edit:
kaarten = borden
SLI betekend dat elke GPU chip de helft van de lijnen voor z'n rekening neemt. Maar dit hoeft niet te beteken dat er meteen twee printplaten nodig zijn (PCI of AGP).
De MAXX versie gebruikt ook SLI (althans zelfde principe verwacht ik).
Dus een AGP 4x of 8x slot met SLI is dus heel goed mogelijk (als je 2 of 2^n meer GPU chips of een kaart zet).
Bij de originele MAXX was het zo dat elke chip een geheel beeld voor z'n rekening nam ipv een x aantal lijnen per chip.
1. agp 8x biedt de mogelijkheid voor 2 agp sloten
2. SLI kan ook gewoon op 1 kaart, zie de voodoo 5 serie

ietsjes te laat ;)
Wat is de voodoo5 5500 en voodoo5 6000 dan denk je?
2 resp 4chips op 1 kaart, draaiende in scan line interleaving, oftewelSLI, in de praktijk rederd 1chip op de v5 5500 1/2 vh beeld.
Ik denk dus dat het geen SLI kaart wordt, immer zitter er geen 2 omen chipsets op de plank, de omen is gewoon opgesplitst in een TnL chip (dx9.x pixel vertex shaders) en een classic numbercrusher cpu, althans dat zeiden de geruchten ;)
SLI heeft wel een groot probleem: de texture cache wordt aanzienlijk minder effectief. De reden dat dat bij voodoo2 geen rol speelde is simpel: die had geen texture cache, elke texture chip had een eigen 64 bit kanaal naar het geheugen toe.

Bij voodoo5 werkte "SLI" iets anders dan bij voodoo2: i.p.v. dat elke chip steeds 1 lijn tekende, tekende hij telkens een aantal lijnen achter elkaar. Op die manier werd het trashen van de texture cache enigszins ondervangen.
Ik denk het volgende :

een radeon rv250LE op 250 mhz zal de concurrent worden van de gf4mx , specs zijn beter, prijs zal gelijk zijn.
Een radeon rv250 op 275 mhz zal de retailuitvoeing worden , iets sneller en minstens even snel als de huidige r8500 retail.
Een radeon rv250Pro op 300 mhz zal de concurrentie aan kunnen gaan met de gf4 ti4200.
Een radeon rv250Maxx(2xrv250LE op 250 mhz) zal de concurrentie aangaan met de gf4 ti4600 en de opgevoerde versie hiervan (NV28) die Nvidia waarschijnlijk nog gaat uitbrengen.Of ze zullen hem gaan uitbrengen onder de FireGL-vlag voor workstations.
Een radeon R300 zal de nieuwste high-end worden, volgens niewsposten op verschillende sites zal de r300 op 300 a 315 Mhz lopen, lijkt mij onwaarschijnlijk met 107M transistors op 15micron, maar wie weet ati is wat dat betreft altijd een voorloper geweest.

Stel je voor dat die Rv250 Maxx zal komen op de retailmarkt, op 250 mhz per core, zal hij ongeveer 250x4=1 Mpixels per seconde en dit x2= 2Gpixels per seconde en 4Gtexels per seconde kunnen renderen(op papier dan).
De r300 zal (als het waar is) op 315 Mhz lopen en 8 pipelines hebben met in elke pipeline 2 texture units), dus 315x8=2,52 Gpixels en 5,04 Gtexels.

De voordelen van de r300 boven de rv250Maxx zullen zijn dat de r300 meer features heeft en een hogere fill-rate en dat hij dx9 compliant zal zijn.De rv250 Maxx zal een lagerer fill-rate hebben en "slechts" dx8.1 compliant zijn.De rv250maxx zal waarschijnlijk een iets lagere prijs hebben.
Gokje: rv250maxx zal zo een 350 euro gaan kosten en de r300 iets van 500 a 550 euro.

Dus zal het best mogeijk kunnen zijn dat allebei de kaarten worden uitgebracht en dat het voor Ati ook een leerschool wordt om hun kennis over de Maxx-technologie zo uit te breiden zodat ze in de toekomst deze technologie meer kunnen gaan gebruiken.
(r300 maxx? NV35 killer?)

Maar ja, slechts speculaties, maar is wel lekker
De NV30 gaat concurren met de Parhelia? Ik denk niet dat dat nodig is. Zoals de Parhelia nu presteert (met de huidige drivers), wordt ie nog ingehaald door de ti4200.... Matrox zal echt met goede drivers (of een verbeterde Parhelia) moeten gaan komen willen ze uberhaupt concurreren met de ti4600....
Gaan we weer!!
Heb jij de bench marks wel eens goed bekeken??
In de hoge regionen (1600*1200) levert hij WEINIG in kwa prestaties. Daar waar de de ti4600 al tot 25% is gedaald racet de Matrox gewoon door!!
Ook in spellen als Doom ]I[ veel beter presteren.
Tevens de drivers die nog beter moeten worden...

Dus als je wilt games op 22" ben je mijn in ziens af met een Matrox!!!
Alleen als je 4x FSAA tov 16xFAA (vergelijkbaar) vergelijkt kan de parhelia op hoge res de 4600 bij houden, als je echter nvidia's eigen quincunx (oid) gebruikt dan gaat dat niet meer op, het kwaliteits verschil tussen deze laatste 2 is miniem (met FAA als beste) ,maar matrox' aniosotropic filtering is weer veel slechter dan die van de gf4 (en dat zie je naar mijn mening duidelijker als je speelt), de parhelia presteert in d3d al niet super, in Opengl is t helemaal een ramp, en laat doom 3 nu net Opengl zijn en NIET direct3d, tel daarbijop dat hij ook nog eens flink veel duurder is dan de gf4 4600 en alleen mensen die perse zoveel mogelijk geld willen verspillen kopen hem nog om mee te gamen

De drivers zullen wel verbeteren, maar het lijkt me sterk dat ze de performace meer dan 50-100% zullen verbeteren (wat toch echt moet als je naar de prijs/prestatie verhouding van nu kijkt)
Misschien bedoelen ze nu wel ook het concurreren op 2D gebied, want dat zou bij de NV30 stukken beter worden, dus wie weet, veel features en een goeie 2D, nou, als ze dat lukt dan zou het matrox niet echt meezitten denk ik.
Maar Matrox ligt ver voor wat 2D aangaat, dus ik denk dat matrox dat blekje wel zal blijven behouden.
Ondanks dat mijn Diamond Viper 770 Ultra XL ook al een zeer scherpe kaart was, en dat was ook een nvidia, dus ze kunnen het wel.
En ik zou dus wel voor matrox gaan als ik niet naar het geld hoefde te kijken, puur omdat ik er minder pijn van krijg aan mijn ogen, en ik al tevreden ben met de 3D snelheid van mijn TNT2 Ultra XL, ik speel meestal toch maar 800x600
De NV30, die direct moet gaan concurreren met ATi's R300 en Matrox' Parhelia chips, zal een AGP8X chip zijn.
concurreren in de 3d sectie hoeft niet want daar zijn ze nu al beter, duid dit er dan op dat er eindelijk weer wat meer aandacht geschenkt word aan 2d?
concurreren in de 3d sectie hoeft niet want daar zijn ze nu al beter
hmmm kan aan mij liggen maar deze opmerking vind ik een beetje bevooroordeeld. Terwijl als je probeert objectief naar de ontwikkelingen te kijken dan zie je dat het om-en-om is. Ati brengt binnenkort de R300 uit en nvidia de NV30, en dan is het maar weer net om het even wie er meer fps-jes uit een benchmark kan persen.

Overigens zalje vast wel weten dat DoomIII op de E3 op een alpha sample van de R300 werd gedraaid en dat was niet voor niets dat Heilige der Heiligen John Carmack daar voor gekozen heeft.


edit:
overigens ben ik wel met je eens dat men wel wat aan 2D kwaliteit mag doen bij nvidia, alsmede de TV-out want ik vind het belachelijk dat je daar een TV-Tool voor nodig hebt...
overigens ben ik wel met je eens dat men wel wat aan 2D kwaliteit mag doen bij nvidia, alsmede de TV-out want ik vind het belachelijk dat je daar een TV-Tool voor nodig hebt...
Die goede 2d kwaliteit is er al, gewoon het juiste merk kaart kopen, voor zover ik gezien heb heeft ook een 8500 een software tool nodig voor tv-out

De tv out van nvidia en matrox werken tenminste onder linux, iets wat ati weer eens heeft nagelaten
voor zover ik gezien heb heeft ook een 8500 een software tool nodig voor tv-out
Ik heb de afgelopen weken toevallig een TNT1 een 7200AIW, 8500 en een GF2ti in m'n systeem gehad (je moet wat he? ;)) en ik vind eerlijk gezegd die TV-tool juist wel relaxed.

Ik heb de volgende zin eens gebruikt:
"bij nVidia is het gewoon ZO kloterig in de drivers verwerkt, dat er een mooie, handige tv-tool is. Bij Ati kan het in de drivers, maar dat werkt kloterig (het werkt wel)"
Bij de 8500 kan het dus gewoon in de menu's van de videokaartinstellingen (advanced), maar handig vind ik het niet werken eerlijk gezegd. Bij nVidia ontbreken volgens mij gewoon die instellingen compleet en gebruik ik weer een handig tooltje :).
ik vraag me af in hoeverre de NV30 een concurrent is van de R300, waarvan geloof ik ook word gezegd dat ie meerdere GPU's aankan. Als dit allemaal positief uitpakt zou dit een enorme performance boost betekeken natuurlijk.

Blijft alleen nog de vraag hoeveel dit allemaal wel niet mag gaan kosten. Toen nVidia nog king of the hill was konden ze vragen wat ze wilden voor hun kaarten want er was toch geen concurrentie. Ik heb zelf geloof ik nog FL850,00 voor een Geforce Deluxe 6800 (ofzoiets) betaald. Toen kwam ATi op de markt en dacht ik dat de prijzen wel zouden dalen, maar daar kwam mooi niks van terecht, ze gingen er net iets onder zitten. Ati greep mi de kans aan om de prijzen ook hoog te houden want de enthusiasts (wij dus) betalen toch wel blijkbaar.
Vroeger (mooi woord :) ) was je met FL300-400 de man met je videokaartje, nu een budget-player :)
In die tijd was een videokaart niet meer dan een verlengstuk van de cpu met extra wat hardware 3d functies d'rop. Hierbij denk ik aan een voodoo graphics, riva128 iod. Tegenwoordig hebben de chippies evenveel (tot 2x zoveel bij de nv30) transistoren (en mag je ze zelfs geen gpu meer noemen omdat dit de lading al niet meer zou dekken) als een gemiddelde cpu en daarmee hogere ontwerp en fabricage kosten.

De prijzen zijn wel wat hoog, maar vergelijken met de kaartjes en prijzen van toen is niet fair :)
Tegenwoordig hebben de chippies evenveel (tot 2x zoveel bij de nv30) transistoren (en mag je ze zelfs geen gpu meer noemen omdat dit de lading al niet meer zou dekken) als een gemiddelde cpu en daarmee hogere ontwerp en fabricage kosten.
GPU : Graphics Processing Unit
waarom zou dat de lading niet dekken? die term is 2 jaar terug door nvidia in het leven geroepen, en zou nu niet meer voldoen omdat ze meer functies hebben? dacht 't niet, dat is juist reden te meer om ze GPU te noemen...

de prijzen zijn volgens mij wel iets meer dan "wat hoog". Kijk bijvoorbeeld naar andere electronica, alles wordt kleiner, meer funcites effiecienter etc, maar de prijzen stijgen maar ietsiepietsie, grotendeels te verklaren door inflatie volgens mij. Bij videokaarten is het meer het geval van "wat de gek ervoor geeft" en gaat ver voorbij kostendekking. vraag-aanbod enzo

ok, dat was mijn mening, maar stel dat je gelijk hebt (waarheid zal waarschijnlijk wel ergens in het midden liggen):
dan zou ik het ook niet zo erg vinden als de prijzen omlaag gingen en de ontwikkeling van gpu's ff een tandje lager wordt gezet want het gaat mij echt te snel.

just my 2 eurocentjes
de prijzen zijn volgens mij wel iets meer dan "wat hoog". Kijk bijvoorbeeld naar andere electronica, alles wordt kleiner, meer funcites effiecienter etc, maar de prijzen stijgen maar ietsiepietsie
Is dat zo? Ik heb eerder het idee dat de prijzen zijn gedaald.. Voor 2000 euro haalde je eerst een leuk systeempje met een 17" monitor, nu haal je er een 1800Mhz systeem voor met sloten geheugen, sneller videokaart en 19" monitor voor....
Bij videokaarten is het meer het geval van "wat de gek ervoor geeft" en gaat ver voorbij kostendekking. vraag-aanbod enzo
Uiteraard, in het begin liggen de prijzen altijd hoog, maar zelfs de 400 euro die je nu voor een GF4 4600 betaalt is minder dan de 650 euro (ja echt!) die je voor een Voodoo2sli neer mocht leggen, 4 / 5 jaar geleden. En de voodoo1heeft ook mooi 300 euro gekost.. En ik herinner me ook nog een vage "numer9" kaart die zo'n 400 euro kostte...

Het valt allemaal wel mee, alleen denkt iedereen altijd dat alles duurder wordt, omdat iets geintroduceerd wordt op het moment dat het andere al flink goedkoper geworden is!

edit:
gf2sli moest voodoo2sli zijn |:(
Hehehe, die is leuk.. het gaat jou te snel omdat je niet genoeg centen hebt om al dat nieuws te kunnen kopen!, en je hoeft het ook helemaal niet te kopen. Ik vind die snelle ontwikkeling juist alleen maar goed. Moet je nou zien wat voor prachtige kaarten er elk half jaar weer uit komen, dat ik ze niet kan betalen is wat anders... maar om dit NIET LEUK te vinden??!

En daarnaast kan het ook geen kwaad om een generatie achter te lopen. Kaarten zoals de geforce3 zijn ook goed te noemen en kosten echt niet extreem veel geld. Het gezeik over die dure kaarten moet eens ophouden, dit laat alleen maar zien dat je niet zo'n kaart in je eigen pc kan stoppen omdat je ze te duur vind. Toch worden de toppers die tegen de 500 euro aanliggen nog steeds volop verkocht aan de echte die-hards. Maar wat kan het kwaad om genoegen te nemen met een oudere generatie die ook prima met de spellen van tegenwoordig om kan gaan?!
Vroeger (mooi woord ) was je met FL300-400 de man met je videokaartje
Duh, toen was was er ook alleen nog maar de voodoo 1 (rond de 400 piek), er waren verder geen andere kaarten, de v2 was al weer een stuk duurder
Bij videokaarten is het meer het geval van "wat de gek ervoor geeft" en gaat ver voorbij kostendekking. vraag-aanbod enzo
Ten eerste heb je tegenworodig budget kaarten die tov de high-end versie zeer goed presteren, die hebben vaak prijzen die op hetzelfde niveau liggen als kaarten van vele jaren gelden (en dan tel ik er nog niet eens de inflate bij)
De innovatie in technische zin is bij videokaarten enorm geweest, daarnaast is de (economische) omlooptijd van een kaart een stuk lager dan vroeger, al met al valt het dus wel mee en kun je zeggen dat de prijzen verhoudingsgewijs zijn gedaald en de keuze vergroot
Vroeger ?

ehmm ff denken...

Diamond Viper V3000 Fl 579,-
Matrox Millenium Fl 799,-
3Dfx Voodoo I Fl 599,-

Hoezo goedkoper ?

Er was wat minder keus in de duurdere klasse, maar ze waren er wel :7
Ik zeg dus ook dat het vroeger niet goedkoper was..

En de v1 OEM was gewoon 389,- (toen hij net uit was), alleen hastec bood hem aan voor bijna 600 piek
Die had ik dus :7
Alleen het beste, he :+
F 389,- ? Dacht 't niet. Kan me herinneren dat ik eens ruim 400 piek heb neergelegd voor een 2e hands Voodoo1, toen deze dus nieuw meer als 500,- kostte. Introductieprijs was dus echt zo'n beetje Fl 599,-

Ook de VoodooII koste in het begin Fl 600,- of zelfs meer (iig voor de 12MB versie)

Ik kocht ooit 's een OEM 4MB Rendition Verite 2100 (Diamond Stealth 2200 ofzo) voor de zeer scherpe prijs van 385,- op een beurs, toen die net een paar dagen oud was. Dat kaartje gold toen als een budget-kaart, kun je nagaan.
Ik heb mijn voodoo 1 OEM toch echt aangeschaft voor minder dan 400 gulden, net nadat hij uit was, dat jij meer voor een 2e hands betaald is jouw eigen keuze, alleen de reatil versie kostte zon 150 piek meer, maar die kocht toch niemand
Let me guess, was het een YoKo-Superpech OEM?
Om nog even terug te komen op die E3 sample van Doom III, die werdt niet gedraaid op een R300, maar gewoon op een Radeon 8500.
als je daar een betrouwbare bron kan vermelden dan heel graag, want daar heb ik nog nergens wat over gelezen.
overigens zou het wel heel goed nieuws zijn, want als dta de snelste hardware is, is Doom III straks heel lekker te spelen op een R300 of 8500 MAXX of NV3x :)
Ehm t heeft ook een tijdje op www.actiontrip.com gestaan......dat nieuws is nu alweer wge maar idd.t scheen op een Radeon 8500 te runnen. Ook waren r geruchten dat r een stukje was van Final Fantasy: The Spirits Within, gerenderd met dezelfde kaart...


Ja ik weet t OOK ik kom niet echt aanzetten met een geldige bron...maar wat ik wil zeggen is dat het best wel een zou kunnen......als ik meer weet zal ik dit wel ff posten...totdan vecht t maar uit...

Chimaera
:7
Ehm je suis nog een btje nieuw met dit board. En editen moet ik nog ff uitzoeken maar wat ik nog wou zeggen van dat FF:The Spirits Within....is dat t REAL-TIME gerenderd was door die...en dat is toch best zwaar...lijkt mij........................toch?


c'est tout

Chimaere

:7
Dat is onzin, dat was wel degelijk een r300 sample (stond zelfs in de betreffende newspost), de 8500 zal echt niet sneller draaien in doom 3 dan de gf4 serie, zelfs al is hij iets efficienter met het aantal passes

Ik gok dat hij destijds het snelst was omdat een sample van de nv30 nog ontbrak
De foto is een hoax, de kaart is echt..

Hier is de echte kaart (volgens mij):

http://bbs.redtea.com.cn/usr/24/24_704.jpg


}:O
Lijkt me niet helemaal waarschijnlijk aangezien die kaart alleen een analoge VGA aansluiting heeft. Zou toch eigenlijk ook nog een DVI (en evt. TV-out) verwachten. Maar het plaatje bevat iig twee "gpu-units" die er minder waarschijnlijk in geshopped zijn ;)
Dit is toch de originele Rage Fury MAXX, die gebaseerd is op 2x de Rage128? Ik meen daar namelijk heel groot 'rage' te zien staan op die kaart.
De kaart zal waarschijnlijk ongeveer twee keer zo snel worden als de GF4 Ti4600.
2 keer maar liefst? Dat is dan een veeeeel grotere sprong dan andere opvolgende chips van nVidia zoals GeForce 3 <> GeForce 2, etc.
Tsja ik ben benieuwd... de GeForce 4 zou ook heel veel sneller worden dan de GF3. Maar dat bleek wel mee te vallen... als nu de nieuwe kaart uitkomt is hij mischien ook niet 2x zo snel als de GF4. Maar later als de features meer aangeroepen gaan worden zal het verschil vast wel steeds groter worden.
joehoe... 2x Athlon MP is ook niet 2x zo snel als 1x Athlon MP
maar je kan wel twee keer zoveel doen :)

denk er maar zo over.. je bent niet eerder klaar maar je kan meer doen binnen die tijd.. dus in video beeld zou dat dus resulteren in mooier beeld op dezelfde resolutie

(immer niet meer pixels maar beter bewerkte pixels)
i doubt it.. ze hebben voorheen ook vaker geroepen dat chips 3x zo snel zouden zijn dan hun voorganger..
Nee, dat hebben vage Russische sites vaak geroepen. nVidia maakt _nooit_ dat soort claims.
Mja, tot nu toe zijn er iedere keer geruchten over 2 keer zo snel, maar valt het uiteindelijk altijd wat dat betreft tegen.
Specs die twee keer hoger liggen geeft geen garantie op 2x snellere kaart.
Ook zie je vaak dat ze specs met elkaar vermenigvuldigen:
1.3x sneller fillrate, 1.6x meer polygonen =~ 2x zo snel?
maar leuke kaartjes denkik..
Ik keek net op de website maar 'het artikel is op verzoek weer verwijderd'
Nu vind ik het helemaal verdacht. Het nieuwsbericht vind ik dan in de eerste plaats over komen als een sensatie/hype middel. Eerst laten uitlekken dat de NV30 2x zo snel zal zijn als een Ti4600, en dan ineens zeggen van 'Oops, het nieuws was te accuraat en we hebben het weg gehaald om onze bron te beschermen'. Yeah right. :Z

De meeste mensen hebben het bericht natuurlijk al gelezen en die denken nu van 'hey... dat gaat een super kaart worden', en de mensen die de huidige melding zien worden nog nieuwsgieriger naar de NV30.

Ik vind dit nu verdacht veel op een stunt van nVidia lijken die de hete adem van de R300 in haar nek voelt.
Tuurlijk, ik had laatste gelezen dat nvidia met satanische rituelen demonen wilde opreoepen om betere videokaarten te maken en tevens ati uit te schakelen...


zal vast een kern van waarheid in zitten als het zomaar ergens op internet staat |:(
Ja tuurlijk zal er een kern van waarheid in zitten. Als ik voorspel dat de R400 sneller gaat worden dan de NV30, dan zit daar toch ook een kern van waarheid in? Alleen je weet niet in hoeverre de R400 sneller gaat worden. Dat is gewoon een typische nieuwspost die niet zal misstaan bij The Inquirer. Er zit op die manier altijd wel iets in wat correct is.

Het punt is, dat het vrij lullig is om ineens het nieuwsbericht weg te halen, met een mededeling die zo is opgesteld dat het de geruchtenmachine zeer zeker nog meer zal gaan voeden. Daar is niemand bij gebaat, behalve (in dit geval) nVidia. :7
Als de Radeon8500 MAXX uit zou komen, dan is dat een slechte zet van ATi, vind ik persoonlijk. Ze gooien dan een product op de markt die een concurrent is van één van hun andere eigen producten. Dat lijkt me toch niet echt wenselijk.

R300 -> Hi-End markt (vervanger Radeon8500)
RV250 -> Mainstream markt (vervanger Radeon7500)
R200 MAXX -> ????

Ik ben benieuwd wat de prestaties worden van de R200 MAXX, aangezien de RV250 een opgevoerde en verbeterde R200 is, maar dan voor de mainstream markt. Als de R200 MAXX beter presteert dan één enkele RV250, dan lijkt me dat 1 van de 2 dus overbodig is.

Tenzij natuurlijk de MAXX versie gebaseerd is op de 2x een RV250. In dat geval kan de MAXX gepositioneerd worden tussen de RV250 en de R300, aangezien ik niet verwacht dat een MAXX versie beter presteert dan de R300.

Nou ja, ik wil in ieder geval wel eerst een werkende R200 MAXX zien voordat ik dit verhaaltje geloof.
De MAXX versie zal onbetaalbaar zijn voor de gemiddelde gebruiken.

de R8500 MAXX is meer voor professioneel 3d stuff.
De MAXX versie zal onbetaalbaar zijn voor de gemiddelde gebruiken.

de R8500 MAXX is meer voor professioneel 3d stuff.
Voor professionele 3D stuff heeft ATi de FireGL lijn. Een FireGL 9700 die gebaseerd is op de R300 lijkt mij dus beter geschikt voor de professionele 3D-markt dan een Radeon8500 MAXX.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True