Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties
Bron: C|Net

Uit dit artikel op C|Net kan men concluderen dat ATi zeer binnenkort een nieuwe videochip zal introduceren, direct nadat de grootste GeForce3 hype voorbij is, om precies te zijn. VC-News denkt dat het om de Radeon II gaat, maar het zou ook mogelijk kunnen zijn dat er alsnog een een Radeon MAXX komt. In ieder geval zal deze nieuwe core ook terug te vinden zal zijn in de Nintendo Gamecube. Daarmee heeft ATi net als nVidia het voordeel van grotere productie op niet concurrerende gebieden, wat uiteraard voor meer inkomsten zorgt:

The Geforce3 gives a further edge to Nvidia, the top dog in the cutthroat graphics chip business. However, analyst Jon Peddie said that rival ATI Technologies will also be introducing the latest version of its Radeon family soon after the GeForce3 buzz dies down. "They are waiting for the dust to settle" from Nvidia's announcements, said Peddie, head of market researcher Jon Peddie Associates.

[...] "The combination of the two platforms which don’t compete with each other allows them to build more parts which brings down the cost," Peddie said. ATI should enjoy a similar advantage by using the same core for Nintendo's forthcoming game console as it does in other markets.
Moderatie-faq Wijzig weergave

Reacties (31)

Hm jammer dat ze hem niet eerder uitbrengen, dat zou de prijzen van de GeForce3 zeker sneller doen zakken.
Ach ja, wat is nou het verschil tussen 1900,- en 1500,- als de GF3
slechts
400 gulden goedkoper wordt. Dat betaal ik ook wel eventjes van mijn studiefanciering... |:(
Mischien val jij ook wel buiten de doelgroep :?
Hmmmmm, laat de strijd om de gunst van de koper maar lekker losbranden in het top-segment. Kan voor ons tweakers alleen maar een gunstige invloed hebben op de prijzen van bv. de Geforce3 :)
En als je nou goed leest dan zie je het volgende staan:
Daarmee heeft ATi net als nVidia het voordeel van grotere productie op niet concurrerende gebieden, wat uiteraard voor meer inkomsten zorgt

Wat volgens mij wil zeggen dat zowel Nvidia als ATI hun prijzen hoog houden!
Dat heeft voor de PC-gebruikers geen nadelige gevolgen. Hiermee doelt de schrijver op het Nintendo verhaal. Daar zijn ze exclusief leverancier van. Net zoals NVidia dat gaat doen bij de XBox.
Dat ben ik niet met je eens, als zowel NVidia als ATI voor de Xbox respectievelijk Gamecube dure chips gaan leveren zal ook de prijs voor de consumenten pc markt hoog blijven aangezien ATI liever een dure Gamecube chip verkoopt dat een goedkope PC-variant. Een gevolg hiervan is dat er weinig chips (GPU's) beschikbaar komen voor de pc-markt zodat de prijzen hoog blijven!
Ja, maar de gamecube wordt niet vreselijk duur(tegen de 600 piek gloof ik), omdat er geen DVD-speler in komt.
Daarom denk ik dat de processor niet zo duur zal zijn als die van de Xbox ongetwijfeld wordt.
Daarmee heeft ATi net als nVidia het voordeel van grotere productie op niet concurrerende gebieden, wat uiteraard voor meer inkomsten zorgt
Volgens mij staat hier dat nVidia en ATI de ontwikkelingskosten voor een groot deel terug kunnen verdienen via de console markt waar ze niet direct met elkaar concurreren. Op de PC markt waar ze wel direct tegenover elkaar staan zal de concurrentie dus des te heviger zijn (beide hebben immers de zekerheid dat er geld binnenkomt via de verkoop van aan Nintendo en Microsoft). Lijkt mij een goede zaak voor iedereen met een PC!
Wat volgens mij wil zeggen dat zowel Nvidia als ATI hun prijzen hoog houden!
NIET WAAR! Even een lesje economie. Met het stukje tekst waar jij naar refereert bedoelen ze de console markt. Als ze op die markt ook de zelfde chipset gebruiken, kunnen ze er meer van verkopen. Het draagvlak is grote (lees meer potentiele klanten) en er zullen er dan ook hoogst waarschijnlijk meer van verkocht worden. Als ze geen ingrijpende veranderingen aan de chip hoeven aan te brengen kunnen ze gewoon uit de zelfde "waffer" komen. Meer chips uit de zelfde "waffer" betekend dat de vaste kosten per chip dalen en ze dus ook goedkoper aangeboden kunnen worden. Dan hoef je geen knappe kop te zijn op te bedenken dat de prijzen kunnen dalen, waardoor de vraag toeneemt, waardoor de productie stijft, waardoor de vaste kosten dalen enz. enz. Verder is het heel belangrjk dat ze een lage uitval percentage hebben, anders moeten de goed chips alsnog voor een hoge prijs verkocht worden om de kosten weer te dekken.

Misschien dat ze die GPU aan Saddam ofzo kunnen verkopen voor z'n kernraketten, want dan worden ze nog goedkoper :) productie zal immers stijgen.

Nu nog even voor de mensen die roepen "maar als de vraag stijgt, dan gaan de prijzen toch ook mee!!" Ok mee eens, maar dat is maar tijdelijk totdat de productie opgevoerd is, want ze zouden wel gek zzijn om een grote voorraad aan te leggen met het risico om ze niet kwijt te kunnen. Ze verdienen er namelijk meer aan om veel chips voor een lagere prijs te verkopen dan weinig chips voor een hoge prijs.

Kijk maar daar b.v de Yamaha Neo. Een mooivoorbeeld van massa productie met een lage prijs en weet je wat....hij verkoopt nog goed ook.
Volgens een eerdere post komt de kaart "pas" in de zomer uit. Hebben ze dus opnieuw een achterstand van een 2 a 3 maanden op NVidia. Trouwens de specs zijn precies hetzelfde t.o.v. de GeForce 3, dat kan dus nog spannend worden. Op de volgende pagina kun je het terug vinden:

http://www2.tweakers.net/nieuws/15208?highlight=rade on
Specs kloppen niet en zijn gebasseerd op vage geruchten.
www.geocities.com/tnaw_xtennis/NV20-5.htm
Volgens de meer betrouwbare kanalen heb ik gehoord dat ie op 200MHz is geklokt.
Ik weet niet wat je met die link wilt, maar die specs kloppen dus echt niet. Volgens die site heeft de NV20 (GeForce 3) een Corespeed van 200 MHz welke toch echt 350 is. Zoals je hier al kon zien:

http://www2.tweakers.net/nieuws/15926

Ik denk dat die specs in mijn eerder gegeven link wel aardig overeen zullen komen. De specs die ze daar gaven komen ook aardig overeen met de (bijna) uitgebrachte GeForce's 3.
Een core speed van 300MHz kan niet, omdat anders het DDR geheugen niet mee kan komen want dan zou je op ongeveer 550-600MHz DDR zitten en dat is belachelijk.
De ultra gebruikt ook 460MHz DDR (hercules 3D prophet 2 ultra). Op de GF3 zit het zelfde setje omdat sneller gewoon niet bestaat. En met die 460MHz van de ultra zit je al aan de max wat geheugen betreft.
Heb hier het bewijs gevonden voor de 200MHz core speed

www.digit-life.com/articles/gf3/index.html
Zij hebben benchmarks gedraaid ed.
Hebben ze dus opnieuw een achterstand van een 2 a 3 maanden op NVidia.
Hoezo achterstand? En hoezo "dus" ? ATi was de eerste met een DirectX8 compliant kaart (Radeon).

Ik noem dat geen achterstand, eerder voorsprong....

nVidea is een nieuwkomer met enorm potentieel, ATi is ouder dan jij bent maar daarom niet "achterlopend".
nVidea is een nieuwkomer met enorm potentieel
Het is nVidia
ATi is ouder dan jij bent maar daarom niet "achterlopend".
Dacht het niet...
Founded in 1985, ATI Technologies Inc. is the world's largest supplier of graphics, video and multimedia solutions for personal computer and MAC platforms. The pioneer, innovator and market leader in the graphics
Hoezo achterstand? En hoezo "dus" ? ATi was de eerste met een DirectX8 complient kaart (Radeon).

Ik noem dat geen achterstand, eerder voorsprong....
Ik kan iemand niet een voorsprong geven met iets wat nog door bijna geen een spel ondersteund of gebruikt wordt.

Radeon moest concureren met de GeForce 2. De Radeon was er later.

De Radeon VE moet concureren met de GeForce 2 MX deze ATi kaart is er net.

De Radeon 2 moet concureren met de GeForce 3 en deze is opnieuw later.

Dat bedoelde ik met achterlopen... Damn i'm good :)
Er was ook al zoiets als de Radeon 32MB SDR die ongeveer in dezelfde prijsklasse viel als de GF2 MX.
De Radeon is niet directX 8 compliant omdat je de T&L unit geen instructies kan geven. Dit zogenaamde programabillity is echt directX 8.

En wie nu iets eerder of later komt doet er niet toe. De V5, Radeon, GTS, Kyro zijn allen kaarten uit dezelfde generatie. De Radeon echter was gewoon de beste allround kaart voor 32bits en 2D activiteiten en dat moet je soms gewoon accepteren of je nu aandelen in NV hebt of niet. NV gebruikt deze kaart in hun PR dan ook maar wat graag als referentie t.o.v. hun GF3.

Voordat kaarten goed leverbaar zijn ben je toch al 2 maanden verder. En aan kaarten als de GF3 heb je nu nog helemaal niks tenzij je graag 1800 gulden voor FSAA neergooit wat de V5 ook redelijk goed kan. Weet alleen niet hoe de GF3 FSAA presteerd in vergelijking met de V5 maar na de juiste driver updates zou het op -10 tot -15% moeten komen wanneer de GF3 geen FSAA gebruikt, bij de eerste release verwacht men ca 25%.
Daarmee heeft ATi net als nVidia het voordeel van grotere productie op niet concurrerende gebieden, wat uiteraard voor meer inkomsten zorgt
Volgens mij juist wel, de X-box en de Cube moeten het toch tegen elkaar opnemen. Als blijkt dat bijvoorbeeld de X-box beter/sneller is, worden er minder Cube's gekocht, dus minder geld voor ATI.
Daarmee bedoelen ze dat ze op de PC en op de console markt chips kwijt kunnen. Als je veel chips naar één markt gooit daalt de prijs, maar als je het over twee markten kunt verdelen hoeft dat niet en heb je (dus) meer inkomsten.
ATI en nVidia hebben maar in kleine mate invloed op het success van de x-box en de gamecube. Dat ligt in tegenstelling tot de pc markt volledig in de handen van marketing en software. Het is nooit zo dat de technisch betere console per definitie de strijd wint.
maar dit hangt niet zoals in de pcmarkt af van de prestaties alleen. de gamecube kan best wat langzamer zijn dan de xbox. bij de consoles gaat het er toch alleen om wie de leukste spelletjes heeft.
Apple maakte standaard gebruik van ATI kaarten, maar gaan nu over op GF3 zal ATI niet leuk vinden ;(
ATI heeft er zelf voor gezorgd dat apple alternatieven is gaan gebruiken.. ATI heeft plaatjes van de cube naar buiten gebracht, terwijl apple dir 'verboden' had..
en als straf is apple naar nvidia gegaan

Helaas pindakaas zou ik dus bijna willen zeggen
Geloof je het zelf dat Apple GF3 kaarten standaard gaat toepassen op hun MAC's.
No way, daar is zo'n kaart gewoon een factor 6 te duur voor. Tevens zijn er voor de MAC helemaal geen of nauwlijks spellen die die kaart nodig hebben.

Nu NV voor 1800 gulden een GF3 heeft gereleased kunnen ze de oem markt wel gedag zeggen als ATI straks de Radeon 2 aan kondigt.
Als ATI de belofte waar maakt die ze hebben gedaan dan zou de Radeon 2 minder dan 1000 gulden moeten kosten. En daar kan NV niet tegen concureren. Want wie wil er nu zo'n oude GF2 ultra in z'n PC hebben als die voor het zelfde geld ook een gloednieuwe Radeon 2 kan kopen met DirectX 8 Compliancy.
Volgens mij gaat het nieuws over de GF3 en niet over de Radeon. In dat hele stukje kom ik één keer het wordt Radeon tegen en er wordt helemaal niet gesproken over een Radeon II of een Radeon Maxx.

Ander kopje maken misschien??

(dit is niet bedoeld als troll of flame, maar ik hoopte toch iets meer te lezen over de Radeon II / Radeon Maxx toen ik het kopje zag)
Ik kan niet wachten op die kaart. Op het moment heb ik een Matrox G400 MAX en dus wil ik gaan upgraden i.v.m. de matige 3d prestaties van mijn kaart. Aangezien ik niet in 2D kwaliteit achteruit wil gaan, en de 2D van de G-force familie niet al te best is ben ik naar de Radeon aan het kijken. Maar nou mocht het zo zijn dat ik Win2K draai, en dat de Win2K drivers van ATI :r zijn. Nou hopen dat dat bij de Radeon 2 anders is, dan heb ik eindelijk een waardige opvolger voor mijn G400 gevonden !!!
Het worden nog spannende en mooie momenten voor ons.. Welke videochip gaat mijn savage2000 niet of wel vervangen
Daarmee heeft ATi net als nVidia het voordeel van grotere productie op niet concurrerende gebieden, wat uiteraard voor meer inkomsten zorgt:
Dat lijkt me dus niet zo heel positief voor de prijskaartjes...

Maar we hebben nu wel weer een aardig alternatief. Hopenlijk was het 't wachten waard
Het laatste gerucht was dat de Radeon II omstreeks september in Amerika beschikbaar zal zijn. Dus eind september/begin oktober kun je hem waarschijnlijk in Nederland al krijgen. Niets is zeker natuurlijk...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True