Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties
Bron: HKEPC

Op de Chineestalige website HKEPC zijn de eerste foto’s verschenen van ATi’s nieuwste videokaart, de Radeon X1900. Deze kaart is gebaseerd op de R580-chip en zal naar verwachting rond 24 januari officieel geïntroduceerd worden. Uit de foto blijkt dat de chip aanzienlijk groter is dan zijn voorganger, de R520, iets dat geen verrassing is gezien de specificaties. De chip krijgt namelijk de beschikking over 48 pixel processors en 8 of meer vertex processors. De exacte specificaties zijn nog niet bekend, maar verwacht wordt dat het topmodel een kloksnelheid krijgt van 650MHz en het geheugen zijn werk zal doen op 1550MHz. ATi zal initieel enkele verschillende modellen X1900-kaarten introduceren, waaronder één CrossFire-model.

ATi Radeon X1900 foto (LQ)
Moderatie-faq Wijzig weergave

Reacties (93)

Frequenties zijn fout
het topmodel krijgt 695 MHz = 1900XTX mem 1550
de 1900XT krijgt 650 mem = 1450
Dat zijn flinke memmen.
En hoe kom je aan die waardes?
Want the Inq noemt ze ook, maar die verwijst naar een website die gewoon het HKEPC artikel verkeerd vertaalt heeft.
Logisch deze ati kaart komt tegen de nieuwe G71 te staan dus lijkt me wel dat die de 7800GTX overklast..

Ook denk ik niet dat je simpel weg 3x de R520 kan doen.
(vb er zit weinig verschil tussen een 7800GT en 7800GTX op dezelfde clocksnelheid dus extra pipes hebben niet auto verdubbeling in prestatie)
Het is een doorontwikkelde X10XX ATI kaart dus met minimale aanpassing qua features volgens de geruchten.

Persoonlijk verwacht ik een verdubbeling tenopzichte van huidige kaarten.
Persoonlijk verwacht ik een verdubbeling tenopzichte van huidige kaarten.

Daar moet je niet op rekenen.
Je kunt namelijk de X1800 vergelijken met 4 x X1300 en de X1900 vergelijken met 4 x X1600. (de X1600 heeft ook 3 maal zoveel pixelprocessors dan de X1300)

De X1600 is niet 2 maal zo snel dan de X1300, maar tussen de 1,2 en 1,8 afhankelijk van spel.

Je mag er dus vanuit gaan dat de X1900 ook zo tussen de 1,2 en 1,6 maal zo snel zit.
Is dit dan eindelijk de unified shader ati-kaart?

Die had namelijk ook 48 shader units, vandaar.

In een eerder artikel zei t.net namelijk dat deze techniek pas na jaren in de pc wereld te vinden zou zijn (ging over de xbox 360 gpu)
hier is de link:
nieuws: GPU's Xbox 360 en Playstation 3 onder de loep

Het kan volgens mij best dat deze GPU ook extra 10MB dram heeft, want hiermee heb je 4 keer gratis anti-aliasing op 1920*1080 !!!
Dan zou deze kaart alle benchmarks moeten kunnen winnen want vooralsnog is de AA het zwaarst voor zowat alle kaarten.

Anyway, ati of nvidia, waar je voorkeur ook naar uitgaat het beloven mooie tijden te worden voor de pc boys. :9~

ook zou ik graag direct x 10 zien in deze kaart, want anders is hij niet 100% compatible met de functies van windows longhorn 2006
dat is heel wat anders wat er in de 360 zit ;)
die zijn unified ;)
deze zijn fixed 48 pixel 8 of meer vertex
Het kan volgens mij best dat deze GPU ook extra 10MB dram heeft
lijkt me onwaarschijnlijk.
dat zou waarschijnlijk te veel ruimte innemen op de core. en er moeten al 3 keer zo veel pixel processors op als op de vorige
Anyway, ati of nvidia, waar je voorkeur ook naar uitgaat het beloven mooie tijden te worden voor de pc boys.
Vind je nou ik vind het alleen maar minder worden 4 jaar geleden betaalde je voor een top kaart 250 euro nu betaal je 3X zo veel.
Je zet met koeien letters op de doos "the ultemate game card" en hele kude ****** rennen naar de winkel om de laatste kaart te kopen voor veel te veel geld.
En zijn ze nu in een keer beter, of ziet het spel er in een keer 500 EURO beter uit :?
Het zijn deze ****** die de prijzen van alle video kaarten op drijven.
Ik wil niet zeggen dat ik geen geld in mijn pc's stop.
Maar de prijzen van die laatste tijd gevraagd worden voor video-kaarten, dat word mij gewoon te gortig.
Dit soort reacties lees ik iedere keer als het om een nieuw topmodel videokaart gaat, te duur, vroeger veel goedkoper etc etc.
Nou zit ik hier toevallig een PCM uit maart 2002 te lezen (vier jaar geleden dus) en in de diverse advertenties (o.a Informatique, alternate, BCE) wordt voor de toenmalige topkaart - de Geforce 3 Ti500 64 Mb - tussen de 500 en 600 euro gevraagd.
Conclusie: b*llsh*t.
Inderdaad, hier een artikeltje uit 2001:
nieuws: nVidia GeForce 2 Ultra roundup @ Hardwareinfo
Het bleek dat de Leadtek GeForce2 Ultra met zijn adviesprijs van 1299 gulden aanzienlijk goedkoper was dan de concurrentie.
(1300 gulden = 590 ¤, dat was dus nog goedkoper dan de concurrentie)
Das inderdaad waar, want 4 jaar geleden heb ik mij nog de Geforce3 Ti200 gekocht voor 320 euro, en het topmodel de Geforce3 Ti500 was toen iets meer dan 500 euro.
Maar met dit verschil dat een beetje gamer word verwacht dat hij 2 van die kaarten in zijn pc stopt
Die steeds nieuwere, snellere en volgens jouw dus duurdere kaarten zorgen er wel voor dat de vorige modellen een stuk in prijs zakken, dus hoe je er ook tegenaan kijkt, het is voor de consument beter, behalve als je zo'n freak bent die perse het snelste van het snelste wil hebben terwijl je het niet eens nodig hebt.

Als op dit moment nog de FX 5950 Ultra nVidia's snelste kaart was en de Radeon 9800 XT Ati's snelste kaart was dan zaten wij voor onze PC'tjes nu allemaal nog altijd 200 euro te betalen voor een 9600 XT kaartje, aan jouw de keus wat je liever hebt.

En zoals hierboven ook al genoemd, dat de prijzen stijgen met de jaren van de componenten is onzin, ze worden juist eerder goedkoper, kijk eens wat je 5 jaar geleden kwijt was voor een beetje een game systeem en wat je er nu voor kwijt bent? Ondanks inflatie enz kom je dan toch op een lagere prijs op dit moment uit.
das niet waar, ik kan me nog herinneren dat ik ƒ 800 heb betaald voor een geforce 2, dus
Waarom vinden mensen het normaal van 1000 euro te betalen voor een cpu, terwijl ze dat voor een grafische kaart die tenslotte veel ingewikkelder in mekaar zit (eigen pcb, geheugen, ...) abnormaal wordt gevonden.
Zo had ik het nog nooit bekeken, maar inderdaad is een cpu relatief gezien dan veel duurder. En daar doet niemand moeilijk over.
I had een heel lange boze post die hieronder staat maar op het einde realiseerde ik ook nog helemaal in mijn 'rage' dat in dit hele nieuwbericht helemaal niet over een prijs gepraat word en er word dan al onnodig over een belachelijke prijs gepraat! Het is niet zozeer dat ik op degene boven mij in deze thread (player-x) boos ben, maar op het algehele gemekker over de prijs en 'De Euro'. Maar ik onthoud mijzelf niet van het onnodig getyp en jullie kijkbuiskindertjes van mijn onnodige moeite dus hier komt mijn getypte bericht;

Mensen vergeten dan ook dat binnen vier jaar de prijzen standaard 10 procent gestegen zijn vanwege inflatie en de gevoelsinfatie 2 keer zo hoog ligt dan de correctie inflatie. Een artikel van het NRC wat ik toevallig deze week heb opgezocht beschreef de uitkomst van een odnerzoek waarin de gemiddelde nederlander wet gevraagd naar wat de gemiddelde nederlander dacht dat de prijzen gestegen waren. Het gemiddelde antwoord lag op 15 procent terwijl de daadwerkelijke prijsstijging op 8 procent lag.

Bedragen die hieronder in deze thread worden genoemd kan je ook nog eens met 10% verhogen en vergelijk dan nog maar eens de prijzen van de videokaarten van toen met die van nu.


En dan kan men nog eens gaan zeuren over dat men die inflatie van 2.2 procent per jaar helemaal niet wil maar de lonen hebben ook een minimale inflatiecorrectie gehad de afgelopen jaren.

Al dat gezeur over die stijgende prijzen terwijl mensen helemaal niks af weten van die stijgende prijzen en alleen maar lopen te mekkeren terwijl ze er niks van afweten.
Neen, de meest betrouwbare geruchten zeggen dat het een grotere versie is van de R520 chip, die duidelijk afgescheiden pixel en vertex eenheden heeft.

Wat ik me wel afvraag is of deze enkele uitbreidingen heeft gekregen om volledig DirectX 10 compatibel te zijn...
Deze is 9.0c de R600 wordt DX10 en WGF 2.0 als ik me niet vergis.
De R600 zal als eerste kaart unified zijn.
't Is vooral uitkijken naar het prijskaartje wat ze erop gaan plakken. Ik schat zo rond de 650 à 700¤.
Voor de rest denk ik ( ik ben er vrijwel zeker van) dat dit beestje de 7800GTX overklast op alle gebied!
't Is wachten op eerste benchmarks...
Maar gaat ie ook over de 8800 GTX heen?? Dat is de echte vraag!
Je bedoeld de 90nm G71 met 32 pipes en 16rops?
Als nVidia deze op dezelfde kloks krijgt dan zal het niet veel uitmaken.

De 8800GTX lijkt mij eerder een kaart die de R600 beconcureerd en zal pas aan het eind van dit jaar met unified architectuur uitkomen. (dus niet in januari)
Zo kan je bezig blijven. Zal bijvoorbeeld die 8800GTX ook over de X2800 heen gaan of zelfs de X2900? Dat is dan weer de vraag...
@wagnef: De 7900 GTX dan???

@infinity: Zie mijn reactie op wagnef. Je moet altijd dezelfde generatie met elkaar vergelijken om enigzins een eerlijk oordeel te kunnen geven. De 1800XT en de 7800 GTX 512 zijn zelfde generatie kaarten.
De 1900 is al een step up net zoals de 7900 GTX dat dan zou zijn.

Dan moet je dus de 2800 met de 8800 vergelijken, de 2900 met de 8900 etc. Dit zal trouwens volgens de huidige verhoudingen altijd in het voordeel van nVidia zijn maar dat kan natuurlijk altijd veranderen! Zou goed zijn voor de concurrentie!
Koop ik toch liever een XBOX 360 met vergelijkbare GPU en nog meer hardware incl. kabels etc. voor 399 Euro, gebruik ik die overige 300 Euro wel voor wat games

Damn wat een geld voor 1 kaartje
Ik weet niet of jullie het hebben gelezen op de bron site (chinees) niet dat ik chinees kan, maar tussen alle blokjes en dingetjes in begrijp ik dat je een behoorlijke voeding moet hebben om hem draaient te krijgen.

de X1900XT 12V 30A (12x30=360W)
de X1900 Cross Fire 12V 38A (12x38=456W)

360W of 456W voor alleen je videokaart = ZIEK!!!!
ze bedoelen dat je zo'n voedig nodig hebt voor je HELE computer minimaal. dus niet alleen voor de videokaart hoor.

360watt voeding voor een systeem met 1 kaart valt best mee.
en 450 voor crossfire lijkt me ook nog best redelijk eigenlijk. nvidia's eisen liggen hoger als ik me niet vergis, 400watt voor 1 kaart ofzo?

ik kan trouwens ook geen chinees maar mijn uitleg lijkt me een heel stuk logischer.
erm, daar klopt echt HELEMAAL niks van. Je hebt voor die 360W wel een heeeeele grote koeling nodig, of iets van subzero, zoals iemand hieronder ook al zei.
De X1800 XT verbruikt 123W. Lijkt me heel sterk als ze voor de gein het wattage gaan verdriedubbelen.
De X2800 XT is overigens de kaart met het hoogste wattage. De 7800GTX 512 verbruikt namelijk maar 120W ;)
Ik reken dan natuurlijk niet de SLI en de '2 GPU's op 1 kaart' opstellingen mee.
Babelfish kan er wel wat redelijk leesbaars van maken. (je moet de website opgeven, niet de tekst knippen en plakken, want dat werkt niet)
Family ATi the R580 true body exposes Die Size again new high

ATi to January 24, 2006 official brand-new Gao?? Core R580, moreover also official naming Radeon X1900 series, However already long time but not True body, how but HKEPC does Call to pursue the newest Disappointed, The family looks for ATi the R580 true body exposure, may see R580 Die Size Step has also been big, if by 90 nm metric systems Cheng??, so huge Die Size believed integrates the ultra 3.5 crystals Above.

ATi not yet submits the R580 core to business the official standard, only knew ?a minute ?3 edition, most Gao? Radeon X1900XTX, the substitution has by the PE naming method, core ????650MHz, ??????1550MHz. Radeon X1900XT core ???625MHz, ??????1450MHz. But CrossFire edition also ??n same date , core ???625MHz ?????1450MHz. Moreover, ATi discloses Radeon X1900XTX to business request least 450W the source for ??, 30A 12V ??, if is XT1900 the CrossFire request uses the 550W source to have to provide 38A for ??12V the ability.
Edit:
Even wat overgebleven vreemde tekens weggewerkt in notepad.
Ik denk zelfs dat het een nvidia kaart is :*) . De lay-out lijk er vreselijk veel op. en dat zwarte blokje is er mooi in gefotosoept om hem op een ATI te laten lijken. ONZIN!

Maarja dat is mijn mening.
ummm het is rood PCB zoals alle ATI kaarten.
hij heeft een layout die erg lijkt op die van de X1800
EN geen aansluiting voor SLI, al hoewel het duidelijk wel een nieuwe en snelle kaart is gezien de rechterkant van de kaart voor de power.

als die kaart een nvidia kaart is eet ik mijn petje op.

en dat ding erop fotosoepen inclusief koelpasta tussen de weerstand lijkt me wat lastig + zo zag mijn videocore er ook uit doen ik de koeler erafhaalde om er waterkoeling op te zetten.
Het is gewoon een ATI kaart kan ik je uit eigen ervaring vertellen :) Inclusief de plaatsing van de geheugenchips en de kleur etc. In real life ziet ie er net zo uit.
Iemand post op die site:
first of Aall that chinese site always pulls fakes, remember r520? second, when you enlarge that pic you can clearly see, look at the top, see that violet line? you can see the whole core is just a fake black square pasted on on top of r520 core. I'm not surprised after all it comes from the chinese... it's like third time in a row they post fake pics, i'm surprised people still fall for there crap.
Makes you wonder... (Ik ben geen expert op dit gebied dus ik kan geen eigen visie geven...)
Volgens mij is dit ook fake!!!

Tis tevens een agp aansluiting. neem aan dat ATI nu alleen nog high end kaarten zekers op PCIe zullen maken

Zie plaatje voor dat lijntje tevens vind ik het blokje wel erug kaars recht en zwart nog maar niet te spreken over hoe het op de core geplaatst is!!
Dit is wel degelijk PCI-Express. Verder ziet het er ook compleet echt uit.
nou mensen, doe es even inzoomen...
1. kleurverschil core en andere chips, ook is de core compleet egaal zwart, waar de andere schips dat niet zijn.
2. de core zit er scheef op
3. ..ik kan het paarse lijntje niet vinden?'

als dit een fake is had ik het beter gekunt :Y)
1. De geheugenchips hebben een plastic verpakking. Bij de core kijk je recht op een stuk silicium.
2. Helemaal niet. De koelpasta is wel een beetje onregelmatig op de zijkanten, maar daar is niks speciaals aan. Merk ook op dat de eerste foto 180 graden gedraaid is t.o.v. de tweede.
3. Silicium glanst. Dus als de eerst foto onder een andere hoek is getrokken kan daar gerust wat paarse glans meer of minder zijn.

Je kan pas echt van fake onderscheiden door z'n natuurlijke onvolmaaktheden. (8>
De bovenkant van de core is niet het silicium zelf, maar er zit nog een laagje ander materiaal overheen. Anders zou je nogal wat kortsluiting krijgen met je koeler en het silicium is lang niet zo krasvrij.

Verder is het dan nog steeds erg onwaarschijnlijk wanneer je op een foto een egaal stukje ziet, want je camera of scanner geeft ook wat ruis. Dus al zou die core spiegel glad zijn en heel erg egaal van kleur, dan nog moet er wat ruis in zitten door de camera.
In elk geval kunnen we dus stellen dat de foto bewerkt is.


Edit:
Ik heb de foto op dat chinese forum eens even in Photoshop geopend en de levels aangepast.
Dan blijkt de core toch niet zo egaal te zijn als eerder leek.
Dan zie je een paarskleurige kring rondom de tekst en de verwachte ruis en Jpeg-artefacten rondom de tekst.
Het vreemde is wel dat die tekst een stuk scherper is dan de rest en dat de ruisblokken op de core een stuk groter zijn dan de Jpeg-artefacten rondom de tekst, maar dat zou ook een resultaat kunnen zijn van een te hoge Jpeg-compressie.
aangepast plaatje (alleen 3x vergroot, gamma aangepast)
Het is wel degelijk silicium waar je op kijkt. De transistors zitten echter aan de onderzijde. Dit is een zogenaamde 'flip-chip' verpakking. Er kan dus ook helemaal geen kortsluiting optreden. Silicium oxideert en vormt daarbij siliciumoxide, beter bekend als glas. Een chip is dus ook weinig krasgevoelig.

De tekst op de foto's is scherper met meer ruis omdat JPEG compressie bij sterke contrasten (zoals tekst op een donkere achtergrond) hogere frequentie componenten gebruikt.
Vreemd beeld van een AGP slot heb jij dan in je hoofd..:? Dat is toch echt een PCI-E 16X slot
Tiens, gaan ze nu ook al de nVidia-toer op met hun geheugen plaatsing? 8 chips rond de core ipv vier langs elke kant.

Enfin, mij niet gelaten, dit is gemakkelijker om te waterkoelen :)
zal wel te maken hebben met hun nieuwe ontwerp geheugen controler.
Of het heeft te maken met de BTX standaard. De airflow gaat dan langs de geheugenchips heen. De kaart wordt met de geheugenchips naar boven gemonteerd, warme lucht stijgt dus betere koeling.
ik moet ook even zeggen dat ik het fake vind, bekijk de website maar eens

daar zie je een groot plaatje van de core met wat lijkt op een afgeschraapte bovenkant,
je ziet de koelprut nog zitten maar midden van de smerige zooi een perfect onbezoedeld zwart vierkantje wat de core moet voorstellen :?
Is perfect normaal. Gewoon de koeler eraf gehaald en de chip schoongeveegd. Die kleine elementjes ernaast maken het moeilijk om ook de zijkanten schoon te krijgen. Ook de rest van het bord ziet er geheel volgens verwaching uit.
De foto's zien er vrij officieel uit als ik mag zeggen. De specs zijn zeer verassend en het is zeker een uiterst inventieve zet van ATi die aantal pixelpipelines, maar ik zie liever benchmarks. Zal dit kaartje wel Dual werken tegen 2× 7800GTx 512MB? En het overclocken? Gaat dat nu beter of heeft ATi dat gelimiteerd ivm met de pixelpipeline-uitbreiding. Het is maar hopen dat deze antwoorden voor de Lente worden beantwoord anders zal nVidia veel profijt gaan hebben aan hun 7800-kaarten ten op zicht van de X1800-kaarten.
lente?
deze kaarten zijn al in productie genomen en zouden ergens in januarie gaan uitkomen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True