Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

AMD zal de nieuwe ATi R600-gpu op zijn vroegst in februari in productie nemen. De opvolger van de X1950-kaarten zou mogelijk pas op de markt komen in de weken na de CeBit-beurs, die in maart in het Duitse Hannover wordt gehouden.

R600-chip Oorspronkelijk had AMD zijn DirectX 10-kaarten nog voor de release van Windows Vista willen laten debuteren, maar vorige week werd al gemeld dat er een zogenaamde re-spin nodig was. De 'A12'-versie die eind vorig jaar werd gespot, blijkt nu inderdaad een herzien ontwerp te krijgen. Op de CES-beurs is voor een kleine groep journalisten wel al een presentatie van een op 1GHz geklokte A12 geweest, die in combinatie met 1GB gddr3-geheugen naar verluidt indrukwekkende resultaten neerzette. Dat zou erop kunnen wijzen dat de re-spin alleen bedoeld is om de yields van de nieuwe chip op te krikken, al wordt er hier en daar wel over 'serieuze problemen' gesproken. Een eerdere re-spin was volgens Hexus.net nodig omdat de engineers van AMD 'vergeten' waren om de 720 miljoen transistoren tellende chip van een pin-out te voorzien, maar dergelijke beschamende problemen zouden ditmaal in elk geval niet aan de orde zijn.

Volgens de jongste roadmap van AMD krijgt de R600 in elk geval ondersteuning voor gddr3- en gddr4-geheugen, en de chip zou bovendien een 512 bits brede geheugenbus tot zijn beschikking krijgen. Klok- en geheugensnelheden zijn nog niet bekendgemaakt; wel is inmiddels duidelijk dat er ook twee lichtere versies van de chip zullen verschijnen. De R610 en de R630 zouden respectievelijk het middensegment en de budgetmarkt gaan bedienen. Ook deze DirectX 10-kaarten zouden bepaald geen misselijke specs meekrijgen, maar of AMD veel plezier aan zijn eerste echte gpu gaat beleven is nog maar de vraag. Concurrent nVidia zit immers ook niet stil: de eerste op 80nm gebakken versie van de G73 is al maanden geleden gesignaleerd, en de verwachting is dat deze fabrikant tijdens de CeBit een behoorlijk snellere 80nm-versie van de GeForce 8800 zal presenteren.

Moderatie-faq Wijzig weergave

Reacties (77)

Dit is natuurlijk niet alleen voor ATI slecht nieuws, maar ook voor de consument.

Het lijkt nou dat ATI Nvidia tegenwoordig TOTAAL niet meer kan bijbenen.. wat dus meer monopolie positie betekent voor Nvidia. Zo kan Nvidia de prijzen hoog houden, aangezien de consument geen 'keus' heeft.
Sorry hoor maar waar leef jij? Ok, in het high-end-segment schopt nVidia momenteel kont maar alles onder die 8800 serie heeft ATI de winnaar te pakken. X1950pro bied erg veel bang for buck, X1650XT verslaat de 7600GT in bijna alle benchmarks, al verbruikt ie een tikkie meer, gelijkspel dus. X1650pro is ook een uitstekende tegenstander voor de 7600GS. Consument heeft keus zat gast, met een voordeel voor ATI...
haha, dit al eens gelezen:
The Best Gaming Video Cards for the Money: January 2007
http://www.tomshardware.c...ideo_cards_for_the_money/

Nvidia wint in meer categorien dan ati. Dus ik zal het helemaal voor je duidelijk maken: er zijn meer nvidia kaarten de beste koop in elk segment dan ati kaarten.
Het voordeel is dus duidelijk nvidia.
Goh, zijn er nog mensen die Tom's serieus nemen dan?

Triest om te zien hoe die site afgegleden is.
Ooit waren ze onafhankelijk en deden ze goed onderzoek naar opvallende benchmark resultaten. Maar sinds Tom zelf geen artikelen meer maakt is het alleen maar bergwafwaarts gegaan... :'(
als ik dat artikel doorlees, lijkt het er juist op dat ATi nog behoorlijk wat troeven in handen heeft.... Juist in het middensegment.
Dat geldt wel voor het topsegment maar in het middensegment scoort ATi best goed met de X1950 Pro en ik denk dat de consument (behalve early adaptors misschien) nog niet staat te springen om DX10.
Het lijkt nou dat ATI Nvidia tegenwoordig TOTAAL niet meer kan bijbenen..
Het omgekeerde werd gezegd toen ATI met de R300 core de NV30 core van NVIDIA de grond in boorde.

Het is niet onwaarschijnlijk dat ATI meer dan één team heeft, en dat R700 verder zou kunnen staan dan NVIDIA met G90. Het kan ook omgekeerd, maar ik wil maar zeggen dat alles mogelijk is.

De overname door AMD kan ook alle kanten uit. Hierdoor hebben ze toegang tot de nieuwste silicium-technologie, wat in een jaar of twee een significant voordeel kan zijn.
Het is niet onwaarschijnlijk dat ATI meer dan één team heeft, en dat R700 verder zou kunnen staan dan NVIDIA met G90.
ATI heeft vanaf de R300 al twee teams. Daar hebben ze nooit een geheim van gemaakt.
Hoe vaak lees je niet als het over Ati of AMD gaat in reacties hier van "alles is mogelijk".

Dat slaat totaal nergens op. Het zijn fanboy uitspraken die kant noch wal raken, want ja, altijd is alles mogelijk. Ook voor Intel, ook voor nVidia, ook voor Via, ook voor Citrix, ook voor Matrox en wat nog meer.

Godsamme, altijd en eeuwig die vergoeilijkende en excuserende opmerkingen bij nieuwsberichten over Ati en AMD als het daar eens niet goed gaat.

Ging het met nVidia of Intel minder, nou, dan stond het vol met smalende en juichende reacties van "Zie ze kunnen Ati/AMD niet bij houden."

En gaat het minder met Ati/AMD:
"Wacht maar op RD-600 of K8L of...."
"AMD/Ati komt wel terug"
etcetera ad nauseum.

En ik zeg je, het zou zo maar kunnen dat de G-90 op 2 Ghz loopt, met 2048 Mb GDDR5 aanboordt, en 1024 bitspoort etc etc etc.

Slaat toch ook nergens op.
Concurrentie is nodig, niet alleen voor de prijzen maar ook omdat de concurrentie nvidia altijd aanzette tot het releasen van betere drivers. Voor de G80 zijn er momenteel weinig drivers beschikbaar helaas, omdat ze niet moeten.
Oorspronkelijk had AMD zijn DirectX 10-kaarten nog voor de release van Windows Vista willen laten debuteren, maar vorige week werd al gemeld dat er een zogenaamde re-spin nodig was. De 'A12'-versie die eind vorig jaar werd gespot, blijkt nu inderdaad een herzien ontwerp te krijgen.
Wat zijn jullie traag op tweakers , ondertussen is er al een nieuwe nieuwspost waarin vermeld wordt dat er geen respin komt uiteindelijk. De reden van de delay is omdat ze de kaart in grootte hoeveelheden willen verschepen en ze zo onmiddelijk aan de consument kunnen leveren.
En jij hebt even die link naar dat artikel voor alle andere lezers? Dank u
Grappig om te lezen dat sommige mensen nu al beweren dat G80 beter is in DX10 applicaties dan de R600. Ten eerste is er nog geen DX10, ten tweede hebben we zelfs nog geen Vista voor de grote consument, ten derde heeft nVidia nog niet eens G80 Windows Vista drivers (laat staan 64-bit versies) uit, ten vierde weet niemand nog wat de R600 is en gaat iedereen uit van de geruchtenmolen.

Dus kan iemand mij vertellen hoe sommige mensen tot de conclusie komen dat G80 een snelle kaart is in DX10? Totdat de eerste DX10 games uit zijn gebracht (Crysis Mei/Juni 2007, FSX update Juni 2007, Alan Wake 2008) en je de performance hebt kunnen vergelijken van de G80 en R600, kan je wat mij betreft pas een winnaar uitroepen... die dan een korte tijd de beker mag houden, want dan komen G81 en R680 er aan, en daarna G90 en R700 komen er aan.... en zo blijven we door gaan.
Omdat vele dx10 specifieke features zoals geometrie shaders al wel getest zijn geweest.Bovendien kan je via ogl dx10 functies testen. En daaruit blijkt dat de G80 allerminst slecht presteert in dx10.
En een verband leggen tussen het gebrek aan dx10 drivers en het feit dat dx10 niet goed zou werken, is gewoon FUD.
Zonder referentie KUN je niet constateren of een kaart goed of slecht presteert.

De 5800FX leek ook allerminst slecht te presteren in DX9...
Totdat je er een 9700Pro tegenover zette...

Totdat je een R600 tegenover die G80 kunt zetten, kun je uit die ogl tests geen conclusies trekken.


BTW, CJ heeft helemaal geen verband gelegd tussen een gebrek aan DX10 drivers en een vermeend feit dat dx10 niet goed zou werken.
Als je mensen van FUD wil beschuldigen, let dan wel een beetje op, op wie je reageert. Je opmerking is van toepassing op een aantal andere posts hier, maar niet op deze.
Als je een nvidia fanboy bent, dan heb je nou eenmaal helemaal geen feiten nodig om tot de conclusie te komen dat de G80 sneller zal zijn dan een R600.

Zo simpel is het helaas...
volgens mij is het tegenwoordig mode om problemen te hebben met je productie en ontwikkelingsprocessen, je krijgt gratis publiciteit en consumenten zijn ineens ongelofelijk blij als de problemen zijn gefixt.... :Z
Waar is de bronvermelding? Ik zie in het artikel geen enkele bron die aangeeft dat er op dit moment problemen zijn?

Alleen wat geneuzel over oude zaken... waarvan dan nog hoofdzakelijk van de geruchten molen van Inquirer, die nog onbetrouwbaarder is dan de Story en Privé....

Volgens mij is de enige harde informatie dat AMD nog geen release datum heeft gezet. En dat is toch wel een beetje magertjes om daarop zo'n artikel op te schrijven...
Even niet vergeten dat er met de nieuwste generatie nvidia-kaarten behoorlijk veel problemen zijn.

edit: even een link voor de geinteresseerden: nieuws: 'Nvidia GeForce 8800 voldoet niet aan pci-e-specificatie'

edit2 @GH45T: Ik vind het persoonlijk helemaal geen probleem dat de nieuwste kaarten van ati nog even op zich laten wachten. Op deze manier heeft Ati iets meer tijd om een goed werkend product af te kunnen leveren.
Behoorlijk veel problemen is zwaar overtrokken.

Er zijn problemen. De kaart voldoet niet aan de PCIe standaard en kan daardoor niet in een PCIe 8X slot draaien.

Ik kan me herinneren van eerdere ATI kaarten dat ze zich ook niet aan de PCIe standaard hielden.

Verder zijn er nog geen DirectX10 drivers maar daar zou je ook nog geen gebruik van kunnen maken.

Ik vind het dus overdreven om bij problemen met de productie van ATI chips erbij te gaan roepen dat Nvidia ook problemen heeft. Nvidia haalt volgens mij aardige yields en de kaarten presteren goed terwijl ze toch alweer even op de markt zijn.

We kunnen er al met al gewoon het best op hopen dat de R600 zo snel mogelijk en fatsoenlijk functionerend de markt op komt. Ik hoop dat er dan ook eindelijk midrange DirectX10 kaarten gaan komen.
Ach.... zo is er altijd wel wat zoals een i740 kaart die niet op een VIA bord wilde draaien alsmede Soundblasters die een niet standaard PCI specificatie gebruikte welke wel op Intel borden werkte.

Zo zie je maar dat je niet blind moet vertrouwen op de hele PC handel.
Ik kan me herinneren van eerdere ATI kaarten dat ze zich ook niet aan de PCIe standaard hielden.
met het verschil dat die kaarten wel altijd gewoon werkten.

dat was ook voornamelijk een schoonheids foutje, niet alle pieken van het pci-e signaal dat de kaart uitzond waren hoog genoeg. maar nog altijd wel ruim voldoende om gelezen te worden.
Geforce 8800 kaarten werken prima zolang de PCIe verbinding X16 is. Het probleem wat er ligt is dus als je 8800 kaarten in een SLI opstelling wilt zetten met PCIe 8 slot(en)

Aangezien er chipsets zijn die SLI over 2 PCIe 16x sloten kunnen verzorgen is het ook niet zo'n probleem dat de 8800 kaarten zich niet aan de standaard houden.

Zo kan ik ook wel elk foutje goedpraten.

Het is allebei niet goed, zowel een Ati als een Nvidia kaart die zich niet aan de PCIe standaard houden is fout maar daar ging dit bericht niet over. Het bericht ging over problemen bij de productie van de R600 en ik reageerde op Arosf dat ik het overdreven vond om zo'n probleem te melden bij een nieuwsbericht over productieproblemen met ATI kaarten.
Ik noem dat wel een probleem. Je heb pipo's met een socket 939 systeem, nForce 4 SLI chipset, X2 4800+ en 2GB aan DDR400 geheugen. NO WAY dat zulke lui nu gaan upgraden omdat zo'n kaartje moeilijk doet over een x8 slot. Alsof ie de volle bandbreedte van een x16 nodig zou hebben...
Ik heb zo'n systeem, en zou nooit naar twee GeForce 8800's in SLI upgraden. Die CPU is geen partij meer voor een Core 2 Duo, en het delen van de PCIe bandbreedte zou toch echt wel zonde zijn.

En dan nog is het verhaal van The Inquirer nooit bevestigd.
Dat is nonsense. Zo kan je voor bijna elk signaal beweren dat het leesbaar is. De hoogte van het oog moet gerespecteerd worden zodat moederborden het zonder extra moeite kunnen lezen.
ruis idd,
en daarom is de minimum hoogte van het uitgezonden signaal altijd hoger als wat de ontvanger minimaal moet kunnen lezen volgens de specs.
in dit geval zat ATI net onder het minimum voor het uitgezonden signaal maar nog ruim boven wat de ontvanger zou moeten kunnen lezen.
Geforce 8800 kaarten werken prima zolang de PCIe verbinding X16 is. Het probleem wat er ligt is dus als je 8800 kaarten in een SLI opstelling wilt zetten met PCIe 8 slot(en)
maar de pci-e specs zeggen duidelijk dat een kaart ook gewoon moet kunnen werken als er minder pci-e lanes beschikbaar zijn als de kaart er heeft.
dat was ook voornamelijk een schoonheids foutje, niet alle pieken van het pci-e signaal dat de kaart uitzond waren hoog genoeg. maar nog altijd wel ruim voldoende om gelezen te worden.
Dat is nonsense. Zo kan je voor bijna elk signaal beweren dat het leesbaar is. De hoogte van het oog moet gerespecteerd worden zodat moederborden het zonder extra moeite kunnen lezen. Vergeet niet dat er nog ruis bijkomt door de traces op het moederbord, en de detectors voldoende spanningsverschil moeten krijgen om te schakelen.
Ik noem dat wel een probleem. Je heb pipo's met een socket 939 systeem, nForce 4 SLI chipset, X2 4800+ en 2GB aan DDR400 geheugen. NO WAY dat zulke lui nu gaan upgraden omdat zo'n kaartje moeilijk doet over een x8 slot. Alsof ie de volle bandbreedte van een x16 nodig zou hebben...
Heej, ik heb een X2 3800+ op 2,6 Ghz met 2 GB ram...

Dat is over het algemeen sneller dan een stock X2 4800+.

Ik denk niet dat die processor 2 8800 GTX kaarten in SLI bij kan houden...

Ik denk dat hij zijn handen vol zal hebben aan één zo'n kaart.
@c0d1f1ed
Nee! wat jij zegt is nonsense!!

Countess zou alleen maar onzin hebben uitgekraamt als er wel problemen waren tgv die afwijkingen. Maar in de praktijk is juist gebleken dat niemand! last had van die afwijkingen.
Ik vind het persoonlijk helemaal geen probleem dat de nieuwste kaarten van ati nog even op zich laten wachten. Op deze manier heeft Ati iets meer tijd om een goed werkend product af te kunnen leveren.
Indien de productie pas in februari goed van start gaat hebben ze extreem weinig tijd om een goede driver af te leveren. Dit terwijl NVIDIA al vele maanden de tijd heeft gehad om een stabiele en snelle DirectX 10 driver te ontwikkelen.

De GeForce 8800 is, alles bij elkaar, perfect gelanceerd geweest. FUD van The Inq is nooit in een deftig artikel bewezen. Het blijft wachten hoe de DirectX 10 drivers zullen presteren, maar de voorsprong van NVIDIA is onmiskenbaar.

Over prestaties gesproken, huidige DirectX 9 drivers van de GeForce 8800 maken nog geen gebruik van 128 extra rekeneenheden die op de chip aanwezig zijn. Men heeft dus nog iets achter de hand om ATI de loef af te steken...
Over prestaties gesproken, huidige DirectX 9 drivers van de GeForce 8800 maken nog geen gebruik van 128 extra rekeneenheden die op de chip aanwezig zijn
bron? Er zijn er toch maar 128? Dus daarnaast nog eens 128?
G80 architecture. Er zijn acht clusters, elk met zestien MADD + MUL ALUs, en zestien interpolator (ADD) & special function ALUs. In totaal 256 ALUs dus. Analyse door experts op het Beyond3D forum toont aan dat nog niet alles volledig benut wordt.
Denk je dat ze wachten met drivers tot het product klaar is? Zouden ze niet iets van simulatiesoftware gebruiken ... of al een aantal testchips hebben?
Bij een respin hoef je geen nieuwe drivers te maken.

Er verandert namelijk niets waar de drivers iets van merken.
Nou nou, veel problemen, veel problemen...
Er was wel wat ophef...

1) PCI-E 8x werd niet ondersteund, niet om het te rechtvaardigen, maar als ik een pc enthousiast ben die een 8800 wil, heb ik zeer waarschijnlijk ook wel een moederbord die dat heeft, elke fatsoenlijke moederbord heeft dat tegenwoordig.

2) Dat geblaat over de directx driver ben je ook wel een keer zat, Vista is enkel RTM en als mensen dit zelf niet zien staan op de nVidia site weet ik het ook niet meer... ik quote
"** GeForce 8800 requires updated drivers for Vista, which will be available to download when Vista is available at retail in late January. "

I can't help nVidia owns :(
elke fatsoenlijke moederbord heeft dat tegenwoordig
BEHALVE de SLI borden. Daarbij heeft de meederheid "maar" 8x snelheid als je twee videokaarten gebruikt.
Nvidia heeft chipsets die dual 16x ondersteunen, maar zover ik weet heeft Intel die nog steeds niet. (in ieder geval niet in de winkels)

En de mensen die nu al een 8800 hebben gekocht zijn nou juist typisch ook de mensen die SLI borden hebben.
Dat is helemaal niet waar, de kaart voldoet wel aan de PCI-express standaard, maar wel die x16 ondersteund... De kaart werkt perfect in elke x16 PCI-e slot..
dat is onzin.
in de pci-e specs staat heel duidelijk dat een kaart ook moet kunnen werken als er minder pci-e lanes beschikbaar zijn als waar de kaart over beschikt. dat was nu juist het hele idee achter die schaalbaarheid en flexibiliteit van PCI-E.

en daarom voldoet deze kaart dus dus niet aan de pci-e specs.
Gaarne een onderbouwing met feitelijke kennis s.v.p :)
ik ben benieuwd of ATi deze keer weer een paper-launch gaan doen of dat ze ook daadewerkelijk vanaf die dag te koop zijn.
De R600 release begint langzamerhand op een herhaling van de release van de X1800XT te lijken... de nieuwe ATi generatie komt - opnieuw vanwege productieproblemen - dus weer zo'n 6 maanden na die van nVidia... waarbij nV weer de kans krijgt om vrijwel tegelijk met het nieuwe ATi product een veel snellere revisie van hun eigen kaarten te releasen (denk aan 7800GTX > 7800GTX512 ten tijde van X1800XT, en release 7900/7950 ten tijde van X1900/X1950).

ATi snijdt zichzelf hiermee wel behoorlijk in de vingers, en dat is extra jammer gezien ze het unified shader-ontwerp (R500 Xenos) waar de R600 voor een aardig deel op gebaseerd is al sinds de Xbox360 in productie hebben.
Quote: "denk aan 7800GTX > 7800GTX512 ten tijde van X1800XT"

Vergeet niet dat vrijwel alle x1800xt's te flashen waren naar de PE, wat de kaarten weer gelijk trok. De x1800xt GPU bleek dusdanig goed te zijn dat men er zeker van was dat ze allemaal 700mhz ipv 625mhz konden lopen. In veel gevallen is de x1800xt PE sneller dan de tweede generatie 7800GTX. Dus Ati deed het schijnbaar de eerste keer goed.
Tot ze hierachter kwamen en die functionaliteit ongedaan hebben gemaakt.
Ik heb van iemand vernomen dat het iets met de stroom aansluiting te maken had
Niet waar, alle x1800xt's met 6 power regulators (die met 5 zouden niet genoeg stroom leveren) kunnen geflashed worden naar de PE bios. Dit stond toendertijd op de site van Sapphire. Dit was wel op eigen risico, maar Sapphire heeft toendertijd zelf de PE bios in omloop gebracht.
Ze brengen dan wel een snellere variant uit maar dat wilt nog niet zeggen dat die meteen sneller is dan de eerste kaart van ATI.

Je zou zelfs kunnen zeggen dat ATI het bij wijze van spreken beter doet omdat hun eerste generatie vaak (naar mijn idee) soort van gelijk is aan de tweede generatie van nVidia
Naar mijn idee is er nooit een 1ste generatie van ati omdat deze zo laat is noemen ze hen direct 2de generatie.
Ben eens benieuwd of we weer hetzelfde scenario gaan krijgen als vroeger nl dat de high end kaart van ati na 3 maanden al gaat vervangen worden door de volgende respin.
7900/7950 ten tijde van X1900/X1950
Vreemd, ik had nochtans gezworen dat de Radeon's meer bang voor de buck gaven.

Rapper of niet is een ander paar mouwen. Geen enkele review geeft gelijke resultaten weer. Soms is de Radeon beter, soms de GeForce. Laten we voor de gemakkelijkte stellen dat ze aan elkaar gewaagd zijn.

Prijs aan de andere kant ... pijnlijk!

Radeon X1950Pro 256 MB - ¤ 180
GeForce 7950GT 512 MB - ¤ 280

256MB extra maakt niet uit, de prestaties liggen nagenoeg gelijk.
Wat ik begrijp is dat AMD de datum van launch heeft verschoven juist omdat ze geen paper launch willen..
De kans is dus aanwezig dat de kaarten verkrijgbaar zijn wanner ze 'm lanceren.. of dit alleen weer in de US is of wereldwijd is maar weer afwachten...
Als ATI pas in februari begint te produceren laat het zich raden hoe groot de voorraad is in maart als ze uitgeleverd worden. Dt had nVidia beter voor elkaar dat al maanden voor de launch van de 8800 aan het produceren was. Toch lijkt het ontwerp van de R600 technisch gezien een generatie voorop te liggen op de 8800. Iets dat met name met DX10 zichtbaar zou worden. Al met al (ook de lancering van een snellere 8800) wel dus de moeite om tot maart te wachten alvorens een snellere kaart aan te schaffen.
Toch lijkt het ontwerp van de R600 technisch gezien een generatie voorop te liggen op de 8800. Iets dat met name met DX10 zichtbaar zou worden
van zowel de g80 als de r600 is nog niks bekend over dx10 performance...

sterker nog: van de r600 is nog niks bekend qua performance..

waar baseer je dit op ? ...
Dat vraag ik me ook af.

Maar het is aan de andere kant ook wel zo dat ATI met de Xbox360 al de nodige ervaring opgedaan heeft met een volledig unified architectuur. Die ervaring hebben ze wellicht kunnen gebruiken in de R600.

Juist omdat dit volledige nieuwe architecturen zijn, is er nog veel ervaring over op te doen. Dit in tegenstelling tot de vorige generaties die toch behoorlijk uitgekauwd waren.

Maar totdat er van beide DX10 benchmarks beschikbaar zijn blijft het allemaal pure speculatie.
Toch lijkt het ontwerp van de R600 technisch gezien een generatie voorop te liggen op de 8800.
Waar haal je dat uit? G80 is volledig unified en gaat een stap verder met scalaire verwerkingseenheden.
Waarom is hun ontwerp een generatie voorop? Een 512 bit kaart met een GB aan geheugen zorgt er alleen maar voor dat de kaart duurder zal zijn niet echt een groot voordeel voor jou en mij. Verder moet nog blijken of die grotere bus ook echt voordelen met zich mee zal brengen en er echt duidelijke winst mee geboekt zal worden (de core zal het toch echt compleet moeten benutten wil het effect hebben). Wat ik lees is dat de oplossing van nVidia 128 1D meer potentie biedt als 64 4D van Ati. In de meest ideale situatie kan 4D benut worden en dat zal weinig voorkomen. Los daarvan is er weinig nieuws bekend over verbeterde beeldkwaliteit bij Ati terwijl nVidia daar nu voorop loopt. Mocht Ati even snel of iets sneller zijn en de kwaliteit van het zelfde niveau zijn als van de X1900 dan is nVidia nog de betere keuze als je de beste kwaliteit wilt hebben.
Waarom heeft de r600 voordeel op dx10? Ze voldoen toch allebei compleet aan de specs dus bieden ze beide hetzelfde.
Probleem van ATi lijkt me niet dat ze het letterlijk qua specificaties niet kunnen bijbenen, alleen ze zijn vorig jaar en dus ook dit jaar een aantal maanden te laat. En dat is wel funest, want zo houd je ook 3 maanden achterstand op je concurrent, vandaar dat nVidia nu zo'n voorsprong heeft. Mocht ati het weten weg te werken dan zou het zo weer de andere kant op kunnen gaan.
Het lijkt mij dat dit over en weer gaat, 3 maanden is niet zo veel. Je hebt natuurlijk ook nog budget en mid-range en volgens mij wordt daar het meeste in verdiend?
Ze zijn helemaal niet een aantal maanden te laat.

ATI heeft nooit de bedoeling gehad tegelijk met de 8800 te lanceren, maar heeft altijd gemikt op Vista.
De A12 loopt op 1GHz. Is dat voor de Core?
dat is snel. igv met 512bit breed snel geheugen met breeder pad, wordt die mem bandbreedte dan ook goed gebruikt.
Neem aan dat de A13 dan nog sneller kan.

Of slaat die 1Ghz op de geheugen speed.
dat er een zogenaamde re-spin nodig was. De 'A12'-versie die eind vorig jaar werd gespot, blijkt nu inderdaad een herzien ontwerp te krijgen.
Die 1Ghz hoeft natuurlijk niets te betekenen.
Het ligt er maar net aan hoe complex die core is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True