Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties

Volgende maand zal AMD de Radeon HD4800-familie introduceren, die gebaseerd is op de RV770-core. TG Daily wist nieuwe informatie te bemachtigen over de videokaarten die ATI weer naast nVidia moeten krijgen.

De RV770 is de opvolger van de RV670 en bevat 480 streamprocessors in plaats van de 320 stuks van zijn voorganger. Daarnaast is het aantal texture units verdubbeld van 16 naar 32. Onder andere door deze verbeteringen is het aantal transistors gestegen van 666 miljoen naar ruim 800 miljoen. De kaart zal echter nog wel met een 55nm-procedé gebakken worden. Een belangrijke verandering is ook het loskoppelen van de kloksnelheid van de core en de shaderprocessors. Nvidia koos al voor een dergelijke aanpak bij de eerste GeForce 8800-kaarten en met de Radeon HD4800-familie slaat AMD dezelfde weg in.

ATi logo (kleiner)In eerste instantie zullen er drie verschillende Radeon HD4800-videokaarten uitgebracht worden. De Radeon HD4870X2 bevat twee gpu's, de HD4870 wordt het snelste model met een enkele gpu en voor de prijsbewuste consument wordt de HD4850 uitgebracht. Verwacht wordt dat de kaarten respectievelijk 499 dollar, 329 à 349 dollar en 200 à 269 dollar zullen kosten.

De Radeon HD4870 krijgt de beschikking over 1GB gddr3-geheugen dat op 1,94GHz geklokt zal worden. De core zal zijn werk op 850MHz doen terwijl de shaders op 1050MHz zullen draaien. De HD4850 moet het doen met een 650MHz coreklok en shaders die op 850MHz geklokt zijn. Er zullen verschillende varianten van de HD4850 op de markt gezet worden. De goedkoopste variant krijgt 256MB of 512MB gddr3-geheugen op 1,14GHz en een duurdere variant krijgt 512MB gddr5-geheugen op 1,73GHz, schrijft TG Daily. Welke kloksnelheid de cores van de HD4870 X2 krijgen is nog onbekend, maar wel duidelijk is dat er 2GB gddr3-geheugen met een 1,73GHz klok op geplakt zal worden.

Moderatie-faq Wijzig weergave

Reacties (59)

Dit lijkt me een erg mooi bericht -als het waar is tenminste. Het zou goed zijn als er weer volwaardige concurrentie is in deze sector. De 9800 van nVidia is volgens mij een goed voorbeeld van wat er -zelfs na zo'n korte tijd al- kan gebeuren als de concurrentie achter blijft. Men wordt lui!

Wat trouwens opvalt is dat ATi de verhouding shaders-ROP's aanmerkelijk verandert (van 320 op 16 naar 480 op 32). Ze hebben het idee van de 'future proof' R600 (heel veel shaderprocessors t.o.v. weinig ROP's) blijkbaar laten varen. Wat dat betreft is eventueel succes van deze R700 op een ludieke manier ook een beetje succes van de nVidia engineers.

- Om ATi vs nVidia battles maar gelijk te voorkomen: ik ben zelf de trotse eigenaar (geweest) van achtereenvolgens een 9800Pro, een X800XT en nu een HD2900XT.

Tenslotte nog even een kleintje off-topic: wat een eindeloos gezanik van sommigen hier weer over het feit dat speculaties op t-net worden gepost. Niet zo aanstellen hoor!

[Reactie gewijzigd door Timaniac_NL op 25 april 2008 15:08]

ROPS en TMU's zijn iets verschillends, Het ziet er (als je alle roddel en achterklap mag geloven) naar uit dat alleen het aantal TMU's verhoogd wordt naar 32 en het aantal ROP's op 16 blijft steken, iets wat ook niet noodzakelijk is "als je de ROP's maar meer laat doen"
Wat trouwens opvalt is dat ATi de verhouding shaders-ROP's aanmerkelijk verandert

Volgens mij is het eerder zo dat nVidia dat gedaan heeft van G80 -> G9x.

'T is te verwachten dat beide hun unified architecturen (nog steeds) aan het optimaliseren, en dat ze in een later stadium helemaal niet zo ver meer uit elkaar zullen liggen qua verhoudingen (en basisconcept).

Immers: als een bepaalde hoeveelheid ROP's per shader unit optimaal is waarom dan meer of minder als het op optimale prestaties aankomt? Hetzelfde geldt voor TMU's, etc.
@frank76NL..in het Ati-nieuwstopic gaan ze uit van ongeveer 50% verbetering
[Algemeen] ATi Nieuwsdiscussie Topic - Deel 83

ik ben zelf erg benieuwd of de eerste modellen echt met gddr5 uitgerust worden, want daar waren nogal wat twijfels over
zozo, aan de specificaties te zien zou dit echt wel eens een mooie slag kunnen worden voor ati/amd.
Dat mag ook wel want de 9 serie van nvidia vind ik te snel uitgebracht (m.a.w geldklopperij uit een verouderde gpu), daar zit minder vooruitgang in dan ati met deze stap van de 38xx naar 48xx.

iig mooi om te lezen dit

offtopic: hierdoor wordt waarschijnlijk de 3870 weer goedkoper, kan ik eens serieus gaan nadenken over een crossfire opstelling samen met mijn huidige 3870 :)

edit: verduidelijking

[Reactie gewijzigd door DJT88 op 25 april 2008 10:53]

aan de specificaties te zien zou dit echt wel eens een mooie slag kunnen worden voor ati/amd.
Tuurlijk, en de nieuwe 10 serie van Nvidia zou ook wel eens een mooie slag kunnen worden voor Nvidia...Toen de specificaties van de RV6xx uitkwamen, met zijn 320 streamprocessors, werd hetzelfde beweerd: "dit wordt een Nvidia-killer!" en wat daarvan waar was, weten we inmiddels.

(wat ik bedoel te zeggen: wacht eerst eens benchmarks af voordat we weer onzin posten)

[Reactie gewijzigd door DeArmeStudent op 25 april 2008 13:18]

Tuurlijk, en de nieuwe 10 serie van Nvidia zou ook wel eens een mooie slag kunnen worden voor Nvidia..

Hopelijk wel ja. De tijd dat de twee kemphanen haasje over deden wat betreft de prestaties van topmodellen leverde relatief snelle ontwikkeling op.

Nu ATI/AMD de afgelopen 1,5 jaar niet echt meer mee komt in het topsegment hebben we van nVidia per GPU ook weinig vooruitgang gezien. 8800GTX --> 9800GTX is niet echt bijzonder indrukwekkend te noemen.

De enige vooruitgang zat in het middensegment, waar de twee alles op alles hebben gezet de ander naar de kroon te stijgen.

Ik hoop stellig dat RV770 nVidia's huidige top (GTX + GX2) doet verbleken, en dat nVidia later dit jaar hetzelfde doet als ze met de G100(/G200?) op de proppen komen. Dat ATI/AMD daar vervolgens weer een antwoord op heeft, enzovoorts, enzovoorts.
"8800GTX --> 9800GTX is niet echt bijzonder indrukwekkend te noemen."

Inderdaad, maar vreemde is ook dat een 9800GTX niets anders is dan een overclocked 8800GTS512 met 2 sli poortjes voor triple sli

http://en.expreview.com/2...eforce-9800gtx-review/12/
je vergeet alleen dat Ati nu redelijk gelijk loopt met nvidia since het zijn radeon 3xxx serie heeft geintroduceerd. bovendien kun je hier aan de specificaties zien dat ati schijnbaar de zwakke punten van zijn r600 duidelijk aangepakt heeft. zo hebben ze dubbel zoveel Texture units veel hoger en appart geclockte shaders veel sneller geheugen als je de gddr5 versie hebt en meer shaders. ik vind het een zeer realistiche beoordeeling hoor omdat het niet veel meer is als een verbeterde versie van de r600 waar gewoon de zwakke plekjes uitgehaald zijn zoals dat hij bijv lager scoorde met AA aan omdat dit door de shaders gedaan werd en hij vrij weinig texture units had tegen over de kaarten van nvidia. dat is nu dus uit de wereld als we deze specs mogen geloven. bovendien zal het voor het geld een leuke kaart zijn. Ik denk idd dat hij de huidige NVIDIA producten wel voorbij gaat. maar ja je weet hoe het gaat nvidia zal ook wel met iets nieuws komen op korte termijn. een ding is wel zeker ati heeft op een aantal punten nog steets een voorsprong op nvidia , hun die shrink is beter en ze hebben DX 10.1
waneer komt ddr34 uit ? waarom al weer 5, 4 is nog niet eens zo lang gebruikt wel mooie specs durut nog wel ff
Reken er maar dat als de kaart net zo snel zou zijn met ddr4 geheugen dat ze dat dan op de kaart hadden geprikt.
Blijkbaar heeft de kaart meer bandbreedte nodig.

Je moet natuurlijk wat doen om niet helemaal door nvidea uit de markt gezet te worden.

Ik ben benieuwd wanneer ze nou eens iets anders gaan gebruiken dan maar steeds de bandbreedte's en de clocksnelheden op te hogen.

Lijkt me wel weer tijd voor een aanpassing van de hele opbouw van de berekeningen, lijkt me never nooit niet dat die 100% efficient zijn op de manier, maar daar gaat natuurlijk 5+ jaar overheen voordat je dat bij alle partijen erdoor hebt.
Reken er maar dat als de kaart net zo snel zou zijn met ddr4 geheugen dat ze dat dan op de kaart hadden geprikt.

Volgens mij niet. IIRC levert GDDR4 zeer weinig op tov GDDR3 door de veel lossere timings en de erg beperkte toename van de (effectieve) kloksnelheid. Wat meteen ook de reden is dat het nooit echt is aangeslagen, naast de hogere prijs.
De toename in kloksnelheid van GDDR5 lijkt dusdanig te zijn dat de lossere timings tov GDDR3 teniet worden gedaan.

Overigens kunnen we daar pas echt zeker van zijn als er onafhankelijke vergelijkende benchmarks beschikbaar zijn, welke ik nog niet echt heb gevonden.

[edit:]
Sorry, ik las je verkeerd. Je hebt deels gelijk. Als de kaart geen baat had gehad bij GDDR5 dan hadden ze het er niet op geplakt. Alleen is het erg twijfelachtig of er dan GDDR4 op geplakt was, eerder GDDR3.

[Reactie gewijzigd door houseparty op 25 april 2008 16:06]

Ik vind dat "uitgelekt" in nieuws berichten altijd een beetje onzin, zoals altijd komen "uitgelekte" berichten gewoon van persvoorlichting.
Maargoed, specs zeggen natuurlijk vrij weinig over de prestaties van een product.
Helemaal mee eens. Bovendien is er niks uitgelekt, want TGDaily komt geen moment met wat voor bewijs dan ook. Een betere titel zou zijn: "Ongegronde speculatie over HD 4800 op TG Daily". Eventueel met de toevoeging "die wij als tweakers.net maar al te graag overnemen in onze sensatiezucht". Overigens is tweakers niet de enige. De hele technologiewereld lijkt, als het om nieuwe GPUs gaat, bezeten te zijn van het plaatsen van speculatie en zelfs het eindeloos herhalen van forumberichten zonder enige feitelijke basis of onderbouwing.
Bah, wacht eens rustig af tot de specs daadwerkelijk bekend zijn in plaats van al dit loze gehype. Het leidt nergens toe en zorgt bovendien voor een hoop misinformatie. :(

[Reactie gewijzigd door Snoitkever op 25 april 2008 11:51]

Hoe kun je bewijzen dat bijvoorbeeld een van de ontwerpers van de chips of een naaste medewerker deze interne gegevens heeft doorgelekt naar TGDaily zonder zo'n bron kwijt te raken voor volgende scoops?

Veel spul in de journalistieke wereld word via 'betrouwbare bron' vernomen waarbij men bronbescherming voorop stelt om zeker te zijn van meerdere nieuwtjes, zie daardoor ook het gevangen zetten/gijzelen van journalisten om de naam van hun bron bekend te maken...

Ik in iedergeval zou wel melden, als ik zeker weet dat de gegevens komen van een betrouwbaar iemand, dat produkt X specs BLA hebben zonder te vermelden van wie het komt, alleen maar om de kans te hebben de gegevens van ProduktY weer als eerste te mogen ontvangen....

Dus om gelijk te zeggen dat het ongegronde speculatie is wat nergens op slaat is onzin. Ik denk niet dat ze dit publiceren als de bakker op de hoek deze gegevens aan hen verteld zou hebben.
Hoe kun je bewijzen dat bijvoorbeeld een van de ontwerpers van de chips of een naaste medewerker deze interne gegevens heeft doorgelekt naar TGDaily zonder zo'n bron kwijt te raken voor volgende scoops?
Door in ieder geval meer te zeggen dan "our sources at NVIDIA". Kom op zeg, dat zegt Fudo al jaren, en je weet hoe vaak hij het fout heeft. Daarnaast heeft TG Daily dan wel het recht om te claimen dat ze inside informatie hebben, zolang Tweakers.net dit niet kan verifieeren vind ik niet dat ze het bericht klakkeloos kunnen overnemen.

Daarnaast gaat het me niet om dit geval specifiek, maar om het algemene plaatje. Elk kleinste beetje informatie over een nog niet uitgebrachte GPU wordt tegenwoordig gepubliceerd, overgenomen door talloze sites en soms zelf verdraaid ten opzichte van het originele bericht. Zonder dat iemand ook maar enige research doet waar het bericht vandaan komt.
Zo werd eind vorig jaar nog dit bericht op tweakers geplaatst. De nieuwe specs van de 9800GTX! Het enige probleem was dat het gebaseerd was op de persoonlijke speculatie van zomaar iemand op een forum! Dit stond zelfs in de originele post vermeld! Als iemand bij de Volkskrant zoiets zou flikken zou hij er binnen de kortste keren uitliggen, maar hier hoor je niet eens een excuus over van Tweakers.net. En Tweakers was lang niet de enige site die dit nieuws klakkeloos overnam. :(
Neem als voorbeeld blizzard, daar komt nog geen zuchtje vandaan wat uitlekken betreft (helaas).
Lijkt me sterk dat je niet hetzelfde voor elkaar kan krijgen bij zo'n club als ati, al zullen het maken van de kaarten zeer waarschijnlijk wel uitbesteden natuurlijk.

Maar het gebeurd zo vaak, dat dit geen toeval meer is inderdaad.
Ati moet met veel meer partijen samenwerken om daadwerkelijk zijn producten verkocht te krijge. Zo heeft de chipbakker die ingehuurd wordt natuurlijk alle gegevens nodig en ook de kaartenmakers zullen het nodige willen weten. En dat zijn allemaal punten waar gelekt kan worden en die minder onde de controle van AMD/Ati staan.

Dit itt Blizzard, wat zo ongeveer alle productie binnenshuis kan houden en daardoor veel betere controle over de informatiestromen heeft.
Dat is mij uiteraard wel degelijk bekend, dat is immers ook wat ik zeg in mijn reactie alleen minder uitgebreid :p

Maar als ati echt niet wil dat er iets uitlekt dan volstaan wat simpele contractjes meestal wel, met een hele heftige boete clausule bijvoorbeeld.
Als een ATI of NVidia zou ontdekken dat geheime gegevens uitlekken via de chipbakker (heb bij AT&T gewerkt, en daar werden op sommige dagen onder redelijk strikte beveiliging en NDA's test prints gemaakt van nieuwe interfaces) dan zal deze zeer snel zijn contract kwijtraken of een fikse boete krijgen, en een ATI of NVidia als klant kwijtraken is niet echt iets wat je wilt, plus dat andere fabrikanten twee keer na zullen denken of zij hun nieuwe producten willen laten maken bij een chipmaker met' zo'n reputatie.
TGDaily vermeld ook dat het GDDR5 geheugen 30+% MINDER stroom verbruikt dan GDDR3 geheugen.
Dat is dan ook zeker interessant om hier te vermelden!!
De vraag is dan maar hoeveel het geheugen verbruikt in het totale plaatje. Als dat pakweg 10% inneemt van het totaalverbruik, dan is 30% minder nu ook niet wereldschokkend. Alle beetjes helpen natuurlijk, maar toch.

Iemand die hier meer over kan zeggen?
Kan iemand hier een goede schating maken van het prestatieverschil tussen de 3870 (mijn huidige) en de 4870 o.b.v. deze specificaties?

@ RoTro
Bedankt

[Reactie gewijzigd door Frank76NL op 25 april 2008 10:59]

zal helemaal aan de game en de resolutie liggen. kan 100% sneller zijn (TMU limited) of 'maar' 50% (shaders limited) is wat ik gezien heb bij de schattingen op internet.
Ik geloof dat de HD3800 serie vooral gelimiteerd werd door het aantal Texture Units, en die zijn verdubbelt dus ik denk dat er aardig wat prestatie winst aan zit te komen.

Wel goed nieuws, en hiermee is ATI/AMD toch weer sneller dan NVidia
Wel verdubbeld ja, maar het is nog steeds evenveel als de 9600, en de 9800 heeft zelfs het dubbele aantal. Het is dus duidelijk een verbetering, maar of het genoeg is is nog maar de vraag.
@snoitkever : aangezien de 3870 met maar 16 TMU's niet 4 keer langzamer is als de 9800 op geen enkel moment los van driver issue is het niet onredelijk om aan te nemen dat de 64 TMU's van nvidia of rijkelijk overdreven zijn of veel minder efficient werken als die van ATI.

het enige waar zo veel TMU's nuttig voor zouden zijn is 500+ FPS halen in quake3 ofzo (of andere games zonder shaders en weinig CPU limitaties).
met 100+ is het ook echt wel speelbaar. leuk voor nvidia's gemiddelde mischien maar nuttig is het niet.

[Reactie gewijzigd door Countess op 25 april 2008 16:03]

@snoitkever : aangezien de 3870 met maar 16 TMU's niet 4 keer langzamer is als de 9800 op geen enkel moment los van driver issue is het niet onredelijk om aan te nemen dat de 64 TMU's van nvidia of rijkelijk overdreven zijn of veel minder efficient werken als die van ATI.
Gelukkig zijn ze inderdaad niet 4 keer langzamer, maar het is desondanks toch wel gebleken dat R600 nog wel eens te lijden had onder de lage TMU:ALU verhouding. Misschien dat dit het probleem inderdaad verhelpt, maar aangezien de hoeveelheid ALUs ook flink omhoog is gebracht wacht ik liever even af voor ik zelf conclusies zou trekken. Ik hoop voor AMD dat de verandering (1:4 naar 1:3) voldoende is.
Daarnaast denk ik niet dat NVIDIA zoveel TMUs en ROPs op de GPU zou gebruiken als het niet nuttig zou zijn gebleken. GPU architecturen zijn altijd een balans tussen verschillende onderdelen (TMU, ROP, busbreedte, ALUs, SIMD-breedte, etc), en de bottleneck zal altijd ergens moeten liggen. Misschien dat NVIDIA voor een dergelijk hoog aantal heeft gekozen omdat ze er zeker van zijn dat er dan in ieder geval geen probleem op dat gebied zal optreden, maar misschien is het ook gewoon nodig om de ALUs aan het werk te houden.

Hoe dan ook, benchmarks zullen het straks wel uitwijzen :)
@Countess: Wat ik wel erg grappig vind is dat ik lees dat van een de TMU shader verhouding 1(tmu):15(array-shaders) is (tegen 1:20 op de R3870)... wat eigenlijk inhoud dat de TMU's dus niet direct verbonden zijn met de shaders en er voor elke TMU 3 shader-programma's ter beschikking staan ipv 4 (plz correct me if i'm wrong :+)

Ik las wel dat 1 TMU 80 textures tegeljk kan benaderen, dus qua multitexturing&mappings zit het wel goed bij Ati ;)
AMD/ATI shader units zijn heel wat anders dan die van Nvidia (namelijk veel krachtiger).
Een enkele Ati-shader(array) is veel krachtiger inderdaad, o.a. vanwege zijn SIMD mogelijkheden. niet heel anders. Alleen heeft dit (natuurlijk) behalve voordelen ook nadelen..

Simpel gezien is het eigenlijk de volgene situatie:
Nvidia heeft een 1 auto's die 320Km/h halen, met alleen de bestuurder er in.
Ati heeft 1 auto die slechts 80KmM/h haalt maar wel 4 persoon tegelijk kan vervoeren.

- Er moeten 2 mensen naar de andere kant. Er gaat er 1 in de Nvidia, 2 in de Ati
- Nvidia schiet weg van de start en is na een kwartier aan de andere kant (80Km) terwijl Ati lekker van de weg geniet en op slechts 20Km zit. Nvidia stempelt af en vliegt terug om de volgende coureur zijn stempel te laten halen en de overwinning veilig te stellen. Weer een kwartier later zit de volgende nvidia coureur in de Nv-car klaar en schiet weg. De coureurs in de Ati-mobiel genieten nog steeds vrolijk van de omgeving en zijn op de helft. Nvidia geeft natuurlijk plankgas en vliegt een kwartier later over de finish, terwijl Ati nog maar op 3/4 van de afstand zit.
Nvidia wint!!! Ati zit op een kwartier achterstand en haalt dan dus pas zijn 2 stempels.

Maar: wat nu als er ipv 2 mensen in totaal 4 mensen heen gestuurd moet worden?
- Er moeten 2 mensen naar de andere kant. Er gaat er 1 in de Nvidia, 4 in de Ati
- Nvidia schiet weg van de start ..<zie hierboven >... geeft natuurlijk plankgas en vliegt een kwartier later over de finish, terwijl Ati nog maar op 3/4 van de afstand zit... Stempel 2 voor nvidia is binnen en de nv vliegt terug voor de volgende coureur. Aangekomen wordt er bliksemsnel gewisseld en komt het nieuws binnen dat de Ati-mobiel na 1 uur gefinished is en er 4 stempels binnen zijn. De coreur in de NV-car slaat zijn visier dicht en schiet als een bezetene weg vloekend dat zijn <censuur> auto slechts 320Km/h kan.. en haalt een kwartier later stempel 3.. en terug, wisselen. Coureur 4 eindigt 3 kwartier later en behaald voor Nvidia het 4e stempeltje.

Zoals je ziet hangt het er dus vanaf welke afstand je ze laat rijden en het aantal stempels. Voor 5 mensen is het zo dat het NV-team na 2u15m klaar is en Ati na 3, maar 6 voor Nvidia betekent dat ze na 2u45m er pas zijn.. echter Ati nog steeds in 3, Bij 8 wordt het weer echt vervelend voor Nvidia want zij zijn na 3,45 klaar en Ati nog steeds in die 3 uur..
Maar: wat nu als er ipv 2 mensen in totaal 4 mensen heen gestuurd moet worden?
Autoanalogieën lopen altijd krom: dan zal nVidia nooit eindigen, aangezien volgens jou bij hen alleen de bestuurder erin past :)
Lezen is lastig he? ;) roy-t heeft het over TMU's, niet over ALUs.
misschien verstandig om erbij te vermelden over welk merk je het hebt, aangezien ook ATi een 9600 en 9800 reeks heeft gehad. En om op jou te reageren, er is een verschuiving gaande in de verhouding textures/shaders. Dit heeft ATi ook altijd als verklaring gegeven voor zijn chipontwerp. Spijtig genoeg voor ATi is die verschuiving later op gang gekomen en langzamer dan dat ze hadden verwacht en gehoopt, wat hun architectuur niet goed gebalanceerd maakt in dat opzicht en daarom hebben ze nu toch het aantal TMU's verdubbeld. Of dat genoeg is zal moeten blijken, maar denk het het ontwerp nu wel beter gebalanceerd is. Het is afhankelijk van de rest van het chipontwerp of dat ook daadwerkelijk uit de verf komt.
Jeetje wat een specs. Ik ben heel benieuwd wat dit aan performance op gaat leveren. Nvidia mag wel z'n best gaan doen. Goed dat ze de shaders en de core loskoppelen.

Als dit zo goed is als het lijkt is dat heel prettig voor AMD. Ze kunnen het geld en het aanzien die zoiets oplevert goed gebruiken. Vreemd trouwens dat het zo lang duurt voordat ATI weer fatsoenlijk concurerende kaarten maakt.

[Reactie gewijzigd door QkE op 25 april 2008 10:56]

Voor mijn gevoel heeft dat ook lang geduurd. Maar misschien hebben ze na introductie van de 8800 de tijd genomen om de uitdaging goed op te pakken. Hun nieuwe kaart moet natuurlijk wel meteen goed presteren, dat rechtvaardigd de lange ontwikkeltijd. Presteert de kaart niet dan wordt het voor ATI onmogelijk om Nvidia nog bij te benen als de verwachtingen voor de GT100/200 waarheid worden.
edit :typo

[Reactie gewijzigd door Teigetje! op 25 april 2008 13:13]

deze kaart komt precies 6 maanden na de eerste r670. dus opzich zitten ze weer goed op schema. alleen de r600 duurde langer.
Dat zijn Nice Specs, Ben benieuwd of het ook klopt omdat het uitgelekte info is wat niet altijd klopt :+
Laat er eentje overkomen uit Amerika en de duurste variant (499 dollar) wordt opeens maar 311 euro aan de huidige koers.
Gruwelijk snelle grafische kaart voor een redelijke prijs (als je vergelijkt met andere topkaarten uiteraard).
ja, en betaal daar maar lekker BTW, invoerrechten en weet ik veel wat over. En dan nog eens de vezendkosten + verzekerde verzending... 8)7
Die kan je weer uitsparen als je daar toch op vakantie bent, of voor zakelijke doeleinden. ;)
Idd, vakantie naar de USA van de zomer en meteen 2x een HD4870 mee in de koffer :P
Kunnen we geen inkoopactie organiseren? Of zou het opvallen als je met 50 videokaarten het vliegtuig in wilt? :+
Die kan je weer uitsparen als je daar toch op vakantie bent

Als je er mee door de douane komt zonder dat ze je eruit plukken. Anders mag je alsnog het verschil in BTW en invoerrechten betalen.

Onder het mom van terrorisme bestrijding wordt tegenwoordig alles gescand. Vooral de douane is hier afaik heel erg blij mee. :)

[edit:]
of voor zakelijke doeleinden

iirc moet je die kunnen verantwoorden in je boeken?

[Reactie gewijzigd door houseparty op 25 april 2008 14:03]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True