Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties
Submitter: player-x

AMD heeft gegevens over de RV670 vrijgegeven die een aantal vermoedens over de komende gpu bevestigen. Zo zal de chip inderdaad onder de naam Radeon HD 3800 verschijnen.

De RV670 zou als Radeon HD 2950 op de markt komen, zo was de aanvankelijke verwachting. Deze aanduiding zou logisch zijn, aangezien de gpu in feite een opgefriste R600 betreft die op het 55nm-productieproces gebakken wordt. Waarschijnlijk de lauwe ontvangst van de Radeon HD 2900- en 2600-kaarten heeft AMD tot de naamsverandering doen besluiten, denkt PC Perspective, dat over een presentatie van AMD beschikt die de naam Radeon HD 3800 bevestigt. Op de slides valt ook te lezen dat de RV670 inderdaad quad-Crossfire-opstellingen binnen handbereik brengt.

De Radeon HD 3800 zal out-of-the-box overweg kunnen met DirectX 10.1. Aangezien aan de voordelen van de DX-upgrade door sommigen getwijfeld wordt en de komende nVidia G92-gpu niet de 10.1-variant van DirectX direct ondersteunt, heeft AMD een white paper vrijgegeven die de voordelen nog maar eens opsomt. Zo zal de upgrade het shader model bijwerken naar versie 4.1, dat onder andere voor betere Global Illumination moet zorgen en een lod shader-instructie introduceert. Ook wordt de aandacht op de minimale ondersteuning voor 4x multi-sample anti-aliasing gericht en op de door de ontwikkelaar programmeerbare anti-aliasing Sample Patterns.

Moderatie-faq Wijzig weergave

Reacties (56)

quad crossfire, leuk voor een mini niche en amd achievement
functionele waarde voor de average gebruikers: 0

AMD zou wat snelheid terug moeten winnen, maar het lijkt meer een functieupgrade dan een snelheid verhoging.... let's wait for the benchmarks..
Inderdaad...

Nadat ATI te laat had gereageerd met crossfire op de Nvidia intoductie van SLI (waarvan door hen verwacht werd dat het snel voorbij zou gaan), schieten ze nu weer naar de andere kant, door 4 gpu kaarten in een pc te introduceren...

Ati vergeet iedere keer dat SLI juist zo veel animo heeft gekregen doordat je gewoon 2 dezelfde kaarten (ook tweedehands) bij elkaar kan prikken...Crossfire kon eerst alleen maar gebruikt worden door een speciale masterkaart nieuw erbij te KOPEN, omdat hij niet tweedehands te verkrijgen was...

Jammer dat ATI/AMD nog steeds de weg kwijt lijkt te zijn, want velen met mij dragen hen een warm hart toe... want als straks Nvidia met hun nieuwe generatie 9x00 weer de 'nieuwe' HD 3800 in snelheid voorbij raast, heeft AMD/ATI niet alleen weer een slechte promotie-truc gebruikt, maar zitten ze ook nog vast aan deze 'oude' kaart met het nieuwe serienummer...

Na de introductie van de 8800GTX, verwachten veel mensen 'gewoon' een grote performance-leap (t.o.v. de concurrentie) als je een nieuwe generatie kaarten introduceert...Daarom werd de HD2x00 serie zo flauw ontvangen...de verwachtingen waren hoog, maar konden niet waargemaakt worden...

[Reactie gewijzigd door DeArmeStudent op 29 oktober 2007 13:00]

Mee eens, AMD heeft weereens een boost nodig.

Overigens is momenteel zo'n beetje de beste kwaliteit/prijsverhoudings kaart de radeon x1950gt... maar in het high-end en dx10 segment zijn ze ver te zoeken.

Is het overigens nu nog steeds niet zo dat je voor ATI een speciale crossfire versie van de kaart moet hebben?

Quad-SLi is trouwens ook al een tijdje mogelijk, maar het slaat gewoon niet aan. Door iedere videokaart die je toevoegd aan een systeem verlies je performance per kaart, dus uiteindelijk heb je 4 kaarten die allemaal op 50% van hun potentieel werken... is alsnog 200% van 1 kaart, maar gewoon zinloos duur. Bij normaal SLi heb je al een winstverhoging van 50-70%... niks mis mee.

Deze getallen zijn grotendeels uit mijn duim gezogen dus neem ze niet voor waar. Ze zijn echter wel gebaseerd op mijn persoonlijke ervaringen met SLi.
de mastercard was alleen nodig bij de 1e generatie Crossfire kaarten van ATI, tegenwoordig ben je dat niet meer nodig
de nieuwe crossfire is onafhankelijk van het aantal kaarten en 4 is dus niet het maximum. Denk niet dat het voor de gamer consument is gedaan, dit is vooral ingevoerd om rekenintensieve toepassingen meer schaalbaarheid te geven.
Crossfire en SLI is eigenlijk voor vrijwel niemand interessant.... Alleen voor patsers en review sites

Hoe absurd een configuratie ook zou zijn, review sites zullen wel quad core CPU's en overklokte GTX ultra in SLI bij een test voegen...

Voor fabrikanten is het nuttig om de hoogst prestererende configuratie neer te kunnen zetten. Want de 'domme consument' kijkt daar naar. Die redeneert dat de fabrikant die het absoluut snelste product neerzet, dan in de low-end en mainstream markt ook wel het beste zal zijn. Onzin natuurlijk, maar wel de realiteit...

Dus als er een paar review sites een quad-Radeon opstelling uittesten, en 'm als absoluut beste/ultieme/(eigen superlatieven invullen) gamers machine benoemen, dan is dat gewoon pure reclame, en zetten ze daarmee NVidia een hak.

Zelfs met de 8800GTX ultra, met de Extreme Edition Pentiums, etc etc. Een normaal mens zou die dingen niet kopen, maar ze staan steeds bovenaan de vergelijkingen bij de review sites, en dat valt de simpele consument op.

[Reactie gewijzigd door AHBdV op 29 oktober 2007 13:54]

Naast patsers en review sites zijn er natuurlijk ook nog mensen die geld willen uitgeven om een zo mooi mogelijk beeld met zoveel mogelijk frames per seconde weer te kunnen geven op hun PC. Dit niet om te patsen of een review te maken, maar puur voor hun eigen vermaak...
ze hebben toch wel iets meer gedaan met deze kaart.
AA was bijvoorbeeld een zwak punt van de X2x00 serie waar ze nu iets aan gedaan hebben. en mogelijk hebben ze ook wat meer texture units om in oudere spellen niet meer onder te doen voor nvidia (niet dat het echt uit maakt of je nu 100 of 120 FPS hebt maar toch)
Niet te vergeten dat het stroom verbruik ook veel lager schijnt te liggen dan dat van zijn voorganger...
Vreemd eigenlijk, aangezien AA toch altijd ATI's sterkte punt was. Het was voor mij destijds dť reden om voor een X800 te kiezen... :)
Misschien dat de quad opstelling wel crysis speelbaar maakt op very high?

Maar even serieus, vier videokaarten in je pc zal je volgens mij een behoorlijke stroomrekening gaan opleveren. Niet iedereen die daar op zit te wachten neem ik aan?
Die mensen kopen ook geen Radeon HD 3800 maar de midrange producten. Ook plaatst niet iedereen high-end 4 videokaarten in een systeem, diegene wat dit wel doen interesseren de watts toch niet.
[oftopic]mischien een soort c&q indroduceren voor gpu's,dat zou bij vier kaarten een flinke besparing kunnen opleveren.[/oftopic]

de vraag is wanneer dx 10 een beetje gemeengoed gaat worden,als dat snel is dan is het een slimme stap van amd .imho
Als de kaarten in 2d worden gebruikt, dan wordt de clocksnelheid teruggebracht, waardoor ze minder verbruiken. Dat is dus een soort van Cool & Quiet.
Helaas is de Vista Aero interface dan weer een 3D applicatie...
Geloof het of niet, maar mn HD2600XT draait op lagere clocks in Vista met Aero dan in games.
Klinkt leuk allemaal, maar wanneer komt deze kaart uit ?
Naar verwachting rond 15 November.
En zo staat Nvidia al een tijdje op de markt met de 8series, lijkt me rustig wachtend tot AMD/Ati de tegenaanval inzet op de DX10.1 kaarten. Quadcrossfire klinkt leuk, maar doorsnee speler zal niet eens een dual setup gaan draaien.

We wachten nog rustig af :)
nvidia heeft geen 10.1 kaarten... en de nieuwe van nvidia is ook geen 10.1, allemaal alleen dx10.
ATI kan daar dus geen tegenaanval op inzetten ;).
ze gaan nu wel aanvallen met een dx10.1 kaart.
Ik denk dat DX10.1 twee keer niets wordt tot Nvidia het gaat ondersteunen, en dan nog. In het verleden is vaak genoeg gebleken dat nieuwe features, indien slechts 1 fabrikant ze ondersteunt, een zeer lage implementatiegraad kennen. Maar in theorie staan ze qua features wel een stapje voor ja.
Checkbox features op de achterkant van de doos zijn soms belangrijker dan implementatie graad....
Hoewel DX10.1 inderdaad ook nieuwe features mee brengt, zou het ook gewoon efficiŽnter zijn in normale DX10(.0) applicaties. Dit zou leiden tot betere prestaties in DX10 modus (= betere game prestaties), dus dat het twee keer niets wordt tot Nvidia het gaat ondersteunen lijkt me niet van toepassing.
Ik heb express gewacht met het kopen van een DirectX 10 kaart, omdat DirectX 10.1 er aan zat te komen. Als je een in dit artikel kijkt zal je misschien begrijpen waarom. 10.1 is ook gewoon veel gemakkelijker om spellen voor te ontwikkelen.
Hey, als het zo is: fantastisch, mooi, goed voor de AMD/ATI-bezitters. Ik heb er voorlopig mijn twijfels bij, we zien dan wel of het een wijde implementatie kent. Ik ben zeker dat iedereen me op de hoogte zal houden? :)
nvidia heeft geen 10.1 kaarten... en de nieuwe van nvidia is ook geen 10.1, allemaal alleen dx10.
ATI kan daar dus geen tegenaanval op inzetten ;).
ze gaan nu wel aanvallen met een dx10.1 kaart.
Wat voor zin heeft een dx10.1 kaart die al te traag is in gewone dx10 games en veel trager gaat zijn dan de concurrent die slechts een dx10 kaart heeft. Maar de kaart heeft wel dx10.1! Nutteloos....
ja nvidia fanboy rustig maar, ik noem alleen maar de feiten op. nu ... terug in je hok... hier een bot. vang!

verder zie voorgande posts.
opsomming : deze kaart word wel sneller als de vorige en dx10.1 is sneller en efficiŽnter als 10.

[Reactie gewijzigd door Countess op 29 oktober 2007 21:03]

Kan jij (aval0ne) niet gebanned worden of zo. Je bent wel erg irri bezig. Ik vandaag alleen nog maar onzin posts gezien.

Geef commentaar op het moment dat de prestaties en de prijs etc bekend zijn.
Dan kan je beoordelen of het goed is of niet.
Prijs, Prestatie, Verbruik, Features dat zijn de dingen waar het om gaat en dat is voor iedereen verschillend.

Aanvallen kan je nl ook in het middensegment of bv in de onboard markt.

PS ik gebruik zowel AMD als NVIDIA kaarten. Voor elke situatie de (in mijn ogen) beste kaart.

[Reactie gewijzigd door r.koppelman op 30 oktober 2007 12:27]

Quad Crossfire is denk ik vooral bedoeld voor de 3DMark fanaten.
(En mensen die geen last hebben van een CPU bottleneck).

Daarnaast is het denk ik gewoon een stukje PR.
'Kijk, wij AMD kunnen 4 kaarten laten werken'.

nVidia kon overigens met de 7950GX2 al 4 GPU's samen laten werken, maar de drivers waren nogal buggy.
Klopt nvidia's quad sli was brak maar misschien heeft AMD iets gevonden waardoor de performance wel goed op schaalt. We zullen het zien...
klinkt owijs handig...

wanneer je eindelijk software kan draaien over je gpu, zoals renderengines als "mentalray" of "vray"... het lijkt nu alleen handig om uitslovende zelfbouwers aan te trekken en om later goedkoop te kunnen upgraden... als verouderde hardware nu eens voor minder ging verkopen bij de shops. een tweede 7950 kost nog steeds 150 eu :S. Misschien als ze speciale "add -on kaarten" maken met alleen extra geheugen en een gpu en verder geen output of functies ofzo... die dan wel heel goedkoop is :).
Misschien als ze speciale "add -on kaarten" maken met alleen extra geheugen en een gpu en verder geen output of functies ofzo... die dan wel heel goedkoop is :).
Ja, want de outputfuncties zijn zo duur, niet het geheugen en de gpu zelf? :P
scheelt weer een paar euro :). en functies als avivo heb je al op 1 kaart dus dat kan er dan ook af blijven. En voor de rest eigenlijk alles dan geen gpu of geheugen is.
Jaja. 150 euro vind je nog een :S -smilie waard, maar 145 euro zou dan ineens "heel goedkoop" zijn?

[Reactie gewijzigd door Wouter Tinus op 29 oktober 2007 13:35]

ik zat nog te denken of ik op zo'n reactie nog wel in moet gaan, maar vooruit... ik moet toch wachten op een render.

een 7950gt is OUD. geen dx10, zuipt stroom en is niet een echt een high-end kaart. Een exta kaart om mee te renderen zou 50/60 eu goedkoper moeten zijn dan een kaart met allefuncties als avivo en output zooi erop. en dat 3 keer omdat je er 3 van nodig hebt voor quad-sli, en DAN komt er nog een volledige kaart bij die dan 50/60 duurder als een afgeslankt model.

Voor ik verder ga met mn verhaal over iets dat nog niet eens bestaat: waar tover jij in vredesnaam het verhaal vandaan dat ik 150eu :s vind en 145eu "wow wat goedkoop". ken je me ofzo? hou je me in de gaten bij vraag en aanbod? want dan zou je beter weten.
Er bestaat nog iets als de tweedehands markt mensen... O-)

De ene gamer vervangt zijn kaart de ander gebruikt die kaart voor zij sli/ crossfire opstelling(moet in feite gewoon dezelfde core zijn, dus dat is niet zooo moeilijk te vinden hoor)

trouwens ik zie nu soms bepaalde oude high-end kaarten weggaan voor een appel en een ei, deze high end kaarten kunnen inderdaad niet alles meer aan op high of super-high met 8x AA, maar voor een gamer met budget(ja ze bestaan! :P) is zo'n kaartje ideaal: enkele maanden geleden waren de X1950 kaarten nog goed te krijgen en kon je zelfs een x1950 pro vinden voor 110 euro!? wie wil er dan nog 300 euro uitgeven aan een 8800gts, deze presteert toch niet 3 keer beter of toch? 8)7

oh ja en DX 10 xD komaan, wat meer schaduwen en better-looking landschappen zijn de performance drops van min. 20% ook niet bepaald waard ť en bijna alle games in de volgende 1,5-2 jaar zullen nog verschijnen met een dx 9 variant...
Raytracen kan volgens mij voorlopig alleen nog maar op 'normale' cpu's. Volgens mij heeft dat te maken met de opbouw van deze 'brute force' manier van renderen.
Zelf zou ik het ook een enorme uitkomst vinden, aangezien meerdere gpu's goedkoper zijn dan een renderkaart (denk aan duizenden dollars).
Zullen ze denk ik niet doen omdat er maar een relatief kleine markt voor is en het ook weer extra kosten met zich mee brengt om een tweede productie lijn op te zetten. Zoals anders ookal opmerken zijn de gpu en het geheugen de duurste onderdelen en zal de rest denk ik relatief weinig uitmaken. Zou ook beetje balen zijn als je 'hoofdkaart' kapot gaat en je dan niks meer hebt aan ja add-on kaart(en) en het tegen die tijd gunstiger is om een nieuwere kaart te halen/de oudere niet meer te krijgen is.
wat wordt de prijs ongeveer van deze kaart?
En wordt hij nou eigenlijk beter dan de 2900xt? :o las dat ergens dus
De Dubbel variant wel 2keer een GPU op een plaat en de enle variant wordt 8Mhz sneller. Ik mee 528Gflops.

De Quad opstelling kan dus behaald worden met twee kaarten! of door vierkaarten met enkele Gpu en de FX790 op het main plaatje.

http://www.fudzilla.com/i...sk=view&id=3855&Itemid=34

Wordt gezien als een niet al te beste site. maar ze zitten er ook niet altijd naast

[Reactie gewijzigd door wiskid op 29 oktober 2007 15:08]

Volgens mij willen ze de R600 juist zo snel mogelijk vergeten, vanwege zijn grote Die, dus hogere productiekosten etc.., eigenschappen heeft die goed zouden zijn als het een heteluchtkanon was en het kan de GTX niet bijhouden. Maar zijn bandbreedte kwam wel bij 3dmark van pas.
Nogal logisch dat je dan een nieuw hoofdstuk wilt openen en 3800 lijkt een heel stuk beter dan 2900, dus ook nog een marketingtruc! Petje af voor AMD ;S
Aangezien aan de voordelen van de DX-upgrade door sommigen getwijfeld wordt en de komende nVidia G92-gpu niet de 10.1-variant van DirectX direct ondersteunt
Hebben julllie de specs van de G92 al? :|

Tot de paperlaunch er vandaag daadwerkelijk is zijn het niets meer dan geruchten |:(

[Reactie gewijzigd door knirfie244 op 29 oktober 2007 13:49]

als de geruchten zo hardnekkig zijn, en nvidia ook niet hard roept dat ze wel 10.1 hebben dan kan je het bijna voor waar aannemen van ze het niet hebben.
Waarom 3800 eigenlijk? Nu kun je straks weer gelijk door naar de 4xxx

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True