Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties

Er zijn een paar foto's opgedoken van wat volgens de bijbehorende geruchten een R680-kaart is. Dit nieuwe monster van AMD heeft een dubbele gpu aan boord en zou begin volgend jaar worden geïntroduceerd.

De kaart is feitelijk een dubbele Radeon HD 3870 in Crossfire-opstelling, maar dan volledig op één printplaat geïntegreerd. De beide gpu's zouden op 777MHz draaien en ieder 512MB geheugen hebben, voor een totaal van 1GB. Het stroomverbruik van de kaart zou boven de 200 watt liggen. De kaart heeft naast de interne Crossfire-koppeling ook een externe connector, voor de mensen die er nog een naast willen zetten. Volgens geruchten werkt nVidia aan een soortgelijk product dat is gebaseerd op zijn G92-gpu.

ATi Radeon R680
ATi Radeon R680
Moderatie-faq Wijzig weergave

Reacties (109)

Ik denk dat qua koeling beter gaat werken dan de nieuwe GX2 van nvidia.
Nvidia gebruikt 2 boven elkaar liggende Pcb's waardoor ze maximaal een single slot koeler kunnen plaatsen, opzich is dat geen punt maar de hitte van de onderste pcb blijft vaak een beetje hangen, net als bij de 7950GX2. Vooral als je een andere koeler wilt monteren of waterkoeling wilt nemen dan is het door het dubbele pcb erg prijzig.

Bij de ati kaart kan men veel goedkopere aftermarket koelers of waterblokjes maken.
Deze kaart past nog steeds binnen de officiele ATX standaard hoor, en als je nou goed op de foto kijkt zie je dat de kaart langer wordt door een plastic steun die vaak gebruikt wordt als ondersteuning in oem cases. Ik heb hier een compaq server met een scsci controller, een ati rage xl en een gigabit lan kaart op 1 pcb deze kaart is iets meer asl 30 cm en dat is precies full ATX.
Zoiets heb ik ook, maar dan ook nog twee Xeons en geheugen op de insteekkaart zelf. Zwaar, dus je hebt die steun aan de achterkant echt wel nodig dan.
Stroomgebruik kaart gebruikt dus dik 200W netjes als je het vergelijkt met 8800gtx/290xt. pci-e 2.0 kan idd 150W leveren en pci-e1 75W, daarom zijn er dus ook 2x 6/8pins kabels nodig. misschien bij een pci-e2.0 moederbord maar 1kabel nodig, maar wat maakt het uit? er zit heus wel een kabeltje bij zodat je hem op je 12v aansluiting van je voeding kan doen.
nog iets in de 8pins aansluiting kan ook een 6pins connector (net zoals bij 20/24pins moederbord aansluitingen)


koeling De koeler die erop zit is heftiger als die van de 2900xt dus met de hitte komt het heus wel goed.

Der zit 1grote koeler op de kaart ipv 2 omdat dit gwoon veel beter is.
1: gemakkelijk om de lucht van de kaart buiten de kast te transporteren.
2: 1grote koeler is bijna altijd stiller/beter als 2 kleinere (+neemt minder ruimte in)
3: enz enz.

Prijs hij wordt vast ongeveer 2x zo duur als 2x 3870 in elk geval heus geen 200E duurder.

En Ik weet cker dat je wel prestatie verschil gaat merken op een pci-e2 moederbord als je hem tegenover een pci-e1 moederbord zet. Verschilt per spel +instellingen ofcourse.
pci-e2 geeft nu ook 5%+ meer performance tegenover pci-e1 (met single 3870).

edit: smiley toegevoegt :9~
edit2: @redfish hieronder: Vergelijking met een zuinige duelcore gaat natuurlijk niet op, vergelijk het dan met een hoog geklokte quadcore (125W dus).

En Idle verbruik is ook een stuk verbetert omdat de kaart in 2d automatisch terugklokt in zowel voltage als snelheid. Power Play noemen ze het

Het kan nog zuiniger maar je kan het hoogstwaarschijnlijk met software ook zelf kunt aanpassen itt Nvidia kaarten. Dus een 3870 X2 zou dus met een beetje moeite idle zuiniger kunnen zijn als 1 8800gts. Groot pluspunt imo.

Ben het verder wel met je eens het kan nog veel beter, ik zou graag zien dat mijn pc automatisch switched tussen een onboard gpu en een vette 3dkaart zoals de 3870 X2

[Reactie gewijzigd door Powrskin op 25 november 2007 19:10]

Dit gaat niet makkenlijk worden voor overklokkers met phase/dice of ln2 op de vga's. De chips zitten erg kort op elkaar om 2 tube's er op te plaatsen met isolatie en al. Word een lastige klus.
Bij de 7950gx2 was t mogenlijk om een langer tussen stuk te maken tussen de 2 zodat goede waterkoeling wel mogenlijk was. Kweet echter niet hoe t zat met extremere vormen.
Even over het formaat van de kaart. Het zou nog best eens kunnen veranderen. Herinneren jullie nog de eerste foto van de R600? Was ook al zo'n bakbeest. Uiteindelijk viel het reuze mee. Ook Nvidia heeft al eens zoiets gehad. De 7900 GX2 werd al heel snel opgevolgd door de 7950 GX2. De specificaties waren nagenoeg gelijk maar er was een duidelijk verschil in formaat van de High-end kaarten. Bovendien heeft de 7950 GX2 maar één 6-pin molex nodig terwijl zijn voorganger er twee nodig heeft. De kaart werd dus ook zuinger...

Voor degene die niet bekend hiermee waren, in het plaatje is:

Bovenste 7900 GTX
Midden 7900 GX2
Onder 7950 GX2

edit: foto R600 toegevoegd.

[Reactie gewijzigd door Jay-B op 25 november 2007 17:08]

Ben ik de enige die eigenlijk helemaal niet blij wordt van dit soort kaarten? het enige wat ze doen is meerdere van wat ze al hebben bij elkaar gooien, niks nieuws. Ik vindt de ontwikkelingen op het gebied van onboard graphics eigenlijk veel interessanter, daar proberen ze naast prestaties ook nog formaat en verbruik mee te laten tellen. Eigenlijk hetzelfde als het verschil tussen een amerikaanse auto en een europese, als ze een amerikaanse auto willen maken met meer pk's maken ze hem gewoon groter, in een europese auto gaan ze dan allerlei interessante technieken bedenken om meer vermogen uit hetzelfde formaat en verbruik te kunnen halen.

deze kaart past in de meeste pc's niet eens, en in de toekomst (waar pc's waarschijnlijk alleen nog maar kleiner zullen worden) al helemaal niet. Deze strijd tussen Nvidia en Ati die er op het moment gaande is kan gewoon niet lang meer zo doorgaan, ze bereiken het maximum met de huidige techniek, ze moeten nieuwe technieken gaan ontwikkelen.
Deze strijd tussen Nvidia en Ati die er op het moment gaande is kan gewoon niet lang meer zo doorgaan, ze bereiken het maximum met de huidige techniek, ze moeten nieuwe technieken gaan ontwikkelen.
Waarom niet? Zowel de normale Radeon 3870 als Geforce 8800 zijn kaarten met een hoge performance en minder verbruik dan de voorgangers. Het is echter niet zo dat alles alleen maar groter worden.
Dat er af en toe een topmodel als dit wordt geintroduceerd mag toch geen probleem zijn?
Nonsens, voor mensen die echte grafische prestaties willen is onboard graphics absoluut geen optie. Bovendien is het onzinnig te roepen dat er niets nieuws wordt ontwikkeld, want voor zowel ATI als NV is er hier sprake van nieuwe GPU's. De dualcore CPU's van intel en AMD vind jij ook nutteloss?

Ook je vergelijking met auto's gaat mank. Fiet is gewoon dat er voor serieuze grafische toepassingen (en daar bedoel ik ook games mee), geen alternatief voor deze grote pcb's bestaat. De nieuwe 8800GT en HD3870 zijn bovendien niet groter of energie-onzuiniger dan de oude generatie. Meer pk's in een kleinere en zuinigere auto dus.
het enige wat ze doen is meerdere van wat ze al hebben bij elkaar gooien, niks nieuws.
de eerste stap naar dual-core GPU's?, heb je ook zo lopen praten toen de eerste dual-core van 1000 gulden/euro uitkwamen? wie perfomance wil zal moeten dokken in de meeste gevallen.
met dit kaartje... zal Crysis wellicht goed te spelen vallen met alles op high... WAT een ding...

nog info voor de liefhebbers...

http://xtreview.com/addco...-AMD-R680-video-chip.html
Volgens de huidige reviews over de HD3870, is Crysis op 1280x1024 redelijk speelbaar op High, zonder AA. In Crossfire zijn de framerates boven 30fps.

Ik verwacht dat de X2 hetzelfde of zelfs beter presteert.

De 8800GT, GTX en Ultra (Single en SLI) blijven echter nog steeds het snelste in Crysis.
Het word eens tijd voor wat benchmarks, al bewtfijel ik dat er gelijk goeie drivers bijgeleverd gaan worden.

Ik zou het verder een leuk idee vinden als Tweakers.net wat aktiever gaat worden met test systemen en de uitkomsten neer gaat zetten. Ik vind veel site's teveel voor 1 merk kiezen en steeds onbetrouwbaarder worden dus een beetje objectiviteit is welkom :)

Overigens begrijp ik van deze kaart niet waarom er niet 2 koelers op zitten, nu word 1 chip direkt gekoeld en moet het tevens doen met de airflow van de eerste GPU. Mij benieuwen of er GPU coretemp software word bijgeleverd om te meten wat coretemp 1 en 2 induvidueel doen. Ik zie ATi niet aan om niet degelijk te hebben getest maar Nvidia lijkt me beter uit de kast komen met hun dubbele pcb board en iedere GPU een eigen koeler.
ziet er niet zo slecht uit het begint al vorm te krijgen zo te zien en het verbruik valt me best mee. ongeveer het zelfde als een 8800 gtx of ultra of 2900 xt en dan heb je er 2 ineen dus bijna dubbele prestaties.alleen wat ik niet begrijp is dat er zo'n stuk plastic aan de achtekant van de kaart aan geplakt zit dat is toch nergens voornodig lijkt me. opzich ik vind dit geen verkeerde kaart bij inquierer kon ik een paar dagen geleden al een paar glimpjes van de prestaties zien. en in vergelijking met crossfire en sli is dit wel een stuk efficienter.
maar voor mij heeft het wachten lang genoeg geduurd de athlon x2 dual cores zijn nu vet goedkoop en de radeon hd 3850 heb ik nu ook al voor de prijs van een x1950 pro (150 ong euro inclusief verzend kosten) mischien allemaal iets langzamer dan de core2 duo en de 8800gt maar ik ben dan wel een paar honderd euro goedkoper uit zeg.
Link naar dat artikel? ben zelf en andere met mij wel benieuwd
quad crossfire en een persoonlijke energie centrale anyone? :Y)
dit ding is echt gruwelijk (zowel positief als negatief :o ) Ik hoop dat ze het verbruik wat terug kunnen dringen de grootte ook.
Volgens geruchten werkt nVidia aan een soortgelijk product dat is gebaseerd op zijn G92-gpu.
aangezien het procedé van de G92 groter is verbruikt deze toch ook meer stroom? Dan wil ik al helemaal niet weten wat die Nvidia versie dan wel niet gaat verbruiken :? (correct me if I'm wrong, ik ben niet voor de volle 100% op de hoogte van het verbruik van de nieuwste generatie kaarten)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True