Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 255 reacties

AMD heeft gereageerd op klachten van gebruikers die stelden dat de RX 480-videokaart te veel energie verbruikt. Het bedrijf onderkent de problemen, en stelt dat ze met een betere afstelling via een softwareupdate verholpen kunnen worden.

Een statement over de RX 480 werd aan verscheidene media gegeven, waaronder aan Ars Technica. Volgens AMD is de tuning van de videokaart in sommige geteste scenario's 'niet optimaal'. Verder geeft het bedrijf weinig details, maar waarschijnlijk gedoeld op het hoge energieverbruik, dat vooral onder belasting optreedt. Een inmiddels al ontwikkelde softwareupdate moet de problemen verhelpen, en AMD belooft op dinsdag met meer informatie te komen over de uitrol. Of die update invloed heeft op de prestaties, is niet bekend.

Kortgeleden bleek dat het energieverbruik van de RX 480 in sommige gevallen hoger ligt dan de limieten die gesteld zijn voor pci-e-slots. Zo merkte Tom's Hardware op dat het gemiddelde verbruik over het pci-e-slot onder load hoger lag dan de gestelde limiet van 75 watt. Bij sommige pieken kwam de belasting over het pci-e-slot zelfs boven de 150 watt uit. Het gemiddelde energieverbruik van de totale videokaart lag gemiddeld rond de 164 watt, met pieken rond de 300 watt.

AMD introduceerde de RX 480-videokaart begin vorige maand, de eerste in de serie met de Polaris-architectuur. Volgens AMD is de kaart snel genoeg om virtual reality-games te draaien.

RX 480 energieverbruik Tom's Hardware

Moderatie-faq Wijzig weergave

Reacties (255)

Dit hele geval lijtk een storm in een glas water. Dit artikel gaat er nader op in:

http://wccftech.com/amd-r...verclocking-investigated/

Tom Hardware heeft op een hele hoge resolutie getest, wat betekent dat je situatie krijgt dat als de voeding op de videokaart schakelt er even een hele korte piek te zien is. Dergelijk gedrag is volledig normaal.

Als je een laagdoorlaatfilter op de waarden loslaat dan krijg je een heel ander beeld te zien, en wordt de 75 watt redelijk gehaald en zijn er een paar piekjes naar 77 watt.

Nu is het zowat natuurkundig onmogelijk om een moederbord te ontwerpen dat bij 75 watt supergoed werkt en bij 77 watt de doorbrandt. Als moederbordfabrikant neem je marges in acht en als je maar 2W aan marge als mmoederbordfabrikant in acht neemt ben je heel fout bezig. Sterker nog: De meeste moederbordfabrikanten nemen flinke marges in acht i.v.m. overklokken.

In praktijk heeft een moederbord een elektriciteitsbus waar alle sloten mee gevoed worden. Die bus heeft bijvoorbeeld 200W aan capaciteit en alle insteekkaarten worden daarmee gevoed.

Kortom: Het aantal praktijkproblemen van dit alles zit waarschijnlijk heel dicht bij de nul. Wel is inderdaad sprake van een kleine overschrijding van de specificaties en daar kun je heel moeilijk over gaan doen, maar zoals Wccftech opmerkt: Er zijn meer kaarten die dergelijk gedrag vertonen en tot praktijkproblemen heeft dat niet geleid.
Misschien even handig om deze video er bij te linken:
https://www.youtube.com/watch?v=ZjAlrGzHAkI

Het probleem is nu bij deze kaart dat hij een groot deel van de tijd 75W over de 12v trekt terwijl deze in de spec maar 66W is en bij een overclock wordt dit nog erger.

Ja kleine piekjes zijn niet echt een probleem maar deze kaart trekt gewoon onder sommige games structureel te veel. Zoals ook al in de video aangegeven zijn de fysieke connectoren simpelweg niet gemaakt voor zoveel stroom dit terwijl de 6 pin het makkelijk aan kan als er 2x zoveel stroom over heen gaat.

Dus ja dit is een probleem. Waarschijnlijk zal het best snel verholpen worden want het lijkt mij een bugje wanneer de kaart even veel stroom blijft trekken over pcie als over de 6 pin.
Dank, die video van PCperspective is erg goed.
In de 27e minuut laten ze ook zien wat de Asus 760 stix doet, die hier ook veelvuldig genoemd wordt. En eerder ook een andere AMD kaart, deze trekken alle extra verbruik over de 6-/8-pin kabels, terwijl de rx480 voor de 12v pci-e als enige volledig buiten de specs gaat.

Er wordt ook genoemd dat oorspronkelijk de pci-e connector was gerate op 25W, maar dit is later verhoogd tot het maximum van 1.1 A per 12V pin dat geld voor de daadwerkelijke collector.
(5x 1.1A = 5.5A; 5.5A * 12V = 66W)
En gezien het inzakkende voltage (door de grote belasting), neemt de stroom door die pinnen risico vormende maten aan.

Iemand heeft een fout gemaakt, laten we hopen voor de eigenaren van zo'n kaart dat dit opgelost kan worden zonder prestatieverlies.

[Reactie gewijzigd door R-J_W op 4 juli 2016 00:02]

Het artikel van pcperspective hierover vind ik een stuk helderder dan dit van wccftech of tomshardware.

Als men het heeft over die 75 watt die het moederbord mag leveren volgens de PCI-E specificaties, dan is dit in feite maximum 66 watt via 12 volt en maximum 10 watt via de 3 volt lijn. De RX480 zit daar steevast boven op de 12V lijn, zonder enige overclocks. Ook de amperage van 5.5A op die 12V wordt ferm overschreden. Meer watt trekken via de 6pins PCI-E connector zou minder problematisch zijn gezien daar geen circuits van het moederbord gepasseerd worden en zo'n kabels daarop voorzien zijn.

Eens je gaat overclocken gaan die waarden naar 95W, waar de specificaties een maximum van 66W voorschrijven op die 12V lijn. Max amperage gaat naar 8.3A waar het maximum 5.5A zou moeten zijn. En voltage blijft niet mooi op 12V wanneer de GPU in gebruik is, maar gaat daaronder (voltage droop). Dit doet zich dan ook nog eens voor bij de andere PCI-E sloten in het moederbord.

De vergelijking met andere kaarten (meestal de asus gtx960 strix als voorbeeld) gaat niet helemaal op, gezien de gemiddelde waardes best wel binnen de specificaties blijven en waar er sprake is van korte pieken dit zonder probleem opgevangen wordt.

Akkoord dat dit waarschijnlijk een storm in een glas water is. Overdrijven is intussen een vak op internet-fora en voornamelijk daar waar 2 kampen met elkaar in discussie kunnen treden (AMD vs Nvidia / AMD vs Intel / Apple vs Android / en ga zo voort). Maar ik kan moeilijk begrijpen waarom deze kaart die reeds de eigen voorgeschreven limiet van 150W overschrijdt maar met één 6pin PEG connnector wordt uitgerust. En dan hebben we het nog niet over overclocken, wat zo populair is met GPU's.
De 150W TDP is waarschijnlijk gedaan vanuit een marketing standpunt. Omdat effectief verbruik moeilijk te vinden is op een spec sheet wordt er vaak gekeken naar een TDP, ook al geeft dit vaak een vertekend beeld.

Als je enkel kijkt naar de prestaties dat het levert met een 150w TDP is het een zeer goede kaart, zeker rond het prijspunt waar de rx 480 rond zit. Alleen heb je daarmee eigenlijk niet het volledige plaatje. Maar ik kan er wel in komen dat een meerderheid hiermee voldoende informatie denkt te hebben om een keuze te maken.

Wat ik eerlijk gezegd ook een verrassing vind is de goede VRM die de rx 480 al heeft. Het reference model heeft namelijk een 6+1 configuratie. Iets beter dan de VRM van de GTX1080 met zijn 5+1 configuratie. De enigste verklaring dat ik hiervoor kan bedenken is dat de RX 480 goed overclocked, maar dan zit je weer met het 6-pin probleem en vraag ik mij af of het lage TDP wel een goed idee was. Langs de andere kant heeft Nvidia iets gelijkaardigs gedaan met de gtx1080 dus heel vreemd is het dan weer niet.
De 6-pin is waarschijnlijk vooral bedoelt om ze aan fabrikanten te kunnen verkopen (in de standaard-PCs die je bijvoorbeeld in Mediamarkt vindt). Stock coolers zijn algemeen niet zo fantastisch voor overclocken, dus hier maakt overclockbaarheid toch niets uit. De groep van mensen die een standaard PC kopen (voor eigen gebruik) overlapt meestal niet met de groep van mensen die overclocken.

AIB's kunnen altijd een 8-pin (of dubbele 6-pin maken). Sapphire heeft er denk ik al eentje klaar met 8 pins.
Een verklaring waaorm de kaart een 6-pins PEG heeft zou kunnen zijn dat het een ontwerpspecificatie is geweest: Ontwerp een kaart die op een 6-pins connector kan draaien en binnen die beperking zo snel mogelijk is. Dat zou in ieder geval verklaaren waarom men het hele energiebudget gebruikt en er blijkbaar dus iets overheen schiet.
Zo als ik heb vernomen werd bij enkele(niet alle) RX 480 de 75W PCI-E gecertificeerde wattage vanuit de 6 pin gehaald en de rest uit de mobo. Een gevalletje swap leek mij.

Ik vraag mij dan ook af hoe ze dat met de update gaan doen met de RX480 die het probleem niet hebben.
Dat THG op hoge resolutie test mag geen excuus zijn. Daar is de kaart net voor gemaakt.

Pas je een laagdoorlaatfilter toe dan presenteer je de cijfers anders dan ze in de praktijk zijn. In de praktijk zijn de pieken naar 150W er wel degelijk, ook al duren ze maar voor een fractie van een seconde. Het feit dat je zelfs na je filtering alsnog pieken tot 77W hebt toont aan dat de kaart zich niet aan de spec houd die stelt dat je maximaal 75W mag verbruiken.

En je hebt gelijk dat het overschrijden van de spec met 2W niet direct gevolgen zal hebben en slechts een zeer kleine impact zal hebben op de totale levensduur van het bord, maar dan blijft alsnog het feit staan dat je nog altijd niet voldoet aan de spec. Stel je even voor dat morgen een moederbord fabrikant beslist om een apparaat dat teveel verbruikt even een power cycle mee te geven. Sta je dan met je nieuwe, dure kaart die gewoon onbruikbaar is onder high load.
Dat THG op hoge resolutie test mag geen excuus zijn. Daar is de kaart net voor gemaakt.
nee bij de test die ze deden draaide ze metro last light op 4k resolutie. dat trekt de kaart helemaal niet en je krijgt compleet onspeelbare lage FPS. dat is dus een onrealistische scenario that niemand in de praktijk ooit voor lange tijd zou doen.

het is dus in dit ene specifieke geval met deze 'burn test' dat het mis gaat. andere burn tests als Furmark gaat bijvoorbeeld wel prima.
In de praktijk zijn de pieken naar 150W er wel degelijk, ook al duren ze maar voor een fractie van een seconde.
de gtx960 laat pieken van 220 watt zien, en voor een volle seconde. niemand die er ooit over geklaagt heeft. Die factie van seconde pieken laten ALLE videokaarten zien en daar heeft niemand last van want die worden gewoon opgevangen.

[Reactie gewijzigd door Countess op 3 juli 2016 14:04]

Het verbaast me niks dat de 960 hetzelfde "euvel" laat zien. Dit is het typische geneuzel dat nooit op Nvidia of Intel wordt losgelaten ... maar wel op AMD.

Het is ook de reden dat ik ondertussen tweakers niet meer betrouwbaar vind in hun reviews en natuurlijk in dit soort meldingen.
En ik heb het ook al opgegeven om fouten te melden aan redacteuren oid, dus ja. RIP tweakers.
Het verschil was dat de 960 de vermogen vanuit de PCIe voedingspin trok inplaats van de PCIe Slot op je moederbord. De RX 480 trekt continu meer dan 66Watt (specificatie 12V lijn PCIe slot) uit de moederbord.
Het is idd dat het niveau ook voor mij op tweakers niet meer toereikend is. Maar dat was ondertussen al wel bekend....
Met hoge resolutie bedoelt dmantione het aantal samples per seconde dat de oscilloscoop meet. Dit heeft niets te maken met de beeldschermresolutie.
sterker nog in de microseconde area trekt een kaart al gauw enkele tientalle killowatts.
Heb je daar een berekening van?
Nee maar een videokaart is een erg capacitieve load.
Een mosfett met een gate van 500pf haalt in de mhz frequentie ook al gauw 2.5amp met voorschakel weerstand.
De buck converter op een videokaart zijn zo gemaakt dat ze die hoge piek stromen kunnen leveren.
Da's op de kaart zélf, niet dat wat de kaart 'trekt'...

EDIT: M.a.w. die 'tientallen kilowatts' hoeven niet over de PCI-e bus.

[Reactie gewijzigd door Beelzebassie op 3 juli 2016 20:03]

nee dat klopt, vaak gaat dat uit de condensatortjes op de kaart zelf.
mocht het wel via de pcie bus gaan kan het nog geen kwaad, het is zo'n korte tijd daar merk je niets van.
Dit is net hetzelfde als bij het 3,5gb verhaal van de gtx970.
Voldoet het aan de specificaties: nee

Is het een probleem in bepaalde extreme situaties: ja

Is het in de praktijk een probleem: nee

Is het leuk om grappen over te maken: ja
Dit 'probleem' lijkt me wel beperkt tot de reference card want eender wie met 'brains' bij MSI/ASUS etc gaat op hun eigen (OC) modellen wel 2x6/1x8pin connectors voorzien.

970 verhaaltje konden de partners van Nvidia niets meer aan doen.

[Reactie gewijzigd door anessie op 3 juli 2016 23:27]

De GTX970 heeft toch echt gewoon 4GB vram, hij voldoet dus wel degelijk aan het voorgestelde ontwerp. Dat van die 4GB slechts 3,5GB "high performance" is en de rest gebruikt wordt voor doeleinden die een minder hoge doorvoersnelheid vereisen is ook "by design". Dat NVidia hier niet voor of tijdens het op de markt brengen van de kaart open en eerlijk over geweest is is inderdaad niet netjes, maar het is nog steeds wel "volgens de specificatie".

Persoonlijk vind ik ook dat je er best grappen over mag maken, maar probeer alsjeblieft geen FUD te verspreiden.
Dat is dus niet volgens specificaties als Nvidia niet vermeldt dat die laatste 512MB niet zo snel is als normaal VRAM, dan hadden ze 3.5GB + 0.5GB moeten vermelden ipv 4GB.
Kan ik ook zeggen 'ik betaal je 100 euro voor je SSD, 10 euro contant en de rest komt in de komende tijd wel, iets langzamer maar het komt!'
Niet helemaal waar. De fysieke limiet van de pci-e slot zelf is ook maar 75W. Meer dan dat en je loopt het risico dat het slot gewoon smelt.

En de 480 zal hoofdzakelijk in budgetborden gaan met ditto budget aansluitingen en voorzieningen. Niemand zal een high end "overklok" bord pakken die meer kost dan deze gpu en lekker gaan overklokken. Mensen gaan overklokken op budgetborden die er niet op zijn gemaakt.

Ps: de kaarten van het groene team blijven ook tijdens overklokken binnen de pci-e specs....

[Reactie gewijzigd door flippy.nl op 3 juli 2016 10:52]

Het slot zelf zal niet het probleem zijn, maar de koperbanen in het moederbord, of de 2 12V pinnen op de 24pin atx stekker (bij meerdere kaarten).
een moederbord fabrikant maakte zich geen enkele zorgen over de koperbanen.

de zwakte schakel zei hij zou de PCI-E connector zijn. maar ook die hebben een aardig ruime veiligheidsmarge.
niet dus. pcie connector kan 1.1A per "vinger" hebben en daar zijn er maar 5 van dus 5.5A/60W max en de rest moet van de 3.3v komen. en als jij ineens meer als 7 ampere gaat trekken gemiddeld heeft dat zeker invloed.
er gaan ook seconde lange pieken van 18 ampere overheen met nvidia kaarten. dat is veel schadelijker.

verder zijn de specs niet het zelfde als de veiligheids marge.
laat mij eens een reference card zien die 18 ampere trekt over de pci-e.
Beide is een issue, maar de pcie slot is iets waar je geen dikkere aansluitingen voor kan maken of betere contacten. Die limiet is gewoon een harde limiet. Een verbinding tussen board layers kan bijvoorbeeld maar 0.5A hebben. Je kan wel dikkere lagen koper gebruiken maar de verbindingen blijven die limiet houden.
Van die verbindingen kun je er meer parallel zetten. De connector is waarschijnlijk het limiterende element.
klopt, echter de pcie connector kan max 1.1A per connector hebben, dus daar zal de fabriekant rekening mee houden.
Laat Tweakers dit keer voor de lol gaan testen, wat kan je maximaal trekken? Wel... dit is eigenlijk meer een zaak voor de hardware.info
Ik ben wel benieuwd bij welk vermogen een moederbord in de fik vliegt. En neem dan stik of 10 verschillende moederborden.

[Reactie gewijzigd door sokolum01 op 3 juli 2016 20:23]

Interessante case inderdaad, qua dit soort miliseconden piekjes gok ik op zo'n 200-300watt probleemloos. Maar als continue load zal je denk ik rond de 100 al wel problemen kunnen krijgen met budgetbordjes.

In elk geval is dit AMD 480 geval natuurlijk mierengeneuk, no way dat ook het allergoedkoopste bordje deze minimale overscheiding, welke alleen voorkomt bij extreem gebruik en zelfs slechts voor enkele milisecondes, problemen gaat geven.
Nou die mensen zijn er dus wel.

Misschien geen bord van honderden euro's maar de kans dat er in mijn volgende build een bord komt van ¤200 en een videokaart van rond die prijs is vrij groot.
Waarom? Layout van die borden is vaak beter, wil een goede OC voor de rauwe rekenkracht en game slechts sporadisch dus hoef geen dure videokaart.
De grap is vaak dat hoe duurder het bord is, de vager de problemen zijn. High-end borden hebben vaak veel bleeding edge technologie aan boord die nog niet volledig is doorgetest. Het gevolg is dat sommige problemen met bios updates niet op te kossen zijn en dat 1 falend component soms alles mee kan sleuren. Zo heb ik high end borden in de Z97 series zien falen doordat een usb zekering niet goed was aangesloten en er daardoor een soort kortsluiting ontstond in de USB3 controller.
Asus zeker ? Had daar ook problemen mee toen uk hun topmoddel had
Nee dat is over de algehele linie. Maakt niet uit welk merk. Gigabyte en consorten is net zo. MSI zelfde vehaal.

Het is puur het feit dat die borden vaak allee laatste technieken hebben waarvan nog niet helemaal 100% zeker is hoe deze presteerd en wat de juiste implementatie is.
ik kies daarom tegenwoordig mijn moderborden ook zo uit zonder al die poespass wat fabrikant specifiek is.
scheelt vaak ook de helft van de prijs
Een zekering verkeerd aansluiten heeft niets met bleeding edge te maken, dat is gewoon basistechniek. Voor een ontwerper kan zoiets een "resume generating event" zijn.

In mijn ervaring van de laatste paar jaar, heeft Gigabyte dat soort fouten minder vaak gemaakt dan Asus. MSI geef ik ook het voordeel van de twijfel.
Tuurlijk zijn die mensen er. Maar het zal een grote mindeheid zijn. Iemand die een build maakt zal over het algemeen geen moederbord kopen die even duur is als de videokaart.

Als het moederbord de 75 euro aan tikt in een dergelijke build zal dit al uitzonderlijk zijn.
Ik zeg ook dat die mensen er zijn, maar flippy heeft zijn post aangepast want er stond eerst ets n de trand van "Niemand die een duur OC bord koopt koopt zo'n kaart".

Dat vond ik nogal apart want tussen niemand en de meerderheid zit nog aardig wat....
Mensen zoals u zijn niet representatief van de algemene markt.

Moest dit een 700¤ video kaart zijn, is de kans veel hoger dat die mensen ook met een 200¤ OC moederbord werken. Maar gezien de kostprijs zal dit in heel wat setups gaan. Van normale ATX moederborden tot Mini/Micro-ATX setups. Van 200¤ tot 50¤ MB's...

Feit is dat specs voorzien zijn van limieten voor een rede. Dat moederborden een hogere tolerantie hebben om pieken op te vangen, is geen excuus. Het grotere probleem is als mensen de boel proberen te OC'en. Vergeet niet dat Tom's resultaten op gemiddelde gebruik was. Niet op maximaal of OC ... En de 75 Watt is normaal over meerdere slots, niet enkel één. Leuk als je CF setups hebt.

De RX480 heeft blijkbaar een nogal zuip effect zodra je OC'ed naar hogere clock speed ( wat neerkomt gewoon op exponentielle hogere lekstroom naar maten je voorbij de sweet spot gaat dat AMD vastgesteld heeft ).
Het grotere probleem is als mensen de boel proberen te OC'en
[/quote]
Als je dat doet, moet je er volgens mij ook geschikte hardware voor kopen.
Als men niet OC'ed moet ook budget hardware, zeker na de update, volgens mij er tegen bestand zijn.

Helaas zijn nog genoeg mensen die voor een dubbeltje op de eerste rang proberen te zitten. In dit geval is goedkoop dan helaas ook duurkoop.
Het zijn niet alleen de huidige budget borden; ik heb een I7 920 met een X58 moederbord. Destijds een budgetbord; maar was toch meer dan 150 euro. X58 was gewoon duur en is ook niet echt troep voor uitgekomen. Pas 1 jaar geleden is er een GTX 680 ingekomen ter vervanging van een GTX275.

Ik heb er verder hoge kwaliteit componenten in zitten (de voeding was bijvoorbeeld duurder dan het moederbord). Maar door nu hardware erin te plaatsen die boven limiet gaat in een moederbord dat al meer dan 6 jaar oud is? :) Wellicht is dit dan net datgene dat dit bord over het randje gaat helpen.. maar voor hetzelfde gaat het ook gewoon goed. Het zal wel meewegen in mijn beslissing als dit systeem nog een keer zijn GPU upgrade gaat krijgen.

[offtopic] Man, wat is die I7 waar voor zijn geld gebleken achteraf ;).
De kaarten van het groene team gaat er ook overheen hoor.. Kijk naar de asus gtx 960 strix.
Wellicht een aftermarket kaart maar alsnog.

[Reactie gewijzigd door rick.b op 3 juli 2016 11:12]

Dan ligt de fout bij asus niet bij nvidia. De reference kaart doet dit niet dus er is geen alsnog voor dit probleem. Amd zijn videokaart voldoet gewoon niet goed op dat punt en die van nvidia wel.
Nope die trekt maar 30W door de pci-e aansluiting:
http://www.pcper.com/revi...uating-ASUS-GTX-960-Strix

Die trekt wel meer door over de 8-pins aansluiting, maar daarvoor is die ook bedoeld.
De RX 480 had dat ook moeten doen ...

[Reactie gewijzigd door R-J_W op 4 juli 2016 01:58]

Je moet het verschil eens leren tussen PCIE waarden overschrijden (rx480) en de PSU waarden (GTX 960). Heel ander verhaal.
Natuurlijk kan het slot zelf ook maar een eindige hoeveelheid stroom verwerken, maar ook daar is sprake van marge en van kortdurende piekjes naar 77w zal de connector echt niet smelten hoor.
Zou ik deze dan beter niet kunnen gebruiken op mijn rampage IV black om de oude kaartjes te vervangen?
Maar ja nu het amd is word er ineens met een vergrootglas naar gekeken.

Hoe vaak ik nog wel niet hoor van mensen dat ze liever nvidia kiezen omdat de drivers van amd slecht zijn is gewoon triest. Nvidia lacht zich rot want zodra de nieuwe generatie uit is stopt de support van de oude generatie grotendeels.

Dit wil niet zeggen dat ik helemaal voor amd ben. Sterker nog deze generatie word het kiezen tussen een 1060 of een 480. Eerst zat ik te denken aan een 1070 maar met die prijsverhogingen wordd dat niks.
Hoe vaak ik nog wel niet hoor van mensen dat ze liever nvidia kiezen omdat de drivers van amd slecht zijn is gewoon triest.
Blijkbaar heb je nog nooit geprobeerd met een AMD kaart te gamen op een Linux systeem. Over het algemeen presteren de open source drivers die door vrijwilligers door middel van reverse engineering zijn gemaakt beter dan de officiële drivers van AMD. Ook crashen ze minder vaak.
Nvidia lacht zich rot want zodra de nieuwe generatie uit is stopt de support van de oude generatie grotendeels.
Bijvoorbeeld? Het is juist AMD die er bij mij om bekend staat dat ze met hun officiële drivers maar een paar generaties terug gaan in hun officiële ondersteuning. NVidia doet dat misschien ook wel met hun nieuwe driver, maar de legacy driver voor oudere kaarten blijft wel altijd beschikbaar, in tegenstelling tot die van AMD. Dat lijkt me ook niet meer dan logisch, er vinden toch geen optimalisaties meer plaats voor oude kaarten. Maar de 700 en 900 serie van NVidia worden nog steeds gewoon in de nieuwste driver goed ondersteund.

[Reactie gewijzigd door rbr320 op 3 juli 2016 14:24]

Blijkbaar heb je nog nooit geprobeerd met een AMD kaart te gamen op een Linux systeem.
want het is waarschijnlijk dat barsonax het daar over had?
Over het algemeen presteren de open source drivers die door vrijwilligers door middel van reverse engineering zijn gemaakt beter dan de officiële drivers van AMD. Ook crashen ze minder vaak.
nee dus. AMD programmeert zelf mee aan de open source drivers en heeft de specs van hun kaarten vrij gegeven zodat reverse engineering niet meer nodig is. Daar kan nvidia nog VEEL van leren.

de laatste keer dat ik keek had de gehele 9xx serie nog geen 3d support met de open source drivers terwijl de niet lang daarvoor uitgekomen fury prima werkte met de open source drivers van AMD.
want het is waarschijnlijk dat barsonax het daar over had?
Geen idee, maar toen ik nog Windows draaide had ik ook regelmatig problemen met de drivers van (toen nog) ATI, maar nooit met die van NVidia.
AMD programmeert zelf mee aan de open source drivers en heeft de specs van hun kaarten vrij gegeven zodat reverse engineering niet meer nodig is. Daar kan nvidia nog VEEL van leren.
Voor de duidelijkheid: ik doelde op de radeonsi driver, die wel degelijk via reverse engineering gemaakt wordt. Dat project heeft inderdaad veel gehad aan het vrijgeven van specs door AMD en wordt ook ergens wel ondersteund door engineers van AMD, maar niet officieel.

De nieuwe AMD GPU (of AMD PRO of hoe dat ding dan ook gaat heten) driver wordt inderdaad mede door AMD zelf ontwikkeld en is deels open source. Helaas is deze nog in beta en blijft de high performance 3D driver gewoon proprietary. Ze laden namelijk feitelijk gewoon de bestaande fglrx driver in user space in via het open source gedeelte. Maar het is zeker een stap in de goede richting en dat NVidia daar nog iets van kan leren ben ik inderdaad met je eens.
Dus omdat de linux drivers die een enkeling gebruikt crap zijn zijn de windows drivers die iedereen gebruikt dat ook? Wut???? Natuurlijk heb ik het over de window drivers....van de linux drivers weet ik niks want tja waarom zou ik op linux gamen waar een hoop spellen het niet doen.

Helemaal alsof de mensen die constant blijven roepen dat de drivers slecht zijn op linux gaan gamen. Hoe harder ze schreeuwen hoe meer ze uitbesteden aan iemand anders bij het bouwen van een systeem laat staan dat ze weten hoe linux werkt.
Ik zie behoorlijk wat rationalisaties in je post omtrent het energie verbruik van deze AMD kaart. Je hele argument is gebaseerd op 'Niet moeilijk doen, kan je mobo best tegen.'

75W is gewoon de PCI-E limiet. Het gaat namelijk niet om 'doorbranden', zoals jij stelt in je hyperbole, maar om stabiliteit. Als je 75W uit je PCIe slot trekt, dan tax je je moederbord dusdanig, dat er power dipjes kunnen onstaan, wanneer er elders ineens wat meer stroom nodig is. Iedere normale nVidia kaart heeft daarom 1 of 2 PCI express power connectoren. En ASUS leverde ooit (nog steeds?) ook moederborden met een extra molex connector op het moederbord, juist om grote stroomvraag vanuit PCIe op te kunnen vangen.

Tld;dr: deze kaart is niet goed ontworpen, en had gewoon extra power aansluitingen moeten hebben.
Laten we om te beginnen stellen dat het geen goede zaak is dat kaarten de specificaties overschrijden. Het echter wel belangrijk de zaak te nuanceren en de kans dat er problemen als gevolg hiervan optreden, ook wat stabiliteit betreft, lijkt me nihil.

In zekere zin gaat het wel om doorbranden, omdat de 12V niet door je moederbord zelf opgewekt wordt, maar uit de voeding komt. Het is de voeding die moet voorkomen dat stroomdipjes ontstaan. De vraag is daarmee (voornamelijk) of de voedingsleidingen op je moederbord afdoende zijn om de stroomsterkte op te vangen.

Een molex op het moederbord zeg je me? Als je een zwaar moederbord hebt, dan zit daar een EPS12V op, of zelfs meerdere (bij dual socket). Een EPS12V-aansluiting kan 336W aan je mobo leveren. ASUS heeft op zijn high-end borden EPS12V-connectoren zitten.

[Reactie gewijzigd door dmantione op 3 juli 2016 16:56]

"Het echter wel belangrijk de zaak te nuanceren en de kans dat er problemen als gevolg hiervan optreden lijkt me nihil."

Daar kan ik me wel in vinden. De gedane testen waren wel erg synthetisch, en betroffen situaties die normaliter nooit voorkomen. Maar het ware m.i. toch beter geweest wanneer deze kaart met 2x 8-pins power connectors was uitgerust. Nu zitten ze te balanceren op de marge: BIOS-updateje hier, undervoltje daar, zo moet je toch een kaart niet bouwen.
Waarom meteen 2x 8-pins dan.

Als ze het extra vermogen via de 6-pins connector trokken i.p.v. het PCI-E slot dan had dit hele gedoe waarschijnlijk nog maar een vijfde van de aandacht gekregen.
Als er een enkele 8-pins i.p.v. (of dubbele 6 pins) op had gezeten had je helemaal niemand er over gehoord.

2x 8-pin is dan weer de compleet tegenovergestelde kant. (en beperkt de doelgroep want die vind je minder terug op voedingen).
Mijn evga bord heeft ook zo'n extra molexje. Super handig :)
Hoewel ik het tof vind dat je dit zo kan uitleggen zodat ik eens echt objectief het bericht lees, ben ik het niet helemaal eens met dat stukje over "storm in een glas water". Blijkbaar is het wel nodig dat er zo'n artikel komt dat we terug naar de standaard gaan. Stel dat dit er niet was geweest, was er misschien ook geen update komende. Soms is dan zo'n overdreven kritische noot nodig.
Zoals je zegt is het nu helemaal niet erg, maar stel dat we hier mee doorgaan, dan voorzie ik over een langere periode wel problemen. Steeds op het randje zitten en langzaam eroverheen gaan..dan gaat het ooit fout IMO.
AMD is niet bewust over de standaard gegaan. ze hebben zelfs een power limiter in de software gemaakt om binnen de standaard te blijven. Maar daar zat echter een bug in die in een enkel specifiek geval niet op tijd ingreep.
Het komt vermoedelijk gewoon door de toevoeging van 8GB geheugen en niet 4GB. De oorspronkelijke kaart zal ~ 150W verbruiken.

Ik zou me er niet zo'n zorgen om maken eerlijk gezegd. Zorg gewoon voor een goed en betrouwbaar moederbord, dat een aparte voorziening heeft naar de PCI-express bus, en je kunt de kaart naar hartelust draaien.

Bedoel de 295X2 heeft 2x 8 pins (300W) en 1 x 75W, totaal 375W maar blijkt in vele tests ver de 650W te overschrijden. Waar komt dat vandaan denk je?

OC'ers hebben ook aangekaart dat AMD kaarten in generiek meer uit de PCI-express bus trekken dan de toegestane 75W. Zo erg dat hun 24 pins molex stekker op ten duur in het moederbord vastgeschroeid stond.
Gedeeltelijk met je eens, maar het gaat niet om het mobo of de bus het gaat om de fysieke pinnen van het PCI slot, die vijf voedings pinnen van de PCI slot die kunnen maar 1.1Amp max per stuk hebben.
Ik vind het zonde dat ze het zo gedaan hebben.

Misschien komen ze op deze manier het dichtst in de buurt van de pci-e spec, maar ze hadden beter 20 of 30W te veel door de 6 pin kunnen trekken.

De 12V power komt blijkbaar van de 2 12V pinnen op de atx stekker, stel je zet 2 kaarten in crossfire dan trek je dus 164W door 2 pinnen, terwijl de 3 pinnen op de kaart uit hun neus staan te vreten met 79W.

Het zou ook beter geweest zijn voor overclocks, de stock koeler is daar niet echt geschikt voor, maar die kan je vervangen. Ik heb nog een accelereo extreme die ik er misschien op had kunnen beunen.

Aan de andere kant vind ik het mooi dat miners (ze bestaan nog steeds) deze kaart nu niet snel zullen kopen. }>

[Reactie gewijzigd door haarbal op 3 juli 2016 11:54]

Lekker dan, kan je de benchmarks maar weer over doen, want als ze de power gaan nerven zal de prestaties ook wel achteruit gaan.
Dat hoeft niet perse, kijk bijvoorbeeld hier: https://www.reddit.com/r/...owners_please_attempt_to/
Deze mensen hebben hun kaart ge-undervolt en kregen betere prestaties.
AMD heeft zeer waarschijnlijk simpelweg voor het laagste voltage gekozen dat ook op de 'slechste' chips stabiel is.

Op zich leuk dat een undervolt voor sommigen werkt maar zolang niet 100% van alle kaarten dat aankan is het geen oplossing. En die kans is erg klein; anders had AMD het voltage meteen lager gezet lijkt me zo
Kan ook dat ze een 'veilige' marge hebben genomen om er zeker van de zijn dat de launch stabiel zou verlopen en geen enkele kaart onstabiel bij bepaalde frequenties zouden zijn.

Bij ontwerpen neem je altijd marges in acht, meestal zo rond de 10 tot 20% om er zeker van te zijn dat je product werkt. Het kan dus ook zo maar zijn dat AMD besluit de spanning naar beneden te brengen en dat de kaart 10% minder verbruikt terwijl alles nog hartstikke stabiel is.

Nvidia haalde dit geintje trouwens ook al uit met de 970, deze schakelde zo agressief terug met de spanning als de load op de kaart minder was (dus bijvoorbeeld in-game menu) zodat de driver crashte als de kloksnelheid weer verhoogd werd en de kaart gigantisch instabiel werd (dus in feite precies het tegenovergestelde van het AMD verhaal).
Helaas hoor je daar nu niets over.
Maar inderdaad Nvidia heeft soms net zulke grote problemen of groter. Bij Nvidia was een serie kaarten die letterlijk gefrituurd werden. Men vergeet snel, schijnbaar.

Een simpele driver aanpassing en het is weer klaar, dat kon je bij Nvidia niet zeggen.
Jonge jonge jonge...

Wil je weten waarom je er niks van hoort hier? Omdat dit topic niet over nvidia gaat. Waarom moet er altijd weer off-topic gereageerd worden. Dit topic gaat over dat er een probleem met de AMD rx480 is dat deze te veel stroom trekt over het pci-e slot. Het heeft niks met nvidia te maken.

alleen maar omdat nvidia ook voltage problemen hebben gehad in het verleden maakt het niet ineens goed dat dit nu ook bij een amd kaart gebeurt.
Ga even ergens anders fanboy spelen.

Ik haal dit aan omdat Nvidia net zulke grote problemen kent of heeft gehad en nu wordt gedaan(door nvidia fanboys) alsof alleen AMD problemen heeft.

Verder blijkt het een storm in een glas water te zijn, dus waar maak JIJ je druk over. Je gebruikt(waarschijnlijk) toch nvidia. :)

[Reactie gewijzigd door Tourmaline op 3 juli 2016 12:36]

Nee ik gebruik een AMD kaart. En mijn vorige kaart was ook AMD. Daarvoor heb ik inderdaad nvidia gehad.

De reacties over nvidia (niet alleen die van jou) zijn allemaal gewoon off-topic het gaat hier over een AMD kaart en niet over een nvidia kaart. Het is wel degelijk een probleem met deze kaart wanneer hij structureel meer van het pci-e slot vraagt dan wat volgens de richtlijnen toegestaan is.

Als nvidia kaarten problemen hebben zijn daar ook gewoon nieuws artikels over. Ik snap jouw probleem dus niet.
Het probleem is dat sommige mensen het probleem groter maken dan dat het is.
is maar net hoe je het verwoord, kan ook zeggen het gaat over grafische kaarten met een (stroom gerelateerd) probleem.
Extra zeker zijn door de specs te overschrijden en veel meer power te verbruiken dan nodig? Je creativiteit siert je.

Maar als dat het zakelijk inzicht is achter de beslissingen bij AMD, mag het bedrijf wat mij betreft meteen op de fles. (Hoe spijtig ook voor de competitie.)
Wie zegt dat dat het zakelijk inzicht is? Aangezien AMD de kaarten niet zelf maakt, zal er wel een foutje in het referentie-ontwerp gezeten hebben dat de kaartmakers er niet direct uitgevist hebben. Of het was bewust zo ontworpen maar iemand had de voetnoot niet gelezen dat een kaart die bedoeld is om langdurig in turbo modus te draaien toch een extra PEG-connector nodig zou hebben. Klinkt meer alsof het in de categorie "kan gebeuren" zit.

[Reactie gewijzigd door mae-t.net op 4 juli 2016 15:32]

Leuk verhaal van die 970, maar heb je een bron? Persoonlijk nooit mee gemaakt, maar ik had hem ook pas maanden na launch.
Kan het zo 1 2 3 niet meer vinden, maar ik weet van mezelf (had zelf ook een 970) dat de kaart zichzelf behoorlijk agressief aan het undervolten was wanneer de kloksnelheid lager was. Dit is hartstikke mooi voor het energieverbruik, maar met name oudere spellen hadden er last van dat wanneer de kaart wel weer meer moest doen, de kaart eruit klapte. Nvidia had dit later wel weer opgelost met een driver update (net zoals AMD nu dus doet).

Dit was makkelijk op te lossen door de power management in de driver naar maximum performance te zetten (of wat andere zaken te veranderen) maar in feite heeft AMD hier juist het tegenovergestelde probleem, dat de kaart dus teveel verbruikt omdat deze nu stabiel (misschien te stabiel en onnodig veel verbruikt) draait.

Edit: Hoezo is dit nu weer ongewenst? Dit gaat zelfs nog over het probleem van AMD in met een vergelijking naar Nvidia. Dit zou dus hoogstens als ongewenst gemodereerd moeten worden..

[Reactie gewijzigd door Rifleshader op 4 juli 2016 08:35]

Als in dat de kaart nog steeds stabiel zou lopen bij een lagere spanning. Hierdoor loopt de kaart dus onnodig veel te verbruiken (dat bedoelde ik met 'te stabiel' ;) ).
Naar verluidt zou het geheugen teveel stroom vreten, core kan met minder volt waardoor de kaart alsnog binnen de limieten blijft :)

Blijft alsnog de vraag waarom dit design met maar 1 6-pin, maar je kan niet stellen dat de kaart z'n prestaties niet meer kan waarmaken.
http://www.guru3d.com/art..._rx_480_8gb_review,7.html

Zou een kern van waarheid inzitten. Het geheugen kleurt daar net zo fel als de zon.
Wie of wat of waarom weet ik niet, ben geen ontwerper,
maar kan me goed voorstellen dat door het geheugen zo te plaatsen met bijbehorende verbindingen er een cumulatie van hitte plaatsvind dat niet goed wordt afgevoerd.

Hogere temp., hogere weerstand, hogere stroom nog meer hitte.
Echter als ik de post van reddit beetje doorlees, werkt beperken/maximaliseren van spanning prima.Beperkt het vermogen ook.


Update moet het kunnen oplossen maar een fabrikant die een ander design/koeler gaat maken zal er ook veel meer uit kunnen halen.
Wat zo fel is op de kaart is niet de plek van het geheugen maar van de VRMs (Voltage Regulator Modules), de spanningsregelaars oftewel de DC - DC converters van de kaart.

Bij de omvorming van 12 V naar ongeveer 1 V zijn dan ook vaak grote verliezen te vinden op de kaart waardoor dit ook heet wordt.

Voor de rest klopt je post wel, als de spanning beperkt is, is ook de spanning van het digitale signaal lager en met U = I * R is dan ook de stroom lager. Echter kunnen er door impedantie verschillen ook spanningen terugkomen waardoor er met een lagere spanning instabiliteit kan optreden, maar ideaal gezien is de spanning zo laag mogelijk.
Als je bedoelt dat de kaart niet binnen de 150W blijft: dat klopt. Het lijkt er echter op dat undervolten geen invloed heeft op de prestaties van de kaart. De benchmarks die ik nu zie bewijzen niet zo veel aangezien alle tests met verschillende CPUs gedaan worden, met verschillende clocks etc.

Ik zou graag een vergelijking zien van de prestaties van de videokaart op hetzelfde systeem, met dezelfde clocks en verschillende voltages. Ook zou ik graag bevestigd zien dat het undervolten van de kaart er ook voor zorgt dat er minder vermogen uit het PCI-e slot getrokken wordt.
Dat kan kloppen. Echter gaan dan waarschijnlijk de jields weer achteruit. Niet iedere gpu zal met minder voltage toch de vereiste snelheid halen. Mocht het de gpu echter toch lukken om foutloos te draaien op het lagere voltage dan zit je minder snel aan de powerlimit of thermal limit dus zal de kaart minder snel gaan throttelen
Dat denk ik niet. Het gaat hier meer om de verdeling van power tussen het PCI-e slot en de PCI-e 6 pin connector. Dus waarschijnlijk zullen de prestaties gelijk blijven als de powerverdeling geoptimaliseerd is.
Als je ziet dat de kaart soms al meer verbruikt dan de TDP, en je limiteert dan het verbruik via PCIe zoals het hoort, moet al de rest via de extra stroomconnector komen. Alleen is dat in het geval van de reference kaart een 6-pin connector. Die ook niet meer kan leveren. Dus je verliest vermogen. Dus je verliest prestaties.

En als je de chip begint te undervolten, zullen alle kaarten niet meer (in alle omstandigheden) stabiel zijn. AMD gebruikt geen "hoog" voltage voor zijn plezier.

Terug naar die 6-pins connector: da's een hardware beperking van de reference kaarten. Als die kaarten nu mindere prestaties gaan leveren, zullen gebruikers zich bekocht voelen. En niemand zal de resterende reference kaarten nog willen. Waar gaan ze daarmee blijven? (Voor een prikje doorverkopen aan systeem-bouwers, dat gaan ze doen.)

Dit lijkt me een zeer slechte zaak voor AMD als bedrijf. En getuigt wat mij betreft van roekeloos gedrag van management. Het beste wat Lisa Su nu kan doen is dit gebruiken om Koduri buiten te bonjouren. Dan zijn ze meteen van die interne vijand af.

Wat de markt betreft: RX 480 heeft dus enkel nog een toekomst als custom-variant met betere koeling én vooral met 8-pins stroomconnector. Hopelijk niet aan hogere prijzen.
PEG6 connectoren kunnen zonder buiten de specificaties gemakkelijk 100W leveren. Volgens de specificaties werkt een PEG6 volgens de rekensom drie 12V lijnen die 2A aankunnen (3*12V*2A=72W). Maar de gebruikte kabels kunnen fysiek 4A aan. Waardoor theoretisch een PEG6 kabel 150W kan leveren.

PCI-E sloten hebben op de 12V lijn 5 pins die fysiek 1,1A aankunnen. Maximaal kan uit een slot dus 5*1,1A*12V=66W + resterende deel van 3,3 voltlijn (3,3V*3A=10W).
Het probleem is dus niet dat de RX480 meer dan 150 watt opneemt, maar dat het vermogen gelijk wordt verdeeld over de PEG connector en PCI-E slot.
PEG6 connectoren kunnen zonder buiten de specificaties gemakkelijk 100W leveren. Volgens de specificaties werkt een PEG6 volgens de rekensom drie 12V lijnen die 2A aankunnen (3*12V*2A=72W). Maar de gebruikte kabels kunnen fysiek 4A aan. Waardoor theoretisch een PEG6 kabel 150W kan leveren.
Als je zelf het woord "specificatie" vetgedrukt maakt en daar dan op 72 W uitkomt, dan kun je alleen 100 W uit een PEG6 trekken door fors buiten de spec te gaan. Wat je vervolgens uitrekent onder "fysiek" is inderdaad meer dan 100 W, maar... buiten de specificatie! Je kunt hooguit iets beweren in de trant van "100 W eruit trekken maakt niks stuk".

Het is belangrijk om veiligheidsmarges te hebben. Door te zeggen "ze moeten 2 A aankunnen, maar in de praktijk kunnen ze 4 A hebben" gooi je in feite die marge overboord. Als AMD een kaart ontwerpt die slechts bij hoge uitzondering, heel even buiten de specificatie gaat, okee, dat is één ding. Maar als de kaarten dat aan de lopende band doen (en ook fors er overheen gaan), dan is dat wel degelijk een probleem!
Het gaat over de kabel nu. Probleem is dat het PCIe slot te veel wordt belast. PEG kabels kunnen gemakkelijk zonder problemen buiten de specs worden belast. PCI e sloten hebben die ruimte niet.
Ik vermeld dit omdat als het vermogen via een ander verdeling gaat dat de kaart niet onder gekookt hoeft te worden. Immers vermogen dat geleverd moet worden is ruim beschikbaar.
TDP != opgenomen vermogen. TDP is een ontwerprichtlijn voor fabrikanten die aangeeft hoeveel vermogen aan warmte men moet kunnen afhandellen. En aangezien niet alle vermogen word omgezet in warmte (het is een grafische kaart, geen verwarmingelement) is het dus normaal dat het opgenomen vermogen hoger kan liggen dan het TDP.
Alle vermogen dat opgenomen wordt, wordt wel degelijk omgezet in warmte, anders zou er energie verloren gaan en dat kan niet.
Er lekt nog wat weg via de monitorkabels en misschien dat de kaart nog wat ledjes heeft. Maar dat is het punt niet.

Omdat de T in TDP voor thermal staat en het even duurt om een koelblok op te warmen is het voor de TDP niet belangrijk dat een chip tijdelijk iets meer dan de TDP trekt. Voor de energievoorziening van de computer is dat natuurlijk wel belangrijk. Het piekverbruik van een component kan dus hoger liggen dan de TDP.
Om even hieraan toe te voegen: TDP is de specificatie dat bepaalt hoeveel watt een koeling moet kunnen weghalen zodat het maximum temperatuur niet overschreden wordt. Dit betekent dat zodra jij een maximum temperatuur van 90C hebt een lagere TDP kan gebruiken omdat een object veel beter koelt met een hoger verschil tussen kamertemperatuur en het object dat je probeert te koelen.
Wat ook invloed kan hebben is het zo snel mogelijk weghalen van hitten uit de core van de chip naar de heatsink wat ook wel is invloed heeft op het TDP.

Maar om te stellen dat TDP=Watts is niet waar.
Een (zeer klein) deel van die energie wordt naar het scherm gestuurd in de vorm van informatie, dus bijna juist.
Energie kan niet verloren gaan...
Naar het scherm is toch niet verloren?
Als een 8 pins connector het problem verhelpt dan verwacht ik dat de meeste OEM's die gaan toepassen en laten we eerlijk zijn, reference designs zijn nauwelijk vertegenwoordigd op de markt als ik het zo zie.
Idd, maar wel erg voor de mensen die een reference kaart gekocht hebben.
Vaak nog enorme fanboys die het meest stonden te springen om een kaart te kopen. En die laten ze nu in de steek.
Maar ja, dan ben je ook een early-adopter en dan weet je van te voren ook dat je tegen de eerste foutjes aan kan lopen of zelfs een drama product in huis kan halen. Daarom bij hardware altijd even een paar weken afwachten is mijn motto.
Trouwens, hoezo laten ze die in de steek? Ze zeggen met een update te komen, dus laten we die eerst even afwachten...toch?
nou nou wat een overdreven drama post zeg. Nvidia had precies het zelfde met één van zijn kaarten en daar kraaide geen haan naar. Verder is dit makkelijk op te lossen omdat het over milliseconden aan piekverbruik gaat en niet om constant verbruik - Rustig aan ;)
Het constante verbruik over de 12v lijn over het pci-e slot ligt ook te hoog. Op 77watt. Waar dit maximaal 66watt mag zijn.
Als je ziet dat de kaart soms al meer verbruikt dan de TDP, en je limiteert dan het verbruik via PCIe zoals het hoort, moet al de rest via de extra stroomconnector komen. Alleen is dat in het geval van de reference kaart een 6-pin connector. Die ook niet meer kan leveren. Dus je verliest vermogen. Dus je verliest prestaties.
Die 6-pins connector kan best kortdurend meer leveren, er zit geen harde limiet op (anders dan de OCP van je voeding en die staat meestal veel hoger ingesteld - 20A of 240W per 'rail' of meer is niet ongebruikelijk). Het betekent alleen dat de boel harder slijt en/of op den duur stuk kan gaan omdat je het buiten de specificaties gebruikt. Dat zou nog best eens de hele levensduur van de computer goed kunnen blijven gaan.

Dan ga ik er tenminste wel van uit dat de fabrikant van de videokaart de spanningsregelaars op de kaart zwaar genoeg heeft gemaakt om het extra vermogen te leveren. Als dat niet zo is houdt alles natuurlijk op en krijg je bij zware belasting waarschijnlijk artefacten.

Hoe dan ook, als ze kans zien om de belasting van de PCIe slot naar de PEG-connector te verschuiven, zal er geen probleem zijn. De kaartfabrikanten die het foutieve referentie-ontwerp gebruikt hebben zouden daar misschien een terugroepactie voor moeten doen, want zulke problemen zijn vaak niet in firmware op te lossen (anders dan door te throttelen).

[Reactie gewijzigd door mae-t.net op 3 juli 2016 13:56]

Ze hebben twee belangrijke knoppen waar ze aan kunnen draaien: De voedingsspanningen (van GPU en/of geheugen) en de turbo-logica. Het eerst is te prefereren, in het tweede geval kan gaat het natuurlijk ten koste van de prestaties. Daarentegen komt de kaart slechts korte periodes boven de 75W, dus als ze de turbo enkel op die korte periodes weten in te perken verandert er op het totaal nog niet veel.
Je hebt marges op je kaart, dus iets meer uit je 6 pin is niet zo erg.

Zo kan het zijn dat je versterker of tv ook iets meer trekt dan je 50 watt omdat de marges nu eenmaal 10-20% zijn van de 230 volt. Er staat niet voor niets op 230 volt +- zoveel procent. ;)

Ik denk dat dit nogal gaat meevallen en dat er geen enkele kaart wordt gefrituurd, zoals bij Nvidia, laten we dat vooral ook niet vergeten!
Ik denk dat dit nogal gaat meevallen en dat er geen enkele kaart wordt gefrituurd, zoals bij Nvidia, laten we dat vooral ook niet vergeten!
Doel je nu op het oude voorval met de GTX 400 en 500 serie kaarten? Want dat had nl. heel andere oorzaken...
De Sapphire RX480 Nitro gaat alleszins een 8-pins peg connector hebben, de Asus Strix twee peg connectors. Mooi kaartje die Sapphire met twee 10 mm fans, de Asus heeft er drie. TDP vd Sapphire is 175 W en de gpu clock vermoedelijk rond de 1370 mhz. Niet mis! Hopelijk hebben de AIB's het teveel aan vermogen uit het pci-e slot opgelost, dan kan het nog wat worden met de RX480.

De AIB's hebben de RX480 trouwens kunnen overklokken tot 1460-1600 mhz met zeer goede luchtkoelers en afhankelijk van de kwaliteit vd gpu-chip. Nice! Ik weet niet of de 1060 daaraan gaat kunnen tippen(en hoop het ook niet, want nVidia is serieus overpriced en met hun g-sync, gameworks praktijken :().
nee, het gaat eigenlijk alleen maar fout bij heel specifieke burn-in tests waar de FPS dus helemaal niks uit maakt. daar zal je iets langere FPS zien, maar bij normale games gaat er niks mis en hoeft er dus ook niks aangepast te worden.
In mijn ogen heeft AMD hier bij best wel een fout begaan qua PCB-ontwerp.
Een kaart ontwikkeld met 1x 6 pins stroomvoorziening en vervolgens het (meer dan) maximale wattage verbruiken om nog een beetje goeie resultaten neer te zetten.

Als de prestaties omlaag geschroefd gaan worden door middel van een update om de gestelde limiet te kunnen halen vind ik dit een kwadelijke zaak. (We gaan het dinsdag merken).

Off-topic:

Heb toch het idee dat AMD niet helemaal hun eigen verwachtingen waar kunnen maken.
De eerste persconferenties hadden ze het over een high-end kaart killer voor honderden euro's goedkoper. Puntje bij paaltje kunnen ze net de 970 / 980 bij houden die anderhalf jaar oud zijn. (En hier voor moeten ze zelfs nog over de gestelde PCI-E limit heen om de prestatie's op te krikken.)


EDIT:

Oei AMD Fanboys gonna hate

EDIT 2:

Omdat meerdere mensen vragen hoe ik er bij komt dat AMD gezegd heb dat het een high end kaart zou worden.

AMD Live at Computex 2016
https://www.youtube.com/watch?v=fBHYdoSYMZk

[Reactie gewijzigd door 88Gamer88 op 3 juli 2016 11:15]

In mijn ogen heeft AMD hier bij best wel een fout begaan qua PCB-ontwerp.
Een kaart ontwikkeld met 1x 6 pins stroomvoorziening en vervolgens het (meer dan) maximale wattage verbruiken om nog een beetje goeie resultaten neer te zetten.
Ik neem aan dat je hierbij hint op het feit dat een RX 480 meer dan 75W van het PCIe slot vraagt. Ten eerste is dit geen harde limiet, maar meer een richtlijn. Verder is de RX 480 zeker ook niet de eerste kaart die dit doet, de laatst bekende kaart die dit ook doet is de GTX 960.
Als de prestaties omlaag geschroefd gaan worden door middel van een update om de gestelde limiet te kunnen halen vind ik dit een kwadelijke zaak. (We gaan het dinsdag merken).
Nee, dit hoeft helemaal niet het geval te zijn. Op bijvoorbeeld Reddit zijn er al heel wat posts van mensen die de kaart zonder problemen kunnen undervolten, zelfs wanneer overclocked. Schijnbaar staan de RX 480 kaarten zeer ruim ingesteld qua voltage, niet bijzonder aangezien dit bij de meeste GPU's en CPU's fabrieks-af gebeurt. Als AMD dit via een driver iets bijstelt, verbruikt de kaart minder stroom en wordt hij minder warm zonder prestatieverlies.
Heb toch het idee dat AMD niet helemaal hun eigen verwachtingen waar kunnen maken.
De eerste persconferenties hadden ze het over een high-end kaart killer voor honderden euro's goedkoper. Puntje bij paaltje kunnen ze net de 970 / 980 bij houden die anderhalf jaar oud zijn. (En hier voor moeten ze zelfs nog over de gestelde PCI-E limit heen om de prestatie's op te krikken.)
Ik weet niet waar je dat vandaan haalt, maar dat heeft AMD niet gezegd. Ze hebben gezegd dat ze een VR-ready kaart voor 200 dollar konden bieden. Meet je dit met Steam VR test, toegegeven niet de meest fantastische benchmark, dan komt hieruit dat een RX 480 hieraan voldoet.

Daarnaast zie je denk ik niet in voor wie deze kaart bedoeld is. Ed van Sapphire heeft het laatst tijdens een live stream, voor de release, ook gezegd: heb je nu een GTX970, GTX980, R9 390, R9 390X of beter, nee dan is de RX480 geen kaart voor jou. Deze kaart is bedoeld voor mensen die b.v. een R9 280(X) hadden, of een GTX 770, of een R9 370 of GTX 950. Voor hen is een RX 480 een flinke upgrade qua performance.

Toen de GTX970 en zeker de GTX980 uitkwamen waren deze voor een totaal andere doelgroep, namelijk de highend, de top 2-5% van de gamers. Uit tal van onderzoeken blijkt dat veruit de meeste gamers tussen de 100 en 300 euro uitgeven aan een GPU en dat het overgrote deel van de gamers nog op een resolutie van 1920x1200 of lager speelt, zie de Steam Hardware Survey. Nu mag je 3 keer raden welke nieuwe kaart in de 100-300 euro prijscategorie valt en uitstekende performance aldaar biedt? Juist, de RX 480. Op 1080P is een RX 480 zowat overkill te noemen, op ultrawide 2560x1080 en op normale 1440P presteert hij zeer goed en zelfs op 4K kan hij heel wat games nog enigszins acceptabele (30-40 FPS) framerates halen, zie bijvoorbeeld deze benchmarks.

En nee, de RX 480 is zeker geen GTX 1070 of GTX 1080, maar dat was ook niet de bedoeling. Die NVidia kaarten zijn, zeker nu de prijs van aanzienlijk hoger ligt dan prijzen van de vorige reeks kaarten bij release (GTX 970 en GTX 980); voor een GTX1070 moet je nu nog altijd om en nabij de 500 euro neerleggen en een GTX 1080 is 700++, terwijl de GTX 970 bij release 350 was en een GTX 980 rond de 550 euro. Hier kun je wel roepen "ja maar een GTX 1070 is wel net zo snel als een GTX 980Ti"... iets wat klopt, maar een GTX 970 was destijds ook (bijna) net zo snel als een GTX 780Ti. Kortom, ik zie geen reden waarom de GTX 1070 ook niet gewoon voor 350 euro over de toonbank kan, net zoals de GTX 970 destijds.
Ohh, de 66W limiet op de 12V aansluitingen van de pci-e bus is zeker wel een harde.
Dat is namelijk de limiet voor de gebruikte aansluiting.
http://www.molex.com/pdm_docs/ps/PS-87715-200.pdf
1.1A per pin
5 pinnen
= 5.5A voor 12V via pci-e
= 66W voor 12V via pci-e
Wat doet de RX 480: ongeveer 75 W uit het 12V deel van die aansluiting trekken.
Los van de voltage drop op zelfs de beste borden die ampères nog verder verhogen is dat niet verstandig.

De eerdere limiet was dan ook 25W voor de pci-e aansluiting, dat was inderdaad ook meer een richtlijn te noemen.
De 6-pins stekker heeft ook een limiet van 75 W in de standaard, maar de bekabeling en stekkers daarin kunnen makkelijk heel veel meer doen. Mits de voeding het kan leveren.
Dus wat AMD zou moeten doen is daar het benodigde vermogen afnemen.
de Asus Strix GTX 960 trekt 10 tot 15 watt meer _af en toe_ (en wanneer OC'd) uit het PCI-E stekkertje, in ruil voor rond de 35 watt uit het mainboard. Lijkt me stukken minder erg dan 85 watt uit het mainboard trekken :)
Juist, uit het PCI-E stekkertje, niet uit de PCI-E connector. Die laatste gaat het om bij de RX 480. AMD overschrijdt de limieten die aan de PCI-E connector gesteld zijn (max 66 Watt bij max 1.1 Ampere op de vijf 12Volt lijnen en max 9 Watt bij 3 Ampere op de 3.3 Volt lijn(en) voor een maximaal totaal van 75W).

Als je kijkt naar de grafieken van de Strix GTX 960 op PCPer.com (http://www.pcper.com/revi...uating-ASUS-GTX-960-Strix) dan zie je dat de PCI-E connector nooit aan de 75 Watt totaal komt (12V hangt ergens tussen de 25 en 30 Watt).

Dit is nou net waar AMD buiten de specs gaat door alleen al 75 Watt uit de 12V aansluitingen van de PCI-E connector te trekken terwijl daar max 66 Watt doorheen mag.

De meeste andere kaarten (ook die van AMD) blijven ver van de limiet voor de PCI-E connector af omdat als je teveel stroom trekt op de 12V lijnen dan kunnen die lijnen doorbranden en dan kun je je moederbord weggooien.

Daar zit het gevaar in van wat AMD gedaan heeft met de RX 480!
dat is wat ik zei ja :)
Kortom, ik zie geen reden waarom de GTX 1070 ook niet gewoon voor 350 euro over de toonbank kan, net zoals de GTX 970 destijds.
Ik wel. Er is geen concurrentie van AMD in de high-end momenteel, vandaar dat nVidia de volle pot kan vragen. Het wordt wachten op Vega totdat de prijzen van de 1070/1080 gaan dalen.
De 980/970 waren zeker High End, en aangezien de rx480 zich daar mee kan meten is het zeker een high end Killer voor een wat beperkter budget.

Dat sommige mensen 1070 prestaties verwachten voor ¤250 is gewoon niet realistisch.

Daarbij is het nog de vraag wat de custom rx480 gaan doen qua prestaties en stroomverbruik.
highend als in 2 jaar geleden ja... Enuh de RX480 haalt in de meeste benchmarks nog maar net de 970, in sommige zelfs die niet eens..
Je zegt het zelf al "waren zeker high end".

Hoe kan iets wat nu gereleased wordt vergelijken met wat vroeger high end was ?

Bijvoorbeeld:
Dan zou een smartphone van nu 130 euro een high end toestel zijn omdat die nu de zelfde prestatie's heeft als een oudere smartphone van 600 euro ? dus dan is het gelijk een high end killer ? |:( wat niet kan omdat een smartphone van nu die 600 euro kost weer high end is. dus vallen allebij de toestellen toch uit het high end segment ?

[Reactie gewijzigd door 88Gamer88 op 3 juli 2016 11:30]

Je kan het er mee vergelijken omdat het nogsteeds word verkocht. En een 980 is nogsteeds High End.

Daarbij als er alleen maar smartphones op de markt zijn tussen de 500/600 euro en jij bent de enige die dezelfde prestatie levert als de smartphone van vorig jaar voor maar ¤200 dan kan je daar zeker mee meten.

Er zijn maar 2 spelers in GPU land, dus je moet het wel met elkaar vergelijken. Ik vergelijk elke kaart met elkaar, en ik kijk dan eerst wat ik wil betalen voor een kaart. En daarna pas wat voor prestaties ik kan krijgen. Als ik nu zie dat de rx480 (een nieuwe kaart) van ¤219 vergelijkbaar scored als een 970/980 (wat nogsteeds High End is) dan vind ik dat toch wel een prestatie. Er is momenteel geen andere speler die vergelijkbare prestatie geeft voor deze prijs.
En een 980 is nogsteeds High End.
De 980 was een high-end kaart, nu is het een verouderde, vervangen en ingehaalde kaart. Dat de mid-range 480 dezelfde prestaties haalt is hier juist het bewijs van.
Daar zijn de meningen dan over verdeeld want ik vind een 980 zeker nog wel High End. Weinig mensen die die kaart hebben of kunnen betalen. Ook in benchmarks komt de kaart nog goed mee.
Dus in jouw ogen is de Intel IGP van een celeron een high-end kaart, want hij zet betere prestaties neer als een Voodoo2 SLI setup? Dat was immers ook een high-end setup.... bijna 20 jaar geleden.
Dat de 480 prestaties haalt vergelijkbaar met de vorige generatie high-end kaarten is in mijn ogen wel het minste dat je mag verwachten van een mid-range kaart, maar dat maakt het zeker geen high-end kaart.
Ik snap ook niet dat de 970 en 980 er steeds bij gehaald worden, die kaarten zijn verouderd en niet relevant meer in mijn ogen.
Misschien moet je mijn tekst eerst lezen voordat je gaat reageren. Ik noem de rx480 nergens High End. Ik zeg alleen dat het zich kan meten met high end van de vorige generatie voor een lage prijs.

Jij snapt die vergelijking niet, maar mensen die geen ¤600+ hebben te besteden kijken daar wel naar. Want die zien nu een kaart die zij kunnen (lees: willen) betalen en dezelfde prestaties levert als een high end kaart van vorig jaar.
en aangezien de rx480 zich daar mee kan meten is het zeker een high end Killerr voor een wat beperkter budget.
Je noemt het wel degelijk een high-end killer, en dat is het niet, hij verslaat oude high-end kaarten, geen nieuwe. Wat moet de 1080 dan wel niet zijn volgens jouw logica, een super-duper mega high-end killer? Hij is immers flink sneller dan een "high-end" 980...
De 1080 is huidig High End. En dat maakt de 980 niet minder want hij presteert door de 1080 niet opeens minder.

De 980 blijft High End en de rx480 is daarvan een goeie concurrent voor een veel betere prijs.
De 1080 is huidig High End. En dat maakt de 980 niet minder want hij presteert door de 1080 niet opeens minder.
Hij presteert relatief gezien wel "opeens" minder, hij kan immers niet meer meekomen met de huidige high-end kaarten. Als nVidia er een 1060 sticker op plakt (en ze zijn niet vies van wat rebranden) hebben we het opeens over een mid-end kaart..
Wat betreft nVidia bestaan de 980 en 970 niet eens meer voor de desktop: http://www.geforce.co.uk/hardware
Wanneer de fabrikanten zoals MSI, ASUS en co hun custom kaarten (weet niet of het de juiste benaming is maar jullie snappen wel wat ik bedoel) lijkt het me toch waarschijnlijk dat deze dan een PEG8 aansluiting of 2 PEG6 aansluitingen of zoiets dergelijks zullen gebruiken om deze problemen te omzeilen en dus ook max prestaties en overclocken mogelijk te maken? Correct me if I'm wrong!

[Reactie gewijzigd door Mylan Piron op 3 juli 2016 10:17]

Dat lijkt me erg waarschijnlijk, heeft MSI ook gedaan bij de 1000 series van NVIDIA met hun GMAMING X variant.

Beide 6 & 8 pin:
pricewatch: MSI GeForce GTX 1080 GAMING X 8G
pricewatch: MSI GeForce GTX 1070 GAMING X 8G

MSI's FE, 8 pin:
pricewatch: MSI GeForce GTX 1080 Founders Edition 8GB
pricewatch: MSI GeForce GTX 1070 Founders Edition 8GB

En MSI is niet de enige, bij bijvoorbeeld ASUS zie je dit ook.
AMD is niet degene die zei dat ze de performance van bijvoorbeeld een 980 ti of beter zouden halen. Zelf hebben ze als ze het over performance hadden altijd gezegd dat hij in de 970/980/390/390X range zou zitten. Hier wezen eerder gelekte benchmarks ook op. Het zijn de fanboys die het zo erg gehyped hebben dat mensen gingen geloven in 980 ti/1070 performance voor $200.
Ik denk dat dit vooral voor PR een flinke dreun gaat geven. Eerst was die RX 480 gehypt als 980 killer, nu komt hij in de meeste scenarios maar net voorbij de 970 en de negatieve aandacht voor die overschrijding van de PCI-E specificaties geeft nog een klap na. De 'custom' kaarten zullen hopelijk wel beter zijn, met 2*6 pins of 1*8 pins aansluitingen hoef je veel minder uit het PCI-E slot te trekken en kun je de clocks ook nog wat omhoog gooien. Qua performance/euro prijs is de 480 erg goed, dus het is nog steeds een interessante kaart, maar ik zou echt wachten op de custom kaarten.
Niet overdrijven he. De RX480 gaat bijna in alle games vlotjes over de 970 en in sommige is hij zelfs even rap als de 980.
Waar komt het beeld / hype vandaan dat het een gtx980 killer zou moeten zijn?

Ik heb me niet heel veel in lopen lezen, ik heb alleen de rumours en de leaks gezien die bijvoorbeeld hier op Tweakers.net als nieuws kwamen, en bij mij zat toch echt te verwachting 'wie weet gaat ie net zo snel worden als een gtx970 voor minder geld' wat redelijk lijkt te kloppen.

Als ik op andere sites kijk en naar de geleakte specs zie ik ook nergens waar gtx980-levels van performance vandaan zou moeten komen.

Het is gewoon een beetje de HD48xx vs GTX 2xx launch al over again. Ja nvidia is veel sneller maar ook veel duurder, AMD zit bij launch op het punt wat de meeste mensen nog wel willen uitgeven aan een videokaart. Nvidia waren toen alleen de heethoofden qua energie en thermals, nu is die rol een beetje omgedraaid :).
Dinsdag gaan we niks merken. Ze gaan een Nvidiaatje doen: de fix uitstellen tot de focus op wat anders ligt. Lees: in dit geval wachten tot er voldoende custom kaarten zijn met 8-pins stroomconnector. En dan stilletjes de gefixte en minder presterende reference kaarten voor een prikje doorverkopen aan systeem-bouwers.

Dit gaat hen geld kosten. En reputatie-schade opleveren. Iets wat ze gezien hun positie konden missen als de pest.

Hopelijk gaan de custom kaarten niet fors duurder uitvallen, of het gaat nog moeilijk concurreren worden met GTX1060. (Vooral op het vlak van prestaties/watt; beetje Hawaii tegen Maxwell-verhaal)

AMD heeft zich (wederom) hard in de voet geschoten. Binnenkort hebben ze geen voeten meer over. Zo jammer dat het management in hetzelfde bedje ziek blijft. (En natuurlijk niet meteen kan oplossen wat de voorgangers fout deden: inzetten op 100 paarden, telkens van koers wisselen en R&D wegbezuinigen.)

[Reactie gewijzigd door Jack77 op 3 juli 2016 10:56]

Je zegt het eigenlijk zelf al met "ze gaan een NVidiaatje doen". NVidia heeft bij releases net zulke problemen, of nog grotere (3.5GB fiasco van de GTX970, de GTX 1070 en GTX 1080 die 2 maanden na de release nog steeds nauwelijks verkrijgbaar zijn).

En nee, ik verwacht niet dat de 3rd party versies van de RX 480 veel duurder worden. De Sapphire RX 480 Nitro staat al als pre-order op Overclockers.co.uk voor een prijs van £249, terwijl de stock RX 480 8GB op diezelfde site voor £229 tot £249 gaan.
Juist, in pond. Niet in Euro.

Met "een Nvidiaatje doen" verwees ik vooral naar het DX12/async compute gegeven bij Maxwell. Iets lang genoeg negeren tot het minder een issue is.

De reden achter het tekort aan 1070/1080's is volgens mij nog niet geheel duidelijk.

En aan de reeds gebenchmarkete prestaties van de GTX970 wijzigde ook niets door de wetenschap dat het 3,5 + 0,5 GB was. (Marketing-spin gewijs klopte het verhaal ook. Er was 4 GB aanwezig, en er was - voor een deel van het geheugen - voldoende bandbreedte. Fair was het wel niet.) En het was ook niet potentieel een probleem voor de gezondheid van de gebruiker zijn systeem.

Al is het dus wel zo dat Nvidia problemen graag gewoon negeert. Alleen heeft dat bedrijf geen marketing-afdeling die graag problemen zoekt (cfr. AMD).
Er is trouwens nog wat bekend geworden, het blijkt dat de RX-480 4GB versies geflashed kunnen worden naar 8GB, omdat blijkbaar die 8GB wel geïnstalleerd is maar niet geactiveerd.

http://www.legitreviews.c...o-cards-8gb-memory_183548\
Want in on a little secret? AMD and their board partners had some problems sourcing enough 8Gbps GDDR5 memory for the Radeon RX 480 launch today. That caused AMD to lower the clock speeds at the very last minute, so now the Radeon RX 480 will be using at least 7Gbps GDDR5 memory and we have learned that ultimately it is up to the board partners to pick what they want to use. Since there was not enough parts to build the Radeon RX 480 4GB cards for the launch today all the at-launch cards are shipping with 8GB of 8Gbps GDDR5 memory.

[Reactie gewijzigd door CriticalHit_NL op 3 juli 2016 17:02]

Juist, in pond. Niet in Euro.
Ik neem aan dat je een dusdanig inzicht hebt dat wanneer een product in Britse ponden 5 tot 10% meer kosten, je vrijwel zeker kunt zeggen dat de prijs in euro's ook 5 tot 10% hoger zal worden? 229 pond komt neer op 273 euro, de RX 480 GB is op dit moment in Nederland ~279 euro; de bedragen komen zo goed als overeen.

Zou de RX 480 Nitro nu ook in pre-order in Nederland komen, kan je dus rustig stellen dat deze voor 299 euro over de toonbank gaat (249 pond is gelijk aan 297 euro). In beide landen zullen de prijzen zowel van de reference kaarten, als ook de aftermarket kaarten, binnen een week of 2 a 3 na de release nog wel wat dalen. De goedkoopste RX 480 8GB is hier b.v. inmiddels ook al te krijgen voor 269 euro, over een paar weken zal dit vast naar 259 euro gaan. Hiermee zullen aftermarket kaarten ergens richting de 279 tot 299 euro gaan, speciale, hoog overclockte, versies wellicht 309.
Met een prijs van 300, is het verre van de prijsbreker die de kaart moest zijn. (De prijs-prestatieverhouding zal dan niet zo veel beter meer zijn van een GTX1070.) En de prijs zal dan nagenoeg gelijk zijn aan die van de GTX1060.
269,- voor de 8gb, en gaat wel zakken. AIB kaarten gaan er niet veel boven zitten. 1070 is sowieso een stuk duurder. Dus misschien prestatie/prijs wel gelijk, maar net een ander budget. Voor 1080p is de RX 480 genoeg. En momenteel heeft Nvidia weinig kaarten in die serie op voorraad in de winkels.
Mijn punt was gewoon dat het niet meer de grote prijsbreker was die ze hadden voorgespiegeld.
En je wilt zeggen dat de GTX970 en 980 geen high-end kaarten zijn? Die kaarten kosten nu anders nog best wel wat geld en deze RX480 is een stuk goedkoper als ze wat meer leverbaar worden :)
Die mag je wel eens uitleggen, want ook nu kan ik de 970/980 niet halen voor ¤219. Dus hoezo anderhalf jaar te laat?

Volgens mij is AMD gewoon op tijd, helemaal in dit prijssegment.
En als de GTX1060 uit is, kunnen we echt zien wat de RX480 waard is.
Inderdaad, ik wil zelf ook graag een nieuwe GPU en wacht sowieso op de custom rx480 en wat de 1060 gaat doen qua prijs/prestatie.

Ik neig zelf naar de 1060, omdat hij volgens de geruchten net iets beter gaat presteren voor een kleine meerprijs.
Kijk deze video van PCper met meer info maar als je wil weten waar het juist over gaat (velen hier tonen met hun reactie aan het niet helemaal goed te snappen, ook al worden ze dan +3 gemod) :
https://youtu.be/ZjAlrGzHAkI

Verder is het probleem nog wel wat complexer en brengt het andere issues met zich mee (teveel terugklokken,belabberde benchresultaten enz.)

Er zijn ook al verschillende gevallen bekend van kapotte MB's en PCIe sloten door RX 480 .
Voorbeeldje : https://community.amd.com/thread/202410
Zelf zonder overclock of powerlimiet te verhogen , dus gewoon alles stock .

AMD is ondertussen al een driver aan het testen die het probleem zou moeten oplossen . Wat de mogelijke gevolgen zullen zijn van deze fix is momenteel niet gekend .
http://wccftech.com/amd-statement-rx-480-pcie-power/

Het feit dat AMD dit zo snel aanpakt geeft al aan dat dit absoluut niet om een storm in een glas water gaat , zoals sommigen het durven omschrijven .

Nee andere kaarten hadden dit niet in het verleden , ook niet de 960 kaart waar veelvuldig naar verwezen wordt . RX 480 is de eerste kaart die dit probleem heeft (zie ook eerste videolink in mijn post met een uitvoerige test van de 960) .

[Reactie gewijzigd door CrimInalA op 3 juli 2016 11:13]

Voor wat betreft jouw link naar het AMD forum: ik heb helaas de Reddit post niet bij de hand, maar er zitten in die thread een aantal mensen (ik zal ze maar even NVidia fanboys noemen), die zonder enig bewijs moord en brand schreeuwen. Er zitten zeker valide klachten tussen, maar neem het met een korreltje zout.

Dat de stock RX 480's soms een probleem kunnen hebben is zo, in hoeverre dit een groot of klein probleem is durf ik nog niet te zeggen. De openingspost op dat AMD forum is al zo'n twijfelgeval. Hoe vaak is het al niet voorbij gekomen op ons eigen forum dat het gebruik van een zeer matig/slecht moederbord zoals het daar gebruikte ASRock 970 Extreme4, met zeer slechte power delivery, in combinatie met een AMD FX-8xxx chip funest is?
Wat doet deze persoon: neem een FX-8350 op dat moederbord, overclocked deze ook nog, stopt er een GPU in die ook wat veel van het moederbord vraagt (en flink wat meer dan zijn oude GTX 750Ti) en klaagt dan dat z'n moederbord gefrituurd wordt. Ik noem het vervelend voor die persoon, maar zijn probleem is meer te wijten aan een slecht moederbord dan aan een GPU die iets teveel vraagt.
Heb dat topic op het amd-forum eens doorgelezen.
De poster heeft een niewe kaart gekocht, daar gedurende lange tijd 7 uur mee gegamed waarna de pci-e poort waar de nieuwe kaart in zit het begeeft. Hij antwoord steeds netjes op posts en geeft de gevraagde foto's en informatie.
Temperaturen weren goed, alles liep prima tot het moment van falen en het energie gebruik was makkelijk binnen het bereik van de voeding.
Vervolgens werkt de pc ook prima, alleen die ene pci-e poort is niet meer bruikbaar.

Er zijn daar mensen die roepen dat hij de boel oplicht... zijn pc vies zou zijn ... ... ... dat er verschillende borden getoond worden ... ( nou ja check de plaatjs en je geloofd die mensen ook niet meer) etc.
Gigantisch veel haat en zwartmakerij ... terwijl hij gewoon wil weten of hij veilig kan gamen met de kaart in de 2e poort op zijn bord.

Het verhaal komt mij redelijk over.
Het lijkt er sterk op dat zijn jaar bordje een kaart krijgt die erg veel stroom door een aansluiting trekt die daar helemaal niet op berekend is.
Zonder er zelf bij geweest te zijn kun je niets echt zeggen. Maar wat hem gebeurde lijkt mij precies wat je zou verwachten wanneer een ontwerpfout de connectors in een voedings-aansluiting overbelast.

Hoe slecht een moederbord ook zou zijn, die connectors zijn niet bedoeld voor zulke stromen, de combinatie met een minder bord en mindere voeding, andere 12V gebruikers op het bord etc, vergroten het risico inderdaad.
Dan zakt het voltage op het bord eerder, waardoor de benodigde stroom (in Ampères) alleen maar toeneemt, en de boel op de zwakste plaats te heet wordt.
De combinatie van bord cpu en een upgrade van een video kaart lijken mij ook heel redelijk voor de doelgroep van deze kaart.

Dan vind ik het zwaar onterecht om de schuld maar bij koper te leggen die alles netjes volgens specs heeft aangeschaft een aangesloten. En er gewoon mee gamed, je zou het zelf kunnen zijn.
tjah als je bijna 600w over je MB wilt laten lopen ben je ook niet echt goed snik
Men leest 480 met power throttling omdat een aantal testers de moeite hebben genomen om te kijken waarom de reference versie net zo snel is als de OC versies.
Ze komen tot de conclusie "hey kijk als je de power limit dus verhoog in gpu boost of wat voor tool dan ook dan komt mijn 480 tot zijn recht"
En dan na een aantal uurtjes brand je PCI-E bus door op je El-cheapo non-OC mobo.......
De 480 is niet de top model en is ook niet bedoeld voor OC geklooi.

Als ik een dergelijke test lees over dit zegt het mij juist dat de polaris chip nog wel eens interessant zou kunnen zijn met de komst van de top modellen en niet dat ik budget kaarten moet gaan stressen en verwachten dat het zonder slag of stoot gaat.

Er moet zoveel gezond verstand en info totaal aan je voorbij zijn gegaan om dit voor elkaar te krijgen dat ik met een gerust hart kan zeggen "Eigen schuld dikke bult"
nee want het moederbord geeft niet meer stroom dan het kan geven.. daar kan het niet kapot door
Tuurlijk kan een mobo meer stroom leveren dan voorgeschreven staat in de standaard specs.
Dat is zelfs een van de basis principes van overclocken. Het gaat echter om de materialen die gebruikt zijn en marges die het hardware aankan.
Een OC mobo betekent niet dat er een mooi kleurtje op zit met extra ledjes. Het gaat puur en alleen om toleranties en beschikbare configuratie mogelijkheden van verschillende zaken zoals o.a extra stroom.
Het grap is juist dat verhogen van clock snelheid en stroom op je PCI-e meestal een erg slecht idee is ongeacht hoever je de rest van de componenten drijft. Op een standaard "referentie design" mobo is alles met elkaar gelinked en krijg je cascade effecten mbt het aanpassen van verschillende onderdelen.
OC mobo's hebben juist vaak extra bescherming niveaus ingebouwd om juist clocks, voltage e.d. te scheiden van elke onderdeel om ze onafhankelijk aan te passen zonder andere onderdelen te bijenvloeden.

Als jij dan opeens tegen je GPU zegt je mag +20% power trekken dan zal je pieken kunnen krijgen wat het kaart zelf makkelijk aan kan maar gaat niet zelf bedenken goh ik kan alleen 20% meer van de molex connector trekken en niet van de PCI-e en gaat vrolijk alles omhoog krikken als nodig is.
Als je PCI-e slot gemaakt is van goedkope troep en het mobo zelf geen overvolt protectie heeft op de slot dan gaat die GPU het er gewoon doorheen trekken met alle gevlogen van dien.
Er nog nog niks bekend dat mobo's met bosjes kapot gaan door de 480. Als er maar 1 of 2 gevallen bekend zijn is de kans groter dat het mobo gewoon al brak was en het vervangen van de grafische kaart de trigger was. Had dus net zo goed een fury of 980ti kunnen zijn waardoor het moedeboard het niet meer kon reden.
Jammer dat amd zich zo laat kennen. Het probleem is eigenlijk niet eens een probleem, maar omdat sommige het zo opblazen voelt Amd zich verplicht om er iets aan te doen.......en nogmaals.....Het is niet eens een probleem.

In het verleden zijn er bij Amd en ook bij Nvidia al meerdere videokaarten geweest die hetzelfde probleem hadden en zelfs nog veel erger dan dit. Daar hoorde je destijds helemaal niks over omdat het GEEN probleem is. De Asus Gtx 960 Strix had zelfs pieken van 250 watt wat veel erger is. FEIT is dus dat de moederborden er makkelijk tegen kunnen.

De rede dat Amd er nu wel iets aan doet is omdat de rest het allemaal zo opblaast. Jammer dat Amd erin trapt. Ze hadden beter de voorbeelden van het verleden kunnen noemen zodat iedereen weet dat het geen probleem is of zou moeten zijn.
Zo merkte Tom's Hardware op dat het gemiddelde verbruik over het pci-e-slot onder load hoger lag dan de gestelde limiet van 75 watt
Dat het totale verbruik van de kaart hoger ligt is inderdaad niet zo interessant, maar als de kaart meer dan 75W door je PCI-e pinnetjes gaat halen (afgezien van de externe voeding die hij nog krijgt) is dat wel interessant. Dan kan mogelijk schade aan je moederbord of zelfs gevaarlijke situaties opleveren.
Echt de grootste onzin wat erg opgeblazen wordt. Je moederbord kan er makkelijk tegen.
Het is in het verleden al meer gebeurt en VELE malen erger zelfs.
Alleen toen hoorde je er niks over raar genoeg.

Kijk dit filmpje maar eens: https://www.youtube.com/watch?v=kFuYc2FHgjw
Mensen vergeten dat dit zeker niet de eerste keer is dat een gpu over de specs van PCIe gaat. Zo had de gtx 960 exact het zelfde probleem. Echter zijn deze pieken voor mili seconden en daarmee nauwelijks een probleem voor je hw.

AMD heeft het pcb van bijzonder goede qualiteit gemaakt dus de chip zelf zal hier niet snel onder leiden.

Waarschijnlijk zal de update een hele lichte undervolt geven ( aangezien gebleken is dat daar nog aardig wat ruimte zit) en zo zal het gemiddelde gebruik weer dichter bij de 150 zitten.

edit
de rx 480 4gb versie verbruik dankzij wat minder en langzamer geheugen minder stroom, misschien dat ze bij het ontwerp van dit model uitgegaan zijn

[Reactie gewijzigd door holhuizen op 3 juli 2016 12:43]

De gtx 960 strix van asus ja, niet die van nvidia.
Amd zit gewoon fout op dit punt.
AMD heeft de vergissing gemaakt om een 6-pin power connector op de RX 480 te plaatsen.
Als ze een 8-pin of dubbele 6-pin hadden gebruikt was er geen probleem geweest, die hadden het PCIe-slot kunnen ontlasten.

Waarschijnlijk wilde AMD de kaart voor de huis-tuin-keuken PC's geschikt maken, en waren ze bang dat zwaardere aansluitingen deze groep zou ontmoedigen.

Ik wacht i.i.g. even op de AIB versies, hoogstwaarschijnlijk dat de gaming, strix, windforce etc. modellen geen last zullen hebben van dit probleem.
Zelfs als het geen kwaad kan voor het moederbord (zoals holhuizen zegt) dan blijft de extra OC headroom nog steeds reden genoeg voor mij.
Wedden dat ze dachten dat er chips uit de oven zouden komen die minder zouden verbruiken?

De PCB's lagen waarschijnlijk al klaar toen dat niet gebeurde.

En toen bleek dat ze de boel nog aardig hoog hoorden te klokken om toch aan het gewenste/beloofde prestatieniveau te komen. Dus, extra voltage erop en gaan met die banaan.

Alleen is de hype-mallemolen die het internet tegenwoordig is ook ongenadig voor dergelijke "akkefietjes".

AMD: zo'n goeie initiatieven soms, en vaak goeie technologie, maar nog steeds zo'n slecht management en verschrikkelijke marketing.

[Reactie gewijzigd door Jack77 op 3 juli 2016 22:57]

Aan de ene kant ben ik het eens dat AMD dit niet had moeten doen, gewoon 8-pin erop en gaan. De meeste gamers boeit het niet zoveel dat een videokaart 20 watt extra nodig heeft, en bijna elke (goede) voeding heeft die wel.

Maar aan de andere kant was polaris make or break voor die jongens, Nvidia heeft gewoon een enorm marktaandeel, en ze hebben de afgelopen jaren niet meer kunnen concureren met team groen.
Ze hoopten ook dat de RX een lievelingetje van system integrators zou worden (Alienware, Dell, HP) en cohorten voor de kant-en-klare game PC's.
Die bedrijven zouden deze kaart niet met 8-pins stekker kopen, puur omdat er dan eens degelijke (lees duurdere) voedingen moeten worden gebruikt.
De vraag is: als deze zaak PR-gewijs verder uitdijnt en de RX480 een slechte naam geeft, gaan system integrators dan nog happig zijn op de kaart?

Dan hadden ze beter gezegd: we releasen een gewone RX480 met wat mindere prestaties, zónder overclock-mogelijkheid. En de AIB partners krijgen het recht om de RX480 Ultra versies te releasen, mét 8-pin molex. Dan had het alsnog correct kunnen uitpakken. Nu kan het een PR-ramp worden. Iets wat je kan missen in een make-or-break situatie.

Dit is pure management-paniek/bluf en rotslechte marketing, wat mij betreft.
De echte fout blijkt nog iets complexer, de 6pin word gebruikt voor de core, de PCI-e zou dan mooi het geheugen kunnen doen en klaar. Maar wat blijkt het PCI slot help ook mee de GPU chip te voeden ( om te voorkomen dat er meer dan 75watt uit de 6-pin power connector getrokken word).
En dat is nogal een domme fout !

De 6pin ( vooral de gemuteerde die AMD gebruikt) kan zelf al met gemak 150 watt leveren !
Dus zoals ik het zou doen:
De VRM van de chips krijgen hun stroom via de 6pin aansluiting wat dan tussen de 80 en 90 watt zal zitten onder load.
De VRM voor het Vram krijgt zijn juice via het PCI slot , welke ongeveer 50 - 60 watt is.
Op deze manier had iedere site waarschijnlijk ook gezegd dat AMD over de specificaties heen gaat, maar op die manier is de kans dat het mis gaat veel minder klein...

[Reactie gewijzigd door holhuizen op 4 juli 2016 18:26]

Niet alleen die van Asus. Ook die van Nvidia, alleen het was niet zo erg als AMD. Maar beide zaten fout.

En Nvidia heeft t gefixt en AMD zal dat hier ook doen.
http://www.pcper.com/revi...uating-ASUS-GTX-960-Strix

Nope, dit is wel de eerste keer en zeker zo grof. Kaarten zonder dedicated voedingsaansluiting komen wel vaker dicht bij de limiet, maar andere kaarten belasten deze over het algemeen nauwelijks.
De gtx 960 strix van Asus heeft dit probleem helemaal niet.
Hij trekt stok maar 30W uit het 12V deel van de pci-e aansluiting (rx 480 75W, rated voor 66W)
Wat de 960 doet is meer stroom uit de 8-pins kabel halen, dat is dan wel buiten rating, maar die kan dit veel beter verwerken dan de iele pennetjes in de pci-e aansluiting.

De fout hier is dat er te veel van een connector gevraagd wordt die een vrij harde limiet heeft. De 1.1A per pin is namelijk de limiet van de connector. De 6-pen connector kan daar en tegen zelfs in de meest cheape connector al 3A leveren ...
Het moederbord en de videokaart zelf zullen het prima kunnen, maar die connector ... een beetje oxidatie op termijn kan wel eens een pci-e poort onbruikbaar maken, door oververhitting.

http://www.molex.com/pdm_docs/ps/PS-87715-200.pdf
offtopic:
Ik neem aan dat 150 75 moet zijn?

Edit:

Nevermind, je bedoeld het totale gemiddelde energieverbruik en niet het pci-e-slot gebruik...

[Reactie gewijzigd door Swerfer op 3 juli 2016 10:46]

Zo had de gtx 960 exact het zelfde probleem.
Nee. Helemaal niet zelfs.
Van wat ik er zo over gelezen heb, komt het regelmatig voor dat er bij pieken meer getrokken wordt dan volgens de specificaties mag. De vraag is dan altijd wanneer dit een probleem gaat worden, maar voor een videokaart is het niet bepaald handig.

Als je een kaart met een rated TDP van 150W aflevert met maar 1x6-pin, is dat wat mij betreft vragen om problemen. De TDP is in de regel een schatting van het opgenomen vermogen en pieken daarboven gaan voorkomen (tenzij je die actief de kop in gaat drukken, waarmee je de full-load prestaties natuurlijk afkapt op een power-plafond). De GTX 1070 zit ook op een rated 150W en daar zie je een 8-pins op de reference...sommige customs hebben zelfs 8-pin + 6-pin (lolwhy?).

Maar goed, ik ga er vanuit dat de custom modellen van de HD 480 met 8-pins uitgerust gaan worden...de reference dus lekker links laten liggen.
sommige customs hebben zelfs 8-pin + 6-pin (lolwhy?)
Voor een (Extreme) overklok. Maxwell staat bekend om een groot overklokbereik, dus willen sommige fabriekanten de mogelijkheid geven dat volledig te benutten
Als je je pc opstart heb je al te maken met een gigantische piek. Daarom zie je vaak dat als je voeding te zwaar belast wordt of veels te krap is bemeten hij al niet eens wil opstarten door die piek. Nadat je pc opstart normaliseert het stroomverbruik.

[Reactie gewijzigd door Tourmaline op 3 juli 2016 12:17]

Weet iemand hoe ze de stroom van de PCI-e slot hebben gemeten? Hebben ze daar riser kaart of zo tussen gezet? Op de pagina ""How We Tested" staan alleen de gebruikelijke dingen zoals systeem specs,OS, driver, etc. De gangbare dingen voor review zeg maar maar geen woord over hoe ze het stroom verbruik testen. Kan dat ook niet vinden op de power consumptie pagina, en de foto's geven ook niks weg. Op de foto zit de kaart volgens mijn gewoon in de PCI-e slot op het mobo.
volgensmij stond er op reddit.com/r/amd er een topic over. Volgensmij waren de testresultaten van tom's hardware.
Persoonlijk vind ik dit een storm in een glas met water.

Maar kan iemand mij eens uitleggen hoe een 8 pin connector meer stroom kan leveren?
De 2 extra pinnen zijn alle 2 0V.
Dus hoe je hier meer vermogen uit haalt weet ik niet.
De elektronen moeten toch ergens naar de 12V lijn kunnen vloeien?
De gpu gebruikt geen 12 volt, deze wordt omgezet naar een lagere spanning op de grafische kaart.
12 volt en 3 volt maken dus niet uit als alles wordt omgezet naar 1,5 volt bijvoorbeeld.
Een 8 pin connector kan niet meer stroom leveren. Die 2 extra pinnen zijn alleen maar om de kaart te vertellen dat ie meer vermogen MAG trekken. Als je voeding die 2 pinnen niet heeft betekent dat dus dat die lijn niet meer dan 150w aan kan. Heeft je voeding die pinnen wel, maar sluit je ze niet aan, dan denkt de kaart dat ie niet meer dan 150w mag trekken, dus doet ie dat ook niet.
Bedankt voor de uitleg.

Dient eigenlijk gewoon om te zeggen dat de kabel doorsnede en achterliggende voeding voldoende is om x aantal Ampere te trekken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True