Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties

AMD is van plan binnen drie maanden een videokaart uit te brengen op basis van een nieuwe energiezuinige gpu met codenaam Tonga. Dat beweert althans de site Videocardz. De kaart moet het waarschijnlijk op gaan nemen tegen de GTX 750 en 750 Ti van Nvidia.

Tonga is geen high-endprocessor maar een gpu voor mainstreamkaarten met 2GB geheugen. AMD heeft zich bij het wijzigen van de architectuur op het aanzienlijk terugbrengen van het verbruik gericht, claimt Videocardz, dat vaker informatie over videokaarten correct vroegtijdig naar buiten brengt. De naam van de kaart is nog onbekend, maar de site noemt R9 275X als een logische aanduiding.

Onduidelijk is welke wijzigingen AMD heeft doorgevoerd, maar wel wordt melding gemaakt van functionaliteit met de naam PowerTune Boost. Ook zouden GCN-functionaliteiten als Mantle, TrueAudio en mogelijk XDMA CrossFire aanwezig zijn. De gpu zou in ieder geval nog niet op 20nm geproduceerd worden en ook voor High-Bandwidth-Memory, waar eerder geruchten over waren, is nog geen ondersteuning aanwezig.

Moderatie-faq Wijzig weergave

Reacties (63)

leuk om te zien dat AMD een nieuwe kaart gaat maken ik ben benieuwd :) zeker in het budget gebied waar de 750 en de 750 TI in vallen lijkt het me leuk vooral als ik naar de prestaties van de R9 270 en de R9 270X kijk en zuinig lijkt me ook leuk want dan past het mooi in een zuinige game pc

ik ga hier zeker naar uit kijken

[Reactie gewijzigd door parkeerwacht op 16 mei 2014 11:24]

Zeker. Vooral omdat ze eindelijk door lijken te hebben dat het verbruik van videokaarten toch wel uit de hand aan het lopen was.

Ik heb omdat ik niet meer game mijn videokaart net vervangen. GTX580. 120 watt idle en ruim 420 watt onder load.
Het Idle of Load stroomverbruik voor CPU of GPU is nauwelijks relevant voor consumenten.
Om de kleine verschillen in vnl Idle stroomverbruik te overbruggen is gem. 5 tot 10 jaar nodig.

Jouw GTX 580 verbruikt overigens volgens de tabel Idle slechts 29 Watt (OC).
Om het extra loadverbruik (300W) tov een willekeurige andere GPU financieel te overbruggen moet je zo idioot veel uren gamen dat je dan beslist een groter probleem hebt dan je stroomrekening.

Voor Koeling (geluid) en OC resultaten is het verbruik wel van belang.

[Reactie gewijzigd door trm0001 op 16 mei 2014 12:00]

Daarom vind ik de wattage wat een GPU gebruikt vrij onbelangrijk... Als het maar lekker snel is, stil is en als die niet super heet wordt is het mooi meegenomen.

Heb zelf de 580 gtx reference en hij gebruikt wel wat, maar inderdaad de verschillen zijn eigenlijk zo klein...

Dat je flink wat uren mag gamen om dat verschil terug te krijgen. Bovendien zal je geen sociaal leven hebben :P

Zuinigheid in een laptop kan ik begrijpen inverband met de accu.. Maar een desktop? Kommaan... Ga nu maar focussen op snelheid!

[Reactie gewijzigd door Ferluci92 op 16 mei 2014 12:04]

Een zuiniger videokaart betekent ook dat er dan minder koeling vereist is, minder zware spanningstoevoer, etc. Alles rond de gpu wordt er dus eenvoudiger en goedkoper van. Daarnaast betekent het ook dat je voor hetzelfde verbruik als vroegere topkaarten nu nog snellere kaarten kunt bouwen.

Door zuiniger en minder warme systemen zijn er nu ook form factors mogelijk waar je vroeger van kon dromen. Eigenlijk is ATX voor een gamer totaal overbodig, je kunt al een heel krachtig mITX systeem samen stellen als je nooit CrossFire of SLI gaat gebruiken en geen 6 HDD's nodig hebt. ATX is eigenlijk alleen nog nodig om meer koeling te installeren, maar er zijn mITX kastjes die ook met waterkoeling om kunnen.
Die mening deel ik niet. Ten eerste is het verbruik ook sterk verbonden aan de mogelijke snelheid van de kaarten. Die kaarten worden nu al zo belachelijk heet door dat enorme vermogen dat ze met moeite koel te houden zijn.

Dat zorgt er tevens voor dat ze teveel lawaai maken.

Bovendien geef ik liever meer geld uit aan mijn pc, dan aan mijn energie rekening.
Dat bedoel ik ook, natuurlijk is het mooi meegenomen dat het minder heet word en natuurlijk is het verbonden aan elkaar.

maar dit is mijn prio:
Snelheid > stilte > warmte > wattage
Dan ligt je prio verkeerd.

Minder verbruik = minder warmte = stiller = meer snelheid.
Niet echt logisch wat je hier zegt. GPU X met 1000 stream processors gaat niet opeens meer performance leveren als ie 10 graden koeler loopt. Voor het ophogen van de kloksnelheid op diezelfde GPU is namelijk wél gewoon een hoger verbruik nodig, wat ook weer resulteert in meer warmte.

Wat je bedoelt is natuurlijk iets totaal anders, namelijk het verhogen van de performance per watt.

Wat dat betreft verwacht dus ook geen wereldschokkende resultaten van de 'Tonga' GPU. Baby steps...

[Reactie gewijzigd door Vayra op 16 mei 2014 13:19]

Mijn prio is goed, maar om bij mijn prio te komen is een ander verhaal hè ;).

en inderdaad wat Vayra zegt doel je dan ook meer op performance per watt.
Dat is leuk dat dat jouw prio is, maar die van mij ligt nu ergens anders. Dat kan je toch wel begrijpen hoop ik?
Gelukkig zijn alle mensen verschillend, dus natuurlijk begrijp ik dat;).

Laten we hopen dat de technologie hard vooruitgaat van zowel AMD als Nvidia zodat we in 2015 een mooi 4K jaartje tegemoet kunnen gaan zonder SLI te gebruiken.!

p.s. Natuurlijk kan het allemaal wel, maar natuurlijk niet op ultra:p.
Mooi hoor die 4K monitoren. Maar ze verbruiken dus ook 4x zoveel stroom. Daar kan geen zuinigere videokaart tegenop.
Ik vond ook dat het niet uitmaakte. Nu ik eigenlijk niet meer game en ik aan het kijken ben waar ik kan bezuinigen op de energierekening zijn dit echt wel de dingen waar je naar moet kijken. Dus om het niet relevant te noemen vind ik erg kortzichtig eerlijk gezegd. En als het dan ongebruikt is, is het geld weggooien dat je goed voor iets anders kan gebruiken, simpel.

Volgens de tests hier op Tweakers is de idle usage 120 watt en load 422. Nu had ik een Asus DCII welke standaard al iets OC'd was dus zal mischien nog wel iets hoger liggen. Ik heb er nu een GT 430 passive in zitten, reken maar dat je dat gaat merken op je energierekening als je pc veel aan staat.
Je eigen posts zijn pas kortzichtig, incompleet en incorrect:

De GTX 580 verbruikt per kaart gemiddeld 30 Watt Idle (N.B. info uit 75 Samples)
http://tweakers.net/ext/f/2BS2R07OeTUp8RMryVxTX6FQ/full.jpg
Die 120 Watt Idle is ofwel een broodje aap verhaal of domweg total system power.

Ik zeg nergens dat het stroomverbruik van Gamers videokaarten niet relevant is.
Wat ik zeg is dat het Idle verbruik daarvan nauwelijks relevant is voor consumenten.

Jij gaat al uit van de (bewust ?) verkeerde Watts, dan is het moeilijk argumenteren.

Je wil Gamen of niet, voor een vergelijkbare performance zul je altijd Idle wat meer Watts kwijt zijn dan bij een niet-game-systeem. Heb je dat er niet voor over (enkele euro's per jaar) dan is het Gamen je blijkbaar weinig waard.

Idle schat ik 1 GT 430 in op 10 Watt, voor 2 stuks dus 20 Watt.
Het stroomverbruik verschil met de GTX 580 (30Watt) tov de 20 Watt voor de 2 GT 430 kost bij een gemiddeld consumenten gebruik van 15 uur per week de pc aan, maar liefst 1 euro en 75 cent per jaar......... 8)7

Daarvoor lever je +/- 75 procent van de performance in van de GTX 580 kaart:
http://www.videocardbenchmark.net/gpu.php?gpu=GeForce+GT+430
http://www.hwcompare.com/...t-430-vs-geforce-gtx-580/
http://gpuboss.com/gpus/GeForce-GTX-570-vs-GeForce-GT-430

[Reactie gewijzigd door trm0001 op 16 mei 2014 15:19]

Dude, whatever.

Ik gebruik de kaart niet meer dus ik vervang het met iets wat in de kast ligt. Wat loop je nou te discussieren man? Al scheelt het me maar een tientje in een jaar dan is het nog steeds een tientje dat ik ergens anders aan kan besteden.

Ik noem het kortzichtig omdat je het niet relevant noemt. Jij vind het niet relevant maar mijn prioriteit ligt anders, ik vind het wel relevant.

Dus ja, ik lever 75% van m'n performance in, performance DIE IK NIET GEBRUIK.

edit: vervelende reactie weggehaald om het gezellig te houden - sorry.

[Reactie gewijzigd door InflatableMouse op 16 mei 2014 15:41]

Nog vergeten, met een beetje een ongunstige verkoop van de GTX 580 en iets dure aanschaf van de 2 GT 430 ga je er met 1,75 euro per jaar aan stroombesparing ws vele decennia over doen om dat terug te verdienen.

Ik reageer op jouw foute posts om de informatie hier correct te houden.

@hieronder: 120 Watt of 30 Watt is een te groot verschil, daar ging het mij om. Bij 1 GT 430 hou je maar liefst 3 euro en 50 cent over per jaar. :O

[Reactie gewijzigd door trm0001 op 16 mei 2014 16:56]

Hoe kom je nou bij 2 GT430? Ik heb er maar 1, die lag niets te doen in de kast. Dat ding is betaald, afgeschreven, heeft z'n tijd eigenlijk al gediend in een oude HTPC.

Dus ik bespaar op m'n energie rekening, vang 100 euro voor de GTX580 uit juli 2011 en ik hergebruik iets wat niets lag te doen.

En wat doe ik nou precies fout? Oh - dat ik correcte getallen verkeerd had geinterpreteerd. Juist. Had ik hieronder in reactie op haarbal al toegegeven. Eindeloze discussie voor niets. Idee: zullen we er over ophouden :D.
Als je niet meer gamed, moet je niet enkel je videokaart uitwisselen, maar direct je hele systeem de deur uit doen en er een zuinige cpu aanschaffen met een energie efficiente voeding aanschaffen.

Zo kun je van 100 watt idle makkelijk naar 30 watt idle.
Stel je PC staat 12u per dag aan, scheelt dit je 70 euro per jaar aan energiekosten.

Reken maar uit de t.v.t.
Voor gamen boeit het minder, aangenomen dat het een uurtje of 3-4 per dag is. Voor minen, of grazen ( }:O ) uiteraard meer. Bij 24/7-gebruik kost een W je op jaarbasis 2 euro. Do the math ;)
klopt in mijn gaming pc zit een 280X man dat ding slurpt energie zelfs op idle
Op idle vind ik het zelf nogal meevallen...
110W voor het volledige systeem met een Haswell i5 en 2x 280X. Full load is het hoogste dat ik hem ooit gekregen heb ongeveer 600W met lichte overklok van GPU's en CPU tijdens het draaien van 3DMark. Bij normaal gamen blijft het meestal onder de 500W.
Ter vergelijking, een laptop verbruikt niet meer dan 100 watt op volle belasting (inclusief scherm). Oftewel je kan 6 laptops hebben draaien voor jouw pc tijdens het gamen. Of 60 routers, of 200 RasPi's, of 1,2 wasmachine, of een 2/3 magnetron continu of 1/10e Nissan Leaf bij 50km/h. Dat laatste is leuk: laat 20 mensen een laptop gebruiken ipv een Desktop om te gamen en je kan van de uitgespaarde energie iemand continu in een auto laten rijden.
Aangezien een gemiddeld persoon gemiddeld maar 1,5 uur per dag onderweg is, zal je maar 15 mensen nodig hebben die over moeten stappen op een laptop om 1 persoon "gratis" te laten rijden met een elektrische auto, uitgaande dat mensen 3 uur per dag gamen.

Maar aan de andere kant gezien, die 600 watt voor een Desktop + beeldscherm, kosten in een uur net zo veel energie als de zon in elke microseconde op onze aarde stort.
Mijn laptop verbruikt op volle belasting ongeveer 17W, maar wanneer ik op mijn PC aan het gamen ben, moet die laptop zelfs helemaal niet aan staan. Wanneer ik een beetje fatsoenlijk wil gamen, moet ik (zoals je wel ziet aan het energieverbruik) niet echt mijn laptop bovenhalen, want daar zou ik niet ver mee komen.

Kortom, je vergelijkt hier machines die voor totaal andere doeleinden gebouwd zijn. Als je de aankoopprijs meetelt van een gaming-laptop die zelfs maar een beetje in de buurt komt van mijn PC, kan ik heel lang gamen voor ik het prijsverschil heb goedgemaakt.

En over al die vergelijkingen... misschien gewoon eens de fiets nemen, dat vebruikt nog minder.
Toch blijf ik 110W idle veel vinden. Klokken die videokaarten wel terug in idle? Heb je soms de cpu energiebesparingsfuncties uitstaan?

Ik heb een 7790, natuurlijk veel minder krachtig dan 2x 280X maar mijn systeem doet idle maar iets van ca. 40-45W. En ik vind dat nog steeds veel vergeleken met een laptop die onder de 10W zit. Zuinigere videokaarten zijn mooi maar ik zie liever Optimus/Enduro eindelijk eens naar de desktop komen. Heb ik ook nog iets aan de igp in mijn cpu.
CPU energiebesparing staat aan. De videokaarten klokken weldegelijk terug, maar ik weet niet vanbuiten tot welke snelheid.
40 a 45W idle voor je hele systeem vind ik wel aardig weinig met een 7790, zeker vergeleken met deze test (http://www.bit-tech.net/h...deon-hd-7790-1gb-review/8).
De mijne leunt redelijk dicht aan bij (http://www.tomshardware.c...270x-r7-260x,3635-18.html) met een multi-monitor setup van 2 monitoren in mijn geval.

Vergeleken met mijn vorige PC met een Q6600 en een AMD 4870 vind ik het aardig meevallen, want die zat rond de 110 a 120W idle. De 80PLUS gold voeding in de nieuwe PC zal ook wel helpen om het wat binnen de perken te houden.
Ah, 2 monitoren...dan klokken de videokaarten niet naar de laagste idle stand en dat scheelt aanzienlijk.

Over die meting bij Bittech:
Intel Core i5 3570K (operating at 4.2GHz – 42 x 100MHz)
zou goed kunnen dat ze eist/c-states uitgeschakeld hebben.
Asus Maximus V Extreme motherboard
high-end mobo, verbruikt meer dan gemiddeld
Lepa G1600 1600W PSU
zeer inefficient bij dit soort lage belasting (laag tov. 1600W).

Tom's geeft alleen het verbruik van de videokaart zelf weer. Daar zie je ook dat de 280X gewoon 31W extra verbruikt met multi-monitor opstelling. Daar zou AMD echt eens iets aan moeten doen, evenals het hoge verbruik bij het afspelen van een blu-ray.
videokaarten van amd hunnen die Optimus/enduro toestanden al jaren aan ....

je moet alleen de juiste chipset op het moederbord hebben zitten...

ik heb bv een intel z77x moederbord met een core i5; ik kan perfect de gpu van de cpu gebruiken (dus videokaart aangesloten op connector van het moederbord) en tijdens het desktoppen wordt de gpu niet gebruikt; ga ik gamen dan zorgt een stukje software ervoor da het renderen op de gpu gebeurt en dat het beeld wordt doorgestuurd nar de framebuffer van m'n intel HD'tje...

helaas werkt andersom beter; je sluit dan je monitor op je gpu aan en de cpugpu wordt voor berekeningen ingezet die de discreet gpu er andersbij moet nemen.
bij mijn moederbord zat er zelfs een full license bij voor deze software... kijk anders hier eens; http://lucidlogix.com/products/virtu-mvp-2-0-for-windows/
Een desktop is ook een veelvoud sneller dan een laptop, je kunt om te gamen een desktop niet zomaar vervangen door een laptop zonder toegevingen. Maar een gaming pc is een niche product, er zijn er relatief weinig van en dat zijn pc's waarbij de rekenkracht ook benut wordt. Je kunt misschien beter berekenen hoeveel energie je zou uitsparen als alle bedrijven hun oude Pentium 4 bakken (of nog steeds nieuwe desktops) zouden vervangen door een NUC of thin client bij hun personeel dat geen rekenkracht nodig heeft.
Ik denk dat hij alleen de deskop bedoeld, en niet zijn scherm en de rest, een 24 a 30" scherm gebruikt ook met gemak 40 a 60 watt, en dan nog je speakers en helemaal als je 5.1 heb.

Ik denk er ook steeds vaker aan om mijn X58 en geforce GTX 680 te verkopen, en een Mini-ITX systeem te makken met een i5 cpu van 65w en radeon R9 270.

[Reactie gewijzigd door AmigaWolf op 16 mei 2014 20:18]

Ik bedoelde inderdaad mijn desktop. De schermen verbruiken samen ongeveer ook 50 a 60W. Luidsprekers heb ik er niet aan hangen, want ik speel met mijn headset.
Die 120 W idle is waarschijnlijk van het hele systeem. Ook 420 Watt in load trekt die 580 niet in zijn eentje, sterker nog, zulke waarden zijn eerder iets voor een dual GPU-kaart. Idle zijn moderne videokaarten echt best wel zuinig. De GTX580 zou rond de 25w moeten zitten.

Ik heb zelf een GTX670 in mijn PC en die staat eigenlijk de hele dag aan, als ie zo onzuinig zou zijn zou ik echt een oplossing zoeken, maar mijn PC verbruikt idle ruim minder dan 100 watt.

Edit hieronder: Even bijstaven met wat facts:

Idle power consumption van een heel systeem:
http://images.anandtech.com/graphs/graph4008/33852.png
GTX 580 + systeem in idle: 173W.

Power consumptions idle en load (zonder systeem!):
http://www.techpowerup.co...A/GeForce_GTX_680/25.html
GTX 580 idle: 32W.
GTX 580 peak: 229W.

Load ingame:
http://images.anandtech.com/graphs/graph4008/33853.png
GTX 580 + systeem in Crysis: 389W.

Het zou ook erg gek zijn, gezien het officiele TDP maar 244w is. Een beetje eroverheen met Furmark o.i.d. is ok, maar zeker niet ruim de helft meer.

Kortom: De GTX580 verbruikt zonder systeem idle niet 120 w, en in load ook geen 420w.

[Reactie gewijzigd door A Lurker op 16 mei 2014 17:00]

580 was een heel onzuinige kaart, de generaties daarna zijn veel zuiniger, met sommige scheelt gewoon de helft.

Edit:
http://www.maximumpc.com/...b_test_real_fermi_arrives

385 watt onder load. De kaart, niet het complete systeem. 422 voor een geoverclockte is dus echt niet verzonnen.

[Reactie gewijzigd door InflatableMouse op 16 mei 2014 12:38]

http://www.guru3d.com/art...rce_gtx_580_review,7.html

440 voor hele systeem. Een enkele kaart komt niet boven de 300, mag niet van de pci-e / voeding spec.
Ik lees elders andere dingen maar mischien interpreteer ik het verkeerd.

Het is de discussie mij niet echt waard want laat het 280 zijn, moet ik dat in een systeem laten zitten als het ongebruikt is? Dan is het antwoord toch nog steeds nee en dat is het hele punt.
Daar heb je een punt. Beter zet je ook wat punten in je post, daat maakt het wat leesbaarder.

Imho helemaal top van AMD dat er geinvesteerd wordt in efficientere GPU's. Bovendien ben ik van mening dat zo'n 400+ watt videokaart (bij wijze van) een beetje zinloos is als een PS4 met veel lager verbruik een nagenoeg gelijke framerate kan neerzetten. Ik hou wel van optimalisatie en efficient werken. Mantle is daar in mijn ogen een voorbeeld van; ondanks dat het onmogelijk is om te optimaliseren voor de ontelbare verschillende PC systemen / combinaties die er zijn, maakt het idee achter Mantle de efficientie al weer wat hoger.

Ik hoop dat er meer fabrikanten (lees: nvidia...) volgen.
Ik vraag me af wat een mainstreamkaart met 2 GB aan geheugen moet. Lijkt mij vrij fors?
2 GB Vram is echt geen overbodige luxe meer tegenwoordig op 1080p. Bijvoorbeeld: Thief op normal settings gebruikt 2 GB, Assetto Corsa 1.8 GB op hoogste settings + 2x MSAA, AC4 op high 1.6 GB.
Hoe kan je het Vram gebruik in game meten?
GPU-Z, MSI afterburner et cetera...
Thanks, nu ook aangevinkt in MSI afterburner. :9
Misschien handig voor mensen met een budget. Met een 750 ti kun je Battlefield 4 al op High draaien met een minimum FPS van 35 op een resolutie van 1920x1080.

Dan lijkt mij een capaciteit van 2GB geheugen ook meer dan mooi meegenomen.
misschien willen ze het ook bij gamers in de smaak laten vallen
Ik denk dat ze mainstream bedoelen in vergelijking met high-end grafische kaarten. Dus sowieso gericht op mensen die hun grafische kaart gebruiken voor onder andere af en toe te gamen.
Dat hij evengoed nog in sommige filters naar boven komt en dan nog zuinig ook ;)
640k ought to be enough for everybody
misschien een beetje speelruimte voor een multi-monitor setup ?
Je hebt echt geen 2GB video RAM nodig voor een dual monitor setup. Met 64MB lukt dat ook wel.
eyefinity gaat verder als dual monitor, er word op bijv. hardforum, hardocp overclock.net, tomshardware en vele andere sites toch wel 2gb aangeraden voor een multi monitor setup.

Deze kaart zou dus bijna als een 7850 o.i.d. moeten presteren dus het moet mogelijk zijn om er een beetje mee te gamen en als dat dan op bijv. 5760x1080 kan zonder ram limitaties is dat alleen maar mooi meegenomen.

voor alleen basic graphics op een dual monitor setup kun je ook wel een IGP of iets als een ati 6450 nemen, is waarschijnlijk ook nog een stuk energiezuiniger als deze ´275x´
Ligt eraan wat je doet met die multi monitor setup. 6 monitoren met paint op fullscreen red je wel met 64MB. :P
Ik heb onlangs mijn MSI 560Ti Twin Froz vervangen door een nieuwe MSI 750 Ti Gaming 2GB.

Deze kaarten zijn nagenoeg even snel, maar scheelt wel 140 Watt verbruik op full load en 25 graden koeler, 45 C ipc 70 C. Uiteraard ook veel en veel stiller daardoor.

Diablo 3 en Borderlands 2 draait allemaal perfect op de door Nvidia aanbevolen settings.

Verschil in stroomverbruik bij 4 uur per dag gamen is ongeveer 70 euro per jaar.

Ben er best blij mee.
Als ik een nieuwe videokaart koop, wil ik ook dat die sneller is dan mijn vorige omdat je er anders verlies op maakt. Vier uur gamen per dag gemiddeld over een heel jaar lijkt mij extreem veel. Ik kom deze week niet eens aan 4 uur gamen, er zijn weken waar dat wel het dubbele of meer is, maar dan nog gemiddeld (zeker met de zomer er bij gerekend) game ik op een jaar minder dan een uur per dag. Dat is met jouw cijfers dan een energiewinst van ¤17,5 per jaar, moet ik die videokaart al 7,5 jaar hebben om het energieverschil terug te winnen (en misschien iets minder lang als de vorige videokaart nog verkocht kan worden). Vervangen gaat uiteindelijk toch op hetzelfde moment nodig zijn omdat ze even snel waren. Nu heb jij wel een iets meer toekomstbestendige videokaart gekocht omdat je het geheugen verdubbeld hebt, en 2GB VRAM is geen overbodige luxe meer.

Het energieverschil is in de realiteit ook veel kleiner dan die 140W onder load, als ik even vergelijk bij de buren (straks een linkje) dan is het eerder 83W. Ik weet niet goed waar je die 140W vandaan haalt, is dat TDP? Die waardes betekenen niet veel.
Ja inderdaad, ik dacht dat die 560Ti 200 Watt trok, maar is eerder 140 Watt.

Het ging mij persoonlijk meer om de stilte van de 750Ti, en de stroombesparing is mooi meegenomen.
Erg interessant! Ik ben benieuwd of deze nieuwe architectuur ook adaptive clocking toepast (http://www.realworldtech.com/steamroller-clocking/)

Ook vraag ik me af of deze nu bij Globalfoundries geproduceert gaat worden ipv TSMC. Er gaan al even rumoeren de rondte dat AMD al zijn chip productiecapiciteit nu bij Globalfoundries wil neerlegen(dus inclusief GPU's) en een "testchip" zoals deze lijkt ideaal om de GPU productie bij een andere chip-bakker te testen.

Zeer benieuwd naar meer nieuws op dit gebied!
Over 19 dagen een closed-door presentatie... Nog geen specs... Klinkt voor mij een beetje als: "begin augustus te koop".

Zou mooi zijn natuurlijk voor iedereen die niet een jaartje op 20nm gaat wachten, maar toch niet zo heel veel haast heeft / wacht op prijsverlagingen voor de 750ti.
Het is de vraag of dit allemaal waar is. Maar het is denk ik wel de way to go. 20nm komt er voorlopig niet. Dus wil je iets snellers met 28nm maken zul je een efficiëntere chip moeten maken. Nu het productie proces ook volwassener is. En AMD ook meer ervaring heeft met de GCN architectuur kunnen ze deze wellicht aardig optimaliseren.

nVidia doet hetzelfde met maxwell. Ik ben benieuwd wat er dit jaar op de markt gaat komen.
Ik vind 275X geen logische benaming.... de 750Ti is langzamer dan de R7 265 en komt al zeker niet in de buurt van de R9 270. Beetje vreemd...
Net 5 minuten geleden dit artikel gelezen over AMD's "struggle" met de cypress kaarten en het verkleinen van de die en het energiezuiniger maken:
http://www.anandtech.com/show/2937/6
... dat is nieuws uit 2010?
Dus?
Kan ik het toch nog wel een interessant artikel vinden?
En dit artikel geeft op zich ook een mooi beeld van AMD's proces.
En dan is mijn vraag, met of zonder waterkoeling blok?
Ook zouden GCN-functionaliteiten als Mantle, TrueAudio en mogelijk XDMA CrossFire aanwezig zijn.
Ik hoop echt dat de crossfire aanwezig is !! maakt uitbreiden goedkoper.
en vaak is het geval ( tenminste bij NVIDIA) is dat 2 mid range kaarten net zo sterk is als een High end kaart maar dan goedkoper :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True