Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Datumbereik

Categorieën

AND

Onderwerpen

AND

Subforum

Topicstarter

Topicstatus

108 topics - Pagina 1 van 5

[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56

22:57 discussie 1243
Topicregels Fermi Kepler Maxwell Recente Nieuwsberichten Geruchten Cuda Hybrid (power) SLI PhysX PureVideo Tegra Platform Drivers Links - Reviews & Topics & Pricewatch
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia. Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter Dit topic is vooral niét bedoeld om te posten dat:jouw favoriete kaart niet leverbaar is bij een shop. jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent. je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen. je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt. je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ) je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews. Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan. Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!Veel lees- en discussieerplezier toegewenst!

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2


Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34


Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Alle informatie over deze kaarten kun je totaan deel 50 van dit topic terugvinden


De Fermi microarchitectuur werd voornamelijk gebruikt in de GeForce 400 en 500 reeksen en in sommige 600/700/800 reeks kaarten (rebrands en in de laatste 2 reeksen voornamelijk mobile gpu's


Instap level



GT 520GPU: GF108 Release Date: 12/4/2011 Interface: PCI-E x16 2.0 Transistors: ?? Unified shaders:48 Shader clock: 1620 MHz ROP's: ?? Core Clock: 810 MHz Memory Clock: 900 MHz Memory Bandwidth: 14,4 GB/sec Memory Interface: 64 bit Memory: 1024 MB DDR3 Consumption: max 29 Watt



GT 610GPU: GF119 (40 nm) Release Date: 15/5/2012 Interface: PCI-E x16 2.0 Die size: 79 mm² CUDA Cores: 48 Shader clock: 1620 MHz ROP's: 4 Core Clock: 810 Mhz Memory Clock: 900 Mhz(DDR3) Memory Bandwidth:25,6 - 28,8 GB/s Memory Interface: 64 bit Memory: 1024 MB Texture Units: 8 Texture Fill Rate: 6.5 (b/s) GFLOPS: 100.4 FMA Consumption: max 29 Watt

Low End



GT 530/620GPU: GF119 (40nm) Release Date: 3/4/2012 Interface: PCI-E x16 2.0 Transistors: 585 Miljoen CUDA Cores : 96 Shader clock: 1400 MHz ROP's:4 Core Clock: 700 Mhz Memory Clock: 900Mhz (DDR3) Memory Bandwidth: 14.4 GB/s Memory Interface: 64 bit Memory: 1024 MB Texture Units: 16 Texture Fill Rate: 11.2 (b/s) GFLOPS: 268.8 FMA Consumption: max 49 Watt



GT 430/GT 720(128bit-DDR3 versie(900Mhz))GPU: GF108 Release Date: 11/10/2010 Interface: PCI-E x16 2.0 Transistors: 585 Miljoen Unified shaders:96 Shader clock: 1400 MHz ROP's: 4 Core Clock: 700 Mhz Memory Clock: 800 - 900Mhz (GDDR3) Memory Bandwidth:25,6 - 28,8 GB/s Memory Interface: 128 bit Memory: 1024 MB Texture Units: 16 Consumption: Officieel max 49 Watt

Low End GT440 varianten en rebrands



GT 440/540/630 DDR3-variantGPU: GF108 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: ?? CUDA cores: 96 Shader clock: 1620 MHz ROP's: 4 Core Clock: 810 Mhz Memory Clock: (800)-900 Mhz (GDDR3) Memory Bandwidth: (25,6)28,8 GB/s Memory Interface: 128 bit Memory: 1024MB-2048 (GDDR3) Texture Fill Rate: 13.0 (b/s) Consumption: max 65 Watt



GT 440/540/630 GDDR5-variantGPU: GF108 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: ?? CUDA cores: 96 Shader clock: 1620 MHz ROP's: 4 Core Clock: 810 Mhz Memory Clock: 800 Mhz (GDDR5) Memory Bandwidth: 51.2 GB/s Memory Interface: 128 bit Memory: 1024MB-2048 (GDDR3) Texture Fill Rate: 13.0 (b/s) Consumption: max 65 Watt



Mid-End



GTS 450GPU: GF106 (40nm) Release Date: Q2 2010 Uitgesteld naar 13 september Interface: PCI-E x16 2.0 Transistors: 1.17 miljard Unified shaders:192 Shader clock: 1566 MHz ROP's: 16 Core Clock: 789 983 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 60,16/90,24 57,6 GB/s Memory Interface: 128 /192 bit Memory: 512?/768?/ 1024/2048? MB L2 Cache Size: 256KB Texture Units: 32 Consumption: max 106 watt Performatie: mid-end



GT 545/ GT640 DDR3- 192 bit(OEM)GPU: GF118 (28nm) Interface: PCI-E x16 2.0 Transistors: 1.17 miljard CUDA Cores: 144 Shader clock: 1440 MHz ROP's: 24 Core Clock: 720 Mhz Memory Clock: 891 Mhz (DDR3) Memory Bandwidth: 42.8 GB/s Memory Interface: 192 bit Memory: 1536/3072 MB Texture Units: 24 Texture Fill Rate: 17.3 (b/s) Consumption: 75 watt (TDP)

Mid-end



GTX 550 TiGPU: GF116 (40nm) Release Date: 15/03/2011 Interface: PCI-E x16 2.0 Transistors: 1.17 miljard Unified shaders: 192 Shader clock: 1800 MHz ROP's: 24 Pixel Fill Rate: 21.6 GP/s Core Clock: 900 Mhz Memory Clock: 1026 Mhz (GDDR5) Memory Bandwidth: 98,5 GB/sec (GDDR5) Memory Interface: 192 bit Memory: 1024MB Texture Units: 32 (28.8 GT/s) Consumption: 116 Watt (TDP) Performantie: Mid-end



GTX 555/GTX 560 SE/GT 645GPU: GF114 [red](40nm)[/green] Release Date: maart 2012 Interface: PCI-E x16 2.0 Transistors: 1.95 miljard CUDA Cores: 288 Shader clock: 1645 MHz ROP's: 24 Core Clock: 776 Mhz Memory Clock: 1001 Mhz (GDDR5) Memory Bandwidth: 91.9 GB/s Memory Interface: 192 bit Memory: 1024/1512 MB Texture Units: 48 Texture Fill Rate: 37.2 (b/s) Consumption: 140 watt (TDP)

Mid-end



GTX 460 SEGPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 288 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 24 Core Clock: 650 Mhz Memory Clock: 850 Mhz (GDDR5) Memory Bandwidth: 108,8 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB L2 Cache Size: 384KB Texture Units: 48 Consumption: 150 Watt (minder dan de HD58 50/30) Performantie:Mid-end



GTX 460 768 MB GPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 336 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 24 Core Clock: 675 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 86,4 GB/sec (GDDR5) Memory Interface: 192 bit Memory: 768MB (mogelijkheid voor 1536MB) L2 Cache Size: 384KB Texture Units: 56 Consumption: 150 Watt (minder dan de HD58 50/30) Performantie:High Mid-end


High Mid-end



GTX 460 1024MB GPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 336 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 32 Core Clock: 675 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 115,2 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB Texture Units: 56 L2 Cache Size: 512KB Consumption: 160 Watt (minder dan de HD58 50/30) Performantie:High Mid-end



GTX 560 GPU: GF114 (40nm) Release Date: 17/05/2011 Interface: PCI-E x16 2.0 Transistors: 1,95 miljard Unified shaders: 336 Shader clock: 1620 MHz ROP's: 32 Core Clock: 810 Mhz Memory Clock: 1001 Mhz (GDDR5) Memory Bandwidth: 128 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB (mogelijkheid voor 2048MB) Texture Units: 56 Texture Fill Rate: 45.4 (b/s) Consumption: 150 Watt TDP

GTX 560



GTX 560 TiGPU: GF114 (40nm) Release Date: 25/01/2011 Interface: PCI-E x16 2.0 Transistors: 1,95 miljard Unified shaders: 384 Shader clock: 1645 MHz ROP's: 32 Core Clock: 822 Mhz Memory Clock: 1002 Mhz (GDDR5) Memory Bandwidth: 128,26 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB (mogelijkheid voor 2048MB) Texture Units: 64 Texture Fill Rate: 52.61 (b/s) Consumption: 170 Watt TDP Performantie:High Mid-end



GTX 560 Ti 448 core GPU: GF114 (40nm) Release Date: 1/12/2011 Interface: PCI-E x16 2.0 Transistors: 1,95 miljard Unified shaders: 384 Shader clock: 1464 MHz ROP's: 40 Core Clock: 752 Mhz Memory Clock: 950 Mhz (GDDR5) Memory Bandwidth: 152 GB/sec (GDDR5) Memory Interface: 320 bit Memory: 1280MB Texture Units: 56 Texture Fill Rate: 41 (b/s) Consumption: 170 Watt TDP Performantie:High Mid-end

Low High End



GTX 465GPU: GF100 Release Date: eind mei 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 352 Shader clock:1215 MHz Core Clock: 607 MHz ROP's: 32 Pixel Fill Rate: 26.7 GP/s Memory Clock: 802 Mhz (GDDR5) Memory Bandwidth: 102.6 GB/s Memory Interface: 256 bit Memory: 1024 MB Texture Units: 48 Consumption: max 200W



GTX 470GPU: GF100 Release Date: April 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 448 MIMD Architectuur Shader clock:1215 mhz Core Clock: 607 tot 1214 (hot clock) Mhz ROP's: 40 Pixel Fill Rate: 24,3 GP/s Memory Clock: 837 Mhz (GDDR5) Memory Bandwidth: 133,9 GB/s Memory Interface: 320 bit Memory: 1280 MB Texture Units: 56 Consumption: tot 215 Watt



High End



GTX 480GPU: GF100 Release Date: April 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 480 MIMD Architectuur Shader clock: 1401 Mhz Core Clock: 700 tot 1400 (hot clock) MHz ROP's: 48 Pixel Fill Rate: 33,6GP/s Memory Clock: 924 (GDDR5) Memory Bandwidth: 177,4 GB/s Memory Interface: 384 bit Memory: 1536 MB Texture Units: 64 Consumption: tot 250 Watt



GTX 570GPU: GF110 Release Date: 7/12/2010 Interface: PCI-E x16 2.0 Transistors: 3 miljard Unified shaders: 480 Shader clock: 1464 Mhz Core Clock: 732 MHz ROP's: 40 Pixel Fill Rate: 43,92 GP/s Memory Clock: 950MHz (GDDR5) Memory Bandwidth: 152 GB/s Memory Interface: 320 bit Memory: 1280 MB Texture Units: 60 Texture Fill Rate: 43.9 (miljard/sec) Consumption:219 Watt

High End



GTX 580GPU: GF110 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: 3,2? miljard Unified shaders: 512 Shader clock: 1544 Mhz Core Clock: 772 MHz ROP's: 48 Pixel Fill Rate: 37.06 GP/s Memory Clock: 1002 (GDDR5) Memory Bandwidth: 192,4 GB/s Memory Interface: 384 bit Memory: 1536 MB Texture Units: 64 Texture Fill Rate: 49.4 (miljard/sec) Consumption: 250 Watt



GTX 590GPU: 2*GF110 Release Date: Zomer 2010 --> 24 maart 2011 Interface: PCI-E x16 2.0 Transistors: 2*3,0 miljard Unified shaders: 512*2 Shader clock:1215 mhz Core Clock:607 Mhz ROP's: 2*48 Pixel Fill Rate:58,75 GP/s Memory Clock: 853,5 Mhz (GDDR5) Memory Bandwidth: 2* 163,9GB/s Memory Interface: 2* 384 bit Memory: 2*768/1536 MB Texture Units: 64*2 Texture Fill Rate: 77,7 (miljard per sec) Consumption: "Extreme" 365Watt officiele TDP

ModelGPUShadersGPU
kloksnelheidGeheugen
typeGeheugen
snelheidBand
breedteBus
breedteSLIGT 410MGF11948575MHz(G)ddr31600MHz12,8GB/s64bitNeeGT 520MGF11948740MHzddr31600MHz12,8GB/s64bitNeeGT 520MXGF11948900MHzddr31800MHz14,4GB/s64bitNeeGT 415MGF10848500MHzddr31600MHz25,6GB/s128bitNeeGT 420MGF10896500MHzddr31600MHz25,6GB/s128bitNeeGT 425MGF10896560MHzddr31600MHz25,6GB/s128bitNeeGT 525MGF10896600MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 435MGF10896650MHzddr31600MHz25.6GB/s128bitNeeGT 540MGF10896672MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 550MGF10896740MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 445MGF106144590MHzGddr5/ddr31600/2500MHz25.6/60GB/s128/192bitNeeGT 555MGF106/8144590MHzGddr5/ddr31800MHz43,2GB/s192bitNeeGT 560MGF116192775MHzGddr52500MHz60,0GB/s192bitNeeGT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNeeGTX 485MGF104384575MHzGddr53000MHz76,8GB/s256bitJaGT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNee



Very Low End



GT720GPU: GK208 Release Date: 27/03/2014 Interface: PCI-E x8 2.0 Transistors: 1.02 miljard CUDA Cores: 192 Shader clock: 797 MHz ROP's: 8 Core Clock: 797 Mhz Memory Clock: 900(DDR3)/1250(GDDR5) Mhz Memory Bandwidth: 14.4/40 GB/s Memory Interface: 64 bit Memory: 1024 DDR3/2048 GDDR5 MB Texture Units: 16 Texture Fill Rate: 12.8 (b/s) Consumption: 19 watt (TDP)

[img]Nieuwe afbeelding nodig[/img]]

GT730
(128-bit,DDR3 versie is een Fermi kaart!)GPU: GK208 Release Date: 18/06/2014 Interface: PCI-E x16 2.0 Transistors: 1.02 miljard CUDA Cores: 384 Shader clock: 902 MHz ROP's: 8 Core Clock: 902 Mhz Memory Clock: 900(DDR3)/1250(GDDR5)Mhz Memory Bandwidth: 14.4/40 GB/s Memory Interface: 64 bit Memory: 2048/1024 MB Texture Units: 16 Texture Fill Rate: 14.4 (b/s) Consumption: 23/25 watt (TDP)


Selectie van GT640 varianten ..



GT640 DDR3- 128 bitGPU: GK107 (28nm) Release Date: 5/6/2012 Interface: PCI-E x16 3.0 Transistors: 1.3 miljard CUDA Cores: 384 Shader clock: 900 MHz ROP's: 16 Core Clock: 900 Mhz Memory Clock: 891 Mhz (DDR3) Memory Bandwidth: 28.5 GB/s Memory Interface: 128 bit Memory: 2048 MB Texture Units: 32 Texture Fill Rate: 28.8 (b/s) Consumption: 65 watt (TDP)



GT640 GDDR5- 128 bit(OEM)GPU: GK107 (28nm) Release Date: 24/4/2012 Interface: PCI-E x16 3.0 Transistors: 1.3 miljard CUDA Cores: 384 Shader clock: 950 MHz ROP's: 16 Core Clock: 950 Mhz Memory Clock: 1250 Mhz (GDDR5) Memory Bandwidth: 80 GB/s Memory Interface: 128 bit Memory: 1024/2048 MB Texture Units: 32 Texture Fill Rate: 30.4 (b/s) Consumption: 75 watt (TDP)

Low-end



GT740GPU: GK107 Release Date: 29/05/2014 Interface: PCI-E x16 3.0 Transistors: 1.27 miljard CUDA Cores: 384 Shader clock: 993 MHz ROP's: 16 Core Clock: 993 Mhz Memory Clock: 900(DDR3)/1250(GDDR5) Mhz Memory Bandwidth: 28.8/80 GB/s Memory Interface: 128 bit Memory: 2048/1024 MB Texture Units: 32 Texture Fill Rate: 31.8 (b/s) Consumption: 64 watt (TDP)

Lower Mid-end



GTX645GPU: GK106 Release Date: 22/04/2013 Interface: PCI-E x16 3.0 Transistors: 2.54 miljard CUDA Cores: 567 Shader clock: 823 MHz ROP's: 16 Core Clock: 823.5(888,5 Mhz Memory Clock: 1000 Mhz (GDDR5) Memory Bandwidth: 64 GB/s Memory Interface: 128 bit Memory: 1024 MB Texture Units: 48 Texture Fill Rate: 39.5 (b/s) Consumption: 64 watt (TDP)



GTX650GPU: GK107-450-A2 Release Date: 13/09/2012 Interface: PCI-E x16 3.0 Transistors: 1.3 miljard CUDA Cores: 384 Shader clock: 1058 MHz ROP's: 16 Core Clock: 1058 Mhz Memory Clock: 1250 Mhz (GDDR5) Memory Bandwidth: 80 GB/s Memory Interface: 128 bit Memory: 1024/2048 MB Texture Units: 64 Texture Fill Rate: 33.8 (b/s) Consumption: 64 watt (TDP)

Lower Mid-end



GTX650 TiGPU: GK106-220-A1 Release Date: 09/10/2012 Interface: PCI-E x16 3.0 Transistors: 2.54 miljard CUDA Cores: 768 Shader clock: 928 MHz ROP's: 16 Core Clock: 928 Mhz Memory Clock: 1350 Mhz (GDDR5) Memory Bandwidth: 86.4 GB/s Memory Interface: 128 bit Memory: 1024/2048 MB Texture Units: 64 Texture Fill Rate: 59.2 (b/s) Consumption: 110 watt (TDP)



GTX650 Ti BoostGPU: GK106-240-A1 Release Date: 26/03/2013 Interface: PCI-E x16 3.0 Transistors: 2.54 miljard CUDA Cores: 768 Shader clock: 980 MHz ROP's: 24 Core Clock: 980(1033 Mhz Memory Clock: 1500 Mhz (GDDR5) Memory Bandwidth: 144.2 GB/s Memory Interface: 192 bit Memory: 1024/2048 MB Texture Units: 64 Texture Fill Rate: 62.7 (b/s) Consumption: 134 watt (TDP)



Mid-end



GTX 660GPU: GK106-400-A1 (28nm) Release Date: 13/09/2012 Interface: PCI-E x16 3.0 Transistors: 2.54 miljard CUDA Cores: 960 Shader clock:980 mhz Core Clock: 980-1033-1084 Mhz ROP's: 24 Pixel Fill Rate: 23.5 GP/s Memory Clock: 1500 Mhz (GDDR5) Memory Bandwidth: 144.2 GB/s Memory Interface: 192 bit Memory: 2/3 GB Texture Units: 80 Texture Fill Rate: 78.5 (b/s) Consumption: 140 Watt (TDP)



GTx 660 (OEM)GPU: GK104 (28nm) Release Date: augustus 2012 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1152 Shader clock:823 mhz Core Clock: 823-888 Mhz ROP's: 24/32 Pixel Fill Rate: 19.8 GP/s Memory Clock: 1450 Mhz (GDDR5) Memory Bandwidth: 134/179 GB/s Memory Interface: 192/256 bit Memory: 1,5/2 GB Texture Units: 96 Texture Fill Rate: 79 (b/s) Consumption: 130 Watt (TDP)


Mid-end



GTX 760 (OEM)GPU: GK104 Release Date: ?? Interface: PCI-E x16 3.0 Transistors: 3.54 miljard CUDA Cores: 1152 Shader clock:823 mhz Core Clock: 823-888 Mhz ROP's: 24 Pixel Fill Rate: 19.8 GP/s Memory Clock: 1452 Mhz (GDDR5) Memory Bandwidth: 134 GB/s Memory Interface: 192 bit Memory: 1.5/3 GB Texture Units: 96 Texture Fill Rate: 79 (b/s) Consumption: 130 Watt (TDP)



GTx 760GPU: GK104 Release Date: 25/06/2013 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1152 Shader clock:980 mhz Core Clock: 980-1033 Mhz ROP's: 32 Pixel Fill Rate: 31.4 GP/s Memory Clock: 1502 Mhz (GDDR5) Memory Bandwidth: 192 GB/s Memory Interface: 256 bit Memory: 2/4 GB Texture Units: 96 Texture Fill Rate: 94.1 (b/s) Consumption: 170 Watt (TDP)

High Mid-end



GTX 660 TiGPU: GK104 (28nm) Release Date: 16/8/2012 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1344 Shader clock:915-980 mhz Core Clock: 915-980 Mhz ROP's: 24 Pixel Fill Rate: 24,3 GP/s Memory Clock: 1500 Mhz (GDDR5) Memory Bandwidth: 144.2 GB/s Memory Interface: 192 bit Memory: 2048 MB Texture Units: 112 Texture Fill Rate: 102.5 (b/s) Consumption: 150 Watt (TDP)



GTX 670/760TiGPU: GK104 Release Date: 10/05/2012 Interface: PCI-E x16 3.0 Transistors: 3.54 miljard CUDA Cores: 1344 Shader clock: 915-1084 mhz Core Clock: 915-1084 Mhz ROP's: 32 Pixel Fill Rate: 29.3 GP/s Memory Clock: 1250 Mhz (GDDR5) Memory Bandwidth: 192.256GB/s Memory Interface: 256 bit Memory: 2048 MB Texture Units: 112 Texture Fill Rate: 102.5(b/s) Consumption: 170 Watt (TDP)


High End



GTX 680GPU: GK104 (28nm) Release Date: 22/03/2012 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1536 Shader clock: 1006-1110 Mhz Core Clock: 1006-1110 MHz ROP's: 32 Pixel Fill Rate: 32.2 GP/s Memory Clock: 1252 (GDDR5) Memory Bandwidth: 192,256 GB/s Memory Interface: 256 bit Memory: 2048/4096 MB Texture Units: 128 Texture Fill Rate: 128.8 (b/sec) Consumption: 195 Watt (TDP)



GTX 770GPU: GK104 Release Date: 30/05/2013 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1536 Shader clock: 1085 Mhz Core Clock: 1046-1085 MHz ROP's: 32 Pixel Fill Rate: 33.5 GP/s Memory Clock: 1752.5 (GDDR5) Memory Bandwidth: 224 GB/s Memory Interface: 256 bit Memory: 2048/4096 MB Texture Units: 128 Texture Fill Rate: 134 (b/sec) Consumption: 230 Watt (TDP)

High End



GTX 780GPU: GK110 Release Date: 23/05/2013 Interface: PCI-E x16 3.0 Transistors: 7,08 miljard CUDA Cores: 2304 Shader clock: 863 Mhz Core Clock: 863-900 MHz ROP's: 48 Pixel Fill Rate: 41.4 GP/s Memory Clock: 1252 (GDDR5) Memory Bandwidth: 288 GB/s Memory Interface: 384 bit Memory: 2048/4096 MB Texture Units: 192 Texture Fill Rate: 166 b/s Consumption: 250 Watt (TDP)



GTX 780 TiGPU: GK110 Release Date: 7/11/2013 Interface: PCI-E x16 3.0 Transistors: 7,08 miljard CUDA Cores: 2880 Shader clock: 876 Mhz Core Clock: 876-928 MHz ROP's: 48 Pixel Fill Rate: 42 GP/s Memory Clock: 1750(GDDR5) Memory Bandwidth: 336 GB/s Memory Interface: 384 bit Memory: 3072 MB Texture Units: 240 Texture Fill Rate: 210 b/s Consumption: 250 Watt (TDP)

High End



GTX TitanGPU: GK110 Release Date: 19/02/2013 Interface: PCI-E x16 3.0 Transistors: 7,08 miljard CUDA Cores: 2688 Shader clock: 837 Mhz Core Clock: 837-876 MHz ROP's: 48 Pixel Fill Rate: 40.2 GP/s Memory Clock: 1252 (GDDR5) Memory Bandwidth: 288 GB/s Memory Interface: 384 bit Memory: 6144 MB Texture Units: 224 Texture Fill Rate: 188 b/s Double Precision: 1500GFLOP Consumption: 250 Watt (TDP)



GTX Titan BlackGPU: GK110 Release Date: 18/02/2014 Interface: PCI-E x16 3.0 Transistors: 7,08 miljard CUDA Cores: 2880 Shader clock: 889 Mhz Core Clock: 889-980 MHz ROP's: 48 Pixel Fill Rate: 42.7 GP/s Memory Clock: 1750(GDDR5) Memory Bandwidth: 336 GB/s Memory Interface: 384 bit Memory: 6114 MB Texture Units: 240 Texture Fill Rate: 213 b/s Double Precision: 1707GFLOP Consumption: 250 Watt (TDP)

High End



GTX 690GPU: 2*GK104 Release Date: 29/04/2012 Interface: PCI-E x16 3.0 Transistors: 2*3,540 miljard Unified shaders: 2*1536 Shader clock:915-1058 mhz Core Clock:915-1058 Mhz ROP's: 2*32 Pixel Fill Rate:2*28.8 GP/s Memory Clock: 1252 Mhz (GDDR5) Memory Bandwidth: 2* 192,256GB/s Memory Interface: 2* 256 bit Memory: 2*2048 MB Texture Units: 2*128 Texture Fill Rate: 2*117.12 (b/S) Consumption: 300 Watt (TDP)



GTX Titan ZGPU: 2*GK110 Release Date: 25/03/2014 Interface: PCI-E x16 3.0 Transistors: 2*7,080 miljard Unified shaders: 2*2880 Shader clock:705 mhz Core Clock:705-876 Mhz ROP's: 2*48 Pixel Fill Rate:2*33.8 GP/s Memory Clock: 1750 Mhz (GDDR5) Memory Bandwidth: 2* 336 GB/s Memory Interface: 2* 384 bit Memory: 2*6144 MB Texture Units: 2*240 Texture Fill Rate: 2*169 (b/S) Consumption: 375 Watt (TDP)



http://www.geforce.com/hardware/technology/mfaa




Low Mid-end



GTX 745 (OEM)GPU: GM107 Release Date: 18/02/2014 Interface: PCI-E x16 3.0 Transistors: 1.87 miljard CUDA Cores: 384 Shader clock:1033 mhz Core Clock: 1033-?? Mhz ROP's: 16 Pixel Fill Rate: 16.5 GP/s Memory Clock: 900 Mhz (DDR3) Memory Bandwidth: 28.8 GB/s Memory Interface: 128 bit Memory: 4 GB DDR3 Texture Units: 24 Texture Fill Rate: 24.8 (b/s) Consumption: 55 Watt (TDP)



GTx 750GPU: GM107 Release Date: 29/02/2014 Interface: PCI-E x16 3.0 Transistors: 1,87 miljard CUDA Cores: 512 Shader clock:1020 mhz Core Clock: 1020-1085 Mhz ROP's: 16 Pixel Fill Rate: 16.3 GP/s Memory Clock: 1250 Mhz (GDDR5) Memory Bandwidth: 80 GB/s Memory Interface: 128 bit Memory: 1 GB Texture Units: 32 Texture Fill Rate: 32.6 (b/s) Consumption: 55 Watt (TDP)



Mid-end



GTX 750 TiGPU: GM107 Release Date: 18/02/2014 Interface: PCI-E x16 3.0 Transistors: 1.87 miljard CUDA Cores: 640 Shader clock:1020 mhz Core Clock: 1020-1085 Mhz ROP's: 16 Pixel Fill Rate: 16.3 GP/s Memory Clock: 1350 Mhz (GDDR5) Memory Bandwidth: 86.4 GB/s Memory Interface: 128 bit Memory: 1/2 GB Texture Units: 40 Texture Fill Rate: 40.8 (b/s) Consumption: 60 Watt (TDP)



GTX 960GPU: GM206 Release Date: ?? Interface: PCI-E x16 3.0 Transistors: 1,87 miljard CUDA Cores: 1024 Shader clock:1127 mhz Core Clock: 1127-1178 Mhz ROP's: 32 Pixel Fill Rate: 39.3 GP/s Memory Clock: 1752.5 Mhz (GDDR5) Memory Bandwidth: 112 GB/s Memory Interface: 128 bit Memory: 2/4 GB Texture Units: 64 Texture Fill Rate: 104.4 (b/s) Consumption: 120 Watt (TDP)

High-end



GTX 970GPU: GM204 Release Date: 18/09/2014 Interface: PCI-E x16 3.0 Transistors: 5.2 miljard CUDA Cores: 1664 Shader clock:1050 mhz Core Clock: 1050-1178 Mhz ROP's: 64 Pixel Fill Rate: 54.6 GP/s Memory Clock: 1352.5 Mhz (GDDR5) Memory Bandwidth: 224 GB/s Memory Interface: 256 bit Memory: 4 GB Texture Units: 104 Texture Fill Rate: 109.2 (b/s) Consumption: 145 Watt (TDP)



GTX 980GPU: GM204 Release Date: 18/09/2014 Interface: PCI-E x16 3.0 Transistors: 5,2 miljard CUDA Cores: 2048 Shader clock:1127 mhz Core Clock: 1127-1178 Mhz ROP's: 64 Pixel Fill Rate: 72.1 GP/s Memory Clock: 1752.5 Mhz (GDDR5) Memory Bandwidth: 224 GB/s Memory Interface: 256 bit Memory: 4 GB Texture Units: 128 Texture Fill Rate: 144 (b/s) Consumption: 165 Watt (TDP)

Enthusiast



GTX 980 TiGPU: GM200 Release Date: 01/06/2015 Interface: PCI-E x16 3.0 Transistors: 8 miljard CUDA Cores: 2816 Shader clock:1000 mhz Core Clock: 1000-1076 Mhz ROP's: 96 Pixel Fill Rate: 96 GP/s Memory Clock: 1752,5 Mhz (GDDR5) Memory Bandwidth: 336 GB/s Memory Interface: 384 bit Memory: 6 GB Texture Units: 176 Texture Fill Rate: 176 (b/s) Consumption: 250 Watt (TDP)



GTX Titan XGPU: GM200 Release Date: 17/03/2015 Interface: PCI-E x16 3.0 Transistors: 8 miljard CUDA Cores: 3072 Shader clock:1000 mhz Core Clock: 1000-1089 Mhz ROP's: 96 Pixel Fill Rate: 96 GP/s Memory Clock: 1752.5 Mhz (GDDR5) Memory Bandwidth: 336 GB/s Memory Interface: 384 bit Memory: 12 GB Texture Units: 192 Texture Fill Rate: 192 (b/s) Consumption: 250 Watt (TDP)

Notebook GPU's, let vooral op de GTX 965M tot en met de 980M Welke eigenlijk gewoon (gerecoverde) GTX970 desktop kaarten zijn!
ModelGPUShadersGPU Basis
kloksnelheidGeheugen
typeGeheugen
snelheidBand
breedteBus
breedteSLIGeforce 930MGM1083841029MHzDDR31600MHz16GB/s64bitNeeGeforce 940M (igp)GM1083841029MHzDDR31001MHz16GB/s64bitNeeGeforce 940M (MxM)GM1076401029MHzDDR3900MHz28,8GB/s128bitNeeGTX 950MGM107640914MHzDDR31000MHz32GB/s128bitNeeGTX 950MGM107640914MHzGDDR51250MHz80GB/s128bitNeeGTX 960MGM1076401096MHzGDDR51250MHz80GB/s128bitNeeGTX 965MGM2041024944MHzGDDR51250MHz80GB/s128bitJaGTX 970MGM2041280924MHzGDDR51250MHz120GB/s192bitJaGTX 980MGM20415361038MHzGDDR51250MHz160GB/s256bitJa



Het vroegtijdig overlijden van ons forumlid CJ:
• The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:

• [url=http://tweakers.net/nieuws/100915/driver-update-verraadt-onaangekondigde-grafische-kaarten-nvidia.html]Frontpage: Driver-update verraadt onaangekondigde grafische kaarten Nvidia
• Frontpage: TSMC verwacht in 2016 op grote schaal op 16nm te produceren
(TSMC verkoopt daarnaast zijn belang van 5 procent in ASML. <<ook wel een belangrijk gegeven, ook al zijn er niet echt veel concurrenten van ASML)

Externe nieuwsberichten:

• ARS: All this has happened before: NVIDIA 3.0, ARM, and the fate of x86






Officiële (WHQL) nVidia drivers voor GeForce 400, 500,600,700 en 900 series
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
• Windows OS:Let op de xp drivers supporten enkel nog maar de grafische kaarten tot en met de 700 reeks. De 900 reeks heeft geen officiële support meer. (zal wellicht wel nog werken daar de 750(ti) nog ondersteunt zijn)347.09 Win XP 32-bit Win en XP Media Center347.09 Win XP 64-bit en win server 2003347.09 Win Vista/7 32-bit347.09 Win Vista,7 en 8 64-bit• Alternatieve OS:
Support inclusief Mobile en quadro versies!346.35 Linux 32-bit 346.35 Linux 64-bit *nieuw! 32 bit ARM support --> Chromebooks en android hardware ?346.35 Linux ARM 32-bit 346.35 FreeBSD 32-bit345.35 FreeBSD 64-bit246.35 Solaris 32 en 64-bitnVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
• Windows OS:
Geen daar de whql driver een stuk recenter/actueler is dan de laatste betaDe allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
• Windows OS:258.96 Win XP 32-bit258.96 Win XP 64-bit258.96 Win Vista/7 32-bit258.96 Win Vista/7 64-bitEen goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
• Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.


Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce 400 serie
Deze kan u vinden in Deel 49 van dit topic

Reviews GeForce 500 serie
Deze kan u vinden in Deel 55 van dit topic

Vorige Topics:Het grote NV40/GeForce 6800 topic
Deel I, II, III, IV, V, VI, VII, VIIIHet Grote 6800GT Topic
Deel 1, 2, 3, 4, 5, 6, 7, 8[Algemeen] nVidia GeForce Topic!
Deel 9, 10, 11, 12, 13, 14, 15[Algemeen] nVidia Nieuws & Discussie Topic
Deel 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37,38,39,40,41,42,43,44,46,47,48,49,50,51,52,53,54,55Gebruikerservaring:
• Het Nvidia GTX5xx series ervaringen topic
• Het Nvidia GTX4xx series ervaringen topic
• nVidia GTX470/GTX480 Levertijden Topique

• [Ervaringen] Bakken grafische kaart
• Het doodgaan van GeForce 8000 serie kaarten
• nVidia GeForce GT(X) 9xx Serie Ervaringen - Deel 1

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce 500 serie in de Pricewatch
GeForce Qaudro in de Pricewatch

>>Klik hier om naar het juiste topic te gaan <<


>>Klik hier om naar het juiste topic te gaan <<

>>Klik hier om naar het juiste topic te gaan <<


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum

>>Klik hier om naar het juiste topic te gaan <<


Startpost: Jejking & biobak & RappieRappie

*TODO*
->Afbeeldingen toevoegen, Kepler/Maxwell info toevoegen, geruchten, nieuwsberichten, drivers updaten ..
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)PV engine 4 bijvoegen CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 133

11:38 discussie 296
1 december 2012: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 125 19 augustus 2013: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 126 18 februari 2014: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 127 9 juli 2014: Het heeft even geduurd maar daar is die dan, het verfrissende nieuwe deel 128! 10 juli 2014: Games met Mantle ondersteuning toegevoegd en extra achtergronden toegevoegd 9 februari 2015: deel 129 aangemaakt, met nieuwe geruchten en Mantle verder uitgebreid 16 juni 2015: Nieuw deel; alles bijgewerkt, nieuwe logo's, FreeSync, TressFX 17 juni 2015: Fiji toegevoegd bij line-up 19 juni 2015: Gehele Rx 300 series toegevoegd 23 juni 2015: HBM, VSR, FRTC toegevoegd 24 juni 2015: Deel 131! Gaat snel 25 augustus 2015: Deel 132 en kopje toekomst wat geupdate. 21 december 2015: Deel 133, o.a. Radeon Technologie, Crimson, HDR, R9 380X toegevoegdFlamen & Trollen Basic questions, in dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd d.m.v. de search-functie. Gezeur over leverbaarheid, levertijden, prijzen en dergelijke. Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod! Dit kan altijd via boven aan elk topic. Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op AMD Radeon gebied. Dus ook niet even snel er een basic vraagje tussendoor persen! Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!". Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.Changelog Policy Inhoud Geschiedenis Radeon Technologies Group Graphics Core NextGraphics Core Next Generation 1 Graphics Core Next Generation 2 Graphics Core Next Generation 3High Bandwidth Memory Radeon Software Crimson GPUOpen FreeSync Low Framerate Compensation TressFX Virtual Super Resolution Frame Rate Target Control High Dynamic Range Line-UpAMD Radeon R7 360 AMD Radeon R7 370 AMD Radeon R9 380 en R9 380X AMD Radeon R9 390 en R9 390X AMD Radeon R9 Fury X AMD Radeon R9 Fury AMD Radeon R9 Nano AMD Radeon R9 Fury X2Toekomst Geruchtenmolen Links CJ
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en lees hun bijbehorende FAQs.ATi Radeon X700 / X800 Series; R420 / R480: Deel 1 - 20 ATi Radeon X1000 Series; R520 / R580: Deel 21 - 50 ATi Radeon HD 2000 Series; R600 / RV630 / RV610: Deel 51 - 70 ATi Radeon HD 3000 Series; RV670 / R680: Deel 71 - 85 ATi/AMD Radeon HD 4000 Series; RV770 / R700: Deel 86 - 104 Geschiedenis van alle ATi videokaarten t/m de RV790: Deel 100 ATi/AMD Radeon HD 5000 Series; Evergreen: Deel 105 - 116 AMD Radeon HD 6000 Series; Northern Islands: Deel 117 - 123 AMD Radeon HD 7000 Series; Southern Islands: Deel 123 - 125 AMD Radeon Rx 200 series; Sea Islands: Deel 125 - 128 AMD Radeon Rx 200 series; Volcanic Islands: Deel 128 - 129 AMD Radeon Rx 300 series; Caribbean Islands: Deel 129 - 133R420 / R480
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

R520 / R580
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

R600 / RV630 / RV610
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70

RV670 / R680
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85

RV770 / RV700
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104

Evergreen
105 106 107 108 109 110 111 112 113 114 115 116 117

Northern Islands
118 119 120 121 122

Southern Islands
123 124 125

Sea Islands
125 126127 128

Volcanic Islands
128 129

Caribbean Islands
129 130 131 132


Op 9 september 2015 werd bekend dat de GPU tak een los bedrijfsonderdeel binnen AMD wordt. Sinds de overname van ATi meer dan 9 jaar geleden door AMD was het meer een fusie bedrijf, waarbij de APU's van AMD het perfecte voorbeeld zijn van de fusie. Nu is de GPU tak een losse divisie onder de naam Radeon Technologies Group en staat het onder leiding van Raja Koduri. Zo moet de GPU tak zich beter kunnen focussen op nieuwe GPU's en weer een groter marktaandeel krijgen.




GCNDe Graphics Core Next Generation 1 of kortweg GCN microarchitectuur zag voor het eerst het levenslicht met Southern Islands in de HD 7000 serie. Het is de opvolger van de TeraScale microarchitectuur welke gebruikt werd sinds de HD 2000 series. De TeraScale microarchitectuur is een zogenaamde VLIW SIMD architectuur. De GCN microarchitectuur is een zogenaamde RISC SIMD architectuur.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7970 review op AnandTech.

GCN2Met de launch van de HD 7790 (Bonaire) had de GCN microarchitectuur de eerste veranderingen ondergaan. Bij AMD noemen ze de het GCN2, maar op internet staat het vooral bekend als GCN 1.1. De veranderingen zijn o.a. een nieuwe revisie van Powertune en ondersteuning voor TrueAudio en FreeSync.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7790 review op AnandTech.

GCN3Met de launch van de R9 285 (Tonga) zag de derde revisie van de GCN microarchitectuur het levenslicht. AMD noemt het GCN3, maar op internet zul je vooral GCN 1.2 tegenkomen. De veranderingen bestaan o.a. uit verbeterde tesselation performance, losless delta color compressie (voor geheugenbandbreedte reductie) en een nieuwe UVD.

Meer informatie over de GCN 1.2 microarchitectuur kun je vinden in de R9 285 review op AnandTech


High Bandwidth Memory of kortweg HBM is door AMD samen met SK Hynix ontwikkeld. HBM is als opvolger bedoeld voor GDDR5, bij GDDR5 is de rek er namelijk uit. De R9 390X heeft bijvoorbeeld al een 512 bit brede geheugenbus met geheugen geklokt op 1500MHz (6000MT/s) De hoge klokfrequentie en de vele geheugenchips zorgen voor een vrij hoog verbruik, terwijl de 512 bit geheugenbus en vele chips voor een erg duur en complex PCB zorgen. Met HBM worden alle nadelen van GDDR5 aangepakt. Door het geheugen gestapeld naast de GPU op een interposer te plaatsen bespaard dit veel ruimte op het PCB, maakt het de PCB een stuk goedkoper. Daarnaast verhoogt het ook de bandbreedte, kan de kloksnelheid veel omlaag wat het verbruik ten goede komt. Het enige nadeel wat er nu is met de eerste versie is dat we vast zitten aan 4GB maximaal (4 gestapelde stacks van 1GB bestaande uit vier lagen van elk 256MB). Dit zal op worden gelost met HBM 2.0 welke terug komt bij de volgende generatie kaarten welke geplanned staan voor 2016, ook nVidia zal hier dan gebruik van gaan maken.

Overigens kan HBM geheugen ook prima gebruikt worden in combinatie met een CPU. Vooral een APU van AMD met sterke IGP zal hier veel voordeel uit kunnen halen. Het huidige DDR3 en DDR4 zal immers met twee reepjes in dual-channel nog steeds niet een hele hoge bandbreedte leveren, zelfs niet op hoge kloksnelheid. HBM kan hier zorgen voor ongekende vooruitgang. Er zit echter wel een nadeel aan en dat is de afwezigheid van uitbreidbaarheid. Bij het huidige werkgeheugen is het immers prima mogelijk wat extra bij te plaatsen, dit is echter met HBM onmogelijk. Dit zorgt er voor dat HBM in combinatie met CPU's vooralsnog minder geschikt is voor losse verkoop. Voor gebruik in een console is het echter perfect en voor kleine power PC's is het ook erg geschikt.





Meer informatie over HBM kun je vinden op TechReport


Een aantal weken nadat bekend werd dat grafische tak binnen AMD een eigen divisie kreeg, kwam al snel één van de eerste veranderingen in de zin een opvolger voor Catalyst Control Center. Catalyst Control Center, geschreven in .NET, wordt opgevolgd door Radeon Software Crimson Edition, geschreven in Qt. Naast de volledig veranderde en meer moderne interface is Radeon Software Crimson Edition ook vele malen lichter als Catalyst Control Center, het start dus veel sneller.



Voor alle slides en veranderingen zie het volgende artikel op TechPowerUp.


GPUOpen is AMD's antwoord op nVidia's GameWorks, er is alleen één heel groot verschil. Waarbij GameWorks een gesloten systeem is wat er vaak voor zorgt dat games verschrikkelijk slecht presteren op bijna alle hardware, met soms uitzondering van enkele Maxwell kaarten, die dan gewoon slecht presteren, in plaats van extreem slecht. Wordt GPUOpen, zoals de naam al zegt, een verzameling van meerdere Open Source projecten voor meerdere platformen.



Voor meer informatie en nog wat over Linux Support zie AnandTech.


FreeSync is AMD's tegenhanger van nVidia's Gsync. Met FreeSync is het mogelijk om een dynamische refreshrate te krijgen, in plaats van een vaste zoals gebruikelijk. Het voordeel hiervan is dat je geen screen tearing meer krijgt. Bij screen tearing worden 2 of meerdere frames van de videokaart op één refresh weergeven. Bij een snel bewegend beeld ziet dit er nogal vreemd uit, doordat het ene stukje beeld dan al verder is al een ander stukje.

Voorbeeld van screen tearing
Screen tearing ontstaat doordat op het moment dat de monitor een nieuwe frame uit de framebuffer van de videokaart er halverwege dit proces een nieuwe frame in de framebuffer wordt geplaatst. Op zo'n moment zie je dus twee halve frames op je scherm van verschillende tijdstippen. Zoals het plaatje hierboven laat zien is dit niet ideaal.

De oplossing hiertegen was altijd het gebruik van Vsync. Met Vsync produceert de videokaart niet meer frames dan het beeldscherm kan weergeven. Maar Vsync brengt ook weer andere problemen met zich mee. Vsync zorgt namelijk voor input lag. Ook zal de framerate halveren op het moment dat de videokaart niet het benodigd aantal frames kan weergeven. Dit zorgt dan weer voor een niet soepele game ervaring.

Met FreeSync pak je alle problemen aan welke je kan krijgen met een niet FreeSync setup. In tegenstelling tot hoe het eerst was bepaald nu niet de monitor wanneer er een nieuw beeld wordt weergeven, maar bepaald nu de videokaart dat. Op het moment dat de videokaart dus klaar is met een frame geeft die dit door aan de monitor welke dan de nieuwe frame uit de framebuffer kan halen.

Zo pak je screentearing aan en heb je tegelijkertijd ook geen last input lag of een veel lagere framerate.

FreeSync heeft een bereik van 9 t/m 240Hz, al zijn er (op dit moment) geen schermen te vinden die zo'n groot bereik hebben. FreeSync zit verwerkt in de DisplayPort 1.2a specificatie en is een open standaard welke voor iedereen te gebruiken is. Naast DisplayPort is AMD op dit moment ook bezig om FreeSync in een nieuwe HDMI standaard te verwerken.



Reviews over FreeSync zijn te vinden op bijvoorbeeld AnandTech en TechReport en TFT Central.

Meer informatie over FreeSync en geschikte monitoren op AMD.com


Low Framerate Compensation, kortweg LFC, is een nieuwe functie bij het gebruik van FreeSync. Zonder deze functie krijg je bij FreeSync last van tearing en judder als de framerate onder het minimale zakt wat het FreeSync scherm kan weergeven. Bij het gebruik van LFC met Vsync heb je hier geen last van doordat dan meermaals dezelfde frame wordt weergegeven ter compensatie. Wel moet de maximale refreshrate van de monitor minimaal 2,5 maal zo hoog zijn als de minimale.






AMD TressFX Hair is een haar physics systeem. Bedoeld om haar zo natuurlijk mogelijk te laten ogen. Op dit moment zitten we op versie 2.0 in de nieuwe Deus Ex game zal versie 3.0 worden gebruikt. TressFX is in tegenstelling tot nVidia's Hairworks open source en kan dus door iedereen gebruikt worden.

TressFX Hair in Tomb Raider


Virtual Super Resolution of kortweg VSR maakt het mogelijk om een hogere resolutie in te stellen dan dat het scherm werkelijk ondersteund. Vanzelfsprekend zal dit er bij normaal desktop gebruik minder mooi uitzien, maar bij games waarbij anti aliasing niet ondersteund wordt of problemen geeft kan VSR een handige bijkomstigheid zijn.




Frame Rate Target Control of kortweg FRTC zorgt er voor dat je de frame rate kan afkappen tot een bepaalde maximale waarde, welke in principe los staat van de verversingssnelheid van je beeldscherm. Het werkt niet alleen bij 3D games, maar ook bij introschermen of menu's e.d. In menu's wil een fps van enkele duizenden frames per seconde wel eens voorkomen, dit heeft natuurlijk geen enkel nut, kan alleen maar zorgen voor coil whine. Met FRTC heb je daar dus geen last meer van en het verlaagt ook nog eens het verbruik van de videokaart, doordat deze minder hoeft te berekenen. Het maximale aantal frames per seconde dat ingesteld kan worden is op dit moment 200 en het minimale aantal is 30.




High Dynamic Range, kortweg HDR, brengt simpelweg een groter kleurbereik. Vanzelfsprekend moet je wel een HDR scherm hebben anders kan het niet weergegeven worden. Op dit moment zijn er een handje vol TV's welke het ondersteunen, maar in de toekomst wordt dit ongetwijfeld de standaard, ook voor monitoren. Zover is het nu in ieder geval nog niet, maar de nieuwste kaarten van AMD zijn hier alvast op voorbereid.





AMD Radeon Rx 300 SeriesDe Radeon Rx 300 serie, gelanceerd op 18 juni, lijkt grotendeels op de vorige generatie met optimalisaties voor iets betere performance en performance/watt plus de high-end Fiji chip welke gebruikt gaat worden in de R9 Fury, R9 Fury X, R9 Nano en R9 Fury X2.


AMD Radeon R7 360De AMD Radeon R7 360 is opgebouwd rondom de Tobago Pro (Bonaire Pro) core. Bonaire heeft 896 streamprocessors waarvan er 768 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN2 (GCN 1.1) microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.






AMD Radeon R7 370De AMD Radeon R7 370 is opgebouwd rondom de Trinidad Pro (Pitcairn Pro) core. Trinidad heeft 1280 streamprocessors waarvan er 1024 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.






AMD Radeon R9 380 en R9 380XDe AMD Radeon R9 380 is opgebouwd rondom de Antigua Pro (Tonga Pro) core. Antiqua heeft 2048 streamprocessors waarvan er 1792 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN3 microarchitectuur. De R9 380X is gebaseerd op de Antigua XT GPU, welke vooralsnog alleen verkrijgbaar was als mobiele GPU. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 390 en R9 390XDe AMD Radeon R9 390 en R9 390X zijn opgebouwd rondom de Grenada (Hawaii) core. Grenada XT heeft 2816 streamprocessors en Grenada Pro heeft daarvan 2560 actief. Deze GPU maakt gebruik van de GCN2 microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.






AMD Radeon R9 Fury XFiji is de high-end GPU van deze generatie en AMD brengt maar liefst vier videokaarten uit gebaseerd op de Fiji die. Fiji beschikt over 4096 streamprocessors, 256 TMU's, 64 ROP's en een 4096 bit grote geheugenbus met 4GB HBM op 500MHz.

De AMD Radeon R9 Fury X is de eerste kaart van deze nieuwe serie en deze wordt op 24 juni gelanceerd. Deze kaart krijgt een prijskaartje mee van $649 (op dit moment ongeveer 699 euro incl. 21% btw). De TDP van deze videokaart bedraagt 275W en de kaart moet worden aangesloten met twee 8 pins PEG powerconnectors. Deze kaart komt met een all-in-one waterkoeler met 120mm radiator.












AMD Radeon R9 FuryDe AMD Radeon R9 Fury is de tweede kaart van deze nieuwe serie en deze wordt op 14 juli gelanceerd. Deze kaart krijgt een prijskaartje mee van $549 (op dit moment ongeveer 599 euro incl. 21% btw). De TDP van deze videokaart bedraagt ook 275W. De precieze specificaties van deze kaart zijn niet bekend, maar verwacht wordt dat deze minder ingeschakelde streamprocessors heeft. Afbeeldingen van deze kaart zijn nog niet verschenen, maar de fabrikanten staan vrij om deze kaart uit te brengen met een eigen lucht/waterkoeler, van deze kaart zullen we dus veel verschillende versies zien.


AMD Radeon R9 NanoDe grootste verrassing was toch wel de AMD Radeon R9 Nano deze kleine videokaart met één fan wordt deze zomer gelanceerd. De TDP van deze kaart bedraagt maar 175W en de kaart heeft maar één 8 pins PEG stroomconnector nodig. Dit lage stroomverbruik wordt behaald door het beperken van het maximale verbruik in het bios van de videokaart. Gaat het verbruik over de ingestelde waarde heen dan gaat de kloksnelheid omlaag om zo het stroomverbruik te beperken.





AMD Radeon R9 Fury X2De AMD Radeon R9 Fury X2 is de laatste kaart van deze nieuwe serie. Deze kaart stond oorspronkelijk geplant voor de herfst van 2015, maar is nu uitgesteld tot begin 2016. Hoeveel deze kaart gaat kosten is nog niet bekend, ook de TDP is nog onbekend. Wel is bekend dat deze kaart net als de Radeon R9 Fury X twee 8 pins PEG stroomconnectors gaat krijgen. Wat voor koeler op deze kaart geplaatst gaat worden is nog niet bekend, maar vermoedelijk zal het waterkoeling zijn.



AMD Radeon Fury X2 bestaande uit twee Fiji GPU's AMD TressFX 3.0, wordt waarschijnlijk geïntroduceerd tegelijk met de nieuwe Deus Ex. FreeSync monitoren met HDMI aansluitingen. Rx 400? series met de codenaam Arctic Islands, de op 14nm FinFET bij GloFo i.s.m. Samsung geproduceerde opvolger van de Rx 300 series met HBM2, HDMI 2.0a en DisplayPort 1.3 met 2 maal de performance per watt tegenover de huidige videokaarten.Vooralsnog is het redelijk rustig hier. AMD-only partnersClub3D Sapphire Powercolor HIS XFXAMD / nVidia partnersAsus Gigabyte MSIUtilitiesGPU-z - Uitlezen temperatuur en specificaties van de videokaart. Rage3D Tweak - (3.9 versie) ATiTool - Overkloktool voor oudere videokaarten met goed werkende scan for artifacs RivaTuner - Tweak utility incl. SoftRadeon ATi Tray Tools SAPPHIRE TriXX Sapphire's overkloktool. MSI Afterburner (gebaseerd op Rivatuner) MSI Kombustor (gebaseerd op Furmark) DUU Display Driver UninstallerVoor als je driver problemen ondervind of van nVidia naar AMD of visa versa wil.Officieel AMD-gerelateerdRadeon Technologies Group website: http://www.amd.com AMD Game site: http://game.amd.com AMD Facebook site: https://www.facebook.com/AMD AMD Probleem Meldpunt: AMD Report Drivers download: http://support.amd.com/en-us/download De grootste online AMD Radeon community: http://www.rage3d.com Praten over de laatste 3D ontwikkelingen? http://www.beyond3d.comTopic-gerelateerdHet ATi HD5XXX Ervaringen topic - Deel 4 Het AMD HD6XXX Ervaringen topic - Deel 3 AMD Radeon HD7XXX Ervaringen - Deel 1 Het AMD HD7XXX Prijzen & Levertijden topic AMD Radeon R9 Ervaringen - Deel 1 AMD Radeon R9 Levertijden & Beschikbaarheid - Deel 1 Algemeen GPU Overclock Topic #1 De geschiedenis van de Radeons Uit het 100ste topicdeel.
Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks van deel 1 tot en met deel 116, welke veel te vroeg van ons is heengegaan.

Rust zacht, CJ
Condoleance topic voor CJ.

Algemeen GPU Overclock Topic #1

08:01 discussie 804
Introductie
Dit topic bestaat uit een AMD gedeelte en een Nvidia gedeelte.AMD (Door Frozen) Nvidia (Door Imprezzion) ResultatenDeze tutorial is hoe wij overclocken en is op eigen risico, wij zijn op geen enkele manier aansprakelijk mocht er iets fout gaan

OC vuistregel:
Als je met overclocken nog nooit een artifact of BSOD hebt gezien, dan heb je niet goed overgeclockt.
Naar: millman


Plaatje van MSI Afterburner (Dè overclocksoftware van dit moment)

Wat is overclocking?quote:Overklokken (Engels: overclocking) is het verhogen van de kloksnelheid, oftewel het sneller laten werken van computeronderdelen dan binnen de specificatie (en garantie) van de fabrikant.
Digitale componenten werken vaak op een bepaald ritme, dat door een elektrisch signaal wordt aangegeven. Dit signaal gaat met een bepaalde frequentie van nul naar een bepaalde spanning en weer terug, en wordt het kloksignaal genoemd.
bron: Wikipedia: OverklokkenWat bedoelen wij in de wereld van grafische kaarten (GPU's) met overclocking?
Het verhogen van de clocksnelheden van je grafische kaart ten behoeve van extra prestatie.
Wat voor dingen kan je verhogen?De Core Clock Dit is het hoofd ''ding'' bij het overclocken. Dit bepaald in zekere mate de snelheid waarop de grafische chip in je videokaart werkt. Door deze clock te verhogen zal de grafische kaart meer prestatie geven waardoor je meer frames per second of een hogere benchmark score kan krijgen. De Memory Clock Dit bepaald de snelheid van je geheugen (wat vaak GDDR5 is) op je grafische kaart. Door deze te verhogen zal het geheugen sneller werken wat kan leiden tot extra prestatie. Er zijn echter verschillende soorten geheugenfabrikanten die geheugen maken voor grafische kaarten. De hoofdfabrikanten zijn echter ''Elpida'' en ''Hynix''. Hynix maakt het betere en beter overclockbare geheugen. Als je een kaart met Elpida hebt is de kans groot dat bij deze de memory clock lang niet zo hoog kan zijn als bij een kaart met Hynix. Het Core Voltage Om te werken heeft de kaart natuurlijk stroom en een spanning nodig. De spanning (een ''vorm'' van energie) is bepalend of de kaart stabiel kan blijven of niet. Voordat je begint met overclocken is het belangrijk je eerst goed in te lezen en te zoeken naar resultaten van mensen die al eerder hun kaart overclocked hebben. Als het goed is zal je ook voltages vinden en het absolute voltage van je kaart waarbij hij 24/7 overgeclocked zou kunnen draaien zonder stuk te gaan. Natuurlijk zal door de warmte en het beetje extra voltage de kaart iets sneller stuk gaan, maar na die tijd heb je al láááng een nieuwe kaart. Het Memory Voltage Dit is het voltage waarop het ram van je kaart loopt. Zelf ben ik geen voorstander van het tweaken aan het ramvoltage hoewel een increase van 100mV wel eens kan helpen om net de clock te krijgen waar je zo lang over droomde. De Power limit De power limit zit nu sinds enkele tijd in de kaarten van AMD en eigenlijk zegt het niet meer dan: We verhogen je Core Voltage een beetje tot zover je kaart het nodig heeft waardoor je kan overclocken zonder zelf aan het corevoltage te lopen ''rotzooien''. Ik vind dit zelf onzin en knal dit ding altijd zo snel mogelijk naar rechts als ik ga overclocken. De Fan speed Dit is een hele belangrijke. Je moet natuurlijk niet denken dat een overclock met alleen maar voordelen komt. Een nadeel is bijvoorbeeld extra warmte, gelukkig heb je op veel kaarten ''aftermarket'' coolers. Ook kan je een agressiever fan-profiel instellen waardoor je kaart koeler blijft maar natuurlijk wel meer geluid produceert. Voorbeelden van deze ''aftermarket coolers'' zijn bijvoorbeeld deze: Kaarten met de stock (ofwel reference) koeler van AMD hebben vaak mindere koelprestaties en Overclocking met deze kaarten is niet echt aangeraden. Niet alleen koelt deze niet zo goed als de meeste aftermarket coolers maar maakt deze ook nog eens een hoop lawaai. Indien je een kaart hebt met een stock/reference koeler en graag wil overclocken is het aangeraden om zelf aftermarket koeling te monteren. Dit void bij sommige kaarten wel je garantie en je moet er ook een paar keer over nadenken voordat je het gaat doen. Goede aftermarket koelers zijn bijvoorbeeld: pricewatch: Arctic Accelero Xtreme III pricewatch: Gelid Solutions ICY VISION REV2. (All VGA Cards) Let wel op dat jouw kaart compatible is met deze koelers. Niet elke kaart is dat. Ook kan je gaan voor waterkoeling op je kaart. Dit kan met een: pricewatch: Arctic Accelero Hybrid Of een pricewatch: NZXT Kraken G10 Zwart in combinatie met pricewatch: NZXT Kraken X40 of andere ''closed-loop'' waterkoeler.Benodigdheden voor het overclockenGPU-Z: http://www.techpowerup.com/gpuz/ Laat informatie zien inclusief clocks en VRM temperaturen. Wat je bovendien in dit programma kan zien is welk soort ram je hebt. Kijk hiervoor bij ''Memory Type'' in GPU-Z Furmark: http://www.ozone3d.net/benchmarks/fur/ Strest je kaart zodat je maximale temperaturen kan zien. MSI Afterburner: http://event.msi.com/vga/afterburner/ Goed programma om te overclocken. Heaven benchmark: http://unigine.com/products/heaven/ Goed programma om te kijken of je overclock stabiel is Wat zijn artifacts?
Allereerst moet je weten wat artifacts zijn, dit zijn ''vreemde'' dingen op je scherm die eigenlijk niet door de maker van de software of het spel bedoelt zijn om zo te laten zien. Dit kan een resultaat zijn van een onstabiele kaart. Voorbeelden zijn legio en rangen van witte strepen, tot rode punten tot hele onderdelen van een spel die je ziet vliegen:





Hoe vergelijk je prestaties
Heel simpel, door hetzelfde programma te gebruiken. De meeste common programma's om prestaties mee te benchen zijn:
Valley benchmark, Heaven benchmark, 3Dmark 11, 3dmark firestrike.

Om prestaties van videokaarten (onovergeclocked) te vergelijken kan je gaan naar:
http://www.anandtech.com/bench/GPU14/815

Om overgeclockte prestaties te vergelijken kan je gaan naar:
http://www.3dmark.com/search
http://community.futuremark.com/hardware/gpu
www.overclock.net

Ook kan je natuurlijk reviews lezen op het internet, Google is je vriend.

Voltage locked/unlocked
Als je wilt overclocken is het natuurlijk belangrijk dat je voltage niet gelocked is. Dan kan je je voltage niet verhogen waardoor je bij hoge clocks geen stabiele kaart kan krijgen. Bij sommige kaarten zoals de MSI r9 280x was er een vreemde bug waardoor het leek alsof het voltage gelocked was terwijl dat niet zo was. Zie hiervoor mijn review van de MSI: productreview: MSI R9 280X GAMING 3G review door Frozen

ASIC-waardes
Asic waardes zijn een beetje de ''door elfjes bij maanlicht gesmeden waardes'' die worden toegekend aan een kaart door de manufacturer. De waarde kan gevonden worden door in het programma GPU-Z linksboven op het logo te klikken. Het volgende plaatje spreekt voor zich:

Sommige mensen (zoals ik) geloven dat kaarten met een hogere asic waarde beter overclockbaar zijn terwijl anderen dat niet doen. Dit is het beste stukje wat ik op internet heb kunnen vinden over asic waardes:quote:It doesn't mean much. They use a value found on each chip denoting what they call "quality" during the binning process. It really has no reflection on overclock relative to voltage & temperature, since people with 60% and 80% can clock higher than others with 71% and 84%, while some 78% and 68% are the bottom of the barrel. See what I mean, it has no relationship.

So the chips are binned in complicated process that I don't have all the details on. I'm not an EE in charge of asic validations. Chips have a measured leakage and a temperature operational range, those values are measured and combined to form the hard-coded readable data for 'asic qual'. The chips are assigned a default voltage ID based on the results of leakage testing. For each product in AMD's case there is a range for which the voltages must be set. Here's where it starts gettingBron: http://forums.anandtech.com/archive/index.php/t-2246288.html




AMD Overclocking

1) Check wat andere overclockers bereikt hebben
2) Check wat het maximale voltage is voordat je kaart dood gaat.
3) Download MSI afterburner
4) Download GPU-Z
5) Download Furmark
6) Download heaven benchmark
7) Installeer alles
8 ) Open GPU-Z en laat het de hele tijd aan staan zodat je altijd toezicht hebt op je temperaturen en andere informatie
9) Ga naar MSI afterburner en doe hetvolgende:quote:To use (properly) Install to your desired location. For simplicity, I will use C:\programs\MSI Afterburner. Yours may be different!
-Launch MSI Afterburner, then immediately close it!
-Navigate to the install directory, and locate MSIAfterburner.cfg (In my case for this guide, it will be C:\programs\MSI Afterburner\MSIAfterburner.cfg), and open in notepad.
-Change these values
-"Enable Unofficial Overclocking" to 1 (Omitted on newer versions/combined with the EULA)
-"Unofficial Overclocking Mode" to 2
-Then copy and paste the line below to "Unofficial Overclocking EULA"
I confirm that I am aware of unofficial overclocking limitations and fully understand that MSI will not provide me any support on it
-save and exit
-Re-launch MSI Afterburner Enjoy!10) Schuif in afterburner het balkje van de power limit helemaal naar rechts.
11) Draai Furmark en kijk of je kaart niet te heet wordt. Wordt hij boven de 78 graden dan is het belangrijk om bij MSI afterburner een custom fan profile te maken (één zodat je kaart rond de 65-70 graden blijft hangen).
12) Start Heaven benchmark en doorloop het 2x. Blijf kijken naar het filmpje, nu weet je ongeveer hoe het eruit ziet.
13) Verhoog de coreclock in msi afterburner met 50. Klik op apply in afterburner.
14) Start heaven benchmark (laat het 2x draaien en kijk of je ''artifacts ziet'', dit zijn afwijkingen t.o.v. hoe het eruit zag in stap 10. Zie je deze: Coreclock met 10mhz omlaag en kijk of je ze nog ziet. Zo ja, herhaal deze stap totdat je ze niet meer ziet. Zie je geen ''artifacts'' dan kan je je core clock verhogen met stapjes van 20mhz. Na elke verhoging moet je weer 2 rondjes heaven benchmark doen om te kijken of je artifacts ziet.
15) Nu moet het memory overgeclocked worden, kijk eerst of je elpida of hynix of samsung memory hebt. Elpida overclockt slecht terwijl samsung en hynix dat goed doen, dit zodat je weet wat je ongeveer kan verwachten.
16) Verhoog je memory clock met stapjes van: eerst 50, dan weer 50 en dan stapjes van 20. Zie je weer artifacts in heaven benchmark, terugzetten met 10mhz totdat je ze niet meer ziet. Wat je nu ook kan doen is je voltage een klein beetje verhogen, met 10mv en kijken of hij nu wel stabiel is. Ga echter nooit over het voltage heen wat je bij stap 2 hebt opgezocht.
290(x), " je mem artifact niet, ECC zorgt er voor dat de render fouten niet getoond worden maar opnieuw berekend ten koste van de prestaties - gallery: nedernakker " Zou je willen weten wat je maximale memory clock is, dan moet je de core clock hetzelfde laten en alleen met het memory gaan spelen. Hierna moet je benchmarks draaien, de benchmarks met de hoogste scores zal degene zijn waarbij de memory clocks optimaal zijn ingesteld.
17) Nu weet je wat je kaart kan presteren zonder het voltage aan te passen, als het goed is weet je welk core voltage ''maximaal'' is om je kaart 24/7 op dit voltage te laten lopen zonder dat hij dood gaat. Verhoog het core voltage dan een beetje. Ga nu je kaart zetten op de net behaalde overclock core speed en ga weer omhoog met stapjes van 20. ''artifacts''? Terug zetten met stapjes van 10.
18) Ram voltage aanpassen heeft m.i. niet veel nut en daar ga ik dus ook niet op in.

Natuurlijk zijn er honderdduizenden videos op Youtube maar dit is dé manier waarop ik overclock. Nogmaals ik ben niet aansprakelijk voor schade. Lees je goed in voordat je begint te overclocken.


Aankoopadvies
Het is eigenlijk heel erg simpel, je typt op Google in ''review [je videokaart]'' en je gaat reviews lezen.
Hierbij is het belangrijk dat je kijkt naar het soort ram, de stilte van de koeler en de temperaturen van de kaart door de koeler.
Een goede review van de r9 280x is bijvoorbeeld: http://www.tomshardware.c...-party-round-up,3655.html

Sommige kaarten zijn al uit de doos onstabiel waaronder de: productreview: Asus R9280X-DC2T-3GD5 TOP review door Frozen De normale versie zonder TOP is daarentegen wel weer Oké.
Deze raad ik dus niet aan om te kopen.




nVidia Overclocking

90% van de guide hierboven geldt ook gewoon voor nVidia maar, nVidia kaarten hebben ook hun eigen grillen vanaf de GTX6xx serie. GTX5xx of lager is hetzelfde als de AMD guide hierboven.

GPU Boost
Met de GTX6xx serie heeft nVidia een nieuw clock en overclock systeem geïntroduceerd.
Namelijk GPU Boost, en in de GTX7xx serie GPU Boost 2.0.

Dit schaalt de clocksnelheden vanaf een gegarandeerde clock dynamisch omhoog afhankelijk van stroomverbruik en temperatuur van de kaart.

Voor een nVidia GTX6xx of nieuwer is het dan ook lastig overclocken omdat je snel tegen limieten aanloopt of een variërende clock hebt in verschillende applicaties.

Het beste is dan ook als je gaat overclocken om zowel de temperatuurlimiet als de power limiet in je MSI Afterburner (of vergelijkbaar) op max zet om zo weinig mogelijk schommelingen te krijgen.

Op de GTX6xx serie is Boost vooral afhankelijk van de Power limit, op GTX7xx staat de prioriteit op temperatuur. Dat zegt niet dat de rest geen invloed meer heeft overigens.

Voltage?
Alle nVidia kaarten zijn in principe gelocked qua voltage op een vrij laag maximum voltage.
Voor de GTX4xx/GTX5xx is dit tussen de 1.0625v en 1.1500v.
Voor de GTX6xx serie is dit 1.1750v.
Voor de GTX7xx serie is het ook 1.1750v.

Maar, voor de echte Tweakers onder ons: Voltage is op twee manieren vrij makkelijk te unlocken.

[b]Manier 1: BIOS mods (Voltage, Power Limit e.d.)[b]
Wanneer je aan de slag gaat met overclocken zul je meer dan eens tegen de Power Limit aan lopen of je irriteren aan het lage voltage aangezien de temperaturen nog zat ruimte over laten.

Gelukkig is er voor zo'n beetje elke kaart van GTX4xx of hoger wel een modded BIOS te krijgen welke voltage unlocked naar nVidia's werkelijke max van 1.212v.

Op GTX6xx of nieuwer is ook de waarde van de Power Limit aangepast in de meeste custom BIOS's zodat je niet meer tegen throttling aan loopt van GPU Boost.

GTX680's zijn overigens crossflashbaar met GTX770 BIOS's om zo GPU Boost 2.0 te krijgen en een hogere Power Limit. Gebruik hiervoor wel een zelfde BIOS van dezelfde PCB layout als je GTX680 heeft. Reference op reference, DC2 op DC2, JetStream op JetStream e.d.

De meeste BIOS's zijn te krijgen op overclock.net.

Linkjes:
GTX6xx serie BIOS's: http://www.overclock.net/...-bios-downloads-and-tools
GTX760 BIOS's: http://www.overclock.net/...vidia-gtx-760-owners-club
GTX770 BIOS's: http://www.overclock.net/...icial-gtx-770-owners-club
GTX780 BIOS's: http://www.overclock.net/...vidia-gtx-780-owners-club

Let op! Als je met manier 2 aan de slag gaat om nog meer dan de 1.212v te krijgen: Gebruik ALTIJD een custom BIOS! Anders loop je toch wel tegen een Power Limit aan.

Manier 2: MSI Afterburner commands / unlocks
Op alle kaarten met de NCP4206 / NCP4208 controller kun je via MSI Afterburner (3.0 Beta 15 of nieuwer) voltage unlocken tot 1.300v.

Om er achter te komen welke controller je kaart heeft moet je je kaart even opzoeken op TechPowerUp! of een dergelijke review site en even zoeken op een PCB foto. Bij TPU staat er sowieso al bij welke controller er op een kaart zit.

De kaarten die hem sowieso hebben:
Reference based GTX780's, Titans en GTX780 Ti's.
Non-reference GTX7xx: MSI Gaming GTX7xx, MSI GTX760 Hawk, Palit Jetstream GTX770/GTX780, Alle Gigabyte GTX780/GTX780 Ti's en nog veel meer.

Het enige wat je hoeft te doen is het volgende.

- Installeer MSI AB.
- Unlock voltage via de normale manier hierboven beschreven.
- Sla een profiel op met standaard instellingen.
- Ga naar C://Program Files (x86)/MSI Afterburner/Profiles en open het VEN_10D......cfg bestand met Kladblok of iets dergelijks.
- Plaats de volgende code in de .cfg en sla hem op (als dit niet werkt, even Take Ownership of adminrechten gebruiken bij openen).

[Settings]
VDDC_Generic_Detection=0
VDDC_NCP4206_Detection=3:20h

- Opslaan en MSI AB even herstarten. Als je nu een venster krijgt met iets over reboot om defaults te laden e.d. gewoon op OK klikken, reboot is niet nodig.

- Werkt dit niet en veranderd er niks, tekst veranderen in:

[Settings]
VDDC_Generic_Detection=0
VDDC_NCP4206_Detection=4:20h

- Als alles werkt is nu je Core Voltage balkje van een offset (+0 - +100) veranderd in een hard voltage wat je tot 1.300v aan kan passen.

Let wel op, een reference design kaart kan 1.300v NIET langdurig aan op luchtkoeling omdat de VRM's oververhitten. 1.24v max op lucht met verhoogde fanspeed.
Er zijn uitzonderingen hierop: De Gigabyte Windforce3X Rev 2.0, de Ghz Edition als ook de JetStream / Super JetStream hebben 8 fasen in plaats van 6 en direct contact VRM koeling met de hoofd heatsink en kunne veel meer hebben. De Gigabyte heb ik zelf ook lange tijd op 1.30v gedraaid zonder enige problemen.

Er zijn nog meer mods, zoals het uitschakelen van LLC om nog meer volts te krijgen, maar dit is vrij onstabiel met de nieuwste drivers en nog gevaarlijker voor de kaarten omdat het nog een stuk meer load op de VRM's zet. Daarom zal ik dit ook niet gaan aanraden.

Wel kun je voor benchmarken nog de volgende tool pakken:
http://www.overclock.net/...4206-voltage-llc-mod-tool

Met deze tool kun je je GPU voltage alsmede LLC zo hoog zetten als je zelf wilt. Dit werkt tot de volgende reboot / cold boot. Hiermee kun je je watergekoelde beest lekker tot 1.45v pushen en benchmarken.

Resultaten:
Om je overclocks te showen kan je het beste gebruik maken van deze spreadsheet: Members only:
https://docs.google.com/s...GMpNkx5s/edit?usp=sharing

Voor de nog wat oudere data hebben we de lijstjes hieronder:

Overclock resultaten Naam Gpu-type Core clock Memory Clock Core Voltage
1) Frozen
2) Frozen
3) Frozen
4) Frozen
5) gallery: rikadoo
6) gallery: kuusj98
7) gallery: jorank

Sapphire 7950 vapor-x
Msi r9 280x gaming
Asus r9 280x DCII TOP
Sapphire r9 290 tri-x
XFX R9 290 @ ASUS R9 290X
Asus DCII R9 280X
Sapphire R9 270x Toxic

1140
1180
1140
1125
1090
1175
1260

1375
1700
1500
1500
stock
1900
1550

1.25
+80
+50
+50
stock
1.3
?


3dMark (firestrike) resultaten (Geen link = niet verifiëerbaar) Naam Gpu-type Core/mem Graphicsscore Link
Frozen
Frozen
rikadoo
Vincent227
msmeenge
Frozen
nvidia666
nvidia666

Msi r9 280x
Sapphire r9 290 tri-x
XFX r9 290 (@290x bios)
Sapphire r9 290x tri-x
Sapphire r9 290 tri-x
Sapphire r9 290 tri-x
AMD R9 290
Nvidia gtx 750 Ti

1225/1800
1125/1500
1120/1300
1040/1300
1225/1500
1200/1600
1150/1375
1328/1688

9451
11708
12086
10963
13256
12993
12376
5192

http://www.3dmark.com/3dm/2167712
http://www.3dmark.com/3dm/2339732
http://www.3dmark.com/3dm/2394267
http://www.3dmark.com/3dm/2385895
http://www.3dmark.com/3dm/2394642
http://www.3dmark.com/3dm/2465873
http://www.3dmark.com/3dm/5802276
http://www.3dmark.com/3dm/5862493


3dMark11 resultaten (Geen link = niet verifiëerbaar) Naam Gpu-type Core/mem Graphicsscore Link
Frozen
Frozen
Lupp
msmeenge
magherb82

Sapphire 7950 vapor-x
Sapphire r9 290 tri-x
gtx 780
Sapphire r9 290 tri-x
Asus gtx 980

1140/1375
1125/1500
1270/1502
1250/1500
1127(1216)/1753

10617
15841
13536
17992
17067

http://www.3dmark.com/3dm11/7471810
http://www.3dmark.com/3dm11/7902507
http://www.3dmark.com/3dm11/7924937
http://www.3dmark.com/3dm11/7928552

CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 132

22-12-2015 discussie 993
1 december 2012: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 125 19 augustus 2013: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 126 18 februari 2014: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 127 9 juli 2014: Het heeft even geduurd maar daar is die dan, het verfrissende nieuwe deel 128! 10 juli 2014: Games met Mantle ondersteuning toegevoegd en extra achtergronden toegevoegd 9 februari 2015: deel 129 aangemaakt, met nieuwe geruchten en Mantle verder uitgebreid 16 juni 2015: Nieuw deel; alles bijgewerkt, nieuwe logo's, FreeSync, TressFX 17 juni 2015: Fiji toegevoegd bij line-up 19 juni 2015: Gehele Rx 300 series toegevoegd 23 juni 2015: HBM, VSR, FRTC toegevoegd 24 juni 2015: Deel 131! Gaat snel 25 augustus 2015: Deel 132 en kopje toekomst wat geupdate.Flamen & Trollen Basic questions, in dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd d.m.v. de search-functie. Gezeur over leverbaarheid, levertijden, prijzen en dergelijke. Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod! Dit kan altijd via boven aan elk topic. Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op AMD Radeon gebied. Dus ook niet even snel er een basic vraagje tussendoor persen! Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!". Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.Changelog Policy Inhoud Geschiedenis Graphics Core NextGraphics Core Next Generation 1 Graphics Core Next Generation 2 Graphics Core Next Generation 3High Bandwidth Memory FreeSync TressFX Virtual Super Resolution Frame Rate Target Control Line-UpAMD Radeon R7 360 AMD Radeon R7 370 AMD Radeon R9 380 AMD Radeon R9 390 en R9 390X AMD Radeon R9 Fury X AMD Radeon R9 Fury AMD Radeon R9 Nano AMD Radeon R9 Fury X2Toekomst Geruchtenmolen Links CJ
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en lees hun bijbehorende FAQs.ATi Radeon X700 / X800 Series; R420 / R480: Deel 1 - 20 ATi Radeon X1000 Series; R520 / R580: Deel 21 - 50 ATi Radeon HD 2000 Series; R600 / RV630 / RV610: Deel 51 - 70 ATi Radeon HD 3000 Series; RV670 / R680: Deel 71 - 85 ATi/AMD Radeon HD 4000 Series; RV770 / R700: Deel 86 - 104 Geschiedenis van alle ATi videokaarten t/m de RV790: Deel 100 ATi/AMD Radeon HD 5000 Series; Evergreen: Deel 105 - 116 AMD Radeon HD 6000 Series; Northern Islands: Deel 117 - 123 AMD Radeon HD 7000 Series; Southern Islands: Deel 123 - 125 AMD Radeon Rx 200 series; Sea Islands: Deel 125 - 128 AMD Radeon Rx 200 series; Volcanic Islands: Deel 128 - 129 AMD Radeon Rx 300 series; Caribbean Islands: Deel 129 - 132R420 / R480
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

R520 / R580
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

R600 / RV630 / RV610
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70

RV670 / R680
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85

RV770 / RV700
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104

Evergreen
105 106 107 108 109 110 111 112 113 114 115 116 117

Northern Islands
118 119 120 121 122

Southern Islands
123 124 125

Sea Islands
125 126127 128

Volcanic Islands
128 129

Caribbean Islands
129 130 131



GCNDe Graphics Core Next Generation 1 of kortweg GCN microarchitectuur zag voor het eerst het levenslicht met Southern Islands in de HD 7000 serie. Het is de opvolger van de TeraScale microarchitectuur welke gebruikt werd sinds de HD 2000 series. De TeraScale microarchitectuur is een zogenaamde VLIW SIMD architectuur. De GCN microarchitectuur is een zogenaamde RISC SIMD architectuur.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7970 review op AnandTech.


GCN2Met de launch van de HD 7790 (Bonaire) had de GCN microarchitectuur de eerste veranderingen ondergaan. Bij AMD noemen ze de het GCN2, maar op internet staat het vooral bekend als GCN 1.1. De veranderingen zijn o.a. een nieuwe revisie van Powertune en ondersteuning voor TrueAudio en FreeSync.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7790 review op AnandTech.


GCN3Met de launch van de R9 285 (Tonga) zag de derde revisie van de GCN microarchitectuur het levenslicht. AMD noemt het GCN3, maar op internet zul je vooral GCN 1.2 tegenkomen. De veranderingen bestaan o.a. uit verbeterde tesselation performance, losless delta color compressie (voor geheugenbandbreedte reductie) en een nieuwe UVD.

Meer informatie over de GCN 1.2 microarchitectuur kun je vinden in de R9 285 review op AnandTech


High Bandwidth Memory of kortweg HBM is door AMD samen met SK Hynix ontwikkeld. HBM is als opvolger bedoeld voor GDDR5, bij GDDR5 is de rek er namelijk uit. De R9 390X heeft bijvoorbeeld al een 512 bit brede geheugenbus met geheugen geklokt op 1500MHz (6000MT/s) De hoge klokfrequentie en de vele geheugenchips zorgen voor een vrij hoog verbruik, terwijl de 512 bit geheugenbus en vele chips voor een erg duur en complex PCB zorgen. Met HBM worden alle nadelen van GDDR5 aangepakt. Door het geheugen gestapeld naast de GPU op de interposer te plaatsen bespaard dit veel ruimte op het PCB, maakt het de PCB een stuk goedkoper. Daarnaast verhoogt het ook de bandbreedte, kan de kloksnelheid veel omlaag wat het verbruik ten goede komt. Het enige nadeel wat er nu is met de eerste versie is dat we vast zitten aan 4GB maximaal (4 gestapelde stacks van 1GB bestaande uit vier lagen van elk 256MB). Dit zal op worden gelost met HBM 2.0 welke terug komt bij de volgende generatie kaarten welke geplanned staan voor 2016, ook nVidia zal hier dan gebruik van gaan maken.





Meer informatie over HBM kun je vinden op TechReport


FreeSync is AMD's tegenhanger van nVidia's Gsync. Met FreeSync is het mogelijk om een dynamische refreshrate te krijgen, in plaats van een vaste zoals gebruikelijk. Het voordeel hiervan is dat je geen screen tearing meer krijgt. Bij screen tearing worden 2 of meerdere frames van de videokaart op één refresh weergeven. Bij een snel bewegend beeld ziet dit er nogal vreemd uit, doordat het ene stukje beeld dan al verder is al een ander stukje.

Voorbeeld van screen tearing
Screen tearing ontstaat doordat op het moment dat de monitor een nieuwe frame uit de framebuffer van de videokaart er halverwege dit proces een nieuwe frame in de framebuffer wordt geplaatst. Op zo'n moment zie je dus twee halve frames op je scherm van verschillende tijdstippen. Zoals het plaatje hierboven laat zien is dit niet ideaal.

De oplossing hiertegen was altijd het gebruik van Vsync. Met Vsync produceert de videokaart niet meer frames dan het beeldscherm kan weergeven. Maar Vsync brengt ook weer andere problemen met zich mee. Vsync zorgt namelijk voor input lag. Ook zal de framerate halveren op het moment dat de videokaart niet het benodigd aantal frames kan weergeven. Dit zorgt dan weer voor een niet soepele game ervaring.

Met FreeSync pak je alle problemen aan welke je kan krijgen met een niet FreeSync setup. In tegenstelling tot hoe het eerst was bepaald nu niet de monitor wanneer er een nieuw beeld wordt weergeven, maar bepaald nu de videokaart dat. Op het moment dat de videokaart dus klaar is met een frame geeft die dit door aan de monitor welke dan de nieuwe frame uit de framebuffer kan halen.

Zo pak je screentearing aan en heb je tegelijkertijd ook geen last input lag of een veel lagere framerate.

FreeSync heeft een bereik van 9 t/m 240Hz, al zijn er (op dit moment) geen schermen te vinden die zo'n groot bereik hebben. FreeSync zit verwerkt in de DisplayPort 1.2a specificatie en is een open standaard welke voor iedereen te gebruiken is. Naast DisplayPort is AMD op dit moment ook bezig om FreeSync in een nieuwe HDMI standaard te verwerken.

Meer informatie over o.a. welke schermen ondersteuning bieden en welke videokaarten en APU's ondersteuning bieden voor de FreeSync standaard is te vinden op Wikipedia.

Reviews over FreeSync zijn te vinden op bijvoorbeeld AnandTech en TechReport en TFT Central.


AMD TressFX Hair is een haar physics systeem. Bedoeld om haar zo natuurlijk mogelijk te laten ogen. Op dit moment zitten we op versie 2.0 in de nieuwe Deus Ex game zal versie 3.0 worden gebruikt. TressFX is in tegenstelling tot nVidia's Hairworks open source en kan dus door iedereen gebruikt worden.


TressFX Hair in Tomb Raider


Virtual Super Resolution of kortweg VSR is een Super Sampling Anti-Aliasing bedoeld voor games welke dit standaard niet ondersteunen. Met VSR is het mogelijk om een hogere resolutie in te stellen dan het beeldscherm aan kan. Dit geeft de mooiste vorm van Anti-Aliasing, maar is ook verreweg het zwaarst.




Frame Rate Target Control of kortweg FRTC zorgt er voor dat je de frame rate kan afkappen tot een bepaalde maximale waarde, welke in principe los staat van de verversingssnelheid van je beeldscherm. Het werkt niet alleen bij 3D games, maar ook bij introschermen of menu's e.d. In menu's wil een fps van enkele duizenden frames per seconde wel eens voorkomen, dit heeft natuurlijk geen enkel nut, kan alleen maar zorgen voor coil whine. Met FRTC heb je daar dus geen last meer van en het verlaagt ook nog eens het verbruik van de videokaart.



AMD Radeon Rx 300 SeriesDe Radeon Rx 300 serie, gelanceerd op 18 juni, lijkt grotendeels op de vorige generatie met optimalisaties voor iets betere performance en performance/watt plus de high-end Fiji chip welke gebruikt gaat worden in de R9 Fury, R9 Fury X, R9 Nano en R9 Fury X2.


AMD Radeon R7 360De AMD Radeon R7 360 is opgebouwd rondom de Tobago Pro (Bonaire Pro) core. Bonaire heeft 896 streamprocessors waarvan er 768 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN2 (GCN 1.1) microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R7 370De AMD Radeon R7 370 is opgebouwd rondom de Trinidad Pro (Pitcairn Pro) core. Trinidad heeft 1280 streamprocessors waarvan er 1024 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 380De AMD Radeon R9 380 is opgebouwd rondom de Antigua Pro (Tonga Pro) core. Antiqua heeft 2048 streamprocessors waarvan er 1792 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN3 microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 390 en R9 390XDe AMD Radeon R9 390 en R9 390X zijn opgebouwd rondom de Grenada (Hawaii) core. Grenada XT heeft 2816 streamprocessors en Grenada Pro heeft daarvan 2560 actief. Deze GPU maakt gebruik van de GCN2 microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 Fury XFiji is de high-end GPU van deze generatie en AMD brengt maar liefst vier videokaarten uit gebaseerd op de Fiji die. Fiji beschikt over 4096 streamprocessors, 256 TMU's, 64 ROP's en een 4096 bit grote geheugenbus met 4GB HBM op 500MHz.

De AMD Radeon R9 Fury X is de eerste kaart van deze nieuwe serie en deze wordt op 24 juni gelanceerd. Deze kaart krijgt een prijskaartje mee van $649 (op dit moment ongeveer 699 euro incl. 21% btw). De TDP van deze videokaart bedraagt 275W en de kaart moet worden aangesloten met twee 8 pins PEG powerconnectors. Deze kaart komt met een all-in-one waterkoeler met 120mm radiator.
















AMD Radeon R9 FuryDe AMD Radeon R9 Fury is de tweede kaart van deze nieuwe serie en deze wordt op 14 juli gelanceerd. Deze kaart krijgt een prijskaartje mee van $549 (op dit moment ongeveer 599 euro incl. 21% btw). De TDP van deze videokaart bedraagt ook 275W. De precieze specificaties van deze kaart zijn niet bekend, maar verwacht wordt dat deze minder ingeschakelde streamprocessors heeft. Afbeeldingen van deze kaart zijn nog niet verschenen, maar de fabrikanten staan vrij om deze kaart uit te brengen met een eigen lucht/waterkoeler, van deze kaart zullen we dus veel verschillende versies zien.


AMD Radeon R9 NanoDe grootste verrassing was toch wel de AMD Radeon R9 Nano deze kleine videokaart met één fan wordt deze zomer gelanceerd. De TDP van deze kaart bedraagt maar 175W en de kaart heeft maar één 8 pins PEG stroomconnector nodig. Dit lage stroomverbruik zal waarschijnlijk behaald worden door de GPU een stuk lagere kloksnelheid en spanning mee te geven als Fury X heeft.






AMD Radeon R9 Fury X2De AMD Radeon R9 Fury X2 is de laatste kaart van deze nieuwe serie en deze wordt in de herfst van dit jaar gelanceerd. Hoeveel deze kaart gaat kosten is nog niet bekend, ook de TDP is nog onbekend. Wel is bekend dat deze kaart net als de Radeon R9 Fury X twee 8 pins PEG stroomconnectors gaat krijgen. Wat voor koeler op deze kaart geplaatst gaat worden is nog niet bekend, maar vermoedelijk zal het waterkoeling zijn.



AMD Radeon R9 370X met een volledige ingeschakelde Trinidad GPU om de concurrentie aan te gaan met de GTX 950 AMD Radeon Nano komt uit op 27 augustus en beschikt over een volledig ingeschakelde Fiji GPU, met een maximale kloksnelheid van 1GHz. De maximale 175W wordt bereikt door extreme throtteling, de frequentie van 1GHz zal dus weinig gehaald worden. AMD Radeon Fury X2 bestaande uit twee Fiji GPU's staat dit najaar gepland. AMD TressFX 3.0, wordt waarschijnlijk geïntroduceerd tegelijk met de nieuwe Deus Ex. Rx 400? series met de codenaam Arctic Islands, de op 14nm FinFET bij GloFo i.s.m. Samsung geproduceerde opvolger van de Rx 300 series met HBM2Een R9 380X gebaseerd op de Antigua XT (Tonga XT) GPU. Een R7 360X gebaseerd op de Tobago XT (Bonaire XT) GPU.AMD-only partnersClub3D Sapphire Powercolor HIS XFXAMD / nVidia partnersAsus Gigabyte MSIUtilitiesGPU-z - Uitlezen temperatuur en specificaties van de videokaart. Rage3D Tweak - (3.9 versie) ATiTool - Overkloktool voor oudere videokaarten met goed werkende scan for artifacs RivaTuner - Tweak utility incl. SoftRadeon ATi Tray Tools SAPPHIRE TriXX Sapphire's overkloktool. MSI Afterburner (gebaseerd op Rivatuner) MSI Kombustor (gebaseerd op Furmark) DUU Display Driver UninstallerVoor als je driver problemen ondervind of van nVidia naar AMD of visa versa wil.Officieel AMD-gerelateerdOfficiele ATi website: http://www.amd.com Officiele AMD Game site: http://game.amd.com Officiele AMD Facebook site: https://www.facebook.com/AMD Offciele AMD Probleem Meldpunt: AMD Report Drivers download: http://support.amd.com/en-us/download De grootste online ATi community: http://www.rage3d.com Praten over de laatste 3D ontwikkelingen? http://www.beyond3d.comTopic-gerelateerdHet ATi HD5XXX Ervaringen topic - Deel 4 Het AMD HD6XXX Ervaringen topic - Deel 3 AMD Radeon HD7XXX Ervaringen - Deel 1 Het AMD HD7XXX Prijzen & Levertijden topic AMD Radeon R9 Ervaringen - Deel 1 AMD Radeon R9 Levertijden & Beschikbaarheid - Deel 1 Algemeen GPU Overclock Topic #1 De geschiedenis van de Radeons Uit het 100ste topicdeel.
Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks van deel 1 tot en met deel 116, welke veel te vroeg van ons is heengegaan.

Rust zacht, CJ
Condoleance topic voor CJ.

CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 131

25-08-2015 discussie 1003
1 december 2012: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 125 19 augustus 2013: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 126 18 februari 2014: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 127 9 juli 2014: Het heeft even geduurd maar daar is die dan, het verfrissende nieuwe deel 128! 10 juli 2014: Games met Mantle ondersteuning toegevoegd en extra achtergronden toegevoegd 9 februari 2015: deel 129 aangemaakt, met nieuwe geruchten en Mantle verder uitgebreid 16 juni 2015: Nieuw deel; alles bijgewerkt, nieuwe logo's, FreeSync, TressFX 17 juni 2015: Fiji toegevoegd bij line-up 19 juni 2015: Gehele Rx 300 series toegevoegd 23 juni 2015: HBM, VSR, FRTC toegevoegd 24 juni 2015: Deel 131! Gaat snel Flamen & Trollen Basic questions, in dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd d.m.v. de search-functie. Gezeur over leverbaarheid, levertijden, prijzen en dergelijke. Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod! Dit kan altijd via boven aan elk topic. Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op AMD Radeon gebied. Dus ook niet even snel er een basic vraagje tussendoor persen! Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!". Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.Changelog Policy Inhoud Geschiedenis Graphics Core NextGraphics Core Next Generation 1 Graphics Core Next Generation 2 Graphics Core Next Generation 3High Bandwidth Memory FreeSync TressFX Virtual Super Resolution Frame Rate Target Control Line-UpAMD Radeon R7 360 AMD Radeon R7 370 AMD Radeon R9 380 AMD Radeon R9 390 en R9 390X AMD Radeon R9 Fury X AMD Radeon R9 Fury AMD Radeon R9 Nano AMD Radeon R9 Fury X2Toekomst Geruchtenmolen Links CJ
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en lees hun bijbehorende FAQs.ATi Radeon X700 / X800 Series; R420 / R480: Deel 1 - 20 ATi Radeon X1000 Series; R520 / R580: Deel 21 - 50 ATi Radeon HD 2000 Series; R600 / RV630 / RV610: Deel 51 - 70 ATi Radeon HD 3000 Series; RV670 / R680: Deel 71 - 85 ATi/AMD Radeon HD 4000 Series; RV770 / R700: Deel 86 - 104 Geschiedenis van alle ATi videokaarten t/m de RV790: Deel 100 ATi/AMD Radeon HD 5000 Series; Evergreen: Deel 105 - 116 AMD Radeon HD 6000 Series; Northern Islands: Deel 117 - 123 AMD Radeon HD 7000 Series; Southern Islands: Deel 123 - 125 AMD Radeon Rx 200 series; Sea Islands: Deel 125 - 128 AMD Radeon Rx 200 series; Volcanic Islands: Deel 128 - 129 AMD Radeon Rx 300 series; Caribbean Islands: Deel 129 - 130R420 / R480
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

R520 / R580
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

R600 / RV630 / RV610
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70

RV670 / R680
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85

RV770 / RV700
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104

Evergreen
105 106 107 108 109 110 111 112 113 114 115 116 117

Northern Islands
118 119 120 121 122

Southern Islands
123 124 125

Sea Islands
125 126127 128

Volcanic Islands
128 129

Caribbean Islands
129 130



GCNDe Graphics Core Next Generation 1 of kortweg GCN microarchitectuur zag voor het eerst het levenslicht met Southern Islands in de HD 7000 serie. Het is de opvolger van de TeraScale microarchitectuur welke gebruikt werd sinds de HD 2000 series. De TeraScale microarchitectuur is een zogenaamde VLIW SIMD architectuur. De GCN microarchitectuur is een zogenaamde RISC SIMD architectuur.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7970 review op AnandTech.


GCN2Met de launch van de HD 7790 (Bonaire) had de GCN microarchitectuur de eerste veranderingen ondergaan. Bij AMD noemen ze de het GCN2, maar op internet staat het vooral bekend als GCN 1.1. De veranderingen zijn o.a. een nieuwe revisie van Powertune en ondersteuning voor TrueAudio en FreeSync.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7790 review op AnandTech.


GCN3Met de launch van de R9 285 (Tonga) zag de derde revisie van de GCN microarchitectuur het levenslicht. AMD noemt het GCN3, maar op internet zul je vooral GCN 1.2 tegenkomen. De veranderingen bestaan o.a. uit verbeterde tesselation performance, losless delta color compressie (voor geheugenbandbreedte reductie) en een nieuwe UVD.

Meer informatie over de GCN 1.2 microarchitectuur kun je vinden in de R9 285 review op AnandTech


High Bandwidth Memory of kortweg HBM is door AMD samen met SK Hynix ontwikkeld. HBM is als opvolger bedoeld voor GDDR5, bij GDDR5 is de rek er namelijk uit. De R9 390X heeft bijvoorbeeld al een 512 bit brede geheugenbus met geheugen geklokt op 1500MHz (6000MT/s) De hoge klokfrequentie en de vele geheugenchips zorgen voor een vrij hoog verbruik, terwijl de 512 bit geheugenbus en vele chips voor een erg duur en complex PCB zorgen. Met HBM worden alle nadelen van GDDR5 aangepakt. Door het geheugen gestapeld naast de GPU op de interposer te plaatsen bespaard dit veel ruimte op het PCB, maakt het de PCB een stuk goedkoper. Daarnaast verhoogt het ook de bandbreedte, kan de kloksnelheid veel omlaag wat het verbruik ten goede komt. Het enige nadeel wat er nu is met de eerste versie is dat we vast zitten aan 4GB maximaal (4 gestapelde stacks van 1GB bestaande uit vier lagen van elk 256MB). Dit zal op worden gelost met HBM 2.0 welke terug komt bij de volgende generatie kaarten welke geplanned staan voor 2016, ook nVidia zal hier dan gebruik van gaan maken.





Meer informatie over HBM kun je vinden op TechReport


FreeSync is AMD's tegenhanger van nVidia's Gsync. Met FreeSync is het mogelijk om een dynamische refreshrate te krijgen, in plaats van een vaste zoals gebruikelijk. Het voordeel hiervan is dat je geen screen tearing meer krijgt. Bij screen tearing worden 2 of meerdere frames van de videokaart op één refresh weergeven. Bij een snel bewegend beeld ziet dit er nogal vreemd uit, doordat het ene stukje beeld dan al verder is al een ander stukje.

Voorbeeld van screen tearing
Screen tearing ontstaat doordat op het moment dat de monitor een nieuwe frame uit de framebuffer van de videokaart er halverwege dit proces een nieuwe frame in de framebuffer wordt geplaatst. Op zo'n moment zie je dus twee halve frames op je scherm van verschillende tijdstippen. Zoals het plaatje hierboven laat zien is dit niet ideaal.

De oplossing hiertegen was altijd het gebruik van Vsync. Met Vsync produceert de videokaart niet meer frames dan het beeldscherm kan weergeven. Maar Vsync brengt ook weer andere problemen met zich mee. Vsync zorgt namelijk voor input lag. Ook zal de framerate halveren op het moment dat de videokaart niet het benodigd aantal frames kan weergeven. Dit zorgt dan weer voor een niet soepele game ervaring.

Met FreeSync pak je alle problemen aan welke je kan krijgen met een niet FreeSync setup. In tegenstelling tot hoe het eerst was bepaald nu niet de monitor wanneer er een nieuw beeld wordt weergeven, maar bepaald nu de videokaart dat. Op het moment dat de videokaart dus klaar is met een frame geeft die dit door aan de monitor welke dan de nieuwe frame uit de framebuffer kan halen.

Zo pak je screentearing aan en heb je tegelijkertijd ook geen last input lag of een veel lagere framerate.

FreeSync heeft een bereik van 9 t/m 240Hz, al zijn er (op dit moment) geen schermen te vinden die zo'n groot bereik hebben. FreeSync zit verwerkt in de DisplayPort 1.2a specificatie en is een open standaard welke voor iedereen te gebruiken is. Naast DisplayPort is AMD op dit moment ook bezig om FreeSync in een nieuwe HDMI standaard te verwerken.

Meer informatie over o.a. welke schermen ondersteuning bieden en welke videokaarten en APU's ondersteuning bieden voor de FreeSync standaard is te vinden op Wikipedia.

Reviews over FreeSync zijn te vinden op bijvoorbeeld AnandTech en TechReport en TFT Central.


AMD TressFX Hair is een haar physics systeem. Bedoeld om haar zo natuurlijk mogelijk te laten ogen. Op dit moment zitten we op versie 2.0 in de nieuwe Deus Ex game zal versie 3.0 worden gebruikt. TressFX is in tegenstelling tot nVidia's Hairworks open source en kan dus door iedereen gebruikt worden.


TressFX Hair in Tomb Raider


Virtual Super Resolution of kortweg VSR is een Super Sampling Anti-Aliasing bedoeld voor games welke dit standaard niet ondersteunen. Met VSR is het mogelijk om een hogere resolutie in te stellen dan het beeldscherm aan kan. Dit geeft de mooiste vorm van Anti-Aliasing, maar is ook verreweg het zwaarst.




Frame Rate Target Control of kortweg FRTC zorgt er voor dat je de frame rate kan afkappen tot een bepaalde maximale waarde, welke in principe los staat van de verversingssnelheid van je beeldscherm. Het werkt niet alleen bij 3D games, maar ook bij introschermen of menu's e.d. In menu's wil een fps van enkele duizenden frames per seconde wel eens voorkomen, dit heeft natuurlijk geen enkel nut, kan alleen maar zorgen voor coil whine. Met FRTC heb je daar dus geen last meer van en het verlaagt ook nog eens het verbruik van de videokaart.



AMD Radeon Rx 300 SeriesDe Radeon Rx 300 serie, gelanceerd op 18 juni, lijkt grotendeels op de vorige generatie met optimalisaties voor iets betere performance en performance/watt plus de high-end Fiji chip welke gebruikt gaat worden in de R9 Fury, R9 Fury X, R9 Nano en R9 Fury X2.


AMD Radeon R7 360De AMD Radeon R7 360 is opgebouwd rondom de Tobago Pro (Bonaire Pro) core. Bonaire heeft 896 streamprocessors waarvan er 768 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN2 (GCN 1.1) microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R7 370De AMD Radeon R7 370 is opgebouwd rondom de Trinidad Pro (Pitcairn Pro) core. Trinidad heeft 1280 streamprocessors waarvan er 1024 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 380De AMD Radeon R9 380 is opgebouwd rondom de Antigua Pro (Tonga Pro) core. Antiqua heeft 2048 streamprocessors waarvan er 1792 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN3 microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 390 en R9 390XDe AMD Radeon R9 390 en R9 390X zijn opgebouwd rondom de Grenada (Hawaii) core. Grenada XT heeft 2816 streamprocessors en Grenada Pro heeft daarvan 2560 actief. Deze GPU maakt gebruik van de GCN2 microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 Fury XFiji is de high-end GPU van deze generatie en AMD brengt maar liefst vier videokaarten uit gebaseerd op de Fiji die. Fiji beschikt over 4096 streamprocessors, 256 TMU's, 64 ROP's en een 4096 bit grote geheugenbus met 4GB HBM op 500MHz.

De AMD Radeon R9 Fury X is de eerste kaart van deze nieuwe serie en deze wordt op 24 juni gelanceerd. Deze kaart krijgt een prijskaartje mee van $649 (op dit moment ongeveer 699 euro incl. 21% btw). De TDP van deze videokaart bedraagt 275W en de kaart moet worden aangesloten met twee 8 pins PEG powerconnectors. Deze kaart komt met een all-in-one waterkoeler met 120mm radiator.
















AMD Radeon R9 FuryDe AMD Radeon R9 Fury is de tweede kaart van deze nieuwe serie en deze wordt op 14 juli gelanceerd. Deze kaart krijgt een prijskaartje mee van $549 (op dit moment ongeveer 599 euro incl. 21% btw). De TDP van deze videokaart bedraagt ook 275W. De precieze specificaties van deze kaart zijn niet bekend, maar verwacht wordt dat deze minder ingeschakelde streamprocessors heeft. Afbeeldingen van deze kaart zijn nog niet verschenen, maar de fabrikanten staan vrij om deze kaart uit te brengen met een eigen lucht/waterkoeler, van deze kaart zullen we dus veel verschillende versies zien.


AMD Radeon R9 NanoDe grootste verrassing was toch wel de AMD Radeon R9 Nano deze kleine videokaart met één fan wordt deze zomer gelanceerd. De TDP van deze kaart bedraagt maar 175W en de kaart heeft maar één 8 pins PEG stroomconnector nodig. Dit lage stroomverbruik zal waarschijnlijk behaald worden door de GPU een stuk lagere kloksnelheid en spanning mee te geven als Fury X heeft.






AMD Radeon R9 Fury X2De AMD Radeon R9 Fury X2 is de laatste kaart van deze nieuwe serie en deze wordt in de herfst van dit jaar gelanceerd. Hoeveel deze kaart gaat kosten is nog niet bekend, ook de TDP is nog onbekend. Wel is bekend dat deze kaart net als de Radeon R9 Fury X twee 8 pins PEG stroomconnectors gaat krijgen. Wat voor koeler op deze kaart geplaatst gaat worden is nog niet bekend, maar vermoedelijk zal het waterkoeling zijn.



AMD Radeon R9 370X met een volledige ingeschakelde Trinidad GPU om de concurrentie aan te gaan met de toekomstige GTX 950 AMD Radeon Fury gebaseerd op de Fiji Pro GPU wordt gelanceerd op 14 juli. AMD Radeon Nano komt deze zomer, deze kaart is gebaseerd op een zwaar ondergeklokte en ondergevolte Fiji GPU. AMD Radeon Fury X2 bestaande uit twee Fiji GPU's staat dit najaar gepland. AMD TressFX 3.0, wordt waarschijnlijk geïntroduceerd tegelijk met de nieuwe Deus Ex. Rx 400? series met de codenaam Arctic Islands, de op 14nm FinFET bij GloFo i.s.m. Samsung geproduceerde opvolger van de Rx 300 series met HBM2Een R9 380X gebaseerd op de Antigua XT (Tonga XT) GPU. Een R7 360X gebaseerd op de Tobago XT (Bonaire XT) GPU.AMD-only partnersClub3D Sapphire Powercolor HIS XFXAMD / nVidia partnersAsus Gigabyte MSIUtilitiesGPU-z - Uitlezen temperatuur en specificaties van de videokaart. Rage3D Tweak - (3.9 versie) ATiTool - Overkloktool voor oudere videokaarten met goed werkende scan for artifacs RivaTuner - Tweak utility incl. SoftRadeon ATi Tray Tools SAPPHIRE TriXX Sapphire's overkloktool. MSI Afterburner (gebaseerd op Rivatuner) MSI Kombustor (gebaseerd op Furmark) DUU Display Driver UninstallerVoor als je driver problemen ondervind of van nVidia naar AMD of visa versa wil.Officieel AMD-gerelateerdOfficiele ATi website: http://www.amd.com Officiele AMD Game site: http://game.amd.com Officiele AMD Facebook site: https://www.facebook.com/AMD Offciele AMD Probleem Meldpunt: AMD Report Drivers download: http://support.amd.com/en-us/download De grootste online ATi community: http://www.rage3d.com Praten over de laatste 3D ontwikkelingen? http://www.beyond3d.comTopic-gerelateerdHet ATi HD5XXX Ervaringen topic - Deel 4 Het AMD HD6XXX Ervaringen topic - Deel 3 AMD Radeon HD7XXX Ervaringen - Deel 1 Het AMD HD7XXX Prijzen & Levertijden topic AMD Radeon R9 Ervaringen - Deel 1 AMD Radeon R9 Levertijden & Beschikbaarheid - Deel 1 Algemeen GPU Overclock Topic #1 De geschiedenis van de Radeons Uit het 100ste topicdeel.
Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks van deel 1 tot en met deel 116, welke veel te vroeg van ons is heengegaan.

Rust zacht, CJ
Condoleance topic voor CJ.

[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55

17-01-2015 discussie 2917
Topicregels GT 200 Fermi Recente Nieuwsberichten Geruchten Cuda Hybrid (power) SLI PhysX PureVideo Tegra Platform Drivers Links - Reviews & Topics & Pricewatch
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia. Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter Dit topic is vooral niét bedoeld om te posten dat:jouw favoriete kaart niet leverbaar is bij een shop. jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent. je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen. je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt. je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ) je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews. Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan. Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!Veel lees- en discussieerplezier toegewenst!

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2


Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34


Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Alle informatie over deze kaarten kun je totaan deel 50 van dit topic terugvinden


G 210 en GT 220 aka old stuff dat blijkbaar nog steeds verkocht wordt

GeForce 210 GPU: GT218 (40nm) Release Date: 12/10/2009 Interface: PCI-E 2.0 x16 Transistors: 260 million Unified shaders: 16 Shader clock: 1402 MHz ROP's: 8 Core Clock: 589 MHz Memory Clock: 400 MHz (DDR2) Memory Bandwidth: 8.0 GB/sec (DDR2) Memory Interface: 64 bit Memory: 512 MB OpenGL: 3.2 Consumption: 30,5 watt (max) Power Connectors: geen DirectX: 10.1

GeForce GT 220 GPU: GT216 (40nm) Release Date: 12/10/2009 Interface: PCI-E 2.0 x16 Transistors: 486 million Unified shaders: 48 Shader clock: 1360 MHz ROP's: 8 Core Clock: 625 MHz Memory Clock: 790 MHz (GDDR3) Memory Bandwidth: 25.3 GB/sec Memory Interface: 128 bit Memory: 1024 MB (max) OpenGL: 3.2 Consumption: 58 watt (max) Power Connectors: geen DirectX: 10.1


Instap level



GT 520GPU: GF108 Release Date: 12/4/2011 Interface: PCI-E x16 2.0 Transistors: ?? Unified shaders:48 Shader clock: 1620 MHz ROP's: ?? Core Clock: 810 MHz Memory Clock: 900 MHz Memory Bandwidth: 14,4 GB/sec Memory Interface: 64 bit Memory: 1024 MB DDR3 Consumption: max 29 Watt



GT 610GPU: GF119 (40 nm) Release Date: 15/5/2012 Interface: PCI-E x16 2.0 Die size: 79 mm² CUDA Cores: 48 Shader clock: 1620 MHz ROP's: 4 Core Clock: 810 Mhz Memory Clock: 900 Mhz(DDR3) Memory Bandwidth:25,6 - 28,8 GB/s Memory Interface: 64 bit Memory: 1024 MB Texture Units: 8 Texture Fill Rate: 6.5 (b/s) GFLOPS: 100.4 FMA Consumption: max 29 Watt

Low End



GT 530/620GPU: GF119 (40nm) Release Date: 3/4/2012 Interface: PCI-E x16 2.0 Transistors: 585 Miljoen CUDA Cores : 96 Shader clock: 1400 MHz ROP's:4 Core Clock: 700 Mhz Memory Clock: 900Mhz (DDR3) Memory Bandwidth: 14.4 GB/s Memory Interface: 64 bit Memory: 1024 MB Texture Units: 16 Texture Fill Rate: 11.2 (b/s) GFLOPS: 268.8 FMA Consumption: max 49 Watt



GT 430GPU: GF108 Release Date: 11/10/2010 Interface: PCI-E x16 2.0 Transistors: 585 Miljoen Unified shaders:96 Shader clock: 1400 MHz ROP's: 4 Core Clock: 700 Mhz Memory Clock: 800 - 900Mhz (GDDR3) Memory Bandwidth:25,6 - 28,8 GB/s Memory Interface: 128 bit Memory: 1024 MB Texture Units: 16 Consumption: Officieel max 49 Watt


Low End GT440 varianten en rebrands



GT 440/540/630 DDR3-variantGPU: GF108 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: ?? CUDA cores: 96 Shader clock: 1620 MHz ROP's: 4 Core Clock: 810 Mhz Memory Clock: (800)-900 Mhz (GDDR3) Memory Bandwidth: (25,6)28,8 GB/s Memory Interface: 128 bit Memory: 1024MB-2048 (GDDR3) Texture Fill Rate: 13.0 (b/s) Consumption: max 65 Watt



GT 440/540/630 GDDR5-variantGPU: GF108 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: ?? CUDA cores: 96 Shader clock: 1620 MHz ROP's: 4 Core Clock: 810 Mhz Memory Clock: 800 Mhz (GDDR5) Memory Bandwidth: 51.2 GB/s Memory Interface: 128 bit Memory: 1024MB-2048 (GDDR3) Texture Fill Rate: 13.0 (b/s) Consumption: max 65 Watt



Mid-End



GTS 450GPU: GF106 (40nm) Release Date: Q2 2010 Uitgesteld naar 13 september Interface: PCI-E x16 2.0 Transistors: 1.17 miljard Unified shaders:192 Shader clock: 1566 MHz ROP's: 16 Core Clock: 789 983 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 60,16/90,24 57,6 GB/s Memory Interface: 128 /192 bit Memory: 512?/768?/ 1024/2048? MB L2 Cache Size: 256KB Texture Units: 32 Consumption: max 106 watt Performatie: mid-end

GT640 varianten ..



GT 545/ GT640 DDR3- 192 bit(OEM)GPU: GF118 (28nm) Interface: PCI-E x16 2.0 Transistors: 1.17 miljard CUDA Cores: 144 Shader clock: 1440 MHz ROP's: 24 Core Clock: 720 Mhz Memory Clock: 891 Mhz (DDR3) Memory Bandwidth: 42.8 GB/s Memory Interface: 192 bit Memory: 1536/3072 MB Texture Units: 24 Texture Fill Rate: 17.3 (b/s) Consumption: 75 watt (TDP)



GT640 DDR3- 128 bit (OEM)GPU: GK107 (28nm) Release Date: Interface: PCI-E x16 2.0 Transistors: 1.3 miljard CUDA Cores: 384 Shader clock: 797 MHz ROP's: 16 Core Clock: 797 Mhz Memory Clock: 891 Mhz Memory Bandwidth: 28.5 GB/s Memory Interface: 128 bit Memory: 1024/2048 MB Texture Units: 32 Texture Fill Rate: 25.5 (b/s) Consumption: 50 watt (TDP)

GT640 varianten ..



GT640 DDR3- 128 bitGPU: GK107 (28nm) Release Date: 5/6/2012 Interface: PCI-E x16 3.0 Transistors: 1.3 miljard CUDA Cores: 384 Shader clock: 900 MHz ROP's: 16 Core Clock: 900 Mhz Memory Clock: 891 Mhz (DDR3) Memory Bandwidth: 28.5 GB/s Memory Interface: 128 bit Memory: 2048 MB Texture Units: 32 Texture Fill Rate: 28.8 (b/s) Consumption: 65 watt (TDP)



GT640 GDDR5- 128 bit(OEM)GPU: GK107 (28nm) Release Date: 24/4/2012 Interface: PCI-E x16 3.0 Transistors: 1.3 miljard CUDA Cores: 384 Shader clock: 950 MHz ROP's: 16 Core Clock: 950 Mhz Memory Clock: 1250 Mhz (GDDR5) Memory Bandwidth: 80 GB/s Memory Interface: 128 bit Memory: 1024/2048 MB Texture Units: 32 Texture Fill Rate: 30.4 (b/s) Consumption: 75 watt (TDP)

Mid-end



GTX 550 TiGPU: GF116 (40nm) Release Date: 15/03/2011 Interface: PCI-E x16 2.0 Transistors: 1.17 miljard Unified shaders: 192 Shader clock: 1800 MHz ROP's: 24 Pixel Fill Rate: 21.6 GP/s Core Clock: 900 Mhz Memory Clock: 1026 Mhz (GDDR5) Memory Bandwidth: 98,5 GB/sec (GDDR5) Memory Interface: 192 bit Memory: 1024MB Texture Units: 32 (28.8 GT/s) Consumption: 116 Watt (TDP) Performantie: Mid-end



GTX 555/GTX 560 SE/GT 645GPU: GF114 [red](40nm)[/green] Release Date: maart 2012 Interface: PCI-E x16 2.0 Transistors: 1.95 miljard CUDA Cores: 288 Shader clock: 1645 MHz ROP's: 24 Core Clock: 776 Mhz Memory Clock: 1001 Mhz (GDDR5) Memory Bandwidth: 91.9 GB/s Memory Interface: 192 bit Memory: 1024/1512 MB Texture Units: 48 Texture Fill Rate: 37.2 (b/s) Consumption: 140 watt (TDP)


Mid-end



GTX 460 SEGPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 288 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 24 Core Clock: 650 Mhz Memory Clock: 850 Mhz (GDDR5) Memory Bandwidth: 108,8 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB L2 Cache Size: 384KB Texture Units: 48 Consumption: 150 Watt (minder dan de HD58 50/30) Performantie:Mid-end



GTX 460 768 MB GPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 336 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 24 Core Clock: 675 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 86,4 GB/sec (GDDR5) Memory Interface: 192 bit Memory: 768MB (mogelijkheid voor 1536MB) L2 Cache Size: 384KB Texture Units: 56 Consumption: 150 Watt (minder dan de HD58 50/30) Performantie:High Mid-end


High Mid-end



GTX 460 1024MB GPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 336 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 32 Core Clock: 675 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 115,2 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB Texture Units: 56 L2 Cache Size: 512KB Consumption: 160 Watt (minder dan de HD58 50/30) Performantie:High Mid-end



GTX 560 GPU: GF114 (40nm) Release Date: 17/05/2011 Interface: PCI-E x16 2.0 Transistors: 1,95 miljard Unified shaders: 336 Shader clock: 1620 MHz ROP's: 32 Core Clock: 810 Mhz Memory Clock: 1001 Mhz (GDDR5) Memory Bandwidth: 128 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB (mogelijkheid voor 2048MB) Texture Units: 56 Texture Fill Rate: 45.4 (b/s) Consumption: 150 Watt TDP

GTX 560



GTX 560 TiGPU: GF114 (40nm) Release Date: 25/01/2011 Interface: PCI-E x16 2.0 Transistors: 1,95 miljard Unified shaders: 384 Shader clock: 1645 MHz ROP's: 32 Core Clock: 822 Mhz Memory Clock: 1002 Mhz (GDDR5) Memory Bandwidth: 128,26 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB (mogelijkheid voor 2048MB) Texture Units: 64 Texture Fill Rate: 52.61 (b/s) Consumption: 170 Watt TDP Performantie:High Mid-end



GTX 560 Ti 448 core GPU: GF114 (40nm) Release Date: 1/12/2011 Interface: PCI-E x16 2.0 Transistors: 1,95 miljard Unified shaders: 384 Shader clock: 1464 MHz ROP's: 40 Core Clock: 752 Mhz Memory Clock: 950 Mhz (GDDR5) Memory Bandwidth: 152 GB/sec (GDDR5) Memory Interface: 320 bit Memory: 1280MB Texture Units: 56 Texture Fill Rate: 41 (b/s) Consumption: 170 Watt TDP Performantie:High Mid-end

Low High End



GTX 465GPU: GF100 Release Date: eind mei 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 352 Shader clock:1215 MHz Core Clock: 607 MHz ROP's: 32 Pixel Fill Rate: 26.7 GP/s Memory Clock: 802 Mhz (GDDR5) Memory Bandwidth: 102.6 GB/s Memory Interface: 256 bit Memory: 1024 MB Texture Units: 48 Consumption: max 200W



GTX 470GPU: GF100 Release Date: April 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 448 MIMD Architectuur Shader clock:1215 mhz Core Clock: 607 tot 1214 (hot clock) Mhz ROP's: 40 Pixel Fill Rate: 24,3 GP/s Memory Clock: 837 Mhz (GDDR5) Memory Bandwidth: 133,9 GB/s Memory Interface: 320 bit Memory: 1280 MB Texture Units: 56 Consumption: tot 215 Watt


GT 660



GTx 660 (OEM)GPU: GK104 (28nm) Release Date: augustus 2012 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1182 Shader clock:823-888 mhz Core Clock: 823-888 Mhz ROP's: ?? Pixel Fill Rate: 24,3 GP/s Memory Clock: 1450 Mhz (GDDR5) Memory Bandwidth: 134 GB/s Memory Interface: 192 bit Memory: 1,5/3 GB Texture Units: ??? Texture Fill Rate: 79 (b/s) Consumption: 150 Watt (TDP)



GTX 660 TiGPU: GK104 (28nm) Release Date: 16/8/2012 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1344 Shader clock:915-980 mhz Core Clock: 915-980 Mhz ROP's: 24 Pixel Fill Rate: 24,3 GP/s Memory Clock: 1500 Mhz (GDDR5) Memory Bandwidth: 144.2 GB/s Memory Interface: 192 bit Memory: 2048 MB Texture Units: 112 Texture Fill Rate: 102.5 (b/s) Consumption: 150 Watt (TDP)


High End



GTX 480GPU: GF100 Release Date: April 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 480 MIMD Architectuur Shader clock: 1401 Mhz Core Clock: 700 tot 1400 (hot clock) MHz ROP's: 48 Pixel Fill Rate: 33,6GP/s Memory Clock: 924 (GDDR5) Memory Bandwidth: 177,4 GB/s Memory Interface: 384 bit Memory: 1536 MB Texture Units: 64 Consumption: tot 250 Watt



GTX 570GPU: GF110 Release Date: 7/12/2010 Interface: PCI-E x16 2.0 Transistors: 3 miljard Unified shaders: 480 Shader clock: 1464 Mhz Core Clock: 732 MHz ROP's: 40 Pixel Fill Rate: 43,92 GP/s Memory Clock: 950MHz (GDDR5) Memory Bandwidth: 152 GB/s Memory Interface: 320 bit Memory: 1280 MB Texture Units: 60 Texture Fill Rate: 43.9 (miljard/sec) Consumption:219 Watt

High End



GTX 580GPU: GF110 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: 3,2? miljard Unified shaders: 512 Shader clock: 1544 Mhz Core Clock: 772 MHz ROP's: 48 Pixel Fill Rate: 37.06 GP/s Memory Clock: 1002 (GDDR5) Memory Bandwidth: 192,4 GB/s Memory Interface: 384 bit Memory: 1536 MB Texture Units: 64 Texture Fill Rate: 49.4 (miljard/sec) Consumption: 250 Watt



GTX 670GPU: GK104 (24nm) Release Date: 10/05/2012 Interface: PCI-E x16 3.0 Transistors: 3.54 miljard CUDA Cores: 1344 Shader clock: 915-1084 mhz Core Clock: 915-1084 Mhz ROP's: 32 Pixel Fill Rate: 29.3 GP/s Memory Clock: 1250 Mhz (GDDR5) Memory Bandwidth: 192.256GB/s Memory Interface: 256 bit Memory: 2048 MB Texture Units: 112 Texture Fill Rate: 102.5(b/s) Consumption: 170 Watt (TDP)


High End



GTX 680GPU: GK104 (28nm) Release Date: 22/03/2012 Interface: PCI-E x16 3.0 Transistors: 3,54 miljard CUDA Cores: 1536 Shader clock: 1006-1110 Mhz Core Clock: 1006-1110 MHz ROP's: 32 Pixel Fill Rate: 32.2 GP/s Memory Clock: 1252 (GDDR5) Memory Bandwidth: 192,256 GB/s Memory Interface: 256 bit Memory: 2048/4096 MB Texture Units: 128 Texture Fill Rate: 128.8 (b/sec) Consumption: 195 Watt (TDP)



GTX 590GPU: 2*GF110 Release Date: Zomer 2010 --> 24 maart 2011 Interface: PCI-E x16 2.0 Transistors: 2*3,0 miljard Unified shaders: 512*2 Shader clock:1215 mhz Core Clock:607 Mhz ROP's: 2*48 Pixel Fill Rate:58,75 GP/s Memory Clock: 853,5 Mhz (GDDR5) Memory Bandwidth: 2* 163,9GB/s Memory Interface: 2* 384 bit Memory: 2*768/1536 MB Texture Units: 64*2 Texture Fill Rate: 77,7 (miljard per sec) Consumption: "Extreme" 365Watt officiele TDP

High End



GTX 690GPU: 2*GK104 Release Date: 29/04/2012 Interface: PCI-E x16 3.0 Transistors: 2*3,540 miljard Unified shaders: 2*1536 Shader clock:915-1058 mhz Core Clock:915-1058 Mhz ROP's: 2*32 Pixel Fill Rate:2*28.8 GP/s Memory Clock: 1252 Mhz (GDDR5) Memory Bandwidth: 2* 192,256GB/s Memory Interface: 2* 256 bit Memory: 2*2048 MB Texture Units: 2*128 Texture Fill Rate: 2*117.12 (b/S) Consumption: 300 Watt (TDP)


ModelGPUShadersGPU
kloksnelheidGeheugen
typeGeheugen
snelheidBand
breedteBus
breedteSLIGT 410MGF11948575MHz(G)ddr31600MHz12,8GB/s64bitNeeGT 520MGF11948740MHzddr31600MHz12,8GB/s64bitNeeGT 520MXGF11948900MHzddr31800MHz14,4GB/s64bitNeeGT 415MGF10848500MHzddr31600MHz25,6GB/s128bitNeeGT 420MGF10896500MHzddr31600MHz25,6GB/s128bitNeeGT 425MGF10896560MHzddr31600MHz25,6GB/s128bitNeeGT 525MGF10896600MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 435MGF10896650MHzddr31600MHz25.6GB/s128bitNeeGT 540MGF10896672MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 550MGF10896740MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 445MGF106144590MHzGddr5/ddr31600/2500MHz25.6/60GB/s128/192bitNeeGT 555MGF106/8144590MHzGddr5/ddr31800MHz43,2GB/s192bitNeeGT 560MGF116192775MHzGddr52500MHz60,0GB/s192bitNeeGT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNeeGTX 485MGF104384575MHzGddr53000MHz76,8GB/s256bitJaGT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNee

Het vroegtijdig overlijden van ons forumlid CJ:
• The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:
• Nieuws: Reguliere GTX 660 voor systeembouwers duikt op
• Nieuws: Nvidia plant meerdere versies van GTX 660
• Review: De GeForce 670M en 675M in twee BTO-laptops
• Nieuws: Nvidia-partners brengen GeForce GTX 660 Ti-varianten uit
• Nieuws: Nvidia lost beveiligingsprobleem in Linux-driver op
• Nieuws: Nvidia herstelt pci express 3.0-ondersteuning socket2011-borden
• Nieuws: Nvidia reageert op kritiek van Torvalds
• Nieuws: Fabrikanten komen met Nvidia GT 640


Externe nieuwsberichten:
Nvidia herpakt zijn marktaandeel in laptop gpu's vooral te kosten van AMD.
• Hardware.info: nVidia haalt 50,6% marktaandeel in notebook videokaarten

Project Denver
nVidia heeft op CES hun nieuwste project betreffende het Tegra/ARM platform voorgesteld. Blijkbaar wil nVidia verder gaan dan dat ze tot nu toe met Tegra hebben bereikt. Momenteel houdt Tegra in dat een nVidia video chip wordt gecombineerd met 1 of meerdere aangekocht ARM chips om samen een platform te vormen.
nVidia toont blijkbaar nu ook de aspiratie om de ARM cpu chips zelf te ontwikkelen en te laten produceren (nVidia is nog steeds fabless). Door de licentiedeal met Intel en de bekomen licenties op de toekomstige ARM structuur is er juridisch geen hinderpaal meer voor nVidia. Daar ook Windows 8 compatibel wal worden met ARM hoopt nVidia hierdoor een concurrentieel platform te kunnen opbouwen dat op lange termijn zelf tegen de huidige x86 platformen kan komen te staan.
Dit vooral voor tablets/smartphones en andere toepassingen. Dat er in deze markt een serieuze groei wordt verwacht is duidelijk, zelf Intel wil een deel van de koek met hun atom cpu's (en dus de x86 instructieset)
nVidia:
• “Project Denver” Processor to Usher in New Era of Computing
CES:
• Microsoft Announces Support of System on a Chip Architectures From Intel, AMD, and ARM for Next Version of Windows

FP:
• Nieuws:Intel: Windows op ARM biedt ons kansen en bedreigingen
• Nieuws: 'Notebookmakers tonen weinig interesse in Atoms voor tablets'
• CES: Nvidia komt met ARM-cpu's voor pc's en supercomputers
• CES: Nieuwe Windows-versie ondersteunt ARM-architectuur
Totdat hun nieuwe ARM cpu af is blijft men geloven in Tegra2 (vooral in tablets en in wagens zo blijkt)
• CES: BMW en Tesla gebruiken Nvidia Tegra-soc voor displays
• CES: Cartech
• CES: Hands-on Kwartet opvallende tablets van Asus
• CES: Hands-on met Dells Streak 7: degelijkheid troef
• CES: Hands-on Acers 10"-tablet met Android
• CES: Hands-on Motorola Atrix: smartphone of netbook?
Eerste smarthphone met een dualcore Tegra2 chipset
• CES: Hands on LG Optimus Speed met dualcore cpu

• Nieuws: Nvidia koopt ontwikkelaar 3g- en 4g-modems
• Anandtech: NVIDIA to Acquire Icera, Adds Software Baseband to its Portfolio

• Nieuws: Computex: Nvidia demonstreert Kal-el-quadcore voor handhelds
• Nieuws: Madfinger kondigt shooter voor Nvidia Tegra Kal-El-quadcore aan
• TT: ASUS next-gen Transformer to sport NVIDIA's quad-core Kal-El, October launch?


• BSN: NVIDIA's 28nm "Wayne" Tegra to Come in Two Versions?
• BSN: 1st Silicon with NVIDIA Project Denver is an 8-Core ARM, 256 CUDA Core APU?


• nVidia toont actuele CPU en GPU roadmap in Japan

Blijkbaar gelooft buiten nVidia ook Apple in ARM pc's.
In het geval van Apple gebruikte men sowieso altijd al mindere krachtige maar zuiniger cpu's waardoor eigen gefabriceerde ARM cpu's perfect in het plaatje passen.
Het heet als grote voordelen:
• Past "heerlijk" in het plaatje van totale integratie van soft- en hardware.
• Komt tegemoet tegenover de klacht dat de hardware van Apple niets speciaals is maar juist hetzelfde als andere laptops..
• Verkleint het hardware matig verschil tussen de imacs/ibooks en de iMobile devices
Zoals ook Charlie al zei is het geen toeval dat men de verschuiving op hetzelfde moment plant als nVidia zal uitkomen met zijn 64Bit ARM cpu's.
Wie weet gaan beide firma's weer samenwerken ofwel hevige concurrenten worden.

• ARS: All this has happened before: NVIDIA 3.0, ARM, and the fate of x86


Hybrid SLi is back?NVIDIA to Launch Optimus-like Technology for Desktops at ComputexTot nu toe nog steeds niet gereleased. Vraag is of het er ooit nog van komt daar intel zijn eigen Optimus variant heeft uitgebracht op de Z68 moederborden. Nu daar deze eigenlijk belabberde resultaten opleverenden (de discrete kaarten worden blijkbaar nooit volledig uitgezet) is er natuurlijk nog ruimte genoeg voor improvement voor nVidia. Echter is meer de vraag of intel dat zal toelaten.
• Anandtech: NVIDIA Synergy to Bring Optimus to DesktopsNvidia: The Future of Graphics ProcessingProcessor opvolger Sony PSP gemaakt door nVidia?
Ondanks andere signalen gaat het gerucht dat de PS Vita voorzien zou worden van een tegra2 chipset.
Sowieso zal deze verniewde psp voorzien worden van een ARM cpu en heeft nVidia als leverancier wel een voetje voor bij sony (PS3, de nieuwe sony tablet..). Nadelig speelt natuurlijk dat Sony bij de PS3 niet zo content is van de houding van nVidia en eigenlijk ook daar oorspronkelijk een eigen GPU plande..
Het designen van een eigen chipset en laten fabriceren bij Samsung past perfect bij Sony echter is eerder de vraag of ze der in geslaagd zijn, zoniet is de Tegra chip wss "the way to go".
Het enigde dat nu al vast ligt is dat Sony gebruik zal maken van een quad core ARM cpu (welke dus ook door nVidia kan geleverd worden).
Na het "missen" van de 3DS zou het toch een mooie console-win zijn voor nVidia. Het leverancieren van hardware voor consoles levert nu éénmaal een verzekerde en langdurige geldinstroom. Zelfs buiten deze winst om is de omzet/schaalvergroting enkel positief voor de andere producten van de fabrikant.


Tekorten aan productiecapaciteit (28nm)
Dit komt vooral doordat de vorige generaties bij de overstap naar een kleinere nood ook amper konden bijbenen + het feit dat als Apple overstapt naar TSMC deze ook een serieus hap uit de 28nm productiecapaciteit zal nemen.

Herhaling van de 300 reeks:
BSN: NVIDIA GeForce 600 Series: 28nm, OEM-only Fermi Refresh?
Het gerucht gaat dus de ronde dat de oem pushen vooreen herhaling van de 300 reeks...
Elk gerucht heeft natuurlijk zijn voedingsbodem; en deze slaat namelijk weeral op een ander gerucht dat nVidia mobiele gpu's die nog gebruik maken van de volwassen Fermi architectuur gebruikt als pipecleaner voor het 28nm proces.
Hierop is nogal weinig kans. nVidia wil wellicht zo snel mogelijk van de Fermi reeks overstappen naar de Kepler serie.
Natuurlijk indien zou blijken dat Kepler een architecturaal/fundamentele bug(s) heeft zou dit wel eens kunnen gebeuren maar dan wel met Fermi architectuur op 28nm ipv gewone rebatching. Tot nu toe verloopt volgens nVidia alles ok en is de kans dus minimaal tot nihil.
Waarheidsfactor 5%

Waarop er wel kans is dat de volgende reeks van mobiele gpu's weeral een mengeling wordt van 2soorten architecturen Fermi en Kepler zoals de huidige serie een mengeling is tussen Fermi1 en Fermi2 (zie de overzichtstabel hier een beetje boven)
*update*
• Te filteren content ..


Kepler!
Kepler is de codenaam voor nVidia's volgende architectuur en was gepland voor (eind) 2011.

Kepler zal verderwerken op de Fermi architectuur maar met (natuurlijk) een aantal verbeterpunten waarvan de belangrijkste:
• Een véél betere prestatie per watt dan Fermi (tot 3 tot 4 keer). (Dit was namelijk een knelpunt van de Fermi Architectuur
• Virtueel memory
• pre-emption support
• nog meer onafhankelijker van de cpu
Zoals je al uit het lijstje kan afleiden is ook deze keer de architectuur gemeenschappelijk met de GPGPU quadro workstation GPU's. Hierin verdient nVidia namelijk momenteel goed zijn brood en is er nog weinig concurrentie.


Volgens nVidia verloopt het 28nm productie proces zonder problemen onder controle en de productie van kepler gpu's zou al ein dit jaar opgestart worden.
Let op opgestart worden != in de winkel liggen, waardoor begin 2012 correcter is
De laatste gecorrigeerde roadmaps tonen dan ook pas december 2011 aan als begin van de massaproductie, welke eigenlijk te laat is om de kerstmis periode te halen.
Maw in principe zijn ze 2 maanden te laat. Aan de andere kant zal ATi dit ook voor hebben en ligt dit eerder aan het 28nm procédé dan de architecturen.
De geruchten gaan wel dat ATI een ander TSMC 28nm procedé gebruikt dat sneller productie klaar zou zijn.
Als dat waar is, dan is ATI in staat om zelfs nog dit kwartaal met een nieuwe kaart kunnen komen.
• Engadget: NVIDIA's Kepler GPU still (kinda, sorta) on schedule for 2011 debut

• Fudzilla:Kepler 28nm taped out
• Fudzilla: Kepler 28nm to launch in Q1 2012
• SA: Nvidia’s Kepler comes in to focus
• Fudzilla: Some Nvidia notebook 28nm chips are finished
• Digitimes: Planned launch of Nvidia 28nm and 22/20nm GPUs moved back to 2012 and 2014
• Hardware.info: nVidia bevestigt komst van Kepler GPU in 2012
• Xbit: Nvidia Denies Plans to Release Kepler GPU in 2011.


Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9, 200, 400 en 500 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
• Windows OS:260.99 Win XP 32-bit Win en XP Media Center260.99 Win XP 64-bit en win server 2003260.99 Win Vista/7 32-bit260.99 Win Vista/7 64-bit• Alternatieve OS:260.19.12 Linux 32-bit260.19.12 Linux 64-bit 260.19.12 FreeBSD 32-bit260.19.12 FreeBSD 64-bit260.19.12 Solaris 32 en 64-bitnVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
• Windows OS:270.51 Win XP 32-bit Win en XP Media Center270.51 Win XP 64-bit en win server 2003270.51 Win Vista/7 32-bit270.5 Win V1ista/7 64-bitDe allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
• Windows OS:258.96 Win XP 32-bit258.96 Win XP 64-bit258.96 Win Vista/7 32-bit258.96 Win Vista/7 64-bitEen goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
• Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.


Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce 400 serie
Deze kan u vinden in Deel 49 van dit topic

Reviews van de GeForce GTX 550 Ti:
• Hardware.info
• Anandtech
• bit-tech
• Guru3D (Galaxy WHITE)
• Guru3D (MSI CycloneII)
• HardwareCanucks (Roundup)
• HardwareHeaven
• Legit Reviews
• PC Perspective
• techPowerUp: Palit, MSI, ZOTAC, ASUS
• TechRadar
• Tom's Hardware

Reviews van de GeForce GTX 560 Ti:
• Hardware.info
• Anandtech
• bit-tech
• Guru3D (Palit, sli)
• [H]ard|OCP
• HardwareHeaven: Gainward, Gigabyte
• Legit Reviews (ASUS
• PC Perspective (Roundup)
• techPowerUp
• TechRadar
• Tom's Hardware

Reviews van de GeForce GTX 570:
• Hardware.info
• AnandTech
• bit-tech
• Guru3D
• Guru3D (Palit)
• HardwareCanucks
• [H]ard|OCP
• HardwareHeaven
• Legit Reviews
• techPowerUp
• TechSpot
• TechRadar
• Tom's Hardware

Reviews van de GeForce GTX 580:
• Hardware.info
• AnandTech
• bit-tech
• Guru3D
• HardwareCanucks
• [H]ard|OCP
• HardwareHeaven
• HOTHardWare
• Legit Reviews
• Overclockers Club
• PC Perpective
• techPowerUp
• TechRadar
• The Tech Report
• TechSpot
• Tom's Hardware

Reviews van de GeForce GTX590:
• Hardware.info (Quad Sli)
• AnandTech
• BenchmarkReviews
• bit-tech
• Guru3D
• HardwareCanucks
• [H]ard|OCP
• HardwareHeaven (Quad Sli)
• Hi Tech Legion
• HOTHardware
• InsideHW
• Legit Reviews
• NeoSeeker
• PC Perspective
• techPowerUp
• TechRadar
• The Tech Report
• TechSpot
• TweakTown
• Tom's Hardware

Vorige Topics:Het grote NV40/GeForce 6800 topic
Deel I, II, III, IV, V, VI, VII, VIIIHet Grote 6800GT Topic
Deel 1, 2, 3, 4, 5, 6, 7, 8[Algemeen] nVidia GeForce Topic!
Deel 9, 10, 11, 12, 13, 14, 15[Algemeen] nVidia Nieuws & Discussie Topic
Deel 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37,38,39,40,41,42,43,44,46,47,48,49,50,51,52,53,54Gebruikerservaring:
• Het Nvidia GTX5xx series ervaringen topic
• Het Nvidia GTX4xx series ervaringen topic
• nVidia GTX470/GTX480 Levertijden Topique

• [Ervaringen] Bakken grafische kaart
• Het doodgaan van GeForce 8000 serie kaarten

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce 500 serie in de Pricewatch
GeForce Qaudro in de Pricewatch

>>Klik hier om naar het juiste topic te gaan <<


>>Klik hier om naar het juiste topic te gaan <<

>>Klik hier om naar het juiste topic te gaan <<


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum

>>Klik hier om naar het juiste topic te gaan <<


Startpost: Jejking & biobak & RappieRappie

*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)PV engine 4 bijvoegen CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

Bitcoins - Virtueel Geld

06-11-2013 discussie 7375
Bitcoins - Virtueel Geld of een hoge stroomrekening?

Bitcoins, of in het kort BTC is een aparte nieuwe valuta die gebaseerd is op ideeën uit 1998 die door Satoshi Nakamoto in 2009 in praktijk zijn gebracht. In tegenstelling tot vrijwel elke andere valuta is er geen centrale database die de echtheid van de Bitcoins bepaalt, er is een gigantisch gedecentraliseerd (P2P) systeem om de transacties bij te houden. Het geld wordt 'beveiligd' door sterke cryptografie, het principe van Bitcoins wordt ook wel cryptocurrency genoemd.

Er zijn nu ongeveer 6.5 miljoen bitcoins die samen een dikke 110 miljoen dollar (!!!) waard zijn. Dit komt neer op een kleine 17 dollar per BTC. Het Bitcoin systeem is zo geprogrammeerd dat er maximaal 21 miljoen Bitcoins in de handel kunnen zijn, drie vierde van dit aantal zullen rond 2017 gebruikt zijn. Rond 2013 (mits de apocalyps mee zit natuurlijk) zullen we met z'n alle ongeveer de helft van alle Bitcoins tot onze beschikking hebben.

Omdat Nederland ook niet genoeg aan 21 miljoen euro zijn Bitcoins op te delen tot 8 decimalen achter de komma!

Voor- en Nadelen
http://www.youtube.com/wa...p;feature=player_embedded//

Voordelen:Bitcoins worden direct van persoon naar persoon overgemaakt, er is dus geen tussenpersoon zoals een bank. Dit bespaard de transactiekosten! Je account kan niet worden geblokkeerd, of bevroren worden. (In tegenstelling tot bijv. PayPal). Er zijn geen verborgen kosten/limieten/regels. De software is compleet Open Source. De prijs van Bitcoins stijgt enorm! Oftewel er is geen betere tijd om te starten dan nu! Bitcoins is een nieuwe, snel opkomende manier van betalen. Ideaal voor kleine webshops!Nadelen:Als je niet goed oplet kan je 'beurs' gestolen worden. Dit gaat uiteraard niet zomaar, iemand moet toegang hebben tot je computer en dan bestanden van je computer kunnen uploaden naar een server. Mocht je harde schijf onherstelbaar beschadigd raken dan ben je al je Bitcoins kwijt (MITS je deze niet gebackuped hebt) Het genereren van Bitcoins is erg intensief werk (voor een GPU dan )How to start - Me Wants Bitcoins!!!

Als eerste dien je de officiële Bitcoin Client te downloaden, deze is voor Windows, Linux en Mac OS X beschikbaar. Ook kun je zelf de C++ Source downloaden en compilen.

Je kunt 'gratis' Bitcoins verdienen door je aan te melden op http://www.freebitcoins.org/earn Dit is een soort Pay to Click (PTC) website. Je kunt in korte tijd vrij veel Bitcoins hiermee verdienen!

De meest bekende manier is het minen van Bitcoins. Als eerste zal ik een kleine technische omschrijving geven van hoe dit in zijn werk gaat.

Er wordt een -door de computer gegenereerde- string aangemaakt, laten we zeggen dat de string 'ObAt' aan de beurt is. De string wordt 2 maal gehashed met SHA-256. De uitkomst van onze string is:

ObAt == 8f70d4a60b5d18e7d6775d0fc5871006492c428c01f23a1b74873e7fbad6c107

De computer geeft ook nog een Nonce mee aan het einde van de string. Dit is een 32 -bit block die compleet random is. De uiteindelijk string bestaat dus uit 'string.nonce', een paar voorbeelden zijn:

ObAt1 == 0e0d21e74fb13a15233a149a126ddf2bc25857b9dc366be44d6d09412013f5af
ObAt2 == 353765de1b70f0c0e3908922b852e640c58d9ec5a9a3d08bbf055774815d0dc6
ObAt1564 == 38f17f0dd3bd4f21d2909f992353728b5661576623fe9e44291ff772deee6f12
ObAt98423158 == 68933a069ea8e733533ecc044599d93023fc8491a7de052c6fbc84aa8b0909ec

Zoals misschien opvalt lijken de hashcodes totaal niet op elkaar, ook zit er ook geen ritme in (het kenmark van een hash). De bedoeling is dat jou computer erachter komt welke string er achter de hash zit. Er zijn (nog) geen Rainbow Tables voor SHA-256 en daarom is het in principe onmogelijk om vals te spelen.

Omdat de Nonce 32 bit is zijn er dus 2^32 = 4 294 967 296 mogelijkheden. Je snapt natuurlijk dat als de Nonce 156.463, dat dit veel minder lang duurt dan als de Nonce 2.156.687.153 is. Je computer werkt natuurlijk van voor naar achter!

De snelheid van de videokaart wordt in Mhash/s gemeten, oftewel Millions Hashes per Second. Met mijn HD4890 Superclocked Edition (GPU Clock @965Mhz, Memory Clock @1050Mhz met 800 Shaders) haal ik tussen de 95 en 110 Mhash/s. Dus het berekenen van èèn hash code kan maximaal ~45 seconden duren. Als je een betere videokaart hebt (HD5830, 300 Mhash/s) kan het maar ~14 seconden duren. Een gigantisch verschil! Daarom schaffen mensen vaak speciale systemen aan (komen we later op terug).

Let er wel op dat dit puur theoretisch is, in de praktijk zal het een paar seconde langer duren (reken je dus niet rijk) Je Miner moet ook nog de data van de server downloaden en het 'antwoord' terug naar de server uploaden, dit kost ook allemaal tijd. Het komt er op neer dat je met 100Mhash/s kunt zeggen dat je dik 1 Share per minuut krijgt.


Bitcoins Minen - Het zware werk

Maarja genoeg over de theorie tijd voor het leukste, de praktijk! Het beste Mining programma vind ikzelf GUIMiner (later zal ik over andere tools praten). Download de tool en pak deze uit naar een lege map. Open hierna GUIMiner.exe. Maak een miner aan (File --> New Miner) en noem deze naar je huisdier (of iets anders).

Ga nu naar BTC-Guild en maak daar een account aan. Log in op BTC-Guild en ga daar de My Workers pagina. Maak daar een nieuwe Worker aan. Let op! Je username is een voorvoegsel op de Worker zijn naam, een account die ObAt_ObAt heet is vrij nutteloos, noem hem dan ObAt_PCThuis.

Ga naar GUIMiner en selecteer bij het tablad van je nieuwe Miner onder het kopje 'Server' 'BTC Guild'.

Username: Gebruikersnaam_Workername (ObAt_ThuisPC)
Password: Wachtwoord van de Worker!
Device: De GPU (je GPU wil nog wel is exotische namen aannemen)
CPU Affinity: Alles aanvinken.
Extra flags: Hier komen we later op terug maar een ATI videokaart werkt meestal met de flag '-v' sneller.

Klik nu op Start Mining, als het goed is hoor je je videokaart nu rammelen! Ga voor een totaaloverzicht naar 'View' --> 'Sumery'. Mocht je meerdere videokaarten hebben dan kun je hier een overzicht zien van al jou Miners.

Voor alle duidelijkheid

Veel mensen vragen zich af waarom je 'echt geld' kunt verdienen door je GPU te laten rekenen. De berekeningen worden immers niet doorverkocht aan Universiteiten e.d. Het berekenen van Hash codes is eigenlijk de beveiliging van het hele systeem, het is een manier van veilig geld creëren. Je zou gelijk kunnen roepen met termen zoals: Extreme Inflatie e.d. maar dit is totaal niet het geval. Er is steeds meer vraag naar Bitcoins en de prijs per Bitcoin stijgt dus! Je zou je misschien kunnen afvragen waarom mensen zoveel betalen voor 'gebakken lucht', het is eigenlijk om dezelfde rede waarom wij zoveel voor goud betalen. Goud heeft eigenlijk geen praktisch nut (buiten elektronica), het is te zacht om iets van te maken en niet lekker om te eten. Waarom betalen we al duizenden jaren zoveel voor een klomp metaal?

Het is allemaal het principe van vraag en aanbod, er is heel veel vraag naar deze coins en er is maar een beperkt aantal beschikbaar. De ideale combinatie voor een prijsstijging!


Wat kun je met Bitcoins? - Me Wants Money $$$

Aan Bitcoins zelf heb je natuurlijk niets, je kunt er wel een aantal nuttige dingen mee doen!Doneren aan de oh-zo-lieve Topicstarter die veel moeite heeft gedaan om zoveel informatie in dit mooi Topic te zetten (1MX1LpbB8PZxSRGqa87vnvGfeK5UM4kaAC) Ruilen voor 'echt' geld, oftewel Dollars of Euro's. De bekenste bank is MTGox, maar er zijn nog vele andere. (Ook hier komen we later op terug!) Direct inruilen tegen 'echte' artikelen. Bijvoorbeeld een Steam Game (1.9BTC)Mocht je op eventueel problemen stuiten meld deze dan op de manier als in dit voorbeeld:quote:OS: Windows 7 64 Bit
CPU: i7 920 @4.0Ghz
Videokaart: Club 3D HD4890 Superclocked Edition (800 streams @965mhz, zelf overclocked)
Miner: GUIMiner
Aantal Mhash/s: 116

Probleem/Error:

"No compatible hardware found" errorRelease Notes

30-6-2011
- Standaard toegevoegd voor het omschrijven van problemen.
- Shares per Seconde toegevoegd.
- Korte uitleg toegevoegd die meer duidelijkheid moet geven over de waarde van Bitcoins (wordt vervolgt)
- Sommige speltfouden uid mijn goet Neerlandisch Topik gehaalt (mijn excuses)

Opstellen reviewprotocol gpu's en videokaarten

05-09-2013 discussie 119
Waarom dit topic?Om hardware goed te kunnen beoordelen, is het eigenlijk van belang dat elke review op dezelfde manier gemaakt wordt en dat er steeds dezelfde benchmarks gedraaid worden en zo. Bovendien zorgt een duidelijk protocol ervoor dat we sneller en vooral beter kunnen gaan reviewen. Daarom gaan we binnen de redactie een aantal reviewprotocollen opstellen voor verschillende producten, zodat met behulp daarvan eigenlijk 'iedereen' de nodige tests kan doen om vervolgens de testresultaten aan te leveren aan diegene die het artikel gaat schrijven.

De eerste productgroep waarvoor we dit willen doen, is voor gpu's en videokaarten, anders plaatste ik dit topic natuurlijk ook niet in dit forum. We hebben bij T.net wel intern wat kennis zitten natuurlijk, maar veel tweakers weten meer dan weinig tweakers en waar anders dan in forum 0 zit dè kennis op dit vlak. Daarom heb ik in samenspraak met de modjes hier besloten om dit topic te openen. De bedoeling is dat we op basis van jullie input tot een volwaardig protocol kunnen komen, dat we gewoon af en toe moeten updaten om weer mee te zijn met de recentste stand van zaken (qua games bvb).


In dit protocol komt dus echt alles te staan. Welke drivers gebruiken we, welke games draaien we, welke settings, welke demo gebruiken we voor die games, ... Maar ook hoe presenteren we de resultaten (genormaliseerd? ten opzichte van wat?), wat gebruiken we als vergelijkingsmateriaal, ...Reviewprotocol gpu's en videokaartenIntroductie & HardwareHier valt weinig aan te 'testen'. Wel moet erop gelet worden dat er voldoende informatie gegeven wordt over het ontwerp van de videokaart, eventueel opvallende zaken aan de koeling, ...

Voor het geven van informatie over de specificaties, kan gebruik gemaakt worden van GPU-Z. We wijzen hierbij onder andere op afwijkende kloksnelheden, maar besteden waar nodig ook aandacht aan het aantal shaders (overklok/unlock-potentieel?). We proberen voor zover mogelijk ook steeds te vermelden welke chiprevisie en geheugenchips gebruikt zijn voor de kaart die we testen (koeler verwijderen).

Daarbij ook de nodige achtergrondinfo/duiding geven: Bij vergelijkingen tussen NV en AMD (en anderen) duidelijk maken dat architecturen van elkaar verschillen en dus niet 1 op 1 te vergelijkingen zijn, zoals mensen dat bv doen met het aantal megahertzen (bv AMD is hoger geklokt, maar toch langzamer en dan even over het hoofd zien dat bv NV met meer dan een dubbele shaderklok werkt en dat de ALUs anders zijn opgebouwd).

We bespreken ook of de kaartbouwer gekozen heeft om het reference design aan te houden of waar er afwijkingen zitten ten opzichte van dat reference design, met eventuele voor- en nadelen van die afwijkingen.

Waar relevant besteden we ook aandacht aan extra's op de kaart zoals hdmi, aansluitingen, hdcp-ondersteuning, ... Ook de retail box komt aan bod, met melding van meegeleverde convertors, games, software, ...BenchmarksTestplatformAls testplatform gebruiken we een relatief vast systeem, dat regelmatig van een upgrade voorzien wordt om weer up-to-date te zijn naar de op dat moment geldende eisen van een flink gamesysteem. Zo blijven resultaten van verschillende reviews nog enigszins vergelijkbaar binnen een bepaalde tijdsspanne, terwijl het systeem toch enigszins up-to-date gehouden wordt. Bovendien is de kans klein dat een review van een kaart van vandaag nog echt vergeleken zal worden met een review van drie jaar geleden, zodat het nadeel van de verminderde vergelijkbaarheid door wisselend basissysteem enigszins beperkt blijft.SoftwareTests worden allemaal gedraaid op Windows Vista en er wordt zoveel mogelijk gebruikgemaakt van de laatste WHQL-drivers van AMD of nVidia zelf. In sommige gevallen zal dat niet mogelijk zijn, waarbij we gewoon op zoek gaan naar de optimale (bèta)-driver waarmee de beste resultaten neergezet worden.Bench-suite3DMark06
LightsmarkBioshock Call of Duty 4 Crysis Enemy Territory: Quake Wars Half Life 2: Episode Two Oblivion: Shivering Isles Unreal Tournament 3 The Witcher World in ConflictBench-instellingenMoeten nog nader bepaald worden. Op dit moment gaat de voorkeur uit naar een drietal sets instellingen: eentje voor low-end, eentje voor mainstream, en eentje voor high-end. Op die manier blijven resultaten enigszins 'vergelijkbaar' over verschillende segmenten heen en zijn de tests toch realistisch binnen het segment waarin de kaart thuishoort, zodat er ook nog wat zinnigs uit de cijfers te halen valt. Ook de exacte benchmethode per benchmark moet nog bepaald worden, afhankelijk van de settings en zo.Andere metingenGeluidWe prikken de kaart in een los moederbord, zonder behuizing of verdere componenten. Voor het OS en de software om de kaart te belasten, maken we gebruik van een ssd-harddisk. Verder worden alle overbodige fans uitgeschakeld en wordt de geluidsproductie gemeten onder load èn idle.

Exacte meetafstand, aantal samples, ... nog te bepalenTemperatuurWordt softwarematig uitgelezen als de kaart idle is en onder volle belasting, en dat terwijl de kaart ingebouwd is in het systeem, voor normaal gebruik. Ter referentie geven we ook overige gemeten temperaturen weer van het systeem (chipset, cpu, ...).EnergieverbruikWe hangen het systeem aan een voltcraft en meten het energieverbruik van het volledige systeem idle, en vervolgens opnieuw terwijl de videokaart flink belast wordt. Hoewel het verbruik niet volledig aan de videokaart toegeschreven kan worden, geeft het wel een indruk van de gulzigheid van de videokaart.

Exacte meetafstand, aantal samples, ... nog te bepalenJullie beurt nuZoals je ziet is dit nog een vrij grove structuur. Het is de bedoeling om dat, mede dankzij jullie input, uit te kristaliseren tot een compleet en gedetailleerd stappenplan. Roep dus gerust alle opmerkingen, tips, valkuilen, ... Daarbij geldt slechts één belangrijke regel: onderbouw wat je post. Zomaar posten dat X of Y geen zin heeft, daar kunnen we niks mee, als je niet zegt wààrom dat dan wel zo is, natuurlijk.

Deze post zal geregeld geüpdatet worden naarmate dingen duidelijker worden.

Alvast hartelijk bedankt voor het meedenken

Update: 12 maart, 22u45

Grote upgrade

11-10-2012 discussie 10
Ok, ik wil in feite alles aan mijn pc vervangen behalve de videokaart en ik had daar graag wat feedback/commentaar op. hieronder staat wat ik wil gaan doen:

Moederbord: Asrock 970 Extreme4
Processor: AMD FX-8150 Black Edition
RAM: 2x 8gb Corsair CMV8GX3M1A1333C9
Voeding: Cooler Master GX 750W
Kast: Aerocool X-Warrior Devil Black Edition
huidige videokaart : Msi radeon hd 7750 ( recent gekocht)

Oude systeem ( huidige)

moederbord: Foxconn Eton model 1.0
Ram: 4gb
videokaart: msi radeon hd 7750
voeding: 300w standaard hp voeding
processor: Intel pentium e5300 2.6ghz dual core
kast: standaard compaq kast ( geen standaard atx, ik weet niet zeker wat het wel is)

Ultrabook met graphics card

11-10-2012 discussie 24
Beste Tweakers,

Na 4 jaar is het tijd om mijn Packerd Bell om te ruilen voor een wat gangbaarder modelletje. Ik heb momenteel een PB Easynote 15,6' met een T4200 met 4 gig en het gewicht van een baksteen. Ik moet het komende half jaar vanwege mijn studie naar het buitenland en zal voor deze stage ook veel moeten reizen. Daarom zou ik een stapje terug willen doen qua grote van het scherm naar zo'n 14', omdat dit ook het gewicht ook zo heerlijk naar beneden drukt.

Wat ga je met je laptop doen (welke programma's wil je gebruiken)?

Ik ga hem voornamelijk gebruiken voor tekstverwerking, social media en zo nu een dan een gamepje zoals Dishonered, FM13 en LoL, dus een behoorlijke grafische kaart zou ik wel graag in mijn ultrabookje terug zien. Tevens wil ik hem ook als desktop vervanging gaan gebruiken. Dus die grote lompe energie vreter mag de deur uit, en daarvoor in de plaats zet ik mijn laptop aan mijn monitor met muis en keyboard om als ik thuis ben ook gewoon relaxt even op een wat groter scherm te kunnen werken.

Wat mag je laptop gaan kosten?

Mijn budget is zo'n ¤900, een tientje of twee kan nog wel maar meer ook niet. Ben en blijf natuurlijk nog steeds een student en volgens de regel horen wij niet veel geld te hebben...

Ben je van plan je laptop veel met je mee te slepen? (gewicht, accuduur, grootte etc)

Ja zeker, hoe lichter hoe beter, en hoe meer accuduur hoe liever, omdat ik veel zal moeten reizen en werken tijds het reizen zou wel heel erg prettig zijn. Daarnaast zoals boven aangegeven zou ik graag voor een 14' gaan. Niet groter, niet kleiner, omdat ik bang ben dat ik A: in de knoop kom met mijn grote worstenbroodvingers op dat kleine keyboardje B: ik dan constant zit te staren en turen naar mijn scherm omdat ik niet goed kan lezen wat er staat.

Heb je nog bepaalde (merk)voorkeuren? Waarom?

Nope, ik heb zelf al wel het een en het ander aan graaf / lees en speurwerk gedaan en ben uiteindelijk uitgekomen op 2 laptops. Maar misschien hebben jullie wel een hele andere benaderingshoek en bieden jullie het lichtpuntje.

wenslijst: Optie 1

wenslijst: Optie 2

Mijn twijfels tussen deze twee is voornamelijk de processor. De intel Core i7 3517U van de U410 biedt maar 1.9GHz waar de Vaio's Intel Core i5 2450M er 2.5GHz uit pompt. Zal ik hier een daadwerklijk verschil gaan merken? Of staat ik me dood op dingen die bijna het zelfde zijn?

Als jullie nog andere ideeen hebben, hoor ik het graag. Het maakt me niet uit als ik dingen moet gaan bijsteken of omwisselen in de laptop.

EDIT: Oh ik heb trouwens naar die aanbieding van de andere Vaio gekeken, de S serie met upgrade van de grafische kaart, maar ik ben bang dat zoals ik hierboven al aangegeven had, dat hij te klein zal zijn voor mijn kolenschoppen.

Chrome crashed GPU?

08-10-2012 discussie 7
Laatmaar het was mijn OS...
Op Windows 8 deed hij niet raar en opnieuw Windows 7 installeren hielp.

Gaming Laptop MSI GX660, GPU upgraden of nieuwer model?

30-09-2012 discussie 3
hey medetweakers, ik run al een behoorlijke tijd op een MSI GX660 en vind het echt een topding, nooit problemen gehad.

pricewatch: MSI GX660-249NL

Probleem is dat de GPU (Radeon Mobility HD5870) een beetje aan de zwakkere kant is deze dagen, de RAM is geupgrade naar 8GB.

Een paar vrienden van mij hebben precies dezelfde laptop, waarvan iemand de GPU heeft kunnen upgraden naar een ATI Radeon 6990m..was wel beetje verbaasd maar op een of andere manier blijkt dit dus mogelijk te zijn.

Ik zou het zonde vinden om nu weer langdurig te gaan sparen voor een gaming systeem. Wat is jullie advies hierover, is het mogelijk om effectief te upgraden met een GPU, zo ja, welke?

Of is het veel verstandiger om een jaar door te gaan sparen voor een nieuw systeem? Zijn er dan ook eventuele suggesties?

Ik heb niet veel eisen aan een game laptop, het max budget zit tussen de 1300-1500 euro, gewicht is geen enkel probleem.

Schermgrootte het liefst 15.6 of 17.3 inches.

Voor de rest helemaal niks, als gaming en ander grafische werkzaamheden hier maar op kunnen. Verder heb ik geen mega voorkeuren naar merken, hoewel ik Alienware toch wel aan de dure kant vind en geen fijne ervaringen heb met Asus "gaming" laptops, hoewel het huidige aanbod wel goed eruit ziet. Liefst heb ik dan een MSI "baksteen" maar er is natuurlijk veel te kiezen nu!

Mijn excuses als dit niet het juiste forum is.

Andere GPU nu tekort aan Ram?

30-08-2012 discussie 17
Ik heb het volgende systeem:
i5 650 3,2Ghz
4gb DDR3 (1333) Ram
1 HDD sata
1 Dvd-Rw sata
Geforce GTX460 1gb Gpu.
450 Enermax ELT500AWT voeding
Windows 7 64 bits.

Ik heb onlangs de voeding en de gpu vervangen. De oude voeding was een 300Watts voeding en de GPU was een Geforce GT430 2gb.

Alhoewel de GPUGTX460 een behoorlijke vooruitgang is ten opzichte van de GT430 heb ik veel meer last van lag in bijvoorbeeld Battlefield 3 dan voor de vervanging. Een korte tijd gaat het goed en daarna is het flink mis.

Aangezien het lampje van de HDD dan bijna voortdurend brand denk ik aan een tekort aan Ram maar kan mij dit, met mijn beperkte kennis, moeilijk voorstellen.

Zou iemand mij een oorzaak kunnen noemen.

Dank alvast.

[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54

27-08-2012 discussie 4296
Topicregels GT 200 Fermi Recente Nieuwsberichten Geruchten Cuda Hybrid (power) SLI PhysX PureVideo Tegra Platform Drivers Links - Reviews & Topics & Pricewatch
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia. Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter Dit topic is vooral niét bedoeld om te posten dat:jouw favoriete kaart niet leverbaar is bij een shop. jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent. je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen. je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt. je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ) je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews. Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan. Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!Veel lees- en discussieerplezier toegewenst!

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2


Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34


Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Alle informatie over deze kaarten kun je totaan deel 50 van dit topic terugvinden


Instap level



GT420 OEMGPU: GF108 Release Date: Zomer 2010 Interface: PCI-E x16 2.0 Transistors: ?? Unified shaders:48 Shader clock: 1400 MHz ROP's: ?? Core Clock: 700 MHz Memory Clock: 900 MHz Memory Bandwidth: 28.8 GB/sec Memory Interface: 128 bit Memory: 2048 MB DDR3 Consumption: max 50 Watt • Enkel OEM



GT 520GPU: GF108 Release Date: 12/4/2011 Interface: PCI-E x16 2.0 Transistors: ?? Unified shaders:48 Shader clock: 1620 MHz ROP's: ?? Core Clock: 810 MHz Memory Clock: 900 MHz Memory Bandwidth: 14,4 GB/sec Memory Interface: 64 bit Memory: 1024 MB DDR3 Consumption: max 29 Watt
Low End



GT 430GPU: GF108 Release Date: 11/10/2010 Interface: PCI-E x16 2.0 Transistors: 585 Miljoen Unified shaders:96 Shader clock: 1400 MHz ROP's: 4 Core Clock: 700 Mhz Memory Clock: 800 - 900Mhz (GDDR3) Memory Bandwidth:25,6 - 28,8 GB/s Memory Interface: 128 bit Memory: 1024 MB Texture Units: 16 Consumption: Officieel max 49 Watt



GTS 440GPU: GF106 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: ?? Unified shaders:144 Shader clock: 1189 MHz ROP's: ?? Core Clock: 594 Mhz Memory Clock: 800-900 Mhz (GDDR3) Memory Bandwidth: 38.4-43.2 GB/s Memory Interface: 192 bit Memory: 1.5 - 3.0 GB Texture Units: ?? Beperkte 2-sli (zelfde fabrikant vereist) Enkel OEM Consumption: max 56 Watt


Mid-End



GTS 450GPU: GF106 (40nm) Release Date: Q2 2010 Uitgesteld naar 13 september Interface: PCI-E x16 2.0 Transistors: 1.17 miljard Unified shaders:192 Shader clock: 1566 MHz ROP's: 16 Core Clock: 789 983 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 60,16/90,24 57,6 GB/s Memory Interface: 128 /192 bit Memory: 512?/768?/ 1024/2048? MB L2 Cache Size: 256KB Texture Units: 32 Consumption: max 106 watt Performatie: mid-end



GTX 550 TiGPU: GF116 (40nm) Release Date: 15/03/2011 Interface: PCI-E x16 2.0 Transistors: 1.17 miljard Unified shaders: 192 Shader clock: 1800 MHz ROP's: 24 Pixel Fill Rate: 21.6 GP/s Core Clock: 900 Mhz Memory Clock: 1026 Mhz (GDDR5) Memory Bandwidth: 98,5 GB/sec (GDDR5) Memory Interface: 192 bit Memory: 1024MB Texture Units: 32 (28.8 GT/s) Consumption: 116 Watt (TDP) Performantie: Mid-end

Mid-end



GTX 460 SEGPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 288 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 24 Core Clock: 650 Mhz Memory Clock: 850 Mhz (GDDR5) Memory Bandwidth: 108,8 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB L2 Cache Size: 384KB Texture Units: 48 Consumption: 150 Watt (minder dan de HD58 50/30) Performantie:Mid-end



GTX 460 768 MB GPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 336 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 24 Core Clock: 675 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 86,4 GB/sec (GDDR5) Memory Interface: 192 bit Memory: 768MB (mogelijkheid voor 1536MB) L2 Cache Size: 384KB Texture Units: 56 Consumption: 150 Watt (minder dan de HD58 50/30) Performantie:High Mid-end


High Mid-end



GTX 460 1024MB GPU: GF104 (40nm) Release Date: 12/07/2010 Interface: PCI-E x16 2.0 Transistors: 2.1 miljard Unified shaders: 336 van de 384 beschikbaar Shader clock: 1350 MHz ROP's: 32 Core Clock: 675 Mhz Memory Clock: 900 Mhz (GDDR5) Memory Bandwidth: 115,2 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB Texture Units: 56 L2 Cache Size: 512KB Consumption: 160 Watt (minder dan de HD58 50/30) Performantie:High Mid-end



GTX 560 TiGPU: GF114 (40nm) Release Date: 25/01/2011 Interface: PCI-E x16 2.0 Transistors: 1,95 miljard Unified shaders: 384 Shader clock: 1645 MHz ROP's: 32 Core Clock: 822 Mhz Memory Clock: 1002 Mhz (GDDR5) Memory Bandwidth: 128,26 GB/sec (GDDR5) Memory Interface: 256 bit Memory: 1024MB (mogelijkheid voor 2048MB) Texture Units: 64 (52,6 GT/s) Consumption: 170 Watt TDP Performantie:High Mid-end

Tesla



Tesla C2050GPU: Tesla T20 Release Date: "early" Q2 2010 Interface: PCI-E x16 2.0 Transistors: 3.2 miljard Unified shaders: 448 MIMD Architectuur Shader clock: 1600?? Mhz ROP's: ?? Core Clock: 600-1200 MHz Memory Clock:900 MHz (GDDR5) Memory Bandwidth: 172.8 GB/sec (GDDR5) Memory Interface: 384 bit Memory: 3GB GDDR5 Consumption: 190W(typical) Cuda geörienteerd L1 Cache per core: 48kb L2 Cache per core: 768kb Memory ECC Correction: Yes



Tesla C2070 GPU: Tesla T20 Release Date: Q3 2010 Interface: PCI-E x16 2.0 Transistors: 3.2 miljard Unified shaders: 480?? MIMD Architectuur Shader clock: 1600?? Mhz ROP's: ?? Core Clock: 700-1400 MHz Memory Clock:1000Mhz (GDDR5) Memory Bandwidth: 192 GB/sec (GDDR5) Memory Interface: 384 bit Memory: 6 GB (GDDR5) Consumption:maximaal 225W Cuda geörienteerd L1 Cache per core: 48kb L2 Cache per core: 768kb Memory ECC Correction: Yes

Low High End



GTX 465GPU: GF100 Release Date: eind mei 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 352 Shader clock:1215 MHz Core Clock: 607 MHz ROP's: 32 Pixel Fill Rate: 26.7 GP/s Memory Clock: 802 Mhz (GDDR5) Memory Bandwidth: 102.6 GB/s Memory Interface: 256 bit Memory: 1024 MB Texture Units: 48 Consumption: max 200W



GTX 470GPU: GF100 Release Date: April 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 448 MIMD Architectuur Shader clock:1215 mhz Core Clock: 607 tot 1214 (hot clock) Mhz ROP's: 40 Pixel Fill Rate: 24,3 GP/s Memory Clock: 837 Mhz (GDDR5) Memory Bandwidth: 133,9 GB/s Memory Interface: 320 bit Memory: 1280 MB Texture Units: 56 Consumption: tot 215 Watt


High End



GTX 480GPU: GF100 Release Date: April 2010 Interface: PCI-E x16 2.0 Transistors: 3,2 miljard Unified shaders: 480 MIMD Architectuur Shader clock: 1401 Mhz Core Clock: 700 tot 1400 (hot clock) MHz ROP's: 48 Pixel Fill Rate: 33,6GP/s Memory Clock: 924 (GDDR5) Memory Bandwidth: 177,4 GB/s Memory Interface: 384 bit Memory: 1536 MB Texture Units: 64 Consumption: tot 250 Watt



GTX 570GPU: GF110 Release Date: 7/12/2010 Interface: PCI-E x16 2.0 Transistors: 3 miljard Unified shaders: 480 Shader clock: 1464 Mhz Core Clock: 732 MHz ROP's: 40 Pixel Fill Rate: 43,92 GP/s Memory Clock: 950MHz (GDDR5) Memory Bandwidth: 152 GB/s Memory Interface: 320 bit Memory: 1280 MB Texture Units: 60 Texture Fill Rate: 43.9 (miljard/sec) Consumption:219 Watt

High End



GTX 580GPU: GF110 Release Date: oktober 2010 Interface: PCI-E x16 2.0 Transistors: 3,2? miljard Unified shaders: 512 Shader clock: 1544 Mhz Core Clock: 772 MHz ROP's: 48 Pixel Fill Rate: 37.06 GP/s Memory Clock: 1002 (GDDR5) Memory Bandwidth: 192,4 GB/s Memory Interface: 384 bit Memory: 1536 MB Texture Units: 64 Texture Fill Rate: 49.4 (miljard/sec) Consumption: 250 Watt



GTX 590GPU: 2*GF110 Release Date: Zomer 2010 --> 24 maart 2011 Interface: PCI-E x16 2.0 Transistors: 2*3,0 miljard Unified shaders: 512*2 Shader clock:1215 mhz Core Clock:607 Mhz ROP's: 2*48 Pixel Fill Rate:58,75 GP/s Memory Clock: 853,5 Mhz (GDDR5) Memory Bandwidth: 2* 163,9GB/s Memory Interface: 2* 384 bit Memory: 2*768/1536 MB Texture Units: 64*2 Texture Fill Rate: 77,7 (miljard per sec) Consumption: "Extreme" 365Watt officiele TDP

ModelGPUShadersGPU
kloksnelheidGeheugen
typeGeheugen
snelheidBand
breedteBus
breedteSLIGT 410MGF11948575MHz(G)ddr31600MHz12,8GB/s64bitNeeGT 520MGF11948740MHzddr31600MHz12,8GB/s64bitNeeGT 520MXGF11948900MHzddr31800MHz14,4GB/s64bitNeeGT 415MGF10848500MHzddr31600MHz25,6GB/s128bitNeeGT 420MGF10896500MHzddr31600MHz25,6GB/s128bitNeeGT 425MGF10896560MHzddr31600MHz25,6GB/s128bitNeeGT 525MGF10896600MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 435MGF10896650MHzddr31600MHz25.6GB/s128bitNeeGT 540MGF10896672MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 550MGF10896740MHzGddr5/ddr31800MHz28,8GB/s128bitNeeGT 445MGF106144590MHzGddr5/ddr31600/2500MHz25.6/60GB/s128/192bitNeeGT 555MGF106/8144590MHzGddr5/ddr31800MHz43,2GB/s192bitNeeGT 560MGF116192775MHzGddr52500MHz60,0GB/s192bitNeeGT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNeeGTX 485MGF104384575MHzGddr53000MHz76,8GB/s256bitJaGT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNee

Het vroegtijdig overlijden van ons forumlid CJ:
• The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:
• Nieuws: Asus kondigt Mars II met dual GTX580-gpu's aan
• Nieuws: 'Nvidia's gpu-schema loopt vertraging op'
• Nieuws: Nvidia introduceert notebook-gpu's GTX580M en GTX570M
• Nieuws: Computex: Nvidia introduceert GTX560M en GT520MX
• Nieuws: EVGA introduceert GT 545-videokaart
• Nieuws: Nvidia en partners introduceren GTX 560
• Nieuws: Nvidia verliest meer terrein op gpu-markt in eerste kwartaal
• Nieuws: Nvidia: sli komt naar AMD-moederborden


Externe nieuwsberichten:
Nvidia herpakt zijn marktaandeel in laptop gpu's vooral te kosten van AMD.
• Hardware.info: nVidia haalt 50,6% marktaandeel in notebook videokaarten

Project Denver
nVidia heeft op CES hun nieuwste project betreffende het Tegra/ARM platform voorgesteld. Blijkbaar wil nVidia verder gaan dan dat ze tot nu toe met Tegra hebben bereikt. Momenteel houdt Tegra in dat een nVidia video chip wordt gecombineerd met 1 of meerdere aangekocht ARM chips om samen een platform te vormen.
nVidia toont blijkbaar nu ook de aspiratie om de ARM cpu chips zelf te ontwikkelen en te laten produceren (nVidia is nog steeds fabless). Door de licentiedeal met Intel en de bekomen licenties op de toekomstige ARM structuur is er juridisch geen hinderpaal meer voor nVidia. Daar ook Windows 8 compatibel wal worden met ARM hoopt nVidia hierdoor een concurrentieel platform te kunnen opbouwen dat op lange termijn zelf tegen de huidige x86 platformen kan komen te staan.
Dit vooral voor tablets/smartphones en andere toepassingen. Dat er in deze markt een serieuze groei wordt verwacht is duidelijk, zelf Intel wil een deel van de koek met hun atom cpu's (en dus de x86 instructieset)
nVidia:
• “Project Denver” Processor to Usher in New Era of Computing
CES:
• Microsoft Announces Support of System on a Chip Architectures From Intel, AMD, and ARM for Next Version of Windows

FP:
• Nieuws:Intel: Windows op ARM biedt ons kansen en bedreigingen
• Nieuws: 'Notebookmakers tonen weinig interesse in Atoms voor tablets'
• CES: Nvidia komt met ARM-cpu's voor pc's en supercomputers
• CES: Nieuwe Windows-versie ondersteunt ARM-architectuur
Totdat hun nieuwe ARM cpu af is blijft men geloven in Tegra2 (vooral in tablets en in wagens zo blijkt)
• CES: BMW en Tesla gebruiken Nvidia Tegra-soc voor displays
• CES: Cartech
• CES: Hands-on Kwartet opvallende tablets van Asus
• CES: Hands-on met Dells Streak 7: degelijkheid troef
• CES: Hands-on Acers 10"-tablet met Android
• CES: Hands-on Motorola Atrix: smartphone of netbook?
Eerste smarthphone met een dualcore Tegra2 chipset
• CES: Hands on LG Optimus Speed met dualcore cpu

• Nieuws: Nvidia koopt ontwikkelaar 3g- en 4g-modems
• Anandtech: NVIDIA to Acquire Icera, Adds Software Baseband to its Portfolio

• Nieuws: Computex: Nvidia demonstreert Kal-el-quadcore voor handhelds
• Nieuws: Madfinger kondigt shooter voor Nvidia Tegra Kal-El-quadcore aan
• TT: ASUS next-gen Transformer to sport NVIDIA's quad-core Kal-El, October launch?


• BSN: NVIDIA's 28nm "Wayne" Tegra to Come in Two Versions?
• BSN: 1st Silicon with NVIDIA Project Denver is an 8-Core ARM, 256 CUDA Core APU?


• nVidia toont actuele CPU en GPU roadmap in Japan

Blijkbaar gelooft buiten nVidia ook Apple in ARM pc's.
In het geval van Apple gebruikte men sowieso altijd al mindere krachtige maar zuiniger cpu's waardoor eigen gefabriceerde ARM cpu's perfect in het plaatje passen.
Het heet als grote voordelen:
• Past "heerlijk" in het plaatje van totale integratie van soft- en hardware.
• Komt tegemoet tegenover de klacht dat de hardware van Apple niets speciaals is maar juist hetzelfde als andere laptops..
• Verkleint het hardware matig verschil tussen de imacs/ibooks en de iMobile devices
Zoals ook Charlie al zei is het geen toeval dat men de verschuiving op hetzelfde moment plant als nVidia zal uitkomen met zijn 64Bit ARM cpu's.
Wie weet gaan beide firma's weer samenwerken ofwel hevige concurrenten worden.

• ARS: All this has happened before: NVIDIA 3.0, ARM, and the fate of x86


Hybrid SLi is back?NVIDIA to Launch Optimus-like Technology for Desktops at ComputexTot nu toe nog steeds niet gereleased. Vraag is of het er ooit nog van komt daar intel zijn eigen Optimus variant heeft uitgebracht op de Z68 moederborden. Nu daar deze eigenlijk belabberde resultaten opleverenden (de discrete kaarten worden blijkbaar nooit volledig uitgezet) is er natuurlijk nog ruimte genoeg voor improvement voor nVidia. Echter is meer de vraag of intel dat zal toelaten.
• Anandtech: NVIDIA Synergy to Bring Optimus to DesktopsNvidia: The Future of Graphics ProcessingProcessor opvolger Sony PSP gemaakt door nVidia?
Ondanks andere signalen gaat het gerucht dat de PS Vita voorzien zou worden van een tegra2 chipset.
Sowieso zal deze verniewde psp voorzien worden van een ARM cpu en heeft nVidia als leverancier wel een voetje voor bij sony (PS3, de nieuwe sony tablet..). Nadelig speelt natuurlijk dat Sony bij de PS3 niet zo content is van de houding van nVidia en eigenlijk ook daar oorspronkelijk een eigen GPU plande..
Het designen van een eigen chipset en laten fabriceren bij Samsung past perfect bij Sony echter is eerder de vraag of ze der in geslaagd zijn, zoniet is de Tegra chip wss "the way to go".
Het enigde dat nu al vast ligt is dat Sony gebruik zal maken van een quad core ARM cpu (welke dus ook door nVidia kan geleverd worden).
Na het "missen" van de 3DS zou het toch een mooie console-win zijn voor nVidia. Het leverancieren van hardware voor consoles levert nu éénmaal een verzekerde en langdurige geldinstroom. Zelfs buiten deze winst om is de omzet/schaalvergroting enkel positief voor de andere producten van de fabrikant.


Tekorten aan productiecapaciteit (28nm)
Dit komt vooral doordat de vorige generaties bij de overstap naar een kleinere nood ook amper konden bijbenen + het feit dat als Apple overstapt naar TSMC deze ook een serieus hap uit de 28nm productiecapaciteit zal nemen.

Herhaling van de 300 reeks:
BSN: NVIDIA GeForce 600 Series: 28nm, OEM-only Fermi Refresh?
Het gerucht gaat dus de ronde dat de oem pushen vooreen herhaling van de 300 reeks...
Elk gerucht heeft natuurlijk zijn voedingsbodem; en deze slaat namelijk weeral op een ander gerucht dat nVidia mobiele gpu's die nog gebruik maken van de volwassen Fermi architectuur gebruikt als pipecleaner voor het 28nm proces.
Hierop is nogal weinig kans. nVidia wil wellicht zo snel mogelijk van de Fermi reeks overstappen naar de Kepler serie.
Natuurlijk indien zou blijken dat Kepler een architecturaal/fundamentele bug(s) heeft zou dit wel eens kunnen gebeuren maar dan wel met Fermi architectuur op 28nm ipv gewone rebatching. Tot nu toe verloopt volgens nVidia alles ok en is de kans dus minimaal tot nihil.
Waarheidsfactor 5%

Waarop er wel kans is dat de volgende reeks van mobiele gpu's weeral een mengeling wordt van 2soorten architecturen Fermi en Kepler zoals de huidige serie een mengeling is tussen Fermi1 en Fermi2 (zie de overzichtstabel hier een beetje boven)
*update*
• Te filteren content ..


Kepler!
Kepler is de codenaam voor nVidia's volgende architectuur en was gepland voor (eind) 2011.

Kepler zal verderwerken op de Fermi architectuur maar met (natuurlijk) een aantal verbeterpunten waarvan de belangrijkste:
• Een véél betere prestatie per watt dan Fermi (tot 3 tot 4 keer). (Dit was namelijk een knelpunt van de Fermi Architectuur
• Virtueel memory
• pre-emption support
• nog meer onafhankelijker van de cpu
Zoals je al uit het lijstje kan afleiden is ook deze keer de architectuur gemeenschappelijk met de GPGPU quadro workstation GPU's. Hierin verdient nVidia namelijk momenteel goed zijn brood en is er nog weinig concurrentie.


Volgens nVidia verloopt het 28nm productie proces zonder problemen onder controle en de productie van kepler gpu's zou al ein dit jaar opgestart worden.
Let op opgestart worden != in de winkel liggen, waardoor begin 2012 correcter is
De laatste gecorrigeerde roadmaps tonen dan ook pas december 2011 aan als begin van de massaproductie, welke eigenlijk te laat is om de kerstmis periode te halen.
Maw in principe zijn ze 2 maanden te laat. Aan de andere kant zal ATi dit ook voor hebben en ligt dit eerder aan het 28nm procédé dan de architecturen.
De geruchten gaan wel dat ATI een ander TSMC 28nm procedé gebruikt dat sneller productie klaar zou zijn.
Als dat waar is, dan is ATI in staat om zelfs nog dit kwartaal met een nieuwe kaart kunnen komen.
• Engadget: NVIDIA's Kepler GPU still (kinda, sorta) on schedule for 2011 debut

• Fudzilla:Kepler 28nm taped out
• Fudzilla: Kepler 28nm to launch in Q1 2012
• SA: Nvidia’s Kepler comes in to focus
• Fudzilla: Some Nvidia notebook 28nm chips are finished
• Digitimes: Planned launch of Nvidia 28nm and 22/20nm GPUs moved back to 2012 and 2014
• Hardware.info: nVidia bevestigt komst van Kepler GPU in 2012
• Xbit: Nvidia Denies Plans to Release Kepler GPU in 2011.


Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9, 200, 400 en 500 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
• Windows OS:260.99 Win XP 32-bit Win en XP Media Center260.99 Win XP 64-bit en win server 2003260.99 Win Vista/7 32-bit260.99 Win Vista/7 64-bit• Alternatieve OS:260.19.12 Linux 32-bit260.19.12 Linux 64-bit 260.19.12 FreeBSD 32-bit260.19.12 FreeBSD 64-bit260.19.12 Solaris 32 en 64-bitnVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
• Windows OS:270.51 Win XP 32-bit Win en XP Media Center270.51 Win XP 64-bit en win server 2003270.51 Win Vista/7 32-bit270.5 Win V1ista/7 64-bitDe allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
• Windows OS:258.96 Win XP 32-bit258.96 Win XP 64-bit258.96 Win Vista/7 32-bit258.96 Win Vista/7 64-bitEen goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
• Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.


Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce 400 serie
Deze kan u vinden in Deel 49 van dit topic

Reviews van de GeForce GTX 550 Ti:
• Hardware.info
• Anandtech
• bit-tech
• Guru3D (Galaxy WHITE)
• Guru3D (MSI CycloneII)
• HardwareCanucks (Roundup)
• HardwareHeaven
• Legit Reviews
• PC Perspective
• techPowerUp: Palit, MSI, ZOTAC, ASUS
• TechRadar
• Tom's Hardware

Reviews van de GeForce GTX 560 Ti:
• Hardware.info
• Anandtech
• bit-tech
• Guru3D (Palit, sli)
• [H]ard|OCP
• HardwareHeaven: Gainward, Gigabyte
• Legit Reviews (ASUS
• PC Perspective (Roundup)
• techPowerUp
• TechRadar
• Tom's Hardware

Reviews van de GeForce GTX 570:
• Hardware.info
• AnandTech
• bit-tech
• Guru3D
• Guru3D (Palit)
• HardwareCanucks
• [H]ard|OCP
• HardwareHeaven
• Legit Reviews
• techPowerUp
• TechSpot
• TechRadar
• Tom's Hardware

Reviews van de GeForce GTX 580:
• Hardware.info
• AnandTech
• bit-tech
• Guru3D
• HardwareCanucks
• [H]ard|OCP
• HardwareHeaven
• HOTHardWare
• Legit Reviews
• Overclockers Club
• PC Perpective
• techPowerUp
• TechRadar
• The Tech Report
• TechSpot
• Tom's Hardware

Reviews van de GeForce GTX590:
• Hardware.info (Quad Sli)
• AnandTech
• BenchmarkReviews
• bit-tech
• Guru3D
• HardwareCanucks
• [H]ard|OCP
• HardwareHeaven (Quad Sli)
• Hi Tech Legion
• HOTHardware
• InsideHW
• Legit Reviews
• NeoSeeker
• PC Perspective
• techPowerUp
• TechRadar
• The Tech Report
• TechSpot
• TweakTown
• Tom's Hardware

Vorige Topics:Het grote NV40/GeForce 6800 topic
Deel I, II, III, IV, V, VI, VII, VIIIHet Grote 6800GT Topic
Deel 1, 2, 3, 4, 5, 6, 7, 8[Algemeen] nVidia GeForce Topic!
Deel 9, 10, 11, 12, 13, 14, 15[Algemeen] nVidia Nieuws & Discussie Topic
Deel 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37,38,39,40,41,42,43,44,46,47,48,49,50,5152,53Gebruikerservaring:
• Het Nvidia GTX5xx series ervaringen topic
• Het Nvidia GTX4xx series ervaringen topic
• nVidia GTX470/GTX480 Levertijden Topique

• [Ervaringen] Bakken grafische kaart
• Het doodgaan van GeForce 8000 serie kaarten

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce 500 serie in de Pricewatch
GeForce Qaudro in de Pricewatch

>>Klik hier om naar het juiste topic te gaan <<


>>Klik hier om naar het juiste topic te gaan <<

>>Klik hier om naar het juiste topic te gaan <<


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum

>>Klik hier om naar het juiste topic te gaan <<


Startpost: Jejking & biobak & RappieRappie

*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)PV engine 4 bijvoegen CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

7950 of 660 Ti?

18-08-2012 discussie 13
Zou iemand mij kunnen vertellen waar ik het verschil tussen 3 GB memory (256 bit) van bijv de Gigabyte 7950 en 2 GB (192 bit) van bijv de Asus, MSI, Gigabyte 660 Ti kan gaan merken?

Powerconsumptie boeit me niet. Ik speel op één monitor (1920x1200 of soms TV 1920x1080), wil alles op Ultra spelen met max AA en alle eyecandy. Ook diverse high resolution texture packs voor bijv Skyrim, Crysis 1/2, STALKER, etc.

Ik wil geen reference kaart, wil gaan overklokken. Geluidsproductie maakt niet uit, heb een stille Corsair Obsidian 550d kast. Warmteproductie dan misschien weer wel

Wat is dan de betere keus? Wil het liefst de kaart ook een beetje op de groei kopen. Budget max ¤330. Thx!

Nieuwe grafische kaart

18-08-2012 discussie 35
Hallo,Ik wil een nieuwe grafische kaart kopen in verband met verouderde grafische kaart maar ik zit met een paar problemen. Ik heb namelijk geen idee welke ik zou moeten kopen omdat ik niet weet of het gaat bottlenecken ofzo daarom had ik graag wat feedback over welke grafische kaart ik zou moeten kopen. Hieronder staan de specificaties

Moederbord: Foxconn model eton 1.0, Socket 775 LGA
Ram: 4 gb
Processor: Intel pentium E5300 2.60GHz dualcore
psu: 300w standaard compaq psu
Huidige grafische kaart: Nvidia Geforce GT 220 sparkle uitvoering met een nieuwe Zalman VF700-AICu koeler en heatsinks

Alvast bedankt, Jordy

Molex en Pci-e

16-08-2012 discussie 26
Hallo,

nieuw op Tweakers en dus een vraag die ongetwijfeld voor velen hier eenvoudig te beantwoorden is:

heb een 570 watt voeding met hierop een aantal molexaansluitingen en 1 6pins pci-e aansluiting.

Mijn (nieuwe) gpu (GTX460) heeft 2 6pins PCI-e aansluitingen.

Is het verantwoord om (uiteraard) de 6pins aansluiting van de voeding te gebruiken en daarnaast nog een 2xmolex naar 6 pins PCI-e adapter te gebruiken?

Dank alvast!

Welke videokaart BF3

21-07-2012 discussie 3
Hallo!

Ja, de zoveelste vraagt het, "welke videokaart kan ik best kopen?"

Maar helaas heb ik niet zo heel veel kennis van videokaarten.

Momenteel heb ik een nvidia GTX 285, waar ik redelijk tevreden over was. Mijn doel is vooral gaming, voornammelijk Battlefield 3, maar ook wat andere, minder zware games. Op dit moment heb ik zeer veel last van crashes, ongeveer 10 à 15 minuten spelen, soms ook wel vroeger. Het zijn steeds freezes, en omdat ik soms nog de melding "Nvidia driver XXXX.X reageerde niet meer en is hersteld" zie, denk ik dat het hoofdzakelijk aan de TDR ligt.
Wat me ook opvalt is dat het meestal voorkomt wanneer de computer al een tijdje opstaat, of wanneer de videokaart redelijk warm is. (Meestal ga ik na de freeze van BF3 kijken naar temp, en is het meestal rond de 75-80°C Wat nog niet zeer warm is, maar blijkbaar loopt ie dan toch al vast.)

Ik heb momenteel een Acer Predator: Intel Core I7-920 / 2.67 GHz -Intel X58 Expres Chip - Windows 7 64 Bit home premium - 2TB HDD - Nvidia GTX285 - 6GB Ram 1066 MHz

De kaart is ongeveer 2 à 3 jaar oud.

Ik heb zelf ook al wat zoekwerk gedaan, kan niet direct fixes vinden,... Dus ben ik naar nieuwe videokaarten gaan kijken, maar zou zelf hellemaal niet weten wat het beste te nemen voor BF3. Daarom roep ik jullie hulp in!

Voorwaarden van videokaart:Hoofdzakelijk: Hij moet op een goede degelijke manier Battlefield 3 (Hoofdzakelijk), liefst een kaart die in 2013 meekan als Battlefield 4 (beta uitkomt) en nog wat minder zware games dan Battlefield 3. Dus geen kaart die aan de vereisten voldoet, maar een kaart die de aanbevolen (of misschien zelfs beter is, liefst een die dus ook binnen 2 jaar nog goed is). Hij moet echt hoofdzakelijk zijn om te gamen, ik verwacht dus daarvoor ook een zeer goede kaart. Geluid, Nah, mijn kast is redelijk stil, ik zit met een hoofdtelefoon op, en nu maakt de kaart ook al heel wat lawaai. Ik verwacht uiteraard niet dat de kaart 75 DB gaat halen, dat moet ik ook niet hebben, maar verder maakt het me niet echt uit. EEN KOELE KAART, ik heb een systeem met waterkoeling, en dus opzich niet heel veel ventilators. Graag heb ik dus ook een kaart die zichzelf goed kan koelen (tijdens het spelen van bijvoorbeeld BF3) en/of snel terug afkoelt. Liefst betere koeling dan de GTX285 die ik nu heb Prijs: Opzich is dat niet echt een obstakel, heb goed gespaard, maar uiteraard zijn kaarten boven 750¤ of etc denk ik nog niet over. Dan koop ik wel een heel nieuw systeem Liefst max 400¤ (Weet niet precies wat de prijzen op dit moment zijn). Hoger mag mits het zeer degelijke kaart is. Levensduur: Liefst meer dan 3,5 jaar (Weet niet of dat mogelijk is) Weet niet of het mogelijk is, maar liefst geen kaart met die irritante TDR problemen (Nvidia dirver XXXX.X reageerde niet meer en is hersteld) Merk: Euhm, heb momenteel nvidia, liefst nogmaals nvidia tenzij jullie er van overtuigd zijn dat ik beter geen nvidia niet meer neem.Nja, dat is het zowat. Als er vragen opmerkingen,... zijn laat maar weten, ik kijk er naar uit Hopelijk kunnen jullie me een beetje helpen.

Ohja, ik zou de kaart waarschijnlijk installeren en ineens een fresh install van windows 7 doen

Bedankt voor de hulp allesinds

Mats

Snel de performance berekenen van CPU

04-07-2012 discussie 15
Sinds ik game houd ik videokaarten in de gaten. De laatste kaarten die ik heb gekocht zijn de 4770 en de 5770. Toen ik ging kijken naar de 6770 ging het eigenlijk mis. Ik ben toen eens naar de transistors gaan kijken per DIE. Ik kwam er achter dat de 6770 ongeveer evenveel transistors bezit als de 5770. Tegenwoordig laat ik me niet meer gek maken en kijk ik alleen nog maar naar transistors op de GPU's. Als ik voor een goede prijs (200 euro) een videokaart kan kopen die 1.5x zoveel transistors bezit, dan doe ik de upgrade.

Ik ben er laatst achter gekomen dat ik ook zoiets met CPU's kan doen. Wat ik bij CPU's doe is het volgende: Ik zoek het aantal transistors op van internet (wiki, Intel) en vermenigvuldig dit met de frequentie. Ik heb eens mijn desktops en laptops van afgelopen jaren in een grafiek gezet, en ik kom tot een paar leuke conclusies.
Mijn huidige netbook is even snel als mijn desktop uit 2008. Dit klopt aardig, op Beide kan ik geen MKV-1080p afspelen, maar 720 gaat wel goed. Inmiddels heb ik hem overgeclocked naar 3 GHz en lukt het hem wel.
Ik wil binnenkort mijn netbook vervangen met Atom, deze is langzaam aan het worden en dat merk ik met internetten. Ik zal daarom kiezen voor de ACER One 756 met celeron i.p.v. de Thinkpad E130 die 2x zo duur is. En als laatste, de i5 springt er flink boven uit.

Dus, geen zin om te benchmarken, of je wilt even snel berekenen hoe snel je volgende aankoop is, dan geeft dit een "leuke" indicatie van de performance.

Name transistors GHz Index
Samsung netbook 176 1.5 264
Pc-2007* 167 3 501
Lenovo-n300 291 2 582
ACER one 756 504 1.3 655
Thinkpad E130 624 1.4 874
PC-2008* 228 4 912
Thinkpad-T400 410 2.4 984
Notebook (2012) 624 2.2 1373
PC i5* 1160 4.8 5568


* = OC'ed

Performance CUDA en CS6

21-06-2012 discussie 3
Een tijdje terug heb ik dit systeem samengesteld:

- pricewatch: Intel Core i7 3930K Boxed
- pricewatch: Club3D Radeon HD 7970
- 2x pricewatch: Corsair Vengeance CML16GX3M2A1600C10

De bedoeling was dat ik weer een tijdje vooruit zou kunnen met fotobewerking en gamen, en dat kan ook...

Alleen is het met zo'n bakbeest wel aanlokkelijk om met Premiere Pro en After Effects (CS6) aan de slag te gaan, en daar valt de performance me ineens heel erg tegen.

In AE valt redelijk te werken, totdat ik de 3d Ray Trace Rendering aanzet, dan is 'ie echt niet vooruit te branden (zelfs niet op third/quarter resolutie). Een vrij simpele composition van 8 seconden met twee of drie extruded text-lagen renderen op 720p duurt al snel 13 minuten. En een paar effecten op videosporen in PP maken het geheel ook al erg traag.

Nu twijfel ik erover of ik mijn videokaart ga vervangen door een Nvidia-kaart, want die hebben tenslotte CUDA, wat door CS6 wordt ondersteund. Maar zo'n overstap moet de investering wel waard zijn, en of dat zo is kan ik dus nergens vinden.

Ik kom veel vergelijkingen tegen van de performance van Nvidia-kaarten onderling, maar ik ben juist benieuwd wat de performance-winst zal zijn als ik overstap van AMD naar Nvidia.

Dus... hoeveel snelheidswinst valt er te verwachten als ik mijn huidige GPU vervang door een GeForce GTX 670 of 680?

Nieuwe Videokaart

27-05-2012 discussie 13
Hey ik wil graag een nieuwe videokaart alleen mijn vraag is wat jullie mij kunnen voorstellen. Heb al wat rond gesnuffelt op het internet maar ik kom er niet echt uit omdat er veel keuze is.

Ik heb een 460W voeding en het is bedoelt voor een PCIE x16 slot. Het budget ligt rond de 300 / 400 euro (mag ook iets meer). Ik wil er graag 2 beeldschermen op laten draaien, 2x (1920 - 1080).
En het liefst Battlefield 3 op ultra zonder rare fratsen.

Alvast bedankt,

Proliner

Specs:

Intel Core i7-2600 @ 3.40 Ghz
6,0 GB Ram
Huidige Videokaart: HD 6570
460W Voeding

GPU voor Laptop

24-04-2012 discussie 4
Beste Tweakers,

ik heb +- 2 jaar geleden een Asus A52JB aangeschaft, echter kom ik op het gebied van gaming niet goed vooruit op dit moment (een Asus A52JB-SX089V).

De laptop bevat:
i5 430M 2.3 GHz
Ati Mobility Radeon 4500/5100
500GB HD op 5400 RPM
6GB DDR3 1066 MHz
15,6 inch scherm met 1366x768 resolutie

De specificaties van mijn voeding(accu) kon ik niet vinden. Op de doos staat in ieder geval 6CEL4400 vermeld.

Ik ben eigenlijk op zoek naar een grafische kaart waarmee ik de laatste spellen toch redelijk vloeiend kan draaien.

Nou hoeft deze natuurlijk geen BF3 op Ultra te kunnen draaien maar ik zou toch wel meer gaming kracht willen hebben. Games zoals Fall Out New Vegas en Saints Row 3 draaien nog niet eens vloeiend op low, wat toch niet heel grafisch intensieve games zijn.

Ik zou graag voor om en nabij de 100 euro een nieuwe grafische kaart willen installeren. Daarbij vraag ik me af wat een goede keuze zou zijn.

Daarbij hoop ik dat jullie mij van advies kunnen voorzien.

Alvast bedankt!
Alandre

Symptomen bij een defecte Notebook GPU

07-04-2012 discussie 11
Beste Tweakers,

Hierbij mijn verzoek tot jullie hulp. Ik heb onlangs een MEDION ERAZER X6816 (MD 97888) aangeschaft. Deze is voorzien van een Sandy Bridge processor met igp en een Nvidia GeForce GT555M gpu voor de grafische taken. Daardoor ook voorzien van Nvidia Optimus techniek. Na de installatie van mijn notebook heb ik zorgvuldig de meest recente updates en firmware geïnstalleerd met reboots tussen door. Op een gegeven kom ik in mijn apparaatbeheer de beruchte "gele gevarendriehoek met uitroepteken" tegen bij mijn Nvidia GeForce GT555M. Naar mijn weten stond er als nadere toelichting dat het apparaat niet correct functioneerd met een bepaalde foutcode. Dus besloot ik gauw het systeem maar te rebooten in de hoop dat het wellicht de foutmelding verhelpt. Sindsdien is na het afsluiten de beeldscherm tijdens de opstartprocedure van mijn laptop zwart terwijl de indicatielampjes (van bijvoorbeeld de HDD activiteit) wel functioneerd. Ofwel het geeft geen beelden weer, sterker nog de backlight springt niet eens aan wat mijn vermoeden wekt dat deze geen signaal krijgt. Vervolgens heb ik geprobeerd een externe beeldscherm aan te sluiten op de VGA-poort en de HDMI-poort ook deze krijgen geen signaal. Gezien de punten die eerder heb beschreven is het dan correct om aan te nemen dat de GPU nu defect is? Hopende op informatieve reacties.

Groetjes GT-R

bottleneck inzicht???

22-02-2012 discussie 20
Dag allemaal,

Ik heb even een vraag.
momenteel werk ik met het volgende (belegen) systeem:

CPU: intel core 2 dou e8500 3.16ghz 3.17ghz
RAM: 4GB
MOBO: asus P5n-d
GPU: EN9600GT/HTDI/512M (2stuks SLI)
HDD: HD403LJ
CASE: CM storm sniper
CPU cooler: Corsair Hydro Series H50
PSU: Be Quiet Dark Power Pro P8 900W

Ik heb al heel veel aan dit systeem gehad, maar het wordt tijd voor een upgrade (aangezien bijna rook uitkomt als ik BF3 draai).
Overclocken is een must, maar ik moet nog uitzoeken hoe ik dit voor elkaar ga krijgen.
Aangezien ik als student niet beschik over het budget om een volledig nieuw binnenwerk te kopen leek het me een goed idee om de beeldkaart te upgraden om toch wat langer plezier te hebben aan mijn PC.
Het liefste zou ik naar nieuwe generatie beeldkaart overschakelen (Nvidia 500series of ATI 6000/7000series), maar ik maak me zorgen dat de processor dit niet aankan.

Wie kan me dus wat advies geven?

Zou het een goed idee zijn om bv. een Nvidia 580gtx te kiezen of voor 560ti gtx (sli)? (andere suggesties zijn altijd welkom)

alvast bedankt voor de input.

vraag i.v.m cpu + gpu

14-01-2012 discussie 5
goedendag medetweakers

ik ben van plan binnenkort een HD 6870 te halen omdat (ik denk) mijn 8800 GTX kuren heeft
nu is de vraag dus zal mijn CPU een bottleneck vormen met deze kaart? (ik weet het, het is geen nieuwe kaart)

cpu = phenom x3 8650 (stock 2.3) geclocked op 2.7 momenteel
Resultaten per pagina: 25 | 50 | 100
1 2 3 4 5


Huawei Nexus 6P Apple iPad Pro WiFi FIFA 16 Samsung Galaxy S7 Fallout 4 Apple iPhone 6C Athom Homey LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True