Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

EVGA heeft een GTX 1080 Ti-videokaart met een all-in-one waterkoeler aangekondigd. De SC2 Hybrid-uitvoering heeft negen sensoren op het pcb die de temperatuur in de gaten houden. De fabrikant stelt de boostclock in op 1670MHz.

Daarmee is de boostsnelheid een kleine 100MHz hoger dan de referentiesnelheid van 1582MHz, die Nvidia voor de GTX 1080 Ti opgeeft. De baseclock van de EVGA-kaart is 1556MHz. Naast een waterblok en 120mm-radiator heeft de videokaart een reguliere ventilator, die onderdelen zoals de vrm's moet koelhouden.

Het waterblok heeft een koperen basis en staat door middel van koper ook in verbinding met de geheugenmodules op het pcb. Volgens EVGA wordt de temperatuur van verschillende componenten met negen temperatuursensoren in de gaten gehouden en wordt de kaart op specifieke plekken gekoeld als dat nodig is. De temperatuur van alle sensoren kan uitgelezen worden in de meegeleverde software.

Op de videokaart zit 11GB gddr5x-geheugen met een snelheid van 11Gbit/s. Ten opzichte van de referentie-uitvoering is het geheugen niet overgeklokt. De videokaart is 266,7mm lang en neemt twee slots aan ruimte in. Een adviesprijs heeft EVGA nog niet bekendgemaakt.

EVGA GTX 1080 Ti SC2 HybridEVGA GTX 1080 Ti SC2 HybridEVGA GTX 1080 Ti SC2 HybridEVGA GTX 1080 Ti SC2 Hybrid

Moderatie-faq Wijzig weergave

Reacties (77)

Jammer dat deze kaart een Reference PCB heeft i.p.v. het FTW3 PCB. Het valt mij overigens op dat EVGA lekker nieuwe producten aan het toevoegen is maar geen van de kaarten zijn leverbaar. Ook op social media continu posten over de nieuwe lineup en mensen maar klagen dat hun pre order van 2 maanden oud nog steeds niet uitgeleverd is. Volgens mij is EVGA de enige board partner die haar kaarten nog niet beschikbaar heeft op de markt.
Volgens mij heeft de vertraging te maken omdat ze nu met die iCX technologie bezig zijn, wat voor extra vertraging heeft gezorgd om deze op de kaarten te implementeren.
Echter heb ik wel gelezen dat partijen zoals Amazon binnen een paar dagen of midden in mei hun kaarten zouden moeten gaan ontvangen, dus het zal waarschijnlijk niet lang meer duren.

Maar als je overigens ziet wat voor moeite EVGA in de iCX modellen heeft gestopt om de bullshit media parade van de GTX1080 die 'in brand vloog' tegen te gaan gaan dit zeer goede kaarten worden.
Want wat daar enkel is misgegaan is dat EVGA bepaalde slechte componenten geleverd kreeg en dus net zoveel pech heeft gehad als die enkele gebruikers, dit probleem is gevonden en opgelost.
Er is dus geen enkele reden om je zorgen te maken als je nog een normale ACX videokaart hebt, ook zonder thermal pads.
En wat gebruikers vergeten is dat dingen als VRM's efficiënt werken rond de 100°C en nog een stuk hoger aankunnen, dit was dus ook het probleem niet.

Zie bijvoorbeeld de onderstaande video's en artikelen over de bouwkwaliteit van de 1080Ti FTW3:

https://www.youtube.com/watch?v=uBjTi0uj64E
https://www.youtube.com/watch?v=4UURdOEMrCA
http://www.gamersnexus.ne...tw3-teardown-and-pcb-info
http://www.gamersnexus.ne...-1080ti-ftw3-pcb-analysis

De bouwkwaliteit en klantenservice van dit bedrijf is genoeg redenen voor mij om iets langer te wachten voor een goed gebouwde kaart dan teleurgesteld worden met een videokaart welke meer risico heeft op het binnen enkele jaren kapot te gaan, slechte RMA service welke weken duurt en dan ook nog een middelmatige refurbished kaart terug gestuurd te krijgen die niet eens goed getest is of deze 100% werkt binnen zijn normale specificaties met standaard instellingen. *cough* Asus *cough*

EVGA is nu eenmaal geen super-groot bedrijf zoals Asus/MSI/Gigabyte en hebben dus iets minder middelen om hetzelfde te doen als de andere fabrikanten, terwijl juist die andere fabrikanten de bouwkwaliteit aan hun laars lappen dan wel RMA service of reparatie kundigheden.

Een grote productie capaciteit hebben en snel leverbaar zijn is niet hetzelfde als goede kwaliteit leveren, ook de kwaliteit-controle is hier dus minder, want ja die enkele klanten op die veel meer duizenden dan EVGA aanspreekt is natuurlijk minder een probleem voor hun.
Ook kunnen deze bedrijven het zich veroorloven informatie te laten uitlekken terwijl er een NDA van Nvidia actief is om zo een hype te creëren en de aandacht weg te lokken van de concurrenten, als ze een boete krijgen kunnen ze deze veel makkelijker afkopen, terwijl EVGA zich strikt aan de guidelines houdt, ze zijn dan ook niet voor niets Nvidia's #1 partner.

Ook heeft Bjorn3D al een review over de GTX1080Ti FTW3, ik verwacht dat er nu velen gaan volgen, mensen krijgen langzaamaan nu hun videokaarten binnen:
https://www.bjorn3d.com/2...-the-beast11g-p4-6696-kr/

Ook enkele resultaten van een gebruiker met overclock:
https://www.reddit.com/r/...g_benchmarks_now/dh1wo6e/
Update on benchmarks and OC:
Mine is stable @ 2075mhz. Hovers around 2062-75 while playing BF1 and stress test.
Idles @ 24-25c, Under load is 61-62c with default fan curve. Really silent. can barely hear the fans, sometimes they dont spin at all.
Time Spy score is 8948 with Graphics score: 10514, Firestike is 20114 with Graphics score of 30450, Firestrike ultra is 7080 with Graphics score of 7250, Heaven Benchmark @1440p 163fps score: 4100 Temp@ 52c
Hier is ook een review van de GTX1080Ti SC2 waarop de bovenstaande hybrid kaart gebaseerd is:
https://www.youtube.com/watch?v=g4xGAxaq0Ic
http://www.gamersnexus.ne...0-ti-sc2-review-benchmark

Het vreemde is wel dat bij een overclock in sommige gevallen de EVGA kaart een stuk stabielere en hogere framerates haalt in de minimum fps regionen alsmede frametimes en consistentie tegenover de MSI/Gigabyte:
https://youtu.be/g4xGAxaq0Ic?t=854
Placement is mostly the same at 1440p, with the EVGA SC2 stock card running an average of 95FPS, flanked on either side by the 1080 Ti Xtreme Aorus card at 94FPS and the Gaming X overclocked card. Note that the Gaming X OC numbers show some loss in lows as frametimes dither more with clock fluctuations. Overclocking the SC2 gets us up to about 99FPS AVG, with lows at 86FPS and 81FPS. The SC2 is more stable with this overclock than our Gaming X and Xtreme overclocks, both of which had hits to frametime consistency with an OC. That said, the hits weren’t all that critical to overall performance, but are at least noteworthy.
Mogelijk dat dit iets te maken heeft met het power-design van de kaarten welke minder efficiënt werken bij een overclock rond de 2Ghz bij non-reference AIB kaarten zoals een gebruiker opmerkte bij de reaguursels:
Since this card had better minimum frames when overclocked compared to the MSI and GIGABYTE cards. Could you include some frametimes in the review for the EVGA card aswell? I have a feeling in my gut that the higher switching frequency of the nvidia ref PCB design (assuming 600Hz of the nvidia 8 channel volt controller compared to the AIB partner cards that trade switching frequenzy for higher FET count through doublers that cut the eventual switching frequency in half) has actually benefits for the stability of the clock as soon as you apporach about 2000MHz on the core. So my hypothesis is that this time around the nvidia ref PCB design with lower FET count but higher switching frequency is actually outperforming the higher FET count AIB cards in perceived smoothnes and better frametimes.
Long post is too long. O-)
Ik volg bijna alle video's van gamersnexus en bij hun EVGA 1080 Ti FTW3 video's viel het ook al op, dat bij de games benchmarks EVGA echt beter Mid/Low Frame times heeft dan alle andere concurrenten met hun high end product.

Dit prestatie verschil is al het meer prijs waard wat EVGA vraagt voor zijn kaarten. Hun VRM design word door meesten gezien als overbuild. Maar men kijkt dan niet wat voor effecten deze overbuild heeft. Subliem stabieler frame times, na het overclocken van het GPU en GDDR5X geheugen en zijn de temperaturen ook heel goed te noemen.

EVGA 1080 Ti SC2 Hybrid zal nog een stapje boven op zijn. Ze zijn echt heel goed bezig bij EVGA Toppie!
Dank voor de info! Ik was nog op zoek naar een review van de FTW3 kaart, die zijn lastig te vinden :) Ik ben zeer benieuwd naar de prestaties aangezien EVGA volgens mij de enige is die nog een echte 2 slots oplossing aanbiedt i.p.v. 2.5 slots.
Inderdaad, dat is ook zeker een plus, geen problemen met add-in kaarten door een overlappende GPU of met SLI qua spacing, en bovenal minder gewicht door een minder lomp koelblok en dus ook minder kans op inzakken.
De iCX koelers hebben hun bevestigingen ook aan de uiteinden van het PCB zitten in plaats van rondom de GPU die, dit moet de kaart extra verstevigen.

Dat is ook de reden waarom Nvidia nog met een FE blower koeler komt, omdat deze afmetingen in de meest gangbare situatie's gebruikt kan worden, vooral dus ook met meerdere GPU's zonder afhankelijk te zijn van de koeling van de behuizing.

Overigens in de bovenstaande gelinkte review van de GTX 1080Ti SC2 zijn de temperaturen zo'n 4°C~ lager dan de MSI/Gigabyte concurrerende kaarten, dit is op basis van de kamer temperatuur.
Dus een 40°C Delta boven kamer temperatuur zou met 20°C op 60°C videokaart temperatuur uitkomen.
Echter gebruikt EVGA wel een iets of wat agressiever fan profiel, dus maakt iets of wat meer geluid, maar dit kan dus zelf aangepast worden waardoor het verschil tussen de kaarten mogelijk erg klein wordt.
Ook kunnen de fans van de EVGA kaart in maximale stand harder draaien dan de rest, dus vandaar ook een hogere geluidsdruk.

http://www.gamersnexus.ne...2-review-benchmark/page-3

Update:
Er is nu ook een review verschenen op Techpowerup van de GTX1080Ti SC2:
https://www.techpowerup.com/reviews/EVGA/GTX_1080_Ti_SC2/

Zie eventueel dit forum topic voor meer reviews:
https://forums.evga.com/1...TW3-Reviews-m2653098.aspx
Of volg EVGA Jacob's twitter voor de snelste updates omtrent nieuwtjes:
https://twitter.com/evga_jacobf

[Reactie gewijzigd door CriticalHit_NL op 3 mei 2017 17:31]

Mooi helder doch lang verhaal. Heb zelf een FTW teruggebracht omdat ik het zaakje niet vertrouwde.

Grappig om te zien wat voor damage control er nu allemaal wordt gedaan :) Als dat écht gaat resulteren in een koeler die 10 graden C lager uitvalt als de concurrentie, dan is dat grote winst!
het kan zo veel dingen zijn .... ze hebben te weinig in gekocht en dat er zo veel vraag is dat ze niet eens alle pre orders kunnen uit leveren ..
of nvida kan het gewoon niet kan leveren . de chips komen niet uit de lucht vallen die moeten worden gebakken bij een 3de partij dat moet weer in gepland worden .
vergeet niet reclames koop je ver van te voren in .
het kan zijn dat nvidia wel aan de andere partners levert, of er gewoon veel meer vraag naar evga producten is dan dat van de concurrenten.
de waarheid is ..
Ik heb een 1070 die stabiel op 2000Mhz draait.. Dus Mhz is niet alles blijkbaar ?
Nee klopt, de snelheid in (m)hz is simpelweg de snelheid waarmee je de kernen van je videokaart berekeningen kunnen doen, met 2000 mhz of 2ghz komt dit (even uit mijn hoofd) uit op een throughput van 20.000.000 bits per seconde.

Echter is dat maar 1/3e van het verhaal, 2 andere grote factoren zijn de architectuur en de hoeveelheid kernen die je hebt op je videokaart, bij architectuur praat je over efficiëntie van de kernen en de manier van verwerken van die informatie dit gaat meestal hand in hand met hoever je een kaart stabiel kan overklokken, je ziet dan ook dat met een nieuwe generatie videokaarten deze ook steeds hoger geklokt kunnen worden (bvb RX400 en RX 500 series die net uitgekomen zijn).

De 1080ti heeft dan ook een nieuwere architectuur ten opzichte van de 1070, de 1080ti maakt namelijk gebruik van de zelfde architectuur als de Titan X Pascal waar de 1070 gebruikmaakt van een oudere architectuur, nou verschillen deze niet enorm veel maar het maakt natuurlijk wel een verschil in het eindresultaat.

Als laatste heb je nog de hoeveelheid kernen, dit is voornamelijk waar het grote verschil zit tussen de GTX1070 en de GTX1080ti, de 1070 heeft er namelijk 1920 waar de 1080ti er 3584 heeft, dit is bijna 2x zo veel! Dat betekent praktisch gezien gewoon het zelfde als bij processoren, je kan wel een dual core hebben op 5ghz, maar die gaat het in zware taken niet redden tegen een quad core met hyperthreading op 4 ghz.

Hierbij komt nog eens dat deze kaarten zo standaard geleverd worden en best een turbo boost kunnen hebben die die kaart automatisch naar 2ghz klokt onder gameload, of dat deze kaarten gewoon zelf tot 2ghz over te klokken zijn (ik ga er vanuit dat je 1070 ook niet met een standaard klok van 2ghz geleverd is).

Zo zie je dat er inderdaad meer aan zit dan alleen de kloksnelheid van je videokaart.

--- Disclaimer: Ik heb dit even op mijn mobiel getikt en niet alles nagezocht, dus als er nog wat foutjes in zitten, alvast mijn excuses, ik hoop dat wat ik probeer uit te leggen in ieder geval duidelijk is. ---

[Reactie gewijzigd door timicool op 3 mei 2017 10:44]

De GTX 1080ti / Titan Xp / GTX 1070 maken allemaal gebruik van dezelfde architectuur dus dat gedeelte is alvast niet juist.

Het enige verschil, maar dat verschil vind je ook op de GTX 1080, is dat er nu een versie van is met 11GBps GDDR5X, ipv de originele 10GBps. Het is en blijft allemaal Pascal. Als je een vanilla GTX 1080 zelf overklokt naar die 11GBps heb je hetzelfde.

Verder mbt de 'kernen' dat is een heel ander verhaal als bij een CPU. Zo werkt de CPU met threads en niet parallel, en een GPU werkt met een workload waarbij de kernen (die eigenlijk shaders heten en elk hun eigen extra resources hebben) allemaal tegelijk aan één taak werken, namelijk het doorpersen van zoveel mogelijk pixels. Het is dus fundamenteel anders als bij een CPU.

Wat verder nog van grote invloed is op de snelheid van een GPU is de balans en de aard van de workload: met balans bedoelen we dan de verhouding tussen de bandbreedte en doorvoersnelheid van het geheugen ten opzichte van de 'fillrate' (hoe snel kan ik pixels inkleuren) van de GPU - en die laatste is gebaseerd op de kwaliteit van de shaders.

In dat laatste zie je ook een groot verschil in de architecturen van AMD en Nvidia, en ook een medeoorzaak van het grote verschil in kloksnelheden tussen die twee.
Het is krom vergelijken met een CPU, maar z'n vergelijking gaat wel op, als je er van uitgaat dat de software ook daadwerkelijk gebruik kan maken van die extra cores, anders is die 5ghz dualcore waarschijnlijk sneller, daar zit het verschil dus met GPU's, daar dicteert de software niet welke core wat doet.
Daar ben ik het niet mee eens. Een CPU werkt niet parallel aan dezelfde taak in het overgrote deel van de gevallen. Het is een fundamenteel ander systeem. Zelfs binnen één applicatie die heel goed multithreaded is, werkt elke CPU core aan een andere taak (thread) binnen die applicatie. Daarmee bepaalt de applicatie dus indirect ook de maximale haalbare prestatie want de zwaarste thread is hier 'de zwakste schakel', een mooie link naar waarom het belangrijk is om voor gaming een hoge CPU clock én IPC te hebben.

Bij een GPU zijn álle shaders ten allen tijde bezig met dezelfde taak en is er sprake van een zgn pipeline die ook volledig anders werkt. Als je dat principe kent is het ook veel beter voor te stellen waarom een hogere GPU clocksnelheid perfect om te zetten is naar een even zoveel hogere prestatie van de GPU, en dus ook dat je met meer shaders op een iets lagere clock alsnog een snellere GPU kunt hebben. Bij een CPU gaat dat principe negen van de tien keer niet op.

[Reactie gewijzigd door Vayra op 3 mei 2017 19:01]

Dat een CPU niet parallel aan een taak werkt, ligt aan de software, niet de hardware. Een CPU kan heus wel parallel werken, ze zijn er alleen niet erg geschikt voor en worden daarom er weinig voor gebruikt (heb je gpu's voor). Maar de vergelijking ging om: Zelfde bewerking op meer cores = sneller, en dat is waar, dus de vergelijking gaat gewoon op.

Maar ik begon ook met dat het wel een kromme vergelijking is ;) ongetwijfeld gaat die vergelijking wel ergens de mist in.

[Reactie gewijzigd door Zoop op 4 mei 2017 10:15]

Het enige verschil, maar dat verschil vind je ook op de GTX 1080, is dat er nu een versie van is met 11GBps GDDR5X, ipv de originele 10GBps. Het is en blijft allemaal Pascal. Als je een vanilla GTX 1080 zelf overklokt naar die 11GBps heb je hetzelfde.
Veel gemaakte denkfout. Bij de GTX 1080 11 Gbps komt de maximale overclockgemiddeld 105 Mhz hoger uit dan bij de 10 Gbps modellen. Met andere woorden; de 11 Gbps varianten clocken zelf weer hoger over. Dus nee je krijgt niet hetzelfde. Of dat de meerprijs waard is blijft een andere discussie.

Zie bijvoorbeeld tabelletje op techpowerup.

[Reactie gewijzigd door sdk1985 op 3 mei 2017 18:48]

Mijn reactie was op het wel of niet hebben van een andere architectuur, niet op de overklokbaarheid :)
een GPU werkt met een workload waarbij de kernen (die eigenlijk shaders heten en elk hun eigen extra resources hebben) allemaal tegelijk aan één taak werken, namelijk het doorpersen van zoveel mogelijk pixels.
Niet helemaal. Shaders zijn een abstractie, maar dankzij CUDA hebben we een beter idee hoe het achter de schermen werkt. NVidia schedules threads per 32 in een zogenaamde "warp". Binnen een warp werken alle 32 threads wel aan hetzelfde, maar je kunt veel warps tegelijk actief hebben - minimaal 2, maar volgens mij komt een 1080Ti tot 224 warps.
De 1080ti heeft dan ook een nieuwere architectuur ten opzichte van de 1070, de 1080ti maakt namelijk gebruik van de zelfde architectuur als de Titan X Pascal waar de 1070 gebruikmaakt van een oudere architectuur, nou verschillen deze niet enorm veel maar het maakt natuurlijk wel een verschil in het eindresultaat.
Kleine correctie: de 1070 en 1080ti zijn gewoon gebaseerd op dezelfde Pascal architectuur. Het verschil zit hem in de gebruikte chip (gp104 voor de 1070 en gp102 voor de Ti) en het verschil in cuda cores tussen de twee.
Dat is inderdaad wat ik bedoelde te zeggen, bedankt voor de aanvulling/correctie!
Je verhaal is helemaal top! Maar toch als aanvulling: processoren doen meer dan 1 bit per kloktik (per Hz), hoeveel precies is weer afhankelijk van de architectuur. Daarom hoor je nog wel eens de term ipc (instructions per clock) als men over processoren praat, hoe hoger hoe beter (daarom hebben AMD vrij andere hoeveelheden cores voor vergelijkbare kaarten).

En het is in gedachte te houden dat gpu berekeningen beter schalen over cores. Waar bij een cpu de overgang van dual core naar quad core niet bij alle apps veel verschil maken (en single core performance nog altijd belangrijk is), schalen gpu taken normaal wel heel goed over meer cores. 2x zoveel cores maakt bij vrijwel elke game een groot verschil (maar performance is niet exact 2x zo goed, hangt nog van zaken als geheugen, je cpu, etc. af, daarom moet je altijd bewust zijn van de bottleneck (zwakste schakel) als je je pc wilt updaten, gpu updaten naar een model met enkel meer cores heeft misschien weinig zin als de beperking door de hoeveelheid geheugen komt).

Dit is nog allemaal wat gesimpliceert, maar ik hoop dat het helpt :)
Is de mhz niet eerder de bandbreedte van de CPU? Dus hoeveel bits het kan verwerken per seconde? Want ik weet dat bijvoorbeeld uw internetsnelheid in Mbps, eigenlijk niet echt de snelheid is. De ping is dan hoe snel de bits zich van A naar B verplaatsen, terwijl de bandbreedte in Mbps niks anders wilt zeggen dan het aantal bits die per seconde verplaats kunnen worden. VB, Zie 2 Mbps als een tweebaansweg en 4 Mbps als een vierbaansweg. Er kunnen meer auto's op het straat rijden, maar ze rijden wel allemaal aan max 120km/uur. De 120km/uur representeert de ping, ofwel hoe snel een pakket van bits zich verplaatsen.
Is dat met standaard koeling?
Tja, waar blijft AMD met de concurrentie..... denk je dan.

Euh een 1080ti stock boost al naar 1700-1900 mhz. Snap al die overclock termen niet van fabrikanten. Overclocken heeft weinig zin op een 1080ti, is al gebalanceerd genoeg op 1600-1700mhz, je krijgt er weinig extra FPS uit ook al knal je er +300mhz op.
Sterker nog de Titan met 3840 cuda is maar twee procenten sneller dan een 1080ti stock.
De 1080ti is een van de weinige kaarten die zo uitgebalanceerd is stock.

[Reactie gewijzigd door A87 op 3 mei 2017 09:46]

Was het niet zo dat dit soort nieuwe kaarten niet echt meer goed kijken naar base en turbo clocks, maar meer naar de temperatuur van de chip? Zolang er nog TDP headroom is blijft de kaart (tot een maximum) de klok richting turbo knallen?
Klopt, maar wel zolang er actie is natuurlijk ;) , deze blijft niet boosten als er enkel een excel openstaat :)
AMD blijft nergens qua prestatie helaas. Topchip is nog steeds de furyX, die is 3 generaties oud. De 480 valt zwaar tegen en de 580 is daar weer een rebrand van.
Bij Guru3D staat een gelekt screenshot van de RXVega. Als die getallen kloppen dan is die niet veel sneller als een Fury of 1070. Qua prestatie laat AMd het echt liggen.
En dat is erg jammer, want ze hadden de laatste jaren leuke innovaties.
De vega lijn bestaat echt niet uit 1 kaart. Als deze sample het instapmodel is klopt het toch? Amd heeft nog niks om tegenover de 1070 te zetten iig. Ik durf te wedden dat de betere kaarten gewoon mee kunnen met de 1080ti. Volta word weer een ander verhaal dat wel.
Maar ze ontwikkelen nooit vanuit het instapmodel.
Altijd vanuit het topmodel en dan naar beneden. Zodat ze de mislukte chips als medium / lowbudget alsnog kunnen verkopen.
Dat kun je zien als bij sommige modellen de hele chip is te unlocken met een biosflash. Die extra shaders worden niet gedownload ;p
Er zijn inmiddels scores gelekt van een waarschijnlijk topmodel die een 1080ti voorbij gaat. Kijk maar bij de buren.
De 480 en 580 doen het prima tegenover de gtx 1060 hoor!
Ja en wat doet het prima tegen de 1070 1080 en 1080ti?
AMD komt op het ogenblik niet verder als de middenmoot van Nvidia helaas. Of je moet naar mijn oude FuryX kijken of de nog veel exotischer pro duo. Zijn die uberhaubt nog wel te verkrijgen?

[Reactie gewijzigd door arbraxas op 3 mei 2017 19:24]

Als het er in zit waarom het er niet uithalen? Klinkt niet alsof je een Tweakers mentaliteit hebt :+
Het is geen 980ti
Dan nog 1% meer winst is 1% meer winst. En ze gebruiken allemaal OC termen etc om hun als beste keuze te laten lijken. Puur marketing dus. Als je koeling het aan kan. Kan je er zelf veel meer uithalen.
Als gebruiker merk je pas een verschil als de performance 10% beter is.
een game spelen met een refresh rate van 120 of 122 Mhz merk je gewoon niet.
1% is idd. 1% maar het gaat erom of het verschil merkbaar is.
Nee dat zal niet snel merkbaar zijn. Maar daar gaat het bij marketing toch ook niet om?
Tja, waar blijft AMD met de concurrentie..... denk je dan.
eind deze maand, of hooguit de eerste paar dagen van volgende maand.
Je bedoelt de Titan XP. ;) Qua specs zijn de 1080ti en de Titan XP niet veel verschillend. De 1080ti heeft een 50MHz hogere clock, maar 1GB aan RAM minder en mist 300 cuda cores. Toch best knap van de 1080ti dat hij dan vlak achter de Titan XP komt. Die 2% is echt wel met een overclock te dichten.

[Reactie gewijzigd door CH40S op 3 mei 2017 17:00]

Je bedoeld de Titan XP. ;) Qua specs zijn de 1080ti en de Titan XP niet veel verschillend. De 1080ti heeft een 50MHz hogere clock, maar 1GB aan RAM minder en mist 300 cuda cores. Toch best knap van de 1080ti dat hij dan vlak achter de Titan XP komt. Die 2% is echt wel met een overclock te dichten.
Hadden de 'vergelijkbare' specs niet te maken met een software / hardware bottleneck qua cooling waardoor de titan XP maar 40% van zijn daadwerkelijke kracht kon gebruiken waardoor het lijkt of de specs gelijk zijn?
40% is wel erg weinig. Dan hadden mensen Allang een custom loop aan gehangen. En die 60% extra gebruikt.
Hey, beetje lompe vraag misschien.... maar deze kaart met waterkoeling... moet je dat nou aansluiten op een groter reservoir en pomp etc of is het gewoon een los-staande oplossing? Zo van, je koopt de kaart en stopt hem in je PC en verder kan je meteen gamen?

Dit is echt wel een episch beest zeg, misschien eens kijken of ik daar een maandsalaris aan kwijt wil.. :+

*edit aan iedereen hieronder

Thanks voor de opheldering, dat maakt het een heel interessante upgrade! :D

[Reactie gewijzigd door dartbord op 3 mei 2017 10:17]

Nadeel is alleen dat het water met de tijd verdampt en je deze dus wel aan moet vullen. Jayz2Cents en Gamers Nexus hebben op Youtube daar een uitleg over gegeven. Als je zo op fora leest dan hebben de aio solutions na 2-3 jaar last van stijgende temperaturen. Het voordeel blijft dat de warmte ontrokken word vanuit het centrum van je kast en deze warmte nu aan 1 van de kastpanelen direct naar buiten afgevoerd word. Generiek dus heel goed omdat je M.2 tjes b.v. die in de buurt geplaatst zijn dan minder last van hebben.
Je kan meteen gamen na het aansluiten :)
De kaart heeft een closed loop, dit houdt in dat er al water in de leidingen zit en je dat water niet hoeft te vervangen en het ding dus gewoon dicht kan laten.

Het is dus inderdaad een kwestie van videokaart in je pci-e slot pluggen, radiator met fans aansluiten en de stroom plug er in en gamen maar!
je hebt geen apart reservoir pompje etc nodig zit in de fan ergens.
Elke fabrikant probeert zijn kaart aan te bieden met een hoge boostclock omdat hogere clock snelheden natuurlijk beter verkopen.
Maar na wat ik heb ondervonden is dat elke 10xx serie makkelijk 2000MHz haalt, dus zijn er kaarten die hier niet in de buurt of moet hier een grote spelings marge op zitten om dit veilig aan te bieden?
Ik heb mijn 1060GTX zonder enige overclock ervaring naar 2075 gezet met de MSI afterburner. En het mooiste is dat je daar zelf niet eens een stresstest voor hoeft te doen.

gewoon de instellingen in dit artikel overnemen.

http://www.guru3d.com/art...e_gtx_1060_review,29.html
Kaarten verschillen onderling ook - de ene kaart kan verder worden overclocked dan de andere. Daarom is het verstandig altijd een stresstest te runnen.
Dit is ook de reden dat veel fabrikanten speciale modellen uitbrengen meg dezelfde chip: Gigabyte met de g1, MSI met de Lite Edition...
Ja mee eens. Laat ik het dan zo zeggen. De stresstest in mijn geval is simpelweg gaan gamen geweest. Draaide het stabiel dan kon ik m iets verhogen. Crashde die, dan weer terug. Feitelijk is dat stresstesten, maar niet hetzelfde als een Furmark of zo draaien voor een paar uur.
Gamen is geen stresstesten. Dat is er gewoon wat load op gooien. En nooit een manier geweest om stabiliteit te testen.

[Reactie gewijzigd door loki504 op 3 mei 2017 10:37]

Met vsync uit (of een 144hz scherm) zetten de meeste games je GPU, net zoals stresstests, gewoon op 100% hoor :+

Je moet zelf kijken naar artifacts, maar dat moet bij een stresstest ook.
Dan nog is gamen geen stresstest. Ook niet als ze op 100% draaien.
En waarom dan wel niet? Als ik als developer een stress test maak is wat ik doe gewoon een hele serie jobs starten die allemaal wat 'werk' gaan doen zoals inloggen, wat lijstjes opvragen, detail pagina openen etc. Zo lijkt het of de site heel druk is. Vervolgens kijken of er onder load problemen optreden. Waarom zou dat voor een videokaart zoveel anders zijn?
Omdat je bij gamen geen constante load heb. Laat jij anders maar eens een MSI afterburner zien die tijdens een game langer als pak weg 1 minuut op 100% load blijft staan.
100% is 100% hoe je het ook wilt noemen.
Alleen bij gamen kan je niet een constante 100% load hebben. Dat gewoon onmogelijk. En tuurlijk kan je prima tussen de 95% en 100% load zitten. Maar een stresstest is bedoelt om net even dat beetje extra te vragen. Zodat je OC veilig is. En er geen crash oid kan plaats vinden tijdens gamen.
Ik zou toch altijd een stresstest uitvoeren en kijken of mijn kaart dat wel haalt of misschien nog wat verder gepushed kan worden.

Elke chip is individueel namelijk ook nog uniek door kleine productie fouten die optreden bij het produceren van videokaarten en processoren. (dit is heel normaal en gebeurt bij elke chip)

Dit houdt echter wel in dat zelfs als je 2 exact de zelfde gtx1060's pakt het goed kan zijn dat de ene 2ghz haalt en de ander maar 1850mhz. Het is dus altijd cruciaal om te testen of wat voor een ander werkt ook voor jouw werkt voor je het over neemt en er meteen mee gaat gamen.

Maar toch leuk om te horen dat dit zo goed gewekt heeft voor je :)
Ja daar heb je gelijk in. Het artikel terug lezende zie ik dat de mijne een hogere clockspeed aan kan dan zijn review exemplaar.
Dat een beetje gamen geen stresstest is kan ook bij inkomen, maar tegelijkertijd ben ik zelf van de insteek dat het resultaat is waar het om draait. De methode kan varieren en je manieren bieden om er meer uit te halen, maar als het resultaat een stabiele game ervaring oplevert, dan is het in princiepe ok. Uitgebreid stresstesten kost ook tijd namelijk, en die heb ik niet perse.
Kost dat tijd? Zet furmark aan voor je naar je werk gaat tijdens de lunch pauze maak je via remote desktop verbinden en draaid hij nog steeds is het goed. Kan je niet meer inloggen of heeft hij een reboot gehad is er iets misgegaan. En draaid hij niet stabiel.
Stressen met Furmark is al een jaar of 6 niet aan te raden met een Nvidia kaart. Daar wordt in de driver al een stokje voor gestoken. Het verbruik is bij een Furmark run namelijk totaal niet vergelijkbaar met gaming.

Stressen doe je met Heaven 4.0, Valley 1.0, 3DMark, eventueel het nieuwe Superposition. En daarvoor hoef je echt geen volle middag te stressen, zodra de GPU op z'n stabiele temperatuur komt is het al goed, maw 1 run is doorgaans voldoende.

[Reactie gewijzigd door Vayra op 3 mei 2017 15:37]

Ik zie nog regelmatig Nvidia's in furmark voorbij komen. Maar heaven is ook een mooie ja. Die is iets vriendelijker voor GPU ja.
Het kán ook wel, maar het is geen nuttige stresstest meer omdat je geen realistisch scenario kan neerzetten.

Met Pascal is dat nog een tandje belangrijker omdat Pascal constant de clocks aanpast aan de GPU core temps. In Furmark verlies je dus boost bins die je normaliter nooit zou verliezen, effectief ben je dus bezig om je eigen overklok te marginaliseren.

[Reactie gewijzigd door Vayra op 3 mei 2017 18:45]

Daar heb je zeker een punt. Tempo schieten de pan uit met furmark.
Is zo'n closed loop systeem nou een beetje te vergelijken met een volledig watergekoeld systeem qua performance? Ik wil over niet al te lange tijd een nieuwe pc bouwen (met 1080 ti) en wil hem vooral lekker stil hebben. Zelfbouw waterkoeling heb ik niet zo veel zin hebben, zou zoiets als dit dan een goede optie zijn?
Heb meerdere systemen met 2xEVGA 980Ti Hybrid draaien voor GPU rendering. Het is heel stil en de temperaturen zijn nog nooit boven de 60 graden geweest, zelfs niet na 4 dagen non stop rendering.
Als je erg pech hebt dan borrelt de radiator een beetje, maar in mijn ervaring trekt dat binnen een weekje weg. Vind je de fans te lawaaierig, dan kun je er altijd zelf andere fans opzetten.
Vergeleken met een custom watercooling zal het waarschijnlijk iets minder goed zijn, maar het scheelt wel tijd, geld en moeite.
SC2? Dus dit is een kaart voor Starcraft 2? Ik ben verward.
EVGA marketing term: SuperClocked editie, Starcraft kun je er vast op spelen 😀
Tomshardware meldt $ 810,-
Ziet er uit als een leuke vervanger van mijn inmiddels veroude gtx 760.
Ben erg benieuwd naar de prijs en of hij wel een beetje stil is/blijft
Heb ik net een paar maanden geleden de EVGA GTX1080 HYBRID gekocht :( had ik nog maar een paar maanden gewacht :'(
Ja zo gaat dat helaas in de computer wereld :) Je hebt nooit lang het beste.
Als het maar voldoet aan wat je ermee wilt doen.
ik vind het ook altijd zo zonde, dan wil ik iets nieuws in de pc en een paar maanden later is er weer iets wat 100x beter is, oke beetje overdreven maar zo lijkt het wel :(
Heb je al bekend naar het step-up programma van EVGA? Daarmee kun je tot een paar maanden na aanschaf upgraden met bijbetaling naar een nieuwer product. Had zelf een 1080 FE gekocht eind juni vorig jaar en daarna een step-up naar een 1080 SC gedaan. Hoefde alleen de verzendkosten bij te betalen... Voor upgrade 1080 naar 1080 TI zal dat wel wat meer zijn.
Daarom koop ik dus juist altijd 'ouwe zooi'. Dan heb je gewoon nooit het nieuwste. En elke nieuwe release schuift alles door. Over 2 jaar koop je dit als zijnde oud voor 100 euro

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Samsung Galaxy S8+ LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One (Scorpio) Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*