Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 122 reacties
Submitter: RoofTurkey

Nvidia onthult de GeForce GTX Titan P met Pascal-gpu tijdens de Gamescom in Keulen in augustus, en streeft ernaar dat de videokaart een 50 procent hogere bandbreedte biedt dan de GTX 1080 Founders Edition. Dat claimt de website VRWorld.

VRWorld claimt een GTX Titan met GP100/GP102-gpu in handen te hebben gehad. De Titan P zou in twee varianten komen: een met 12GB en een met 16GB hbm2, waarbij dat geheugen hoger geklokt zou worden dan bij de Tesla P100-accelerator met Pascal-gpu die Nvidia eerder dit jaar onthulde.

Het ontwerp van de kaart zou identiek zijn aan dat van de komende Quadro P6000-kaart op basis van Pascal, en dat van de pci-e-versie van de P100, maar dan met de tekst Titan in plaats van Tesla. De Quadro-kaart zou nog voor de Titan uitkomen. De uitgangen zouden displayport 1.4 en hdmi 2.0b betreffen; dvi ontbreekt volgens het bericht. Wat het verbruik wordt, is nog niet duidelijk volgens VRWorld. Als de kaart een 8+6-pinsaansluiting krijgt, gaat het om een tdp van 300W, terwijl een 8+8-pinsaansluiting op een 375W-tdp zou wijzen.

VRWorld claimt verder dat een Core i7-6950X de bottleneck vormt in combinatie met de Titan P. Een Core i7-6700K op 4GHz zou de kaart efficiënter kunnen voeden dan de Broadwell-E-processor. De Gamescom vindt plaats van 17 tot 21 augustus. De aankondiging van de Titan P zou rond die tijd moeten plaatsvinden volgens de website.

Tesla M40 maar op Nvidia's site van de P100 dus zelfde formfactor?

Moderatie-faq Wijzig weergave

Reacties (122)

VRWorld claimt een GTX Titan met GP100/GP102-gpu in handen te hebben gehad. De Titan P zou in twee varianten komen: een met 12GB en een met 16GB hbm2, waarbij dat geheugen hoger geklokt zou worden dan bij de Tesla P100-accelerator met Pascal-gpu die Nvidia eerder dit jaar onthulde.
Als de kaart gebaseerd is op de GP100 GPU waar ook de Tesla P100 op is gebaseerd dan wordt het in vergelijking met de GTX 1080 een erg slechte kaart. Het hele idee van de Tesla P100 is namelijk dat die goed is in andere dingen dan gaming. De Tesla P100 en dus GP100 GPU is erg goed in professionele toepassingen.

Als je kijkt naar het aantal cudacores en de kloksnelheid met daarbij de TDP dan zie je dat de Tesla P100 3584 cudacores heeft met een boostclock van 1480 MHz, TDP is daarbij 300W. Bereken je dan de kracht van de GPU in flops dan kom je op 10,6Tflops. (flops kun je alleen in vergelijking gebruiken met dezelfde GPU architectuur, dus Fermi met Kepler, Maxwell of Pascal vergelijken heeft weinig zin en met AMD vergelijken heeft al helemaal geen nut.)

Pak je nu de GTX 1080 erbij die heeft 2560 cudacore en de meeste exemplaren boosten tot zo'n 1900/2000MHz. Op 1950MHz heeft deze kaart al 9,984Tflops en op 2000MHz zelfs al 10,24Tflops. Dit terwijl het verbruik dan rond de 200W zit bij zulke kloksnelheden.

Wat zie je hier dus? De GP100 GPU in de Tesla P100 is als game GPU eigenlijk erg ongeschikt, de rekenkracht en dus waarschijnlijk de prestaties zijn amper sneller als een gemiddelde GTX 1080, terwijl het verbruik de helft hoger ligt. Ik geloof dus niet zo in een eventuele Titan P of GTX 1080 Ti gebaseerd op de GP100 GPU van de Tesla P100. Ik verwacht een GP102 GPU welke veel minder FP64 core's heeft als de GP100 en zich richt op de FP32 core's en hoge kloksnelheid, zodat het werkelijk en betere game kaart is als de GTX 1080 en niet een flop wordt.
Het zal inderdaad een GP102 worden in 2 varianten met de volgende specs
  • 12GB RAM en 3072 bit bus
  • 16GB RAM 4096 bit bus
En in het bronartikel staat 50% hogere performance, niet bandbreedte .
En HBM2 in plaats van GDDRX? :)
Dat sowieso. Een GPU met 3072- en 4096-bit geheugen zou zonder stacked VRAM (zoals HBM) de grootte hebben van een ATX moederboard gezien ieder VRAM package maar een 32-bit interface heeft. Voor 4096-bit zouden er dus 128 GDDR4X modules op moeten zitten.
Als die Titan-P HBM2 gebruikt dan is het zo goed als zeker dat de GPU de P100 is.
Zelf had ik eerder een van de GP104 afgeleide GP102 versie met GDDR5X 384 bit bus verwacht.
Ze willen juist HBM2 pushen, want het maken van zo'n 384-bits bus is niet echt leuk, en een 512-bits brede bus (wat je eigenlijk wilt) is echt vervelend. Het grote punt is dat ze die GP100 al ontworpen hebben, maar met dual precision, en wat andere non-gamer features die wel stroom zuipen. Wat ze nu dus doen is dat eruit halen, zodat ze vermoedelijk die 3500 CUDA-cores op 2 GHz laten lopen, terwijl ze een redelijk stroomverbruik hebben.
De Titan-kaarten zijn hun halo product, echt efficient hoeft het niet te zijn, maar het moet wel sneller zijn dan een 1080 (Ti), anders sta je ook zo sneu te kijken als je 999 euro (of meer) neerlegt.
Ik denk ook dat het hele "50% sneller" gebeuren puur op bandbreedte is gebaseerd en niet op "actual gaming performance"
Wat ik mij afvraag, of ze die FP64 eenheden ook kunnen laten functioneren als vectoreenheden van 2 x FP32. Volgens mij doen ze dat namelijk met de FP32 eenheden ook voor FP16 om een verdubbeling van de rekenkracht te bewerkstelligen.
Als ik mij niet vergis was de originele Titan ook niet echt bedoelt voor gamen (double precision ofzoiets)
De originele Titan was bedoeld als een halo kaart, goed in gamen, en toevallig ook goed voor rekenwerk, en tja, dan verbruikt ie iets meer. Meer een soort kijk-wat-wij-kunnen-kaart, en dat deed ie prima (tot de 780 Ti em bijna voorbij vloog).
Core i7-6950X
Core i7-6700K

Nu zou ik nummerlogica denken dat die 6950X toch sneller zou zijn dan die 6700K, maar neem aan dat de Intel logica niet geheel daarop gebaseerd is?

Al vraag ik me af wat je nu met dit ding moet doen, wordt het nu de hype om 2160x1200@90fps te draaien of is het 4k@60fps? Nu weet ik niet hoe je zo'n kaart zou kunnen optimaliseren voor 1 van deze 2 scenario's.
De 6950X is inderdaad een stuk sneller dan een 6700K, mits (en dit is het punt) alle scores worden gebruikt. De 6950X heeft een minder hoge clockspeed dan de 6700K, en ondanks dat de 6950X twintig threads heeft, is het in veel games nog steeds een luxe om meer dan 4 cores te gebruiken. Stel dat je een game als GTA V pakt, welke redelijk goed overweg kan met 8 cores/threads, dan heb je alsnog niks aan die 12 extra threads van de 6950X waarbij die ook nog eens flink lager geclockt is.

Iets meer ontopic: dit wordt waarschijnlijk weer het verhaaltje wat we in de afgelopen generatie duidelijk hebben gezien. De 1080 wordt uitgegeven, killer performance, wel goed aan de prijs zodat je prijs/prestatie gezien beter voor de 1070 kunt gaan. Dan wordt de Titan uitgegeven die rondjes om de 1080 rent, maar met een idioot prijskaartje. Dan, komt AMD met het topmodel uit en kort daarna komt de 1080Ti die iets minder dan de Titan presteert, de helft kost, de 1080 compleet oninteressant maakt en de AMD kaart ook compleet vernietigd. Het moge in ieder geval duidelijk zijn dat deze kaart meer een prestige project is dan daadwerkelijk een voor de consument betaalbare kaart, waarbij je beter een paar maanden kunt wachten op de 1080Ti kaart.
Precies! En daarom wacht ik dus ook geduldig, ik heb mij vizier gezet op de 1080 ti, en in de tussentijd wellicht de RX480.
Dan mogen ze de prijs van de 1080 eerst wel even wat naar beneden bijstellen.. ik denk dat er nog steeds weinig mensen op een kaart van 800+ euro zitten te wachten.
De GTX980 was ongeveer 550-600 euro bij launch, dat betaal je nu ongeveer voor een GTX1070. Waarom is dat? Simpel: concurrentie, of beter gezegd het gebrek eraan.

nVidia kan van de prijs maken wat ze willen, omdat AMD er niks tegenover kan zetten. Het beste wat ze in de stal hebben is de Fury X, en die is momenteel qua prestaties zowat gelijk aan de GTX980Ti. Je ziet zoals nu, met de RX480, dat een kaart als de GTX970 compleet irrelevant wordt aan de normale prijs van 360 euro. Vandaar dat die nu goedkoper zijn geworden.
Gelukkig komen er uit beide kampen nog wat kaarten uit dan de komende tijd.. anders gooit nvidea elke launch 200 euro bovenop de prijs bij hun topmodel...
Nu pak je GTA V als voorbeeld, maar hoe zou dan zijn met bijvoorbeeld Ashes of the Singularity? Bij lange na niet zo populair als GTA V, maar volgens mij kan de engine van AotS juist extreem goed overweg met meerdere cores.

Ik ga ondertussen zelf even op zoek naar wat benchmarks voor aots kwa multithreading, als je er zelf ook een goede weet te vinden dan houd ik mij aanbevolen (Groot fan van AotS)

Edit: Ik heb er een gevonden: http://www.pcworld.com/ar...-is-a-monster.html?page=2 Het betreft helaas wel een oude beta versie van AotS en deze review is dan ook niet recent.

Er komt wel naar boven dat AotS inderdaad veel beter draait op een 6950X, zelfs in de oude beta versie.

Maar het blijkt wel meer uitzondering dan regel over het algemeen voor games.

[Reactie gewijzigd door Xeneonic op 5 juli 2016 18:28]

Wat ik nog vreemder vind:

Intel Core i7-6950X kost via de pricewatch op Tweakers meer dan ¤1700.
Intel Core i7-6700K kost via de pricewatch op Tweakers rond ¤350.

Is het zo dat de Intel Core i7-6950X meer voor andere toepassingen wordt gebruikt en daarom veel duurder is, zoals CUDA? Of ben je gewoon gek als je de Intel Core i7-6950X verkiest boven de 6700K voor bijna 5x zoveel geld?

Zie in ieder geval wel dat de Intel Core i7-6950X 10-core is en de 6700K 4-core. Maar snap niet waarom de goedkopere versie met minder cores in dit geval de betere optie zou zijn. Tenzij de 6950X veel beter geschikt is voor andere toepassingen en minder met gamen?

[Reactie gewijzigd door ASNNetworks op 5 juli 2016 15:02]

Een supercomputer is ook veel sneller, maar ook niet handig/bruikbaar voor gaming ;)
Wel voor multi-core applicaties, iets waar de 20 threads van de 6950X leuk voor zijn.
GTA V (heb ik me hierboven laten vertellen) gebruikt op z'n beste moment 8 cores/threads.
Met de 6950X gooi je dus 1700 euro om meer dan de helft van je CPU niet te gebruiken.
Deel wat je dan wel gebruikt is langzamer dan het op de 6700K zou zijn met 4Ghz ipv de 3Ghz van de 6950X.
6950X: multicore applicaties
6700K: gaming/lichte multicore applicaties.
Degene die 20 threads nodig heeft kan of dual socket gaan of 1 zo'n CPU kopen en moet sowieso met zijn budget in die richting kijken.
Voor Cuda gebruik je een Nvidia gpu geen cpu.

Voor tal van andere berekeningen kun je de i7 6950x prima gebruiken, zoals virutele pc's of 3d rendering voor visualisaties / animaties e.d.

Een 10 core cpu op 4ghz zou te veel verbruiken denk ik. Een i7 6700k heeft een TDP van 91W. Stel je doet 91 x2.5 dan zou je op een TDP van 227W uitkomen voor deze 10 core op 4ghz. En 227W is volgens mij bijna niet normaal te koelen.
Ook niet normaal te koelen in combinatie met een waterkoeling zoals een NZXT X61? hoe doet AMD het dan? de 8350 is volgens mij ook een hitte monster die ook heel wat watt verbruikt.
Ja een aantal AMD processoren worden standaard met waterkoeling geleverd, maar die 8350 heeft een TDP van 125W, je bedoeld waarschijnlijk de AMD FX-9590 met een TDP van 220W. Maar die zijn al sinds 2013 te koop en slecht te vergelijken met een moderne Intel.

Het zal ook wel te koelen zijn maar ben je dan of een grote luchtkoeler of waterkoeling nodig al vraag ik mij af of een enkele 120mm radiator voldoende zou zijn.
De i7 6950X heeft 10 cores en 20 threads, waar games echt nog geen gebruik van kunnen maken. Van de hoger geklokte 4 cores en 8 threads kunnen games veel beter gebruik maken (en dus ook sneller door de kloksnelheid).
Door de grote hoeveelheid cores en threads is de i7 5690X meer voor zware (render) taken.
Omdat een i7 6700k in games beter presteert, zal die beter overweg kunnen met zo'n zware GPU.
Twee redenen waarom de i7-6950X zo duur is.

1) Niche markt. Deze CPU zal vooral for 'professional workstations' worden ingezet waar overal enorme prijzen gevraagd worden. Hier vind je ook de AMDs FirePro's en NVIDIAs Quaddro's, ECC RAM/moederborden.
2) Geen concurrentie, reken er maar op dat als AMD's Zen competitief mocht zijn en ze een vergelijkbare CPU voor ¤1300 op de markt zetten dat Intel plots enorme prijsverlagingen doorvoert. Het is op moment letterlijk "wat de gek er maar voor wil geven".
Ligt er aan wat de workload is.
Core i7-6950X heeft 10 cores op 3ghz. De Core i7-6700K heeft 4 cores op 4ghz. Er zijn geen games die de 10 cores gebruiken. Vandaar dat de GTX TitanCore meer heeft aan 4 snelle cores van de i7-6700K dan 10 minder snelle. Voor applicaties die wel >4 cores gebruiken is de Core i7-6950X natuurlijk veel sneller.

[Reactie gewijzigd door JwJw01 op 5 juli 2016 16:06]

Aah wat AMD ook heeft met z'n diverse 4-6-8 core CPU's, duidelijk :)
de 6950X heeft meer cores en threads maar lagere snelheden dan de 6700K.
Games zijn er niet voor geoptimaliseerd voor meerdere cores en hebben meer baat bij hogere snelheden.
Komt Nvidia dus eindelijk met de DX11 overhead te zitten, hopen dat ze nu DX12/Vulkan wat meer gaan pushen want dat is voor ons als gamer alleen maar beter.
De 6700K is een quad core gebaseerd op de nieuwere Skylake architectuur met bijbehorende ipc verbeteringen (de 6950x is nog gebaseerd op Broadwell) en loopt stock op hogere snelheden. Aangezien het gross van de games niet meer dat 4 cores gebruiken is de 6700K vaak sneller en natuurlijk veel goedkoper.
pfff, als Nvidia deze week of binnenkort ook nog de 1060 en 1050Ti voor een acceptabele prijs op de markt zet en de nieuwe Titan volgende maand zijn de AMD wel weer behoorlijk aan het slopen deze ronde hoor.

De 480 is een mooie kaart voor een leuk prijsje maar het energieverbruik voorkomt dat het echt een winnaar genoemd kan worden, tenzij de nvida tegenhangers echt veel minder price/performance verhouding bieden.

edit: heb nvidea maar even in nvidia aangepast

[Reactie gewijzigd door Rhaegar1 op 5 juli 2016 15:34]

AMD heeft het voltage van de chip te hoog gezet, de RX 480 is prima te ondervolten en ook behoorlijk veel. Dit wordt je tegenwoordig heel makkelijk gemaakt met hun nieuwe WattMan OC tool in de driver.
Heb zelf het voltage omlaag gezet met een lichte overclock.
Energiegebruik is iets waar de meeste mensen die zo'n kaart gebruiken (lees: gamers) niet echt mee zitten...
Energieverbruik op zich misschien niet, maar het bepaalt wel de hoeveelheid warmte dat een systeem ontwikkelt en dus de minimale afmeting van het systeem en de airflow. En kleine stille systemen zijn nu net wel populair bij een redelijk grote groep gamers.
Dat is mij inderdaad ook opgevallen. Was geluidsproductie 8 jaar geleden nog iets voor een kleine subgroep gebruikers (ik moest mij echt tot websites als silentpcreview.com wenden om iets zinnigs te vinden), tegenwoordig is het een vast discussiepunt van cpu + gpu fans, en maken scythe mugen's etc deel uit van het vaste repertoire. Stilte is bijzonder prettig en niet eens zo gigantisch duur om te bewerkstelligen.

Miscshien ook wel eens een leuk idee voor de BBG. Silent mainstream game PC. Met kast, voeding, cpu-koeling, GPU-model, en zelfs HDD-keuze etc daarop aangepast.
Het probleem waar Rhaegar op doelt is dat de RX480 bij een aantal reviewers de specificaties van het PCI-e slot niet volgde en >75W via dit slot trok. Dat is (zeker voor budget moederborden) natuurlijk wel problematisch.
Dit gebeurt bij meer kaarten, en in hoeverre dit "problematisch is", is nooit aangetoond. ;) Maakt het natuurlijk niet netjes, maar dit zijn wel een beetje de jammere puntjes idd in de reviewkwaliteit lately hier..
Er is ook al een fix op komst voor de power draw issue
zie de comment sectie bij het hierover gaande tweaker artikel

nieuws: AMD reageert op problemen met hoog energieverbruik RX 480

Hier vind je de nodige info, en ook een hard noodzakelijke nuancering, want 77W ipv 75W.. gaat helemaal nergens over, en dit zal ook zeker never nooit niet een probleem worden in welke vorm dan ook.

Tip: lees altijd goed de comment-secties, hierin staat vaak meer dan in het artikel.
In desktops is het mischien niet een probleem als AMD het probleem oplost dat hij meer stroom van de PCI-E slot trekt dan de specificatie aanduid.

Maar ben je laptops vergeten ? Extra energie verbruik is extra warmte; extra warmte in een slechte omgeving waar het niet snel weggewerkt kan worden (laptops) betekent downclocken. Alle 3 deze dingen zijn niet wenselijk in gaming laptops.

Als Nvidia dus meer kan met minder wattage dan weet ik welke kaart ik in m`n volgende game laptop wil hebben.
nawww er is altijd een markt voor AMD. zeker met dingen als freesync etc.
En de 480 is gewoon een mooie kaart voor een goede prijs voor de meeste midrange gebruikers.

ja AMD zal wel wat last hebben van de 1060/1050 maar goed die zijn er nog niet en we weten nog niks hierover.
Voor zolang is AMD koning in dit segment denk ik.
AMD gaat met een beest van een kaart komen , mochten de geruchten kloppen. De nieuwe Vega 11 chip, welke in de opvolger van de Fury gaat komen. Deze gaat ook HBM2 krijgen van waarschijnlijk 8GB ( 12 / 16 redelijk overkill voor game ), vervolgens >6000 shader cores ! ofwel 3 x een 480 ( 2304 ).

Ofwel 3 x 480 ( maar dan met 99.9% schaling i.t.t. CF )
2x een 480 = 1080
Ofwel deze kaart word dan 33 % krachtiger dan de 1080. Dat zal niet genoeg zijn om de titan te verslaan, maar zal waarschijnlijk net boven de 1080ti uit komen. En als de prijs goed is, wie weet zou AMD dan best wel leuk kunnen verkopen.
alles hierboven is natuurlijk allemaal speculatie welke via geruchten geconstrueerd heb
http://wccftech.com/amd-vega-10-gpu-4096-stream-processors/
https://nl.hardware.info/...ield-in-winkels-te-leggen

[Reactie gewijzigd door holhuizen op 5 juli 2016 15:17]

Niet te veel vertrouwen leggen in geruchten die van WCCFTech komen. Die zijn meestal volledige onzin
Allemaal geruchten die een hype creëren die weer niet waargemaakt gaat worden. Bovendien zal die kaart pas volgend jaar verschijnen, tot dan heeft AMD helemaal niets in het high end segment en is de VR markt volledig voor NVIDIA.
Ja neem dit soort geruchten dan ook met een korreltje zout. Echter in de basis zit er vaak toch een kern van waarheid in. En met 1 Polaris kaart die nu werkelijk uit is kunnen we vast een idee krijgen wat een kaart met 3 x zoveel shaders en een stuk meer bandbrete kan doen.

[Reactie gewijzigd door holhuizen op 5 juli 2016 17:35]

VR markt is nog in opkomst , eind 2017 zal het gevecht worden voor de vr markt en niet nu al.
Laten we het Nvidia noemen ;).

En de laatste jaren zijn Nvidia op videokaart gebied en Intel op processor gebied sowieso heer en meester. Dit is jammer voor de prijs/concurrentie maar betwijfel of het ooit nog gaat omdraaien.

Waar vroeger AMD/Intel nog echte competitie van elkaar waren is dat tegenwoordig helaas niet meer zo.

[Reactie gewijzigd door Brummetje op 5 juli 2016 15:11]

Ik ben benieuwd wat dit mag gaan kosten, als de GTX 1080 momenteel al een ruime 800 euro kost zal deze Titan P daar nog flink bovenuit komen, vooral gezien prijzen snel stijgen als je zo ver van de 'price/performance sweet spot' zit. Ondanks de kleine feature size zal deze die toch aardig groot zijn, wat niet bepaald goedkoop is om te produceren. Daar komt nog bij dat dit soort kaarten een veel lagere afzetmarkt hebben, dus de marge die Nvidia op zulke kaarten maakt moet ook nog eens hoger zijn om de ontwikkeling te rechtvaardigen.

Als deze kaart écht zo veel beter is dan de GTX 1080, zou ik er niet van opkijken als hij een 1200-1500 euro kost. De prijs van een compleet mid/high-end gaming systeem.

Zou het niet verstandiger zijn voor Nvidia om de mainstream markt op te zoeken? Of zouden ze zich nu echt langzaam uit de gaming sector en richting de high performance sector verplaatsen?

[Reactie gewijzigd door Laloeka op 5 juli 2016 14:54]

Deze kaarten zijn vergelijkbaar met de Intel X processors. Leuk, als hebbedingetje of als pronkstuk, maar niet echt realistisch voor jan en alleman.
Niet voor jan en alleman ben ik met je eens, maar voor mensen die veel met mediabewerking bezig zijn is het veel meer dan een hebbedingetje of pronkstuk...het spaart nl tijd en dus wachten tot je pc eindelijk klaar is met berekenen.

Niets went zo snel als snelheid op een pc (voor mij dan). Ik sta niet eens meer op voor koffie terwijl ik dat altijd aangreep om mijn ongeduld en irritatie te kanaliseren om het resultaat van je edits en bewerkingen eindelijk te kunnen beoordelen. Bijkomstigheid.. ik bespaar nu ook op de koffie kosten en mijn gezondheid :D

Heb je echt een ruim budget dan ga je ook de x kant niet op maar neem je een dual cpu workstation (Xeon) en multiple GPU's (geen sli maar simpelweg als CUDA koe).

Een X serie gebruiken in een werkstation is dan ook vaak vanwege een relatief beperkt budget, maar met een veilige 24/7 OC van 40-50%, maak je dat dan wel weer goed 8)

Heb je echt heeeel veel budget dan schaf je een renderpark aan >:D

[Reactie gewijzigd door SB[NL] op 5 juli 2016 15:39]

Heb je echt een ruim budget dan ga je ook de x kant niet op maar neem je een dual cpu workstation (Xeon) en multiple GPU's (geen sli maar simpelweg als CUDA koe).
Kan de software meer cores/threads aan dan? Toen ik dit nagekeken heb (half jaar terug) had je nog niet zoveel aan 48 cores/threads namelijk, omdat de software (met enkele uitzonderingen) dit niet aankon.
Welke software heb je getest?
GCC + Parallel / make (die wel support had, maar dat is logisch, en dit was een buitenbeentje), darktable, gimp, pitivi, Adobe Lightroom (na herinstallatie met Windows) en Photoshop.

Make werkte prima met 48 cores/threads, met -j49 als optie.

[Reactie gewijzigd door sfranken op 5 juli 2016 22:04]

GCC heeft niet eens een -j optie, bedoel je misschien Gnu Make? Logisch dat die met met 48 cores "werkt", Make zelf doet namelijk niets anders dan intelligent processen starten. Met -j48 start Make simpelweg 48 processen tegelijk op, elk op een eigen core.
Nee, ik bedoelde GCC icm GNU parallel. Make -j kan ook, werkt beter in mijn voorbeeld.
Zou het niet verstandiger zijn voor Nvidia om de mainstream markt op te zoeken? Of zouden ze zich nu echt langzaam uit de gaming sector en richting de high performance sector verplaatsen?
Waarom denk je dat NVIDIA niet de mainstream markt opzoekt? Ze hebben kaarten van low end tot high end dus je hebt keuze genoeg.
-

[Reactie gewijzigd door Kubrick op 5 juli 2016 23:35]

Dat is vrij veel power in niet veel vierkante centimeters. Ben benieuwd wat hier allemaal van waar is.
Hoewel natuurlijk niet officieel bevestigd, is dit niet het type gerucht waar veel speculatie aan te pas komt. Ze hebben die kaart immers al in handen gehad. De vraag lijkt mij eerder hoe absurd veel dit kaartje mag gaan kosten.
Ja de prijs zal wel niet mis zijn. Maar er zijn altijd mensen die ervoor betalen dus ik zou als ik Nvidia was, exact hetzelfde doen.
bandbreedte is niet snelheid. pas op voor marketingpraatjes.

het valt in de lijn der verwachtingen dat big pascal de 1080 reduceert tot budgetkaart zoals in het verleden ook steeds gebeurt als men de grote chip uitbrengt van een serie.
800 euro voor een budgetkaart? De 1080 is niet eens makkelijk verkrijgbaar op dit moment. Gaat die Titan ervoor zorgen dat de prijs van de 1080 snel zal dalen of niet?
Misschien een lichte daling maar zolang dat de gtx 1080 goed genoeg verkoopt dat de voorraad het grootste probleem is zullen de prijzen niet veel zakken. Nvidia kennende zal de titan een geheel andere prijsklasse zijn, ¤1400 wellicht gezien de prijzen van de 1080?
nee, ik heb het puur over snelheid. qua prijs is de titan nooit interesant.
Ik zeg toch ook power? Niet snelheid?
Het gaat nochtans wel over snelheid. 50% betere performance staat er in het bronartikel.
In hoeverre gebruiken games momenteel al meer dan 8GB vram (uitgaande van 4K resolutie)?
Ik heb er nog geen gezien die het allemaal gebruikt. Shadow of Mordor met HD textures komt tegen 6GB dacht ik gezien te hebben.

Maar extra geheugen is voor dingen als 3D rendering natuurlijk wel fijn.

[Reactie gewijzigd door teunwillems op 5 juli 2016 14:52]

Ik heb vorig jaar hard zitten twijfelen tussen X99 en Z170 en ben momenteel heel blij met mijn keuze voor de 6700K aangezien dit bewijst dat het toch wel de game cpu is bij gebruik van 1 gpu.

En ik heb het echt niet op het super high end gamma maar mijn CF R9 290x setup wordt moe en ik overweeg deze kaart wel. Eén maal dokken en top performance voor de komende 3 jaar op 1140p @ 144Hz.

Sceep
Wordt een spannend jaar voor mij persoonlijk. Ik ben wat dat betreft een echte Amd fan als het om videokaarten gaat, MAAR ondanks dat zit ik toch te denken om dit keer voor een GTX 1080ti te gaan ipv VEGA. Er zijn 2 rede......1 is het wachten dat ik beu ben en 2 is de slechte (zeer slechte) ondersteuning van Opengl games zoals Doom. Ik hou van Doom en op mijn huidige R9 390 kaart loopt ie om de zoveel tijd vast. De ene keer na een kwartier......de andere keer na een uur. Zeer irritant.

Maar het belangrijkste is wel dat ik het wachten meer dan beu ben op de eerste HBM2 kaarten. Diegene die het eerste ermee komt zal ik waarschijnlijk kiezen vanwege deze rede :D
HBM2 productie gaat naar verwacht in Q1 2017 pas op gang komen. Tot die tijd zijn alle leveringen slechts mondjesmaat. Daarbovenop komt dat AMD een voorkeursbehandeling krijgt bij de leveringen van HBM2, omdat zij de mede-uitvinder zijn van het nieuwe type geheugen.
Dat weet ik. Ik volg ook alles op de voet ;)
Maar de productie voor de HBM2 kaarten beginnen al veel eerder dan volgend jaar hoor.
Er gaan zelfs geruchten dat AMD in Oktober al met de HBM2 kaarten wil komen samen met Battlefield 1.

Blijft dus afwachten wat de echte waarheid is aangezien het allemaal geruchten zijn.
Ok, laten we dan zoveel mogelijk info uitwisselen. :)

Net even flink bijgelezen. Hynix heeft nu de hete adem van Samsung in de nek - geen idee hoe de Koreanen een licentie hebben gekregen. Vond wel een hint hier: http://wccftech.com/amd-s...ees-memory-standard-free/
Samsung gaat waarschijnlijk NVidia bevoorraden, als ik het zo lees. Als AMD handig is, dan kopen ze ook flink in bij Samsung - heb hier niets over gevonden. Ik kan alleen maar zeggen dat AMD ontzettend dom is geweest geen licentiegeld te vragen voor HBM2. |:(

Hynix wil nu eerder gaan leveren, oktober wordt genoemd. Er zijn ook geruchten dat VEGA10 eind oktober klaar is. Samsung heeft nu ook vage uitspraken gedaan eerder te komen met massa-productie van HBM2.

Kan je aanvullen?
Hopelijk brengt dit een flinke prijsdaling van de GTX 1080 teweeg; ben ook benieuwd wanneer de Ti gaat komen en wat die gaat kosten. :)
waarschijnlijk niet. en waarom zouden ze als de kaart zoveel sneller wordt dan een 1080 dan concurreren ze elkaar ook niet :P
nvidia kennende gaat deze gewoon richting de 1500 gaat. niks prijs verlaging. blijkbaar slikken mensen het om een 'performance' kaart van 800 euro te kopen terwijl veel snellere kaarten maar een paar maanden weg zijn.
Dit keer echt 4K 60fps op hoge instellingen met 1 kaart?
Aan wat voor games moet ik dan denken waar dat nu een probleem vormt? Ik heb sinds kort een GTX 1070 en kan daar alle games die ik speel mee draaien op 60+ FPS op 4K op de hoogste settings (getest in Overwatch, Rainbow Six: Siege, DOOM demo en nog wat oudere games). Zou graag eens vergelijken met wat grafisch zwaardere spellen.
Witcher 3 op Ultra (of zelfs High) in 4k gaat je echt niet lukken. 't Draait wel, maar dan is de vraag of je genoegen neemt met een dikke 30 fps.
Ik snap na het zien van de benchmarks etc. dat zelfs een 1080 Witcher 3 in 4K op ultra het niet trekt met 60 FPS, vooral als je met "ultra" dus ook hairworks aanzet op alles.

Maar ehm. Waarom gaat -iedereen- ervanuit dat men 4K MOET spelen met ULTRA in elke game ? Je kan ook wat opties terug schalen. Sommige settings in W3 maken kwa visuals niet uit maar wel kwa fps. Zie daarvoor de nvidia guide : http://bit.ly/1Aaydm0

Foilage en grass zijn er 2 van, maar shadows ook. Zeer minimale tot geen visual impact voor wat fps.

Enfin waar ik op duid is, mischien is 4K wel mooi om te spelen en daarmee genoegen nemen om AA en wat dingen van ultra -> high te zetten voor het scherpere beeld t.o.z ultra op 1440P . Het is maar een idee hoor :)

Ik zelf had eind 2014 ff een lg 34um95 voor 3 maanden te leen, geen volledige 4K maar was tevreden om games op 3440 x 1440 te spelen (GTX 780TI oc'd met een 4.6 Ghz I7) zoals borderlands 2, Mechwarrior online, starcraft 2 en FF 14. De ultra-wide view had wel wat :)

Ik had daarbij geen extra AA nodig; al zijn er mensen die zweren nooti te spelen op AA welke reso dan ook; ik ben daar niet 1 van. Mischien zijn mijn ogen daar niet 1337 genoeg voor :)
zul je de zomer/q3 moeten afwachten voor de next-gen games. wil je toch je gpu afstraffen? installeer skyrim/fallout + highres mods ... kun je het jouw 1070 best zwaar maken :+
Doe eens Crysis 3 ultra @ 4K en aanschouw de sub 30 fps gameplay zou ik zeggen :)

En zo zijn er nog wel een aantal titels.

[Reactie gewijzigd door Vayra op 5 juli 2016 14:56]

Installeer GTA V en zet alles op max; dus ook draw distance, long shadows etc. Op 1440P zal je GTX1070 dan rond de 60 fps schommelen, maar op 4K zul je niet hoger komen dan 40 fps.
90fps in mijn crossfire setup
Skyrim met de update zal denk ik wel zwaar worden.
Of spellen de zeer slecht geoptimaliseerd zijn (slechte console ports)
Simpel: Virtual reality

dat heeft minimum framerates van 90fps op 2x 2160x1200 nodig en zal nu eerder een drijfveer worden voor videokaart bouwers dan bv 4k gaming.

En de volgende lijn VR zal die 90Hz waarschijnlijk opschalen naar 120Hz en 4K displays waarbij je (in het huidige landschap) met deze Titan in QUAD sli nog niet genoeg power in huis hebt.
Ik had het over 4K-gaming. VR ben ik (nog) niet in geïnteresseerd. In ieder geval niet voor mijn eigen PC, zou het best eens willen proberen maar zie mezelf voorlopig niet op mijn zolderkamertje met helm op staan te gamen. Sowieso te weinig ruimte daar.

De mensen hierboven hebben al wat leuke tips gegeven om het mijn kaart wat zwaarder te maken, dus ik zal daar eens mee aan de slag. Altijd leuk om de grenzen op te zoeken.
Het is 2x 1080x1200, één paneel van 2160x1200 verdeeld over de twee schermpjes. Doch, je punt blijft staan; 90 FPS op VR is echt heel zwaar.
Aan wat voor games moet ik dan denken waar dat nu een probleem vormt? Ik heb sinds kort een GTX 1070 en kan daar alle games die ik speel mee draaien op 60+ FPS op 4K op de hoogste settings (getest in Overwatch, Rainbow Six: Siege, DOOM demo en nog wat oudere games). Zou graag eens vergelijken met wat grafisch zwaardere spellen.
DX12: Rise of the Tomb Raider (2016), DX12: Hitman (2016), DX12: Total War: WARHAMMER, DX11: Far Cry Primal (haalt alleen in de 40fps), DX11: Anno 2205, DX11: Tom Clancy's The Division (haalt alleen in de 40fps), DX11: Thief 2014, The Witcher III: Wild Hunt, DX11: Battlefield Hardline (haalt alleen in de 40fps).

http://www.guru3d.com/articles_pages/msi_geforce_gtx_1080_sea_hawk_x_review,13.html

Zo als je kan zien niet een paar spelletjes, en dat zijn ze lange niet allemaal.

Dus als alles op Ultra en 4K op 60+ average wil spellen lukt dat niet met een Geforce GTX 1080 en dan helemaal niet met een Geforce GTX 1070, dan moeten we wachten op de Geforce GTX Titan, of de Geforce GTX 1080 Ti.

Maar voor mij is het geen probleem, omdat ik een Ultra-wide 3440 x 1440 scherm neem, en dan kan je zo goed als alle spellen op Ultra 60+ spellen op een Geforce GTX 1080, en ziet er nog beter uit ook, omdat je veel meer ziet op een 21:9 scherm, en dat maakt die paar megapixels niet veel uit, maar wel voor de fps :)

http://techgage.com/article/nvidia-geforce-gtx-1080-review-a-look-at-4k-ultra-wide-gaming/3//

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True