Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties
Submitter: dilan

EVGA heeft versies van de GeForce GTX 780 aangekondigd die met 6GB gddr5 in plaats van 3GB zijn uitgerust. In ieder geval een van de kaarten gaat over de ACX-koeler van EVGA beschikken. De startprijs van de GTX 780-versies met 6GB bedraagt 550 dollar.

Welke modellen er precies komen, verduidelijkt EVGA niet, maar uit de begeleidende afbeeldingen valt op te maken dat er in ieder geval een versie met een standaardkoeler uitkomt en een model met ACX-koeler met twee ventilatoren voor lagere temperaturen. De kloksnelheden zijn nog niet bekend.

De genoemde modellen beschikken over dubbel zoveel geheugen als de GTX 780-kaarten die EVGA tot nu toe uitbracht, wat vooral voordeel moet opleveren bij gamen op hogere resoluties. Verder ondersteunen de kaarten Boost Technology 2.0 en kunnen ze overweg met Nvidia's G-Sync-technologie voor monitoren, waarmee stotterende beelden tot het verleden moeten behoren.

EVGA maakt verder melding van zijn Step-Up-programma, dat kopers die onlangs een kaart van het bedrijf hebben aangeschaft het recht geeft die in te leveren voor een GeForce GTX 780 6GB, waarbij ze het prijsverschil moeten betalen. EVGA maakt nog geen melding van een GTX 780 Ti met 6GB gddr5. Eerder waren er geruchten dat ook deze op komst was.

EVGA GTX 780 6GB EVGA GTX 780 6GB

Moderatie-faq Wijzig weergave

Reacties (74)

Om ook maar even mijn ei kwijt te kunnen over de "is 6gb uberhaupt nuttig" discussie; JA! Ik game nu voornamelijk BF4 op 5760*1080. Op dergelijke resoluties kun je niet genoeg geheugen hebben. Momenteel draai ik het op 680 lightining sli, en dan is die 4gb echt te mager.
Heeft 6gb op het huidige moment veel nut bij video games? Aangezien deze kaart voornamelijk gemaakt is voor gaming. En is het mogelijk om je video ram te kunnen tracen?
Ja dat is mogelijk, daar zijn vele tools voor (bvb GPUshark)

Overigens is 6GB op dit moment niet heel nuttig, maar dit is en high-end kaart en die mogen best wel fiutureproof zijn. Met de nieuwe generaties consoles hebben multi-platform games (de meeste AAA titels) een stuk meer ruimte: van minder dan 1 GB op de X360 en PS3 naar 6-7 GB op de XB1 en PS4. Dat is gedeeld geheugen, voor zowel RAM als VRAM, en er zal dus geen enkele game op die consoles die daadwerkelijk 6GB aan VRAM nodig zal hebben, maar als een port van zo een game op PC op een hogere resolutie draait (4k of zo), dan is het niet ondenkbaar dat je al snel meer dan de huidige high-end standaard van 3GB VRAM nodig hebt.

edit: zoals ChieluzzB zegt zijn er inderdaad meer toepassingen dan enkel gaming zoals video editing en wetenschappelijk onderzoek. Daar zal deze kaart inderdaad geweldig voor zijn. Echter, deze kaart is echt wel gericht op gamers en neit op bvb wetenschappers of video bewerkers. Voor professionele GPGPU toepassingen is deze kaart ofwel overkill (Adobe premiere heeft ECHT geen 6GB of een GTX780 chip nodig, dat kan die app gewoon niet satureren), ofwel toch niet ideaal omdat je er een workstation kaart voor nodig hebt (zoals bvb de nVidia Quadro).

Dus, long story short: ja, deze kaart kan voor meer dan gaming gebruikt worden, maar nVidia en EVGA tenminste zien het echt wel in de eerste plaats als een gaming-GPU.

[Reactie gewijzigd door kiang op 24 maart 2014 11:54]

maar als een port van zo een game op PC op een hogere resolutie draait (4k of zo), dan is het niet ondenkbaar dat je al snel meer dan de huidige high-end standaard van 3GB VRAM nodig hebt.
U is compleet correct, ik zelf speel op 3x redelijk goedkope Koreaanse 30'' schermen, dat is goed voor 7680x1600 of te wel 12.3MP.

Toen ik de schermen kreeg, heb ik een 4GB GTX680 SLI systeem geleend, en zag meteen dat zelfs 4GB op hoge setting niet genoeg was bij sommige games.

VRAM gebruik schaalt niet lineair met het aantal weergegeven MP, als je dus op een 1080p monitor 1GB VRAM gebruikt is het niet zo dat je dan op 3x1080p 3GB VRAM gebruikt met de zelfde settings, je komt eerder op bijna 2GB VRAM.

Ik neem aan dat dit is omdat in het video geheugen twee dingen worden op geslagen.
  • Ten eerst de textures, en hoeveel dat in beslag neemt is afhankelijk van de video settings.
  • Ten tweede de 3D render welke afhankelijk is van het aantal MP en de beeld kwaliteit de kaart moet weergeven.
De eerste is gelijk bij welke resolutie je ook gebruikt.
De tweede is afhankelijk van twee dingen beeld kwaliteit en de hoeveelheid pixels die moet worden weer gegeven, en is een complexe mix van settings, zo als schaduwen, AA en de bekende vele andere instelling die je kan vinden in de video settings van games.

En hoewel ik eerst 4GB 290X kaarten wou kopen, nu de CF bug is gefixed, bleek dat met de minimale Eyecandy die ik wil, ik regelmatig over de 4GB VRAM ging van de 680 kaarten die ik had geleend.

Heb nu een Tri-SLI Titan opstelling, en zit tijdens gamen, afhankelijk van het spel tussen de 2 en net over de 5GB aan VRAM gebruik als ik het meet met mijn GPU meter en via MS Process Explorer.

Dus van uit mijn eigen ervaring kijkend, als je op 4K of te wel 8MP of hoger gaat gamen, met voldoende GPU kracht, dan is 4GB het absolute minimum, en is 6GB of meer zeer wenselijk.

Zelf als ik nu zou moeten kiezen zou naast deze 6GB 780Ti kaart ook de komende Sapphire 290X met 8 GB op mijn korte lijstje staan, een Titan (Black) zou daar iig niet meer op voorkomen.

[Reactie gewijzigd door player-x op 24 maart 2014 20:07]

De Sapphire 290X met 8 GB VRAM is inderdaad DE kaart om in de gaten te houden samen met deze 6 GB modellen van eVGA en verder was er geloof ik nog een 280X van MSI die ook straks 6 GB heeft :)

Ik roep al minimaal 2 jaar lang dat de videokaarten van tegenwoordig in feite achterlopen ten opzichte van de games die al een tijdje op de markt zijn dankzij tripple screen opstellingen : Een beetje game slurpt dan gewoon 3,5 GB op en dan staan alle settings pas op Low of zelfs gewoon UIT waar mogelijk !!!

Zowel ATI/AMD als nVidia mogen van mij z.s.m. videokaarten gaan ontwikkelen met meer dan 8 GB videogeheugen, waarbij al het geheugen uiteraard ook efficiënt wordt benut :Y)
De 280X aka HD7970 is imho totaal oninteressant, daar die last heeft van micro-stutters met CF opstellingen, en zonder CF zijn kaarten die meer dan 3GB hebben niet echt nuttig meer.

Zij daarom ook dit.
Dus van uit mijn eigen ervaring kijkend, als je op 4K of te wel 8MP of hoger gaat gamen, met voldoende GPU kracht, dan is 4GB het absolute minimum, en is 6GB of meer zeer wenselijk.
Want zelfs op 4K heb je aan een enkele 3GB 780Ti eigenlijk wel voldoende, pas als je meerdere kaarten tegelijk gebruikt, ga je met de hogere settings ook meer geheugen gebruiken.
De 280X aka HD7970 is imho totaal oninteressant, daar die last heeft van micro-stutters met CF opstellingen, en zonder CF zijn kaarten die meer dan 3GB hebben niet echt nuttig meer.
4x 280X lijkt mij persoonlijk best interessant en die micro-stutters moet je pas over klagen als je het zelf mee hebt gemaakt : Niet blind op de reviews af gaan, want die beweren dat mijn 5870 kaarten daar last van hebben, terwijl het in geen eene game te zien is die ik speel :z
Ik heb zelf een twee, drie en viervoudige CF 5870 2GB Matrix setup gehad, en vooral met 2x CF had ik last van die micro-stutters, zelf tot op het punt van dat ik de kaarten weg wou doen.

Tri-CF hielp met hoe erg die micro-stutters waren tot op een acceptabele niveau terug te brengen, maar had er nog steeds een stuk meer last van dan met mijn huidige Titans.
Er is meer dan alleen gamen ;-). Voor video editing en motion graphics is die 6GB meer dan welkom. Sowiezo op de PC met bijvoorbeeld Premiere en AE. De gewone GTX780 wordt ook al door de Mac Pro (vorige edities) ondersteund, dus hopelijk binnenkort ook deze 6GB versie. Kunnen de mensen met FCPX, Motion5 of DaVinci Resolve ook flink profiteren.
VRAM is bij After effects, premiere of final cut niet gigantisch belangrijk, je normale ram is belangrijker. Of je moet ray traced 3d veel gebruiken in AE maar alsnog heb je dan geen 6gb vram nodig. Het is eerder zwaar op je normale ram.
Voor complexe 3d scenes in een 3d applicatie (bijv maya, c4d, modo, 3ds max) komt zoveel vram wel van pas, daarom zijn workstation kaarten altijd uigerust met zoveel vram in verhouding tot consumenten kaarten.
Momenteel niet denk ik. Wellicht nieuwe opkomende games met DX12? Misschien is de 6GB wel handig als je resoluties hebt van uHD? I'm just saying :)
De eerste games met DX12 worden pas eind 2015 verwacht. Tegen die tijd is deze kaart alweer achterhaald :P
Een kaart van dit kaliber gaat dan nog prima mee. Vooral als deze dus al voorbereid is op dat soort technieken.
Ik denk dat dit meer een grapje was dan echt serieus, maar goed. Een dergelijke kaart kan nog prima mee na een jaartje, ik heb 4 jaar met mijn 6850 1gb kunnen spelen tot vorig jaar, toen naar gtx670 gegaan, en ik ga pas in 2015/16 weer upgraden, tenzij ik een bak geld vrij krijg om een betere monitor (lees 2560x1440) te halen :)
Het zal van game tot game afhangen. Als je bv. Skyrim speelt met grafische mods op 2560x1600, dan wil zo'n kaart wel eens van pas komen. :3
Misschien is de 6GB wel handig als je resoluties hebt van uHD?
Niet echt. 3840x2160x32bits = 32MB framebuffer.

Ik heb de uitgebreidere uitleg (incl dubbelbuffering, stencilbuffers, etc) in een eerdere reactie gegeven maar die kan ik zo gauw even niet vinden. Als ik straks wat meer tijd heb zal ik nog even zoeken en de link plaatsen.

Edit:
Deze dus: VOODOO_WILLIE in 'nieuws: Qualcomm toont Mirasol-display met 577 ppi'

Ik zie overigens dat ik een brute rekenfout heb gemaakt in die reactie. Vraag me niet waarom. Helaas kan ik het daar niet meer aanpassen.

Voor enkele buffer is dit 1920x1080x4. Dat is een kleine 8MB. Het totaal met extra buffers wordt dan zo'n 26MB. Voor 4K is dat dan dus zo'n 4x26=104MB.

6GB is dus een tikkie overkill als het alleen om de resolutie gaat. :)

[Reactie gewijzigd door VOODOO_WILLIE op 24 maart 2014 20:54]

Deze kaart is idd bedoeld om te gebruiken met de opkomende uHD monitoren of multimonitor opstellingen.
6gb is wel nodig als:
als je gamed met 3x 1080/hoger en dan bij games zoals serious sam 3, kan je zelf handmatig de config helemaal finetunen.... zoals uber textures... en aa etc...
Komt wel bij dat je dan al 2/4 HIGH-end kaarten nodig hebt. Anders10- 20 fps :P

Met 1x 1080p kom je dan al aan 2,3GB wat wordt gebruikt. En die game komt uit 2011...

Zo heb je altijd die zeurpieten die zeggen dat 2gb meer dan zat is voor 1080... denk het niet.
Daarom had ik altijd zon hekel aan de GTX690... met die 2gb effectief.. mede daarom overgeslagen...

[Reactie gewijzigd door A87 op 24 maart 2014 12:05]

Ik heb een 770 2GB en heb nergens last van, heb 'm nu een halfjaartje en het enigste nadeel is dat ik geen 3 schermen kan gebruiken, op een resolutie van 57XX x 1080

Verder zie ik wel uit naar deze 6GB kaart!
Misschien een oplossing voor mensen die niet van SLI/Crossfire houden.
hoezo niet ik heb zowat alle kaarten van de 600 en 700 serie getest en ik heb een single GTX 770 wel 3 schermen kunnen laten draaien dit heb ik ruim 1 a 2 maanden gedaan alleen moet ik zeggen dat als je ook in de 57xx resolutie wilt spelen dat de kaart dan net wat te kort komt qua kracht een gtx 780 zo daar beter voor zijn
Wacht maar totdat GTA5 straks op de PC komt.. Dan ga je dat echt nodig hebben als je alles een beetje mooi wil hebben }>
ik denk niet dat je zoveel geheugen nodig hebt zelfs niet als je gta 5 wil spelen of je moet net als mij een resolutie van 5670x1080 en dan crysis3 in deze resolutie wilt gaan spelen alles op max gebruikt je in totaal 5,4GB geheugen zelfde geld voor the witcher 2
IK denk eerder dat hij doolde op hoe de pc versie van gta4 tewerk ging ivm de "veroorloofde instellingen" in verband met het beschikbaar videogeheugen

(wat een geklungel was mij dat zeg...)
De 6 gb is zinvol bij 4K gaming of surround. (3 schermen) in veel reviews wordt gezegd dat de gewone 3 gb versie snel aan zijn tax zit.
Nee, en echt futureproof is het ook niet, met een geheugenbus van 384 bit...
Als we er vanuit gaan dat mensen die voor e-peen gaan ondoordachte, niet-functionele keuzes maken, kan je in dat geval beter voor een kaartje met nog wat meer geheugen gaan.

OT; het valt me toch op dat bedrijven frequent versies met meer geheugen blijven uitbrengen. Zelf hoor ik vaak dat dit totale onzin is omdat de geheugenbus van de nVidia-kaarten dit niet kan verwerken. Bij kaarten in het lagere segment kan ik dan nog begrijpen dat het een verkoopstechniek is, maar in het high-end-segment waar het hier over gaat, denk ik dat het doelpubliek over het algemeen iets meer kennis van zaken heeft. Is die geheugenbus dan toch niet zo'n probleem zoals zo vaak wordt beweerd?
Volgens mij is die bandbreedte wel van belang, want je zag dat de GTX 660ti door zijn schamele 192-bit al aardig werd tegengehouden terwijl die kaart qua verdere specs meer potentie had gehad.

Memory overclocks zijn in mijn ervaring op zowel de GTX 660 als op de 660ti zeer effectief, performance schaalt dan heel mooi mee (bijna 1 op 1 als je van 6000mhz naar 6400-6500 gaat), en op de 660ti haal je daar in verhouding nog meer uit dan op de 660. (Beide 192bit) En je kepler boost blijft behouden.

[Reactie gewijzigd door Vayra op 24 maart 2014 11:49]

Zelf hoor ik vaak dat dit totale onzin is omdat de geheugenbus van de nVidia-kaarten dit niet kan verwerken.
Hoe komen mensen daar toch steeds bij?

De GK110 (Titan Black & 780Ti) heeft een bandbreedte van 336GB/s tegen over 320GB/s voor de Hawaii XT (290X).

Er is duidelijk geen groot verschil in geheugen bandbreedte
Die stelling komt meer vanuit de budget en midrange kaarten met resp. 3 en 4 GB.

Voor de high end gaat dat niet echt op inderdaad. Over het algemeen is Nvidia gewoon iets anders opgebouwd met een hogere mem clock en iets smallere bus, GPU clock zelfde verhaal, minder cores hogere clocks (met KB).

[Reactie gewijzigd door Vayra op 24 maart 2014 13:45]

Dat step-Up-programma is wel heel erg mooi gedaan. Bijna te goed voor woorden.
Vraag me af wat zij van EVGA dan met de oude kaarten doen.
Kan me niet voorstellen dat ze die weggooien.
Ik vermoed dat die dan op de markt worden gegooid als refurbished exemplaren of als wisselexemplaren bij garantiegevallen.
Ik mag toch hopen dat ze geen 2de handsjes gaan weggeven als jouw kaart kapot is? ;) wellicht voor reparatie ofzo maar ik denk eerder dat ze die via een andere weg inzetten voor wat anders, een of ander project oid.
Of ze recyclen die kaarten.
Op zich is er vrij weinig mis met een chip die gegarandeerd werkt als refurbished aan te bieden, niet in de laatste plaats omdat de Step up vaak plaatsvindt met recente aankopen.

Wat ook nog zou kunnen, EVGA is een Nvidia partner dus misschien gaan die dingen wel gewoon retour naar Nv voor een vergoeding. De marge ligt altijd hoger op de high end kaarten dus de ruimte is er zeker voor...
Neen hoor, dat is common practice bij RMA's en/of herstellingen.
Nu we allemaal weten dat 6GB vooral om te gamen, erg veel is. Heb ik toch liever 6GB voor de GTX780TI, waar je toch al 600 euro voor betaald.
(Aangezien vaak ook hogere resoluties worden toegepast met de 780TI)

[Reactie gewijzigd door Monne op 24 maart 2014 09:31]

Zoveel verschil zal het niet maken, om die 6GB echt te benutten speel je al op een res waar eigenlijk gewoon SLI voor nodig is.

Ik denk dan ook dat dat de gedachte is achter deze 6 GB versies: in SLI vallen de puzzelstukjes mooi in elkaar, want dan is eea ook echt speelbaar op uHD of 5670x1080 - en de relatief smalle bus zit ook niet zo in de weg.

[Reactie gewijzigd door Vayra op 24 maart 2014 11:50]

Nou heb ik vaak autocad openstaan en andere video bewerking programma's en dan krijg ik in Battlefield 4 met Vsync (MSI Gaming GTX 770) toch vaak vram errors... Die heeft maar 2 gb Vram, maar dan toch..

Btw: Op 1920*1200 - 75HZ
Je speelt BF met autocad open... Tja :P
Hihi, daar heb je mij wel :3

Zou toch mooi zijn als het wel gewoon kan :p
Fantastisch nieuws voor video editors. Met slechts 3 GB loop je snel uit het video geheugen bij het editen van 4K of 5K materiaal. Met 6 GB heb je genoeg VRAM om problemen te voorkomen en blijft Premiere Pro gewoon in hardware MPE mode. Dit maakt de 780 wel erg aantrekkelijk.
Dat dacht ik ook idd, hij is ook een stukje goedkoper dan een titan. Leuk voor Video en 3D gpu renderen.

Men heeft soms nog de illusie dat een Pro Gpu zin heeft bij dit soort dingen.

[Reactie gewijzigd door maratropa op 24 maart 2014 11:19]

is alleen geen illusie, doordat de opengl/dx stack ook niet gemaakt is voor gaming maar voor 3D effecten.
het eindresultaat is dat je op een consumer kaart jaggies/lage precisie en misrenders krijgt.
en jij gaat op een consumenten kaart video editen, met niet gegarneerde precisie en comptabiliteit? :/

[Reactie gewijzigd door stewie op 24 maart 2014 10:16]

Natuurlijk, want compatabiliteit is nooit een probleem, zelfs een Quadro K6000 presteert niet beter maar is wel ruim 8 keer duurder en biedt geen betere precisie, enkel 10 bit output naar kostbare 10 bit monitoren.

Kijk maar eens hier: http://ppbm7.com/index.ph...92-what-video-card-to-use

[Reactie gewijzigd door Harm Millaard op 24 maart 2014 10:42]

Wat ik had begrepen is dat het voor programmeurs erg lastig is om meer dan 3GB te gebruiken bij de architectuur van deze kaarten. Ik volg actief het minen met nVidia en sommige algoritmen hebben veel geheugen nodig. Dit werkt tot ongeveer 3GB wegens 32/64 bit restricties geloof ik.
Minen met Nvidia... Welke keccak coins nou nog iets waard ? Scrypt minen met nvidia dan ben je geld weg aan het gooien ben ik bang...

Ontopic:
Heel mooi die 3GB
Er zijn heel veel mensen die minen met die mooie GTX750TIs, maar keccak gebruikt weinig RAM, ik doelde meer op scrypt-n (adaptief algoritme dat steeds meer RAM nodig heeft)
bij AMD gebruikt de openCL miner zon ~150mb VRAM op mijn 290 of 7970. wat een verschil, zeg. Wist ik niet dat het zo anders lag.

Ook heeft 32/64 bit niets te maken met videogeheugen allocatie aangezien kaarten hun eigen circuit en chipset (eigenlijk alles) hebben.
Klopt, dan doe je waarschijnlijk scrypt, dat gebruikt weinig RAM.
Scrypt-n gebruikt aanzienlijk meer RAM zodra de n omhoog gaat, wat betekend dat je minder berekeningen tegelijk kan doen (daarom is een GPU zo snel), en dus zou meer RAM helpen.

Voor zover ik weet wordth het video-geheugen dat je gebruikt bijgehouden met integers (de pointers), dan maakt 32/64 bit opeens wel weer uit! (Kijk naar Windows, die kan ook maar gelimiteerd geheugen gebruiken op 32 bit), terwijl het fysiek mogelijk is.
..maar blijft nou de GTX860/860TI, die zouden toch Q1 uitkomen... maar ja, we hebben nog een week te gaan :(
Beste bedrijf voor PC hardware. Solide en stabiele hardware, kost alleen wat meer.
Ik vind die kosten nog wel meevallen. Als je bekijkt welke garanties ze je mee geven en hoe lang het allemaal mee gaat.
Ik heb 2 580's van EVGA. Daar heb ik het voltage ietsjes van omhoog moeten krikken om ze stabiel te krijgen maar dat valt allemaal gewoon binnen de garantie. Ik heb absoluut geen plannen om de kaarten te vervangen (ook al vechten ze soms een beetje met BF4 op ultra, die 1.5GB VRAM is niet meer genoeg).
ze hebben tegenwoordig videokaarten met drie keer zoveel geheugen dan mijn eerste echte gamepc. Ik heb nooit veel meegemaakt van de pre WinXP tijd, en alsnog gaat de technologie verschrikkelijk snel.

En ik moet eerlijk zeggen, het ontwerp van die koeler met één fan is wel behoorlijk mooi. Heeft iemand een paar honderd euro die ik even kan uuhm... investeren? :+
je komt nog maar net kijken dus, mijn eerst gericht gekochte videokaart was de ati 9800 pro met 128 mb en dat was destijds de bom anno 2003 schat ik, kon ik COD1 voluit draaien.
Bij mij de Voodoo 2 (addon) met een whopping 12 mb! Kreeg je ook nog zo'n vette animatie als je je spel opstartte en voelde je je helemaal de man tegenover je vriendjes :P
herkenbaar... Glide.. wat een techniek!
_/-\o_ Zeker icm een Matrox 64Mb kaart!!!
Huh?! Matrox en Glide :?

Je bedoelt dat de VooDoo kaart via de Matrox werd doorgelust neem ik aan ?
Die deed dan alleen 3D bereken en de Matrox deed de daadwerkelijk output.

* nero355 voelt zich opeens heeel erg oud :X

Dat ik dit nog weet :+ _O-
Ja er zat een doorlus kabel bij! De matrox was een Matrox Millenium kaart! Was wel een PCI-kaart en ik had de 3Dfx Voodoo 2 met 12mb geheugen!

Was super!!!!!!!!

Met deze setup kon ik Unreal Tournament (de GOTY-versie) met alle opties open spelen, mijn buurman was erg jaloers! :P

[Reactie gewijzigd door qbig1970 op 26 maart 2014 00:42]

Mijn VIC-20 had ongeveer 1 KB aan videogeheugen. Mijn 16 KB geheugenuitbreiding kostte 175 gulden.
Gforce 2 MX (2001) ... heerlijke tijd was dat
Edit: 16/32 MB.. en dual display support :)
Edit 2: Bijna vergeten, maar m'n eerste was een Paradise VGA ISA kaart met een beestachtige 1MB (ik heb hem nog liggen in de nostalgie doos, kopers?? :) )

http://en.wikipedia.org/wiki/File:Paradise-VGA-1MB-89.png

[Reactie gewijzigd door crazylemon op 24 maart 2014 13:27]

Ik dacht dat het grote verschil tussen de Titan en de 780ti het geheugen was? 6GB op een 780ti maakt hem dan vrijwel gelijk aan de Titan.
Als ik mij niet vergis beschikt de titan ook over meer cores 2680 tegen 2330 als ik mij niet vergis. Het volgende is dat de titan een instelling heeft dat de double precision of zoiets verbeterd.

http://www.tomshardware.c...mance-review,3516-28.html

edit: bron toegevoegd

[Reactie gewijzigd door Splitinfinitive op 24 maart 2014 15:48]

Je haalt de 780 en 780ti door elkaar ;) De 780ti heeft meer kernen dan een Titan. Als ik de vergelijking zo zie, is de 780ti op elk vlak superieur aan de Titan. Sterker, vergroot het geheugen tot 6GB en je hebt dan een Titan Black.

[Reactie gewijzigd door n0hh op 25 maart 2014 00:06]

Ah zo, alleen kondigt EVGA de 780 aan zonder Ti vandaar dat ik de kernen aangaf. Als ze later nog een TI in de markt zetten dan heb je infeite gewoon een Titan Black ja.

Dat was in dit bericht alleen nog niet het geval :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True