Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gigabyte introduceert RX Vega 64-videokaart met aangepast ontwerp

Gigabyte heeft zijn Radeon RX Vega 64 Gaming OC-videokaart met WindForce 2x-koeler aangekondigd. De kaart heeft een aangepast pcb, een heatsink met heatpipes en twee 100mm-ventilatoren. Ook zit er een backplate met een eigen heatpipe op de kaart.

Gigabyte heeft alle details over de videokaart op zijn website gezet. Vooralsnog is alleen een RX Vega 64-variant te zien, maar volgens TechPowerUp komt er ook een RX Vega 56 met hetzelfde ontwerp. Volgens de omschrijving van Gigabyte is de aangepaste RX Vega-videokaart voorzien van een 12+1-faseontwerp en geschikt om flink over te klokken. De fabrikant klokt de gpu op 1276MHz met een boost van 1560MHz. Dat is iets hoger dan de referentiesnelheden van 1247MHz en 1546MHz.

De WindForce 2X-koeler die Gigabyte op de Gaming OC-versie van de RX Vega-kaart zet, heeft heatpipes die direct in contact staan met de gpu. Aan de achterkant van de gpu zit ook een koperen plaat, waarvoor een uitsparing is gemaakt in de backplate. Ook zit er een extra heatpipe aan de achterkant, die in contact staat met de backplate en moet zorgen voor de koeling van de componenten rondom de gpu.

Met twee achtpinsaansluitingen wordt de custom RX Vega-kaart gevoed. Aan de achterkant zitten drie hdmi 2.0- en drie displayport 1.4-aansluitingen. Gigabyte heeft nog niet bekendgemaakt wanneer de aangepaste Vega-kaart beschikbaar komt en wat deze gaat kosten.

Inmiddels zijn er een aantal RX Vega-videokaarten met aangepast ontwerp aangekondigd door verschillende fabrikanten, maar ze zijn nog niet te koop. Waarschijnlijk komen de kaarten in de loop van december uit. De custom versies laten lang op zich wachten; de referentiemodellen zijn al in augustus uitgebracht.

Gigabyte Radeon RX Vega 64 Gaming OC

Door Julian Huijbregts

Nieuwsredacteur

29-11-2017 • 10:09

123 Linkedin Google+

Reacties (123)

Wijzig sortering
Zelfs een heatpipe op de blackplate, dat is nieuw voor mij.
Dit! Terwijl er volgens mij verder helemaal geen interessante hardware op de achterkant zit. Het geheugen zit immers direct tegen de GPU aan.
Wellicht om de stroomtoevoer te koelen?
Ik vermoed dat de groundplates en het pcb zelf nogal wat warmte afvoeren naar de achterkant wat meestal geen kwaad kan maar bij de Vega zit alle warmte (behalve de VRMs) op een hoop en willen ze deze warmte weghebben van andere componenten die er minder goed tegen kunnen. De surface mount componenten op de achterkant zullen wel to 115 Celcius gerate zijn maar koeler is beter voor de levensduur en zo'n heatsink neemt dan toch de meeste warmte op ipv de componenten.

De heatpipe zit zo te zien over de VRMs of andere power componenten op de achterkant, afhankelijk van het ontwerp. Wellicht hebben ze de vrm controller chip op de achterkant gedaan welke ook wel wat koeling kan gebruiken. Het lijkt er op dat die heatpipe gewoon over vrms zit en verder niets spannends.

[Reactie gewijzigd door Sloerie op 29 november 2017 13:36]

Er is een vermoeden dat de hotspot temperatuur sensor zich dicht tegen de pcb bevind. Als dit het geval is zou de oplossing van Gigabyte een lager verschil veroorzaken tussen hotspot en core. Wat als resultaat heeft een veel stabielere en mss hogere boost clock speed.
Wellicht ja!
Er zit ook een koperen blokje op om, denk ik, de gpu te helpen koelen.
Zoiets zie je ook wel eens bij moederborden.

[Reactie gewijzigd door HugoBoss1985 op 29 november 2017 11:08]

Vram is in dit geval HBM geheugen en zit direct naast de gpu. En dat koperen achterkantje zie je bij videokaarten wel vaker

[Reactie gewijzigd door fifty_seven op 29 november 2017 11:09]

Een plaatje van een RX Vega 64 pcb maakte mij inderdaad duidelijk dat de RX Vega anders is (w.b.t. het geheugen op het pcb) dan andere kaarten.
Mijn post had ik al aangepast, want de heatpipe heeft zo te zien dus niets met het koelen van het geheugen te maken.
Het lijkt inderdaad erg aannemelijk dat de heatpipe bedoeld is om de stroomtoevoer te helpen koelen.

[Reactie gewijzigd door HugoBoss1985 op 29 november 2017 11:15]

Puur marketing. net als dat vierkantje koper op de backplate.
Hmm. Mijn R9 290 heeft VRM's op de achterkant. Daarom heb ik een waterblok met backplate + heatpipe en ik kan je vertellen die backplate wordt best warm en de heatpipe doet ook wel wat. Als de Vega ook VRM's achterop heeft, kan dit best een prima oplossing. Scheelt namelijk wel wat.

@fifty_seven Dank, die had ik nog niet gezien, totaal ander idee van heatpipe... Ben nu ook wel benieuwd of het iets gaat uithalen

[Reactie gewijzigd door PhatFish op 29 november 2017 17:27]

De GPU straalt aan de onderkant/achterkant ook een hoop hitte uit, en omdat de onderkant v/d gpu naar boven gericht is (om het nog duidelijker te maken) kan daar best effectief wat warmte worden weggevoerd op een natuurlijke manier.
De backplate met zijn heatpipe neemt de koeling voor de vrm mosfets op zijn rekening
Nu nog de asus rog strix versie! Ik hoop dat die ook nog in december uitkomen
Yep. Liefst nog een Vega64 ROG TOP
Nou heb ik een Gigabyte RX580 met zo'n koeler en die fans draaien onder 95% load op 3000rpm en genereren best wel wat lawaai. Dan ben ik benieuwd hoeveel herrie dit ding gaat maken op een kaart die 1.5x zoveel stroom verbruikt.
Kan je die niet langzamer laten draaien? Zou namelijk niet nodig moeten zijn
Forceer je ze op 95% ofzo ?
Ik kan niet wachten tot ze daadwerkelijk uitkomen, liever vandaag als morgen.
Waarom? Waarom koop je voor hetzelfde geld niet een veel snellere 1080ti?
Kunt beter 30% meer performance hebben en geen freesync dan wel freesync imo. Vooral als je een >100Hz scherm hebt is het nut van freesync/G-Sync vrij beperkt.

Ik heb bewust een 144Hz 1440p Freesync scherm gekocht met Nvidia kaart (780Ti, nu een 1080Ti) en de §200 voor G-Sync in mijn GPU gestopt. De hoge frequentie voorkomt tearing, en de 30% extra performance van de Ti zorgt ervoor dat je toch > 100 fps draai in games.
Er is maar een klein aantal games die een 1080ti constant op +100fps kan draaien, vele er van zijn oude games. Freesync/Gsync heeft wel zeker nut bij hogere framerates want ook op hogere rates kun je tearing hebben. Als je beeldscherm niet synchroom loopt met je videokaart krijg je tearing. Alleen is op lagere rates de tearing duidelijker zichtbaar.

[Reactie gewijzigd door Crp op 29 november 2017 10:43]

Er zijn veel games die een 1080ti op+100 fps kan draaien, HEEL VEEL.
Ik weet het, ik heb een 1080ti, en guess what, ik speel games!
Games hoeven niet persee op ultra te staan he, op medium zien ze er bijna even goed uit maar met veel meer fps :). Als je wilde weten welke games? nou:
CS:GO
Overwacht
H1Z1
PUBG ( nagenoeg altijd boven 100 fps, paar uitzonderingen daar gelaten :)
BF1 !
Starcraft 2
Fortnite
Rainbow six siege

Deze spellen heb ik allemaal meer dan 100 fps, op mijn 1080ti, dus alstjeblieft pas iets zeggen wanneer je het zeker weet, danku ;)
Lees dan mijn comment ook even goed. Ik zei er bij dat veel van die games die de 1080ti op +100fps kan spelen, oude games zij. En dat bevestig je dus ook. Alleen Pugb en Fortnite zijn redelijk nieuw, waar pugb een oude arma engine Unreal engine gebruikt en fortnite niet echt een grafisch zwaar spel is


Alstublieft.

[Reactie gewijzigd door Crp op 29 november 2017 14:22]

en BF1?
Eindconclusie is dus, ligt er maar aan wat voor spellen je speelt, en op welke settings.
Voor mij is een 1080ti de beste keus, voor een ander kan een vega56 de betere keus zijn
En dat was de discussie ook helemaal niet, 1080ti is ook de beste kaart die je kan kopen. Het ging er over of freesync/gsync nut heeft (ja). En of de 1080ti games op +100fps kon spelen op 1440p. Nieuwe games, weinig. Oude games ja maar dat kan een 980ti ook.

En BF1 draait op dezelfde Frostbite 3 engine als Battlefield 4.

[Reactie gewijzigd door Crp op 29 november 2017 14:12]

Kunt beter 30% meer performance hebben en geen freesync dan wel freesync imo. Vooral als je een >100Hz scherm hebt is het nut van freesync/G-Sync vrij beperkt.

hier ging de discussie over, eindconclusie, als je meer dan 100 fps hebt is een freesync of gsycn setup vrij doelloos.
Hoe kom je erbij dat PUBG een oude ARMA engine gebruikt? Playerunknown is ooit zijn Battle Royale tijd gestart met een ARMA 2 mod, maar is sindsdien via ARMA 3 en H1Z1 terecht gekomen bij Bluehole die gebruik maakt van de Unreal engine.
Ja dat is een nieuwe game, waarin je de wachter van de over bent, prachtig spel overigens.
Ja leuk, spendeer je 750 euro aan een GPU om op medium te spelen :')
Maar ik speel op high/ultra :)
En dan, nieuwe zwaardere spellen kan je toch niet meer draaien met je 1080ti aan 100 fps. Daar sta je daar dan met je dure videokaart. |:( Ofwel koop je dan terug de duurste high-end videokaart ofwel kocht je ih begin al een monitor met freesync/g-sync en een goedkopere high-end kaart waar je een lange tijd mee doet en even vloeiend mee kan gamen. Wat denk je dat goedkoper is?

Ik heb een 1070Ti gekocht in de Black Friday sales voor §480. Redelijk goede deal dacht ik zo gezien het moment met cryptomining en nVidia dominantie ed. en meer dan rap genoeg.
nieuwere spellen kan je wel draaien met 100 fps met 1080ti. Verschil tussen ultra en high settings is verwaarloosbaar in beeldkwaliteit, maar scheeld vaak veel fps.
En toen ik de 1080ti kocht koste de 1070 540 euro, en de 1080ti kon ik kopen voor 700, als de 1070 400 koste had ik ook gewoon een 1070 gekocht, maar de price/performance was gewoon slecht toen, nu nog, maar toen erger. 1070ti voor 480 is geen slechte deal inderdaad.
De hogere refresh rate voorkomt tearing niet het valt alleen minder op als je framerate dicht in de buurt van de refresh rate van het scherm zit.
Enige manier om geen tearing te hebben is Vsync, Gsync of Freesync.

[Reactie gewijzigd door Astennu op 29 november 2017 10:49]

Idd als je 100fps met je 1080Ti hebt op 144Hz scherm heb je toch alsnog tearing en op een 60Hz scherm niet? Nieuwere zwaardere spellen duiken dan onder de 60 fps waardoor je tearing krijgt op 60Hz en 144Hz scherm. Conclusie: g-sync/freesync is een must. Hij wil gewoon zijn dure 1080Ti aankoop goedpraten.
Dat zeg ik niet met 60 valt het gewoon nog meer op ook al doe je 100 fps of 40.
De beelden blijven langer zichtbaar (60 beelden per sec VS 144).

Maar idd voor geen tearing > vsync , gsync of freesync.
Maar heb je niet vooral tearing met fps<refresh rate of ook als je fps>refresh rate?
Imo is het vergelijkbaars alleen andere stroperigheid voel je minder doordat de fps hoger is maar je hebt nog steeds hetzelfde risico dat je een of meerdere lijnen door het beeld ziet lopen vooral als de fps meer dan 2x de refresh rate wordt. In beide gevallen laat het scherm delen van meerdere videokaart frames zien die gerendered zijn. Bv met 143fps
Frame 07, 67 en 127 (mits je fps 100% constant zou zijn.
100 fps op een 144 hz scherm voelt alsnog veel soepeler dan 100 fps op een 60 hz scherm.
De vega 56 kan in directx 12 games & 4k de concurrentie met een 1080 aan. Helemaal als je er een vega 64 bios op zet + undervolt.

Dat icm met 4k freesync scherm maakt vega echt wel een goed aanbod.
Ehm, dat heeft niets met je refresh rate te maken hoor. Als je van die strepen over je scherm krijgt, zie je die vaak van onder naar boven rollen op je scherm, ook op 144 Hz. Op 144 Hz is die mismatch tussen GPU en Scherm net zo hard aanwezig als op 60 Hz, iedereen die anders beweert snapt niet hoe het werkt. Sterker nog, op 144 Hz en 144 FPS zonder Freesync of GSync is het risico dat je tearing krijgt zelfs veel groter dan op 60 HZ. Enige is dat het wellicht de helft korter zichtbaar is. Want elke frame duurt ongeveer 2x zo kort.

[Reactie gewijzigd door OriginalFlyingdutchman op 29 november 2017 11:10]

Je voorkomt het niet, je hebt er alleen geen last van ;).
Maar toch is de ervaring van 144 hz 144 fps veel soepler dan 60 hz 144 fps, los van freesync of gsync, of vind jij van niet?
Waarom zou 100FPS+ (Marketing) willen?
50/60 is meer dan genoeg je moet er alleen voor zorgen dat je geen dips krijgt.
Tot je een keer een racegame of snelle shooter op 100 Hz of hoger speel, dit geeft echt een merkbaar verschil en is zeker geen marketing onzin.
Merk er niets van tijdens een race game, 65FPS gemiddeld met een 144Hz scherm. Doe ik de instellingen lager zetten zodat ik 100FPS+ heb is de speel ervaring exact hetzelfde, alleen het spel ziet er minder mooi uit dat is alles.
In principe kunnen je hersenen meer verwerken dan 65fps, je zou dus echt wel verschil moeten merken. Bewegingen (snelle, maar ook trage "panning") op het beeld zijn vloeiender, je hebt geen ghosting bij snelle bewegingen (als je ook een snelle monitor hebt qua response) en het is rustiger voor je ogen. Dat laatste merk je niet na 5 minuten maar wel na langere tijd.
Net als "vroeger" met de 60Hz monitoren en de 75-90-100-120Hz CRT monitoren. Ik kreeg echt hoofdpijn van die 60Hz dingen, maar mensen zagen het pas als je een snellere ernaast zette. En de hoofdpijn verdween ook bij hen toen...
Ik heb op werk ook nog 60Hz monitoren, en je ziet dan b.v. je muiscursor "vaag" worden als je deze beweegt. Met 120-144Hz heb je dit totaal niet, blijft scherp. Dat is dus ook wat je in games hebt bij snelle bewegingen, het beeld wordt onscherp omdat het niet snel genoeg de wijzigingen kan weergeven/verwerken.
Kijk eens naar de UFO test op 65fps en op 144fps. Dan zie je wel verschil.
https://www.testufo.com/

[Reactie gewijzigd door Soeski op 29 november 2017 11:12]

Dat 'rustiger voor je ogen' met hogere refreshrates is bij LCDs klinkklare onzin. Die hoofdpijn van CRTs heeft te maken met het flikkeren van de backlight op een te lage frequentie. Bij CRTs kan dit vanwege de techniek niet worden losgekoppeld van de refreshrate. Bij LCDs kan dit wel gewoon. Er zijn wel LCDs met flikkerende backlights waar men hoofdpijn van kan krijgen, dit komt dan doordat de dimming wordt gedaan doormiddel van flikkeren op een te lage frequentie. Die is nog steeds een stuk hoger dan 60Hz, maar toch hebben sommigen daar last van.
Klopt, daarom zei ik ook CRT's. Bij LCD's is dit anders, maar dan nog is de hogere beeldverversing prettiger dan de lage. Anders zouden 100Hz tv's puur marketing zijn. Bij stilstaand beeld zal het niet uitmaken nee. Afgaande op je username ben je misschien uit 1996 en ken je CRT's niet eens meer :P

[Reactie gewijzigd door Soeski op 29 november 2017 13:57]

Dat bouwjaar ja, maar ik heb zeker een CRT gebruikt als persoonlijke monitor! Volgens mij tot 2007 :+
Ga maar Unreal Tournament 4 spelen.

Eerst op 60 FPS en daarna op de max 150 FPS. Je ziet het verschil, maar los daarvan voel je het vooral in de muis die veel natuurlijk beweegt.

Tussen de 100 en 150 fps zie je het vermoedelijk niet, maar voel je het nog steeds.

Hetzelfde geldt voor 60hz en 144hz in deze game. Dat zie je vooral.

[Reactie gewijzigd door Mit-46 op 29 november 2017 10:59]

Dan zit het bij sommige tussen de oren, maar je ziet echt geen verschil. Wel als je van 60Hz naar 100+Hz gaat, qua FPS zie je gewoonweg geen verschil, ook niet in de muis.
Maar je hebt er duidelijk een andere mening over.
Niets met mening te maken, er is duidelijk verschil, punt. Volgens mij ben je aan het trollen.
Het is gewoon een mening, er is gewoon geen tot zeer weinig verschil wat je ziet, punt. Volgens mij ben jij juist aan het trollen.....
qua fps zie je geen verschil, maar voel je het wel met je muis, want het beeld wat wordt gerenderd in het refresh moment van je monitor, is actueler wanneer je 150 fps hebt dan wanneer je 60 fps hebt. Je muis movement voelt hierdoor smoother.
Ik speel dat spel bijna elke dag. :)

Van low naar highest en alles wat er tussen zit heb ik geprobeerd. Vanaf de slechte hardware van mijn laptop t\m het bakbeest van een pc welke er nu staat.

Jij weet het beter merk ik. :Y)
Ook met league of legends kan je toch net ff een paar ms sneller reageren omdat je de animatie voor het gevoel sneller aan voelt komen. Ik speel merkbaar slechter als ik op me laptop speel met 60hz scherm tegenover de monitor op de pc die 144hz is.
Het ging over FPS niet over Hz.
ik bedoelde uiteraard ook 144fps op een 144hz scherm tegenover 60fps op 60hz.
Wat ik me altijd heb willen weten is het volgende: Hoe kan het dat je bijvoorbeeld in COD1 met 125+ FPS wel op bepaalde muren kon komen en anders niet.
Dat is een bug/feature in de id tech3 engine die cod1 gebruikte, zie: http://www.codjumper.com/forums/viewtopic.php?f=4&t=9243
Wat gaaf om te lezen. Thanks!
Dat dacht ik ook tot ik op 144Hz ging gamen. Ook al had mijn game een gemiddelde fps van 180 op een 60Hz monitor, is mijn kd en response er op een 144 Scherm met FreeSync en constante 144fps er stukken op vooruit gegaan.

Vraag me niet hoe het kan maar het is wel zo.
ik vraag je: "niet hoe het kan"?
144 is een verademing tov 60. Ik wil NOOIT meer terug naar 60. Elke keer als ik game op een 60 hz scherm erger ik mij aan het "gestotter " het loopt gewoon niet soepel.

Het verschil tussen 120 en 144 was mij niet zo duidelijk maar tussen 90 en 120 wel.

Het schijnt ook per persoon te verschillen sommige zien het verschil niet tussen 60 en 144 andere wel weer tussen 200 en 240.
Ik heb een 144Hz scherm ;)
Het ging over het aantal FPS op een 144Hz scherm.
In de pricewatch hier zijn de prijzen niet hetzelfde voor de 1080TI en de Vega 64.

Goedkoopste Vega 577, goedkoopste 1080TI 732.
Hetzelfde geldt voor de goedkoopste 1080 TI kaarten in de pricewatch. Die van 710 en 730 euro zijn niet op voorraad bij de winkels waar ze dit bedrag kosten.

In dat opzicht maakt het dus niet uit.

[Reactie gewijzigd door Mit-46 op 29 november 2017 11:40]

Bij azerty kan je die wel bestellen voor die prijs en wachten tot ze leverbaar zijn.
1080ti kan je ook nauwlijks krijgen
Waar scoor ik een 1080Ti voor minder dan 600 euro? :)

Deze kaart is best vergelijkbaar met een GTX 1080 qua prestaties, ook qua prijs, maar support wel Freesync. Ik heb nu een 1070 en een Freesync scherm, dus ik wil graag upgraden.
Ja, ik zie inderdaad dat de prijzen flink gezakt zijn, dus mijn opmerking was niet terecht. Echter zie ik nog steeds geen voorraad van die VEGA kaart...
Vega reference cooler is er inderdaad voor onder de 600§ of vergelijkbaar met een 1080 qua prijs, alleen deze kaart met non reference cooler zal duurder zijn dan, dit zal een stevig koelblok moeten zijn (300+ watt -> is hogere prijs) kijken we naar de prijzen van een 1080ti met reference/matige cooler ~700§ of een duurder model met goede cooler dan gaat de prijs al snel richting de 800§
Met andere woorden 600§ voor een reference kaart of (realistisch) 700§ voor een versie met betere cooler, paar tientjes meer en je hebt een aanzienlijk snellere 1080ti.
Zonder Freesync inderdaad.
Freesync was je eigen keuze en dit dwingt je nu om een inferieur product aan te schaffen (prijs technisch), fast sync niet snel genoeg?
Freesync was 300 euro goedkoper dan een gelijkwaardige G-syncert. Zolang het prijsverschil kleiner dan dat is, is het dus geen inferieur product.
In jou geval (volgens jou redenatie) niet (een inferieur product), voor mensen die nieuw kopen of niet gebonden zijn aan g- of free sync, is fast sync een prima alternatief (eigenlijk ook als je free sync hebt) en kost een vega 64 met custom cooler gewoon te veel voor wat hij bied. Daar ging de prijs discussie ook over, je scoort geen 1080ti voor 600§ maar ook geen vega 64 custom cooler onder de 700§. Ik zal niet gek opkijken als de vega 64 custom coolers beginnen vanaf 750§.

Wat @Tortelli zegt: 1080ti is hogere FPS & Fast sync erbij.

[Reactie gewijzigd door D0gtag op 29 november 2017 22:29]

MindFactory had een Vega64 (PowerCooler's Red Devil) in pre-order voor 1 december voor §559,-.

Helaas is de pre-order weg (Artikel zur Zeit nicht lieferbar), en MindFactory is 19% BTW en verscheept niet naar BelgiŽ of Nederland, maar ik denk dat custom Vega's onder de §600,- zeker mogelijk moeten zijn.

700+ lijkt mij dan ook zwaar overdreven, en anders kan je wel even de grens over. :+
Casekings het zelfde alleen dat blijft de reference cooler, het punt is juist dat een custom cooler veel zwaarder moet zijn en groter (wat veel duurder is want deze kaart gebruikt -zeker OC'd- enorm veel vermogen) 700§ Nederlands geld is gewoon een reŽle optie. Hou de PW maar in de gaten, je zal nog aan mij denken :+

Kijken we naar een 1080ti in DE betaal je 650§ voor een 1080ti. (even wachten tot na de kerst).
En wie wil een Vega64 met een TDP van >300W? Ik niet iig.
Voor hetzelfde geld heb je geen 1080ti, een Vega 64 koop je vanaf §530 de 1080ti begint op §730.
Ik dacht dat de kostprijs van de vega rond de 570 § lag
Op ldlc.com that is...
Lol, wat is er mis met de drivers? Heb zelf ook een 1070 maar 0,0 problemen
Eindelijk, De eeste custom Vega die er wel mooi uitziet ( dan kon je van XFX en PowerColor niet zeggen als je het mij vraagt)

De Vega kaart is eigenlijk het best geschikt voor mensen met een custom loop. Een vriend van mijn heeft nu een vega 56 in een custom loop, core op 1700 en HBM 1100 en temp van rond de 45 :)

[Reactie gewijzigd door holhuizen op 29 november 2017 10:17]

Vind de strix er een stuk mooier uitzien. Ben zelf nooit gecharmeerd van Gigabyte producten
Die donkergrijze Asus Strix kaarten.. Ik heb daar gewoon een zwak voor. Deze Vega als Strix zou inderdaad een leuke toevoeging zijn!
Ik vind het een uit de kluiten gewassen ontwerp met die koperen plaat ad achterkant vd GPU en die extra heatpipe ad backplate om de componenten rond de GPU te koelen. Maar ik ben ook niet zo'n Gigabyte-fan, liever Asus of MSI.
Het duurde een tijdje, maar ze komen eindelijk!
Erg jammer dat Gigabyte blijft vast houden aan die zeer goedkope plastic fanshrouds. Helemaal in vergelijking met de competitie dat veel stijlvoller ontworpen is.
Beschikbaarheid zal wederom weer dramatisch zijn/blijven waarschijnlijk..
Idd best wel een vreemd ontwerp. En dan nog die lipjes ad ventilatorbladen.
Nou nou dat heeft lang geduurd. Hardware.info schreef op 2 oktober al over het bestaan van deze kaart.
Nu is de GPU echter geÔntroduceerd door Gigabyte, oftewel, het werk is af. :)
Een klein verschil met het bericht uit Oktober bij de buren. ;)
Mag ook wel eens tijd worden dat ze af zijn ja. Ze zouden in oktober namelijk al de verkoop in gaan
Dat waren geruchten, AMD heeft dat nooit zelf gezegd.
Amd? Of de partners?
Geen van beideAMD heeft zich uitgelaten over de releasedatum van Vega met custom cooler.

Je stelling 'ze zouden in oktober namelijk al in de verkoop gaan' is daardoor gebaseerd op een gerucht. Je kan daarom niet concluderen 'dat het tijd word'.

Edit: Gigabyte dus blijkbaar wel @CH4OS :) een maandje vertraging lijkt het te worden.

[Reactie gewijzigd door Richh op 29 november 2017 12:19]

Geen van beide heeft zich uitgelaten over de releasedatum van Vega met custom cooler.
Is niet helemaal waar; men had het over week 42, eind oktober dus. ;) De GPU's zijn dus een maandje vertraagd, wat op zich meevalt en het inderdaad een kwestie van GPU availability moet zijn geweest.

[Reactie gewijzigd door CH4OS op 29 november 2017 11:25]

Asus zei zelfs in september te komen met custom koelers voor Vega. En nu zijn we december.
Ooh, ik wist niet dat de uitspraak gebaseerd was op je eigen mening.

Als ik zo in de Pricewatch zoek is de reference versie pas op voorraad geraakt in de laatste week van augustus. Momenteel staat de teller op 3 maanden dus. Bij de GTX 1080 Ti duurde het ook 2 maanden.

Dat het lang duurt ben ik met je eens, maar de heisa die je er van probeert te maken vind ik ietwat overdreven.
B: Het heeft vooral te maken met jouw vooringenomen mening over AMD producten. Of moet ik ook nog wat lyrische Intel-comments opzoeken?

De enige die hier anoniem een grote mond heeft ben je zelf bij vraag A, trouwens.
Tuurlijk mag je een mening over een product of merk hebben. Het gevaar zit erin dat jij ofwel leugens verkondigd, ofwel het randje van de waarheid zit op te zoeken, om de publieke opinie over dat product of merk te beÔnvloeden. Dat noem ik hierboven 'heisa maken'.

Dat vind ik flauw, en als ik iets ontdek wat niet klopt, dan reageer ik daarop. Meer niet :)
Waar vertel ik leugens dan?

En nogmaals jij hebt een compleet verkeerde gedachte bij het woord heisa
Volgens Guru3D 'late october', en er is een delay geweest, dus an sich is een maandje later dan ook het einde van de wereld niet, toch? :)
Ze zijn nog altijd niet beschikbaar, alleen aangekondigd.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True