Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 169 reacties
Submitter: FreezeXJ

Nvidia GTX 1000-gebruikers die een 1440p-monitor met een refreshrate hoger dan 90Hz hebben aangesloten via een dual link-dvi-kabel, ondervinden problemen met het opstarten van hun systeem. Bij gebruik van andere kabels treedt het probleem niet op.

Conceptronic DVI - HDMI (F)Systemen met een Nvidia GeForce GTX 1080 of 1070 kunnen niet juist opstarten wanneer er een scherm via dual link-dvi is aangesloten en de pixel clock uitkomt op een waarde hoger dan 330MHz. Het probleem wordt gemeld op Reddit en blijkt eerder al te zijn gerapporteerd op het GeForce-forum.

In de praktijk gaat het met name om gebruikers van monitoren met een resolutie van 2560x1440 pixels en een refreshrate hoger dan 60Hz. Het probleem treedt enkel op wanneer het scherm is aangesloten via een dl-dvi-kabel. Gebruikers die een scherm met displayport-aansluiting hebben, ondervinden het probleem niet.

Hoewel de meeste monitoren met hoge resolutie en refreshrates hoger dan 60Hz ook een displayport-aansluiting hebben, is dat bijvoorbeeld niet het geval bij Qnix QX2710. Dit 27"-scherm, dat populair is bij gamers, heeft een resolutie van 2560x1440 pixels en staat bekend om de mogelijkheid om de refreshrate te overklokken naar waarden hoger dan 60Hz.

Nvidia heeft nog niet gereageerd op het probleem en ook met de nieuwste drivers starten de systemen niet correct op. Gebruikers die hinder ondervinden van de bug stellen dat de beste oplossing is om de refreshrate voor het uitschakelen of voor een herstart terug te zetten naar een lagere waarde, zodat het systeem wel correct kan booten.

De pixel clock kan ruwweg berekend worden door de hoogte en breedte van de resolutie te vermenigvuldigen met de refreshrate. Zodoende heeft een monitor met 2560x1440 pixels en verversingssnelheid van 60Hz een waarde van ongeveer 221MHz. Bij refreshrates vanaf ongeveer 90Hz op 1440p-resoluties kan het probleem zich voordoen.

Update 15.00 uur: De problemen worden hoogstwaarschijnlijk veroorzaakt omdat de maximale pixel clock van de dl-dvi-standaard is vastgesteld op 330MHz. Het gebruik van een refreshrate en een resolutie die resulteert in een hogere pixel clock valt dus buiten de specificatie. Het is echter opvallend dat dit nu een probleem oplevert met de GTX 1000-kaarten. De betreffende Qnix-monitor wordt al langere tijd door veel gebruikers met een hogere pixel clock gebruikt in combinatie met oudere videokaarten.

Moderatie-faq Wijzig weergave

Reacties (169)

Zijn er nog veel mensen die gebruik maken van DVI? Ik dacht dat zo goed als alle hardware nu wel over is naar DP en HDMI.
Desondanks een vervelend probleem wat niet voor zo mogen komen bij deze kaarten, maar het lijkt me dat dit wel op te lossen valt met een driver update.

[Reactie gewijzigd door jick op 27 juni 2016 14:23]

Ik heb de in het artikel vermeldde Qnix QX2710 monitor; een Koreaans scherm met Samsung PLS paneel. Ondanks dat ik veel liever HDMI en DP gebruik heeft de overclockbare variant van deze Qnix monitor alléén een DVI aansluiting. De monitor is een by-pass model en werkt alleen op dedicated videokaarten (dus niet op iGPUs) en ook alleen via DVI; zelfs een DVI naar HDMI of DP converter helpt niet of veroorzaakt frameskipping na de overclock. Ik weet niet zeker of dit ook het geval is bij actieve converters, maar die zijn belachelijk duur dus dat kan ik niet testen.

Maargoed de meeste mensen zullen inderdaad via Displayport hun WQHD + >100 Hz monitor aansluiten, er is echter ook gewoon een groep consumenten die het met DVI-D aansluit. De meeste mensen hebben namelijk wel een DVI kabel liggen als ze een nieuwe monitor halen, al is DP vandaag de dag wel een beetje de standaard geworden.

Het is natuurlijk wel een vrij unieke monitor met alleen maar DVI en een overclockbaarheid van 60 hertz naar 96 tot 120 hertz. Desalniettemin hoop ik wel dat Nvidia dit kan patchen met een software update, want ik ga misschien voor een 1070 GTX icm mijn Qnix schermpje :)

[Reactie gewijzigd door stin00 op 27 juni 2016 14:32]

Ik heb ook dezelfde monitor als mijn 'hoofdscherm', ik heb echter ook een Hazro HZ27WD monitor en ook daar geef ik de voorkeur aan DVI. Via displayport doet zich soms een probleem voor waarbij de resolutie op het scherm veel te laag is en ik de monitor opnieuw uit en aan moet zetten om het probleem op te lossen. De overige aansluitingen die erop zitten kunnen de resolutie niet aan (component, VGA, HDMI 1.2).

DVI heeft imo zeker nog wel nut, daarnaast is een DVI-I aansluiting erg veelzijdig. DVI-I kan met het grootste gemak met een omloopstukje naar VGA worden omgezet, een oude aansluiting die helaas ook nog wel eens nodig is voor projectors en oude monitoren. Het kan ook makkelijk naar HDMI met een eveneens spotgoedkoop verloopstukje worden omgezet (hoewel dan enkel voor het beeld-signaal, niet voor geluid) en uiteraard DVI-zelf. En DVI zelf is zo gek nog niet zoals stin00 hierboven aangeeft kan je daar 2560x1440 @ 120Hz mee behalen - lang niet gek.
want ik ga misschien voor een 1070 GTX icm mijn Qnix schermpje
Ik zit zelf te wachten op aftermarket RX 480 kaarten aangezien het reference model helaas een DVI-aansluiting moet ontberen.

[Reactie gewijzigd door Xthemes.us op 27 juni 2016 15:28]

Waar zit het verschil tussen HDMI 1.2 en 1.3? Ik heb gelezen dat 1.2 geen 144hz ondersteunt, maar 1.3 wel. Ligt dit aan de ondersteuning vanuit je videokaart, je monitor of de HDMI kabel?
Het is de combinatie van videokaart en monitor. Deze moeten het beide ondersteunen.

Kabel durf ik niet met zekerheid te zeggen. Ik wil zeggen van niet.
Maar je hebt ook die high speed kabels tegenwoordig..
Vraag me af of dat ook geen marketingpraat is.
Ligt eraan. Beetje hetzelfde verhaal als met netwerk of USB kabels.
Hogere rating = betere shielding en doorgaans dikkere (koperen) kern waardoor het signaal beter (op langere afstand) doorkomt met minder pakket verlies/bit flips.
Ik zou sowieso gewoon aanraden een goede kabel te gebruiken, kost wat meer maar dan voorkom je wel enorm veel kopzorgen.
Neem als voorbeeld dat gezeur met Ziggo/UPC na de overname.

Ik heb zelf dan ook CAT6e kabels liggen in huis terwijl reguliere cat5 volgens de specificatie 'voldoende' zou moeten zijn.
Volgens mij kan soms zelfs audio met een DVI -> HDMI adapter.
Dit kan alleen met een custom DVI uitgang en bijbehorende DVI naar HDMI adapter.
De DVI standaard pin bezetting voorziet alleen in video, geen audio.

Dit was in ieder geval mogelijk bij een oude Asus AMD4870 kaart en de meegeleverde adapter.
Heeft mijn AMD A4-3200 computer zo'n custom DVI poort op het mb gesoldeerd? Daarmee werkt het namelijk prima op mijn Sony TV (omdat HDMI ontbreekt op het mb). Samen met een 5 jaar oude aftermarket cheap-@$$ DVI-naar-HDMI kabel.
Volgens mij meer een driver-dingetje?

on-topic: als niet-gamer ben ik sinds het CRT-tijdperk geen resolutie meer tegengekomen boven de 75Hz. Heeft de 90Hz zo'n groot voordeel (serieuze vraag)? Of is het een omdat-het-kan? Anders zou ik deze gewoon op 70-80Hz houden om de problemen te omzeilen.
Ik moet eerlijk toegeven dat ik het een verademing vind om op een scherm met een hogere refreshrate te werken. Als ik bij vrienden een potje Counter-Strike op een 60 of 75 Hz scherm speel kan ik duidelijk zien dat het beeld toch minder 'soepel' loopt dan bij mij. Je moet het een keer geprobeerd hebben. Ik denk dat het een beetje het zelfde is als een SSD. Als je het een maal hebt wil je nooit meer zonder.
Zo uniek lijkt het me ook niet. .
Mijn ietwat oudere 30" DELL is blijkbaar ook al problematisch met zijn 2560 x 1600 x 60 Hz. Die heeft ook enkel 1 x DVI-D (Dual-Link HDCP)
Negeer maar, foute redenering.. 245MHz is lager dan 330MHz :)

[Reactie gewijzigd door witchdoc op 27 juni 2016 14:55]

"met een refreshrate hoger dan 90Hz"

;)
oops, je hebt gelijk.. ik was aant vergelijken met die 221MHz die op't einde van het item vermeld werd. Niet met de 330MHz die in't begin vermeld werd.. mea culpa!
same here, echt super bedankt voor dit artikel tweakers en degene die specifiek de qnix heeft genoemd. Ik zit al een poosje te wachten (zoals meer denk ik) om een 1070 te kopen maar met dit probleem ga ik het toch nog wat langer uitstellen tot er een oplossing komt vanuit nvidia.
ik draai namelijk 2560x1440 119-121 Hz via DVI-D, dus ja dat was zeker gezeik geweest voor mij, THNX!

wel een beetje jammer dat we nog niets van nvidia hebben gehoord hierover. Die melding op hun forum is van 6 dagen geleden.

[Reactie gewijzigd door Kenpachi1337 op 27 juni 2016 16:09]

Ik had dit probleem ook met VGA in combinatie met DVI, na een bepaalde update in het verleden (zo'n 2 jaar geleden). Maar dan alleen in een ongebruikelijke, door mijzelf gecreeerde situatie. Die was als volgt:

Ik had 3 monitoren, waarvan twee (duallink)DVI en één VGA. Via een batchfile kun je middels Nvidia Inspector (via een command line dus) je videokaart forceren om op de laagste frequentie te blijven hangen en niet over te springen naar 3d clocks. In essentie blijft mijn videokaart dan op 324mhz hangen, voldoende voor desktop werk en beperkt energieverbruik flink (alsook warmtegeneratie). Gaat in dit geval om een GTX 780 Ti.
In het begin ging dat prima, windows start op en de batch file laadt na een tijdje, waarna de clocks blijven hangen. Nooit die problemen gehad die ook in het reddit forum bij de GTX 1000 kaarten wordt getekend. Maar na een bepaalde update (welke weet ik niet meer) van drivers ging alléén op die VGA monitor het beeld zich exact zo gedragen als beschreven in het reddit topic. Dit had dus te maken met iets wat vast hangt aan de clockfrequentie van de videokaart in mijn geval.

Het zou dus zomaar kunnen zijn dat dit dan nu ook iets soortgelijks is met deze videokaarten, dat de frequentie (misschien in dit geval dus de pixel clock) gefixed is op 330mhz, zonder dat het beeldscherm kan bepalen of deze verhoogd wordt.
In ieder geval soortgelijke symptomen, weliswaar andere scenario's, maar wel iets met vaste clockwaarden. Tot zover gaat ook mijn kennis.
Ik gebruik 3 DELL 3007WFP monitoren, elk met 2560x1600 (aspect ratio van 16:10). En die zijn ook alleen maar aan te sluiten via DVI-D. :)
hoeft geen enkel issue te zijn als je op 60 fps draait, toch?
Ik zelf wel :9

Ik denk dat velen niet naar DP/hdmi overstappen als ze nog werkende schermen hebben (en mogelijk dus geen DP/hdmi aan boord hebben). Levensduur van een scherm is praktisch toch wel langer dan een videokaart.
Daarnaast is de enige meerwaarde van HDMI dat je geluid er over heen kan sturen en dat 4k resoluties mogelijk zijn. Voor de rest is DVI superieur aan HDMI, omdat je deze kan vastdraaien en is hierdoor dus steviger.

Om deze redenen kun je nog steeds monitoren kopen (vooral zakelijke) die alleen een DVI en Dp hebben. HDMI zend daarnaast een dvi signaal over haar kabels en een monitor met DVI kan daarom met verloopstekkertje tot HDMI scherm worden omgetoverd.
Korte uitleg

HDMI is geen concurrent van DVI maar van DP voor zover je het concurrentie kan noemen.
HDMI is gemaakt voor TV, DP is gemaakt voor computerschermen. DVI is de voorloper van DP en is aan het uitfaseren.

Lange uitleg:
HDMI wat staat voor High-Definition Multimedia Interface
1.4 => 10.2 Gbps/s, max 4k @24 fps, 8 bit kleur
2.0 => 18 Gbps/s, max 4K @60fps 10/12 bit kleur
Ondersteund geluid, ethernet over HDMI, communicatie tussen apparaten zodat de afstandsbediening van de tv ook die van de Bluray speler kan aansturen & HDCP (DRM voor Bluraydiscs zodat het beeld niet gecaptured kan worden)

DP staat voor Displayport
1.2 => 17.28 Gbit/s, max 4k @ 60fps 6, 8, 10, 12 & 16 bit kleur
1.3 => 32.4 Gbit/s max 8k @ 30fps
Ondersteund geluid (word niet vaak gebruikt in de praktijk), HDCP, AMD Freesync,

Maar het leukste van DP is dat het meerdere kanalen over 1 kabel kan sturen, zo kan de 1.2 4 x 1080P schermen aan sturen (indien de schermen beschikken over een DP out poort)

DVI staat voor Digital Visual Interface
Single link => 4.95 Gbit/s, max 3,840 × 2,400 (iets hoger dan 4K) @ 17fps
Dual link => 9.9 Gbit/s, max 3,840 × 2,400 @ 33fps
Geen audio, gelimiteerd tot enkel RGB kleuren, HDCP is wel mogelijk over DVI
Heb zelf een Raspberry pi 3 en 2 en beide aangesloten via een HDMI naar DVI verloop naar en ATEN CS1784A (DVI switch met geluid) en deze doet vervolgens het geluid ook over de DVI kabels.
Zijn er nog veel mensen die gebruik maken van DVI? Ik dacht dat zo goed als alle hardware nu wel over is naar DP en HDMI.
Desondanks een vervelend probleem wat niet voor zo mogen komen bij deze kaarten, maar het lijkt me dat dit wel op te lossen valt met een driver update.
Eerlijk? Ik gebruik nog steeds DVI terwijl mijn gpu en tv volgens mij liever HDMI hebben.

Ik heb mij nooit echt verdiept in hoe groot de kwaliteit is als je DVI vergelijkt met HDMI.
Er is geen kwaliteitsverschil. DVI en HDMI zijn volledig identiek, behalve dat HDMI ook geluid door kan sturen.

While DVI connectors can only transmit video, HDMI connectors transmit both audio and video. In terms of picture quality, DVI and HDMI use the same encoding scheme for digital video signals and offer the same image quality. The connectors are typically used to transmit video from a source (like a computer or game console) to a display device (such as a monitor or TV). However, DVI does not support HDCP encryption by default, so may be unable to play full HD Blu-ray or other HD content.

Bron: http://www.diffen.com/difference/DVI_vs_HDMI
Ik heb mijn PC op mijn TV aangesloten via een 10 meter lange DVI(PC) naar HDMI(TV) kabel(de computer staat op de eerste verdieping) en ik kan gewoon audio over de DVI connector uitsturen. Sterker nog dat was een uitkomst, want dan heb ik wel 6-kanaals audio bij o.a. spellen, wat met de SPDIF niet lukte(dan heb je Dolby Digital Live of DTS Connect nodig). Dus volgens mij is de connector van de zender niet interessant en kan er alsnog besloten worden 'HDMI' te praten als de ontvanger(de TV in dit geval) zo'n aansluiting heeft.
Geinig, ik wist niet dat dit mogelijk was! Zo te zien inderdaad wel alleen via DVI>HDMI converter.
Er is geen verschil in kwaliteit, het signaal is digitaal dus óf het werkt óf het werkt niet. Het is immers een informatiestroom in nullen en enen. Bij grotere afstanden (15+ meter) kan je meen ik wel verschil merken tussen bepaalde kabels door de latency, maar dit weet ik niet geheel zeker dus pin me hier niet op vast. Je zal in ieder geval geen 'betere' of 'scherpere' beeldkwaliteit ervaren als je DP, HDMI en DVI vergelijkt.

[Reactie gewijzigd door stin00 op 27 juni 2016 14:42]

Hdmi vs dvi is geen verschil. Sterker nog HDMI heeft letterlijk de DVI spec met als added bonus audio en ethernet. Daarnaast heeft HDMI een aantal uitbreidingen in rsoultie en extra's als 3D support en hogere resoluties als 4K, maar dat is pas in latere versies geïmplementeerd (hdmi versie >1.2)
DP kan meer dan 8-bit kleuren weergeven. Dus er is wel degelijk verschil in kwaliteit.

En ja, ik gebruiken een 10-bit Monitor.
Bekijk gewoon de volgende afbeelding dan zie je dat 10 bit echt wel zijn nut heeft en het goed is dat het in de toekomst de standaard gaat worden...wat betreft DVI heb je gelijk.

https://images.blackmagic...quality.png?_v=1460999812

Nu is de markt wel nog niche maar binnen ca. 5 jaar ziet dit er anders uit denk ik. vooral omdat films er meer en meer op gaan inzetten, de GPUs 10 bit HEVC encoden/decoden kunnen en het dus ook voor de content creator zinvol is 10 bit content te maken, aangezien de gebruiker het ook echt gaat gebruiken en niet gewoon quantiseert naar 8 bit.
Ik kan het toch niet laten hier op te reageren... iemand moet mij er nog van overtuigen dat deze hogere bitwaarde voor de OUTPUT echt zin heeft. Jou plaatje is een overtrokken schets van de werkelijkheid. Na alles wat ik gezien en getest heb, is een 24 bit output alles wat wij als mensen nodig hebben. Bij INTERNE BEREKENINGEN wordt dit verhaal anders, daarbij is hogere bitwaardes nuttig. Tevens geloof ik geen zak van het HDR verhaal van 4K TV's.. final output = altijd 24bit = altijd genoeg.

Mogelijk gaat bij compressie van video meer detail verloren en is een hogere bitwaarde nuttig voor het verwerken van het beeldbateriaal. Maar het uiteindelijke plaatje wat je ziet blijft 24 bit.

Ik gebruik zelf ook een 10 bit scherm, Dell 2410 en ik geloof dat dit met photoshop enzo, met veel transparante lagen werken enzo voordeel heeft, zo krijg je minder snel last van banding enzo, maar het uiteindelijke plaatje blijft gewoon 24 bit BMP (bijvoorbeeld). Maar mogelijk mis ik iets want ik begin meer en meer achter te lopen op dit gebied.
Toch blijf ik erbij dat het grotendeels marketing is en onwetendheid. Altijd maar weer meer kleur, mooier zwart whatever bla bla omdat de eerste generaties LCD's zo verschrikkelijk veel slechter waren dan CRT's...

En ja, intern willen we veel meer bandbreedte vanwege complexe lagen, vooral ook in videogames is dit duidelijk zichtbaar beter sinds videokaarten intern op hogere precisie zijn gaan werken, maar de final uitput is ook hedendaags gewoon 24 bit na mijn weten.
Het kan goed zijn dat Photoshop zelf al dithering toepast als je het als 24 bits afbeelding opslaat en zo net als bij het origineel geen last van banding hebt. 10 bit per kanaal voor het originele bestand heeft dan ook voor 24 bits monitors voordelen.
8 bit is genoeg op een SDR scherm ja
maar op HDR waar men veel breder gaat met het spectrum ga je banding wel erg duidelijk zien.

dus ja het is prima op je huidige monitor maar met een HDR rec2020 scherm ga je echt niet blij zijn met 8 bit
Wat je nu stelt is gewoon dom, wat denk je dat hdr betekend waar bijna elke tv fabrikant mee aan het stunten is.
Dan kun je net zo goed stellen dat groter dan hd aan pixels onzinnig is of sneller dan 59hz want ja wie gebruikt dat nou...
Dvi loopt op zijn "ondersteunde" eind het lijkt er voorlopig niet op dat er nog een release komt van een dvi type met een hogere bandbreedte.
HDR (groter bereik in lichtsterkte) monitoren zijn geen gemeengoed en zijn zeker niet al 10 jaar beschikbaar.

HDR op de manier van een groter bereik terugbrengen tot het bereik dat weergeven kan worden bestaat al lang, maar dat is puur iets softwarematig en is nou precies wat er niet bedoeld wordt met HDR bij nieuwe TVs. Een groter bereik moet juist de noodzaak hiertoe verminderen. Je hoeft het bereik dan niet langer (zo sterk) te comprimeren.
Misschien moet je je toch wat meer verdiepen in technieken voordat je denkt dat 't allemaal marketing is.

Softwarematige HDR is compleet iets anders dan hardwarematige HDR waar TVs nu mee bezig zijn.

Softwarematige HDR is dat als je lichtintensiteit tussen 0 en 1 loopt, en je scherm in die range van minimale brightness tot maximale brightness loopt, je toch waardes van >1 toestaat in je berekeningen, zodat je na een reflectie van licht op een materiaal (wat altijd iets van licht opsnoept) alsnog een waarde van 1 over kan houden, en dus nog steeds als "bright white" weergegeven wordt op je scherm. Denk aan de zon die op een lichtgrijs oppervlak toch best wel verblindend kan zijn, ook al is grijs toch echt donkerder dan wit.

Hardwarematige HDR is niks anders dan je zichtbare range verhogen, waarbij je dus daadwerkelijk intensiteiten >1 hebt (relatief natuurlijk) en die ook als zodanig weergeven worden.

De termen zijn overduidelijk overloaded, dat is dan wel weer aan de marketing te wijten...
HDMI is gewoon hetzelfde signaal als DVI maar dan met geluid erbij
Ik gebruik voor mn 1080p 144hz scherm zeker nog DVI! Fijne aansluiting :)
Maar waarom? Ik kan me voorstellen dat het uit nostalgie is ofzo :p zo'n lekkere stevige connector met schroefjes. Maar DP heeft toch meer bandbreedte en functies? Dat je HDMI over zou slaan snap ik wel, da's gewoon DVI in een brakke connector ;)
of mn videokaart ( Asus 970) of mn monitor (philips 144hz ding) doet raar met DP op 144hz. DVI werkt wel goed :P
"raar" als in "scherm dat niet meer uit stand-by wilt en/of computer geen beeld wilt geven als deze was opgestart terwijl het scherm uit stond?"

Ik kan hier helaas over meepraten...

[Reactie gewijzigd door born4trance op 27 juni 2016 18:32]

Scherm wordt op t halve scherm weergegeven, geen beeld, geen standby etc...
Dit is helaas ook mijn ervaring met 2 van mijn GTX970 kaarten. Constant problemen met de displayport(zwarte schermen) Op dvi en hdmi geen problemen. Ik mijd de displayport dan ook het liefst. Daarnaast is dvi ook te gebruiken bij wat oudere schermen. En idd. heel eenvoudig dmv een adapter naar hdmi te verbinden. Dus DVi is zeker nog niet aan z'n eind.
ik heb vergelijkbare ervaringen met mijn 970 en 1440p monitor.
Mja, kan ook niks anders bedenken dan nostalgie.

DP kan ook meer kleuren weergeven.
Mijn monitor (24" BenQ) heeft alleen DVI/VGA? En vga werkt zelf nog perfect met fullhd.
Ik gebruik hier geen apparatuur die je direct op een HDMI poort aan kan sluiten. (Een HDMI -> DVI-D kabel werkt uiteraard wel.) Het is niet zo dat ik met zwaar verouderde apparatuur werk, mijn Cintiq 24HD komt uit 2014 en ondersteund geen DP. DP heeft waar ik nu DVI gebruik geen enkel voordeel.
Ik heb nog graag hdmi. Daar doet de 5.1 receiver bij de pc het mee.
Precies ja. Zodra je een PC of andere randapparatuur met een receiver gaat combineren is HDMI niet te vermijden.

Vind de scheiding dan persoonlijk ook prima. HDMI wanneer je met een receiver/TV gaat combineren, DP als vervanger voor DVI voor de schermen die niets hoeven te doen met audio (monitoren dus). DVI is trouwens ook nog steeds dikke prima op lagere resoluties.
Al mijn schermen zijn ook aangesloten met dp hoor. Alleen als hdmi van alle kaarten verdwijnt moet ik een geluidskaart met hdmi gaan zoeken welke dun gezaaid zijn, en laatste keer dat ik keek was dat nog behoorlijk prijzig.

Een 5.1 receiver is trouwens ideaal voor bij de pc, veel betere speakers dan de standaard pc bende.
Kan hdmi (buiten 1.4b) wel 90hz op 1440p aan?
Ikzelf gebruik HDMI voor mijn primaire monitor en DVI voor mijn oude secundaire ding (die met VGA ook op mijn oude computer aangesloten is)
Ik maak gebruik van een 2560x1600 HP LP3060, deze heeft alleen maar dual link DVI aansluitingen. Maar geen problemen met booten. Ook niet hoger dan 60 hz te krijgen, dus dat scheelt vast.
Waarom niet. Doorgaans gaat je scherm een stukje langer mee dan je pc.
Ik neem aan dat je het hebt over HDMI 2.0 of hoger? Want gewone HDMI kan geen 144hz aansturen. Ik gebruik persoonlijk een Benq 144hz 1440p paneel en moet eerlijk zeggen dat de meegeleverde DVI-D kabel zijn werk prima doet. Ben alleen overgestapt naar de meegeleverde DP kabel vanwege het feit dat hij hetzelfde doet maar een stuk smaller is en dus wat eleganter/makkelijker weg te werken.
Mijn BenQ monitor is een 1080P model op 144hz. Deze heeft alleen VGA, HDMi en DVI als aansluitmogelijkheid. Terwijl deze toch maar 2 jaar oud is.
Een monitor gaat doorgaans lang mee. Waarom zou ik mijn dvi monitor weg doen als hij nog prima werkt?
Ja de meeste 144hz monitors denk ik, ik heb zelf een BenQ XL2411Z.
High-end GPU's hebben bijna alleen maar DVI poorten. Dan zitten er 4 DVI-D en 1 HDMI poort op.
Ik denk dat je in de war bent met Displayport. Veel 'gangbare' after-market videokaarten hebben 1 DVI-D poort, 3 x Displayport en 1 x HDMI.
als ze al een dvi aansluting hebben.
Je vergist je met Displayport!
Ik kijk even naar de GTX1080 met welgeteld 3x DP, 1x HDMI, 1x DVI-D.
bedrijf hier, wij krijgen nog regelmatig thinclient geleverd met alleen een VGA aansluiting.
Slechte zaak, dat bedrijven haar werknemers nog via VGA naar een scherm laten kijken. Dat is duidelijk zichtbaar slechter beeld dan digitaal aansluiten. En mijn inziens dus ook slechter voor de ogen.
heb een backup systeem staan met een GTX970, en een 23" full hd monitor, waarbij ik DVI MOET gebruiken.
Met HDMI krijg ik random blackouts die 10s kunnen duren, maar ook 30.
En dit kan 1x/uur gebeuren maar ook 10x in 5 minuten.
Probleem is 9 van de 10 keer een brakke HDMI kabel. Er kan dan niet genoeg bandbreedte door de kabel heen waardoor het signaal even wegvalt.

Mijn ervaring is trouwens dat kabels van 2 euro (bij de Action weg bijvoorbeeld), juist wel werken terwijl "stevige" kabels van 20 euro het laten afweten. Vooral op de hogere resoluties is dit merkbaar, UHD bijvoorbeeld. De HDMI standaard niet is helemaal fijn door de fabrikanten overgenomen lijkt het soms.
Ja, ik had een paar goedkope kabels liggen, die werkten niet, mijn zwager had nog kabels liggen uit een andere prijsklasse ("deze zijn veel duurder dus moeten ze wel beter zijn"), die werkten ook niet.
Toen vreesde ik toch even dat ik een foute monitor of videokaart had.

Toen heb ik even de DVI gebruikt, perfect beeldkwaliteit en nooit meer last gehad. :*)
Als ASUS STRIX GTX 970 gebruiker heb ik alleen maar problemen ondervonden met DP:

- beeldscherm dat niet meer uit stand-by/slaapstand was te halen
- computer dat geen beeld wilde geven als deze was aangezet terwijl het scherm uit stond (systeem herstart was dan vereist)

Met DVI ondervind ik deze of andere problemen niet.

Het updaten van m'n drivers of gebruiken van oudere drivers maakte geen enkel verschil.

Ik heb overigens een ASUS PB278 1440p als monitor en een ASUS P8Z77-V PRO als moederbord.

[Reactie gewijzigd door born4trance op 27 juni 2016 16:17]

Ja hoor. Ik gebruik het om mijn 144hz scherm aan te sturen. De DVI kabel had ik nog liggen en bij mijn monitor zat geen DP kabel. Waarom zou ik dan een DP kabel gaan kopen?
Mijn acht jaar oude 30" dell met 2560x1600 reso heeft alleen dual link dvi en doet het nog prima. Niet boven 60Hz vermoed ik dus zal wel goed gaan als ik upgrade :-)
Hopelijk is het slechts een flinke bug in de driver, want het zou heel zuur zijn voor de eigenaren als dit een hardwareprobleem is.

Het zijn immers juist de DVI-versies van die Koreaanse schermen die zo leuk overclocken. DL-DVI is daarom echt wel nodig.

[Reactie gewijzigd door RobinHood op 27 juni 2016 14:24]

Hopelijk is het slechts een flinke bug in de driver
Kan niet, het gaat om boot, dan is de driver nog niet actief. Waarschijnlijk is het te verhelpen met een firmware update.
Helemaal overheen gelezen + een kwartje wat niet viel.

Dan moet het toch wel een hardware probleem zijn?

Pijnlijk, erg pijnlijk.

Als een of ander lullig low-end kaartje dit probleem zou hebben, is het nog niet een hele grote ramp, maar mensen kopen juist de 1070 en 1080 om eens lekker op hoge resoluties en hoge refreshrates te gamen.
Zoals ik al zei, het zou evt ook met een firmware update opgelost kunnen worden. Het lijkt me juist geen hardwareprobleem, omdat het pas optreedt bij het booten. Het lijkt wel te werken als je in Windows gewoon die mode selecteert. Dat suggereert dat firmware de boel ophoudt tijdens de POST.

[Reactie gewijzigd door .oisyn op 27 juni 2016 15:33]

Mocht het een hardwareprobleem zijn ben ik er vrij zeker van dat ze hun exemplaar kunnen inruilen voor een nieuwe revisie. Dat Nvidia dit niet leuk zal vinden staat wel vast :9

Over problemen gesproken, iemand dat SA toevallig ooit wat geld heeft toegestopt?
https://semiaccurate.com/...its-nvidia-consumer-gpus/

Op het forum (https://semiaccurate.com/...d.php?p=267089#post267089) wordt er volop gespeculeerd wat er kan spelen, maar het zou zo maar kunnen dat Nvidia met grotere problemen zit dan dit artikel alleen..
Nvidia vind een dergelijke omruilactie vast niet leuk, maar de kersverse eigenaren van deze kaarten ook niet. Levertijden zijn uitermate beroerd en als alles wat geproduceerd is ook nog eens teruggeroepen moet worden om te repareren / om te ruilen dan wordt de levertijd nog wel enkele maanden opgeschoven vermoedelijk.

Laten we hopen dat het met een firmware-update oid op te lossen is.

[Reactie gewijzigd door MadEgg op 27 juni 2016 15:02]

Stomme paywall op SA is stom :( Ben, dankzij het clickbait-gehalte, wel erg nieuwsgierig.

Alleen al een nieuwe revisie maken is een kleine ramp voor Nvidia, bij videokaarten is het niet zomaar even een nieuwe chip erop plakken en gaan met die banaan. En dan nog mensen die inderdaad kaarten gaan inruilen :/

En die problemen die er volgens SA zijn, tja, met een beetje geluk voor Nvidia zijn het yield-problemen, en dan niet omdat het proces eigenlijk ongeschikt is voor high power ontwerpen, maar puur dat TSMC dingen aan het verprutsen is. Dat gaat immers nog over, maar kan lang duren.

Is het een fout in het ontwerp, wat het dus kan zijn getuige de DL-DVI problemen, dan kan Nvidia echt grote problemen hebben. Als AMD die niet heeft, kan het wel eens vrij spel voor AMD worden deze generatie.
Semi-accurate is vaak ook speculatief. Desalniettemin ben ik wel benieuwd wat ze de melden hebben.

edit: Hier wat meer info over de wafer issues bij TSMC (wat ook zou blijken uit het semi-accurate artikel).
TSMC wafer issues

[Reactie gewijzigd door Luckeh op 27 juni 2016 15:02]

Moet je inloggen om dat artikel op semiaccurate.com te lezen? ik zie het artikel zelf niet op de site staan. Kan aan mij liggen.
NVidia kan zich gewoon beroepen op de Specificaties voor DVI. Daar houden zij zich aan, mensen die buiten de specificaties willen treden doen dat dus op eigen risico. NVidia zal er niks aan doen.
Klopt dat wel?
Na 330MHz gebruik je twee links maar volgens mij was er verder geen maximum.
Als je een Videokaart van 800 Euro aanschaft mag ik hopen dat je een fatsoenlijke monitor hebt met HDMI en DP.
De GTX1070 heeft dit probleem ook die is al veel goedkoper

En de genoemde Koreaanse schermen zijn prima schermen. Een 1440p PLS scherm die over de 100hz gaat is zeker geen goekoop hakkietakkeschermpje.

Wil je iets soortgelijks nu kopen in NL, dan ben je het goedkoopst uit met een pricewatch: Asus MG279Q Zwart, van bijna 600 euro zoals je kan zien. Die Qnix dingen waren iets van 300 euro als ik het me goed herinner.

Goedkoop? Ja. Fatsoenlijk? Ja.
Probleem ligt ook nog eens bij de gebruikers zelf, want die hebben hun schermen overclocked boven de standaard DVI waarde.
En daarom werken alle andere videokaarten van de afgelopen jaren er gewoon prima mee? Dit is voor het eerst dat een serie kaarten problemen geeft.

Ja, het is officieel buiten spec, maar dat is je geheugen of GPU overclocken ook.

Het is ook niet heel ongebruikelijk om te doen in het echte gameswereldje, want je kan zo toch net wat meer performance uit je scherm persen dan je al had.

Dat een videokaart van dit kaliber het niet ondersteunt en direct bootproblemen geeft, is echt wel problematisch.
Beeldschermen zijn minder aan vervangen toe dan videokaarten, en waarom wil je uberhaubt hdmi op je beeldscherm? het is geen tv. (de hoeveelheid beeldschermen met ingebouwde boxen zijn zeer klein)
Monitors gaan langer mee dan videokaarten. Ik heb een 144hz monitor die alleen VGA, HDMI en DVI heeft en alleen DL-DVI bied genoeg bandbreede voor 144hz
Waarom wordt DVI nog gebruikt? En wat als je een DVI-naar-HDMI/DP verloopstukje gebruikt?
Ik denk omdat mensen hun monitor en kabels nog niet in de kliko willen mikken.
Ter aanvulling. DVI heeft zowel digitaal als analoog signaal. VGA kan aangesloten op DVI. Met de andere aansluitingen kan dat zover ik weet niet.

Idd. denk ik dat er nog mensen genoeg apparatuur op vga hebben of die aansluiting gebruiken met zo'n kabel. Er zijn best wel wat flatscreen monitors/tv's die vga hebben.
Je hebt 2 soorten DVI, DVI-D en DVI-I, DVI-I kan analoog en digitaal signaal dragen. waar DVI-D alleen digitaal kan (dual link)

[Reactie gewijzigd door infernal_nl op 27 juni 2016 16:53]

3 soorten, je vergeet DVI-A
DVI-Digital (DVI-D), DVI-Analog (DVI-A), DVI-Integrated (DVI-I)
Niet actieve verloopkabels zijn sowieso alleen single-link voor zover ik weet. Dus daarmee zou het niet moeten optreden.
Ik gebruik nog DVI, omdat ik een 1080p 144hz scherm heb. 144hz wordt niet ondersteunt door HDMI 1.2. Je hebt dus een dual link DVI-D kabel nodig(single werkt namelijk ook niet) ;)
Omdat DVI nog een prima standaard is.

HDMI heeft toch wel de nodige nadelen, zoals de beperkte bandbreedte op heel veel kabels en poorten. Volgens mij lever 1.4b pas voldoende bandbreedte om een 1440p scherm meer dan 90hz aan beeld te kunnen geven.

DP is nog vrij nieuw, en is pas sinds niet al te lang normaal aan het worden op goedkopere schermen.

Echter, deze schermen hebben alleen maar een DL-DVI ingang, en werken niet met omvormers. Geen hoge clock kunnen halen op je DVI is dus echt een probleem.
Voor sommige Koreaanse 144p monitors.

Of misschien voor mensen die geluid en beeld 'los' willen hebben. Bijvoorbeeld beeld op je monitor en geluid via de speakeruitgang op boxen of versterker. Hoewel je dat via HDMI ook (eenmalig) makkelijk voor elkaar krijgt door een audio output setting te veranderen.
Afaik valt meer dan 60Hz op 2560x1440 ook buiten de specs van dual-link DVI. Niet vreemd dat het problemen oplevert.
DVI-d (dual link) kan juist wel 144hz op 1440p. DVI (single link) kan dit niet. Wezenlijk verschil tussen de 2 kabels.
Dual link kan wel 1080p op 120hz aan, maar niet 1440p op 144hz.
Voor zover ik weet tenminste.

[Reactie gewijzigd door EliteGhost op 27 juni 2016 14:58]

Heb het zelf geprobeerd en levert geen problemen op. Mijn Benq leverde zelds een Dual Link mee (144hz 1440p scherm)
Dat iets werkt betekent niet dat het binnen de specificaties valt. Eigenlijk "overklok" je nu DVI.
Fair enough. Er zijn wel een heleboel gemengde singalen op internet hierover tho. Dus zelf proberen kan niet echt kwaad.

Edit: even vooropstellen dat ik een 390x gebruik en geen 10x0 kaart. Even om verwarring te voorkomen

Edit 2: Gemengde "singalen" was geen woordgrap.

[Reactie gewijzigd door Juliuth op 27 juni 2016 15:30]

Nee. Ze hebben de kabel alleen niet op meer getest. Maar dat wil niet zeggen dat het niet werkt. Net zoals THT. de fabrikant geeft een "garantie" dat het minimaal tot die datum goed is. Maar kan ook prima enkele dagen later nog goed zijn.
Vreemd, ik lees overal dat het (in theorie dus) niet mogelijk is.
Fijn dat het voor jou wel werkt :p
Nee je leest dat ze getest zijn op 1440p 60hz. Maar kunnen prima daar buiten presteren. Alleen zal het maximum per kabel kunnen verschillen.

Zo zijn er ook genoeg HDMI 1.3 die prima de specs van 1.4 aan konden. Alleen zijn ze nooit op 1.4 getest.
Alleen gaat alles boven 330mhz buiten de officiële standaard om. Als dat in het verleden gewerkt heeft mag je in je handjes klappen, maar officieel zou dat niet moeten kunnen dus. Nvidia is met deze kaart blijkbaar wat strenger qua support van standaarden, iets wat in mijn ogen niet slecht is.
Nee, dat is niet wat ik lees. Wat ik lees is wat sfranken al schreef.
Het kan wel, maar is buiten spec.
Het klopt inderdaad dat het buiten de officiële specificaties valt van dl-dvi, dat zal ik nog even toevoegen. Het is echter opvallend dat het nu pas lijkt te manifesteren in een probleem, met de nieuwe videokaarten. Deze monitor wordt al jaren door veel gamers gebruikt via dvi op hoge refreshrates en dergelijke problemen leken eerder niet voor te komen.
Tjah, nVidia zal altijd getest hebben binnen de specificaties. Alles wat er buiten valt is "nice to have" maar in principe geen vereiste. Dat zoiets in het verleden perfect werkte hoeft dus niet te betekenen dat het zo moet blijven. Al lijkt het feit dat het een driver issue is wel aan te tonen dat men er nog rond zou kunnen werken door bij het opstarten automatisch een lagere clock te gebruiken en deze pas te verhogen wanneer Windows volledig gestart is.
Tevens heeft bv pricewatch: Asus MG278Q Zwart ook gewoon een dvi-d aansluiting. Wel vreemd om een aansluiting te maken als hij er niet volledig gebruik van kan maken.
Zo vreemd is dat niet, zo zijn er diverse 1440p monitoren waar een VGA aansluiting op zat, terwijl daarop maximaal 1980x1200 ondersteunt werd. Best handig als je tijdelijk een wat oudere pc aan wilt sluiten.
Zoiets las ik ik ook. Als men meer dan dat wil op een dvi kabel moeten er meerdere kabels worden gebruikt... als dat kan?
= geen support voor een monitor die door redelijk wat gamers word gebruikt.
hoop toch echt dat dit gewoon iets is waar ze niet aan gedacht hebben VS geen support willen leveren voor deze monitoren / aansluiting.
waarom is dit nieuws? immers gaat men ver buiten de specs van DVI dus het zou men niet moeten verbazen dat het niet tof werkt.
Er is een verschil tussen niet tof werken en gewoon compleet niet werken ;)
Maar als het buiten de ondersteunde specs van de standaard gaat, dan hoef je in principe ook geen support van nvidia te verwachten.

Dat ze dit alsnog oppakken is prima, maar ook zeer naief van de kopers.
Nvidia moet het wel oppakken want zij krijgen hier de schuld van, ongeacht of het ook daadwerkelijk hun schuld is. Blijkbaar kun je iets wat eigenlijk niet zou moeten werken, gebruikers ervaren daar nu problemen mee, dus moet Nvidia het maar oplossen. Het niet oplossen is je klanten naaien (in de ogen van de gedupeerden).
En dat is imho een totaal verkeerde visie. Er zijn standaarden en die moet men respecteren. Gaan we straks nog Intel aanklagen omdat een CPU niet meer zo goed te overklokken is als een vorige generatie? Dat je iets buiten specs gebruikt is leuk, maar het niet werken ervan is toch echt niet de schuld van de fabrikant.
Ik zeg ook niet dat ik het er mee eens ben, maar zo kijken veel gebruikers er tegenaan. Dus Nvidia zit wat dat betreft klem.
Aanklagen kan niet, maar de reputatie kan bij de enthousiastelingen wel degelijk een deuk krijgen. Zie Sandy Bridge en de teleurstellende opvolger.
Blijkbaar kun je iets wat eigenlijk niet zou moeten werken,
Wat kan je dan wat eigenlijk niet zou werken? Meer dan 60Hz aansturen op een hoge resolutie niet, want dan start je pc niet op. Het werkt dus daadwerkelijk niet.
waarom hoor je mensen dan ook niet klagen dat hun 1080 "maar" 2.1ghz haalt ipv 2.5ghz wat toch zeker zou moeten in hun ogen?

je komt buiten de DVI specs, en niet een klein beetje ook. dat nvidia het anders doet in deze serie om geld te besparen of een andere reden maakt neit echt uit, men gaat zo ver buiten de specs dat je blij mag zijn dat het uberhaupt ooit heeft gewerkt.
Linksom of rechtsom als je je scherm aan wilt sturen die met je vorige GPU('s) al werkte op 1440p@90/144Hz en je kan daar geen DP op gebruiken dan is het gewoon een miskoop...

Als elke 1080 2,5Ghz haalt en die van pietje niet gaat ie echt wel klagen/zeuren, terecht of niet. Als je nou eenmaal iets gewend bent of vanzelfsprekend is (los van de theoretische specs) is het gewoon klote als het tegen valt.
Waarom hebben andere GPU's er geen last van?
nvidia heeft kennelijk in hun nieuwe generatie een strakkere implementatie van DVI.

gezien hoe ver deze overklok buiten de specs liggen van DVI kan je ze dat niet echt kwalijk nemen.
Vind ik wel. Dus eerst een oudere 970 op mijn pricewatch: Asus MG278Q Zwart
bv. En dat werkte eerste prima. Dan neem ik een snellere en betere kaart in de ogen van een hoop mensen. En dan begint de ellende. zolang het eerst werkt zou het nu ook gewoon moeten werken. Tevens is het een vereist en dus ook getest op minimaal 1440p 60hz. Maar dat wil niet zeggen dat er niet meer door heen kan. genoeg kabels die HDMI 1.3 hebben gekregen kunnen ook gewoon door als HDMI 1.4 of zelfs 2.0 als je mazzel had.
het is geen ellende, je hebt geluk gehad dat het eerst werkte buten de specs, maar daar kan je geen rechten aan ontleden of nu stampvoeten dat het nu ineens niet meer werkt. het is een keuze geweest van nvidia, als men daar niet tevreden mee is dient men te spreken met de portemonee en zoeken naar een conncurerend bedrijf.
Welke ellende? Je pakt de bij je monitor meegeleverde DP kabel, sluit die aan en klaar is klara...
Het was natuurlijk een voorbeeld. Als je eerst om wat voor reden dan ook eerst de dvi gebruikte en die netjes achter je kast heb weg gewerkt is kan het een ellende zijn om die te vervangen is het wel ellende. zeker omdat het eerst prima werkte. en nu om wat voor reden dan ook ineens niet meer.
Maar goed dat ik gekozen heb voor een tweedehands GTX970 in plaats van een GTX1070 voor mijn QX2710 @ 120 Hz. :D

Die Pascal launch loopt niet lekker zeg trouwens.
Eerst problemen met de Founders Edition koeler.
Daarna (en nog steeds) enorme problemen met de levering.
En nu dit.
Mooi, maar ik betwijfel ten zeerste of dit aan de videokaart ligt of gewoon een limitatie van de kabel is. 1440p gaat immers niet hoger dan 60hz op zo'n dual link dvi kabel.
Wel op een overclock. :D
Mijn QX2710 heeft alleen DVI-D (dat is het enige model dat goed overclockt) en ik draai gewoon 120 Hz zonder frame skipping...
Maar is dat dan ook op 1440p?
nee inderdaad pascal heeft veel problemen performance is fantastisch, maar de lauch is idd zo belabberd je zou denken dat een bedrijf als Nvidea wel zou zorgen voor wel genoeg vooraad. Ik vroeg een aantal dagen aan een winkel hoelang het zou duren voordat ze weel de strix 1070 hadden en ze zeiden een maand 0.o en dan de prijs die er momenteel aan vast hangt is ook belachelijk 540 euro
Ik heb een GTX980, heb zitten denken met aan een GTX1080 omdat ik een PG348Q heb (ultrawide 3440 x1440 @ 100hz)
Zou jij een 2e GTX980 nemen of een enkele 1080?
Voor aankoopadvies kun je terecht op het forum....

Afgezien van dat zou ik altijd 1 krachtigere GPU aanraden boven 2 mindere.
Ja precies, zeker met al die brakke Console Ports met slechte of geen SLI ondersteuning.

Er gaat niets boven een enkele krachtige videokaart die altijd voor de volle mep werkt.
Ik zou voor een 1080 gaan. Als je een beetje de benchmarks volgt van dx12 en de 980 dan komt deze kaart er niet best uit, en al helemaal niet op hogere resoluties.

reviews: Nvidia GTX 1070 en 1080

Zal vast wel iets over de drivers te vertellen zijn maar alle oude maxwell kaarten missen gewoon een belangrijk stuk hardware waar de nieuwe API's veel gebruik van gaan maken. En persoonlijk denk ik dat dit nog wel een staartje gaat krijgen onder de vele gebruikers van deze kaarten wanneer dx12 games meer de norm zijn en de snelheid gewoon slecht is. Er blijft nu al niks meer over van de 980 @4k resolutie in tegenstelling tot een 290x

[Reactie gewijzigd door LocK-NaH op 27 juni 2016 22:43]

Het verrast mij om te horen dat er nog DVI kabels worden gebruikt. Op mijn monitor heb ik geeneens meer een DVI aansluiting.

Maar ik vermoed dat de meeste gebruikers niks van deze bug merken?
Het verrast mij om te horen dat er nog DVI kabels worden gebruikt. Op mijn monitor heb ik geeneens meer een DVI aansluiting.

Maar ik vermoed dat de meeste gebruikers niks van deze bug merken?
Alleen hardcore gamers met de configuratie zoals in artikel. De grootste markt welke dit soort kaarten koopt dus.
Gebruik zelf nog DL-DVI gewoon omdat die kabel bij m'n 27' Dell bij zat. HDMI kabels vind je bij de vleet, conversies ook, maar displayport kabels zijn niet makkelijk te vinden. Anders was ik zelf ook al overgestapt gewoon omdat de kabel flexibeler is dan een DL-DVI.

Over de problemen met de GTX1000 reeks kan ik niet meepraten, geen nood aan. GTX780 voldoed nog steeds.
naast dit probleem, is er ook een hotfix uitgebracht voor stotteringen. Dus de problemen stapelen zich lekker op zo. Heb zelf de 1080 en werkt met de hotfix, maar had de kaart bijna terug gestuurd.
Zucht. Toevallig heb ik dit scherm en ben ik van plan een nieuwe pc samen te stellen. Daar komt dus ook een goede videokaart in. Dus als ik dit zo lees gaat het problemen opleveren. Ik heb een 144hz game monitor geprobeerd en na 10 minuten was het al zo klaar als een klontje; terug naar mijn qnix 2710.

De reden?

Het oog wil ook wat. Want het verschil tussen een 144hz monitor en het bovengenoemde qnix scherm is gigantisch. De kleuren zijn zoveel mooier en je hoeft niet recht voor het scherm te zitten om alles fatsoenlijk te zien (kijkhoeken). Het scherm draait bij mij op 100hz en ik heb er nog nooit problemen mee gehad. Schijnt zelfs nog op 120hz te kunnen. Maar goed als hier geen oplossing voor komt weet ik ook niet wat ik moet doen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True