Microsoft test 12k-gaming met custom AMD-drivers

Een medewerker van Microsoft heeft als experiment een krachtige game-pc gebouwd waarmee Dirt 3 gespeeld kan worden op een 12k-resolutie met een framerate van 60fps. AMD heeft voor het experiment custom drivers moeten schrijven voor de drie Asus 7970-gpu's die in de pc zitten.

Voor het experiment maakt Microsoft gebruik van drie 32"-monitoren met 4k-resolutie waardoor de totale resolutie uitkwam op 11.520x2160 pixels, vergelijkbaar met twaalf full-hd-monitoren. Gavin Gear van Microsoft legt op het Extreme Windows Blog uit dat het bouwen van de game-pc onder meer custom drivers vergde om de videokaarten drie 4k-schermen op 60Hz aan te laten sturen. Normaal gesproken kunnen die de 4k-schermen met maximaal 30Hz aansturen.

Om 60Hz op een 4k-scherm mogelijk te maken is multi-stream transport vereist: deze techniek deelt het signaal vanaf de videokaart in twee zodat twee virtuele monitoren ontstaan. Omdat die twee virtuele monitoren een 'halve' resolutie hebben kan een hogere verversingsnelheid ingesteld worden. Met een enkele monitor lukte dit probleemloos, maar drie monitoren via Eyefinity gaven problemen.

Uiteindelijk lukte het Gear om Dirt 3 te spelen op 'high settings' met een gemiddelde framerate tussen de 62 en 67fps. Een knappe prestatie aangezien de enorme schermresolutie van de drie schermen op 60Hz vereist dat er per seconde bijna anderhalf miljard pixels gerenderd worden door de videokaarten. Helaas kan de gebruikte 750 watt-voeding het niet lang aan: de voeding knalt er telkens na een paar minuten uit.

Het game-systeem kostte overigens een flinke duit, maar liefst 17.000 dollar. Dat komt vooral door de 4k-monitoren die samen 15.000 dollar kostten.Gear meldt niet welke andere hardware wordt gebruikt, maar op een van de foto's op het blog lijkt het om een Asrock Fatal1ty 990FX Professional-moederbord te gaan. Daaruit is enkel af te leiden dat er een AMD FX-processor in de pc zit.

Microsoft experiment met 12k-gaming Microsoft experiment met 12k-gaming Microsoft experiment met 12k-gaming

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Door Christophe van Bokhoven

26-07-2013 • 15:36

145

Reacties (145)

145
140
56
11
1
62
Wijzig sortering
Echt weer hollanders om over geld te zeiken ipv over het filmpje.
Wel indrukwekkend, maar mijns inziens totale overkill. Bij 1080p heb ik nog geen problemen gehad dat de details te laag waren.
Ik verwacht overigens wel dat de PC gaming dit soort hoge resoluties in de toekomst vaker zal gebruiken en dat de consoles toch gewoon bij 1080p blijven.
Voor mij is het in ieder geval geen reden om naar pc-gaming over te stappen.
Ik vind het knap dat het spel er nog zo goed uit ziet op 3, 4K schermen aangezien we het daar niet voor ontwikkeld hebben, hoogstens voor 3 full HD schermen. Het hele spel is trouwens ontwikkeld voor 30 FPS dus vind het niet zo vreemd dat hij een redelijke game ervaring heeft bij 30-35 fps.
Dat kan kloppen, maar als je eenmaal een hoge resolutie meemaakt dan wil je dat zelf ook. Ik vond het verschil tussen 1080p en 4k namelijk erg groot. Helaas zijn 4k monitoren nog veel te duur voor mij.
als je 1080p gewend bent kan ik dat begrijpen, ik game zelf op 2560x1600, als ik nu mijn beeldscherm op 1920*1200 zet dan is het een wereld van verschil. Het is allemaal gewenning
100% gelijk. Ooit was ik resoluties van minder dan 320x240 gewent en die 320x240 vond ik enorm "scherp".

Mensen destijds verklaarde me voor gek, 160 × 200 was toch goed genoeg!? Echt, 320x240 was totale overkill!

Even later was iedereen gewent aan die 320x240 en toen was 640x480 scherp, en 800x600 was onwerkelijk. Ook toen ging het vingertje weer de lucht in. Ik was met onzin bezig. 800x600, dat is ZO scherp, dat zien je ogen niet meer. Idioterie! Totale onzin!

Effin... de geschiedenis blijft zich nog steeds herhalen... (en ja, op een gegeven moment is de rek er idd wel uit, maar nog niet met 1080p, en ZEKER niet 1080p op 32" of 40").
Sony zal denk ik maar al te graag naar 4K willen met de PS4 en de eigen lijn met TV's. Hoe snel het gaat is dan wel weer de vraag. PC gaming zal altijd meer cutting edge blijven.
De vraag is of je een 1080P spel wil zien op 4K. De PS4 ondersteunt geen 4K games.
Wel indrukwekkend, maar mijns inziens totale overkill. Bij 1080p heb ik nog geen problemen gehad dat de details te laag waren.
Dit hangt ook heel sterk van het spel af. Als je first-person spellen speelt dan heeft hoge resolutie vooral zin op langere afstand maar de first-person shooters die je op de console krijgt blijven qua schaal een beetje hangen op Battlefield, dan gaat het allemaal nog wel. Sowieso heb je voor dat soort afstanden waar de resolutie uitmaakt dan ook een muis nodig, omdat een controller niet precies genoeg is. Ik merk op de PC wel dat als ik op m'n kleine schermpje speel in 1920x1200 dat ik echt een beetje bijziend ben in DayZ of BF3 en dat ik op lange afstand geen mensen omgeschoten krijg omdat ik ze niet goed kan zien, in vergelijking met m'n 30" scherm.

Bij strategiespellen, adventures, sims en al wat dies meer zij is die hogere resolutie leuk, maar niet essentieel. Het wordt er wel echt heel veel mooier van, maar niet beter speelbaar. Bij RTSsen waar je ver in- en uit kunt zoomen is daar nog de caveat bij te plaatsen dat je flexibeler bent in wat je kunt zien zonder dat het een pixelbrei wordt, maar echt grote verschillen merk ik daar niet in.
Oei, Hij moet z'n Vsync aanzetten. (Zie 1ste plaatje bij boom.)

Wat een geld joh, hebben er echt mensen 17.000 euro voor over?
Dat, of de foto is gemaakt tijdens een refresh. Ik denk wel dat VSync met 3x4k kost nogal een sloot videogeheugen kost.
Anoniem: 471038 @martijnve26 juli 2013 16:18
Een LCD-scherm refresht niet op deze manier.
Dit komt doordat de backbuffer met de frontbuffer 'geflipt' wordt terwijl de DVI-link bezig is het beeld naar de interne buffer van de LCD te sturen. De eerste helft van het beeld is dus het oude frame, en de tweede helft is het nieuwe frame. Klassiek geval van 'tearing'.

Vsync aan of uit kost niet meer geheugen (je moet sowieso 2 buffers hebben, de framebuffer en een backbuffer om in te renderen). Ik denk dat je in de war bent met triple buffering.

Verder is het vrij gebruikelijk om de vsync uit te zetten, zodat je het maximum aantal FPS kunt meten, wat ze hier aan het doen waren. Als het goed is, zou ie *net* op 60 Hz met vsync aan moeten kunnen draaien ("we were able to maintain 62-67fps average, peaking over 70fps"), maar misschien dat ie ook af en toe net een frame zou missen, en dan dus even naar 30 Hz terugvalt.

[Reactie gewijzigd door Anoniem: 471038 op 26 juli 2024 14:18]

Dat klopt ook niet, want dat zou betekenen dat je met Vsync aan altijd maar een fps van 30 of een veelvoud daarvan kan hebben. Echter speel ik altijd met Vsync aan en heb ik regelmatig framrates die ver van een veelvoud van 30 afzitten.

Vsync is niets meer dan dat het frame dat door de gpu wordt uitgestuurd pas tijdens de eerst volgende refresh van het scherm getoond wordt. Op die manier kan je prima een fps hebben van 55 op 60Hz alleen heb je dan 5 "nutteloze" refreshes van je scherm aangezien het frame dan niet is verandert.

Het is idd wel zo dat je met Vsync niet je maximaal haalbare framerates zal halen omdat meer fps dan Hz geen nut heeft omdat er dan frames uitvallen en het zal voorkomen dat als een frame klaar is halverwegen een refresh deze zal moeten wachten tot de volgende.
Anoniem: 471038 @Spekkie8826 juli 2013 16:39
Dat klopt ook niet, wnt dat zou betekenen dat je met Vsync aan altijd maar een fps van 30 of een veelvoud daarvan kan hebben. Echter speel ik altijd met Vsync aan en heb ik regelmatig framrates die ver van een veelvoud van 30 afzitten.
Wat niet klopt is dat jij vergeet dat een framerate altijd een gemiddelde is over een bepaalde periode.
30 fps is dus een gemiddelde van 30 frames gedurende een periode van 1 seconde.
Maar tijdens die seconde zou je een aantal keren wat frames gemist kunnen hebben, dus zou ie momenten op 60 Hz, momenten op 30 Hz, of zelfs minder gedraaid kunnen hebben (ik heb het dan puur over de tijd tussen twee opeenvolgende frames, en niet een gemiddelde. Of eigenlijk zou ik de oude C64/Amiga-terminologie moeten gebruiken: iets draait in 1 frame, of 2 frames, of 3 frames etc).

Ik heb nergens iets dergelijks beweerd, dus ik begrijp niet goed waar je reactie op gebaseerd is.

Wat ik bedoelde te zeggen is dat het mogelijk niet helemaal smooth zou zijn met vsync aan, omdat je hem dan af en toe vrij abrupt ziet vertragen. Met vsync uit is een beetje schommeling in framerate niet zo dramatisch.
Het is idd wel zo dat je met Vsync niet je maximaal haalbare framerates zal halen omdat meer fps dan Hz geen nut heeft omdat er dan frames uitvallen en het zal voorkomen dat als een frame klaar is halverwegen een refresh deze zal moeten wachten tot de volgende.
Hier draai je het om: je kunt per definitie niet meer fps halen dan de refreshrate met vsync, omdat je altijd wacht tot het eerstvolgende frame met het flippen van de buffers. Er zullen dus nooit frames uitvallen, want het renderen van die frames wordt al vertraagd door het wachten op de vsync (met triple buffering is het eventueel wel mogelijk, omdat je vanwege de derde buffer niet hoeft te wachten totdat de frontbuffer weer vrijkomt, maar triple-buffering is vrij ongebruikelijk, en het tussentijds weggooien van al gerenderde frames nog ongebruikelijker).

[Reactie gewijzigd door Anoniem: 471038 op 26 juli 2024 14:18]

als ik met vsync uit glitches zie, wat regelmatige gebeurt gaat vsync aan. Triple-buffering ook, want dat geeft het mooiste beeld. Als de game dan niet op 60fps wil draaien met ultra settings, draai ik AA, shadows of andere eyecandy dingen uit. Alles beter dan die lelijke glitches.
Vsync is niets meer dan dat het frame dat door de gpu wordt uitgestuurd pas tijdens de eerst volgende refresh van het scherm getoond wordt. Op die manier kan je prima een fps hebben van 55 op 60Hz alleen heb je dan 5 "nutteloze" refreshes van je scherm aangezien het frame dan niet is verandert.
Als je 5 keer zo hoge refresh haalt als je monitor kan weergeven dan kun je net zo goed je AA opschroeven en die 4 keer zo hoog zetten. Anders gooi je de beeldinformatie toch weg en rekent je GPU alleen maar om de kamer warm te stoken.
...een medewerker van Microsoft...
Dit zal wel als project gefinancierd zijn. Dus daar hebben ze wel een budget voor. Uit dit project zal vast ook wel wat know-how uitkomen voor toekomste projecten.
Dit zal wel als project gefinancierd zijn.
Verwacht van wel ja. Die schermen kosten bijna €4000,- per stuk. :D
waarom doen ze dit dan in godsnaam met een 750 watt voeding 8)7 8)7 8)7
Nouja, dat je het probeerd alá, maar dat je weet dat het dus niet werkt en er dan wel mee doorgaan vind ik ook een beetje suf..
Ik heb de blog net gelezen. En volgens mij komt het door tijdsgebrek. Ze hadden schermen maar een paar dagen, en de ultieme test hebben ze gedaan op de dag dat de schermen weer terug moesten naar sharp. Dus ze hadden waarschijnlijk niet de tijd om een betere voeding te voorschijn te halen.
het zijn ook geen 3 dezelfde videokaarten
vermoedelijk hebben ze dus rap rap onderdelen uit 2 of 3 pc's samengestoken
Een voeding van 800 tot 1000 watt haal je binnen het uur bij een beetje fatsoenlijke pc onderdelen boer. Gaan kloten met een 750 watt voeding is dus beetje lame
Microsoft, sterke enterprise met sterke bedrijfhiërarchie, ik denk dat daar weer wat formuliertjes voor moet worden ingevuld, terwijl er iets in de kast ligt ik het er ook eerst mee zou proberen :P
dan heeft het ook geen 17k gekost, want de schermen(15k) is dus bruikleen.... 8)7
We hebben het over Microsoft, Microsoft en niet binnen enkele minuten een sterke voeding kunnen regelen? Nah, ik denk dat het juist leuk voor ze was om een sterk systeem te bouwen die te sterk voor de voeding was. Althans dat is geloofwaardiger dan zeggen dat MS geen tijd had (paar dagen) om even een sterke voeding te pakken..

Verder, tsja qua foto's denk ik van: is het dit? Zowiezo leek het me beter om een race spel op 1 groot 4k beeldscherm te zien (hoewel theoretische gezien de resolutie nu hoger zou moeten zijn) vind ik al die randen van de schermen tussen je beelden niet uitzien -.-
Ik heb de blog net gelezen. En volgens mij komt het door tijdsgebrek. Ze hadden schermen maar een paar dagen, en de ultieme test hebben ze gedaan op de dag dat de schermen weer terug moesten naar sharp. Dus ze hadden waarschijnlijk niet de tijd om een betere voeding te voorschijn te halen.
Ik weet niet hoe lang het duurt om een driver te schrijven speciaal voor deze setup, maar dat zal vast langer duren dan ff een andere voeding halen., dus nee, geen tijdgebrek, hier is over nagedacht en zullen hier ruim de tijd voor hebben gehad. Waarom ze er dan geen gebruikt hebben? Geen idee..
Ze kunnen wel nagaan dat 3 AMD 7970 gpu's samen al goed zijn voor ~ 800 - 900 watt, plus daarbij nog de processor. Als ze een 1200 watt voeding hadden gekocht (wat makkelijk kan met zo'n budget) hadden ze deze test uitbundiger kunnen uitvoeren, nu lijkt het meer op een mislukt hobby projectje.

Ik zou overigens wel héél graag Battlefield 4 op 3 4K schermen willen spelen. :D
3x7970 op een 750W voeding. Sorry maar dat is natuurlijk even iets over het hoofd zien!
Heel veel meer heeft het niet nodig hoor, het is net aan te krap. een 850Watt voeding was voldoende geweest...

Maar ik snap niet helemaal waarom nou op die voeding bezuinigd is :P Of is het doel onder de 750Watt te zitten?

[Reactie gewijzigd door watercoolertje op 26 juli 2024 14:18]

Maar ik snap niet helemaal waarom nou op die voeding bezuinigd is Of is het doel onder de 750Watt te zitten?
Omdat er helemaal geen budget was.

Je had natuurlijk de moeite kunnen nemen om even de bron te bekijken voor je reageert.
Het is geen officieel project van Microsoft of AMD. Het gaat om een blog en een experimentje dat een Microsoft en AMD werknemer samen gedaan hebben.

Gewoon met de voeding die de Microsoft medewerker in zijn PC had zitten. Die AMD medewerker kon wel makkelijk wat videokaarten meenemen, maar voedingen zullen ze daar niet in overvloed hebben liggen. Bovendien dacht ie dat het net zou moeten kunnen.
Ik had zelf CF 7970's icm een 750W Corsair en die zat regelmatig rond de 700W als ik OC'd icm met een OC'd CPU.. Net aan is dus niet het goede woord hier.
Ja OC daar heb je het al (daarmee loopt het inderdaad snel op), en die 700 watt slaat waarschijnlijk op wat je uit de muur haalt, en het vermogen van een voeding is nou net wat die voeding kan leveren niet wat ie verbruikt dus als je voeding 700Watt verbruikt levert ie maar 636 watt mits die 10% efficiënte heeft op dat punt, bij 20% efficientie is dat maar 583 Watt :)

Als je er 50 schijven in wil hangen is het ook niet genoeg, het ging er echter om dat wat Microsoft heeft gebruikt (en dus ZONDER OC) maar net iets te weinig heeft aan 750Watt (daarom draait het ook wel een paar minuten omdat het nog binnen het piekvermogen zit van die voeding), ik zei niet dat dat voor elke situatie zo was.

[Reactie gewijzigd door watercoolertje op 26 juli 2024 14:18]

Bijna, meeste PSU's doen een efficiëntie van 91 tot 94 procent, die rest trek je extra uit het stopcontact.

Maar zoals je zegt; die 750 was bijna voldoende omdat hij er na een paar minuten uitklapte. Een 850 watter had het waarschijnlijk net aan volgehouden. Echter hadden ze gewoon een kilowatt-voeding of meer moeten nemen om dit uit te sluiten.

Overigens was het budget misschien niet zo enorm groot want de schermen moesten terug en de videokaarten waren niet allemaal van hetzelfde merk. Waarschijnlijk het e.e.a. bij elkaar geraapt.
Ik denk zelf dat de gemiddelde voeding in een oem pc net onder de 80% tot 85% zit aangezien ik er nooit bronze certifacten tegen kom.
En de rest van de voedingen die ik zie heeft een minimale efficientie van 80% en een maximale van ongeveer 89%.
De 91% - 94% zie ik alleen bij gold en platinum voedingen waarvan ik er niet zo veel gezien heb in mijn omgeving. Beetje te hoog geschat denk ik.
Heel veel meer heeft het niet nodig hoor, het is net aan te krap. een 850Watt voeding was voldoende geweest...

Maar ik snap niet helemaal waarom nou op die voeding bezuinigd is :P Of is het doel onder de 750Watt te zitten?
Je wilt geen enkele machine of constructie voor langere tijd of continu voor meer dan 60-70% belasten,
dan slijt het veel sneller of krijgt last van materiaal moeheid. Dus als die setup 750 watt exact zou trekken, dan zit je alsnog met een 1000w als ondergrens.

Overigens kost een 1500 watt voeding écht niet 2-3x zoveel als een goede 1000 watter. Duidelijk meer, maar hoogstens een factor anderhalf tot twee, waardoor de prijs per watt nagenoeg gelijk blijft...
[...]


Je wilt geen enkele machine of constructie voor langere tijd of continu voor meer dan 60-70% belasten,
dan slijt het veel sneller of krijgt last van materiaal moeheid. Dus als die setup 750 watt exact zou trekken, dan zit je alsnog met een 1000w als ondergrens.
Materiaalmoeheid bij elektronica? Serieus?

Ik werk in industriële omgevingen en daar hebben we gewoon servers en frequentieregelaars die volcontinu onder 100% load draaien. En dat al 10 jaar aan één stuk zonder een hik voor elkaar krijgen.

Het enige wat er slijt en vermoeit zijn de mechanische onderdelen. Een vastlopende ventilator heb je veel eerder te pakken dan een CPU die 'uitbrandt'.
Tja dat is Microsoft hé, hardware is niet zo hun ding :)
Ik snap dat je gedownmod wordt en toch zit er een zekere waarheid in.

Microsoft zou beter moeten weten dan dit, alles wat ze doen en negatief kan geinterpreteerd worden haalt de bovenhand van het goede.

In dit geval is het falen van de voeding blijkbaar meer stof voor dictutie dan de prestaties die ze willen tonen zelf. Deze video hadden ze nooit mogen releasen, gewoon even zwaardere voeding er in en opnieuw.

Op deze manier versterken enkel hun "hardware is niet zo ons ding" stigma dat al rond hun hangt.

Al bij al leuke setup ;)
Heel leuk verhaal en heel leuk om wat moeilijke worden erbij te gooien, maar ik vind het juist eerlijk dat ze het erbij vermelden. Ze hadden het niet hoeven doen en een heel leuk marketing verhaal van kunnen maken en je zou het nooit hebben geweten.
dit is toch geen echte12k, net zoals een display van 720x1 pixels geen 720p is?
zelfs 8k heeft een hoger aantal pixels in de hoogte
word steeds erger met al de zelfgemaakte benamingen voor marketingonzin.
of is het gewoon tweakers dat onzin uitspuit?

[Reactie gewijzigd door reaL_G op 26 juli 2024 14:18]

Inderdaad, dit is 3x4k... 8k is: 7680×4320
echt 12k zou iets van: 11520 x 6480 moeten zijn...
Dus ook 3x zoveel in de hoogte...
nee, want dan had het 1x720P moeten zijn in 1e instantie ;-) en niet 720x1 ( dat zou dan als 1P geclassificeerd worden...)
Toch is 1x720 pixels volgens mij eel 720p. Het gaat om de minimale verticale resolutie.
Toch is 1x720 pixels volgens mij eel 720p. Het gaat om de minimale verticale resolutie.
Die aanduiding komt dan ook uit het tijdperk van de analoge video.

Bij een analoog video-signaal kun je namelijk niet van horizontale resolutie spreken. Bij een fatsoenlijke beeldbuis is de horizontale resolutie namelijk onbeperkt -- die wordt bepaald door de bandbreedte van het signaal wat ernaartoe wordt gestuurd.

Het horizontale signaal is namelijk analoog, en dat wordt in 'stukjes' gehakt om beeldlijn voor beeldlijn op te bouwen. En die beeldlijnen kun je niet anders dan discreet indelen, want anders weet een scherm niet meer waar ie op moet synchroniseren. Binnen de opbouw van die beeldlijn kun je het signaal zo snel op en neer flipperen als je maar zou willen.

Pas bij de komst van digitale beeldsystemen (dus geen televisies) werd het handig om ook de horizontale gegevens in discrete tijdstappen in te delen: Dat werd de pixel-clock. En het aantal tijdstappen dat het video-signaal in de horizontale richting neemt werd dan ook de horizontale resolutie.

Bij HDTV worden de aanduidingen nog in de verticale richting gegeven omdat er ook analoge HDTV-uitzendingen (en signalen, denk aan component of VGA) bestaan, net zoals analoge HDTV-monitoren. Bij UHD zijn alle signalen digitaal en daar gebruiken ze de horizontale resolutie, uitgegaan van een beeldverhouding van 16:9.

[Reactie gewijzigd door Stoney3K op 26 juli 2024 14:18]

Dat op 3 7970 kaarten zulke prestaties worden gehaald :o, ik denk dat ze ook een heleboel hebben geoptimaliseerd of heb ik dat?
Want? Zijn gewoon hihg-end kaarten he.
Ja maar wel op een resolutie van 12k..


http://www.legitreviews.com/article/1834/6/

150 fps, 1080p 8xaa, dit zijn trouwens 2 kaarten. De derde kaart zal max 20-30 fps erbij doen. Doe dit dan op 12k, lijkt mij onmogelijk zonder optimalisaties of ze hebben niet alle instellingen op high maar dan nog lijkt het me sterk.
Ze zeggen in de video dat ze 12K doen met medium settings he ;)
Of je luistert niet goed of tweakers heeft het dan fout? Ik kan het filmpje niet zien nu maar in het artikel staat wat anders:

"Uiteindelijk lukte het Gear om Dirt 3 te spelen op 'high settings' met een gemiddelde framerate tussen de 62 en 67fps. "

Op medium vind ik het wat minder dan op high, desondanks een knappe prestatie en hiermee blijkt dat AMD gelukkig nog mee kan doen. Al zal dit met een intel cpu ook nog wel kunnen...
Dat was op één 4K scherm :) Hoewel die gast daar dus weer framerates van 150+ laat zien met fraps... Ik vind het een vreemd geheel om eerlijk te zijn...
Het is MS die er mee naar buitenkomt, maar aangezien AMD een aangepaste driver moest leveren, vermoed ik dat AMD eerder was met deze setup.
Uit het artikel is volgens mij gewoon af te leiden dat AMD deze op verzoek van Microsoft heeft geschreven.
Bomen renderen is lastig :D
denk dat het gewoon een timing glitchje is van de foto en de monitoren. Die monitor is precies bezig met het opnieuw tekenen van z'n frame toen de foto genomen werd, dus is de onderste helft van het scherm nog het oude frame :)

edit: Of ik denk verkeerd met m'n nog grieperige hoofd, of er klopt toch iets niet (of ververst dat scherm van onder naar boven?). De boomstam is in de onderste helft verder naar rechts dan de rest van de boom in de bovenste helft. Er even vanuit gaande dat de kerel in het spelletje vooruit rijdt met de auto, zou de scenery (de boom dus) naar rechts bewegen.
Dus als dit een moment opname is tussen twee frames, waarom loopt de bovenste helft achter en niet andersom?

[Reactie gewijzigd door dipje2 op 26 juli 2024 14:18]

Volgens mij krijg je dat juist als vsync uit staat, zo ervaar ik ook vsync errors, precies zoals op die foto.

Het onderste beeld = het oude frame, het bovenste beeld = het nieuwe frame.
Dat verklaart dar daar de boom verder naar links is. Wat je ziet is dat het nieuwe frame niet afgemaakt is. De videokaart stopt daar en begint dan met een nieuw frame. Zo zie je dus deels nog de oude frame onderin het beeld.

[Reactie gewijzigd door Madrox op 26 juli 2024 14:18]

Daar kan AMD dus wel drivers voor ontwikkelen, maar een fatsoenlijke Linux driver laat al sinds jaar en dag op zich wachten.
Daar kan AMD dus wel drivers voor ontwikkelen, maar een fatsoenlijke Linux driver laat al sinds jaar en dag op zich wachten.
Ja, want de gewenste resolutie toevoegen aan een bestaande driver gaat nu eenmaal sneller dan een driver ontwikkelen voor een totaal ander platform wat toch enigszins tegengewerkt wordt door zijn eigen diversiteit vanwege de diversiteit aan distributies die er zijn.
Je argument klopt niet in dit verhaal want je hoeft maar een driver te ontwikkelen, namelijk een die onder de Linux kernel draait. Nou zijn er wel verschillende Linux-kernels maar ja, dat heb je met Windows ook.
Dat heeft niks te maken met verschillende distributies. En als het wel een probleem zou zijn dan was het ook het makkelijkst om op te lossen van het hele driver bouwen verhaal.
Nou zijn er wel verschillende Linux-kernels maar ja, dat heb je met Windows ook.
en hoeveel gebruikers per kernel zijn er? kritische massa is belangrijker dan erkenning in een niche-markt, tenzij zoals hier er veel PR mee kan worden gemaakt
"Helaas kan de gebruikte 750 watt-voeding het niet lang aan: de voeding knalt er telkens na een paar minuten uit."

En het komt niet in die sufkoppen op om in een pc van 17k dollar een 1200 of 1500w voeding te stoppen van nog geen 300-400 dollar? (corsair AX1200, enermax platimax 1500 of zo)


HERP DERP YOLOSWAG :+
En het komt niet in die sufkoppen op om in een pc van 17k dollar een 1200 of 1500w voeding te stoppen van nog geen 300-400 dollar?
Soms zie je heel slimme mensen zo gefocussed zijn dat ze de meest idiote foutjes maken.

Het zal inderdaad domweg niet in ze opgekomen zijn dat er zwaardere voedingen bestaan :X
Het zal inderdaad domweg niet in ze opgekomen zijn dat er zwaardere voedingen bestaan
Het zal domweg niet in jullie zijn opgekomen om eens die blog te lezen?

Dan had je het antwoord al geweten.
Je bedoelt het antwoord dat zij dachten geen krachtigere voeding nodig te hebben?...

Daar hoef ik het blog niet voor te lezen hoor, dat kan ik prima genoeg concluderen/deduceren uit enkel het Tweakers artikel :+
Ze hadden ook helemaal geen krachtiger voeding nodig.
Zoveel mensen die hier commentaar hebben op de gebruikte voeding, terwijl hun experiment perfect geslaagd is met de voeding die ze voor handen hadden.

Onbegrijpelijk...
Of die waren niet bij de hand, en de 3-schermen * 4K was niet een doel maar een soort van 'o, dan kunnen we dat nog wel even proberen'-dingetje.
Precies waar ik ook meteen aan moest denken. De pc kost overigens maar 2k en de schermen 15k.
crash crash crash - de AMD drivers hier, ook de allerlaatste, die crashen al jaren elke dag zodra je 2 schermen tegelijk aanstuurt met de native AMD drivers en eyefinity draait.

Heb hier nog een 6970 te koop die gewoon te vaak crasht.

Er staat verder bijna geen andere software op die machine en hij staat ook NIET op internet (ontwikkelmachine).

Het is treurig.

Dit is maar 3840x1200 in totaal.

[Reactie gewijzigd door hardwareaddict op 26 juli 2024 14:18]

Dat leek mij ook, alleen vanwege het feit al dat die kaarten in elk geval die 2x8 power aansluitingen wel nodig hebben, en de kaart dat zelf ook in-game tussen 300 en 430W wil trekken, 3x is 900-1290W, min 3x75W voor de PCI-E sloten, en je krijgt dan in-game tussen de 675-1065W. En komt dus standaard tijdens het gamen boven de 750W uit
En het dan raar vinden dat een 750W voeding dat tijdens het gamen na een paar minuten niet meer trekt.....
Jah precies, met 2x 6970 trok ik al regelmatig 840 watt uit de muur, waarom stoppen ze in hemelsnaam een 750 watt voeding in zo'n pc. Daarnaast snap ik deze hele mededeling ook niet helemaal want ik zie de lol van deze tripple monitorsetup helemaal niet in. Mij lijkt het vele malen leuker om zo'n spel met de Oculus Rift te spelen van een paar honderd euro's dan met overdreven veel pixels op 4K schermen. Ik ben een racesim enthousiast, tripple monitor setup kan heel leuk zijn , maar ik word hier helemaal niet warm van!
Moet je eens zien wat je nodig hebt om zoiets te draaien en hoe weinig je er mee opschiet. Ik vind het echt totaal zinloos. Tevens kunnen ze blijkbaar al geen rekening houden met de juiste voeding en ziet de hele setup er niet uit!, Daarnaast ook nog truuks moeten uithalen om de AMD kaarten te laten doen wat ze moeten doen... erwww klinkt allemaal niet echt geweldig. En dan ook nog eens Dirt erbij pakken, zie je door de motionblur en de lowres textures eigenlijk uberhaupt nog wel verschil? De randen van de polygonen van de auto die NIET voor je rijdt zijn van wat scherper? Camerapositie achter de auto inplaats van erin/of/motorkap zodat je helemaal niets hebt aan de gerenderde content op beelscherm links en rechts want dit is alleen maar stof en een berg motionblur. En dan blijft er nog zo'n heel klein autotje over in het midden! Je breekt je nek als je telkens naar je toerenteller moet kijken, LOL, Prachtig man, dit moet ik ook hebben :P

[Reactie gewijzigd door BruT@LysT op 26 juli 2024 14:18]

Voor zover ik weet is er maar één linux kernel. Al de rest zijn daarvan afgeleid en zouden dus ook compatibel moeten zijn. Ofwel zijn ze een compleet andere architectuur zoals bv de bsd kernel.

Je had beter UNIX-like gebruikt.
Sinds een aantal jaren is er de LSB. Linux standaard Base.http://en.wikipedia.org/wiki/Linux_Standard_Base

Dat Argument gaat dus deels al niet meer op!
Nvidia lijkt daar geen last van te hebben...
Om het relevant te houden bij dit artikel: Nvidia heeft ook niets te zoeken bij dit verhaal. Deze samenwerking tussen AMD en Microsoft stat centraal. Dat er Dirt3 gespeeld wordt is bovendien ook geen toeval waarbij Dirt 3 "Optimized for AMD" is en tevens een "Game for Windows Live" is. Moest dit een zaak van Nvidia geweest zijn zou de hele opzet er totaal anders hebben uitgezien.

Geen idee of hetgeen ik nu ga zeggen relevantie zou hebben, maar Nvidia is met hun Tegra's ook aan het inzetten op de mobiele markt terwijl AMD zowel met GPU's als CPU's aan de pc's gekluisterd zit. Iets wat Microsoft niet ontgaan is en toekomstplannen mee heeft??? Er is al samenwerking met AMD bij de Xbox en verder heb ik niet echt betrekking tussen Nvidia en Microsoft gezien.

[Reactie gewijzigd door Terrestraeon op 26 juli 2024 14:18]

Nou, afgezien van het feit dat nVidia al eerder een GPU leverde voor een Xbox, zit er in de Microsoft Surface RT wel degelijk een nVidia Tegra 3 SoC.

Het zal toevallig zo zijn uitgekomen dat dit experiment met AMD is gedaan, maar ik zie niet direct aanleiding om er meer achter te zoeken, als in dat Microsoft pro-AMD zou zijn, of anti-nVidia.
Omdat AMD eenmaal geen mobiele chip heeft. Dus de Surface RT zegt niets. En de xbox 360 is al 7 jaar oud.
Anoniem: 471038 @Relief200926 juli 2013 23:37
Ik wou alleen aangeven dat Microsoft wel degelijk ook zaken doet met nVidia (in de reactie waar ik op reageerde, werd gesteld dat dat niet zo was).
Ze hadden ook nog tig andere fabrikanten om uit te kiezen, ARM SoCs zijn er genoeg, of eventueel zelfs x86 (Atom) of MIPS. Dus als ze niet met nVidia in zee wilden, waren ze echt niet op AMD aangewezen.
Beetje een false dilemma wat je hier stelt dus: "Ja, ze gingen maar met nVidia in zee omdat AMD geen goede opties te bieden had".

De Xbox 360 heeft overigens ook een GPU van AMD (eigenlijk nog ATi destijds), het was de originele Xbox die een nVidia chipset en GPU had.

[Reactie gewijzigd door Anoniem: 471038 op 26 juli 2024 14:18]

AMD heeft Temash en had vorig jaar de Z-60 Hondo tablet chip, en daarvoor de Z01...
Waarom denk je dat amd zo hard aan die fusion apu's aan het werken is :+
Zijn de propratary proprietary linux drivers nogsteeds zo slecht dan?
Sins steam zijn Steam voor Linux platform erg heeft lopen pushen en met de driver fabrikanten is gaan samen werken om goede drivers te ontwikkelen heb ik het enorm vooruit zien gaan.

Vroeger waren de games op mijn pc vrijwel onspeelbaar en had ik veel screen corruption als ik deze drivers gebruikte (ik liet dan ook liever de stabiele opensource drivers op mijn pc staan) maar ik heb nu nergens last meer van. Ook de FPS in de games zijn vergelijkbaar met de windows varianten.

Gaat het bij jouw hier om specifieke functies (zoals fatsoenlijk multimonitor support |:( ) of vind je de drivers in het geheel nogsteeds brak?

[Reactie gewijzigd door henk717 op 26 juli 2024 14:18]

Misschien omdat het er op het woordje AMD en driver na vrijwel niks met het artikel te maken heeft...

Ik kan ook wel een hoop offtopic dingen roepen die kloppen, maar dan verdien ik ook geen +1 :)
Ik geef enkel aan dat ik vind dat AMD er maar vreemde prioriteiten op nahoudt. De Linux-community bedelt al jaren voor fatsoenlijke drivers maar krijgt ze niet, terwijl Microsoft met een geheel overbodig en kansloos fantasieproject aan komt zetten en daar wel direct drivers voor krijgt.
De Linux-community bedelt al jaren voor fatsoenlijke drivers maar krijgt ze niet
Vroeger bedelde de 'community' om HW-specs omdat dan de 'community' wel eens zelf goeie drivers zou maken... Dat is juist de kracht van Linux, werd altijd gezegd.
[...]


Vroeger bedelde de 'community' om HW-specs omdat dan de 'community' wel eens zelf goeie drivers zou maken... Dat is juist de kracht van Linux, werd altijd gezegd.
Daar hoeven ze voor de AMD-kaarten natuurlijk niet eens aan te beginnen. Doen ze dat, dan geeft AMD praktisch zijn hele bedrijfsgeheim voor GPU's kwijt.

Geen wonder dat die kaarten ook dichtgetimmerd zitten met patenten ;)
Doen ze dat, dan geeft AMD praktisch zijn hele bedrijfsgeheim voor GPU's kwijt.
Dat hebben ze al lang gedaan, de specs staan op http://www.x.org/docs/AMD/ hoor. En de OSS drivers zijn (zo zegt men, al lang niet getest) nog steeds niet goed.

[Reactie gewijzigd door _Pussycat_ op 26 juli 2024 14:18]

tsja.. ik denk omdat er een hoop mensen zijn zoals ik: Heb een laptop met linux en een AMD 6990m en het werkt gewoon goed met de catalyst linux drivers.

Heb een workstation op werk met een simpel HD54xx kaartje er in, draait ook linux met AMD catalyst linux drivers zonder problemen.
Wat zijn de problemen met de drivers da?

(Gewoon fglrx gedownload van AMD site)
Anoniem: 325463 @dipje226 juli 2013 18:05
Dat het eeuwen duurt voordat nieuwe kernel/Xorg versie ondersteunt wordt(moet op arch xorg downgraden voor catalyst), hoewel ik wel moet zeggen dat het sinds kort wel goed gaat met betadrivers.
Dat is het nadeel van een bleeding edge distro gebruiken, je kunt niet van AMD verwachten dat ze harder gaan lopen voor een paar update-geile gebruikers.
niks community, - AMD moet gewoon eerst eens wat bugvrije drivers leveren. Linux of windows maakt niet uit.

Eyefinity crasht hier aan de lopende band op 3840x1200 en altijd als er iets meer acties gebeuren.

We noemen dat een RACECONDITIE in parallel programmeren.

Die zijn niet simpel te fixen - maar AMD heeft dat glashelder niet voor elkaar al jaren niet en ze doen er NIKS aan.
Een hoop mensen ja maar de waar de bulk aan gamers zit grof 10 voudige is windows. Jullie linux fanaten hebben wat tegen windows en neperken je zelf of voor minderheid OS te kiezen dat kwa afzet markt zo een stuk kleiner is dat gross van de game industrie het links laat liggen.

Er is een gezegde, waar ik het ook niet mee eens ben.

"De PC game markt is dood." nou wat is Mac en linux mors dood.

Maar je ziet dat xbox360 vs PS3 met afzet markt van 70miljoen of meer zeer aantrekkelijk is om big titels op los te laten.
PC markt is al minder aantrekkelijk maar daar is de grootste afzetmarkt windows PC.

Er is steeds meer support voor maar zolang windows een veel oud aan marktaandeel heeft. Een veel oud exclusief windoows ondersteund.

Dan is linux support niet zo vanzelf sprekend. Vanuit een commercieel bussness standpunt.
Klopt! Verhaaltje dat makkelijk scoort in media zet hen natuurlijk meer in de kijker dan drivers voor Linux.

Community zou nochtans zeer enthousiast worden...
AnandTech heeft tijdje geleden ook een interessante 4K review geplaatst met o.a. 4-way GTX Titans en 3-way HD7970s. Erg leuke review, maar het laat wel zien dat 4K gaming nog ver weg is voor de gemiddelde gamer.

[Reactie gewijzigd door ColinZ op 26 juli 2024 14:18]

Op dit item kan niet meer gereageerd worden.