Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia stopt met Game Ready-drivers voor Fermi-gpu's en 32bit-software

Nvidia stopt vanaf april met de ondersteuning Fermi-gpu's en de 32bit-versies van besturingssystemen. De stap betekent dat er geen nieuwe Game Ready-drivers voor de Fermi-kaarten en 32bit-OS'en meer uitkomen.

Het besluit geldt voor Linux, FreeBSD, Windows 7, Windows 8 en 8.1 en Windows 10. Tot januari 2019 blijft Nvidia kritieke updates uitbrengen voor de 32bit-besturingssystemen. Driver-updates die de prestaties, bugs verhelpen en nieuwe functies toevoegen verschijnen er echter niet meer voor 32bit vanaf april.

Hetzelfde geldt voor systemen met Fermi-gpu's. Onder andere de GTX 500- en 400-series, zoals de GeForce GTX 590 en 580 bevatten Fermi-gpu's, evenals de laptopversies van deze kaarten. Nvidia heeft een complete lijst van kaarten gepubliceerd die met de Fermi-chips zijn uitgerust.

Om bezitters van 32bit-software en Fermi-kaarten voor te bereiden op het besluit maakte Nvidia de stap in december vorig jaar al bekend.

Door Olaf van Miltenburg

Nieuwscoördinator

09-04-2018 • 07:33

70 Linkedin Google+

Submitter: CriticalHit_NL

Reacties (70)

Wijzig sortering
Jammer. Die fermi kaartjes kennen nog best wel veel toepassingen.

Ik heb hier nog een setje gtx 460 die voor mij prima voldoen. Ik gebruik ze in mijn testomgeving omdat deze kaartjes perfect zijn voor RemoteFX vGPU in HyperV Terminal Server (RDS )omgevingen.

[Reactie gewijzigd door fvdberg op 9 april 2018 07:53]

En daar had je altijd de nieuwste drivers voor nodig?
Deze kaarten gaan nu gewoon naar legacy, waar ook nog steeds drivers voor zijn vanuit nvidia, ze krijgen alleen geen nieuwe features meer en/of game optimalisaties (in hoeverre die überhaupt nog van toepassing waren op fermi kaarten), maar de kaarten zelf blijven gewoon werken zoals ze nu ook doen...
Dat valt nog best mee hoe je op die dingen kan gamen. Die kaartjes zijn 7 jaar oud. En zeker 2 in sli willen nog best wel. Updates zijn dus best wel wenselijk. Enkel dat 32 bit. Hopelijk gaan ze voor 64 bit dus nog wel even door

[Reactie gewijzigd door fvdberg op 9 april 2018 08:11]

Nvidia stopt vanaf april met de ondersteuning Fermi-gpu's en de 32bit-versies van besturingssystemen.
Support stopt dus voor beide. 32 bit over de hele product range en de Fermi kaarten in zijn geheel.

Maar ja, je hebt er alleen echt last van als je serieus doet gamen er op. Voor andere doeleinden zal het wel mee vallen.
Even voorop gesteld dat ik de support echt lang genoeg vond maar bij de 7600GS werd hij daadwerkelijk ook onbruikbaar na de laatste update van Microsoft (Ntoskernel blijft crashen, zonder drivers niet maar dan lage reso). Dan had een simpel drivertje de kaart dus nog in leven kunnen houden.

Niet dat dat nodig is, de 7600 is onderhand al antiek. Maar wil puur zeggen dat het meer invloed kan hebben dan alleen op gaming.
Nee niet dus. 32 bit support stopt én fermi support stopt. Het is dus niet zo dat fermi op 64 bit wel nog support krijgt, fermi krijgt geen support meer waar het ook op draait, en wat je ook op 32 bit draait krijgt ook geen support meer.
Overigens update ik zelf sowieso al weinig mijn drivers, denk dus niet dat het echt een probleem gaat zijn als je deze kaarten nog gebruikt. Games zullen als het goed is wel gewoon nog werken... En als dat niet zo is dan is het de vraag of je dat niet de game dev aan zou moeten rekenen ipv Nvidia.
En hoeveel van die updates van de afgelopen jaren hebben daadwerkelijk nog iets met fermi te maken gehad? Ik kan me niet heugen dat ik fermi nog genoemd heb zien worden in de changelogs van de afgelopen jaren...
Het is dan ook maar de vraag of er daadwerkelijk dingen zijn veranderd voor fermi in de afgelopen jaren op driver niveau en of je überhaupt prestatie verschil merkt met een driver van 2 jaar terug tov de huidige drivers met betrekking tot fermi.
Beveilingsupdates komen wel vaker voor Nvidia kaarten. Oude drivers zijn zo lek als een mandje. Dus dat ze er mee stoppen is dan wel jammer voor mensen die het voor zulke soort servers gebruiken.

[Reactie gewijzigd door NotCYF op 9 april 2018 19:43]

Maar servers draaien op 32 bit lijkt mij ook al vrij legaxy dus lijkt me dat deze actie prima in dat rijtje past :p
De groep die dat nog doet zal vrij klein zijn. Professioneel (als men het al gebruikte) is de troep allemaal al lang afgeschreven. En voor de rest, doe jezelf een plezier en investeer iets van 100 euro voor een nieuwer alternatief, of gebruik gewoon de legacy drivers tot het ding stuk gaat. De meeste high-end fermi's hebben toch al de geest gegeven door extreme warmte ontwikkeling.
En dat kan niet in combinatie met een 64-bit OS? Ondersteuning wordt alleen stopgezet voor 32-bit toepassingen. Lijkt mij dat waar jij de kaarten voor gebruikt in 64-bits OS draait.
Edit: sorry, moet beter lezen.

[Reactie gewijzigd door eddy_71 op 9 april 2018 08:07]

Klopt. de hyperv server in ieder geval. De VM`s er op niet.

Maar het betekend wel dat ook de support voor 64 bit op termijn zal gaan stoppen.

En als ik nog regelmatig de quadro versies van de fermi in productieomgevingen spot is dit een leuk argument om een paar nieuwe te verkopen
Maar het betekend wel dat ook de support voor 64 bit op termijn zal gaan stoppen.
Dat valt wel mee. Vergeet niet dat de overgang van n bits naar 2n bits niet een verdubbeling van adresruimte inhoud, maar een kwadraat. Als ik alleen naar de Intel processors kijk, krijg ik

1974 8080 8 bits
1978 8086 16 bits
1985 80386 32 bits
2004 P4 Prescott 64 bits.

Dus 8bits->16bits kostte 4 jaar, 16bits->32bits 7 jaar en 32bits->64bits 19 jaar. De groei zit op 1.5 à 2 bits per jaar. In dit rijtje kun je een 128 bits processor verwachten rond 2044.
Die logica lijkt redelijk, maar zoveel adressen is nergens voor nodig. 32 bits is niet genoeg om alle mensen in de wereld een uniek nummer te geven, maar 64 bits is genoeg om alle zandkorrels in de wereld een uniek nummer te geven. Je ziet nu dus ook dat "x64" in de implementatie niet daadwerkelijk 64 bits adressen fysiek ondersteunt, x64 is alleen in virtual address space ook daadwerkelijk 64 bits.

Een 128 bits address space zal in 2044 dus ook niet gebeuren. ja, Intel kan best 128 adreslijnen naast elkaar leggen in 2044, dat kan nu ook al. Het is alleen zinloos. Je kunt geen geheugen maken van 2^128 bytes.
zoveel adressen is nergens voor nodig.
Gevaarlijke uitspraak. Ik herinner me een citaat van Bill Gates.
64 bits is genoeg om alle zandkorrels in de wereld een uniek nummer te geven.
Bij lange na niet. Volgens dit artikel op kennislink zijn er ongeveer 1.2*1027 zandkorrels op aarde. Dat komt grofweg overeen met 290.
Een 128 bits address space zal in 2044 dus ook niet gebeuren. ja, Intel kan best 128 adreslijnen naast elkaar leggen in 2044, dat kan nu ook al. Het is alleen zinloos. Je kunt geen geheugen maken van 2^128 bytes.
Je vergeet één ding. Een 128 bits adresruimte wordt niet pas zinvol als ik 2128bytes fysiek geheugen kan gebruiken, maar al als 264bytes virtuele adresruimte krapjes wordt. Dat is niet zo heel moeilijk. Met een sparse memory structuur is dat zo bereikt. Ik kan me levendig voorstellen dat de ontwikkelingen met AI en big data in de komende 28 jaar meer adresruimte nodig/gewenst maken.

[Reactie gewijzigd door Mijzelf op 9 april 2018 13:23]

Gevaarlijke uitspraak. Ik herinner me een citaat van Bill Gates.
Off-topic, maar ik vind dat het toch even gezegd moet worden:
Je herinnert je dat iedereen zegt dat er een citaat is, maar dat is niet zo. Zelfs een extreem beknopte zoekterm (bijvoorbeeld "640 kb enough") levert talloze resultaten op die het er allemaal over eens zijn: dat heeft Gates nooit gezegd.
Mijn baan is momenteel AI development, en één van de leuke dingen van moderne AI is dat de modellen regelmatig kleiner worden. Ik denk dat onze modellen de laatste 3 jaar ongeveer 80% gekrompen zijn. En dan hebben we het over megabytes na training. Training zelf kost gigabytes RAM, maar dat is dus net over de 32 bits grens.

En eerlijk gezegd zie ik die "sparse 128 bits address space" ook niet zo gebeuren. Het mag dan een virtuele address space zijn, maar de page table die 'm definieert is een significante fractie van de totale grootte. Dan kun je beter een hash-gebaseerde oplossing gebruiken. Een 128 bits hash key is geen enkel probleem, ook vandaag niet.
Het lijkt mij niet moeilijk voor te stellen dat we over 20-25 jaar een TB RAM normaal vinden. Tegenwoordig zit er in mijn telefoon al 8GB ram, iets wat we 20 jaar geleden niet voor mogelijk hielden.
Klopt. 1TB is 40 bits. Zelfs 256 TB is nog maar 48 bits.

Nee, zelfs voor disks is 64 bits nog een hele lange tijd voldoende. De enige reden waarom je voor filesystemen 128 bits zou gebruiken is om die 128 bits op te splitsen in velden van een vaste lengte. Bijvoorbeeld voor een cluster filesysteem 32 bits voor de host ID, 32 bits voor de disk ID in elke host, en 64 bits voor de clusters op elke disk.
eerlijk gezegd zie ik die "sparse 128 bits address space" ook niet zo gebeuren
Daar had ik het dan ook niet over. 64 bits is voldoende om een >64 bits processor nodig te maken. Tenslotte moet het OS ook nog ergens blijven.
Ik heb het niet over de algehele support op 64 bit. dat is niet de discusse.

Ik heb het over de support vanuit Nvidia voor Fermi drivers voor toekomstige x64 platformen.
En dan doel ik specifiek op de closed source platformen, voor open source geloof ik wel in de community.

Een voorbeeld:

Wanneer Microsoft besluit om het drivermodel aan te passen is het klaar.
Nvidia gaat op dat moment geen driver meer uitbrengen voor de Fermi.

Een oudere driver kiezen is dan geen optie meer.

Nu ben ik niet bang dat dit op korte termijn gaat gebeuren, maar toch, het einde voor Fermi gebaseerde kaarten komt steeds meer in zicht.
Tja je kunt je wel afvragen wat een redelijke termijn is voor support, en of die eigenlijk wel aan een termijn gebonden moet zijn, of eerder aan ontwikkelingen in de markt. Fermi is zwaar gedateerd ook als je kijkt naar recente APIs en dergelijke. Het mist allerlei resources. Ik snap het in deze in elk geval wel, AMD doet ook niks meer met VLIW.

[Reactie gewijzigd door Vayra op 10 april 2018 09:15]

Alleen kwam AMD eerder met hun x64 op de proppen, terwijl Intel's 64-bit architectuur (Waar Titanium o.a. op werkte) geflopt is. ;)
Zolang 128 bit er nog niet is (en dat duurt nog wel ff) blijft 64 bit er gewoon lekker.
Het wordt nu niet eens ten volle benut...Laat staan 128 bit. Maar vooruitgang kun je nu eenmaal niet stoppen, dat moet ook niet, innovatie moet doorgaan.
Nu de rest nog om 32 bit uit te faseren. Its time to move on.
Lijkt me niet perse nodig om het uit te faseren. Ja gebruikersystemen, daar zal het wel eens tijd worden. Maar er zijn vast wel toepassingen voor 32 bit :-).
Sterker nog, er zijn nu nog steeds nieuwe programma's die van 32 bit gebruik maken i.p.v. 64 bit. Als het niet echt noodzakelijk is...Veel Applicaties zijn gewoon nog 32 bits onder Windows 10.

Kijk maar eens naar je program files(x86) map hoeveel daar nog inzit. ;)

[Reactie gewijzigd door Tourmaline op 9 april 2018 07:43]

Ik heb liever wat meer diskspace. Voor 32bit op 64bit heb je dus ook alle 32bit systeem bestanden nodig. Zie C:\Windows\SysWOW64 (32bit) en C:\Windows\System32 (64bit), mooi he die verwarrende mapnamen :D
System32 is de naam die men altijd aangehouden heeft voor 32 bits OS-zaken die later omgedoopt is tot alle native OS-zaken. Vroeger was dat System (zonder 16 of 32). Nu een System64 gaan bedenken, zou wrs een te grote stap en te weinig toevoegen. Gezien alles uiteindelijk toch wel x64 wordt, kun je beter 32-bits als legacy beschouwen en daarvoor SysWOW64 (Windows(32) on Windows64) in het leven roepen.

Ik denk wel dat alle 32-bits nog heel lang zal blijven bestaan, al zal het in de komende decennia wel steeds meer richting emuleren gaan, dan het wrapper-laagje dat er nu is. Kijk maar es hoe lang we 16-bits programma's hebben kunnen draaien. Heel lang kon dat native(-ish), maar dat is nu puur emulatie.

[Reactie gewijzigd door _Thanatos_ op 9 april 2018 15:47]

Kijk maar eens naar je program files(x86) map hoeveel daar nog inzit. ;)
Die map wordt ook gebruikt voor 64 btis applicaties, dus echt een 100% betrouwbare graadmeter is dat echt niet. Daarnaast kun je het pad waar een programma geïnstalleerd moet worden aanpassen.
Het blijft vechten tegen de bierkaai maar waarom? Als je applicatie minder dan 2 gigabyte ram nodig heeft is het voordeel summier (wat extra registers).
Het voordeel is dat we geen 32 bit emulatie meer nodig hebben wat een hoop andere meuk onnodig maakt. elke stap extra complexiteit is een extra risico voor fouten(1, 2, 3), er is geen enkele reden om nu nog 32 bit applicaties te ontwikkelen tenzij je met enorme legacy hardware werkt, maar dat is wel een extreem niche usecase die je vrijwel alleen zult zien in embedded systems, die dus uberhaupt al super outdated zijn en dus totaal geen nut hebben bij updates, ze zijn al airgapped als het goed is.

[Reactie gewijzigd door t link op 9 april 2018 09:34]

32 bits is geen emulatie, de x64 ondersteunt dat formaat van huis uit. Misschien ben je in de war met IA-64 (Itanium), de geflopte 64 bits architectuur van Intel? Die deed wel x86 emulatie. x64 komt van AMD en won, juist omdat er geen x86 emulatie nodig is.

Het grote voordeel van x86 code boven x64 is dat het cache-efficient is. En aangezien je L1 cache nog steeds in kilobytes wordt gemeten maakt dat zeker uit.
Ah dan vergis ik me inderdaad daarin. hoe komt het dat x86 efficienter is met cache dan x64? het zou interresant zijn 1 op 1 vergelijkingen te zien met x64 en x86 programma's en de impact ervan meten, ik vraag me trouwens ook af hoeveel invloed de compiler hierop heeft.
Een x86 adres is nu eenmaal maar 32 bits, dus dat gebruikt ook maar 32 bits in de cache. Dat effect kan nog versterkt worden door datastructure alignment. Een linked list bijvoorbeeld kan een 32 bits integer combineren met een 32 bits adres, tot een 64 bits node. Met een 64 bits adres wordt dat geen 96 bits, maar 128 (volgende veelvoud van 64). Dan heb je ook nog 32 ongebruikte bits.

Dit is zeker een compiler-afhankelijk effect. Compilers die efficienter data in registers houden, hebben minder data uit cache nodig.
er is geen enkele reden om nu nog 32 bit applicaties te ontwikkelen tenzij je met enorme legacy hardware werkt, maar dat is wel een extreem niche usecase die je vrijwel alleen zult zien in embedded systems, die dus uberhaupt al super outdated zijn en dus totaal geen nut hebben bij updates, ze zijn al airgapped als het goed is.
Industriële machines die al talloze jaren prima draaien op MS-DOS zijn inderdaad een voorbeeld van embedded systems, ontzettend legacy, niche markt, etc. Maar er zijn ook nog een heleboel andere voorbeelden van embedded systems. Om maar een mooi voorbeeld te pakken: IoT is een prima voorbeeld van (veelal 32 bit) embedded apparatuur. De hardware waar dat op draait is dan misschien "legacy" wat betreft rekenkracht, maar komt net gloednieuw uit de fabriek rollen. Ook is het precies het tegenovergestelde van een niche markt, zijn ze zo ongeveer per definitie niet air gapped en hebben ze juist enorme behoefte aan updates.

Dus nee, 32 bit is alles behalve afgeschreven en nog steeds zeer relevant... en dat zal nog wel even zo blijven.
IoT gaat juist snel richting arm, niet richting x86 omdat arm veel efficienter is juist voor embedded IoT. zover ik weet worden er nog nouwelijks x86 processors uberhaupt gemaakt (if any).
x64 geeft voor CPU-intensieve taken wat lichte performancewinsten. Daarom zie je ook browsers, videoplayers, transcoders, en andere zware desktopapps, in x64 verschijnen. Om om het extra geheugen, maar ook om dat ene extra stukje performance.
En toen bracht MS een windows 10 Arm versie uit die alleen win32 kan emuleren....
Win32 is een API en zegt niets over de hoeveelheid bits.
Die uiteraard wel gelimiteerd is tot...Win32 api zal ook 32 bits dll's etc aanroepen. ;)
Nee Win32 is gewoon 64bit. Er is geen Win64 API. De kern van Windows 10 64-bit is gewoon de Win32 API. Laat je niet op het verkeerde been zetten door de naam. Deze is gelijk gebleven, omdat alle interfaces nog hetzelfde zijn. Echter intern werkt Win32 gewoon volledig 64-bit op een 64-bit versie van Windows.

[Reactie gewijzigd door hiostu op 9 april 2018 08:36]

De naam is altijd behouden voor backwardscompatbility, zolang de naam & bindings hetzelfde zijn hoef je alleen nog maar aan je eigen kant je software x64 te fixen. Scheelt veel werk.
Toch wordt er onderscheid gemaakt tussen 32 en 64 bit installaties. De 64 bit programma's komen in program files en de 32 varianten in de program files(x86). Ik heb altijd begrepen dat 32 en 64 bit drivers etc niet door elkaar gebruikt kunnen worden.
In principe zal 64bit geen 32 bit 'begrijpen' en andersom, Daarvoor heeft Windows het WindowsOnWindows (WOW) component om 32bit te draaien onder 64bit, en voor .Net heb je of native (dus specifiek 32/64), wow (32 op 64) of AnyCPU setups (werkt op beide, in principe niet veel anders dan wow).
Dit is het probleem inderdaad, Bedrijven die op oude techniek blijven hangen, en softwareboeren die ooit een stukje maatwerk hebben gemaakt, op 16 bit.... en de bedrijven vervolgens niet weten te overtuigen om dit naar 32 bit om te laten bouwen. als de softwareboeren nog bestaan/de kennis in huis hebben om dat te kunnen.
Ik schat dat bedrijven een afweging maken, 32 bit toepassingen draaien op alle moderne Windows versies, 64 bit toepassingen alleen op de x86-64 versie
FAT32 is een bestandssysteem, wat heeft dat met 32 bits software te maken? :?

Je vergelijkt appels met peren.
Liever niet, dan worden heel wat oudere games onspeelbaar.
Er zijn legio mogelijkheden om oude(re) games nog steeds te kunnen spelen. Ik kan mij niets bedenken waarom dit niet werkbaar te krijgen is.

Ook staat het je vrij om oudere versies van drivers te installeren natuurlijk.

[Reactie gewijzigd door CH4OS op 9 april 2018 15:44]

DosBox, VirtualPC, etc. oudere games blijven wel speelbaar, kost alleen iets meer moeite om ze te prepareren.
Aha jij betaald mijn nieuwe hardware? Fijn om dat te horen.

Ik heb namelijk een allergie voor planned obsolescence.
In dit geval is het geen planned obsolescence maar gewoon daadwerkelijk oud. Deze kaarten zijn voor gaming verkocht en zijn daar voor de nieuwe titels echt niet toerijkend voor.
Wie of wat bepaald of iets oud/obsolete is?
Intel HD Graphics 5500 VS Nvidia GTX460 786 MB

Advantages of NVIDIA GeForce GTX 460 768MB
203.6% faster (about 3 times) in synthetic tests
16500% faster (about 166 times) in games
Wider memory bus (192 vs 64 bit)
More pipelines (336 vs 24)
Met jou redenatie stopt intel per direct de support voor de Intel HD graphics IGP kaarten

Overigens draaien titels als fortnite gewoon goed op de IGP kaarten.
Ook op de GTX460 draait het.

[Reactie gewijzigd door fvdberg op 9 april 2018 13:43]

De geïntegreerde graphics zijn dat ook niet gemaakt voor gaming.

Daarnaast blijft het gewoon werken op de huidige drivers; alleen krijg je geen optimalisaties meer voor de nieuwste games voor zover dat uberhaupt nog van toepassing is.
Dat ben ik niet met je eens.
Ze zijn niet gemaakt voor high end gaming.
Maar dat betekend niet dat je niet kan gamen. Nee, GTA V trekken IGP's niet. (De GTX460 wel...)

Maar Main stream spellen zo als het populaire Fortnite of Minecraft gaat echt prima met een IGP.
Als je gaat kijken wat je allemaal kan spelen met een IGP....
Die paar games die niet werken...

Die speel je of op een console, of je investeert het geld wat je in een console stopt in een dedicated GPU.
Ik wil je Fortnite wel eens zien spelen op een IGP aan 60 fps. De meeste recente first person shooter games zijn niet te spelen op een IGP, tenzij je het echt niet kan schelen hoe een spel er uit ziet.
60 fps..

Het gemiddelde scherm wat icm een igp gebruikt wordt gaat niet over de 60 hz qua refreshrate.
Prima, eens.
Meer als 30fps zie je dan dus toch niet. En resolutie? Met 720p haal je die 30 fps gewoon.
Ooh boy, ik denk dat je dan nog Nooit het verschil gezien hebt. Zet je monitor maar eens op 30Hz, zelfs je desktop is dan verschrikkelijk.
Ook het gemiddelde scherm gaat niet over de 1366x768 heen.
Hier moet ik je toch even vertellen dat dat je reinste bull shit is. Natuurlijk niet, het is geen 200X...
Full HD is by far de meeste gebruikte resolutie. kijk eens hier: http://store.steampowered.com/hwsurvey/ en klik op "Primary Display Resolution". 72% is 1920x1080. Maar 14.12% is 1366x768 of lager. Dat zijn niet "gemiddelde scherm" hoeveelheden.
Waarom zou je meer laten verrekenen als je zichtbaar kan maken.

Maar wederom dat is de discussie hier niet... met een fermi trek je fortnite prima op 60fps
Goed ik denk dat jij toe bent aan een upgrade, en je definitie van "prima" ligt vrij ver van het gemiddelde af. Ik zou het "unplayable" noemen bijvoorbeeld.
O ja? Welke laptop onder de 500 euro heeft er een full hd scherm dan? Want dat is waar ik het over heb.

En 30hz = 15fps. Je ogen verversen met zo een 25fps.
Logisch dat dat er verschrikkelijk uit ziet.

Die steam survey is leuk maar je leest hem echt verkeerd.

Die servey bevat enkel data vergaard op systemen waar steam actief is.

Fortnite en minecraft zijn geen steam games en die systemen tellen dus niet mee.

Ook heb ik het idee dat de jongere generatie geen grote bedragen uit geeft aan games en de gespeelde spellen voornamelijk spellen zijn die gratis te gebruiken zijn.

Wanneer we de google statistieken pakken van populaire websites zien we echt een compleet ander beeld.

1366x768 is daar nog steeds de grootste groep.

Zie http://nl.screenresolution.org

En ja daar tellen ook de resoluties van smartphones en tablets in mee. Het werkelijke percentage desktops en laptops met een full hd scherm is dus een flink stuk lager.

En het verschil tussen 720p 30 fps en 1080p 60 fps? die ken ik echt wel.

Ik heb een hele dikke bak staan met een nvidia sli opstelling er in en een 32 inch full hd ips scherm op 200hz.

het merendeel van nederland heeft geen desktop meer.

En het gros van de verkochte laptops heeft geen externe graphics of full hd scherm.

Wat jij als minimum beschouwd is echt niet wat de rest als acceptabel ervaart.

[Reactie gewijzigd door fvdberg op 10 april 2018 07:58]

Ooh boy where to start...
O ja? Welke laptop onder de 500 euro heeft er een full hd scherm dan? Want dat is waar ik het over heb.
Nou speciaal voor jou: pricewatch: Asus VivoBook Max X541UA-DM1297T-BE (Belgisch model)
The filter: categorie: Laptops
212 resultaten. Volgens mij heb je niet eens gekeken.
En 30hz = 15fps. Je ogen verversen met zo een 25fps.
Logisch dat dat er verschrikkelijk uit ziet.
Waar haal je deze wijsheid vandaan? Jou monitor op 30Hz geeft 30 beelden per seconde weer, ZELFS als jij op een oude TV gamed met 30 fields per seconde is dat nog steeds niet 15 fps.
Die steam survey is leuk maar je leest hem echt verkeerd.

Die servey bevat enkel data vergaard op systemen waar steam actief is.
Natuurlijk bevat het alleen data van systemen met Steam, ik bedoel het is bijna een ingetrapte deur. En ik lees hem zeker niet verkeerd. Het is een vrij correcte weergave denk ik zo van de gemiddelde gamer.
Fortnite en minecraft zijn geen steam games en die systemen tellen dus niet mee.
Dat snap ik natuurlijk ook wel, het is niet zo dat dat zulk andere populaties zijn.
Wanneer we de google statistieken pakken van populaire websites zien we echt een compleet ander beeld.

1366x768 is daar nog steeds de grootste groep.

Zie http://nl.screenresolution.org

En ja daar tellen ook de resoluties van smartphones en tablets in mee. Het werkelijke percentage desktops en laptops met een full hd scherm is dus een flink stuk lager.
Zeker maar dit is voor browser gebruik, dat is toch echt niet representatief voor iemand die fortnite/pubg of whatever wil spelen. Compleet andere doelgroepen.

Asl je nou gewoon even een desktop only dataset had gepakt, zie je dat het HOGER is niet lager: http://gs.statcounter.com...n-stats/desktop/worldwide
En het verschil tussen 720p 30 fps en 1080p 60 fps? die ken ik echt wel.

Ik heb een hele dikke bak staan met een nvidia sli opstelling er in en een 32 inch full hd ips scherm op 200hz.
Allemaal hartstikke mooi, maar men kan zich afvragen waarom je SLI draait voor een full hd scherm.
het merendeel van nederland heeft geen desktop meer.
Die mensen zijn helemaal niet belangrijk, het gaat hier over Fermi een NVIDIA Desktop/Laptop GPU architectuur van 8 jaar geleden.
En het gros van de verkochte laptops heeft geen externe graphics of full hd scherm.
Zelfs laptops in de 250 euro range hebben al FullHD schermen, er zijn zelfs nog goedkopere, ik denk dat je deze statistieken even moet beargumenteren.
Wat jij als minimum beschouwd is echt niet wat de rest als acceptabel ervaart.
Ik denk dat er meerdere met mij zijn die een Fermi kaart niet meer acceptabel vinden. Al helemaal niet om ermee op 30 fps een spelletje spelen op je 1366x768 monitor. Dat zijn niet veel pixels, toen Fermi uitkwam was dat eigenlijk al vrij kut, 30fps is altijd naar geweest om naar te kijken, ook voor desktop muisbewegingen. Probeer maar eens een 4K scherm met HDMI1.4, niet best.
laptops van 250 euro met een full hd scherm... laat maar zien.
Dan heb je weinig opslagruimte, weinig ram geheugen, een ondermaatse CPU en geen accuduur.
En zeker geen GPU die ook echt full hd aan kan.

Een bruikbare laptop met een betere GPU als een Fermi is er niet onder de 800 euro. Vergelijkbaar niet onder de 500.

En ja de fermi zat voornamelijk op kaarten van zo'n 200 euro maar om te zeggen dat deze vrij kut was bij introductie? Nee, het was gewoon een mid range kaart die vergelijkbaar presteerde aan andere mid range kaarten en daarbij met zo'n 200 euro iets goedkoper was als het alternatief

Misschien eens de reviews van destijds doorlezen?
nieuws: Nvidia brengt midrange-kaart GeForce GTX 460 uit

En ja ook in die tijd was er beter, maar 2 GTX 460 kaartjes in SLI opstelling gaven best wel bang for buck.

Nu staan er sinds een jaartje een enkele GTX 1050 TI kaart op wat dezelfde prijsklasse is, maar ook die zal jij wel te min vinden.

[Reactie gewijzigd door fvdberg op 10 april 2018 13:24]

De bestaande drivers werken gewoon nog, en zijn prima te downloaden.

Je zal misschien geen patch krijgen mocht er een bug zitten waardoor Far Cry 6 volgend jaar niet lekker werkt op een Fermi kaart, maar daar heeft ie toch de power niet voor om fatsoenlijk te spelen.

[Reactie gewijzigd door vectormatic op 9 april 2018 09:18]

Dit heeft niets met planned obsolence te maken. "Planned obsolence" is het verschijnsel dat een product niet eens meer doet wat het origineel deed. Denk aan een stofzuiger waarvoor geen nieuwe stofzuigerzakken worden verkocht, of apparaten waarin onderdelen slijten die niet nieuw geproduceerd worden. Dat zijn allemaal voorbeelden waarin je wel een nieuw produckt moet kopen om bestaande functionaliteit te houden.

Jouw PC blijft gewoon zijn bestaande functionaliteit houden, maar krijgt geen nieuwe.
Let it go
Let it go
(......)

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True