Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 222 reacties

Gabe Newell, mede-oprichter en managing director van Valve, heeft tijdens een keynote op LinuxCon gezegd dat Linux en opensource de toekomst zijn van gaming. Gesloten platformen zouden volgens hem niet kunnen concurreren met open platformen.

Eerder noemde Newell Windows 8 al een ramp. Hij herhaalde dit ook weer op LinuxCon: volgens hem gaan gesloten platformen het verliezen van platformen die open zijn omdat die laatste meer innovatie toestaan. Hij verwacht ook dat grote spelers de pc-markt de rug zullen toekeren of in ieder geval flink gaan herstructureren. Een goed voorbeeld hiervan is computerfabrikant Dell. Dat bedrijf is al enkele jaren bezig met het verschuiven van zijn focus naar software en dienstverlening.

Newell gaf aan dat Valve hard aan het werk is om het gebruik van Linux te stimuleren. Valve bracht zijn distributiesoftware Steam en veel games al naar het opensourcebesturingssysteem. Ook is het bedrijf al een tijd bezig met de ontwikkeling van een Steam Box-console op basis van Linux, Newell hintte in zijn speech naar een aankondiging volgende week. Daarnaast draagt Valve ook bij aan de ontwikkeling van de lldb-debugger en werkt het aan nog een andere debugger voor Linux. Volgens de Valve-topman krijgt het bedrijf desgevraagd vaak van andere ontwikkelaars te horen dat ze een debugger voor Linux moeten ontwikkelen.

Moderatie-faq Wijzig weergave

Reacties (222)

Misschien moet Newell eens kijken naar wat er gebeurt op Android en iOS. Om in deze tijd Linux de toekomst van iets te gaan noemen is compleet achterhaald. Ja, in bepaalde markten doet Linux het goed maar ondanks initiatieven als Ubuntu is het nog steeds gn speler op de desktop markt. Het enige wat aangevoerd kan worden is dat ergens onder Android een Linux kernel draait, desondanks wil ik dat zeker geen Linux versie noemen.

De toekomst van gaming ligt denk ik eerder bij Android en iOS.. Zo is Apple volgens sommigen de weg aan het banen voor een AppleTV console met flinke gaming mogelijkheden. Ze denken dat dit de hoofdreden was voor Apple om nu al 64-bit te gaan. Ook zijn er in het nieuwe iOS 7 uitbreidingen voor controllers te vinden.

http://cannyvision.com/20...d-thinking-apple-yet.html
I don't believe Apple added 64-bit support to iOS 7 and all their apps just to prepare for an eventual transition to 4GB+ memory capacities in future iPhones. I think this was to do with something more impending. Do we know any product category that Apple would be interested in, that would require the use of both iOS and an A-series chip that is 64-bit capable in order to address 4GB+ memory?

Apple TV (the one that is yet to come, not the one that exists).

Just a few days prior to WWDC this summer, the Xbox One was annnounced with 8GB memory. The 360 had 512 MB of memory. Earlier in January this year, the PS4 was announced with 8GB of memory. The PS3 had 256MB of system memory.

If Apple were to release a competing living room solution now, as Steve Jobs claimed they had figured out, it would definitely have to have around 8GB of memory (if they were interested in addressing big screen console gaming seriously). It would also likely be iOS, and not OS X, that would be needed. I think that is why Apple just announced full-scale hardware and software 64-bit support, not because phones will eventually have 4GB of memory sometime in the future.

The second bit of credence for this theory comes from the new Game Controller Framework that was announced for iOS 7 and OS X 10.9. This seems to address the user control issues with big-screen console gaming, while the 64-bit hypothesis above ensures compute and graphics capability for larger screens.
Het blijft een voorspelling van een erg enthousiast persoon op het Internet, maar toch. Android loopt in deze achter maar heeft als grote voordeel initiatieven als de Ouya en soortgelijke consoles waarbij het flinke sprongen kan zetten in de low budget markt.

Natuurlijk heb je nog PS en XBOX voor de meer hardcore games maar voor mainstream en casual....
Om in deze tijd Linux de toekomst van iets te gaan noemen is compleet achterhaald. Ja, in bepaalde markten doet Linux het goed maar ondanks initiatieven als Ubuntu is het nog steeds gn speler op de desktop markt.
Hoe lang richt Linux zich nu serieus op de desktop markt? Wat denk je, dat het binnen een jaartje voor elkaar is dat iedereen Linux draait?

Mensen zijn gewoonte dieren. Scholen hadden tot onlangs alleen maar Windows in de aanbieding. Bedrijven kozen daar dus ook voor (minder opleidingskosten), sneller mensen aan het werk, efficienter in de kosten.

Tegenwoordig zijn veel scholen al overgestapt op open-source. Veel bedrijven zijn ook afgestapt van Windows-only. In de IT zijn er veel bedrijven die tegenwoordig BYOD verkiezen boven geen keuze.

Tot nog toe was er voor de grote groep gebruikers die erg dicht tegen de normale desktop gebruikers zit (lees: gamers, aka de handige neefjes), niet hun ding doen op Linux. Er viel namelijk vrijwel niets te gamen.

Precies de markt wordt nu open gebroken door Valve met Steam. Het wordt namelijk steeds lastiger voor 'de handige neefjes' om een dvd'tje met Win8 te kopieren, dus gaan ze op zoek naar andere alternatieven die passen bij hun wensen. Ik denk dat Linux in de buurt begint te komen.

Kortom, ik denk dat het een beetje t kort door de bocht is om nu al te zeggen dat het toch niets zal worden. De revolutie op de desktop markt is pas nt begonnen :)
En ook dat hoorden we 15 jaar geleden al en toen hadden we pas echt iets te klagen met een OS wat onderhuids DOS was.
Alsof Steam een reden is om een specifieke computer te kopen. Valve zou willen dat ze zo'n stevige marktpartij zouden zijn die een platform kan maken of breken. Er is denk ik wel een revolutie gaande, maar niet van windows naar een Linux desktop, er is werkelijk niks wat daar aanleiding toe geeft. Wel is er een andere revolutie gaande, die van smartphones, phablets en tablets. De enige rol die Linux daar in speelt is de basislaag en dat is niet wat Newel lijkt te bedoelen...
Filmpje van de gehele lezing van gabe Newell (duur ~20min.)

Mooie van linux en open-standaarden is de vrijheid: de gebruiker bepaald wat er met het systeem gebeurd.

Zo kun je alle overbodige functionaliteiten strippen; geen startknop, geen icoontjes nodig, en zelfs geen desktop. Hierdoor draait enkel het steam-framework (in big picture)
zie: https://github.com/thor27/steam-login

Daarlangs kan de prestatie getweaked en geoptimaliseerd worden. Zo ook voor het wine-systeem. Met een laatste patch voor bediening en aansturing van D3D is nu een dikke prestatie winst mogelijk. Zo draait Skyrim via linux sneller dan onder windows!!!!
zie: http://www.winehq.org/pip...013-September/101106.html

Valve heeft meer vrijheid en mogelijkheden dan windows biedt om optimalistatie door te voeren. Ze draait TF2 met meer FPS dan onder windows.
zie: http://rootgamer.com/1637...ress-2-comparison-win-lin

[Reactie gewijzigd door himlims_ op 17 september 2013 15:16]

Dat van die verhoogde frames is wel duidelijk. Maar is Skyrim en TF2 de enige die beter draaien? Dan lijkt het me nog verspilde moeite. De vraag is ook dat of er genoeg bedrijven zijn naast Valve die deze extra vrijheid (En dus extra werk en verantwoordelijkheid) wel willen bij het ontwikkelen van games.

Daarnaast lijkt het me, met mijn beperke kennis van Linux, dat moet ik wel noemen. Dat je nog altijd naar een bepaalde soort configuratie van OS gaat om games te kunnen draaien. Maw: Wat voor gezeur krijg je er voor terug? (Ik noem het gezeur maar dat moet je lezen als nadeel).

Ik kan me niet voorstellen dat er geen andere problemen voor in de plaats komen.
Daarnaast lijkt het me, met mijn beperke kennis van Linux, dat moet ik wel noemen. Dat je nog altijd naar een bepaalde soort configuratie van OS gaat om games te kunnen draaien. Maw: Wat voor gezeur krijg je er voor terug? (Ik noem het gezeur maar dat moet je lezen als nadeel).

Ik kan me niet voorstellen dat er geen andere problemen voor in de plaats komen.
De drivers van je videokaart... Er zijn voor Linux nog niet echt fantastische drivers. Laten we zeggen niet op het niveau van de windows drivers.
Al timmert NVidia aardig aan de weg en zijn de Windows en Linux drivers vergelijkbaar. Tenminste op mijn systeem. Fulltime Ubuntu gebruiker en heel soms Windows op lanparty's.
Beetje raar, volg je dan het nieuws niet? Vele game engine's worden op dit moment geconverteerd naar Linux. Zelfs de CRY engine. En die is heel mooi. :) Heb nu wel Windows nog naast GNU/Linux draaien maar das enkel voor games.
Wat is er raar aan mijn vraag? Je geeft al zelf toe dat je Windows nog draait voor games.

Dat er een aantal game engines naar Linux over gaan zegt nog niet dat elk bedrijf dit gaat doen.

Daarbij had je beter het voorbeeld van Unreal Engine kunnen nemen. Cry engine is qua afnemers niet zo heel groot.

Er zijn ook nog plenty game engines die de overstap dan weer niet hebben gemaakt, dat er een paar game engines over gaan naar linux zegt nog niet veel.
Het word pas veelzeggend als daarmee ook daadwerkelijk games op het Linux platform worden uitgebracht.

Uiteraard kan je nog altijd Wine gebruiken voor het gross van die games die het niet direct ondersteund.

De vraag is dan nog, moet je dan nog speciale dingen doen om het op meerdere platforms te draaien, ligt er ook weer aan hoe dat in de game engine zelf word supported. Het is nog geen directe garantie. Ofwel , wat ik eerder al zei:

"Ik kan me niet voorstellen dat er geen andere problemen voor in de plaats komen."

En ja, ik volg het nieuws wel. Beetje rare opmerking.
Daarlangs kan de prestatie getweaked en geoptimaliseerd worden. Zo ook voor het wine-systeem. Met een laatste patch voor bediening en aansturing van D3D is nu een dikke prestatie winst mogelijk. Zo draait Skyrim via linux sneller dan onder windows!!!!
En hoewel dit allemaal heel awesome klinkt is het voor de doorsnee gebruiker eerder een last om zoiets werkend te maken dan een lust. De meeste mensen willen een spel op reguliere wijze installeren en kunnen spelen en op deze manier gaan er nog niet veel overstappen.

Wat men nodig heeft om linux gaming op de kaart te zetten is een sloot aan devs (en dan doel ik niet op de meeste indies die dat vaker wel doen) die daadwerkelijk hun Triple A titles als native linux games uit gaan brengen. Ik vind dat Wine voor gaming gewoon niet nodig zou moeten zijn.
misschien dat tweakers daar warm van worden, maar dat is het dan ook...

Windows98 stripte ik (jaren geleden) ook van alle overbodige zaken zodat ik gemakkelijk 20MB extra ram vrij had (wat zeer veel was in die tijd) en ik ook wat meer fps had
allemaal zeer leuk, maar de pc's van tegenwoordig hebben een sloot ram geheugen, processor kracht in overvloed (dankzij meerdere cores) en ik vind het juist een meerwaarde dat er programma's in de achtergrond blijven doorwerken
kortom, als je een getunede machine wil om te gamen: koop een console
als ik de reacties zo eens lees is het treurig dat de meeste 'tweakers' nog zeer ouderwetse denkbeelden er op na houden.

als het woord linux valt dan denk men blijkbaar in de regel aan een desktop pc.

windows.. dat is 'desktop' over het algemeen

maar linux moet je niet zien als een obscuur desktop OS maar als een multi functioneel OS dat op ongeveer alles draait.. en ja.. toevallig zijn er ook desktop varianten.

in het verleden is de grote opkomst van linux voor consumenten voorspeld en menigeen stelde zich daar dus een desktop bij waar masaal zou naar worden overgestapt.

de revolutie is inmiddels een feit maar mensen die nog vanuit de oude windows fiilosofie denken hebben het niet eens door.

het is een 'revolutie via de achterdeur'

linux draait inmiddels op meer dan een miljard mobieltjes/tablets/mini pc's, ... maar ook op je setop boxes, media centers, fotocameras, routers, internationale ruimtestations, internet modems, navigatie apparatuur (bv: tomtom), geldautomaten, animatie studios, parkeer automaten, digitale muziek apparatuur, game consoles, servers, mainframes, supercomputers etc.. etc.. etc..
iedereen! bezit 1 of meerdere linux apparaten en komt er dagelijks mee in aanraking.. en de meeste mensen realiseren het zich niet eens. het hele internet hangt notabene aan elkaar van linux servers/routers/switches.

dus nee, als men het over gaming op linux heeft bedoeld men niet perse dat men massaal ubuntu gaat installeren op zijn pc maar dat er waarschijnlijk een grote opmars komt van game devices die op linux draaien.

kortom, het enige waar linux niet massaal wordt gebruikt is op die desktop pcees die men aan de straat stenen niet meer kwijt raakt.. ;)

en het is meer dan logisch, waarom zou je als game ontwikkelaar vast willen zitten aan grote bedrijven met hun eigen voorwaarden, libraries en hardware.

denk er over na...

de gouden middenweg is een open systeem met open standaarden.

op deze manier zijn de game ontwikkelaars niet gebonden aan allerlei verschillende systemen en implementaties maar aan 1 standaard die op alle systemen werkt.

en hardware fabrikant kan nog steeds zelf bepalen hoe mooi hij de hardware maakt zolang hij zich aan de standaarden houdt heeft de zekerheid dat die games op zijn systeem werken.

voor de consument is dit ook fantastisch want dit bevordert de concurrentie op prijs van de systemen (iedereen kan het bouwen en niet 1 bedrijf is exclusive en houdt daarom de prijs kunstmatig hoog) enorm en ook de prijs van de games gaan omlaag omdat een studio niet voor allerlei verschillende systemen hun games hoeven te gaan aanpassen en optimaliseren.
"In his speech, Mr Newell said that the Linux open source software was the future of gaming because its openness stood in stark contrast to the closed and proprietary worlds of consoles, mobiles and tablets. Linux is an operating system, like Windows, but is one that, unlike Windows, lets anyone tinker with its internal workings."

Gabe is juist negatief over de hele Tablet en Smartphone markt.
linux draait inmiddels op meer dan een miljard mobieltjes/tablets/mini pc's, ... maar ook op je setop boxes, media centers, fotocameras, routers, internationale ruimtestations, internet modems, navigatie apparatuur (bv: tomtom), geldautomaten, animatie studios, parkeer automaten, digitale muziek apparatuur, game consoles, servers, mainframes, supercomputers etc.. etc.. etc..
iedereen! bezit 1 of meerdere linux apparaten en komt er dagelijks mee in aanraking.. en de meeste mensen realiseren het zich niet eens. het hele internet hangt notabene aan elkaar van linux servers/routers/switches.
Voor de rest is dit beetje irrelevant, gigantisch veel devices draaiden 5j geleden ook al onder Linux, er is hier niet veel veranderd. We hebben het nu echter over de consumenten markt mbt gaming, waarin meneer Gabe afwil van gesloten OS . Waar hij Windows aanbrengt, omdat dit op moment de marktleider is op gebied van gaming. En juist wilt dat dit linux word.

Het verder gigantisch logisch dat we het hier hebben over desktop PCs, aangezien steam voor deze markt is bedoeld. Er is geen Nvidia Titan voor je Camera of navigatie systeem, die is er wel voor je desktop.

Zijn uitspraken staan los van camera's , geld automaten of wat dan ook. Dat dat op veel devices draait word ook nergens ontkent. Overigens zul je geen camera, server , mainframe of computer uberhaupt zien met steam geinstalleerd waar een game op word afgespeeld.

Wat hij wilt is een minder afgeschermd systeem om games op te ontwikkelen, ofwel Linux voor op al die gaming rigs.

Zie: http://www.bbc.co.uk/news/technology-24125344
op deze manier zijn de game ontwikkelaars niet gebonden aan allerlei verschillende systemen en implementaties maar aan 1 standaard die op alle systemen werkt.
Een standaard waar aan iedereen zich houdt is een utopie. Elke implementatie van een standaard is een interpretatie.
"In his speech, Mr Newell said that the Linux open source software was the future of gaming because its openness stood in stark contrast to the closed and proprietary worlds of consoles, mobiles and tablets. Linux is an operating system, like Windows, but is one that, unlike Windows, lets anyone tinker with its internal workings."
Gabe is juist negatief over de hele "closed and proprietary" Tablet en Smartphone markt. De nadruk ligt hier juist op open vs closed i.p.v. tablets of smartphones.

Gabe kijkt naar de markt, en de markt voor PC slinkt, dat willen die-hard PC gamers misschien niet horen. Maar Gabe heeft het over de toekomst, niet het heden.
Een standaard waar aan iedereen zich houdt is een utopie. Elke implementatie van een standaard is een interpretatie.
Dat kan zijn, maar als een standaard waar aan iedereen zich houdt een utopie is. Dan kunnen kunnen utopien ook echt bestaan. Want het internet is een voorbeeld van zo'n standaard.
De markt voor PC's slinkt totaal niet, de markt voor de verkoop van nieuwe PC's slinkt, de markt voor PC gaming zit zwaar in de lift de laatste 3 jaar.

Dat PCs meer dan genoeg power hebben nu om langer dan 3 jaar mee te gaan gecombineerd met een economische achteruitgang maakt van secondary devices nog geen winnaars.
Klopt, hij is anti gesloten systemen in general. Toevallig is het grootste deel van de afnemers op de smartphone markt daadkwerkelijk gesloten, de hoeveelheid die dat niet is is zo verwaarloosbaar dat je dat eigenlijk gewoon de smartphone markt kunt noemen.

Ach, dat er minder PCs worden gekocht bij dell oid dat neemt niet weg dat er niet genoeg enthousiastelingen zijn die gewoonweg nog een PC laten samenstellen. Hierop zie je geen cijfers, misschien te moeilijk te meten. Sterker nog, dankzij steam is PC gaming markt nog nooit zo groot geweest.

Wat Gaben wilt is gewoon weg een open systeem, weg met het gesloten. Dat roept tie al jaren overigens en is niets nieuws.

Het is trouwens leuk dat je het internet aanhaalt, waarin veel technieken rondom internet al heel erg oud zijn. Rond een tijd dat er amper stakeholders waren om zich te bemoeien met standaarden.

Zouden we dit leggen op een standaard voor OS implementatie, waarin iedereen moet voldoen en dus werkt het op alles, dan krijg je met gigantisch veel stakeholders te maken. Wil dit lukken dan moet er een draagvlak zijn van iedereen, dan simpelweg dit pushen vanuit een partij zal denk ik ook niet genoeg draagvlak creeeren. Ofwel simpel zeggen dat het al eens gelukt is, dus nu moet het ook lukken, ik denk niet dat het zo simpel is.\

Overigens wil het daarna nog niet zeggen dat de standaard daadwerkelijk goed word geimplementeerd door alle partijen. Internet is ook niet in een dag geboren.

[Reactie gewijzigd door Oxidda op 17 september 2013 20:01]

"kortom, het enige waar linux niet massaal wordt gebruikt is op die desktop pcees die men aan de straat stenen niet meer kwijt raakt.. ;)"

En waarom denk je? Misschien moeten Linux ontwikkelaars etc. eens het bord voor hun kop vandaan halen en realiseren dat mensen een simpel en gebruiksvriendelijk OS willen met alles behalve een command line.
Mag ik je dan even 2 distro's aanraden?
Ubuntu en Elementary OS.


DONE.
Misschien eens een moderne linux gebruiken? Dan zou je snel zien dat je helemaal niet meer op die command line moet zijn. De reden dat je hem veel ziet op linux is omdat het zo een krachtige tool is waarin een geoefend gebruiker sneller kan werken dan met een muis op een desktop.
Uh, dat open systeem met open standaarden is er al, dat heet de PC.
dus nee, als men het over gaming op linux heeft bedoeld men niet perse dat men massaal ubuntu gaat installeren op zijn pc maar dat er waarschijnlijk een grote opmars komt van game devices die op linux draaien.
Als Gabe het over gaming op linux heeft, bedoelt hij overduidelijk WEL Ubuntu op een PC, want dat is het enige platform dat officieel ondersteund wordt door Steam en de Valve Source games voor linux.

Android draait dan misschien wel op een linux-kernel, maar verder is het totaal verschillend van een Ubuntu-systeem, dus je kunt daar echt niet zomaar die Valve games op draaien (om te beginnen draait Android met OpenGL ES, wat toch wel op een aantal punten behoorlijk afwijkt van de reguliere OpenGL).
Valve heeft ook nergens aangegeven dat ze interesse hebben om hun games naar Android-devices te gaan brengen.
Dell doet amper wat nuttigs in de lijn die Newell lijkt te willen benadrukken. Hiermee bedoel ik te zeggen dat Dell opensource niet promoot op een manier zoals een community (zoals Linux) dat wel doet. Daarnaast zijn de investeringen & marktaandeel van Dell in de managed services (hardware, software & personeel) een relatieve druppel op de gloeiende plaat in de omzet van Dell.

Het doet me wel deugd om te zien dat het geloof er is dat een andere speler dan Microsoft ervoor kan gaan zorgen dat games voor een zeer groot publiek, zonder al te ingewikkelde protocollen & installaties, met voldoende perormance moeten worden aangeboden. Welke speler hier in gaat duiken en welke samenwerkingsverbanden eruit ontstaan, dat is nog te bezien. Helaas is de Linux-community op veel vlakken nog steeds te gedifferentieerd om een universele visie te presenteren op basis-functionaliteiten, laat staan op specifieke toepassingen zoals games. Denk hierbij aan wel/niet gebruiken van package X op distro Y of gebruik van GUI A op distro B.

[Reactie gewijzigd door MAX3400 op 17 september 2013 15:13]

Een ambitieuze uitspraak, al is Gabe Newell niet op zijn achterhoofd gevallen. Al eerdere uitspraken, ook over bijvoorbeeld piraterij, zijn heus wel doorgedacht. En ook hebben diverse projecten, zoals dat van Valve zelf maar ook de Hunble Bundle, laten zien dat Linux weliswaar een kleine doelgroep is maar zeker niet insignificant. Als je hiernaar kijkt is het opnieuw goed mogelijk dat Newell weet wat hij zegt. Het platform is levensvatbaar gebleken, en qua openheid van het platform kan je hem geen ongelijk geven.
Wat weet Gabe nu van gaming? De enige game die men wilt dat hij maakt, durft hij niet uit te brengen en zijn twee huidige toptitels zijn bijna volledig uit community content opgebouwd. Bovendien heeft Gabe veel te veel belangen bij een scenario zoals een wereldwijde overgang naar Linux, dat zijn uitspraken van een niveautje WC-eend zijn.

Dan wil ik het nog nieteens hebben over de hypocrisie van zo'n uitspraak van de maker van Steam. Niets meer dan DRM met een chatlist on origine, maar omdat het Steam is boeit niemand dat het DRM is?

[Reactie gewijzigd door Notlupus op 17 september 2013 15:22]

Als je het filmpje bekijkt dat himlims_ had gelinkt, zie je dat Newell de "community content" juist als toekomst van het gamen ziet. Bouw goede tools en geef de community de ruimte en vrijheid (op dus een open platforn) hun creativiteit los te laten en de creatieve output is zomaar 10x hoger dan wat een ontwikkelstudio kan bereiken. Zijn huidige twee toptitels sluiten dus volledig aan bij zijn toekomstvisie van gamen.
Wat kan iemand het boeien dat er DRM is? Ik ben niet tegen DRM. Een keer je code invullen zoals vroeger ging voor andere technieken, dat was ook DRM en daar had ook niemand wat op tegen. Het grote probleem zijn idiote uitvindingen als always-on DRM of platformafhankelijke DRM. Dat soort DRM zijn ook de reden waarom ik uit MOET wijken naar illegale bronnen als ik een keer een ebook wil gebruiken (omdat maar een beperkt aantal apparatuur Adobes systeem, welke op bijna elke legale ebook zit, ondersteunt). Maar een veel meer neutrale DRM, van mij mogen ze. Ik kan gewoon noem het maar wat voor game spelen die op Steam staat, zelfs als ik geen internetverbinding heb en bij een kwart van mijn spellen ook als ik deze op linux wil spelen, zolang deze geen extra DRM door de ontwikkelaar heeft toegevoegd gekregen om dit alles tegen te gaan. Als ik van die DRM geen last heb zie je mij er ook niet om klagen.
Eh, de GPL geeft ander met v3 wel om DRM, heel sterk zelfs in de zin dat het domweg niet toegestaan is om DRM toe te passen als je de v3 licentie gebruikt. Dus da's bepaald geen non-issue.
Daarom is Linux ook GPLv2. En ook op een hypothetisch GPLv3 OS (er bestaat er nog geen) kan je in principe een al dan niet closed source framework draaien dat DRM implementeert.

[Reactie gewijzigd door Dreamvoid op 17 september 2013 16:43]

Windows 8 is toch niet geslotener dan Windows 7 op secureboot na? Of mis ik iets?
En de komst van de store van microsoft. Stel dat microsoft een apple trekt (forceren van eigen app store en daar een deel van de opbrengst "stelen") dan is dat extreem pijnlijk voor een bedrijf als Valve (minimaal 20% van inkomsten plots weg). Geen flauw idee of dit is waar ze daadwerkelijk bang voor zijn, maar het zou me niks verbazen. Kijk naar Apple, ik had nooit gedacht dat ze er weg mee zouden komen, maar buiten een paar ontwikkelaars hier en daar heeft iedereen het gewoon geaccepteerd.

In ieder geval, Valve is sowieso altijd een apart bedrijf geweest :+ (lees dit), dus wat dat betreft verbaasd me hun focus op Linux en hun eigen weg gaan me totaal niks. Ik hoop dan ook echt dat de Steam Box een success word ondanks dat het zeker z'n eigen gevaren met zich mee brengt van een steeds geslotener ecosysteem.

[Reactie gewijzigd door David Mulder op 17 september 2013 15:11]

'Stelen'? Je bedoelt een revenue split zoals ook valve die hanteert op Steam?

http://www.steampowered.com/steamworks/FAQ.php
4. What is your revenue split?
We don't discuss our revenue split publicly. Once your game goes through Steam Greenlight, we'll get to those details.
Een snelle Google-search levert op dat ook Steam 70-30 hanteert, volgens die persoon althans:
http://answers.yahoo.com/...qid=20130218054145AAOL2EG

Het blijft me verbazen dat men blijft vallen over zo'n split, Google, Microsoft, Valve en Amazon hanteren dit soort modellen alleen de hoogte varieert soms.

Wat voor Valve wel pijnlijk is, is als Microsoft inderdaad een exclusieve store zou introduceren zoals Apple op iOS heeft (op OS X is dit niet het geval). Het gaat dan niet eens om het eventueel verliezen van een percentage maar van de gehele markt... Om eerlijk te zijn zie ik dat niet zo heel snel gebeuren op de desktop.
Op OS X is dit niet het geval? Lekker handig dat je niet weet waar je over praat. Als je op mac niet in de app store published kun je alleen apps draaien van developers die bij apple registeren of je gebruikers vertellen in de instellingen te gaan zoeken om "applications from anywhere" toe te staan (Apple menu > System Preferences… > Security & Privacy > General tab) en je krijgt sowieso een extra melding over je scherm. Toegegeven, het orginele plan van Apple was nog extremer, dit was het compromis wat ze maakte, maar zou me niks verbazen als ze met iedere versie die melding lelijker en lelijker zullen maken waardoor gebruikers gewoon praktisch verplicht worden om in de appstore te komen, want daar is alles makkelijk en zonder security waarschuwingen enzo.

[Reactie gewijzigd door David Mulder op 17 september 2013 15:38]

Als Apple OSX afsluit zoals iOS, dan zullen heel veel (niet iOS- of OSX-) programmeurs overstappen naar Linux. Ik kan me niet voorstellen dat ze dit zullen doen.
En om dezelfde reden denk ik dat microsoft het ook niet zover laat komen.
Dit is gewoon hoog spel van Valve.
Op OS X is dit niet het geval? Lekker handig dat je niet weet waar je over praat.
Waarom reageer je dan? Je verhaal klopt niet bepaald. Hieronder dan wel het juiste verhaal:

OS X kent vanaf Lion (10.7) een functie die Gatekeeper heet. Het doel is het voorkomen van installeren van software waarmee gerommeld is. Standaard staat hij ingesteld om alles te blokkeren wat geen certificaat heeft of die niet uit de Mac App Store komt (beetje dubbelop want wil je in de laatst genoemde komen moet je een certificaat hebben). Daarmee kun je nagenoeg alles installeren wat je maar wilt zonder een melding whatsoever te krijgen. Zo'n certificaat verkrijgen en daarmee je applicatie signen is de hele wereld niet. Dat hebben ze bij een LibreOffice inmiddels ook al voor elkaar (dat open source het niet zou kunnen omdat het open source is, is bij dezen dus als complete bullshit bewezen).

Er zijn naast deze standaard instelling welgeteld 2 niet-standaard instellingen: helemaal uit en alleen Mac App Store. Ik denk niet dat ik hoef uit te leggen wat die doen.

Nou heb je OS X net genstalleerd en wil je iets installeren wat niet uit de Mac App Store komt en ook geen certificaat heeft. Wat nu? Simpel: lezen wat er staat want je krijgt een popup die je in 99% van de gevallen uitlegt wat er gaande is. Meestal is dat de melding die uitlegt dat je 'm niet kunt runnen/installeren omdat ie niet uit de Mac App Store komt en hij ook geen certificaat heeft. Hoe nu verder? Simpel: rechtermuisklikken en kiezen voor openen. Klaar. Hij onthoudt vanaf dat moment dat de app is toegestaan en zeurt er dan ook niet meer om. En ook dat staat meestal in de melding.
Er zijn een aantal uitzonderingen waarbij je een andere melding krijgt of waarbij rechtermuisklikken niet werkt. Dan moet je weer wel die Gatekeeper setting op off moet zetten (je kunt de app daarna uitvoeren en vervolgens Gatekeeper weer aan zetten, ook dan onthoudt Gatekeeper dat de app is toegestaan). Gelukkig heeft Apple een knowledgebase artikel online staan die het nog beter toelicht incl. de messages die je kunt krijgen: About Gatekeeper. Zoals je daar kunt lezen kan een systeembeheerder voor alle Macs bepalen op welke setting Gatekeeper moet staan (nog een reden waarom een compleet gesloten systeem geen optie is: het bedrijfsleven zal dat niet slikken, een nogal belangrijk aspect van Windows).

Afgezien hiervan kan ik ook nog gewoon mijn eigen software maken en draaien middels Automator (weliswaar erg basic), diverse scripting en programmeertalen. Als ik zin heb om iets van Github te plukken dan kan dat. Compilen middels Xcode en daarna runnen ook geen probleem.

Er is dus GEEN exclusieve store op OS X zoals we die op iOS kennen. Software kun je van diverse partijen betrekken en installeren. Bij iOS is dat heel wat restrictiever want dat kan alleen via de Apple-wegen (App Store, developer).

Wat het originele plan was van Apple weet niemand buiten een zeer selecte groep binnen Apple zelf. Apple heeft het nooit over dat soort zaken, ze laten alleen datgene zien wat er in het product zit. Wat ze laten zien is wat wij als gebruikers krijgen.

Windows 8 doet het trouwens niet zo gek veel anders als bovenstaand verhaal voor OS X. Ze hebben goed gekeken naar wat werkt en wat echt niet werkt. Je ziet het zelfs bij diverse Linux distro's (kijk eens naar Ubuntu). Bij Windows speelt de support van het bedrijfsleven ook erg mooi en dat is goed te zien in de mogelijkheden en keuzes van Microsofts app store.
Meneer Newell praat nogal in zijn eigen straatje. Hij is bang dat met de komst van de Windows Store de omzet van Steam en daarmee Valve klappen zal gaan oplopen.
Dat lijkt mij ook een belangrijke reden om zich ook te gaan richten op Linux en dat is natuurlijk niet meer dan logisch.

Wat wel vreemd is, is om dan maar voor de gamingindustrie in het algemeen te gaan spreken.
Aan de andere kant hebben de meeste mensen ook flink genvesteerd in hun Steam library. Ik heb persoonlijk meer dan 200 games. Als Microsoft inderdaad Steam zou blokkeren (of het moeilijker maken op de een of andere manier) is het voor mij makkelijker om weg te blijven van nieuwe Windows versies dan van Steam.

tl;dr

Het zou ook zo kunnen dat Microsoft 50 miljoen gebruikers dan kwijt is.

[Reactie gewijzigd door krosis op 17 september 2013 17:47]

is dat echt zo?
binnenkort komt de PS4 en X1 uit, ik verwacht dat, net zoals toen de PS3 en X360 uitkwamen, mensen massaal hun oude console met de hele games collectie de deur gaan uit doen

als er een goed alternatief komt ben ik vrij zeker dat een pak Steam gebruikers overschakelt

ik vind het ook heel vreemd om je zo aan Steam te gaan vastklampen, maar Windows zomaar zou inruilen voor Linux
ik game ook wel regelmatig, maar de belangrijkste reden om Windows te gebruiken is voor mij: omdat ik het ken en ik er veel programma's voor heb
Dat vind ik dan ook mooi van meneer Newell, opensource is de toekomst? Wat van Valve is opensource (op hun debugger bijdragen na)?

Ik denk inderdaad dat hij bang is dat de Windows Store daadwerkelijk concurentie word.

Van die SteamBox verwacht ik eigenlijk ook niet zo heel veel, een Linux box met Steam(big screen) in een mooi doosje?

Verder kan ik alleen een debian package vinden van steam, en word het in de Ubuntu appstore aangeprezen.
Kijk eerst die video even, want ze dragen dus bij aan erg veel projecten; van LLVM, tot de drivers, van debugging tools tot kernel-patches.

De hele keynote is maar 24 minuten en staat op YouTube:
http://www.youtube.com/watch?v=Gzn6E2m3otg

Bijna alle Linux distro's hebben inmiddels support.

Verder gaan ze exclusieve titels uitbrengen als Half-Life3!

Zeer goed bezig daar bij Valve! Hopen dat het ze lukt :)

[Reactie gewijzigd door Peetke op 17 september 2013 16:51]

Ze dragen dus bij aan projecten die er voor zorgen dat steam/source engine werkt op Linux, maar Steam en Source zelf zijn nog steeds gewoon closed source. Microsoft draagt ook zat bij aan Linux en opensource projecten. Ze hebben zelfs redelijk wat eigen opensource projecten.

Je claim van HL3 is compleet ongefundeerd, en tevens is dat alles behalve goed bezig.

Dit is dus het juist het omgekeerde van doen. In plaats van meer mensen toegang te geven ga je dan juist weer mensen uitsluiten, en dan zie ik dat voornamelijk om mensen naar hun eigen omgeving te pushen. De SteamBox.

Zonder Windows was er geen Steam, en ik denk dat Valve zich er erg op verkijkt als ze denken dat iedereen naar Linux gaat rennen omdat daar hun SteamBox op uit komt.

En welke van zijn claims zijn niet ook van toepassing op Steam?
Als je in n klap je hele game collectie -met her en der uitzonderingen- in Steam te niet wil doen, dan moet je vooral op Linux overstappen. Anders zou ik het gewoon bij Windows houden, daar werkt het altijd op.
Volgens mij is er iets mis gegaan bij het plaatsen van je link

http://www.youtube.com/watch?v=Gzn6E2m3otg is de correcte link.
Denk nou niet dat ze half life 3 alleen naar hun steambox zouden gaan brengen, valve wil gewoon zo breed mogelijk gaan zodat ze zoveel mogelijk geld kunnen binnenhalen (en geeft ze eens ongelijk, het is dan ook een geen filantropische instelling)..
En in welke zin gaan ze "exclusieve titels" zoals Half Life 3 weren van Windows?

Windows ondersteund OpenGL en DirectX, dus komen ze wel even met een nieuwe standaard op de proppen?

Anders om kan iets wel exclusief zijn voor Windows daar Linux geen DirectX support biedt.

Als ze dus al voor OpenGL gaan dan krijgen crackers het toch wel draaiende op Windows (mocht dit uberhaupt al een echt probleem vormen).
Ja, met het verschil dat Microsoft gewoon toestaat dat Valve zijn Steam store op Win8 draait. :)
Voor hoelang? Valve is verstandig om op zoek te gaan naar alternativen.
Ik denk niet dat Microsoft het zomaar kan maken Steam onbruikbaar te maken.. dat zou te overduidelijk monopoliemisbruik zijn. (Om eoa reden mag apple dat wel.)
Omdat Apple geen (bijna) monopolie heeft op de markt, nog steeds wordt de PC Gamingmarkt gedomineerd door Microsoft en bezitten ze hierdoor wel een monopolie, en dus onder de loep van de mededingingsautoriteiten
Mededingingsautoriteiten kunnen pas iets als het te laat is. Je kunt immers pas veroordeeld worden na de daad. En gezien Microsoft's trackrecord zijn ze niet bang om met mededingingsautoriteiten in aanraking te komen.
Het is zelfmoord als MS die stap zet op Windows. Dan klapt ook hun hele bussiness/server tak weg.
Volgens mij heeft Microsoft nog nooit software geblokkeerd op Windows?
Binnen Windows 8/RT Store kunnen ze wel applicaties blokkeren.
Ok, en dan installeer je de software gewoon buiten de Store...
Net zoals bij iOS zeker? Valve kijkt gewoon vooruit. Slim van ze! Dat zouden meer mensen moeten doen!
Ik vind het geweldig. Go steam! :) Ik wacht met smart op de verschillende Engine's die verschillende fabrikanten aan het porten zijn voor Linux. Dat kan een heleboel losbreken in de toekomst.

Ubuntu krijgt steeds meer support vanuit allerlei hoeken. Iig de Debian kant van Linux is heel hard aan het groeien.
Ubuntu is maar de vraag wat daar mee gaat gebeuren. Eerst overhoop met gnome ontwikkelaars door met unity te komen, vervolgens overhoop met X en wayland ontwikkelaars vanwege Mir.
Misschien dat ze amd en nv zover kunnen krijgen om Mir specifieke drivers te schrijven, Intel doet sowieso al niet mee.
Meh, dat gezeur op Unity moet maar eens over zijn. De reden toen om Unity te schrijven was convergance; En UI op meerder form factors, en dat is aardig gelukt.

Bovendien was er na Gnome 2.x een groot gat want Gnome 3.x was een draak om goed werkende te krijgen en het werkte, uhm, ronduit vervelend. Veel distros zagen de bui al hangen maar het is uiteindelijk (na een x aantal jaar) weer goed gekomen.

Zelfde gaat voor Mir: convergence. Het is handig als je maar n displayserver/client hoeft te schrijven voor je mobiele telefoon versie als voor je desktop OS, dat is iets wat met Wayland (nog) niet helemaal soepeltjes loopt.
Dat staat Apple op Mac os x ook toe. Alleen op iOS niet. Net zoals Microsoft: wel op Windows, niet op Windows phone.
Stelen? Zij hebben een winkel, regelen de infrastructuur, het onderhoud en de betalingen. En ze bieden een systeem waar zelfs jan met de pet eenvoudig apps kan ontdekken en installeren.
Oja, en hebben een bereik van enkele honderden miljoenen.
En jij vindt serieus dat je daar gratis gebruik van zou moeten kunnen maken?
Het is weldegelijk een heel groot verschil met hoe je pre-appstore applicaties vond voor je "smartphone".
Zo eenvoudig zou je niet zoveel potentile kopers bereiken als je je app op je eigen website zou hosten.
Het is "stelen" omdat het extra bemoeilijkt word (op mac) en onmogelijk gemaakt (op ios) om via alternatieve route apps te installeren. Als het gewoon een dienst is die ze bieden dan konden ze ook gewoon alternatieve methodes toe staan (e.g. zoals op android) en in hun eigen product geloven. Nu word de developer voor de kar gespannen in een bind want hij is niet meer in controle (de OS leverancier is dat plots). Dat is dus ook wat ik denk dat Valve bang voor is.
Bij zowel OS X als Android moet je een vinkje in de settings omzetten om Apps buiten een store te kunnen installeren.
En toch vind je de Android methode wel goed en keur je die van Apple af..?

Dan heb ik het nog niet eens over het signen van je App. Dat kun je doen bij Apple, iedereen met een developer account kan dat doen (99$ per jaar) maar je kunt ook gebruik maken van andere instanties die certificaten verkopen zover ik weet, dan krijgt Apple niks. Een gesignde App draait gewoon op OS X zonder het vinkje aan te passen.
Als de signer in de keychain zit.
Na een jailbreak of als je zelf de apps maakt dus?
Wat OS X en Android oden is hetzelfde ja en het is licht hypocriet van me om daar een lijn tussen te trekken. Voor mij licht het verschil er in dat ik OSX vergelijk met de desktop alternatieven en android met de mobiele alternatieven. Dus op de smartphone markt is android gewoon de least of all evils op dit vlak.

En wat betreft signen, zover ik weet accepteerde gatekeeper het alleen als je het via Apple doet... maar op dat vlak zou ik me kunnen vergissen. In ieder geval, waar slaat het op dat /code/ niet gewoon gedraaid kan worden en dat elk stuk code aan een real life persoon moet gebonden zijn. En zelfs als het gesigned is kreeg je een lelijke extra waarschuwing te zien.
Dat is geen stelen, maar een eco-systeem opbouwen.
Dankzij de Apple Appstore is zijn de appconomy in zo'n rap tempo gegroeid.
Want ja uiteindelijk draait het nog steeds om vertrouwen en geld.
Doordat er waarde werd gecreerd door de Appstore kregen grote investeerders het vertrouwen om een investering te doen, waardoor app developers betaald konden worden.
Steam draait ook op OSX, ik zie dus het probleem niet waar jij op doelt?
De Windows store staat volledig naast steam. Je kunt gewoon desktopapps installeren zonder enige restricties. In tegenstelling tot steam zelf is Windows gewoon Open voor alles. De Windows store heeft alleen restricties voor modern ui apps, en daarvan gaat inderdaad geld naar ms.
Niet geslotener, maar ook niet opener...
Maar eerder was de geslotenheid geen probleem en nu is Windows 8 wel een ramp?

Daarbij is Steam zelfs met Greenlight een geslotener store dan die van Apple en Microsoft. Lijkt me dat Newell Windows heeft gebruikt om groot te worden en nu maar afdankt omdat (naar hij denkt) Steam nu groter kan worden dan de OS-en en Linux kan gaan pushen.

EDIT: Eerste zin vloeiender gemaakt

[Reactie gewijzigd door shadowsalyer op 17 september 2013 15:15]

Ik denk dat het destijds ook al een 'probleem' is geweest, maar dat er gewoon geen goed alternatief was.

Gamen op een platform, waarvoor (bijna) geen drivers beschikbaar zijn voor de nieuwste videokaarten valt niet mee.

De tijden veranderen, Linux wordt volwassener en krijgt steeds betere ondersteuning van allerlei vendors (waaronder Nvidia en Ati). Ook bedrijven als Intel investeren een aanzienlijk bedrag in kernel development.

Het punt is daarom denk ik niet dat Windows te gesloten wordt, maar meer dat er nu misschien een heel interessant alternatief is in de vorm van Linux.

Verder denk ik niet dat je moet vergeten dat ook Gabe gewoon centen probeert te verdienen, zoals ieder ander.
Het punt is daarom denk ik niet dat Windows te gesloten wordt, maar meer dat er nu misschien een heel interessant alternatief is in de vorm van Linux.
Als Gabe het maar vaak genoeg roept, gaan mensen het misschien nog geloven ook.

Maar welbeschouwd vertelt hij natuurlijk onzin.
Als openheid zo belangrijk was voor innovatie, dan zouden linux en OpenGL al LANG voorop lopen.
Feit is dat OpenGL al jarenlang achter de feiten (Direct3D) aanloopt. Alle nieuwe grafische features komen eerst in een nieuwe versie van Direct3D, daarna komt OpenGL met de specificatie van een extensie voor die feature... Dan mag je nog eens wachten totdat de fabrikanten drivers schrijven met support voor die feature, en jaren later wordt het nog eens in de core van OpenGL opgenomen.

De innovatie op het gebied van games/graphics gebeurt vooral door grote bedrijven die er veel geld in pompen, en daardoor dus veel IP te beschermen hebben, dus veelal met closed/proprietary oplossingen komen.
Een ander goed voorbeeld is nVidia's Cuda. De meer open varianten (als in: multi-vendor) als DirectCompute en OpenCL lopen daar ook nog steeds achter de feiten aan.

De geslotenheid van Windows is hierbij ook nooit een probleem geweest, want nieuwe versies van OpenGL, Cuda en dergelijke worden over het algemeen het eerst en het best ondersteund op Windows.

Kortom, Gabe's verhaal klinkt wel leuk, maar met de realiteit heeft het niet veel te maken.
Feit is dat OpenGL al jarenlang achter de feiten (Direct3D) aanloopt. Alle nieuwe grafische features komen eerst in een nieuwe versie van Direct3D, daarna komt OpenGL met de specificatie van een extensie voor die feature... Dan mag je nog eens wachten totdat de fabrikanten drivers schrijven met support voor die feature, en jaren later wordt het nog eens in de core van OpenGL opgenomen.
Misschien moet je je toch eens beter inlezen, dan z ongefundeerd kritiek te uiten op OpenGL. Waaruit blijkt volgens jou dat OpenGL jarenlang achter de feiten aanloopt?

De laatste paar jaar deden ze het niet best nee, maar voor 2011 werd de 'show-off' tussen Direct3d en OpenGL ook wel 'API-wars' genoemd... en dat was voor niets. Sinds OpenGL 4 loopt het allemaal weer goed en is het min of meer toch weer een API-war aan het worden.

Microsoft zag gewoon tijdig in, dat gamen een belangrijke beslisfactor is voor consumenten, dus moesten ze daar iets voor maken. Dat werd een gesloten API, direct3d.

Om het stukje API-wars even aan te wakkeren, bij de introductie van tesselation in direct3d, was dit al 3 jaar lang ingebouwd als extensie van opengl. Zo ver liepen ze 'achter' bij OpenGL (niet dus!).

Kortom, wat je schrijft lijkt nergens op gefundeerd te zijn, anders zou het misschien een aardig idee zijn om een paar bronnen te publiceren bij je verhaal, die onderstrepen dat OpenGL achterloopt en altijd achter heeft gelopen. Dan krijgen we misschien een feitendiscussie, in plaats van een hoop gel*l in de ruimte... :)

Om zelf nog eens een bronnetje aan te boren:
Why do we still use Direct3D?

If OpenGL is faster, why is DirectX still the predominant API? It isn’t because of image quality or features: OpenGL 4.0 has all of shaders and tessellators and widgets that DX has. It isn’t because of hardware support: All Nvidia and AMD graphics cards support the latest version of OpenGL along with DirectX.

Really, it all comes down to that crummy old thing we call the network effect — and, of course, monopolistic heft and marketing dollars. DirectX, because it has a cleaner API and better documentation, is easier to learn. More developers using DirectX = more DirectX games = better driver support. This is a vicious loop that again leads to more DX devs, more DX games, and better DX drivers/tools/documentation. Microsoft has relentlessly marketed DirectX, too — and who can forget the release of Windows Vista and Microsoft’s OpenGL smear campaign? Vista’s bundled version of OpenGL was completely crippled, forcing many devs to switch to DirectX.

Microsoft has good reason to hamper the progress of OpenGL, of course: While DirectX is proprietary and only runs on Windows, Xbox and Windows Phone, OpenGL is completely cross-platform. There are solid OpenGL implementations for Mac, Linux, PlayStation 3, Nintendo Wii, and just about every modern smartphone (OpenGL ES). It obviously in Microsoft’s best interests to ensure that the best gaming experiences are exclusive to its platforms.
Bron: http://www.extremetech.co...n-directx-even-on-windows

[Reactie gewijzigd door EnigmA-X op 17 september 2013 16:57]

Misschien moet je je toch eens beter inlezen, dan z ongefundeerd kritiek te uiten op OpenGL. Waaruit blijkt volgens jou dat OpenGL jarenlang achter de feiten aanloopt?
Misschien moet je niet zo snel oordelen.
Ik ontwikkel al jarenlang Direct3D en OpenGL-software, ik weet echt wel waar ik het over heb.
Je kunt wat ik zeg simpel verifieren: Pak wat OpenGL-versies, en leg hun features naast die van Direct3D, zul je zien dat Direct3D vrijwel altijd eerder is.
Een voorbeeldje: Geometry shaders:
Geintroduceerd in Direct3D 10, tegelijk met Windows Vista in november 2006.
Eerste OpenGL extensie: http://www.opengl.org/reg.../ARB/geometry_shader4.txt
Juli 2008.
Pas in OpenGL 3.2 werd het in de core opgenomen: augustus 2009.

Of de tessellation shaders van Direct3D 11, tegelijk met Windows 7, juli 2009.
OpenGL extensies:
http://www.opengl.org/reg...B/tessellation_shader.txt
Maart 2010.

Dit is algemeen bekend.
Sinds OpenGL 4 loopt het allemaal weer goed en is het min of meer toch weer een API-war aan het worden.
Niet echt.
Microsoft zag gewoon tijdig in, dat gamen een belangrijke beslisfactor is voor consumenten, dus moesten ze daar iets voor maken. Dat werd een gesloten API, direct3d.
Ja, dat roept het OpenGL-kamp graag, maar daar is niks van waar.
Direct3D was een hardware-onafhankelijk alternatief voor de vendor-specifieke oplossingen als Glide en PowerSGL.
OpenGL speelde in die tijd nog geen rol, want dergelijke consumentenhardware was niet geavanceerd genoeg om de OpenGL-functieset te ondersteunen. Er waren dan ook geen OpenGL-drivers voor.

Pas in 1997 kwam OpenGL-gaming op Windows op gang, en dat nog op een hele vreemde manier ook: Carmack releaset GLQuake, terwijl hij weet dat er eigenlijk geen hardware op de markt is die het draait. Ik quote de GLQuake readme:
Theoretically, glquake will run on any compliant OpenGL that supports the
texture objects extensions, but unless it is very powerfull hardware that
accelerates everything needed, the game play will not be acceptable. If it
has to go through any software emulation paths, the performance will likely
by well under one frame per second.

At this time (march ’97), the only standard opengl hardware that can play
glquake reasonably is an intergraph realizm, which is a VERY expensive card.
3dlabs has been improving their performance significantly, but with the
available drivers it still isn’t good enough to play. Some of the current
3dlabs drivers for glint and permedia baords can also crash NT when exiting
from a full screen run, so I don’t recommend running glquake on 3dlabs
hardware.

3dfx has provided an opengl32.dll that implements everything glquake needs,
but it is not a full opengl implementation. Other opengl applications are
very unlikely to work with it, so consider it basically a “glquake driver”.
Vanwege GLQuake kwamen er dus MiniGL drivers, en pas veel later kwamen er volwaardige OpenGL-drivers voor Windows (rond het nVidia TNT-tijdperk grofweg). Direct3D bestond toen al jaren, en had al een aantal nieuwe versies achter de rug.
Om dan te gaan roepen dat Direct3D Microsoft's antwoord is op OpenGL, geeft alleen maar aan dat je totaal geen idee hebt waar je over praat.
Direct3D was in eerste instantie op een compleet andere markt gericht dan OpenGL. In de loop der jaren zijn ze naar elkaar toe gegroeid.
Om het stukje API-wars even aan te wakkeren, bij de introductie van tesselation in direct3d, was dit al 3 jaar lang ingebouwd als extensie van opengl. Zo ver liepen ze 'achter' bij OpenGL (niet dus!).
Da's ook een gouwe ouwe uit het OpenGL-kamp, waar ook weer weinig van klopt.
'Tessellation' is een vrij breed begrip. Direct3D 8.1 had al een vroege vorm van tessellation in de vorm van N-patches en RT-patches (vooral bekend van ATi's Radeon 8500 met 'TruForm').
Die primitieve vormen van tessellation waren echter nooit een succes. Direct3D 11 introduceerde een flexibele, programmeerbare vorm van tessellation. Totaal niet te vergelijken met die vroege vendor-specific extensions die er toevallig voor OpenGL waren (van ATi dus, die na TruForm nog even verder is gegaan, maar nooit iets bereikt heeft ermee).
De eerste programmeerbare vorm van tessellation is degene die ik noemde, en dat is wel degelijk een kloon van de technologie die eerder al in Direct3D11 geintroduceerd was.
Kortom, wat je schrijft lijkt nergens op gefundeerd te zijn, anders zou het misschien een aardig idee zijn om een paar bronnen te publiceren bij je verhaal, die onderstrepen dat OpenGL achterloopt en altijd achter heeft gelopen.
Oei, je bent wel zeker van jezelf :)
Na deze post waarschijnlijk niet meer :)
Oei, je bent wel zeker van jezelf :)
Na deze post waarschijnlijk niet meer :)
Nee hoor. Ik schreef alleen dat je post nergens op gefundeerd was. Dat was ook zo. In deze post geef je een duidelijke toelichting en dat maakt heel veel goed :) (+2 van mij)

Nu is het tenminste een feiten discussie, waarvan ik zeker weet dat je hem van mij (en vele anderen) gaat winnen.

Het enige waar we het dan kennelijk niet over eens zijn, is dat direct3d zo populair is, komt mede door het feit dat Microsoft de marketing op orde had n het 'network effect'.

Ik zie geen enkele reden waarom dat met OpenGL niet net z zou kunnen gebeuren, als het eenmaal grootschalig omarmt wordt door de industrie (omdat er bijvoorbeeld ook een markt ontstaat voor gamen op linux machines). De industrie maakt het volgens mij geen klap uit hoe het beestje heet, als ze maar geld verdienen.

Uiteindelijk zei men in de beginjaren ook dat de linux kernel kansloos was tegen het topproduct van Microsoft, k op de servermarkt. Kijk nu eens hoeveel devices er op een linux kernel draaien. Het is gewoon een kwestie van omarmen en omarmd worden.
Nee hoor. Ik schreef alleen dat je post nergens op gefundeerd was. Dat was ook zo.
Nee, dat is niet zo.
Er is een verschil tussen een ongefundeerd statement, en een statement dat wel degelijk ergens op gebaseerd is, al is de basis misschien niet expliciet genoemd.
Mijn statements waren duidelijk WEL gefundeerd, ik dacht alleen dat het algemeen bekend was dat OpenGL al jaren achter de feiten aanloopt, en dat het anders makkelijk te verifieren was door even op wiki te kijken of wat dan ook.
In feite is het gewoon diep triest dat ik die links voor je moest voorkauwen. Zeker na die grote mond van jou.
Het enige waar we het dan kennelijk niet over eens zijn, is dat direct3d zo populair is, komt mede door het feit dat Microsoft de marketing op orde had n het 'network effect'.
Marketing? Dat was niet zo heel moeilijk in de begintijd van Windows 9x. Direct3D was de enige vendor-onafhankelijke optie... En zoals te lezen valt in de GLQuake readme, de eerste versies van MiniGL/OpenGL-drivers waren niet bepaald om over naar huis te schrijven.
De industrie maakt het volgens mij geen klap uit hoe het beestje heet, als ze maar geld verdienen.
Daarmee geef je ook zelf het antwoord al: het interesseert de industrie helemaal niet of ze nou D3D of OGL gebruiken. Ze zitten al op D3D, en dat voldoet prima, dus waarom zouden ze die overstap maken?
OpenGL zou alleen een kans maken als het echt significant beter was... veel sneller, veel meer features, dat soort dingen. Maar dat gaat nooit gebeuren, omdat de hardware leidend is, en niet de API.

Direct3D werkt zo goed omdat Microsoft samen met de hardware-ontwikkelaars rond de tafel gaat zitten, en van te voren een roadmap uitstippelt. Zo komt een nieuwe API-versie vaak ongeveer gelijktijdig uit met een nieuwe generatie hardware, waar beiden perfect op elkaar aansluiten.
Daarom zal OpenGL ook altijd wel achter de feiten aan blijven lopen. Je kunt die roadmap maar met 1 partij maken, en dat is Microsoft. OpenGL kan alleen maar volgen.
Uiteindelijk zei men in de beginjaren ook dat de linux kernel kansloos was tegen het topproduct van Microsoft, k op de servermarkt.
Wie zei dat? Slaat namelijk helemaal nergens op. Microsoft is nooit heel gelukkig geweest op de servermarkt, en linux concurreerde dan ook voornamelijk met andere UNIX-achtigen. En dat heeft linux vrij aardig gedaan, voornamelijk omdat linux goed genoeg werkte, en draaide op supergoedkope x86-hardware ('Windows-machines').
Er is een verschil tussen een ongefundeerd statement, en een statement dat wel degelijk ergens op gebaseerd is, al is de basis misschien niet expliciet genoemd.
Mijn statements waren duidelijk WEL gefundeerd, ik dacht alleen dat ...
Het idee achter een gefundeerde discussie op een forum is dat je bronnen noemt, f een heel goede plausibele verklaring hebt waarbij de ervaring ervan af straalt.

Niet dat anderen moeten gaan gokken wat jij denkt.

De vergelijking met Linux als OS slaat wl ergens op. Net als OpenGL is Linux ook open-source. Het ging mij namelijk om het omarmen van open standaarden door de industrie. Zie Intel die grof investeert in de linux kernel.

Als de gaming industrie hetzelfde gaat doen, dan kn dat in heel korte tijd een heel groot effect hebben. Zeker als je bedenkt dat ook hardware fabrikanten als sinds jaar en dag de OpenGL standaard ondersteunen. Ze doen alleen niet actief mee met ontwikkeling aan de software kant.

Zo gaat dat precies hetzelfde met het ontwikkelen van de Linux Kernel. Inmiddels ziet Intel zelf ook wel in dat het handig is dat hun hardware goed ondersteund wordt en optimaal werkt. Die developpen dus vrolijk mee aan de kernel, zonder een specifieke tussenleverancier zoals Microsoft.

Ik ben het dus niet met je eens dat je daar een Microsoft voor nodig hebt, die om de tafel gaat zitten. Als er markt is, dan gaan de fabrikanten van hardware vanzelf meebewegen, die willen namelijk k gewoon geld verdienen. Als er meer geld zit in open standaarden, dan investeren ze dat beetje wel. Het is alleen een andere opzet en denkwijze, dat betekent niet dat 'het nergens op slaat'.

...en dat brengt mij bij het gevoel van het vaste denkpatroon, zoals GiLux in zijn reactie hieronder ook al noemt.

Het feit dat wij er hier, nu, op dit moment over discussieren, bewijst eens te meer dat de verandering gaande is. Het is namelijk interessant genoeg om als 'nieuws' te bestempelen. Wat de uitkomst is... dat weten we over een paar jaar.

Verder mag je vinden wat je wilt, maar vinden dat iemand een grote mond heeft en dan zo'n reactie terugschrijven... eh spiegeltje? :)
Een bitse discussie over 2 api's ...

Als we even de feiten objectief bekijken blijkt inderdaad dat D3D cleaner is, sneller evolueert en overduidelijk geliefder is bij devs dan OpenGL.
Ik ben echter wel van mening dat OpenGL aan terrein zal terugwinnen de komende jaren, de innovatie rond D3D wordt afgeremd door de console markt waar ook MS baat bij heeft.
Nog betere graphics op pc zou wel eens kunnen leiden tot de massale voorkeur voor de pc versie van een game ipv de XBox versie.
MS speelt D3D alleen maar uit in haar eigen voordeel, zie het nooit uitbrengen van DX10 op WindowsXP.

Naarmate Linux en MacOS populairder worden wordt het voor kleine dev's interessanter om meteen cross platform te gaan met OpenGL.
De grote firma's gebruiken sowieso hun eigen wrapper api's waardoor ze met 1 engine alle consoles + pc kunnen bedienen, wat er dan nog onder zit boeit niet zo, met kiest de api met de beste support en dito performance.
de innovatie rond D3D wordt afgeremd door de console markt waar ook MS baat bij heeft.
Helemaal niet.
Iedere nieuwe versie van D3D heeft een eigen interface, en draait dus naast de oudere versies.
Consoles hebben Microsoft nog nooit ervan weerhouden om nieuwe versies van D3D uit te brengen voor Windows.

Case in point: Xbox360 is in eind 2005 uitgebracht, met een Direct3D9-variant. In 2006 kwam al Vista uit met Direct3D10. Inmiddels zitten we al op Direct3D 11.2 met Windows 8.1, en de opvolger van de Xbox360 is er nog steeds niet.
MS speelt D3D alleen maar uit in haar eigen voordeel, zie het nooit uitbrengen van DX10 op WindowsXP.
Oh jee, krijgen we die ook nog...
Het idee achter een gefundeerde discussie op een forum is dat je bronnen noemt, f een heel goede plausibele verklaring hebt waarbij de ervaring ervan af straalt.

Niet dat anderen moeten gaan gokken wat jij denkt.
Ik zei dit:
Feit is dat OpenGL al jarenlang achter de feiten (Direct3D) aanloopt. Alle nieuwe grafische features komen eerst in een nieuwe versie van Direct3D, daarna komt OpenGL met de specificatie van een extensie voor die feature... Dan mag je nog eens wachten totdat de fabrikanten drivers schrijven met support voor die feature, en jaren later wordt het nog eens in de core van OpenGL opgenomen.
Wat valt daar te gokken dan? Ik zeg heel letterlijk wat ik bedoel. Dat ik niet meteen ook een paar extensies erbij google en de data erbij plak, tsja... left as an exercise to the reader.
Blijkbaar kun jij dat dus niet eens, want jij gaat roepen dat ik het fout heb, zonder dat je uberhaupt de moeite hebt genomen om de feiten die ik noem te verifieren. Daar komt nog bij dat je dus roept dat ik het fout heb zonder dat je daar enig bewijs voor post. Als je zo graag gefundeerde discussies hebt, lever dan zelf ook bronnen aan. Al HELEMAAL als je een ander gaat beschuldigen van het verspreiden van foute informatie. Ga je nou niet proberen eruit te kletsen.
Net als OpenGL is Linux ook open-source
OpenGL is helemaal niet open source! Het is een open standaard. De implementaties van NVidia en AMD zijn gewoon closed-source (okee, er bestaan inferieure open-source drivers... maar de closed binaries zijn de enige die enigszins vergelijkbaar zijn met Windows-drivers, qua features en performance).
Als de gaming industrie hetzelfde gaat doen, dan kn dat in heel korte tijd een heel groot effect hebben
Dat kan, maar waarom zouden ze dat doen? Bij Intel is het duidelijk: investeren in linux betekent betere support voor smartphones en tablets met Android, betere performance met linux-servers etc. Daar valt duidelijk wat te halen voor Intel.
Wat heeft de game-industrie eraan om over te stappen?
Zeker als je bedenkt dat ook hardware fabrikanten als sinds jaar en dag de OpenGL standaard ondersteunen.
Blijkbaar is het bestaan van OpenGL en linux tot dusverre geen reden geweest voor de game-industrie om dit op grote schaal te ondersteunen. Waarom zou dat nu ineens veranderen?
Ik ben het dus niet met je eens dat je daar een Microsoft voor nodig hebt, die om de tafel gaat zitten
In theorie hoeft het niet per se Microsoft te zijn. De reden dat het Microsoft is, is omdat Windows verreweg het grootste marktaandeel heeft, en dat is dus de partij waar een nVidia en AMD mee willen samenwerken.
Blijft dus een kip-en-ei verhaal: zolang Windows de grootste is, zal het voor hardware-fabrikanten het meest interessant zijn om met Microsoft samen te werken, en dus zal Direct3D z'n voorsprong behouden.
maar vinden dat iemand een grote mond heeft en dan zo'n reactie terugschrijven... eh spiegeltje? :)
Ik heb recht van spreken, jij niet.
Je roept er nota bene nog bij dat *ik* me moet inlezen!

[Reactie gewijzigd door Scalibq op 17 september 2013 23:25]

OpenGL is helemaal niet open source! Het is een open standaard.
Klopt. Alleen wel een standaard waarin ieder bedrijf mag mee developpen, zie hier, de Khronos group. Ds waarin men (industrie) mee kan sturen. Waar het om gaat is dat het open is met her en der een patentje. Direct3d is proprietary, dus geen open standaard, dus er is nul invloed van buitenaf.

Dit statement:
Daarom zal OpenGL ook altijd wel achter de feiten aan blijven lopen. Je kunt die roadmap maar met 1 partij maken, en dat is Microsoft. OpenGL kan alleen maar volgen.
Is m.i. gewoon pure onzin en papegaaierij. Wanneer de contributors zich meer inspannen, zal de ontwikkeling van de open standaard ook sneller verlopen en wordt het automatisch interessanter voor de industrie. Dat het niet gebeurt, wil niet zeggen dat het niet kan.

Zodra het marktaandeel Windows bij gamers afneemt en de fabrikanten inzien dat er geld te verdienen valt, idd kip-ei , dan zal er waarschijnlijk een verschuiving plaatsvinden naar OpenGL. Dat is de meest logische stap. Tevens niet onmogelijk zoals jij stelt.

Dat het alleen maar Direct3d van Microsoft kan zijn, worden en blijven, vind ik een ouderwets en achterhaald idee. Open standaarden zijn de nieuwe norm (zelfs binnen Microsoft). Alleen Microsoft zit daar op sommige puntjes ook een beetje vast in het oude denken, ongeveer dat verhaal van GiLux hieronder...

Recht van spreken vind ik net zoiets als voorrang in het verkeer. Dat (ont)neem je niet, dat krijg je.

[Reactie gewijzigd door EnigmA-X op 18 september 2013 00:16]

Alleen wel een standaard waarin ieder bedrijf mag mee developpen
Dat is dan ook het probleem: iedereen mag meepraten, ook de hele kleine spelers. Daarom duurt het bij OpenGL altijd zo lang voordat er een goede specificatie is voor nieuwe functionaliteit. Veel politiek geneuzel.
Bij Microsoft is het allemaal wat strakker geregeld, dus krijg je geen eindeloze debatten over feature X welles of nietes. Als de fabrikanten er niet uitkomen, hakt MS gewoon de knoop door.
Direct3d is proprietary, dus geen open standaard, dus er is nul invloed van buitenaf.
Wat is 'buitenaf'? Zoals ik al zei, Microsoft bepaalt de toekomst van Direct3D samen met de grote spelers in de industrie.
In feite doen ze hetzelfde als Khronos, maar dan op een veel meer gestroomlijnde manier.
Je dacht toch niet dat Microsoft zelf maar een API kan verzinnen en hopen dat de hardware-fabrikanten er hardware voor kunnen maken? Nee, Microsoft MOET wel overleggen met de hardware-fabrikanten. Anderzijds moeten die hardware-fabrikanten ook overleggen met Microsoft, want die kunnen het zich niet veroorloven om hardware te maken die de volgende versie van Direct3D niet goed ondersteunt (we hebben al een aantal keren zo'n ramp meegemaakt, met de GeForce FX kreeg nVidia het heel moeilijk in D3D9, en de Radeon 2900 was een fiasco voor D3D10. In het geval van ATi was het meteen einde oefening: op laten kopen door AMD).
Is m.i. gewoon pure onzin en papegaaierij.
Zie hierboven de uitleg waarom dus niet.
Tevens niet onmogelijk zoals jij stelt.
Onmogelijk heb ik niet gezegd (er kan altijd wel iets gebeuren waardoor MS ineens omvalt), maar zeer onwaarschijnlijk is het wel. Waar het om gaat is dat linux, OpenGL en Valve hier eigenlijk geen invloed op hebben. Als het al gebeurt, dan zal dat waarschijnlijk zijn door ongerelateerde gebeurtenissen.
Open standaarden zijn de nieuwe norm (zelfs binnen Microsoft).
Dat is hier niet relevant. OpenGL bestaat al langer dan Direct3D, en Microsoft heeft OpenGL ook altijd ondersteund (het probleem met OpenGL in de begintijd zat hem in beperkte hardware en slechte drivers, wat niets met Microsoft te maken heeft). Blijkbaar heeft dat nooit tot grote successen geleid (sterker nog, OpenGL was oorspronkelijk bedoeld voor de zakelijke software op Windows, zoals AutoCAD, 3dsmax en dergelijke, en die zijn ook een paar jaar geleden overgestapt op Direct3D). Dus waarom nu ineens wel?
@Scalibq Hou toch eens op met blaten man, je hebt je punt nu wel gemaakt hoor. 8)7 Ga lekker in een chatroom of een forum lopen bekvechten als je je huidige toon zo nodig aan wilt blijven slaan.

[Reactie gewijzigd door ravenamp op 18 september 2013 13:36]

Tjsa, de grap is natuurlijk dat ik hoogstwaarschijnlijk de enige ben in deze discussie die daadwerkelijk OpenGL-code heeft geschreven (en dus weet waar hij over spreekt), en als toppunt van ironie heb ik een deel daarvan zelfs nog als open source beschikbaar gesteld: http://sourceforge.net/projects/bhmfileformat/files/
En ja, die code is best wel multiplatform, getest op Windows, linux, FreeBSD en OS X.

Het is vooral EnigmA-X die steeds blijft drammen en toch z'n gelijk wil halen.

[Reactie gewijzigd door Scalibq op 18 september 2013 17:30]

Marketing? Dat was niet zo heel moeilijk in de begintijd van Windows 9x. Direct3D was de enige vendor-onafhankelijke optie...
Direct3d is toch juist een vendor specifieke optie als je het vanuit het perspectief van de klant bekijkt.
Overigens kan ik me de opkomst van 3d api's in gaming nog prima herinneren: het gros van de games werkte met glide of opengl en direct3d werd pas later gebruikt.
Overigens was er in die tijd ook prima te gamen onder linux, de opkomst van direct3d en wat zakken met geld heeft dat helaas in de kiem gesmoord.

Overigens zien veel linux/bsd/mac gebruikers ook wel in dat een dedidcated api die geen last heeft van politiek (want daar heeft opengl zeker last van gehad, met name de tegenwerking vanuit microsoft) voordelen bied, maar in dit geval ook een groot nadeel heeft omdat het maar op een platform werkt.

Die vendor lock-in is mede een van de redenen waarom valve nu probeert om weer wat gezonde marktwerking aan te wakkeren, consumenten zijn uiteindelijk meer gebaat bij standaarden dan bij gesloten en dus beperkte systemen, of direct3d nu iets beter is maakt dus weinig uit, het heeft al veel aan relevantie verloren nu consoles vaak het primaire target platform zijn (en de snelheid van de ontwikkeling enorm veel trager is)

Dit is geen waardeoordeel over direct3d, het zal best beter zijn in sommige opzichten dan opengl, probleem is dat het slechts op een platform draait en dat het gecontroleerd wordt door een bedrijf welke geen problemen heeft om het te gebruiken om concurrentie tegen te gaan: voor consumenten een verre van ideale situatie.
Direct3d is toch juist een vendor specifieke optie als je het vanuit het perspectief van de klant bekijkt.
De context was duidelijk vanuit de hardware-fabrikanten. In eerste instantie was Direct3D de enige API die op hardware van meerdere fabrikanten werkte, onder Windows.
Overigens kan ik me de opkomst van 3d api's in gaming nog prima herinneren: het gros van de games werkte met glide of opengl en direct3d werd pas later gebruikt.
Niet dus. Ik heb hierboven de GLQuake readme uit maart 1997 aangehaald, waarin letterlijk staat dat er eigenlijk maar 1 kaart op de markt is die GLQuake goed kan draaien, en dat is een dure professionele kaart.
De enige andere optie was een MiniGL driver van 3dfx, en dat is dus GEEN OpenGL, zoals er ook te lezen valt in dezelfde readme.

Direct3D daarentegen bestaat al sinds 1996.
Dat zijn de keiharde feiten.
Het beeld is misschien ietwat vertekend omdat er relatief veel games uitkwamen gebaseerd op GLQuake, die dus ook met een MiniGL driver konden draaien. Maar dat is dus geen volwaardige OpenGL.
consumenten zijn uiteindelijk meer gebaat bij standaarden dan bij gesloten en dus beperkte systemen
Voor games lijkt me dat juist uitermate irrelevant. Consoles zijn niet voor niets zo populair, en die zijn een stuk beperkter en meer gesloten dan een Windows-machine. Bij Windows kun je tenminste nog helemaal zelf kiezen wat voor hardware je gebruikt, en ook qua software heb je veel meer vrijheid.
Toch zijn juist die consoles enorm populair bij de consument.
De 3dfx is ook uit 1996. Met de vroege Direct3D kon je niet zo veel. Daarom had iedereen had rond die tijd een Voodoo. Volgens mij heb ik er hier nog ergens eentje liggen. (nooit weggedaan)

OpenGL heeft een hele andere herkomst. Is oorspronkelijk niet voor games bedoeld, maar voor de professionele grafische industrie.
Is in 1992 door Silicon Graphics bedacht, dat waren destijds machines die rondjes konden rennen rond de x86 machines qua grafische mogelijkheden.

Dat OpenGL ook gebruikt kan worden voor games is iets dat door de tijd heen gekomen is. Zeker nu vandaag de dag jan-en-alleman kan renderen en raytracen.

Overigens heeft features vergelijken weinig nut, omdat de focus vaak anders gelegen heeft tussen de beide ontwikkelgroepen.

Voortst bewijst het bestaan van de Playstation series, dat je niet echt Direct3D nodig hebt en perfect zonder kunt.
Met de vroege Direct3D kon je niet zo veel.
En waar baseer je dat op?
Dit kon je al met de eerste versie van Direct3D: http://youtu.be/1BWbuUg8yvA

Bilinear filtered textures, gouraud shading, specular highlights. Alphablending had je ook al.
Dat is al meer dat de eerste 3d games gebruikten. Veel vroege 3d-accelerators ondersteunden niet eens al deze features.

Ja, natuurlijk was Glide beter, dat was immers specifiek voor de 3dfx-kaarten geschreven, dus er hoefde geen abstractielaag tussen, en ook geen probleem van lowest-common-denominator.
Maarja, dat is een flauwe vergelijking, omdat die API niet werkt op andere kaarten.
Direct3D en OpenGL zijn wel hardware-onafhankelijk, en dan lever je hier en daar nu eenmaal wat in qua performance en features.
OpenGL heeft een hele andere herkomst. Is oorspronkelijk niet voor games bedoeld, maar voor de professionele grafische industrie.
Dat zei ik zelf ook al.
Als je het verhaal echt goed wil vertellen, moet je er ook bij vermelden dat het oorspronkelijk IrisGL was, een gesloten API, die in 1992 door SGI aangepast en geopend werd, en hernoemd naar OpenGL. De geschiedenis van IrisGL gaat terug tot begin jaren 80.
Ik zeg het misschien fout. Je kon er niet zoveel mee als eindgebruiker zijnde. Dat je er leuke effecten mee kon programeren zal best. Er waren nog geen games voor in die tijd.

Een spel zoals Descent II gebruikt bijvoorbeeld een software renderer die later met wat truuks met glide kon draaien.

Duke Nukem 3D gebruikte ook geen Direct3D in zijn build engine.

In 1997 heb je dan bijvoorbeeld de eerste Direct3D spellen die opduiken zoals A2 racer, maar ja, dat was niet veel soeps. Kreeg het thuis niet aan de praat. (moet zeggen dat ik er wegens gebrek aan interesse ook niet veel energie ingestoken heb destijds)

Heeft natuurlijk ook een beetje met ontwikkeldoorlooptijd te maken. Rond de tijd van Windows98 SE was het aanbod aanzienlijk veranderd.
Er waren nog geen games voor in die tijd.
...
Heeft natuurlijk ook een beetje met ontwikkeldoorlooptijd te maken.
Ja, Glide was de eerste, dus de eerste spellen die uberhaupt 3d acceleratie gingen ondersteunen, deden dit via Glide. Zolang 3dfx de markt overheersde, bleef het interessant om direct Glide te ondersteunen.
Daarnaast was er altijd een software-renderer, omdat 3d-accelerators nog lang geen gemeengoed waren in die tijd (zowel OpenGL als Direct3D hadden ook software-implementaties in die tijd, maar die waren heel generiek en dus heel traag, niet geschikt voor gaming, dus bleef men vasthouden aan geoptimaliseerde software-engines specifiek voor een game ontwikkeld).

Neemt niet weg dat er eerder spellen waren met Direct3D-support dan met OpenGL (of eigenlijk dus MiniGL).
Hellbender was de eerste D3D-game: http://en.wikipedia.org/wiki/Hellbender_(video_game)

Toevallig was dat eerste OpenGL-spel voor Windows nou juist een van de meest invloedrijke spellen in de geschiedenis: GLQuake. Er zijn ook heel veel games op de GLQuake-engine gebouwd. En MiniGL/OpenGL-drivers waren heel specifiek voor GLQuake geoptimaliseerd.

Hier is ook wel een interessant artikel: http://www.alexstjohn.com...he-evolution-of-direct3d/
Laat ook zien dat er binnen Microsoft ook echt wel een pro-OpenGL-sfeer heerste. Maar men zag ook in dat Direct3D nodig was voor gaming, OpenGL-hardware was gewoon te duur in die tijd.

[Reactie gewijzigd door Scalibq op 19 september 2013 13:14]

Really die van valve als voorbeeld gebruiken. Valve deed de nieuwste van opengl vergelijken met directx9 wat nog ver achterliep en ook trager is.
Heb je eigenijk naar die presentatie gekeken?
https://www.youtube.com/w...er_embedded&v=Gzn6E2m3otg

Cuda, physix (en daarvoor Cg) deze "proprietary" standaarden zijn vandaag morsdood.
Zowel amd als nvidia zijn momenteel aan het werken aan een virtuele ISA voor hun gpus, eens daar een standaard uit komt is het gedaan met opengl, directx, opencl etc.

Een proprietary standaard is onvermijdelijk als er nog geen standaard is maar kort erna volgt meestal een een echte standaard omdat geen enkele developer andere code voor elke vendor wil schrijven.
Cuda, physix (en daarvoor Cg) deze "proprietary" standaarden zijn vandaag morsdood.
Morsdood in welk opzicht? Er zijn namelijk ontzettend veel mensen in de wetenschappelijke wereld die van dit soort technologien gebruik maakt. Sterker nog, inmiddels ook in de hackersscene want met iets als CUDA kun je diverse soorten attacks en decryptie zaken overlaten aan de veel snellere gpu.
Zowel amd als nvidia zijn momenteel aan het werken aan een virtuele ISA voor hun gpus, eens daar een standaard uit komt is het gedaan met opengl, directx, opencl etc.
En ook dat is een interessant citaat. OpenGL en DirectX hebben helemaal niets te maken met dingen als CUDA en OpenCL. Zowel DirectX als OpenGL richt zich op grafische zaken terwijl CUDA en OpenCL op rekenkundige zaken richten. Je relaas gaat op OpenCL ook volledig mank want dat is een technologie die het toelaat om diverse andere componenten in een computer in te zetten om te rekenen. Je moet het dan ook meer zien als een laagje op de hardware. Die hardware kan zijn de gpu maar ook de cpu of iets als je geluidskaart (dat is een digital signal processor). Een stuk breder dan bijv. CUDA wat alleen werkt op Nvidia videokaarten (met een GPGPU).

Daarnaast is OpenCL een open standaard net als OpenGL dat is (beide technologien worden door de Khronos Group beheert; ze zijn niet anders als een ISO, IEEE, IEC, etc.).

Er zit dus gigantisch veel belang bij een AMD en een Nvidia om zowel hun eigen proprietary technologie als iets als OpenCL, DirectX en OpenGL te ondersteunen. Er is ontzettend veel software wat daar gebruik van maakt. Als je dat stuk maakt hoeft er maar 1 te zijn die wel een stukje hardware heeft die er mee overweg kan en dan is het ineens bye bye AMD en/of bye bye Nvidia. Aangezien het met beide bedrijven op dit moment nou niet zo geweldig gaat op financieel gebied kijken ze wel uit.
Zowel DirectX als OpenGL richt zich op grafische zaken terwijl CUDA en OpenCL op rekenkundige zaken richten.
Nou ja, sinds DirectX 11 heb je dus ook DirectCompute, als tegenhanger van Cuda/OpenCL.
Dus DirectX vervult zowel de rol van OpenGL als OpenCL (onder andere).
Cuda, physix (en daarvoor Cg) deze "proprietary" standaarden zijn vandaag morsdood.
Omdat jij het zegt?
nVidia brengt nog geregeld nieuwe versies van Cuda uit, met nieuwe functionaliteit (die pas veel later z'n weg vindt in OpenCL en DirectCompute). In juli van dit jaar nog versie 5.5: https://developer.nvidia....ion-release-now-available

Hetzelfde geldt voor PhysX, daar komen ook nog steeds nieuwe versies van uit, en PhysX is nog steeds de enige serieuze oplossing voor GPU-accelerated physics.
Zowel amd als nvidia zijn momenteel aan het werken aan een virtuele ISA voor hun gpus, eens daar een standaard uit komt is het gedaan met opengl, directx, opencl etc.
Je bedoelt dat Richard Huddy ooit eens zoiets heeft geroepen... maar die is inmiddels al lang weg bij AMD.
Een proprietary standaard is onvermijdelijk als er nog geen standaard is maar kort erna volgt meestal een een echte standaard omdat geen enkele developer andere code voor elke vendor wil schrijven.
'Kort erna'... het is maar hoe je het bekijkt.
Bovendien geldt dat alleen (in theorie, praktijk moet nog blijken, zoals ik hierboven zei) voor Cuda en PhysX, omdat die vendor-specific zijn.
Direct3D is zelf juist een standaard die de vendor-specific oplossigen als Glide en PowerSGL heeft verdrongen, zoals ik al zei.
Dat is een heel ander geval van 'proprietary', omdat Microsoft zelf geen GPUs maakt, en deze standaard juist in het leven heeft geroepen om te zorgen dat dezelfde code op alle hardware werkt. En tot dusverre is Microsoft daar ook beter in geslaagd dan OpenGL. Dat is de voornaamste redden dat Direct3D zo populair is geworden: goede ondersteuning en goede performance.

Met OpenGL blijft het toch altijd problematisch, zoals we laatst ook nog zagen met Rage, een van de laatste grote OpenGL-titels. AMD moest gauw even 4 hotfix drivers de deur uit werken voordat de game goed draaide op hun hardware.
PhysX is nog steeds de enige serieuze oplossing voor GPU-accelerated physics.
Ik weet eerlijk gezegd niet hoe het buiten de gameindustrie zit, maar binnen de gameindustrie wordt Havok ook veel gebruikt. Daarbij is de nieuwe Physics engine van BeamNG erg impressive en kan voor opschudding gaan zorgen.
Ik weet eerlijk gezegd niet hoe het buiten de gameindustrie zit, maar binnen de gameindustrie wordt Havok ook veel gebruikt.
Ja, maar die heeft geen GPU-acceleratie (en gaat dat wsch ook nooit krijgen, omdat Intel eigenaar is, en Intel graag CPUs verkoopt).
Er is nog Bullet, die sinds enige tijd wel GPU-acceleratie heeft, maar die wordt nauwelijks gebruikt voor PC-games.
Je bedoelt dat Richard Huddy ooit eens zoiets heeft geroepen... maar die is inmiddels al lang weg bij AMD.
nee, hsail is een toekomstige standaard waar amd, imagination (bijna alle gpus voor smartphones), arm, samsung en qualcom al voor gekozen hebben (nvidia werkt aan een zeer gelijkaardige standaard). C++ amp (ontwikkeld door MS) gebruikt hsail en deze extensie voor C++ zal vaak gebruikt worden om Xbox One games te ontwikkelen. Er word zelf gewerkt aan een versie van de java virtuele machine die hsail code kan genereren.

Directx en opengl hebben enorm veel overhead, vroeger, toen grote stukken van de gpu gespecialiseerde hardware was, was het zeer nuttig maar gpus zijn sterk verandert. Ik denk zelf niet dat er een directx 12 komt eerder c++ amp met een aantal apis voor de restererende special function units. Over een paar jaar gaan we deze stap zetten en dat weet valve zeer goed. Deze nieuwe standaarden zijn veel minder OS afhankelijk en ze vereisen een minder complexe driver.

Cuda wordt nog onderhouden & nvidia toont er hun nieuwe features mee. Cuda is zeer populair om onderzoek mee te doen maar niet om commerciele producen mee te ontwikkelen. Physix is echt morsdood en het is nooit veel meer dan een techdemo geweest, de gpu features zijn maar door een handvol games gebruikt en er iedere keer door nvidia ingenieurs ingestopt.
(nvidia werkt aan een zeer gelijkaardige standaard).
Ja, nVidia en Intel doen niet mee... Lekkere standaard zal dat worden, de twee grootste spelers doen niet mee :)
Verder is het niets nieuws onder de zon. IL staat voor Intermediate Language. Het is dus niet de taal die de hardware spreekt, maar een abstractielaag daarbovenop. En dat is niets nieuws. Direct3D doet dat al sinds de eerste shaders (maar daar doen WEL alle spelers mee).
Ook Cuda werkt met een IL (zodat Cuda-code op meerdere generaties nVidia-hardware kan draaien).

[Reactie gewijzigd door Scalibq op 17 september 2013 22:27]

[...]
Als openheid zo belangrijk was voor innovatie, dan zouden linux en OpenGL al LANG voorop lopen.
Feit is dat OpenGL al jarenlang achter de feiten (Direct3D) aanloopt. Alle nieuwe grafische features komen eerst in een nieuwe versie van Direct3D, daarna komt OpenGL met de specificatie van een extensie voor die feature... Dan mag je nog eens wachten totdat de fabrikanten drivers schrijven met support voor die feature, en jaren later wordt het nog eens in de core van OpenGL opgenomen.
En jij denkt niet dat MS de fabrikanten miljoenen incentives heeft gegeven?
En jij denkt niet dat MS de fabrikanten miljoenen incentives heeft gegeven?
Nee, maar als ik het mis heb, dan zie ik wel graag bewijzen.
Het lijkt mij dat er geen incentives nodig zijn, fabrikanten kunnen het zich gewoon niet veroorloven om Windows en DirectX niet te ondersteunen.
Datzelfde geldt overigens ook voor andere APIs, zoals OpenGL en OpenCL, zij het in iets mindere mate, vanwege de minder grote populariteit. Hebben ze daar ook miljoenen voor gekregen dan?

[Reactie gewijzigd door Scalibq op 18 september 2013 16:59]

Ik denk dat Gabe een beetje uit zn nek zit te lullen om zn recente instap in Linux te beredeneren.

Windows is een veel gestandariseerder platform dat juist door zn geslotenheid de makers van dure producties enigzins zekerheid biedt.
De markt van AAA games is inderdaad van PC aan het vertrekken, maar ze gaan niet naar Linux op de desktop maar juist de andere kant op, richting gesloten platforms. Die hebben ten eerste al een groter marktaandeel en ten twede bieden ze aan content creators meer veiligheid ten opzichte van desktops.

Wat er dan overblijft is een brei aan indiegames die niet echt een platform hebben.
En dat is waar Gabe op mikt.
Ik denk datie dan alleen moeilijk kan beweren dat de toekomst van gaming daar ligt.
Tuurlijk, Linux is nog een markt die amper bedient wordt.
Ik denk alleen dat die markt snel vol zit en dat het in de komende jaren geen markt van belang wordt vergeleken met de bestaande garde van consoles en windows.

De meetlat hiervoor is eigenlijk heel eenvoudig.
Kijk naar hoeveel mensen op windows spelen en kijk naar hoevveel mensen op linux spelen. Dat is denk ik een redelijke afspiegeling can hoeveel je op elk platform kan verkopen.
En ik zie in de nabije toekomst de Linux markt niet opeens een veel roter aandeel nemen dan windows.

Verder was er redelijk weinig waarover developers konden klagen onder windows. Ja, ok, er is zat te klagen, maar dat is onder Linux net zo.
Windows heeft iig uitgebreide ontwikkeltools, hebben een eigen 3D api (die je niet hoeft te gebruiken) en bieden een uniformere omgeving aan om je game tegenaan te developen.
Dat verandert wel een beetje met win 8 die ze meer tot een winkel proberen te maken. Maar ook microsoft heeft ogen en oren en ze weten dondersgoed dat win 8 om die reden een flop aan het worden is. Ze weten ook dat de voorsprong die windows ze oorspronkelijk gaf vooral te danken was aan het ontspringen van een dev cultuur rond win32. Ze snappen nu denk ik ook dat ze op de verkeerde weg zitten en Balmer heeft aangekondigt datie gaat ophoepelen.


Wat Gabe eigenlijk bedoelt is dat ze op de indie markt van beginnende devs willen capitaliseren. Wat ze nu al doen met greenlight maar dan meer.
Aan de ene kant is dat leuk, maar het is zeker niet DE markt. Ik kan je met zekerheid vertellen dat een Sony of Microsoft echt wel wat meer centjes rond laten gaan op hun consoles dan Gabe aan game sales binnenharkt. Veel van het geld komt uit de online verkoop van virtuele goederen. Dat is iets dat je op elk platform kan implementeren. En mensen zullen ook in de toekomst op zoek zijn naar AAA games. Nou kan je veel van steam zeggen, maar ik zie ze gewoon niet de 50+GB die op een blueray past over het net pompen als service.
Een game als GTA V is behoorlijk groot. Ik weet niet of Valve zit te wachten om dat te gaan uitrollen. Laat staan mensen die het dan deleten, nog eens downloaden, weer deleten, en nog maar eens downloaden. Steam kan niet teveel grote games serveren anders werkt hun verdienmodel niet meer.
Valve is dus enorm gebaat bij kleine games die voor veel te veel geld worden verkocht.
Gabe heeft dat natuurlijk ook al een tijdje geleden bedacht en ziedaar er was opeens greenlight en valve ging lief doen tegen developers van kleine games.

Gabe probeert denk ik een self fullfilling prophecy op touw te zetten als machtsmiddel tegen microsoft omdat het winkelidee hem niet aanstaat. Hij wil natuurlijk niet de vette winst delen die valve verdient aan de nutteloze virtuele commodities. Maar ik geloof er geen bal van dat hij Linux serieus neemt als toekomstig gamesplatform van belang.
En Linux, Linux zou eerst een heel stuk meer op windows moeten gaan lijken voordat die droom realiteit wordt en grote devs massaal over gaan.
Ik vraag me af waarom Newell dan zo tegen Windows 8 is. Toen hij die opmerking voor het eerst maakte wilde hij er ook niet dieper op ingaan. Als je wil dat je uitspraak serieus genomen wordt, geef dan een toelichting wanneer daar om gevraagd wordt. Anders klinkt het imho als meehuilen met de roedel. Straks vind hij de Modern UI gewoon niets...
Hij verwacht ook dat grote spelers de pc-markt de rug zullen toekeren of in ieder geval flink gaan herstructureren. Een goed voorbeeld hiervan is computerfabrikant Dell. Dat bedrijf is al enkele jaren bezig met het verschuiven van zijn focus naar software en dienstverlening.
Dat een bedrijf zijn dienstverlening wil uitbreiden is niets nieuws. Zeker nu. Ik zie zelf niet dat Dell op korte termijn de markt als PC maker zal verlaten. Ze voegen alleen diensten aan hun portfolio toe. HP heeft dit al gedaan bijvoorbeeld. Je ziet nu ook dat Microsoft van software only bedrijf ook kijkt om diensten aan te gaan bieden.

Persoonlijk hoor ik Newell liever Half-Life 3 aankondigen. Of Episode 3.... :)
@CMD-Sanke

Uiteraard is er een redelijke kans dat hij de modern UI niets vind, dat is m.i. een redelijke aanname echter ik vind het waarschijnlijker dat hij niet blij is met de directe concurrentie van Microsoft in de vorm van de AppStore.

Dell richt zich meer op het bedrijfsleven, dus meer op de servermarkt en de Windows 7 markt. die bemoeien zich minder snel met spelletjes.
Steam heeft wel meer concurrenten. EA heeft Origin en Ubisoft heeft UPlay. Je kan als je wil ook de Apple Store meerekenen als een concurrent. Dan denk ik dat de komst van de Windows Store niet al te veel verschil zal maken.

In ieder geval op het Windows platform zijn er meer vergelijkbare diensten. OSX is vervlochten vooral met zijn eigen app store, dan is Linux nog redelijk onontgonnen terrein voor Steam.
Steam heeft wel meer concurrenten. EA heeft Origin en Ubisoft heeft UPlay. Je kan als je wil ook de Apple Store meerekenen als een concurrent. Dan denk ik dat de komst van de Windows Store niet al te veel verschil zal maken. [...]
Vergeet ook Desura niet, voor indie games toch een redelijke concurrent voor Steam.
Dell heeft daar tegen wel weer goede banden met Ubuntu (http://www.ubuntu.com/partners/dell)
Dell levert ook servers met Red Hat als OS.
Nee, maar je moet zijn achtergrond in zijn reactie meenemen. Deze man is niet onbevooroordeeld.
Interessant... Als ik om mij heen kijken dan hebben de normale "gebruikers" veel meer profijt van een gesloten omgeving. Geen beheer, geen gezeur.. (als het goed is)

Om maar een voorbeeld te noemen wat puur uit de praktijk komt en vooral niet gebaseerd is op mijn persoonlijk wensen.
- Vrienden met een Windows PC ontvang ik veel vaker voor reparatie dan die met een OSX PC...

OSX = gesloten, dus ze kunnen veel minder aka minder stuk maken.
Windows = open(er) en daardoor blijkt dat er vaker dingen mis gaan...

Ik denk dat de gebruikers (die 90% van de markt uitmaken) helemaal niet zitten te wachten op open of vrijere systemen. Nee, gewoon kant en klaar in een doosje en werken.. .dat lijkt mij de toekomst.
Ik kan niet zeggen veel last te hebben gehad van mijn Linux-installatie. Misschien dat het 10 jaar geleden anders was, maar ondertussen is mijn Windows partitie sneller aan vervanging toe, met minder gebruik, dan mijn Linux partitie. En als ik dan een Linux probleem heb is het vaak met een paar keer wat regels tekst kopiren en plakken op te lossen. Hoe beter oplosbaar kan een probleem zijn? Ik heb vaak genoeg meegemaakt dat problemen juist op Windows een volledige herinstallatie nodig hebben. Juist op Linux heeft de openheid er vaak voor gezorgd dat ik bij een bestandje kon komen dat ik enkel een beetje hoefde aan te passen om mijn probleem op te lossen, terwijl bij een soortgelijk op Windows er niet zo'n makkelijke oplossing is omdat deze achter slot en grendel zit, waarna enkel een herinstallatie het kan fixen. Het mollen van je GUI bijvoorbeeld is op beide besturingssystemen makkelijk voor elkaar te krijgen, maar het is niet Windows waarop je gemakkelijk een werkende GUi kan terugkrijgen.

Met drivers heb ik ook op Windows meer problemen, meestal vanwege het willen aansluiten van een printer welke onder Linux zo goed als plug-and-play werkt.

Misschien dat het anders ligt als je zelf een distro van de grond wil opbouwen, maar dan vraag je natuurlijk ook om een gebruikerservaring die out-of-the-box niet denderend is.

[Reactie gewijzigd door Amanoo op 17 september 2013 16:29]

Ik snap niet zo goed waarom mijn reactie ongewenst is....

Ik heb nooit gezegd dat een open systeem per definitie slecht is, ik zeg alleen dat een systeem wat bepaald wat er gebeurd veel beter is voor standaard gebruikers (90% van de wereld).

Open is leuk, maar dat bevorderd gewoon het gebruikersgemak en de naadloze integratie niet. Ik zeg ook niet dat dit niet kan veranderen... maar als ik nu op dit moment om me heen kijk... Dan is het meest gesloten systeem, ook het meest geschikt voor de normale gebruiker.

Mijn vader en moeder wil geen regels aanpassen. Ze hebben liever 10 opties minder en meer duidelijkheid dan allerlei fratsen die ze kunnen personaliseren en aan kunnen vullen met andere open source delen maar niet begrijpen.

Uit onderzoek blijkt toch ook dat het zwaar gesloten IOS zeer snel leert onder zijn gebruikers... Dat vrijwel iedereen na 30 minuten wel weet hoe het werkt... Een opensource systeem bied vervolgen talloze opties meer, maar dat garanderend niet dat die vlekkeloos communiceren op alle niveaus met andere delen van het OS of Apps.


Ongewenst of niet, ik verkoop voorlopig het liefst een dik afgesloten iPhone aan mijn moeder en buurman. Ik weet uit eigen ervaring dat ik er dan het minste werk aan heb.

Dit geld hetzelfde voor games. Drivers/ framewors/ plugins... Wat moet mijn moeder met de melding dat haar videokaart driver geupdate moet worden... en dat de versie driver die ze download wel geschikt moet zijn voor haar OS.. Ow, en dat je dan nog eigenlijk het liefst het eea in moet stellen om er het maximale uit te halen.

Opensource zal nooit zo naadloos kunnen werken als een gesloten systeem... Dat is toch een feit of zijn we het daar al niet over eens. (er vanuit gaande dat beide systemen goed afgeleverd zijn)
Willen je ouders ook geen regels aanpassen als het alternatief het hebben van een instabiel OS of het opnieuw installeren ervan is? Na mijn 100e Windows-herinstallatie (nu ik erover nadenk snap ik ineens wel waarom mijn harde schijven zich niet meer als nieuw gedragen) had ik er wel genoeg van. Vaak gaat het om instructies copypasten om een probleem te fixen, dat kost 20 seconden. Dat doe ik liever.

Goed, Linux heeft meer opties, maar die zitten niet overal en nergens. Net als bij Windows heb je in de gemiddelde distro wel een rechtermuisknop-optiebalk en verder heb je een configuratiescherm. Verder heb ik ook gewoon kruisjes om af te sluiten en minnetjes om te minimaliseren op de gebruikelijke plekken en als ik op mijn grafische interface mijn venster tegen de rechterkant van het scherm aanduw bedekt deze ineens de helft van het scherm, opnieuw erg veel lijkend op hoe dat in Windows werkt. De extra opties zijn er wel maar je moet wel even in het systeem graven als je die wil gebruiken, juist om te voorkomen dat je per direct wordt overrompeld door alle mogelijkheden. De gemiddelde desktop environment voldoet keurig aan de geldende designstandaarden die niet al te moeilijk wennen zijn voor Windows-gebruikers die net overstappen. tenzij je op Windows een handleiding naast je toetsenbord hebt liggen en zonder deze niet op Facebook kan komen (en dan wil je ook zeker niet Windows 8 proberen, want waarschijnlijk raak je dan van de metro-interface helemaal panisch). En de gemiddelde distro heeft 1 standaard desktop environment waarbij er nog enige support is voor enkele andere environments. En dan zijn er ook nog distro's die bekender zijn dan andere. Ik denk niet dat je veel meer standaard kan komen met Ubuntu en ofwel diens Unity interface ofwel Gnome 3.

[Reactie gewijzigd door Amanoo op 17 september 2013 17:17]

volgens mij doe jij gewoon iets fout
vroeger zou ik je gelijk gegeven hebben: Windows 3.x, Windows 95 en Windows 98 was vaker kapot dan niet door bijvoorbeeld een driver die de boel liet vastlopen
Windows2000 was echter een PAK beter en WindowsXP heb ik op 1 of 2 keer na altijd weer aan de praat gekregen (op meer dan 10 jaar gebruik)
op dit moment gebruik ik Windows7, welke nog steeds mijn eerste installatie is (ondertussen een kleine 4 jaar)
Interessant... Als ik om mij heen kijken dan hebben de normale "gebruikers" veel meer profijt van een gesloten omgeving. Geen beheer, geen gezeur.. (als het goed is)
Wat dus complete flauwekul is. Daar klopt echt geen snars van. Of een systeem open of gesloten is heeft helemaal niets te maken met gebruiksgemak en of je er wel of geen beheer mee hebt. Een gesloten systeem kan juist een complete hel zijn voor een gebruiker omdat daar door een ander niet te achterhalen is wat het systeem doet. Als die ander het beheer voor hem doet en er ontstaat een probleem kan diegene weinig uitrichten. Je bent dan volledig overgeleverd aan de maker van die blackbox. Je hebt er in dit scenario dus alleen maar meer gezeur mee.
OSX = gesloten, dus ze kunnen veel minder aka minder stuk maken.
Windows = open(er) en daardoor blijkt dat er vaker dingen mis gaan...
Idem hier, complete flauwekul omdat er geen snars van klopt. OS X is opener dan Windows want het is gebouwd op een open source OS genaamd Darwin en er wordt veel geleend bij 4.4BSD en FreeBSD. Windows is bijna volledig closed source met een paar stukjes open source erin die men ook aan het afbouwen is (de FreeBSD netwerk stack is in Vista vervangen door hun eigen versie en dat was dan ook de oorzaak voor al dat netwerk gezeik).

Waarom gaat het dan bij Windows vaker mis dan bij OS X? Dat heeft puur en alleen te maken met hoe het OS en de rest van het IT-systeem (in geval van een bedrijf) is ontworpen en helemaal niets met het open of gesloten zijn (zowel in source als in wat je op een systeem mag doen). Dat loopt van een goede technische basis tot aan een goede logische interface. Bij OS X is dat traject kennelijk wat beter voor elkaar dan bij Windows. Wat we hier echter ook niet kunnen ontkennen is het marktaandeel van Windows. Als je maar 5% aan Macs hebt en 95% aan Windows dan is het niet zo raar dat je meer Windows dan Mac problemen tegenkomt (beiden zullen echter problemen hebben). Uiteraard speelt de infrastructuur ook een rol. Als je heel erg richt op Windows loopt het qua support op de Mac achter en is de kans op problemen op dat platform wat groter.
Ik denk dat de gebruikers (die 90% van de markt uitmaken) helemaal niet zitten te wachten op open of vrijere systemen. Nee, gewoon kant en klaar in een doosje en werken.. .dat lijkt mij de toekomst.
Gebruikers zitten niet te wachten op een open systeem noch op een gesloten systeem. Gebruikers zitten te wachten op een systeem die het gewoon doet. Van techniek hebben de meesten toch weinig tot geen kaas gegeten. Hoe die techniek dan in elkaar steekt zal ze jeuken. Als je iets maakt wat dat doet zullen ze het afnemen ongeacht of het een open of gesloten systeem is. Dat is op dit moment nog een issue bij Linux maar ook bij een Windows 8. UNIX/Linux mensen zie je veelal naar OS X switchen en Windows mensen blijven waar ze zijn (en dat is tegenwoordig opvallend vaak XP en 7) want dat werkt gewoon. Zo simpel is het.

Je maakt hier de grootste fout door open/gesloten te koppelen aan gebruiksgemak terwijl dat aardig van elkaar los staat. Het is namelijk prima mogelijk om zowel een open als gesloten systeem te maken dat gebruiksgemak biedt. Kijk maar naar de diverse operating systems die nu populair zijn. Daar zitten zowel open als gesloten systemen tussen.

[Reactie gewijzigd door ppl op 17 september 2013 20:50]

Of een systeem open of gesloten is heeft helemaal niets te maken met gebruiksgemak en of je er wel of geen beheer mee hebt. Een gesloten systeem kan juist een complete hel zijn voor een gebruiker omdat daar door een ander niet te achterhalen is wat het systeem doet.
Je spreekt jezelf hier tegen.
Zoals je zelf zegt, het gebruiksgemak en beheer is niet afhankelijk van of een systeem open of gesloten is.
Het gaat vooral om het ontwerp van het systeem: hoe transparent is het systeem qua instellingen, error logging en dergelijke.

Of de source beschikbaar is of niet, doet totaal niet ter zake. De meeste systeembeheerders weten weinig of niets van programmeren (anders waren ze wel software-ontwikkelaar geworden, betere carriere-opties). En ze hebben dus al HELEMAAL niet de kennis om via de source uit te gaan zoeken wat er gebeurt, als er iets mis gaat.
Dat zou bij een goed ontworpen systeem ook helemaal niet hoeven.
Het omgekeerde geldt ook: een systeem kan wel open source zijn, maar als de foutmeldingen en de code enorm cryptisch van aard zijn, dan is het nog zoeken naar een speld in een hooiberg.
En dus is het inderdaad niet relevant of het systeem open of gesloten is.

Heck, ik ben zelf ontwikkelaar, heb ook zelf wel device drivers en andere kernel-meuk geschreven in het verleden. Ik *zou* in theorie wel fouten in het systeem kunnen opsporen, ik heb de kennis en ervaring ervoor. Maar ik doe dat ook nooit, omdat er gewoon veel te veel tijd in gaat zitten om problemen op zo'n niveau te gaan onderzoeken. Bij je eigen drivers is dat nog wel te doen, maar jezelf wegwijs maken in dergelijke code van anderen, daar kan weken tijd in gaan zitten, en dus gaat dat duizenden euros kosten.
In de praktijk is een open source systeem dus eigenlijk ook gewoon een black box.
Een leuk voorbeeld hiervan is bv dat er een paar weken terug een aantal problemen ontdekt zijn in de implementatie van de USB-stack in linux. Die zit er al vele jaren in, en de bugs waren echt van niveau knullig (oa timeouts die niet klopten, en geen goede afhandeling als een device-index boven de 255 kwam). Maar blijkbaar heeft niemand zich er ooit in verdiept.
Je spreekt jezelf hier tegen.
Zoals je zelf zegt, het gebruiksgemak en beheer is niet afhankelijk van of een systeem open of gesloten is.
Dan snap je niet wat er staat. Het open of gesloten zijn van een systeem zegt niet meer dan dat. Er zijn zat gesloten systemen die qua beheer en/of gebruiksgemak een complete hel zijn. Die zijn er ook qua open systemen. Even zo voor systemen die wel een groot gebruiksgemak en/of beheer kennen. Gebruiksgemak en beheer zijn totaal andere elementen. Een systeem dat makkelijk in beheer en gebruik is, is een systeem dat goed ontworpen is. Het gaat dus om het ontwerp.
Het gaat vooral om het ontwerp van het systeem: hoe transparent is het systeem qua instellingen, error logging en dergelijke.
Ja het gaat om het ontwerp, nee het gaat helemaal niet om instellingen en error logging. Waar het om gaat is dat functies makkelijk te vinden zijn, er snel gereageerd wordt na een druk op de knop, dat er geen waslijst aan mogelijkheden te vinden zijn, enz. Dat is gebruiksgemak en dat is transparantie. Je ziet immers direct wat het idee is van een knopje (om maar eens iets te noemen).
Of de source beschikbaar is of niet, doet totaal niet ter zake.
Goh, hier lijk je ineens mijn punt wel te snappen want dit is nou exact hetzelfde als wat ik verwoorde. Gebruikers werken niet met source, error logging en al dat soort zaken. Gebruikers werken met de knopjes die in een applicatie zitten om het maar heel simpel te verwoorden.
De meeste systeembeheerders weten weinig of niets van programmeren (anders waren ze wel software-ontwikkelaar geworden, betere carriere-opties). En ze hebben dus al HELEMAAL niet de kennis om via de source uit te gaan zoeken wat er gebeurt, als er iets mis gaat.
De meeste ontwikkelaars weten helemaal niets van systeembeheer en dat demonstreer je hier eigenlijk ook wel heel mooi. Een systeembeheerder heeft niets te zoeken in source code en wil daar ook niets in te zoeken hebben. Een systeembeheerder heeft vooral te maken met de werkwijze van een gebruiker en de problemen waar die tegenaan loopt. Dat los je op. Kom je een bug tegen dan meldt je dat en daar houdt de weg dan ook op. De ontwikkelaars mogen dan verder zoeken en dat kan natuurlijk prima in samenwerking met de systeembeheerder. Het is de ontwikkelaar die in de source mag spitten. Die kan dat ook want de meeste software zijn alleen maar binaries. Al zou je als systeembeheerder willen spitten, het kan in 9 van de 10 gevallen gewoonweg niet. Je hebt verder ook te maken met een oplostijd. Een gebruiker wil gewoon verder werken, moet vaak ook verder werken van de baas.
Ik *zou* in theorie wel fouten in het systeem kunnen opsporen, ik heb de kennis en ervaring ervoor. Maar ik doe dat ook nooit, omdat er gewoon veel te veel tijd in gaat zitten om problemen op zo'n niveau te gaan onderzoeken.
Reden waarom systeembeheerders dat ook vrijwel nooit doen. Er wordt wel het nodige geanalyseerd en verder doorgegeven want er zal rekening gehouden moeten worden met de gebruiker. Die moet verder en dus zit er vaak al een maximum aan de hoeveelheid tijd die je kunt besteden aan het oplossen van het probleem.
In de praktijk is een open source systeem dus eigenlijk ook gewoon een black box.
In zekere zin wel. Weinig mensen die zich met die source bezig houden en dingen helemaal door gaan zitten spitten.

Allemaal leuk en aardig maar dit geldt dus allemaal voor het bedrijfsleven, niet voor thuisgebruikers die games spelen. Daar werkt het een stuk eenvoudiger: kennis ontbreekt vaak. Die mensen zijn niet in de techniek genteresseerd, die willen dat het gewoon werkt. Het open of gesloten zijn van het systeem heeft daar geen invloed op. Een goed ontwerp wel en die kom je bij zowel open als gesloten systemen tegen.
Wat een goede grap, het aantal Linux distro's dat ik al heb gemold door een Nvidia of ATI driver installatie is ontelbaar, en ik heb redelijk wat Linux kennis maar er zijn gewoon teveel window managers, distro's en brakke drivers.
Ik heb nu een Nvidia kaart die onder Ubuntu perfect werkt en Elementary OS crashed direct als ik die driver installeren, Linux is dus nog steeds niet gebruikersvriendelijk.

Een hardware matige box zou een goed idee zijn maar de Ouya Box slaat ook nog niet echt aan.
Je raakt wel wat punten die van toepassing zijn:

- Gebruiksgemak t.o.v. Windows ecosysteem
- Ontwikkelaars/ontwikkelingen voor Linux ecosystemen
- Openheid / geslotenheid

- Windows is makkelijk te gebruiken, makkelijk aan te leren. Linux heeft last van veel fragmentatie, waardoor sommige software wel of niet zal gaan werken of net anders dan je zou willen. Een zeer groot deel van de huidige Windows gebruikers heeft de kennis niet om dat te corrigeren of wil dit niet omdat ze al gewend zijn dat dit gewoon werkt op het andere ecosysteem. Ik zeg niet dat je een eenheidsworst moet maken, maar je moet het ook niet te vrij laten.

- Er zijn vrij veel ontwikkelaars voor het Windows ecosysteem en dus veel meer software, deling van kennis, meer applicaties en meer eindgebruikers. Het is ook veel makkelijker om voor 1 of 2 ecosystemen te ontwikkelen waarin een certificeringstraject afgelegd wordt en er dus een bepaalde mate van controle is dan voor een ecosysteem met veel varianten en dus variabelen. De veelvoud van varianten is een kracht (voor ieder wat wils) maar ook een last (ontwikkelaars verdienen liever ook een boterham, gaat beter als er ook een groter publiek is). De sleutel is domweg meer ontwikkelaars zien te interesseren voor Linux. Kijk naar Windows. Daar is dat al goed gelukt en houdt het zichzelf goed in stand , dacht ik zo.. Ik denk dat games zijn voor Linux wat porno ooit voor de videorecorder oorlog was :+

- Hardware box: ene kant zeg ik: mooi, een ecosysteem waar je echt als ontwikkelaar je op kan storten waardoor het een succes kan worden. Aan de andere kant: het is niet super multifunctioneel, nog steeds een PC nodig om de andere zaken op te doen. En het reclamebudget en mogelijkheden zijn niet groot genoeg om genoeg mensen te bereiken tot nu toe. Ik denk dat een hoop mensen toch ook wel op zoek zijn naar de combinatie van gamen + veelzijdigheid van de PC.

[Reactie gewijzigd door Venator op 17 september 2013 15:34]

Dat is Ubuntu, maar bijvoorbeeld Android is een bijzonder succesvol gaming platform. Het kan dus wel, gaming op Linux.
Tsja, linux kernel en drivers zijn gewoon zwaar afhankelijk van elkaar. Elementary draait op de 3.2 kernel, dat is 9 versies ouder dan de meest recente. Als je raring-lts installeert via apt-get krijg je 3.8 - dikke kans dat het dan wel werkt. Daarmee haal je overigens weer hier en daar nieuwe bugs aan boord (zoals mijn laptop, die wel wakker wordt uit slaapstand, maar niet meer te gebruiken is).
Maargoed, dat is ook te verwachten met een supernieuwe distributie.

Er zijn in de afgelopen tijd al meerdere grote(re) distributies omgevallen, en tegenwoordig draait zo ongeveer alles 'op basis van (...)', waar (...) voor het overgrote deel Ubuntu is. Dit soort standaardisatie zorgt ervoor dat deze problemen op termijn tot het verleden gaan behoren.
Het probleem met het grote Linux gamen, is dat je dan als consument eerst 30 dependencies moet installeren voor je een spelletje kunt spelen.

Dat gaat mij als ICT-n00bje al niet zo best af, laat staan Henkie die z'n kids zat is en een spelletje wil installeren om ze een bezigheid te geven.

Nee, leuk idee dat Linux gamen en ik ben er helemaal voor. Het vormt alleen nog geen alternatief voor het oppermachtige Windows.
Zo lang je dingen netjes via de software manager installeert heb je geen omkijken naar dependencies. Apt-get install <pakket>, klaar. Da's makkelijker dan Windhoos, waar je soms losse DirectX moet vangen, en het updaten per programma moet gebeuren, want Windows zorgt alleen voor zichzelf (en office).

Alleen... dan moeten bedrijven dus een nette package afleveren, en dat sluit het gebruik van .NET, DirectX en andere ongein uit. Laten die dingen nou net hard gepusht worden vanuit een niet nader genoemde softwaremaker. Tot die tijd blijft het aanmodderen met wine (waar ik verder ook geen omkijken naar heb overigens, alleen de framerate blijft beroerd).
Als je kijkt naar gaming dan werkt vrijwel elke game, mits je hardware dat toestaat, welke je installeert op Windows direct. Zonder dat je iets extra's hoeft te ondernemen.
Ik game toch al behoorlijk wat jaren op een PC en ben vrijwel nog nooit dergelijke problemen tegengekomen.
De gemiddelde gebruiker zal dus echt veel minder hoeven doen om een game op Windows te laten draaien dan op Linux.
DirectX wordt bij de installatie van games vrijwel standaard ge-update wanneer dat nodig is, dus dat is onzin.
Windows zorgt alleen voor zichzelf (en office).
Dat is gewoonweg al niet waar, weet je hoeveel drivers Microsoft schrijft, waar je eigenlijk zou verwachten dat de fabrikanten van de betreffende hardware die zou schrijven?
Alleen... dan moeten bedrijven dus een nette package afleveren
Zit daar het probleem nou niet juist? Door al die verschillende distro's is het voor game ontwikkelaars teveel werk om daar alles voor te ontwikkelen.
Tot die tijd blijft het aanmodderen met wine (waar ik verder ook geen omkijken naar heb overigens, alleen de framerate blijft beroerd).
Aanmodderen inderdaad. Iets wat de gemiddelde gebruiker gewoon niet wil. Die wil een game kopen en spleen. Niet net zolang gaan lopen klooien/aanmodderen totdat het draait en dan nog met beroerde framerate.

[Reactie gewijzigd door Vexxon op 17 september 2013 15:59]

Wanneer was de laatste keer dat je onder Linux een game gespeeld hebt?

Install Ubuntu
Als ik me niet vergis krijg je tijdens of net na installatie al de vraag of je de proprietary drivers wil installeren, klik 'Ja'.
Installeer Steam
Speel spel.

Niet bepaald moeilijker als onder Windows...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True