Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 355 reacties

Huidige videokaarten van AMD ondersteunen niet alle features van DirectX 12, bevestigt een topman van het bedrijf aan de site Computer Base. Het gaat vooral om ondersteuning voor betere effecten. Nvidia's 900-serie heeft deze support wel aan boord, maar mist andere features.

Tegenover de Duitse site Computer Base bevestigt een AMD-topman dat de huidige Radeon-videokaarten niet alle features van DirectX 12 ondersteunen. Kaarten uit de 900-serie van Nvidia hebben wel support aan boord voor de functionaliteit van de nieuwe graphics-api die AMD nog mist, maar die kaarten missen weer andere features. AMD mist ondersteuning voor het zogenoemde feature level 12_1. de Radeon-kaarten blijven steken bij feature level 12_0. Level 12_1 zorgt vooral voor functies die mooiere effecten mogelijk maken. De belangrijkste aangekondigde verbetering van DirectX 12, de mogelijkheid om grafische hardware efficiënter aan te sturen, is beschikbaar op alle grafische kaarten die werken met DirectX 12.

DirectX 12 is opgedeeld in feature levels, niveaus met een aantal voorgeschreven functies die hardwarematig moeten worden ondersteund. Het laagste niveau, feature level 11_0, bevat ten opzichte van de DirectX 11-api vooral performanceverbeteringen. De hogere feature levels 11_1 en 12_0 stellen ondersteuning voor extra prestatiebevorderende functies verplicht. Feature level 12_1, het hoogste niveau, vereist daarnaast ondersteuning voor onder andere Volume Tiled Resources en Conservative Raster. De eerste functie zou rook- en vloeistofsimulaties kunnen versnellen, terwijl Conservative Raster nauwkeurige ray-traced schaduwen mogelijk maakt.

Het hoogste feature level wordt vooralsnog alleen ondersteund door kaarten van Nvidia uit de Geforce 900-serie. AMD-kaarten gebaseerd op de tweede generatie Graphics Core Next-architectuur, zoals de R9 290X, R9 290 en R9 285, kunnen overweg met feature level 12_0. Eerste generatie GCN-kaarten als de R9 280 en oudere Nvidia-kaarten vanaf de 400-serie blijven steken op respectievelijk feature level 11_1 en 11_0. Het verschil in ondersteuning zit hem in lagere resource limits voor de oudere Nvidia-kaarten; hun AMD-tegenhangers zijn flexibeler in geheugenadressering. Ook de 900-serie is daarin minder flexibel dan GCN-kaarten, waardoor ze technisch gezien niet volledig DirectX 12-compliant zijn.

Binnenkort komt AMD met nieuwe kaarten, maar volgens geruchten bestaat een groot deel van die lineup uit rebrands van huidige modellen. Daarom lijkt het aannemelijk dat een groot deel van de 300-serie het hoogste feature level ook niet zal ondersteunen. Het nieuwe topmodel, de R9 390X, krijgt naar verwachting wel een nieuw ontwikkelde chip. Over de DirectX 12-functies die de komende kaart ondersteunt, wilde AMD nog niets kwijt.

Of Nvidia veel voordeel zal behalen met de volledige ondersteuning van DirectX 12-features in zijn kaarten, valt nog te bezien. Spelontwikkelaars proberen over het algemeen te ontwikkelen voor een zo groot mogelijk publiek; gezien het beperkte aantal kaarten met volledige DirectX 12-ondersteuning is het mogelijk nog niet interessant om veel ontwikkeltijd te steken in functies die maar weinig mensen kunnen gebruiken. Bovendien hebben de Xbox One en Playstation 4, beide voorzien van gpu's gebaseerd op een GCN-1.0-ontwerp, ook geen hardwarematige ondersteuning aan boord voor de features die onderdeel zijn in feature level 12_1. Wellicht zou Nvidia spelontwikkelaars via zijn Gameworks-programma kunnen interesseren om gebruik te maken van de extra functionaliteit.

Update 15:59: Naar aanleiding van een post in CJ's Radeon Info & Nieuwsdiscussie-topic, zoals genoemd in de reacties, is een nuancering aangebracht die de DirectX 12-ondersteuning van Nvidia-kaarten verduidelijkt.

Update 2, 18.25: Verder verduidelijkt dat ook de Nvidia-kaarten ondersteuning voor features missen.

Moderatie-faq Wijzig weergave

Reacties (355)

Dit artikel bevat enkele fouten.

Ten eerste bestaan 11_1 en 12_0 niet vooral uit "performance verbeteringen", maar juist 11_1 bevat bijvoorbeeld Tiled Resources Tier 1 + 2. Volume Tiled Resources in 12_1 zijn Tiled Resources Tier 3. AMD ondersteunt Tier 1 al sinds de eerste GCN kaarten in begin 2012. Nvidia ondersteunt dat nu pas, met Maxwell "2" (GM20x). Wat hier wordt beweerd is dus bijzonder misleidend.

We hebben het er momenteel in het forum ook over dus ik heb een samenvatting gemaakt voor de liefhebber (zoals hierboven ook gelinkt door LongbowNL <3): http://gathering.tweakers...message/44359417#44359417

TL;DR:
  • Fermi t/m Maxwell 1 (750 Ti) voldoen maar nťt aan DX12 - FL 11_0
  • GCN voldoet aan Šlles t/m 12_0 - alleen de meest recente features in 12_1 niet, omdat GCN daar te "oud" voor is. GCN 1.0 zit op 11_1, GCN 1.1 en 1.2 zitten op 12_0.
  • Maxwell 2 (900 serie) voldoet wel aan 12_1, maar mist 11_2 waardoor ze technisch gezien beperkt zijn met enkele features
  • Maxwell 2 en GCN zullen vrijwel even veel voordeel hebben, ondanks dat geen van beide "compleet" is
  • Een GPU die aan 11_0, 11_1, 11_2, 12_0 en 12_1 voldoet en dus volledig DirectX 12 compliant is, bestaat niet :+
Het komt er op neer dat geen van beide alles ondersteunt. Nvidia mag dan wel FL 12_1 ondersteunen, ze hebben ook een stel beperkingen waardoor GCN met veel andere taken veel flexibeler en vooral efficiŽnter is. En in tegenstelling tot Nvidia gaat dat dan ook ruim 3 jaar terug.

[Reactie gewijzigd door Werelds op 5 juni 2015 15:42]

Interessante en uitgebreide post maar mist helaas bronvermelding. Verder was de duiding ineens heel kort door de bocht. Steekt af met de gedetailleerde en feitelijke onderbouwing van de rest van het verhaal.
n hoe zit het dan met feature level 12_1? Daar zitten twee features in die alleen Maxwell 2 momenteel heeft. Conservative Rasterization en Rasterizer Ordered Views. CR is niet zo boeiend voor games, dat is een vrij zware techniek waar games geen gebruik van zullen maken; dat is vooral bedoeld voor precisie werkt. ROVs wel, die zorgen er voor dat die UAVs hierboven weer een stukje efficiŽnter afgehandeld kunnen worden. Betekent dit dat GCN dan ineens veel achter gaat lopen? Nee. Juist GCN niet, omdat AMD hier al op voorbereid was. Ik heb het al eerder gezegd, maar veel van dit spul komt gewoon van hen vandaan, dus het is niet verwonderlijk dat zij ook het meest flexibel zijn.
Die duiding roept bij mij twee vragen op

1)In welke zin is AMD al voorbereid? Impliceer je iets dat ik heb gemist?

2)Waarom meldt Tweakers dat 12_1 tot betere graphics leidt en jij niet? Zit Tweakers fout of laat jij het weg?

[Reactie gewijzigd door sdk1985 op 5 juni 2015 16:38]

Langs een kant heb je de specificatie voor D3D featurelevels. Maar daarlangs staan een heleboel optionele features die mogelijk zijn met nieuwere versies van de Windows Display Driver Models.

Deze optionele features, zoals Tiled Resources, zijn door nVidia en AMD al in 2 verschillende "tiers" geÔmplementeerd. Maar AMD is met GCN 1.1 in feite onbeperkt; en conform de Tier 3 specificatie (zoals Volume Tiled Resources) beschreven in D3D 11.3 of 12.0.

De nieuwe features die dus al mogelijk waren in Mantle met AMD GPUs met featurelevel 11_1, komen pas naar DirectX met WDDM 2.0 en Windows 10 in de nieuwe Direct3D API.

Eigenlijk staan alle features die het artikel vermeld, en GCN/Mantle al kan, in de optionele D3D 11.3 feature set. Zoals:
Conservative rasterization (three tiers), tiled resources (three tiers), stencil reference in Pixel Shader, rasterizer ordered views, typed UAV loads for additional formats, UMA/hUMA support
Featurelevel 12_1 gaat dus om een specifieke hardware-implementatie, maar deze is niet noodzakelijk om de features te implementeren.

edit: opmaak, zinsbouw

[Reactie gewijzigd door Mijiru op 7 juni 2015 04:33]

De nieuwe features die dus al mogelijk waren in Mantle met AMD GPUs met featurelevel 11_1, komen pas naar DirectX met WDDM 2.0 en Windows 10 in de nieuwe Direct3D API.
Dat is niet helemaal waar, omdat DX11 ook featurelevels 11.1, 11.2 en 11.3 heeft, die de lading ook wel aardig dekken.
Eigenlijk staan alle features die het artikel vermeld, en GCN/Mantle al kan, in de optionele D3D 11.3 feature set.
Nee, 11.3 is juist de Maxwell v2 featureset, dus komt overeen met 12_1.
GCN kan conservative rasterization en ROV niet, en die zitten dus in 11.3.
Featurelevel 12_1 gaat dus om een specifieke hardware-implementatie, maar deze is niet noodzakelijk om de features te implementeren.
Jawel, de feature is namelijk een hardware-feature.
Wat nVidia daar laat zien is dat je op oudere hardware eventueel een software-fallback zou kunnen doen. Maar ze geven dat meer ter illustratie van hoe het algoritme werkt.
In de praktijk is de hardware een stuk sneller, dus kun je software niet als alternatief nemen. Hooguit voor een lager detailniveau.

De hardware is zo programmeerbaar dat je tegenwoordig heel veel ook wel in software kunt doen, maar als de hardware niets zou toevoegen qua performance, dan had nVidia deze niet gebouwd, en had MS er niet specifiek een feature van gemaakt in DX11/DX12.
Die duiding is ook onzin. Conservative rasterization is JUIST boeiend voor games, en zo 'zwaar' is het niet, als je een goede hardware-implementatie hebt.
Dit is wat nVidia erover zei: https://developer.nvidia....onservative-rasterization
http://www.geforce.com/wh...xt-generation-of-graphics

Vooral interessant voor efficiente, robuuste Global Illumination.

Dus, nogal opmerkelijk dat hier zo stellig beweerd wordt dat het niet interessant voor games is... Damage control voor AMD?

[Reactie gewijzigd door Scalibq op 5 juni 2015 20:23]

Ik mis hier inderdaad ook een beetje een bron. Volgens Anandtech ondersteund Maxwell 2 gewoon 11_2 11.2.

[Reactie gewijzigd door Reyde op 6 juni 2015 13:17]

Ik heb even Ctrl+F "11_2" gedaan. Komen 0 resultaten terug. (11_1 en 11_3 worden wel vermeld) En let op! 11.2 != 11_2
First and foremost among Maxwell 2’s new features is the inclusion of full Direct3D 11.2/11.3 compatibility.
En gezien 11.2 != 11_2, dan zou 11_2 niet bestaan volgens Anandtech:
This extended feature set also extends to Direct3D 11.2, which although it doesn’t have an official feature level of its own, does introduce some new (and otherwise optional) features that are accessed via cap bits.
Dus dan ben ik een beetje in de war wat 11_2 moet inhouden. Anandtech heeft altijd alles technisch op een rijtje zover ik weet.

Zelfs het wiki artikel dat de originele poster heeft gelinkt meldt:
There is no feature level 11_2 however; the new features are dispersed across existing feature levels.
edit: opmaak

[Reactie gewijzigd door Reyde op 6 juni 2015 13:30]

DIT. Dit had het topic moeten zijn - en nu graag die clickbait-titel veranderen. Amerikaanse praktijken dit van T.net.

Ik weet niet waarom het nodig is mij te downvoten als een van de conclusies van de forumpost van Werelds nota bene is:
Maxwell 2 en GCN zullen vrijwel even veel voordeel hebben, ondanks dat geen van beide "compleet" is.
Een GPU die aan 11_0, 11_1, 11_2, 12_0 en 12_1 voldoet en dus volledig DirectX 12 compliant is, bestaat niet.


Dus waarom niet: "AMD en Nvidia videokaarten ondersteunen geen van beiden alle features van DirectX12" of "Geen enkele huidige GPU is volledig DirectX 12 compliant", hetgeen technisch correcter is.
Daarom ben ik van mening dat de huidige titel clickbait oplevert: schreeuwen om aandacht "at the expense of quality or accuracy".

[Reactie gewijzigd door xavierk op 6 juni 2015 11:22]

Featurelevel 12_1 vereist alleen Tier 1 Conservative Rasterisation en Rasterizer Ordered Views.

Maar al deze features zijn optioneel vanaf featureset 11_1 en opgedeeld in 3 "resource binding" tiers. Met de release van Windows 10 komen Volume Tiled Resources, Conservative Rasterisation en Rasterizer Ordered Views ook naar de nieuwe D3D 11.3 API.

Aangezien GCN geen beperkingen heeft op resource binding en in tegenstelling tot Maxwell volledig Tier 3 is, zie ik niet waarom deze features niet mogelijk zouden zijn via D3D 11.3 of D3D 12.0 op alle APU/GPUs met GCN.

edit: post verduidelijk omtrent D3D 11.3

[Reactie gewijzigd door Mijiru op 5 juni 2015 18:05]

Featurelevel 12_1 vereist alleen Tier 1 Conservative Rasterisation en Rasterizer Ordered Views.
Beiden zijn echter best wel 'pittig' om in je hardware op te nemen.
Dat is niet iets dat je even erin patcht. Het grijpt direct aan op hoe je rasterizer werkt, en dus moet je je hele pipeline opnieuw valideren etc.
Het is tekenend dat AMD hier nog geen ondersteuning voor heeft.

Intel heeft overigens al wel ROVs in hun DX11 hardware, deze technologie komt bij hun vandaan.
dat DX12 niet zomaar een gevolg van AMD's Mantle is...
DX12 is een gevolg van Mantle.
Als Johan Andersson van DICE niet zo eigenwijs was geweest dat hij een API wilde voor de PC wilde die dichter bij "the metal" stond, dan was er geen DX12 geweest.
Als AMD hem daar niet bij terwille was geweest, dan was er geen DX12 geweest.
Als de resultaten van Mantle niet zo bemoedigend waren geweest, dan was er geen DX12 geweest.
Best 'toevallig' dat nVidia die support wel al heeft, toch?
Mantle en DX12 zijn API. Application Programming Interfaces. De interface tussen een programma (een game) en de hardware er onder. Alles was nodig is, is dat je nieuwe drivers schrijft. De hardware zelf hoeft niet aangepast te worden. Je kunt gewoon een DX12 driver schrijven een oude ATI Radeon 9800Pro als je dat zou willen. Die ondersteunt waarschijnlijk niet alle graphische features, maar wel hetzelde principe als Mantle. Dichter bij het metaal.

Dat is heel wat anders dan de features die een chip kan doen. Een chip ontwikkelen duurt minstens een jaar. Een geheel nieuwe chip van scratch ontwikkelen duurt misschien wel 3 jaar. Een API in je driver schrijven kan (blijkbaar) in een paar maanden.
DX12 is een gevolg van Mantle.
Als Johan Andersson van DICE niet zo eigenwijs was geweest dat hij een API wilde voor de PC wilde die dichter bij "the metal" stond, dan was er geen DX12 geweest.
Als AMD hem daar niet bij terwille was geweest, dan was er geen DX12 geweest.
Als de resultaten van Mantle niet zo bemoedigend waren geweest, dan was er geen DX12 geweest.
Dat zou ik niet durven beweren. Net als in de storage markt (Nvme) is er een andere werkmethode nodig om de CPU single-core bottleneck van games weg te werken. Dat was zowiezo gebeurd want er zit enorm veel geld in de game industrie.
Dat was zowiezo gebeurd want er zit enorm veel geld in de game industrie.
En MicroSoft is de baas van DirectX.
Als niemand MicroSoft had overtuigd, en iedereen had gewacht op MicroSoft, dan was DX12 nooit gekomen. (Ja, om precies te zijn: dan was DX12 er gekomen. Maar dan had DX12 niet een geheel nieuwe API-structuur gehad. Enkel en alleen wat nieuwe graphische features, zoals alle nieuwe DX-releases).

Mantle toonde aan dat het nieuwe model werkbaar en efficient is.
OpenGL (Vulcan) dreigde een serieuze concurrent te worden. (Als jij, MS, het niet doet, dan doen wij het wel). En dus moest MicroSoft wel.
Wat een onzin. DX is al wat jaartjes ib ontwikkeling. De eerste stappen van deze ontwikkeling begonnen met DX10. Dat back to the bone van een GPU API.

DX12 is namelijk het resultaat van de ontwikkeling van de xbox, 360 en xbo. Mantle heeft echt niets veranderd aan de tijdlijn en ontwikkeling van DX12.

AMD heeft mantle toen uitgebracht (waar overigens deels met MS aan samengewerkt is) omdat AMD probeerde zowel MS als OpenGL te pushen sneller de vernieuwingen door te voeren. Niet echt gelukt, DX12's op de XBO gebaseerde graphics API zou komen met windows 10, met of zonder mantle.
Stelletje zeikerds allemaal.
Allemaal Asperger zeker ? Kunnen details niet van de hoofdzaak onderscheiden.

Ik heb het hier over de grote vernieuwing van DX12. De nieuwe API. Niet een paar features hier of daar. Inderdaad, alle nieuwe versies van DX hebben nieuwe features. En bijna niemand die daar om maalt.

Maar de verandering van de "programming paradigm", die toestaat op "dichter op het metaal" te programmeren, dat is de echte game-changer. (of zou kunnen worden. Eerst zien natuurlijk). Dat is waar ik het hier over heb. En dat zou niet gebeurd zijn zonder Johansen en AMD.
Details maken je verhaal of argument gewoon beter. Vooral degene die de basis van je standpunt vormen. Er is echt niets veranderd aan de tijdlijn van dx12 door mantle. Mantle publiek brengen was politiek, geen slechte overigens. Vanuit AMDs perspectief een goede actie. MS leek het niet serieus te nemen op de PC kant, OpenGL liep te bakkeleien, intel en nvidia overschaduwden de specraces met niet hele zuivere koffie manieren...AMD was het afwachten van anderen zat en nam het voortouw, dit heeft zeker wel effect gehad. Maar DX12 in huidige staat en release date is daar niet op veranderd. Dat hing vast aan windows 10.
Als niemand MicroSoft had overtuigd, en iedereen had gewacht op MicroSoft, dan was DX12 nooit gekomen. (Ja, om precies te zijn: dan was DX12 er gekomen. Maar dan had DX12 niet een geheel nieuwe API-structuur gehad. Enkel en alleen wat nieuwe graphische features, zoals alle nieuwe DX-releases).
Want bij DirectX 1 t/m 11 moest Microsoft ook overtuigd worden door AMD en/of een of andere random game developer om tot al die ontwikkelingen te komen?
Want bij MS werken alleen maar koekenbakkers die geen idee hebben waar ze mee bezig zijn?
Want dat zeg je eigenlijk. Dat Microsoft zelf niets kan bedenken, en dat Microsoft zelf niet met GPU-fabrikanten en game developers zou kunnen overleggen wat er handig is voor toekomstige versies.
Terwijl dat juist is hoe Microsoft werkt.
Ten tijde van DX11 zei AMD dat ook nog gewoon:
https://web.archive.org/w...excited-about-directx-11/
Staat letterlijk in dat een nieuwe versie van DirectX jaren kost om te ontwikkelen, en dat ze al lang van tevoren met elkaar in gesprek zijn.
Er staat zelfs in dat er wel eens features blijven liggen tot een volgende versie, dus dat er in DX11 dingen kwamen die ze al tijdens DX10 hadden besproken.
Dus wie weet wat men tijdens DX11 al had bedacht aan features en ontwerpen, die men toch maar tot DX12 heeft bewaard...

Maar door dat gehannes met DX12 en Mantle komt de waarheid AMD wat minder goed uit, dus komen ze met wat leuke spindoctoring.

[Reactie gewijzigd door Scalibq op 7 juni 2015 22:38]

DX12 is een gevolg van Mantle.
Ja, je kunt het blijven volhouden... *zucht*.
. De hardware zelf hoeft niet aangepast te worden. Je kunt gewoon een DX12 driver schrijven een oude ATI Radeon 9800Pro als je dat zou willen.
Okee, stop maar weer, je weet niet waar je over praat.
DX12 heeft dus bepaalde minimum featuresets (daar gaat dit nieuwsbericht dus ook over).
Als je hardware die niet ondersteunt, kun je dus geen driver schrijven. Dus nee, zelfs als je het zou willen, kun je op een 9800Pro geen DX12-driver schrijven.
Die ondersteunt waarschijnlijk niet alle graphische features, maar wel hetzelde principe als Mantle. Dichter bij het metaal.
Wederom nee.
Juist bij deze APIs is het belangrijker dat de hardware op een bepaalde manier werkt.
9800Pro werkt totaal anders dan een moderne GPU, dus kun je ook een hoop dingen van de API niet implementeren. For starters: geen unified shaders.
DX12 heeft dus bepaalde minimum featuresets (daar gaat dit nieuwsbericht dus ook over).
Ja. Maar dat is niet waar het normaal over gaat als je het over DX12 hebt. Het bijzondere aan DX12 (vergeleken met DX1 t/m DX11) is dat je nu dichter op het metaal kunt programmeren. En dat zou niet zijn gebeurd zonder Mantle.

Dat DX12 nog andere graphische features heeft, tuurlijk. Maar daar maakt (nog) niemand zich druk om. Nieuwe kleine features zitten in alle nieuwe versies van software. Waar die vandaan komen zal me worst wezen.
En dat zou niet zijn gebeurd zonder Mantle.
Zeker wel.
Dat DX12 nog andere graphische features heeft, tuurlijk. Maar daar maakt (nog) niemand zich druk om. Nieuwe kleine features zitten in alle nieuwe versies van software. Waar die vandaan komen zal me worst wezen.
Het zijn niet bepaald 'kleine' features.
Vooral conservative rasterization kan interessante nieuwe effecten mogelijk maken, omdat je nu efficient volumetrische effecten kunt berekenen via de rasterizer.
nVidia heeft daar met de introductie van de 900-serie al wat leuke dingetjes over laten zien: http://www.geforce.com/wh...xt-generation-of-graphics
Je claimt altijd dat DX12 eerder in ontwikkeling was dan Mantle en dat daarom Mantle en dat daarom Mantle 'leentje-buur' is door AMD bij Microsoft. Er gaat echter wel iets fout bij je claim.

Ten eerste, wat eerder in ontwikkeling was is niet geheel belangrijk. Nieuwe features die DX11.3/4/5 hadden kunnen worden of nu DX12, zijn altijd wel in ontwikkeling, voor een groot deel doordat bij OpenGL continu nieuwe zaken worden aangedragen/aangebracht. Dus of wat toentertijd in ontwikkeling was DX12 was of DX-veel, kun je alleen aantonen door middel van bewijzen die je niet wil leveren.

Het tweede punt is dat Mantle in de eerste plaat vooral een API bedoeld om dichter bij de hardware te coden. Het ging bij de orginele Mantle-API niet om compleet nieuwe features, maar om een API die uiteindelijk breed inzetbaar zou worden.

Simpelgezegd, de twee API's hadden verschillende doelen.

Nu is er de statement van AMD dat het Low-Level onderdeel van DX12 pas tot ontwikkeling is gekomen doordat AMD Mantle had en aanbood aan Microsoft en Kronos. Van Kronos weten we dat ze Mantle praktisch 1 op 1 hebben overgenomen, met een aantal aanpassingen die heel specifiek op AMD hardware waren toegespitst. Van Microsoft weten we dat er een DX12 API guide is die 1 op 1 gelijk is aan die van Mantle, met 'find-and-replace' vervanging van Mantle voor DX12.

In het kort. Je claim is dat Mantle geen invloed kan hebben gehad op DX12 wegens 'features', maar je hebt nog nooit aangetoond dat DX12 ook voor low-level ging, voordat Mantle werd aangeboden. Ofwel, je hebt nimmer ontkracht dat de claim dat Mantle heeft gezorgd voor een low-level DX-versie onjuist is.
Ten eerste, wat eerder in ontwikkeling was is niet geheel belangrijk. Nieuwe features die DX11.3/4/5 hadden kunnen worden of nu DX12, zijn altijd wel in ontwikkeling, voor een groot deel doordat bij OpenGL continu nieuwe zaken worden aangedragen/aangebracht. Dus of wat toentertijd in ontwikkeling was DX12 was of DX-veel, kun je alleen aantonen door middel van bewijzen die je niet wil leveren.
Behalve dan dat ik al vaker heb verwezen naar de OpenGL-extensies, die gewoon door iedereen zijn in te zien.
En van DX12 komt ook steeds meer informatie beschikbaar, die steeds weer ondersteunt wat ik zeg.
Simpelgezegd, de twee API's hadden verschillende doelen.
Hoezo? Het doel van DX is altijd al geweest om breed inzetbaar te zijn. Zeker nu, met Windows 10 op alle devices.
met een aantal aanpassingen die heel specifiek op AMD hardware waren toegespitst.
Precies. Indertijd werd ik gefileerd toen ik zei dat Mantle niet compleet vendor-onafhankelijk was. Nu geef je toe dat ik gelijk had.
Ik heb altijd gelijk. Soms duurt het gewoon langer totdat bepaalde informatie toegankelijk wordt voor de mainstream computergebruiker.
Van Microsoft weten we dat er een DX12 API guide is die 1 op 1 gelijk is aan die van Mantle, met 'find-and-replace' vervanging van Mantle voor DX12.
Oh ja? Hoe 'weten we dat'? Heb jij die DX12 API guide? Ik denk het niet.
Ik wel namelijk (heb er zelf ook kleine bijdragen aan geleverd), en het lijkt niet spectaculair veel op Mantle.
Je lijkt hier een claim te maken die je absoluut niet hard kunt maken.
maar je hebt nog nooit aangetoond dat DX12 ook voor low-level ging, voordat Mantle werd aangeboden.
Zie elders, ik heb een link van techreport geplaatst, waar zowel Microsoft als nVidia dat beamen. Ze ontkennen overigens geen van beiden dat AMD ook in het project zat.
Zoals ik al zei, zo heeft AMD de ideetjes voor Mantle 'geleend'.
Het is blijkbaar niet duidelijk. Wat het doel van DX normaalgesproken is, doet niet geheel ter zake in deze discussie. Wat wel ter zake doet, is dat Mantle het resultaat is van jaren van vragen vanuit de development industrie, een low-level API voor de PC. DX12 was wat DX altijd is, een verbetering van de vorige DX, zonder dat er expliciet naar low-level mogenlijkheden hoeft te worden gekeken. 2 API's, 2 doelen.

En Mantle is feitenlijk opgezet als vendor-onafhankelijk. Juist het feit dat Kronos maar een paar dingetjes hoefde aan te passen om Mantle Vulkan te maken, maakt dat duidelijk. Ik geef dus niet toe dat jij gelijk hebt. Wat er gebeurd is, is dat zowel Kronos als Microsoft de ontwikkeling van Mantle tot zich hebben genomen en hebben verwerkt in hun respectievelijke API's, waardoor de noodzaak voor AMD om Mantle geheel open te stellen compleet verdween.

Misschien dat guide niet de juiste term is, maar er is documentatie aangaande Mantle beschikbaar en daarnaast is documentatie van DX12 gelegd, waarbij de tekst exact hetzelfde is, uitgezonderd de 'find-and-replace' Mantle->DX12

Je Techreport artikel geeft niets zwart op wit dat DX12 low-level ging worden vanaf dag 1. Er staat nergens dat AMD maar met Mantle is begonnen omdat ze op die manier snel even eerder een low-level API hadden, door middel van leentje buur. Alle beschikbare informatie op internet laat een heel ander beeld zien. Je kunt wel zeggen dat AMD leentje-buur heeft gespeeld, maar dat is nog wat anders dan hard bewijzen.
Wat wel ter zake doet, is dat Mantle het resultaat is van jaren van vragen vanuit de development industrie, een low-level API voor de PC.
En DX12 ook. Vraag is, wie heeft van wie geleend?
En Mantle is feitenlijk opgezet als vendor-onafhankelijk. Juist het feit dat Kronos maar een paar dingetjes hoefde aan te passen om Mantle Vulkan te maken, maakt dat duidelijk. Ik geef dus niet toe dat jij gelijk hebt.
Maar ik heb wel gelijk. Anders hoefde Khronos niets aan te passen.
Wat hebben ze trouwens precies aangepast, volgens jou?
Misschien dat guide niet de juiste term is, maar er is documentatie aangaande Mantle beschikbaar en daarnaast is documentatie van DX12 gelegd, waarbij de tekst exact hetzelfde is, uitgezonderd de 'find-and-replace' Mantle->DX12
Heb je hier een bron voor?
De Mantle API documentatie die ik van de AMD-site heb gedownload, lijkt in de verste verte niet op die van DX12.
Er staat nergens dat AMD maar met Mantle is begonnen omdat ze op die manier snel even eerder een low-level API hadden, door middel van leentje buur.
Er staat letterlijk in dat dat zeker een mogelijkheid is.
Alle beschikbare informatie op internet laat een heel ander beeld zien.
Alle informatie is gebaseerd op AMD's info. Op die paar opmerkingen na van Microsoft en nVidia op bv Techreport en hun eigen blogs, die dus niet passen in de visie die AMD verspreid heeft.
Geen idee waarom +2. Maar DX12 ontwikkeling is een gevolg op de ontwikkelingen van MS op de Xboxen.

Veel van Mantle's "vernieuwingen" komt hier overigens vandaan.
AMD heeft mantle uitgebracht om zowel MS als het volk van OpenGL te pushen, AMD vond het te lang duren. Terwijl MS en OpenGL al beiden bezig waren.

Mantle heeft echt niets meegedragen aan DX12. DX12 is gebaseerd op DX uit de Xboxen en zou komen met W10, met of zonder Mantle.

Mantle was een politiek spel, meer niet. (geen negatieve overigens)
Het zijn niet bepaald 'kleine' features.
Voor jou als specialist (neem ik aan) wel.
Voor mij, als simpele gamer, maakt het me helemaal niks uit. Niet totdat die features ook in een game zitten. In meerdere games zitten. Totdat die features onmisbaar zijn.

Ik ben zelf een "netwerk-jongen". Ik kan enthousiast raken over obscure verbeteringen in techniek en in protocol-specificaties. Maar ik ben me er van bewust dat de normale mens enkel er in geinteresseerd is als zijn Internet snelheid 2x of tenminste 10x omhoog gaat.

DX12/Mantle geeft developers de kans om hun CPU-limited games/pcs een significante fps-boost te geven. Dat is interessant (vandaar het woord significant). Conservative rasterization maakt helemaal niemand iets uit.

[Reactie gewijzigd door gryz op 5 juni 2015 16:25]

Voor jou als specialist (neem ik aan) wel.
Voor mij, als simpele gamer, maakt het me helemaal niks uit. Niet totdat die features ook in een game zitten. In meerdere games zitten. Totdat die features onmisbaar zijn.
Erm duh? Jullie gamers lopen altijd achter de feiten aan.
Maar deze features gaan komen.
En AMD heeft nu dus best wel wat problemen...
Hun tessellation pipeline werkte al niet lekker, en nu moet de rasterizer nog eens een keer op de schop om conservative rasterization en ROV's te ondersteunen.
AMD heeft inmiddels best een flinke achterstand goed te maken op technisch vlak.
Conservative rasterization maakt helemaal niemand iets uit.
Omdat ze niet weten wat het is en doet.
Lees dit maar eens: http://www.geforce.com/wh...xt-generation-of-graphics
Dan zie je misschien wel dat dat best wel eens een dingetje kan gaan worden in toekomstige games. En dan ben je best wel zuur als je met je nieuwe dure AMD-kaart al die pracht moet missen (net als bv Hairworks).
Dus morgen zijn er triple A game released gebouwed rond die feature. Droom verder.
De relevantie van DX 12 unieke features komt als de hardware onder de gamers mainstream wordt.
Dus met pascal 14 nm en AMD gpu op 14 nm ergens in 2016 2017. Dat hun aandeel stuk relevanter is dan nu.
Ondertussen is er ook DX12.2 of DX12.3 wat weer gemist wordt
En er sloot DX12 games zijn.
Dus morgen zijn er triple A game released gebouwed rond die feature. Droom verder.
Dat zou zomaar kunnen ja. DX12 is al een hele tijd beschikbaar voor ontwikkelaars, samen met drivers voor nVidia Maxwell. Zoals gezegd, Unreal Engine 4 is al geport naar DX12: https://www.unrealengine....me-running-on-directx-gdc
En dat is vast niet de enige engine.
Crysis werd ook vrijwel gelijk gelanceerd met Vista/DX10.
De relevantie van DX 12 unieke features komt als de hardware onder de gamers mainstream wordt.
Ligt eraan wat je bedoelt met 'relevantie' en 'mainstream'.
Ik heb het erover dat er vanaf launch al engines/games zouden kunnen zijn die er gebruik van kunnen maken. Er zijn ook al best wel veel Maxwell v2-kaarten/DX12_1 in omloop trouwens.

[Reactie gewijzigd door Scalibq op 7 juni 2015 13:50]

Je draait de boel behoorlijk om.

DX12 is gewoon totaal anders dan Mantle. Ja, ze bereiken hetzelfde ('closer to the metal'), maar ze doen dit op een andere wijze met andere API's. DX12 is niet van AMD verder, en ze hebben er ook niet ontzettend veel over te zeggen.

Volgens sommigen is DX12 een gevolg van Mantle omdat de performance-winst van Mantle liet zien dat DirectX ontzettend inefficiŽnt was. Dat gaf Microsoft eens een flinke schop onder z'n kont om eens door te pakken met DX12. En daarom is het - gedeeltelijk - ook een beetje een gevolg van Mantle ;)

Het is totaal niet zo dat Mantle een afleidingsmanouvre was, zoals je voorspiegelt. Het was een al lang lopend project om te laten zien dat het ook anders kan, en omdat DX12 maar op zich liet wachten.

AMD heeft bewust niet voor niets aangegeven om te stoppen met Mantle en zich te richten om Vulkan (OpenGL) en DirectX 12 om zo te gaan voor standaarden waar de hele industrie mee werkt. Mantle kon immers nooit doorbreken als het alleen maar werkt op 30% van de PC-gaming markt (het huidige marktaandeel van AMD). Indien Intel en Nvidia hadden gekozen om Mantle ook te ondersteunen (en ja, dat mocht gewoon) dan had de wereld er misschien wel anders uit gezien ;)
AMD's doel was in het algemeen om meer performance uit de veel krachtigere PC-hardware te halen. DX11 loopt tegen limieten op, er moest wat gebeuren, anders kan het platform PC nooit haar voorsprong behouden. Of ze nou zelf een API onderhouden, of dat iemand anders dat doet - het gaat erom om de markt te vergroten. En hoe groter de markt, hoe groter de omzet van AMD.

Dat Nvidia de support nu wel heeft, heeft er verder geen reet mee te maken. Dat zit er simpelweg in dat Nvidia een nieuwere chip heeft. Ten tijde van de R9 290(X) was de informatie over 12_1 waarschijnlijk nog niet volledig. De Radeon Fury, de echt nieuwe kaart, zal ongetwijfeld wel featureset 12_1 meenemen.

Verder is DX12 een product van Microsoft. Natuurlijk met enige samenwerking van Nvidia, AMD en ook Intel, maar het is helemaal niet zo dat een van die drie de 'drijvende kracht' is.
"Het is totaal niet zo dat Mantle een afleidingsmanouvre was, zoals je voorspiegelt. Het was een al lang lopend project om te laten zien dat het ook anders kan, en omdat DX12 maar op zich liet wachten."

Mantle is er vooral gekomen m.i. omdat DX11 inefficient en weinig threaded met CPU resources omspringt, en AMD nu net een CPU architectuur heeft (Bulldozer) die maximaal inzet op multi-threaded performance, en maar "lage" single-threaded prestaties biedt.
Door een meer multi-threaded API (Mantle), kon AMD zijn bottleneck wegwerken.

Om proberen tegelijk de AMD GPU's te promoten, en omdat ze die architectuur het beste kennen, werd Mantle alleen voor CGN ontwikkeld. Al werd het natuurlijk wel met MS geshared, omdat DX natuurlijk een belangrijk API is en ondersteuning van Mantle-technologie door DX AMD zou helpen zijn doel te bereiken. Namelijk, zijn CPU's minder slecht uit game-benchmarks te laten komen.

Vanuit dit opzicht is Mantle dus vooral een poging van AMD om zijn CPU-nadeel weg te werken.

Het is ook opvallend dat net nu er ernergiezuiniger Maxwell-GPU's zijn, AMD ook plots spreekt over FPS-locking techniek om zo geen onnodige frames te renderen, en energie te besparen.

Elk bedrijf probeert gewoon zijn nadelen weg te werken of te verdoezelen, en zijn voordelen te benadrukken of uit te breiden. In het laatste opzicht is GameWorks ook Nvidia's poging om unieke features aan te bieden aan Nvidia-gebruikers. Of dit nu wenslijk is voor "de markt" in zijn geheel, laat ik even buiten beschouwing.

[Reactie gewijzigd door Jack77 op 6 juni 2015 20:19]

Leuk verhaal, maar hou er rekening mee dat AMD's Bulldozer ook alweer uit 2011 is.
Het probleem van hun CPU-bottleneck speelt dus al langer, en lijkt niet de directe trigger te zijn voor Mantle.
Als je vanuit Microsoft kijkt, zijn er nog wel meer devices die mogelijk een bottleneck hebben, zoals de tablets en smartphones waar men nu Windows 10 op wil gaan draaien. Devices die helemaal geen AMD CPUs gebruiken.
En je ziet dat Apple juist ook die devices aan wil pakken met Metal.
Ligt dus voor de hand dat Microsoft hier ook aan gedacht heeft.

[Reactie gewijzigd door Scalibq op 8 juni 2015 10:46]

"Geleende ideetjes"? Komop zeg, iedereen, inclusief game ontwikkelaars en hun moeders, zagen dit probleem al jaren aankomen. Mantle was ook jaren in ontwikkeling.
DX12 is overigens pas aangekondigd op 20 maart 2014. Toen was Mantle al 2 jaar beschikbaar.
Indien Microsoft echt zo ontzettend voorop liep met dit soort dingen was de Xbox One wel met DX12 gelanceerd ;)
Zo veel langer duurde DX12 niet. Dus dat argument is kul. AMD heeft nog niks kunnen bewerktstelligen met Mantle.
Duurde? De release is deze zomer en pas dit najaar komen er games, althans da's aangekondigd. Mantle games zijn er al meer dan 2 jaar dan.
Niks kunnen bewerkstelligen? Jazeker wel, Battlefield Hardline draait in Crossfire op mijn PC met zeker 10-15fps meer en bovendien een stuk stabielere frametimes omdat er veel minder naar de CPU gesmeten word.
Van wat ik tot dusverre heb gehoord/gezien, niet. En dat is echt een probleem.
Bron? Van dusverre ik heb gehoord/gezien, wel dus... Het is inderdaad een probleem als je gelijk zou hebben.
Er is altijd 1 fabrikant die de 'reference-architecture' levert, waar de API op gebaseerd wordt.
Neen. En als iemand dat zou zijn, dan is dat Microsoft wel met haar Xbox One. Gebaseerd op AMD. Ik zie graag een bron van dat Maxwell 2 de reference is voor DX12, want dat is simpelweg niet waar. Check deze post eens, en de veelgelinkte stukken van Werelds in dit topic. Er is nog geen enkele kaart die 12_1 compilant is, die is nog niet uit. Dat bewijst maar weer dat er inderdaad nog geen hardware is, dat DX12 inderdaad zonder beschikbare hardware wordt ontworpen en dat je je posts baseert op onderbuikgevoelens in plaats van feiten ;)
"Geleende ideetjes"? Komop zeg, iedereen, inclusief game ontwikkelaars en hun moeders, zagen dit probleem al jaren aankomen.
Dus je geeft me gelijk: Dat idee was niet nieuw, mensen waren er al jaren mee bezig, zowel binnen als buiten Microsoft. En AMD heeft die ideetjes 'geleend'.
DX12 is overigens pas aangekondigd op 20 maart 2014. Toen was Mantle al 2 jaar beschikbaar.
1) DX12 was al veel langer in ontwikkeling dan dat jij er ooit van gehoord hebt.
2) Mantle al in maart 2012? Waar baseer je dat in godsnaam op? Het is *nu* nog niet eens beschikbaar voor ontwikkelaars, het zit in een paar AMD-sponsored games. De eerste daarvan was BF4, releasedatum: 29 oktober 2013. Dat is voor het eerst dat de buitenwereld iets werkends van Mantle kon zien.
Neen.
Erm wat? Ga je daar nog over in discussie ook? Ik heb alle kaarten genoemd. Pak even de reviews erbij van die kaarten en de eerste games met de nieuwe APIs.
Keiharde ja.
En als iemand dat zou zijn, dan is dat Microsoft wel met haar Xbox One.
Natuurlijk niet. De Xbox One had bij de release al geen nieuwe GPU-technologie, maar 'gewoon' een GCN-chip.
Net zoals alle consoles van de afgelopen 10+ jaar qua graphics niet baanbrekend waren.
De Xbox 360 werd geintroduceerd met een DX9-GPU, vlak voordat MS met Vista en DX10 kwam.

[Reactie gewijzigd door Scalibq op 5 juni 2015 17:05]

Geleende ideetjes klinkt als gejat ideetje, dat vind ik een onterechte benaming. Maar verder inderdaad, dat idee was niet nieuw, ik zeg ook nergens in m'n post dat ik je daar ongelijk in geef. Er was alleen NIEMAND die het daadwerkelijk uitbracht of informatie gaf ;)
AMD heeft met haar implementatie de boel wakker geschud. Bijzonder dat je zoveel moeite hebt om dat in te zien.

1) Unofficial ja. Het kwam maar niet. 3 jaar geleden hadden games het al kunnen gebruiken voor veel betere prestaties. Mantle was overigens ook al veel langer in ontwikkeling. Als het al zo lang in ontwikkeling was, waarom sloegen ze de Xbox One over dan?
2) Oktober 2013, da's bijna 2 jaar geleden. Mantle is een half jaar geleden ook weer teruggetrokken omdat het geen standaard kon worden die door de hele industrie gedragen werd, zoals ik je in twee threads inmiddels al 5x heb verteld, inclusief uitleg waarom, waar je maar niet op reageert.

Ja, voorheen waren er wel reference kaarten voor de API's. Nu niet. Er is immers nog altijd geen enkele kaart die volledig DX12 compilant is, waar je inmiddels al tientallen keren op gewezen bent door verschillende Tweakers.
Als er een reference kaart is, heeft niemand 'm in ieder geval.
De Xbox 360 is destijds uitgerust met de krachtigste GPU die op dat moment beschikbaar was... en was zeker impressive qua prestaties, zeker voor z'n pricetag. De GPU was wel gebaseerd op een desktop kaart.
Maargoed, ik zei 'stel dat', wat betreft de Xbox One als reference. Microsoft had, indien de DX12 plannen destijds al zo groot waren, waarom teamde Microsoft voor haar Xbox One dan niet ťcht samen met AMD of Nvidia voor een echte DX12 box?

[Reactie gewijzigd door Richh op 5 juni 2015 17:19]

Nee, dat idee was niet nieuw. Er was alleen NIEMAND die het deed. AMD heeft met haar implementatie de boel wakker geschud.
Je spreekt jezelf tegen. Enerzijds zeg je dat iedereen dit allang wist, anderzijds zeg je dat AMD de boel wakker heeft geschud.
Het is het een of het ander.

Verder *denk* jij dat niemand wat deed. Dat is niet waar.
1) Unofficial ja. Het kwam maar niet. 3 jaar geleden hadden games het al kunnen gebruiken voor veel betere prestaties.
Het ligt niet zo simpel. 3 jaar geleden was er nog een hoop legacy-hardware die DX11 of lager moest gebruiken.
Om dan een API te lanceren die alleen DX11+ hardware ondersteunt, gaat niet werken. Die fout heeft MS met DX10 al eens gemaakt.
Mantle was overigens ook al veel langer in ontwikkeling. Als het al zo lang in ontwikkeling was, waarom sloegen ze de Xbox One over dan?
Als Mantle al bestond, waarom heeft de Xbox One dan geen Mantle? Of de PS4?
En waarom zagen we pas eind 2013 de eerste Mantle-game? Er waren al lang XB1/PS4-games.
2) Oktober 2013, da's bijna 2 jaar geleden
Je vergeleek met maart 2014.
Mantle is een half jaar geleden ook weer teruggetrokken omdat het geen standaard kon worden die door de hele industrie gedragen werd, zoals ik je in twee threads inmiddels al 5x heb verteld, inclusief uitleg waarom, waar je maar niet op reageert.
Lang voordat Mantle Mantle was, had ik al gezegd dat het nooit een standaard zou kunnen worden: https://scalibq.wordpress...ddy-talks-nonsense-again/
waar je inmiddels al tientallen keren op gewezen bent door verschillende Tweakers.
Door mensen die minder begrijpen van de DX12-features dan ik.
Ignorance is bliss.
Nee, je leest niet goed. Iedereen wist het allang. Niemand bracht het daadwerkelijk uit. AMD doorbrak dat.

Dat jij er geen toekomst in zag, is prima, AMD zag dat wel. En dat is uiteindelijk een foute inschatting van AMD geweest, wat nu als voordeel heeft dat DX12 eindelijk eens uitgebracht gaat worden.

Als je daadwerkelijk verstand had van graphics api's, had je wel begrepen dat chips die gemaakt zijn voor Mantle-implementaties helemaal niet per definitie het voortouw zouden moeten hebben bij een totaal andere graphics api. En wist je ook dat je van twee jaar oude gpu's onmogelijk 12_1 kan ondersteunen.

De link tussen Mantle en DX12 die je probeert te leggen, bestaat niet. Het komt op mij over als een Nvidia fanboy (of AMD hater) die twee losse eindjes heeft gevonden en alles op alles zet om AMD in een kwaad daglicht te zetten... Prima, maar hou het dan bij feiten.
wat nu als voordeel heeft dat DX12 eindelijk eens uitgebracht gaat worden.
Ja, dat stel je wel steeds, maar enig bewijs heb je er niet voor.
Als je daadwerkelijk verstand had van graphics api's, had je wel begrepen dat chips die gemaakt zijn voor Mantle-implementaties helemaal niet per definitie het voortouw zouden moeten hebben bij een totaal andere graphics api. En wist je ook dat je van twee jaar oude gpu's onmogelijk 12_1 kan ondersteunen.
Ik weet alles van graphics APIs en software rendering.
Jij snapt blijkbaar mijn punt gewoon niet. Want je zegt hier heel iets anders dan dat ik zei.
Prima, maar hou het dan bij feiten.
Ik zit in het DX12 Early Access program, en heb zelf directe input bij het ontwikkelen van de API.
Ik weet een stuk meer feiten over DX12 dan de mensen hier op tweakers.
Enig bewijs dat het anders is heb je ook niet, of in ieder geval geen bronnen.

Maargoed, je hebt er veel verstand van dus. Zou je nogmaals iets willen uitleggen? Ik snap nog steeds niet dat je in het begin Mantle een 'afleidingsmanoeuvre' hebt genoemd.
Zag AMD toen al in dat ze DX12 niet konden ondersteunen ofzoiets? Je komt naar mij over als een ontzettende Mantle-hater, maar waar komt dat vandaan?
Enig bewijs dat het anders is heb je ook niet, of in ieder geval geen bronnen.
Wel eens gehoord van Occam's Razor?
Microsoft heeft nog NOOIT 'een zetje' nodig gehad om met een nieuwe versie van DirectX te komen. Dat doen ze meestal op het moment dat er een nieuwe generatie hardware aan zit te komen, en een nieuwe versie van Windows.
En nu is het niet anders.
Dus waarom zou je denken dat AMD daar nodig bij was?
Het is toch veel logischer dat Microsoft gewoon doet wat ze altijd doen?
Zag AMD toen al in dat ze DX12 niet konden ondersteunen ofzoiets?
Precies. Microsoft gaat met oa nVidia, Intel en AMD rond de tafel zitten, en dan gaan ze kijken waar iedereen mee bezig is, en wat ze willen standaardiseren.
Toen het een beetje duidelijk werd dat er bepaalde features van nVidia en Intel in gingen komen, waarvoor AMD ingrijpende wijzigingen in hun architectuur moest doen, wisten ze dus dat ze met DX12 een achterstand gingen oplopen.
De aanval is de beste verdediging, zullen ze gedacht hebben.
Okť, je moet begrijpen dat dit verhaal vrijwel nergens anders op internet staat en dat iedere site AMD's PR overneemt. Je lijkt dat iedereen behoorlijk kwalijk te nemen maar daar kan ook niemand wat aan doen zo.

Anyhow, bedankt voor je uitleg, ook goed om die kant van het verhaal eens te horen.
Ik raad je aan volgende keer wat eerder met deze informatie te komen :P
Okť, je moet begrijpen dat dit verhaal vrijwel nergens anders op internet staat en dat iedere site AMD's PR overneemt. Je lijkt dat iedereen behoorlijk kwalijk te nemen maar daar kan ook niemand wat aan doen zo.
Beetje gezond verstand mag toch ook wel?
Zoals je zelf zegt, iedere site neemt AMD's PR over... Dus al die informatie komt altijd en alleen van AMD.
Daar mag je dus alvast wel vragen bij gaan stellen: Okee AMD zegt dit steeds... Maar wat zeggen de andere partijen? Klopt dit allemaal wel?

En sowieso, als AMD een claim maakt dat er geen DX12 komt... Waarom maakt AMD die claim? AMD gaat helemaal niet over DX12. Dat is Microsoft, dus Microsoft moet zo'n statement maken.
Dat deed Microsoft dus niet. Sterker nog, ze zeiden dat er wel degelijk een nieuwe versie van DirectX in ontwikkeling was.
Maarja, het leed is dan al geleden. Het bericht van Microsoft heeft blijkbaar de meeste tweakers niet bereikt, maar *iedereen* weet *precies* wat AMD allemaal heeft geclaimd, en neemt dat allemaal ook klakkeloos als de waarheid aan, en verdedigen die ook nog eens met hand en tand.
Bizar, die AMD-kliek.
Dat heeft Microsoft ook een beetje aan zichzelf te danken met dit soort opmerkingen: http://games.slashdot.org...hases-out-xna-and-directx
Graag zie ik het artikel van Microsoft, die ben ik nooit tegen gekomen, heb je een linkje? Waarom heeft de aankondiging van DX12 eigenlijk alsnog zolang geduurd?

Daarnaast heb ik ook met gezond verstand naar jouw postgeschiedenis gekeken, het leek vrij logisch om ook jouw opmerkingen enigzins in twijfel te trekken :P
Dat heeft Microsoft ook een beetje aan zichzelf te danken met dit soort opmerkingen: http://games.slashdot.org...hases-out-xna-and-directx
Uhh, dat is slashdot, een linux-site. Niet bepaald een betrouwbare bron voor Microsoft-nieuws.
Het klopt dat MS stopt met XNA, maar niet met DX.
Het is allemaal maar vaag-vaag en via-via.
Graag zie ik het artikel van Microsoft, die ben ik nooit tegen gekomen, heb je een linkje?
Dat kan ik nu zo 1-2-3 niet meer terugvinden, was alweer jaren geleden.
Waarom heeft de aankondiging van DX12 eigenlijk alsnog zolang geduurd?
Microsoft kondigt een nieuwe DX nooit jaren van tevoren aan. Dat doen ze pas op het moment dat ze daadwerkelijk iets in handen hebben, en een release-datum weten.
De tegenpartij onderbouwt zijn argumenten echter wel met gelinkte forum posts en en andere links. Wat ik je vooral zie doen:

- Verwijzen naar je eigen blog (Is geen bron, want schrijf je zelf)
- Zeggen dat je het beter weet zonder daar argumenten voor aan te dragen (En nee, je blog telt niet mee). Het komt een beetje narcistisch over als ik eerlijk ben. ''Ik weet het beter dan al deze tweakertjes hier, want ik zeg het, dus dan is het waar''.
- Roepen: ''Door mensen die minder begrijpen van de DX12-features dan ik.'' - Natuurlijk een non-argument. Bewijs dan het tegendeel door met bronnen te komen, feitelijke kritieken die door andere vooraanstaande auteurs zijn geschreven. Als je zo heilig overtuigd bent van je eigen gelijk, moet het absoluut geen probleem zijn dat gelijk te kunnen onderbouwen. (En iets semantisch geleuter noemen maakt het nog niet dat jij dan gelijk hebt)

Dan wat mij opviel aan deze reactie:

- ''Ik weet alles van graphics APIs en software rendering.'' - Hoe cocky dat ook klinkt, er zit een kern van waarheid in. Ik ben bekend met veel van je werk en contributies dus ik ben de laatste die gaat roepen dat je geen reet snapt van API's of programmeren op low-end hardware (Props voor je werk op de 8088, zeer boeiend om te zien en erover te lezen!) maar toegeven dat je er zelf ook wel eens naast kan zitten is bijna iets vreemds voor je. Doodzonde, want dat je kennis van bepaalde materie hebt, dat staat gewoon vast.
- ''Jij snapt blijkbaar mijn punt gewoon niet.'' - Gezien hoeveel mensen het oneens met je zijn over meerdere fora, zou het niet logischer klinken dat je het op bepaalde punten gewoon incorrect bent?
- ''Ik weet een stuk meer feiten over DX12 dan de mensen hier op tweakers.'' - Oke, bewijs dat dan maar. Roepen dat je in het DX12 Early Access program zit zegt niet zoveel als dat niet geverifieerd kan worden. Ik kan ook net zo makkelijk claimen een Nvidia expert te zijn en dat het een corrupte bende daar is die de PC wereld onder de duim houden met dito aluhoedje argumenten. Maar als ik als een gewaardeerde Nvidia expert gezien wil worden, dan zou ik mijn stinkende best doen alles te onderbouwen ipv dingen te claimen, en zeker niet elke mogelijkheid aangrijpen om de tegenpartij af te kraken.
- Verwijzen naar je eigen blog (Is geen bron, want schrijf je zelf)
Op mijn blog verzamel ik quotes en links naar bronnen.
Bewijs dan het tegendeel door met bronnen te komen, feitelijke kritieken die door andere vooraanstaande auteurs zijn geschreven.
Vaak genoeg gedaan, wordt gewoon genegeerd en/of niet begrepen.
Probleem blijft dat AMD een gigantisch offensief heeft ingezet, dus hun info vind je overal op het internet nagepapegaaid. De andere bronnen zijn veel lastiger te vinden.
Als je zo heilig overtuigd bent van je eigen gelijk, moet het absoluut geen probleem zijn dat gelijk te kunnen onderbouwen.
Dat kan ik ook. Stel maar gerichte vragen.
Wat ik vaak krijg is dat men negeert wat ik zeg, zonder daadwerkelijk met echte bronnen en/of goede tegenargumenten te komen.
Zoals ik al zei, iedereen 'weet' dat Mantle de reden is dat DX12 er is... Dat wordt bij voorbaat al als waarheid aangenomen door iedereen hier. Ondanks dat er nooit bewijs/bronnen voor zijn geweest (nee, die van AMD tellen niet mee natuurlijk, Wij van WC-Eend... En dan blijft er dus geen enkele bron over).
Er is geen discussie mogelijk als je het te discussieren punt als absolute waarheid aanneemt.
maar toegeven dat je er zelf ook wel eens naast kan zitten is bijna iets vreemds voor je.
Ik heb daar op zich geen probleem mee. Het punt is alleen dat je er eerst naast moet zitten voordat je het toe hoeft te geven.
En waar zit ik er hier naast? Bronnen en goede tegenargumenten heb ik nog nergens gezien.
Gezien hoeveel mensen het oneens met je zijn over meerdere fora, zou het niet logischer klinken dat je het op bepaalde punten gewoon incorrect bent?
Nee. Gezien mijn opleiding, kennis en ervaring val ik in een hele andere groep dan de gemiddelde tweaker/forumgebruiker.
De meeste mensen weten nog niet half wat een graphics-API is, maar willen wel graag 'meepraten' om hun favoriete merk te verdedigen.
Dat die mensen roepen dat ik iets fout heb, dat heeft weinig betekenis.
Nogmaals, goede bronnen en goede tegenargumenten. Ik zie ze niet.
Kom maar met mensen met vergelijkbare achtergrond, dan heb je hele andere verhalen, en hele andere discussies.
Roepen dat je in het DX12 Early Access program zit zegt niet zoveel als dat niet geverifieerd kan worden.
Kan door iedereen geverifieerd worden die ook in het programma zit. Zoek maar zo iemand, geef me z'n naam op het DX12-forum door, en ik stuur hem een PM. Bewijs geleverd.
Waarom zou ik erom liegen?

Als je een discussie wil, dan moet je met argumenten komen. En dat gebeurt hier niet. De discussie gaat nooit de diepte in. Dat wil ik best, en op mijn blog gebeurt het af en toe wel... Aan mij ligt het niet hoor.

[Reactie gewijzigd door Scalibq op 5 juni 2015 22:25]

Op mijn blog verzamel ik quotes en links naar bronnen.
Waar je vervolgens jouw opinie over geeft. Een opinie die niet met iedereen wordt gedeeld en ook, zoals de reacties hier uitwijzen, ook wordt weerlegd.
Vaak genoeg gedaan, wordt gewoon genegeerd en/of niet begrepen.
Ik zie inderdaad in dit nieuwtje veel inhoudelijke bronnen van je (Dat was immers mijn punt) En omdat je het vaak genoeg hebt gedaan, hoef je dit niet meer te doen, want de rest snapt het toch niet? Beetje kromme redenatie. Juist omdat je claimt er zoveel van af te weten zou je alles wat je zegt moeten kunnen onderbouwen en dat eigenlijk bij elke post doen. Slechts roepen ''Deze mensen, die begrijpen mij toch niet'' terwijl je constant op de links gewezen wordt is echt te makkelijk voor een authoriteit zoals jij jezelf ziet.
Probleem blijft dat AMD een gigantisch offensief heeft ingezet, dus hun info vind je overal op het internet nagepapegaaid. De andere bronnen zijn veel lastiger te vinden.
Ik zou zeggen, probeer eens die bronnen te linken. Dat maakt wat je claimt ook gelijk een stuk serieuzer. Aangezien je zoveel weet over Nvidia/AMD, zou het vinden van dergelijke bronnen geen enkel probleem moeten wezen ;)
Dat kan ik ook. Stel maar gerichte vragen.
Dat hebben toch meerdere mensen hier al gedaan? Het enige wat je daarop zegt is ''Ik zit in het DX12 api program'' en ''Door mensen die minder begrijpen van de DX12-features dan ik''. Waarom krijgen die mensen dan +3 en jij niet? Of ga je dan roepen dat niemand, behalve jijzelf, blijkbaar door heeft welke DX12 features worden ondersteund door Nvidia of AMD? Zou tamelijk ongeloofwaardig wezen, dat iedereen, echt iedereen, ernaast zit, behalve Scali.
Wat ik vaak krijg is dat men negeert wat ik zeg, zonder daadwerkelijk met echte bronnen en/of goede tegenargumenten te komen.
Hetzelfde is meer op jezelf van toepassing. Waar zijn je bronnen, je tegenargumenten? Slechts roepen ''Ik weet het beter'' maakt het nog geen bron, laat staan een tegenargument. Ik vond Werelds's post best informatief, je bent daar meerdere keren op gewezen, en je enige antwoord daarop is ''Die mensen begrijpen er minder van dan ik''. Snap je dat met dergelijke uitspraken je veel minder serieus genomen wordt?
Zoals ik al zei, iedereen 'weet' dat Mantle de reden is dat DX12 er is... Dat wordt bij voorbaat al als waarheid aangenomen door iedereen hier. Ondanks dat er nooit bewijs/bronnen voor zijn geweest (nee, die van AMD tellen niet mee natuurlijk, Wij van WC-Eend... En dan blijft er dus geen enkele bron over).
Het is ook best aannemelijk. Mantle liet immers zien hoeveel overhead voorgaande DX-versies hadden. En hoe hard je ook roept dat het niet zo is, ik zie je het nergens weerleggen, met inhoudelijke bronnen. Als zij het verkeerd hebben, dan jij net zo hard, want je bewijst niet het tegendeel. Ik heb Nvidia/AMD van de laatste tijd gezien als: Nvidia levert de beste performance, AMD is er voor de innovatie. En in het verleden hebben ze dat ook merenmalen bewezen. Je weet vast nog wel hoe groot de performanceverschil was toen de 9700 pro uitkwam. Je stelde overigens dat Radeon 4000 de eerste DX11 kaart was, maar het was bij de Radeon 5000 series het geval dat AMD een DX11 GPU maakte.
Er is geen discussie mogelijk als je het te discussieren punt als absolute waarheid aanneemt.
Vind je dat jij dat doet?
Ik heb daar op zich geen probleem mee. Het punt is alleen dat je er eerst naast moet zitten voordat je het toe hoeft te geven.
Gezien de vele +3tjes en inhoudelijke argumenten die Werelds, Richh aanvoeren lijkt het mij vrij duidelijk wie hier er naast zit :+
Nee. Gezien mijn opleiding, kennis en ervaring val ik in een hele andere groep dan de gemiddelde tweaker/forumgebruiker.
Waarom zit je dan op Tweakers als wij ''gemiddelde'' tweakers in een totaal andere groep vallen? Ik bedoel, wie is dan je gelijke op deze site? Dat is bijna Sheldon-logica te noemen. Kijk, dat je in de scene zit, alle props, want daar zit inderdaad een zooitje programmergoden waar de meeste game devs jaloers van kunnen worden. Dat betekent echter niet dat je dan maar constant een ''holier than thou'' attitude kan vertonen.
De meeste mensen weten nog niet half wat een graphics-API is, maar willen wel graag 'meepraten' om hun favoriete merk te verdedigen.
Doe jij dat niet ten faveure van Nvidia? 8)7
Dat die mensen roepen dat ik iets fout heb, dat heeft weinig betekenis.
Oke, van wie zou je het dan wel pikken als je wordt tegengesproken? Smash? Mentor?
Kan door iedereen geverifieerd worden die ook in het programma zit. Zoek maar zo iemand, geef me z'n naam op het DX12-forum door, en ik stuur hem een PM. Bewijs geleverd.
Je kan niet even een screenshot plaatsen waaruit dit blijkt? Jij bent degene die dit claimt, niet ik.
Als je een discussie wil, dan moet je met argumenten komen. En dat gebeurt hier niet. De discussie gaat nooit de diepte in. Dat wil ik best, en op mijn blog gebeurt het af en toe wel...
En de gegeven argumenten zijn allemaal null, want gemaakt door mensen die er blijkbaar geen bal van afweten, toch? :P
Aan mij ligt het niet hoor.
Nee, dat zou wat wezen. Scali die zijn feiten niet op orde heeft. Als het niet aan jou ligt, waarom heb je dan zoveel tegenstand en weiger je zelf met bronnen te komen? Roepen dat de tegenpartij het niet doet (terwijl dat wel zo is) en zelf je eigen claims niet hard maken is toch ongeloofwaardig te noemen?
Waar je vervolgens jouw opinie over geeft. Een opinie die niet met iedereen wordt gedeeld en ook, zoals de reacties hier uitwijzen, ook wordt weerlegd.
Geef mij 1 voorbeeld waar iemand succesvol iets weet te weerleggen dat ik heb gezegd. Ik heb het niet gezien in ieder geval.
En omdat je het vaak genoeg hebt gedaan, hoef je dit niet meer te doen, want de rest snapt het toch niet? Beetje kromme redenatie.
Dat zeg ik niet... Maar keer op keer worden dezelfde vragen gesteld en dezelfde dingen beweerd.
Op een gegeven moment ben ik er natuurlijk ook wel klaar mee. Zoek zelf maar terug op eerdere posts etc waar dat al behandeld is.
Juist omdat je claimt er zoveel van af te weten zou je alles wat je zegt moeten kunnen onderbouwen en dat eigenlijk bij elke post doen. Slechts roepen ''Deze mensen, die begrijpen mij toch niet'' terwijl je constant op de links gewezen wordt is echt te makkelijk voor een authoriteit zoals jij jezelf ziet.
Zoals ik al zeg: ik kan alle vragen beantwoorden. Die moet je echter wel stellen, en dat gebeurt niet. Het is vooral een hoop outdated links en meuk, en verder een hoop moddergooien of gezeur over mijn woordkeus ('ontwikkelen' vs 'innoveren'... pfft).
Daar kan ik niets mee.
Dat hebben toch meerdere mensen hier al gedaan? Het enige wat je daarop zegt is ''Ik zit in het DX12 api program'' en ''Door mensen die minder begrijpen van de DX12-features dan ik''.
Ja, ik kan de DX12-documentatie nog niet vrijgeven, alles valt onder NDA. Dat begrijp je toch wel?
Ik heb die bronnen echt wel, maar je moet nog even wachten.
Waarom krijgen die mensen dan +3 en jij niet?
+3 scoren is hier niet zo moeilijk: gewoon posten wat mensen willen horen. Dat doe ik dus niet.
Snap je dat met dergelijke uitspraken je veel minder serieus genomen wordt?
Snap je dat ik gewoon mensen probeer uit te dagen om eens met een ECHT debat te komen?
Gezien de vele +3tjes en inhoudelijke argumenten die Werelds, Richh aanvoeren lijkt het mij vrij duidelijk wie hier er naast zit :+
Dan moet je eens goed lezen wat zij zeggen, en wat ik zeg. Wij spreken elkaar namelijk niet tegen. Nou ja, Richh in eerste instantie wel, maar nu niet meer blijkbaar.
Werelds kreeg wel commentaar op de gekleurde manier waarop hij het nieuws bracht (wat wel garantie is voor +3 hier natuurlijk), en dat commentaar was compleet terecht.
Doe jij dat niet ten faveure van Nvidia? 8)7
Nee. Als je weet wat in in de scene doe, zul je vast wel begrijpen dat ik helemaal niets met nVidia heb.
Het is zeker niet 'mijn merk', en met moderne GPUs heb ik sowieso weinig.
Feit is gewoon dat nVidia als eerste met werkende DX12-drivers kwam, en dat Maxwell 2 als eerste level 12_1 ondersteunt.
Dat is niet 'ten faveure van nVidia', dat is gewoon zo.
Je kan niet even een screenshot plaatsen waaruit dit blijkt?
Nee, alles op dat forum valt onder de NDA.
En de gegeven argumenten zijn allemaal null, want gemaakt door mensen die er blijkbaar geen bal van afweten, toch? :P
Nee, de argumenten zijn gewoon slecht.
Dat mensen er geen bal van afweten is slechts de conclusie die ik trek uit de slechte argumenten. Jij draait het om.
Roepen dat de tegenpartij het niet doet (terwijl dat wel zo is) en zelf je eigen claims niet hard maken is toch ongeloofwaardig te noemen?
En wat wil jij bereiken dan? Je bent alleen op de man aan het spelen. Nogmaals, als je wil dat ik iets uitleg, onderbouw of wat dan ook, stel dan gerichte inhoudelijke vragen. Hier kan ik niks mee.
Geef mij 1 voorbeeld waar iemand succesvol iets weet te weerleggen dat ik heb gezegd. Ik heb het niet gezien in ieder geval
Eens kijken:
Richh in 'nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update'
Richh in 'nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update'
RobinHood in 'nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update'
Richh in 'nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update' - Gek, deze post is +1, de voorgaande post van jou -1. Zit tweakers hier fout? ;)
Daarnaast spreekt je gallery je ook behoorlijk tegen. In elk AMD topic prijs je Nvidia en is AMD het bokkie. Vind je het dan raar dat mensen je dan biased noemen, of niet?
Dat zeg ik niet... Maar keer op keer worden dezelfde vragen gesteld en dezelfde dingen beweerd.
Op een gegeven moment ben ik er natuurlijk ook wel klaar mee. Zoek zelf maar terug op eerdere posts etc waar dat al behandeld is.
Welke je niet weerlegt. Dat je in het verleden wel bronnen hebt gegeven betekent niet dat je dat nu niet meer hoeft te doen ;) Zou makkelijk zijn als dat wel zo was.
Zoals ik al zeg: ik kan alle vragen beantwoorden. Die moet je echter wel stellen, en dat gebeurt niet. Het is vooral een hoop outdated links
Zijn vandaag gepost, hoezo outdated? Iedereen stelt vragen en jouw antwoord is ''Je begrijpt het toch niet, ik weet er alles vanaf''. Zelfs in de Tweede Kamer kom je niet ver met dergelijke cirkelredeneringen (Hoewel.. :+ )
Ja, ik kan de DX12-documentatie nog niet vrijgeven, alles valt onder NDA. Dat begrijp je toch wel?
Je kan je claim dus niet bewijzen.
Ik heb die bronnen echt wel, maar je moet nog even wachten.
Ik moet je dus op je mooie blauwe ogen geloven? :+ Zo werkt het dus niet in de wereld. Snowden zou ook geen verhaal zijn geweest als het enige wat hij had claims waren zonder inhoud. Leuk dat je bronnen hebt, totdat je deze hebt vrijgegeven zijn mensen zoals Werelds in het voordeel daar zij dingen onderbouwen. Wat zet jij ertegenover? Een claim, en niks meer dan dat. Nvidia is ook goed in het maken van claims, betekent nog niet dat ze meteen gelijk hebben, integendeel :)
+3 scoren is hier niet zo moeilijk: gewoon posten wat mensen willen horen. Dat doe ik dus niet.
Ah, je laat vooral een ander geluid horen dat feitelijk niemand kan verstaan ;)
Snap je dat ik gewoon mensen probeer uit te dagen om eens met een ECHT debat te komen?
Door te roepen dat je het beter weet, en, als er om bronnen wordt gevraagd, je stelt dat je die echt hebt, maar dat mensen moeten wachten? Ja, dat is echt een debat te noemen... :O Voor iemand die altijd van een ander vraagt zijn stelling te onderbouwen ben je er zelf wel zeer slecht in, behalve dan claimen dat je bronnen hebt.
Nee. Als je weet wat in in de scene doe, zul je vast wel begrijpen dat ik helemaal niets met nVidia heb.
Oke, laten we dat eens voor waar aannemen. Hoe verklaar je je posthistory dan, waar consequent het tegendeel uit blijkt? Toeval? Of hebben die enge PR mensen van AMD die posts gemaakt voor je? ;) Nogmaals, je blogs over het wel en wee van je demo's, ik vind het echt heerlijk leesvoer (En wat jullie met CGA doen, prachtig). Daarom is het ook zon desillusie dat diezelfde mate van kennis niet wordt doorgetrokken bij modernere hardware. Bij retro hardware zie ik je alles onderbouwen, bij hedendaags spul juist niet.
Feit is gewoon dat nVidia als eerste met werkende DX12-drivers kwam, en dat Maxwell 2 als eerste level 12_1 ondersteunt.
Dat is niet 'ten faveure van nVidia', dat is gewoon zo.
En feit is ook dat AMD de eerste kaart met HBM op de markt brengt, de eerste kaart met DX9 features op de markt bracht, en de eerste tessellator op een videokaart plempte. Dat is gewoon zo.
Nee, de argumenten zijn gewoon slecht.
Dat mensen er geen bal van afweten is slechts de conclusie die ik trek uit de slechte argumenten. Jij draait het om.
Hoe zie jij je eigen argumenten? Hoe denk je dat een ander, die het oneens met je is, ziet?
En wat wil jij bereiken dan? Je bent alleen op de man aan het spelen. Nogmaals, als je wil dat ik iets uitleg, onderbouw of wat dan ook, stel dan gerichte inhoudelijke vragen. Hier kan ik niks mee.
Niet een vraag met een wedervraag beantwoorden. Dat wordt vooral gedaan door mensen die geen argumenten hebben en hun claims niet kunnen onderbouwen. :+

Ontopic:
Het is maar al te duidelijk dat op dit moment geen enkele GPU alles ondersteunt. De vraag is, is dat nu wel nodig op dit moment? We zitten nu pas op het punt dat games tegen de PS4/XBO standaarden worden ontwikkeld zonder zich zorgen te moeten maken over DX9 en legacy console platformen. Dat vertaalt zich dan ook naar de systeemeisen. Kon je met een GTS 250 nog Battlefield 3/4 goed runnen, tegenwoordig is een DX11 kaart en 6 GB ram gewoon het minimum. Uiteraard kan daar wel wat af worden geknibbeld, maar je ziet nu dat devs de ''standaarden'' ophogen. Waar je voorheen DX9 titels met wat DX11 effecten had, worden steeds meer games als DX11 only uitgebracht. Dat is pas kort aan de gang. Het is daarom mooi dat DX12 komt, maar ik acht het niet waarschijnlijk dat games er nu gelijk volop gebruik van gaan maken. Eerst de transitite naar DX11 als basiseis, dan de rest :)
Nergens zie ik iets van mij succesvol tegengesproken worden.
Pik er anders even specifiek iets uit:
Quote een bewering van mij (1 regel/alinea hooguit dus), en daarachter de succesvolle tegenspraak van iemand (wederom 1 regel/alinea hooguit), zodat het overzichtelijk wordt.
Dan weten we tenmiste waar we het over hebben.
Gek, deze post is +1, de voorgaande post van jou -1. Zit tweakers hier fout? ;)
Ja, laten we vooral de moderatiescores als graadmeter nemen voor hoe waar of onwaar iets is...?
Daarnaast spreekt je gallery je ook behoorlijk tegen. In elk AMD topic prijs je Nvidia en is AMD het bokkie.
En dus? Heb je onlangs nog wat benchmarks gekeken? Toevallig gezien hoe nVidia het daarin doet, en waar AMD daar scoort?
Verder, heb je ook de inhoudelijke technische kritieken gelezen die ik heb op de huidige aanpak van AMD's GPU-architectuur? En de bezwaren tegen het lanceren van proprietary APIs waar er al standaard-APIs zijn?
Misschien moet je eens iets verder kijken dan je neus lang is, en zien dat het mij niet te doen is 'omdat het nVidia is' of 'omdat het AMD is', maar dat ik zeer goede redenen heb, die niets met merken te maken hebben. En als je ver genoeg teruggaat, zul je zien dat er ook periodes geweest zijn waar ik niet zo blij was met wat nVidia deed... of juist heel blij met wat AMD/ATi deed.
Vind je het dan raar dat mensen je dan biased noemen, of niet?
Ik vind het niet raar dat mensen mij zo noemen, zo cynisch ben ik dan weer wel. Ik vind het wel raar dat mensen oprecht zouden geloven dat het waar is.
Zijn vandaag gepost, hoezo outdated?
Gisteren nog kwam er iemand met het verhaal dat Mantle open source was, en een quote uit het jaar nul waar AMD iets riep over dat het open was.
Terwijl we allemaal toch wel weten dat AMD dat inmiddels heeft ingetrokken en adviseert om DX12/Vulkan te gebruiken, toch? Dus moest ik weer die link aanhalen.
Ja, ik vind dat nutteloze argumenten.
Hier ook weer, veel focus op "DX12 komt door Mantle"... tuurlijk.
Je kan je claim dus niet bewijzen.
Dat kan ik wel, maar dat heeft bepaalde juridische consequenties, dus ik kies ervoor dat niet te doen.
Je zult moeten wachten totdat de NDA verlopen is.
Oke, laten we dat eens voor waar aannemen. Hoe verklaar je je posthistory dan, waar consequent het tegendeel uit blijkt? Toeval? Of hebben die enge PR mensen van AMD die posts gemaakt voor je?
Het tegendeel blijkt helemaal niet. Het is alleen een opmerkelijk verschijnsel dat als je iets zegt in een AMD-topic, dat er meteen 10 mensen bovenop duiken.
Als ik wat zeg in een nVidia-topic of een Intel-topic, dan blijven reacties meestal uit, en wordt er ook niet zo doorgezaagd.
Bij retro hardware zie ik je alles onderbouwen, bij hedendaags spul juist niet.
Stel een gerichte vraag dan? Wat moet ik onderbouwen?
We hebben het hier alleen over dingen als conservative rasterization, ROV gehad, en daar heb ik al links voor gegeven, en technische achtergronden verteld.
Verder zijn we klaar, toch?
De rest was 'geneuzel', wat niets met een technische discussie te maken heeft.
Ik weet ook nog steeds niet waar jij heen wil hier. Je stelt nog steeds geen gerichte vraag.
Je verwijt me dus dat ik iets niet onderbouw, maar je geeft me niet de kans om iets te onderbouwen. Daar kan ik niets mee, zoals ik al zei.
En feit is ook dat AMD de eerste kaart met HBM op de markt brengt, de eerste kaart met DX9 features op de markt bracht, en de eerste tessellator op een videokaart plempte. Dat is gewoon zo.
Zeker, maar dat heb ik ook nooit tegengesproken.
Integendeel, I was all over the Radeon 9x00.
De vraag is, is dat nu wel nodig op dit moment?
Dat is de vraag die *jij* misschien interessant vindt. Ik niet.
Ik vind het interessanter om te kijken wat voor GPU-technologie er op de markt is, en hoe dat in de komende jaren doorontwikkeld kan gaan worden.
Mijn conclusie is dat het aanbod van AMD vrij schraal is, en blijft... Hun enige hoop is de Fury, en als dat inderdaad een GCN+HBM blijkt te zijn, dus zonder goede tessellation, en zonder level 12_1, dan zie ik het somber in voor AMD de komende jaren.
Eerst de transitite naar DX11 als basiseis, dan de rest :)
Je begrijpt hopelijk dat game developers deze keus een paar jaar eerder maken dan dat de games daadwerkelijk uitkomen...
Nergens zie ik iets van mij succesvol tegengesproken worden.
Pik er anders even specifiek iets uit:
Quote een bewering van mij (1 regel/alinea hooguit dus), en daarachter de succesvolle tegenspraak van iemand (wederom 1 regel/alinea hooguit), zodat het overzichtelijk wordt.
Dan weten we tenmiste waar we het over hebben.
Ik zou zeggen, doe het zelf eens. Ik haal immers links aan, jij ''eist'' dat ik nog wat meer moeite moet gaan doen. Sterker nog, dit kan je bijna doortrekken naar de rest van de reacties: Mensen weerleggen je claim, vervolgens kan je je claim niet onderbouwen.
Ja, laten we vooral de moderatiescores als graadmeter nemen voor hoe waar of onwaar iets is...?
Ga je nu roepen dat het modsysteem fout is omdat het oneens met je is? Nogmaals, door wie tolereer je het wel door worden tegengesproken, want heel sneaky ontwijk je dergelijke vragen.
En dus?
Je vind het nietszeggend dat al je posts gericht zijn op het fileren van 1 merk? Al had je gelijk, dan gooi je je eigen glazen door zo selectief te wezen. Maar dat moet ik je niet vertellen, dat zou iemand die verstand van dergelijke zaken zoals jijzelf al moeten weten :)
Heb je onlangs nog wat benchmarks gekeken? Toevallig gezien hoe nVidia het daarin doet, en waar AMD daar scoort?
Verder, heb je ook de inhoudelijke technische kritieken gelezen die ik heb op de huidige aanpak van AMD's GPU-architectuur? En de bezwaren tegen het lanceren van proprietary APIs waar er al standaard-APIs zijn?
Ik lees wel eens wat kritieken hier en daar ja. En qua prijs/prestatie is AMD nog steeds gewoon een prima tweede keus. Mantle is tegenwoordig opensource, dat vindt ik al heel wat van een dergelijk bedrijf als AMD. Bij Nvidia moet ik er niet aan denken dat zij iets opensource stellen. Dat is hun goed recht overigens, daar niet van. Ik heb altijd het idee dat Nvidia zijn verhaal wat aandikt, zoals bij de Tegra X1. Heel leuk die 1 teraflops, maar dat is dus op een lagere precisie dan waar de rest mee meet. Dat vervolgens niet of onduidelijk vermelden en je ziet gelijk waar dat toe leidt. Het is zo zonde, want dergelijke hardware heeft helemaal geen leugentjes om bestwil nodig om op te vallen.
Misschien moet je eens iets verder kijken dan je neus lang is, en zien dat het mij niet te doen is 'omdat het nVidia is' of 'omdat het AMD is', maar dat ik zeer goede redenen heb, die niets met merken te maken hebben. En als je ver genoeg teruggaat, zul je zien dat er ook periodes geweest zijn waar ik niet zo blij was met wat nVidia deed... of juist heel blij met wat AMD/ATi deed.
Als het allemaal overdreven is wat andere mensen over je denken, dan zouden er ook niet zoveel mensen op je tegen zijn, denk je ook niet? Misschien dat je manier van uitleg veel mensen tegen het hoofd stoot, ik noem maar wat. Aan je kunde zal het niet liggen want zoals gezegd, dat is er wel.
Dat kan ik wel, maar dat heeft bepaalde juridische consequenties, dus ik kies ervoor dat niet te doen.
Op je mooie ogen geloven dus. Niet geloofwaardig :)
Je zult moeten wachten totdat de NDA verlopen is.
En tot die tijd zal je dus niet geloofd worden.
Het tegendeel blijkt helemaal niet. Het is alleen een opmerkelijk verschijnsel dat als je iets zegt in een AMD-topic, dat er meteen 10 mensen bovenop duiken.
Aan wie zou dat liggen? Aan die constant veranderende groep van 10 mensen, of aan jezelf? ;)
Je verwijt me dus dat ik iets niet onderbouw, maar je geeft me niet de kans om iets te onderbouwen. Daar kan ik niets mee, zoals ik al zei.
Ik heb je nu al letterlijk 3 keer geadviseerd om links te geven en nu roep je dat je de kans niet krijgt. Ja hoor, nog even.
Dat is de vraag die *jij* misschien interessant vindt. Ik niet.
Ik vind het interessanter om te kijken wat voor GPU-technologie er op de markt is, en hoe dat in de komende jaren doorontwikkeld kan gaan worden.
Same. Daarom vind ik de praatjes van Q-Games erg boeiend om te lezen wat zij met de GPU doen en hun voxel tracing methode. Dat vertelt mij dat je met de hardware van nu zeer creatieve uitingen kan hebben, en dat GPU's die alles ondersteunen vooralsnog voor games pas later er profijt van hebben.
Mijn conclusie is dat het aanbod van AMD vrij schraal is, en blijft... Hun enige hoop is de Fury, en als dat inderdaad een GCN+HBM blijkt te zijn, dus zonder goede tessellation, en zonder level 12_1, dan zie ik het somber in voor AMD de komende jaren.
Maar Nvidia heeft ook niet alles zoals is aangegeven. Waarom vindt je dit wel een probleem voor AMD, maar niet voor Nvidia?
Je begrijpt hopelijk dat game developers deze keus een paar jaar eerder maken dan dat de games daadwerkelijk uitkomen...
Uiteraard.
Ik zou zeggen, doe het zelf eens. Ik haal immers links aan, jij ''eist'' dat ik nog wat meer moeite moet gaan doen. Sterker nog, dit kan je bijna doortrekken naar de rest van de reacties: Mensen weerleggen je claim, vervolgens kan je je claim niet onderbouwen.
Ik zie alleen mensen die een lap tekst plaatsen als reply, die niet direct raakt aan wat ik zeg.
Dat jij 'een lap tekst' interpreteert als 'die persoon zal wel gelijk hebben', dat is nogal sneu.
En dat is dus mijn punt: Jij begrijpt niet eens genoeg van de materie om in te kunnen schatten hoe mijn posts en de reacties daarop al dan niet in elkaar grijpen.

Maar misschien heb ik het fout... Dat kun je aantonen door inderdaad specifiek een statement van mij eruit te pikken, en vervolgens iets dat het specifiek tegenspreekt (wat ik natuurlijk niet daarna alsnog in een reactie ontkracht heb, omdat die persoon op basis van foute informatie werkte).
Ga je nu roepen dat het modsysteem fout is omdat het oneens met je is?
En weer verdraai je m'n woorden. Ik zeg dat moderaties geen graadmeter zijn voor hoe waar of onwaar een reactie is.
Ik zeg helemaal niet of dat goed of fout is, of wat dan ook.
Nogmaals, door wie tolereer je het wel door worden tegengesproken, want heel sneaky ontwijk je dergelijke vragen.
Net als bovenstaande opmerking over het modsysteem, raakt het kant noch wal, en is het geen antwoord waardig.
Het gaat er namelijk niet om *wie* me tegenspreekt, het gaat erom of de gene die me tegenspreekt een goed punt heeft of niet.
En dat is dus niet het geval, zoals ik al zei (en nogmaals, als je het tegendeel wil aantonen, doe dat dan met een specifiek voorbeeld).
Je vind het nietszeggend dat al je posts gericht zijn op het fileren van 1 merk?
Dat is slechts jouw sterk gekleurde en enorm onjuiste interpretatie ervan.
Mantle is tegenwoordig opensource, dat vindt ik al heel wat van een dergelijk bedrijf als AMD.
Gaan we weer, voor de zoveelste keer. NEE! Zie ook: Scalibq in 'nieuws: AMD demonstreert FreeSync-over-hdmi'
En de tientallen andere keren dat ik dat al heb genoemd.
Lees je voortaan eerst eens in voordat je iets roept.
Dit is precies wat ik bedoel: Jij 'spreekt me tegen', maar wat je zegt, klopt voor geen meter.
En tot die tijd zal je dus niet geloofd worden.
Technologie is dan ook geen geloof. Het is wetenschap, gebaseerd op logica en feiten.
Iedereen kan zelf naar die feiten op zoek, en de regels van de logica zijn ook universeel geldig.
Maargoed, dat vereist natuurlijk wel dat je je objectief opstelt, en zelf kritisch denkt, en moeite doet.
Maar Nvidia heeft ook niet alles zoals is aangegeven. Waarom vindt je dit wel een probleem voor AMD, maar niet voor Nvidia?
Zoals ik al zei, het gaat niet om het aantal features, maar om wat die features zijn.
De ene feature is makkelijker toe te voegen aan een bestaande GPU-architectuur dan de andere.
En de ene feature maakt meer nieuwe grafische effecten mogelijk dan de andere.
Ik zie alleen mensen die een lap tekst plaatsen als reply, die niet direct raakt aan wat ik zeg. Dat jij 'een lap tekst' interpreteert als 'die persoon zal wel gelijk hebben', dat is nogal sneu.
Natuurlijk. Iedereen zal het wel niet snappen. Komen we weer terug op 1 van mijn vorige vragen: Waarom zit je dan op Tweakers als wij ondergeschikten je niet begrijpen?
En dat is dus mijn punt: Jij begrijpt niet eens genoeg van de materie om in te kunnen schatten hoe mijn posts en de reacties daarop al dan niet in elkaar grijpen.
Hoe zou jij ze dan interpreteren? Je bent objectief kritisch? Waarom val je dan nooit Nvidia eens af op wat ze doen? Je stelt dat Mantle niet opensource is, maar AMD lijkt op dit vlak al veel opener dan Nvidia, die alles closed source houden. Dat is blijkbaar geen probleem, het is blijkbaar wel een issue wanneer een ander bedrijf daar een andere kijk op heeft.
Maar misschien heb ik het fout... Dat kun je aantonen door inderdaad specifiek een statement van mij eruit te pikken, en vervolgens iets dat het specifiek tegenspreekt (wat ik natuurlijk niet daarna alsnog in een reactie ontkracht heb, omdat die persoon op basis van foute informatie werkte).
Zelfs een Google search haalt genoeg van je naar boven om jouw opinie op zn minst ongeloofwaardig te noemen. Google jezelf maar eens, zul je zien dat je op veel plekken blijkbaar mensen je niet ''snappen''. Het feit dat je jezelf nu al indet door te zeggen ''Maar dat kan ik later ontkracht hebben daar de tegenpartij foute informatie gebruikte''. De tegenpartij ziet het in jouw posts altijd fout en wat jij stelt is altijd correct. Als je dan zo arrogant wilt zijn, dan onderbouw je alles wat je zegt. Je bent immers programmeur en weet er dus iets vanaf. Maar nee, het beste wat je tevoren kan schuiven is ''Ik heb de bronnen wel maar ik mag ze niet vrijgeven, dus je wacht maar''

Als je jezelf nog steeds geloofwaardig kan noemen na het maken van zon absurd statement vind ik dat bijzonder knap te noemen.
Net als bovenstaande opmerking over het modsysteem, raakt het kant noch wal, en is het geen antwoord waardig.
Het gaat er namelijk niet om *wie* me tegenspreekt, het gaat erom of de gene die me tegenspreekt een goed punt heeft of niet.
Herformulatie: Welke persoon heeft wel eens goede punten gemaakt om je tegen te spreken?
Dat is slechts jouw sterk gekleurde en enorm onjuiste interpretatie ervan.
Ik en de willekeurige 10 anderen, blijkbaar. Aangezien je ook vrij weinig moeite doet om je posts te onderbouwen met keynote PDF's of een minder neerbuigende houding aan te nemen (En dat is echt niet alleen maar aan mij voorbehouden) moet het zeker geen verrassing zijn dat je de schijn tegen je hebt. Voor iemand die zijn blog ''Openblog'' noemt is er maar heel weinig ''open'' aan, want at the end of the day, Scali heeft het correct, de rest is ondergeschikt aan jouw opinie. Zonde, want er zijn zoveel devs die en dingen kunnen uitleggen en daarbij niet neerbuigend hoeven te doen naar iedereen die minder van de materie begrijpt dan orakel Scali.
Technologie is dan ook geen geloof. Het is wetenschap, gebaseerd op logica en feiten.
Allemaal dingen die je zelf lijkt te ontbreken, tenzij je een argument als ''maar ik heb de bronnen!'' als valide beschouwt. Is ook een leuke voor in de rechtsgang, ben alleen bang dat je er niet ver mee zult komen.
Maargoed, dat vereist natuurlijk wel dat je je objectief opstelt, en zelf kritisch denkt, en moeite doet.
Er is een verschil tussen kritisch denken en ergens een complot inzien wat je niet kan onderbouwen. Je stelt in de reactie hieronder: ''Waarom ligt AMD op achterstand?'' omdat ze een feature level missen? Nvidia mist dat ook, maar je zegt niet ''Waarom ligt Nvidia op achterstand?'' , want dan zeg je dat het in Nvidia's geval een bepaalde tier niet vereist is. Misschien is dat voor AMD ook het geval?
Zoals ik al zei, het gaat niet om het aantal features, maar om wat die features zijn.
Dat beantwoordt niet mijn vraag. Waarom is het wel een issue als AMD het doet, maar niet als Nvidia het doet?
En ten tweede, waarom is altijd AMD het bokkie bij jou? Mag in een PM hoor :)
Natuurlijk. Iedereen zal het wel niet snappen. Komen we weer terug op 1 van mijn vorige vragen: Waarom zit je dan op Tweakers als wij ondergeschikten je niet begrijpen?
Er zijn genoeg mensen hier op tweakers die mijn posts wel waarderen (je kunt zeiken wat je wilt, maar m'n karmascore is niet slecht, zelfs niet in AMD-topics, waar jij juist claimt dat ik 'AMD afzeik').

Er zijn zelfs mensen waarmee je af en toe een nuttige discussie kunt hebben. Helaas is dat nog steeds uitzondering, en geen regel.
Waarom val je dan nooit Nvidia eens af op wat ze doen?
Als er reden toe is, zoals bv destijds met de GeForce FX.
Maar wat voor reden zou ik op het moment moeten hebben?
Je stelt dat Mantle niet opensource is
Dat stel ik niet, dat is een feit.
Als iets opensource is, dan is per definitie de sourcecode beschikbaar voor iedereen. Dat is bij Mantle niet het geval. Zelfs de SDK is niet openbaar.
maar AMD lijkt op dit vlak al veel opener dan Nvidia, die alles closed source houden.
Wederom, lees je eens in. Ten eerste houdt nVidia zeker niet alles closed source. Zoals bv de Cuda compiler: https://developer.nvidia.com/CUDA-LLVM-Compiler
(oh, en zie je? Dit is al de tweede keer dat jij iets roept *zonder* link ter onderbouwing, waar ik reageer *met* link ter onderbouwing. Ook de tweede keer dat jij het fout hebt, en ik gelijk heb. Maakt je betoog niet echt overtuigender).
Ten tweede, waarom verbind je uberhaupt waarde aan open source? Voor de gemiddelde ontwikkelaar is het totaal niet interessant.
De meeste SDKs die ik gebruik, zijn gewoon closed-source (Windows SDK, DirectX SDK, OpenGL etc).
Het hebben van de source voegt voor het gebruik van de libraries niets toe. En voor consumenten die slechts games willen spelen al HELEMAAL niet.
Open source is een hype, meer niet.
Herformulatie: Welke persoon heeft wel eens goede punten gemaakt om je tegen te spreken?
Nogmaals, je focust op de persoon, en dat is niet relevant.
Wat je zou moeten vragen is: "Zijn er wel eens personen geweest die goede punten hebben gemaakt om je tegen te spreken?"
Aangezien je ook vrij weinig moeite doet om je posts te onderbouwen met keynote PDF's
Incorrect. Ik heb aangeboden om dingen te onderbouwen, als je specifiek aangeeft wat ik moet onderbouwen.
Dat doe je niet, dus kun je mij niet verwijten dat ik niet onderbouw wat jij niet aangeeft.
Voor iemand die zijn blog ''Openblog'' noemt is er maar heel weinig ''open'' aan
Subtiliteiten ontgaan jou kennelijk... Er staat ook een (tm) bij.
Wat op zich wel vreemd is, toch? Iets dat open is, maar wel trademarked. Dit gaat op voor OpenGL trouwens. Die naam mag je niet zomaar voeren.
Maargoed, de naam 'OpenBlog(tm)' is dus een sarcastisch statement, met een kern van waarheid.
Zonde, want er zijn zoveel devs die en dingen kunnen uitleggen en daarbij niet neerbuigend hoeven te doen naar iedereen die minder van de materie begrijpt dan orakel Scali.
Je draait het om. Je roept dit namelijk over jezelf af. Je zit me eerst compleet af te zeiken omdat ik volgens jou anti-AMD ben. En dan *eis* je van mij dat ik dingen aan je uitleg, en dan ook nog eens op een vriendelijke manier.
Zo werkt het niet.
Als je op een normale manier iets aan mij zou willen vragen, dan geef ik daar op een normale, vriendelijke manier antwoord op.

Maar dat doe je niet. Ten eerste stel je bij voorbaat al dat ik het fout heb (zonder enig bewijs), en ten tweede maak je de discussie persoonlijk ipv dat je op de technische aspecten in gaat.
Probeer de fout dus eerst eens bij jezelf te zoeken.
Er is een verschil tussen kritisch denken en ergens een complot inzien wat je niet kan onderbouwen. Je stelt in de reactie hieronder: ''Waarom ligt AMD op achterstand?'' omdat ze een feature level missen? Nvidia mist dat ook, maar je zegt niet ''Waarom ligt Nvidia op achterstand?'' , want dan zeg je dat het in Nvidia's geval een bepaalde tier niet vereist is. Misschien is dat voor AMD ook het geval?
Nee, ik heb duidelijk aangegeven wat de verschillen zijn, en waarom AMD er meer werk aan zal hebben dan nVidia om op gelijke hoogte te komen.
En weer roep je eerst dat ik niets onderbouw. Weer die persoonlijke aanvallen.
Gewoon omdat jij ergens diep van binnen een kronkel heb waardoor je kritiek op AMD niet kunt accepteren.

Het is heel simpel: AMD heeft een achterstand, punt. Meer moet je daar niet achter zoeken. Dat is namelijk het enige dat ik zeg: AMD heeft een achterstand.
De rest is vooral het resultaat van jouw eigen kronkel die alles inkleurt.

[Reactie gewijzigd door Scalibq op 6 juni 2015 11:09]

lol 1 simpele reden om Nvidia af te zeiken: De GTX 970. Je weet wel de video kaart waar Nvidia even "vergat" van te melden dat je FPS keilen als een debiel als je boven de 3.5 GB VRAM uit komt :P. Zeker effe niet opgelet neem ik aan? :P

Oh en mensen hebben vaak genoeg bewijs geleverd dat je het fout had, maar dat negeerde je gewoon. En met links. Maar die waren allemaal niet goed genoeg in jouw mening :P. Helaas is het niks minder dan jouw mening en nog steeds geen feit. En dat je karma score hoog is, is simpel, genoeg Nvidia en Intel Fanboys die je post upvoten lol.

En ja je zeikt AMD af. AMD doet iets? Sqalib meteen posten dat het niet goed is of niet deugt. Echt noem maar EEN ding wat je positief vind over AMD zonder dat er een maar achteraan komt.
Kun je niet. En waarom niet? Omdat je zo bevooroordeeld als de pest bent. Nvidia maakt een blunder? Is meneer ineens heel stil.
Laten we eens kijken bijv naar de nieuwste titan. Oude titans waren GPGPU kaarten. Oftewel afgezwakte tesla's maar die ook goed waren voor gamen. Brengen ze nu een Titan uit (die infeite een GTX 980 Ti is) voor 1000 Euro. En de GPGPU functie totaal generfd op die kaart rofl. Geen piepje te bekennen van meneer op Nvidia en de BS die zij en alle pro-nvidia sites eruit dumpen om die kaart te justifyen. Dus ja. Je hebt alleen commentaar op AMD.

Daarnaast refereer je graag naar je blog alsof dat de meest super relevante thing is atm. Maar als mensen naar links van sites of blogs linken die btw meer bezoek hebben dan jij (zal wel weer zijn omdat mensen jou niet genoeg waarderen of jou niet snappen lol) zijn die niet relevant of objectief of whatever excuus, genoeg.
Weet je hoe dat heet? Grootheidswaanzin :P
En je hebt er bakken van lol.

De enige persoon met een kronkel hier ben jij. Het is heel duidelijk dat ze zo zwaar anti-amd bent dat Nvidia fanboys nog lesjes van je kunnen leren.

Die compiler van Nvidia? lol
Nvidia CUDA Compiler (NVCC) is a proprietary compiler
Kun je overall op internet vinden. Hij is gebaseerd op een opensource compiler lol. Staat er letterlijk in :P
Kan me nog herinneren dat je mekkerde dat AMD niet meteen Open Source maakte maar gedeeltelijk Open. Dus als Nvidia die complier nu eindelijk eens Open heeft gemaakt waarom niet even erbij vermelden dat hij propieraty was voor aaaagggeeessss.
Kijk dat is typisch jij. Nvidia weer alleen de positieve dingen vermelden maar even de negatieve dingen vergeten.

Btw wat grappig is is dit: Vulkan is derived from and built upon components of AMD's Mantle.
je weet wel de nieuwe API? :P Die een nieuwe standaard gaat worden waar je zo tegen bent? lol

Btw direct van PCP-er
http://www.pcper.com/news...-Gets-Another-Endorsement

quote: "AMD indeed was talking with and sharing the development of Mantle with Microsoft "every step of the way" and AMD has stated on several occasions that there were two outcomes with Mantle; it either becomes or inspires a new industry standard in game development. Even if DX12 is more or less a carbon copy of Mantle, forcing NVIDIA to implement that API style with DX12's release, AMD could potentially have the advantage of gaming performance and support between now and Microsoft's DirectX release. That could be as much as a full calendar year from reports we are getting at GDC"

Dus ja Mantle heeft wel degelijk ook DX12 beinvloed ook al beweer je van niet :P

[Reactie gewijzigd door Rhylian op 6 juni 2015 15:23]

lol 1 simpele reden om Nvidia af te zeiken: De GTX 970. Je weet wel de video kaart waar Nvidia even "vergat" van te melden dat je FPS keilen als een debiel als je boven de 3.5 GB VRAM uit komt :P. Zeker effe niet opgelet neem ik aan? :P
Zoals ik al zei: goh, een GTX970 is trager dan een GTX980? Wat een drama!
Je krijgt gewoon precies de performance waar je voor betaald hebt, en die je in reviews overal op het internet hebt kunnen lezen.
Alleen AMD-fanboys willen daar veel meer van maken dan het is.
Oh en mensen hebben vaak genoeg bewijs geleverd dat je het fout had, maar dat negeerde je gewoon.
Zolang je geen specifieke voorbeelden noemt, blijft het goedkoop op de man spelen.
Die compiler van Nvidia? lol
Nvidia CUDA Compiler (NVCC) is a proprietary compiler
Kun je overall op internet vinden. Hij is gebaseerd op een opensource compiler lol. Staat er letterlijk in :P
Ja, er staat ook letterlijk in dat ze de aanpassingen voor Cuda terug hebben gegeven aan LLVM, en dus is het open source.
Staat er ook letterlijk in.
Jij doet dus precies waar je mij (onterecht) van beschuldigt.
Kan me nog herinneren dat je mekkerde dat AMD niet meteen Open Source maakte maar gedeeltelijk Open.
Je snapt echt niet half wat ik zeg.
Ik ben juist tegen open source.
Het is alleen het principe dat AMD iets belooft (iets dat goed ligt bij het publiek, want open source is hype), en vervolgens hun belofte niet nakomt. Daar 'mekkerde' ik over. En dat lijkt me geheel terecht.
nVidia heeft nooit beloofd dat ze de Cuda compiler open source zouden maken. Dus waarom zou ik daar kritiek op hebben?
Dat ze het dan spontaan toch besluiten vrij te geven, is mooi meegenomen.
Btw wat grappig is is dit: Vulkan is derived from and built upon components of AMD's Mantle.
je weet wel de nieuwe API? :P Die een nieuwe standaard gaat worden waar je zo tegen bent? lol
Vulkan is geen Mantle.
Vulkan is OpenGL, en die was er al heel lang. Het is dus geen nieuwe standaard, maar slechts een nieuwe versie van een bestaande standaard. Net als DX12.
Ja, de zoveelste post uit de pijp van AMD.
Maar lees ook eens iets minder gekleurde info:
http://techreport.com/rev...closer-look-at-directx-12
Given the way Microsoft has presented Direct3D 12, it's hard not to draw parallels with AMD's Mantle API. Mantle was introduced last September, and much like D3D12, it provides a lower level of abstraction that lets developers write code closer to the metal. The result, at least in theory, is lower CPU overhead and better overall performance—the same perks Microsoft promises for D3D12.

The question, then, almost asks itself. Did AMD's work on Mantle motivate Microsoft to introduce a lower-level graphics API?

When I spoke to AMD people a few hours after the D3D12 reveal, I got a strong sense that that wasn't the case—and that it was developers, not AMD, who had spearheaded the push for a lower-level graphics API on Windows. Indeed, at the keynote, Microsoft's Development Manager for Graphics, Anuj Gosalia, made no mention of Mantle. He stated that "engineers at Microsoft and GPU manufacturers have been working at this for some time," and he added that D3D12 was "designed closely with game developers."
...
The day after the D3D12 keynote, I got on the phone with Tony Tamasi, Nvidia's Senior VP of Content and Technology. Tamasi painted a rather different picture than Corpus. He told me D3D12 had been in in the works for "more than three years" (longer than Mantle) and that "everyone" had been involved in its development. As he pointed out, people from AMD, Nvidia, Intel, and even Qualcomm stood on stage at the D3D12 reveal keynote.
...
Tamasi went on to note that, since development cycles for new GPUs span "many years," there was "no possible way" Microsoft could have slapped together a new API within six months of Mantle's public debut.

Seen from that angle, it does seem quite far-fetched that Microsoft could have sprung a new graphics API on a major GPU vendor without giving them years to prepare—or, for that matter, requesting their input throughout the development process. AMD is hardly a bit player in the GPU market, and its silicon powers Microsoft's own Xbox One console, which will be one of the platforms supporting D3D12 next year. I'm not sure what Microsoft would stand to gain by keeping AMD out of the loop.

I think it's entirely possible AMD has known about D3D12 from the beginning, that it pushed ahead with Mantle anyhow in order to secure a temporary advantage over the competition, and that it's now seeking to embellish its part in D3D12's creation. It's equally possible AMD was entirely forthright with us, and that Nvidia is simply trying to downplay the extent of its competitor's influence.

[Reactie gewijzigd door Scalibq op 6 juni 2015 17:59]

lol mensen betaalden niet voor een defecte GTX 980 wat de 970 basically is. Dat Nvidia still hield dat de laatste .5 GB VRAM beduidend trager was zegt mensen met een beetje gezond verstand genoeg rofl. Dus nee mensen betaalden niet voor een GTX 970 met 4 GB Vram zoals Nvidia markete, maar een defecte 980 basically met 3.5 PLUS 0.5 GB Vram.

Nogmaals: Mantle's details werden geshared ZODRA ZE BEGONNEN MET HET DEVELOPPEN VAN MANTLE. Dus helemaal NIETS maar dan ook niets te maken met de release date.

hier zijn 2 scenario's

1: Het sqalib scenario: AMD begon met ontwikkelen van mantle (graag die datum en niet de release datum gebruiken aangezien ze al vanaf het begin van ONTWIKKELING de details met MS hebben gedeeld) deelde de info met MS meteen en MS dacht: hey leuk info van AMD over een nieuwe API de ze ontwikkelen. Weet je wat we doen? Gooi maar in de papier bak!

2:Het gezond verstand scenario: AMD begon met ontwikkelen van Mantle, stuurde de info met regelmaat naar MS, en MS had zoiets van "hmm weet je zitten wel een aantal interessant dingen in, kunnen we mooi meenemen in onze ontwikkeling van DX12"

En gaat ie weer, wordt een een neutraal goed gelezen site gelinkt (pcp-er rofl) en ja hoor het is weer zogenaamd allemaal van AMD :P.

En speciefieke voorbeelden? lol man jij weigert constant je eigen beweringen te onderbouwen maar je eist dat wel van anderen? Met 2 maten meten zoals je regelmatig doet :P.
Dus dat "goedkoop op de man spelen"?
Lol look who's talking ;)

En Vulkan of je het leuk vind of niet, heeft stukken van Mantle overgenomen en gecombineerd met OpenGL. FEIT.

Dus ondanks dat mantle gestopt is: was het a: geen propieraty, het was een open standard, die is meegenomen in de ontwikkeling van TWEE andere API's. Vulkan en DX12.

Dus leuk dat jouw gelinkt artikel het heeft over dat DX 12 niet binnen zes maanden gedevelopped is VANAF de release date van Mantle , maar dat is effe niet relevant want AMD deelde mantle al met MS vanaf de STARTDATUM VAN HUN DEVELOPMENT van Mantle.

Hemels breed verschil :P Dus jouw bron zou iedereen met gezond verstand met een korreltje zout nemen als ze een beetje nadenken :P

En nog steeds: kom maar eens met een 1 positief voorbeeld over AMD zonder dat je er een maar aan vast plakt.
Bewijs je zogenaamde onpartijdigheid maar lol.
lol mensen betaalden niet voor een defecte GTX 980 wat de 970 basically is.
De technische term is 'harvesting', of 'binning', een techniek die al sinds jaar en dag wordt toegepast door nVidia, AMD, Intel en vele andere chipfabrikanten.

De rest is niet eens een antwoord waardig, want is al weerlegd door de site die ik eerder aanhaalde.
Daar staat bv letterlijk in dat MS al jaren met GPU-fabrikanten en game developers overlegde.
Dat is dus die info die AMD 'geleend' heeft om Mantle te ontwerpen.

Er zit overigens een harde limiet op wanneer AMD begonnen kon zijn met Mantle, omdat ze alleen GCN-hardware ondersteunen. Kan dus niet eerder zijn geweest dan GCN-hardware.
DX12 kan daarentegen teruggrijpen tot Fermi.

[Reactie gewijzigd door Scalibq op 6 juni 2015 18:42]

lol tuurlijk hoor. Jouw link is weer de waarheid (die mekkert over release date) vs een link die meldt dat AMD al vanaf het development begin details deelde.

Alleen een idioot zou informatie van een conculega volledig negeren als ze die aangeleverd krijgen terwijl ze zelf een nieuwe API (gaan) ontwikkelen rofl.

Man man hoe triest ben je ...

En binning en harvesting zijn twee volledig andere dingen dan wat Nvidia deed. Bij dat process worden wel dingen gedisabled die defect zijn en dan wat er overblijft is iets wat verder helemaal volgens specificaties werkt. die 0,5GB Vram werkte compleet NIET zoals de eerste specificaties van Nvidia meldden.

Bij binning van bijv een processor als een core defect is gaan ze hem ook niet verkopen als ie wel nog op een gigantisch lagere frequentie kan draaien. Wordt ie volledig gedisabled. Hier is de .5 niet gedisabled en werdt verkocht alsof de 4GB op de kaart volledig de zelfde snelheid heeft. Wat dus NIET zo is.

En backwards compatibility van een driver heeft geen ruk te maken met het hele verhaal. Fermi kaarten ondersteunen DX12 ook niet volledig. Dus leuk dat je dat erbij haalt, echter niet relevant voor wanneer Matnle met developpen is begonnen of wanneer DX12 is begonnen.

Feit: MAntle was al in Beta toen DX12 nog in Alpha was. Dat zegt normale mensen met gezond verstand genoeg. NML dat MS makkelijk nog dingen kon veranderen als AMD hun info rond die tijd aanleverde WAT AMD DUS AL DEED VANAF DE START VAN HUN ALFA-FASE.

Dus jouw hele "is geen antwoord waardig"blah blah is weer jouw typische arrogantie waarbij jij denkt altijd gelijk te hebben ook als het tegendeel pretty much obvious is.

En aangezien je nog steeds leuk mijn vraag ontwijkt e het wel dus duidelijk is dat je daar ook gewoonweg geen antwoord op hebt: we kunnen hierbij dus duidelijk aannemen dat je complete een Nvidia/Intel Fanboy bent en je mening dus wel met een pak zout genomen mag worden lol

Btw hoe kritiek van normale mensen werkt: "Dit is goed, dit mag wel blijven, dit vind ik minder, dit is niks"

Hoe jij "kritiek" levert op AMD: "slecht!! vreselijk!!! wil ik niet!! Nvidia/Intel is beter!!!" - da's geen kritiek da's afbranden. Leer het verschil

[Reactie gewijzigd door Rhylian op 6 juni 2015 19:04]

lol tuurlijk hoor. Jouw link is weer de waarheid (die mekkert over release date) vs een link die meldt dat AMD al vanaf het development begin details deelde.
Mijn link geeft statements van mensen van Microsoft en nVidia.
Jouw link geeft statements van AMD.
AMD's versie is dat "AMD development details deelde", waar de werkelijkheid meer was: "AMD zat ook in het DX12-traject met MS, nVidia, Intel, nog wat anderen en een stel game developers".
De versie van AMD is dus nogal suggestief.
En backwards compatibility van een driver heeft geen ruk te maken met het hele verhaal.
Natuurlijk wel. Als jij een low-level API gaat ontwikkelen rond een bepaalde groep hardware, dan neem je een bepaalde minimum-spec waarop de API gaat werken.
Bij DX12 is dat Fermi, en bij Mantle is dat GCN 1.0.
De minimum-spec hardware van Mantle is dus hoger/nieuwer dan die van DX12.
Feit: MAntle was al in Beta toen DX12 nog in Alpha was.
Feit: de 'beta'-fase van Mantle is een compleet arbitraire status die AMD er zelf aan kan plakken hoe ze willen.
Microsoft heeft met DX12 wel wat meer verantwoordelijkheden, en hun 'beta' moet ook *echt* een beta-fase zijn. Ze kunnen dan dus niet meer afwijken van driver-model specs etc, omdat GPU-vendors drivers ervoor moeten kunnen ontwikkelen, en die moeten in de preview-versies van Windows 10 gaan werken.
Bij AMD zit alles in de driver, dus het maakt allemaal niet uit, zolang BF4 maar werkt (en zelfs dat viel tegen).
Maar mensen met gezond verstand hadden dat allang begrepen.

Mantle is nog steeds beta, en zal zelfs na de release van DX12 straks met Win10 nog steeds beta zijn.

[Reactie gewijzigd door Scalibq op 6 juni 2015 20:30]

Lol ... echt niet te geloven ...
Alsjeblieft: http://www.extremetech.co...e-and-destroy-amds-mantle

Maar laat me raden: ondanks dat er staat dat ze met verschillende partijen hebben gepraat is dit natuurlijk weer een amd-praat link.
De versie van AMD was helemaal niet suggestief. AMD heeft simpel weg vanaf dag 1 de details van Mantle gedeeld met MS. FEIT. LEER ER MAAR MEE. Je weigerd gewoon toe te geven dat je eigen source gewoon krom is aangezien die doet alsof AMD pas details deelde toen Mantle klaar was wat dus niet zo is.

Nog een feit: Heeft op het moment iemand een volledig DX12 compatible kaart? NEE.
Wie val je er op aan? AMD.

http://wccftech.com/mantl...rectx-12-amd-white-paper/
https://pbs.twimg.com/media/CBBu9COWwAAPzZB.jpg:large
Lol ... echt niet te geloven ...
Alsjeblieft: http://www.extremetech.co...e-and-destroy-amds-mantle
Wat wil je hiermee zeggen?
De titel is suggestief. In het artikel staat alleen dat Microsoft ook bezig is met een low-level graphics API.
Helemaal niet dat het doel is om Mantle te imiteren. Microsoft heeft heel Mantle nooit genoemd.
AMD heeft simpel weg vanaf dag 1 de details van Mantle gedeeld met MS. FEIT. LEER ER MAAR MEE. Je weigerd gewoon toe te geven dat je eigen source gewoon krom is aangezien die doet alsof AMD pas details deelde toen Mantle klaar was wat dus niet zo is.
Feit is dat AMD net als de andere partners in het DX12-project met game developers aan een low-level API hebben gewerkt.
In die zin heeft AMD 'de details van Mantle' met Microsoft gedeeld.
Alleen waren 'de details van Mantle' eigenlijk 'de details van DX12'.
Wie val je er op aan? AMD.
AMD mist twee features in hun rasterizer.
nVidia alleen een feature in de memory addressing.
Er is nogal een verschil tussen die twee.
De een is vrij triviaal, de andere twee vereisen compleet nieuwe algoritmen in bepaalde delen van de GPU, waarbij het correctheidsbewijs niet triviaal is.

[Reactie gewijzigd door Scalibq op 6 juni 2015 20:45]

Waar denk je dat de term closer to the metal vandaan komt die MS gebruikte bij hun DX 12 presentatie ... oh ja Mantle en AMD ...
Meer dan genoeg comments van MS overal die zelf Mantle aanhalen. Zoals dat ze net als Mantle closer to the metal gaan.
En dat is is al maar 1 heel simpel vreselijk vlug voorbeeldje van hoe MS wel degelijk Mantle refereert terwijl jij beweerd van niet.

En nee Mantle was al in alfa toen DX 12 nog niet begonnen was. Dus details van Mantle zijn geshared met DX 12 niet andersom.

Daarnaast even hard in wrijven: ALLEEN DE 9XX SERIE die NIEUWER is dan de R9 2XX serie ondersteund iets meer dan de 2XX serie. De oudere 7XX en ouder ondersteunen zelfs nog minder dan de AMD kaarten. FEIT.
Hoe relevant is het dan op het moment geen enkele video kaart DX 12 niet volledig ondersteund: NIET.
En waarom? Nog geen ENKEL STUKJE SOFTWARE heeft DX 12 nodig.
Wanneer is het relevant? Als het eerste programma dat VOLLEDIG GEBRUIKT MAAKT VAN DX 12 bestaat.
Als dan of Nvidia of AMD nog geen kaart heeft die volledig compatible is met DX12 mag je mekkeren.

Feit: op het moment heeft geen van beide een kaart die DX 12 volledig ondersteund.
Feit: De GTX 9XX serie ondersteund meer dan de R9 2XX serie omdat die nieuwer is. Maar de R9 2XX serie maakt weer meer gebruik van DX dan de 7XX serie omdat? OH JA OMDAT IE NIEUWER IS DAN DIE KAART.
(goh zie een patroon hier ....)
Dan neem ik aan dat het straks ook niet uitmaakt dat alle DX12-software geoptimaliseerd is voor nVidia-GPUs, omdat er simpelweg niets anders was tijdens development.
Koffiedik kijken. Je hebt geen idee of de volgende generatie AMD kaarten het wel volledig ondersteund of niet.

Btw als AMD in het DX12 devteam zit (wat zo is) vind ik het knap dat er helemaal geen AMD hardware is :P

[Reactie gewijzigd door Rhylian op 6 juni 2015 21:38]

Koffiedik kijken. Je hebt geen idee of de volgende generatie AMD kaarten het wel volledig ondersteund of niet.
Geruchten gaan van niet, op 16 juni weten we het zeker.
Btw als AMD in het DX12 devteam zit (wat zo is) vind ik het knap dat er helemaal geen AMD hardware is :P
Tot begin dit jaar waren er ook helemaal geen AMD-drivers...
Bij nVidia kun je al tijden op Maxwell developen, met goede support voor alle features.
Er zijn dus al engines die volledig geport zijn naar DX12, waaronder Unreal Engine 4.

[Reactie gewijzigd door Scalibq op 6 juni 2015 21:42]

Of je bent gewoon niet belangerijk genoeg om de kaarten van AMD te mogen testen omdat die waarschijnlijk ook de nieuwe R9 390X bevatten :P

Dus ik wacht lekker tot de nieuwe R9 390 X uit is voor IK een oordeel maak :P
Slalibq: je geeft zelf al aan , met de link die jij waardig acht, dat AMD niet heeft gezegt dat ze zelf de drijvende factor waren met Mantle voor DX12, maar "developers". Juist, heel eerlijk dus van AMD! Want diezelfde (of andere) developers waren de drijvende kracht dat AMD met Mantle aan de slag ging.

DX12 liet echter nogal lang op zich wachten, Mantle kwam een stuk eerder en ja, alles wat ze in de tussentijd gedeeld hebben met Ms kan Ms inderdaad gebruikt hebben in hun DX12 ontwikkeling. Je hoort mij niet zeggen dat dat ook gebeurd is, maar het is heel goed mogelijk geweest. Of Mantle DX12 versneld heeft is koffiedik kijken; daar zal je nooit een vinger achter kunnen krijgen.

Dan nog even dit:
Geef mij 1 voorbeeld waar iemand succesvol iets weet te weerleggen dat ik heb gezegd. Ik heb het niet gezien in ieder geval.
Heb ik al gedaan, je uitspraak dat "AMD heeft gezegt dat DX12 er nooit zal komen". 100% weerlegt! (en geen reactie meer van jouw kant)
Of Mantle DX12 versneld heeft is koffiedik kijken; daar zal je nooit een vinger achter kunnen krijgen.
Het lijkt mij toch zeer onwaarschijnlijk dat DX12 is versneld, want DX12 wordt gewoon met Windows 10 gelanceerd.
Dat is dus business as usual, een update van DX12 lanceren met een nieuwe versie van Windows, zoals dus DX10 met Vista en DX11 met Windows 7.

Of wou je beweren dat ze heel Windows 10 naar voren hebben geschoven?
Heb ik al gedaan, je uitspraak dat "AMD heeft gezegt dat DX12 er nooit zal komen". 100% weerlegt! (en geen reactie meer van jouw kant)
Dat ik niet meer reageer, betekent nog niet dat je gelijk hebt.
Het betekent gewoon dat ik niet voor de zoveelste keer de bron aan wil halen, die onomstotelijk bewijst dat AMD dat gezegd heeft:
http://www.heise.de/newst...tX-12-kommen-1835338.html

Hier staat het ook nogmaals genoemd: http://www.extremetech.co...e-and-destroy-amds-mantle
In fact, as some of you may recall, an AMD executive publicly stated a year ago that there was no “DirectX 12″ on the Microsoft roadmap. Microsoft responded to those comments by affirming that it remained committed to evolving the DirectX standard — and then said nothing more on the topic.
Staat dus ook bij dat Microsoft daarop heeft gereageerd, en het statement van AMD heeft ontkracht, al is daar geen bron meer van te vinden.
Ehmm, da tis precies de link die ik al gebruikte:
Ein neues DirectX hat die Branche immer wieder neu aufgefrischt, neue Grafikkarten brauchten stšrkere Prozessoren und mehr RAM. Aber es wird kein DirectX 12 kommen. Das war's. Soweit wir wissen gibt es keine Plšne fŁr DirectX 12. Falls das nicht stimmen sollte und mich jemand korrigieren mŲchte – wunderbar.
Dat zei hij 04.04.2013 , en klopte gewoon. Wij wisten toen idd niet of er plannen waren voor DX12. In die context moet je de uitspraak zien.

Gewoon een regel eruit trekken geeft een vertekend beeld:
"Aber es wird kein DirectX 12 kommen". Als je alleen dat aanhaalt, doe je mee aan verkleuring en mis informatie genereren.
Dat zei hij 04.04.2013 , en klopte gewoon. Wij wisten toen idd niet of er plannen waren voor DX12. In die context moet je de uitspraak zien.
Dat klopt dus niet (sowieso is het niet 'wij', behalve als jij ook voor AMD werkt... dit is wel een VP bij AMD, dus die heeft nogal wat inside-information die wij niet hebben).
Zie hier: http://techreport.com/rev...closer-look-at-directx-12
The day after the D3D12 keynote, I got on the phone with Tony Tamasi, Nvidia's Senior VP of Content and Technology. Tamasi painted a rather different picture than Corpus. He told me D3D12 had been in in the works for "more than three years" (longer than Mantle) and that "everyone" had been involved in its development.
Lees ook eens terug wat AMD zei ten tijde van DX11 (nota bene die zelfde Richard Huddy, die nu hele andere dingen roept over DX11, DX12 en Mantle):
https://web.archive.org/w...excited-about-directx-11/
Microsoft, and those of us in the graphics business, have been openly talking about DirectX 11 for around a year now – in fact, to be honest we’ve been talking about it since even before Windows Vista shipped at the very end of 2006! It takes a long time to put together a new version of DirectX and there are often tough decisions about what to leave out while finalizing any one version.
Dus bij DX11 duurde het nog wel jaren om een nieuwe versie van DirectX te ontwikkelen, en bij DX12 weten ze een paar maanden van tevoren zogenaamd ineens van niks?

Echt, ik weet dat je gigantisch AMD-biased bent... Maar *ergens* moet je toch nog een beetje kunnen nadenken, en moet er toch een beetje gezond verstand aanwezig zijn, dat beseft dat er ergens iets niet helemaal kan kloppen hier?

Sowieso wel grappig...
DirectX has been sliced and diced and the internals redesigned to ensure that it is much more efficient at using the horsepower present in multiple CPU cores.
Ja, toen DX11 uitkwam wel... totdat bleek dat AMD de drivers er niet voor kon bouwen...
Verder vertellen ze ons ook nog even hoe mooi tessellation is... totdat nVidia er beter in werd dan AMD natuurlijk. Nu is tessellation onzinnig, en moet je het maar laag of uit zetten in de drivers.
Maar nee, laten we alles dat AMD ons vertelt vooral NIET met een flinke korrel zout nemen... Ze zijn in het verleden zo betrouwbaar geweest!

[Reactie gewijzigd door Scalibq op 8 juni 2015 00:25]

Typisch, je kent me amper en typeert me nu al als amd biased :+
Dat is de enige verklaring waarom jij en zovele andere reageerders hier het woord van AMD zonder enige kritische gedachten als waar aannemen, ondanks alle aanwijzingen dat het niet klopt, zelfs de woorden van AMD zelf een aantal jaren geleden.
Je zit zelfs actief te verdedigen dat AMD roept dat er geen DX12 gaat komen, met vergezochte redenen.
De AMD-bias is duidelijk hoor.

[Reactie gewijzigd door Scalibq op 8 juni 2015 09:16]

Als dat waar is, telt dat andersom 10X zo veel , beste Scalib:
100% Nvidia, nietwaar }:O
Nee, 100% Amiga, 100% PowerVR, 100% IBM CGA.

Maar op zich fijn dat je totaal de logica in mijn post negeert, en alles meteen weer terug naar mij kaatst.
Je denkt gewoon niet na.
Wat je zegt is:
Omdat *ik* nog niet van DX12 had gehoord, kon *niemand* van DX12 gehoord hebben.
Dat is natuurlijk onzin. Het ontwikkelen van dingen als Windows, DX etc gebeurt voor een groot deel achter gesloten deuren. Jij als buitenstaander bent natuurlijk niet de eerste die ervan hoort, maar wel de laatste.
Mensen bij AMD horen er natuurlijk wel direct van, want MS ontwikkelt DX altijd in samenwerking met GPU-fabrikanten en game developers (zoals aangetoond, ten tijde van DX11 vertelde AMD dat verhaal ook gewoon eerlijk op hun site).

Dan kun je wel gaan huilen van "Ja maar jij zus, en nVidia zo"... maar dat is natuurlijk kinderachtige onzin. Denk alsjeblieft eens kritisch na. Of is dat teveel gevraagd?

[Reactie gewijzigd door Scalibq op 8 juni 2015 10:43]

Er zijn genoeg mensen hier op tweakers die mijn posts wel waarderen (je kunt zeiken wat je wilt, maar m'n karmascore is niet slecht, zelfs niet in AMD-topics, waar jij juist claimt dat ik 'AMD afzeik').
Als +3 modscores niet relevant zijn volgens jou, dan mag ik stellen dat de hoeveelheid karmapunten ook niet relevant is.
Als er reden toe is, zoals bv destijds met de GeForce FX.
Het is dus 12 jaar geleden dat je voor het laatst kritisch op Nvidia was. In de tussentijd is er niets, maar ook niets gebeurt wat gegronde kritiek zou mogen ontvangen?
Maar wat voor reden zou ik op het moment moeten hebben?
Aangezien je het gewoon negeert, de verdraaide waarheid omtrent de Tegra X1 met diens claim dat ze 1 tflops leveren. Op FP16 ja, niet op FP32 waar iedereen het eigenlijk mee meet. Het is zo onzinnig om dergelijke details te verhullen daar het een fantastische SOC is.

Nog een voorbeeldje - Nvidia die onduidelijk communiceert over de GTX 970 en diens RAM probleem. Hadden ze immers niet gelijk kunnen stellen dat het 3.5 GB snel geheugen is en 0.5 langzamer geheugen, ipv de kaart verkopen als 4 GB snel? Ook daar hoor ik geen negatieve weerklank van je, want blijkbaar zijn dergelijke halve waarheden gewoon geoorloofd als het om Nvidia gaat.
(oh, en zie je? Dit is al de tweede keer dat jij iets roept *zonder* link ter onderbouwing, waar ik reageer *met* link ter onderbouwing. Ook de tweede keer dat jij het fout hebt, en ik gelijk heb. Maakt je betoog niet echt overtuigender).
Je kan zelf niet bewijzen dat je in het DX12 Early access program zit, dus nu zelf links gebruiken maakt je niet ineens automagisch geloofwaardiger, integendeel.
Ten tweede, waarom verbind je uberhaupt waarde aan open source? Voor de gemiddelde ontwikkelaar is het totaal niet interessant.
Is open-source ook al een schandvlek in de industrie? Als ik zie hoeveel leuke projecten er ontstaan zijn uit open-source, zoals de verscheidende Doom ports, het werk van Ken Silverman, etc... lijkt het mij eerder een verrijking dan een vloek. Zelfs UE4 heeft tegenwoordig zijn source code klaarstaan om geforkt te worden. Dat is zeker ook een foute ontwikkeling?
Open source is een hype, meer niet.
Daarom is Linux ook wat het vandaag is. Dankzij een hype die al 14 jaar lang blijkbaar aan de gang is (Als we de eerste release van Linux meetellen). Daarom staat het op allerlei mobieltjes en wordt het in servers gebruikt, omdat het open-source is.
Wat je zou moeten vragen is: "Zijn er wel eens personen geweest die goede punten hebben gemaakt om je tegen te spreken?"
Zijn er wel eens personen geweest die goede punten hebben gemaakt om je tegen te spreken?
Als je op een normale manier iets aan mij zou willen vragen, dan geef ik daar op een normale, vriendelijke manier antwoord op.
Sure. Je stelt het allemaal beter te weten, maar je bent op zoveel forums en websites geband dat er echt wel wat meer aan de hand is dan dat klaarblijkelijk niemand je begrijpt of dat jij zo ''objectief'' bent.
Nee, ik heb duidelijk aangegeven wat de verschillen zijn, en waarom AMD er meer werk aan zal hebben dan nVidia om op gelijke hoogte te komen.
Zowel AMD als Nvidia hebben beide geen GPU die alles van DX12 ondersteunt. Toch zeg je ''AMD heeft er meer werk aan'' terwijl Nvidia er net zoveel werk aan heeft.
Gewoon omdat jij ergens diep van binnen een kronkel heb waardoor je kritiek op AMD niet kunt accepteren.
Nee hoor. Ik vind dat de drivers van AMD nogal ondermaats presteren. Daar staat wel tegenover dat AMD lange tijd een prima prijs/prestatie verhouding heeft/had. Over Nvidia heb ik ook al het nodige lovende gezegd. In de praktijk hebben beide kampen hun eigen plus en minpunten. Waarom jij het ene erger vindt dan het ander, geen idee, maar dat is mijn probleem niet :)
Het is heel simpel: AMD heeft een achterstand, punt. Meer moet je daar niet achter zoeken. Dat is namelijk het enige dat ik zeg: AMD heeft een achterstand.
Nvidia ook. Beide hebben geen volledige DX12 GPU. Nvidia verkondigt ook leugentjes om bestwil wat totaal niet nodig is. Voorbeelden daarvan zijn al gegeven. De rest is vooral het resultaat van jouw eigen kronkel die alles inkleurt.
Als +3 modscores niet relevant zijn volgens jou, dan mag ik stellen dat de hoeveelheid karmapunten ook niet relevant is.
Wow, de drogredenen houden bij jou nooit op he?
De score die moderators aan een post geven, reflecteren hoeveel waarde zij aan die post hechten. Goede moderaties -> goede karmascore -> mensen waarderen je posts, gemiddeld gezien.

Maar jij wilde een waarheidswaarde koppelen aan de modscore. En dat is dus NIET zo.
Een post die +3 scoort, wordt gewaardeerd door de lezers, maar dat zegt niets over hoe waar of onwaar de informatie in die post is.
Het is dus 12 jaar geleden dat je voor het laatst kritisch op Nvidia was. In de tussentijd is er niets, maar ook niets gebeurt wat gegronde kritiek zou mogen ontvangen?
Dat zeg ik niet, maar dit was het eerste voorbeeld dat me te binnen schoot.
Nog een voorbeeldje - Nvidia die onduidelijk communiceert over de GTX 970 en diens RAM probleem.
Daar heb ik alles al over gezegd, en ben ik al lang klaar mee. Lees m'n oude posts maar als je zo graag wil weten hoe ik daarover denk. Ik blijf niet aan de gang.
Je kan zelf niet bewijzen dat je in het DX12 Early access program zit
Dat kan ik wel, zoals ik al zei: ik kan aan iedere andere DX12-member een PM sturen.
Zoek jij dus maar iemand van wie je wel gelooft dat ie in het DX12-programma zit, dan stuur ik die een PM.
Zoals ik al zei, waarom zou ik erom liegen?
terwijl Nvidia er net zoveel werk aan heeft.
Nee, waarom doe ik eigenlijk nog moeite?
Ik heb dat al meermalen uitgelegd... De ene feature is veel makkelijker te implementeren dan de andere.
Maar blijkbaar heeft het geen nut om met jou in discussie te gaan. Je blijft eindeloos dezelfde AMD-fanboy-prietpraat herhalen, ongeacht hoeveel technische info je tegenspreekt.
Je begrijpt niets van technologie, en het interesseert je ook niet. Je wil alleen maar horen dat AMD de beste is.
Nvidia ook. Beide hebben geen volledige DX12 GPU. Nvidia verkondigt ook leugentjes om bestwil wat totaal niet nodig is.
nVidia heeft helemaal nergens iets geroepen over 'volledige DX12-GPU'.
Ik ook niet trouwens. Alleen dat nVidia de enige is met DX12_1/DX11.3-support.
Dat zeg ik niet, maar dit was het eerste voorbeeld dat me te binnen schoot.
Antwoord de gegeven vraag eens.
Daar heb ik alles al over gezegd, en ben ik al lang klaar mee. Lees m'n oude posts maar als je zo graag wil weten hoe ik daarover denk. Ik blijf niet aan de gang.
Blijkbaar is het geen probleem als Nvidia bewust onduidelijk is met deze dingen. Noted.
Dat kan ik wel, zoals ik al zei: ik kan aan iedere andere DX12-member een PM sturen.
Nou, doe dat dan. Of is het dan ''Nee, kan niet, want NDA. Wacht maar.''?
Ik heb dat al meermalen uitgelegd... De ene feature is veel makkelijker te implementeren dan de andere.
Maar beiden hebben geen GPU die alles ondersteunt. Dat is mijn punt.
Maar blijkbaar heeft het geen nut om met jou in discussie te gaan. Je blijft eindeloos dezelfde AMD-fanboy-prietpraat herhalen, ongeacht hoeveel technische info je tegenspreekt.
Je leest blijkbaar erover heen dat ik in mijn vorige post zowel kritiek heb gegeven op 1 van AMD's aspecten alsmede 1 van Nvidia's aspecten heb gewaardeerd. Mag je nog een keer bekijken hoor, dan zie je vanzelf dat het stickertje niet bij mij past :)
Je begrijpt niets van technologie, en het interesseert je ook niet.
De hyperbool wordt nu wel erg sterk hier. Een beetje een loze uitspraak als je het mij vraagt.
Je wil alleen maar horen dat AMD de beste is.
Nee hoor, lees mijn vorige post nog eens na, en probeer dan niet de gedeeltes selectief uit je hoofd te filteren waarin ik gewoon kritiek geef op AMD.
Antwoord de gegeven vraag eens.
Denk je dat ik alles bijhoud?
Volgens mij is dit wel de laatste keer dat ik over problemen met nVidia blogde: https://scalibq.wordpress...on-geforce-400500-series/
Blijkbaar is het geen probleem als Nvidia bewust onduidelijk is met deze dingen. Noted.
Dat is niet wat ik erover gezegd heb.
Nou, doe dat dan.
Ja, aan wie dan? Het moet wel iemand zijn die jij ook kent en vertrouwt. Daarom vraag ik je al een aantal keren om mij de username te geven van de persoon die ik een PM moet sturen.
Maar beiden hebben geen GPU die alles ondersteunt. Dat is mijn punt.
En dus? Ik heb nooit iets anders beweerd, dus ik snap niet waar je je druk om maakt.
De hyperbool wordt nu wel erg sterk hier. Een beetje een loze uitspraak als je het mij vraagt.
Conclusie die ik trek uit jouw posts. Het technische niveau van de discussie is vrijwel 0. Je speelt vrijwel alleen maar op de man, en gaat niet in op technische argumenten.
Sterker nog, je negeert een hoop technische argumenten, en herhaalt punten die al eerder weerlegd zijn nogmaals.
Een teken dat je blijkbaar de technische argumenten niet hebt begrepen, of uberhaupt hebt genegeerd.
Denk je dat ik alles bijhoud?
Gezien je blog wel alles over AMD, dus ja.
Volgens mij is dit wel de laatste keer dat ik over problemen met nVidia blogde: https://scalibq.wordpress...on-geforce-400500-series/
Dat is 2 jaar geleden. Hoeveel posts over AMD heb je in die tussentijd geplaatst? Ik wil het wel voor je tellen hoor, vanaf dat punt :)
Dat is niet wat ik erover gezegd heb.
Je negeert de gegeven kritiek op Nvidia, over de Tegra X1 nu al 2 keer tot dusverre. Waarom?
Ja, aan wie dan? Het moet wel iemand zijn die jij ook kent en vertrouwt. Daarom vraag ik je al een aantal keren om mij de username te geven van de persoon die ik een PM moet sturen.
Plaats gewoon een screenshot in een DM naar mij toe, klaar.
Conclusie die ik trek uit jouw posts. Het technische niveau van de discussie is vrijwel 0. Je speelt vrijwel alleen maar op de man
Uiteraard doe jij dit niet met andere gebruikers over deze discussie.
en gaat niet in op technische argumenten.
Je weerlegt ze zelf ook niet. Ik maak een argument over de Tegra X1 - wordt genegeerd. Heb ik het over het geheugengebruik over GTX 970 - ''Ja lees mijn andere posts maar''. Als het ook maar enigzins naar kritiek naar Nvidia neigt negeer je het alsof het er niet is.

Ik wil overigens wel googelen hoor waar je eigen gedrag toe leidt op andere forums - Want zoals ik al zei, dat er echt wel wat meer aan de hand is dan dat klaarblijkelijk niemand je begrijpt of dat jij zo ''objectief'' bent dat je overal geband wordt, dat is een redelijk vaststaand feit te noemen. Dat kan je negeren, maar het zegt veel.
Dat is 2 jaar geleden. Hoeveel posts over AMD heb je in die tussentijd geplaatst? Ik wil het wel voor je tellen hoor, vanaf dat punt :)
Ga je gang. Ik heb de afgelopen jaren sowieso weinig geblogd, behalve dan retro-coding dingen.
Je negeert de gegeven kritiek op Nvidia, over de Tegra X1 nu al 2 keer tot dusverre. Waarom?
Ik heb me daar niet in verdiept, en heb ook geen zin om me daar in te verdiepen.
Plaats gewoon een screenshot in een DM naar mij toe, klaar.
Nee, want als dat screenshot 'toevallig' in de verkeerde handen komt, ben ik verantwoordelijk. Je denkt toch niet dat je met jouw gedrag tot dusverre mijn vertrouwen hebt gewonnen?
Uiteraard doe jij dit niet met andere gebruikers over deze discussie.
Ik heb zeker wel geprobeerd technische input te leveren voor de discussie, maar het was tevergeefs.
Als het ook maar enigzins naar kritiek naar Nvidia neigt negeer je het alsof het er niet is.
Nee, maar jij gaat van alles erbij halen, om maar verder te kunnen gaan met je (af)zeik-verhaal. Ik heb daar geen interesse in.
Mijn reacties op andere nieuwsitems kun je vinden in... andere nieuwsitems.
Ik heb me daar niet in verdiept, en heb ook geen zin om me daar in te verdiepen.
Uiteraard niet, want het gaat over Nvidia. Als AMD een dergelijke SOC had gemaakt en een dergelijke leugen had verspreid zou je er geheid bij de kippen bij zijn geweest om dat eindeloos te gebruiken in je monologen over wat voor een vreselijke organisatie AMD is. Wees daar gewoon eerlijk in, dat zou je hebben gedaan.
Nee, want als dat screenshot 'toevallig' in de verkeerde handen komt, ben ik verantwoordelijk.
Je blijft dus excuses verzinnen om het maar vooral niet te doen. Eerst was het ''Ik kan het bewijzen hoor, maar er zit een NDA op. Je wacht maar.'' nu is het ''Kan niet, want wat als het in de verkeerde handen terechtkomt?''. Volgende keer gewoon geen dergelijke claims maken als je alleen maar om de hete brij gaat draaien.
Je denkt toch niet dat je met jouw gedrag tot dusverre mijn vertrouwen hebt gewonnen?
Wat zou wel vertrouwen opleveren denk je?
Ik heb zeker wel geprobeerd technische input te leveren voor de discussie, maar het was tevergeefs.
Zou dat komen omdat niemand zo bekend is met de DX12 materie dan jij?
Nee, maar jij gaat van alles erbij halen, om maar verder te kunnen gaan met je (af)zeik-verhaal. Ik heb daar geen interesse in.
Ja, het ligt altijd aan een ander. Iedereen is fout behalve Scali. Nogmaals, je bent op meerdere plekken verbannen vanwege je gedrag en gek genoeg weerleg je dat totaal niet. Want dat het een andere reden heeft dan dat jij een objectieve, onafhankelijke bron bent, dat spreekt voor zich. Jammer genoeg heb je dat zelf nog steeds niet door en blijf je erbij dat al die andere plekken het allemaal fout hebben. Weet je wie dit ook doet? Misterxmedia. Stuur hem eens een berichtje op zijn blog, je zal het vast met hem kunnen vinden ;) Tot een volgende discussie! :)
Uiteraard niet, want het gaat over Nvidia.
Nee, het gaat over mobiele SoCs, daar hou ik me niet zo veel mee bezig, en ik heb niet de tijd en interesse gehad om iets over de Tegra X1 te lezen.
Ik had voordat jij begon over dat gedoe met FP16 er nog nooit van gehoord. Ik heb daar dus geen mening over, want ik heb me er niet in verdiept.
Je blijft dus excuses verzinnen om het maar vooral niet te doen.
Ten eerste heb ik geen excuses nodig om mijn NDA niet te willen breken. Dat je het uberhaupt durft te vragen is al te gek voor woorden.
Ten tweede heb ik al vaak genoeg gezegd wat je moet doen: zoek iemand die ik een PM kan sturen. Dat kan ik doen zonder de NDA te breken.
Maar jij komt niet met een naam, dus *jij* draait om de hete brij heen hier.
Wat zou wel vertrouwen opleveren denk je?
Ik denk dat we dat station al een tijd geleden zijn gepasseerd.
Zou dat komen omdat niemand zo bekend is met de DX12 materie dan jij?
Eerder dat men andere doelstellingen heeft.
Het laat zich ook makkelijk raden wat jouw doelstelling is, en die is niet erg technisch van aard. Toch blijf je posten.
Nogmaals, je bent op meerdere plekken verbannen vanwege je gedrag en gek genoeg weerleg je dat totaal niet.
Waarom zou ik dat weerleggen? Het is toch zo? (tenminste, 'vanwege je gedrag' is jouw eigen toevoeging).
De vraag is meer waarom jij dit soort dingen in de discussie wil gooien.
Je weet zelf niet wat er gebeurd is op die fora. Je kunt dus alleen maar raden. Maar je bent sowieso niet geinteresseerd in de reden. Je wil mij alleen maar zwartmaken.

[Reactie gewijzigd door Scalibq op 6 juni 2015 23:18]

''Je negeert de gegeven kritiek op Nvidia, over de Tegra X1 nu al 2 keer tot dusverre. Waarom?''

Ik probeer de kritiek te googlen maar ik kan niets vinden over de Tegra X1 ik typte 'critic(s)' 'lies' 'lying' 'deception' en nog meer maar ik kon niets vinden, wat ik lees is gewoon goed niet mijn ding ARM enzo maar oke, kan je een link geven oid?

[Reactie gewijzigd door Nature op 7 juni 2015 03:06]

Ja. Het is ook maar een leugentje om bestwil, maar wel een die totaal niet nodig is als je naar de review van Anandtech bekijkt.

Ziehier wat Nvidia aan de buitenwereld roept: - http://nvidianews.nvidia....egra-x1-mobile-super-chip

''Maxwell GPU Architecture Delivers First Teraflops Mobile Processor, Powering Deep Learning and Computer Vision Applications. NVIDIA today unveiled Tegraģ X1, its next-generation mobile super chip with over one teraflops of processing power –''

Maar wat zegt hun whitepaper, wat de gemiddelde consument dus niet leest:
''Tegra X1 delivers over one TeraFLOPS of FP16 performance. ''

http://international.down...ra-X1-whitepaper-v1.0.pdf

Het is dus vooral PR praat te noemen. Want 1 teraflop klinkt beter dan 1 teraflop aan FP16. Dat heeft toch een negatieve intonatie.

http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/2
- Er worden weliswaar redenen aangewezen waar FP16 zijn nut heeft, maar niemand heeft het hiervoor erover gehad. De reden daarvoor is simpelweg omdat FP16 erg gelimiteerd is, zeker in games. Nvidia wilt het voor foto herkenning gebruiken waar het wel een nut heeft daar de precisie minder relevant is.

Overigens, en dat vindt Scali vast niet leuk, is Nvidia niet de eerste die speciale FP16 units heeft, ARM, AMD en Imagination hebben ze ook al:

''In this respect NVIDIA is playing a bit of catch up to the competition, and overall it’s hard to escape the fact that this solution is a bit hack-ish, but credit where credit is due to NVIDIA for at least recognizing and responding to what their competition has been doing. Both ARM and Imagination have FP16 capabilities on their current generation parts (be it dedicated FP16 units or better ALU decomposition), and even AMD is going this route for GCN 1.2. So even if it only works for a few types of operations, this should help ensure NVIDIA doesn’t run past the competition on FP32 only to fall behind on FP16.''
Overigens, en dat vindt Scali vast niet leuk, is Nvidia niet de eerste die speciale FP16 units heeft, ARM, AMD en Imagination hebben ze ook al
Weet niet waarom ik dat niet leuk zou vinden...
Ik was fan van PowerVR, weet je nog?
Ik wist al lang dat veel mobile devices FP16 hebben. Daarvoor is er ook een speciaal directive voor in OpenGL ES: lowp, en natuurlijk het half datatype.
Maar zoals ik al zei, GeForce FX had het ook al.

[Reactie gewijzigd door Scalibq op 8 juni 2015 00:20]

Ach man geef op lol. Hij is gek op het uithalen naar AMD en het in de hemel prijzen van NVIDIA. Als AMD iets proprietary doet haalt ie ze uit omdat ze niet zijn favo standaarden nemen, maar als NVIDIA iets nieuws maakt wat zo proprietary als de neten is dan prijst ie het de hemel in. Hij is al meedere keren gewezen op onzin die hij verkondigde die ANTI-AMD was. Met links erbij btw en komt dan zelf met "ik weet het beter dan alle links die jij kunt providen dus ik hoef zelf niks te onderbouwen" lol. Is ie ook al meerdere keren op gewezen en negeert ie gewoon omdat het niet in zijn straatje past. In zijn wereldje is alleen AMD slecht, NVIDIA en Intel zijn geweldig, hij weet alles beter dan wie dan ook en als ie geen antwoord heeft dan negeert ie het gewoon compleet :P. Iedere post van hem is echt rinse and repeat. Die gast heeft een stok in zijn achterwerk van jewelste lol.

Oh en niet vergeten hij spreekt zichzelf graag tegen. Zoals biv dat hij hier boven roept dat hij tegen proprieraty api's is. Omdat het niet op een standaard gebaseerd is. Grappige is kijk maar naar reacties van hem bij Freesync VS Gsync. Freesync, sure iets minder dan Gsync maar GRATIS en open :P Kan zefs voor aardig wat monitoren door een simpele firmware update geimplementeerd worden omdat het gebaseerd is op een bestaande standaard. Nvidia? Yep nieuwe monitor die 100 tot 200 extra kost. Ook maar 1 positief wordt daar voor AMD? lol nope ook daar anti-amd gespui omdat (omdanks dat het mensen niks kost) NVIDIA zoveel beter is. Maar is wel proprietary en kost een BAK extra. Maar ja is geen API dus dan zal ie wel weer van zichzelf een compeet tegen overgestelde mening mogen hebben :P.

Oh en ook grappig, hij is al meerdere kere er op gewezen dat de Nvidia kaarten dingen niet alle DX 12 lagen ondersteunen. Wat doet ie? Negeert ie compleet en gaat alleen maar door en door over lvl 12_1 :P. Andere levels zijn kennelijk niet belangerijk.

In het kort, maakt niet uit wat AMD doet het is altijd slecht, en maakt niet uit wat intel en nvidia doen die zijn altijd goed, volgens hem dan lol

[Reactie gewijzigd door Rhylian op 6 juni 2015 02:35]

Hij is gek op het uithalen naar AMD
Kritisch zijn is niet per se 'uithalen naar'.
en het in de hemel prijzen van NVIDIA.
Kritisch zijn naar AMD impliceert nog niet dat ik nVidia de hemel in prijs.
Zo zie je het wel HEEL zwart-wit.
Als AMD iets proprietary doet haalt ie ze uit omdat ze niet zijn favo standaarden nemen, maar als NVIDIA iets nieuws maakt wat zo proprietary als de neten is dan prijst ie het de hemel in.
Incorrect. Zoals ik al zei: het introduceren van een nieuwe API is onzin als er al twee standaarden bestaan voor hetzelfde doel.
Als je daarentegen met een nieuwe technologie komt, dan is het vrij logisch om dat proprietary te doen, vanuit het bedrijf gezien dan. Iets met terugverdienen van je R&D-investeringen en beschermen van je IP enzo.
Natuurlijk vinden we het allemaal mooier als het meteen allemaal open en gratis is, maar we moeten wel realistisch blijven. Zo werkt de wereld niet.
Grappige is kijk maar naar reacties van hem bij Freesync VS Gsync. Freesync, sure iets minder dan Gsync maar GRATIS en open :P
Ten eerste is G-Sync geen API.
Ten tweede heb ik me nergens uitgelaten over wat ik van FreeSync danwel G-Sync vind.
De reacties waren puur technisch van aard, en gingen alleen over de verschillen in de implementatie.

Kortom, je bent de zoveelste die m'n woorden verdraait (misschien niet eens bewust, misschien snap je gewoon echt de nuances niet die ik hierboven aanstip, omdat je gewoon niet weet waar je over praat), en me persoonlijk aanvalt... alleen maar omdat ik kritiek op AMD heb.
Als nVidia of Intel weer eens iets niet zo handig doen, dan heb ik net zo veel kritiek op ze.
Nog even over dat tesselation verhaal...
Ik kwam toevallig vandaag het volgende artikel tegen:
Als je kijkt naar de tesselation performace van de GCN 1.2 zie je dat AMD dat ook met GCN wel redelijk bij gebeend te hebben...
Het enige nadeel is dat er tot nu toe alleen nog maar een 1 kaart is uitgebracht op basis van GCN 1.2
Ik vermoed dan ook eerder dat in plaats van simpele rebrands de 300 serie op GCN 1.2 gestoeld is. (Of uiteraard nog beter de nieuwe Fiji + HBM)
Hiermee blijft het hele verhaal over feature level 12_1 hetzelfde, maar zoals je zelf ook aan hebt gegeven is het muntje wisselen tussen nVidia en AMD wat betreft implementatie van nieuwe features. In het geval van 12_1 is het deze keer weer de eer aan nVidia en is het afwachten wat AMD daar tegenover zet.

[Reactie gewijzigd door Spekkie88 op 8 juni 2015 13:03]

Nog even over dat tesselation verhaal...
Als je kijkt naar de tesselation performace van de GCN 1.2 zie je dat AMD dat ook met GCN wel redelijk onder bij gebeend te hebben...
Een dual(!) 285 ten opzichte van een 770? Tsja...
Nee dus :)
Dit is de grafiek die je zoekt: http://images.anandtech.com/doci/8460/Tessmark_575px.png
Zoals je ziet, nog steeds nauwelijks verbetering. De schaling is er gewoon niet. En die gaat er ook niet komen totdat ze hun huidige aanpak loslaten, en overgaan op een slimmere methode, a la nVidia's PolyMorph.
Dit heet nu dweilen met de kraan open.

Leg die grafiek dan eens naast bv deze:
http://abload.de/img/tessg0j8u.png
Ja, de 285 is bijna twee keer zo snel als de 290X bij 64x... Maar waar brengt je dat? Nog steeds niet in de buurt van nVidia.
Je ziet bij AMD duidelijk die exponentiele drop, waar nVidia heel geleidelijk, bijna lineair afzakt. Dat is het verschil (en dit is dus nog Kepler, niet eens Maxwell).
Hiermee blijft het hele verhaal over feature level 12_1 hetzelfde, maar zoals je zelf ook aan hebt gegeven is het muntje wisselen tussen nVidia en AMD wat betreft implementatie van nieuwe features.
Resultaten uit het verleden geven geen garantie voor de toekomst.
Als AMD het gat ten opzichte van Maxwell niet kan dichten met Fury, dan kunnen er wel een paar jaar overheen gaan totdat ze een architectuur hebben die dat wel kan.
Fury is een grote stap, en met oa HBM slaan ze duidelijk een nieuwe weg in, met de nodige risico's.
Zie bv ook de CPU-markt, waar de uitglijder met Bulldozer niet zomaar even rechtgezet kan worden.

[Reactie gewijzigd door Scalibq op 8 juni 2015 13:13]

Eehmm nee als je de review daadwerkelijk had gelezen gaat het niet om een dual GPU, maar om een single GPU kaart van sapphire met de NAAM Sapphire R9 285 Dual-X OC 2GB wat slaat op de 2 fans van de koeler...

De grafiek die jij aanhaalt laat wel degelijk een grove verbetering zien. (namelijk een factor 2) Daarnaast hebben ze het in die grafiek over de daadwerkelijke fps terwijl ze in de andere grafieken het feitelijk hebben over polygons/second ondanks dat er frames per second staat in de grafiek beschrijving.
Diezelfde factor 2 verbetering zie je dan ook terug in de grafiek die later terug komt in de review.

Je moet niet vergeten dat de R9 285 een midrange kaart is met vergelijkbare specs als een R9 280 (zie ook de rest van de gelinkte review) die een bijna 2x performance increase laat zien ten opzichte van de high end R9 290 (als het aankomt op tesselation) en daarmee in de buurt komt van de GTX 770.

Ik zeg ook niet dat AMD er al is, maar toch ben ik zeer benieuwd hoe het er uitziet als AMD een high end gpu op basis van GCN 1.2 released...
De grafiek die jij aanhaalt laat wel degelijk een grove verbetering zien. (namelijk een factor 2)
Als je een factor 10 achterligt op je concurrent, is een factor 2 niet echt een grove verbetering. Je ligt nog steeds een straatlengte achter.
Daarnaast hebben ze het in die grafiek over de daadwerkelijke fps terwijl ze in de andere grafieken het feitelijk hebben over polygons/second ondanks dat er frames per second staat in de grafiek beschrijving.
Komt op hetzelfde neer.
Je moet niet vergeten dat de R9 285 een midrange kaart is met vergelijkbare specs als een R9 280 (zie ook de rest van de gelinkte review) die een bijna 2x performance increase laat zien ten opzichte van de high end R9 290 (als het aankomt op tesselation) en daarmee in de buurt komt van de GTX 770.
Maar ook een GTX760 of oudere midrange-kaarten maken gehakt van AMD in tessellation. Dus dat zegt niks.
Ik zeg ook niet dat AMD er al is, maar toch ben ik zeer benieuwd hoe het er uitziet als AMD een high end gpu op basis van GCN 1.2 released...
Niet veel beter dan dit, omdat hun aanpak gewoon niet schaalt.
Destijds was er letterlijk geen verschil tussen een 5770 en een 5870 in TessMark.
Nu ook zal de performance waarschijnlijk 100% afhankelijk zijn van de geometry engines, en zullen de shader processors niet op volle kracht lopen op de 285.
Dan kun je er wel meer shader processors op zetten, maar daar gaat ie niet sneller van.
Dat is het probleem waar AMD al 5 jaar mee worstelt, en waar nVidia al 5 jaar een oplossing voor heeft.

[Reactie gewijzigd door Scalibq op 8 juni 2015 13:30]

Als je naar de gelinkte grafiek kijkt zie je juist dat de R9 285 sneller is dan de GTX760 en zelfs in de buurt komt van de GTX 770.
Qua overall performance ligt de R9 285 ook onder die van de GTX770 en boven de GTX760. Nogmaals ook in die grafiek gaat het om een single gpu kaart.

Dus ik ben dan zeer benieuwd hoe het er uit zou komen te zien als je deze performance doortrekt naar een high end gpu op basis van GCN 1.2
Als je naar de gelinkte grafiek kijkt zie je juist dat de R9 285 sneller is dan de GTX760 en zelfs in de buurt komt van de GTX 770.
Ja, in TessMark (en dan wel de nieuwe versie met de iets 'vriendelijker' imageset).
De GTX760 is sowieso een stuk trager, over het geheel gezien, dus in verhouding staat ie in TessMark niet slecht.
Als je puur synthetisch de tessellator gaat testen (zonder daar textures etc op toe te passen), dan is de GTX760 nog steeds sneller.
Dus ik ben dan zeer benieuwd hoe het er uit zou komen te zien als je deze performance doortrekt naar een high end gpu op basis van GCN 1.2
Niet dus, want zoals ik al zei: hun aanpak schaalt niet.

[Reactie gewijzigd door Scalibq op 8 juni 2015 13:36]

Wat noem je nieuw dan? De review is uit september 2014...
[..]
Als je puur synthetisch de tessellator gaat testen (zonder daar textures etc op toe te passen), dan is de GTX760 nog steeds sneller.
Heb je daar een bron van?
Wat noem je nieuw dan? De review is uit september 2014...
TessMark bestaat al langer dan vandaag, en heeft verschillende imagesets, die verschillend presteren.
De set waarmee zij getest hebben, zat er in de eerdere versies niet in, en draait over het algemeen wat makkelijker op 64x dan de anderen. Hierdoor is het helaas wat moeilijk om TessMark-resultaten van verschillende reviews te vergelijken.
Download anders zelf TessMark even en speel eens met de settings.
Heb je daar een bron van?
Nee. Maar ook dat zou je zelf kunnen testen.
Niet dus want ik ben niet in het bezit van een R9 285. Dit is namelijk de enige consumenten kaart op het moment die gebaseerd is op GCN 1.2
Ook hier zie je een grafiek met dezelfde settings waarbij de R9 285 o.a. wordt afgezet tegen de GTX 770 en R9 290X (GCN 1.1)
En dat onderstreept mijn punt qua scaling.
De GTX770 is in principe een stuk trager, en je ziet dus dat ie bij lage tessellation minder goede framerates kan halen.
Maar, naarmate de tessellation toeneemt, loopt de 285 tegen z'n bottleneck aan, en kan de 770 er voorbij komen.
Dat is dus betere schaling.
De GTX770 is helemaal niet trager dan de R9 285...
En in tegenstelling tot de R9 290 (GCN 1.1) laat de R9 285 (GCN 1.2) een veel stabielere tessellation performance zien.
Ja, de schaling van nVidia is nog steeds beter, maar het gat is wel een heel stuk kleiner en de performance degradatie ligt veel meer in lijn met die van nVidia.

Dus ja, in GCN 1.1 zit inderdaad een grote bottleneck ergens, maar als die alleen toe te rekenen is aan een gebrek aan communicatie, hoe komt het dan dat GCN 1.2 dat zo recht weet te trekken?
De GTX770 is helemaal niet trager dan de R9 285...
Ze zijn heel verschillend, dus in games is de GTX770 soms wel sneller, soms niet. Hangt helemaal af van wat voor soort rendering de game gebruikt.
Maar in TessMark is ie dus een stuk trager bij lage tessellation loads, wat dus zou betekenen dat hij meer moeite heeft met die specifieke workload qua texturing/shading. Hij kan dit echter laten omslaan doordat tessellation beter schaalt.
Dus ja, in GCN 1.1 zit inderdaad een grote bottleneck ergens, maar als die alleen toe te rekenen is aan een gebrek aan communicatie, hoe komt het dan dat GCN 1.2 dat zo recht weet te trekken?
Omdat ze hem in 4 stukken hebben geknipt ipv twee, meen ik.
Nee, want zowel de R9 290 als de R9 285 hebben 4 geometry engines...
De R9 285 heeft alleen minder compute units in verhouding tot de R9 290, wat ook duidelijk naar voren komt in het gelinkte artikel van een aantal posts terug...

[Reactie gewijzigd door Spekkie88 op 9 juni 2015 13:25]

Dan komt het misschien gewoon omdat ze dat deel van de GPU hoger hebben geklokt, of geoptimaliseerd of iets.
Ik weet het niet precies. Het enige dat ik weet is dat ik nog steeds een verschil zie in schaling ten opzichte van nVidia.
Combineer dat met geen nieuws van AMD over een nieuwe aanpak van tessellation, en we kunnen met een aan zekerheid grenzende waarschijnlijkheid concluderen dat AMD nog steeds hetzelfde doet als eerst.
Ja ok, maar eerst heb je zelf gezegd dat het onmogelijkheid aan communicatie blijkt uit re resultaten van de tessellation performance.
Toch blijkt AMD met GCN 1.2 de performance schaling behoorlijk recht te hebben getrokken (ongeacht of deze al dan niet nog steeds slechter is dan nVidia).

Ik vraag me dan ook af of de slechte tessellation performance van GCN 1.1 niet door iets anders veroorzaakt kan worden dan het niet kunnen communiceren tussen de modules en daarmee nog potentie zit in de manier waarop AMD tessellation afhandelt.

Als je ook kijkt naar de diagram weergave van GCN 1.2 in het artikel van anandtech, doet dit sterk vermoeden dat iedere geometry engine kan communiceren met elke rasterizer en dat daar dus niet zozeer de bottleneck zit...
Toch blijkt AMD met GCN 1.2 de performance schaling behoorlijk recht te hebben getrokken (ongeacht of deze al dan niet nog steeds slechter is dan nVidia).
Nee, de schaling is niet zozeer beter, het ding is over het geheel sneller gemaakt (al is het lastig vergelijken omdat de 285 verder niet 1:1 vergelijkbaar is met bv een 280 of een 290). Dat is niet hetzelfde.
Ik vraag me dan ook af of de slechte tessellation performance van GCN 1.1 niet door iets anders veroorzaakt kan worden dan het niet kunnen communiceren tussen de modules en daarmee nog potentie zit in de manier waarop AMD tessellation afhandelt.
Waarom vraag je je dat af? Het is toch superduidelijk waarom je bottlenecks krijgt met die aanpak?
Je hoeft je toch ook niet af te vragen waarom een CPU met 2 cores minder goed in een applicatie draait met 4 threads dan exact dezelfde CPU met 4 cores?
Als je ook kijkt naar de diagram weergave van GCN 1.2 in het artikel van anandtech, doet dit sterk vermoeden dat iedere geometry engine kan communiceren met elke rasterizer en dat daar dus niet zozeer de bottleneck zit...
Twee problemen in die logica:
1) nVidia heeft ook 4 rasterizers, en bij hun *weet* je dat ze daar mee kunnen communiceren.
2) De laatste jaren zijn de rasterizers van AMD iets sneller dan die van nVidia (ironisch genoeg kan AMD dus beter omgaan met triangles < 1 pixel).

Dus als AMD inderdaad net zo flexibel zou zijn als nVidia, zouden ze met een gelijk aantal rasterizers minstens net zo snel zijn.
Dat zijn ze niet, dus blijkbaar worden hun rasterizers niet zo efficient aangestuurd bij tessellation.

[Reactie gewijzigd door Scalibq op 9 juni 2015 14:17]

Ja, ik snap dat de slechte performance VERKLAARD kan worden door het niet kunnen communiceren. Maar zoals je zelf destijds hebt gezegd is de slechte performance het BEWIJS voor het niet kunnen communiceren. Dat is heel iets anders.

Na het zien van de perfromance en schaling verschillen tussen GCN 1.1 en GCN 1.2 vraag ik me dus af of de slechte performance en schaling van GCN 1.1 niet verklaard kan worden door iets anders.

Daarnaast is de schaling wel degelijk beter, want die is nu ineens ook linear en vergelijkbaar met de schaling van een gelijkwaardige nVidia kaart...
Daarbij is het geheel ook niet sneller gemaakt, want als je naar de grafieken kijkt delft de R9 285 het onderspit als het aankomt op de lagere levels van tessellation ten opzichte van zowel de R9 280 (GCN 1.0 / 2 geometry engines) als de R9 290(X) (GCN 1.1 / 4 geometry engines)
Ja, ik snap dat de slechte performance VERKLAARD kan worden door het niet kunnen communiceren. Maar zoals je zelf destijds hebt gezegd is de slechte performance het BEWIJS voor het niet kunnen communiceren. Dat is heel iets anders.
Niet mee eens.
De technologische voortgang is: van niet communiceren naar wel communiceren.
Er is al bewijs dat oude hardware niet communiceert, dat is al lang bekend. Vroeger kenden we dat concept simpelweg niet, omdat het geen functie had voordat tessellation bestond.

Er moet dus niet bewezen worden dat er niet gecommuniceerd kan worden, dat is gegeven. Er moet bewezen worden dat er WEL gecommuniceerd kan worden.
Als AMD nergens een duidelijke sprong laat zien qua schaalbaarheid, dan is er dus nergens bewijs dat ze dat kunnen (zelfs al zouden ze het wel kunnen inmiddels).
Na het zien van de perfromance en schaling verschillen tussen GCN 1.1 en GCN 1.2 vraag ik me dus af of de slechte performance en schaling van GCN 1.1 niet verklaard kan worden door iets anders.
Je bent wel erg hard op zoek naar een andere verklaring he?
Waarom?
Wat voor verklaring je ook wil vinden, AMD's nieuwste GPU wordt nog steeds ingehaald door een 'kleine' Kepler van anderhalf jaar eerder.
Daarnaast is de schaling wel degelijk beter, want die is nu ineens ook linear en vergelijkbaar met de schaling van een gelijkwaardige nVidia kaart...
Nee, de 770 is nog een oudere Kepler-kaart van nVidia, en zelfs die schaalt nog steeds beter dan de 285.
Maxwell heeft er nog een schepje bovenop gedaan qua schaling.
Daarbij is het geheel ook niet sneller gemaakt, want als je naar de grafieken kijkt delft de R9 285 het onderspit als het aankomt op de lagere levels van tessellation ten opzichte van zowel de R9 280 (GCN 1.0 / 2 geometry engines) als de R9 290(X) (GCN 1.1 / 4 geometry engines)
Zoals ik al zei, de kaart kan niet 1:1 vergeleken worden, omdat er veel meer verschillen in zitten dan alleen de tessellator.
Er is al bewijs dat oude hardware niet communiceert, dat is al lang bekend.
Naar dit bewijs ik heb ik de vorige keer ook gevraagd en kon je mij daar geen ander antwoord op geven dan de slechte schaling...

Het enige wat ik jou hoor zeggen dat het DE verklaring is voor de slechte performance, zonder enige referenties.

Ondertussen heb ik een whitepaper gevonden van AMD over de GCN architectuur.
Met mijn beperkte kennis kan ik hier niet uit opmaken of er wel of geen communicatie plaats kan vinden tussen de geometry engines en rasterizers, maar de diagrammen doen mij vermoeden van wel.
Nee, de 770 is nog een oudere Kepler-kaart van nVidia, en zelfs die schaalt nog steeds beter dan de 285.
Maxwell heeft er nog een schepje bovenop gedaan qua schaling.
Dezelfde R9 285 is ook een mid-range kaart net als de GTX 770. In datzelfde diagram zie je ook de GTX780ti nauwelijks onderdoet voor een GTX980...

[Reactie gewijzigd door Spekkie88 op 9 juni 2015 14:54]

Naar dit bewijs ik heb ik de vorige keer ook gevraagd en kon je mij daar geen ander antwoord op geven dan de slechte schaling...
Men hoefde ook niet te bewijzen dat de wereld plat was, toen iemand beweerde dat de wereld rond was.
Begrijp je dus wel wat ik net zei? Je zoekt naar het omgekeerde bewijs, dat ga je nooit vinden. Dat is al het uitgangspunt.
Als je niet begrijpt dat je voor het tessellation-tijdperk nooit communicatie tussen verschillende geometry engines en rasterizers nodig had (omdat het altijd "1 triangle in == 1 triangle uit" was), dan snap je gewoon te weinig van GPUs om een zinnige discussie te houden over dit onderwerp.
Ondertussen heb ik een whitepaper gevonden van AMD over de GCN architectuur.
Met mijn beperkte kennis kan ik hier niet uit opmaken of er wel of geen communicatie plaats kan vinden tussen de geometry engines en rasterizers, maar de diagrammen doen mij vermoeden van wel.
De plaatjes op blz 13/14/15 lijken me duidelijk: De 7770 is 1 geometry unit en 1 rasterizer direct aan elkaar geknoopt.
De andere twee laten hier zien dat je twee geometry units hebt, en twee rasterizers, en dat er tussen die twee rasterizers blijkbaar iets van communicatie kan zijn.
Als ik het goed begrijp, is het plaatje 1 primitive pipeline, waar er dus 2 van op zitten op high-end kaarten (4 geometry units/4 rasterizers). Die pipelines kunnen onderling dus niet met elkaar communiceren.
Ze hebben blijkbaar wel 'iets' gedaan aan communicatie, maar het lijkt in de verste verte nog niet op wat nVidia doet (16 geometry engines die globaal aanspreekbaar zijn in de GPU, en die de workload over 4 rasterizers verdelen).
Zoals ik dus al zei: dweilen met de kraan open.
Eerder zagen de overzichtjes er zo uit: http://i.neoseeker.com/a/AMD_HD_7970/Tessellator.png
Daar zie je dus HELEMAAL geen communicatie tussen rasterizers.
Het is me niet helemaal duidelijk wat die pijltjes betekenen, en waar ze vandaan komen.

[Reactie gewijzigd door Scalibq op 9 juni 2015 15:22]

The advantage of GCN's flexibility is evident in the first few products that have scaled across all four dimensions. The AMD Radeon
HD 7970 splits the
screen into 2 primitive pipelines and 4 pixel pipelines, with 32 compute units for shading and a 384-bit memory interface. The GCN pixel pipelines are organized
into 2 RBEs and 3 memory controllers, a 50% boost in memory bandwidth. In contrast, the AMD Radeon
HD 7770 GHz Edition has a single primitive pipeline,
2 pixel pipelines and 10 compute units. The pixel pipelines in the AMD Radeon
HD 7770 GHz Edition also scaled back to 2 memory controllers, for a 128-bit
wide interface.
Als ik het volgende goed interpreteer uit de whitepaper is het juist de HD7700 die beschikt over 1 primitive pipeline, de HD7870 en HD7970 over 2 primitive pipelines, wat zou betekeken dat de R9 290 en R9 285 over 4 primitive pipelines zouden moeten beschikken en dat er over de gehele linie communicatie mogelijk zou moeten zijn.

Dus in plaats van 16 geometry engines die 4 rasterizers aansturen zijn het 4 geometry engines die 4 rasterizers aansturen...
Eerder zagen de overzichtjes er zo uit: http://i.neoseeker.com/a/AMD_HD_7970/Tessellator.png
Daar zie je dus HELEMAAL geen communicatie tussen rasterizers.
Het is me niet helemaal duidelijk wat die pijltjes betekenen, en waar ze vandaan komen.
Maar een whitepaper lijkt me betrouwbaarder of niet?
en dat er over de gehele linie communicatie mogelijk zou moeten zijn.
Waarom? Dat hangt er helemaal vanaf hoe de diagrammetjes er daar uitzien. Heb je daar geen whitepaper van?
Je wil toch overal zo graag bewijs van zien? Maar hier stap je daar maar even gemakkelijk overheen, en doe je maar even een aanname die toevallig het antwoord is dat je zoekt.
Dus in plaats van 16 geometry engines die 4 rasterizers aansturen zijn het 4 geometry engines die 4 rasterizers aansturen...
Ik krijg nog steeds sterk de indruk dat je het verschil niet begrijpt tussen dingen 1:1 aan elkaar knopen en in-order verwerken, of een many-to-few mapping met dynamische scheduling/load balancing.
En ook een GIGANTISCHE pro-AMD vibe.
Maar een whitepaper lijkt me betrouwbaarder of niet?
Dat andere diagrammetje komt ook bij AMD vandaan. Misschien uit een eerdere whitepaper.

[Reactie gewijzigd door Scalibq op 9 juni 2015 15:26]

Nee ik ben niet gigantisch pro-AMD, maar nogmaals, JIJ bent degene die zegt dat er GEEN communicatie mogelijk is zonder enige referentie.
Daarnaast krijg ik van jou juist een hele erge ANTI-AMD vide. Dus nee, ik geloof je niet op je woord. Wat je zelf ook alleen maar kan beamen aangezien je zelf ook hebt gezegd dat ik niet alles moet geloven wat ik op internet lees.
Daarnaast geef je zelf aan er veel verstand van te hebben, maar kan je geen referenties aanleveren.

Tevens is het enige bewijs wat je hebt geleverd tegen het kunnen communiceren de tessellation performance. Als AMD vervolgens laat zien daar wat aan te kunnen veranderen is dat ineens geen bewijs dat het wel kan...

Dus ik vraag je OBJECTIEVE mening of de slechte schaling van GCN 1.0 en 1.1 wel ECHT een bewijs is voor het niet kunnen communiceren tussen de verschillende onderdelen als je dat afzet tegen de geboekte performance increase bij GCN 1.2
En zoals eerder gezegd geeft dit diagram ook aan dat er over de gehele linie communicatie mogelijk is.

Nogmaals JIJ bent blijkbaar in "the scene", maar ook dan weet je alleen de whitepapers van nVidia aan te halen en niets van AMD en daarom ben ik dan ook erg sceptisch tegenover jouw uitlatingen dat er geen communicatie mogelijk is en dat dat de reden is voor de slechte performance.
in-order verwerken
Waaruit blijkt dit dan het geval te zijn?

Tevens heb ik nog eens de whitepaper van zowel Fermi en Maxwell
Waarbij er per Graphics Processing Cluster 1 rasterizer aanwezig is die aangestuurd wordt door aanwezige geometry engines uit de SM(M)'s uit diezelfde cluster.
Waarbij mij dit:
In GeForce GTX 980, each GPC ships with a dedicated raster engine and four SMMs. Each SMM has 128 CUDA cores, a PolyMorph Engine, and eight texture units.
juist doet vermoeden dat er ook bij nVidia geen communicatie mogelijk is tussen de verschillende GPC's?
Nee ik ben niet gigantisch pro-AMD, maar nogmaals, JIJ bent degene die zegt dat er GEEN communicatie mogelijk is zonder enige referentie.
Ik zeg dat er geen communicatie is tot het tegendeel bewezen is.
Tegendeel is nog niet bewezen.
Zoals ik zeg, jouw redenering is zeggen dat de wereld rond is totdat iemand bewijst dat de wereld plat is.
Of technischer: jij zegt dat alle computers een FPU hebben, totdat iemand bewijst dat computers vroeger geen FPU hadden, en die later pas is toegevoegd.
Of een ander voorbeeld: men noemde CISC CPUs vroeger nooit CISC. Simpelweg omdat het concept RISC nog niet bestond, en er daarom dus ook niet van CISC gesproken kon worden.
Blijkbaar begrijp je dat gewoon niet, ondanks dat ik nu al 2 keer heb aangegeven waarom dat historisch zo gegroeid is.
Daarnaast geef je zelf aan er veel verstand van te hebben, maar kan je geen referenties aanleveren.
Dat komt omdat jij geen referenties zoekt, maar echt letterlijke quotes, van dingen die je dus om historische redenen niet kunt vinden.
AMD gaat nu ook natuurlijk niet letterlijk hun zwakheden blootgeven, dus letterlijke quotes ga je niet vinden.
Dat lijkt me logisch.
Nogmaals JIJ bent blijkbaar in "the scene", maar ook dan weet je alleen de whitepapers van nVidia aan te halen en niets van AMD
Je hebt zelf die whitepaper van AMD gezien. Er staat gewoon niet in uitgelegd hoe de tessellation pipeline precies werkt.
nVidia heeft dat wel uitgelegd.
Dus ik kan niet verwijzen naar de AMD whitepapers, omdat daarin gewoon niet de info staat die jij zoekt.
Waaruit blijkt dit dan het geval te zijn?
Lees die whitepaper van nVidia over PolyMorph nog eens goed. Als je die begrijpt, dan zou je moeten zien dat AMD's diagram nooit op die manier kan werken.
Ik ben het whitepaper van de Fermi inderdaad nog weer eens grondig aan het nalezen en krijg juist meer en meer het idee dat nVidia net zo goed de gpu opdeelt in blokken (GPC's) die niet met elkaar communiceren.
Tevens maak ik juist op dat iedere geometry engine gekoppeld is aan 1 SM(M) en niets kan "uitbesteden" aan andere SM(M)'s. Vervolgens zijn er een aantal SM(M)'s gekoppeld aan 1 rasterizer binnen dezelfde GPC.
Dus waaruit blijkt dan precies dat nVidia dit WEL kan?

Aangezien we er vanuit gaan dat er geen communicatie is totdat het tegendeel bewezen is...
Ik ben het whitepaper van de Fermi inderdaad nog weer eens grondig aan het nalezen en krijg juist meer en meer het idee dat nVidia net zo goed de gpu opdeelt in blokken (GPC's) die niet met elkaar communiceren.
Tevens maak ik juist op dat iedere geometry engine gekoppeld is aan 1 SM(M) en niets kan "uitbesteden" aan andere SM(M)'s. Vervolgens zijn er een aantal SM(M)'s gekoppeld aan 1 rasterizer binnen dezelfde GPC.
Dus waaruit blijkt dan precies dat nVidia dit WEL kan?
Ten eerste staat het letterlijk in de tekst die ik al eerder quotte:
GF100’s entire graphics pipeline is designed to deliver high performance in tessellation and geometry throughput. GF100 replaces the traditional geometry processing architecture at the front end of the graphics pipeline with an entirely new distributed geometry processing architecture that is implemented using multiple “PolyMorph Engines” . Each PolyMorph Engine includes a tessellation unit, an attribute setup unit, and other geometry processing units. Each SM has its own dedicated PolyMorph Engine (we provide more details on the Polymorph Engine in the GF100 architecture sections below). Newly generated primitives are converted to pixels by four Raster Engines that operate in parallel (compared to a single Raster Engine in prior generation GPUs). On-chip L1 and L2 caches enable high bandwidth
transfer of primitive attributes between the SM and the tessellation unit as well as between different SMs.
Tessellation and all its supporting stages are performed in parallel on GF100, enabling breathtaking geometry throughput.
While GF100 includes many enhancements and performance improvements over past GPU architectures, the ability to perform parallel geometry processing is possibly the single most important
GF100 architectural improvement. The ability to deliver setup rates exceeding one primitive per clock while maintaining correct rendering order is a significant technical achievement never before done in a GPU.
Ten tweede, kijk ook eens naar hoe het design binnen een GPC zit: je hebt per raster engine 4 PolyMorph engines...
Let ook dat je voor tessellation twee keer langs de shaders moet.
Eerst de hull shader, daarna de domain shader. Je komt dus een paar keer langs een PolyMorph engine.

Bij nVidia is het duidelijk dat een PolyMorph engine naar een bepaalde SM stuurt, en deze kan het dan via de L1 cache terugsturen naar 1 van de 4 PolyMorph engines binnen de GPC (en uit het grotere plaatje is duidelijk dat de L2-cache ook alle GPCs met elkaar zou kunnen verbinden).
Uiteindelijk kom je bij de raster engine terect, die weer alle 4 de SMs binnen een GPC kan aansturen.

Zoals AMD het heeft getekend, moet je via de L2 cache (traag) als je na een shader pass naar een andere geometry unit wil (als dat uberhaupt kan, ik heb itt nVidia's whitepaper bij AMD uberhaupt niet gelezen dat er bij tessellation gecommuniceerd kan worden via caches).
Maar heel duidelijk zijn de diagrammen en uitleg van AMD niet. Dat zal bewust zijn.

[Reactie gewijzigd door Scalibq op 9 juni 2015 17:18]

Maar de L1 cahce is ook onderdeel van diezelfde SM, dus als er data van de ene SM naar een tessellator in een andere SM moet, gaat dat toch ook over de L2 cache?
De L1 is per GPC als het goed is, niet per SM.
Tenminste, L1-to-L1.
Bij AMD staat er alleen hier en daar iets vaags van 'off-chip buffer' te lezen... Dat zou dan dus videomemory zijn, wat hooguit via L2 gecached is als je het terugleest.

[Reactie gewijzigd door Scalibq op 9 juni 2015 18:33]

Mantle was niet direct vanaf de launch van BF4 beschikbaar in die game, daar was een aparte patch voor uitgebracht, die was rond januari 2014, aangezien de Catalyst 14.1 - beta - drivers minimaal benodigd waren.

[Reactie gewijzigd door CH40S op 8 juni 2015 16:27]

Het lijkt mij simple gegeven dat nV laaste refreshes design desision gemaakt werden op tijd dat er veel meer bekent was over DX12.
Zo ook AMD fury.
De rest hangt ook af hoe goed elk hun band is met de API branch.
Daarnaast hoeveel R&D kosten men wil spenderen.
En refresh is geen drastische omgooi in architectuur.

Ik ben benieuwd naar Fury.
Zou kunnen tegen vallen.
Maar DX12 zal komende tijd niet zo relevant zijn voor gamers.

Maar ja ik wil met mijn Dev bak upgraden naar W10 en DX12 met C++ klooien. Hobby en dan is de meest feature rijke gpu wel mooi meegenomen.
Ipv afhankelijk te zijn van referentie of WARP device voor de nieuwste features. Heb een 5870 nu er in.
Dus ik wacht wel even op wat Fury brengt.
DX is natuurlijk ook pas sinds aankondiging in ontwikkeling.

DX12 is een gevolg op,de ontwikkeling van DX op de xboxen. De eerste stappen hiervan zijn al te vinden in DX10 en nog veel meer in DX11. Maar DX12 was pas na Mantle, dat terwijl MS en AMD erg veel samen werken op GPU ontwikkel gebied :)

Plus erg veel van de GPU ontwikkelingen de laatste jaren komen van MS af.

Nee, MS zou niet zelf kunnen komen met zo'n baremetal API. Dat is allemaal dankzij AMD.

Leuke is dat MS rn OpenGL al lang er mee bezig waren.

Mantle was politics.
DX12 is een gevolg op,de ontwikkeling van DX op de xboxen.
Inderdaad, MS zegt zelf dat ze al met DX12 bezig waren toen ze aan de Xbox One begonnen: https://twitter.com/XboxP3/status/558768045246541824
Waren de aluhoedjes in de uitverkoop?

Nvidia heeft namelijk helemaal geen volledige support, zie de reactie van Werelds, en misschien hebben zij wel wat meer DX12 support omdat Maxwell nieuwer is?

Maar nee, een of andere halve complottheorie is uiteraard veel geloofwaardiger :+
Inderdaad een vergezochte theorie.

Mantle is al in een bepaalde vorm geÔmplementeerd in de consoles,
maar net zo belangrijk om te beseffen dat Mantle een vorm van gpcpu is. Steeds meer taken worden verschoven naar de gpu omdat die het sneller afwerkt.

DX12 doet dit ook, maar belangrijker om te vermelden dat ze daar zelfs in achterlopen. Als je een kaart van Nvidia hebt kon je die ook allerlei extra taken laten uitvoeren waardoor de CPU werd ontlast.

Dat je kaart geen DX 12.1 niet helemaal ondersteunt is niet zo erg omdat het via andere manieren toch hetzelfde en misschien zelfs betere resultaten kunnen worden bereikt. Verschillende game-ontwikkelaars zorgen dat de extra functies in een ATI of Nvidia kaart worden gebruikt waardoor het een stuk beter uitziet dan met alleen de standaard DX drivers.
Mantle is al in een bepaalde vorm geÔmplementeerd in de consoles
Helemaal niet. Dat probeerde AMD via slinkse marketing de wereld in te slingeren. Maar zowel Microsoft als Sony hebben een statement gemaakt dat er geen Mantle op hun consoles draait, maar hun eigen APIs.
maar net zo belangrijk om te beseffen dat Mantle een vorm van gpcpu is. Steeds meer taken worden verschoven naar de gpu omdat die het sneller afwerkt.
Heeft er niks mee te maken. Mantle is een graphics-API, geen compute. Je haalt hier dingen door elkaar.
Overigens zat DirectCompute ook al in DX11, en OpenCL gaat ook alweer heel wat jaartjes mee (met bindings voor OpenCL en DX).
nVidia was hierin de pionier natuurlijk met Cuda, voor het eerst geintroduceerd op de 8800, in het DX10-tijdperk.
Dat je kaart geen DX 12.1 niet helemaal ondersteunt is niet zo erg omdat het via andere manieren toch hetzelfde en misschien zelfs betere resultaten kunnen worden bereikt.
Helaas, zo ver zijn we nog niet.
Vooral conservative rasterizing zal waarschijnlijk best wel een 'dingetje' worden in DX12.
ROVs misschien iets minder, maar ook daar ga je verschil zien tussen kaarten die het wel kunnen, en niet.
Verschillende game-ontwikkelaars zorgen dat de extra functies in een ATI of Nvidia kaart worden gebruikt waardoor het een stuk beter uitziet dan met alleen de standaard DX drivers.
Over het algemeen niet. DX staat geen extensies toe in de API, en over het algemeen worden er geen driver-hacks gebruikt om dingen buiten DX om te doen.
Heb jij bewijs waar AMD beweert dat Mantle in consoles gebruikt wordt? volgens mij heeft AMD zelf dat nooit gezegd. Alleen dat Mantle dingen voor PC's mogelijk maakt die voor Consoles al heel lang normaal waren.

Meestal duurt het nog 1 a 2 generaties videokaarten voordat Games alles features van een nieuwe DX standaard implementeren. Ik hoop dat het deze keer sneller gaat. Maar meestal duurde het wel even.

Voor de next gen GPU's op 14/16nm zal het wel belangrijk zijn dat ze de hele featureset ondersteunen.

En eigenlijk is het vooral voor ons "tweakers" interessant wat die kaarten wel en niet kunnen. De meeste mensen maakt het niet uit dat ze op medium of high moeten spelen ipv ultra. Er zijn genoeg mensen die met low end kaarten of IGP's nog games spelen. Laat staan state of the art high end kaarten.

En wellicht gaat de nieuwe Fiji GPU van AMD wel 12_1 ondersteunen.

Ik weet nog niet wat de nieuwe generatie van AMD gaat worden. Maar als ze weer GCN 1.0 kaarten gaan rebranden naar de 3xx serie baal ik daar wel van. Ik ben nooit een fan van rebranden geweest. En dubbel rebranden vind ik helemaal nergens op slaan. We gaan het de komende weken zien. Al vrees ik het ergste....
Heb jij bewijs waar AMD beweert dat Mantle in consoles gebruikt wordt? volgens mij heeft AMD zelf dat nooit gezegd.
Wat AMD precies gezegd heeft in de eerste communicatie naar de pers is niet helemaal duidelijk. Wat wel duidelijk is, is dat vrijwel alle sites riepen dat Mantle op de consoles gebruikt zou worden.
Ik weet nog niet wat de nieuwe generatie van AMD gaat worden. Maar als ze weer GCN 1.0 kaarten gaan rebranden naar de 3xx serie baal ik daar wel van.
Ja, de geruchten wijzen wel in de richting van rebrands: nieuws: Gerucht: meeste AMD Radeon Rx 300-kaarten zijn rebrands
Je geeft eerst AMD de schuld. Vervolgens geef je zelf toe dat niet duidelijk is wat AMD zegt, om vervolgens over te gaan met de opmerking dat 'vrijwel alle sites riepen'.

Dat veel sites simpelweg copy-pasten wat ergens op een andere site wordt gezegd, zoals initieel ook gebeurde met dit Tweakers artikel, betekent niet dat AMD ook daadwerkelijk gezegd heeft wat men claimt dat gezegd is. De echo-chambers zijn alom aanwezig op het internet tegenwoordig.

Maar goed, geruchten en hear-say over AMD die niet al te positief zijn, krijgen nu eenmaal je volledige aandacht, dat is ondertussen wel bekend.
Je geeft eerst AMD de schuld. Vervolgens geef je zelf toe dat niet duidelijk is wat AMD zegt
Het is *ons* niet duidelijk wat AMD gezegd heeft, omdat wij de press-kit niet kunnen inkijken.
Dat wil niet zeggen dat de press-kit zelf niet duidelijk was. Dat kan ik niet beoordelen.
om vervolgens over te gaan met de opmerking dat 'vrijwel alle sites riepen'.
Alle sites hadden blijkbaar de press-kit op dezelfde manier geinterpreteerd. Dus zal de press-kit de informatie op die manier gepresenteerd hebben.
AMD heeft het dus niet zelf naar buiten gebracht middels pers-berichten, blogs etc. Simpelweg, AMD heeft het niet naar buiten gecommuniceerd. Dan kun je gaan zitten speculeren dat ze het wel gezegd zouden hebben naar sites toe, maar dat is niets anders dan dat, speculeren. Je geeft zelf al aan dat je er niet over kunt oordelen, maar vervolges kom je alsnog met een oordeel.

Een van je vele tegenstrijdigheden.
Je geeft zelf al aan dat je er niet over kunt oordelen, maar vervolges kom je alsnog met een oordeel.
Ik zeg dat ik niet kan oordelen over wat AMD aan de sites verteld heeft, maar ik kan wel oordelen over wat de sites hebben opgeschreven van het verhaal van AMD.
Aangezien er zoveel sites zijn die met hetzelfde verhaal kwamen (wat AMD achteraf ook niet verbeterd heeft), kunnen we afleiden dat AMD ze wel degelijk in die richting gestuurd heeft.
Dat is dus helemaal niet tegenstrijdig... Maar, leuk geprobeerd.

[Reactie gewijzigd door Scalibq op 7 juni 2015 11:33]

Okee, even een re-cap:

Je zegt:
Helemaal niet. Dat probeerde AMD via slinkse marketing de wereld in te slingeren.
Dus wordt er logischerwijze om bewijs gevraagd. Vervolgens kom je met hetvolgende:
Wat AMD precies gezegd heeft in de eerste communicatie naar de pers is niet helemaal duidelijk. Wat wel duidelijk is, is dat vrijwel alle sites riepen dat Mantle op de consoles gebruikt zou worden.
Nu zeg je opeens dat we niet kunnen weten wat AMD precies heeft gezegd, maar sites zeggen dit en dat, dus zal het wel komen door wat AMD zei. Als vervolgens gesteld wordt dat sites zelf ook wel dingen kunnen verzinnen en dat het dus niet van AMD hoeft te komen, verander je je toon wederom:
Ik zeg dat ik niet kan oordelen over wat AMD aan de sites verteld heeft, maar ik kan wel oordelen over wat de sites hebben opgeschreven van het verhaal van AMD.
Aangezien er zoveel sites zijn die met hetzelfde verhaal kwamen (wat AMD achteraf ook niet verbeterd heeft), kunnen we afleiden dat AMD ze wel degelijk in die richting gestuurd heeft.
Eerst is het dus 'AMD', vervolgens is het dus 'waarschijnlijk AMD' om af te sluiten met 'het zijn de sites, ik weet niet wat AMD zei'.

Je begint dus met de claim dat AMD aanstuurde op bepaalde berichtgeving en eindigt met dat je niet kan oordelen over wat AMD heeft gezegd. Dat is tegenstrijdig.

Enfin, ik heb speciaal voor jou eventjes een paar sites bezocht, waaronder Anandtech en Techreport.

http://techreport.com/rev...eeper-into-amd-mantle-api
(The GCN graphics architecture has made its way into some other notable silicon, including the SoCs inside of both the PlayStation 4 and the Xbox One, but Mantle does not, to our knowledge, currently support those.)
http://anandtech.com/show...evel-graphics-api-for-gcn
Let’s be very clear here: AMD will not discuss the matter let alone confirm it, so this is speculation on our part.
Ofwel, Techreport zegt dat er geen enkele indicatie is dat Mantle naar de consoles komt en Anandtech zegt duidelijk dat het allemaal puur eigen speculeren is en dat AMD helemaal niets heeft gezegd over het onderwerp, sterker nog, er niet over wil discussieren. Dit staat dus haaks op je stelling dat AMD aanstuurde op deze 'geruchten'.

[Reactie gewijzigd door dahakon op 7 juni 2015 17:39]

Nu zeg je opeens dat we niet kunnen weten wat AMD precies heeft gezegd, maar sites zeggen dit en dat, dus zal het wel komen door wat AMD zei.
Hence 'op slinkse wijze'.
Eerst is het dus 'AMD', vervolgens is het dus 'waarschijnlijk AMD' om af te sluiten met 'het zijn de sites, ik weet niet wat AMD zei'.
Ik heb nooit beweerd dat ik precies weet wat AMD zei.
Ik zeg slechts dat ze op slinkse wijze hebben gesproken met verschillende grote tech-sites, die allemaal ongeveer met hetzelfde verhaal kwamen. Dat achteraf niet bleek te kloppen.
Ofwel, Techreport zegt dat er geen enkele indicatie is dat Mantle naar de consoles komt
Techreport zat ook niet in het lijstje van sites dat ik opnoemde.
Zij zijn ook een van de weinigen die met MS en nVidia hebben gesproken, en ook daadwerkelijk hebben gezegd dat het best aannemelijk is dat er al aan DX12 gewerkt werd toen AMD met Mantle begon.
dat AMD helemaal niets heeft gezegd over het onderwerp, sterker nog, er niet over wil discussieren. Dit staat dus haaks op je stelling dat AMD aanstuurde op deze 'geruchten'.
Juist niet.
Anandtech kreeg dus het verhaal van AMD over Mantle... En vroeg toen: "Dus Mantle is eigenlijk een console-API?"
En dan zegt AMD: "Geen commentaar".
Ze hadden natuurlijk MOETEN zeggen: "Nee, Mantle komt niet naar de consoles, en heeft niets met DX11.x op de Xbox One te maken".
Dit onderstreept dus dat AMD graag die sites in de waan liet, ipv ze uit te leggen hoe het echt zit.

Quote ook even het stuk ervoor, voor de volledigheid:
What’s not being said, but what becomes increasingly hinted at as we read through AMD’s material, is not just that Mantle is a low level API, but rather Mantle is the low level API. As in it’s either a direct copy or a very close derivative of the Xbox One’s low level graphics API. All of the pieces are there; AMD will tell you from the start that Mantle is designed to leverage the optimization work done for games on the next generation consoles, and furthermore Mantle can even use the Direct3D High Level Shader Language (HLSL), the high level shader language Xbox One shaders will be coded against in the first place.
Kortom, Anandtech vond genoeg 'hints' om te denken dat het een console-API was. Zo is AMD's materiaal geschreven, volgens Anandtech. Dat is dus wat ik zei.

[Reactie gewijzigd door Scalibq op 7 juni 2015 18:31]

Heel simpel, het is aan Microsoft om te vertellen wat voor Low-level API's ze gebruiken op de Xbone, niet aan AMD. AMD lanceerde Mantle als low-level API voor de PC. Wat schrijvers van verschillende sites dan gaan zitten speculeren, is hun eigen verantwoordelijkheid.

En als je dan toch al aan het speculeren bent, dan is het heel gemakkelijk om overal 'hints' te zien die er feitenlijk niet zijn. Dit wordt vaak veroorzaakt doordat begrijpend lezen een vak apart is en niet het sterkste punt van veel schrijvers van techsites.
AMD lanceerde Mantle als low-level API voor de PC.
Waar blijkbaar in het marketing-materiaal alles ging van "console dit, Xbox dat, HLSL zus, D3D zo". Aldus Anandtech.
Maar dat is een aanname en dat lijkt me innditnsoort discussies niet zo handig bij .

Sites nemen elkaar's berichten wel eens over.

Maar het heeft geen nut om hierover te speculeren zonder de kit zelf in te kunnen zien.
Sites nemen elkaar's berichten wel eens over.
Het waren grote sites als Anandtech, Extremetech, Tomshardware etc, die direct met AMD hebben gepraat.
Zoveel 'speculatie' is het dus niet. Die sites hebben gewoon het verhaal opgeschreven dat ze van AMD hebben gekregen.
Ook achteraf heeft AMD ze niet verbeterd, dat zegt ook al weer genoeg. AMD vond het blijkbaar wel prima dat iedereen dacht dat de API ook op consoles gebruikt werd.
Het was Microsoft die deze onzin moest rechtzetten: http://blogs.windows.com/...ng-the-bar-with-direct3d/
The Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One.

[Reactie gewijzigd door Scalibq op 7 juni 2015 11:28]

Ja de geruchten kent iedereen. En soms zijn ze nergens op gebaseerd.

Maar in dit geval denk ik wel dat er een groot deel van waar is.

Ik zie AMD niet met een volledig nieuwe lineup komen.

Dat komt bij de volgende generatie pas weer.
Welke overigens gewoon op de GCN architectuur wordt gebaseerd daar deze nog steeds optimalisatie geniet, zie ook:

http://www.neogaf.com/forum/showthread.php?t=1058295

De reden dat Nvidia aan performance inlevert is omdat ze 2 verschillende GPU architecturen moeten ondersteunen, waarbij moet worden opgemerkt dat vooral Kepler GPU's minder optimalisatie genieten. Bij AMD is dat een stuk makkelijker, alles is dezelfde architectuur, ook bij consoles. Niet voor niets heeft AMD zelf aangegeven dat het zijn architectuur (net als voorganger Terascale) voor de lange adem maakt, ipv om de 2 jaar een compleet nieuwe GPU architectuur uit de grond te stampen. Maar lees je ergens een opmerking van Scali die hier op ingaat? Neen, want het plaatst Nvidia in een negatief daglicht.

Net zoals je hem ook niet hoort wanneer Nvidia GTX 970's adverteert als zijnde 4 GB ram terwijl dat in de praktijk anders is of dat er een leugentje om bestwil wordt verteld door te stellen dat diens Tegra X1 1 teraflop heeft. Ja, maar dat is wel FP16, niet FP32 waar de rest mee werkt. Dat wordt alleen maar vermeld in hun whitepaper, niet in hun advertenties. Logisch ook, want 1 TF klinkt veel boeiender dan 1 TF, op FP16. Dat hij als programmeur nog nooit van FP16 heeft gehoord is dan raar te noemen, zeker als het van iemand af moet komen van wie hij stelt ''Je begrijpt niks van technologie'' ;)
Wat bedoel je met dat nVidia inlevert omdat ze twee verschillende architecturen moeten ondersteunen?

Volgens mij is maxwell gewoon een doorontwikkeling van Kepler.
Bij GCN zijn de stapjes alleen wat kleiner maar het effect is ongeveer hetzelfde.

Zelde wordt er geen grote architectuur switch gedaan. Zie ook AMD's vorige architectuur VLIW5. Die is erg lang mee gegaan. Toen is er nog even VLIW4 geweest maar daar na GCN.

Van de 9700 Pro tm in ieder geval de X800 was er een zelfde soort architectuur in gebruik. Ook deze is alleen uitgebreid verbeterd en de schaal is vergoot door meer units in een chip naast elkaar te zetten.
Wat bedoel je met dat nVidia inlevert omdat ze twee verschillende architecturen moeten ondersteunen?
Dat het voor Nvidia meer moeite is om 2 architecturen tegelijkertijd te ondersteunen. Je ziet nu dat Maxwell, als huidige architectuur, nog netjes wordt bijgehouden, maar bij Kepler treedt er performance verlies op.
Volgens mij is maxwell gewoon een doorontwikkeling van Kepler.
Nee, Maxwell is geheel nieuw. Waar zou uit moeten blijken dat het een doorontwikkeling is? Dat was bij ATI's R300 en R420 wel zo, maar bij Maxwell niet.
Bij GCN zijn de stapjes alleen wat kleiner maar het effect is ongeveer hetzelfde.
Het blijft grotendeels dezelfde architectuur. AMD doet inderdaad zeer lang met zijn tech. Nvidia heeft daar een andere benadering van.

Voor de rest eens met je reactie.
Ik snap alleen nog steeds niet wat voor een probleem dit voor nVidia is? hooguit wat driver tweaks maar dat geld voor AMD net zo goed. GCN1.2 kan ook dingen die bv Maxwell kan die GCN1.0 niet kan.

Dit is een quote van Anandtech over de Maxwell 1 Architectuur:
Maxwell then is an interesting take on NVIDIA’s designs that does not radically alter NVIDIA’s architecture, but has had every accommodation made to improve energy efficiency. The result is a Kepler-like architecture with a number of small design tweaks that improve efficiency in some manner. As NVIDIA tells it, there is no single aspect of Maxwell that is disproportionally responsible for NVIDIA’s energy improvements, but rather it is the culmination of these small changes. Through these changes NVIDIA has been able to come close to doubling their performance per watt versus Kepler, which is nothing short of amazing given the fact that all of this is being done on the same 28nm process as Kepler.
http://www.anandtech.com/...-geforce-gtx-980-review/2

Dus min of meer Kepler maar dan met een veel betere performance per watt. Design density is ook toe genomen waardoor er meer transistors in 1mm2 oppervlak kunnen stoppen. En ze hebben de verhoudingen binnen de chip wat aangepast maar dat heeft AMD bij de stap van GCN1.0 naar 1.1 ook gedaan.

Ze hebben natuurlijk ook nog wat wat andere kleine tweaks door gevoerd maar in de basis is het wel een Kepler design. Het verschil tussen Fermi en Kepler is qua architectuur veel groter.

Maxwell 2 heeft nog weer wat meer features toegevoegd gekregen dan bij Maxwell 1 al het geval was.

[Reactie gewijzigd door Astennu op 7 juni 2015 23:56]

Ik snap alleen nog steeds niet wat voor een probleem dit voor nVidia is?
Als ik de impressie hebt gewekt dat ik dit als een probleem voor Nvidia beschouw, mijn excuses. Mijn punt was vooral dat Nvidia twee architecturen moet ondersteunen en dat dit meer werk is dan 1 algehele architectuur zoals AMD.
GCN1.2 kan ook dingen die bv Maxwell kan die GCN1.0 niet kan.
True. Dat ontken ik ook niet :) At the end of the day is er nog geen enkele kaart op de markt die alle features ondersteunt. En voor games is dat vooralsnog niet nodig - Je ziet nu pas dat DX11 een minimum requirement wordt bij games.
Dus min of meer Kepler maar dan met een veel betere performance per watt. Design density is ook toe genomen waardoor er meer transistors in 1mm2 oppervlak kunnen stoppen. En ze hebben de verhoudingen binnen de chip wat aangepast maar dat heeft AMD bij de stap van GCN1.0 naar 1.1 ook gedaan.
Dan zou oftewel de wikipedia pagina over Maxwell dat moeten reflecteren of dat zou Nvidia als zodanig moeten vertellen. Want dat is anders nogal verwarrend te noemen, er wordt immers constant gesproken van een geheel nieuwe architectuur. Zou het meer raakvlakken hebben met Kepler dan R420 met R300 was verweven?
Maxwell 2 heeft nog weer wat meer features toegevoegd gekregen dan bij Maxwell 1 al het geval was.
Maar die vallen wel onder dezelfde paraplu, een beetje hoe alle GCN tussenstappen allemaal onder dezelfde naam vallen, toch?
Maar dat heeft gewoon met de nieuwe features van maxwell te maken waardoor maxwell. EfficiŽnter om kan gaan met geheugen bandbreedte want Kepler kon soms wel wat meer gebruiken.

En wellicht doet Nvidia ook wel minder moeite om die drivers te optimaliseren dat zou kunnen.
En wellicht doet Nvidia ook wel minder moeite om die drivers te optimaliseren dat zou kunnen.
Het schijnt in dit geval echt om een bug te gaan, waar oudere drivers op Kepler beter presteren in dezelfde games.
Tenminste, dat is wat nVidia erover heeft gezegd op hun forum. Ze zouden met een driver-update gaan komen die dat rechtzet.
Het schijnt dat de 353.06 drivers deze fix hebben:
http://us.download.nvidia...desktop-release-notes.pdf
Implements optimizations and bug fixes that provide increased performance for Kepler-based GPUs.
Maar misschien hebben ze nog niet alles opgelost.
Ik heb het zelf allemaal niet zo bijgehouden.
In day geval gewoon even de oudere driver installeren.

Domme fout (zou je bij interne tests gezien kunnen hebben) maar kan natuurlijk gebeuren.
Nou, blijkbaar wordt het echt een persoonlijke hetze... Je zit mij nu ook al (onterecht) zwart te maken in posts naar andere mensen toe, en haalt me bij dingen waar ik helemaal niets mee te maken heb.
Vooral doorgaan zo!
knip en plaktijd
  • Fermi t/m Maxwell 1 (750 Ti) voldoen maar nťt aan DX12 - FL 11_0
  • GCN voldoet aan Šlles t/m 12_0 - alleen de meest recente features in 12_1 niet, omdat GCN daar te "oud" voor is. GCN 1.0 zit op 11_1, GCN 1.1 en 1.2 zitten op 12_0.
  • Maxwell 2 (900 serie) voldoet wel aan 12_1, maar mist 11_2 waardoor ze technisch gezien beperkt zijn met enkele features
  • Maxwell 2 en GCN zullen vrijwel even veel voordeel hebben, ondanks dat geen van beide "compleet" is
  • Een GPU die aan 11_0, 11_1, 11_2, 12_0 en 12_1 voldoet en dus volledig DirectX 12 compliant is, bestaat niet :+
  • Het komt er op neer dat geen van beide alles ondersteunt. Nvidia mag dan wel FL 12_1 ondersteunen, ze hebben ook een stel beperkingen waardoor GCN met veel andere taken veel flexibeler en vooral efficiŽnter is. En in tegenstelling tot Nvidia gaat dat dan ook ruim 3 jaar terug.
http://gathering.tweakers...message/44359417#44359417

Zegt eigenlijk toch wel genoeg.

Waarom Nvidia de eerste is die 12_1 haalt? Dunno, misschien wel omdat AMD nog geen nieuwe videokaarten uitgebracht heeft, of is dat te logisch?

En slechts 11_1 op sommige kaarten, ja, zou dat misschien kunnen komen omdat er nog wat vrij oude kaarten tussen zitten?(welke waarschijnlijk einde verhaal zijn over 2 weken) of is dat ook weer te simpel gedacht van mij?

Het is toch wel heel vreemd hoor, dat het bedrijf met een nieuwer model dingen kan die een bedrijf met een oud model nog niet kan. Dat is toch zo raar, nieuwe dingen moeten gewoon steeds minder dingen kunnen. Less is more! O-)
Ik denk dat nV lobbiet bij MS om dat wat hun niet ondersteunen uit de verplichte feature set te halen.
Wat ze bij DX10.0 ook al eens gelukt is. En hun prille Vista drivers ook nogal tegen vielen tov ATI

Op zich is het logisch dat MS daar op in gaat. De mainstream de meest gemene deler is het belangrijkste. Specifieke features zijn gedoemd om optioneel te zijn. De gross van gamedevelopers mijden optionele features.
Dat gold voor matrox bump mapping
Maar ook wat ATI nV AmD door de jaren boden.

Dus dat MS toch nV volgt verbaasd mij niet. Maar blijkbaar is AMD niet zoon bedrijf dat API sloopt maar liever innoveert.
Ik denk dat nV lobbiet bij MS om dat wat hun niet ondersteunen uit de verplichte feature set te halen.
Niet alleen NV natuurlijk... Allemaal doen ze dat. Intel nog het hardst, want die ondersteunt het minst.
Wat ze bij DX10.0 ook al eens gelukt is.
Dat was vooral Intel, die MSAA eruit heeft gehaald, en dus ook multisample readback.
nVidia ondersteunde dat al wel in hun DX10.0 devices, en deze kunnen ook in een soort pseudo-DX10.1-modus draaien via een call in de NVAPI. Er zijn een aantal games die daar gebruik van maken, om DX10.1-effecten te draaien op DX10-kaarten van nVidia.
Maar blijkbaar is AMD niet zoon bedrijf dat API sloopt maar liever innoveert.
Vreemde conclusie, aangezien AMD ook features mist. Features die innovatiever zijn dan wat nVidia mist.
AMD riep niet dat er geen ontwikkeling was, maar dat er geen innovatie was, twee totaal verschillende zaken en uit laatstgenoemde is Mantle ontstaan. Ontwikkeling hou je altijd wel; het moet immers altijd kleiner + zuiniger en als het een beetje kan, nog beter presteren dan de vorige.

AMD heeft met Mantle dus eerder wat teweeggebracht, waardoor nu dus DirexctX 12 komt. Zonder Mantle had het er wellicht anders eruit gezien. Daarnaast is DirectX 12 een algemene API en is Mantle dat niet, dus voor programmeurs is DirectX 12 makkelijker voor te programmeren dan Mantle toe te voegen, waarbij een groot deel van de markt niet eens gebruik kan maken hiervan en straks wel van DirectX 12.
Semantisch geleuter.
Ik bedoelde natuurlijk ontwikkeling in de zin van nieuwe features.
Als die er niet is, is er ook geen nieuwe API nodig, want de oude voldoet.
Ontwikkeling van nieuwe features, juist dat is innovatie. Dat heeft niets met semantisch geleuter te maken, ik begreep immers wat je bedoelde, daardoor kon ik zeggen dat je innovatie bedoeld ipv ontwikkeling. ;)
Maar blijf het vooral volhouden, net als al die andere AMD fanboys die me weer bestoken met replies, totaal negerend wat ik de afgelopen maanden/jaren al heb gepost, en waar keer op keer dingen waar van blijken te zijn.
Helaas voor jou, heeft deze AMD "fanboy" een nVidia GPU in zijn PC (zie mijn inventaris) zitten sinds enkele maanden, dus wellicht even je alu hoedje afdoen en doemdenken maar even te laten voor wat het is, leg dan jouw aannames daar ook maar bij. ;) Vreemd dat je dan niet bij AMD of nVidia werkt, als het toch elke keer klopte? Ik denk eerder dat jij de AMD fanboy bent, als ik zo jouw reacties zie van de frontpage.

[Reactie gewijzigd door CH40S op 5 juni 2015 16:46]

Zonder innovatie komt er geen verandering (of verbetering) in nieuwe features. Hoever jij dus denkt dat het semantisch geleuter is moet jij weten, maar stilstaan is achteruitgang in de IT. Ik was dus niet bezig om nogmaals mijn gelijk proberen te halen, ik wilde mijn punt verder verduidelijken, maar succes met je "ontwikkeling" verder.

[Reactie gewijzigd door CH40S op 5 juni 2015 17:01]

Maar waarom resources verspillen aan een Mantle ipv ze te bundelen in DirectX12 en Vulcan ?
Zo'n marketingtrucs zijn enorm duur en AMD kan het geld goed gebruiken.
Ja, want er was voor nvidia blijkbaar ook helemaal niet nodig om aanpassingen aan de hardware door te voeren...
De 700 serie van nvidia die rond dezelfde tijd is uitgekomen als de 2xx serie ondersteund precies dezelfde dx12 featureset als AMD...
De 900 serie die een jaar later uit is gekomen dan de laatste gpu's van AMD zijn ook pas de eerste nvidia gpu's die de volledige dx12 featureset ondersteunen...

En aangezien er nog steeds niets officieel bekend is over de nieuwe generatie gpu's van AMD valt daar nog weinig over te oordelen...
De 7xx serie ondersteunt aanzienlijk minder dan GCN1.0.
Namelijk alleen 11_0.

GCN doet volgens mij 11_0, 11_1 en 11_2
GCN1.1 en 1.2 doen ook nog 12_0
De nieuwe 3xx serie is nog niet uit. Maar als dat rebrands zijn hebben ze de boot niet gemist maar is het gewoon oud spul met een nieuwe naam.

Als de nieuwe Fiji chip het niet heeft hebben ze de boot wel gemist.

En leuk dat nVidia de update uitvoert voor de top modellen. Als Fiji het ook heeft zijn ze dus gelijk. Ook nVidia heeft tot nu toe geen hele lineup die het ondersteunt. Dus zo veel beter zijn ze dan ook niet bezig. Maar even afwachten wat AMD over 2 weken uitbrengt.

Zelf frees ik dat alleen de Fiji chip echt nieuw is.
En ik hoop een beetje dat ze alleen Tonga, Hawaii en Bonaire rebranden. En die GCN1.0 GPU's er uit gaan laten. Liever helemaal geen rebrands maar vrees dat dat hem niet zal worden.
De nieuwe 3xx serie is nog niet uit. Maar als dat rebrands zijn hebben ze de boot niet gemist maar is het gewoon oud spul met een nieuwe naam.
Oud spul heeft per definitie de boot gemist natuurlijk :)
En leuk dat nVidia de update uitvoert voor de top modellen. Als Fiji het ook heeft zijn ze dus gelijk. Ook nVidia heeft tot nu toe geen hele lineup die het ondersteunt.
Zoals gezegd, even afwachten, maar nVidia heeft de lat toch wel redelijk hoog gelegd. Alles 960 en hoger is 12_1.
Als de geruchten kloppen dat alleen Fiji nieuw is, dan is het aanbod van nieuwe GPUs sowiseo al minder breed dan dat van nVidia.
Daarnaast blijft het natuurlijk afwachten of Fiji wel 12_1 doet.
Nvidia heeft dan een wat grotere lineup met kaarten die 12_1 ondersteunen. Maar Nvidia mist wel weer 11_2.

Het is inderdaad ook nog afwachten of de Fiji gpu 12_1 krijgt. Zo ja is het de eerste gpu die DX12 volledig ondersteund.

Over 1 week weten we meer.
Nvidia heeft dan een wat grotere lineup met kaarten die 12_1 ondersteunen. Maar Nvidia mist wel weer 11_2.
Zoals ik elders al zei, vind ik 12_1 een veel groter gemis dan 11_2.
12_1 kan echt een behoorlijk verschil maken in het toepassen van dynamische global illumination en realtime raytraced effecten.

11_2 is in feite dit verhaal: https://msdn.microsoft.co...n899127%28v=vs.85%29.aspx

Dus iets minder beperkingen bij het adresseren van resources.
In de praktijk is dat niet zo heel spannend (zoals je ziet, de limieten per stage zijn ook in TIER2 al best ruim). En het zal nVidia waarschijnlijk ook niet zo veel moeite kosten om die beperkingen in een 'Maxwell v3' op te lossen.
Hier en daar wat buffertjes en registertjes oprekken, veel meer stelt het niet voor.

Je kunt eigenlijk niet eens spreken van 'features', want ook met TIER1 of TIER2 kun je wel van alle grafische functionaliteit gebruikmaken.
Het is vergelijkbaar met een videokaart die 2 GB heeft, tegenover eentje die 4 GB heeft.
Met die van 2 GB loop je wel eerder tegen een limiet aan, maar maakt dat de kaart minder compatible met DX12? Hij kan gewoon alles, totdat je tegen de max aan loopt.

[Reactie gewijzigd door Scalibq op 8 juni 2015 13:58]

Ben ik met je eens.
Maar onbelangrijk is het ook niet. Net als met de features van 12_1 geld ook voor deze dat als de ontwikkelaar dit gaat en wil gebruiken dit grote gevolgen heeft voor de prestaties van kaarten die dit niet kunnen.

Maar aangezien Nvidia dit niet kan zal geen een twimtbp game dit gaan gebruiken. Daar zal Nvidia dan wel voor zorgen.
Maar onbelangrijk is het ook niet. Net als met de features van 12_1 geld ook voor deze dat als de ontwikkelaar dit gaat en wil gebruiken dit grote gevolgen heeft voor de prestaties van kaarten die dit niet kunnen.
Nee.
Ten eerste, bij Tier1/Tier2/Tier3 heb je het niet over features. Het is puur een limiet op het aantal resources dat je tegelijkertijd kunt binden. Zoals ik al zei, zolang je niet tegen die limieten aanloopt, is er geen verschil, en renderen alle kaarten precies hetzelfde, net zo efficient etc.
En ik denk dus dat de limieten van Maxwell v2 de komende jaren nog wel ruim genoeg zijn voor alle gangbare algoritmen. Het gaat in feite om hoeveel textures/buffers je tegelijk kunt gebruiken. Nou, wanneer gebruik je echt tientallen textures tegelijk? Zo'n drama is het dus niet.

Ten tweede, die features zijn er, of die zijn er niet.
Als ze er niet zijn, kun je ze ook niet gebruiken. Dat is dus WEL een verschil.
AMD's hardware *kan* gewoon geen conservative rasterization en ROV.
Dus moet je een ander algoritme kiezen, wat trager en/of minder mooi is.

[Reactie gewijzigd door Scalibq op 8 juni 2015 14:06]

Wanneer denk jij dat de eerste games komen die die 12_1 features gaan gebruiken?

In het verleden kon het heel lang duren voordat die mogelijkheden van kaarten in games benut werden. Zou mij niet verbazen als de volgende generatie kaarten dan al weer uit is.
Wanneer denk jij dat de eerste games komen die die 12_1 features gaan gebruiken?
Ik vermoed dat UE4 er al bij launch gebruik van maakt, omdat ze al bepaalde volumetric light/GI-algoritmen gebruiken die vrij gemakkelijk uit te breiden moeten zijn naar een implementatie met conservative rasterization.
Dus dan is het wachten op de eerste games die UE4 gebruiken.
Ik ben benieuwd. De techdemo's van die engine zagen er erg goed uit!
Kleine voorspelling: De volgende demo van nVidia gebruikt dus exact die twee 12.1 features die AMD nog mist om de massa te overtuigen dat AMD hopeloos achterloopt. Terwijl in een real-world scenario die 12.1 features nooit gebruikt zullen worden (tenzij nVidia dat graag wil van een studio, a la GameWorks integratie)....
Let op! 12.1 != 12_1 (let op de underscore)

Ik verwijs even naar een forumpost van Werelds, die legt het haarfijn uit :) -> http://gathering.tweakers...message/44359417#44359417
Nvidia betaald studio's gewoon om er een soort van exclusive van te maken.
Ik snap de hele hype niet zo rond direct x12.. en dat het exclusief voor windows 10 is is al helemaal van den zotte.
De hype rond DX12 is omdat het belooft dat hardware een stuk efficiŽnter gebruikt zal kunnen worden :)
Idd en dat zal op de meeste niet al te oude videokaarten ook zo zijn. Alleen de nieuwe grafische effecten zullen alleen op de nieuwste grafische kaarten werken(970/980, R390(X)?).
Nvidia betaald studio's gewoon om er een soort van exclusive van te maken.
Allemaal leuk en aardig, die verdacht makerij. Kun jij ons een URL geven waar een bedrijf eerlijk zegt: "nVidia heeft ons X miljoen betaalt om 35% van onze klanten te naaien".

AMD is in de problemen. D'r is een hoop meer aan de hand dan gewoon zeggen "nVidia speelt vals".
Ik kan je helaas geen link geven maar het is geen verdacht makerij, wat denk jij waarom in sommige spellen zo'n leuk nvidia logo inbeeld komt, daar betalen ze gewoon voor. Zelfs op android met de tegra exclusive spellen deden ze hetzelfde.
Een logo in beeld brengen, dat heet reclame. Ik kan me ook indenken een game-developer extra samenwerkt met nVidia, om er voor te zorgen dat zijn game extra smooth draait. Op nVidia kaarten. Het programmeren van videokaarten is echt niet zo gemakkelijk.

Het lijkt er op dat AMD-gebruikers graag denken dat zulke game-developers staan te juichen om hun spel onspeelbaar te maken op AMD videokaarten. Dat is toch lulkoek ! Als dat zo zou zijn, dan was er vast allang een individu ergens die daar bewijzen voor naar buiten zou hebben gebracht. AMD is 35%-40% van de markt. Je gaat toch niet speciaal je eigen markt verkleinen ? Je gaat toch niet express je eigen naam te grabbel gooien.

Hoeveel moet nVidia dan wel niet betalen ? Per spel. Volgens jou.

(En aan de mod die mijn post met een simpele vraag met -1 beloonde: afnemen die mod-privileges).
Ach, AMD sluit ook deals met studios.
Allemaal leuk en aardig, die verdacht makerij. Kun jij ons een URL geven waar een bedrijf eerlijk zegt: "nVidia heeft ons X miljoen betaalt om 35% van onze klanten te naaien".
Nee natuurlijk niet, dat mogen ze toch niet zeggen :+
Zo gek is dat niet eens, grote kans dat de geldkraan direct dicht gaat, en de rechtzaken voor smaad, laster etc etc er ook direct aan komen.
Kon jij 6 jaar terug een artikel vinden met daarin een verklaring van een winkel dat ze X geld van Intel hebben gehad om geen AMD te verkopen?

tuurlijk niet, maar dat de artikelen er niet zijn, betekend dat dan dat het niet waar is?
...en dat het exclusief voor windows 10 is is al helemaal van den zotte.
Hoezo? DX10 was toch ook niet beschikbaar voor Windows XP, bijvoorbeeld?
Wanneer DX12 straks uit komt is de R9 2xx serie 2 jaar oud en ondersteunen ze nog steeds het grootste aantal features. Helemaal geen slechte prestatie volgens mij.
Ondertussen concureren ze nog steeds prima met de nvidia 9xx serie.

Tevens is de 3xx serie absoluut wel veelbelovend en gaat HBM zeker het e.e.a. veranderen.
Ook in vergelijking met nvidia wordt hier veel van verwacht zoals ook te lezen is in deze conclusie: http://www.tomshardware.c...e-gtx-980-ti,4164-11.html

Voor nu is nvidia misschien nog de koning qua performance en verbruik, maar de kans is behoorlijk aanwezig dat deze heerschappij maar erg kort gaat duren.
Ondertussen delven ze commercieel gezien ook al op dit moment hier en daar het onderspit ondanks een veel nieuwer aanbod.

edit: juiste link geplaatst

[Reactie gewijzigd door xSNAKEX op 5 juni 2015 16:39]

Hbm zit alleen op de fury kaarten , niet op de r9 kaarten.
Graag een bron hiervan? Vindt op meerdere plaatsen dat het op de r9 380X en 390(X) gaat komen (waar ook het Tomshardware artikel van uit gaat...)

http://nl.hardware.info/n...-45x-sneller-hbm-geheugen

Anders zullen we het over 2 weken gaan zien ;-)

[Reactie gewijzigd door xSNAKEX op 5 juni 2015 16:42]

Die bronnen van jou zijn uit 2014, toen wist men nog niet van de Fury serie. De 390 zal gewoon een rebranded hawaii chip van de 290 worden,
Deze prijslijst bevestigt tevens de vorige geruchten over de topmodellen van de R9 300-serie. Zo zouden de R9 390 en R9 390X uitgerust worden met 8 GB aan GDDR5-geheugen, waar hun voorgangers over 4 GB beschikten. De Grenada-GPU is een rebrand van de Hawaii-chip. De kloksnelheid voor de nieuwe kaarten is nog niet bekend.
Op dezeflde site: http://nl.hardware.info/n...n-r9-300-serie-lekken-uit
of lees wat artikelen op WCCtech, videocardz etc.
grenada is een rebrand van de hawaii chip, alleen de fury's krijgen een echte nieuwe chip. Dus daarom denk ik dat.
Ondertussen delven ze commercieel gezien ook al op dit moment hier en daar het onderspit ondanks een veel nieuwer aanbod.
Dat zie ik en de meesten toch anders. http://www.overclock3d.ne...ut_of_4_use_nvidia_gpus/1
De AMD Market Share Crash.
Op de markt voor discrete grafische kaarten heeft Nvidia een drie keer zo hoog marktaandeel als AMD.
Het marktaandeel van AMD op deze markt is ook in rap tempo aan het dalen.
Verder is het totale budget dat AMD aan R&D besteedt (CPU & GPU divisies samen) op het moment veel kleiner dan het R&D budget van Nvidia voor GPU's alleen. Dat is natuurlijk ook tekenend. Zie bijvoorbeeld: http://wccftech.com/amd-budget-lowest-10-years/ of ťťn van de honderden andere artikels die hierover gaat.

Lees ook eens ťťn van de vele analyses van de GPU-markt, die vrijwel allemaal zeer pessimistisch zijn over de kansen van AMD. Zoals deze:
http://www.investopedia.c...hare-nvidia-amd-nvda.aspx
The bottom line is that even if AMD manages to close the GPU performance gap with NVIDIA later this year, it will almost certainly fall significantly behind again at some point in 2016. Given NVIDIA's bigger R&D budget, it's hard to see how AMD will fare any better in future product generations.

This means that AMD will continue to have trouble penetrating the high end of the GPU market, where the margins are highest. It also means that any GPU market share gains for AMD in the coming year are likely to be fleeting.

[Reactie gewijzigd door dusty-2011 op 5 juni 2015 17:32]

Ik zelf ben zeer geintereseerd in astronomie. En ik denk aan het renderen van nebula in 3D mode je er flyby doet. Zoals in die Documentaires.

Zelf denk ik dat fog render variaties gemeden worden. Aangezien dit gameplay kan beinvloeden online.
De ene speler ziet de ander maar niet visa versa door render settings.
Ik mag aannemen dat de 750 en 750ti ook 12_1 ondersteunen gezien dit ook Maxwell chips zijn?
Nope, dit is Maxwell 1.0 welke alleen 11_0 en gedeeltelijk 11_1 ondersteund. Alleen de Maxwell 2.0 kaarten (dus alle kaarten gebaseerd op een GM2xx GPU) ondersteunen het volledige 12_0 en 12_1 profiel. Het 12_1 profiel wordt dus ondersteund door de GeForce GTX 960, 970, 980, 980 Ti en Titan X.

Verder ondersteunen dus ook alleen de GNC 1.1 (HD 7790, R7 260(X), R9 290(X), R9 295X) en GNC 1.2 (R9 285) GPU's van AMD 12_0, de rest moet het ook met 11_1 doen.

Edit: Waarom doe ik Łberhaupt nog een poging :P. Lees de forumpost van Werelds! :)

[Reactie gewijzigd door Balance op 5 juni 2015 15:45]

Nee dat is Maxwell V1, die ondersteunen minder features dan V2(900 series)

Overigens wel jammer van Nvidia voor kaarten uit 2014

[Reactie gewijzigd door !mark op 5 juni 2015 15:56]

Ik heb eergister men R9 290 binnen gekregen. Schrok al :p.
Aan de andere kant wel weer netjes dat ze ze gewoon als 700-serie hebben gelabeld, en dus niet de suggestie hebben gewekt van "Dit is een nieuwere chip, dus die zal wel meer kunnen."
Featureset komt overeen met de rest van de 700-serie.
AMD daarentegen heeft wel GCN1.0 en GCN1.1 gerebrand naar nieuwere series waar ook GCN1.2 in voorkomt, wat erg verwarrend is, om niet te zeggen misleidend.
Dat zeker, maar ik bedoel meer dat het erg jammer is dat een chip uit feb. 2014 niet verder komt dan Functieniveau 11.0, waar een AMD uit dec. 2011 al 11.1 doet.

Maar goed een GTX750ti zal tegen die tijd toch al niet echt meer meekomen met de nieuwste games, dus echt een probleem zal het zijn, een 780ti daarintegen is dan meer een verhaaltje jammer en helaas.
Dat zeker, maar ik bedoel meer dat het erg jammer is dat een chip uit feb. 2014 niet verder komt dan Functieniveau 11.0, waar een AMD uit dec. 2011 al 11.1 doet.
Jammer, maar ook weer niet heel verrassend.
nVidia kiest er blijkbaar voor om grote stappen ineens te maken.
Zo hebben ze ook DX10.1 bijna compleet links laten liggen, en zijn ze voor het grootste deel direct van DX10.0 naar DX11.0 gesprongen.
DX10.1 was vooral AMD's feestje.
Nu ook weer is DX11.1/DX11.2 vooral het ding van AMD, en maakt nVidia de sprong naar 12_1.
Maar goed een GTX750ti zal tegen die tijd toch al niet echt meer meekomen met de nieuwste games, dus echt een probleem zal het zijn, een 780ti daarintegen is dan meer een verhaaltje jammer en helaas.
Ik neem aan dat ook niemand dat verwacht.
Het is gebruikelijk dat er bij een nieuwe versie van DX ook een nieuwe lijn hardware wordt gelanceerd. Het is vrij ongebruikelijk dat de hardware al een tijd op de markt is voordat de nieuwe DX komt. Dus wat dat betreft is nVidia juist uitzonderlijk vroeg met Maxwell v2.
Vaak is 1 van de fabrikanten juist vele maanden te laat (zoals nVidia met de GTX480, of ATi met de Radeon 2900).
Hoewel ik net een GTX970 heb aangeschaft (en dus 'goed zit') is dit slecht nieuws. Competitie is goed voor de consument. nVidia wordt steeds sterker en AMD steeds zwakker, dat is voor ons allemaal op termijn niet goed... Ik ben benieuwd wat AMD nu met Mantle gaat doen...
AMD heeft Mantle gedoneerd aan Khronos voor Vulkan (OpenGL). De game developpers die Mantle in hun engine hebben ingebouwd hebben o.a. daardoor het voordeel dat ze Vulkan veel sneller kunnen implementeren omdat het haast hetzelfde is als Mantle. Waarschijnlijk is dit vice versa, maar of Mantle nog in nieuwe game engines wordt gedaan weet ik niet het blijft in ieder geval voor een nog onbepaalde tijd worden ondersteunt in de engines die het nu al hebben.

Bron (erg lang om te kijken maar wel interessant :P):
https://www.youtube.com/watch?v=QF7gENO6CI8
AMD adviseert om te gaan voor DX12, support is er voor producties die al mantle gebruiken. Maar wil je beginnen met mante dus niet.
Zullen we de laatste generatie videokaarten van AMD dan naast de nieuwe generatie Nvidia leggen?!?De R390X vs GTX980 TI dan dus, daar ze allebei recent zijn uitgebracht en beschikken over de laatste architectuur van de respectivelijke fabrikant?

Laten we gewoon de benchmarks afwachten, en zien wat de devs met de kaarten kunnen zodra het laatje met 'low-level hardware access' opengedaan wordt.

Het is goed om te weten dat de oude GCN kaarten niet volledig DX12 ondersteunen, hoewel men dit had kunnen gokken aangezien een deze architectuur ruime bestond voor MS er ook maar over had nagedacht DX12 uit te brengen. Dat de oudere kaarten van Nvidia ook geen volledig hardware support heeft voor DX12 is ook precies even vreemd: totaal niet dus...

Wel bijzonder is dat de laatste paar functies uit de laatste DX versie alleen ondersteund worden op de nieuwste generatie Nvidia kaarten, waar de AMD hier een steek laat vallen. Dat de functie niet verplicht is en er mogelijk een betere low-level optie te realiseren is, doen daar niet aan af.

Nvidia heeft echter ook geen volledige ondersteuning. Het lijkt een beetje hetzelfde verhaal als met de shaders 9.0b en 9.0c. Uiteindelijk heeft dit ook weinig tot zo goed als geen noemenswaardig verschil opgeleverd. de 9.0b support van AMD was vele malen beter dan die van Nvidia maar de laatste had weer in enkele AAA tites support voor 9.0C waardoor sommmige effecten dus weer beter draaide dan op de 9.0b hardware
Dat klopt mijn 8500DV kon BF2 wel draaien FX5800 niet.
PS1.4
FX5800 ondersteunt ook PS1.4 (en zelfs PS2.0). Weet niet waar je het over hebt?
Moest zijn geforce4 de 8500 tegenhanger. Die ondersteunde PS1.4 niet 9500 is 5700 tegen hanger.

Maar ja minimum was niet te pruimen snel geupgrade toen naar 9500Pro.
Ja, de FX-serie is heel traag in PS2.0, en er werd daarom vaak aangeraden om in PS1.4-mode te draaien.
De Radeon 8500 deed wel PS1.4, maar was ongeveer even snel als een GeForce3. De GeForce4 was in de meeste games een stuk sneller.
Totdat ATI met diens R300 aankwam en Geforce 4 gedegradeerd weerd naar een mid-budget klasse GPU. Niet voor niets bleef de R300 reeks ontzettend lang relevant, tot aan de X1050 aan toe. Pas met de Geforce 8800 hebben we een grotere sprong voorwaarts gezien in performance tov de tegenpartij - http://en.wikipedia.org/wiki/ATi_Radeon_R300_Series
Ja, en waarom post je dat?
Nou ja, 'ja' ook weer niet.
GeForce 6000 was een grote sprong voorwaarts van de FX-serie, en vanaf dat moment lag nVidia weer naast ATi qua performance en features.
De 8800 was juist een grote klap richting ATi, die met de 2x00 en 3x00 serie niet echt mee kon komen, en pas met de 4x00 weer een beetje competitief werd.
Maar toen met de 5x00 wel weer eerder DX11-support leverde dan nVidia.

Conclusie:
nVidia had met de GeForce FX de DX9-boot gemist, dat deed een tijd flink pijn.
ATi had met de Radeon 2900 de DX10-boot gemist, dat deed een tijd flink pijn.
nVidia heeft met de Geforce 480 de DX11-boot een beetje gemist, maar achteraf viel het mee.
AMD lijkt met de 3x0-serie de DX12-boot te gaan missen.

[Reactie gewijzigd door Scalibq op 7 juni 2015 14:55]

Ter verduidelijking dat de Geforce 4 niet lang de kroon had.
Ter verduidelijking dat de Geforce 4 niet lang de kroon had.
Was dat aan mij gericht? Want ik had in die tijd zelf een Radeon 8500, omdat ik features boven performance vond gaan.
Daarna overstapt op een Radeon 9600XT. GeForce 3/4/5 heb ik links laten liggen.
Leuk dat je je posts aanpast van een normale reactie naar weer een dialoog over hoe prachtig Nvidia is.
De 8800 was juist een grote klap richting ATi, die met de 2x00 en 3x00 serie niet echt mee kon komen, en pas met de 4x00 weer een beetje competitief werd.
Dat heb ik net ook al gezegd. Lezen.
Maar toen met de 5x00 wel weer eerder DX11-support leverde dan nVidia.
Je beweerde eerder dat het de 4000 reeks was die eerder DX11 support had. Toen ik je daarin corrigeerde, hoorde ik je er niet over.
nVidia had met de GeForce FX de DX9-boot gemist, dat deed een tijd flink pijn.
ATi had met de Radeon 2900 de DX10-boot gemist, dat deed een tijd flink pijn.
ATI had wel weer de eerste GPU met DX 10.1 support. Niet dat het relevant was in games, maar toch.
nVidia heeft met de Geforce 480 de DX11-boot een beetje gemist, maar achteraf viel het mee.
Inderdaad, achteraf. Net zoals jij nu niet vooraf kan lopen roepen dat AMD de boot met DX12 zal gaan missen. Dat is alleen maar speculatief.
AMD lijkt met de 3x0-serie de DX12-boot te gaan missen.
Gelukkig zeg je ´lijkt´, dus dat is helemaal open ter interpretatie wat de tijd zal uitwijzen.
Was dat aan mij gericht? Want ik had in die tijd zelf een Radeon 8500, omdat ik features boven performance vond gaan.
Daarna overstapt op een Radeon 9600XT. GeForce 3/4/5 heb ik links laten liggen.
Ik reageer op jou, dus ja. Radeon 8500 en Geforce 2 vind ik persoonlijk boeiende GPU qua techniek. En uiteraard ATI Xenos.

[Reactie gewijzigd door Redneckerz op 7 juni 2015 15:07]

Leuk dat je je posts aanpast van een normale reactie naar weer een dialoog over hoe prachtig Nvidia is.
Nee hoor, ik vond je alleen VEEL te makkelijk over de Geforce 6/7-serie heen stappen.
En ook nu weer is het allemaal ATi-ATi in jouw post.
Ik ben gewoon realist. Jij bent keihard pro-ATi.
Je beweerde eerder dat het de 4000 reeks was die eerder DX11 support had. Toen ik je daarin corrigeerde, hoorde ik je er niet over.
Waar heb ik dat gezegd? Dat zal dan wel een typo geweest zijn, want ik heb zelf destijds een Radeon 5000-kaart gekocht als eerste DX11-kaart, en heb daarmee m'n DX10-engine naar DX11 geport (wat overigens ook gedocumenteerd is op mijn blog). Dus dat weet ik echt wel.
Ik reageer op jou, dus ja. Radeon 8500 en Geforce 2 vind ik persoonlijk boeiende GPU qua techniek.
Ik ook blijkbaar.
Ik heb wel eens eerder mijn lijstje van 'greatest hits' van GPUs opgenoemd. Daar komt de GeForce2 ook wel in voor (of eigenlijk de GeForce256, wat in principe dezelfde techniek was), en de Radeon 8500, de Radeon 9700, de GeForce 8800, en natuurlijk PowerVR en de originele Voodoos.
Ja, *ik* ben wel vendor-neutraal, en dat kun je makkelijk overal terugvinden op het internet. Als je mijn development blogs leest, kun je precies terugvinden wanneer ik welke hardware gebruikte (en ook dat ik vaak testte op meerdere vendors, zelfs Intel). Ook reacties op verschillende (development)-fora laten zien welke hardware ik op een bepaald moment gebruikte, of wat ik wel/niet goed vond.
Dat ik nu toevallig in een 'nVidia-periode' zit, zegt weinig over mij, en alles over nVidia.

[Reactie gewijzigd door Scalibq op 7 juni 2015 15:21]

Nee hoor, ik vond je alleen VEEL te makkelijk over de Geforce 6/7-serie heen stappen.
Dat zal het zijn. Die zijn notabene van een generatie later dan R300, welke gewoon een refresh kon doen destijds. Maar als je het zo graag wilt horen: Ja, de GF6/7 reeks had ook weer een trits vernieuwingen, SM3.0 support also voornaamste reden. Destijds werden UE3 techdemos op GF 6800 gedraaid omdat dit de enige kaart was met SM 3.0 support. Zoals je ziet kost het mij helemaal geen moeite om Nvidia credits te geven wanneer dat gerechtvaardigd is.

Maar mijn reactie was over de R300, jij vindt het nodig om er een kaart van een generatie later erbij te halen :)
En ook nu weer is het allemaal ATi-ATi in jouw post.
Als je mijn reacties gewoon eens normaal leest ipv selectief te quoten had je kunnen weten dat ik Nvidia met diens Shield Console en Tegra X1 zeer goed vind. Daarnaast heb ik ook aangegeven dat AMD echt een streepje achterloopt met diens drivers.

Dat negeer je, want je wilt alleen maar lezen wat je zelf graag ziet.
Ik ben gewoon realist. Jij bent keihard pro-ATi.
Iedereen wijst je terecht maar jij bent degene die het correct heeft, sure.
Waar heb ik dat gezegd? Dat zal dan wel een typo geweest zijn, want ik heb zelf destijds een Radeon 5000-kaart gekocht als eerste DX11-kaart, en heb daarmee m'n DX10-engine naar DX11 geport (wat overigens ook gedocumenteerd is op mijn blog). Dus dat weet ik echt wel.
Scalibq in 'nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update'
DX11 was de Radeon 4x00,
- Niet dus. Maar wacht, het was een typo. AMD ligt nog steeds op achterstand ;)
Ik heb wel eens eerder mijn lijstje van 'greatest hits' van GPUs opgenoemd. Daar komt de GeForce2 ook wel in voor (of eigenlijk de GeForce256, wat in principe dezelfde techniek was), en de Radeon 8500, de Radeon 9700, de GeForce 8800, en natuurlijk PowerVR en de originele Voodoos.
Leuk voor je dat we blijkbaar dezelfde kaarten boeiend vinden. Al begrijp ik natuurlijk niks van technologie ;)
Ja, *ik* ben wel vendor-neutraal, en dat kun je makkelijk overal terugvinden op het internet.
Oke, laat maar zien dan. Ik lees in je reacties namelijk het tegenovergestelde. Burden of proof is on you :)
Als je mijn development blogs leest, kun je precies terugvinden wanneer ik welke hardware gebruikte (en ook dat ik vaak testte op meerdere vendors, zelfs Intel). Ook reacties op verschillende (development)-fora laten zien welke hardware ik op een bepaald moment gebruikte, of wat ik wel/niet goed vond.
Verwijzen naar je blog betekent niet dat je een bron bent.
Dat ik nu toevallig in een 'nVidia-periode' zit, zegt weinig over mij, en alles over nVidia.
Je hebt nog steeds niet aangegeven dat het fout was/is wat Nvidia deed met de promotie betreffende Tegra X1 en het geheugenbeheer op GTX 970.

[Reactie gewijzigd door Redneckerz op 7 juni 2015 15:26]

Dat zal het zijn. Die zijn notabene van een generatie later dan R300, welke gewoon een refresh kon doen destijds.
En daar komen de excuses weer...
Maar als je het zo graag wilt horen: Ja, de GF6/7 reeks had ook weer een trits vernieuwingen, SM3.0 support also voornaamste reden. Destijds werden UE3 techdemos op GF 6800 gedraaid omdat dit de enige kaart was met SM 3.0 support.
Dat vind ik ook weer overdreven.
Ik wilde alleen het punt maken dat nVidia met de GeForce FX niet competitief was met ATi, qua performance (de features hadden ze wel, op papier).
De GeForce 6 was een ingrijpend redesign waarmee nVidia weer meedeed met ATi qua performance en features.
Zoals je ziet kost het mij helemaal geen moeite om Nvidia credits te geven wanneer dat gerechtvaardigd is.
Jawel.
Dit kostte je echt wel moeite, kijk maar hoeveel posts je erover hebt gemaakt.
Het is mij allang duidelijk dat je nu krampachtig 'pro-nVidia' wil lijken om je daardwerkelijke pro-AMD redenen achter je post te verbloemen. Probleem daarbij is dat je te ver doorslaat hierin, en dus niet geloofwaardig overkomt.
Maar mijn reactie was over de R300, jij vindt het nodig om er een kaart van een generatie later erbij te halen :)
Om aan te geven dat nVidia niet tot aan de 8800 kansloos achter ATi aan liep.
Ook ATi heeft tussen de originele R300 en de 8800 aardig wat generaties hardware gereleased.
Maargoed, *jij* vindt het weer nodig om daarover te beginnen, omdat het je blijkbaar moeite kost om gewoon iets 'positiefs' over nVIdia (en wat heet positief, ik heb alleen gezegd dat GeForce 6/7 met ATi kon meekomen, niet eens dat ze beter waren of meer features hadden) te laten voor wat het is.
Als je mijn reacties gewoon eens normaal leest ipv selectief te quoten had je kunnen weten dat ik Nvidia met diens Shield Console en Tegra X1 zeer goed vind. Daarnaast heb ik ook aangegeven dat AMD echt een streepje achterloopt met diens drivers.

Dat negeer je, want je wilt alleen maar lezen wat je zelf graag ziet.
Je post zoveel geleuter dat ik echt niet alles meer lees inderdaad.
Dat is zeker niet 'selectief', maar dat heeft vooral te maken met wat je post.
9 van de 10 dingen die je post gaan wel zeker over pro-ATi en anti-nVidia-dingen.
En daar negeer ik ook genoeg van, want ik ga echt niet op ieder detail in.
- Niet dus. Maar wacht, het was een typo. AMD ligt nog steeds op achterstand ;)
Typo inderdaad. Heb ik verbeterd.
Zoals ik zei, dat weet ik echt wel. Destijds nog over geblogd: https://scalibq.wordpress...tx-11-cards-on-the-table/
Radeon 5000 was ook m'n eerste ATi kaart sinds de GeForce 8800 vanwege DX11.
Of wou je echt claimen dat het aannemelijker is dat ik dat niet wist dan dat ik een typo maakte?
Leuk voor je dat we blijkbaar dezelfde kaarten boeiend vinden. Al begrijp ik natuurlijk niks van technologie ;)
Een klok die stilstaat, geeft ook 2 keer per dag de juiste tijd aan.
Maargoed, leg mij eens uit wat je technisch zo boeiend vindt aan die kaarten dan (heh, was een mooie gelegenheid voor je om technisch de diepte in te duiken, en die laat je liggen, moet ik het toch weer vragen)?
Oke, laat maar zien dan. Ik lees in je reacties namelijk het tegenovergestelde.
Als je zelf verre van neutraal bent, kun je vaak ook niet goed beoordelen waar de neutrale zone ligt.
Burden of proof is on you :)
Ik heb al eerder naar blogposts gelinkt waarin ik problemen van nVidia besprak. Bewijs al geleverd.
Verwijzen naar je blog betekent niet dat je een bron bent.
Zo, hoelang heb je hierover nagedacht? Ik geef aan welke hardware ik wanneer gebruikt heb. Ik ben geen bron van de hardware die ik zelf gebruik? Wie moet je dan als bron nemen?
Je hebt nog steeds niet aangegeven dat het fout was/is wat Nvidia deed met de promotie betreffende Tegra X1 en het geheugenbeheer op GTX 970.
Daar gaat dit nieuwsitem niet over. Tekenend dat je blijft drammen, en per se mijn stellingname daarover wilt horen hier. Doe ik niet aan mee. Wat ik ook zeg, je zult er toch wel weer over gaan zeiken met de meest kromme drogredenen. Dat doe je namelijk al de hele tijd.

[Reactie gewijzigd door Scalibq op 7 juni 2015 15:47]

En daar komen de excuses weer...
Feitelijk had Nvidia niets tot aan de Geforce 6 reeks. Dat jij dat ziet als een excuses, tja, niet mijn probleem. Ik heb al positieve punten gegeven aan de Geforce 6 reeks, dus weinig bias.
Dat vind ik ook weer overdreven.
Waarom? Je wilt toch lezen dat ik ook iets positiefs benoem over Nvidia? Dan doe ik dat, is het weer niet goed.
Ik wilde alleen het punt maken dat nVidia met de GeForce FX niet competitief was met ATi, qua performance (de features hadden ze wel, op papier).
Dat hoef je niet aan te stippen, dat bewijst de gescheidenis al. R300 was een enorme sprong voortwaarts, Nvidia had tot GF6 geen concreet antwoord. Thats it.
De GeForce 6 was een ingrijpend redesign waarmee nVidia weer meedeed met ATi qua performance en features.
Dat zeg ik net. Waarom moet je het voor jezelf nogmaals herhalen. Is het dan correcter, als jij het zelf zegt? :?
Jawel.
Dit kostte je echt wel moeite, kijk maar hoeveel posts je erover hebt gemaakt.
Gaat mij prima af hoor. Dat jij dergelijke posts negeert en dan aan mij vraagt waar ik zulke posts heb gemaakt is vooral aan jouw selectieve bril te wijten. Dan nog, kijk eens hoeveel posts jij maakt om je gram te halen over AMD. Maar je bent niet biased hoor, echt niet 8)7
Om aan te geven dat nVidia niet tot aan de 8800 kansloos achter ATi aan liep.
Het was een 1 regelige reactie. Waar maak je je nu druk om?
Ook ATi heeft tussen de originele R300 en de 8800 aardig wat generaties hardware gereleased.
Ja, dus?
Maargoed, *jij* vindt het weer nodig om daarover te beginnen, omdat het je blijkbaar moeite kost om gewoon iets 'positiefs' over nVIdia (en wat heet positief, ik heb alleen gezegd dat GeForce 6/7 met ATi kon meekomen, niet eens dat ze beter waren of meer features hadden) te laten voor wat het is.
Oh ja, ik heb er zoveel moeite mee:
- Geforce 8800 en diens GPU was de beste GPU van de vorige generatie als het om levensduur gaat.
- Nvidia heeft zoiets lolligs als VXGI wat min of meer in UE4 titels gebruikt kan worden.
- Tegra X1 is een fantastisch staaltje hardware, met Nvidias mobile first approach.
- Shield Console vind ik imo de eerste serieuze microconsole die Android gaming echt volwassen kan maken.

Moet je nog meer horen? :)
Je post zoveel geleuter dat ik echt niet alles meer lees inderdaad.
Alles wat niet binnen jouw bekrompen visie past noem je geleuter. Je weet niet eens wat FP16 inhoudt, laat staan wat voor PR verhaal Nvidia daarvan heeft gemaakt. Halve waarheden mogen blijkbaar prima, als het maar van Nvidia is. Wees dan objectief en geef gewoon toe dat Nvidia echt geen heilig boontje is met dergelijke praktijken.
9 van de 10 dingen die je post gaan wel zeker over pro-ATi en anti-nVidia-dingen.
10 van de 10 dingen die jij post zijn pro-Nvidia en afzeik-AMD. Nuances zijn jou totaal vreemd.
Radeon 5000 was ook m'n eerste ATi kaart sinds de GeForce 8800 vanwege DX11.
Of wou je echt claimen dat het aannemelijker is dat ik dat niet wist dan dat ik een typo maakte?
Je geeft dus toe dat je daar een fout had gemaakt? :D Want pas nu ik je er nogmaals op wijs geef je toe dat het een typo was.
Feitelijk had Nvidia niets tot aan de Geforce 6 reeks.
Dat was precies het punt dat ik maakte: tot aan de GeForce 6-reeks. Jouw eerdere post noemde alleen de FX-reeks en de 8800, niets ertussen.
Dat jij dat ziet als een excuses, tja, niet mijn probleem.
Nee, *jij* kwam meteen weer terug met een reactie van "ja maar dat is een nieuwere generatie dan R300", wat dus een excuus is van "Okee, GF6 was wel competitief... maar..."
Waarom die 'maar'? Zoals ik al zei, er zaten vele generaties tussen R300 en 8800, bij beide merken. Dat hoeft niet expliciet benoemd te worden, en is verder ook niet relevant.
Het was al benoemd dat de FX-generatie niet goed was.
Waarom? Je wilt toch lezen dat ik ook iets positiefs benoem over Nvidia?
Hoe kom je daarbij? Het interesseert mij compleet niets wat je van nVidia of AMD vindt.
Dat *jij* iets positiefs over AMD van mij wilt horen, of juist iets negatiefs over nVidia, wil nog niet zeggen dat ik ook dergelijke behoeften heb.
Dat zegt vooral veel over jou, en je bent intussen wel ontmaskerd.

Ik was destijds iig lang niet zo positief over de GeForce 6/7-serie als jij. SM3.0 was leuk op papier, maar in de praktijk was een stenciltest vaak sneller dan de conditionals die ze in de shader-instructies hadden gebakken. Nou, schiet je lekker veel mee op dan.
Ja, dus?
Dus is het niet zo dat de GeForce 6 tegen de originele R300 concurreerde, maar ook een latere generatie ervan.
Dus slaat je opmerking nergens op.
Oh ja, ik heb er zoveel moeite mee:
- Geforce 8800 en diens GPU was de beste GPU van de vorige generatie als het om levensduur gaat.
- Nvidia heeft zoiets lolligs als VXGI wat min of meer in UE4 titels gebruikt kan worden.
- Tegra X1 is een fantastisch staaltje hardware, met Nvidias mobile first approach.
- Shield Console vind ik imo de eerste serieuze microconsole die Android gaming echt volwassen kan maken.
Precies mijn punt, je meent het niet serieus.
Jammer dat ik je al eerder doorhad he?
Alles wat niet binnen jouw bekrompen visie past noem je geleuter.
Nee, maar als je gaat beginnen over dat ik ergens per ongeluk 4x00 schrijf ipv 5x00, wat ik duidelijk bedoelde, dan ja, dat vind ik geleuter. Dat heeft niets met technologie te maken.
Je weet niet eens wat FP16 inhoudt
Ik weet prima wat FP16 inhoudt natuurlijk... Een 16-bit floating point formaat, oorspronkelijk in de GeForce FX-serie geintroduceerd als het 'half' datatype, itt float (FP32, hoewel R300 daar FP24 van maakte) en double (FP64)>
laat staan wat voor PR verhaal Nvidia daarvan heeft gemaakt.
Dat verhaal heb ik inderdaad niet gelezen. Dus ik kan daar ook niet over oordelen.
10 van de 10 dingen die jij post zijn pro-Nvidia en afzeik-AMD.
Zelfs als dat zo zou zijn, dan nog zou dat prima een compleet objectief en realistisch beeld van de werkelijkheid kunnen zijn.
Want pas nu ik je er nogmaals op wijs geef je toe dat het een typo was.
Een typfout ja. Maar het ging om *technische* fouten.
Uit de context van mijn post had al duidelijk moeten zijn dat ik de 5x00-serie bedoelde, ik noemde immers DX11, en DX10 had ik al genoemd (DX10.1 zou het ook niet kunnen zijn geweest, want dat was de 3x00 al, en als ik die had willen noemen, dan had ik DX11 toch niet overgeslagen?).
Ik ben ook maar een mens, dus een typfoutje sluipt er af en toe in.

Maar daadwerkelijke fouten in een complete technische redenering of iets dergelijks? Nee, daar heeft nog niemand me op kunnen pakken. Ik weet prima waar ik over praat.

En weer negeer je trouwens de technische kant... Ik hoor niets over Radeon 8500 of GeForce2.
Ik hoor trouwens ook al een tijdje niets meer over forummembers van het DX early access program die ik een PM zou moeten sturen.
Geeft allemaal wel weer aan wat je eigenlijke doelstellingen zijn. Je wil gewoon net zolang doorzeiken totdat je mij ergens op denkt te kunnen pakken. Maar intussen pak ik jou keer op keer op dingen.

[Reactie gewijzigd door Scalibq op 7 juni 2015 16:14]

Dat was precies het punt dat ik maakte: tot aan de GeForce 6-reeks. Jouw eerdere post noemde alleen de FX-reeks en de 8800, niets ertussen.
Mag ik dit ook semantisch geleuter noemen en ermee wegkomen? :P Waar maak je je druk om.
Hoe kom je daarbij? Het interesseert mij compleet niets wat je van nVidia of AMD vindt.
Maar wel blijven reageren ;)
Dat *jij* iets positiefs over AMD van mij wilt horen, of juist iets negatiefs over nVidia, wil nog niet zeggen dat ik ook dergelijke behoeften heb.
Dat zal komen omdat je ook niets positiefs over AMD te melden hebt. Geen probleem hoor, maar dat elke keer tentoonstellen..
Dat zegt vooral veel over jou, en je bent intussen wel ontmaskerd.
Door wie dan behalve jezelf? Zie al die posts van mij, en van anderen, die je tegenspreken. En elke keer kan je het niet hebben dat je wordt tegengesproken. Let it go man. Als je zo heilig van je eigen overtuigd bent, kom dan gewoon niet op Tweakers en beperk je tot je eigen blog. Dan kan je helemaal zelf bepalen welke kleur je aanneemt.
Dus is het niet zo dat de GeForce 6 tegen de originele R300 concurreerde, maar ook een latere generatie ervan.
Dus slaat je opmerking nergens op.
Ik impliceerde dat ook niet. Dat maak jij er nu met deze reactie van.
Precies mijn punt, je meent het niet serieus.
Jammer dat ik je al eerder doorhad he?
Ik denk dat je er een probleem mee hebt dat ik beide kampen wel prima kan afscheiden en welke positieve punten kan opnoemen van zowel Nvidia als AMD. Dat kan jij niet, dus als iemand anders dat wel kan kan dat natuurlijk als ´niet serieus´ bestempeld worden. Geen probleem hoor, ik kijk vooral uit naar de Native Android ports die voor de console zullen verschijnen. Kijken hoe zich dat verhoudt tot de last-gen en current-gen consoles (en PC, natuurlijk)
Nee, maar als je gaat beginnen over dat ik ergens per ongeluk 4x00 schrijf ipv 5x00, wat ik duidelijk bedoelde, dan ja, dat vind ik geleuter. Dat heeft niets met technologie te maken.
Het maakt net het verschil tussen ergens verstand van hebben en een gewaardeerde authoriteit te zijn op dat gebied, en een papegaai die maar op 1 bedrijf kan afgeven.

Je hebt overigens mijn verhaal over de voordelen van opensource ook vrolijk genegeerd, ondanks dat het maar een ´hype´ betreft.
Ik weet prima wat FP16 inhoudt natuurlijk... Een 16-bit floating point formaat, oorspronkelijk in de GeForce FX-serie geintroduceerd als het 'half' datatype, itt float (FP32, hoewel R300 daar FP24 van maakte) en double (FP64)>
Vreemd, gisteren beweerde je nog er nooit iets van te hebben gehoord en er ook geen opinie erover te hebben: Scalibq in 'nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update'
Ik had voordat jij begon over dat gedoe met FP16 er nog nooit van gehoord. Ik heb daar dus geen mening over, want ik heb me er niet in verdiept.
Nu weet je er blijkbaar alles van? En je hebt zojuist toch een opinie erover gegeven. Oftewel, je spreekt dus nu je eigen post tegen.
Maar daadwerkelijke fouten in een complete technische redenering of iets dergelijks? Nee, daar heeft nog niemand me op kunnen pakken. Ik weet prima waar ik over praat.
Hoe noem jij al die andere mensen dan die je punten wel onderuit halen? Geef daaar nu eens antwoord op dan jezelf op de borst kloppen dat je een authoriteit bent.
En weer negeer je trouwens de technische kant... Ik hoor niets over Radeon 8500 of GeForce2.
Je wilt het over Truform hebben? Of over Nvidias NSR of diens vrijwel niet gebruikte PS 0.5 spec? Allemaal erg boeiend inderdaad.
Ik hoor trouwens ook al een tijdje niets meer over forummembers van het DX early access program die ik een PM zou moeten sturen.
Waarom zou ik daar nu nog op in gaan? Een PM naar mij sturen doe je niet want ik ben niet te vertrouwen, maar een mede-DX12 Early Access member die je niet kent zou dat wel moeten wezen? Je loopt dan nog steeds hetzelfde risico.
Je wil gewoon net zolang doorzeiken totdat je mij ergens op denkt te kunnen pakken. Maar intussen pak ik jou keer op keer op dingen.
Als je consistent de helft negeert en de andere helft selectief quote, dan ja, dan kan je vast voor jezelf uitmaken dat je ergens een punt hebt.
Als je zelf verre van neutraal bent, kun je vaak ook niet goed beoordelen waar de neutrale zone ligt.
Vooral niet ontkrachten dat iedereen tegen je is :)
Ik heb al eerder naar blogposts gelinkt waarin ik problemen van nVidia besprak. Bewijs al geleverd.
Zucht.. jouw eigen blog is geen objectieve bron, en eerder een verlengstuk van je eigen opinies. Link maar naar iets wat niet van jezelf afkomt, want telkens je blog plempen komt nogal als spam over :)
Daar gaat dit nieuwsitem niet over.
Je hebt daar dus geen inhoudelijke reactie op, want je blijft maar excuses verzinnen om maar geen inhoudelijke reactie erover te geven.
Wat ik ook zeg, je zult er toch wel weer over gaan zeiken met de meest kromme drogredenen. Dat doe je namelijk al de hele tijd.
Nee, ik zou het juist toejuichen als je eens inhoudelijk reageert. Dan kan daar tenminste een discussie over gevoerd worden :)
Mag ik dit ook semantisch geleuter noemen en ermee wegkomen?
Nee, want het is niet semantisch. De GeForce 6 is een compleet andere serie hardware dan de 8800.
Begrijp je wel wat semantiek is?
Maar wel blijven reageren
Je blijft me met vragen bestoken, en doet verongelijkt iedere keer als ik er een aantal oversla omdat ik ze niet interessant genoeg vind.
Ik heb jou niet gevraagd om wat je nou van nVidia of AMD vindt.
Dat zal komen omdat je ook niets positiefs over AMD te melden hebt. Geen probleem hoor, maar dat elke keer tentoonstellen..
Als je andere antwoorden wil horen, moet je misschien andere vragen stellen.
Als je zo heilig van je eigen overtuigd bent, kom dan gewoon niet op Tweakers en beperk je tot je eigen blog.
Dus je wil me hier weg hebben?
Dan kan je helemaal zelf bepalen welke kleur je aanneemt.
Ik neem helemaal geen kleur aan. Op mijn blog moge dat overduidelijk zijn. Daar bespreek ik ook een hoop hardware die zelden of nooit op tweakers langskomt. Sterker nog, ik denk dat de meeste tweakers van bepaalde hardware weinig of niets weten.
Ik denk dat je er een probleem mee hebt dat ik beide kampen wel prima kan afscheiden en welke positieve punten kan opnoemen van zowel Nvidia als AMD. Dat kan jij niet
Ik kan dat een stuk beter dan jij. Dat mag wel duidelijk zijn.
Het maakt net het verschil tussen ergens verstand van hebben en een gewaardeerde authoriteit te zijn op dat gebied, en een papegaai die maar op 1 bedrijf kan afgeven.
Lol, geloof je het zelf?
Al die technische info die ik al jaren post, hier, op m'n blog, etc... En dan 1 typefout, die zelfs dingen die ik eerder plaatste tegen zou spreken, en je kunt me wegzetten als iemand die niets weet?
Je hebt overigens mijn verhaal over de voordelen van opensource ook vrolijk genegeerd, ondanks dat het maar een ´hype´ betreft.
Blijkbaar snap je niet dat dat m'n reactie was.
Vreemd, gisteren beweerde je nog er nooit iets van te hebben gehoord en er ook geen opinie erover te hebben
Uhh, ik beweer daar niet dat ik nooit van FP16 heb gehoord.
Dat kan ik ook makkelijk bewijzen: https://www.google.com/search?q=scali+FP16
Slechts dat ik niet precies weet wat de context is van FP16 in nVidia's PR rond de Tegra X1, ('dat gedoe met FP16'). En dat weet ik ook niet.
Nu weet je er blijkbaar alles van?
Van FP16 uiteraard wel. Zoals ik al zei, dat wordt al langer gebruikt op verschillende GPUs.
En je hebt zojuist toch een opinie erover gegeven.
Niet over Tegra X1. Ook niet over FP16 trouwens. Slechts aangegeven dat ik weet wat het is.
Oftewel, je spreekt dus nu je eigen post tegen.
Nee, maar je doet wel ERG hard je best om alles uit z'n verband te rukken en mij zwart te maken.
Hoe noem jij al die andere mensen dan die je punten wel onderuit halen?
Dat is nog steeds niet bewezen. Je hebt alleen een typfout genoemd.
Je wilt het over Truform hebben? Of over Nvidias NSR of diens vrijwel niet gebruikte PS 0.5 spec? Allemaal erg boeiend inderdaad.
Nou, steek maar van wal dan.
Waarom vraag je het aan mij? Ik vraag je wat je technisch interessant vindt. Je geeft geen antwoord op de vraag. Kun je dat niet?
maar een mede-DX12 Early Access member die je niet kent zou dat wel moeten wezen? Je loopt dan nog steeds hetzelfde risico.
Nee hoor.
Het is niet tegen de NDA om iemand een PM te sturen. Geen risico dus.
Die persoon kan dan tegen jou zeggen dat hij van mij een berichtje heeft ontvangen... bv "Wat een zeiksnor is die Redneckerz op Tweakers.net, vind je niet?"
En dan weet je dat ik het was.
Zucht.. jouw eigen blog is geen objectieve bron, en eerder een verlengstuk van je eigen opinies. Link maar naar iets wat niet van jezelf afkomt, want telkens je blog plempen komt nogal als spam over :)
Wederom... Denk eens na. Je vraagt van mij of ik ooit kritiek op nVidia heb gehad. Dus link ik naar een kritische blogpost. En dan zeur je dat ik geen bron ben van mezelf?
Dat is nu al de tweede keer. Die drogredenen als standaard-reacties zijn leuk, maar het zou fijn zijn als je wel even nadenkt waar en wanneer je ze toepast... Over papegaai gesproken...
Je hebt daar dus geen inhoudelijke reactie op, want je blijft maar excuses verzinnen om maar geen inhoudelijke reactie erover te geven.
Jawel, maar die staat in het desbetreffende nieuwsitem, zoals ik al zei.

[Reactie gewijzigd door Scalibq op 7 juni 2015 17:24]

Je blijft me met vragen bestoken, en doet verongelijkt iedere keer als ik er een aantal oversla omdat ik ze niet interessant genoeg vind.
Ik denk eerder dat het is omdat je niet een blauwtje wilt lopen.
Ik heb jou niet gevraagd om wat je nou van nVidia of AMD vindt.
Nee, je maakt mensen gelijk uit voor AMD fanboys ;) Zelfs 1 van je oude blogs heeft als titel: ''AMD Fanboys are idiots.''. Helaas dan geen blog waar je Nvidia er ook eens van langs geeft. Altijd maar op 1 bedrijf. Maar beken vooral geen kleur, je posts laten het vanzelf wel zien.
Als je andere antwoorden wil horen, moet je misschien andere vragen stellen.
Of ik ze nu stel of dat iemand anders ze stelt, je antwoord zal altijd in het voordeel van Nvidia zijn. Daar hoef je echt geen wonderkind voor te zijn om dat te zien ;)
Dus je wil me hier weg hebben?
Je kan voor jezelf afvragen wat je relevantie hier is als:
- Iedereen je niet begrijpt
- Je zelf denkt dat je gelijk hebt
- Je eigen stellingen voldoende denkt te onderbouwen, maar dit niet zo is.

Ik bedoel, Doorkruis dit hele topic nu eens en vind eens iemand die het compleet met je eens is.
Ik neem helemaal geen kleur aan. Op mijn blog moge dat overduidelijk zijn.
Willekeurig blog gepakt met als titel dat AMD fanboys idioten zijn. Nee, jij bekent geen kleur. 8)7 Nog even en je gaat roepen dat je roomser dan de paus bent.
Daar bespreek ik ook een hoop hardware die zelden of nooit op tweakers langskomt.
Voorbeelden?
Sterker nog, ik denk dat de meeste tweakers van bepaalde hardware weinig of niets weten.
Wat jij denkt en wat de realiteit is verschilt hemelsbreed van elkaar. Als we het over obscure videokaarten hebben raad ik je de SPEA Fire aan, een kaart uit eind jaren 80/begin jaren 90 met Intel i860 processor Of wat dacht je van de Datapath Twinfinity Quad, een 2D only kaart met 4 S3 Trio chips voor multimonitor gebruik? Als je hier iets over wilt weten, laat gerust een PM achter.
Al die technische info die ik al jaren post, hier, op m'n blog, etc... En dan 1 typefout, die zelfs dingen die ik eerder plaatste tegen zou spreken, en je kunt me wegzetten als iemand die niets weet?
Nooit gedacht dat je technische info wel eens fout kan wezen? Nee? Ik zou dan toch echt Misterxmedia contacteren, die is ook heilig overtuigd van bepaalde dingen :)
Blijkbaar snap je niet dat dat m'n reactie was.
Ik heb vervolgens meerdere voorbeelden genoemd die tegenspreken dat open source een hype is. En sorry, wat Ken Silverman doet zet ik toch iets hoger op de kaart daar hij netjes zijn source vrijgeeft en zijn opmerkingen onderbouwt met eigen code of het zelfs verbetert, niet iemand die alleen maar kan roepen een bron te hebben zonder met eigen voorbeelden te komen.
Nee, maar je doet wel ERG hard je best om alles uit z'n verband te rukken en mij zwart te maken.
Oke. Dat zal het wel wezen.
Dat is nog steeds niet bewezen. Je hebt alleen een typfout genoemd.
Ja, dat heb alleen ik gedaan. Je hebt echter Rhylian's post niet weerlegd. Maar dat zal vast komen omdat het niet boeiend genoeg was (En ook niks met het nieuwstopic te maken had, om maar even je excuus voor te zijn)
Nou, steek maar van wal dan.
Ook over hoe de R100 pixel shader capaciteiten had en de R300 zelfs tot rond 2007 nog relevant was in games? Maar beste Scali, al zou ik dat doen (En ik doe dat graag, maar dan in een PM), dan kan ik je antwoord al raden: ''Dat weet ik al, waarom vertel je mij iets wat ik al weet? Kom eens met iets wat mij echt verrast''. Maar als je tot een andere reactie kan komen (Ook over meer info voor de SPEA Fire, etc..), voel je vrij om mij een PM te sturen. Wie weet tik je wel eens zon kaart op de kop en kan je daar een prachtige demo uit destileren. Dat gezegd hebbende zou ik ook wel eens willen zien wat je allemaal met WARP kan.
Ik vraag je wat je technisch interessant vindt. Je geeft geen antwoord op de vraag. Kun je dat niet?
Retro hardware, obscure video kaarten, spelmotoren, enz... Goed genoeg?
Nee hoor.
Het is niet tegen de NDA om iemand een PM te sturen. Geen risico dus.
Die persoon kan dan tegen jou zeggen dat hij van mij een berichtje heeft ontvangen... bv "Wat een zeiksnor is die Redneckerz op Tweakers.net, vind je niet?"
En dan weet je dat ik het was.
Weet je, op dit moment zou ik het al prima vinden als je een bestaand plaatje photoshopt om aan te tonen dat je lid bent van dat program. Is ook niet geloofwaardig, maar dan bewijs je wel dat je meer kan dan je eigen blog neer te plempen en cirkelredeneringen te gebruiken. Tot die tijd ben jij diegene die dergelijke claims maakt, en er geen moeite voordoet om het te bewijzen. Geloofwaardigheid: 0.
Wederom... Denk eens na. Je vraagt van mij of ik ooit kritiek op nVidia heb gehad.
Een blog van 6 jaar geleden, 1 enkel keer kritiek op Nvidia in een zee van anti-AMD posts. Oh, maar dan kwalificeer je jezelf hoor!
Dus link ik naar een kritische blogpost. En dan zeur je dat ik geen bron ben van mezelf?
Omdat jouw blog in zijn geheel niet relevant is daar het als verlengstuk dient van je eigen kijk op dingen. Daar is het een blog voor. Maar of een of andere manier heb je het idee dat als je maar vaak genoeg je eigen blog neerplempt je dan geloofwaardiger overkomt. Niet dus.
Nee, je maakt mensen gelijk uit voor AMD fanboys
Heb je je eigen posts wel eens gelezen?
We hebben hier een nieuwsitem, waar duidelijk wordt dat AMD geen DX12_1 zal ondersteunen op hun huidige producten, en het enige dat je de hele tijd doet is: "Ja maar AMD dit, en nVidia zus!"
Je zit dus alleen maar positieve dingen over AMD te roepen en negatieve dingen over nVidia. Puur omdat je het niet kunt verkroppen dat AMD nog geen DX12_1-hardware op de markt heeft, en nVidia wel.
Helaas dan geen blog waar je Nvidia er ook eens van langs geeft.
Jawel, zeker niet eens de moeite genomen om te zoeken?
https://scalibq.wordpress...ia-fanboys%e2%80%99-turn/
Jammer joh!
Ja, dat heb alleen ik gedaan. Je hebt echter Rhylian's post niet weerlegd.
Ten eerste heb ik geen idee over welke post je het hebt.
Ten tweede ga ik echt niet op alles en iedereen reageren.
Zeker niet op deze manier. Je bent gewoon kinderachtig aan het zuigen. Als je wilt dat ik ergens op reageer, stel dan een normale, directe vraag.
Nogmaals, hier kan ik niks mee.
Retro hardware, obscure video kaarten, spelmotoren, enz... Goed genoeg?
Nee, ik zie dat je goed bent in namedroppen, maar nergens heb je ook maar iets laten zien van enig technisch inzicht in de namen die je noemt. En dat had ik nu graag willen zien. Helaas.
Laat eens wat code zien voor bepaalde specifieke hardware, en wijs eens specifiek aan wat die code zo bijzonder maakt (zoals ik dus op mijn blog doe).
Weet je, op dit moment zou ik het al prima vinden als je een bestaand plaatje photoshopt om aan te tonen dat je lid bent van dat program. Is ook niet geloofwaardig, maar dan bewijs je wel dat je meer kan dan je eigen blog neer te plempen en cirkelredeneringen te gebruiken. Tot die tijd ben jij diegene die dergelijke claims maakt, en er geen moeite voordoet om het te bewijzen. Geloofwaardigheid: 0.
En weer draai je het om: Ik ben niet degene die er hier onderuit wil komen. Ik wil *graag* een PM sturen naar iemand om het te bewijzen.
Maar blijkbaar ken jij niemand anders die in het DX12-program zit, dus is dat geen optie voor jou.
Omdat jouw blog in zijn geheel niet relevant is daar het als verlengstuk dient van je eigen kijk op dingen.
Je vroeg specifiek naar mijn kijk op bepaalde dingen!
Dat is mijn hele punt!
Blijkbaar ben je de weg zo ver kwijt dat je niet eens meer weet waar ik over reageerde. Je hebt je blijkbaar totaal blind gestaard op het zwartmaken van mij.

[Reactie gewijzigd door Scalibq op 7 juni 2015 19:55]

Heb je je eigen posts wel eens gelezen?
We hebben hier een nieuwsitem, waar duidelijk wordt dat AMD geen DX12_1 zal ondersteunen op hun huidige producten, en het enige dat je de hele tijd doet is: "Ja maar AMD dit, en nVidia zus!"
Je zit dus alleen maar positieve dingen over AMD te roepen en negatieve dingen over nVidia. Puur omdat je het niet kunt verkroppen dat AMD nog geen DX12_1-hardware op de markt heeft, en nVidia wel.
Blijf vooral lekker negeren dat ik ook positieve dingen heb geroepen. Of wacht, dat is uiteraard maar een tactiek van me ;) Kom nou.
Jawel, zeker niet eens de moeite genomen om te zoeken?
https://scalibq.wordpress...ia-fanboys%e2%80%99-turn/
Jammer joh!
Lekkere clickbait titel (Je bent dus blijkbaar wel bewust ervan dat je AMD wel erg vaak op de hak neemt), en tevens 5 jaar oud, dus zwaar uit de tijd. En weer je blog neerplempen.. Ik kan die URL zowat dromen zovaak je deze neerdumpt. Je denkt zeker ''Zolang ik maar het blijf herhalen haakt iedereen wel af''. Dat lukt inderdaad aardig ja :)

Overigens is je toon in die blogpost ook weer van bedenkelijke aard, ook hier lees ik hoe je anderen beticht van ''fanboy'', ''fool'', ''idiot'' en ook daar weer dat neerbuigende toontje met een ''Ik weet alles beter'' attitude. Nuances zijn jou echt totaal wereldvreemd, zoveel is wel duidelijk. Een gebrek aan ego trouwens ook.
Ten eerste heb ik geen idee over welke post je het hebt.
Deze dus: Rhylian in 'nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update'
Nee, ik zie dat je goed bent in namedroppen, maar nergens heb je ook maar iets laten zien van enig technisch inzicht in de namen die je noemt. En dat had ik nu graag willen zien. Helaas.
Moet ik je links gaan geven naar de technische info van dergelijke kaarten? Prima, aangezien je zelf te lui bent:
SPEA Fire:
http://www.geekdot.com/the-spea-cards/
http://www.vgamuseum.info...ent/k2/item/540-spea-fire
Datapath Twinfinity:
http://xn-www-sd4eq5d.vga...-datapath-twinfinity-quad
Laat eens wat code zien voor bepaalde specifieke hardware, en wijs eens specifiek aan wat die code zo bijzonder maakt (zoals ik dus op mijn blog doe).
Waarom denk je dat ik een programmeur ben? Hint: Dat ben ik niet. En volgens jouw eigen verknipte logica ben ik dan dus ook niet ''relevant'' en snap ik het niet, toch Scali? ;)

Fijn ook dat je mijn comment over WARP, SPEA Fire en R100 Shader 0.5 negeert, want daar wilde je graag een antwoord op. Dan steek ik dus ''van wal'', zoals je dat noemt, en dan negeer je het. Waarom dan uberhaupt vragen of ik er iets over wil vertellen? Hetzelfde geldt voor het opensource verhaal.
En weer draai je het om: Ik ben niet degene die er hier onderuit wil komen. Ik wil *graag* een PM sturen naar iemand om het te bewijzen.
Stuur dan naar mij. Of heck, naar een modje die het door kan sluizen als je echt zo paranoide bent dat ik dergelijke info laat uitlekken. Nog steeds wil het niet tot je door dringen dat jij oorspronkelijk claimde in het DX12 Early Access program te zitten. En tot dusverre heb je nog steeds niet de moeite gedaan om dat ook maar op eeniedere manier te bevestigen. Tegelijkertijd roep je wel tegen anderen dat hun bronnen geen bron zijn, zonder zelf met een eigen bron te komen die het weerlegt (Zie AMD Freesync nieuwstopic).
Maar blijkbaar ken jij niemand anders die in het DX12-program zit, dus is dat geen optie voor jou.
Nee, inderdaad. Ik zal wel braaf gaan afwachten tot je bron prijsgeeft :)
Overigens is je toon in die blogpost ook weer van bedenkelijke aard, ook hier lees ik hoe je anderen beticht van ''fanboy'', ''fool'', ''idiot'' en ook daar weer dat neerbuigende toontje met een ''Ik weet alles beter'' attitude. Nuances zijn jou echt totaal wereldvreemd, zoveel is wel duidelijk. Een gebrek aan ego trouwens ook.
Het is ook nooit goed...
Verder ben je blijkbaar niet bekend met concepten als sarcasme of trolling. De 'OpenBlog(tm)'-titel is niet het enige sarcastische statement dat ik maak...

De titel was een reactie op mensen zoals jij, die mij constant aanvallen als ik een bepaald merk verdedig tegen andere fanboys die de waarheid verdraaien.
Heb je het artikel eigenlijk wel gelezen? De aanleiding was namelijk dat Catalyst AI de texturekwaliteit omlaag schroefde. Dus in het begin van de discussie stond ik aan de kant van nVidia, waar de drivers de texturekwaliteit niet negatief beinvloeden.
Toen deden de nVidia fanboys er nog even een schepje bovenop en beweerden dat AMD sowieso geen goede texturekwaliteit had, omdat hun texturefiltering niet goed werkte of whatever.
Dat is ook het verdraaien van de waarheid, dus toen stond ik blijkbaar ineens aan de kant van AMD, omdat ik uitlegde dat AMD's hardware gewoon prima doet wat er volgens DX11/OGL van de texturefiltering verwacht wordt, en in bepaalde gevallen zelfs meer dan nVidia.

Prima voorbeeld van hoe neutraal ik ben... Maarja, AMD-fanboys zijn helaas een stuk hardnekkiger dan nVidia-fanboys.
Het komt vrijwel dagelijks voor dat er pro-AMD onzin de wereld in wordt geslingerd. Neem dit topic bv. En het FreeSync-topic een paar dagen geleden, of het Hairworks-drama etc, etc.
Van de andere kant gebeurt er gewoon veel minder. Daar kan ik weinig aan doen, ik blijf gewoon neutraal.
Ook dat is een voorbeeld van sarcasme, en een kenmerk is dat je dat niet te serieus moet nemen, en dus ook niet belonen met een antwoord.
Wijze levenslessen krijg jij vandaag!
Moet ik je links gaan geven naar de technische info van dergelijke kaarten?
Nee, iedere aap kan wat bij elkaar googlen.
Ik wil dat *jij* in je *eigen woorden* aan mij uitlegt wat voor technologie er zo interessant is, en waarom. Wat je ermee kunt doen, of nog beter, wat je er zelf mee gedaan hebt. En dat dus technisch de diepte in, niet oppervlakkig wat features noemen.
Zoals ik dus bv op mijn blog heb uitgelegd wat er koel is aan PowerVR met hun tile-based deferred rendering en infinite planes, en hoe dat precies werkt, en wat ik er zelf mee gebouwd heb.
Waarom denk je dat ik een programmeur ben?
Jij doet je voor alsof je met mij een technische discussie wil aangaan over graphics. Dan moet je haast wel zelf iets geprogrammeerd hebben, anders zul je hoogstwaarschijnlijk niet genoeg inzicht hebben in de materie om een technische discussie aan te gaan, en blijft het dus bij linkjes googlen en buzzwords droppen, zonder inhoud.
Stuur dan naar mij.
Jij zit toch ook niet op het DX12-forum? Snap je het nu echt niet?
Als ik een berichtje stuur via het DX12-forum naar een andere gebruiker daar, dan bewijst dat dus dat ik toegang heb tot dat forum.

[Reactie gewijzigd door Scalibq op 7 juni 2015 23:06]

Het is ook nooit goed...
Als je zelf niet doorhebt dat overal zon neerbuigende houding en dergelijke krachttermen gebruiken ervoor zorgt dat je mening, hoe waar of onwaar deze ook is, minder tot niet serieus wordt genomen, dan vind je de mentale gevangenis waarin je zit wel prettig blijkbaar.
Verder ben je blijkbaar niet bekend met concepten als sarcasme of trolling. De 'OpenBlog(tm)'-titel is niet het enige sarcastische statement dat ik maak...
Mensen uitschelden voor idioten en fanboys noem jij sarcasme? Van welke planeet kom jij dat zoiets geaccepteerd developer gedrag is?

En begin nu niet over trolling.. Je 82 posts met bijbehorende scores spreken voor je. Maar dat zal vast komen omdat wij medetweakertjes niks van de materie snappen :)
Ook dat is een voorbeeld van sarcasme, en een kenmerk is dat je dat niet te serieus moet nemen, en dus ook niet belonen met een antwoord.
Raar gevoel voor sarcasme heb jij dan als je zon post als zodanig bestempelt. Gezond verstand vertelt mij echter dat je, om het even plat uit te drukken, ''uitgeluld'' was op dat vlak en er niets tegen in te brengen had.
Nee, iedere aap kan wat bij elkaar googlen.
Vandaar dat jij dat consequent ook gewoon niet doet, je wilt immers niet voor aap gezien worden :) Toch zou zelfs een aap op een gegeven moment van zijn eigen fouten leren. Aangezien jij dat niet doet, kunnen we onze conclusies gaan trekken bij jou :)
Ik wil dat *jij* in je *eigen woorden* aan mij uitlegt wat voor technologie er zo interessant is, en waarom.
Al gedaan, negeer je.
Wat je ermee kunt doen, of nog beter, wat je er zelf mee gedaan hebt. En dat dus technisch de diepte in, niet oppervlakkig wat features noemen.
Zie boven over de SPEA Fire. Je kan zelf ook constant je eigen blog neerplempen, dus volg die linkjes nu maar gewoon en download de packages met readme's (of gewoon het artikel). Mij lijkt het een leuk grafisch subsysteem, zeker met de moeilijkheden die een i860 zo lastig te programmeren maken.
Zoals ik dus bv op mijn blog heb uitgelegd wat er koel is aan PowerVR met hun tile-based deferred rendering en infinite planes, en hoe dat precies werkt, en wat ik er zelf mee gebouwd heb.
Ok. Het deelt mijn interesse niet, maar leuk dat je daar een blogpost over schrijft.
Dan moet je haast wel zelf iets geprogrammeerd hebben, anders zul je hoogstwaarschijnlijk niet genoeg inzicht hebben in de materie om een technische discussie aan te gaan, en blijft het dus bij linkjes googlen en buzzwords droppen, zonder inhoud.
Ooh, dus ik moet ook nog aan een eisenpakket voldoen voordat ik een discussie met orakel Scali mag aangaan :P Dat komende van de man wiens enige tegenargument het droppen van zijn eigen blog is, zonder inhoud. Dergelijk ''Ik blijf mijn eigen blog droppen'' gedrag kan bijna als spam aangezien worden.

Ik zou zeggen, check het forum eens even, en wel hier - http://gathering.tweakers...message/44364498#44364498 - Genoeg mensen die het ook met je oneens zijn. Zijn zeker ook allemaal verkeerd geinformeerd en lid van AMD, toch? :z
Jij zit toch ook niet op het DX12-forum? Snap je het nu echt niet?
Je quote nog steeds selectief en je negeert andere opmerkingen over GPU's en opensource. Helder.
Als ik een berichtje stuur via het DX12-forum naar een andere gebruiker daar, dan bewijst dat dus dat ik toegang heb tot dat forum
Nou, doe dan? PM even zon willekeurige gebruiker daar en maak daar dan een screenshot van wat je hier in een PM kan posten? Hoe moeilijk is dat nu? Je kan zelfs alle gevoelige info weglaten, is ook prima.

[Reactie gewijzigd door Redneckerz op 7 juni 2015 23:22]

Het is heel simpel om een technische discussie met mij aan te gaan: je moet het gewoon doen.
Maar jij zeurt en zeurt maar, terwijl het eigenlijk nergens over gaat... Ja, vooral over wat je van mij vindt. Blijkbaar heb je ondanks alles nog steeds niet door dat het mij niets interesseert wat jij of wie dan ook van me vindt.
Ik doe gewoon mijn ding.
Het is vrij duidelijk dat je niet alleen op technisch, maar ook op sociaal niveau de nodige nuances niet oppikt.

[Reactie gewijzigd door Scalibq op 7 juni 2015 23:30]

Het is heel simpel om een technische discussie met mij aan te gaan: je moet het gewoon doen.
Blijkbaar niet volgens jouw smaak. En klaarblijkelijk ook met vele anderen niet. Dat jij dat niet ziet, is niet mijn probleem.
Ja, vooral over wat je van mij vindt. Blijkbaar heb je ondanks alles nog steeds niet door dat het mij niets interesseert wat jij of wie dan ook van me vindt.
Tja. Ook hier weer spreken je 80+ posts je gewoon tegen.
Ik doe gewoon mijn ding.
En dat is uiteraard je goed recht. Bijdehand zijn levert je echter geen pluspunten op. Negeren van vragen en opmerkingen overigens ook niet, maar die tactiek is bekend.
Blijkbaar niet volgens jouw smaak.
Je hebt uberhaupt geen poging gedaan. Geen enkele stellingname op technisch niveau waar ik op enige manier inhoudelijk op zou kunnen reageren. Het ontstijgt nooit het niveau van 'welles-nietes' en 'maar ik heb dit-en-dat gegoogled'.
Bijdehand zijn levert je echter geen pluspunten op. Negeren van vragen en opmerkingen overigens ook niet, maar die tactiek is bekend.
Tjsa, heb je je eigen posts wel eens gelezen? Je bent behoorlijk bijdehand tegen mij, zeer beledigend ook nog eens, en het is allemaal ook nog eens compleet off-topic.
Wat denk je hier te bereiken eigenlijk? Denk je dat je mij wel eens even kan vertellen hoe ik me al dan niet moet gedragen? Hoe arrogant is dat wel niet? Sowieso, waar haal je het bizarre idee uberhaupt vandaan dat jij je met mij moet bemoeien?

[Reactie gewijzigd door Scalibq op 7 juni 2015 23:45]

Je hebt uberhaupt geen poging gedaan.
Als jij daar blij van wordt, heb je helemaal gelijk.
Tjsa, heb je je eigen posts wel eens gelezen? Je bent behoorlijk bijdehand tegen mij, zeer beledigend ook nog eens, en het is allemaal ook nog eens compleet off-topic.
Oh, ik ontken het niet hoor. Ik ben best wel ''hard'' tegen je. Maar als ik lees hoe neerbuigend je consequent tegen anderen doet, zowel hier als op je blog, tja. Ik denk dat het dan aan de persoonlijkheid zelf ligt. Je kan dan nog zoveel kennis hebben, als je een belabberde persoonlijkheid ertegenover stelt kom je nog nergens. (Even in het algemeen pratend)
Denk je dat je mij wel eens even kan vertellen hoe ik me al dan niet moet gedragen? Hoe arrogant is dat wel niet?
Ik maak geen illusies. De enige die dat kan ben jijzelf. Al zouden 10.000 anderen het op in je stampen, dan verandert dat nog niets.
Sowieso, waar haal je het bizarre idee uberhaupt vandaan dat jij je met mij moet bemoeien?
Heel bizar inderdaad, discussie voeren onder een nieuwsitem.
Als jij daar blij van wordt, heb je helemaal gelijk.
Het is ook de waarheid, jij hebt gewoon niets te melden op technisch niveau. Zoveel is inmiddels wel duidelijk.
Oh, ik ontken het niet hoor. Ik ben best wel ''hard'' tegen je.
En je verwacht wel dat ik ondanks alles toch vriendelijk en behulpzaam blijf? Wat ik eigenlijk ook doe, ook al ga ik niet op iedere zeur-puntje van je in.
Maar als ik lees hoe neerbuigend je consequent tegen anderen doet, zowel hier als op je blog, tja. Ik denk dat het dan aan de persoonlijkheid zelf ligt.
Misschien snap je het ooit wel eens, later als je groot bent.
Nu ben je duidelijk over dingen aan het oordelen waar je absoluut niet weet waar je het over hebt. Je kijkt totaal niet naar de context, en snapt ook niet dat je de context van bepaalde dingen niet eens *kunt* weten. Toch oordeel je erover.
Heel bizar inderdaad, discussie voeren onder een nieuwsitem.
Discussie over een persoon ipv over de inhoud van het nieuwsitem, ja, dat is vrij bizar.
Sowieso is het een constante stroom van ad hominem.

Je zou eigenlijk een voorbeeld aan me moeten nemen. Hoe weinig ik me aantrek van de constante stroom van persoonlijke aanvallen van mensen als jij. Hoe rustig en beschaafd ik blijf, ondanks alles.
Denk daar maar eens over na.
Het is ook de waarheid, jij hebt gewoon niets te melden op technisch niveau. Zoveel is inmiddels wel duidelijk.
Misschien gaat het mij er niet om op technisch niveau iets aan je uit te leggen maar vooral een spiegel voor te houden hoe jouw gedrag op anderen overkomt. Again, je 80+ posts alsmede de forumreacties, het pleit allemaal tegen je. Maare, ik hijs de witte vlag omhoog, ik geef het op. Ik kijk uit naar je voortkomende demo's en je bias richting 1 bedrijf, ach, dat zal nooit anders worden :)
En je verwacht wel dat ik ondanks alles toch vriendelijk en behulpzaam blijf? Wat ik eigenlijk ook doe, ook al ga ik niet op iedere zeur-puntje van je in.
Ooit, lang geleden, verwachtte ik dat je op zn minst je eigen claim zou kunnen onderbouwen. Maar zelfs dat was hoopvolle glorie. Ik denk dat je niet van vriendelijkheid kan spreken door mij voor aap uit te maken en alleen maar een betweterige houding aan te nemen.
Misschien snap je het ooit wel eens, later als je groot bent.
''Als ik groot ben''. Hou toch op zeg. Alsof dat je eigen gedrag goedpraat. Nou ja, klaarblijkelijk wel.
Nu ben je duidelijk over dingen aan het oordelen waar je absoluut niet weet waar je het over hebt.
Volg je eigen advies eens op?
Je zou eigenlijk een voorbeeld aan me moeten nemen.
Nee, dank je. Ik zou mijn leven niet zeker zijn als ik mij elke dag aangesproken zou moeten voelen door mensen die ikzelf als irrelevant acht en mijn eigen mening altijd als het beste zie, want ik zeg het, dus dan is het waar.
Hoe weinig ik me aantrek van de constante stroom van persoonlijke aanvallen van mensen als jij.
80+posts en jaren van blogposts over fanboys, ja, het boeit jou echt helemaal niets ;) Ik denk eerder dat door de jaren heen je gewoonweg immuun bent geworden voor redelijkheid en inhoudelijk tegenargumenten (En dat is in het algemeen, niet specifiek van mij af). Zoals gezegd, het zal wel aan de persoonlijkheid liggen.
Hoe rustig en beschaafd ik blijf, ondanks alles.
Denk daar maar eens over na.
Dus naast een orakel ben je ook nog de Boeddha zelve. Het moet niet veel gekker worden. Straks roep je nog dat je uit de hemel gekomen bent om ons allemaal te onderwijzen op jouw superieure intellect.
Nvidia heeft echter ook geen volledige ondersteuning. Het lijkt een beetje hetzelfde verhaal als met de shaders 9.0b en 9.0c. Uiteindelijk heeft dit ook weinig tot zo goed als geen noemenswaardig verschil opgeleverd.
Daar was het verschil voornamelijk een iets andere instructieset voor shaders.
Niet heel spannend in de praktijk. Ze konden allebei ongeveer hetzelfde, alleen op een iets andere manier.

Het is niet vergelijkbaar met de features van DX12 in de verschillende levels. Dat zijn compleet andere features.

[Reactie gewijzigd door Scalibq op 7 juni 2015 00:20]

Nogal wiedes, niet? De 290 is een jaar(!) ouder dan de 980, een eeuwigheid in technologie-land. Kon dit artikel niet gewoon een weekje wachten tot de aankondiging en details van de aankomende 390?
Interessant detail daarbij is dat AMD al heeft aangekondigd dat een groot deel van de 3xx-serie gewoon een rebrand wordt van de huidige GCN-kaarten.
Dus ongeacht wat die 390 wel of niet gaat kunnen, we weten nu al dat de meeste 3xx-kaarten geen 12_1 gaan worden.
Ik denk dat je de Fury bedoeld dat word iets nieuws.
De R9-3serie zit nogal wat vol met rebrands.

Alleen moet wel voor AMD nieuwe top gaan near 980ti zou dat worden.
Ik verwacht dan ook een high-end prijsje.
Het nieuwe topmodel, de R9 390X, krijgt naar verwachting wel een nieuw ontwikkelde chip.
De 390(x) zal een rebrand van de hawaii chip uit de 290(x) worden. De nieuwe Fiji gpu zal alleen in de nieuwe Fury series komen. De 300 serie is 100% rebranded gpu's.

R9 390X - rebrand 290X met hogere clocks en nu 8GB
R9 390 - rebrand 290 met hogere clocks en nu 8GB
R9 380X - rebrand van de 285 tonga gpu, maar nu met 384 bit geheugen bus en 2048 stream processors.
R9 380 - rebrand van de 285 tonga
R9 370 - rebrand 270X - rebrand 7870
R9 360X - rebrand 260X - rebrand 7790
R9 360 - rebrand 260
Dit is slechts 100% gerucht, het is nog helemaal niet zeker wat wat wordt.

Sterker nog, grote kans dat het niet eens de 300 serie wordt, want er is al een OEM 300 serie, die er overigens wel ongeveer zo uit ziet als jij beschrijft.

Wel jammer dat dit soort geruchten zonder echte bron gewoon klakkeloos als waarheid worden aangenomen.
De nieuwe Fiji gpu chips voor de Fury serie zijn al bekend gemaakt. AMD heeft geen andere nieuwe gpu's voor de 300 series. Kan ook haast niet anders met alle bezuinigingen op hun R&D.

http://nl.hardware.info/n...utm_campaign=hardwareinfo
http://wccftech.com/amd-t...size-approximated-560mm2/
etc

Te veel informatie die er op wijst dat het ook zo is. Maar de AMD fanboys mogen blijven hopen op een wonder.
1 zwaluw maakt geen zomer, Wellicht heeft, of mocht PC geen 390/490 gebruiken omdat er nog NDA is.

Tonga was allang bekend, en een beperkte versie is ook uit, en het was ook al bekend dat Tonga ingezet zou worden in de nieuwe serie, omdat het ontwerp een stuk moderner is dan Tahiti.

Zolang AMD niks bevestigd heeft, zijn het gewoon geruchten, niet meer en niet minder.

Er is ook zat informatie te vinden die hele andere dingen zegt, kwestie van selectief lezen en zien wat je wilt zien. Wil je zien dat AMD een flink rebrandfeest gaat houden, ga je dat zeker vinden en lezen, wil je lezen dat AMD gehakt gaat maken van Nvidia omdat ze met vreselijk goede videokaarten met nieuwe GPU's uitkomen, kun je dat wel lezen.

En waarom maakt het willen van gezonde concurrentie mensen direct fanboy? Het laat vooral zien dat jij een Nvidia fanboy bent.
Ben benieuwd naar welke bronnen het tegendeel bewijzen...

Verder ben ik geen Nvidia fanboy want ik vind hun ook waardeloos met hun small gpu --> big gpu releases. Vroeger kreeg je gewoon een 500+ mm2 gpu voor 499 dollar. Imo is de hele gpu markt bagger en worden we allemaal uitgemolken. Ik koop dus ook niks van beide kampen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True