Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 122 reacties
Submitter: Source90

AMD heeft zijn nieuwste apu-serie aangekondigd, maar de introductie van deze generatie accellerated processing units met codenaam Kaveri volgt pas halverwege januari 2014. De apu's zijn vooral op grafisch vlak krachtiger geworden.

De Kaveri-apu's bestaan uit een combinatie van x86-cores en gpu-cores en volgen de Richland-apu's op. Voor Kaveri heeft AMD zijn nieuwste cpu-architectuur, Steamroller, ingezet en de gpu-cores bestaan voor het eerst uit Graphics Core Next-cores. Details over alle producten gaf AMD nog niet: daarop zou nog even gewacht moeten worden. Tijdens CES 2014, een beurs die in de eerste week van januari plaatsvindt, belooft AMD Kaveri officieel te introduceren. De eerste processors, voor desktops met FM2+-moederborden,  zouden dan op 14 januari verkrijgbaar moeten zijn.

Afhankelijk van het model zouden de Kaveri-apu's over maximaal vier Steamroller-cores, gerangschikt in twee modules met gedeeld L2-cache en maximaal 512 streamprocessors, verdeeld over acht GCN-modules. Kaveri maakt gebruik van AMD's huma-techniek, waardoor het werkgeheugen door zowel de cpu als gpu benaderd kan worden. Ook AMD's hsa-techniek is voor het eerst in deze generatie apu's geïmplementeerd. Zo zouden de cpu- en gpu-cores beter moeten kunnen samenwerken.

Hoewel specificaties van alle apu-types nog niet bekend zijn, zijn die van één model wel vrijgegeven, zo meldt onder meer Anandtech. De A10-7850K is voorzien van vier Steamroller-cores die op 3,7GHz tikken en de 512 streamprocessors hebben een kloksnelheid van 720MHz. Dat zou goed zijn voor 856Gflops, waarmee een demonstratiesysteem in staat was Battlefield 4 op 1080p met Medium-settings met 28-40fps op het scherm te zetten. Wat aantal streamprocessors betreft maakt Anandtech voor het gpu-deel van de apu de vergelijking met Radeon HD 7750. 

Kaveri-aankondiging

Moderatie-faq Wijzig weergave

Reacties (122)

De interne gpu van amd is stukken better als die van intel. Vond deze benchmark op internet.
http://www.bouweenpc.nl/r...hland-hd-4600-vs-hd-8670d
Ik zou op het moment sowieso geen Intel kopen voor een desktop APU.
Ivy Bridge generatie kon je nog hun beste IGP krijgen, maar de Iris Pro is niet verkrijgbaar op de desktop markt.

Heeft iemand een idee waarom? IGPs vind ik een van de interessantste ontwikkelingen van de afgelopen jaren, waarom zet Intel zichzelf uit deze markt voor zelfbouwers?
Daar testen ze AMD's beste IGP, maar niet Intels beste IGP.
De Intel HD5000 serie is veel sneller dan de hier geteste HD4600 (1,5/2 keer?).
Als je AMD daartegenover zet, is de grote voorsprong er niet meer.
Al moet ik er wel bij zeggen dan de HD5000 niet in desktop-socket-versie te krijgen is, en de AMD Richland wel (zoals niveaustylin hierboven al zegt).
Maar je kan bijvoorbeeld wel een Intel NUC moederbord/barebone krijgen met de HD5000, al is dat niet voor iedereen ideaal.

HD5200 test:
http://www.anandtech.com/...ew-core-i74950hq-tested/6
En wederom ben ik vooral benieuwd naar het stroomgebruik.
AMD maakt mooie processoren, of het nu om CPU, APU of GPU gaat, maar de concurentie doet het overal beter qua stroomverbruik.
AMD is de laatste tijd ook erg sterk in haar strijd met nVidia, maar ook daar doet nVidia het veel beter qua stroomgebruik.

Persoonlijk speelt grootte en geluid een bovenmatig grote rol als het aankomt op kiezen voor onderdelen. En sinds SSD's gemeengoed zijn geworden en optische drives ook niet meer noodzakelijk zijn, is een laag stroomverbruik/lage TDP voor mij van erg grote waarde.
Zolang Intel daarin beter presteert zal ik daarvoor graag de hogere prijs voor betalen.
Maar wie weet wat deze APU's gaan doen....
En wederom ben ik vooral benieuwd naar het stroomgebruik.
AMD maakt mooie processoren, of het nu om CPU, APU of GPU gaat, maar de concurentie doet het overal beter qua stroomverbruik.
AMD is de laatste tijd ook erg sterk in haar strijd met nVidia, maar ook daar doet nVidia het veel beter qua stroomgebruik.

Persoonlijk speelt grootte en geluid een bovenmatig grote rol als het aankomt op kiezen voor onderdelen. En sinds SSD's gemeengoed zijn geworden en optische drives ook niet meer noodzakelijk zijn, is een laag stroomverbruik/lage TDP voor mij van erg grote waarde.
Zolang Intel daarin beter presteert zal ik daarvoor graag de hogere prijs voor betalen.
Maar wie weet wat deze APU's gaan doen....
Dus jij betaald liever een flink hoger bedrag voor een Intel/Nvidia setje om er vervolgens gemiddeld meer dan 7 jaar over te doen voordat je die meerprijs terugverdient met het stroomverbruik ?

Edit: Een Titan/Intel combi voor BF4 kostte nota bene 1100 euro meer dan een AMD/AMD set, ja Intel/Nvidia was zuiniger qua verbruik maar hoelang denk je dat het duurt voordat je die 1100 euro terug hebt verdient door stroomkosten te besparen.....?
Bij bijvoorbeeld 40Watt verschil duurt het ruim 15 jaar 24/365 onder Full-Load voordat je dat overbrugt......Bij 4 uur per dag gamen duurt het al 90 jaar onder Full-load 8)7

Ik heb het al diverse keren doorgerekend hier op de nieuwsberichten, waar het op neerkomt is dat je ruim meer dan 4 uur moet gamen per dag wil je een kans hebben om de meerprijs van Intel/Nvidia tov AMD spullen terug te verdienen binnen 5 jaar.

Game je meer dan 4 uur per dag kun je beter het geld dat wilt uitgeven aan een gaming rig besteden aan de Game-verslavingszorg...... :+

Bottom-line: voor consumenten maakt Load verbruik niet uit tenzij spullen 24/7 aan staan.

Back-on-topic:
Imho is het echt een prestatie van AMD om BF4 (med.) op deze APU's met 28/40 FPS te krijgen.
Mantle kan daar dan nog weer eens een schepje bovenop doen........ :9

[Reactie gewijzigd door trm0001 op 13 november 2013 14:25]

Dus jij betaald liever een flink hoger bedrag voor een Intel/Nvidia setje om er vervolgens gemiddeld meer dan 7 jaar over te doen voordat je die meerprijs terugverdient met het stroomverbruik ?
...
Een Titan/Intel combi voor BF4 kostte nota bene 1100 euro meer dan een AMD/AMD set
...
Maar ik wil helemaal niet gamen.
De link naar het artikel voor de high-end GPU's is slechts een voorbeeld om te laten zien dat Intel en nVidia andere prioriteiten leggen dan AMD.

Het gaat me niet om de kosten van de stroom, maar om de benodigde koeling.
En hoe minder warmte er geproduceerd wordt, hoe minder er afgevoerd hoeft te worden.
Hoe minder warmte er hoeft te worden afgevoerd, hoe minder luchtstroming hoeft te worden geproduceerd.
En dat alles leidt ertoe dat het systeem stiller kan blijven.

In dat kader ben ik dan ook onder de indruk van de prestatiewinst van ARM CPU's.
Op dit moment draaien de grotere DAW pakketten allemaal op x86 architectuur, maar wie weet kun je over een tijdje een Logic, Protools of StudioOne op een multi core ARM systeem draaien. Ik kan me voorstellen dat juist daar het hebben van 64 'eenvoudige' ARM cores beter werkt dan 8 i7 'power-cores'.
Je hebt ook fluisterstille fans die toch heel wat hittte kunnen wegwerken hoor. Hitte hoeft niet persé meer herrie te zijn.

Al is een zuinig systeem natuurlijk wel makkelijker te koelen.
[...]
Maar ik wil helemaal niet gamen.
De link naar het artikel voor de high-end GPU's is slechts een voorbeeld om te laten zien dat Intel en nVidia andere prioriteiten leggen dan AMD.

Het gaat me niet om de kosten van de stroom, maar om de benodigde koeling.
En hoe minder warmte er geproduceerd wordt, hoe minder er afgevoerd hoeft te worden.
Hoe minder warmte er hoeft te worden afgevoerd, hoe minder luchtstroming hoeft te worden geproduceerd.

En dat alles leidt ertoe dat het systeem stiller kan blijven.

In dat kader ben ik dan ook onder de indruk van de prestatiewinst van ARM CPU's.
Op dit moment draaien de grotere DAW pakketten allemaal op x86 architectuur, maar wie weet kun je over een tijdje een Logic, Protools of StudioOne op een multi core ARM systeem draaien. Ik kan me voorstellen dat juist daar het hebben van 64 'eenvoudige' ARM cores beter werkt dan 8 i7 'power-cores'.
Ik wil niet vervelend doen, maar jij denkt serieus dat met dit soort High-end, High-powered hardware 10 tot 15 procent op nota bene 300+ Watts echt een wereldschokkend effect gaan hebben op de koeling en stilte ? Nee dus.

Dat van die Arm multicores had AMD enkele jaren geleden ook al in zijn vooruitziende blik gezien, vandaar de overname van Seamicro door AMD:
http://www.seamicro.com/products

AMD verkoopt dus letterlijk Intel en Arm CPU's naast zijn eigen producten :P
Een 80watt CPU is al passief te koelen, maar een leuk waterblokje kan ook zeer stil zijn.
Ik heb ook al geruchten gelezen dat AMD met een Kaveri T (35W TDP) gaat komen.

Voor desktops zal deze APU er komen in de smaken 35, 45, 65, 95 en 100Watt TDP dus daar zal voor jou ook wel wat tussen zitten ;)
Qua stroomverbruik onder load loopt AMD achter, Intel heeft nu eenmaal een voorsprong van een volledige generatie. In IDLE is AMD beter dan Intel.
Ik denk dat deze Kaveri chips heel erg populair gaan worden voor (streaming) NAS, Steam-box en HTPC. Dit zijn producten waar performance/$ belangrijker is dan performance/Watt. Ook betreft dit een van de weinige segmenten waar x86 nog zal groeien.

Ook niet geheel onbelangrijk is dat AMD geweldige stappen maakt (Coreboot, OSS VDPAU, DPM) op het favoriete besturingssysteem van bovengenoemde producten, Linux.

AMD heeft een visie en deze implementeren ze niet om Intel aan te vallen in het topsegment maar om uiteindelijk een positie in het mobiele segment (x86 & ARM) te verwerven. Al deze tussenstappen (de consoles, Mantle, Huma, HSA) dienen om het gat met Intel SoC's acceptabel te houden terwijl dit zich op termijn wel terugbetaald middels vriendelijk geprijsde producten die doen waar ze voor bedoeld zijn; AMD moet alleen niet failliet gaan onderweg.

PS. Je link naar de review gaat over Richland en niet over Kaveri. Da's VLIW vs. GCN. Dus de GPU prestaties zullen (in ieder geval tot 14nm Intel met meer GPU die-space komt) nog meer in het voordeel van AMD uit vallen.

[Reactie gewijzigd door Bulkzooi op 13 november 2013 17:53]

Ik vraag mij af hoe krachtig deze zijn tov intel in tablets. Als ze echt zo krachtig zijn, rollen ze de HD 5600 er volgens mij zo uit...
Dit zijn geen tablet CPU's, maar reguliere CPU's voor zover ik lees. Ze nemen het dus op tegen de Core i exemplaren, niet de atoms.

De kracht van de IGP's is knap, maar het blijft wat mij betreft een side show. Alles is tegenwoordig ruim krachtig genoeg om een desktop te tonen met Aero effecten. Maar een serieuze gamer koopt toch altijd nog een aparte videokaart.

Ben verder benieuwd naar benchmarks in vergelijking met Intel. Maar ergens denk ik dat ze nog achterlopen qua rekenkracht.
Ik begrijp niet dat er dubbele standaarden worden gehanteerd wanneer Intel met een CPU komt en AMD met een CPU komt.

Zoals je al zegt zijn veel CPU's tegenwoordig krachtig genoeg voor de meeste taken, maar er wordt toch gegeild op Intel CPU's terwijl men die rekenkracht niet nodig heeft.

Op GPU kracht kan er nog veel verbeterd worden en dat doet AMD dan ook maar dan wordt dat niet als belangrijk bestempeld door mensen zoals jij.

Terwijl een AMD CPU krachtig genoeg is voor de meeste taken en een krachtigere GPU juist een veel beter gebalanceerder systeem oplevert.

Op een of ander manier willen mensen onnodige extra CPU kracht waar ze nog dik extra voor betalen ook terwijl dat pure overkill is als je niet aan gaming of video editen ed. doet.
Collega van mij heeft een tablet met een i5 er in, is dus prima mogelijk :P
Collega van mij heeft een tablet met een i5 er in, is dus prima mogelijk :P
Zo zie je maar weer dat naam i5 niks meer zegt, en mensen verwart. Die i5 van je collega is geen desktop part maar een ultrabook part, waarschijnlijk de veel gebruikte i5-3317U.

i5-3317U is kreupelen desktop cpu die ze net zoveel ver terug klokken tot ze de 17w halen. Daarbij is het ook nog eens een dual core, wat volgens mijn ook niet voorkomt bij desktop i5. Kort gezegd je houd stuk minder dan 50% van snelheid over die een desktop i5 kan halen.

Eigenlijk hadden ze beter i4 of zo kunnen heten, naam i5 doet denken aan i5 van desktop maar dat zijn ze dus niet echt meer, zijn toegetakeld, voeger noemde we dat Celeron's, maar is tegenwoordig te verantwoorden om het stroomverbruik en krijgen ze high end naam mee. :D
AMD is wat dat betreft consequenter dan Intel. De afgeknepen apu's die worden gebruikt in de mobiele versies hebben over het algemeen een lager nummer.

Intel plakt er maar al te vaak een lettertje achter en de consument mag dan gissen wie of wat en moeten daarbij vertrouwen op de verkoper.
Zo moeilijk is de naamgeving van Intel nou ook weer niet.
  • I3 CPU voor alledaagse bezigheden waaronder browsen en multimedia
  • I5 Bedoeld voor de gamers onder ons
  • I7 Bedoeld voor de mensen die hoge eisen stellen aan hun CPU en deze ook vaak gebruiken voor High-end games en/of Photoshop
  • I7-Extreme bedoeld voor de die-hard video en image editors
Dan zijn er nog een paar cijfers met betrekking tot generatie en CPU clockspeed
  • Series 2xxx = Sandy bridge hoe hoger het getal van xxx hoe sterker de processor
  • Series 3xxx = Ivy bridge hoe hoger het getal van xxx hoe sterker de processor
  • Series 4xxx = Haswell hoe hoger het getal van xxx hoe sterker de processor
Dan hebben we nog een paar letters
  • QX = Desktop or mobile quad-core extreme performance processors
  • X = Desktop or mobile dual-core extreme performance processors
  • Q = Mobile quad-core high performance processors
  • E = Desktop energy efficient dual-core processors with TDP greater than or equal to 55W
  • T = Mobile highly energy efficient processors with TDP 30-39W
  • P = Mobile highly energy efficient processor with TDP 20-29 W
  • L = Mobile highly energy efficient with TDP 12-19W
  • U = Mobile ultra high energy efficient with TDP less than or equal to 11.9W
  • S = Mobile small form-factor with 22x22 BGA package
De ultieme Processor lijsten zijn altijd gewoon op de website te vinden dit geld voor zowel Intel als AMD, dus als iemand een fout heeft gemaakt heeft hij/zij gewoon niet goed genoeg onderzoek gedaan. Doe je niet genoeg onderzoek of heb je daar geen zin in dan is het je eigen schuld en kan je misschien de vraag stellen misschien moet ik PCs bouwen aan mensen over laten die er wel vanaf weten.

Die lijst voor Intel kan hier gevonden worden KLIK

Naar mijn idee heeft AMD een systeem vergelijkbaar met Intel, niet moeilijk te begrijpen maar ook niet altijd even logisch.

De lijst voor AMD kan hier gevonden worden KLIK

Zelf wil ik graag zo'n kaveri-apu testen in een steammachine die ik zelf in elkaar ga zetten zodra steamOS uitkomt, dan zou het theoretisch mogelijk moeten zijn om "simpelere" spellen te spelen met de ingebouwde GPU en de zware games te streamen vanaf mijn PC via WiFi of Ethernet.

Edit:
Het belangrijkste van deze post even gehighlight

[Reactie gewijzigd door ReDnAx1991 op 13 november 2013 16:30]

Ik opende een zwaar spel vroeger op mijn laptop via Remote Desktop. Het spel zelf was dan geinstalleerd op de PC.
Dat zijn ULV chips.
Atom Bay Trail is extra klein en designed voor tablets. Een Core i ULV is mogelijk, maar heeft een kortere batterijduur en kan meer oppervlakte innemen.
Dan zijn er de mobile chips die niet eens meer voor ultrabooks bedoeld zijn maar echt voor de laptop laptops zijn. Hier zal je pas Kaveri tegen kunnen komen, maar Kaveri is vooral een desktop chip. Denk aan HTPC's die daarnaast nog als console kunnen dienen zonder extra ruimte in te nemen.

Niet dat de tablets zonder GCN komen te zitten, Kabini is er ook nog. Deze heeft alleen geen Steamroller, maar Jaguar. Meer energiebewust/befficienter op de lagere voltages.
Of Temash, met nog lagere TDPs.
Helaas, dat zal dan het geval zijn. Neemt niet weg dat dit zeker een vooruitgang zou kunnen betekenen voor tablets :D
"De A10-7850K is voorzien van vier Steamroller-cores die op 3,7GHz tikken en de 512 streamprocessors hebben een kloksnelheid van 720MHz. Dat zou goed zijn voor 856Gflops, waarmee een demonstratiesysteem in staat was Battlefield 4 op 1080p met Medium-settings met 28-40fps op het scherm te zetten. Wat aantal streamprocessors betreft maakt Anandtech voor het gpu-deel van de apu de vergelijking met Radeon HD 7750."

Ik heb genoeg ervaring met AMD APU's en alle moderne games zijn in Medium settings prima te spelen. Ik snap dat als je een aparte gpu koopt als je alles in HIGH wilt spelen met meer dan 60 fps.
Sorry maar...

Zou je even kunnen verklaren wat jij "prima te spelen" noemt?
Mijn 6950 met flinke OC haalt in de moderne games op medium(soms hier en daar wat high opties) meestal altijd boven de 60fps op 1080p. Zelfs al dipt het soms eens naar 45-50 vind ik dit persoonlijk al zeer hinderlijk. Ik heb mijn eigen stijl van gamen (iedereen trouwens) en met zulke drops werkt het voor mij gewoon niet, zowel prestatie als funfactor gaan er zwaar op achteruit.

De 7750 is nu ook niet echt een monster en je spreekt trouwens over ervaring met AMD APU's dus bedoel je eigenlijk nog oudere GPU's, nee dank u.

Dit is dus mijn visie en wat ik prima te spelen noem :)
Met prima spelen bedoel ik: 40 fps. Nu weet ik dat dat voor een gamer niet echt lekker speelt maar ik heb niet gezegd dat de APU in medium boven de 60 fps zit... Met een HD8670D haal je in Dirt Showdown makkelijk 40 fps.

Als 2e: als ik ervaring heb met APU's heeft dat toch niks te maken met losse GPU's? De GPU die ingebakken zit in de APU kan ik prima vergelijken met losse GPU, ik heb al heel wat geprobeerd: van een Radeon HD 6670 tot een GTX 770.

Maar idd, als "echte" gamer zal je idd te weinig hebben aan 40-50 fps.
Nouja, om specifiek te zijn, games waar toch best wat actie in zit, voor een rts maakt het me niet zoveel.
Beschouw mezelf al lang niet meer als echte gamer hoor :)
Gewoon casual, maar gamen doe ik voor de fun en dan zet ik nog liever wat settings af dan onder de 60 te draaien.
Je klinkt als een PRO, maar ben je het ook? :')
Ver van, heel ver zelfs :)
Als ik last heb van drops zakt mijn niveau van matig naar noob dus :p
Vooral i.c.m. Mantle. Met een beetje mazzel heb je dan geen dedicated videokaart meer nodig om Battlefield 4 op medium, fullHD @ 60FPS te draaien :)
dat is wel wat ze proberen denk ik ;)
ik vind het een leuke ontwikkeling, het enige is Mantle ... dat is ZEER beperkt beschikbaar.
Natuurlijk is Mantle zeer beperkt beschikbaar, het is nog niets eens definitief op de markt.
Na de eerste game-ontwikkelaar zijn er nu nog drie over de brug gekomen en staat de teller op 4 en ik heb goede hoop dat er nog meer zullen volgen.

Volgend jaar zullen er mondjesmaat de eerste titels mee komen en daarna zal het snel meer worden is mijn voorspelling. Waarom? Omdat GCN en/of Mantle door AMD verwerkt zit in hun consoles, APU's en GPU's. Ze maken er serieus werk van.

ps: Zover ik weet heeft T.net dit nieuws nog niet opgepikt:
AMD Mantle Now Adopted by Three More Game Developers
http://www.tomshardware.c...-citizen-thief,24976.html

[Reactie gewijzigd door Madrox op 13 november 2013 11:28]

Ja en hoe dan ook, voor games is DirectX natuurlijk enorm log. Ik neem aan dat Nvidia zelf ook z.s.m. met hun eigen api komen, maar dat kan wellicht nog wel een jaar duren. AMD is hier natuurlijk ook al een tijd mee bezig en komt niet zo ineens uit de lucht vallen. Het zijn interessante tijden!
'natuurlijk' enorm log? Ik meen mij bij de introductie van DirectX te herinneren dat het bejubeld werd om zijn gestroomlijnde aanpak. (er is een reden dat het de alternatieve volledig heeft verpulverd)

Mantle is interessant maar volgens mij meer een indicatie dat Microsoft DirectX wat verwaarloosd heeft op het gebied van features (dezelfde technici hebben aan de Xbox gewerkt en je kan mensen maar 1 keer inzetten) dan dat DirectX nu meteen bloatware is.

Bovendien als je mantle gebruikt heb je nog steeds DX nodig (of er iig nog steeds baat bij) Direct X regelt namelijk ook Input, Netwerk en Sound en hoewel mogelijk denk ik niet dat iemand dat van scratch wil gaan schrijven
DX was idd bij introductie "gestroomlijnt", hoewel, het ging er meer om dat het een breed scala aan hardware support met zich mee bracht.

We zitten nu echter op DX 11+ en er zijn in de loop der jaren nogal wat "laagjes" aan toegevoegt. In die zin is het ook niet echt efficient. Verder worden er veel cpu-calls gebruikt, onnodige cpu-calls, Volgens MS komt dat door slecht programmeerwerk, misschien is dat wel zo maar de dev's hebben zeker zorgen en wensen, waar DX schijnbaar niet aan kan/wil voldoen.

DirectX kan 1 ding iig niet doen; de GCN benutten van AMD! Dat kan AMD alleen zelf, met Mantle. De API zal, net als bij de console, "closer to metal" gaan opereren en dat kan alleen maar winst opleveren.

Dat MS zegt dat ze Mantle niet ondersteunen, is een politiek correct antwoord. Eigenlijk hebben de interviewers de verkeerde vraag gesteld:

De vraag zou moeten zijn: Gebruiken jullie dezelfde commands als Mantle/GCN? Dan zou het antwoord ja zijn, want de tech intern is ook een APU van AMD ;)

Daarom zal het porten naar de PC een stuk makkelijker gaan, het extra programmeerwerk minimaal; de console programming code en pc progamming code liggen nu nml. een stuk dichter bij elkaar. Volgens mij doet AMD hier goede zaken.

[Reactie gewijzigd door Madrox op 13 november 2013 12:48]

We zitten nu echter op DX 11+ en er zijn in de loop der jaren nogal wat "laagjes" aan toegevoegt.
Juist niet. In DX10 heeft men juist de API gestroomlijnd, en heeft men een hoop functionaliteit eruit gesloopt, en de overige functionaliteit zo verdeeld dat er zo veel mogelijk in de common runtime gedaan werd, zodat er zo min mogelijk tussen applicatie en kernel/driver-laag geschakeld hoeft te worden.

Sorry hoor, maar ik kan me er zo aan ergeren dat tweakers hier de meest grote onzin lopen te verkopen, niet gehinderd door enige kennis van zaken, en het dan ook nog proberen te brengen alsof ze er verstand van hebben... met zo'n toontje van "Ik zal je wel even uitleggen hoe het zit".

Direct3D10/11 lijken letterlijk in NIETS op hun voorgangers. Maar dat kun je natuurlijk alleen weten als je het ooit van dichtbij hebt gezien, en een beetje weet waar je over praat. Dat is bij jou overduidelijk niet het geval.
Volgens MS komt dat door slecht programmeerwerk
Heb je daar een bron voor?
Ik heb MS namelijk nooit iets dergelijks horen roepen, en de verbeteringen die ze in DX10/11 hebben doorgevoerd geven juist aan dat MS het er mee eens is dat het in ieder geval voor een deel door een beter ontworpen API en drivermodel aangepakt kan worden.
Voor een deel is het natuurlijk ook gewoon de overhead die je nu eenmaal krijgt als je hardware gaat abstraheren. Dat is iets dat Mantle niet doet, en daarom is een 1:1-vergelijking sowieso nooit mogelijk.
Dan zou het antwoord ja zijn, want de tech intern is ook een APU van AMD ;)
Ja, zo lust ik er ook nog wel een. Op die manier geldt dat ook voor Direct3D en OpenGL op systemen met een GCN-kaart. Uiteindelijk wordt alles toch naar GCN-commando's vertaald door de driver.
Daarom zal het porten naar de PC een stuk makkelijker gaan
Juist niet. Mantle komt niet overeen met de XBox API, niet met de PS4 API, niet met D3D, niet met OpenGL, en niet met nVidia of Intel.
Porten van XBox code naar Windows was altijd al vrij simpel: beiden is Direct3D. Een iets ander smaakje van Direct3D weliswaar, maar het lijkt erg op elkaar.
Voor niet-GCN systemen zul je sowieso op de PC ook nog steeds Direct3D of OpenGL nodig hebben, dus Mantle helpt helemaal niks bij porten, het is alleen maar extra werk.

[Reactie gewijzigd door Scalibq op 13 november 2013 13:01]

Maw: wat AMD ons verteld is een broodje aap verhaal ?

Weet je waar ik moe van word? Van zogenaamde specialisten die denken het beter te weten dan de fabrikant O-)

uist niet. Mantle komt niet overeen met de XBox API, niet met de PS4 API, niet met D3D, niet met OpenGL, en niet met nVidia of Intel.

Letterlijk gezien heb je gelijk. Echter hoor ik geruchten, dat de command "calls" in de Xbox API vrijwel identiek zoniet identiek zijn als Mantle gaat gebruiken. Lijkt me niet zo onlogisch, de APU in de Xbox is nml. ook van AMD. Hoe weet jij zo zeker dat dat anders is dan ?

Het is alleen maar extra werk...sjur. Schijnbaar zien 4 developers er wel brood in. Daar gaan we weer, lekker negatief.
Je gaat volkomen voorbij aan wat ik hier zeg, ze moeten nml. ook code voor de console schrijven. Veel daarvan is ook brijkbaar voor Mantle. Dat is wat ik begrijp uit AMD's woorden.


ps: OVer DX gesproken. DX10/11 is idd anders dan DX9 en ouder, zal het wel even uitspellen voor je.

In order to achieve backwards compatibility, DirectX in Windows Vista contains several versions of Direct3D:[29]
Direct3D 9: emulates Direct3D 9 behavior as it was on Windows XP. Details and advantages of Vista's Windows Display Driver Model are hidden from the application if WDDM drivers are installed. This is the only API available if there are only XP graphic drivers (XDDM) installed, after an upgrade to Vista for example.
Direct3D 9Ex (known internally during Windows Vista development as 9.0L or 9.L): allows full access to the new capabilities of WDDM (if WDDM drivers are installed) while maintaining compatibility for existing Direct3D applications. The Windows Aero user interface relies on D3D 9Ex.
Direct3D 10: Designed around the new driver model in Windows Vista and featuring a number of improvements to rendering capabilities and flexibility, including Shader Model 4.
Direct3D 10.1 is an incremental update of Direct3D 10.0 which shipped with, and required, Windows Vista Service Pack 1.[30] This release mainly sets a few more image quality standards for graphics vendors, while giving developers more control over image quality.[31] It also adds support for cube map arrays, separate blend modes per-MRT, coverage mask export from a pixel shader, ability to run pixel shader per sample, access to multi-sampled depth buffers[32] and requires that the video card supports Shader Model 4.1 or higher and 32-bit floating-point operations. Direct3D 10.1 still fully supports Direct3D 10 hardware, but in order to utilize all of the new features, updated hardware is required.[33]


Oja, voor je weer reageert: lees ook dit eens:
https://forums.robertsspa...antle-and-star-citizen/p4
Die kunnen het beter verwoorden dan ik.

[Reactie gewijzigd door Madrox op 13 november 2013 15:01]

Maw: wat AMD ons verteld is een broodje aap verhaal ?
Dat zeg ik niet. Maar wat AMD zegt is niet helemaal hetzelfde als wat jij zegt.
Het gaat er vooral om wat AMD niet zegt, maar wel impliceert, wat anderen vervolgens weer opblazen. Een goed voorbeeld was dat AMD in eerste instantie Mantle zo bracht alsof het 1 API was die op Windows, PS4 en XBox One gebruikt werd. Dat hebben ze niet letterlijk gezegd, maar zo werd het wel door de meeste nieuwssites geinterpreteerd. Daarna moest Microsoft dat dus weer rectificeren.

Wat AMD *zegt*, klopt wel. Mantle zal ongetwijfeld lagere call-overhead hebben dan D3D.
Maar wat mensen als jij er vervolgens van maken... dat is iets heel anders. Zoals jouw claims over dat het porten makkelijker maakt bijvoorbeeld (wat dus weer voortkomt uit het feit dat AMD het deed lijken alsof Mantle op consoles werd gebruikt... en voor het gemak vergeet je even dat de Xbox sowieso al DirectX gebruikte).
Weet je waar ik moe van word? Van zogenaamde specialisten die denken het beter te weten dan de fabrikant O-)
Dus fabrikanten hebben volgens jou het per definitie bij het juiste eind? Nou, dan heb ik nieuws voor je....
Letterlijk gezien heb je gelijk. Echter hoor ik geruchten, dat de command "calls" in de Xbox API vrijwel identiek zoniet identiek zijn als Mantle gaat gebruiken. Lijkt me niet zo onlogisch, de APU in de Xbox is nml. ook van AMD. Hoe weet jij zo zeker dat dat anders is dan ?
Als het identiek was, dan was het niet nodig om DICE de API te laten ontwikkelen, want dan hadden MS/AMD die API al ontwikkeld. Dan was er inmiddels ook wel Mantle-documentatie en een SDK beschikbaar, want die zijn er voor de XBox One ook al een tijd.
Het is alleen maar extra werk...sjur. Schijnbaar zien 4 developers er wel brood in. Daar gaan we weer, lekker negatief.
Dat zijn twee verschillende dingen.
Jij beweert dat het ports makkelijker maakt. Dat is dus niet zo.
Dat er developers zijn die er de extra moeite in willen steken, is iets anders.
Je gaat volkomen voorbij aan wat ik hier zeg, ze moeten nml. ook code voor de console schrijven. Veel daarvan is ook brijkbaar voor Mantle. Dat is wat ik begrijp uit AMD's woorden.
Nee, JIJ gaat voorbij aan wat IK zeg. De XBox One draait al DirectX, en veel daarvan is ook bruikbaar voor Windows. En dan ook veel breder toepasbaar, want niet alleen voor AMD GCN-hardware.
Dat Mantle ook gewoon HLSL_shaders slikt, net als D3D, ja dat is zo. Maar die HLSL shaders kun je dus toch al op XBox One en Windows gebruiken. Er zijn zelfs tools om HLSL shaders te vertalen voor gebruik in OpenGL.
Daar voegt Mantle dus niets aan toe.
ps: OVer DX gesproken. DX10/11 is idd anders dan DX9 en ouder, zal het wel even uitspellen voor je.
Ik heb het over ECHTE info. Vergelijk dit: http://msdn.microsoft.com...op/bb174336(v=vs.85).aspx
Met dit: http://msdn.microsoft.com...op/bb173528(v=vs.85).aspx
En hetzelfde voor de andere interfaces.
Vrijwel alle functies werken compleet anders, of bestaan uberhaupt niet meer in D3D10+.
Dan heb je het over de API. Ik heb sterk de indruk dat je niet eens weet wat een API precies is.

De verschillende versies van D3D (en dus hun APIs) leven compleet naast elkaar, onafhankelijk van elkaar (daarom hoef je dus ook nooit bang te zijn dat je oude D3D software niet meer werkt als er een nieuwe versie uitkomt). Blijkbaar denk jij dat D3D10 hetzelfde is als D3D9 met iets extra's. Dat is dus niet zo (bij OpenGL daarentegen weer wel, en daar heb je dan ook vaak WEL met compatibility-problemen te maken). Als je iets van programmeren weet, zie je dat de interface van D3D10 geen subclass is van D3D9 en eerder (en dat kan ook niet, want de interfaces zijn in de verste verte niet compatible met elkaar, zoals ik al zei). D3D11 is wel bijna identiek met D3D10, maar het is ook een onafhankelijke interface. Alleen de minor versies (10.1, 11.1, 11.2) maken gebruik van dezelfde interfaces. En daar zie je dan ook dat bv ID3D10Device1 afgeleid is van ID3D10Device.

[Reactie gewijzigd door Scalibq op 13 november 2013 20:09]

Het porten van de GCN-console gaat makkelijker. Wat je vergeet is dat men zowiezo ook een ps4 en Xbox one versie moet schrijven.
Waar ook de AMD APU in zit, nietwaar!

De DX versie, openGL of whatever, ja die moeten nog steeds gewoon gedaan worden. Dat is ook niet van AMD, nietwaar!

Maar goed, lees de info van mijn linkje even, iemand legt het je daar haarfijn uit.

Zal er wat noten uithalen:
The main objective of DirectX compatibility; every DirectX game should work on every conceivable piece of hardware. For Mantle there are other objectives: efficiency, performance, and to bridge the gap between the PC and the consoles are the reason why we have developed it.

That is the most clearly stated fact that AMD is indeed running a Mantle equivalent on XB1 and PS4. This basically puts that discussion to rest.


Xbox1 - > low level API from Microsoft - > Metal = GCN
PS4 - > low level API from Sony - > Metal = GCN
PC - > low level API from AMD - > Metal = GCN

So this is getting close to what I am saying, but its still a bit too simplistic. It actually looks more like this:

XB1 = Game > DirectX 11.2 > DirectX 11.2 Wrapper for Mantle Driver API (Close to Metal) > Mantle Driver > GCN
PC = Game > Mantle API (Direct to Metal) > Mantle Driver > GCN


So, first off: MS developed the wrapper in-house. It is their code. Further, it is a DirectX wrapper, so to speak, and thus calling it DirectX isn't really being dishonest. The dishonesty comes in saying that "the XB1 isn't Mantle and couldn't be mantle" which is merely an attempt to market DirectX and Windows 8. AMD and the game dev's that are working on XB1 games have a close relationship with MS and would never say otherwise. MS made the wrapper and if they want to call it DirectX, fine. If they wanted to call it "Bill Gate's Wild Flying Pink Spotted Rhino Circus API" nobody could or would stop them. But at the end of the day, no matter how efficient their wrapper is or how good the development tools they develop are, their wrapper can't be as efficient as direct to metal. Further, forcing people to use DirectX on a system that could otherwise use Mantle isn't in the developer's favor, unless that developer plans to make it an XB1 exclusive -- looking at you RYSE.

At the end of the day, I'm sure most major game engines will include code for running on DX and Mantle, so it may not make a huge difference. But if you go back and read why it is important to AMD and developers, it is about creativity, performance, and portability. If you are making a game that is meant to go on all systems, but you know you are going to have to get it to run on XB1's DirectX as well, you may be slightly more limited than you would otherwise be.



ps: nee, het is niet identiek maar heeft zeer waarschijnlijk veel raakvlakken. Daar in de console ook GCN huist, met een AMD APU, weet je nog? AMD weet precies wat er in zit, nee, ze maken het zelf, Hoe spaans wil je het nog hebben ?

[Reactie gewijzigd door Madrox op 13 november 2013 15:19]

Het porten van de GCN-console gaat makkelijker. Wat je vergeet is dat men zowiezo ook een ps4 en Xbox one versie moet schrijven.
Waar ook de AMD APU in zit, nietwaar!
Volgens mij snap je het niet.
Mantle is een API, net als D3D. Het is niet de APU zelf.
Je spreekt de APU niet met Mantle aan op een XBox One of PS4.
Op de XBox kun je hem wel aanspreken met D3D, net zoals in Windows.
De DX versie, openGL of whatever, ja die moeten nog steeds gewoon gedaan worden. Dat is ook niet van AMD, nietwaar!
Onder een D3D of OpenGL versie kom je niet uit als je meer dan alleen GCN-hardware op Windows wil ondersteunen.
Mantle wel, want GCN-hardware werkt onder Windows ook wel met D3D of OpenGL. En Mantle kun je ook niet op de consoles gebruiken. Dus Mantle is puur optioneel.
ps: nee, het is niet identiek maar heeft zeer waarschijnlijk veel raakvlakken. Daar in de console ook GCN huist, met een AMD APU, weet je nog? AMD weet precies wat er in zit, nee, ze maken het zelf, Hoe spaans wil je het nog hebben ?
Je kunt wel hele verhalen quoten, maar als je ze zelf nog niet eens begrijpt, heb je er niet zo veel aan.
Dat verhaal dat je hier quote, rammelt aan alle kanten. Zo trekt men de conclusie dat XBox, PS4 en Mantle hetzelfde zijn, uit AMD's woorden: " to bridge the gap between the PC and the consoles"
Dat is een HEEL vaag statement, en kan van alles betekenen. Om dat als bewijs aan te voeren dat de consoles de Mantle-API gebruiken... dan moet je het wel HEEL graag willen geloven. Fanboy-alert dus. Jammer dat je dat zelf niet inziet, en meegaat in deze massahysterie.

[Reactie gewijzigd door Scalibq op 13 november 2013 15:29]

Please, APU = de harware en API is de driver die de communicatie regelt, toch ? Gaan we nu terug naar de basics ?

GCN-hardware werkt ook met Windows zonder Mantle idd, dan mis je dus wel de GCN voordeeltjes.

Mantle kan je niet op de consoles gebruiken > check.
Weetje, we praten langs elkaar heen.

Volgens mij wil jij het niet snappen. De XB1 gebruikt een so to speak "wrapper" om met de GCN/APU te communiceren. Je weet wel, dat spul dat door AMD is ontwikkeld. De APU, met daarin een IGP die heel veel weg heeft van de HD7850 archtectuur.

Volgens mij weet AMD ook heel goed welke commands er gebruikt zijn/moeten worden. Denk je ook niet ?

Commands/code, die ze ook kunnen/zullen gebruiken in hun Mantle API en/of makkelijk om kunnen zetten. Niet alles, nogmaals. VEEL!
Dat is altijd beter dan vanaf scratch een port maken, denk ik zo.
OS x, Linux en Windows zijn niet van Intel. Intel=hardware, de rest software.

De console APU is van? Juist, AMD. Die daarin AMD GCN gebruikt. GCN, wat ook in hun nieuwere AMD videokaarten zit. Die ze met de AMD Mantle API gaan ontplooien.

Hoe denk je dat MS hun Direct-X versie voor de Xbox One hebben geschreven ? Zonder inbreng/hulp van AMD? Dacht het niet.

Ja, er komt meer bij kijken. dat snap ik echt wel. Dat AMD claimt dat het niet zoveel moeite kost om GCN te benutten via de AMD Mantle APi snap ik ook. Zo te horen aan de uitspraken van enkele CEO's van die game-ontwikkelaars, geloven zij er ook in.

Het word simpeler voor de game-dev's die toch al voor de console programmeren, omdat de consoles x86 archtectuur hebben en de AMD APU met GCN. Nog steeds werk, helemaal waar. MAar toch ff andere koek dan een RISC-console game met "unknown" GPU/IGP etc.etc. omzetten.

In een blog is AMD daar duidelijk over:

“It’s not that Mantle is the initial language with which developers are writing their games on each platform, as some have surmised; the point of Mantle is that it’s easy to reuse, in whole or in part, the development effort expended on the next-generation consoles when bringing the same game to life on the PC. This is because Mantle allows developers to use the same features and programming techniques they are already utilizing for next-gen game consoles. And while the initial iteration of Mantle is intended specifically for PCs, it has been designed from the beginning to be extensible to other platforms as well.

[Reactie gewijzigd door Madrox op 13 november 2013 22:50]

a, en de consoles zijn van Sony en Microsoft, en die verzorgen ook de software.
Waar wil je heen?

Dat AMD nauw betrokken bij die software, met name het api gedeelte voor de APU. Of ga je nu zeggen dat dat Intel daarvoor niets van AMD nodig heeft ?
Je hebt het hier wel over 3 partijen.
Microsoft wil dat de XBox met de D3D API werkt, Sony wil dat de PS4 met hun eigen API werkt, en AMD wil daar dan weer Mantle in zien te doen.
Ik denk niet dat AMD zoveel invloed heeft dat ze MS en Sony in dezelfde richting kunnen sturen.
Het zal meer zo zijn dat MS en Sony de highlevel API specficeren, en dat AMD daar een driver voor moet maken. Dat zijn dus twee verschillende highlevel APIs en twee verschillende drivers.
'natuurlijk' enorm log? Ik meen mij bij de introductie van DirectX te herinneren dat het bejubeld werd om zijn gestroomlijnde aanpak. (er is een reden dat het de alternatieve volledig heeft verpulverd)
Inderdaad, op dit moment is het vooral een "Wij van WC-Eend'-verhaal van AMD, want of Mantle daadwerkelijk zo veel sneller als Direct3D gaat zijn, moet nog blijken.

Ik vind het persoonlijk ook niet zo heel veel zeggen als game developers met Mantle gaan werken. Dat is niet veel anders dan wat we tot dusverre met TWIMTBP en Gaming Evolved gezien hebben: developers krijgen een leuke zak geld, en er komen wat devs van nVidia/AMD over de vloer, die dan helpen om PhysX/CUDA/TressFX/etc in je spelletje te bouwen, om maar meer groene/rode videokaarten te kunnen verkopen.

Het is niet direct een indicatie dat technologie X nou per se zo baanbrekend of onmisbaar is voor de toekomst.
Laten we eerst even kijken wat DICE ervan bakt in Battlefield 4.
Consoles zijn toch wel bewijs dat low level aanpakt veel meer data kan tonen op het scherm, in sommige gevallen zelfs factor van 10. Is ook niet raar want via hogere programmeer taal of api zoals directx die er extra dikken laag tussen legt zorgt voor extra vertraging, het extra werk wat dat met zich meebrengt moet toch uitgevoerd worden, directx is behoorlijk dikke laag geworden, maakt het allemaal heel wat simpelere maar ook trager.

Het is overigens niks nieuws dat met van api of hogere taal overstapt naar low level, dat doen ze al zin de dag dat het kan, en op alle gebieden niet alleen bij games maar ook bij andere software, en beperkt zich niet tot pc of console maar word overal toegepast. Hogere taal is langzamer maar veel al simpelere, low level taal zijn lastiger maar altijd sneller en neemt minder ruimte in dan hogere taal, heb het nog nooit anders gezien.

Zie snelheidswinst bij zoveel type cpu's(ARM, AVR, PIC, x86, etc), C tegenover assembler scheelt altijd behoorlijk wat snelheid en ruimte, C is hogere taal en assembler is low level taal. Hoe dicht je bij de hardware zit hoe efficiënter je kan werken, dat zien we overal.

Edit
Het waren de ontwikkelaar die al jaren lobbyen bij AMD, MS en nvidia voor low level toegang op de pc. ;)

Is dus andersom dan jij denkt, AMD en Nvidia dringen niks op met hun low level api maar beantwoorden juist behoeft van ontwikkelaars.

[Reactie gewijzigd door mad_max234 op 13 november 2013 13:07]

Consoles zijn toch wel bewijs dat low level aanpakt veel meer data kan tonen op het scherm, in sommige gevallen zelfs factor van 10.
Ja, maar dat is toch niet vergelijkbaar? Een console is een compleet fixed systeem, dat ALLEEN maar een game hoeft te draaien, en die game is 100% geschreven op EXACT de hardware die jij in je systeem hebt.
directx is behoorlijk dikke laag geworden, maakt het allemaal heel wat simpelere maar ook trager.
Oh god, weer zo een.
Probeer alsjeblieft niet te doen of je er verstand van hebt.
Direct3D 10+ is juist een veel dunnere laag geworden, die ook veel lastiger te gebruiken is (de programmeur moet nu zelf z'n eigen pipeline bouwen, z'n eigen matrix-systeem managen, z'n eigen states managen etc).
Het is nu VEEL lastiger om D3D te gebruiken dan in versie 9 en eerder. Voor beginners is het ook niet meer te doen. Alleen ervaren programmeurs krijgen D3D10+ uberhaupt aan de praat. De drempel ligt enorm hoog.

Mantle op Windows zal sowieso niet zo efficient worden als een console. Ze kunnen wel iets winnen door de abstractie van de GPU over te slaan. Maar verder draai je nog wel een volwaardige versie van Windows, met alle abstractie van dien, en achtergrondtaken etc, waar je op een console niet mee te maken hebt. Ook moet je nog steeds rekening blijven houden met verschillende typen CPUs en GPUs, want al beperk je het tot GCN, die heb je ook nog vanaf instap-APUs tot aan high-end multi-GPU setups.
Edit
Het waren de ontwikkelaar die al jaren lobbyen bij AMD, MS en nvidia voor low level toegang op de pc. ;)

Is dus andersom dan jij denkt, AMD en Nvidia dringen niks op met hun low level api maar beantwoorden juist behoeft van ontwikkelaars.
Ik ben zelf een ontwikkelaar, en ik heb die ontwikkelaars die dat riepen altijd al onnozel gevonden. Waren over het algemeen n00bs. Ik ben nog opgegroeid in de tijd van MS-DOS, waar je zelf alle hardware-abstractie voor je rekening moest nemen. Je kunt je niet voorstellen hoe dankbaar ik MS was toen ze met DirectX kwamen... Ik kon gewoon software ontwikkelen die vrijwel net zo snel was als m'n geoptimaliseerde DOS-spul, zonder dat ik rekening hoefde te houden met wat voor videokaart of geluidskaart of wat dan ook. Zolang de gebruiker maar een driver had geinstalleerd, werkte het, en kreeg ik low-level toegang, ook tot vrij geavanceerde functies, die in DOS bijna ondoenlijk waren om te ondersteunen (omdat iedere fabrikant het weer compleet anders deed).

DirectX is al heel laag van niveau, lager wil/kun je niet gaan. Da's ook het grote nadeel van Mantle: het werkt alleen maar op die paar GCN-kaarten. Straks ben je weer terug in het DOS-tijdperk, waar je voor iedere videokaart een eigen codepad in je app moet gaan bouwen. En dan is het nog maar afwachten of het de moeite waard is. Ik denk dat het vies gaat tegenvallen.

[Reactie gewijzigd door Scalibq op 13 november 2013 13:19]

Och ja, daar is hij weer. De "specialist" :+

Weet je, ik zal je bij AMD voorstellen. Volgens mij kunnen ze dankzei jou miljoenen euro's besparen }:O

De exacte hardware is ook niet zo'n probleem. AMD Mantle spreekt de GPU aan, met exact dezelfde GCN . AMD hoeft nml. niet, zoals DX, ook de muis, audio etc.etc. aan te sturen.

DX10/11 = dunner geworden, omdat ze er veel compabiliteit uitgeflikkerd hebben. Daar hebben ze wat "emu's" naast gezet, om oudere te spellen te laten draaien. Qua performance is het er amper op vooruit gegaan.

[Reactie gewijzigd door Madrox op 13 november 2013 14:44]

Je gaat nu wel erg kort door de bocht en je zegt eigenlijk het tegendeel wat AMD aangeeft 8)7

Die gaan geen nieuwe API ontwikkelen voor slechts 3 a 4% winst.
Lijkt me logisch. 10% zou ik al mooi vinden. Maar wat nog mooier is, is dat behalve de FPS de frametimes er ook op vooruit gaan. Tenminste, dat beloofd AMD hier beste man. Je zal het er wel weer niet mee eens zijn of er niets van verwachten.
Hoezo? Wat heeft AMD aangegeven dan? Voor zover ik weet alleen "up to 9x faster draw calls".
Dan weet jij niet genoeg

AMD/DICE heeft veel meer detail vrij gegeven over wat Mantle moet gaan doen, zag er bijvoorbeeld ook tussen staan dat alle CPU cores benut kunnen worden

Bekijk bijvoorbeeld de Mantle in Frostbyte Slide
http://www.extremetech.co...s/2013/10/AMD-Mantle2.jpg

Of het ook echt waar gaat zijn is een 2e

[Reactie gewijzigd door Sinester op 13 november 2013 19:02]

Dan weet jij niet genoeg

AMD/DICE heeft veel meer detail vrij gegeven over wat Mantle moet gaan doen, zag er bijvoorbeeld ook tussen staan dat alle CPU cores benut kunnen worden

Bekijk bijvoorbeeld de Mantle in Frostbyte Slide
http://www.extremetech.co...s/2013/10/AMD-Mantle2.jpg
Ik had het over performance-getallen, wel even de context van het gesprek volgen, gaarne.

Dit zijn allemaal loze marketing-kreten. Vertelt dat Mantle geweldig is vanwege dit-en-dat... Het zal allemaal wel... Maar ik zie AMD nergens zeggen van "Game X haalt N FPS meer met Mantle dan met D3D" of iets.
Heb je daar wel info over dan? Zoals ik al zei, het enige getal dat AMD heeft genoemd, voor zover ik weet, is die 9x draw calls... Wat dus niets zegt over performance in de praktijk.
Wij van WC-Eend ?

Matt Skynner, VP and General manager of AMD's graphic division.

Niet de eerste de beste. Hij steekt dan wel echt zijn nek uit en word het lachertje van het jaar als we jou mogen geloven.

Nog wat leuke prietpraat uit een interview:

Q. What was the influence to do something like Mantle when we have seen other projects like "GLIDE" fail? What do you think will make your solution better or more enduring?

A. Game developers requested Mantle themselves. That's the key difference. The industry told us they want it.

Q. A followup: you mentioned that developers requested Mantle. How so? And what is your favorite color?

A. Johan from DICE sat across the table from Matt Skynner, the GM of our graphics business, and explained how he wanted a close-to-metal graphics API. Matt said "we can do that," and the rest was history. Other devs are very excited when they learn about what Mantle is capable of, and how Mantle can help them bring their game to life on the PC.

Ze zijn zo te zien nog niet bij jou langsgeweest, of vice-verca O-)

[Reactie gewijzigd door Madrox op 13 november 2013 22:57]

a dat zijn de twee partijen achter Mantle, niet bepaald onpartijdige bronnen.
Alsof de rest wel onpartijdig is, zeker ? Zijn er zat, die met een Nvidia "slogan" hun game titels uitbrengen. Dat daar veel rook en modder vandaan komt, zal mij ook niks verbazen.

AMD wil Mantle juist breed ondersteund krijgen, daar kan niemand ze op afrekenen. Nee, MS en Nvidia vooral, die twee zien er niks in en waarom? Eigenbelang eerst, nietwaar?

[Reactie gewijzigd door Madrox op 15 november 2013 12:04]

Alsof de rest wel onpartijdig is, zeker ?
Dat zeg ik niet. Ik zeg dat je naar beide kanten moet kijken.
De waarheid ligt ergens in het midden.
AMD wil Mantle juist breed ondersteund krijgen
Yup, puur eigenbelang.
Nee, MS en Nvidia vooral, die twee zien er niks in en waarom? Eigenbelang eerst, nietwaar?
Uiteraard, ze willen allemaal zo veel mogelijk geld verdienen, maar daar gaat het hier niet om.
Het gaat er hier om dat de partijen tegenstrijdige belangen hebben. De partij met de meeste invloed zal dan bepalen wat er gaat gebeuren, en dat is toch echt Microsoft. Die hebben zowel het Windows-platform als de XBox in handen.
'natuurlijk' enorm log? Ik meen mij bij de introductie van DirectX te herinneren dat het bejubeld werd om zijn gestroomlijnde aanpak. (er is een reden dat het de alternatieve volledig heeft verpulverd)
Er bestaat ook nog zoiets als OpenGL, destijds het alternatief voor DX.
Ik kan me de tijd nog heugen dat je voor Nvidia of ATI koos omdat je meer DX games speelde of juist OpenGL.
(OpenGL niet verwarren met OpenCL)
Waarom denk je dat nVidia met een eigen API gaat komen? Ik denk zelf van niet. Als ze dat nodig vonden, hadden ze dat al lang gedaan. nVidia heeft namelijk een veel grotere software-afdeling dan AMD, en heeft ook al talloze APIs en OpenGL-extensies ontwikkeld. nVidia ondersteunt ook meer OSen dan AMD.
Ze hebben dus meer resources dan AMD op dat gebied. Als ze nut zagen om die resources in te zetten om een nieuwe graphics-API te ontwikkelen, hadden ze dat al gedaan.
Dat nut kan er wel eens snel aankomen, of beter gezegt; de noodzaak. Kan me nml niet voorstellen dat ze het leuk zullen vinden, als AMD idd met die Mantle APi 10 a 20% meer performance eruit perst. Dan zien de videkaart performance lijstjes er straks heel anders uit, met games die Mantle ondersteunen. Zeker als er naast de vier devs die Mantle wel zien zitten er nog meer volgen.

Het word iig spannend, ik kan niet wachten op de eerste BF4-Mantle uitslagen. Straks valt het toch tegen en dat zou ik jammer vinden.

Als de winst echter richting de 15 a 20% gaat en de eerste titels "van de band rollen" kan dat genoeg zijn om meer dev's over de streep te trekken.

MS en Sony zitten er echter niet op te wachten, lijkt het. Die willen helemaal niet meer concurrentie van de pc markt. John Carmack zei ook al zoiets in een interview. Dat ging met name ook over de Steambox en Valve. "downright hostile" , zie hij letterlijk.

Helaas voor hen kunnen ze alleen maar een een beetje dwarsliggen, maar Mantle niet tegenhouden. AMD weet zo ongeveer wat er omgaat in de console, dankzij hun APU en GCN.

[Reactie gewijzigd door Madrox op 13 november 2013 22:42]

Kan me nml niet voorstellen dat ze het leuk zullen vinden, als AMD idd met die Mantle APi 10 a 20% meer performance eruit perst. Dan zien de videkaart performance lijstjes er straks heel anders uit, met games die Mantle ondersteunen. Zeker als er naast de vier devs die Mantle wel zien zitten er nog meer volgen.
Dat is allemaal als-als.
Voorlopig maakt nVidia zich nergens druk om, en die kunnen echt wel goed inschatten wat zo'n Mantle-API in de praktijk zal brengen aan performance.
Hun driver-team is dag en nacht bezig met het meten van CPU-overhead in hun D3D en OpenGL drivers, en manieren verzinnen om het zo efficient mogelijk te maken. Het is al lang bekend waar de bottlenecks zitten, en hoe groot die zijn.
Helaas voor hen kunnen ze alleen maar een een beetje dwarsliggen, maar Mantle niet tegenhouden.
Ze kunnen Mantle wel tegenhouden op hun eigen consoles. Zij leveren immers het OS en de SDK. Het is voor MS en Sony dus niet zo moeilijk om de boel zo dicht te timmeren en om te gooien dat developers geen gebruik kunnen maken van Mantle-achtige low-level APIs.
Mantle hoeft ook helemaal niet naar de console, het is een API voor de PC. Bovendien zit GCN al in de console, GCN, kern van het hele "metal to surface" gebeuren en ontwikkelt door AMD.

Er valt dus niks te timmeren, MS en Sony gebruiken al de GCN- APU's van AMD. Devs voor de console gebruiken gewoon de DX11.* voor de MS box en OpenGL voor Sony. Beide echter, moeten de GCN-APU aanspreken door een "mantle-Achtige" API. Het is geen Mantle, dat klopt. Maar in de kern zullen er veel overeenkomsten zijn, omdat de exact dezelfde hardware aanspreken. Nogmaals; heb het dus puur over de Grafische API.

Je moet het omdraaien: zoals het bedoeld is. MS en Sony kunnen niet voorkomen, dat AMD met Mantle naar de pc komt. Traineren en downplayen whatever...dat is het enige wat ze kunnen.

Nvidia kan zich nog helemaal niet druk maken, daar zij totaal geen voet hebben op de console markt. Het enige wat ze rest is afwachten wat er gaat komen.

[Reactie gewijzigd door Madrox op 14 november 2013 01:02]

Beide echter, moeten de GCN-APU aanspreken door een "mantle-Achtige" API.
Volgens mij begrijp je me zoals gewoonlijk weer niet.
MS en Sony kunnen er wel voor zorgen dat ontwikkelaars niet bij die API kunnen komen op de XBox en PS4.
MS en Sony kunnen niet voorkomen, dat AMD met Mantle naar de pc komt.
Dat heb ik ook nooit gezegd.
Nvidia kan zich nog helemaal niet druk maken, daar zij totaal geen voet hebben op de console markt. Het enige wat ze rest is afwachten wat er gaat komen.
Uhhh, wat? Mantle is een API voor Windows, niet voor consoles. De claim is dat Mantle games onder Windows sneller zou maken.
Dat is iets waar nVidia zich druk over zou kunnen/moeten maken, als het waar is.
Ongelofelijk hoe slecht jij dingen begrijpt.
Wel, dat is dan wederzijds, want jij begrijpt ook niet wat ik zeg.

Nvidia heeft geen GCN en zit idd niet in de console markt. Ze willen ook niets met AMD samendoen. In die zin kunnen ze dus alleen maar afwachten wat AMD met Mantle gaat brengen.

Nu duidelijk?

MS en Sony kunnen daar voor zorgen (over de api), prima. Neemt niet weg dat AMD geen ontwikkelaar is, maar de fabrikant van die APU.

Nu duidelijk ?

Mantle hoeft niet naar de console, Mantle is voor de PC. GCN zit in de console, van AMD. Met de APU, van AMD.

Nu duidelijk ?
Nvidia heeft geen GCN en zit idd niet in de console markt. Ze willen ook niets met AMD samendoen. In die zin kunnen ze dus alleen maar afwachten wat AMD met Mantle gaat brengen.

Nu duidelijk?
Nee, dat is niet duidelijk. nVidia zou er toch voor kunnen kiezen om met een eigen API als antwoord op Mantle te komen? Waarom zouden ze alleen maar kunnen afwachten, en niet zelf iets ondernemen?
MS en Sony kunnen daar voor zorgen (over de api), prima. Neemt niet weg dat AMD geen ontwikkelaar is, maar de fabrikant van die APU.

Nu duidelijk ?
Nee, want wat wil je hier mee zeggen? Als MS en Sony inderdaad ervoor zorgen dat ontwikkelaars niet direct tegen de APU aan kunnen programmeren, dan maakt het toch niet uit dat die APU van AMD is? De ontwikkelaars zien dan niet de GPU zelf, maar alleen de 'abstracte' GPU die de API hen voorschotelt.
In het geval van de XBox One is dat dan een Direct3D 11.x GPU. Maar die hebben nVidia en Intel ook. Dus wat boeit het dan nog dat AMD de APU levert?
Mantle hoeft niet naar de console, Mantle is voor de PC. GCN zit in de console, van AMD. Met de APU, van AMD.

Nu duidelijk ?
Nee, het is me niet duidelijk wat je hiermee wilt zeggen. Je hebt 'GCN op consoles' en 'Mantle op Windows'.
In dit verhaal zit nog steeds het duidelijke gat tussen 'geen Mantle op consoles' en 'wel Mantle op Windows'.

[Reactie gewijzigd door Scalibq op 14 november 2013 10:57]

Omdat Nvidia het nog niet nodig vind, zoals je zelf al zei. Goh, moet ik dan alles nakauwen voor je ?

Wat je daarna zegt over Ms en Sony, lees nog eens de interviews na. Een van die gasten zegt er iets geheimzinnigs over en eindigt met een smile. Zo van, we weten misschien meer, maar we willen/kunnen er niets meer over zeggen; Ga het maar bij MS of Sony vragen.

Wat het boeit? AMD weet toch haarfijn hoe de IGP in elkaar steekt van hun APU en zullen dan ook zeer waarschijnlijk wel weten hoe de IGP/APU aangesproken moet/kan worden aangesproken?

Wat het boeit? AMD zelf geeft aan dat het eenvoudiger is/word. Waarom zou ik daar aan twijfelen ? Ze zijn druk met DICE bezig aan de API. Dat zal de eerste keer wat meer tijd in beslag nemen, maar eens ze het kunstje kennen, kan dat vele malen sneller en kan die kennis verder verspreid worden.

GCN op de console zit ook in de videokaarten van AMD. Valt het kwartje nou ? Het ligt er zo dik op dat ik het dacht het niet uit te hoeven spellen voor je 8)7

Zoals iemand al omschreef "Mantle zit al in de console" (niet letterlijk). Alleen geven Sony en Ms er een ander naampje aan.
Je hebt gelijk, het is ook niet hetzelfde. Er zal een vertaalslag nodig zijn. Alleen die slag, zal vele malen simpeler zijn dan ooit tevoren.

En dan hier van AMD zelf, die zeggen het beter dan ik:
“What Mantle creates for the PC is a development environment that’s similar to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they are doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist,” an explanation by AMD reads.

Lijkt me zo klaar als een klontje.

[Reactie gewijzigd door Madrox op 14 november 2013 12:00]

Omdat Nvidia het nog niet nodig vind, zoals je zelf al zei. Goh, moet ik dan alles nakauwen voor je ?
Wat ik zeg is dat nVidia wel wat zou KUNNEN doen, maar dat ze dat blijkbaar niet nodig vinden.
Jij zegt: "In die zin kunnen ze dus alleen maar afwachten wat AMD met Mantle gaat brengen."
Dus nu spreek je jezelf tegen.
AMD weet toch haarfijn hoe de IGP in elkaar steekt van hun APU en zullen dan ook zeer waarschijnlijk wel weten hoe de IGP/APU aangesproken moet/kan worden aangesproken?
Als ontwikkelaars de GPU niet op deze manier kunnen aanspreken, is dat dus neit relevant, zoals ik al zei. Ik kan me wel blijven herhalen, maar volgens mij wil je het gewoon niet snappen.
AMD zelf geeft aan dat het eenvoudiger is/word. Waarom zou ik daar aan twijfelen ?
Gezond verstand, heet dat. Ten eerste omdat AMD het is die het voorstelt... "Wij van WC-Eend", altijd met een flinke korrel zout nemen.
Ten tweede, omdat ik al meerdere malen genoeg argumenten heb opgenoemd die dit tegenspreken. Belangrijkste is nog wel dat Mantle geen vervanging is voor D3D/OGL, maar slechts een optionele toevoeging. Extra werk dus. Voor de rest lees je de discussie nog maar eens terug.
Er zal een vertaalslag nodig zijn. Alleen die slag, zal vele malen simpeler zijn dan ooit tevoren.
Uhh, daar ga je voor de zoveelste keer voorbij aan het feit dat zowel de XBox als Windows de DirectX API gebruiken, en dus eigenlijk vrijwel geen vertaalslag nodig hebben.
Wat jij roept is dus gewoon pertinent onwaar. Wanneer valt dat kwartje nou? Nooit waarschijnlijk.
Lijkt me zo klaar als een klontje.
Ja, zo klaar als een klontje dat dat loze AMD-marketingpraat is.
Feit is dat alle positieve berichten komen van AMD zelf, of van DICE. En alle minder positieve berichten, van mensen als John Carmack, Michael Glueck, Andrew Copland en vele andere game ontwikkelaars, negeer je gewoon.
Ik heb nog van niemand gehoord die niet direct of indirect voor AMD werkte, dat ze Mantle nou zo'n goed idee vinden.

[Reactie gewijzigd door Scalibq op 14 november 2013 12:48]

Wat ik zeg is dat nVidia wel wat zou KUNNEN doen, maar dat ze dat blijkbaar niet nodig vinden.
Jij zegt: "In die zin kunnen ze dus alleen maar afwachten wat AMD met Mantle gaat brengen."
Dus nu spreek je jezelf tegen.

Nee. Maar ik zal het beter formuleren voor je:

Omdat ze het niet nodig vinden, zoals je zelf beoogt, kunnen ze niets anders doen dan afwachten. Dat bedoel ik te zeggen.

Als ontwikkelaars de GPU niet op deze manier kunnen aanspreken, is dat dus neit relevant, zoals ik al zei. Ik kan me wel blijven herhalen, maar volgens mij wil je het gewoon niet snappen.
Wat ook irrelevant is, want doordat de hardware bij console en PC dichter bij elkaar zit dan ooit tevoren, word het een stuk eenvoudiger om de games te porten. Het is idd geen copy /paste, maar eerder tussen

1. vertalen van arabisch naar Nederlands
vs
2.duits naar Nederlands
hh, daar ga je voor de zoveelste keer voorbij aan het feit dat zowel de XBox als Windows de DirectX API gebruiken, en dus eigenlijk vrijwel geen vertaalslag nodig hebben.
Wat jij roept is dus gewoon pertinent onwaar. Wanneer valt dat kwartje nou? Nooit waarschijnlijk.
Wie heeft het nou over xbone one api naar pc windows API ?
Bovendien zal dat ook niet hetzelfde werken, de API)s) voor de console zijn anders dan de pc en ook niet 100% bruikbaar op de pc.

Het porten van Xbox one games naar DX windows pc word dus ook simpeler, zeg he dus? Mooi, de tijdswinst die ze daarmee pakken kunnen ze goed gebruiken voor een Mantle codepad.

Btw: ik hoor al geruchten dat de wat minder Xbox One prestaties wellicht ook te maken hebben met de DX -API. Die trager zou zijn dan Open_Gl op de PS4 en wellicht ook trager dan AMD's Mantle-API. Dat laatste zullen we idd nooit weten, want Mantle-API zal niet op de console gaan draaien...

btw: Dit is geen Wc-eend

David Anfossi, studio head, Eidos-Montréal, commented about supporting AMD's new API, which will help game developers achieve near 1:1 proper optimization of software to match AMD's GCN powered Radeon cards, saying...
“Mantle lets you use AMD Radeon GPUs the way they are meant to be used, unlocking many new opportunities and increased CPU and GPU performance,” ... “Because of this, Mantle is one of the most important changes to PC graphics in many years.”

ps: Hier een video en sliders wat de Mantle-API gaat doen op de pc... (datum 13-11-2013)
AMD Mantle Deep Dive Video from AMD APU13 Event
http://www.pcper.com/news...ive-Video-AMD-APU13-Event

Zo te zien gaat het wel wat verder dan simpelweg de cpu-calls reduceren.

The fundamental difference is that, instead of the driver managing and controlling distributed rendering with varying degrees of effectiveness, the application manages rendering as finely as the developer requires. The aim, as AMD puts it, is to put the developer in the driver’s seat.
Bron: http://gearnuke.com/in-depth-look-at-amd-mantle/

De laatste alinea vind ik btw. interessant:

AMD insists that Mantle was not intended to be limited to a particular architecture. At its base level, Mantle is comprised of relatively generic functions that could be supported by other architectures. Support for functions specific to its Radeon GPUs is included as an extension. This implies that Mantle could potentially become a standard with multiple extensions to cater for architectural differences. However, this is all in theory and it remains to be seen if the technology is feasible in the long run.

DICE geeft ook nog een presentatie:
http://gearnuke.com/dice-...evelopment-going-forward/

Wel, we zijn op het verkeerde been gezet. AMD Mantle vertoond meer overeenkomsten met Ps4's OpenGL model en het lijkt erop dat Sony minder vijandig tegenover Mantle staat dan MS.

[Reactie gewijzigd door Madrox op 15 november 2013 02:11]

Omdat ze het niet nodig vinden, zoals je zelf beoogt, kunnen ze niets anders doen dan afwachten. Dat bedoel ik te zeggen.
En dat is dus een logische fout: ze KUNNEN wel wat anders doen. Die keuze hebben ze. Ze KIEZEN om niets te doen, omdat ze het niet nodig vinden. Ze zijn dan ook niet aan het afwachten. Ze hebben al besloten er niet op te reageren.
want doordat de hardware bij console en PC dichter bij elkaar zit dan ooit tevoren, word het een stuk eenvoudiger om de games te porten.
Wederom, porten gaat om software, niet om hardware. Zoals ik eerder al probeerde uit te leggen... OS X, linux en Windows draaien alledrie op dezelfde hardware. Maar software is niet makkelijk te porten tussen de drie, omdat ze verschillende APIs gebruiken.
Hetzelfde gaat op voor XBox, PS4 en Windows met Mantle: dat zijn drie verschillende APIs.
Xbox en Windows zijn dezelfde API: DirectX. Dus porten van XBox/DX naar Windows/DX is *per definitie* makkelijker dan van Xbox naar Windows/Mantle. Het is heel simpel, jij WIL het alleen niet begrijpen.
Wie heeft het nou over xbone one api naar pc windows API ?
We hebben het toch over porten van XBox naar Windows (of omgekeerd)? Dan gaat het dus van XBox API naar Windows API (of omgekeerd). Dat lijkt me evident.
Het porten van Xbox one games naar DX windows pc word dus ook simpeler, zeg he dus? Mooi, de tijdswinst die ze daarmee pakken kunnen ze goed gebruiken voor een Mantle codepad.
Nu zeg je ineens iets totaal anders... Je zegt nu dus dat omdat Microsoft het porten van XBox naar Windows makkelijker heeft gemaakt (via Win8/DX dus, Mantle en AMD hebben daar niks mee te maken... met een nVidia GPU had dat net zo goed gegaan), kunnen ontwikkelaars extra tijd gaan steken in Mantle.
Dus dan zeg je impliciet ook dat Mantle meer tijd kost, ipv dat het MINDER tijd kost.
Btw: ik hoor al geruchten dat de wat minder Xbox One prestaties wellicht ook te maken hebben met de DX -API. Die trager zou zijn dan Open_Gl op de PS4
Dat is klinkklare onzin. Ten eerste heeft de XBox een zwakkere APU dan de PS4, dus hij is sowieso trager. De D3D API zal daar weinig mee te maken hebben, want de XBox-implementatie is een heel dun en efficient laagje, zonder abstractie (waar dus de CPU overhead in gaat zitten op Windows). Ten tweede heeft de PS4 een eigen API, net als D3D op de XBox een dun laagje (die voor zover ik weet nog geen naam heeft, de PS3 API had ook niet echt een naam, en werd gewoon libgcm genoemd, naar de library die de API implementeerde), dus geen OpenGL (hij zal vast wel OpenGL kunnen, maar dat is niet zo efficient, en de meeste games zullen de eigen PS4 API gebruiken).
AMD Mantle vertoond meer overeenkomsten met Ps4's OpenGL model
Misschien moet je eerst je eigen link eens lezen, staat toch duidelijk in dat de PS4 een eigen API heeft (geen OpenGL):
PS4 also has its own graphics API that’s really quite programmable and really a lot of good control and performance from it
Je bralt dus maar wat. Je weet niet eens precies wat D3D en OpenGL zijn, laat staan dat je begrijpt hoe Mantle in het verhaal past.

Hoe dan ook, zelfs DICE geeft aan dat porten tussen XBox en Mantle niet zo makkelijk is. Tussen PS4 en Mantle misschien beter... Maar of het zo makkelijk gaat als XBox en Windows/DX, ik betwijfel het (PS4 draait namelijk geen Windows).

[Reactie gewijzigd door Scalibq op 15 november 2013 09:49]

En dat is dus een logische fout: ze KUNNEN wel wat anders doen. Die keuze hebben ze. Ze KIEZEN om niets te doen, omdat ze het niet nodig vinden. Ze zijn dan ook niet aan het afwachten. Ze hebben al besloten er niet op te reageren.
Nog niet. Wellicht veranderd dat later. Ze laten het gewoon over zich heen komen. In die zin wachten ze af wat er gebeurd. Of ze er definief niet op reageren weet ook jij niet, of zit je soms in het bestuur ?

Het porten is makkelijker, omdat Mantle raakvlakken heeft met PS4's openGL, dat zegt AMD zelf. In die zin is het eenvoudiger.

brallen? Wel, zeg dat dan ff tegen die gast van DICE:

We do have to build and continue to maintain our OpenGL and DirectX rendering path but we really try to avoid limiting ourselves to what we can do in those APIs. So I think going forward, the main things to drive the design we have in Frostbite and the type of optimisations we will do, will be what we can do with Mantle, and also what we can do with PS4. PS4 also has its own graphics API that’s really quite programmable and really a lot of good control and performance from it, so we can share concepts, methods and various types of hardware level optimisations between those and see where we end up with that, which is quite exciting.

en

AMD has provided the GPU for both the next-generation consoles this time. This means that PlayStation 4′s libraries are much more accessible and compatible with Mantle than Xbox One’s. This keynote address by Anderson however, puts John Carmack’s claim to rest that Sony and Microsoft will both be hostile towards Mantle’s development for the PC.

en

Johan Anderson, Technical Director on Frostbite Engine at DICE, in a presentation at AMD’s Developer Summit 2013 or APU13 revealed some information on how PlayStation 4′s libraries and AMD’s Mantle API will drive future Frostbite designs.

In a slide presentation, Anderson showed how PlayStation 4′s graphics API has great performance and programmability and that DICE will share concepts, methods and optimization strategies for further development of Frostbite Engine. Anderson also stated that that Mantle’s API and PlayStation 4′s libraries are a lot similar than Mantle and DX11.


Sorry, maar ik bral alleen maar wat ik lees. Zo te horen aan jouw reactie heb je het amper/niet gelezen.

Klinkklare onzin over de DX-11 efficiency (ook op de Xbox One) komt van AMD, dat verzin ik niet.

e weet niet eens precies wat D3D en OpenGL zijn
Zijn twee verschillende grafische API's. Je doet weer aannames die niet kloppen.

[Reactie gewijzigd door Madrox op 15 november 2013 11:49]

Nog niet. Wellicht veranderd dat later.
Misschien, maar daar gaat het niet om. Voorlopig hebben ze niet gereageerd. Er gaan al maanden verhalen over Mantle, dus als nVidia er op had willen reageren, hadden ze dat inmiddels al gedaan. Al was het maar om te zeggen: "Ja, maar wij zijn ook met zoiets bezig!". Dat zie je AMD zo vaak doen (zoals bv met PhysX/OpenCL).
Het porten is makkelijker, omdat Mantle raakvlakken heeft met PS4's openGL, dat zegt AMD zelf. In die zin is het eenvoudiger.
Lees je uberhaupt wel eens wat? In je eigen link stond al dat de PS4 geen OpenGL gebruikt, en dat heb ik in m'n vorige post ook nog twee keer benadrukt. En nu kom je er WEER mee.
Dan moet je niet verwachten dat iemand je nog serieus neemt natuurlijk.

Edit: Kap trouwens eens een keer met die irritante ninja-edits van je. Kun je niet op een normale manier discussieren? Gewoon in 1 keer zeggen wat je wil, en als je echt iets nieuws wil toevoegen, maak dan een nieuwe post.
Nu staat er in jouw post steeds ineens heel wat anders nadat ik gereageerd heb. Begint behoorlijk irritant te worden.
brallen? Wel, zeg dat dan ff tegen die gast van DICE:
Wederom, wat hij zegt is niet hetzelfde als wat jij zegt. Hij zegt dat hij bepaalde optimalisaties van de PS4 ook via Mantle kan implementeren. Dat is nog niet hetzelfde als dat hij de code letterlijk kan hergebruiken met weinig of geen aanpassingen. Dat zegt hij ook helemaal niet. Het enige wat hij zegt is dit: "we can share concepts, methods and various types of hardware level optimisations". En dat is wel waar, daar ben ik het natuurlijk ook mee eens. Ik ben het alleen niet eens met wat *jij* ervan maakt.
Sorry, maar ik bral alleen maar wat ik lees. Zo te horen aan jouw reactie heb je het amper/niet gelezen.
Ik lees wat er staat. Jij verzint er allerlei dingen bij die er niet staan.
Klinkklare onzin over de DX-11 efficiency (ook op de Xbox One) komt van AMD, dat verzin ik niet.
Onzin van AMD ja, die jij klakkeloos gaat napapegaaien, zonder dat je ook maar enige kennis van de materie hebt.
Op de XBox360 stond Microsoft trouwens al geen low-level access toe: http://www.eurogamer.net/...60-performance-blog-entry
Op de XBox One zal dat ook niet zo zijn. Dus daar zie je al dat een deel van AMD's verhaal totaal in elkaar stort. Ze wilden het doen lijken alsof beide consoles dezelfde API konden gebruiken. Hooguit zal de PS4-API enigszins op Mantle lijken... maar dat is juist de minder interessante optie.
Zijn twee verschillende grafische API's. Je doet weer aannames die niet kloppen.
Nee, mijn aanname klopt echt wel. Ik heb het erover wat het *precies* zijn. Hoe de APIs ontworpen zijn, wat voor soort functies en objecten ze gebruiken, hoe ze intern werken etc.
Jij weet inderdaad niet meer dan dat het graphics-APIs zijn. Waarin ze van elkaar verschillen, en waarom die verschillen er zijn, wat die verschillen in de praktijk betekenen etc, daar heb je geen idee van. Daarom roep je domme dingen zoals dat de PS3 of PS4 OpenGL gebruiken.
Als je wist wat OpenGL precies was, zou je van tevoren al weten dat dat niet het geval kan zijn.

[Reactie gewijzigd door Scalibq op 15 november 2013 13:15]

Ow oke, sorry hoor. Het is geen openGL. Maak je niet zo dik.
Sony api's is denk ik wel gebaseerd op OpenGL

The ps4's opengl based API like PS2's API & PS3's libGCM offers much more low level access to the hardware without the need to go through nearly as many abstraction layers as DirectX does. However due to its unfamiliarity it will generally not be the lead API used to design 3rd party games, and it will take time for developers to take advantage of the performance benefits it offers over DirextX. Having learnt from PS3, Sony is also offering a highlevel wrapper giving developers easier tools to work with
Zover zit ik er dan ook weer niet naast O-)

Dus? Nu kunnen (kiezen ze ervoor...zal het ff beter verteerbaar voor je vertalen) ze dus gewoon wachten en zien wat er komt. Ze laten het over zich heen komen. Als het tegenvalt, krabben ze zich wellicht achter de oren en herzien hun strategie. Weet jij veel ?

[Reactie gewijzigd door Madrox op 15 november 2013 11:59]

Zover zit ik er dan ook weer niet naast
Jawel, maar ik denk dat jouw gebrek aan kennis ervoor zorgt dat je niet kunt beseffen hoever je ernaast zit.
Weet ook niet waar je dit verhaal vandaan hebt, want hier klopt wederom niet heel veel van. Iemand die roept dat de PS2 en PS3 APIs 'OpenGL-based' zijn, heeft ze duidelijk ook nooit van dichtbij gezien (op de PS3 is het omgekeerde waar: PSGL, wat een combinatie is van OpenGL ES 1.0 en Cg, is geimplementeerd via libgcm).
Zie deze presentatie bv: http://www.jonolick.com/u...c_07_rsx_slides_final.pdf
Die legt oa uit dat een van de doelen van libgcm is om al die state-meuk van OpenGL eruit te halen. Simpele commando's, direct naar de pushbuffer (wat dus ongeveer ook is wat Mantle voor ogen heeft).
Lijkt in de verste verte niet op OpenGL, veel meer lowlevel.
D3D10+ deed dit ook al min of meer, maar dan iets abstracter. Je maakt dus wel blokken van states, maar die zijn nog wel hardware-onafhankelijk, en moeten door de driver vertaald worden. Daarna worden de vertaalde versies in het systeem gecached, zodat je ze efficient kunt hergebruiken. De abstractie-overhead is er dus alleen bij initialisatie, niet at runtime.
In de praktijk zal GCN al gewoon met die D3D10+-stateblokken werken, met weinig of geen vertaalslag in de driver. GCN is namelijk ontworpen voor de D3D11-API, niet voor consoles met custom-APIs.

Ook nog een leuk linkje trouwens: http://www.eurogamer.net/...60-performance-blog-entry
Op de XBox 360 stond MS dus al niet toe om direct de GPU te benaderen, alles moet via D3D gebeuren, om de game gecertificeerd te krijgen. Dat zal voor XBox One niet anders zijn, neem ik aan.

[Reactie gewijzigd door Scalibq op 15 november 2013 13:25]

Deze persoon roept dat:
http://www.ign.com/boards...g-to-the-metal.453151509/
en verwijst naar dit artikel:
http://www.eurogamer.net/...ndry-inside-playstation-4

en hier zit ik er weer niet ver naast:

On Digital Foundry’s end, they find there is a lot of commonality between Playstation 4’s GNM API and Mantle. Like GNM, Mantle stays compatible with Microsoft’s High Level Shader Language but provides low level GPU access.
http://www.gameranx.com/u...le-with-ps4-and-xbox-one/

Mantle appears to have much in common with the GNM API used in PlayStation 4, offering low-level GPU access while retaining a very high level of compatibility with Microsoft's existing programmable pixel shader language (HLSL). The potential here cannot be under-estimated - much of the optimisation work that is carried out on console versions of multi-platform games can now be rolled out to the PC version too. In addition, there is also the opportunity to exploit AMD-specific hardware features that are under-utilised - or perhaps not even implemented at all - in DirectX.
http://www.neogaf.com/forum/showthread.php?t=686655

[Reactie gewijzigd door Madrox op 15 november 2013 13:51]

Je moet toch eens leren beter je bronnen te kiezen.
Die gast doet hetzelfde als jij: hij leest een artikel, begrijpt er nog niet de helft van, en verzint er dan van alles bij.
Dat artikel zegt dit:
To that end, PlayStation 4 has two rendering APIs.

"One of them is the absolute low-level API, you're talking directly to the hardware. It's used to draw the static RAM buffers and feed them directly to the GPU," Norden shared. "It's much, much lower level than you're used to with DirectX or OpenGL but it's not quite at the driver level. It's very similar if you've programmed PS3 or PS Vita, very similar to those graphics libraries."

But on top of that Sony is also providing what it terms a "wrapper API" that more closely resembles the standard PC rendering APIs.
Hoe je dan tot de conclusie komt dat het op OpenGL gebaseerd is, snap ik niet.

Let trouwens ook op dat er dit staat:
In terms of rendering, there was some interesting news. Norden pointed out one of the principal weaknesses of DirectX 11 and OpenGL - they need to service a vast array of different hardware
Dit probleem van abstactie-overhead is dus niet specifiek voor DirectX, maar geldt net zo goed voor OpenGL.
On Digital Foundry’s end, they find there is a lot of commonality between Playstation 4’s GNM API and Mantle. Like GNM, Mantle stays compatible with Microsoft’s High Level Shader Language but provides low level GPU access.
Ik heb ook nooit iets anders beweerd. Ze zullen vast op elkaar lijken. Maar ik probeer je al de hele tijd uit te leggen waarom dat op zich niet veel betekent.
Zeker niet als het alternatief (XBox/DX) niet alleen *lijkt* op de populairste gaming API van Windows, mar het in feite gewoon *is*.

Daarnaast is een hoop van jouw informatie erg outdated. AMD heeft in de tijd van de XBox 360 wel geroepen dat DX hier en daar inefficient is. Maar dan heb je het over Direct3D9. D3D10+ is flink veranderd, en Microsoft heeft voor de XBox One ook veel moeite gestoken in het totaal strippen en optimaliseren van de D3D runtime en driver. Men noemt dat de 'Mono driver': http://www.gamechup.com/x...-for-maximum-performance/
Daarbij is de CPU in de XBox One ook een stuk krachtiger dan die van de XBox 360, dus je bent sowieso minder gauw CPU-limited door een graphics API (net als dat dat op Windows-PCs eigenlijk een non-issue is, de laatste jaren).

Dat is dus het verschil met MS en AMD: AMD roept maar dat D3D inefficient is, en Mantle de wereld zal redden, zonder ook maar iets van Mantle te laten zien. Microsoft is daarentegen hard bezig om D3D te optimaliseren voor de XBox One, en stelt dit ook aan ontwikkelaars beschikbaar. Daarom is het veel aannemelijker dat Microsoft's beweringen ook echt waar zijn: dat de nieuwe D3D op de XBox One vrijwel dezelfde performance gaat leveren als de PS4 of Mantle.
Ik heb nog geen ontwikkelaar horen roepen dat de PS4 een betere/snellere API heeft dan de XBox One, zelfs DICE niet.
Alleen AMD roept dat, maar die hebben daar ook belang bij, om Mantle te promoten. Ze moeten dat eerst maar eens waarmaken.

Zodra de eerste games op zowel de XBox One als de PS4 uitkomen, zul je zien dat ze elkaar echt niet zo veel ontlopen, en dat performance-verschillen makkelijk te verklaren zijn door verschil in kloksnelheden en dergelijke, en dat de API daar geen rol in speelt.

[Reactie gewijzigd door Scalibq op 15 november 2013 14:05]

Wel, laat de BF4 Mantle resultaten dan maar het tegendeel bewijzen. we zullen zien ;)

btw: "The potential here cannot be under-estimated - much of the optimisation work that is carried out on console versions of multi-platform games can now be rolled out to the PC version too."

Is precies wat AMD ook zegt, in andere woorden. Volgens mij geloof jij er alleen niet in....

[Reactie gewijzigd door Madrox op 15 november 2013 14:07]

Wel, laat de BF4 Mantle resultaten dan maar het tegendeel bewijzen. we zullen zien ;)
Ik zat meer te denken aan de XBox One vs PS4-versies.
Maar ik vind het idd ook wel leuk om AMD en DICE op hun bek te zien gaan met Mantle.
Net zoals destijds met de Barcelona en Bulldozer CPUs... Maandenlang roepen hoe geweldig het allemaal wel niet is, en bij de introductie een enorme tegenvaller voor alle fanboys :)
btw: "The potential here cannot be under-estimated - much of the optimisation work that is carried out on console versions of multi-platform games can now be rolled out to the PC version too."

Is precies wat AMD ook zegt, in andere woorden. Volgens mij geloof jij er alleen niet in....
Zoals ik zeg: ze vergelijken hier de vorige generatie consoles met de huidige. Ja, de vorige consoles weken veel meer af van Windows-PCs dan nu, dus inderdaad, je kunt nu makkelijker optimalisaties van console-games meenemen naar Windows.
Daar ben ik het mee eens.
Waar ik het NIET mee eens ben, is dat je daar per se Mantle voor nodig hebt. De XBox One met z'n x86 CPU, Win8 en D3D11.x komt sowieso al heel dicht in de buurt van een x86 Win8 PC met D3D11.2, dus ook zonder Mantle kun je veel optimalisaties zo overnemen (en ironisch genoeg maakt Mantle gebruik van HLSL, de D3D shadertaal, dus Mantle neemt sowieso de shaders al 1:1 over van D3D, ipv omgekeerd).

[Reactie gewijzigd door Scalibq op 15 november 2013 14:21]

In a separate Mantle session Oxide Games discussed the studio's experience using Mantle, indicating that the API enables high batch counts, meaning any command sent to the GPU, not just draws. The team expects to push 300,000 batches by 2015, and 1 million batches at 60 frames per second by 2018. At this point everything starts to change: CPUs and GPUs will start calling code back and forth on each other. The hard line between the two will go away and all sorts of interesting things will begin to happen. Mantle seems to pave the road for this scenario to take place.

"Mantle is not expensive to support," said Tim Kip. "It's fairly cheap. And I think the big key for us is that it's a fixed cost. We're basically going to port our driver interface layer once and then it's just going to work and there's not a whole lot of extra maintenance we have to do to support it. And the really big thing we're excited about is to push the industry forward, to try out new techniques and new APIs."


http://www.tomshardware.c...ference-mantle,25079.html
Weer geen wc-eend....
http://www.tomshardware.c...ference-mantle,25079.html
Weer geen wc-eend....
Uhh, jawel hoor, dat zijn allemaal studio's die in het Gaming Evolved-programma van AMD zitten, die van AMD een zak geld krijgen om op het AMD APU13-evenement te vertellen hoe geweldig AMD's Mantle is.
Hij is iig niet in diens van AMD, In die zin is het geen wc-eend.

Maar ik vind het idd ook wel leuk om AMD en DICE op hun bek te zien gaan met Mantle.
Vreemd. Als ik developer was zou ik dit met grote interesse willen volgen, ipv. wensen dat ze op hun bek gaan. Zo kom je op mij en ik denk vele anderen niet bepaald unbiased over.

Enne, Nvidia is ook niet het braafste jongetje van de klas. Die zijn ook op hun bek gegaan in het verleden. Nee zelfs bestraft door de rechter omdat ze stromannetjes op het internet gebruikten om de concurrentie zwart te maken en Nvidia op te hemelen.

[Reactie gewijzigd door Madrox op 16 november 2013 00:44]

Als ik developer was zou ik dit met grote interesse willen volgen
Dat denk je. Maar als je developer was, zou je het niet interessant vinden.
Nog weer een API leren, ondersteunen, en tijd steken in testen/bugfixen? En waarom? Voor 10-15% meer performance op die paar kaarten met GCN, hooguit?
Er is niets interessants aan, het is gewoon de zoveelste graphics API (weet je hoeveel verschillende hardware en APIs ik door de jaren al gezien heb?). Ja, als AMD me een paar miljoen zou bieden, dan wordt het interessant. Maar voor niks ga ik het echt niet doen. Het kost een hoop extra werk, en het levert niks op. Ook zonder die paar extra procenten performance kopen de mensen met GCN-kaarten je software wel, voor developers boeit het dus niet. Hooguit voor AMD, omdat men mogelijk voor een AMD kaart kiest ipv voor nVidia. Maar als je een unbiased developer bent, boeit het je niet wat voor smaakje videokaart je klanten hebben.

Ik denk dat iedere developer die niet door AMD betaald wordt hetzelfde over Mantle denkt als ik. Zo simpel ligt het gewoon, als je niet bevooroordeeld bent.

Zodra blijkt dat Mantle helemaal niet zo spectaculair is als AMD en DICE beweren, zijn we tenminste van het gezeur af. En daar kijk ik wel naar uit, ja.
Enne, Nvidia is ook niet het braafste jongetje van de klas. Die zijn ook op hun bek gegaan in het verleden.
En dus betekent dat dat AMD dan maar hetzelfde mag doen?
Dat komt op mij dan weer niet unbiased over. Waarom haal je dit er uberhaupt bij?
Nee zelfs bestraft door de rechter omdat ze stromannetjes op het internet gebruikten om de concurrentie zwart te maken en Nvidia op te hemelen.
Volgens mij is het niet waar dat ze daarvoor bestraft zijn. Het is volgens mij ook helemaal niet illegaal. Onethisch is het wel, dat is wat anders.

[Reactie gewijzigd door Scalibq op 16 november 2013 06:57]

Gezeur? Hmm... sorry maar ik deel niet jouw mening.

Juich elke ontwikkeling toe die meer rendement uit de hardware haalt. Dan gaat het me niet eens puur om de prestaties, maar ook de efficientie. Je kan nml. met een efficientere videokaart meer performance eruit halen en dus aan een "lichtere" gpu al genoeg hebben, die eerst net te zwak was. Wat zich dan vertaald in een zuiniger systeem.

Niet iedereen hoeft nml. een GTX780 Titan. Zelf kies ik liever voor een zo zuinig mogelijke videokaart waar je toch acceptabele FPS mee haalt. Dat lukt beter met een efficiente API dan eentje die performance "over the balk" gooit.

En zo blijf jij ook aan het werk! Stilstand is achteruitgang, meneer de programmeur ;)
Juich elke ontwikkeling toe die meer rendement uit de hardware haalt. Dan gaat het me niet eens puur om de prestaties, maar ook de efficientie. Je kan nml. met een efficientere videokaart meer performance eruit halen en dus aan een "lichtere" gpu al genoeg hebben, die eerst net te zwak was. Wat zich dan vertaald in een zuiniger systeem.
Ligt eraan hoeveel meer rendement je eruithaalt, en ten koste waarvan.
In dit geval is het weinig extra rendement, ten koste van extra support inbouwen voor een beperkte verzameling hardware, naast de al bestaande support.
Het is een ander verhaal als er een nieuwe versie van D3D of OGL uitkomt die efficienter is, maar de oudere D3D/OGL vervangt, en op alle gangbare hardware werkt.

Dit is meer als Glide: op een gegeven moment was het gewoon de moeite niet meer om speciaal Glide te blijven supporten. John Carmack zei daar ook al over ten tijde van GLQuake dat Glide misschien hooguit 10-15% meer performance zou halen (http://fd.fabiensanglard.net/doom3/pdfs/johnc-plan_1997.pdf May 12 1997).
"The more places I need to rewrite a feature, the less likely I am to put it in. If I only had the opengl version to worry about, Quake 2 would be so much cooler.."
Kortom, Carmack zegt hetzelfde als ik: extra werk is niet koel, gaat ten koste van de rest.

Naarmate CPUs sneller werden, werd het verschil ook kleiner. Zo ook met Mantle.
Het verschil met D3D zal in de toekomst alleen maar kleiner gaan worden, niet groter, want CPUs worden alleen maar sneller.
Niet iedereen hoeft nml. een GTX780 Titan.
De performance-verschillen van Mantle en D3D zullen minder groot zijn dan van een topkaart en 1 of 2 modellen eronder. Dus nu niet gaan overdrijven. Als er een wonder-API was waarbij zelfs de simpelste Intel iGPU ineens de prestaties van een Titan had, ja, dan was het wel interessant... Maar Mantle is geen wonder-API.

[Reactie gewijzigd door Scalibq op 16 november 2013 22:41]

Daarom zou het mooi zijn als Mantle wel een succes word en Nvidia en Intel erin stappen. Dat dat niet snel zal gebeuren, snap ik ook wel maar dat is dan wel jammer voor ons, de consument.

De auto industrie is ook door dwang de goede richting ingestuurd, efficentere auto's, zuiniger met minder uitstoot.

Soms moet iemand anders de industrie een duwtje in de goede richting geven. Zoals je al aangeeft, laten we nu dus gewoon 10 a 15% (soms zelf 20%) performance liggen.

Wonderen bestaan niet, true. Maar een onwillige industrie die niet voorwaarts wil puur om eigenbelang, dat bevestigt alleen maar dat patenten etc. vooruitgang dwarsliggen. Iig in de huidige vorm.

[Reactie gewijzigd door Madrox op 17 november 2013 02:12]

Daarom zou het mooi zijn als Mantle wel een succes word en Nvidia en Intel erin stappen.
Zoals ik al eerder zei: nVidia en Intel kunnen niet de voordelen van Mantle krijgen, alleen de nadelen. Zij hebben andere hardware, dus moeten ze Mantle implementeren als een abstractielaag, waardoor ze dus meteen weer die 10-15% CPU-winst inleveren (dezelfde reden waarom AMD ook niet hun oudere DX11-kaarten van Mantle voorziet: het kan in theorie wel, maar het wordt toch niet sneller dan D3D/OGL).
Zoals je al aangeeft, laten we nu dus gewoon 10 a 15% (soms zelf 20%) performance liggen.
Daar ben ik het dus niet mee eens.
Dat is gewoon een noodzakelijk kwaad, om te zorgen dat alle videokaarten alle software kunnen draaien.
Als je low-level gaat, betekent het ook dat je jezelf vastpint op een bepaalde architectuur.
Dat zie je ook met x86. Daar laten we VEEL MEER performance liggen dan bij videokaarten, omdat we nog steeds vast zitten uit een instructieset uit 1978, dus echt de oertijd.

Omdat we bij videokaarten al in een vroeg stadium naar abstractie van de hardware gingen, kon de hardware veel sneller doorontwikkelen dan dat bij x86-CPUs het geval is.
Daarom zou ik zeggen dat we dankzij D3D/OGL nu veel snellere en betere videokaarten hebben, dan wanneer we bij een Mantle/Glide-achtig iets zouden blijven hangen.
Er is een verschil tussen denken op kortetermijn en lange termijn.
Mantle is duidelijk een korte-termijnoplossing, en wordt snel door de tijd ingehaald, net als dat met Glide het geval was (die paar procenten CPU-winst die je nu haalt, verdwijnen binnen een paar jaar als sneeuw voor de zon met 1 of 2 nieuwere generaties CPUs, en de nadelen blijven).
Maar een onwillige industrie die niet voorwaarts wil puur om eigenbelang, dat bevestigt alleen maar dat patenten etc. vooruitgang dwarsliggen. Iig in de huidige vorm.
In dit geval is het vooral AMD die aan het dwarsliggen is met Mantle, waar de rest van de industrie gewoon de D3D en OGL standaarden verder wil doorontwikkelen.

[Reactie gewijzigd door Scalibq op 17 november 2013 11:19]

AMD is het niet met je eens:
http://www.guru3d.com/new...0_more_performance,5.html

De GCN specifieke instruscties zitten als een extensie aan Mantle geplakt. Elke andere fabrikant is vrij om daar hun eigen extensie aan te hangen, wat totaal niet op AMD's GCN architectuur hoeft te lijken.

Het is geen noodzakelijk kwaad, om andere/oudere kaarten te ondersteunen draai je gewoon een "generic" API. Nieuwe hardware kan dan gewoon op Mantle draaien.

Je kan ook zeggen dat intel en Nvidia niet open staan voor innovatie, buiten hun eigen agenda. Het zijn de (is?) de dev(s?) gewwest die naar alle drie de fabrikanten is geweest en bij Intel en Nvidia van een koude kermis thuiskwam(en).

Maar goed, je hele manier van praten overtuigt me nog meer dat je totaal niet unbiased ben. Sorry, maar zo kom je over.

Iig helpt dit wel om de partijen wakker te schudden...haha. En ik hoop dat het ene mega succes word, zo erg, dat ook jij eraan moet geloven. Zie je al zweten op de nieuwe code }>

[Reactie gewijzigd door Madrox op 17 november 2013 11:33]

AMD is het niet met je eens:
http://www.guru3d.com/new...0_more_performance,5.html

De GCN specifieke instruscties zitten als een extensie aan Mantle geplakt. Elke andere fabrikant is vrij om daar hun eigen extensie aan te hangen, wat totaal niet op AMD's GCN architectuur hoeft te lijken.
Waar haal je dat nu weer vandaan? Zeker weer zelf verzonnen? Staat namelijk niet in die link.
Wat hij zegt, klinkt eerder als het omgekeerde...
In fact, Andersson said that most Mantle functionality can work on most modern GPUs out today.
Daarmee wil hij het doen lijken alsof het op andere GPUs zou kunnen draaien, maar dat kan natuurlijk niet, omdat je daarvoor *alles* moet ondersteunen. Het is hooguit een vaag statement dat toekomstige hardware van anderen het in theorie zou kunnen ondersteunen als ze support zouden hebben voor alles in Mantle (zoiets zei AMD eerder ook al). Jammer voor Johan Andersson, maar ik trap niet in die fabeltjes. Ik hoop voor hem dat hij er zelf ook niet echt in gelooft, anders is hij wel erg naief.
Het is geen noodzakelijk kwaad, om andere/oudere kaarten te ondersteunen draai je gewoon een "generic" API.
Dan is die "generic" API dus *wel* een noodzakelijk kwaad. Niet-GCN kaarten moeten immers ook gewoon ondersteund worden! Of ben jij zo pro-AMD dat dat niet belangrijk is? Ik vind dat persoonlijk de hoofdzaak, vooral omdat GCN-kaarten ook zonder Mantle wel werken.
Je kan ook zeggen dat intel en Nvidia niet open staan voor innovatie, buiten hun eigen agenda.
Waar is de innovatie dan? GCN is gewoon DX11-hardware. Mantle doet niets dat DX11 niet ook kan met die hardware. Mantle gebruikt nota bene gewoon dezelfde HLSL shaders als DX11! Dus het enige verschil zal hem zitten in het iets efficienter updaten van states en dergelijke, ten koste van compatibiliteit.

Dat zul je ook wel zien met BF4, dat ziet er met Mantle gewoon hetzelfde uit als met DX11. Leuk dat het een paar procent sneller loopt omdat er miljoenen in geinvesteerd zijn om een paar maanden lang specifiek voor 1 hardware-architectuur te optimaliseren, maar met innovatie heeft dat niets te maken.

Daarnaast... "buiten hun eigen agenda". Wil je daarmee beweren dat AMD's Mantle niet alleen voor AMD's eigen gewin is? Dat hoop ik toch niet, want het lijkt me toch wel pijnlijk duidelijk dat het puur en alleen voor AMD's GCN-kaarten is. Zelfs AMD's oudere klanten wordt de 'innovatie' (zoals jij dat noemt dan) door de neus geboord.
Mantle is puur en alleen om AMD een voordeel te geven ten opzichte van de concurrentie. Geen innovatie, geen samenwerking met andere fabrikanten, geen oplossing voor de lange termijn. Gewoon nu even cashen op GCN.
Het zijn de (is?) de dev(s?) gewwest die naar alle drie de fabrikanten is geweest en bij Intel en Nvidia van een koude kermis thuiskwam(en).
Als dat al waar is (ik schat devs toch iets hoger in dan dat), dan zijn die devs gewoon nogal dom. Ik als meer ervaren dev zou zo'n vraag bij voorbaat al niet gaan stellen aan Intel, nVidia of AMD, want ik weet het antwoord toch al. Ik begrijp namelijk WEL waarom D3D en OGL zijn zoals ze zijn, en waarom je daar niet vanaf moet stappen.

Als je al iets wil doen, moet je naar Microsoft en/of Khronos stappen, voor een nieuwe versie van D3D/OGL. Nooit naar een hardware-fabrikant natuurlijk! Die zijn altijd partijdig, en dat heeft nooit een kans van slagen als standaard. Beetje dom als je denkt van wel.
Maar goed, je hele manier van praten overtuigt me nog meer dat je totaal niet unbiased ben. Sorry, maar zo kom je over.
Dat komt omdat jij zo pro-AMD bent, dat je niet eens meer weet wat neutraal is.
Je spreekt jezelf ook constant tegen. Neem bv hier het 'noodzakelijk kwaad' van een hardware-onafhankelijke API. Dat veeg je zomaar even van tafel, omdat je verblind bent door Mantle.
Iig helpt dit wel om de partijen wakker te schudden...haha.
Niet dus, anders had er inmiddels wel een reactie geweest van nVidia, Intel of Microsoft.
De enige reactie was die van MS, die zei dat de XBox One dus geen Mantle ging ondersteunen, en dat ook helemaal niet nodig heeft.
En ik hoop dat het ene mega succes word, zo erg, dat ook jij eraan moet geloven. Zie je al zweten op de nieuwe code
Pffft, al die moderne code is kinderspel, n00bs als Johan Andersson zijn maar een stel mietjes.
Ik heb van het weekend nog eens ECHTE code gemaakt, op een 286 met VGA: http://youtu.be/X4l5MFLDiuQ
Dan heb je het tenminste ECHT over lowlevel coding. Niet van die Mantle-flauwekul. Daar lachen echte coders toch om.

[Reactie gewijzigd door Scalibq op 17 november 2013 14:43]

Waar haal je dat nu weer vandaan? Zeker weer zelf verzonnen? Staat namelijk niet in die link.
Wat hij zegt, klinkt eerder als het omgekeerde...

Het word in een eerdere link duidelijk door AMD benadrukt. Beter lezen, aub.

AMD insists that Mantle was not intended to be limited to a particular architecture. At its base level, Mantle is comprised of relatively generic functions that could be supported by other architectures. Support for functions specific to its Radeon GPUs is included as an extension.

This implies that Mantle could potentially become a standard with multiple extensions to cater for architectural differences. However, this is all in theory and it remains to be seen if the technology is feasible in the long run.

Bron: http://gearnuke.com/in-depth-look-at-amd-mantle/

Dan is die "generic" API dus *wel* een noodzakelijk kwaad. Niet-GCN kaarten moeten immers ook gewoon ondersteund worden! Of ben jij zo pro-AMD dat dat niet belangrijk is? Ik vind dat persoonlijk de hoofdzaak, vooral omdat GCN-kaarten ook zonder Mantle wel werken.
Nee de basic Mantle API kan ook dienen voor de andere AMD videokaarten (en wellicht elk ander merk). De GCN specifieke code zit eraan geplakt, nogmaals. AMD beweerd dit he!, niet ik.
Maar ze zijn er behoorlijk stellig over dus wie ben ik om daaraan te twijfelen.

Extension, zeggen ze. Een extension, die elke andere fabrikant zefl kan invullen. Hebben ze niks van GCN voor nodig, ook de harware niet. Zo lees ik het. Nvidia kan daar dan hun eigen extension aanhangen, met hun eigen "nextgen code" toegespitst op hun eigen videokaart architectuur. In theorie dan, want de praktijk moet zich nog bewijzen en ik ben het met je eens dat Nvidia niet snel overstag zal geniet. Eerder niet. Intel, idemdito.

[Reactie gewijzigd door Madrox op 18 november 2013 06:17]

Het word in een eerdere link duidelijk door AMD benadrukt. Beter lezen, aub.
Dan moet je die link ook geven. Je gaf een hele andere link, waar dat helemaal niet in stond.
Verder zie ik dat verhaal niet in de AMD sheets staan, en is het ook geen quote van AMD. Lijkt me eerder de interpretatie van de persoon die dat artikel schreef.
Nee de basic Mantle API kan ook dienen voor de andere AMD videokaarten (en wellicht elk ander merk).
Zolang dat niet daadwerkelijk het geval is, blijft D3D/OGL een noodzakelijk kwaad. Zolang AMD nog niet eens hun eigen oudere DX11-kaarten ondersteunt, heb ik er totaal geen vertrouwen in dat Mantle ooit ergens heen gaat.
Extension, zeggen ze. Een extension, die elke andere fabrikant zefl kan invullen. Hebben ze niks van GCN voor nodig, ook de harware niet. Zo lees ik het.
Tsja, zelfs als het waar is, zegt het niks (maar ik geloof het pas als ik het op AMD's eigen sheets zie, of op een blog van hun website). Hetzelfde verhaal gaat ook op voor CUDA, maar daar is ook nooit een implementatie van gekomen van AMD of Intel.
Omdat Nvidia gierig is en er vaak leuk aan wil verdienen. Zie bijv SLI vs CF op het moederbord.
Omdat Nvidia gierig is en er vaak leuk aan wil verdienen. Zie bijv SLI vs CF op het moederbord.
En AMD is een liefdadigheidsinstelling? Kom op zeg... Over bias gesproken.
Hoezo? Het is een feit: plankjes met alleen CF erop zijn veel goedkoper dan de plankjes met SLi. Heeft alles te maken met Nvidia's prijspolitiek.

http://tweakers.net/categ...3VUTI0sjRFEjcyNjEAitfWAgA
socket 1150 > sli > minimaal ruim 100 euro.

[Reactie gewijzigd door Madrox op 19 november 2013 13:57]

Hoezo? Het is een feit: plankjes met alleen CF erop zijn veel goedkoper dan de plankjes met SLi. Heeft alles te maken met Nvidia's prijspolitiek.
Ik spreek het toch ook niet tegen?
Het gaat mij er alleen om dat jij een commercieel bedrijf verwijt dat het geld wil verdienen.
AMD wil ook gewoon zo veel mogelijk verdienen. Toevallig niet met CF, maar ook AMD probeert het op allerlei manieren, die ook niet altijd even fris zijn.

Daarom vind ik het nogal vreemd dat je met dit soort dingen komt. Ten eerste omdat het totaal niets met het onderwerp te maken heeft. Ten tweede omdat je dus steeds nVidia eruit pikt. Overduidelijk fanboy-gedrag.
Net zoals jij nogal biased overkomt. Wat mij betreft verwijt de pot de ketel, kies maar.

Nee, niks fanboy gebrag. Gewoon feiten. Noem eens 1 ding wat Nvidia "open" heeft ontwikkelt/uitgebracht ? Van AMD kan ik je er zo een paar noemen.
Net zoals jij nogal biased overkomt.
Voor iemand die zo overduidelijk pro-AMD/anti-nVidia is, snap ik dat een neutraal iemand als ik al gauw biased overkomt op jou.
Nee, niks fanboy gebrag. Gewoon feiten.
Feiten ja, maar totaal irrelevante feiten, alleen maar bedoeld om nVidia in een kwaad daglicht te plaatsen. Daarbij totaal voorbijgaand aan het feit dat andere fabrikanten geen haar beter zijn.
Van AMD kan ik je er zo een paar noemen.
Oh? Nou, dan ben ik wel benieuwd, want ik zou er geen een weten.
Ben helemaal niet Pro AMD, maar zeker ook niet Pro Nvidia .
Ja, dus? Jij begon er zelf over als ik het mij goed herinner.

Jij zag ze graag op hun bek gaan, remember? Zeg je dat ook over Nvidia? Denk zomaar van niet. Zelf zie ik liever dat men slaagt, of het nou groen of rood is. Liever zie ik wat meer samenwerking, maar ja, het zijn aarts rivalen lijkt het wel.

Zie je nu ook terug in deze discussie; alles moet op de weegschaal gelegt worden, want zeg je het net iets te cru of zo, word je meteen in een hoek geduwt.

Misschien deed ik dat bij jou ook wel. Maar ja, als je ze op hun bek wil zien gaan...dat is wel heel erg cru gesteld.

Weet je, als jij het niet weet. Prima. Ga het je niet voorkauwen.
Maar als jij nu zou zeggen dat je 100% unbiased ben, ga ik hard lachen.

http://www.techhelpfox.co...nsive-Than-Intels-Chipset
60 procent duurder, toen al.

Beetje flauw om dan zo te reageren terwijl je geen goed antwoord erop kan vinden behalve te zeggen; Je hebt gelijk. Nvidia heeft altijd al aan de prijzige kant gezeten.

En ja, ook ik heb een gTX285 gehad en daarvoor nog ander Nvidia spul. Niks mis mee. Maar wel goed aan de prijs.

[Reactie gewijzigd door Madrox op 20 november 2013 01:08]

Ja, dus? Jij begon er zelf over als ik het mij goed herinner.
Nou nee hoor. Jij komt ineens uit het niets met nVidia en hun SLI.
Jij zag ze graag op hun bek gaan, remember? Zeg je dat ook over Nvidia? Denk zomaar van niet.
Dan denk je dat totaal verkeerd. Ik zie AMD en DICE graag op hun bek gaan omdat ze dat Mantle-verhaal enorm opkloppen, en de consumenten behoorlijk misleiden (neem bv maar het originele verhaal dat Mantle een API zou zijn die op Windows en de twee next-gen consoles gebruikt zou worden).
Als nVidia met een onzin-verhaal komt, zie ik ze ook graag onderuit gaan.
Liever zie ik wat meer samenwerking, maar ja, het zijn aarts rivalen lijkt het wel.
Lijkt het? Dat *zijn* het gewoon. Ze zijn de enige twee die discrete videokaarten leveren. Iedere videokaart die nVidia verkoopt is een videokaart die AMD is misgelopen en omgekeerd.
Als er meer spelers waren, zou er ook wat meer samenwerking geweest zijn, omdat je dan op z'n minst met een paar fabrikanten een blok kunt vormen tegenover de rest.
Maar ja, als je ze op hun bek wil zien gaan...dat is wel heel erg cru gesteld.
Ik heb er nou eenmaal een hekel aan als bedrijven met onzin-verhalen komen om de consument te misleiden.
Beetje flauw om dan zo te reageren terwijl je geen goed antwoord erop kan vinden behalve te zeggen; Je hebt gelijk. Nvidia heeft altijd al aan de prijzige kant gezeten.
Ik heb ook gezegd dat je gelijk hebt. Twee keer zelfs:
"Ik spreek het toch ook niet tegen?"
"Feiten ja..."
Ik ben er verder niet op ingegaan. Dat kun je je misschien niet voorstellen, maar dat chipset/SLI-verhaal interesseert mij gewoon niet (wat boeit dat nou? Sommigen wilden er best wat extra's voor betalen, anderen nemen maar AMD met CF dan... eigenlijk speelde nVidia alleen maar AMD in de kaart hiermee. Sowieso... ouwe koeien uit de sloot halen? nVidia maakt al jaren geen chipsets meer... wat weer komt vanwege Intel's acties door meer van de chipset te integreren in de CPU en geen buslicenties te verstrekken etc... zo kunnen we nog wel even doorgaan). Daarom ga ik er verder niet op in.
Maar ga niet roepen dat ik je geen gelijk heb gegeven. Dan ben je wel HEEL hard aan het zoeken om mij in een pro-nVidia hoekje te krijgen (wat je toch al de hele tijd aan het doen bent, en dat zegt een hoop over jouw partijdigheid).

Ik vond het vooral opmerkelijk dat je daar ineens over begint. Wat heeft nVidia's SLI-strategie en prijs te maken met Mantle? Helemaal niets toch? Alleen een zielige poging om nVidia af te zeiken.
En ja, ook ik heb een gTX285 gehad en daarvoor nog ander Nvidia spul. Niks mis mee. Maar wel goed aan de prijs.
Ja, en de primaire presentatiedoos op m'n werk draait ook op twee Radeon 4850s. En dus? Lekker belangrijk. Ik koop gewoon de videokaarten die op een bepaald moment de beste combinatie van features en performance leveren, voor een goede prijs.
Verder heeft dat ook geen invloed op wat ik van een bepaalde fabrikant en z'n uitlatingen vind. Ik heb met de opkomst van OpenCL nogal wat kritiek gehad op m'n blog, voornamelijk op AMD (maar ook nVidia had een blunder gemaakt in een vroege SDK). Destijds had ik zelf een Radeon 5770. In die tijd begon AMD ook ineens moeilijk te doen over tessellation, wat ze eerder enorm liepen te promoten. Ook daar heb ik kritiek op gehad (mede ook door de slechte implementatie van tessellation, vooral bij die eerste kaarten. Dat wilden ze dan in de schoenen van nVidia schuiven, die ontwikkelaars zou omkopen om tesselation code te draaien die 'niet optimaal' was voor AMD... ya right... M'n eigen tessellation code liep ook voor geen meter op die 5770, die tessellator was gewoon zwak, daar hoef je niemand voor om te kopen. Ook AMD's eigen tessellation voorbeeldjes liepen veel beter op nVidia kaarten. Had nVidia dan ook de AMD-ontwikkelaars omgekocht? Ga de consumenten niet lopen voorliegen!), maar ik had nog steeds wel zelf zo'n Radeon 5770. Leuk dat mensen je dan als anti-AMD gaan bestempelen. Mensen weten niet eens wat onpartijdigheid is!
Noem eens 1 ding wat Nvidia "open" heeft ontwikkelt/uitgebracht ? Van AMD kan ik je er zo een paar noemen.
Je hebt trouwens nog NIETS genoemd. Zwak.

[Reactie gewijzigd door Scalibq op 20 november 2013 11:23]

Weet je wat zwak is? Dev's die te beroerd zijn om er het maximale uit te halen en gemakzuchtig met een inefficiente API blijven werken O-)
Pah, als er iets is waar ik bekend om sta, dan is het wel om mijn optimalisaties. Ik ga altijd voor het maximale.
Met wat er dan uit de DirectX API te halen valt, bedoel je }:O

Mwu-ha-ha-ha!! "No overhead" in DX11?? For real??
My god, this one was hilarious!
Indeed DX11 improved a lot on the total mess the DX9 was, but the overheads are still HUGE, hundreds of thousands of CPU cycles for simple operations like "set the same state on the existing buffer".
This is why Guenadi Riguer was talkiing about 5k DIPs per frame and not 2k we had in DX9. But it's still a far cry from 20-30k that were possible even on last gen consoles and 100k+ for current gen PS4.

}>

[Reactie gewijzigd door Madrox op 21 november 2013 16:40]

Met wat er dan uit de DirectX API te halen valt, bedoel je
Ik heb wel iets meer ervaring dan alleen DirectX hoor :P
Voor de komst van 3d hardware was software rendering mijn ding.
This is why Guenadi Riguer was talkiing about 5k DIPs per frame and not 2k we had in DX9. But it's still a far cry from 20-30k that were possible even on last gen consoles and 100k+ for current gen PS4.
Tsja, leuk, maar weet je wat die getallen betekenen?
Optimaliseren van moderne 3D-code gaat juist door het minimaliseren van het aantal draw calls, door batch-breakers zo veel mogelijk te elimineren, door gebruik van bv texture atlases en geometry instancing.
Goede code heeft nooit 100k draw calls per frame nodig, bij lange na niet.
Leuk als je 100k draw calls kunt doen per frame, maar erg realistisch is zo'n scenario niet. En ook niet bepaald optimaal.
Voor goed geoptimalseerde code is 5k draw calls per frame al enorm veel.
Je wil met zo min mogelijk calls zo veel mogelijk doen. Dan is de API overhead ook niet van heel veel invloed.

[Reactie gewijzigd door Scalibq op 21 november 2013 21:24]

Wat je dus zegt is dat je met minder goede code, straks met Mantle toch goede prestaties neerzet. Word het toch nog eenvoudiger voor de dev's :+

[Reactie gewijzigd door Madrox op 22 november 2013 00:13]

Wat je dus zegt is dat je met minder goede code, straks met Mantle toch goede prestaties neerzet. Word het toch nog eenvoudiger voor de dev's :+
Nee, want die devs moeten ook zorgen dat de D3D/OGL versies goede prestaties neerzetten. Er is namelijk veel meer niet-Mantle hardware dan Mantle-hardware.

Oh sorry, even vergeten dat ik hier met een fanboy te maken heb, die het helemaal niet belangrijk vindt hoe niet-Mantle hardware ondersteund wordt.

Het wordt alleen maar lastiger om naast je D3D/OGL code ook nog een Mantle-variant te onderhouden. Een codebase die meerdere APIs ondersteunt is vaak erg complex en meestal ook inefficient (lowest common denominator enzo).
D3D10 was wat dat betreft ook al niet echt een pretje, omdat je nog steeds D3D9 moest ondersteunen voor mensen met Windows XP en/of D3D9-hardware. De eerste generatie D3D10-games was dan ook vrij waardeloos qua efficientie. Maar daar had je dan nog het voordeel dat D3D10 wel door alle fabrikanten ondersteund werd, en het ook zeker was dat D3D10 door toekomstige hardware en OSen ondersteund zou gaan worden.

Het klinkt misschien allemaal leuk voor de leek, en AMD heeft misschien een aantal developers omgekocht om alleen de voordelen van Mantle te benadrukken, en niet over de nadelen te praten, maar zo simpel ligt het niet. Mantle is echt niet het beloofde land van de graphics APIs.

Als het zo makkelijk was, dan hadden we die API al lang gehad, en hadden we niet op AMD hoeven wachten. Microsoft gooit immers eens in de zoveel jaar hun API en drivermodel compleet op de schop, en ontwerpt hem opnieuw op basis van next-gen architecturen, in samenwerking met oa Intel, nVidia en AMD.
En als Microsoft het niet zou doen, dan is daar ook Khronos nog met de OpenGL-standaard.
Je zou toch denken dat iemand al lang op het idee van Mantle is gekomen (zeker omdat ook game devs met MS en Khronos praten, en AMD ook met MS en Khronos onderhandelt. AMD had op z'n minst het Mantle-idee kunnen pitchen bij MS en Khronos, en als het echt zo fantastisch was, dan waren MS/Khronos/nVidia/Intel/etc ook wel ingestapt).

Zelfs als je echt zou geloven dat Mantle een revolutionaire nieuwe API was (het idee alleen al *proest*), dan zou je het op z'n minst opmerkelijk kunnen vinden dat AMD die voor zichzelf houdt, ipv deze als next-gen D3D of OGL API te introduceren (een industrie-standaard dus, ondersteund door een grote groep ISVs en IHVs). Maar misschien verwacht ik dan nog te veel van iemand die alles door een rode bril ziet.

[Reactie gewijzigd door Scalibq op 22 november 2013 06:03]

Dat ziet er al beter uit!
Toch blijt het zeer beperkt, bestaande spellen kun je waarschijnlijk wel vergeten.
dit zijn desktop apu's
Snap niet vanwaar je tablets ineens vandaan haalt? Heeft er niets mee te maken. Deze apu's zijn 10 tot 20 keer krachtiger dan de krachtigste tablets.
Omdat een collega van mij een tablet heeft met een i5. Dat betekend dat in theorie deze architectuur ook gebruikt zou kunnen worden voor tablets. In dat geval zou dat erg positief zijn voor de gpu :P
Twee dagen na Anantech en Hardware.info, terwijl dit toch echt wel belangrijk nieuws is. Wat mij betreft zou t.net wel scherper mogen wezen op dit type nieuws.
Je mag ook zelf nieuwstips insturen. En zo belangrijk vind ik dit nieuws ook weer niet.

[Reactie gewijzigd door angelina op 13 november 2013 13:03]

Offtopic: klopt, maar blijkbaar doet niemand dat. Het lijkt wel of T.net steeds meer door professionals wordt gerund en dat de community naar de achtergrond verdwijnt. Aanwijzing: nauwelijks nieuwsposts buiten kantooruren.
Leuk voor een goedkope steambox. Ik meende dat valve had gesproken over implementatie van intel met igpu maar het lijkt me dat ze beter bij het groene kamp kunnen gaan kijken wat dat betreft.
Groene kamp? AMD is toch rood :)
AMD GPU (AMD/ATI) is rood, AMD zelf is groen ;)
dank u _/-\o_

Misschien dat amd gpu en cpu maar eens onder dezelfde vlag moeten gaan varen
CPU's zelf zijn volgens mij ook rood/zwart hoor.

http://www.amd.com/us/pro...rs/amdfx/Pages/amdfx.aspx

zoals je kan zien is het FX loge rood/zwart. Dus AMD is het rode kamp. Gewoon de stijl van Ati overgenomen dus.

Wel zo makkelijk, twee groene videokaart merken zou verwarrend worden :+
AMD is op een zeer goede weg om een goede combinatie van CPU/GPU te voorzien. Ik zie vooral veel voordeel in mensen die wel een beetje GPU-kracht willen en een goede CPU. Toch vind ik ook hun TDP waarde veel te hoog. Als ze dit kunnen stabiliseren zie ik zelfs de APU's de markt veroveren voor normale users.
Tja zo'n APU met interne GPU is vooral interessant voor laptops en dergelijke..
Ik ben zelf meer benieuwd hoe de CPU presteert in vergelijking met de huidige FX en i5 series.
"De A10-7850K is voorzien van [...] 512 streamprocessors. [...] Wat het aantal streamprocessors betreft maakt Anandtech voor het gpu-deel van de apu de vergelijking met Radeon HD 7750."

Kijk, nu wordt het leuk. Ik heb al sinds de eerste generatie APUs gebruikt, maar tot nu toe vooral als HTPCs en simpele desktops.

Als met Kaveri de GPU op HD 7750 niveau komt dan beginnen ze nu ook interessant te gaan worden voor gaming. AMD is goed en gestaag bezig. :)
Idd, prima voor mijn desktop, over het algemeen nog goed betaalbaar ook.
Nu nog de versie met 832-cores erin en DDR4 (met DDR3 redt je het niet- haal je niet alles uit de GPU zijde) in 2014 en een max. TDP van 65 Watt en bingo, wederom een winner Taco. :)
Er was mogelijk ook sprake van het speciaal toevoegen van GDDR5 (max. 2GB) op het mobo t.b.v. de grafische zijde, maar de architectuur was juist gestoeld op het delen van het normale ram door de cpu en gpu en naar het lijkt is dat plan van de baan (of nog niet officieel bevestigd.)
Ik sta op het punt een nieuw setje te bouwen, maar weet nu niet of ik al een FM2+ mobo kan kopen en wat voor geheugen, want de specs worden niet volledig vrijgegeven. Red ik het met een mobo met 4+2 fasen power, 2133MHz DDR3, 1.5 Volt of blijkt in jan/feb 2014 dat ik ineens toch 2400/2600MHz ram nodig heb? Beetje irritant van AMD dat zij hier niet duidelijk in zijn. :/

[Reactie gewijzigd door johncheese002 op 14 november 2013 00:41]

Daar zit ik verdorie al even op te wachten - en 't mag gerust wat kosten - Intel moet opnieuw meer en zware concurrentie krijgen.
Gekheid al die comments hier joh, btf4 op medium 28-40 is gewoon ******** amazing! :|

begin me dan toch af te vragen waarom mijn gpu 10 van die dingen past.....ik denk dat op dezelfde chip cross"fire" wel letterlijk wordt dan!. :P

[Reactie gewijzigd door DragonChaser op 13 november 2013 15:19]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True