Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

AMD heeft op zijn Fusion Developer Summit een notebook met Trinity-apu getoond. Volgens het bedrijf is Trinity nu al 50 procent sneller dan de net uitgebrachte Llano en wordt de gpu-architectuur van de Radeon HD 6000-serie gebruikt.

AMD houdt in Bellevue, in de staat Washington, een evenement voor ontwikkelaars om de ontwikkeling voor apu's te stimuleren. Het bedrijf is erbij gebaat als er meer gpgpu-applicaties komen, aangezien de kracht van de hybride AMD-chips bij de gpu ligt. AMD heeft net zijn Llano-apu's voor de mainstream uitgebracht, maar op het Fusion Developer Summit liet het bedrijf al een notebook met de opvolger zien. De laptop met Trinity-apu draaide alleen een video, maar AMD toont ermee aan dat de ontwikkeling van de chip op schema ligt.

"Trinity is gebaseerd op de Bulldozer-core. We hebben het silicium enkele weken geleden in onze labs getest en daarmee bevestigd dat de prestatiewinst 50 procent bedraagt", zei Rick Bergman, vice-president van AMD. Volgens hem blijft AMD bij zijn doelstelling om notebooks tegen 2020 een rekenkracht van 10 teraflops te geven. De snelste Llano A8-apu biedt volgens AMD een rekenkracht van 412 gigaflops. Trinity zal op 32nm worden geproduceerd door Global Foundries en de gpu wordt op de vliw-4-architectuur van de HD Radeon 6900-serie gebaseerd. Hiermee ontkracht AMD volgens PcPer geruchten dat Trinity, net als Llano, over de vliw-5-architectuur van de HD 5000-serie beschikt.

AMD wil van de apu's een unified processing element voor de softwareontwikkelaar maken. Het bedrijf gaat daarom onder andere ondersteuning voor C++-functionaliteit toevoegen, die de gpu als parallelle processor kan inzetten. Ook moeten verbeteringen worden doorgevoerd in het delen van geheugen door cpu en gpu. Bij het Fusion-evenement was ook de vice-president van de technologieafdeling van ARM aanwezig om volgens The Register te vertellen dat ARM en AMD beide een toekomst van heterogeneous computing voorzien, waarbij alle onderdelen van een chip eenvoudig door ontwikkelaars in te zetten zijn.

AMD Trinity notebook

Foto afkomstig van Heise.de
Moderatie-faq Wijzig weergave

Reacties (41)

50% sneller? Leuke uitspraak, maar waar zit die 50% verbetering? CPU performance? GPU (FPS) performance? Perfomance van software dat gebruik maakt van de APU functionaliteit?

Ik zou het liefst wat verbetering willen zien in de ruwe CPU performance, want een APU is leuk en aardig, maar zolang nog 99,9% van de software er geen gebruik van maakt ben je dus bijna altijd aangewezen op de CPU performance, en dat is nou net waar Llano niet super goed presteerd (het is immers min of meer een Athlon II).


Gezien Trinity op Bulldozer gebaseerd is zal een gedeelte van de winst wel op CPU vlak zijn, de vraag is echter hoeveel.

[Reactie gewijzigd door knirfie244 op 15 juni 2011 12:05]

Staat gewoon in de tekst hoor, in giga/teraflops ..... btw de opmerking
Ik zou het liefst wat verbetering willen zien in de ruwe CPU performance, want een APU is leuk en aardig, maar zolang nog 99,9% van de software er geen gebruik van maakt ben je dus bijna altijd aangewezen op de CPU performance,
snap ik niet echt.....

Als 99,9% van de software (volgens jouw) geen gebruik maakt van een GPU als onderdeel van een APU zal dat echt niet anders zijn met een losse CPU en losse GPU.....

M.a.w. als je "enkel" CPU vermogen nodig hebt, kies je of een zwaardere APU, of je kiest een CPU + GPU .....

issosimpel...

[Reactie gewijzigd door IoorLTD op 15 juni 2011 15:00]

Het is een beetje mieren neuken maar:
Trinity zal op 32nm worden geproduceerd door Global Foundries en de gpu wordt op de vliw-4-architectuur van de HD Radeon 6000-serie gebaseerd. Hiermee ontkracht AMD volgens PcPer geruchten dat Trinity, net als Llano, over de vliw-5-architectuur van de HD 5000-serie beschikt.
Radeon 6000-Serie moet -> Radeon 6900 Serie zijn.
Alle andere chips in de 6xxx serie maken nog wel gebruik van de vliw-5 architectuur. Alleen de HD69xx kaarten gebruiken tot nu toe de vliw-4 architectuur.
De vliw-4 architectuur van de HD 6000, en niet de vliw-5 architectuur van de HD 5000 serie? :? Is de HD 6000 serie dan een achteruitgang?
Nee, de VLIW is de verdeling van het aantal specifieke taken van een GPU stream processor. NV gebruikt zo een VLIW-1 principe oftewel alle streamers kunnen alle taken verwerken.

ATI heeft dus 4 of 5 specifieke taken verdeeld over het totaal aantal streamers. Zodoende heeft ATI veel meer streamers maar zijn deze eenvoudiger.
NV heeft 1 type complexe streamer die voor alles inzetbaar is.

Je zou een beetje kunnen stellen dat hoe lager je VLIW des te meer taken deze kan verwerken (universeler) en des te beter is de efficientie van de GPU.

EDIT: ik blijf het wat voorbarig en niet al te slim vinden om nu al aan te kondigen dat de komende Liano al ingehaald is door een vergevorderde opvolger. Daarmee verouder je je eigen technologie nog sneller door het zelf al (min of meer) gedateerd te noemen.
Iedereen weet dat het snel gaat maar om nu al speciefieke performance uitspraken te doen :?

[Reactie gewijzigd door Double-X-L op 15 juni 2011 12:03]

Je zou een beetje kunnen stellen dat hoe lager je VLIW des te meer taken deze kan verwerken (universeler) en des te beter is de efficientie van de GPU.
Dat zou je kunnen zeggen maar dat klopt wat mij betreft niet. Je zou ook kunnen stellen dat een SP alleen taken hoeft te kunnen die hij ook daadwerkelijk gaat uitvoeren, als élke SP een bepaalde taak kan maar die taak wordt hoogstens door 20% van de SP's uitgevoerd dan staat dus een deel van je GPU te niksen en dat is juist niet efficiënt. Dan had die 80% die de taak niet uitvoert, dat dus niet hoeven kunnen (en dat scheelt weer ruimte).

Al is het natuurlijk nooit zo zwart/wit en beide keuzes hebben hun voordelen. Als dat niet zo was en één bedrijf was consistent in het nadeel, zou dat bedrijf wel van zijn architectuur afstappen. ;) Het hangt dus af van je toepassing welke GPU efficiënter is.

[Reactie gewijzigd door bwerg op 15 juni 2011 12:12]

Om op je Edit te reageren:
Mensen die nu een computer willen kopen, kopen nu een computer. Als je gaat wachten omdat een bedrijf aankondigt dat ze over een x tijd een nog snellere processor hebben kun je helemaal niets meer kopen. Je weet als je een computer vandaag koopt dat er morgen een snellere, zuinigere en goedkopere op de plank staat.
Zo werkt het immers al jaren.

AMD laat in deze zien dat ze vorderingen maken, snellere ontwerpen hebben, nieuwe technologie in de pijplijn hebben zitten.
Je gaat niet op een developers conferentie oude hardware demonstreren.
Inderdaad zo werkt het al jaren, maar hiermee versnellen ze dit proces op een kunstmatige manier. Liano is nog niet te krijgen maar de volgende chip die bijna klaar is, is 50% sneller.

Das hetzelfde als een nieuwe auto introduceren en meteen zeggen dat er over 4 maanden een betere komt. Tuurlijk komt er een betere maar nu ondermijn je je eigen actuele markt door te stellen dat het heel binnenkort veel sneller kan.

Zo krijg je volgens mij alleen maar meer klanten die wachten met aanschaf tot de 50% snellere variant er is. Hierdoor heeft de concurentie meer tijd voor een gepast antwoord en verkoop je zelf actueel nog even niks.
EDIT: ik blijf het wat voorbarig en niet al te slim vinden om nu al aan te kondigen dat de komende Liano al ingehaald is door een vergevorderde opvolger. Daarmee verouder je je eigen technologie nog sneller door het zelf al (min of meer) gedateerd te noemen.
Iedereen weet dat het snel gaat maar om nu al speciefieke performance uitspraken te doen :?
Daar heb je een punt maar het lijkt mij, gezien de vertraging van de desktop BD en de daar rond ontstane gossip, dat positieve berichten over BD nu belangrijk zijn om de twijfelaars voor nu SB of dalijk BD nog wat langer te laten twijfelen of hoop te geven?
Of sla ik hier de plank mee mis?

[Reactie gewijzigd door RvanderV op 15 juni 2011 12:34]

Je slaat er ggen plank mee mis maar vol raken doe je hem ook niet ;)
Deze aankondiging is van een APU waar intel sowieso (vooralsnog) geen antwoord op heeft.

Dus de BD vs SB discussie is hierop maar beperkt van toepassing.
Daarnaast is deze aankondiging behoorlijk vroeg omdat Liano nog niet eens verkrijgbaar is.

Hoop geven met de aankondiging van een toekomstige chip en daar de keuze tussen een bestaand SB platform en deze Trinity mee beinvloeden lijkt me dan niet het doel.

Het aangeven van BD-potentie zou wel een doel kunnen zijn, maar dan doen ze dit wel met een behoorlijke omweg en zonder harde feiten. Dat is in mijn beleving dan te mager om van een betoog te spreken.

Oftewel BD is in mijn beleving te dichtbij om er op deze abstracte manier reclame voor te maken.
De 4 en 5 zijn geen versienummers oid, zie dit artikel bij de buren
Wel leuk om te horen dat het ontwikkelen van de opvolger soepel verloopt. Is trouwens Trinity pin compatible met Liano cpu of is er een nieuw moederbord nodig? Als het pin compatible zou er weinig een soepel en snelle(re) lancering van Trinity in de wegstaan.
Trinity gebruikt een FMX socket en is niet compatibel met FM1 of AM3+ sockets.
Heeft AMD dan al officieel aangekondigt op welk socket Trinity gaat werken? Ik heb daar nog nimmer een echt bericht over gelezen. Wellicht heeft AMD Trinity in het achterhoofd gehad bij de ontwikkeling van FM1.

Als Trinity met meer dan dual channel komt wat geheugen betreft, kan het natuurlijk wel eens een ander verhaal worden.
Best jammer dat er weinig software is die datwerkelijk met ati stream overweg kan, nvidia met cuda doet het daar heel wat beter in.

Iemand die daarvan de oorzaak weet? waarom bij nvidia wel veel programma;s gebruik kan maken van cuda en bij ati heel wat minder.
o.a. Marketing lijkt me een oorzaak. Voordat ik van Tweakers.net hoorde had ik nl. al wel gehoord van CUDA maar nooit iets van Stream en/of OpenCL. Ook bestond CUDA eerder en het kost een boel tijd en moeite om om te schakelen van CUDA naar OpenCL.

Weer on-topic: 50%? Dat lijkt me een aardige winst. Trinity zou toch ergens volgend jaar uitkomen? In dat geval is het zekere een mooie prestatie winst voor AMD. Maar goed, eerst eens kijken hoe de gewone BD het zal doen, dit zal wss. ook wel een aardige indicatie geven.
50% is marketing praat, voor het is sneller dan de vorige serie. In wekelijkheid zal je waarschijnlijk bij een gelijke clock snelheid niet meer dan 20% verschil zien. Als je namelijk binnen een generatie de snelheid met 50% zou kunnen verhogen dan is er toch echt iets goed mis met het ontwerp van de vorige generatie...

Wat General Purpose GPU betreft, CUDA was als ik het me nog goed herinner de eerste met compiler ondersteuning en dat is een hele belangrijke reden waarom mensen dit zijn gaan gebruiken. De rest was simpel weg nog niet zo ver. In middels is dat redeljik achterhaald en zou ik eigenlijk zeggen dat een nieuw project beter OpenCL kan gebruiken, zeker met oog op de toekomst en de mogelijkheid om dit ook op verschillende hardware te kunnen draaien. Voor bestaande producten zou het herschrijven (als de originele code goed geschreven is) niet heel erg moeilijk moeten zijn alleen gaat het wel flink kosten en dat is veel al een goede rede om het dan toch maar niet te doen.

Een unified processing unit lijkt me een leuk idee maar het zou dan wel dus danig ondersteund moeten worden door compilers dat je als programmeur niet hoeft te beslissen of je Core A, B, G of X gebruikt en welke voor/nadelen dit dan zou kunnen hebben. Op het moment dat je als programmeur gewoon je code kan schrijven en de processor zelf bepaald waar bepaalde code het best kan worden uitgevoerd dan kan dat een heleboel snelheidswinst op leveren. Een programmeur kan niet de "verkeerde" keuze maken en een verschil in architectuur tussen verschillende vendors is niet meer van belang omdat dit door de hardware zelf opgelost wordt door de snelste core voor een bepaalde handeling te gebruiken.
Als ik het goed begrepen heb zouden de nieuwe GPUs een fatsoenlijke cache hierarchie hebben (eg. L1 en L2 caches). Dat gecombineerd met betere instructie-level parallelisatie door middel van VLIW; wat in houd dat je niet alleen een fused multiply-add hebt maar een fused dit-dat-en-nog-drie-dingen.

Die twee dingen kunnen prima voor een gigantische performance winst zorgen. Hoeveel het gaat worden moeten we nog maar zien; immers is geen enkele applicatie er voor geoptimaliseerd op het moment.
Volgens mij is die nieuwe cache hierarchie pas voor een later product, Trinity's GPU zal op de HD6000 serie gebaseerd worden. En VLIW heeft Llano ook al, dat is niks nieuws. :s
50% is marketing praat, voor het is sneller dan de vorige serie. In wekelijkheid zal je waarschijnlijk bij een gelijke clock snelheid niet meer dan 20% verschil zien. Als je namelijk binnen een generatie de snelheid met 50% zou kunnen verhogen dan is er toch echt iets goed mis met het ontwerp van de vorige generatie...
Wat een onzin, videokaarten worden elke generatie 50% of meer sneller, is dus heel normaal. En er is niks mis met vorige generatie als de volgende generatie 50% sneller zal zijn. Sommige taken zullen wellicht 100%(of nog meer) sneller zijn op nieuwe generatie GPU. Zeker als je dan ook nog software gaat draaien die voor de nieuwe kaart is geschreven dan kan de oude soms helemaal niet meer meekomen.

Je vergeet denk ik dat we het hier over een APU hebben en niet over een CPU. Die 412 gigaflops die de liano heeft komt niet van de cpu gedeelte maar van de gpu gedeelte. Die GPU gaan ze ongeveer elke jaar van nieuwe update voorzien(heeft amd al hele tijd terug beloofd) met als doel om 24x sneller te zijn in 2020 dan de APU nu is.
De oorzaak is voornamelijk gewoon dat Nvidia een paar jaar voorsprong heeft op ATI/AMD op dit gebied en dat softwaremakers dus veel meer tijd hebben gehad om te leren er op te programmeren.

Nvidia is als sinds de Geforce 6 serie bezig met GPU processing. Daarnaast hebben ze ook een range professionele CUDA kaarten voor GPU/paralelle processing met double precision. En daarbij heeft Nvidia natuurlijk veel meer geld besteed aan ontwikkelkosten


AMD is er veel later mee begonnen, zo laat zelfs dat men dus alleen nog voornamelijk demo's maakt. De enigste manier voor AMD om ook marktaandeel op dit gebied te winnen lijkt mij via OpenCL, want als je nu voor één architectuur moet kiezen is de keuze snel gemaakt.
Hoeft niet zo te zijn. De 50% winst is met de nieuwe core, gebaseerd op de nieuwe bulldozer core, ipv de oude athlon II core van de llano. Het is dus niet dezelfde generatie.
Volgens mij is die uitspraak gebaseerd op het aantal GFOPS, aldus de toespraak op de Fusion Developer Summit. Het slaat dus wel degelijk ergens op, althans, technisch gezien. ;) Of het zich ook zal vertalen in 50% meer FPS is natuurlijk de vraag, met het gedeelde geheugen. (Overigens ligt het voor de hand de hand dat het grootste aandeel van de GPU komt en niet de CPU, gezien die eenmaal meer GFLOPS genereerd.)
Er is toch ook een laag over Nvidia en Ati heen, OpenCL CUDA, die met beiden overweg kan, qua gpu-programming? Lijkt mij het meest relaxed dat je zoiets optimaliseert en er desnoods een eigen taal voor maakt als community...sch*t aan die vendor-lock-in's! }>
Het is gewoon OpenCL, geen OpenCL CUDA. OpenCL zou met alle videokaarten overweg moeten kunnen als de fabrikant besluit OpenCL drivers/APIs te schrijven. Momenteel bieden de "grote 4" (AMD, nVidia, Intel, VIA) allen OpenCL ondersteuning in meer of mindere mate.


Momtenteel zien OpenCL en stream helaas nog weinig ondersteuning, alles wordt vooral in CUDA geschreven, wat helaas alleen op nVidia hardware draait.
Volgens NV is OpenCL gewoon een "equal choice" en word er voor beide gewoon ondersteuning geboden (zowel debug tools als drivers zijn prima).
AMD ook hoor, OpenCL is een standaard die op beide werkt. Cuda werkt niet op AMD kaart en ATI Stream werkt niet op nVidia kaarten, en software die tot nu toe gemaakt is is of in Cuda geschreven of ATI Stream API.
Ja opencl zou idd met bijde overweg kunnen, nadeel is alleen dat er niet erg veel programma's zijn, zelfs geen simpele opencl video converter die je vidkaart gebruikt zijn er nog niet.

[Reactie gewijzigd door devil-strike op 15 juni 2011 11:54]

Waarschijnlijk omdat video conversie geen simpele taak is ;)
Als ik daar wat over zou moeten zeggen dan denk ik dat NV er veel meer mee bezig is.
Ze stimuleren het meer, sponsoren CUDA projecten enz enz.

Bovendien zal het misschien te maken kunnen hebben met de architectuur waarbij het universele van de NV streamers een rol zou kunnnen spelen.

Ik zie ATI dan als CELL CPU waarvoor het moeilijker programeren was dan de bestaande x86 of x64 hardware. Specifieke zaken door speciefieke delen van de CPU laten doen genereert als extra probleem dat het op elkaar moet aansluiten om er een knap en vloeiend geheel van te maken. Je bent dus gelimiteerd door het inst krachtige deel van die CPU of je moet er een omweg voor gaan verzinnen waarbij je een ander deel laat helpen.

pls do correct me if i'm wrong ;)
Ook ik zat aan de grote verschillen aan architectuur te denken waardoor nVidia wellicht een wat grotere voorsprong heeft op ATI op gebied van commercieel en wetenschappelijk GPGPU's. Ik kan met nog een review herinneren waar de verschillen in architectuur werden uitgelicht hier op tweakers.
Anders nog even een ander voorbeeldje waaruit blijkt dat nVidia toch de wat betere architectuur heeft(had?): http://www.offerman.com/artikelen/SRM/GPGPU/
het ligt helemaal aan de applicatie die je draait.
galaxy at home bijvoorbeeld draait beter op ATI als op nvidia.
en hoe nieuwer de app hoe beter hij werkt op ATI meestal.

ATI heeft beduidend meer peak performance als nvidia ondanks dat nvidia's chip 1/3 groter is. maar het is iets moeilijker om het allemaal aan te spreken, en je bent wat afhankelijk van de drivers.
de vliw-4 architectuur zou dat ook gemakkelijker moeten maken.
Best jammer dat er weinig software is die datwerkelijk met ati stream overweg kan, nvidia met cuda doet het daar heel wat beter in.

Iemand die daarvan de oorzaak weet? waarom bij nvidia wel veel programma;s gebruik kan maken van cuda en bij ati heel wat minder.
Zowel AMD/ATI als NVidia kunnen overweg met OpenCL.
Mooi nieuws om te horen over de BD structuur aangezien er de laatste tijd nogal veel speculatie is over de desktop BD.
Ik ben benieuwd wat de verdere ontwikkelingen gaan zijn :).
Je had ook even vliw4 kunnen googelen voordat je die opmerking maakte:
http://www.anandtech.com/...-hd-6970-radeon-hd-6950/4
De 4 en 5 zijn geen generatie-nummer.
Wow, goed te zien dat ze geen pauze nemen maar direct doorstomen naar de volgende generatie, blijkbaar hebben ze al werkend silicium, ben benieuwd naar het verbruik.
Ok, even voor de nono's onder ons:
http://nl.wikipedia.org/wiki/Apu
Ik mag toch aannemen dat dat er niet mee bedoeld wordt, met APU.
Apu kan verwijzen naar:
- Auxiliary power unit
- Apu Nahasapeemapetilon, een personage uit The Simpsons
Dus dan maar:
http://en.wikipedia.org/wiki/Accelerated_Processing_Unit
An Accelerated Processing Unit (APU) is a processing system that includes additional processing capability designed to accelerate one or more types of computations outside of a CPU. This may include a graphics processing unit (GPU), a field-programmable gate array (FPGA), or similar specialized processing system. Variations on the usage of this term include a marketing based variation in which APU describes a processing device which integrates a CPU and a GPU on the same die thus improving data transfer rates between these components while reducing power consumption. APUs can also include video processing and other application-specific accelerators. Examples: AMD Fusion, Intel HD Graphics and NVIDIA's Project Denver.

The term Accelerated Processing Unit or APU was first used in a public context with respect to accelerated computing on the Scalability.org blog, and prior to that in various presentations and business plans written by Joe Landman of Scalable Informatics. Other uses include Xilinx using the term for an Auxiliary Processor Unit.

[Reactie gewijzigd door Gé Brander op 15 juni 2011 12:04]

Op de Engelse versie van Wikipedia is meer info te vinden:
http://en.wikipedia.org/wiki/Accelerated_Processing_Unit

Tevens heeft dit er ook veel te maken (wel in NL taal):
http://nl.wikipedia.org/wiki/GPGPU

OT: 50% klinkt mooi, ik vraag me af hoe dit met de desktop serie zit?

[Reactie gewijzigd door Cerenas op 15 juni 2011 12:11]

De desktops gaan dit jaar al over naar Bulldozer cores. De verwachting is dat die volgende maand aangekondigd worden (De nieuwe FX serie)
Mischien ligt het aan mij, maar is het niet een beetje jezelf in je voet schieten om al zo snel nadat je product uit is als te gaan roepen dat de opvolger nu al veel beter is? Mij lijkt het dat je als consument de volgende keer dan wel beter op let als je iets van hun aan schaft.
De Athlon64 werd ook al jaren aangekondigd voor hij uberhaupt op de markt kwam, en in de tussentijd had ik ook alweer drie CPU's+2 moederborden versleten. De gemiddelde consument is dan ook een compleet andere doelgroep, die niet in vakbladen kijkt, niets van dit evenement weet, en pas van de Trinity zal horen(niet eens wetent wat het eigenlijk is) als het in de reclamefolders of op de winkelschappen staat.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True