Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 129 reacties
Submitter: Gaming247

AMD brengt in de tweede helft van dit jaar nieuwe gpu's uit. Daarnaast stapt AMD uit de markt voor microservers met zijn SeaMicro-tak. De stap volgt op slechte kwartaalcijfers die tot nieuwe reorganisaties leiden. AMD kampt met terugvallende vraag naar zijn chips.

AMD Lisa SuAMD brengt Carrizo-apu's en sommige grafische producten in de tweede helft van dit jaar uit. Hoewel daarmee niet is uitgesloten dat er al eerder nieuwe videokaarten verschijnen, lijkt het erop dat de nieuwe Radeon R9 300-kaarten met HBM ook pas in de tweede helft van het jaar komen.

Eerdere geruchten spraken van een release in de eerste helft van 2015. In de conference call spreekt directeur Lisa Su verder wel over een "succesvolle voorbereiding op de introductie van nieuwe apu's en gpu-producten voor 2015 in het afgelopen kwartaal". Seeking Alpha publiceerde een transcriptie van de cijferbespreking.

AMD stopt verder direct met SeaMicro, meldt het bedrijf bij de bekendmaking van de kwartaalcijfers. Het concern gaat niet tot een verkoop over, maar besluit de technologie in eigen huis te houden. Het besluit is volgens het chipconcern bedoeld om het bedrijf te vereenvoudigen en de aandacht zal meer gericht worden op de ontwikkeling van processors voor servers. AMD nam SeaMicro in 2012 over in een poging nieuwe inkomstenbronnen te vinden. De markt voor microservers - compacte, zuinige servers - werd als een grote groeimarkt gezien, maar heeft die belofte nooit waar kunnen maken.

Het stoppen met microservers had een negatieve impact op de kwartaalresultaten van AMD aangezien het voor een forse afschrijving zorgde. Ook zonder die kosten waren de resultaten niet goed. De Computing and Graphics-tak, waar de apu's en gpu's onder vallen, behaalde een omzet die 38 procent lager lag dan in hetzelfde kwartaal vorig jaar. AMD verkocht minder processors voor desktops en minder videochips.

De omzet van AMD kwam in het afgelopen kwartaal uit op 1,03 miljard dollar, momenteel omgerekend ongeveer 0,95 miljard euro, en dat was meer dan een kwart lager dan een jaar geleden. Het kwartaalverlies bedroeg 180 miljoen dollar.

Moderatie-faq Wijzig weergave

Reacties (129)

Ik deel jouw zorgen..

Probleem is dat AMD naar mijn idee zover van de consumenten af lijkt te staan..

De gemiddelde consumenten willen steeds meer power, met steeds lagere verbruiken en bijbehorende lagere temperaturen en benodigde koeling..
De echte gamers zal het een worst wezen hoeveel hun pc verbruikt en qua prestaties..

Voor beide groepen scoort Nvidia in mijn optiek beter.

Zo ervaarde ik zelf ook dat bij het bouwen van een systeem ik geen moment de neiging heb gehad om een AMD GPU of CPU te kopen.. Ondanks dat mijn voorkeur vroeger altijd was om AMD GPU kaarten te kopen..

Desondanks hoop ik dat AMD met een goed product terug kan slaan eind 2015...
Een monopolie is in mijn inzien nooit goed...
Ik denk dat dat qua GPU's ook wel wat heeft te maken met de (inmiddels niet meer rendabele) bit/altcoin mining markt. De AMD GPU's deden (tot niet zo heel lang geleden) veel en veel meer hashes/sec dan de nvidia GPU's, vooral omdat de community heel erg lang bezig is geweest om een miner voor nvidia's cuda te schrijven. Dit is dan ook direct mijn probleem met nvidia.

Men zegt vaak dat Intel's CPU's beter zijn omdat ze voor heel veel soorten taken geoptimalizeerd zijn (en andersom de software Intel optimized) kan worden, waar AMD meer 'brute kracht' levert. Ik denk dat dit met CPU's wel een goed iets is, maar voor GPU's niet, en daarom is AMD imo beter dan nvidia.

En dan zijn we nog niet eens aangekomen bij het linux driver verhaal :)

Fun fact: ik draai een virtual machine met pci-passtrough, zodat ik in een Windows VM kan gamen met vrijwel geen performance loss. De nvidia drivers detecten deze VM aan de hand van de virtualizatieextensies (hyper-v bijvoorbeeld) en gaan dan expres bluescreenen omdat nvidia wil dat je een Quadro kaart koopt als je met VM's werkt. Dit doet AMD niet, sterker nog, er is confirmed dat zij niets aan dit soort usecases gaan doen omdat ze er niets beter van worden ons hiermee lastig te vallen.
De gemiddelde consument wil helemaal niet meer power. Een budget PC is voor de gemiddelde consument vandaag al krachtig genoeg. Daar kan hij mee surfen, bureauwerk doen, mailen, eenvoudige online spelletjes spelen, foto's bekijken, ... en meer heeft de gemiddelde consument niet nodig.

Verwar de gemiddelde PC gebruiker (die vandaag meer en meer naar een tablet overschakeld) niet met een gemiddelde tweaker.
Maar dan zou een APU van AMD juist een succes moeten zijn. Een budget systeem met 4GB ram, 80GB SSD en een AMD A6-6400K zou krachtige genoeg moeten zijn qua CPU en GPU voor de gemiddelde consument.

Probleem van AMD is dat Intel jarenlang smerige deals heeft gehad om AMD buiten de deur te houden. Daarvoor hebben ze bij Intel boetes gehad, maar de winst was velen malen groter dan de boetes.
Ook heeft intel een veel betere naam gekregen onder de gemiddelde gebruiker. ''Die computer heeft een i7 dus die is razendsnel''. Bij AMD hebben ze geen idee wat het nou inhoud.. Ook worden intel's bijna altijd aangeraden door winkels zoals bijvoorbeeld de mediamarkt.
Voor dat soort gebruik heeft nvidia helemaal niets, voor die gebruikers is namelijk een geïntegreerde gpu van Intel of AMD al meer dan voldoende...
Voor de gebruikers die geen flash spelletjes spelen als farmville en dergelijke is een bay trail of AMD am1 platform al meer dan genoeg.

Hierboven werd gesteld dat Intel het verdient heeft aan kop te staan door de betere prestaties, maar vergeet niet dat ze meerdere keren op de vingers zijn getikt voor oneerlijke concurrentie...

Daar komt bij dat het am1 platform superieur is, of minstens gelijk aan bay trail en toch zie je ze niet terug in bijv de mm... Domweg omdat de gemiddelde consument alleen bekent is met Intel... Het is een kip-ei verhaal, de mm verkoopt het niet want mensen kopen liever een duurdere Intel omdat die naam bekend is, maar omdat AMD bijna nergens verkocht wordt krijgt het ook geen naamsbekendheid...
AMD kom ik vaak tegen in goedkopere laptops. Dan zie je staan 'quad core cpu' en die is dan van AMD. Ik vermoed dat dit strategisch is van AMD zelf. Oftewel de markt die intel niet kan opvullen zag AMD een gat. Mischien is het dus ook marktstrategie wat de tegenvallende cijfers oplevert voor AMD. En na dit artikel besef ik mij ook dat AMD zich ook in prosumer markt bezigt zoals servers.en ook daar lijken zij alleen meetevaren als goedkoper alternatief. Ik wil noet zeggen dat AMD slecht is hoor. Heb alleen maar hun processors gehad. Mijn huidige laptop heeft nu wel een i5. En moet zeggen intel valt nooit tegen uit ervaring. Alleen hun prijzen. Toch ben ik altijd pro AMD geweest. Nu ook pro i5..

[Reactie gewijzigd door SoundByte op 18 april 2015 16:03]

Ze willen wel degelijk meer power maar niet zo graag dat ze er 100/200/300 of meer extra aan uit willen geven.
De gemiddelde consument wil gewoon liever niet meer dan 500/600 uitgeven en daarmee dan op de eerste rang zitten.
Ze willen niet meer power, ze willen meer merknaam.
Stiekem vraag ik mij af in hoeverre jij (FreezeXJ) en Budgetguy gelijk hebben. Mijns inziens kiezen mensen met een bepaald budget :-) bij gelijke prijzen liever voor Intel dan voor AMD. Mogelijk heeft dit te maken met status.

Volgens http://nl.wikipedia.org/wiki/A-merk is Intel een A-merk en AMD maximiaal een B-merk: "Een A-merk wordt ook wel gedefinieerd als een merk met distributiespreiding van meer dan 75%, wat wil zeggen dat ze in zeker driekwart van de in aanmerking komende winkels in de branche verkrijgbaar zijn. Omdat er tevens op grote schaal reclame voor wordt gemaakt, zijn ze vrij bekend: ze beheersen zo'n 2/3 van de markt. Een A-merk straalt kwaliteit, status en zekerheid uit en heeft daardoor een hoge toegevoegde waarde."
Ik denk dat de meeste tweakers gaan voor de bang-4-buck en kijken welke CPU of GPU voor het budget dat ze er voor over hebben de meeste prestaties heeft. De gewone consument laat zich alles aanleunen en zal waarschijnlijk systemen waar de meeste marge op zit in hun maag gesplitst krijgen van de aardige verkopers..

Ik denk dat de meeste mensen net als mij voor A-merk marktsaturatie niet interessant vinden maar bij A-merk denken aan goede kwaliteit product, een rolls royce onder de producten als het ware. Maar misschien ben ik abuis.
Kon je 5 jaar geleden ook, en 10 jaar, 15, ....
ik ken genoeg gamers die blij zijn van hun HD 7950/7970...

ikzelf heb een 7950 (1st reeks op 800MHz) met een i7 (ook 1ste generatie). Heel blij. Daarnaast ook nog een HD 7870 op een i3 (1ste generatie). Meeste leuke huidige games lopen echt goed, met veel visual candy.

Nu tuurlijk voor een 4K scherm heb je meer rekenkracht nodig... maar wie heeft er al een 4K of multi-display FullHD setup?

Power is meestal niet relevant in die omstandiheden. Een R9-290X is zeker goed genoeg.

Het is spijtig dat Games zo goed draaien op Intel CPUs. Compiler maakt wat uit (niet zoveel), performance singlethreaded maakt uit (en daar is AMD niet zo goed bezig -- misschien met Mantle/DX12 komt er wat beterschap).


Nu voor de niet-gamers. Daar is zuinigheid eigenlijk wel van belang. En daar is een Nvidia kaart soms beter, maar vooral een recente Intel CPU (met onboard graphics) eigenlijk een goeie keuze. Ook zeker in kleine form-factoren.

Dus ja... tijd voor AMD om eens een super product aan te bieden, maar ik zou niet weten hoe ze dat gaan doen. Nog op process, nog op R&D afdeling kunnen ze rekenen.

AMD is ook slachtoffer van een kleinere markt (x86 daalt). Weinig vernieuwing op gebied van process voor GPUs (al jaren 28nm).
De geesteskinderen van Jim Keller staan eind 2015 begin 2016 voor de deur onder de noemers ZEN en K12. Al dan niet gecombineerd met ARM technieken kan dit weer een kantelmoment worden.

Jim Keller is dezelfde ontwerper bij AMD die in 2004 de A64 => P4 Killer chips ontwierp die Intel direct op achterstand zetten. Door de hierboven omschreven omkoop schandalen van Intel werden deze revolutionaire chips van AMD nauwelijks verkocht. OEM's zouden dan boetes krijgen van Intel. Nu zijn er naast de EU/VS boetes die Intel betaalde ook afspraken tussen AMD en Intel dat Intel AMD niet meer via illegale omkopingen dwars zal zitten.

Intel koopt OEM's nu direct om door te betalen voor afname van hun producten maar diezelfde OEM's hebben nu wel keuze vrijheid in merk en type cpu dat ze willen gebruiken.
Op zijn minst is dat een lichte verbetering in de CPU markt...... :F
Ik denk dat dit strategisch is. Zolang AMD gebruikers tight-budgetgebruikers zijn. Zoals ik. En niet gauw (if ever) 3x meer doh willen shellen. Zal AMD (vermoed ik) eerder langs intel lopen met een kleine afstand. Tot de budgetgebruikers opeens allemaal de lottopot winnen. Pas dan zal AMD blingpower laten zoen. Het gaat er bijmij niet in dat AMD notabene na decennia concurentie, intel niet kan evenaren kwa tech. Ze willen gewoon meer geld zien voor iets intel-vergelijkbaars. En zolang budgetgebruikers zoals ik niet meer kunnen betalen..

[Reactie gewijzigd door SoundByte op 18 april 2015 16:12]

Compiler maakt wat uit (niet zoveel),
Ja dat zou je denken. Maar dat is alleen waar als je wegblijft bij Intels compiler, iets wat veel (game)studios niet doen, en sommige benchmarks ook niet. En dan begint het geëtter. Wat als benchmarks die je gebruikt om cpu's te vergelijken, al onderscheid in cpu's maken?

http://www.agner.org/optimize/blog/read.php?i=49
"However, the Intel CPU dispatcher does not only check which instruction set is supported by the CPU, it also checks the vendor ID string. If the vendor string says "GenuineIntel" then it uses the optimal code path. If the CPU is not from Intel then, in most cases, it will run the slowest possible version of the code, even if the CPU is fully compatible with a better version."

Als je software gecompileerd met de Intel compiler draait op een AMD cpu, is de software bewust gemanipuleerd door de Intel compiler om extra traag te draaien op de AMD cpu.
Even verder lezen en je leert dat de rechtszaken gestart in 2005, geëindigd in 2009 ervoor heeft gezorgd dat ze dat niet meer doen... soort van. Ze zoeken niet langer AMD en VIA cpu's uit om extra traag te draaien, de extra goede optimalisatie en extra instructies worden nu alleen uitgevoerd op Intel cpu's omdat ze nu alleen kijken of er een Intel cpu draait ipv kijken of er AMD of VIA draait. Subtiel verschil, maar dat is alles wat ze nodig hebben om van saboteurs naar nauwkeurig werkende ingenieurs te gaan.
terecht. Ik wou maar duiden in een richting, en niet de volledige heisa opnieuw starten :)

CPU's vergelijken is niet zo simpel. Gaat het om de snelheid van een bepaalde algorithm (kan dus verschillende Assembly zijn)? Of eerder om het doorlopen van een bepaalde set Assembly instructies? Daarbij komt vaak dat de grootte van een executable (of toch de grootte van de core) van belang is (past het net wel of net niet in de cache)... Hangt ook af ou de cache structuur en snelheden zijn. Ook hoelang de pipeline is, en hoe goed de "out of order" functie werkt. Allemaal vrij afhankelijk van de applicatie.

En natuurlijk is de rol van de Compiler (en zijn instellingen) hier fundamenteel.
Sinds de 9 series van nvidia zijn ze qua zuinigheid vooruitgegaan. Sinds DSR kun je nu 4k op een full hd creeëren zonder veel poespas.
Mijn gedachtengang was eerst zo, maar heb toch een 980 om voorbereid te zijn voor de toekomst en extra muscles voor dx12 en frames op 4k.
Vergelijk dr prijs van een r9 290 met die van en 970 en je krijgt meer fps voor je geld. En onder de 970 is het eigenlijk allemaal amd die de meeste power voor je geld geeft.
http://www.trustedreviews...-amd-radeon-r9-290_Page-5

Daar staat toch wat anders, hoe betrouwbaar deze site is kan ik niet beoordelen...
ik kijk puur naar benchmarks en wat de prijs hier in Nederland is. momenteel schiet de prijs van AMD omhoog ten opzichten van nVidia. maar zo was een paar dagen geleden de r9 290 van club 3d in de pricewatch voor 23x euro. en dan is een 100 euro goedkoper dan de 970. maar momenteel is de goedkoopste weer 280 ofzo..
Nou ik zie mezelf als gemiddelde gebruiker maar ik zoek zeker niet meer power, eerder energiezuinig.

Ik heb nog twee slurpers thuis die uiteindeljk vervangen moeten worden door energiezuinige producten.

iMac en beamer.
Liefst een ARM of Pentium M iMac en een LED fullhd beamer.
De power consumption is zoals ik al zei wel een stuk hoger bij AMD...
http://www.anandtech.com/...x-970-review-feat-evga/15
Ben benieuwd wat er gebeurt als amd op de fles gaat. Intel heeft nu al praktisch een monopolie op x86 processoren, dan is er helemaal geen andere keus meer.
De instructieset is steeds minder relevant, voor telefoons, tablets en servers maakt het al niks uit (Android, OS X, Windows en Linux ondersteunen allemaal meerdere instructiesets), de opkomt van ARM Chromebooks zorgt ook al voor aardig wat concurrentie in de laptopmarkt, en het desktop segment wordt steeds kleiner.

De grootste concurrent van Intel is de combinatie van Qualcomm en TSMC - vergelijkbare grootte, vergelijkbare R&D budgetten, en ze zijn beide bezig met een aanval op elkaars "thuismarkt" - Intel richting telefoons en (Android) tablets, en Qualcomm richting automotive, embedded en tablets/convertibles. Parallel hieraan begint TSMC, gesteund door de enorme omzetten van het legertje fabless chipdesigners langzaamaan hun achterstand op Intel qua fabbing technologie in te lopen.

[Reactie gewijzigd door Dreamvoid op 17 april 2015 14:31]

Hij blijft net zo relevant als de afgelopen 10 jaar: als je ergens windows op wilt draaien, heb je x86 nodig. En dat is voor een groot deel voor legacy-support: als je een windows-programma hebt wil je dat het gewoon kan draaien, ook al is het 10 jaar oud. Macintosh had een vergelijkbaar probleem bij de overstap naar x86. Voor je telefoon, het navigatiesysteem in je auto, de injectiecomputer van je auto, en de software van je klokthermostaat is het net zo relevant als 10 jaar geleden: niet.

Ik kan me van vroeger de voorspelling ook nog wel herinneren dat x86 uit zou sterven: het is op zichzelf minder efficient dan pak-em-beet ARM (wat dus in 95% van de telefoons zit), dus er zal wel concurrentie komen. Dat heeft langer geduurd dan verwacht.
Probleem met die laatste stelling is dat die niet waar is - x86 is *in de praktijk* geen meer of minder efficiente instructieset dan ARM, en zolang Intel voorop blijft lopen in fabbing en chipdesign zal x86 ook competitief blijven, maar die voorsprong kalft langzaam af - ARM is inmiddels 64-bit geworden (ok, vijftien jaar na x86, maar toch) en nu miljardenbedrijven als Apple en Qualcomm zwaar investeren in nieuwe chipdesigns en het niet enkel afhangt van het kleine bedrijfje ARM Holdings zelf, gaat het steeds harder.

Er is geen harde reden waarom x86 gedoemd is tot succes, of tot mislukking, zolang bedrijven er maar aan blijven werken. MIPS, schitterende architectuur, maar er wordt nauwelijks in geinvesteerd dus zijn er nauwelijks goede chips mee. SPARC, Sun stopte vanwege geldgebrek vrijwel geheel met de ontwikkeling en de arch leek ten dode opgeschreven - Oracle nam de boel over, pompte er veel geld in en voila, drie jaar later zijn ze weer terug aan de top.

Als er 1 ijzeren wet is in de techniek is het wel dat met voldoende geld en developers je vrijwel alle bottlenecks en designproblemen kan oplossen of omzeilen. Niemand had kunnen bedenken dat de ARM instructieset uit 1983 voor desktop chips inmiddels in miljarden mobiele telefoons gebruikt zou worden, dat een hobbyproject van een vrolijke Fin met een rare monolitische kernel inmiddels door miljardenbedrijven geadopteerd is en in vrijwel alle webservers draait, of dat het door ene meneer Porsche ontworpen pruttelend Duits gezinsautootje uit de jaren dertig, tachtig jaar later geevolueerd is tot de populairste sportwagen voor de rijken der aarde.

[Reactie gewijzigd door Dreamvoid op 17 april 2015 15:35]

Ik geef je voor een groot deel gelijk, maar in x86 zitten nogal wat bottlenecks die je moet omzeilen. Dat is kennelijk zo ontzettend moeilijk is dat er (bij mijn weten) geen telefoon met Pentium wordt verkocht, ondanks de gigantische investeringen van Intel.
Ze zijn er wel, ik heb een telefoon met Intel chip (niet omdat ik Intel zo geweldig vind overigens, maar omdat het de enige mid/high-end toestellen zijn met dualsim), en ben er erg tevreden mee :)

Maar x86 is idd nog niet super succesvol in mobile, andersom is ARM na ruim dertig jaar ook niet succesvol op de desktop/laptop - in beide gevallen komt dat deels doordat er jarenlang weinig pogingen gedaan zijn in die richtingen, deels doordat het inbreken in een bestaande markt met een nieuwe architectuur niet makkelijk is, en (in het geval van telefoonchips) Qualcomm met een aantal voor Intel heel vervelende 3G/4G patenten zit waardoor ze zich vooral richten op tablets (zonder 3G/4G) en telefoons voor 3e wereldlanden waar de patenten niet gelden.
Een intel-processor geloof ik direct, maar gebaseerd op x86 niet. Welke is dat?
Dat is ongetwijfeld een Atom chip, en die zijn gewoon x86 hoor. Bv de Asus Zenfone 2 heeft een Atom Z2560 processor, er zijn er ook van andere vendors (maar inderdaad nog erg weinig van de echt grote namen voor mobile phones).

Oveigens geloof ik niet dat intel veel CPU's maakt die niet op de x86 architectuur gebaseerd zijn :-). De enige waar ik zo op kan komen is de Itanium maar die is op sterven na dood.

<edit: grammatica>

[Reactie gewijzigd door murtoz op 17 april 2015 17:24]

een redelijk groot deel van de android apps is tegenwoordig ook gecompiled voor x86, en het deel dat niet gecompileert is voor x86 draait in een soort arm-compatibiliteitsmodus
x86 is wel minder efficiënt dan ARM, maar de inefficiëntie is relatief constant. Een x86 verbruikt meer energie, verzet wat minder werk per instructie, maar dat nadeel neemt niet toe in de tijd. De x86-instructieset is wel makkelijk uitbreidbaar waardoor hij zich aan nieuwe ontwikkelingen kan aanpassen.

De combinatie dat het nadeel niet toeneemt in de tijd en de uitbreidbaarheid verklaren het eindeloze succes van x86. Intel kan vanwege zijn volumes zeer hoge budgetten investeren in fabricagetechnieken en loopt verkleinen van chips volgens de Wet van Moore altijd vooraan. Een chipverkleining wint het van een constant nadeel: x86-chips zijn toch snel en zuinig vergeleken met andere architecturen en dat is de reden dat niemand x86 van de troon heeft kunnen stoten.

Alleen in de mobiele wereld liep het anders.

[Reactie gewijzigd door dmantione op 18 april 2015 10:56]

x86 minder efficiënt? Ik dacht juist dat het andersom was...
Wat ik altijd heb begrepen is dat de filosofie bij beide instructiesets voornamelijk het verschil maakte. x86 is ontworpen om zo modulair en algemeen mogelijk te zijn, hierdoor zijn hoge prestaties per clocktick mogelijk, maar door de complexiteit is het lastiger om heel energiezuinig te krijgen.
ARM is ontworpen met het idee vooral energie zuinig te zijn, deels wordt dit behaald door een (veel) kleinere instructieset waardoor de rekenkernen minder complex hoeven zijn met als gevolg dat deze goedkoper te produceren zijn en energie zuiniger zijn dan x86.

Langzaam maar zeker zie je door procesverkleiningen en verbeteringen in architectuur dat ARM en x86 steeds dichter naar elkaar toegroeien. x86 wordt steeds zuiniger en ARM krijgt steeds meer instructies.

Daarnaast is de cpu instructieset niet de beperkende factor voor consumenten elektronica. Zeker met linux is het goed mogelijk programma's te compilen voor zowel x86 als ARM. Het grootste probleem tot nu toe is eerder dat er tot op heden (bijna) geen enkele ARM soc overweg kan met openGL, alleen met openGL ES. Aan de andere kant kunnen de meeste programma's en linux distributies alleen overweg met openGL en niet met openGL ES. Hierdoor is het nog lastig een full blown linux distributie te gebruiken in combinatie met een ARM soc. Niet vanwege de ARM instructieset maar veelal vanwege het feit dat de gui vaak (sterk) afhankelijk is van Xorg, en laat die nu net niet overweg kunnen met openGL ES.
De x86 heeft relatief krachtige instructies, maar ARM is toch echt de koning op dit gebied. Een klassieker om de kracht van ARM-assemblerinstructies te illustreren is een functie om de grootste gemene deler te berekenen. In Pascal noteert dat als:

function gcd(a,b:integer):integer;
begin
....while a<>b do
.........if a>b then
.............a:=a-b
........else
............b:=b-a;
....gcd:=a;
end;

In ARM-assembler leidt dit tot het verbluffend korte:

gcd:
....CMP r0, r1
....SUBGT r0, r0, r1
....SUBLE r1, r1, r0
....BNE gcd

Omdat de instructies een doelregister hebben worden mov's uitgespaard en omdat iedere instructie vervoorwaardelijk kan zijn heb je geen braches nodig (dus ook gelijk minder behoefte aan energieverslindende branchvoorspelling in de processor).

Maar dit korte voorbeeld illustreert slechts een deel: In iedere instructie kun je bijvoorbeeld ook gebruik maken van een barrelshifter, waarmee je in andere situaties weer veel werk mee kunt verzetten.

Verwar ARM niet met andere RISC-instructiesets. Bijvoorbeeld die MIPS is heel minimalistisch, waardoor per instructie extreem weinig werk verzet wordt. De filosofie van de ARM is precies andersom: Veel werk per instructie verzetten, waardoor je weinig megahertzen nodig hebt en de processor lekker veel kan slapen. Dat is het geheim achter het lage verbruik.

[Reactie gewijzigd door dmantione op 18 april 2015 14:56]

Ik ben even verder gaan lezen en je hebt inderdaad gelijk. ARM richt zich meer op het optimaliseren van instructies per clocktick. Daarentegen wel met een beperktere instructieset dan x86...
Het verschil is dan ook meer: ARM -> kleinere instructieset maar zo efficient mogelijk tegenover x86 grote en modulaire instructieset ten koste van efficientie per clocktick.

Uit eindelijk maakt het voor mijn verhaal niet heel veel uit.
ARM en x86 kruipen steeds meer naar elkaar toe.
ARM krijgt er steeds meer instructies bij en x86 krijgt door middel van bijvoorbeeld SSE(1-4) steeds meer gespecialiseerde instructies erbij voor optimalisatie.

Feit blijft dat het grootste euvel op dit moment tussen ARM en x86 voor de eindgebruiker niet zozeer bij de cpu instructieset ligt, maar bij die van de gpu.
Samsung zal er bovenop springen wanneer AMD gaat wankelen
Heb je een bewijs voor die stelling?

Ik hoop van harte dat AMD het blijft redden, maar ik geloof niet dat Samsung er zo maar in springt

Een commercieel bedrijf kijkt gewoon naar wat er financieel haalbaar is
Hoezo bewijs, ik denk dat je het niet goed begrijpt. Ik zei, wanneer AMD wankelt en dat doen ze nog lang niet volgens mij
Define wankelen. Financieel gaat het beroerd, en al jaren, vooral dankzij de fikse schulden, en het nu achterstallige onderzoekswerk. Concurrent Intel heeft een R&D-budget ter waarde van AMDs omzet, daar is niet tegenaan te werken. NVidia houden ze technisch prima bij, maar daarmee redden ze de CPU-tak niet. Hun uitstapjes zijn beperkt, SeaMicro is niks geworden, en hun APUs zijn prima oplossingen voor mensen die ze niet kennen.

Marketing snappen ze er helaas niet, want meestal laten ze zich door anderen vertellen wat er belangrijk is. Zuinigheid? In plaats van te zeggen dat load power niet belangrijk is, iedereen het anders meet, en ze het zo brak niet doen, zeggen ze... niks. Floating point? Tja ehhh... gaan we niet uitleggen, is te moeilijk. Hun low-power-segment komt amper van de grond, wordt in cheapo craptops gestopt die zo budget zijn dat zelfs je oma er niks mee kan, en dat laten ze zo, want... geen budget vermoedelijk. Intel heeft de ultrabooks verzonnen, en daar keiharde eisen aan gesteld. Dat werkt, want een i<nummertje> wordt nu als goeie CPU gezien, zelfs al is het een trage ouwe i3. Allemaal gemiste kansen, die ze echt aan zichzelf te wijten hebben. Ik ben helemaal voor AMD, maar qua management is het een rotzooi.
Hun uitstapjes zijn beperkt, SeaMicro is niks geworden, en hun APUs zijn prima oplossingen voor mensen die ze niet kennen.
Hun APU's zijn prima oplossingen voor de meeste mensen die geen maximale performance nodig hebben. Dara is de perfomance meer dan voldoende voor, en ze zijn een stuk goedkoper dan hun Intel tegenhangers.
Marketing snappen ze er helaas niet, want meestal laten ze zich door anderen vertellen wat er belangrijk is. Zuinigheid? In plaats van te zeggen dat load power niet belangrijk is, iedereen het anders meet, en ze het zo brak niet doen, zeggen ze... niks. Floating point? Tja ehhh... gaan we niet uitleggen, is te moeilijk. Hun low-power-segment komt amper van de grond, wordt in cheapo craptops gestopt die zo budget zijn dat zelfs je oma er niks mee kan, en dat laten ze zo, want... geen budget vermoedelijk.
In dit segment gaat het helemaal niet over marketing. De meeste mensen kopen een PC, ongeacht de CPU. De PC bouwer heeft al gekozen welke CPU in de PC moet zitten.
Zoals ik al zei voor de meeste mensen zijn de AMD APU's of Intel i3 voldoende.
Intel heeft de ultrabooks verzonnen, en daar keiharde eisen aan gesteld.
Intel heeft de ultrabook helemaal niet verzonnen, dat is een idee van Apple. het is een Macbook Air kopie.
In dit segment gaat het helemaal niet over marketing. De meeste mensen kopen een PC, ongeacht de CPU. De PC bouwer heeft al gekozen welke CPU in de PC moet zitten.
Zoals ik al zei voor de meeste mensen zijn de AMD APU's of Intel i3 voldoende.
en daar ga jij dus de mist in.
de meeste mensen denken wouw een i7 die moet snel zijn die kijken naar het hoogste cijfer en denken dat heb ik nodig.
AMD staat niet echt bekend onder de gewone klant en dat een apu/i3 genoeg is weet de klant niet
Intel heeft de ultrabooks verzonnen, en daar keiharde eisen aan gesteld. Dat werkt, want een i<nummertje> wordt nu als goeie CPU gezien, zelfs al is het een trage ouwe i3.
dunne laptop = ultrabook (als het een intel processor heeft, want amd telt natuurlijk niet) = een nieuwe uitvinding :+
De insstructieset is dan misschien niet zo relevant maar qua prijs/performance heeft Intel op desktop, laptop en server echt weinig concurrentie.
Veel Windows applicaties & games draaien nog steeds alleen op x86..
De concepten voor high density ARM servers staat nog in de kinderschoenen, consoles zijn juist terug naar x86 en zowel Chromebooks en Android devices zijn niet meer dan hun naam doet vermoeden; Chromebooks en Android devices.

Ook ik ben enthusiast over AMD ARM nodes maar we zijn nog lang niet op het punt dat X86 en minder relevant in één zin kunnen.
Ik hoop van harte dat we daar nooit achter komen! :o
Dat hoop ik ook, en voor zover ik me kan herinneren draait AMD al 10 tallen jaren verlies. Al is 38% minder omzet wel heel veel. Ik hoop dat ze het redden.
Nou ja, het houd toch een keer echt op. In het artikel staat dat er weer een reorganisatie aan komt voor AMD. Ik wist niet dat dit nog mogelijk was...
Wat willen ze doen? De R&D afdeling weg reorganiseren? Op een gegeven moment moet je gewoon de handdoek in de ring gooien en voor je zelf toegeven dat je bedrijf zo uitgekleed is dat er geen redden meer aan is..
Beter nu de onderdelen verkopen nu het nog wat waard is dan nog een paar jaar wachten en door het afvoerputje gespoeld worden...
Ik heb echt jaren gehoopt dat ze het zouden redden en heb heel vaak voor AMD processors gekozen, maar dit gaat nu echt niet goed meer komen...
Als AMD failliet haat betalen wij morgen 5999 euro voor een consumenten cpu en 5999 voor een gpu. Dus nee liever niet
GPU divisie van AMD (voormalig ATi) is volgens mij wel winstgevend, dus als het echt slecht zal gaan wordt de GPU divisie weer een apart bedrijf. Het is namelijk onzin om een winstgevend deel van je bedrijf te sluiten als het ook prima zelfstandig kan voortbestaan.
Ja tuurlijk. Maar wat mij betreft hoeft AMD niet eens met Intel mee te komen. Ik denk dat AMD gewoon zelf een markt moeten gaan creëren.
Waar dan? Low-power speelt ARM, high-performance speelt Intel, en Oracle, en APU hadden (en hebben) ze maar krijgen ze niet uitgelegd. Aldus pakken mensen een i3, en is de kous af. Ze krijgen hun technisch uitstekende spullen niet verkocht.
Check verleden maar eens rechtszaak en dergelijke.

Intel wordt zoveel verkocht omdat t allemaal vreemde dealtjes heeft. AMD introduceerde temash vorig jaar en dat was echt prachtig apu voor low end pc en tablets. Werkte als een speer maar nergens in te vinden.
Winstmaximalisatie van een monopolist leidt zeer zeker niet tot zulke idioot hoge prijzen. Bij zulke prijzen is de vraag van de consument voor het product veel te laag, waardoor er erg weinig verkocht wordt, en de winst veel lager is dan wanneer de monopolist een meer redelijke prijs had gevraagd.
Nee dat is niet waar. Het is gewoon een feit dat als er 1 speler van de markt zou verdwijnen dat de prijzen in fors tempo stijgen. Omdat ze het kunnen
Helemaal mee eens, maar denk je dat AMD nog wat kan betekenen na de aankomende reorganisatie dan? Ze kunnen het nu al bij lange na niet meer bijbenen, de enige reden waarom je nu voor AMD kiest is de aanschafprijs... Maar goed, stiekem hoop ik ook dat ze het redden hoor :)
Ik heb best wel veel vertrouwen in Zen eerlijk gezegd.

Enige waar ik wel weer bang voor ben is dat je zometeen met een 16core CPU zit die net zo snel is als een Intel Quadcore. Maatja we zullen zien.

[Reactie gewijzigd door Vegettokai op 17 april 2015 15:59]

Ik heb eigenlijk weinig vertrouwen in Zen.. Waarom? Omdat ze het de voorgaande keren ook verschikkelijk hebben verkloot..
Fijn dat ze met iets nieuws komen, maar zorg er maar als AMD er eerst voor dat deze processors het veel beter gaan doen, dan hoeven ze niet perse meteen sneller te zijn dan Intel, want dat gaat ze verlopig toch niet lukken.. Maar een erg goede prijsstelling en goed zuinige processor zal ik zelf al erg blij mee zijn.. Tegen de snelheid van een haswell architechtuur..

Zoals al eerder gezegd ben ik het er totaal mee eens, dat de management bij AMD zwaar bagger is.. En ik vind het niet vreemd dat men in nog zwaarder weer zitten. Hoe lang hebben we niet gewacht voordat ze met een fatsoenlijk processor op de markt komen.. Vanaf Phenom II was het eigenlijk niet zo heel intressant meer.. Ik vind dat ze niet nog eens moeten valen.. Nieuwere produkten moeten sneller op de markt komen.. Ik zie de laatste tijd dat ze alleen tijd door schuiven of afstellen.. Maar daar bereik je geen nieuwe inkomsten mee..

[Reactie gewijzigd door Robin4 op 18 april 2015 03:19]

Misschien gaan ze 3Dfx achterna en installeren ze 16 cores ofzo op de nieuwe CPU :p
x86 wordt steeds minder belangrijk: steeds meer werk en ontspanning wordt op telefoons en tablets gedaan. En daar zit maar zelden een x86 in.
Het zou wel zonde zijn, maar Intel heeft het grotendeels echt verdiend door beter te worden. Vroeger was AMD vaak een stuk beter qua prijs-prestatie, maar sinds de Pentium-M is dat voor laptops niet meer het geval. Ik weet niet meer wanneer Intel het ook voor desktops gewonnen heeft, dat zal ook ergens rond die tijd zijn geweest. En zoek nu eens bij de Mediamarkt o.i.d. naar een AMD computer, sterkte! Op de website staan er maar een paar*...

*) er staan 14 AMD-, en 7 NVidea-laptops van 165 totaal. Desktops een stuk of 9 (als de search het doet) van de 175. En ik heb geen zin om naar de winkel te rennen om te checken of er iets van AMD op voorraad is, ik denk alleen de 2 bestverkochte desktops :P

[Reactie gewijzigd door MBV op 17 april 2015 14:52]

Dan moet je iets beter kijken, er staan wel degelijk desktops met AMD processor op de MM site. Je kan deze alleen niet selecteren aan de linkerzijde om op te filteren ;)

Simpel voorbeeldje is de HP 110-306ND die is uitgerust met een AMD A6-5200 die bij mij op de MM site bovenaan in de resultaten staat zodra ik naar Desktops navigeer.
Ik ging ervan uit dat alle processortypes individueel aan de linkerkant worden getoond (waarom anders AMD A4, A8 en A10 apart neerzetten bij de laptops?), dus over het hoofd gezien dat de eerste PC met AMD processor wordt geleverd 8)7
Ik moet toegeven dat ik het ook puur toevallig zag :)
Gezien de huidige banden met MS en Sony (consoles) lijkt me dat dat niet zo snel gaat gebeuren.
Voor videokaarten is het ook logisch, de laatste kaarten zijn in vergelijking met de Nvidea kaarten oud (oftwel omzet daalt omdat de gemiddelde prijs van de kaarten ook daalt).

Helaas zijn consumenten goederen tegenwoordig al goed genoeg om een kleine server te bouwen voor consumenten terwijl voor bedrijven server huur gemakkelijker is dan een eigen kleine server in onderhoud plaatsen.

Helaas voor AMD, ik hoop voor ze dat de nieuwe GPUs toch echt het tij kan keren want een monopolie op twee markten (Intel CPU, Nvidea GPU) is iets waar niemand op zit te wachten want ik heb zelf het idee dat het met AMD niet heel geweldig gaat.
Van een monopolie op GPU's van nVidia is nog lang geen sprake, het marktaandeel van beide is vrijwel gelijk.
Als we deze cijfers mogen geloven, heeft Nvidia een vele malen hogere marketshare. Tel daar bij op dat Nvidia bakken met geld verdient met haar Tesla lijn. AMD heeft geen inkomstenbron die daar ook maar bij in de buurt komt.

Ik hoop nog steeds op een overname van AMD door een bedrijf met genoeg liquiditeit zoals Samsung, zodat er eindelijk wat meer geld naar R&D gaat.

[Reactie gewijzigd door ColinZ op 17 april 2015 15:33]

Losse gpu's ja, maar bv console chips (waar AMD bijna 100% marktaandeel heeft) zijn feitelijk ook niet veel meer dan gpu's met een minuscuul cpu gedeelte erbij geplakt. Elk van de twee is sterk op bepaalde gebieden, maar beide bedrijven draaien een vergelijkbare omzet, en voor beide geldt dat nagenoeg al hun verkopen op hun GPU technologie gebaseerd zijn.

Dat nVidia financieel veel beter presteert staat overigens absoluut niet ter discussie, en dat is naar de toekomst toe voor AMD een groot gevaar - heeft AMD bv nog voldoende R&D budget om de volgende generatie console chips te ontwerpen en daarin competitief te zijn tov nVidia?

[Reactie gewijzigd door Dreamvoid op 17 april 2015 15:44]

Nouja als we iGPU's er ook bij gaan pakken, dan is het Intel die de grootste marketshare heeft.

Het meest zorgelijk aan AMD is het gebrek aan toekomstvisie, Wat willen ze nou eigenlijk? Alleen in de console markt hebben ze een absolute monopolie. In de andere markten waar ze aanwezig zijn, zijn ze op hun best een underdog.

Verder was de aankoop van SeaMicro was juist een poging om hun portfolio van meer diversiteit te voorzien in het door Intel gedomineerde server landschap.
AMD heeft welliswaar in alle consoles een chip zitten, ze fabriceren die chips niet zelf (AMD is immers fabless sinds ze GloFo hebben afgesplitst), ze zullen dus hooguit design royalties/fees krijgen per unit, op de productie maken ze geen winst.
misschien geen monopolie, maar nvidia heeft wel een veel groter marktaandeel.
Hangt ervanaf hoe nauw je de "markt" definieert - nVidia verkoopt per kwartaal voor zo'n $1.2 miljard dollar aan chips, AMD voor $1 miljard.

nVidia verkoopt meer losse gpu's en tablet SoCs (incl gpu) dan AMD, AMD veel meer console chips en laptop chips (incl gpu) dan nVidia, maar de twee bedrijven zitten in totaliteit niet zo ver van elkaar af.

En voor beide blijkt het bijzonder moeilijk om vanuit hun gpu-niche naar het segment van geintegreerde cpu/gpu chips te uit te breiden, waar ze in het vaarwater van giganten als Qualcomm en Intel komen. nVidia maakt weliswaar itt AMD een bescheiden winst, maar erg veel groei zit er niet in hun verkopen.

[Reactie gewijzigd door Dreamvoid op 17 april 2015 14:48]

Ik denk dat AMD gewoon echt een Knaller APU nodig heeft.
Bang for buck. En dan niet dat halfzachte gedoe. Veel performance in een kleine ITX behuizing bijvoorbeeld.

Je zou voor ¤300 euro een systeem (zonder monitor etc) moeten kunnen maken die GTA 5 aan zou moeten kunnen met degelijke graphics en geen extra GPU.
Dat is het juist een knaller APU gaat niet. Je moet het nog in 1 die krijgen en koel kunnen houden.
Met die schrinks worden ze "vanzelf" kleiner, zuiniger en minder heet.
of misschien dat ze met 2 pockets moeten komen voor ITX moederborden
Waar je een GPU en CPU pocket hebt. waar je je discrete graphics alsnog kunt upgraden zonder dat je een hele nieuwe kaart hoeft te kopen.
Minder heet en die shrink is niet perse iets wat samen gaat.

Als de transistors dichter op elkaar gedrukt worden, wat AMD doet met high density libraries, dan centreert de warmte zich juist steeds meer op een kleiner oppervlak.

De technologie om dit tegen te gaan staat nog relatief in de kinderschoenen.
Als je het hebt over HDL dan scoort Intel hoog, en die hebben er ook een uitstekende math kernel library bij, zodat je het op slimme trucjes niet wint, helaas. Brute kracht wordt em ook niet, Intel loopt een ruime process node voor, met dank aan wat gesmeerlap van een jaar of wat geleden. AMD heeft daar 1 miljard voor gekregen (en een einde aan het x86-geneuzel), en is daarmee genept. Echter hadden ze toen hard geld nodig (zoals altijd) dus snel geld was beter dan meer geld.

Meestal echter zijn die shrinks wel een manier om het totale vermogen omlaag te brengen (je hoeft er vaak ook minder voltage over je chip te zetten), maar het is geen 1:1-verhouding nee. Desondanks is de relatie er wel.
As for warmte-afvoer: we komen van 140 W per CPU, als je nu een chip van 45 W koel moet houden is dat goed te doen, ook met HDL.
Tja, die shrinks. Nog zo'n terrein waarin Intel véél kortere lijnen heeft, voorloopt qua proces en alle productiecapaciteit zelf kan bepalen.

Dat gaat 'm dus niet worden. Het is niet alsof Intel geen APU kan maken. AMD ligt voor op Intel qua GPU, maar toch lukt het ze niet om op dat terrein te concurreren omdat de GPU voor low budget systemen helemaal niet belangrijk wordt gevonden, en een IGP is nog altijd niet krachtig genoeg voor écht serieuze gaming. Maar ondertussen merk je als gebruiker wél dat de CPU prestaties tegenvallen, en dat die van Intel beter zijn.

Dat werd overigens al vele malen gezegd door heel veel mensen; de markt voor APU is er gewoon nog niet. Leuk idee, theoretisch sterk, in de praktijk vrij waardeloos. Kijk nou naar de belabberde prestaties van de consoles. Al zeer snel na introductie blijken die dingen al voluit te moeten gaan, er zijn zelfs meer resources vrijgemaakt (X1) om de boel een beetje soepel te laten draaien, en de CPU kan het eigenlijk allemaal niet lekker bijbenen.

[Reactie gewijzigd door Vayra op 17 april 2015 14:51]

Ik zou best een killer APU kopen á 300-600¤ @ 250-400w als dat betekent dat ik geen grafische kaart meer hoef los te kopen. Dat zou wel betekenen dat ze dus een flink bredere geheugenbus nodig gaan hebben met flink sneller geheugen en een veel groter socket.

Maar ik sta er zeker wel voor open ;)

[Reactie gewijzigd door ECP0WERS op 17 april 2015 14:52]

Ik niet want de CPU & GPU markt ontwikkelen zich aan een verschillende snelheid. Op een bepaald moment zit je daar dus met een CPU die nog ruimschoots voldoet en een GPU die veel te traag is en vice versa.
En daar dan een mobiele (energiezuinige) variant van, dan zijn ze binnen.

Wij hebben misschien wel een desktop, maar de realiteit is, dat mobiele apparaten steeds meer de taken van performance-desktops overnemen.

Stel je voor, een tablet op laptop met het grafische vermogen van een high-end gaming desktop.
ja inderdaad, i.p.v nvidia tegra
een apu van amd zn r9 270x in klein formaat? dat zal zeker wel aanslaan.
Whaha ja eigenlijk precies zoals dat... :D

...maar dan misschien iets minder verbruik.

[Reactie gewijzigd door nexhil op 17 april 2015 14:52]

Daarvoor bestaat de ps4 8)7
Daarvoor bestaat de ps4 8)7
Nee Ik heb zelf een xbox one, en die voldoet aan al mijn eisen. Voor de rest heb ik een Macbook pro.

Er zijn mensen die perse 1 simpel systeem willen voor internet, films en gaming etc.
Ik zie jou niet zo snel office opstarten op je PS4.

8)7
Met de universal Office apps (Word, Powerpoint en Excel) die MS op het moment aan het testen is op Windows 10 zou het daarentegen in de toekomst wel degelijk kunnen op een XBox One. De vraag is of je het daadwerkelijk zou willen :P
Ik heb ergens ook het idee dat MS straks op een bepaalde manier office naar de ONE probeert te krijgen. Ik zou er niet heel vervelend tegenover staan.
Office 365 zou hier een goede oplossing voor zijn, altijd en letterlijk overal je bestanden kunnen bewerken. 8)7
Als je alleen gta v doet of andere games en verder niets ja
een soort xbmc(of hoe het tegenwoordig ook mag heten) + ps4/xbone maar dan met PC specs?
Zoiets als de nieuwe nVidia Shield Console bedoel je!
Dat ga je echt niet redden voor 300,-
Als dat zo was, was er nooit een console markt geweest.
Ik zelf heb een console voor de makkelijkheid.

Ik duw de disc erin (tegenwoordig een korte installatie) en gamen maar.
Als ik al die problemen zie van GTA 5 met vreemde karakters, langzame downloads, en 7 dvd's installeren dan weet ik weer waarom ik een console heb.

Misschien lever ik in op performance, maar ik win het in gemak.

Ben vroeger altijd een PC gamer geweest, maar nu ik 33 jaar ben heb ik gewoon geen zin/tijd in gedoe.

Om geen onzinnige flamewar te beginnen.
Ja ik weet dat er op de PC ook patches zijn en dat niet altijd alles gelijk goed gaat. Het gaat gewoon vaker wel goed. dit is mijn persoonlijke ervaring en mening.
Je levert in in beeldkwaliteit, kan nog wel 10 tegenargumenten verzinnen.
Dat voordeel van gemak is er niet echt meer met Steam e.d.
Plus daarbij op consoles zijn patches ook niet meer ondenkbaar.

[Reactie gewijzigd door Dutch_CroniC op 19 april 2015 16:42]

Jammer dat het zo slecht gaat, ben benieuwd welke bedrijven AMD gaan overnemen als het te lang slecht gaat.

Stiekem hoop ik op Samsung, van origine een hardwarebedrijf en daar zijn ze dan ook heel sterk in! Ze zitten al in het vak, alleen richten ze zich niet op de desktop markt met hun SoC's.

Ben benieuwd of het dan over een paar maanden nut heeft mijn R9 290's te verkopen voor de 300 serie, maar als het een rebrand is hou ik mijn geld mooi in mn zak.

[Reactie gewijzigd door watercoolertje op 17 april 2015 14:18]

Het liefst hoop ik dat amd niet failiet gaat ;)
Met Samsung er achter hebben ze anders weer geld, om daarmee weer wat te betekenen op de markt :) Ze hoeven niet failliet om overgenomen te worden, de waarde hoeft enkel omlaag!
Ze lopen dan tig jaar achter op ontwikkelingen, dat maak je niet 1-2-3 goed met een bak geld. Geld hebben ze ook wel, sinds ze door Abu Dhabi overgenomen zijn (die hebben GloFo gekocht en een leuk setje aandelen overgenomen). Echter levert dat nog geen betere prestaties, omdat je ruim 5-10 jaar aan het ontwikkelen bent voor je een goeie chip neerzet.
Maar samsung heeft toch al zijn eigen fabriek waar ze ook voor Apple zut maken?

Zou dan eerder gokken op MS, die al eerder de XBO heeft samengewerkt met AMD en nemen dan een sterkere stap richting Apple om alles volledig inhouse te gaan maken (nu ze ook al Nokia hebben).

Gezien die toch genoeg geld heeft, zal daar het probleem niet zitten.
Maar samsung heeft toch al zijn eigen fabriek waar ze ook voor Apple zut maken?
Samsung wil niet voor niks al samenwerken met GlobalFoundries enig idee hoeveel SoC's Samsung moet maken? Voor zichzelf, Apple en een handje vol Chineze telefoonmakers?
Ik weet niet of ik nog z'n verlies na 3dfx aankan :+

[Reactie gewijzigd door Bjorn89 op 17 april 2015 19:41]

Ach, de ondergang en/of overnames van S3, VIA, Matrox, ATi, Trident etc hebben we ook overleefd.

Hecht je niet teveel aan tech bedrijven, de helft van de bedrijven waar je nu produkten/diensten van gebruikt was er 10 jaar terug nog niet, en de helft van de bedrijven waar je 10 jaar terug dingen van kocht is er nu niet meer. :)

[Reactie gewijzigd door Dreamvoid op 17 april 2015 18:46]

Ik bedoelde het ook meer als grapje ;)

Ik moest voornamelijk denken aan de innovaties die 3dfx toendertijd al had(SLI etc). Helaas heeft het heel lang geduurd voordat deze technieken ook verder ontwikkeld werden door o.a Nvidia ;-).

Ik zou het jammer vinden dat dit gebeurd, de Athlons van AMD hebben een grote push gegeven aan Intel toendertijd, dat soort innovaties schud de competitie wakker en de consument zou er beter van moeten worden(een beetje zoals gezonde competitie bij een voetbalclub).

Als er 1 grote speler is, dan kunnen zij zelf de snelheid bepalen van ontwikkeling, of sommige ideeen worden pas jaren later weer tevoorschijn gehaald(niet uniek aan deze industrie hoor.
Ach, de ondergang en/of overnames van S3, VIA, Matrox, ATi, Trident etc hebben we ook overleefd.
Maar die stonken allemaal, 3DFX heeft het op de PC allemaal een beetje gestart, ookal was Glide proprietary :D.
MiniGL / Glide3D in Half-life 1 was king :p

Konden opengl/d3d niet tegen op \o/
We hebben altijd Tseng Labs of SiS nog :p

http://en.wikipedia.org/wiki/SiS_6326

http://en.wikipedia.org/wiki/Tseng_Labs

[Reactie gewijzigd door Marctraider op 18 april 2015 16:22]

Als AMD pas in de tweede helft van 2015 videokaarten gaat uitbrengen, dan moeten die dingen toch echt op 20nm of beter geproduceerd worden, er is dan al één jaar verstreken sinds Nvidia met Maxwell wel zo'n beetje het maximum uit 28nm heeft gehaald (en dan is er ook al bijna 2 jaar verstreken tussen de huidige R9 en R7 kaarten en de nieuwe). Ondertussen verkoopt AMD ook nog steeds de R9 280X, een ontwerp uit 2012. Ze kunnen op zijn minst nu toch een volledig unlocked Tonga (R9 285X?) uitbrengen die de GTX 960 kan wegblazen, als ze zich dan toch zo'n lange tijd niet meer richten op het top segment.
waar wil je dat de r9 285x dan komt.(prestatie en prijs wise). want de r9 285 zit tussen de r9 280 en r9 280x in. waarbij de r9 280x gelijk is geprijst aan de 960. alleen is de r9 280x iets meer toekomst vaster. en de prijs van de r9 290 zat er niet ver naast(de club 3d r9 290 voor bv 24x euro). dus heel er veel opschieten doen ze er niet mee. een tijdelijke r9 295 was leuk geweest. wat net even iets sneller dan een gtx 970 was leuk geweest.
De R9 285X gewoon als vervanger van de R9 280X, met 3GB VRAM, en evenveel GCN cores als de 280X. De prestaties gaan er niet echt op vooruit, maar het verbruik wel wat toch één van de grootste verkooppunten van Nvidia is momenteel. En dat betekent ook een sprong van GCN 1.0 naar GCN 1.2 met de bijhorende voordelen (Crossfire via PCIe, TrueAudio, betere geheugencompressie en dus kan het geheugen beter benut worden). AMD moet ondertussen stoppen met de verkoop van de voor hun te dure Tahiti GPU's, dus de R9 280 en 280X. Die zijn niet ontworpen voor dit prijspeil, Tonga is dat wel (=goedkoper om te maken) en ik begrijp dus niet waarom de uitrol daarvan zo lang moet duren.

Ik lees op veel plaatsen dat de Tahiti GPU's toekomstvaster zijn dan de GTX 960, maar dat vind ik toch teveel nadruk leggen op het geheugen en de geheugenbus, er is meer aan een videokaart dan dat. Akkoord een GTX 960 is te duur voor wat het is (hoewel die nu toch naar de ¤200 kruipt en dat toch een redelijke prijs is), maar ik vind dat van de R9 280(X) ook, je koopt toch nieuw geen kaarten uit 2012 meer, die koop je dan beter tweedehands, maar daar verdient AMD niets aan, dus het is in hun eigen belang om nieuwe producten te introduceren.

[Reactie gewijzigd door MacPoedel op 18 april 2015 10:31]

Klopt. Oude er uit en nieuwe er in die goedkoper te maken zijn en verkopen voor de zelfde prijs zal ze goed doen.
Ik dacht dat ze er naast nog moesten verkopen. Maar oude er uit nieuwe er in kan wel ja
XBO en PS4 maken beide gebruik van AMD cpu en gpu. Had verwacht dat ze daarmee goede cijfers zouden behalen
Dat zijn grote (=dure) chips die AMD voor een ontzettend scherpe prijs aan MS/Sony verkoopt - het houdt de verkoopcijfers redelijk op peil, maar veel wordt er niet op verdiend.

Om een idee te geven hoe weinig lucratief de consolechips zijn, de PS4 APU is tegen de 330 mm2 groot en ruim 4 miljard transistors, en AMD zal daar hooguit $100-150 voor vangen. Intel bakt ook ±330 mm2 chips met 4 miljard transistors, maar dat zijn Xeon E7v2's die ze verkopen voor $3000+ in servers. Nou zijn TSMC's 28nm wafers wellicht inmiddels wel wat goedkoper dan het 22nm proces van Intel en dat soort monster-serverchips kosten veel meer $$$ aan R&D, maar het is duidelijk dat het maken van consolechips geen vetpot is.

[Reactie gewijzigd door Dreamvoid op 17 april 2015 15:02]

Het is een kwestie van tijd voordat AMD Of failliet gaat of overgenomen wordt. Het wordt steeds minder relevant en wordt aan alle kanten ingehaald op het gebied van prestaties/verbruik.

Ik zie ook geen flinke verbeteringen de komende tijd. Ook op het gebied van telefoons/tablets hebben ze de boot volkomen gemist!
Er wordt een beetje een verkeerd beeld geschept. AMD deed al sinds 2012 bijna helemaal niets meer met de seamicro afdeling.

In het licht van terugvallende resultaten is het sluiten van deze slapende afdeling eerder een goed gevolg dan een oorzaak.

Desalniettemin hoef ik hier niemand niet te vertellen hoe jammer het zou zijn als deze trend bij AMD wordt voortgezet. De industrie en de markt zou een verlossende speler kwijtraken.

Ik hoop dat echt ze uit de put kunnen klimmen. AMD wist altijd het onderste uit de kan te halen onder ongelofelijke druk van de markt (en op meerdere fronten). Om dan nog maar te zwijgen over hun nobele, transparante underdog positie die ze de laatste jaren met opgeheven hoofd aanhielden.

Een markt is altijd onvergeeflijk en meedogenloos, maar zonder AMD zal deze nog meer vastgemetst zijn dan ooit...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True