Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 122 reacties

AMD heeft last van de dalende interesse in bitcoinmining en het bedrijf zag de verkoop van gpu's voor high-end kaarten in het afgelopen kwartaal flink terugvallen. De goede verkoop van chips voor de PlayStation 4 en de Xbox One wist verlies voor AMD niet te voorkomen.

AMD's afdeling Graphics and Visual Solutions haalde in het afgelopen kwartaal weliswaar een omzet die met 772 miljoen dollar, omgerekend 520 miljoen euro, 141 procent hoger lag dan na dezelfde periode vorig jaar, maar die groei is vrijwel volledig toe te schrijven aan de goede verkopen van socs voor de Sony PS4 en Microsofts Xbox One.

De omzet uit gpu's daalde namelijk zowel ten opzichte van het voorgaande kwartaal als ten opzichte van de driemaandelijkse periode vorig jaar. AMD wist wel meer gpu's bij laptopfabrikanten weg te zetten, maar de levering van gpu's voor high-end videokaarten daalde aanzienlijk. "We hadden al verwacht dat het minen van cryptovaluta af zou nemen, maar de daling was sterk door de problemen bij sommige exchanges", zegt AMD-ceo Rory Read hierover, "Door de sterke afname werd de markt voor tweedehandskaarten overspoeld." AMD verwacht mede hierdoor dat de situatie in het huidige kwartaal niet verbetert.

AMD verkocht ook minder desktopprocessors, maar meer apu's voor laptops. Daarnaast verdubbelde de omzet uit chips voor zogenoemde 'dense servers' voor hpc, datacenters en cloudcomputing in het eerste halfjaar. AMD ligt volgens Read op koers om de Opteron A1100-chip met codenaam Seattle in het vierde kwartaal van dit jaar te introduceren. Seattle is AMD's eerste op 64bit-arm-soc voor servers.

Het chipontwerpbedrijf blijft bij de doelstelling om 40 procent van zijn omzet uit semi-custom-chips zoals die voor gameconsoles te halen en volgens het bedrijf liggen er overeenkomsten met een of twee nieuwe grote klanten hiervoor in het verschiet. Uiteindelijk kwam het kwartaalverlies van AMD uit op 36 miljoen dollar, omgerekend 26,6 miljoen euro, op een omzet van 1,44 miljard dollar, oftewel 1 miljard euro.

Moderatie-faq Wijzig weergave

Reacties (122)

De titel van het artikel is volledig onjuist: miners gebruikten de laatste jaren al lang geen videokaarten meer voor Bitcoin mining. De videokaarten werden uitsluitend gebruikt voor "scrypt" mining dat helemaal los van Bitcoin staat en helemaal niets met Bitcoin mining te maken heeft. Bitcoin mining gaat met een ander algoritme waar videokaarten totaal niet geschikt voor zijn de laatste jaren (Bitcoin ASICs zijn hier al jaren 1000en malen beter en goedkoper in).

Doordat gespecialiseede scrypt mining ASICs ontwikkeld zijn die nu ook Scrypt kunnen minen is het minen met een videokaart ASIC niet meer kosten effectief (vooral door de hoge stroomkosten van een videokaart ASIC ten opzichte van een scrypt mining ASIC). Deze drastische overgang van scrypt minen met videokaarten videokaarten naar scrypt minen met gespecialiseerde scrypt mining ASICs heeft heel snel plaatsgevonden dit jaar ergens tussen April en nu. Dat is waar de plotselinge daling in verkoop van AMD kaarten misschien mee te maken heeft.

[Reactie gewijzigd door GeoBeo op 18 juli 2014 11:53]

AMD heeft last van de dalende interesse in bitcoinmining en het bedrijf zag de verkoop van gpu's voor high-endkaarten in het afgelopen kwartaal flink terugvallen.
Daar is niet zo zeer geen sprake van, er is wel sprake van minder interesse in mining met videokaarten!

Hier de grafiek van de toename ik rekenkracht:
http://bitcoin.sipa.be/

Afgelopen kwartaal heeft die grafiek juist een vogelvlucht genomen, hoewel het de afgelopen dagen inderdaad wat negatiever is...

[Reactie gewijzigd door watercoolertje op 18 juli 2014 10:43]

Ja maar scriptmining wordt voor zover ik weet nog steeds het meest gedaan op gpu's.
De hoogtij dagen van "bitcoin" waren er al asics en werd er voornamelijk litecoin gemined met gpu's. "Bitcoin" is nu gewoon het volkswoord geworden voor cryptovaluta, net als luxaflex voor jaloeziŽn.

Daarnaast heeft de "val" van MT.Gox ook voor flinke imagoschade gezorgd bij cryptovaluta...

Spijtig om te zien dat AMD maar verlies blijft maken, ondanks alle reorganisaties en koerswijzigingen om maar weer winst te kunnen gaan maken. Het was me ook al opgevallen hoeveel amd gpu's ineens aangeboden werden na het sluiten van MT.Gox. Het zal er wel toe leiden dat een hoop mensen een 2ehands kaart kopen (ik ben het zelf ook van plan) i.p.v. een nieuwe. Daar komt bij dat AMD waarschijnlijk ook nog wel te kampen krijgt met RMA aanvragen de komende tijd... Veel van die mining kaarten vallen nog onder garantie en als ze langere tijd zwaar belast zijn door mining is de uitval ook hoger dan als ze alleen voor gaming gebruikt zouden worden...
Al met al was het leuk voor AMD zoalang het duurde, maar ik vrees dat de nasleep duurder uit gaat pakken dan dat de korte winst periode ze heeft opgeleverd...

[Reactie gewijzigd door Spekkie88 op 18 juli 2014 11:25]

Daar heb je wel een goed punt, toch jammer dat een site als tweakers daar het verschil blijkbaar ook niet in ziet.
Tweakers chech je bronnen eens. Er wordt nog steeds volle bak btc en andere currencies gemined. Hier worden alleen ASICS voor gebruikt. Dit betekend niet dat de interesse in minen daalt
misschien een domme vraag maar waarom zou je een gpu willen gebruiken voor bitcoinmining??? het lijkt mij dat er veel snellere CPU's zijn.
Niet dus. Een GPU heeft veel meer rekenkracht dan een CPU. Het nadeel van de GPU is alleen dat het heel veel relatief simpele en trage cores zijn, waar een CPU weinig, maar snelle cores zijn, met goede caching, branch prediction etc.
Zolang je een goed parallelliseerbaar algoritme hebt, kun je dat dus beter op een GPU doen (en bitcoin mining valt hier dus onder). Algoritmen die meer serieel zijn en/of complexe branching en geheugentoegang hebben, zijn vaak sneller op een CPU.
Tijd voor AMD om ASICS te gaan ontwikkelen?

OT: Met de winsten die ze haalden, waarom draaien ze nu ineens verlies dan? De 7950 bijvoorbeeld verkoopt nog best. Waar gaat het geld aan op? Is er structureel iets mis? Of zijn ze hard bezig met de R&D voor een brute nieuwe CPU?
Omdat er plotseling een grote hoop kaarten minder verkocht worden.
Niet alleen worder er minder kaarten verkocht omdat ASIC miners interessanter zijn (minder sales), ook komt een deel van die 'oudere' (maar nog steeds high-end zijnde) kaarten op de tweedehandsmarkt terecht (wanneer deze door ASIC miners vervangen worden),
en sommige mensen kiezen er eerder voor om de goedkopere tweedehandskaart nemen,
ipv de duurdere nieuwe (weer minder sales).

[Reactie gewijzigd door graverobber2 op 18 juli 2014 10:51]

Dat is toch wel vreemd te noemen. Heel zwart wit heb je gelijk, maar relatief gezien heeft AMD natuurlijk vrij goede zaken kunnen doen. Meer dan gemiddeld.
Het moet dan ook niets uitmaken dat er dan 2e hands meer kaarten op de markt zijn gezet. Dat is toch altijd? Als je veel verkoopt kan je verwachten dat er ook meer 2e hands komt en kan je misschien ook meer garantiegevallen verwachten.

Mja als eerste plaats heb je meer verkocht, dat lijkt me dan wel een feit. Hoe het dan komt dat ze alsnog verliezen draaien in de GPU tak is mij daarom ook een raadsel. Hoe kan het als je 41% meer kaarten verkoopt, alsnog de boot ingaat? Anderzijds is af te vragen hoe veel verlies ze zouden maken als ze niet die hoeveelheid extra chips hadden verkocht? Dat moet dan logischerwijs ontzettend veel meer zijn.
Absoluut gezien komen er uiteraard meer kaarten voor garantie terug als je er ook meer verkoopt, maar aangezien de kaarten voor mining 27/7 100% belast worden gaan er procentueel gezien waarschijnlijk ook meer kaarten kapot die nog onder garantie vallen. Daarnaast komen er ook meer kaarten op de 2e hands markt als je meer verkoopt, alleen komen ze dan niet "allemaal" tegelijk op de 2ehands markt.

De mining hype heeft ervoor gezorgd dat er in korte tijd relatief veel kaarten extra verkocht zijn, maar omdat die hype nu over is worden de kaarten massaal op de 2e hands markt gedumpt. Terwijl als je het zelfde aantal kaarten verkocht zou zonder hype en wellicht over een langere periode waren al die kaarten ook veel geleidelijker op de 2e hands markt gekomen en was het vanwege het geringere prijsverschil nog wel interessant om een nieuwe kaart te kopen. Maar omdat de kaarten nu massaal worden aangeboden gaan ze voor gemiddeld 50% van de nieuwwaarde naar een nieuwe eigenaar, terwijl dit normaal 75-80% was. Dus met zo'n groot prijsverschil zullen ook meer mensen de komende periode een 2e hands kaart kopen.
Dat klopt, maar goed ik vraag me wel af wat AMD moet met de 2e hands markt. Onderstaand is geen aanval op jou, maar meer iets dat ik mezelf afvraag.

Daarbij: of men normaal 10.000 videokaarten verkocht per maand en tijdens het minen 10.000/week en dat xx weken achter mekaar. Wanneer die heftige verkoop opeens stopt en overgaat naar 2e handse verkoop, mag dat over de hele linie niet gek veel uitmaken denk ik.
Om een voorbeeld te noemen met random getallen:
Bij beide gevallen zou je over 6 maand gezien 60.000 videokaarten hebben verkocht... alleen was de periode van de mininghype geen 10k/maand maar slechts 6 weken lang 10k/week. What's the difference?!?!

Stel nu dat ze door het mining 40% meer hebben verkocht dan bij andere videokaart oplagen in het verleden. Dan zit je op 10 weken lang 10k/week. Hoe kan dit voor verlies zorgen als je 40% meer verkoopt? ik snap het niet geloof ik. Wat heeft de 2e hands markt ermee van doen, wat heeft stoppende verkopen er mee te maken? verkocht = toch verkocht? Meer dan anders zou meer winst moeten zijn, hogere vraag dan aanbod zou meer winst moeten zijn, etc.

Zeker toen de vraag hoog was, lijkt me dat de AMD chipprijs ook hoger moet zijn geweest (niet alleen de shopprijs). Daar hebben toch al die bedrijven in de hele linie van geprofiteerd of zou het niet?

En kapotte kaarten tja... is dit een garantiegeval voor de chipfabrikant of alleen voor de videokaartfabrikant? Zo liepen de MSI kaarten langere periode veel warmer dan gemiddeld, want andere vBIOS, andere koeler, andere fans... stel dat je niet mined maar met hoge load gamed en veel kaarten gaan kapot. Komt dit op het bord van AMD of van MSI? Ik denk die laatste namelijk. Mij lijkt dat AMD echt problemen krijgt als de chips opzich fysiek niet goed zijn en daardoor over alle kaarten veel uitval bestaat... ongeacht het videokaartmerk. Des te meer begrijp ik het verlies van AMD niet.

[Reactie gewijzigd door marcel87 op 18 juli 2014 14:20]

Met jouw voorbeeld is het verlies juist heel goed voor te stellen. Het gaat namelijk om kwartalen, dus het kwartaal waar die 6 top weken in zitten maken ze winst, maar het kwartaal erop verlies. En zo gaat het de boeken in, omdat je die verkopen niet mag uitsmeren over dat volledige half jaar. Bij de jaaromzet maakt het natuurlijk niets meer uit, maar bij de kwartaalcijfers wel.

Daarnaast kan ik me voorstellen dat je hogere productie kosten hebt om aan de onverwachte vraag te kunnen voldoen en dus op het laatste moment bij de chipbakkers aan moet kloppen voor meer capaciteit. Voor zover ik weet liggen die contracten vaak al lang klaar voordat de chips daadwerkelijk in productie gaan en die chipbakkers plannen hun schema natuurlijk ook zo vol mogelijk om zo efficient mogelijk te werk te gaan. Dus kan ik me goed voorstellen dat je meer moet betalen voor zo'n "spoed" order...

Al met al heb je gelijk met geld=geld al lijkt het me voor een bedrijf gunstiger om een "stabiele" inkomsten stroom te hebben dan hoge pieken en diepe dalen.

AMD geeft in dit bericht ook alleen maar aan dat het DIT KWARTAAL verlies maakt en dat volgend kwartaal niet ziet veranderen omdat de kaarten nu massaal gedumpt worden op de 2ehands markt.
Hm ja kwartalen inderdaad... dat is zo. Eigenlijk is dit artikel van AMD dan ook geen wereldnieuws als het enkel over kwartaalcijfers gaat. Hetzelfde over die 30-50% meer desktopverkopen waar een ander artikel al over ging.

Wat betreft de hogere kosten ook wel gelijk, mja vergeet niet dat de grafische kaarten vaak ook stukken duurder waren dan de normale prijs. Deels door de webshops... maar neem aan ook wel een stuk door AMD. Ik heb eind december 2x MSI 280X in bestelling gehad voor 330 euro/stuk, normale prijs zou rond de 265/stuk moeten liggen op dat moment. Ik had namelijk 3 weken eerder ook een bestelling staan voor 265/stuk... daarop heb ik 1mnd gewacht en werd niet geleverd door de shop.
Zo lijkt me niet meer dan logisch dat ze een meerprijs zullen doorrekenen richting de hoge vraag van de eindgebruiker. Wederom: weinig negatief effect op de totale verkoopcijfers. Kwartaalcijfers zijn dan inderdaad een lastig punt... die kunnen hard(er) schommelen. :)

Overigens koop ik tegenwoordig bijna alles 2e hands. Nieuw spul is veel te duur voor de snelheid dat het zn waarde verliest. Wat dat betreft denk ik dat ze in de miningperioden wel aanzienlijk meer winst moeten hebben gemaakt. Ik heb daar pas 2e hands gekocht toen ik 1 maand had gewacht op de nieuwe spullen maar uiteindelijk allemaal niet geleverd werden. Op een gegeven moment had ik rond de 1200 euro aan grafische kaarten in bestelling staan... iets dat ik nooit even snel nieuw zou kopen allemaal.
Kijk voor de grap ook nog eens hoeveel miningrigs er werden aangeraden vanuit een volledig AMD systeem. Asrock Extreme 3, Sempron 145 en dan 2 tot 6 grafische kaarten van AMD. Dus ja in kwartaalcijfers begrijp ik dat inmiddels, mja... over de hele linie moeten ze er wel beter van zijn geworden. Kan toch haast niet anders.

[Reactie gewijzigd door marcel87 op 18 juli 2014 22:44]

+ het feit dat die meeste 2e hands kaarten nog onder garantie vallen en door het 24/7 minen grotere kans hebben op uitval en dus meer kaarten die vervangen moeten worden (weer minder inkomsten, terwijl je wel de hardware moet leveren)
Hier ook een 2e hands ex-miner met garantiebewijs. Ik vond het wel lachen met al die 2e hands mega kaarten voor dump prijzen.
AMD is momenteel veel geld in R&D aan het pompen.
AMD is momenteel veel geld in R&D aan het pompen.
Waar haal je dat vandaan? Uit de kwartaalcijfers van gisteren blijkt dat het R&D uitgaven alleen maar lager worden: https://www.google.com/fi...ei=AfHIU5jpBOH4wgOg2oHIBA

Om dit in context te plaatsen, AMD's R&D uitgaven zijn al een tijdje lager dan die van nVidia.

[Reactie gewijzigd door Dreamvoid op 18 juli 2014 12:30]

Ik meende er paar maanden terug een bericht over gelezen te hebben. Maar heb het mis dus, iig kijkend naar uitgaven inderdaad.
Dat is echt noodzakelijk, want tenzij er iets drastisch veranderd zie ik het einde van AMD op korte termijn gerealiseerd. Imho is momenteel prijs het enige waar AMD nog wel eens goed in is, maar voor een apparaat wat 5+ jaar mee moet gaan er steeds meer mensen die paar tientjes meer uitgeven aan een Nvidia of een Intel. Het probleem is dat je met goedkope producten veel meer moet verkopen om dezelfde omzet/winst te behalen als met dure producten.

Ik zie in de relatief goedkope laptopjes veel AMD videokaarten voorbij komen, daar best veel issues mee qua drivers (of dat ligt aan Dell). Een van de redenen waarom ik al een tijdje persoonlijk Nvidia kies, zelfde met Intel, scheelt vaak ook met stroom verbruik en dus warmte (waar ik nu profijt van heb, met 31 graden op een zoldertje in Zeewolde).
Ongelofelijk wat ik hier lees.

Ik snap dat sommige mensen het beste van het beste willen, maar bij Nvidia doet dat zelfs niet meer aan de orde. qua CPU voor intel, tot daar toe...

Sommige mensen geven niet graag 100 euro meer uit enkel voor het merk. Dat jij ervan uitgaat dat iedereen dat wel doet vind ik hoogstens grappig.
Gaat niet om het merk alleen. AMD en Intel hebben heel duidelijk verschillen, net als waar AMD en Nvidia die hebben.

AMD/ATI = speed, zo veel mogelijk frames per seconde.
Nvidia = Kwaliteit, zo veel mogelijk pixels met acceptabele framerate

Intel = zuinig, sterk single threaded. Goed voor zware servers.
AMD = goedkoop, sterk multithreaded. Goed voor webservers.
AMD/ATI = speed, zo veel mogelijk frames per seconde.
Nvidia = Kwaliteit, zo veel mogelijk pixels met acceptabele framerate
Vandaar dat in meeste benchmarks Nvidia het net slechter doet op hogere resoluties?
Ongelofelijk wat ik hier lees?

Nvidia gaat ook voor zoveel mogelijk FPS? 8)7
Nvidia scoort net lager op hogere resoluties. En wat bedoel je in hemelsnaam met "kwaliteit" ? Wat een leeg argument :D

en intel is voor servers zuiniger maar duurder in aanschaf. Wat treading daar te zien heeft is mij ook een raadsel, want beide multitreaden.

en "zware" servers vs webservers.... .... wat?
AMD/ATI = speed, zo veel mogelijk frames per seconde.
Nvidia = Kwaliteit, zo veel mogelijk pixels met acceptabele framerate
Zoals anderen al zeggen, beetje onzin. Zowel qua kwaliteit als framerate ontlopen nVidia en AMD elkaar niet zo veel.
Beiden proberen zo snel mogelijke GPUs te maken, zonder daarbij al te veel in te leveren op beeldkwaliteit (zelfs de texture/shader-optimalisaties zijn tegenwoordig met het blote oog moeilijk te zien).
Intel = zuinig, sterk single threaded. Goed voor zware servers.
AMD = goedkoop, sterk multithreaded. Goed voor webservers.
Was het maar zo'n feest voor AMD. Ook qua multithreading zijn ze niet sterk. Bv SQL-performance (erg belangrijk voor webservers) is niet zo best: http://www.anandtech.com/...eron-6276-a-closer-look/4
Jammer dat je MS benchmarks pakt en geen Ubuntu benchmarks deelt...... Heel verschil
Jammer dat je dan geen linkje naar Ubuntu benchmarks erbij geeft.
http://lmgtfy.com/?q=AMD+Ubuntu+benchmarks

[Reactie gewijzigd door Vegettokai op 18 juli 2014 17:23]

Kansloze reactie natuurlijk.
Als je benchmarks aanhaalt is het wel handig om even specifiek te noemen over welke benchmarks je het hebt.
Ik kan wel random benchmarks gaan googlen, maar de kans is dan groot dat ik niet op dezelfde uitkom die jij bedoelt (de eerste paar waar Google mee komt zijn OpenGL en Radeon GPUs).
Dus: linkje plaatsen, dan weten we in ieder geval zeker dat we het over hetzelfde hebben.
Kinderen moeten maar buiten gaan spelen.

[Reactie gewijzigd door Scalibq op 18 juli 2014 20:14]

Nee je bent zelf gekwalificeerd genoeg om zelf je bronnen te zoeken. Dat hoef ik niet voor je te doen. Ik zeg alleen dat het jammer is dat je alleen EEN MS benchmark er tussen uit trekt terwijl het op Ubuntu de verschillen heel anders liggen. Ik ben in zn geval dus niet verplicht jouw een bron te wijzen.

[Reactie gewijzigd door Vegettokai op 18 juli 2014 20:29]

Nee je bent zelf gekwalificeerd genoeg om zelf je bronnen te zoeken.
Zo werkt een discussie niet hoor ("Ik heb gelijk, zoek zelf maar op!"). Als je iets beweert, moet je dat ook aannemelijk maken.
Dat hoef ik niet voor je te doen. Ik zeg alleen dat het jammer is dat je alleen EEN MS benchmark er tussen uit trekt terwijl het op Ubuntu de verschillen heel anders liggen.
Dat beweer jij, maar je komt niet met een onderbouwing. Ik heb niet bewust voor een MS benchmark gekozen, toevallig was MS SQL de database die in die test gebruikt werd. Ik zie geen reden om aan te nemen dat andere databases nou echt veel verschil uitmaken qua multithreading.
Ik ben in zn geval dus niet verplicht jouw een bron te wijzen.
Jawel, anders is je argument gewoon loos.
Ik zeg niet dat iedereen dat doet, ik zeg dat steeds meer mensen zo denken en de cijfers van AMD en Nvidia geven mij daar gelijk in. AMD maakt verlies ondanks ze in de nieuwste MS en Sony consoles zitten, de enige reden waarom AMD nog zoveel high-end videokaarten verkocht de afgelopen paar jaar was voor het Bitcoin minen, nu de grote jongens allemaal zijn overgestapt naar ASIC/FPGA wordt daar niet meer veel voor verkocht. Komt ook nog eens bij dat juist de oudere generatie kaarten het beter deden dan de nieuwe generatie. Nvidia maakt bizar veel winst (10% van hun omzet!).

Nvidia zet ~80% om met primair GPUs van wat AMD omzet met zowel GPUs als CPUs.
Dus hier kunnen we inderdaad 1 ding van onthouden:
Nvidia maakt bizar veel winst.

Klopt wel. Je gaat je zelfs afvragen of ze niet teveel voor hun producten vragen. En je kan met een 290 nog andere dingen dan bitcoins minen hoor.

ik denk gewoon dat je beoordeling een beetje te zwart-wit is.
Natuurlijk kan je nog andere dingen minen met je 290, het probleem is dat dit veel minder populair is en dat vertaald direct naar minder verkopen. Andere stoppen met videokaart minen en verkopen het op de 2e handsmarkt, waardoor er nog minder vraag is.

Een bedrijf maakt bizar veel winst door twee dingen, slimme prijzen en veel verkopen. Het is niet aan de consument om de prijs van producten te bepalen, alleen om te bepalen tegen welke prijs ze producten willen aanschaffen. Zowel Nvidia als Intel laten zien dat mensen best hoge prijzen willen neerleggen voor hun producten.

De resultaten zijn behoorlijk zwart/wit, niet mijn beoordeling. De tijd dat ik AMD heb gekocht was uit de periode dat je elk jaar naar upgrades aan het kijken was omdat wat je had niet voldoende was. Tegenwoordig heb je dat probleem echt niet, tenzij je altijd het onderste uit de kan wil hebben, gelukkig zijn er maar weinig mensen die dat willen. Je doet tegenwoordig prima 5+ jaar met een high-end CPU en GPU, vandaar dat de omzet bij zowel Nvidia als AMD al een tijdje elk jaar minder wordt, enige verschil is dat Nvidia nog steeds winst weet te maken en produceert wat klanten kopen tegen hoge prijzen.

Ik zou graag zien dat AMD een significant beter product op de markt zet (zoals aan het begin van het P4 tijdperk), maar anders laat ik het gewoon links liggen.
Daarom is een 290 ook vaak sneller dan de veel duurdere 780 :')
Das vreemd, want ik kom in Pricewatch geen 780 meer tegen, alleen een 780Ti en die tekend een heel ander plaatje, mag ook wel voor een meerprijs van ~§200. Als je zaken gaat vergelijken, dat wel doen met de huidige crop GPUs en niet een vorige generatie met een huidige generatie. En persoonlijk is die §200+ extra niets over een periode van 5+ jaar en een veel lagere geluidsdruk:
reviews: GeForce GTX 780 Ti: de kroon heroverd
wauw 2 tot 8 fps verschil. Dat maakt de meerprijs wel goed inderdaad.
Dan moet je dat vinkje bij nVidea fanboy en 780ti uitzetten ;)
Ze moeten idd ook wel. Als ik zo wat rumors her en der voor bij hoor komen over AMD, kan het wel interessant worden (ARM co-CPU e.d.)

Zelf heb ik altijd driver problemen met Nvidia en had ik ze eigenlijk nooit met AMD. Ook niet op kleine laptopje van mijn ouders met een radeon. (volgens mij ook een Dell, maar niet 100% zeker)

En ik vind de extra warmte wel prettig meestal, vooral de wat koudere dagen :)
Maar de warmte ontwikkeling van mijn FX4100 valt in het niet bij wat mijn GTX 760 genereert als die bezig is :P

Stroomverbruik verschil is ook nihil, Intel en AMD gaat om enkele euro's per jaar bij veel gebruik. Tenzij je beiden natuurlijk nonstop 100% laat werken, dan wint Intel het duidelijk. Maar dat is geen real world scenario.
AMD kun je zelf ook downclocken en een hogere turbo geven, lekker instelbaar naar je eigen voorkeuren kwa energie verbruik en vermogen.

Geen idee of het met de huidige CPU's van Intel nog zo is(geen actief gebruik gemaakt van een laptop de laatste ~2 jaar), maar ik werd, vooral op laptops. Helemaal tureluurs van het throttlen op de CPU als het ding een beetje warm werd. Had ik naar mijn mening met laptops die een AMD cpu/gpu hadden minder last van.
De CPU business draait al jaren slecht, als de GPU verkopen even wat minder lopen komt het totaal al snel in het rood.

Ze zijn ongetwijfeld hard bezig met nieuwe CPU's, maar de R&D uitgaven gaan al jaren omlaag.
Niet zo raar ook, zelfs een Core 2 Quad van zes jaar oud voldoet in 99% van de gevallen nog. Dan verkoop je natuurlijk geen hol. Gevolg van te weinig concurrentie tussen Intel en AMD?
Hoe ligt het aan de concurrentie tussen Intel en AMD dat consumenten geen snellere chips nodig hebben? Ze hebben er beide last van. Pas als er populaire nieuwe softwaretoepassingen komen de veel cpu (en gpu) rekenkracht nodig hebben, dan staan mensen weer in de rij om zo snel mogelijke PC's te kopen, en gaan AMD en Intel ook weer snelle chips maken. Op het moment is er alleen veel vraag naar zuinige chips, niet naar snelle.

[Reactie gewijzigd door Dreamvoid op 18 juli 2014 13:42]

@dreamvoid, AMD heeft compleet de aansluiting gemist met Nvidia's Tesla's.

Dat is een highend markt waar miljarden elk jaar te halen valt.
Is die markt dan al zo groot? Ik had altijd begrepen dat de markt van Tesla/Xeon Phi's in de paar honderd miljoen liep, nog niet miljarden.
Die HPC markt groeit elk jaar en is rond de 10 miljard dollar per jaar. Natuurlijk kun je zeker 50% daarvan gelijk afschrijven want die willen geen gpgpu systeem kopen.

Bijna elk groot bedrijf is professioneel geworden en rekent tegenwoordig zijn producten door. Onderschat de olieindustrie daar niet, maar dat is maar 1 van de vele markten. Die rekenen al bijna een decennium nu op uitsluitend tesla's. Alleen die sector al heeft elk bedrijf meer in huis dan menig topsysteem dat in de top500 staat.
AMD heeft de boot gemist in gpgpu.

Ik herinner me nog hoe ik poging deed wat priemgetal software aan de praat te krijgen op een AMD gpu hier. het probleem is de helpdesk van AMD/ATI. Die belooft al sinds 2007 allerlei features, maar ze zijn er gewoon in 2014 nog steeds niet.

Aanmaken van tickets in hun interne ticketsysteem helpt ook niet.

Als je kijkt naar ticketnummering kon ik zien dat 6 maanden later ze nog maar handvol tickets hadden aangemaakt mbt gpgpu. Je krijgt dan een nietszeggend mailtje van 1 of andere Indier, maar je probleem wordt niet opgelost.

Ik draai dus op Tesla's van Nvidia ondertussen...
Onderbouw die onzin eens die je typt.
Tijd voor AMD om ASICS te ontwikkelen? :? Een videokaart processor voldoet al aan de definitie van een ASIC...
GPU's en CPU's zijn generieke processoren waarop je rekenen kunt.

Als ze iets posten over een "ASIC om bitcoins te minen", dan is dat een processor die enkel DIE berekeningen kan doen en niets anders.

Dus je kunt die ASIC niet voor iets anders gebruiken.

Voor AMD heeft het weinig nut om een ASIC te produceren die maar 1 functie heeft, waar ze voor maar paar miljoen dollar van kunnen verkopen hooguit. Dat is de moeite niet. Ze willen enkel nieuwe CPU's/GPU's/APU's ontwerpen waar ze kans mee maken om miljarden aan omzet mee te kunnen behalen.
Voor AMD heeft het weinig nut om een ASIC te produceren die maar 1 functie heeft...
En hoe is een GPU niet een chip die maar 1 specifieke functie heeft (3D/2D renderen)?!

Rechtstreeks van de Nvidia website: http://www.nvidia.com/page/job_descriptions.html
PHYSICAL DESIGN ENGINEER (Santa Clara, CA; Austin, TX)
Responsible for all aspects of physical design and implementation of Graphics processors, integrated chipsets and other ASICs targeted at the desktop, laptop, workstation, set-top box and home networking markets. Responsibilities include participating in the efforts in establishing CAD and physical design methodologies (flow and tools development), chip floor plan, power/clock distribution, chip assembly and P&R, timing closure, power and noise analysis and back-end verification across multiple projects.

[Reactie gewijzigd door GeoBeo op 19 juli 2014 00:26]

Videokaarten zijn FPGA.
Nee. Het zijn digitale ASICs die (deels) ontworpen en getest zijn op FGPAs alvorens ze als ASICs fabriceren. En voor de stap van FPGA naar ASIC kan het ontwerp in de FPGA ook niet 1 op 1 overgenomen worden; daar zit veel werk achter. Het digitale schema van een FPGA is ongeveer hetzelfde als dat van de ASIC en kan ook in dezelfde "taal" ontworpen worden (VHDL/Verilog, etc). Maar de layout/floorplan/"hoe de baantjes lopen" is compleet anders in een ASIC.

FPGA is voor kleine oplages en ontwikkelen, ASIC is voor massaproductie en kan tevens (in tegenstelling tot FPGA) ook analoge componenten op chip niveau bevatten. FPGAs rekenen parallel, maar ASICs kunnen ook seriele processoren (CPUs bijvoorbeeld) bevatten op een veel efficientere/kleinere/goedkoperen manier dan in een FPGA kan.

[Reactie gewijzigd door GeoBeo op 19 juli 2014 00:25]

Ik heb het minen al lang opgegeven, al heb ik er wel 3 290 kaarten voor gekocht. Kan ik nu in ieder geval prima op gamen :).

De ASICS en wat voor apparaten zijn er nu al voor de cryptomuntjes dus het is niet meer zinvol om dat nog op videokaarten te gaan doen lijkt me.
AMD heeft even even leuk voor kunnen verkopen maar ze moeten hebben zien aankomen dat de rek er snel een keer uit is.

Het blijft maar aanmodderen met amd. Ondanks dat ze nu geen kosten voor fabs meer hebben blijft het verlies, soms winst. een echte visie is er nog steeds niet. custom chips, leuk maar afhankelijk van paar grote klanten.
Ze willen ook de zoveelste arm producent worden, ook geen echte visie.

Ik ben benieuw of ze zo net wel net geen winst blijven doorgaan en hoe lang nog,.
een echte visie is er nog steeds niet
Hun APU gebeuren om de GPU steeds meer naar de CPU te trekken kan je toch echt wel visie noemen

En met hun ARM plannen zijn ze ook van plan x86 en ARM samen te brengen, niet om simpel weg een ARM product te maken

Visie zat lijkt me, dat het nog niet heel goed voor ze uitpakt is een ander verhaal
Als het niet goed uitpakt kun je het wel een visie noemen maar is het toch de verkeerde visie.
Onderdeel van een visie moet ook zijn of het haalbaar is, de markt er om kan vragen.

Helaas heeft amd bewezen te vaak fouten te maken.
Ik denk dat visie niet zozeer het probleem is. AMD kan gewoon niet op tegen de concurrentie van Nvidia. Om hun GPU's te verkopen, moeten ze onder de prijs van Nvidia zakken, maar volgens mij zijn hun productiekosten hoger dan bij Nvidia (grotere chip oppervlakte, grotere bus en meer VRAM). Als Nvidia zou willen, kon het AMD gewoon compleet uit de markt duwen. De enige reden dat ze dat niet doen is omdat dat voor hun niets zou opbrengen.

[Reactie gewijzigd door Robbedem op 18 juli 2014 14:19]

Ik had juist ergens gelezen dat de chip van de r9 290x rond de 30% kleiner was als de titan
De chips van een GTX 780 (Ti) en GTX Titan (561mm≤) zijn idd groter dan die van een R9 290X (438mm≤), maar de geheugenbus en Vram geheugen zijn ook een grote kostenpost. Verder is de marge op die high-end kaarten meestal wel voldoende groot en het volume klein.

Het probleem voor AMD zit vooral bij de subtop (die ook in grotere hoeveelheden verkocht worden)
R9 280(X): 352mm≤, 3GB VRAM en 384bit
GTX 770: 294mm≤, 2GB VRAM en 256bit
Dit betekent dat de marge op een GTX 770 voor Nvidia ofwel heel groot is, of de marge op een R9 280(X) voor AMD zeer klein.

R9 270(X): 212mm≤, 2GB VRAM en 256bit
GTX 760: 294mm≤, 2GB VRAM en 256bit
Hier valt het mee voor AMD, maar Nvidia kan meer vragen voor een GTX 760 omdat die beter presteert.

R7 265: 212mm≤, 2GB VRAM en 256bit
R7 260(X): 160mm≤, 2GB VRAM en 128bit
GTX 750 Ti: 148mm≤, 2GB VRAM en 128bit
GTX 750: 148mm≤, 1GB VRAM en 128bit
Dit terwijl een GTX 750 Ti een stuk sneller is dan een R9 260X en gelijkaardig aan een R7 265 voor dus minder kosten.

Al bij al toch duidelijk in het voordeel voor Nvidia.

[Reactie gewijzigd door Robbedem op 18 juli 2014 14:59]

een verschil van 352 versus 294 is niet zo schokkend voor een manycore. Rondom die 300 mm^2 valt nog prima goedkoop te produceren.

Die videokaarten van AMD zijn prima. Wat achterblijft is met name goede gpgpu software support en met name de CPU's.
Ik ben het grotendeels met je eens, hoewel die verschillen niet echt schokkend zijn, zoals hardwareaddict al heeft gezegd. Maar om er nog meer aan toe te voegen, de R7 265 presteerd heel erg goed, trouwens ook echt wel beter dan zie 750ti en zeker naar zijn prijs,maar zoals jij weergeeft zou die voor AMD juist heel erg veel moeten kosten. Maar dat moet je wat subtieler bekijken. Het is namelijk waarschijnlijk dat ze de yield (de hoeveelheid "gelukte" chips) sterk mee omhoog halen. Ze zouden er namelijk chips gebruiken die voor een deel niet werken en dus niet bruikbaar zijn voor de R9 270(X). Verder is de chip gelijk aan die van de 7870/7850/R9 270/R9 270X en ik geloof ook gelijk aan bepaalde modellen professionele kaarten, dus word al langer dezelfde productie lijn gebruikt (dat is ook goed voor de yields en maakt de productie goedkoper) en er word nu nog steeds relatief veel geproduceerd wat het ook goedkoper maakt. (ik herinner me een 7870XT waar ze het zelfde deden). Al met al denk ik dat de prijsverschil in productie tussen de 750Ti en de R7 265 niet echt groot is. Wat je de betere kaart vind is een andere discussie. Verder vind ik dit in tegenstelling tot wat andere hier zeggen dit juist een voorbeeld van goed management, hoewel dat geen toekomstvisie is is het wel praktisch nadenken.
De verschillen niet schokkend? Ik denk het wel. Je moet dit groter maken dan je eigen PC'tje. Reken er maar op dat de tactiek van AMD (meer hardware tegen een software probleem aan gooien) hen een flinke hap van de marge kost. Het is al jaren zo dat Nvidia de focus legt op softwarematige oplossingen en performance verbeteringen, het terugdringen van verbruik en hogere kloksnelheden die mogelijk zijn door een betere koeling. Dat is niet verwonderlijk een winnende oplossing, want de kaarten zijn stock ook nog eens stiller dan die van AMD. Kijk bijvoorbeeld naar twee kaarten die al een poosje in de markt zijn, de GTX 680 / 770 en de 7970 / R9 280x. AMD loopt al jaren te klooien met een clock van rond de 1ghz en 5ghz memory. De Nvidia variant tikt zonder moeite de 1100/6000mhz aan en gaat ook daarna nog eens veel verder (de mijne loopt op 1280mhz) met minder prik. Dat zijn geen zielige verschillen.

Met betrekking tot het verhaaltje hierboven over 'visie' - dit is visie. Geloven dat je met minder, meer kan doen. Want dat is feitelijk wat Nvidia neerzet en waardoor het de strijd wint. Of je dat dan 'de betere kaart' wil noemen moet iedereen voor zichzelf uit maken, maar ik ben er wel uit.

[Reactie gewijzigd door Vayra op 19 juli 2014 22:50]

En omdat er anders een monopolie zou ontstaan. Zoals Microsoft met Apple indertijd.
Nvidia produceerd zelf niet, AMB besteed het ook uit.
De kosten kunnen dus niet veel schelen aangezien amd ook niet klein is.

als ze onder de prijs moeten zitten betekend die dat amb geen leider is maar moet volgen. Dat doen ze al veel te lang en daardoor moeten ze onder die prijs blijven zitten.

Nvidia is op arm gebied ook al lang actief ook met hun gpu. Wederom daar miste amd de boot ook.
Fabs rekenen kosten voornamelijk per wafer. Als de chips kleiner zijn en er dus meer op een wafer passen, is de productie goedkoper.
Daarnaast rekenen ze ook korting als je heel veel wafers afneemt.
nVidia heeft daar ook een voordeel, want ze verkopen nu eenmaal meer GPUs dan AMD (grofweg 2:1).
Ik geloof dat dat niet geheel correct is:

ik herinner mij dat op dit moment ongeveer 65% van de laptops + desktops met een dedicated grafische kaart bevat Nvidia
en de overige 35% zou AMD zijn. Ik vermoed dat jij je op deze cijfers beroept. Maar er zijn kanttekening bij te plaatsen.

1. Deze getallen gaan over wat er NU is, niet wat de verkopen zijn, ik begreep dat AMD juist terrein aan het terugwinnen was. (dus meer richting 45, 55 (AMD, Nvidia)

2. Dit is inclusief die kleine prutkaartjes zoals GTX 630 of zo iets. En bij de merken als HP en Dell ect. is juist het gebruik van dat soort kaarten heel populair, en doet Nvidia het veel beter dan AMD

3. Dit is inclusief de laptopkaarten en daar is (mijn mening) Nvidia gewoon veel beter dan AMD, wat je ook terug ziet bij laptopmodellen in de prijsvergelijker, Nvidia heeft daar een enorm overwicht ook al langer dus daardoor word de verhouding scheef getrokken.

Juist in de High end en Semi-High end klimt AMD uit een dal. Door de goede prijs/prestatie verhouding (en die is onbetwistbaar goed, misschien alleen niet gezond voor AMD zelf). Dit soort getallen zijn vaak dus moeilijk goed te beoordelen en je moet er voorzichtig mee zijn ze te gebruiken. De getallen geven wel aan dat in het verleden Nvidia het erg, erg goed gedaan heeft.
1. Deze getallen gaan over wat er NU is, niet wat de verkopen zijn, ik begreep dat AMD juist terrein aan het terugwinnen was. (dus meer richting 45, 55 (AMD, Nvidia)
Dit nieuwsbericht zegt toch juist het omgekeerde: AMD is vooral in de high-end terrein aan het verliezen.
2. Dit is inclusief die kleine prutkaartjes zoals GTX 630 of zo iets. En bij de merken als HP en Dell ect. is juist het gebruik van dat soort kaarten heel populair, en doet Nvidia het veel beter dan AMD
Dat heeft er toch weinig mee te maken? Als nVidia meer GPUs bestelt bij TSMC, krijgen ze meer korting. Of dat 'kleine prutkaartjes' zijn, of high-end, of wat dan ook, doet niet ter zake. Een wafer is een wafer.
3. Dit is inclusief de laptopkaarten en daar is (mijn mening) Nvidia gewoon veel beter dan AMD, wat je ook terug ziet bij laptopmodellen in de prijsvergelijker, Nvidia heeft daar een enorm overwicht ook al langer dus daardoor word de verhouding scheef getrokken.
Zie hierboven: heeft er niets mee te maken, meer wafers is meer wafers.
Juist in de High end en Semi-High end klimt AMD uit een dal.
Zie nieuwsartikel: high-end zakt juist in bij AMD.
Door de goede prijs/prestatie verhouding (en die is onbetwistbaar goed, misschien alleen niet gezond voor AMD zelf). Dit soort getallen zijn vaak dus moeilijk goed te beoordelen en je moet er voorzichtig mee zijn ze te gebruiken. De getallen geven wel aan dat in het verleden Nvidia het erg, erg goed gedaan heeft.
nVidia is juist *nu* goed bezig met prijs/prestatie-verhouding, vooral met de nieuwe GTX750, gebaseerd op Maxwell. AMD zal er nog een hele kluif aan hebben als nVidia binnenkort Maxwell introduceert over de hele productlinie.

[Reactie gewijzigd door Scalibq op 19 juli 2014 13:54]

Ik ben van mening dat je niet goed leest:

Jou opmerking over punt 1 raakt noch kant noch wal. De getallen hierboven gaan over een kwartaal in vergelijking met vorig kwartaal. Ja de verkopen zijn verminderd. Maar waar het in het artikel alleen met AMD zelf vergeleken word vergelijk jij dat direct met je eigen aannames over Nvidia. Daarnaast: computers gaan meer dan 5 jaar mee, zeker die mensen met zo'n "prut" grafische kaart, hebben die rekenkracht toch niet nodig en gebruiken hun apparaten dus langer wat in die 2:1 verhouding dus extra lang mee gaat. Je bevestigt eigenlijk mijn geschreven vermoeden dat je niet goed hebt gelezen en niet begrijpt waar die 2:1 verhouding vandaan komt. Dat zijn ALLE nu in gebruik zijnde dedicated grafische kaarten en dat heeft dus NIETS te maken met het onderwerp of AMD het NU goed doet in vergelijking met Nvidia, en in het artikel word deze vergelijking ook NIET gebruikt.

Wat in het artikel staat is dat AMD minder high-end hebben verkocht afgelopen kwartaal. Er staat niet dat dat wel of niet geld voor Nvidia. Waarschijnlijk heeft Nvidia ook moeite in het high-end segment, zoals het artikel namelijk meld:

"We hadden al verwacht dat het minen van cryptovaluta af zou nemen, maar de daling was sterk door de problemen bij sommige exchanges", zegt AMD-ceo Rory Read hierover, "Door de sterke afname werd de markt voor tweedehandskaarten overspoeld."

Dat geeft het vermoeden dat dit waarschijnlijk ook verminderde verkoop bij Nvidia betekend, die mining rigs zijn dan wel AMD grafische kaarten, maar het zorgt wel voor heel veel goedkope tweedehands r9 290(X) en 7970 kaarten te koop zijn, wat ook bij Nvidia de verkoop high end verminderd. Dus het artikel zegt niet dat AMD achteruit gaat ten opzichte van de concurrentie, maar dat door een te groot tweedehands aanbod hun verkoop verminderd. Wat jij daar zegt en wat er staat in het artikel zijn echt zeer verschillende dingen. Mijn opmerking over dat ze uit een dal klimmen moet ik eigenlijk onderbouwen. Ik heb wat gelezen, maar weet niet meer op welke site dus ik heb geen bron. Maar met uit een dal klimmen bedoel ik niet dat ze beter zijn gaan verkopen, maar dat ze in vergelijking tot de concurrentie beter zijn gaan verkopen. Ook Nvidia heeft het moeilijk met high-end producten (intel ook trouwens). Er schijnt ook gewoon minder geld uitgegeven te worden aan computers in het algemeen. Je ziet ook dat elke zichzelf respecterende hardwarefabrikant steeds meer met ARM komt of met meer low end producten (bay trail bijvoorbeeld). Die markt heeft namelijk nog groeipotentie

Met jou kritiek op punt 2 ben ik het gedeeltelijk eens, ja ook een GTX 630 is een verkochte kaart, dus extra inkomen. En ja meer afname van wafels is ook zeker wat meer korting en ook meer macht bij de fabrikant. Wat ik er bij had moeten zeggen is dat de meeste Tweakers bij grafische kaarten denken aan meer high-end producten, maar dat ze rekening moeten houden dat het soort getallen als 2:1 ook zeer sterk beÔnvloed worden door dat soort kleine kaartjes (waar trouwens een zeer kleine marge op zit). Over de kritiek bij punt 3 geld het zelfde, ja ze verkopen meer (goed voor Nvidia), maar hou er mee rekening dat de meeste lezers in eerste instantie niet aan dit soort kaarten denken als ze een opmerking horen dat Nvidia 2 keer zo veel kaarten verkoopt dan AMD.

Over de huidige maxwell kaarten kan ik kort zijn, ze zijn goed en niet duur, maar met die goede prijs-prestatie verhouding is niet helemaal terecht, ze zijn net zo duur als een tweedehands 7970
http://tweakers.net/aanbod/677701/xfx-radeon-hd-7970-double-dissipation.html
wat eigenlijk elke grafische kaart een slechte prijs- prestatieverhouding geeft, dat geld ook voor de R7 265. Maar als je de prijs vergelijkt met de R7 265 en de prestaties vergelijkt is die R7 265 een stuk sneller en ook flink wat duurder.
http://nl.hardware.info/vergelijkingstabel/736071/geen_username/3d-chips-vergelijkingstabel-19-07-2014-1820
Wat namelijk de opmerking was over Maxwell: zuiniger maar niet echt sneller, de prijs is wel goed, daar heb je gelijk, maar naar mijn mening (sorry je kunt het niet als feit zetten) is de prijs-prestatie verhouding nagenoeg gelijk. Daarnaast is jou opmerking: "AMD zal er nog een hele kluif aan hebben als nVidia binnenkort Maxwell introduceert over de hele productlinie." nogal zinloos, echt veel is er nog steeds niet bekent over Maxwell, wat we wel weten is dat in diezelfde periode AMD ook een nieuwe architectuur introduceert dus je kan ook het omgekeerde zeggen. En de kans is klein dat Nvidia eerder met 20nm (wat een groot voordeel is) begint omdat ze dezelfde producent gebruiken en omdat ze alle twee dan al kaarten in de markt hebben liggen die op 28nm gemaakt worden maar eigenlijk voor 20nm zijn ontworpen, dus ze zullen zeer makkelijk en snel kunnen overstappen.


Maar eigenlijk wil ik daarover niet discussiŽren. Wat mijn boodschap is, en daar blijf ik bij, is dat je voorzichtig moet zijn met het noemen van dat soort getallen. Er zitten veel mits'en en maar'en aan vast. Je gebruikt dat getal in een foute context, wat erg makkelijk foute interpretatie veroorzaakt.
Wat mij zinvollere getallen zou leveren voor dit soort fora zou ik met het hieronder beschreven (verzonnen) experiment kunnen vinden.
1. Je neemt een groep met doorsnee game's, waaronder games die beter op Nvidia draaien en games die beter op AMD draaien. bijvoorbeeld: Battlefield 3 & 4, Watchdogs, Rome Total War II, Bioshock, Metro Last Light en Elder scrolls Skyrim. Misschien kun je er ook populaire internet games zoals Star Wars: The Old Republic en League of Legends erbij nemen.
2. Je haalt van de server informatie over welke grafische kaart gebruikt word. (dat is te vinden door de drivers die de kaart gebruikt, maar vaak kun je zelfs vinden of het en kaart is van MSI of Asus ect)
3. Je vergelijkt de kaarten, merken met elkaar.

Dit geeft voor fora's veel interessantere getallen dan een 2:1 verhouding in een foute context. Voor de financiŽle experts onder ons die de exacte marktwerking moeten weten is het minder interessant, want voor hun zijn juist de getallen in dit artikel van belang, maar voor hardwarefanaten (zoals de meeste op deze site zijn) dat soort getallen vaak nietszeggend en leiden dan ook tot onjuist gebruik.
Ik ben van mening dat je niet goed leest:
Tsjonge, wat een ontzettend lang verhaal. Dat ga ik inderdaad niet helemaal lezen... Na het eerste stukje haakte ik namelijk al af:
Jou opmerking over punt 1 raakt noch kant noch wal. De getallen hierboven gaan over een kwartaal in vergelijking met vorig kwartaal. Ja de verkopen zijn verminderd. Maar waar het in het artikel alleen met AMD zelf vergeleken word vergelijk jij dat direct met je eigen aannames over Nvidia.
Ik maak helemaal geen vergelijking met nVidia. Jij zegt het volgende:
"ik begreep dat AMD juist terrein aan het terugwinnen was."
Dit nieuwsbericht wijst juist in de andere richting
Of ze dat terrein verliezen aan nVidia, Intel, of misschien een andere speler... dat doet niet ter zake. Zoals het artikel zegt: "AMD kampt met dalende verkopen videokaartchips."
Toegegeven, het zou in theorie kunnen dat nVidia en Intel met nog meer dalende verkopen te kampen hebben... Maar die kans lijkt me klein, want nVidia en vooral Intel hebben juist een opleving qua verkopen (zie bericht aantal dagen geleden over end-of-life van Windows XP). Van bitcoin-gerelateerde trends zal nVidia in ieder geval weinig last hebben.

De rest ga ik niet eens meer lezen, sorry. Zo'n lap tekst slaat echt nergens op, als reactie op in feite maar 1 ding: Ik zei dat nVidia meer wafers bij TSMC bestelt, en daardoor een lagere prijs betaalt.

[Reactie gewijzigd door Scalibq op 21 juli 2014 00:18]

maar heeft het hele mine gebeuren nog iets opgeleverd voor je?
vriend van mij had het ook gedaan. maar die heeft er flink verlies op geleden.
Tja, winst zou ik het niet noemen, inclusief wat investering in muntjes heb ik 5,25 bitcoins onder aan de streep.. Ze moeten ongeveer 550 euro per stuk worden wil ik een beetje kiet draaien.

Als ik niet had geinvesteerd in waterkoeling was het waarschijnlijk nog wel te doen geweest, maar ik heb iets te veel uitgegeven aan de hardware. Door de dalende prijs van de litecoins hield ik ze ook maar vast, als ik ze gelijk verkocht had bij het minen was het wel beter geweest. Maar dat is achteraf gelul.

Hopelijk wordt het nog wat met de BTC.

[Reactie gewijzigd door BLACKfm op 18 juli 2014 16:42]

Ik heb met mijn oude setup (4 HD5970) En later 4 HD6990 toch dik 20 BTC gemined. Toen de difficulty nog niet zo hoog was. Nu mine ik alles via CEX.io maar bedoel maar. Het was best wel winstgevend in het begin
Ja, ik begon toen de BTC over de 1000 dollar was. De litecoin was nog boven de 20 euro per stuk, maar ik ging snel weer naar beneden en met af en toe een klein herstel zitten we inmiddels op een euro of 6.

En ja, je houd het vast in de hoop dat het nog meer waard wordt maar dat had ik beter niet kunnen doen. En wie weet stort de BTC ook nog wel een keer in en dan zeg ik het opnieuw :).
als je 2 van die 290's nou is verkoopt voor 250-300 euro heb je al wat meer :P
Maar geen game pc meer :). Ik heb nu echter geupgrade en een paar computers over die ik wel kan verkopen.

Maargoed, gewoon wachten totdat de BTC een beetje geld waard worden. Long term investment :P.
Hoop dat AMD niet nog kleiner gaat worden. Intel heeft al bijna de gehele markt. Concurrentie op x86 processoren is goed voor consumenten.
Aan de ene kant wel, maar aan de andere kant is het bay-trail en AM1 platform meer dan genoeg voor het huis-tuin-en keuken gebruik van mailen, internetten en office...
Wellicht dat er nu weer wat meer zin heeft nu SSD's bijna gemeengoed zijn, maar er is een vrij lange tijd geweest dat je niet eens fatsoenlijk gebruik KON maken van al die rekengracht (renderen en dergelijke daargelaten) omdat de rest van het systeem niet mee kon komen... HDD's werden niet sneller en RAM bleef ook "achter".
De CPU is heden ten dagen zelden tot nooit de bottleneck meer, dus dat lijkt mij ook zeker mee spelen in de verdere ontwikkelingen op cpu gebied.

Met de komst van DDR4 kan er wellicht wel weer wat veranderen, of een nieuw OS of mainstream programma moet opeens die cpu power nuttig kunnen gebruiken, maar eerder zie ik niet in waarom de cpu markt ineens grote sprongen zou maken... Ik verwacht zelfs dat (waar AMD bijvoorbeeld nu vooral op inzet) is cpu power in te leveren om er een grotere on-die gpu in te kunnen proppen. Dat heeft op dit moment meer nut aangezien (voornamelijk windows) steeds mooiere en zwaardere animaties krijgt... Dat is namelijk iets wat de doorsnee eindgebruiker kan zien. Als een nieuw OS ineens je cpu hard aan het werk zet voor een feature waar de eindgebruiker niet direct het nut van ziet, zal dat niet van de grond komen...

[Reactie gewijzigd door Spekkie88 op 18 juli 2014 11:41]

Aan de ene kant wel, maar aan de andere kant is de bay-trail en AM1 platform meer dan genoeg voor het huis-tuin-en keuken gebruik van mailen, internetten en office...
En gewoon ook voor 95% van de games op Steam.

Met een PC van 5-10 jaar oud kan je prima "mailen, internetten en office", zelfs AMD`s AM1 is inmiddels wel iets verder dan dat.
joa opzich wel, maar met zo'n "oude bak" loop je nu tegen de lamp qua drivers. Sinds de EOL status van XP stappen een hoop mensen over op een nieuw systeem, ondanks dat de huidige hardware technisch nog makkelijk mee zou kunnen, wordt er voor een nieuw besturingssysteem gewoonweg geen drivers meer geleverd. Daarnaast hebben 99% van de mensen zoeits van: "Meh, deze pc is toch al oud en anders moet ik weer een nieuwe windows licentie aanschaffen en installeren", (als ze al zover komen met denken), "dus tijd voor een nieuwe"
We hebben het hier ov er GPU's , niet CPU's.
Het wordt nog al eens vergeten, maar AMD maakt ook CPU's. :)

[Reactie gewijzigd door Dreamvoid op 18 juli 2014 12:23]

Ik heb mijn aandeel aan de europese economie weer ruim bijgedragen, net een AMD FX-8350 gekocht. En toen ging kort daarna ook na 5 jaar mijn Intel Atom 330 kapot. En ook hier voor AMD gekozen, de 5150. Prima voor een 7x24 uurs systeempje, met hele lage verbruikswaarden.
AMD is een Amerikaans bedrijf, hier kan je zien wie de grootste aandeelhouders zijn: http://finance.yahoo.com/q/mh?s=AMD+Major+Holders
Hoofdkantoor wel, maar de fabriek staat in Dresden. Dus een europese werknemer heeft er baat bij gehad.
AMD heeft zijn fabs in 2008 verkocht, de Dresden fab is nu 1 van de 8 fabs van het Abu Dhabi'se bedrijf Global Foundries. En bv Intel heeft ook een grote fab in Ierland, is dat nu ook een Europees bedrijf?

Edit: punt is meer dat er op die manier zo ongeveer elk bedrijf wel als Europees is aan te merken. Intel, Microsoft, Samsung, Google, McDonalds, Toyota, ga maar door.

[Reactie gewijzigd door Dreamvoid op 18 juli 2014 14:22]

Wat is nou je punt?
Mining lijkt nu vooral plaats te vinden door hacks in illegale software te proppen. Wat is het toch een mooi systeem en wat kan de mensheid goed met vrijheid omgaan.
Mining lijkt nu vooral plaats te vinden door hacks in illegale software te proppen.
Interessant. Heb je daar statistieken van, of zuig je maar wat uit je duim?

Want minen via hacks in software schiet echt totaal niet op, en het zou me zeer verbazen als er van alle mining ook maar 1 promille (dus verre van "vooral") plaatsvindt op die manier.
Want minen via hacks in software schiet echt totaal niet op

Wel als je even een miljoen nas servers en een paar miljoen pc's besmet met mallware.
En dat is war er de laatste tijd nogal veel gebeurd.
Lijkt: (koppelwerkwoord) in schijn zijn: heel wat lijken eruitzien als iem. of iets van enige betekenis.
Dit was te verwachten, ik had een redelijke Nvidia maar deze was niet optimaal voor het minen ook niet voor scrypt, een 290x gekocht en voor een rig nog eens 4 meer. Dit is gewoon een hele mooie kans geweest en hebben ze veel aan verdient evenals de btc moederborden leveranciers met extra pci-e sloten. Laat staan de extra voedingen die gekocht zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True