Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: AMD voert overnamegesprekken met fpga-fabrikant Xilinx

AMD is volgens The Wall Street Journal in vergevorderde gesprekken met Xilinx voor een overname. Dat Amerikaanse bedrijf is marktleider op het gebied van fpga's, een markt waarin AMD nog niet actief is. Het overnamebedrag zou mogelijk meer dan 30 miljard dollar zijn.

De deal zou volgende week al beklonken kunnen worden, schrijft Wall Street Journal. De krant baseert zich op anonieme bronnen die bekend zijn met de overnamegesprekken. De gesprekken tussen AMD en Xilinx zouden recent hervat zijn, nadat ze eerder vastliepen. AMD en Xilinx hebben niet gereageerd op de berichtgeving.

Xilinx is in 1984 opgericht en bracht als eerste een field-programmable gate array op de markt. Fpga's zijn programmeerbare chips, die onder andere in datacenters, bij communicatienetwerken en bij industriële en wetenschappelijke toepassingen worden gebruikt.

In het afgelopen financiële boekjaar had Xilinx een omzet van 3,16 miljard dollar. Het bedrijf is de grootste leverancier van fgpa's wereldwijd. Volgens cijfers van Gartner had Xilinx in 2019 een marktaandeel van 51,1 procent, gevolgd door Intel met 35,8 procent. Intel stapte vijf jaar geleden in de markt voor fgpa's, door Altera over te nemen voor 16,7 miljard dollar.

Als de overname van Xilinx doorgaat, zal het de grootste overname van AMD ooit zijn. Tot nu toe is dat de overname van ATi Technologies, waar in 2006 een bedrag van 5,4 miljard dollar voor werd neergelegd.

Tweakers publiceerde in september een achtergrondartikel over fpga's.

Insteekkaarten van Xilinx met fpga's

Door Julian Huijbregts

Nieuwsredacteur

09-10-2020 • 09:49

67 Linkedin

Submitter: VoDkA12

Reacties (67)

Wijzig sortering
FPGA's zijn de toekomst zeker nu in de toekomst steeds meer chips door FPGA kunnen worden vervangen. Uiteindelijk is dat goedkoper ik kan me voorstellen dat delen van een cpu vervangen door een FPGA chip heel veel voordelen kan opleveren ook met achteraf code vervangen. Ik hoop dat AMD iets creatiefs gaat doen met deze aankoop en niet alleen hun branche uitbreiden met FPGA chipjes.
FPGA's zijn super voor prototypes en kleine oplages, maar in grote aantallen zijn 'dedicated' chips nog altijd superieur in zowel kost als performance/verbruik verhouding.

Het voorbeeld dat je geeft over een CPU, wel dat is reeds lange tijd het geval en dat heet microcode, dat is een stukje programmeerbare logica in de CPU vergelijkbaar met een FPGA.

Ik kan verkeerd zijn, maar ik zie niet direct het aandeel van FPGA's groter worden in de toekomst. Uiteindelijk worden ze toch vervangen door chips zodra iets een succes wordt. Kijk maar naar crypto-mining hardware dat van CPU naar GPU naar FPGA naar Dedicated Chip ging.
Maar ik vraag me wel af of sommige dingen (lang niet alles dus) niet verplaatst kunnen worden naar een FPGA naast de CPU en GPU.

Neem bijvoorbeeld games waar nu nog bepaalde dingen door de CPU worden gedaan, ik kan mij voorstellen dat het later misschien zo zal zijn dat bij het opstarten van een spel de FPGA even wordt geprogrammeerd met dingen specifiek voor dat spel. Hierdoor kan de CPU ontlast worden met 'specialistische' hardware.

Ik ben een leek op dit gebied hoor, maar het klinkt plausibel dat met wat doorontwikkeling en coördinatie met softwarebouwers nog wel het eea aan winst te boeken valt.
Voor gametoepassingen heb je eigenlijk al de GPU die gespecialiseerd is in al die dingen die je normaal in een FPGA zou steken bij gebrek aan een GPU. De GPU is dus eigenlijk reeds het resultaat van jouw idee.

Voor andere toepassingen (wetenschap, cryptografie, AI, ...) zou het mogelijk wel interessant zijn.
Ik bedoel vooral dingen waar we nu wellicht nog niet zo aan denken. Neem AI bijvoorbeeld. Dit was een poos geleden een ding dat puur door de CPU gedaan moest worden, nu heeft de GPU er speciale units voor. Maar dit kan omdat AI in elk spel zo'n beetje wel een rol speelt.

Ik kan mij zo voorstellen dat game-makers nu dingen door de CPU laten doen die voor elke game net even anders is (ik kan natuurlijk geen voorbeeld verzinnen), maar waarbij ze beperkt zijn door de kracht van de CPU.

Als het mogelijk zou zijn om een FPGA te kunnen programmeren bij het opstarten van je game (of je foto-/videobewerkingstool, mediaplayer, textverwerker, whatever), dan kun je daarmee wellicht de hardware specialistischer gebruiken en daardoor performance winnen.
Ik bedoel vooral dingen waar we nu wellicht nog niet zo aan denken. Neem AI bijvoorbeeld. Dit was een poos geleden een ding dat puur door de CPU gedaan moest worden, nu heeft de GPU er speciale units voor. Maar dit kan omdat AI in elk spel zo'n beetje wel een rol speelt.
Klinkt heel logisch maar in de realiteit is dit niet aan de orde. Games draaien hun 'ai' niet op de GPU. De RTX serie gebruikt 'ai' om technieken als DLSS mogelijk te maken (upscaling).
Nog een leek hier, maar zou het een toevoeging kunnen zijn op een apu door cpu en/of gpu gedeeltelijk te ontlasten?
Dat idee bestaat al jaren, vroeger bij de 386 had je al een co-processor.
Een processor om bepaalde specifieke taken uit te voeren om de processor te ontlasten.
De GPU is ook uit dat idee voortgekomen.
Wat een FPGA juist interessant maakt is het stukje "Programmable" in de naam en het is de vraag of dat nuttig is als toevoeging voor een "normale pc".
De hardware in een pc is namelijk al flink toegespitst op eigen taken (gpu, netwerkchip, geluidschip, etc), want dedicated hardware is altijd sneller dan een "algemene" processor.

Waar ik voordelen in zie is in een systeem dat verschillende workloads aan moet kunnen en waarbij FPGA's optimaal programmeerbaar zijn voor een specifieke workload, soort van programma-afhankelijke programmering. Bij foto- of videobewerking een andere programmering dan bij games bijvoorbeeld.
Ahh, vandaar. Bedankt voor de uitleg!
'dedicated' chips (ASICSs) maken op steeds kleinere procedés wordt steeds duurder, het kantelpunt in aantallen dat je moet produceren om rendabel te blijven om van CPU/GPU/FPGA/DSP naar ASIC over te stappen ligt steeds hoger. Als de markt van het product dat je maakt niet zo groot is kan het zijn dat het nooit rendabel is. De vergelijking zal dan gaan tussen een ASIC op een oud procedé en een FPGA op een nieuwer, en het zou kunnen dat de FPGA dan toch wint.

Ook mis je flexibiliteit met een ASIC, AMD zou een FPGA naast hun processor kunnen zetten die je dan kunt gebruiken voor wat je wilt, dat kunnen ze enkel doen voor heel specifieke ASICs.

Microcode is helemaal niet vergelijkbaar met een FPGA aangezien het zeer gelimiteerd is in wat het kan doen en als gebruiker kun je er helemaal niets veranderen.
Ja of de markt is wel groot, maar de wensen binnen die markt zijn wellicht veelzijdiger. Stel even dat elke console (waar er dus heel veel van gemaakt worden) naast de CPU, GPU en Audio processor ook een redelijk formaat FPGA aan boord zou hebben waar de devs zelf mee kunnen beslissen wat ze daarmee willen.

Ik kan mij goed voorstellen dat hier heel creatieve dingen uit gaan komen.
Het aandeel van FPGA's is de laatste jaren enorm toegenomen.

Azure, AWS, Google Cloud hangen alle 3 vol met FPGA's. Ik weet van Microsoft dat ze al een aantal jaar op elke server die ze vervangen in hun datacenters, een FPGA toevoegen. Welke een eigen netwerkaansluiting hebben en onafhankelijk van de rest van het systeem taken kunnen uitvoeren. Microsoft gebruikt het bv voor Bing searches, netwerkverkeer en veel semi-background tasks.

In deze scenario's voegen ASICS niet zo heel veel toe en een partij als Microsoft heeft meer dan genoeg taken te verwerken die veel beter via FPGA's verwerkt kunnen worden dan door een X86 of ARM CPU en door het dynamische aansturen er van, ook goed kunnen schalen.

Zo heeft hebben de cloud providers heel goedkoop enorm veel verwerkingskracht kunnen toevoegen aan hun datacenters.

https://www.microsoft.com...project/project-catapult/

[Reactie gewijzigd door batjes op 9 oktober 2020 15:11]

Het verschil met een CPU is wel dat deze nog steeds een pipeline heeft, en met geheugen te maken heeft.

Een FPGA is superconcurrent, en heeft geen last van allerlei synchronisatie stappen tussen de vele IO die het op exact hetzelfde moment aan kan sturen.

[Reactie gewijzigd door RuudAnders op 9 oktober 2020 12:11]

Microcode is niet hetzelfde als een FPGA architectuur. Microcode is de firmware. Daar haal je fouten uit voor het aansturen van de hardwarelaag. Een FPGA chip doet heel wat anders, en de integratie van een FPGA laag in een cpu zou zeker wel iets toevoegen.
In mijn werk in de industrie zie juist wel.een toenemende interesse in fpga's. Wij zien projecten die we eerder met industriële pc's invulden steeds vaker vervangen worden door fpga systemen, maar, niet altijd met succes. Het programmeren is complex en de inflexibiliteit laat het uiteindelijk toch regelmatig floppen. Maar, onder aan de streep is het een opkomende markt....
FPGA's is een kwestie van constante en variabele kosten: De variabele kosten liggen bij een FPGA-implementatie stukken hoger dan bij een gespecialiseerde chip. De constante kosten om een chip in produktie te nemen zijn evenwel hoog, als je er geen miljoenen van kunt verkopen, is het simpelweg economisch niet te doen om een gespecialiseerde chip te ontwikkelen. Dat is waar FPGA's om de hoek komen kijken: Hoewel het relatief dure chips zijn, koop je ze toch zo van de plank en met een FPGA van twee tientjes kun je best wel wat bouwen en dan heb je ook echt maar die twee tientjes uitgegeven in plaats van de zak geld om een gespecialiseerde chip te ontwikkelen.

De processoren die wij in onze computers gebruiken worden evenwel in de tientallen miljoenen geproduceerd, dus ik zie daar niet snel FPGA's verschijnen.
Als je elke paar maanden een ASIC upgrade nodig hebt, of als eindgebruiker wilt kunnen wisselen tussen functionaliteiten kan een FPGA nog wel eens heel handig blijken.... Ik zie wel wat in een FPGA chiplet als toevoeging aan een processor, of aan een GPU. Kun je achteraf functionele units als tensor cores, raytracing cores of zoals al vermeld nieuwe functionaliteiten tovoegen aan je product.
Op papier heb je gelijk. Maar in de praktijk valt het soms heel erg tegen. Zo las ik pas een verhaal over Nokia die in hun 5G Radio FPGAs gebruiken i.p.v. softwarematige aansturing. Uiteindelijk werd het veel duurder en veel minder flexibel dan wat de concurrentie levert. Je moet dit echt van applicatie tot applicatie heel goed onderzoeken.
waarin verschillen deze chips met NodeMCU's?

@pe0mot @Oguz286 @Evinyatar @TommyboyNL @Rannasha Bedankt voor de verheldering!

[Reactie gewijzigd door domi1kenobi op 9 oktober 2020 12:10]

Een CPU heeft een klok nodig, kent vaste instructies en registers en doet alles in een aantal klok tikken.
Een FPGA is een grote plak met veel poortjes. Doet niks en kan niks. Statisch dus.
De poortjes en hun onderlinge verbindingen kun je programmeren. Hierdoor krijg je een slim ding.
Als je wil kun je ook een extern kloksignaal toevoeren en dan kun je een CPU achtig ding maken of emuleren.
Voordeel van een FPGA is dat je niet meer praat over miliseconden, maar nano of pico. Retesnel dus als je hem goed programmeert en aanstuurt/uitleest. Ook is in rust het energieverbruik super laag.
Nadeel is dat je moet vertellen wat hij kan en wat hij moet doen. Vooral het eerste is een uitdaging.
Een ander nadeel is de prijs, vaak duurder dan CPU's met grote volumes.

Edit: typo's, nadelen, voordelen

[Reactie gewijzigd door pe0mot op 9 oktober 2020 10:47]

Niet alleen de snelheid is een voordeel.

Een CPU verwerkt alle data in packetjes. Een FPGA kan data streamend verwerken. Wat in nogal wat toepassingen een heel erg belangrijke eigenschap is.
PC's kunnen ook streamend werken alleen is dat niet echt efficient dus worden blokken geheugen gebruikt en je moet tegenwoordig al bijna op kernel niveau zitten om zoiets nog op een PC te doen. Een FPGA heeft bijna geen overhead en kan idd veel beter streamend werken, zeker voor netwerken een groot voordeel aangezien dat de latency verlaagd. Maar als het dan heel vaak nodig is dan kan je er beter weer een ASIC(eigen chip ontwerp) van maken om de laatste overhead er ook uit te krijgen.
ASIC heeft als nadeel dat je het in principe maar "1 keer kan programeren" en het dus alleen geschikt is voor een hele specifieke taak.

Zo'n datacenter heeft niet constant X aantal verzoeken voor dat, Y aantal packetjes per seconde over kabeltje Z etc. Dat schommelt behoorlijk en is nog regio afhankelijk ook. De ontwikkeling voor optimaler gebruik van netwerk resources of iets vrij simpels als de Bing zoekopdrachten staan ook niet stil. Ook heb je met FPGA's veel meer toekomstige flexibiliteit. De eisen zijn veel te dynamisch en maakt het gebruik van ASICs ongeschikt. Zal niet snel goedkoper zijn om voor al die taken ASICs in te zetten en dan loop je ook veel sneller tegen schalingsproblemen aan.

Beetje wij van WC-Eend, maar Microsoft geeft met Project Catapult aan dat ze hun FPGA's +/- net zo efficient hebben werken als een ASIC.

https://www.microsoft.com...project/project-catapult/
MSR proved that FPGAs could deliver efficiency and performance without the cost, complexity, and risk of developing custom ASICs.
Dank voor de toelichting, idd een FPGA is makkelijker te aan te passen als de load veranderd of als een programmeur een beter algoritme verzint. Ik bedoelde de ASIC ook meer voor de langere termijn als je een grote groep FPGA's een aantal jaren niet meer ge-herprogrammeerd hebt dan zou je daar over na kunnen denken. De kosten voor een ASIC zijn inderdaad de belemmerende factor, dus je zal dan ook op zoek moeten gaan naar iets wat breed inzetbaar is. Maar je kan het vast ook wel combineren, een deel ASIC en de rest weer als FPGA uitvoeren, zoals nu ook al gebeurt met CPU's en andere onderdelen in de FPGA.
Dank batjes, terechte aanvulling.

Een cpu kan ook foutloos streamen als je NMI interrupts gebruikt, maar dat is meer misbruiken. :X

[Reactie gewijzigd door pe0mot op 9 oktober 2020 22:15]

Met alle respect voor de auteur van het artikel, maar ik vond het een eenzijdig stuk voor Altera. Het is ook een moeilijk onderwerp met veel historie dat moeilijk (samen) te vatten is. Tip: kijk naar whitepapers op de websites van Xilinx en Altera voor een goed overzicht.

Kijk dus naar: https://www.xilinx.com/su...igation/white-papers.html

(ps. Ik wil dus niemand bashen)
In vrijwel alles.

NodeMCU is een firmware voor ESP8266 microcontrollers, wat simpele processortjes zijn, met wat IO functionaliteit. De operaties die zo'n apapraat kan uitvoeren liggen vast. Net als bij een AMD of Intel CPU.

FGPAs zijn apparaten waarbij de gebruiker zelf alle basislogica kan configureren. Je kunt een gewone processor "simuleren" op een FPGA of het ding juist configureren voor razendsnelle signaalverwerking. Zie ook het artikel van Tweakers of FPGAs dat in het nieuwsbericht is gelinked.
Een NodeMCU is een processor waarop je zelf geschreven software kan draaien. Een FPGA is een bak gates waarop je zelf geschreven hardware kan draaien.
Een NodeMCU is en ontwikkelbord met een ESP8266 microcontroller en wifi. Xilinx maakt FPGAs, dat zijn chips die intern heel veel configureerbare cellen hebben waarmee je allerlei soorten digitale logica kunt bouwen. Het verschil met niet-FPGAs (ASICs) is dat hardware in ASICs vast is, waardoor ze vaak veel sneller en zuiniger zijn, maar dus niet configureerbaar. Die ESP8266 is bijvoorbeeld een ASIC. Het voordeel van FPGAs is dat je geen miljoenen/miljarden hoeft uit te geven om een ASIC te bouwen en het testen van nieuwe hardwareimplementaties gaat ook veel sneller.
Met welk geld gaat AMD dit financieren?
Waarschijnlijk zullen ze dit grotendeels via hun eigen aandelen proberen te financieren. Die zijn momenteel namelijk extreem hoog gewaardeerd.
Je stelt deze vraag alsof je weet dat AMD er financieel slecht voor staat. Ik ben wel geïnteresseerd in waarom je dit weet/denkt. heb je hier bronnen voor?
Van hun eigen cash en assets kan AMD deze overname niet doen:

https://www.nasdaq.com/market-activity/stocks/amd/financials

Ik verwacht dat AMD deze overnamepoging grotendeels via een aandelenruil zal proberen te doen.
Geld lenen is nu ook goedkoop.
Dus dat zullen ze ook wel doen.
Geld is alleen goedkoop als je een goede creditrating hebt. En is ook heel erg afhankelijk van de regio.
Op hun lopende krediet betaalt AMD momenteel 7.5% rente. En hun kredietrating is niet zo heel geweldig:

https://ir.amd.com/financial-information/credit-rating

30 Miljard USD is 50x de jaarwinst van AMD, dus als ze dit bedrag willen lenen stort hun kredietrating helemaal in elkaar.

AMD's aandelenkoers is daartegen extreem hoog gewaardeerd: dus als jij AMD was, waarmee zou jij willen betalen? :)
AMD zijn vooruitzichten zien er goed uit. Het valt op de Intel geen antwoord kan bieden aan AMD (op korte en zelfs mid lange termijn) waardoor hun verkopen en marktaandeel enkel maar zal stijgen (lovende reviews, meer OEM's die AMD terug omarmen, next gen spelconsoles met AMD cpu's,...).
Voorts weet AMD natuurlijk ook hoe hun roadmap eruit ziet en wat ze nog achter de hand hebben. Gezien ze al roadmaps tonen van hun toekomstige 5nm cpu's kunnen ze perfect gokken dat Intel nog enige tijd achter zal blijven. Met hun nieuwe gpu's weet enkel AMD op dit moment hoe "goed" ze presteren tov NVIDIA concurrent.

Als bedrijf kan je de overname dan doen in aandelen. Je bedrijf wordt meer waard met zo'n overname dus stel je meer aandelen beschikbaar. Hun aandeel zo maar eventjes 4x de waarde van 2 jaar geleden.
Hoeft AMD zelf waarschijnlijk niet te financieren, maar alleen onder AMD`s naam.

AMD is ook maar eigendom van investeerders, hoogst waarschijnlijk zien die investeerders het zitten om AMD en Xilinx samen te voegen.

AMD zou op dit moment nog niet echt geld genoeg moeten hebben om deze transactie te doen, hoewel het nu wel erg goed gaat met AMD, vooruitzichten zullen ook erg goed zijn.

Terwijl de hele wereld industrie wel een erg grote klap gaat krijgen de komende paar jaar door de lockdown, daarom zal uitsluitend via de aandelen route imho niet genoeg zijn om Xilinx te kopen, dat is teveel op beloften/speculatie gebaseerd.
Voorzover Xilinx een andere hoofdinvesteerder heeft als eigenaar zal die toch een significante portie in hard waarde materiaal willen hebben.
Dat hoeft niet per se met geld te zijn. AMD kan dit financieren door nieuwe aandelen uit te geven en die aan de huidige shareholders van Xilinx te geven. Zie deze link voor een opsomming van hoe overnames vaak gefinancierd worden.

Overnames kunnen ook deels met cash en deels met nieuwe aandelen gekocht worden, zoals Facebook & Oculus. Dat was met $400M cash en $1600M aan aandelen.
Wow had niet verwacht dat Xilinx interesse had in een overname...zou wel betekenen dat ook in de FPGA wereld Intel en AMD recht tegenover elkaar staan.

[Reactie gewijzigd door Clemens123 op 9 oktober 2020 09:55]

gezien het feit dat de gesprekken eerder waren vastgelopen was die er ook niet, misschien dat de berg geld het enige smeermiddel was om de boel weer op gang te trekken
Gezien de recente stappen van Nvidia en de eerdere stappen van Intel lijkt het wel een logische stap om samen de datacenter markt open te breken.
Ze kunnen zelfstandig waarschijnlijk niet lang meer verder net als Altera dat ook niet kon. Zowel Xilinx en Altera kunnen lang niet tegen Nvidia gpu’s op, in vrijwel alle opzichten.

Fpga’s zijn alleen nog zinvol in specifieke niches maar op de meeste gebieden door gpu’s ingehaald.
Dit moet ik toch tegenspreken, de meeste GPUs verbruiken een stuk meer is en je hebt ook een compatibel systeem nodig (waar de drivers op draaien). Een FPGA kan je daarom veel zelfstandiger inzetten (op custom PCBs), bovendien heb je veel IO ter beschikking en is het verbruik geringer (uiteraard ook de prestaties in termen van TFlops, maar niet alle toepassingen hebben dit nodig). Uiteindelijk zijn een GPU en FPGA verschillend genoeg dat je voor beide heel veel toepassingen hebt.

[Reactie gewijzigd door Clemens123 op 9 oktober 2020 16:19]

Qua flexibiliteit heb je gelijk. Dan kun je beter een x86 cpu met grafische kaart gebruiken. Maar, in mijn werk zie ik toch best veel projecten slagen met fpga's. Voorwaarde is een heel specifieke taak en een team goede programmeurs.
AMD ziet wat hun CPU's betekenen ten opzichte van intel.

En gaan daarom ook maar markten binnentreden waar ze het Intel lastig maken.
AMD innovatie bovenop 51,1 marktaandeel kan dit bedrijf heel sterk maken!

Ben benieuwd wat voor positief effect dat heeft op de rekenkracht van universiteiten/wetenschappelijk onderzoek, wat bij sommige modellen enorm veel vereist!
AMD ziet wat hun CPU's betekenen ten opzichte van intel.
Nee, dat is niet wat er nu gebeurt. Investeerders zien AMD nu als meer waarde hebben, waardoor AMD uberhaupt een gesprek aan kan gaan over een bedrag van $30 miljard. Een jaar geleden waren de aandelen van AMD dat niet eens samen waard. Heck, Xilinx was toen meer waard dan AMD.
Dat gaat interessant worden:
  • Spelers: AMD en nvidia
  • Overnames in de pijplijn: Xilinx en ARM
  • Common components: Xilinx gebruikt ARM cores in hardware (zynq en versal)
  • Gezamelijke markten voor Xilinx en nvidia: Cloud, next-gen networks, AI/ML
Ik weet niet of het echt een pijnpunt is, maar Xilinx heeft een enorme dependency op licenties voor ARM-cores. AMD tegen iedereen (nvidia, Intel (incl. Altera)) :)
Zou dit kunnen betekenen dat wij in de volgende series van GPU's van AMD er een fpga-optie erbij krijgen voor een bepaalde edge? Zoiets als CUDA of met AI?
Het zou kunnen, maar ik zou het niet vanzelfsprekend vinden: Voor KI is de GPU de juiste architectuur, je kunt het weliswaar ook op FPGA doen, maar een GPU doet het beter en efficiënter. Ook voor 3D-grafica is niet direct noodzaak aan FPGA, dus ook hier geen reden om een deel van de chip te reserveren voor een FPGA.
Denk dat AMD ook vooral diverser wilt worden. Met ARM in de opmars voor laptop en (misschien ook zelfs) desktop CPU's ziet AMD zijn markt kleiner worden.
Uiteraard niet voor morgen maar de verkoop van computers is ook al een lange tijd geen groeimarkt meer. Mensen doen zeer lang met een computer en met AMD dat goede krachtpatsers beschikbaar stelt ga ja natuurlijk als koper ook langer doen met een pc (voor standaard pc werk was eigenlijk mijn nog maar recent vervangen 12 jaar oude Intel Core 2 Quad eigenlijk prima).

Wel positief dat AMD de cpu's bezorgt voor de game consoles, maar ik zou gokken dat de winstmarges hierop een pak kleiner zijn als losse cpu's. Onderhandelen met Microsoft en Sony voor een gigantische afname zal de druk op de ketel zetten.
Een Nederlands FPGA bedrijf heeft mij nog ooit proberen te strikken, maar het was hun bedoeling dat ik hen zou betalen om voor de eer en het genoegen voor hun te mogen werken, ipv dat zij mij ervoor zouden betalen. Heel dikke *nee*, dus. Het werk kan nog zo leuk zijn, ik wil ook eten...
Geniaal! Ik vraag me af of ze medewerkers gevonden hebben.

Trouwens, voor ons is het grappig... Maar in sommige artiestenberoepen is dit dus normaal... Toch wel hard.
Van die artiesten klopt het wel. Die investeren om muziek en films te maken die wij dan weer downloaden zonder te betalen.
Lol, name and shame? Wat ik als ontwikkelaar wel veel zie zijn banen van van 4-5k per maand bij huizenprijzen van 500k+ maar toe betalen om te mogen werken nog niet. Wel heel Nederlands.

Als gpu ontwikkelaar heb ik ook een keer een project met fpga’s gedaan. Was geen succes en heeft veel geld gekost. Ik snap dat bedrijven voorzichtig zijn met investeren in fpga’s maar bedrijfsrisico op personeel afwentelen is niet erg netjes.
Ik ga niet namen en shamen. Het incident van dat voorstel voor die baan met bijbetaling van enkele duizenden per maand was pakweg 7 jaar geleden, en geen idee hoe het bedrijf er intussen bijloopt. Wie weet zijn ze wel wat bijgedraaid sindsdien.

En met 500k+ heb je wel een erg hip huis hoor.
Naja, als ze dat net zo opensource vriendelijk maken als de rest van hun spullen kan ik alleen maar voor zijn.
Ook benieuwd wat ze kunnen doen met die FPGAs in hun CPUs, dikke datacenter processing units van AMD ipv Intel zou toch weer een mooie stap verder zijn voor AMD en voor de markt zelf, nu is Intel letterlijk nog de enige daar en ze draaien iedereen vol de poten uit als je er iets van wilt hebben.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Black Friday 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True