Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

SiFive kondigt Performance P650-processor met maximaal 16 RISC-V-cores aan

SiFive heeft een nieuwe RISC-V-processor aangekondigd. De Performance P650 beschikt over zestien cores, die volgens de fabrikant 50 procent sneller zijn dan de voorgaande Performance P550-cores van het bedrijf. De P650 komt onder licentie beschikbaar.

Volgens SiFive is de Performance P650 bedoeld voor 'op prestaties gerichte gebruiksdoeleinden', zoals datacenters, edge computing, automotive en in mobiele apparaten. Het bedrijf deelt geen concrete specificaties, maar meldt dat de P650-architectuur configuraties met maximaal zestien cores ondersteunt. Gebruikers kunnen daarnaast meerdere Performance P650-chips gebruiken binnen een systeem. Het bedrijf meldde eerder al dat de komende chips gecombineerd kunnen worden in clusters met 128 cores.

Het bedrijf meldt verder dat het Performance P650-ontwerp voortbouwt op de bestaande P550-architectuur. De fabrikant claimt dat de P650 ipc-verbeteringen van 40 procent biedt ten opzichte van de P550. SiFive noemt geen concrete kloksnelheden voor de P650, maar meldt wel dat deze hoger zijn dan die van zijn voorganger. SiFive suggereerde eerder dat de P650 een boostclock van maximaal 3,5GHz krijgt, terwijl de P550 op maximaal 2,4GHz draait. Met deze hogere kloksnelheden zou de P650, samen met de ipc-verbeteringen, ongeveer 50 procent beter presteren dan de voorgaande P550. SiFive claimt dat de P650 hiermee 'de snelste licentieerbare RISC-V-core' is.

SiFive schrijft daarnaast dat de Performance P650 een 64bit-ontwerp heeft. De chip biedt daarnaast ondersteuning voor virtualisatie en de hypervisor-extensie voor RISC-V. Het bedrijf brengt begin volgend jaar een 'architecture preview' uit voor zijn lead partners. Uitgaande van de P650-productpagina, lijkt dat een zogeheten rtl te betreffen, oftewel een register transfer level. Daarmee kunnen gebruikers de P650-cores nabootsen en evalueren. Beschikbaarheid voor andere klanten volgt medio 2022. De chief technical officer van SiFive houdt een keynote over de Performance P650 tijdens de RISC-V Summit 2021, die tussen 6 en 8 december plaatsvindt.

SiFive Performance P650-ontwerp
Het ontwerp van de Performance P650. Bron: SiFive

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

04-12-2021 • 15:02

41 Linkedin

Submitter: TheVivaldi

Reacties (41)

Wijzig sortering
In het jaar 2000 zeiden ze ... RISC CPU's zijn de toekomst en gaan alles veranderen! Gaat die moment dan toch nog komen (binnen dan nog eens x aantal jaar) ?

Kort na het jaar 2000 niet veel meer van gehoord... Laatste jaren haalt dit wel meer en meer het nieuws!
Bijna alle CPUs zijn RISC. Ook X86 wat een CISC architectuur heeft wordt op de backend omgezet naar een RISC instructieset (MicroOps).
Instructies van een programma zijn nog steeds 'complex' dwz dat 1 instructie meerdere taken moet doen, bv waarde ophalen uit geheugen, en dan optellen bij waarde in het register. Alle moderne cpu's kappen dergelijke 'complexe' instructies in stukken, en voeren iedere stap appart aan als instructie. (ALU,APU,...) Deze 'vertaalstap' kost tijd, maar het CPU ontwerp kan veel efficiënter, en het voorspellen van een volgende stap word gemakkelijker. Complexe instructies zijn uitgevonden, omdat er vroeger weinig geheugen was en eenvoudige compilers. Extra nadeel van x86 is dat instructies niet allemaal even lang zijn. Je moet dus bijhouden hoe lang een instructie is. Bij ARM zijn alle instructies even lang. RISC V en Arm zijn dan beide 'risc' maar totaal anders. ARM is ook uitgebreid met complexe instructies, omdat dat soms voordelig is.
Het is iets te simpel om te zeggen dat de variabele-lengte x86 instructies een nadeel zijn. Het maakt de instructie-cache efficienter: je kunt meer x86 instructies kwijt in 32 kB L1C.

Om die reden heeft ARM dus de "Thumb" mode uitgevonden, waarin de instructies korter zijn dan in de normale mode. Dat waren dus wel minder krachtige instructies. Dat geeft aan hoe groot het voordeel is: ARM had twee (!) instructie-sets op dezelfde CPU, en twee decoders, puur vanwege de geheugenwinst. (Tot AArch64, waar Thumb weer geschrapt werd, omdat 3 ISA's op een chip echt teveel was)
Aan de buitenkant zijn het dezelfde CISC instructie CPUs sinds de originele 8086 maar in de CPU worden deze CISC instructies omgezet naar RISC (achtige) instructies (MicroOps).
Elke CPU heeft micro-operations. Dat maakt het nog geen RISC.

De definitie van wat CISC of RISC is gewoon heel erg fuzzy, maar het zegt uiteindelijk of je een complexe of simpele (reduced) ISA hebt. x86 is wat dat betreft gewoon CISC en niets anders, maar Intel en AMD hebben in hun processors (die x86 implementeren) intern extensies die je RISC zou kunnen noemen.

Alles, ook de RISC instructions, worden echter via een control unit omgezet naar Micro-operations.
x86 is al een hele tijd een reeks RISC cores die gevoed worden vanuit een translated CISC -> internal RISC. en de Internal RISC via Control-unit naar hardware.

RISC / CISC onderscheid is niet zo fuzzy. (dat zijn architectuur definities).
CPU realiteit is wat anders.
De snelheidsvermeerdering "Wet van Moore" is niet meer te halen uit kleinere transistoren.
Je hebt een spoorbreedte van meerdere 10 tallen atomen breed nodig anders werkt het niet zo betrouwbaar meer. (het gemiddelde gedrag van elektronen overdracht moet in stand blijven).
Om toch sneller te gaan werken zijn in de CPU's extra functies toegevoegd als Vector (SIMD) processor, (4-16 breed), Bij CISC systemen niet zo moeilijk een 10 tal instructies erbij is ook maar 1 a 2 procent meer instructies. Bij RISC is het wel een dingetje. (anders soortige registers andere verwerking).
En maakt een RISC systeem meer CISC.

Een redelijk vlotte RISC-V (tot een 4-tal cores) is te realiseren met een FPGA van redelijk beperkte omvang (in hobby bereik), met een X86 gaat je dat niet lukken.
Tijdens een Hardware builders conference kreeg je een dual-core RISC-V op de badge, in de FPGA source kon je dat opwaarderen tot 4 cores.

Maar RISC/CISC is helemaal niet waar het om gaat. Het grote probleem zijn ontwikkelings kosten.
Een nieuwe X86 kost een EUR 100+M ontwikkeling.

Een nieuwe RISC-V variant een manweek oid. voordat je kan verifieren in een FPGA. en als die goed werkt maak en een masker voor silicium. kosten voor een CPU EUR 1-10M (dat kan evt. mee met een testrun waarbij diverse projecten op een wafer gezet worden).

Daarnaast zijn de rechten issues killing. Je hebt al heel snel met 10-tallen rechthebbenden te onderhandelen als je een X86 look alike wil maken. (niet alleen Intel/AMD voor instructies maar ook andere zaken als een bepaalde pipeline etc.).
RISC-V is opensource hardware... dwz. je mag net als bij Linux/BSD-unix het ontwerp maken op basis van gepubliceerde info en daarop voortbouwen.
Er zijn ontwerpen beschikbaar, juist in de onderzoekswereld (universiteiten etc) zijn dit heel belangrijke zaken.

Meer info:
https://www.youtube.com/watch?v=hF3sp-q3Zmk
https://www.microcontroll...86-whats-the-diKfference/

Edit: typo's
ARM is ook RISC voor de goede orde. Het is gewoon een architectuur dat tegenover CISC(Intel, AMD) staat. RISC-V maakt RISC CPUs. En RISC CPUs van ARM zijn de norm as het gaat om CPUs voor smartphones.

[Reactie gewijzigd door sjors_w op 4 december 2021 15:32]

AMD en intel CPUs zijn onderliggend ook risc cpus?
Yep. Door de bank genomen wel.

[Reactie gewijzigd door Sandor_Clegane op 5 december 2021 09:50]

Het is er al: de M1 van Apple.

ARM's zijn ook RISC.

[Reactie gewijzigd door YStec op 4 december 2021 15:31]

Wat maakt de M1 dan zo speciaal dat die maakt dat het 'er nu is'....

ARM is al een >decennium lang beschikbaar van verschillende producenten, maar als Apple het doet is het beter ofzo?
Eerste op de consumer markt met performance die vergelijkbaar is met x86.

Op de server markt kon je al veel langer arm cpus krijgen.
Wat een onzin. Er zijn al meer dan genoeg laptops die ARM draaien. Daarnaast zijn smartphone SOCs amper verschillend van desktop/laptop CPUs behalve de thermische limitaties.

En als ze al op de server markt bestaan lijkt het me duidelijk dat ARM ook geen limitatie is qua performance. Het enige verschil is dat fan boys dit natuurlijk weer ophypen alsof het speciaal is wat ze doen.
Er is nochtans geen enkele andere arn chip in een laptop die zelf in de buurt komt van de performance van de M1
Omdat daar toevallig niet de focus ligt van de producenten.

Ik kan met poep een schilderij maken, dat maakt het echter niet iets wezenlijk anders dan elk ander schilderij met verf. Daarmee bedoel ik niet te zeggen dat die M1 chip poep is, alleen dat tussen twee performance uiteinden in gaan zitten die al lang bestaan niet betekend dat het ook maar een beetje bijzonder is.
Dan hebben die producenten een fout gemaakt met daar niet hun focus te leggen en is het heel innovatief van apple om dit wel te doen. Hierdoor hebben ze een uniek product op de markt gezet waar geen enkele andere producent iets vergelijkbaar kan tegen zetten.
Innovatie zit hem niet in het uitvinden van nieuwe technologie, maar door deze op de juiste manier in te zetten.
Laten we alsjeblieft niet gaan overdrijven. Ze hebben een andere instructieset gekozen die al een eeuwigheid bestaat.

M1 is een ARM architectuur gefocust op desktops en laptops. Apple kan dat doen omdat ze hun eigen ecosystem (Hardware + OS) volledig beheren.

Maar het blijft een SoC design met net even een andere optimalisatie focus als de concurrentie met dezelfde instructieset en er is niets innovatiefs aan. Als je er al iets van kan zeggen is het dat het geen enkele kans maakt om x86-64 te vervangen vanwege de keuzes van Apple:

Het geheugen is geïntegreerd op de package en niet upgradable, de GPU is geintegreerd en niet upgradable
snap niet wat de upgrade mogelijkheden hier mee te maken heben, het aantal comsumenten dat een laptop open doet om het geheugen te upgraden is verwaarloosbaar, single soc architectuur is gewoon de toekomst van mobiele computing en miscchien zelf voor comsumenten apperatuur in het algemeen. Ook AMD en Intel gaan die richting uitgaan.

Door te kiezenvoor die andere architectuur hebben ze een innovatief eind product, namelijk een krachtige laptop met lage batterij die ook nog eens fluisterstil en licht is, dat ze dit enkel kunnen doen omdat ze hun eigen ecosysteem hebben en dat ze hiervoor geen nieuwe technologie hebben moeten uitvinden, maakt het niet minder innovatief.
Apple innovatief, goede grap!

Dat de M1 het goed doet is anders toch minstens voor de helft aan TSMC te danken en de zak geld die het krijgt van Apple, en niet aan Apples innovatie.

De M1 is de eerste laptop CPU die gebruik maakt van TSMC N5.

Intel klooit nog op een 10nm procedé (bijna?) zonder EUV, gelijkwaardig aan TSMC N7 van 3 jaar geleden. AMD zit ook op dat proces van 3 jaar geleden. Zelfs als Apple de M1 door de sociale werkplaats hadden laten ontwerpen waren ze dankzij TSMC onderhand nog concurrerend geweest.

Dat Apple als eerste het nieuwe proces heeft, danken ze aan hun geld maar ook vooral aan een of andere president die Huawei de nek om heeft gedraaid. Apple, Qualcomm en Intel legden het steeds meer af tegen Huawei, het bedrijf dat wereldwijd de meeste patenten aanvraagt. Huawei zat als enige bedrijf eerder op EUV dan Apple; en gezien ze wereldleider patenten zijn waren ze ook het enige bedrijf geweest dat Apple voorbij had gestreefd qua chip-ontwerp. Qua 5G deed Huawei dat natuurlijk sowieso al; Apple stond erbij en keek ernaar.

De Mate 30 haalde nog net de iPhone 11 niet een; had het nog een jaartje langer geduurd had Apple de prestatie-kroon verloren.

Dus innovatief is vooral hoe de gevaarlijkste concurrent onschadelijk werd gemaakt, via de politiek in plaats van concurrerend op de vrije markt.

Verder is de M1 vooral zo goed vanwege de integratie van de verschillende onderdelen (SoC), en dat heeft dan weer weinig met de CPU te maken.

[Reactie gewijzigd door kidde op 5 december 2021 01:16]

Apple is de eerste die een totaal eind product als dit op de markt zit en deze technologie op de juiste manier inzet voor laptop => dit is de innovatie, al de rest wat je zegt zijn gewoon excuses.
Dit trouwens getypt van een thinkpad t480, dus niet dat ik 1 of andere Apple fanboy ben.

[Reactie gewijzigd door maevian op 5 december 2021 18:58]

Innovatie is als je in 2011 een ARM laptop op de markt zet die sneller is dan x86:

http://armdevices.net/201...version-of-the-xo-laptop/

Of in 2009 een ARM laptop met losklikbaar toetsenbord zodat je een tablet hebt (1 jaar eerder dan de iPad!) en waarvoor je telefoon als inklikbare computer kan dienen, en dat gemaakt door 1 solo-Fransoos zonder geld:

https://venturebeat.com/2...s-amazing-can-it-deliver/

Om in 2021 een ARM laptop te maken, is > 10 jaar na dato; dankzij geld en heeft natuurlijk weinig met innovatie te maken. De ARM-laptop weg is al 12 jaar door kleinere relatief arme bedrijven geplaveid (hoewel Huawei er ook weer tussen zat zie ik net).

http://armdevices.net/category/laptops/

Enige wat Apple doet is het beste van die twaalf jaar pakken en combineren, en op het nieuwste proces uitbrengen waar de armere spelers nog geen toegang tot hebben.

Het is niet per sé dat Apple het zo goed doet, Huawei is gewoon politiek ten gronde gericht en Qualcomm kan dat prima zelf* (Intel ook en heeft daar niet eens ARM voor nodig). Dus Apple innoveert matig, ten opzichte van hun budget stelt het weinig voor; terwijl de rest gewoon zichzelf ten gronde richt.

* https://semiaccurate.com/...napdragon-series-8-gen-1/

Alleen AMD en Mediatek blijven rechtopstaan**, en dat zijn qua geld lullige bedrijfjes vergeleken met Apple. Het enige dat Apple wel innoveert en echt zeer goed doet en grotendeels zelf is packaging, dat is zeer zeker wel het vernoemen waard.

Misschien het vernoemen waard: De M2 gaat wel zeer innoverend zijn heb ik begrepen, de M1 is dus meer een pipecleaner.

**Net gevonden: Het relatief kleine Mediatek beweert dat het ze gelukt is een SoC te maken die gelijk presteert als de 2021 iPhone en eind Q1 komen die smartphones op de markt. Dus als Mediatek ook Windows SoCs gaat maken wordt het misschien nog wat, en kennelijk hebben ze TSMC ook een grote zak geld gegeven, want ze zijn eerder met 4nm dan Apple.

https://m.gsmarena.com/me...nm_process-news-51909.php

[Reactie gewijzigd door kidde op 5 december 2021 23:14]

Die 'innovatieve' producten dat je hier vernoemd waren praktisch amper bruikbaar mede door een gebrek aan software. Het is mede doordat Apple de M1 laptops kan integereren in een bestaand ecosysteem in combinatie met een verwonderlijk goede x64 emulatie voor bestaande software, wat deze laptops direct praktisch bruikbaar maakte voor consumenten zonder kip-ei verhaal.

Dat is waar de innovatie hem zit, de M1 is opzich zelf als chip misschien niet zo innovatief, maar de M1 + M1X laptops als geheel zijn dit wel. De eerste zijn met technologie maakt je in mijn ogen geen innovator, deze als eerste implementeren in een geweldig product is de echte innovatie.
Dat is geen innovatie, dat is evolutie. Het is voortbouwen op wat je al hebt.

Sorry, maar het feit dat Aple macOS ook voor ARM kan compileren is niet innovatief. De x64 emulatie is niet innovatief, Apple heeft dat nota bene zelf eerder laten zien met de overstap van Power naar Intel.

Het is allemaal oude wijn in nieuwe zakken met een Apple design sausje.
Ik denk niet dat je hun software genoeg credit geeft. Mede door b.v. de Rosetta compiler kan men de overbrugging naar ARM maken met een redlijke tussenstap.

Het integreren van producten is een kunst op zich. Leuk dat iemand ooit een vierkant wiel heeft gemaakt, dat laat inderdaad zien dat er mogenlijkheden zijn, maar dat zou nog steeds een onbruikbare versie van het wiel zijn.
Het artikel ging over hardware, te weten RISC V, en de discussie ging over de M1.

Dus ik probeer de discussie nog enigszins op hardware te focussen ;) Als we het over software zouden hebben en on topic willen blijven zou het moeten gaan over de kans dat iOS voor de Apple horloge (hoe heet dat ding) op RISC V gaat draaien, net zoals andere horloges al doen. Volgens mij moet dat met LLVM lukken.
M1 chips worden gebruikt in Apple instap laptops en in de 24" instap Imac's. (ook Mac Mini), M1 chips zijn de eerste "smart phone chips" die in Desktop computers en laptops worden gebruikt.

Apple heeft ruim een maand geleden M1Pro en M1Max geïntroduceerd:

M1; 8 x LPDDR4 lanes, tot 8 GPU cores

M1Pro: 16 x LPDDR5 lanes, tot 16 GPU cores

M1Max: 32 x LPDDR5 lanes, tot 32 GPU cores

En ze hebben allemaal "unified memory" => geheugen dat tegelijk door de CPU en GPU kan worden gebruikt.

Deze chips verbruiken minder energie, en hebben daardoor een langere accu-duur.


Niet gerelateerd, de snelste supercomputer (in Japan) gebruikt ook ARM architectuur.

[Reactie gewijzigd door obimk1 op 4 december 2021 20:48]

In het jaar 2000 zeiden ze ... RISC CPU's zijn de toekomst en gaan alles veranderen! Gaat die moment dan toch nog komen (binnen dan nog eens x aantal jaar) ?

Kort na het jaar 2000 niet veel meer van gehoord... Laatste jaren haalt dit wel meer en meer het nieuws!
Niks meer van gehoord? Je hebt smartphones en tablets helemaal gemist? Die draaien voornamelijk op RISC (meestal ARM) en ze hebben alles veranderd. Dus ja: RISC was de toekomst en heeft alles verandert. Tenzij je niet verder kijkt dan alleen het Windows doosje op je bureau.
Zoiets... Mja, de eerste jaren was het toen wel stil... Tot als de eerste Apple IPhone kwam zeker... 2007 ... Maar nu pas sinds Apple M1 en voorheen Nvidia waren nog geen al te krachtige bekende Risc CPU's die het nieuws haalde.

Vond mobiel/tablet op de laatste jaren na niet vergelijkbaar met die Windows doosjes... en zeker niet i.c.m. met de betere aparte GFX kaarten. Ok totaal ander prijskaartje en energieverbruik... dat wel.
Je hebt echt veel gemist. In de jaren 90 waren er al de PowerPC (die Apple tot 2005 gebruikte) en de Alpha en MIPS processoren die in high-end workstations gebruikt werden. Dat waren in hun tijd monsters. Intel heeft die race gewonnen doordat ze gewoon veel meer geld in ontwikkeling konden investeren en ook door RISC-technologie in hun eigen ontwerpen te verwerken. Daardoor is het onderscheid tussen RISC en CISC op de desktop vervaagd.

Als ARM vergelijkbaar was geweest met Intel dan was er ook niets veranderd. ARM heeft de hele mobiele revolutie mogelijk gemaakt juist door dat andere prijskaartje en het energieverbruik.
M1 CPU's zorgen niet voor een revolutie. Dat is gewoon een andere CPU op de desktop die meer van hetzelfde doet. De revolutie is allang geweest en draait iOS of Android.
ARM heeft de hele mobiele revolutie mogelijk gemaakt juist door dat andere prijskaartje en het energieverbruik.
Behalve dan dat je ook gewoon op Intel Atom gebaseerde smartphones kon kopen die niet bizar veel meer kosten, of enorm veel meer verbruiken of veel slechter presteren. Ofwel ook zonder ARM was de vooruitgang onder de smartphones waarschijnlijk niet veel anders geweest.
Euhm, die paar veredelde pilotprojecten met Atom-CPU's in smartphones en tablets presteerden wel degelijk minder; prestaties waren hoogstens gelijk aan even veel kostende ARM-varianten (vaak zelfs minder), om over thermische situatie en accuduur nog maar te zwijgen.
x86 in die tijd was gewoon niet je-van-het qua verbruik/prestatie-verhouding. Het resultaat van een jarenlange blinde race naar de top, verbruik is een stuk minder erg als je aan een stopcontact vastzit en/of actief kan koelen.
We komen nu pas op het punt dat x86-64 een beetje geoptimaliseerd raakt voor dat soort usecases, en zelfs dan zeg je nog 'u' tegen ARM-cpu's, vooral qua idle-verbruik. Standbytijd van smartphones is niet iets waar x86-64 bij in de buurt komt zonder bijna volledig uit te schakelen, waar smartphones gewoon low-power doordraaien.
Vergeet niet dat ARM ook RISC cpu's heeft. Alleen gebruiken zij een andere ISA. Als je op die manier naar de aantallen kijkt (elke mobiel heeft een of meerdere RISC processors) dan is die voorspelling uit 2000 aardig uitgekomen.
Daarvoor hadden ze het over transputers als ik naam goed herinner. Die zouden pas de toekomst worden ook nooit meer wat van gehoord.
RISC is een ontwerp principe voor processors en komt van IBM, die rond 1980 de eerste processor daarvoor maakten (801), en later de ROMP processor voor hun RISC PC (RT PC), de meeste processor fabrikanten maakten hun eigen op rics principes gebaseerde processors ook rond die tijd
Eigenlijk was de 6502 ook al een soort risc processor, waarvan sommige sterke punten min of meer model hebben gestaan voor de ARM architectuur.van de eerste ARM chip (welke de 386 op verschillende punten toen al versloeg).
Sifive is niet afkomstig uit china, dacht uit frankrijk zefls...
SiFive zit in Silicon Valley... Amerikaans dus.
En ik ga per direct zoveel mogelijk aandelen kopen bij de IPO. :)

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True