Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: TCMagazine, submitter: tweakernick

De introductie van Intels Nehalem-architectuur staat gepland voor de tweede helft van 2008, maar moederbordfabrikanten krijgen in oktober al de beschikking over samples van Nehalem-processors.

Intel-logo nieuwe stijlVolgens bronnen van TCMagazine maakt Intel haast met de uitrol van Nehalem-processor, de 45nm-cpu die is gebaseerd op een nieuwe platformarchitectuur. Intel zou al in oktober testexemplaren klaar willen hebben en deze de deur uitdoen naar moederbordfabrikanten, terwijl de officiŰle introductie pas een jaar later gepland is. De fabrikanten krijgen zo meer duidelijkheid over de architectuur die Conroe moet opvolgen. In juni werd al bekend dat Intel Nehalem voorziet van een seriŰle point-to-point-bus om meerdere processors met elkaar te laten communiceren. Ook werd duidelijk dat de quadcore-Nehalem die bekend staat onder de naam Bloomfield, een ge´ntegreerde triplechannel-geheugencontroller met ondersteuning voor ddr3-geheugen krijgt. Het is de bedoeling dat de snelheid van de Bloomfield boven de 4GHz komt te liggen, zo bleek in december. De samples die in oktober gereed moeten zijn, zullen op kloksnelheden opereren die een stuk lager liggen, maar mochten de tipgevers van TCMagazine het bij het rechte eind hebben, dan geeft Intel AMD een krachtige waarschuwing .

Moderatie-faq Wijzig weergave

Reacties (58)

AMD heeft de slag tegen de Core 2 architectuur verloren.

AMD heeft in het tweede kwartaal van 2007 6 miljoen usd verloren en dat kan natuurlijk niet langer doorgaan.
Ik verwacht dat de Penryn architectuur de genadeklap aan AMD zal geven.
Als Intel daarna de Nehalem vervroegd op de markt los laat (bedrijven kopen toch wel) blijft er weinig van die 20% marktaandeel van AMD over.
AMD heeft de slag tegen de Core 2 architectuur verloren.
Dat valt opzich best wel mee.
Op desktop gebied zijn de Core 2 Duo's in de bovenkant van de markt heer en meester, en de Core 2 Quad's maken het duidelijk af.

Echter op server gebied vallen de prestaties van Intel al een tijdje wat tegen, en de Core 2 Duo's zijn pas net op weg om de oude Xeon's te vervangen. In het "High-end" segment zijn het nog steeds veredelde P4's die ook nog eens matig schalen.
AMD doet het veel beter met hun point 2 point architectuur, en is vanaf 4 sockets de betere. En zelfs bij 2 sockets wint Intel het alleen maar omdat ze een Quad hebben en AMD niet.

De core van Intel is nu prima, en daar zal AMD binnenkort een leuke core tegenover zetten die weer mee kan groeien met het tempo van Intel. Maar Intel zal toch ook flink aan de architectuur er omheen moeten werken, want anders dan komt Intel daar klem te zitten tussen een goed schalende AMD en IBM en anderen die af en toe een brute processor afleveren.
Als Intel echter met hun CSI de slag kan slaan die AMD met de Opteron heeft kunnen doen kan het wel erg moeilijk worden voor AMD, maar zonder CSI is alles met meer dan 1 socket een probleem voor Intel.

[Reactie gewijzigd door TheGhostInc op 7 augustus 2007 16:45]

Je hebt een aantal goede punten (o.a. over het 4S-segment), maar de markt spreekt voor zich: het aandeel van AMD in servers is in een jaar tijd gehalveerd van 25,9% naar 12,8%, terwijl de gemiddelde verkoopprijs van een Opteron ongeveer 12% gedaald is. Dat vind ik niet 'best wel meevallen', dat is gewoon een ernstige terugval. Barcelona zal vrijwel zeker voor een opleving zorgen, maar of ze ooit weer hetzelfde niveau zullen bereiken met Penryn en Nehalem op de stoep valt te betwijfelen.
In het segment tot de Athlon X2-6000 is AMD op prijs/prestatiegebied nog steeds de beste. Alleen als je meer rekenkracht nodig hebt (voornamelijk voor games of andere zware software) of als intel nog een ronde flinke prijsverlagingen doet en AMD niet, komt intel in de buurt. Waar koop je voor 25 euro ex BTW een fatsoenlijke (dus geen VIA ofzo) desktop CPU? Juist, bij AMD.
Het probleem is nou net dat AMD die absurd lage prijzen (van o.m. 25 euro) van hun CPU's niet oneindig lang kan volhouden.

Er moet dus wel degelijk iets komen. Niet zozeer om Penryn met 'n kluitje in 't riet te kunnen sturen, maar meer om het gevaar dat Nehalem is.

Nehalem heeft namelijk alles in zich om AMD in 'n hoekje te dringen. Specificaties zeggen niets, maar vanaf 't papier wordt dat ding echt een beest, wat alles wat ervoor is uitgekomen doet verschrompelen. Voor consumenten, bedrijfsoplossingen en supercomputers..

Ik hoop dat AMD weer een sprong kan maken zoals ooit met Athlon64 (Hammer). Zoals het er nu op papier uit ziet gaan ze die sprong namelijk nog hard nodig hebben. En niemand gaat er wat aan hebben als Intel weer de totalitaire keizer in 't x86 CPU rijk wordt
Ik verwacht dat AMD weer terug komt in de rol die ze vroeger hadden: laten opboksen tegen de low-end segmenten van Intel.
6 miljoen amar. dat valt mee als ik zie wat ze daarvoor verloren..
bron?
Voor de duidelijkheid de belangrijkste verschillen tussen Penryn en Nehalem samengevat:

- Ge´ntegreerde geheugencontroller met ondersteuning voor 3x DDR3 of 5x FBD2
- CSI (opvolger FSB, vergelijkbaar met HyperTransport)
- Terugkeer van HyperThreading
- Gedeeld L3-cache voor quadcores
- Ge´ntegreerde GPU (optioneel - antwoord op Fusion voor AMD het zelf heeft ;))
- Nieuwe sockets B (LGA1366) en H (LGA715)

Dat dit alles goed op schema loopt is erg positief nieuws voor Intel, want met name in de servermarkt zal Penryn verbleken bij dit ding.

[Reactie gewijzigd door Wouter Tinus op 7 augustus 2007 15:14]

die geintegreerde GPU is een wassen neus natuurlijk, dat is puur en alleen voor de kosten besparing (geen losse chip meer nodig in servers) want veel rekenkracht zal de CPU er niet aan kunnen ontlenen(het hele idee van fusion), en veel meer als beeld weergeven kan het ook niet.
dus totaal niet,.op wat voor manier dan ook, te vergelijken met fusion.

edit : fusion gaat toch echt wel meer beiden in de toekomst hoor.
de CPU gaat dan ook gebruik maken van de rekenkracht van de ge´ntegreerde GPU om bepaalde taken uit te voeren om maar wat te noemen.

[Reactie gewijzigd door Countess op 7 augustus 2007 16:12]

Die ge´ntegreerde GPU - zowel die van Nehalem als Fusion - wordt sowieso meer iets voor notebooks en low-budget desktops dan voor servers of gamers. Performance is dan lang niet zo belangrijk, want anders koop je wel een Úchte GPU.
edit : fusion gaat toch echt wel meer beiden in de toekomst hoor.
de CPU gaat dan ook gebruik maken van de rekenkracht van de ge´ntegreerde GPU om bepaalde taken uit te voeren om maar wat te noemen.
Het punt is gewoon dat iedere GPU die een beetje prestaties levert behoorlijk warm wordt en ook nog eens groot en duur is, wat je allemaal ofwel bij het TDP en prijskaartje moet optellen, ofwel bij het x86-gedeelte weg moet halen (ten koste van prestaties daar). Het beperkte nut van GPGPU is dat offer nu in ieder geval niet waard en ik denk persoonlijk ook niet dat het dat ooit wel wordt. Ik blijf er dus bij dat je voor fatsoenlijke prestaties (of dat nou voor games of GPGPU is) altijd aangewezen zult blijven op een externe chip. En ja, binnen een budget van 5W of 10W kan een Radeon misschien toch nog meer doen dan een Intel-chip, maar het is in beide gevallen drie keer niets vergeleken met andere oplossingen.

[Reactie gewijzigd door Wouter Tinus op 7 augustus 2007 16:33]

Hier zitten er veel fout, de fusion word een lijn en niet 1 chip, hij gaat zowel heel er veel rekenkracht krijgen en GPGPU en er kunnen naar verlang CPU's als GPU's toe gevoegd worden. Maar wordt ook voor de low end en EE markt gemaakt. De GPU's kunnen in SMP systeem gekoppeld worden aan elkaar.

De Fusion word heel erg flexibel. En word onwikkeld als kracht patser. ;) Niet als low end product.


En een relatieve kleine gpu is al tig keer sneller dan je cpu in FP berekeningen, daar kan een cpu nooit tegenop. Een ATI R580 op 32 nm is 8x kleiner dan dat hij oorspronkelijk was en daar hebben ze al 360Gflop weten te persen. slank hem wat af en je heb echt wel een hoop rekenkracht extra. :) Er kan natruurlijk ook nog een hoop uitgehaald worden wat niet meer van belang is.

[Reactie gewijzigd door mad_max234 op 7 augustus 2007 17:11]

En een relatieve kleine gpu is al tig keer sneller dan je cpu in FP berekeningen, daar kan een cpu nooit tegenop.
Het nadeel is dat het een stream-processor is.
Die heeft aan de ene kant enorme overhead om in gang gezet te worden (eerst programamatje inladen, input en outputbuffer klaarzetten, en dan gaan), en aan de andere kant is ie nogal beperkt omdat je in berekeningen dus niet de resultaten uit dezelfde stream terug kunt lezen.

Met een gewone FPU kun je gewoon een instructie direct verwerken, en de resultaten van de vorige instructie direct weer gebruiken.

Dit alles maakt een GPU maar zeer beperkt bruikbaar. In het ideale geval is ie inderdaad vele malen sneller... Maar voor zeker 90% van alle software is het gewoon niet interessant.
Maar het is ook niet voor iedereen intersant en zeker nu nog niet. Maar dat is Quad core ook nog niet waarvan 95% van de software er geen gebruik van maakt of bijna niet. ;)

En het hoeft ook niet voor ons (thuis gebruikers) bruikbaar te zijn, er kan gebruik van gemaakt worden het hoeft niet en zelfs aangepast worden naar de klant zijn wensen.

Zie het meer als een extra sterke FPU. En natuurkundige berekening gaan hier natruurlijk erg goed op doen. Denk dan aan spellen.
Maar het is ook niet voor iedereen intersant en zeker nu nog niet. Maar dat is Quad core ook nog niet waarvan 95% van de software er geen gebruik van maakt of bijna niet.
Dat is toch een ander verhaal, omdat iedere core op zich gewoon general purpose is.
Hier is de software de beperking, bij een GPU is het de hardware die gewoon niet alles (efficient) kan berekenen.
De potentiele toepassingen van een quadcore CPU zijn gewoon talrijker dan die van GPGPU-oplossingen.
En het hoeft ook niet voor ons (thuis gebruikers) bruikbaar te zijn, er kan gebruik van gemaakt worden het hoeft niet en zelfs aangepast worden naar de klant zijn wensen.
Ik moet nog zien of het interessanter wordt dan bv Cuda. Uiteindelijk gaat het om vooral bandbreedte en rekenkracht, en dat heeft een GeForce-kaart meer dan een onboard GPU met gedeeld systeemgeheugen.
Het voordeel van zo'n GeForce is dat het meteen ook een krachtige GPU is om grote datasets te visualiseren. Dat zal een onboard GPU niet redden.
Zie het meer als een extra sterke FPU. En natuurkundige berekening gaan hier natruurlijk erg goed op doen. Denk dan aan spellen.
Dat probeer ik nou juist net uit te leggen. Je kunt het niet gebruiken als een normale FPU (net zomin als Cuda).
Het heeft daarom ook weinig nut om het in een socket onder te brengen, laat staan in een CPU te integreren, omdat je sowieso flinke overhead hebt en aardig wat beperkingen qua mogelijkheden.
Het verschil met een GPU die op een PCI-e kaart zit, is verwaarloosbaar in veel gevallen. De GPU op een PCI-e kaart heeft zelfs een voordeel, omdat videogeheugen veel meer bandbreedte heeft dan normaal systeemgeheugen.

Alleen als je set berekeningen groot genoeg is, kun je de overhead maskeren.
Als je alleen 1+1=2 wilt berekenen zal een GPU vele malen trager zijn dan een CPU. Je zult dus sowieso een goede 'gewone' FPU moeten hebben. Het zijn twee compleet verschillende typen processors.
Je hoeft mijn niks uit te leggen, we zijn het dus met elkaar eens dat het een leuke aanvulling word op het FPU bewerkingen.

"Code die beter op de CPU draait zal door de CPU-core tot zich genomen worden, en hetzelfde geld voor code die beter op de GPU draait."

Dat is het mooi van de Fusion lijn, en er kunnen een combinatie van aantal GPU's en CPU per fusion chip verschillen.

1 gpu voor low end/mobile als GFX kaart
1 of meer GPU's als FPU voor high end workstation/gamers voor physics/ noem maar op.
1 CPU rest GPU voor wetenschappers.

Dan heb je toch een leuke flexibele chip in huis. En 1 teraflop aan FP berekening is zeker mogelijk.

[Reactie gewijzigd door mad_max234 op 7 augustus 2007 23:33]

Je hoeft mijn niks uit te leggen, we zijn het dus met elkaar eens dat het een leuke aanvulling word op het FPU bewerkingen.
Dat was dan ook niet het punt waarop ik inhaakte.
Jouw post deed het wel heel erg positief voorkomen, omdat je 'vergat' mede te delen dat die 'aanvulling' in zeker 90% van de gevallen niet eens een bruikbare optie is.
Dat het in de bruikbare gevallen een leuke aanvulling is, lijkt me nogal een open deur.
Het is net zoiets als de PhysX-kaart op dit moment. Leuk speeltje, maar de meesten vinden het niet bruikbaar genoeg om er geld aan uit te geven. Fusion zit ook in die hoek.
Nou dat was nooit mijn bedoeling, ik ging ervanuit dat iedereen hier wel zo ongeveer weet wat je met FPU kan berekenen.

GPGPU is toch al jaren in het nieuws.

Ja op het moment maar als het nu eens algemeen gaat worden, omdat intel dit misschien ook wel gaat doen. Physics kaart niet meer nodig, en game makers kunnen er vanuit gaan dat ieder nieuw systeem het kan draaien. :)

Andere software dev. kunnen daar ook vanuit gaan, dus wie weet wat dat allemaal niet gaat brengen.

Maar ja ik droom wel lekker verder, en we zien het wel tegen die tijd. ;)
Nou dat was nooit mijn bedoeling, ik ging ervanuit dat iedereen hier wel zo ongeveer weet wat je met FPU kan berekenen.
Nou overschat je de tweaker-gemeenschap toch wel flink.
We zijn hier niet allemaal programmeurs, laat staan van het type expert dat op instructie-niveau weet hoe een CPU of GPU werkt (dat je een stukje werkende code in C of Java kunt schrijven wil nog niet zeggen dat je ook weet hoe het uitgevoerd wordt, een groot probleem tegenwoordig... Veel programmeurs zien het als een black-box, en kunnen niet optimaliseren. De mensen die echt weten hoe een CPU en GPU werken, op het niveau dat ze kunnen inschatten hoe efficient software geimplementeerd kan worden, is maar een hele dunne toplaag).
Er zitten hier ook heel veel managers, systeembeheerders, hobbyisten, hardware-mensen etc.

Sterker nog, ik krijg bij jou ook niet echt de indruk dat je nou uit ervaring spreekt. Ik vind je positieve kijk op Fusion nogal naief, eerlijk gezegd. Iedereen die zelf al eens met GPGPU gestoeid heeft, zou (zeker met de argumenten van Wouter Tinus over het beperkte stroomverbruik en bandbreedte, en dus prestaties) moeten kunnen inschatten dat Fusion nooit zo heel spectaculair kan gaan worden, omdat het nog minder wordt dan het toch al niet zo spectaculaire GPGPU.
GPGPU is toch al jaren in het nieuws.

Ja op het moment maar als het nu eens algemeen gaat worden, omdat intel dit misschien ook wel gaat doen. Physics kaart niet meer nodig, en game makers kunnen er vanuit gaan dat ieder nieuw systeem het kan draaien.
Je zou hier je eigen conclusie al uit kunnen trekken. Er zijn behoorlijk wat mensen die een DX9-GPU hebben (ook veel onboard chips), die in principe prima geschikt is voor GPGPU-bewerkingen, en zelfs de traagste onboard-chip heeft nog meer FP-rekenkracht dan een CPU.
Toch zie je nog nergens applicaties die er gebruik van maken.
Ik denk niet dat Fusion dat ineens om gaat gooien, want in principe voegt Fusion weinig tot niets toe wat betreft GPGPU.

Ik ben het daarom ook met Wouter Tinus eens, het is vooral voor goedkope (mobiele) systemen bedoeld. GPGPU is niet meer dan een gimmick, waar de gewone gebruiker weinig mee te maken zal hebben.

[Reactie gewijzigd door ddbruijn op 8 augustus 2007 09:50]

Nou dan vind ik het erg gesteld met de programeurs want ik als amateur C++ weet het wel allemaal en ik vind dat je het ook niet weten hoe je code word verwerkt.
Je zou hier je eigen conclusie al uit kunnen trekken. Er zijn behoorlijk wat mensen die een DX9-GPU hebben (ook veel onboard chips), die in principe prima geschikt is voor GPGPU-bewerkingen, en zelfs de traagste onboard-chip heeft nog meer FP-rekenkracht dan een CPU.
Toch zie je nog nergens applicaties die er gebruik van maken.
Ik denk niet dat Fusion dat ineens om gaat gooien, want in principe voegt Fusion weinig tot niets toe wat betreft GPGPU.
Nee, maar er word ook hard gewerkt aan GPGPU door AMD en dan ook aan de software en ondersteuning. Dit soort dingen gaan nooit over 1 dag ijs. Dat weet je zelf ook wel, en dat het er gaat komen staat bijna vast.

Mompelt iets over DX11 en GPGPU. :)

Beetje kinderachtig om dat zo te brengen als je toch al weet dat het niet 1 2 3 te ontwikkelen valt, maar dat ze er wel hard mee bezig zijn. En ATI heeft al software ontwikkeld die je voor videobewerking kunt gebruiken.

En er is ook nog een hoek die het zelf ontwikkeld.

En er is wel degelijk al software ontwikkeld voor GPGPU, ik ken zo ongeveer 15 plaatsen waar ze GPGPU hebben gebruikt.

[Reactie gewijzigd door mad_max234 op 8 augustus 2007 13:50]

Nee, maar er word ook hard gewerkt aan GPGPU door AMD en dan ook aan de software en ondersteuning. Dit soort dingen gaan nooit over 1 dag ijs. Dat weet je zelf ook wel, en dat het er gaat komen staat bijna vast.
Er wordt ook buiten AMD om al jaren aan gewerkt. En er is weinig vooruitgang geboekt tot dusverre.
Mompelt iets over DX11 en GPGPU.
Ja, en denk eens na...
Hoeveel applicaties gebruiken DirectX? Buiten spellen zijn dat er maar heel weinig. Een 3d modeler hier, een videoprogramma daar...
GPGPU in DX zal niet ineens een revolutie veroorzaken waardoor alle applicaties DX gaan gebruiken. Het zal eerder gebruikt worden voor bepaalde dingen binnen spellen en vergelijkbare software, zoals 3d rendering, physics en dergelijke.
Je gaat echt niet ineens een GPGPU-geaccelereerde notepad krijgen ofzo.
Voor de meeste applicaties betekenen deze ontwikkelingen gewoon absoluut niks, en daarmee voor de meeste gebruikers automatisch ook.

Afgezien daarvan is DX11 prima geschikt voor alle GPUs, en zit dus niemand op zo'n Fusion-ding te wachten. Het voegt niets toe.
En er is wel degelijk al software ontwikkeld voor GPGPU, ik ken zo ongeveer 15 plaatsen waar ze GPGPU hebben gebruikt.
Je snapt mijn argument niet. Natuurlijk wordt er GPGPU gebruikt, ik schrijf het zelf ook. Punt is dat dat allemaal zeer specifiek toepasbare software is, waar de meeste gebruikers nooit iets van zullen zien.
Er zal geen 'killer app' komen waar GPGPU voor nodig is, laat staan dat men daarvoor de Fusion-technologie zal kiezen... dus economisch gezien zal het voor AMD weinig gaan betekenen.
Ja, en denk eens na...
Hoeveel applicaties gebruiken DirectX? Buiten spellen zijn dat er maar heel weinig. Een 3d modeler hier, een videoprogramma daar...
GPGPU in DX zal niet ineens een revolutie veroorzaken waardoor alle applicaties DX gaan gebruiken. Het zal eerder gebruikt worden voor bepaalde dingen binnen spellen en vergelijkbare software, zoals 3d rendering, physics en dergelijke.
Je gaat echt niet ineens een GPGPU-geaccelereerde notepad krijgen ofzo.
Voor de meeste applicaties betekenen deze ontwikkelingen gewoon absoluut niks, en daarmee voor de meeste gebruikers automatisch ook.
LoL een notopad op een GPU. Wie heeft het daarover ik niet? En is niet echt mogelijk maar dat weet je zelf ook wel. Maar het volgende is wel mogelijk.

Voor ons thuis gebruikers interessant

3d rendering
physics
Videobewerking
Audio bewerking
Foto bewerking
Digital signal processing

Voor de professionele markt

High-performance clusters (HPC)
Scientific computing
Bioinformatics
Medical imaging
Database operations
Computational finance

Heb er vast nog wel een paar gemist maar het is maar om een idee te krijgen wat er mogelijk is.

Dit word nu al allemaal toegepast en is al mogelijk. Toch leuk als je in een van deze dingen een flink boost krijgen. ;) En het hoeft niet altijd en voor iedereen nu te zijn.

Edit/
Oja de notpad kan gewoon op een van de vele CPU's draaien. ;)

"Code die beter op de CPU draait zal door de CPU-core tot zich genomen worden, en hetzelfde geld voor code die beter op de GPU draait."

[Reactie gewijzigd door mad_max234 op 8 augustus 2007 16:26]

Dit word nu al allemaal toegepast en is al mogelijk. Toch leuk als je in een van deze dingen een flink boost krijgen. En het hoeft niet altijd en voor iedereen nu te zijn.
Daar gaat het niet om.
Waar gaat het wel om:
Wat biedt Fusion boven specifieke hardware-oplossingen danwel GPGPU op een gewone videokaart of onboard GPU?
Ik kan niets bedenken.

Afgezien daarvan zal de professionele markt eerder voor een oplossing als Tesla gaan, omdat ze niet op een dubbeltje meer of minder hoeven kijken, en de prestaties gewoon veel hoger zullen liggen.
Voor de thuismarkt is er maar een hele kleine groep die zich met dergelijke dingen bezighoudt op een niveau dat een gewone CPU/GPU niet voldoende is. Vandaar ook dat er maar heel weinig software is die gebruik maakt van GPGPU.

Kortom, je snapt het niet. Je zit over GPGPU te zeuren, terwijl we het hier over Fusion hebben.
Er zijn sowieso GPGPU-oplossingen die sneller zijn dan wat Fusion wordt, ook van AMD zelf. Dus zelfs al zou GPGPU een succes worden (waarover we kennelijk van mening verschillen), dan nog impliceert dat geenszins dat er vraag naar Fusion gaat komen.
We wachten wel af, en voordeel van fusion zou kunnen zijn dat de eindgebruiker niet hoeft na te denk wat voor een code waar het best kan draaien. En dat dev. ervan uit kunnen gaan dat er 1 inzit en gebruikt kan worden. Als intel dit nu ook doet en ze stemmen het op elkaar af kan het nog wat worden.

En zeuren? Kan je niks beter bedenken? 8)7 En ik snap het niet laten we het daar maar op houden. LoL :D

GPGPU achtige cpu's gaat zeker nog van zich laten horen. Fusion is nog maar het begin, denk nog maar eens aan deze discussie terug als het zo ver is. :)
We wachten wel af, en voordeel van fusion zou kunnen zijn dat de eindgebruiker niet hoeft na te denk wat voor een code waar het best kan draaien.
Dat hoeft de eindgebruiker toch sowieso niet?
Ook dingen als MMX, SSE, mutithreading en de features van GPUs worden automatisch gedetecteerd en ingeschakeld waar het kan.
En dat dev. ervan uit kunnen gaan dat er 1 inzit en gebruikt kan worden. Als intel dit nu ook doet en ze stemmen het op elkaar af kan het nog wat worden.
Voorlopig kan dat dus niet, omdat er nog jarenlang hardware in omloop is zonder Fusion.
En ik denk ook niet dat Intel, als ze al zo'n technologie ontwikkelen, compatible gaan zijn met AMD.
Wat dus waarschijnlijk inhoudt dat Fusion een zelfde lot krijgt als 3DNow!, puur vanwege het veel grotere marktaandeel van Intel.

Je voordelen zijn niet heel overtuigend, zeker niet voor een consument.
En ik snap het niet laten we het daar maar op houden.
Daar ben ik van overtuigd ja.
GPGPU achtige cpu's gaat zeker nog van zich laten horen.
Waarom 'zeker'? Ik heb je nog geen enkel argument horen geven voor Fusion boven een losse GPU, terwijl er al genoeg argumenten genoemd zijn ten nadele van Fusion.

Voorlopig lijkt het me nog niet eens zeker of Fusion de markt uberhaupt gaat halen (binnen een tijdsbestek dat het nog interessant is dan... als ze er te lang over doen is de technologie achterhaald en kunnen ze opnieuw beginnen). AMD heeft immers nogal wat zorgen op het moment.

[Reactie gewijzigd door ddbruijn op 9 augustus 2007 16:31]

De Fusion word heel erg flexibel. En word onwikkeld als kracht patser. ;) Niet als low end product.
Er is een heel groot verschil tussen wat AMD op een paar PowerPoint-slides voorspiegelt als mogelijkheden en wat realistisch is vanuit een marketingstandpunt. Ik zie nul vraag naar een of ander 300W monsterding met high-end processor en high-end videochip dat nˇg trager is dan twee losse - en dus ook makkelijker up te graden - componenten. Want denk je dat HyperTransport sneller is dan 512 bits GDDR5 videogeheugen? Ik niet. Mark my words: Fusion wordt mobiel/budget/htpc, niets meer, niets minder.

[Reactie gewijzigd door Wouter Tinus op 7 augustus 2007 22:08]

@Wouter Tinus
Uhm zoek maar eens op wat AMD tot nu toe naar buiten heeft gebracht.

En hij word 120w tdp max. ;)

[Reactie gewijzigd door mad_max234 op 7 augustus 2007 23:30]

@Wouter Tinus
Uhm zoek maar eens op wat AMD tot nu toe naar buiten heeft gebracht.
LOL, misschien moet je dat zelf eerst maar eens doen: "Optimized for mobile and mainstream desktops".

En dat is toch echt het eerste en enige concrete Fusion-product dat is aangekondigd. Bovendien heb je zelfs met 120W nog lang niet genoeg om over een "high-end" product te kunnen spreken. Alleen een high-end processor gebruikt al zoveel, dus wat blijft er dan nog over voor de high-end grafische core die erbij hoort? En nogmaals: waar haalt een Fusion-processor de >100GB/s vandaan die nodig is om die high-end grafische core te voeden? Het antwoord is simpel: nergens, want het is en wordt geen high-end.

[Reactie gewijzigd door Wouter Tinus op 7 augustus 2007 23:41]

Fusion is een lijn en niet 1 product. :) En wie heeft het over een high end GPU, ik heb het over een High end product en misschien komt ook wel eerst de low end, maar dat zou niet AMD zijn als ze niet eerst de Opteron markt gaan bedienen. (Daar zijn ze ook heer en meester, en dat willen ze denk ik wel zo houden)

http://img373.imageshack....09/amdfusion1thumbqi5.jpg

http://cdnet.stpi.org.tw/techroom/images/eecomputer_072.jpg

http://big5.ccidnet.com:8...chment/2007/8/1154015.jpg

En ik zoek elke dag, hoef je mijn niet te vertellen. Wel als je iets interessant heb dan laat ik me graag de les lezen. ;)

En let vooral op dit plaatje. Palmtop to Petaflop
http://media.bestofmicro....1/original/AMD-ATI-40.jpg
En dat is toch echt het eerste en enige concrete Fusion-product dat is aangekondigd. Bovendien heb je zelfs met 120W nog lang niet genoeg om over een "high-end" product te kunnen spreken. Alleen een high-end processor gebruikt al zoveel, dus wat blijft er dan nog over voor de high-end grafische core die erbij hoort? En nogmaals: waar haalt een Fusion-processor de >100GB/s vandaan die nodig is om die high-end grafische core te voeden? Het antwoord is simpel: nergens, want het is en wordt geen high-end.
Je ziet het verkeerd, je blijft maar roepen dat ze echt geen high end GPU erin gaan stoppen. Nee natuurlijk niet, en is ook echt niet nodig. ;) Het word ook geen high end GFX kaart maar een soort van co processor om heel snel FP te berekenen en niet om High GFX te laten zien. Daarvoor moet je gewoon een lossen kaart kopen, en zou de interne gpu de physics kunnen doen of gewoon niks. Zoals je nu al sommige onderdelen niet gebruikt van je cpu.

[Reactie gewijzigd door mad_max234 op 8 augustus 2007 01:44]

Die slides zeggen helemaal niets, dat is gewoon ter illustratie van wat er allemaal mogelijk is met een modulaire ontwerpstrategie. De concrete productplannen die ik heb laten zien zeggen vÚÚl meer over wat Fusion in de praktijk gaat inhouden en daaruit valt makkelijk te concluderen dat een Nehalem met een crappy Intel-GPU grofweg dezelfde segmenten kan bedienen.
Het word ook geen high end GFX kaart maar een soort van co processor om heel snel FP te berekenen en niet om High GFX te laten zien.
Zo moeilijk is het toch niet om te begrijpen dat je om "heel snel FP te berekenen" precies dezelfde eigenschappen nodig hebt als om "High GFX" te laten zien? Zo'n Stream-processor is niets anders dan een R580 of een R600 hoor. Grote, lompe, warme, dure, bandbreedtemonsters. Neem zo'n GPU, deel de fysieke afmetingen door twee, de bandbreedte door tien en het stroomverbruik ook door tien, en je houdt iets over wat waardeloos is als co-processor (voor zover hij dat nu al niet is).
LoL, je hebt helemaal geen high end GPU nodig . 8)7 En vergeet niet dat ze op 32nm worden gemaakt dus zelfs de als je een High end GPU pakt van een paar generaties terug is hij al niet meer zo lomp als jij doet vermoeden. En nog steeds heel erg snel in FP bewerkingen.

Een IGP zou al veel sneller zijn in FP bewerkingen.

Zelfs die Intel IGP is heel erg snel in FP tov een high end CPU. ;)

En we zullen wel zien of ik gelijk heb, ter zijner tijd.

[Reactie gewijzigd door mad_max234 op 8 augustus 2007 13:42]

Het is toch niet zo moeilijk in te denken dat mensen die zo wanhopig op zoek zijn naar performance dat ze code voor een GPU gaan schrijven, ook het maximale terug willen zien van hun investering. Het zijn geen goedkope grappen om hier ontwikkelaars een paar weken of maanden mee op te zadelen. Na alle pijn en moeite van een overstap gaan ze dan ook echt geen genoegen nemen met IGP-prestaties terwijl er voor een schijntje (vanuit een bedrijf gezien) twintig keer snellere oplossingen op tafel liggen. Tijd om te optimaliseren boeit niet, want daar profiteren zowel IGPs als highend GPUs van.
Grote, lompe, warme, dure, bandbreedtemonsters.
Ze hebben nog heel wat tijd om dat te optimaliseren natuurlijk en ik denk dat elke cpu x86 cpu voorlopig verbleekt bij de kracht die die 320 stream processoren leveren. Het verschil zal in de toekomst zeker een stuk kleiner worden maar tegen die tijd zullen er ook betere, snellere en zuinigere gpu's door ATI zijn uitgebracht.

Ik ben erg benieuwd of je gelijk krijgt met je low end statement, ik denk sterk van niet...

FYI http://www.anandtech.com/...s/showdoc.aspx?i=2986&p=3
het is misschien nog ver weg maar ik ben erg geinteresseerd in die combinatie, zeker voor workstations.
Vooral DX11 gaan GPGPU naar de mainstream brengen, daar zitten speciaal API in die GP op de GPU zoveel makelijk gaat maken en we zijn dan ook niet meer afhankelijk van de GPU makers. DX9 en DX10 zijn hier gewoon nog niet echt geschikt voor, al weten ze nu al wel leuke ding te realiseren.

DX11 = GPGPU. ;)
De geintegreerde gpus zoals Intel ze heeft zijn natuurlijk lang niet te vergelijken met de veel sterkere gpus die ati (en daarmee amd) tot zijn beschikking heeft. Ik dacht dat Larabee het antwoord van Intel hierop zou worden.
Is die quad waar jij het over hebt native of een aan elkaar geplakte?

Ik dacht ook gelezen te hebben dat er octa's uitkomen o.b.v. Nehalem.

[Reactie gewijzigd door grizzlybeer op 7 augustus 2007 15:55]

Native quad. En het zit er dik in dat er ook octals komen inderdaad, dat zijn dan weer twee quads aan elkaar geplakt.

[Reactie gewijzigd door Wouter Tinus op 7 augustus 2007 15:59]

Tel daar hyperthreading bij op en je hebt 16 cores tot je beschikking.
@Smithers.83
HTT voegt een logische core toe, dit is heel iets anders dan een fysieke core.
8 fysieke cores met HTT maken dus nog geen 16 cores :)

@ddebruijn
de sun processoren naast deze mainstream intel gevallen zetten is natuurlijk appels en peren vergelijken. Dan kun je er ook wel de 320 stream processoren die AMD nu in een videokaart propt ernaast zetten.
Zet 2 Extreme octa's op een V8 bordje en je hebt 32 cores in je task manager.

Ik moet wel zeggen dat het een aanlokkelijk idee is. Excel of Matlab (die inmiddels beide (zouden moeten kunnen) multitasken) bijna een orde van grootte sneller dan nu.
16 native, of 32 halve core's met HTT. :)

AMD is met zijn K10 al bezig aan een octa core, en ik denk dat ze dit keer het trucje van Intel gaan gebruiken om twee quad cores aan elkaar te plakken.
ze gaan pas 2 shanghais aan elkaar plakken.. dus geen barcelona octo's ...
erg jammer want daarmee hadden ze zeker de performance kroon kunnen stelen..
( wieweet niet eens in games maar zeker qua patserigheid.. haha 4 cores ik heb er lekker acht ( en in 4x4 16))
Foutje

Ze zijn er wel mee bezig, en gaan dus 2 shanghai core's aan elkaar plakken.
16 native, of 32 halve core's met HTT.
Dan nog lopen ze achter, want van de week was er een bericht over Sun's nieuwe processor met 8 cores en 64 threads :)

[Reactie gewijzigd door ddbruijn op 7 augustus 2007 23:33]

Nog geen jaar geleden kwam de Core 2 duo uit, niet veel later de core 2 quad en achter een jaartje alweer een nieuwe. Tussendoor de Penryn nog eens, gaat dit niet wat snel?
In der tijd dat hier de Pentium 4 aangeschaft was, was deze al een jaar of 3 oud denk ik. En ik ken nog mensen genoeg die nog later een pentium 4 kochten. Dus dat ligt gespreid over een periode van meer dan 5 jaar. Ben benieuwd wie achter twee jaar nog een Core 2 Duo koopt (als deze drie jaartjes is).
Die vergelijking is niet helemaal juist. De Pentium 4 heeft ook vier belangrijke generaties gehad in vijf jaar tijd: Willamette (180nm), Northwood (130nm), Prescott (90nm) en Cedar Mill (65nm). Van de laatste twee zijn ook single- en dualcorevarianten geweest, en gaanderweg heeft men features als virtualisatie, 64-bit, hyperthreading, enz. toegevoegd. Dat men de merknaam steeds hetzelfde heeft gehouden wil dus niet zeggen dat de techniek niet steeds vernieuwd werd.

Dat gezegd hebbende heeft Intel de ontwikkelingen inderdaad wel in een stroomversnelling gegooid. In een poging om AMD eens en voor altijd achter zich te laten, willen ze nu ieder jaar een nieuwe generatie uitbrengen. Dus Conroe in 2006, Penryn in 2007, Nehalem in 2008, Westmere in 2009, Sandy Bridge in 2010, en wie weet wat er daarna nog komt. Dat zal idd. betekenen dat een specifiek product minder lang actueel blijft, maar zo heel veel anders dan vroeger is het ook weer niet.

[Reactie gewijzigd door Wouter Tinus op 7 augustus 2007 16:13]

Als je puur naar rekenkracht kijkt gaat het nu i.d.d. heel hard. Ongeloofelijk dat Intel al samples van Nehalem (3e generatie/revisie quad) gaat versturen binnenkort terwijl de huidige quad net betaalbaar is geworden.

Er zijn de afgelopen jaren (voordat de duals hun intrede deden) een paar perioden geweest waarin het minder hard ging met (de toename per tijdseenheid van) de rekenkracht dan het langjarige gemiddelde.

Nu zijn we de schade van de relatief lange periode waarin de 3 GHz P4 het snelst was weer aan het inhalen.
Even afgezien van de concurrentie tussen Intel en AMD. Dit is een grote stap voorwaarts voor Intel. Waar Intel tot nu toch nog steeds een gedeelde FSB gebruikte is er nu een point-to-point verbinding, hogere kloksnelheden dan ooit, meer geheugenkanalen dan gebruikelijk, ik vind het heel wat. De Core architectuur laat zich zien als een goed groeipad.

Wat Wouter zegt. O-)

[Reactie gewijzigd door PolarBear op 7 augustus 2007 15:30]

In het segment tot de Athlon X2-6000 is AMD op prijs/prestatiegebied nog steeds de beste. Alleen als je meer rekenkracht nodig hebt (voornamelijk voor games of andere zware software) of als intel nog een ronde flinke prijsverlagingen doet en AMD niet, komt intel in de buurt. Waar koop je voor 25 euro ex BTW een fatsoenlijke (dus geen VIA ofzo) desktop CPU? Juist, bij AMD.
Dat zijn allemaal technische feiten die je daar noemt, ja een X2-6000 is prijstechnisch beter dan de E6600 van intel. Maar iedereen koopt toch de E6600 als je de cijfers erbij gaat pakken dan zie je dat AMD duidelijk achteruit gaat qua marktaandeel. Of die X2-6000 in het midden segment nou prijstechnisch beter is of niet, door de quad-core van intel etc. denkt de gemiddelde concument dat intel "de beste" keus is. AMD moet proberen van die "slechte" naam af te komen, en zal dus met een rete snelle cpu op de markt moeten komen om de preformance kroon weer af te pakken. Dan zal AMD weer een betere naam krijgen tot die tijd koopt de "niets vermoedende" consument Intel.

Ik ben zelf fan van intel, maar hoop toch niet dat het een monopolie gaat worden, want dan zullen we terug vallen in het productie proces van 3 jaar geleden ofzo. Dan zullen de ontwikkelden minstens 2 keer zo langzaam gaan, en wij die van nieuwe techniek houden zien zoiets liever niet gebeuren. Dus go AMD :)

[Reactie gewijzigd door The_Nizzle op 7 augustus 2007 19:55]

Mocht Penryn niet de nekslag zijn voor AMD, dan wordt Nehalem het wel.
Wat dus, iets anders verwoord, in het artikel staat:
De samples die in oktober gereed moeten zijn, zullen op kloksnelheden opereren die een stuk lager liggen, maar mochten de tipgevers van TCMagazine het bij het rechte eind hebben, dan geeft Intel AMD een krachtige waarschuwing .
Het is geen vriendelijke waarschuwing van "Pas op er komt een auto aan", maar "We gaan verder vooruiit dan jullie" .
Wat loopt iedereen maar stom te speculeren hoe snel Nehalem word. Tuurlijk word ie snel maar wie weet hoe snel de nieuwe cpu van AMD wordt op 45nm volgend jaar.

Nekslag... denk eerder dat je je nek breekt over stome reacties.
Dat jij het risico niet ziet voor AMD betekend niet dat de rest van de wereld zich kop in het zand moet steken.

Ik hoop van harte dat de nieuwe CPU van AMD alles voorbij fietst want dat zal ook nodig zijn om ze echt goed in deze markt te houden, het enige alternatief is namelijk drastisch bezuinigen of ze gaan ten onder.

En wie wil er nu een 2e VIA in de markt???

(Als via een high end CPU neer kon zetten zou ik dat trouwens ook vol lof toezingen en blijdschap uitstralen over de wereld.)

Punt is AMD gaat dit zo niet lang meer volhouden op deze manier dus je kan wel blij worden van de prijsdalingen maar als het voor een van de 2 concurrenten slecht afloopt zijn de prijsdalingen maar tijdelijk.
En het blijft maar harder gaan, ik hou wel van concurrenten races!

We worden er beter van prijs gewijs en de technologie + het onderzoek ernaar gaat tenminste vooruit.
Als je ziet is de prijs van een CPU met meer dan 50% gezakt. Nu kan je al een serieus monster voor 1000Ą in elkaar steken waar je een jaar geleden toch prestaties/geld gewijs meer voor nodig had.
[doomdenkmode]
Ja maar helaas kan concurrentie ook 'moordend' zijn!
Ik vind het prachtige wat Intel en AMD maken, maar ik hoop dat beide spelers wel in de markt blijven. Want zoals je zelf al zegt, helpt dit ons(de consument) in prijs en technologie.
[/doomdenkmode]

Maar ik denk niet dat AMD zo snel van de markt zal verdwijnen ;).

* XTREEMRaGE is geen fanboy, ik koop wat voor mij het beste is/uitkomt :P
Hier komt de Shanghai tegenover te staan, ik vrees het ergste voor AMD. Al wisten ze het al langer dat dit een probleem ging worden.
Wat een hoop onzin reactie's hier (waaronder de mijne). "De genade slag" "mocht... niet de nekslag zijn dan zal .... het wel zijn"

Wat een onzin. Geef mij eens een hard bewijs dat AMD/ATI failiet zou gaan nadat Intel met hun proc. op de markt komen?

Intel is wel heel dom bezig om zoveel te investeren in zo'n korte tijd terwijl ze nu toch achterover zouden kunnen leunen m.b.t. het op de markt brengen (achter de hand houden), want AMD heeft toch geen antwoord? Of zou deze stroomversnelling ergens anders om te doen zijn? Mischien is Intel wel verliefd op AMD en willen ze gaan trouwen.

[Reactie gewijzigd door Henst op 8 augustus 2007 16:07]

(oh nee dat is ouderwets, alleen kerkelijken en homo's doen dat nog )
Beetje offtopic, niet?
Idd is nu aangepast.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True