Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: DigiTimes

De DigiTimes heeft vernomen hoeveel dollars de quadcoreprocessors die Intel eind dit jaar en begin volgend jaar zal introduceren moeten opbrengen. De Core 2 Extreme QX6700 die volgende maand ge´ntroduceerd zal worden krijgt een prijskaartje van 999 dollar per stuk wanneer er duizend stuks aangeschaft worden. De langzamere Core 2 Quad Q6600 die januari volgend jaar het daglicht zal zien krijgt een prijskaartje van 851 dollar mee. Onder andere vanwege de hoge prijzen wordt verwacht dat Intels quadcoreprocessors voorlopig nog weinig marktaandeel zullen vergaren. Intel zelf rekent op een marktaandeel van drie procent een jaar na de lancering van de eerste quadcore's. De prijzen zullen waarschijnlijk pas in het derde kwartaal van 2007 gaan dalen aangezien Intel dan de tweede generatie quadcore's op de markt zal zetten en AMD ook de eerste quadcore’s zal gaan leveren.

Intel Core 2 Extreme QX6700 quadcoreprocessor
Moderatie-faq Wijzig weergave

Reacties (75)

Er zijn weldegelijk programma's die profeit hebben van 4 cores ten opzichte van 2 cores, hier de resultaten.

100% prestatie winst voor 3D rendering (bv. 3D Max)
80% Video editing met Adobe Premiere Pro 2.0
70% HD video encoding Main Conecpt H.264
63% Video encoding Windows Media Encoder 9
27% Video encoding DivX 6.2
24% Image editing met Adobe Photoshop CS2
10% File compression met WinRAR 3.6

Ik werk veel met 3D max en daarbij wat premiere, photoshopwerk en encoding taken. Daarbij kun je met meerdere cores ook meerderen taken tegelijk uitvoeren. Bv. 3D renderen en photoshoppen tegelijk. Uiteraard moet je wel voor een beetje workstation wel min. 2Gb ram ter beschikking hebben.
mijn vader heeft nu net een pentium D aangeschaft (heel goedkoop) en hij zegt ook dat nog lang niet alles optimaal word benut van zijn Dual-Core.. Heeft Quad core dan wel veel zin (ook voor gamers) :?
Nog niet voor de doorsnee concurrent nee. Veel zeer processor-intensieve programma's (denk aan Avid, Final Cut Pro, div wetenschappelijk programma's) zijn echter al berekend op meerdere processors en de overstap van dual naar quad is dan niet meer zo groot. Vooralsnog zal deze CPU dus vooral voor die toepassingen gebruikt worden, maar dat is ook oke, daar is de prijs immers ook naar.

Nu de trend is ingezet beginnen langzaamaan steeds meer gewone programma's ondersteuning te krijgen voor meerdere cores, en tegen de tijd dat quad-core betaalbaar is voor de consument zullen er al veel meer van dit soort programma's beschikbaar zijn.
Quadcore heeft zin voor heel specifieke applicaties. Denk hierbij aan Video-editing software zoals Premiere en Final Cut. Ook photoshop heeft er volgens mij voordeel bij.

Echter de apps van Jan-met-de-Pet draaien er niet of nauwelijks beter van en een dergelijke processor is aan hem dan ook niet besteed!

Edit: Metal Baron dacht er dus het zelfde over, maar typte sneller :D
Je moet niet alleen naar programma's kijken die met meerdere processors om kunnen gaan. Ga er maar van uit dat zelfs jan met de pet meerdere apps tegelijkertijd heeft draaien.
Als een spel meerdere threads ondersteunt heeft het spel beide core's tot beschikking. Dat er nu niet veel spellen zijn die dit ondersteunen ligt meer aan de makers ervan. Maar in de toekomst zullen nagenoeg alle spellen multi-threaded zijn.
Nu al, de physics engine van oblivion kan volgens mij gewoon op de andere core draaien dan de "rest" van het spel.

Natuurlijk..physics is maar iets van 15% van het verhaal dus het is maar de vraag hoeveel winst je er mee maakt. Maar winst is winst!
@Def1ant dat moet iedereen natuurlijk zelf uitmaken, maar vergeet niet dat ook dingen als je virus scanner, je msn client, je firefox met een flash spelletje dat je open had laten staan enz. allemaal op die andere core kan draaien, dus afhankelijk van je gebruik kan het het zeker waard zijn.
Ik ben in ieder geval heel tevreden met mijn X2 3800+, loopt toch weer wat soepeler allemaal dan de 3000+ die ik daarvoor had, en de enkele keer dat wel beide cores 100% gebruikt worden kun je even genieten van het feit dat je een stuk sneller bent dan je buurman zonder dualcore ;), en die situaties zullen steeds vaker voor gaan komen.
Tsja, maar is 15% een 50% (?) meerwaarde (qua geld) om dit dan ook aan te gaan schaffen?
Vergeet niet dat een Pentium D gebaseert is op de Netburst archi, en de Core Duo's en Quattro's op de Core archi.

Persoonlijk had ik de goedkoopste Core Duo gekocht omdat deze (denk ik?) sneller is dan welke Pentium dan ook.
Wat heeft je opmerkingen met `t nieuwsbericht of de reactie van OnnoF2006 te maken? Dualcore is dualcore, of `t nu een Pentium D of een Connroe, of een X2 is. Oftewel, je reactie is niet bijster relevant.

Waarom is mijn score nu tot 0 gemod? Als mijn score nul is, moet de score van Piet maximaal 1 zijn. `t Enige wat ie toevoegt is dat de architectuur anders is. Maar is dit relevant voor `t artikel? NEE! En dat ie een opmerkt dat ie zelf voor een conroe zou gaat, is aaaaal helemaaaaal niet relevant! Deskundige moderators hier....
Wat heeft je opmerkingen met `t nieuwsbericht of de reactie van OnnoF2006 te maken? Dualcore is dualcore, of `t nu een Pentium D of een Connroe, of een X2 is. Oftewel, je reactie is niet bijster relevant.
Daar heb je helemaal gelijk in. Zelfs hyperthreading valt hier onder, in zekere mate.
Werkt allemaal alleen maar als je meerdere threads/processen tegelijk aan het uitvoeren bent.

Maar ik denk dat de moderaties komen omdat een Pentium D meer lijkt op een dual-CPU systeem, waarbij beide cores alleen extern communiceren. Bij een Core en Core2 Duo heb je een gesharede L2-cache, waardoor bepaalde optimalisaties mogelijk zijn.
Wat inderdaad niet relevant is bij deze reactie... Als je al geen multithreaded applicatie hebt, zal ie zeker geen optimalisaties hebben voor gesharede L2-cache.

Dus jammer dat je naar 0 gemod wordt, ik denk dat er nogal wat onbegrip in het spel is, wat dit onderwerp betreft.
De technologie van CPUs, GPUs en PPUs gaat nu zo hard dat het bijna niet meer te behappen is als je er niet dag en nacht mee bezig bent.
Nou 3d render land zal het een worst wezen hoeveel core's er zijn, maar meer = beter. V-ray (render software) laat elke core apart een blokje van een totaalbeeld renderen. Dan is het alleen maar zaak om de cores genoeg 'te eten' te geven
:7
Ik zit momenteel erg te twijfelen voor een Core 2 Duo processor. Zou ik nu nog effe wachten met kopen tot de
quadcores effectief uit zijn ivm prijsdalingen ? Of gaat de
release van quadcore geen effect hebben om de prijzen van de Core 2 Duo ? Ook heb ik mij laten vertellen dat de
prijzen in februari gaan dalen ? Klopt dit of is dit slechts een vaag vermoeden / gerucht ?
Prijzen dalen altijd in Februari, omdat er dan vaak overtollige voorraad van het 4de kwartaal van het vorige jaar wordt gedumpt in afwachting van de nieuwe modellen die dan vaak gelanceerd worden. Op die manier kan je blijven wachten. Als je prijsbewust wilt kopen, dan moet je op het relatieve verschil tussen de E6400 en E6600 t.o.v. E6300 als basis letten.

E6300 (1.86Hhz) $183 = basis
E6400 (2.13Ghz) $220 = 14.5% sneller / 20% duurder
E6600 (2.40Ghz) $315 = 29% sneller / 72% duurder

Zodra namelijk de E6400 minder snel verandert t.o.v. de E6600 dan kom je in de buurt van het punt waarop dan vaak de E6300 verdwijnt en de E6400 het instapmodel wordt. Rond dat tijdstip is het dus het goedkoopste om iets te kopen. Op dit moment is de E6400 de beste keus als je zo lang mogelijk van je investering wilt genieten.

Je moet er echter rekening mee houden dat een snel systeem een combinatie is van meerdere factoren, als je op een vast budget zit, dan kan een goedkopere CPU in combinatie met veel meer geheugen een sneller systeem opleveren dan andersom.

@Black Sparrow, het was ook zeer simpel bedoeld, tuurlijk komen er veel meer factoren bij kijken. Echter het voordeel van de lagere serie is dat ze tevens veel meer overklok potentie hebben, wat op hun oudere dag van pas kan komen om er nog wat extra's uit te krijgen voordat een nieuwe nodig is.
Wat je zegt klopt niet. De 6600 is niet 29% sneller, hij is 29% hoger geclocked. Maar wat je vergeet is dat hij ook 2x zoveel cache aan boord heeft. Iets wat een aardige prestatiewinst oplevert.
Krijg je het standaard verhaal weer:
"Later" is er altijd nieuwer spul, en het oude word altijd goedkoper.
Advies wat al x keer is gegeven: Kopen zodra je nieuw spul nodig bent!
Vrijwel niemand heeft iets nieuws *nodig*.
Ik niet iig.
Neem nu die de prijsdalingen van de Pentiums een maandje geleden. 40% goedkoper.
Dan wil ik best een weekje wachten zelfs als ik het nodig heb....
tuurlijk heb je volkomen gelijk in !
Maar als je iets koopt en een week later is de prijs gedaald met mss 30 euro ofzo is dat wel effe balen.
Met wachten bedoel ik max een maand ofzo :-)
En dan nog blijft het verhaal staan.

De prijs zakt elke maand, en elke maand is er weer wat nieuws. Zo blijf je wachten.

Het maakt niet uit op welk moment je koopt, morgen is het goedkoper.
Het is duidelijk dat Intel deze CPU alleen heeft uitgebracht zodat ze eerder 'quad-core' uit hebben kunnen brengen.

De kosten van de ontwikkeling van een behuizing waarop de twee chips passen is vergeleken met het ontwikkelen van een nieuwe chip extreem goedkoop. Ook hebben ze wellicht 95% van het oude dual chip behuizing design kunnen gebruiken wat de kosten verder drukt.

Doordat ze gebruik maken van dezelfde cores als in de dual-core lijn hoeven ze er geen aparte productie voor op te zetten. De packaging (het aan elkaar plakken van de chip en de behuizing) werd toch al extern gedaan dus dat kost ze zelf ook niet zoveel extra.

Op papier hebben ze nu dus als eerste quad-core en ook voor een eventuele gek hebben ze iets beschikbaar.

Dat deze CPU last krijgt van bandbreedte problemen bij professioneel gebruik is wel duidelijk. Het is dus voor de enthousiasteling en de overclocker.

Toch denk ik dat de Quadfather iets populairder gaat zijn (maar we praten over een marginaal deel van de markt), ook als is dat ook gewoon handig marketen van bestaande technieken.
Dat deze CPU last krijgt van bandbreedte problemen bij professioneel gebruik is wel duidelijk.
Helemaal niet.
Niet al het 'professioneel gebruik' vraagt om veel bandbreedte.
Bij 3dsmax schalen deze CPUs bijna 100% ten opzichte van een dualcore... en 3dsmax is toch wel een applicatie die ook op professioneel niveau gebruikt wordt.
Ook voor veel wetenschappelijke doeleinden zal het een interessante processor zijn, want 4 cores met SSE3-support zijn ideaal voor het doorrekenen van matrices en statistiek etc... Alles waar maar genoeg rekenwerk is en niet te veel bandbreedte (je hebt nog steeds een 1066 MHz bus van 64 bit breed, dus je hebt het nog steeds over een slordige 8.5 GB/s, dus zo slecht is het niet gesteld... denk eens goed na hoeveel dat is... 8.5 GB/s... bijna een complete dual layer DVD aan data!).

Volgens mij heeft het AMD-kamp nu de bandbreedte-mythe in het leven geroepen... Kijk eerst eens naar wat benchmarks, voordat je al die andere fanboys napraat over bandbreedte...
Ik lees dat in iedere thread over de quadcore, en word er een beetje moe van. Niemand die het over de benchmarks van het ding heeft, die toch echt een goed beeld laten zien.

Zie ook de samenvatting in dit artikel:
http://www.tomshardware.c...n_the_rampage/page14.html
Performance Core 2 Quadro vs. Core 2 Duo
3D Studio Max 8.0 - 100%
Adobe Premiere Pro 2.0 - 80%
Main Concept H.264 - 70%
Windows Media Encoder 9 - 63%
DivX 6.2 - 27%
Adobe Photoshop CS2 - 24%
WinRAR 3.6 - 10%
Zitten een aantal prima resultaten bij (3dsmax is gewoon de perfecte score!). Bij bv DivX lijkt me dat de slechte schaalbaarheid aan de implementatie van de encoder ligt, aangezien de twee andere video encoders veel beter schalen, terwijl ze vergelijkbare handelingen verrichten.
Alleen bij Photoshop en WinRAR zou er sprake kunnen zijn van een gebrek aan bandbreedte... Maar dat weten we pas zeker als we er andere quadcore-systemen tegenover kunnen zetten.
Het zou ook kunnen dat bv de harddisk de beperkende factor is bij WinRAR.
Dat Kentsfield bandbreedte te kort is wel duidelijk. Je THG benchmarks ontkennen dit ook niet. Je zegt zelf dat niet al het professioneel gebruik om veel bandbreedte vraagt (wat dus het resultaat van 3dsmax verklaart). Zelfs het wikipedia artikel vermeldt dit bandbreedte tekort. Uiteraard wil Intel PR dit graag ontkennen.
Leesvoer:
http://arstechnica.com/news.ars/post/20060720-7310.html
http://en.wikipedia.org/wiki/Core_2
http://www.hothardware.co...age=2&articleid=878&cid=1
http://techsearch.cmp.com...tware_and_web_development
http://www.itworld.com/Comp/1057/06030intelclover/

en als je gewoon even logisch nadenkt dan kom je er ook wel. Een zelfde bus die gebruikt wordt door 4 cores zal sneller verzadigd zijn dan een bus gebruikt door maar 2 cores.
Dat Kentsfield bandbreedte te kort is wel duidelijk. Je THG benchmarks ontkennen dit ook niet. Je zegt zelf dat niet al het professioneel gebruik om veel bandbreedte vraagt (wat dus het resultaat van 3dsmax verklaart).
Je spreekt jezelf tegen. Je zegt zelf dat 3dsmax niet om veel bandbreedte vraagt. Dat houdt dus automatisch in dat de quadcore in ieder geval in 3dsmax geen bandbreedte tekort komt.
Dat is precies het punt dat ik wou maken: of je wel of geen bandbreedte tekort komt, is afhankelijk van de toepassing... en zeker niet alle professionele toepassingen komen bandbreedte tekort.
Het is dus onzin om dit als algemeen geldende regel te roepen.
Zelfs het wikipedia artikel vermeldt dit bandbreedte tekort. Uiteraard wil Intel PR dit graag ontkennen.
Leesvoer:
Ik ben niet degene die het hiet niet begrijpt hoor... En ik baseer me zeker niet op Intel PR... Ik ben software-engineer, en het is m'n vak om te weten hoe dit soort systemen werken... Ik doe dit ook al langer dan vandaag.
en als je gewoon even logisch nadenkt dan kom je er ook wel. Een zelfde bus die gebruikt wordt door 4 cores zal sneller verzadigd zijn dan een bus gebruikt door maar 2 cores.
Jij moet zelf logisch nadenken. Dat een bus sneller verzadigd is, wil niet zeggen dat hij ook per definitie verzadigd is. Hij is pas verzadigd op het moment dat een dualcore meer dan 50% verzadiging zou hebben (en het zaakje lineair schaalt).
Het gaat dus om de mate van verzadiging, en die laat jij buiten beschouwing, evenals de mate van schaling trouwens.
Zoals je hopelijk weet, wordt parallel processing over het algemeen minder efficient naarmate je meer cores toevoegt, omdat er meer overhead is voor de synchronisatie tussen de verschillende threads. Dit houdt ook in dat de threads effectief minder vaak aan het processen zijn, en dus dat de bandbreedtebehoefte ook afneemt.

Maargoed, waarschijnlijk kun je het hier al lang niet meer volgen. Gelukkig kun je wel benchmarkgetalletjes lezen en conclusies trekken. Hopelijk kun je ook de waarheid onder ogen zien.
Leuk en aardig maar de software die er optimaal gebruik van moet maken is op 1 hand te tellen ;(
Gelukkig kuin je meerdere programma's gelijktijdig draaien.
Als de ene core wat video aan't encoden is kun je met de andere core allerlei andere dingen doen.

Een applicatie zal niet sneller worden. Maar de totale snelheid is wel flink hoger.
Sarcastisch bedoeld van KoppenSneller maar ik heb het ooit eens gedaan op mijn X2.
6h mpeg 2 coderen en ondertussen zonder enig snelheidsverlies ut2004 spelen.
Meerdere cores zijn dus met momenten ontzettend handig, terwijl anders mijn pc 6h onbruikbaar zou zijn kan ik lekker verderwerken (of gamen :P ).
Daar heb ik twee complete andere PC voor. Triple PC dus. :)
Mooie ontwikkelen, alleen nu nog de software die er volledig gebruik van kan maken.

Hoeveel core's ondersteund de "Home editie" van Vista eigenlijk?
Microsoft had vermeld dat het per CPU gaat tellen voor licenties, en niet per core, dus Vista Home met ondersteuning voor 1 CPU zal dus geen probleem hebben met een quad-core.
Grappig is dat, zodra intel weer monopoli positie heeft gaan ze direct de markt afromen.
Jij moet maar eens de betekenis van het woord monopolie opzoeken in het woordenboek, zoals overigens zovelen hier.
Maar afromen klopt wel, zoals dat met elk nieuw product hoort...
Dat wordt heel snel rarren ;-)
En nog sneller unrarren.
En dat tegelijkertijd.
Nu nog HD setup die het rarren bij houdt :9
Als je aan het gamen bent en je game loopt op de 1e core, de video driver op de 2e core (de laatste video drivers zijn zelfs al mutlithreaded), je p2p client op de 3e core en je firewall en OS op de 4e core. Dan alle 4 benut. Optioneel kan je nog een cd'tje branden op de cores die een minder zware taak draaien of je harddisk laten defragmenten.

Bovenstaand scenario is helemaal niet zo vreemd voor de gemiddelde tweaker, en benut 4 cores.
Bovenstaand scenario is helemaal niet zo vreemd voor de gemiddelde tweaker, en benut 4 cores.
Je hebt benutten en benutten.
In dit geval draai je 4 threads op 4 cores (even voor het gemak aangenomen dat ze allemaal (grotendeels) single-threaded zijn)... Dat zal automatisch gebeuren met een modern OS.
De vraag is of je er wat aan hebt.
Een OS/firewall of p2p client is bv helemaal niet zo zwaar dat het echt uit gaat maken of je het op een aparte core draait, of 'even tussendoor' op een andere core.
Bij een game heb je pech, want de game-logica moet wachten op het tekenen, en omgekeerd. Dan gaan je cores dus veelal om-en-om draaien, en ben je effectief niet sneller af dan met 1 core.

4 cores gebruiken is dus geen probleem... 4 cores optimaal benutten, daar zit de uitdaging.
Ik denk dat games toch snel meerdere cores gaan gebruiken. Xbox360 en PS3 zijn ook multicore (en beide meer dan 2 cores) dus zullen veel cross-platform games er gebruik van maken.
Alan Wake en Supreme Commander zullen een quadcore ook wel nodig hebben :9
Waarom zou je een physx kaart kopen als je een multicore proc hebt die 1 van de cores voor physics kan gebruiken (zoals in Alan Wake).
Omdat een PhysX kaart ordes van grootte sneller is dan je CPU?
Heb je wel eens naar benchmarks gekeken van de NovodeX SDK etc? Waar een high-end CPU een paar honderd objecten aankan met interactieve framerates, kan een PhysX-kaart er meer dan 30000 aan.
Dus zelfs als je je hele quadcore voor physics gebruikt, ben je nog steeds ordes van grootte trager dan de PhysX kaart. Daarom ga je een PhysX-kaart kopen, ook al heb je de snelste CPU ter wereld.
Ik heb het al vaker gezegd... ik begrijp nog steeds niet waarom die zogenaamde 'tweakers' hier het verschil niet begrijpen tussen een PhysX kaart en physics op de CPU of een GPU.
Je zegt toch ook niet "Nou, met een quadcore kun je een core voor graphics gebruiken, dan heb je geen GPU nodig"?
Dit is hetzelfde verhaal... De snelste CPU ter wereld is nog steeds ordes van grootte trager dan een standaard GPU, omdat die GPU geoptimaliseerd is voor graphics, en de CPU niet.
Denk toch eens na... Physics en graphics zijn geen kwestie van ja/nee, het gaat om de hoeveelheid detail en complexitieit die je aan kunt, die is heel verschillend bij verschillende oplossingen.
En met jou beredenering kan je je afvragen waarom de nextgen consoles multicore zijn als t niet nuttig is voor games...
Dan heb je niet goed gelezen, dat staat er namelijk al in vermeld... Op een PC heb je PhysX kaarten en multi-GPU oplossingen... op een console heb je dat niet, en DAN is het een goedkope oplossing om wat extra cores op je CPU te hebben voor dat soort dingen.
Consoles zijn vooral ook ontworpen om compact, betaalbaar en stil te zijn, niet om ze vol te bouwen met de best mogelijke gaming hardware.
Daarom zijn consoles multicore.
Ondanks dat we weg gemod zijn vind ik t toch een leuke discussie.
Ik ben t voor t grootste deel ook wel met je eens. Er is zat potentie maar zoals je zelf zegt, er is nog geen software. Het probleem lijkt op t moment dat spellen op high detail al alles van je pc vragen, en als er dan door physics alleen maar meer dingen op t scherm getoverd moeten worden, gaat de performance juist omlaag (ook met een PPU). Mijn voorkeur gaat dan toch uit naar mooi met weinig physics dan minder mooi met veel physics.
Waarschijnlijk is t maar een kwestie van tijd voordat dit geen probleem meer is natuurlijk. Ik ben benieuwd hoe snel we meer horen over nvidia en ati als t over PPU gaat.
Ondanks dat we weg gemod zijn vind ik t toch een leuke discussie.
Ben ik onderhand wel gewend... Ik ben geloof ik de enige hier die iets moois in deze quadcore ziet :)
Het probleem lijkt op t moment dat spellen op high detail al alles van je pc vragen, en als er dan door physics alleen maar meer dingen op t scherm getoverd moeten worden, gaat de performance juist omlaag (ook met een PPU). Mijn voorkeur gaat dan toch uit naar mooi met weinig physics dan minder mooi met veel physics.
Tsja, dat zal dan komen door slechte software.
Als alles goed benut wordt, kun je een hoop doen met een leuke CPU, GPU en PPU.
Momenteel wordt er naar mijn mening sowieso nog in veel spellen te weinig gedaan met de GPU, en te veel met de CPU... Met Doom3 als absoluut toppunt. Dat spel schaalt zo enorm slecht, omdat het veel te zwaar op de CPU leunt.
HL2 en Far Cry vind ik dan weer stukken beter, die gaan op een snelle videokaart ook echt snel (makkelijk 100+ fps).
Daar heb je een hoop ruimte om wat extra CPU/GPU-power in te leveren voor betere physics.

Ik denk dat in de toekomst games in verhouding lichter gaan worden voor de CPU, zeker met de komst van DX10... Dan bedoel ik dus het grafische subsysteem.
In ruil daarvoor zullen ze waarschijnlijk meer physics/AI/etc toepassen. Ik denk dat een PPU ook beter in dat scenario zal passen... Meer offloaden naar de GPU, zodat de CPU vrij is voor andere dingen, zoals een PPU aansturen, en als gevolg daarvan de GPU meer aansturen met meer physics-objecten.
Ik ben benieuwd hoe snel we meer horen over nvidia en ati als t over PPU gaat.
Ik denk dat ze voorlopig niet met een PPU gaan komen. Ze proberen nu physics te doen met een tweede GPU in SLI/Crossfire... En dan kijken hoe ver ze daarmee komen. Misschien kunnen ze daarmee PhysX uit de markt houden (zal niet de eerste keer zijn dat niet de beste technologie wint, maar de technologie die het best in de markt ligt)... Pas als dat niet lukt, zullen ze misschien zelf ook een PPU ontwikkelen. Maar dat kost een hoop tijd en geld, want die kennis hebben ze nog niet. Ik denk dat ze het daarom graag zo lang mogelijk willen uitstellen.
Ik denk dat games toch snel meerdere cores gaan gebruiken. Xbox360 en PS3 zijn ook multicore (en beide meer dan 2 cores) dus zullen veel cross-platform games er gebruik van maken
Ja, gebruik maken wel... veel profijt van hebben, dat waarschijnlijk niet echt. Games blijven altijd het probleem houden dat bijna alles afhankelijk is van elkaar, en de ene berekening op de andere moet wachten. Hoe meer threads je toevoegt, hoe meer tijd je bezig bent met zorgen dat alles in de juiste volgorde gedaan blijft worden... Dus het schaalt in principe bijzonder slecht.
Zwaardere physics lijkt me de grootste verbetering... maar omdat we ook PhysX hebben, en videokaarten met physics-mogelijkheden, zal het misschien op de PC niet zoveel impact hebben. Misschien dat een dualcore met PhysX kaart wel veel sneller is dan een quadcore zonder... en dat een bij een quadcore met PhysX kaart de extra cores weer niets te doen hebben... dus weer geen verschil met de dualcore.
We zullen zien wat de uiteindelijke keuze voor physics gaat worden.
Waarom zou je een physx kaart kopen als je een multicore proc hebt die 1 van de cores voor physics kan gebruiken (zoals in Alan Wake). En in Supreme commander kan een de AI en pathfinding door een core worden opgevangen. En met jou beredenering kan je je afvragen waarom de nextgen consoles multicore zijn als t niet nuttig is voor games...
Het punt is dat alle pc's vanzelf een multicore cpu gaan krijgen en of losse physics kaarten echt van de grond komen moet ik nog zien. Het punt is dat GPU's duidelijk veel sneller waren en ook nog eens op hogere resolutie. Bij een PPU krijg je wat grotere explosies en vliegt er meer troep rond. Ik weet dat er veel meer mogelijk is met physics maar dan mogen ze dat toch eerst eens fatsoenlijk laten zien. Dat kan men bijna alleen maar doen door een spel te maken dat niet zonder PPU kan draaien maar daar is nog lang geen markt voor.
Ik had gister nog een AGEIA kaart in mn bak. De reality mark (bij guru3d te vinden) die pas is uitgebracht is te zielig voor woorden. Omgebouwde CellFactor met een batch bestandje en een demo. Er zit zoveel random in dat het echt geen betrouwbare benchmark is.
Het punt is dat GPU's duidelijk veel sneller waren en ook nog eens op hogere resolutie.
Dat is bij PPUs ook zo, maar er is nog geen software voor. Maargoed, da's een andere discussie. Ik beantwoordde slechts je vraag waarom je een PhysX kaart zou kopen als je een core voor physics kunt gebruiken... nou, omdat het veel sneller is dus.
Die discussie heb je ook met quadcore... In theorie is het ook veel sneller dan dualcore, maar je hebt nog niet veel software die er gebruik van maakt.
Maar dat vind ik dus een beetje flauw. Het doet namelijk niets af aan het feit dat het wel sneller is als de software er wel gebruik van kan maken.
Dat kan men bijna alleen maar doen door een spel te maken dat niet zonder PPU kan draaien maar daar is nog lang geen markt voor.
Valt wel mee hoor. Ze kunnen gewoon meerdere detailniveaus aanhouden, net als met graphics gedaan wordt. High detail voor PhysX, medium detail voor quadcore/SLI, low detail voor single/dualcore.
Iets in die geest.
Ik denk dat dat qua development niet eens zo heel veel extra moeite kost... maar je moet het natuurlijk wel van het begin af aan plannen. Met een beetje geluk wordt dat ook nu al gedaan.
Gooi 't ondersteboven en je hebt een duivelse lanceerprijs...

Maar komt Intel nou ook nog met een 'quad-father' concurrent?

En is het nou niet een beetje overkill?
Dual Core word niet eens fantsoenlijk ondersteund in software...
Maar komt Intel nou ook nog met een 'quad-father' concurrent?
Waarom zouden ze? Dit is een goedkopere oplossing die vergelijkbare prestaties biedt.
AMD komt met de QuadFather omdat ze anders helemaal niet meer meedoen in de hogere segmenten. Niet omdat het economisch gezien zo'n succes is.
QuadFather zal waarschijnlijk ook snel verdwijnen als AMD z'n quadcore op de markt heeft.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True