Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties

Intel heeft dit weekend een demonstratie gegeven van Tigerton, de eerste quadcore Xeon MP. Een server met zestien cores verdeeld over vier processors renderde een 3d-model waar één core meer dan een minuut voor nodig had in slechts 3,8 seconden. Om het grote aantal cores te voeden werd een nieuwe chipset gebruikt met de codenaam Clarksboro. Deze heeft vier onafhankelijk werkende bussen op 1066MHz, goed voor 34,6GB/s aan bandbreedte. Ter vergelijking: de huidige Xeon MP-chipset heeft een dubbele 800MHz-bus en kan in totaal dus slechts 12,8GB/s leveren. Om de effectiviteit van de vier bussen verder te verbeteren heeft de chipset 64MB aan snoop filter cache gekregen. Daarin wordt bijgehouden welke processor met welke stukken data bezig is, zodat er geen onnodige communicatie plaatsvindt als de cores hun caches willen synchroniseren.

Als het nieuwe platform in het derde kwartaal van volgend jaar geïntroduceerd wordt, neemt de bandbreedte per core voor de Xeon MP met 35 procent toe, ondanks de verdubbeling van het aantal cores per server. Bij AMD daarentegen zal de verhouding tussen bandbreedte en rekenkracht verslechteren tijdens de stap van twee naar vier cores. Dit feitje verdient echter behoorlijk wat relativering: de gecombineerde bandbreedte van vier (quadcore) Opterons ligt op minstens 42,4GB/s, een dikke twintig procent boven Clarksboro/Tigerton. Als men de overstap naar DDR2-800 maakt loopt het verschil verder op naar bijna vijftig procent. Intel haalt dus wel in, maar streeft niet bepaald voorbij.

Intel Tigerton-server

Tigerton is net als de desktopversie Kentsfield en DP-serverversie Clovertown opgebouwd uit twee dualcorechips. Hiermee wordt in theorie een hoop tijd en geld bespaard ten opzichte van het ontwikkelen en produceren van één chip met vier cores, waardoor Intel meer dan een miljoen quadcores denkt te kunnen leveren voor AMD zijn eerste verkoopt. Voor MP-servers lijkt het echter anders uit te pakken: de eerste quadcore Opteron 'Barcelona' wordt een kwartaal eerder verwacht dan Tigerton. Er zijn ook andere kritieken: het lijkt het er niet op dat de chip net als Tulsa een groot L3-cache krijgt, wat het positieve effect van de extra bandbreedte in bepaalde applicaties teniet zal doen. Bovendien kan de complexe chipset de prijs van de moederborden omhoog drijven ten opzichte van vergelijkbare Opteron-planken. Er zit dus wederom een interessante titanenstrijd aan te komen.

Moderatie-faq Wijzig weergave

Reacties (36)

Een server met zestien cores verdeeld over vier processors renderde een 3d-model waar één core meer dan een minuut voor nodig had in slechts 3,8 seconden.
Zo spectaculair is dit toch niet ...
Als 1 core, 1 minuut doet over het verwerken van 1 3D beeld, is het toch normaal dat 16 cores 3,8 (60 seconden / 16 cores) seconden hierover doen ...

Of mis ik ergens een stuk van de puzzel ?
Wat natuurlijk wel knap is dat er ook daadwerkelijk 16 keer sneller gewerkt wordt.
Vaak is een verdubbeling van het aantal cores niet gelijk aan een verdubbeling van de snelheid!
Precies mijn gedachte ook,
eerste waar ik aan denk is dat ze bij de single-core hyperthreading hebben uitgeschakeld. Geeft toch een kleine performancewinst die dan achterwege blijft.

Het blijft toch afvragen wat precies de bedoeling is van deze test als specificaties en achtergrond achterwege blijft. Personenen die dergelijk apparatuur gaan aanschaffen verdiepen zich niet alleen beter, maar weten ook dat dit marketing onzin is. Mijn inziens doen dergelijke claims meer schade in je doelgroep omdat je een verwachtingspatroon neerzet die niet alleen onjuist is, maar ook een bepaald verwachtingspatroon creeert die ook niet mis is.

Als een producent de claim maakt dat die 16x sneller is, ga ik er van uit dat die op zijn minst 8x sneller is, en dat zijn nog getallen waar ik mijn vraagtekens bij neerzet.
eerste waar ik aan denk is dat ze bij de single-core hyperthreading hebben uitgeschakeld. Geeft toch een kleine performancewinst die dan achterwege blijft.
Dit is gebaseerd op de Core2-generatie, die hebben geen hyperthreading.
De hele discussie over de benchmark is mijns inziens zinloos. Zo'n render in (waarschijnlijk) Cinebench wordt alleen gedaan om de aanwezige pers te 'bewijzen' dat het echt een 16-core machine is (iets wat je aan de buitenkant nooit kan afleiden), niet om het publiek - en dus de concurrentie - een idee te geven over de échte prestaties. Serieuze benchmarks zijn ontzettend concurrentiegevoelige informatie die men doorgaans het liefst tot het laatste moment geheimhoudt. In de aanloop naar de introductie van Conroe/Woodcrest heeft men daar uitzonderingen op gemaakt, maar de situatie is nu lang niet zo wanhopig als het toen was ;).

Dus dat de schaling te goed lijkt is waar, maar dat zou ik eerder toeschrijven aan het feit dat het gewoon absoluut geen geschikte test is voor zo'n brute server dan aan misleiding of iets dergelijks.
Even nog ter informatie...

Op Techreport staan de tijden voor single en 16 way
70.09 en 3.766 sec

Dit geeft een schaling van 18.6 x !!
Hoe vindt je die? 16 cores en renderen gaat 18.6 keer sneller... Intel is echt goed :+
Dus dat de schaling te goed lijkt is waar, maar dat zou ik eerder toeschrijven aan het feit dat het gewoon absoluut geen geschikte test is voor zo'n brute server dan aan misleiding of iets dergelijks.
Tsja, dat het labeltje 'server' erop geplakt wordt, is wel leuk... maar ik denk dat Pixar er heel anders over denkt. Die hebben ook rekken vol van dit soort 'servers' (overigens ook 'gewoon' Xeons), en die zullen juist dit soort werkzaamheden doen. Zo heel vergezocht is het niet... Punt is gewoon dat een dergelijke machine doorgaans alleen in een serverbehuizing past, en niet in een desktopje of notebook.
Renderfarms bestaan in de regel uit grote aantallen kleine en relatief goedkope machines, niet uit 4U/4-way bakbeesten.
Renderfarms bestaan in de regel uit grote aantallen kleine en relatief goedkope machines, niet uit 4U/4-way bakbeesten.
Niet helemaal waar.
Als ik het goed heb, zijn de machines van Pixar 2-way (die van een van hun concurrenten in ieder geval wel: nieuws: Weta bouwt renderfarm van 220 dual Xeon servers, en ook http://www.rendercore.com heeft dual Xeon servers).
En dat zijn nog Netburst-machines. Deze Tigertons zijn wat koeler/compacter in verhouding, dus misschien dat qua ruimte en stroomverbruik dan 4-way ook haalbaar is (het hoeft echt geen 4U te zijn, als ik die foto zo zie).
Zo niet, dan nog steeds iig quadcore, want hoe meer CPUs per vierkante meter, hoe efficienter. Scheelt namelijk in netwerkverkeer en globale overhead.
Een dualcore is ook niet twee maal zo snel als een singlecore ;)

Daarbij: Jij weet niet watvoor 3d-model dit was.. Hoe complex was het?

Ook is dit maar één proces, als er in de toekomst meer van deze beestjes komen, zullen ze ingezet worden om meerdere processen tegelijk te draaien; dan zal het voordeel stukken groter zijn.
Daarbij: Jij weet niet watvoor 3d-model dit was.. Hoe complex was het?
De complexiteit zou relatief gezien niet veel moeten uitmaken hoeveel sneller het gaat met meer cores/cpu's.

Wat wel uitmaakt is wat voor soort rendering je gebruikt. Als je een simpele multie-threaded raytracer maakt is het niet zo bijzonder dat het n keer zo snel gaat (waar n het aantal cores/cpu's is). (Raytracing is "als het ware" een plaatje pixel voor pixel berekenen, dus met 10 cores/cpu's kan je 10 pixels tegelijk berekenen.)

Als je daar in tegen projectie methodes(wat in je gemiddelde game zit) gebruikt is het al meteen een stuk interessanter dat het ook echt zo veel sneller gaat.

Dus ja, je mist inderdaad nog een stukje van de puzzel.
Je mist inderdaag een stuk van de puzzel.

Het beheren van de threads op een multicore processor zorgt voor een bepaalde overhead die ten koste gaat van de snelheid. Daarom is een dual core processor ook nooit twee keer zo snel als een single core processor :Y)

Daarom is het best wel knap dat je met 16 cores toch zo'n snelheidsverbetering krijgt, aangezien je toch minimaal evenveel overhead mag verwachten met 16 cores dan met 2 cores.
In dit geval wordt er een performance winst gehaald die bijna maximaal is. 3,8 seconden x 16 cores = 60,8 seconden. En een single core deed er "meer dan een minuut" over (maar vast dus ook niet meer dan 60,8 sec).

Waarom is dit opmerkelijk? De CPU's moeten onderling en met het geheugen communiceren via de Front Side Bus. Onderlinge communicatie van cores op verschillende stukjes silicium (=chips) via deze bus is aanzienlijk trager dan communicatie tussen verschillende cores op hetzelfde stukje silicium (laat staan dan communicaties intern in dezelfde core). Daarnaast geldt dat de cores elkaar in de weg gaan zitten als ze tegelijk lezen van of schrijven naar het gedeelde externe geheugen (=DDR-SDRAM).

Kortom: blijkbaar is dit een niet heel erg realistische renderbench, aangezien de communicaties onderling minimaal geweest moeten zijn, gezien de zo goed als lineaire opschaling. Wat ik verwacht is dat iedere CPU z'n eigen externe geheugen gehad heeft en dat het werk in exact 4 verschillende delen is opgesplitst, waardoor er tussen de CPU's geen enkele communicatie nodig geweest is (of in ieder geval zo weinig dat alles door het snoop filter cache opgevangen is) en zelfs de 4 cores per CPU elkaar nauwelijks in de weg gezeten hebben bij het lezen van en schrijven naar het geheugen.
Normaal hebben ze het erover dat 2 cores niet meteen dubbele prestatie's geven, en dat doet dat dus wel.
Best leuk om te zien dat dit wellicht het EERSTE moederbord ooit is dat alleen maar PCI Express sloten heeft. Was net als dat er vroeger op 1 dag nul ISA slots op moederborden waren... is dan nu de tijd aangebroken dat we ook nul PCI slots gaan hebben? ;)
Helaas, vijf nieuwsposts terug staat dat DELL nu een opteron server aanbied met alleen PCI-express sloten. NULL legacy PCI sloten dus! :)

nieuws: Dell introduceert dual en quad Opteron-servers
Opvallend is dat er geen ondersteuning voor PCI-X is: hoewel dit natuurlijk een oudere standaard is dan PCIe, bleven de meeste servers er tot nu toe toch wel aan vasthouden.
Mac Pro.
4 x PCI Express.
Geen PCI of PCI-X op mobo.

Begin Augustus 2006.

Edit: Als de messages hierboven niet overbodig zijn, is deze ook niet overbodig. Downmodden gaat op basis van inhoud, niet op basis van platformvoorkeur...
Is er meer info over die rendertest? (software etc?)
Niet dat ik kon vinden, maar vaak wordt voor dit soort demonstraties Cinebench gebruikt.
Het is wel opvallend vind ik hoe Intel met zijn tekort aan bandbreedte omspringt, ze blijven maar vasthouden aan de FSB terwijl dat naar mijn idee toch echt een zinkend schip is,... rmaar door allerlei trucjes proberen ze nog wel het beste eruit te halen. ik denk dan ook dat je misschien wel kan stellen dat 1 GB/sec bij de FSB effectiever igebruikt wordt dan 1 GB/sec bij hypertransport

edit @ Luxx
Ik zeg absoluut niet dast de C2D's slom zijn, dat zijn ze allesbehalve, ik stel alleen dat FSB, oke de naam dus,... dan zal ik het zo zeggen het principe dat Intel gebruikt naar mijn idee nogal zo zijn beperkingen heeft. En dat ze daar dingen omheen verzinnen die eigenlijk de effiecientie ervan verhogen, maar nbaar mijn idee moeten ze er toch van afstappen.zoals je al zegt dat ze ook gaan doen en tot die tijd voeren ze die bus gewoon enorm op net zoals ze met de pentium's deden
Het hele FSB princiepe is maar een naampje voor een bus, de FSB die nu op een processor zit is écht niet mere te vergelijken met een FSB van de Pentium1, en is zeker wel met de tijd meegegaan.

Wel is het een ontwerp-keuze om ook het geheugen via de FSB te benaderen, maar zelfs dat is een keuze, en niet persee de slechtste. Op de lange termijn zullen ze dingen gaan scheiden, Intel is immers bezig met het CSI. Maar de Core2 is ondanks FSB zeker geen slome processor, dus jouw conclusie is écht onterecht.

Wat mij opvalt is dit stukje :
Er zijn ook andere kritieken: het lijkt het er niet op dat de chip net als Tulsa een groot L3-cache krijgt, wat het positieve effect van de extra bandbreedte in bepaalde applicaties teniet zal doen.
Ik snap niet direct waarom een grotere L3 cache de positieve effecten van bandbreedte, veel bandbreedte, teniet zal doen.
Het hele FSB princiepe is maar een naampje voor een bus, de FSB die nu op een processor zit is écht niet mere te vergelijken met een FSB van de Pentium1, en is zeker wel met de tijd meegegaan.
De elektrische laag is flink verbeterd en het protocol uitgebreid, maar het bezwaar tegen de 'FSB' zit niet in de implementatie. Het is het principe dat nog altijd hetzelfde is: alle processors praten via één centraal (extern) punt met het geheugen. De lagere latency voor 1-way en betere schaalbaarheid voor 2+-way systemen zijn onmiskenbare voordelen voor AMD, die Intel nooit met wat voor chipset dan ook kan overtreffen. Dat Woodcrest, Conroe en (tot op zekere hoogte) Tulsa beter presteren dan K8 is ondanks dat alles, niet dankzij.
Wat mij opvalt is dit stukje :
Er zijn ook andere kritieken: het lijkt het er niet op dat de chip net als Tulsa een groot L3-cache krijgt, wat het positieve effect van de extra bandbreedte in bepaalde applicaties teniet zal doen.
Ik snap niet direct waarom een grotere L3 cache de positieve effecten van bandbreedte, veel bandbreedte, teniet zal doen.
Misschien is die zin niet helemaal duidelijk, maar er staat dus dat Tigerton waarschijnlijk geen L3-cache krijgt, terwijl Tulsa dat wel heeft. De wafer die ze hebben laten zien bestond in ieder geval uit standaard Core2-chips zonder ruimte voor extra cache. Een mogelijkheid is nog dat ze drie chips in één verpakking hebben geïntegreerd (twee dualcores en een losse L3-chip) maar dat lijkt me onwaarschijnlijk.
De elektrische laag is flink verbeterd en het protocol uitgebreid, maar het bezwaar tegen de 'FSB' zit niet in de implementatie. Het is het principe dat nog altijd hetzelfde is: alle processors praten via één centraal (extern) punt met het geheugen.
Dat is in dit systeem dus niet helemaal waar, want er zijn 4 FSBs, een voor iedere CPU dus. In principe kan iedere FSB aan een eigen pool geheugen gealloceerd worden, het is hier een keuze dat het niet zo is, geen 'principe'.
Deze implementatie maakt het verschil tussen AMD's HTT en de FSB eigenlijk puur theoretisch (op de positie van de geheugencontroller na), want de geheugencontroller en HTT moeten bij AMD ook door 4 cores gedeeld gaan worden.
Verder zou deze oplossing best wel eens efficienter kunnen zijn, omdat nu dus een 64 mb cache in de chipset toegepast kan worden, om synchronisatie te verbeteren. De chipset is immers centraal, en weet alles van het hele proces. Hier kun je veel intelligentie inbouwen.
Bij AMD krijg je te maken met NUMA, en de overhead om via de ene CPU het geheugen van de andere aan te moeten spreken.
NUMA wordt vaak als voordeel genoemd, maar ik als software engineer zie het vooral als nadeel. Ik moet nu weer extra rekening gaan houden met welk geheugen bij welke cores horen, anders moet je via-via communiceren, en dat is veel trager. Bij Intel wordt het in de hardware al opgelost, en hoeft software niet aangepast te worden, en werk je altijd zo optimaal mogelijk.
Dat is in dit systeem dus niet helemaal waar, want er zijn 4 FSBs, een voor iedere CPU dus. In principe kan iedere FSB aan een eigen pool geheugen gealloceerd worden, het is hier een keuze dat het niet zo is, geen 'principe'.
Dat kan, alleen dan heb je gewoon vier 1-way systemen op een moederbord, een cluster dus, waarvoor je een hele andere softwareconfiguratie moet hebben dan voor een echte 4-way machine.

Gedeeld geheugen is een vereiste voor een SMP, dus als je aparte 'pools' hebt voor iedere processor moeten die ook onderling met elkaar kunnen praten. Dat gebeurt bijvoorbeeld al in servers met de IBM X3-chipset (Xeon MP) en SGI Altix-systemen (Itanium 2). Het is op die manier dus inderdaad wel mogelijkheid om betere schaalbaarheid te krijgen, maar de latency en complexiteit daarvan blijven problemen die uiteindelijk het beste door de cpu zelf opgelost kunnen worden. Trucs als snoop filters e.d. kunnen ook prima in de processors zelf gestopt worden.
Dat kan, alleen dan heb je gewoon vier 1-way systemen op een moederbord, een cluster dus, waarvoor je een hele andere softwareconfiguratie moet hebben dan voor een echte 4-way machine.
Nee hoor. Dat heb je pas op het moment dat er geen interne communicatie mogelijk is tussen de 4 delen.
Aangezien de chipset in deze opstelling nog steeds 'centraal' is, is interne communicatie triviaal, en zou een NUMA-onderverdeling slechts virtueel zijn.
Maar ook met een chipset met 4 losse chips zou je nog steeds interne communicatie kunnen hebben, waarbij de chips onderling met een soort HTT-achtige verbinding werken. Een dergelijke oplossing is in het verleden ook wel toegepast op Xeon-systemen.
Het is op die manier dus inderdaad wel mogelijkheid om betere schaalbaarheid te krijgen, maar de latency en complexiteit daarvan blijven problemen die uiteindelijk het beste door de cpu zelf opgelost kunnen worden. Trucs als snoop filters e.d. ook prima in de processors zelf gestopt worden.
Ben ik het niet mee eens. CPUs zien maar een stukje van het proces. Een snoop filter zou dus betekenen dat iedere CPU bij iedere andere CPU moet gaan 'buurten' om te kijken wat die aan het doen is. Dat kost een hoop bandbreedte, en brengt latency met zich mee (zeker als je topologie geen volledige graaf is). Dat gaat in de praktijk dus geen winst opleveren.
Ook moet je dus de functionaliteit in iedere CPU gaan inbouwen, wat dus veel duurder wordt.
Een gecentraliseerd systeem blijft het beste, het is alleen in de praktijk niet altijd haalbaar.
De FSB is inderdaad niet te vergelijken met de CPU bus van een P1, al is het alleen maar omdat toen de L2 cache achter die bus zat (de cache controller zat meestal geintegreerd in de mem controller op het moederbord). Maar Intel heeft dat dan ook nooit een FSB genoemd.

De term FSB is pas bij het P6 ontwerp geintroduceerd voor een bus waarmee CPU met geheugencontroller/northbridge communiceert. En ook al gebruik je vier van die dingen en is elk van hen ook nog eens quad-pumped, de functionaliteit van de FSB is zelfs in dit geval nog identiek aan de FSB van de aloude Pentium Pro.

Wat in dit marktsegment (nadrukkelijk geen consumentenborden) ontbreekt bij Intel's producten is NUMA, dus een manier om de geheugentoegang te decentraliseren. Dat wordt door fabrikanten van echte high-end servers apart toegevoegd op chipset-niveau (IBM's NUMA-Q Xeon systemen bijvoorbeeld), maar zit bij een Opteron gewoon per default in de CPU geimplementeerd. Vandaar dat die quad-quadcore-opteron in ieder geval als het op rauwe datadoorvoer aankomt nog meer kan presteren dan deze monster. Of die hogere doorvoor ook tot betere resultaten leidt is natuurlijk de vraag, aangezien de verschillen tussen Opteron en Xeon groter zijn dan alleen geheugen access, maar CSI is niet voor niets een long-term project van Intel om juist in dit segment beter voor de dag te komen, iets wat ze bij aanvang van het CSI project met name nodig dachten te hebben om tegen Sun Sparc en IBM Power oplossingen te kunnen concurreren, maar ondertussen nodig blijkt om de kleine x86 concurrent bij te kunnen benen. Ik ben erg benieuwd :)
"De term FSB is pas bij het P6 ontwep geintroduceerd [...]" :?

De term FSB is ongeveer zo oud als de computer zelf; zie ook voor meer FSB info: http://en.wikipedia.org/wiki/Front_side_bus (Wiki is niet 100% betrouwbaar, maar in dit geval wel afdoende :+).

Maar ff on-topic; ik denk dat het Snoop filter cache gewoon het L3-cache vervangt, waarschijnlijk hebben ze namelijk wel een relatief groot L2 cache. Vergeet niet dat cache (vooral L1 & L2) relatief erg duur zijn. Oudere P4 generaties hadden een duidelijk bandbreedte-tekort, maar dat heeft Intel nu wel redelijk verbeterd.

Meer cache betekent misschien wel meer absolute performance, maar meestal tevens juist minder performance per ¤ (kostprijs + stroomverbruik).

PS: Jammer dat er niet meer technische specs. zijn; dat zou een boel speculatie schelen :7
Het 'vasthouden' aan de FSB klinkt nogal negatief, alsof Intel daadwerkelijk koppig blijft geloven dat het de beste oplossing is. In werkelijkheid werkt men allang aan iets veel beters (CSI) maar omdat dat project met uitstel/problemen heeft gekampt (omdat het eigenlijk te ambitieus is/was) moet het gat toch op een of andere manier overbrugd worden. Wat we nu zien met vier bussen is meer schadebeperking dan iets waar Intel echt tevreden mee is.
Ik vind het eigenlijk opvallend dat Intel nu al met deze resultaten naar buiten komt. De chip komt tenslotte pas in het 3e kwartaal van volgend jaar op de markt. Van de AMD "barcelona" core bijvoorbeeld zijn tot nu toe slechts wat minieme specificaties bekend terwijl hij eerder verwacht wordt.

Maar als deze chip nu al productrijp is, waarom dan nog een jaar wachten met de productie?
Over Barcelona is al een hoop gedetailleerde informatie bekend hoor. Je vindt het meeste alleen door op K8L te zoeken in plaats van de echte codenaam.
Maar als deze chip nu al productrijp is, waarom dan nog een jaar wachten met de productie?
Wie heeft gezegd dat hij productierijp is? De enige chip die langer en intensiever getest wordt dan een Xeon MP is een Itanium. Dat validatieproces gaat wel íéts verder dan Windows booten en een of twee benchmarks draaien om te zien of het niet crasht ;). Nadat Intel tevreden is moeten ook de serverbouwers zelf nog testen, dus al met al gaat er een hoop tijd overheen tussen de eerste werkende versie en de commerciële release.
Over Barcelona is al een hoop gedetailleerde informatie bekend hoor. Je vindt het meeste alleen door op K8L te zoeken in plaats van de echte codenaam.
Klopt, maar tot nu toe is alles wat openbaar is beperkt tot papier, benchmarks van de K8L core (zelfs dit soort beperkte informatie) zijn gewoon nog nergens opgedoken.

Wat de validatie betreft heb je natuurlijk gelijk maar het is niet gebruikelijk dat Intel al resultaten geeft voordat het eigen validatietraject is afgesloten. Net als AMD houdt Intel meestal de kaken stijf op elkaar totdat de chips bij de systeembouwers zijn.
Wat betreft de benchmark, zie deze andere reactie: naar mijn mening is dit totaal irrelevant omdat het a) niets zegt over de prestaties van Tigerton ten opzichte van zijn voorgangers en concurrenten en b) niet representatief is voor het soort werk wat deze servers gaan doen. Dat zijn mijns inziens ook precies de redenen waarom Intel hem gekozen heeft: een demonstratie zonder de concurrentie te veel informatie te geven.
toevallig wat meer foto's van de servert zelf?? k vindt t namelijk zeer interessant om te zien hoe het er van binnen nou precies uit ziet en dergelijken (tov. andere serverts)

tevens zouden evt. wat leuke spec's erbij mogen :) (over het mobo en dergelijken)
Dit is helemaal geen consumentenmoederbord dus zo bijzonder is dat 'alleen maar pci express' niet.
Ik was ook niet zo onder de indruk van de prestaties want 60/16 is 3,75. Maar natuurlijk is het knap datie ook werkelijk 16x sneller is..
Maar dan vraag ik me nog af of het wel met een soortgelijk systeem met 1 core is vergeleken of met een ouder model, veroudere core.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True