Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 25 reacties
Bron: Tom's Hardware Guide

Bij Tom's Hardware Guide lezen we over een bezoek aan Intel's validation labs, het testlaboratorium waar nieuwe versies van processors uitgebreid worden gecontroleerd alvorens zij geschikt worden geacht voor de markt. Op dit moment wordt daar hard gewerkt aan het voor massaproductie geschikt maken van de Smithfield, de eerste dual core-processor van Intel. Het validatieproces van Intel omvat verschillende stappen van testen, meten en het corrigeren van fouten en wordt door in totaal 3500 personen in fabrieken in MaleisiŽ, Ierland en de Verenigde Staten uitgevoerd.

Intel Validation LabZo worden in de vestiging in de VS op dit moment 200 Smithfield-processors getest in speciaal voor dit doel ontworpen systemen. Als vast onderdeel van de procedure worden de processors ook overgeklokt; sommige Smithfields halen al de 4GHz, terwijl anderen bij 3,3GHz al het loodje leggen. De Smithfield doorliep het validatieproces erg snel; in negen maanden. Ter vergelijking, de eerste Pentium 4, de Willamette, had 18 maanden nodig om haar draai te vinden. Dat Intel erg grote bedragen uitgeeft aan het testen en valideren van processors is niet bijzonder; zo heeft de bug in de eerste Pentium-processors het bedrijf toentertijd in totaal zo'n 420 miljoen dollar gekost.

Moderatie-faq Wijzig weergave

Reacties (25)

getest in speciaal voor dit doel ontworpen systemen

Wat moet ik me daar bij voorstellen? Zijn dat speciale chipsets met extra debug info ofzo? Of moet ik meer softwarematig denken?
Yep, alle functionaliteit moet kunnen worden uitgelezen en gelogged worden, zodat je bij bepaalde hardware combinaties en snelheden (en nog veel meer) de relevante gegevens van elk aspect van de cpu kan bekijken. Ik heb zelf bij Intel gewerkt en kan je vertellen dat software alleen wel een hoop al kan, maar er altijd nog steeds hardwarematige metingen gedaan moeten worden om er voor te zorgen dat alles netjes binnen de toleranties van Intel blijft werken.
beiden, intel maakt waarschijnlijk eerst een soort kale chipset aan die de nieuwe features kan aansturen. wanneer de processor bijna klaar is kan de chipset aangepast worden zodat deze meerdere types hardware kan ondersteunen en naar de moederbord fabrikanten kan sturen.

software matig zijn er natuurlijk diverse programma\'s waar je de instructies mee kunt testen maar ook een boel zelfgeschreven software om de werking van nieuwe features goed te kunnen testen. als dit allemaal werkt naar behoren kunnen software makers hun software aanpassen op de nieuwe mogelijkheden van de processor. net zoals aplicaties beter gebruik kunnen maken van hyperthreading of het 64bits gebeuren.
Dat Intel erg grote bedragen uitgeeft aan het testen en valideren van processors is niet bijzonder; zo heeft de bug in de eerste Pentium-processors het bedrijf toendertijd in totaal zo'n 420 miljoen dollar gekost.
Kan iemand me misschien vertellen wat dat voor een bug was? Toen was ik nog een wat jongere tweaker en nog niet zo into PC's. ;)
Floating point berekeningen werden wat vreemd afgerond. Uiteindelijk kreeg je dan wat gekke dingen eruit
www.cs.earlham.edu/~dusko/cs63/fdiv.html
2 wildhagen hmm zelfde google term
Dat was de nogal beruchte FDIV-bug, die aanwezig was in de Pentium 60 en Pentium 66 Mhz (ook de Pentium 75 en Pentium 90 Mhz geloof ik, maar dat weet ik niet zeker meer).

Je kon destijds ook je processor door Intel laten omruilen voor een zonder die bug (http://support.intel.com/support/processors/pentium/fdiv/)

Meer info: http://www.cs.earlham.edu/~dusko/cs63/fdiv.html
Als ik me het goed herinner was het een bug in de floating point (getallen met comma\'s) registers waardoor somige delingen fout gingen...

http://support.intel.com/support/processors/pentium/sb/CS-013007.htm
Leuk marketing verhaaltje....
Maar ik zet mijn geld in op de dual core AMD...
Zitten net ietsjes slimmer in elkaar en zijn veel scalebaarder.
ff ter vergelijking intel heeft 3500 man in dienst laten die gemiddeld 50.000 usd betaald krijgen is dat een kleine 17,5 miljoen usd. amd\'s winst was het 3e kwartaal 44 miljoen usd. dat zou betekenen dat als amd hetzelfde qua testen zou willen doen dat ze de 1/2 van hun winst in sneeuw zien opgaan. dit lijd waarschijnlijk dat amd hier zal proberen te korten aangezien ze dat veel geld op jaarbasis zal besparen. where do you want to put your bets again? :)
wat een onzin zeg
ten eerste klopt je bereking niet echt t komt meer uit op 1/2,5 van de winst van het derde kwartaal
en dat is dus een tweede
verder kom je over als een intel fanboy
en je gaat er gelijk vanuit dat amd hier geld bespaard of zelfs helemaal niet test
en waar baseer jij dat op? Misschien heeft AMD wel net zo\\\'n kostenpost en is de winst in dat kwartaal ONDANKS zo\'n testclub 44 miljoen?

[ontopic]
ik vraag me af of het echt nodig is om 3500 man CPU\\\'s te laten testen? Zitten die dan hele dagen zo\\\'n ding te stressen of zijn zoveel mensen nodig om die CPU\\\'s in- en uit te bouwen???
Zoals je eigenlijk zelf al aangeeft is die 44 miljoen usd WINST. Hier zijn alle personele kosten al vanaf gehaald. De vergelijking welke je hier dus maakt slaat in mijn optiek nergens op.
@n4m3l355
volgens mij snap jij het verschil tussen omzet en winst niet helemaal
@ Upper en de rest
gaan jullie er dan vanuit dat amd net zo goed 3500 man in dienst heeft met de al magere inkomsten? lijkt me sterk
Ervan uitgaande dat ze beide ongeveer gelijk zijn aan snelheden zou de kwaliteit ongeveer ook gelijk moeten zijn. hier kun je dan ook vanuit gaan dat men gelijke technologische vooruitgangen boeken in verschillende richtingen die desondanks ook een testfase moeten doorgaan en dus ook dezelfde kwaliteit qua beproevingen moeten doorstaan. ik stel nergens dat amd helemaal niet test dat zou onzinnig zijn, echter ik vermoed wel dat amd minder (als het niet veel meer dan minder is) test tov Intel. en hiermee doel ik dan ook dat kwalitatief intel ook beter is dan amd. dat amd nog geen fout zoals amd is tegen gekomen zoals intel een kleine 10 jaar geleden is enkel een kwestie van tijd dat overkomt de beste echter het is de vraag of AMD dan ook de mogelijkheid heeft om hun verliezen te boeken
Je denkt toch niet dat Intel 50K US dollar betaalt aan de mensen in MaleisiŽ? Waarom denk je dat ze daar uberhaupt zitten?
en je denkt dat iemand in de US/UK wel komt voor 50k? het is gemiddeld gezien geen gek cijfer probaly.
AMD zou gek zijn als ze niet genoeg zouden testen. Maar omdat ze minder porcessorlijnen (en chipsets) hebben hoeven ze ook minder te testen. Wat een kostenbesparing op het testwerk is.
Misschien heeft Intel wel meer testers nodig omdat ze uit zichzelf al weten dat hun processors slechter zijn :P
(nofl ;))

Maar de kwaliteit van de AMD processors zit ook echt wel snor hoor of dat nu door meer of minder mensen dan bij Intel wordt getest.

Ik heb bijvoorbeeld een Duron 1600 (volgens mij zo\'n beetje de goedkoopste amd processor ooit Š § 45,-) in mijn servertje zitten met Windows 2003 er op en dit haalt met gemak 3 maanden uptime op 100% load constant. De processors zijn dus zeker stabiel en rekenfoutjes zullen ze ook wel niet maken
Het kan dus nog sneller:
The Smithfield validation was conducted over a period of nine months involving tests with about 1000 applications and 250 peripheral makers. 200 Intel engineers participated and invested about 200 man months of work.
...
A validation time of nine months however is relatively short in comparison, indicating not only less bugs but also increased time pressure to commercialize the chip. According to Grilley, a typical processor validation takes about 18 months time: For example, the first Pentium 4 (Willamette core) consumed 1000 man months of work.
Als je er een team van 200 man full-time op zet, ben je dus in 1 maand klaar. (Of welke combinatie die 200 \'manmaanden\' oplevert dan ook...)
Nee. Helaas gaat je redenering niet werken zonder inhoudelijk naar het testproces en de beschikbare resources te kijken. De beperkende factor bepaald hoelang het gaat duren. Mischien zijn er onvoldoende engineers met kennis, misschien zijn er bepaalde tests die langer duren dan een bijvoorbeeld een maand, misschien zit het erg tegen met bepaalde resultaten.

Er valt dus weinig over te zeggen of het nog daadwerkelijk sneller kan.

Daarnaast is het lastig om verschillende validatieduren met elkaar te vergelijken, vanwege bovenstaande punten. Er zijn alleen voorzichtige conclusies uit te trekken, zoals relatief minder fouten in de processor.
je moet het zo zien,

1 persoon kan maar beperkt testen en een debug terugkoppelen,

10 man kan wel 10x zoveel debuggen en terugkoppelen.

100 man kan wel 100x zoveel debug info terugkoppelen. maar omdat prosessen tijdkosten zal 10 man meer effect hebben dan 100 omdat die 100 man dan allemaal dubbel testen..

iedereen gaat 10x hetzelfde testen dus krijg je 10x dezelfde info wat inrelevant is...
Volgens mij (wat ik van een vriend hoorde) worden de huidige procs ook altijd meer dan 6 maanden voor 100% vd tijd voor 100% aan het werk gezet, om te testen of ze ook 10 jaar mee zouden kunnen gaan (en voor alle mensen die SETI'en en Mersenne priems zoeken, etc).
1 maand testen lijkt me toch wat te kort dan, want je hebt best mensen die 3 jaar lang achter elkaar 100% vd tijd SETI willen draaien.
voorkomen is idd beter dan genezen.

het dingetje heet niet voor niets centrale processing unit, als dit het niet bugfree kan doen, dan gaat de rest na een tijd toch ook haperen neem ik aan.

hun boete: dat ging over die massa berekening in excell geloof ik?

[edit]
According to Grilley, the validation platforms, each carrying a $20,000 price tag, are proprietary designs for Intel and include specially designed performance heatsinks to enable a narrow design of the components on the board. The company also runs tests on designs that consumers may see in commercial products, she said.

testomgeving is dus aangepast aan de processor en wss met zoveel mogelijk varieteit om de processor ook op elk vlak te kunnen testen.
Sorry voor de vergelijking met een auto. Maar bij auto's wordt ook in een relatie korte periode (enkele weken) getest of ze 10+ jaar mee kunnen gaan. Als je de omstandigheden maar zwaar genoeg maakt krijg je alles in zo'n korte test periode kapot. Dat het kapot gaat is heel leerzaam omdat er van de foutjes waardoor het kapot gaat geleerd wordt.

Het zelfde geld voor processoren. Je hebt dus best kans dat ze enkele maande pre productie versies testen met bijvoorbeeld verhoogde vcore en onder tropische omstandigheden.
Kan iemand me misschien vertellen wat dat voor een bug was? Toen was ik nog een wat jongere tweaker en nog niet zo into PC\'s
Dit betrof een Floating-Point afrond-bug in de Pentium 1 ( < 100 Mhz) , zie bijvoorbeeld: http://www.cs.earlham.edu/~dusko/cs63/fdiv.html

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True