Terug in de tijd #33: dualcore-cpu's, browserkeuzeschermen en OVpay-tests

Op Tweakers verschijnen dagelijks tientallen nieuwsberichten, maar bij het schrijven weten we zelden hoe het afloopt met de producten, technieken en ontwikkelingen die we bespreken. In deze rubriek lezen we oude berichten terug en kijken we hoe het verderging.

Voor de 33e editie van Terug in de tijd snuffelen we in de archieven van de maand juni uit 2004, 2009 en 2014. We zien hoe AMD zijn eerste dualcore-cpu ontwikkelde en hoe de EU een browserkeuzescherm afdwong in Windows 7, en bespreken hoe de NS en banken een proef begonnen met een vroege versie van OVpay, waarmee reizigers met hun bankpas kunnen inchecken in het ov.

Twintig jaar geleden: dualcoreprocessors, opensourcesoftware en Half-Life 2-arrestaties

Als je een moderne pc bouwt, neem je tegenwoordig al gauw een processor met zes, acht of misschien wel meer cores voor lief. Twintig jaar geleden, in 2004, was dat wel anders. Cpu's met een enkele kern waren toen nog de norm, hoewel fabrikanten al wel stappen aan het zetten waren om daar verandering in te brengen. AMD rondde in juni 2004 bijvoorbeeld de ontwerpfase van zijn eerste dualcoreprocessor af.

AMD64 dual core die-afbeeldingDe fabrikant zei destijds dat de eerste van die cpu's ongeveer een jaar later op de markt zouden verschijnen. Het ging dan in eerste instantie vooral om multicore-Opteron-cpu's voor servers; desktopchips zouden later in 2005 op de markt komen. Ze zouden gemaakt worden op een 90nm-procedé, waar AMD twintig jaar geleden ook de eerste details over deelde. Deze node moest aanzienlijk sneller zijn dan de voorgaande 130nm-chips en uiteraard ook fors zuiniger en minder ruimte innemen.

Tegenwoordig beschikken cpu's vrijwel standaard over meer dan één kern en vaak over een stuk meer dan twee. Het was overigens ook AMD dat die stap zette. Jarenlang bleven processors voor consumenten steken op quadcores, met vier kernen. De toon werd gezet door Intel. Pas met de introductie van AMD's Ryzen-processors in 2017 kwamen cpu's met maximaal acht en later zestien kernen beschikbaar op een consumentenplatform.

Ook het 90nm-procedé is inmiddels, zoals je kunt verwachten, behoorlijk achterhaald. Hoewel AMD geen eigen chipfabrieken meer heeft, worden de komende Ryzen 9000-processors van het bedrijf geproduceerd op TSMC's 4nm-procedé. Later zou AMD nog kunnen overstappen op TSMC N3, waar Apple inmiddels ook gebruik van maakt in zijn Apple Silicon-socs en Intel dit jaar zijn Lunar Lake-processors op laat produceren.

IEFI scheman componentenland waren er meer vorderingen in juni 2004. Intel gaf bijvoorbeeld de broncode vrij van EFI, oftewel Extensible Firmware Interface. Het zou de opvolger zijn van het bios dat fabrikanten tot dusver gebruikten als firmware voor hun moederbord. EFI moest fabrikanten de mogelijkheid bieden om de firmware modulair uit te breiden met extra diensten. Het vrijgeven van de broncode moest de adoptie ervan bevorderen, aangezien veel fabrikanten nog altijd op bios bouwden. Ook daarna liep dat echter niet direct storm. In 2006 riep Intel fabrikanten op om eens op te schieten met de introductie van EFI en het uitfaseren van bios. Tegenwoordig gebruiken veel systemen UEFI, een variant van EFI.

We schreven twintig jaar geleden ook over arrestaties rondom de iconische game Half-Life 2. Een klein jaar eerder was de broncode van dat spel namelijk deels uitgelekt. Dat begon in oktober 2003, toen Valve-baas Gabe Newell erachter kwam dat de broncode van zijn game op internet stond. Er bleek te zijn ingebroken op het computernetwerk van Valve, waarbij de broncode van de toen nog niet uitgebrachte titel is buitgemaakt. Dat ging via een lek in Windows, bleek later.

Ruim een halfjaar later, medio 2004, werden er 'verschillende arrestaties' verricht omtrent de diefstal. Een Duitse hacker werd uiteindelijk veroordeeld tot een voorwaardelijke celstraf van twee jaar. Jaren later deed hij zijn verhaal tegenover onder meer Eurogamer.

Half-Life 2 screenshot

Tegenwoordig is betalen met je telefoon niet meer weg te denken, maar dat was aan het begin van dit millennium nog lang niet aan de orde. Er werd al wel aan de weg getimmerd. Het ministerie van Economische Zaken wilde in juni 2004 betalen via internet stimuleren. De toenmalige economieminister in Nederland, Laurens Jan Brinkhorst, stelde in dat jaar dat consumenten dat graag willen doen, maar het uit veiligheidsoverwegingen nalaten. Ook werd digitaal betalen nog op weinig plekken ondersteund. Er werd een projectgroep opgezet om dat te bevorderen. Verschillende banken, verkopers, telecom- en ict-bedrijven zegden toe hieraan mee te werken.

Zoeken op het InternetDe politiek was twintig jaar geleden meer bezig met tech. De Duitse regering gaf in juni 2004 aan bezorgd te zijn over monopolies op de markt voor zoekmachines. Ook in 2004 werd de markt al gedomineerd door een beperkt aantal spelers: Google, Yahoo en Microsoft. De overheid was onder meer bezorgd over de mogelijkheid van die machtige spelers om informatie te censureren. Ze pleitte voor oplossingen als een onafhankelijke zoekmachine inrichten of externe zoekmachines steunen.

De zorgen bleken niet geheel onterecht. De macht van zoekmachines is in de afgelopen jaren verder geconsolideerd. Voornamelijk Google is daarin erg machtig geworden, met een marktaandeel van ruim tachtig procent. Bing van Microsoft staat op een verre tweede plek, met een aandeel van slechts tien procent.

De zorgen rondom zoekmonopolies zijn ook nog altijd aan de orde. Zo loopt er momenteel een rechtszaak tegen Google, aangespannen door de Amerikaanse overheid. Die stelt dat de techgigant een illegale monopoliepositie heeft bemachtigd, onder meer door Apple jaarlijks miljarden te betalen om de standaardzoekmachine op iOS te zijn. De slotargumenten in die zaak zijn al geweest, maar de uitspraak moet op het moment van schrijven nog gedaan worden.

Vijftien jaar geleden: Project Natal, netbooks en browserkeuzeschermen

Microsoft-Europa-logoWe schreven vijftien jaar geleden op 1 juni opnieuw over concurrentiezorgen, ditmaal vanuit de Europese Unie. De EU ging, kort na een eerdere zaak rondom het bundelen van Microsofts Media Player-software in Windows, opnieuw achter de techgigant aan, deze keer vanwege het meeleveren van Internet Explorer bij het OS. Dat zou de concurrentiepositie van alternatieve webbrowsers benadelen.

De Nederlandse Eurocommissaris Neelie Kroes bepleitte dat Microsoft ook andere webbrowsers zou gaan meeleveren met Windows. De EU wilde dat bij het Amerikaanse bedrijf afdwingen door middel van een 'browserkeuzedialoog'; gebruikers zouden bij hun OS een browserkeuzescherm te zien krijgen. Daarin moesten naast Internet Explorer ook alternatieve keuzes staan als Firefox, Chrome en Opera.

Een paar weken later kondigde Europa een formeel onderzoek naar Microsoft aan. Kort daarna liet Microsoft weten voor een andere optie te kiezen. De techgigant zou in eerste instantie binnen de Europese Unie met een aparte Windows 7-versie komen, genaamd Windows 7 E. Het bedrijf koos daar naar eigen zeggen voor om Windows 7 'op tijd' in de EU uit te brengen; de release van dat OS stond op de planning voor slechts enkele maanden na de klacht van de EU.

Microsoft Windows 7 browserkeuzescherm

Later kwam Microsoft daadwerkelijk met een browserkeuzescherm, iets waar de EU genoegen mee nam. Dergelijke browserschermen zijn nog altijd actueel. Begin dit jaar werd de Digital Markets Act van kracht in de Europese Unie, waarmee techgiganten als Apple, Google en Microsoft onder meer een browserkeuzescherm tonen op hun platforms. Naast Windows valt daar ook iOS en Android onder.

Microsoft was meer in het nieuws begin juni 2009. Het bedrijf presenteerde bijvoorbeeld voor het eerst Project Natal, wat later bekend zou komen te staan als de Kinect, op de E3-gamingbeurs. Het betrof een camera waarmee Xbox-spelers 'controllerloos' konden gamen, door middel van handgebaren, lichaamsbewegingen en stembesturing.

Als onderdeel van de demonstratie toonde Peter Molyneux, bekend van de Fable-serie, een 'game' waarin spelers konden communiceren met een spelkarakter. De demo toonde een jongen die de speler herkende, opmerkingen maakte over haar kleding en vervolgens een tekening bekeek die voor de camera werd gehouden. De jongen, genaamd Milo, kon ook converseren met 'emotie' door te spreken op verschillende toonhoogtes.

Dit spel is nooit uitgekomen; waar aanvankelijk gemeld leek te worden dat het daadwerkelijk zou verschijnen, zei Microsoft later dat het niets meer dan een techdemo was. Dit soort interactieve gamepersonages zijn vijftien jaar later nog steeds niet echt aan de orde. Nvidia werkt aan ACE, een systeem voor npc's met generatieve AI waar Tweakers onlangs een hands-on mee deed, maar dat wordt voorlopig niet ingezet in daadwerkelijke spellen. De Xbox Kinect kwam overigens wél gewoon op de markt, maar is nooit een succes geworden.

Milo en Project Natal

Naast de gamingbeurs E3, vond in juni ook als vanouds de Computex plaats. Op die beurs, die helemaal in het teken van pc-componenten staat, toonden verschillende fabrikanten nieuwe netbooks. Die apparaten, waarvan de naam is bedacht door Intel, waren vooral kleine, goedkope en vooral niet erg krachtige laptopjes die voornamelijk bedoeld zijn om mee op internet te surfen.

Acer Android netbookOp Computex 2009 werd onder meer een netbook getoond die zowel Windows als Android draaide, in de vorm van een dualbootoptie. De fabrikant, Acer, wilde eigenlijk een netbook met alleen Android uitbrengen, maar voorzag het apparaat uit voorzichtigheid toch van Windows. Het bedrijf wist immers niet hoe de consument dergelijke Android-laptopjes zou ontvangen. Bovendien waarschuwde Arm kort na de aankondiging dat Android nog niet volwassen genoeg is om gebruikt te worden in een netbook, aangezien dat OS vooral voor telefoons is bedoeld.

Daarbij toonden verschillende fabrikanten juist wel netbooks met Arm-chips in plaats van een x86-processor. Ook die apparaten zouden bij uitstek gebruik gaan maken van Android in plaats van Windows. Laptops met Arm zijn echter nooit populair geworden, hoewel daar zo langzamerhand verandering in kan komen. Apple stapte in 2020 over op de instructiesetarchitectuur met zijn succesvolle M1-chip. Windows op Arm bestaat al jaren, maar gaat met de introductie van de Qualcomm Snapdragon X-chips eerder deze week mogelijk eindelijk een grotere opleving doormaken.

Tien jaar geleden: OVpay-beginselen, Breath of the Wild en Chinese chipambities

Ook in 2014 was de E3 nog in volle gang, met verschillende grote aankondigingen. Zo deelde Nintendo een korte teaser van zijn volgende grote Zelda-game, waarin Link op zijn paard achterna werd gezeten door een vuurspuwend monster. De game zou op termijn beschikbaar komen voor de Wii U. De fabrikant deelde verder weinig details, maar sprak wel over een release ergens in 2015.

Die deadline werd uiteindelijk niet gehaald. De game verscheen uiteindelijk in maart 2017, als launchtitel voor de Nintendo Switch. De game, die uiteindelijk de naam Breath of the Wild meekreeg, is nog altijd een van de best beoordeelde games aller tijden, met een score van 97 op Metacritic. Vorig jaar verscheen een sequel, Tears of the Kingdom, die ook erg goed werd ontvangen.

The Legend of Zelda

De NS en een aantal Nederlandse banken kondigden in 2014 een proef aan om met het ov te reizen met je bankpas. Reizigers moesten in de toekomst hun bankpas kunnen gebruiken om in te checken voor de trein. Het moest daarmee een alternatief worden voor de bestaande ov-chipkaart. Samenwerking tussen de NS en de banken was nodig. Die laatste stopten immers de NFC-chip, die het inchecken mogelijk moest maken, in hun passen.

De NS meldde dat reizen met je bankpas mogelijk zou worden op bestaande poortjes en incheckpalen, zonder wijziging. De eerste tests zouden gehouden worden onder personeel en pas later zou het publiek erbij betrokken worden. In de jaren daarop deden de partijen verschillende tests, zowel met bankpassen als met smartphones. De techniek is inmiddels officieel beschikbaar in de vorm van OVpay.

OnePlus One OnePlus bracht vijftien jaar geleden zijn eerste toestel officieel op de markt. De toen nog startende smartphonemaker kondigde zijn eerste telefoon, de OnePlus One, eerder in 2014 officieel aan, maar leverde in juni 2014 de eerste telefoons aan klanten. De smartphone werd aanvankelijk enkel verkocht aan gebruikers die daarvoor een uitnodiging ontvingen.

AMD toonde op zijn beurt tien jaar geleden de eerste monitors met FreeSync-ondersteuning. Deze techniek, die schermen een variabele refreshrate geeft voor vloeiender beeld zonder tearing, moest de concurrentie aangaan met het toen al bestaande G-SYNC van Nvidia. FreeSync gebruikte, anders dan G-SYNC, geen aparte hardware om deze variabele refreshrate te realiseren, aangezien AMD daarvoor gebruikmaakte van de VESA Adaptive Sync-standaard die in de DisplayPort-standaard is verwerkt. Daarmee zouden FreeSync-schermen werken bij een kleiner refreshratebereik, maar ook fors goedkoper zijn.

Tegenwoordig is FreeSync-ondersteuning bijna niet meer weg te denken uit monitors; veel schermen hebben de techniek nu standaard aan boord. Ook Nvidia is inmiddels deels overgestapt op VESA's Adaptive Sync-standaard in de vorm van G-SYNC Certified, hoewel schermen met losse G-SYNC-modules nog steeds worden aangeboden. Adaptive Sync, en daarmee dus ook FreeSync, is tegenwoordig ook te vinden in veel televisies.

AMD FreeSync

China maakte tien jaar geleden zijn ambitie bekend om tegen 2030 de grootste chipfabrikant ter wereld te zijn. Het land wilde niet alleen meer inkomsten uit chips binnenhalen, maar ook minder afhankelijk worden van buitenlandse mogendheden. China was toen al een van de grootste importeurs van chips ter wereld en liep technisch jaren achter op de leading-edge producenten in Taiwan, Zuid-Korea en de Verenigde Staten.

China Chinese vlagConcreet had China ook doelen om tegen 2030 voldoende chips te kunnen produceren om aan tachtig procent van de binnenlandse vraag te voldoen. Om dat te bekokstoven, zou China de lokale chipsector gaan ondersteunen, vooral in de vorm van subsidies. Het land heeft sinds de afgelopen jaren een flinke subsidiepot om lokale chipmakers te helpen.

China timmert nog altijd hard aan de weg, maar heeft zijn ambities vooralsnog niet waargemaakt. Hoewel SMIC eerder een technische doorbraak behaalde door 7nm-chips te produceren, heeft het land veel last van internationaal beleid. De Verenigde Staten introduceerden twee jaar geleden vergaande beperkingen op de export van chips en chipproductieapparatuur naar China.

Later volgden Japan en Nederland. Het Nederlandse ASML mocht bijvoorbeeld al langer geen euv-machines aan China leveren. Die machines zijn nodig om de geavanceerdste chips te produceren. Sinds begin dit jaar is ook de export van oudere, maar nog steeds geavanceerde immersielithografiemachines onderhevig aan exportrestricties.

Door Daan van Monsjou

Nieuwsredacteur

23-06-2024 • 06:00

44

Lees meer

Intel wil meer aandacht voor EFI
Intel wil meer aandacht voor EFI Nieuws van 29 september 2006

Reacties (44)

44
44
21
3
0
20
Wijzig sortering
Pas met de introductie van AMD's Ryzen-processors in 2017 kwamen cpu's met maximaal acht en later zestien kernen beschikbaar op een consumentenplatform.
Ik had in 2011 al een AMD Bulldozer FX-8150 Octa-core processor. Dat was volgens mij de eerste consumenten processor met 8 cores.
De cores in de FX cpu's hadden per 2 Bulldozer cores een gedeelde FPU in tegenstelling tot vergelijkbare Intel cpu's toendertijd. Er is in 2015 nog een rechtzaak geweest met de strekking dat AMD foutieve informatie voorstelde aan consumenten bij de verkoop van FX cpu's; https://www.theregister.com/2015/11/06/amd_sued_cores/
Ryzen daarentegen (met Zen cores) bestaat wel uit volledige functionele cores met elk ook een eigen FPU.
En ik vind dat onterecht 80386S had ook geen FPU die kon je erbij kopen 80287 ik Wietec alternatief. Later kwam er cache bij op mobo’s bij ARM zijn embeded veel specialiseerde PU en extenties optioneel. In mijn ogen is de core van CPU ALU’s FPU is extentie addon vroeger apart socket

Bulldozer naar Piledriver was ook flinke IPC boost naar 32nm
Deze architectuur 14nm TSMC zou 4voud meer transistor density leveren voor meer cores maar ook FPU per core sloot meer cache heel veel bredere implementatie van cores en zou dus een enorme IPC boost zijn.
32nm sla je 28 en 22 over naar 14nm op 14nm TSMC vs 14nm intel zou bulldozer architectuur ook enigzins competatief zijn en lekker klokken net als raptorlake ook wat extra stroom vragen. Zen Succes is mogelijk door inwisselen falende Global foundry door TSMC
Het is giganties fout om bulldozer achitectuur de schuld te geven en 32nm vs 14nm verschil dat is zelfde als 3nm intel intelfoundry/TSMC Arrowlake vs Zen op 7nm

Zen heeft ook aanzienlijke IPC boost elke zen gen, dus Zen1 was nog verre van optimaal en pakte de kroon niet maar was competitive genoeg ,dus grote kans dat buldozer 14nm beter kon zijn dan ZEN in performance minder in vermogen omdat 3gen zou zijn.
Buldozer 1gen had release probleem dat klok targets niet haalde. Dat kwam later goed. Maar dan heb je al ruk reviews piledriver deed redelijk nieuw was maar 28nm 22nm 14nm intel is extreme dieshrink achterstand dan doet architectuur niet meer toe. Je hebt dan twee gigantische handicap transistor denisty en power efficientie naast klok ceiling. Met 20 stages was dat al 5ghz 32nm 9series kijkt wat ecores zendense en arm doen op 3nm rond de 4Ghz uiteraard zal 20stage piledriver next ook dezelfde problemen krijgen zoals Netburst en Raptorlake . Of die architectuur geschikt is voor chiplets. Misschien. Alleen minder geschikt voor many cores zoals Epyc. Dus Zen is wel betere keuze meer richting wat ARM doet lagere klokschaling hogere transistor density zoals Zen dense
En ik vind dat onterecht 80386S had ook geen FPU die kon je erbij kopen 80287 ik Wietec alternatief.
Ik denk dat de strekking van je verhaal is dat je de definitie van wat een CPU is gelijk kan houden (aan die van de allereerste microprocessor). Dan is een gedeelde cache/FPU dan geen beperking is maar juist een verbetering (t.o.v. géén FPU). Ik heb daar een andere mening over, maar ik snap je uitgangspunt.

offtopic:
Wat ik niet snap is dat je zo'n lang verhaal typt en dan zo weinig aandacht aan de leesbaarheid besteed. Lees het vooral nog eens na met het idee dat leestekens zo goed als gratis zijn, meestal aan de linkerkant van de spatie thuis horen, en het voor je publiek veel prettiger en makkelijker maken om je mening te lezen.


Mijn ouders hadden een 80387 SX liggen. De 80486 was volgens mij de laatste intel CPU zonder ingebouwde FPU. Je kunt dus stellen dat een FPU sinds 1993 (Intel Pentium) een FPU aan boord heeft; In 2011 een processor uitbrengen zonder native Floating Point ondersteuning zou naarmijn mening ondenkbaar zijn, dus persoonlijk vind ik dat een core zonder FPU niet een volledige core is.

[Reactie gewijzigd door 84hannes op 22 juli 2024 14:06]

Maar de Phenom niet, die had weliswaar 6 cores in 2008/9 maar meer als 4 cores, en elk hun eigen FPU.
of het nu FPU alleen is of niet is een bijzaak, feit is dat de info van de redactie gewoon niet juist is.

Er was een Intel ivy bridge in de extreme serie met 6 cores in 2013 en AMD had phnom X6 al in 2010.
Er was dus wel degelijk meer dan 4 core.... al of niet de beste keuze is iets anders.
En ook Intel had al 8-core consumenten CPU's ver voor 2017, met de Core i7-5960X, gebaseerd op de Haswell-architectuur. Die had ook 8 cores en 16 threads, die CPU kwam in augustus 2014 op de markt.
Was dat niet een ongebouwde server cpu? Die had quad channel geheugen en paste niet in de reguliere consumenten platform (andere socket). En het heette extreme edition.
Edit: En heel duur.

[Reactie gewijzigd door WildWilly op 22 juli 2024 14:06]

Nee, de 5960X was een 'High-End/Enthusiast'-desktop CPU, net zoals elke 'Extreme Edition' dat was.

Die kwam uit op de LGA2011v3-socket, die weliswaar ook voor servers (Xeon) bedoeld was, maar ook voor high-end desktop. Die socket werd bijvoorbeeld ook voor enkele non-extreme editions gebruikt van de Broadwell, Haswell, Sandy Bridge en Ivy Bridge-architecturen. Varierend van CPU's met 4 tot 10 cores (en dubbele aantal threads).

Ook de door @Bamsebjorn genoemde FX-8150 was een soort 'extreme edition', want die Bulldozer werd naast de FX- serie ook voor de Opteron-serie gebruikt, die voor servers bedoeld waren (tegenhanger van de Xeon's van Intel).

Die FX en de 5960X/Extreme Editions zaten dus (qua marketing iig) in hetzelfde high-end/enthusiast consumenten-segment.

[Reactie gewijzigd door wildhagen op 22 juli 2024 14:06]

Maar die FX serie paste gewoon op de am3+ platform. Je moest wel opletten dat je moederbord het wel goed kon ondersteunen. Veel goedkope moederborden konden die 125W niet goed aan.
Ik heb nog een pc met die cpu gebouwd. Vader van een vriend had het in zijn hoofd dat hij de meest krachtige cpu op de markt moest hebben.
Cpu was toen €1100. Draaide met een noctua koelblok als een trein. Helaas ging 3 jaar terug het mobo kapot en daarvan waren vervangingen zo duur dat het niet de moeite waard was er verder mee te gaan.
Zelf heb ik toen de Intel 6 series uitkwam 2e hands een 5820k gehaald. Ook vanwege de extra cores.
Ik had ook zo'n ding, de FX-8350. Ondanks alle kritiek die AMD ervoor kreeg heb ik er veel plezier uit gehaald.

Later heeft AMD dacht ik wel een rechtzaak verloren omdat ze dit 8 core processors heetten, omdat bepaalde cruciale rekenelementen per twee kernen gedeeld werden.

Dit gebeurt wel vaker, bijvoorbeeld met floating point of SIMD eenheden, maar AMD had het net iets te ver gedreven naar de mening van de consument en de rechtbank.
Ik dacht dat het niet tot een rechtszaak kwam? AMD had voor 12.1 miljoen dollar betaald om maar van af te zijn. Nou ja, dat is bijna net zoals schuld bekennen (volgens sommigen).
Ik had i920 wilde upgraden naar 8370 nooit van gekomen werd 1850X Zen1
Een PhenomII 4X 965 liep tijdje nog ernaast is vervangen door Macmini vorige last gen x86 en die vervangen door lastgen x86
Dat maakt van 80386S 25MHz een no core cpu heeft geen FPU.
Ik had ook zo'n ding, de FX-8350. Ondanks alle kritiek die AMD ervoor kreeg heb ik er veel plezier uit gehaald.
Ik had vroeger heel lang geteerd op mijn Phenon X6 1100t, vooral omdat ik ook overal las dat de FX processoren niet sneller waren als deze processor

Uiteindelijk toch een FX processor 2e hands voor paar tientjes in het zelfde moederbord geprikt, en het verschil was echt zeer groot.. spellen die eerst niet speelbaar waren, waren nu weer prima speelbaar

Had meteen spijt dat ik dit nooit eerder had gedaan, de 6300 was voor de prijs eigenlijk een prima processor! stroom verbruik boeide me toen niet al te veel
Raar, ik krijg helemaal geen browser keuze schermen meer. Edge wordt standaard in mijn ISOs geinstalleerd. Misschien omdat ik en_US installeer?
Het browserkeuzescherm was beperkt in de tijd, ik geloof 2 jaar. En vandaag heeft MS geen dominante positie meer met hun browser. Die positie is doorgeschoven naar Google.
Meerdere Cores in processoren was een succes, maar rond 2000 waren er ook meerdere moederborden met 2 CPU's. Dat is nooit wat geworden. Lag aan dat schaalbaarheid op deze manier niet goed werkte en prijs niet tegen prestatie opwoog.
Dual Celerons deden het prima met een "tweak" op de slocket. Enige probleem was dat alleen Windows NT en later 2000 meerdere cpus ondersteunden.

Qua prijs viel dat wel mee en als je eenmaal gewend was aan meerdere CPUS was het lastig teruggaan. :)
Klopt, zelf ook een dual Celeron systeem gehad.
Dat ding liep als een dolle. Inderdaad win2000 er op en het systeem was zo veel soepeler dan een single cpu/core systeem.
Yep, USB support was echt wel een verbetering tov NT.
Klopt, de echte winst kwam pas in de afgelopen 10 jaar. Vooral bij games heeft het lang geduurd en was één snelle core belangrijk. Kijk bijvoorbeeld naar Age of Empires II: DE. Daar wordt nog altijd de oude code gebruikt, maar sommige limieten zijn wel opgehoogd zoals het maximum aantal units van 1600 naar 4000, maar je hebt echt een hele snelle core nodig wil je dat trekken. Extra cores hebben hier geen enkel effect.
Toch waren er wel degelijk situaties waar dual socket in die tijd nut had. Op mijn werk vroeger waren er een paar DELL dual-socket workstations waar er maar 1 Pentium II 350 in zaten. Zij draaiden grote Excel VB macro’s dat duurde wel iets meer dan 5 uur. Ik deed een test om te laten zien dat het sneller kan. Leende van een ander workstation een processor en de macro was klaar in ongeveer 3 uur klaar. De week daarop mocht ik 6 workstation “upgraden” waar dezelfde soort macro’s werden uitgevoerd (want tijd kostte geld daar).
gcc op Linux ondersteund ook al jaren multi processor compileren, dat levert ook veel tijdwinst op. Er is zelfs een speciale tool voor gcc waarbij je het over meerdere werkstations kun verdelen, gedistribueerd compileren. Maar dan had je wel een snel netwerk nodig.
Bedrijf waar ik werkte gebruikte Windows NT 4. Keuze was er niet.
Daar waar ik werke in eerste instantie ook totdat we een apparaat ontwikkelde dat Linux als OS gebruikte. Toen was een Linux werkstation toch wel een stuk handiger, tot groot afgrijzen van de IT afdeling.
Ik werkte bij een bank. Ze zijn een heel stuk koppiger. |:(
De komst van Half life 2 en Source was toen geweldig. Dat heeft toch menig game plezier opgeleverd.

Volgens mij was de eerste dual core van mij een X2 3800+. Het was toen al een hele verbetering. Ik weet dat er toen nog spellen waren die hiermee niet overweg konden en als nog maar 1 core gebruikten. Met deze terugblik zie je maar weer dat de tijd veel te snel gaat.
Altijd leuk deze terug in de tijd artikelen, vond het weer super leuk om het te lezen.
Browserkeuzescherm ook zo een gedrocht wat door de EU was opgelegd. Henk en Ingrid willen gewoon dat het internet werkt en de rest interesseert ze niets.
En precies daarom was het zo belangrijk.
Men ging er over nadenken.
Zo kon Firefox en andere blijven bestaan.

Jammer, dat nu Chrome min-of-meer oppermachtig is.
Henk en Ingrid hadden op termijn een monopolist kunnen gaan betalen voor updates om nieuwe webstandaarden ondersteund te krijgen. Het interesseert hen misschien niets, maar dit zorgde wel voor meer ruimte en integratie voor en van andere browsers.
Zat problemen destijds door dat domme browserkeuze scherm tegengekomen. dat mensen niet meer wisten wat ze moesten.
Ruim voor de OV kaart kon je in Enschede een buskaartje betalen met je ChipKnip, ik vond dat echt ideaal. Instappen, pas in de automaat en aangeven waar je heen wilde en klaar. Helaas was dat met de komst van de OV kaart over. Moest je eerst ergens anders geld op je ov kaart zetten terwijl ik mijn chipknip gewoon op school kon opladen.
Haha, NL en OV-pay.
Ik was in 2008 in Praag en daar viel het me op, dat de helft van de mensen met hun telefoon incheckten/betaalden in de tram.
Jaren later werd in NL OV-pay uitgebracht, met een ophef alsof ze een werelduitvinding hadden gedaan.
Het probleem is dat Nederland verschillende vervoerders heeft die allemaal andere tarieven rekenen. Dat maakte zo'n systeem invoeren lastig.
Het kneuterige van NL is dat eerst ieder maatschappij zijn eigen systeem ging ontwikkelen, die daarna met veel moeite aangepast moesten worden om op elkaar aan te sluiten.
Je zou als (klein) land kunnen bedenken om van het begin af aan één systeem te ontwikkelen. Maar ja...
Ja. wat voor systeem men gebruikte en hoe het precies werkte weet ik niet, maar zie hielden hun telefoon voor een kastje bij het instappen.
Tegenwoordig is betalen met je telefoon niet meer weg te denken
Ik gebruik "gewoon" nog een bankpas. Ik zie totaal niet het nut om dat via de telefoon te doen.
Voordeel: Je hoeft met de telefoon geen pincode meer in te geven. Met de pas moet dat vaak toch wel en dat is onhandig.

En de telefoon heb je meestal wel bij de hand.
Ik denk dat er bedoeld wordt het inchecken en uitchecken met de bankpas voor diegene die geen kortingen krijgt.
Ik deed ooit mee met een pilot van, naar schatting, 1500 personen die met een telefoon mochten reizen ipv een ov kaart.

Conducteur keek me een beetje raar aan bij controle toen ik mijn telefoon wilde overhandigen. Blijkbaar niet de memo gelezen.

Werd indirect beschuldigd van zwartrijden omdat ze me niet kon controleren blijkbaar. Eerstvolgende station moest ik er toch uit. "Vooruit dan maar"...

Op dit item kan niet meer gereageerd worden.