Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 244 reacties

Sir Clive Sinclair, de Britse uitvinder die in de jaren tachtig aan de wieg stond van de Sinclair ZX80, laat in een interview weten dat hij geen computer meer aanraakt. De huidige pc zou geheugen verkwisten en gebaseerd zijn op 'inferieure ontwerpen'.

De uitvinder laat in een interview aan de Britse krant The Guardian weten dat hij in het dagelijks leven geen computer meer aanraakt. Alle e-mails die bij zijn bedrijf binnenkomen, worden door anderen verwerkt. Sinclair stelt dat hij liever wordt gebeld. Inmiddels werkt de uitvinder aan de bouw van een compacte elektronische auto, wat hij in 1985 al probeerde met de C5, een weinig succesvolle elektrisch aangedreven driewieler.

Sinclair experimenteerde al in de jaren zeventig met elektronica en introduceerde in 1972 zijn eerste pocketcalculator. Ook kwam de uitvinder met een digitaal horloge en pocket-televisie. Sinclair concentreerde zich op goedkope massaproductie, en de grote doorbraak kwam in 1980: toen bracht de Brit de Sinclair ZX80 op de markt. Deze homecomputer, met een op 3,25MHz geklokte Z80-cpu, 1kB werkgeheugen en een ingebouwde Basic-interpreter, was onder andere beschikbaar in de vorm van een bouwpakket en kostte net geen honderd pond.

ZX81Door het verkoopsucces van de ZX80 kwam Sinclair Computers een jaar later al met de ZX81 op de markt, gevolgd door de ZX Spectrum. Beide homecomputers verkochten met name goed door de beschikbare spellen.

In zakelijke markt probeerde Sinclair het met de QL, die echter al snel achterhaald raakte door de komst van de modulair opgezette Personal Computer van IBM. De inmiddels geridderde Sinclair kwam hierdoor in financiële problemen en moest zijn computerhandel aan concurrent Amstrad verkopen.

Dit jaar viert Sinclair zijn zeventigste verjaardag en is het dertig jaar geleden dat de uitvinder met de ZX80 een commercieel succesvolle homecomputer introduceerde. In het interview stelt Sinclair dat hij zeer teleurgesteld is over de huidige personal computer en de bijbehorende besturingssystemen. "Onze computers waren efficiënt en bevatten geen overbodige zaken. Helaas misbruiken de hedendaagse computers hun werkgeheugen op een spilzieke manier. Je moet wachten totdat die apparaten zijn geboot. Het zijn verschrikkelijke ontwerpen, hartverscheurend", aldus Sinclair.

Duitse ZX80-advertentie

Moderatie-faq Wijzig weergave

Reacties (244)

1 2 3 ... 7
Binnen een seconde startte vroeger, begin jaren '80 de zelf gebouwde ZX81 op. Daarvoor de hele zomer Chrysanten stekjes gesorteerd van 's morgens vroeg tot laat. Om de nodige Engelse ponden bij elkaar te rapen . Bouwpakket besteld in Groot BrittanniŽ. En nee internet bestond nog niet. Gewoon telefonisch of een bestelbrief.

Na een middag en avond soldereren ehh solderen, geen beeld op de zwart-wit TV. Wat bleek de beeldlijnen in Engeland zijn anders dan in Nederland. Een weerstand waarde veranderen en .... beeld.
Voor het eerst van m'n leven zag ik een prompt an inverted K. Het heeft me nooit meer los gelaten. : "It hooked me forever" Begonnen met basic. Al snel overgestapt op machinetaal, hexadecimaal. A-F 0-9
Mnemonics. Het verschil tussen een 8 en een B was altijd lastig te zien. Menige crash daardoor ;-)) en uren fout zoeken in duizenden regeltjes code. Nee geen Google, je brilletje strak op de neus. kin plat op de buis.

Met 16Kb aan geheugen (een icon gifje nu) was je koning te rijk. Echt, complete schaakspellen, toren van Hanoi, maanlander, spelletjes enz. Je schreef direct in de taal die de processor begreep.

De opgedane kennis gebruik ik nog steeds, heden ten dagen. En geef het graag door. Het blijven ene en nullen. Als je snapt hoe het zit met die bitjes en de bytjes, registers accumulatoren, LSB, MSB etc. verbaas je je regelmatig anno nu hoe programma's in elkaar geknutseld worden. Dat wil zeggen als je de machinetaal patronen ziet. Soms herken je direct met welke assembler het gemaakt is. Hele lappen repeterende code staan bytjes tot bitjes te stampen om de white spaces van een stringetje af te trimmen.

Er is een Engels woord dat precies omschrijft hoe je moet programmeren en dat is 'elegance'.
Edsger Wybe Dijkstra, de vader van gestructureerd programmeren legt dit principe meesterlijk uit. 'How long is a line of code?', briljant ;-)

Maar goed dan dwalen we een beetje van het topic af. AF is voor mij machinetaal.;-)
Clive heeft zo zijn steentje bijgedragen. Chapeau. Net zo als vele anderen.

Er bestaan zelfs emulatoren en nog steeds zijn enthousiastelingen, addict bezig met de ZX81 zie:http://www.zx81.nl/

[Reactie gewijzigd door pentode op 2 maart 2010 23:36]

Onze computers waren efficiŽnt en bevatten geen overbodige zaken. Helaas misbruiken de hedendaagse computers hun werkgeheugen op een spilzieke manier. Je moet wachten totdat die apparaten zijn geboot. Het zijn verschrikkelijke ontwerpen, hartverscheurend", aldus Sinclair.
Op zich heeft ie wel een punt, OS-en en programma's zouden best wat efficienter met geheugen en CPU cycles om kunnen gaan. Maar als hij echt zoveer doorschiet dat moderne computers daarom spilziek, verschrikkelijk en slecht ontworpen zijn, dat komt een beetje op me over als iemand die een paar decennia terug in de tijd is blijven hangen. Op dezelfde manier zou je moderne benzinemotoren ook 'vreselijk' kunnen noemen, want die leveren zo veel vermogen en koppel, echt een drama, vroeger reden auto's nog met 10pk en 20Nm koppel...

Wat Sir Clive Sinclair even vergeet als ie het over de boot tijden van moderne computers heeft, is dat huidige computers duizend keer meer kunnen dan zijn oude Z80, en daar dus ook 1000 keer meer code en data voor nodig hebben. Een Z80 had misschien 32kb aan ROM voor het hele OS of iets in die orde van grootte, nogal wiedes dat dat sneller gaat dan een OS laden dat megabytes aan code en data nodig heeft voor alle functies die het ondersteunt.

Komt nog bij dat devices die van flash booten of kunnen hibernaten steeds dichter bij instant-on komen. 10 seconden boot voor een linux distro vanaf een SSD is al in zicht. Pak een willekeurig electrisch apparaat en het kan technisch waarschijnlijk al vele malen meer dan een Z80 van toen, terwijl veel van dat soort apparaten gewoon direct functioneel zijn als je ze aanzet. Denk aan een TV, de ECU in je auto, routers, digitale horloges, etc.

Kortom, Sir Clive gaat denk ik dezelfde weg als de uitvinder van de stoommachine, ooit een pionier, inmiddels ingehaald door de realiteit van vandaag.

Edit: uitzet->aanzet

[Reactie gewijzigd door johnbetonschaar op 2 maart 2010 16:44]

hmm, oneens. alleen zijn het imho niet de computers, maar de softwarez die geheugenziek zijn. neem nu firefox: ik heb alleen deze pagina open, weinig add-ons, en toch 88 meg in gebruik. of neem windows (XP in mijn geval, maar ik heb me laten vertellen dat 7 nog erger is): al een megabyteje of 150 zonder iets opgestart te hebben.

wat zit er dan allemaal in dat geheugen? als programmeur weet ik dat het best lastig is 150 meg te verbruiken (tenzij je overal filmpjes ed. inlaad, maar dat lijkt me voor een OS niet nuttig :P).
dat huidige computers duizend keer meer kunnen dan zijn oude Z80
is dat zo? ze zijn misschien duizend - of waarschijnlijk meer - keer sneller, en we hebben intussen het taskswitchen, maar verder? het ding doet nog steeds niets anders dan machinecode uitvoeren.

misschien een betere vergelijking: kijk eens naar een jaar of 15 geleden en neem een linux of windows van toen. het deed zo goed als exact hetzelfde als nu, maar dan met 10x minder geheugenverbruik. rara, hoe kan dat? nou, als mensen toch genoeg geheugen hebben let een bedrijf niet meer zo op efficiency. zelfde geld voor CPU-verbruik.

ik kan niet anders dan het eens zijn met sir sinclair, en vind het jammer dat zijn kritiek door de meesten (en dan vooral bedrijven) in de wind gaat worden geslagen. ik erger me blauw aan al dat geswap om niets.. *rattle rattle*
is dat zo? ze zijn misschien duizend - of waarschijnlijk meer - keer sneller, en we hebben intussen het taskswitchen, maar verder? het ding doet nog steeds niets anders dan machinecode uitvoeren.
Ik bedoelde dat computers 1000x meer kunnen, praktisch gesproken, niet technisch gesproken. In theorie (abstract bekeken) kan elke computer die Turing-complete is dezelfde set programma's uitvoeren, mits er maar genoeg geheugen beschikbaar is. Een counter-program computer met slechts increment, decrement en test instructie is al Turing-complete. In de praktijk heb je echter niks aan deze kennis.

Tevens is 'meer geheugengebruik' niet per definitie slecht of inefficient. Wat pas inefficient is, is als je 4GB RAM tot je beschikking hebt, om een programma te draaien dat 'geoptimaliseerd is' voor geheugengebruik, zodat het programma maar 10 MB footprint heeft maar wel alle data elke keer van disk gaat laden. Door caching en duplicatie kan je run-tijd en geheugen vaak uitwisselen, nu geheugen dirt cheap is, is het alleen maar voordelig om geheugen in te ruilen voor performance.
misschien een betere vergelijking: kijk eens naar een jaar of 15 geleden en neem een linux of windows van toen. het deed zo goed als exact hetzelfde als nu, maar dan met 10x minder geheugenverbruik. rara, hoe kan dat? nou, als mensen toch genoeg geheugen hebben let een bedrijf niet meer zo op efficiency. zelfde geld voor CPU-verbruik.
Ik snap je punt wel, maar vind je echt dat een $2000 computer van 15 jaar geleden hetzelfde kan als een $200 laptop van vandaag? Full-screen video afspelen in true-color, webpagina's met anti-aliased truetype fonts renderen, multi-channel audio afspelen, miljoenen polygonen en miljarden pixels per seconde renderen, gigabytes aan data indexeren en doorzoeken, en dat allemaal in een apparaat dat 10x zo klein en 10x zo goedkoop is. Ik denk dat je jezelf voor de gek houdt, vroeger waren computers echt zoveel kariger dan nu dat het bijna eng is. Je voorbeeld is bovendien niet zo goed gekozen, Linux is namelijk nog maar net 15 jaar oud, pas een jaar of 10 interessant voor niet-hobbyisten, en door de jaren heen eerder efficienter en sneller geworden dan andersom. Als je linux al op een horloge kunt runnen, of op een computer ter grootte van de stekker van jouw PC uit 1995 die nog krachtiger is ook, dan kan je moeilijk concluderen dat er alleen maar bloat is bijgekomen.

Het is maar net wat je nodig of wenselijk acht... Een 3D desktop is niet nodig maar wel leuk, een browser die video kan afspelen is niet nodig met wel leuk, een tekstverwerker die WYSIWYG precies laat zien hoe het document er geprint uitziet is niet nodig, maar wel verdomde handig vergeleken bij een console-based tekstverwerker, and so on...

[Reactie gewijzigd door johnbetonschaar op 2 maart 2010 17:31]

Ik snap je punt wel, maar vind je echt dat een $2000 computer van 15 jaar geleden hetzelfde kan als een $200 laptop van vandaag? Full-screen video afspelen in true-color, webpagina's met anti-aliased truetype fonts renderen, multi-channel audio afspelen, miljoenen polygonen en miljarden pixels per seconde renderen, gigabytes aan data indexeren en doorzoeken, en dat allemaal in een apparaat dat 10x zo klein en 10x zo goedkoop is. Ik denk dat je jezelf voor de gek houdt, vroeger waren computers echt zoveel kariger dan nu dat het bijna eng is.
http://www.youtube.com/watch?v=c5kuYfTCGLg

Bovenstaande kon de Amiga voordat Windows kon multitasken bwvs, en dat was op 1 disk.
Deze machine kostte toen al een tiende van een PC (en was kleiner en lichter).
En mocht ik dit op een moderne PC willen emuleren, dan blijkt die zelfs met 4 cores moeite te hebben daarmee (een oude MAC zou er minder moeite mee hebben). Zullen we dus het AmigaOS maar gebruiken voor vergelijking ipv Linux?
Overigens zijn op Amiga's oa de schepen Van Babylon5 gemaakt, om maar eens iets te noemen (videotoaster).

x86 is altijd al inferieur geweest en velen van jullie weten dat stiekem ook. (het voordeel van x86 is de modulaire opzet waardoor verschillende fabrikanten onderdelen kunnen toevoegen. (netwerkkaarten, geluid, graka -> ieder hun eigen vakgebied)

En wat betreft het 'kunnen' van een machine: dat is hoofdzakelijk gelimiteerd aan het 'kunnen' van de gebruiker/programmeur.

Ik ben bang dat ik Sir Sinclair gelijk moet geven wat betreft efficiŽntie.
als we toch offtopic bezig zijn ;)

arte by sanity
misschien een betere vergelijking: kijk eens naar een jaar of 15 geleden en neem een linux of windows van toen. het deed zo goed als exact hetzelfde als nu, maar dan met 10x minder geheugenverbruik. rara, hoe kan dat?
Er wordt inderdaad anders met geheugen omgesprongen, maar dat dat per definitie slecht is, ben ik het niet mee eens.

Kijk naar Windows 7; veel mensen klagen dat, zelfs wanneer de computer net is opgestart, de hoeveelheid 'vrij' geheugen maar een paar MB is. Dat klopt ook, maar dat komt omdat Windows heel veel dingen alvast voor je in geheugen heeft geladen, zodat wanneer die nodig zijn ze onmiddelijk uit het geheugen kunnen worden geladen, in plaats van eerst van schijf (wat een relatieve eeuwigheid duurt).

Als een programma echter die geheugenruimte nodig heeft, dan geeft Windows het geheugen gewoon vrij en kent het toe aan het programma wat het nodig heeft.

Kortom: je zou ook kunnen zeggen dat de programma's van vroeger 'spilziek' waren omdat ze zo bang waren om geheugen te alloceren, in plaats van er gebruik van te maken. Soms is het voor de performance van een applicatie beter om iets in wťl in het geheugen op te slaan dan om dat niet te doen en geheugen te besparen.
azkie_botsauto heeft het over het geheugenverbruik op applicatie-niveau en niet over het OS. Het OS kan namelijk bijhouden welk geheugen er vrijgegeven kan worden (en het kŠn dan ook vrijgegeven worden) terwijl een applicatie niet van zijn geheugen gestript kan worden zonder in een crash te resulteren (tenzij de applicatie hier een API voor heeft). Ondanks dat vind ik ook dat er op OS-gebied wat meer aandacht voor efficiency moet komen (kijk eens wat een iPhone kan met maar 128Meg RAM), maar helaas zijn ontwikkelaars doorgaans lui, gemakszuchtig en eenkennig, en die jachterige deadlines helpen er ook niet bij.

[Reactie gewijzigd door Rick2910 op 2 maart 2010 17:27]

Meer geheugen gebruiken is niet altijd slechter, WinVista en 7 laden applicaties op de achtergrond in het geheugen, zodat je die sneller op kan starten wanneer je ze daadwerkelijk gebruikt, dit doet hij dan voor de vaak gebruikte programma's in dat geval heb je dus een snelheidsvoordeel terwijl je toch meer 'geheugen' verbruikt.

Heb je meer geheugen nodig, dan haalt hij het andere weer uit het geheugen (gaat zo snel dat merk je niet) en voila, je echt geheugen hongerige applicatie kan om meer geheugen vragen.
Veel besturingssystemen en applicaties doen ook nog iets van caching. Daar zit vaak het geheugen gebruik.
ik erger me blauw aan al dat geswap om niets.. *rattle rattle*
Laat me raden: je gebruikt Vista. :P
(Volgens mij is het geen swappen maar superfetch/indexing/andere onzin.)
10 pk
Wanneer was dat?

[Reactie gewijzigd door kimborntobewild op 4 maart 2010 10:24]

Strikt genomen heeft hij gelijk over het verkwisten van geheugen, maar wat is het alternatief? Software is tegenwoordig dermate complex, dat development een eeuwigheid zou duren als alles low-level geprogrammeerd moet worden, en 100% efficient gebruik moet maken van de beschikbare hardware.

Vreemd dat iemand die een groot deel van zijn leven in de computer business zit, zich dit niet realiseert.
Slecht ontwerp - dat wordt toch vermeld? Van de CPU, wel te verstaan. Met name het bezopen idee van een stack... Kijk eens naar wat een TI Business System 990/12 met DNOS kon (yup - even geen sir Clive). 256kB main memory, 2 x 300MB Winchester.
Maar wel een MRP-II pakket met tig gebruikers!

GUI heeft niets te maken met functionaliteit, integendeel
Het is lang geleden dat ik in machine code op een Z80 ben bezig geweest, maar ik kan me herinneren dat de stack functionaliteit van de Z80 niet veel anders was dan bij een x86 processor.
Het bezopen idee van een stack...??? Mag jij me eens uitleggen hoe jij een beetje modulaire (en dus makkelijk te onderhouden) code wil ontwikkelen met een assembly instructieset die geen JSR/RTS ondersteunt. (Zie bijvoorbeeld hier.) Vanzelfsprekend kan je met een stukje geheugen en JMP die functionaliteit zonder problemen nabootsen, maar dan heb je weer 'het bezopen idee van een stack' te pakken. Het compileren van een programma tot een overmaatste state machine (of welk ander ontwikkelpatroon dan ook dat werkt met jumptabellen) lijkt me bepaald geen triviale klus voor de compiler.

Tenzij je natuurlijk doelt op de neiging van programma's om tijdelijke opslagruimte op de stack te benutten, en dat het ontwerp van deze TI-machine dat overbodig maakt omdat geheugen even snel is als een CPU-register en een PUSH/POP dus geen snelheidswinst boven een LOAD/STORE biedt. Zit wat in, maar met het sneller maken van computers ligt het eerder voor de hand om gewoon het aantal registers uit te breiden tot RISC-achtige proporties (Intels hebben een belachelijk klein aantal) en caches het snelheidsverschil te laten opvangen. Het is nu eenmaal een stuk eenvoudiger om een klein stukje geheugen heel snel te maken, dan dit voor een groot stuk geheugen te doen. (Let wel: ik zeg niets over het RISC/CISC-debat voor zover dat hedentendage nog zinvol is; ik zeg alleen iets over het aantal registers, dat bij Intel nog steeds bijzonder karig is en tot zwaar stackgebruik dwingt.)
Het is bezopen om altijd alles via de stack te willen laten lopen.

Er komt nl een moment, dat je eigenlijk niet de stack weer wilt leeghalen. Overigens kent de TI990 wel degelijk een stack. Als je nu echt in de technische details wil gaan: het gaat me om het idee van Workspace Pointers.

Wat TI deed, was jouw programma gegevens in de WS pointers zetten op het moment, dat jij niks deed (en dat kon zijn: op het moment, dat je niks typte, of je typewerk in de buffer van je _block based_ terminal zat.). Dat ging dermate snel en efficient, dat je een heel kantoor kon laten werken met 256kB main memory.

Huidige CPU's moeten alles via de stack laten lopen - de TI kon jouw stack simpel op de WS zetten, en terug laden wanneer gewenst. Huidige CPU's moeten pull-pul-pull na een push-push-push; de TI kon een willekeurig aantal sessies op de WS plaatsen, en ze ook in willekeurige volorde terugladen.
wowowo. Dit is wel DE dude hoor hee. Kom op man! Een bijzonder praktisch inigestelde uitvinder!! Als Bill Gates besluit een stichting ter bevordering van touwtjesspringen opricht, zou dat ook hier op tweakers staan...

Volgens mij heeft niemand meer door hoe efficient de op de ZX80 gebaseerde homecomputers waren (Sinclair, MSX, volgens mij ook de Commodore 64 en 128). Ik zat in 1983 al 256 colour games te spelen en zelf te programeren, terwijl het nog tot 1989 duurde voordat de PC 's een keer in kleur wat weergaf en alsnog waren de graphics dan vaak bagger.

Vanuit zijn standpunt is het inderdaad dat de huidige PC gewoon zeer inefficient met resources omgaat. en wat betreft of hij zelf met verbeteringen moet komen...dat is een beetje de uitvinder van het wiel vragen om de nieuwe lamborghini te gaan ontwerpen.

<edit> ik haal de op de Z80 (CPU) gebaseerde computers en de ZX80 (computer)doorelkaar. Desalniettemin doet dit niks af aan zijn uitvinding.

[Reactie gewijzigd door vlaaing peerd op 2 maart 2010 16:20]

Je vergeet dat die machines ook al geluid aan boord hadden, iets wat pas veel later in de PC terecht kwam.

Ik ben het wel en niet met hem eens. Er kan inderdaad strakker geprogrammeerd worden, maar zijn computers werden hoofdzakelijk in machinetaal geprogrammeerd. We hebben nu x-de generatie programmeertalen om wat makkelijker te kunnen schrijven, en dat zal best wel enig verschil maken.
Daarnaast is er veel geheugen aan boord, maak er dan ook gebruik van! Preloaden van van alles wat nodig is / kan zijn, en je hebt een sneller aanvoelend systeem.
We hebben ook veel betere compilers, efficiŽntere algoritmen. If anything, als iemand je met de huidige tools aan een ZX80 zou zetten zou je hetzelfde kunnen doen als wat ze toen deden, maar veel sneller, met een klein beetje overhead van de dingen die een compiler niet kan weten.
Aan de ene kant snap ik zijn reactie wel, als je 't bekijkt uit het standpunt van gefrustreerde uitvinder die het niet meer bijsloft, ofzo. In dat geval kan ik me voorstellen dat hij van mening is dat de huidige computer in geen enkel opzicht meer lijkt op de machines die hij ontworpen heeft.

Aan de andere kant staat natuurlijk het feit dat de taken die worden uitgevoerd op een computer immens veel zwaarder zijn geworden in de afgelopen dertig jaar, en dat zijn computer in geen verhouding staat (wat betreft rekenkracht) tot wat we tegenwoordig gebruiken. Wat betreft het verspillen van geheugen heeft hij wellicht gelijk, maar dat lijkt me een software-matig verhaal. Een operating system van tegenwoordig is vele malen groter en krachtiger dan wat er dertig jaar geleden werd geschreven, en verbruikt dus ook vele malen meer geheugen. Of dat efficiŽnter kan weet ik niet, want daarvoor heb ik te weinig kennis van het in-depth programmeerwerk.

Wat hij zegt over het opstarten is natuurlijk bullshit; De Sinclair ZX80 stond ook niet direct klaar vanaf het indrukken van de aan-knop. Dat het tegenwoordig langer duurt is een gevolg van de toegenomen belasting van programma's op de hardware. Kortom; leuk voor hem dat hij geen computers meer gebruikt, maar hij ziet zelf waarschijnlijk ook wel in dat het een loos argument is. Als hij een treinkaartje koopt bij een automaat, zit hij ook aan een computer. Als hij een blikje cola uit een automaat trekt, zit hij aan een computer. Zelfs als hij geld opneemt bij de bank, zit hij aan een computer.
Helaas misbruiken de hedendaagse computers hun werkgeheugen op een spilzieke manier.
True. Geen speld tussen te krijgen.
Je moet wachten totdat die apparaten zijn geboot.
Ja, waarom eigenlijk? Waarom houdt het geheugen de boel niet vast als je uitschakelt? Geheugen genoeg zou je denken...
Het zijn verschrikkelijke ontwerpen, hartverscheurend"
Dat is natuurlijk ook zo. Wij borduren heden ten dage nog voort op het ontwerp van de 8086. Dat concept is meer dan 32 jaar oud! Toegegeven, er is wel wat evolutie: we gingen van 8 bits naar 64, er is vanalles aan toegevoegd, MMX, 3DNow, SSE, hyperthreading, etc. maar de basis is hetzelfde...

Dus. Niks gefrustreerde oude man! Hij is de (welliswaar bejaarde) revolutionair; een pionier, een man met visie; hij ziet als de spreekwoordelijke ťťnoog dat de wereld vast blijft zitten in dezelfde concepten - en iedereen doet er vrolijk blind aan mee!
Als hij al gefrustreerd zou zijn, dan snap ik waar dat vandaan komt: de kortzichtigheid en het kuddegedrag van de mensch die niet in staat blijkt om boven de bestaande concepten uit te stijgen en als jonge hond achter haar eigen staart aan blijft vangen...
Ik kan best begrijpen dat hij zich daarvan distantieert.

Maar ik doe nog lekker even achter mijn computert kruipen! ;)
Aan alle mensen* die met dergelijke argumenten afkomen:"Als je (Clive Sinclair) toch zoveel kritiek hebt, doe het dan beter." wil ik ook diezelfde vraag stellen:
- Als je bus of trein te laat is, en je klaagt daar op, vind jij het dan betekenisvol om jezelf ook toe te spreken:"Dit ga ik beter doen?!" - ret -

Natuurlijk hebben we er allemaal kritiek op en veel mensen hebben nu ook kritiek op Clive Sinclair omdat hij iets van zich afwerpt wat wij allemaal graag gebruiken en voor zoveel gebruiken. Het is als het ware een uitlating van hem op een stukje van ons. Althans, zo zie ik veel mensen precies, met dat onderbewuste gevoel/idee reageren.

En aanhalen hoe de computer nu 10.000x sneller is geworden (terwijl de man het eigenlijk over efficiŽntie heeft, maar goed.... ). In die tijd kon men gewoon niet sneller of het zou voor zijn doelstelling misschien onbetaalbaar zijn geweest. Want wat als hij nu een PC op de markt zou brengen die super efficiŽnt zou werken, x86-architectuur zou ondersteunen, maar alles wel een niveautje hoger tilt met maar 600 mhz bijvoorbeeld... aan en prijskaartje van 10x wat je voor een moderne PC zou betalen die hetzelfde kan doen.... Dan opeens is het voor een niche markt en kraait er geen particulier om, of ze schreeuwen er wel over, zoals met vele producten (de SSD's bv. van nu die merken op de markt blijven gooien) over "Ik hoop dat de prijs snel daalt.". Maar deze 'zinvolle' opmerking, gaat deze ook gepaard met het idee bij de mensen, dat het zeer normaal is om voor deze vooruitgang/evolutie ... of laat ons het even, efficiŽntie noemen, te betalen?


Persoonlijk vind ik de heer (als hij mij morgen ook Sir noemt, dan doe ik hem ook graag dat plezier) Clive iemand die op pagina 8 van een IT-magazine mag verschijnen. Maar als hij geen toegevoegde waarde biedt voor ons IT'rs op dit moment, of hij wat wil bereiken (met de nadruk op WAT?) door wat controversiŽle taal te uiten, al was het maar door wat te mopperen over de huidige fabrikanten, hoeft ie voor mij ťcht niet op een moderne website als Tweakers.net anno 2010 te verschijnen. Sorry Clive, ere wie ere toekomt in deze tijdsgeest; en voor je bibliografie zullen we wel eens op Amazon;com een bestelling doen voor wie het interesseert.

*geen uitnodiging om een flame te starten hoor

[Reactie gewijzigd door Mizitras op 2 maart 2010 18:13]

Wat een drama queen.. Kennelijk heeft ook hij dan niet de visie gehad om met een revolutionaire verbetering te komen voor de problemen die hij aansnijdt.
Soomige mensen zijn hun tijd gewoon te ver vooruit en dat was sinclair misschien ook.

Natuurlijk heeft hij gelijk dat de huidge pc's en software te gemakkelijk omgaan met geheugen. alleen is het de vraag of het anders kan. zou men bij het schrijven van software heel klein moeten gaan werken het laatste eruithalen om dan toch 1 mb te besparen. De kosten en baten staan dan niet meer in verhouding.

Het draait gewoon om kost en bate en dan is verkwisting vaak gewoon goedkoper. Daarnaast geheugen wordt ook groter en goedkoper dus theoretisch heeft de goede man gelijk, de praktijk is echter waar het om gaat.
dat is inderdaad de reden : het kan en het kost minder.
Maar denk eens aan al die grafische rotzooi er in bijna elk modern OS zit ? om nog niet te spreken van allerhande extra's.

Zijn die echt nodig ?

een OS is al lang geen OS meer, maar zoveel meer.
En het zou leuk zijn moesten we daar weet terug naar kunnen.
Stel je eens voor het OS, is weer wat het zou moeten zijn, een virtualisatie laag op de hardware.
Het zou sneller booten dan een ZX80 :P en nog bruikbaar zijn op een ZX80 ook.
Na het inloggen, mag je optioneel zeggen wat je wil gebruiken als gui & extra's.
Mensen zouden eens zien wat voor onzin ze allemaal opstarten en nauwelijks gebruiken.
En dat het niet nodig is om steeds Real-Quicktime-Adobe pre launch apps op te starten omdat je ze misschien ooit wel eens nodig hebt. zelfs al duurt het dan een seconde langer om die ene app te starten, het weegt niet op tegen de massa die je telkens opstart voor niets.

Dat is een voorbeeld van het OS, maar dat kan je in bijna elk programma terug zien komen.
"...zou men bij het schrijven van software heel klein moeten gaan werken het laatste eruithalen om dan toch 1 mb te besparen."
't Besturingssysteem (de programma's niet persť) moet gewoon in assembler gemaakt worden, i.p.v. andere - hoge - talen. Dat scheelt niet 1MB op de 100MB, maar 99MB op de 100MB.
tjah...scheelt 99mb, en is 10 keer zo veel werk, als het niet meer is.
Tsja, misschien moet een besturingsstysteem dan maar weer doen wat de naam zegt, namelijk besturen. :)
De man heeft groot gelijk.
Het is toch van de zotte als je ziet hoeveel CPU power en geheugen we hebben en nog zitten te mopperen vanwege een OS dat een vrachtwagen aan overbodige zooi met zich meesleept.
Een lean-and-mean Linux achtige OS waarin alleen draait wat nodig is en waarin je elementaire zaken naar eigen inzicht kan instellen zou zoveel beter zijn geweest.

Waarom moet bijvoorbeeld elke seconde m'n DVD drive gechecked worden terwijl ik er amper een schijfje in stop. als ik iets op wil starten klik ik wel op de verkenner?
Tja....
  • Leuk webpagina's kunnen renderen is niet nodig
  • Efficiente schijfindeling (+ nodige werkgeheugen die een goede driver nodig heeft) zodat je ipv 5 MB 50TB kan opslaan is ook niet nodig, want
  • Dat je foto's steeds meer megapixels bevatten is onzin,
  • En btw al dat video afspelen ook.
  • Dat je software op een VM draait (java, C#) om dat je a) sneller applicaties ontwikkeld die b) robuuster zijn en c) door een JIT run-time geoptimaliseerd kunnen worden voor jou CPU is overbodig
  • Een indexer op je disk laten draaien zodat je al je documenten nog eens terug kan vinden, who cares
  • ISA is toch veel beter dan USB, niemand zit te wachten op hot-plug en al dat soort zut
  • Wie heeft in godensnaam virtueel geheugen uitgevonden. 1 MB address space is meer dan zat voor 640 Kb fysiek geheugen + nog wat ruimte voor je i/o poorten en devices.
Sorry hoor, het zal best zo zijn dat sommige zaken in een OS veel te inefficient met hun geheugen en andere resources omgaan, maar met bijvoorbeeld het groter worden van een hard disk (van megabytes naar gigabytes) heb je ook weer 'meer' nodig om het aan te sturen. Ik weet niet of je ooit heb lopen kloten met DIP switches voor IRQ, I/O en DMA settings op ISA kaarten, maar ik ben blij dat ik er vanaf ben. Dat er een USB driver in het geheugen zit die ook 'geboot' moet worden neem ik er voor lief bij. Als je DOS zou booten op een moderne PC draait deze misschien nog wel langzamer dan een 486. Bovendien hebben we het nog niet eens gehad over de prijs van deze systemen/software.

Daarnaast: met dat een systeem 'goedkoper' wordt zal het ook wat inefficienter worden. Als elk bedrijf als zijn software (of hardware) zo efficient mogelijk zou maken zou het niet te betalen zijn, en zouden we nog steeds op zo'n lompe ZX zitten te klooien. Het zit gewoonweg niet zo simpel in elkaar. Lekker makkelijk van deze man om er zo over te praten.
Die lijst van jou staat vol met slechte voorbeelden, want het zijn allemaal dingen die WEL nuttig zijn. Sinclair heeft het over ONNODIGE inefficiŽntie, bijvoorbeeld software makers die ontzettend lui programmeren omdat er toch wel genoeg geheugen/processorkracht voorhanden is. Zo kan het bijvoorbeeld dat de hardware 100x sneller wordt terwijl de real-life systeemprestaties maar 10x beter worden. Pure verspilling dus.

[Reactie gewijzigd door Bonez0r op 4 maart 2010 02:22]

Tjah programmeurs verkiezen soms wel eens onderhoudbaarheid van code boven de efficiŽntie ervan.
Beetje vreemd natuurlijk als je een keuze moet maken waar je 1 stukje code kunt schrijven dat inzetbaar is op 10 verschillende manieren of 10 stukjes super efficient loopt uit te programmer dat je dan voor het laatste gaat terwijl het verschil 0.00001s uitvoeringstijd is.

Maar ja.. er zijn ook wel punten waarbij ik mijn vraagtekens zet waarom het zo langzaam moet, zo heeft de BIOS van mijn laptop blijkbaar een halve minuut nodig.. dan krijg ik eindelijk eens een Grub bootloader voor m'n neus, dat moet sneller kunnen. (Het zal iig niet aan de opties liggen, want het enige wat in te stellen valt is de datum)
Soms interesseert alleen het geld ze, en zijn ze na de eerste versie ook met de noorderzon verdwenen. On-onderhoudbare, trage code die in het beste geval maar net doet wat er gevraagd is bestaat ook. En het merendeel van de kleine projecten zijn precies dat. Niet bedoeld om te groeien, veel te klein budget om grondig ontwikkeld te zijn en maar net goed genoeg of eigenlijk niet maar het kost teveel om het goed te maken. Gevolg : De gebruiker betaalt met extra tijd en energie achteraf, zo lang als de applicatie bestaat.

Je hebt natuurlijk gelijk dat de kosten niet altijd tegen de baten opwegen om alles op efficiŽntie te tunen en soms gaat het inderdaad over microseconden, maar wel voor miljoenen gebruikers, voor miljoenen operaties elk. Niet merkbaar en niet storend, maar het kan wel door gaan tellen. En dan komen de marketing mensen en de managers en die zeggen dat ziet geen kat en het kost ons alleen maar geld. En vanuit business opzicht zijn dat allemaal geldige argumenten, maar ondertussen verstoken die PCs wereldwijd wel energie die nooit meer terugkomt.

[Reactie gewijzigd door Rygir op 3 maart 2010 00:05]

ik denk niet dat hij op deze zaken zit te vitten, ik denk eerder dat hij het erop heeft dat er een shitload aan overbodige services draaien end at er ook veel slecht geprogrammeerde dingen beschikbaar zijn. Denk dan bijvoorbeeld maar eens aan de flash plugin voor linux en mac os x, hoeveel resources gebruikt die niet, dat is volgens mij totaal niet nodig.
Is het ook maar de vraag wat "nodig" is. Volgens mij is dat voor iedereen anders en zitten er daarom voor sommige mensen inderdad onnodige dingen in een OS, terwijl andere mensen ze wel gebruiken.
Precies ja en daarom ben ik ook groot voorstander van oa vLite. Zodat je de spullen die je niet nodig hebt ook niet installeerd, alleen jammer dat dan de kans weer groot is dat als je een Service Pack wilt installeren het niet kan, omdat MS het niet toestaat/de SP zo in elkaar heeft gezet dat ook onnodige dingen worden geinstalleerd en het dus niet kan.

Verder ben ik het wel eens met Mr Sir Clive Sinclair :p, er word idd naar mijn mening te weinig gedaan om het geheugen gebruik in de perken te houden. Het kan veel efficienter. Wat in gevallen met weinig geheugen echt ideaal zou zijn. Verder ben ik van mening dat ook de POST en boot sequence nog sneller zou kunnen. Hoewel ik met mijn P128 van corsair eigenlijk niet meer mag klagen, zou een instant aan optie die als hij uit staat geen extra stroom verbruikt toch beter zijn.
Daar heb je inderdaad een punt.
Vroeger moesten we kijken naar elke bit die we gebruikten en en die nog zo efficiŽnt mogelijk verwerken.

Nu doet het er nog nauwelijks toe.

vroeger kon je ook zo'n debiel ding als een C64 met 64kb RAM tegen een opgewaardeerde 386 zetten en wat was het resultaat ?
bijna hetzelfde maar dan wel met 16 MB RAM en extra geluidskaart en veel snellere CPU.
En dan te bedenken dat Linux ook bloated is inmiddels.....
Linux niet verwarren met ubuntu he, zeggen dat alle linux distributies bloated zijn is een zware (en foute) uitspraak. Denk maar bijvoorbeeld aan damn small linux, veel efficientere dingen ga je niet vinden.

En dan nog, zo bloated zijn ubuntu en dergelijke nu ook weer niet
Tja, maar zels Linux vond Linux bloaded geworden, en dan praat je dus niet over ťťn distributie. Ubuntu was geweldig, ten tijde van 4.10, 5.04 maar de vernieuwingen en vooral verbeteringen zijn in de versies daarna steeds minder geworden (en de eyecandy meer). Na 8.04LTS wegen de verbeteringen in mijn ogen niet meer op tegen de bloatisering.
Waarom moet bijvoorbeeld elke seconde m'n DVD drive gechecked worden terwijl ik er amper een schijfje in stop. als ik iets op wil starten klik ik wel op de verkenner?
Dan moet je de 'search'-service uitschakelen, en wellicht ook 'autorun'.

[Reactie gewijzigd door kimborntobewild op 2 maart 2010 17:20]

Idd... :D "Hartverscheurend hoe je moet zien dat de machine geboot moet worden..."
Tja, Basic was ook niet alles, dat ik mij kan herinneren :? (hoe vaak ik niet gehuild en gevloekt heb, hartverscheurend gewoon...)

Toch wel mooi, zo'n ZX80 en dan erbij "Nieuw! Nu voor 498,- DM" Wat een koopje! :)
Inderdaad. Ben benieuwd hoeveel kb ram GTA 4 op zo'n ding in beslag neemt, als je het uberhaubt aan de praat krijgt.

Ik vindt het een beetje onnozel wat die kerel zecht. De hedendaagse PC is ABSOLUUT niet te vergelijken met dat onding van vroeger (al was dat vroeger geen onding ofcourse XD). De mogelijkheden en de snelheid van hedendaagse PC's is met een factor 10000x verbeterd en wordt ook op veel meer fronten ingezet. Dus iets zeggen als:
Onze computers waren efficiŽnt en bevatten geen overbodige zaken. Helaas misbruiken de hedendaagse computers hun werkgeheugen op een spilzieke manier. Je moet wachten totdat die apparaten zijn geboot. Het zijn verschrikkelijke ontwerpen, hartverscheurend
vindt ik nogal lullig. Als hij het zo goed weet laat hem dan maar is met iets beters komen.

Ik zie zo'n Sinclair ZX80 echt geen ingewikkelde taken uitvoeren. Ik denk dat in verhouding met wat de hedendaagse PC verbruikt t.o.v zijn Sinclair ZX80 dingetje het allemaal reuze meevalt, maar zoals ik al zij. Deze vergelijking is eigenlijk niet meer te maken aangezien het gewoon helemaal is veranderd...
Het is een beetje een dubbel verhaal natuurlijk waren de computers van toen veel efficiŽnter met betrekking tot geheugen gebruik en uitgevoerde taken per klok tik. Je kon ook niet anders je betaalde voor een 3,25MHz machine met 1Kb geheugen die je zelf moest bouwen al snel 100 pond, nu kun voor een vergelijkbaar bedrag (inflatie etc) een 3.2GHz machine kopen met 2 tot 4GB aan geheugen. Natuurlijk hoeven applicaties nu ook veel minder op te letten hoe ze geheugen beheren.

Dat de programma's efficiŽnter waren is ook niet zo gek men kon ook geen icoontjes maken met 16,7M kleuren en een display met een formaat van 24" en 1920*1080 pixels was ook niet een optie en dus kon alle code die hier voor nodig was achterwegen gelaten worden.

Een Z80 was een erg goede processor voor zijn tijd en zelfs nu nog een redelijk standaard ding is op veel IT opleidingen als een goede introductie tot een microprocessor architectuur. Het is een lekker simpel ding dat redelijk is uit te leggen, een Pentium processor of een Cell processor toch echt een heleboel complexer dan zo'n oude Z80 :)

Wat betreft oude mensen die beweren dat vroeger alles beter was... nou ja hij is al 70 nog een paar jaar en dan zullen de heren van Intel een zelfde verhaal komen houden over hun ontwerpen en niet zo heel lang er na ene meneer Gates over operating systems, etc... er is geen ontkomen aan vroeger was schijnbaar alles beter. En voor de mensen die dat niet geloven ach die zijn gewoon nog niet oud genoeg om de waarheid hier van in te zien ;)
"Vroeger was alles beter" is inderdaad een heel bekend cliche. Maar net als dat het geen paranoia is wanneer ze echt achter je aanzitten, maakt Sinclair hier toch weldegelijk te veel een punt om het maar als 'clichee' af te doen.

Ik ben bij lange na geen 70, maar als ik zie hoe belabberd sommige software heden ten dage geschreven is, dan springen bij mij ook regelmatig spontaan de tranen in de ogen.

Alleen al het feit dat het Microsoft bijna 15-20 jaar heeft gekost om een stabiele versie van Windows uit te brengen, terwijl ze gedurende die 15-20 jaar letterlijk bakken vol miljarden binnenkregen om in research te stoppen.

Verkwisting en verspilling alom. Van geld, tijd, en hardware-resources van miljoenen mensen, jarenlang.

Dat wij dit als consument vandaag de dag de normaalste zaak van de wereld vinden, geeft eigenlijk alleen maar aan hoe vreselijk gelijk die Sir Sinclair eigenlijk heeft op bepaalde punten.

Maar om dan maar helemaal van computer-gebruik af te zien, gaat wellicht iets te ver.

[Reactie gewijzigd door tofus op 2 maart 2010 19:05]

Jouw stelling is ook ietwat gemakkelijk gemaakt. Je vergeet maar even dat verwachtingen van de eindgebruiker ook steeds verder gaan en de complexiteit van software ook steeds groter en groter wordt.

En waarom zou je RAM geheugen niet ten volle benutten als je het ter beschikking hebt. Tuurlijk kan ik software zo klein mogelijk maken, maar waarom zou je? kleiner is niet per definitie sneller. Juist door veel informatie in het geheugen te plaatsen kan je sneller lookup operaties etc uitvoeren wat de snelheid ten goede komt.
cool :) ik ben in '87 van start gegaan met computers (ik was 4) dat was een ZX Spectrum 48k... later nog bij allerlei gebruikersgroepen gezeten en pas op mijn 12e de eerste PC aangeschaft. (heb zelfs nog een 128k met multiface en videoface gehad op een Opus discovery diskettestation met daarbij een muis voor een of ander Draw programma, ik dacht een AMX muis, iets dat via glasvezel de bewegingssignalen doorzette en ik heb zelfs nog eens een 20MB harddisk bij de SGGroningen aan de praat gezien) Wat een plezier heb ik van dat ding gehad zeg, ik heb er de tafels, engels, basic programming en hexprogramming van geleerd :) )
Ik heb zelf nog een QL gehad en 'm met pijn ingeruild voor een 8086 PC. Punt was dat de QL enorm flopte en de PC door brak, maar de QL was op veel punten superieur aan de eerste IBM PC: 16bit, kleur, wysiwyg tekst verwerker, snel, etc.

Tuurlijk is het een zure oude man, maar visionair was en mischien wel is hij ook. Z'n marketing en timing waren soms niet helemaal goed en dat heeft het bedrijf de das om gedaan.
De QL was juist een schoolvoorbeeld van een uiterst beroerde, door marketingcompromissen gehandicapte ontwerp :o

De QL had een Motorola 68008 CPU die intern 32b werkte, maar extern slechts met 8b communiceerde. Dat betekende dat het per definitie een afgrijselijke I/O bottleneck had en aanzienlijk slechter presteerde dan 16b CPUs met 16b externe bus (zoals de Intel 8086 en 80286). Waarom? Omdat Clive koste wat kost een 32b CPU wilde implementeren omdat dat marketingtechnisch geil klonk, maar vervolgens de prijs zodanig laag wilde houden dat het alleen icm dure CPU haalbaar was als je een moederbord had met 8b datapad :X

Vervolgens had dit ontwerp een grafische controller embedded in de geheugencontroller. Effectief dus een voorloper van de UMA ontwerpen als de SiS 5596 (eerste integrated videocontroller bij x86) en de Intel GMA-series - gare bandwidth-limited low-end ontwerpen van de laatste tien jaar. Ook op dat gebied moest de QL z'n meerdere erkennen in andere ontwerpen van z'n tijd, laat staan later.

Ik heb enorme bewondering voor wat Clive gedaan heeft voor computing, mijn eerste computer 29 jaar geleden was dan ook een ZX81, en gedurende m'n kindertijd in de jaren '80 heb ik dankzij ZX81 en twee Spectrums de basis gelegd aan m'n huidige geekdom en zelfs carriere, maar de uitspraken van de goede vent in dit artikel raken kant noch wal. Zijn computers blonken vooral uit in betaalbaarheid, in het Łberhaupt beschikbaar maken van computers voor de grote massa. Maar zelfs in hun hoogtijdagen medio jaren '80 werden ze gezien als technisch mindere ontwerpen door de compromissen die gemaakt waren om ze betaalbaar te houden...
De QL was juist een prachtontwerp!

Sinclair had door dat er nieuwe wegen ingeslagen moesten worden.

Intel had de CPU uitgevonden (de 4004), op dat ontwerp was er een 8008 en een 8080 gekomen. De 8080 had een efficiŽntere kloon, de Zilog Z80.

De Intel's waren belabberde processoren, vol met ontwerpfouten. De 8088 en 8086 hadden 32 bits nodig om een 20 bits adres aan te duiden, en er waren verschillende manieren om hetzelfde adres aan te duiden.

Daarmee wilde Sinclair niet verder. Motorola had een mooie lijn processoren, de MC68000 lijn. Volledig 32-bits, veel registers, eenduidige adressering en instructieset.

De hele wereld was nog 8-bits. Alle betaalbare chipsets konden met 8 bits overweg, de 16-bits chipsets waren al duurder.

Van het 32-bits ontwerp wad er een 8-bits 68008 (met 20-bits adressen). Een moderne CPU, die prima met de toenmalige chipsets overweg kon. Een upgrade naar een 16-bits 68000 (met 24-bits adressen) of de volledig 32-bits 68020 zou relatief eenvoudig zijn.

Dus ook met de QL liet Sinclair zien visie te hebben. Hij koos voor de 68008 omdat die lijn een toekomst had!
ik heb ze allemaal gehad, de ZXen, spectrum en QL, mijn inziens is de enige reden dat de QL zo flopte omdat iedereen die er een kocht al snel inzag dat zijn/haar oude software van de zx of spectrum niet meer kon draaien op de QL door die rot cpu van motorola met hakkel instructieset. dat hadden de oprichters van intel wel door en zijn zo afgescheurd van het toenmalige zilog, en motorola versus intel is een oorlog geweest tot zelfs appeltje moest vallen in de mand van intel.
Een upgrade naar de 68000 was ook relatief eenvoudig, sterker nog, gebruikers hebben zelfs op basis van de QL-architectuur systemen gebouwd met 68040 en 68060 CPUs in de jaren '90. Maar dat waren de gebruikers, niet Sinclair zelf :o

Het gebruiken van een 16b CPU met een 8b bus was al discutabel (denk aan de kritiek op de i8088), en Apple heeft enorm op z'n donder gekregen voor latere "brain dead" ontwerpen met 32b CPU met 16b bussen, maar 32b CPU op 8b bus is echt het brakste wat de jaren '80 aan scheve verhoudingen getoond heeft. Gevolg was dan ook dat de QL ver onder de maat presteerde, waardoor het ook flink afgekraakt werd in de pers.

Ander voorbeeld van Clive's "geniale" ideeen mbt de QL: dat ding moest en zou voor de Apple Macintosh op de markt komen. Helaas was de firmware (ROM) nog niet af op moment dat het daarvoor naar de fabriek zou moeten. Gevolg was dat ipv de voorziene 32kB ROM er 48kB voor de ROM nodig was. De extra 16kB ROM werd extern in een soort dongle gehangen...

...en dan nog was het buggy :X


De QL was een goed idee waardeloos slecht uitgevoerd en nog slechter gemarket (beide onder directe controle van Clive), wat samen met de C5 (een even dramatische flop) Sinclair Research de das omdeed, ondanks dat het op dat moment de meest succesvolle computerfabrikant in de UK was.
De mogelijkheden en de snelheid van hedendaagse PC's is met een factor 10000x verbeterd
En in dezelfde tijd is de efficiŽntie met een factor 1000 gedaald. Denk je eens in hoe pc's met de hardware van nu zouden presteren als ze net zo efficiŽnt met resources zouden omgaan als de Sinclair.
[...]
En in dezelfde tijd is de efficiŽntie met een factor 1000 gedaald. Denk je eens in hoe pc's met de hardware van nu zouden presteren als ze net zo efficiŽnt met resources zouden omgaan als de Sinclair.
Denk eens hoeveel programmeerwerk het gaat worden om dat met de hoeveelheid functionaliteit (en eyecandy) die de software van tegenwoordig heeft. Op die manier programmeren is niet meer haalbaar.
Op die manier programmeren is niet meer haalbaar.
Alles is haalbaar, als je er maar genoeg effort en passie tegenaan gooit.

Dat een leger luie PHP programmeurs en Java-scripters zich zullen moeten laten omscholen tot ECHTE programmeurs die weten hoe een computer in elkaar zit, en programmeren in een taal die ontworpen is om efficient door hardware begrepen te worden, in plaats van door mensen (computers denken gek genoeg nog altijd in nulletjes en eentjes, en niet in 'objects', 'methods' en 'scalars'), is inderdaad wel iets wat mogelijkerwijs een cultuurschok teweeg zou brengen.

Maar of dat op de lange termijn een negatieve invloed op de kwaliteit en beschikbaarheid van software zou hebben...ik betwijfel 't. :Y)

[Reactie gewijzigd door tofus op 2 maart 2010 20:06]

Lutser, dat is economisch toch niet meer verantwoord. Dat is de hele point hiervan..

Die man kan wel zeggen dat het allemaal niet efficient & co is en ik ben het ermee eens maar ik betwijfel of de groei die we mee maken (en waar ik o zo hard van geniet) nog steeds zo snel zou zijn als de wil van Sinclair gehandhaafd zou worden.

Snel, beter, meer, goedkoper maken producten toch gewoon wat ze nu zijn? Is het niet hetzelfde principe met games (de mooie discussie van Activision/EA)? Pruts club A maakt een geweldig product en blijkt mega succesvol te zijn, Grootmacht A ziet een kans - gooit een bedrag de lucht in - en koopt het pruts bedrijf en vernaait het spel (in de ogen van de speler) maar doet dit wel met een leuke winst.

[Reactie gewijzigd door ArminvB op 3 maart 2010 09:22]

[...]
En in dezelfde tijd is de efficiŽntie met een factor 1000 gedaald. Denk je eens in hoe pc's met de hardware van nu zouden presteren als ze net zo efficiŽnt met resources zouden omgaan als de Sinclair.
Dan zouden we nu 15 jaar achterlopen qua mogelijkheden en technologie. Overigens denk ik niet dat die performanceboost zo dramatisch zou zijn, ik zie maar weinig bar slecht geprogrammeerde programma's meer (of programmeurs die graag langzame / inefficiŽnte programma's maken).
De efficiŽntie is juist met vele factors verhoogd maar dat zou je geweten hebben moest je in de business zitten.
Ga jij maar een OS maken die je voor €10 000 moet verkopen, andere mensen zullen 2GB bijsteken en een Windows van €100 kopen. Dat is pas efficiŽntie.
Je kan dan ook gelijk vaarwel zeggen aan gratis programma's die ook maar een beetje functionaliteit hebben van de grote softwarepaketten.
Tja, het is maar net welke efficiŽntie je belangerijk vind
efficient cpu-gebruik, efficient geheugengebruik (2 bits voor de datum)
of
efficent met geld.
Helaas voor de liefhebbers van technisch efficiŽnt wint dan het geld.
Dat betekend niet dat de eerste niet veel mooier kan zijn, en veel leuker, uitdagender om te doen. Dan heb je het gevoel iets bereikt te hebben, terwijl jouw efficŽntie dus alleen leid tot een beter belegde boterham.

Dat is dus ook een beetje een kwestie van idealisme.

[Reactie gewijzigd door BeosBeing op 3 maart 2010 15:24]

met een factor 10.000 verbeterd: was het maar waar ;) ;)

Toon mij eens een PC die fatsoenlijk met dragon naturally speaking overweg kan in 1982 al opgericht en nog steeds onvoldoende ( systeem) processor snelheid om het feilloos te kunnen uitvoeren.

Ik Denk dat een factor 10 meer in de buurt komt, zij het dat een hoop snelheidswinst van de nieuwere systemen wordt weggenomen door overgrote trage en logge programmatuur.
Dus.... je vergelijkt de huidige situatie (booten) met de situatie van toen (basic) en je conclusie is dat dat ook hartverscheurend was. Heeft hij dan niet ergens gelijk dat het toch fijn zou zijn moest men tegen nu nu al wat vooruitgang geboekt hebben? ;)
Het booten van cassettes is toch zoveel leuker en sneller dan van een SSD :P

De enige reden waarom men vroeger zo efficient met geheugen omging,
was de kostprijs ervan. Het resultaat van die 'efficientie' was trouwens de grootste bug ooit, de millenium bug :)
ZX 80, 81 en Spectrum hadden een ROM. Dus je opmerking is onzin ;-).
De latere Acorn Archimedes ook. Als ik die aanzette had ik in een seconde of 20 een desktop voor mijn neus.
De PC waar je nu op tikt (of Mac of wat dan ook) heeft net zo goed een ROM, genaamd "BIOS", het verschil is dat hij ook daadwerkelijk een besturingssysteem heeft die geladen moet worden. Die "desktop" van de Sinclair systemen was niets meer dan een BASIC interpreter die en passant ook een "LOAD" commando had.

Wat dat betreft is het perfect te vergelijken met de Open Firmware van Sun en later Apple en andere non-PC vendors. Dat is een boot environment met een Forth-interpreter die normaliter de OS (Solaris, MacOS, AIX, BSD, Linux etc) aanroept maar ook zelf dingen kan doen en zelfs scrips kan draaien.

Dat de PC BIOS dat soort functionaliteit niet heeft, is omdat het door strakke backwards compatibility ouder is dan Sun, dan Archimedes en zelfs Spectrum en ZX81. EFI (de beoogde opvolger van BIOS die muv bij de Mac nooit echt doorgebroken is) lijkt wat dat betreft stukken meer op Open Firmware of de ROMs van andere systemen.


Er zijn trouwens projecten om een volwaardige moderne Linux-kernel in ROM te stoppen (Coreboot, het voormalige LinuxBIOS). Dat belooft net zo snel naar een functioneel systeem te booten. Minpunt is dat je beperkt bent door je ROM-ruimte, en zodra je een volledig modern OS wilt moet je alsnog het grootste deel van je opslagmedia halen :z
De Acorn Archimedes heeft gewoon een desktop omgeving in ROM, zie:
http://www.mjpye.org.uk/images/screens/riscos2.gif

En een ZX Spectrum (of ZX 80/81) hoefde zeer zeker niet van cassette te "booten".
Ik zeg ook niet dat de Spectrum (of voorgangers) van cassette hoefde te booten, puur dat wat je uit ROM kreeg niet meer of minder was dan wat je op moderne (non-PC) systemen uit ROM krijgt. Ja, je kunt er een BASIC-programmatje in schrijven zonder verdere I/O, maar verder kan het niets.

Overigens had de originele IBM PC naast de BIOS ROM ook een BASIC ROM en kon je dus net zo goed naar BASIC booten zonder schijven.
Grotere ROM module met daarop een volledig functioneel OS evt uitwisselbaar voor een upgrade ROM met een nieuwe versie. (Upgrade Vista naar 7 gaat dan door de ROM te wisselen, nadeel is dan wel dat Linux ook niet meer gratis is)

Applicaties komen dan op de SSD en data op de HDD (of in het netwerk)
"Hartverscheurend hoe je moet zien dat de machine geboot moet worden..."
Je kan wel lacherig om doen, maar waarom willen we steeds snelle opstarttijden in programma's (bijv. browsers), worden er OS-truuks toegepast als Splashtop en Windows Sideshow, klagen we omdat die game zo traag laadt etc?

We hebben wel wat beters te doen met onze tijd dan wachten. Met de voorruitgang van de techniek zou je op z'n minst verwachten dat er wat aan die wachttijden gedaan zou zijn. Niet dus. Die man heeft dus groot gelijk.
Iets meer respect mag idd wel.. Je mening geven zonder iemand gelijk bejaard en nutteloos te noemen kan ook?

Ik denk overigens dat je een vergelijking stelt die niet helemaal opgaat maar goed..

Het enige waar ik in zou komen is dat programma's vaak dingen hebben die niet gebruikt worden (door het gros).. Als ze dit nou eens konden inpakken tot een soort checklist. Hoeveel services worden er nou gestart die niet nodig zijn. Hoeveel codes zijn er voor Word/firefox geschreven en gemaakt die niet altijd evenveel / niet gebruikt worden?

Het is blijkbaar makkelijker/goedkoper/effectiever om gewoon maar alles te geven dan meerdere distributies te maken..

[Reactie gewijzigd door ArminvB op 3 maart 2010 09:32]

Nee, dat kan allemaal niet met een ZX81.

We zijn in mogelijkheden lichtjaren vooruitgegaan, en ook in cpu-kracht, io-bandbreedte, geheugensnelheid enzovoorts, maar waarom moet het zoveel langer duren. Vroeger moest je nauwelijks wachten en nu steeds meer, allemaal voor mooie grafische eyecandy maar in wezen meestal ook alleen maar mooie flauwekul.

HTML1 pagina's, ja leuk, maar waar is dan de HTML1-versie van tweakers.net, of belastingdienst.nl of ... Die zijn er niet, dus moet je wel.

Dat is nou het wezen van efficiŽntie.
Als je even moet wachten om het volgende level in een spel te laden, prima.
Als je even moet wachten om andere gegevens op te halen, prima.
Maar onnodig wachten wil ik niet, en de huidige generatie PC's doet veel te veel services laden en andere vage dingen waarvan slechts een beperkt deel ook maar gebruikt gaat worden.

Multitasking is leuk. Lange bestandsnamen zijn makkelijk. …ťn printerdriver voor al je programma's is geweldig (niet zoals vroeger aparte printerdrivers voor WP, Multiplan, 1-2-3, Dbase enzovoorts) Grafisch is het ook allemaal beter, en dat is voor sommige dingen heel zinvol, en toch verlang ik soms nog best naar de tijd van DOS. Uitzetten was uitzetten, klaar, het was niet nodig om af te sluiten, stekker er uit kon ook gewoon. Opstarten ging ook retesnel.
Je mag wel wat meer respect hebben voor iemand die zo goed kon omgaan met beperkte technologie en beperkte bronnen.
Aangezien bijna elke auto meer chips heeft dan de kast die naast me staat, raakt ie waarschijnlijk meer computers aan in een dag dan ik mijn hele leven met zijn nieuwe 'elektronische auto' hobby ;). Maargoed, hij heeft het dus over de 'personal computer' om het zo maar even te noemen: als ze nu zo verschrikkelijk slecht zijn in vergelijking met zijn prachtige apparaten toen, heeft zijn bedrijf blijkbaar een gigangische misstap gedaan in het verleden...
De man is een visionair: hij is met alles te vroeg. Een PC, toen ZX80's alleen nog voor nerds waren, electrische auto's in 1985...
En hij is natuurlijk wel oud; dan leer je menselijk contact waarderen, waarschijnljik omdat een hoop mensen, die hij gekend heeft al dood zijn. Of op zijn minst niet in staat/geen zin hebbend/vul maar in om te twitteren/emailen/sms-en.
hij heeft wel de visie, maar spijtig genoeg niet meer de moed/tijd/vermogen om die visie in revolutionaire producten om te vormen.

Ik weet nog dat ik m'n TRS tandy gewoon de knop moest uittrekken (of was het nu indrukken) en dat er direct een prompt stond te pinken: GEBOOT IN 0 SECONDEN.

als jij dat nu niet meer revolutionair/visionair vindt, wie is er dan een drama queen om deze man zulke ideeen te verwijten ???
Ik heb groot respect voor Sir Clive Sinclair.

Echter vind ik het raar om deze uitspraken te doen, bedoel hij heeft een punt maar als hij dit zo sterk vind. Waarom komt hij dan niet met een alternatief?

En er zijn al zelfs alternatieven naar mijn weten (om bijv. het boot proces te versnellen).
ik ben bang dat een supersnelle byte-effectieve OS met zero-time bootsysteem er waarschijnlijk gruwelijk uit zou zien :P oftewel weer terug naar DOS (of Linux)... Niets mis voor een RTOS ofzow hoor, alleen probeer dat maar te verkopen aan de massa die met Win 7, Win Vista, MAC OS eigenlijk alleen geÔnteresseerd zijn in hoe "leuk" hun OS er wel niet uitziet :D
Dat dat betekend dat de OS eerst een minuutje (of twee, drie) bezig is met laden daar is men aan gewend... Meneer was anders gewend.... Dus ik ben bang dat het daar op neer komt : gewenning :D
Trouwens een alternatief ontwikkelen (dus niet op de achterkant van een bierviltje) dat "fftjes" moet gaan concurreren met miljarden bedrijven zoals Microsoft en Apple (en kompanen) dat kost je ook een paar tientallen miljoenen euro's aan investering, ik weet niet of de ZX80 nu ook dat soort windeieren voor de hoogbejaarde Sir heeft gelegd...
Ik meen dat Mac OSX tamelijk snel opstart in vergelijking met Windows.

Windows 7 is er trouwens ook flink op vooruit gegaan in opstarttijd.
OS X boot dan ook niet maar komt uit stand by. Hetgene wat Windows sinds Vista ook standaard doet als de gebruiker op het icoontje klikt.

Het BIOS heeft meestal al meer invloed op de opstartijd dan het OS. Op het werk ga ik op 1sec door het BIOS, thuis duurt het 40sec voor ik door alle shizzle heen ben.
Als je Mac uit staat, en je zet 'm aan, dan boot hij. Daar neemt-ie een minuutje de tijd voor.

Mac OS X heeft een hele goede sluimermode, waaruit hij in 2 seconden kan ontwaken, waarna je direct kunt werken, dus met werkende WPA2 beveiligde wifi verbinding. Dus OS X gebruikers zetten hun computer nooit uit, maar laten 'm sluimeren.
Ik meen dat Mac OSX tamelijk snel opstart in vergelijking met Windows.
Maar is dat echt opstarten, of meer ontwaken uit standby / sleep? Groot verschil daartussen.
Wat betreft het boot proces: hoe vaak boot jij je machine? Ik zou graag het bootproces versneld zien, maar aan de andere kant hebben al mijn machines (voornamelijk Macs overigens, maar dat terzijde) een uptime van tenminste 2 weken. Vrijwel alle huidige 'geheugenverkwistende' besturingssystemen hebben ondersteuning voor suspend-to-RAM en suspend-to-disk om een shutdown overbodig te maken en geavanceerde caching en prefetching methoden, die het ook nog eens nuttig maken om je computer te laten 'slapen' in plaats van uit te zetten.

Kortom: die 30 seconden voor een bootproces waar ik alleen naar hoef te kijken bij een verplichte reboot (updates), die ongeveer eens per maand voor komt... tja, daar kan ik me in ieder geval niet heel druk om maken.

Verder kost geheugen een stuk minder dan de programmeurs die ervoor moeten zorgen dat er netjes en zuinig geprogrammeerd wordt.

[Reactie gewijzigd door Whieee op 2 maart 2010 16:54]

tsjah zo kun je blijven doorgaan, als je leest heb ik het over de "massa" gebruikers... sterker nog ik ben een tweaker, dan nog zet ik mijn pc elke avond netjes uit om die s'ochtends weer aan te zetten... mijn laptop wordt niet eens elke dag opgestart dus die zet ik ook netjes uit...
dus je wou graag weten hoe vaak ik mijn machine boot : dagelijks :D
en genoeg mensen met mij hoor, en zeker op de zakelijke markt (zeker nu met het "groen werken")...
hou er aub ook rekening mee dat niet iedereen "al mijn machines" heeft, maar genoegen heeft aan hun thuis-pc'tje...
reageren moet je zeker doen, maar ik vind het altijd zo opvallend hoeveel kortzichtige "tweakers" er zijn, die zich alleen hun eigen situatie voor kunnen stellen en deze ook nog eens doortrekken voor de rest van de wereld...
serieus, mac is wel leuk, een eigen serverpark met weken uptime is ook leuk, een ferrari is ook leuk, en een eigen onderzeeŽr ook, de vraag is natuurlijk of we het dan hebben over 99% van de populatie of over de 1% die voor mijn part net zo goed niet mee hoeft te doen ;)
De meeste mensen (niet-tweakers) zetten hun pc uit nadat ze deze gebruikt hebben waarvoor ze dat moesten. Waarom laat jij je pc eigenlijk zolang aanstaan? Het zal vast een reden zijn die niet-tweakers onbekend in de oren klinkt :)
Overigens, als de boot-tijd tot vrijwel nul wordt gereduceerd dan is de drempel om je pc uit te zetten misschien ook wat kleiner voor de meeste mensen? je hoeft dan tenslotte niet zo 'lang' meer te wachten totdat je deze weer kunt gebruiken. Ook weer beter voor het milieu. Zelf heb ik er (net als jij) ook weinig last van om eventjes naar een laad-scherm te staren om de zoveel tijd.
Waarom laat jij je pc eigenlijk zolang aanstaan?
Hij heeft het over suspend-to-RAM of suspend-to-disk, m.a.w. sleep of hibernate. De pc gebruikt dan heel weinig energie of staat uit (hibernate). Elke keer alles opnieuw vers inladen en opstarten gebruikt waarschijnlijk meer energie dan uit sleep/hibernate komen. De meeste mensen zijn gewoon gewend dat de computer uit 'moet', terwijl dat allang niet meer hoeft. Sleep is dan ook de standaardfunctie van de 'uitknop' sinds Vista.

Met uptime bedoelt hij dan ook dat ookal gaat de pc in sleep/hibernate, Windows wordt daarbij niet afgesloten en dat kun je makkelijk een week of twee volhouden als er geen Windows updates komen waarvoor je moet herstarten.

[Reactie gewijzigd door Aham brahmasmi op 2 maart 2010 18:42]

Tja., als dat elke keer alles opnieuw vers inladen en opstarten meer energie kost, dan is het waarschijnlijk gewoon teveel geworden. Windows is nooit echt lean and mean geweest, DOS was dat wel.

Alles vers inladen heeft ook zijn voordelen, geen restanten van eerder afgesloten apps meer, geen restanten van kleine stroomstroringkjes, en andere kleine foutjes zoals interferentie, radiostraling enzovoorts. Al die kleine dingetjes die voor een 'onverklaarbare' fout kunnen zorgen juist omdat je ze niet opmerkt.

Bij mij wordt Win2000 opnieuw opgestart als dat nodig is na het installeren van een applicatie of een upgrade van bv DirectX, .Net-framework, of een SP en verder als Win2000 opnieuw geÔnstalleerd wordt of als er een stroomstoring is geweest.
En verder als ik bezig ben geweest in Linux, BeOS of zo.
Normaal duurt het compleet opstarten mij veel te lang.
Ha nog wel langer, soms duurt het 2 maanden voordat ik m'n laptopie weer eens koud boot. Dit is eigenlijk de reden waarom ik nog steeds Win 2000 draai. De opstarttijd van win 2k is tergend langzaam, maar als je hibernate gebruikt gaat het best wel aardig. Dus is er bij mij tot nu toe niet de noodzaak geweest te upgraden (naast luiheid). Ik game niet en alle moderne programma's draaien nog steeds op win 2k (Firefox, Adobe, etc). Bij deze dus een pluim voor MS voor Win 2k, ookal ben ik niet zo'n fan van ze ;) .
Sinds de aankoop van mijn SSD zet ik mijn w7 eigenlijk niet meer moed willend uit. Als mijn pc in slaapstand staat en ik gooi 'm weer aan is de pc sneller klaar dan dat mijn monitor aan gaat.. (terwijl het scherm nog niet aan is kan ik op enter drukken om al in te loggen)
Ach, ik weet het niet. Heb een aantal PC's. Een macbook, boot eigenlijk nooit want standbye werkt gewoon fantastish.

Een ubuntu netbook, boot razend snel maar met supergrote batterij doet het zo lang dat ik het gewoon vergeet aan te sluiten.

Een linux fileserver. Weet niet of die boot, al maanden niet meer gedaan.

En als laatste, een windows game machine die de laatste maanden echt 5 minuten nodig heeft voor hij echt "klaar" is.

Tja, en dan de sinclair... dat was "klik" aan. Natuurlijk als je iets van de tape moest lezen dan kon je echt een tijd bezig zijn...

Dus dat was ook niet zo snel als Sinclair nu doet geloven. ja de PC draaide, maar kon nog niets doen.

The Sinclairs and Commodores waren leuk, maar we zijn nu echt verder en verwachten gewoon veel meer.
De zwanenzang van een gevallen ondernemer. Meneer kon zelf niet meekomen toen met zijn bedrijf en moest de handel verkopen aan de concurrent en nu zit meneer dan zo aandacht te vragen. Waarom heeft hij dan nooit een poging ondernomen om een concurrent voor de IBM PC op de markt te brengen. Leuk, die nostalgische gevoelens oprakelen, maar je koopt er niks voor. Het klinkt een beetje als dat Sinclair spijt heeft dat hij zijn zaak ooit verkocht heeft.
"Waarom heeft hij dan nooit een poging ondernomen om een concurrent voor de IBM PC op de markt te brengen"
Het geld was op, zo staat er.
Als het geld op was, kwam er ook gewoon geen binnen. Dus de markt had geen interesse in zijn visies en producten.
Dat is een beetje een harde conclusie. Als je het spel verliest betekend het niet dat je een slechte speler was. Er is immers bij ondernemen sprake van een bepaalde factor "geluk" of "toeval" of waar je ook in geloofd.

Neem bijvoorbeeld poker. Je kan de beste speler van de wereld zijn en dan toch verliezen van iemand die vťťl slechter is. Als je de hele tijd gewoon geen goede kaarten krijgt dan houd het nu eenmaal op een gegeven moment op. Je kan niet alles compenseren met kunde of een voorsprong in kapitaal (fiches).
Eigenlijk heeft ie gewoon gelijk (over de verkwisting van geheugen e.d.)
Inderdaad, waar zijn de tijden dat men op de ZX81 een pinball game in 1KB wist te proppen? :)
In de tijd dat je ook nog maar een paar KB opslag had. Deze meneer maakt een probleem van iets dat er niet is. Natuurlijk verbruiken computers van nu veel meer werkgeheugen maar er is ook gewoon veel meer van. Iedere nieuwe PC heeft toch wel minimaal 2GB aan boord (en dan heb ik het nog over echte crappy 400 Euro computers van de MM)?
Is het niet zo omdat wij toch zoveel geheugen hebben dat wij dan ook maar meer kunnen gaan 'verkwisten'?
Zo kom je toch in een neerwaartse spiraal? Men heeft genoeg geheugen -> minder geheugen efficiente software -> meer geheugen nodig -> nog minder efficienter software -> etc etc..
Misschien zitten wij zelf al in die neerwaartse spiraal ;)?
Ja dat is natuurlijk waar, kijk maar eens naar zoiets simpels als MSN.
Eerder was dat nog gewoon om te chatten maar als je nu kijkt...20MB!
Dat is toch niet meer normaal?
Ja dat is natuurlijk waar, kijk maar eens naar zoiets simpels als MSN.
Eerder was dat nog gewoon om te chatten maar als je nu kijkt...20MB!
Dat is toch niet meer normaal?
20 MB is maar 1% van wat de goedkoopste PC's van tegenwoordig hebben - programma's voor die Sincair gebruikten veel meer % van het geheugen, en ook kon je maar ťťn programma tegelijk draaien. Dus waar praten we nog over?

En in mijn ervaring is het qua performance bijna altijd een afweging: geheugengebruik of processorkracht. Als je bepaalde zaken ťťn keer kunt berekenen of ophalen en dan in het geheugen op kunt slaan, bespaar je enorm op geheugen. Je kunt in theorie een programma schrijven die 0 geheugen gebruikt, maar dan zul je die constant zien redrawen, constant de online gebruikers van het internet af trekken (en de bits per stuk renderen, niet bufferen want dat kost geheugen), etcetra - maar dat is vreselijk inefficient.

En 1 MB geheugen kun je heel veel gegevens in kwijt, en alles wat je in het geheugen kwijt kunt hoef je niet opnieuw te berekenen.
Ik kon prima meerdere programmas op een ZX Spectrum draaien (zelf geschreven code + multitasken) ;-)
Waarom zou een bedrijf vele manuren steken in micro optimalisaties zodat een applicatie 15mb gebruikt ipv. 20 mb.
Geheugen = goedkoop, manuren = duur
zoals bbob1970 al stelde, het is puur een kosten/baten plaatje
als het weer een lichtgewicht wordt, zowel in code als geheugen, heeft het ook minder cpu nodig, en zou je het misschien ook op lichtere devices kunnen gebruiken.
Dus minder port werk, en meer afzet gebied.
MSN:
Van die 20MB kan waarschijnlijk makkelijk 1MB gemaakt worden, als je de grafische- en audioelementen schrapt. Als je dan ook nog eens in assembler gaat schrijven, en niet je eigen gesloten standaarden gebruikt maar open communicatiestandaarden, dan past 't in een paar kB.
Daarvoor hebben ze ICQ uitgevonden toen de hardware nog niet klaar was voor meer. ICQ wat je nog steeds kan gebruiken als je principieel maar 1MB ram in je systeem wil gebruiken.
wat begrijp je niet aan het economisch plaatje? Zou jij 15 keer harder werken als het niets meer opbracht? Ik dacht het niet
Denk eerder aan 200MB versus 2MB, zoals Adobe PDF reader versus Sumatra. Of waarom windows 98 een paar honderd megabyte is tegen de gigabytes van win7. Je wilt toch niet beweren dat dat allemaal aan de fancy algoritmen ligt die daar in gebruikt worden? Flip3D, hoeveel MB zou dat innemen? Ik bedoel maar, als je eens een beetje minder gooit ermee moet een OS toch binnen de 2GB kunnen passen, kom op. Ik zal het anders zeggen, een boot CD van 600MB die nog niet eens halfvol is en op exact hetzelfde bureaublad uitkomen. Het bestaat.
Het geld wat betaald moet worden wordt gewoon naar een andere partij geschoven. Verkwisten van geheugen is nog steeds duur, alleen betalen jij en ik het nu inplaats van MS.
Zo simpel is het niet. Als 1 persoon een OS maakt voor miljoenen mensen, is het goedkoper om die ene persoon meer te laten werken (hoewel hij nooit gaat klaar geraken natuurlijk). Als je een gans team een OS laat maken voor miljoenen mensen, is het goedkoper om iedereen meer geheugen te laten kopen.

Laat de economie aan andere mensen over aub, vele tweakers falen er blijkbaar in. Kijk anders gewoon even naar de populariteit in de grote markt van minimalistische programma's. Mensen willen functionaliteit kopen, niet een gegeven paard zonder tanden.
En hoeveel mensen moeten het doen met een oude PC?
Die zijn er nog steeds. Kijk eens naar de huidige cracktro's of bijvoorbeeld projecten als .kkrieger
Ah, .kkrieger, een complete FPS in 96kb (ja, kilobyte!), dat is nog eens efficiŽntie! Maarja, dan heb je het ook over mensen uit de demo scene, dat zijn hobbyisten die nog moeite doen en trots zijn om zo'n prestatie neer te zetten. In dat geval speelt geld ook geen rol en is er geen druk om een product zo snel mogelijk op de markt te brengen.

[Reactie gewijzigd door Bonez0r op 2 maart 2010 18:57]

Ik zou dat graag eens geŽxtrapoleerd zijn, die doorgedreven efficiŽntie, naar pakweg...een browser. Of een tekstverwerker. Al die passie die ze nu in een demo van 10 seconden steken eens toepassen in een applicatie die potentieel duizenden uren van je leven zullen vullen net zoals dat venster waar je nu naar tuurt.
Inderdaad, waar zijn de tijden dat men op de ZX81 een pinball game in 1KB wist te proppen? :)
Ja, op zich wel een punt, maar de software was toen ook veel minder geavanceerd.
Kijkt U even naar OS/2 V3, of te wel Warp?
OS/2 Warp: 1994
ZX80: 1980

Andere tijdperken.
Mag zijn, maar OS/2 Warp was Small&Beautiful. Geavanceerder dan de MS Windows versies van toen, en kleiner qua foorprint.

Was geheel herschreven door een ploeg Russen, die nog met verouderde 6502's, 6809's en Z80's in minder dan 32k memory hebben leren werken. Zij blij (want veel beter betaald, dan wat dan ook in RUsland), IBM blij (zulke goedkope krachten hadden ze nog nooit gehad), klanten blij (snel en compact OS).
Definieer aub eens 'geavanceerd'?
tuurlijk heeft hij geen gelijk,

volgens hem zouden we nu nog steeeds met een armtierige pc zitten die maar 1 ding een beetje kan,

tuurlijk kost het tijd om alle functies te laden, maar aan de andere kant als ze eenmaal gestart zijn, .......

als je op de pc wilt gaan bashen doe het dan goed,

zoals het gebrek aan een duidelijke eenduidige bootmanager voor alles ossen in de vorm van efi voor zowel linux als windows, met ingebouwde ghost optie (om je systeem terug te zetten),

zoals OSen die minder optimaal worden geprogrammeerd voor de hardware waar het op moet draaien, dat zou echt beter kunnen (wat natuurlijk ook weer z'n concequenties heeft als je het beter wilt gaan doen wordt het duurder))

---

maar aan de andere kant, een pc kan alles een heeft bergen geheuge, dus waarom zou je dan veel tijd een geld stoppen om alles binnen <%n mb> te houden.
maar aan de andere kant, een pc kan alles een heeft bergen geheuge, dus waarom zou je dan veel tijd een geld stoppen om alles binnen <%n mb> te houden.
Nou, om er een paar te noemen: betere systeemresponse (snellere toegang tot geheugen), minder crashes (buffer overruns), lagere systeemspecs (groter bereik van de software), stroombesparing (minder cycli = minder tijd = ofwel sneller klaar of meer productiviteit binnen dezelfde tijdspanne) enz. --> er zijn meer cycli nodig om meer data weg te schrijven, voor het geval dit niet duidelijk is in deze context :).
@PageFault: Zeker waar, maar dat wil niet zeggen dat bovenstaande geen aandacht meer verdient. Probleem is ook dat we in een wereld van 'planned obsolescence' leven, waarbij het contra-lonend is om een product zeer kwalitatief en technisch 100% in order te maken. Een enkele aanschaf is dan voldoende; er is dan geen sprake meer van een vervangingsmarkt.

[Reactie gewijzigd door Rick2910 op 2 maart 2010 16:54]

Langere en moeizamere ontwikkeltijden. Het punt wat hij noemt, is niet meer van deze tijd. De time-to-market ligt nu heel anders dan in die tijd. Dat geldt niet alleen voor computers, maar voor elektronica/software in het algemeen, ongeacht waar het inzit of gebruikt wordt.
Je hebt juist sneller toegang tot geheugen door je geheugen reeds vol te steken met alle veel gebruikte taken. Iets waar visionair sinclair nooit aan gedacht had voor z'n pc's. Zij hadden natuurlijk geen spotgoedkope hardware om dat mogelijk te maken.
Alleen als je voldoende geheugen hebt om alles wat je wilt draaien in het geheugen te steken hoor, anders wordt er mischien eerst het verkeerde geladen en daarna pas het goede. Het leeg maken van het geheugen daar tussenin merk je mischien niet, maar het twee keer alles moeten laden van schijf wel.

Als de PC niets te doen heeft kan die prima pro-actief gaan bepalen wat ik op wil starten en dat vast gaan laden, maar dat steeds doen na iedere boot betekend in mijn geval gewoon dat hij eerst het verkeerde laad en daarna als ik op het ikoontje klik pas het goede. En dat verkeerde app laden, dat doet hij nou net op het verkeerde moment, nl als ik de PC aan zet en snel even iets wil doen.
Je hebt juist sneller toegang tot geheugen door je geheugen reeds vol te steken met alle veel gebruikte taken.
Alleen als dat embedded is. En de vertragingen waar 't over gaat, dat betreft niet zozeer embedded maar 't laden van allerlei inefficiŽnte code (geen assembler-programma's meer) waarvan 't nog maar de vraag is of je 't gaat gebruiken.
Planned obsolescence is verboden in de UK, en zou hier ook verboden moeten zijn.
Dat 't contra-lonend is een goed product te maken, bestrijd ik. Want daardoor krijg je dat mensen niet merk-vast worden.
Zo is er vaak geroepen dat 't goed voor Philips is dat zijn gloeilampen niet lang meegaan. Dat is onzin (c.q. slechte rekenkunsten). Als iedereen weet dat jij de beste prijs/kwaliteit hebt, zal uiteindelijk ook iedereen bij jouw kopen. Vraag naar nieuw spul is er altijd wel: na een aardbeving, tsunami, oorlog, nieuwe huizenbouw bijvoorbeeld - etc, heb je toch altijd weer nieuwe producten nodig. Als men dan wereldwijd altijd bij jouw producten uitkomt, is dat echt wel lucratief.
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True