Uitvinder pixel overlijdt op 91-jarige leeftijd

De uitvinder van de pixel en maker van de eerste digitale scanner is op 91-jarige leeftijd overleden. De Amerikaan Russell Kirsch maakte een scanner om in 1957 een foto van zijn toen drie maanden oude zoontje te digitaliseren.

SEAC-scanner voor eerste digitale foto's, 1957De scanner die Kirsch en zijn collega's ontwierpen, was een scanner met een ronddraaiende trommel met lichtsensoren die reflecties van een analoge foto kon waarnemen. Na een eerste scan was er een zwart-wit foto, maar door meerdere scans achter elkaar te doen was het mogelijk om een foto met grijswaarden in te scannen. Dat gebeurde op SEAC, of Standards Eastern Automatic Computer, een computer van de eerste generatie die programma's kon bewaren op eigen geheugen.

Het team legde ook de basis voor de eerste algoritmes om afbeeldingen te verwerken in een computer. De eerste ingescande foto toonde Kirschs zoontje van drie maanden op een resolutie van 179x179 pixels, op een grootte van 5x5cm.

Kirch: niet-vierkante pixelsKirsch zei later dat de keuze voor vierkante pixels de meest voor de hand liggende optie was, maar zeker niet de enige of beste keuze. In een artikel in Wired tien jaar geleden stelde hij techniek voor om pixels niet langer vierkant te houden, maar de inhoud af te laten hangen van het beeld eromheen om zo scherpere beelden met lagere resolutie te krijgen.

Kirsch was ook betrokken bij het vroegste onderzoek naar kunstmatige intelligentie in computers in de jaren zestig van de vorige eeuw. Hij overleed deze week aan de gevolgen van Alzheimer, meldt Oregon Live.

Door Arnoud Wokke

Redacteur Tweakers

14-08-2020 • 07:45

88

Submitter: Verwijderd

Reacties (88)

88
86
43
2
0
32
Wijzig sortering
In een artikel in Wired tien jaar geleden stelde hij techniek voor om pixels niet langer vierkant te houden, maar de inhoud af te laten hangen van het beeld eromheen om zo scherpere beelden met lagere resolutie te krijgen.
Weet iemand hoe ik me dit moet voorstellen? En als dit zoveel beter zou zijn, waarom maken we dan nu nog steeds gebruik van pixels?
Precies zoals de afbeelding in het artikel.

Alleen snap ik zelf niet hoe je dit nog dezelfde resolutie kan noemen. Je pakt een vierkante pixel en splitst deze in twee driehoekige pixels, om beter de rand van het oor te volgen en twee verschillende kleuren weergeeft. Maar hierdoor verhoog je toch de resolutie? Want je krijgt in feite gewoon een hogere ppi: meer pixels, in welke vorm dan ook, op dezelfde oppervlakte.
Mijn 3mpix Fuji S5000 camera van 15 jaar terug (en doet nog steeds trouw dienst) had een dergelijke technologie om op 3mpix gewoon in 6mpix plaatjes te schieten. Die kon pixels interpoleren.
Dat kan elke image tool ook; resampling, en betekent gewoon "extra pixels erbij verzinnen". Echter zijn dat nog steeds vierkante pixels, en niet de driehoekige of andersvormige waar het hier in de comments over gaat.

Het punt in de comments is dan ook niet; hoe splits je vierkante pixels op in kleinere vierkante pixels? Maar wat wordt de resolutie als je op zou splitsen in driehoeken? (Let wel; dit is niet de techniek die in het artikel benoemd wordt.)

Ik denk dat de definitie van resolutie heel simpel is: het is het aantal pixels van een beeld, of dat nu je beelscherm is of een plaatje. Binnen deze definitie maakt de grootte van de pixels, of de vorm ervan, niet uit.

In het geval van interpoleren/upsamplen moet je echter realiseren dat technisch je resolutie wel omhoog gaat, maar er geen detail bij komt. (Even al die slimme upscalers die in tv zitten daargelaten)

Daarom is het zo'n interessant idee om de pixels andere vormen te geven op basis van de kleuren. Hierdoor houd je het aantal pixels gelijk, maar creeer je juist wel meer detail. De praktische inzetbaarheid van volledig vrije vormen pixels daarentegen is lastig, een grid geeft heel veel prettige houvast in zowel hardware als software.

[Reactie gewijzigd door A Lurker op 26 juli 2024 16:32]

De S5000 heeft een zgn super CCD chip waarbij de pixels anders geplaatst zijn
https://en.wikipedia.org/wiki/Super_CCD
Nee, want als je goed kijkt dan zie je dat niet elke driehoek even groot is. Een groter vlak dat eenzelfde kleur houdt kan je een grotere "pixel" geven. Net zoals we in 3D modellen zien.
Tis allemaal leuk en aardig, maar hoe ga je daar een beeldscherm voor maken. Je kan niet op voorhand een scherm met ongelijke pixels produceren als je niet weet wat er op het scherm getoont moet worden. Of je zou de fysieke pixels in het scherm moeten laten vervormen aan de hand van de content. Wordt wel erg complex hoor, neem dan liever een hele hoge ppi waarde dat zodat je indivuele pixels nauwelijks kunt waarnemen <- daar zijn we allang! probleem opgelost.. Interpolatie is allemaal leuk maar vereist nogsteeds een monitor met een hogere pixeldichtheid om dit te tonen, anders is interpoleren useless. In het voorbeeld is het net alsof elke pixel een vector object is die elke vorm mag aannemen zolang het maar bij vier vertices blijft.

Bij gebruik van 'geen vierkante pixels' dacht ik eerder aan rechthoekige pixels. En dat is ook zeker veelvuldig gebruikt. Pixels waren niet altijd 1:1 verhouding. Zeker vroeger was dat handig, of zelfs noodzakelijk door gebrek aan RAM. Voor weergave van tekst enzo zijn vierkante pixels niet nodig. Veel DOS games waren 320x200, rechthoekige pixels dus, oude Sierra games gebruikten zelfs dubbele pixels horizontaal, wat effectief neerkwam op 160x200, als je dat weergeeft op een monitor van 4:3 heb je overduidelijk geen vierkante pixels. Ja het was lelijk, maar het was destijds de enige oplossing om 16 kleuren weer te geven in combinatie met geanimeerde objecten en overlays etc.
Naar wat ik er uit begrijp is dat niet bedoelt als beeldschermen techniek. Het gaat hier over een de digitale informatie van een pixel. Als een pixel meer informatie bevat, waaronder de vorm van een pixel, dan zou een afbeelding verbeteren vergeleken de standaard vierkante pixels. Vooral wanneer je een low-res plaatje op een high-res scherm bekijkt.

Ik ben totaal geen expert dus ik zou zeker niet uit kunnen rekenen hoeveel verschil dit uit maakt...
Maar als je een digitale pixel zoals in het voorbeeld in 2 kleurdelen opdeelt met verschillende vormen en oriëntaties krijg je meer detail. Logisch, want de pixel zelf bevat precies 2x zoveel kleur informatie en je moet 2 bits gebruiken om 64 pixelvormen te kunnen definiëren. Alleen is het voorbeeld slecht want deze houdt geen rekening met de nodige data voor de details.

Als je een foto hebt met een resolutie van 100x100 =10.000 normale pixels
Vergelijkt met een zelfde foto met een resolutie van 70x70 = 4.900 pixels, maar dan met 2x de kleurdata + een beetje extra data dat een pixelvorm kiest. Dat zal waarschijnlijk een vergelijkbare hoeveelheid data zijn.
Ik denk zelf dat de 70x70 resolutie foto er beter uit zal zien dan de 100x100 resolutie foto. Maar zonder goed voorbeeld is het moeilijk te oordelen. Het voorbeeld in het artikel is een slecht voorbeeld omdat beide voorbeelden net zo veel pixels bevatten en geen rekening houden met de nodige data per pixel.

Een camera sensor kan er volgens mij niks mee. Al heb ik te weinig kennis over camera sensoren. Dit is puur voor de compressie van de fotos die je schiet waardoor je scherpe fotos krijgt die kleiner zijn om op te slaan.
Maar je beeldscherm kan hier mogelijk wel wat mee. Pixels op je beeldscherm zijn niet perfect vierkant, het bestaat namelijk uit een verdeling van meerdere kleuren. Hier kan je subpixels mee maken. Voor iedere pixelstructuur van een beeldscherm zal deze subpixel rendering wel appart voor gemaakt worden om zo veel mogelijk gebruik te kunnen maken van de vrije pixel vormen.

Dit idee had heel mooi geweest als dat in het verleden was opgelost. Maar vergeleken met 10 jaar geleden is data opslag groter en goedkoper geworden, is internet ook snel genoeg geworden om hoge resoluties door te sturen. We hebben weinig reden om low res plaatjes op onze high res schermen te bekijken, waardoor de voordelen waarschijnlijk te klein zijn om dit idee nog verder te ontwikkelen. Vooral omdat belachelijk veel software moet worden ge-update om deze nieuwe standaard te ondersteunen anders heb je er weinig aan.
Bij gebruik van 'geen vierkante pixels' dacht ik eerder aan rechthoekige pixels. En dat is ook zeker veelvuldig gebruikt.
Een andere mogelijkheid is hexagonale pixels.
Die zijn wel allemaal even groot, en je zou er een beeldscherm voor kunnen maken.

De afmetingen van pixels verieren afhankelijk van de inhoud van de afbeelding lijkt mij meer een vorm van compressie.
Dat is precies waar ik aan dacht bij het lezen van de link naar het artikel. Blijkt dat het in essentie gaat om een anders gecomprimeerd bestand met nog steeds rechthoekige pixels, dat is waar jpeg al jaren geleden voor is uitgevonden?
vziw zijn JPEG pixels nog steeds vierkant; 2x2, 4x4, etc. Dit gaat ook over driehoeken
Vergeet echter niet dat vroeger, in de tijd van beeldbuizen de schermen geen pixels hadden en ook geen vaste resolutie. op een CRT kan je prima niet vierkante "pixels" hebben simpelweg omdat een CRT geen pixels heeft
Deze gozer legt dat vrij goed uit
https://youtu.be/Ea6tw-gulnQ

En toch ben ik het met de zin "een CRT heeft geen pixels" niet helemaal eens.
Welles waar niet zo zoals wij van een tft panel kennen, maar de beam gaat van lijn naar lijn en van dot naar dot, waarmee je dus verschillende picture Elements (pixels) creëert.

Het hangt er allemaal maar vanaf hoe het woord pixel interpretateert en hoe je die interpretatie op oude technieken toepast.
Een CRT heeft geen pixels net als dat een film negatief geen pixels heeft. Beide hebben echter wel een bepaalde maximale resolutie in de zin van hoeveel details ze vast kunnen leggen. dat er gelijkenissen zijn wil niet zeggen dat CRTs en film negatieven pixels hebben.
Pixels zijn veel makkelijker, en met de huidige megapixelrace is het probleem van vierkante pixels ook praktisch geen probleem meer.
Juist wel, hoe hoger de totale hoeveelheid pixels des te meer is er te winnen door de aangepaste methode.

En voor een individuele gebruiker maakt een paar MB meer of minder misschien niet uit maar als alle afbeeldingen zegwat 15% kleiner kunnen scheelt dat in datacenters enorm.
Nee, hoe hoger het aantal pixels hoe minder nut het heeft. Als je maar genoeg pixels hebt bestaat elke overgang van kleur uit meerdere pixels.

Daarnaast kan ik mij moeilijk voorstellen dat de bestandsgrootte veel minder wordt als je van elke "pixel" niet alleen de kleur moet opslaan maar ook de exacte vorm en plaats.
Dat gebeurd nu deels al want de compressie algoritmes doen ook iets vergelijkbaars, maar het lijkt mij dat als je dat op afbeelding niveau al doet dat dus ook nog eens een hoop rekenkracht scheelt bij openen en opslaan.
Klopt, maar compressie zorgt vaak voor een lagere kwaliteit, omdat je al genoeg pixels in de originele afbeelding hebt.
Als je meer detail en kwaliteit wil dan het origineel zal dat waarschijnlijk andersom zijn.
Er zijn oneindig veel ideeën om technieken te verbeteren, maar dat wil niet zeggen dat het makkelijk / mogelijk of economisch haalbaar is :)
Een meer generieke stelling bestaat volgens mij niet :P
Maar is wel terecht
Net zo terecht als zeggen dat sneeuw wit is. Je schiet er alleen geen reet mee op want je wist het al. Met een dergelijke stelling kom je niet dichter bij ook maar 1 zinnig ding in het leven.
Ook dit schrijfsel is een tegeltje waard, wat mij betreft :)
De ideeën waarbij je een trade-off krijgt inderdaad, die zijn er genoeg. En je krijgt vaak bij Trade-off ideeën ook vaak bias van mensen die vinden dat dit idee beter is als het andere terwijl eigenlijk beide ideeën trade-offs maken.

De beste ideeen zijn verbeteringen waarbij netto onder de streep er winst is geboekt, bijvoorbeeld minder-trade-off met dezelfde succes. Wat helemaal geniaal is: een volledige WIN-WIN scenario waarbij het een no-brainer is om een bepaalde idee NIET te implementeren.

Dit zie je vaak ook in de programmeerwereld bij algorithmes en datastructuren. De beste geniale ideeën zorgen voor een netto winst.... trade-offs hou je altijd. Daarnaast heb je nog abstracties boven ideeën welke je in de programmeerwereld gewoon ZERO COST moet houden. Doet een programmeertaal niet zijn best hiervoor, heeft het voor mij geen toekomst. Omdat er steeds hogere abstracties komen, welke niet puur zero cost zijn... kun je daar ook niet op bouwen om hogere abstracties te bedenken voor de toekomst waar de innovatie zit.

[Reactie gewijzigd door Immutable op 26 juli 2024 16:32]

Eigenlijk doen we dit al soortvan met JPEG compressie. De blauwe lucht wordt in grote vierkante blokken opgeslagen, lang een gebouw wordt de data op de kleinste schaal per pixel opgeslagen. Nu zijn die grote blokken nogsteeds vierkant, maar het principe is hetzelfde.
Aan de afbeelding te zien is het een soort pixel art scaling algoritme, als xBRZ of HQ2X. Deze worden al veel gebruikt in emulators. Zaken laten afhangen van het beeld eromheen is interpolatie.

Nadeel daarbij zijn altijd de artifacts, waar je ogen erg gevoelig voor zijn. Het is een kwestie van smaak. Als 99% van het plaatje er beter uitziet, maar 1% van de pixels fout is, dan storen mensen zich vaak daar aan.
Ik vermoed dat het te maken heeft met productie kosten en het dynamische aspect, ook vraag ik mij af of hier momenteel vraag naar is. ik vraag mij ook af hoe deze technologie zich vertaald naar bewegende beelden, bijvoorbeeld een Film, Youtube video op 60FPS of een game op 144 tot 240 FPS. Het kan natuurlijk zijn dat deze technologie alleen goed werkt op foto's en niet zo zeer op video.

Toch ben ik hier nu wel benieuwd naar.
Je zou bijvoorbeeld kunnen denken aan een soort van honingraatstructuur. Immers daar heb je overlappende cellen welke bijvoorbeeld een beter resultaat zouden kunnen geven.
Dat heet toch .gif?
"Pixels" van hele rare vormen maken omdat de kleuren veel op elkaar lijken en je palet beperkt is.
Dat zijn geen pixels in rare vormen, dat zijn nogsteeds individuele pixels van exact dezelfde afmeting. Mischien doel je op clusters van pixels met dezelfde kleurwaarde, maar dat wordt hier niet gesuggereerd. Ook gaat het niet over interpolatie, want daarbij converteer je een lage resolutie naar een hogere resolutie, daar bespaar je geen data mee. Je gaat immers van minder vierkante pixels naar meer vierkante pixels. Hier hebben we het over individuele pixels die een andere vorm kunnen hebben om zo data te besparen.
Stel een raster voor van 100x100 vierkante pixels in een grid van gelijke afmeting versus een raster van 100x100 pixels van allemaal andere afmetingen dwars door elkaar op basis van de content. Het enige probleem is dat je dan wel van elke pixel moet vertellen wat de dimensies etc. zijn, net als een vector afbeelding. Daar wordt de uiteindelijke afbeelding een stuk groter van in data. Zo ruimtebesparend is het niet. Het is een geinig idee om bepaalde delen in een afbeelding meer scherpte te kunnen geven daar waar andere delen af kunnen met minder. Een afbeelding met erg veel detail over de gehele oppervlakte kan dus minder goed gebruik maken van deze techniek. Net als dat je tegenwoordig ook ziet dat compressie heel moeilijk is op afbeeldingen/video waarbij er erg veel details/kleurverschillen te zien zijn.

De praktische kant van de ongelijke pixels is echter ver te zoeken, want je moet het ook nog weergeven op een scherm die natuurlijk nooit uit ongelijke pixels zal bestaan. Het is eerder een poging om compressie toe te passen op afbeeldingen waarbij je "extra scherpte ten koste van scherpte" kunt behalen. Grappig idee.. maar nee ;)
Dat bedoel ik ja.
Feitelijk komt het op hetzelfde neer; rare vormen (die je "irregular pixel shape" zou kunnen noemen), die een kleur hebben.
Zo ruimtebesparend is het niet.
Het beschrijven van of er een deling is tussen twee kleuren, en wat de oriëntatie ervan dan is kost zonder meer meer geheugen(bandbreedte).

Wat ik minder makkelijk te beoordelen vindt hoe zich dat verhoudt tot een resolutie en een twee keer grotere resolutie. De deling van pixels vindt plaats bij de demarcatielijnen tussen verschillende kleuren. In een veld met een massieve kleur hoeft de deling niet te worden beschreven, en misschien hoeft dan ook de geheugenruimte niet te worden gereserveerd (kan een procedureel ding zijn). Hoogstens moet beschreven worden dat de pixel niet wordt gedeeld, maar dat is het dan.

Bij een twee keer hogere resolutie heb je altijd die pixels die beschreven moeten worden. Misschien is op mijn reactie nog wel het nodige af te dingen, maar makkelijk inschatten kan ik dit niet.

Of deze hele intelligente manier om kleuren te verdelen nu een economische drijfveer zou hebben is een tweede. Hardware wordt alleen maar krachtiger en qua functionaliteit groter/sterker. Een drijfveer om groei te limiteren is efficiency. Nu wordt bij mobiele devices veel energie geïnvesteerd in het verbeteren van de aanbodkant van de gebruikte energie, de accu. Een techniek als deze zou misschien wat kunnen winnen aan de vraagkant. Minder pixels, minder gebruik, en toch een relatief hoge beeldnauwkeurigheid.

[Reactie gewijzigd door teacup op 26 juli 2024 16:32]

Ik dacht dat Fujifilm anders gesorteerde pixels gebruikt in de meeste camera's.
Correct, dat waren achtkantige pixels als ik me niet vergis, en de rangschikking was niet meer in rijen en kolommen, maar meer in een diagonaal grid.
In het verleden werden bij de eerste breedbeeld video's zo'n 25 jaar geleden volgens mij ook al rechthoekige pixels gebruikt. (1:1.6?) Ze waren weliswaar gewoon vierkant, maar werden uitgerekt voor het breedbeeld effect.
Breedbeeld video's waren gewoon analoog, dus kenden geen pixels.

Analoge camera's en TV-uitzendingen werkten soms wel anamorf. Dat wil zeggen dat er voor de 4:3 camera een 16:9 lens zat, en dat je bij de TV op een knopje moest drukken om het beeld plat te drukken danwel in te zoomen om correct weer te geven in 16:9.

Het zou kunnen dat eerste digitale videorecorders (als je dat met video's bedoelt) binnen het omroepbedrijf ook anamorf gebruikt werden. Dat waren dan geen breedbeeldrecorders maar gewone.

[Reactie gewijzigd door mae-t.net op 26 juli 2024 16:32]

Voor het opslaan en comprimeren van afbeeldingen en video's wordt deze techniek gebruikt. Deze schaalbare pixels worden dan macroblokken genoemd. Als je op die term zoekt, kan je alle info vinden over hoe het werkt (inclusief open source software die de techniek gebruikt).
Dat zijn echter nogsteeds blokken, blokken die bestaan uit, jawel, allemaal vierkante pixels. Geen individuele pixels van verschillende afmetingen.
Dat is bijna zoals JPG compressie werkt.
Dat werkt met blokken van x.x pixels waarbij elk blok een informatie element is en de inhoud afhangt van zowel de echte inhoud als de inhoud van de naastliggende blokken.
Je zou kunnen denken aan polygonen. Dan hoef je alleen maar coordinaten/vectoren van een vlak met gelijke kleur en intensiteit bij te houden. Hoe eenvoudiger het plaatje, des te minder polygonen er nodig zijn, dus minder data.

Ik denk dat we nu nog steeds gebruik maken van pixels omdat dit simpelweg 'de standaard' is geworden. Er vanaf wijken betekent voor jouw product meer werk en hogere kosten en zo verlies je je concurrentiepositie. En kijkend naar mijn polygonen voorbeeld zou je kunnen concluderen dat compressie algoritmes zo'n beetje hetzelfde of beter doen, en is het wellicht niet meer relevant om af te willen wijken van pixels.
De pixels waren toen een stuk groter dan nu. Nu de pixels zo klein zijn dat je ze met het blote oog amper kunt waarnemen is het echt niet meer nodig om andere vormen pixels te gebruiken.
Als pixels niet meer vierkant waren, dan zou men (analoge) film beter/mooier kunnen simuleren. Dan zou het moire effect niet meer plaatsvinden-at zo nu en dan nog wel es een keer voorkomt.
Dit lijkt me sterk verwant aan het idee van lossy-compressie zoals dat al veel langer bestaat.

Het verschil is dat het zowel voor hardware als software niet zo handig uitkomt om verschillende maten pixels te gebruiken. Je kunt wel rekenen met veelvouden van pixelmaten om rechthoekige vlakken met dezelfde invulling te maken, maar dan is het resultaat mooier als je dat vlak alsnog laat verlopen naar zijn buren, dus een berekende invulling gebruikt. En dan zit je wel heel erg dicht tegen JPEG en aanverwanten aan.
Misschien ook een idee om in het artikel te vermelden in welk jaar dit allemaal uitgevonden is?

Edit: inmiddels toegevoegd zie ik.

[Reactie gewijzigd door friggler op 26 juli 2024 16:32]

Van 1950 tot 1957 ong
Niet om al te kritisch te zijn, maar een fax is al veel ouder en doet een quasi zelfde iets al veel langer ? Het is een prima uitvinding, maar m.s. is een fax de allereerste scanner en quasi pixel digitalisering ?
Niet om al te kritisch te zijn, maar een fax is al veel ouder en doet een quasi zelfde iets al veel langer ?
De fax had een analoog signaal en had geen pixels.
Een beetje zoals een analoog tv signaal, in feite een serie horizontale lijnen in analoog formaat.
Ja en nee. Als je het betrekt op 1957 toen de pixel werd uitgevonden klopt het inderdaad, maar als je het betrekt op de fax zoals wij die kennen dan klopt het niet: Vrijwel alle faxmachines zoals die sinds de jaren '70-'80 op kantoren gebruikt zijn en nog sporadisch in het wild te vinden zijn - dus alle faxmachines die wij redelijkerwijs in ons leven tegengekomen zijn, scanden en verzonden digitaal. De ITU normen voor analoog gescande faxen zijn in 1996 ingetrokken als verouderd (het lijkt me dat dat gebeurt als echt niemand er op enige schaal meer wat mee doet).
Ja, stond perplex toen ik er achter kwam wanneer de 1e fax nu werkelijk uitgevonden was.. veel decennia (nouja zeg maar gewoon millenium) eerder dan ik dacht. Beetje ook zoals met de electrische auto, die al voor 1900 ontwikkeld was, maar helaas dus zijn downfall had door oliemaatschappijen van die tijd.
Een millenium is duizend jaar, vermoedelijk bedoelde je eeuw?
Was zijn naam niet eigenlijk Kirsch in plaats van Kirch?
Yup, maar voor deze opmerking gebruik je de link 'feedback' rechtsboven naast het artikel.
Apart. Dit artikel heeft inderdaad zo'n link, maar bij veel artikelen zie ik alleen een button "beoordeel dit artikel".
Waarom? blijf het altijd toch belachelijk vinden waarom eventuele redactuele fouten niet onder het artikel geplaatst mogen worden. Vaak genoeg dat het artikel 's ochtends anders is dan 's avonds en mensen dus afgeslacht worden hier omdat ze op het originele artikel reageerden welke dus in de loop van de tijd aangepast is juist oa door hun opmerkingen, en van alle wijzigingen dus helemaal geen history/vermelding van is..
Waarschijnlijk omdat het belachelijk veel werk is om van de auteur van een artikel te eisen dat hij altijd alle reacties leest en altijd zijn eigen artikel corrigeert. Ik kan me voorstellen dat er voor meldingen in het meldtopic een legertje redacteurs aan de slag gaat.
Toch triest dat zulke grote geesten en briljante mensen overlijden aan een ziekte die ze geestelijk eerst helemaal kapotmaakt. Eerst Frances Allen en nu dit weer.

[Reactie gewijzigd door djs909 op 26 juli 2024 16:32]

Het is gewoon een vreselijke ziekte, ongeacht voor diegene die het heeft, en diegene zijn nabestaanden.
Hoop echt we snel grip kunnen krijgen op deze vreselijke ziekte, na zelf iemand in de familie er aan kapot te zien hebben gaan.
+1 tegen Alzheimer.
Mijn opa is eraan overleden. Nouja, de persoon "mijn opa" is eraan overleden, want het *karakter* dat mijn opa was, dat was al een jaar of 10 eerder verdwenen :'(
* Pixeltje Mijn uitvinder overleden? sad..
Mooie gelegenheid om nog harder te shinen
Hoezo uitvinder van de pixel? Ooit gehoord van Paul Gottlieb Nipkow, die de Nipkow disk uitvond die op die manier werkt? En die kreeg een patent in 1885.
Dat was een draaiende schijf met een gaatje en geen pixel, en erachter een fotocel die het elektronisch doorgaf. (dat werd later tv)

Nipcowschijf
Er is ook een award naar genoemd.

Edit. Aanvullende duiding.

[Reactie gewijzigd door Mel33 op 26 juli 2024 16:32]

Die zou je uitvinder van de beeldlijn kunnen noemen. Een beeldlijn is wel een heel rare pixel, de waarde ervan is niet hetzelfde gedurende de lijn.
De eerste ingescande foto toonde Kirchs zoontje van drie maanden op een resolutie van 179x179 pixels, op een grootte van 5x5cm.
Het aantal pixels heeft niets afmetingen in lengte maten te zien. Pixels is op scherm = PPI en op een fysieke drager is het DPI. die 179x179 pixels zou je (als je zou willen) zelfs 5 op 5 meter kunnen afdrukken.

/edit en even voor de duidelijkheid DPI heeft totaal niets met pixels / PPi te maken

[Reactie gewijzigd door D-rez op 26 juli 2024 16:32]

Nooit aan gedacht dat het om die ingescande foto zou kunnen gaan?
Dan zou de tekst suggereren dat de foto al uit pixels zou bestaan.
Dan zou er dus eerder iets gestaan moeten hebben zoals: "De eerste ingescande foto van 5x5cm, toonde Kirchs zoontje van drie maanden op een gescande resolutie van 179x179 pixels.
Volgens mij was het schalen van zo'n afbeelding destijds nog niet echt een optie - daar was de hardware nog niet krachtig genoeg voor. Daarnaast heb je goed kans dat het scherm ook niet zo bijster groot was of een dusdanig hoge PPI had dat dit erg nuttig was geweest.
Zou best kunnen dat dit de officiële benaming is, ik heb het niet opgezocht, maar in de grafische industrie, drukkerij maar ook lithografen wordt eigenlijk altijd gesproken over dpi.

Je zou verwachten dat resolutie nou eindelijk wel eens in het metrisch systeem zouden worden uitgedrukt, zeker in een moderne industrie.

Op school en bij sommige bedrijven en in lesmateriaal / boeken werd nog wel eens het raster uitgedrukt in lijnen per centimeter.

Maar goed, raster werden toen nog opgebouwd uit stippen die ontstonden door fotomateriaal te belichten via een rasterfilm. Die stippen waren daardoor altijd hetzelfde van vorm, alleen groter of kleiner. Lijnen per cm kwam dus in de praktijk soort van overeen met dots per cm.

Dit is met de introductie van de digitale belichter ingewikkelder geworden: Rasterpunten worden nu opgebouwd uit blokken van pixels en kunnen daardoor ook bijgestuurd worden qua vorm. Je zou bijvoorbeeld ruitvormige of ovale rasterpunten kunnen gebruiken, opgebouwd uit x pixels per rasterpunt.
Die foto van Kirsch bij de SEAC Scanner had toch wel iets meer high-res kunnen zijn bij het aanklikken: https://www.taliawebs.com...2/SEACComputerScanner.png

[Reactie gewijzigd door Slavy op 26 juli 2024 16:32]

Tot op hoge leeftijd nog betrokken bij de techniek ( In een artikel in Wired tien jaar geleden => toen was hij dus 81) om te overlijden aan een ziekte waardoor je alles vergeet... ;(

RIP

Op dit item kan niet meer gereageerd worden.