Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 92 reacties
Bron: Computerwoche

De online-versie van het Duitse ComputerWoche bericht dat het Japanse NEC een nieuwe chip heeft ontwikkeld voor het aansturen van LCD-schermen. De meeste huidige schermen beschikken over een 8-bit chip die in totaal een dikke 16 miljoen kleurnuances kan doorgeven. Het nieuwe plakje silicium van NEC beschikt over 10 bits per primaire kleur (RGB), waarmee in totaal ongeveer een miljard kleuren mogelijk worden. NEC is op dit moment bezig de eerste testexemplaren rond te delen onder de fabrikanten. Begin volgend jaar moet de chip massaal verkrijgbaar zijn:

NEC LogoErste Testmuster hat NEC begonnen, an Bildschirmhersteller auszuliefern. Ab März kommenden Jahres sollen mehr als 100.000 der neuen Treiberbausteine gefertigt werden. Sie sollen zunächst in Monitoren und TV-Geräten mit mehr als 20 Zoll Bildschirmdiagonale zum Einsatz kommen, bei denen aufgrund der größeren Pixel unflüssige Farbübergänge am deutlichsten sichtbar werden. Nötig sind dafür noch andere Komponenten, etwa 10-bittige Bildberechnungs-Chips; NEC geht aber davon aus, dass diese in Kürze ebenfalls zur Verfügung stehen.
Moderatie-faq Wijzig weergave

Reacties (92)

Ik dacht dat je boven de 16.700.000 kleuren het verschil al niet meer zou zien (verkoopppraatjes van een aantal jaar geleden)

Ach ja, eens zien of we het verschil zien...
en ook al ZOU je het kunnen zien...
...dan moet je videokaart die kleurnuances ook kunnen weergeven!
Je ziet het niet nee, maar het kan wel gebruikt worden voor erg complexe kleurverlopen enz...
Een van de meest voornaamste redenen is niet omdat we meer kleuren willen zien in foto's of zo maar meer voor berekeningen
Ja, maar het gaat hier om chip voor het aansturen van LCD scherm.. een LCD scherm opzich zal geen operaties meer kunnen loslaten op een aangeleverd RGB signaal waarbij hij kan profiteren van de hogere preciesi van de kleur. Het rekenen met 10 bits heeft enkel zin tot het moment waar er nog logische operaties op het gerenderde beeld kunnen worden losgelaten.. dus in de GPU zelf. De hier door NEC ontwikkelde chip zal dus waarschijnlijk toch echt bedoeld zijn voor iets als marketing achtigs als 'ultra vibrant colors'.

In reactie op Jasper Janssen hieronder:
De instellingen die je dan nog kunt wijzigen bij een TFT zijn allemaal niet van dien aard dat er voordeel gehaald wordt uit het hogere aantal bits voor de kleuren. Dat heeft enkel zin voor berekeningen die gedaan worden om de uiteindelijke kleur uitkomsten van effecten als alpha blending te bepalen.
Een van de meest voornaamste redenen is niet omdat we meer kleuren willen zien in foto's of zo maar meer voor berekeningen zoals van toepassing als je bijv. gaat blenden, bijv. in alpha blending waarin het te blenden object ook nog een kleur heeft, dan gaat dat op een gegeven moment bij te veel detail artifacts geven omdat je de kleuren niet genoeg meer kunt delen.
Sluit maar eens zo'n TFT aan, en kijk wat je allemaal nog op de TFT kan wijzigen aan het beeld. Contrast, helderheid, kleurtemperatuur, etc.. Bij de oudere TFTs kan dat alleen als ie via VGA hangt en wordt het dus analoog geregeld, maar bij de nieuwere werkt het ook met DVI -- en dan wordt er dus digitale bewerking op het signaal losgelaten.
Voor een kleurenfoto is 16Miljoen kleuren genoeg.

Als je echter een kleurverloop wilt van 1 kleur (bv lichtblauw naar donkerblauw) dan heb je daar maar 8 bits = 256 kleurgradaties voor. En dat zie je wel.
Dit is enkel een overloop van zwart naar fel blauw.
Allerlei kleurnuances zijn weet te maken met de rood en groen component. Dat je dus maar 256 gradaties per kleur zou hebben klopt volgens mij niet helemaal.
Als je dat kleur verloop over je hele 19" scherm 1920x1600 wil hebben, zie je wel dat je maar 256 kleurtjes hebt.

Met zoveel kleuren moet de kleuren kies tool ook aangepast worden vind ik. Op dit moment kan je in Photoshop ook lang niet alle kleuren kiezen met de color chooser, maar met miljarden kleuren wordt dat helemaal een probleem.
De reden waarom je niet alle kleuren kunt kiezen heeft te maken met je 'workspace', bijv. Adobe RGB. Het wordt bewust gelimiteerd omdat 'output' apparatuur niet alles kunnen weergeven. Je hebt dus niks aan een onbeperkte kleurruimte als je er verder niks mee kan. Bij converteren krijg je alleen ongewenste kleur effecten.

In PS werk je grotendeels in 8-bit. Dit is voldoende en wordt ook naar de uitvoer apparatuur gestuurd. 16-bit heeft alleen nut als je met kleurspreiding gaat werken, zoals met levels en curves. De nieuwe PS gaat wel geheel in 16-bit, dit zal tot minder artefacten lijden. 8-bit scherm is voldoende. 10-bit is leuker.
Niet in zuiver blauw hé... Zodra je ENKEL blauw gebruikt zit je beperkt ..
Dat klopt wel hoor ! 256 nuances per kleur.
Ik werk vaak met digitale foto's en vooral als je gaat vergroten met fijne kleur-nuances, heb je een probleem met 256 gradaties per kanaal.

1024 gradaties per kanaal is echt welkom voor de digitale fotografie.

jammer dat ze niet gelijk overstappen naar 16bit/channel(gebruikelijk is voor grafisch werk).
Dat is er al lang: hou gewoon je foto's in een formaat wat 16 bit per kanaal aankan, bijvoorbeeld TIF, PNG of PSD. Dat ze bij op je scherm met 8 bits per channel worden weergegeven maakt niet uit, dat zie je toch niet. Alle bewerkingen (vergroten, kleur-ranges oprekken, enz) kunnen dan fijn op hoge precisie blijven. Deze nec chip gaat daar niet bij helpen, het is puur een kwestie van de precisie waarmee je software werkt.
Omdat dat heeel erg mopeilijk is en heeeel erg veel geld kost misschien? De meeste LCDs kunnen nu helemaal geen 24 bits kleur aan zoals de nieuwspost zegt, de meeste zijn 18 bits. 2 bits toevoegen aan ieder kanaal is niet alleen een kwestie van net wat nauwkeuriger DACs, maar ook betere panels die dat kunnen weergeven en een veel snellere en duurdere chip. Dat dat niet makkelijk is kun je al wel afleiden uit het feit dat die LCDs het meestal nog op 18 bits houden ipv de wereldstandaard 24 bits.
Ben ik helemaal met je eens.
Als ze het verbeteren waarom dan niet meteen in een keer goed. Ik weet dat een verbetering van 4x niet slecht/onnuttig is maar als je zo'n stap zet waarom dan niet in een keer gewoon goed.
Als je echter een kleurverloop wilt van 1 kleur (bv lichtblauw naar donkerblauw) dan heb je daar maar 8 bits = 256 kleurgradaties voor. En dat zie je wel.
Nee. Probeer het zelf maar eens uit, dat zie je echt niet.
dat dacht ik dus ook en ik heb nu de Parhelia P650 en ik zie het verschil dus wel.
Daarnaast kunnen de RAMDAC's natuurlijk ook worden gebruikt om een betere gammacorrectie weer te geven.
Een mens kan max. 2 à 3 miljoen kleuren zien.....
Ik moet echter ook CaineTanathos steunen hierin.
Het menselijk oog kan in ideale omstandigheden tot 10.000.000 kleur(tonen) waarnemen.
10 - 12 miljoen kleuren ja, tenzijn je kleuren blind bent natuurlijk (of bepaalde kleuren niet kan onderscheiden)
Hoe kom jij op 10 à 12 miljoen?
Ik heb tijdens mijn studie aan de medische faculteit Nijmegen anders geleerd dat het 2 à 3 miljoen is.

P.S. Hmm, beetje -1: overbodig dit ;)
Die signalen zijn wel degerlijk digitaal. Alleen dan niet zoals in een PC een combinatie van aan/uit maar een periode pulsjes. Af en toe een pulse per periode is een lage waarde en veel pulsjes in een periode is een hoge waarde.
@musiman

in die tijd wisten we misschien niet beter, zoals zo vaak: wetenschap bevestigd iets maar sluit niet altijd wat uit.

en de laatste tijd komen we steeds meer te weten over het menselijk brein
Dat zijn zeker 2 à 3 miljoen kleuren tegelijk?
Ik zie het verschil wel tussen #45F3DE en #45F3DF hoor... In totaal kunnen we volgens mij oneindeig veel kleuren onderscheiden, omdat de signalen van oog naar hersens niet digitaal zijn.
Maar: welke daarvan komen overeen met het spectrum dat je kan weergeven met RGB? Zie bijvoorbeeld deze http://www.skytopia.com/project/illusion/illusion.html site voor "The Eclipse of Mars", en beleef wat je mist op een monitor.
hoe defineer je zien?
krijgen ze dan eerst 1 kleur te zien en dan een andere en moeten ze zeggen of er verschil tussen zit, of krijgen ze die kleuren die dicht bij elkaar liggen naast elkaar te zien.
ik verwacht dat als je 2 bijna de zelfde kleuren naast elkaar legt met 1 rechte lijn er tussen dat je het verschil kan zien en dus veel meer kleuren kan onderscheiden.
2 a 3 miljoen? 3 miljoen is de helft meer als 2 miljoen!
wat is het nou, ongeveer 2 miljoen of ongeveer 3 miljoen? :)
Misschien dat daar per mens en situatie (aanwezigheid van zuiver wit licht etc) verschil in zit, en dat het meestal tussen de 2 á 3 miljoen zit?
Je kunt meer kleuren zien als de lichtintensiteit toeneemt (tot een maximum natuurlijk).
Ja,

Een getrained oog zit het verschil tussen 16 miljoen kleurennuances. Of eigenlijk wij zien het verschil tussen 256 keurennuances van één primaire kleur. Dit wordt nu 4 keer zo hoog. En daarmee kan de weergave kwaliteit op een scherm 4 keer zo groot worden
Ik begreep van een lezing van een deskundige van Canon dat kleurechtheid eigenlijk een moeilijk, zo niet onmogelijk begrip is.
Tevens vertelde hij dat de mensen die het best kleuren kunnen onderscheiden/zien etc. blonde, blauwogige, scandinavische (zweedse) vrouwen tussen de 20 en 25 jaar zijn...
Mannen zijn voor een groot deel een klein beetje kleurenblind en hoe ouder je wordt, hoe troebeler je lens, dus je beeld wordt steeds geler/oker.

Dit verhaal komt overigens van iets met kleurnuances bij tanden: als een tandarts je een correcte kleur wil geven als je bijvoobeeld een stifttand krijgt, schijnen verschillende tandtechniekers verschillende kleuren erop te zetten, terwijl er een bepaalde kleur wordt meegestuurd.

De man vertelde dat het meest ideale dus is (daarom zou zo'n chip ideaal zijn) als er een digitale foto gemaakt zou worden, waarna deze digitaal geanaliseerd zou worden waarna mensen die niet nadenken precies de hoeveelheden kleurstof toevoegen die de computer ze verteld, omdat als ze zelf gaan denken het fout gaat.

Maar goed, het was een heel lang verhaal, en daarom is kleurenonderzoek een interessanter iets dan wat wij denken als we bijvoorbeeld de videokaart voor een game 1mlrd kleuren willen laten berekenen ;)

Edit: dit is dan meer een reactie die het heeft over CCD's en zo, maar ik kan me voorstellen dat de ontwikkeling van zo'n chip meerdere mogelijkheden zal gaan bieden dan alleen maar een LCD-scherm aansturen...
Ja kleurechtheid is moeilijk, maar misschien bedoelt hij meer dingen als kleurvastheid en kleurstabiliteit?
Dit doet me erg denken aan het 24 bit SCD (audio) formaat, het bestaat maar is alleen bij de echte freaks in gebruik. (dus mensen die echt zulk uitzonderlijk gehoor hebben dat ze t verschil horen, of gewoon willen pochen)

Volgens mij gaat het hiermee ook die kant op, ik zou echt niet meer geld neerleggen voor een paar bits extra kleur.
(voor games en dingen met snelle beweging maakt het trouwens sowieso al niet uit.. een pixel heeft zo snel al weer een andere kleur dat er hoe dan ook kleurvervorming optreed)

En het aantal bit R/G/B verhogen is ook nog es niet de manier om een beter spectrum aan kleuren te krijgen, want de kleuren die je mist liggen helemaal buiten dit systeem,.(mappen naar een negatieve of >256 kanaalwaarde) je zou over moeten gaan naar HSV, XYZ of NCS. Maar maak daar es een monitor voor!
Ooit een demo gehoor van SACD? Dat verschil hoort iedereen, niet alleen de audiofiel. Probleem van SACD is dat de afspeelapparatuur nog niet bij iedereen thuisstaat, dat de benodigde speakers duur zijn (en precies moeten worden opgesteld) en dat de SACD schijfjes ook nog vrij prijzig zijn. Geef het nog een paar jaar, dan komt het wel goed.
Alleen jammer dat die demo's niet zo erg betrouwbaar zijn.

Je hoort inderdaad een verschil. Maar je hoort niet het verschil tussen een goede audio CD en een goede SACD.
Een mens hoort van ongeveer 20 tot 20Khz. Bij SACD is deze bandbreedte veel groter.
Om de frequencys te horen (en klanken) is dit eigenlijk niet echt veel toegevoegde waarde.
Maar voor multi channel (5 boxen) is dit wel te een groot verschil.
Het mensenoor is erg gevoelig voor de richting waar het geluid vandaan komt.
En als je ooit het verschil hebt gehoort tussen CD kwaliteit en SACD dan weet je wat echt multi channel is.
Ja maar helaas, een monitor zendt licht uit, en werkt dus per definitie met een additief model.

Het enige alternatief is een e-paper scherm wat in principe met een CMY(K) model zou werken, alleen heb je daarmee doorgaans een nóg kleiner spectrum.
Volgens mij snapt bijna niemand hier waar het nu eigenlijk om gaat. Het aantal kleuren dat door een TFT-scherm weergegeven kan worden, hangt af van het aantal mogelijke intensiteitswaarden voor elke rode, groene en blauwe subpixel. De intensiteit van elke subpixel wordt geregeld door een bepaalde spanning op de vloeibare kristallen te aan te brengen, wat gedaan wordt met een transistor (TFT = Thin Film Transistor (matrix)). Het aantal mogelijke gradaties per primaire kleur hangt dus af van het aantal mogelijke spanningswaardes die op de kristallen gezet kan worden. Volgens mij is dit hetgene wat de chip van NEC verbetert: er kunnen 2^10(=1024) verschillende spanningswaardes op de vloeibare kristallen gezet worden ipv 2^8(=256).
Precies, en dat heeft heel weinig nut. 8 bit per component is ook al zat precisie om plaatjes goed weer te geven. Zoals ik zei, je hebt veel meer aan een hogere precisie bij het processen van plaatjes (dus als ze nog als layers of textures in je geheugen staan) dan bij het weergeven.

En ik ben trouwens benieuwd wie écht het verschil kan zien tussen een 8 of 10 bit display. Volgens mij ziet nu al vrijwel geen mens het verschil tussen 2 kleurgebieden die één waarde verschillen.
En wat ik dan dus niet snap is wat ze in godesnaam met 10bits per kleur moeten als er al dithering nodig is, om 18bits kleuren uit een tft te halen!
* 786562 Hoppie
Dit is goed nieuws voor de grafische vormgevers en designers welke ook wel een TFT aan hun workstation zouden willen. Alleen volgens mij is 16,7 miljoen kleuren ook al best ok wanneer de kleurechtheid maar te garanderen is. Volgens mij ligt de huidige kleurechtheid echter niet aan de chip welke gebruikt wordt maar de moeilijkheid van het op kleur krijgen van het liquid crystal.
IDD!
Ik heb zo bijvoorbeeld ook nog geen TFT scherm gezien die aan een high-end trinitron kan tippen. Niet qua contrast, niet qua kleurechtheid. Daarnaast is 't met de kijkhoek nog steeds niet echt goed gesteld dus bij het verdraaien van de ogen TOV de monitor krijg je als snel een flets beeld. Iets wat met CRT niet gebeurt.
Vraag me echt af of dit opgelost wordt met de 10 bits kleurenchip...
Ik had altijd de indruk dat de kleurdiepte door het TFT beperkt werd en niet door de digitale logica ervoor.
* 786562 Hoppie
Na ff ligge zoeken op internet heb ik het volgende gevonden :
Estimates for the number of colors the eye can potentially distinguish range from 600,000 to 1,000,000, taking all levels of brightness and saturation into account. The discernible range under common conditions is much lower, however.
dit komt van http://www.dental-computing.com/public/intraoralcameras/highlight_chan ges.html
Dus is wel ietsepietsie minder dan 1 miljard (8>
Eizo past deze techniek al geruime tijd toe.

http://www.coloredge.eizo.nl/coloredge_home.asp?sc=dut

Met 10 bits lut
zien wij het verschil tussen 16 miljoen kleurnuances en 1 milard kleurnuances nog?
Nou of we het echt ZIEN is inderdaad maar de vraag, maar meer kleuren heeft denk ik meer te maken met een gevoel wat je krijgt als je ernaar kijkt... de sfeer van het beeld. beetje moeilijk te definieren dus :P
@mr_atheist
Jack Flushell heeft wel een beetje gelijk, zonder het meteen te hoeven zoeken in zweverige sferen. De mens heeft namelijk iets raars:

Als ik kleur 1 vergelijk met kleur 2 dan kan het zijn dat ik geen kleur verschil zie...
Als ik dan kleur 2 vergelijk met kleur 3 dan kan het zijn dat ik geen kleur verschil zie...
Als ik echter dan kleur 1 met 3 vergelijk zie ik opeens kleurverschil... Raar, maar wel een feit. Of je de kleurverschillen waarneemt heeft dus te maken met de plek van de kleur in een plaatje.

@R Kuipers: Daar maken de compressiemethoden als Jpeg, divX gebruik van... Namelijk dat wij het kleurverloop niet goed zien, het verschil tussen kleuren is in feite wat lastiger te definieren. We nemen meer waar dan dat wel altijd kunnen aangeven.

Een plaatje met meer kleuren (dan die paar miljoen) zullen we waarschijnlijk definieren als meer warm o.i.d., terwijl we toch weinig zinnigers over de kleuren kunnen zeggen dan in het geval met minder kleuren.
Wat jullie bedoelen zonder zweverig te worden is het beschikbare palette aan kleuren.

Je ziet dan bijvoorbeeld 30.000 kleuren in een foto, maar het maakt veel verschil of die kleuren komen uit een palette van 32.000, 64.000, 16.7miljoen of miljard kleuren.

Het spectrum is dus veel groter, en dat kan een natuurgetrouwer beeld opleveren.
Zo van het is er wel en je kunt het niet waarnemen, maar toch voel je het? Je kunt zo een programma met Tinekey de Nooy beginnen :)

Een hogere kleurdiepte heeft natuurlijk vooral voordelen bij het bewerken van het signaal met vele optellingen en delingen etc. Hierbij gaat kleurdiepte verloren en dat zie je op den duur wel degelijk.
jah ik denk ook dat je het zal merken.
Want we zijn nog lang niet bij de zowat analoge weergave waar een oneindig aantal verschillen is.
Ik denk het niet. Jpeg en divx maken juist gebruik van het feit dat kleurwaardens zo dicht bij elkaar liggen bij 16.7 miljoen, dat ze aangepast kunnen worden zonder dat wij er iets van zien.
Ik verwacht ook niet dat je op zich het verschil kan zien tussen nog meer kleuren, maar je zou deze extra kleuren kunnen gebruiken om bijvoorbeeld nog hogere contrasten te bekomen (dus bijvoorbeeld schermen die een nog hogere lichtopbrengst hebben).

Voor digitale fotografie lijkt het mij wel belangrijk om je origineel in meer kleuren te hebben, zodat je bijvoorbeeld de brightness kan verhogen, zonder dat er detail verloren gaat in de donkere stukken.
Maar hier gaat het om het weergeven ervan, en dat verwacht ik niet dat je sterk gaat zien.
Dat zie je wel denk ik hoor, zeker met kleurverlopen in 1 kleur. Dan vallen de beperkte kleuren best op :)

Maar ja, echt een probleem was die 8bit/kleur niet natuurlijk
Ik denk dat de marketing-managers er wel voor zorgen dat we het verschil wel gaan zien. :P :+
10 bit is in sommige gevallen best interessant.
Voor de meeste kleurovergangen heb je aan 8 bit per kleur genoeg.
Sommige overgangen zie je echter toch nog (het zgn. "banding"). Vooral in de grafische industrie kan dat zeer hinderlijk zijn.
De logische stap is dus om één of meerdere bits toe te voegen totdat je ook dit niet meer ziet.
De truuk is natuurlijk om zo min mogelijk bits toe te voegen en toch zo veel mogelijk mensen tevreden te krijgen (=niet meer zichtbaar voor het getrainde oog).
Banding zie je niet omdat het scherm niet genoeg weer kan geven, maar omdat de videokaart afrondingsfouten heeft bij het bewerken van pixels.
Vandaar dat een R300 bv 96bits floating point pixels verwerkt.

In de geneeskunde worden 16 bit grijswaarden foto's gemaakt. Maar dat is ook weer als basis voor bewerkingen en niet omdat je dat zelf zou kunnen onderscheiden.
Het is de bedoeling deze techniek toe te passen op lcd schermen en monitors met een grootte van meer dan 20" (50cm).
Zie artikel http://www.infoworld.com/article/03/09/26/HNneclcd_1.html voor meer info.
Licht is een golf (althans gedraagd zich in ieder geval soms zo ) net als gluid. Alle trillingen vertonen interferentiepatronen. Zoals geluid warmer wordt door er trillingen aan toe te voegen die op zichzelf niet hoorbaar zijn, maar die wel interfereren met hoorbare trillingen, zullen nu ook "onzichtbare" nuances wel invloef hebben op de interpretatie van het beeld in onze hersenen.

Meer is beter.
Dat is typisch audiofielen praat.

Geluid wordt warmer omdat je wel degelijk extra trillingen hoort. (En dat zijn dan over het algemeen vervormingen van buizenversterkers die duidelijk meetbaar zijn en binnen het bereik van het menselijk gehoor liggen)

Ik ken ook van die figuren die denken te kunnen laten horen dat je wel degelijk invloed hebt van die trillingen omdat ze een filter op hun versterker van 20 kHz naar 22 kHz zetten en dan verschil horen.
Wat ze dan alleen even vergeten is dat het geen digitale filters zijn, maar dat ze allen het -3dB punt van dat filter aan het verplaatsen zijn, en dat dat filter dus nog wel degelijk meetbare invloed heeft op het gedeelte waar het menselijk gehoor ligt.
Geluid is een trilling dat zich kan versprijden doordat de ene molecuul de andere in trilling zet. Geluid zelf heeft geen massa en kan daarom niet warm worden. Voor je geluid kan horen heeft het een sugregaat massa deeldtje (de molecuul) nodig dat kan trillen. Omdat deze niet vacuum aanwezig is kan men hier geen geluid horen.

Wat licht is op dit moment nog geheel om bekent. Zelf heb ik het idee dat licht iets is als een deeltje, maar dan vele malen kleiner en lichter.

Licht kan in sommige gevallen worden omschreven als een trilling, omdat het door bepaalde materiaalen heen kan scheinen. Aan de andere kant als het een trilling was, dan zou het niet door vacum door kunnen komen. Als licht dus een trilling/golf was, dan zou het niet naar de aarde kunnen komen omdat er hier tussen een grote ruimte vol (of moet ik zeggen leeg) met vacuum zit.

Aan de andere kant kan licht ook als een deeltje worden omschreven. Een deeltje heeft massa kan hierdoor wel door vacuum heen komen. Maar een deeltje zou weer niet door bepaalde materialen heen kunnen komen.

Warmte is de mate van vrijvingsskracht die molecullen ten opziche van elkaar ondervinden. Bij nul kelvin is er dus geen vrijving.
Wat een off-topic verhaal vanwege jouw misinterpretatie van het woord 'warm'. Het bijvoegelijk naamwoord 'warm' wordt hier icm het abstracte woord 'geluid' gebruikt; dit wordt een synesthesie genoemd. Een zintuiglijke ervaring wordt aan een abstract iets gekoppeld.
Bij de uitdrukking 'een warme kleur' ga je toch toch ook niet lopen zeuren dat licht geen temperatuur heeft die te meten is met een thermometer. :Z Je hebt wel de zgn. kleurtemparatuur (ook instelbaar voor je monitor bv.), dus wat dat betreft is het een slecht voorbeeld. ;)

Doe trouwens wat aan je spelling man!

Dat wat licht precies is aan jou nog geheel onbekend is, geloof ik wel. De wetenschap is echter veel verder gevorderd dan wat in de natuurkundeboeken die je op school of in de bieb leest staat. O.a. kwantumveldfysici komen steeds dichter bij unificatietheoriëen die dus beschrijven hoe fotonen, elektronen, atomen en de hele reutemeteut (bosonen en fermionen dus) hun verenigde oorsprong vinden in supersnaarveld (er zijn ook varianten hierop). De heilige graal van de Fysica is het vinden van een theorie van het Verenigd Veld van alle natuurwetten, en die graal komt steeds meer in zicht.
dit alles is offtopic,

Desalniettemin:

Door interferentiepatronen hoor je wel degelijk verschillen als je frequenties buiten het menselijk gehoorbereik toevoegd aan geluid dat zich erbinnen bevind. Met name frequenties die zich 1 of meerdere octaven boven het "hoorbare" geluid bevinden hebben invloed op de klank. Daarom is men bijvoorbeeld ook met SACD begonnen: frequenties buiten ons bereik worden hierop ook weergegeven.

-> <quote> Typisch audiofielen praat </quote> => beetje een troll waard?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True