[...]
Met andere woorden: de nauwkeurigheid is zo groot dat het zinloos is om ermee te werken. Hoe weten de wetenschappers uit bovenstaand artikel niet dat ze de grens van het zinloze hebben overschreden?
Je vraag kun je opdelen in 3 delen:
- De ruis in je meetdata.
- De "weerstand" van je te meten grootheid.
- Systematische ruis
Bij elke meting heb je te maken met een signaal/ruis verhouding (
SNR).
Dit wordt vaak in dB aangeduid en het prettige daarvan is dat dit ook een logaritmische schaal is, dus eigenlijk een constante relatie heeft met het
aantal bruikbare bits.
Dus stel je neemt samples van een signaal en de SNR is 30 dB, dan is dat 10 of 5 bits effectief, afhankelijk van of je een vermogen meet, of een gewoon signaal. (delen door 3 or 6)
Als je dan een signaal van een A/D converter gebruikt met een SNR van 30 dB, dan heeft het weinig zin om meer dan 5 (of 10) bits aan data te gaan verwerken.
De SNR kan door elke component in je meetopstelling beïnvloed worden. (kabel, A/D conversie, versterker, etc.)
Uiteraard moet je een dergelijke SNR nog wel vaststellen en dat kun je doen door een signaal aan te bieden waarvan je het verloop kent. Als je dan uit de samples de trend haalt en dan kijkt naar het overgebleven signaal, dan kun je uit die statistiek afleiden hoeveel bits relevant zijn voor je meting en hoeveel dus ruis zijn.
Dit is het aandeel van de ruis in je meting zelf.
Dan heb je nog de "weerstand" in je te meten object.
Daarmee bedoel ik dus niet de Ohmse weerstand, maar hoe snel bijvoorbeeld de omgeving opwarmt. Dus wat je al aangeeft met het verschil van temperatuur binnen een enkele cel.
Dat is per materiaal verschillend en afhankelijk van nogal veel factoren.
Bijvoorbeeld stroomt er iets langs, of niet? Is de verschiltemperatuur groot of niet? Zijn er meerdere warmtebronnen? Kan de energie die in warmte omgezet wordt ook elders wegvloeien? Beïnvloed je meting zelf de omgeving? (bijvoorbeeld opwarmen van de sensor puur door het meten zelf)
Je moet bij metingen met hoge nauwkeurigheid dan ook ervoor zorgen dat er zoveel mogelijk factoren uitgesloten worden.
Bijvoorbeeld meten in het donker (of met constante hoeveelheid licht), constante omgevingstemperatuur, geen luchtstroom, etc. (bijvoorbeeld een 100W gloeilamp in een kalibratie-ruimte die uit gaat als er een persoon binnen komt, geeft vrijwel dezelfde hoeveelheid warmte en houd de warmte dus constant)
De nauwkeurigheid van de meting kan nogal beïnvloed worden door dergelijke externe invloeden die over het hoofd gezien worden.
Dan heb je nogal een aparte vorm van ruis, namelijk de systematische ruis.
Bijvoorbeeld bij een beeldsensor van een camera. Nadat een beeld genomen is, worden de pixels gereset. Echter elke pixel gaat niet precies terug naar hetzelfde niveau. Zowel naar hetzelfde 0-niveau, als ook de spanning bij gelijke hoeveelheid licht.
Dat is een ruis die afhankelijk is van het gebruikte meetmiddel.
Systematische ruis heb je in diverse vormen.
Een variant daarop is dynamische ruis. Bijvoorbeeld de afwijking in de meting kan verschillen als de te meten waarde toeneemt of afneemt.
Dan nu de vraag wanneer je naar de ruis zit te kijken en wanneer je er nog wel iets zinnigs over kunt zeggen.
Dat is eigenlijk de grootste vraag bij alle wetenschap en een stuk lastiger te beoordelen dan je zou denken.
Soms is de ruis bijvoorbeeld te voorspellen en dan kun je die eruit filteren en dus toch nog zinnige informatie uit je "ruis" halen. Denk aan ruis-filtering in de meer geavanceerdere audio-bewerkingssoftware. Daar kun je een "noise print" maken en die over andere stukken halen en zo de ruis redelijk effectief.
Je kunt er ook gebruik van maken om het ruis-niveau te dempen. Denk aan Vectoring-VDSL wat nu uitgerold wordt als upgrade voor de ADSL/VDSL internet lijnen. Daarbij stuurt de centrale mee wat de te verwachten ruis is op de lijn, oftewel een soort van noise-print en dan haalt je modem dat er ook uit en kan zo dus meer over de lijn sturen.
Maar zoals ik al eerder aangaf, is het heel erg van belang om eigenlijk alle mogelijke vormen van ruis uit je systeem te kennen, om er iets zinnigs over te kunnen zeggen.
Maar goed, aangezien een deel van de conclusies uit dat artikel is dat de nauwkeurigheid groter is bij een kleiner meetbereik, kun je al vrij snel zien dat het grootste deel van de onnauwkeurigheid zit in de meting zelf, oftewel dat je maar een beperkt aantal bits aan resolutie hebt.
Daarnaast kun je natuurlijk wel het bereik blijven verkleinen, maar dan zit je op een gegeven moment te kijken naar de ruis van de 0-waarde, of de ruis in de meetversterking voor het samplen.
Kortom, het is lastige materie en menig meting wordt veel te veel betrouwbaarheid aan toegekend