Door Mark van der Kruit

Videoredacteur

Een camera die geluid visualiseert - Geluidsproblemen opsporen en analyseren

25-04-2015 • 06:00

76

Sorama heeft een oplossing bedacht voor een probleem waarvan veel mensen niet weten dat het een probleem kan zijn: geluid. Je zou denken dat het in kaart brengen van geluidsbronnen eenvoudig is. Vaak is dat ook zo; gewenst geluid uit een luidspreker bijvoorbeeld wordt doorgaans gemakkelijk herkend en je kunt bovendien horen hoe hard het is. Ongewenst geluid kun je meestal ook horen, maar daar beginnen de problemen. Waar komt die piep vandaan en waardoor wordt die veroorzaakt? Of je voelt je wat ongemakkelijk, maar hebt geen idee waardoor. Dat kan door ultrasoon of infrasoon geluid komen, dat je niet bewust hoort, maar dat wel je welzijn beïnvloedt.

Nu is het meten en analyseren van geluid niet zo makkelijk. We kunnen weliswaar de geluidsdruk meten met behulp van een microfoon, maar dat is maar op één plek en geeft verder weinig informatie over het geluid in een ruimte. Sorama heeft twee methodes om informatie over geluid en geluidsbronnen te verzamelen: meten via beamforming en meten met behulp van een techniek die near-field acoustic holography genoemd wordt.

Beamforming wordt niet alleen gebruikt om een beter wifi-signaal te ontvangen, maar kan ook gebruikt worden om de bron van geluid te lokaliseren. Zo wordt beamforming in je router en in duikboten gebruikt. De truc van Sorama is echter dat het een microfoon-array heeft ontwikkeld dat met meer dan duizend microfoons tegelijk geluid kan opvangen.

Sorama-microfoonarray

Die microfoon-array komt echter pas echt tot zijn recht als hij gebruikt wordt met de techniek waarin Sorama zich heeft gespecialiseerd: near-field acoustic holography. Die techniek zoals Sorama die geïmplementeerd heeft, is ontwikkeld aan de TU/e. Het bedrijf werd opgericht om de techniek verder te ontwikkelen en commercieel te exploiteren. Sinds oprichter Rick Scholte in 2009 Sorama oprichtte, heeft het bedrijf zijn nah-techniek verder ontwikkeld.

Hoe werkt een geluidscamera?

De near-field acoustic holography-techniek, kortweg nah, die Sorama ontwikkeld heeft, maakt gebruik van een microfoon-array. Die array bestaat uit modules van 64 microfoons, waarvoor Sorama mems-microfoons gebruikt van hetzelfde type als ook in onder meer smartphones wordt gebruikt. De modules worden aan elkaar gekoppeld tot arrays van 1024 microfoons; voor een wereldrecord heeft het bedrijf zelfs een array van 4096 microfoons gebouwd.

Evolutie van microfoonarrays

De pcb's van de modules klikken in elkaar, waarbij de modules in de onderste rij van elke kolom van vier modules een fpga aan boord hebben. Die zorgen voor het multiplexen van de bitstreams van de microfoons en geven de data aan een data-acquisitiemodule. Ook daar vinden we een fpga die de ruis in de opgevangen bitstream deels wegfiltert en de meetwaarden naar een geheugenmodule schrijft. Van daaruit worden de meetgegevens doorgegeven aan een laptop om naar de onlineportal van Sorama gestuurd te worden voor analyse.

Sorama data-acquisitiemodule

Die data wordt door een clouddienst verwerkt, samen met een webcamfoto van het testobject met en zonder de microfoon-array, zodat de geluidsvisualisatie gekoppeld kan worden aan het testobject. Aan de hand van een spectrumanalyse kan een interessante frequentie vervolgens nader bekeken worden. Daarbij kan de software het geluid dankzij holografische analyse in 3d weergeven, waarbij een resolutie to 50 micrometer gehaald kan worden. Geluid kan zo worden teruggerekend naar de bron en op elk gewenst punt in een 3d-stelsel worden berekend.

Sorama-portal: 3d-beeld geluid

Dat klinkt misschien wat abstract, maar wat het mogelijk maakt, is het bekijken van geluid en zien waar het vandaan komt. Zo kun je bijvoorbeeld het stereobeeld van een tablet bekijken en erachter komen dat een van beide luidsprekers bij bepaalde frequenties totaal niet hoorbaar is. Een praktijkvoorbeeld is een piep die zich voordeed in een touchscreen. De boosdoener bleek een smd-condensator op het flexibele pcb dat het schermpje aanstuurde. Die condensator bleek op 13kHz te trillen en dat had een vervelende piep tot gevolg, die versterkt werd doordat het hele pcb meetrilde. Met een ander type condensator werd dat probleem opgelost.

De volgende stap: meten op afstand

Naast de voorbeelden die we op de vorige pagina aanhaalden en in de video demonstreren, zijn er tal van plaatsen waarop de techniek van Sorama met near-field acoustic holography kan worden ingezet. Zo kan apparatuur voor de gezondsheidszorg stiller gemaakt worden, waardoor patiënten minder gestoord worden. Denk aan beademingsapparatuur of pompjes voor medicijnen. Ook kunnen vervelende bronnen van geluid in gebouwen, bijvoorbeeld airconditioning, gelokaliseerd en aangepakt worden.

De meest aansprekende toepassingsgebieden voor tweakers zullen echter te vinden zijn bij het ontwerpen, testen en verbeteren van hardware. Zo kunnen ventilators voor koelers stiller gemaakt worden als je eenmaal begrijpt waar het geluid precies vandaan komt en hoe het zich voortplant in de ventilator en omliggende onderdelen. Ook voor consumentenelektronica zijn de toepassingen legio, wat kan leiden tot stillere apparaten en beter geluid waar dat gewenst is, zoals bij luidsprekers.

Sorama-portal: analyse van stereogeluid uit tablet

In een toekomstige versie van de geluidscamera zal de techniek verder verfijnd worden. Waar het nu nog nodig is een persoon op locatie de camera te laten bedienen, zou een volgende versie direct op internet kunnen worden aangesloten. De benodigde signaalverwerking wordt in die versie, waarvan het bedrijf al een prototype in huis heeft, op de pcb's in de camera uitgevoerd, waarna de meetgegevens op afstand naar de portal gestuurd kunnen worden. Dat zou de inzet van de techniek zonder specialisten ter plaatse, bijvoorbeeld in fabrieken, eenvoudiger maken. Ook de portal zou nog verder uitgebouwd worden om de analyse eenvoudiger te maken.

Prototype nieuw geïntegreerd fpga-bord

Een van de grote voordelen van de Sorama-techniek met nah is de laagdrempeligheid ervan. Ten eerste is het dankzij de abonnementsstructuur van de portal niet nodig om dure investeringen in hard- en software te doen, en ten tweede kunnen de metingen bijna overal uitgevoerd worden. Een anechoïsche kamer is niet nodig en de metingen kunnen met een hoge resolutie geanalyseerd worden. Kortom: een mooi stukje techniek van vaderlandse bodem.

Reacties (76)

76
75
67
3
0
0
Wijzig sortering
Dit is fantastisch. Alleen die regenboogkleuren, die zijn achterhaald!
Zie hier waarom:
http://medvis.org/2012/08...d-for-absolutely-nothing/
https://eagereyes.org/basics/rainbow-color-map

Een betere kleurenoptie voor geluidsgolven zou zijn van licht naar donker naar licht, want zowel positief als negatief heeft een geluidgolf dezelfde uitwijking vanaf het gemiddelde, dat gelijk aan nul is. Dus bijvoorbeeld van felblauw naar gedesatureerd donkergrijs (evt. transparant, dat zou leuk zijn voor je 3D plaatjes? Of juist niet leuk omdat je er deels doorheen kunt kijken?) naar felrood.

[Reactie gewijzigd door erikieperikie op 22 juli 2024 22:46]

De kleurenmap die we hier gebruiken heet JET (zie comment van Struikrover).

Nu is het inderdaad zo dat dit niet voor alle gevallen optimaal is (als je het bijv. in zwart-wit uitprint). Voor geluidsfilmpjes is dit echter heel erg inzichtelijk omdat je heel goed de bewegende golven kan zien. We zijn ook achter de schermen bezig om te kijken wat nu precies voor deze toepassingen het meest geschikt is.
Voor geluidsfilmpjes is dit echter heel erg inzichtelijk omdat je heel goed de bewegende golven kan zien.
Nonargument. Het feit dat je verschillende kleuren gebruikt impliceert niet dat een ander kleurenstelsel de golven niet beter kan laten zien :). Waar het om gaat is dat het verloop van blauw naar groen naar geel naar rood voor jou en mij als techneuten wellicht logisch is, voor de gemiddelde mens is het nog knap lastig om die kleuren in de goede volgorde te zetten. Plus het feit dat je een duidelijk gevoel van banding krijgt, omdat niet alle hues als even fel ervaren worden.
[...]
Het feit dat je verschillende kleuren gebruikt impliceert niet dat een ander kleurenstelsel de golven niet beter kan laten zien :).
Klopt inderdaad. Zoals ik al zei, er zijn voor verschillende doeleinden wellicht betere opties. Iets waar je bijvoorbeeld ook rekening mee moet houden is mensen met kleurenblindheid, die hebben weer andere eisen aan een bepaalde colormap. Zoals ik al noemde hebben we hier ook al onderzoek naar gedaan maar het blijft lastig om een enkele colormap te kiezen die voor ieder doeleinde goed is. In onze software kunnen onze klanten dan ook op bepaalde plaatsen aangeven welke colormap ze prefereren. De jet colormap is echter onze default instelling omdat deze in onze ervaring en die van onze klanten voor bewegende beelde het duidelijkste resultaat geeft omdat je goed het verschil tussen hoge (donker rood) en lage (donker blauw) druk kan zijn terwijl het animeert.
Hoeveel niet-technici zullen naar dit soort plaatjes gaan kijken dan? Wat wel zo is, is dat je door de maximum- en minimumwaarde van je legenda te veranderen de kleuren bepaalt. Van nature wil niet-technisch personeel geen rode vlekken zien, omdat dat als slecht wordt beoordeeld. Als je dan het max van je legenda (wat rood wordt) zo hoog kiest dat er niet of nauwelijks rode kleurtjes zijn, lijkt het allemaal prima, terwijl de kleurtoewijzing compleet arbitrair gekozen kan worden ;)
Vette technologie! _/-\o_

Kun je mischien wat meer specs geven van de array? Frequentiebereik, dynamisch bereik, lineariteit, dat soort dingen.

En hebben jullie al gedacht aan een toepassing van soundfield microfoon voor (musicale) audio-opnames?
Er zijn onnoemelijk veel toepassingen voor onze camera, onder meer voor musicale audio-opnames, echter er is maar zoveel tijd om alles te doen en daar moet je als klein bedrijf wel keuzes maken waarop je je focussed. We doen ook zeker wel projecten, we hebben 2 jaar geleden op het Eindhovense lichtfestival Glow een opstelling gehad die de golven van geluid en muziek met beamers op de vloer van een grote ruimte projecteerde (zie: https://www.youtube.com/watch?v=zIE6UN40VEo).

Wat de specs van de camera betreffen, het werd al deels in het filmpje gezegd. Op 1.5 MHz worden (sigma-delta signalen van) de microfoons gesampled en dit wordt in ons acquisitie systeem gedecimeerd naar 32 bits per sample (dus 1500000/32 = 46875 Hz). Wat het dynamisch bereik en lineariteit betreft verwijs ik je door naar Akustica (http://www.akustica.com/), de producent van de MEMS microfoontjes waarvan er waarschijnlijk ook 1 van in jou smartphone zit
46875 als samplerate... Dan is de maximale op te nemen frequentie toch 23437Hz ?

Het meten van ultrasoon geluid (waar mensen soms ook last van kunnen hebben) valt dat dan buiten de mogelijkheden?

23,4kHz valt buiten het hoorbare gebied, maar sommige mensen claimen dat dit wel invloed heeft, of kun je dan a.d.h.v. harmonischen nog een goede meting verrichten?

Ik hoop dat hier ooit een betaalbare portabel variant van verschijnt. Ik heb ook wel eens momenten dat ik iets hoor, en geen idee heb waar het vandaan komt. Bij ons op kantoor bijvoorbeeld ook. Daar is een ruimte, waar je een hoog piepje hoort, op verschillende plekken, maar totaal niet te lokaliseren is. Daar zou zoiets een uitkomst kunnen zijn denk ik.

[Reactie gewijzigd door Fairy op 22 juli 2024 22:46]

46875 als samplerate... Dan is de maximale op te nemen frequentie toch 23437Hz ?

Het meten van ultrasoon geluid (waar mensen soms ook last van kunnen hebben) valt dat dan buiten de mogelijkheden?
De samplerate van de microfoons die we nu gebruiken kan nog verdubbelt worden, echter zijn ze daar (qua frequentie gevoeligheid) niet op ontworpen. Dezelfde techniek kan ook toegepast worden op het ultrasone gebied, al zal daarvoor een array moeten worden gebruikt met transducers die voor dat frequentieberijk beter geschik zijn.

Wat betreft de "betaalbare portable" variant, ik mag op dit moment er nog niet veel over zeggen behalve: stay tuned ;)

[Reactie gewijzigd door MJLHThomassen op 22 juli 2024 22:46]

Dank voor de info!
Ik hoop dat dit soort dingen snel neerdalen op de verschillende toepassingsgebieden. :)
Dit is dan ook geen regenboog colormap. Nergens zie je de kleuren roze of bruin bijvoorbeeld.
Men geeft hier gewoon de intensiteit aan van het geluid, en dat gaat van donkerblauw of zwart, naar donkerrood, met groen en geel in het midden. IMO een hele legitieme overgang, en wordt ook veel gebruikt in Matlab:

http://bit.ly/1yZyrvf

Nu zijn er veel die zeggen dat die colormap ook niet goed is, maar voor geluidsvisualisatie lijkt hij me juist wel goed te werken.
Nergens zie je de kleuren roze of bruin bijvoorbeeld.
Roze en bruin zitten dan ook helemaal niet in de regenboog 8)7. Wat jij laat zien zijn *letterlijk* de kleuren van de regenboog. Alle golflengtes van zichtbaar licht, van net na infrarood tot vlak voor ultraviolet. Een kleur als roze heeft niet een specifieke golflengte - daarin zijn alle primaire lichtkleuren vertegenwoordigd, alleen rood meer dan de rest.

[Reactie gewijzigd door .oisyn op 22 juli 2024 22:46]

In veel van die plaatjes ontbreekt violet. Dit zie je in heel veel "rainbow" maps terug.
Duh, maar de rainbow colormap is heel anders. Check die links maar van erikieperikie. Kan er ook niks aan doen dat het zo heet.
Sorry hoor, maar jouw (gare bitly) link: https://www.google.nl/sea...SNgMgE&ved=0CDMQsAQ&dpr=1
En nu zoeken naar "rainbow colormap": https://www.google.nl/sea...Q_AUoAQ&biw=1920&bih=1085.

Er is idd nog iets anders dat we "rainbow" noemen, en dat is gewoon een mengelmoesje van verschilkende kleuren, zoals getoond in de tweede link van erikieperikie. Als je echter denkt dat dát het verschil maakt, dan heb je het artikel in de eerste link van erikieperikie totaal niet begrepen :)
Ik weet dat het jet is, wat een onnatuurlijke vorm van een regenboog is, dus jet is nog meer aan interpretatie van de kijker onderhevig dan een echte regenboog, die mensen wel redelijk kennen. Hoe dan ook, het blijft een regenboog-achtige kleurenset, want het bevat veel verschillende kleuren die een waarde zouden moeten voorstellen.

Het probleem is dat een kleur eigenlijk nooit goed voorstelt wat je als maker bedoelt. Iemand kan groen best als intenser ervaren dan geel, terwijl de kleuren even fel worden weergegeven in de jet kleurenset, net als alle andere kleuren (behalve de uiteinden die donkerder zijn). Het kan toevallig het beeldscherm van de kijker zijn die gelijkwaardige kleuren toch net even anders weergeeft, waardoor het verkeerd om geïnterpreteerd kan worden.

Die donkere uiteinden van jet zijn nog een minpunt: de grootste uitwijkingen in het signaal zijn donkerder dan de rest die juist een kleinere amplitude hebben. Dit is onnatuurlijk en is daarom juist niet geschikt voor visualisatie van geluid zoals Sorama doet.

Dan heb je nog, tevens maar niet alleen afhankelijk van je beelscherm, het probleem van banden in een jet of regenboog. De overgang tussen twee kleuren kan vloeiend bedoeld zijn, maar je beeldscherm geeft sommige stappen in de gradiënt weer als een scherpe rand. Dat leidt tot interpretatiefouten. Je minimaliseert dit probleem door zo weinig mogelijk kleuren te gebruiken.

Nog meer fouten krijg je omdat bepaalde kleuren nou eenmaal opvallen, ondanks welke intensiteit ze weergeven. Zo springen bij jet cyaan en geel eruit. Als je een blob in beeld hebt die intens positief is, dus van groen naar geel naar (donker)rood gaat, dan valt de gele rand het meest op in de zee van groen (als de omgeving vnl. neutraal is) en de donkerrode vlek valt minder op dan die gele rand. De rand trekt meer de aandacht, terwijl de donkere vlek belangrijk is en de overgang ernaartoe geleidelijk is, maar dat niet lijkt.

Zie hier voor nog meer redenen voor een andere kleurenset dan jet of welke afgeleide van een regenboog ook maar:
http://blogs.mathworks.co...tlab-part-1-introduction/
http://blogs.mathworks.co...2-troubles-with-rainbows/
http://blogs.mathworks.co...ab-part-3-some-reactions/
http://blogs.mathworks.co...r-matlab-part-4-the-name/
Er staan ook voorbeelden van toepassingen tussen waarbij een andere kleurenset beter kan werken dan regenbogen. Zoals je ziet is zelfs MATLAB van jet afgestapt. Je argument dat het veel gebruikt wordt in MATLAB is alleen geldig om historische redenen. Over wat jaren zal het hopelijk veranderen, als mensen wennen aan betere kleurensets.

Ik zou een neutrale, bijv donker of misschien wit (gedesatureerd) als nul kiezen en twee van elkaar onderscheidbare kleuren als plus of min kiezen. Bij geluid maakt het niet zozeer uit of je een positieve of negatieve uitwijking hebt en dat je die ook met positief of negatief aankleurt, als je ze maar van elkaar kunt onderscheiden. Als je dat wel wilt, dan zijn blauw en rood voor laag en hoog geschikt. Heb je met rood-wit-blauw meteen de NL'se vlag te pakken. ;) Anders pak je simpele grijswaarden van zwart = laag tot wit = hoog.

[Reactie gewijzigd door erikieperikie op 22 juli 2024 22:46]

Eerste wat ik me afvraag na het zien van deze video is: Hoeveel patenten zou je hier voor kunnen fabriceren.
De techniek en het toepassen van deze techniek is veelbelovend.
Een leek zou kunnen inzien wat het praktisch nut/profijt hier van is.

Met een lading patenten zou je hier nog een flinke slag uit kunnen slaan.
(Mocht het er qua investeringen niet van komen)

[Reactie gewijzigd door Xesior op 22 juli 2024 22:46]

Eerste wat ik me afvraag na het zien van deze video is: Hoeveel patenten zou je hier voor kunnen fabriceren.
Een baan bij Apple of Samsung is gegarandeerd voor je. :+

Triest om om te lezen dat steeds meer mensen alleen nog maar in die verdraaide patenten denken.
Nou nee hoor. Het is niet triest maar realistisch. Je kunt het idealistisch negeren, maar er moet toch brood op de plank komen.
Gelukkig hebben we nog idealisten die dit idiote systeem proberen te veranderen.
Ook zonder een lading patenten kun je hier wel geld mee verdienen.

Sterker nog: je zult eerst geld moeten verdienen om een lading patenten te kunnen aanvragen. Internationale patenten zijn extreem duur. Dus reken voor die "lading patenten" gerust een paar ton aan kosten.


De enige die echt profiteren van het patentsysteem zijn dan ook juristen....

[Reactie gewijzigd door GeoBeo op 22 juli 2024 22:46]

Anoniem: 382732 @GeoBeo26 april 2015 08:58
Als je echt goede patenten hebt horen die kosten bij de investeringen voor je bedrijf, dus een investeerder of lening regelen. Eerst gaan verkopen en dan met de opbrengst proberen de boel te patenteren gaat niet werken, want dan hebben anderen het al nagemaakt.
Gave techniek die de toekomst een beetje stiller kan/gaat maken! Wel leuk om belde te zien van simulatie, in de productgroep waar ik werkzaam ben (maar leg de link niet helemaal met het onderwerp van t filmpje)
Ik vind het vooral wel gaaf dat deze techniek ontwikkeld is in Nederland (TU/e). Tegenwoordig kun je veel met de computer simuleren, maar het is altijd fijn om een techniek te hebben om je simulaties te valideren.

[Reactie gewijzigd door Grrrrrene op 22 juli 2024 22:46]

Ook een mooie toepassing is om je HiFi set goed af te kunnen stellen. Lijkt me mooi om visueel te kunnen zien hoe bepaalde frequentie geluidsgolven reageren op muren en hoeken. Zou erg leerzaam zijn denk ik :)
Telefoonmicrofoontjes... niet bepaald bekend om hun vlakke respons en identieke weergave.
Je kan dat uiteraard globaal corrigeren, maar als je 1024 goedkope microfoontjes (of meer) in een array steekt heb je hele grote kans dat je links echt iets anders meet dan rechts...

Daarom zijn geijkte meetmicrofoons zo duur, die zijn altijd gelijk qua repons ;)
Anoniem: 382732 @renevanh26 april 2015 09:03
Telefoonmicrofoontjes... niet bepaald bekend om hun vlakke respons en identieke weergave.
Je zult nog verbaasd zijn over de kwaliteit van de huidige telefoonmicrofoons (dan bedoel ik wel de betere die momenteel gebruikt worden). Die zitten echt niet zo ver af van echt goede microfoons. In ieder geval goed genoeg voor heel veel soorten metingen. Ik ken diverse akoestici die tegenwoordig een eerste scan doen met hun iPhone. Pas als de gekke dingen zien gaan ze meetmicrofoons gebruiken.
Daarom zijn geijkte meetmicrofoons zo duur, die zijn altijd gelijk qua repons ;)
Zo'n array kun je ook gewoon ijken en dan heeftie ook een vlak respons.
En het idee van een array is ook dat door de hoeveelheid microfoons de individuele foutjes weggemiddeld raken.
Ah, soortgelijk aan Microflown in Arnhem dus? Zullen wel conculegas zijn dan ;-)
Daar moest ik ook aan denken. In 2006 deed Microflown al zoiets voor het interieur van auto's. Echt nieuw is dit dus niet.
Ja idd he. Als je op hun website kijkt zie je ook arrays, zij het met een iets lagere 'microfoondichtheid' één van de verschillen die ik zie.
En LMS doet het al tientallen jaren in België. De simulatiesoftware die ze in het filmpje op 9 min en later laten zien is die van LMS.
Ze zijn in 2013 overgekocht door Siemens.
Dit bestond toch al? Ik heb het een aantal jaren geleden ook al ergens gezien
Er is dan ook niemand die zegt dat het nieuw is :) Het is meer een achtergrond/demonstratie over de werking/techniek.

[Reactie gewijzigd door TradeMarkNL op 22 juli 2024 22:46]

Er is dan ook niemand die zegt dat het nieuw is
"Sorama heeft een oplossing bedacht voor een probleem waarvan veel mensen niet weten dat een probleem kan zijn: geluid."

Dat lees ik toch echt alsof het iets nieuws is!

@dotternetta
Ik heb jaren geleden een soortgelijk systeem gezien in een Duitse documentaire over BMW. Daar werd het systeem gebruik om auto's stiller te maken.

[Reactie gewijzigd door Carbon op 22 juli 2024 22:46]

Sorama bestaat sinds 2009 ;) daarvoor was het nog een promotietraject.
Was ver daarvoor.

Het grote verschil met dit systeem was dat de microfoons in de wanden zaten van een speciaal daarvoor ontworpen testruimte.
Dit is natuurlijk passive phased araay sonar met een hele hoge resolutie en heel mooi grafisch weergegeven in plaats en tijd (4D). De principes zijn natuurlijk niet nieuw, maar de uitwerking is geniaal. Ik hoop dat het dit bedrijfje lukt om met deze techniek de wereld te veroveren en producenten kan helpen producten stiller te maken. Ik ben namelijk een grote fan van stil.
Waarschijnlijk hebben ze daarvoor een investering nodig en die verdienen ze 100% als ik zie wat voor investeringen er gedaan worden in sommige waardeloze niets zeggende appjes dan moet een bedrijf als dit dat echt iets ontwikkeld heeft wel de interesse hebben van investeerders.
Dit is natuurlijk passive phased araay sonar...
Nee. Sonar wordt over het algemeen gebruikt onder water en in alle gevallen voor plaatsbepaling/navigatie.

In dit geval staat het apparaat in lucht en is de plaats juist de bekende parameter die niet gemeten wordt door het systeem.

Dus nee, met sonar heeft het niet zoveel te maken.
Ik begrijp dat de sonar meestal onder water wordt gebruikt hoewel de naam (SOund Navigation And Ranging) dat niet specifiek beschrijft. Meestal wordt sonar voor onderwater gebruikt en Radar voor bovenwater. Dit is heel begrijpelijk, maar dat is niet het onderscheidt tussen beide systemen, omdat de naam aangeeft dat het gewoon een ander bereik in het frequentie spectrumis . Een vleermuis gebruikt eigenlijk sonar en geen radar.
Onderwater hadden we het liefst ook radar gebruikt, maar door de beroerde EM propagatie onderwater is dat niet mogelijk. Radar heeft namelijk door zijn hogere frequentie een beter afstand en peiling onderscheidend vermogen. Hierdoor kunnen objecten met een hogere resolutie in kaart worden gebracht.

Waarom ik hier de vergelijking maak met imaging sonar is dat het hier om geluid gaat en niet EM straling. Tevens vermoedt ik dat ze de richting en intensiteit bepalen door de fase verschuiving van de ontvangen signalen te vergelijken..

[Reactie gewijzigd door jobvr op 22 juli 2024 22:46]

Krijgen we hiermee straks actieve geluidscorrectie met een soort canvas ogend doek achter je hifi?
Waarbij een cam.je actief kan volgen, enkel nog maar sweetspots?
Zo nog even wachten met het vervangen mijn negentiger jaren PHILIPS FB850 zuil-speakers waarvan een aantal organen al eens zijn vervangen :)
Correctie bestaat al, bekijk maar eens wat Datasat en Trinnov doen met hun receivers. Kleine kantekening is wel dat ze dit aanpassen naar 1 sweetspot en niet naar diverse maar dit is mits de integratie van deze techniek 'relatief eenvoudig' te integreren..

Goede vooruitgang dat ik met argus ogen ga opvolgen!
Denk dat Canule juist bedoeld dat het systeem ziet waar je bent, en voor die specifieke plek de equalizer en balans automatisch afgeregeld wordt.

Lijkt me overigens niet handig als je in een niet-vrijstaande woning woont. Sommige bad-spots zul je de bas gigantisch moeten opkrikken voor je iets hoort. Staan de buren op je voordeur te rammen :)

[Reactie gewijzigd door Engineer op 22 juli 2024 22:46]

Vette techniek, en wat mij betreft mogen elektronica fabrikanten dit gelijk toepassen als onderdeel van een akoestische kwaliteitscontrole. Bepaalde hoge frequenties worden langzaam gesloopt in m'n oren, uit m'n laptop en PC komt een hele hoge irritante piep, die ik als alles uit staat nog hoor. Moet er echt een paar dagen bij uit de buurt blijven voor dat dat langzaam zachter word.
Klinkt eerder als beginnende tinnitus.
Dit hoor je (pardon the pun) inderdaad vaak gezegd worden, echter veel onderzoek wijst uit dat mensen echt wel last hebben van apparaten, installaties, verkeer etc. in hun omgeving (zie onder andere: http://www.eea.europa.eu/publications/noise-in-europe-2014).

Met onze techniek proberen we in ieder geval producten stiller te krijgen, zonder vervelende piep of bromtonen. Een rustigere leef-werkomgeving zorgt er ook nog eens voor dat je lichaam minder stresshormonen produceert. Dit zorgt er vervolgens weer voor dat je gezonder bent.
Wat een mooie techniek.
Ik zie mogelijkheden voor grote klanten die deze techniek kunnen toepassen op hun ontwerpen.

Ik voorzie een grote toekomst voor dit bedrijf.
Anoniem: 636203 @Bart_Smith25 april 2015 09:47
Dat is duidelijk natuurlijk. Ik ben alleen bang dat het bedrijf weer opgekocht wordt voor veel geld en de technologie naar het buitenland verdwijnt zoals vaak gebeurt.
Wat zou jij doen als er iemand met een hoop geld aan komt?

Op dit item kan niet meer gereageerd worden.