ElevenLabs komt met app voor genereren van AI-stemmen

Het AI-audiobedrijf ElevenLabs heeft een tweede app uitgebracht. Daarmee kunnen gebruikers kunstmatige stemmen genereren. Voorheen was dat alleen mogelijk via de webversie.

ElevenLabs-appIn de ElevenLabs-app kunnen gebruikers teksten invoeren en vervolgens een AI-stem kiezen die deze teksten uitspreekt. Gebruikers kunnen de stemfragmenten downloaden of delen op sociale media.

Het is daarnaast mogelijk om de AI-stemmodellen van ElevenLabs te finetunen en om zelfgemaakte AI-stemmen te kiezen. Het creëren van die stemmen is echter enkel mogelijk via de webversie. Hoewel de app volgens ElevenLabs per direct beschikbaar is voor Android en iOS, is de Android-versie op het moment van schrijven nog niet te installeren.

Het AI-audiobedrijf kwam vorig jaar al met een app voor het laten voorlezen van teksten. Ook heeft ElevenLabs een dienst uitgebracht om stemmen in films te vertalen naar andere talen en om geluidseffecten te laten genereren. Deze functies zijn geen onderdeel van de nieuwe app.

Door Kevin Krikhaar

Redacteur

24-06-2025 • 20:55

72

Reacties (72)

Sorteer op:

Weergave:

Als ik ergens passief-agressief van wordt zijn het wel AI stemmen in videos.
Zo goed als Elevenlabs zijn ze zeker niet allemaal. Ik zet het inmiddels structureel in bij red teaming opdrachten. Zeer interessant hoe goed het werkt.
Wat zijn red teaming opdrachten en hoe zet je daar AI stemmen bij in?
Social engineering aanval waarbij je dus een stem van iemand kan nabootsen. Dus daadwerkelijk de stem van de manager te gebruiken om te vragen iets te regelen voor je, waardoor je toegang krijgt tot het systeem. De stem van de manager kun je dus generen als je hem/haar eerder aan de lijn hebt gehad en daarvan 30 seconden tot 60 seconden audio sample hebt opgeslagen.

Dat is mijn vermoeden.

[Reactie gewijzigd door Patrick_Wolf op 25 juni 2025 10:20]

Dat kan ja, of de standaard "Hey pap/mam, ik heb een nieuw telefoonnummer. En oh ja ik heb ook €500 euro nodig omdat mijn auto stuk is en ik sta nu op <vakantieadres>".
Ja, zo kan het ook gebruikt worden. Alleen hier ging het specifiek om hoe die bij een red teaming opdracht zou werken. Dus daar had ik een voorbeeld van uitgelegd.
Voor de meeste mensen is jouw voorbeeld het meest reëel probleem waarmee ze te maken kunnen krijgen. Voor organisaties is het alleen super eng/gevaarlijk als de CFO of CEO je persoonlijk vraagt om een transactie te doen van enkele miljoenen. Dat jij dit gewoon uitvoert omdat jij denkt dat je echt die persoon aan de lijn hebt.
Ach, ik heb een DNS-hoster al eens wijzigingen laten doorvoeren omdat ze m'n stem herkenden uit een eerder telefonisch contact.

In- en inslecht. Maar toch. Het gebeurt wel.

Heb ook een voorbeeld van een klant gehad die giftcards gekocht heeft voor 'hun afdelingschef' omdat die in een vergadering 'met mogelijke relaties' zou zitten. De persoon in kwestie heeft de tegenwoordigheid van geest om de agenda van haar baas even te checken of die vergadering echt bestond. En ja hij had toevallig volgens Outlook ook écht een vergadering gepland op dat tijdstip. "Dus zal het wel kloppen". Geld weg...

[Reactie gewijzigd door DigitalExorcist op 25 juni 2025 13:33]

Dat klopt (@marvel27 ). Ik vraag de CEO of een andere hoge pief om wat zinnen in te spreken en mijn team maakt er vervolgens wat opnames van. In sommige gevallen verkrijgen we de stemmen dankzij publieken bronnen, zoals YouTube.
Indien correct toegepast, kan de software van Elevenlabs hele mooi dingen.
Ik heb als test eens een studio opname gemaakt van mijn eigen stem met goede apparatuur (EV RE20 etc.).
Vervolgens kan je deze opname gebruiken om een eigen stem te trainen in de software.
Dan kan je daarna met goedkoop opgenomen speech input van je headsetje thuis bijna vlekkeloze spraakopnames maken van dezelfde kwaliteit. Terwijl je dan thuis zit te werken, zelfs met crappy opnames en apparatuur. De software neemt dan zaken als intonatie vlekkeloos over.
Tekortkomingen zitten vooral in zeer volatiele emoties (stel je lacht opeens heel hard of begint ineens hard te tieren en te vloeken.... dat klinkt niet altijd even goed...daar zou je mogelijk weer een apart model voor moeten trainen).
Een van de kanalen die ik volg denkt ook dat het beter is het Engels naar Nederlands te vertalen. Krijg je diepgaande wiskunde niet in Engels maar in Telsell stemmen en titels voor video's die ik het liefste wil blokkeren.

Brr...
Hoe kan ik dat uit zetten?
Dit is een setting die YT soms “toevallig” automatisch aan gaat. Op IOS met addblockers krijg je niet de optie om het uit te zetten helaas. Heb niet getest met de addblockers uit. Mijn oplossing is het filmpje gewoon paar keer opnieuw openen, na 2-3x is het meestal uit is mijn ervaring.
De grap is natuurlijk dat die instellingen in de YT app makkelijk te vinden zijn ;)
De grap is natuurlijk dat die instellingen in de YT app makkelijk te vinden zijn ;)
Ik zit op een Android telefoon en zie in de app geen mogelijkheid in instellingen op deze voorkeur: titels niet vertalen etc. in te stellen.

Dus wat voor jou makkelijk is, ...
Als je kunt delen waar ik het vinden kan: please let us know.
In sommige videos kan je de audiotrack selecteren. Zo volg ik een koffiedude die een aparte audiotrack zonder slurpgeluiden aanbiedt voor mensen die daar niet tegen kunnen
Je mag James Hoffmann gewoon bij naam noemen hoor ;)
Mensen die hem kennen weten wie ik bedoel, zonder context erbij klinkt het heel raar als ik zeg dat ik kijk naar slurpende mensen ;)
De titel vertalingen kun je niet uitzetten, idioot genoeg. Je cliënt kan wel de audiostream PER VIDEO anders opvragen, meestal, gewoon in settings. De enige app die ik ken die hier goed mee omgaat is smarttubenext. Die heeft een global setting voor ‘original audio’.

Iedere automatische vertaling van YouTube is hatelijk, en haalt het karakter van de video weg. Dat geldt voor titels, maar nog veel meer voor de inhoud.
Zeker, er zijn een hoop hele slechte op youtube enzo.. Maar die van Elevenlabs laatst online geprobeerd en ze zijn extreem indrukwekkend en realistisch.. Als je dit koppelt met een LLM kan je overtuigende gesprekken hebben vermoed ik zo
Waar jij aggressief van wordt zijn slechte* AI stemmen in videos.
Soms zie ik mijn neefjes paar uur op tiktok/youtube etc en vaak hoor je dan zo'n AI stem, zit dat te kijken en vraag me serieus af wat die kinderen dan aan het kijken zijn of het dan ook nog echt is...

Waar gaat dat soms heen vraag ik me af..
Volgende stap is de lipsync van de vertaalde stemmen in de films.
Stap er na zijn de taal/cultuur gebonden gebaren aan te passen in de vertaalde ge-lipsync-te film.
En daarna spreken de acteurs niet alleen nog in hun eigen stem, maar spreken ze jouw taal met het accent van hun moedertaal.
Daarna met een accent uit een gekozen moedertaal.
En daarna volgen niet alleen gebaren, maar vervang je de acteur door jou, met jouw stem en jouw manier van bewegen.

De techniek is er, het is een kwestie van doen.
Voor de verjaardag van je vriendin krijgt ze een versie van een romantische film met haarzelf en jou er in als hoofd acteurs.

[Reactie gewijzigd door djwice op 25 juni 2025 07:56]

Prachtig al die toepassingen, maar de grootste verdienste is dat wij wereldburgers*, nu elkaar kunnen verstaan.

De ‘universal translator’ uit Startrek is nagenoeg een feit.


*normale mensen die elkaar niet naar het leven staan
Ja, cool he. Google liet pas een demo zien van de realtime vertaler. Daar werken ze al heel lang aan, al begin deze eeuw heb ik aan een demo mee mogen doen voor zo'n interface tussen Engels en Duits. Je moest toen nog heel rustig praten en het was nog niet mijn stem maar de computer typte het en een voorlees machine las het voor terwijl de tekst verscheen.

Dat was toen bedoeld voor internationale bedrijven, we waren toen bezig met de splitsing van Nuon en Alliander.

We gebruiken nu al op vacantie Google Translate om iets te vertalen en voor te lezen, heel gaaf dat het nu eindelijk verder is en we straks dat in onze eigen stem kunnen laten horen. Anti geluid richting nr echte spraak en een speaker met de realtime vertaling en andersom voor wat de ander zegt. En we hebben de bavelfish - wat een inspiratie zo'n boek niet kan geven... is de balelvis volgend jaar niet precies 42 jaar oud?
Dat zou Douglas Adams geweldig hebben gevonden. Ik weet zeker dat hij er in 2021 iets over gezegd zou hebben…
(HHG in in 1979 als boek verschenen)
Ik wist even niet in welk deel de babelfish geïntroduceerd was, ik hoopte in het deel uit 1984 , zo symbolisch mooi zijn geweest.
Nee, ik bedoelde echt de UT uit Startrek

Babelfish komt Hitchhikers guide to the galaxy, waarbij de huidige technologie richting UT gaat.

Gezien de vorderingen bij het taal onderzoek bij dieren kunnen we ons nog wel eens de tandjes schrikken als we ooit kunnen communiceren met bv walvissen en orka’s
Sterker nog, de techniek voor stemmen wordt al toegepast door Amazon. Deze heeft diverse series die “gesproken” zijn in diverse talen, waaronder Nederlands.
Deze stemmen zijn voor sommige series door AI gegenereerd. (Ik kan mij ook niet voorstellen dat we in Nederland COMMERCIEEL GEZIEN een doelgroep zouden hebben voor Nederlands gesproken series van “Fallout” of “Lord of the rings”.
Mijn dochter van 10 die een beperking heeft, zou er uiteindelijk voordeel van hebben omdat deze Engels waarschijnlijk nooit helemaal zal snappen, dus ik ben persoonlijk hartstikke blij met deze ontwikkelingen.
Maar ik kan ook wel beredeneren dat als deze teksten door stemacteurs hadden moeten worden ingesproken dit commercieel gezien geen goed idee zou zijn geweest.
Ik denk dat binnenkort niet alleen de stemmen, maar ook hoe en wat er gezegd word persoonlijk voor de gebruiker gemaakt kan worden.

Ook perfect voor leerdoeleinden als je last heb van dyslectisch, autistisch of een taalkennis beperking hebt.

Je kan zo het taalgebruik en taalmoelijkheid aanpassen. Of als. Je last hebt van het horen van hoge of lage stemmen kan je dat ook aanpassen.

Ja eigenlijk kan het zo gek niet bedenken. Video, audio, alles kan straks realtime gegenereerd worden.

[Reactie gewijzigd door dutchruler op 24 juni 2025 22:31]

Sterker nog, bij Amazon zal de acteur het merk product gebruiken dat lokaal te koop is.
Dus waar US Budweiser ziet, zien wij Nederlandse pils.
En zit er een scène in waar ie even fietst, terwijl in America hij de Fort F-150 neemt.
Bij ons eet ie een boterham met kaas, gaat ie gewoon naar AH.
Maar in Duitsland is het ontbijt anders en de supermarkt ook.
Ik ben het eens, maar denk wel dat het tijdelijk zal zijn. Het media landschap is sterk aan het veranderen en het is de vraag of advertenties genoeg zal zijn om het te. Kunnen blijven dragen.

In ieder geval een interessante ontwikkeling
Google heeft met NotebookLLM al zoiets gemaakt.

Upload je eigen documenten/bronnen en laat een podcast maken van pakweg 15 minuten over je specifieke onderwerp. 2 presentatoren die vervolgens álles weten van Lord of the Rings, Azure, wetgeving en het assembleren van IKEA-meubilair!
Ja, ik heb laatst een poging gedaan om zo'n film te kijken en het was werkelijk verschrikkelijk. Het was een Chinese film die door AI in het Engels werd gesproken. Ik snap best dat het goedkoper kan zijn dan stemacteurs maar de kwaliteit is op dit moment echt niet best.

Op het werk maken wij veel gebruik van kennisclips die doorgaans in het Engels zijn ingesproken en dan worden voorzien van ondertiteling. Nu hadden we er een paar die in het Nederlands zijn ingesproken en dus eigenlijk naar Engels moesten. De A.I. van Google was nog het meest natuurlijk. Maar om het helemaal goed te krijgen zijn we echt dagen bezig geweest. Het was achteraf gezien vele malen sneller geweest om het script te vertalen en te laten voorlezen door een natuurlijk persoon.
Hebben jullie ook Heygen geprobeerd? Ik heb daar eigenlijk alleen maar goede resultaten mee.
Nee, die ken ik niet, maar bedankt voor de tip!

Waar wij bijvoorbeeld tegenaan liepen is dat het voorlezen van een url zoals www.tweakers.net echt helemaal uitgeschreven moest worden, dus w w w dot tweakers dot net. Anders was het echt gokken wat eruit kwam.
Ja die ervaring heb ik ook wel, zeker in het nederlands moet je zaken soms fonetisch beschrijven voor het beste resultaat, apps wordt dan ook epps :)
Inderdaad. Er ging dus heel veel werk zitten in het aanpassen van de scripts, het vervolgens weer afluisteren, weer aanpassen etc etc. Soms ging het de ene keer goed en de andere keer was het helemaal mis. Ik was uiteindelijk niet echt overtuigd, maar wilde er alles aan doen dat ik zelf weer met een microfoon voor m'n neus een hele middag scripts zat voor te lezen. ;)
Ik heb precies hetzelfde gehad met een film die zich afspeelde in Mongolië. Ik had niet eens de optie om de orginele stemmen te kiezen (ik versta er dan niks van, maar de ondertiteling is genoeg).
Nu werd de AI gebruikt voor de Engelse stemmen, waarop de Engelse stem van de vrouw aangaf dat haar vader overleden was alsof ze de krant voor las… wat totaal niet overeenkwam met de gezichtsuitdrukking en andere emoties die wel te zien waren…

Orginele acteurs kunnen vaak als beste de emotie overbrengen. Iets wat gewoon op dit moment voor AI nog iets te lastig is. (Of waar in elk geval menselijke controle op zou moeten plaats vinden).
Maar nog steeds zou je altijd de optie moeten hebben voor de orginele stemmen. AI voor ondertiteling werkt over het algemeen prima, maar stemmen is in dit stadium nog net iets te vroeg.
Ook de AI voor ondertiteling gaat geregeld de mist in. Vooral bij Prime valt het me op dat de ondertiteling gewoon niet pakt waar het over gaat.

Aan de andere kant moet de A.I. het op z'n minst net zo goed doen als de menselijke vertaler. Dat is ook al decennialang een drama... Mijn ogen bloeden als ik 'The Lord of the Rings: The Fellowship of the Ring' aanzet met de Nederlandse ondertiteling, om maar eens wat te noemen.
Niet alleen handig voor kinderen zoals jouw dochter. (fantastisch trouwens dat de techniek haar zo helpt!)
Maar ook voor mensen die de Engelse taal gewoon minder goed machtig zijn is het mooi. Denk aan mijn eigen vader.

Compleet los van AI, maar 1 van de punten waar ik merk dat Nederlands voor veel mensen dichter bij huis is, is de kritiek die mijn zangkoor vaak krijgt. Mensen vinden het jammer dat wij zoveel Engelstalige muziek zingen. Nederlandse teksten zouden voor hen veel fijner zijn om te volgen.

Meer algemene opmerking

Ben benieuwd waar deze technieken ons gaat brengen.
Ik neem aan dat Amazon gebruikt maakt van hun eigen 'Polly'-systeem. Heb een jaar of wat geleden Polly geprobeerd om voice acting toe te voegen aan Final Fantasy XIV. Was al erg onder de indruk van de kwaliteit van de stemmen. Echte voice acting was beter, maar dit was een serieuze stap t.o.v. niets. Poosje terug de nieuwe generatieve stemmen geprobeerd en man man mjam :D

(Voor context, FF XIV bevat nagenoeg 0 voiced content wanneer je aan het begin begint. Voor iemand die met SWTOR de MMO-scene opgegaan is, is het onacceptabel om geen voiced content te hebben)
Maar die romantische films zijn er toch al genoeg op die 18+ sites ;)
Bedoel je lipsync?
Voor de verjaardag van m'n vrouw vorig jaar heb ik ElevenLabs gebruikt. Machtig spul. Keken een film, halverwege de film ineens 'storing'. Kwam er ineens een stuk van Expeditie Robinson in beeld waarbij Art en Nicolette de naam van m'n vrouw noemde met een verhaal dat 't geen storing was, maar opzet, en dat ze op zoek moest naar 7 puzzels die de oplossing voor een Cryptex vormden. Ze zou vanzelf meer info ontvangen. Daarna ging de film verder. Heel tof!
Waarom zou ik naar mijzelf willen kijken in een film? Ik vind het al verschrikkelijk om mijn eigen stem te horen. Laat staan om mijzelf te zien 1 uur lang.
De stap van lipsync naar vertaalde stemmen in films is er al. Ik gebruik Heygen voor het maken van instructie filmpjes in verschillende talen, als je een versie hebt is het heel eenvoudig om het lipsync om te zetten naar een andere taal.
Gaaf! Gaat dat ook goed als je meer beweegt als de voorbeelden?
De instructeurs in onze filmpjes beweegt doorgaan niet heel veel, het gaat om het uitleggen van software en het zijn geen fitness instructeurs :) Geen idee hoe het gaat als er heel veel bewogen wordt.
Alsjeblieft niet. Half YouTube is inmiddels vergeven van gegenereerde stemmen. Mijn standaard comment is inmiddels 'don't use stupid AI voices, use your own voice instead'. Uncanny valley? Iig zeer irritant en m.i. een slechte ontwikkeling.
Nope, ik vind het fantastisch.
Binnenkort kan je een random epub pakken en kan de AI(e.g. elevenlabs) het heleboel analyseren, stemmen en effecten automatisch genereren en een betere beleving hebben dan 90% van al die audio boeken die je nu op audible hebt.
Je hebt duidelijk nog geen enkel audioboek op Audible geluisterd of gekocht. De authenticiteit van de menselijke verteller is daar net een belangrijk onderdeel. Alweer een ai bro die het warm water denkt uitgevonden te hebben. Ik word het zo stilaan wel kotsbeu.
Ik luister op audible elke dag wel.

Sta nu op 2 maanden, 13 dagen, 4 uren en 17 minuten luistertijd.

Maar jij hebt duidelijk nog niet de laatse Ai stemmen geluisterd. De tijd van audioboeken zoals op audible raakt snel ten einde.
Dit snap ik nog wel, maar 1 of andere YT kanaal wat een film trailer aan je uitlegt met een AI stem, dat is iets anders.
Het is een opkomende markt. Het komt ook vooral omdat de stemmen tot nu toe vooral vaak hergebruikt worden en vrij luid en eentonig zijn.

De nieuwe versie van elevenlabs is daar al een stuk beter in en dit zal snel ook wel beter gaan worden.

Er zijn ook genoeg mensen die graag een film kijken gecondenseerd in 10 minuten door een stem of AI die met 2x snelheid afspreekt.

Ieder zijn ding lijkt me dan. Ik zit toch liever nog gewoon in de cinema met me bakje popcorn
Waarom moet iemand per se zijn of haar eigen stem gebruiken voor video's? Wat is de meerwaarde daarvan? Tuurlijk verschilt het qua content en context, maar bij een ''droog'' script dat weinig emotie/intonatie vereist luister ik liever naar een eloquente AI-stem, dan bijv. naar een Nederlander met een vreselijk accent.

Dat geldt niet alleen voor mij als kijker, maar ook als maker van video's. Monteren en scripts schrijven vind ik leuk, maar audio inspreken juist niet. Ik ben geen native speaker (daardoor geen natuurlijk accent) en heb geen studio-achtige ruimte waar ik een voice-over kan opnemen van redelijke kwaliteit (als ik dat al zou willen).

Ik snap je punt echt wel. Ik zie ook dagelijks van die YouTube shorts voorbij komen met gerecyclede viral clips en generic AI voice-overs. McDonald's content, noem ik dat. Het wordt grotendeels geautomatiseerd zonder enige vorm van passie of plezier erachter.

Maar dat betekent natuurlijk niet dat AI stemmen geen positieve kanten hebben. Zoals altijd komt het aan op de manier waarop het wordt gebruikt, en daardoor bestaat een bepaald imago. CGI in films is ook een doorn in het oog van veel mensen, omdat ze grotendeels ''slecht'' werk op het witte doek zien door filmstudio's die de kantjes eraf lopen. De zeldzame films met echt goede (onzichtbare) CGI worden vervolgens nauwelijks erkent.

Ik denk dat 't vroeg of laat hetzelfde zal zijn met AI-stemmen en andere zaken. Momenteel merk je vrij snel wanneer iets een AI voice-over is, maar over een paar jaar (en tuurlijk, afhankelijk van de kwaliteit - niet elk model is even goed) zul je het niet eens doorhebben.

[Reactie gewijzigd door Daraxo op 24 juni 2025 22:13]

Ik zou zeggen. Download de app en doe een test. Dit is best oké. Ik ben het met je eens dat die stemmen die je vaak hoort echt mega-irritant zijn, maar als ze klinken als dit, vind ik het prima.
Bedankt voor de suggestie maar geen interesse in die app. Ik werk bij één van de grootbanken als ai ontwikkelaar en product owner en hou daarom elke ontwikkeling bij. Misschien AI overload maar ik kan gegenereerd beeld en geluid materiaal inmiddels niet meer luchten of zien. 'Zonder AI is het inferieur' begint bij mij steeds meer de overhand te krijgen en ik neig inmiddels precies de andere kant op.
Dat snap ik dan. AI lijkt (in de marketingmolen) een doel op zich geworden te zijn, waar het wat mij betreft gewoon een stuk gereedschap is, wat evt wat kan toevoegen, mits het op de juiste manier, op de juiste plek toegepast wordt.

De stem die deze app genereert (of in elk geval de frontend voor een clouddienst) is in elk geval, wat mij betreft, prima te behappen. Als de YouTube-filmpjes op dit niveau zouden zijn, zou ik er geen moeite mee hebben.
Ik moet wel zeggen dat ik behoorlijk vaak Gemini gebruik voor bv troubleshooting op Linux en dat werkt inmiddels ontzettend goed. Gisteravond bijvoorbeeld nog een Manjaro KDE pc die flinke problemen had weer tiptop in orde gekregen in totaal 3 uur. Zonder was ik minimaal 3 avonden de klos geweest...
Net wat ik schrijf. AI is echt heel mooi. Het kan het veel, alleen je moet weten waar je wat voor kunt gebruiken. LLMs zijn een beetje een vreemde één in de byte. Die kunnen best een boel, best wel oké, tot zelfs best wel goed, maar ze excelleren nergens in. Maar als je naar dit soort artikelen kijkt:

https://www.autodesk.com/design-make/articles/nasa-evolved-structures

30% minder materiaal en gewicht zonder verlies in functie en kracht. (Ideaal voor ruimtevaart en andere zaken). Rekenkundig niet te ontwerpen door een mens (in een schappelijke tijdsduur), en zo zijn er talloze voorbeelden, maar dat zijn AI-modellen die heel specifiek ontworpen zijn voor dat doel.
Met behulp van vpn is de android versie wel te installeren ;)
Per ongeluk reply op hoofdbericht ipv de comment
Kan bericht kennelijk niet verwijderen?

[Reactie gewijzigd door dutchruler op 24 juni 2025 22:52]

Net uitgeprobeerd en het werkt echt verbazingwekkend goed. Ik heb 3 fragmenten van een halve minuut aan tekst voorgelezen, en daarbij mijn stem laten klonen. Met die anderhalve minuut aan training kun je al een stem genereren die 90% mijn eigen stem benadert, en het klinkt gewoon oprecht natuurlijk. Echt bizar!
Ik ben het er wel mee eens dat echte stemmen fijner zijn om naar te luisteren. Maar geef het nog een jaartje of wat en je hoort het verschil gewoon niet meer. Dan gaat het niet meer om echt of nep, maar gewoon om goed of slecht uitgevoerd.

Zullen we ooit met AI kunnen communiceren met dieren? ;-) Hoe gaat het omgezet naar walvisgeluiden
Wat je allemaal al niet kunt creëren met AI hè?
Je kunt dat echt gewoon leren, bij kinderen van andere ouders hoor ik ook aan het huiltje wat de behoefte is. Niet elke jonge ouder heeft zich dat al aangeleerd. Sommigen gaan stressen als het kind huilt, soms ook geuit in hun stemgebruik richting het kind / baby.

Het kind reageert daar natuurlijk ook op, want neemt bijvoorbeeld aan (door de reactie van de ouder) dat er een situatie is die niet onder controle is.
Komt dan uit eindelijk het flesje of een schone luier of aai over buikje, of verkoeling dan is er geruststelling, maar wel een patroon wordt gelegd dat daar eerst stress bij komt kijken. Uiteraard niet nodig. Zoals je bij bhv leert: blijf kalm, dan blijf je de situatie beter overzien.

[Reactie gewijzigd door djwice op 25 juni 2025 17:45]

Op dit item kan niet meer gereageerd worden.