JBL brengt BandBox-versterker met AI-audiosplitsing voor muzikanten uit

JBL brengt twee BandBox-versterkerspeakers uit, namelijk de Solo en Trio. De speakers moeten inkomende muziek met kunstmatige intelligentie automatisch naar losse audiosporen splitsen. De Solo kost 250 euro en de Trio 600 euro. De BandBox-serie is vanaf februari verkrijgbaar.

De JBL BandBox Solo is bedoeld voor een muzikant vanwege de enkele microfoon- of gitaarjackingang van 1/4" en splitst het inputgeluid, specifiek de zang, gitaar en overige instrumenten. Op die manier kan de muzikant via de JBL One-app een zogenoemde backingtrack maken om live mee te spelen. Een gitarist kan zo bijvoorbeeld de originele gitaar uit een nummer filteren en zelf over de resterende muziek spelen, terwijl de speaker ook als gitaarversterker dient.

De BandBox Solo heeft een vermogen van 18W, wat geschikt is voor een thuisomgeving. De versterker heeft verschillende ingebouwde effecten, een stemapparaat, metronoom en looper. De speaker heeft een ledpixelscherm en ondersteunt Bluetooth 5.0. De accu heeft een capaciteit van 4722mAh, wat maximaal zes uur stroom zou moeten leveren.

De BandBox Trio is de grotere variant met dezelfde AI-functies en ingebouwde effecten. De grotere speaker-versterker heeft verder vier inputingangen en een ingebouwde mixer om de verhouding tussen inputs te regelen. De Trio heeft een verwisselbare JBL Battery 400-accu die tot tien uur mee moet gaan. Deze variant van de BandBox ondersteunt Bluetooth 5.4 en heeft een vermogen van 135W, verdeeld over twee 1"-tweeters en een 6,5"-woofer.

Door Yannick Spinner

Redacteur

24-01-2026 • 12:47

59

Reacties (59)

Sorteer op:

Weergave:

Het toverwoord AI is weer gemaakt hoor, maar de daadwerkelijke AI functionaliteit wat vroeger gewoon iets anders heette ontgaat mij even.
Hehe was ook mijn eerste gedachte, maar het is warempel een terecht gebruikte term. Opsplitsen van muziektracks zonder masters/stems is eigenlijk alleen mogelijk met AI. Dus je input een gerenderd audiobestand en je kunt met een tool bijvoorbeeld de zang uitzetten. Toffe tech (die overigens al langer bestaat). Maar nog niet in een compleet pakket zoals deze.
De techniek zit al een aantal jaren in alle DJ software zoals VirtualDJ, Serato DJ, RecordBox etc.
Het heet daar stem-separatie.
De meeste DJ controllers hebben daar ook speciaal een knoppen voor, zorgde hardware van Pioneer bijvoorbeeld.
https://wearecrossfader.co.uk/blog/rekordbox-stems/

De meesten gebruiken dit model: https://github.com/deezer/spleeter

Deezer is een Europese concurrent van Spotify.

[Reactie gewijzigd door djwice op 24 januari 2026 20:36]

Hehe was ook mijn eerste gedachte, maar het is warempel een terecht gebruikte term. Opsplitsen van muziektracks zonder masters/stems is eigenlijk alleen mogelijk met AI. Dus je input een gerenderd audiobestand en je kunt met een tool bijvoorbeeld de zang uitzetten. Toffe tech (die overigens al langer bestaat). Maar nog niet in een compleet pakket zoals deze.
Maar heel eerlijk; zulk gelijke functionaliteiten bestonden 10 jaar geleden in softwarepakketten ook al. En 10 jaar geleden bestond AI nog niet. Nu hebben ze dit in een speaker verwerkt, maar maakt dat dit gelijk AI?
Als het nu gedaan word door AI, is het zeer juist woordgebruik. Waarom maak je daar een probleem van? Je kan dit soort dingen ook op andere wijze doen (nooit erg goed) en dit is nu juist een van de dingen waar AI bijzonder goed in kan zijn.
Probleem is alleen dat de helft van de zogezegde AI producten niet meer zijn dan een algoritme. Dat hebben we al 50j om zo even te zeggen. De naam AI wordt bij velen enkel en alleen gebruikt omdat het in het oog springt.

[Reactie gewijzigd door Powerblast op 24 januari 2026 14:15]

Probleem is alleen dat de helft van de zogezegde AI producten niet meer zijn dan een algoritme. Dat hebben we al 50j om zo even te zeggen. De naam AI wordt bij velen enkel en alleen gebruikt omdat het in het oog springt.
Maar is dat nu relevant voor dit product / artikel?
Ik kan op basis van de product beschrijving niet herleiden of de term AI hier relevant is of niet nee :).

[Reactie gewijzigd door Powerblast op 24 januari 2026 19:09]

Yannick heeft dat toch prima uitgesproken waarom dat in dit geval wel valide is? Niks nieuws aan, maar in deze mag het toch prima zo genoemd worden.
Intelligentie klinkt ook heel erg smart ;) en is een zeer breed (marketing) begrip geworden. Goed om altijd even de definitie te toetsen, daarvoor zijn we tweakers (begrijpen van IT context)

[Reactie gewijzigd door nijntje82 op 24 januari 2026 15:14]

En we noemen dat ook al 50 jaar AI. De eerste spellingscontrole software die met simpele registers van bekende spelfouten werkte komt ook uit labs die AI in de naam hadden. De term AI wordt nu meer in marketing gebruikt maar de term is niet nieuw en in het verleden voor van alles met zelfs maar een simpel algoritme gebruikt.
En we noemen dat ook al 50 jaar AI.
Mwa, misschien in het buitenland. Vóór de hype noemde ik het KI: kunstmatige intelligentie :+
Tsja, de term AI zegt sowieso niet zo veel. De computer tegenspeler in Pong is ook AI. Het bootst een menselijke speler na. Dat maakt het "intelligent".

Zolang het een gedrag is dat reageert op context, kan je het AI noemen, en zoiets kan je wellicht in een paar regels code schrijven. Dus AI is net zo'n lege term als "smart" of cloud, je hebt niet veel nodig om aan de definitie te voldoen, maar het klinkt fancy.
Zolang het een gedrag is dat reageert op context, kan je het AI noemen, en zoiets kan je wellicht in een paar regels code schrijven.
Zo lijkt het in ieder geval alsof de term tegenwoordig gebruikt wordt. Maar eigenlijk reageert elke software toch op context/input :)? Ik bestempel de software die ik schrijf echter niet als AI.

Maar je hebt gelijk hoor, de term is gewoon eigenlijk heel vaag en kun je op alles toepassen. Daar maken de bedrijven de laatste tijd dan ook gretig gebruik van.
Veel AI heette vroeger gewoon slimme of intelligente software. Een functionaliteit van AI is dat het leert, leert dit dan ook?
De AI's zoals we ze nu gebruiken zitten of in "gebruiks / inferrence" modus, tijdens het leren zitten ze in "training mode". Dus nee, dit specifiek apparaat leert niet. Maar de achterliggende modellen kunnen wel verder getraind worden op nieuwe data, en daar leert het wel van.

Het is zeg maar als een nieuwe taal leren, dat kost meer moeite en tijd, dan een gesprek er in voeren als je het al éénmal kan.

[Reactie gewijzigd door ZpAz op 24 januari 2026 17:00]

Het "leert" voor de lengte van het gesprek, omdat het constant de voorgaande context meeneemt voor volgende antwoorden. Het is meer een korte termijn geheugen, want het is weer weg als je de chat sluit. En ook zit er een limiet aan (summarizing context history) van hoeveel het mee kan nemen, dus het "leert' zoals een goudvis dat doet, na een rondje zwemmen is hij het weer vergeten.
Alles wat vroeger onder de termen "big data" en "machine learning" viel is nu AI.
Nou nee. Het zijn wel echt andere dingen.

We voeden AI, middels machine learning met de output van Big Data ;) - Het klinkt bijna alsof er een meesterplan is. #conspiracy ;)
Er zijn allerlei trucjes op basis van frequentiebanden en fase, maar goed getrainde AI-algoritmen zijn veruit superieur aan alles dat al bestond. Je kunt spelen met open source tools zoals Ultimate Vocal Remover en met een beetje tweaken met verschillende modellen is het echt ongelooflijk wat er mogelijk is. Je kunt vocals echt zeer goed isoleren van de rest. Percussie idem. Zelfs reverb bij vocals uitfilteren werkt beter dan alles wat er voorheen voor bestond.

Er zijn door o.a. Sony gesponderde competities voor researchprojecten om te toetsen wie de beste modellen ontwikkelt. Dus ja, AI is op veel terreinen echt wel baanbrekend. Maar dat mensen een beetje moe worden van AI-hyped marketing is ook begrijpelijk.
Ja dit is echt heel handig als je als muzikant met bestaande muziek wil meespelen.
Maar heel eerlijk; zulk gelijke functionaliteiten bestonden 10 jaar geleden in softwarepakketten ook al.
Is dat zo? Ik dacht dat ze in 2021 pas een gesprek van de Beatles los hadden weten te knippen van de luide muziek met behulp van neurale netwerken/AI. Ik vermoed dat dat toen (5 jaar geleden) nog redelijk wat rekenkracht heeft gekost en nu zelfs realtime kan; dat vind ik meer dan een nieuwe naam voor een oud kunstje. Het lijkt me sterk dat die technologie er 10 jaar geleden ook al was.
Je kon zeker vroegah al met frequentiebanden enzo audio extracten. Maar alles wat in de midrange zit wordt dan een modderpoel, en gruwelijke vervorming van wat je overhoudt is dan onvermijdelijk. AI is hier echt veel beter in. Wat wel/niet AI is vind ik een lastige, dat is een verzamelterm geworden inderdaad, maar dat maakt de term hier nog niet onterecht!
AI bestaat al veel langer dan 10 jaar. Enkel
Is het nu in een stroomversnelling gekomen. Dit lijkt me ook gewoon pure AI. Ik denk dat jij gewoon gevoelig bent aan die term.

En als je dan toch gevoelig bent dan zou je ook moeten weten dat AI een overkoepelende term is voor elk mogelijk vorm van software die iets intelligent regelt. Een schaakcomputer van vele jaren terug is ook AI. Machine learning is ook gewoon AI.

Muziek isoleren uit audio is zeer zeker AI. Dit is ML + deeplearning met echte getrainde modellen. Je ziet ze sinds 2018 maar pas echt bruikbaar sinds 2021. Ik vermoed dat nu hardware ook beter/goedkoper wordt om die modellen lokaal te draaien met minimale artefacten.
Zo’n 30 jaar geleden prikte ik al een kaart met ik meen Zisc036 processoren in mijn computer. Dat was zeker AI. Al werd het toen vooral een neural-networks oplossing genoemd.
Waar jij naar refereert is het filteren van bepaalde lagen, stem splitting is relatief nieuw en werkt daadwerkelijk met machine learning.
Dit zie je inderdaad bij veel producten en stoor ik me ook mateloos aan. Dit is gewoon een algoritme, volgens mij geen AI te bespeuren. De hype is echter zo erg, zodat alle fabrikanten het gebruiken om meer in het ook te springen. Beperkt houdbaar natuurlijk want als alles AI is, is er niks speciaal meer aan de term.

Vorige hype was cloud connected bijvoorbeeld. Ook niks anders dan maant geregeld verbinding met een server…

[Reactie gewijzigd door Powerblast op 24 januari 2026 14:11]

Dit is juist iets wat je met neurale netwerken veel beter kan doen dan met een algoritme. Dus ik geloof wel dat ze een neuraal netwerk getraind hebben er voor en het dus echt AI is.
[...]
Nu hebben ze dit in een speaker verwerkt, maar maakt dat dit gelijk AI?
Nee, wat het ai maakt is dat de splitsing gebeurt middels neurale netwerken.
Was dit niet alleen op basis van het filteren op specifieke vaste frequenties in plaats van het daadwerkelijk herkennen van een instrument of stem en de daarbij horende dynamische frequentiebereik isoleren en filteren?
AI bestaat al veel langer hoor. Maar nu is het mooi woordje voor alles.
Sorry maar een paar jaar geleden heb ik pas voor het eerst zo'n stemsplitter gehoord. Dat was AI. Een aantal jaar geleden kan het in Logic ook. Deze techniek was echt nieuw en was daarvoor nog totaal niet mogelijk. Alleen met wat filters en M/S processing.

Stem splitter van Logic is echt zwaar indrukwekkend en het verbaast me telkens weer dat het kan
Die tweede link van Reddit is 6 jaar oud. Toen was er van AI zoals vandaag nog geen sprake. Dus de opmerking van @Luchtbakker is wel terecht imho.
Zie djwice in 'Tweakers Podcast #303 - Raketten, Kladblok-AI's en CES-nieuwtjes' in 2019 is dit AI model in Delft - ja in Nederland - gepresenteerd aan het publiek en open source beschikbaar gemaakt.

En ja ook toen was er al AI en o.a. bij een Nederlandse verzekeraar gebruikte ik met mijn team in 2017/2018 ook al AI-modellen om bijvoorbeeld te detecteren wat de emotie/tone of voice in e-mails was om ze te routeren naar het team wat empathisch het beste past.
Ook in 2018 en later gebruikten we AI voor het detecteren van aangepaste fotos van schade en voor OCR van met de hand ingevulde formulieren, zodat medewerkers alleen fouten hoefde te corrigeren in plaats van alles overtypen.

Dus er is al veel langer AI.

[Reactie gewijzigd door djwice op 24 januari 2026 20:49]

Voor zover ik weet zitten instrumenten niet apart in een audiocodec geëncodeerd.

Sound source separation is een onderzoekstak waarbij men verschillende geluidsbronnen (bv. instrumenten) probeert te onderscheiden uit een mono- of stereogeluid. Dit veld wordt op dit moment gedomineerd door AI (deep learning met bv. autoencoders). Het is hier dus meer dan terecht om voor deze feature het woord AI te gebruiken, ongeacht het een buzzword is of niet.
Nee dit kan, bijvoorbeeld Logic X kan dit door getrainde modellen van instrumenten. Dit lijkt zowaar daadwerkelijk “AI” (machine learning).
Nouja. Hier heeft het wel degelijk een toegevoegde waarde. Stems maken van een afgemixt nummer is eigenlijk niet te doen zonder goede realtime processing. DJ programma’s zoals VirtualDJ proberen het vaak wel, maar kwamen tot op heden vaak niet verder dan vocals en muziek scheiden. Tegenwoordig kun je met dergelijke programma’s de beat, melody, synths en vocals helemaal uit elkaar trekken en dus live resamplen en beter overlayen.

Dat is wat deze speaker nu dus ook doet hier is dir wat mij betreft daadwerkelijk terecht gebruik van AI mogelijkheden om een algoritme te maken wat dit on the fly kan doen.
Het gaat hier om modellen als Spleeter van Deezer bijvoorbeeld.
Als je wil weten wat er AI aan is:
https://ultimatevocalremover.com/
=> https://github.com/Anjok0...overgui/releases/tag/v5.6

Het geluid kan echt gescheiden op instrument, zang, druk, gitaar etc. niet gemoffeld met frequentie spectra etc.

Je hebt nu voor veel instrumenten en zang/achtergrond koor etc. aparte modellen die ze exact uitfilteren, alsof het het organiseren originele spoor is.

Er zijn zelfs modellen die effecten en filters ongedaan kunnen maken omdat ze hebben geleerd hoe het bron geluid en het effect/filter toegepaste geluid klinkt. En daardoor het bron geluid kunnen reconstrueren uit een eind mix.

Er zijn ook modellen die detecteren welke filters en effect combinaties gebruikt zijn en wat de instelling van elk was.

Echt nuttig als je dezelfde mastering wil als iemand anders op je eigen gitaar.
Dat was.mijn eerste reactie ook, maar het feit dat dit nu dus eigenlijk in "real time" gebeurt is hetgene wat bijzonder is.
Voor 250 euro gaat die meteen op mijn verlanglijstje. Knap dat dat scheiden realtime kan, ultimate voice remover doet er op mijn pc 1,5 uur over om een 3 minuten liedje te verwerken
Dat scheiden gaat volgens mij niet realtime, dat is onmogelijk. Er staat dat je zo’n backing track met de JBL app maakt, die upload dat ongetwijfeld naar een cloudservice, want ook je telefoon zal daar niet toe in staat zijn.

Ik heb zelf ook een aantal vocal remover / spitters gebruikt en desondanks dat t best indrukwekkend is, is t niet perfect. Er zit ook best wat verschil tussen de diverse aanbieders. Ik ben wel benieuwd van welke JBL gebruik maakt.

Van die €250 wordt waarschijnlijk een flink deel gereserveerd voor de AI dienst. Verder is t gewoon een leuke Bluetooth portable speaker.

[Reactie gewijzigd door demonite op 24 januari 2026 16:03]

Dat scheiden gaat volgens mij niet realtime, dat is onmogelijk. Er staat dat je zo’n backing track met de JBL app maakt, die upload dat ongetwijfeld naar een cloudservice, want ook je telefoon zal daar niet toe in staat zijn.
This is the first speaker to feature an on-device Stem AI algorithm capable of removing vocals or instruments, without the need for cloud processing or an internet connection.
Stem separatie kost op een instap PC op dit moment zo'n 11 seconden voor een heel liedje. Dus er zit hooguit een kleine delay op het signaal, maar dit kan gewoon realtime sinds 2019.

Hier is de nieuwste versie https://pypi.org/project/spleeter/

Dataset:
https://sigsep.github.io/datasets/musdb.html

Geen programmeur?
https://github.com/Anjok07/ultimatevocalremovergui
Hier is de software voor op je computer met gewone gebruikers interface en installatie zodat je via je audio interface hetzelfde kan als deze versterker. Er is ook een audio interface waar je 2 gitaren tegelijk op kan aansluiten, ook voor 4 etc. voeding gaat direct via de usb-c van je PC dus geen extra kabels nodig.

[Reactie gewijzigd door djwice op 24 januari 2026 21:15]

Ik vind het altijd zo spuuglelijk dat JBL hun logo er altijd zo groot op moeten zetten. Hier ook weer.
Het JBL logo naar mijn mening idd veel te groot, maar toch ben je gerust dat er een flink geluid uit komt als er JBL op staat. Een leuke invulling voor AI en echt iets wat meerwaarde kan hebben! Een mooi pruduct als het goed werkt.
Het mocht van mij wel iets groter zijn nog. Met leds er in..
AI verwerking, ik sla ff over.
Gezien hardware prijzen etc. begin ik steeds meer en meer een hekel te krijgen aan AI.
Blijft nog wel even "old school".
Dit is eigenlijk al old school het model bestaat al.sinds 2019 en draait op elke PC zonder problemen en is gewoon een standaard python lib:
https://pypi.org/project/spleeter/

Je je kunt het gewoon zelf draaien zonder iets te kopen. En deze AI heeft niets bijgedragen aan de geheugen prijzen of stijging van prijzen van videokaarten. Zoek maar even op hoeveel `MB` het model is.

[Reactie gewijzigd door djwice op 24 januari 2026 21:24]

Ik denk dat dit op veel muzikanten overkomt als speelgoed , vooral met zulke kleine luidsprekers .
Maar wel leuk speelgoed als oefenversterker voor thuis.
Geluid uit die kleine JBL boxen is vaak verrassend goed.

Gebruik zelf de aux in van een JBL tuner2 als monitor/oefen box voor mijn Roland AIRA Compact setup en die klinkt al verdomd goed met zijn magere 5 wattjes.
Roland - AIRA Compact
Ja oke, maar de bandbox solo gaat maar tot 73hz

Als ik m'n lage gitaarsnaar in D stem kan dat maar net.

Het bereik van zo'n kleine speaker is beperkt
Nu ben je aan het zoeken waarom het een waardeloos apparaat is. Normaliter is de laagste snaar in E gestemd, dus die zal net binnen de marges vallen 8-)

Dat het jouw niks lijkt betekend niet dat veel anderen wel blij worden van zo'n bandbox.
Het wordt geadverteerd als meespeel apparaat voor een bandlid.

Stel dat ik de bas speel, een vrij normaal instrument toch ?

[Reactie gewijzigd door wc2wc op 24 januari 2026 20:04]

Vrees dat de bassist zijn eigen versterker moet meenemen: Basgitaarversterker combo kopen? Basgitaarversterker combo's koop je online bij Bax Music

Bandbox solo is om thuis te oefenen met gitaar of zang.
Marketing zet de trio in als handig voor in de oefenruimte van een band, maar geen enkele band zal dit serieus gaan gebruiken. Tenzij het een karaoke band is.

Kan op dit moment ook geen andere use-case voor de trio bedenken dan een veeleisende thuisgebruiker die meer power en inputs wil.
Met AI? Dan ga ik 'm kopen!

/s
Cool, ipad verbinden en je hebt een soort van Karaoke systeem - I'm game :)
https://pypi.org/project/spleeter/ draaien op je MacBook en je audio interface aansluiten en je hebt het ook :)
Zit mij zo af te vragen hoe het zit met de legaliteit wat voor thuisgebruik dan niet zo'n probleem is maar wel als je als muzikant gaat optreden. Je mag niet zomaar dan bestaande nummers nemen en die als backingtrack gaan gebruiken voor zover mij bekend. Daarnaast, ik heb zo mijn twijfels of dit wel werkt want van eerder kan ik mij herinneren dat je ook zo'n truucjes had waarbij voice gefilterd werd. Dit dan voor karaoke maar dat werkte vaak ook maar half half en voice dan wat gedempt werd maar niet weg was.

Nieuw is dit ook verder niet want je hebt al een tijdje programma's waarmee je muziek om kan zetten naar midi-files en je dan ook meerdere sporen hebt die je uit kan schakelen. Plus ja je kan al van vele nummers gewoon de midifiles krijgen en die als backingtrack gebruiken met een goede soundmodule of keyboard.

Om te kunnen reageren moet je ingelogd zijn