Intel brengt AI-tools met muziekgeneratie en transcriptie uit voor Audacity

Intel heeft een AI-toolsuite onder de naam OpenVINO AI voor het opensourceaudiobewerkingsprogramma Audacity uitgebracht. Met de plug-ins kunnen gebruikers lokaal podcasts transcriberen en muziek genereren op basis van prompts.

OpenVINO AI is alleen compatibel met de 64bit-versie Audacity 3.4.2 voor Windows en moet handmatig geïnstalleerd worden op basis van bestanden die via GitHub beschikbaar zijn gemaakt. De repository's werden enkele weken geleden al door Intel op het platform gepubliceerd, maar de aankondiging van de tools door de organisatie achter Audacity vond dinsdag pas plaats. Vooralsnog moeten gebruikers op Linux of macOS zelf compileren. Het is niet duidelijk of het model uiteindelijk ook native voor die besturingssystemen wordt uitgebracht.

Volgens de ontwikkelaars van Audacity zijn er verschillende plug-ins beschikbaar gemaakt, waaronder drie tools voor muziek, te weten Music Generation, Music Style Remix en Music Separation. De twee eerstgenoemde tools gebruiken het model Riffusion, een vertakking van Stable Diffusion, om muziek op basis van tekstprompts te genereren of te remixen. Met de Music Seperation-tool kunnen gebruikers een bestaand nummer opsplitsen tot verschillende tracks. Volgens de organisatie kan de tool een nummer opsplitsen in zang en instrumenten, of in de vier tracks zang, drums en bas en resterende instrumenten.

Verder zijn er twee tools voor gesproken audiocontent beschikbaar gemaakt: Noise Suppression en Transcription. Met deze plug-ins kunnen gebruikers respectievelijk met AI achtergrondruis verwijderen en gesproken audio transcriberen. Alle OpenVINO AI-tools draaien lokaal en vereisen dus geen internetverbinding met servers van Intel.

Door Yannick Spinner

Redacteur

03-01-2024 • 12:00

50

Submitter: breezie

Reacties (50)

50
50
40
4
0
6
Wijzig sortering
Audacity is overgenomen door de Ultimate Guitar oprichters. Ik blijf er lekker weg van sindsdien. Zie het Tweakers artikel.

Gelukkig zijn er meerdere forks ontstaan en die zijn uiteindelijk samengekomen in een nieuwe opensource initiatief:

Tenacity (homepage) zie ook hun Github pagina.

Zie ook een beknopte uitleg hier waarom Tenacity is ontstaan:
https://github.com/tenacityteam/tenacity#motivation

Ik hoop dus dat deze plugin ook gewoon werkt voor Tenacity, dat geldt voor zover ik weet alle Audacity plugins, die werken gewoon.

Wel idioot dat deze Intel plugins alleen op Windows werken. Tenacity werkt heerlijk op Linux, hier met Fedora Silverblue geinstalleerd via Flathub.

[Reactie gewijzigd door Jazco2nd op 22 juli 2024 13:30]

Wel idioot dat deze Intel plugins alleen op Windows werken. Tenacity werkt heerlijk op Linux, hier met Fedora Silverblue geinstalleerd via Flathub.
Volgens de tekst moeten de plugins voor andere platformen dan Windows éérst compiled worden. Ze werken dus ook op andere platformen, maar moet je dan dus eerst zelf compileren.
Als amateur producer gebruik ik soms mvsep.com om vocals uit tracks te halen. Het is alweer een tijdje geleden, maar het werkte altijd perfect. Soms lange wachtrijen, maar .. gratis en goed. Ik ben benieuwd hoe de kwaliteit van deze nieuwe plug-in voor Audicity zich verhoudt tot die van mvsep. Ik zie wel voordelen in het lokaal houden van dit soort taken, mits het dezelfde kwaliteit oplevert.
Ik heb ook heel lang daarvoor MVSEP gebruikt maar inmiddels zijn er betere, zoals https://studio.gaudiolab.io/. De vocals zijn beter maar deze kan ook meer sporen aan en zelfs instrumenten als piano en gitaar in losse sporen opleveren. Het resultaat is zo goed dat je die dan weer via andere sites in MIDI kan omzetten en gebruiken in je eigen werk.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 13:30]

Wat is dat voor een droevige website? Bij alles waar je op klikt moet je eerst met je Google-account inloggen voor verplicht toezicht en anders kan je niet verder.
OpenVINO AI tools zijn open source en dus ook beschikbaar voor Linux. Alleen geen binary-release beschikbaar, dus moet je het zelf `builden`.

Als voorbeeld wordt gegeven Ubuntu 22.04:
https://github.com/intel/...build_doc/linux/README.md

Alleen de gelinkte release van de gecompileerde Windows binary is compatibel met Windows en een specifieke Audacity build.

Waarom niet gewoon linken naar de tool zelf ipv van de release subpagina, vraag deze Tweaker zich dan af, nu word je toch een beetje op het verkeerde been gezet..
https://github.com/intel/openvino-plugins-ai-audacity

[Reactie gewijzigd door Jan121 op 22 juli 2024 13:30]

Als muzikant sta ik ontzettend dubbel in de opkomst van AI gegenereerde muziek. Het gros van de muziek in de hitlijsten heden ten dage vind ik al ontzettend generiek en ik twijfel ernstig of dit juist zal bijdragen aan een breder aanbod aan muziek of niet. Hoe dan ook, spannende tijden. Het zal een kwestie worden van met de tools leren omgaan, danwel jezelf juist ontzettend te onderscheiden.
We gaan zeker op het punt komen dat AI volledige hitjes gaat uitpoepen en producers deels overbodig worden. Ik denk dat het wel wat paradigmaverschuivingen teweeg gaat brengen. Ten dele omdat popmuziek al gebaseerd is op de laagste elgemene deler (hoe simpeler de muziek is, des te meer het begrijpen).

Ik voorspel
  • (nog) meer zeer generieke popmuziek;
  • een nieuwe stortvloed aan AI muzikanten;
  • maar ook juist de mogelijke opkomst van zeer onderscheidbare/originele muziek;
  • mogelijk een nieuwe waardering voor instrument-spelende muzikanten;
Dus niet alleen negatieve gevolgen, al denk ik dat de algemene behoefte naar muziek al jaren aan het dalen is en plaats maakt voor videoentertainment.
Ja ik ben het sluitend met je eens. Het gegeven dat ik een prompt kan maken om een akkoordenschema te genereren met invloeden van Bach (zoals Deadmau5 vroeger deed via de cthulhu VST plugin als ik me niet vergis) vind ik tot daar aan toe. Ik creeer veel cover art in stable diffusion en dat is absoluut nog steeds een creatief proces, maar ik hoef niet meer te kunnen tekenen. Als toegang tot componeren laagdrempeliger wordt door de noodzaak tot het leren van muziektheorie weg te nemen leidt dat op lange termijn denk/hoop tot meer en gevarieerder aanbod van muziek.
Als toegang tot componeren laagdrempeliger wordt door de noodzaak tot het leren van muziektheorie weg te nemen leidt dat op lange termijn denk/hoop tot meer en gevarieerder aanbod van muziek.
Dat denk ik dan weer niet. Niemand heeft ooit theorie nodig gehad om muziek te maken, het is gewoon de beschrijving van hoe harmonie werkt en hoe je muziek schriftelijk kan noteren.

Ik vermoed dat laagdrempeliger maken vooral leid tot méér aanbod, maar niet persé een beter aanbod. Op dit GoT draadje hebben we het al regelmatig over AI tools:

forumtopic: How to become a Producer - Deel IV

Dat beperkte zich vnl op tools zoals limiters en compressors, maar we staan inderdaad aan de vooravond dat complete composities AI generated zijn.
Als softwareontwikkelaar met meer dan 25 jaar ervaring maak ik dankbaar gebruik van copilot en andere tools. Ik zie het vooral als tooling die me helpt. Ik zie de uitdaging vooral voor de junior ontwikkelaars: ze missen straks basiskennis die ik wel heb. Een groot deel daarvan zullen ze niet missen, maar intuïtief snappen wat er er onder water gebeurt is wel handig.

Als amateurgitarist zie ik het ook zo: het stelt me in staat om sneller dingen te proberen. Waar ik de afgelopen jaren tijd besteedde aan het leren van muziektheorie, en babystapjes in het toepassen ervan, hoop ik dat AI tools ondersteunen. Als ze me helpen om sneller dingen te testen en ideeën kunnen helpen vormen naar compositie, kan dat mijn leerproces ook helpen met . Net als de junior ontwikkelaars sneller kunnen ontwikkelen en intuïtie vergaren.
Ik denk dat de grootste afvlakking van creativiteit/waarde net in de top gaat zitten. Als de kwaliteit van AI gegenereerde songs hoog genoeg is om het de top artiesten heet onder de voeten te doen aanvoelen, gaat hun kwaliteit zakken omdat ze content moeten beginnen pompen. Hopelijk is dat een misvatting van me.

Hoe dan ook, het is een fase die we door moeten gaan. Sowieso wordt AI "ooit" beter dan ons, zelfs in kunstzinnigheid. De nieuwe generaties gaan ermee opgroeien en het als normaal ervaren en er alles uit halen omdat ze het omarmen terwijl wij het afstoten omdat we de oude tijd missen. Ik probeer m'n conservatief denken eruit te slopen om mee te blijven en de charme te zien in deze nieuwe technologieën.
gaat hun kwaliteit zakken omdat ze content moeten beginnen pompen.
Misschien is het juist andersom. Zodra er niet meer op te boxen valt tegen de "goedkope AI producties" is het voor een artiest misschien juist wel goed om zich terug te trekken en maar één keer per zoveel jaar met écht nieuw en verfrissend werk te komen en daarmee in de spotlights te staan. Dat is namelijk een onderdeel van de kunst dat AI niet kan; iets nieuws en unieks bedenken én weten dat het bij mensen aanslaat.
Hopelijk, al zie ik zoiets eerder in de indie scene gebeuren waar men via patreon en ko-fi achtige platformen inkomsten krijgt in de vorm van microtransacties (die stevige proporties kunnen aannemen).

[Reactie gewijzigd door FlaffTweakr op 22 juli 2024 13:30]

Sowieso wordt AI "ooit" beter dan ons, zelfs in kunstzinnigheid.
Hangt er denk ik vanaf wat iemand als doel of nut van kunst ziet.

- Geen doel behalve even de aandacht vangen: daar is AI prima geschikt voor.
- Kunst als imitatie/representatie (was ooit de gangbare opvatting): dan kom je met AI een eind.
- Kunst als expressie vd innerlijke toestand van de artiest (moderne opvatting): Niet geschikt voor AI voordat AI zelfbewustzijn ontwikkeld. Het is de vraag of het ooit zo ver gaat komen omdat het niet vanzelfsprekend is dat zelfbewuste AI commercieel wenselijk is, want die zou ideeën kunnen ontwikkelen die tegen commerciële belangen in gaan.
- Kunst die oppervlakkig lijkt op kunst tbv expressie: er zal altijd wel een grijs gebied en discussie daarover blijven.
Anoniem: 584966 @bassekeNL3 januari 2024 16:42
Vooralsnog moeten gebruikers op Linux of macOS zelf compileren. Het is niet duidelijk of het model uiteindelijk ook native voor die besturingssystemen wordt uitgebracht.
Misschien is dit een beetje offtopic, maar als Linux hobbyist, ben ik altijd in de veronderstelling dat als je zelf codes compileren dan is het toch altijd native wat uit gcc komt? Misschien kun je mij een beetje helpen daarmee.🙏
Volgens mij bedoelen ze met "native" dat het als binary te downloaden is bij de leverancier.
Net als in de visuele branch, zie het niet als vervanging maar als aanvulling. Iemand die een game wilt maken, kan nu zelf zijn textures en muziek genereren, en dat is top. De kwaliteit daarentegen, tja, het zijn geen muzikanten en weten niks behalve "het klinkt goed" of "dat ziet er leuk uit".
Jij kan het gebruiken voor inspiratie, of misschien om een basis op te zetten en uit voort te bouwen.

Het komt hoe dan ook, het enige wat jij te bepalen hebt is wat je ermee doet.
Je hebt het hier over dingen die al heel goedkoop zijn. Textures en muziek zijn al lang gratis of goedkoop te halen en dan heb je ook goede kwaliteit. Zo’n revolutie is het dus niet.
Uit eigen ervaring zijn de texturen zeer zelden _gratis_ te krijgen voor commercieel gebruik zonder haken of ogen. Alleen al goede roest texturen hebben me 10+ uur op search engines gekost.
Alleen al de tijd om de juiste texture te zoeken terwijl een ai direct wat suggesties kan doen, en ergens wou ik zeggen dat je je dan geen zorgen over rechten hoeft te maken, maar dat is juist een beetje het hele issue met dit soort bots op het moment.
Nou ja, als AI suggesties kan doen voor texturen die al rechtenvrij zijn helemaal prima :D
Musicus, muzikant of goedwillende leek. Iedereen kan dadelijk muziek maken en als het lekker klinkt, dan kan het ook nog een hit worden of heeft het eeuwigheidswaarde. Verrijking of verarming?
In een vroeger leven was ik gediplomeerd beroepsfotograaf. Ik dacht in resultaten: ik wist hoe de uiteindelijke foto eruit moest gaan zien. De camera's werden steeds eenvoudiger in gebruik en fotografie werd algemeen goed. Toen de digitale fotografie z'n intrede deed, was het hek helemaal van de dam. Waar je vroeger nog beperkt was in het aantal foto's, kon je nu opeens onbeperkt fotograferen en je moest wel een enorme oen zijn, wil er niet een goede opname tussen zitten.
Wat ik bedoel is, dat in tegenstelling tot mijn beroep heb je gelukkig nog uitvoerende artiesten nodig. Tot heden, want zodra mijn voormalige beroep samen gaat vallen met ai-muziek, dan heb je straks concerten met avatars op het toneel.
Een verrijking of verarming? Ik weet het niet. Ergens ben ik wel nieuwsgierig.
Maar nu hoef je niet aan te passen aan wat gratis beschikbaar is. Als je een variatie nodig hebt kan je die door een AI laten maken zonder dat je tekentalent nodig hebt.

Geen supergrote revolutie, maar zeer zeker wel een handige tool om te hebben.
Dat is dit dus niet. Gaat meer om specifieke geluiden dus een extra synthesizer in ie gereedschapskoffer. Hele muziek genereren klinkt vooralsnog ontzettend bagger.
Luister maar eens naar de "kwaliteit" van zulke AI gegenereerde songs https://www.aisongcontest.com/the-2023-finalists
Heb er zo een paar aangeklikt, wat een repetitieve meuk. Leuk om te horen dat melodietjes en baselines enzo wel aardig doorhebben, maar het is duidelijk dat ze geen creativiteit hebben, letterlijk een algoritme van geluidjes ...
Nou, maak je maar geen zorgen, heb er net mee zitten spelen en er komt enkel herrie uit.
Alles behalve generiek maar ook alles behalve smakelijk.
Misschien ligt het aan mijn prompt voor generation, maar die heb ik gewoon uit hun eigen docs overgenomen. ;)

Als je daar mee moet concurreren dan zit dat wel OK.

Zal ongetwijfeld ook meer een proof of concept zijn en het model zelf is waarschijnlijk ook niet wat het kan zijn, maar dit dus.
De grap is dat stable diffusion (zoals gebruikt voor image generation) ook vooral ruis produceert in eerste instantie. Stable diffusion (en dus ook riffusion) werken door die ruis te distileren naar iets bruikbaars. Het gaat dus om itereren en verfijnen, al dan niet door geoptimaliseerde (al dan niet zelf-) getrainde modellen te gebruiken.

Al mijn cover art maak ik middels stable diffusion inmiddels en gezien dat in een jaar tijd van meh kwaliteit en lage resoluties naar prijswinnend op hi-res is gegaan weet ik vrij zeker dat er muzikanten zullen zijn die deze techniek zullen gebruiken. Sterker nog, ik sluit niet uit dat ik die zelf zal gebruiken.
Het hangt denk ik heel erg van de functie van de muziek. Als je achtergrondmuziek wilt maken om een podcast wat op te leuken kan dat prima met AI. Wil je muziek met emoties dan heb je gewoon mensen nodig. Al denk ik dat een mix van AI en mensen hele interessante dingen kan opleveren. Toen de eerste synthesizers beschikbaar kwamen waren mensen ook niet altijd even positief, zeker niet toen er ook nog sequencers en drum machines kwamen die automatisch ritmes en melodieen konden maken. Maar mits goed toegepast kan dat hele goede muziek opleveren.
Achtergrondmuziek is juist vaak geschreven door zeer geschoolde musici en 'emotionele' popmuziek word vaak gemaakt door niet-geschoolde muzikanten.

Ik denk dat het moeilijker is om goede achtergrondmuziek te schrijven dan een gemiddelde Spotify hit.

Verder met je eens dat AI interessant kan zijn, maar ipv van instrument (synthesizer), is het nu de 'bedenker' van de muziek geworden. Dit betekend dat we naast interessante dingen helaas ook zullen worden doodgegooid met enorme bulten crap.
Het gros van de muziek in de hitlijsten heden ten dage vind ik al ontzettend generiek
Ik heb niet veel kennis van de discussie die hierover gaande is maar dit had ik nog niet overwogen. Het makkelijker maken van het produceren van generieke hit muziek zou kunnen betekenen dat er zo veel concurrentie komt in het genre "generiek hit nummer" dat de reward voor dit soort nummers omlaag gaat.

Dit zou een mooie uitkomst zijn omdat AI ontwikkelingen minder mainstream artiesten dan minder hard raken. Maar inderdaad, de tijd zal het leren.
. Het gros van de muziek in de hitlijsten heden ten dage vind ik al ontzettend generiek
Hitlijsten zijn altijd generiek, dat is al generaties zo, wat werkt word achterna gedaan.
Je kunt jezelf ook dit vragen;
Heb jij zelf een instrument ontwikkeld?
Heb jij zelf een muziekgenre uitgevonden?
Welke unieke werken heb je zelf uitgebracht?

Maak je geen zorgen, 99.999% van alle muzikanten die ooit geleefd hebben hebben niets origineels gedaan.
Dus ik verwacht niet dat er echt iets verloren gaat
99.999% van alle muzikanten die ooit geleefd hebben hebben niets origineels gedaan.
Je snapt dus niet hoe componeren werkt. Het idee is niet om alles van de grond af aan zelf te doen he? Daar heb je andere specialisten voor. Ik componeer bijvoorbeeld en doe sound design door eigen patches voor synths te creeren (dus geen presets). Mixen en masteren vind ik saai dus dat doet iemand anders. Maakt me dat 'niet origineel'? Tuurlijk niet. De compositie is origineel.

Of vind je dat een fotograaf ook niets origineels maakt doordat ie (vermoedelijk) niet zelf de camera en de lenzen heeft gebouwt, of gebruik maakt van autofocus om maar iets te noemen?
Ik denk dat OLED hier wel een punt te pakken heeft.

Ik componeer ook maar maak er tevens een grote sport van door alle geluiden zelf 'een soort van' te maken.

VST's zijn bijvoorbeeld leuk en de patches zijn handig maar wel door iemand gemaakt. Dit heeft mij altijd bezig gehouden. Ik besteed meer tijd aan het maken van het geluid dan het componeren zelf. Het maken van muziek is vooral tijdverdrijf in mijn geval en heb al heel lang geen project meer afgemaakt (daar heeft de jongste telg van het gezin een mooi stokje voor gestoken :+ ).

Het is verschrikkelijk veel werk om zelf iets van geluid te maken. Zelfs ogenschijnlijk simpele dingen als een gate instellen zijn soms een ramp. Ik ben blij wanneer het klinkt zoals ik het wil en heb er dan weer een paar uur opzitten. Geen noot in FL Studio vastgelegd maar wel een paar mooie presets gemaakt voor een eventuele volgende keer (en geloof mij, die volgende keer komt nooit omdat ik dan weer wat anders maak). :D
Ik snap je sentiment 100% en ben zelf ook onevenredig meer tijd bezig met sound design dan componeren. Ik bouw van die hallmark kaarten die geluid maken om tot contactmicrofoon om maar iets te noemen (meestal hou ik het wat eenvoudiger hoor).

Tegelijk ben ik het volstrekt oneens met de stelling dat om origineel te zijn elk element zelf bedacht hoort te zijn:

Om een opname te maken is met de huidige stand van techniek stroom een vereiste. Dat is een natuurkundig fenomeen inherent aan wat we weten over het universum. Volgens de logica die ik haal uit de comment van OLED is derhalve geen enkel muziekstuk als het niet ter plekke gespeeld wordt op ter plekke uitgevonden instrumenten. Die instrumenten mogen niet electronisch versterkt zijn, nog in een concertzaal ten gehore gebracht worden die geschikt is voor onversterkte muziek (want ook die zijn reeds uitgevonden).
Een hele late reactie, sorrie. :)

Het is een stellige stelling maar geschreven door iemand die er zelf veel tijd in steekt. Hij vindt het blijkbaar belangrijk en dat is natuurlijk helemaal oké. Net zoals ik er veel tijd in steek.

Zelf zie ik het meer als een opvatting waar veel creativiteit (en tijd) in zit. Wanneer ben je tevreden. Wanneer je iets hebt gecreëerd wat een ander onmogelijk ook kan maken of ben je tevreden wanneer je de realiteit hebt nagebootst? En zelfs in dat laatste zit nog zoveel ruimte voor filosofie.

Sinds mijn reactie heb ik wat met AI en geluid zitten klooien en het is dat het mij aan tijd ontbreekt maar ik heb er echt wel veel lol mee. Heerlijk tijdverdrijf en ik kan mij zo voorstellen dat er een goed aantal mensen een prima centje mee zullen verdienen. :)
Het is geen verwijt, alleen een constatering.
“Mixen en masteren vind ik saai dus dat doet iemand anders.”
Misschien vind ik componeren juist saai en laat ik dat iemand anders doen?

“Maak me een muziekstuk voor een bruiloft waarbij een van de ouders net overleden is, het moet een lente thema hebben en iets vrolijks zijn en een koor moet het kunnen meezingen. Maak me 5 versies hiervan en laat ze vanavond in verschillende uitvoeringen horen als ik in bad zit”

Voor mij maakt het dus ook niet uit of een mens dit voor me doet of een AI, als het resultaat minstens even goed is als een bovengemiddeld mens!
"Maak me ....". Kun je dat zo zeggen in het Nederlands?
Waarom moet je genres uitvinden en instrumenten kunnen bouwen om een originele componist te zijn? Dat is echt een comopleet uit de lucht gegrepen argument wat niks met componeren heeft te maken.

Bach was ook maar onderdeel van zijn tijdsgeest, en bouwde ook zijn instrumenten niet zelf. Of hoort hij ook bij die 99,9999%

Ik kan zo 1000 tracks uit voorraad halen die niet in het verste lijken op wat jij ooit eerder hebt gehoord, maar die wil jij waarschijnlijk niet consumeren omdat het niet lijkt op wat jij ooit eerder hebt gehoord.

Wellicht moet je als luisteraar eens te rade gaan of het niet jezelf is die kiest voor niet originele content, en daar je foutieve perceptie over muzikanten uit is ontstaan.
Het splitsen van audio tracks in verschillende kanalen ben ik wel benieuwd naar.

Even getest en werkt best aardig, de vocal kanaal los is niet zo best, maar audio track zonder vocal klinkt best goed met default settings

[Reactie gewijzigd door bh808303 op 22 juli 2024 13:30]

Als dat goed werkt kan dat wel heel interessant zijn om partijen uit te zoeken, of om mee te spelen zonder originele track om een nummer te leren.
Of om karaoke tracks te maken.
En voor re-mixen, maar dat is niet mijn ding..
Dat kan allemaal inderdaad. Audacity en andere DAW’s bouwen het nu in maar de laatste jaren is die ontwikkeling al bezig op online websites waar je muziek kan uploaden en opsplitsen. (Googlen op STEM separator en de top 10 resultaten kunnen het kunstje allemaal prima tot erg goed).

Op YouTube is een video te vinden van hoe Armin de techniek gebruikt voor zijn 2023 jaarmix. Alle tracks eerst splitsen en daarna van soms 3-4 nummers tegelijk een paar sporen door elkaar spelen waardoor er een hele nieuwe manier van mixen is ontstaan.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 13:30]

Semi off-topic: ik gebruik Virtual DJ voor de hobby en daarin zit de "stems"-functie die ook zoiets doet.
Ik blijf me verbazen over de kwaliteit van vooral de acapella's die dat oplevert.

Virtual DJ is gratis ("zolang je het met toetsenbord en muis gebruikt") maar vziw. is die stems-functionaliteit
ook gewoon beschikbaar.
Ik ken stems van NI Traktor, dat gebruik ik. Maar wist net dat ik ook zelf stems kon maken, goed tip :)
ooh.. podcasts transcriberen.. een plat tekstbestand met alle 300+ afleveringen , dat biedt mogelijkheden voor het automatiseren van de Tweakers-podcast analyse statistieken! Aantal keren aan tafel, aantal keren woordgrapjes of bruggetjes van Arnoud, aantal DOEIII's van Wout...
Mja ik schat dat je over 20 jaar nog niet eens meer in de gaten krijgt als je internet uit valt , en dat je computer je media via een AI tijdelijk kan laten vervullen, of je brengt je Smartphone mee als je gaat kamperen, en vraagt aan je telefoon's Disney + app " hey genereer me eens een 3 uur durende film van en zombie starwars " of vraagt hoe de laatste cd van metallica 72 seasons zou klinken in 1986 met Dave Mustaine als lead guitarist :9

[Reactie gewijzigd door Metallize op 22 juli 2024 13:30]

Oke, AI voor b.v. transcriptie van podcasts vind ik op zich wel oke net als dan het verwijderen van achtergrond ruis. Alhoewel het nadeel vaak is met achtergrondruis verwijderen dat ook teveel andere z.n. bijgeluiden worden verwijderd.

Waar ik nu absoluut een tegenstander van ben is het maken van muziek met AI, dat vind ik dus echt knap waardeloos. Heeft misschien wel ermee te maken dat ik zelf muzikant ben en alleen eigenlijk het liefste gewoon live speel op de toetsen. Dat is muziek maken maar iets wat door AI is gegenereerd heeft niets meer met muziek te maken.
Weer een stap naar de perfecte wereld 8)7

Op dit item kan niet meer gereageerd worden.