Forside * Nyheder

Sådan ser Google fremtiden for AI-musik

-
(Foto: AI-genereret med Imagine.art)

En af Googles AI-divisioner, DeepMind, har præsenteret en ny model, der kan omforme selv den mindst ekspressive brummen til et helt symfoniorkester.

De sidste 100 års musikhistorie har båret præg af især én karakteristik: Det bliver hele tiden nemmere og nemmere at lave professionelt lydende musik, selv for nybegyndere og amatører.

I 1960’erne og 1970’erne gjorde adgangen til billige musikinstrumenter og lanceringen af flerspors-båndoptagere til hjemmebrug det muligt for mange flere at lave indspilninger af sange og instrumentalspor. Et væld af nye måder at lære at spille på gjorde det også nemmere at komme til.

Annonce:

I 1980’erne dukkede digitale instrumenter og MIDI så op – og ikke mindst muligheden for at bruge computere til at styre synthesizere og samplere via MIDI-forbindelser…eller slet og ret bruge computeren til at lave musik på med de tidlige trackere. Sidstnævnte blev i 1990’erne langt mere professionelle via f.eks. FruityLoops, der stadig i dag anvendes under navnet FL Studio.

Sådan ser et af Lyrias interfaces ud (Foto: Google)

Og netop loops og samples man kunne købe på discs eller downloade via nettet gjorde det muligt at komme tæt på lyden af en ægte trommeslager, også selv om en sådan aldrig nogensinde havde været på besøg i studiet eller ens hjem. Og nu er vi så klar til det næste store spring i form af AI-musikværktøjer.

Nyn en saxofon-solo

Vi har naturligvis allerede set, hvordan man kan træne AI’er til at synge som forskellige kunstnere. Men hvad nu, hvis man gerne selv vil udfolde sig kreativt, men ikke har et hak forstand på tangenter eller strenge eller udstyr? Det har Google DeepMind nu en løsning på. Den hedder Lyria og er en ny musikmodel baseret på firmaets AI-teknologi.

Lyria, som Google har præsenteret i dag, kan tage forskellige inputs og omforme dem til den musikalske udfoldelse, du har en idé til. Hvis du ikke kan spille saxofon, men gerne vil have en saxofon-solo, kan du blot nynne den til AI’en, der så laver den om til noget, der lyder ret tæt på en rigtig saxofonist. Som videoerne herunder viser, kan du endda gøre det samme med et helt symfoni-orkester. Du behøver ikke nynne, du kan også bare beskrive musikken med ord.

For folk, der allerede kan spille og er vant til at arbejde med f.eks. MIDI-keyboards, kan Lyria omforme noget, du allerede har indspillet til et andet instrument. Det kan allerede gøres i de DAW’er (Digital Audio Workstations), som de fleste musikere arbejder med, men ikke så nemt og enkelt, som det sker her.

”Musik-inkubator”

Ud over Lyria har Google DeepMind også annonceret et samarbejde med kollegerne ovre hos YouTube, baseret på Lyria-teknologien. Hos YouTube har man samlet et hold af musikere såsom John Legend, Sia, T-Pain, Demi Lovato og flere andre, der skal prøve at arbejde med Lyria i projektet Dream Track. Idéen er at disse kunstnere skaber baggrundsmusik til YouTube Shorts-videoer med AI-værktøjet.

Dream Track er en del af et større initiativ, som YouTube og Google bredt kalder for Music AI Experiments. Det ledes af, hvad Google kalder en ”musik-inkubator” i den gode startup-jargon. Kunstnerne nævnt ovenfor er en del af dette, og det er naturligvis også forbundet til de muligheder for at lave musik med andres stemmer og stilarter, vi tidligere har skrevet om.

Det er værd at nævne, at al musikken, der kommer ud af inkubatoren og anvender Lyria-teknologien får et auditivt vandmærke ligesom det sker med billeder genereret med Googles Imagen-model. Vandmærke-teknologien på begge dele går under navnet SynthID.

Annonce:
Her på recordere.dk elsker vi en god dialog. Blot det holdes i en pæn tone, uden personhetz og indenfor emnet. Tak fordi du bidrager positivt. Kommentarer modereres.