Byungchae Ryan Son

La texture del suono è importante.

  • Lingua di scrittura: Coreana
  • Paese di riferimento: Tutti i paesicountry-flag
  • Altro

Creato: 2024-05-21

Creato: 2024-05-21 12:44

Mercoledì scorso è stato lanciato Udio, un servizio di generazione musicale AI in grado di creare musica tramite prompt di testo e aggiungere elementi come voce e testi. Il servizio, che ha completato diversi mesi di beta privata, è il risultato del lavoro di un team di ex dipendenti di Google DeepMind. Udio ha attirato grande attenzione grazie a un finanziamento seed di 10 milioni di dollari da parte di investitori e personalità di spicco come il musicista will.i.am e Common.


Un aspetto interessante è che i revisori che hanno avuto la possibilità di utilizzare Udio in anteprima, supportati dal team, hanno riscontrato un'esperienza di generazione musicale AI di altissimo livello, in particolare per quanto riguarda la sensazione di presenza, come in un concerto dal vivo, e l'armonia vocale. Inoltre, la semplificazione del processo di creazione musicale suggerisce la possibilità che chiunque possa diventare un compositore, aprendo la strada a una rivoluzione nel modo in cui la musica viene creata e consumata, come si evince da diversi articoli facilmente reperibili.

La texture del suono è importante.

Questi progressi rappresentano un ulteriore esempio della tendenza legata all'AI che mira a democratizzare l'espressione creativa, rendendo gli strumenti di creazione artistica accessibili a un numero sempre maggiore di persone. Tuttavia, oltre alle discussioni sulle potenzialità derivanti dall'efficienza e dall'interfaccia user-friendly, è necessario porre alcune domande.


Questi strumenti sono in grado di riprodurre la complessità di significato e la profondità emotiva che i creatori umani instillano nelle loro opere? Questa domanda è fondamentale per comprendere le potenzialità e i limiti dell'AI nel futuro del settore creativo.



Il musicista HAINBACH, nel suo contenuto YouTube "How Textures Tell a Story", guida l'ascoltatore in un viaggio attraverso un parco tranquillo e una natura rigogliosa, mostrando come questi suoni elettronici incontrollati possano essere percepiti in modo diverso e raccontare storie differenti a seconda del luogo in cui ci si trova. Per lui, il Lyra-8 è uno strumento che crea una narrativa unica in base al contesto sensoriale e culturale del suono.


Il produttore Soma descrive il Lyra-8 come un sintetizzatore "organico", perché, a differenza dei tradizionali layout di tastiera, utilizza una superficie tattile capacitiva che reagisce alle caratteristiche fisiche dell'utente, come la sensibilità al tocco, l'umidità e la temperatura. Questo crea un ambiente più intimo e coinvolgente dal punto di vista fisico, aumentando la profondità dell'interazione e rendendo l'esperienza di creazione del suono estremamente personale ed esplorativa. Questo è un esempio di un mondo di esperienze sonore ricche e multidimensionali che l'AI non è ancora in grado di riprodurre in modo convincente.


Il mondo è già sovraccarico di bip, beep e frammenti musicali. Trascorriamo la maggior parte del tempo immersi negli schermi dei nostri monitor e dispositivi, bombardati da suoni privi di profondità o di connessioni contestuali. Pertanto, la notizia del lancio di un nuovo servizio di generazione musicale AI, come Udio, è allo stesso tempo affascinante e preoccupante. In sostanza, crediamo che tecnologie come Udio, basate sull'AI, debbano non solo imitare le capacità musicali umane, ma anche comprendere e riflettere la complessa struttura emotiva e culturale che sostiene la creatività umana.

La texture del suono è importante.

L'antropologo culturale Michael Powell, nel suo saggio "The Sound of Friction", ha sottolineato come l'ascolto sia una tecnica estremamente efficace per comprendere l'esperienza umana e gli elementi di interazione culturale. Dal suo lavoro, si possono trarre alcuni spunti che le aziende che sviluppano servizi di generazione musicale AI dovrebbero considerare.


In primo luogo, potrebbe essere utile un loop di feedback interattivo. Ad esempio, si potrebbe prendere in considerazione l'integrazione di un sistema che, in base all'input testuale iniziale, ponga domande di approfondimento all'AI o che perfezioni e adatti la musica generata in base alle prime reazioni dell'utente, ispirandosi al processo iterativo delle interviste etnografiche.


In secondo luogo, si potrebbe tentare di fornire risultati personalizzati, analizzando in modo sottile il tono emotivo e le sfumature culturali legate ai riferimenti presenti nel testo di input iniziale.


In terzo luogo, proprio come un etnografo approfondisce le sue conoscenze con il progredire della ricerca, si potrebbe pensare di progettare un sistema in cui l'AI ampli le proprie conoscenze sulle preferenze degli utenti e sulle sfumature culturali, integrando una sorta di cronologia delle conversazioni.


AI come Udio rappresentano un passo avanti significativo per quanto riguarda l'accessibilità alla creazione musicale. Tuttavia, ci spingono anche a riflettere su come colmare il divario tra l'essenza della creatività e la connessione con le sottili esperienze umane che la musica può offrire. Questo dialogo tra tecnologia e tradizione, innovazione e profondità, definirà la traiettoria futura della musica nell'era digitale. Pertanto, è fondamentale considerare non solo il modo in cui viene creato il suono, ma anche come viene percepito e valorizzato nella nostra società. Riflettere su questo aspetto potrebbe rappresentare il miglior modo per rallentare, anche solo di poco, l'arrivo di un'epoca in cui le "creazioni umane" saranno etichettate come prodotti di lusso.


Riferimenti


Commenti0