W minioną środę uruchomiono Udio, usługę generowania muzyki AI, która umożliwia tworzenie muzyki za pomocą monitów tekstowych, a nawet dodawanie takich elementów jak wokale i teksty piosenek. Usługa, po kilku miesiącach zamkniętej bety, jest dziełem zespołu złożonego z byłych pracowników Google DeepMind. Udio wzbudziło duże zainteresowanie, otrzymując 10 milionów dolarów finansowania zalążkowego od znanych inwestorów i osobistości, w tym muzyków will.i.am i Common.
Co ciekawe, recenzenci, którzy mieli okazję przetestować Udio przed oficjalnym uruchomieniem, zgodnie podkreślali bardzo wysoką jakość generowanej muzyki AI, zwłaszcza pod względem realizmu, przypominającego koncerty na żywo, oraz harmonii wokali. Ponadto, uproszczenie procesu tworzenia muzyki sugeruje, że każdy może zostać kompozytorem, co otwiera możliwości rewolucyjnych zmian w sposobie tworzenia i konsumowania muzyki w przyszłości. Tezę tę potwierdzają liczne artykuły na ten temat.
Ten rozwój jest kolejnym przykładem trendu w dziedzinie AI, który ma na celu demokratyzację kreatywnej ekspresji, ułatwiając dostęp do narzędzi artystycznych dla szerszej publiczności. Jednak wraz z dyskusją o możliwościach płynących z wydajności i przyjaznego interfejsu użytkownika, pojawiają się również pytania, które należy rozważyć.
Czy takie narzędzia mogą odtworzyć złożoność znaczeń i głębię emocji, które twórcy ludzcy wkładają w swoje dzieła? To pytanie jest kluczowe dla zrozumienia zarówno potencjału, jak i ograniczeń AI w przyszłości branży kreatywnej.
Muzyk HAINBACH w swoim filmie na YouTube "How Textures Tell a Story" zabiera widzów w podróż po spokojnym parku i bujnej naturze pełnej trawy i drzew, pokazując, jak te nieprzewidywalne dźwięki elektroniczne są odbierane przez słuchacza w zależności od miejsca, w którym się znajduje, nadając im inne znaczenia i historie. Dla niego Lyra-8 to instrument, który pozwala na stworzenie unikalnej narracji dopasowanej do sensorycznego i kulturowego kontekstu dźwięku.
Producent Soma opisuje Lyra-8 jako syntezator "organiczny", ponieważ zamiast tradycyjnego układu klawiatury posiada powierzchnię dotykową o pojemnościowej wrażliwości, reagującą na interakcje z użytkownikiem, takie jak dotyk, wilgotność i temperatura. Tworzy to bardziej intymne i fizycznie angażujące środowisko, pogłębiając interakcję i czyniąc proces tworzenia dźwięku niezwykle osobistym i badawczym. A to z kolei stanowi przykład świata bogatych i wielowymiarowych doświadczeń dźwiękowych, które AI wciąż nie potrafi wiarygodnie odtworzyć.
Świat jest już przesycony dźwiękami "ping", "bip" i fragmentami muzycznymi. W większości czasu spędzamy go w środowisku cyfrowym, przed ekranami monitorów i urządzeń, które są przeładowane dźwiękami pozbawionymi głębi i kontekstu. Dlatego wiadomość o pojawieniu się kolejnej nowej usługi generowania muzyki AI jest równie ekscytująca, co niepokojąca. Uważamy, że technologie AI, takie jak Udio, powinny nie tylko naśladować ludzkie zdolności muzyczne, ale także dążyć do zrozumienia i odzwierciedlania złożonych struktur emocjonalnych i kulturowych, które leżą u podstaw ludzkiej kreatywności.
Antropolog kultury Michael Powell w swojej pracy "The Sound of Friction" podkreśla, że "wsłuchanie się" jest niezwykle skuteczną techniką rozumienia ludzkich doświadczeń i kulturowych aspektów interakcji. Z jego badań można wyciągnąć kilka wniosków, które warto rozważyć dla firm tworzących przyszłe usługi generowania muzyki AI.
Po pierwsze, odpowiednie może być zastosowanie interaktywnej pętli sprzężenia zwrotnego. Można rozważyć integrację systemu, który naśladuje iteracyjny proces etnograficznych wywiadów, w którym AI zadaje kolejne pytania w odpowiedzi na podstawowe dane tekstowe lub doprecyzowuje i modyfikuje generowaną muzykę w oparciu o wstępne reakcje użytkownika.
Po drugie, można spróbować dostosować się do subtelnej analizy emocjonalnego zabarwienia lub odniesień kulturowych tkwiących w podstawowych danych tekstowych, aby dostarczać spersonalizowane wyniki.
Po trzecie, podobnie jak etnograf, który z każdym kolejnym etapem badań zyskuje głębsze zrozumienie, tak i system AI mógłby rozszerzać swoją wiedzę na temat preferencji użytkowników i niuansów kulturowych poprzez rozbudowę historii interakcji.
Usługi AI, takie jak Udio, stanowią ważny krok naprzód w zakresie zwiększania dostępności tworzenia muzyki. Jednocześnie jednak skłaniają do refleksji nad tym, jak wypełnić lukę między istotą kreatywności a związkami, jakie muzyka może budować z subtelnymi doświadczeniami ludzkimi. Ta wymiana zdań między technologią a tradycją, innowacją a głębią, zdefiniuje przyszły kierunek muzyki w erze cyfrowej. Dlatego warto zastanowić się nie tylko nad tym, w jaki sposób powstaje dźwięk, ale również nad tym, jak jest on postrzegany i ceniony w naszym społeczeństwie. Jest to być może najlepszy sposób, aby nieco spowolnić nadejście czasów, w których "twórczość ludzka" stanie się etykietą luksusową.
Źródła
Komentarze0