Sztuczna inteligencja podbija Spotify dzięki viralowym hitom i wywołuje kryzys w branży muzycznej.

Sztuczna inteligencja (AI) podbiła już słowo pisane i obraz cyfrowy. Teraz wyostrza swój słuch i zmierza ku kolejnemu etapowi: muzyce . Niepokojące jest to, że choć algorytmy te łączą nuty z matematyczną precyzją , osiągają coś tak przyziemnego, jak tworzenie akordów zdolnych poruszyć słuchacza.
Ucho ludzkie coraz trudniej odróżnia dotyk od sztucznego . Z tego powodu wiele platform promuje wyimaginowanych artystów, których śledzą tysiące fanów. Czy jesteśmy świadkami narodzin nowej ery w muzyce, czy raczej schyłku kompozytorów klasycznych?
Tak zwane modele dyfuzyjne wywierają ogromny wpływ na dziedziny kreatywne. Przekształcając losowy szum w spójne wzorce, mogą generować melodie lub klipy wideo sterowane podpowiedziami tekstowymi lub innymi danymi wejściowymi.
W styczniu 2025 roku tylko co dziesiąty utwór w Deezerze był dziełem sztucznej inteligencji. Tempo twórcze jednak przyspieszyło i obecnie w serwisie znajduje się około 20 000 utworów , prawie dwa razy więcej niż zaledwie sześć miesięcy temu. Jeśli nic nie powstrzyma tego trendu, za dwa lata maszyny mogą zdominować 70% katalogu muzycznego.
The Velvet Sundown, zespół grający muzykę syntetyczną, który ma już na koncie 3 albumy.
Jednym z ślepych punktów tego trendu jest brak przejrzystości . Nie ma systemu, który pozwoliłby na pewno stwierdzić, czy utwór odtwarzany na liście odtwarzania został stworzony przez robota, czy człowieka.
Odpowiedzialność za badanie pochodzenia każdej piosenki nie powinna spoczywać na słuchaczu: dostęp do informacji o twórcach powinien być łatwy, bez zmuszania kogokolwiek do zostania muzycznym detektywem.
Kontrowersje wybuchły, gdy ujawniono, że Velvet Sundown, zespół, który w ciągu kilku tygodni stał się viralem, z ponad milionem odtworzeń na Spotify , nie istnieje. Wszystko, od ich piosenek, przez zdjęcia promocyjne, po historię, zostało stworzone przez algorytm.
Odcinek wywołał debatę na temat autentyczności w erze cyfrowej. Eksperci branży muzycznej ostrzegają, że platformy streamingowe powinny być prawnie zobowiązane do oznaczania utworów generowanych przez sztuczną inteligencję , aby słuchacze dokładnie wiedzieli, czego słuchają.
Po tym, jak w kilku specjalistycznych magazynach nazwano ich przełomowym zespołem i przeprowadzono kilka wywiadów z wokalistą, odkryto, z braku przekonujących informacji, że Velvet Sundown to eksperyment typu „kopiuj-wklej” . Aby uniknąć nieporozumień, Spotify określił ich w biogramie jako „muzykę syntetyczną”.
Ten wpływ nie tylko wstrząsa fundamentami twórczości, ale także zmusza nas do ponownego przemyślenia takich pojęć jak autorstwo, oryginalność i prawa własności intelektualnej . Pytanie nie brzmi już, czy sztuczna inteligencja potrafi tworzyć sztukę, ale raczej, jak będziemy z nią współistnieć w kreatywnych krajobrazach przyszłości.
Powszechnie wiadomo, że Spotify nie zawsze jest skłonny do oznaczania muzyki jako generowanej przez sztuczną inteligencję. Firma była też kilkakrotnie krytykowana za rozpowszechnianie playlist zawierających muzykę „artystów widmo”.
Wśród najbardziej podejrzanych przypadków znajduje się Jet Fuel & Ginger Ales, zespół, który szczyci się odznaką „zweryfikowanego artysty” i ma ponad 414 000 słuchaczy miesięcznie . Jednak nie ma śladu ich istnienia poza platformą, co podsyca podejrzenia, że jest to produkt laboratoryjny.
To nie jedyny przypadek. Zespoły takie jak Awake Past 3 i Gutter Grinders również wzbudziły zdziwienie: mają tysiące fanów, a ich głosy brzmią dziwnie sztucznie, ich logo wyglądają jak wyjęte prosto z szablonu, a do tego nie ma żadnych danych osobowych, które mogłyby cokolwiek podpowiedzieć.
udio, jedna z platform umożliwiających tworzenie piosenek bez żadnej wiedzy o muzyce.
Branża muzyczna właśnie rozpoczęła ofensywę prawną przeciwko Suno i Udio, dwóm najbardziej innowacyjnym platformom do tworzenia muzyki z wykorzystaniem sztucznej inteligencji. Konsorcjum wytwórni płytowych złożyło pozew do federalnego sądu USA, oskarżając je o naruszenie praw autorskich na skalę, którą określają jako „masową”.
Dlatego też Sony Music, Warner Music i Universal Music, a także inni skarżący w RIAA, uważają za prawdopodobne, że „dźwięki generowane maszynowo” mogą konkurować z dźwiękami rzeczywiście stworzonymi.
Branża muzyczna wciąż nosi ślady po Napsterze, a rosnąca popularność muzyki generowanej przez sztuczną inteligencję ponownie budzi niepokój. Tym razem zagrożenie nie pochodzi od piractwa, ale od nowego rodzaju konkurencji: utworów tworzonych przez platformy takie jak Suno czy Udio, które mogą brzmieć niebezpiecznie podobnie do utworów chronionych prawem autorskim, ale nie płacą nikomu tantiem .
W tym scenariuszu tradycyjne modele biznesowe stają przed dylematem: jak chronić wartość treści, gdy ich tworzenie nie zależy już od artysty, lecz od algorytmu.
Choć powszechne wykorzystanie tych aplikacji obniżyłoby koszty produkcji — każdy mógłby odnieść sukces jako artysta — sednem debaty jest realny problem: trwałość rynku i docenienie dzieł artystycznych.
W nasyconym wszechświecie, w którym każdego dnia pojawia się 100 000 nowych piosenek, pojawienie się tych platform stawia przed nami nowe wyzwanie: w jaki sposób możemy wyróżnić się spośród głosów, które nie oddychają, ale brzmią coraz bardziej ludzko?
„Nasza technologia ma charakter rewolucyjny; została zaprojektowana tak, aby generować zupełnie nowe rezultaty, a nie zapamiętywać i odtwarzać istniejące treści. Dlatego nie zezwalamy na instrukcje użytkownika odnoszące się do konkretnych artystów” – powiedział w oświadczeniu Mikey Schulman, dyrektor generalny Suno.
Suno, drugi konkurent w wyścigu muzyki cyfrowej.
Wyniki przedstawione przez Udio i Suno prowadzą do śmiałego wniosku: coraz większa grupa odbiorców nie przejmuje się tym, czy muzyka, której słucha, została stworzona ręcznie, czy za pomocą aplikacji .
Na tych platformach niektóre profile funkcjonują już jako prawdziwe strony artystów, z tysiącami obserwujących i utworami generowanymi w całości przez sztuczną inteligencję, którym towarzyszą fikcyjne portrety również wygenerowane przez algorytmy.
Ale za tymi projektami nie stoją tradycyjni muzycy, lecz ludzie, którzy opanowali strategie marketingowe, dobierają style i tworzą utwory, których nie sposób przypisać jednemu autorowi. W tym nowym ekosystemie tradycyjne pojęcie autorstwa ulega zatarciu, a granica między tworzeniem a reprodukcją zaczyna się zacierać.
Metoda stosowana przez Suno i Udio jest podobna do sposobu uczenia się ludzi: poprzez przyswajanie danych. Ich trening opiera się na analizie tysięcy utworów z różnych gatunków, stylów i epok .
W tym wszechświecie dźwięków wychwytuje wzorce, struktury i harmonie, a następnie przekształca je, tworząc nowe kompozycje. W gruncie rzeczy nie jest to mechanizm tak odmienny od ludzkiego procesu przyswajania poprzez słuchanie, porównywanie i rekonstruowanie tego, co już istnieje. Różnica polega na tym, że w jego przypadku robi to na niezwykłą skalę i z niezwykłą szybkością.
W przeciwieństwie do zespołu, który komponuje warstwowo – najpierw fortepian, potem wokal, a potem perkusja – model dyfuzji nie opiera się na procesie sekwencyjnym. Zamiast budować utwór kawałek po kawałku, generuje wszystkie elementy utworu jednocześnie.
Robi to poprzez logikę wizualną: przekłada złożoność dźwięku na przebieg falowy, czyli graficzną reprezentację, która pokazuje amplitudę dźwięku w funkcji czasu. Ponieważ te kształty – lub ich warianty, takie jak spektrogramy – można przetwarzać jako obrazy, stają się idealnym materiałem wyjściowym dla modeli AI.
System jest trenowany na milionach fragmentów muzycznych oznaczonych opisami, a następnie działa w odwrotnej kolejności: zaczyna od losowego szumu i, zgodnie z instrukcjami użytkownika, „maluje” nową piosenkę, aż do momentu, gdy ostateczna forma fali dźwiękowej nabierze sensu. W ten sposób to, co wydaje się spontaniczną sztuką, jest w rzeczywistości statystyczną rekonstrukcją sterowaną tekstem.
Clarin