W szponach algorytmów, czyli jak sztuczna inteligencja zabija muzykę na naszych oczach
- Kategoria: Felietony
- Tomasz Karasiński
W 1997 roku grupa Radiohead wydała album "OK Computer". Płyta zaskoczyła nie tylko wiernych fanów angielskiego zespołu, ale wszystkich, którzy mieli okazję jej posłuchać. Porusza bowiem temat technologii, alienacji i niepokojów społecznych w szybko zmieniającym się świecie. Album jest interpretowany jako komentarz na temat dehumanizującego wpływu technologii na nasze funkcjonowanie i zagrożeń, które po blisko trzech dekadach wciąż brzmią zaskakująco trafnie. Teksty, śpiewane często monotonnym, zmęczonym głosem, przewidują ponurą, nieuniknioną przyszłość, w której ludzie zatracą się w wirtualnym świecie. Pokazują przejście od urządzeń, które nam pomagają, do całkowitego uzależnienia od cyfrowego świata. Album znany jest z niekonwencjonalnych technik produkcji i brzmienia, które dodatkowo wzmacnia poczucie niepokoju i dezorientacji. Często wracam do tej płyty, jednak później, kiedy jestem zajęty codziennymi sprawami, algorytm serwisu streamingowego wybiera kolejne podpowiedzi, a ja mam wrażenie, jakbym właśnie przeniósł się do świata opisanego przez Radiohead. Po kwadransie mam déjà vu - wszystko brzmi znajomo, podobnie, jakby zostało ułożone według tego samego wzorca. Rozwijam playlistę i nie kojarzę ani jednego wykonawcy. I wtedy pojawia się pytanie, które jeszcze kilka lat temu brzmiałoby jak science fiction - czy to grają ludzie, czy słyszę produkty wytworzone przez algorytmy, biblioteki dźwięków i firmy, których nazwy nic nikomu nie mówią, za to wiedzą o nas więcej, niż moglibyśmy sobie wyobrazić w najgorszych koszmarach? Jeśli streaming miał odkrywać przed nami nowe światy, to czemu tak często kończymy w jednym korytarzu, gdzie z głośników monotonnie cieknie to samo, tylko pod inną nazwą? Czy to tylko niewinna zabawa napędzana przez generatory piosenek, które w trzydzieści sekund ulepiają "lo-fi na koncentrację" albo "alt-rock z nutą melancholii", czy cały ekosystem, który nauczył się produkować dźwięk hurtowo i wpychać go w nasze nawyki szybciej niż zdążymy zastanowić się, kto tak naprawdę gra?
Pod koniec lat siedemdziesiątych w telewizji ABC pojawiła się wzmianka na temat niezwykle ciekawego zespołu rockowego o nazwie Spinal Tap. Nikogo wówczas nie dziwiło, że wokół gwiazd muzyki krąży wiele dziwnych, wręcz nieprawdopodobnych historii, ale te dotyczące Davida Hubbinsa, Nigela Tufnela i Dereka Smallsa były wyjątkowo chwytliwe. Grupa była rzekomo znana jako najgłośniejsza kapela w Anglii, co zawdzięczała specjalnie zmodyfikowanym wzmacniaczom Marshalla. Podczas gdy potencjometry normalnych piecyków kończyły się na "dziesiątce", te wykorzystywane przez Spinal Tap miały być wyskalowane do jedenastu - o jeden stopień głośniej. Fraza ta przeszła zresztą do języka potocznego. "Odkręcić na jedenaście" do dziś oznacza mniej więcej to, co "gaz do dechy", "mocniej niż fabryka przewidziała". W 1984 roku światło dzienne ujrzał film dokumentalny "Oto Spinal Tap", którego autor - jak sam twierdził - postanowił przybliżyć widzom wizerunek swojego ulubionego zespołu rockowego. Film zawiera nawet fragmenty historyczne, ukazujące początki kapeli i jej drogę do sukcesu. Oprócz porywającej muzyki zespół miał być znany ze spektakularnych wpadek. Perkusista ginący w dziwnym wypadku ogrodniczym, następny duszący się cudzymi wymiocinami, trzeci eksplodujący na scenie - to tylko czubek góry lodowej. Eddie Van Halen i Glenn Danzig po obejrzeniu owego filmu mieli powiedzieć, że mocno przypominał on ich własne doświadczenia. Jest tylko jeden problem - taki zespół nigdy nie istniał. Cała historia była wymysłem trójki komików - Christophera Guesta, Michaela McKeana i Harry'ego Shearera. Czy sprawa umarła, gdy prawa wyszła na jaw? A gdzie tam! Cały ten absurd tak celnie trafił w klimat swoich czasów i mity dotyczące słynnych muzyków, że fikcyjny zespół zaczął istnieć naprawdę - nagrał płyty, występował na festiwalach, był obecny w mediach głównego nurtu. Żart był tak dobry, że stał się rzeczywistością. Dziś natomiast to rzeczywistość staje się żartem.
Nieco ponad miesiąc temu w sieci pojawiła się masa artykułów na temat zespołu The Velvet Sundown. Grupa w ciągu paru tygodni miała zyskać nieprawdopodobną popularność, docierając do ponad pół miliona słuchaczy miesięcznie, nie zostawiając przy tym niemal żadnych śladów gładko wygenerowanymi fotkami i mglistym bio. Debiutancki krążek "Floating on Echoes" wylądował na platformach streamingowych na początku czerwca, a kolejny - "Dust and Silence" - nieco ponad dwa tygodnie później. Zawrotne tempo, nieprawdaż? Obecność zespołu w mediach społecznościowych ograniczała się do "zdjęć", które z daleka pachniały generatorami AI, jak chociażby grafika z pastiszem okładki "Abbey Road" The Beatles. Nienaturalne korzenie muzyki zdradza też sama jej struktura i charakterystyczne, uśrednione brzmienie. Takie "arcydzieła" można stworzyć chociażby w aplikacji Suno, w której za 8 dolarów wygenerujemy do 500 utworów. Jeśli więc The Velvet Sundown dał nam dwie płyty w ciągu kilkunastu dni, i tak był to łagodny wyrok, bo równie dobrze można było załadować kilkadziesiąt krążków.
Co na to słuchacze? Nic. Śmiem twierdzić, że większość z nich nie miała pojęcia, że ów zespół nie istnieje i jest tylko wymysłem sztucznej inteligencji. Imponującą liczbę odtworzeń napędziły algorytmy i playlisty użytkowników. W zestawieniach "odkryj w tym tygodniu" The Velvet Sundown był masowo polecany słuchaczom, więc popularność zespołu eksplodowała niczym supernowa. Sztuczka była tak skuteczna, że po drodze pojawił się nawet fałszywy rzecznik (Andrew Frelon), który zdążył wkręcić część mediów, zanim zespół wyjawił prawdę. Mimo sporego zamieszania i nagłówkach sugerujących, że zespół "zbił fortunę", arytmetyka studzi emocje - milion streamów to zwykle kilka tysięcy dolarów. Pytanie tylko, czy to cokolwiek zmienia. No bo czy użytkownicy przypadkiem nie powinni wiedzieć, że przygrywa im sztuczna inteligencja, a nie muzycy z krwi i kości? Czy potrafią dostrzec różnicę? A jeśli tak, czy ich zdanie kogokolwiek obchodzi?
Jeżeli spytacie, gdzie i kiedy zaczęło się to szaleństwo, większość tropów prowadzi do Johana Röhra. Ten szwedzki kompozytor, ujawniony przez dziennik "Dagens Nyheter", stoi za setkami miniatur instrumentalnych wrzucanych pod różnymi aliasami na playlisty w stylu "Peaceful Piano". Jego wygenerowane na komputerze utwory latami oplatały spokojne playlisty serwisu Spotify niczym pajęcza nić. Według branżowych zestawień Röhr ma na koncie około 15 miliardów streamów - więcej niż niejedna światowa gwiazda. Kluczem do sukcesu mają być oczywiście modele językowe. To fabryka nastroju, muzyka stworzona przez AI w celu uzyskania maksymalnej zgodności z algorytmem. Głównie taka, która ma nie przeszkadzać, tylko kapać. Czasem kropelka po kropelce, ale miliard razy. Według niektórych podsumowań katalog Röhra nabił około piętnastu miliardów streamów. The Velvet Sundown? Phi, toż to amatorszczyzna!
Kolejnym jaskrawym przykładem wykorzystania sztucznej inteligencji do nabijania odtworzeń jest "Heart on My Sleeve" - utwór wygenerowany przez użytkownika TikToka o pseudonimie Ghostwriter977, łączący w sobie głos Drake'a i muzykę przypominającą twórczość zespołu The Weeknd. Utwór został usunięty przez Universal Music Group, ale do tego czasu zdążył już zyskać ogromną popularność na TikToku i zgromadzić miliony wyświetleń na różnych platformach muzycznych, takich jak Spotify czy Apple Music. Algorytmy komponują, a inne algorytmy nabijają im statystyki. Nie dość, że muzyka powstaje na podstawie polecenia, które każdy z nas może wpisać w okienku aplikacji, ale też i słuchaczy AI generuje poniekąd samo. Wystarczy, że twórczość jednego algorytmu trafi w gust drugiego i voilà - liczba odtworzeń rośnie lawinowo.
Czy platformy na to zareagowały? Hmm... Na przypadki wyłudzania wielomilionowych tantiem dzięki utworom wytworzonym przez AI i podbijanych za pomocą botów - owszem. Ale problem nie zniknął. Wydaje się, że treści generowanych przez sztuczną inteligencję jest coraz więcej. Większość słuchaczy nie ma pojęcia, że słucha muzyki z cyfrowego laboratorium, a większość platform nie uznaje za konieczne, aby ich o tym uprzedzić. Pozytywnym przykładem jest Deezer, który zaczął wprowadzać jawne tagowanie "AI-generated" i wycinać takie ścieżki z rekomendacji. Najpopularniejszy serwis strumieniowy - Spotify - nie stosuje jednak tego typu oznaczeń. Możemy trafić na "syntetyczny" zespół w swojej tygodniówce i nawet nie wiemy, że ten artysta w rzeczywistości nie istnieje. Witajcie w nowej erze muzyki, gdzie najpierw generujemy piosenkę, potem generujemy popyt, a na końcu generujemy wypłatę.
Ekonomia jest bezlitosna. Wystarczy połączyć kropki, aby uświadomić sobie, że serwowanie użytkownikom treści wygenerowanych przez AI jest dla platform strumieniowych korzystne. Największe zyski przyniosłoby wtedy, gdyby taka muzyka była wytwarzana przez sam serwis. W końcu jeśli nie jest to muzyka prawdziwych artystów, nie trzeba dzielić się przychodami ani z nimi, ani z reprezentującymi ich interesy wytwórniami - odpadają więc koszty licencyjne. Mało tego. Myśląc czysto hipotetycznie, jeżeli już mamy taką muzykę i widzimy, że w naszym serwisie nabija ona setki tysięcy odtworzeń, co by szkodziło wstawić ją do innych serwisów, czyli naszej konkurencji? Doszlibyśmy do momentu, w którym kilka dominujących platform wzajemnie zalewa się treściami wygenerowanymi przez sztuczną inteligencję niczym grzybiarze, którzy część grzybów znajdują sami, większość kupują na targu, a kilka podbierają z cudzego koszyczka.
Francuski dziennik "Le Monde" podaje, że za taką przemysłową muzyką stoją nie tylko pomysłowi "kompozytorzy", ale i mechanizmy niższych stawek za katalogi, które platformy chętnie promują w playlistach nastrojowych. Deezer poszedł o krok dalej - przyznał publicznie, że około 18% dziennych uploadów to treści generowane przez AI. Serwis zaczął takie nagrania oznaczać oraz wycinać z algorytmów i wypłat. W 2023 roku Spotify kasował dziesiątki tysięcy utworów stworzonych za pomocą aplikacji Boomy. Magazyn "Wired" opisał pełnoprawną sprawę karną w USA, gdzie miliony dolarów wyprowadzane były botami z "farm streamów" poprzez sztuczne odtwarzanie utworów wygenerowanych przez AI. I nagle widać, jaka prawdziwa stawka tego wyścigu - nie jest to promowanie sztuki, ale pieniądze płynące z kumulujących się mikropłatności. Jeżeli ktoś wpadł na pomysł, jak zarobić na "muzyce z generatora", chyba już przespał swoją szansę, ponieważ platformy strumieniowe właśnie zaczynają zakręcać kurek. Jednocześnie jednak większość z nich zdaje się przymykać oko na część tych "sztucznych" treści, jakby nie wiedziały, skąd płynie woda.
Jak to wszystko działa? Kluczem do sukcesu jest zapewne możliwość dokładnego zbadania preferencji każdego użytkownika. Algorytmy sztucznej inteligencji potrzebują danych, a tych dostarczamy im sami, szukając konkretnych wykonawców, odtwarzając wybrane utwory kilka razy pod rząd, przeskakując te nielubiane, tworząc własne playlisty i tak dalej. Do tego serwis dodaje własne mechanizmy, a efektem są podpowiedzi, które stosunkowo szybko zaczynają zmierzać w wyraźnie określonym kierunku. Algorytmy mieszają kilka podstawowych technik poznawania naszego muzycznego gustu, takie jak collaborative filtering (ludzie podobni do Ciebie lubią też...), analizę tekstów i metadanych, a także analizę samego dźwięku. Niektóre aplikacje mogą dokładać do tego szerszy kontekst - naszą historię, porę dnia, urządzenie, na którym słuchamy muzyki, a nawet pogodę. Spotify wprost publikuje, że czas dnia, typ urządzenia, źródło odtwarzania i ostatnie odsłuchy silnie wpływają na przewidywanie tego, jakie utwory za chwilę wybierzemy.
Jakie parametry algorytm bierze pod uwagę? Wybaczcie język, ale będę tu posługiwał się oryginalnymi terminami - danceability (taneczność), speechiness (udział mowy kontra śpiew), instrumentalness (prawdopodobieństwo, że występuje brak wokalu), liveness (oznaki nagrania na żywo), loudness (średnia głośność), acousticness (akustyczność), key (tonacja) czy time signature (metrum). Dalej wchodzimy w jeszcze głębszą analizę audio (track structure), na przykład segmentację ścieżki i przebiegi głośności poszczególnych segmentów. To wszystko tworzy swoistą mapę, odcisk palca utworu, znacznie wykraczający poza BPM (uderzenia na minutę). To zamknięte w liczbach informacje o tym, jaka muzyka nam się podoba.
Czy posiadając taką wiedzę i mnożąc ją przez miliony użytkowników, można wygenerować treści, które przypadną im do gustu? Odpowiedź wydaje się oczywista. Tutaj do gry wchodzi druga warstwa - generacja, za którą odpowiadają modele takie jak Udio, Suno czy Stable Audio. To "maszynki" nauczone milionami nagrań (właśnie o to toczą się dziś procesy sądowe), które z krótkiego promptu budują pełne piosenki, z warstwą muzyczną i realistycznym wokalem. Kiedy te dwie warstwy spotkają się na jednej platformie, powstaje coś w rodzaju fabryki - jedna warstwa tworzy treści, a druga dokłada do nich kontekst i publiczność. Jeśli się nad tym zastanowić, to bez większego problemu moglibyśmy nawet otrzymać całe płyty stworzone tylko dla nas - dopasowane do naszego gustu i niedostępne dla innych użytkowników danej platformy. Każdy słuchacz zamknięty w swojej własnej, muzycznej bańce. George Orwell dałby temu "okejkę".
Użytkownicy platform strumieniowych od dawna narzekają na to, że są karmieni całkowicie sztucznymi tworami. "Odkrywanie" bywa dziś recyklingiem - nowe piosenki przypominają stare, a playlisty "Dla Ciebie" coraz częściej są raczej "Dla kogoś takiego jak Ty". Krytycy zauważają, że te mechanizmy utwardzają nawyki - nagradzają przewidywalność i rzadko wyciągają rękę po coś radykalnie innego. Kiedy na to wszystko nakłada się fala treści generowanych pod nasz nastrój, dostajemy idealnie dopasowane tło do życia - świetne do pracy, świetne do biegania, jednak trochę gorsze do przeżywania czegokolwiek głębszego. Paradoks streamingu polega na tym, że ma wszystkie narzędzia, by poszerzać nasze horyzonty i pobudzać naszą ciekawość świata, a jednocześnie wszystkie motywacje, by karmić nas tym samym. Jako użytkownicy mamy właściwie dwie drogi. Albo akceptujemy, że nasz ulubiony serwis muzyczny to teraz supermarket, w którym półki zapełniają się same, a my bierzemy to, co stoi na wysokości oczu, albo zaczynamy świadomie psuć maszynę - klikamy w treści spoza naszej bańki, szukamy artystów z krwi i kości, wspieramy tych, którzy ryzykują i głośno domagamy się etykiet - takich jak na jedzeniu.
Czy z punktu widzenia słuchacza da się odróżnić AI od człowieka? Na razie Spotify nie wprowadził powszechnego, czytelnego oznaczania "AI-generated", więc zwykły słuchacz często błądzi po omacku. Deezer właśnie wdraża tagowanie i narzędzia wykrywania, a poradniki dla użytkowników radzą sprawdzać, czy artysta istnieje "poza platformą" - czy gra koncerty, udziela wywiadów, prowadzi profile w mediach społecznościowych, wstawił wideo z sali prób... Krótko mówiąc, czy istnieje cokolwiek więcej niż avatar i biografia na całe trzy zdania. Jeśli nie, mamy odpowiedź. Brzmi absurdalnie, ale to zmusza nas, abyśmy wrócili do źródeł. Muzyka zawsze była nie tylko dźwiękiem, ale też kontekstem - dlaczego powstała, kto ją tworzy i gdzie można posłuchać jej na żywo. Jeżeli nie ma człowieka, nie ma historii - zostaje tylko dźwięk.
W tym momencie na scenę wjeżdża kolejne pytanie - po co być muzykiem, skoro AI w mgnieniu oka sklei nam balladę w tonacji D-dur, dopisze refren "w stylu Billie Eilish” i doda wokal "jak Ed Sheeran, tylko smutniejszy"? Po co być muzykiem, po co uczyć się gry na instrumencie, czytania nut, co trwa latami, po co nawet robić jakieś remiksy, jeśli AI w mgnieniu oka może wygenerować nam symfonię, piosenkę stworzoną na nasze "zamówienie", śpiewaną głosem dowolnego artysty, albo coś w stylu "jak brzmiałby hit Britney Spears, gdyby grał go Rammstein"? To może wpłynąć nie tylko na dzisiejszych muzyków, czyniąc ich bezrobotnymi, ale także na dzieci, które kompletnie nie będą widziały sensu nauki śpiewu gry na instrumencie, skoro to wszystko można mieć w parę sekund, z zerowymi umiejętnościami. System premiuje tło i natychmiastowość. Powiedzcie pierwszemu lepszemu nastolatkowi, że aby uzyskać efekt odrobinę lepszy niż ten wygenerowany w pół minuty, trzeba poświęcić wiele, wiele lat, uczyć się muzycznego fachu od podstaw i zedrzeć opuszki palców do krwi. Jeżeli zacznie skakać z radości i prosić, abyście czym prędzej zapisali go do szkoły muzycznej, to znak, że coś z nim nie tak. Może trzeba zainstalować w domu ukrytą kamerę i sprawdzić, co robi z kotem, gdy zostaje z nim sam na sam?
Algorytm potrafi wygenerować poprawne wyniki, ale rzadziej generuje sens. I to jest dokładnie ta wartość, której nie nadgoni liczba wyświetleń. Taki "muzyk" nie zagra koncertu, nie podpisze nam płyt, nie wystąpi w wywiadzie telewizyjnym. Ale czy to problem? Podczas odsłuchu w domu lub podczas dojazdów do pracy raczej nie. Spójrzmy jednak na tłumy fanów na koncertach światowej sławy gwiazd, a nawet pełne sale podczas występów na żywo w lokalnych domach kultury, małych klubach i kawiarniach. Ci ludzie nie przychodzą posłuchać muzyki, bo słuchali jej wielokrotnie, czasami katując jedną płytę na okrągło. Przychodzą dla swoich ukochanych artystów. Chcą ich zobaczyć i razem z nimi wziąć udział w wyjątkowym wydarzeniu. Czy bez prawdziwego, żywego artysty byłoby tak samo? Cóż, mogliśmy się o tym przekonać podczas gali Fryderyki 2025, kiedy to zamiast Maty na scenie pojawił się robot odziany w koszulkę i ręcznik z dwoma delfinami.
Czy pod względem liczb i zasięgów AI prześcignęła już ludzi? Globalnie prawdopodobnie nie, ale w pewnych zakamarkach katalogu tak właśnie jest. Nie dlatego, że sztuczna inteligencja tworzy lepszą muzykę, ale dlatego, że algorytmy kochają powtarzalność, a my kochamy wygodę. Tu jednak pojawia się światełko w tunelu, ponieważ omawiane zjawisko naturalnie nie dotyczy tylko muzyki. Rekordowe wyświetlenia na YouTubie notują wygenerowane przez sztuczną inteligencję i zapętlone niemal w nieskończoność filmy z odgłosami natury, rozpalonym kominkiem czy mruczącym kotem. Wiele osób uwielbia się przy nich relaksować, puszczać je podczas czytania książki lub nawet przy nich zasypiać. Kiedy jednak zapytamy, jaki jest ich ulubiony film, wydaje mało prawdopodobne, że wskażą jedno z takich "arcydzieł". Muzyka generowana przez AI też bywa przyjemna. Sam często jej słucham i mam tego pełną świadomość. Te sztuczne zlepki dźwięków robią robotę, kiedy chcę włączyć coś spokojnego - do pracy, do sprzątania, do "nieprzeszkadzania". Problem w tym, że najczęściej nawet nie odróżniam tych kawałków od siebie, nie kojarzę nazw wykonawców, a wygenerowane przez AI okładki zlewają mi się w jedną papkę. Tak, jak owocowy mus w plastikowej tubce nie zastąpi obiadu, tak wytwory sztucznej inteligencji - choć coraz lepsze - nie zastąpią prawdziwej sztuki. Moją ulubioną muzyką - tą, po którą sięgam, gdy słucham "na serio" - wciąż jest ta stworzona przez ludzi. Sorry, komputerku.
-
Garfield
Polacy dołożyli do tego smutnego trendu swoją cegiełkę, bo firma ElevenLabs zaprezentowała niedawno swój generator AI "muzyki". Trzymam się od tego jak najdalej.
0 Lubię -
Fryderyk
Miałem szczęście dorastać w czasach, gdy muzyka służyła do słuchania, a nie do nieprzeszkadzania.
2 Lubię -
Stanisław
Bo nie trzeba się zdawać na algorytmy, tylko samemu wybierać, czego się słucha. Już dawno u siebie wyłączyłem wszelkie autopodpowiadanie w serwisach streamingowych.
0 Lubię -
Piotr
Na szczęście, ta dehumanizacja nie dotyczy Tidala, który nie korzysta (jak sądzę) nie tylko ze sztucznej inteligencji, ale w zasadzie z żadnej inteligencji:) Po latach mojej obecności tam na tym samym koncie, gromadzeniu playlist, albumów, polubień Tidal nadal nie ma bladego pojęcia, co lubię, a czego nie i jeśli mi coś podsuwa, to całkowicie od czapy. Za co jestem mu nawet wdzięczny, bo w ogóle nie widzę sensu, by w to klikać i nadal szukam sobie repertuatu "analogowo". Co też nie jest łatwe, wobec żenującego bałaganu, który tam panuje, wielokronie opisywanego. Jeszcze jakiś repertuar pop o prostych tagach, to co jest szeroko popularne i aktualne daje się wyszukać. Ale klasyka (której jest tam teoretycznie dużo!), to groza, płacz i zgrzytanie zębów. Wyszukanie dyskografii znanego kompozytora (choćby taki Bach) to czynność całkowicie frustrująca, otrzymuje się bordello incredibile, z najzupełniej przypadkowymi, wybranymi rezultatami. Jeszcze jako tako działa wyszukiwanie wg wykonawców, o których wiemy, że np. nagrywali tegoż Bacha - wtedy utworzy się zbiór w miarę zamknięty, ale bez żadnej gwarancji że kompletny - bo coś może nawet być w serwisie, ale mały błąd w tagu wyklucza to z wyszukiwań. To niepojęte, jak w dobie AI taki "czołowy" serwis może być tak totalnie zabałaganiony, niefunkcjonalny... Są pewne proste zasady opisu fonogramów (wystarczy spytać np. bibliotekarzy), które jednoznacznie prowadzą do rezultatów wyszukiwań, a AI może je znakomicie wspomóc! Niestety, aleternatywy jak Apple Classical czy Idagio mają bez porównania lepszy porządek, ale z kolei nie streamują się do popularnych urządzeń, tylko przez przestarzałe i niepraktyczne protokoły jak Chromecast, czy AirPlay. Jak zbawienia czekam Spotify z jakością CD. Wprawdzie ten serwis właśnie jest obciążony dość nachalnymi algorytmami "podsuwającymi", ale cóż - są jednak lepsze niż na Tidalu i parę razy naprowadziły mnie na ciekawe rzeczy, a poza tym wyszukiwanie działa dużo lepiej i inteligentniej.
5 Lubię -
a.s.
Nie wyobrażam sobie serwisu bez hi-res, a szukać wolę w Tidalu osobiście, choć zdarza mi się wejść na proponowane utwory.
3 Lubię -
Tomasz
Świetny tekst. Jako totalny amator w temacie i konsument Tidala (ale samoszukający) przeczytałem z przyjemnością. Nomen omen, trafił w mój gust!
1 Lubię -
Jacek
Być może ten atak AI na muzykę rozrywkową skłoni niektórych do słuchania klasyki. AI oczywiście może napisać symfonię, ale gdy znamy wiele symfonii, pole do oceny ich jakości jest ogromne. Symfonia jest wielowątkowa, nie trwa trzech minut, nie musi mieć "piosenki" (najczęściej w ogóle nie ma partii wokalnych, choć jest trochę wyjątków, co zapoczątkował w IX Beethoven). Symfonia która jest kompilacją trendów nie będzie udana, bowiem liczy się struktura jako całość, rozłożenie tematów na przestrzeni 30 minut albo i godziny. Co ciekawe kompozytorzy w pierwszych dekadach XX wieku sami się poczuli "generatorami istniejących już melodii" i wyszli poza język tonalny i poza przystępną melodykę. Po dekadach dodekafonicznych i serialnych rewolucji od dwóch - trzech dekad znów większość z nich uwierzyła w neo-post-romantyzm, ale dbają przy tym, aby nie popadać w plagiaty, naiwność, kompilacje dawnego. Zatem osoby przerażone atakiem AI na muzykę zachęcam do symfoniki, do Mahlera, Pendereckiego, Lutosławskiego czy Brahmsa. Tu kolejnym wyzwaniem dla AI jest oczywiście brzmienie. Dużo łatwiej wygenerować realistyczne brzmienie perkusji jazzowej czy elektrycznej gitary niż całej orkiestry, a po kilku latach słuchania symfoniki bez większego trudu rozpoznacie najlepsze światowe orkiestry - Chicago, Boston, Berlin, Amsterdam, Monachium, co najmniej trzy z Londynu etc. Same pułapki dla najzdolniejszej nawet AI. Do tego dochodzą też oczywiście dyrygenci, którzy mają najważniejszy wpływ na wykonania symfoniki. A jeśli jakaś AI przeciśnie się przez to sito, to jestem za przyznaniem jej nie tylko Fryderyka. A sito to - dobry utwór, czyli symfonia z doskonałą grą tematyczną, pięknymi melodiami, logiczna w zbliżeniach i całościowo, przekonujące brzmienie orkiestry (np. słynny "Chicago sound"), no i dyrygent - Reiner czy Ormandy, czy Furtwangler czy Toscanini.
1 Lubię -
Komentarze (8)