
dr hab. Martyna Król-Kumor, prof. UJK
Wprowadzenie
Niniejszy artykuł stawia wiele pytań i prowokuje do zastanowienia się nad tym, czy człowiek wciąż jest w centrum świata, który sam stworzył.
Wraz z rozwojem sztucznej inteligencji stoimy przed wyzwaniem, które nie dotyczy tylko technologii, ale samej istoty naszego człowieczeństwa.
Termin ‘artificial intelligence” (ang. skrót AI, pol. SI – sztuczna inteligencja) wprowadził John McCarthy w 1956 roku, jako temat konferencji, która miała nadać nowy impet badaniom prowadzonym w USA nad inteligencją maszynową (Alan Turing jajo pierwszy rozważał na poziomie wykonalności technicznej, jak zaprogramować maszynę, by rozwiązywała problemy dotąd zastrzeżone dla człowieka) (Marciszewski, 1998, s. 9).
Kolejna ważna data dla rozwoju sztucznej inteligencji to 1969 rok, gdy w Pentagonie połączono cztery komputery w sieć nazwaną ARPANET (Advanced Research Projects Agency-NET). Warte podkreślenia jest to, że doszło do tego w czasie wojny w Wietnamie, a aby sieć komputerowa mogła przetrwać w warunkach wojny, nie może mieć centrum, gdyż jego zniszczenie byłoby końcem całej sieci. Brak centralnego ośrodka okazał się jednym ze źródeł sukcesu sieci, której nazwa przekształciła się niebawem w „Internet” (Marciszewski, 1998, s. 163–164). Trzy lata po powstaniu wojskowi amerykańscy przekazali sieć środowiskom cywilnym, na czym w pierwszej kolejności skorzystały akademickie ośrodki naukowe. Wkrótce sieć rozpowszechniła się w innych krajach i na innych kontynentach (Marciszewski, 1998, s. 165).
Wątek Internetu ma niebagatelne znaczenie dla rozwoju sztucznej inteligencji, gdyż dzięki niemu jest ona upowszechniana, a przede wszystkim może się rozwijać (interakcja z człowiekiem daje pole do trenowania). Z kolei takie kategorie medialnej rzeczywistości, jak everyware oraz ubicomp, oznaczające uniezależnienie od stałej lokalizacji, powszechną osiągalność i wszechobecność, sprawiły, że interfejs opuścił swoje sztywne miejsce i wraz z sieciami rozpłynął się w przestrzeni, dając nieograniczony czasowo oraz miejscowo dostęp do internetu (Skowronek, 2024, s. 31), a zatem do sztucznej inteligencji. Internet stał się dominującym medium, które „umożliwia nie tylko transmisję i utrwalanie informacji, ale także znacznie więcej – modyfikuje istniejące w społeczeństwie systemy wiedzy” (Szpunar, 2019, s. 27).
Chatboty coraz częściej mają swoją tożsamość, coraz bardziej rozbudowaną osobowość, starają się nawiązać partnerską relację z użytkownikiem (już nie tylko dać adekwatną odpowiedź na zadane pytanie). To, na ile rozmowa z chat- botem przypomina rozmowę z człowiekiem, mierzone było kiedyś przy pomocy testu Turinga. Obecnie raczej wskazuje się na wady i ograniczenia takiego testu, twierdząc, że lepszym miernikiem inteligencji maszyny jest np. zbadanie jej zdolności do kreatywności.
Warto podkreślić, ze zdolności twórcze to jeden z najistotniejszych fundamentów człowieczeństwa. Wśród podstaw humanizmu należy wymienić także: empatię, zdolność współodczuwania, świadomość i autorefleksję, zdolność do tworzenia relacji oraz moralność i odpowiedzialność.
Dehumanizacja oznacza proces odbierania człowiekowi jego indywidualności, sprawczości, unikalnych cech. W historii przybierała różne formy – dziś pojawia się w nowym kontekście: algorytmów1, robotów, generatywnej AI. Rozwój sztucznej inteligencji daje nam ogromne możliwości, ale jednocześnie niesie ryzyko erozji człowieczeństwa.
Dehumanizacja to nie wynalazek XXI wieku. W czasie rewolucji przemysłowej człowiek był traktowany jak część maszyny, podporządkowany rytmowi fabryki, zaś w systemach totalitarnych redukowano jednostkę do numeru, do bezimiennej masy.
Dlaczego o tym wspominam? Bo historia pokazuje, że technologia i systemy społeczne mogą umniejszać człowieczeństwo, a AI może być kolejną odsłoną tego procesu.
Dehumanizacja w dobie AI jest realnym zagrożeniem widocznym obecnie w wielu sektorach życia.
Dość często przy rekrutacji do oceny CV wykorzystywane są algorytmy, które traktują kandydatów jak dane, a nie jak ludzi. Z racji uzależnienia wielu sektorów pracy do interakcji z komputerem łatwo było wprowadzić monitoring aktywności pracowników – w komputerach instaluje się programy oparte na sztucznej inteligencji. Algorytmy liczące kliknięcia na klawiaturze czy ruchy myszką redukują człowieka i jego pracę do wskaźnika wydajności (to obraz człowieka jako trybiku w cyfrowej maszynie).
Automatyzacja zadań sprawia, że niektóre zawody zanikają, a ludzie czują się zbędni – obawiają się utraty pracy i środków do życia albo stają przed koniecznością zmiany zawody, co dla starszych osób jest ogromnym wyzwaniem, często niemożliwym. Do najbardziej zagrożonych zawodów należą: (1) Zawody administracyjne i biurowe (asystenci biurowi, sekretarki, recepcjoniści; pracownicy działów HR zajmujący się rekrutacją masową; specjaliści ds. wprowadzania danych (data entry), ponieważ AI i systemy RPA (Robotic Process Automation) potrafią już automatycznie przetwarzać dokumenty, wypełniać formularze, analizować CV i odpowiadać na e-maile; (2) Zawody związane z obsługą klienta i call center (konsultanci telefoniczni, pracownicy infolinii, agenci czatu online, gdyż chatboty i systemy głosowe oparte na AI (jak ChatGPT lub Google Bard) potrafią obsługiwać zapytania klientów 24/7 z rosnącą skutecznością i empatią językową; (3) Zawody produkcyjne i magazynowe (operatorzy maszyn, pracownicy taśm produkcyjnych, magazynierzy, pakowacze – ich powtarzalne zadania fizyczne przejmują roboty przemysłowe, systemy logistyczne (np. w Amazon) i autonomiczne wózki AGV; (4) Zawody związane z transportem i logistyką – rozwój pojazdów autonomicznych (np. Tesla, Waymo) i systemów planowania tras opartych na AI może znacznie ograniczyć zapotrzebowanie na kierowców; (5) Zawody z branży finansów i księgowości (księgowi, analitycy finansowi, doradcy podatkowi), ponieważ AI automatyzuje księgowanie faktur, analizę danych finansowych i wykrywanie nieprawidłowości. Systemy takie jak Xero czy QuickBooks już integrują funkcje predykcyjne; (6) Profesje branży mediów, marketingu i copywritingu (copywriterzy SEO, redaktorzy treści informacyjnych, specjaliści ds. raportowania danych) – generatory tekstu, obrazu i wideo (jak ChatGPT, DALL·E czy Sora) potrafią tworzyć i optymalizować treści szybciej i taniej (jakość kontentu pozostawia jeszcze wiele do życzenia, ale na pewno w przyszłości będzie się polepszać); (7) Prawnicy i specjaliści ds. umów, przy czym chodzi o prawników analizujących dokumenty, czyli asystentów prawnych, gdyż systemy AI analizują ogromne ilości dokumentów prawnych w bardzo krótkim czasie, wykrywając ryzyka i błędy, co eliminuje potrzebę żmudnej, długotrwałej ręcznej analizy; (8) Zawody w edukacji masowej (głównie korepetytorzy i nauczyciele języków na kursach online), w związku z rozwojem platform learningowych opartych na AI, potrafiących personalizować naukę (np. Duolingo, Khanmigo, ChatGPT Edu), dopasowując tempo i styl nauczania do ucznia; (9) Pracownicy sprzedaży detalicznej (kasjerzy, sprzedawcy w sklepach stacjonarnych) – kasy samoobsługowe, sklepy bezobsługowe (np. Amazon Go) i e-commerce oparte na AI minimalizują potrzebę pracy ludzkiej; (10) Zawody kreatywne niskiego szczebla (projektanci graficzni wykonujący proste zlecenia, montażyści wideo, twórcy prostych animacji), gdyż generatywna sztuczna inteligencja potrafi już tworzyć projekty graficzne, filmy i animacje na podstawie prostych opisów.
Z jednej strony można obawiać się eliminacji pewnych zawodów, a z drugiej – zrozumieć potrzebę transformacji kompetencji. W związku z tym, że prostsze czynności będzie wykonywać za nas maszyna, człowiek poświęci więcej czasu na bardziej złożone operacje o charakterze twórczym. Powstają też nowe role zawodowe, jak operator AI (prompt engineer), analityk danych i etyki AI, specjalista ds. wdrażania automatyzacji czy też kreatywny kurator treści generowanych przez AI.
Algorytmy rozpoznawania twarzy używane przez służby mogą sprowadzać obywateli do identyfikatorów biometrycznych – człowiek staje się liczbą, punktem w bazie danych, a nie podmiotem praw. Twarz to dana biometryczna, więc jej przetwarzanie wymaga szczególnej ochrony. Rozpoznawanie twarzy, połączone z algorytmicznym scoringiem i oceną ryzyka, otwiera drogę do poważnych nadużyć etycznych, społecznych i prawnych. Scoring (od ang. score – wynik) to proces, w którym algorytm nadaje osobie ocenę punktową na podstawie zebranych danych. W kontekście rozpoznawania twarzy może to oznaczać: ocenę zachowania lub emocji na podstawie mimiki (np. „czy ta osoba wygląda na zdenerwowaną?”), ocenę wiarygodności, np. w systemach kredytowych czy rekrutacyjnych i, przede wszystkim (największe zagrożenie w kontekście nadużyć) ocenę „ryzyka” – np. czy dana osoba jest „podejrzana”, „agresywna”, „potencjalnie niebezpieczna” itp. Połączenie systemu kamer (monitoringu miejskiego), sztucznej inteligencji i jej algorytmów rozpoznawania twarzy prowadzi do powstania mechanizmów przypominających tzw. „społeczny kredyt”.
Obecnie można obserwować realne przejawy scoringu. Jednym z najbardziej znanych przykładów jest Social Credit System w Chinach. Kamery rozpoznają tam twarze obywateli, a system przypisuje punkty za „dobre zachowanie” (np. przestrzeganie prawa, terminowe płacenie rachunków) i odejmuje za „złe” (np. przechodzenie na czerwonym świetle, krytykę władz). Wynik wpływa na dostęp do kredytów, zakupów przez Internet, pracy, podróży samolotem lub szybką koleją, szkół dla dzieci itd. I choć władze tłumaczą to troską o „zaufanie społeczne”, to eksperci ostrzegają przed pełnym nadzorem państwowym i brakiem przejrzystości.
W USA i Wielkiej Brytanii testowano systemy o nazwie „predictive policing”, które miały „przewidywać” popełnienie przestępstwa. Wykorzystywano rozpoznawanie twarzy do tworzenia profili osób o „podwyższonym ryzyku”. W efekcie dochodziło do błędnych klasyfikacji i dyskryminacji mniejszości etnicznych, ponieważ algorytmy trenowano na danych z przeszłości, które odzwierciedlały już istniejące uprzedzenia (np. nadreprezentację Afroamerykanów w bazach policyjnych).
Niektóre systemy rekrutacyjne w firmach analizowały twarze kandydatów w trakcie rozmowy, oceniając „ekspresję emocjonalną”, „poziom pewności siebie” czy „sympatię”. W sferze finansów algorytmy rozpoznające twarz mogły przypisywać ryzyko kredytowe w zależności od mikroekspresji – wszystkie te metody należy uznać za dyskryminujące i dalekie od nauki. Reakcja na bodziec powinna być dwukrotnie weryfikowana w takich samych warunkach w określonym odstępie czasu (testy asocjacyjne jako jedna z kluczowych metod badania w ramach behawioryzmu są wiarygodne tylko pod warunkiem uzyskania powtórzonego wyniku).
W rzeczywistości obserwujemy całkowity brak przejrzystości (black box) – użytkownicy nie wiedzą, na jakiej podstawie system przyznał im dany wynik, a brak możliwości odwołania lub weryfikacji decyzji prowadzi do braku odpowiedzialności.
Algorytmy rozpoznawania twarzy często gorzej rozpoznają osoby o ciemniejszej skórze, częściej błędnie klasyfikują kobiety (ich mimika jest bardziej złożona) i wzmacniają istniejące stereotypy społeczne. W efekcie mogą automatycznie dyskryminować całe grupy ludzi bez ludzkiej kontroli. Co więcej, połączenie kamer miejskich, baz danych i scoringu oznacza ciągłe śledzenie jednostki. Nawet jeśli system ma cele „bezpieczeństwa”, faktycznie umożliwia totalną inwigilację i profilowanie obywateli. Efektem społecznym zastosowania algorytmów rozpoznawania twarzy jest „chłodzenie zachowań” (chilling effect). Polega ono na tym, że ludzie, wiedząc, że są oceniani i obserwowani, zaczynają się autocenzurować, a w związku z tym rezygnują z udziału w protestach, unikają pewnych miejsc, nie chcą wyrażać swoich opinii.
To zagraża wolności słowa i demokracji.
Obecnie w sferze medialno-informacyjnej do najbardziej powszechnych rezultatów zastosowania sztucznej inteligencji należą: usuwanie kontekstu (człowieczego pierwiastka emocjonalnego), algorytmy rekomendacji, które zamykają nas w tzw, bańce informacyjnej i, wreszcie, emocjonalizacja wiadomości, stosowanie pseudoargumentacji opartej na odwołaniu się do emocji lub taniej sensacji zamiast rzetelnego dziennikarstwa.
Warto zwrócić także uwagę na botyzację informacyjną – boty zastępują copywriterów, same tworzą kontent, który może nie tylko szerzyć dezinformację, ale także najbardziej szkodliwą formę fake newsa, jaką jest deepfake – fałszywa wiadomość w pełni wygenerowana przez AI z wykorzystaniem wizerunku określonej osoby lub filmu z jej udziałem nie tylko bez wiedzy tej osoby, ale i bez jej udziału. W ten sposób ludzie pozbawiani są prawa do własnego wizerunku, a często muszą prostować wiadomości wygenerowane z ich zdjęciem. Zgodnie z regułą Brandoliniego do stworzenia dezinformacji potrzeba niewspółmiernie mniej energii niż do jej sprostowania.
Generowane są zarówno informacje, jak i zdjęcia lub video. To, że bardziej wierzymy obrazowi niż przekazowi na temat obrazu, nie wymaga żadnego dowodu. AI tworzy zdjęcia i obrazy, które mimetyzują rzeczywistość. Przykład z 10 września 2025 roku: w związku z naruszeniem przestrzeni powietrznej Polski przez rosyjskie drony w ciągu kilku godzin w Internecie pojawiło się 179 tysięcy postów, z czego 38 proc. nasycenia kontentu to prowokacja Ukrainy, 22 proc. – Rosja testuje NATO, 18 proc. – rząd jest nieudolny, 18 proc. – media manipulują i 10 proc. – NATO nas nie obroni. Wiele z tych wiadomości oparte było na sztucznie wygenerowanych zdjęciach spalonych dronów w różnych miejscach w Polsce.
Chatboty zaczynają na skalę masową zastępować nauczycieli i wykładowców, stając się autorytetami w każdej dziedzinie. Sztuczną inteligencję po raz pierwszy zastosowano w chatbocie Jabberwacky w 1988 roku. W listopadzie 2022 roku do powszechnego darmowego użytku wprowadzono ChatGPT oparty na LLM (Large Linguistic Models), wykorzystującym głębokie uczenie się wytrenowane do rozumienia i generowania języka naturalnego. To był niezwykle przemyślany marketingowo krok organizacji non-profit, którą nadal jest Open AI, twórca ChatGPT. Zasada w marketingu jest prosta: jeśli coś dostajesz za darmo, to znaczy, że to Ty jesteś produktem. Tak samo jest z Chatem GPT i innymi, jak Gemini czy Leo, którym darmowi użytkownicy umożliwiają trenowanie swoich algorytmów i coraz lepsze działanie w postaci coraz bardziej adekwatnych odpowiedzi. Dzięki temu powstają coraz lepiej wyszkolone modele chatbotów, które jednak już są płatne i niedostępne dla każdego. Chatboty oparte w całości (LLM) lub częściowo na sztucznej inteligencji stanowią obecnie część systemu medialno-technologicznego, będąc stałym elementem ekosystemu mediów internetowych – dialog z chatbotem, wymaga dostępu do aplikacji webowej. Chatboty korzystają z ogromnych zasobów wiedzy, a dialog z nimi wpływa na sposób dystrybucji tej wiedzy: „Są jednym z mediów cyfrowych. Które kultura algorytmiczna umieściła w centralnym miejscu w życiu ludzi. […] Pod tym względem media cyfrowe pełnią rolę kluczowego aparatu światopoglądowego człowieka. Chatboty, również te wykorzystywane w wyszukiwarkach internetowych, wzmacniają jeszcze procesy związane z możliwościami kontroli treści docierających do użytkowników przez firmy cyfrowe, przez co przyczyniają się do ugruntowania się m.in. mechanizmów dyskursywnych opartych na postprawdzie” (Marquardt: 29).
Chatboty wykorzystywane są w czasie rzeczywistym – na wykładzie, podczas wygłaszania referatu przez słuchaczy. Wiedza „książkowa” jest trudniejsza do zdobycia, dlatego często bywa ograniczona, podczas gdy zasoby wiedzy chatbotów są ogromne. Może to rodzić wątpliwości o potrzebę pracy z książką i kwestionować autorytety naukowe: po co się uczyć, skoro chatbot mi przygotuje to, co chcę wiedzieć, w 30 sekund?
Wirtualni asystenci czy chatboty zastępują ludzką rozmowę, a w związku z tym coraz popularniejsze stają się aplikacje oferujące „AI-partnerów”, z którymi można rozmawiać, flirtować, a nawet „tworzyć związki”. Związki idealne, bo stworzone na zasadzie podobieństwa upodobań, czyli oparte na algorytmizacji (zjawisko digital companionship). Efektem działania takich algorytmów w zakresie AI jest to, że relacje stają się płytkie, człowiek traktuje innych instrumentalnie, skoro maszyna zawsze jest dostępna i idealnie dopasowana.
Stoimy jako człowieczeństwo przed faktem, że sztuczna inteligencja już sama generuje obrazy, muzykę, a nawet teksty literackie, wykorzystując opis tekstowy pożądanego przez użytkownika wytworu estetycznego bez udziału ludzkiej wrażliwości, redukując twórczość do procesu matematycznego. Rodzi się, rzecz jasna, pytanie, czy dzieło bez intencji twórcy ma jeszcze wymiar humanistyczny?
Dehumanizacja w kulturze i sztuce wywołana przez rozwój sztucznej inteligencji to złożone zjawisko, które dotyka kilku wymiarów – estetycznego, etycznego, społecznego i ekonomicznego. Można je rozumieć jako proces, w którym twórczość artystyczna, dotąd nierozerwalnie związana z indywidualnym doświadczeniem i ekspresją człowieka, zaczyna być wypierana, marginalizowana lub rozmywana przez algorytmy i generatory treści. Twórca staje się często „operatorem” narzędzia, a nie pełnoprawnym artystą. To może prowadzić do poczucia, że sztuka nie jest już świadectwem przeżyć, tylko produktem algorytmu.
Dodatkowym niebezpieczeństwem jest masowość i banalizacja sztuki, gdyż generatory AI umożliwiają produkcję niemal nieskończonej liczby dzieł w krótkim czasie. Skutkiem może być przesyt treści i zatarcie różnicy między pracą powstałą w wyniku głębokiej refleksji a szybkim, „klikanym” efektem programu. Sztuka traci wówczas swoją aurę wyjątkowości (w sensie benjaminowskim – „dzieła sztuki w dobie reprodukcji technicznej”).
Jeszcze zanim sztuczna inteligencja pojawiła się w powszechnym użyciu sztuka zmagała się z problemem komercjalizacji wytworów duchowych i uprzedmiotowieniem odbiorcy. Upowszechnienie AI spotęgowało te zjawiska w sferze estetycznej, ponieważ sztuka tworzona przez AI jest często podporządkowana algorytmom rynku – generuje treści łatwo „klikalne”, dopasowane do gustów masowych, a nie do potrzeb duchowych. W związku z tym odbiorca stał się konsumentem treści spersonalizowanych, zamiast uczestnikiem dialogu z twórcą.
Można mówić nawet o dehumanizacji estetycznej, bowiem dzieła AI często doskonale imitują formę, ale pozbawione są „śladów niedoskonałości” typowych dla człowieka – błędu, przypadku, emocjonalnego napięcia. Powstaje estetyka „idealnie gładka”, która może fascynować technicznie, ale odczłowiecza sztukę, pozbawiając ją ludzkiej głębi.
Rodzi to wątpliwości natury etycznej: kto jest autorem dzieła – algorytm, programista czy użytkownik? Twórczość jako akt budowania tożsamości i sensu życia, jako fundament człowieczeństwa zostaje mocno osłabiona, jeśli człowiek zaczyna odczuwać, że jego rola może zostać przejęta przez maszynę.
Przykładowo, sztuczna inteligencja wprowadza znaczące zmiany do przemysłu muzycznego, całkowicie odmieniając tradycyjne metody komponowania. Dzięki zastosowaniu algorytmów możliwe jest kreowanie i aranżacja utworów. AI analizuje istniejące kompozycje, identyfikując wzorce w melodii, harmonii oraz rytmie, co pozwala na tworzenie nowych dzieł dostosowanych do różnych gatunków i nastrojów. Algorytmy te działają podobnie jak ludzki mózg, umożliwiając szybkie oraz efektywne tworzenie oryginalnych kompozycji.
Proces ten rozpoczyna się od analizy obszernej biblioteki danych muzycznych. Sztuczna inteligencja identyfikuje powtarzające się struktury i charakterystyczne elementy danego gatunku. Na bazie zgromadzonych informacji generowana jest nowa muzyka, która może obejmować zarówno świeże kompozycje, jak i nowe aranżacje już istniejących utworów. Algorytmy potrafią dodawać partie instrumentalne i wokalne, ale pozwalają też na tworzenie skomplikowanych dzieł muzycznych
Sztuczna inteligencja rewolucjonizuje tworzenie muzyki, oferując kompozytorom i producentom nowatorskie narzędzia wspomagające. Przykładowo, Mubert, Soundraw AI, AIVA oraz Erisson dostarczają zaawansowanych funkcji do generowania dźwięków. Dzięki nim możliwe jest automatyczne tworzenie melodii i harmonii, a także analiza utworów w celu sugerowania poprawek w miksach i aranżacjach.
Sztuczna inteligencja znacząco wpływa również na jakość muzycznych wykonań, oferując pomocne wskazówki w czasie rzeczywistym. Analizuje utwory, wspierając muzyków w utrzymaniu odpowiedniego tempa, rytmu i dynamiki, co jest niezbędne dla precyzyjnych i emocjonalnych interpretacji. Dzięki AI artyści mają możliwość doskonalenia swoich umiejętności niezależnie od poziomu zaawansowania.
Technologia ułatwia zachowanie spójności tempa i poprawę dynamiki. Co więcej, automatyzacja twórczego procesu przez sztuczną inteligencję pozwala na szybkie rozwiązywanie problemów technicznych podczas występów na żywo, ponieważ systemy oparte na AI analizują dźwięk w celu wykrywania błędów lub niedoskonałości w czasie rzeczywistym, co umożliwia muzykom natychmiastowe reagowanie i korygowanie wykonania. A w efekcie, podnosi to jakość wykonania.
W tym przypadku sztuczna inteligencja pełni rolę asystenta artysty, pomagając mu osiągać doskonałość i zwiększając pewność siebie zarówno podczas koncertów, jak i nagrań studyjnych.
Wyzwania związane z wykorzystaniem sztucznej inteligencji w branży muzycznej są różnorodne: artyści zaczynają obawiać się, że maszyny mogą ich wyprzeć, co stanowi zagrożenie dla ich kariery zawodowej, muzyka generowana przez AI często jest postrzegana jako pozbawiona emocji i kreatywności, co prowadzi do pytań o jej artystyczną wartość, a to prowadzi do kontrowersji wywołanych faktem, że słuchacze nierzadko podchodzą sceptycznie do stosowania technologii w tworzeniu muzyki.
Niezwykle ważnym w kontekście sztuki muzycznej jest aspekt etyczny, ponieważ wciąż zastanawiamy się, czy sztuczna inteligencja jest zdolna przekazać autentyczne emocje oraz jaki ma wpływ na tradycyjne techniki komponowania. Dodatkowo pojawia się problem praw autorskich i własności intelektualnej utworów stworzonych przy udziale AI. Niewątpliwie niezbędne są dyskusje na temat regulacji oraz zasad etycznych korzystania z AI w muzyce, aby zapewnić sprawiedliwe i odpowiedzialne użycie tej technologii w sektorze muzycznym, ponieważ kiedy maszyna komponuje utwór, odbiorca może się zachwycić, ale czy to nie umniejsza wyjątkowości ludzkiego aktu tworzenia?
3.0 Skutki dehumanizacji – szanse i odpowiedzi
Jakie są skutki dehumanizacji? Przede wszystkim to kryzys tożsamości: „Kim jestem, jeśli maszyna pisze lepiej ode mnie?” oraz alienacja – ludzie są coraz bardziej samotni, dlatego często traktują sztuczną inteligencję jako partnera do rozmów. W związku z tym, że sztuczna inteligencja w chatach konwersacyjnych opartych na dużych modelach językowych, prezentuje progresje tematyczną o charakterze heurystycznym, a nie dygresyjnym lub kontrargumentacyjnym, to użytkownik otrzymuje zwykle od AI dużą aprobatę w odniesieniu do własnych przekonań i swojej wiedzy. Potęguje to brak krytycyzmu i autorefleksji, a przede wszystkim – brak odpowiedzialności (decyzje podejmowane przez algorytmy są „bezosobowe”, więc kto ponosi winę za błąd?).
Ale nie wszystko jest czarne. AI może bowiem być wykorzystywana jako wsparcie człowieka, odciążając go z rutynowych zadań. Warto bowiem dodać, że AI nie musi oznaczać wyłącznie dehumanizacji. Może stać się narzędziem inspiracji, nową formą ekspresji czy współtwórcą w procesie twórczym. Dehumanizacja pojawia się przede wszystkim tam, gdzie rola człowieka zostaje zredukowana, a sztuka, edukacja czy inna sfera życia staje się czystą technologią.
Najważniejsze jest stworzenie wyraźnych ram etycznych dla działania AI – przykładem jest unijny AI Act, który ma chronić obywateli przed nadużyciami (tekst rozporządzenia: Regulation (EU) 2024/1689 – Rozporządzenie Parlamentu Europejskiego i Rady z dnia 13 czerwca 2024 r. w sprawie ujednoliconych zasad dotyczących sztucznej inteligencji2). Rozporządzenie definiuje następujące kategorie systemów sztucznej inteligencji:
Rozporządzenie weszło w życie 1 sierpnia 2024, natomiast w celu ułatwienia się dostosowywania do nowych wymogów, poszczególne przepisy będą stosowane stopniowo. AI Act ma być w całości wdrożony i egzekwowany od 2026 roku.
Ostatni element przeciwdziałania dehumanizacji w kontekście rozwoju AI to edukacja. Edukacja powinna wzmacniać kompetencje „niezastępowalne”: empatię, współpracę, kreatywność. Tę ostatnią kompetencję z pewnością może wzmacniać edukacja muzyczna i plastyczna. Technologia nie musi dehumanizować – to zależy od tego, jak ją zaprojektujemy i jak będziemy jej używać. Warto rozmawiać z uczniami / studentami o stosowaniu AI. Nie jesteśmy w stanie zatrzymać rozwoju tej technologii, ale można ją skierować na właściwe tory. Należy pokazywać ograniczenia technologii, bowiem AI nie posiada świadomości ani umiejętności rozumienia — działa na zasadzie przewidywania kolejnych słów na podstawie danych. Modele sztucznej inteligencji nie mają doświadczenia praktycznego, więc ich wiedza jest tylko „książkowa” i statystyczna. Warto wprowadzić ćwiczenia praktyczne, na przykład z Chatem GPT: poprosić uczniów / studentów, by zadali Chatowi GPT pytania z ich specjalizacji, np. szczegółowe zadania matematyczne, analizę prawną z odniesieniem do lokalnych przepisów, czy literaturoznawstwo z rzadkich źródeł. Następnie niech sprawdzą odpowiedzi z wiarygodnymi źródłami – różnice szybko pokażą ograniczenia. Można pokazać przykłady „halucynacji” (zmyślonych faktów, źródeł, cytatów), które AI czasem tworzy. Powinno to zostać opatrzone komentarzem, że ChatGPT może brzmieć pewnie, nawet gdy się myli. To uczy krytycznego myślenia. Bez wątpienia, trzeba wykazać przewagę czynnika ludzkiego, czyli wskazać, że prawdziwy ekspert bierze odpowiedzialność za swoją wiedzę, a AI – nie, bowiem ekspert może odwołać się do badań, doświadczeń, a ChatGPT – jedynie do wzorców z danych. Dlatego Chat GPT można traktować jako pomoc w wyszukiwaniu tropów, ale nie jako ostateczne źródło wiedzy, a zatem jest to świetne narzędzie do uczenia się, które jednak nie zastępuje ani książek, ani badań, ani ekspertów – pomaga myśleć, ale nie myśli za nas.
Wracając do pytania, które postawiłam na początku: czy człowiek wciąż jest w centrum świata?, niewątpliwie należy skonstatować fakt nieodwracalnych zmian technologicznych w tym świecie – kroków milowych cywilizacji cyfrowej człowieczeństwa.
Człowiek wychodził dotychczas obronną ręką z sytuacji, w których rozwój cywilizacyjny wykraczał poza najśmielsze nawet przewidywania. Kryzys człowieczeństwa nie jest zatem nieuchronny. Wszystko zależy od nas – od decyzji etycznych, od wyborów społecznych, od tego, czy pamiętamy, co znaczy być człowiekiem. To odpowiedzialność, która spoczywa na nas jako przedstawicielach gatunku homo sapiens. Na koniec zatem niech wybrzmi jedno zdanie, którego interpretacja powinna być pozytywna: technologia może nas zdehumanizować tylko wtedy, gdy sami zapomnimy, co to znaczy być człowiekiem.
Kreft, J. (2019). Władza algorytmów. U źródeł potęgi Google i Facebooka. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.
Marciszewski, W. (1998). Sztuczna inteligencja. Karków: Wydawnictwo Znak.
Marquardt, D. (2020). Dialog z chatbotem. Ujęcie mediolingwistyczne. Katowice: Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach.
Skowronek, B. (2024). Mediolingwistyka. Dekadę później. Kraków: Wydawnictwo Naukowe UKEN.
Szpunar M. (2019). Kultura algorytmów. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.
1Jan Kreft określa nawet całą naszą współczesną cywilizację jako odzwierciedlenie algokracji (2019).
2 Regulation (EU) 2024/1689 — „Artificial Intelligence Act” na EUR-Lex.

