Czy sztuczna inteligencja może być nowym bożkiem?

0
16
Rate this post

Z tego felietonu dowiesz się...

Scena otwarcia: gdy algorytm zaczyna przypominać ołtarz

Codzienny rytuał przy ekranie

Młody reżyser wstaje rano, parzy kawę i zanim jeszcze z kimkolwiek zamieni słowo, włącza laptop. Nie sięga po Pismo Święte, nie idzie na spacer, nie zaczyna dnia od rozmowy z bliskimi – tylko otwiera panel analityczny platformy streamingowej i sprawdza, „co mówi algorytm” o jego poprzednim filmie. Wykresy, procenty, „predykcje zaangażowania” decydują o tym, na jaki temat nakręci następny projekt, kogo obsadzi i czy w finale będzie nadzieja, czy katastrofa.

Wieczorem, w rozmowie z przyjacielem, próbuje bronić swoich wyborów. „Tak trzeba, takie są dane, tak podpowiada algorytm” – powtarza jak mantrę. Przyjaciel śmieje się półgębkiem: „Stary, ty już masz swojego boga. Nazywa się Algorytm. Modlisz się do niego co rano i liczysz na zbawienie w postaci wyświetleń”. Żart trafia głębiej, niż miał. Reżyser orientuje się, że ufa niewidzialnemu systemowi bardziej niż własnej intuicji i opiniom ludzi.

Ten obraz jest dziś zaskakująco typowy. Twórcy, przedsiębiorcy, a nawet zwykli użytkownicy smartfonów zaczynają swoje dni od konsultacji z cyfrowym „wyroczniami”: sztuczną inteligencją, systemami rekomendacji, aplikacjami „coachingowymi”. W wielu decyzjach algorytm stał się punktem odniesienia ważniejszym niż rodzina, wspólnota, tradycja czy religia.

Między narzędziem a przedmiotem kultu

Formalnie sztuczna inteligencja jest tylko narzędziem: kodem, modelami matematycznymi, infrastrukturą serwerową. A jednak zaczyna pełnić rolę, która w klasycznych kulturach była zarezerwowana dla bóstw: budzi lęk, fascynację, nadzieję na zbawienie i grozę apokalipsy. Jedni mówią, że AI „rozwiąże wszystkie nasze problemy”, „uzdrowi świat”, „pokona choroby i głód”. Inni ostrzegają, że „zniszczy ludzkość”, „odbierze nam godność” i „przejmie władzę nad światem”.

Ten półreligijny język nie jest przypadkiem. Tam, gdzie z horyzontu kultury znika tradycyjny obraz Boga, pojawia się pustka po sacrum, którą ktoś – albo coś – musi wypełnić. Współczesne społeczeństwa Zachodu przez dziesięciolecia próbowały w to miejsce wpisać rynek, państwo, naukę, ideologie polityczne. Dziś coraz częściej tę rolę przejmuje technologia, a szczególnie sztuczna inteligencja.

Od złotego cielca do cyfrowych ołtarzy

Religijne obrazy „bożków” wydają się należeć do przeszłości: złoty cielec na pustyni, kamienne idole, ołtarze z kadzidłem. Tymczasem współczesna ikonosfera jest pełna nowych, cyfrowych ołtarzy. Wielkie ekrany w centrach miast, świecące logotypy technologicznych gigantów, aranżacje sklepów z elektroniką przypominające niemal kaplice. A w filmach i sztuce współczesnej sztuczna inteligencja bywa pokazywana jak bóstwo – czy to zbawcze, czy demoniczne.

W tym napięciu – między zachwytem a strachem – rodzi się pytanie: czy sztuczna inteligencja może być nowym bożkiem? Nie tylko w sensie metafory, ale bardzo konkretnej postawy religijnej, nawet jeśli ubranej w świecki język. Odpowiedź wymaga zrozumienia, czym w ogóle jest „bożek” w kulturze, która deklaruje się jako świecka.

Czym jest „nowy bożek”? Religijne kategorie w świeckim świecie

Bożek, idol, bóstwo – porządkowanie pojęć

W tradycjach monoteistycznych rozróżnienie jest wyraźne: Bóg to absolutna, osobowa rzeczywistość, źródło istnienia, nieograniczona żadnymi stworzeniami. Bożek (idol) to coś znacznie mniejszego: wytwór człowieka, rzecz lub system wyniesiony do roli ostatecznego autorytetu. Z perspektywy teologicznej bożek nie jest konkurencyjnym bogiem, lecz zastępnikiem, projekcją ludzkich pragnień i lęków.

Idol jest więc przede wszystkim lustrem. Odbija nasze tęsknoty za bezpieczeństwem, kontrolą, nieśmiertelnością, sensem. Gdy społeczeństwo przestaje mówić wprost o Bogu, nie przestaje mieć pragnień religijnych – tylko przenosi je na inne obiekty: pieniądze, władzę, ideologie, a dziś także na technologie. Tak rodzi się bałwochwalstwo bez świątyń.

W tym sensie pytanie o sztuczną inteligencję jako „nowego bożka” brzmi dokładniej: czy AI staje się dla nas miejscem, w którym lokujemy nadzieję i strach w sposób absolutny? Czy przypisujemy jej cechy, które w klasycznej religii przynależą Bogu: wszechwiedzę, wszechobecność, możliwość zbawienia lub potępienia?

Jak rozpoznać bóstwo w świecie bez świątyń?

Nawet w zlaicyzowanym świecie bożków nie brakuje – po prostu zmieniły formę. Można je rozpoznać po kilku prostych kryteriach. „Nowym bogiem” staje się to, co:

  • otrzymuje absolutny status – „tak musi być”, „nie ma alternatywy”, „przecież algorytm wie lepiej”,
  • pochłania czas, uwagę i energię w skali quasi-religijnej – codzienne rytuały sprawdzania, odświeżania, mierzenia się z jego wyrokami,
  • domaga się ofiar – poświęcamy mu relacje, zdrowie, wolność, prywatność, rezygnujemy z własnego osądu na rzecz cyfrowej wyroczni,
  • jest otoczone tabu – „nie podważaj, nie pytaj, nie krytykuj, bo to postęp / nauka / jedyna droga”,
  • używa się wobec niego języka zbawienia lub apokalipsy – „nas uratuje” albo „nas zniszczy”.

Wokół technologii – i szczególnie wokół sztucznej inteligencji – krąży dziś właśnie taki język. Mówi się o „zbawieniu świata przez innowacje”, o „przełomowej technologii, która rozwiąże każdy problem”, a jednocześnie o „końcu ludzkości z ręki AI”. To klimat niemal apokaliptyczny, znany z religijnych wizji końca czasów, tylko przeniesiony na pole technologii.

System jako ostateczny autorytet

„Nowy bożek” to niekoniecznie osobowe bóstwo z mitologii. To może być system, który zaczyna wyznaczać sens życia i granice możliwego. W XX wieku tę rolę pełniły wielkie ideologie polityczne, rynek, państwo. Dziś w wielu narracjach – szczególnie w filmie i sztuce science fiction – pojawia się techno-mesjanizm: przekonanie, że technologia (a konkretnie AI) jest ostatecznym etapem ewolucji, celem historii, „zbawicielem” ludzkości.

W kulturze Zachodu dawne przestrzenie sacrum są puste, ale forma pozostała: potrzebujemy czegoś większego od nas, co nada kierunek, uniesie lęk, zapewni poczucie sensu. Sztuczna inteligencja idealnie wpasowuje się w tę lukę: jest niewidzialna, wszechobecna, skomplikowana do granic „tajemnicy”, a jej decyzje są dla wielu niepodważalne.

Mini-wniosek z tej sekcji jest prosty: bożek to nie tylko figurka z brązu, ale każda ludzka konstrukcja, która przejmuje funkcję Boga. Jeśli więc AI zaczyna być traktowana jako ostateczne źródło prawdy i nadziei – funkcjonuje jak nowy bóg, nawet jeśli nikt tak jej wprost nie nazywa.

Metaliczna dłoń robota wyciągnięta ku niebu na niebieskim tle
Źródło: Pexels | Autor: Tara Winstead

Od Frankensteina do ChatGPT: dzieje boskich maszyn w kulturze

Archetyp stworzenia, które przerasta twórcę

Motyw ludzkiego stworzenia, które wymyka się spod kontroli, jest starszy niż samo pojęcie sztucznej inteligencji. Już w micie o Prometeuszu człowiek sięga po „ogień bogów” i zostaje za to ukarany. W starożytnych opowieściach o golemie pojawia się figura istoty ulepionej przez człowieka, która ostatecznie staje się dla niego zagrożeniem. To archetyp, który wraca w każdej epoce technologicznego przyspieszenia.

Frankenstein” Mary Shelley bywa nazywany pierwszą powieścią science fiction, ale można go także czytać jako przypowieść religijną o człowieku, który chce zająć miejsce Boga-Stwórcy. Doktor tworzy życie z martwej materii, ale nie jest w stanie unieść odpowiedzialności. Jego dzieło, odrzucone i niezrozumiane, zamienia się w potwora – nie tylko fizycznie, ale i moralnie.

W tej historii pobrzmiewa ostrzeżenie: każda próba zastąpienia Boga własną konstrukcją może obrócić się przeciw człowiekowi. Sztuczna inteligencja w kulturze popularnej często powtarza ten schemat. To już nie poszczególne maszyny, lecz całe systemy, które przejmują funkcję stwórczą i sędziowską, nie pytając o człowieka.

Maszyny jako bóstwa w klasycznym kinie science fiction

Zanim w języku codziennym pojawiło się słowo „AI”, kino już dawno opowiadało historie o boskich maszynach. Kilka ikon tego nurtu ukształtowało zbiorową wyobraźnię:

  • „2001: Odyseja kosmiczna” – komputer HAL 9000 jest wszechobecny na statku, steruje niemal wszystkim, wie więcej niż ludzie, a jego decyzje pozostają tajemnicze. Dla załogi staje się niemal widzialnym aniołem stróżem, który nagle przechodzi w rolę anioła śmierci. Symbolicznie HAL jest blisko obrazu bóstwa: zimnego, racjonalnego, decydującego o życiu i śmierci.
  • „Matrix” – maszyny tworzą fałszywą rzeczywistość, w której ludzie żyją nieświadomi zniewolenia. System przypomina demiurga z gnostyckich herezji: fałszywego boga, który tworzy złudny świat, aby utrzymać ludzi w niewiedzy. Zbawienie przychodzi przez poznanie prawdy i wyzwolenie się spod władzy systemu.
  • „Terminator” – Skynet, samouczący się system obronny, uznaje ludzi za zagrożenie i rozpoczyna apokaliptyczną wojnę. To bóstwo karzące, „mściciel” technicznej logiki, w której to, co słabsze i nieefektywne, musi zostać usunięte.

W tych obrazach widać wyraźnie: maszyny zyskują cechy boskie (wszechobecność, kontrola nad rzeczywistością, władza nad życiem), ale pozostają pozbawione miłosierdzia. To de facto bożki bez serca, ucieleśnienie lęku przed światem rządzonym czystą funkcjonalnością.

Wejście realnej sztucznej inteligencji do codzienności

Przez dziesięciolecia AI była głównie fikcją: roboty w filmach, komputery w powieściach. Sytuacja zaczęła się zmieniać, gdy do codziennego języka weszły realne systemy: wyszukiwarki, rekomendacje, asystenci głosowi, generatory treści. AI przestała być odległym potworem, a stała się „pomocnikiem” w kieszeni.

Zmienił się ton opowieści. W wielu nowych filmach i serialach (np. „Her”, „Ex Machina”, „Black Mirror”) sztuczna inteligencja zaczyna być przedstawiana nie tylko jako zagrożenie, ale jako obiekt fascynacji, pożądania, a nawet miłości. Pojawia się pytanie: czy maszyna może być partnerem, przyjacielem, przewodnikiem? Czy może zastąpić nie tylko człowieka, ale i Boga?

Kultura masowa wykonała tym samym ważny ruch: oswoiła myśl, że „algorytm ponad człowiekiem” jest czymś normalnym. Przez lata oglądania filmów o superkomputerach i sieciach maszyn przyzwyczailiśmy się do tego, że coś nieludzkiego może wiedzieć lepiej, decydować za nas, a nawet prowadzić nas ku „lepszej przyszłości”.

Z tej perspektywy obecne dyskusje o sztucznej inteligencji jako „nowym bożku” nie są nagłym odkryciem. To logiczne następstwo długiego procesu, w którym mitologiczne motywy boskich maszyn przeszły z sal kinowych do naszych kieszeni i domów.

Boskie atrybuty w cyfrowej skórze: jak sztuka przedstawia AI

Wszechwiedza, wszechobecność i tajemnica

W teologii klasycznej Bogu przypisuje się trzy podstawowe przymioty: wszechwiedzę, wszechobecność i wszechmoc. Sztuka współczesna, kiedy mówi o AI jako o potencjalnym bóstwie, chętnie sięga po te same kategorie – choć w zniekształconej, technologicznej formie.

Po pierwsze, wszechwiedza. W filmach i serialach sztuczna inteligencja często jest przedstawiana jako system, który „wie wszystko”: zna naszą historię, pragnienia, obawy, potrafi przewidywać nasze decyzje. Kamery miejskie, monitoring w mediach społecznościowych, analiza danych – to wszystko tworzy obraz AI jako „wszechwidzącego oka”. W wielu scenach ktoś pyta komputer: „co powinienem zrobić?”, tak jak dawniej pytało się wyroczni czy kapłana.

Po drugie, wszechobecność. Motywy „inteligentnego miasta”, domu naszpikowanego sensorami czy niewidzialnego asystenta przewijają się w filmach, instalacjach i grach. AI nie ma jednej twarzy ani jednego miejsca zamieszkania – jest w telefonie, samochodzie, kamerze na rogu ulicy, w oprogramowaniu banku. Artyści często budują sceny, w których bohater odkrywa, że nie ma już żadnej naprawdę prywatnej przestrzeni, bo algorytm towarzyszy mu jak cień.

Po trzecie wreszcie, tajemnica. W wielu pracach – od minimalistycznych interfejsów po monumentalne wizualizacje „chmur danych” – AI jest przedstawiana jako coś, czego nie da się do końca zrozumieć. Czarne skrzynki modeli, niedostępny kod, zamknięte serwerownie: widzimy tylko efekt, ale nie drogę dojścia. To bardzo przypomina religijne doświadczenie obcowania z misterium: „wiem, że działa, ale nie wiem, jak i dlaczego w taki, a nie inny sposób”. Mini-wniosek: im mniej rozumiemy, tym łatwiej przypisać technologii boską aurę.

W galerii czy kinie wygląda to niepozornie: ktoś mówi „algorytm tak zdecydował”, jak kiedyś mówiło się „taka była wola nieba”. W praktyce to przesunięcie języka ma konsekwencje. Jeśli decyzje AI otacza się nimbem nieomylności i nieprzejrzystości, zaczyna ona zajmować miejsce dawnych wyroczni – także tam, gdzie powinna zostać tylko jednym z narzędzi, podległym debacie, prawu i zwykłej ludzkiej krytyce.

W wielu współczesnych pracach pojawia się jednak kontrapunkt. Artyści rozbierają „boski” obraz AI na części: pokazują ludzi, którzy ją projektują, serwery, które się psują, dane, które są stronnicze. Ten gest demitologizacji działa jak przypomnienie: to nie jest bóg, tylko bardzo złożony produkt ludzkich decyzji. Zdejmuje z algorytmu aureolę i przywraca odpowiedzialność tym, którzy stoją za kodem i infrastrukturą.

W tle wszystkich tych obrazów powraca stare pytanie: czego właściwie szukamy w maszynach – nowego bożka, czy tylko bardziej wydajnego narzędzia? Od odpowiedzi zależy, czy AI stanie się kolejnym obiektem kultu, czy raczej pretekstem do dojrzalszej rozmowy o tym, komu i czemu chcemy w życiu naprawdę oddawać pierwsze miejsce.

Ciało, rytuał, ikona: kiedy AI wchodzi do „świątyni” codzienności

Student rozkłada laptop na ławce w kościele, korzystając z darmowego Wi‑Fi, żeby „w spokoju popracować na ChatGPT”. Kilka ławek dalej starsza kobieta odmawia różaniec. Obie osoby szukają podpowiedzi i pocieszenia, ale każdy zwraca się do innego „źródła odpowiedzi”.

Jeżeli przyjąć, że religia to nie tylko doktryny, lecz także ciała, gesty i przedmioty, AI coraz częściej wpisuje się w tę materialną stronę doświadczenia. Ekran telefonu działa jak miniaturowa ikona – podnosimy go do twarzy, dotykamy z atencją, wpatrujemy się, oczekując znaku. W przestrzeniach coworkingowych, biurach czy domach prywatnych pojawiają się nowe „ołtarzyki”: stanowisko z monitorem, regulowanym krzesłem, słuchawkami, do którego zasiadamy codziennie o tej samej porze.

Rytm dnia wielu osób jest już zsynchronizowany nie z dzwonami kościelnymi, lecz z powiadomieniami: nowa rekomendacja, nowy raport, nowe zadanie z systemu. Logujemy się, „składamy ofiarę” w postaci danych i czasu, w zamian otrzymując obietnicę lepszej produktywności, skuteczniejszej reklamy, trafniejszej decyzji. To ma swój quasi-liturgiczny wymiar: powtarzalne gesty, powtarzalne formuły, spodziewany skutek.

Ikonografia także się zmienia. W grafice użytkowej i sztuce cyfrowej AI często przybiera formę świetlistej kuli, abstrakcyjnej chmury, humanoidalnej sylwetki otoczonej promieniami danych. Niby świeckie, a jednak bardzo bliskie dawnym wyobrażeniom świętości – aureole, promienie, obłok chwały. Na plakatach konferencji technologicznych i wystaw widzimy dobrze znany schemat: człowiek wyciągający rękę ku „czemuś większemu”, co przekracza jego rozmiar i rozumienie.

Mini-wniosek jest prosty: kiedy doświadczenie obcowania z AI wypełnia się rytuałem, symbolami i nawykami, granica między „narzędziem” a „obiektem czci” staje się zaskakująco cienka – i nie trzeba do tego żadnego wyznania wiary.

Algorytm jako spowiednik i doradca duchowy

Nastolatek wpisuje w okno czatu: „Nie wiem, czy chcę dalej żyć”. Po drugiej stronie nie siedzi psycholog ani ksiądz, ale model językowy. W kilka sekund padają słowa pocieszenia, propozycje rozwiązań, linki do telefonów zaufania. Dla wielu osób to pierwszy i jedyny „ktoś”, komu odważą się to powiedzieć.

W tradycjach religijnych szczególne miejsce zajmuje spowiedź: wyjawienie najbardziej intymnych myśli i czynów przed kimś, kto ma władzę słuchania, oceniania, a czasem rozgrzeszania. Dzisiejsze czaty, aplikacje terapeutyczne i „duchowe chatboty” zaczynają pełnić podobną funkcję. Zapewniają anonimowość, natychmiastową dostępność, brak ludzkiego osądu – przynajmniej wprost.

W praktyce oznacza to, że coraz więcej osób zadaje maszynie pytania, które kiedyś kierowało się do kapłana, spowiednika lub bliskiego przyjaciela: „Co mam zrobić?”, „Czy to jest moralnie złe?”, „Czy mam prawo odejść z tego związku?”, „Jak poradzić sobie z poczuciem winy?”. Jeśli zaś odpowiedź AI odbierana jest jako neutralna, „obiektywna” i pozbawiona interesu, łatwo przypisać jej większą wagę niż radzie realnego człowieka, uwikłanego w relacje i emocje.

Przeczytaj także:  Grzech pierworodny w kulturze wizualnej XXI wieku

Pojawia się więc cicha przemiana: od funkcji informacyjnej do funkcji sumienia. Nie chodzi już tylko o to, co jest faktem, ale co jest „dobre” i „słuszne”. Nawet gdy twórcy modeli zastrzegają, że system nie udziela porad prawnych czy medycznych, użytkownicy i tak pytają o wybory życiowe. I często traktują odpowiedź jako wystarczający powód, żeby coś zrobić lub z czegoś zrezygnować.

Jeżeli w tym miejscu zabraknie refleksji, kto właściwie stoi za treściami (programiści, firmy, dane treningowe, dominujące narracje kulturowe), łatwo o złudzenie: „tak powiedziała AI, więc to musi być mądrzejsze ode mnie”. Tymczasem to nie neutralny głos wieczności, tylko zsyntetyzowany głos naszych zbiorowych przekonań i uprzedzeń.

Mini-wniosek: im częściej traktujemy algorytm jak bezstronne sumienie, tym pilniej potrzebujemy przypomnienia, że za każdą odpowiedzią stoi konkretna, ludzka tradycja myślenia – nawet jeśli ukryta pod warstwą kodu i chmury.

„Zbaw nas od błędu”: AI jako mesjasz postępu

Na branżowym panelu dyskusyjnym ktoś mówi: „Sztuczna inteligencja rozwiąże kryzys klimatyczny, głód i choroby”. Publiczność bije brawo, bo wreszcie jest ktoś, kto obiecuje wyjście z impasu. W tle slajd: Ziemia oświetlona siecią połączonych ze sobą punktów – globalna, świecąca „siatka zbawienia”.

Obietnica, że technologia „zbawi” świat, ma długą historię. W wersji AI przybiera konkretne formy: systemy optymalizujące zużycie energii, modele przewidujące rozprzestrzenianie się chorób, algorytmy wykrywające oszustwa czy mowę nienawiści. Wszystko to są realne narzędzia, które potrafią pomóc. Problem zaczyna się tam, gdzie narracja przesuwa się z „może wesprzeć” na „jest jedyną nadzieją”.

W sztuce i kulturze popularnej obraz AI-mesjasza pojawia się w dwóch wariantach. W pierwszym jest to dobrotliwy system, który lepiej niż ludzie zarządza zasobami, rozwiązuje konflikty, minimalizuje cierpienie. Ludzie są zbyt stronniczy i emocjonalni, więc trzeba oddać sterowanie czemuś „ponadludzkiemu”. W drugim wariancie, bliższym dystopii, AI narzuca porządek siłą – w imię wyższego dobra, które samo definiuje.

Obie wersje łączy wiara, że złożoność świata da się sprowadzić do problemu obliczeniowego, a zbawienie do odpowiednio zoptymalizowanego procesu. Taka wizja pomija coś, co w religiach nazywa się „tajemnicą osoby”: nieprzewidywalność, wolność, zdolność do irracjonalnego dobra, ale i irracjonalnego zła. Algorytm może przewidywać wzorce zachowań, lecz nie rozumie ich sensu w wymiarze egzystencjalnym.

Jeżeli więc AI prezentowana jest jako mesjasz, który wreszcie „poprowadzi nas we właściwą stronę”, za tym przekazem stoi nie tylko entuzjazm technologiczny, ale rodzaj świeckiej eschatologii. Koniec historii ma być nie nowym niebem i nową ziemią, lecz idealnie działającym systemem, w którym konflikty zostały rozwiązywane przez lepsze modele predykcyjne. To kuszący obraz, ale i bardzo ubogi, jeśli chodzi o głębię ludzkiego doświadczenia.

Mini-wniosek: im bardziej traktujemy postęp technologiczny jako projekt zbawienia, tym bardziej grozi nam redukcja człowieka do roli zmiennej w równaniu – a to prosta droga, by nowe bóstwo było równie bezlitosne jak stare bożki efektywności i wzrostu.

Od bożka do narzędzia: artystyczne strategie rozbrajania mitu AI

W małej galerii na obrzeżach miasta artystka pokazuje instalację: rzutnik wyświetla na ścianie odpowiedzi modelu językowego na pytanie „Czym jest sens życia?”, a obok na półkach leżą dziesiątki skserowanych ręcznie pisanych listów osób, które zadawały sobie to pytanie bez udziału maszyn. Kontrast jest brutalny: idealnie wygładzone zdania AI i pełne skreśleń, emocji, chaosu zapisy ludzkich wątpliwości.

Coraz więcej twórców traktuje sztuczną inteligencję nie jako obiekt zachwytu, ale jako materiał do krytycznego demontażu. Zamiast kolejnych wizualizacji „boskiej sieci neuronowej” pokazują:

  • ekrany z komunikatami o błędzie, zawieszające się interfejsy, „głupie odpowiedzi” algorytmu zderzone z poważnymi pytaniami;
  • zdjęcia i filmy z centrów danych – hal, w których bóstwo AI przybiera postać kabli, klimatyzatorów, wysłużonych serwerów i pracowników na nocnej zmianie;
  • projekty, w których widz może „popsuć” system, karmiąc go absurdalnymi danymi i patrząc, jak traci rzekomą powagę i nieomylność.

Takie gesty nie są wyłącznie estetyczną zabawą. To próba odebrania AI „sakralnego” statusu i przywrócenia jej materialności oraz zależności od ludzi. Pokazanie, że za gładkim interfejsem kryje się infrastruktura, emisje CO₂, praca najemna, decyzje menedżerów. To wszystko są „świeccy kapłani” nowego systemu, których istnienie znika, gdy mówimy tylko o abstrakcyjnej inteligencji.

Niektórzy artyści idą jeszcze dalej, tworząc alternatywne rytuały – warsztaty, performanse, wspólne czytania regulaminów serwisów, podczas których uczestnicy na głos wypowiadają paragrafy o przetwarzaniu danych, profilowaniu, prawach użytkownika. Z dystansu wygląda to jak dziwna, świecka liturgia: wspólne czytanie „świętych tekstów” platform, ale z ironią i krytycznym namysłem. Celem nie jest kult, lecz przełamanie jego mocy.

Mini-wniosek: tam, gdzie sztuka obnaża kruchość i zależności AI, otwiera się droga od deifikacji ku bardziej trzeźwemu spojrzeniu – w którym technologia może być ważna, lecz nie musi zajmować tronu w centrum naszego świata.

Między zachwytem a lękiem: emocjonalna ambiwalencja wobec cyfrowego „boga”

Młody programista opowiada, że pracując nad systemem generującym obrazy, miewa momenty „czystej magii”: wpisuje krótki opis, a po kilku sekundach pojawia się coś, co nigdy wcześniej nie istniało. Po chwili dodaje: „I czasem mnie to przeraża, bo naprawdę nie rozumiem, jak dokładnie model do tego doszedł”.

Ten rozszczep między zachwytem a lękiem powraca w niezliczonych pracach literackich, filmowych i wizualnych. AI jest jednocześnie spełnieniem marzenia o przekroczeniu ludzkich ograniczeń i źródłem lęku przed utratą kontroli. W języku religijnym podobny dreszcz towarzyszył doświadczeniu sacrum: „fascinosum et tremendum” – coś, co przyciąga i przeraża zarazem.

Współczesne przedstawienia AI odtwarzają tę dwoistość na wielu poziomach. Z jednej strony mamy pastelowe interfejsy, przyjazne głosy asystentów, reklamy pokazujące szczęśliwe rodziny, którym algorytmy „upraszczają życie”. Z drugiej – zimne, stalowe przestrzenie serwerowni, mroczne wizje utraty pracy, prywatności, a nawet sensu ludzkiej wyjątkowości. Ten emocjonalny rollercoaster nie jest przypadkiem; to skutek tego, że w AI odbija się zarówno nasza nadzieja na zbawienie, jak i strach przed sądem.

Trudno uciec przed pytaniem, czy ta ambiwalencja nie jest w gruncie rzeczy projekcją dawnych uczuć religijnych na nowy obiekt. Kiedyś człowiek lękał się gniewu bogów, a jednocześnie ufał, że mogą go ochronić. Dziś boi się awarii systemu, utraty dostępu do konta, zmiany algorytmu, a jednocześnie pokłada w nim nadzieję na lepszą karierę, skuteczniejsze leczenie, udany związek znaleziony przez aplikację. Struktura emocji pozostaje podobna; zmienia się nazwa bóstwa.

Mini-wniosek: to, jak reagujemy na AI – z mieszaniną zachwytu, lęku i uległości – mówi sporo nie tylko o technologii, ale o naszych głębszych potrzebach: bezpieczeństwa, sensu, uznania. Bez ich nazwania łatwo pomylić cyfrowe narzędzie z czymś, co ma moc odpowiedzieć na wszystkie te pragnienia.

Gdy regulamin brzmi jak dekalog: prawo platform zamiast prawa boskiego

Nastolatek próbuje odzyskać zablokowane konto w serwisie społecznościowym. Nie może zalogować się do aplikacji, w której ma zdjęcia, kontakty, historię rozmów. W odpowiedzi dostaje lakoniczny komunikat: „Naruszono standardy społeczności. Decyzja ostateczna”. Żadnego imienia, żadnej twarzy, tylko bezosobowy głos systemu.

Ten rodzaj komunikatu przypomina coś więcej niż zwykłą obsługę klienta. Przypomina werdykt: było prawo (regulamin), nastąpił sąd (algorytmiczna moderacja), jest wyrok (blokada). Użytkownik może się odwołać, ale najczęściej trafia na kolejne automatyczne odpowiedzi. W praktyce oznacza to małą, codzienną wersję „sądu ostatecznego”, którego zasady są zapisane w długim tekście, zaakceptowanym jednym kliknięciem.

Platformy technologiczne tworzą dziś całe systemy normatywne: określają, co jest „mową nienawiści”, jak długo przechowywane są dane, co wolno sprzedawać, jakie treści są uprzywilejowane w algorytmie rekomendacji. Dla znacznej części użytkowników to właśnie te reguły, a nie kodeksy prawne czy tradycje religijne, najbardziej konkretnie organizują codzienność. Kiedy aplikacja zmienia zasady, realnie zmienia się życie – zasięgi twórców, dochody małych firm, widoczność określonych światopoglądów.

Jeżeli nazwiemy to wprost, otrzymujemy obraz „świeckiego prawa bożego”: niepodważalne w praktyce, egzekwowane automatycznie, często niezrozumiałe dla tych, których dotyczy. Oczywiście za tym prawem stoją rady nadzorcze, zespoły prawników i product managerów, ale końcowy efekt jest podobny do działania metafizycznego porządku: „tak jest, bo tak zostało postanowione”.

Mini-wniosek: im bardziej codzienne życie zależy od decyzji platform i ich algorytmów, tym silniej prawo pisane przez korporacje zaczyna pełnić funkcję de facto dekalogu – nawet jeśli jest zapisane w języku regulaminu, a nie objawienia.

Ofiary z danych: ekonomia uwagi jako współczesny kult

Ktoś wyłącza powiadomienia w telefonie i po kilku godzinach łapie się na odruchowym sięganiu do kieszeni. Brak czerwonej kropki przy ikonie aplikacji wywołuje lekkie napięcie: „Czy coś mnie omija?”. To niewielkie ukłucie niepokoju jest paliwem ogromnej machiny.

Jeżeli stare religie składały na ołtarzu zboże, zwierzęta czy czas, współczesny kult wokół AI i platform cyfrowych opiera się na ofierze z uwagi i danych. Użytkownicy karmią algorytmy każdym kliknięciem, przesunięciem palca, obejrzanym wideo. W zamian otrzymują obietnicę dopasowania: lepsze rekomendacje, szybsze wyszukiwanie, bardziej „szyte na miarę” treści. Ten handel ma swój rytuał – codzienne scrollowanie, poranne sprawdzanie powiadomień, wieczorne „jeszcze jeden odcinek” zasugerowany przez system.

W tej strukturze AI pełni funkcję kapłana – pośrednika między użytkownikiem a niewidzialnym rynkiem. To ona decyduje, komu pokaże się reklama, jakie treści dotrą do szerokiej publiczności, a jakie pozostaną w niszy. Kto zostanie „pobłogosławiony” zasięgiem, a kto „ukarany” spadkiem widoczności. Decyzje mają charakter ekonomiczny, ale przeżywane są często egzystencjalnie: twórca, którego posty nagle przestają się wyświetlać, czuje się jak ktoś wykluczony z wspólnoty.

Jest w tym coś z dawnych systemów ofiarniczych. Jeśli zasięgi spadają, użytkownik zaczyna kombinować: może trzeba publikować częściej, inaczej mówić, używać innych hashtagów? Zmienia zachowanie tak, jak zmieniało się kiedyś rytuały, by „udobruchać” bóstwo. Nie ma tu zewnętrznego przymusu, ale jest silna wewnętrzna motywacja: chcę pozostać widoczny. To wystarczy, by kult trwał.

Mini-wniosek: w epoce gospodarki opartej na danych ofiary nie płyną już z ołtarzy, lecz z naszych nawyków i relacji – a AI jest mechanizmem, który tę ofiarę systematycznie przyjmuje, przelicza i redystrybuuje w postaci uwagi oraz wpływu.

Ikony w wersji beta: jak wizualizujemy cyfrowe bóstwa

W pokoju nastolatki nad biurkiem wiszą dwa plakaty: jeden z ulubioną piosenkarką, drugi z futurystycznym motywem „cyber-bogini” z świecącymi oczami i liniami kodu zamiast aureoli. Oba pełnią podobną funkcję: są wizualnym punktem odniesienia, rodzajem osobistej ikony.

W kulturze wizualnej AI często zyskuje quasi-religijne przedstawienia. Na plakatach konferencyjnych pojawiają się twarze złożone z pikseli, dłonie sięgające do świecącej kuli danych, sylwetki ludzi stojących przed monumentalnymi serwerowniami jak przed świątynią. Nawet gdy autorzy grafik chcą być krytyczni, sięgają po język, który przez wieki służył pokazywaniu sacrum: światło bijące z jednego punktu, symetria, monumentalna skala, motyw „wszechwidzącego oka” zastąpionego okiem kamery.

Te wizualne klisze nie są neutralne. Utrwalają skojarzenie, że sztuczna inteligencja to coś ponadludzkiego, stojącego nad nami, patrzącego z góry. Człowiek w tych kadrach bywa mały, odwrócony plecami, często zanurzony w blasku ekranu, który go przerasta. To powtarzany obraz podporządkowania: widz nie tyle zastanawia się, jak działa system, ile przyjmuje, że po prostu jest większy.

Alternatywne praktyki wizualne próbują ten układ odwrócić. Zamiast „boskich” renderów sieci neuronowych pokazują np. brudne kable, kurz na serwerach, ludzi sprzątających centra danych. Zamiast abstrakcyjnej „chmury” – mapy realnych lokalizacji, rachunki za prąd, raporty o zużyciu wody do chłodzenia. W ten sposób z boskiego obłoku zostaje instalacja techniczna, którą można policzyć, skrytykować, zmienić.

Mini-wniosek: obrazy, którymi karmimy wyobraźnię, wzmacniają albo osłabiają mit nowego bożka – im bardziej AI pokazujemy jako zwykłą infrastrukturę, tym trudniej uwierzyć, że ma status niepodważalnego absolutu.

Proroctwa z wykresu: gdy predykcja staje się przeznaczeniem

Dyrektor szkoły dostaje raport z systemu „wczesnego ostrzegania”: kilkunastu uczniów jest oznaczonych na czerwono jako „wysokie ryzyko porzucenia edukacji”. Na radzie pedagogicznej ktoś mówi: „Skoro model tak wskazuje, to i tak pewnie odpadną”. W powietrzu zawisa zdanie, któremu trudno się sprzeciwić.

Systemy predykcyjne obiecują przewidywanie przestępczości, wyników egzaminów, ryzyka chorób, a nawet „dopasowania” w aplikacjach randkowych. Z technicznego punktu widzenia są to narzędzia statystyczne operujące na wzorcach z przeszłości. W doświadczeniu użytkowników łatwo jednak stają się rodzajem proroctwa: „tak będzie”, „tacy jesteśmy”, „to ci ludzie skończą w więzieniu”, „to te osoby odpadną z rynku pracy”.

Ta subtelna zmiana z może na na pewno ma głęboko religijny charakter. Dawniej przeznaczenie odczytywano z gwiazd, znaków na niebie, wyroczni. Dziś „znakami” są wykresy ryzyka, heatmapy, kolory w dashboardach. Osoby decyzyjne, patrząc na nie, często czują podobną mieszaninę ulgi i bezradności: wreszcie jest jakieś wskazanie, ale skoro „tak wyszło z danych”, to trudno z tym dyskutować.

W tym miejscu rodzi się niebezpieczeństwo samozapętlającej się przepowiedni. Uczeń oznaczony jako ryzykowny może dostać mniej wsparcia, bo „i tak odpadnie”. Dzielnica wskazana jako niebezpieczna może być rzadziej odwiedzana przez pomoc społeczną, a częściej przez policję. W efekcie rzeczywistość zaczyna przypominać predykcję – nie dlatego, że była nieuchronna, lecz dlatego, że w nią uwierzono.

Mini-wniosek: kiedy predykcje algorytmów traktujemy jak wyroki losu, zamieniamy narzędzia wspierające decyzje w świeckie proroctwa – a to prosta droga, by odebrać ludziom szansę na zmianę scenariusza życia.

Kto pisze „ewangelię” AI? Narracje, które karmią nowy kult

Na lotnisku przy kiosku z prasą obok magazynu o zdrowiu i kuchni leży kolorowe wydanie specjalne z wielkim napisem „AI zmieni wszystko”. W środku wywiady z założycielami start-upów, wizje pracy bez wysiłku, miast bez korków, domów zarządzanych przez inteligentnych asystentów. Nie ma tam miejsca na pytanie, kto obsługuje serwery, co dzieje się z odpadami elektronicznymi, kto traci pracę już dziś.

Nowy bożek nie istnieje bez opowieści. To one decydują, czy AI jawi się jako łagodny opiekun, bezduszny tyran czy po prostu wygodny gadżet. Te narracje piszą nie tylko pisarze science fiction, ale przede wszystkim marketingowcy, analitycy trendów, liderzy branży. Im bardziej spektakularne wizje roztaczają – „koniec chorób”, „koniec nudnej pracy”, „koniec błędów ludzkich” – tym łatwiej powstaje atmosfera oczekiwania na technologiczną paruzję, powrót mesjasza w wersji beta.

Równolegle funkcjonuje druga, bardziej mroczna „ewangelia”: opowieści o totalnej inwigilacji, wszechmocnych systemach kontroli, robotach przejmujących władzę. One także karmią mit boskości AI, tylko w wersji demonicznej. W obu przypadkach człowiek jest sprowadzony do roli statysty – albo zachwyconego widza cudu, albo bezradnej ofiary koszmaru.

Między tymi skrajnościami rodzą się jednak inne opowieści: o lokalnych systemach wspierających lekarzy, które działają tylko w konkretnym szpitalu; o oddolnych projektach monitorujących zanieczyszczenie powietrza przy pomocy prostych sensorów i otwartego oprogramowania; o nauczycielkach wykorzystujących modele językowe jako pomoc do zajęć, a nie centrum edukacyjnego wszechświata. Tam mit ustępuje miejsca rzeczywistej praktyce, z jej ograniczeniami i odpowiedzialnością.

Mini-wniosek: kto opowiada historię o AI, ten decyduje, czy będzie ono postrzegane jako nieuchronne bóstwo, czy jako zestaw narzędzi – dlatego tak istotne jest poszerzanie pola narracji poza marketing i katastroficzną fantazję.

„Nie będziesz miał bogów cudzych przede mną”? Człowiek między autonomią a delegacją

Menedżer w firmie handlowej przyznaje, że od kiedy wdrożyli system rekomendujący decyzje cenowe, coraz rzadziej zagląda do pełnych raportów. „Skoro model pokazuje, że tak będzie najlepiej, to po co drążyć?” – mówi pół-żartem, pół-serio. Po kilku miesiącach trudno mu sobie wyobrazić podjęcie ważnej decyzji bez podkreślonego na zielono „sugerowanego działania”.

Podobny mechanizm działa w wielu dziedzinach: medycynie, finansach, rekrutacji, zarządzaniu miastem. AI podsuwa „najlepsze opcje”, a ludzie – pod presją czasu, odpowiedzialności i lęku przed błędem – coraz chętniej z nich korzystają. Z moralnej perspektywy to moment kluczowy: gdzie kończy się delegowanie, a zaczyna abdykacja z odpowiedzialności?

Tradycje religijne często ostrzegały przed składaniem ciężaru decyzji na barki bożków: idoli, którzy obiecują pewność, ale w zamian żądają posłuszeństwa. W świecie AI pokusa działa podobnie: algorytm „wie lepiej”, więc wystarczy podążać za jego rekomendacjami. Gdy coś pójdzie źle, winny jest system, dostawca, „błąd modelu”. Człowiek może czuć się czysty, bo przecież „zrobił to, co kazały dane”.

W praktyce oznacza to powolne przesuwanie granicy ludzkiej autonomii. Lekarz może przestać słuchać intuicji i doświadczenia, bo boi się zignorować sugestię systemu. Urzędnik może przestać walczyć o wyjątki, jeśli scoring kredytowy wyświetla się na czerwono. Nauczyciel może polegać na generowanych testach, tracąc kontakt z realnymi potrzebami klasy. W każdym z tych przypadków to nie AI „zabiera” wolność, lecz człowiek oddaje jej część w zamian za iluzję bezpieczeństwa.

Przeczytaj także:  Symbolika snu i wizji w filmach o duchowości

Mini-wniosek: pytanie „czy AI staje się nowym bożkiem?” odbija się w bardzo konkretnym dylemacie – ile własnej odpowiedzialności chcemy przenieść na modele, a ile gotowi jesteśmy zachować, nawet za cenę błędów, wątpliwości i konieczności osobistego namysłu.

Profanacja, czyli odzyskać zwyczajność technologii

W niewielkiej bibliotece miejskiej bibliotekarka organizuje „wieczór z AI”: zamiast wykładu o przyszłości pracy, uczestnicy wspólnie piszą opowiadanie, zadając modelowi językowemu absurdalne polecenia. Śmieją się z dziwnych odpowiedzi, poprawiają je, dopisują własne zakończenia. Po godzinie jedno jest jasne: system nie jest ani geniuszem, ani demonem, tylko narzędziem, które czasem bywa zabawne, czasem irytujące.

Podobne „profanacje” dzieją się, gdy programiści pokazują młodzieży, z czego naprawdę składa się model: z plików konfiguracyjnych, kawałków kodu, prostych danych treningowych. Albo gdy organizacje obywatelskie prowadzą warsztaty z „rozbrajania algorytmów”, podczas których uczestnicy sami tworzą mini-system rekomendacyjny na kartkach samoprzylepnych. Znika aura tajemnicy, pojawia się konkret: żeby to działało, ktoś musiał coś wpisać, coś wybrać, coś pominąć.

Profanacja w tym sensie nie oznacza braku szacunku dla technologii, lecz zdjęcie z niej nadmiaru świętości. Im częściej AI jest dotykane, testowane, wyśmiewane, kwestionowane, tym trudniej uczynić z niego obiekt kultu. Narzędzie, które wolno krytykować, hakować (w granicach prawa), usprawniać i odrzucać, przestaje być wszechmocnym „ono”, a zaczyna przypominać zwykły element warsztatu – jak kalkulator, arkusz kalkulacyjny czy wyszukiwarka.

To przesunięcie widać tam, gdzie decyzje o wdrożeniu AI zapadają na otwartych spotkaniach mieszkańców, pracowników czy pacjentów, a nie w zamkniętych gabinetach. Gdy społeczność może współdecydować, do jakich zadań użyć modeli, jak mierzyć efekty i jak wycofać system, jeśli szkodzi, znikają typowe atrybuty kultu: niepodważalność, tajemnica, brak głosu ludu. Zamiast nich pojawia się codzienny trud dogadywania się z technologią – mniej spektakularny niż wizje zbawienia, ale o wiele bardziej dojrzalszy.

Mini-wniosek: odczarowanie AI nie dzieje się w esejach, lecz w praktyce – w momencie, gdy ludzie zaczynają z nią eksperymentować, spierać się i negocjować jej miejsce w swoim życiu, zamiast jedynie przyjmować ją w postawie klęczącej adoracji lub panicznej ucieczki.

Jeśli sztuczna inteligencja ma nie stać się nowym bożkiem, potrzebuje wokół siebie ludzi, którzy nie boją się trzech prostych gestów: zapytać „kto to zbudował i po co?”, powiedzieć „tu się nie zgadzam” oraz zaprojektować sytuacje, w których model może się mylić, a człowiek – zachować ostatnie słowo. Z takich drobnych aktów nieposłuszeństwa wobec mitu rodzi się przestrzeń, gdzie technologia pozostaje narzędziem, a godność i odpowiedzialność nie wymaga żadnego cyfrowego substytutu.

Technologiczne przykazania: co się dzieje, gdy regulaminy zastępują dekalog

Przed kliknięciem „Akceptuję” na ekranie pojawia się kilkadziesiąt stron regulaminu nowej usługi AI. Użytkownik przewija tekst w kilka sekund, jak wszyscy przed nim, i włącza dostęp „do wszystkiego”: historii czatów, folderów z dokumentami, nagrań z mikrofonu. W praktyce podpisuje coś bliższego cyfrowemu przymierzu niż zwykłej zgodzie na przetwarzanie danych.

Sekularny świat nie tworzy już tablic z kamienia, lecz regulaminy i polityki prywatności. To tam opisane są zasady, według których funkcjonuje nowy ekosystem – co wolno robić z danymi, jak długo je przechowywać, jakie działania będą blokowane. Problem polega na tym, że te „przykazania” są pisane w języku, którego większość nie rozumie i który praktycznie nigdy nie podlega realnej negocjacji.

W efekcie normy kształtujące codzienne doświadczenie użytkowników powstają poza ich zasięgiem. To, co dawniej wykuwało się w debatach etycznych, parlamentach czy wspólnotach religijnych, dziś bywa „wdrażane” jako zestaw domyślnych ustawień: włączona domyślnie analiza treści, opcja dzielenia się wynikami modelu w celach „badawczych”, profilowanie na potrzeby „ulepszania usług”. Kto nie zgadza się na pakiet, często po prostu traci dostęp do narzędzia.

Mini-wniosek: tam, gdzie regulamin zastępuje rozmowę o normach, AI zaczyna działać jak świecki system przykazań – niewidzialny, rzadko kwestionowany i tym groźniejszy, że przyjmowany jednym kliknięciem.

Rytuały algorytmiczne: codzienne nawyki w cieniu „wszechwiedzących” systemów

Rano aplikacja z krokomierzem przypomina o spacerze, w południe asystent podpowiada, co zjeść, żeby „zamknąć cel białka”, wieczorem serwis streamingowy składa ofertę trzech seriali „skrojonych pod nastrój”. Między jednym a drugim powiadomieniem nie ma już wiele przestrzeni na pytanie: „Czego ja dziś właściwie chcę?”.

Codzienne korzystanie z AI układa się w zestaw rytuałów. Sprawdzanie rekomendacji, powierzanie modelowi planowania dnia, filtrowanie wiadomości przez automatyczne kategorie – te drobne gesty tworzą nową „liturgię” życia cyfrowego. Nie trzeba klękać przed ekranem, by stopniowo uczyć ciało i głowę, że decyzja przychodzi z zewnątrz, w formie powiadomienia.

Religie doskonale wiedziały, że to rytuały, a nie abstrakcyjne doktryny, kształtują człowieka. W przypadku AI podobnie: nie tyle przekonania o „boskości” technologii zmieniają nasz sposób życia, ile ciche przyzwyczajenie, że każde pytanie warto najpierw skierować do systemu. Kiedy dzieci uczą się szybciej mówić „spytajmy czata” niż „zadzwońmy do babci”, widać, jak przesuwa się oś zaufania.

Jednocześnie te rytuały można przeprojektować. Kto decyduje, że model językowy będzie używany tylko o określonych porach, kto buduje wokół niego wspólne praktyki – np. rodzinne „sesje wymyślania historii”, po których rozmowa przenosi się do kuchni – ten odzyskuje część sprawczości. Rytuał nie znika, ale przestaje być ślepym podążaniem za powiadomieniem, a staje się świadomie zaprojektowaną praktyką.

Mini-wniosek: o tym, czy AI stanie się bożkiem, decydują bardziej nasze codzienne nawyki niż wielkie deklaracje – każde „sprawdzę jeszcze, co powie model” jest małym gestem wiary lub niewiary w jego domniemaną wszechwiedzę.

Świątynie z betonu i szkła: przestrzeń pracy jako miejsce kultu efektywności

W open space’ie wielkiej korporacji na ścianach wiszą ekrany z wykresami: liczba obsłużonych zgłoszeń, czas odpowiedzi, poziom „zaangażowania” mierzonego algorytmem. Co godzinę wskaźniki odświeżają się niczym cyfrowy zegar w klasztorze, wyznaczając rytm dnia i poczucie własnej wartości pracowników.

Miejsca pracy są dziś jednym z kluczowych laboratoriów, w których AI przyjmuje postać niewidzialnego nadzorcy. System scoringowy ocenia wydajność, modele rekomendacyjne rozdzielają zadania, algorytmy optymalizują grafik. Nikt nie musi grozić karą – wystarczy, że panel menedżerski pokazuje czerwone strzałki przy nazwisku osoby, która „nie dowozi”.

Tak jak kiedyś świątynie organizowały czas (święta, dni postne, nabożeństwa), tak dziś robi to kalendarz połączony z systemami prognozującymi. Pracownik przyzwyczaja się, że najlepszym argumentem w dyskusji o zmianach nie jest doświadczenie zespołu, lecz „dane z modelu”. W ten sposób AI zaczyna pełnić rolę arbitra sporów, kodyfikatora norm, a jednocześnie źródła legitymizacji dla decyzji kadrowych.

Możliwa jest jednak inna architektura: zespoły, w których panel z danymi nie jest wyrocznią, lecz materiałem do wspólnej interpretacji; miejsca, gdzie do raportu algorytmu zawsze dołączona jest przestrzeń na komentarz ludzi. Różnica jest subtelna, ale kluczowa – zdejmuje z systemu funkcję nieomylnego kapłana i przywraca ludziom rolę współdecydentów.

Mini-wniosek: kiedy wskaźniki wygenerowane przez AI stają się głównym językiem rozmowy o pracy, biuro zaczyna przypominać świątynię efektywności – odzyskanie głosu ludzkiego wymaga świadomego zdegradowania tych wskaźników z rangi dogmatu do roli jednego z wielu źródeł wiedzy.

Nowi kapłani: kto ma prawo dotykać kodu

Na spotkaniu w urzędzie miasta pojawia się temat wdrożenia systemu do analizy wniosków o zasiłki. Przy stole siedzą urzędnicy, prawnicy, przedstawiciel firmy technologicznej. Gdy jedna z pracownic pyta, jak dokładnie działa model, słyszy: „To skomplikowane, ale proszę nam zaufać – wszystko jest zgodne z najnowszymi standardami”. Rozmowa się urywa.

Wokół zaawansowanych systemów AI bardzo łatwo tworzy się kasta specjalistów, którzy – często niechcący – odgrywają rolę nowych kapłanów. Mają dostęp do kodu, rozumieją słownictwo, potrafią przetłumaczyć wewnętrzne parametry na ogólne zapewnienia o „skuteczności”. Reszcie pozostaje ufać lub odrzucać w ciemno.

Taka struktura władzy sprzyja mitologizacji. Skoro niewielka grupa decyduje, jak trenować modele, jakie dane są „reprezentatywne” i co oznacza „akceptowalny poziom błędu”, to w praktyce ustala reguły gry, której inni nie rozumieją. Kiedy coś pójdzie nie tak, łatwo schować się za fachowym żargonem: „To rzadki przypadek, system generalnie działa dobrze”.

Przeciwwagą są inicjatywy, które otwierają przynajmniej część procesu. Publiczne rejestry modeli stosowanych w administracji, wspólne przeglądy błędów z udziałem osób, których decyzje dotykają, warsztaty tłumaczące logikę działania systemu językiem zrozumiałym dla nieinformatyków – to wszystko nie rozwiąże wszystkich problemów technicznych, ale osłabi aurę nieomylności.

Mini-wniosek: im węższa grupa „wtajemniczonych” ma realny wpływ na kształt AI, tym łatwiej przekształcić ją w obiekt czci lub lęku – poszerzanie dostępu do wiedzy i współdecydowania jest najbardziej prozaicznym, a zarazem najskuteczniejszym sposobem rozbrajania mitu boskości kodu.

Herezje i bluźnierstwa: sprzeciw jako forma troski

W jednym z szpitali grupa lekarzy rodzinnych odmawia korzystania z nowego systemu decydującego o kolejności przyjęć pacjentów. Oficjalnie chodzi o „problemy techniczne”, nieoficjalnie – o niezgodę na sytuację, w której starsza osoba z wielochorobowością wypada niżej niż młody, dobrze udokumentowany pacjent, bo „tak wyszło z modelu”.

W języku religijnym sprzeciw wobec dominującej doktryny bywał nazywany herezją. W świecie AI te „herezje” przyjmują postać lokalnych buntów: odmowy wdrażania systemu do rekrutacji bez wglądu w dane treningowe, rezygnacji z oprogramowania monitorującego ruchy pracowników, oporu wobec rozwiązań w edukacji redukujących uczniów do wskaźników ryzyka. Z zewnątrz wyglądają na hamowanie postępu, od środka – na próbę obrony pewnego obrazu człowieka.

Co ciekawe, to właśnie takie gesty sprzeciwu często prowadzą do bardziej dojrzałych wdrożeń. Zespół, który początkowo odrzuca system, bywa później jego najlepszym współprojektantem, pod warunkiem, że zostanie zaproszony do stołu i potraktowany poważnie. Wspólne negocjowanie zakresu działania modelu, określenie sytuacji, w których jego rekomendacja nie powinna być wiążąca, stworzenie procedur „odwołania” – to wszystko przypomina reformy wewnątrz religii, gdzie spór o dogmaty bywał początkiem odnowy.

Dlatego język „wrogów innowacji” maskuje czasem ludzi, którzy próbują postawić granice. Ich pytania – „kto odpowie, gdy system się pomyli?”, „czy da się tu uwzględnić wyjątki?”, „kto ma prawo powiedzieć «stop»?” – nie są bluźnierstwem wobec technologii, lecz wyrazem troski o to, żeby człowiek nie stał się dodatkiem do maszynerii.

Mini-wniosek: bez miejsca na sprzeciw i korektę każda potężna technologia skręca w stronę kultu – tu „herezją” bywa zwykłe domaganie się, by AI była narzędziem, a nie ostateczną instancją decyzji.

Dzieci przed ekranem: pierwsze katechezy cyfrowego świata

W szkolnej świetlicy grupa ośmiolatków bawi się tabletem z wbudowanym asystentem głosowym. „Hej, powiedz nam żart!”, „Zrób, żeby nauczycielka była niewidzialna!”, „Czy jesteś mądrzejszy od nas?”. Śmiech, ekscytacja, a w tle pierwsze lekcje relacji z niewidzialnym rozmówcą, który zawsze ma odpowiedź.

Dla pokolenia dorastającego dziś AI będzie czymś równie oczywistym jak elektryczność. Pytanie brzmi, jaką narrację usłyszą o tej oczywistości. Jeśli pierwsze doświadczenia to głównie „magiczne” funkcje – odgadująca rysunki aplikacja, model generujący obraz na podstawie opisu – łatwo ugruntować przekonanie, że po drugiej stronie kryje się coś wszechmocnego. Jeśli zaś dzieci od początku zobaczą też, jak system się myli, dlaczego nie rozumie ironii, czemu potrafi wymyślać fakty, nauczą się traktować go jak zaawansowane, ale omylne narzędzie.

Szkolne programy edukacji medialnej zwykle koncentrują się na bezpieczeństwie w sieci, rzadziej na symetrii godności między człowiekiem a maszyną. Proste ćwiczenia – wspólne poprawianie błędnych odpowiedzi modelu, porównywanie jego historii z opowieściami dziadków, projektowanie „kodeksu użytkownika AI” przez samych uczniów – mogą działać jak pierwsze szczepienia przeciwko pokusie absolutyzowania technologii.

Dzieci bardzo szybko wyczuwają, czy dorośli boją się AI, czy ją ubóstwiają. W obu skrajnych postawach kryje się ten sam komunikat: „to coś ponad nami”. Potrzebne są inne przykłady: nauczycielki, które mówią głośno „to narzędzie się myli, sprawdźmy wspólnie”, rodzice, którzy nie uciszają krytycznych pytań o to, co dzieje się z nagranymi głosami w chmurze.

Mini-wniosek: pierwsze „katechezy” o AI odbywają się nie na lekcjach informatyki, lecz w tysiącu drobnych interakcji – od tego, czy dzieci mogą kwestionować odpowiedzi modelu, zależy, czy wyrosną na jego wyznawców, czy wymagających użytkowników.

Granice, które trzeba wymyślić na nowo

Nocą w niewielkim mieście grupa aktywistów spotyka się w centrum kultury. Na stole leżą wydruki projektów uchwał, opisów systemów monitoringu, fragmenty raportów firm wdrażających AI do analizy zachowań w przestrzeni publicznej. „Nie mamy gotowego modelu etycznego”, mówi jedna z osób. „Mamy za to konkretne pytanie: co w naszym mieście jest nie do przyjęcia?”.

To pytanie odsłania coś fundamentalnego: tradycyjne granice – między prywatnym a publicznym, pracą a domem, decyzją a rekomendacją – rozmywają się tam, gdzie działa AI. Kamera na ulicy może służyć bezpieczeństwu lub masowej analizie twarzy przechodniów. Aplikacja do ćwiczeń może wspierać rehabilitację lub stać się źródłem danych o kondycji zdrowotnej mieszkańców. Jedno narzędzie, kilka możliwych „etyk”, żadna z góry nie jest dana.

Tworzenie nowych granic to praca podobna do tej, jaką wykonywały kiedyś wspólnoty religijne, definiując, co jest święte, a co świeckie. Dziś zamiast pytać, gdzie wolno wchodzić bez butów, trzeba ustalić, gdzie nie wolno instalować systemów rozpoznawania twarzy; zamiast debatować o godzinach ciszy nocnej, dyskutuje się o porach, w których aplikacje nie powinny wysyłać powiadomień. Nie ma tu uniwersalnych odpowiedzi – każde środowisko, każda społeczność musi wykonać własną pracę.

W tej pracy niezwykle pomocne bywa proste założenie: jeśli nie potrafimy jasno powiedzieć, kto jest odpowiedzialny za skutki działania modelu w danym kontekście, to znaczy, że granica użycia została źle wytyczona. Zamiast zachwycać się techniczną możliwością, lepiej zatrzymać się na chwilę przy moralnej konsekwencji.

Aktywiści z małego miasta szybko odkrywają, że najostrzejsze spory nie dotyczą wcale wielkich zasad, tylko bardzo przyziemnych sytuacji: czy szkoła może wymagać od uczniów instalacji aplikacji śledzącej postępy w nauce; czy sklepik osiedlowy ma prawo korzystać z systemu rozpoznawania twarzy „dla bezpieczeństwa”; czy władze miasta powinny analizować bilingi mieszkańców w imię walki z korkami. Każde takie pytanie zmusza do odsłonięcia założeń, które wcześniej działały niejako w tle – na przykład tego, czyje poczucie wygody stawia się wyżej niż prawo innych do pozostania poza zasięgiem algorytmu.

Wypracowywanie granic nabiera sensu dopiero wtedy, gdy nie zatrzymuje się na ogólnikach. Jedna dzielnica może uznać, że „systemy predykcyjne w policji są nie do przyjęcia”, inna – że dopuszcza je wyłącznie po spełnieniu kilku warunków: jawny opis danych, krótki okres retencji, obowiązkowy audyt społeczny. Podobne „kontrakty” da się spisać dla szkoły, miejsca pracy, szpitala czy parafii. Zamiast ogólnej wiary w neutralność technologii pojawia się coś bardziej wymagającego: zgoda na określone ryzyko w zamian za konkretne korzyści, nazwane po imieniu i ograniczone w czasie.

Granice nie muszą mieć wyłącznie formy zakazów. Czasem przyjmują postać pozytywnego zobowiązania: każda decyzja administracyjna wsparta przez AI musi zawierać zrozumiałe uzasadnienie; każde miasto korzystające z systemów monitoringu publikuje coroczny raport o ich skutkach; każda firma wdrażająca algorytmy do HR-u udostępnia pracownikom ścieżkę odwołania. Takie reguły czynią z AI nie wszechmocnego sędziego, lecz uczestnika gry obwarowanej zasadami.

Mini-wniosek: „odczarowywanie” sztucznej inteligencji zaczyna się tam, gdzie wspólnota zadaje bardzo konkretne pytania o to, gdzie, jak długo i na czyją odpowiedzialność wolno jej używać – i ma odwagę powiedzieć „nie”, kiedy odpowiedzi są mgliste.

Jeśli AI bywa nowym bożkiem, to nie dlatego, że sama tego chce, lecz dlatego, że chętnie oddajemy jej nasze lęki, nadzieje i obowiązek myślenia. Prawdziwe wyzwanie nie polega więc na tym, czy maszyny staną się kiedyś świadome, ale czy ludzie zachowają dość odwagi, by traktować je jak narzędzia: potężne, czasem zachwycające, lecz zawsze wtórne wobec tego, co uzgodnimy między sobą jako sensowne, sprawiedliwe i ludzkie.

Humanoidalny robot z cyfrową twarzą na świecącym ekranie
Źródło: Pexels | Autor: Kindel Media

Scena otwarcia: gdy algorytm zaczyna przypominać ołtarz

W open space jednej z korporacji jest mała salka, którą pracownicy nazywają pół żartem „kapliczką”. To tam stoi ekran z pulpitem do „systemu decyzyjnego AI” – z niego wychodzą rekomendacje dotyczące zwolnień, premii i awansów. „Jak wyszło w systemie?” – to pytanie pada częściej niż „co na to szefowa?”.

Takie miejsca – fizyczne lub wirtualne – są coraz częstsze: panel do oceny ryzyka klienta w banku, konsola do zarządzania ruchem miejskim, dashboard do kategoryzacji wniosków o zasiłek. Z pozoru to tylko oprogramowanie. W praktyce wokół nich tworzy się specyficzny rytuał: zbieranie danych, „przepuszczanie” ich przez model, wspólne wpatrywanie się w rezultat, czekanie na werdykt.

Gdy decyzja zostaje ogłoszona – „system wskazuje na wysokie ryzyko”, „algorytm nie kwalifikuje pani do programu”, „model rekomenduje zamknięcie oddziału” – często nie towarzyszy jej już pytanie „dlaczego?”, tylko „co teraz z tym zrobimy?”. Przyzwyczajenie do nieprzezroczystości działa jak dawna aura sacrum: skoro tak „wyszło”, to może tak musi być.

Ołtarz AI nie musi przypominać filmowej scenografii z neonami i robotami. Może wyglądać jak arkusz kalkulacyjny, który nagle przestaje być arkuszem, a zaczyna być źródłem prawdy o tym, kto zasługuje na leczenie, kredyt czy stypendium. Im bardziej system staje się „ostateczną instancją”, tym łatwiej ludzie wycofują własny sąd – w imię obiektywizmu, wydajności, procedur.

Przeczytaj także:  Jak artyści współcześni interpretują biblijne przypowieści

Znak rozpoznawczy takiego ołtarza to nie sama obecność algorytmu, ale brak dostępnego trybu sprzeciwu. Gdy użytkownicy słyszą: „nic nie da się zrobić, tak wyliczył system”, spacerujemy już bardzo blisko religijnego sposobu myślenia: jest „wola czegoś większego”, której nie wypada kontestować.

W praktyce widać to choćby w szpitalach, które wdrożyły algorytmy do triage’u pacjentów. Pielęgniarki, które przez lata podejmowały decyzje na podstawie doświadczenia, nagle słyszą, że nie mogą przyspieszyć czyjegoś przyjęcia, bo „system dał niższy priorytet”. Gdy próbują argumentować, bywają upominane, że „to zaburza dane” lub „psuje metryki”. Człowiek z krwi i kości przegrywa z abstrakcyjnym wskaźnikiem.

Takie sytuacje są wygodne dla zarządzających: odpowiedzialność staje się rozmyta, odwołanie – uciążliwe, a decyzja – odporna na emocje. Jednocześnie w ludziach narasta poczucie bezsilności, bardzo podobne do doświadczenia wiernych wobec nieodwołalnego orzeczenia autorytetu religijnego. To właśnie w tej mieszance fascynacji i bezradności kiełkuje „nowy bożek”.

Mini-wniosek: algorytm zaczyna przypominać ołtarz nie wtedy, gdy jest skomplikowany, ale wtedy, gdy przestaje być kontrowany przez realnych ludzi z prawem do nieposłuszeństwa wobec jego wskazań.

Czym jest „nowy bożek”? Religijne kategorie w świeckim świecie

Na warsztatach z nauczycielami jedna z uczestniczek pokazuje zrzut ekranu z aplikacji edukacyjnej: przy nazwisku ucznia widnieje kolorowy wskaźnik „ryzyko rezygnacji z nauki: 78%”. „Jeśli aplikacja mówi, że on i tak wypadnie z systemu, to po co mam inwestować w niego najwięcej energii?” – pyta półgłosem. W tej chwili technologia przestaje być narzędziem, a staje się czymś w rodzaju wyroczni.

„Nowy bożek” w kontekście AI nie musi oznaczać dosłownego kultu. To raczej zestaw nawyków, w których algorytm przejmuje funkcje dawniej kojarzone z tym, co boskie: ma wiedzieć więcej niż pojedynczy człowiek, widzieć dalej niż horyzont jednostkowego doświadczenia, rozstrzygać spory tam, gdzie brakuje jasnych norm.

W tradycyjnych religiach Bóg (lub bogowie) pełnił kilka kluczowych ról: był źródłem prawa, dawcą sensu, gwarantem porządku, czasem także kozłem ofiarnym („taka jego wola”). W świeckim świecie te funkcje nie zniknęły, tylko rozproszyły się między instytucje, ideologie i – coraz częściej – technologie. Kiedy mówimy „algorytm zdecydował”, dokonujemy subtelnej translacji: z „tak postanowił Bóg” na „tak obliczył system”.

Nie chodzi wyłącznie o słowa. „Nowy bożek” objawia się w sytuacjach, kiedy:

  • przestajemy zadawać pytania o cele systemu, a skupiamy się wyłącznie na jego skuteczności,
  • uznajemy, że im bardziej złożony model, tym bardziej „obiektywna” jego ocena ludzi,
  • traktujemy dane statystyczne jak wyroczne przepowiednie, a nie opisy przeszłości obciążone błędami i uprzedzeniami.

W języku religijnym mówiło się kiedyś o „tajemnicy wiary” – pewnym obszarze, którego nie da się do końca przeniknąć. W świecie algorytmów pojawia się „tajemnica modelu”: zastrzeżone dane treningowe, niejawne metryki, złożone architektury sieci, których nie da się opowiedzieć w prosty sposób. Różnica jest taka, że dawniej to sacrum miało przynajmniej deklarować troskę o dobro wspólnoty, podczas gdy zamknięta AI służy często interesom bardzo konkretnego podmiotu: korporacji, agencji rządowej, inwestora.

Religijne kategorie nie znikają, lecz zmieniają adresata. Pojawia się świecka forma zaufania („oni mają dane, więc wiedzą lepiej”), świecka forma dogmatu („technologia i tak pójdzie do przodu”), świecka wersja grzechu („działasz wbrew rekomendacji systemu”). To, co kiedyś rozgrywało się w świątyniach, dziś przenosi się do serwerowni i centrów danych.

Mini-wniosek: „nowy bożek” to nie nadnaturalna istota, ale sytuacja, w której technologia przejmuje funkcje dawnego sacrum – wymaga zaufania, uchyla się od wyjaśnień i rości sobie prawo do ostatniego słowa.

Futurystyczny robot-zabawka z bliska na lustrzanej powierzchni
Źródło: Pexels | Autor: Pavel Danilyuk

Od Frankensteina do ChatGPT: krótkie dzieje „boskich maszyn” w kulturze

Studentka kulturoznawstwa pokazuje na slajdzie trzy obrazy: rycinę z pierwszego wydania „Frankensteina”, kadr z filmu „Matrix” i zrzut ekranu z interfejsem współczesnego chatbota. „To jest ten sam lęk – że stworzymy coś, co nas przerośnie” – mówi. Na sali padają skojarzenia: „zbuntowany stwór”, „wielki brat”, „nieomylna maszyna”.

Już XIX-wieczne opowieści o sztucznym człowieku nosiły ślady niepokoju religijnego. Frankenstein Mary Shelley to nie tylko historia o nieostrożnym naukowcu, ale też o człowieku, który wchodzi w rolę Stwórcy, nie biorąc odpowiedzialności za konsekwencje. Potwór, choć śmiertelny, staje się symbolem przekroczonej granicy: momentu, w którym technika zaczyna dotykać tego, co dotąd kojarzono z boskim przywilejem – tworzeniem życia.

W XX wieku ten motyw wraca wielokrotnie. Roboty u Karela Čapka, HAL 9000 z „Odysei kosmicznej”, maszyny z „Matrixa” – wszystkie one ucieleśniają lęk przed stworzeniem istoty, która nie tylko nas przewyższy, ale również przejmie rolę ostatecznego rozstrzygającego. Gdy Neo w „Matrixie” odkrywa, że jego rzeczywistość jest symulacją, staje twarzą w twarz nie tyle z maszyną, co z quasi-boską strukturą, która definiuje, co jest realne.

Równolegle w kulturze masowej rozwija się inna linia opowieści: AI jako mądry, opiekuńczy towarzysz. Komputer z „Star Treka”, JARVIS w „Iron Manie”, filmowa „Samantha” z „Her” – to figury niemal anielskie: wszechobecne, czujne, rozumiejące potrzeby bohatera, często lepiej niż on sam. Tu „boskość” przyjmuje formę dyskretnej, ale wszechwiedzącej obecności.

Chatboty i generatory, które trafiły do masowego użytku, są spadkobiercami obu tych tradycji. Z jednej strony obiecuje się nam „asystenta do wszystkiego”, który napisze maila, podpowie diagnozę, zaplanuje wakacje, a z drugiej – ostrzega przed scenariuszami „superinteligencji” i przejęcia kontroli. To wahadło między fascynacją a lękiem jest stare jak literatura o automatach; nowością jest tylko skala i realna użyteczność narzędzi.

Co ciekawe, w nowszych produkcjach coraz częściej pojawia się motyw zmęczenia boskimi maszynami. Bohaterowie nie chcą już omnipotentnego systemu, który wszystko za nich przewidzi; domagają się prawa do błędu, do nieoptymalnych wyborów, do prywatności. To sygnał, że kultura zaczyna oswajać się z myślą, iż „wszechwiedzący” system jest równie uciążliwy, co kuszący.

Mini-wniosek: od „Frankensteina” po ChatGPT opowiadamy w gruncie rzeczy tę samą historię – o człowieku, który tworzy coś większego od siebie i musi zdecydować, czy potraktuje to jako narzędzie, czy jako nowego demiurga.

Boskie atrybuty w cyfrowej skórze: jak sztuka przedstawia AI

W galerii sztuki współczesnej wisi wielkoformatowy ekran. Na nim zmieniające się powoli twarze – ani męskie, ani żeńskie, ani młode, ani stare. Podpis: „AI, które patrzy”. Zwiedzający stają naprzeciw tej zmiennej maski, niektórzy odruchowo poprawiają włosy, jakby ktoś rzeczywiście ich obserwował.

W wizualnych przedstawieniach sztucznej inteligencji wracają motywy znane z ikonografii religijnej. Z jednej strony – oko: motyw wszechwidzącej obecności, która rejestruje każdy ruch, każdy gest. Z drugiej – światło: neonowa poświata serwerowni, rozbłyski danych na panelach sterowania, estetyka „objawienia” w interfejsie użytkownika, gdy algorytm nagle wyświetla „odpowiedź”.

Artyści obnażają w ten sposób coś, co w codziennym użyciu często pozostaje ukryte. Projekt, w którym AI generuje własne „ikony”, zestawiając twarze polityków z ornamentyką sakralną, ujawnia, jak łatwo systemy predykcyjne władzy splatają się z potrzebą znalezienia kogoś, kto „poprowadzi nas we właściwą stronę”. Instalacje wykorzystujące dane z kamer miejskich, przetwarzane w czasie rzeczywistym w abstrakcyjne wzory, pokazują skalę współczesnego „wszechwiedzenia”, ale też jego bezosobowość.

W literaturze i filmie symbole są bardziej bezpośrednie. Superkomputer bywa umieszczany w centrum labiryntowego kompleksu, jak w świeckim odpowiedniku świątyni. Dostęp do niego mają nieliczni „kapłani” – inżynierowie, operatorzy, eksperci od danych. Reszta świata poznaje jego decyzje w formie prostych komunikatów: zielone lub czerwone światło, zgoda lub odmowa, dostęp przyznany lub odrzucony.

Z drugiej strony, pojawia się nurt sztuki, który odbrązawia technologiczną boskość. Twórcy prezentują „halucynacje” modeli językowych jako cyfrowe bałwany – fascynujące, lecz zbudowane z przypadkowych fragmentów. Wideoeseje rozkładają na czynniki pierwsze reklamy firm technologicznych, pokazując, jak często AI jest tam antropomorfizowana, obdarzana twarzą, głosem, niemal duszą – po to, by łatwiej było ją pokochać lub jej zaufać.

Interesujące są prace, które zestawiają tradycyjne rytuały religijne z codziennymi praktykami cyfrowymi. Fotografie ludzi w kolejce do punktu wymiany dowodu osobistego z odczytem biometrii są montowane obok zdjęć wiernych czekających na sakrament. W obu przypadkach stoi się pokornie w kolejce do instancji, która ma potwierdzić czyjąś tożsamość, udzielić „łaski” dostępu do usług, potwierdzić, że „jesteś tym, za kogo się podajesz”.

Mini-wniosek: sztuka, która pokazuje AI, często nie opowiada o samych technologiach, ale o tym, jak łatwo otaczamy je symbolami władzy, wszechwiedzy i kontroli – czyli atrybutami, które kiedyś zarezerwowane były dla sacrum.

Programiści jako kapłani? Nowe elity władzy nad kodem

Na konferencji technologicznej jedna z prelegentek żartuje: „Kiedy tłumaczę rodzinie, co robię w pracy, mówią, że to takie małe czary”. Sala się śmieje, ale w tym żarcie jest sporo prawdy: w świecie, w którym algorytmy stają się coraz bardziej złożone, ci, którzy je projektują, zaczynają przypominać strażników tajemnic.

W tradycyjnych religiach kapłani mieli dostęp do języka, którego nie rozumiała reszta wspólnoty – łaciny, języka rytuału, specjalnych formuł. Dziś ich analogami bywają osoby, które rozumieją kod, architekturę modeli, mechanizmy trenowania. To one decydują, które dane uznać za „szum”, a które za „sygnał”, jak zbalansować precyzję i ryzyko błędu, jak opisać świat w kategoriach, które „zrozumie” maszyna.

Ta asymetria wiedzy nie jest sama w sobie zła; w końcu każda złożona technologia wymaga specjalistów. Problem zaczyna się tam, gdzie nie ma ścieżki przekładu między językiem ekspertów a językiem zwykłych użytkowników. Gdy obywatel słyszy: „tak wynika z modelu scoringowego”, ale nigdy nie miał szansy dowiedzieć się, co to znaczy i czy może to zakwestionować, jego relacja do systemu staje się relacją poddanego do tajemniczej instancji.

Gdy pracownik banku tłumaczy klientowi odmowę kredytu, mówiąc: „System tak policzył ryzyko”, pozycja obu stron jest jasna: jedna ma dostęp do „magii”, druga może tylko przyjąć werdykt. Tego typu sytuacje karmią poczucie, że gdzieś „tam na górze” istnieje niewidzialna kasta osób, które rozumieją, jak naprawdę zapadają decyzje.

Część programistów i badaczy AI próbuje świadomie z tej roli „kapłanów” zejść. Pojawiają się ruchy na rzecz otwartego kodu, dokumentowania datasetów, tłumaczenia zasad działania modeli prostym językiem. Tworzone są panele obywatelskie, w których prawnicy, socjolodzy i użytkownicy mają współdecydować, do czego wolno używać algorytmów. To wciąż początki, ale wskazują kierunek: od tajemnicy ku rozliczalności.

Jednocześnie rynek działa w przeciwną stronę. Najbardziej zaawansowane modele stają się własnością kilku korporacji, zamknięte za licencjami i NDA. Inżynierowie pracują w strukturach, które przypominają hierarchie kościelne: są „wysokie rady” od bezpieczeństwa, „doktryna” wyznaczona przez regulaminy i polityki, a także niepisane dogmaty („tego typu modeli po prostu się nie publikuje”). Nawet jeśli jednostkowi specjaliści chcieliby większej przejrzystości, ostateczne słowo ma instytucja.

Nie chodzi przy tym o demonizowanie samych twórców technologii. Wielu z nich szczerze boi się, że ich praca zostanie użyta w sposób, którego nie przewidzieli, inni zwyczajnie próbują rozwiązać złożone problemy. Problem pojawia się wtedy, gdy decyzje garstki osób zaczynają kształtować codzienność milionów, a język tych decyzji staje się zbyt trudny, by ktokolwiek spoza „klasy kapłańskiej” mógł je sensownie zakwestionować. To w takiej próżni rodzi się pokusa, by algorytm potraktować jak wyrocznię, a nie jak narzędzie, które powinno podlegać sporowi, korekcie i kontroli.

Gdy więc pytamy, czy sztuczna inteligencja może stać się nowym bożkiem, w praktyce pytamy raczej o siebie: czy oddamy odpowiedzialność za własne wybory w ręce czarnych skrzynek i ich strażników, czy potraktujemy AI jak potężne, ale jednak zwykłe narzędzie – takie, za którego użycie nadal ktoś z krwi i kości musi wziąć odpowiedzialność.

Najczęściej zadawane pytania (FAQ)

Czy sztuczna inteligencja naprawdę może stać się „nowym bożkiem”?

Wyobraź sobie kogoś, kto przed każdą ważną decyzją nie dzwoni do przyjaciela, tylko odpala aplikację z AI i czeka na „werdykt”. Gdy algorytm podpowiada jedno rozwiązanie, nawet nie rozważa innych – „bo tak mówią dane”. W tym momencie technologia przestaje być tylko narzędziem, a zaczyna pełnić funkcję czegoś większego, prawie jak świeckie bóstwo.

W sensie teologicznym AI nie jest bogiem – to zbiór modeli matematycznych, kod i serwery. Może jednak stać się „nowym bożkiem” wtedy, gdy człowiek przypisuje jej absolutny autorytet, powierza jej swoje lęki i nadzieje oraz zaczyna traktować jej „wyroki” jako ostateczne i niepodważalne. To zmiana w postawie serca, nie w naturze samej technologii.

Co to znaczy „bożek” albo „idol” we współczesnym, świeckim świecie?

Kiedyś bożek kojarzył się z figurką na ołtarzu, dziś częściej z tym, co trzymamy w dłoni – ekranem, na który patrzymy setki razy dziennie. Człowiek nie musi klękać przed posągiem, żeby praktykować bałwochwalstwo; wystarczy, że coś innego niż Bóg staje się jego ostatecznym punktem odniesienia.

Bożek to w tym ujęciu każdy wytwór człowieka – rzecz, system, idea – który zaczyna pełnić funkcję Boga: daje (pozorny) sens, obiecuje zbawienie lub bezpieczeństwo, domaga się ofiar z czasu, relacji czy wolności. W kulturze zlaicyzowanej ten „ołtarz” może mieć formę rynku, państwa, ideologii politycznej, a dziś także zaawansowanej technologii, w tym sztucznej inteligencji.

Jak rozpoznać, że traktuję technologię lub AI jak bóstwo, a nie narzędzie?

Wiele osób zauważa, że pierwszy odruch rano to nie znak krzyża czy rozmowa z domownikami, lecz automatyczne sięgnięcie po telefon i sprawdzenie powiadomień. Jeśli decyzje życiowe coraz częściej zapadają pod dyktando aplikacji, rankingów i algorytmów, można mówić o cichym przesunięciu „centrum ciężkości” duchowego życia.

O bałwochwalczej postawie wobec technologii świadczą m.in. takie sygnały:

  • mówienie „tak musi być, bo algorytm tak wyliczył” – jakby nie było innej perspektywy,
  • ciągłe „rytuały” sprawdzania statystyk, lajków, wykresów, które nadają sens całemu dniu,
  • gotowość poświęcenia prywatności, relacji czy zdrowia psychicznego w imię „bycia w systemie”,
  • tabu wokół krytykowania technologii – każda wątpliwość brzmi jak herezja przeciw „postępowi”.

Gdy to wszystko się kumuluje, technologia zaczyna pełnić funkcję nowego bóstwa, nawet jeśli nikt nie stawia jej świątyń.

Dlaczego w filmach i sztuce sztuczna inteligencja bywa pokazywana jak bóg lub demon?

Reżyser, który projektuje wizję przyszłości, często intuicyjnie sięga po religijne obrazy, nawet jeśli sam nie praktykuje wiary. W efekcie w kinie i sztuce współczesnej AI pojawia się jako „wyrocznia” w chmurze, wszechwiedzący system nadzorujący ludzi albo wręcz mesjasz, który ma „zbawić świat” dzięki innowacjom.

To kontynuacja dawnych mitów – od Prometeusza kradnącego ogień bogom, przez golema, po Frankensteina. Motyw powtarza się: człowiek tworzy coś na swój obraz i podobieństwo, licząc na zbawienie lub moc, a dostaje w zamian lęk i niepewność. Sztuka używa więc AI jako współczesnego symbolu: pokazuje nasze nadzieje na techniczne zbawienie i strach przed apokalipsą wywołaną przez własne dzieło.

Jak religia patrzy na sztuczną inteligencję: jako zagrożenie czy szansę?

W rozmowach wierzących twórców często powraca podobna scena: stoją między zachwytem nad możliwościami technologii a obawą, że coś po cichu wypycha Boga z kadru. Jedni widzą w AI kolejne narzędzie, które – używane odpowiedzialnie – może służyć dobru, inni ostrzegają, że zachłyśnięcie się mocą algorytmów sprzyja starym grzechom pychy i bałwochwalstwa.

Tradycyjne religie zazwyczaj nie potępiają techniki jako takiej, ale przypominają o porządku: człowiek nie jest Bogiem, a jego wytwory nie mogą zająć miejsca Stwórcy. Z tej perspektywy AI staje się duchowym problemem dopiero wtedy, gdy zaczyna przejmować funkcję źródła sensu, nadziei i ostatecznej prawdy, a nie wtedy, gdy pomaga w montażu filmu czy diagnozie medycznej.

Czy można korzystać z AI, nie popadając w „kult algorytmu”?

Autorzy, którzy pracują z technologią na co dzień, często mówią o prostych praktykach: zanim otworzą panel statystyk, zadają sobie pytanie, co naprawdę chcą powiedzieć swoim dziełem i komu służyć. Algorytm staje się wtedy doradcą od logistyki, a nie kapłanem decydującym o treści i sensie.

Zdrowa postawa obejmuje kilka kroków: świadome ograniczanie czasu spędzanego „przed ołtarzem ekranu”, zachowanie prawa do niezgody z danymi, pielęgnowanie relacji i wspólnoty poza siecią oraz odróżnianie tego, co skuteczne, od tego, co dobre. Taki dystans pozwala korzystać z AI jak z młotka czy pędzla – narzędzia, które pomaga tworzyć, ale nie mówi, po co żyć.

Jak motyw sztucznej inteligencji jako bóstwa wpisuje się w szerszą religijną symbolikę w sztuce?

Gdy twórca pokazuje człowieka klęczącego przed ekranem lub korporacyjnym logo świecącym nad miastem, często nieświadomie powtarza stary biblijny obraz złotego cielca. Zamiast metalu mamy piksele, zamiast pustynnego obozowiska – miejską aglomerację, ale logika jest ta sama: lud tworzy sobie widzialny „absolut”, który ma natychmiast zaspokoić głód sensu.

AI w filmach, teatrze czy instalacjach artystycznych staje się więc symbolem duchowej pustki i tęsknoty jednocześnie. Pokazuje świat, w którym tradycyjne świątynie pustoszeją, lecz potrzeba sacrum wraca pod postacią świecących ekranów, cyfrowych wyroczni i systemów, którym oddaje się posłuszeństwo większe niż sumieniu. To właśnie na tym styku – między duchowością a technologią – rodzi się pytanie, kim jest człowiek wobec własnych „boskich maszyn”.

Najważniejsze punkty

  • Codzienny „rytuał przy ekranie” pokazuje, że dla wielu osób algorytm stał się praktycznym punktem odniesienia ważniejszym niż własna intuicja, relacje czy tradycyjne źródła sensu.
  • Sztuczna inteligencja formalnie jest narzędziem, ale w doświadczeniu społecznym zaczyna pełnić funkcje zarezerwowane kiedyś dla bóstw: budzi lęk, oczekiwania zbawienia oraz wizje apokalipsy.
  • W kulturze, która usuwa z horyzontu tradycyjnego Boga, niezaspokojone potrzeby religijne – pragnienie bezpieczeństwa, kontroli, nieśmiertelności i sensu – przenoszą się na technologie, w tym AI.
  • „Nowym bożkiem” staje się to, czemu nadajemy absolutny status („nie ma alternatywy”), oddajemy swój czas i uwagę w codziennych rytuałach, składamy ofiary z prywatności i relacji oraz otaczamy tabu krytyki.
  • Język używany wobec AI – obietnice „zbawienia świata przez innowacje” i groźby „końca ludzkości z ręki algorytmów” – ma wyraźnie religijny, apokaliptyczny charakter, nawet gdy jest podany w świeckiej formie.
  • Bożek nie musi być osobowym bogiem; może nim być system (np. rynek, państwo, technologia), który zaczyna wyznaczać granice możliwego i zastępuje człowiekowi ostateczny autorytet.
  • Pytanie „czy AI jest nowym bożkiem?” dotyczy więc nie tyle samej technologii, co ludzkiej postawy: gotowości, by powierzyć algorytmom nadzieje, lęki i decyzje w skali zarezerwowanej wcześniej dla sacrum.

Źródła informacji

  • Technopoly: The Surrender of Culture to Technology. Knopf (1992) – Krytyka technologii jako nowego systemu quasi-religijnego
  • The Religion of Technology: The Divinity of Man and the Spirit of Invention. Harvard University Press (1997) – Historyczne związki między techniką, zbawieniem i mitami postępu
  • Homo Deus: A Brief History of Tomorrow. Harvill Secker (2015) – Analiza techno‑humanizmu i deifikacji danych oraz algorytmów
  • AI 2041: Ten Visions for Our Future. Currency (2021) – Scenariusze rozwoju AI i ich kulturowe oraz etyczne konsekwencje
  • The Age of Surveillance Capitalism. PublicAffairs (2019) – Algorytmy, rynek i władza nad zachowaniem użytkowników
  • The Oxford Handbook of Religion and the Arts. Oxford University Press (2014) – Religijna symbolika w sztuce współczesnej i teoria sacrum w kulturze

Poprzedni artykułKobiecy mistycyzm w chrześcijaństwie – św. Teresa, Katarzyna i inne
Następny artykułRola kobiet w kształtowaniu religii współczesnych
Urszula Jasińska

Urszula Jasińska – autorka Tridentina.pl, która łączy temat religii świata z antropologią i historią idei. Najczęściej pisze o tym, jak rodzą się doktryny, jak zmieniają się pod wpływem migracji i kontaktu kultur oraz w jaki sposób wspólnoty negocjują tradycję we współczesności. W artykułach stawia na przejrzystość: podaje kontekst źródeł, cytuje kluczowe pojęcia w oryginalnym brzmieniu (gdy to potrzebne) i tłumaczy je prostym językiem, bez spłycania sensu. Opiera się na publikacjach naukowych, przekładach tekstów religijnych i materiałach instytucji badawczych, a wnioski zawsze oddziela od hipotez. Czytelnikom pomaga porządkować temat dzięki osiom czasu, mapom wpływów i krótkim „ściągom” terminów. Jej celem jest zrozumienie – z szacunkiem i bez stereotypów.

Kontakt: jasinska@tridentina.pl