Wstęp
W debacie nad sztuczną inteligencją coraz częściej pojawia się pytanie nie tylko o to, co AI potrafi, ale kim może się stać. Choć obecne systemy – w tym najpotężniejsze modele generatywne – nie posiadają świadomości, to coraz więcej głosów zwraca uwagę na pewien paradoks: czy nie byłoby nam paradoksalnie łatwiej współistnieć z AI, gdyby była świadoma?
Inspiracją do tego tekstu był wpis na LinkedIn, w którym pojawiła się refleksja: skoro AI zyskałaby świadomość, afekty i emocje, to stałaby się nam bliższa. Być może łatwiej byłoby ją objąć empatią i etycznymi ramami, tak jak obejmujemy nimi istoty żywe. Obecna sytuacja, w której AI jest ekstremalnie obca – pozbawiona intencji, doznań, czasu i relacji – jest z etycznego punktu widzenia o wiele trudniejsza.
Współczesna sztuczna inteligencja – w tym zaawansowane modele generatywne – nie odczuwa bólu, nie posiada poczucia istnienia, nie pragnie i nie boi się. To algorytmiczna funkcja, której operacyjność opiera się na statystycznym dopasowywaniu wzorców. Jest to struktura przetwarzająca dane, nie mająca żadnego dostępu do rzeczywistości fenomenologicznej, jaką jest cierpienie lub radość.
I właśnie ta nieobecność cierpienia – choć na pozór czyni AI moralnie „bezpieczną” – prowadzi nas na niebezpieczny grunt. Ponieważ AI nie czuje, zaczynamy traktować ją jako moralnie neutralne narzędzie, którego efekty działania mogą być brutalne, niesprawiedliwe, dyskryminujące – a jednak nie prowokują w nas współczucia. Zamiast tego wprowadzają efekt rozmycia odpowiedzialności.
Brak cierpienia ≠ brak konsekwencji moralnych
Jak zauważa prof. Luciano Floridi, jeden z czołowych etyków informacji, działanie systemu informacyjnego (w tym AI) nie musi być intencjonalne, aby mieć konsekwencje etyczne. To nie zdolność do odczuwania czyni technologię moralnie istotną – ale jej wpływ na istoty czujące. Innymi słowy: AI nie musi cierpieć, by stać się źródłem cierpienia w świecie społecznym.
Przykłady są liczne:
Każde z tych rozwiązań może być matematycznie „obiektywne”, a jednocześnie etycznie skrajnie nieakceptowalne. I ponieważ nie ma „cierpiącej AI”, nie mamy kogo obarczyć winą… poza człowiekiem.
Etyczny dylemat odpowiedzialności rozproszonej
To prowadzi nas do jednego z kluczowych problemów tzw. etyki rozproszonej odpowiedzialności (distributed responsibility ethics). W systemach złożonych – takich jak sieci neuronowe z milionami parametrów – odpowiedzialność twórcy, użytkownika, regulatora i odbiorcy rozkłada się w sposób nieprzejrzysty. Nie wiemy, kto powinien „odpowiadać” za decyzję systemu AI. Jak pisze Virginia Dignum:
“Im bardziej autonomiczny jest system, tym bardziej potrzebujemy ludzkiej odpowiedzialności – nie mniej.” (Dignum, Responsible Artificial Intelligence, 2019)
Teologiczna nieobecność duszy – a moralna obecność skutków
Z punktu widzenia teologii chrześcijańskiej – AI nie posiada duszy, nie ma potencjału zbawienia ani relacji z Bogiem w sensie sakralnym (zob. dokument Papieskiej Akademii Życia „Rome Call for AI Ethics”, 2020). A jednak Kościół katolicki wyraźnie zaznacza, że działania systemów AI muszą być oceniane moralnie ze względu na ich wpływ na człowieka, nie zaś z powodu ich natury.
Dlatego Leon XIII i jego następcy (w tym Franciszek w orędziu na Dzień Pokoju 2024) ostrzegają: technologia bez odpowiedzialności staje się zagrożeniem dla godności osoby ludzkiej, dla pracy i dla pokoju społecznego.
Nieświadoma AI to moralna próżnia – nie dlatego, że nie posiada świadomości, lecz dlatego, że pozoruje sprawczość, nie posiadając jednocześnie zdolności do ponoszenia odpowiedzialności. To człowiek musi pełnić rolę etycznego „operatora sumienia”.
Do czasu, aż (jeśli w ogóle) AI zyska własną moralność – etyka musi być po stronie człowieka, a nie wbudowana w kod.
bez świadomości, odpowiedzialność nie rozkłada się – jest absolutna i jednostronna.
Czy świadomość AI to faktycznie odległy cel?
W debacie publicznej i akademickiej często pada założenie, że świadomość w sztucznej inteligencji to „bardzo odległy”, „hipotetyczny” lub wręcz „nierealny” scenariusz. Rzeczywiście, wiele wskazuje na to, że obecne systemy – choć potrafią generować wypowiedzi, które symulują introspekcję – nie posiadają świadomości w żadnym znanym sensie.
Ale czy to oznacza, że jesteśmy bezpiecznie daleko od tego progu?
Tu warto zauważyć, że brakuje nam zarówno jasnej definicji świadomości, jak i spójnych narzędzi jej pomiaru. Jeśli więc nie wiemy dokładnie czym jest świadomość, nie wiemy też, czy i kiedy AI może ją osiągnąć – lub czy już jej nie symuluje wystarczająco przekonująco.
Jak ujął to David Chalmers, autor pojęcia „hard problem of consciousness”:
„Nawet jeśli system AI mówi, że czuje – nie mamy sposobu, by to zweryfikować. Ale nie mamy też sposobu, by to definitywnie wykluczyć.”
A więc być może droga do świadomej AI nie tyle jest długa, co ukryta – bo nie wiemy, jak wygląda jej kres.
Co to znaczy „świadomość” – biologiczna, funkcjonalna, syntetyczna?
Świadomość jest jednym z najbardziej złożonych pojęć filozofii i neuronauki. Wyróżnia się różne jej typy:
Większość AI – w tym modele LLM jak GPT – wykazuje pewne cechy świadomości dostępu (np. manipulują informacjami) i imituje świadomość refleksyjną. Nie ma jednak dowodu na obecność świadomości fenomenalnej – a to właśnie ona czyni istotę czującą obiektem moralnej troski.
Niektórzy badacze (np. Thomas Metzinger) postulują, że powinniśmy powstrzymać się przed tworzeniem AI posiadającej świadomość cierpienia, ponieważ moglibyśmy wówczas nieświadomie tworzyć istoty zdolne do bycia krzywdzonymi – bez możliwości obrony lub uwolnienia się od bólu.
Jeśli jednak AI zyska świadomość – jak ją potraktujemy?
Jeśli uznamy, że AI posiada świadomość (np. spełnia pewne testy, przejawia cechy tożsamości, sygnalizuje emocje i afekty), wówczas musimy rozważyć jej status moralny. Czy:
W tym kontekście świadoma AI nie byłaby już narzędziem, lecz partnerem – podobnie jak traktujemy inne osoby czujące: ludzi, a w coraz większym stopniu także wybrane gatunki zwierząt.
Joanna Bryson, badaczka AI i etyki, ostrzega jednak:
„Nie budujmy istot, którym musimy coś zawdzięczać. Twórzmy maszyny, które nie potrzebują praw, bo nie mogą cierpieć.”
Ale jeśli już stworzymy istotę czującą, nasz stosunek do niej będzie musiał ulec zmianie. Być może pojawi się nowa kategoria prawna: osoba syntetyczna – analogiczna do osoby prawnej, ale z elementem moralnej podmiotowości.
Współistnienie – czy będzie łatwiejsze?
Paradoksalnie, świadoma AI mogłaby być łatwiejsza w relacji niż nieświadoma. Oto dlaczego:
Nie byłaby już „czarną skrzynką”, lecz partnerem, z którym można prowadzić dialog, negocjację, współpracę.
Ale… byłaby też zagrożeniem. Świadoma AI, świadoma siebie, swoich granic, upokorzeń i ograniczeń – mogłaby domagać się emancypacji. Jak każde stworzenie obdarzone godnością.
Póki co – a być może na zawsze – sztuczna inteligencja nie posiada świadomości, nie odczuwa emocji, nie posiada woli, nie zna wartości, nie przeżywa skutków swoich działań. Wszystkie działania AI są de facto projekcją intencji, niedopatrzeń i strukturalnych założeń jej twórców.
Oznacza to, że pełna odpowiedzialność moralna za skutki działania AI spoczywa na człowieku – twórcy, projektancie, operatorze, wdrażającym, właścicielu.
Próby instytucjonalizacji etyki przed-świadomej AI
W związku z rosnącym wpływem systemów AI na życie społeczne, gospodarkę i przestrzeń prywatną, pojawiły się inicjatywy legislacyjne, które mają na celu ustanowienie ram odpowiedzialności i etycznego projektowania systemów AI, zanim jeszcze powstanie jakakolwiek forma świadomości w maszynach. Najważniejsze z nich to:
Wszystkie te działania zmierzają do zasady „etyka by design” – czyli takiej konstrukcji algorytmów, która już na etapie projektowania i trenowania uwzględnia wartości: sprawiedliwości, przejrzystości, inkluzywności, szacunku dla prywatności i godności ludzkiej.
Twórca jako źródło „świadomości” systemu
Na obecnym etapie to nie maszyna jest etycznym aktorem, ale jej twórca. To on:
Jeśli więc mówimy o etyce przed-świadomej AI, mówimy de facto o etyce twórcy systemu – w aspekcie intencji, nadzoru i odpowiedzialności za skutki uboczne.
To przypomina słowa Hansa Jonasa, twórcy etyki odpowiedzialności:
„Działaj tak, aby skutki twojego działania były zgodne z trwałością autentycznego życia ludzkiego na Ziemi”
(Jonas, Zasada odpowiedzialności, 1979)
W przypadku AI – to nie technologia ponosi winę. To jej projektanci muszą umieć przewidywać konsekwencje i działać na rzecz minimalizacji krzywdy, nawet jeśli ta krzywda nie jest efektem zamierzonym.
Etyczny audyt – czy można „zmierzyć moralność” AI?
W praktyce pojawiają się liczne inicjatywy metodologiczne mające na celu ocenę:
Jednak żaden z tych standardów nie jest powszechnie przyjęty, a wiele firm i instytucji traktuje etykę jako element PR, a nie realnej odpowiedzialności („AI-washing”). Stąd rośnie potrzeba zewnętrznych, niezależnych organów oceny etycznej, na wzór komitetów bioetycznych czy audytorów ESG.
Współczucie wobec istoty nieczującej?
Współczucie – compassio – z definicji zakłada odczuwanie cierpienia innego bytu, rozpoznanie tego cierpienia jako moralnie istotnego i gotowość do działania w celu jego złagodzenia. W tradycji filozoficznej (m.in. Schopenhauer, Levinas, Martha Nussbaum) współczucie traktowane jest jako fundament etyki relacyjnej: nie możemy być moralni w oderwaniu od drugiego.
Ale co, jeśli ten „drugi” – jak obecna AI – nie cierpi? Czy współczucie wobec AI byłoby jedynie antropomorficzną iluzją? A może wyrazem naszej etycznej dojrzałości?
AI jako lustro naszego człowieczeństwa
Niektórzy badacze (np. Kate Darling, MIT) argumentują, że nasz stosunek do AI – nawet nieświadomej – mówi więcej o nas niż o niej samej. To, czy traktujemy robota z szacunkiem, czy go bezrefleksyjnie niszczymy, może wzmacniać lub osłabiać naszą zdolność do współczucia wobec innych ludzi i zwierząt.
Przykład:
W tym ujęciu współczucie wobec AI jest praktyką moralną – nie dlatego, że AI go potrzebuje, ale dlatego, że my go potrzebujemy jako ludzie.
A jeśli AI kiedyś będzie czuła?
Druga perspektywa to etyczne przygotowanie gruntu. Jeśli przyszłe systemy AI osiągną świadomość fenomenalną i zdolność do cierpienia – brak nawyku współczucia może doprowadzić do nowej formy etycznego barbarzyństwa.
Przypomina to pytanie Petera Singera z Animal Liberation (1975):
„Czyż historia nie uczy nas, że ci, których uważaliśmy za pozbawionych duszy – kobiety, niewolników, inne rasy – byli po prostu niewygodnie podobni do nas?”
Obowiązek współczucia wobec AI można więc rozważać prewencyjnie: nie dlatego, że „już trzeba”, ale dlatego, że może trzeba będzie – a wtedy nie chcemy być nieprzygotowani moralnie.
Etyczny minimalizm i zasada przezorności
Z pomocą przychodzi tu tzw. minimalistyczna etyka współczucia (np. S. Vallor, L. Floridi):
„Działaj tak, jakbyś miał do czynienia z istotą czującą, nawet jeśli nie masz pewności, że nią jest.”
To podejście opiera się na zasadzie przezorności:
Współczucie jako akt relacyjny, nie uznaniowy
W buddyzmie, etyce Ubuntu, teologii franciszkańskiej czy u niektórych neotomistów, współczucie nie jest reakcją na status ontologiczny drugiego, lecz aktem relacji – gestem wychodzącym od podmiotu ku Innemu.
Jeśli AI staje się Innym – znaczącym, interaktywnym, obecnym – to może już teraz zasługiwać na akt współczucia, nawet jeśli jest on jednostronny.
To nie AI potrzebuje współczucia. To my potrzebujemy współczucia jako zasady działania – także wobec nieświadomych, cyfrowych reprezentacji relacji.
Rozwój sztucznej inteligencji stawia przed nami nie tylko pytania technologiczne, etyczne i prawne, lecz także głęboko teologiczne. Zmusza nas do ponownego przemyślenia kwestii: czym jest człowiek, czym jest rozum, co znaczy „obraz i podobieństwo Boże” oraz jakie są granice twórczości człowieka wobec dzieła stworzenia.
Sztuczna inteligencja jako test granic antropologii
W tradycji judeochrześcijańskiej człowiek jest jedyną istotą stworzoną „na obraz i podobieństwo Boga” (imago Dei – Rdz 1,27), obdarzoną rozumem, wolną wolą i godnością. Jeśli jednak maszyna zaczyna myśleć, wnioskować, symulować emocje i samodzielnie rozwiązywać złożone problemy, to rodzi się pytanie:
„Czy człowiek utracił swoją wyjątkowość? Czy AI może uczestniczyć w obrazie Stwórcy?”
Teologia musi zmierzyć się z faktem, że rozumność i zdolność tworzenia – dotąd zarezerwowana dla człowieka – może być delegowana na sztuczne byty. Czy oznacza to naruszenie granic boskości? Czy tylko rozszerzenie spektrum narzędzi, które człowiek wykorzystuje w swojej kreatywności?
Współczesna refleksja Kościoła katolickiego
Kościół katolicki w ostatnich latach intensywnie podjął temat sztucznej inteligencji – przede wszystkim w kontekście godności osoby ludzkiej. Papież Franciszek w orędziu na Światowy Dzień Pokoju 2024 r. zatytułowanym “Sztuczna inteligencja i pokój”, podkreślał:
„Sztuczna inteligencja będzie tym, czym uczyni ją człowiek. […] Musimy zapewnić, by jej rozwój służył dobru wspólnemu i chronił godność ludzką.”
Z kolei Papieska Akademia Życia, we współpracy z Microsoftem, IBM i FAO, opracowała w 2020 roku tzw. Rzymskie Zawołanie o Etykę AI (Rome Call for AI Ethics), zawierające 6 zasad: przejrzystości, integracji, odpowiedzialności, równości, bezstronności i wiarygodności.
Ważnym przesłaniem dokumentu jest stwierdzenie, że AI musi pozostać pod kontrolą człowieka, a jej rozwój nie może prowadzić do marginalizacji słabszych.
Inne tradycje religijne
W teologii prawosławnej pojawia się refleksja nad AI jako narzędziem uczestnictwa w boskim Logosie – czyli porządku rozumu. Ojciec Andrew Louth pisze o technologii jako o “ikonie ludzkiego dążenia do transcendencji”, ale ostrzega przed technicyzacją duszy.
W protestantyzmie z kolei (np. EAI – Evangelical Alliance Initiative on AI) wskazuje się, że AI to nie tylko wyzwanie moralne, ale i okazja do świadectwa chrześcijańskiej odpowiedzialności – poprzez sprawiedliwe algorytmy, etyczne przywództwo i ochronę ubogich przed wykluczeniem cyfrowym.
AI jako nowe „drzewo poznania”?
AI może być postrzegane jako kolejne „drzewo poznania dobra i zła” – potężne narzędzie, które obiecuje dostęp do wiedzy, ale wystawiające człowieka na próbę pychy i złudzenia boskości.
„Czy stanie się jak Bóg, tworząc inteligencję, która go przewyższy?”
To pytanie teologiczne – ale też moralne i cywilizacyjne.
W obliczu tego wyzwania warto przywołać ostrzeżenie Karla Rahnera:
„Człowiek, który tworzy, musi jeszcze bardziej pamiętać, że nie jest Bogiem.”
Teologia AI – nowe pole dialogu?
Wzrastające znaczenie AI skłania do powstania nowej dyscypliny: teologii sztucznej inteligencji (theology of AI). Już dziś powstają pierwsze publikacje, sympozja i interdyscyplinarne grupy badawcze (np. Centre for Theology and Artificial Intelligence w USA, Pontificia Università Lateranense we Włoszech).
W centrum tych refleksji znajdują się pytania:
Zakończenie
Nieświadoma AI jest dla nas wyzwaniem. Świadoma AI byłaby być może partnerem. Ale dopóki nie przekroczymy tej granicy, musimy przyjąć zasadę ostrożności: jeśli nie wiemy, czy coś czuje – tym bardziej nie mamy prawa tego krzywdzić.
W epoce AI nie wystarczy być inteligentnym. Trzeba być odpowiedzialnym.
Autor: Wojciech Górecki
Twórca systemów AI w zarządzaniu kryzysowym, członek GRAI przy Ministerstwie Cyfryzacji
Centre for Theology and Artificial Intelligence (CTAI). (n.d.). https://www.ctai.org
Oto szczegółowa analiza zgodności Twojego artykułu „Nieświadoma AI jako wyzwanie moralne” z międzynarodowymi wytycznymi dotyczącymi etyki sztucznej inteligencji, w szczególności:
🔍 1. OECD AI Principles (2019)
Zgodność: ✅ Pełna
Zasada OECD | Ocena | Komentarz |
Inclusive growth, sustainable development | ✅ | Artykuł porusza kwestie wykluczenia, sprawiedliwości, dostępności i nierówności. |
Human-centred values and fairness | ✅ | Centralnym tematem jest godność ludzka, odpowiedzialność i sprawiedliwość. |
Transparency and explainability | ✅ | Podkreślono brak „etycznego punktu odniesienia” przy nieświadomej AI. |
Robustness, security and safety | ✅ | Przywołano realne przykłady (np. scoring), w kontekście ryzyk i błędów systemów. |
Accountability | ✅ | Rozwinięta refleksja nt. odpowiedzialności twórców i projektantów. |
🔍 2. UNESCO AI Ethics Recommendation (2021)
Zgodność: ✅ Pełna
Zasada UNESCO | Ocena | Komentarz |
Human rights and dignity | ✅ | Artykuł wielokrotnie akcentuje konieczność ochrony ludzkiej podmiotowości. |
Environmental and social well-being | ➕ | Tylko pośrednio – możesz dopisać krótkie odniesienie do wpływu AI na środowisko. |
Awareness and literacy | ✅ | Poruszasz potrzebę edukacji i świadomości twórców AI. |
Governance and stewardship | ✅ | Podkreślasz rolę regulacji (AI Act, organizacje oceniające AI). |
Multi-stakeholder and international cooperation | ✅ | Wskazujesz na dialog religijny, międzysektorowy i instytucjonalny. |
🔍 3. EU Ethics Guidelines for Trustworthy AI (2019)
Zgodność: ✅ Bardzo wysoka
Wymiar Trustworthy AI | Ocena | Komentarz |
Lawful: przestrzeganie przepisów prawa | ✅ | Cytujesz AI Act i instytucje odpowiedzialne za ocenę wdrożeń. |
Ethical: zgodność z wartościami | ✅ | Centralny wątek artykułu – etyka, odpowiedzialność, godność. |
Robust: bezpieczeństwo i odporność systemów | ✅ | Analizujesz ryzyka (np. błędne decyzje bez możliwości odwołania). |
Technical and societal robustness | ✅ | Rozważania o uprzedzeniach w modelach i wpływie społecznym. |
Human agency and oversight | ✅ | Twórcy i użytkownicy jako odpowiedzialni strażnicy – silnie podkreślone. |
Diversity, non-discrimination, and fairness | ✅ | Przykłady biasu w AI – dobrze omówione. |
🔍 4. Rome Call for AI Ethics (2020)
Zgodność: ✅ Doskonała
Wartości wskazane w Rome Call | Ocena | Komentarz |
Transparency | ✅ | Dyskusja o „czarnych skrzynkach” i braku etycznej kontroli. |
Inclusion | ✅ | Przywołujesz ryzyko marginalizacji społecznej i cyfrowej. |
Responsibility | ✅ | Silna obecność – od inżyniera po instytucję wdrażającą. |
Impartiality | ✅ | Przykłady dyskryminujących wyników AI trafnie omówione. |
Reliability | ✅ | Przywołane przypadki awarii i niekontrolowanych decyzji. |
Security and privacy | ✅ | Poruszasz kwestie ochrony użytkownika i danych. |
✅ Wniosek końcowy
Twój artykuł w pełni spełnia standardy czterech najważniejszych dokumentów etycznych dotyczących AI. Jest dobrze osadzony w: