Decyzja OpenAI: treści dla dorosłych w ChatGPT - test dla prawa: AI Act, RODO

Alina Sieradzińska
Alina Sieradzińska
28 października 2025Edukacja7 min czytania

Decyzja OpenAI, zapowiedziana przez Sama Altmana, o wprowadzeniu w modelu ChatGPT treści erotycznych dostępnych wyłącznie dla zweryfikowanych pełnoletnich użytkowników, stanowi przełomowy moment w historii technologii informacyjnej. To nie tylko rozszerzenie funkcjonalności narzędzia sztucznej inteligencji, ale także akt symboliczny – pokazujący, że informacja przestaje być neutralnym nośnikiem wiedzy, a staje się moralnym i społecznym testem dojrzałości człowieka.

Obraz główny Decyzja OpenAI: treści dla dorosłych w ChatGPT - test dla prawa: AI Act, RODO

Zapowiedź Sama Altmana dotycząca wprowadzenia przez OpenAI w modelu ChatGPT treści erotycznych dostępnych wyłącznie dla zweryfikowanych pełnoletnich użytkowników, stanowi przełomowy moment w historii technologii informacyjnej. To nie tylko rozszerzenie funkcjonalności narzędzia sztucznej inteligencji, ale także akt symboliczny: informacja przestaje być neutralnym nośnikiem wiedzy, a staje się moralnym i społecznym testem dojrzałości człowieka.

Hasło Altmana „treat adults like adults”, czyli „traktujmy dorosłych jak dorosłych”, brzmi pozornie wolnościowo. W istocie otwiera debatę o tym, czy współczesny człowiek rzeczywiście jest zdolny do dojrzałego obcowania z informacją, czy jedynie reaguje na bodźce w świecie, który sam stworzył, ale którego już nie rozumie. To pytanie o granice poznania, etyki i prawa w epoce, w której informacja zyskała status nowego elementu rzeczywistości.

1. Informacja jako tworzywo rzeczywistości

Informacja to uporządkowany przekaz danych, który zmniejsza niepewność odbiorcy i ma znaczenie w określonym kontekście. Zależność pomiędzy danymi, informacją a wiedzą można zilustrować w skrócie: dane → informacja → wiedza. Dane same w sobie to surowe fakty (np. liczby, znaki); informacja to dane z nadanym sensem (np. „temperatura 38°C”), a wiedza to umiejętność wykorzystania informacji w działaniu.

W klasycznym ujęciu teorii informacji Claude’a Shannona informacja jest miarą redukcji niepewności, matematyczną jednostką opisującą przepływ komunikatów. W fizyce kwantowej John Wheeler poszedł dalej, twierdząc, że „wszystko pochodzi z informacji” („it from bit”). Każdy byt – fizyczny, biologiczny czy mentalny – jest ostatecznie konfiguracją informacji.

Luciano Floridi, współczesny filozof informacji, uważa, że żyjemy w „infosferze”, w której informacja kształtuje nie tylko nasze poznanie, lecz także nasze bycie. Jeśli tak, to każde działanie na informacji jest działaniem na rzeczywistość – zarówno zewnętrzną, jak i wewnętrzną, psychiczną. Informacja ma zatem charakter twórczy, ale i destrukcyjny; może prowadzić do oświecenia lub chaosu. Z tego powodu dostęp do informacji, zwłaszcza tej o silnym ładunku emocjonalnym lub moralnym, musi być rozpatrywany w kategoriach odpowiedzialności, a nie wolności. W nadmiarze informacji człowiek traci zdolność rozróżniania między tym, co prawdziwe, a tym, co tylko prawdopodobne.

2. Decyzja OpenAI i problem dorosłości poznawczej

Wprowadzenie przez OpenAI treści erotycznych do systemu ChatGPT ma uzasadnienie komercyjne i kulturowe. Sam Altman argumentuje, że dorośli użytkownicy powinni być traktowani z pełnym zaufaniem, a dostawca AI nie powinien być „moralną policją”. Jednocześnie deklaruje, że dostęp będzie ograniczony poprzez weryfikację wieku. W czasach „infosfery” należałoby postawić pytanie, kim jest „dorosły” w sensie informacyjnym? To nie tylko osoba pełnoletnia w świetle prawa. To ktoś, kto potrafi:

  • rozumieć konsekwencje poznania,
  • świadomie filtrować informacje,
  • brać odpowiedzialność za ich dalszy obieg.

W tym sensie dorosłość informacyjna nie polega na tym, że mamy dostęp do wszystkiego, ale że wiemy, z czym nie powinniśmy igrać.

Problem z deklarowaną przez Open AI weryfikacją pełnoletności użytkownika polega na tym, że można w ten sposób potwierdzić jedynie osiągnięcie określonego wieku, ale nie  dojrzałości poznawczej, emocjonalnej ani etycznej. Dorosłość prawna, definiowana przez prawo jako ukończenie 18-tego roku życia, nie jest równoznaczna z dorosłością psychologiczną ani moralną. Dorosły w sensie poznawczym to ten, kto potrafi rozumieć konsekwencje wiedzy, filtrować treści i wziąć odpowiedzialność za ich wpływ na siebie i innych.

Dlatego decyzja o „informacjach dla dorosłych” nie jest prostą liberalizacją. Wydaje się, że to test, czy współczesne społeczeństwo jest w stanie utrzymać świadomość w świecie, w którym treści generowane przez sztuczną inteligencję stają się coraz bardziej intymne, sugestywne i immersyjne.

3. Między wolnością, a odpowiedzialnością

Na poziomie prawa Unii Europejskiej decyzja OpenAI dotyka kilku aktów normatywnych. Digital Services Act (DSA) nakłada na platformy internetowe obowiązek ochrony małoletnich i ograniczenia ekspozycji na treści szkodliwe. Dostawcy usług cyfrowych muszą wdrożyć „proporcjonalne środki” ochrony użytkowników przed zagrożeniami, co w praktyce oznacza konieczność audytowania treści erotycznych oraz ich oznaczania.

AI Act, wchodzący w życie etapami od 2025 roku, klasyfikuje systemy sztucznej inteligencji według poziomu ryzyka. Systemy generujące treści erotyczne, o potencjale uzależniającym lub wpływającym na emocje, mogą zostać uznane za systemy wysokiego ryzyka społecznego, wymagające dokumentacji, nadzoru ludzkiego i przejrzystości algorytmicznej.

Wreszcie RODO (GDPR) wymaga, aby każda weryfikacja wieku, oparta na danych osobowych lub biometrycznych, spełniała kryteria legalności, minimalizacji i proporcjonalności.

Na gruncie polskiego prawa sytuacja dotycząca wykorzystania sztucznej inteligencji do generowania treści o charakterze seksualnym, zwłaszcza z udziałem wizerunku małoletnich, jest wielowymiarowa i niejednoznaczna. Obecnie trwa proces legislacyjny dotyczący projektu ustawy o ochronie małoletnich przed treściami szkodliwymi w internecie, której celem jest dostosowanie krajowych regulacji do europejskich standardów ochrony dzieci w środowisku cyfrowym. Do czasu jej uchwalenia zastosowanie znajdują przede wszystkim przepisy Kodeksu karnego, Kodeksu cywilnego oraz unijnego rozporządzenia AI Act.

Zgodnie z art. 202 § 3 i § 4a Kodeksu karnego, karze podlega każdy, kto produkuje, rozpowszechnia lub posiada treści pornograficzne z udziałem małoletniego. W świetle współczesnej wykładni przepisy te obejmują również materiały generowane syntetycznie, w tym obrazy lub filmy tworzone przy użyciu sztucznej inteligencji, jeśli przedstawiają osobę małoletnią w kontekście seksualnym. W takim przypadku odpowiedzialność karna nie jest uzależniona od faktycznego udziału małoletniego, lecz od samego utrwalania lub symulowania jego wizerunku w sposób godzący w jego dobro i godność.

Równolegle zastosowanie mają przepisy prawa cywilnego dotyczące ochrony dóbr osobistych (art. 23 i 24 Kodeksu cywilnego). Wizerunek, prywatność i cześć stanowią dobra osobiste chronione niezależnie od formy ich naruszenia. Oznacza to, że każda nieuprawniona reprodukcja wizerunku (także w postaci cyfrowej symulacji wygenerowanej przez AI) może być uznana za naruszenie prawa, uprawniające osobę pokrzywdzoną do żądania zaniechania, usunięcia skutków naruszenia, przeprosin, zadośćuczynienia lub świadczenia na cel społeczny.

W tym kontekście szczególnie wymowny jest przypadek z Bydgoszczy z 2024 roku. Uczniowie przerobili przy użyciu narzędzi sztucznej inteligencji fotografię jednej ze swoich szkolnych koleżanek. Wizerunek dziewczyny został zmodyfikowany w sposób nadający mu charakter seksualny: przekształcono go tak, by przypominał pozę znaną z materiałów pornograficznych, a następnie uczniowie rozpowszechnili go. Pomimo, że nie doszło do fizycznego aktu ani realnej pornografii, skutki psychiczne i społeczne były poważne, a naruszenie dóbr osobistych – bezsporne. Postępowanie zakończyło się upomnieniem ze strony sądu rodzinnego, co unaocznia lukę systemową: prawo wciąż nie przewiduje proporcjonalnych środków reakcji na zjawiska przemocy cyfrowej.

Przypadek ten pokazuje, że w erze sztucznej inteligencji informacja sama w sobie może stanowić narzędzie przemocy, nawet jeśli nie istnieje sprawca w klasycznym sensie. Aktualny stan prawny pozwala na reakcję poprzez zastosowanie przepisów o ochronie dóbr osobistych i o przestępstwach przeciwko wolności seksualnej, jednak konieczne pozostaje wprowadzenie nowych regulacji, które wprost uwzględnią specyfikę i skutki generowania syntetycznych treści o charakterze krzywdzącym.

4. Informacja jako nowe zagrożenie

Każda rewolucja ma swoje konsekwencje. Rewolucja cyfrowa przyniosła dostęp do nieskończonej informacji, ale kosztem prywatności i skupienia. Czwarta, zdominowana przez sztuczną inteligencję, oznacza utratę poznawczej suwerenności: maszyny zaczynają interpretować rzeczywistość zamiast człowieka.

Wspólnym mianownikiem wszystkich rewolucji jest utrata kontroli nad informacją. Dziś informacja – samoreplikująca się, bezosobowa, zautomatyzowana – kontroluje świadomość. Myślę, że decyzja OpenAI jest symbolicznym motywem piątej rewolucji: rewolucji emocjonalno-informacyjnej, w której technologia wkracza w najbardziej intymną sferę ludzkiego doświadczenia.

W tradycyjnych społeczeństwach zagrożeniem dla człowieka była natura: głód, choroba, wojna. W epoce przemysłowej – maszyna. W epoce cyfrowej – informacja. Nie dlatego, że jest zła, ale dlatego, że jej nadmiar pozbawia człowieka zdolności odróżniania prawdy od symulacji. To, co było narzędziem rozwoju, może stać się bezpośrednią przyczyną utraty kontroli. W tym sensie można powiedzieć, że informacja stała się energią kwantową kultury – nieprzewidywalną, splątaną, niemożliwą do zatrzymania. W tym układzie to nie współczesny człowiek poznaje świat, ale sam jest poznawany, profilowany i sterowany poprzez narzędzia i technologie informacyjne.  

5.Podsumowanie

Decyzja OpenAI o wprowadzeniu treści „dla dorosłych” jest symptomem większego procesu – zaniku granicy między wiedzą a bodźcem, informacją a przeżyciem. W tym kontekście należy stawiać pytania nie o możliwości technologii, ale o status człowieka. Czy jesteśmy jeszcze zdolni do dojrzałego korzystania z informacji, czy staliśmy się jej funkcją?

Prawo może chronić dane, etyka może stawiać granice, filozofia może ostrzegać. Ale jeśli świadomość człowieka nie nadąży za tempem tworzenia informacji, to żaden system nie ochroni go przed własną ciekawością. Wtedy – jak pisał Heidegger – „nie technika jest zagrożeniem, lecz sposób, w jaki człowiek siebie w niej traci.”

Największym wyzwaniem XXI wieku nie jest więc stworzenie sztucznej inteligencji zdolnej do rozmowy, lecz zachowanie ludzkiej inteligencji zdolnej do ciszy. Bo dopiero w ciszy informacja staje się wiedzą, a wiedza – mądrością.

Tagi

#OpenAI#Sztuczna inteligencja#Etyka technologii#Informacja#Prawo cyfrowe#Sam Altman