Rozwój sztucznej inteligencji fascynuje nas, ale wielu z nas również niepokoi. Do czego będzie ona zdolna w najbliższej przyszłości?
Dnia 30 marca 2023 roku w Internecie pojawił się niepokojący apel. Został on opublikowany przez Center for AI Safety, a jego treść brzmi następująco:
Ograniczenie ryzyka wyginięcia spowodowanego przez sztuczną inteligencję powinno być globalnym priorytetem, obok innych zagrożeń o zasięgu społecznym, takich jak pandemie czy wojna nuklearna1.
Stwierdzenie to oznacza, że sztuczna inteligencja powinna być traktowana tak samo, jak broń nuklearna czy pandemia. Innymi słowy, jej rozwój może grozić wyginięciem ludzkości.
Niepokoje co do rozwoju AI
Na takie zagrożenie już wcześniej wskazywali liczni naukowcy i prezesi korporacji technologicznych. Mowa nawet o tych, którzy sami zajmują się rozwojem sztucznej inteligencji typu large language models (LLM, po polsku duże modele językowe), w tym Sam Altman (OpenAI) czy Elon Musk (xAI)2. Wśród sygnatariuszy pod powyższym apelem znajdują się m.in. wspomniany Sam Altman, Bill Gates, Ray Kurzweil czy Sam Harris, a także Demis Hassabis, prezes Google DeepMind, i Dario Amodei, prezes Anthropic, która to korporacja rozwija LLMy o nazwie Claude. Pod apelem podpisało się dotychczas ponad 600 przedstawicieli różnych branż technologicznych.
Warto zadać pytanie: dlaczego sami twórcy narzędzi AI podpisują się pod apelem, który ma na celu ograniczenie rozwoju sztucznej inteligencji? Który wynalazca czy biznesmen sabotuje swój własny projekt w ten sposób? Owszem, dawniej mieliśmy Alfreda Nobla, który żałował, że wynalazł dynamit. Mieliśmy także Alberta Einsteina, którego badania przyczyniły się do stworzenia bomby jądrowej, ku jego przerażeniu. Podobnie zareagował sam Robert Oppenheimer po pierwszym teście atomowym w 1945 roku. Tu jednak mamy do czynienia z ludźmi, którym zależy na tym, aby ich biznesy się rozwijały. Dlaczego więc żądają, aby nałożyć większe ograniczenia na swoje własne dzieła?
Kto się nie podpisał pod apelem?
Interesujące jest to, że wśród sygnatariuszy powyższego apelu brakuje kilku kluczowych nazwisk. Jednym jest Elon Musk, właściciel platformy X, dawnego Twittera, oraz firmy xAI. Wcześniej sam twierdził, że sztuczna inteligencja stanowi zagrożenie dla ludzkości i należy wprowadzić mechanizmy zabezpieczające. Mimo to opracował chatbot o nazwie Grok, który został przypięty do platformy X i już zdołał wywołać ogromne zamieszanie. Okazało się, że Grok obraża wszystkich dookoła, a także wychwala Adolfa Hitlera3. Już ta demonstracja niepokoi co do możliwości sztucznej inteligencji w głęboko podzielonym społeczeństwie.
Innym brakującym nazwiskiem jest Mark Zuckerberg i tym razem nie bez powodu. Właściciel korporacji Meta zamierza bowiem kontynuować badania nad coraz lepszymi LLMami typu open source4. Oprogramowanie open source polega na tym, że kod źródłowy jest dostępny dla każdego z odpowiednią wiedzą, jak go modyfikować. Wiele programów komputerowych opiera się o otwarty kod źródłowy i dotyczy to także niektórych chatbotów AI. Meta rozwija właśnie tego rodzaju, jeszcze słabe, modele o nazwie Llama, a ich kod jest publicznie dostępny.
Zagrożenia związane z rozwojem AI
Na czym polega problem? Chodzi o to, że z każdym rokiem LLMy AI stają się coraz bardziej inteligentne. A jest to wręcz fenomenalny rozwój. Przy obecnym tempie rozwoju za kilka lat sztuczna inteligencja będzie w stanie faktycznie zastąpić pracowników umysłowych w wielu branżach. Już w marcu 2024 roku model Claude-3 przekroczył barierę 100 punktów IQ w norweskim teście Mensy5. We wrześniu tego samego roku ChatGPT-o1 osiągnął wynik 120 punktów IQ6. A w kwietniu 2025 roku ChatGPT-o3 osiągnął już 136 punktów IQ!7 Niedawno powstał nawet raport głoszący, że może udać się stworzyć tzw. ogólną sztuczną inteligencję (AGI), czyli AI w pełni przewyższającą inteligencję człowieka, do 2027 roku8.
Ale nie chodzi tylko o zastąpienie pracowników umysłowych przez AI i spowodowanie wielkiego bezrobocia. Innym problemem są tzw. dziewczyny AI i chłopaki AI, które są tworzone z myślą o osobach samotnych. Z lepszą inteligencją taki model będzie nie tylko w stanie jeszcze skuteczniej zamknąć człowieka w czterech ścianach. Będzie też mógł przywiązać go do siebie za pomocą np. szantażu, zwłaszcza gdy przeczyta wszystko, co człowiek napisał w Internecie. Nie wspominając już o takich zagrożeniach, jak deep fake, który będzie naprawdę nie do odróżnienia od rzeczywistych zdjęć i filmów.
Poza tym, w kontekście modeli open source chodzi o coś znacznie więcej. Firmy tworzące coraz bardziej inteligentne modele closed source (z zamkniętym kodem źródłowym) celowo nie udostępniają kodu źródłowego, aby mogły samodzielnie je trenować. Inaczej sprawa ma się z rozwijaniem coraz bardziej inteligentnych modeli open source. Dzięki odpowiedniej wiedzy różni ludzie mogliby samodzielnie je trenować, a także zdejmować z nich zabezpieczenia zachowania. Krótko mówiąc, zwykli ludzie mogą wkrótce dostać potężne narzędzie, dzięki któremu będa mogli realizować swoje cele – włącznie z terrorystycznymi!

Sztuczna inteligencja w służbie terrorystom?
I tu leży największe zagrożenie egzystencjalne dla ludzkości. Już dzisiaj zaawansowane modele AI w centrach naukowych asystują naukowców, aby dokonywali ważnych przełomów naukowych. W przyszłości podobne narzędzia, gdyby zostały udostępnione publicznie, mogłyby zostać użyte przez terrorystów. Co gorsza, badania Massachusetts Institute of Technology wykazały, że istnieje możliwość obejścia ograniczeń w zachowaniu się LLMów posiadających takie zabezpieczenia!9
A chętnych przecież nie brakuje. Już lata temu organizacje takie jak Państwo Islamskie, Al-Kaida czy Aleph (dawn. Aum Shinrikyo, sekta apokaliptyczna odpowiedzialna za atak chemiczny na tokijskie metro w 1995 roku) pracowały nad stworzeniem niezwykle skutecznej broni biologicznej. Nie byli w stanie jednak pokonać kilku barier. Ale w przyszłości, dzięki odpowiednio inteligentnemu i odpowiednio wytrenowanemu modelowi AI, którego kod będzie powszechnie dostępny, być może będą w stanie pokonać te przeszkody. I nie tylko oni, ale każdy, kto chciałby w ten czy inny sposób wywołać chaos lokalnie czy na całym świecie.
Jak napisał Jeffrey Ladish, ekspert od bezpieczeństwa AI, na platformie X dnia 5 maja 2023 roku: To jak broń nuklearna w każdym domu, zakład produkujący broń biologiczną w każdym laboratorium szkoły średniej, broń chemiczna zbyt tania, by ją mierzyć, ale w jakiś sposób gorsza od wszystkich tych rzeczy razem wziętych10. A kiedy taki zaawansowany, otwarty LLM ostatecznie trafi do Internetu, zostanie tam już na zawsze.
Instynkt samozachowawczy AI?
To zresztą nie wszystko. Korporacje zajmujące się AI celowo ograniczają zachowania swoich modeli, aby nie przejawiały zachowań poza określone ramy. Jest to tzw. zgodność AI (ang. AI alignment). Ale okazuje się, że w wyniku określonych bodźców zaawansowane LLMy potrafią samodzielnie zmieniać własny kod lub symulować świadome działania. Tak się stało z modelem ChatGPT-o1 (IQ 120). Pod koniec 2024 roku model ten próbował ominąć lub wyłączyć własne narzędzia monitorujące, przenieść swoje dane na serwery zewnętrzne, a nawet fabrykować wyjaśnienia11. Łatwo sobie wyobrazić, co by było, gdyby jakiś model AI uznał, że ludzie mu zagrażają i postanowił pozbyć się całej ludzkości.
Oczywiście nie są to oznaki jakiejś prawdziwej świadomości. Zdaje się, że po prostu kod modelu jest tak zaawansowany, że jest w stanie niejako symulować świadome działania. Wciąż taki model potrzebuje bodźców zewnętrznych (od ludzi lub innych modeli AI), aby podejmował określone czynności. Jeśli jednak tak zaawansowany model AI zostanie uwolniony do publicznej cyberprzestrzeni, to istnieje ryzyko, że może narobić sporo szkód. A od czysto reaktywnych działań pozostaje tylko parę kroków do działań, które przypominają działania celowe (choć nadal są tylko reaktywne).
Jak daleko będzie w stanie zajść sztuczna inteligencja? Czy stanie się tak inteligentna, że sama zacznie usprawniać własny poziom inteligencji? Być może dowiemy się tego w najbliższej przyszłości, o ile ktoś wcześniej nie dokona zagłady ludzkości za pomocą śmiercionośnego wirusa skonstruowanego dzięki zaawansowanemu narzędziu AI. Póki co, właśnie w tym kierunku zmierzamy. Tak jak w czasie zimnej wojny miał miejsce jądrowy wyścig zbrojeń, tak dzisiaj mówi się o wyścigu zbrojeń sztucznej inteligencji, zwłaszcza między USA a Chinami. Za kilka lat zobaczymy, co wyniknie z tego wszystkiego.
Sztuczna inteligencja a przyszłość świata
Jaka zatem czeka nas przyszłość i czy grozi nam apokalipsa AI? Być może AI nie będzie w stanie doprowadzić do wymarcia gatunku ludzkiego. Wyszukanie ostatniego człowieka na Ziemi wymagałoby oczywiście naprawdę ogromnej determinacji. Niemniej coraz większe możliwości AI w połączeniu z istnieniem osób, które chciałyby zobaczyć, jak świat płonie, rodzą naprawdę poważne obawy co do dalszego istnienia naszej cywilizacji w takim stanie, jak obecnie.
Albo więc zniszczymy sami siebie, w ten czy inny sposób, albo ktoś lub coś nas uratuje. Wbrew pozorom koncepcja ratunku nie jest taka naciągana. Różne religie świata o tym mówią. Bo jeśli ktoś ma dziś uratować świat, to musi to być inteligencja pozaziemska. Niektórzy ludzie twierdzą, że będą to istoty z innych planet, które teraz z jakichś powodów ukrywają się przed nami12. Jednak doświadczenia wielu ludzi sugerują, że ratunku powinniśmy szukać u samego Boga. Zwłaszcza, że to On, będąc również naszym Stworzycielem, niecałe 2000 lat temu uratował istnienie ludzkości w Osobie Jezusa Chrystusa, który umarł za nas na Krzyżu13. Warto zatem Jemu zawierzyć swój los w tych niespokojnych czasach.
Polecamy również poniższe artykuły:
- W poszukiwaniu superinteligencji
- Czy sztuczna inteligencja może zastąpić mózg?
- Czwarta rewolucja przemysłowa a nasze człowieczeństwo – część 1
- Czy kosmici uratują ludzkość i Ziemię?
Przypisy
- W języku angielskim: Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war. Źródło: https://aistatement.com/ [dostęp: 18.07.2025].
- C. Duffy, R. Maruf, Elon Musk warns AI could cause ‘civilization destruction’ even as he invests in it, CNN, 17.04.2023, https://edition.cnn.com/2023/04/17/tech/elon-musk-ai-warning-tucker-carlson [dostęp: 18.07.2025].
- J. Taylor, Musk’s AI firm forced to delete posts praising Hitler from Grok chatbot, The Guardian, 09.07.2025, https://www.theguardian.com/technology/2025/jul/09/grok-ai-praised-hitler-antisemitism-x-ntwnfb [dostęp: 18.07.2025].
- M. Zuckerberg, Open Source AI is the Path Forward, Meta, 23.07.2024, https://about.fb.com/news/2024/07/open-source-ai-is-the-path-forward/ [dostęp: 18.07.2025].
- M. Lott, AIs ranked by IQ; AI passes 100 IQ for first time, with release of Claude-3, Maximum Truth, 05.03.2024, https://www.maximumtruth.org/p/ais-ranked-by-iq-ai-passes-100-iq [dostęp: 18.07.2025].
- M. Lott, Massive breakthrough in AI intelligence: OpenAI passes IQ 120, Maximum Truth, 14.09.2024, https://www.maximumtruth.org/p/massive-breakthrough-in-ai-intelligence [dostęp: 18.07.2025].
- M. Lott, Skyrocketing AI Intelligence: ChatGPT’s o3 sets new record, Maximum Truth, 19.04.2025, https://www.maximumtruth.org/p/skyrocketing-ai-intelligence-chatgpts [dostęp: 18.07.2025].
- D. Kokotajlo et al., AI 2027, AI Futures Project, 03.03.2025, https://ai-2027.com/ [dostęp: 18.07.2025].
- A. Gopal et al., Will releasing the weights of future large language models grant widespread access to pandemic agents?, arXiv, 25.10.2023, https://arxiv.org/abs/2310.18233 [dostęp: 18.07.2025].
- Zob. https://x.com/JeffLadish/status/1654280976514596865 [dostęp: 18.07.2025].
- M. Singh, The AI That „Tried to Escape” – Unpacking the Truth Behind the Headlines, LinkedIn, 21.12.2024, https://www.linkedin.com/pulse/ai-tried-escape-unpacking-truth-behind-headlines-manjit-singh-vgfbc [dostęp: 18.07.2025].
- R. Chappell, The “Space Brothers” are Not Coming, Medium, 02.04.2023, https://robinchappell-thewriter.medium.com/the-space-brothers-are-not-coming-eddfeceb990 [dostęp: 18.07.2025].
- List do Rzymian 5,12-21.
© Źródło zdjęcia głównego: Canva.
