Podczas Światowego Forum Ekonomicznego w Davos w 2026 roku na jednej scenie spotkali się dwaj architekci współczesnej rewolucji AI: Demis Hassabis, CEO Google DeepMind, oraz Dario Amodei, CEO Anthropic. Rozmowę prowadziła Zanny Minton Beddoes, redaktor naczelna „The Economist”. Tytuł panelu brzmiał prowokacyjnie: „The Day After AGI”.
Szybko jednak stało się jasne, że prawdziwa stawka dyskusji nie dotyczy tego, co wydarzy się po pojawieniu się sztucznej inteligencji ogólnej, lecz tego, jak szybko do niej dojdziemy, czy uda się „domknąć pętlę” samodoskonalenia AI oraz czy społeczeństwa, gospodarki i instytucje polityczne będą w stanie nadążyć za tempem zmian.
Wyścig ku AGI: dwie osie czasu, jeden punkt krytyczny
Punktem wyjścia rozmowy była aktualizacja prognoz sprzed roku. Dario Amodei podtrzymał swoją tezę, że w horyzoncie 2026–2027 możliwe jest pojawienie się modeli zdolnych wykonywać większość zadań poznawczych na poziomie najlepszych ludzkich ekspertów w wielu dziedzinach jednocześnie.
Mechanizm, który ma do tego doprowadzić, jest jego zdaniem coraz wyraźniejszy. Modele stają się coraz lepsze w pisaniu kodu i wspieraniu badań nad AI, co pozwala wykorzystywać je do tworzenia kolejnych generacji modeli. W ten sposób powstaje pętla przyspieszenia, w której AI realnie skraca czas własnego rozwoju. Amodei mówił wprost, że w jego organizacji inżynierowie coraz częściej nie piszą kodu od zera, lecz edytują i integrują rozwiązania wygenerowane przez modele. Kolejnym krokiem ma być automatyzacja całych procesów programistycznych end to end.
Demis Hassabis pozostał bardziej powściągliwy. Podtrzymał swoją wcześniejszą ocenę, według której do końca dekady istnieje około 50-procentowe prawdopodobieństwo pojawienia się systemów o pełnym zakresie ludzkich zdolności poznawczych. Jego ostrożność nie wynika jednak z niedoceniania postępu, lecz z identyfikacji barier, które nie poddają się łatwej automatyzacji.
Kodowanie jest łatwe. Nauka – znacznie mniej
Obaj rozmówcy zgodzili się, że kodowanie i matematyka są dziś naturalnymi obszarami dominacji AI. Kluczowym powodem jest weryfikowalność. Wynik działania modelu można szybko sprawdzić: kod da się uruchomić, test przechodzi lub nie, dowód matematyczny jest poprawny albo zawiera błąd.
Znacznie trudniej jest w naukach empirycznych. Tam poprawność hipotezy często wymaga kosztownych, czasochłonnych eksperymentów w świecie fizycznym. Hassabis zwrócił uwagę na jeszcze głębszą lukę: najwyższym poziomem kreatywności naukowej nie jest rozwiązywanie istniejących problemów, lecz formułowanie właściwych pytań, teorii i hipotez. To obszar, w którym obecne systemy wciąż mają ograniczenia i być może wymagają „brakujących składników”, których jeszcze nie znamy.
To rozróżnienie jest kluczowe dla zrozumienia tempa rozwoju AI. Postęp nie rozkłada się równomiernie. Najpierw przyspieszają dziedziny o jasnych regułach i szybkiej informacji zwrotnej, dopiero później te, które są „brudne”, pełne niepewności i zależne od świata materialnego.
Domknięcie pętli: moment nieciągłości
Najważniejszą niewiadomą panelu była kwestia pełnego domknięcia pętli samodoskonalenia, czyli sytuacji, w której AI projektuje, trenuje i optymalizuje kolejne systemy bez udziału człowieka.
Amodei widzi w tym potencjalny punkt przełomowy, który może dramatycznie skrócić horyzont dojścia do AGI. Hassabis zgadza się, że w niektórych domenach, takich jak kodowanie czy matematyka, jest to realne, ale wskazuje na twarde ograniczenia: produkcję chipów, moce fabryk, czas treningu oraz konieczność interakcji z fizycznym światem, szczególnie w robotyce i naukach przyrodniczych.
Innymi słowy, nawet jeśli część rozwoju staje się czysto cyfrowa, reszta wciąż podlega prawom materii, energii i logistyki. To napięcie między wykładniczym przyspieszeniem a fizycznymi hamulcami może zdecydować o tym, czy AGI pojawi się „za chwilę”, czy jednak za kilka lat.
Rynek pracy: najpierw znikają szczeble wejścia
Wątek rynku pracy był jednym z najbardziej wyczekiwanych. Amodei przypomniał swoją głośną prognozę, według której w perspektywie 1–5 lat nawet połowa entry-level white collar jobs może zostać zautomatyzowana. Podkreślił jednak, że w momencie jej formułowania nie było to widoczne w danych makroekonomicznych.
Dziś, jego zdaniem, pojawiają się pierwsze sygnały, zwłaszcza w obszarze software’u. Co istotne, nie chodzi wyłącznie o zwolnienia, lecz o zmianę struktury zatrudnienia. Organizacje mogą potrzebować relatywnie mniej pracowników na poziomie juniorskim i średnim, co rodzi pytanie o przyszłość ścieżek rozwoju zawodowego.
Hassabis zaprezentował bardziej klasyczne podejście ekonomiczne. Jego zdaniem w krótkim okresie technologia raczej przekształca rynek pracy, niż go niszczy. Nowe role powstają szybciej, niż znikają stare. Jednocześnie przyznał, że staże i pierwsze etapy kariery mogą zostać szczególnie dotknięte, bo tam najłatwiej zastąpić rutynowe zadania narzędziami AI.
Jego rada dla młodych ludzi jest jednoznaczna: zostać „hiperużytkownikami” dostępnych narzędzi. Dzisiejsze modele, często dostępne niemal za darmo, mogą dać więcej niż tradycyjny internship, jeśli ktoś nauczy się wykorzystywać je w sposób twórczy i zaawansowany.
Geopolityka: chipy jako realna dźwignia
Panel szybko przeszedł z rynku pracy do polityki międzynarodowej. W tym obszarze Amodei był wyjątkowo stanowczy. Jego zdaniem najskuteczniejszym sposobem ograniczania ryzyka niekontrolowanego wyścigu jest restrykcyjna polityka eksportowa dotycząca zaawansowanych chipów.
Porównał sprzedaż najnowocześniejszego hardware’u do handlu technologią nuklearną, argumentując, że krótkoterminowe zyski ekonomiczne nie powinny przeważać nad długoterminowym bezpieczeństwem globalnym. W jego ujęciu AGI nie jest kolejną technologią ogólnego przeznaczenia, lecz narzędziem o potencjale strategicznym porównywalnym z najbardziej wrażliwymi systemami państwowymi.
Hassabis nie kwestionował skali zagrożeń, podkreślał jednak konieczność choćby minimalnej koordynacji międzynarodowej, nie mając przy tym złudzeń co do trudności jej osiągnięcia. AI będzie technologią transgraniczną, a bezpieczeństwo wdrożeń i standardy nie mogą pozostać wyłącznie lokalną sprawą.
Ryzyko, backlash i potrzeba „AlphaFoldowych” projektów
Obaj rozmówcy zgodzili się, że realnym zagrożeniem jest społeczny i polityczny backlash wobec AI. Jeśli dominującą narracją staną się utrata miejsc pracy i koncentracja władzy, presja na gwałtowne regulacje będzie rosła.
Hassabis wskazał, że branża musi nie tylko mówić o potencjalnych korzyściach, lecz je pokazywać. Projekty w rodzaju AlphaFold, które w jednoznaczny sposób przyczyniają się do postępu nauki i zdrowia, budują społeczną licencję na dalszy rozwój technologii. Bez takich przykładów trudno będzie utrzymać zaufanie opinii publicznej.
Paradoks Fermiego i „technologiczne dojrzewanie”
Na koniec rozmowa zeszła na poziom niemal filozoficzny. Pytanie o paradoks Fermiego i możliwość, że cywilizacje niszczą się własną technologią, stało się metaforą obecnego momentu. Hassabis argumentował, że gdyby to był główny mechanizm, widzielibyśmy ślady takich cywilizacji w kosmosie. Skoro ich nie widzimy, „wielki filtr” musiał znajdować się wcześniej.
To jednak nie daje komfortu. Oznacza raczej, że dalszy ciąg historii nie jest zdeterminowany. Jak ujął to Amodei, ludzkość wchodzi w okres „technologicznej adolescencji”. Dysponujemy narzędziami o ogromnej mocy, ale to, czy nauczymy się z nich korzystać odpowiedzialnie, nie jest przesądzone.
Co naprawdę oznacza „dzień po AGI”
Panel w Davos nie przyniósł jednoznacznych odpowiedzi. Przyniósł coś ważniejszego: zgodę co do tego, że tempo rozwoju AI staje się zmienną polityczną, społeczną i egzystencjalną, a nie wyłącznie technologiczną.
Jeśli pętla samodoskonalenia AI domknie się szybciej, niż oczekują instytucje i społeczeństwa, „dzień po AGI” może nadejść jako kryzys zarządzania własnym sukcesem. Jeśli zajmie to więcej czasu, ludzkość dostanie rzadką szansę na dostosowanie reguł gry.
W obu scenariuszach stawka jest ta sama: nie to, czy stworzymy potężną inteligencję, lecz czy zdążymy dorosnąć do jej konsekwencji.






Leave a Comment