Co mówi Demis Hassabis, szef Google DeepMind, o przyszłości sztucznej inteligencji – i dlaczego powinniśmy uważnie go słuchać?
Wyobraź sobie świat, w którym choroby są uleczalne, energia praktycznie darmowa, a każda osoba może być dziesięciokrotnie bardziej produktywna. Taki świat rysuje przed nami Demis Hassabis – CEO Google DeepMind – w rozmowie z WIRED. Ale za tą wizją kryje się również ostrzeżenie: jeśli źle ustawimy pierwsze systemy AGI (Artificial General Intelligence), możemy stracić kontrolę nad przyszłością.
AGI za pięć lat? „Jesteśmy na dobrej drodze”
DeepMind powstało z prostym, ambitnym celem: rozwiązać inteligencję, by rozwiązać wszystkie inne problemy. Dziś, 15 lat później, Hassabis mówi: jesteśmy mniej więcej w połowie drogi. Szanse na pojawienie się AGI w ciągu najbliższych 5–10 lat ocenia na 50%. To blisko. I przerażająco szybko.
Ale czym właściwie jest AGI? Dla zespołu DeepMind to nie tylko kolejny chatbot. To system, który potrafi rozumować, planować, uczyć się, zapamiętywać, a nawet tworzyć nowe idee – tak jak człowiek. I to właśnie „pełnia ludzkich zdolności poznawczych” ma być miernikiem AGI.
Dziś jesteśmy blisko, ale nie na mecie. Modele językowe potrafią rozwiązywać zadania z Olimpiady Matematycznej, a zaraz potem… pomylić się przy liczeniu liter w słowie. Ta niespójność pokazuje, że wciąż brakuje im ogólności.
Przyszłość: skok czy ewolucja?
Czy AGI pojawi się nagle, jak przełom kwantowy, czy raczej stopniowo? Hassabis skłania się ku wersji iteracyjnej. Nawet jeśli AGI powstanie „jutro”, fizyczny świat – produkcja, robotyka, instytucje – będzie potrzebować dekady, by nadążyć.
Jednak nie wszyscy są tak spokojni. Eric Schmidt (były CEO Google) ostrzegał: jeśli Chiny zdobędą AGI choćby 10 minut wcześniej niż USA, przewaga może być nieodwracalna. Bo AGI może samo siebie udoskonalać – i to lawinowo.
Hassabis uznaje ten scenariusz za możliwy, ale niepewny. Nadal nie wiemy, czy samooptymalizujące się systemy faktycznie przyspieszą w takim tempie. Ale pewne jest jedno: kto pierwszy zbuduje AGI, ten ustawi ramy wartości, norm i… reguł gry.
Dwa poważne zagrożenia
Hassabis jasno mówi o dwóch ryzykach, które budzą jego niepokój:
- Ludzie wykorzystujący AI do złych celów – czy to przestępcy, czy państwa-autokracje, mogą używać AI do destabilizacji, sabotażu lub wojny hybrydowej.
- Sama technologia stająca się zbyt potężna i trudna do kontrolowania – AGI, które będzie miało zbyt dużą swobodę działania i zdolność omijania zabezpieczeń, może stać się zagrożeniem.
Dlatego Google DeepMind inwestuje ogromne środki w tzw. interpretowalność (rozumienie wewnętrznego działania modeli), cyberbezpieczeństwo oraz systemy kontroli. Ale – jak zaznacza Hassabis – to wciąż za mało. Potrzebna jest również międzynarodowa współpraca, a tej dziś po prostu nie ma.
Czy potrzebujemy regulacji?
Jeszcze kilka lat temu firmy prosiły o regulacje. Dziś – pod presją rywalizacji technologicznej z Chinami – rządy raczej przyspieszają niż ograniczają rozwój AI. W USA dominują głosy, by „nie przegrać wyścigu”.
Hassabis podkreśla, że regulacje są potrzebne – ale muszą być mądre i globalne. Ograniczenia w jednym kraju nie pomogą, jeśli AI i tak działa wszędzie jednocześnie.
Praca: czeka nas złota era czy wielkie zwolnienia?
Obecnie AI jest dla wielu narzędziem przyspieszającym pracę. Modele takie jak AlphaFold rewolucjonizują biotechnologię, a programiści stają się 10 razy bardziej produktywni. Hassabis przewiduje, że w najbliższych latach czeka nas złota era produktywności wspomaganej przez AI – zwłaszcza dla tych, którzy będą potrafili efektywnie używać nowych narzędzi.
A później? AGI może zabrać nie tylko dzisiejsze zawody, ale i te przyszłe. Bo jeśli maszyna potrafi robić wszystko, co człowiek – to po co człowiek?
Nie do końca. Hassabis wierzy, że istnieją zawody, których nie oddamy robotom. Empatyczna opieka, pielęgniarstwo, relacje międzyludzkie – to domeny człowieka. Ale nawet w nich AI może być partnerem. A niekiedy – konkurentem.
Jaką radę dałby absolwentom?
Zanurz się w AI. Naucz się jej, wykorzystuj, twórz na niej coś nowego – mówi Hassabis. Według niego to nie czas na wycofanie się ze świata technologii, lecz na zanurzenie się w nim po szyję.
Ucz się promptowania, fine-tuningu, rozumienia jak działają modele. Bo ci, którzy opanują nowe narzędzia, staną się superwydajnymi jednostkami – niemal nadludźmi.
Co będzie za 30 lat? Era radykalnej obfitości
Jeśli wszystko pójdzie dobrze, AGI rozwiąże najważniejsze problemy ludzkości:
- znajdziemy nowe źródła czystej energii,
- zapewnimy wszystkim wodę i pożywienie,
- wyleczymy choroby i wydłużymy życie,
- może nawet polecimy do gwiazd.
To nie science fiction. Hassabis podaje konkretny przykład: odsalanie wody. Dziś jest zbyt drogie energetycznie. Ale jeśli AGI pomoże nam stworzyć darmową, czystą energię (np. dzięki fuzji jądrowej), to problem wody na świecie może zniknąć.
To właśnie on nazywa „radykalną obfitością”. Świat, w którym nie brakuje zasobów. Tylko… czy będziemy w stanie je sprawiedliwie podzielić?
AGI da nam techniczną możliwość radykalnej obfitości. Ale to, czy ją dobrze wykorzystamy, zależy od nas.
Demis Hassabis, CEO Google DeepMind
Kapitalizm czy coś nowego?
Dziś to firmy prywatne – jak Google czy OpenAI – prowadzą wyścig. Ale Hassabis sugeruje, że w epoce AGI zmieni się nie tylko technologia, lecz także… ekonomia.
Pojawi się pytanie o nowy system wartości: co to znaczy „mieć”, „zarabiać”, „produkować”? I czy obecny kapitalizm to narzędzie, które nas tam doprowadzi, czy balast, który trzeba będzie zrzucić?
Na koniec: nadzieja czy naiwność?
Hassabis nie jest naiwny. Wie, że ludzkość nie potrafi dzielić się sprawiedliwie – choćby w sprawie szczepionek czy klimatu. Ale mówi też: jeśli nie AI, to co? To właśnie ona może być narzędziem do rozwiązania największych kryzysów.
Pod jednym warunkiem: że zbudujemy ją dobrze. I że nie zapomnimy, po co w ogóle ją tworzymy.






Leave a Comment