W świecie, gdzie każda nowa wersja ChatGPT czy Midjourney wywołuje medialną burzę, łatwo ulec złudzeniu, że zmierzamy ku technologicznemu przełomowi – a może nawet ku upadkowi. Ale zanim zaczniemy planować ucieczkę do bunkrów lub świętować narodziny cyfrowej świadomości, warto posłuchać kogoś, kto widział już kilka podobnych cykli. Profesor Michael Wooldridge, weteran badań nad sztuczną inteligencją, twierdzi: jeśli chcesz zrozumieć przyszłość AI, zacznij od jej historii.
Singularity, czyli bajka o końcu świata
Wooldridge zaczyna od rozprawienia się z jednym z najczęściej powtarzanych mitów – ideą technologicznej osobliwości. Scenariusz znany z filmów science fiction: maszyny dorównują inteligencją ludziom, a potem same się ulepszają, aż w końcu przejmują kontrolę nad światem. Brzmi jak „Terminator”? Słusznie, bo właśnie z tego źródła pochodzi większość wyobrażeń o zagładzie ludzkości z rąk AI.
Dla Wooldridge’a to nie tylko mało prawdopodobne – to wręcz szkodliwe. Ten narracyjny potwór pożera uwagę badaczy, polityków i opinii publicznej, odciągając ich od rzeczywistych zagrożeń, jakie niosą obecne systemy sztucznej inteligencji.
Jakie to zagrożenia? Choćby takie, że za kilka lat większość treści, które konsumujemy w sieci – newsy, posty, zdjęcia – będzie generowana przez AI. W świecie, w którym nie wiadomo, co jest prawdą, może rozpaść się fundament wspólnego rozumienia rzeczywistości.
Dlaczego historia AI ma znaczenie
Wooldridge widzi historię sztucznej inteligencji nie jako ciekawostkę, ale jako mapę prowadzącą ku lepszemu zrozumieniu teraźniejszości. Powód pierwszy jest prosty: kto zna przeszłość AI, nie daje się nabrać na każde nowe hasło marketingowe.
W latach 60. i 70. mówiło się, że wystarczy dobrze zaprogramować reguły logiczne i maszyna będzie rozumna. W latach 80. triumfy święciły systemy ekspertowe – zbiory reguł wyciągniętych od lekarzy czy inżynierów, które miały dać maszynom wiedzę specjalistyczną. W latach 90. nadeszła moda na agentowe AI, a potem – behavioral AI, które inspirowało się zachowaniami zwierząt. Każde z tych podejść miało być przełomowe. I każde natrafiało na mury, których nie potrafiło przebić.
Drugi powód, dla którego warto studiować historię AI, jest bardziej inspirujący: to kopalnia pomysłów, które mogą okazać się przydatne właśnie teraz. Wiele ścieżek badawczych porzucono nie dlatego, że były błędne – lecz dlatego, że były zbyt wczesne.
Od logiki do sieci neuronowych, czyli historia pełna zwrotów
Wooldridge dzieli rozwój AI na kilka fal:
- Złota era (1956–1974) – Symboliczne AI. Komputery uczono reguł: jeśli A i B, to C. To jak próba nauczenia dziecka życia za pomocą encyklopedii.
- Systemy ekspertowe (lata 80.) – Wiedza była zapisywana w formie reguł stworzonych na podstawie rozmów z ludźmi. Powstały systemy, które potrafiły diagnozować choroby, ale tylko w wąskim zakresie.
- Behavioralne AI (lata 90.) – Filozofia „od dołu do góry”. Zamiast programować myślenie, twórcy – jak Rodney Brooks – skupili się na tworzeniu prostych zachowań, które razem tworzyły bardziej złożoną inteligencję. To jak nauka chodzenia zanim zaczniesz pisać wiersze.
- Agentowe AI i systemy wieloagentowe – Oprogramowanie przestaje być tylko wykonawcą poleceń, a zaczyna działać jak współpracownik. Siri, Alexa – to potomkowie tego podejścia.
- Uczenie maszynowe i sieci neuronowe – Zamiast mówić komputerowi, co robić, pokazujemy mu dane. To jak uczenie dziecka mówić nie przez gramatykę, ale przez rozmowę.
Dopiero w ostatnich 15 latach uczenie maszynowe – wcześniej traktowane z przymrużeniem oka – wyszło na prowadzenie. Wielką zmianą była architektura Transformerów, która pozwoliła trenować modele językowe takie jak GPT na niewyobrażalną wręcz skalę.
Architektura transformerów (ang. Transformers) to przełomowa koncepcja w dziedzinie sztucznej inteligencji, która zrewolucjonizowała sposób, w jaki maszyny przetwarzają język naturalny. Opublikowana w 2017 roku przez zespół badaczy Google w pracy zatytułowanej „Attention Is All You Need”, pozwoliła zbudować bardziej wydajne i skuteczne modele językowe – w tym GPT, BERT, PaLM czy Gemini.
Dlaczego AI wciąż nie rozumie świata
Paradoks polega na tym, że współczesne modele AI potrafią pisać eseje, generować obrazy i tłumaczyć teksty, ale… nie wiedzą, co robią. Wooldridge porównuje to do dzieci, które mówią zdania, zanim zrozumieją ich znaczenie.
Obecne systemy nie mają intencji ani świadomości. Brakuje im agency, czyli sprawczości – nie podejmują decyzji samodzielnie, nie mają celów, nie myślą o konsekwencjach. Dlatego mówienie o „superinteligencji” jako zagrożeniu egzystencjalnym jest, zdaniem Wooldridge’a, przesadą. Dużo większym problemem są systemy AI używane w złej wierze – do manipulacji informacją, do masowej inwigilacji, do siania chaosu.
Nie regulujmy matematyki. Regulujmy ludzi.
Czy potrzebujemy „praw AI”? Wooldridge odpowiada: nie. To tak, jakby próbować uchwalić prawo regulujące użycie równań liniowych. Zamiast zakazywać narzędzi, powinniśmy regulować ich zastosowanie.
Zamiast jednego „aktu AI”, lepiej patrzeć sektorowo: inne ryzyka są w służbie zdrowia, inne w finansach, a jeszcze inne w wojsku. Kluczowe pytanie nie brzmi: „czy AI może być moralna?”, ale: „czy ludzie używający AI biorą za to odpowiedzialność?”.
Wooldridge obawia się, że nadanie AI „etyczności” może służyć jako wymówka: „to nie my – to AI zdecydowało”. W szczególności w kontekście militarnym taki scenariusz byłby przerażający.
Co dalej? Multiagentowe systemy i świat pełen cyfrowych współpracowników
Wooldridge przez dekady pracował nad agentowymi systemami AI – oprogramowaniem, które działa niezależnie, komunikuje się z innymi agentami i potrafi współpracować z człowiekiem. Dla niego to nie futurystyczna wizja, ale naturalny kierunek rozwoju. Jego marzeniem nie jest jeden wszechwiedzący model, ale sieć współdziałających AI – jak ekosystem złożony z wyspecjalizowanych, ale komunikujących się ze sobą bytów.
Wyobraźmy sobie świat, w którym nasz cyfrowy asystent sam umawia spotkania z asystentami innych ludzi. Albo w którym zespoły AI koordynują procesy logistyczne czy prace badawcze – bez centralnego dowództwa, ale z elastyczną współpracą. To właśnie wizja „multiagentowego świata”, nad którym Wooldridge pracuje dziś.
Podsumowanie: AI to nie magia, to lustro
Profesor Wooldridge nie jest sceptykiem postępu – jest sceptykiem łatwych odpowiedzi. W AI nie chodzi o to, by zbudować nowego Boga czy zagrożenie dla ludzkości. Chodzi o to, by zrozumieć granice technologii i odpowiedzialności, jaką na nas nakłada.
Historia AI to nie muzeum porażek, ale skarbnica idei. Modele, które dziś zachwycają, powstały na gruzach projektów, które kiedyś wydawały się szalone. I właśnie dlatego warto patrzeć wstecz – nie z nostalgią, ale z ciekawością.
Bo przyszłość sztucznej inteligencji nie zależy od maszyn. Zależy od ludzi, którzy je budują – i od tego, czego nauczą się z przeszłości.


Leave a Comment