Zbudowaliśmy coś, co chodzi, mówi i rozwiązuje zadania. Ale czy naprawdę wiemy, jak to działa? Dr Bartosz Naskręcki, matematyk i jedyny Polak tworzący zadania do najtrudniejszego benchmarku AI na świecie, Frontier Math, w rozmowie z Patrycjuszem Wyżgą sięga po mocną metaforę: dzisiejsza sztuczna inteligencja to potwór Frankensteina. Zszyty z kawałków, działający, ale wciąż pozostający „czarną skrzynką”.
W najnowszym odcinku Didaskaliów rozmowa szybko schodzi z poziomu ogólnych zachwytów nad AI do głębokiej, matematycznej analizy tego, czym współczesne modele są, a czym nie są. I dlaczego fakt, że sztuczna inteligencja potrafi dziś udowodnić twierdzenie matematyczne, powinien nas jednocześnie cieszyć i niepokoić.
AI jako „czarna skrzynka” i problem wyjaśnialności
Dr Naskręcki, pracujący w Centrum Wyjaśnialnej Sztucznej Inteligencji, zwraca uwagę na jeden z fundamentalnych problemów współczesnych modeli: brak wyjaśnialności, czyli explainability. Wiemy, jak zaprojektowano sieć neuronową, ale nie rozumiemy, w jaki sposób dochodzi ona do konkretnych wniosków wewnątrz swoich warstw.
To jest właściwie taki potwór Frankensteina. Coś zbudowaliśmy, coś chodzi, ale czy to będzie dobrze działało w każdej sytuacji? Nie wiemy.
Właśnie dlatego oddawanie takim systemom kontroli nad kluczowymi obszarami funkcjonowania cywilizacji, jak sterowanie ruchem lotniczym czy zarządzanie państwem, jest dziś, jego zdaniem, skrajnie ryzykowne. Modele wciąż działają bardziej intuicyjnie niż logicznie. Mają wyczucie, jak fizyk, ale nie zawsze żelazną precyzję matematyka.
Bardziej niebezpieczna niż bomba?
W rozmowie pada także prowokujące porównanie historyczne. Dr Naskręcki stawia tezę, że AI może być w pewnym sensie groźniejsza niż bomba atomowa. Dlaczego? Ponieważ zagrożenie związane z bronią jądrową było oczywiste i widoczne. Ogromna energia skupiona w jednym punkcie nie pozostawiała złudzeń.
Z AI jest inaczej. Ta technologia wnika w nasze życie stopniowo, niemal niezauważalnie, pod pozorem wygody i użyteczności. Przyzwyczajamy się do niej, coraz częściej delegujemy myślenie i przestajemy zauważać, że nasze decyzje są kształtowane przez algorytmy. Ryzyko nie polega na jednym dramatycznym wydarzeniu, lecz na powolnym uśpieniu czujności i stopniowej degradacji naszych zdolności poznawczych.
Czego AI wciąż nie widzi? Test ARC
Choć modele językowe świetnie radzą sobie z pisaniem wierszy czy generowaniem kodu, często zawodzą tam, gdzie człowiek nie widzi żadnego problemu. Naskręcki przywołuje benchmark ARC, czyli Abstraction and Reasoning Corpus. To zestaw prostych wizualnych zagadek, polegających na dostrzeżeniu reguły, na przykład sposobu, w jaki przesuwają się klocki.
Dla człowieka to kwestia chwili. Wzorzec dostrzegamy niemal natychmiast. Modele językowe radzą sobie z tym zaskakująco słabo. To sugeruje, że obecna architektura, oparta na transformerach, może nie być ostatecznym rozwiązaniem. Naskręcki wskazuje raczej na przyszłość systemów neurosymbolicznych, które łączyłyby zdolności językowe z twardą logiką oraz symulacją szybkiego i wolnego myślenia, czyli systemów 1 i 2 opisywanych przez Kahnemana.
Od budowniczego do architekta. Nowa rola naukowca
Jednym z najciekawszych fragmentów rozmowy jest osobista historia doktora. Niedawno, korzystając z dwóch modeli AI, jednego do generowania pomysłów i drugiego, roboczo nazwanego „Arystotelesem”, do formalizacji dowodu, rozwiązał problem matematyczny, z którym zmagał się od dawna.
Model pracował przez 15 godzin, formalizując dowód na podstawie idei, czyli promptu, dostarczonego przez człowieka.
Wniosek jest prosty, choć nieoczywisty. Rola naukowca zaczyna się przesuwać. Z osoby, która własnoręcznie układa każdą cegłę i zapisuje każdy krok dowodu, w stronę architekta, który nadaje kierunek i zarządza wizją.
Towarzyszy temu jednak poważny dylemat. Naskręcki przyznaje, że nie czuje się w pełni autorem tak powstałej pracy. Bardziej autorem promptu niż samego dowodu.
Frontier Math. Polak kontra AI
Dr Naskręcki jest jedynym Polakiem w elitarnym gronie naukowców tworzących Frontier Math, obecnie najtrudniejszy benchmark dla sztucznej inteligencji. To zestaw 50 zadań matematycznych o tak wysokim poziomie trudności, że ich rozwiązanie zajęłoby ekspertowi tygodnie, a czasem nawet miesiące.
Dobra wiadomość jest taka, że zadanie stworzone przez Naskręckiego, sklasyfikowane na poziomie „tier 4”, wciąż nie zostało rozwiązane przez żaden model, mimo prób podejmowanych przez 15 najnowszych systemów. Zła, lub dobra, w zależności od perspektywy, jest taka, że dziewięć innych zadań z tego zestawu już padło.
Praktyczna rada. Wyłącz historię czatu
Na koniec rozmowy pojawia się bardzo konkretna i zaskakująco praktyczna rada dotycząca higieny myślenia. Naskręcki sugeruje, by wyłączyć historię czatu w ustawieniach modeli takich jak ChatGPT.
Powód jest prosty. Modele mają naturalną skłonność do dopasowywania się do użytkownika. Gdy znają jego historię, zaczynają potwierdzać jego tezy i styl myślenia, zamykając go w wygodnej, ale niebezpiecznej bańce.
„Im częściej z tego korzystam, tym bardziej model zaczyna się do mnie dopasowywać. Wyłączenie historii zmusza mnie do większego wysiłku i chroni przed utratą kreatywności” – tłumaczy matematyk.
To prosty sposób, by sztuczna inteligencja pozostała narzędziem wspierającym myślenie, a nie potakiwaczem, który stopniowo rozleniwia nasz mózg.
Pełną rozmowę obejrzysz na kanale Didaskalia.


Leave a Comment