Tegoroczne Google I/O potwierdziło jedno: sztuczna inteligencja nie jest już dodatkiem do produktów Google — jest ich sercem. Gemini, projekt Astra, Veo, czy nowe inteligentne okulary to nie tylko efektowna prezentacja możliwości. To zapowiedź nowej rzeczywistości, w której AI towarzyszy nam wszędzie.
Nowa era Gemini — przyspieszenie innowacji
Sundar Pichai rozpoczął od konkretów: w ciągu roku Google udostępniło ponad 20 nowych funkcji i modeli AI, a same modele Gemini zyskały 50 razy większy zasięg. Gemini 2.5 Pro prowadzi na większości kluczowych benchmarków, a jego zastosowanie w kodowaniu, analizie danych i komunikacji rośnie lawinowo. Najbardziej zaawansowana wersja — Deep Think — jest już testowana z wybranymi partnerami.
Intensywnie pracujemy nad tym, by Gemini stało się tzw. modelem świata — takim, który potrafi planować i wyobrażać sobie nowe doświadczenia, symulując elementy rzeczywistości, tak jak robi to ludzki mózg.
Demis Hassabis
Agent Mode, Mariner i osobiste AI
Nowe funkcje Gemini pozwalają AI działać na naszą rzecz, a nie tylko odpowiadać na pytania. Project Mariner to AI, które potrafi operować w przeglądarce, uczyć się z obserwacji i wykonywać wieloetapowe zadania. Agent Mode w aplikacji Gemini potrafi zarezerwować mieszkanie, umówić wizytę, a nawet napisać maila — bazując na kontekście z Gmaila i Kalendarza.
Projekt Astra i rozszerzona rzeczywistość
Gemini nie tylko mówi i rozumie tekst — widzi i działa. Project Astra pozwala AI obserwować otoczenie i reagować na nie w czasie rzeczywistym. Nowe inteligentne okulary z Android XR, stworzone we współpracy z Samsungiem, Gentle Monster i Warby Parker, umożliwiają interakcję z AI bez wyciągania telefonu. Gemini tłumaczy rozmowy na żywo, rozpoznaje otoczenie i prowadzi po mapie — wszystko za pomocą głosu i obrazu.
Nowe narzędzia dla twórców: Veo, Flow, Imagen 4
Google pokazuje, że AI to także potężne narzędzie dla artystów. Imagen 4 generuje grafiki z doskonałym odwzorowaniem tekstu, a Veo 3 — filmy z dźwiękiem, ruchem ust i realistyczną fizyką. Nowość? Flow — narzędzie do tworzenia filmów AI, łączące Veo, Imagen i Gemini w jednej platformie. To pierwszy krok do tworzenia narracji wideo całkowicie za pomocą słów i szkiców.
Przyszłość wyszukiwania z AI Mode
Nowy tryb AI Mode w Google Search zmienia sposób, w jaki szukamy informacji. Dzięki modelowi Gemini 2.5 potrafi rozkładać złożone pytania na czynniki pierwsze, przeszukiwać internet, analizować dane i przedstawiać je w formie interaktywnych wizualizacji. Tryb Deep Search idzie jeszcze dalej — wykonuje setki zapytań, by wygenerować ekspercki raport na żądanie.
Android XR i inteligentne okulary
Po latach eksperymentów z AR Glasses, Google wraca z konkretem: okulary, które widzą, słyszą, rozumieją i reagują. Android XR to nowa platforma, która obsłuży zarówno zestawy VR jak i lekkie okulary do codziennego użytku. Gemini rozpoznaje teksty na ekranach, obiekty w otoczeniu i może działać jak osobisty asystent dostępny zawsze — bez konieczności używania rąk.
Odpowiedzialność, dostępność i realny wpływ AI
To nie tylko festiwal funkcji. Sundar Pichai podkreślał, że AI musi służyć ludziom. Projekty takie jak FireSat, pomoc w trakcie huraganów czy wsparcie dla osób niewidomych pokazują, że technologia może realnie pomagać. Google deklaruje: tempo innowacji będzie rosło, ale nie kosztem odpowiedzialności.
Google I/O 2025 pokazało, że przyszłość nie nadchodzi — ona już tu jest. Pytanie nie brzmi już „czy AI zmieni nasze życie?”, ale „jak mądrze z niej korzystać?”.






Leave a Comment