Startup Physical Intelligence twierdzi, że jego nowy model π0.7 potrafi sterować robotami w sposób, który jeszcze niedawno wydawał się niemożliwy – wykonywać zadania, których nigdy wcześniej nie widział w danych treningowych. Jeśli te wyniki się potwierdzą, może to być jeden z pierwszych realnych kroków w stronę robotów ogólnego przeznaczenia.
Nowy kierunek w robotyce – odejście od modeli wyspecjalizowanych
Dotychczas roboty działały w oparciu o bardzo wąskie kompetencje. Każde zadanie wymagało osobnego treningu i dedykowanego modelu. π0.7 ma przełamywać ten schemat. Zamiast uczyć się jednej czynności, model ma być w stanie rozumieć kontekst i adaptować się do nowych sytuacji.
To podejście przypomina rozwój modeli językowych, które przeszły drogę od systemów zadaniowych do narzędzi ogólnego zastosowania. Physical Intelligence sugeruje, że podobna zmiana może właśnie zachodzić w robotyce. Kluczowe jest tu wykorzystanie języka naturalnego – robot może być prowadzony instrukcjami w sposób zbliżony do szkolenia człowieka.
Jednocześnie firma podkreśla, że to wciąż etap badań. Model nie jest produktem gotowym do wdrożenia, ale raczej demonstracją możliwości, które dopiero zaczynają się ujawniać.
Compositional generalization – kluczowa zdolność modelu
Najważniejszym elementem działania π0.7 jest tzw. compositional generalization. Oznacza to zdolność do łączenia różnych fragmentów wiedzy i wykorzystywania ich w nowych kontekstach. W praktyce robot nie odtwarza wyuczonych schematów, lecz tworzy nowe rozwiązania na podstawie wcześniejszych doświadczeń.
Jak wskazuje Sergey Levine z Physical Intelligence, przekroczenie tego progu zmienia sposób rozwoju systemu. Zdolności zaczynają rosnąć szybciej niż wynikałoby to z ilości danych treningowych, co wcześniej obserwowano w modelach językowych i systemach wizji komputerowej.
To istotna zmiana, ponieważ oznacza odejście od prostego „zapamiętywania” na rzecz bardziej elastycznego działania. Jednocześnie autorzy badania zaznaczają, że są to dopiero pierwsze oznaki takiego zachowania.
Eksperyment z air fryerem pokazuje skalę zmiany
Jednym z najbardziej wymownych przykładów działania modelu jest test z frytkownicą beztłuszczową. π0.7 praktycznie nie miał styczności z tym urządzeniem w trakcie treningu. W zbiorze danych znajdowały się jedynie dwa luźno powiązane przypadki.
Mimo to robot był w stanie podjąć próbę użycia urządzenia i osiągnąć częściowy efekt. Po przekazaniu szczegółowych instrukcji krok po kroku wykonał zadanie poprawnie. Według badaczy model połączył fragmentaryczne informacje z różnych źródeł i zbudował funkcjonalne rozumienie działania urządzenia.
Lucy Shi z zespołu badawczego przyznaje, że trudno jednoznacznie określić, skąd model czerpie wiedzę. To zjawisko przypomina zachowanie modeli językowych, które również wykazują zdolności wykraczające poza to, co łatwo prześledzić w danych treningowych.
Instrukcje językowe i rola promptów
Badanie pokazuje, że ogromne znaczenie ma sposób komunikacji z robotem. π0.7 reaguje na instrukcje językowe, ale ich jakość bezpośrednio wpływa na wynik. W jednym z testów skuteczność wykonania zadania wzrosła z 5% do 95% po dopracowaniu sposobu przekazania polecenia.
To wyraźnie wskazuje, że kompetencje znane z pracy z modelami AI – takie jak precyzyjne formułowanie poleceń – zaczynają mieć znaczenie również w robotyce. Jednocześnie model nie jest jeszcze w stanie samodzielnie realizować złożonych zadań na podstawie jednego polecenia. Wymaga prowadzenia krok po kroku.
To ograniczenie pokazuje, że mimo postępu do pełnej autonomii wciąż daleko.
Brak standardów i ograniczona weryfikacja wyników
Autorzy badania zwracają uwagę na problem braku ustandaryzowanych benchmarków w robotyce. W praktyce oznacza to, że trudno porównać wyniki π0.7 z innymi systemami w sposób obiektywny.
Physical Intelligence zestawia swój model głównie z wcześniejszymi, wyspecjalizowanymi rozwiązaniami i wskazuje, że osiąga on porównywalne wyniki w różnych zadaniach. Jednak brak niezależnych testów oznacza, że do tych wyników należy podchodzić ostrożnie.
Sam język publikacji jest wyważony. Badacze mówią o „wczesnych oznakach” i „pierwszych demonstracjach”, co jasno wskazuje, że mamy do czynienia z etapem eksperymentalnym.
Zaskoczenie nawet dla twórców
Ciekawym elementem projektu jest fakt, że jego wyniki zaskoczyły samych badaczy. Ashwin Balakrishna przyznaje, że po raz pierwszy nie jest w stanie przewidzieć zachowania modelu na podstawie danych treningowych.
Podaje przykład prostego zadania z mechanizmem zębatym, które robot wykonał poprawnie bez wcześniejszego treningu. Tego typu sytuacje przypominają momenty z historii modeli językowych, kiedy zaczęły one wykazywać nieoczekiwane zdolności.
Sergey Levine porównuje to do doświadczeń z GPT-2, podkreślając, że podobne zjawisko w robotyce ma szczególne znaczenie, ponieważ dotyczy działania w świecie fizycznym.
Co dalej z robotami ogólnego przeznaczenia
Na dziś π0.7 pozostaje projektem badawczym i nie ma jasnej daty jego komercjalizacji. Twórcy przyznają, że postęp jest szybki, ale trudny do przewidzenia.
Physical Intelligence ma jednak solidne zaplecze finansowe – firma pozyskała ponad miliard dolarów i jest wyceniana na 5,6 miliarda dolarów. To pozwala jej rozwijać technologię bez presji natychmiastowego wdrożenia.
Jeśli kierunek obrany przez startup się potwierdzi, robotyka może wejść w nowy etap. Zamiast maszyn uczonych do jednego zadania pojawią się systemy zdolne do adaptacji i pracy w zmiennych warunkach. To zmiana, która – choć mniej widowiskowa niż spektakularne demonstracje – może mieć znacznie większe znaczenie praktyczne.
Źródło
- Connie Loizos, „Physical Intelligence, a hot robotics startup, says its new robot brain can figure out tasks it was never taught”, TechCrunch, 16 kwietnia 2026
- Oficjalny paper badawczy Physical Intelligence dotyczący modelu π0.7 (2026)
Dziękujemy za przeczytanie artykułu na Techoteka.pl.
Publikujemy codziennie informacje o sztucznej inteligencji, nowych technologiach, IT oraz rozwoju agentów AI.
Obserwuj nas na Facebooku, aby nie przegapić kolejnych artykułów.



