Orbital computing przestaje być koncepcją z prezentacji i zaczyna funkcjonować jako realna usługa. Kepler Communications uruchomił największy dotąd klaster obliczeniowy na orbicie, a co ważniejsze, znalazł pierwszego klienta, który za tę infrastrukturę płaci. To moment przełomowy dla całego sektora, bo po raz pierwszy przetwarzanie danych w kosmosie wychodzi poza eksperymenty i wchodzi w etap operacyjny.
40 GPU na orbicie i pierwsza realna infrastruktura
System Keplera składa się z około czterdziestu procesorów NVIDIA Orin rozmieszczonych na dziesięciu satelitach, które komunikują się ze sobą za pomocą łączy laserowych. Skala tej infrastruktury pozostaje niewielka w porównaniu z naziemnymi centrami danych, ale jej znaczenie nie wynika z liczby jednostek obliczeniowych, tylko z ich lokalizacji. Procesory działają na orbicie okołoziemskiej, w bezpośrednim sąsiedztwie źródeł danych, co eliminuje konieczność przesyłania ogromnych ilości informacji na Ziemię przed ich analizą.
Work from space, with Earth as the view🌎Kepler hosted payloads enable real-time access to payload data for continuous collection, high-volume delivery, and faster insights from space to Earth, including wildfire intelligence with @OroraTech.
Learn more. https://t.co/1hMSnnlvXk pic.twitter.com/iPcuRYmrqk
— Kepler Communications (@KeplerComms) April 9, 2026
Może Cię zainteresować: NVIDIA dominuje rynek AI i wyprzedza Apple oraz Microsoft. Co stoi za jej sukcesem?
Pierwszy klient: Sophia Space testuje system operacyjny w kosmosie
Pierwszym komercyjnym klientem został Sophia Space, który wykorzystuje infrastrukturę do testowania własnego systemu operacyjnego przeznaczonego dla komputerów działających w kosmosie. W ramach współpracy firma planuje wgrać oprogramowanie na satelitę Keplera i uruchomić je na sześciu jednostkach GPU rozproszonych na dwóch statkach kosmicznych. Operacje tego typu są standardem w naziemnych centrach danych, jednak w przestrzeni kosmicznej będą realizowane po raz pierwszy w warunkach produkcyjnych.
Dla Sophia Space to kluczowy etap przed planowanym startem własnego satelity w 2027 roku, ponieważ pozwala ograniczyć ryzyko związane z wdrożeniem technologii w środowisku orbitalnym. Jednocześnie dla Keplera współpraca stanowi dowód na użyteczność jego sieci, która już teraz przetwarza dane przesyłane z Ziemi oraz zbierane przez ładunki umieszczone na własnych satelitach, a w kolejnych etapach ma rozszerzyć się o obsługę systemów należących do innych operatorów.
Nowy model: przetwarzanie danych bezpośrednio na orbicie
Model, który zaczyna się kształtować, zakłada przeniesienie części przetwarzania danych bezpośrednio na orbitę. Zamiast przesyłać surowe dane do stacji naziemnych i analizować je w tradycyjnych centrach danych, możliwe staje się przetwarzanie ich w miejscu powstania i wysyłanie na Ziemię jedynie wyników. W przypadku zastosowań takich jak analiza obrazów satelitarnych czy działanie czujników o wysokim zapotrzebowaniu na moc obliczeniową, różnica ta ma charakter fundamentalny, a nie tylko optymalizacyjny.
To podejście wpisuje się w rozwój przetwarzania typu edge, gdzie kluczowa jest minimalizacja opóźnień i maksymalne wykorzystanie dostępnych zasobów. W tym przypadku „edge” oznacza orbitę, a przewaga wynika z ograniczenia opóźnień i kosztów przesyłu danych.
Inference zamiast treningu – świadoma decyzja architektoniczna
Kepler od początku zakłada, że przyszłość tego segmentu nie będzie oparta na pojedynczych, bardzo wydajnych jednostkach do trenowania modeli, lecz na rozproszonych systemach GPU pracujących nieprzerwanie w trybie inferencji. W warunkach ograniczonej energii i trudnych parametrów środowiskowych bardziej efektywne okazuje się utrzymywanie stałego obciążenia niż budowanie infrastruktury o dużej mocy, która działa tylko przez część czasu.
Takie podejście pozwala maksymalnie wykorzystać dostępne zasoby i dopasować architekturę do realnych potrzeb systemów działających w kosmosie, gdzie kluczowe są szybkie decyzje oparte na danych zbieranych w czasie rzeczywistym.
Największe wyzwanie: chłodzenie i warunki orbitalne
Równolegle rozwijane są rozwiązania mające umożliwić dalsze skalowanie tej infrastruktury. Sophia Space pracuje nad komputerami chłodzonymi pasywnie, które mają rozwiązać jeden z największych problemów orbitalnych systemów obliczeniowych, czyli odprowadzanie ciepła bez użycia ciężkich i kosztownych systemów aktywnego chłodzenia. Bez takich technologii budowa dużych centrów danych w kosmosie pozostaje ograniczona.
Sama infrastruktura musi radzić sobie również z promieniowaniem, ekstremalnymi temperaturami oraz nieregularnym dostępem do energii, co dodatkowo zwiększa złożoność całego przedsięwzięcia.
Duże centra danych w kosmosie dopiero w kolejnej dekadzie
Eksperci zakładają, że pełnoskalowe orbitalne centra danych, o jakich mówią firmy takie jak SpaceX czy Blue Origin, pojawią się dopiero w latach 30. Obecny etap rozwoju koncentruje się na przetwarzaniu danych zbieranych przez satelity oraz zwiększaniu możliwości systemów obserwacyjnych wykorzystywanych przez sektor prywatny i instytucje rządowe.
Już dziś widać jednak konkretne zastosowania tego modelu. Firmy planujące rozwój satelitów uwzględniają możliwość przeniesienia części obliczeń na orbitę, szczególnie w przypadku systemów wymagających dużej mocy, takich jak radary z syntetyczną aperturą. W tym kontekście istotnym odbiorcą tego typu rozwiązań pozostaje sektor wojskowy, który rozwija systemy wykrywania i śledzenia zagrożeń oparte na danych satelitarnych.
Nowy rynek dopiero się tworzy
Pojawienie się pierwszego płacącego klienta oznacza początek nowego rynku, w którym przetwarzanie danych w kosmosie staje się usługą dostępną komercyjnie. Przewaga tego modelu wynika z ograniczenia opóźnień, zmniejszenia kosztów transmisji danych oraz możliwości tworzenia nowych zastosowań, które wcześniej nie były możliwe przy przetwarzaniu wyłącznie na Ziemi.
Jednocześnie rozwój tego segmentu będzie zależał od ekonomii i regulacji. Ograniczenia w budowie centrów danych na Ziemi mogą zwiększyć atrakcyjność rozwiązań orbitalnych, co wskazuje kierunek dalszego rozwoju tej technologii.
Źródła: TechCrunch, The Meridiem
Dziękujemy za przeczytanie artykułu na Techoteka.pl.
Publikujemy codziennie informacje o sztucznej inteligencji, nowych technologiach, IT oraz rozwoju agentów AI.
Obserwuj nas na Facebooku, aby nie przegapić kolejnych artykułów.



