Polska ma osiem superkomputerów. Przed każdym z nich ustawiają się kolejki naukowców.

Kajaani to niewielkie miasteczko w centralnej Finlandii. Od Helsinek dzieli je sześć godzin jazdy samochodem. Od znanego ze skoczni narciarskiej Kuopio – dwie godziny. Choć z atrakcji turystycznych ma chyba tylko zrujnowany zamek, Kajaani jest jednak wyjątkowe. Przez dziewięć miesięcy w roku ciepło dla części miasta dostarcza do niedawna największy, a dziś drugi w Europie superkomputer – LUMI. Polska ma w nim swoje udziały.

Liczby zapierają dech

Superkomputery to niezwykle szybkie i potężne maszyny, które są zbudowane z tysięcy połączonych ze sobą procesorów lub kart graficznych. Pracują one jednocześnie, co pozwala im dokonywać ogromnej liczby obliczeń w tym samym czasie. Cały system jest podzielony na węzły – małe jednostki, z których każda ma swoje procesory, pamięć i miejsce na dane. Węzły są połączone specjalnymi sieciami, które umożliwiają szybkie przesyłanie informacji między nimi. Wszystko to zapakowane do specjalnych szaf tak, że gotowy układ przypomina regały nowoczesnych bibliotek. Powierzchnia, którą zajmuje LUMI, jest równa dwóm kortom tenisowym, a superkomputer waży 150 t.

Poza infrastrukturą obliczeniową superkomputery mają zaawansowane systemy chłodzenia, często z użyciem cieczy. Podczas pracy wytwarzają tak dużo ciepła, że można je przeznaczyć na ogrzewanie miasta, jak w Kajaani. I nic w tym dziwnego, bo komputery takie jak LUMI umieją liczyć w niewyobrażalnej dla użytkownika przeciętnego laptopa czy komputera skali – 375 petaflops (FLOPS to skrót od floating point operations per second, czyli operacji zmiennoprzecinkowych na sekundę; „peta-” oznacza czyli 1015). To tak, jakby połączyć ze sobą setki tysięcy laptopów.

Kwestia suwerenności

Choć LUMI znajduje się w Finlandii, powstał dzięki konsorcjum 10 krajów: Belgii, Czech, Danii, Estonii, Holandii, Islandii, Norwegii, Szwecji, Szwajcarii i Polski. To część szerszego, europejskiego planu EuroHPC (Wspólne Przedsięwzięcie w dziedzinie Europejskich Obliczeń Wielkiej Skali). Chodzi o to, by połączyć zasoby w celu opracowania najwyższej klasy superkomputerów do przetwarzania dużych zbiorów danych przy użyciu europejskiej technologii.

W 2018 r., kiedy powstawał program, europejscy politycy przewidywali, że bez wspólnego działania Staremu Kontynentowi nie uda się stworzyć takich warunków do prowadzenia pracy naukowej, w jakie są w stanie samodzielnie zainwestować Amerykanie czy Chińczycy. Trudno im odmówić racji. Spośród wszystkich komputerów ujętych w publikowanym raz na pół roku rankingu Top500 w listopadzie 2018 r. aż 45,4 proc. znajdowało się w Chinach, a 21,8 proc. w USA. Tylko 19,4 proc. było na terenie Unii Europejskiej. W 2024 r. zestawienie wygląda już inaczej – UE jako całość ma 32,2 proc. tych potężnych maszyn i 27,4 proc. mocy obliczeniowych ujętych w zestawieniu. Udział samych Niemiec w superkomputerowym torcie to 8,2 proc., Francji – 4,8 proc., Włoch i Wielkiej Brytanii – po 2,8 proc., Holandii – 2 proc. Polska ma nieco poniżej 2 proc.

Dziś nadal dominują Amerykanie, którzy mają 34,4 proc. najszybszych na świecie maszyn. Jeśli jednak wziąć pod uwagę moc obliczeniową, a nie liczbę komputerów, to przewaga USA staje się po prostu miażdżąca (na Stany Zjednoczone przypada ponad połowa mocy). Te wyniki mogą być zafałszowane, bo – jak twierdzą twórcy rankingu – Chiny po prostu przestały ujawniać, jakie najszybsze maszyny są w ich posiadaniu. Według dostarczanych przez ChRL danych w Państwie Środka znajduje się 12,6 proc. superkomputerów (ale tylko 2,7 proc. mocy obliczeniowej). Trudno uwierzyć, że to odpowiada stanowi faktycznemu.

Pewne jest natomiast, że w Chińczyków uderzyły ograniczenia eksportu wysokowydajnych układów scalonych wprowadzone przez Stany Zjednoczone. Na indeksie są najnowsze chipy wykorzystywane w trenowaniu AI – takie jak zaawansowane procesory graficzne NVIDIA. Pekin sprowadza jednak układy przez kraje trzecie, a także inwestuje we własne technologie chipowe. Kraj musi dążyć do osiągnięcia w tym zakresie samowystarczalności.

Jak przekonują polscy naukowcy, tym bardziej warto się ścigać. – Dziś już chyba nie ma wątpliwości, że lokalne inwestycje są potrzebne po to, żeby dbać o suwerenność technologiczną. Musimy mieć własne maszyny m.in. po to, żeby móc decydować, jakie obliczenia będą wykonywane i kiedy. A także po to, by wyniki naszych kluczowych badań nie znajdowały się w infrastrukturze innych państw – mówi Marek Magryś, zastępca dyrektora Cyfronetu, czyli centrum komputerów dużej mocy przy Akademii Górniczo-Hutniczej w Krakowie.

Stan posiadania

W tym roku w zestawieniu znalazło się osiem polskich superkomputerów. Najwyżej, na 69. pozycji, jest Helios GPU, zarządzany przez Cyfronet. Łącznie centrum wprowadziło do grona najszybszych na świecie cztery maszyny. Na miejscu 211. znalazła się Athena, na 347. jest Helios CPU, a na 489. Ares.

Dwie superszybkie maszyny ma Poznańskie Centrum Superkomputerowo-Sieciowe. Na miejscu 93. w rankingu jest Proxima, a na 291. Altair. Po jednym komputerze dużej mocy mają Wrocławskie Centrum Superkomputerowo-Sieciowe (Lem, pozycja 99.) oraz Politechnika Gdańska (Kraken-Fregata, miejsce 185.).

Mamy i dużo, i mało. Dużo, bo jeszcze w 2018 r. w Polsce były tylko cztery takie maszyny. Dziś mamy ich więcej niż najliczniejszy kraj na świecie, czyli Indie, więcej niż np. Szwajcaria, Irlandia czy Hiszpania, a nawet niż Zjednoczone Emiraty Arabskie, które rozwój sztucznej inteligencji uczyniły swoim oficjalnym priorytetem (jako pierwsze na świecie miały ministra ds. AI). Mało, bo najsilniejszy komputer w posiadaniu prywatnej firmy, zbudowany przez Microsoft Eagle, jest na czwartym miejscu listy. Na piątym – HPC6, który wybudowały włoska spółka energetyczna Eni wraz z Hewlett Packard Enterprise. Nasze maszyny są daleko za nimi.

Mało również dlatego, że do superkomputerów już ustawiają się kolejki polskich badaczy. Weźmy tylko LUMI – granty obliczeniowe na wykorzystanie mocy przysługującej Polsce (odpowiadającej udziałowi w konsorcjum, czyli 2,3 proc.) są przyznawane dwa razy w roku. Do czerwcowego konkursu zgłosiło się 14 naukowców, a panel ekspertów miał do rozdysponowania tylko 9 miejsc. Polscy naukowcy zajmą pamięć LUMI m.in. obliczeniami, które pomogą zbadać użyteczność wielkich modeli językowych w podejmowaniu decyzji, zmapować 6 mln galaktyk czy sprawdzić, jak można wykorzystać bakterie do redukcji mikroplastiku w przyrodzie.

Polskie superkomputery także są już niemal w 100 proc. obłożone. Jak szacują eksperci AGH, do końca roku zapełni się również nasz największy krzemowy mózg – Helios. Z pomocą komputerów Cyfronetu jest realizowanych ok. 600 projektów naukowych.

Tymczasem dla polskich badaczy, zarówno tych z uczelni, jak i pracujących w polskich firmach (pod pewnymi warunkami oni także mogą korzystać z mocy superkomputerów), dostęp do mocy obliczeniowej to być albo nie być. Albo, jak zwracał uwagę prof. Marek Cygan, matematyk z Uniwersytetu Warszawskiego, który wcześniej pracował m.in. dla Nvidii i Google’a, „badać w Polsce albo nie badać”. Kiedy w lutym 2024 r. wicepremier Krzysztof Gawkowski powoływał ciało doradcze ds. rozwoju sztucznej inteligencji w Polsce – zespół PL/AI – prof. Cygan przekonywał w rozmowie z DGP, że dziś młodzi naukowcy podążają nie tylko za pieniędzmi, lecz także za możliwościami. Jeśli dostaną je w kraju, będzie to dla nich argument za tym, by tworzyć wartość dodaną w ojczyźnie. Według raportu, który zespół PL/AI przygotował dla ministra cyfryzacji, Polska powinna dysponować centrum obliczeniowym o mocy 10 tys. GPU (czyli kart graficznych wykorzystywanych w obliczeniach związanych ze szkoleniem AI). Pozwoliłoby nam to stanąć w jednym szeregu z Francją i Wielką Brytanią. To pięć razy więcej, niż mamy obecnie.

W raporcie znalazł się też postulat, by 20 proc. budżetu Narodowego Centrum Badań i Rozwoju przeznaczać na projekty związane z rozwojem sztucznej inteligencji. Byłoby to ok. 1 mld zł. Część tej kwoty miałaby jednak być znaczona – przeznaczana na wykupienie mocy obliczeniowych w polskich superkomputerach. Dzięki temu można by je rozwijać. Członkowie PL/AI sugerowali, żeby wszystkie te maszyny połączyć dla synergii w Polskie Centrum Obliczeniowe.

Miejsce współpracy

Na razie toczy się gra o to, by zwiększyć moc obliczeniową Heliosa. W październiku Krzysztof Gawkowski ogłosił, że rząd wyda niemal 70 mln zł, by umożliwić jego rozbudowę. – Budujemy nowe miejsce współpracy człowieka i maszyny. To ważny krok w historii Polski, technologii, cyfryzacji i życia każdego obywatela – zapowiadał wicepremier i minister cyfryzacji podczas konferencji prasowej w Cyfronecie. I choć Gawkowskiemu zdarza się nadużywać PR-owskich hiperboli, tym razem może mieć rację. Helios ma bowiem ważne miejsce w projektach, które MC planuje, a które mogą mieć wpływ na życie każdego obywatela. Jak choćby umieszczenie opartego na sztucznej inteligencji asystenta w rządowych witrynach, by w poszukiwaniu odpowiedzi na pytania o działanie administracji nie trzeba było przeklikiwać kolejnych okienek, tylko można było od razu zapytać chatbot, który odpowie z sensem i po polsku.

To rozwiązanie można było wprowadzić już dawno (robią to np. banki), brakowało jednak istotnego elementu – modelu językowego, który zasilałby elektronicznego urzędnika. Można by skorzystać z rozwiązań zachodnich, np. ChatGPT od OpenAI, ale takie pomysły wywoływały sporo kontrowersji. Ostatecznie bazą ma być polski model językowy PLLuM, który powstaje przy udziale konsorcjum sześciu podmiotów: Politechniki Wrocławskiej, NASK, Instytutu Podstaw Informatyki PAN, Instytutu Slawistyki PAN, Ośrodka Przetwarzania Informacji i Uniwersytetu Łódzkiego. Ponieważ dotychczas wykorzystywana infrastruktura przestała wystarczać badaczom, część obliczeń ma zostać przeniesiona właśnie na Heliosa.

W całości dzięki Heliosowi powstał już inny model językowy – Bielik. Jak zwracał uwagę w rozmowie z DGP Alek Tarkowski, prezes Open Future Foundation, to „fenomen na skalę światową”. Bielik stworzyli oddolnie entuzjaści AI, porozumiewając się z pomocą platformy Discord.

– Początkowo mieliśmy projekt, by utworzyć dobry zbiór danych treningowych, naszym celem był 1 TB danych. Kiedy byliśmy blisko celu, okazało się, że są potrzebne zadania do testowania superkomputera Helios. Zaproponowano nam współpracę – wspomina Sebastian Kondracki z fundacji SpeakLeash, która koordynuje prace. Dziś po Bielik coraz częściej sięgają np. polskie firmy. Społeczność wspiera je we wdrażaniu modelu.

– Dzięki prowadzonym tutaj obliczeniom będziemy też ratować ludzkie życie, m.in. szybciej wykrywając raka – mówił Gawkowski. – Będziemy pracowali nad szybszą analizą zdjęć satelitarnych. Pozwolą one na ochronę środowiska, ale wesprą również rolnictwo. Będzie można lepiej wykorzystywać tereny rolne, wskazywać, jakie są potrzeby na tych terenach rolnych, jak nimi dzisiaj dobrze gospodarować – tłumaczył w czasie konferencji wicepremier.

Wiadomo, o co chodzi

70 mln zł, które wysupłał na Heliosa polski rząd, nie wystarczy. Drugą część kwoty potrzebnej na budowę ma dołożyć UE. Pieniądze na to są już od dłuższego czasu wynegocjowane, ale pojawiła się szansa, żeby ugrać jeszcze więcej. Na razie jest mowa o łącznie 100 mln zł, a może być nawet 140 mln.

Wszystko dzięki nowemu pomysłowi UE, czyli Fabrykom AI. To kolejny (po EuroHPC) projekt wspierający rozbudowę unijnych mocy komputacyjnych, tym razem w stronę obliczeń bezpośrednio związanych z rozwojem sztucznej inteligencji. W programie Fabryk AI Unia oferuje po 200 mln euro na budowę nowych supermaszyn, a także współpracę przy budowie zaawansowanej eksperymentalnej platformy superkomputerowej zoptymalizowanej pod kątem AI.

W Polsce toczą się prace i dyskusje, jak rozwijać dalej ten ekosystem. Być może po zwiększeniu mocy obliczeniowych Heliosa jako jeden z pierwszych krajów UE dostanie stempel, że taką fabryką została. Co to daje?

– Prestiż, ale i przynależność do sieci współpracy – wyjaśnia Marek Magryś.

Zwiększanie mocy obliczeniowych zostało zapisane w ministerialnej strategii cyfryzacji państwa, na której temat konsultacje właśnie się zaczęły. Miernikiem sukcesu ma być przyrost zasobów dostępnych w PLGrid, czyli ogólnopolskiej infrastrukturze obliczeniowej, która obejmuje zarówno superkomputery, jak i np. komputery kwantowe. Dla badaczy i firm dziś jest w niej dostępnych 70 petaflopsów, w 2035 r. ma być 1 eksaflops (1018). Dla obliczeń związanych z AI przyrost ma nastąpić z obecnego poziomu 3 do 40 eksaflopsów.

Polscy naukowcy zajmą pamięć LUMI m.in. obliczeniami, które pomogą zbadać użyteczność wielkich modeli językowych w podejmowaniu decyzji, zmapować 6 mln galaktyk czy sprawdzić, jak można wykorzystać bakterie do redukcji mikroplastiku w przyrodzie

Dla naukowców ważne jest także to, by komputery były jak najbardziej wydajne i przyjazne dla środowiska. Tak jak mieszczący się w Finlandii LUMI. Już dziś superkomputer Helios znajduje się w czołówce najbardziej zielonych maszyn, znalazł się na siódmym miejscu w listopadowej edycji rankingu.

Jak osiągnąć założony przez MC cel, tj., by moc obliczeniowa dostępna dla naukowców stała się przynajmniej 10-krotnie większa niż dziś? W strategii zapisano, że konieczne jest stworzenie systemów raportowania obciążenia, liczby zrealizowanych projektów oraz wspartych start-upów, a także portalu, który będzie gromadził w jednym miejscu potencjał badawczy.

Jak przekonują naukowcy, ważne jest to, by wreszcie ustrukturyzować finansowanie dla takich projektów jak superkomputery. Dziś rozbudowa i utrzymanie mocy obliczeniowych wykorzystywanych przez wszystkie dziedziny nauki jest finansowana w doraźnych konkursach. Superkomputery rywalizują w nich np. ze statkiem badawczym, a wybrany przez resort nauki panel ekspertów ocenia, kto napisał lepszy wniosek. Brakuje spójnego planowania i wieloletnich, posługujących się inną logiką niż polityczne „od kadencji do kadencji” programów rozwojowych (ich ustanowienie obiecał minister nauki Dariusz Wieczorek, a po konferencji na AGH pisał o nich w serwisie X wiceminister finansów Paweł Karbownik).

I tu być może dochodzimy do najważniejszego. Jak pokazuje praktyka, w finansowaniu rozwojowych projektów kluczowa jest wola polityczna. I siła przebicia ministrów, którzy za nią odpowiadają. ©Ⓟ