Zespół ds. AI złożony z praktyków, „Trójkąt Weimarski dla sztucznej inteligencji” i zapowiedź specjalnego funduszu na rozwój projektów. Rządowi politycy coraz więcej mówią o inwestycjach w technologię.
Kamila Staryga z Rita Health, a wcześniej Google, Agnieszka Mikołajczyk-Bareła z CHAPTR i Voice Lab AI, Marek Cygan z Nomagic, Tomasz Czajka, który pracował m.in. w SpaceX Elona Muska, Karol Kurach i Miron Mironiuk rozwijający start-up Cosmose AI – to członkowie zespołu ds. sztucznej inteligencji, który w poniedziałek oficjalnie powoła wicepremier i minister cyfryzacji Krzysztof Gawkowski.
Rada będzie działała w formule non profit, a jej członkowie mają służyć pomysłami i doświadczeniem, które zdobyli, wdrażając AI w międzynarodowych firmach. Ma być jeszcze rozszerzana, co może się okazać kluczowe dla jej oceny. Po tym bowiem, jak resort ujawnił nazwiska, obserwatorzy rynku zauważali, że nie ma wśród nich prawników, etyków czy reprezentantów sektora pozarządowego, którzy przedstawialiby perspektywę inną niż wielkiego biznesu.
Niemal równocześnie wiceminister nauki Andrzej Szeptycki ogłasza w Brukseli powołanie „Trójkąta Weimarskiego dla sztucznej inteligencji”. To sojusz Francji, Niemiec i Polski, który ma pomóc koordynować narodowe plany dotyczące AI, inwestycje w sztuczną inteligencję i działania polityków. To o tyle ciekawa deklaracja, że właśnie kończą się prace nad najważniejszą regulacją tej technologii w Europie – AI Act. Ostateczny tekst państwa członkowskie otrzymały w ubiegłym tygodniu, czas na decyzję, czy kraje go popierają, upływa 2 lutego. Jak wielokrotnie pisaliśmy w DGP, regulacja wzbudza kontrowersje. Ogromny wpływ na jej kształt mają nasi partnerzy z „Trójkąta Weimarskiego dla AI”. W negocjacjach, które miały ustalić ostateczny kształt dokumentu, Niemcy i Francja usilnie starały się zabezpieczyć otoczenie bezpieczne dla ich „narodowych championów AI” – spółek Aleph Alpha i Mistral. Emmanuel Macron groził wręcz zablokowaniem prac nad dokumentem.
Jeszcze w poprzedniej kadencji parlamentu ruszyły prace zespołu ds. opracowania polskiego dużego modelu językowego – PLLuM. Model ma być wytrenowany głównie na treściach polskojęzycznych, co w założeniu pozwoli mu popełniać po polsku mniej błędów niż GPT4. PLLuM ma przede wszystkim wspierać polskich przedsiębiorców w wyścigu technologicznym – wytworzone w ramach projektu oprogramowanie ma być dostępne na wolnej licencji. Buduje go interdyscyplinarne konsorcjum sześciu jednostek – Politechniki Wrocławskiej (lider konsorcjum), NASK, Ośrodek Przetwarzania Informacji, Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki oraz Instytut Slawistyki PAN.
W styczniowym wywiadzie dla DGP Krzysztof Gawkowski zapowiedział też, że będzie lobbował w rządzie na rzecz utworzenia funduszu ds. AI. W uchwalonym przez Sejm budżecie jednak się nie zmieścił. Jak słyszymy w Ministerstwie Cyfryzacji, obecnie w resorcie „trwają prace związane z przygotowaniem założeń propozycji powstania funduszu wspierającego podmioty rozwijające technologie wykorzystujące sztuczną inteligencję”. Jak informują nas urzędnicy, w pracach mają zostać uwzględnione wnioski z rozwiązań stosowanych w wybranych państwach europejskich. Dla przykładu – Niemcy mają w najbliższym czasie w planie zainwestować 500 mln euro, Francja – 1,5 mld, a Wielka Brytania – 100 mln.
Jak informuje nas MC, resort prowadzi też przegląd Polityki AI, czyli dokumentu przyjętego w grudniu 2020 r. przez Radę Ministrów. Jego przygotowanie zajęło dwa lata, a pracowało nad nim wielu ekspertów, np. dr Grzegorz Koloch z SGH. Problem polega na tym, że dokument, który wytyczał strategiczne dla Polski cele w tym obszarze, został odłożony na półkę. Monitorowanie jego implementacji powierzono zespołowi przy Komitecie Rady Ministrów ds. Cyfryzacji. Jego przewodniczącą została Justyna Orłowska, pełnomocniczka prezesa Rady Ministrów ds. GovTech. Choć co roku do premiera powinno trafiać podsumowanie Polityki AI, takie dokumenty nie powstawały. Antoni Rytel, który zastąpił Orłowską na stanowisku w lipcu 2023 r., w rozmowie z DGP nie wiedział nawet, że był taki obowiązek.
Tym razem, jak zapowiada ministerstwo, prace nad Polityką AI mają być bardziej transparentne, a jej przegląd ma uwzględniać także konsultacje społeczne. ©℗