Odpowiedzialne za cyberbezpieczeństwo agencje i organy 18 państw świata przyjęły wspólne wytyczne dotyczące sztucznej inteligencji (AI). Naczelną zasadą ogłoszonego w poniedziałek dokumentu jest zapewnienie bezpieczeństwa zastosowań nowej technologii już od pierwszego etapu pracy nad nimi.

Wytyczne zostały przygotowane przez brytyjskie Krajowe Centrum Cyberbezpieczeństwa (NCSC), organy amerykańskie – Agencję ds. Cyberbezpieczeństwa i Infrastruktury (CISA), Agencję Bezpieczeństwa Narodowego (NSA) i Federalne Biuro Śledcze (FBI) – przy współpracy agencji z 16 innych krajów, w tym Polski (NASK), Niemiec, Francji, Japonii, Australii i Kanady. W ich opracowaniu uczestniczyły też firmy technologiczne – m.in. Google, Microsoft, OpenAI i Amazon.

– Te wytyczne stanowią znaczący krok w kształtowaniu prawdziwie globalnego, wspólnego zrozumienia zagrożeń cybernetycznych związanych ze sztuczną inteligencją i strategii ich ograniczania – stwierdza Lindy Cameron, dyrektor wykonawcza NCSC. – Gwarantują, że bezpieczeństwo nie będzie postscriptum do rozwoju AI, ale podstawowym wymogiem w całym procesie – podkreśla.

Zasady podzielono na cztery obszary: projektowania zastosowań sztucznej inteligencji, ich programowania i rozwoju, wdrażania oraz użytkowania.

Na pierwszym etapie cyklu życia systemu AI kluczowe jest zrozumienie ryzyka i potencjalnych zagrożeń związanych z projektowanym modelem. W tej fazie wybór modelu sztucznej inteligencji o parametrach odpowiednich do planowanych zadań powinien – obok m.in. funkcjonalności i wygody użytkownika – uwzględniać konieczne środki bezpieczeństwa i nadzoru, a także wymagania etyczne i prawne.

Z kolei w fazie rozwoju modelu AI w wytycznych zwraca się uwagę głównie na konieczność zapewnienia bezpieczeństwa łańcucha dostaw, a także odpowiedniej dokumentacji. W obszarze wdrażania wskazano zaś m.in. na potrzebę ochrony nowej infrastruktury przed cyberincydentami, zapewnienie ciągłości działania modelu i konfigurację minimalizującą ryzyko podczas użytkowania. Natomiast w procesie bezpiecznej eksploatacji systemów AI zalecenia obejmują m.in. monitoring zagrożeń, zarządzanie aktualizacjami i udostępnianie informacji dotyczących zidentyfikowanego ryzyka.

Wśród sygnatariuszy dokumentu jest też włoska Agencja ds. Cyberbezpieczeństwa (ACN). W tym kraju sztuczna inteligencja jest szczególnie uważnie obserwowana przez regulatorów. Wiosną br. włoski organ ochrony danych na pewien czas zakazał nawet prowadzenia działalności przez generatywny model ChatGPT – usługa została wznowiona po dostosowaniu jej do przepisów RODO.

Z kolei w ubiegłym tygodniu ten sam organ rozpoczął dochodzenie w sprawie gromadzenia danych osobowych na potrzeby szkolenia systemów sztucznej inteligencji. Postępowanie ma wyjaśnić, czy w procesie przetwarzania ogromnych ilości informacji masowo pozyskiwanych ze stron internetowych (w ramach tzw. webcrapingu) są zachowywane odpowiednie środki zapewniające bezpieczeństwo danych osobowych.©℗