„Nie ma przyszłości bez sztucznej inteligencji w przedsiębiorczości” brzmiał temat dyskusji podczas gali DGP. Wątpliwości wokół AI pozostaje sporo, ale pewne jest, że będzie ona zyskiwać na znaczeniu w stopniu trudnym do wyobrażenia

Czy sztuczna inteligencja jest szansą, czy jednak stanowi zagrożenie? Na ile jest już wykorzystywana przez firmy w prowadzonej działalności i czy wymaga uregulowania? Dyskutowali o tym uczestnicy rozmowy moderowanej przez Krzysztofa Berendę, dyrektora warszawskiej redakcji RMF FM.

– Ostatnio spędziłem parę tygodni w Dolinie Krzemowej, gdzie miałem okazję zobaczyć najnowsze rozwiązania w zakresie AI. Te, które już funkcjonują, ale i te, które jeszcze nie są ogłoszone światu. Mogę powiedzieć, że tezy głoszone jeszcze w tym roku w amerykańskich publikacjach, że AI nie stanowi zagrożenia dla pracy ludzkiej, tracą powoli na aktualności – powiedział dr hab. Paweł Poszytek, dyrektor generalny Fundacji Rozwoju Systemu Edukacji, dodając, że przy dostępnej mocy obliczeniowej w komputerach i z wykorzystaniem sztucznych sieci neuronowych maszyny już dziś są w stanie same się kodować. Ich możliwości są ogromne.

Paweł Poszytek podał przykład firmy NVIDIA, która stworzyła platformę Omniverse, gdzie w świecie wirtualnym odtworzone zostały procesy zachodzące w świecie rzeczywistym.

– Z jej wykorzystaniem przeprowadzono testy systemów do pojazdów autonomicznych (poruszających się bez kierowcy). Co ważne, firma ta deklaruje przyjęcie na siebie odpowiedzialności za ewentualne wypadki – tak jest pewna swoich rozwiązań, uważa bowiem, że produkty stworzone przy zastosowaniu jej technologii, testowane przy użyciu nieskończonej ilości symulacji niemożliwych do zrealizowania w realnym świecie, są niezawodne – wyjaśnił.

Opowiedział również o planach wprowadzenia w Wydawnictwie FRSE rozwiązań bazujących na AI w obszarze wsparcia procesu informacyjnego w zakresie możliwości oferowanych przez program Erasmus+.

O wykorzystaniu AI opowiadał również Paweł Orłowski, wiceprezes zarządu Międzynarodowych Targów Gdańskich. W przypadku tej firmy dzieje się to w ograniczonym zakresie.

– Targi mają to do siebie, że są wydarzeniem organizowanym na żywo z udziałem wystawców i odwiedzających. Bezpośrednia relacja z ludźmi jest ich podstawą. Wykorzystujemy AI do analizy gości, by stworzyć dla nich najlepszy produkt, odpowiadający w jak największym stopniu na ich potrzeby. Jego opracowaniem ostatecznie zajmuje się jednak człowiek, którego rolą jest też zaproszenie gości i sprawienie, że nawiążą biznes z branżowym wystawcą – wytłumaczył Paweł Orłowski.

Rozmówcy mówili również o tym, że coraz większe zastosowanie AI w działalności firm przekłada się na rekrutacje pracowników. Coraz częściej sprawdzane są bowiem ich umiejętności w jej stosowaniu.

– W naszym przypadku ma to miejsce przy nowych rekrutacjach w dziale sprzedaży i marketingu – wskazał Paweł Orłowski.

Zastrzegli jednak, że nie powierzają jeszcze wyboru pracowników sztucznej inteligencji. Tym nadal zajmują się działy rekrutacyjne. Z kolei Paweł Poszytek przyznał, że jest w tej kwestii tradycjonalistą. Szczególnie że nie wierzy w to, co jest napisane w CV składanym przez potencjalnego pracownika.

– Wolę zdać się na specjalistów, którzy po spojrzeniu w oczy przychodzącego na rozmowę o pracę są w stanie wyczytać to, czego nie ma w dokumencie aplikacyjnym – przyznał.

Rozmówcy nie mieli jednak wątpliwości, że w przyszłości będzie rosła skala relacji maszyna–człowiek. Dobrym przykładem jest polityka zdrowotna, gdzie już niedługo osoby starsze w kryzysie będą wspierane przez sztuczną inteligencję. Co więcej, dzwoniąc na telefon zaufania, trudno będzie rozpoznać, kto jest po drugiej stronie – człowiek czy sztuczna inteligencja.

W trakcie dyskusji poruszono temat tego, jak zagwarantować bezpieczeństwo oraz etyczność rozwiązań AI i czy jest to w ogóle możliwe. Jak powiedział dr hab. Paweł Poszytek, bezpieczeństwo już wydaje się zagwarantowane, ze względu na możliwości komputerów w zakresie mocy obliczeniowej. Są w stanie przeprowadzić symulacje nie do wykonania w świecie rzeczywistym.

– Jeśli chodzi o stronę etyczną, to dziś można rozpoznać, co jest dziełem AI, a co tworem ludzkim. Prawda jest jednak taka, że sztuczna inteligencja bardzo się rozwija. Najnowsza wersja ChatGPT-4 jest w stanie stworzyć poezję, trudną do odróżnienia od tej będącej autorem człowieka. Pojawia się więc pytanie, jak się w tej sytuacji zabezpieczyć – zastanawiał się Paweł Poszytek.

Paweł Orłowski wskazał, że pomocne mogą być regulacje prawne. Pozostaje jednak kwestia tego, na ile w skali globalnej ludzie będą chcieli się do nich stosować. Natomiast nie trzeba się godzić na obsługę wszystkiego przez sztuczną inteligencję. Można więc nie dopuścić na przykład do tego, by dyktowała wyroki karne.

Wyzwaniem przy stosowaniu AI pozostają prawa autorskie. Choć, jak zauważył dr hab. Paweł Poszytek, w coraz mniejszym stopniu. A to dlatego, że współczesne systemy nie przetwarzają dostępnych informacji, lecz działają w oparciu o symulacje i uczenie się.

– Dlatego – być może – prawo autorskie będzie należało do twórcy aplikacji – przewiduje dyrektor generalny Fundacji Rozwoju Systemu Edukacji.

ikona lupy />
Materiały prasowe

Partner

ikona lupy />
fot. materiały prasowe