Szacuję, że nawet 30 proc. hejtu w polskim internecie to płatny trolling. Jeśli trwa spokojna rozmowa o polityce, to zazwyczaj pojawia się wpis atakujący. Po to, by rozbić dyskusję, zaszczuć jej uczestników
Dziennik Gazeta Prawna
Jest pan lekarzem psychiatrą.
Nie praktykuję, skończyłem Wydział Lekarski Akademii Medycznej w Gdańsku. A potem studiowałem terapię poznawczo-behawioralną, ale od 21 lat zajmuję się sztuczną inteligencją (SI).
Bo ta ludzka nie wystarcza?
Zjawisko inteligencji i świadomości jest niezbadane. Umiemy rozszczepić atom, a tak niewiele wiemy o tym, jak działa nasz umysł. W zrozumieniu tego, jak myślimy i jak wykorzystujemy mowę, kryje się wielki potencjał, który można wykorzystać do budowy jeszcze lepszej sztucznej inteligencji. Bo SI już nas otacza, tylko po prostu często o tym nie wiemy.
Ale intuicyjnie się jej boimy.
Lęk przed nią jest bezzasadny – dziś sztuczna inteligencja nie wie nawet, że w grze pokonała człowieka. Do w pełni świadomej SI, do tak często przywoływanego Skynetu z filmów o Terminatorze, dzielą nas długie lata. Zresztą na sztuczną inteligencję należy spojrzeć inaczej, to kolejna technologia, która może nam pomóc. Jak maszyna parowa, elektryczność, komputer czy internet. To po prostu narzędzia. Choć te, jak każde zresztą, niestety mogą być wykorzystywane w różnych celach.
Również złych.
Oczywiście. Firma ubezpieczeniowa może użyć SI, by odmówić podpisania z nami umowy – wystarczy, że dzięki niej sprawdzi na portalach społecznościowych, że pani wyjeżdża w niebezpieczne rejony, uprawia ryzykowne sporty albo dużo imprezuje. Ale też sztuczna inteligencja codziennie chroni tysiące ludzi przed wypadkami samochodowymi dzięki systemowi ABS, kontroluje elektrownie i tamy, zarządza ruchem na lotniskach i wspomaga pracę lekarzy.
A pan tropił pedofilów w polskim internecie.
Nie ja, tylko policja i inne służby, my tylko stworzyliśmy pierwszą na świecie SI, która w tym pomagała. Opracowaliśmy wspólnie z akademickimi partnerami system, który obserwował czaty internetowe dla dzieci i był w stanie – dzięki analizie języka – wskazać na czacie dorosłego o złych intencjach. System nazywa się Cerber i dzięki niemu wiele miejsc w sieci stało się bezpieczniejszymi.
Ilu pedofili zatrzymano dzięki Cerberowi?
Nasza policja jest pod tym względem jedną z najbardziej skutecznych w Europie.
Kolejny wasz krok?
Przed piłkarskim Euro 2012 i w czasie jego trwania – działał stworzony przez nas system wychwytujący zagrożenia dla porządku publicznego. To wielki sukces, bo jako jedni z pierwszych na świecie stworzyliśmy mechanizm, który nie tylko dokonuje rozbioru logicznego zdania, lecz także rozumie kontekst wypowiedzi oraz pozwala pozyskiwać i wykorzystywać wiedzę o świecie. Udało nam się dojść do czegoś nowego, do nowej teorii rozumienia języka.
A jak to wyglądało do tej pory?
W latach 80. XX w. powstawały niezliczone systemy SI, którym wiedzę aplikowali eksperci – i w ten sposób uczyli maszyny. Instruowali na przykład, że jeśli będzie padać dłużej niż trzy dni, to poziom rzeki podniesie się o metr, a w takiej sytuacji należy jak najszybciej zamknąć zaporę. I sztuczna inteligencja zamykała. Problem w tym, że taki system niczego sam się nie uczył. Niczego. To była pierwsza fala sztucznej inteligencji.
Co było dalej?
Potem powstały systemy oparte na uczeniu statystycznym – i sztuczna inteligencja zyskała zdolność uczenia się. Analizując tysiące zdjęć kotów, uczyła się, jak odróżniać te zwierzaki od innych. W zasadzie większość systemów sztucznej inteligencji, o których słyszymy dziś, to przedstawiciele właśnie tej drugiej fali. Zaczynając od systemów rozpoznawania mowy i zdjęć przez asystentów oraz automatycznych tłumaczy aż po autonomiczne samochody. Wszystkie te systemy uczą się z ogromnej liczby oznaczonych danych.
Rozwiązaliśmy problem samodzielnego uczenia się. Czy to koniec historii sztucznej inteligencji?
O nie, systemy drugiej fali są rewelacyjne, jeśli chodzi o przetwarzanie sygnału, np. dźwięku czy obrazu. A teraz cały wysiłek wkłada się w to, by nauczyć SI rozumienia języka naturalnego. Oraz w zbudowanie takiego systemu, którego nie trzeba uczyć na oznaczonych danych. Takiego, który będzie uczył się sam.
Jak?
Na przykład, kiedy dajemy maszynie opinie o mieście, polityku, produkcie czy usłudze, ona ma je zrozumieć.
Zrozumieć i co dalej z tym zrobić?
Odpowiedzieć na pani pytania.
Mam w telefonie Siri. To coś podobnego?
Nie, bo wiedza Siri jest budowana ręcznie lub pochodzi ze statystki. W 2003 r. założyłem pierwszą firmę sztucznej inteligencji w Polsce, w której tworzyliśmy właśnie takie boty jak Siri. Ale każdą odpowiedź trzeba im było odpowiednio napisać. Zrozumieliśmy wtedy, że trzeba nauczyć komputery samodzielnej nauki ze zrozumieniem. Po to, by SI rozumiała nas jako ludzi. Jest to obecnie największe wyzwanie dla naukowców zajmujących się sztuczną inteligencją – rozumienie języka ludzkiego.
Czyli system ma się sam rozwijać?
Ale nie tak jak maszyny drugiej fali. Dobrym przykładem nieudanego eksperymentu tej fazy był Tay, bot Microsoftu, który ucząc się na postach zamieszczanych na Twitterze, w mgnieniu oka stał się rasistą i musiał zostać usunięty z sieci. Cała zabawa polega więc na tym, żeby tworzyć systemy, które przeczytają coś i będą wnioskować na bazie nowo zdobytej wiedzy, a nie tylko bezrefleksyjnie powtarzać to, co przeczytały. My np. zbudowaliśmy system, który nauczył się San Francisco, a teraz uczy się całego świata i będzie miał wiedzę o konkretnym miejscu jak miejscowy, którego pyta się o drogę, o knajpę, o to, gdzie można bezpiecznie pobiegać, czy o to, gdzie można poznać nowych ludzi i na co uważać. W ciągu kilku ostatnich lat ludzie napisali dwa razy więcej tekstu niż od początku ludzkości aż do początków internetu. Co prawda, nie da się go już przeczytać samodzielnie, ale można go wykorzystywać dzięki sztucznej inteligencji. To ogromna wiedza. Dzięki niej można też poprawiać jakość naszego życia, dokonywać lepszych wyborów i poprawiać bezpieczeństwo.
I znowu wracamy do tropienia pedofilów.
Nie. Na początku każda technologia służy wojsku, rządom, służbom specjalnym, potem zaczyna z niej korzystać biznes – tak było choćby z komputerami czy komórkami. Dopiero później dostęp do technologii zaczyna być powszechny. SI na początku miało wojsko i służby. Teraz w ogromnym stopniu korzysta z niej biznes, żeby więcej nauczyć się o nas. Nie przesadzę, mówiąc, że 99 proc. sztucznej inteligencji działa po to, żeby zrozumieć nas pod kątem tego, co nam sprzedać, jaką reklamę czy jakiego newsa nam wyświetlić, oraz jaka informacja najlepiej na nas zadziała, sprowokuje do działania.
A ten 1 proc.?
Ten 1 proc. sztucznej inteligencji uczy się nie o nas, tylko dla nas. To bardzo ciekawy trend, który obserwujemy w Dolinie Krzemowej i który rozchodzi się już po świecie.
O to chodzi, żebyśmy się czuli bezpieczniej?
O to, żebyśmy byli lepiej poinformowani, byśmy podejmowali bardziej świadome decyzje. Niestety, komputery nie rozumują tak jak człowiek i w przeważającej większości uczy się je języka tak, jak poznają go małe dzieci.
Czyli?
Z przykładów. To piesek, kotek, krówka... Komputer zamienia słowa klucze na liczby lub wektory. Na podstawie pokazywanych mu przykładów potrafi określić temat rozmowy czy jej zabarwienie – to, czy wypowiedź jest pozytywna, neutralna czy negatywna. W podobny sposób traktuje dźwięki i obrazy. Nie potrafi jednak wyciągać wniosków. Używa pani wyszukiwarki Google'a, prawda?
Tak.
Wpisuje pani w nią słowa kluczowe, zbitki wyrazów, określenia. Ale ich system gramatyki nie rozumie. Postanowiliśmy uczyć komputery ludzkiej mowy w taki sposób, w jaki my sami uczyliśmy się języka angielskiego – rozdzielając słownictwo i gramatykę. Uczyliśmy je, jak wygląda zdanie oznajmujące, jak przeczenie, jak pytanie, a jak czas przeszły. W jaki sposób można wyrażać warunek, potrzebę czy prośbę. Uznaliśmy, że komputery potraktujemy jak dorosłą osobę, którą uczymy nowego języka. W jednym z pierwszych kroków nasza sztuczna inteligencja analizuje zdanie i dokonuje jego rozbioru logicznego. Przez to w Ameryce, w Dolinie Krzemowej, na początku naszej drogi odczuwaliśmy duży opór. Bo proszę sobie wyobrazić, że przyjeżdżają goście z Polski i mówią, że mają lepszy model języka angielskiego niż Google i Stanford University. I nie są gołosłowni – pokazują niezależne benchmarki wykonane przez najlepsze polskie uczelnie. To dla większości ekspertów była informacja bardzo trudna do przetrawienia. Gandhi powiedział: najpierw cię ignorują, potem się z ciebie śmieją, potem cię zwalczają, a potem wygrywasz.
I pan jest teraz w którym miejscu?
Nie ja – my. Jest nas kilkadziesiąt osób i myślę, że jesteśmy między trzecią a czwartą fazą. Wdrożyliśmy w kilku firmach nasze rozwiązania.
Jakie będę zastosowania dla waszej sztucznej inteligencji?
Mamy pierwsze wdrożenia związane z wykrywaniem przemocy i nienawiści w internecie. To bardzo obiecujący kierunek. Zjawisko przemocy w sieci uważa się za największy problem wspólnot online. Robiliśmy systemy sztucznej inteligencji dla rządów, dla firm telekomunikacyjnych, bankowych, transportowych, farmaceutycznych, a teraz zajmujemy się tym, jak wykorzystać sztuczną inteligencję do tego, żeby było spokojniej i bezpieczniej w internecie.
Żeby na tym zarabiać?
I od razu to pytanie.... Często za szybko się pojawia. A na świecie jest tak, że aż 82 proc. firm, których wartość przekracza dziś miliard dolarów, powstało nie z chęci zysku, tylko dlatego, że ktoś chciał zrobić coś nowego i ważnego. A pieniądze przyszły później. Niebezpieczne jest wartościowanie innowacji i nauki tylko pod kątem komercyjnym. Ale to fakt, że cyberbezpieczeństwo jest błyskawicznie rozwijającą się branżą.
Systemy Google’a wykrywają hejt.
Ich systemy raczkują. Dlatego nie są wykorzystywane – przede wszystkim dlatego, że ignorują kontekst. Zdanie „Jesteś idiotą” i „Nie jesteś idiotą” ocenią tak samo – jako hejt. Systemy Google’a pochodzą z drugiej fali sztucznej inteligencji – uczenia statystycznego, w którym najpierw wtłacza się w maszynę wiedzę z dostarczonych przez ludzi próbek, a następnie system próbuje odgadnąć oznaczenie dla nowego przypadku na podstawie danych, które wcześniej przyswoił.
A wasz system?
To trzecia fala, połączenie uczenia z wnioskowaniem. System pozyskuje wiedzę o świecie i wykorzystuje ją do radzenia sobie z nowymi przypadkami. Do tej pory sztucznej inteligencji bardzo trudno było zrozumieć zdanie: „Nie zasługujesz na to, by żyć”. Nie ma w nim żadnych wulgaryzmów, jest więc „bezpieczne”. Systemy Google’a nie wyczuwają w nim niczego groźnego. Nie rozumieją też, kiedy ktoś komuś grozi, szantażuje, używa obraźliwych porównań. Nie rozumieją gramatyki, konstrukcji zdania i tego, w jaki sposób ludzie używają języka dla określonych celów – nie dostrzegają kontekstu, o którym tak często tu mówię.
„Szkoda, że cię matka nie wyabortowała” – tak do mnie pisał jeden z internautów.
To mowa nienawiści. Niezrozumiała dla typowej sztucznej inteligencji, bo każde słowo tego zdania – gdyby je zapisać pojedynczo – nie jest niczym złym. Można wytrenować system na tym konkretnym przykładzie, ale jeśli to wyrażenie ciut się zmodyfikuje, to system już nie będzie w stanie prawidłowo go rozpoznać. Dopiero w całości, w danej konstrukcji gramatycznej, okazuje się hejtem. Pani jako osoba dorosła może zgłosić taki przypadek Facebookowi, Twitterowi czy pójść na policję. Ale dziecko, które jest szykanowane przez rówieśników, zazwyczaj nikomu się nie skarży, bo boi się konsekwencji. Mówię o tym, bo w Stanach ogromna liczba dzieci jest szykanowana, ale nie na boisku czy korytarzu szkolnym, tylko w internecie. 20 proc. z tych dzieci myśli o samobójstwie, a 2,5 proc. je popełnia. Z badań wynika, że cyberbullying, cybernękanie, zwiększa ryzyko popełnienia samobójstwa przez dzieci. A cybernękanie w internecie jest proste, pisze się zdanie i naciska się guzik „wyślij”. I już. Każdego dnia 160 tys. dzieci w USA nie idzie do szkoły z powodu cyberbullyingu. Niestety, także w Polsce coraz częściej mamy do czynienia z tym zjawiskiem. Problem tej przemocy to złożone zjawisko, którym się zajmujemy i pracujemy nad tym, żeby go rozwiązywać.
W jaki sposób?
Naszym celem jest zapobieganie przemocy, a nie tylko tropienie tych, którzy się tej przemocy dopuścili. Nie jesteśmy od karania i cenzury, jesteśmy od prewencji. Proszę sobie wyobrazić, że dzieciak pisze do innego dzieciaka: „Nie zasługujesz na to, by żyć”. Ale zanim to wyśle, sztuczna inteligencja wysyła mu wiadomość w rodzaju: „To szykanowanie. Zastanów się, czy na pewno chcesz wysłać taki tekst. Przemyśl to. Może chcesz zobaczyć wideo, jak to może zranić twojego kolegę”. Jest też możliwość zablokowania tego posta, a nawet zablokowania konta takiego użytkownika.
To inwigilacja.
To nie jest inwigilacja. W czasach, kiedy Google wie o nas więcej od nas samych, to świadome użycie części tych informacji, by zapobiec przemocy. W USA w wielu placówkach edukacyjnych jest tak, że większość dzieci, szczególnie małych, korzysta ze szkolnych komputerów. Nauczyciele „ręcznie” próbują sprawdzać, co one piszą na forach, na portalach społecznościowych, na czatach. I mimo że wszystko jest kontrolowane i dzieci o tym wiedzą, to i tak hejtują i szykanują innych. Zaczęliśmy współpracę z jedną z największych japońskich korporacji, żeby chronić dzieciaki przed cyberbullyingiem. My chcemy działać prewencyjnie – zapobiegać, a nie karać. Nie chodzi nam o wykrycie złego dziecka, tylko o to, aby zapobiec tragedii.
Ale tylko po angielsku.
Wcześniej pracowaliśmy w języku polskim i też mieliśmy klientów. Polska gramatyka i kontekst to inne zagadnienie niż w języku angielskim.
Polski jest trudniejszy?
Nie, dla ludzi jest zdecydowanie trudniejszy, ale dla komputerów – prostszy. Mamy niesamowite bogactwo informacji zakodowane w końcówkach, których używamy w różnego rodzaju odmianach. Angielski tego nie ma – jest językiem pozycyjnym, gdzie najważniejszy jest szyk zdania. Dlatego jest bardzo trudny do nauki dla komputerów. Ale jeszcze wrócę do epidemii nienawiści w internecie. Jako były lekarz przypomnę, że zanim wynaleźliśmy środki masowego transportu, epidemie chorób szerzyły się powoli. Dyliżanse, statki, pociągi, samoloty – i się zaczęło. I podobnie jest z siecią – im jest powszechniejsza i szybsza, tym zjawisko jest coraz mocniej obecne. Ale teraz sprawa mowy nienawiści nabrzmiała do tego stopnia, że jest uznawana za największy problem Doliny Krzemowej. Dla wielkich firm internetowych hejt to pięta achillesowa. Ani Google, ani Twitter, ani FB sobie z nim nie radzą. Nie potrafią nic z nim zrobić, sam tylko Google przez hejt traci mnóstwo pieniędzy. Ten problem był przez lata ignorowany, a teraz mówi się o tym, że umiejętne wykorzystywanie mowy nienawiści doprowadziło do brexitu czy do wybrania na prezydenta USA Donalda Trumpa.
A czy może odegrać rolę w wyborach samorządowych i parlamentarnych w Polsce?
Szacuję, że nawet 30 proc. hejtu w polskim internecie to płatny trolling. Jest jakaś dyskusja merytoryczna o polityce i nagle pojawia się wpis atakujący. Tylko po to, żeby rozbić dyskusję, zaszczuć jej uczestników. W takich przypadkach mówi się o zamachu na demokrację. Kiedy pojawiają się negatywne emocje, łatwiej się nami manipuluje. Złość to lęk, a kiedy się boimy, to nie myślimy racjonalnie i nie głosujemy racjonalnie.