Czym się różnią wirusy komputerowe od tych, które atakują organizmy żywe?
Na pierwszy rzut oka wszystkim, gdyż te drugie, choć bardzo małe, to istnieją fizycznie. Te pierwsze nie mają „ciała”, są zbiorem bitów. Ale kiedy się im przyjrzymy z perspektywy matematycznej czy informatycznej, okaże się, że oba byty są do siebie niezwykle podobne i rządzą się tymi samymi regułami, gdyż są po prostu zapisem informacji. Jest ich wiele rodzajów, atakują różne systemy (organizm to także system), mogą się replikować w sposób niekontrolowany i obchodzić zabezpieczenia w systemie, aby dokonać zniszczenia.
Czyli przeprogramować system.
Reklama
Tak. Jest jeszcze jedno podobieństwo. Komary przenoszą malarię, szczury dżumę. W epidemiologii nazywa się je wektorami. Analogiczne pojęcie jest używane w informatyce. Pierwszym słynnym przykładem złośliwego oprogramowania był robak Morrisa (nazwy i taksonomia są sprawą drugorzędną, w skrócie będziemy mówić o wirusach). Został wpuszczony do sieci 2 listopada 1988 r. przez Roberta Tappana Morrisa, doktoranta z wydziału informatyki Uniwersytetu Cornell, który chciał sprawdzić, czy zadziałają zabezpieczenia systemu. Coś poszło nie tak i robak zaczął się replikować w niekontrolowany sposób, infekując ponad kilka tysięcy komputerów, wówczas spory procent światowego internetu, powodując wielkie straty. Morris przyznał się do winy, został ukarany grzywną i pracami społecznymi, co mu nie przeszkodziło zostać później profesorem na Massachusetts Institute of Technology (MIT), znanym inwestorem venture capital, a także bardzo zamożnym człowiekiem.
„Normalne” wirusy są zwykle przypisane do określonych organizmów. Przeskoki międzygatunkowe zdarzają się rzadko. Czy złośliwy program napisany na Microsoft Windows zaatakuje iOS Apple’a bądź Androida?

Reklama
Są takie malware’y, które powstają na dany system operacyjny i do konkretnych celów. Ale już robak Morrisa uderzał w szeroką gamę systemów operacyjnych, m.in. dlatego że wykorzystywał protokoły internetowe niezbędne do przesyłania informacji. W świecie informatycznym elastyczność, łatwość przenoszenia się, jest bardzo duża i rośnie. Ale także w przypadku normalnych wirusów i świata organizmów żywych ona się zwiększa, czego przykładem jest ostatnia pandemia.
Spotkałam się z opinią, że informatyka nie jest nauką o komputerach czy nawet o programowaniu...
To jest przede wszystkim nauka o zarządzaniu informacją. To, że dziś wykorzystujemy do tego takie, a nie inne maszyny i pewne wzorce myślenia, to jedna sprawa. Ale mogłyby one być całkiem odmienne – tu odsyłam do lektury np. powieści steampunkowych, w których rewolucja informatyczna zachodzi w XIX w. Informatyka w takiej wersji, jak ją współcześnie widzimy, powstała w latach 30. i 40. XX w. A jednym z fundamentów jest tzw. architektura von Neumanna z oddzieleniem m.in. pamięci i procesora. Jest ona podstawą działania większości współczesnych komputerów. Wiem, że wielu osobom się to nie spodoba, ale uważam, że informatycy i matematycy są równie uprawnieni do zajmowania się wszelakimi wirusami jak lekarze czy epidemiolodzy – mam tu na myśli ich replikację, sposób i szybkość rozprzestrzeniania się. Podczas pandemii COVID-19 to właśnie w dużym stopniu matematycy tworzą modele, którymi kierują się rządzący, wprowadzając lub luzując obostrzenia. Weźmy choćby ten słynny współczynnik R, czyli w istocie szybkość powielenia się informacji. Mówi on, ile kolejnych osób może zakazić jedna zainfekowana osoba. Wartość wyższa niż jeden świadczy o tym, że epidemia jest na fali wznoszącej, co ma związek z wykładniczym tempem wzrostu. Jak on przebiega, dobrze ilustruje anegdota o twórcy szachów, który zapytany przez władcę o to, jakiej sobie życzy nagrody, poprosił o zboże. Trik polegał na tym, że na każdym następnym polu liczącej 64 kwadraty szachownicy miała się znajdować dwukrotność liczby ziaren z poprzedniego. To jest niewyobrażalna liczba, nawet jeśli zaczniemy od pojedynczego ziarenka, to w sumie na wszystkich jej 64 polach powinno się znaleźć ponad 18 kwintylionów. A kwintylion to jedynka i 30 zer w zapisie dziesiętnym. A to znacznie więcej ziaren, niż ma dowolne państwo. W wykładniczym tempie często rozprzestrzeniają się też wirusy, jeśli coś ich nie zatrzyma. Ale oczywiście tworzenie modeli ich rozchodzenia się po świecie jest możliwe, jeśli przyjmie się pewne założenia i je przeanalizuje. Co będzie, gdy otworzymy siłownie, poślemy dzieci do szkół, jaka będzie temperatura, ile osób już nabyło odporność poszczepienną itp.
Te „normalne” wirusy mutują, zmieniają się tak, że firewalle w postaci szczepionek przestają na nie działać.
Bo czym jest mutacja? Był taki amerykański matematyk z MIT, Claude Shannon, który pokazał, że w praktyce przekaz informacji nie może być bezstratny, więc powielana informacja będzie ulegać zniekształceniu i w efekcie będą powstawać inne twory, o innej zawartości informacyjnej. Część z nich ulegnie zniszczeniu, bo zawarta w nich informacja będzie niepełna, ale jakaś część, jak w darwinowskiej teorii ewolucji, będzie lepiej przystosowana do mnożenia się i trwania. I tak w przypadku epidemiologii mówi się często o barierze krew-mózg, czyli zabezpieczeniu (zarówno fizycznym, jak i biochemicznym) przed przenikaniem patogenów z krwi do tkanki mózgowej. Niektóre wirusy, jak choćby SARS-CoV-2, potrafią ją przełamywać, ale generalnie spełnia zwykle swoje zadanie. Jednak w przypadku informacji przekazywanych inną drogą, za pomocą innych nośników niż krew, będzie ona równie skuteczna jak linia Maginota w obronie Francji przed agresją niemiecką w 1940 r.
Czy istnieje możliwość, by wirusy komputerowe zainfekowały organizmy żywe? Nie to, że same z siebie, ale wyobraźmy sobie genialnego szaleńca, który chciałby takiego malware’a napisać, aby zaszkodzić ludzkości.
To nie tylko jest możliwe, ale już się dzieje. Nie tak dawno było głośno o działalności organizacji Cambridge Analytica, która infekowała umysły ludzi, aby wpłynąć na wyniki wyborów w USA. Tu mieliśmy do czynienia z infekcją kulturową, na pewnym poziomie podprogowym, przy czym nie chodzi o tak prostą sprawę, że po jakimś czasie ekspozycji napisu „pij piwo” pogonisz do sklepu po sześciopak. Może nam się wydawać, że świat biologiczny jest bardzo daleki od wirtualnego, ale pomyślmy np. o neuroprzyłączach, nad którymi pracuje się w wielu miejscach – że wspomnę tylko firmę Neuralink Elona Muska. Ale wiele rzeczy można też robić bezinwazyjnie – np. czytać w myślach czy też je przekazywać. Przykład: hełmy pilotów myśliwców. Korzystając z metody EEG, prowadzą do biofeedbacku pozwalającego na bezpośrednią komunikację pomiędzy mózgiem a urządzeniem zewnętrznym. W przypadku pilotów, którzy podlegają wielkim przeciążeniom prowadzącym do swoistego paraliżu, kiedy to człowiek nie jest w stanie wykonać żadnego ruchu, nacisnąć guzika, choć wciąż jest świadomy, posiłkując się takim interfejsem mózg-komputer (z ang. brain-computer interface, BCI), można wydawać maszynie mentalne polecenia: idź w górę, zniż się, odpal rakietę. Gdyby tego nie było, to maszyna by spadła. Ale nie musimy szukać tak wyrafinowanych rozwiązań militarnych, jest to też wykorzystywane w medycynie. Choćby w przypadku osób z przerwanym rdzeniem kręgowym albo cierpiących na różne schorzenia neurologiczne. Stosując techniki BCI – czy to wszczepiając pacjentom elektrody do mózgu, czy też stosując zewnętrzne urządzenia wpływające na jego aktywność, można uzyskać fenomenalne efekty: przywracać ludziom zdolność widzenia lub poruszania się, likwidować napady padaczkowe. Dziś wykorzystujemy te techniki także w neurogamingu. Zaczęło się od pracy z osobami mającymi problemy emocjonalne – kiedy wprowadzały fale swojego mózgu w odpowiedni rytm, mogły np. przesuwać piłeczkę po ekranie. Poszło to już w komercję, są programy, które wykorzystując fale mózgowe gracza, ale również m.in. tętno, stopień rozszerzenia źrenic i gesty, dopasowują fabułę, tempo i muzykę do emocji użytkownika. Możemy też sięgnąć do prostszych przykładów, w jaki sposób można zainfekować organizm człowieka. Mam na myśli efekt stroboskopowy. Migające z pewną częstotliwością światło – na dyskotece, w grach komputerowych lub filmach animowanych – jest w stanie wywołać u części odbiorców napady epileptyczne. Oczy, jak czasem obrazowo mówią neurolodzy, są zewnętrzną wypustką mózgu – są bezpośrednio do niego podłączone. I traktując je takim migającym światłem, można, jak pisał w jednym ze swoich opowiadań pt. „Patrol” Stanisław Lem, tak rozhuśtać potencjał kory mózgowej, że procesy w niej zachodzące stają się niestabilne. Co ważne – światło też jest wektorem, nośnikiem informacji na poziomie kwantowym, czyli mniejszej skali (a więc większej rozdzielczości i gęstości upakowania informacji) niż w przypadku klasycznych nośników biologicznych.
Jeśli my jesteśmy w stanie myślami oddziaływać na to, co się dzieje na ekranie komputera, to można się spodziewać, że w drugą stronę to też zadziała?
Oczywiście. Weźmy rzeczywistość wirtualną (VR). To już nie tylko wrażenia wzrokowe czy dźwiękowe, lecz także – coraz częściej – zapachowe, dotykowe, nawet smakowe. Dziś użytkownicy smartfonów na bazie Androida mogą korzystać z funkcji zwanej asystentem, ale biorąc pod uwagę rozwój VR, można się spodziewać, że wkrótce asystent nie będzie mówił do nas ze słuchawki, lecz usłyszymy go w swojej głowie, a obrazy zostaną nam wyświetlone na siatkówce oczu. My jeszcze tego nie potrafimy, ale rzesza naukowców na całym świecie ostro nad tym pracuje.
Czyli rozmawiamy o czymś, co jeszcze nie istnieje...
W moim zespole naukowym pracowaliśmy przy kilkunastu projektach, w których chodziło o to, by dać firmie informacje, co się może wydarzyć w perspektywie dłuższej niż kwartał czy rok. Jednym z kontrahentów było bardzo duże przedsiębiorstwo zajmujące się głównie paliwami płynnymi. Dysponowało wielką infrastrukturą, ale prezes niepokoił się, że biznes stoi tylko na jednej nodze. Dziesięć lat temu mieliśmy za zadanie nakreślić scenariusze na przyszłość. Jeden z nich zakładał, że wzrośnie elektryfikacja transportu, co wpłynie na wolumen sprzedawanego paliwa. Znaliśmy tę firmę, współpracowaliśmy już wcześniej i było między nami zaufanie. Pracowało się dobrze nawet nad dość ekstrawaganckimi scenariuszami, ale w przypadku elektryfikacji transportu natrafiliśmy na mentalną ścianę – wiceprezesi i dyrektorzy stwierdzili, że to nieprawdopodobne, wręcz na granicy śmieszności. Zwykłe marnowanie czasu. Jedynie prezes uważał, że nawet tak „niedorzeczny” scenariusz można rozważyć.
Udało się wam wyczuć trend.
Nic się nie „udało”, po prostu stworzono scenariusz w oparciu o naukowe metody, a jak zaszły odpowiednie warunki startowe, zaczął się on realizować.
Teraz na fali jest trans humanizm postulujący wykorzystanie nowoczesnych technik, aby udoskonalić człowieka i sprawić, aby stał się nieśmiertelny.
Ulepszanie człowieka to stara idea. Jednym z jej prekursorów był Nikołaj Fiodorow, rosyjski filozof, który zmarł – uwaga! – w 1903 r. Sam termin transhumanizm pojawił się dużo później, a ukuł go angielski biolog Julian Huxley – z tych Huxleyów od Darwina i „Nowego wspaniałego świata”. Ludzie od zawsze robili wszystko, żeby ulepszyć swoje mdłe ciała. Weźmy okulary – podobno już rzymski cesarz Neron oglądał walki gladiatorów przez wyszlifowany szmaragd. Dziś, używając inwazyjnych interfejsów BCI (implanty wszczepia się do szarej istoty mózgu), lekarze przywracają pacjentom wzrok. Ta technologia sięga lat 70. XX w., jest wciąż niedoskonała, ale działa i będzie ulepszana. Idźmy dalej: rozruszniki serca, pompy insulinowe, bioniczne protezy, implanty ślimakowe, technologie ECoG, które stymulują mózg, by nie dochodziło do napadów epilepsji… Ile już dziś mamy technologii, bez których nasze życie byłoby gorsze albo w ogóle by się skończyło. Idźmy dalej – pracownicy korporacji wszczepiają sobie chipy, które zastępują im karty dostępu do pomieszczeń i do korzystania z urządzeń biurowych… Ale zatrzymajmy się przy rozruszniku serca. Kiedyś trzeba było go często wymieniać, pierwszy pacjent (wszczepiono mu to urządzenie w 1958 r.) przeszedł 24 zabiegi. Niedawno członkowi naszego zespołu wszczepiono kardiostymulator. Miniaturowe urządzenie nie tylko daje impulsy, które powodują, że serce pracuje lepiej, zapisuje też jego aktywność. Jest de facto komputerem, opartą na algorytmach sztuczną inteligencją. Nie trzeba też zmieniać w nim baterii, można je ładować przez skórę. Takie urządzenie można dość łatwo zhakować, gdyby ktoś miał złe intencje. Kilkanaście lat temu na seminariach z bezpieczeństwa w Cambridge krążyły już żarty, że wchodząc z odpowiednim urządzeniem na sesję Senatu USA, można by w krótkim czasie wywołać zaburzenia rytmu serca lub działania pomp insulinowych u 30 proc. senatorów.
Jeśli można coś zrobić, to ludzie na pewno to zrobią. To tylko kwestia czasu.
Zwłaszcza jeśli będzie to przynosić zyski. Ale na poważnie, prowadzi się wiele badań w zakresie technologii obronnych, część z nich dotyczy cyborgizacji. Chodzi o to, by np. żołnierze szybciej reagowali, stali się silniejsi i wytrzymalsi. Był taki start-up, który pracował nad kroplami do oczu umożliwiającymi widzenie w podczerwieni. Gdy Amerykańska DARPA (Defense Advanced Research Projects Agency, czyli Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności) się o tym dowiedziała, przejęła projekt. Tuningowanie mięśni – to także się dzieje. Mózgowe wszczepki rodem z „Czarnych oceanów” Dukaja są tylko kwestią czasu.
Clou są przetworniki między reżimami analogowym i cyfrowym.
Tak. Używane dziś przez nas komputery są cyfrowe. W tym sensie jednak głupsze od większości ludzi, bo uznają tylko dwa stany – 0 i 1. Wszystko, co się w nich dzieje, to operacje na tych zerach i jedynkach. Z kolei świat, jakiego na co dzień doświadczamy, nie składa się tylko z dwóch możliwości: albo-albo. Ale przechodzenie między światem cyfrowym i naszym analogowym to dość stara sprawa. Na przykład jak powstał telegraf, jego ideą było to, że był klucz, który trzeba było naciskać i przekazywać sygnał, co się sprowadzało do informacji: jest prąd, nie ma prądu, czyli 0-1. Potem pojawiły się taśmy perforowane: dziurka wybita to jedynka, niewybita – zero. To przykład, jak sto lat przed powstaniem pierwszych komputerów mieliśmy więc już ideę zapisu cyfrowego. Potem pojawił się problem w drugą stronę – jak z zapisu cyfrowego przejść na analogowy. I udało się. Codziennie słuchamy muzyki zapisanej w sposób cyfrowy z analogowych głośników – one są tymi przetwornikami. I strata informacji jest dla nas niezauważalna.
Dlaczego to jest takie ważne?
Mamy dziś konsensus, że nasza dusza, osobowość, czyli przetwarzanie informacji, znajduje się w głowie. I pewnie nawet neurokognitywiści by się zgodzili, że mózg jest najprawdopodobniej maszyną analogową. Wróćmy więc do efektu stroboskopowego – czyli przeprogramowania mózgu za pomocą informacji zawartej w świetle w celu zmuszenia danej jednostki do pożądanych działań. I tu przekraczamy dwa światy – analogowy i cyfrowy.
Przykładem, który zajmuje od pewnego czasu opinię publiczną, speców od bezpieczeństwa, naukowców, są ataki na amerykańskich dyplomatów i wojskowych. Nie ma pewności co do wektora ataku, ale najczęściej mówi się o mikrofalach lub dźwiękach o specyficznej częstotliwości.
To tzw. Havana syndrome, bo zaczęło się to w stolicy Kuby w 2016 r. To zjawisko rozpoznajemy po bólach i zawrotach głowy, problemach z pamięcią, słuchem, przemęczeniu, nudnościach, wreszcie uszkodzeniach mózgu. Mocarstwa, a zwłaszcza Stany i Rosja, od co najmniej lat 60. eksperymentowały z takimi rzeczami. Dziś można za pomocą fal przenoszących informacje wpływać na samopoczucie i zdrowie ludzi. Inna sprawa, że USA od 2001 r. testują broń mikrofalową. Active Denial System (ADS) jest przewidziana do rozpędzania tłumów, nie zabija, ale powoduje dyskomfort i ból, gdyż nagrzewa skórę. Emituje wiązki mikrofal o częstotliwości 94 GHz, jej zasięg wynosi ok. 500 m. Co istotne – promieniowanie mikrofalowe to też światło, tylko w częstotliwościach poza zakresem światła widzialnego (pomiędzy podczerwienią a falami ultrakrótkimi). Większość takich badań była i jest prowadzona przez służby.
Jeżeli będziemy sobie wszczepiać coraz więcej elektronicznych gadżetów, to na jakie zagrożenia będziemy narażeni?
Ja bym nie powiedział „jeżeli”, tylko raczej „kiedy”. Gdy Stanisław Ulam, wielki matematyk wywodzący się ze szkoły lwowskiej, m.in. prekursor metod numerycznych, pracował przy projekcie Manhattan, czyli bomby atomowej, a potem przy bombie wodorowej, zajmował się też opracowywaniem systemów napędowych rakiet kosmicznych. W swojej autobiograficznej książce pt. „Adventures of a Mathematician” („Przygody matematyka”) wydanej w 1976 r. napisał: „Podczas mojego życia w nauce dokonały się wielkie zmiany. Siedemdziesiąt lat to tylko około dwóch procent całej pisanej historii ludzkości (...). Czasem wydaje mi się, że najbardziej racjonalne wyjaśnienie wszystkiego, co zdarzyło się podczas mojego życia, brzmi tak: wciąż mam 13 lat i zasnąłem, czytając książkę Juliusza Verne’a lub H.G. Wellsa”. Od śmierci Ulama minęło 37 lat, podczas których ludzie z naszej kohorty wiekowej obserwują, jak zmiany w naszym świecie przyśpieszają. A jednocześnie jak wszystko jest niemal „takie samo, tylko bardziej”. Kiedy pojawiły się pierwsze programy antywirusowe, nazywało się je szczepionkami. Obecna pandemia podwyższyła świadomość społeczeństw nie tylko co do „normalnych” wirusów, lecz także – w związku chociażby z przestawieniem się na pracę zdalną, e-zakupy, e-spotkania, płatności itd. – co do cyberbezpieczeństwa. Zasady są podobne. Prosimy się o kłopoty, jeśli nie przestrzegamy zasad ochrony, np. podczas pandemii nie będziemy nosić maseczek, ale będziemy chodzić w miejsca, gdzie jest wielu ludzi, rzucać im się na szyję. Czy – tu użyję skrajnego przykładu – jak pewien amerykański patocelebryta, w ramach jackassu wyliżemy najbrudniejsze miejsce w samolocie, tj. toaletę, aby pokazać, że nie boimy się wirusa (gość zachorował na COVID-19, ale przeżył). Podobnie jest w sieci – jeśli nie będziemy przestrzegać „zasad higieny” i zaczniemy otwierać wszystkie załączniki, klikać w linki, które przysyłają nam w mediach społecznościowych znajomi, możemy stracić tożsamość i narazić się np. na utratę pieniędzy. Trzeba przestrzegać zasad bezpieczeństwa. Zawsze, w każdym z tych światów. Zwłaszcza że zachodzi pomiędzy nimi konwergencja.
A skończymy jako wirtualne byty zapisane na jakimś kosmicznym serwerze?
Bardzo możliwe. Te światy – rzeczywisty i wirtualny – będą się coraz bardziej przenikać. Zwłaszcza że zero-jedynkowy sposób przetwarzania informacji nie jest jedyny, a więc nie ma prostego przeciwieństwa: mózg jako komputer analogowy versus cyfrowe komputery. Kluczem jest modelowanie i sam szeroko rozumiany proces obliczeniowy. Jeden z pierwszych polskich komputerów analogowych do rozwiązywania działań różniczkowych (ARR) pochodzi z lat 50. Dzięki niemu matematycy mogli rozwiązywać pewne skomplikowane równania, przepływ prądu wyświetlany na okrągłych ekranach kineskopowych obrazował wykresy funkcji. Ale nie było wówczas przetworników, które mogłyby te linie zamienić w cyfry. Polacy i tak sobie poradzili – trzaskano fotografie tego „okienka” celem późniejszej analizy. Taki to był postęp analogowo-cyfrowy. Inna historia, dotycząca ekonomii. Na przełomie lat 50. i 60. XX w., aby pokazać model przepływu pieniędzy w gospodarce brytyjskiej, zrobiono komputer z rurek, zastawek, jazów, którymi przepływała woda – w najczystszej postaci fizyczna realizacja idei Keynesa. Za jego pomocą sprawdzano, co się stanie, jeśli podejmie się określone decyzje ekonomiczne. To było bardzo precyzyjne, bo uwzględniało bieżące parametry – zbiorniki się wypełniały, przepełniały, wszystko było widać jak na dłoni. Dziś głośno jest o komputerach kwantowych, ale istnieją też komputery biologiczne, w których procesy obliczeniowe – bardziej cyfrowe niż analogowe – przeprowadza się za pomocą nici DNA pływających w enzymach. Idea, na poziomie abstrakcji, jest bardzo podobna do komputera kwantowego: mamy bardzo dużą ilość cząstek, które w określonym układzie fizycznym rozwiązują nam problem. Tak samo jak procesory w naszych PC, tylko że tych malutkich procesorów jest bardzo dużo. Jest wiele koncepcji w informatyce, jak np. twory zwane automatami komórkowymi, gdzie wykorzystujemy koncepcje zapożyczone z biologii, algorytmy genetyczne, żeby liczyć pewne rzeczy cyfrowo. Tak więc ta konwergencja jest bardzo bliska i na bardzo wielu poziomach już się dzieje, tylko my nie zdajemy sobie jeszcze z tego sprawy. Jest taki znany w świecie naukowym oksfordzki profesor filozofii, Nick Bostrom, transhumanista, który w 2003 r. opublikował artykuł „Are You Living in a Computer Simulation?” (Czy żyjecie w komputerowej symulacji?). Dowodzi w nim, że z bardzo dużym prawdopodobieństwem już dziś żyjemy w symulacji cyfrowej. Bostrom ma oczywiście wielu krytyków, ale przyjmijmy hipotetycznie, że jego argumentacja jest prawdziwa. A to by oznaczało, że cały otaczający nas „mokry” świat biologiczny jest wytworem znajdujących się w warstwach niższych, być może na poziomie subkwantowym, procesów obliczeniowych. Wygląda tak, jak ma wyglądać, my to mamy w ten sposób postrzegać. Jego pracę można znaleźć w internecie, to przykład dobrej nauki – nie tylko filozofii, lecz także prostego zastosowania matematyki, nawet niespecjalista może ją zrozumieć. Choć pewnie pod warunkiem, że bez ściągania zdał maturę z matmy. Ale nawet jeśli u kogoś było inaczej, to i tak warto spróbować przeczytać ten artykuł…
Pandemia podwyższyła świadomość społeczeństw nie tylko co do „normalnych” wirusów, lecz także wyczuliła na wiedzę związaną z cyberbezpieczeństwem. Zasady higieny w obu przypadkach są podobne
Kamil Kulesza, matematyk, fizyk, informatyk (doktorat z kryptografii). Na University of Cambridge zajmował się industrial maths, algorytmami i nieklasycznymi metodami obliczeniowymi – kwantowymi i biologicznymi. Założyciel Centrum Zastosowań Matematyki i Inżynierii Systemów PAN