Najpierw wyparują zdjęcia z płyt CD. Potem wywietrzeją dane z komputerów, w końcu znikną z pendrive’ów, smartfonów i z chmury. Tego, co przetrwa, nie będzie na czym odtworzyć. Cyfrowy zapis okazał się pułapką i sprawi, że staniemy się zapomnianym pokoleniem
Nonszalancko umieszczamy dane w czymś, co może się stać informacyjną czarną dziurą. Myślimy, że cyfryzacja ochroni te dane, ale jeśli nie podejmiemy innych kroków, wersje cyfrowe mogą się okazać najgorszym rozwiązaniem. Jeśli mamy zdjęcia, które chcemy zachować, musimy je wydrukować – słowa wiceprezesa Google’a Vinta Cerfa zaskoczyły uczestników spotkania American Association for the Advancement of Science, międzynarodowej organizacji nonprofit zajmującej się rozwojem nauki. Coroczne sympozjum AAAS w San Jose w Kalifornii odbyło się w połowie lutego, dwa tygodnie po katastrofalnym w skutkach pożarze archiwum na nowojorskim Brooklynie, gdzie z dymem poszły tony dokumentów sądowych, bankowych i medycznych. Zgromadzeni podczas sympozjum na wykładzie Vinta Cerfa naukowcy, eksperci i dziennikarze oczekiwali, że wiceszef firmy, z której usług korzystają miliardy internautów, przedstawi im cyfrową receptę na problemy archiwizacji. Jednak to, co usłyszeli – jak relacjonowali potem publicyści „Guardiana” – raczej ich nie uspokoiło.
Stosy zdigitalizowanych materiałów mogą zostać utracone na zawsze, ponieważ programy potrzebne, aby je odczytać, wkrótce staną się martwe – prorokował wiceprezes Google’a. Dla przyszłych historyków staniemy się zapomnianym pokoleniem. Ze starożytnymi cywilizacjami nie ma takich trudności, bo do odczytania wszystkiego, co wówczas zapisano na glinianych tabliczkach czy papirusach, potrzebne są tylko oczy. Przy badaniu dzisiejszej kultury archeolodzy będą mieli do czynienia z tysiącami różnych plików na różnorodnych nośnikach, które mogą być odtworzone tylko z odpowiednimi programami i sprzętem. A które w większości już nie będą istnieć. Zresztą, jak podkreślił Cerf, taki problem mamy już obecnie. W 1980 r. rutyną było nagrywanie danych na dyskietkach czy wgrywanie programów z kaset magnetofonowych do ZX Spectrum. Nawet jeśli te dyskietki i kasety zachowały się w dobrym stanie, to urządzenia do ich uruchomienia stoją już w muzeum.
Wrażliwe dane
– Wiceszef Google’a ma rację – stare urządzenia są zastępowane coraz to nowocześniejszymi i zaczynają się problemy z odczytywaniem informacji z nośników, które już wyszły z użycia. Jednak pojawił się kolejny kłopot – nietrwałość zapisu i samych nośników – zauważa dr inż. Grzegorz Płoszajski z Instytutu Automatyki i Informatyki Stosowanej Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej.
Taśmy filmowe i magnetofonowe ulegają degradacji; z upływem czasu jedne się kruszą, inne rozwarstwiają, a wytwarzane z użyciem składników organicznych pleśnieją. Płyty CD okazują się wrażliwe na światło, temperaturę i wilgoć. Już po 5 czy 10 latach od nagrania np. zdjęć z wakacji może być niemożliwe prawidłowe odczytanie jakiegoś pliku, a nawet całej płyty – wylicza naukowiec. Przypomina ustalenia serwisu Chip.pl sprzed dwóch lat, z których wynika, że żywotność dysku magnetycznego sięga najwyżej 5–7 lat, pamięci flash ok. 10 lat, płyt CD/DVD-R do 30 lat, a taśm mini-DV – ok. 15 lat. Na pocieszenie serwis opisuje prototypy nośników, które cyfrowy zapis powinny zachować – przynajmniej tak obiecują ich producenci – nawet przez półtora tysiąca lat, lecz są jeszcze w fazie testów.
– Spotykamy się z problemami z odczytaniem starszych płyt DVD i CD, w szczególności tych nagrywanych na domowym sprzęcie. Laser w nagrywarce, np. w laptopie, zmętnia specjalną warstwę tworzywa. Nieodpowiednie warunki przechowywania płyt mogą doprowadzić do zmiany przezroczystości tej warstwy. W takim przypadku różnica między zerem a jedynką, przezroczystym lub nieprzezroczystym obszarem, zaczyna się zmniejszać i tylko wysokiej jakości sprzęt oraz odpowiednie metody odczytu pozwalają na wydobycie danych. Dodatkowo różne procesy produkcji płyt wpływają na ich żywotność, na samoczynne zmiany przezroczystości tej warstwy. Najtańsza płyta mało znanego producenta kupiona w supermarkecie będzie prawdopodobnie mniej trwała niż płyta renomowanego producenta – przyznaje Kacper Kulczycki z firmy Avidata Odzyskiwanie Danych.
Te, jak się okazuje, nie do końca trwałe krążki o dość małych pojemnościach są wypierane przez nośniki półprzewodnikowe – pendrive’y, dyski SSD czy pamięci micro-SD w smartfonach lub SD w aparatach cyfrowych i tabletach. W tych niewielkich urządzeniach można zachować dziesiątki, a nawet setki gigabajtów, co jeszcze 10 lat temu było science fiction.
– Życie jest sztuką kompromisu. Półprzewodnikowe pamięci to gigantyczna pojemność przy minimalnych rozmiarach, znacząca oszczędność energii i wysoka odporność na wstrząsy. Jednak coś za coś – stosowany w nich zapis w postaci ładunków elektrycznych jest bardzo wrażliwy na temperatury, a miniaturyzacja zwiększa podatność na uszkodzenia elektrostatyczne. Urządzenia te są przystosowane do pracy w ok. 20 st. Celsjusza. W Polsce mamy duże spektrum temperatury. Proszę sobie wyobrazić, że idziemy w góry w 20-stopniowym mrozie, mając w kieszeni plecaka pendrive z ulubioną muzyką. Wchodzimy do ciepłego schroniska i opieramy plecak o ścianę tuż przy rozpalonym kaloryferze. W cieple zdejmujemy z siebie polar, słysząc charakterystyczne trzaski przeskakujących ładunków elektrycznych, i sięgamy po ulubioną muzykę. Mróz czy wysoka temperatura, tak samo jak duże jej skoki, mogą być zabójcze dla zapisanych danych. Dodatkowo przeskok ładunku rzędu od kilku do kilkunastu tysięcy woltów, a tak potrafimy się naładować, zdejmując łatwo elektryzujące się ubranie, i z piosenek będą nici – wyjaśnia ekspert z Avidata.
Jednak jego zdaniem dużo istotniejszym problemem dla zwykłego Kowalskiego jest cykl życia urządzeń odczytujących. – Mało kto wie, że nie zachowały się np. żadne zapisy, jak kiedyś używano krzesiwa. Jego stosowanie było dawniej tak powszechne, że nikt nie wpadł na to, by utrwalić instrukcję obsługi. Dzisiaj archeolodzy tylko się domyślają, jak nim się dokładnie posługiwano. Podobna sytuacja może zaistnieć w elektronice. Nie będziemy wkrótce, w codziennych zastosowaniach, dysponować sprzętem pozwalającym na odczyt informacji zapisanych na nośnikach, które znikną z rynku. Już teraz stosujemy inne dyski niż dekadę temu. By odczytać te starsze, trzeba używać odpowiednich urządzeń lub starego sprzętu, a tego działającego jest coraz mniej. W nowych komputerach nie ma już odpowiednich złączy. Sprawę komplikuje rozmyślna polityka producentów, którzy stosują autorskie rozwiązania sprzętowe i programistyczne. Na rynku istnieją nie tylko różne, niewspółpracujące ze sobą rozwiązania, lecz także różne wersje tego samego systemu, które nie współpracują z sobą nawzajem. To celowe kroki, by skłonić konsumentów do wymiany sprzętu i oprogramowania – ostrzega Kacper Kulczycki.
A to nie koniec zamieszania. Problemem jest też format zapisu. – Nie wszystkie formaty nadają się do archiwizowania. Dotyczy to nie tylko plików graficznych, lecz także np. tworzonych pod edytorami tekstu. Formaty wychodzą z użycia, są zastępowane nowymi – dodaje dr Grzegorz Płoszajski.
Przetrwają analogi
Czy istnieje więc jakiś trwały zapis informacji? – Tak, papier i ołówek. Ślady węgla na papierze będzie można nawet po setkach lat odczytać metodami spektrograficznymi, o ile sam papier nie zostanie pożarty przez grzyby lub bakterie – śmieje się ekspert z Avidata.
– Albo kamień z Rosetty – dorzuca naukowiec z Politechniki Warszawskiej. To odkryta w egipskim porcie Rosetta w delcie Nilu wysoka na ponad metr i gruba na ok. 30 cm, ważąca prawie tonę bazaltowa płyta sprzed ponad dwóch tysięcy lat, z wyrytym w trzech językach dekretem egipskich kapłanów dla uczczenia faraona Ptolemeusza V.
– A tak na poważnie nic nie jest trwałe na zawsze. Podstawowy zapis magnetyczny na dyskach twardych potrafi sprawić kłopot już po kilku latach. Domeny magnetyczne ulegają samoistnemu przemagnetyzowaniu; ponadto ulegają wpływowi pól magnetycznych wytwarzanych przez coraz bardziej wszechobecną technikę – groźny dla zapisu może być magnes głośnika czy silnik odkurzacza – oraz siły przyrody. Dlatego w archiwach cyfrowych zaleca się, by co jakiś czas ponawiać zapis, np. co dwa lata w przypadku dysków lub co cztery dla taśm magnetycznych – opowiada inżynier z warszawskiej uczelni.
Pod znakiem zapytania – wskazuje – stoi trwałość pendrive’ów i dysków cyfrowych. Podobnie jest z cyfrową chmurą – nie wiadomo tak naprawdę, gdzie i w jakiej technologii zapisywane są przechowywane w niej informacje. To są usługi prywatnych firm, które mogą np. zbankrutować. Co wtedy z ich archiwami? – Powstaje zasadnicze pytanie, jak państwa poradzą sobie z archiwizacją. Jak będą ją kontrolować. Różne światowe organizacje zajmujące się archiwizowaniem opracowują standardy certyfikacji cyfrowych bibliotek, jednak nieustanny postęp technologiczny i stopień skomplikowania procesu gromadzenia danych sprawiają, że pojawiają się teraz zasady certyfikacji certyfikatorów. Np. amerykańska agencja National Archives and Records Administration (NARA) zaleca stosowanie płyt CD-R jedynie jako środka do przesyłania danych. Do przechowywania już nie, a jeśli jakaś instytucja gromadzi dane na płytach CD, to NARA przestrzega przed stosowaniem płyt niskiej jakości i nieznanych producentów. Dochodzi do tego problem z rosnącym zużyciem energii i jej kosztem, będącym następstwem nieustannego powiększania archiwów. Prowadzi to do stawiania pytań, czy wszystkie dyski w archiwum cyfrowym muszą pracować cały czas i jak należałoby organizować funkcjonowanie takiego archiwum. Musimy dokonywać mądrych wyborów, inaczej zbyt duża wiara w nieomylność technologii może się skończyć katastrofą – podsumowuje dr Grzegorz Płoszajski.
Sam razem z pracownikami Instytutu Automatyki i Informatyki Stosowanej Politechniki Warszawskiej jest zaangażowany w projekt dotyczący długotrwałego archiwizowania danych cyfrowych. Celem projektu CREDO jest zaprojektowanie Cyfrowego Repozytorium Dokumentów, które zapewni wysoki poziom bezpieczeństwa przechowywanej informacji i pewność jej odczytu w przyszłości.
Z kolei Politechnika Wrocławska prowadzi autorski projekt „Repozytorium wiedzy”, coś na wzór biblioteki elektronicznej, gdzie jest gromadzony dorobek naukowy jej pracowników, doktorantów i studentów.
– Część tych danych jest kopiowana w wersji cyfrowej i papierowej. Ale to dzięki cyfryzacji można zachować np. prace inżynierskie czy wyniki prac naukowych, których nie da się skopiować na papier – grafiki, modele 3D czy dźwięki. Ważne dokumenty w ramach nowoczesnej Biblioteki Cyfrowej i Repozytorium Wiedzy są przechowywane w wielu miejscach w kraju, gdzie zapisywane są na taśmach magnetycznych o długiej trwałości. Dotyczy się to też systemu POL-on – zintegrowanego systemu informacji o szkolnictwie wyższym – wyjaśnia dr inż. Damian Derlukiewicz, zastępca dyrektora Centrum Wiedzy i Informacji Naukowo-Technicznej Politechniki Wrocławskiej.
Dostrzega niebezpieczeństwa związane z nietrwałością cyfrowych zapisów, lecz zwraca uwagę, że akurat w Polsce, wciąż borykającej się z zacofaniem cyfrowym, paradoksalnie nie jest z tym tak źle.
– Wszystko, co raportujemy, jest przygotowywane w dwóch wersjach, cyfrowej i papierowej, np. wszystkie dokumenty przekazywane do Ministerstwa Nauki. U nas wciąż ważny jest papier. To się już zmienia, lecz znacznie wolniej niż postęp technologiczny. Tymczasem na Zachodzie obieg cyfrowy jest zdumiewający. Dla tak zdigitalizowanych gospodarek wojna elektroniczna będzie jednak dużo gorsza niż tradycyjna – podsumowuje dr Damian Derlukiewicz.
Obrazy się zacierają
Na straży narodowego dziedzictwa kultury stoi wiele instytucji, których zadaniem jest zachowanie pamięci o naszych czasach. Np. zbiory taśm filmowych i archiwaliów Filmoteki Narodowej w Warszawie należą do jednych z największych w Europie.
– Postaci cyfrowej naszych zbiorów wymagają m.in. potrzeby rynkowe. To dziś najtańszy i najszybszy sposób na upowszechnianie kultury. Jednak w przypadku archiwizowania digitalizacja nieustanie generuje koszty, wymaga ciągłych migracji na nowsze nośniki. Dlatego równolegle z zapisem cyfrowym archiwizujemy nasze zbiory także tradycyjnie, analogowo. Używamy nowoczesnych światłoczułych taśm poliestrowych, 35 mm. Crash testy, podobne jak przy projektowaniu samochodów, wykazały, że taśmy te charakteryzują się znakomitymi właściwościami, jeśli chodzi o żywotność i odporność na uszkodzenia – opisuje dyrektor Filmoteki Narodowej prof. Tadeusz Kowalski.
Miesiąc temu – dodaje – podczas branżowego spotkania w Oslo japońscy naukowcy zaprezentowali najnowsze poliestrowe taśmy, które według ich badań powinny wytrzymać 1500 lat.
– Niech to będzie nawet tylko 300 lat. To i tak wieczność w porównaniu z zapisem cyfrowym, który jest bardzo nietrwały. Dlatego uważam, że każdy producent filmowy, nawet w przypadku produkcji born digital, czyli zrealizowanej od początku w wersji cyfrowej, powinien tworzyć również analogową, na taśmie, wersję swojego obrazu, a następnie przekazać taką kopię do archiwum Filmoteki Narodowej, zgodnie z obowiązkiem przekazania kopii obowiązkowej, który dotyczy każdego wyprodukowanego filmu, w tym filmu, który nie otrzymał publicznego dofinansowania. Przy wydatkach na produkcję filmu w wysokości 4–5 mln zł utworzenie kopii analogowej, której koszt wynosi poniżej 100 tys. zł, nie jest to szczególnie duże obciążenie – wylicza prof. Tadeusz Kowalski.
Dodaje, że jego instytucja niedawno ukończyła właśnie taką analogową rekonstrukcję „Potopu” w reżyserii Jerzego Hoffmana, najdroższej produkcji filmowej w historii polskiej kinematografii.
– Jestem z pokolenia dyskietek 5 i 1/4 cala. Dla dzisiejszych studentów nośniki pamięci zaczynają się od płyt CD, a to się wciąż błyskawicznie zmienia, pojawiają się nowe urządzenia, stare znikają. Zauważmy, że skoro ludzie wciąż chętnie chodzą do tradycyjnego kina, na nowo odkryli rowery, na pokazach starych filmów w Iluzjonie – kinie Filmoteki Narodowej – są nadkomplety widzów. Warto ich namawiać do poważnego, przyszłościowego myślenia o fizycznym – analogowym zachowywaniu pamiątek z ich życia. Pochodzące z początku XX wieku filmy utrwalone na taśmach 35 mm działają do dziś. W świecie cyfrowym jest dużo doraźności, która przejawia się w różnorodnych wymiarach, np. książkę drukowaną czytamy dużo uważniej niż tekst na ekranie komputera. Dlatego nie powinniśmy zapomnieć o analogu – przestrzega dyrektor Filmoteki Narodowej.
Ciekawy projekt szykuje od 29 maja 2015 r. Narodowy Instytut Audiowizualny (NINA), którego celem jest gromadzenie, archiwizowanie i udostępnianie polskiego dziedzictwa kulturowego. Od tego dnia dzięki wsparciu unijnych środków każdy z nas będzie mógł przynieść do instytutu stare taśmy czy kasety VHS z prywatnymi nagraniami i zdjęciami z rodzinnych uroczystości, komunii, studniówek, urodzin czy wycieczek i przegrać je na koszt państwa na najnowsze cyfrowe nośniki. Warunkiem będzie zgoda na umieszczenie tych materiałów w zasobach instytutu z prawem do ich udostępniania każdemu chętnemu na miejscu.
– Liczymy, że dzięki tej akcji wzbogaci się nasza wiedza, jak wyglądało codzienne życie w minionym wieku. To będzie cenna dokumentacja dla badaczy czy historyków – zaznacza wicedyrektor instytutu Monika Bończa-Tomaszewska.
Sieć w archiwum
Prawdziwym wyzwaniem jest jednak zachowanie treści internetu. Na świecie istnieje kilka zakrojonych na szeroką skalę projektów, których celem jest udokumentowanie dla przyszłych pokoleń tego, co stworzyli w wirtualnej przestrzeni internauci. Np. utworzona w San Francisco pozarządowa organizacja non profit Internet Archive gromadzi od 1996 r. miliardy stron i multimediów w ogólnodostępnej cyfrowej bibliotece WayBack Machine. Narodowa Biblioteka Wielkiej Brytanii rozpoczęła archiwizację danych z brytyjskiej sieci w 2013 r. – kopiuje blogi, newslettery, posty na serwisach społecznościowych. Biblioteka Kongresu USA zapisuje zbiory cyfrowe born digital, ale czyni to wybiórczo. Gromadzone zasoby są jednak już teraz tak duże, że w praktyce korzystanie z nich staje się niemożliwe.
„W kwietniu 2010 r. Biblioteka Kongresu ogłosiła rozpoczęcie prac nad archiwizacją zasobów Twittera. W ciągu jednego dnia na Twitterze publikowanych jest około 140 mln wiadomości – to pokazuje skalę problemu, jaki stoi przed archiwistami i badaczami, chcącymi wykorzystać zasoby Twittera w analizach. Pomimo około 400 zgłoszeń od badaczy, do dziś Biblioteka Kongresu nie pozwala na eksplorację bazy 170 mld tweetów z lat 2006–2010. Samo przeszukanie archiwum za pomocą tylko jednego słowa kluczowego zajmuje 24 godziny (...). Problemy z wykorzystaniem naukowym korpusu wiadomości z Twittera mają nie tylko charakter techniczny. Mamy tu bowiem do czynienia z sytuacją, w której prywatna firma staje się dyspozytariuszem jedynego w swoim rodzaju zasobu o dużym znaczeniu społecznym i może dowolnie kreować politykę jego udostępniania do celów naukowych” – zauważa Marcin Wilkowski w swoim opracowaniu „Wprowadzenie do historii cyfrowej”, wydanym przez Instytut Kultury Miejskiej w Gdańsku.
Archiwiści borykają się także z niedopasowanym do realiów prawem autorskim. Twórcy dużej części materiałów udostępnianych w internecie są nieznani lub kontakt z nimi jest utrudniony. A bez ich zgody archiwizowanie takich plików, nie mówiąc o dalszym udostępnianiu, jest nielegalne. Tymczasem twórczość ta szybko się gubi w zakamarkach sieci.
– Utwory osierocone to realny problem dotyczący zresztą nie tylko świata cyfrowego. Np. do Muzeum Powstania Warszawskiego przyszedł człowiek i przekazał puszkę z taśmą filmową. Nie pozostawił do siebie kontaktu ani nie ujawnił, kto jest autorem tych filmów. A były to nieznane dotąd nagrania z powstania. Muzeum to zdigitalizowało, lecz nie może tego udostępnić, bo nie ma do tego praw – podkreśla wiceszefowa Instytutu Audiowizualnego Monika Bończa-Tomaszewska.
Rzeźnia pamięci
Eksperci są w zasadzie zgodni – grozi nam utrata części naszego dziedzictwa kultury i nauki.
„Jesteśmy częścią generacji delete. W każdej sekundzie każdej minuty każdego dnia ludzie na całym świecie wymazują własną historię, swoje myśli i opinie, które w dzisiejszych czasach są zawsze prezentowane w środowisku cyfrowym. Nasza wiedza na temat znaczenia tego rodzaju strat nie jest jeszcze dojrzała. Cała generacja może przeminąć, zanim uświadomimy sobie, co to oznacza dla komunikacji wiedzy i idei. Czy rozumiemy, co tracimy, i czy jest to dla nas ważne?” – cytuje pytania prof. Penny Carnaby z Victoria University of Wellington Marcin Wilkowski.
– Zgoda, to problem, tylko że to nie jest sytuacja nowa. Nowe jest raczej poczucie, że tym razem ten problem nas nie dotyczy. Weźmy choćby dostęp do literatury – do naszych czasów przetrwały tylko nieliczne dzieła z przeszłości – zauważa prof. Mirosław Filiciak z Instytutu Kulturoznawstwa Szkoły Wyższej Psychologii Społecznej w Warszawie. Naukowiec przypomina w tym kontekście książkę włoskiego literaturoznawcy prof. Franco Morettiego „Rzeźnia literatury”, który – nawiązując do heglowskiej wizji historii świata jako rzeźni – napisał o XIX-wiecznych powieściach detektywistycznych, o których świat zapomniał, bo nie weszły do kanonu literatury.
– Dziedzictwo kultury przetrwa, o to jestem spokojny. Wierzę, że zadbają o to przeróżne organizacje ze swoimi archiwami, filmotekami czy bibliotekami. Pytanie brzmi, jaka to będzie kultura. Kiedyś skład kanonów nie budził takich wątpliwości, dziś zarówno społeczeństwo, jak i kultura są poszatkowane. Żyjemy w świecie z milionami nisz, każdy z nas nawiguje wśród różnych grup. To zaburzenie hierarchii dla wielu osób jest wyzwoleniem, ale równocześnie zaburza społeczną spójność, także na poziomie takich zbiorowości jak naród – mówi kulturoznawca z SWPS.
Z drugiej strony – kontynuuje naukowiec – digitalizacja to szansa na upowszechnianie w skali dotąd niespotykanej. – W zasadzie dowolne dzieło, które uznawane jest za ważne dla polskiej historii, więcej osób ogląda w internecie niż w muzeum – kończy prof. Mirosław Filiciak.
O tym, czy znikniemy z pamięci, zdecyduje historia. Nie wiemy, czy będzie cyfrowa, czy analogowa, wiemy jedynie, jak wygląda świat dziś. A wygląda tak: Salman Rushdie, autor słynnych „Szatańskich wersetów”, przekazał niedawno swoje osobiste archiwum bibliotece Uniwersytetu Emory w Atlancie. Były tam – prócz dokumentów papierowych – komputer, trzy laptopy, twardy dysk i smartfon.