bannerDigitalHumanities1 640 87

Blog archiwistów i bibliotekarzy Instytutu Piłsudskiego

Na gorące dni lżejszy temat. Chociaż może niekoniecznie lżejszy, a na pewno gorący. W ostatnim okresie dostawałem całą serię emaili od znajomych, wszystkich z kontami w yahoo. Emaile wygladały dość podobnie - “hej, zobacz co ciekawego znalazłem” i link do strony internetowej. Jeśli tekst jest po angielsku, a Twój korespondent używa polskiego, łatwo jest od razu być podejrzliwym, ale nie zawsze tak jest. Link prowadzić może do strony, która zainfekuje Twój komputer, może nawet próbowac ukraść hasła, które używasz. To zjawisko ma juz swoja nazwę (Spear Phishing - łowienie z ostrym narzędziem?).

Mam też znajomych którzy popadają w drugie ekstremum i unikają jakiejkolwiek obecności w sieci - nie zapisują sie do społeczności, nie odpowiadają na emaile (albo nawet nie używają komputera, co jest już ekstremizmem konserwatywności). Ludzie Ci wylewają dziecko z kąpielą, gdyż obecność w sieci ma swoje autentyczne zalety, co jest widoczne szczególne mocno wtedy kiedy jak my jesteśmy daleko od bliskich sobie ludzi (lub na odwrót, to bliscy czy rodzina wyjechali daleko).

Zdarza mi się też od czasu do czasu zajmować się czyimś komputerem lub laptopem całkowicie opanowanym przez wirusy. Zwykle wygląda to tak, że komputer chodzi bardzo wolno, a jakakolwiek próba połaczenia ze stroną internetową powoduje przekierowanie na inną stronę (prawdopodobnie jeszcze bardziej zawirusioną). W takim przypadku najlepszym rozwiązaniem jest skopiowanie cennych materiałów (a następnie przepuszczenie plików przez dobry program antywirusowy) i kompletne sformatowanie twardego dysku.

Zdarza się też dość często, że poczta jest odrzucona przez serwer odbiorcy (ze słabą wymówką). Ten problem jest o tyle skomplikowany, że widzi go tylko nadawca (odbiorca zwykle odpowiada “przecież do mnie poczta zawsze dochodzi”...) a naprawić go może tylko odbiorca. 

Jak z tym wszystkim sobie poradzić? Nie ma w tym żadnej wielkiej magii, wystarczy zdrowy rozsądek. Poniżej kilka uwag z własnego doświadczenia:

david David by Michelangelo; dithered by User:Gerbrant using own software (cropped from Image:Dithering algorithms.png) [Public domain], via Wikimedia Commons

Niezbyt dawno, w czasie rozmowy z archiwistą z Londynu, mieliśmy okazje sprzeczać się na temat dpi plików cyfrowych. Wydawało mi się wtedy, że to zwykłe nieporozumienie, aż do chwili, kiedy inny archiwista z dużej instytucji w Polsce zaczął przekonywać mnie, że filmy 35 mm (negatywy) skanuje się z rozdzielczością 600 dpi. Ponieważ dałoby to skan podobny do rastrowych zdjęć w starych gazetach (używano tam procesu zwanego dithering) - patrz obraz po prawej,  byłem nieco zaskoczony. Dało to impuls do napisania tego blogu o dość powszechnej, jak widać,  mitologii dpi.  O skanie tego negatywu będzie nieco dalej, na początek wstęp o rozdzielczości.

Rozdzielczość

Rozdzielczość optyczna jest pojęciem o ustalonej reputacji pochodzącym z optyki, i w ogólności definiuje, dla danego systemu optycznego, jak daleko muszą być odległe od siebie dwa obiekty (np. dwie równoległe linie), aby dało się je odróżnić - jeśli są za blisko, zmyją się w jeden.  Rozdzielczość obiektywów zależy od jakości soczewek i od średnicy soczewki, rozdzielczość błony filmowej od wielkości ziarna itp. Rozdzielczość optyczną wyraża się często w liniach na centymetr. Przy digitalizacji rozdzielczość optyczna jest podstawym parametrem, gdyż określa, jak drobne szczegóły oryginału będą wiernie oddane w zapisie cyfrowym.

Rozpowszechnienie technik cyfrowych wprowadziło inną miarę, nazywaną też rozdzielczością, a określającą liczbę pikseli na które podzielony jest oryginalny obraz, w stosunku do jego fizycznego wymiaru, w czasie konwersji na plik cyfrowy. Dla odróżnienia od rozdzielczości optycznej nazywamy tę miarę Rozdzielczością pikselową (RP), i wyrażamy ją zwyczajowo w pikselach na cal, w skrócie DPI (litera D pochodzi od kropki, ‘dot’). Jeśli więc skanujemy obraz który ma szerokość 2 cali, i dzielimy ten wymiar na 600 elementów, zapisując jasność (kolor) w każdym, to otrzymujemy skan z RP = 300 dpi. Możemy zrobić tak samo w drugim wymiarze (wysokości) i jeśli użyjemy tej samej gęstości, co jest powszechne, to wysokość 3 cali podzielimy na 900 elementów, a piksele będą kwadratowe.

Jak się ma RP do rozdzielczości (optycznej) zależy wyłącznie od wielkości szczegółów na oryginale, które chcemy zachować. Dla ilustracji weźmy arkusz gazety, z notatką napisaną nonparelem. Font ten o wielkości 6 p. ma ok 2 mm  (0.08 cala) wysokości. Ile pikseli potrzeba aby móc ten tekst odczytać? Z ilustracji poniżej widać, że przy 20 pikselach daje się już literę z pewnym wysiłkiem odcyfrować, ale 50 pikseli pokaże ją lepiej. Daje to 250 dpi (= 20 / 0.08) minimum, 625 dpi (= 50 / 0.08) optymalnie.Resolution_illustration530

Ilustracja rozdzielczości (z Wikipedii).

RP jest prostym stosunkiem liczby pikseli N w jednym wymiarze do długości oryginału L. Długość wyrażamy tradycyjnie w calach, choć można łatwo przeliczyć na centymetry.

RP = N / L

Z powyższego wynika również wprost, że w odłączeniu od oryginału, plik cyfrowy obrazu nie posiada RP. Jest to szczególnie jasno widoczne dla zdjęć cyfrowych. Zdjęcie odzwierciedla świat trójwymiarowy na dwuwymiarowym czujniku optycznym, i choć znamy liczbę pikseli (reklamowaną w aparatach jako megapiksele), to nie istnieje szerokość czy wysokość oryginalnego obrazu, gdyż brak tego obrazu. Podobnie jest z każdym innym obrazem cyfrowym - RP odnosi się wyłącznie do procesu konwersji, jeśli skanowaliśmy płaski obiekt, nie do końcowego, przetworzonego obrazu.

Rastrowa grafika cyfrowa (np. zdjęcie w pliku tiff, jpg czy png), charakteryzuje się tylko wymiarami podanymi w pikselach. Plik może mieć 100 x 100 pikseli (kwadratowy) albo 3000 x 2000 pikseli (w proporcji 3:2). Rozmiar na dysku jest proporcjonalny do iloczynu tych dwóch wymiarów jeśli nie uległ kompresji (kompresja może zmniejszyć rozmiar wielokrotnie). Rozdzielczość obrazu albo optyczna zależy tylko od tego, jak drobne szczegóły są w tym obrazie zawarte, albo ile pikseli jest użyte dla zobrazowania najmniejszego szczegółu. Nieostre zdjęcie o wymiarze 3000 pikseli może mieć mniejszą rozdzielczość niż identyczne ale ostre zdjęcie o wymiarze 1000 pikseli.

Jakby w zaprzeczeniu stwierdzenia, że plik cyfrowy nie ma dpi, programy do obróbki obrazów rastrowych, takie jak photoshop, i zapisy w danych plików graficznych (np. EXIF) używają RP do charakteryzacji pliku. Dlaczego tak jest, dowiemy się w drugiej części, o magii 72.

Magia 72

W dobie druku na papierze istniała potrzeba ustalenia standardowych rozmiarów czcionek tak, aby drukarz mógł wybrać z kaszty zecerskiej odpowiedni rozmiar. W roku 1737 Perre Simon Fournier wprowadził standard, oparty na stopie francuskiej, wkrótce (w 1775) zamieniony przez François-Ambroise Didota na stopę paryską. System Pica, używany w USA oparty jest na stopie typograficznej (różnej od stopy anglosaskiej), gdzie jedna pica to 1/72 stopy (a w nowszym systemie Postscript 1 punkt to 1/72 cala). Pierwsze monitory komputerowe miały rozdzielczość 72 kropek na cal (dpi). Pozwalało to na wyświetlenie czcionek o wielkości 10 punktów lub większych, choć nawet przy 10 p. rozdzielczość, szczególnie małych liter, była słaba.

Manipulacja definicjami pochodzi już z tego okresu. Aby poprawić czytelność liter, Microsoft założył, ze rozdzielczość ekranu jest 96 dpi (bez zmiany rzeczywistej rozdzielczości ekranów) co pozwoliło na zwiększenie rozmiaru czcionek o ⅓. Od tej pory te same ekrany używane w PC były traktowane jako ekrany 96 dpi, a w Apple jako ekrany 72 dpi.

Ten trend naginania definicji pozostał do dziś w określaniu RP w plikach cyfrowych. Zdjęcie, które robię kamerą (Canon) o wielkości sensora 10 megapikseli ma wymiary 3888 na 2592 pikseli i zajmuje 28.8 MB pamięci a na dysku, a po kompresji ok 3.8 MB. Ale w danych EXIF zapisanych przez kamerę, jest również RP. Jaka ona jest? Można się już domyśleć, że jest to zupełnie fikcyjna wartość RP = 72 dpi. Po prostu wszystkie kamery propagują tę fikcję ustalając ten parametr na tradycyjnej magicznej wartości 72. Z równania RP = N / L można oczywiście obliczyć wymiar, i dla dłuższego boku tego obrazu otrzymujemy 1372 mm (o 15% większy od papieru format A0). Ponieważ równanie ma 3 zmienne, więc każde dwie wystarczą, aby obliczyć trzecią. np. N i L, albo RP i N, albo RP i L.

Jaki jest powód propagowania tej fikcji? Nie jest to jasne, ale podejrzewam, że przyzwyczajenia wymierają bardzo powoli, i tak, jak w Polsce używamy systemu Didota z 1775 opartego o stopę paryską, tak ludziom pracującym w grafice trudno się rozstać z mitem dpi.

Jaka jest więc odpowiedź na zagadkę z początku artykułu? Koledzy z dużej Instytucji w Polsce skanują używając fikcyjnej RP w wielkości 600 dpi, ustawiając jednocześnie “docelowy” fikcyjny rozmiar na 150 mm. Program posłusznie i po cichu przelicza, używając rozmiaru klatki negatywu (35 mm), że rozdzielczość powinna być 150/35 = 4.3 raza większa, i skanuje z RP = 2571 dpi. Ponieważ jest to rozdzielczość w granicach możliwości skanera, więc skaner nie musi robić interpolacji, i wynik jest bliski pożądanemu. Przypomina to trochę pytanie, z jaką szybkością jadę samochodem z Łodzi do Warszawy. Mój samochód jedzie z szybkością 5 milimetrów na godzinę i dojeżdża do Warszawy w 3 godziny. Jest to oczywiście możliwe, jeśli fikcyjna prędkość 5 mm/godz jest obliczana używając odległości z mapy Polski w skali 1 do miliona.

Skala ekranu

Być może RP ma jakiś sens przy określaniu, jak są one pokazywane na ekranie - w końcu ekran ma swoje fizyczne wymiary?  Ekrany produkowane dziś maja jednak różne wielkości i różną rozdzielczość. Szerokie ekrany komputerowe maja RP w granicach 95 - 110 dpi. Mniejsze ekrany tabletów - 220 do 260 dpi, nowe telefony komórkowe ponad 300 dpi. Rozdzielczość jest zwykle dopasowana do typowej odległości, z której się ogląda obraz. Co więcej, wszystkie obrazy są teraz skalowane przez oprogramowane tak, aby zmieściły się w jakimś prostokącie używanym do ich wyświetlania. Co więcej, po obróceniu obrazu o 90 stopni, zmienia się jego skala a więc ‘pozorne dpi’. Tak więc nawet i w tym przypadku powinniśmy się pożegnać z mitem dpi.

Podsumowanie

Obrazy w postaci cyfrowej należy charakteryzować wymiarem w pikselach (zwykle używa się dłyższego z dwóch wymiarów, albo wymiaru w poziomie). Typowe wymiary to 320 pikseli (nadaje sie do emailu), 640, 800 (rozmiary dawnych monitorów), 1200, 1600 itp. pikseli. Oryginalne zdjęcia robione aparatem cyfrowym mają 4000 pikseli lub więcej.

  • Rozdzielczość to możliwość rozróżnienia szczegółów w obrazie na który patrzymy. Rozdzielczość optyczna może być wyrażona w liczbie linii na centymetr.
  • Przy wykonywaniu skanu (lub fotografii cyfrowej) płaskiego obiektu, używamy parametru który określa, na ile pikseli podzieliliśmy dana długość (osobno w dwóch wymiarach). Parametr ten nazywa się rozdzielczością w pikselach (RP) i wyrażany jest w pikselach na cal, w skrócie dpi.
  • Formuła która określa RP to RP = N / L, gdzie N to liczba pikseli obrazu cyfrowego a L to wymiar oryginalnego obiektu.
  • Plik cyfrowy charakteryzuje się (m.in) wymiarami w pikselach w dwóch wymiarach, ale nie posiada RP ani L.
  • Opierając się na rozmiarze w pikselach N, można plikowi przypisać dowolną kombinację rozdzielczości pikselowej RP i wymiaru L, takich, że N = RP * L. Te pary N i L mogą być wybrane w sposób arbitralny.
  • Obrazy są zawsze skalowane na ekranie (komputera, tableta, telefonu itp.).
  • Przy używaniu oprogramowania graficznego należy zwracać szczególną uwagę na parametry RP, L i N, gdyż zmiana jednego z nich może prowadzić do niespodziewanych wyników, w zależności o tego, który z pozostałych program traktuje jako stałą.

Czytaj więcej

Marek Zieliński, 15 czerwca 2013

Może Cię też zainteresować:

{plusone}

Zegar katedry Satiago de Compostela

Zegar w katerdrze Santiago de Compostela. By Luis Miguel Bugallo Sánchez (Lmbuga Commons) [CC-BY-SA-2.5-es], via Wikimedia Commons

Nic tak dobrze nie ilustruje trudności, jakie napotyka tłumaczenie języka ludzkiego na język komputerowy, jak zapis jednostek czasu. Kalendarz którym się posługujemy pochodzi z roku 46 BC (wprowadzony przez Juliusza Cezara) z późniejszymi poprawkami z roku z 1582 (papieża Grzegorza VIII). Jest to najpopularniejszy, ale nie jedyny kalendarz, są inne w szerokim zastosowaniu jak Hijri, Hindu, kalendarz chiński czy hebrajski. W kalendarzu gregoriańskim podajemy dzień, miesiąc i rok, i wydaje nam się, że komputery powinny te ‘proste dane’ zawsze zrozumieć. Niestety, prostota ta jest bardzo pozorna.

Pierwszym problemem jest zapis daty. Po polsku zapisujemy 2 VI 1945 albo 11 września 1950 albo 3.4.23. Po angielsku zapisujemy 3/4/23 co może znaczyć 3 kwietnia 1923 roku albo 4 marca 2023 roku, zależnie od kraju i domyślnego wieku. Do niedawna komputer nie umiał zrobić nawet tak prostej konwersji, dziś próbuje odgadnąć język, którym się posługujemy, i czasem udaje się zgadnąć (a czasem nie) właściwą datę z zapisu.

Drugim problemem jest zapis czasu. W USA doba jest podzielona na godziny ‘ranne’ oznaczane AM i ‘popołudniowe’ - PM. Ale nikt nie chce się umawiać w poniedziałek o 12 AM ani we wtorek o 12 PM, gdyż te zapisy nie są jednoznaczne[1]. Zegar 24 godzinny usuwa przynajmniej tę niejednoznaczność (godzina 24:00 w poniedziałek  i 0:00 we wtorek to ten sam moment w czasie, ale należący do innego dnia).

Kolejny problem to zapis z okresloną dokładnością. Ktokolwiek pracował z arkuszem rozliczeniowym, nawet tym najnowszym, wie, że można zapisać dzień (bez określenia czasu) albo czas co do minuty. Możemy więc zapisać wydarzenie które ma miejsce danego dnia, albo w danej minucie, ale nie można zapisać roku (bez określenia miesiąca), roku i miesiąca (bez określenia tygodnia), roku, miesiąca i tygodnia (bez określenia dnia), ani też tylko godziny, godziny i minuty, itp. (inaczej niż przez opisanie tego słownie, co całkowicie zbija z tropu komputer).... i tak dalej.

Przy opisie jakiegoś zasobu - książki, kolekcji medali, dokumentu, obrazu - mamy w zasadzie dwie możliwości. Dokonać opisu w postaci narracji (zwykle sięgamy do tego, co jest pod ręką, czyli w dobie komputerów po procesor tekstu). Albo dokonać opisu w postaci struktury - na przykład w tabeli arkusza rozliczeniowego. Opis w postaci narracji pozwala na pełna ekspresję intencji badacza, i jednocześnie prawie uniemożliwia dalsza automatyczną przeróbkę danych. W  Instytucie Piłsudskiego mamy doskonale zrobiony przez doświadczonego fachowca opis kolekcji falerystycznej, który ma postac narracji. Poszczególne elementy opisu (nazwa odznaki, jej twórca, miejsce stworzenia, daty itp.) są graficznie uwydatnione- np przez użycie czcionki wytłuszczonej, kursywy, przez oddzielanie elementów przecinkami, średnikami itp. Jednocześnie, jeśli jakiejś informacji brak, po przecinku znajdzie się już inny element opisu. Setki stron takiego tekstu wymagają wielu dni a nawet tygodni pracy aby zrobić prostą tabelkę którą można wyświetlić na stronie internetowej, gdyż zautomatyzowanie konwersji jest prawie niemożliwe.

Nawet prosta tabela w arkuszu rozliczeniowym daje strukturę - tytuł bedzie zawsze np. w kolumnie trzciej a data w siódmej itp. Jeśli więc użyliśmy jakiejś struktury, i nie mieszalismy np. miejsca z datą, mamy podstawy do użycia danych w różny sposób, taki, jakiego w danym momencie potrzebuje projektant wystawy, witryny internetowej czy inwentarza. Przy użyciu standardów metadanych najważniejszą decyzją jest użycie struktury adekwatnej do opisywanego zasobu. Przetłumaczenie tej struktury na taki czy inny standard metadanych jest wtedy zajęciem trywialnym. Mówiąc trywialnym mam na myśli to, że da się zautomatyzować - kiedy raz stworzymy algorytm konwersji, przeróbka 100 czy 100 tysięcy rekordów to tylko sprawa zapuszczenia komputera na sekundy albo godziny pracy.

 

Archiwa osobiste nie sa niczym nowym. U mojej babci lezały na stoliku dwa piękne albumy, jeden z drewnianą okładką z płaskorzeźbą górala na tle Tatr. Albumy zawierały zdjęcia z młodości moich dziadków i pradziadków, z początków 20 wieku, w domu, w górach, na Powszechnej Wystawie Krajowej w Poznaniu (1929). Takie albumy były często zabierane jako jedyny dobytek, kiedy wojna zmuszała rodziny do opuszczenia domu i wędrówki w nieznane.

Dziś, kiedy nowe pokolenie żyje dniem dzisiejszym Internetu w Facebooku, Flickr-rze, Pintereście czy w Naszej Klasie, warto przypomnieć o tej tradycji. Archiwa instytucjonalne zajmuja się tylko ‘ważnymi’ sprawami lub osobami, ale w każym prawie domu są materiały które potencjalnie mogą kiedyś stać się ważne dla badacza historii. Albo nawet bezcenne.

Jak przenieśc tradycję robienia albumów, zbierania listów czy innych dokumentów w sferę elektroniczną? Zapisy sprzed 15 lat na dyskietkach są już często nie do odczytania, jeśli nawet potrafimy odcyfrować tekst w egzotycznym formacie z ubiegłego wieku. Trzeba się do tego zabrać inaczej, używając nowych narzędzi i tworząc nowa tradycję.

Od czego zacząć? Dobrym wstępem jest wideo (po angielsku) o cyfrowej konserwacji przygotowany przez Biliotekę Kongresu USA (LC):

NetgearW miarę wzrostu wykorzystania cyfowego zapisu informacji, archiwa zaczynaja przywiązywać coraz większą wagę do mediów w postaci elektronicznej. Dotyczy to zarówno archiwów klasycznych które digitalizują swoje zasoby, jak i instytucji ktore archiwizuja dokumenty i zapisy powstałe w ostatnich dekadach, które sa w coraz większym stopniu cyfrowe od początku ich powstania (‘born digital’).

Zapis cyfrowy wymaga zupełnie innego podejścia do problemu zachowania i zabezpieczenia zasobów archiwalnych. W jednym z poprzednich blogów rozważaliśmy oprogramowanie do inwentaryzacji zasobów, tutaj chciałbym przedyskutować problem pojemności pamięci cyfrowej, potrzebnej do przechowywania zasobów.

Zapis informacji w postaci cyfrowej poprzedza oczywiście powstanie komputerów. Karty dziurkowane były uzywane od poczatku 19 wieku - w krosnach (Joseph Jacquard), w przetwarzaniu informacji (Siemion Korsakow), w opracowywaniu danych spisu powszechnego (Herman Hollerith). Jeszcze niedawno maszyny cyfrowe Odra używaly (za IBM) kart dziurkowanych do zapisu programów i danych. Wkrótce zostały one zastąpione papierową taśmą perforowaną, ale prawdziwe przyspieszenie spowodowało dopiero użycie zapisu magnetycznego. Rewolucja komputerowa to pamięc dyskowa: najpierw mainframe, potem stacje robocze, komputery osobiste, laptopy - to wszystko istniało dzieki możliwości zapisu informacji na dyskach twardych i przenośnych dyskietkach. Dysk twardy ma chyba najdłuższa historię rozwoju technologicznego, i jest do dziś podstawowym medium zapisu danych w Internecie oraz w większości komputerów stacjonarych i laptopów.

Dziś w południe swoje elektroniczne podwoje otwiera Publiczna Biblioteka Cyfrowa Ameryki (Digital Public Library of America). Po dwój latach przygotowań biblioteka startuje z 2 milionami zdigitalizowanych obiektów - ksiażek, obrazów, zdjęć, manuskryptów itp. dostępnych publicznie dla wszystkich bez żadnych ograniczeń. Twórcy traktują ten zasób tylko jako początek rosnącej biblioteki, która ma w planie udostępnianie dziedzictwa kulturowego świata.

Jak zawsze, obecne reguły prawa autorskiego ograniczają zakres dostępności do dzieł powstałych przed rokiem 1923. Celem intensywnych prac Biblioteki są takie zmiany w istniejącym prawie, ktore umożliwiłyby dostęp online do zasobów w okresie czasowym typowym dla innych chronionych zasobów intelektualnych (jak np. patenty), tj. w okresie 10 do 15 lat.

Marek Zieliński, 18 kwietnia 2013

Może Cię też zainteresować:

PARTNERZY
mkidn
bn
senat
ndap
msz
dn
psfcu
nyc