hathitrust-28010 czerwca 2014 r. Sąd Apelacyjny Drugiego Okręgu (południowy Nowy Jork) wydał wyrok, przychylając się do argumentów HathiTrust i odrzucając apel kilku organizacji autorskich, w tym m.in. amerykańskego Authors Guild i szwedzkiego Sveriges Författarförbund. W podsumowaniu wyroku czytamy:

“...utrzymujemy, że doktryna “dozwolonego użytku” pozwala pozwanym na stworzenie bazy danych umożliwiającej przeszukiwanie pełnotekstowe dzieł objętych prawami autorskimi i na dostarczenie tych dzieł w formatach dostępnych dla osób niepełnosprawnych.”

Dlaczego ten wyrok ma duże znaczenie dla archiwów i bibliotek? W prawodawstwie USA, w odróżnieniu np. od polskiego, doktryna “dozwolonego użytku” jest zdefiniowana w prawie autorskim w postaci dość ogólnych reguł. Powoduje to, że konkretne przypadki są decydowane przez sądy, ale także pozwala na uwzględnienie nowych rozwiązań technicznych.

W 2004 kilka uniwersytetów w USA zgodziło się, aby Google zeskanowało ich kolekcje książek. W 2008 trzynaście uniwersytetów ufundowało organizację o nazwie HathiTrust w celu zarządzania powstającą w ten sposób wspólną biblioteką cyfrową. Obecnie HathiTrust ma 80 członków instytucjonalnych i ponad 10 milionów zdigitalizowanych dzieł, opublikowanych poprzez wieki, w wielu językach i obejmujących wszystkie wyobrażalne tematy. HathiTrust, wraz Internet Archive, Project Gutenberg i innymi projektami digitalizacji jest organizacją partnerską dającą szeroki dostęp do dóbr kultury człowieka.

Wyrok Sądu apelacyjnego jednoznacznie odrzuca teorię, według której digitalizacja książek w celu stworzenia bazy danych jest naruszeniem praw autorskich, przynajmniej w USA. Jakkolwiek droga apelacji nie została jeszcze wyczerpana, wyrok ten ma bardzo duże znaczenie dla wszystkich, którzy digitalizują zbiory kultury. Jest przed nami jeszcze daleka droga do rozsądnego ulepszenia praw autorskich - patrz np. blog o tygodniu praw autorskich, ale ten wyrok jest krzepiącym precedensem.

Czytaj więcej

Marek Zieliński, 15 czerwca 2014

Może Cię też zainteresować

Rola wikipedii w cztereach typach bibliotekPanel "Rola wikipedii w cztereach typach bibliotek". Wiki-konferencja USA 2014. Foto Piotr Puchalski

W dniach 30 maja do 1 czerwca 2014 odbyła się w w New York Law School na Manhattanie konferencja “Wikiconference USA 2014”. Konferencja zgromadziła wikipedystów z USA, którzy przedstawiali i dyskutowali gorące obecnie tematy dotyczące Wikipedii a także jej siostrzanych organizacji skupionych w Wikimedia Foundation. Oprócz problemów technicznych, szkoleń i dnia poświęconego nieformalnemu spotkaniu  (“Unconference”), wiele sesji poświęconych było tematom, które bliskie są instytucjom GLAM i organizacjom edukacyjnym, takim jak wykorzystanie Wikipedii w kursach akademickich, prawa autorskie, wikiprojekty i inne formy współpracy. Poniżej kilka refleksji z sesji w którch braliśmy udział, dzieląc się uczestnictwem w równoległych sesjach.

Dzień pierwszy konferencji zaowocował wieloma pomysłami na rozwój projektu GLAM Instytutu Piłsudskiego. Podczas sesji, na której cztery różne instytucje przedstawiały swój sposób na wykorzystanie Wikipedii, Natalie Milbrodt z Queens Library podzieliła się innowacyjnym pomysłem na "Edytaton". "Edytaton" to zebranie osób zainteresowanych daną dziedziną, podczas którego, na podstawie dokumentów danej instytucji, osoby te piszą artykuły do Wikipedii, nauczywszy się najpierw podstaw edytowania.

linked-data280Fragment diagramu Linked Data z portalu LinkedData.org

Linked Data jest stosunkowo nowym zjawiskiem w sieci WWW, ideą dostępu do danych strukturalnych. Co to są dane strukturalne? WWW jest uniwersalnym nośnikiem informacji czytelnej dla człowieka - wszystkie strony internetowe, artykuły, aplikacje dają nam informacje, które możemy odczytać i zinterpretować, na przykład pytanie: "kiedy przyjedzie następny tramwaj?” i odpowiedź; “za 10 minut". Takie pytanie i odpowiedź nie są jednak łatwe do odczytania przez komputery, które potrzebują informacji w ścisłej strukturze: (“Numer przystanku: 4398, linia tramwajowa: 11, odległość od przystanku: 0.8 km, itp.)

Informacja jest zwykle zapisana w bazach danych, które po wielu latach udoskonalania są bardzo wydajne w przechowywaniu i wyszukiwaniu danych, ale fatalne w wymianie informacji. Każda baza danych zawiera wiele kolumn, nazywanych raczej dowolnie i tylko lokalny system komputerowy umie z niej wyciągnąć dane. Nowy koncept, Linked Data, przybywa tutaj z pomocą. Schemat metadanych Linked Data, o nazwie  RDF (Resource Description Framework, struktura opisu zasobów), wymaga, aby dane nie były prezentowane w trudnych do odcyfrowania tabelach, ale w prostych zdaniach, składający się z podmiotu, orzeczenia i dopełnienia. Zamiast wymyślonych nazw kolumn używamy nazw standardowych, a zamiast nazwy podmiotu używamy jego identyfikator URI (Universal Resource Identifier, uniwersalny identyfikator zasobu). Przykładowo, trywialna dla człowieka informacja o tytule tego blogu (przecież możemy przeczytać go powyżej, prawda?) zamienia się w zdanie albo “trójkę” w slangu RDF [1) www.pilsudski.org/portal/pl/nowosci/blog/484, 2)  dc:title, 3) "Linked Data cz. 2: gdzie są dane?"]. Pierwsza część to adres URI jednoznacznie wskazujący na ten artykuł, druga to "tytuł” w konkretnym standardzie metadanych (Dublin Core), a trzecia część to tekst tytułu.

Więcej o szczegółach Linked Data i RDF znajdziecie w pierwszym artykule z tej serii,: "Wstęp do Linked Data", i nie będę ich tu powtarzać. W tym blogu chciałbym skupić się na konkretnych źródłach danych dostępnych obecnie na stronach WWW, nad tym jak je znaleźć i co one zawierają. W procesie digitalizacji archiwów często poszukujemy odnośnika do nazw, miejsc, organizacji lub zdarzeń, który byłby stabilny i dostępny. Jeśli pojawia się nazwisko, np. Karol Anders, czy możemy znaleźć źródło, które będzie jednoznacznie wskazywać na rekord tej osoby? Z oczywistych powodów będziemy omawiać tylko te źródła danych, które są publicznie dostępne. Link, który opublikujemy na stronie internetowej, otwartej dla każdego czytelnika, nie może prowadzić do zasobu, który nie jest dostępny dla tego czytelnika. Będziemy analizować nie wszystkie Linked Data, a otwarte Linked Open Data. Ilustracja powyżej pokazuje mały fragment ogromnej sieci Linked Open Data, poniżej kilka wybranych  źródeł z wyszczególnieniem tych użytecznych dla archiwisty i bibliotekarza.

wschod-ziemi-280Wschód ziemi. W dolnej części odzyskane zdjęcie wysokiej jakości.

NASA opublikowało niedawno nowo odzyskane zdjęcia z sond księżycowych, wysyłanych  w latach 1966-67 w ramach programu "Lunar Orbiter". Różnica jakości pomiędzy starymi, opublikowanymi zdjęciami i nowym materiałem jest uderzająca. Historia uratowania materiału i odtworzenia wysokiej jakości obrazów jest pouczająca, a zaczyna się od roku 1986, kiedy to archiwistka Jet Propulsion Laboratory (JPL) Nancy Evans zdecydowała, że nie może, w dobrej wierze, zwyczajnie wyrzucić starego materiału.

Sondy wyposażone były kamery wysokiej jakości, z podwójnymi obiektywami, i wykonywały duże ilości zdjęć na taśmie 70 mm. Taśmy były potem wywoływane na pokładzie sondy, zdjęcia były skanowane i wysyłane na ziemię. Modulowany sygnał z sondy, był zapisywany na taśmę magnetyczną, wraz z komentarzami operatorów. Następnie cała sonda (z oryginałami zdjęć) była bezceremonialnie rozbijana o powierzchnię księżyca. Taśmy magnetyczne były wykorzystane do wydrukowania dużych obrazów na papierze (wynajmowano stare kościoły aby rozwiesić ogromne arkusze), które używano do zidentyfikowania potencjalnych miejsc lądowania na księżycu. Następnie taśmy były załadowane do pudeł i zapomniane.

W 2005 dwaj entuzjaści z NASA, Keith Cowing i Dennis Wingo rozpoczęli prace nad odtworzeniem taśm, które w międzyczasie zmieniały kilkakrotnie miejsce przechowywania. Napęd taśm, bardzo rzadko spotykany Ampex FR-90, został zlokalizowany w szopie Nancy Evans, i grupa rozpoczęła pracę nad odzyskaniem obrazów. Wymagało to odbudowania napędu, odtworzenia nieistniejących już części i elektroniki, konwersji zmodulowanego sygnału na zapis cyfrowy, a następnie cierpliwego poskładania fragmentów zdjęć w jedno. Po odzyskaniu pierwszego zdjęcia ("Wschód ziemi", patrz wyżej), zespól, pracujący do tej pory ochotniczo, uzyskał finansowanie z NASA na kontynuowanie projektu. Od 2007 udało się odzyskać ok. 2000 zdjęć księżyca, ze zdumiewającymi szczegółami.

Epos o GilgameszuFragment  tabliczki Eposu o Gilgameszu z opisem potopu; zbiory British Museum via Wikimedia Commons

Dlaczego ważne są technologie cyfrowe, skanowanie i digitalizacja dokumentów i książek i innych obiektów? Jakie jest uzasadnienie ogromnego wysiłku przekształcania spuścizny kulturowej w postać cyfrową? Często słyszę takie pytania - od historyków, którzy preferują zapach i dotyk oryginalnych dokumentów lub archiwistów, którzy twierdzą, że mikrofilmy są wystarczająco dobre. Czy cyfryzacja to tylko moda, która wkrótce przejdzie, czy też ma to głębsze uzasadnienie?

“Cyfrowe” jest ważne - dla archiwów, bibliotek, muzeów (GLAM) oraz dla wszystkich producentów i konsumentów dóbr kultury. Omówimy tu trzy powody przechodzenia do cyfrowego przetwarzania informacji: Zabezpieczanie, Znajdywalność (discoverablity) i Dostęp.

Zabezpieczanie

Układ cyfrowy jest tylko jedną z wielu implementacji dyskretnych systemów przechowywania i obróbki informacji. Większość sygnałów, które docierają do naszych zmysłów, np. widok tęczy, symfonia lub zapach róży, można uznać za analogowe. Sygnał analogowy może przyjąć dowolną wartość, na przykład dźwięku lub koloru. Zakres jest zazwyczaj ograniczony jedynie możliwościami naszych zmysłów - nie widzimy podczerwieni, ani słyszymy ultradźwięków itp. Ale sygnał optyczny, po tym jak wpadnie do naszego oka lub kamery cyfrowej, nie jest dalej przetwarzany jako sygnał ciągły. Czujniki światła w siatkówce (czopki i pręciki) działają na zasadzie “wszystko albo nic”, podobnie dzieje się w kamerze gdzie każdy element czujnika rozkłada światło na ograniczoną liczbę poziomów.  Sygnał zostaje zmieniony w informację - wkraczamy tu w sferę dyskretności. W układzie dyskretnym tylko ograniczona, przeliczalna liczba stanów jest dozwolona, nie ma nic pomiędzy. W nowoczesnych komputerach cyfrowych podstawową jednostką informacyjną jest bit, który może posiąść tylko dwa stany (zwyczajowo zwane 0 i 1). Matematyczna teoria informacji, po raz pierwszy zaproponowana przez Claude E. Shannona, również używa jako jednostki binarnego bitu, z implikacją, że informacja w naturze swojej jest dyskretna. W komputerach, pojedyncze bity są zazwyczaj ułożone w grupy: 8 bitów w określonej kolejności nazywa się bajtem. W celu utrzymania ogólnego charakteru dyskusji, najmniejsza jednostkę systemu dyskretnego będziemy dalej nazywać znakiem, a ciąg znaków słowem.

W dalszym ciągu przyjrzymy się kilku systemom dyskretnym i na ich przykładzie tym ich cechom, które są są ważne w zabezpieczeniu i zachowaniu zasobów:  bezstratnemu kopiowaniu, czytelności maszynowej i korekcji błędów.

PARTNERZY
mkidn
bn
senat
ndap
msz
dn
psfcu
nyc