Szybki postęp cywilizacyjny, nagromadzenie olbrzymich zasobów informacji oraz gwałtowny rozwój środków komunikowania to zjawiska charakteryzujące przemiany kilku ostatnich dekad. Alvin i Heidi Tofflerowie przedstawiają dokonujące się procesy jako wynik następujących po sobie fal przemian: rewolucji rolniczej, rewolucji przemysłowej oraz obecnie dokonującej się trzeciej fali zmian - dużo gwałtowniejszej niż dwie poprzednie. Naukowcy opisujący zachodzące zmiany wprowadzili szereg pojęć mających charakteryzować nowy typ społeczeństwa. Do najpopularniejszych określeń należą:
Zestawienie to nie zawiera wszystkich powstałych i ciągle powstających nazw nowej formacji cywilizacyjnej. Jednak na plan pierwszy zarówno w naukowych opracowaniach, jak i w powszechnej świadomości społecznej wysuwa się termin "społeczeństwo informacyjne". Nazwa powstała w II połowie lat 60-tych w Japonii (oryg. brzmienie: johoka shakai), popularyzowana przez kolejne dziesięciolecia stała się określeniem różnorodnych aspektów dokonujących się zmian.
Podkreśla się rolę informacji, która "stała się podstawowym i najbardziej znaczącym towarem, a jednostki i instytucje są od niej uzależnione w coraz większym stopniu. Dostęp do informacji jest (...) równoznaczny z posiadaniem władzy, a ponadto umożliwia uzyskanie dobrobytu materialnego. (...) Informacja stanowi nie tylko towar, lecz także podstawowy warunek rozwoju kulturowego i społecznego". Mówi się wręcz o "rządzącej" informacji, która wpływa na nasze codzienne życie i choć z jednej strony jest nieocenioną pomocą i inspiracją do nowych działań, czynnikiem nieodzownym przy rozwiązywaniu szeregu problemów, to z drugiej strony informacja nieumiejętnie użyta lub skierowana do niewłaściwego adresata może być także zagrożeniem. Stąd pojawiły się nawet takie pojęcia jak "toksyczność procesów masowego komunikowania" oraz "ekologia informacji". Środowisko informacyjne, w którym żyje człowiek (nazywane także infosferą) może wpływać destrukcyjnie. "Ekologia informacji dotyczy więc czynników zewnętrznych wpływających na informację, ochrony jej przed "zanieczyszczeniami", którymi mogą być m.in. fałszowanie faktów czy podawanie informacji niepełnej". Zagadnienia te wiążą się z pojęciem zarządzania informacją, jej porządkowaniem i relewantnością, a więc kierowaniem właściwej informacji do poszukującego jej odbiorcy. Ilustracją problemu mogą być dane dotyczące liczby pojawiających się prac naukowych. Ocenia się, że 70-80% publikacji nie przynosi rozwiązań nowatorskich, jest więc raczej utrudnieniem przy wyszukiwaniach. Z kolei wiele prac (także tych nagrodzonych) nie jest publikowanych. Badania w Stanach Zjednoczonych wykazały, że w przypadku nauk ścisłych w USA zjawisko to dotyczy nawet 2/3 prac .
Zmiany nie przebiegają we wszystkich krajach jednakowo. Wpływa na to stopień rozwoju poszczególnych państw. Ale i między krajami wysoko rozwiniętymi widać różnice w podejściu do zachodzących przemian. Wskazuje się np. na odmienność europejskiej i amerykańskiej koncepcji społeczeństwa informacyjnego. Model amerykański charakteryzuje koncentrowanie się na rozwoju nowych technologii, natomiast w dokumentach Unii Europejskiej podkreśla się raczej aspekt społeczny zagadnienia , centralnym problemem staje się człowiek jako użytkownik informacji. Mimo tych różnic można stwierdzić, że "ideą społeczeństwa informacyjnego jest zapewnienie dostępu do wszelkiego rodzaju informacji dla każdego, w jakimkolwiek miejscu i czasie". Trudno byłoby spodziewać się realizacji tej idei bez udziału bibliotek. To dzięki nim możliwe jest korzystanie z zasobów informacyjnych na zasadach demokratycznych, z wykorzystaniem nowoczesnych środków. Ale aby było to w pełni możliwe, biblioteki muszą adaptować do swoich potrzeb nowe technologie, nadążać za ich rozwojem, przystosowywać działalność do zmieniających się potrzeb użytkowników. Biblioteka powinna zmierzać "w kierunku przekształcania się z administratora zbiorów w agencję informacyjną" . Rozwój nowych tendencji w bibliotekarstwie nie zaciera różnic istniejących między bibliotekami poszczególnych typów. O ile bibliotekom publicznym przypisuje się obecnie rolę lokalnego centrum informacji, a rozwój bibliotek szkolnych łączy się z pojęciem edukacji na odległość oraz przygotowaniem do kształcenia ustawicznego, o tyle w przypadku bibliotek naukowych wskazuje się na postępujący w środowiskach naukowych wzrost zapotrzebowania na informację o dużym stopniu przetworzenia (raczej faktograficzną i analityczno-syntetyczną niż dokumentalną). Wydaje się więc, że - bez względu na rodzaj biblioteki - jej automatyzacja staje się obecnie jednym z podstawowych czynników umożliwiających dostosowanie się do wymagań nowych czasów.
Jedną z cech powstającego społeczeństwa informacyjnego jest rozwój pojęcia telematyka, a więc niejako połączenia telekomunikacji i informatyki. Inaczej mówiąc są to sieciowe cyfrowe multimedia. Unia Europejska wdraża program mający na celu umożliwienie wszystkim zainteresowanym dotarcia do informacji na zasadach demokratycznych. "Telematyka (...) przyspiesza zmianę repertuaru usług opartych na zbiorach na usługi oparte na dostępie do nich poprzez sieci łączące zasoby informacji, niezależnie od miejsca ich fizycznego tworzenia i przechowywania (biblioteki, dystrybutorzy, wydawcy itp.)" . Obecnie ważniejsze jest dotarcie do informacji niż jej gromadzenie, użytkownik ma możliwość bezpośredniego dostępu do informacji bez instytucji pośredniczących. Czas i przestrzeń dzięki połączeniom sieciowym nie odgrywają już takiej roli, jak niegdyś. Ważna jest także sprawa aktualności danych. W przypadku dokumentów drukowanych istnieje niebezpieczeństwo ich dezaktualizacji już w momencie opublikowania. Dokumenty elektroniczne w sieciach dostępne są w trybie czasu rzeczywistego. Poza tym istnieje możliwość aktualizowania danych na bieżąco. "Telematyczna rewolucja (...) jest jednym z najważniejszych elementów i etapów realizacji koncepcji społeczeństwa informacyjnego. Telematyka umożliwia maksymalne wykorzystywanie technologii informacyjnych i komunikacyjnych (...) na potrzeby demokratycznego dostępu do światowych zasobów informacji, przy czym nie chodzi tu o pogoń za najnowszą technologią, lecz przede wszystkim o jak najpełniejsze zaspokojenie prawidłowo zidentyfikowanych potrzeb informacyjnych użytkowników". W odniesieniu do bibliotek podkreśla się trzy aspekty telematyki:
Pod koniec 1998 roku zakończyły się prace związane z programem o nazwie TAP (Telematics Applications Programme), który Komisja Europejska zainicjowała w roku 1994. Miał on na celu przygotowanie instytucji europejskich, a ściślej unijnych do działalności w "nowym kontekście cywilizacyjnym". Na program składało się 420 projektów związanych z różnymi dziedzinami życia, m.in. projekt TAL (Telematics Applications for Libraries) zajmujący się zastosowaniem telematyki w bibliotekach. Właśnie biblioteki uznano za instytucje, które mają obecnie nie tylko chronić europejskie dziedzictwo kulturowe, ale przede wszystkim zarządzać systemami informacji, tak aby dostęp do nich był w pełni demokratyczny i powszechny. Bez wdrażania nowych technologii informatycznych nie da się tego osiągnąć. Za sprawy podstawowe uznano: tworzenie komputerowych katalogów i bibliografii, stosowanie jednakowych formatów zapisu danych, rozwijanie sieciowych usług bibliotecznych, coraz szerszą współpracę bibliotek między sobą oraz z wydawcami komercyjnymi. W projektach tych brany jest także pod uwagę problem odpowiedniego przygotowania personelu bibliotecznego.
Polska, podobnie jak inne kraje europejskie, podejmuje działania mające na celu włączenie się do globalnego społeczeństwa informacyjnego. Ministerstwo Gospodarki opracowało dokument pod nazwą "ePolska. Plan działań na rzecz rozwoju społeczeństwa informacyjnego w Polsce na lata 2001-2006". Wzorowano się na dokumentach unijnych (przede wszystkim na programie eEurope). Wyróżniono sześć podstawowych celów podejmowanych działań:
Sprawą oczywistą jest udział w tych procesach bibliotek polskich. "To włączenie do systemów bibliotecznych, które istnieją w innych krajach, pozwoli na korzystanie z zasobów informacyjnych "społeczności informacyjnej", umożliwi nasz udział w tworzeniu "autostrady informacyjnej", naszą obecność we wspólnej przestrzeni informacyjnej".
W latach 60-tych Biblioteka Kongresu w Waszyngtonie zapoczątkowała wykorzystywanie komputerów do prac bibliograficznych. Chodziło głównie o odciążenie ludzi przy żmudnym powielaniu kart z opisami katalogowymi. Z czasem automatyzacja zaczęła obejmować kolejne sfery działalności bibliotek. To zaowocowało powstawaniem zintegrowanych systemów bibliotecznych. Poszczególne moduły systemu odpowiadają kolejnym etapom drogi, jaką książka odbywa w bibliotece. Opis bibliograficzny rozpoczyna się wprowadzeniem danych niezbędnych przy zamówieniu dzieła. Dalsze etapy polegają na dopisywaniu danych przy opracowywaniu książki, wpisywaniu jej do inwentarza, wypożyczaniu. Jest to jednak tylko uzupełnianie opisu a nie jego dublowanie.
Automatyzacja wyszukiwania informacji przyczyniła się do powstania w latach 50-tych metody indeksowania współrzędnego. "Przez indeksowanie współrzędne rozumiemy charakteryzowanie złożonej treści dokumentów lub kwerend (zapytań informacyjnych) za pomocą dających się swobodnie zestawiać elementarnych jednostek leksykalnych, przeważnie mających postać wyrazów i połączeń wyrazowych zaczerpniętych z języka naturalnego i nazywanych zwykle słowami kluczowymi lub deskryptorami. W indeksowaniu współrzędnym elementarne jednostki leksykalne wchodzące w skład danej charakterystyki lub instrukcji wyszukiwawczej traktowane są jako wzajemnie niezależne i równorzędne. (...) Każda taka elementarna jednostka leksykalna (...) jest samodzielnym elementem wyszukiwawczym, bez względu na jej pozycję w tekście charakterystyki lub instrukcji wyszukiwawczej. Jednostki te mogą więc być wymienione w dowolnej kolejności, a metoda indeksowania współrzędnego jest równoznaczna z gramatyką niepozycyjną" . We współczesnych systemach wyszukiwania informacji stosuje się wiele różnorodnych języków informacyjno-wyszukiwawczych. Ta mnogość metod opisywania dokumentów jest postrzegana jako zjawisko niekorzystne ze względu na użytkownika informacji, dla którego często nieznajomość sposobu wyszukiwania informacji połączona z nieznajomością obsługi komputera stają się barierami trudnymi do pokonania. Języki informacyjne stale się rozwijają, także pod wpływem automatyzacji. Przykładem może być język haseł przedmiotowych uznawany za język pozycyjny, a który obecnie zaczyna nabierać cech języka deskryptorowego ze względu na możliwość wyszukiwania zarówno przez tematy jak i określniki stające się samodzielnymi jednostkami wyszukiwawczymi .
Pojawienie się mikrokomputerów oraz postępujący rozwój telekomunikacji umożliwiły powstawanie sieci komputerowych. A to z kolei przyniosło możliwość współpracy bibliotek w innym niż tradycyjny wymiarze. W latach 70-tych w bibliotekach zaczęły powstawać katalogi typu OPAC (Online Public Access Catalog), a więc z bezpośrednim dostępem. Pojawiło się katalogowanie kooperatywne. Współpracujące ze sobą biblioteki zaczęły dzielić się pracą i wymieniać między sobą opisy katalogowe. Stosowanie określonego formatu zapisu danych oraz jednakowych języków informacyjno-wyszukiwawczych w obrębie zawiązywanych konsorcjów pozwoliło na powstawanie ogromnych, przekraczających granice państw katalogów centralnych. Przykładem serwisu tego typu o zasięgu światowym jest OCLC (Online Computer Library Center). Organizacja ta powstała w 1967 r. i początkowo skupiała 54 biblioteki akademickie stanu Ohio. Obecnie jest to największa na świecie baza danych bibliotecznych udostępniana w USA, Australii i Europie. Kraje, które nie uczestniczą w pracach OCLC mogą korzystać z katalogu odpłatnie. W Polsce przykładami takich konsorcjów (oczywiście działających na mniejszą skalę) mogą być grupy bibliotek akademickich pracujące w systemach VTLS (Virginia Tech Library System) czy HORIZON.
Zanim zaczęły powstawać sieci biblioteczne bazy danych mogły być udostępniane jedynie w trybie offline (pośrednim). Baza taka wymagała instalacji na komputerze użytkownika. W połowie lat 60-tych pojawiła się możliwość udostępniania baz w trybie online (bezpośrednim) dzięki możliwości tworzenia sieci bibliotecznych. Można wyróżnić sieci lokalne (LAN Local Area Network), których zasięg nie przekracza kilku kilometrów oraz rozległe (WAN Wide Area Network) z możliwością zasięgu globalnego. Istnieją także sieci typu pośredniego (MAN Metropolitan Area Network) funkcjonujące w obrębie miasta lub łączące odległe od siebie agendy ośrodka naukowego. Największą rewolucję w dziedzinie wymiany informacji umożliwił Internet.
Idea utworzenia zdecentralizowanej sieci komputerowej powstała w Stanach Zjednoczonych w latach 60-tych. Była ściśle związana z wojskowością i próbami zabezpieczenia systemów komputerowych przed zniszczeniem. Nowa sieć nosiła nazwę ARPAnet. Z czasem przyłączały się do niej kolejne instytucje badawcze i uniwersytety, także Europejskie (m.in. w 1973 r. University College w Londynie i Królewskie Zakłady Radarowe w Norwegii). W latach 80-tych z Sieci wydzielono MILnet o zastosowaniach czysto wojskowych. Natomiast ARPAnet stał się narzędziem wymiany informacji przede wszystkim pomiędzy instytucjami związanymi z nauką. Wkrótce też zaczął funkcjonować pod nazwą Internet.
"Z technicznego punktu widzenia Internet jest międzynarodową siecią sieci komputerowych (international network) stworzoną w celu wymiany informacji. Sieć ta bazuje na sprzęgniętych ze sobą łączami szybkiego przekazu komputerach. By znaleźć się w Sieci, wystarczy połączyć z nią swój komputer za pośrednictwem dostawcy usług lub dostawcy dostępu do Internetu. Każdy komputer w Sieci (czyli online) może komunikować się z dowolnym komputerem w obrębie Internetu - bez różnicy, czy stoi on (...) za ścianą, czy na drugim krańcu świata . Dotarcie do informacji oraz jej rozpowszechnianie w Internecie odbywa się obecnie m.in. za pomocą poczty elektronicznej (e-mail), czyli możliwości przesyłania plików tekstowych pomiędzy komputerami oraz stron www (World Wide Web), za pomocą których można udostępniać dane magazynowane w Internecie. "Można je porównać do ogromnego elektronicznego czasopisma, w którym zamiast przewracać papierowe kartki, klikamy na łącza" . Dzięki usłudze zwanej Telnetem istnieje możliwość pracy na odległym komputerze, FTP (file transfer protocol) to protokół transmisji plików pomiędzy komputerami w sieci, za pomocą IRC (Internet Relay Chat) można uczestniczyć w bezpośredniej komunikacji tekstowej pomiędzy użytkownikami Sieci. . To niektóre z możliwości, jakie oferuje globalna sieć. Sposób wymiany informacji charakterystyczny dla Internetu może być zastosowany na mniejszą skalę np. jednej instytucji. Jeżeli taka sieć nie jest publicznie dostępna nosi nazwę intranetu.
Dostęp do globalnej informacji stawia użytkownika przed możliwością dotarcia do niezliczonej liczby dokumentów. Aby ułatwić orientację w gąszczu informacji powstają specjalne narzędzia wyszukiwawcze : przeglądarki (browser) - programy niezbędne do wyświetlania stron www, wyszukiwarki (search engine) - bazy danych o zawartości wybranych stron www, portale - strony umożliwiające prowadzenie wyszukiwania według tematów. Twórcy stron www często stosują techniki polegające na powtarzaniu tych samych słów lub używaniu słów nieadekwatnych do zawartości strony w celu dotarcia do osób poszukujących informacji z danej dziedziny. Zasada działania wyszukiwarek polega na liczeniu wystąpienia terminu wyszukiwawczego. Wpisywanie wielokrotnych powtórzeń jakiegoś słowa powoduje, że dokument zaczyna być traktowany jako cenny z informacyjnego punktu widzenia. Tworzy się specjalne filtry służące eliminowaniu tego zjawiska. Powstaje także wiele inicjatyw związanych z ideą "skatalogowania Internetu". Jednak tak, jak w przypadku zbiorów tradycyjnych mówi się o katalogowaniu i o danych bibliograficznych, tak w przypadku Internetu stosuje się terminy: metadane i tworzenie metadanych. Są to dane o danych, określające atrybuty i zawartość oryginalnych dokumentów. Przy tworzeniu metadanych niezbędne jest stosowanie określonych formatów tworzonych na podstawie zasad katalogowania. Metadane zawierają elementy typowe dla tradycyjnego katalogowania oraz informacje związane z elektroniczną postacią dokumentów np. warunki ich użycia i ewentualnej reprodukcji. Kolejną różnicą między katalogowaniem a tworzeniem metadanych jest fakt, iż te drugie "mają być zrozumiałe nie tylko dla ludzi (czy wręcz mogą dla nich nie być czytelne), mają one być interpretowane przez komputery, które następnie na ich podstawie będą podejmować odpowiednie działania" . To z kolei ma związek z tzw. systemami ekspertowymi, w których użytkownik niejako zleca systemowi wyszukiwanie informacji. W chwili obecnej optymalnym rozwiązaniem problemu opisania i dostarczenia użytkownikowi potrzebnych dokumentów, funkcjonujących w globalnej sieci, wydaje się tworzenie bibliotek wirtualnych, zarządzanych przez specjalistów w dziedzinie wyszukiwania i opracowania informacji (szerzej pojęcie biblioteki wirtualnej zostało omówione w podrozdziale czwartym).
Możliwość pracy w sieci wykorzystywana jest w bibliotekach przede wszystkim do tworzenia zintegrowanych systemów bibliotecznych pracujących online, do tworzenia różnorodnych serwisów informacyjnych (przede wszystkim są to bazy bibliograficzne i faktograficzne) oraz do prezentacji systemów pełnotekstowych z różnych dziedzin wiedzy .
Słowo "Internet" pojawiło się w 1974 roku. Dziesięć lat później, w 1984 r. w Sieci pracowało tysiąc komputerów, w 1987 r. - dziesięć tysięcy, w 1992 r. - milion, a w 1996 r. - dziesięć milionów. W Polsce możliwość swobodnego dostępu do zasobów globalnej sieci pojawiła się na przełomie 1990 i 1991 roku. W 1998 r. w Internecie funkcjonowało dziesięć tysięcy "polskich" komputerów . W roku 2001 eksperci badający rynek mass mediów oceniali liczbę internautów w Polsce na siedem milionów (dla porównania w Stanach Zjednoczonych było ich ponad sto trzydzieści pięć milionów, a w Japonii blisko dwadzieścia siedem milionów) . "Jesteśmy świadkami rewolucji cyfrowej, która zmieniła, zmienia bądź zmieni większość dziedzin naszego życia" . Biblioteki włączają się w te przemiany w miarę swoich możliwości. Aby rola instytucji pośredniczących w docieraniu do informacji była należycie wypełniania, personel współczesnych bibliotek musi być odpowiednio przygotowany. Powinien także na bieżąco orientować się w nowych tendencjach. Z myślą o kształtowaniu takich postaw i umiejętności powstają różne projekty. Jednym z nich był zapoczątkowany w końcu lat 90-tych XX w. unijny program DEDICATE . Drogą nauczania na odległość - z wykorzystaniem połączeń sieciowych - uczestnicy zdobywali umiejętności efektywnego wykorzystywania zasobów Internetu. Program przeznaczony był dla pracowników bibliotek akademickich, miał też zasięg międzynarodowy. Sama idea kształcenia tego typu powinna być realizowana także na mniejszą skalę np. jednego województwa czy nawet miasta.
Automatyzacja procesów bibliotecznych oraz ciągłe udoskonalanie metod przesyłania informacji przyczyniły się do powstawania nowych typów dokumentów zarówno tych, które tworzone są w bibliotekach przy okazji opracowywania informacji, jak i tych, które stają się przedmiotem opracowania, przechowywania i udostępniania. Ogólnie mówi się o nich jako o dokumentach elektronicznych. "Przez dokument elektroniczny należy rozumieć dokument istniejący w postaci elektronicznej, dostępny za pomocą techniki komputerowej" .
W latach 80-tych pojawiły się dyski optyczne - CD-ROM-y (Compact Disc - Read Only Memory) . Ich olbrzymia pojemność, trwałość, niski koszt wytwarzania, szybkość dostępu do informacji, wygoda stosowania oraz możliwość zapisu informacji multimedialnej (łączącej tekst, obraz i dźwięk) sprawiły, że rozpowszechniło się wiele typów baz danych na tych nośnikach. Do najpopularniejszych zaliczamy: bazy bibliograficzne (odsyłające do dokumentów), pełnotekstowe (źródłowe), skierowujące, czyli informatorowe (np. książki telefoniczne), numeryczne, programowe, mieszane. Już sam fakt, że powstają różne typologie baz na CD-ROM-ach świadczy o ich popularności i powszechności. Biblioteki zaczęły oferować ten typ dokumentów elektronicznych jako doskonałe uzupełnienie własnych tradycyjnych zasobów informacji. Dyski optyczne przyczyniają się do zmniejszenia przestrzeni koniecznej do zmagazynowania coraz większej liczby dokumentów w bibliotekach. Chodzi tu m.in. o czasopisma, których roczniki pojawiają się na CD-ROM-ach i z powodzeniem zastępują wielokilogramowe zbiory drukowanych periodyków. Pierwszy CD-ROM dostępny na rynku zawierał karty katalogowe Biblioteki Kongresu w Waszyngtonie, został wydany w 1985 roku. To właśnie w związku z dyskami optycznymi zaczęto posługiwać się pojęciem "publikacji elektronicznych" . Od 1995 roku coraz powszechniejszą staje się nowa technologia dyskowa o nazwie DVD (digital video/versatile disk). Nowe dyski charakteryzują się dużo większą pojemnością niż "tradycyjne" już obecnie CD-ROM-y. Mówi się o siedmiokrotnie większej ilości informacji przechowywanej na dysku DVD w stosunku do CD-ROM-u .
Sieci komputerowe przyczyniły się do rozwoju dokumentów hipertekstowych i hipermedialnych . Dokumenty tego typu zawierają szereg odsyłaczy, tzw. linków. Linki to miejsca w tekście specjalnie wyróżnione, pozwalające na rzeczywiste dotarcie do dokumentu umieszczonego w przypisie. W przypadku dokumentów multimedialnych i linków w ich obrębie mówimy o hipermedialności, bowiem linki odsyłać mogą nie tylko do cytowanych tekstów ale także do fotografii, dźwięków czy sekwencji wideo. Oczywiście dokument hipertekstowy czy hipermedialny można przeglądać sekwencyjnie, ignorując istniejące linki. Idea hipertekstu powstała w latach 40-tych, sama nazwa pojawiła się w latach 60-tych. Dokumenty hipertekstowe charakteryzują się nielinearnością, umożliwiają przeglądanie informacji w zindywidualizowany, nieliniowy sposób, w zależności od potrzeb i przygotowania użytkownika. Obecnie wyróżnia się następujące podtypy hipertekstu (wg. R. Rady podkreślającego najefektywniejsze wykorzystanie hipertekstu przy integracji takich czynników, jak duże zbiory dokumentów, praca zespołowa i sztuczna inteligencja):
Podkreślane jest znaczenie hipertekstu w procesie uczenia się. Asocjacyjne (skojarzeniowe) powiązania pomiędzy linkami w przeglądanych dokumentach są tworzone na zasadzie asocjacyjnych konstrukcji powstających w mózgu - ułatwiają więc przyswajanie wiedzy, bowiem doskonale korespondują z procesami myślowymi, które przecież nie przebiegają linearnie. Intuicyjne wybieranie odnośników przyspiesza pracę z tekstem. Ważne jest także w przypadku dokumentów zawierających dużo odsyłaczy. Ten nowy styl pracy wymaga przygotowania i zmiany nastawienia użytkownika. Często niemożliwością jest wykorzystanie wszystkich linków (czasami ich liczba przekracza milion), wówczas umiejętność właściwego wyboru staje się nieocenioną umiejętnością.
Wyróżnia się cztery główne obszary zastosowania hipertekstu:
Hipertekst jest zjawiskiem nowatorskim nie tylko z punktu widzenia odbiorcy, ale także twórcy. Paul Levinson omawiając to pojęcie - możliwość odsyłania czytelnika w dosłownym znaczeniu od książki do książki tzn. przenoszenia się do dokumentu innego autora zacytowanego w dziele, które właśnie studiował stwierdza: "Być może (...) mamy tu do czynienia nie z książką ani z dziełem, ale z księgarnią lub biblioteką, w której tradycyjne pojęcie autora odnosi się tylko do twórcy jednego ze składników zbioru tekstów. (...) Sieć stwarza autorowi możliwości, jakich nigdy dotąd nie miał, dając twórcom tekstu taki sam natychmiastowy, niczym nie zakłócony dostęp do potencjalnie interakcyjnego audytorium, jakim rozporządza mówca. Różnica jest taka, że grupa odbiorców autora publikującego w sieci ma zasięg globalny. (...) Każde aktywne słowo lub fraza może mieć dziesiątki lub setki możliwych dalszych połączeń. (...) Ten ogromny zasięg hipertekstu przywodzi na myśl jednoczesne masowe audytorium radia i telewizji. Jeden głos lub obraz docierający do milionów uszu i/lub oczu w całym kraju tutaj staje się jednym słowem podłączonym hipertekstowo do dziesiątków innych, a te do następnych dziesiątków i nie wiadomo do jak wielu na coraz większych przestrzeniach ogarniających cały świat. W każdym dokumencie są zaś tysiące pojedynczych słów, które mogą stać się punktem wyjścia. (...) Hipertekst nie tylko opisuje czy odwołuje się do innego tekstu, ale faktycznie przenosi doń czytelnika, przekształcając w ten sposób jego świat. (...) Czytelnik hipertekstu ma więc dosłownie pod ręką cały szereg skojarzeniowych opcji, zaprogramowanych i czekających na zastosowanie. Dla czytelnika tradycyjnego "płaskiego" tekstu umieszczonego na papierze skojarzenia takie mają przeważnie charakter czysto ideacyjny - powstają w jego umyśle" .
Połączenia hipertekstowe wykorzystywane są powszechnie w niezwykle popularnym serwisie internetowym, jakim jest WWW, czyli World Wide Web . "Światowa pajęczyna" rozpoczęła karierę w 1989 r. w szwajcarskim laboratorium fizyki cząstek elementarnych CERN. Lata 90-te XX wieku przyniosły dynamiczny rozwój tej usługi. Względna łatwość tworzenia stron WWW (także multimedialnych i interaktywnych) przyczyniła się do powszechnego wykorzystywania ich przez instytucje i osoby prywatne. Dotyczy to także bibliotek oraz rynku wydawniczego, w tym elektronicznego publikowania czasopism.
Czasopisma elektroniczne (electronic journals) to "wydawnictwa cyfrowe o charakterze ciągłym ukazujące się systematycznie w Internecie, niezależnie od ich treści, formy, w jakiej są dostępne, sposobu dystrybucji itp." Pierwsze publikacje tego typu pojawiły się pod koniec lat 70-tych. W 1978 roku ukazało się pismo "Mental Workland" funkcjonujące w ramach programu EIES (Electronic Information Exchange System - System Wymiany Informacji Elektronicznej). Lata 80-te i 90-te to ich ciągły rozwój i przystosowywanie się do świata elektronicznych dokumentów, a ściślej do Internetu, bowiem obecnie jest to podstawowy obszar ich funkcjonowania. Od początku swego istnienia czasopisma internetowe rozwijają się dwutorowo. Można je podzielić na te, które istnieją wyłącznie w postaci elektronicznej, nie mają więc swoich drukowanych odpowiedników (jakkolwiek istnieje możliwość druku całej zawartości czasopisma lub jego fragmentów przez użytkownika) i te, które są elektronicznymi wersjami tradycyjnie wydawanych czasopism papierowych. Przykładem pierwszego rodzaju periodyków może być pismo EBIB, czyli "Elektroniczny Biuletyn Informacyjny Bibliotekarzy" . Czasopismo funkcjonuje od 1999 roku, posiada wirtualną redakcję składającą się z osób pracujących na co dzień w różnych miastach i komunikujących się za pośrednictwem Internetu.
Elektroniczne odpowiedniki czasopism tradycyjnych nie są ich wiernymi kopiami przeniesionymi w świat Internetu. Konieczne było dostosowanie się do nowego medium. Nowe czasopisma to dokumenty hipertekstowe, jak chociażby elektroniczny "Newsweek" odsyłający do Encyklopedii Britannica. W Polsce do czasopism, które potrafiły odnaleźć się w Sieci należą m.in. "Gazeta Wyborcza" i "Rzeczpospolita". Znamienny jest jednak fakt, iż w chwili obecnej sukces komercyjny zapewniają głównie drukowane wersje czasopism. Stąd niechęć wielu wydawców do publikowania wyłącznie elektronicznego. Ale są też i tacy wydawcy, którzy zdecydowali się na wyłącznie elektroniczny nośnik dla swych publikacji. Przykładem może być dwumiesięcznik "Fonorama" wychodzący do 2000 roku włącznie w wersji papierowej, a od 2001 roku stający się internetowym serwisem informacyjnym dla kolekcjonerów płyt z muzyką rozrywkową. Inne "papierowe" pismo pt. "Framzeta" to kompilacja najciekawszych artykułów publikacji internetowej, od czasu do czasu pojawiającej się w zmodyfikowanej w stosunku do pierwowzoru, tradycyjnej wersji.
Czasopisma elektroniczne mogą być rozprowadzane za pośrednictwem poczty elektronicznej do tych osób, które złożyły na nie zamówienie lub za pomocą usługi FTP (File Transfer Protocol) pozwalającej na przesyłanie plików pomiędzy odległymi komputerami. Wówczas można sprowadzić tylko niektóre artykuły bez konieczności pobierania na swój komputer pełnego "zeszytu" pisma. Obecnie większość czasopism internetowych dostępnych jest poprzez strony WWW (World Wide Web) przy użyciu języka HTML (Hyper Text Markup Language - język opisu dokumentu hipertekstowego). Pozwala to na tworzenie dokumentów hipertekstowych i hipermedialnych. Powstają więc czasopisma, które pod względem graficznym przypominają swoje papierowe odpowiedniki, ale treściowo mogą być wzbogacone o dane, których nie można było umieścić w wersji drukowanej m.in. ze względu na ograniczoną objętość. Od czytelnika zależy czy zechce skorzystać z oferowanej możliwości czy też nie. Czasopisma wyłącznie elektroniczne w wielu aspektach przypominają czasopisma tradycyjne, jednak często wyglądają raczej jak rozbudowane serwisy informacyjne, w których uaktualnia się na bieżąco dane zamiast "wydawania" kolejnych numerów.
Teksty książek zapisywane cyfrowo czy to na CD-ROM-ach czy dostępne poprzez Internet pojawiają się od wielu lat. Zaletą korzystania z tego typu słowników czy encyklopedii jest ciągła aktualizacja danych. Istnieje wiele baz pełnotekstowych np. z dziedziny prawa czy medycyny. Przenosi się także na zapis cyfrowy literaturę beletrystyczną. Problemem, który starano się pokonać była tzw. portatywność, czyli przenośność książek, do której wszyscy jesteśmy przyzwyczajeni oraz rozdzielczość komputerowych monitorów, która w wypadku dzieł beletrystycznych musi zapewniać komfort czytania. Możliwość wygodnego korzystania z publikacji encyklopedycznych czy słownikowych zapisanych na CD-ROM-ach to jedno a specyfika odbioru powieści czy poezji to coś zupełnie innego.
Początkowo prace nad elektronicznymi książkami skupiały się raczej na odtwarzaniu formy i struktury tekstów drukowanych (a więc na wyglądzie strony czy podziale dokumentu na rozdziały) niż na problemie portatywności (przenośności). Powstały pojęcia hiper-książki (hyper-book) będącej rezultatem konwersji istniejących elektronicznych tekstów na elektroniczne książki oraz książki wizualnej (visual-book) czyli "przeniesienia" dzieła drukowanego na jego elektroniczny odpowiednik. Książka wizualna wiąże się przede wszystkim z elektronicznym utrwalaniem zabytków piśmiennictwa z zachowaniem ich oryginalnej szaty graficznej. Dokonuje się to głównie poprzez skanowanie wybranych dzieł. Nie ma więc możliwości indeksowania pełnotekstowego charakterystycznego dla hiper-książek.
Koniec lat 90-tych XX w. to rozwój pojęcia: e-books (electronic books). Firmy produkujące tego typu publikacje starają się by, o ile to możliwe, przypominały one swoich drukowanych poprzedników. Stąd zarówno wygląd tych urządzeń, jak i sposób użytkowania jest bardzo zbliżony do wyglądu i sposobu czytania książek drukowanych. Pierwsze prezentacje tych urządzeń odbyły się w 1998 roku . E-book to termin, którym "określana jest zarówno sama książka w wersji elektronicznej, jak i urządzenie umożliwiające jej czytanie" . Są to elektroniczne odpowiedniki kodeksu w dosłownym znaczeniu. Wyglądem przypominają tradycyjną książkę, są przenośne. Zamiast papierowych kartek posiadają jeden lub dwa ciekłokrystaliczne wyświetlacze o dużej rozdzielczości oraz złącze do podłączenia komputera. W zależności od pojemności takiego czytnika może on pomieścić w sobie od kilkudziesięciu do kilkuset tradycyjnych książek, czasopism czy innych dokumentów. Teksty te można ściągać z Internetu za pośrednictwem sieciowych księgarń oferujących książki z różnych dziedzin wiedzy. Urządzenia te umożliwiają nie tylko zwykłą lekturę, ale pozwalają także na twórczą pracę z tekstem. Wyświetlacze reagują na dotyk co pozwala szybko przemieszczać się między partiami tekstu, istnieje możliwość dokonywania podkreśleń, zaznaczania fragmentów tekstu, nanoszenia uwag na marginesach, sporządzania zakładek itp . Firmy produkujące tego typu urządzenia prześcigają się w innowacjach w celu pozyskania klientów. Mają także na uwadze dobro wydawców oraz autorów i stosują szereg rozwiązań pozwalających na ochronę praw autorskich. Na rok 2001 zaplanowano rozpoczęcie masowej produkcji elektronicznych książek. Zajmuje się tym obecnie kilka firm. Należą do nich m.in.: Softbook Press, NuvoMedia, Everybook, GemBook, Librius. Problemami do rozwiązania są m.in.: zmniejszenie ciężaru czytników oraz ustalenie wspólnego formatu, w jakim zapisywane będą teksty . Konkurencją dla e-booków stają się kolejne nowopowstające technologie, jak chociażby elektroniczny papier. Ideą tego wynalazku jest połączenie właściwości papieru i komputera w jednym nośniku, który staje się przez to nową jakością. Kartki książki zadrukowywane są atramentem elektronicznym zbudowanym z mikroskopijnych cząstek sterowanych polem elektrycznym. Prace nad tym rodzajem nośnika rozpoczęto w Stanach Zjednoczonych pod koniec 1995 roku w ramach projektu Micromedia. Zaletą elektronicznego papieru jest możliwość wykorzystywania go w każdych warunkach. Zamieszczane na nim informacje mogą być modyfikowane, zamieniane innymi, istnieje także możliwość zamieszczania animacji, a więc ruchomych obrazów.
Zanim jednak upowszechnią się przenośne czytniki elektronicznych książek, teksty zapisane cyfrowo możemy odczytywać za pośrednictwem zwykłych komputerów dzięki specjalnym programom. Organizują one tekst w taki sposób, by można było go odczytywać w sposób podobny do tradycyjnego. Do programów tych należą m.in. Microsoft Reader oraz Glassbook Reader. Dzięki nim także można kupować teksty książek w internetowych księgarniach, kolekcjonować je w swoich prywatnych, elektronicznych bibliotekach, czytać oraz wprowadzać adnotacje, podkreślenia, zakładki - podobnie jak w przypadku e-book'ów. Glassbook Reader umożliwia obrócenie tekstu o 90 stopni oraz prezentowanie dwóch stron książki jednocześnie, co (przy użyciu np. laptopa) w znacznej mierze przypomina korzystanie z e-book'a.
Coraz więcej pisarzy decyduje się na umieszczanie swoich dzieł w Internecie. Podobnie, jak w przypadku czasopism elektronicznych i tu mamy do czynienia z dwutorowością tych działań. Część książek to po prostu przeniesienie na formę cyfrową tekstu, który od lat funkcjonuje w wersji drukowanej. Tak postąpiła np. Mary Higgins Clark. Inni postanawiają ominąć druk i funkcjonować wyłącznie w Internecie. Tak zaczął postępować Stephen King . Internet wydaje się być szansą nie tylko dla sławnych pisarzy, ale i dla takich autorów i dzieł, które ze względu na podejmowane tematy nie mają szans na publikację tradycyjną. Dotyczy to m.in. dzieł naukowych, czy bardzo specjalistycznych poradników przeznaczonych dla niewielkiej grupy osób, dla tzw. odbiorcy niszowego . Niektóre dotychczasowe formy publikacji, jak np. komiksy za sprawą Internetu nabierają dodatkowej atrakcyjności np. w postaci animacji czy dźwięku . W styczniu 2000 r. w Strasburgu odbyło się seminarium, na którym przedstawiono założenia nowego systemu dystrybucji książek . System nosi nazwę PROD-Europe (Print on demand - druk na żądanie). Założeniem tego projektu jest, aby w przyszłości postać fizyczną otrzymywały tylko te książki, na które ktoś złoży (komputerowo) zamówienie posługując się elektronicznym katalogiem. Ma to wyeliminować straty wydawnictw związane z towarem, którego nie można sprzedać, wyrównuje także szanse pisarzy, bowiem niewielka liczba zamawiających nie może w takim wypadku wpływać ujemnie na ich pozycję na rynku. "Pierwsze książki drukowane wzorowane były na książkach rękopiśmiennych. Później drukowane publikacje przybrały nową postać wydawniczą, która znacznie różniła się od rękopiśmiennych pierwowzorów. Z podobnym procesem mamy do czynienia w chwili obecnej. Tekst, dla którego do tej pory najlepszym nośnikiem był papier, pojawia się również w formie elektronicznej. (...) Ponownie pojawia się (...) problem, jak pogodzić nowy sposób edycji zapisu tekstowego z oczekiwaniami i umiejętnościami odbiorców. (...) Trudno w tej chwili przewidzieć, które z właściwości tradycyjnych wydawnictw pozostaną integralną częścią elektronicznych publikacji oraz czy zostanie określona uniwersalna postać cyfrowej książki przyszłości" . Specjaliści z Microsoftu prognozują stopniowe wypieranie publikacji tradycyjnych przez ich elektroniczne odpowiedniki. Twierdzą, iż konkurencja ta nasili się już za 10 lat, a za 20-25 lat papier przestanie być znaczącym nośnikiem informacji .
Nowe technologie i nowe typy dokumentów w znaczący spos ób zaczęły wpływać na organizację pracy w bibliotekach i spowodowały wyodrębnianie się nowych typów bibliotek. Należą do nich:
Biblioteka polimedialna posiada różne typy dokumentów zapisanych na różnorodnych nośnikach: papierowych, audiowizualnych, elektronicznych itp. Dokumenty tradycyjne są podstawą zbiorów takiej biblioteki. Stąd jest ona bardzo podobna do biblioteki tradycyjnej. Jakkolwiek musi posiadać sprzęt elektroniczny umożliwiający korzystanie z dokumentów elektronicznych.
W bibliotece elektronicznej wszystkie jej procesy, a więc gromadzenie, opracowywanie, wyszukiwanie i udostępnianie zbiorów, odbywają się z zastosowaniem techniki elektronicznej. Na organizację jej działania wpływ ma stosowanie zintegrowanego systemu bibliotecznego a w jego ramach katalogu OPAC. Zbiory takiej biblioteki mają charakter polimedialny. W swych zasobach posiada ona także dokumenty w formie tradycyjnej, czy też innej niż wyłącznie elektroniczne.
Biblioteka cyfrowa nie posiada już zbiorów w postaci konwencjonalnej. Wszystkie dokumenty występują wyłącznie w postaci elektronicznej. Dostęp do nich zapewniają specjalne urządzenia. Dotyczy to zarówno gromadzonych dzieł, jak i katalogów bibliotecznych. Biblioteka taka może udostępniać swoje zbiory poprzez sieci. Istnieje więc możliwość zdalnego dostępu do informacji.
Natomiast biblioteka wirtualna, nazywana także biblioteką "bez ścian" nie istnieje fizycznie. Jest to możliwość dotarcia do informacji poprzez przeszukiwanie wielu systemów informacyjnych zorganizowanych w taki sposób, iż wyglądają one jak jedna baza. Informacje mogą przybierać różne formy i posiadać różną strukturę. Istnieje także możliwość powstawania bibliotek wirtualnych w dosłownym znaczeniu, a więc z symulacją pomieszczeń, do których użytkownik wchodzi, półek ze zbiorami, które przegląda i dotyka. Elementy rzeczywistości wirtualnej nie są jednak najważniejsze w przypadku wyszukiwania informacji. Chodzi o trzy zasadnicze elementy, jakie pozwalają nazywać bibliotekę mianem wirtualnej. Są to przede wszystkim:
Charakterystycznym wyróżnikiem takiej biblioteki jest możliwość fizycznego rozproszenia jej zbiorów między serwerami różnorodnych instytucji . Zdalne przemieszczanie się pomiędzy katalogami i zbiorami wielu bibliotek w czasie rzeczywistym oraz możliwość otrzymywania pełnych tekstów dokumentów w postaci wydruku czy plików bez konieczności opuszczania domu to obraz korzystania z biblioteki "bez ścian". Idea biblioteki wirtualnej to idea powszechności dostępu do informacji, nagłaśniana od lat 70-tych przez IFLA i UNESCO, a obecnie - dzięki rozwojowi techniki - mająca szansę na pełniejszą realizację. Biblioteki wirtualne odgrywają także coraz większą rolę w rozwoju edukacji permanentnej i kształcenia na odległość
Internet umożliwił wdrożenie wielu nowatorskich projektów bibliotecznych. Wyszukiwanie informacji a także wypożyczenia międzybiblioteczne nabrały zupełnie innego charakteru. Pojawiło się pojęcie elektronicznego dostarczania dokumentów (EDD - Electronic Document Delivery) . Warunkiem koniecznym powodzenia podobnego przedsięwzięcia jest istnienie baz pełnotekstowych, katalogów pozwalających na wyszukanie odpowiednich dokumentów oraz współpracy pomiędzy placówkami informacji funkcjonującymi w obrębie sieci. Użytkownik końcowy otrzymuje zamówiony tekst w postaci pliku komputerowego, który może wykorzystać na swoim komputerze lub wydrukować. Istnieje także możliwość otrzymania kopii artykułów drogą pocztową lub faksem. Do serwisów EDD należy np. JASON (Journal Articles Sent on Demand) realizowany przez naukowe biblioteki niemieckie od 1998 roku. Wspólne zasoby bibliotek biorących udział w przedsięwzięciu obejmują ok. 120 tys. tytułów czasopism, opisy bibliograficzne dotyczą 560 tys. tytułów. Usługi w systemie JASON są płatne. Jednak w porównaniu z opłatami za dostarczanie dokumentów metodami tradycyjnymi ceny są o połowę niższe. Firma B.H. Blackwell Ltd z Oxfordu od 1989 roku dostarcza teksty w trybie online w ramach serwisu UnCover . Pełnotekstowa baza danych zawiera miliony artykułów z kilkudziesięciu tysięcy czasopism. Od roku 1997 Institute for Scientific Information (ISI) z Filadelfii publikujący m.in. indeksy cytowań naukowych udostępnia swoje bazy za pośrednictwem Internetu w ramach systemu Web od Science . Indeksowanych jest ponad 8 tys. tytułów czasopism z 230 dziedzin wiedzy. Instytut dąży do tego, by dzięki hipertekstowi użytkownik mógł docierać poprzez indeksy cytowań do pełnych tekstów artykułów. Biblioteka Uniwersytetu Stanford bierze udział w inicjatywie określanej jako swego rodzaju rewolucja wydawnicza. Nosi ona nazwę HighWire. Biblioteka zawiera umowy z wydawcami i stowarzyszeniami naukowymi na dostarczanie publikowanych przez te instytucje opracowań naukowych w formie elektronicznej. Forma ta poprzedza publikację tradycyjną. Biblioteka opracowuje dokumenty, a użytkownik ma możliwość skorzystania zarówno z pełnego tekstu, jak z też z abstraktów czy spisów treści. Hipertekst pozwala na wieloaspektowe poruszanie się pomiędzy artykułami.
To tylko przykłady działalności bibliotecznej w nowych warunkach. Należy się spodziewać, że z czasem tego typu usługi staną się coraz powszechniejsze. Zapis cyfrowy, czyli digitalizacja będzie obejmować coraz więcej dokumentów, zarówno tych ukazujących się na bieżąco, jak i historycznych. Przewiduje się, że na początku XXI wieku obejmie 100% wydawnictw informacyjnych, 90% czasopism i 50% książek . Założyciel Microsoftu - Bill Gates twierdzi, iż w roku 2025 papier będzie już anachronizmem.
Nie znaczy to oczywiście, że znikną olbrzymie biblioteki ze swymi wspaniałymi zbiorami. Co więcej, zyskają one nowe możliwości uczestniczenia w utrwalaniu i przechowywaniu dorobku ludzkości. Udostępnianie dzieł, często bardzo cennych i jednocześnie narażonych na zniszczenie czy kradzież, będzie mogła odbywać się na nieco innych zasadach niż obecnie. Z pewnością nie trzeba będzie udawać się w sensie fizycznym do biblioteki, aby skorzystać z jej zbiorów. Pojęcie "digitalizacji" staje się coraz popularniejsze w środowisku bibliotekarzy, przede wszystkim pracowników bibliotek naukowych. Najsłynniejsze książnice widzą możliwość poszerzenia w ten sposób grona swoich czytelników. Przykładem mogą być działania Stolicy Apostolskiej, która podjęła współpracę z koncernem IBM w celu przeniesienia na nośniki cyfrowe zbiorów Biblioteki Watykańskiej . Także biblioteki niemieckie bardzo poważnie podeszły do tego zagadnienia. W Monachium i Getyndze powstały centra digitalizacji. Ich zadaniem jest wypracowanie najsprawniejszych metod tworzenia i upowszechniania elektronicznych wersji zabytkowych zbiorów oraz pomoc innym bibliotekom niemieckim w realizacji podobnych projektów . W ramach prac UNESCO w 1992 roku powstał projekt o nazwie "Pamięć Świata". Jego celem jest ochrona poprzez digitalizację najcenniejszych zbiorów bibliotecznych i archiwalnych w skali świata. Pierwsze posiedzenie Międzynarodowego Komitetu tego programu odbyło się w 1993 roku w Polsce. Programem mogą zostać objęte dzieła zgłoszone przez specjalistów danego kraju i zaakceptowane przez ekspertów międzynarodowych. UNESCO realizuje tę inicjatywę przy współpracy z IFLA oraz Międzynarodową Radą ds. Archiwów .
Należy jednak zaznaczyć, że nie tylko olbrzymie koncerny informatyczne czy potężne biblioteki realizują projekty związane z cyfrowym zapisem tekstów. W Internecie działa wiele osób, które bezinteresownie upowszechniają w sieci dzieła literackie. Ze względu na istnienie praw autorskich przepisywaniem obejmuje się obecnie przede wszystkim te utwory, które ochronie już nie podlegają, a więc szeroko rozumianą klasykę. Sztandarowym przykładem jednoosobowej inicjatywy, znanej już w tej chwili na całym świecie jest Projekt Gutenberg . Jego powstanie wiąże się z pierwszymi próbami przenoszenia dzieł "papierowych" do Internetu. W 1971 roku Michael S. Hart mieszkający w Stanach Zjednoczonych umieścił w sieci własnoręcznie przepisaną Deklarację Niepodległości Stanów Zjednoczonych. Obecnie współpracownicy Harta rozsiani po całym świecie wprowadzają do Internetu 50 książek miesięcznie. Zaletą tego serwisu jest możliwość dotarcia do oryginalnych wersji dzieł (takie jest zresztą założenie projektu). Polskimi odpowiednikami projektu Gutenberg są m.in.: Skarbnica Literatury Polskiej, oferująca utwory rodzimych autorów opatrzone efektowną grafiką, czy Polska Biblioteka Internetowa - przedsięwzięcie realizowane od 2002 r. pod patronatem władz państwowych.
Nowa biblioteka to także nowe role i zadania dla bibliotekarzy. Mają oni przede wszystkim pomagać czytelnikom w dotarciu do poszukiwanych informacji. Technika daje duże możliwości, ale wymaga zdobycia nowej wiedzy, ciągłego dokształcania się, tak, aby nadążyć za coraz szybszymi zmianami. Dla wielu czytelników już katalog komputerowy jest sporą barierą do pokonania. Nie mogą być oni pozostawieni samym sobie. Także poruszanie się po ogromnych zasobach wirtualnej biblioteki, jaką jest Internet wymaga przewodników już choćby tylko ze względu na koszt połączeń. Na konferencji IFLA w 1998 roku stwierdzono, że właśnie względy ekonomiczne przyczynią się do wzrostu pozycji bibliotekarzy. Mają się oni stawać ekspertami w dziedzinie szybkiego i efektywnego wyszukiwania oraz dostarczania informacji. Wprawdzie mówi się, że w wirtualnej bibliotece przyszłości systemy ekspertowe będą swego rodzaju "wirtualnymi bibliotekarzami" a coraz doskonalsze interfejsy przyczynią się do jeszcze większej samodzielności użytkowników, to jednak trudno wyobrazić sobie całkowite wyeliminowanie ludzi z procesów chociażby opracowywania dokumentów, także elektronicznych. Prawdopodobniejsze wydaje się prognozowanie, iż z biegiem czasu "bibliotekarze będą pracowali rozproszeni bezpośrednio wśród użytkowników lub jako niezależni specjaliści od informacji, świadczący usługi informacyjne poprzez sieć. (...) Fizyczna lokalizacja zbioru jest coraz bardziej niematerialna. Praca z naukowcami, nauczycielami czy biznesmenami polegająca na dostarczaniu im określonych pakietów informacji wprost na ich osobiste komputery, może stać się najbardziej znaczącą usługą świadczoną przez przyszłą bibliotekę. (...) Wypożyczanie przerodzi się z czasem w monitorowanie użytkowania zasobów w celu zabezpieczenia odpowiednich opłat i ochrony praw autorskich" .