Katherine N. Hayles

Literatura elektroniczna: czym jest ?

część 2

tłum. Sonia Fizek, Mariusz Pisarski

Literatura elektroniczna to nie literatura drukowana

Sposób, w jaki literaturaelektroniczna jednocześnie powiela, jak i łamie konwencje literatury drukowanej często stawia jej krytyków w sytuacji bez wyjścia. Z powodu dwoistości literatury cyfrowej wielu badczy znajduje się między Scyllą i Charybdą: albo przesadnie zachwyca się jej innowacyjnością, albo – przeciwnie – nie dostrzega cech, które znacząco odróżniają nową formę literatury od znanego kodeksu. Po pierwszej fali ożywionych debat problem wydaje się już nieco jaśniejszy; zawdzięczamy to wczesnym pracom, które przetarły ścieżki opracowaniom współczesnym. Pierwsi teoretycy hipertekstu, w szczególności George Landow i Jay David Bolter [83], podkreślali znaczenie hiperłącza, jako charakterystycznej cechy literatury elektronicznej. Za sprawą linków, dających czytelnikowi możliwość wyboru, hipertekst zaczęto utożsamiać z siłą wyzwalającą i przeobrażającą proces czytania i pisania, a co za tym idzie – także sposób nauczania o literaturze. Takie stanowisko było w pełni zrozumiałe, jeśli wziąć pod uwagę popularność czołowych utworów literatury elektronicznej, m.in. afternoon: a story Michaela Joyce’a czy Victory Garden Suarta Moulthropa, które składały się przede wszystkim z tekstu wzbogaconego o bardzo ubogie elementy graficzne. W utworach tych nie wykorzystano ani animacji, ani efektów dźwiękowych.

Klasyfikacja literatury elektronicznej w oparciu o hiperłącze była jednak dość problematyczna, ponieważ w tekstach drukowanych od dawna stosowano podobne rozwiązania (odnośniki, przypisy końcowe czy odsyłacze), co podważa argument o innowacyjności technologii elektronicznej. Jeszcze poważniejszym problemem okazało się powiązanie linku z zagadnieniem przekazania władzy na ręce czytelnika/użytkownika. Jak zauważyło kilku badaczy, m.in. Espen J. Aarseth, czytelnik/użytkownik może podążać tylko za linkami uprzednio zaprogramowanymi przez autora [84]. Co więcej, w utworze takim jak afternoon: a story pojawiają się pętle, z których czytelnik nie jest w stanie się wydostać. Jedynym sposobem jest zamknięcie programu i jego ponowne uruchomienie. W porównaniu z elastycznością i wolnością jaką oferuje kodeks (możemy pomijać strony, cofać się lub dowolnie przewracać kolejne kartki), struktury pętli obecne w powieściach hipertekstowych 
i wymuszające konieczność ponownej lektury tego samego tekstu, sprawiają, że utwory takie – jak na ironię – bardziej ograniczają wolność czytelnika/użytkownika niż literatura tradycyjna. Jak trafnie zauważa Aarseth, wolność pozornie nadana czytelnikowi poprzez możliwość wchodzenia w interakcję z dziełem „jest pojęciem czysto ideologicznym, które stanowi raczej projekcję niespełnionej fantazji, niż termin o głębi analitycznej” [51].

Zjawisko wielolinearności procesu czytania literatury elektronicznej Landow i Bolter połączyli z teorią dekonstrukcji. W czasach, gdy dekonstrukcję postrzegano jako atak na fundamentalne zasady humanistyki, hipertekst wydawał się naturalnym uzasadnieniem dla stosowania mechanizmu niestabilności znaczenia, obnażonego przez analizę dekonstrukcyjną. Hipertekst, jak w swojej znaczącej książce Writing Space zauważył Bolter, „łagodzi nieco teorię dekonstrukcji” [85]. Łącząc hipertekst z trudnymi, lecz przynoszącymi zamierzone rezultaty aporiami dekonstrukcji, Landow i Bolter nie zdołali jednak w pełni poddać ocenie ani subtelnych mechanizmów działania mediów elektronicznych, ani złożoności filozofii dekonstrukcji. Pomimo tego, obaj teoretycy przyczynili się do rozwoju nowej dziedziny a ich prace zostały uznane za przełomowe. Co więcej, każdy z nich zmodyfikował swoje wcześniejsze założenia tak, by miały one zastosowanie w badanich nad wciąż zmieniającą się technologią. W drugim wydaniu Writing Space o podtytule Computers, Hypertext and the Remediation of Print, Bolter zawarł teorie wypracowane wspólnie z Richardem Grusinem. W książce Remediation: Understanding New Media badacze skupili się na rekurencyjnej dynamice pomiędzy zjawiskiem bezpośredniości reakcji, a hipermediacji w nowych mediach [86]. Także Landow zmienił pierwszą wersję swojej publikacji. W książce Hypertext 2.0: The Convergence of Contemporary Critical Theory and Technology pojawił się nowy materiał, obejmujący zagadnienia dotyczące sieci, natomiast w tytule Hypertext 3.0: Critical Theory and New Media in an Era of Globalization autor podjął temat globalizacji [87].

Nieścisłości, będące skutkiem wykorzystywania w analizie mediów elektronicznych teorii tradycyjnych (stosowanych w odniesieniu do literatury drukowanej), zostały opisane przez Espena J. Aarsetha w książce Cybertext: Explorations of Ergodic Literature. Zamiast definiować literaturę elektroniczną w nawiązaniu do druku, Aarseth zaproponował nową kategorię „literatury ergodycznej”, czyli takiej, która „wymaga od czytelnika niebanalnego wysiłku podczas przechodzenia przez tekst” . Przyjmując inną niż dotychczas postawę wobec różnych tekstów (jak gry komputerowe, literatura drukowana czy hipertekst), Aarseth utworzył listę siedmiu różnych zmiennych, które trafnie podsumowują właściwości tekstów elektronicznych. Wprowadzone przez badacza zmienne, wraz z przypisanymi im wartościami, generują 576 różnych kombinacji, odzwierciedlających naturę omawianych tekstów [88]. Pomimo kilku wad, m.in. braku obiektywnej oceny zawartości oraz specyfiki omawianych mediów, powyższa metoda doskonale obrazuje konieczność oddzielenia tekstów elektronicznych od drukowanych, ze względu na ich różne sposoby działania. To innowacyjne spojrzenie sprawiło, że Cybertext stał się fundamentalną pracą naukową, która dała początek kolejnym teoriom, związanym z grami komputerowymi i literaturą elektroniczną [89]. Także Markku Eskelinen – głównie w artykule „Six Problems in Search of a Solution: The challenge of cybertext theory and ludology to literary theory” [pol. Sześć problemów w poszukiwaniu rozwiązania: wyzwanie rzucone teorii cybertekstu 
i ludologii przez teorię literatury; tł. S.F] - kwestionuje słuszność stosowania tradycyjnej narratologii w badaniu tekstualności „ergodycznej”. Według Eskelinena należy wypracować takie modele, które wezmą pod uwagę złożoność innowacyjnych rozwiązań tekstowych stosowanych w mediach cyfrowych. Swój model tworzy on w oparciu o kategorie narratologiczne Gérarda Genette’a. Odwołując się do rozmaitych zagadnień narratologicznych, które badają m.in. porządek czasowy/struktury czasowe, intertekstualność czy struktury łączące, Eskelinen pokazuje sposób, w jaki ergodyczna typologia Aarsetha może zmodyfikować narratologię i uczynić ją bardziej użyteczną podczas analizy dzieł ergodycznych – włączając w to utwory cyfrowe [90].

Do podobnych wniosków doszedł Lev Manovich w swojej przełomowej książce The Language of New Media [91]. Chociaż argumenty Manovicha dotyczą przede wszystkim sztuki filmowej, jego „pięć zasad obowiązujących w nowych mediach” pomogło ustalić, na czym polega odrębność tych form od ich drukowanych ekwiwalentów czy innych mediów elektronicznych, takich jak telewizja internetowa [92]. Pierwsze cztery zasady dotyczą kolejno: systemu binarnego stosowanego w komputerach cyfrowych (system liczbowy), programowania obiektowego (modularność i zmienność), architektur sieciowych wyposażonych w sensory i aktuatory (automatyzacja). Piątą zasadą Manovicha - najważniejszą i zarazem najbardziej kontrowersyjną w odniesieniu do literatury elektronicznej - jest „transkodowanie”, czyli proces przekształcania pojęć, objektów i założeń z „warstwy kulturowej” do „warstwy cyfrowej” [46]. Chociaż umieszczenie tych dwóch „warstw” na przeciwległych biegunach jest ogromnym uproszczeniem (warstwy te pozostają bowiem ze sobą w ciągłej interakcji), zasada transkodowania pokazuje, jak potężna stała się siła obliczeń. To dzięki niej podświadome założenia, związane z retoryką polityczną, religijną oraz innymi rytuałami, gestami czy postawami a także rozmaitymi fabułami literackimi, faktami historycznymi czy innymi nośnikami ideologii, są przekształcane w materialne operacje skomputeryzowanych urządzeń. Spostrzeżenie to jest na tyle ważne, że warto do niego powrócić w kolejnych akapitach i opisać niektóre ze sposobów badania owego zagadnienia.

Z tych pierwszych przełomowych badań wyłoniły się nowe drogi analizowania cech charakterystycznych literatury drukowanej i elektronicznej oraz omawiania podobieństw między nimi, z uwzględnieniem ich odrębności. Loss Pequeño Glazer w przywołanej wcześniej pracy Digital Poetics wykazuje, że materialność jest kluczowym aspektem nie tylko esperymentalnej literatury drukowanej, ale także innowacyjnych utworów elektronicznych. Według Galzera oraz innych badaczy, takich jak Matthew Kirschenbaum, John Cayley czy Matthew Fuller, w rozważanich na temat „tekstu” obecnego w dziełach elektronicznych, pod uwagę należy wziąć nie tylko powierzchnię ekranu, ale również warstwę kodu. Na przykład prawidłowe formatowanie strony WWW jest uwarunkowane przez język HTML, XML lub inny język znaczników. Alexander Galloway w książce Protocol pisze, że „kod jest jedynym wykonywalnym językiem” [94]. Tekst elektroniczny, w przeciwieństwie do drukowanego, nie może być wygenerowany bez użycia kodu. Dlatego też krytycy oraz badacze sztuki cyfrowej powinni zwrócić szczególną uwagę na kod źródłowy, stanowiący nieodłączną część dzieła. Jest to kwestia podkreślana przez autorów tekstów cyfrowych, którzy właśnie w kodzie umieszczają ważne informacje lub komentarze, niezbędne do zrozumienia ich dzieła.

Jerome McGann, który stał sie ważną postacią w dziedzinie literatury elektronicznej m.in. dzięki badaniom nad archiwum Dante Gabriela Rosettiego (Rosetti Archive) [95] oraz współpracy z Institute of Advanced Technology in the Humanities (IATH) na Uniwersytecie Virginia, wywraca powyższą teorię do góry nogami. W książce Radiant Textuality: Literature after the World Wide Web twierdzi on, że teksty drukowane także wykorzystują język znaczników, poprzez stosowanie akapitów, kursyw, wcięć czy znaków końca linii [96]. Taki punt widzenia wprowadza nieco zamętu, ponieważ traktuje czynności wykonywane przez czytelnika na równi z tymi generowanymi przez komputer. Należy jednak zaznaczyć, że pozwala on zjednoczyć badaczy z kręgu krytyki bibliograficznej i tekstowej dzieł drukowanych z tymi, którzy poddają analizie teksty cyfrowe. Kolejnym przedsięwzięciem, które stanowi pomost między pisaniem cyfrowych protokołów a praktykami uważnego czytania (ang. close reading) jest The Ivanhoe Game, projekt tworzony wspólnie przez Johanna Druckera 
i Jerome’a McGanna w pracowni Speculative Computing Laboratory na Uniwersytecie Virginia [97]. Projekt The Ivanhoe Game, który jest zarówno krytyką literacką, kreatywną zabawą jak i grą komputerową, zaprasza uczestników do użycia dowodów tekstowych z danego utworu literackiego w celu wyobrażenia sobie kreatywnych interpolacji oraz ekstrapolacji, wspomaganych przez interfejs komputerowy [98]. Noah Wardrip-Fruin i David Durand stosują podobną zasadę w programie Cardplay, w którym wirtualne karty do gry zostały wykorzystane do stworzenia odpowiedniego skryptu gry. Także Mark Bernstein przeprowadził pokrewne projekty o nazwach Card Shark i Thepsis. Są to systemy tworzące fabułę hipertekstową przy użyciu technik sztucznej inteligencji [99]. Tak jak w przypadku wcześniej omawianych projektów Regime Change i News Reader, Wardrip-Fruin i Durand określają swoje programy mianem „instrumentów tekstowych”, które porównują do gier komputerowych oraz instrumentów muzycznych.

Wśród badań nad materialnym wymiarem mediów cyfrowych znalazły się także takie, które obejmują kontekst kulturowy, społeczny oraz ideologiczny. Ponieważ w niniejszym artykule nie ma miejsca na prezentację wszystkich, wspomnę tylko o kilku najważniejszych. Mark Hansen - zajmujący się analizą sztuki cyfrowej - zauważa, jak istotna dla odbioru dzieła cyfrowego jest rola ucieleśnionego obserwatora. W pracach uzależnionych od obecności żywego ciała, obserwator taki stanowi element pierwszoplanowy [100]. Zupełnie inny punkt widzenia przyjmuje natomiast Friedrich A. Kittler. W swoich badaniach skupia się on na genealogicznym aspekcie technologii jako siły kształtującej samą siebie [101]. Przedmowę do książki Gramophone, Film, Typewriter Kittler rozpoczyna kontrowersyjnym stwierdzeniem, że „Media determinują nasze położenie”. Literatura elektroniczna może być według niego postrzegana jako kulturowa siła, pomagająca kształtować podmiotowość 
w czasach, w których sieciowe i programowalne media bezpośrednio wpływają na niespotykane dotąd tempo przemian kulturowych, politycznych oraz ekonomicznych. [102]. Bardzo trafnie ten aspekt literatury elektronicznej omawia Adalaide Morris. Poruszając temat poetyki nowych mediów zauważa on, że literatura elektroniczna wyraża to, co już w pewnym sensie jest nam (dobrze) znane [103]. Co więcej, pomaga nam ona dowiedzieć się więcej o znaczeniu naszej bieżącej sytuacji. Podobnie jak siedemnasto - 
i osiemnastowieczna powieść przyczyniła się do tworzenia liberalnego podmiotu humanistycznego, tak i współczesna litearatura elektroniczna jest odzwierciedleniem oraz odtworzeniem nowego rodzaju subiektywności, charakteryzującej się rozproszoną percepcją, sprawczością realizowaną w sieci (przez człowieka oraz sztuczną inteligencję) a także płynnych granic rozprzestrzenionych w rzeczywistych i wirtualnych lokalizacjach.

Literatura elektroniczna, która na dobre zadomowiła się jużw ośrodkach akademickich, jest także powiązana ze sztuką cyfrową, grami komputerowymi oraz innymi formami funkcjonującymi w sieciowych i programowalnych mediach. Splata się ona również 
z rzeczywistością interesów komercyjnych, reprezentowanych przez firmy tworzące oprogramowanie, producentów komputerowych oraz innych dostarczycieli sprzętu cyfrowego. Zasady, na jakich świat literacki powinien współpracować z komercyjnym zostały omówione przez profesora Alana Liu w książce The Laws of Cool: Knowledge Work and the Culture of Information [104]. Liu nakłania do zawarcia koalicji między obozem designerów, artystów grafików, programistów i innymi pracowników przemysłu informacji 
a przedstawicielami tradycyjnej humanistyki. Podkreśla on, że obie strony posiadają atuty niezbędne do zrozumienia złożoności interesów komercyjnych, które determinują dziś wiele aspektów codziennego życia rozwiniętych społeczeństw. Podczas gdy tradycyjne nauki humanistyczne specializują się w szerzeniu i archiwizowaniu wiedzy oraz w analizowaniu zjawisk kulturowych, biznes oferuje ekspertyzę na temat programowalnych mediów sieciowych oraz intuicyjne rozwiązania procesów cyfrowych. Literatura elektroniczna, wymagająca różnorodnych punktów widzenia - zarówno współczesnych jak i tradycyjnych - może stać się katalizatorem tego rodzaju koalicji. Dostrzeżenie tych szerszych możliwości wymaga zdefiniowania literatury elektronicznej nie tylko jako praktyki artystycznej (choć nią oczywiście jest), ale także miejsca negocjacji pomiędzy jej zwolennikami oraz ekspertami różnych dziedzin. Wśród sprzymierzeńców tego rodzaju literatury znajdują się teoretycy oraz badacze zainteresowani jej ogólnym wpływem na kulturę sieciową. Spośród ogromnej liczby opracowań, jakie pojawiły się w ostatnich latach, warto wskazać dwa, które ilustrują pewien rodzaj badań wykonywanych w dziedzinie literatury elektronicznej. Pierwsza wybrana przeze mnie publikacja - The Exploit Alexandra Galloway’a i Eugene’a Thackera – odwołuje się do Deleuzowskiego zagadnienia kontrolowanego społeczeństwa [105] oraz do tekstu Empire and Multitute autorstwa Michaela Hardta i Antonio Negriego [106]. Opierając się na powyższych źródłach, Galloway i Thacker wykazują, że materialność, siła retoryki oraz struktura sieci stanowią podstawę nowego rodzaju siły politycznej i opresji, a także umożliwiają nowe sposoby prowadzenia analizy teoretycznej oraz oporu politycznego [107]. Uzupełnieniem powyższych teorii jest książka Tactical Media Rity Raley. Raley proponuje w niej błyskotliwą analizę systematycznego przejścia od strategii do taktyki we współczesnym politycznym ruchu oporu, który jest wcielany w życie przez artystyczne gry komputerowe, sieciowe dzieła sztuki oraz instalacje artystyczne. Natomiast Adrian Mackenzie, w publikacji Cutting Code: Software as Sociality, interpretuje oprogramowanie jako kolaboratywne przedsięwzięcie społeczne oraz proces kulturowy [108]. Analizując zakres praktyk technologicznych (począwszy od systemów operacyjnych Unix do skrajnie skomplikowanego programowania) Mackenzie bada sposób, w jaki formy społeczne oraz relacje pomiędzy wymiarem subiektywnym, materialnym i władzą wiążą się z procesami tworzenia, marketingu oraz korzystania z oprogramowania.

Według Mackenziego nie sposób zrozumieć ewolucji literatury drukowanej bez uwzględnienia procesów stwarzających precedens do wprowadzenia praw autorskich, takich jak szerzenie ideologii kreatywności przez księgarzy i wydawców, którzy - wdrażając prawa autorskie – działali przede wszystkim z myślą o własnych korzyściach. Również iteratura elektroniczna dojrzewa w skomplikowanej sieci społeczno-ekonomicznej, która obejmuje zarówno oprogramowanie komercyjne, otwarte, shareware, jak i ekonomiczny 
i geopolityczny wymiar internetu. Pod uwagę należy wziąć także inne czynniki, bezpośrednio wpływające na sposób tworzenia, przechowywania, dystrybucji oraz archiwizacji literatury elektronicznej.

Konserwacja, archiwizacja i rozpowszechnianie

Literatura drukowana od wieków rozwija mechanizmy umożliwiające jej utrwalanie oraz archiwizację, nad którą czuwają m.in. bibliotekarze, archiwiści i konserwatorzy. Niestety, 
w przypadku literatury elektronicznej mechanizmy te nie zdołały się jeszcze w pełni wykształcić. Sytuację pogarsza płynna natura mediów cyfrowych. Podczas gdy książka wydrukowana na wysokiej jakości papierze może przetrwać setki lat, jej elektroniczny odpowiednik po kilku lub kilkunastu latach staje się niemożliwy do odtworzenia i tym samym nieczytelny. Problem istnieje zarówno na poziomie oprogramowania, jaki i sprzętu komputerowego. Programy komercyjne starzeją się lub odradzają w nowych wersjach, niekompatybilnych ze swoimi poprzednikami. Na rynku pojawiają się nowe systemy operacyjne i nowy hardware, który nie jest w stanie odczytać starszych dzieł literatury elektronicznej. Ograniczający się do kilku lat kanon oraz brak możliwości budowania silnej tradycji literackiej może sprawić, że literatura elektroniczna będzie postrzegana jako zjawisko efemeryczne o ograniczonej ścieżce rozwoju oraz mające niewielki wpływ na świat literacki.

Członkowie Stowarzyszenia Literatury Elektronicznej (Electronic Literature Organization) podjęli aktywną walkę z wyżej opisanym problemem i zapoczątkowali projekt Preservation, Archiving and Dissemination (PAD) na rzecz konserwacji, archiwizacji i rozpowszechaniania dzieł literatury cyfrowej. Część programu została zrealizowana w ramach zbioru Electronic Literature Collection Volume 1, współredagowanego przeze mnie oraz przez Nicka Montforta, Scotta Rettberga i Stephanie Strickland. ELC zawiera 60 najnowszych dzieł literatury elektronicznej i dla wielu z nich stanowi jedyne źródło archiwizacji. Każdy utwór opatrzony jest krótkim opisem, notatką od autorów oraz indeksem. Zbiór można pobrać ze strony ELO. Ponieważ wszystkie utwory oparte są o licencję Creative Commons, mogą być one rozpowszechnianie, pod warunkiem, że ich zawartość nie zostanie poddana modyfikacji. Kolekcjonowanie innowacyjnych, wysokiej jakości przykładów liteartury elektronicznej stanowi ważny krok w pracach nad pozyskiwaniem szerszego kręgu odbiorców oraz wprowadzaniem literatury cyfrowej do programów nauczania. Literaturoznawcy często pytali mnie jak z gąszczu utworów dostęnych w sieci wybrać te najciekawsze. Teraz wreszcie mogę odpowiedzieć na ich pytania, przynajmniej częściowo. Zakłada się bowiem, że zbiory ELC będą kompilowane co dwa lata, a każdy z nich będzie zawierał ważne dzieła dostępne w formatach zgodnych z różnymi platformami sprzętowymi.

Elementem inicjatywy PAD jest także niniejszy artykuł, który stanowi ogólny wstęp do zagadnienia literatury elektronicznej. Nadając kształt temu dynamicznemu i zróżnicowanemu środowisku artystów, pisarzy, designerów, programistów oraz krytyków – a także tworzonym i interpretowanym przez nich utworom – mam nadzieję wzbudzić zainteresowanie specjalistów, którym literatura elektroniczna nie jest obca, a którzy nie znają szerszego kontekstu tej nowej dziedziny. Napisany przeze mnie artykuł jest uzupełnieniem dwóch innych krytycznych esejów, stworzonych z myślą o inicjatywie ELO; Acid-Free Bits Nicka Montforta i Noah Wardiip-Fruina [109]oraz Born-Again Bits opublikowany przez Alana Liu, Davida Duranda, Nicka Montforta, Merrilee Proffitta, Liama R. E. Quina, Jean-Hughes Rety’ego oraz Noah Wardrip-Fruina (przypis 110). Podczas gdy celem niniejszego artykułu jest uporządkowanie (a tym samym rozpowszechnienie) zjawiska literatury elektronicznej, dwie wyżej wymienione prace skupiają się przede wszystkim na zagadnieniach jej konserwacji i archiwizacji.

Autorzy artykułu Acid-Free Bits udzielają praktycznych rad twórcom literatury elektronicznej, by pomóc im w „poszukiwaniu nowych sposobów tworzenia długoterminowych projektów, które sprawdzą się w praktyce i ułatwią im osiągnięcie celu” [3]. Zaleca się więc stosowanie otwartych, kierowanych przez społeczność systemów (przy jednoczesnym odbieganiu od systemów korporacyjnych); programowanie zgodnie z przyjętym schematem postępowania, który zakłada udostępnianie komentarzy i konsolidowanie kodu; wybór formatów składających się z czystego tekstu (zamiast formatów binarnych); oraz tworzenie dla wielu platform. Jako że literatura elektroniczna nie ma finansowej siły przebicia i nie jest w stanie nakłonić komercyjnych developerów do jej aktualizowania na kolejne platformy, stosowanie systemów otwartych, wydaje się więc zdroworozsądkowym rozwiązaniem. Formaty oparte 
o czysty tekst zawsze będą możliwe do odczytania, w przeciwieństwie do formatów binarnych, a wieloplatformowość zwiększy dostęp do dzieła. Powyższe strategiczne uwagi skupiają się na kwestiach, które mają ogromne znaczenie jeszcze przed rozpoczęciem projektu. Warto wziąć je pod uwagę zanim zainwestujemy czas i pieniądze w mechanizm, którego archiwizacja oraz ewentualna modyfikacja może okazać się zbyt kosztowna.

Propozycja zawarta w tekście Born-Again Bits wydaje się jeszcze bardziej pojemna 
i wizjonerska. Zgodnie z główną tezą przedstawioną w artykule, język XML (Extensible Markup Language; dosł. Rozszerzony Język Znaczników) będzie dominującym językiem znaczników w sieci. Wychodząc z powyższego założenia, propozycja przewiduje: stosowanie odpowiednich praktyk i narzędzi, umożliwiających przetwarzanie starszej literatury elektronicznej do formatu XML; ułatwianie tworzenia interfejsów zgodnych z formatem XML; zapewnianie odpowiednich metadanych do identyfikacji i archiwizacji utworów; rozwijanie narzędzi do łatwego przeglądania, dokonywania anotacji i wprowadzania literatury elektronicznej w szkolnictwie; oraz udostępnianie autorom aplikacji do tworzenia literatury w formatach proponowanych przez inicjatywę X-Lit. Rozmach przedsięwzięcia zapiera dech w piersiach. Nawet gdyby udało się wprowadzić w życie niewielką część proponowanych rozwiązań, przyczynek do konserwacji, archiwizacji oraz rozpowszechniania literatury elektronicznej będzie kolosalny.

Projekt „X-Literature Initiative” pokazuje, że zjawisko znane pod nazwą „literatura” tworzy zawiła sieć czynności, które dalece wykraczają poza tradycyjnie rozumiane czytanie i pisanie. Inne ważne aspekty dotyczą m.in. : technologii, mechanizmów kulturowo-ekonomicznych, zwyczajów i predyspozycji, sieci producentów i konsumentów, profesjonalnych stowarzyszeń i ich możliwości finansowania, kanonów i antologii tworzonych z myślą o promowaniu oraz ułatwianiu nauczania i uczenia się odbioru literatury elektronicznej. Wraz z przeniesieniem literatury w świat mediów cyfrowych, wszystkie wyżej wymienione czynniki ulegają procesowi transformacji. Badanie następstw związanych z przeistoczeniem się literatury - 
w związku z przejściem od drukowanej strony do cyfrowego ekranu - powinno opierać się na pracy zespołowej. Przedsięwzięcie akademickie o tak wielkiej wadze wymaga jasnego rozumowania, wizjonerskiego planowania oraz krytycznego podejścia. W ten sposób literatura elektroniczna rzuca nam wyzwanie jako badaczom, którzy powinni ponownie rozważyć definicję oraz funkcjonalność literatury jako takiej.