Mindware Technologie dialogu - Wyższa Szkoła Przedsiębiorczości

Transcription

Mindware Technologie dialogu - Wyższa Szkoła Przedsiębiorczości
Teorie mindware
Postmediacje
Wokół interfejsów
Sztuka mediów
Mindware
Technologie dialogu
pod redakcją Piotra Celińskiego
Lublin 2012
Książka powstała w ramach modułu teoretycznego projektu Mindware.
Technologie dialogu, który odbył się w Lublinie w ramach Krajowego
Programu Kulturalnego Polskiej Prezydencji 2011. Organizatorami KPKPP 2011
były Ministerstwo Kultury i Dziedzictwa Narodowego, Ministerstwo Spraw
Zagranicznych oraz Narodowy Instytut Audiowizualny. Projekt Mindware.
Technologie dialogu został zrealizowany przez Warsztaty Kultury i Miasto Lublin.
Tom ukazuje się we współpracy z Wyższą Szkołą Przedsiębiorczości
i Administracji w Lublinie.
Redaktor naukowy, koncepcja wydawnicza
Piotr Celiński
Recenzent
prof. dr hab. Andrzej Gwóźdź
Redaktor
Joanna Pikuła
Opracowanie dokumentacji modułu artystycznego projektu
Mindware. Technologie dialogu
Zbigniew Sobczuk
Projekt graficzny, projekt okładki i skład
Karol Grzywaczewski, Idalia Smyczyńska
Wydawcy
Warsztaty Kultury – Filia Centrum Kultury w Lublinie – www.warsztatykultury.pl
Wyższa Szkoła Przedsiębiorczości i Administracji w Lublinie – www.wspa.pl
© Autorzy
© Warsztaty Kultury – Filia Centrum Kultury w Lublinie
© Wyższa Szkoła Przedsiębiorczości i Administracji w Lublinie
Książka powstała we współpracy z Narodowym Instytutem Audiowizualnym
ISBN: 978-83-63145-04-0
ISBN: 978-83-60617-33-5
Druk
I - F drukarnia – www.if-drukarnia.pl
PerspektywydialogunaukiisztukiwpracachArtOrientéObjetiPaulaVanouse’a
Maciej Ożóg
Kukognitywnejprzestrzenipublicznej–strategieotwierania
Anna Nacher
Wirtualnesamobójstwojakodefinitywnyaktpolityczny
Geoff Cox
HackersGNUnited!
Johan Söderberg
Narzędziaumysłu
Paweł Frelik
Splotumysłuzoprzyrządowaniemioprogramowaniem.Eksplikacjanegatywistyczna
Roman Bromboszcz
Mediawyobrażone
Piotr Celiński
Generacje:Jakkomputerstałsięmaszynągenerującąnasząkulturę?
Peter Lunenfeld
Odmediówmechanicznychdomediówspołecznych
Peter Weibel
Wstęp
161
147
133
115
103
87
69
35
13
7
Spis treści
Layoutinfo
Oautorach
Mindware.Technologiedialogu–Lublin,październik2011.Dokumentacja
Mindware–sztukawobectechnologiicyfrowychwLublinie
Marta Ryczkowska, Zbigniew Sobczuk
HappyendmituwieżyBabel
Marcin Skrzypek
Egzoetyka:Opotrzebieposzukiwanianieantropocentrycznegoźródłamoralności
Michał Brzeziński
Społeczneiintymneinterfejsycyberkultury
Michał Derda-Nowakowski
Chwytanieruchu
Paweł Janicki
Mindware:Technologieumysłuiumysłtechnologicznywperspektywie
antropologiimediówibadańnadkomunikacją
Anna Maj
312
310
273
257
239
229
211
201
181
Teorie mindware
Postmediacje
Wokół interfejsów
Sztuka mediów
Teorie mindware
Postmediacje
Wokół interfejsów
Sztuka mediów
Wstęp
7
9
Powołujemy do życia nowe słowa i konstruujemy pojęcia, kiedy istniejące przestają wystarczać do opisu zmieniającego się świata. Działamy tak, wierząc
w sprawczą moc języka, który odpowiednie dając rzeczy słowo, stwarza rzeczywistość, porządkuje, precyzuje i poszerza naszą zdolność do jej rozumienia. Intuicją taką kierowaliśmy się, wywołując wyszyldowaną w tytule tomu kategorię
mindware. Neologizmem tym otagowali współdzieloną rzeczywistość teoretycy
mediów, animatorzy kultury, artyści pracujący z mediami oraz kuratorzy ich sztuki,
którzy współpracowali w zakresie projektu Mindware. Technologie dialogu, który
odbył się w ramach programu kulturalnego towarzyszącego polskiej prezydencji w Radzie UE w październiku 2011 roku (www.mindware.art.pl). Konotacyjnym
zadaniem taga było wskazać na elementy wspólnie doświadczanej i podobnie
rozumianej kulturowo-społecznej codzienności uwikłanej w cyfrowe media i łączące je sieci. Leksykalny eksperyment wywołał dyskursywne i materialne reakcje na różne sposoby. Najpierw został wirusowo zaimplementowany w lokalnej,
lubelskiej przestrzeni medialnej i kulturalnej, stając się intrygującą niewiadomą
dla dziennikarzy, odbiorców mediów i uczestników życia kulturalnego. Na swój
sposób zrozumieli go i zareagowali nań zaproszeni do lubelskich rezydencji artyści i animatorzy, których prace i działania zaanektowały publiczne przestrzenie
Lublina – poszerzoną i krytyczną dokumentację tych działań znajdzie czytelnik
w ostatniej części książki w formie osobnego, dopełniającego całość modułu.
Jednocześnie teoretycy medialnych zjawisk, niektórzy artyści i animatorzy potraktowali zaproponowany tag jako punkt wyjścia poszukiwań analitycznych,
których pokłosie składa się na zawartość tego tomu. Dla części z nich mindware
zabrzmiał obiecująco i świeżo, oferując eksplanacyjny potencjał do wykorzystania. Inni krytycznie odmówili mu pojęciowej precyzji i semantycznej zasadności.
W efekcie, projektując i testując pole semantyczne nowego „pojęcia w budowie” (taki tytuł nadaliśmy poprzedzającej niniejszy tom wymianie zdań toczącej
się na blogu www.mindwarepl.wordpress.com), podjęli się zadania prześwietlenia przez jego pryzmat zmian w sferze medialnej wrażliwości i refleksyjności
wraz z wynikającymi z nich kompetencjami komunikacyjnymi i społecznymi.
Mierzące się wprost z dyskursywnym potencjałem mindware wypowiedzi zdecydowaliśmy się uzupełnić o teksty, które sytuują te próby w szerszymkontekście. W odpowiedzi na mindware’owe zaproszenie swoje artykuły zgłosili także
autorzy niezwiązani bezpośrednio z lubelskim projektem, tacy jak Peter Weibel, Peter Lunenfeld, Johan Söderberg, Geoff Cox czy Paweł Frelik. W rezultacie
w strukturze tomu wypowiedzi odnoszące się bezpośrednio do tytułowej kategorii przeplatają się z tekstami, które sondują podobne techno-kulturtowe rewiry za pomocą odmiennych języków i perspektyw.
Zebrane materiały poszły, ogólnie rzecz biorąc, w dwóch dopełniających
się kierunkach. Pierwszy z nich widzi cyfrowość przez pryzmat funkcji symbolicznych i dyskursywnych, skupia się na semantyce pośredniczących w niej technologicznych form. Jest to kulturocentryczne spojrzenie na cywilizacyjne trajektorie
cyfrowych maszyn. Perspektywa druga wychodzi poza istniejące paradygmaty kulturoznawczych analiz mediów i komunikacji. Postrzega cyfrowe zdarzenia medialne jako obszar taktylny, angażujący integralnie podmiot zdolny do
poznawczego dystansu i imaginacji oraz napędzającą go bezbronną wobec
zaawansowanych technologii cielesność. Z określonych w ten sposób wektorów analizy wyłania się dualna semantyka mindware. Z jednej strony to kulturowa wartość dodana technologii cyfrowych i sieci. Znaczenie jej jest związane
z obecnymi w kulturze mitami, ideologiami, językami i relacjami, które regulują
cyfrową zmianę. Wiąże się z medialną wrażliwością komunikacyjną i jej praktykowaniem w formie sztuki, w ramach dyskursu naukowego, wielu działań i strategii
9
politycznych, społecznych i kulturowych. Z drugiej strony mindware wskazuje na
zbliżanie się cyfrowych mediów do antropicznego i biologicznego zarazem centrum zdarzeń komunikacyjnych – mózgu i cielesności. Cyfrowe maszyny sprzęgają
się z naturalnym „oprzyrządowaniem” coraz ściślej zarówno w sensie materialnym, za pomocą realizowanych na poziomie neuronalnym połączeń i nowych
perceptualnych reguł, jak i na zasadzie biotechnologicznego sprzężenia zwrotnego. Pojawia się ono wtedy, kiedy stwarzając maszyny, kopiujemy rozwiązania
naturalne, ale i w relacji odwrotnej, tj. kiedy zaczynamy postrzegać i rozumieć
siebie na kształt i podobieństwo maszyn i regulującego je kodu.
Skonstruowane w ten sposób interpretacje wytyczają strukturę książki.
W pierwszej części czytelnik znajdzie analizy świadomości i wyobraźni mediów
i Sieci, ich afiliacje z dyskursami sztuki, nauki, działalności społecznej, a także studia ich kulturowego i społecznego usytuowania. W części drugiej autorzy skupiają się natomiast na rozważaniach dotyczących poszerzania definicji komunikacji,
mediacji i interakcji w kontakcie z cyfrowymi mediami. Granica pomiędzy partiami ma charakter jedynie przybliżony, nie została oddana w postaci sztywno
wydzielonych części.
Tom przybrał także podwójny interfejs. Pierwszy z nich to klasyczna, drukowana książka, którą oferujemy czytelnikowi wraz z przypisanymi tej formule
elementami, takimi jak: tradycyjna, zamknięta organizacja tekstu, pasywne przypisy i bibliografia, autorski układ. Drugim interfejsem publikacji jest jej wersja elektroniczna. Opracowaliśmy ją według kryteriów interaktywności, personalizacji
i multimedialności w taki sposób, aby możliwe było nadanie jej indywidualnego
kształtu, wynikającego z zainteresowań samego czytelnika. W obu przypadkach
na linearny porządek tekstów nakładamy dodatkowe warstwy przygotowane na
kształt cortazarowskich ścieżek prowadzących alternatywnie przez zasoby tekstu. Wytyczyliśmy je za pomocą czterech kluczy tematycznych, które nazwaliśmy
ścieżkami teorii mindware, postmediacji, wokół interfejsów i sztuka mediów. Za sprawą tej alternatywnej nawigacji zachęcamy czytelnika do autorskiego zarządzania
całością zgromadzonego materiału jak hiper- i tradycyjnie tekstualną bazą danych. Chcemy, by w oparciu o nasze propozycje rozplanowania struktury książki
sporządził własne narracje, zadawał pytania których autorzy wprost bądź w ogóle
nie zadają, grupował i kategoryzował uzyskane na nie odpowiedzi, oznaczał wybrane moduły i linkował je w dowolny sposób. Te różne stany skupienia to oferta dla wszystkich, którzy odnajdą w opisanej tu materii i nazywającym ją języku
inspirację i zachętę do interakcji i poszukiwań kolejnych sensów i definicji mindware. W ten sposób wypuszczamy mindware’owy wirus w analogową i cyfrową
przestrzeń zaciekawieni jego dalszym, otwartym na działania wszystkich, którzy
się z nim spotkają, żywotem. Elektroniczna wersja publikacji, jak i wszystkie archiwa lubelskiego projektu, umieszczone zostały na stronie www.mindware.art.pl.
Dziękuję współtwórcom projektu Mindware. Technologie dialogu, bez
których ta publikacja nie mogłaby powstać: producentce Magdzie Kawie, kuratorom: Zbyszkowi Sobczukowi i Marcinowi Skrzypkowi oraz wydawcy Alicji
Borzęckiej-Szajner.
Piotr Celiński
10
Teorie mindware
Postmediacje
Sztuka mediów
Od mediów mechanicznych do mediów
społecznych
Peter Weibel
Artykuł jest przeredagowaną wersją tekstu Vergangene, zeitgenössische
und zukünftige Medienkunst, pierwotnie opublikowany w katalogu
REWIND/FAST FORWARD. Die Videosammlung - Neue Galerie Graz,
red. G. Holler-Schuster, Ch. Steinle, Neue Galerie Graz
am Landesmuseum Joanneum, Graz 2009, s. 22-35.
Tłumaczenie: Wieńczysław Niemirowski
13
15
Techné –Epistemé
Historyczne przesłanki powstania i promocji sztukiopartejnamaszynachi przyrządach, określanej też jako techniczna sztuka medialna, nie należą
do optymalnych. Epoki klasyczne pogardzały wręcz sztuką rzemieślniczą, techniczną. Jest to historyczne brzemię, ciążące również na medialnej sztuce współczesnej oraz jej recepcji.
W etycenikomachejskiej Arystoteles (384–322 p.n.e.), syn macedońskiego lekarza i nauczyciel Aleksandra Wielkiego, rozróżnił techné (praktyczne umiejętności, sztuka) i epistemé (poznanie naukowe, wiedza). Do różnych form wiedzy
(epistemé) należą retoryka, arytmetyka, geometria, astronomia, dialektyka, gramatyka, teoria muzyki, a więc to, co nazywamy dziś nauką. Były one przeznaczone dla wspólnoty ludzi wolnych. Sztuka i umiejętności praktyczne (techné)
były przeznaczone natomiast dla ludzi niewolnych, pracowników najemnych,
rzemieślników (technites lub banausos).
Arystoteles „puszcza wodze swej lekceważącej postawy wobec rzemiosła”. Rzemieślnik żyje w dużej mierze niczym niewolnik. Dlatego też nie ma statusu obywatela. Arystoteles nauczał, że synowie ludzi „wolnych” nie powinni
oddawać się zbytnio czynnościom użytecznym, mogącym zniżyć ich do pozycji banausos, rzemiosło jest bowiem dla duszy i rozumu ludzi wolnych utrudnieniem w praktykowaniu cnoty. Sztuki rzemieślnicze (techné) przynoszą ciału złą
kondycję i zabierają konieczny dla myślenia czaswolny. Rzeczy użyteczne winny być przedmiotem nauczania jedynie o tyle, o ile są podstawą czegośwyższego. Dorosły, wolny człowiek winien słuchać muzyki jedynie dla przyjemności,
sam nie powinien muzykować, gdyż własne wykonanie byłoby czymś rzemieślniczym (banauson) i niegodnym wolnego mężczyzny. Muszą więc istnieć ludzie,
którzy jako pracownicy najemni lub jako niewolnicy będą w stanie wykonywać
rzemiosło (względnie techné), lecz jedynie w służbie innym, by owym innym
być pomocnym w korzystaniu z przyjemności lub w wykonywaniu czynności
wyższych. Uprawianie sztuk technicznych jest więc równoważne z wykonywaniem służby niewolniczej.
Dla lepszego zrozumienia owej hierarchii form wiedzy należy przypomnieć o tym, że Arystoteles nie był żadnym przyjacielem demokracji, lecz orędownikiem panowania klasowego. Dobrą, służącą interesowi społecznemu formą
funkcjonowania państwa było dla niego panowanie jednostki (monarchia), panowanie nielicznych (arystokracja) i panowanie wielu (politea).
Zwyrodnieniami wspomnianych ustrojów są: w stosunku do królestwa
tyrania, w stosunku do arystokracji oligarchia, a w stosunku do politei
demokracja. Tyrania bowiem jest jednowładztwem dla korzyści panującej jednostki, oligarchia rządzi dla korzyści bogaczy, a demokracja dla
korzyści ubogich, żadna z nich jednak nie ma na względzie dobra ogółu
(Polityka, Księga III, rozdział V/4)1.
Przez przemieszanie rządów rozsądnej większości oraz arystokracji Arystoteles próbował zneutralizować niebezpieczeństwa czyhające ze strony obydwu
krańcowości (demokracji i oligarchii). Arystotelesowska teoria klas implikowała późniejszą organizację zmysłów i tego, co zmysłowe, podział form wiedzy.
Oddzielenie wiedzy (epistemé) od sztuki (techné) odbijało podział na ludzi wolnych i niewolników. Arystoteles stworzył więc współmierność porządku estetycznego i społecznego. Hierarchia społeczeństwa klasowego służyła
1
Arystoteles, Polityka, przekł. i oprac. L. Piotrowicz, Wrocław 2005, s. 115.
15
jako podstawa hierarchii sztuk i nauk. Nauki (epistemé), od arytmetyki po retorykę, były przeznaczone dla ludzi wolnych. Sztuki (techné), od architektury przez
agrykulturę po malarstwo i rzeźbiarstwo, dla ludzi bez tego statusu. Sztuki są
więc odbiciem społeczeństwa klasowego.
Artesliberales –Artesmechanicae
Rzymianie odwołali się do poczynionego przez Arystotelesa rozróżnienia, dokonali jednak przy tym istotnego przesunięcia. Nie robili już różnicy pomiędzy formami wiedzy a umiejętności, pomiędzy poznaniema znajomością
rzeczy, pomiędzy ekspertem a ignorantem, lecz przenieśli arystotelesowskie rozróżnienie do samego pojęcia sztuka. Sztuką stało się wszystko. W miejsce rozróżnienia na epistemé i techné nastąpiło rozróżnienie na artes liberalesi artes
mechanicae. Formy wiedzy, od arytmetyki po retorykę, zamieniły się w artes liberales; formy umiejętności, od architektury po agrykulturę, w artes mechanicae.
Współmierność porządku estetycznego i społecznego nadal tworzyła podstawę hierarchii sztuk oraz rzemieślniczychzdolności. Nauki czasów obecnych
funkcjonowały w tamtejszej dobie jako artes liberales. Sztuki w rozumieniu dzisiejszym nie wykraczały poza horyzont techné.
Studiowanie artes liberales stanowiło u Rzymian treść nienastawionego
na zysk wyższego wykształcenia, przystającego wolnemu obywatelowi. Dlatego mówi się o „sztukach wyzwolonych” dla wolnego obywatela. Siedem sztuk
wyzwolonych (gramatyka, dialektyka, retoryka, arytmetyka, geometria, teoria
muzyki, astronomia) było również przedmiotem nauczania w szkołach klasztornych, a od XIII wieku na uniwersytetach. Artes mechanicae (architektura, malarstwo, rzeźbiarstwo, agrykultura) ciągle były szkalowane jako banausoi technai lub
artes vulgares et sordidae, będące domeną ludzi niewolnych, pracowników najemnych i niewolników. Sztuka w rozumieniu dzisiejszym nadal była służbą niewolniczą, pracą najemną, produktem zleceniodawców z kręgów kościoła lub
kręgów szlacheckich.
Wszystkie sztuki w rozumieniu dzisiejszym były sztukami mechanicznymi, technicznymi, sztuką użytkową.
Rywalizacjasztuk
Malarstwo, architektura i rzeźbiarstwo awansowały do miana sztuk wyzwolonych dopiero w toku awansu mieszczaństwa. Do emancypacji sztuk
plastycznych, ówczesnych artes mechanicae, przyczyniły się około roku 1500
w równym stopniu architektura, rzeźba oraz malarstwo. Pojęcie paragone oznacza w historii sztuki „rywalizację sztuk”, do jakiej doszło w czasach nowożytnych.
Wkrótce rozpoczęła się dyskusja o hierarchii sztuk, w której toku doszło do bezpośredniej rywalizacji malarstwa i rzeźbiarstwa. Zainicjował ją Leonardo da Vinci,
który w swoich pismach opowiedział się jednoznacznie za malarstwem. Podczas
gdy malarstwo po stronie swoich zalet wymieniało właściwości iluzjonistyczne,
inwencję i możliwości naśladowania natury przez środki perspektywiczne i kolorystyczne, rzeźbiarstwo odwoływało się do swej wielowymiarowości, jakości
dotykowych oraz materialności. Twierdzono, że malarstwo jest czystym pozorem, natomiast rzeźbiarstwo miało uosabiać byt. Precyzyjnie sformułował to
rzeźbiarz Turbolo w liście do Benedetta Varchi: „A me mi pare la scultura sia la
casa proprio, la pittura sia la bugia” (Wydaje mi się, że rzeźba jest rzeczywistym
bytem, malarstwo – kłamstwem). Malarstwo zaś pokpiwało z rzeźbiarstwa jako
fachu rzemieślniczego, kojarzącego się z kurzem, niemogącego wspiąć się na intelektualne wyżyny malarstwa. Malarze lżyli rzeźbiarzy, sięgając po stary argument przypisywania ich fachowi charakteru rzemiosła.
17
16
Za artes liberales (niegdyś były to nauki) uważa się obecnie malarstwo,
rzeźbiarstwo, architekturę, miejsce byłych artes mechanicae zajęły w dobie dzisiejszej sztukastosowana i sztuka mediów. Sztuki wolnych obywateli składały
się niegdyś z teorii i nauki. Sztuki „mechaniczne”, rzemieślnicze były natomiast
sztukami wykonywanymi przez niewolnych pracowników najemnych i niewolników. Ów estetyczny podział, odpowiadający greckiemu podziałowi na klasy społeczne, znajduje dziś swe odbicie w ocenie „sztuk” i „sztuk medialnych”.
Znaczenie sztuki medialnej umniejsza się, przypisując jej cechę reproduktywnościi sprzężeniez aparaturątechniczną, prymat przyznaje się natomiast
malarstwu jako dziedzinie produktywnej.
Niskim notowaniem cieszyło się niegdyś rzemiosło, wytwórczość, podobną rangę ma dziś to, co automatyczne, maszynowe. Miejsce sztuk mechanicznych zajęły media. Za pozorną autonomią artefaktu, wytworu sztuki
będącego dziełem człowieka i maszyny, nie dostrzega się obecnie dokonania
umysłowego. Różnica pomiędzy artes liberales (niegdyś epistemé) a artes mechanicae (niegdyś techné) opierała się w zasadzie na założeniu, że te pierwsze są czynnością umysłową, a te drugie fizyczną. Dziś natomiast podział jest
następujący: intuicja i ręka artysty versus cyfrowy rozum i mechaniczna produkcja. Miejsce pogardy dla tego, co rzemieślnicze, zajęła pogarda tego, co
maszynowe i medialne.
Malarstwu jako produkcji wychodzącej z ludzkiej ręki, sterowanej artystyczną intuicją, przyznaje się pierwszeństwo przed dziełami sztuki, produkowanymi lub reprodukowanymi technicznie. Oryginalne dzieła malarskie przeszły
na służbę klas wyższych. Klasy niższe są zbywane reprodukcjami fotograficznymi, dziełami produkowanymi seryjnie, kartami pocztowymi itd. z kopiami
słynnych dzieł. Odrzucenie, jakiego doświadczały artes mechanicae, stało się
dziś udziałem dzieł sztuki wytwarzanych za pomocą mediów elektronicznych.
Gdy sięgnie się po współczesne książki, traktujące o historii sztuki, nadal
jeszcze dostrzeże się lekceważenie sztuk medialnych, które do dziś nie mogą
w pełni pozbyć się piętna niegdysiejszej profesji ludzi niewolnych i przynależenia do sfery sztuk mechanicznych.
Ponieważ podział estetyczny odbijał podział na klasy społeczne, zniesienie hierarchii estetycznej mogło dojść do skutku jedynie w kontekście zniesienia
hierarchii klasowej. Prowadzące do autonomii sztuki (sztuka bez zamówienia), następujące w XIX wieku uwolnienie sztuk od zleceniodawców oraz cała retoryka
wolnościowa moderny (od uwolnionego koloru aż po uwolnioną powierzchnię)
da się zrozumieć jedynie w kontekście walk klasowych XIX wieku.
Uwolnienie tzw. warstw niższych można odczytać w samych procesach
transformacji sztuk. Swą emancypację warstwy niższe zawdzięczają jednak sztukom w stopniu mniejszym niż naukom przyrodniczym oraz duchowi oświecenia,
które uwolnić chciały ludzi z okowów socjalnej przemocy, z kajdan niesamodzielności, wykutych przez szlachtę i kościół, z poddaństwa wobec sił przyrody. Nauki przyrodnicze sprzymierzyły się ze sztukami mechanicznymi (techné),
by za pomocą instrumentów, narzędzi, laboratoriów, rzemieślniczych zdolności,
wiedzy i ekspertyz odkryć prawa przyrody i przyspieszyć poznawanie mechanizmów opanowywania owej przyrody. Po części sztuki opierały się oświeceniu
(np. w romantyzmie), po części sprzymierzały się z nim, aby polepszyć przez to
condition humaine. Podobną sytuację przeżywa się i dziś. Rozszerzenie i przyspieszenie rozwoju sfer wiedzy nastąpić winno przez ponowne sprzymierzenie
sztuk medialnych z naukami przyrodniczymi. Na tej drodze, dzięki pomocy nowych technologii i procesów, będą mogły zostać stworzone platformy i praktyki procesów demokratycznych.
17
Naukizawartew Encyklopedii
W latach 1751–1780 Denis Diderot oraz Jean-Baptiste le Rond d’Alembert
wydali 35 tomów Encyclopédie, ou Dictionnaire raisonné des sciences, des arts et des
métiers, co było najbardziej znaczącym publicystycznym przedsięwzięciem francuskiego oświecenia, „wstępnym rozdziałem rewolucji” (Robespierre). Już po ukazaniu się siódmego tomu Encyklopedia została oficjalnie wyklęta przez papieża
Klemensa XIII. Tworzący awangardę francuskiego oświecenia Voltaire, Rousseau,
Concordet i Montesquieu przez swe artykuły sprawili, że ostrze Encyklopedii kierowało się przeciw klerykalizmowi i absolutyzmowi, a ona sama mogła stanowić
rdzeń ideowy przyszłej rewolucji demokratycznej.
W roku 1751, w październiku, d’Alembert (1717–1783) napisał Discours préliminaire de l’Encyclopédie, korzystając przy tym ze spuścizny ideowej, jaką pozostawili Bacon, Newton i Locke. Matematyka i fizyka były dla niego bazą wszelkiej
wiedzy, także wiedzy o społeczeństwie. Podstawą tworzenia modeli funkcjonowania wspólnoty nie były ani religia, ani organizmy biologiczne – budując
modele sfery polityki i sztuki d’Alembert sięgał po zdobycze rozumu oraz nauk
przyrodniczych.
Encyklopedia była przede wszystkim zasługą Diderota, który główny akcent położył na arts mécaniciens, rzemiosło oraz technologię jako langue des arts.
Większą część Encyklopedii zajmują napisane przez Diderota teksty o sztukach
mechanicznych. Pisarz zmierzał do stworzenia logicznego systemu sztuk mechanicznych i żądał integracji sztuk mechanicznych ze sztukami wyzwolonymi oraz
naukami. Pragnieniem Diderota było zniesienie podziału na artes liberales i artes
mechanicae jako zjawiska związanego ze społeczeństwem klasowym oraz doprowadzenie do zmian społecznych przez emancypację sztuk mechanicznych.
Przez ulepszenie sztuk chciał polepszyć status społeczny obywateli. Zdaniem
Diderota tworzenie różnicy pomiędzy sztukami mechanicznymi a wyzwolonymi przyniosło degradację człowieka. Opowiadał się on za rozszerzeniem kręgu
uczestników, za szeroką dystrybucją wiedzy oraz za rozwojem narzędzi i maszyn, modeli i instrumentów w interesie postępu. Zmiany i polepszenie życia
społecznego obiecywał sobie przede wszystkim po szerszym krzewieniu znajomości sztuk mechanicznych. Liczył na to, że technologia okaże się pomocna
przy budowie nowej struktury społecznej. Istotnego wkładu w powstanie wolnego społeczeństwa nie oczekiwał więc od malarstwa i rzeźbiarstwa, lecz od
sztuk mechanicznych. Zakładał, że znajomość sztuk mechanicznych doprowadzi do powstania racjonalnego i sprawiedliwego społeczeństwa, tak jak obiecujemy to sobie w dobie dzisiejszej po sztukach i technologiach medialnych, np.
Internecie. Eksperymentalna polityka i eksperymentalna sztuka medialna winny się wzajemnie wspierać. U Diderota i w programie oświecenia można odkryć
zainteresowanie integracją oddzielonych od siebie reprezentacyjnych pól nauki,
sztuki (sztuki mechaniczne) i polityki. Diderot oraz współcześni myśliciele uznawali sztuki mechaniczne, technikę i naukę za bazę oświeconej polityki, będącej
drogą do wyemancypowanego demokratycznego społeczeństwa. Emancypacja sztuk mechanicznych stanowiła warunek do emancypacji ludzi niewolnych.
Równouprawnieniemateriałówi mediów
W latach 20. XX w. powstała (szczególnie w Rosji wokół Władimira Tatlina) „kultura materiałów”. Aplikację z części drewnianych i papierowych, znaną
z kubistycznych obrazów Braque’a i Picassa, Tatlin połączył z materiałową tradycją rosyjskiej ikony. Także Kurt Schwitters i Bauhaus rozszerzyli malarstwo nie
tylko o język form abstrakcji, lecz także o nowe materiały. W manifestach o nowej sztuce materiałowej (echo artes machanicae) pojawiły się stosowne żądania
19
18
równości wszystkich materiałów. Dlatego najznamienitsi przedstawiciele awangardy lat 20. XX w. pracowali jednocześnie jako malarze, rzeźbiarze, fotografowie, filmowcy, wzornicy, architekci. Rozwinęli oni język wizualny, który można
było stosować uniwersalnie, na płaszczyźnie i w przestrzeni. Przygotowali tym
samym grunt pod zakończenie rywalizacji sztuk, co dało początek równouprawnieniu wszystkich artystycznych gatunków i mediów.
W pierwszej fazie rozwoju sztuki medialnej chodziło więc o to, aby media, fotografia i film, uzyskały uznanie artystyczne równe temu, jakim cieszyły
się media tradycyjne – malarstwo i rzeźba. W fazie tej pracowano w szczególności nad stworzeniem specyficznych osobnych światów poszczególnych mediów. Uznanie za artystyczne medium wywalczyła z pewnością – 150 lat po jej
wynalezieniu – fotografia. Podobny wynik osiągnęły w tej rywalizacji sztuk również nowe media – wideo i sztuka cyfrowa: na wielkich międzynarodowych wystawach dzieła medialne wywołują zainteresowanie większe niż kiedykolwiek
w przeszłości. Przynajmniej prowizorycznie można więc mówić o równouprawnieniu wszystkich mediów i gatunków.
Poniżej pokrótce naszkicowano niektóre fazy rozwoju sztuki medialnej
w kontekście rozwoju sztuki nowoczesnej.
Materiałi maszynaw modernie
Rozwój sztuki nowoczesnej jest nierozerwalnie związany z ideą osobnego świata materiału. Wpierw, na początku XIX wieku, odkryto własną wartość
i autonomię koloru. Uwolnienie koloru od jego reprezentatywnej funkcji, tzn.
koloru lokalnego, oddającego zgodnie z rzeczywistością kolor świata przedmiotowego, doprowadziło do uwolnienia formy od jej zobowiązania do oddawania rzeczywistości oraz do powstania koloru absolutnego. Autonomiczny kolor
i autonomiczna forma doprowadziły do wyparcia przedmiotu z malarstwa i tym
samym do abstrakcji. Po uznaniu własnej wartości formy i koloru oraz ich niezależności od świata przedmiotowego doszło do uznania własnej wartości światła, płaszczyzny obrazu, gestu itd. W przyszłości wystarczać miało przedstawienie
samego koloru, prezentacja koloru jako koloru aż po monochromię (Rodczenko, 1921); wystarczyła prezentacja samego płótna (Fontana); wystarczyło odtworzenie oraz ślady gestu (informel). Ów łańcuch wartości własnych oraz deklaracji
niezależności od koloru, formy, płaszczyzny, gestu złożył się na podstawę zwrotu sztuki ku jej autonomii.
Świat maszyn rewolucji przemysłowej zademonstrował autonomiczny
status aparatów, zanim podobne zjawisko nastąpiło w sztuce. Nie tylko ludzie,
lecz także maszyny potrafiły działać i być relatywnie autonomiczne. Automat
oznacza wszak samodzielną maszynę (od greckiego auton – samodzielny). Już
aparat fotograficzny z roku 1839 był pierwszą samodzielną maszyną, wytwarzającą obrazy. Sztuka maszynowa, względnie sztuka wspierana przez maszyny,
była więc powiązana od samego początku z pojęciem autonomia, wnosząc to
pojęcie do dyskursu o sztuce. Także typowe dla moderny bazowanie na metodzie naukowej, „która współgra z naszą epoką” (Pissarro, 1887), przy definiowaniu sztuki było efektem wpływu rewolucji przemysłowej.
Obraz techniczny powstał, jak wiadomo, jako produkt wspieranej maszynowo fotografii (1839). Mniej więcej w tej samej epoce nastąpiło wspierane
maszynowo przekazywanie obrazu na długi dystans (telegrafia) na podstawie
zasady skanowania, rozłożenia dwuwymiarowego obrazu w linearne następstwo punktów w czasie. Oddzielenie posłańca od niesionej przez niego wieści,
do czego doszło w epoce elektromagnetycznej (1873 Maxwell, 1887 Hertz, 1896
Marconi), umożliwiające bezcielesne i bezmaterialne podróże znaków w kulturze
19
telematycznej, doprowadziło do zniknięcia przestrzeni i czasu. Telefon, telekopia,
„elektroniczny teleskop” (system TV P. Nipkowa, 1884) są systemami przenoszenia dźwięku oraz statycznego i ruchomego obrazu. Po wspieranym maszynowo wytwarzaniu obrazu nastąpiło więc wspierane maszynowo przenoszenie
i odbiór obrazu.
Po zniknięciu rzeczywistości (przestrzeń i czas w swej historycznej formie, tzn. ciałocentryczne doświadczenie przestrzeni i czasu) nastąpiła symulacja
rzeczywistości (maszynocentryczne doświadczenie przestrzeni i czasu). Po fotograficznej analizie ruchu nastąpiła kinematograficzna synteza ruchu. Poruszane
maszynowo obrazy, film, iluzja ruchomego obrazu, tworzą trzeci etap obrazów
technicznych. Odkrycie elektronu i lampy oscyloskopowej (1897) stworzyło podstawy do zastąpienia mechanicznego wytwarzania i przenoszenia obrazów
przez system elektroniczny. Magnetyczna rejestracja sygnałów obrazowych
(w miejsce sygnałów dźwiękowych jak dotychczas) przez magnetowid (1951) doprowadziła przez zmiksowanie magazynowania i transmisji obrazu (film i telewizja) do powstania nowego medium: wideo. Czwarty etap zwiększył możliwość
(maszynowej) manipulacji obrazu. Piąty etap, w którym pojawił się obraz cyfrowy, wytworzony w pełni przez maszynę, przewidywalny obraz komputerowy,
łączy w sobie nie tylko właściwości wszystkich czterech poprzednich etapów
funkcjonowania obrazów technicznych, lecz wykazuje również fundamentalnie
nowe właściwości: wirtualność, wiabilność, zmienność i interaktywność. Wirtualność zapisu informacji umożliwia zmienność treści obrazów w czasie rzeczywistym. Obraz staje się dynamicznym, zmienialnym w każdej chwili systemem
zmiennych. Dzięki swej ogromnej prędkości komputery mogą symulować nie
tylko sztuczne rzeczywistości w czasie rzeczywistym i emulować nowe światy,
lecz także rozmywać granicę pomiędzy rzeczywistością a symulacją. Owa graniczna przestrzeń, „prawie rzeczywistość” teleobecności i teleegzystencji nosi
miano wirtualnej rzeczywistości (cyberspace). Na ową wirtualną przestrzeń obserwator ma wpływ i może po niej kroczyć, zmieniając i deformując ją. Obserwator porusza obraz, a obraz reaguje na jego ruchy (interaktywność). Zmienne
zachowanie się obrazu prowadzi do wiabilności systemu obrazów, do pokrewnego życiu (wiabilnego) zachowania obrazu. Systemy i organizmy, reagujące
na wprowadzanie danych z otoczenia, nazywamy systemami żyjącymi. Interaktywnie ożywiony obraz jest być może najradykalniejszą transformacją europejskiego pojęcia obraz.
Szóstym etapem jest globalna sieć komputerowa, dostępna przez telefon i modem, umożliwiająca wymianę informacji akustycznej i wizualnej w skali globalnej. Telematyczna zdyslokowana komunikacja w czasie rzeczywistym
umożliwia nie tylko nowe formy pracy (teleworking) w mieście cyfrowym (Telepolis, Florian Rötzer), lecz także nowe formy artystycznej interakcji, trudne dziś
do wyobrażenia.
Przez techniczne pojęcie obraz w zasadniczy sposób zostało zmienione
pojęcie wizualność, a w następstwie tego także pojęcie sztuka. Techniczne media jako media sztuki są z jednej strony punktem wyjścia i punktem końcowym
dialektyki autoreferencji i autonomii moderny, lecz z powodu ich maszynowej
kontekstualności oznaczają zarazem jej kasację. Artystyczne rozumienie obrazu,
kojarzone z farbąolejnąi płótnem, zostało poszerzone o nowe, przenoszące
obraz media. Obraz i idea obrazu przeniosły się z płótna na ekran. W modernie
rozszerzył się tym samym horyzont obrazu, od sztuk plastycznych ku kulturze
wizualnej. Kultura wizualna obejmuje obrazy malarskie, lecz także obrazywytworzoneprzezmaszynyi media, od fotografii po film, od telewizji po wideo,
od komputera po Internet.
21
20
Antyiluzja:sztukamedialnaw latach60.i 70.XXwieku
Prymat osobnego świata materiału skutkował z jednej strony owego materiału analizą, a z drugiej – w sztuce bazującej na maszynach i mediach – analizą
osobnego świata aparatów. Obok samorefleksyjnego malarstwa i rzeźby pojawiła się samorefleksyjna sztuka medialna (fotografia, film, wideo).
W Whitney Museum of American Art zorganizowano w 1969 r. wystawę
pod znamiennym tytułem „Anti-Illusion: Procedures/Materials“. Autorami wystawianych prac byli Andre, Asher, Benglis, Morris, Nauman, Reich, Ryman, Serra,
Snow, Sonnier, Tuttle i inni. Wystawa ta była syntezą ważnej analitycznej, samoreferencyjnej tendencji neoawangardy, przede wszystkim jednak awangardy
medialnej (fotografia, film i wideo). Pod naciskiem samorefleksji w sztuce materiałowej i medialnej w latach 60. XX w. doszło do zmiany paradygmatu od iluzji
ku antyiluzji. Wszystkie zdobycze awangardy lat 50. i 60. XX w. miały odniesienie
do rozwoju charakteru materiałowego, cech danego medium i jego dyspozytywów względnie aparatur.
Osobny świat materiału stworzył kanon, wypływały z niego dyrektywy dla
rozwoju procesów. Procesy materiałowe (niezależnie od tego, czy był to ołów, filc,
tłuszcz, farba olejna, woda, lód, powietrze, ogień, ziemia itp.) tworzyły w przypadku obrazów lub rzeźb punkt wyjścia ich kształtu lub bezkształtowości. Owe
procesy zastępowały dzieło sztuki jako produkt albo przynajmniej warunkowały powstanie owego produktu. Możliwości i opcje materiału sondowali artyści
różnych dziedzin sztuki (muzyka awangardowa, fluxus, happening, sztuka akcyjna, body art, arte povera, land art, process art, sztuka konceptualna). Artyści swoje efemeryczne dzieła tworzyli, sięgając po fortepian, światło, farbę olejną, tekst
itd. Materiałowa obsesja szła w parze z odrzuceniem odwzorowywania i reprezentacji, i w ogólności była nacechowana gestem oświecenia i antyiluzji. Uwarunkowania i materialność filmu znalazły szczególne uwzględnienie w filmie
awangardowym. W szczególności dotyczyło to warunków odbioru, projekcji,
uwarunkowań sali kinowej, celuloidu itd. Rozwinęły się z tego „structural film”,
„material film” i „expanded cinema” (Hollis Frampton, Tony Conrad, Paul Sharits,
Steina i Woody Vasulka, Birgit i Wilhelm Hein, Michael Snow, Peter Gidal, Ernst
Schmidt jr, Peter Weibel itd.). Film awangardowy i sztuka medialna były w pewnym stopniu ostrzem oszczepu owej awangardy antyiluzji, jeszcze zanim zaistniała ona w klasycznych formach sztuki: malarstwie i rzeźbie.
W latach 60. XX w. powstał przedział pomiędzy epoką i praktyką iluzji,
sztuki moderny a epoką i praktyką antyiluzji, moderny właściwej. W świadomości publiczności sztuka antyiluzji zakończyła się w latach 70. XX w., gdyż lata 80.
XX w. były opanowane przez malarstwo iluzji. Pod naciskiem środków masowego przekazu, które stały się centralnym miejscem wytwarzania iluzji, awangarda
zaczęła tym usilniej faworyzować destrukcję, dekonstrukcję i antyiluzję, wyjście
z obrazu. Wraz z nawrotem ku malarstwu figuratywnemu i ekspresyjnemu nastąpił powrót iluzji do królestwa sztuki. Zostało to w sposób oczywisty, choć zadziwiający, nagrodzone. Mass media nie szczędziły aplauzów, poświęcając temu
fenomenowi aż nader dużo uwagi. Media bulwarowe i ilustrowane dziękowały
sztuce za to, że w teatrze iluzji nie były już jedynym graczem, że graczami stali
się na tej scenie także artyści.
Wulgarne mass media szczególną wdzięczność okazywały artystom niedysponującym własną inwencją, którzy przy (maszynowej) produkcji obrazów
czerpali ze środków masowego przekazu, przyswajając sobie od nich (jak np.
Andy Warhol) wulgarne obrazy. Obraz z gazety codziennej, mającej nader krótki żywot, był przenoszony do malarstwa, mediumnieśmiertelnego, co podnosiło mass media do rangi mediów artystycznych. W ramach wdzięczności środki
21
masowego przekazu wyniosły owych artystów do rangi najważniejszych i najlepszych. Do siły mass mediów przyłączyły się także muzea. Rozwój sztuki XXwiecznej da się więc ogarnąć nie tylko modelem binarnych opozycji figuratywny
i abstrakcyjny, materialny i niematerialny, reprezentatywny i niereprezentatywny,
lecz również binarną opozycją iluzja – antyiluzja, przy czym awangarda zdefiniowała siebie jako antyiluzyjną. Samorefleksyjna, analityczna, krytyczna wobec
mediów (zarówno medium własnego, jak i mass mediów) była przede wszystkim sztuka medialna lat 60. i 70. XX w. Manifestowała ona także krytyczne nastawienie do sztuki oraz do procesów społecznych.
Aluzjai scenariusz:sztukamedialnaw latach90.XXwieku
Gorzkie doświadczenia, jakich doznała sztuka medialna w latach 60. i 70.
XX w. (film awangardowy i sztuka wideo), wpłynęły w istotny sposób na powstanie mentalności, przenikniętej antyiluzyjnością i krytyką społeczną. Młoda generacja artystów medialnych, działających w latach 90. XX w., wyciągnęła wnioski
z faktu, że przez nawrót sztuki malarskiej ku iluzji sztuka medialna została odsunięta na bok, zmarginalizowana, a po części wręcz wyrugowana. Generacja ta nie
odwoływała się do antyiluzyjnej tradycji awangardy medialnej, gdyż dopatrywała się w tym przyczyn jej porażki. Odniesieniem stał się główny nurt przemysłu
iluzyjnego, na przykład hollywoodzkie filmy czy klipy wideo. Artyści przyswajali je, względnie poddawali dekonstrukcji, sięgając przy tym po metody spowolnienia, przyspieszenia, montażu i techniki dźwiękowej, przejęte od awangardy
medialnej lat 60. i 70. XX w. Jako reprezentantów tych tendencji wymienić można Pipilotti Ristego i Douglasa Gordona.
Zwrot w stronę iluzji był właściwą przyczyną pojawienia się w sztuce medialnej lat 90. XX w. tendencji narracyjnych, triumfu oka, przechodzącego na
służbę narracji. Czerpanie z dorobku awangardy medialnej i sięganie po formy
stosowane w masowym przekazie przez przemysł rozrywkowy (od Hollywood
po MTV) był tak częsty i tak różnorodny, że nie dawało to podstaw ku temu, by
jednoznacznie umiejscawiać opisywaną tu sztukę medialną w królestwa iluzji. Właśnie przez znane z wizualnych mass mediów, filmu i telewizji (od dramatu psychologicznego po talk-show), przemieszanie praktyk narracji i iluzji oraz
praktyk antyiluzji i antynarracji w najlepszych przypadkach (przykładem są tu
Gabriel Orozco i Anri Sala) dochodziło do powstania nowej praktyki, którą określono mianem aluzji.
Generacja medialna lat 90. XX w. wychodziła z założenia, że każdy obserwator magazynuje w swojej głowie bibliotekę wizualnych doświadczeń, zasilaną z mass mediów, od filmu po plakat reklamowy. Powstające prace odnosiły
się do owego wizualnego uwarunkowania w sposób bezpośredni lub pośredni.
W dziełach tych nie było konieczności wymieniania nazwisk, gdyż obserwatorzy
wiedzieli, o kogo chodzi. Wystarczyło skąpe zasygnalizowanie toposów, miejsc,
tematów, a obserwator natychmiast wiedział, o czym była mowa.
Nawet niewyraźne, symboliczne, niepełne lub ukryte odniesienia wystarczyły, aby nadać obrazom znaczenie i sens. Pomimo braku wyraźnych akcentów treściowych historia była dla obserwatora zrozumiała. Takim uniwersum
wielorakich i wielorako kodowanych odniesień jest słynna postmoderna, od architektury po muzykę, od sztuki po film. Pulp Fiction (1994) Quentina Tarantino
jest dobitnym przykładem owych licznych odniesień do wizualnych doświadczeń kinomana. Urok owych odniesień wynika z tego, że obserwator podobnie
jak autor poruszają się we wspólnym zbiorze supozycji. Kluczowym dla estetyki
aluzji jest słowo supposé. Przyjmuje się i zakłada, że obserwator dysponuje znajomością tego czy owego.
23
22
Estetyka zakładająca istnienie pewnej wiedzy staje się centralnym dogmatem całej kultury wizualnej. W postmodernistycznym uniwersum aluzji, w odniesieniu do obserwatora, przyjmuje się, że zna wszystkie obrazy, a urok jego
reakcji wynika z relacji do tych obrazów, ze świadomego rozczarowania oczekiwań, ze świadomej paralelności i zgodności lub też ze świadomego opuszczenia
i elipsy (patrz film L’Ellipse, 1998, reż. Pierre Huyghe). Owa aluzyjna metoda pozwala na bezpieczne ominięcie Scylli i Charybdy, iluzji i antyiluzji, narracji i antynarracji. Autor może opowiadać, lecz metodami aluzji, nie wymieniając nazwisk,
używając pośrednich odniesień, nie odsłaniając tożsamości. Twórca może odwzorowywać figuracyjne i konkretne sceny, nadając im zarazem przez metodę aluzji pewien stopień abstrakcji i nierzeczywistości. Metody aluzji pozwalają
więc artyście regulować według uznania stopień narracji i antynarracji, figuracji
i abstrakcji. Możliwejestzatemtworzeniedziełbędącychupustemnajwyższychskłonnościdofantazjowania,przejawiającychwybujałąchęćprzenikaniaw gąszcznarracyjnejfabuły,w tkankęopowieści,ukazujączarazem,
żedziełotakiemaswojąstrukturęi kierujesięscenariuszem. Metody aluzji
pozwalają na stworzenie dzieł o stanie świata. Dokonali tego na przykład Gillian
Wearing, Sam Taylor-Wood, Aernout Mik, rozwijający jednocześnie antyiluzyjne
i konceptualne tendencje awangardy medialnej.
Przez wgląd we współczesną twórczość medialną można uzyskać także
wgląd we współczesny świat. Nie jest to jednak wgląd, do jakiego przyzwyczaiły
telewizja, prasa i film. W rękach współczesnych artystów medialnych mass media stają się zarówno częścią świata, jak i częścią oka i kamery, przez którą świat
jest obserwowany. Aluzyjne oko opowiada więc o mediach i o świecie. Artyści
opowiadają przez to o świecie w inny sposób, niż czynią to środki masowego
przekazu. Oferują wyprowadzający odbiorcę z równowagi wgląd w globalną
iluzję neoliberalizmu. Są to burzące duchową harmonię odbiorcy obrazy sztuki,
której wizualny alfabet wykazuje wysoki stopień kompleksowości. Kompleksowość ta jest jądrem aluzji. W antyiluzji tkwiło niebezpieczeństwo prostoty i tautologii. Niebezpieczeństwa wynikające z aluzji to kompleksowość i manieryzm,
lecz w żadnym wypadku nie jest to ucieczka przed światem bądź obserwatorem. Aluzyjna sztuka narracyjna w mediach wizualnych oznacza dalszy rozwój
i niemalże odwrót od literackiej fabuły, od literackiej strukturyzacji opowiadania.
Opowiadanie wizualne nie rozwija się tak jednotorowo jak opowiadanie
werbalne, jest bardziej złożone. Opowieść aluzyjna kieruje się scenariuszem. Można by powiedzieć, że sztuka medialna od lat 90. XX w. aż po dziś dzień opiera się
na scenariuszu (jest scripted), nie opiera się natomiast na fabule jakiejś historii.
Historia taka jest czymś innym niż scenariusz. Mówiąc o scenariuszu, mówi się
o regułach, względnie o kodach. Dziś ma się do czynienia nie tylko z ubraniami, lecz także z zaleceniami odnośnie do zachowania, nie tylko z przestarzałym
kodeksem honorowym, lecz przede wszystkim z kodami artykulacji. Właściwą
treść zdradza sposób sformułowania. Ważniejszy od treści jest sposób, w jaki coś
się powie. Treścią jest właśnie to, jak się coś powie i jakimi słowami. Wiadomości są scripted, scripted jest zachowanie. Scripted są również kampanie reklamowe, np. wybory prezydenckie.
Świat, szczególnie świat polityki, postępuje według scenariusza, według
scenariusza aluzyjnego, gdzie nie wymienia się nazwisk, gdzie odniesienia są pośrednie, gdzie nie porusza się w sposób wyraźny rzeczy najważniejszych, gdzie
informacje są ukryte, gdzie wiele rzeczy się zakłada. Scripted world w sztuce odpowiada scripted method. W każdym show moderator względnie showmaster
mówi o teleprompterze. Każdy występ jest efektem castingu lub poprzedzającego treningu, wszystko jest wyćwiczone i zgodne ze scenariuszem. Przypuszczenia
23
o oddziaływaniu zachowania oraz przekazywanego przesłania kształtują i zastępują przesłanie i zachowanie. Estetyka domniemania ma w stosowny sposób zdemaskować świat domniemania. Istota aluzyjnej sztuki medialnej polega więc na
tym, że artyście daje się możliwość rozpoznawalnego przedstawienia scenariusza świata przez scenariusz własny. W przypadku idealnym aluzyjne oko winno
uczynić widocznym scenariusz świata. W przypadku idealnym aluzyjne opowiadanie winno udaremnić powstawanie oficjalnych opowiadań świata, mówiąc
konkretniej: winno kreować prawdziwsze, głębsze opowieści o świecie. Czy jednak scripted art jest lepsza od scripted word? Czy może być lepsza?
Kondycjapostmedialna:scenariuszmediów
Do istotnych sukcesów nowych mediów technicznych (wideo i komputer)
oraz starych mediów technicznych (fotografia i film) należy nie tylko to, że zainicjowały nowe kierunki w sztuce i stworzyły nowe, bazujące na mediach środki wyrazu, lecz również fakt, że miały decydujący wpływ na media historyczne,
takie jak malarstwo i rzeźba. Tym samym nowe media tworzyły nie tylko nowy
konar na drzewie sztuki, lecz generalnie zmieniły to drzewo. Należy czynić rozróżnienie pomiędzy starymi mediami technicznymi (fotografia, film) i nowymi
mediami technicznymi (wideo, komputer) z jednej strony, a sztukami – malarstwo i rzeźba – z drugiej strony. Media historyczne dotychczas w ogóle nie były
uznawane za media, pod wpływem mediów technicznych same stały się jednak mediami, konkretnie: nietechnicznymi starymi mediami. Dzięki doświadczeniom z nowymi mediami zmienia się spojrzenie na stare media. Praktyki nowych
mediów technicznych są skalą oceny praktyk starych mediów nietechnicznych.
Można wręcz zaryzykować twierdzenie, że zasadniczy sukces nowych mediów
nie polega na tym, że rozwinęły one nowe formy i nowe możliwości sztuki, lecz
na tym, że stworzyły nowe podejście do starych mediów artystycznych i, przede
wszystkim, zachowały je przy życiu, zmuszając jednak do gruntownych przemian.
Gdy fotografia pojawiła się na przykład jako rywal w stwarzaniu obrazów,
które odtwarzały rzeczywistość zgodnie z jej percepcją (realnie fotografia obiecywała wręcz bardziej prawdziwe odbicie rzeczywistości), malarstwo zrezygnowało
po pięćdziesięcioletniej walce z przedstawiania świata przedmiotowego, koncentrując się na przedstawianiu osobnego świata malarstwa (płaszczyzna, forma,
kolor i właściwości materiałów oraz technicznych dyspozytywów, od ramy po
ekran), takiego, jakie triumfowało w pierwszej połowie XX. w., jak malarstwo abstrakcyjne. Ucieczka malarstwa ku abstrakcji była w pewnym sensie zwycięstwem
fotografii jako lepszego medium odtwarzającego. Jeżeli malarstwo w drugim
półwieczu (od pop artu do fotorealizmu) zwróciło się z powrotem ku obrazom
świata przedmiotów, to doszło do tego w ścisłym powiązaniu z fotografią. Przed
pojawieniem się fotografii malarstwo odnosiło się do świata przedmiotowego
w sposób bezpośredni. Po odkryciu fotografii natomiast malarstwo przedmiotowe zaczęło odnosić się już tylko do takiego świata przedmiotowego, jakim
przedstawiała go fotografia (a więc do fotografii przedmiotowej i figuratywnej).
Nowe impulsy wzbogaciły malarstwo nie tylko przez doświadczenia
w kontakcie z filmem i fotografią – dodatkową rolę spełniły przy tym cyfrowe programy do malowania (bezpośrednia praca z komputerem i ekranem),
w sposób znamienny przydając malarstwu nowej komputerowo-derywatywnej abstrakcji. Pod wpływem mediów technicznych zmieniła się jednak nie tylko
zachodnia sztuka malarska, lecz oczywiście również rzeźba. Dominujący wpływ
algorytmów komputerowych i programów 3D daje się rozpoznać także w architekturze. Można zatem postawić pytanie, czy efekty oddziaływania nowych
mediów na media stare (malarstwo, rzeźba, architektura) nie należy uznać za
25
24
ich większy sukces niż same wytworzone przez nie dzieła. Centralnym spiritus
movens i centralną agendą sztuki XX w. są: kryzys reprezentacji, rozkład rozumienia dzieła i zniknięcie autora. Wszystkie te fenomeny wynikają z pojawienia się nowych mediów. Zjawiska, które zaistniały w XX w., takie jak radykalny
zwrot w kulturze recepcji, eksplozja wizualności w sztuce i nauce czy pictorial
turn są bez wyjątku skutkiem pojawienia się nowych mediów.
Media doprowadziły do zmian we wszystkich dyscyplinach sztuki. Oddziaływanie mediów stało się uniwersalne. Paradygmat mediów obejmuje wszystkie
sztuki. Środki masowego przekazu umożliwiają komputerowi, aby był maszyną uniwersalną (mianem takim obdarzył swój projekt komputera Alan Turing
w tekście On Computable Numbers, 1937). Podobnie jak wielu naukowców marzy
dziś o komputerowym modelu uniwersum, o doskonałym przedstawieniu uniwersum na podstawie cyfrowych obliczeń, tak również marzeniem wielu artystów jest komputerowy obraz sztuki, mogącej być całkowicie stworzoną przez
obliczenia cyfrowe.
Obok cyfrowego myślenia, którego oddziaływanie i sukcesy objęły już
cały świat (bez maszyn liczących nie funkcjonowałyby bowiem żadne lotniska,
fabryki, dworce, centra zakupowe, szpitale i in.), pojawiają się również cyfrowe
sztuki, których celem jest również objęcie całego świata. Faktycznie oddziaływanie i sukcesy sztuk cyfrowych można obserwować dokładnie w tradycji, jaką już
powyżej opisano: w postaci zmian wszystkich praktyk i form sztuki. Komputer
może symulować nie tylko wszystkie formy i prawa uniwersum, nie tylko prawa
przyrody, lecz także prawa formy, formy i prawa świata sztuki. Kreatywność jako
taka jest programem opisowym, algorytmem. Czy to w literaturze, czy w architekturze, sztuce, muzyce dostrzega się coraz więcej wspomaganych komputerowo programów opisowych oraz instrukcji, zbiorów reguł i instrukcji postępowania
z dziełem. Oddziaływanie mediów jest uniwersalne, więc wszelka sztuka jest
obecnie sztuką postmedialną. Ponadto każda sztuka jest postmedialna nie tylko dlatego, że media są maszynami uniwersalnymi, lecz dlatego, że uniwersalna
maszyna, jaką jest komputer, posiada zdolność symulowania wszystkich mediów.
Postmedialne uwarunkowanie nie czyni jednak osobnych światów aparatów, immanentnych właściwości świata mediów, czymś zbędnym. Przeciwnie.
Specyficzność (osobny charakter) świata mediów jest wyodrębniana coraz silniej. Dopiero w świecie postmedialnym zgoła totalną staje się dyspozycyjność
specyficznych mediów (specyficznych właściwości mediów), od malarstwa po
film. Komputer może na przykład symulować i dowolniej określać ziarnistość
16-milimetrowego filmu, niż jest to możliwe w przypadku pracy z realną taśmą
filmową. Cyfrowa symulacja dźwięków fletu brzmi bardziej fletowo, niż gdyby
instrumentu używano w rzeczywistości. Mruganie pisma wskutek postrzępienia perforacji taśmy filmowej komputer może zasymulować również lepiej, niż
ma to miejsce w rzeczywistości, tak samo jak dźwięki preparowanego fortepianu. Dopiero postmedialny komputer, maszyna uniwersalna, pozwala praktycznie wyzyskać bogactwo osobliwych cech mediów.
W praktyce każda sztuka kieruje się dziś scenariuszem mediów, przepisami. Rozumienie mediów obejmuje nie tylko stare i nowe media techniczne, od
fotografii po komputer, lecz także stare media analogiczne (jak malarstwo czy
rzeźbiarstwo), które zmieniły się pod naciskiem mediów technicznych. Moc zachowuje więc twierdzenie: „W praktyce każda sztuka kieruje się dziś scenariuszem mediów”.
Sztuka mediów technicznych, sztukawspomaganaprzezaparaty, stanowi jądro medialnego doświadczenia. Doświadczenie to stało się normą wszelkiego doświadczenia estetycznego. Niebyt mediów jest więc w sztuce dzisiejszej
25
niemożliwy. Nikt przed nimi nie zdoła uciec. Poza granicami doświadczenia medialnego nie powstanie dziś żadne dzieło malarskie ani żadna rzeźba. Poza granicami doświadczenia medialnego nie może się też rozwijać fotografia. Właśnie ci
fotografowie, którzy w swej pracy stosują media cyfrowe i manipulują na ekranie
zarejestrowanymi aparatem fotograficznym obrazami, powiększają je, dostarczają
najbardziej przekonujących i zaskakujących obrazów fotograficznych, są najbardziej przekonującymi i najprawdziwszymi fotografami. Fotografia świata modeli
i miniatur jest pewnego rodzaju physical modelling, cyfrową techniką symulacyjną.
Postmedialny stan jest definiowany przez dwie fazy – równowartość i mieszanie mediów.
W fazie pierwszej chodzi o to, by osiągnąć równowartość mediów, uzyskać dla nowych mediów (fotografia, film, wideo, sztuka cyfrowa) uznanie równe
temu, jakim cieszyły się media tradycyjne – malarstwo i rzeźbiarstwo. W stadium tym, w ramach wszystkich mediów – malarstwa czy fotografii, zmierzano
ku odsłonięciu właściwych danemu medium, specyficznych, osobnych światów.
Malarstwo demonstrowało wartości właściwe dla farby, płynięcie,sączeniesię,kapanie. Fotografia demonstrowała zgodną z rzeczywistością zdolność odwzorowywania. Film – swe możliwości narracyjne, wideo – krytyczną
subwersję mass medium telewizji, sztuka cyfrowa – swą zdolność imaginacji
w sztucznych wirtualnych światach.
Faza ta, jeśli chodzi o wartość teoriopoznawczą i artystyczną, okazuje się,
mniej czy bardziej, zakończona. W powszechnym odbiorze pełne uznanie uzyskała specyfikamediów, ukonstytuował się ogólnie uznawany status teorii
krytycznejmediów. Z jednej strony wypracowano specyficzne, osobne światy danego medium, od malarstwa po wideo, z drugiej strony rozwinęła się równowartość mediów, ich artystyczna ekwiwalencja, równoważność.
W nowej, drugiej fazie w sensie artystycznym i teoriopoznawczym chodzi
o to, aby specyficzne dla mediów osobne światy zmiksować. Triumfuje wideo,
np. narracyjną fantazją filmu, używając zamiast jednego ekranu różnorodnych
projekcji, opowiadając zamiast z jednej perspektywy z wielu perspektyw jednocześnie. Dzięki nowym wielkim cyfrowym aparatom i programom graficznym fotografia wynajduje niewidziane dotąd, wirtualne sztuczne światy. Rzeźba może
być fotografią lub taśmą wideo. Fotograficznie utrwalone zdarzenie może być
rzeźbą, tekstem, obrazem. Zachowanie przedmiotu i człowieka, udokumentowane ideograficznie lub fotograficznie, może być rzeźbą. Rzeźbą może być też
język. Językiem na ekranach LED może być malarstwo, książka i rzeźba. Wideo
i instalacje komputerowe mogą być literaturą, architekturą lub rzeźbą. Fotografia i sztuka wideo, pierwotnie jedynie dwuwymiarowe, otrzymują wymiar przestrzenny i rzeźbiarski w instalacjach. W malarstwie stosuje się zarówno cyfrowe
programy graficzne, jak i fotografię, do których się ono odnosi. Programy graficzne noszą miano paint programs, gdyż odnoszą się do malarstwa.
W odniesieniu do dokumentalnej wierności wobec rzeczywistości coraz bardziej dominuje film, stając się dla krytyki mass mediów probierzem owej
wierności. W chat-roomie Sieć dostarcza dialogi i teksty dla wszystkich mediów.
Cały rezerwuar tekstów z Sieci może być zastosowany do samosterowania tekstów, do autogeneratywnego wytwarzania światów języka. Sieć może wytwarzać także autogeneratywne światy obrazów, a teksty Sieci mogą służyć jako
ramy do scenariusza dla aktorów w filmach i dla spikerów w słuchowiskach lub
dla poetów i amatorów.
Program iPod umożliwia każdemu produkcję jego programu radiowego:
podcasting zamiast broadcastingu. Videocasting umożliwia każdemu produkcję
jego programu telewizyjnego. VOIP (Voice Over Internet Protocol) i IPTV (Internet
27
26
Protocol Television) dostarczają każdemu materiałów do instalacji tekstu, dźwięku
i obrazu, w medium fotografia, w medium wideo, w medium komputer. Wyniki
mogą być prezentowane jako filmy, utwory muzyczne lub architektura. IPhone
(telefonia mobilna) jest również maszyną produkującą obraz i dźwięk. Jeżeli ktoś
fotografuje kody QR (dwuwymiarowe kody kreskowe, Quick Response Code), ma
bezpośredni dostęp do informacji (poruszające się obrazy i dźwięki) w Sieci. Fotografię, radio, film, telewizję i Internet jednoczy w sobie iPhone.
Mieszanie mediów prowadzi do nadzwyczajnie wielkich innowacji w danych mediach oraz w sztuce. Malarstwo nie ożywia się więc samo przez się, lecz
przez odniesienie do innych mediów. Wideo żyje z filmu, film żyje z literatury,
rzeźba żyje z fotografii i wideo. Wszystkie gałęzie sztuki żyją z cyfrowych technicznych innowacji. Tajnym kodem wszystkich owych form sztuki jest binarny
kod komputerów, tajną estetyką są algorytmiczne reguły i programy.
Przedstawiony stan w dzisiejszej praktyce uprawiania sztuki winno się
więc określić jako uwarunkowanie postmedialne, gdyż nie dominuje już pojedyncze medium, lecz media wpływają na siebie i warunkują się wzajemnie.
Suma wszystkich mediów tworzy jedno medium uniwersalne, które zawiera
samo siebie. Tak wygląda postmedialny stan świata medialnego w artystycznej
praktyce doby obecnej.
W efekcie końcowym prowadzi to do emancypacji obserwatora, zwiedzającego, użytkownika. W konfrontacji ze stanem postmedialnym można doświadczyć równouprawnienia laika, amatora, ignoranta, niewolnika, człowieka
niewolnego. Za sprawą user innovation względnie consumer generated content
przeżywa się narodziny sztuki demokratycznej, mogącej być udziałem każdego. Platformą owego udziału jest Sieć. W Sieci każdy może oferować swoje zdjęcia i wideo. Po raz pierwszy w historii istnieje „instytucja”, „przestrzeń”, „miejsce”,
w którym laik za pomocą sztuki medialnej może oferować innym swoje dzieła. Dotychczas był cenzurowany, a w muzeach i innych państwowych oraz prywatnych kontrolowanych strefach była wystawiana jedynie uznawana sztuka.
Obecnie jest otwarta droga dla prezentacji sztuki, której istniejące instytucje
dotychczas nie chciały uznać. Rywalizacja sztuk dobiegła końca. Przeniosła się
do płaszczyzny podstawowej, obejmując wzajemną relację teorii, nauki, praktyki, sztuki.
Re-enactmenti referencja:ekwiwalentyreprezentacjiw sztuce
współczesnej
Sztuka współczesna wyróżnia się między innymi przez to, że po tym, jak
odniesienie do świata przedmiotowego uszczupliło skalę zjawiska abstrakcji, nie
wprowadziła ona żadnej nowej przedmiotowości lecz nowe referencje – referencje do innych estetycznych, naukowych, ekonomicznych lub politycznych
systemów. Systemy te, służąc jako referencja, stają się systemami referencyjnymi. Systemy referencyjne zastępują więc rzeczywistość.
W ostatnich czasach sztuka odnosi się do systemówreferencyjnych
i przez to sama staje się systemem referencyjnym. Ogólnie można twierdzić, że
sztuka XX w. przeważnie znajduje się pod wpływem systemów referencyjnych,
przede wszystkim fotografii. Odnosząc się do starego sporu o paradygmat, można więc w tym miejscu stwierdzić, że prymarnym źródłem referencji jest medium techniczne. Malarstwo, od Richtera po Warhola, odnosi się do fotografii,
do fotografii z mass mediów lub do fotografii z książek o historii sztuki. Do fotografii odnosi się także rzeźba. Sztuka wideo doby obecnej, podobnie jak pop
art lat 60. XX w., odnosi się do referencji popularnych – filmów hollywoodzkich,
audycji informacyjnych, quiz show, reality-TV, muzyki wideo – osiągając przez
27
to duże sukcesy. Sztuki traktują siebie wzajem jako systemy referencyjne. W ten
sposób wszystkie sztuki stają się mediami. Jest to największym sukcesem sztuki
medialnej. Rzeczywistość jest postrzegana jedynie jako odbicie systemów referencyjnych, jako odbicie mediów i mediów sztuk. Przypadkiem szczególnym jest
segment powtórnego przyswajania rzeczywistości przez odtworzenie (re-enactment). Wiadomo, że rzeczywiste zdarzenia, czyny i dane w tekstach i obrazach są
przekazywane jako historia. Jeśli prezentuje się pozycję krytyczną i oświeceniową, to jest pewne, że przy owym przenoszeniu zdarzenia w reprezentację (rzeczywistości w reprezentację) utracie ulega wiele prawdy.
Historia jest opowieścią. Historia jest masą wielu, niekiedy przeczących sobie opowieści, którym kierunek nadają zainteresowania opowiadającego. Historia
jest mitem, fikcją, iluzją, symulacją, konstruktem, kłamstwem. Jeśli więc przenosi się do współczesności obrazy historii, utrwalone w fotografiach i filmach historyczne legendy, to przedstawia się tym samym kłamstwa reprezentacji jako
prawdy rzeczywistości. Przez przyswojenie w formie zdarzeń i ponowne przeniesienie do świata naturalnych zmysłów medialna fikcja staje się zmysłową rzeczywistością i autentycznością. Przekazywane treści, z ich wszelkimi ułomnościami,
stają się przez odtworzenie prawdą bezpośrednią. Współczesna sztuka medialna wierzy, że z kompleksowego świata uciec może do prostego świata narządów zmysłów. Odtwarzając teatr jako rzeczywistość (zamiast demaskować
teatr jako rzeczywistość), przedstawia ona symulację jako rzeczywistość, pozostając jednak w rzeczywistości zakładnikiem symulacji, świata mediów, nie zdając
sobie jednak z tego sprawy. Reality-TV ma swoje uzupełnienie – reality-sztukę.
Userart:przedmiot,obsługa,instrukcjaobsługi
Na początku XX w. sztuka moderny na nowo zdefiniowała referencję do
rzeczywistości, względnie reprezentację rzeczywistości. Malarstwo przecięło swoje związki z rzeczywistością świata przedmiotowego: stało się nieprzedmiotowe,
abstrakcyjne (Kazimierz Malewicz). A z drugiej strony wyparty z obrazu przedmiot
został ponownie wprowadzony do sztuki jako przedmiot realny. W malarstwie
była zakazana reprezentacja świata przedmiotowego, mile widziana była w nim
natomiast rzeczywistość świata przedmiotowego. Świat zewnętrzny przestali reprezentować także rzeźbiarze. Rzeźbą stał się sam realny przedmiot.
Gdy przedmiot był jeszcze tylko obrazem, nie pojawiało się pytanie o wartość użytkową jego odwzorowania. Używanie jedynie namalowanego przedmiotu było bowiem w rzeczywistości niemożliwe. Wraz z nastaniem używania
realnych przedmiotów w systemie sztuki pojawiło się pytanie o wartość użytkową (use). Jeżeli przedmiot codziennego użytku jest rzeźbą, to może być ona
jako taki przedmiot używana. Stwarzając swe readymades Marcel Duchamp negował możliwość ich użytkowania. Możliwości takiej nie dawał odwrócony do
góry nogami pisuar, który przez Duchampa był prezentowany jako obiekt estetyczny. Możliwość użytkowania swych przedmiotów estetycznych negowali także surrealiści, zawężając swe dzieła do funkcji czysto symbolicznej. Constantin
Brancusi przypisywał natomiast swym ręcznie wykonywanym rzeźbom aż trzy
funkcje użytkowe. Jedna rzeźba mogła być cokołem dla innej rzeźby lub taboretem do siedzenia. Natomiast taboret mógł być podestem dla rzeźby, mógł być
sam rzeźbą lub przedmiotem użytkowym. Także produktywiści skupieni wokół
Aleksandra Rodczenki około roku 1920 rozszerzyli postrzeganie rzeźby i zaczęli
produkować nadające się do używania krzesła dla klubów robotniczych.
Op art oraz kinetyka, ale także sztuka konkretna i konstruktywna, zwróciły
się pod koniec lat 50. i na początku 60. XX w. do publiczności z jasnym wezwaniem do udziału i partycypacji. Ukazały się wzywające do partycypacji manifesty.
29
28
Wraz z przedmiotami codziennego użytku w sztuce pojawiły się także
instrukcje obsługi. Bez owych instrukcji większości przedmiotów nie można bowiem używać. Instrukcja obsługi stała się dla oglądającego dzieło instrukcją postępowania, czyniąc z niego podmiot aktywny. Marcel Duchamp sporządzał na
przykład dokładne instrukcje, jak należy oglądać obraz2. Wraz z możliwością użytkowania obiektów estetycznych na planie pojawił się także „użytkownik”. Później doszło nawet do tego, że przedmiot codziennego użytku został zastąpiony
przez instrukcję obsługi (instrukcję postępowania), już od zawsze towarzyszącą
inherentnie każdemu przedmiotowi i obiektowi sztuki. Żądanie to Franz Erhard
Walther wypełnił w roku 1968 swą książką Objekte, benutzen. Użytkownik (user)
przejął w świecie sztuki rolę centralną. W pewnym sensie to on zamyka proces
powstawania dzieła sztuki. Gdyż tylko użytkownik przez kontakt z przedmiotami
sprawia, że dzieło sztuki może egzystować i być rozwijane. Wyraźnie pokazuje to
medialnie rozszerzone pojęcie rzeźby Erwina Wurma („Proszę postępować według instrukcji obsługi i pozostać w tej pozycji przez jedną minutę”)3.
Akceptację obserwatora jako podmiotu aktywnego poprzedziło jego
dowartościowanie jako podmiotu kreatywnego i rozwijającego refleksję: „Koniec końców”, stwierdził Duchamp w roku 1957, „akt kreatywny nie jest dokonywany jedynie przez artystę – widz doprowadza do kontaktu dzieła ze światem
zewnętrznym, rozszyfrowując i interpretując jego wewnętrzne kwalifikacje, co
jest jego wkładem w akt kreatywny”4. Odbiorca jest integralną częścią składową aktu kreatywnego. Widz przemienia się w artystę, konsument w producenta.
Nowamuzyka:partyturai performance
Kultura odbiorcy, względnie interpretatora, ma w muzyce znaczenie szczególne. Należy jedynie zastąpić pojęcie widz pojęciem interpretator, a pojęcie artysta przez pojęcie kompozytor: „Koniec końców akt kreatywny nie jest dokonywany
jedynie przez kompozytora – widz doprowadza do kontaktu dzieła ze światem
zewnętrznym, rozszyfrowując i interpretując jego wewnętrzne kwalifikacje, co
jest jego wkładem w akt kreatywny”. Kompozytor pisze partyturę, na przykład na
fortepian, lecz dzieło realizuje pianista, umiejący interpretować i grać partyturę.
Kompozytorzy piszą muzykę. Piszą oni instrukcję obsługi, na przykład dla fortepianu. Interpretatorzy realizują instrukcję obsługi i stwarzają muzykę. W tym sensie
Nowa Muzyka późnych lat 50. XX w. (Pierre Boulez, John Cage), która w sposób
szczególny poświęciła się partyturze i przyznawała interpretatorom dużo wolności, była obok rzeźby dalszym ważnym źródłem powstania sztuki użytkownika.
„In 1957 New Music was the Center of all Arts Movements and Germany
was the Center of the New Music”, pisał w roku 1999 Nam June Paik5. Wraz z nastaniem wolności w interpretacji partytury, nierzadko aleatorycznej lub składającej się z bezpośrednich instrukcji, w sztuce lat 50. XX w. doszło do wzmocnienia
tendencji partycypatorskich. W roku 1960 kompozytor La Monte Young napisał:
„Composition #7: draw a straight line and follow it”. We wskazówkach z roku 1962,
jakich użył Nam June Paik, znajduje się: „Read-Music – Do it yourself – Answers
to La Monte Young”: „See your right eye with your left eye”.
Przypadek i nieokreśloność, wolność interpretatora w granicach instrukcji
partytury, należały od czasów Cage’a do znaczących tematów w Nowej Muzyce.
2
3
4
5
M. Duchamp, To be looked at with one eye, close to, for almost an hour, 1918.
E. Wurm, The breaking through of an artist, 2003
M. Duchamp, The Creative Act [w:] Session on the Creative Act, Convention of the American Federation of Arts, Houston, Teksas, April 1957.
Nam June Paik – Fluxus/Video, red. W. Herzogenrath, Kunsthalle Bremen, 1999 (karta z dedykacją).
29
Paik przeniósł te techniki kompozycyjne ze świata tonów do świata obrazów.
W trakcie tego transferu miejsce muzyka zastąpiła sama publiczność jako interpretator względnie partycypant: „As the next step toward more indeterminacy, I wanted to let the audience (or congregation, in this case) act and play
itself”, pisał Paik w swoim eseju About the Exposition of Music6. Jego rzeźba wideo Participation TV (1963) pozwalała publiczności zmieniać obrazy czarno-białego telewizora przez mikrofon i wzmacniacz liniowy – dla następnych dekad
interaktywnej sztuki medialnej było to dzieło centralne. Praca Paika Random Access (1963) składała się z naklejonych na ścianę taśm magnetofonowych. Widz
lub użytkownik mógł po nich przesuwać mobilną głowicę foniczną i samodzielnie wytwarzać przy tym muzykę. Stawał się w pewnym stopniu pianistą, nawigującym po ścieżce dźwiękowej i komponującym muzykę. Sztuka medialna i jej
partycypatorskie tendencje narodziły się około roku 1960 z ducha muzyki, grunt
pod nie przygotowała sztuka konkretna i kinetyczna7. Wzywanie publiczności do
udziału w kreacji dzieła sztuki odgrywa dużą rolę także w Nouveau Réalisme. Métamatics, maszyny rysujące, których autorem był Jean Tinguely, umożliwiały publiczności w roku 1959 samodzielne wykonywanie rysunków. Na wystawie Feu à
volonté (1961) Niki de Saint Phalle zaprosił publiczność do wzięcia do ręki strzelby i strzelania do asemblaży.
Na sztukę akcji (happening, fluxus, performance i event) wpływały źródła malarskie i literackie, lecz także muzyka. To uczniowie Johna Cage’a przenieśli
na publiczność ideę partytury jako instrukcji dla interpretatora. Przy przenoszeniu zasad partycypatorskich z sztuki akustycznej na wizualną miejsce centralne
zajęła publiczność, jako aktywny podmiot dzieła sztuki.
Akcjai partycypacjapubliczności
George Brecht, artysta uprawiający fluxus, uczeń Johna Cage’a, był w roku
1959 autorem zdarzeń (events), które składały się przeważnie z binarnych instrukcji. Słynne 18 Happenings in 6 Parts (1959) Allana Kaprowa, nadające tej formie
sztuki jej nazwę, zawierają „instructions” do „a cast of participants”. Yoko Ono
swoje performance zaczęła uprawiać w 1961 roku od przygotowania instrukcji
dla publiczności. W Cut Piece (1964) wezwała publiczność do wejścia na scenę
i obcinania jej ubrań. Sztukę instrukcji obsługi przedmiotów zamieniła w sztukę instrukcji dla ludzi8. Dalszym przykładem zastąpienia w sztuceakcji obiektu
sztuki przez postępowanie i instrukcje do niego był happening YOU (1964) Wolfa Vostella w Long Island, Nowy Jork. „Podstawowa idea: skonfrontować uczestników, publiczność, w satyrze niespodzianek, jakie nieść może życie, mającej
formę próby chaosu, nie jest ważne to, co myślę ja – lecz to, co publiczność wysnuje dla siebie ze zdarzeń i mojego image” (Wolf Vostell).
Nie jest jednak tak, że dokonane w latach 60. XX w. przez Nową Muzykę, fluxus, happening, performance i Nouveau Réalisme odkrycie partycypującego widza, współgry i współtworzenia było wyłącznym dziełem tych rodzajów
sztuki. Kinetyka i op art żądały już w latach 50. XX w. udziału widza w konstrukcji dzieła sztuki. „Chcemy wzbudzić uwagę widza, uczynić go wolnym, rozluźnić.
Życzymy sobie jego uczestnictwa. Chcemy stworzyć mu sytuację, która wprawi go w ruch, pozwalając zarazem stać się owej sytuacji panem”9. Widz musiał
6
7
8
9
N.J. Paik, About the Exposition of Music, „Décollage” 1962, nr 3.
W. Herzogenrath, „Der ost-westliche Nomade”, dz. cyt., por. przyp. 5.
Por. J. Hendricks, Yoko Ono: instructions for paintings by Yoko Ono May 24, 1962, Galeria56, Budapeszt 1993.
GRAV (Groupe de Recherche d’Art Visuel: Horacio Garcia-Rossi, Julio Le Parc, François
Morellet, Francisco Sobrino, Joël Stein, Yvaral) [w:] „Stoppt die Kunst”, Manifest, 1965.
31
30
się poruszać po to, aby dostrzec złudzenia i fenomeny optyczne op artu. Kinetyczne obrazy-obiekty i rzeźby widz mógł wprawiać w ruch oraz zmieniać.
Dzieła te umożliwiły zaistnienie wczesnych form interaktywności. Powstała w środowisku op artu i kinetyki Arte Programmata (1962, Umberto Eco) podkreślała
rolę przypadku w toku ustalonego programu. Powstały zaprogramowane rzeźby i obrazy. Programy te nie były wykonywane przez komputery – po koncepcyjnym jedynie zaprogramowaniu następowała realizacja w sposób manualny
i mechaniczny. Pomimo to patrzeć na nie należy jak na istotnych prekursorów
sztuki komputerowej. Instrukcje i wskazówki różnych kierunków muzyki i sztuki
ująć się dają pod pojęciem algorytm. Algorytm jest ściśle zdefiniowaną instrukcją postępowania wraz z określonymi elementami oraz zdeterminowanym następstwem; algorytm przekazuje maszynie lub człowiekowi informację o tym,
co należy czynić. Maszyna jest sterowana przez następstwo cyfr i wykonuje program, człowiek postępuje według liter i symboli, czy będzie to przepis kulinarny, muzyczna partytura czy reguły gry. Intuicyjne algorytmy w formie instrukcji
obsługi lub instrukcji postępowania przenikają do sztuki paralelnie do rozwoju
maszyn liczących i języków komputerowych oraz ich algorytmicznych procedur.
Sztukamedialnai emancypacjapubliczności
Wraz z postępem praktyk partycypatorskich różne ruchy artystyczne
zmieniały widza w użytkownika, uczestniczącego aktywnie w konstrukcji dzieła sztuki, kształtowaniu jego formy, treści i zachowania. Ów zwrot ku odbiorcy
uległ radykalizacji przez pośrednictwo mediów zapisujących i transmitujących
(fotografia, telewizja, wideo, komputer i Internet). Fotografia jako medium demokratyczne, pozwalające wszystkim fotografować wszystkich, zdezawuowała arystokratyczne medium malarstwo i – przez to – jego kult prominencji. Od
roku 1971 Braco Dimitrijevic zaczął promować jako gwiazdę nieznajomego przechodnia (casual passer-by), którego napotykał przypadkowo w określonym czasie i miejscu. Czynił to, uwieczniając owego przechodnia na wielkim banerze
przed domem, przed którym go spotkał. W serii innych prac stawiał nieznajomym z otaczającej codzienności pomniki, nazywając ich imieniem ulice, wywieszając przed muzeami ich portrety lub prezentując ogromnymi literami na
fasadach domów ich nazwiska. Porównywalną emancypację bezimiennych jako
odtrutkę na celebrity cult kultury masowej i świata artystycznego zainscenizował
w roku 1972 Jochen Gerz. Na murach Rue Mouffetard w Paryżu rozlepił plakaty
z nazwiskami ośmiu nieznanych, mieszkających przy tej ulicy osób. Publiczność
nie tylko więc partycypowała w produkcji dzieła sztuki, lecz sama została zadeklarowana jako dzieło sztuki względnie gwiazdor10. Publiczność stała się treścią.
Podobnie rzecz się miała w wyprodukowanej przez grupę telewissen instalacji
closed circuit Der Magische Spiegel (1970), gdzie zwykli ludzie po raz pierwszy ujrzeli siebie w „telewizji” (właściwie na wideo). Technologia wideo i technologia
komputerowa sprawiły, że opcje partycypatorskie osiągnęły w latach 80. i 90.
XX w. pułap interaktywności.
Wyemancypowanykonsumentjakoartysta–
zwiedzającyjakoużytkownik(user)
W świecie sztuki już od lat 60. XX w. następowała antycypacja i przygotowanie zmiany zachowania konsumenckiego. Kreatywność artysta przekazuje
obserwatorowi, który otrzymuje również kompetencję ustalania reguł działania.
10
J. Gerz, Wystawa 8 osób, zamieszkałych przy Rue Mouffetard w Paryżu, poprzez ich nazwiska, na murach ich własnej ulicy, 1972.
31
Interaktywne dzieła sztuki nie istnieją już w sposób autonomiczny, lecz jedynie
dzięki ich używaniu przez odbiorcę (user). Z bohatera artysta zamienia się w usługodawcę, a zwiedzający z pasywnego konsumenta w gwiazdora. Przez MySpace.
com, Flickr.com, YouTube.com, ale także w światach wirtualnych jak SecondLife.com oraz na blogach, miliony ludzi wymienia obecnie każdego dnia zdjęcia,
teksty, wideo i muzykę. Dla kreatywnych wypowiedzi milionów ludzi powstaje
dysponująca nową strukturą przestrzeń. Już w roku 1970 Beuys stwierdził: „Każdy człowiek jest artystą”. Miliony ludzi znajdują codziennie w Sieci platformę do
komunikacji, kreatywności i sztuki, w oderwaniu od takich instancji, jak wydawnictwa, muzea, galerie, czasopisma, radio, telewizja i Hollywood, które tradycyjnie rozstrzygały o produkcji i dystrybucji dzieł.
Użytkownik staje się producentem, a może i artystą. Rozszerzyło się pole
aktywnych podmiotów: dzięki konsumentowi jako aktywiście demokratyzują
się kreatywność i innowacja. User innovation i consumer generated content wpływają nie tylko na świat mass mediów, lecz także na świat sztuki. Creative industries przyszłości staną się wyemancypowani konsumenci i użytkownicy (user).
Także sztuka stanie się democratized user-centered innovation system. W Internecie utworzyła się nowa, wyemancypowana generacja producentów-konsumentów. Są oni użytkownikami, którzy sami wytwarzają treści i oferty, wymieniają je
między sobą i w sposób nieskrępowany rozdzielają w Sieci.
Strategię tę sztuka użytkownika przejmuje do systemu sztuki. Odwiedzający jako użytkownicy wytwarzają treści i oferty w samym muzeum, wymieniają
je między sobą i w sposób nieskrępowany rozdzielają w Sieci. Muzeum oraz klasyczni artyści są w pewnym sensie dostawcami, dają do dyspozycji infrastrukturę. Użytkownicy, wyemancypowani konsumenci, dostarczają treści lub sami są
treścią. Użytkownicy to prosumer (pro/ducer i con/sumer).
W sztuce XX w. dominował paradygmat fotografii. Jej miejsce w XXI w.
w świecie elektronicznym i jego elektronicznych mediach zajmie paradygmat
użytkownika. Wszyscy staną się świadkami nowej kultury odbioru i konsumpcji,
rozwój jej rozpoczął się już w wieku XX. Technologie informacyjne i komunikacyjne otwierają wrota do wieku wyemancypowanego konsumenta, który będzie dominować również w świecie sztuki.
Kreatywność nie jest już monopolem artysty. Dzięki Internetowi muzeum
może rozwinąć się w niezależną od przestrzeni i czasu komunikacyjną platformę
kreatywności dla wszystkich11. Po okresie partycypatorskiej i interaktywnej sztuki medialnej to sami zwiedzający jako użytkownicy generują i zestawiają treść.
Z konsumentów zamieniają się w producentów, kształtują program, urastając na
konkurentów telewizji, radia i czasopism, historycznych mediów monopolistycznych. Zwiedzający mogą działać jako artyści, kuratorzy i producenci. Jako użytkownicy, wyemancypowani konsumenci, zajmują pozycję centralną.
11
Vom Betrachter zum Gestalter. Neue Medien in Museen – Strategien, Beispiele und Perspektiven für die Bildung, red. M. Mangold, P. Weibel, J. Woletz, Nomos, Baden Baden 2007.
33
32
Wokół interfejsów
Generacje: Jak komputer stał się maszyną
generującą naszą kulturę?
Peter Lunenfeld
Artykuł został pierwotnie opublikowany jako rozdział
książki P. Lunenfeld, The Secret War between Downloading
and Uploading. Tales of the Computer as Culture Machine,
MIT Press, 2011, s. 143-179.
Tłumaczenie: Roman Wojciechowski
35
37
Różnorodnehistorie,różnorodnemożliwości
Niewidzialna wojna tocząca się pomiędzy ściąganiem a udostępnianiem,
unimodernizmem, infotriażem, władzą i zabawą, informacjonalizmem oraz przylepnymi mediami – to kwestie związane z XXI wiekiem, mimo że mają one długą i bogatą tradycję. Zarówno sam komputer, jak i też powiązane z nim systemy
stanowią najbardziej złożone mechanizmy, jakie kiedykolwiek zostały stworzone
przez człowieka. Historia rozwoju owych technologii nie jest łatwa do opisania,
biorąc pod uwagę to, że łączy matematyczną zawiłość, inżynieryjną złożoność,
wielkie fortuny zgromadzone i utracone, a także udokumentowany ze skrupulatną dokładnością wpływ mocy komputera na przekształcanie sposobu, w jaki
żyjemy i w jaki się bawimy. Zrozumienie toku ewolucji technologii komputerowej jest jednak konieczne, aby móc odpowiednio dobrze zrozumieć problematykę, którą podejmuje niniejsza książka. Oznacza to, że aby osiągnąć obrane tu
cele, chcąc skonstruować tego rodzaju historyczną narrację, trzeba podejść do
wybranej materii w sposób bezwzględnie wybiórczy, stawiając na zrozumiałość
treści kosztem jej obszerności.
W następnych częściach niniejszego tekstu zarysuję wzloty i upadki symulacji i partycypacji w przeciągu sześciu odrębnych pokoleń komputerologicznych. Zdaję polemiczną relację toku rozwoju całej idei komputerologii, śledząc
w tym celu zjawisko, które biolog ewolucyjny Richard Dawkins określił mianem
memów, czyli samopowielających się idei będących intelektualnym odpowiednikiem genów1. Następne strony są wypełnione opowieściami o ludziach zainfekowanych przez memy zawierające ideę komputera jako maszyny niezbędnej
do produkcji kultury. Dwa z memów, które wywarły kluczowy wpływ na rozwój
idei komputera jako maszyny do produkcji kultury, to symulacja i partycypacja,
a prześledzenie procesu ich wzajemnego przenikania się, jest kluczem do skonstruowania tych historycznych narracji. Memy te powstają zazwyczaj wcześniej
od samych technologii, a osoby, które zostają nimi zainfekowane, poświęcają całe
lata na stworzenie komputerów i systemów umożliwiających wdrożenie istoty
tych idei w życie, przy czym każda kolejna generacja albo bazuje na osiągnięciach poprzedniej generacji, albo też rzuca jej wyzwanie.
Pierwszą generację określiłem mianem Patriarchów – ich głównymi przedstawicielami, w omawianym tutaj kontekście, będą Vannevar Bush oraz J.C.R.
Licklider – dwóch osobliwych wizjonerów, biurokratów i naukowców, którzy
w przeciągu okresu od wczesnych lat powojennych po wczesne lata 60. XX w.
ustanowili memy założycielskie. Druga generacja to Plutokraci – Thomas Watson Sr. i Thomas Watson Jr., pierwsi dwaj prezesi koncernu IBM, którzy w latach
50. i 60. XX w., centralizując zarządzanie działalnością swojej firmy wokół biurokratycznej hierarchii odgórnej, przekształcili technologię komputerową w propozycję biznesową. W reakcji na sztywną, formalną, zorientowaną wyłącznie na
biznes postawę Plutokratów, Aquarianie lat 60. i 70. ubiegłego wieku – ludzie tacy
jak Douglas Englebart i Alan Kay – rozwinęli te z bardziej otwartych koncepcji,
1
„Musimy nadać nazwę owemu nowemu replikatorowi, stosując rzeczownik, który oddawałby ideę przekazu kulturowego bądź opisywałby jednostkę imitującą.
Mimeme wywodzi się z greckiego słowa oznaczającego naśladownictwo, lecz ja
chciałbym użyć tu monosylabę o brzmieniu podobnym do słowa gen. Wyrażam
nadzieję, że moi, mający klasycystyczne podejście, znajomi wybaczą mi za skrócenie określenia mimeme do słowa meme. O ile może to stanowić jakiekolwiek
pocieszenie, ewentualnie można myśleć o owym słowie jako mającym związek
z pamięcią [ang. memory – przyp. tłum.] bądź z francuskim słowem même – sam.
Powinno się wymawiać je tak, aby rymowało się ze słowem krem”. R. Dawkins, The
Selfish Gene, 1976 (przedruk: Oxford University Press, 2006), s. 192.
37
które zostały zaproponowane uprzednio przez Patriarchów, tworząc na ich kanwie komputerowy paradygmat maszyn zorientowanych graficznie, spersonalizowanych, połączonych ze sobą systemem sieciowym. W latach 80. i 90. minionego
stulecia Hustlerzy – obrotni przedsiębiorcy w rodzaju Billa Gatesa z Microsoft
i Steva Jobsa z Apple – skomodyfikowali tę spersonalizowaną wizję, oznakowując komputery charakterystycznym stemplem „nowej gospodarki”. Na początku
nowego milenium, wykorzystując istniejącą już bazę użytkowników komputerowych technologii, Gospodarze [ang. Hosts – przyp. tłum.] – wynalazca internetowej Sieci World Wide Web, Tim Berners Lee, oraz guru ruchu open source,
Linus Torvalds – połączyli te rozproszone maszyny w jedną ogromną sieć, skupiając się w równych proporcjach zarówno na aspektach komunikacyjnych, jak
i na rozwiązaniach technologicznych, wznosząc partycypację na nowy poziom.
Szósta generacja, czyli pokolenie Wyszukiwaczy, którego nazwa, nie ograniczając się wyłącznie do nich, inspirowana jest w dużej mierze osobami Larry’ego
Page’a i Sergeya Brine’a, twórcami algorytmu będącego podstawowym elementem słynnej wyszukiwarki Google. Słowo Google posłużyło za nazwę korporacji, w którą przeobraziło się owo przedsięwzięcie, a następnie przyjęło się jako
czasownik [to google something, czyli wygooglować – przyp. tłum.] – udało się
nagromadzić tak olbrzymią ilość wszelkiej maści informacji, danych, treści oraz
doświadczeń, iż fakt ten sprawił, że zjawiska symulacji i partycypacji stały się
czymś wszechobecnym.
Istnieją trzy domyślne sposoby, w jakie można opowiedzieć historię rozwoju komputerologii, lecz co ciekawe, rzadko zdarza się komukolwiek połączyć
ze sobą te pozornie odrębne narracje. Jedną z nich jest historia komputerowego
postępu opisana z perspektywy technologicznej oraz naukowej, i tak na prawdę, jest ona najmniej zrozumiała i najrzadziej rozpowszechniana. Jest to opowieść o algorytmach i schematach układów scalonych, lamp elektronowych,
które przerodziły się w tranzystory, oraz laboratoriów badawczych przy takich
uniwersytetach, jak Massachusetts Institute of Technology lub Stanford, czy też
placówkach potentatów rynkowych, takich jak IBM i AT&T. Bez tego typu dokonań komputery nie mogłyby zaistnieć, ale szczegóły tych prac są technicznie
zawiłe, a osoby je wykonujące znajdują się z dala od centrum uwagi. Dokumentowanie tego rodzaju osiągnięć nosi miano technografii – zapisu toku technologicznego rozwoju tworzonego głównie na potrzeby ekspertów.
Następna opowieść to ta, którą znają niemal wszyscy. Jest to opowieść
o fortunach zyskanych i utraconych. W okresie istnienia wielkiej bańki internetowej oraz tuż po końcu giełdowego boomu na dotcomy, wręcz roiło się od
„maszyn” generujących gotowy zapis historyczny, dokumentujący przebieg tak
zwanej nowej gospodarki – czasopism, takich jak „Business 2.0” czy „Fast Company” – które relacjonowały wzloty i upadki bóstw komputerowych geeków
oraz ich „tworzenie bogactwa”. Historie takie, jak pakiet udziałów w firmę Microsoft zakupiony za dwadzieścia, a sprzedany za dwa tysiące dolarów, Bill Hewlett
i Dave Packard pracujący nad pierwszymi pomysłami w wynajętym garażu w Palo
Alto, Ross Perot rezygnujący z posady w IBM, aby móc założyć w Teksasie firmę
Computer Data Systems, Jeff Bezos otwierający internetową księgarnię, nazwaną na cześć rzeki o największym przepływie wody na świecie, a kolejno pojawiający się w roli dyrektora generalnego Amazon.com na okładce magazynu
„Time”, czy też Mark Zuckerberg przeobrażający serwis kontaktowy dla studentów pierwszego roku na Uniwersytecie Harward w Facebook, mający najbardziej
dominującą pozycję w Sieci i najwyżej wyceniany portal społecznościowy na
świecie. Przedstawione wyżej historie są w dużej mierze odpowiedzialne za przykuwanie ludzkiej uwagi do śledzenia historycznego biegu rozwoju technologii
39
38
komputerowych. Są to komputerowe dzieje opisane w formie plutografii, czyli opowieści o pieniądzach.
Istnieje następna, jak na razie skromna, lecz stale poszerzająca swój zakres
odmiana historii powyższego typu, która umiejscawia źródło przemian zachodzących w naszym świecie w działaniach wizjonerów komputerologii. Począwszy od napisanej w połowie lat 80. ubiegłego wieku książki Howarda Rheingolda
Narzędzia dla myśli, wyłoniła się alternatywna forma narracji, będąca czymś na
miarę opisu komputerowych dziejów dla intelektualistów, skonstruowana wokół takich postaci, jak niepohamowany entuzjasta hipertekstu Ted Nelson czy
Timothy Leary, guru zwolenników psychodelicznych substancji psychoaktywnych, który w późniejszych latach życia, przeobrażając się w piewcę nowych
mediów, stał się kimś w rodzaju cybermędrca2. Dla uczonych, zgłębiających tajniki poezji hipertekstowej, studentów na wydziałach nowych mediów, jak i dla
tych, dla których komputery stanowią źródło fascynacji względem ich wpływu
na kulturę, są to historie o świeckich świętych, stanowiące coś w rodzaju zsekularyzowanej hagiografii. W celu odpowiedniego zrozumienia przebiegu dziejów
rozwoju maszyny do produkcji kultury należy spleść ze sobą te trzy narracyjne
nurty w jedną historyczną ciągłość, zwracając uwagę zarówno na informatyków,
milionerów, jak i marzycieli. Fakt, że pojedyncza opowieść o jednej tylko osobie,
jednym urządzeniu czy wręcz jednej firmie łączy ze sobą te różne wątki, może
być jedynie błogosławieństwem.
Wojownicy:zarysprehistoryczny
Przed II wojną światową życie było proste. Później pojawiły się systemy.
Kontradmirał Grace Hopper, US Navy, w stanie spoczynku
Pierwsze pytanie nie powinno brzmieć: „Czym jest komputer?”, lecz raczej: „Kim jest komputer?”, ponieważ komputer był w pierwszej kolejności człowiekiem, a dopiero następnie stał się maszyną. Komputerzy byli osobami, w tym
w przeważającej większości kobietami, które kalkulowały liczby, tabulowały wyniki i drukowały listy bądź matryce z rezultatami tych obliczeń. Na przełomie XIX
i XX w. osoby takie były zatrudniane przez prywatne korporacje oraz instytucje
rządowe, a ich praca przygotowywała podłoże dla informatycznie zorientowanej,
zdefiniowanej przez precyzyjnie skalkulowane dane statystyczne i skrupulatnie
opisanej cyframi rzeczywistości, w której obecnie żyjemy. Ogromne zapotrzebowanie na informacje i dane w okresie II wojny światowej sprawiło, że ludzka
siła obliczeniowa nie była już wystarczająco wydajna do osiągnięcia celów wymaganych przez działania wojenne, w rezultacie czego stało się konieczne stworzenie nowego systemu.
Akronim C3I wykorzystuje się w wojskowości i oznacza on „dowodzenie,
kierowanie, łączność i rozpoznanie” (ang. – Command, Control, Communication,
and Intelligence). Działania wojenne, które miały miejsce w XX w., wielokrotnie
potwierdzały fakt, że strona konfliktu posiadająca przewagę względem C3I jest
stroną zwycięską. I wojna światowa w dużej mierze była konfliktem europejskim,
który przelał się na niektóre z krajów Bliskiego Wschodu oraz Afryki Północnej sąsiadujących bezpośrednio z Europą (i obejmował również uczestnictwo państw,
takich jak Stany Zjednoczone, Kanada i Australia, będących zarazem dawnymi
2
H. Rheingold, Tools for Thought: The History and Future of Mind-Expanding Technology
(1985; przedruk, MA: MIT Press, Cambridge 2000); dostępne pod adresem: <www.
rheingold.com/texts/tft/>.
39
koloniami brytyjskimi, w roli sprzymierzeńców). Natomiast II wojna światowa faktycznie była konfliktem o wymiarze globalnym, a bitwy toczone w jej ramach
rozgrywały się nie tylko w samej Europie, ale również w Afryce, Związku Radzieckim, Chinach, Japonii, na sporym obszarze Pacyfiku, a wraz z bombardowaniem
Pearl Harbor, dotarły aż po same Stany Zjednoczone. Była to wojna toczona we
wszystkich 24 strefach czasowych, na lądzie, na morzu, pod wodą i w powietrzu,
a której kulminację stanowiło wynalezienie najbardziej przerażającej i technologicznie złożonej broni, jaka kiedykolwiek powstała – bomby atomowej.
Przetworzenie ogromu informacji, których opracowanie było konieczne
do prowadzenia działań wojennych, okazało się wyzwaniem, które zwyczajnie
przekraczało ograniczone możliwości ludzkich komputerów. Dane przychodzące, wymagające analizy, pojawiały się w kolosalnych wręcz ilościach, a zapotrzebowanie na dokładne, odpowiednio sformatowane i nader wszystko aktualne
informacje było podyktowane autentyczną kwestią życia i śmierci. W toku rozwoju komputerów pojmowanych jako maszyny, główny priorytet stanowiła ich
umiejętność symulowania pracy komputerów pojmowanych jako ludzi. Rząd
Amerykański wspierał badania nad rozwojem technologii umożliwiających mechaniczną reprodukcję czynności, które do tej pory były wykonywane przez
komputery ludzkie. W pierwszej kolejności dotyczyło to obliczeń balistycznych.
Celność działa dużego kalibru czy wyrzutni rakietowej jest zależna od warunków pogodowych, kąta nachylenia, wagi pocisku, odległości, w jakiej znajduje się wyznaczony cel oraz wielu innych czynników. Chcąc osiągnąć przewagę
względem własnej C3I, co umożliwiłoby dominację na polu bitwy, alianckie siły
zbrojne musiały zadbać o to, aby funkcjonowanie każdego z dostępnych im
dział i wyrzutni artyleryjskich było dostosowane do indywidualnie sporządzonych obliczeń balistycznych.
Powodzenie inicjatyw C3I z oczywistych względów stanowiło czołową
prerogatywę wojska w okresie II wojny i jeśli osiągnięcie sukcesu w tym zakresie
wymagało zamiany komputerowego „kto” na analogiczne do niego „co”, to po
prostu tak musiało być – koniec i kropka. W dobie tego światowego konfliktu
znalazło się jednak kilka kluczowych postaci, które miały świadomość, że jeżeli potężne możliwości, jakie oferują technologie komputerowe, nie pozostałyby
ograniczone jedynie do laboratoriów badawczych i wojskowych centrów dowodzenia, ale zostałyby udostępnione znacznie szerzej, odbyłoby się to jedynie z korzyścią dla samej ludzkość. Dzięki dążeniu do celu partycypacji i przez
połączenie jej z ideą symulacji, wizjonerom owym udało się z ponownie skupić uwagę na komputerowym „kto” w miejsce komputerowego „co”. To właśnie oni byli Patriarchami.
Patriarchowie:VannevarBushi J.C.R.Licklider
Świat dotarł do momentu, w którym powszechne stały się urządzenia tanie
i niezawodne; a rezultatem tego musi być jakaś znacząca zmiana.
Vannevar Bush
Ludzie mają w zwyczaju przeceniać to, co możliwe jest osiągnąć w ciągu jednego roku, nie doceniając zarazem tego, ile może się dokonać na przeciągu
od pięciu do dziesięciu lat.
J.C.R. Licklider
Jest wielu matematyków, wczesnych informatyków oraz inżynierów,
którzy swymi dokonaniami zasłużyli sobie na to, aby ich nazwiska znalazły się
w szczytnym, pionierskim gronie pierwszego pokolenia Patriarchów. Do grupy
41
40
owej należą takie postacie, jak matematyk, kryptolog i jeden z twórców informatyki Alan Turing; matematyk i teoretyk mechaniki kwantowej John von Neumann;
twórca cybernetyki Norbert Wiener; matematyk i inżynier Claude Shannon, będący jednym z twórców teorii informacji; oraz inżynierowie komputerowi, tacy
jak Niemiec Konrad Zuse, a także amerykanie – J. Presper Ekhert i John Mauchy,
którzy na Uniwersytecie Pensylwanii skonstruowali ENIAC, maszynę zajmującą
sporej powierzchni pokój, powszechnie uważa się ją za pierwszy elektroniczny
komputer ogólnego przeznaczenia. Właśnie oni byli tymi Patriarchami, którzy
stworzyli wytyczne dla informatyki, określili zakres prac nad rozwojem software,
czyli komputerowym oprogramowaniem, skonstruowali pierwotną architekturę
hardware’ową, tj. materialną strukturę komputerowego sprzętu, i przygotowali
kulturowe oraz naukowe podłoże dla dziedzin informatyki i inżynierii. Wszyscy
oni zasłużyli na to, aby ich osiągnięcia zostały obszernie i skrupulatnie opisane
w licznych opasłych tomach, a w przeciągu minionych kilkunastu lat nastąpił
prawdziwy wysyp publikacji na ich temat, w tym mnogość biografii i opracowań krytycznych traktujących o życiu i dokonaniach wielu z najważniejszych
postaci. Jednakże na potrzeby niniejszego tekstu skupię się jedynie na dwóch
z nich – V. Bushu i J.C.R. Lickliderze.
Biografia Busha nosi podtytuł Inżynier Amerykańskiego Stulecia i jest to
całkiem trafne podsumowanie wpływu, jaki wywarł Bush na organizację życia
i badań naukowych, które były prowadzone w Ameryce w drugiej połowie XX
w. W trakcie II wojny światowej ówczesny prezydent Stanów Zjednoczonych,
Franklin D. Roosevelt, mianował Busha na stanowisko dyrektora centralnego
rządowego ośrodka badań naukowych i w rezultacie sprawowania przez niego tej właśnie funkcji, Bush wpłynął w tak radykalny sposób na życie naukowe
nie tylko samego MIT, gdzie uprzednio pełnił rolę wiceprezydenta oraz dziekana wydziału inżynierii, ale także i innych znaczących akademickich placówek badawczych w Stanach. Właśnie Bush przyczynił się do ugruntowania wzajemnych
relacji i kooperacji między uniwersyteckimi centrami badań a wojskiem w czasie
wojny. W okresie poprzedzającym jego starania prace badawcze nad rozwojem
militarnych technologii były prowadzone wyłącznie w placówkach wojskowych.
Po zdeterminowanej inicjatywie Busha, prace tego rodzaju zaczęto również prowadzić w akademickich laboratoriach badawczych3.
Dzięki takiemu układowi wojsko miałoby zagwarantowaną infrastrukturę badawczą konieczną do przeprowadzania technologicznie i informacyjnie
zaawansowanych naziemnych i powietrznych ofensyw zbrojnych. Natomiast społeczeństwo, przynajmniej w teorii, zyskałoby stałe źródło finansowania i wsparcia
dla podstawowych badań naukowych i będących w pewnym sensie produktem
pobocznym tego rodzaju prac badawczych, mających zastosowania cywilne technologii typu spin-off4. Inicjatywy rodzaju spin-off, będące „ponadprogramowym”
rezultatem badań naukowych i projektów badawczych prowadzonych w placówkach akademickich, które były finansowane przez wojsko, przyczyniły się do
powstania położonej w okolicach Bostonu Trasy 128 (gdzie mieszczą się centra
biznesowe takich firm, jak Raytheon czy the Digital Equipment Corporation). Trasa ta z kolei posłużyła za wzór dla Doliny Krzemowej (w tym miejscu absolwenci
wydziałów inżynierii i informatyki na Uniwersytecie Stanforda stworzyli takie firmy, jak Hewlett-Packard, Intel, Yahoo! czy Google).
3
4
Zob. V. Bush, Science: The Endless Frontier, DC: U.S. Government Printing Office,
Washington 1945.
Obszerną analizę owych przemian można znaleźć w P.N. Edwards, Closed World:
Computers and the Politics of Cold War America, MA: MIT Press, Cambridge 1996.
41
Całe to wzajemne splatanie się wiedzy z zagładą wywarło wpływ na myślenie Patriarchów. Bush w szczególności pragnął wykorzystać nowe technologie do
ulepszenia ludzkich umiejętności przetwarzania i pojmowania informacji5. W słynnym artykule swojego autorstwa, noszącym tytuł As We May Think, opublikowanym na łamach „Atlantic Monthly” w 1945 roku, tuż po zakończeniu wojny, Bush
pisał o hipotetycznym urządzeniu, które nazwał mianem Memex. Wynalazek ten
miał symulować umiejętność tworzenia skojarzeń myślowych będącą cechą charakterystyczną dla ludzkiego mózgu6. Mimo upływu lat artykuł Busha wciąż potrafi wprawić czytelnika w zadumę. Zawiera on historię rozwoju komputerologii,
a raczej prekomputerologii, opisaną w pigułce, omawiając mechaniczne maszyny liczące Gottfrieda Leibniza i maszynę różnicową Charlesa Babbage’a i poddając analizie zjawisko przeciążenia informacyjnego (pamiętajmy, że było to w 1945
roku), kreując wizję w pełni multimedialnego „badacza przyszłości” odzianego
w sprzęt rejestrujący, który umożliwiałby datowanie, oznakowanie czasowe i synchronizację wyników badawczych z obserwacjami naukowymi. Jednak to właśnie
opisane szczegółowo przez Busha teoretyczne urządzenie analogowe o nazwie
Memex – będącej skrótem od angielskich wyrazów memory extender [przedłużacz pamięci – przy. tłum.] – posłużyło za pierwotny mem, który wyobrażał komputer jako maszynę do produkcji kultury.
Memex, przez zastosowanie technologii mikrofilmu, miał funkcjonować na
zasadzie umożliwiania korzystającym z niego użytkownikom wyszukiwania tych
informacji, które chcieli znaleźć. Następnie użytkownicy mogli tworzyć połączenia
skojarzeniowe pomiędzy poszczególnymi węzłami informacyjnymi, zarówno na
użytek własny, jak i innych osób korzystających z tego urządzenia. Zaproponowana tu metoda tworzenia znaczeń, opierająca się na tworzeniu sieci połączonych
ze sobą skojarzeń, to idea, która przez ponad pół dekady od chwili jej powstania
wywierała nieustanny wpływ na ludzi odpowiedzialnych za projektowanie systemów hiperłączy. Fakt, że w zamyśle Busha urządzenie, które zaproponował, miało
być analogowe i zmechanizowane, wykorzystując jako podstawę swojego funkcjonowania fotografię chemiczną, nie stanowiło jakiegokolwiek ograniczenia ani dla
samego Busha, ani dla zwolenników tego rozwiązania. Sam Bush pisał proroczo:
„Osobą wyjątkowo śmiałą byłby ten, kto przewidywałby, że tego rodzaju proces już
na zawsze pozostanie niezdarny, powolny i niedoskonały względem szczegółów”.
To, że Memex miał się opierać na rozwiązaniach technologicznych, które najprawdopodobniej nie sprawdziłyby się w praktyce, a także to, że komputery cyfrowe,
nie analogowe, okazały się tą „prawdziwą” drogą rozwoju technologicznego, jest
tu w zasadzie kwestią mało istotną. Rzeczą faktycznie kluczową dla memowych
5
6
G.P. Zachary, Endless Frontier: Vannevar Bush, Engineer of the American Century, MA:
MIT Press, Cambridge 1999.
„Ludzki umysł [...] funkcjonuje na zasadzie skojarzeń. Kiedy tylko pojawia się w nim
pojedyncza myśl, natychmiast przechodzi do kolejnej idei, która pojawia się na zasadzie skojarzeń myślowych przypominających coś w rodzaju skomplikowanej sieci złożonej ze ścieżek wiodących przez poszczególne komórki mózgowe. Posiada
on oczywiście również i inne cechy; te ścieżki, które są uczęszczane rzadziej od innych, nieuchronnie ulegają zatarciu, obecne w pamięci rzeczy nie są bytem trwałym, gdyż pamięć jest czymś ulotnym. Niemniej jednak prędkość, z jaką dokonują
się owe skojarzenia, złożoność ścieżek składających się na tok myślowy, wyrazistość
szczegółów przywoływanych przez umysł obrazów, cały ów proces mentalny jest
jedynym z najbardziej nadzwyczajnych zjawisk w całym świecie natury”. As We May
Think, przedruk w „Noah Wardrip-Fruin and Nick Montfort”, red. V. Bush, The New
Media Reader, MA: MIT Press, Cambridge 2003, s. 44. Esej ten jest dostępny na wielu stronach internetowych, w tym między innymi pod adresem <www.theatlantic.com/doc/194507/bush>.
43
42
poszukiwań jest fakt, że Bush jest powszechnie uważany za prekursora hipertekstu,
a jego dokonania stały się inspiracją dla kilku następnych pokoleń informatyków.
Równie istotne jest docenienie tego, że rozpropagowanie przez Busha
koncepcji Memexu stanowiło sposób na przekształcenie śmiercionośnych technologii ery II wojny światowej w coś, co niosłoby ze sobą korzyści dla całej ludzkości, a także umożliwiło poszerzenie skali oddziaływania takich idei znacznie
wykraczającej poza granice małych środowisk technicznych i wojskowych, które w owym czasie były jedynymi mogącymi korzystać z tego rodzaju rozwiązań.
Podobnie jak dyrektor naukowy projektu Manhattan J. Robert Oppenheimer, Bush
wywodził się z pokolenia naukowców, którzy byli znacznie bardziej zaangażowani w badania nad rozwojem broni masowego rażenia niż jakiekolwiek pokolenie
ich poprzedzające. Starszy od nich o jedno pokolenie Albert Einstein zachowywał wręcz olimpijski dystans względem destrukcyjnego potencjału, jaki niosła ze
sobą energia atomowa, stając się zarazem osobą powszechnie postrzeganą jako
ktoś w rodzaju świeckiego świętego o naturze naukowego geniusza. W tym samym czasie Oppenheimer, będący jednym z głównych architektów bomby atomowej, posiadłszy rosnącą świadomość ludzkiej predyspozycji ku dążeniu do
samozagłady, pogrążał się w odczuciu coraz to większego przygnębienia. Podobnie jak Oppenheimer Bush również był aktywnie zaangażowany w działania
wojenne. Odgrywał instrumentalną rolę w procesie strategicznego planowania
bombardowania Japonii oraz w projektowaniu koncepcji ataku na tereny przemysłowe znajdujące się na obszarach będących we władaniu sił Osi. Innymi słowy, w okresie II wojny, miesiąc po miesiącu, Bush konsekwentnie wykorzystywał
całą posiadaną przez siebie wiedzę ku nadrzędnemu celowi stworzenia i eksploatacji arsenału mającego służyć do niszczenia materialnych tworów ludzkości i niesienia zagłady samej jednostce ludzkiej7. Fakt, że jego pierwsze publiczne
oświadczenie po zakończeniu wojny dotyczyło właśnie Memexu, jest poruszającym przykładem charakterystycznej dla Patriarchów dychotomii.
Drugi z Patriarchów, J.C.R. Licklider, mimo że rzadko się dziś o nim pamięta, nie tylko przyczynił się do realizacji marzenia o symulacji i partycypacji swoimi
własnymi dokonaniami, ale był również wiernie oddany wspieraniu tych inicjatyw
i prac badawczych prowadzonych przez innych naukowców, które także wpłynęły
znacząco na urzeczywistnienie tego marzenia8. Wiele wyniósł ze swoich stosunków zawodowych z Bushem, posiadającym wśród Patriarchów największe wpływy polityczne z całego grona. Licklider, którego wszyscy zdrobniale nazywali Lick,
rozpoczął swoją pracę w MIT w latach 30. ubiegłego wieku, jako psycholog eksperymentalny prowadzący badania nad psychoakustyką. Podobnie jak wielu z jego
kolegów naukowców, on również przyłączył się do cywilnych działań na rzecz
wojny, w swoim przypadku koncentrując się na hydrolokacji i technologii echosondy, co wzbudziło w nim zainteresowanie problematyką wielkoskalowej analizy
danych. Z kolei to sprawiło, że zaciekawiły go komputery, w szczególności przyczyniając się do jego obsesji na punkcie możliwości skonstruowania komputerów,
które funkcjonowałyby w sposób zbliżony do działania innych, bardziej konwencjonalnych narzędzi badawczych mogących reagować na działania poczynione
przez badacza w czasie rzeczywistym. Innymi słowy, Lickliderowi zależało na symulacyjnym odtworzeniu relacji, jaka istnieje między biologiem a mikroskopem
czy też między artystą a malarską paletą. Według wizji odkrywcy komputer miał
być urządzeniem, które współpracowałoby ze swoim użytkownikiem; w rzeczy
7
8
P. Galison, War against the Center [w:] „Grey Room” 2001, nr 4, s. 7–33.
M.M. Waldrop, The Dream Machine: J.C.R. Licklider and the Revolution That Made Computing Personal, Penguin, Nowy Jork 2002.
43
samej, jedna z jego najsłynniejszych prac to opublikowany w 1960 roku esej noszący tytuł Symbioza człowieka z komputerem9. W epoce masywnych, ciężkich i powolnych maszyn było to ideą na wskroś radykalną.
Dla Licklidera symbioza ta oznaczała, że użytkownikom był potrzebny nie
tylko osobisty związek z ich maszynami, ale niezbędne dla nich były również osobiste komputery. W latach 40. i 50. XX w. taka postawa była czymś radykalnym,
w czasach, kiedy za normę uchodziły zajmujące powierzchnię sporych rozmiarów
pokoju komputery typu mainframe, a idea systemu podziału czasu (ang. time-sharing), polegająca na możliwości poddawania analizie przez komputer mainframe
kilku problemów jednocześnie, wprowadzanych równolegle przez paru różnych
użytkowników, wydawała się czymś kuriozalnym. Wizja partycypacji w wyobrażeniu Licklidera wykroczyła poza koncepcję zastosowania systemu podziału czasu
w ogromnych komputerach typu mainframe, ewoluując w stronę idei uważanej
wówczas za kwestią zupełnie marginalną: mianowicie, że każda osoba mogłaby posiadać swój własny komputer. Podobnie jak wiele innych spośród tych najbardziej
innowacyjnych wizji proponowanych przez Patriarchów, również i w przypadku
tego pomysłu musiały minąć całe dekady, aby mógł się on w pełni urzeczywistnić.
Podobnie jak jego mentor Bush Licklider dzielił swój czas między badaniami laboratoryjnymi a pracą na zlecenie Rządu. W czasach kiedy piastował urzędową posadę w Agencji Zaawansowanych Projektów Badawczych Departamentu
Obrony Stanów Zjednoczonych (ARPA), Licklider, sprawujący funkcję wysokiej rangi administratora, był odpowiedzialny za finansowanie szerokiej gamy projektów
o zastosowaniu militarnym. Postarał się jednak przy tym o to, aby w zakresie swojej posady, mógł również udzielać wsparcia i dostępu do rządowych funduszy dla
tych badaczy, którzy w latach 60. i 70. XX w. tworzyli ścisły rdzeń pokolenia Aquarian. Jego późniejsze zaangażowanie na rzecz tej sprawy było bezpośrednim wynikiem prac prowadzonych przez Licklidera w ramach swoich własnych badań.
Kiedy Licklider skoncentrował już swoją uwagę na kwestii symbiotycznej łączności między człowiekiem a maszyną, zakres jego rozważań począł również obejmować temat łączności pomiędzy samymi maszynami, a tym samym także pomiędzy
użytkownikami tychże maszyn. W 1962 roku, kiedy określił tę ideę mianem Międzygalaktycznej Sieci Komputerowej, było to ze strony Licklidera żartem jedynie
połowicznym. Miał on świadomość szerszych następstw kulturowych, jakie niosłaby ze sobą technologia komputerowa, jeśli umożliwiłaby symulację ludzkich
umiejętności porozumiewawczych oraz odwzorowanie symbiotycznych związków człowieka z innymi środkami przekazu. Do tych wątków jeszcze powrócę
w dalszej części omawiającej Aquarian, ale zanim do tego dojdę, muszę rozprawić się wpierw z Plutokratami.
Plutokraci:Dwóchpanówo imieniuThomasJ.Watson
Myśl.
Thomas J. Watson Senior
Nasza przyszłość nie zna granic.
Thomas J. Watson Junior
Jest niewiele firm, których początki sięgają XIX wieku, w tym jeszcze mniej
takich, jakie mogłyby szczycić się utrzymaniem wiodącej pozycji w dziedzinie
9
Przedruk w „Noah Wardrip-Fruin and Nick Montfort”, The New Media Reader..., s.
73–82.
45
44
technologii informacyjnej w dłuższej części tak rozległego okresu, a wśród nich
ledwie garść tych, których kapitał można liczyć w miliardach dolarów. International Business Machines Corporation, powszechnie znana jako IBM, spełnia wszystkie z wyżej wymienionych kryteriów, ale zarazem osiągnięcia i działalność tej
firmy znacznie poza te kryteria wykraczają10. Omówiono już ogólnie dokonania
Patriarchów oraz ich prorocze wizje, ale warto pamiętać, że ich ówczesne działania miały bardzo nikły wpływ na szerszą świadomość komputerowej technologii
wśród ogółu społeczeństwa. Jeśli w 1959 roku zapytano by przeciętną osobę o to,
jakie, jej zdaniem, były najważniejsze postacie w wówczas wciąż bardzo krótkiej
historii rozwoju komputerów, w odpowiedzi na to pytanie najpewniej wskazałaby na komercyjnych producentów dostarczających rozwiązania komputerowe innym firmom, czego rezultatem była zmiana sposobu, w jaki prowadzono
przedsięwzięcia i transakcje biznesowe nie tylko w samych Stanach Zjednoczonych, ale i na całym świecie. Wśród ówczesnych producentów, o jakich tu mowa,
ktoś mógłby wyróżnić takie przedsiębiorstwa, jak Digital Equipment Corporation
(DED) czy Hewlett-Packard (HP), choć w skali międzynarodowej, w ścisłej czołówce niewątpliwie znajdował się wówczas IBM wraz z całymi legionami swoich
odzianych w charakterystyczne firmowe błękitne garnitury przedstawicieli. Ponadto zagadnięta na ten temat osoba wymieniłaby najprawdopodobniej jedno
konkretne nazwisko, jakie nosiło dwóch mężczyzn, kluczowych dla historii branży komputerowej – Thomas J. Watson, Senior i Junior. Starszy z nich zbudował
najpotężniejszą z firm trudniących się mechanicznym przetwarzaniem danych;
młodszy zaś postarał się, aby owa firma utrzymała swoją dominującą pozycję na
rynku także w czasach epoki cyfrowej. Łączna suma ich dokonań w nieocenionym wręcz stopniu przyczyniła się do ustalenia praktyk biznesowych i kulturowych z zakresu technologii komputerowych, które obowiązywały przez wiele
następnych dekad11.
Powstanie IBM było rezultatem fuzji konglomeratu firm (najstarsza została powołana do życia już w 1888 roku) produkujących maszyny umożliwiające
amerykańskim, a późnej również i światowym przedsiębiorstwom usprawnienie, zwiększenie wydajności i skwantyfikowanie swojej działalności biznesowej.
Wytwarzały one takie produkty, jak wagi, karty zegarowe oraz, co właściwie najsłynniejsze, tabulatory, czyli służące do segregowania kart perforowanych maszyny licząco-analityczne, pozwalające na przechowywanie i analizę nieustannie
rosnącej liczby danych o procesie produkcji, dystrybucji i sprzedaży. Pierwotnie
zatrudniony w regionalnym oddziale firmy młody pracownik działu sprzedaży
imieniem Thomas J. Watson w szybkim tempie pokonywał kolejne szczeble korporacyjnej drabiny, aby w 1915 roku przejąć stery przedsiębiorstwa, wówczas
noszącego jeszcze nazwę The Computer Tabulating Recording Corporation.
W ciągu dekady Watson zmienił nazwę firmy na International Business
Machines Corporation, zachęcając do używania jej akronimu – IBM, słynne motto Watsona Seniora brzmiało: „Myśl”, ale etosem stanowiącym siłę napędową firmy było hasło: „Sprzedaj”. W epoce, kiedy sztuka sprzedaży była czczona jako
największa z cnót, Watson był uznawany za najlepszego sprzedawcę na świecie
10
11
AT&T, GE i Philips zaczęły funkcjonować jako korporacje pod koniec XIX wieku.
Powstało mnóstwo publikacji dotyczących IMB, a na portalu samej firmy można
znaleźć cały oddzielny dział poświęcony oficjalnej historii ich działalności, o której
można przeczytać pod adresem: <www.ibm.com/ibm/history/>, ale względem
treści zawartych w tym tekście, najlepsze źródło stanowią pełne szczerych wspomnień pamiętniki, T.J. Watson, P. Petre, Father, Son, and Co.: My Life at IBM and Beyond, Bantam, Nowy Jork 2000.
45
(będąc zarazem jednym z najbogatszych ludzi świata)12. Watson Senior doskonale
wyczuwał, że IBM jako firma powinna uważnie śledzić postęp technologii komputerowej i brać czynny udział w kształtowaniu kierunku jej przyszłego rozwoju.
W okresie II wojny światowej firma współfinansowała prowadzone na Uniwersytecie Harvarda prace nad budową komputera Mark I, w czasie, gdy zatrudnieni przez
IBM naukowcy i inżynierzy wypracowywali i ugruntowywali koneksje z wojskowością, które w erze powojennej zaczęły nabierać dla firmy coraz większej wagi.
Na początku lat 50. XX w., kiedy syn Watsona, Thomas Watson Junior, przygotowywał się do objęcia stanowiska szefa firmy, najistotniejszą kwestią, z jaką im
obu przyszło wówczas się zmagać, to pytanie, jak poradzić sobie ze zmianami, które technologie cyfrowe wywrą na ich firmie. Czy powinni zainwestować w komputery cyfrowe i czy aby takie posunięcie nie spowodowałoby obniżenia zysków,
które firma czerpała ze sprzedaży swoich flagowych produktów, takich jak kalkulatory mechaniczne i tabulatory kart perforowanych? Główny wkład Watsona Seniora w rozwiązanie tej kwestii w gruncie rzeczy polegał na przekazaniu kontroli nad
przedsiębiorstwem swojemu synowi dokładnie w chwili, kiedy taka decyzja mogła
zaważyć na dalszych losach International Business Machines Corporation. Tak postanawiając, Watson Senior przyczynił się do tego, że technologia komputerowa wyszła
poza laboratoryjne mury, trafiając do przedsiębiorstw na całym świecie, za pomocą
już istniejącej pokaźnej infrastruktury sprzedaży i wsparcia, którą IBM zdołał stworzyć w okresie przedwojennym i rozbudować w czasach powojennego boomu.
Ku chwale Thomasa J. Watsona Juniora udało mu się zaprowadzić w IBM
nowy ład w relatywnie bezbolesny sposób. W latach 50. XX w. nadzorował prace
badawcze nad komputerami z serii 650 oraz ich późniejsze wprowadzenie na rynek, co było zarazem pierwszym przedsięwzięciem związanym z technologią komputerową, które miało wymiar komercyjny. Dołożył starań ku temu, aby komputery
z serii 650 zostały zaprojektowane w taki sposób, żeby mogły przetwarzać dane
wejściowe przy wykorzystaniu z już istniejącej bazy czytników kart perforowanych
wyprodukowanych przez International Business Machines Corporation. Umożliwiało to zarówno kompatybilność wsteczną nowych maszyn ze starymi, jak i pozwalało IBM utrzymać lojalność swojej uprzednio ugruntowanej grupy konsumentów
w okresie, gdy firma wraz z jej klientami przechodziła z epoki mechanicznej do ery
elektronicznej. Plutokraci, których pokolenie przeistoczyło informatykę w biznes,
często byli zmuszeni do dokonywania trudnych wyborów pomiędzy technologiczną innowacyjnością, jaką mogli osiągnąć zatrudnieni przez nich inżynierzy, a gotowością (bądź też jej brakiem) ich klientów, aby zgodzić się na proponowane im
zmiany. Decydując o swoich posunięciach biznesowych względem komputerów
z serii 650, IBM upewnił się, aby nowy rodzaj proponowanej przez nich technologii był kompatybilny z uprzednio istniejącą infrastrukturą przetwarzania danych,
z której dotąd korzystali ich klienci w największym stopniu, jaki tylko był możliwy.
Dekadę później, Watson Junior postanowił zrezygnować z takiego rozwiązania,
stwierdzając, że architektura komputerów produkowanych przez IBM w latach 50.
XX w. nie była wystarczająco solidna, aby móc podołać technicznym wyzwaniom,
jakie stwarzały nowe technologiczne możliwości i nowe potrzeby ich klientów.
12
Przeogromna liczba wydanych w Stanach Zjednoczonych książek dotyczących tematyki sztuki sprzedaży mogłaby spokojnie zapełnić pokaźnych rozmiarów bibliotekę. Wśród pozycji na ten temat, które ukazały się w pierwszej połowie XX wieku,
jedną z najważniejszych jest motywacyjny bestseller Napoleona Hilla Think and
Grow Rich (Myśl i bogać się), który pierwotnie ukazał się w 1937 roku, a którego tytuł w perfekcyjny sposób łączy zdolności poznawcze ludzkiego umysłu z ideą biznesowego sprytu.
47
46
Thomas J. Watson Junior zainwestował bezmiar zasobów pracowniczych
oraz finansowych w serię komputerów System/360, które nie były wstecznie kompatybilne – co oznaczało, że wprowadzając je na rynek, podejmował ogromne ryzyko. Czasopismo „Fortune” umieściło zdjęcie Watsona na okładce z nagłówkiem
Gra o 5 miliardów dolarów, podając w wątpliwość, czy klienci IBM przystaną na
technologiczną wizję, którą on im proponował. Klienci mimo wszystko przyjęli te
zmiany, a z perspektywy czasu IBM System/360 był uznawany nie tylko za jedno
z najbardziej ryzykownych przedsięwzięć w historii biznesu, ale zarazem za jedno
z najlepszych. Plan firmy okazał się sukcesem na tyle spektakularnym, że w ciągu
dekady IBM został oskarżony przez Departament Sprawiedliwości Stanów Zjednoczonych o praktyki monopolowe, a Big Blue (Wielki błękit), jak potocznie nazywano przedsiębiorstwo, był często piętnowany jako bezduszne i stechnokratyzowane
korporacyjne monstrum.
Komputery mainframe, których rynek został zdominowany przez tak znanych producentów, jak DEC, Honeywell, a przede wszystkim IBM, były centralnie
zorganizowane i hierarchiczne. Obsługiwane i kontrolowane przez specjalizujący
się w przetwarzaniu danych elitarny korpus profesjonalistów – swoistego rodzaju
mandarynów połowy XX w. – będących na posługach biznesowej, wojskowej i naukowej klienteli. Wprowadzanie danych odbywało się zazwyczaj za pomocą kart
perforowanych, na których widniało ostrzeżenie „Nie giąć, nie zwijać, nie uszkadzać” – co owszem może i było dobrą radą, ale zarazem działało odstraszająco na
użytkowników. Komputery w tamtych czasach były maszynami alfanumerycznymi, pozbawionymi jakichkolwiek interfejsów wizualnych, i ograniczającymi interakcję między użytkownikiem a maszyną do absolutnego minimum. W owych
czasach większości ludzi miała styczność z komputerami jedynie przez pośredników, a sposób funkcjonowania stosowanego w tych maszynach oprogramowania
jedynie dla samych programistów i operatorów obsługujących proces wprowadzania danych nie stanowił materii całkowicie nieprzeniknionej.
Następną znaczącą postacią wśród Plutokratów był Gordon Moore, współzałożyciel firmy Intel, będącej jednym z największych na świecie producentów układów scalonych. Obserwacja, jaką poczynił, dotyczyła tego, że co 18 miesięcy moc
obliczeniowa komputerów będzie się podwajała, a cena malała o połowę, stała
się powszechnie znana jako Prawo Moore’a, przerodziwszy się zarazem w jeden
z koronnych memów informatyki komercyjnej13. Prawo Moore’a oznacza, że nadmiernie drogie koncepcje wymagające ogromnej mocy przetwórczej zaprojektowane dzisiaj, nadal pozostaną możliwe do zrealizowania za rok, kiedy wydajność
wzrośnie, a cena zmaleje. Moore ustanowił również inny z memów, jaki za sprawą Plutokratów zakorzenił się w komputerowej kulturze: ideę przedsięwzięć biznesowych typu spin-off.
13
Moore stworzył słynne prawo swojego imienia w czasach, gdy pracował dla firmy
Fairchild Semiconductor. W opublikowanym w wydaniu „Electronics Magazine”
z 19 kwietnia 1965 roku artykule: Wciskanie większej ilość elementów do układu scalonego pisał: „Stosunek złożoności komponentów w proporcji ich ceny minimalnej
rósł w tempie o czynniku dwóch na rok. [...] Można spodziewać się, że w krótkiej
perspektywie, takie tempo niewątpliwie się utrzyma, a nawet wzrośnie. W dłuższej
perspektywie, nie można mieć pewności, co do prędkości, z jaką będzie postępowało tempo wzrostu, choć nie ma powodów, aby wątpić w to, iż utrzyma się ono na
mniej więcej tym samym poziomie przez okres co najmniej dziesięciu lat. Oznacza
to, że do roku 1975 liczba komponentów mieszczących się na pojedynczym układzie scalonym w stosunku do ich ceny minimalnej będzie wynosiła 65 000. Jestem
przekonany, że możliwe jest zbudowanie układu elektronicznego o takiej złożoności na pojedynczej płytce”.
47
Thomas J. Moore i Philip Noyce, również będący jednym z współzałożycieli firmy Intel, byli wcześniej członkami słynnej „Zdradzieckiej ósemki”, której skład
tworzyła grupa ludzi zatrudnionych uprzednio w pionierskiej placówce badawczej Shockley Semiconductor Laboratory. Pracownicy ci postanowili zerwać swoją współpracę z zachowującym się w coraz bardziej niezrównoważony sposób
szefem zespołu, Williamem Shockleyem, i założyć następnie własną konkurencyjną firmę, Fairchild Semiconductors. Moore wraz z Noycem odłączyli się z kolei od
Fairchild i stworzyli własną firmę typu spin-off o nazwie Intel. Nowa inicjatywa
stała się źródłem inspiracji dla dosłownie dziesiątek tysięcy przedsiębiorców marzących o stworzeniu własnych koncernów komputerowych i zostaniu Plutokratami swojego pokolenia – co stanowi odmianę memu partycypacji.
Mimo że w czasach świetności Big Blue naukowców IBM uhonorowano
wieloma nagrodami, zarówno Nobla, jak i Turinga, powodem, dla którego tekst
ten jest skupiony na Watsonach, jest fakt, że przeistoczyli oni marzenia Patriarchów
w produkty rynkowe. Cechą ery Plutokratów była stateczna niezawodność, w modłę której kreatywne wizje wynalazcy zostały zastąpione kwartalnymi prognozami
kierownika działu sprzedaży. Wkład ich w mem symulacji był prosty: pragnęli upodobnić komputery do innych towarów handlowych. Strategia biznesowa, jaką stosowali Watsonowie, opierająca się zarówno na zapobiegawczym zagwarantowaniu
akceptacji klientów dla proponowanych przez firmę produktów, jak i sporadycznej
gotowości podjęcia ryzyka wprowadzenia na rynek zupełnie nowych, niekompatybilnych z uprzednio stosowanymi rozwiązaniami, technologii, czyni z nich wzorce
(uznane lub nie) dla późniejszego pokolenia Hustlerów, którzy podążyli ich tropem.
Plutokraci nie stanowili oczywiście jednolitej grupy. Wśród nich znaleźć
można zarówno prawdziwych geniuszy inżynierii, takich jak Moore, energicznych
przedsiębiorców, takich jak Hewlett i Packard, jak i urodzonych handlowców, takich
jak Watsonowie. Byli nimi i entuzjastyczni ryzykanci, i odziani w błękitne garnitury
korporacyjni menedżerowie. Dołożyli wszelkich starań, aby produkty i rozwiązania technologiczne proponowane przez ich firmy były jedynymi, z jakich korzystać
będą ich klienci, ale byli gotowi zaryzykować wprowadzenie na rynek całkowicie
nowych technologii, jeśli byli przeświadczeni o komercyjnym sukcesie takiego posunięcia. Informatykę uczynili biznesem, nie przywiązując się przy tym nadmiernie
do marzeń, które rozpalały wyobraźnię Patriarchów. Gdy Patriarchowie wywierali
swoje największe wpływy, wizjonerscy marzyciele nadal pozostawali obecni, a ich
wyobraźnię absorbowała wówczas kwestia tego, w jakim stopniu byłoby możliwe
wykorzystanie komputerów do technologicznej symulacji wielu różnych wzorców.
Mieli oni na myśli coś w rodzaju swoistej erotyki symulacyjnej – rozkoszy wpierw
z robienia z tymi maszynami czegoś, a następnie z robienia z nimi wszystkiego. Możliwości, jakie oferowała ta technologia, zdawały się nieograniczone. Następne pokolenie wizjonerów nazwałem mianem Aquarianów, a porównać ich można do
malarzy spoglądających na czyste, niczym niezapełnione jeszcze płótno, bądź też
do rzeźbiarzy krążących wokół surowego, nietkniętego przez dłuto bloku marmuru.
Aquarianie:DouglasEngelbarti AlanKay
Za 20 czy 30 lat, całość informatycznej wiedzy, jaką aktualnie można zgromadzić w pojedynczym mieście, czy wręcz, jaka obecnie istnieje na całym
świecie, pomieści się w komputerze, który da się trzymać w jednej ledwie ręce.
Douglas Engelbart
Tym, co trwa, jest nie sama technologia, lecz marzenie w niej zawarte.
Alan Kay
49
48
Doug Engelbart pracował w świecie rządzonym przez Plutokratów, ale
stworzył świat, w którym żyjemy my sami. Inspirował się wizjami Patriarchów
i to oni wspierali finansowo kampanię, którą on toczył przeciwko kulturze wykreowanej przez Plutokratów. Tuż po zakończeniu II wojny, kiedy trudnił się pracą operatora radiowego w stacjonującej w Filipinach jednostce amerykańskiej
armii, Engelbart miał sposobność przeczytać przełomowy artykuł Busha As We
May Think, a siła roztoczonych w tym tekście wizji podtrzymywała go na duchu
zarówno przez cały okres studiów, jak i w czasach, kiedy już jako absolwent rozpoczynał pracę w Kalifornii. Engelbart poświęcił swoje życie na wynalezienie
nowego sposobu myślenia o komputerach – pojmowanych nie jako maszyny
do przetwarzania danych w rozumieniu Plutokratów, lecz jako urządzenia pozwalające na rozszerzenie możliwości ludzkiego intelektu14. Swoich najbardziej
kluczowych w tamtym okresie badań dokonał, pracując w mieszczącej się w pobliżu Uniwersytetu Stanforda placówce badawczej Stanford Research Institute
(SRI). W prowadzonych przez siebie tam pracach był wspierany finansowo przez
agencję rządową DARPA, znajdującą się wówczas pod dyrekcją Licklidera, który
popierał naukowe dociekania Engelbarta ze względu na to, że łączyły one ideę
komputerowej partycypacji z celem, jaki stanowiła technologiczna augmentacja.
Według wizji Engelbarta komputery winny być urządzeniami służącymi
poszerzaniu możliwości ludzkiej inteligencji, przy czym cel nadrzędny winno stanowić znajdowanie rozwiązań dla największych dylematów, przed którymi stoi
ludzkość. Kwestii tych, które zostały określone później mianem problemów złośliwych, czyli takich zagadnień, jakie są wyjątkowo złożone zarówno pod względem społecznym, jak i środowiskowym, od walki z ubóstwem przez urbanistykę,
po określenie tego, co stanowi godne życie przeżyte z godnością. Engelbart obrał
za swój cel bodaj największe z możliwych wyzwań związanych z ideą symulacji:
już nie samo odwzorowanie sposobu funkcjonowania pojedynczego umysłu,
lecz stworzenie symulacji najlepszych aspektów myślenia i działania kolektywnego. Starania te przyczyniły się do zaistnienia będącej splotem dwóch memów
idei partycypacji symbiotycznej.
Rzeczą oczywistą jest, że wielu naukowców, zarówno w zakresie samej
informatyki, jak i poza tą dziedziną nauki, zajmowało się badaniami nad problemami złośliwymi, choć naprawdę niewielu spośród nich zdołało wywrzeć swoimi dokonaniami wpływ na tyle bezpośredni i powszechny, na ile udało się to
dokonać Engelbartowi w 1968 roku. Był to rok, w którym przedstawił on „matkę wszystkich prezentacji”. Publiczny pokaz jego inwencji i koncepcji zaprezentowany przed audytorium składającym się z kolegów po fachu oraz członków
młodszego pokolenia, dla którego roztoczone przez niego wizje miały okazać
się źródłem późniejszych inspiracji. W ramach prac badawczych, które prowadził w placówce SRI, Engelbart opracował nowatorski system komputerowy, składający się z takich elementów, jak graficzny interfejs użytkownika, skalowane
okienka, hipertekst i możliwość prowadzenia wideokonferencji w czasie rzeczywistym. Wszystkimi tymi okienkami i wszelkimi innymi związanymi z obsługą tego prototypowego komputerowego interfejsu elementami i czynnościami
można było sterować za pomocą nowo wynalezionego przez Engelbarta urządzenia. Wynalazek ten służył do komunikacji z komputerem – była to dziwacznie wyglądająca rzecz umożliwiająca kontrolowanie elementów znajdujących
się w dowolnie ulokowanym miejscu widniejącym na ekranie komputera. Wniosek patentowy złożony przez Engelbarta opisywał owo coś mianem wskaźnika
14
Zob. T. Bardini, Bootstrapping: Douglas Engelbart, Coevolution, and the Origins of Personal Computing, CA: Stanford University Press, Palo Alto 2001.
49
pozycji X-Y w systemach wyświetlania. Urządzenie to składało się z drewnianej
obudowy, na tyle małej, aby mogła mieścić się w jednej ręce, przykrywającej
dwa metalowe kółka, a całość była podłączona do komputera za pomocą długiego, cienkiego kabla przypominającego ogon. Na cześć owego ogona Engelbart wraz ze swoją ekipą badawczą nazwał swój wynalazek myszką.
Wszystko to składało się na system, który Engelbart zaprezentował w 1968
roku podczas zorganizowanej w tym celu telekonferencji między San Francisco
a Palo Alto, demonstrując w jej ramach również funkcje procesora tekstu i poczty elektronicznej przedstawione w oddzielnych, skalowanych okienkach. Całość
pokazu przeprowadził w czasie rzeczywistym przy użyciu ogromnych projektorów wypożyczonych mu przez Departament Obrony Stanów Zjednoczonych.
W komputerowym świecie zdominowanym przez alfanumeryczne systemy wprowadzania i wyprowadzania danych, interfejsów kontrolowanych przez wiersz
poleceń i obopólnej interakcji między użytkownikiem a maszyną ograniczonej
do absolutnego minimum, przedstawiona przez Engelbarta prezentacja, łącząca ideę symulacji z koncepcją partycypacji, była niczym mniej niż istnym objawieniem. Należy zaznaczyć, że cała ta telekonferencyjna transmisja odbywała się
między dwoma miejscami oddalonymi od siebie o niecałe 50 kilometrów. Nawet
jeżeli przyjmie się, że świt nowej komputerowej Ery Wodnika nie nastał w pełni
wraz z momentem przedstawienia przez Engelberta jego na wskroś wiekopomnej prezentacji, to w zakresie dziedzin informatyki i inżynierii pozostaje to niewątpliwie chwilą na tyle przełomową, na ile to tylko jest możliwie.
W latach 60. XX w. ludzie starali się scalić ze sobą zbiór uczuć i odruchów
niosących jakieś ogólne poczucie nadziei – szansy na to, że ludzkości uda się zjednoczyć w celu uczynienia tego świata lepszym i że dzięki rozwojowi technologicznemu, od komunikacji przez farmakologię po loty kosmiczne, rodzaj ludzki
zmierzał ku nastaniu nowej epoki – wieku powszechnie zwanego Erą Wodnika. Pojęcie Aquarian, czyli Wodnik, stało się tożsame z pełną nadziei, choć niezupełnie praktyczną postawą charakterystyczną dla tamtych czasów15. Ani sama
prezentacja Engelbarta, ani też pozostałe dokonania innych Aquarianów w latacha 60. i 70. XX w. nie stały się czymś szeroko znanym, ale miały one kluczowe znaczenie dla procesu przeobrażania „duszy zaklętej w maszynie”. Dążyli
oni do zhumanizowania, zdecentralizowania i spersonalizowania komputerów,
i stali w żelaznej opozycji do Plutokratów, sprzeciwiając się praktycznie każdemu aspektowi stosowanych przez nich, polegających na korporacjonistycznej
komodyfikacji komputerowej technologii, praktyk. Czymś, czego w mniemaniu
Aquarianów była pozbawiona era Plutokratów, było poczucie, że ludziom udało się stworzyć technologię będącą nowym sojusznikiem ludzkości, pomocnym
nie tylko w działaniach na polu bitwy, w laboratorium badawczym czy biurze.
Ponadto miniona epoka pominęła wszelkie dążenia ku temu, aby życie mogło
stać się czymś lepszym i bardziej twórczym.
Kiedy ktoś określa moment zaprezentowania przez Engelbarta rozwiązania technologicznego NLS (skrót od oN-Line System) mianem matki wszystkich
prezentacji, to osoba posługująca się tym stwierdzeniem ma na myśli fakt, że
owa, oszałamiająca skalą technologicznej innowacyjności prezentacja (z pełną
gamą przestawianych w jej trakcie nowatorskich rozwiązań, takich jak obsługiwany w czasie rzeczywistym interfejs graficzny czy nowe urządzenie nazwane
15
Zob. J. Markoff, What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer, Viking, Nowy Jork 2005. Opis przedstawionego w szerszym kontekście duchowego krajobrazu Kalifornii można znaleźć [w:] E. Davis, Visionary State,
Chronicle Books, San Francisco 2006.
51
50
później myszką) w całej swej totalności, w jednej chwili, czasie i miejscu radykalnie odmieniła kulturę informatyczną. Przynajmniej w głowach tych osób, które
potrafiły ogarnąć szersze implikacje tego, co wtedy ujrzeli. Jedną z najbardziej
utalentowanych i zdolnych spośród tych osób był młody Alan Kay. Erudyta, który w czasach studiów doktoranckich dorabiał sobie jako gitarzysta jazzowy, nigdy nie czuł się w pełni swobodnie wewnątrz granic akademickiego świata16.
Kay przybył do okolic zatoki San Francisco z Uniwersytetu w Utah, gdzie w ramach doktoratu prowadził prace badawcze w laboratorium naukowym prowadzonym przez Ivana Sutherlanda. Spośród wszystkich osób, które zaliczam tu
do grona Aquarianów, możliwe, że etykieta ta w najmniejszym stopniu pasuje
akurat do Sutherlanda. Był on wyjątkowo zasadniczym inżynierem, który po dokonaniu największego wkładu w swoją dziedzinę, rozkręcił dochodowy interes,
prowadząc firmę, jej zakres działania ograniczał się niemal wyłącznie do realizowania zamówień wojskowych.
To właśnie Sutherlandowi, pomimo jego konformistycznego sztywniactwa, zawdzięcza się fakt, że technologia komputerowa rozwinęła się od strony wizualnej. Ponieważ to on był postacią, która otworzyła świat informatyki na
wpływy artystów, projektantów i innych kreatywnych prawo-mózgowców. Rezultatem jego badań był komputerowy system wizualizacji reagujących na ruch
w czasie rzeczywistym, który jest uważany za pierwszy na świecie model wirtualnej rzeczywistości. Przełomowe osiągnięcia przyczyniły się do poszerzenia
horyzontów myślowych ludzkiego umysłu na tak kolosalną skalę, że tym samym
czuję się zobowiązany, aby zaliczyć Sutherlanda w poczet Aquarianów.
Opracowując program Sketchpad, który umożliwiał komputerową symulację procesu pisania długopisem na kartce papieru, wykraczając zarazem poza
wizualne możliwości i efektywność tej czynności manualnej. Sutherland stworzył
pierwszą autentycznie wydajną i potrafiącą w realny sposób reagować na ruchy
użytkownika stację roboczą do komputerowego projektowania grafiki z prawdziwego zdarzenia. Sutherland podkreślał fakt, że system, który skonstruował,
nie ograniczał się jedynie do symulacji pisania na papierze, ale pozwalał także
na tworzenie uprzednio technicznie niewykonalnych mikrorysunków. Stało się
to możliwe dzięki temu, że program Sketchpad oferował użytkownikom opcje
skalowania, zbliżania i oddalania przez zoomowanie oraz makrowizualizację narysowanych przez nich za pomocą komputera grafik, które można było tworzyć
na nieograniczonej fizycznie wirtualnej powierzchni.
Jakiekolwiek odczucia mógł mieć Sutherland, który w owym czasie pracował w Provo w stanie Utah, względem tego, co działo się wówczas w okolicach nasyconej w nieporównywalnie większym stopniu aquariańskim etosem
zatoki San Francisco, Kay miał poczucie, jakby miejsce to było dla niego jego
drugim domem. Odnalazł tam informatyczną społeczność, która potrafiła docenić jego podejście do programistyki, podchodząc z szacunkiem do jego osobistego pragnienia, aby stało się możliwe stworzenie komputerów, którymi
potrafiliby posługiwać się zwykli ludzie, a w szczególności także i dzieci. Dla
Keya i jemu podobnych prezentacja Engelbarta była twardym dowodem nie
tylko na to, że realizacja ich pomysłów była możliwa pod względem technicznym, ale również i na to, że ich urzeczywistnienie mogłoby na nowo wzniecić
16
Mimo iż niewątpliwie zasłużył on sobie na tego rodzaju publikację, nie ukazało
się jak dotąd pojedyncze książkowe opracowanie biograficzne w pełni poświęcone Alanowi Kay. Wiele z artykułów jego autorstwa można przeczytać w Internecie, a jedna z lepszych reminiscencji to tekst A Kay, User Interface: A Personal View
[w:] The Art of Human Computer Interface Design, red. B. Laurel, Reading, MA: Addison-Wesley, 1990, s. 191–207.
51
powszechny entuzjazm wokół komputerowej technologii. W ciągu 15 lat Kayowi udało się rozszerzyć koncepcję augmentacji opracowaną przez Engelbarta
na sferę oprogramowania – dokonał pionierskiej pracy, tworząc obiektowy język programowania, udoskonalił graficzny interfejs użytkownika oraz ulepszył
funkcjonowanie Ethernetu. Kay odgrywał również centralną rolę w rozwoju
prac nad komputerem Alto, urządzeniem stworzonym w ośrodku badawczym
Xerox PARC, które jest uznawane za pierwszy komputer osobisty z systemem
graficznym. Mimo to ówczesne kierownictwo Xeroxa, zarządzające interesami
firmy z siedziby głównej, znajdującej się niemal 5000 kilometrów na wschód od
centrum badawczego w Palo Alto, nie miało pojęcia, w jaki sposób można by
wprowadzić tę przełomową maszynę na rynek. Napięte stosunki między odzianymi w garnitury mocodawcami z korporacyjnych centrów na amerykańskim,
wschodnim wybrzeżu, a pracującymi na ich zlecenie technikami laboratoriów
badawczych na zachodnim wybrzeżu były źródłem kluczowego konfliktu definiującego tę aquariańską erę. Natomiast prowadzone wówczas batalie pozostawiły po sobie spuściznę, będącą motorem napędowym dyskursów, które są
toczone w Dolinie Krzemowej po dziś dzień.
Nawet jeśli Kay nie dokonałby wszystkiego tego, co udało mu się osiągnąć, nadal przeszedłby do historii jako autor koncepcji „dynamicznych mediów
osobistych” (ang. personal dynamic media). Prowadząc prace w placówce badawczej PARC, Kay wraz ze swoją ekipą stworzył koncepcyjny prototyp o nazwie
Dynabook, ustanawiając tym samym wzorzec dla wszystkich późniejszych laptopów, tabletów i wszelkich innych komputerowych urządzeń przenośnych, jakie
tylko zostały następnie wynalezione. Kay przewidział integrację cyfrowych form
twórczego wyrazu z niemal każdym aspektem ludzkiej egzystencji, od najwcześniejszych niemowlęcych doświadczeń w zdobywaniu wiedzy o otaczającym człowieka świecie aż po najbardziej zaawansowane eksperymenty naukowe17. Dzieci
stanowiły źródło inspiracji zarówno dla samego Kaya, jak i dla wielu innych genialnych naukowców zaliczanych do ruchu Aquarianów, dla których impulsem
twórczym były pionierskie badania nad teorią rozwoju poznawczego przeprowadzone przez Szwajcarskiego psychologa i teoretyka pedagogiki Jeana Piageta18.
Kolektywnie informatycy ci tworzyli coś, co określam terminem kinderkult. Wielu
naukowców ma poczucie, jakby żyli w intelektualnej izolacji od reszty ludzkości,
17
18
Kay przewidział również powstanie bezprzewodowych sieci lokalnych (ang. wireless networking). W notatce służbowej sporządzonej w 1971 roku, w okresie kiedy
prowadził prace badawcze w Xerox PARC, której pełną treść można przeczytać
na stronie: <www.artmuseum.net/w2vr/archives/Kay/01_Dynabook.html>, pisał
on: „Pomimo że Dynabook będzie wyposażony w obszerną pamięć wewnętrzną, a większość procesów obliczeniowych będzie dokonywała się lokalnie, przez
znaczną część czasu urządzenie podłączone będzie do różnych serwisów świadczących szeroki wachlarz usług informacyjnych umożliwiających użytkownikom
wzajemne udostępnianie pomysłów, wzorów projektów, różnorodnych treści oraz
danych, jak również i zwyczajową wymianę myśli między pracownikami, która
konieczna jest do codziennego funkcjonowania organizacji. Komunikacja ta odbywać się będzie metodą cyfrowej transmisji danych przekazywanych za pośrednictwem łączy prywatnych i publicznych oraz sieci typu Packet Radio. Dynabooki
będą pełniły również rolę serwerów zawierających dane używane przez serwisy
pośredniczące w wymianie informacji. Komputery te posiadały będą wystarczającą wydajność oraz moc przetwórczą, aby mogły one funkcjonować wyłącznie
w oparciu o samo oprogramowanie”.
Wyjątkowe wrażenie wywarł na Kayu sposób, w jaki wypracowane przez Piageta
teorie zostały wykorzystane do stworzenia języka programowania LOGO opracowanego przez matematyka z MIT, Seymoura Paperta.
53
52
której przeważająca większość, z racji braku odpowiedniego wykształcenia bądź
umiejętności, nie posiada zdolności koniecznych do pojmowania matematycznego rozumowania na odpowiednio zaawansowanym poziomie. Aquarianie
upatrywali w komputerach szansy na zniwelowanie tej mentalnej przepaści,
w szczególności względem znaczenia, jakie to miało w przypadku dzieci. Kay
i jemu podobni mieli ponadto odczucie, że komputery pozwolą zarówno osobom dorosłym, jak i dzieciom na wyzwolenie w sobie ze znacznie większą łatwością, tego rodzaju niczym nieskrępowanej kreatywności, jaki jest charakterystyczny
dla sposobu myślenia najczęściej spotykanego u najmłodszych. Szczególny nacisk, jaki Aquarianie kładli na pedagogiczny i zabawowy aspekt komputerowych
technologii, skłonił ich ku promowaniu idei stosowania tego rodzaju rozwiązań
technologicznych na możliwie najszerszą społeczną skalę, tym samym ugruntowując mem partycypacji w jeszcze większym niż dotychczas stopniu.
Podobnie jak miało to miejsce w przypadku poprzedzającej ich generacji Patriarchowów, pokolenie Aquarianów również zostało w dużej mierze skazane na zapomnienie. Nie oznacza to bynajmniej, że pokolenie to nie miałoby
stanowić źródła inspiracji dla pasjonujących się komputerową tematyką historyków, hardcore’owych hakerów czy co poniektórych technologów bądź artystów
techno. Jednak mimo bardziej powszechnego uznania dla ich dokonań Aquarianów nie plasuje się na aż tak wysokiej pozycji w panteonowej hierarchii kulturowych herosów, na jaką sobie faktycznie zasłużyli. Powód takiego stanu rzeczy
jest w swej istocie nader prozaiczny: nie spieniężyli oni swojego geniuszu. Engelbert wynalazł komputerową myszkę, a Stanford Research Institute sprzedało licencję na to urządzenie firmie Apple za raptem 40 tysięcy amerykańskich
dolarów. Kay wchodził w skład zespołu badawczego, który stworzył Alto, czyli pierwszy komputer osobisty mający prawdziwy potencjał rynkowy, ale firma
Xerox, na której zlecenie on powstał, nie potrafiła wypracować klarownej koncepcji jego sprzedaży19. Losy innych spośród nich, takich jak uchodzący za wzór
aquariańskich cnót wszelakich twórca pojęcia hipertekst i pionier technik informacyjnych, Ted Nelson, stały się przestrogą dla tych, którzy pojawili się po nim.
Wymarzona technologia wreszcie zaistniała, sen o partycypacji nie tylko począł
się ziszczać, ale zaczął wręcz w pełni rozkwitać, jednak Aquarianom nie udało
się sprzedać innym hołubionych przez siebie idei i technologicznych rozwiązań, które wypracowali na prawdziwie masową skalę. Przy czym trzeba zaznaczyć, że przynajmniej jak jest to w przypadku Stanów Zjednoczonych, sprzedaż
na skalę masową stanowi jeden z najlepszych sposobów na zaistnienie w zbiorowej świadomości. Natomiast sprzedaż masowa jest dokładnie tym, do czego
iście stworzeni byli Hustlerzy.
Hustlerzy:SteveJobsi BillGates
Czy kogokolwiek stać na to, aby odwalać robotę profesjonalistów za friko?
Bill Gates, 1976
Prawdziwi artyści dostarczają to, czego ludzie potrzebują.
Steve Jobs, 1983
19
Zob. M.A. Hiltzik, Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age,
HarperCollins, Nowy Jork 1999; D.K. Smith, R.C. Alexander, Fumbling the Future: How
Xerox Invented, Then Ignored, the First Personal Computer, William Morrow, Nowy Jork
1988.
53
Jeżeli nawet wśród najlepiej poinformowanych użytkowników komputerów Joseph Carl Robnett Licklider i Douglas Engelbart uchodzą za postacie mało
znane, to z kolei Steve’a Jobsa i Billa Gatesa, którzy zaistnieli w zbiorowej wyobraźni jako triumfalni królowie komputerowych maniaków, niewątpliwie można uznać za najbardziej rozpoznawalne ikony informatyki20. W apogeum swojej
świetności Jobs był prawdopodobnie najbardziej barwnym i intrygującym przedsiębiorcą świata, któremu jako jednemu z niewielu udało się zbudować warte
wiele miliardów dolarów biznesowe imperia w dwu różnych branżach. Był on
nie tylko współtwórcą produkującej komputery osobiste firmy Apple, ale również założycielem wytwórni filmów animowanych Pixar. Gates był dyrektorem
generalnym firmy Microsoft, i jak powie niemal każdy taksówkarz od Kalkuty po
Cancún, przez wiele lat również najbogatszym człowiekiem na świecie. Właśnie
Jobs i Gates, bardziej niż ktokolwiek inny, przyczynili się do tego, że komputery
stały się częścią codziennego życia, technologie zyskały znacznie bardziej przyjazny użytkownikowi wymiar, a informacja w równej mierze stała się siłą napędową współczesnego handlu oraz kultury.
Swoją działalność Jobs i Gates zaczynali, kiedy idea komputerów osobistych zapoczątkowana przez Patriarchę Licklidera i Aquariana Kaya wciąż była
jeszcze domeną wąskiej grupy nawiedzonych pasjonatów. Można było zrobić na
tym interes, ale na skalę nie większą niż w wąskiej branży sztucznych przynęt
wędkarskich. Jako dorastający w latach 70. XX w. nastolatkowie Jobs i Gates stanowili część małej grupy hobbistów, którzy nabywali zestawy do budowy prostych,
programowalnych komputerów służących do domowego użytku oraz zabawy.
Jobs wszedł do spółki ze Stevem Woźniakiem, byli członkami najbardziej
znanej grupy entuzjastów domorosłej informatyki, stowarzyszenia Homebrew
Computer Club z Cupertino w Kalifornii. Gates, który parał się programowaniem
już w szkole średniej, kiedy udało mu się uzyskać dostęp do wyprodukowanego
przez firmę DEC komputera typu mainframe, będąc późnej studentem Harvardu, tworzył oprogramowanie na w pełni profesjonalnym poziomie. Jobs i Gates,
podobnie jak ci, z którymi w latach 70. XX w. przyszło im współpracować i rywalizować, znaleźli się w punkcie zwrotnym, kiedy to, co uprzednio stanowiło dla
nich jedynie hobby przeistoczyło się w biznes. Tym, co sprawiło, że stali się zarówno bogatymi, jak i wpływowymi, była ich umiejętność łączenia kluczowych
atrybutów dwu poprzedzających ich generacji – twardej logiki biznesu Plutokratów z dalekosiężnym wizjonerstwem Aquarianów.
Steve Jobs i Bill Gates mają bardzo interesującą historię współzawodnictwa, polegającą na prześciganiu siebie nawzajem w celu osiągnięcia tego, co
Jobs określił mianem fenomenalnej doskonałości, a Gates upatrywał w globalnej dominacji rynku21.
20
21
Określenie triumfalni królowie komputerowych maniaków zostało zaczerpnięte z filmu
dokumentalnego z 1996 roku – The Triumph of the Nerds: The Rise of Accidental Empires,
zrealizowanego przez Roberta X. Cringleya dla amerykańskiego kanału telewizyjnego PBS (Public Broadcasting System), a bazującego na kanwie książki jego autorstwa,
noszącej tytuł Accidental Empires: How the Boys of Silicon Valley Make Their Millions, Battle Foreign Competition, and Still Can’t Get a Date, Harper Business, Nowy Jork 1993.
Dziennikarz Steve Levy zaczerpnął tytuł swojej książki, Insanely Great: The Life and
Times of Macintosh, the Computer That Changed Everything, Viking Penguin, Nowy
Jork 1993, z twierdzenia samego Jobsa, że on i jego ekipa byli blisko stworzenia
komputera będącego nie tylko urządzeniem funkcjonalnym i przynoszącym zyski,
ale również czymś fenomenalnie doskonałym. Opublikowana w tym samym roku
książka autorstwa Jamesa Wallace’a, opisująca z kolei dążenie Williama Henry’ego
„Billa” Gatesa III do rynkowej dominacji, nosi tytuł Hard Drive: Bill Gates and the Making of the Microsoft Empire, Harper Business, Nowy Jork 1993.
55
54
Steve Jobs wraz ze swoim partnerem biznesowym, Woźniakiem, byli
pierwszymi, którym dzięki założonej przez siebie w 1976 roku firmie Apple Computers udało się przeobrazić z hobbistów w przemysłowców. Wprowadzony na
rynek w 1977 roku komputer Apple II był tym produktem firmy, który przebił się
do masowej świadomości, zyskując rzesze klientów i czyniąc Jobsa i Woźniaka
pierwszymi powszechnie wychwalanymi, genialnymi, milionerami z Doliny Krzemowej. Jakkolwiek był istotny dla nich wczesny sukces osiągnięty przez Apple
II, to jednak największy wpływ udało im się wywrzeć siedem lat później, kiedy
zainspirowani myślą Engelbarta i Kaya stworzyli komputer osobisty dla masowego odbiorcy, który ustanowił nowy standard dla partycypacji.
Zanim to omówię, muszę cofnąć się do roku 1976, przenosząc się z Doliny Krzemowej do Nowego Meksyku, gdzie Gates i jego partnerzy biznesowi,
w tym jego dawni znajomi z Harvardu, Pall Allen i Steve Ballmer, tworzyli oprogramowanie dla komputera Altair. Był to rok, w którym Gates zaadresował słynny list do komputerowych hobbistów. Uskarżał się w nim na niepohamowane
software’owe piractwo. Twierdził, że nic innego by go tak nie uradowało jak
stworzenie biznesowego modelu dla społeczności hobbistów, który umożliwiłby mu zatrudnienie na pełny etat dziesięciu programistów piszących oprogramowanie na ich potrzeby.
Już cztery lata później Microsoft generował zysk, tworząc oprogramowanie z zamkniętym kodem źródłowym (ang. closed source code) dla różnorodnych
platform komputerowych, a do Gatesa zwróciło się samo IBM, wtedy będące
największym producentem komputerów na świecie, z zamówieniem na stabilny system operacyjny dla nowej klasy komputerów osobistych, które Big Blue
wówczas wprowadzał na rynek. Właśnie wtedy IBM i pracujący dla nich specjalizujący się we własności intelektualnej prawnicy podpisali umowę, która współcześnie jest określana mianem najgorszego kontraktu w historii światowego
biznesu. Gates, jako syn prawnika, znanego specjalisty od własności intelektualnej, wynegocjował kontrakt, według którego, zamiast pełnej sprzedaży systemu operacyjnego wyzbywającej się wszelkich praw, Microsoft udzielał jedynie
IBM-owi nań samej licencji. W myśl umowy Microsoft zastrzegł sobie także prawa do udzielania licencji na oprogramowanie MS-DOS i programy pokrewne
wszelkim innym producentom komputerów. W świetle sukcesu rynkowego IBM
pojawiła się mnogość firm produkujących klony komputerów osobistych, ale to
Microsoft, nie ponosząc żadnych kosztów produkcyjnych związanych z samym
hardware i posiadając jednocześnie monopol na dominujący system operacyjny, okazał się w tym wypadku głównym wygranym. W ciągu zaledwie dekady
Microsoft było warte więcej niż IBM, czyniąc Gatesa najbogatszym człowiekiem
świata. Gatesowi udało się pokonać Plutokratów w ich własnej grze i samemu
stać się jednym z nich. Nawet uwzględniając czynnik inflacji, Watsonowie nigdy
nie byli aż tak bogaci, jakim stał się Gates.
Gates był podziwiany za swoją biznesową strategię i potępiany za towarzyszącą jej bezwzględność, ale tak, jak miało się to w przypadku jego poprzedników Plutokratów, wizjonerstwo nie było dla niego celem nadrzędnym.
Steve Jobs, z kolei jako współtwórca i dyrektor generalny Apple, zasłynął z roztaczania wokół siebie tzw. pola zakłócenia rzeczywistości (ang. reality distortion
effect) wynikającego z ogromnej siły oddziaływania, jakie miały jego komputerowe wizje. W późnych latach 70. XX w., pracując dla pioniera gier komputerowych Atari, odwiedził placówkę badawczą Xerox PARC, gdzie miał sposobność
obserwować rozwiązania technologiczne zainspirowane aquariańskimi wizjami Engelbarta i Kaya. Duch ten stanowił dla Jobsa, który w pewnym momencie swojego życia odbył spirytualną podróż do Indii, wyjątkowe źródło inspiracji.
55
Niemniej jednak tym, co wpłynęło na niego w jeszcze większym stopniu po wizytach w placówce PARC, był mem partycypacji. Wypuszczony na rynek w 1977
roku komputer Apple II wyróżniał się unikalnymi wówczas możliwościami graficznymi oraz wmontowaną kartą dźwiękową. Jako pierwszy prawdziwy komputer osobisty dla mas, który od samego początku był pomyślany jako maszyna
multimedialna, okazał się prawdziwym objawieniem. Seria Apple II na stałe zagościła w szkolnych klasach całej Ameryki, co bez wątpienia przygotowało całe
pokolenie użytkowników komputerów do kolejnych technologicznych przemian
w przyszłości. Jobs był świadom tego, że dzięki zastosowaniu graficznego interfejsu użytkownika, nie tylko powstanie cała gama nowego oprogramowania
przyjaznego nawet dla laików, ale również spotęguje to przyrost nowych użytkowników. Seria Macintosh, która pojawiła się w 1984 roku, przyniosła następny
przełom w integracji dźwięku, obrazu i ruchu w świecie komputerów osobistych.
Maszyny te miały wbudowaną możliwość obsługiwania hipertekstu, skalowane
okienka, które po raz pierwszy zostały zaprezentowane światu przez Engelbarta w trakcie jego słynnej prezentacji z 1968 roku, a co więcej, uczyniły z myszki
urządzenie powszechnego użytku.
Nie ulega wątpliwości, że korzenie Jobsa sięgają generacji Aquarianów i że
Gates, wygrywając z IBM w ich własnej grze, przejął pałeczkę po Plutokratach.
Jednakże ukazanie się na rynku systemu operacyjnego Microsoft Windows, jako następcy funkcjonującego na zasadzie wierszy poleceń MS-DOS, było
interesującym przypadkiem wzajemnego naśladownictwa w obrębie tego samego pokolenia. Amerykańskie sądy już dawno ustaliły, że system operacyjny
komputerów Macintosh nie naruszał praw autorskich, którymi objęty był system
Windows. Warto również podkreślić, że w przeciwieństwie do krążących w powszechnym obiegu plotek Gates nigdy nie wystosował pisemnego polecenia
do swoich podwładnych, aby „wzorować się na Macu”. Pomijając jednak kwestie prawne, faktem jest, że to Apple był innowatorem, natomiast Microsoft był
bardziej skłonny przyswajać gotowe już rozwiązania. Jednakże to, co kiedyś odróżniało Hustlerów od siebie nawzajem, z perspektywy czasu zginie w mrokach
historii, a za pół wieku różnica między Jobsem a Gatesem będzie się wydawała
ludziom tak znikoma, jak ta, która jawi się nam współcześnie między Johnem D.
Rockefellerem a Andrew Carnegiem.
Bez wnikania w to, kto czego dokonał jako pierwszy i jakie towarzyszyły
temu motywy, kluczowym osiągnięciem pokolenia Hustlerów było wykorzystanie zmysłu marketingowego i managerskiego talentu Plutokratów do rozpowszechnienia auquariańskiego ducha innowacji i geniusza wynalazczości wśród
ogólnoświatowej populacji. Pomimo trudności stwarzanych przez nieprzebierających w środkach producentów, oferujących miernej jakości aktualizacje swoich
systemów operacyjnych, i przysparzające o ból głowy problemy z kompatybilnością oprogramowania, w ciągu następnych trzech dekad coraz większe rzesze
użytkowników stawały się posiadaczami maszyn o coraz większej mocy obliczeniowej. Przekładało się to na wzrastającą możliwość tychże maszyn do symulowania innych, będących już w powszechnym użyciu urządzeń medialnych, które
w tym wypadku zostały zintegrowane w bardziej jednolity (przynajmniej w teorii) system. Mimo iż wszystko zdawało się iść jak po maśle, w całym tym dynamicznym procesie przekształceń wciąż brakowało jednego z memów, który był
tak kluczowy dla pokoleń Patriarchów i Aquarianów.
Na cóż mogła się zdać ta wielka moc obliczeniowa i potencjał twórczy
drzemiący w komputerach, jeśli użytkownicy nie mogli wykorzystać ich do wzajemnego przekazywania informacji, na wzór tego cudownego XIX-wiecznego
wynalazku, jakim był telefon? Innymi słowy, któż mógłby przeistoczyć tę istniejącą
57
56
już bazę rozproszonych komputerów, w informacyjną sieć komunikujących się
ze sobą maszyn. Kto zdołałby połączyć je w system umożliwiający wymianę zarówno treści rozrywkowych, jak i życiowych doświadczeń, a nawet wzajemne
łączenie zasobów wiedzy w celu rozwiązywania nurtujących ludzkość od zarania dziejów „problemów złośliwych”? Oczywiście – Gospodarze.
Gospodarze:TimBerners-Leei LinusTorvalds
Tym, co przeglądasz, wpływasz na świat.
Tim Berners-Lee
Oprogramowanie jest jak seks: jest lepsze wtedy, kiedy otrzymuje się je za darmo
Linus Torvalds
Po triumfach, jakie Jobs odniósł z firmą Apple, komputerem Macintosh,
wytwórnią komputerowych filmów animowanych Pixar, internetowym serwisem muzycznym iTunes, smartfonem iPhone, a także tabletem iPad, trudno już
teraz pamiętać, że miał on również swój udział w wielu niepowodzeniach. Najlepszym tego przykładem, ukrytym pomiędzy kolejnymi stronami jego korporacyjnej biografii, jest NeXT Computer, relatywnie krótkiego żywota firma, którą
stworzył w połowie lat 80. XX w., już po swoim odejściu z Apple. Przepięknie
zaprojektowany komputer NeXT Cube, zaprezentowany światu po raz pierwszy
w październiku 1988 roku, poniósł rynkową klęskę. Podobnie jak obecnie niemal
zupełnie już zapomniany poprzednik Macintosha, Apple Lisa, był on o wiele za
drogi, aby zyskać zainteresowanie konsumentów szersze niż w wąskim gronie
badaczy i pracowników naukowych. NeXT Cube stał się jednak czymś, co przyczyniło się do zmiany sposobu, w jaki dokonywała się interakcja między samymi
konsumentami oraz rynkami a komputerami już nie tyle „osobistymi”, co raczej
„interpersonalnymi”. Od samego początku Jobs i jego ekipa zaprojektowali komputery NeXT Cube tak, aby mogły komunikować się miedzy sobą. Powstała zatem maszyna oferująca możliwość łączenia się w sieć komunikacyjną dokładnie
w taki sposób, w jaki przewidzieli to Patriarchowie dziesiątki lat temu, a w przeciągu następnych lat Engelbart i Kay starali się udoskonalić komputer z obiektowym
językiem programowania, wspólnymi środowiskami pracy oraz zintegrowanymi
narzędziami wizualnymi i dźwiękowymi. Innymi słowy, była to maszyna, która
oferowała wiele z tych możliwości, które ludzie oczekiwali od komputerów po
roku 2000, przy czym pojawiła się ona z 15-letnim wyprzedzeniem.
W późnych latach 80. XX w. w laboratorium fizyki w Genewie pewien brytyjski naukowiec posługujący się komputerem NeXT Cube testował możliwość
zastosowania tej maszyny do rozwiązania jednego z kluczowych dylematów,
z którym niejednokrotnie przyszło mu się zmagać w ramach dziedziny, jaką się
zajmował. Odkrycia naukowe z zakresu fizyki, podobnie jak główny przedmiot tej
dziedziny, często sprawiają wrażenie, jakby dokonywały się z prędkością światła, ale proces publikowania wyników badań na łamach specjalistycznych publikacji naukowych, posuwa się zazwyczaj w iście żółwim tempie. Mając na celu
przyśpieszenie tempa przekazywania informacji zarówno wewnątrz laboratorium
badawczego, jak i poza nim, Tim Berners-Lee zaczął zastanawiać się nad możliwościami, jakie mogłoby oferować publikowanie treści w formie elektronicznej.
W swoim poprzednim miejscu pracy uzyskał doświadczenie z zakresu komputerowego składu tekstów, a systemy hipertekstowe były czymś, czym interesował się już od ponad dekady.
57
W 1989 roku opublikował pracę traktującą o sprzęgnięciu wizualnego
systemu hipertekstowego z internetowymi protokołami komunikacyjnymi, co
umożliwiałoby wzajemne łączenie plików za pośrednictwem komputerowej sieci wymiany danych22. Berners-Lee pragnął osiągnąć podwójny cel w zakresie symulacji: z jednej strony, chciał, aby hipertekst mógł symulować komunikowanie
się międzysieciowe, z drugiej zaś strony, zależało mu na tym, aby sieci komunikacyjne mogły symulować wizualną formę połączeń oferowaną przez hipertekst. Dwa lata później, w 1991 roku, przy użyciu serwera NeXTStep udało mu się
skonstruować taki właśnie system i załadować pierwszą stronę na sieć komunikacyjną, która została nazwana przez niego mianem World Wide Web: <http://
info.cern.ch>. Było to ucieleśnieniem idei Międzygalaktycznej Sieci Komputerowej wysuniętej przez Patriarchę Licklidera, połączonym z nigdy niezrealizowaną
koncepcją uniwersalnej tekstowej bazy danych Xanadu, zaproponowanej przez
Aquariana Teda Nelsona.
Warto jest poświęcić trochę czasu na rozszyfrowanie owego zagadkowego zbioru liter, jakim jest ów przytoczony powyżej adres internetowy <http://
info.cern.ch>. Po pierwsze, jest to stosowany w Internecie i Sieciach lokalnych,
ujednolicony format adresowania zasobów, znany powszechnie jako URL (ang.
Universal Resource Locator), który pełni funkcję słownego wskaźnika przypisanego
do określonej grupy cyfr – w tym konkretnym przypadku, jest to 0.001.0012.2275.
Po drugie, „http” to protokół przesyłania dokumentów hipertekstowych
(ang. HyperText Transfer Protocol), który wiąże ze sobą właściwości łączące hiperteksty z funkcjami komunikacyjnymi Internetu. „Info” pełni tutaj rolę ekwiwalentną do Świętego Graala, jako że sama strona zawiera coś, co pojedyncza osoba lub
grupa osób udostępniła przez załadowanie, a inna osoba lub grupa osób będzie
mogła skorzystać z tych treści przez ich ściąganie. W następnej kolejności „cern”
to nazwa centrum badawczego, gdzie strona ta została stworzona. Centrum to
posiadało wówczas największe zagęszczenie połączeń internetowych w całej
Europie. Z kolei „ch” to skrót od Confoederatio Helvetica, będącej łacińską nazwą
Szwajcarii23. Pierwsza w historii strona WWW zawierała instrukcje informujące innych użytkowników Sieci, w jaki sposób mogą stworzyć własną stronę internetową, a następnie umieścić na na niej odnośniki (ang. links) do stron założonych
przez innych. Początkowo ta pierwotna strona pełniła również funkcję spisu zawartości Sieci, na której Berners-Lee umieszczał odsyłacze do adresów internetowych nowo powstałych stron, nadsyłanych mu przez innych użytkowników.
Efekt tych działań rozprzestrzeniał się niczym wirus o globalnym zasięgu.
Już wcześniej istniały sposoby dystrybucji i wyszukiwania treści przez Internet, tak
jak niemal zapomniane już dzisiaj protokoły komunikacyjne, takie jak Telnet, Gopher czy też Fetch, lecz tym, co dokonał Berners-Lee, było stworzenie pierwszego
prawdziwie intuicyjnego, graficznego interfejsu użytkownika. Celem naukowca
już od samego początku było to, aby tworzenie treści w Sieci było procesem tak
22
23
Zob. <www.w3.org/History/1989/proposal>.
Szwajcarzy posługują się czterema językami urzędowymi i stosują lingwistycznie neutralny skrót CH, jako kod samochodowy swojego kraju. Tak więc w przytoczonym tu adresie strony internetowej, „.ch” jest krajową domeną internetową
przypisaną Szwajcarii w systemie DNS (ang. Domain Name System – system nazw
domenowych). Podobnie rzecz ma się z domeną „.uk” w przypadku Anglii czy też
„.it” w przypadku Włoch. Jako ciekawostka warto odnotować fakt, że większość
osób, których adresy internetowe są zarejestrowane w Stanach Zjednoczonych,
nie posługuje się kodem DNS przypisanym temu krajowi, czyli domeną internetową „.us”, co jest interpretowane przez wielu jako oznaka imperialistycznej arogancji owego państwa.
59
58
samo prostym, jak dostęp do nich. Pod tym względem był on wpływowym orędownikiem na rzecz transparentności, kooperacji i twórczej interakcji. Podobnie
jak Aquarianie, postrzegał swoją działalność jako dar dla innych i oferował owoce swoich prac bezpłatnie, bez pobierania tantiem za wynalazki i patenty – co
było równoznaczne z faktem, że dzięki temu każdy mógł rozbudowywać Sieć.
Kilka lat później Marc Andreesen, wraz z grupą innych programistów, wprowadził do powszechnego użytku własną przeglądarkę o nazwie Netscape, co dało
początek bańce internetowej, która miała miejsce w drugiej połowie lat 90. XX
w. Okres bezkrytycznej euforii na światowych giełdach względem inwestowania we wszelkiej maści przedsiębiorstwa, których działalność była w jakikolwiek
sposób związana z Internetem, objawił się powszechną gorączką bogacenia się
na Sieci i przyznaniem Berners-Lee tytułu szlacheckiego Rycerza Orderu Imperium Brytyjskiego. Ponadto w tym czasie w pełni trzeźwo myślący ludzie poczęli
twierdzić, że wynalezienie Sieci było przełomem znacznie większym niż odkrycie przez ludzkość ognia. Jakkolwiek nie byłoby przesadne owo stwierdzenie,
nie ma cienia wątpliwości co do tego, że Sieć w ogromnym stopniu wpłynęła
na proces przekształcania się maszyny generującej naszą kulturę.
Przyznana w 1999 roku Złota Nike, najbardziej prestiżowa nagroda w sztukach medialnych, wzbudziła sporą kontrowersję, kiedy komisja sędziowska orzekła o przyznaniu jej jednocześnie informatykowi oraz systemowi operacyjnemu,
który opracował. W jaki sposób i dlaczego członkowie jury dorocznego austriackiego festiwalu sztuki, technologii i społeczności elektronicznej Ars Electronica postanowili uhonorować Fińskiego informatyka, Linusa Torvaldsa, człowieka,
który nigdy nie uważał się za artystę, jak też i jego twór Linux, będący właściwie
zbiorem komputerowego kodu, a nie dziełem sztuki (to kwestia, do której powrócę pod koniec tego rozdziału)? Jury w swoim uzasadnieniu przyznania nagrody
potwierdziło fakt zaistnienia tej rozbieżności, niemniej jednak argumentowała
swoją decyzję tym, że jej zdaniem Torvalds, jego oprogramowanie oraz społeczność, która przyczyniła się do jego powstania, „dała początek swoistego rodzaju
estetyce, określającej możliwość tworzenia czegoś w Sieci w sposób, który jest
niebezpośredni, aczkolwiek w pełni zamierzony”24.
Aby w pełni zrozumieć wkład, jaki Torvalds wniósł w mem partycypacji,
należy ponownie zwrócić swoją uwagę na Plutokratów. W przeciągu pierwszych
dwu powojennych dekad rozwoju informatyki, kiedy instytucje zaopatrywały się
w komputery typu mainframe, produkowane przez firmy, takie jak IBM czy DEC,
do oprogramowania stosowanego przez te maszyny dołączano pełną dokumentację kodu źródłowego. W tamtych czasach nie istniała zbyt szeroka gama
programów użytkowych, a sami „użytkownicy” ograniczali się de facto wyłącznie do samych ekspertów i informatyków, w związku z czym, umożliwienie tym
ludziom tworzenia własnego oprogramowania dla obsługiwanych przez nich
systemów komputerowych było podejściem w pełni sensownym. Jednakże na
przełomie lat 60. i 70. XX w. komputery i oprogramowanie zostały od siebie odseparowane, co przełożyło się na to, że programy komputerowe zaczęto traktować jako odrębny towar.
Z czasem zaczęto traktować chronione patentem oprogramowanie jako
jedyną opcję, która była dostępna większości użytkownikom: towar z ograniczoną możliwością jego redystrybucji, niejasny cyfrowy byt, do którego kodu
24
S. Chopra, S. Dexter, Decoding Liberation: A Philosophical Investigation of Free Software, Routledge, Londyn 2007, s. 81. Z pełną treścią uzasadnienia jury można zapoznać się na stronie Ars Electronica pod adresem: <http://90.146.8.18/en/archives/
prix_archive/prix_projekt.asp?iProjectID=2183>.
59
źródłowego nie było dostępu, oraz trwałe narzędzie, którego nie wolno było
modyfikować. Zmiana taka była korzystna dla sprzedawców oprogramowania
i niewątpliwie przyczyniła się do powstania (relatywnie) niezawodnych platform
i programów komputerowych, które umożliwiły zarówno małym przedsiębiorstwom, jak i osobom prywatnym podążanie tropem wielkich instytucji w procesie digitalizacji swojej pracy i życia. W naturalnej tego konsekwencji zgromadzono
i utracono wielkie fortuny.
Niemniej jednak w latach 70. i 80. XX w. kilka kluczowych postaci, szczególnie takich jak Richard Stallman, pozostawało zdania, że wcześniejszy etos otwartego oprogramowania był czymś, co było warte kultywowania. Stallmanowi
zależało na tym, aby rozszerzyć zakres więzi koleżeńskich, jaki panował w kręgach naukowych, i rozwinąć poczucie wzajemnej otwartości, jaką obserwowało
się w środowiskach hakerskich. Dlatego też postanowił stworzyć nowy system
operacyjny, który był zarazem kompatybilny z rodziną systemów UNIX, choć wyraźnie się od nich odróżniał, po czym udostępnił go innym podobnie myślącym
programistom. W stylu charakterystycznym dla hakerów ochrzcił go mianem GNU
(będącym skrótem od Gnu’s Not Unix – przykładem powszechnie stosowanego
w żargonie hakerskim akronimu rekurencyjnego), zakładając w 1985 roku organizację Free Software Foundation (Fundacja Wolnego Oprogramowania), mającej
na celu wspieranie Projektu GNU oraz współpracującej na rzecz informatycznej
społeczności. W Manifeście GNU Stallman określił etos wolnego czy inaczej otwartego oprogramowania:
1. Masz prawo do użytkowania programu w dowolnym celu.
2. Masz prawo do modyfikowania programu tak, aby służył twoim potrzebom. (Aby prawo to sprawdzało się w praktyce, musisz mieć dostęp
do kodu źródłowego, z racji na to, że przy braku dostępu do niego, modyfikowanie programu jest wyjątkowo trudne).
3. Masz prawo do redystrybucji kopii programu gratisowo lub za opłatą.
4. Masz prawo do rozpowszechniania zmodyfikowanych wersji programu, aby inni mogli czerpać korzyści z udoskonaleń, które do niego wprowadziłeś25.
Społeczność programistów i użytkowników systemu GNU składała się z ludzi zaangażowanych w ruchu otwartego oprogramowania, głośno manifestujących swoje dla niego poparcie oraz aktywnie na jego rzecz działających. Była
to jednak społeczność stosunkowo mała, ograniczająca się do badaczy naukowych, garstki oddanych sprawie zawodowych informatyków, poświęcających
się projektowi GNU w czasie wolnym od pracy, oraz hakerów zainteresowanych
wolnym oprogramowaniem. Jednakże w 1991 roku młody fiński student radykalnie przeobraził krajobraz, w jakim wówczas odbywała się współpraca nad
rozwojem wolnego oprogramowania26. Torvalds stworzył nowy system operacyjny, który nazwał Linux. Jego wielką innowacją było uświadomienie, że Internet zmieni praktycznie wszystko w zakresie tego, jak funkcjonuje społeczność
25
26
Zob. <www.gnu.org/gnu/thegnuproject.html>, oraz R.M. Stallman, Free Software,
Free Society: Selected Essays of Richard M. Stallman, Free Software Foundation, Boston 2002; S. Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, O’Reilly, Boston 2002.
Zob. L. Torvalds, D. Diamond, Just for Fun: The Story of an Accidental Revolutionary,
HarperCollins, Nowy Jork 2001.
61
60
skupiona wokół otwartego/wolnego oprogramowania. Torvalds udostępnił system Linux w taki sposób, jaki umożliwiał początkowo tysiącom, a wraz z rosnącą popularnością tej platformy, dziesiątkom tysięcy programistów, hakerów,
hobbistów i wszelkiej maści innych twórców-użytkowników możliwość modyfikowania, usprawniania i rozbudowywania głównego systemu operacyjnego,
który on pierwotnie stworzył. Przeprowadzone badania wykazały, że łączna ilość
czasu poświęconego rozwojowi systemu Linux była równa miliardowi dolarów,
przy czym koszt tych prac był minimalny lub prawie żaden27.
Istniały powody ku temu, aby ta pozorna kultura darów, jaka powstała
wokół Linuxa, obrała taką a nie inną ścieżkę rozwoju. Po pierwsze, Torvalds i grupa wczesnych entuzjastów jego programu pozostawała w ściśle ze sobą związanych relacjach. Po drugie, dzięki temu, że liczba osób zaangażowanych w dalszy
rozwój systemu Linux była tak wielka – szczególnie w porównaniu z liczbą osób,
którym był dany dostęp do zamkniętego kodu źródłowego komercyjnego oprogramowania produkowanego przez korporacje, takie jak Microsoft, HP, Apple,
Sun i Oracle – stał się niezawodnym systemem operacyjnym, wolnym od usterek i błędów oprogramowania. Okazał się dzięki temu szczególnie użyteczny dla
osób i grup administrujących serwery. Wszyscy przyjęli Linux z otwartymi rękami, począwszy od hakerskich odszczepieńców, przez korporacje, dla których
niezawodność systemów komputerowych była priorytetowa, a kończąc na rządach takich krajów, jak Brazylia i Chiny, które nie chciały uzależnić się od rozwiązań oferowanych przez Microsoft.
Istotne jest to, aby zrozumieć, jak wiele wnosi możliwość zaangażowania się szerokiej rzeszy ludzi w proces rozwoju otwartego oprogramowania. Informatyk Eric Raymond opisał oprogramowanie zamknięte (ang. closed source
software) jako cyfrowy ekwiwalent średniowiecznej katedry – potężnej struktury wzniesionej przez Kościół i architektów, której budowa zajmowała całe wieki.
Kontrastuje to z rynkiem oprogramowania otwartego (ang. open source software),
który jest podobny do bazaru pełnego straganów, z rozłożonymi na stołach towarami, gdzie handlarze nieustannie przekrzykują się między sobą i targują ze
swoimi klientami28. Katedra jest niewątpliwie olbrzymią i okazałą budowlą, ale
jeśli cokolwiek popsuje się w jej konstrukcji, naprawienie błędu jest wtedy nie
tylko trudne, ale i kosztowne. Przy czym jest możliwe, że nikt nie znajdzie wady
w tym miejscu, w którym trzeba. Jednak w przypadku systemu Linux, wszelkie
usterki niemal natychmiast stają się jawne, dzięki czemu szybko można je usunąć. Raymond wymyślił w związku z tym, zainspirowane postacią Linusa Torvaldsa, porzekadło: „Im więcej par oczu nań patrzy, tym bardziej banalne są błędy”.
Nazwał je Prawem Linusa.
W kręgach ruchu otwartego oprogramowania obserwuje się tendencję do pomijania różnic między projektowaniem programów komputerowych
a tworzeniem innych dóbr kultury. Proces tworzenia oprogramowania jest oparty w dużej mierze na oscylowaniu między problemami a rozwiązaniami, błędami
a poprawkami. Jest to dobre podejście, jeśli chodzi o usprawnianie oprogramowania i ulepszanie jego funkcjonalności, ale w sferze sztuki, muzyki lub literatury,
procesy tworzenia, wartościowania i osiągania sukcesu toczą się innymi trybami.
27
28
Informatyk i socjolog Paul Dourish jako pierwszy opowiedział mi następujący dowcip: „Linux jest oprogramowaniem darmowym tylko wtedy, kiedy wartość twojego czasu równa się zeru”.
E.S. Raymond, The Cathedral and the Bazaar: Musings on Linux and Open Source by
an Accidental Revolutionary, MA: O’Reilly, Cambridge 1999. Tekst ten jest dostępny pod adresem <www.catb.org/~esr/writings/cathedral-bazaar/>.
61
Nie każdą sferę produkcji można usprawnić przez współpracę, podobnie jak nie
każdą kwestię estetyczną można „rozwiązać” dzięki większej liczby patrzących
na nią par oczu lub słuchających ją uszu. Opierający się na współpracy otwarty model produkcji kulturowej, za którego sztandarowy przykład może służyć
ruch Creative Commons, co prawda wywodzi się z idei wolnego oprogramowania, mimo to różni się od niej zarówno w makro, jak i mikroskali. Jednakże dla naszych potrzeb, to właśnie model proponowany przez Creative Commons wnosi
najwięcej do sfery udostępniania.
Trzeba podkreślić również inną ważną kwestię: wolne oprogramowanie
niekoniecznie musi być darmowe. Ani Stallman, ani Torvalds nie zabronili sprzedaży oprogramowania, które powstało na bazie ich oryginalnych koncepcji, a co
więcej, firmom, takim jak Red Hat, na promowaniu i wspieraniu systemu operacyjnego Linux udało się zarobić całkiem niezłe pieniądze. Nieograniczony dostęp do kodu źródłowego, czyni oprogramowanie wolnym. Decyzja, co do tego,
czy owo wolne oprogramowanie powinno być udostępniane za opłatą czy też
za darmo, spoczywa w rękach programistów, którzy je stworzyli. W ciągu ostatnich kilku lat rozwiązania powstałe na kanwie otwartego oprogramowania GNU/
Linux poczęły coraz bardziej się rozwijać, stając się zarazem solidną, choć wciąż
technologicznie onieśmielającą alternatywą dla chronionych prawami autorskimi
rozwiązań oferowanych przez gigantów branży komputerowej, takich jak Microsoft czy Oracle. Tym samym oparty na współpracy i kooperacji system rozwoju
oprogramowania okazał się modelem przynoszącym rezultaty mogące spokojnie konkurować z produktami wypracowanymi według ugruntowanych już modeli biznesowych zorientowanych na zysk.
Wyszukiwacze:LarryPage,SergeyBrini inni
Nie czyń złego.
Motto biznesowe Google
Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii.
Arthur C. Clarke
Po upływie ponad pół wieku odkąd na dobre rozpoczął się proces komputeryzacji kultury, jakakolwiek linearna narracja jego przebiegu, którą udało się
tutaj nakreślić, na tym etapie rozwoju zaczyna się wyraźnie rozpadać. Analogię
do pęknięcia bańki internetowej można odnaleźć w zgubnych dziejach przedsiębiorstw budujących linie kolejowe w Stanach Zjednoczonych pod koniec XIX
wieku. Bankructwo wynikające z nieziszczenia się ich nierealnych wizji technologicznego rozwoju pozostawiło po sobie spuściznę dwojakiego rodzaju – jedną, której wpływ okazał się krótkotrwały, i drugą, której odciśnięte piętno było
znacznie większe.
Pierwsza dotyczyła zdefraudowanych i rozwścieczonych udziałowców.
Większość z uczestników tej kolejowej gorączki, z wyjątkiem służących, ku przestrodze przykładów dużych graczy, którzy stracili na tym wielkie fortuny, była zapomnianymi już przez historię małymi płotkami w dużym stawie – ofiarami złego
wyczucia ówczesnej rynkowej koniunktury. Drugą spuścizną owej bańki spekulacyjnej był zaś rozbudowany system linii kolejowych przebiegający przez cały kontynent północnoamerykański, dzięki któremu mogła powstać największa na całym
ówczesnym świecie zunifikowana producencko-konsumencka sieć dystrybucji.
Zaangażowani w budowę kolejowej infrastruktury przedsiębiorcy i inwestorzy
63
62
niewątpliwie utracili na tym grube miliony, ale dzięki ich wysiłkowi Stany Zjednoczone jako całość odniosły w wyniku tego niepomierną wręcz korzyść.
Bańka internetowa doby Sieci 1.0 pozostawiła po sobie ogrom „ciemnego
włókna” (ang. dark fibre – zapasowe włókno w kablu światłowodowym) obejmującego cały glob. Powstałą w okresie sieciowej hossy nadmiernie rozbudowaną
przez firmy telekomunikacyjne infrastrukturę połączeń, znacznie obszerniejszą
niż faktyczne było na nią zapotrzebowanie, już po krachu giełdowym, jaki nastąpił na początku nowego milenium, udało się wykorzystać innym do przeobrażania sposobu myślenia o Internecie oraz korzystania z jego zasobów i możliwości.
Google, czyli algorytm wyszukiwania, który stał się nazwą firmy, a następnie przyjął się jako czasownik, jak żadne inne przedsiębiorstwo w namacalny sposób skorzystało na tej zmianie najbardziej. Samo słowo Google było celowym
ortograficznym przekształceniem określenia matematycznego googol, oznaczającego jedynkę z dziesięcioma zerami (dziesięć do setnej potęgi). Firma ta stała się czymś na kształt sieciowej wersji mitycznego węża Uroborosa, obecnego
w staroegipskich i greckich wierzeniach, pożerającego samego siebie i samoistnie odradzającego się tworu okrążającego cały świat. To, co powołali do życia
współzałożyciele Google, Larry Page i Sergey Brin, jest maszyną bezustannie generującą innowację i pochłaniającą inne twórcze firmy z branży technologicznej.
Motorem napędowym tej maszyny są zarówno sami użytkownicy, jak i reklamodawcy. Google rzuciło wyzwanie dawnym mistrzom, od Microsoft do Yahoo!,
a rozwiązania technologiczne przezeń proponowane przesiąknęły dosłownie
wszystko, od bibliotek po komputerowe pulpity, usidlając przy tym wszystkich
od pornografów po kartografów i od antykorporacyjnych blogerów aż po dyrektorów wielkich korporacji. Jednakże, kiedy udało im się już tego wszystkiego
dokonać, wskutek tej działalności zatarła się granica między symulacją a partycypacją, a ludzie poczęli kwestionować rzekome dobro stanowiące przesłanie
motta biznesowego Google zakazującego czynienia zła.
Aby móc w pełni zrozumieć fenomen Google, konieczne jest uświadomienie sobie, że ogromny sukces, który odniosła firma, nie byłby możliwy bez
podwalin, jakie uprzednio położyli Gospodarze. W pierwszych kilku miesiącach
po tym, jak w 1991 roku Berners-Lee zapoczątkował ogólnoświatową sieć World
Wide Web, całość jej zasobów wynosiła zaledwie kilkaset stron, w pierwszych zaś
kilku miesiącach po pojawieniu się przeglądarki internetowej Netscape w 1994
liczba stron w Sieci sięgała już kilku milionów.
W tym samym roku dwaj studenci z Uniwersytetu Stanforda zapoczątkowali tworzenie katalogu o nazwie Przewodnik Internetowy Jerry’ego i Davida (ang.
Jerry and David’s Guide to the World Wide Web), zawierający listę ich ulubionych
stron istniejących wówczas w Sieci. W następstwie tej hobbistycznej działalności owi studenci, Jerry Yang i David Filo, stworzyli firmę Yahoo! W komercyjnej
inkarnacji swojego pierwotnego przedsięwzięcia kontynuowali oni strategię „kuratorską”, klasyfikując różnego rodzaju portale i strony według określonych kategorii. Coraz gęstsza ilość treści zapełniająca stronę domową serwisu Yahoo!
była logiczną konsekwencją stosowanego przez portal systemu organizowania
informacji opartego na tworzeniu kategorii i podkategorii tematycznych, ułatwiających użytkownikom odnajdywanie interesujących ich zagadnień. Jednak
już kilka lat później, kiedy to Page i Brin stali się studentami Stanford, zasoby Sieci
w szaleńczym tempie zwiększały się z milionów do setek milionów, a następnie
do miliardów i setek miliardów stron. Nieustannie rozrastający się natłok informacji sprawił, że potrzeba wyszukiwania i służące do tego celu wyszukiwarki
internetowe stały się synonimem współczesności. Kluczowym elementem procesu przeszukiwania zasobów Internetu, na który zwrócił uwagę Page, był fakt,
63
że samo wyszukanie treści nie było wystarczające. Dla użytkownika liczyło się
przede wszystkim to, na ile były trafne rezultaty wyszukiwania, w stosunku do
faktycznego zapytania, które on wystosował. Istniało wówczas niewiele sposobów wykorzystywania możliwości obliczeniowych komputerów do tworzenia
hierarchii ważności zasobów Sieci, a w roku 2000 ich liczba była już tak ogromna, że zatrudnianie jedynie ludzi do przekopywania się przez tą mnogość stron,
stało się całkowicie niemożliwe.
Idea Page’a polegała na tym, aby Sieć samoczynnie dokonywała „rankingu” swojej zawartości. Stworzył on w tym celu algorytm wyszukiwania wykorzystujący liczbę odnośników do i od konkretnej strony w celu określenia stopnia jej
„użyteczności” dla internautów29. Dzięki nieugiętemu skupieniu na udoskonalaniu doznań i zwiększaniu wygody użytkowników, oraz swoim ciągle ewoluującym, zaawansowanym mechanizmom generowania zysków, Google w przeciągu
pierwszej dekady swojego istnienia uzyskało pozycję bezsprzecznego lidera.
Podobnie jak ma się to z innymi omawianymi wcześniej historiami, również wokół początków Google wykreowały się mity założycielskie. Pierwszym
„aniołem biznesu” (ang. angel investor), czyli inwestorem przeznaczającym kapitał na finansowanie przedsięwzięć będących we wczesnych fazach rozwoju, był
Andy Bechtolsheim, jeden z współzałożycieli firmy Sun Microsystems. Po zapoznaniu się z zaprezentowaną mu przez Page’a i Brina koncepcją proponowanego
przez nich projektu, śpiesząc się na inne spotkanie, rzucił jedynie: „Zamiast omawiać teraz z wami wszystkie szczegóły, pozwólcie, że po prostu wypiszę wam
czek” Opiewający na sumę stu tysięcy dolarów czek był wypisany dla Google Incorporated, czyli mającą osobowość prawną spółkę, która wówczas nie została
powołana jeszcze do życia. Page’owi i Brinowi zajęło to kolejnych kilka miesięcy,
zanim czek ten mogli zrealizować. Do tego czasu udało im się zgromadzić prawie milion dolarów na cele realizacji swojego przedsięwzięcia.
Fakt, że partycypacja jest czymś, na co Google kładzie szczególny nacisk,
jest rzeczą oczywistą, ale w epoce Sieci działalność firmy stanowi również jedno
z głównych źródeł symulacji. Widoczne jest to w oferowanych przez nich komercyjnych rozwiązaniach naśladujących programy użytkowe tak, aby mogły być
one obsługiwane przez internetowe przeglądarki. Przykładem tego jest serwis
poczty elektronicznej Gmail, wzorowany na najlepszych elementach programów
pocztowych typu Microsoft Outlook Express, który jako aplikacja internetowa
umożliwia korzystanie ze wszystkich tych właściwości w Sieci.
Na jeszcze szerszą, bo globalną, w jak najbardziej dosłownym tego słowa
znaczeniu, skalę, sztandarowym metasymulacyjnym produktem firmy jest serwis
Google Maps, odwzorowujący powierzchnię całej Ziemi zarówno kartograficznie, jak i fotograficznie. Przedsięwzięcia te w niezbity sposób dowodzą, że Google przyjął ideę symulacji jako element mający przyciągnąć użytkowników do
wprowadzonego przezeń wzorca internetowego wyszukiwania i reklamy, który
stanowi kwintesencję działalności tej firmy.
29
We własnych słowach firmy, zawartych w korporacyjnym dekalogu Dziesięć prawd
potwierdzonych przez Google dostępnym na stronie <www.google.com/intl/en/corporate/tenthings.html>: „Opatentowany algorytm PageRank™ analizuje wszystkie
witryny zawierające linki do określonej strony, i przypisuje im określoną wagę, częściowo w oparciu o ilość witryn zawierających linki do nich samych. Przez analizę
pełnej struktury Internetu Google jest w stanie określić, które strony zostały »wybrane« najlepszymi źródłami informacji przez »głosujących« na nie użytkowników
najbardziej zainteresowanych ich zawartością. Technika ta udoskonala się w miarę rozrostu zasobów Sieci jako że każda nowa witryna stanowi kolejny punkt odniesienia i kolejny głos do uwzględnienia”.
65
64
Zarówno estetyka tej witryny, jak i sposób funkcjonowania stosowanego
przez nią modelu biznesowego, oraz forma, jaką przybrał jej korporacyjny wizerunek, było wynikiem wielu świadomych decyzji podjętych przez firmę. Przez
długie lata strona domowa Google miała oszczędny, ultraminimalistyczny wygląd. Zawartość jej ograniczała się jedynie do pola tekstowego z widniejącymi
poniżej niego dwoma przyciskami oraz znajdującym się powyżej logo firmy, którego podstawowy wygląd był zmieniany jedynie na czas kalendarzowych świąt
czy innych wyjątkowych okazji, takich jak Prima Aprilis. Świadoma decyzja, aby
ograniczyć liczbę widniejących na stronie głównej elementów do niezbędnego minimum, wyraźnie kontrastowała ze stroną domową Yahoo!, z całą jej mnogością kategorii, podkategorii i przesytem wszelkiej maści informacyjnych treści.
Tempo wzrostu popularności Google zwiększało się proporcjonalnie do malejącego zainteresowania opcją oferowaną przez Yahoo!30.
Kultura korporacyjna Google jest naznaczona naleciałościami mającymi
swe korzenie w erze dotcomów: niemal żaden z pracowników nie nosi garnituru, a współzałożyciele firmy niezmiennie twierdzą, że jedyną istotną dla nich
rzeczą jest wyszukiwanie. Googleplex, czyli mieszcząca się w Mountain View,
w Kalifornii główna siedziba firmy, wyposażona jest w takie standardowe elementy, jak stoły do gry w piłkarzyki i bary przekąskowe, ale jest wzbogacona
o dodatki w rodzaju lamp lava czy dużych, gumowych piłek do ćwiczeń. Dopełniającym całość, typowo kalifornijskim akcentem jest fakt, że szef korporacyjnej
kafeterii gotował dla sztandarowego zespołu epoki hipisowskiej – „The Grateful
Dead”. Jednakże dzięki nieustannemu dążeniu do pomnażania zysków, Google
odniosło znacznie większy sukces, niż ten, który w swoich anemicznych próbach budowania własnej marki starały się osiągnąć dawno już odpadłe z rynkowej konkurencji firmy doby Sieci 1.0.
Google, niezależnie od ideałów zawartych we własnym korporacyjnym
motto nakłaniającym do nieczynienia zła, nie może nie prowokować pytań i wywoływać sprzeciwu. Z tej prostej przyczyny, że jest to korporacja o gigantycznych rozmiarach, przynosząca równie kolosalne zyski, której wszechobecność
w Sieci jest wyczuwalna przy każdym kliknięciu myszką. „Darmowe” korzystanie
z serwisów oferowanych przez Google jest możliwe dzięki reklamie. Wraz z rosnącym tempem swojego rozwoju Google stopniowo począł pochłaniać innych
czołowych dostarczycieli treści ery Sieci 2.0. Przykładami tego typu akwizycji są
między innymi stworzony w 1999 roku, a nabyty przez Google w 2003 roku, darmowy serwis blogowy Blogger, zapoczątkowany w 2005 roku, a przejęty przez
rynkowego giganta rok później bezpłatny serwis wideo YouTube, a także będące liderami na rynku świadczenia usług reklamowych w Internecie firmy, takie
jak powstały w 1996 roku, a zakupiony przez Google w 2007 roku Doubleclick,
oraz działający od 2008 roku, a wchłonięty przez Google w 2011 roku, AdStars.
Wszystkie powyżej przytoczone przykłady rynkowych posunięć Google
świadczą o tym, że korporacja ta staje się udziałowcem funkcjonującym na niemal
wszystkich frontach relacji między użytkownikami, reklamodawcami a dostarczycielami treści. W tym ostatnim przypadku odnosi się to w równym stopniu i do
profesjonalistów, i do amatorów, jak też i osób oscylujących między tymi dwoma
typami działalności lub funkcjonującymi całkowicie poza ich obrębem. Przy całym swoim zaangażowaniu w partycypacyjne aspekty Sieci 2.0 w rzeczywistości
30
Pojawienie się bardziej zatłoczonej i bogatej w treść, spersonalizowanej witryny
iGoogle wskazuje na zmianę tego podejścia. Od 2008 roku górne menu strony
głównej oferowało użytkownikom wybór między wersją iGoogle a jej uproszczonym, oryginalnym wariantem, czyli niezamierzenie śmieszną w celu kontrastu stroną domową „Classic Home”.
65
Google pozostaje jedną, wielką enigmą. Objęty prawem patentowym algorytm
wyszukiwania, będący głównym mechanizmem działania ich wyszukiwarki, stanowi wyłączną własność intelektualną Google, a tym samym jest najściślej strzeżonym sekretem korporacji. Co więcej, nie jest dokładnie wiadomo, jaką liczbę
serwerów używa firma, i gdzie na świecie są one rozlokowane.
Pomimo że znajdowanie treści za pomocą wyszukiwarki Google jest bezpłatne, a generowane przez nią rezultaty zdają się wypełniać niemal wszystkie
zakątki Internetu, sama korporacja jest jednak kompletnym zaprzeczeniem idei
głoszonych przez ruch otwartego oprogramowania. Im bardziej Google staje się
integralną częścią naszej codzienności, tym mocniej uwypuklają się związane z tą
wszechobecnością potencjalnie problematyczne kwestie. Należą do nich: stronniczość, cenzura, a przede wszystkim płynące z działalności biznesowej materialne korzyści oraz to, kto i w jaki sposób na tym wszystkim najbardziej zyskuje.
Im bliższe teraźniejszej chwili stają się tworzone na kanwie technologicznego rozwoju historie, tym większe istnieje niebezpieczeństwo, że ich autorzy
mylnie uznają to, co jest ledwie przelotnym trendem, za coś nieprzemijającego.
Przedkładając to, co pozornie nieistotne, lecz zdolne odcisnąć swe trwałe piętno, nad to, co pompatyczne, choć w ostatecznym rozrachunku całkowicie pozbawione znaczenia. Wydaje się mało prawdopodobne, aby przyszłe generacje
oceniły dążenie do łączenia informacji, osób i treści medialnych we wspomagane technologią sieci wzajemnych zależności i obopólnego oddziaływania jedynie jako mało znaczący epizod w rozwoju ludzkości. W chwili nastania nowego
milenium, memy symulacji i partycypacji splotły się ze sobą tak bardzo i rozpowszechniły drogą sieciową na skalę tak globalną, że ich uporządkowywanie
i udostępnianie mogło być jedynym możliwym rozwiązaniem. Generacyjne narracje powstałe w pierwszym półwieczu istnienia komputera, jako maszyny generującej naszą kulturę, zaczęły się rozpadać dokładnie w tym momencie, kiedy
partycypacja i symulacja stały się wszechobecne, przeistaczając się tym samym
w kwintesencję unimodernizmu.
66
Postmediacje
Media wyobrażone
Piotr Celiński
69
70
Skupię się na analizie jednego z wielu możliwych sensów powołanej na
potrzeby tomu kategorii mindware. Interesują mnie potencjalnie przypisane do
niej relacje zachodzące pomiędzy nowym – cyfrowym i sieciowym – porządkiem
medialnym a sferą zbiorowej wyobraźni społecznej, kulturowej i komunikacyjnej. Dokonujące się przy okazji cyfrowej zmiany rozwarstwienie monolitycznej dotąd techniki na fizyczne oprzyrządowanie i „wirtualne” oprogramowanie
podważa tradycyjny porządek medialny. Cyfrowość obala istniejące ekonomie,
polityki, ideologie i estetyki powiązane z dominacją materialnych technologii
medialnych. Przewodnią, referencyjną rolę w ich miejsce przejmuje nowa, „miękka” logika kulturowa wynikająca z natury cyfrowego kodu, wielokierunkowych
i antyhierarchicznych relacji w ramach rizomatycznych sieci oraz postępującej
cyfryzacji. W nowej medialnej ekologii centralne miejsce tradycyjnych, fizycznie namacalnych i regulowanych według znanych reguł narzędzi i maszyn medialnych zajmują organizowane według zasad matematycznych implementacje
cyfrowego kodu.
Zwrot ku komunikacyjnej i technologicznej emancypacji i supremacji software oraz cyfrowemu modelowi rzeczywistości kryje w sobie kulturowy paradoks. Oznacza triumf modernistycznej logiki instrumentalizacji i racjonalizacji
techniki i jej dalszą emancypację z szeroko pojętego świata kultury. Jednocześnie
cyfrowy kod i jego zaawansowane realizacje użytkowe w sposób nieoczekiwany
udrożniają opuszczone mosty pomiędzy techniką i kulturą wybudowane jeszcze
w kulturze tradycyjnej, przednowoczesnej. Dzięki software najbardziej wysublimowana technika sprzęga się na powrót z kulturową codziennością; z wpisanymi
w nią pospolitymi imaginariami społecznymi, taktykami komunikacyjnymi i medialnymi wywodzącymi się z powszechnych habitusów i codziennymi rytuałami,
mitologiami i zachowaniami. Najdoskonalsze wytwory techniki, jakimi są maszyny cyfrowe, które mają przede wszystkim naukowy i militarny życiorys, okazują się współcześnie bezbronne wobec działań zwykłych użytkowników. Czynią
oni z nich media integralne, to znaczy zintegrowane z codziennością, tożsame
z nią, a przynajmniej w znacznym stopniu nasączone ideami i wrażliwościami
wehikuły kultury. Za ich pośrednictwem i jednocześnie wewnątrz ich form liberalizują i demokratyzują zakodowane w nowoczesnej, technopolowej mitologii
i ideologii technokratyczne polityki, ekonomie i estetyki.
Wobec takiej kondycji medialnego świata i jego odbudowywanych związków z zasobami kultury, sytuującymi się poza technopolowym układem, szczególną rolę do odegrania ma medialna wyobraźnia i podtrzymujące ją imaginaria.
Ich kluczowa pozycja wynika z antropomorficznej ekwiwalencji tej sfery wobec imaginacyjnej (w nowomedialnej nowomowie posłużono się tu terminem
wirtualna) natury operacji na kodzie cyfrowym, które regulują funkcjonalność
hardware. Na symbolach cyfrowego kodu można wykonywać nieograniczone
formalnie działania, tj. programować go według nieskończonej ilości wariantów algorytmicznych i reguł ciągów liczbowych. W związku z tym wyłaniające
się z niego software’owe implementacje i interfejsy użytkowe można wstępnie określić w tym kontekście mianem mediów wyobrażonych. Nie waham się
użyć wobec nowomedialnych praktyk takiego opisu przede wszystkim dlatego, że ich formy i języki wybiegają dziś daleko poza ustalone reguły elitarnej,
technokulturowej gry polityczno-społecznej opartej na materialnych wytworach nowoczesnego przemysłu. Użytkownicy cyfrowych maszyn w praktyce
mediacji i komunikacji czynią z nich na poziomie kodowania, ale i powoli na poziomie hardware, maszyny wyobraźni; wprowadzają do medialnego świata zasoby ludowe i ośmielają się na działania sprawcze, wobec których nie sprawdzają
się oficjalne procedury i reguły, a jedynym ograniczeniem pozostaje właśnie
71
wyobraźnia. W ten sposób na stałe i w ramach bezprecedensowo skróconego cyklu na tle dotychczasowej historii technik medialnych wrażliwość i wyobraźnia technologiczna, kulturowa, społeczna i antropologiczna wpinają się
w krwioobieg medialnego uniwersum i zasilają je swoimi zasobami, rekonstruując medialny krajobraz współczesności.
Media rozwarstwione, które obnażają i rozbrajają się społecznie i kulturowo za sprawą zawiadującego nimi kodu, to media heterogeniczne, płynne
i otwarte. Projekt cyfrowy i sieciowy to miejsce wkluczania dla wielu memów,
mitów, logik semantycznych, wizualnych, aksjologii, polityk, ideologii – tekst do
nieustannego czytania, pisania, uzupełniania i negocjacji; do wyobrażania sobie i realizacji w ramach codzienności.
Kategoria mindware, niezależnie od toczącej się na łamach tego tomu debaty na temat jej semantycznej zasadności, precyzji i dyskursywnego potencjału,
to narzędzie pojęciowe, za pomocą którego chciałbym wskazać na nierozpoznaną jeszcze dobrze, nienazwaną precyzyjnie, ale zyskującą na znaczeniu w obliczu rozwarstwienia technologii domenę medialnej wyobraźni i fundującego ją
pluralizmu komunikacyjnych imaginariów. Sądzę, że za tymi pojęciami kryją się
naturalne zasoby kultury postawionej w obliczu nowych technologii komunikacyjnych, nowych maszyn dialogu i regulujących je protokołów. Z nich skorzystamy w pierwszym rzędzie, starając się odnaleźć w świecie, w którym technologie
medialne są dobrem powszechnym i oferującym bogactwo już istniejących i dopiero możliwych form i gramatyk użytkowych. Świadome czerpanie z nich to
szansa na nową, społeczną ekologię mediów i komunikacji.
Drugistanskupienia
Na początek warto bliżej przyjrzeć się wspomnianemu rozwarstwieniu
techniki, bo doszło do niego na skutek wydarzeń, których inspiracje sięgają daleko w głąb historii. Cyfrowe kodowanie i strukturyzujące je oprogramowanie to
nowy, właściwy nowoczesnym losom, stan skupienia techniki i jej mediów. Technika bowiem, będąc najważniejszym z instrumentów racjonalnej, ścisłej wiedzy
i głównym motorem napędzającym nowoczesną emancypację, urbanizację, globalizację oraz rozwój społeczeństwa konsumpcyjnego stała się także jedną ze
sfer zrekonstruowanych za sprawą kartezjańskiego dualizmu. Wraz z rozwojem
projektu oświeceniowego oddziaływanie tego poglądu przybrało wiele różnych
form i objęło całą domenę społeczną i kulturową, stając się referencyjnym markerem kondycji współczesności. Sądzę, że sens projektu cyfrowego to idealne wcielenie tej filozofii, jeden z emblematów emancypacyjnej dynamiki modernizmu.
Kartezjańskie rozróżnienie w domenie techniki to właśnie jej rozwarstwienie i powstały w efekcie dualizm stanów skupienia hardware i software. Choć
sprzęgnięte nierozerwalnymi więzami obie te techniczne warstwy rozwijają się
coraz bardziej niezależnie, uniezależniają się od siebie. Powoli, ale systematycznie,
zauważalna staje się przewaga imaginacyjnego kodu nad materialnym hardware.
Hardware poddaje się jedynie ewolucji związanej z miniaturyzacją, zwiększaniem
wydolności i pojemności ale na bazie uniwersalnej, i jak na razie niemającej alternatywy, koncepcji maszyny obliczeniowej. Software natomiast to dziewicze
pole, na którym spotykają się doświadczenia kultury i techniki, matematyki i semantyki. Potencjał tej sfery jest olbrzymi – jako cywilizacja dopiero rozpoznajemy jego sens i inklinacje. O rosnącym znaczeniu miękkiej warstwy medialnego
świata świadczą jednak już teraz choćby niewyobrażalnie szybko pęczniejące fortuny twórców software, takich jak Google, Microsoft czy Facebook. Potwierdzają
to także diagnozy współczesnych medioznawców. Przykładowo Lev Manovich
w tytule swojej ostatniej książki nie pozostawił wątpliwości, oprogramowanie
72
przejmuje kontrolę nad medialnym światem (Software takes command), tak jak
niegdyś mechanizacja przejęła kontrolę nad terytorium techniki (Mechanization
takes command)1. Rosnąca kulturowa przewaga znaczenia kodu nad materią przypomina emancypację z tradycyjnych ograniczeń nowoczesnego, samostanowiącego o swojej tożsamości podmiotu.
Cyfrowość to jednocześnie scena urzeczywistnienie kolejnej nowoczesnej idei. Chodzi o rozpalające umysły ludzi renesansu, a później podjęte z jeszcze
większym zapałem poszukiwanie racjonalnego języka opisującego świat i towarzyszące mu obmyślanie uniwersalnego kodu wiedzy o świecie i generującej go
nauki (mathesis universalis). U podstaw tej idei leży wizja świata zakodowanego
i odczytywanego za pomocą cyfr (perspektywa geometryczna w malarstwie
i rzeźbie, zasada złotego podziału w typografii czy architekturze) i, tak jak one,
poddającego się dekodowaniu/oddziaływaniu według wszelkich matematycznych prawideł; zawierającego się w ich ciągach. Przekonanie o matematycznym
porządku wszechrzeczy legło u podstaw nowoczesności i w konsekwencji wytyczyło koleje rozwoju techniki i wszelkich jej pochodnych w tym okresie. W prostej linii idea ta wraz z narosłymi wokół niej praktykami społecznymi (rewolucja
przemysłowa, urbanizacja, industrializacja) stały się elementarnymi składowymi
genetyki nowych mediów i cyberkultury oraz naturalnym środowiskiem, w którym
ten projekt mógł się rozpocząć i nabrać tempa. Do dziś myślenie w tym duchu
stanowi zręb cybernetycznych imaginariów ojców-założycieli i technokratycznych zarządców cybernetycznego świata2.
Sprzężenietechnikii wyobraźni
Wspomniałem powyżej także o radykalnym skróceniu/przyspieszeniu cyklu wymiany i sprzężenia pomiędzy sferą miękkiej technologii a jej antropicznym
ekwiwalencie, czyli sferą wyobraźni medialnej i komunikacyjno-kulturowej. Obecna postać tej zależności została wytyczona przez prędkość cyfrowych mediów.
Ich naturalna software’owa płynność powoduje, że domagają się nieustannego
zasilania zasobami spoza ich technologicznej natury. Jest to immanentna cecha techniki; jest ona jednym z wcieleń kultury, jej instrumentem i formą. Jednak
praktyka software polega na radykalnym skróceniu obiegu wymiany pomiędzy
techniką a tworzącymi ją ideami i wyobrażeniami. To, co możliwe w wyobraźni
kultury, podlega w praktyce software błyskawicznej (względnie – w stosunku do
stopnia sprzężenia wcześniejszych maszyn medialnych z kulturą i ich podatności na kulturową regulację) translacji do postaci wyrażeń matematycznych. Do
takiego stanu rzeczy przyzwyczaili nas twórcy oprogramowania: to oni dyktują
dziś tempo ewolucji hardware, pisząc aplikacje zbyt wymagające dla obecnych
maszyn, projektując zupełnie nowe zastosowania dla obliczeń komputerowych
czy tworząc nowe typy interfejsów użytkowych lub protokołów sieciowych, wymiany i organizacji baz danych, itd.
Wpływ kartezjańskiego dualizmu i idea liczbowej uniwersalności świata
to bodaj najbardziej znaczące siły, które powołały do życia miękką warstwę mediów. Jednocześnie wprowadziły – oto wspomniany wcześniej paradoks – do
architektury technicznego uniwersum za pośrednictwem tej warstwy energię
spoza istniejącego, nazywanego modernistycznym, układu sił. Do odcinającego
1
2
L. Manovich, Software takes command, 2008, lab.softwarestudies.com/2008/11/softbook.html; S. Giedion, Mechanization Takes Command: a contribution to anonymous
history, Oxford University Press, 1948.
Na temat aksjologii, wyobraźni, polityki i innych uwarunkowań towarzyszących rozwojowi projektu cyfrowego zob. np. J. Abbate, Inventing the Internet (Inside Technology), MIT Press, 2000.
73
się od mroków nieścisłej wiedzy i nieracjonalnych kompetencji, zakodowanego
matematycznie, poddanego technokratycznej i industrialnej kontroli cyfrowosieciowego uniwersum wyemancypowani (dzięki tym właśnie procesom) użytkownicy za pośrednictwem software, tylnymi drzwiami, wprowadzają wypchnięte
poza nowoczesny nawias pospolite wrażliwości, imaginaria, semantyki i praktyki kulturowe i wprzęgają je do technologicznych układów. Zasilają język mediów siłą kulturowej codzienności i ludowości, wyrastającymi ze zbiorowego
ducha społeczności i ich potocznego, zawartego w mitach i codziennych praktykach, rozumienia świata wraz ze sposobami jego oswajania i życia w nim. Prędkość cyfrowości i jej otwartość ustanawiają natomiast nierozerwalne sprzężenie
pomiędzy obecnym stanem wyobraźni komunikacyjnej i medialnej, wraz z ich
imaginariami, a samą technologią. Powstaje w ten sposób homeostatyczne środowisko, w którym coraz trudniej odseparować od siebie wyobraźnię medialną
od innych rodzajów kompetencji kulturowych; życie z mediami od życia poza
nimi, wydarzenia od ich reprezentacji, itd.
Sprzężenie to ma także społeczny wymiar. Technologiczne wyobraźnie
i wyobrażenia, komunikacyjne habitusy i ideologie różnią się od oficjalnych, systemowo dystrybuowanych wraz z medialnymi maszynami nie tylko w taki sposób,
w jaki racjonalna wiedza różni się od przesądów i mitów. Strategicznie opracowany polityczny kod mediów i hierarchiczne implementowane mity o regułach zdarzeń komunikacyjnych, które w krajobrazie mediów analogowych
były nadrzędne wobec programów technicznych samych tych mediów – tak
jak ideologie transmisji telewizyjnych czy mitów kinowych mają większą siłę
oddziaływania społecznego niż gramatyka kamery, montażu, formatu obrazu –
napotykają w związku z tym na taktyczny opór/dekonstrukcję ze strony swoich współczesnych odbiorców. Odbiorcy ci (przywołuję tu diagnozy dotyczące
semantycznych wojen w kulturze masowej) rozbrajają je, dekodują w praktyce
codzienności. W taki sposób na komunikacyjnym znaczeniu w domenie technologicznej zyskuje obszar zbiorowej wyobraźni komunikacyjnej i medialnej, wynikające z niego wrażliwości i habitusy, kompetencje i gesty, mitologie i estetyki3.
W swojej słynnej diagnozie współczesności z lat 90. ubiegłego wieku Neil
Postman sugestywnie dowodził tezy o triumfie techniki nad kulturą. Pisał o podporządkowaniu życia społecznego technokratom, którzy kontrolują je dzięki dostępowi do techniki, autorytarnej kontroli jej wytwarzania, reglamentacji dostępu
do niej i ideologizacji społecznego wykorzystania. Patrząc z perspektywy zaledwie 30 lat powszechnej (Zachód) historii rozwoju i upowszechniania cyfrowych
maszyn połączonych w komunikacyjne sieci, widać, że supremacja technopolu na tym polu traci twardy grunt pod nogami. Została podważona na skutek
nasilających się taktyk „wirusowania”, „hackowania”, „piratowania” i „otwierania”
zwykłych, emancypujących się dzięki tym maszynom, użytkowników – niegdysiejszych konsumentów i ich współtwórców – niegdysiejszych biernych odbiorców. Można, parafrazując konstatację Postmana, orzec, że w ramach postępu
projektu cyfrowego kultura coraz skuteczniej odbija utracone pozycje na granicy
z imperium technologii. Siłą kulturowych mitów, wrażliwości i praktyk zwykłych
ludzi coraz bardziej świadomie i krytycznie przedostających się do tworzonych
przez nich powszechnie elementów software i hardware triumfuje nad strategicznymi ideologiami i programami technopolu.
3
Na temat strategii i taktyk zob. szerz. M. de Certeau, Wynaleźć codzienność. Sztuki działania, Kraków 2008; a także M. Gardiner, Critiques of everyday life, Routledge,
2000; L. Manovich, The Practice Everyday of (Media) Life, 2008, manovich.net/DOCS/
manovich_social_media.doc.
74
Medialnewyobraźniei imaginaria
W drugiej części artykułu podejmę się teoretycznego opisu medialnej
wyobraźni i medialnych imaginariów. Następnie przejdę do demonstracji mediów wyobrażonych.
Warto zatem sprawdzić, jak można definiować medialną wyobraźnię i wytyczające jej kształty medialne i komunikacyjne imaginaria. Stwierdziłem, że dla
kondycji medialnych światów sferę wyobraźni można uznać za istotną, a dla cyfrowości za kluczową. Jej znaczenie, zarówno na poziomie zbiorowym, jak i indywidualnym, wynika z faktu, że funkcjonuje jako antropologiczny, społeczny
i kulturowy ekwiwalent wobec użytkowej gramatyki zakodowanej w formach
technologii. Dzięki niej jednostki i zbiorowości oswajają, nadają sensy i operacjonalizują maszyny medialne. Przekładają je na idee i/lub wcielają dzięki nim idee
w życie. Spotykają się tu i remiksują zinternalizowane wyobrażenia i idee z percypowanymi ze świata technologii odpowiednikami.
Stan tej wyobraźni na poziomie społecznym nie jest jednolity. Ścierają się
w niej różne wyobrażenia (imaginaria) i wrażliwości, które sprzyjają powstawaniu różniących się znaczeń i wywołują odmienne skutki. Stan ten nie ma wyjątkowego znaczenia w obliczu homogenicznego technologicznie i strukturalnie
dominium technologii masowych, towarzysząca bowiem im wyobraźnia jest zaprogramowana przede wszystkim w trybie odczytania i interpretacji. Dopiero
w obliczu rzeczywistości cyfrowej i sieciowej staje się najważniejszym narzędziem
homo communicans. Projekt cyfrowych technologii jest bowiem heterogeniczny/
liberalny formalnie, a w zasadzie skazany na nieustanną wewnętrzną rekonstrukcję i płynność. Wynika to z zasady cyfrowego kodu, którego ciągi permanentnie
stabilizują i uobecniają stany poddanych mu cyfrowych maszyn, interfejsów i języków programistycznych. W obliczu cyfrowych mediów nie można liczyć na
stabilizację w żadnym z tradycyjnych wymiarów medialnego pola sił – zmienne
są tu reguły polityczne, społeczne, ekonomiczne, kulturowe, a nawet związane
z ustalonymi raz na zawsze, jak mogło się dotąd wydawać, euklidesowymi warunkami stanowiącymi czasoprzestrzeń. Dlatego właśnie można uznać, że projekt nowych mediów i łączących je sieci jest projektem otwartym, znajdującym
się w trakcie nieustannej rekonceptualizacji i negocjacji kulturowej i w sposób
niespotykany dotychczas uwikłany w warunki antropologiczne, behawioralne,
psychologiczne podmiotu. Tak jak on sam stał się samoświadomy nowoczesności, wyemancypowany i nomadyczny, takie stały się również towarzyszące mu
technologie mediów. Rozwarstwione domagają się nieustannej uwagi, zaangażowania. W ten sposób sprzęgają się z ludzką wyobraźnią, odwołując się do jej
prymarnego usytuowania wobec medialnych i komunikacyjnych gestów, idei,
estetyk, polityk. Jak współczesne technologie medialne okazują się najbardziej
zaawansowanymi, integralnymi maszynami, tak i od każdego domagają się równie integralnego, głębokiego zaangażowania. Dzięki temu sprzężeniu spójność
medialnych mitologii, idei, estetyk z pozostałymi wymiarami życia społecznego, komunikacji, wrażliwości, itd. jest bezprecedensowa.
Diagnozy nauk humanistycznych i społecznych zaczęły rozpoznanie interesującej sfery i w przeciągu ostatnich 30 lat zaproponowały własne pojęcia
opisujące ją i operacjonalizujące. W latach 80. XX w. politolog Benedict Anderson4 pisał o społecznościach i społeczeństwach wyobrażonych, które funkcjonują
równolegle do tych faktycznych na skutek osłabienia w ramach nowoczesności
tradycyjnego społecznego hardware: monarchii dynastycznej, wspólnotowości
4
Zob. polskie wydanie: B. Anderson, Wspólnoty wyobrażone: rozważania o źródłach
i rozprzestrzenianiu się nacjonalizmu, Kraków 1997.
75
religijnej, czasoprzestrzeni, państw narodowych i związanej z nimi tożsamości
wspólnotowej. W miejsce tych twardych regulatorów pojawiają się mity i wyobrażenia mniejszej skali, które objawiają się w społecznym dialogu samostanowiących jednostek i zbiorowości i regulują kształt zbiorowego życia. Humaniści
dysponują obszernym zbiorem kategorii pojęciowych, które są pochodnymi do
kierunku myślenia, podjętego przez Andersona. Zawierają w sobie interesującą
mnie wyobraźnię medialną jako jeden z elementów składowych wyobraźni zbiorowej lub pozostają wobec niej w relacjach bliskoznaczności. Za podobnymi kategoriami kryją się poszukiwania odniesień w przestrzeni semiotycznej: języku,
znakach, znaczeniach i ich nieustannej fluktuacji w praktyce społecznej; a także
dyskursywna reakcja na dynamikę takich zjawisk kulturowych, jak technopol, kultura wizualna, kultura uczestnictwa.
Zarysowany powyżej miękki i efemeryczny wymiar życia społecznego
i kultury został odkryty dla nauki za sprawą zwrotu lingwistycznego. W odczytaniu jednego z najbardziej znanych i uznanych socjologów współczesności,
Pierre’a Bourdieu, na zbiorową wyobraźnię składają się relacje pojedynczych habitusów, czyli uwewnętrznionych struktur wiedzy i szeregu zależnych od nich
dyspozycji wyobrażeniowych i praktycznych, które wykorzystuje się jako fundamenty myślenia i działania. Kanadyjski socjolog kultury, Charles Taylor, jako imaginaria społeczne określał towarzyszącą nowoczesnej moralności samowiedzę
społeczną, wynikające z niej praktyki, perspektywy i oczekiwania, które rzadko
bywają artykułowane bezpośrednio. Stanowią one coś w rodzaju współdzielonych wyobrażeń i odniesień konstytuujących wspólnotę i wytyczających kształty życia zbiorowego. Z kolei jeden z najczęściej przywoływanych antropologów
zajmujących się kategorią globalizacji, Arjun Appadurai, wskazał na obecność
i przenikanie się wewnątrzzbiorowej wyobraźni konstytuujących ją sfer. Według
niego są to globalne „krajobrazy”: medialny, technologiczny, etniczny, finansowy
i ideowy. W ich wzajemnym przenikaniu się rozwija i utrwala się społeczna i kulturowa wiedza nowoczesnych społeczeństw, która wybiega dzisiaj daleko poza
tradycyjne granice państw, systemów kulturowych i społecznych, kontynentów. Dla zanurzonych w tych krajobrazach mają one charakter przede wszystkim
imaginacyjny, a dopiero później się materializują. Służą jako symboliczne konstrukcje strukturalne wyznaczające punkty odniesienia w indywidualnym konstruowaniu obrazów świata5.
Jeśliby uznać zaproponowane przez Appadurai krajobrazy za moduły
kulturowo-społecznej wyobraźni, to trzeba się także z nim zgodzić, że to właśnie medialny i technologiczny pośród nich wszystkich osiągnęły współcześnie
w tym imaginacyjnym amalgamacie kluczową pozycję. W nowoczesnej zbiorowej wyobraźni miejsce wyobrażeń technologicznych i medialnych jest tak ważne jak siła rewolucji przemysłowej, urbanizacji i industrializacji dla ostatnich 300
lat cywilizacji zachodniej. Jak techniczno-przemysłowa energia zasiliła jej historyczną dynamikę w ramach projektu nowoczesności, tak i w zbiorowej wyobraźni współczesności zasadniczą rolę odgrywają imaginaria techniczno-medialne.
Obejmują one zarówno rozumienie programów zakodowanych w technologiach
komunikacyjnych, jak i próby tworzenia własnych ich wersji, dotyczą usytuowania
i roli techniki w ogóle, a szczególnie pozycji i roli technologii medialnych. W tej
imaginacyjnej przestrzeni rodzą się i są poddawane nieustannej weryfikacji komunikacyjne reguły i procedury, wynika z niej (choć nie tylko z niej) wrażliwość
5
P. Bourdieu, Dystynkcja. Społeczna krytyka władzy sądzenia, Warszawa 2006;
Ch. Taylor, Modern Social Imaginaries, Duke University Press, 2004; A. Appadurai,
Nowoczesność bez granic. Kulturowe wymiary globalizacji, Kraków 2005.
76
komunikacyjna i komunikacyjne habitusy. To instancja, w której są wartościowane i prześwietlane zakodowane w technologiach ideologie, obalane i przetwarzane mitologie, podejmowane decyzje związane z ich estetyką i interfejsami.
Imaginariasiecii sieciwyobraźni
W wewnątrzmedialnej i komunikacyjnej wyobraźni rodzą się, podlegają
weryfikacji, a następnie upowszechniają imaginaria. Szczegółowe rozpoznanie
ich pochodzenia i wzajemnych relacji współczesnych zaproponował francuski
socjolog mediów Patrice Flichy w swoich pracach na temat Internetu. Francuz
rozumiał medialne wyobrażenia i budowane na ich podstawie zbiorowe wyobraźnie jako integralną część systemu techniki. Nowe rozwiązania technologiczne dostają się w pole oddziaływania społecznego i kulturowego, stają się
fragmentem złożonej i płynnej architektury powiązań pomiędzy już istniejącymi
a potencjalnymi technikami. Wpadają jednocześnie w wir dyskursów, ideologii,
polityk i ekonomii, które sytuują i podtrzymują technikę w ramach uniwersum
społecznego. Technika i jej poszczególne wytwory nie istnieją poza takim umocowaniem – w ten sposób Flichy podjął krytykę technocentrycznych, z jednej
strony, i socjocentrycznych, z drugiej, teorii i perspektyw rozumienia mediów dominujących współcześnie w dyskursach nauk humanistycznych i społecznych.
Według francuskiego socjologa jakiekolwiek próby konceptualizowania techniki poza uniwersum kulturowym są – szczególnie w domenie „wirtualizujących
się” technologii cyfrowych i sieciowych – zawsze obrazem szczątkowym, partykularnie nieprawdziwym.
Według badacza Internet jest najbardziej ewidentnym dowodem potwierdzającym tezę o zasadniczym wpływie wyobraźni medialnej na kształty, które
przybierają media w otoczeniu kulturowym i praktyce społecznej. Zetknięcie
nowo powstającej technologii z imaginariami i budowanymi na ich podstawie
scenariuszami owocuje unikalną trajektorią cywilizacyjną tego medium, powoduje, że nie jest możliwe ani zaprogramowanie jednolitego dla niego programu,
ani jego linearne egzekwowanie według określonego scenariusza w domenie
publicznej. W ciągu krótkiego okresu Internet okazał się podatny na radykalne w swej naturze i odmienne od siebie scenariusze kulturowe (ludowa sfera
publiczna), polityczne (doskonałe wcielenie technopolu) i społeczne (wirtualne społeczeństwo) wdrażane przez różne grupy zaangażowane w rozwój tej
technologii. Wiele tych implementacji zmieściło się w pojemnym semantycznie zbiorze znaczeń właściwych tej technologii, przekłada się na współistniejące obok siebie – naturalnie w różnych pomiędzy sobą relacjach – jego oblicza,
interfejsy i programy. Tym właśnie różnią się nowe media od ich analogowych
poprzedników, którym nie można było – ze względu na ich techniczny charakter – przypisać różnych społecznych oblicz z łatwością, jaką oferuje kod cyfrowy.
Łatwość przypisywania i ścieranie się imaginariów medialnych w rzeczywistości mediów cyfrowych i zsieciowanych ma także dodatkowe znaczenie.
Po raz pierwszy na taką skalę – z pominięciem tradycyjnych ograniczeń geograficznych, kulturowych, społecznych czy politycznych – cyfrowe technologie
umożliwiają utrwalanie i wykorzystywanie powstających poza tradycyjnymi podmiotami zarządzającymi losami technologii mitologii, wyobrażeń, ekologii i estetyki. Media cyfrowe połączone w pracujące w czasie realnym sieci to przestrzeń
zbiorowej i zsieciowanej inteligencji społecznej (collective i connected intelligence), miejsce objawiające potencjał wielostronnej i wielokierunkowej komunikacji
różnych podmiotów życia społecznego. Dla zbiorowych imaginariów medialnych to sfera naturalnego wzrostu i przenikania – sieć wyobraźni, która stymuluje
i utrwala/mnoży unikalną na tle historii mediów nowoczesnych wyobraźnię sieci.
77
Imaginariainterfejsów
Przykłady ideologizowania cyfrowych rozwiązań są dostępne w kontaktach z cyberkulturą na każdym kroku. Zapisane w technologiach cyfrowych
mity, idee, imaginaria mają różny zasięg i różną siłę sprawczą – na te najbardziej doniosłe, które wytyczały i wytyczają generalne sensy związane z rozwojem Internetu, wskazał Patrice Flichy. Nie trudno jednak o przykłady sporów
i debat o mniejszym zasięgu i wpływie na losy cyfrowych rozwiązań technologicznych. Dobrym przykładem ilustrującym rynkowe przepychanki wokół interfejsu komputera osobistego, który w powszechnym odbiorze jest uznany
za najważniejszą z form cyfrowej rewolucji, jest jedna z kampanii marketingowych zrealizowana przez wiodącego producenta hardware i software – firmę
Apple. W tej jednej z najgłośniejszych w dziejach cyberkultury kampanii reklamowych bohater symbolizujący nową „filozofię” komputeryzacji staje naprzeciwko bohatera reprezentującego odchodzącą do lamusa historii medialnej
kultury epokę Personal Computer.
Pierwszy bohater jest pełen młodzieńczego luzu i dystansu, interesuje się
cyfrowym życiem jako przestrzenią realizacji swoich codziennych pragnień, hobby. Komputer jest mu potrzebny nie tylko jako narzędzie służące do pracy, ale
przede wszystkim jako medium pośredniczące w rozrywce, życiu towarzyskim
i wspomaganiu spraw osobistych. Piękny przedmiot pożądania, ekskluzywny gadżet, który ta postać reklamuje, ma być ikoną nowego, cyfrowego, toczącego
się w Sieci stylu życia. Postać grająca przestarzały komputer osobisty jest ociężała, nie dba o estetykę, nie potrafi cieszyć się z życia, jest arogancka i pretensjonalna. Prezentacja tego profilu została przygotowana na podstawie interpretacji,
w myśl której dotychczasowy rozwój techniki komputerowej służył w przeważającej większości zastosowaniom ściśle technokratycznym – komputer miał być
przede wszystkim wydajnym narzędziem pracy, godną zaufania, ale pozwalającą się kontrolować maszyną obliczeniową. Wszelkie pozostałe jego funkcje to jedynie niepoważne dodatki do tej dziejowej misji. Z tych pozycji komputery mają
przejść do roli przyjaciół zwykłego człowieka. Powinny towarzyszyć mu w codziennych czynnościach, wspomagać w pracy i życiu osobistym. Jednocześnie
mają być piękne i spełniać funkcje symboliczne, zgodnie z prawem „pokaż mi
swój sprzęt, a powiem ci, kim jesteś”6.
W taki sposób koncern Steve’a Jobsa skutecznie odwołał się do elementów społecznej wyobraźni i zapisanej w niej mitologii towarzyszącej cyfrowym
maszynom. Nie ma w niej miejsca na wizje technokratów, naukowców, inżynierów i handlowców – komputery weszły na stałe w kulturowy krajobraz współczesności i po przyjacielsku towarzyszą zwykłym ludziom w ich życiu. Jest to jedna
z bardziej wyszukanych i eleganckich opowieści o zmianie kulturowej i społecznej, która dokonuje się w przestrzeni nowych mediów.
Dwaalfabetyzmy
Zanim przejdę do analizy przykładów przedstawiających przenikanie medialnych wyobraźni i wyobrażeń do kulturowych praktyk, form i języka cyfrowych
technologii, zatrzymam się jeszcze na chwilę nad generalnym stanem medialnej wyobraźni. Oprócz regulujących ją w mniejszym i większym zakresie różnych
imaginariów definiują ją także przewartościowania i generalne ruchy tektoniczne związane z równie generalnymi ruchami tektonicznymi w medialnym krajobrazie na skutek pojawienia się w niej cyfrowości.
6
Kampania „Get a Mac” zrealizowana przez Apple w latach 2006–2009. Zob. www.
adweek.com/adfreak/apples-get-mac-complete-campaign-130552.
78
Wyobraźnie medialne nie tylko konstruują w ramach skróconego obiegu
wymiany rzeczywistość technologiczną kultury. Ich siła sprawcza oddziałuje także na kulturowe reguły obcowania z mediami i wykorzystywania ich. W literaturze antropologicznej i medioznawczej są one definiowane za pomocą kategorii
alfabetyzmów (media literacies)7, czyli wrażliwości i kompetencji komunikacyjnych. Na poziomie wyobraźni zbiorowej alfabetyzm to zdolność społeczności,
kultury do rozumienia dostępnych narzędzi medialnych i zbiór umiejętności do
posługiwania się nimi. W skali jednostkowej oznacza indywidualne kompetencje do posługiwania się technologiami komunikacyjnymi i sprawność w konstruowaniu zdarzeń komunikacyjnych przy ich wykorzystaniu i pośrednictwie.
Urzeczywistniane w domenie mediów cyfrowych wyobrażenia i wyobraźnie sprzyjają dualizmowi alfabetyzmów. Dominujący obecnie alfabetyzm analogowy ustępuje przed rodzącym się kompetencjom cyfrowym i stojącym za nimi
wyobrażeniom, estetykom, politykom, itd. Pierwszy jest związany z wieloletnią
(od czasu maszyny Gutenberga) dominacją analogowego porządku mediów masowych i towarzyszącej im hierarchicznej, masowej kultury biernej konsumpcji
i stanowi kulturową matrycę służącą do ich obsługi i wykorzystania. Odnosi się
w przeważającej mierze do zdolności czytania medialnej logiki i transportowanych za jej pomocą ideologii i estetyki, sprzyja lokalizacji zdarzeń komunikacyjnych w strukturze postfeudalnej hierarchii społecznej i kulturowej. Odnosi się
zatem do podziałów na elity i lud, na dysponentów technologii i mediów oraz
ich odbiorców, na producentów/sprzedawców i konsumentów. Powstające w obliczu mediów cyfrowych kompetencje wymykają się tym dualizmem. Nowe media spełniają jednocześnie funkcję tradycyjnego oprzyrządowania do czytania
(jak to nazwał L. Lessig – read only media) i nowatorskiego wehikułu służącego
do pisania medialnego świata (read and write media), oferują tradycyjny download spreparowanych uprzednio elementów medialnego uniwersum ale i upload
unikalnych zasobów powstających poza tradycyjnymi medialnymi instytucjami i logikami (P. Lunenfeld)8. Oferują także wiele strategii pośrednich, mieszczących się po części zarówno w logice odbioru, jak i nadawania, których obecność
i znaczenie pojawiają się na styku ścierających się i zachodzących na siebie alfabetycznych kontynentów.
Analogowa wyobraźnia komunikacyjna pracuje w trybie read-only i w jakiejś mierze, niemal wyłącznie na poziomie semantyki medialnych przekazów,
umożliwia remiks (grę, zestawienie, płynność). Natomiast cyfrowo-sieciowa wyobraźnia oferuje tryb write-and-read. Kondycja ta oznacza domyślny tryb remiksu; nieustanne projektowanie i zestawianie medialnych fragmentów w narracje,
permanentną cyrkulację zasobów łączących się według różnych kryteriów i w ten
sposób otwiera drogę do w pełni heterogenicznych, programowalnych światów
medialnych. Oznacza także zestawianie i remiksowanie elementów kompetencji medialnych z wieloma innymi kompetencjami z różnych zakresów naszego
bycia w świecie – w ten sposób praktyka mediów cyfrowych i sieciowych jest
bliższa pozostałym sferom naszych zwykłych aktywności, a pośród nich także
tych komunikacyjnych, ale pozamedialnych, niezapośredniczonych. Czyni z medialnych doświadczeń, wyobraźni i gestów przestrzeń integralnie powiązaną
(zlinkowaną) z dotąd niemedialnymi i nielokującymi się poza sferą komunikacyjną (lub w ograniczonym zakresie) praktykami i stanami wyobrażonymi kultury.
7
8
Zob. na ten temat np. P. Flichy, Understanding Technological Innovation: A SocioTechnical Approach, Edward Elgar Publishing 2007; tegoż, Internet Imaginaries, MIT
Press, 2008.
P. Lunenfeld, The Secret War Between Downloading and Uploading: Tales of the Computer as Culture Machine, MIT Press, 2011.
79
Nowe alfabetyczne zdolności i kompetencje rodzą się także w zderzeniu
z niejasną naturą ontyczną cyfrowych tworów. Na styku analogowego i cyfrowego, którego emblematem jest relacja pomiędzy hardware a software, pojawia
się stan, który Peter Weibel określił mianem kondycji postmedialnej. Zintegrowana z kulturą i błyskawicznie przekładająca się na medialne kształty wyobraźnia
okazuje się pomocna we wchodzeniu w kondycję podwójnego stanu skupienia mediów, by chwilę później podpowiedzieć, jak należy się w nowym medialnym otoczeniu zachowywać – co i jak z cyfrowymi technologiami robić, jak się
komunikować i mediować. Zestawia ze sobą materialność medialnych bytów
kultury analogowej z ograniczoną i skomplikowaną perceptualnie bytnością
cyfrową, realizującą się zawsze jedynie pośrednio na ekranach, łączach, interfejsach i w protokołach hardware.
W taki sposób na styku szelfów technologicznych porządków medialnych
powstają nowe kulturowe matryce komunikacyjne i medialne. Wspomniałem tu
jedynie o dwóch generalnych osiach dynamizujących nasze medialne wrażliwości i kompetencje, które postrzegam jako epicentrum wielu innych dokonujących
się w tym zakresie zmian. Z ich zderzenia wynikają choćby takie zmiany, jak debata nad prawami autorskimi i sposobami wymiany zasobów kultury (ostatnio
spór wokół ACTA, SOPA, PIPA), nowe reguły dotyczące edukacji i organizacji systemu szkolnictwa (e-learning).
Wyobraźniewcielone
Powyżej naszkicowałem mapę pojęć i odniesień, które wiążę z przestrzenią medialnej wyobraźni. Teraz skupię się na wybranych przykładach, które obrazują implementacje medialnych wrażliwości i imaginariów – będę analizował
byty i praktyki kulturowe, które określam mianem mediów wyobrażonych. Sądzę, że biorąc pod uwagę różnice pomiędzy software i hardware, warto wyróżnić tu dwie taktyki. Hardware i jego ewolucja poddaje się logice uwolnionej od
więzów kultury masowej i biernej konsumpcji w znacznie mniejszym stopniu niż
software. Jednocześnie to w obszarze hardware wyobrażonego widać pęknięcia
w technologicznym monolicie kultury masowej. Zasadniczą strategią kulturową,
możliwą do realizacji w obszarze hardware, jest – związany z ograniczeniami wytwarzania i obiegu materialnych podzespołów – remiks, klonowanie i hacking.
Tymczasem w przestrzeni software tradycyjne ograniczenia materii i rządzących
nią praw nie mają decydującego znaczenia. Oprogramowanie jest bezpośrednią
pochodną imaginacyjnej natury cyfrowego kodu i wszelkich matematycznych,
logicznych i estetycznych reguł. Jest w związku z tym projektem płynnym, który
nie może zostać ukończony (tak jak niemożliwe jest doprecyzowanie w ramach
istniejącej wiedzy matematycznej wartości Π i innych wartości w ramach dostępnego współcześnie kodu, np. wyniku dzielenia 10 przez 3) i który, właśnie z tego
powodu, jest najbardziej reprezentatywny dla współczesnych medialnych wyobraźni i imaginariów. Jest z nimi najbardziej ściśle zintegrowany, czy też, jak to
określił Lev Manovich, „głęboko zremiksowany”9.
Hardware
Jak wspomniałem, warstwa hardware w obliczu nowej wyobraźni medialnej staje się obszarem upłynniania i remiksu. Popularną praktyką są tu działania
polegające na ulepszaniu czy modyfikowaniu dostępnego oprzyrządowania, takie jak tweaking, tuning, cracking, oraz generowaniu i wymianie wiedzy
9
Zob. L. Manovich, Deep remixability, Piet Zwart Institute 2005, http://remixtheory.
net/?p=61.
80
i zasobów pozwalających na takie modyfikacje w ramach społeczności online.
Wraz ze wzrostem wiedzy i świadomości technologicznej (techniczna emancypacja) możliwe i popularne stało się także majsterkowanie (na zasadzie aktywności technologicznych poza oficjalnym systemem dystrybucji i kontroli rynkowej)
alternatywnych rozwiązań technologicznych. Pojawiają się one jako uzupełnienia
obecnego, zmonopolizowanego przez rynek, krajobrazu medialnego, ale także
jako technologiczne alternatywy wobec dostępnych rozwiązań. Podejmowanie
tego typu działań bierze się po części z niezadowolenia z oferty rynkowej – ceny,
funkcjonalności, parametrów, warunków użytkowania, ale i z pobudek światopoglądowych, ideologicznych, społecznych i politycznych. Zainteresowani technologiami na własny użytek wiążą z nimi odmienne wartości, mitologie, estetyki
i praktyki użytkowe. Znajdują dla istniejących rozwiązań i towarzyszących im semantyk nieoczekiwane tryby, zastosowania i reguły użytkowe. Wraz z ich działalnością pluralizuje się społeczna domena technologii z ich ekologią, ekonomią
i potencjałem semantycznym.
Zróbtosam
W ciągu ostatnich kilku lat trzem nauczycielom i fanom majsterkowania
pracującym w Mediolanie – Gianluce Martino, Massimo Banziemu i Davidowi
Cuartielles – przy użyciu podzespołów elektronicznych udało się samodzielne
zaprojektować i wprowadzić do społecznościowego obiegu globalnej społeczności fanów mediów uniwersalny kontroler cyfrowy, który nazwali Arduino. Zdecydowali się na ten krok, poszukując taniego, prostego w obsłudze i zdolnego
podołać wielu powszechnym zadaniom stawianym przed maszynami cyfrowymi narzędzia. Ponieważ nie udało im się znaleźć odpowiedniego sprzętu (stosunek ceny do możliwości, brak możliwości pełnej kontroli), postanowili stworzyć
własne. Zaprojektowane przez nich niewielkie urządzenie jest w gruncie rzeczy
prostym układem funkcjonalnym, który jest zdolny wykonywać zaawansowane
obliczenia sterowane za pomocą oprogramowania. Ponieważ dysponuje różnymi
interfejsami wejścia i wyjścia, w zasadzie działa jak prosty komputer. Zadowoleni
z efektu swojej pracy twórcy postanowili podzielić się samym urządzeniem i wiedzą o nim ze wszystkimi zainteresowanymi. Na internetowych stronach sprzedają gotowe układy, a dodatkowo oferują pełną dokumentację urządzenia wraz
z gotowym oprogramowaniem, jego różnymi wersjami. Wokół projektu błyskawicznie urosła społeczność jego użytkowników, niektórzy jedynie wykorzystali
gotowe urządzenie i/lub jego dokumentację, inni zaczęli je modyfikować, ulepszać, personalizować10.
Wokół domowej, amatorskiej, ale jednocześnie kreatywnej i nacechowanej ideologicznie twórczości w zakresie hardware pojawiają się zorganizowane
zbiorowości. Niektóre z nich mają ulotny charakter społeczności wirtualnych komunikujących się dzięki internetowym forom i aplikacjom, inne, odwołując się
do mitów lat 70. XX w., kiedy w garażach i akademikach Doliny Krzemowej rodziły się zręby współczesnej kultury cyfrowej, organizują się w przestrzeni offline – spotykają się na środowiskowych targach, eventach, wspólnie majsterkują
i spędzają czas11. Powyższe i podobne im społeczne aktywności przybierają także
10
11
Zob. więcej Open sesame, „The Economist” Technology Quarterly Q2 2008, Jun
5th 2008 – wersja online: www.economist.com/node/11482589, a także; More than
just digital quilting, „The Economist” 2011 – wersja online: www.economist.com/
node/21540392.
Przykładowa fotorelacja z jednego ze spotkań społeczności twórców hardware
podczas Chaos Computer Club w Berlinie w 2011 roku; http://avaxnews.com/appealing/Chaos_Computer_Club_28th_Congress.html.
81
formę bardziej instytucjonalną. Coraz bardziej powszechne na całym świecie stają się formaty badawczo-edukacyjno-kulturowo-gospodarcze znane jako Media Laby, czyli laboratoria mediów. Najczęściej są powoływane przez instytucje
edukacyjne, naukowe czy jako komercyjne inicjatywy przedsiębiorców. Obok
nich także format środowiskowych klubów dla medialnych majsterkowiczów
cieszy się coraz większą popularnością. Spotykający się w nich hakerzy określają je mianem hackerspace. Zarówno bardziej formalne laboratoria mediów, jak
i środowiskowe kluby hackerspace to przykłady coraz większej aktywności użytkowników technologii cyfrowych. Powstają w nich oryginalne pomysły i gotowe urządzenia, których realizacja poszerza techniczne uniwersum rozwiązań
cyfrowych i sieciowych12.
Audio
Jedną z najprężniej funkcjonujących społeczności zajmujących się rozbrajaniem istniejących technologii hardware i tworzeniem dla nich pozarynkowych,
nieoficjalnych alternatyw są grupy hobbystyczne zajmujące się sprzętem służącym do reprodukcji nagrań muzycznych. Audiofile-majsterkowicze rozkładają na
czynniki pierwsze całą infrastrukturę technologiczną tego typu urządzeń, poszukując konfiguracji najbardziej optymalnych – to jest najwierniej, najbardziej wydajnie odtwarzających zarejestrowane klipy audio. Konstruowanie sprzętu audio
okazało się jedną z najbardziej dynamicznych sfer rozwoju technologii medialnych, a jednocześnie rynek tego typu urządzeń to miejsce wielu ekonomicznych
i społecznych potyczek i nieustannych negocjacji. Audiofile są przekonani o wielu ideologicznych i rynkowych ograniczeniach i manipulacjach ze strony rynku,
takich jak celowe działanie na rzecz gorszych co do oferowanej jakości rozwiązań
sprzętowych, bardziej korzystnych ekonomicznie (przypadek taśm magnetofonowych, które zastąpić miały płyty gramofonowe), zastępowanie torów analogowych urządzeniami cyfrowymi czy przejście od sygnału stereofonicznego do
standardów dźwięku wielokanałowego. Także i dlatego, choć przede wszystkim
z pobudek hobbystycznych i ekonomicznych, skłonni są do modyfikacji istniejących i konstruowania autorskich rozwiązań sprzętowych13.
Jedną z najbardziej popularnych taktyk stosowanych przez audiofili-majsterkowiczów są samodzielne modyfikacje, zestawianie i uzupełnianie. Taktyka
ta jest nazywana w środowiskowym slangu tweakingiem. Polega ona najczęściej
na zastępowaniu tanich podzespołów urządzeń lepszymi jakościowo lub też na
dołączaniu i uruchamianiu pominiętych w tańszych wersjach urządzeń modułów składowych w taki sposób, że ostateczna konfiguracja urządzenia niższej klasy odpowiada wyższym wymaganiom. Tweakując standardowy odtwarzacz CD
czy DVD, można w ten sposób, tanim kosztem, osiągnąć znaczną poprawę jakości14. W domenie komputerowej tweaking najczęściej objawia się jako „podkręcanie” maszyn obliczeniowych. Działania tego typu wymuszają pracę podzespołów
według wyższych niż przyjęte nominalnie przez producentów i sprzedawców
12
13
14
Zob. na temat laboratoriów mediów np.; Medialab. Instrukcja obsługi, red. M. Filiciak, A. Tarkowski, A. Jałosińska, Chrzelice 2011 – wersja online: http://labkit.pl/
wp-content/uploads/2011/12/Medialab.-Instrukcja-obs%C5%82ugi.pdf, P. Celiński,
Medialab? Obowiązek a nie zbytek, „Kultura Enter” 2011, nr 32 – wersja online; http://
kulturaenter.pl/medialab-obowiazek-a-nie-zbytek/2011/03/. Na temat hackerspace
zob.; http://hackerspaces.org/wiki/Hackerspaces czy http://hackerspace.pl/.
Przykładowe społeczności – http://diyaudioprojects.com/, www.diyaudio.com,
http://electro-music.com/forum/topic-45898-50.html.
Przykładowy „tweaking” przeciętnego odtwarzacza płyt CD – http://goldfinch_
mod.eu.interii.pl/CD/philips%20614/philips614.html.
82
parametrów i standardów, można powiedzieć, że overclockerzy (podkręcacze)
wyciskają ze swoich maszyn siódme poty15.
Inną taktyką, która cieszy się olbrzymim zainteresowaniem środowiskowym pośród miłośników sprzętu audio, jest „klonowanie” już istniejących
urządzeń. Klony powstają na zasadzie dokładnego odwzorowania struktury wybranego pierwowzoru, który najczęściej jest przedmiotem drogim. Obowiązuje
tu przekonanie, które można sformułować w następujący sposób: podzespoły
użyte podczas produkcji w oryginalnej wersji urządzenia są powszechnie dostępne, ale ich ekonomiczna wartość w przypadku samodzielnego zakupu i montażu okazuje się wielokrotnie mniejsza. Taktyka klonowania ma wyraźne oblicze
„antysystemowe” – klonujący są przekonani o tym, że rzeczywista wartość drogiego sprzętu audio jest znacząco różna od jego zawyżonej wartości rynkowej
ustalanej przez producentów na podstawie reguł popytu i podaży.
Software
Stwierdziłem, że wyobraźnia medialna postawiona w obliczu różnych
warstw skupienia medialnych technologii zostaje wystawiona na bezprecedensową próbę. Znajduje się w trakcie dostrajania się do nowego otoczenia i oswajania z jego technicznymi regułami. Efekty wyobraźni emancypującej się z reguł
analogowego uniwersum technologicznego można było zobaczyć, przyglądając się nowym, społecznościowym, otwierającym sposobom wykorzystania, remiksowania i kreowania hardware. Jeszcze dobitniej widać jej potencjał, kiedy
przyjrzy się przestrzeni software i interfejsów. Na tym poziomie, gdzie użytkownicy mniej lub bardziej bezpośrednio stykają się z „wirtualnym” kodem, technologie można nie tylko, tak, jak w przypadku hardware, fizycznie czytać i pisać,
korzystając z już istniejącego ich języka, ale także zmieniać generalne reguły samego kodu – interpretować, remiksować, pisać go wciąż na nowo, według najbardziej nawet niezwykłych reguł. Właśnie na poziomie software wyobraźnia
medialna staje się faktycznie dwukierunkowa, obejmuje i synergizuje ze sobą
zdolność do downloadu i uploadu, które dotyczą nie tylko treści przygotowanych za pomocą mediów, ale i samych mediów. Staje się inkluzywna, to znaczy,
przyciąga i wchłania sensy i formy pozamedialne, pozatechniczne. Można chyba zaryzykować twierdzenie, że triumf techniki nad kulturą zostaje podważony
w zakresie triumfu medialnej wyobraźni i szerzej – kultury nad uniwersum technologii cyfrowych i sieciowych.
Mozilla
Cyberprzestrzeń i jej technologie stały się areną kreatywnych działań
mediotwórczych. Możliwe są tu różne aktywności na różnych poziomach zaawansowania fachowego – od holistycznego projektowania mediów i/ lub ich
interfejsów, takich jak systemy operacyjne, aplikacje użytkowe, serwisy i protokoły sieciowe, formaty plików i języki programowania, do instalacji na mniejszą
skalę – wtyczek, pluginów, rozszerzeń, elementów personalizacji interfejsów
stosowanych w wybranych aplikacjach czy całych systemach. Przełomem była
tu działalność jednej z fundacji wytwarzającej wolne oprogramowanie – Mozilla. Jej przeglądarka internetowa Firefox była pierwszą aplikacją, której użytkowa
postać została otwarta na personalizację za sprawą darmowych i ogólnie dostępnych rozszerzeń (extensions, plug-ins), modularnie dołączanych drobnych
15
Zob. jedną ze stron rejestrujących wyniki podkręcania komputerów i ich komponentów, która funkcjonuje także jako środowiskowa lista konkursowa – www.hwbot.org.
83
aplikacji i funkcjonalności, elementów estetyzujących (skórki). Każdy zainteresowany i kompetentny ma możliwość zaproponować swoje rozwiązania społeczności użytkowników tej aplikacji – aplikacja podpowiada użytkownikom wybrane
funkcje, sugeruje personalizację, a jej kod pozostaje nieustannie zmieniającą się
mozaiką różnych modularnych elementów. W podobny sposób ewoluuje dziś
większość dostępnych aplikacji stosowanych w smartfonach, komputerach osobistych czy innych urządzeniach osobistych. Na mediotwórczy potencjał indywidualnych użytkowników i społeczności otwierają się systemy operacyjne; tysiące
aplikacji do systemu operacyjnego Android, dla urządzeń formy Apple; popularne aplikacje dla profesjonalistów – pędzle, samouczki, czcionki, akcje w Photoshopie, efekty i style w programach do edycji video i audio, gotowe struktury
kodu, protokoły, skrypty w aplikacjach programistycznych. Kształt tych systemów,
podobnie jak wszelkich mniejszych tworów software’owych, coraz częściej przypomina mozaikę składającą się z wielu niezależnych formalnie, choć doskonale
ze sobą współpracujących modułów. Mozaika ta przybiera w czasie różne układy strukturalne, jest otwarta na rekonstrukcje i poszerzenia.
Protokołyi algorytmy
Drobne aplikacje poszerzające funkcje już istniejących programów to jedynie niewielki, choć najbardziej bliski przeciętnemu użytkownikowi w codziennej
praktyce medialnej, fragment software. Kolejne poziomy programowania kodu
cyfrowego – wyszukane algorytmy, skrypty, protokoły – choć już nie tak czytelne i dostępne dla zwykłego użytkownika, trwale odmieniły całokształt aktywności nowomedialnych i krajobraz przestrzeni cyfrowej. Wiele aplikacji stało się
ikonami zmian kulturowych, które oddziałują daleko poza uniwersum technologiczne. Protokoły internetowe, takie jak IP, TCP, HTTP i podobne, umożliwiły
połączenia sieciowe – stworzyły sieć komunikacyjną, rozpiętą pomiędzy połączonymi ze sobą maszynami matematycznymi.
Aplikacja Napster, pierwowzór wszystkich współczesnych rozwiązań służących do wymiany plików w Sieci, a po niej protokół BitTorrent zmieniły nie tylko
kartografię krążących po Sieci pakietów danych, ale przede wszystkim okazały się narzędziami zupełnie nowej ekonomii danych i przepływów, wokół której toczy się burzliwa debata o cywilizacyjnym zasięgu na temat praw własności
intelektualnej, autorskich i dotyczących wymiany dóbr w kulturze i życiu społecznym. Rozwijanie rozwiązań software’owych bazujących na mechanizmach
działania społeczności internetowych czy tworzenie sieci komunikacyjnych dla
przedmiotów (Internet of Things) to kierunki rozwoju całej cybersfery, które wywodzą się właśnie z zaimplementowanego do realizacji cyfrowego kodu imaginariów o otwartości, powszechnym dostępie i nieograniczonej wymianie zasobów.
Następna sfera rozwiązań software’owych, która odmienia oblicze kultury, wiąże się z kluczową dla społeczeństw informacyjnych kwestią ekologii
informacji. Nie wchodząc tu w różnice pomiędzy informacjami w tradycyjnym
rozumieniu tego słowa a danymi, czyli cyfrową reprezentacją informacji, można stwierdzić, że sprawne poruszanie się w środowisku większych i mniejszych
baz danych (Internet, zasoby dyskowe, repozytoria) to dzisiaj najważniejsza kompetencja kulturowa i społeczna. Algorytmy, takie jak te stosowane do przeszukiwania i katalogowania zasobów internetowych, znane powszechnie jako
przeglądarki czy narzędzia do tworzenia powiązań pomiędzy elementami baz
danych, na nowo strukturyzują zasoby wszelkiej wiedzy i uczą nas nowego myślenia o nich. Tworzenie danych o danych, software’owych map i nawigatorów
po oceanie danych stało się jednym z najbardziej potężnych i dochodowych
działań biznesowych ostatnich lat.
84
Kolejnym, specyficznym przykładem software są także aplikacje z poziomu meta. W skład tego zbioru wchodzą języki programistyczne, systemy operacyjne, rozwiązania interfejsowe. Definiują one finalny użytkowy sens hardware
i stanowią fundament kulturowego oblicza maszyn cyfrowych. Zbiór tego typu
rozwiązań zaczyna się od systemów operacyjnych bazujących współcześnie
przede wszystkim na metaforze okien i pulpitu, przez kody HTML, FLASH, PHP.
Kukondycjipostmedialnej
Temat software’owych realizacji mediów wyobrażonych zakończę na tych
kilku przykładach, pamiętając, że to właśnie ta warstwa nowomedialnego środowiska stanowi najbardziej kaloryczną pożywkę dla medialnych wyobrażeń,
wrażliwości i imaginacyjnego myślenia. Rozwój cyfrowego projektu to w głównej mierze pochodna ewolucji w obszarze software i interfejsów. Z tej lokalizacji wypływają źródła zasilające obszar mediów konstruowanych samodzielnie,
remiksowanych, społecznościowych, otwartych, hackerskich. Wszelkie te strategie i taktyki medialne funkcjonują bowiem wciąż we współczesnej praktyce kultury jako, z jednej strony, echa medialnej tradycji porządku analogowego wraz
z towarzyszącymi mu imaginariami, wrażliwością, kompetencjami, ideologiami
i, z drugiej, jako komunikacyjny prolog do etapu postmedialnego. Kondycja postmedialna, przywołam tu raz jeszcze określenie Petera Weibela, to stan, w którym
dotychczasowe formy medialne i towarzyszące im kultury dematerializują się,
zmieniają stan skupienia – z materialnych stając się ich software’ową, wirtualną
i matematyczną zarazem, powłoką.
W kondycji postmedialnej wszystkie języki, wyobrażenia, formy, aksjologie,
mitologie, estetyki, interfejsy i ich przeróżne sprzężenia/przenikania/nałożenia są
możliwe, dostępne i spoczywają w zasięgu coraz skuteczniej emancypującego
się z tradycyjnych reguł technopolowej gry podmiotu. Gwarantuje to zarówno
rozwarstwienie mediów, jak i rekonstrukcja medium do zbioru interfejsów, dokonujące się w domenie cyfrowej. Powszechna wyobraźnia komunikacyjna wraz
z wynikającymi z niej kompetencjami do komunikowania się za pośrednictwem
cyfrowych i sieciowych form to dla tego stanu medialnego środowiska źródło
zasilania semantycznego przynajmniej tak samo ważne jak wszystkie tradycyjne siły rozciągające pomiędzy siebie technologie komunikacyjne. Zsieciowany,
rizomatyczny, heterogeniczny, hybrydowy krajobraz medialnych języków, reguł,
form i kodów po raz pierwszy w historii kultury jest tak bliski liberalnym, demokratycznym wyobrażeniom o kształcie życia społecznego. Przedstawiona strukturalna bliźniaczość powoduje, że obie sfery rozwijają się równolegle i stapiają
w praktyce codzienności – podobnie jak równolegle i nierozłącznie są stopione
ze sobą zakodowany hierarchicznie (feudalnie) hardware z wyobrażonym według anarchizujących i wolnościowych idei software.
Współczesne czytanie i pisanie świata dostępne dzięki cyfrowym mediacjom nie wymaga jedynie działań na poziomie semantyki medialnych przekazów
i krytyki ich istniejących form, jak to wciąż ma miejsce w kulturze analogowej/
masowej i większości ich interpretacji prowadzonych na gruncie nauk humanistycznych i społecznych. Media cyfrowe można samodzielnie obmyślać i pisać
na obu poziomach jednocześnie – z rosnącą nieustannie łatwością tworzyć ich
unikalne formy i gramatyki użytkowe oraz remiksować je zgodnie z analogowymi i nowo powstającymi regułami.
85
Teorie mindware
Postmediacje
Splot umysłu z oprzyrządowaniem
i oprogramowaniem
Eksplikacja negatywistyczna
Roman Bromboszcz
87
88
W niniejszym tekście podejmę się wyjaśnienia pojęcia mindware, ponieważ uważam, że jest ono niezwykle interesujące. Będę wskazywał na znaczenia
tego terminu, kierując się następującą regułą: próbując określić znaczenie lub
istnienie czegoś, zapytam o jego negację, przeciwieństwo i opozycję. W trakcie
wywodu postawię trzy główne pytania oraz postaram się na nie odpowiedzieć.
Pytania:
1. Czym jest mindware, jeśli nie jest hardware’em ani software’em?
2. Czym jest mindware, jeśli nie jest ani kulturą, ani przyrodą?
3. Czym jest mindware, jeśli nie jest ani pogłoską, ani historią?
Zanim przejdę do szczegółowej analizy tych pytań i udzielenia możliwych odpowiedzi, zacznę od paru uwag oraz zarysuję pewne tło ewolucyjne
dotyczące cywilizacji europejskiej i jej wewnętrznych procesów uwzględniających rozwój pojęcia umysł. Wydaje mi się, że najbliżej położonym terminem, który
oświetla sens słowa mindware, jest umysł, dlatego nakreślę zasadnicze rysy, jakie przybiera to pojęcie w toku ewolucji umysłowej zachodniej kultury, tak zwanego Okcydentu1.
1.
Marcel Mauss w Pojęciu osoby pokazał, że tworzenie się niezależnego umysłu było uwarunkowane przemianami wewnątrzspołecznie usankcjonowanej
wymiany imion. Wymiana ta pociągnęła za sobą użycie pojęcia osoba (persona)
i pojęcia ja. Przejście od skończonej liczby imion przydzielanych wśród wspólnot
archaicznych do reprezentacji moralnej i prawnej, a w końcu pojawienie się ja jako
fundamentu wiedzy i sceptycznego racjonalizmu nie było czymś oczywistym.
Przekazywanie imion z pokolenia na pokolenie2 jest pierwotnym zjawiskiem,
które przez pewne modyfikacje doprowadza w ostateczności do ukształtowania się autonomii jednostki.
Powyższa konstytucja osobowości, której podjęli się Kartezjusz, Johann
G. Fichte, Immanuel Kant i Edmund Husserl, kulminuje nowoczesne rozumienie ludzkiej osobowości. Nie jest to punkt ostatni w ewolucji umysłu, po nim
nastąpi pewnego rodzaju odwrót od autonomii i niezawisłości w stronę usieciowienia i relatywności ja. Podobną drogą podążyli Friedrich Nietzsche i Martin Heidegger, a także szkoła filozofii analitycznej, wykorzystująca narzędzia
i zdobycze nauk neurobiologicznych. W tym względzie wymienić należy Daniela Denneta. Można powiedzieć, że w tym ostatnim kroku umysł przechodzi
metamorfozę i z czegoś monadycznego, koncentrycznego i transparentnego
staje się czymś rozsianym, rozgałęzionym, procesualnym i wymykającym się
całościowej kontroli.
Nie bez znaczenia dla tego ostatniego przejścia ma fakt ujawnienia przez
Zygmunta Freuda i Carla G. Junga obszarów ludzkiej nieświadomości. W ich eksplanacji ludzkiej psychiki można dostrzec konfrontację dwóch sfer ludzkiej osobowości, „nadego” lub „superego” pod postacią ogólnych nakazów i norm
zachowania oraz popędowości, czyli dziedziczonych zachowań instynktownych. Dla Nietzschego fakt tej wewnętrznej walki był argumentem prowadzącym
go do postawienia wyżej ślepej siły, tak zwanej woli mocy, ponad siły rozumu.
1
2
M. Weber, Racjonalność, władza, odczarowanie, tłum. M. Holona, Wydawnictwo Poznańskie, Poznań 2011, s. 57, 86.
M. Mauss, Pojęcie osoby [w:] Antropologia i socjologia, tłum. M. Król, K. Pomian, J. Szacki, Wydawnictwo KR, Warszawa 2001, s. 367–372.
89
W ten sposób ewolucja ludzkiego umysłu przechodzi po kole i trafia w miejsce,
w którym się zaczyna, w przyrodzie, agonistycznie pojmowanym środowisku
biologicznym, gdzie walka o dominację zostaje afirmowana, a wszelkie korekty
normotwórcze zostają potraktowane jak budzący resentyment idole.
Koncepcja Nietzschego nie jest ostatnim słowem w toku wyjaśniania tego,
czym jest człowiek i jaką rolę w jego kształceniu, enkulturacji3 i edukacji spełnia
umysł, subiektywny lub obiektywny korelat ciała, a także, w innym wymiarze,
absolutny4 epifenomen kulturowy całościowych powiązań tworzywowo-aksjologicznych, przedmiotów oceny z sektorów polityki, nauki, religii, techniki itd.
Nietzsche kwestionował umysł pojmowany subiektywnie jako instancję niezdolną do właściwego sterowania jednostką. W jego przekonaniu oddanie władzy
umysłowi jest swego rodzaju oszustwem, pewną fałszywą świadomością, ponieważ siły instynktu, biologiczne podłoże psychosomatycznych uwarunkowań
ludzkiego ja, są praktycznie nie do usidlenia, natomiast podrzędność umysłu wynika z długoletniego panowania określonej kultury gloryfikującej ducha, bezcielesne wartości i niemożliwą do utrzymania powszechnie moralność.
Nietzsche kwestionował również umysł obiektywny nakazów prawnych,
kumulowanych wyników nauk, związków partnerskich i gospodarczych, w tym
małżeństw, konstytucje, korporacje i reprezentatywną władzę partyjną. Jeśli subiektywna instancja jest zbyt słabym oparciem, a obiektywny duch porządkujący relacje wewnątrz państwa i gospodarstwa domowego jest wewnętrznie
skłócony, na gruncie naturalistycznie zorientowanej filozofii niemieckiego późnego romantyka, nie można mówić o pogodzeniu obydwu aspektów w paruzji5 ducha absolutnego. Nietzsche w obliczu tak daleko posuniętej krytyki
kultury starał się stworzyć jednostkę na nowo, miał to być twór nieuzyskujący
trwałego, ostatecznego kształtu, a jedynie pewne kontury, o których można
z pewnością powiedzieć, że przypominają istnienie kogoś, kto albo jest nędzarzem, albo istotą nadprzyrodzoną bliską lub jednoznacznie identyczną z bogiem6 lub demonem.
Punkt widzenia Nietzschegojest nacechowany fascynacją tego, w jaki
sposób układają się stosunki dominacji i uległości w przyrodzie, gdzie, jak ukazał to Charles Darwin, mamy do czynienia z doborem naturalnym. Po zwrocie
w stronę natury rozumianej jako wzór i odrzucenie roszczeń do kierowniczej
roli umysłu, dokonanych przez Friedricha Nietzschego i Maxa Stirnera, pojawiło
się wiele teorii przywracających sensowność namysłu nad ludzkim ja oraz sugerujących pewną modyfikację w obrębie rozumności jako uniwersalnego narzędzia człowieczeństwa.
Należy przypomnieć wysiłki Husserla, a po nim Heideggera, a po nich
współczesne, postmodernistyczne reinterpretacje, a także ultramodernistyczne, nacechowane empirycznie i analitycznie oceny takiej postaci jak Dennett.
Jak już wspominałem, punktem dojścia jest umysł pod postacią zdecentrowaną i ujarzmioną jak u Michela Foucaulta. W tych współczesnych odsłonach zaczynających się od Heideggera widać, jak autonomia ja zostaje poddana rewizji,
a w zamian za istnienie monadyczne można uzyskać twór nacechowany społecznie i ugruntowany w zależnościach w stosunku do społeczeństwa i jego
3
4
5
6
G. Simmel, Filozofia kultury, tłum. W. Kunicki, Eidos. Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2007, s. 16, 17.
G.W.F. Hegel, Encyklopedia nauk filozoficznych, tłum. Ś.F. Nowicki, PWN, Warszawa
1990, s. 557–584.
J. Derrida, Pismo filozofii, tłum. B. Banasiak, Inter Esse, Kraków 1993, s. 107.
Arystoteles, Polityka, tłum. L. Piotrowicz [w:] Tegoż, Dzieła wszystkie, t. 1, Wydawnictwo Naukowe PWN, Warszawa 2003, 1253A.
90
mikrowładzy. W ten sposób przedstawili sprawy umysłu i jaźni postmoderniści, tacy jak Michael Foucault i Jacques Derrida, a w ujęciu Dennetta umysł jest
siecią, która składa się z procesualnie rozwijanych szkiców, niedookreślonych
ostatecznie map, planów rozwojowych, wielości warstw nakładających się na
siebie i przenikających.
Przypomnę teraz zasadnicze momenty rozwojowe ewolucji pojęcia ja,
tak jak to naszkicował Mauss. Jak już wspomniałem, należy zacząć od momentu
dziedziczenia imion. Imię własne jest tym z wynalazków, którego nie posiadają
zwierzęta, jeśli brać pod uwagę fakt, że traktują swoje potomstwo jako jedność
złożoną z określonej liczby jednostek. Na poparcie tej tezy Jurij Łotman podał
obserwację takiego rodzaju – przynajmniej niektóre z gatunków zwierząt, jeśli
rozpatrywać ich zachowanie w zakresie opiekowania się potomstwem, nie rozróżniają cech szczególnych swoich dzieci i jest możliwa zamiana, nawet naruszająca nieco przynależność do gatunku7. Zamiana jednostki na inną o względnie
podobnym kształcie nie powoduje konfliktu w zakresie przynależności do matki, choć należy pamiętać, że zwierzęta kodują zapachy, więc w zastępstwie językowej ekwiwalencji i reprezentacji ma się do czynienia z przypisaniem osobnika
do jakiegoś wyjściowego identyfikatora zapachowego.
Imię własne w najdalszej przeszłości człowieka, tak daleko, jak można sięgnąć do niej w ramach rekonstrukcji antropologicznej, odgrywało rolę nośnika,
który umożliwiał zachowanie tożsamości grupy. Imiona umożliwiają cyrkulowanie osobowości przodków i sił związanych z totemem. Przodkowie odradzają się
i są stale obecni przez zwornik, jakim jest imię. Podobnie dzieje się z imionami,
które odwołują się do jakichś funkcji w ramach wspólnoty plemiennej. Cyrkulacja imion to w tym wypadku utrzymywanie w ścisłej zależności zakresu zróżnicowania pracy społecznej, a także zachowywanie pewnego inwentarza świąt,
rytuałów, inicjacji itp. Przykładem takiego zastosowania imion są imiona okazjonalne, nadawane na przykład wraz z wejściem młodego człowieka w stan dorosłości, stan bycia wojownikiem8.
Cyrkulacja imion jest związana z rytualnym stosowaniem masek. Maska
i imię są ze sobą tak silnie połączone, że trudno dostrzec stan, w którym funkcjonują dyferencjacje zapośredniczone w imionach własnych, a nie istnieje funkcjonowanie masek. Rytualna przesłona jest metonimiczną częścią ducha, demona,
siły przyrodniczej lub przodka, który ujawnia się przez mediację, w której w pewnej jedności pojawia się taniec, muzyka i śpiew. Widać wyraźnie, że taka osobowość człowieka archaicznego nie ma możliwości zaistnieć w nowoczesnym
sensie tego terminu. Natomiast to, z czym ma się do czynienia, to wywłaszczanie, cała seria skomplikowanych uzupełnień9, gdzie jednostka użycza swojej psychosomatycznej jedności, w tym umysłu, który w szeroko pojmowanej grze10
staje się sceną migotliwej obecności swoich przodków, zwierząt totemicznych,
sił nadprzyrodzonych.
Jeśli opisany stan jest pierwotny, to to, co po nim następuje, należałoby
nazwać interioryzacją maski pod postacią uświadomionego ja. Mauss wskazał
na bramińskie i buddyjskie Indie oraz na starożytne Chiny jako te kultury, które „wynalazły” personalistycznie pojmowaną tożsamość człowieka. W tradycji związanej z Upaniszadami11 pojawiają się zwroty określające kształtowanie
7
8
9
10
11
J. Łotman, Kultura i eksplozja, tłum. B. Żyłko, PIW, Warszawa 1999, s. 63–65.
M. Mauss, Pojęcie osoby..., s. 372.
J. Derrida, O gramatologii, tłum. Bogdan Banasiak, Wydawnictwo KR, Warszawa
1999, s. 154, 272, 319, 322.
R. Callois, Żywioł i ład, tłum. A. Tatarkiewicz, PIW, Warszawa 1973, s. 300, 323–328.
Upaniszady, tłum. S.F. Michalski, Ultima Thule, Warszawa 1913, s. 8, 21.
91
ludzkiej jaźni jako czegoś względnie niezależnego, natomiast w ramach buddyzmu pojawia się nakaz zakwestionowania swojego ja jako złudzenia, które
uniemożliwia oświecenie.
W cywilizacji rzymskiej pojawia się coś, co nazwać można osobowością prawną12. Natomiast początki chrześcijaństwa i okres średniowiecza przynoszą pojawienie się osoby odpowiedzialnej moralnie za swoje postępowanie.
Stąd niedaleko już do odkrycia przez Kartezjusza ja myślącego jako jedynego
faktu, którego nie może objąć metodyczne wątpienie. Fichte i Kant zrobili użytek z wniosków, jakie wysnuł Kartezjusz, i postawili ja jako fundament, dla tego
pierwszego, teorii wiedzy, dla tego drugiego, warunek rozumu praktycznego
i moralności13.
Jak już było powiedziane, inwencja ludzkiej autonomii pociąga za sobą
zrzucenie maski. W pierwszym kroku człowiek staje się istotą samodzielną, tak
jak Sokrates, który nie tylko zabiegał o duszę i cnotę, ale także stał się pierwszą
szeroko znaną i podziwianą ofiarą tych usiłowań. Jak powszechnie wiadomo,
kierował się daimonionem, który pojmował jako wewnętrzny głos. Głosu tego
nikt poza nim nie słyszał i z punktu widzenia wolności osobistej jego posiadanie
i kierowanie się nim wydaje się czymś dozwolonym. Niemniej ta sama sprawa
nie wydaje się czymś oczywistym w okresie rozkwitu Grecji klasycznej, mocno
zdominowanej, mimo swobód w rządzeniu, przez nakazy religii14.
Śmierć Sokratesa jest w pewnej mierze dowodem na to, że proces uwalniania się ludzkiego ducha spod władzy szeroko pojmowanych reguł społecznych
jest czymś niebezpiecznym z punktu widzenia władzy i sprawowania kontroli.
O ile średniowiecze uznawało istnienie duszy jako pewnego rodzaju oparcia wewnętrznego, o tyle obciąża ją obowiązkiem rozgrzeszania, spowiedzi, uznania
swojej wadliwości na podstawie dogmatu uznającego grzech, pierwotne, nieusuwalne zło. Co więcej, idea istnienia ludzkiej duszy zostaje połączona z ideą
predestynacji, co widać zarówno u Augustyna, jak i u Eriugeny, którzy mówią
o byciu wybranym przez Boga przed narodzinami.
Natomiast oświecenie wraz z ideą emancypacji ludzkiej wiedzy przywracało na szeroką skalę postulat autonomii. W odrodzeniu wraz z Kartezjuszem pojawił się aksjomat niepodważalności ludzkiej aktywności pod postacią myślenia,
a w oświeceniu to założenie stało u źródeł procesu budowania gmachu nauk,
systemu wiedzy Kanta, Fichtego, a także encyklopedii, francuskiej i niemieckiej.
Uznając wyżej wskazane przemiany za uwalnianie się od uwarunkowań
wynikających z reguł religijnych oraz ewolucję ducha subiektywnego pod postacią jaźni, można przejść do ostatniego etapu w ramach wprowadzenia w problematykę mindware’u. Chodzi o skrótowe nakreślenie przemian, które dokonały
się w drugiej połowie XX wieku. Szczególnie ważne są w tym względzie koncepcje Michela Foucaulta, Jacquesa Derridy i Gillesa Deleuze’a.
W szczególności wydaje się słuszne stwierdzenie, że ci autorzy, jako reprezentatywni dla postmodernizmu, doprowadzili do procesu zgoła odwrotnego od
nowoczesnej emancypacji i autonomizacji ludzkiego ja. Dość często rozumie się
ten fakt jako wynik odrzucenia, siłą argumentacji, sposobów tłumaczenia ludzkiej osoby przez takie postaci, jak Platon, Kartezjusz i Hegel. Postmodernizm prezentuje bowiem ostrą krytykę poglądów metafizycznych i epistemologicznych
całej tradycji od Greków poczynając, a na oświeceniu kończąc. Niemniej istnieje o wiele bardziej interesująca diagnoza mówiąca, że zmiana w postrzeganiu
12
13
14
M. Mauss, Pojęcie osoby..., s. 377.
Tamże, s. 386.
I. Krońska, Sokrates, Wiedza Powszechna, Warszawa 1989, s. 33, 61.
92
ludzkiej osoby wynika ze zmiany warunków środowiskowych. Model ludzkiej jaźni zmienia się, ponieważ zmieniają się okoliczności życia. Świat jest bardziej zaludniony, praca ludzka wymaga dalszych skomplikowanych podziałów, istnienie
poza pracą i społecznością, a nawet poza polityką, staje się coraz mniej możliwe, niż jak to było możliwe wcześniej, przynajmniej do pomyślenia, w sytuacji
starożytnych Aten lub republikańskiej Francji.
Michel Foucault wprowadził terminy ujarzmienie i blokowanie, które ukazują, w jaki sposób władza usidla jednostkę, zarazem dając jej miejsce w systemie
i podporządkowując ją sobie, bez możliwości kwestionowania zależności owego
miejsca od z góry narzuconych reguł, na przykład bycia obserwowanym, egzaminowanym, rozliczanym itp. U Derridy ludzkie ja to jedynie ślad, a nie żywa obecność. Ślad ten należy próbować rozwikłać przez sieć odniesień, która prowadzi
przez konteksty, w jakich ja występuje jako zdegradowany znak. Owo rozplątywanie zależności między śladem a siecią, w jaką jest wplątany, nie może zostać
nigdy ostatecznie zamknięte, choć z drugiej strony wszelkie możliwości są ograniczone przez pewien horyzont, który wyznaczają koleiny myślenia binarnego,
posługującego się opozycjami.
Z pewną przesadą można powiedzieć, że to, czego dokonują wymienieni Francuzi, to przywrócenie archaicznej maski i włożenie jej do środka ludzkiej
osoby w taki sposób, by można było znów uznać jej społeczne, nieredukowalne
położenie. W położeniu tym, jeśli dostrzega ona swoją odrębność, to jest to odrębność zrelatywizowana do tego, czego się od niej wymaga, w jaki sposób się
ją edukuje, w jakich procesach kultywacji i walki politycznej uczestniczy. Zarówno ślad, jak i zawieszone na powrozie ja są symbolami archaicznej maski, która
nie przylega na stałe do twarzy. W tym nowym wydaniu jest ona tymczasowa,
odwoływalna, umowna oraz konieczna zarówno jako argument przeciw transparentności samopoznania, jak i argument za uznaniem aksjomatu, że wielość
społeczna pod postacią spierających się różnic jest czymś pierwotniejszym od
istnienia jednostki jako autonomii.
W powyższych wywodach naszkicowałem proces przemian, jaki zachodzi w ramach kultury europejskiej, od Greków po czasy współczesne. Pojęcia ja
oraz osobowość nie są identyczne z pojęciem umysł. Niemniej do tej pory posługiwałem się nimi jako synonimami. Chciałbym teraz zatrzymać się na chwilę przy
paru uwagach dotyczących ich różnicowania. Następnie pochylę się nad tym,
w jaki sposób połączyć dotychczas zaprezentowaną wiedzę z tematem wiodącym, kwestią mindware’u.
Nie wchodząc w szczegóły, ja to pewna instancja, która została uznana
przez myślicieli nowoczesnych za punkt centralny, dowodzący, niekwestionowany i zasadniczy. U Kartezjusza i Kanta, a później także u Husserla, ja towarzyszyło
każdemu aktowi intelektualnemu. Od ja zaczyna się każdy proces myślowy, akt
przypomnienia, wyobrażenia, oceny itp. Postmoderniści owo ja uznają za fantazmat, pomimo podminowania i osłabienia tożsamości tej instancji pozostaje
ona jako coś, co ujawnia się w różnych przebraniach, w relacji do ruchu sił społecznych lub lingwistycznych.
Umysł jest tym, co powstaje w wyniku ścierania się ruchomego ja w stosunku do jego otoczenia, ale nie jest całością, którą jest osoba. Umysł jest tylko
jakąś jej częścią, tą częścią, która jest odpowiedzialna za myślenie, a więc argumentację, dowodzenie, dedukowanie, abstrakcję i tworzenie nowych pomysłów.
Jeśli pytam o mindware, pośrednio pytam o umysł. Naszkicowano ten
wstęp po to, by rozwikłać sprawę przemian w obrębie traktowania umysłu w kulturze europejskiej. Współczesność ukazuje na tym polu nowy problem, jest nim
nasycenie otoczenia człowieka maszynami i technologiami. Udzielając prostej
93
odpowiedzi na pytanie, czym jest mindware, można powiedzieć, że jest to umysł,
który przeszedł przemianę w wyniku konfrontacji z techniką, przede wszystkim
w konfrontacji z komputeryzacją.
Współczesna wersja człowieka, jeśli uzna się zadanie jej sformułowania za
palące i potrzebne ogółowi, nie tylko jest wersją ja uspołecznionego w ramach
podziału pracy, upolitycznienia sfery sztuki, konieczności dokonywania interakcji społecznych itp., ale jest także odmianą istoty prawie bez ustanku zanurzonej
w informacji. Jest to istota połączona z urządzeniami elektronicznymi, przesyłająca wiadomości, zanurzona w ekranach, uczestnicząca w konwersacji na odległość, podejmująca rytuały społeczne we wspólnotach wirtualnych itp. Nowy
model osoby to istota połączona, przez co połówkowa, fraktalna.
2.
Mindware wiąże się z wyobraźnią, która odnosi się do techniki, ale jej źródło tkwi w umyśle. Mindware to pewna mutacja, której sens i istnienie dopiero się
wydarza, stąd można powiedzieć, że każdy jest odpowiedzialny za jego negocjację. Inaczej mówiąc, dorosłość. Niestety, mindware nie ma ustalonego znaczenia w języku polskim i stąd nie można mówić o jakimś „przedustawnym” punkcie
oparcia. Jeśli można byłoby użyć w tym miejscu odniesienia do koła hermeneutycznego, nie ma jednoznacznych przedsądów, oczekiwań, które mogłyby kierować w stronę pogłębienia rozumienia. Trzeba zaczynać intuicyjnie, po części
„wczuwając się” w słowo, po części projektując je, konstruując od początku, mając na uwadze pewne cele strategiczne.
W przypadku tego artykułu chodzi mi o wpisanie mindware’u w ramy
rozważań nad umysłem i techniką. Widzę powody ku temu, szczególnie wtedy, gdy przyglądam się podobieństwu między budową a kształtem słów hardware, software i mindware. To, co w obydwu pierwszych terminach jest określone
przymiotnikiem, w trzecim terminie zostało uchwycone przez rzeczownik. Gdyby uchwycić się tej sugestii, może okazać się, że mindware jest czymś w rodzaju oksymoronu, niepoprawnego łącznika. Wniosek taki jest oczywisty, jeśli zada
się pytanie wprost, czy istnieje taki rodzaj oprogramowania, jaki wykorzystuje
jakąś część umysłu jako swoją, właściwą, dziedzinę, sprawczą.
Nie ma problemu z rozwikłaniem znaczeń terminów hardware i software.
Pierwszy oznacza „twarde” oprzyrządowanie, które wykorzystuje się w komunikacji, pracy i rozrywce zapośredniczonej przez urządzenia elektroniczne, media cyfrowe, dyspozytywy. Hardware to wszystko to, co prezentuje się zmysłom,
gdy wyłączy się zasilanie, odłączy prąd elektryczny i spojrzy na obudowę lub
zdejmie ją i zajrzy w to, co jest wewnątrz, gdzie prezentują się układy scalone,
twarde nośniki pamięci, napędy typu CD-ROM i DVD-ROM, taśmy i kable łączące poszczególne części i wiele innych.
Gdy włączy się prąd i spojrzy na ekran lub zwróci uwagę na to, co dzieje
się w głośnikach, można ujrzeć, relatywnie do interakcji z urządzeniem, jak pewne bodźce zmysłowe pojawiają się w obrębie tej części hardware’u, która służy
sterowaniu. To, co można powiedzieć a priori o software, to to, że jeśli włączono zasilanie, włączono także software. Człon ten uruchamia się jako zestaw komend, operacji logicznych, zakodowanych czynności, jakie można wykorzystać
i na nowo zdefiniować w odniesieniu do informacji wygenerowanych lub pobranych z zewnątrz, na przykład z aparatu fotograficznego lub z kamery.
Mindware nie jest hardware’em ani software’em. Hardware to technika, części scalone, okablowanie, przepływający prąd, liczniki, kalkulatory danych, ekrany, urządzenia zewnętrzne, pamięci zewnętrzne. Software to ta strona urządzenia
elektronicznego, która ujawnia się przez interfejs, informacyjne kanały wejść
94
i wyjść z maszyny. Interfejs jest tutaj tą częścią, która służy do sterowania, w tym
do przeprogramowania.
Hardware można śmiało nazwać oprzyrządowaniem lub elektroniką, natomiast software oprogramowaniem lub logiką. Nie ma natomiast jasności odnośnie do reguł, jakimi należałoby się kierować przy próbie ustalenia znaczenia
terminu mindware. Może to być metafora, która określa oprogramowanie, jakim
jest zestaw komend, operacji logicznych i wbudowanych zachowań w umysłowość człowieka. Nie będzie to termin ścisły, a jedynie pewna sugestia, co do
tego, że jeśli maszyny funkcjonują na zasadzie określenia z góry ich możliwości
logicznych, tak samo może funkcjonować człowiek, który posiada wiele cech
podobnych do maszyn.
Człowiek pozbawiony mindware byłby wyłącznie hardware’em, czyli oprzyrządowaniem. Stwierdzenie to w pewnym zakresie jest płodne, choć poniekąd
mylące. To nieprawda, że istota ludzka, która nie myśli, przestaje funkcjonować
na takiej samej zasadzie jak wyłączony z prądu komputer. Człowiek upośledzony umysłowo lub człowiek w śpiączce jest czymś zredukowanym pod względem
istoty, przestaje być w gruncie rzeczy człowiekiem, pozbawiono go człowieczeństwa, jednak nadal jest maszyną, jego podzespoły, takie jak układ trawienny, układ oddechowy itd. pracują.
Zbyt skromnych użyto środków do tego, by zawyrokować wyłączenie logiki w obrębie wegetującego organizmu człowieka. Powiedzenie, że komuś upośledzonemu brak jest mindware’u, jest tylko pewną formą udziwnienia, która nie
wnosi niczego ponad stwierdzenia, że komuś brakuje w tym wypadku umysłu.
W tym zakresie można zbliżyć się bardziej do momentu, gdzie najlepiej byłoby
porzucić termin i wyczyścić język. Niemniej warto pójść jeszcze tą drogą, budując wkrótce pewien model.
Przejdę teraz do prób naświetlenia terminu przez jego tłumaczenie na język polski. Trudno jest wyobrazić sobie mindware poza jego związkiem z umysłem. Wydaje się, że jest to umysł, który został połączony z techniką, szczególnie
z oprzyrządowaniem i oprogramowaniem. Powstająca z tych trzech elementów trójca to układ, w którym umysł jest czynnikiem sterującym, połączonym
sprzężeniem zwrotnym z urządzeniami i programami. Jeśli spojrzeć na tę sytuację z dystansu, można powiedzieć, że jest to umysł, który został okablowany.
Nie znajduję lepszego pomysłu na wyjaśnienie mindware poza wymianą
tego terminu na serię innych nazw. Po pierwsze, chodzi o słowo splot, a także
neologizm umysłowienie. Po drugie, widzę sens porównania terminu z pewnymi określeniami, które zostały zaczerpnięte z filozofii Wschodu, myślę w szczególności o sędziwych, być może nieco „pokrytych patyną” określeniach, takich
jak Atman i Brahman.
Punktem wyjścia tej części moich rozważań jest wniosek wyciągnięty
z obserwacji jednostki ludzkiej połączonej przez okablowanie z terminalem komputerowym. Niepewność czy opisywany splot jest czymś istniejącym czy nie, na
ile jest tu jakiś nowy byt, a na ile jest to hipostaza lub „dzielenie włosa na czworo”, wynika z tego, że jest to sytuacja relatywnie nowa i w gruncie rzeczy tworzy
nową grę językową, by sprostać nowości tej sytuacji. Jak wiadomo nowa gra językowa, jeśli nie znajdzie powszechności wśród własnych amatorów, nie stanie się
żywa. Przetrwanie tej gry zależy od jej popularności, szczególnie w tym wypadku popularności w kręgu naukowców. W zasadzie to drugi krytyczny moment,
w którym los kategorii jest z góry, jakby rozstrzygnięty, zawieszony, tragiczny ze
względu na przeznaczenie.
Nie nazwie się jakimś innym terminem człowieka i jego przyrządu do
pisania, takiego jak ołówek, długopis albo maszyna do pisania. Nie nazwie się
95
jakimś nowym terminem człowieka w samochodzie, w samolocie, na wyspie,
w parku, w łóżku czy w innych sytuacjach. Chciałoby się natomiast powołać do
życia nowe słowo opisujące człowieka plus komputer lub człowieka plus urządzenia elektroniczne traktowane jako najnowsza generacja mediów wywodzących się od telefonu i telegrafu, a także fotografii i radia.
Nie widzę w potrzebie sprostania tej sytuacji niczego złego. Uważam,
że próba stworzenia nowej nazwy i nowej gry jest racjonalna, niemniej nawet
wśród samych uczestników takiej gry może pojawić się wątpliwość i sceptycyzm
co do tego, czy nie chcą w tym wypadku przebić głową muru, przekroczyć granic języka. Splot człowieka z komputerami i urządzeniami elektronicznym jest
współcześnie nie tylko czymś powszechnym, jest także czymś nieredukowalnym, nieustającym i postępującym.
3.
Powrócę do pytań, które sformułowałem na początku i przejdę do odpowiedzi. Umysł tworzy umysłowienie, które jest pęknięciem i zwarciem w jednym,
pozornie sprzecznym akcie. Akt ten jest aspektem uczestniczenia w środowisku nowych mediów. Nowe media spełniają się przez elektryczność i są podporządkowane specyficznej logice. Kluczowa dla jej zrozumienia jest znajomość
składni, zarówno w odniesieniu do języków programowania, jak i w odniesieniu do połączeń między np. wideo a audio.
Pierwsze pytanie dotyczyło tego, czy umysłowienie jest czymś różnym
od oprogramowania i osprzętu. Inaczej mówiąc, w jakim zakresie umysł ulega zniekształceniu i wzmocnieniu w zanurzeniu w cyfrowość. Umysłowienie
to sposób gospodarowania wewnątrz sieci. Ewolucja człowieka jako jego kultura jest procesem przechodzenia od punktu do drzewa aż po sieci, które
stają się czymś najbliższym i najwłaściwszym. Powyższemu sądowi podporządkowują swoje rozważania Manuel Castells15 oraz Alexander Bard i Jan Soderqvist16. Uznają, że współcześnie wyraźnie i anizotropowo wybiera się Sieć
jako najlepsze siedlisko.
Z wielu powodów nie da się tego siedliska opisać w kategoriach materialistycznych. Nie uda się dostrzec Sieci przez ludzkie zmysły, choć jawią się
różne formy zmysłowości. Siedząc przed ekranem, patrząc na świecące litery
iPoda, widać efekty, jakie tworzy Sieć, ale nie widać jej samej. Sprawa sieci komputerowych, a także elektrycznych, gazowych oraz sieci, nazywanych politycznymi i ekonomicznymi, takich jak np. FARC wygląda dość ciekawie od strony
ontologicznej. Nie chodzi tu bowiem o monizm, lecz dualizm dotyczący zjawisk, jakie postrzega się w stosunku do obiektu, który jest nadrzędny wobec
tych zjawisk, a także jest ich źródłem w sensie logicznym i matematycznym.
Zjawiska, które widać na ekranach, nie są zjawiskami przyrody, są natomiast zjawiskami swoistymi, nowomedialnymi, które starano się określić
mianem wirtualnych, nie twardych jak znana dotąd materia, ale mimo to mierzalnych. Zdarzenia te nie obrazują sieci, nie reprezentują jej budowy, ale potrzebują tej budowy, by umożliwiać funkcjonowanie sieci. W gruncie rzeczy
jakiekolwiek są zjawiska, dla sieci nie ma to znaczenia. Podstawowymi jednostkami wymiany są wartości. Wśród tych wartości wymienić można wymienność
jako taką chęć wymiany dla niej samej.
15
16
M. Castells, Społeczeństwo sieci, tłum. M. Marody, K. Pawluś, J. Stawiński, S. Szymański, Wydawnictwo Naukowe PWN, Warszawa 2008.
A. Bard, J. Soderquist, Netokracja. Nowa elita władzy i życie po kapitalizmie, tłum.
P. Cypryański, Wydawnictwo Akademickie i Profesjonalne, Warszawa 2006.
96
Jeśli mysłowienie jest przenikaniem sieci przez oprogramowanie i oprzyrządowanie, sam umysł jest siecią wewnątrz swojego dominium. Umysł ciągle
jest skłoniony ku sobie, a tylko sytuacyjnie włączony w okablowanie i sprzężony z siecią. Umysł jest siecią analogiczną do sieci w usieciowieniu globalnej
ekonomii współczesnej i energetyki lokalnie. Umysł ma budowę sieci analogicznie do sieci neuronalnych. W nich widać układy połączeń, które rozgałęziają się i przecinają swoje tory. Tor myśli takiego umysłu biegnie w zapętlonych
rozgałęzieniach i brak mu początku oraz końca.
Opisana wyżej sieć może w momencie podłączenia jej z aparaturą
i zbiorem komend stać się monadą elektroniczną. Monadę taką można nazwać Atmanem, pamiętając, że przywołuje się tradycję bramińską, tradycję
hinduską. W Upaniszadach znajdują się ustępy, gdzie Atman jest Brahmanem,
i znoszą się między nimi granice. Do takiego samego wniosku dochodzi się
również wtedy, gdy rozważy się jednostkę ludzką jako coś, co wynika z podłączenia ciała i umysłu z aparaturą techniczną, np. komputerem. Człowiek,
który rozpoczyna pracę z komputerem, jest monadą elektroniczną, która jest
autonomią do momentu, gdy łączy się z siecią. Jeśli już jest w sieci, to staje się elementem ruchomym środowiska, którego budowy nie dostrzega, ale
które w jego stronę wysyła różne zjawiska. Te formy zmysłowości, które prezentują nowe media, mają inne podstawowe kategorie. Wśród nich są kategoria modularności, a także transkodowanie, automatyzacja i wariacyjność.
Nie jest to słownik kompletny i na obecnym etapie nie można wykluczyć kolejnego przewrotu.
Jeśli mysłowienie jest czymś więcej niż Atman, to polega to na tym, że
nie jest monadą, jest czymś, co rozplenia się w sieci. Sieć jest Brahmanem, jeśli
zgodzimy się na pomost pomiędzy naszą kulturą a kulturą Indii. Idąc dalej tym
szlakiem, można dostrzec, że w użyciu jest termin zorganizowane złudzenie, adekwatny do słów maja lub mana. Sieć ciągle zwodzi swą atrakcyjnością, a odbiorcy jej nie zdają sobie sprawy z tego, że konsumtariat, a więc ci, którzy kupują,
mogą doprowadzić do zmiany form zmysłowości i podstawowych kategorii.
Owe rewolucyjne zapatrywanie na wygląd sieci i jej możliwości do odczytania interesująco przedstawił Richard Barbrook17. Prezentuje on narrację,
w której pojawia się spór między dwoma supermocarstwami – Stanami Zjednoczonymi a Rosją. Stany Zjednoczone wygrywają pojedynczą grę, mimo że
nie wygrywają w niej wszystkiego. Rosja pozostaje nieufna wobec modularności i wariacyjności Sieci. W jej wyobrażeniach Sieć w pewien sposób oddala
się od modelu państwa kontrolowanego przez władzę biurokratyczną. Natomiast Europa i jej zachodni partner stworzyli globalną Sieć i czerpią z tego profity w postaci przyrostu w zakresie sprzedaży usług.
Wyraźnie jest dostrzegalne to, że w tym sporze właściciele dużych firm
naciskają na to, by stworzyć nowy ląd ekonomiczny, zmniejszając biurokrację,
natomiast Rosja pozostaje na etapie stagnacji, jak twierdził Immanuel Wallerstein, z roku 1913. Rosja nie chce Sieci, choć przyjęła ją i zarazem stuningowała,
podrasowała pod względem nadzoru i inwigilacji. Sukces Stanów Zjednoczonych i Europy dokonał się wraz z nowym wynalazkiem. Sieć i umysły ludzkie
połączone razem wirtualną siecią tworzą coś, co modularnie zmienia swoją
budowę i jest nietrwałe, migotliwe, niemniej ma charakter pewnej totalności.
Całość ta, o której mowa, jest nowym, ogromnym środowiskiem, które określam mianem sieci umysłów. Jeśli podłączy się do tej sieci, to jest się czymś
17
R. Barbrook, Przyszłości wyobrażone. Od myślącej maszyny do globalnej wioski, Muza,
Warszawa 2009.
97
ponad Atmana, czyli Brahmanem, na zasadzie części, która jest całością, a zarazem pozostaje czymś transcendentnym, umykającym tak jak znikający użytkownicy na czacie.
Umysł nie jest przyrodą ani kulturą. Umysł jest częścią przyrody przez
swoje unerwienie w cielesnym aspekcie, a kulturą w zakresie tego, że powstał
w wyniku enkulturacji, wychowania i edukacji. Kultura została wmontowana
w umysł, a przyroda uległa opisywanemu procesowi, ale nie poddała się i pozostawiła po sobie postaci odruchów, warunkowych i bezwarunkowych rozkazów, takich jak mrużenie oczu, gdy ktoś w nie świeci. Umysł wyszedł z przyrody,
ale podlega jej wtedy, gdy pojawia się głód, w aktach seksualnych, a także przez
fantazjowanie, sztukę.
Umysł włączony do sieci, zanurzony w niej, partycypujący i doświadczający zjawisk, to umysł, który jest splotem. Splot taki ma znamiona myślenia, które jest w drodze, które nie jest pełne, które się bogaci, gdy korzysta z wymiany.
Jednostkowy umysł zanurzony w sieci to splot, który rozplenia się i zatraca, powracając do siebie jak do sterującego ja. Umysł połączony z innymi, tworzący
sieć myślenia, elektryczności i oprzyrządowania jest czymś bez ja, jest samomyśleniem, polilogiem, splotem wyższym, przewyższającym jednostkę. Przewyższenie to jest analogiczne do tego, które stosuje się do porównania zwierzęcia
jako jednostki z gatunkiem lub gatunku z przyrodą.
Sieć jest najszerszą jednostką, jaką można sobie wyobrazić, stawiając coś
ponad sobą jako jaźnią jednostkową. Taki nadrzędny splot energii, informacji
i ludzi stanowi coś, czego nie obejmuje się umysłem ani zmysłami. W tym sensie umysłowienie techniki jako sieci jest ponad wolą pojedynczego człowieka,
staje się czymś wielościowym, przerastającym lokalność państw, na korzyść nowej przyrody baz danych.
Trzecie z postawionych pytań dotyczy historii i plotki. Bez wątpienia splot
i umysłowienia nie są plotką, są czymś, co zostało określone przez użycia tych kategorii w wyżej wyłożonych zależnościach. Plotka jest czymś przednaukowym,
posiada atrakcyjność, ale jest niewiarygodna, wadliwa w stosunku do źródła,
z jakiego pochodzi. Pochodzi z zatrutego źródła, co oznacza, że to właściwie
źródło jest chore lub wadliwe, a nie sam wytwór. Mówi się w plotce o kimś lub
o czymś wyolbrzymiająco, ale niekoniecznie niewłaściwie w sensie korespondencji. Plotka może mówić prawdę, ale jest niewiarygodna, ponieważ powstała przez przesłyszenie tak jak w „głuchym telefonie”. Ktoś powtarzał coś komuś
i w serii tych powtórzeń powstała pogłoska jako dowód nieświadomego procesu dochodzenia do prawdy.
Historia w stosunku do plotki jest czymś, co wytwarzają historycy, specjaliści od narracji, której nie da się uprawiać w sposób irracjonalny lub nieświadomy. Narracja historyczna jest tekstem, który powstaje w sposób racjonalny.
Narracje takie mają założony cel, strukturę tego, co opisują, i stoją za nimi również czynniki działające nie wprost. Niemniej źródłem historii są zmiana społeczna i ścieranie się różnych procesów ze sobą, a nie jest nią powtarzanie czegoś
w sposób wadliwy. Historia ma wielu narratorów i nie sposób postawić jedności między różnymi szkołami, ale stoi za nimi zawsze rozróżnienie historii i sztuki
literackiej, a także sztuki prawnej i ekonomicznej.
Splot, o jakim mówiłem, jest faktem, co więcej, fakt ten jest doświadczany, a jego istnienie nie jest materialne, ani nie jest wprost idealne, idealistyczne
lub transcendentalne. Splot nie jest historią, ponieważ jego trwanie jest bardzo
krótkie, chodzi tutaj o okres ostatnich około trzydziestu lat. Trwanie takie nie
ma świadomości dorastającej do zauważenia wewnętrznego dystansu, wyparcia czegoś w niepamięć lub odcięcia się od czegoś z jej rozwoju. Co prawda są
98
dwie generacje Sieci, Web 1.0 i 2.0, ale obydwie są w użyciu i przenikają się na
różnych płaszczyznach. Historia Sieci będzie opowiadała o tym, jak w pewnym
momencie podłączono do niej ciała jako pojemniki umysłowienia, sploty z nowymi tworzywami i energiami. Ponadto opowie o wyjściu poza sieć elektroniczną
w stronę łączenia jej z neuronalną i jak zastąpiono interfejsy dotykowe interfejsami, w których płynie myśl bez użycia zmysłów.
Plotka o splocie może być różnego rodzaju, nie sposób wykluczyć nieracjonalnego dyskursu, który będzie przeinaczał dotychczasowe poszukiwanie
najlepszego dopasowania. Pogłoska o Sieci dotyczyć może tego, w jakim celu
wykorzystano ją do tego, by kontrolować umysły. Plotka taka jest bliska temu, co
mówi się o teoriach spiskowych. Jednakże wycofanie wojsk radzieckich z Układu Warszawskiego pozornie jest osłabieniem oddziaływania Rosji na państwa
środkowej Europy. Zaprzestano groźby powołania do wojska, ale zarazem pozwolono, by do umysłów jednostek miały dostęp obydwie strony i skoncentrowano się na dopracowaniu sieci elektrowni atomowych i linii przeciwlotniczej.
Plotka o Sieci mówi, że za siecią stoją po pierwsze korporacje, po drugie
układ dwustronny między dotychczas zwaśnionymi graczami. Korporacje biorą swoje dzięki reklamie i sprzedaży, natomiast strony globalnych umów mają
w rękach zgodę na prześwietlanie Sieci w celach antyterrorystycznych. Historia
Sieci jest spisywana zazwyczaj z akcentem, który pada na okres w latach 60. XX
w., gdy między uczelniami amerykańskimi wymieniano korespondencję i inne
teksty. Chodzi tu o A.R.P.A.N.E.T., ciało odpowiedzialne za obronę przeciwlotniczą w Stanach Zjednoczonych. Niemniej Sieć jako taka pojawiła się w latach 90.
XX w. za sprawą Tima Barnersa-Lee, gdy ten stworzył interfejs do wyświetlania
obrazów i załączania dźwięków.
Tekst taki znamionuje nowoczesność. Dopiero audiowizualność jest
czymś, co można uznać za charakteryzujące współczesność. W tym kontekście
splot, o jakim mówiłem, jest przedmiotem plotki i historii zarazem, będąc racjonalizowany i zaczarowywany. Splot, jaki powstaje z dnia na dzień, nie mając kierunku, posiada cel. Tym celem musi być człowiek, w taki sam sposób jak przyroda
jest ukierunkowana na najwyżej usytuowane istoty. Nie sposób wyobrazić sobie
techniki inaczej jak samodoskonalącej się i mającej swój cel w zniknięciu. Celem
techniki jest osiągnięcie takiej skuteczności, w której znika potrzeba dalszego
ulepszania, dalszej postprodukcji lub wejścia na wyższy stan usprawniania projektu. Technika w swojej ostateczności ma osiągnąć cel zupełnego zaspokojenia
ludzkich potrzeb i wyłączenie jego umysłu w stan odpoczynku. Stan taki można
nazwać uśpieniem, jest to przeciwieństwo myślenia jako tworzenia.
Technika, osiągając ten stan, może wyłączyć część libido i jakiś zakres
poszukiwań. Nie jest przesądzone, czy ludzie będą zmierzali do takiego stanu
techniki. Kluczowym w tej sprawie jest stan majętności i zdolność do gospodarowania. Okazuje się, że nowy wiek jest podminowywany przez kolejne kryzysy ekonomiczne i każde z liczących się państw w światowej gospodarce jest
zadłużone. Co więcej, kluczowym dla tego problemem jest stopień ryzyka inwestycji. W jakimś stopniu sytuacja w Polsce nie przypomina strajku, ale ceny
stopniowo, bardzo powoli rosną, a tylko w niektórych przedsiębiorstwach zaznaczono podwyżki.
Wyraźna zapaść koniunktury nie wróży dobrze Sieci. Powinno się oczekiwać wejścia jej na wyższe stadia wewnętrznej ewolucji, aby osiągnąć krańcowy stan rozwoju techniki, by stać się ludzkością zanurzoną w stanie snu przez
Sieć. Inny scenariusz prowadzi do kresu w postaci krachu i wojny oraz do dalszego rozwoju, ale nie w głąb Sieci, tylko w głąb materii. W tym ostatnim rozwiązaniu istnieje możliwość dalszego jakościowego skoku wewnątrz atomu lub
99
przyśpieszenie w wyniku eksploatacji kosmosu. Inwestycja w Sieć nie stoi po
stronie problemów związanych z wiarygodnością papierów wartościowych lub
ubezpieczeń. Niemniej ogromne środki finansowe można osiągnąć w dziedzinie innowacyjności w zakresie technologii informacyjnych.
Z jednej strony są innowatorzy, z drugiej strony pytanie, w jaki sposób ich
wyobraźnia może osiągnąć status masowego upowszechnienia. Czego potrzeba,
by opracować standardowe złącze umożliwiające sterowanie za pomocą myśli
bez użycia klawiatury i myszy? Do jakiego stopnia perfekcji można dojść w projektowaniu takich interfejsów? Czy budując interfejs, przez który będzie można dokonywać zmian przepływu myśli, będzie można wykorzystać go również
do tego, by przejąć czyjeś myśli i zakazać im powrotu do ich źródła? Przyszłości wyobrażone rozwoju Sieci są negatywne. W narracji, jaką zaproponował Richard Barbrook, nie ma miejsca na dalsze skokowe rozwijanie Sieci. Już ta forma
jest wywrotowa, z dalszą rewolucją należy liczyć się w tym sensie, że cyberpunk
stanie się status quo, niemniej żadne niekontrolowane ruchy nie mogą wydarzyć
się bez poparcia ze strony polityków.
Przyszłość stoi w miejscu, ponieważ ciągle nie udało się zrealizować przyszłości wykreowanej w latach 60. XX w. Wtedy zaczęto wysyłać ludzi w kosmos,
na poważnie zaczęto też rozprawiać o robotyce i sztucznej inteligencji. Patrząc
na współczesność od strony jej przyszłości, w zestawie fantazmatów pojawił się
także człowiek sklonowany, a także rośliny i zwierzęta transgeniczne. Wszystkie
wymienione obszary w pozytywnej przyszłości zostaną połączone i stworzą synkretyczną jedność, która będzie łożyskiem globalnego czuwania w zamian za
gorączkowe myślenie. Przedstawione człony zjednoczą się w historii o Sieci, która nie będzie miała swojego nowego, przyszłego etapu, ponieważ będzie jego
powieleniem. Jeśli podąży się za tym impulsem, będzie można wejść na drogę
realizowania techniki jako jej ostatecznego spełniania, wtedy plotka zbliży się do
historii i stanie się czymś w rodzaju religii.
Przyszły człowiek stoi w opozycji do człowieka współczesnego, ale nie
jest wykluczone, że przyszłość opisana w ten sposób zostanie zrealizowana. Na
przeszkodzie przede wszystkim leży ogólna zapaść gospodarcza i kurczowe
trzymanie się własnych dziedzin przez grupy naukowców. Można powiedzieć,
że porozumienia polityczne nie są przeszkodą, ale w tej chwili uwaga jest skoncentrowana na przetrwaniu jednostki, a nie na rewolucyjnym domknięciu. Jednak
pewne zachowania, pomimo wynalazku Sieci i w opozycji do jego wizjonerstwa,
są świadectwem ciągłego spoglądania wstecz, daleko w przeszłość aż do korzeni cywilizacji. Mówię tutaj o kierunku retrybalnym, ponawianiu pewnych obyczajów z repertuaru kultur przedchrześcijańskich lub równoległych pod względem
religijnym i filozoficznym do zasobu kultury europejskiej.
Splot, o którym mówiłem, dotyczy najnowszego zjawiska, jakim został obdarzony człowiek. Zjawisko to ma korzenie w komputeryzacji. Poza swoim pochodzeniem splot posiada tło polityczne i odniesienie do człowieczeństwa. Kierując
się od ja w stronę ja, po drodze można znaleźć się w sieci. Od sieci umysłu przechodzi się do sieci elektronicznej, która zazębia się z sieciami ekonomicznymi.
Poza Siecią nie ma miejsca na wygraną. Wygrywają tylko ci, którzy korzystają
z Sieci. W terminologii Barda i Soderquista wszyscy są świadkami konfliktu między konsumtariatem, kupującą widownią, a netokratami. Wśród tych ostatnich
są kuratorzy i neksjaliści. Jedni i drudzy czerpią profity z Sieci, przy czym neksjaliści nie traktują innych jako umysł, tylko jako jego echo.
100
Postmediacje
Wokół interfejsów
Narzędzia umysłu
Paweł Frelik
103
104
Mindware to najbardziej dosłownie narzędzia umysłu – wszelkiego rodzaju
oprogramowanie, serwisy i usługi (chociaż pewnie również urządzenia), które przyczyniają się do bardziej optymalnego działania ludzkiego umysłu. Do tego właśnie
podstawowego znaczenia chciałbym tutaj powrócić, odchodząc od podejścia naukowego na rzecz pragmatycznej analizy. Niniejszy tekst dzieli się na dwie części.
W pierwszej nakreślę, jakich narzędzi i usług używam w swojej pracy naukowej.
Nie jest to na pewno zestaw „żelazny” i nie ma pretensji uniwersalnych. Owszem,
ewoluował w ciągu kilku lat, w tym czasie i w każdej z wymienionych poniżej kategorii wypróbowałem przynajmniej po kilka, a czasem nawet kilkanaście, programów. Uważam się za dosyć wymagającego użytkownika, więc chciałbym wierzyć,
że moje wybory przynajmniej w jakimś stopniu odzwierciedlają coś więcej niż tylko własne preferencje estetyczne, a przez to mogą stanowić jakąś wskazówkę –
przynajmniej dla tych, których wymagania są zbliżone do moich. W drugiej części
zastanowię się nad wpływem – zarówno pozytywnym, jak i negatywnym, jaki badane mindware’y wywarły na moje praktyki i nawyki intelektualne. Oczywiście, jak
każda samoanaliza, próba taka jest obarczona niebezpieczeństwem braku obiektywizmu, ale ponownie chciałbym myśleć, że wspomnianych narzędzi używam
na tyle długo i – jak sadzę – na tyle świadomie, że mogę ocenić chociaż częściowo ich oddziaływanie. Chciałbym również zaznaczyć, że w niniejszym tekście interesują mnie tylko narzędzia – a więc nie to, co nazywa się potocznie zawartością
(content). Nie wspominam o najlepszych repozytoriach, ciekawych blogach i godnych uwagi periodykach sieciowych – skupiam się wyłącznie na obiegu informacji, bez jej wartościowania. Celowo również nie przytaczam społecznego wymiaru
tworzenia i obiegu informacji, który stanowi oddzielne zagadnienie.
Zanim przejdę do samych narzędzi, kilka słów o moim profilu naukowym –
ponieważ różne dziedziny wiedzy i nauki mają swoją specyfikę badań. Jestem filologiem anglistą/amerykanistą, moje pierwotne wykształcenie, zarówno w Polsce,
jak i USA, ograniczało się w dużej mierze do literaturoznawstwa oraz, w jakimś stopniu, kulturoznawstwa. Utrzymując zainteresowanie literaturą, w ciągu ostatniej dekady przesunąłem się zdecydowanie w stronę mediów i tzw. Visual Studies – na
siedem „zakontraktowanych” na następne dwanaście miesięcy dłuższych (powyżej 5000 słów) tekstów (artykuły i rozdziały w pracach zbiorowych) żaden nie dotyczy literatury. To samo dotyczy mojej książki habilitacyjnej, nad którą obecnie
pracuję. Od początku kariery akademickiej moim głównym polem zainteresowań,
zarówno dydaktycznym, jak i naukowym, jest science fiction i, w nieco mniejszym
stopniu, inne kultury fantastyczne i tzw. popularne. Konkretniej, szczególnie intensywnie skupiam się na kulturach wizualnych SF poza filmem i telewizją (chociaż
te również wchodzą w zakres moich zainteresowań) – grach wideo, sztuce, mapach, filmie krótkometrażowym i komiksie – oraz tym, w jaki sposób funkcjonuje
w nich „gatunkowość fantastyczna” i jak odzwierciedlają one „fantastyczność” zazwyczaj omawianą w mediach pierwszoplanowych – literaturze, filmie i telewizji.
Równolegle zajmuję się również współczesną literaturą eksperymentalną
(czy też postmodernistyczną, jak niektórzy by to określili) oraz zjawiskami, które
nieco przekornie nazywam unpopular culture – oczywiście w kontraście do powszechnie funkcjonującego w kręgach filologicznych, kulturoznawczych i medioznawczych terminu popular culture. W praktyce więc, na co dzień żongluję sporymi
ilościami danych pochodzącymi z bardzo różnych i często zróżnicowanych źródeł.
Zarówno dydaktyka, jak i badania wymagają nie tylko korzystania z książek i periodyków w formie „hard-copy”, ale również, czy może już nawet częściej niż rzadziej,
z elektronicznych baz danych, blogów, wiki i wszelkiego rodzaju źródeł internetowych oraz gier i materiałów wideo. Ze względu na zainteresowanie estetyką i wizualnością, znaczny procent moich danych to pliki graficzne – ilustracje, wybrane
105
klatki z filmów czy zrzuty ekranowe z gier. W konsekwencji, nie licząc powszechnych preferencji typu przejrzysty interfejs czy niezawodność działania, od moich
narzędzi wymagam przede wszystkim zdolności do komunikowania się z innymi programami (import/eksport), obsługi wielu typów plików (tekst, obraz, wideo, audio) oraz otwartości wydajności przy przetwarzaniu dużych ilości danych.
Poniżej przedstawię mój mindware’owy warsztat badawczy.
DEVONThink
To prawdziwe serce mojej bazy danych – jako że DEVONThink oraz powiązany z nim DEVONAgent są dostępne jedynie w wersji na niezbyt popularny w Polsce MacOS X, nie będę specjalnie rozwodził się nad jego zaletami1. Duża
część funkcji DEVONThink (chociaż nie te, które decydują o jego wyjątkowości)
jest dostępna również w Evernote, a do komunikacji między nimi istnieją dwa doskonale działające skrypty2.
Evernote
Drugie, równorzędne serce mojej bazy. Evernote to archiwum do przechowywania wszelkiego rodzaju informacji – tekstu i obrazów, ale również notatek
głosowych i wideo. Dzięki dostępności dla wielu systemów i platform, zaawansowanej synchronizacji oraz rozszerzeń i technik importowania danych z niemal
wszystkich typów źródeł Evernote jest idealnym programem na centralną bazę
danych, odnawialny zaś co miesiąc limit danych przy darmowym koncie (60 MB)
nie jest wbrew pozorom aż tak niski. Zaletą programu jest również zdolność rozpoznawania znaków (OCR) – po wciągnięciu np. pliku graficznego zawierającego
tabelę z tekstem i zsynchronizowaniu z kontem online na serwerach Evernote, po
kolejnej synchronizacji plik ten wraca do programu-klienta na naszym komputerze w formie przeszukiwalnej tekstowo.
Delicious
Okręt flagowy tak zwanego social bookmarking – pozwala zarówno na
przechowywanie online swoich zakładek i dostęp do nich z każdego komputera
z połączeniem sieciowym (znikają kłopoty związane z użyciem kilku komputerów
bądź formatowaniem dysków systemowych zjadających pieczołowicie nagromadzone kolekcje linków), jak i przeszukiwanie publicznie udostępnionych linków innych użytkowników. Przy ponad pięciu milionach zarejestrowanych użytkowników
można założyć, że znaczna część publicznie dostępnych stron została skatalogowana, a przeszukiwanie Delicious eliminuje jednocześnie najbardziej uciążliwy produkt uboczny Google’a – komercyjnie pozycjonowane strony. Obydwie funkcje są
oczywiście bardzo ważne, ale naprawdę kluczowa dla Delicious jest radykalna zmiana nawyków zakładkowania. Dzięki systemowi nadawanych przez samych użytkowników tagów (słów kluczy) serwis zachęca do zapamiętywania każdej strony,
która wydaje się nawet minimalnie przydatna w przyszłości. Stosujący tagowanie
w miarę konsekwentnie użytkownik może w ciągu kilkunastu sekund znaleźć potrzebną zakładkę w kolekcji liczącej nawet kilkanaście ich tysięcy.
1
2
Osoby zainteresowane działaniem tego doskonałego programu mogą poczytać
artykuły jego wielkiego orędownika, kulturoznawcy i autora Stevena Johnsona,
który i mnie „nawrócił” na DEVONThink – http://is.gd/lG2Ngo, http://is.gd/u0l9wP
oraz http://is.gd/eGyMHO.
Skrypty te, dostępne pod adresem http://is.gd/uhPSwm, będą oczywiście funkcjonować jedynie na komputerze z MacOS, ale przy dostępności Evernote dla wielu
systemów operacyjnych praktycznie tworzą one most pomiędzy Mac a PC i możliwość transferu danych w obydwu kierunkach.
106
RSSOwl
Drugi po DEVONThink/Evernote kluczowy węzeł obiegu danych. Samej
technologii RSS nie ma chyba potrzeby tutaj przedstawiać, natomiast podobnie jak
Delicious dramatycznie zmienia ona nawyki śledzenia dużej liczby źródeł: blogów,
serwisów informacyjnych, ale również takich stron, jak właśnie Delicious (można
obserwować linki danego użytkownika bądź wybrane tagi – zarówno globalnie
w całym serwisie, jak i u wybranych osób), DeviantArt czy Flickr. Zaawansowane
przeszukiwanie i system tagów pozwalają na szybkie przeszukiwanie nawet setek kanałów, stosowanie zaś programów-klientów (RRS można odczytywać również za pomocą usług online, takich jak Google Reader) oznacza budowanie bazy
wiadomości dostępnej nawet bez połączenia z Siecią. Dla przykładu, jako amerykanistę interesują mnie wiadomości z USA, lecz nie te przesiane przez polskie czy
europejskie serwisy, a pochodzące bezpośrednio „stamtąd”. Jeden z moich folderów w RSSOwl zawiera ponad 50 kanałów RSS lokalnych gazet amerykańskich –
rzecz jasna praktycznie nigdy nie przeglądam ich wszystkich dokładnie, ale kiedy
interesuje mnie jakieś konkretne wydarzenie, szybkie wyszukanie w czytniku (RSSOwl dodatkowo synchronizuje się z Google Readerem) podaje mi, co o nim pisały m.in. „Baltimore Sun”, „Seattle Times”, „Portland Tribune” czy „Denver Post” – nie
muszę chyba podkreślać, ile czasu i wysiłku zabrałoby wejście na strony chociażby
10 takich gazet i ręczne wyszukiwanie potrzebnego artykułu . Z kolei folder „Videogames” to ponad 100 kanałów blogów, magazynów sieciowych czy repozytoriów
z ogłoszeniami o konferencjach – pobieżne przejrzenie nagłówków połowy z nich
to kwestia kwadransa – wchodzenie na każdy z nich i przesuwanie w dół aż do
napotkania wcześniej przeczytanych trwałoby całe godziny. DEVONThink posiada wbudowaną funkcjonalność RSS; w przypadku Evernote istnieje wiele sposobów3 importowania całych kanałów bądź wybranych danych.
Instapaper
Serwis działa jak swego rodzaju elektroniczna półka, na którą można odłożyć do późniejszego przeczytania znalezione online wpisy blogowe czy strony.
Sporą część takiej funkcjonalności można oczywiście osiągnąć za pomocą Delicious i specjalnego tagu, ale osobiście lubię rozdzielać liczące kilka tysięcy linków
konto na tym pierwszym serwisie i strony, do których faktycznie chcę w najbliższym czasie powrócić – i tylko takie staram się do Instapaper wysyłać. Możliwość
szybkiego wysyłania na serwis linków z wielu programów do RSS i Twittera oraz
serwisów informacyjnych również przemawia na jego korzyść.
TweetDeck
Twitter jest znany przede wszystkim jako narzędzie mikroblogowe (czyli również jako cenne źródło informacji – podobnie jak blogi dawno przestał być
medium do dzielenia się informacjami na temat zestawu dań podczas obiadu
i wyjścia po mleko), ale równie dobrze może służyć jako szybki i odręczny notatnik. Coraz więcej osób wiodących intensywne życie elektroniczne publikuje znalezione linki, wywołane lekturą spostrzeżenia czy relacje na „żywo” z prezentacji
konferencyjnych nie na blogach, a właśnie na Twitterze. Dla przykładu, Matt Novak, autor interesującego mnie bloga Paleofuture (jeden z rozdziałów mojej habilitacji jest poświęcony retrofuturyzmowi jako konwencji wizualnej), na bieżąco
tweetuje linki do starych reklam czy artykułów w prasie, które nie znajdują się na
głównym blogu, adoptowanym zresztą niedawno przez Smithsonian Institution.
3
Istnieje wiele dodatków do Firefoxa i innych przeglądarek, ale automatyczne przekazywanie umożliwiają również takie serwisy jak http://ifttt.com/.
107
Zakładając, że śledzę „ćwierknięcia” osób, których myśli bądź praca faktycznie mnie
interesuje, Twitter staje się narzędziem wglądu w kolektywny umysł interesującej
mnie dyscypliny i nieocenioną kopalnią być może chaotycznych, ale często prowadzących do cudownych znalezisk informacyjnych kąsków. Dodatkowo, wysyłanie bezpośrednich wiadomości do użytkownika @myEN umieszcza je w Evernote4
i czyni z Twittera podręczny notatnik – w takim charakterze używam go często,
kiedy czytam z dala od komputera i chcę zanotować krótki cytat czy szybką myśl.
Wpisanie 140 znaków na telefonie komórkowym to pewnie najszybszy sposób
wciągnięcie ich do mojej bazy danych.
Blogi Tumblr i WordPress
W procesach dydaktycznych są kluczowe, w badaniach – drugorzędne jako
narzędzie. Tumblr służy do upubliczniania notatek, pojedynczych zdjęć, linków
i wszelkiego rodzaju krótkich treści. Blog w systemie WordPress to dobra platforma
do dłuższych wpisów, równoważnych nawet krótkiemu esejowi czy recenzji. Dodatkowo, jak dotąd kilkakrotnie użyłem go w połączeniu z wtyczką Comment Press,
która umożliwia innym użytkownikom przejrzyste komentowanie na marginesie,
w „dymkach” wiodących do konkretnych słów, zdań czy akapitów. W przypadku
poważniejszych tekstów, nad którymi wciąż pracuję, jest to narzędzie nieocenione, szczególnie, jeśli mam grupę osób będących w stanie krytycznie spojrzeć na
pisany czy redagowany tekst.
Email
Zarówno Evernote, jak i Tumblr pozwalają na robienie notatek za pomocą
wysyłanych na specjalnie generowany dla zarejestrowanych użytkowników adres
e-mailowy – w praktyce używam tej funkcjonalności wyłącznie do wciągania do
bazy informacji zawartych w otrzymanych e-mailach (przede wszystkim z wielu
list dyskusyjnych). Zamiast kopiować/wklejać przekazuję wiadomości dalej – na
Tumblr te, które chcę udostępnić publicznie, a do Evernote (gdzie mogą być następnie redagowane/przycinane), jeśli zawierają informacje, które chcę zachować.
Zotero
Narzędzie służące do przechowywania danych bibliograficznych i generowania bibliografii w wielu powszechnie stosowanych formatach – ja sam najczęściej stosuję MLA Stylesheet, ale Zotero łącznie obsługuje ponad 1000 różnych
stylów cytowania (te rzadziej używane są dostępne do pobrania na stronie). Do
niedawna Zotero działało jedynie jako rozszerzenie do Firefoxa – obecnie jest dostępny również jako samodzielny program współpracujący ze wszystkimi najpopularniejszymi przeglądarkami.
iPad
Niezależnie od wielości zastosowań tableta Apple’a używam go niemal wyłącznie jako czytnika książek. Preinstalowany na nim iBooks jest bardzo sprawnym
programem, ale osobiście preferuję GoodReader, który pozwala na więcej skomplikowanych operacji na wielu formatach plików (adnotacje na marginesach, x
rodzajów zakreślania i podkreślania, itd.). Formaty te następnie mogą być przenoszone na komputer do dalszej obróbki. Fakt, że istnieje również specjalny moduł
DEVONThink dla iPada oraz wersja Evernote’a na to urządzenie (obydwie w pełni
synchronizują się z innymi urządzeniami), czyni z iPada cenne narzędzie badawcze.
4
Szczegółowe instrukcje, jak połączyć Twitter i Evernote, znajdują się pod adresem
http://is.gd/wMYlYQ.
108
DEVONThink
Evernote
GoodReader(iPad)
Zotero
email
Delicious
RSSOwl/
GoogleReader
TweetDeck
WordPress
Instapaper
Tumblr
Powyższa lista nie opisuje w pełni, jak poszczególne elementy tego systemu
obiegu informacji „rozmawiają ze sobą” – jest to lepiej widoczne na załączonym
diagramie. Łatwo zauważyć, że mój obieg informacji zawiera pewne redundancje.
Te same dane (bądź ich część) są przechowywane w kilku węzłach – niezależnie
od różnej formy ich prezentacji daje to również pewność, że w przypadku zniknięcia którejś z usług bądź awarii systemu mogę odzyskać praktycznie 100% danych. Spora część komunikacji między mindware’ami jest też automatyczna i nie
wymaga ode mnie żadnych czynności, raz zdefiniowane kanały RSS i subskrypcje Twittera regularnie się aktualizują (w RSSOwl – co dwie godziny, w Google Reader i TweetDecku – na bieżąco), zarówno nowe zakładki na Delicious, jak i wpisy
na Tumblerze automatycznie są wysyłane do wyznaczonych folderów w Evernote, Instapaper zaś posiada swój własny kanał RSS, dzięki któremu nawet bez wchodzenia na serwis mogę zobaczyć, co mam odłożone na elektronicznej półce. Na
ciągłe rozszerzanie bazy poświęcam średnio około godzinę dziennie, każda sesja
przeglądania RSS-ów, Twittera i e-mailowych list dyskusyjnych to przynajmniej kilka bądź kilkanaście nowych wpisów.
Oczywiście programów, usług i serwisów potencjalnie przydatnych w pracy naukowej jest o wiele więcej, należy wystrzegać się jednak sytuacji, w której
zaglądanie na 10 kont na portalach akademickich czy utrzymywanie notatek w kliku programach zamiast oszczędzać czas, zaczyna go zjadać. Wymagania osobiste i dyscyplinarne są oczywiście różne, ale nie wszystkie narzędzia wyglądające
na przydatne sprawdzają się w praktyce. Przykładowo, portale Academia.edu
i ResearchGate wciąż nie osiągnęły masy krytycznej, przy której mógłbym zacząć
odkrywać wcześniej nieznane mi osoby bądź publikacje – przynajmniej w interesujących mnie dziedzinach. Oferowana przez Diigo funkcja przyczepiania żółtych
karteczek na odwiedzanych stronach lub zakreślania na nich interesujących fragmentów nie wydaje mi się specjalnie pożyteczna w sytuacji, kiedy za pomocą wtyczek do przeglądarek i bookmarkletów mogę importować i opatrywać przypisami
w DEVONThink i Evernote zarówno całe strony, jak i wybrane paragrafy. Nawet po
kilku podejściach do Mendelaya, programu do zarządzania bibliografiami, wydaje
mi się on zbyt skomplikowany, natomiast import z baz danych periodyków, przy-
109
najmniej humanistycznych, wciąż pozostawia wiele do życzenia, w rezultacie pozostałem wierny Zotero, który jest konsekwentnie rozwijany.
Wybór oprogramowania używanego w jakimkolwiek zawodzie odzwierciedla w dużym stopniu jego specyfikę – zainteresowania, metody, cele, a w przypadku badań akademickich – szczególne uwarunkowania danej dyscypliny, ale
przeciwne oddziaływanie również ma miejsce. Nasze narzędzia wpływają na nasze nawyki i zwyczaje oraz warunkują charakter naszej aktywności. Mindware nie
jest tu wyjątkiem – w moim przypadku odgrywa on niebagatelną rolę w kształtowaniu tego, jak prowadzę badania, piszę oraz – w pewnym stopniu – myślę. Dokładny charakter takiego wpływu nie jest łatwy do określenia i prawdopodobnie
wymagałby złożonych badań kognitywno-psychologicznych, ale mimo to chciałbym pokusić się o kilka obserwacji.
Pierwsze spostrzeżenie jest niemal truizmem – powyższy zestaw sprzęgniętych ze sobą narzędzi pozwala na monstrualnie łatwiejsze przeszukiwanie, identyfikowanie, przetwarzanie i wykorzystywanie materiału badawczego. O wpływie,
jaki w ciągu ostatniej dekady wywarły na pracy akademickiej nowe technologie
informacyjne, napisano pewnie tysiące stron – ostatnio chociażby w prestiżowym
„Nature”5. Dla używających takich rozwiązań jest to oczywiste, ale świadomość
i dystrybucja tego trendu wcale nie są w akademii równe. Bezustannie zaskakuje
mnie, jak niewielu naukowców-humanistów, włączając tych z młodszego pokolenia6, w aktywny sposób korzysta z idealnie dostosowanych do ich potrzeb programów. Kompilowanie „na piechotę” wielostronicowych list cytowanych źródeł,
opowieści o utraconych po reinstalacji systemu setkach zakładek czy utrzymywanie dużej liczby notatek w formie „analogowej” bądź zwykłych plikach Worda
są wciąż na porządku dziennym. To samo dotyczy niechęci względem e-książek – niechęci wręcz kuriozalnej wobec realnych zalet korzystania z nich. Daleki
jestem od cyfrowego suprematyzmu, ale biorąc pod uwagę, że znakomita część
mindware’u jest dostępna na zasadzie otwartej licencji (a dla płatnych istnieją
najczęściej ich darmowe alternatywy), trudno mi czasem wytłumaczyć krnąbrny opór przed poświęceniem trzech godzin na opanowanie jakiejś usługi bądź
programu. Owszem, zamiłowanie do źródeł papierowych, a przynajmniej książek jako przedmiotów, jest zrozumiałe (sam je podzielam), a osobiste preferencje
odnośnie trybu i dynamiki pracy również mają znaczenie, ale odmowa korzystania z chociażby podstawowych narzędzi poza edytorem tekstu skazuje współczesnego humanistę na nieefektywność i wyklucza go z uczestnictwa w wielu
współczesnych dyskursach krytycznych.
5
6
Artykuł Jima Gilesa Going Paperless: The Digital Lab jest dostępny online pod adresem http://is.gd/dz7ceM.
Daleki jestem od stereotypowania użytkowników według wieku, cały szereg moich
starszych koleżanek i kolegów aktywnie używa różnych technologii cyfrowych, ale
biorąc pod uwagę fakt, że tzw. młodsze pokolenie wychowało się z techniką komputerową na co dzień i nie powinno mieć kognitywnych oporów przed korzystaniem z niej (fakt uczestnictwa w studiach doktoranckich czy bycia adiunktem na
uczelni w dużym stopniu wyklucza również wyjaśnienia tego stanu rzeczy „wykluczeniem cyfrowym”), wysoki współczynnik osób prowadzących badania bądź
publikujących, a jednocześnie niekorzystających z nawet jednego typu narzędzi
reprezentowanych przez wymieniony przeze mnie software jest zaskakujący. Sytuacja ta może być nieco inna w przypadku nauk ścisłych czy w niektórych działach
ekonomii, w których komputery są niezbędne do codziennej pracy. En mass jednak, humaniści-akademicy są wciąż poważnie „zacofani cyfrowo” – co nie oznacza,
że nie istnieje jednocześnie wielu filologów, kulturoznawców czy historyków korzystających z softwarowych dobrodziejstw – oczywiście specyficznych dla swojej dyscypliny – dużo aktywniej niż, na przykład, fizycy.
110
Niezależnie od pokory poznawczej, jaką napełnia mnie ogrom wiedzy i wielogłos dyskusji toczących się zarówno w mojej dyscyplinie, jak i szerszej humanistyce oraz świadomości, jak wielu rzeczy muszę się jeszcze nauczyć, mogę z całą
odpowiedzialnością stwierdzić, że wykorzystywany mindware uczynił mnie zdecydowanie lepszym badaczem i – chociaż na ten temat ostatnie słowo mają moi
studenci – bardziej efektywnym dydaktykiem. Chciałbym też od razu zaznaczyć,
że przymiotniki „lepszy” i „bardziej efektywny” nie odnoszą się jedynie do ilości
i szybkości pracy, a również do zdolności kojarzenia i znajdowania nie zawsze oczywistych związków. Oczywiście żadne oprogramowanie nie zastąpi czytania czy
oglądania, nie zmusi do refleksji nad materiałem ani nie podsunie wniosków –
może jednak znacznie usprawnić „brudną robotę”, a czasem poprowadzić w kierunku intelektualnego odkrycia7.
O wiele poważniejszy od zwiększonej wydajności pracy z wieloma źródłami jest wpływ wspomaganego techniką dostępu do informacji na sam charakter mojej pracy intelektualnej, który w jakimś stopniu odzwierciedla zmieniający
się profil zarówno dyscypliny science fiction studies, jak i wielu innych gałęzi współczesnej humanistyki. Przyczyny tego procesu wybiegają oczywiście daleko poza
samo użycie mindware’u, ale uważam, że elektroniczne narzędzia pracy znacznie
się do niego przyłożyły – często bardziej niż się to zrazu wydaje. Aby go wyjaśnić,
konieczne jest spojrzenie na zachodni model uprawiania humanistyki dominujący przez większość XX wieku.
Tradycyjnie filologie były zdominowane przez model badawczy, w którym
dogłębna i szczegółowa analiza niewielkich wycinków była często bardziej ceniona niż opracowania synkretyczne. Z kolei tam, gdzie powstawały opracowania
przeglądowe typu Historia literatury angielskiej XIX wieku, autorzy przykładali wielką
wagę do ustanowienia wąskiego kanonu tekstów, który ze swojej natury promował zamknięcie i konserwatywne spojrzenie. Przykładowo, w przypadku literatury amerykańskiej oznaczało to niemal wyłączne uwzględnienie przysłowiowych
„martwych białych mężczyzn”, a w literaturze science fiction – jednej linii rozwoju
gatunku reprezentowanej przez technokratyczną i rygorystycznie naukową fantastykę wywodzącą się ze „stajni” pisarzy Johna W. Campbella. Model taki premiował więc długie artykuły analizujące pojedynczy motyw w dwu opowiadaniach,
eseje poświęcone tropowi schodów i wertykalności w wybranym filmie oraz teorie, na przykład gatunków, formułowane na podstawie analizy ograniczonej liczby ich najwybitniejszych przedstawicieli. Bardzo uogólniona charakterystyka nie
jest bynajmniej pejoratywna – taki rodzaj krytyki wciąż ma swoją wartość i miejsce w szerszych dyskursach.
Od kilku dekad obok takiego modelu uprawiania humanistyki pojawił się
jednak nurt równoległy, w ramach którego dużo większą rolę odgrywa szersze
podejście syntetyczne i niekanoniczne. Dogłębna znajomość intertekstów trylogii The Matrix jest niewątpliwie cenna, ale ja osobiście jeszcze chętniej poczytałbym o problematyce Virtuosity (1995), Nirvana (1997) czy Thirteenth Floor (1999),
o seriach Nemesis czy Project Shadowchaser nie wspominając. Nowa teoria z kolei postrzega gatunki jako dynamicznie zmieniające się formacje, których parametry są nieustannie negocjowane w miarę pojawiania się nowych trendów czy
tekstów. Spojrzenie takie w sposób oczywisty wymaga więc brania pod uwagę nie dziesięciu klasyków, a dwustu tekstów – niekoniecznie oczywiście w pojedynczym artykule.
7
Doskonałym przykładem tego, jak usługi i narzędzia elektroniczne wpływają na
ewolucję nawet jednej idei, jest ponownie wpis na blogu Stevena Johnsona –
http://is.gd/huEbj6.
111
Powodów takiej rekalibracji uwagi jest co najmniej kilka i nie są one łatwe do uchwycenia – nie są też zresztą aż tak znaczące w kontekście niniejszego
tekstu. Jednym z nich są na pewno postmodernistyczne dyskusje wokół kanonów, zarówno przeszłych, jak i obecnych, które w ciągu ostatnich kilku dekad dramatycznie zmieniły zakres badanych tekstów. Innym wytłumaczeniem szerszego
spojrzenia jest pragnienie odkrycia powiązań, linii wypływów i inspiracji między
wciąż mnożącymi się artefaktami kulturowymi – niezależnie od tego, czy uznajemy je za produkty Adornowskiego „przemysłu kulturalnego”, czy wynik uwolnienia kreatywności szerszych mas społecznych w wyniku demokratyzacji środków
ekspresji. Jeszcze inny fakt dotyczy tego, że krytyka akademicka też stała się swego rodzaju przemysłem (powiązanym zresztą z systemem ocen, etatów i grantów),
co narzuca konieczność poszukiwania nowych przedmiotów badań bądź wcześniej nieużywanych podejść metodologicznych. Niezależnie od wytłumaczeń takiego zjawiska, efektywność pracy z mnożącymi się przedmiotami badawczymi
jest ściśle powiązana ze stosowanymi narzędziami.
Wspomagany przez mindware dostęp do informacji oraz jej bardziej efektywne przetwarzanie promuje bardziej globalne i systemowe spojrzenie, ułatwia
objęcie i badanie większej liczby źródeł oraz pomaga śledzić powiązania między
nimi. Moje bazy danych w DEVONThink i Evernote już teraz zawierają kilka tysięcy
notatek, linków, cytatów, wycinków ze źródeł elektronicznych, niewykorzystanych
we wcześniejszych publikacjach zdań i akapitów czy nawet luźnych pomysłów
i skojarzeń, ale również – w przypadku pierwszego z programów – pełne biblioteki posiadanych przeze mnie e-książek i artykułów z takich repozytoriów, jak Project Muse, JStor czy Sage. Owszem, znakomita większość takich źródeł w przeszłości
mogła znajdować się na fiszkach i w postaci książek, periodyków i kopii ksero. Z całą
pewnością jednak, przy takiej wielkości bazy, nie mógłbym przeszukiwać jej tak
szybko i tak dogłębnie (a w przypadku DEVONThink również tak kreatywnie – patrz
przypis 1), jak pozwalają na to obydwa programy. O ograniczeniach swojej pamięci nie będę już wspominał8, ale istnieją również badacze, tacy jak Howard Rheingold, którzy uważają, że pod wpływem nowych technik informacyjnych staje się
ona bardziej plastyczna. W konsekwencji mindware w bardzo bezpośredni sposób wpływa na to, jak szybko piszę, jak szerokie, ale również precyzyjne spojrzenie wnoszę do swoich badań, a jednocześnie, jak bardzo jestem świadomy różnic
zdań i wielotorowości interesujących mnie tematów.
W swojej klasycznej już książce o języku nowych mediów, Lev Manovich
zasugerował, że we współczesnej kulturze ścierają się ze sobą dwa modele organizacji informacji: narracja i baza danych. Pierwszy z nich opiera się na konstrukcji
opowieści, w ramach której fakty, zdarzenia i informacje są połączone w ramach linearnego systemu skutkowo-przyczynowego, w którym można mówić o początku, końcu i celu. Baza danych to z kolei zdecentralizowany zbiór rekordów, spośród
których w miarę potrzeby są ekstrahowane pojedyncze elementy, składane następnie w różnego rodzaju konfiguracje. Nauki ścisłe od dłuższego już czasu opierają
się na takim modelu – ja chciałbym bardzo ostrożnie zaproponować, że zaczyna
się on pojawiać również w badaniach humanistycznych. To, w jaki sposób szeroko pojęty mindware organizuje i przedstawia użytkownikowi informację, wyraźnie skłania się ku modelowi bazy danych, w ramach której wystarczająca masa
krytyczna informacji prawdopodobnie sama wypycha na powierzchnię pewne
regularności, wzorce i powiązania. Jednym z badaczy-literaturoznawców, wykorzystujących duże zbiory danych (ang. data sets), jest Franco Moretti, który w takich
8
Zmiany w działaniu pamięci przedstawia np. zlinkowana infografika http://
is.gd/0NGoN3.
112
książkach, jak Atlas of the European novel, 1800–1900 (1998) czy Graphs, Maps, Trees.
Abstract Models for a Literary History (2005) zaproponował nowatorskie podejście do
analizowanych dotychczas pod kątem problematyki tekstów. Zdaję sobie sprawę,
że sugestia stoi w sprzeczności z wieloma aksjomatami tradycyjnej humanistyki,
ale niezbyt przesadzonym wydaje się również to, że percepcja pogłębiającej się
złożoności świata – nie tylko w sensie fizycznych, ale i kulturowym – wymaga nowych sposobów organizowania zdobytej wiedzy i jej przekazywania. Napędzany
bazą danych mindware jest w tym zadaniu narzędziem idealnym.
Trzecie spostrzeżenie dotyczące mojego doświadczenia pracy z mindware’m
jest – prawdopodobnie – nieco mniej optymistyczne od poprzednich. Niezależnie
od wszelkich dobrodziejstw żonglowania danymi muszę przyznać, że użycie wymienionych wyżej narzędzi i obracanie dużą ilością danych wpływa na jakość mojej koncentracji. Nie dzieje się tak ze względu na brak dyscypliny (nie mam na myśli
czynności typu ciągłe sprawdzanie poczty czy zaglądanie na Facebook), ale w wyniku poczucia potrzeby ciągłego dokumentowania kłączowo (ang. rhizome), jakby
to określili Deleuze i Guattari, pojawiających się potencjalnie przydatnych informacji. Podczas oglądania filmów potrzebnych mi do pracy muszę się powstrzymywać,
aby już za pierwszym razem nie robić szczegółowych notatek. Lektura wielu opracowań krytycznych to śledzenie – sprawdzanie, notowanie czy nawet tylko tworzenie zakładki – pojawiających się bezustannie odwołań i informacji. Nie dzieje się
tak zawsze, ale faktem jest, że przez większość czasu moja uwaga jest podzielona
między lekturę a pragnienie wyciągnięcia z niej wszystkich potencjalnie potrzebnych informacji – nie tylko tych, z powodu których w ogóle sięgnąłem po daną
pozycję. Nawyk taki podtrzymuje poczucie, że artefakty kultury są swego rodzaju
organiczną jednością połączoną niesłychanie złożonymi i chaotycznie rozłożonymi liniami inspiracji i współzależności, ale nawet zrobienie zakładki na Delicious (do
której mogę nawet nie wrócić) oznacza mikrorozrzedzenie uwagi. Prawdopodobnie jest to kwestia przyjętego przeze mnie systemu – może powinienem na przykład tylko zaznaczać w książce miejsca do późniejszego sprawdzenia, ale mam też
jednocześnie poczucie, że szybkie sprawdzenie (i następujące po nim wciągnięcie do bazy) przekłada się na lepsze zrozumienie czytanego tekstu tu i teraz, a nie
później. W konsekwencji więc trudno jest mi nawet powiedzieć, czy moja rozrzedzona uwaga to zjawisko pozytywne czy negatywne – jestem tylko świadomy, że
w czasach premindware’owych inaczej czytałem i oglądałem.
Reasumując, mindware radykalnie zmienia pracę badawczą i naukową – świadomość tego w humanistyce pojawia się być może nieco wolniej niż
w naukach ścisłych, ale sama zmiana jest chyba nieunikniona. Mówienie o niej
w kategoriach pozytywów i negatywów nie ma, moim zdaniem, wielkiego sensu.
Jak wszystkie dziedziny kultury premindware’owe modele uprawiania humanistyki w XX wieku też były postrzegane jako rewolucyjne przez wcześniejsze pokolenia historyków czy filologów. Na razie powinno się jednak przywiązywać dużo
większą wagę do samych narzędzi – zbieranie swoich notatek z książek w Wordzie
bądź w Evernote robi wbrew pozorom dużą różnicę i nie powinno być determinowane jedynie osobistym przyzwyczajeniem do pierwszego z tych programów.
Mindware to narzędzia umysłu – a korzystanie z zaniedbanych narzędzi najczęściej nie kończy się dobrze.
113
Wokół interfejsów
Hackers GNUnited!
Johan Söderberg
Artykuł Hackers GNUnited pierwotnie ukazał się w zbiorze
pokonferencyjnym spotkania Free Software Conference
and Nordic Summit (FSCONS): J. Söderberg, Hackers
GNUinted [w:] Free Beer. Written by speakers at FSCONS
2008, red. S.R. Eide, Göteborg 2010, s. 89-105.
Tłumaczenie: Paweł Frelik
115
116
Tekst Hackers GNUnited pierwotnie ukazał się w zbiorze pokonferencyjnym spotkania Free Software Conference and Nordic Summit (FSCONS) z 2008
roku. Konferencja ta odbywa się corocznie w Göteborgu w Szwecji. Jak na standardy międzynarodowe FSCONS jest dosyć małą imprezą, ale z czasem stała się miejscem spotkań hackerów, programistów i majsterkowiczów z krajów
skandynawskich. To, czym różni się od większych i bardziej znanych konferencji w Europie, to staranie organizatorów, aby zachować równowagę pomiędzy
technicznie zorientowanymi prezentacjami i warsztatami a refleksją społeczną
i polityczną. Jest to znaczącą różnicą w porównaniu do tego, jak polityka jest
obecna na innych imprezach hackerskich – czyli jako dodatek do demonstracji nowego systemu. Wśród tematów, o których debatowano podczas FSCONSów, były paralele pomiędzy ruchem wolnego oprogramowania a permakulturą,
reportaż z wioski działającej według zasad ekologii open source oraz o wprowadzeniu elektronicznego systemu do głosowania w Reykjaviku, zaprojektowanego na potrzeby demokracji bezpośredniej. I to właśnie w takim kontekście
przedstawiłem Hackers GNUnited.
Coroczny udział w konferencji hackerskiej, czy to w FSCONS-ie, czy podobnej imprezie w Europie, to samoterapia dla zniechęconego lewicowca, jakim jestem. Tradycyjne lewicowe przekonanie o tym, że za pomocą racjonalnych
deliberacji i wspólnego działania można stworzyć lepszą przyszłość, z każdym
rokiem wydaje się coraz bardziej nierealistyczne – zostało ono zmiecione na
margines przez splecione ze sobą siły techniki i globalnego rynku. Wiara w moc
działania zbiorowości, której zostały pozbawione szerokie masy społeczne, jest
przywracana w małych grupach, które wiodą prym na polu techniki. Poczucie
obecności ludzi przekonanych o swojej rosnącej sile jako zbiorowości jest niemal odurzające. Dla tych osób utopia jest do osiągnięcia, chociaż zdają sobie
też sprawę z tego, że nie da się tego uczynić samymi słowami – może być ona
za to produktem ubocznym rozwoju technicznego. Na hackerskich konferencjach można spotkać ludzi, którzy marzą o, dosłownie, wszystkim – od zastąpienia obecnego, państwowego systemu monetarnego prawdziwie globalną
i anonimową walutą do powrotu programu kosmicznego, dzięki któremu na
księżycu stanąłby hacker.
Od ponad 10 lat zajmuję się politycznymi aspektami hakowania i wolnego oprogramowania. Niniejszy artykuł zawiera najbardziej aktualną i skondensowaną wykładnię moich poglądów w tej mierze. Był on już przetłumaczony
na język hiszpański, przez Nicolása Reynoldsa, jako Hackers GNUnios. Jest dla
mnie zaszczytem, że teraz – dzięki Piotrowi Celińskiemu i Pawłowi Frelikowi – ukaże się on po polsku. W Hackers GNUnited kwestionuję powszechne
założenie, że aktywność hackerów da się opisać jako umiarkowaną, pragmatyczną obronę praw politycznych i obywatelskich. Zarówno komentatorzy,
jak i praktycy zgadzają się, że pogląd taki jest głęboko zakorzeniony w liberalnej – i amerykańskiej – tradycji politycznej. W opozycji do tego przekonania
w niniejszym artykule próbuję odczytać hacking i licencje wolnego oprogramowania w świetle tradycji reformistycznej i radykalnej walki o prawa pracownicze. Z pozoru brak dowodów przemawiających za takim stwierdzeniem.
Niemniej jednak autora wolnego oprogramowania i działacza robotniczego
łączy pragnienie zapewnienia sobie środków utrzymania w obliczu gwałtownych przemian technicznych. Wychodząc z takiej pozycji, sugeruję, że licencje
wolnego oprogramowania mogą być rozumiane jako rodzaj negocjacji w sprawie umowy zbiorowej przystosowanych do krańcowo zindywidualizowanego i niepewnego rynku pracy. Zarówno w tej, jak i innych sferach życia autor
wolnego oprogramowania znajduje się w awangardzie poszukiwań nowych
117
innowacyjnych sposobów oporu wobec decydentów – tak innowacyjnych, że
nie ma na nie wciąż określeń i które wymagają szczególnego wysiłku, aby wyrazić to, co dzieje się przed naszymi oczami.
Politycznalewicaa politykahackerów
Niniejszy artykuł jest spojrzeniem na hacking z perspektywy związków
zawodowych. Polityczne znaczenie hackingu komputerowego od dawna stanowi zagadkę dla starej lewicy, pomimo że istnieją kanały komunikacyjne pomiędzy ruchem hackerskich a tradycyjnymi ruchami społecznymi. Najbardziej
widocznymi wśród nich są grupy podziemia komputerowego identyfikujące
się jako haktywiści i pragnące stosować swoje umiejętności komputerowe do
promowania istniejących już programów politycznych, takich jak feminizm czy
ekologia1. Większym wyzwaniem jest określenie programu politycznego głównego nurtu ruchu hackerskiego – pierwszym pytaniem, jakie się pojawi, jest:
„Czy podziemie komputerowe jest w ogóle ruchem społecznym?”.
Wielu hackerów, a być może nawet ich większość, zaprzeczyłoby. W najlepszym przypadku polityka zajmuje drugorzędne miejsce wobec radości
manipulowania techniką komputerową2. Mimo to w owej żarliwej afirmacji
komputerów zakiełkowały idee o konsekwencjach politycznych. Przykładowo,
hackerzy, którzy na co dzień nie uważają się za „politycznych”, z reguły są przeciwni patentowaniu oprogramowania i państwowej kontroli w Internecie, a są
to jedynie dwa wybrane zagadnienia. Co więcej, poglądy te są tak rozpowszechnione w podziemiu komputerowym, że wyglądają bardziej na zdrowy rozsądek niż polityczne stanowisko. Inne zagadnienia, takie jak kampania przeciwko
rozszerzaniu praw dotyczących własności intelektualnej i obrona wolności słowa, znalazły się w programach politycznych i są aktywnie promowane przez
hackerskie grupy lobbystyczne – Free Software Foundation i Electronic Frontier Foundation. Organizacje te w sposób oczywisty są zaangażowane w politykę, zastrzegając jednocześnie, że ich interesy przebiegają wzdłuż innych linii
podziału niż te tradycyjne na prawicę i lewicę. Po analizie założeń, na których
opierają się publiczne oświadczenia tych grup, socjolodzy zauważyli jednak
bardzo bliskie związki z liberalizmem3.
Kilku lewicowych autorów nie zgadza się jednak z tą interpretacją hackingu jako ideologii liberalnej. Wręcz przeciwnie, uważają oni, że ruch hackerów
mógłby tchnąć nowego ducha w tradycyjną walkę lewicy – nie tylko tę o wolność jednostki, ale również walkę z niesprawiedliwością i nierównością. Najbardziej znanym z insiderów, którzy wyrazili taką opinię jest Eben Moglen, profesor
prawa i niegdyś jedna z głównych postaci Free Software Foundation. Moglen
jest również autorem The DotCommunism Manifesto, w którym przewiduje, że
firmy systemu kapitalistycznego zostaną w przyszłości zastąpione przez anarchizm ruchu wolnego oprogramowania jako najbardziej wydajny model organizowania produkcji4.
Specjalista od mediów, Richard Barbrook, rozumował w podobny sposób, kiedy podważał medialny szum wokół „wolnych rynków w cyberprzestrzeni”
1
2
T. Jordan, Activism!: Direct Action, Hacktivism and the Future of Society, Reaktion Books,
Londyn 2002.
L. Torvalds, D. Diamond, Just For Fun – The Story of an Accidental Revolutionary, HarperCollins Publisher, Nowy Jork 2001.
3
G. Coleman, Hacker practice: Moral Genres and the Cultural Articulation of Liberalism. Anthropological Theory, 2008, nr 8, s. 255–277.
4
E. Moglen, Anarchism Triumphant: Free Software and the Death of Copyright, http://
ur1.ca/f6nx, 1999.
118
promowanych w latach 90. XX w. Zamiast tego Barbrook przedstawił swoją własną wizję technicznie zaawansowanej, anarchistycznej kultury darów. Potrzeba
dawania wynikałby w niej automatycznie z faktu, że w Internecie w interesie
użytkowników jest dzielenie się informacją, a nie rynkowe handlowanie5. Pod
pewnymi względami Napster i kolejne generacje technologii udostępniania
plików można uznać za potwierdzenie tezy Barbrooka. Jeszcze bardziej heretycki w swoim ujęciu retoryki socjalistycznej jest słoweński filozof Slavoj Žižek.
Sparafrazował on leninowską aprobatę elektryczności, stwierdzając, żartobliwie
oczywiście, że „socjalizm to wolny dostęp do Internetu plus władza dla Rad”6.
Pomysł ten jest poważnie traktowany przez co najmniej kilku komunistów ze
starej gwardii, wierzących, że technika komputerowa to brakujące ogniwo, które w końcu uczyniłoby gospodarkę planową, realną, alternatywą dla gospodarki rynkowej7. Wszystko jednak wskazuje na to, że w ramach tradycyjnej lewicy
afirmacja hackingu i techniki komputerowej to zadanie mniejszości. Wśród lewicowych intelektualistów jest rozpowszechniona, głęboko zakorzeniona nieufność do komputerów i – prawdopodobnie automatycznie – ich najbardziej
gorliwych użytkowników, czyli hackerów. Korzenie Internetu w amerykańskich
instytucjach zimnowojennych same w sobie wystarczają, aby odstraszyć wielu postępowych myślicieli8.
Medialny szum wokół Internetu w połowie lat 90. XX w. jedynie przebudził stare demony Ery Informacji – terminu z lat 50. XX w., stworzonego przez
konserwatywnych socjologów starających się obalić tezę dotyczącą ciągle aktualnego znaczenia konfliktów klasowych. Oznajmiając koniec społeczeństwa
przemysłowego, pragnęli oni udowodnić, że napięcia pomiędzy klasami społecznymi zanikły, a ideologiczna walka pomiędzy liberalizmem i socjalizmem
stała się nieaktualna. W konsekwencji tego lewicowi naukowcy od dawna odrzucają tezę nastania Ery Informacji, wykazując, że industrializm, kapitalizm i konflikt klasowy wciąż są obecne9. Na poparcie swoich przekonań wystarczy, że
wskażą na nieludzkie warunki, w jakich jest wytwarzany sprzęt elektroniczny
w strefach bezcłowych krajów Trzeciego Świata10. Raport z 2008 roku opisuje
na przykład warunki, w jakich Chinki, niektóre zaledwie 16-letnie, pracują od 12
do 15 godzin na dobę przez sześć lub siedem dni w tygodniu, zaledwie zarabiając na utrzymanie11. Ustalenia te wyraźnie przypominają historyczne okoliczności, w których karty dziurkowane, maszyny numeryczne, mainframe’y i inne
embriony nowoczesnych komputerów stały się kluczem w masowych zwolnieniach robotników i degradacji umiejętności rękodzielniczych w produkcji12.
5
6
7
8
9
10
11
12
R. Barbrook, The Regulation of Liberty: Free Speech, Free Trade and Free Gifts on the Internet, „Science as Culture” 2002, nr 11(2), s. 150–177.
S. Zizek, A Cyberspace Lenin: Why Not?, „International Socialism Journal” 2002, nr 95.
A. Pollack [w:] Capitalism and the Information Age – The Political Economy of the Global Communication Revolution, red. R. McChesney, E. Meiksins Wood, J. Bellamy Foster, 1998.
P. Edwards, The Closed World: Computers and the Politics of Discourse in Cold War America, MIT Press, Cambridge 1996; D. Shiller, Digital Capitalism: Networking the Global
Market System, MIT Press, Londyn 1999.
F. Webster, Theories of the Information Society, Routledge, Nowy Jork 2002, s. 175.
G. Sussman, J. Lent, Global Productions – Labour in the Making of the Information Society, „Hampton Press” (Cresskill) 1998.
Weed, The Dark Side of Cyberspace – Inside the Sweatshops of China’s Computer Hardware Production, http://ur1.ca/f6ny, 2008.
H. Braverman, Labor and Monopoly Capital, „Monthly Review Press”, Nowy Jork 1974;
P. Kraft, Programmers and Managers: The Routinisation of Computer Programming in
the United States, Springer-Verlag, Nowy Jork 1977.
119
Po tym krótkim przedstawieniu skomplikowanych relacji pomiędzy tradycyjną lewicą a politycznym ruchem hackerów prześledzę polityczne znaczenie
hackerów w świetle starej dyskusji dotyczącej maszynerii fabrycznej i siły roboczej. Nazywana Dyskusją Bravermana (ang. Braverman Debate) od nazwiska autora, który ją zapoczątkował, ma swoje korzenie w latach 70. XX w., kiedy Harry
Braverman opublikował książkę dowodzącą, że zanikanie kwalifikacji wśród robotników jest inherentną cechą kapitalizmu. Głównym powodem tego zjawiska
było dążenie menedżerów do uniezależnienia się od wysoko wykwalifikowanych pracowników w celu utrzymania płac na niskim poziomie oraz osłabienia
związków zawodowych. Braverman znalazł poparcie dla swojej hipotezy w pismach pionierów filozofii zarządzania. Winston Taylor, postać kluczowa na tym
polu, położył podwaliny pod to, co dzisiaj jest znane jako zarządzanie naukowe
bądź Tayloryzm. Głównym założeniem zarządzania naukowego jest przekształcenie produkcji w taki sposób, aby poszczególne zadania mogły być wykonywane w ramach prostych rutynowych czynności wymagających od pracowników
minimum kwalifikacji. Tayler dowodził, że można to osiągnąć dzięki zastosowaniu maszyn, Braverman wykazał, jak ta strategia została wykorzystana w przemyśle ciężkim w połowie XX wieku.
Spostrzeżenie to może służyć jako pryzmat, przez który wskażę na znaczenie komputerów i ich hackowania. Nowość tego podejścia polega na sformułowaniu analizy ruchu hackerskiego z perspektywy produkcyjnej, a nie, jak
zazwyczaj, z perspektywy praw konsumenckich. Wykażę, że ewolucja Wolnego i Otwartego Oprogramowania (FOSS, ang. Free and Open Source Software)
może być powiązana z przemysłowym konfliktem pomiędzy menedżerami a robotnikami. Co więcej, podkreślę podobieństwa pomiędzy walką robotników
z maszynami a walką ruchu hackerskiego z zamkniętym oprogramowaniem.
W dziedzinie programowania wolny dostęp do kodu, główny postulat hackerów, stoi w sprzeczności z system fabrycznym i logiką naukowego zarządzania13.
Chociaż sytuacja programistów jest pod wieloma względami bardzo różna od
sytuacji pracowników fizycznych, w artykule zauważam, że w obliczu gwałtownego postępu technicznego obydwie grupy są żywo zainteresowane zachowaniem kwalifikacji i autonomii pracowników. Żądania hackerów, aby kod źródłowy
był w pełni dostępny, mogą być interpretowane jako część strategii mającej na
celu zachowanie specjalistycznej wiedzy programisty i kontroli, jaką posiada on
nad narzędziami zawodu.
Maszynaa praca
Ambiwalentne poczucie entuzjazmu i obawy, jakie technika komputerowa wywołuje wśród ludzi, mają historyczne precedensy. W początkowym okresie
rewolucji przemysłowej wszystkie grupy społeczne intensywnie debatowały nad
konsekwencjami mechanizacji dla człowieka – zarówno społecznymi, jak i duchowymi14. Niektórzy prekursorzy liberalnej teorii ekonomicznej, tacy jak David
Riccardo, sami przyznawali, że klasa robotnicza miała realne powody, aby żywić
urazę do maszyn fabrycznych15. Niedola, jaka stała się udziałem robotników podporządkowanych maszynom i fabrycznej dyscyplinie, została obrazowo opisana
przez Jamesa Kay’a, reformistę społecznego pracującego jako lekarz w slumsach:
13
14
15
G. Hannemyr, Technology and Pleasure: Considering Hacking Constructive, „First Monday” 1999, nr 4(2).
M. Berg, The Machinery Question and the Making of Political Economy, Cambridge
University Press, Cambridge 1980.
D. Riccardo, Principles of Political Economy and Taxation, wyd. 3, 1821.
120
Tak długo, jak działa turbina, ludzie muszą pracować – mężczyźni, kobiety i dzieci sprzęgnięci są z żelazem i parą. Zwierzęca maszyna – zawodna
w najlepszym wypadku i narażona na tysiąc gatunków cierpienia – przykuta jest do maszyny z żelaza, która nie zna cierpienia i zmęczenia16.
Dla wczesnych autorów zajmujących się zarządzaniem, takich jak Andrew
Ure i Charles Babbage, sytuacja ta stanowiła znakomitą okazję do doradzania
właścicielom fabryk w zakresie projektów maszyn tak, aby utrzymywały one robotników posłusznymi i produktywnymi17. Na ich świadectwach opiera się analiza kapitalizmu Karola Marksa, który potępił maszyny fabryczne jako „materialną
formę istnienia kapitału”. Sprecyzował on również swoją krytykę techniki, dodając: „Minęło sporo, czasu zanim robotnicy nauczyli się odróżniać maszyny od ich
użycia przez kapitał, a przez to kierować swój atak nie przeciwko materialnym
instrumentom produkcji, a przeciwko formie społeczeństwa, która takie instrumenty wykorzystuje”18. Marks tym samym potępił strategię niszczenia maszyn,
która była cechą charakterystyczną ruchu Luddystów.
Luddyści skupiali zgrzeblarzy, tkaczy i rzemieślników obawiających się, że
ich zawody są zagrożone wprowadzeniem nowych krosien i reorganizacją przemysłu włókienniczego. Organizowali oni nocne wypady, podczas których niszczyli maszyny włókiennicze i ramy tkackie należące do „majstrów tkackich”. Akcje
tego rodzaju nasiliły się w latach 1811–1813 w takim stopniu, że w pewnym momencie Korona Brytyjska była zmuszona wysłać w jeden z regionów aż 14 400
żołnierzy, aby powstrzymać nocne insurgencje. Co ciekawe, przeciwko Luddystom zmobilizowano więcej żołnierzy, niż liczył kontyngent wysłany cztery lata
wcześniej do Portugalii przeciwko armii Napoleona19. W swojej klasycznej już
dziś rewizjonistycznej analizie powstania Luddystów, Eric Hobsbawm wykazał,
że niszczenie maszyn nie było daremnym oporem wobec techniki i postępu,
jak potem długo uważano. Hobsbawm uznał je za metodę „negocjacji zbiorowych w formie buntu”. Niszczenie maszyn było jedną z kilku opcji, ale robotnicy mogli również wpływać na pracodawców, podpalając ich magazyny bądź
stosując anonimowe pogróżki. Autor doszedł do wniosku, że Luddyści odnieśli
nawet skromny sukces, jeśli mierzyć go zdolnością robotników do utrzymania
stawek i warunków pracy20.
Błędna interpretacja rebelii Luddystów jako szalonej, nieodpowiedzialnej
i co najważniejsze niemającej nic wspólnego z polityką przypomina współczesne przedstawienia hackerów w mass mediach. Andrew Ross kilkakrotnie podważał obraz hackera jako drobnego kryminalisty, szczeniackiego żartownisia bądź,
dla odmiany, yuppiego Ery Informacji. Podkreślał on, że główną przyczynę awarii
komputerowych w firmach stanowi spontaniczny sabotaż podejmowany przez
pracowników. Ataki takie nie są zazwyczaj notowane przez policję, gdyż menedżerowie wolą obarczyć nimi wrogów zewnętrznych. Biorąc pod uwagę tę obserwację, Ross proponuje o wiele szerszą definicję hackingu:
16
17
18
19
20
J. Kay, Moral and Physical Conditions of the Operatives Employed in the Cotton Manufacture in Manchester, 1832.
A. Ure, The Philosophy of manufactures: or, an exposition of the scientific, moral and
commercial economy of the factory system of Great Britain, Knight, Londyn 1835; C.
Babbage, On the economy of machinery and manufactures, Kelley, Nowy Jork 1971.
K. Marx, Capital, vol. 1, Penguin Books, Londyn 1976.
K. Sale, Rebels Against the Future – The Luddites and Their War on the Industrial Revolution, Lessons for the Computer Age, Addison-Wesley Publishing Company, Reading,
Mass. 1995.
E. Hobsbawm, The Machine Breakers, „Past and Present” 1952, nr 1, s. 57–70.
121
Podczas gdy tylko niewielka liczba użytkowników komputerów określiłaby siebie jako „hackerów”, istnieją solidne przesłanki, aby rozszerzyć
wąską definicję hackingu na całą hierarchię analityków systemowych,
projektantów, programistów i operatorów, tak aby obejmowała ona
wszystkich pracowników sektora komputerowego – niezależnie od poziomu umiejętności – którzy są w stanie przerwać, zakłócić i przekierować gładki przepływ ustrukturyzowanej komunikacji decydujący o ich
pozycji w społecznych sieciach wymiany i wpływający na harmonogram ich pracy21.
Podejrzenia Rossa znajdują potwierdzenie w badaniach przeprowadzanych przez organizacje pracodawców. Niszczenie sprzętu komputerowego przez
personel jest scenariuszem o wiele bardziej powszechnym, kosztownym i groźnym dla firm niż włamania dokonywane przez zewnętrznych użytkowników. Według sondażu z 1998 roku, przeprowadzonego wspólnie przez Computer Security
Initiative i FBI, przeciętny koszt udanego ataku komputerowego w Stanach Zjednoczonych dokonanego przez osobę z zewnątrz wynosił 56 tysięcy dolarów. Dla
porównania, przeciętny koszt złośliwych aktów dokonanych przez osoby wewnętrzne (tzn. własnych pracowników) był oceniany na 2,7 miliona dolarów22.
Pracownicze zamiłowanie do atakowania komputerów pracodawców podkreśla
rolę komputeryzacji w przemianach warunków pracy biurowych pracowników
umysłowych. Porównania z sabotażem zaproponowane przez Rossa na pewno
spotkają się ze sprzeciwem ze strony „prawdziwych” hackerów. Członkowie ruchu hackerskiego, którzy chcą „pokazywać się na salonach”, usiłują walczyć z negatywnymi stereotypami w mediach przez rozróżnianie pomiędzy tradycyjnymi
hackerami a tak zwanymi crackerami. Pierwsze z tych określeń jest zarezerwowane dla kreatywnych zastosowań techniki, które przyczyniają się do społecznie
pożytecznych projektów programistycznych. Negatywne konotacje przestępczości komputerowej są zarezerwowane dla drugiej z tych grup23.
Przedstawione próby poprawy wizerunku publicznego hackerów podkreślają jedynie historyczne zbieżności ze wspomnianym wyżej buntem pracowniczym. Ruch związkowy również wprowadził korekty do swojej oficjalnej historii,
tak, że sabotaż, dzikie strajki i akty przemocy znikły z oficjalnych kart. W gruncie
rzeczy związkom zawodowym udało się sformalizować konflikt między pracownikami a kapitałem jako zinstytucjonalizowane negocjacje. Jednocześnie można
jednak wykazać, że zbiorowe układy pracy w dalszym ciągu opierają się na ukrytych groźbach sabotażu, strajków i buntów24. W podobny sposób rozróżnienie
pomiędzy hackerami a crackerami jest dla mnie samego konstrukcją retoryczną,
która nie oddaje pełnego obrazu historycznych korzeni i wzajemnego nakładania
się obydwu subkultur, a która stara się przedefiniować konotacje hackingu i wyprofilować je w konkretnym kierunku. Niezależnie od efektywności takiej retoryki, nie da się ukryć, że cyrkulacja „warezów”, łamanie zabezpieczeń i włamania
na serwery korporacyjne odgrywają pewną rolę w walce o wolność informacji.
Niezależnie od powyższego czytelnik mógłby słusznie zaoponować,
że motywacja Luddystów i robotników do odrzucania maszyn fabrycznych
21
22
23
24
A. Ross, Strange Weather – Culture, Science, and Technology in the Age of Limits, Verso, Londyn 1991.
B. Shell, J. Dodge, The Hacking of America: Who’s Doing it, Why, and How, Quorum
Books, Westport, CT, 2002.
Dokument „Jargon file”, uważany za autorytatywne źródło dotyczące slangu hackerskiego, bardzo emfatycznie zaznacza różnicę pomiędzy crackerami a „prawdziwymi” hackerami. http://ur1.ca/f6o3 (dostęp: 27.05.2009 r.).
G. Brown, Sabotage – A Study in Industrial Conflict, Spokesman, Nottingham 1977.
122
i biurowych zdecydowanie różni się od motywacji hackerów walczących z zamkniętym oprogramowaniem. Dla tych ostatnich komputery okazują się dobrem
konsumpcyjnym i źródłem inspiracji. Co więcej, ich stosunek do techniki to pasja,
a nie wrogość. Nawet kiedy hackerzy (crackerzy) sabotują korporacyjne serwery, ich działanie jest aktem radości. Niezadowoleni pracownicy biurowi również
mogą znajdować pewną przyjemność w niszczeniu komputerów pracodawców,
ale jednocześnie prawdą jest też, że ich działania są spowodowane niezadowoleniem ze swojej sytuacji. Różnica motywacji nie wyklucza jednak możliwości,
że hackerzy mają pewne punkty styczne z niegdysiejszymi niszczycielami maszyn. Obydwie grupy są zaangażowane w walkę, która toczy się na terytorium
rozwoju technicznego. Może być nawet tak, że pełna pasji afirmacja techniki hackerów stanowi o wiele bardziej podstępną taktykę w porównaniu do, na przykład, powstania Luddystów. Chociaż z jednej strony nie można powiedzieć, że
Luddyści odrzucali technikę jako taką, jest też prawdą, że bronili starszych technologii przed nowym systemem fabrycznym na znacznie większą skalę. Z perspektywy czasu wydaje się więc, że ich sprawa była z góry skazania na porażkę.
Z drugiej strony, hackerzy posiadają swoją własną technologię, z której korzystają.
Mogą też wiarygodnie twierdzić, że ich model pisania kodu jest o wiele bardziej
zaawansowany niż „fabryczny model” rozwoju zamkniętego oprogramowania.
Kwalifikacje –zanikaniewśródrobotników,zmianawśród
użytkowników
Obecna sytuacja, w której hackerzy mogliby odebrać technikę komputerową korporacjom i instytucjom rządowym, jest wynikiem dziwnej dialektyki.
Wskazówki na temat tego, jak w ogóle do niej doszło, ukryte są w tzw. Dyskusji
Bravermana, która toczyła się w kontekście sugestii o nadejściu Ery Postindustrialnej25. Dwadzieścia lat później ta sama idea została przepakowana jako nastanie
Ery Informacji bądź „społeczeństwa sieciowego”. Pojawia się ona w wielu odmianach, ale wszystkie łączy wizja jasnej przyszłości, w której kapitalizm wyewoluuje poza konflikty klasowe i monotonię pracy. Ważne jest to, że zmiana ta nie jest
wynikiem walki społecznej, a wyłącznie konsekwencją trajektorii rozwoju technicznego. Harry Braverman skrytykował jedno z głównych założeń tej koncepcji,
dotyczącej tego, że kwalifikacje robotników zostaną podniesione w wyniku zamiany stanowisk fizycznych na umysłowe. Twierdził on, że logika kapitału opiera
się na zanikaniu kwalifikacji siły roboczej niezależnie od tego, czy znajduje ona
zatrudnienie w fabryce, czy w biurze. Zamiast tendencji ogólnego podnoszenia
kwalifikacji w społeczeństwie Braverman przewidział, że wzrost tzw. gospodarki
usługowej doprowadzi do sytuacji, w której pracownicy umysłowi staną w obliczu uproszczenia i utraty kwalifikacji, tak samo jak miało to wcześniej miejsce
w przypadku pracowników fizycznych.
Zdecydowanie najważniejszym elementem nowoczesnej produkcji jest
rozbicie złożonych procesów na proste zadania wykonywane przez robotników, których wiedza jest niemal zerowa, których tak zwane szkolenie jest krótkie i którzy w konsekwencji mogą być traktowani jak
wymienne części26.
Stwierdzenie to zostało odparte przez socjologów przemysłu. Przyznali
oni, że w tradycyjnych gałęziach przemysłu dochodzi do zaniku kwalifikacji, ale
25
26
D. Bell, The Coming of Post-Industrial Society: A Venture in Social Forecasting, Basic
Books, Nowy Jork 1973.
H. Braverman, Labor and Monopoly Capital, „Monthly Review Press”, Nowy Jork 1998.
123
jednocześnie udowadniali, że trend ten jest przeciwważony tworzeniem nowych stanowisk o wyższych kwalifikacjach w innych rejonach gospodarki. Na
pierwszy rzut oka pojawienie się zawodu programisty wydaje się potwierdzać
tezy krytyków Bravermana. Jeden z nich, Stephen Wood, zarzucił Bravermanowi idealizowanie XIX-wiecznych rzemieślników. Wood wskazał upowszechnienie
umiejętności czytania i pisania jako dowód na wzrost kwalifikacji w nowoczesnym społeczeństwie27. Jego komentarz jest intrygujący, gdyż uwypukla niuanse, które zanikły w tej gwałtownej wymianie stanowisk. Celem kapitału jest nie
zanik kwalifikacji jako takich, a uczynienie pracowników zastępowalnymi. Kiedy
zadania i kwalifikacje stają się ustandaryzowane, siła robocza traci na wartości
w obliczu podaży i braku siły politycznej. Z tego punktu widzenia nie ma znaczenia, czy kwalifikacje pracowników wyrównują się na niższym, czy wyższym
poziomie. Powszechna umiejętność czytania i pisania jest przykładem tego drugiego zjawiska.
W tym kontekście umiejętność czytania i pisania może być uznana za
analogiczną do propagowanej obecnie umiejętności obsługi komputera (ang.
computer literacy) i kampanii na rzecz zasypania „cyfrowej przepaści” (ang. digital gap). Na pierwszy rzut oka, w społeczeństwie którego obywatele umieją używać komputery, kwalifikacje się podnoszą. Można by podejrzewać, że jednym
z bodźców tego zjawiska jest fakt, iż umiejętność obsługi komputera zmniejsza
inercję w uczeniu się w najszerszym tego słowa znaczeniu, czyli redukuje czas,
jaki ludziom zabiera uczenie się nowych umiejętności. Kiedy pracownicy opanowali podstawowe umiejętności nawigacji w środowisku cyfrowym, nauczenie się
nowego zawodu w sytuacji, kiedy stary przestał być użyteczny, wymaga o wiele
mniejszego wysiłku. Przedstawiona, nieco cyniczna interpretacja umiejętności
obsługi komputera może być wykazana na przykładzie przemysłu drukarskiego. Tradycyjne rzemiosło składu drukarskiego i druku wymagało wielu lat nauki
oraz sporego i drogiego zaplecza. Związkowa zadziorność, jaka charakteryzowała
przemysł drukarski, była oparta na takim właśnie monopolu jego pracowników.
Wprowadzenie do składu i druku komputerów miało decydującą rolę
w złamaniu siły pracowników typograficznych28. Komputer osobisty można uznać
za przedłużenie tego procesu. Dzięki mediacji oprogramowania pojedyncza
umiejętność nawigacji w interfejsie graficznym przekłada się na wiele innych
umiejętności. Przykładowo, mając komputer z GNU/Linuksem i Scribusem, użytkownik może opanować język maszynowy komputera i imitować rzemiosła produkcji grafik i składu tekstu. W porównaniu do czasu, jaki musiał upłynąć zanim
pracownik graficzny opanował rzemiosło, użycie tych programów wymaga jedynie krótkiego szkolenia. Przykład ten pokazuje, w jaki sposób umiejętność obsługi
komputera redukuje inercję ludzkiego uczenia się i czyni kwalifikacje pracowników wymiennymi. Liberalni autorzy postrzegają ten proces jako przykład liniowego przyrostu uczenia się i edukacji właściwych dla tak zwanego społeczeństwa
wiedzy. Z punktu widzenia teorii procesów pracy jest dokładnie odwrotnie, ta
sama zmiana jest postrzegana jako degradacja kwalifikacji pracowników i w ostatecznym rachunku prowadzi do osłabienia pozycji związków zawodowych.
Klasyczne opracowanie Davida Noble’a dotyczące wprowadzenia sterowania urządzeń numerycznych w przemyśle ciężkim w połowie XX wieku
stanowi brakujące ogniwo pomiędzy bravermanowskim omówieniem zaniku
kwalifikacji a obecnymi debatami dotyczącymi komputerów i hackerów. Praca
27
28
S. Wood, The Degradation of Work? Skill, Deskilling and the Labour Process, Hutchinson, Londyn 1982.
A. Zimbalist, A Case Studies of the Labor Process, „Monthly Review Press” 1979.
124
Noble’a pokazuje to, w jaki sposób uniwersalność komputera miała pierwotnie działać na korzyść menedżerów, pełnych nadziei, że osłabi ona pozycję
wszechstronnych i wykwalifikowanych operatorów maszyn. Wcześniejsze wyspecjalizowane urządzenia nie zdołały wyprzeć tych pracowników z rynku, gdyż
poszczególne fazy procesów produkcyjnych wciąż musiały być koordynowane
z załogą. Dla kontrastu, maszyny ogólnego zastosowania symulowały wszechstronność człowieka i były lepiej przystosowane, aby go zastąpić29. Przywołany
historyczny łącznik jest bardzo ważny, ponieważ obecnie powszechnie uważa
się, że uniwersalność komputerów jest inherentną cechą samych technologii
informacyjnych. Tym samym trajektoria rozwoju w kierunku uniwersalnych narzędzi jest oderwana od swojego kontekstu walki pracodawców i pracowników,
a przypisywana łasce rozwoju technicznego.
Wszystko to nie zobowiązuje do potępienia tendencji w kierunku wyrównywania kwalifikacji produkcyjnych i rozwoju uniwersalnych narzędzi, takich jak komputery. Wręcz przeciwnie – w kontraście do negatywnego obrazu
Harry’ego Bravermana jak neoluddysty, sam autor uważał, że konsolidacja potencjału siły roboczej dzięki maszynom zawierała w sobie pozytywny potencjał.
Konsolidujący proces, w ramach którego wykonanie wszystkich kroków
wbudowane jest w mechanizm pojedynczej maszyny wydawałbym się
odpowiednim dla kolektywu powiązanych ze sobą producentów, z których żaden nie potrzebuje spędzać całego życia na wykonywaniu jednej czynności, a wśród których wszyscy mogą uczestniczyć w budowie,
projektowaniu, usprawnianiu, naprawie i działaniu coraz bardziej wydajnych urządzeń30.
Dzięki uniwersalnemu narzędziu, jakim jest komputer i niemal uniwersalnej umiejętności obsługi komputera, ludzie mogą angażować się w jakąkolwiek – i więcej niż jedną – aktywność produkcyjną. Przedstawiony punkt widzenia
pozwala zrozumieć obecny trend „usamodzielnienia użytkowników”. Innymi słowy,
dokonane za pomocą powiązanych ze sobą procesów utraty i zmiany kwalifikacji, pozbawienie zorganizowanego ruchu związkowego silnej pozycji w dziedzinie aparatu produkcji kapitalistycznej przygotowało podwaliny pod innowacyjne
projekty oparte na komputerach, a nakierowane na użytkowników. Ponieważ
oprogramowania, takie jak Inkscape czy Scribus oraz ich „zamknięte” odpowiedniki, zastępują tradycyjne formy składu i druku, wiele osób może produkować plakaty i ulotki znajdujące bezpośrednie zastosowanie w ich lokalnych konfliktach.
Kontrola aktywności produkcyjnej obecnie przychodzi firmom o wiele
trudniej niż w czasach, kiedy narzędzia pracy znajdowały się w rękach nielicznych,
choć relatywnie silnych, pracowników. Zasady, jakie obowiązują w projektach
graficznych, mają swoje odniesienie do programowania i rozwoju technologii
komputerowych. I tutaj wysuwa się na pierwszy plan Janusowa twarz oprogramowania: ta sama elastyczność i precyzja, z jakimi kod może być zaprojektowany w celu kontroli podległych pracowników, pozwalają wielu innym osobom na
udział w jego pisaniu. Chociaż embrionalne formy techniki komputerowej, takie jak maszyny numeryczne, zostały wprowadzone do miejsc pracy przez menedżerów pragnących uniezależnić się od wykwalifikowanych i należących do
29
30
D. Noble, Forces of Production – A Social History of Industrial Automation, Alfred
A Knopf, Nowy Jork 1984.
H. Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth
Century, „Monthly Review Press” 1998.
125
związków zawodowych pracowników, technika komputerowa przyczyniła się
również do ustanowienia – jako produktu ubocznego – procesów produkcyjnych zorientowanych na użytkownika i częściowo niezależnych od menedżerów i zakładów pracy. Ruch wolnego oprogramowania i jego społeczność może
być uznany za przykład tego procesu.
Wolneoprogramowaniejakostrategiazwiązkowa
Korporacyjne wsparcie społeczności programistów Wolnego i Otwartego
Oprogramowania (WiOO) musi być rozpatrywane w kontekście zmienionego rynku pracy. W ciągu kilku ostatnich dziesięcioleci socjologowie przemysłowi udokumentowali trend, w ramach którego fabryka traci swoją wcześniejszą pozycję
jako model produkcyjny. Miejsce produkcji stało się w dużej mierze zdecentralizowane, przekształcając się w sieć podwykonawców, ochotników, domowych
projektów i franczyzobiorców31. Firmy mogą obecnie dodawać ochotnicze społeczności programistów do listy heterogenicznych form pracy zlecanej. Zadania
są zlecane jednostkom zewnętrznym przy pełnej ich otwartości istoty (ang. outsourced and open sourced). Możliwość radykalnej redukcji kosztów osobowych
w przypadku obsługi oprogramowania przyciąga do Wolnego i Otwartego Oprogramowania instytucje rządowe, sprzedawców, dostawców usług i producentów urządzeń. Oszczędności dokonywane przez takich gigantów, jak IBM, Armia
Amerykańska i miasto Monachium, aby wymienić tylko kilka najbardziej znanych
przykładów, stworzyły niszę dla wyspecjalizowanych firm softwarowych sprzedających wolne oprogramowanie i usługi. Wnioski te zbiegają się ze spostrzeżeniem Tiziany Terranovej, że zaangażowanie darmowej siły roboczej stało się
jednym z filarów gospodarki kulturalnej.
Terranova podważa nadzieje i twierdzenia dotyczące trendu aktywnej
konsumpcji mediów, początkowo wychwalanego w kulturoznawstwie od lat
80. XX w., a ostatnio uaktualnionego w postaci medialnego szumu wokół Sieci 2.0. W odpowiedzi na często niepoparte dowodami wywody wykazała, że
w swoich strategiach biznesowych kapitał od dawna zakładał istnienie aktywnych konsumentów32. Stanowisko to koryguje bezkrytyczne oceny subkultury
fan fiction, licencji creative commons i innych form mediów partycypacyjnych.
Mimo to lewicujący krytycy, tacy jak Terranova, moim zdaniem, zbyt pochopnie piętnują ekonomiczną eksploatację pracy ochotniczej, co uniemożliwia im
dostrzeżenie możliwości zmiany politycznej obecnej w niektórych z wymienionych wyżej przypadków.
Adekwatność moich obiekcji może być wykazana na podstawie konkretnych przykładów. O ile zgadzam się, że interaktywność gier wideo i ochotniczy
wysiłek autorów fan fiction nie rokują nadziei na znaczącą zmianę polityczną,
o tyle interaktywność i altruizm autorów wolnego oprogramowania nie mogą
być mierzone tą samą miarą. Należy wziąć pod uwagę, że kod jest udostępniany
razem z wyraźnie wyartykułowanym celem politycznym: uczynienie z wolnego
oprogramowania standardu w przemyśle komputerowym. Oczywiście taka pozycja nie jest antykomercyjna w potocznym rozumieniu tego słowa. Jak wiadomo, licencja GPL chroni prawa użytkownika do uruchomienia oprogramowania
w jakimkolwiek celu, włącznie z celami komercyjnymi33. W praktyce opcja ta jest
31
32
33
R. McChesney, E. Wood, J. Foster, Capitalism and the Information Age: The Political
Economy of the Global Communication Revolution, „Monthly Review Press” 1998.
T. Terranova, Free Labour: Producing Culture for the Digital Economy, „Social Texts”
2000, nr 18, s. 33–57.
J. Gay, Free Software, Free Society: Selected Essays of Richard M. Stallman, Cop, Boston
2002.
126
poważnie ograniczona faktem, że GPL zezwala, aby sprzedane kopie były powielane i rozdawane za darmo. O ile darmowa licencja jest perfekcyjnym składnikiem
wyidealizowanego wolnego rynku, o tyle niezbyt pasuje do rynku istniejącego faktycznie, który zawsze zakłada quasi-monopole i regulacje państwowe34.
Powyższe w pewnym stopniu wyjaśnia również, dlaczego polityczna
prawica ma ambiwalentny stosunek do licencji wolnego oprogramowania. Samozwańczy libertarianie, tacy jak Eric Raymond, postrzegają rozwój otwartych
modeli biznesowych jako pewne przybliżenie wolnego rynku. Ocena taka podszyta jest rozumieniem kapitalizmu jako zjawiska identycznego z jego instytucjami – własnością prywatną, wolnymi rynkami i kontraktami. Interpretacja ta
ignoruje jednak inną możliwą definicję kapitalizmu, która akcentuje kapitał jako
samorzutną ekspansję pieniądza czy też, innymi słowy, akumulację. Ostatnie założenie stanowi centralny element marksistowskiej analizy kapitalizmu, ale bliskie jest również „kapitanom przemysłu”. Mając to na względzie, interesującymi
wydają się ustalenia jednego z badań rynkowych, według którego wdrażanie
Wolnego i Otwartego Oprogramowania przez firmy kosztuje producentów zamkniętego oprogramowania 60 miliardów dolarów rocznie. Co więcej, straty
sprzedawców zamkniętego oprogramowania są niewspółmierne do wielkości
nowych rynków WiOO z bardzo prostego powodu – znaczna część tego oprogramowania nie jest kupowana35. W konsekwencji opór wobec WiOO w niektórych
sektorach przemysłu nie jest pozbawiony podstaw, jak często jest przedstawiany. Konflikt ten osiągnął punkt kulminacyjny w czasie sprawy sądowej pomiędzy
SCO Group a korporacyjnymi sprzedawcami GNU/Linuksa, która zakończyła się
w 2007 roku. W czasie jej trwania dyrektor zarządzający SCO Group, Darl McBride, wystosował do Kongresu USA otwarty list, w którym oskarżył swoich rywali
o naiwność w popieraniu licencji WiOO:
Niezależnie od tego, zamierzamy doprowadzić te sprawy sądowe do
końca, ponieważ mocno wierzymy, że niekontrolowany rozwój otwartego oprogramowania na licencji GPL jest o wiele większym zagrożeniem
dla naszego systemu kapitalistycznego niż amerykańskie korporacje podejrzewają36.
W najlepszym przypadku takie obawy niektórych członków przemysłu
komputerowego dowodzą, że autorzy wolnego oprogramowania nie mogą
być traktowani jako nieświadome ofiary komercyjnej eksploatacji. Być może
właściwszym byłoby stwierdzić, że oferując swoją pracę za darmo, hackerzy
szantażują korporacje, aby te przyjęły i rozpowszechniały model rozwoju Wolnego i Otwartego Oprogramowania. Żadna firma, kierująca się imperatywem
jak najniższych kosztów, nie może sobie pozwolić na walkę z darmową – prawdziwie darmową – pracą. Moja hipoteza opiera się na założeniu, że poparcie
dla otwartych licencji powinno być odczytane w kontekście wyłaniającej się
profesji programistów komputerowych. Sugestia ta nie jest wcale aż tak oczywista, gdyż tożsamość hackera jest powiązana z postacią hobbysty, kogoś, kto
nie posiada zawodu i nie jest zatrudniony. Wbrew temu narzuconemu zresztą
34
35
36
K. Polanyi, The Great Transformation: The Political and Economic Origins of Our Time,
Beacon Press, Boston 2001.
Wspomniany raport rynkowy nosi tytuł Trends in Open Source i został opublikowany przez Standish Group. Ponieważ dostęp do tego materiału jest ograniczony, informacje na jego temat pochodzą z mediów. M. Broersma, Proprietary Vendors Lose
£30bn to Open Source, April 2008.
http://ur1.ca/f6o4 (dostęp: 1.11.2009 r.).
127
przez samych zainteresowanych stereotypowi, liczby jasno wykazują, że znaczna większość osób zaangażowanych w projekty wolnego oprogramowania
albo pracuje w przemyśle komputerowym, albo kształci się w tym zawodzie37.
W konsekwencji nie jest wcale aż tak trudno połączyć kropki między hakerami
a rynkiem pracy, jaki na nich czeka.
Powyższa linia rozumowania została już zresztą przedstawiona w słynnym artykule Josha Lernera i Jeana Tirole38, którzy usiłowali pogodzić rzekomy
altruizm autorów wolnego oprogramowania z założeniami neoklasycznej teorii gospodarczej dotyczącej „racjonalnego człowieka gospodarki”. Obydwaj autorzy doszli do konkluzji, że hackerzy rozdają kod za darmo, aby wyrobić sobie
reputację i zwiększyć szansę późniejszego zatrudnienia. Nie twierdząc, że takie przypadki nie istnieją, nie zgadzam się z takim założeniem metodologicznego indywidualizmu, na jakim oparte jest ich rozumowanie. Kiedy twierdzę,
że licencje wolnego oprogramowania mogą pozytywnie wpływać na interesy
pracownicze programistów, nie mam na myśli, że jest to racjonalnie wykalkulowana strategia bądź też pełne wyjaśnienie, dlaczego hackerzy opatrują swój
kod licencjami GPL (General Public License ). Co więcej, w odróżnieniu od Lernera i Tirole, nie uważam, że tego rodzaju interesy pracownicze są chronione
jedynie przy użyciu jednostkowych strategii. Oprócz poprawy swojej reputacji, poszczególni hackerzy przyczyniają się do zmian rynku pracy programistów jako zbiorowości.
Fakt, że programiści poprawiają swoją pozycję przetargową w stosunku do firm, rozdając swoją pracę potencjalnym pracodawcom, wydaje się przeczyć intuicji. Zacznę więc od nawiązania do spostrzeżenia Harry’ego Bravermana,
który podkreślił, że sama produkcja fabryki stawiała operatorów maszyn w niekorzystnej sytuacji. Robotnik mógł wykorzystywać swoje kwalifikacje jedynie
wtedy, kiedy miał dostęp do maszyn. Niestety, już sama skala i model organizacji zakładu przemysłowego sprzyja hierarchii. Kapitalista posiadał przewagę jako
właściciel maszyn i budynków, bez których robotnicy nie mogli wykorzystywać
swoich kwalifikacji. Jedyną kartą przetargową, jaką posiadali, były ich kwalifikacje
i dogłębna znajomość procesu produkcyjnego – tym właśnie Braverman wyjaśnia kapitalistyczną tendencję poszukiwania technologii redukujących znaczenie
wykwalifikowanej siły roboczej.
Od czasu analizy Harry’ego Braveramana w latach 70. XX w. Fordystyczny
park maszynowy na wielką skalę stał się w wielu gałęziach gospodarki po prostu przestarzały. Stało się tak szczególnie w przemyśle komputerowym. Narzędzia (komputery, sieci komunikacyjne, algorytmy i treści informacyjne) dostępne
są w takich ilościach, że stały się powszechnym standardem, a nie narzędziem
w walce z innymi właścicielami (kapitalistami) i progiem dla nieposiadających
(robotników). Od wczesnych lat 80. XX w. pisał o tym trendzie cały tłum socjologów przemysłu i filozofów zarządzania39. W literaturze tej truizmem jest
twierdzić, że to pracownicy, a nie park maszynowy, są obecnie najcenniejszym
bogactwem nowoczesnej korporacji. Twierdzenie to jest opakowane retoryką,
ale jego prawdziwość może być sprawdzona w kontekście umów poufności
37
38
39
K. Lakhani, R. Wolf, Why Hackers Do What They Do: Understanding Motivation and Effort in Free/Open Source Projects [w:] Perspectives on Free and Open Source Software,
red. J. Feller, B. Fitzgerald, S. Hissam, K. Lakhani, M. Cusumano, C. Shirky, MIT Press,
Cambridge 2005, s. 177
J. Lerner, J. Tirole, Some Simple Economics of Open Source, „Journal of Industrial Economics” 2002, nr 50(2), s. 197–234.
S. Zuboff, In The Age Of The Smart Machine: The Future Of Work And Power, Basic Books,
Nowy Jork 1998.
128
w przemyśle komputerowym, które stypulują, że pracownik nie może przekazywać dalej poufnych informacji dotyczących firmy. Inną klauzulą umieszczaną
czasem w umowie pracy, a mającą w praktyce ten sam efekt, jest zakaz pracy
nad podobnymi projektami u konkurencji po odejściu od obecnego pracodawcy. Umowy takie można uznać za dowód, że wiedza i kwalifikacje programistów
faktycznie stały się na tyle cenne dla firm, aby objąć je kontrolą. Stoję na stanowisku, że praktyki takie, formalnie mające mało wspólnego z prawem własności, faktycznie stanowią dowód mojej tezy, że zamknięte i otwarte licencje mają
wpływ na pozycję przetargową autorów oprogramowania.
Uzasadnieniem dla tego rodzaju umów kontraktowych jest konieczność
zapobieżenia wyciekowi informacji do konkurencji. Jednocześnie jednak, jako
efekt uboczny, programiści są pozbawiani możliwości zmiany miejsca pracy na
równorzędne. Jako że przeciętny programista staje się specjalistą w dziedzinie,
w której pracował, znalezienie pracy na stanowisku o innej specjalności może
nastręczać trudności. Znaczenie tego zjawiska staje się bardziej oczywiste w kontekście etnograficznego opracowania dotyczącego techników oprogramowania
pracujących w firmie komputerowej w Irlandii autorstwa Seana O’Riaina. Związkom zawodowym jest bardzo trudno zorganizować takich pracowników. Praca
ma zazwyczaj charakter zadań zleconych, zbiorowe strategie związkowe nie mają
zastosowania. O’Riain konkluduje między innymi, że mobilność stała się jednym
z głównych argumentów, za pomocą których pracownicy negocjują warunku
pracy i płacę40. Mając to na uwadze, znaczenie umów kontraktowych musi zostać zrewidowane. Ograniczenia, jakie nakładają one na zdolność pracowników
do „głosowania nogami”, oznacza odzyskanie przez firmy przewagi. Jeśli chodzi
o stopień, w jakim umowy poufności i inne klauzule są używane we wspomniany makiaweliczny sposób, to wciąż brakuje badań empirycznych. Mnie samego
interesuje fakt, że taki sam argument może odnosić się bardziej ogólnie do licencji zamkniętego oprogramowania.
Pojęcie własność intelektualna41 jest również uzasadniane przez firmy koniecznością ochrony wiedzy przed konkurencją. Dodatkowym usprawiedliwieniem jest to, że własność intelektualna jest konieczna, aby producenci mogli
pobierać opłaty za informacje od konsumentów. Jednocześnie jednak własność
intelektualna może też wpływać na relacje pomiędzy firmą a jej pracownikami,
ten aspekt problemu jest poruszany o wiele rzadziej. Można by wykazać, że licencje oprogramowania zamkniętego zapobiegają mobilności pracowników, sprawiając, że wiedza zatrudnionych programistów jest uwięziona w zamkniętym
standardzie należącym do danej firmy. Nasuwa się tu porównanie do pracowników fizycznych i ich zależności od parku maszynowego stanowiącego własność przemysłowca. Bez dostępu do fabryki robotnik nie może produktywnie
wykorzystać swoich kwalifikacji.
W przemyśle komputerowym większość narzędzi pracy programisty jest
dostępna jako tanie dobra konsumenckie (komputery, itd.). W związku z tym firma zapewniająca je pracownikowi nie posiada nad nim przewagi. Kiedy jednak
40
41
S. O’Riain, Net-Working for a Living: Irish Software Developers in the GlobalWorkplace
[w:] Cultural Economy Reader, red. A. Ash, N. Thrift, 2004.
Wielu krytyków prawa własności i patentowego odrzuca termin własność intelektualna, który ich zdaniem jest nacechowany mylnymi konotacjami. Zamiast niego
proponują termin monopol intelektualny. Jednak ich argumentacja nie przekonuje mnie, ale niestety ograniczenia objętości nie pozwalają mi rozwinąć kontrargumentu. Niemniej jednak w artykule będę używał określenia własność intelektualna,
ponieważ uważam, że porównania z innymi rodzajami własności są jak najbardziej
uzasadnione.
129
kod źródłowy jest obwarowany prawem autorskim i patentami, dostęp do narzędzi pracy wymaga znacznych nakładów kapitałowych. W konsekwencji licencja oprogramowania daje firmie przewagę nad pracownikiem-programistą.
Rozumowanie teoretyczne jest trudniejsze do wykazania empirycznie niż wcześniejsze stwierdzenie, że klauzule w umowie pracy mogą być użyte do ograniczenia mobilności programistów, ale może mieć ono o wiele większe znaczenie
dla warunków pracy w sektorze komputerowym. Produkcyjnie zorientowany
aspekt licencji zamkniętego oprogramowania może być faktycznie tak samo
ważny jak oficjalnie przedstawiane uzasadnienie dla prawa własności intelektualnej, tzn. regulacja stosunków pomiędzy firmą a jej klientami i konkurencją.
Jeśli moje dotychczasowe rozumowanie jest poprawne, licencje GPL powinny
być interpretowane w tym samym świetle. Doszedłem do tego wniosku podczas lektury wyczerpującego opracowania modelu rozwoju WiOO autorstwa
Glyna Moody’ego. Zauważył on następującą rzecz dotyczącą wyjątkowych warunków dla firm specjalizujących się w sprzedaży usług związanych z wolnym
oprogramowaniem:
Ponieważ „produkt” jest otwarty i powszechnie dostępny, firmy muszą
opierać się na innym rodzaju rzadkości: kwalifikacjach osób piszących
i obsługujących oprogramowanie42.
Innymi słowy, kiedy kod źródłowy staje się publicznie dostępny w ramach
licencji GPL, jedyną rzeczą, jaka pozostaje rzadkością na rynku, są kwalifikacje
wymagane do produktywnego zastosowania narzędzi programistycznych. A te
zasoby są cechą „pracy żywej”, aby użyć sformułowania Marksa. W ten sposób
programiści mogą zdobyć przewagę nad pracodawcami podczas negocjacji
dotyczących płacy i warunków pracy. Licencje wolnego oprogramowania wyrównują szanse, zapewniając wszystkim taki sam dostęp do kodu źródłowego.
Terranova i myślący jak ona badacze mają rację, twierdząc, że międzynarodowe
korporacje posiadają lepszą pozycję wyjściową przy wykorzystaniu komercyjnej
wartości wolnego oprogramowania niż pojedynczy programiści. Mierzone liczbami absolutnymi, oszczędności IBM wynikające z użycia Apache na serwerach
są wielokrotnie większe niż korzyści jakiegokolwiek programisty, który przyczynił się do powstania tego oprogramowania. Z innej perspektywy jednak programista znajduje się w lepszej sytuacji, jeśli istnieje rynek pracy autorów wolnego
oprogramowania w porównaniu do sytuacji, kiedy taki zawód nie istnieje. Udostępniając programy na zasadzie otwartych licencji, hacker nie tylko poprawia
swoją reputację i perspektywy zawodowe, jak wcześniej podkreślili to Lerner i Tirole. Przyczynia się również do ustanowienia rynku pracy, na którym i jego, i innych obowiązują nowe zasady. Można więc takie działanie interpretować jako
rodzaj akcji zbiorowej przystosowanej do czasów agresywnego indywidualizmu.
Wciąż nie wiadomo, czy powstanie rynku rozwoju wolnego oprogramowania przełoży się na lepsze warunki pracy, wyższe pensje i inne zyski normalnie
związane z aktywnością związków zawodowych. Hipoteza taka wymaga danych
empirycznych. Potrzebne są badania porównawcze programistów wolnego
oprogramowania pracujących na własny rachunek i tych pracujących z oprogramowaniem zamkniętym. Porównania takie nie powinny jednak koncentrować się
jedynie na aspekcie monetarnym, równie ważny jest subiektywny aspekt programowania. Przykładem tego jest cały szereg doniesień, że hackerzy uważają
udział w otwartych projektach za o wiele bardziej satysfakcjonujący niż pracę
42
G. Moody, Rebel Code: Linux and the Open Source Revolution, Penguin, Londyn 2001.
130
z kodem oprogramowania zamkniętego43. Nie wierzę również, że pośrednie strategie związkowe są jedynym wyjaśnieniem tego, dlaczego hackerzy udostępniają kod na podstawie licencji GPL. Możliwe, że troska o wolności obywatelskie
i etos antyautorytarny subkultury hackerskiej są ważniejszymi czynnikami. Hackerzy są zbyt zróżnicowanym środowiskiem, aby stosować do nich jedno wyjaśnienie. Ośmielam się jednak stwierdzić, że perspektywa pracownicza zasługuje
na o wiele większą uwagę niż poświęcono jej do tej pory w prasie popularnej
i literaturze naukowej. Chociaż nie brakuje krytyk prawa własności intelektualnej,
obiekcje te są zazwyczaj formułowane jako obrona praw konsumenckich i opierają się na liberalnej tradycji politycznej.
Istnieją oczywiście godne uwagi wyjątki. Postacie, takie jakie Eben Moglen, Slavoj Žižek czy Richard Barbrook nie zgadzają się z ideologią liberalną, jaką
podszyta jest znaczna część dyskusji dotyczących Internetu i powiązanych z nim
zagadnień, i zwracają się do rewolucyjnej retoryki Drugiej Międzynarodówki. Propozycje ich są oryginalne, przykuwają uwagę i są nacechowane przenikliwymi
spostrzeżeniami. Mimo to rewolucyjna retoryka nie brzmi dobrze, kiedy odnosi się ją do pragmatycznych hackerów. Zwolennicy wolnego oprogramowania
skorzystają, jeśli poszukają przeciwwagi dla hegemonii liberalizmu w reformistycznym odłamie ruchu pracowniczego, w ruchu związkowym. Uważam, że
taka strategia zyska na znaczeniu wraz z rozwojem przemysłu komputerowego.
Według głównej linii rozumowania Harry’ego Bravermana zawód inżyniera-programisty już teraz został pozbawiony znacznej części niegdysiejszego statusu.
Począwszy od wczesnych lat 60. XX w., autorzy artykułów w periodykach menedżerskich bezustannie nawołują do podporządkowania programistów temu
samemu reżimowi fabrycznemu, jaki uprzednio i częściowo dzięki wprowadzeniu urządzeń komputerowych został narzucony pracownikom fizycznym44. Mając ten wycinek historii na względzie, chciałbym zasugerować, aby zwolennicy
wolnego oprogramowania, zamiast opierać się na konstytucjonalnej wolności
słowa, poszukali inspiracji w „Technicznej Karcie Praw”. Następujące oświadczenie zostało wydane w 1981 roku przez International Association of Machinists
w samym środku gwałtownego konfliktu w przemyśle:
Nowe technologie automatyzacji i nauka, na jakiej się one opierają, są
produktem globalnej i trwającej od wieków akumulacji wiedzy. W związku z tym, ludzie pracy i ich społeczności mają prawo uczestniczyć w decyzjach dotyczących jak i w zyskach z nowych technologii45.
Podziękowania
Autor chciałby podziękować redaktorowi Stianowi Rřdven Eide, a także
Michaelowi Widerkrantzowi i Donowi Williamsowi za konstruktywne komentarze dotyczące wcześniejszych wersji niniejszego artykułu.
43
44
45
K. Lakhani, R. Wolf, Why Hackers Do What They Do: Understanding Motivation and Effort in Free/Open Source Projects [w:] Perspectives on Free and Open Source Software,
red. J. Feller, B. Fitzgerald, S. Hissam, K. Lakhani, M. Cusumano, C. Shirky, MIT Press,
Cambridge 2005, s. 177
G. Dafermos, J. Söderberg, The Hacker Movement as a Continuation of Labour Struggle, „Capital & Class” 2009, nr 97, s. 53–73.
H. Shaiken. Work Transformed: Automation and Labor in the Computer Age, Lexington
Books, Lexington, Mass. 1986.
131
Postmediacje
Sztuka mediów
Wirtualne samobójstwo jako definitywny
akt polityczny
Geoff Cox
Pierwotnie artykuł ukazał się w wersji angielskiej: G. Cox,
Virtual Suicide as Decisive Political Act [w:] Media activism
and biopolitics. Critical media interventions in the age
of biopower, red. T. Hug, W. Sützl, Innsbruck University
Press, Innsbruck 2011, s. 103-116.
Tłumaczenie: Ewa Zabrotowicz
133
134
Przedmowa
„Samobójstwo jest definitywnym aktem politycznym naszych czasów”
stwierdził Franco Berardi – symbolizuje komunikatywne oddziaływanie sztuki oraz patologię systemu psychospołecznego1. Na poparcie tezy Berardiego
można przytoczyć liczne przykłady, które przedstawiają akt samobójczy jako
znamienny dla bardziej ogólnych i paranoicznych aspektów kultury współczesnej. Oczywistym tłem dla takich stwierdzeń są nowojorskie zamachy z 11 września 2001 r.: warto przypomnieć sobie niesławne uwagi Karlheinza Stockhausena
opisującego te wydarzenia jako „największe dzieło sztuki wszech czasów” czy
spostrzeżenie Slavoja Žižka, że „Ameryka dostała to, o czym fantazjowała” (jak
gdyby zrealizował się scenariusz hollywoodzkiego filmu katastroficznego)2. Fakt,
że wydarzenia te bezustannie wpływają na teraźniejszość, doprowadził Richarda
Grusina do wniosku, że w logice kultury następuje zauważalna zmiana: od rozważania przeszłych faktów do planowania przyszłych wydarzeń i możliwości3.
Dowodził on, że od czasu zamachów z 11 września 2001 r. (i od wydarzeń z Abu
Ghraib), planując przyszłość, próbuje się ją naprawić, jeszcze zanim stanie się ona
teraźniejszością, wskutek czego doświadcza się „zbiorowej halucynacji”, w której
można wyobrażać sobie przyszłe scenariusze i zagrożenia dla życia, jeszcze zanim one faktycznie zaistnieją. Zjawisko to opisano jako wyprzedzający atak na
kulturową wyobraźnię. Także dla Berardiego kluczowy problem polityczny wiąże się z mechanizmami kontroli nad imaginacją (2009)4.
Jakie zatem możliwości ma wyobraźnia radykalna, gdy dominującą siłą
stało się ujednolicające oddziaływanie neoliberalizmu? Jeśli nawet uzna się deklarację „końca historii” Francisa Fukuyamy za fantasmagoryczną i przedwczesną, mówi ona jednak coś o współczesnych czasach postpolitycznych, w których
targnięcie się na własne życie może stać się skuteczną krytyką represyjnego reżimu. W tym znaczeniu wszelkie próby samobójcze można uważać za atak wyprzedzający oraz za oznakę głębokiej niewiary w możliwość skutecznego działania.
Podobnie biopolityczny reżim sekurytyzacji wymaga, by technologie działały
na podstawie afektywnych stanów czujności i łączności, co Grusin określał mianem komercyjnych technologii planowania5.
Przykładem tej tendencji jest projekt zatytułowany The Night of Bush Capturing: A Virtual Jihadi6, którego autorem jest Wafaa Bilal, Amerykanin irackiego
pochodzenia. Stworzył on grę komputerową, w której obsadził siebie w roli podkładającego bombę terrorysty-samobójcy (stając się „terrorystą w pierwszej osobie”, jak zgrabnie określił to Paolo Pedercini). Gra oparta jest na Quest for Saddam
(wydanej w 2003 roku jako kontynuacja Quest for Al Qaeda), w której zadaniem
graczy jest zabicie Saddama Husseina, przekształconej w The Night of Bush Capturing internetową wersję hackerską rzekomo stworzoną przez Al-Kaidę, w której gracze usiłują zabić George’a W. Busha. Kolejna modyfikacja autorstwa Bilala,
Virtual Jihadi, odrzuca obie wersje, zarówno ekstremalne fantazje islamofobów,
jak i islamofilów, umieszczając ciało autora w ramach gry oraz angażując w nią
również ciało gracza. Jak wyjaśnił to Bilal:
1
2
3
4
5
6
F. Berardi „Bifo”, Precarious Rhapsody: Semiocapitalism and the Pathologies of the Post
-alpha Generation, Minor Compositions, Londyn 2009, s. 55.
S. Žižek (2001), Welcome to the Desert of the Real. http://web.mit.edu/cms/reconstructions/interpretations/desertreal.html.
R. Grusin (2010), Premediation: Affect and Mediality after 9/11, Palgrave/Macmillan.
F. Berardi „Bifo”, Precarious...
R. Grusin (2010), Premediation...
W. Bilal (2009), The Night of Bush Capturing: A Virtual Jihadi, www.wafaabilal.com/
html/virtualJ.html.
135
Jak lepiej można pojąć czego doświadczają Irakijczycy niż przez osobistą
tragedię, obsadzenie siebie w roli terrorysty-samobójcy, któremu zabito
brata. Reprezentuję tych wielu Irakijczyków, którzy poddają się działaniu
organizacji terrorystycznej, takiej jak Al-Kaida, podporządkowującej sobie ich ojczyznę. Stają po stronie organizacji terrorystycznych na skutek
presji, wstępują do nich ze strachu lub z niezgody na to, co Stany Zjednoczone robią w ich ojczyźnie7.
Ilustracja 1: Wafaa Bilal, The Night of Bush Capturing: A Virtual Jihadi (2008).
http://wafaabilal.com/html/virtualJ.html
Sprzeczności te zostały ujęte w grze, a zdaniem Briana Holmesa w jej odbiorze ujawniła się niekonsekwencja wolności słowa – czego przykładem było
odwołanie prezentacji gry w Rensselaer Polytechnic Institute w USA. Holmes porównał zagrożenie wolności słowa ze strony cenzury z symbolicznym przesłaniem
gry – który z tych aktów ma więcej wspólnego z terroryzmem?
Od czasu zakończenia Zimnej Wojny nie da się już wskazać jedynego centrum władzy ani konkretnej wobec niej opozycji, stało się więc jasne, że wróg
umiejscowił się pośród skomplikowanych sieci, a nie w groźnych karykaturach
Saddama czy Busha (Al-Kaida jest dobrym przykładem takiej nienamacalnej sieci). Jednak idea działań politycznych wciąż bazuje na odróżnianiu przyjaciół od
wrogów. Sięgając do konceptu wrogości według Carla Schmitta8 oraz jego krytyki liberalizmu w ogóle, problem powstaje, gdy w modelu opartym na konsensusie nie weźmiemy pod uwagę tego, że polityka jest siłą rzeczy antagonistyczna.
Wielu komentatorów (np. Chantal Mouffe) konsekwentnie podkreślało nieuniknioność antagonizmu zamiast neoliberalnego konsensusu, który ostatecznie
okazuje się nową i subtelną formą sprawowania kontroli.
7
8
B. Holmes, Wafaa Bilal: Speech in a Democracy, http://brianholmes.wordpress.
com/2008/03/09/wafaa-bilal-speech-in-a-democracy/Hong Kong Facebook ‘suicide’
group investigated (2009), BBC News, 26.11.2008, http://news.bbc.co.uk/2/hi/8380297.
stm. Jokela school shooting, Wikipedia, http://en.wikipedia.org/wiki/Jokela_school_
shooting.
C. Schmitt (1927), The Concept of the Political.
136
W tym kontekście wiele uwagi poświęca się wykładom Michela Foucaulta o rządomyślności, wygłaszanym w latach 1982–19839 w celu określenia różnicy
pomiędzy wczesnym liberalizmem i współczesnym neoliberalizmem. Foucault
wyjaśniał, że w neoliberalizmie zastąpiono regulacyjną funkcję państwa wobec
rynku (liberalizm) samym rynkiem (neoliberalizm). Jednostkę ludzką także definiuje się inaczej: jako reagującą na mechanizmy rynkowe, a nie na ograniczenia
narzucane przez rząd. Jest to cecha biopolitycznego wymiaru rządów, który Foucault nazwał rządomyślnością10, ponieważ łączy się on z konstrukcją pewnych
rodzajów podmiotowości, zgodnie z logiką wolnego rynku. W reżimach rządomyślności kontrola wywiera wpływ bezpośrednio na życie i dlatego skrajnym
sposobem odrzucenia jej logiki jest symboliczne zakończenie życia.
Niniejszy artykuł rozwija tę ścieżkę rozumowania na podstawie pojęcia
wirtualne samobójstwo, przytaczając liczne przykłady symbolicznego zakończenia połowicznie przeżytego życia. Czy jest to jedyna sensowna odpowiedź w sytuacji, gdy zachodnie formy demokracji wyczerpały się na gruncie etycznym,
czego dowodem jest łamanie praw człowieka i bezprawne mordowanie w nielegalnych wojnach (co wykazano choćby w Wikileaks)? Jak napisała Jodi Dean
w Democracy and Other Neoliberal Fantasies, demokracji nie można już uważać za
rozwiązanie problemów politycznych, ale za ich przejaw11. Cytowane w niniejszym
artykule przykłady ukazują etyczny protest na różnych poziomach, nie jest jednak pewne, czy udaje się im osiągnąć odwrotną inżynierię rządomyślności (oraz
dzięki temu polityczne odrodzenie). Chodzi jednak o to, by zrozumieć, w jaki sposób wirtualne samobójstwo może postawić autonomię ponad samym życiem.
W obecnych warunkach jest to być może prorocza droga do zrozumienia możliwości skutecznego działania politycznego. Czy to sprawia, że wirtualne samobójstwo jest tak fascynujące?
Wirtualnesamobójstwo
Temat wirtualnego samobójstwa niewątpliwie stał się popularnym motywem w produkcji kulturalnej. Oprócz doświadczeń wirtualnej śmierci w komercyjnych światach gier, takich jak World of Warcraft12, wiele gier zawiera
pierwszoosobową narrację dotyczącą samobójstwa. Przykładem jest Five Minutes to Kill (Yourself), darmowa internetowa gra w formacie flash (dostępna
również w wersji na iPhone), w której bohater (Stan, czyli ty) ma pięć minut,
żeby się zabić, zamiast wracać do pracy13. W materiale promocyjnym znajduje
się taka informacja: „Stan ma pięć minut do kolejnego wykańczającego zebrania w biurze i jego jedyną ucieczką od tego obowiązku jest słodka, chłodna
śmierć... Jesteś ostatnią nadzieją Stana”. Zadaniem gracza jest więc wykazać
się pomysłowością w odkrywaniu w biurowej przestrzeni sposobów na zrobienie sobie krzywdy i w ten sposób pomóc Stanowi w pogoni za śmiercią.
Scenografia gry jest brutalna, ale symbolicznie reprezentuje przemoc kapitalistycznego miejsca pracy.
9
10
11
12
13
M. Foucault, The Government of Self and Others: Lectures at the College de France 1982–
1983, Palgrave Macmillan, Basingstoke 2010.
Tamże.
J. Dean, Democracy and Other Neoliberal Fantasies: Communicative Capitalism and
Left Politics, Duke University Press, Durham 2009.
L. Klastrup (2008), What makes WoW a World? A Note on Death and Dying; Digital Culture, Play, and Identity: A World of Warcraft Reader, red. J. Walker, H. Corneliussen, MIT
Press, Massachusetts.
Five Minutes to Kill (Yourself), 2009. Gra opracowana przez Ham in the Fridge. Zob.
też: www.youtube.com/watch?v=BF55DEcgtq8&feature=related.
137
Ilustracja 2: Five Minutes to Kill (Yourself), gra opracowana przez Ham in the
Fridge (2009). www.haminthefridge.com/five-minutes-to-kill-yourself-familyreunion/
Pozostając przy tematach biurowych: Suicide Letter Wizard for Microsoft Word
Olgi Goriunovej14 to parodia funkcji programu Microsoft Word, która uprzedza intencje użytkownika, proponując pomoc w postaci utrzymanego w stylu disnejowskim asystenta biurowego. Ów asystent (lub czarodziej) to zaprogramowana
funkcja, która oznajmia: „Wygląda na to, że piszesz list” i proponuje różne stylistyczne opcje zredagowania pożegnalnej samobójczej notki. Artykuł pod tym samym
tytułem: It Looks Like You’re Writing a Letter, którego autorem jest Matthew Fuller
(pierwsza wersja powstała jako opis do instalacji A Song for Occupations prezentowanej w galerii Lux w Londynie w 2000 roku)15, pokazuje, jak użytkownik oprogramowania sam również staje się częścią systemu. Generalnie można porównać to
do procesu, w którym „pracownik znika, gdy cały jego potencjał wprzęga się bezpośrednio w aparat pracy”16. W społecznej fabryce skradziona wartość to nie tylko
siła robocza, ale również podmiotowość. W tym znaczeniu narzucona praca jest
już wyrokiem śmierci, dlatego jej odmowa może okazać się ostatecznym aktem
sprzeciwu. W tej sytuacji, oraz biorąc pod uwagę siłę oddziaływania Sieci, twórcy
taktyk opozycyjnych zazwyczaj doradzają wykorzystanie słabych stron Sieci na
podstawie różnic mocy, które istnieją w Systemie. Tego typu taktyki bazują na metodach związanych z Siecią, informacją i teorią mediów, jednakże efekty osiągane
przez aktywistów mediów taktycznych są paradoksalne, jak twierdzi Geert Lovink:
Pomimo że ich działania często są destrukcyjne, media taktyczne potwierdzają tymczasowość kapitału w postfordyzmie, jego krótkotrwałość [...] Dlatego
media taktyczne traktowane są ze swego rodzaju łagodną tolerancją [...] Ich
ideał to bycie czymś niewiele więcej niż krótkotrwałym zakłóceniem, chwilowym hałasem, krótką ingerencją. Media taktyczne pozwalają się wykorzystywać w taki sam sposób jak „modderzy” w przemyśle gier komputerowych:
jedni i drudzy dzielą się za darmo swoją wiedzą o lukach w systemie. Wskazują na problem i uciekają. Kapitał jest zadowolony i dziękuje ekipie mediów
taktycznych lub nerdowi-modderowi za naprawę usterki17.
14
15
16
17
O. Goriunova (2002), Suicide Letter Wizard for Microsoft Word, Data eXchange Laboratory, www.runme.org/project/+slwiz/.
M. Fuller, It Looks Like You’re Writing a Letter. Behind the Blip: Essays on the Culture of
Software, Autonomedia, Nowy Jork 2003, s. 137–165.
Tamże, s. 139.
R. Raley, Tactical Media, Electronic Mediations, t. 28, University of Minnesota Press,
Minneapolis–Londyn 2009, s. 28.
138
Jeśli efektywna taktyka przeniosła się do sfery sprawowania biowładzy (jak
sugeruje ten wywód), czy taktyki aktywistów biopolitycznych są także na to skazane. Czy aktywizm wyczerpał swoje możliwości, gdyż powtarza uprzednie nieudane strategie łączenia sztuki i komunikatywnego działania? Pisał o tym Berardi:
Czyż nie powinniśmy zaprzestać wielokrotnych, nieudanych działań na rzecz
uwolnienia ludzkiej energii spod władzy kapitału? Czy droga w kierunku niezależności społeczeństwa od ekonomicznej i militarnej mobilizacji nie wiedzie jedynie przez wycofanie się w bezczynność, ciszę i bierny sabotaż?18.
Podejmując rozważania nad tymi zagadnieniami, należy zdać sobie sprawę, że kapitał może odtwarzać się w pewnym stopniu dzięki własnej krytyce.
A zatem, paradoksalnie, kapitał nie chce zniszczyć krytyki, lecz ujarzmić ją przez
poddanie jej sobie i tym samym rozciągnąć swe wpływy na wszystkie sfery życia. Autonomiści określają ten aspekt restrukturyzacji jako cykle walki, uznając
fakt, że opór także musi podlegać równoległym transformacjom. Wskazywał na
to Mario Tronti w eseju z 1965 roku, The Strategy of Refusal, logika kapitału „usiłuje
wykorzystać antagonistyczną chęć walki u pracownika jako czynnik swego własnego rozwoju”19. Kluczową kwestią jest to, że kapitał nie rozwija się dzięki technologicznym innowacjom, lecz dzięki kreatywnej sile roboczej. Dlatego wycofanie
się siły roboczej pozostaje skuteczną techniką. W przeciwieństwie do kapitału,
który potrzebuje siły roboczej, siła robocza nie wymaga kapitału. Co więcej, siła
robocza jest potencjalnie „autonomiczna” i ma możliwość wykorzystania swej
kreatywnej energii w inny sposób.
Jeśli obecny reżim neoliberalny w znacznym stopniu bazuje na otwartej
wymianie społecznej, to ci, którzy go stworzyli, w sposób naturalny mogą też go
zlikwidować, przynajmniej według dialektycznej logiki. Odwrócenie drogi rozwoju władzy jest zapewne jedynym sposobem, by mogła dokonać się zmiana,
na początku przez etyczny sprzeciw oraz stworzenie form protestu opartych na
strukturze rządomyślności. Zadaniem politycznym staje się inżynieria odwrotna,
czyli negowanie istotnych elementów, aby osiągnąć odmienne cele.
Opierając się na pojęciu cykl walki, spora część aktywności mediów próbuje dostosować się do bieżących warunków oraz reagować na to, jak technologie komunikacji przekształcają proces polityczny i sposoby wyrażania sprzeciwu.
W przypadku mediów społecznościowych można z łatwością dostrzec to zjawisko w nowych strategiach sprzeciwu (czasem nazywanego exodusem – aktem
oporu przeciwko ustanowionej władzy, nie w formie protestu, lecz wycofania się).
Dobrym przykładem jest Suicide Machine 2.0, projekt Moddr, który odzwierciedla
modę na usuwanie znajomych na głównych portalach społecznościowych (tutaj:
Facebook, MySpace, twitter i LinkedIn)20. Na stronie można przeczytać: „Uwolnij
swoich internetowych przyjaciół przy pomocy samobójstwa Web2.0! To urządzenie umożliwi ci usunięcie wszystkich twoich marnujących energię profili na
portalach społecznościowych, zabicie twych fałszywych wirtualnych przyjaciół
i całkowite zlikwidowanie twojej tożsamości Web2.0”. Program loguje się na koncie użytkownika, zastępuje zdjęcie profilowe różowym stryczkiem, zmienia hasło
(by użytkownika nie kusiło przywrócenie konta), po czym przystępuje do usuwania wszystkich znajomych, jednego po drugim.
18
19
20
F. Berardi „Bifo”, Precarious..., s. 126.
M. Tronti, The Strategy of Refusal [w:] Autonomia: Post-political Politics. Semiotext(e),
t., nr 3, Semiotext(e), Nowy Jork 1980, s. 29.
Moddr (D. Vasiliev, G. Savicic) (2009), Web 2.0 Suicide Machine, http://suicidemachine.org.
139
Ilustracja 3: Moddr, Web 2.0 Suicide Machine (2010), http://suicidemachine.org/
Nawiązując do sporu o wspomagane samobójstwo, Moddr oświadczyło,
że broni prawa do popełnienia samobójstwa Web 2.0. Jednakże Facebook.com
nie zgadza się z tym, twierdząc, że gromadzenie przez program danych logowania i informacji ze stron Facebooka narusza regulamin korzystania z portalu21.
Obiekcje te są jednak wyrazem obłudy, ponieważ obecnie wiadomo już, że Facebook przechowuje informacje osobiste użytkowników dla swoich niejasnych
celów, nawet po usunięciu konta (a 500 milionów znajomych to źródło wielkiej
ilości danych). W szerszym kontekście Facebook stosuje się do logiki rządomyślności, zachęcając do swobodnej wymiany danych, aby można je było potem wykorzystać do kontrolowania przepływu osób, towarów i produkcji.
W praktyce wydaje się, że istnieje pragmatyczny kompromis pomiędzy
zasadami etycznymi a wartością użytkową, w ramach którego użytkownicy zrzekają się praw na rzecz prywatnych właścicieli portalu w zamian za publiczną usługę komunikacyjną, często z pełną świadomością wiążących się z tym ustępstw.
Jednak praktyka „usuwania z grona znajomych” zyskuje coraz większą popularność w kulturze sieciowej jako oznaka świadomości kwestii związanych z prywatnością, a niekiedy jako odrzucenie ukrytej logiki wolnego rynku. Jeśli zaś chodzi
o „samobójstwo na Facebooku”, coraz więcej osób usuwa swoje konta, pojawiło
się także zjawisko facebookowych grup samobójczych, np. Facebook Mass Suicide Club. Z jednej strony istnieją nieszkodliwe i stosunkowo błahe projekty artystyczne, jak Friendster Suicide (2005), w którym autor Cory Arcangel ogłosił swój
zamiar usunięcia konta publicznie i jako wydarzenie artystyczne. Z drugiej strony „grupa samobójcza” z Hong Kongu na Facebooku dyskutowała nad sposobami popełnienia samobójstwa i namawiała członków do pozbawienia się życia
w tym samym dniu22. To, co zaczęło się zapewne od żartu czy mizantropii, kończy się faktycznymi próbami samobójczymi.
Facebook stał się ulubionym celem z wymienionych wyżej powodów,
a przywiązywanie szczególnej wagi do coraz liczniejszej sieci „znajomych” ukazuje, jak relacje społeczne rozwijają się w restrykcyjnej formie, która przesłania wymiar polityczny, co przywołuje wspomnianą wcześniej koncepcję wrogości według
Schmitta. Zmitologizowana opowieść o rozwoju Facebooka, The Social Network23,
21
22
23
R. Needleman (2010), Facebook cuts off Suicide Machine access, http://news.cnet.
com/8301-19882_3-10424683-250.html.
C. Arcangel (2005), Friendster suicide, www.coryarcangel.com/2005/12/friendstersuicide-live-in-person-dec-2005/.
The Social Network (2010), www.thesocialnetwork-movie.com.
140
najwyraźniej się z tym zgadza, podając w materiałach promocyjnych filmu: „Nie
zdobędziesz 500 milionów przyjaciół, nie robiąc sobie kilku wrogów”. Kolejnym
przykładem jest hackerska wersja Facebooka stworzona przez Les Liens Invisibles,
a zatytułowana Seppukoo24. Jest to portal dla użytkowników, którzy chcą popełnić
wirtualne samobójstwo, rytualnie pozbawiając się swej internetowej tożsamości.
Tytuł projektu wyraźnie nawiązuje do japońskiego rytualnego samobójstwa Seppuku (dosłownie – rozcięcie brzucha), które kojarzy się z upartą odmową oddania
się w ręce wroga i postawieniem wolności ponad własnym życiem. W takich sytuacjach samobójstwo wynika z samurajskiego kodeksu honorowego (z szacunku
dla cesarza lub może z braku szacunku dla cesarstwa). Oprócz tego projekt czerpie inspiracje z Seppuku!, rytualnego samobójstwa popełnionego przez niektórych
członków Luther Blissett Project w 1999 roku, by ogłosić koniec swego projektu
wielu tożsamości (oraz śmierć net.art jako tymczasowej strefy autonomicznej)25.
Ilustracja 4: Let’s commit Facebook suicide – just for fun, zrzut ekranu
Ważne jest to, że działania te ukazują przemianę od aktywności indywidualnej do zbiorowej. Les Liens Invisibles (Guy McMusker) poniżej objaśnił motywację leżącą u podstaw projektu.
Określając samobójstwo jako „wirusowe”, wyobraziliśmy je sobie jako rodzaj mimowolnego strajku. Masowe usuwanie kont mogłoby symbolizować wyrzeczenie się tej super-waloryzacji wirtualnej tożsamości i w ten
sposób zainicjować to, co grupa Tiqqun nazywa ludzkim strajkiem.
Każda brakująca osoba to również brak kontaktów tej osoby. Projekt
Seppukoo powstał w celu przeniesienia działań indywidualnych na płaszczyznę zbiorową dzięki mechanizmowi zaproszeń wirusowych26.
Podobnie jak w przypadku Suicide Machine Facebook szybko zakwestionował działania Les Liens Invisibles i wystosował list wzywający do ich zaprzestania,
twierdząc, że projekt narusza reguły, gdyż korzysta z informacji dostarczonych
przez osoby trzecie. Dział „O Seppukoo” zwięźle objaśnia podwójną moralność
Facebooka: „Samobójstwo jest wolnym wyborem i rodzajem asertywności. Niestety, Facebook nie zapewnia swoim użytkownikom takiej możliwości, a twoje
konto zostanie jedynie dezaktywowane”.
24
25
26
Les Liens Invisibles (2009), Seppukoo, www.seppukoo.com.
Luther Blissett Project (1999), www.lutherblissett.net/archive/452_en.html.
L. Borrelli, The Suicide Irony: Seppukoo and Web 2.0 Suicide Machine [w:] Digimag 52,
marzec 2010, www.digicult.it/digimag/article.asp?id=1733.
141
Ilustracja 5: Les Liens Invisibles, Seppukoo (2010), www.seppukoo.com
Jak twierdziła Loretta Borrelli w swoim wywiadzie z twórcami Web 2.0
Suicide Machine i Seppukoo, samobójstwo stało się „aktem niewątpliwej odwagi politycznej”27. Szczegóły takich projektów pokazują, jak kontrola nad relacjami w Sieci dokonuje się w coraz większym stopniu przez dynamiczne interakcje
technologii i biologii (zarządzanie życiem i śmiercią w rzeczywistości mieszanej).
Znaczenie objaśnia się w kategoriach konstruowania pewnych rodzajów podmiotowości, z wykorzystaniem technologii sieciowych. Technologie te umożliwiają nawiązywanie kontaktów społecznych i współuczestnictwo, które leży
u podstaw ich ideologicznego oddziaływania:
Komunikatywny kapitalizm przejmuje nasze polityczne działania, przekształcając je we wkład do swego kręgu emocji i rozrywki – „czujemy
się polityczni, zaangażowani, tak jakby nasz wkład miał faktycznie jakieś
znaczenie”28.
Na poparcie powyższego cytatu można przytoczyć niedawny projekt
internetowy Evy i Franco Mattes29. W No Fun (2010) jedno z artystów udaje samobójcę w publicznym chatroomie o nazwie Chatroulette, gdzie można spotkać losowo wybrane osoby z całego świata i porozmawiać z nimi na żywo za
pośrednictwem kamerek internetowych. Ludzie obserwowali w czasie rzeczywistym, jak artysta pozornie wisiał całymi godzinami na sznurze. Reakcje szokują brakiem szczerego zainteresowania; niektórzy śmiali się nerwowo, inni robili
zdjęcia telefonami komórkowymi, ale – co najbardziej znaczące – ludzie nie podejmowali żadnych działań. Projekt odzwierciedla zjawisko, które określiliśmy
już wcześniej mianem zbiorowej halucynacji lub pustego spektaklu i które przywodzi na myśl emocjonalne oddziaływanie obrazów z Abu Ghraib. Rejestracja
wideo eksperymentu została zakazana na YouTube, dzięki czemu zyskała jeszcze większe uznanie w swej farsowości (na stronie artystów zamieszczono nawet logo „Zakazane na YouTube” jak trofeum). W dużym stopniu, zastosowanie
z premedytacją technologii jest znacznie bardziej szokujące niż prezentowana nieprawdziwa treść.
27
28
29
Tamże.
J. Dean, Democracy and Other..., s. 49.
E. Mattes, Franco a.k.a. 0100101110101101.ORG. (2010) No Fun, www.0100101110101101.
org/home/nofun/index.html.
142
Ilustracja 6: Eva & Franco Mattes, No Fun, (2010), http://0100101110101101.org/
home/nofun/
Zgodnie z tą linią rozumowania, uczestnictwo w technologiach komunikacyjnych pozostaje w dużym stopniu fantazją, podobnie jak bardziej ogólne
zbiorowe fantazje na temat wolnego rynku i fałszywej globalnej jedności (czyli
globalizacji). Wszechobecność mediów społecznościowych pokazuje, jak relacje
społeczne stają się interpasywne. Jednostki wyobrażają sobie, że odgrywają aktywną rolę, jednak w rzeczywistości są podporządkowane. Ponadto etykę współuczestnictwa w relacjach społecznych w Sieci interpretuje się jako wyraz nowych
form kontroli nad podmiotowością. Miejsce dawnych form rządów, które ograniczały ludzkie działania, zajęła logika rządomyślności, otwierając przestrzenie wymiany społecznej, a tym samym generując dane, które można wykorzystać, aby
bardziej skutecznie kontrolować ludzkie działania i zapobiegać wszelkim zagrożeniom wydajności rynków. Ludzi zachęca się do działania, ale tylko w kompromisowych formach. Wirtualne samobójstwo oznacza upartą „odmowę” działania
w nieznośnych warunkach poddaństwa, takich jak omówione, a zatem symbolizuje afirmację możliwości autonomicznego działania.
Definitywnedziałanie
Gdy Berardi oświadczył, że samobójstwo to definitywny akt polityczny,
odwołał się do nadużyć działania. Podał przykład młodego Fina Pekka-Eric Auvinena, który w 2007 roku wkroczył do liceum Jokela i zastrzelił osiem osób,
a potem siebie. W filmikach na YouTube (następnie zakazanych), w których zapowiadał masakrę, Auvinen określał siebie jako antyludzkiego humanistę i nosił
koszulkę z napisem LUDZKOŚĆ JEST PRZEREKLAMOWANA.
Ilustracja 7: Zrzut ekranu z filmiku Auvinena na YouTube (obecnie ocenzurowanego), http://en.wikipedia.org/wiki/Jokela_school_shooting
143
Na czym więc polega pozytywna działalność? Mówił o tym Paolo Virno,
odnosząc się do zdolności politycznego działania, zauważając, że ludzkie zwierzę
ze swej natury może modyfikować swe formy życia30. Użył zwrotu „innowacyjne
działanie”, które jest źródłem przeciwstawnych czynników odzwierciedlających
kondycję ludzką, jej kreatywną energię oraz tłumienie. Twierdzenie to, leżące
u podstaw działań politycznych i uwidocznione w tytule książki Virno, Multitude: Between Innovation and Negation, opiera się na zdolności tłumu do kreowania strategii oscylujących między innowacją a negacją, „umieszczania nie przed
nieludzki”31. W nawiązaniu do dialektyki negatywnej Virno dążył do zrozumienia
negacji, przedstawiając krytykę kapitalistycznej produkcji jako stanu negatywnego, który wymaga dalszej negacji.
Istotność „negacji negacji”, jak Žižek wyjaśnił w innym miejscu, polega
na odróżnieniu „realnej” śmierci systemu od jego śmierci symbolicznej: „system
musi umrzeć dwukrotnie” (lub w wypadku „śmierci autora”, ta przenośnia również musi umrzeć)32. Niektórym z przykładów zaprezentowanych w niniejszym
artykule być może brakuje tej dalszej negacji, ponieważ odnoszą się one bardziej do ironii niż do zanegowania negacji: do protestu bardziej niż do odmowy.
Zgodnie z logiką heglowską negowanie negacji odgrywa ważną rolę w przemianie od „wewnątrz siebie” do „dla siebie” (samoświadomość klasowa warunków
wyzysku). Jednak, jak zapisał Berardi w Precarious Rhapsody, ważne jest zrozumienie, że negacja oferuje stopniową innowację, a nie nowe całościowe formy33.
W swych zastrzeżeniach odniósł się do znanych problemów związanych z heglowskim podmiotem historycznym, podkreślając procesy „upodmiotowienia”
(zamiast podmiotu, zapożyczając termin od Félixa Guattari).
Problem całościowości ujawnia się także w grupach przyjaciół na portalach społecznościowych. Każde działanie, nawet przyjaźń, nie jest już sprawą
indywidualnych osób, ale jest rozproszone pośród wzajemnych interakcji jednostek ludzkich i innych, działających dynamicznie. Pojęcie innowacja w rozumieniu Berardiego pojawia się również u Virno, w zupełnie innym znaczeniu niż to,
które jest związane z instrumentalizmem branży kreatywnej. Berardi przywołuje
„dynamiczną rekombinację” jako metodę refleksji nad możliwościami i radykalnymi strategiami, takimi jak rezygnacja z wykonywania pracy, tworzenie tymczasowych sfer autonomicznych, inicjatywy z zakresu darmowego oprogramowania
i tak dalej – do listy tej można też dodać wirtualne samobójstwo.
Zdaniem Berardiego, główna walka toczy się pomiędzy maszynami wyzwalającymi pragnienia a mechanizmami kontroli nad wyobraźnią. Psychopatologia, o której mówił, odnosi się do faktu zawłaszczenia systemów technicznych
i działalności twórczej przez „semiokapitał” (wyjaśnienie: semiokapitalizm to nazwa, którą Berardi nadał obecnemu systemowi, gdzie informacyjny kapitalizm
zawarł w sobie elementy lingwistyczne). Berardi ubolewał, że „słów uczymy się
od maszyn a nie od naszych matek” (cytując Rose Golden z 1975), w warunkach,
gdzie nauka języka i emocji zostały oddzielone od siebie34. Nawiązał tu do prac
Christiana Marazzi35, poświęconych związkom pomiędzy ekonomią, językiem
30
31
32
33
34
35
P. Virno, Multitude: Between Innovation and Negation, Semiotext(e) Foreign Agents,
Los Angeles 2008.
Tamże, s. 190.
S. Žižek, The Ticklish Subject: The Absent Centre of Political Ontology, Verso, Londyn
1999, s. 72. http://web.mit.edu/cms/reconstructions/interpretations/desertreal.html.
F. Berardi „Bifo”, Precarious..., s. 72.
F. Berardi „Bifo”, Precarious..., s. 9.
Ch. Marazzi, Capital and Language: From the New Economy to the War Economy,
Semiotext(e), Los Angeles 2008.
144
i emocjami; sytuacji, w której ludzie stali się wyraźnie dyslektyczni i „niezdolni
do skupienia uwagi na jednym obiekcie przez dłuższy czas”36. Dla psychiki ma to
tragiczne skutki, ponieważ język działa na podstawie konstrukcji podmiotowości. W związku z tym, zdaniem Berardiego, „Jeśli chcemy zrozumieć współczesną gospodarkę, musimy zająć się psychopatologią związków”37. Uważał obecną
sytuację za katastrofę współczesnego humanizmu, w którym zbyt mało uwagi poświęca się miłości, wrażliwości, współczuciu. Zdaniem Berardiego, ratunkiem może jedynie być oddzielenie pracy intelektualnej od panowania ekonomii.
W rzeczywistości odmowa pracy jest ściśle związana z działalnością intelektualną, która uosabia pewien rodzaj wolności, w odróżnieniu od takiej pracy, która
wiąże się z brakiem wolności i kojarzy się z profitami i władzą (objaśnił to przez
charakterystykę Billa Gatesa „handlarza, który obrabował inteligencję zbiorową”
i George’a Busha „wojownika-idioty”, wspólnie zdławili oni inteligencję)38. Odwołał się do siły powszechnego intelektu i społecznej funkcji pracy intelektualnej, już nieodseparowanej od języka, którą można prześledzić pod względem
historycznym przez heglowską transformację od „wewnątrz siebie” do „dla siebie”, do „umysłowości masowej”.
Co jednak z wirtualnym samobójstwem? Co mówi nam ono o ekonomii,
kondycji ludzkiej i o naszej wrażliwości oraz współczuciu? Warto pamiętać, że
smutek jest wykorzystywany w celach zwiększania konsumpcji (tzw. terapia zakupowa), a umiejętnie sterowana depresja leży w interesie chociażby przemysłu
farmaceutycznego (co ciekawe, Auvinen przyjmował lek antydepresyjny, który
podobno wywołuje tendencje samobójcze jako efekt uboczny). Kwestia farmakologii jest istotna, gdyż poza standardowymi lekami można wyobrazić sobie
inne formy terapii, chociażby dobroczynne właściwości pracy intelektualnej. Berardi przypominał, że:
Władcy tego świata nie chcą, aby ludzkość była szczęśliwa, ponieważ
szczęśliwa ludzkość nie pozwoliłaby uwikłać się w zwiększanie wydajności [...] Równocześnie szukają skutecznych technik złagodzenia cierpienia na tyle, by opóźnić lub zapobiec eksplozji samobójstw oraz zachęcić
do konsumowania39.
Pod tym względem samobójstwo wirtualne można traktować jako skuteczny protest oraz afirmację wyższości twórczej autonomii nad pracą intelektualną i życiem samym w sobie. Jest ono radykalnym działaniem wobec życia
przeżywanego połowicznie, w strachu.
Podziękowania
Artykuł powstał dzięki wsparciu Digital Urban Living Research Center,
współfinansowanym przez Danish Council for Strategic Research, nr grantu: 212807-0011.
36
37
38
39
F. Berardi „Bifo”, Precarious..., s. 40–41.
Tamże, s. 37.
Tamże, s. 60.
Tamże, s. 43.
145
Teorie mindware
Wokół interfejsów
Sztuka mediów
Ku kognitywnej przestrzeni publicznej –
strategie otwierania
Anna Nacher
147
148
Nie ulega wątpliwości, że zmienia się sposób posługiwania się miastem –
kolejne etapy innowacji w zakresie technologii medialnych zawsze miały zresztą
związek z kształtowaniem nie tylko miejskiej kultury, ale także organizacji przestrzeni. Poczynając od miasta XIX-wiecznego, które odkryło dla siebie miejskie spektakle ruchu, światła i gry odbić w szklanych powierzchniach1, związki miasta z kulturą
artystyczną i mediami stawały się coraz bardziej złożonym układem wzajemnych
zależności, bo – jak napisała Ewa Rewers – „reprezentacje służą ekspozycji miasta,
lecz jej nie wyczerpują”2.
Jedną z intrygujących form takiego układu przybliżył w odniesieniu do Times Square Marshall Berman, pisząc o wyjątkowości świetlnego spektaklu jednego z najbardziej niezwykłych i jednocześnie najsilniej zmediatyzowanych miejskich
fragmentów Ameryki:
Prosperita wielu amerykańskich miast, zwłaszcza regionu tzw. Sun Belt3,
ma związek z autostradami i kulturą samochodu, dzięki czemu powstała przestrzeń wypełniona znakami tak dużymi i tak rzucającymi się w oczy,
jak te na Times Square. Tego typu przestrzeń ma tam jednak charakter prostej alei [strips – przyp. A.N.] (Las Vegas, Los Angeles, Mexico City),
po której ludzie w samochodach jadą przed siebie. Znaki są umieszczone zgodnie z logiką linii prostych, przeznaczone do oglądania przez przejeżdżających lub przechodniów w tempie jednego lub góra dwóch naraz.
Zastosowanie znaków na Times Square jest bardziej skomplikowane. Tutaj ludzie przemieszczają się na własnych nogach, otoczeni tłumem zmierzającym w stu kierunkach, powstrzymywani od podążania wzdłuż linii
prostych nawet, jeśli tego chcą. Znaki nacierają na nas ze wszystkich stron;
nadają kolory ludziom obok nas i nam samym; wszyscy zanurzamy się
w ruchu świateł i cieni4.
A zatem związki przestrzeni miejskiej z mediami są czymś znacznie bardziej złożonym, niż wskazywałaby na to logika reprezentacji, zwłaszcza tej opartej głównie (czy wręcz wyłącznie) na reżimach wzrokocentrycznych. W dobie
technologii zsieciowanych, których podstawę stanowią rozmaite formy łączności
bezprzewodowej5 oraz rozproszone media mobilne6, coraz istotniejsze stają się
pytania o praktyki medialne w przestrzeniach miejskich, o sposoby użytkowania
miasta przez aktywność użytkowników mediów, nie zaś tylko o tryby i formy jego
reprezentacji. Organizmy miejskie stają się bowiem w istotniejszym zakresie przestrzeniami hybrydowymi7, gdzie przełączenia między domeną obrazów generowanych komputerowo oraz domeną ulicy rozgrywają się błyskawicznie za sprawą
popularnych aplikacji AR [rzeczywistości rozszerzonej – A.N.] lub usług mapowych,
1
2
3
4
5
6
7
Por. A. Nacher, Pasaże ekstazy, „Przegląd Kulturoznawczy” 2007, nr 2.
E. Rewers, Wprowadzenie [w:] Miasto w sztuce – sztuka miasta, red. E. Rewers, Kraków 2010, s. 7.
Mianem tym określa się południowe i południowo-zachodnie stany USA, przylegające do granicy z Meksykiem [przyp. – A.N.].
M. Berman, On the Town. One Hundred Years of Spectacle in Times Square, Nowy Jork
2006, s. 6.
Por. A. Nacher, Geomedia jako miejsce budowy. Poza logikę spektaklu, „Kultura Popularna” 2010, nr 3–4 (29–30).
Por. A. Maj, Media w podróży, Katowice 2010.
A. de Souza e Silva, Mobilne technologie jako interfejs przestrzeni hybrydowej, przeł. A.
Nacher [w:] Miasto w sztuce – sztuka miasta, red. E. Rewers, Kraków 2010, s. 7.; zbliżonym terminem jest pojęcie przestrzeń augmentowana, zaproponowana przez Lva
Manovicha; L. Manovich, Poetyka powiększonej przestrzeni, przeł. A. Nacher [w:] Miasto w sztuce – sztuka miasta, red. E. Rewers, Kraków 2010, s. 7.
149
dostępnych często jako nowa formuła informacji turystycznej8. Należy dodać do
tego falę zainteresowania aplikacjami geolokalizacyjnymi, które często śledzą nie
tylko ruch ich użytkowników w przestrzeni, ale także dają obraz ich aktywności
i wyborów: tak jest w przypadku popularnych mobilnych serwisów Gowalla i Foursquare oraz wprowadzonej w 2011 roku usługi tagowania miejsc na Facebooku,
która zastąpiła funkcjonującą przez rok aplikację Places, wzorowaną na wspomnianych usługach konkurencji9. Wszystkie działają na podobnych zasadach: lokalizują
miejsce, które odwiedzają użytkownicy w serwisie mapowym (najczęściej w Google Maps), umożliwiając logowanie się (check-in), tworzą zatem coś pośredniego
między programem lojalnościowym (często można uzyskać w ten sposób atrakcyjne rabaty lub promocje w odwiedzanej kawiarni, sklepie czy restauracji) a grą
miejską. Otrzymuje się w ten sposób wizję miasta, w którym taktyki użytkowników stają się dyskursywnie widoczne i łatwe do prześledzenia – inaczej niż opisywał to Michel de Certeau10.
Według francuskiego badacza kultury codzienności i przestrzeni miejskiej,
„zapisy tras”11, rozumiane jako linie wykreślone na mapie, odzwierciedlające przemierzone wędrówki, oznaczają wyłącznie „nieobecność tego, co przeszło”12. W tym
sensie także ma się do czynienia z wykroczeniem poza porządek reprezentacji,
w którym znak (reprezentacja) zawsze jest połączany swego rodzaju związkiem
indeksalnym z tym, do czego odsyła, co było wobec znaku zawsze uprzednie.
W przypadku aplikacji geolokalizacyjnej zintegrowanej z Facebookiem ma się jednak do czynienia z innymi trybami chronometrii: w czasie rzeczywistym można
podzielić się informacją „o tym, gdzie byliśmy, o tym, gdzie jesteśmy, i o tym, gdzie
będziemy”13. Pewne aspekty analizy de Certeau wydają się jednak aktualne, zwłaszcza tendencja, którą badacz określił jako „(zachłanną) zdolność systemu geograficznego do przekształcania działania w czytelność”14.
Jak zatem widać, jest tu mowa o mieście dzielącym pewne aspekty nowoczesnego spektaklu i jednocześnie nacechowanym w stosunku doń istotnymi
zmianami. Innowacje te są obecne zarówno na gruncie polityk reprezentacji, które wychodzą poza krystaliczne cięcie oddzielające znak od przedmiotu referencji, jak i w obszarze praktyk użytkowników, zwłaszcza tam, gdzie tradycyjnie były
one podporządkowane designerom, urbanistom i architektom miejskich przestrzeni. Zwłaszcza ta ostatnia konstatacja domaga się dokładniejszego wyjaśnienia – nie chodzi tutaj bowiem o opis w perspektywie zmitologizowanej już nieco
kultury partycypacji, czyli aktywności użytkowników Internetu drugiej generacji,
często prezentowanej w nieco zbyt romantycznym ujęciu. Będzie to raczej próba
uchwycenia możliwości otwarcia przestrzeni publicznej rozumianej jako kognitywna przestrzeń publiczna (czyli rozgrywająca się w sferze poznawczej i afektywnej).
Nader często przybiera ona jednak zupełnie materialne formy ucieleśnienia, zgodnie z logiką nowomedialnych przestrzeni hybrydowych. Kluczowe znaczenie mają
tutaj praktyki związane ze wspólnotowym zarządzeniem informacją geograficzną
(czyli z mapowaniem), gdzie wspólnota jest rozumiana w sposób bardzo szeroki –
8
9
10
11
12
13
14
W. Marzec, A. Zysiak, Powiedz mi, gdzie jestem. Media geolokalizacyjne jako surogat
mapowania poznawczego, „Kultura Popularna” 2010, nr 3–4 (29–30).
M.G. Siegler, One Year Later, Facebook Killing Off Places... To Put Location Everywhere,
http://techcrunch.com/2011/08/23/facebook-location-tagging/ (dostęp: 20.09.2011 r.).
M. de Certeau, Wynaleźć codzienność. Sztuki działania, przeł. K. Thiel-Jańczuk, Kraków 2008.
Tamże, s. 98.
Tamże.
M.G. Siegler, One...
M. de Certeau, Wynaleźć..., s. 98.
150
jako wspólnota ludzi i rzeczy. Szczególnie ten ostatni aspekt wydaje się się ważny
w sytuacji, w której nieuchwytnie, acz namacalnie wkracza w życie miast tzw. Internet ludzi i rzeczy, wraz z rozwiązaniami technologicznymi opartymi na interfejsach o charakterze niewizualnym. Choć kultura codzienna jest nasycona gadżetami
komunikującymi się ze sobą w dostępnym wszystkim spektrum elektromagnetycznym, to rzadko pojawiają się propozycje uzupełnienia koncepcji przestrzeni
publicznej o terytorium, z którego korzystają domowe urządzenia.
Wspólnotamapowania
W centrum wielu działań z mediami miejskimi znajduje się dzisiaj mapowanie, praktyka sytuująca się na skrzyżowaniu ustalonych w kulturze zachodniej od
wczesnej nowożytności sposobów reprezentacji (siatka Mercatora), wraz z jej specyfiką obrazowania (w którą wpisuje się anamorfoza) oraz współczesnych możliwości, jakie kryje cyberkartografia. Ostatnie oznaczają często zerwanie z logiką
reprezentacji na rzecz połączenia z symulacją i obrazowaniem opartym na wizualizacji danych. Sytuacja taka inspiruje coraz częściej do zadawania na nowo podstawowych pytań o status mapy: „Czy mapa [...] nie stanowi więc reprezentacji
świata, lecz jest inskrypcją, która działa (a czasami nie działa) w świecie? Czy mapy
i mapowanie poprzedzają terytorium, które »reprezentują«, czy też może powinniśmy traktować je jako wytwarzające terytorium?”15. Pytania te nie są zupełnie nowe
w świetle ugruntowanej krytyki pozytywistycznego rozumienia roli map, artykułowanej przynajmniej od lat 60. XX w. przez badaczy tworzących zręby geografii humanistycznej, ale współcześnie stają się znacznie bardziej dojmujące. Dzieje się tak
za sprawą zmiany funkcji i formy zarówno samej mapy, jak i roli jej użytkowników.
W cyberkartografii ma się bowiem do czynienia z mapą jako platformą nawigacyjną oraz z użytkownikami, którzy takową mapę w różnym zakresie i w różny
sposób współtworzą. Proces można opisać następująco: „Powiedzmy, że logujemy
się przez dany interfejs do jakiejś geograficznej bazy danych, ekran naszego komputera (stacjonarnego lub przenośnego, to już nie ma znaczenia) pełni funkcję pulpitu (dashboard) pozwalającego nawigować pośród całkowicie heterogenicznych
zestawów danych, które są odświeżane w czasie rzeczywistym i umiejscawiane
w zależności od naszych konkretnych poleceń [...]”16. Są to codzienne procedury
wykonywane wręcz mimowolnie i niezauważalnie, opiera się na nich niemal każda
aplikacja geolokalizacyjna. W tym kontekście odpowiedź na pytanie o uprzedniość
terytorium wobec mapy oraz o jej performatywność wydaje się dosyć oczywista.
To jest także powód, dla którego niezbędne wydaje się wyjście poza dyskursy reprezentacjonistyczne, które „zamrażają” mapę jako wynik i obiekt odwzorowania.
Mapowanie w tym ujęciu oznaczałoby działanie o charakterze par excellence wspólnotowym, społecznym i performatywnym, czyli swoiste odejście od
mapy jako obrazu/produktu/obiektu na rzecz mapowania jako procesu. Jak bowiem pokazują autorzy wspomnianego artykułu, sporządzanie mapy w gruncie
rzeczy zawsze zawierało w sobie poszczególne ogniwa operacji. Dzisiaj stały się
one dostępne doświadczeniu użytkowników za sprawą interfejsu zsieciowanych
mediów cyfrowych. Chodzi tutaj o kolejne fazy sporządzania mapy: zdobywanie
danych, zarządzanie nimi, przetwarzanie ich, sposób prezentacji wyników (wydruk),
umieszczanie na mapie znaków wzmacniających użyteczność mapy oraz nawigowanie17. W efekcie ma się do czynienia właśnie z nawigacyjną, nie zaś mimetyczną
15
16
17
V. November, E. Camacho-Hübner, B. Latour, Wkraczając na terytorium ryzyka. Przestrzeń w erze nawigacji cyfrowej, przeł. K. Abriszewski, „Kultura popularna” 2010, nr
3-4 (29-30).
Tamże, s. 105.
Tamże.
151
interpretacją mapy, która zmienia ją w „ścieżkę wiodącą od jednego oznaczenia
drogowego do następnego oraz ustanawia rozmaite korespondencje w obrębie
heterogenicznych mediów”18.
Uświadomienie mimetyczności mapy jako wyniku pewnego szczególnego sposobu jej interpretacji oznacza jednocześnie uwolnienie od zbyt mocnego,
jednokierunkowego związku między mapą a terytorium. Ma to istotne znaczenie
dla postrzegania roli urbanisty i projektanta miejskich przestrzeni jako tego, który
pracuje z taką czy inną mapą terytorium, przy czym mapa w tym ujęciu jest synonimem (nowoczesnego) rzekomo obiektywnego odwzorowania przestrzeni. Jest
jednocześnie znaczące to, że Latour, November i Camacho-Hübner w artykule poświęconym remediacji mapy w warunkach cyberkartografii zastanawiali się nad
możliwością zmapowania ryzyka. Kilka projektów, które pokazują, na czym polega
mapa jako platforma nawigacyjna, a jednocześnie stanowią instancję mapowania
wspólnotowego w znaczeniu, o którym więcej w dalszej części, ma bowiem istotny związek z kategorią kryzysu. Dają się one ująć jako „aktywizm mapowy”, czyli
połączenie dziennikarstwa obywatelskiego, aktywności politycznej i/lub społecznej oraz usług geolokalizacyjnych i/lub cyberkartograficznych – bywa także czasami nazywane maptywizmem19 [maptivism – przyp. A.N.].
Jednym z takich projektów jest cieszący się już pewną sławą zestaw narzędzi znanych pod globalną nazwą Ushahidi (w języku suahili oznacza to świadectwo
lub świadka)20. Portal zawiązał się w Kenii w roku 2008, kiedy w wyniku wyborów
doszło tam do zamieszek między grupami ludności popierającymi dwóch różnych
kandydatów – sam proces wyborczy także był mocno krytykowany, a jego wyniki podawano w wątpliwość. Kraj został ogarnięty falą przemocy i jednocześnie
swoistym blackoutem informacyjnym, kiedy prezydent-elekt Mwai Kibaki zarządził blokadę mediów: miejscowe radio i telewizja nadawały jedynie powtórki starych programów. W tej sytuacji jedynym kanałem komunikacyjnym stały się blogi
oraz wiadomości wymieniane za pomocą telefonów komórkowych (w Afryce, podobnie jak w innych miejscach świata o utrudnionym dostępie do Internetu, prym
wiodą niedrogie telefony komórkowe). Nie była to jedyna ani pierwsza sytuacja
tego rodzaju w ostatnim pięcioleciu, co wielu obserwatorom daje asumpt do mówienia o twitterowych rewolucjach21 czy wyrażanym wprost przekonaniu o związkach między mediami społecznościowymi a nowymi ruchami obywatelskimi22.
W takich warunkach zrodził się pomysł zbudowania serwisu, który mógłby
służyć informacją nie tylko o najnowszych wydarzeniach, ale także o sytuacjach
wymagających interwencji i osobach, którym jest potrzebna pomoc. Inicjatorami były trzy osoby związane z mediami społecznościowymi i Kenią: prawniczka
i blogerka Ory Okolloh, która jako obserwatorka wyborów otrzymywała w 2008
roku groźby śmierci, Juliana Rotich, Kenijka i specjalistka od technologii informacyjnych, oraz Eric Hersman, wychowany w Kenii syn misjonarzy, który edukację
w zakresie biznesu i nowych technologii uzyskał w Stanach Zjednoczonych. Musiał
to być serwis oparty na rozwiązaniach typu open source, w którym można byłoby
18
19
20
21
22
Tamże, s. 109.
Ch. Kreutz, Maptivism. Maps for activism, transparency and egagement, www.crisscrossed.net/2009/09/14/maptivism-maps-for-activism-transparency-and-engagement (dostęp: 15.08.2011 r.).
Www.ushahidi.com (dostęp: 20.10.2011 r.).
J. Leyne, How Iran’s political battle is fought in cyberspace, BBC News, http://news.
bbc.co.uk/2/hi/middle_east/8505645.stm (dostęp: 20.10.2011 r.).
Digital Activism Decoded. The New Mechanics of Change, red. M. Joyce, Nowy Jork
2010; M. Ingram, Social media, tipping points and revolution, GigaOM, http://gigaom.
com/2011/11/02/social-media-tipping-points-and-revolutions/ (dostęp: 3.11.2011 r.).
152
zamieszczać dane o różnorodnym charakterze i od razu lokalizować je na mapie23. Miała to być także platforma do wykorzystywania przez zwykłych Kenijczyków i jednocześnie system archiwizacji doniesień, zorganizowanych tematycznie.
Dzisiaj Ushahidi tworzy znacznie większy zespół, którego członkowie prowadzą też podobne inicjatywy jako projekty poboczne (np. International Network
of Crisis Mappers Patricka Meiera24). Serwis składa się obecnie z kilku narzędzi – nie
tylko mapy w standardzie OpenStreetMap i bazy danych w postaci raportów, notatek i zdjęć naocznych świadków wydarzeń czy informacji o potrzebie pomocy,
ale także narzędzia SwiftRiver, służącego do organizacji informacji wokół konkretnych zdarzeń czy Crowdmap, narzędzia pozwalające na uruchomienie platformy
mapowej bez potrzeby posiadania własnego serwera sieciowego. Ushahidi było
wykorzystywane podczas najbardziej dramatycznych klęsk żywiołowych, np. po
trzęsieniu ziemi u wybrzeży Japonii czy – w październiku 2011 roku – w trakcie katastrofalnej powodzi w Tajlandii. Serwisem posługiwali się także rebelianci z Tunezji i Libii podczas rewolt politycznych w obu krajach.
Ushahidi jest szczególnie interesującym przykładem także ze względu na
swoją historię i miejsce, w którym się narodziło – innowacje w dziedzinie nowych
technologii komunikacyjnych stosunkowo rzadko pojawiają się poza krajami wysokorozwiniętymi, prawie nigdy ich źródłem zaś nie jest kraj afrykański. Afryka to bowiem wciąż kontynent najbardziej dotknięty cyfrowym wykluczeniem, choć zmienia
się to właśnie za sprawą mediów mobilnych, nie zaś tradycyjnej infrastruktury informacyjnej. Aspekt ten znakomicie ujął autor artykułu poświęconego Ushahidi w „New
York Timesie”, nadając relacji tytuł Africa’s Gift to Silicon Valley: How to Track Crisis25.
Inicjatywy takie pokazują nie tylko arbitralność tradycyjnego aparatu pojęciowego związanego z mapami i mapowaniem, gdzie nacisk padał na
„obiektywizm” mapy, gwarantowany przez autorytet wąskich elit eksperckich wyposażonych w wiedzę, narzędzia i metodologie niezbędne do jej sporządzenia
(warto przypomnieć, że, jest to proces wieloetapowy i wymagający złożonych i interdyscyplinarnych kompetencji). W przypadku partycypacyjnych serwisów mapowych widać dość wyraźnie kolejne warstwy, jakie składają się na procedurę jej
wytwarzania. Na każdym etapie zostaje uwzględniona oddolna aktywność, a proces „zbierania danych” jawi się nie tyle jako naukowa procedura wdrażana przez
zdystansowanych wobec przedmiotu badań specjalistów, ale jako proces ryzykowny, polityczny i stanowiący specyficzną formę kapitału społecznego; oparty
na energii stanowiącej jej istotny zasób. Tam, gdzie w grę wchodzi praktyka mapowania wspólnotowego, ma się do czynienia właśnie z odkrywaniem (oraz inwestowaniem) sporych pokładów energii społecznej. Energia ta rzadko znajduje
ujście w warunkach odgórnego zarządzania miastem, do jakiego były przywiązane nowoczesne koncepcje urbanistyczne i projektowe, oparte przede wszystkim
na paradygmacie funkcjonalistycznym. Proces zbierania danych może być rozproszony i oparty na lokalnych działaniach typu Do-It-Yourself niemal w całości: pokazuje to poradnikowy blog Grassroots Mapping26, który zachęca do budowania
urządzeń w rodzaju balonów i latawców dających możliwość wykonywania zdjęć
lotniczych w mikroskali. Ma to istotne znaczenie w przypadku terenów peryferyjnych, ale także przekłada się na polityki taktycznego oporu wobec hegemonii
23
24
25
26
E. Hersman, Activist Mapping Presentation at Where 2.0, http://whiteafrican.
com/2008/05/15/activist-mapping-presentation-at-where-20/ (dostęp: 15.08.2011 r.).
http://crisismappers.net/ (dostęp: 20.10.2011 r.).
A. Ghiridaradas, Africa’s Gift to Silicon Valley: How to Track z Crisis, „New York Times”
13.03.2010, wersja online www.nytimes.com/2010/03/14/weekinreview/14giridharadas.
html (dostęp: 15.08.2011 r.).
http://grassrootsmapping.org/ (dostęp: 16.09.2011 r.).
153
Google Maps: w tym przypadku zdjęcia będące efektem rekonesansu są własnością konkretnych osób i społeczności, nie zaś towarem na informacyjnym rynku.
Motywacje twórców Grassroots Mapping są artykułowane dosyć wyraziście: „Potrzebujesz map? Uczestniczysz w dyspucie kartograficznej? Nie zgadzasz się na
oficjalną wersję twojej geografii? Skontaktuj się z nami za pomocą publicznej listy mailingowej albo bezpośrednio z naszym zespołem i jeszcze dzisiaj zainicjuj
własny, oddolny projekt mappingowy!”27. Bez wątpienia można te słowa uznać
za manifest maptywizmu. W nurcie zamiany praktyki mapowania w aktywność
o charakterze politycznym mieszczą się także intrygujące interwencje artystyczne, koncentrujące się właśnie wokół mapowania, geografii i nowego rozumienia
miejskiej przestrzeni publicznej28. Praktyki tego rodzaju zyskują sobie miano radykalnej lub krytycznej kartografii, czasem wręcz kontrkartografii.
Kuwspólnocieprojektowania,
kuwiedzywytwarzanejwspólnotowo
Zasygnalizowane przemiany w obszarze dyskursu kartografii stanowiącego o podstawach rozumienia takich pojęć, jak miejsce czy przestrzeń mają znacznie głębszy charakter, niż można byłoby sądzić z opisów, zazwyczaj lokalizujących
te projekty w pobliżu takiego czy innego rozumienia terminu kultura partycypacji.
Stawką będzie tutaj zarówno rozumienie wspólnoty, mieszkańca jako użytkownika
czy przestrzeni publicznej, jak i radykalne przewartościowanie paradygmatów projektowania oraz tego, co liczy się jako informacja i/lub wiedza. Christian Nold podczas wykładu Designing for Responsive Communities w ramach seminarium Sensing
the Place – Placing the Sense, towarzyszącego festiwalowi Ars Electronica 2011 w Linzu, zaproponował – lekko zmieniając tytuł swojego wystąpienia – bardzo inspirujące
i pożyteczne pojęcie wspólnota eksperymentująca [experimental community – przyp.
A.N.]. Termin ten, jak się wydaje, znakomicie opisuje rodzaj relacji łączący użytkowników miejskich przestrzeni, zaangażowanych w praktyki mapowania (na różnych
etapach). Nawet jeśli jest to zwykły „check-in” wykonany za pomocą smartfona, co
bez wątpienia jest czynnością uwikłaną w złożone mechanizmy współczesnej kultury konsumpcyjnej, tak mocno związanej z ekonomią afektywną. W ten sposób
bowiem buduje się geoprzestrzenna architektura dynamicznej informacji w przestrzeni hybrydowej. Wspólnota taka byłaby przede wszystkim społecznością wspólnie wytwarzanej wiedzy, proces, który Nold nazwał empiryzmem DIY. Na tym, jego
zdaniem, polegałaby choćby działalność OpenStreetMap, który jest oddolnym ruchem kreowania map mających być alternatywą dla korporacyjnego GoogleMaps.
Christian Nold sięgał przy tym do historii i socjologii nauki po inspirację podejściem empirycznym w tradycji Roberta Boyle’a, zwłaszcza wspólnotową formą
badań laboratoryjnych – taki kształt przyjmowało bowiem w ujęciu brytyjskiego pioniera nowoczesnych nauk doświadczalnych pokazywanie eksperymentu
w laboratorium w obecności świadków zdarzenia. Perspektywa ta oznacza pewną
reinterpretację podstaw projektu zachodniej nowoczesności, jakie stanowił racjonalny empiryzm. W ujęciu Nolda podejście empiryczne zostaje przeformułowane – w podobny nieco sposób jak w przypadku nawigowalnych map – w kierunku
27
28
Tamże.
Por. Experimental Geohraphy: Radical Approaches to Landscape, Cartography and Urbanism, red. N. Thompson, Nowy Jork 2009; A. Gordon i wsp., Atlas of Radical Cartography, Los Angeles 2010; A. Nacher, BioMapping Christiana Nolda. Transmedialna
retoryka wędrowna [w:] Sztuki w przestrzeni transmedialnej, red. T. Załuski, Łódź 2010;
E. Wójtowicz, Was ist die Befindlichkeit des Landes? W stronę ciemnej geografii, „Kultura popularna” 2010, nr 3–4 (29–30); por. także K. Harmon, G. Clemans, The Map as
Art. Contemporary Artists Explore Geography, Princeton 2010.
154
silniejszego uwzględnienia procesu wytwarzania wiedzy, nie zaś tylko jego końcowego wyniku. Jak się więc rzekło, w przypadku dynamicznych, wspólnotowo tworzonych map idzie o rzecz bardzo istotną, o stawce znacznie wyższej niż
możliwość zabawy przed komputerem i uczestnictwo w swoistym łańcuchu pokarmowym współczesnej zawartości medialnej. Chodzi ni mniej, ni więcej tylko
o przemianę sposobów wytwarzania wiedzy oraz klasyfikacji tego, co uchodzi za
naukę/informację; przemianę zachodzącą na skalę znacznie większą, niż zwykło
się sądzić, prześlizgując się jedynie „po powierzchni” praktyk maptywistycznych.
Warto więc poświęcić nieco uwagi formule eksperymentu naukowego, która stanowiła podwaliny nowoczesnych nauk przyrodniczych i do której to formuły nawiązywał Nold, mówiąc o wspólnotach eksperymentowania.
Jak pokazali to Steven Shapin i Simon Schaffer w swojej słynnej książce
o XVII-wiecznej debacie między dwoma filozofami29 (debacie, która na długo określi
standardy i procedury nowoczesnego postępowania naukowego), trudno mówić
o jednej genealogii tego przedsięwzięcia intelektualnego. Pozostawiając nieco na
boku zasadniczą kwestię będącą przedmiotem analizy Shapina i Schaffera, sięgnę po wątek, który z perspektywy możliwości i sposobów otwarcia kognitywnej
przestrzeni publicznej będzie miał istotne znaczenie. Kluczowe znaczenie ma tutaj laboratorium jako miejsce, w którym odbywał się eksperyment (w tym przypadku chodzi o słynne doświadczenie Boyle’a z pompą próżniową) oraz wymóg
powtarzalności tego eksperymentu. Shapin i Schaffer podkreślali wspólnotowy,
publiczny charakter takiej prezentacji; aby uzyskała ona odpowiednią wiarygodność, nie mogła odbywać się w zaciszu przestrzeni prywatnej czy przy udziale jednego tylko badacza. Jednym z gwarantów rzetelności procedury była obecność
innych. Nie oznacza to jednak pełnego, otwartego dostępu. Shapin i Schaffer nazwali XVII-wieczne laboratorium ograniczoną przestrzenią publiczną30, aby znaleźć
się w niej, trzeba było spełniać pewne warunki: być wykształconym mężczyzną
z odpowiedniej warstwy społecznej i z niebagatelnym dorobkiem naukowym.
Mechanizmy ograniczania tej przestrzeni pokazuje przypadek Margaret Cavendish, pierwszej kobiety, której pozwolono uczestniczyć w zebraniu brytyjskiego
Królewskiego Towarzystwa Naukowego w 1667 roku31. Członkowie Towarzystwa
nie mogli pozwolić sobie na zignorowanie księżnej Newcastle, hojnie wspierającej finansowo uniwersytet Cambridge (a także autorki kilku ważnych prac z zakresu filozofii naturalnej, m.in. Philosophical Letters, szczegółowej krytyki Leviathana
Hobbesa32), zorganizowano więc dla niej prezentację eksperymentu Boyle’a. Na
długo pozostała jedyną kobietą, która uczestniczyła w spotkaniach Królewskiego
Towarzystwa Naukowego.
Organizacja pracy naukowej zaproponowana przez Boyle’a będzie miała
dwie istotne konsekwencje: po pierwsze, przyczyni się do wykrystalizowania się
probabilistycznej i konwencjonalistycznej33 (a nie absolutnej) koncepcji wiedzy na29
30
31
32
33
S. Shapin, S. Schaffer, Leviathan and the Air-Pump. Hobbes, Boyle, and the Experimental Life, Princeton 1985.
Tamże, s. 39.
Por. D.J. Haraway, Modest_Witness@Second_Millenium. FemaleMan©_Meets_OncoMouse™. Feminism and Technoscience, Nowy Jork–Londyn 1997; L. Schiebinger, The
Mind Has No Sex? Women in the Origin of Modern Science, Harvard University Press
1991.
L. Schiebinger, The Mind...
Por. K. Abriszewski, Poznanie, zbiorowość, polityka. Analiza teorii aktora-sieci Bruno Latoura, Kraków 2008, a także o tym, jak probabilistyczna koncepcja prawdy naukowej
kształtowała życie umysłowe liberałów wiedeńskich w XIX wieku, D.R. Coen, Vienna
in the Age of Uncertainty. Science, Liberalism and Private Life, Chicago–Londyn 2007.
155
ukowej. Istotne jest bowiem w tym przypadku rozpowszechnienie przekonania
o tym, że eksperyment dowiódł prawdy wśród tych, którzy byli jego świadkami
(a więc sfera przekonań i sfera faktów zbliżają się do siebie nader blisko, a wręcz
z siebie wynikają: faktem naukowym jest bowiem to, co zostanie za takowy uznane).
Boyle postulował, aby domena faktów była ustanawiana przez zgromadzenie przekonań jednostek. Członkowie intelektualnej wspólnoty musieli
wzajemnie upewniać siebie i innych, że wiara w doświadczenie empiryczne była uzasadniona. Domena faktów była wynikiem procesu przeprowadzenia eksperymentu, poświadczenia go wobec siebie oraz upewnienia
innych, że ich wiara w doświadczenie miała wiarygodny grunt. W tym procesie zwielokrotnienie świadectw miało kluczowe znaczenie34.
Po drugie – Shapin i Schaffer pokazali, że ustanawianie domeny faktów
w eksperymentalnym programie Boyle’a zawierało w sobie trzy formy technologii: materialną (posadowioną w konstrukcji i funkcjonowaniu pompy próżniowej35),
literacką (za jej pomocą zjawiska powstałe w wyniku działania pompy próżniowej
były udostępniane tym, którzy nie mogli być tego świadkami36) oraz społeczną
(która zawierała konwencje, na mocy których filozofowie eksperymentalni porozumiewali się ze sobą i rozważali sądy prawdy naukowej37). Autorzy jednocześnie
dowiedli, jak wszystkie trzy technologie były ze sobą połączone, wspólnie działając na rzecz upowszechnienia metody Boyle’a jako obowiązującego standardu.
Jest zatem dosyć jasne, że wspólnoty organizujące się wobec projektów
maptywistycznych mogą być uznane za takie kolektywy. Grupy, jakie każdorazowo brały udział w projekcie BioMapping, realizowanym przez Nolda w kilku miastach, mogą być nazwane, zdaniem artysty, właśnie takimi eksperymentującymi
wspólnotami, zwłaszcza w ramach procedury, w której wymiana subiektywnych
wrażeń i odczuć zmieniała się w formę kolektywną i stawała się obszarem intersubiektywnych faktów. Tak właśnie było w przypadku osób uczestniczących we
wspomnianym projekcie (BioMapping), kiedy po spacerach zrealizowanych ze specjalnym urządzeniem rejestrującym wzrost emocji i nanoszącym je na mapę Google Earth, uczestnicy musieli również opowiedzieć o tym doświadczeniu i wskazać
na przyczyny emocjonalnego pobudzenia. Wiele takich spacerów składało się na
mapę fragmentów miasta, które pokazywały jego specyficzną warstwę, związaną z uczuciami, pamięcią i wrażeniami zmysłowymi (w zależności od formy i celów projektu, gdyż działania w San Francisco, Stockport, Greenwich i kilku innych
miejscach różniły się między sobą). W tradycyjnych ramach epistemologicznych
tego rodzaju warstwy byłyby raczej uznane za subiektywne wrażenia niż zobiektywizowaną informację. W tym przypadku mamy jednak do czynienia z, jak to ujął
Nold, „kolektywną domeną faktów” (a collective matter of fact).
Robert Boyle, a za nim nowoczesne nauki przyrodnicze, określał ten etap
badania naukowego właśnie mianem domeny faktów, „Matter of Facts”, uznając je za posiadające istotniejszy ciężar gatunkowy niż domena interpretacji czy
opinii. W pewnym sensie dosyć oczywiste jest zdanie, że nowoczesne przedsięwzięcie naukowe, ucieleśniane przez nauki ścisłe i przyrodnicze, zdecydowanie
większym zaufaniem obdarza twarde fakty niż postrzegane jako dyskusyjne, pozbawione pewności interpretacje i opinie. Jak jednak doskonale pokazuje analiza
34
35
36
37
S. Shapin, S. Schaffer, The Leviathan..., s. 25.
Tamże.
Tamże.
Tamże.
156
Shapina i Schaffera, skutkująca m.in. opisem procesu dochodzenia do ustalenia wyników doświadczenia, który wcześniej przywołałam, kształtowanie domeny faktów naukowych (stwierdzanych eksperymentem) zasadzało się u samych swoich
podstaw właśnie na pracy opinii. A zatem strategie nowoczesnej nauki spowodowały usunięcie z pola widzenia procesu dochodzenia do efektów eksperymentu
na rzecz eksperymentu jako „gotowego produktu”, „obiektu” w łańcuchu działań,
które można uznać za wiarygodną metodę naukową.
Prywatność,wspólnotaa władzaprojektowania
Wydaje się, że pojęcie zbiorowość eksperymentująca ma dzisiaj bardzo ważną rolę do odegrania. W przypadku miejskiej przestrzeni publicznej oznacza fakt,
że istotne przesunięcia w użytkowaniu miasta dokonują się w obszarze sposobów wytwarzania, organizacji i dystrybucji wiedzy; w przypadku badań nad mediami społecznościowymi pozwalają wyjść poza spetryfikowaną i zużytą kategorię
aktywnego użytkownika czy uczestnika kultury partycypacji. Nie samo bowiem
uczestnictwo, ale całościowa architektura obiegu informacji ma tutaj istotne znaczenie (jak w przypadku użytkowników portali społecznościowych, którzy są tyleż
beneficjentami, co współproducentami serwisu, nawet jeśli wykonują minimalną
aktywność dostarczania danych czy „uczenia” algorytmów). Miasto w przypadku
projektów krytycznej kartografii staje się wspólnotą wiedzy – wspólnotą uczących
się i negocjujących protokoły kształcenia/wytwarzania wiedzy eksperckiej i opartego na niej projektowania. Tradycyjnie wiedza ekspercka znajdowała się w rękach
urbanistów, projektantów i architektów. Można wręcz mówić już chyba o oddolnej urbanistyce – pokazują to inicjatywy w rodzaju idei miasta współdzielonego
(Shareable City, www.shareable.net/channel/cities) czy projektów realizowanych
w ramach amerykańskiej inicjatywy Project for Public Spaces www.pps.org/placemaking/projects/featured-projects/).
Oddolne projektowanie, nieoznaczające wszak chaotycznego i zdezorganizowanego pospolitego ruszenia, może odbywać się zgodnie z logiką, którą Usman
Haque i Matthew Fuller nazwali modularną i granularną (modularity/granularity)38,
przez analogię do open source’owych projektów software’owych. W tych ostatnich partycypuje się w zadaniach dostosowanych do kompetencji – od zupełnie rudymentarnych po te najbardziej złożone. Modularność, którą Lev Manovich
uznał niegdyś za jedną z podstawowych cech języka nowych mediów, można tutaj rozumieć w jeszcze inny sposób: „Modularność w tym sensie oznacza organizację projektu w sposób, który umożliwia zaangażowanie produktywne w różnej
skali, w krótkich i długotrwałych interwałach, a to – jeśli chodzi o wiedzę ekspercką – zachęca do uczestnictwa na różnych poziomach zaawansowania: od początkującego do bardzo wyrafinowanego”39. Stąd logicznie wypływa konkluzja:
Większość zakończonych z sukcesem projektów FLOSS [określenie autorów
na open source ze szczególnym odcieniem: Free, Libre czy Open Source Software – przyp A.N.] jest napędzana znacząco granularnymi formami uczestnictwa. Podczas gdy takie formy zaangażowania umożliwiają jego różnorodne
formy, tym, co często łatwo przeoczyć w opisie struktury takich projektów,
jest fakt, że umożliwiają one postawienie problemów według rosnącej skali
trudności i mogą być także rozpatrywane jako środowiska uczenia się na olbrzymią skalę. Byłabytotakżedobradefinicjamiasta40 [podkr. – A.N.].
38
39
40
U. Haque, M. Fuller, Situated Technologies 2: Urban Versioning System 1.0, The Architectural League of New York, Nowy Jork 2006.
Tamże, s. 38.
Tamże.
157
Warto zauważyć, że „środowiska uczenia się na olbrzymią skalę” współbrzmią ze „wspólnotami eksperymentującymi”. Dobrze widać, jak te środowiska
działają, a jednocześnie, jak zmienia się rola eksperta i wiedzy eksperckiej zarówno
na przykładzie projektów maptywistycznych, jak i programów nowej urbanistyki. Projekty te zdecydowanie wykraczają poza formuły tradycyjnych „konsultacji
społecznych”, które zresztą rzadko przynoszą realny efekt, gdyż są wynikiem ramy
pojęciowej, gdzie inicjatywa i decyzja pozostaje i tak w rękach władz, inwestorów czy planistów. Natomiast mieszkańcy miast mają często do spełnienia funkcję
uwiarygodnienia „na papierze” przeprowadzenia konsultacji, będących wszak obowiązkowym punktem procesu podejmowania decyzji o inwestycji. Niezupełnie
chodzi tutaj o to, że „ekspertem może być każdy” i że „anything goes”, jak chciałaby tego zdroworozsądkowa, obiegowa opinia o tego typu przedsięwzięciach.
Widać nieco odmienny proces – wiedza ekspercka jest tworzona w sposób partycypacyjny i współdzielony, można rzec, modularny, w zakresach odpowiadających doświadczeniom mieszkańców miasta. Jest jednocześnie weryfikowana
przez poczucie wspólnej identyfikacji z problemem oraz gotowość do podejmowania inicjatyw na rzecz jego rozwiązania. Analogia między modularnością
projektów określanych przez Haque i Fullera jako FLOSS a modularnością aktywności mieszkańców zaangażowanych w projektowanie i tworzenie swoich lokalnych społeczności miejskich miast jest uzasadniona. Shareable City jest odnogą
(rodzajem platformy informacyjnej i aktywizującej) magazynu online Shareable:
Sharing by Design, który określa swoją misję jako magazyn prezentujący „opowieść
o współdzieleniu (sharing)” i deklaruje, że „pisze o ludziach i projektach przybliżających zaistnienie współdzielonego świata, a także dzieli się poradami tak, aby
każdy mógł zrealizować współdzielenie w swoim własnym życiu”41. W tym przypadku idea współdzielenia (sharingu) została zaimplementowana w dosyć oczywisty i wyraźny sposób z praktyk cyberkulturowych. Haque i Fuller zatytułowali
zresztą swoje opracowanie w ramach serii Situated Technologies42 poświęconej
związkom nowych technologii komunikacyjnych z miastem, Urban Versioning System 1.0, wprost odnosząc się do pojęcia z dziedziny projektowania oprogramowania, CVS (Concurrent Versioning System) – metody, która pozwala właśnie na
taką modularną pracę.
Zdaniem autorów, w odniesieniu do projektowania przestrzeni miejskiej,
taki system po pierwsze, „umożliwiałby jednoczesność rozwoju, testowania i zamieszkiwania. Po drugie, dostarczałby infrastruktury granularnemu uczestnictwu
każdego projektanta-uczestnika. To, że system umożliwiałby każdemu bycie współ
-projektantem, niekoniecznie oznacza, że każdy byłby gotowy się zaangażować
w proces projektowy [...] Taka organizacja pracy oznacza jednak, że ci, którzy chcą
operować w ramach tego trybu tworzenia wiedzy, postrzegania i działania mogą
mieć różne umiejętności, intencje i wymagania. [...] Architektura wytwarzana w otwartym procesie nie jest nigdy skończona: nie istnieje rozróżnienie między projektowaniem i zamieszkiwaniem”43.
Jest to zupełnie inna wizja działań związanych z produkcją i dystrybucją wiedzy, które są wpisane w proces projektowania-zarządzania miejskimi przestrzeniami,
bliższa nieco anarchicznym założeniom design-for-appropriation, być może nawet
design-for-hackability. Założenia te proponują otwarcie całego procesu i koncentrację na działaniu, wciągnięciu w działanie użytkownika, który tym samym staje się
41
42
43
www.shareable.net/about (dostęp: 12.11.2011 r.).
www.situatedtechnologies.net/?q=node/1 (dostęp: 13.11.2011 r.).
U. Haque, M. Fuller, Situated..., s. 21.
158
w dużym stopniu współprojektantem44. Można mówić w tym przypadku o pewnej ogólniejszej zmianie, która jest związana z dziedziną projektowania w obszarze
technologii interaktywnych: „Elisa Giaccardi i Gerhard Fischer określają metadesign
jako nowy paradygmat projektowania, którego zasadniczy rys wyznacza dążenie
do włączenia w proces projektowania użytkowników; realizując własne zamierzenia i cele, byliby oni także współodpowiedzialni za powstające projekty i sposoby
rozwiązywania konkretnych zadań w trakcie projektowania”45. Choć zarówno termin metadesign (zwany także, co jest znamienne w kontekście poruszanej przeze mnie problematyki, projektowaniem uczestniczącym), jak i składające się nań
praktyki oraz kodeks zasad pochodzą ze sfery technologii interaktywnych i oprogramowania, to obecnie ma się już do czynienia z jego ucieleśnieniem w postaci open hardware (jak pokazuje to przykład platform Arduino, www.arduino.cc).
Istnieje także przykład tego rodzaju w architekturze: słynne Diagoon Houses zaprojektowane na przełomie lat 60. i 70. XX w. w Delft przez Hermana Hertzenbergera46. Architekt proponował szkielety modułów, które mieszkańcy mieli
sami zaprojektować i wykorzystać, nazywając je półproduktami i niekompletnymi budynkami. Zaskakującą konstatacją jest fakt, że tego rodzaju apropriację przestrzeni i konstruowanie z jednoczesnym projektowaniem i zamieszkiwaniem często
można dostrzec w miejskich gettach, favelach czy slumsach – w tym przypadku
często mówi się o projektowaniu wernakularnym W miejscach, gdzie mieszkańcy
nie mają często innych możliwości pozyskiwania obszaru do zamieszkania i gdzie
życie wymaga szczególnej kreatywności.
Jak widać, dynamiczne mapowanie partycypacyjne, maptywizm i współprojektowanie miejskiej przestrzeni są połączone ze zmieniającymi się paradygmatami zarówno w zakresie posługiwania się nowymi mediami, jak i projektowania
oprogramowania. Opis ich wyłącznie w nieco już spetryfikowanej optyce kultury partycypacji, Web 2.0 czy interaktywności nie wyczerpuje tematu, a nawet nie
pozwala dostrzec istotnych zmian zachodzących znacznie głębiej, niż pokazuje to
warstwa interfejsu (czyli nawigowalnej mapy). Wydaje się, że równie istotne tematy kryją się wciąż za horyzontem współczesnych zastosowań technologicznych.
Próbując odgadnąć, co niesie przyszłość (czy raczej zabawić się w futurologiczne
wizjonerstwo), warto utrzymywać dialogiczny związek z przeszłością, bo wydaje
się, że nie pozostaje ona nigdy kwestią zamknięta i skończoną. Może dlatego, że
również podlega projektowaniu.
44
45
46
Por. A. Nacher, Projektowanie jako negocjacja – między dominacją kodu a ekstazą
partycypacji, „Kultura Współczesna” 2009, nr 3(61). W tym samym numerze „Kultury Współczesnej” do tek tematyki odnosi się także M. Składanek, Projektowanie interakcji – pomiędzy wiedzą a praktyką.
M. Ożóg, Projektowanie sztuki. Sztuka nowych mediów w perspektywie metadesignu,
„Kultura Współczesna” 2009, nr 3(61), s. 127; por. także E. Giaccardi, G. Fischer, Kreatywność i ewolucja: perspektywa metadesignu, „Kultura Współczesna” 2009, nr 3(61).
www.afewthoughts.co.uk/flexiblehousing/house.php?house=48. Por. także U. Haque,
M. Fuller, Situated...
159
Teorie mindware
Postmediacje
Sztuka mediów
Perspektywy dialogu nauki i sztuki w pracach
Art Orienté Objet i Paula Vanouse’a
Maciej Ożóg
161
Wstęp
Wielowymiarowe relacje pomiędzy naukowcami a artystami oparte na
transdyscyplinarnym dialogu stanowią jeden z kanonów ponowoczesnej kultury. Wzajemna wymiana informacji, konfrontacja punktów widzenia, metod pracy, motywacji i celów, jednym słowem otwartość i przychylne zainteresowanie
odmiennym sposobem postrzegania, poznawania i interpretowania rzeczywistości umożliwiają efektywną współpracę i przynoszą wymierne korzyści obu
stronom, a przede wszystkim społeczeństwu. Jednocześnie zarówno w teoretycznych ujęciach trzeciej kultury1, jak i w doświadczeniu praktyków interdyscyplinarna kooperacja napotyka na wiele przeszkód. Część z nich wynika z przywiązania
do tradycyjnego, alienującego sposobu definiowania nauki i sztuki. Wykroczenie
poza utrwalony w XIX i XX wieku podział na dwie kultury2 wymaga gotowości do
zakwestionowania wcześniej niepodważalnych przekonań, a to okazuje się często trudne tak dla naukowców, jak i dla artystów, i narzuca konieczność stopniowego przygotowania, które można traktować jako formę oswojenia z innością.
Równie często problemem staje się odmienne usytuowanie nauki i sztuki
w kontekście instytucjonalnym i ekonomicznym oraz przeświadczenie o wyraźnie zróżnicowanych zadaniach, jakie nauka i sztuka pełnią względem społeczeństwa i kultury. Efektywność, funkcjonalność i opłacalność dociekań naukowych
stoi w kontrze do niezdeterminowanego, otwartego, eksperymentalnego i rzadko przynoszącego wymierne, materialne korzyści podejścia artystów. Problematyczny charakter dialogu naukowców i artystów wiąże się także wprost z wciąż
obecnym w świadomości kolektywnej przekonaniem o zasadniczo odmiennych funkcjach nauki i sztuki w społeczeństwie i kulturze. Nauka to obiektywne
poznania, sztuka natomiast jest utożsamiana ze swobodną subiektywną wyobraźnią. Pogląd ten, choć nie wytrzymuje konfrontacji z rzeczywistym stanem
praktyki naukowej i artystycznej, stanowi wciąż źródło nieporozumień i wymaga stałej, rzetelnej krytyki.
Sztukabiologicznajakoprzykładtransdyscyplinarnegodialogu
W dalszej części tekstu skoncentruję się na badaniu działań artystycznych,
których podstawą jest transdyscyplinarny dialog nauki i sztuki. Korzystając z zaproponowanej przez Stephena Wilsona kategorii artysty-badacza3, zajmę się przede wszystkim tymi formami sztuki, w których wysokie kompetencje artystów
w zakresie wykorzystywanych przez nich obszarów nauki łączą się z krytycznym
namysłem nad kulturowymi uwarunkowaniami dociekań naukowych. Wybór
przykładów – duet Art Orienté Objet oraz Paul Vanouse – podyktowany był chęcią przedstawienia odmiennych perspektyw dialogu i zarazem zróżnicowanych
sposobów uwikłania i odniesienia artystów do praktyki naukowej.
Francuski tandem Art Orienté Objet ukazał naukę w szerokim kontekście
ideologicznym, skupiając się, z jednej strony, na zewnętrznych i wewnętrznych
uwarunkowaniach i ograniczeniach praktyki badawczej, z drugiej zaś, zadając
pytania o etyczny wymiar naukowej eksploracji rzeczywistości. Stosunek francuskich artystów do relacji nauki i sztuki charakteryzuje radykalny adogmatyzm,
znajdujący wyraz w transgresyjnym i eksperymentalnym podejściu do reguł i procedur naukowych. Dlatego realizowane przez nich projekty traktuję jako formę
1
2
3
Trzecia kultura. Nauka u progu trzeciego tysiąclecia, red. J. Brockman, przeł. P. Amsterdamski, J. i M. Jannaszowie, M. Ryszkiewicz, M. Tempczyk, W. Turopolski, Wydawnictwo CiS, Warszawa 1996.
Ch.P. Snow, Dwie kultury, przeł. T. Baszniak, Prószyński i S-ka, Warszawa 1999.
S. Wilson, Information Arts. Intersections of Art, Science, and Technology, MIT Press,
Cambridge MA, Londyn 2002.
163
prowokacji, wyzwania rzuconego nauce, którego efektem jest poszerzanie granic samej nauki, ale też jej społecznej percepcji.
Powszechne wyobrażenia na temat roli i miejsca nauki w kulturze to główny temat prac Paula Vanouse’a. Korzystając z biotechnologii, zadawał pytania
o mity i przesądy kreujące powszechne wyobrażenie o mikrobiologii. Jego twórczość łączy funkcję edukacyjną z krytyką kulturową. Prezentując konkretne procedury badawcze i sposób funkcjonowania biotechnologii zarazem, inicjuje debatę
o przyczynach, formach i konsekwencjach mitologizacji współczesnej nauki.
Art Orienté Objet i Paul Vanouse to artyści zaliczani do nurtu sztuki biologicznej. Wybór przykładów jest podyktowany przeświadczeniem, że właśnie
w obszarze nauk o życiu dokonują się współcześnie przeobrażenia, które radykalnie zmieniają otaczający świat i nas samych. Jednocześnie nauki biologiczne
oraz biotechnologie stały się u progu nowego tysiąclecie jednym z najbardziej
„gorących” i kontrowersyjnych tematów w debacie publicznej. Z jednej strony,
prowadzą do nowego określenia fundamentów wiedzy o życiu, z drugiej, zmuszają do refleksji nad nową, postbiologiczną etyką, wskazując zarazem konieczność rewizji podstaw obowiązującego dotychczas systemu prawnego. Podobnie
jak sto lat temu fizyka kwantowa i einsteinowska teoria względności ustanowiły
nowy paradygmat nauk przyrodniczych, tak współcześnie osiągnięcia nauk o życiu zmuszają do „całkowicie nowego sposobu myślenia o świecie, gdyż oferują niespotykane wcześniej możliwości manipulacji rzeczywistością”4. Osiągnięcia
stawiają tym samym pod znakiem zapytania tradycyjne rozumienie tak, wydawać
by się mogło, podstawowych i stabilnych kategorii, jak: natura, człowiek, rodzina,
rodzicielstwo czy indywidualność. Równocześnie rozpalają wyobraźnię i dostarczają energii wizjonerom kultury popularnej, stając się tematem futurystycznych
opowieści o „nowym wspaniałym świecie” bądź apokaliptycznych wizji zdegradowanego postludzkiego i postnaturalnego świata mutantów. Świadomości przełomu paradygmatycznego towarzyszy wynikająca równie często z niewiedzy, co
z manipulacji opinią publiczną mitologizacja samej nauki, zdobywanej w wyniku
badań naukowych wiedzy, jak i możliwości jej zastosowania.
Rozumienie nauki jako aktywności poznawczej dedykowanej bez reszty
poszukiwaniu czystej, nieuwarunkowanej, obiektywnej prawdy, wolnej od wszelkich wpływów, w szczególności ideologicznych, politycznych i ekonomicznych
wciąż stanowi główny rys powszechnego wyobrażenia o działalności naukowej.
W świecie płynnych wartości i norm bywa ona postrzegana wciąż jako ostoja „niezbrukanej” relatywizmem wiedzy. Paradoksalnie tam, gdzie dokonuje się bodaj
najbardziej radykalny w historii ludzkości przełom w rozumieniu natury rzeczywistości i życia, lokowana jest bezdomna od chwili „śmierci Boga” potrzeba stałości
i wiary w istnienie ostatecznej prawdy. Nauka przejmuje – jak zauważyli twórcy
Critical Art Ensamble – społeczne funkcje religii, staje się bezwzględnym autorytetem legitymizującym wszelką wiedzę o świecie i zarazem wyznaczającym nasze
rozumienie natury i nasz do niej stosunek. Mimo iż metody naukowego poznania
w zasadniczy sposób odbiegają od pozanaturalnych źródeł religijnego objawienia,
w obliczu totalnej dewaluacji religii właśnie nauka przejęła funkcję wytwarzania
mitów sankcjonujących porządek naturalny i tym samym stała się „najważniejszą
siłą definiującą i tłumaczącą społeczeństwu strukturę i dynamikę kosmosu oraz
genezę i proces powstawania życia, czyli innymi słowy, istotę życia”5.
4
5
J. Vallverdu, Bioethical Art Genome Sense Construction Through Artistic Interactions,
„Aesthethika©. International journal on culture, subjectivity and aesthetics” 2006,
nr 2(2), s. 8.
Critical Art Ensamble 2009, The Promissory Rhetoric of Biotechnology in the Public
Sphere, www.critical-art.net/CONE.html (dostęp: 23.11.2011 r.).
164
Mgła mitów, półprawd, stereotypowych wyobrażeń czy przesądów
w znacznym stopniu utrudnia rozpoznanie społecznych, kulturowych i etycznych kontekstów nauk o życiu. Mity o biologii i biotechnologiach w stopniu równym, jeśli nie większym niż rzetelna naukowa wiedza, wyznaczają powszechną
świadomość zachodzących przemian i ich możliwych społecznych konsekwencji. Mitologizacja wiedzy prowadzi wprost do upowszechnienia uproszczonych,
często jawnie fałszywych, przekonań na temat potęgi biologii i nieograniczonego potencjału biotechnologii. Skomplikowana natura procesów wyjaśnianych
przez nauki biologiczne, specjalistyczny, wymagający wysokich kompetencji język dyskursu naukowego na równi z powszechnym przeświadczeniem o wysoce
wyrafinowanym charakterze procedur i technik wyznaczających kanony biotechnologii sprzyjają „kreatywnym translacjom”, które mają przybliżać tę „ezoteryczną” wiedzę szerokiej publiczności. Ścisły język nauki, służący opisowi niezwykle
skomplikowanych procesów, przekształca się w tłumaczeniu w swoistą paranaukową nowomowę, dalece niejednoznaczną, obfitującą w uproszczenia, syntezy
i skróty myślowe, ale przede wszystkim naszpikowaną efektownymi, silnie działającymi na wyobraźnię metaforami6.
Widziana przez pryzmat metafor i porównań nauka traci przypisywany
jej walor obiektywności. Na plan pierwszy wysuwa się zarazem fakt jej kulturowego uwarunkowania oraz uwikłania w skomplikowaną sieć wpływów ideologicznych, politycznych i ekonomicznych. Konkurencja, system patentowy, wolny
rynek, bezpieczeństwo narodowe, walka z terroryzmem to tylko najbardziej oczywiste motywy, dla których laboratoria są przekształcane w silnie strzeżone, niedostępne dla przeciętnego człowieka enklawy, w których wykluwa się, a raczej
jest stwarzana przyszłość. Artyści-badacze inicjują dialog, który przybliża naukę
społeczeństwu i jednocześnie pozwala zobaczyć ją w nowym, ostrzejszym, ukazującym znaczące niuanse świetle.
Sztukajakowyzwaniedlanauki –w poszukiwaniudialogu
Działalność Marion Laval-Jeantet i Benoît Mangin, tworzących grupę Art
Orienté Objet (AOO), to przykład nieustannej, mozolnej, niejednokrotnie kończącej się fiaskiem walki o dostęp do zamkniętej w laboratoriach wiedzy i technologii. Wielokrotnie planowane przez nich projekty nie mogły być zrealizowane
lub podlegały znaczącym modyfikacjom w wyniku konfrontacji z obecnymi po
stronie nauki barierami mentalnymi, ograniczeniami instytucjonalnymi i ekonomicznymi. Historia problematycznych negocjacji z licznymi ośrodkami naukowymi stanowi jednocześnie zapis rozlicznych uwarunkowań, które utrudniają dialog
i współpracę naukowców i artystów, ale także wyznaczają ściśle określone ramy
badań naukowych, ograniczających tym samym potencjał rozwojowy samej nauki.
Zrealizowane w 2001 roku dwa projekty A Pioneer World oraz Pioneer Ark
są bezpośrednim efektem wizyty artystów w ośrodku Pioneer’s Farm. W tamtym
czasie był on jedynym w Australii „przytułkiem” dla zwierząt, które uległy mutacjom w wyniku eksperymentów naukowych oraz negatywnego oddziaływania
zanieczyszczonego środowiska. Artyści uzyskali wyjątkową możliwość obejrzenia
tej zamkniętą dla zwiedzających wystawy osobliwości, jednak nie mogli wykonywać żadnej dokumentacji. Zakaz fotografowania i filmowania był motywowany dbałością o wrażliwość odbiorców i chęcią uniknięcia epatowania opinii
publicznej drastycznymi obrazami. Zainspirowane wizytą prace wskazują jednak
także inne, zakamuflowanie, niewyrażane wprost intencje. Farma Pionierów jest
6
P.E. Griffiths, Genetic Information: A Metaphor in Search of a Theory, „Philosophy of
Science” 2001, nr 68(3), s. 394–412.
165
wprawdzie azylem dla ofiar nauki i postępu cywilizacyjnego, gdzie mogą uniknąć
przedwczesnej eksterminacji, jednak zarazem może być traktowana jako getto,
w którym ukrywa się zmutowane zwierzęta, będące brutalną manifestacją konsekwencji i kosztów rozwoju nauki. Z jednej strony, ograniczenie w dostępie do
informacji można uznać za formę wojny informacyjnej, w której na ostrzu noża
zostaje postawiona reputacja, dobre imię i wizerunek nauki. Z drugiej, fakt utworzenia Farmy Pionierów traktować można jako próbę zadośćuczynienia za wyrządzone krzywdy lub sposób zagłuszenia wyrzutów sumienia.
Przywołane realizacje AOO tylko do pewnego stopnia mają charakter demaskatorski. Większość zawartych w nich materiałów była publikowana w prasie
naukowej, co nie oznacza zarazem, że są znane one szerokiej publiczności. Ukazane w kontekście artystycznym i w tak dużym nagromadzeniu wywołują jednak
szok poznawczy. Podobne reakcje towarzyszą pracom, składającym się na tryptyk muzealny: Musée Manifesto 1: musée d’horreurs naturelles (1997), Musée Manifesto
2: musée d’horreurs biologiques (1999), Musée Manifesto 3: musée d’horreurs mentales
(2001). Efekt zaskoczenia i grozy jest budowany w nich przez zestawienie formy,
kojarzącej się z zabawkowymi domkami dla lalek, z zawartością w postaci miniaturowych replik naukowych eksperymentów, które układają się w swoiste naukowe muzeum osobliwości. Artyści wykorzystują napięcie pomiędzy oswojonym,
wygładzonym, chciałoby się powiedzieć infantylizowanym obrazem nauki, a rzeczywistym horrorem rozgrywającym się w zaciszu laboratoriów. Ukazują odwrotną stronę naukowego postępu, znajdującą wyraz w przedmiotowym traktowaniu
zwierząt i eksploatacyjnym stosunku do środowiska naturalnego. Pokazują znane, lecz niechciane i niemanifestowane publicznie oblicze nauki. Stawiają pytanie o odpowiedzialności za efekty prowadzonych badań. Równocześnie zmuszają
do refleksji nad procederem reglamentacji wiedzy naukowej i wiedzy o samej
nauce. Pytają także o poziom świadomości społecznej i stopień upowszechnienia wiedzy o tym, co dzieje się za zamkniętymi drzwiami ośrodków naukowych.
Zdecydowanie poważniejsze problemy napotkali artyści w trakcie przygotowywania projektu Que le panda vive en moi. Praca zakładała transfuzję krwi
pandy do organizmu Laval-Jeantet. Fakt ten stał się źródłem wielu kontrowersji,
które w konsekwencji uniemożliwiły realizację projektu w zgodzie z pierwotnymi założeniami. Pierwszą barierą okazał się brak zgody ogrodów zoologicznych
dysponujących pandami na pobranie odpowiedniej do przeprowadzenia eksperymentu ilości krwi zwierzęcia. W tym przypadku kluczowym argumentem była
dbałość o dobro zwierząt zagrożonych wyginięciem. Motywacja ta wydaje się logiczna – pobranie dużej ilości krwi mogłoby zaszkodzić pandom. Sądzę jednak,
że dobro zwierząt jest w tym przypadku wykorzystane także jako kamuflaż. Realną przyczyną odmowy współpracy mogło być przeświadczenie, że wykorzystanie krwi pand w „podejrzanym” eksperymencie artystycznym może wywołać
niepożądane konsekwencje dla ogrodów zoologicznych. Co więcej, po stronie
instytucji zabrakło woli uznania prawa artystów do podjęcia działań, które, choć
odmienne w formie i metodzie od standardów zinstytucjonalizowanej ekologii,
zakładały podobny cel – dobro zagrożonego gatunku. Rysuje się w tym przypadku powielana często bezrefleksyjne wizja relacji nauki i sztuki oparta na silnym napięciu pomiędzy poprawną, absolutyzowaną ekologiczną misją instytucji,
a nieodpowiedzialnością żądnych sensacji artystów.
Kolejny etap negocjacji nad projektem dotyczył współpracy z ośrodkami badawczymi. Wizja transfuzji krwi zwierzęcia była nie do zaakceptowania dla
wielu instytucji naukowych. W końcu artyści nawiązali współpracę ze szwajcarskim instytutem zajmującym się możliwościami ksenotransplantacji w perspektywie terapii nowotworowej. Szczególne znaczenie w kontekście projektu AOO
166
miały badania nad immunoglobulinami i możliwościami uzgodnienia krwi zwierzęcej i ludzkiej. Projekt Que Le Cheval Vive En Moi (Niech koń żyje we mnie) (2011)
wpisał się w profil badawczy instytucji, stając się kolejnym, już nie tylko naukowym, lecz naukowo-artystycznym eksperymentem, którego przebieg i rezultaty
mają realny wpływ na stan badań i wiedzę naukową, co podkreślali Laval-Jeantet
i Mangin: „[...] celem jest przeprowadzenie prawdziwych badań w zakresie terapeutycznego wykorzystania końskiej krwi, w wyniku których stanie się ona kompatybilna i będzie mogła wywoływać ochronne efekty”7.
Trwające od 2004 roku konsekwentne działania artystów znalazły tym samym finał w postaci projektu, który w bezpośredni sposób manifestuje potencjał
kooperacji artystów i naukowców, ale zarazem stanowi znamienny przykład trudności, na jakie może napotykać transdyscyplinarny dialog. W przypadku francuskiego duetu głównym problemem było przełamanie ostrożnego sceptycyzmu
środowiska naukowego wobec zakładanego przez twórców co najmniej niekonwencjonalnego podejścia do eksperymentów naukowych. Artyści proponowali
bowiem działania, które nie podporządkowują się naukowym protokołom, zaskakują, wybiegają poza to, co uznawane za normalne, zmuszają do rewizji standardowych wyobrażeń na temat dopuszczalnych metod badawczych i celów
poszukiwań naukowych. „Nienaukowość”, „inność” reprezentowanego przez nich
podejścia wprowadza zamieszanie, prowokuje zmianę postawy, skłania do otwarcia na nowe perspektywy, ale równie często spotyka się z manifestacyjnym odrzuceniem. Art Orienté Objet prezentuje eksperymentalne podejście do nauki,
zakładające nieustanną transgresję status quo i radykalną gotowość do zmierzenia się z nieznanym, nieprzewidywalnym, niezamierzanym. W ten sposób staje
się możliwe rozluźnienie często zakleszczonych protokołów praktyki i dyskursu
akademickiego. Artyści wykraczają zarazem poza często współcześnie ograniczającą swobodę poszukiwań naukowych determinację ekonomiczną, inicjując
badania, które nie są nastawione na konkretne, materialne efekty. Oryginalne podejście artystów może zatem służyć jako medium otwierające nowe perspektywy
badawcze, jako zachęta dla naukowców do „eksperymentowania z tym, z czym
nie powinno się eksperymentować”8.
Artystyczne eksperymenty naukowe AOO, wnosząc do badań naukowych
nowe, nieortodoksyjne podejście, sytuując się w obrębie definiowanego przez
Stephena Wilsona rozumienia artysty jako badacza: są zarazem kompetentnymi
partnerami naukowców, wynalazcami, hakerami i interpretatorami. Jednocześnie
przywołane powyżej koleje transdyscyplinarnego dialogu stanowią i manifestują – podkreślaną przez Wilsona – konieczność przygotowania artystów i naukowców do efektywnej współpracy przez redefinicję tradycyjnego ujęcia poszukiwań
naukowych i działań artystycznych9. Skłaniają także do przemyślenia podstaw naukowego światopoglądu, a przede wszystkim zastanowienia nad stosunkiem nauki do życia, istot żywych i środowiska.
Transgatunkowebraterstwokrwi
Istotnym wymiarem twórczości AOO jest ekologia powiązana z krytyczną
analizą naukowego sposobu postrzegania środowiska naturalnego. Nauka zakłada
poznawczą eksplorację rzeczywistości zmierzającą do zrozumienia rządzących nią
7
8
9
Art Orienté Objet, May the Horse Live in me [w:] CyberArts 2011, red. H. Leopoldsender, Ch. Schopf, G. Stocker, Hatje Cantz, Linz 2011, s. 116.
Interview with Art Orienté Objet, 2007, http://we-make-money-not-art.com/archives/2007/01/aoo-was-formed.php (dostęp: 27.11.2011 r.).
S. Wilson (1996), Art as Research, http://userwww.sfsu.edu/~swilson/papers/artist.
researcher.html (dostęp: 17.11.2011 r.).
167
praw i w konsekwencji lepszego panowania nad naturą. Postawa taka w biologii
prowadzi często do uprzedmiotowienia i ubezwłasnowolnienia będących obiektem badań żywych organizmów. Równocześnie, antropocentryzm nauki przejawia
się w akcentowaniu aktywnej pozycji człowieka i jego zasadniczej odmienności wobec środowiska naturalnego. Francuscy artyści ujawniali absurdalność podobnych roszczeń w dobie posthumanistycznych przemian w rozumieniu relacji
między człowiekiem a światem, ukazując słabość człowieka względem natury, ale
przede wszystkim manifestując opłakane skutki aroganckiej władzy nad przyrodą
ożywioną i nieożywioną. Projekty ich prezentują perspektywę zbieżną ze sposobem interpretowania i rozumienia relacji człowiek–środowisko, jaką oferują kulturowe studia nad zwierzętami10. W tym duchu są utrzymane prace, które analizują
konsekwencje tradycyjnego antropocentryzmu nauki i jednocześnie wskazują na
perspektywy rozwoju nowych, odmiennych, opartych na empatycznym współistnieniu, a nie eksploatacyjnej dominacji relacji między ludźmi i zwierzętami.
Stałym elementem ich pracy są zwierzęta – ofiary naukowych eksperymentów i ekspansywnej polityki wobec natury. Zmutowane stworzenia przedstawiane w Pioneer’s Ark, galeria osobliwości z cyklu muzealnego, ale także znalezione
na śmietniku wypatroszone ciało królika w pracy Rabbits Were Used to Prove (1999)
oraz skóry przejechanych zwierząt, z których uszyty został futrzany płaszcz prezentowany jako Roadkills’ Coat (2000) to znaki niszczycielskiej siły cywilizacji, wynikającej nie tyle z potęgi człowieka, co z jego słabości, rekompensowanej ślepą
przemocą wobec zewnętrznego świata. Równie ważną rolę w tym procesie odgrywa nieumiejętność postrzegania przyrody jako systemu ścisłych powiązań
i zależności. Przykładem może być zachowanie chińskich władz, które chroniąc
zagrożoną wyginięciem pandę, zamykają ostatnie osobniki w ogrodach zoologicznych, jednocześnie bezwzględnie niszcząc naturalne środowisko życia tych
zwierząt. Laval-Jeantet i Mangin ujęli tę kwestię wprost, zauważając, że człowiek
„stara się panować nad zwierzętami przez swoje »nieopanowanie«”11.
Nie pozostali jednak tylko na poziomie krytyki ludzkiej dominacji. Bezwzględnie ukazując negatywną stronę postępu cywilizacyjnego, postulują zarazem zmianę postawy wobec przyrody, kreśląc pozytywny program ekologii nauki
charakteryzującej się empatycznym stosunkiem do innych istot żywych i środowiska naturalnego. Naukowa empatia wyraża się w dążeniu do przekroczenia granicy dzielącej człowieka od natury. Proces ten polega na powtórnym zatopieniu się
w zewnętrznym środowisku, na wytworzeniu stanu symbiozy z naturą. W swych
artystycznych eksperymentach naukowych AOO realizowali to zadanie, czyniąc
własne ciała przestrzenią naukowego eksperymentu. Charakter taki mają prace
Félinanthropie (2007), Jeter les bois (2007), Necking (2007), Le baiser de l’ange (2008)
oraz Que le cheval vive en moi, które są oparte na zewnętrznym upodobnieniu do
zwierząt – kota, jelenia, żyrafy, ptaków czy konia – za pomocą protez zmieniających wygląd, ale przede wszystkim funkcjonalność poszczególnych części ciał.
Ostatnia z nich przesuwa proces upodobnienia także do wnętrza ciała, będąc
swoistym rytuałem „braterstwa krwi”, którego konsekwencją są realne zmiany
psychofizyczne w organizmie człowieka. Transgresja ciała prowadząca do połączenia z naturalnym otoczenie to także sedno pracy La Pala de Libreville (2003),
będącej zapisem szamańskiego rytuału inicjacyjnego Bwiti, w którym uczestniczyli oboje artyści. Cel rytuału, czyli „osiągnięcie specyficznej percepcji otoczenia”
10
11
Zob. C. Wolfe, Animal Rites: American Culture, the Discourse of Species, and the Posthumanist Theory, University of Chicago Press, Chicago 2003; C. Wolfe, What is Posthumanism?, University of Minnesota Press, Minneapolis 2010.
J. Salaud, Kit Ecosysteme-Animalite, „Antennae” 2009, nr 10, s. 83.
168
oraz „wyleczenie siebie przez prawdziwe odczucie wartości lasu, otaczającego
uczestników rytuału”12, można traktować szerzej jako zakładany cel twórczości artystycznej francuskiego duetu.
Walor terapeutyczny empatycznego doświadczenia przyrody stanowi
fundament artystycznej strategii Art Orienté Objet. W wielu wypowiedziach definiują swą sztukę jako działanie, które ma inicjować krytyczną debatę na temat
wizji natury oraz miejsca człowieka w przyrodzie. Sztuka powinna także pobudzać wrażliwości ekologiczną przez zmianę nastawienia społeczeństwa do natury. Jednak tym, co nadaje szczególny charakter wizji sztuki prezentowanej przez
AOO – i co nie powinno dziwić, zważywszy, że Laval-Jeantet profesjonalnie zajmuje się psychoterapią i etnopsychiatrią – jest aktywizm rozumiany jako forma
terapii społecznej. W rozmowie z Emilie Gouband Laval-Jeantet przedstawiła syntetyczną wykładnię filozofii sztuki:
[...] wierzymy, że poza tworzeniem dzieł sztuki, artysta wykonuje działania
zbawienne i katarktyczne dla społeczeństwa. Jesteśmy także przekonani, że jest możliwe przebudzenie indywidualnej świadomości za sprawą
sztuki, zarówno w sferze indywidualnej wolności, jak i ekologii. Nazywa
się nas często artystami środowiska, gdyż przejawiamy ekstremalne zainteresowanie kwestią przetrwania gatunku ludzkiego w globalnym ekosystemie13.
Człowiek rozumiany jako integralny element przyrody to zarazem człowiek, który musi przekroczyć antropocentryzm i otworzyć się na nowe formy
doświadczenia natury. Służy temu jego organizm rozumiany jako wehikuł transgatunkowej komunikacji.
Pozaantropocentryzm
Projekt Que Le Cheval Vive En Moi jest punktem kulminacyjnym w dotychczasowej karierze francuskiego duetu. Skupiają się w nim wszystkie wymienione
dotychczas cechy ich twórczości, jednak jego radykalna forma otwiera też nowe,
wcześniej nieobecne lub słabiej wyartykułowane wymiary. Istotą projektu jest bezpośrednie przekształcenie ciała Laval-Jeantet w żywe laboratorium, w którym były
badane efekty transfuzji immunoglobulin i krwi konia. Opisywany powyżej proces
symbolicznego zbliżenia do świata zwierząt w tej pracy przyjmuje postać zespolenia na poziomie biologicznym. Ciało, poszerzone w wyniku transgatunkowego
przeszczepu, staje się przestrzenią doświadczenia nieludzkiego, w którym specyficzne dla innego gatunku doznania realizują się zarówno na poziomie fizjologii,
jak i psychiki. Organizm artystki podlegał wewnętrznej transformacji, która prowadziła do psychofizjologicznej komunii z istotą innego gatunku. Efektem eksperymentu było otwarcie się na nowe, charakterystyczne dla zwierzęcia doznania
i reakcje na bodźce. Zmiana sensorium miała charakter globalny i prowadziła do
całkowicie nowego sposobu funkcjonowania organizmu. Z jednej strony, można mówić w tym przypadku o formie „sensorycznej empatii”14, z drugiej zarazem,
doszło do wzmożonego odczuwania różnicy międzygatunkowej. Artystka zrelacjonowała, że w trakcie trwania projektu doświadczyła wielu doznań, które okazały się typowe dla zwierzęcia: płytki sen, nadwrażliwość na dotyk, płochliwość
12
13
14
Tamże, s. 84.
E. Gouband (2010), Pursuing Ecology Through Art: A Q&A with Art Orient Objet, „ArtInfo. International Edition”, www.artinfo.com/news/story/35257/pursuing-ecologythrough-art-a-qa-with-art-orient-objet?comment_sort=desc (dostęp: 12.11.2011 r.).
M. Heberle, Żyj we mnie, przeżyj we mnie. Ciało jako przestrzeń doświadczenia Innego
oraz terytorium pamięci w projektach Art Orienté Objet, „Rita Baum” 2011, nr 18, s. 111.
169
połączona z poczuciem niezwykłej siły fizycznej. Podkreśliła jednocześnie, że
częściowa wewnętrzna przemiana w konia miała charakter silnie alienujący – doświadczyła uczucia oderwania od własnego ciała, które funkcjonowało w nieznany i nieprzewidywalny, wręcz anarchistyczny sposób. Dlatego podsumowując
swe doświadczenia, stwierdziła: „wewnętrznie przestawałam być człowiekiem”15.
Eksperyment, przeprowadzony przez artystów, skutkuje odczuciem wewnętrznej hybrydyczności i wiąże się z przekroczeniem typowo ludzkiego modelu
doświadczenia i rozumienia siebie i swojego miejsca w świecie. Rozszerzona o nieludzkie, biologiczne komponenty reaktywność organizmu umożliwia doznanie
obcego, innego sposobu istnienia i poznawania, ale zarazem prowokuje do nowego sposobu rozumienia podmiotowości. Normatywna, oparta na antropologicznych uniwersaliach podmiotowość ustępuje tu miejsca koncepcji człowieka, który
znajduje się w stanie nieustającej, ateleologicznej transgresji. Zatem doświadczenie Innego to także doświadczenie innego siebie, odczucie własnej zmienności,
niestabilności, rozpoznanie faktu, że płynność i podatność na swobodne mutacje „niezredukowane do wzorów czy standardów, kodów czy informacji”16 stanowi zasadniczą cechę wszelkiego, także ludzkiego życia.
Rozszerzenie organizmu człowieka o komponenty zwierzęce pozwala na
doświadczenie rzeczywistości z nowej perspektywy, ale zarazem ukazuje inność
w nas samych. Wyjście poza antropocentryzm to przede wszystkim doświadczenie odmiennych sposobów „stwarzania świata” i zasadniczej hybrydyczności
właściwej naszemu gatunkowi autopoezy. Projekt francuskich artystów wpisuje
się tym samym wprost w proponowaną przez Wolfe’a posthumanistyczną perspektywę człowieczeństwa wolną od „ontologicznie zamkniętych domen świadomości, rozumu, refleksyjności” i jednocześnie postulującą radykalną otwartość
na odmienność tak zewnętrzną, jak i wewnętrzną. „Zmusza nas ona” – jak napisał
twórca animal studies – „do przemyślenia przyjmowanych za pewnik form ludzkiego doświadczenia, włączając normalne sposoby postrzegania i odczuwania siebie
przez Homo sapiens, przez ich rekontekstualizację względem pełnego sensorium
innych istot żywych i ich specyficznych autopoietycznych sposobów »wyłaniania
świata« – sposobów, które, zważywszy, że sami jesteśmy ludzkimi zwierzętami,
stanowią część historii ewolucyjnej i należą do behawioralnego i psychologicznego repertuaru człowieka”17. Ostatni fragment przywołanego cytatu otwiera
jeszcze jedną perspektywę interpretacyjną Que Le Cheval Vive En Moi. Poddane
transgatunkowemu eksperymentowi ciało ujawnia przedludzkie pokłady ewolucyjnego dziedzictwa i jawi się jako nośnik pamięci o różnorodności gatunkowej.
Przekroczenie humanistycznego antropocentryzmu dokonuje się tutaj w dwóch
kierunkach: ku przyszłości, generując pytania o możliwości transgatunkowej komunikacji; oraz ku przeszłości, ewokując wewnętrzną hybrydyczność ludzkiego
organizmu. Obie perspektywy czasowe są połączone w przyjmowanej przez artystów w pierwotnej wersji projektu koncepcji ciała jako symbolicznego miejsca
schronienia, a może także ocalenia gatunków zagrożonych wyginięciem. W ten
sposób realizacja Francuzów włącza się w debatę nad odpowiedzialnością i etyką badań naukowych, akcentując potrzebę empatycznego otwarcia na wszelkie formy życia.
15
16
17
T. Mokoena (2011), May The Horse Live In Me. Extreme modern-day horse whispering, www.dontpaniconline.com/magazine/arts/may-the-horse-live-in-me (dostęp:
24.11.2011 r.).
R.L. Rutsky, Mutation, History, and Fantasy in the Posthuman, „Subject Matters: A Journal of Communication and the Self” 2007, t. 3, nr 2, t. 4, nr 1, s. 111.
C. Wolfe, What is Posthumanism?, University of Minnesota Press, Minneapolis 2010,
s. 25.
170
TwórczośćPaulaVanouse’a jakoprzykładkrytycznego
bioartu
Powszechne przeświadczenie o przełomowym znaczeniu odkryć w naukach biologicznych dla egzystencji poszczególnych jednostek, ludzkości i życia
na Ziemi w ogóle jest odwrotnie proporcjonalne do rzetelnej wiedzy o badanych
zjawiskach, stosowanych metodach naukowego poznania i osiąganych rezultatach. W tym kontekście wyjątkowego znaczenia nabiera sztuka, która nie tyle zagląda przez uchylone drzwi do pracowni naukowych, ale przenosi je w przestrzeń
publiczną. Upublicznianie, ujawnianie, odkrywanie, tłumaczenie tajników współczesnej biologii i biotechnologii są istotnymi cechami dzisiejszego bio artu, który
często „zmierza do »odtajnienia« procedur laboratoryjnych, technik biotechnologicznych i biomedycznych po to, byśmy mogli uzyskać lepszą świadomość
procesów, w których uczestniczymy choćby tylko pośrednio”18. Osiągnięcie tak
określonych celów jest związane z procesami rematerializacji i performatywizacji, które wyznaczają kierunki rozwoju sztuki biologicznej w ostatniej dekadzie19.
Z jednej strony, artyści coraz częściej tworzą dzieła sztuki z materiałów organicznych (wetwork), z drugiej, procesy przeprowadzane za pomocą określonych
technologii są prezentowane bezpośrednio w galeriach, dokonują się na oczach
widzów, a często przy ich aktywnym udziale. Dzieło sztuki – jak zauważył Paul
Vanouse – nabiera w takich warunkach cech kulturowo uwarunkowanego eksperymentu naukowego, galeria zaś staje się w pełni funkcjonalnym laboratorium
naukowo-artystycznym20. Nie chodzi tu jednak o proste przeniesienie naukowych
procedur w kontekst sztuki, lecz o wytworzenie niejednoznacznego, prowokującego, zaskakującego doświadczenia przez połączenie w jednym działaniu dwóch,
powszechnie uważanych za nieprzystawalne dziedzin ludzkiej aktywności. Powstający w ten sposób dysonans poznawczy sprawia, że „schwytany w sieć przeciwstawnych prawd widz jest zmuszony do ponownej oceny jego/jej własnych
uprzedzeń i przekonań”21. Prace amerykańskiego artysty stanowią przykład sztuki
biologicznej, w której nauka i biotechnologie są zarazem przedmiotem, jak i narzędziem artystycznej eksploracji rozumianej jako „krytyczna teoria kulturowa”22.
Sam Vanouse używał w odniesieniu do przyjętej strategii artystycznej określenia fikcja operacyjna (operational fiction)23. Wykorzystując biotechnologie jako
medium dyskursu artystycznego, przenosząc procedury badawcze w „niesterylne”, pozalaboratoryjne warunki instytucji sztuki, zderzając etos nauki z szeroko
rozumianym kontekstem kulturowym nie tylko odsłonił przed stosunkowo szeroką publicznością tajniki współczesnej biologii, ale przede wszystkim zadał pytanie o jej status i znaczenie dla ponowoczesnego społeczeństwa w nowym
milenium. Instalacje, których zasadniczym elementem są prawdziwe, wykonywane w zgodzie z rygorem naukowej metodologii procedury analizy i wizualizacji
sekwencji DNA, spełniają rzecz jasna funkcje edukacyjne, jednak przede wszyst18
19
20
21
22
23
M. Bakke (2009), Bio art – sztuka in vivo i in vitro, www.obieg.pl/teksty/4408 (dostęp:
12.11.2011 r.).
J. Hauser, Bio Art – Taxonomy of an Etyological Monster [w:] Hybrid. Living in Paradox. Ars Electronica 2005, red. G. Stocker, Ch. Schöpf, Hatje Cantz Varlag, Linz 2005,
s. 182–187.
P. Vanouse, The Relative Velocity Inscription Device [w:] Signs of Life: Bio Art and
Beyond, red. E. Kac, MIT Press, Cambridge, Massachusetts, Londyn 2007, s. 282.
P. Vanouse (2006), Contemplating „Meart – The Semi Living Artist”, www.paulvanouse.com/MEART_PV_essay.pdf (dostęp: 21.11.2011 r.).
R. Kluszczyński, W stronę (odnowionej) trzeciej kultury [w:] Digitalne dotknięcia, red.
P. Zawojski, Stowarzyszenie Make it Fun Production, Szczecin 2010, s. 11.
P. Vanouse, The Relative..., s. 278.
171
kim są formą metaforycznego komentarza skłaniającego do krytycznego namysłu. Eksperyment naukowy staje się fragmentem szerszej struktury dyskursywnej,
w której równie ważną rolę odgrywają inne, już niezwiązane bezpośrednio z nauką, elementy nawiązujące doń, ustanawiające nieoczywiste i nieoczekiwane porównania, sytuujące go w nowych kontekstach i otwierające nowe perspektywy
interpretacyjne. Biotechnologie tracą neutralny i zorientowany na czystą funkcjonalność charakter, przyjmując formę mediów kulturowych, sama zaś nauka jawi
się jako niezwykle znacząca, kształtująca świat i definiująca wyobrażenia na temat życia, lecz w żadnym razie nie wolna od zewnętrznych uwarunkowań dziedzina współczesnej kultury.
Mittożsamościgenetycznej
a kulturowystatusobrazówDNA
Osiągnięcia genetyki przyczyniły się do bezprecedensowego przewrotu
w kryminalistyce, pozwalając na niespotykaną wcześniej skuteczność w zwalczaniu przestępczości. Dają możliwość bezbłędnej identyfikacji podejrzanych osób
i określenia ich udziału w przestępstwie. Gromadzone w bazach danych informacje genetyczne pełnią funkcję prewencyjną, ułatwiając określenie kręgu jednostek
„niebezpiecznych”. Przyczyniają się jednocześnie do bardziej efektywnego monitorowania wszelkiej maści zbrodniarzy, przestępców, terrorystów czy po prostu
osób w jakikolwiek sposób przejawiających skłonności do zachowań niezgodnych
z prawem i porządkiem społecznym. Pełnią także funkcję identyfikacyjną w innych, mniej spektakularnych dziedzinach – ustalenie ojcostwa czy dowiedzenie
zdrady stały się wprost banalnie proste. Każdego można bowiem przyłapać na
kłamstwie za pomocą śladów genetycznych, których, w przeciwieństwie choćby do odcisków palców, nikt nie jest w stanie zatrzeć. Medialny obraz genetycznej inwigilacji upowszechnił przeświadczenie, że specyficzna konfiguracja kodu
DNA jest ostatecznym i niepodważalnym dowodem indywidualnej tożsamości.
Jedną z głównych aren, na których rozgrywa się spektakl genetycznej
transparentności, stały się sale sądowe. Choć trudno negować wpływ genetyki
na zmiany procedur dochodzeniowych i sądowych właśnie w tych obszarach najwyraźniej ujawnia się wpływ niewiedzy i generowanej przez ignorancję niepełnej,
fałszywej wizji genetyki. Zrealizowany w 2011 roku przez Vanouse’a projekt Suspect
Inversion Center odnosi się do jednej z najsłynniejszych spraw sądowych, w której
badanie próbek DNA odgrywało fundamentalną rolę. W 1994 roku amerykańską
opinią publiczną wstrząsnęła sprawa słynnego futbolisty Orenthala J. Simpsona,
który został oskarżony o zamordowanie dwóch osób, w tym swej byłej żony, a następnie uniewinniony od przedstawionych mu zarzutów ze względu na niewystarczalność dowodów zbrodni. Jednym z koronnych argumentów oskarżycieli
były próbki DNA, jednak, jak podkreślił Vanouse w opisie projektu, sprawa Simpsona „była pierwszym przypadkiem, gdy zespół obrońców wykazał się wystarczającą wiedzą w zakresie procedur naukowych, by obalić argumenty prokuratury”.
Suspect Inversion Center to performance, w trakcie którego na oczach widzów Vanouse i jego współpracownicy wytworzyli dokładną replikę obrazu DNA
wykorzystanego w trakcie historycznego procesu. Identyczny obraz sekwencji
kodu powstaje w czasie rzeczywistym w trakcie performance’u, jednak materiał
genetyczny służący do przeprowadzenia eksperymentu pochodzi od artysty.
Próbki, pobrane od dwóch różnych osób, poddane określonej obróbce, zyskują identyczną reprezentację wizualną. W ten sposób zostaje zakwestionowany
dogmat o nieomylności genetycznej identyfikacji. Istotą problemu nie jest jednak zgodność genetycznego oryginału z jego wizualizacją, lecz wpływ procedur naukowych na uzyskiwane rezultaty. Tworzony w zgodzie z regułami nauki
172
obraz DNA zyskuje status artefaktu, sam proces zaś upodabnia się do, jakże dalekiego od naukowej transparentności i obiektywności, kopiowania dzieł sztuki.
Prowadząc analogię między analizą i wizualizacją kodu DNA a falsyfikacją oryginalnych dzieł sztuki, Vanouse ujawnił, z jednej strony, nieprawomocność przeświadczenia o niepodważalnym charakterze identyfikacji genetycznej, z drugiej
zaś, zwrócił uwagę na fakt, że obraz DNA posiada status „kulturowo konstruowanego artefaktu”24. Jest produktem określonych procedur, które z kolei okazują się
zależne od warunków technicznych, ale też, a może przede wszystkim, mogą podlegać intencjonalnym manipulacjom. Zastosowanie określonych procedur zależy
bowiem od decyzji prowadzących badanie laborantów, a zatem podlega ekonomicznym, etycznym, ideologicznym, politycznym uwarunkowaniom.
Performance SCI oraz inne wcześniejsze realizacje Latent Figure Protocol
(2007–2009) i Occular Revision (2010), w których Vanouse manifestował kreacyjny
potencjał wizualizacji sekwencji DNA w procesie elektroforezy żelowej, ukazują
siłę kulturowego oddziaływania mitu obiektywności nauki. Przede wszystkim wywołują pytania o rolę medialnych reprezentacji DNA w kształtowaniu fałszywych
przekonań o genetyce i możliwościach aplikacji osiągnięć biologii molekularnej
w codziennym, pozalaboratoryjnym życiu. Jeśli znajomość procedur naukowych
pozwala wytworzyć właściwie dowolny obraz z tych samych próbek genetycznych w trakcie działań artystycznych, to oczywisty staje się fakt, że preparowanie
obrazu DNA może być niezwykle silnym narzędziem do manipulacji opinią publiczną. Znajomość procedur naukowych okazuje się w tym momencie jedną z podstawowych kompetencji aktywnych uczestników życia publicznego i pozwala na
świadomy opór wobec intencjonalnie bądź bezwiednie upowszechnianych wypaczonych wyobrażeń i przesądów. Przywołane prace Vanouse’a odsłaniają błąd,
a może mistyfikację, na których jest zbudowane porównania kodu genetycznego
do linii papilarnych i metafora „portretu genetycznego”. Genetyka odsłania nowe,
wcześniej nieznane aspekty życia i zmusza do rewizji wielu od wieków ustalonych wyobrażeń na jego temat, jednak z pewnością nie stanowi ostatecznego
rozwiązania problemu jednostkowej identyfikacji. Naturalizacja błędnych przekonań w duchu naukowej obiektywności nie zmienia faktu, że „natura nie zaopatrzyła naszych ciał w DNA jako osobistego systemu identyfikacji”25.
Postbiologicznailuzjacybernetyczna
Z przeświadczeniem o możliwości jednostkowej identyfikacji na podstawie
kodu DNA jest powiązane rozumienie genotypu jako podstawy wszelkich form
życia, znajdujące wyraz w metaforze „kodu życia”. Nie sposób negować znaczenia
kodu genetycznego dla ukształtowania konkretnych form organicznych, jednak
zbyt silne akcentowanie jego roli jako czynnika determinującego rozwój osobniczy
to forma naukowego redukcjonizmu, którego efektem jest wyobrażenie sprowadzające życie do poziomu abstrakcyjnego kodu. Rozumienie takie kodu DNA – jak
zauważył Oron Catts26 – jest totalnym uproszczeniem i prowadzi do niezrozumienia złożoności procesów życiowych oraz ograniczenia różnorodności biologicznej.
Faworyzując genotyp względem fenotypu, można stracić z pola widzenia złożony system uwarunkowań wewnętrznych i zewnętrznych, biologicznych, ale też
24
25
26
P. Vanouse, Discovering Nature Apparently: Analogy, DNA Imaging and the Latent Figure Protocol [w:] Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita, MIT Press, Cambridge, Massachusetts, Londyn 2008, s. 177.
Tamże, s. 181.
O. Catts, I. Zurr, The Ethics of Experiential Engagement with the Manipulation of Life
[w:] Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita,
MIT Press, Cambridge, Massachusetts, Londyn 2008.
173
społecznych i kulturowych. W tej perspektywie fenomen życia jest opisywany
w oderwaniu od konkretu, od materii, od ciała, dzięki czemu uzyskuje się sterylnie czystą, lecz zarazem cząstkową i z zasady fałszywą wizję życia.
Krytyka geocentryzmu stanowi jeden z zasadniczych rysów wszystkich
prac Vanouse’a, jednak szczególne miejsce zajmuje w Ocular Revision. Także w tej
realizacji jest wykorzystany proces sekwencjonowania DNA. W tym przypadku
jednak krytyczny potencjał pracy wynika nie tylko z niestandardowego podejścia do wizualizacji kodu, ale także z konstrukcji urządzeń służących elektroforezie.
Normalnie wykorzystywane w laboratoriach, a także w innych realizacjach artysty, podłużne, prostokątne naczynie, zostało zastąpione w tej pracy zaprojektowanym przezeń okrągłym pojemnikiem z polaryzacją od wnętrza na zewnątrz
okręgu. Dzięki takiej konstrukcji próbki DNA rozchodzą się w żelu promieniście od
centrum do brzegów naczynia. Konstrukcja aparatu i jego funkcjonalność mają
w tym przypadku charakter dyskursywny. Rezygnując ze standardowych narzędzi wizualizacji DNA, artysta wskazuje, że ich wybór ma bezpośredni wpływ na
konstruowany obraz, a tym samym kształtuje powszechne wyobrażenie na temat specyfiki kodu genetycznego. Uzyskiwany tradycyjną metodą wizualizacji
obraz sekwencji kodu jest odzwierciedleniem kształtu naczynia, ale jednocześnie złożone z szeregu podobnej wielkości elementów prostokątne smugi DNA są
utrzymane w cybernetycznym kodzie wizualnym. Ich modularna struktura, bazowanie na kątach prostych i dwuwymiarowej siatce koordynatów x, y przypomina „schodkową” formę wizualną sygnału cyfrowego, samo zaś powstawanie
obrazu kojarzy się wprost z paskiem postępu obrazującym stan zaawansowania
wykonywanych przez komputer operacji liczbowych.
Zdaniem Vanouse’a stosowanie w genetyce takiej formy wizualizacji DNA
wynika z przyjęcia wzorców cybernetycznej wyobraźni wizualnej. Forma zewnętrznej reprezentacji DNA nie pozostaje bez wpływu na sposób rozumienia
i interpretacji procesów molekularnych. Przeciwnie, wizualna forma sekwencji
kodu ułatwia przeniesienie znaczeń przypisywanych sztucznym kodom cyfrowym
na biologiczny kod organizmów żywych, co skutkuje ich nieuprawnionym utożsamieniem. Powstająca w ten sposób hybryda informatycznej genetyki jest źródłem
geocentrycznego redukcjonizmu i determinizmu. Gdy gen zostaje utożsamiony
z bitem informacji, znika jego materialność, powiązanie z ciałem i związek z żyjącym organizmem. Wizja rządzącego życiem od wnętrza, jednak niezależnego od
zewnętrznej formy życia kodu, jest zdaniem amerykańskiego artysty bezpośrednią realizacją cybernetycznej idei odcieleśnionej inteligencji. „DNA rozumiane jako
kod realizuje cybernetyczną fantazję, w której nieskończona różnorodność wilgotnych organizmów jest w ostatecznym rozrachunku zastąpiona łatwo mierzalnym
kodem genetycznym, z założenia sprawującym całkowitą kontrolę nad ciałem”27.
Cybernetyczne ujęcie kodu genetycznego prowadzi do paradoksalnej
sytuacji, w której fenomen życia jest interpretowany przez pryzmat determinującej je nieżywej substancji, którą postrzega się już nie w kategoriach biologicznych, lecz abstrakcyjnych, matematycznych. Przedstawione wyżej przesunięcie
znaczeniowe prowadzi do przeświadczenia, że kod genetyczny podlega takim
samym prawom jak kod cyfrowy. Przeświadczenie to znajduje odzwierciedlenie
w powszechnym mniemaniu, że podstawowym obszarem badawczym biologii
są manipulacje genetyczne. Geny są traktowane natomiast jako samoistne, izolowane cząsteczki, które układają się niczym klocki w łatwo rekonfigurowalne
27
P. Vanouse (2011), Dualisms: Complexity vs. Reductionism alongside Biology and Postbiology, http://isea2011.sabanciuniv.edu/paper/vida-new-discourses-tropes-andmodes-art-and-artificial-life-research (dostęp: 21.11.2011 r.).
174
struktury. „Wysuszenie” DNA, oderwanie go od wilgotnego kontekstu materii stanowi fundament zwrotu paradygmatycznego prowadzącego od biologii do ery
postbiologicznej. Postbiologiczna wersja nauk o życiu zakłada prymat „hiperracjonalnej obserwacji statystycznej”28, w której żyjąca materia jawi się jako wtórna i zależna od nieorganicznego, czystego kodu, istota życia zaś jest lokowana
poza żyjącymi organizmami.
Ocular Revision przedstawił alternatywny sposób rozumienia genetyki i samego kodu. Okrągłe naczynie do elektroforezy pozwala na uzyskanie zupełnie
innych obrazów DNA, które są bliższe formom organicznym. W ten sposób na
poziomie ikonicznym zostaje przekroczony wpływ cybernetycznego obrazowania i ideologii. Równocześnie, sekwencje kodu układają się w kształty przypominające kontynenty, co można traktować jako symboliczną rematerializację kodu
i próbę przywrócenia właściwych proporcji między wnętrzem i zewnętrzem, salą
mikro i makro, poziomem molekularnym i planetarnym, genotypem i fenotypem.
Determinizmgenetycznyi postbiologicznagenomika
Żyjemy w dobie mutacji genetycznych. Biologia molekularna jest w stanie
wyselekcjonować i określić podstawowe elementy kodu genetycznego odpowiedzialne za określone właściwości i predyspozycje organizmów. Fakt ten przynosi
z jednej strony nadzieje na rozwiązanie licznych problemów społecznych – likwidację chorób, głodu, regulację i racjonalizację przyrostu naturalnego – ale równocześnie budzi obawy związane z trudnymi do przewidzenia efektami manipulacji
genetycznych zarówno dla poszczególnych jednostek, gatunków, jak i globalnego ekosystemu. Także znajomość ludzkiego genomu rodzi pokusę „poprawiania
natury” opartą na postbiologicznej selekcji genetycznej. Sprowadzenie złożonych
organizmów do poziomu molekularnego wiąże się wprost z rozumieniem kodu
genetycznego jako kodu życia, programu, który steruje życiem i realizuje się w egzystencji poszczególnych jednostek. O ile jednak kreowanie nowego, lepszego
człowieka na mocy manipulacji genetycznych należy do niedalekiej prawdopodobnie, ale jednak przyszłości, o tyle dyskryminacja genetyczna stała się już jednym z rysów współczesnego społeczeństwa.
Jak zauważył Lori B. Andrews, ani brak uregulowań prawnych, ani jasne
wnioski płynące z badań naukowych przeczące istnieniu twardego determinizmu genetycznego nie zmieniają faktu, że genotyp stał się już narzędziem dyskryminacji w rękach firm ubezpieczeniowych i pracodawców29. Wyścig genów
już trwa i choć łatwiej w nim o przegranych, gdyż ocean genotypu skupia się
przede wszystkim na określeniu negatywnych aspektów kodu, to jego efekty są
trudne do przecenienia, a konsekwencje dość proste do przewidzenia. „Wielu krytyków zwraca uwagę, iż wraz z przeniesieniem zainteresowania genetyki z ciała na badania nad mikrociałem; z form na ich podstawę w postaci kodu; wzrasta
zagrożenie subtelnymi formami naukowego rasizmu, takimi jak rasizm genetyczny czy molekularny”30.
Kwestie te podjął Vanouse przede wszystkim w interaktywnej instalacji
Relative Velocity Inscription Device (2002), która jest kontekstualną analizą genomiki i leżących u jej podstaw przesądów genetycznych. Centralnym elementem
instalacji jest traktowany dosłownie wyścig genów, który odbywa się w przypominającym podłużnym kształtem lekkoatletyczną bieżnię czy basen olimpijski
28
29
30
Tamże.
L.B. Andrews, Art as a Public Policy Medium [w:] Signs of Life: Bio Art and Beyond, red.
E. Kac, MIT Press, Cambridge, Massachusetts, Londyn 2007, s. 130.
P. Vanouse, The Relative..., s. 277.
175
naczyniu do elektroforezy żelowej. Umieszczone zostały w nim próbki kodu genetycznego odpowiadające za kolor skóry czworga przedstawicieli dwurasowego
klanu Vanouse – rodziców Paula, jego siostry i jego samego. Wyścig był transmitowany w czasie niemal rzeczywistym (do uchwycenia powolnego ruchu próbek
została wykorzystana rejestracja poklatkowa) i prezentowany na ekranie w postaci opracowanej komputerowo wizualizacji. Wybór uczestników wyścigu nie był
przypadkowy. Rodzina Vanouse pochodzi z Jamajki, której silnie zróżnicowana
rasowo populacja stała się u progu minionego stulecia przedmiotem pseudonaukowych badań prowadzonych przez ojca założyciela amerykańskiej eugeniki
Charlesa B. Davenporta. Zbierająca plon jego poszukiwań książka Race Crossing
in Jamaica (1929), opublikowana na początku Zagłady, stanowi istotny element
instalacji. Obfitująca w urągające naukowej obiektywności obserwacje, bogata
w absurdalne wnioski, pełna uprzedzeń rasowych wyznacza trudny do przekroczenia poziom naukowego rasizmu. Stanowi swoiste memento, ostrzega przed
zbytnią ufnością i bezkrytyczną akceptacją naturalizowanych przez wykorzystanie naukowego stylu, a jednak skrajnie dalekich od obiektywności, fałszywych
czy wręcz intencjonalnie zniekształcających rzeczywistość rewelacji. Zbudowania na fundamencie metod biometrycznych eugenika nie była niczym innym niż
próbą naukowego dowiedzenia nienaukowej tezy o wyższości białej rasy, dostarczając jednocześnie argumentów na rzecz stosowanej inżynierii rasowej. Stanowiła prawdopodobnie najbardziej jaskrawy przykład wykorzystania nauki w służbie
ideologicznej. Dostarczyła energii dla zbiorowej histerii i szaleństwa zakończonego tragedią Holokaustu.
Zestawienie książki Davenporta z ujętym w ironiczną klamrę sportowej
rywalizacji procesem elektroforezy DNA nie oznacza zrównania biologii molekularnej z eugeniką. Porównanie to prowadzi jednak do pytań o wpływ dyskursu
naukowego na świadomość społeczną, a przede wszystkim na rozwój i propagacje stereotypów i przesądów. Potraktowanie naukowej procedury sekwencjonowania DNA jako wyścigu genów jest tak samo absurdalnym zabiegiem, jak
dowodzenie wyższości białej rasy na podstawie pomiarów czaszki, a jednak, jak
się okazuje, posiada równie potężną siłę oddziaływania na wyobraźnię społeczną. Wynik wyścigu nie zależy od siły genów, lecz zastosowanej procedury, gdyż
tempo przemieszczania się próbki w żelu jest wypadkową jej wielkości i nie ma
nic wspólnego z jakością sekwencji. Większa próbka porusza się szybciej, kluczową zaś rolę w rozstrzygnięciu rywalizacji odgrywa przygotowujący próbki laborant. Ukazując bezpośrednie uzależnienie osiąganych rezultatów od procedur
badawczych i specyfiki stosowanych narzędzi, Vanouse kładł akcent na konieczność uwzględnienia czynnika ludzkiego. Nauka zawsze powstaje w kontekście
indywidualnego światopoglądu, przekonań i intencji badaczy, i jednocześnie stanowi wypadkową społecznych wyobrażeń, pragnień i lęków.
Działająca na wyobraźnię metafora „kodu życia” nie tylko faworyzuje genotyp względem fenotypu, ale przede wszystkim stwarza mentalne warunki do
zaistnienia postbiologicznego, nieodwołującego się już do cielesnych cech zewnętrznych, lecz opartego na wewnętrznej, molekularnej determinacji rasizmu.
Perspektywa rasizmu genetycznego jest tym groźniejsza, im „kod życia” pozostaje
poza granicami naturalnej percepcji, a co za tym idzie, jego dostrzeżenie, badanie,
analiza i wyciągane na ich podstawie wnioski są ufundowane na wykorzystaniu
„protez percepcyjnych” w postaci procedur badawczych i biotechnologii. Tym
samym profil genetyczny jednostki nie jest po prostu odkrywany, lecz konstruowany w oderwaniu od konkretnej manifestacji cielesnej i warunków środowiskowych. Wyabstrahowana z organizmu mapa genetyczna może funkcjonować jako
swego rodzaju fatum obciążające jednostkę i całe grupy społeczne. Bałwochwal-
176
czy stosunek do ustaleń genetyki w połączeniu z naturalizacją procedur naukowych tworzą natomiast warunki wyjątkowo sprzyjające rozwojowi wszelkich form
dyskryminacji genetycznej. W RVID Vanouse analizował proces „molekularyzacji
stereotypów rasowych”31, jednak podobne mechanizmy mogą dotyczyć właściwie wszelkich aspektów życia widzianego przez pryzmat odcieleśnionego kodu.
Rozważania dotyczące genetycznego determinizmu prowadzą wprost do
kwestii mapowania genetycznego. Mapa DNA, jak każda mapa, nie jest prostym
odwzorowaniem przestrzeni, lecz w równym stopniu zostaje zapisany w niej sposób postrzegania rzeczywistości, charakterystyczny dla jej twórcy, i specyfika wykorzystywanych narzędzi kartograficznych. Molekularna kartografia niesie jednak
ze sobą jeszcze jedno, znacznie poważniejsze zagrożenie. Opisywany za pomocą
mapy obszar nie istnieje bowiem w percepcji poza mapą. Przedmiot obserwowany w doświadczeniu percepcyjnym jest dostępny tylko w postaci swej medialnej
reprezentacji. Eliminując łatwe do wyobrażenia teorie spiskowe, nie sposób jednak
pominąć zagrożeń wynikających z pokusy manipulacji. Szczególnie w przypadku genetyki linia dzieląca wiarygodne odwzorowanie od kreatywnej manipulacji
jest bardzo cienka. Problem ten w bezpośredni sposób ukazuje realizacja Ocular Revision, w której analiza DNA jest wykorzystana jako narzędzie do stworzenia mapy kontynentów, sekwencje kodu zaś stają się materiałem i medium sztuki
na podobieństwo farb, kamienia czy światła. Praca ta prowokuje do postawienia
wielu pytań ujawniających niestabilny status poznawczy genetyki we współczesnej kulturze. Na ile obserwowana wizualizacja sekwencji DNA jest wiarygodnym
przedstawieniem genetycznej specyfiki analizowanej próbki? Jak można dowieść,
że dany obraz przedstawia sekwencję DNA wyabstrahowaną z konkretnej próbki? Czy istnieją, a jeśli tak, to na jakich zasadach są oparte, procedury zapewniające zgodność próbki i obrazu? W jaki sposób można sprawdzić wiarygodność
percepcyjnej reprezentacji kodu? Jakie znaczenie w kształtowaniu powszechnego wyobrażenia o genetyce ma specyfika wykorzystywanych narzędzi? Ostania
kwestia nabiera szczególnego znaczenia z chwilą, uświadomienia sobie, że biologia molekularna nie tylko pozwala na określenie mapy genetycznej człowieka,
lecz zarazem mapa genetyczna może w znacznym stopniu determinować człowieka. Nie jest neutralnym odwzorowaniem rzeczywistości, lecz niemożliwym
do uniknięcia ideologicznym jej przetworzeniem.
Biotechnologiejakomediumkulturowe
Zarówno sposób wykorzystania biologii i biotechnologii w kontekście sztuki, jak i podejmowane przez amerykańskiego artystę tematy pozwalają sytuować
jego twórczość w nurcie taktycznego bio artu32. Jego prace dotyczą relacji pomiędzy sztuką, nauką i polityką, opierają się na przekraczaniu tych granic i zarazem
są zorientowane na krytyczny transdyscyplinarny dialog. Pokazują, w jaki sposób
dziedziny te przenikają się, wpływają na siebie i wzajemnie inspirują, ale zarazem
ujawniają ideologiczne i ekonomiczne uwarunkowania, które funkcjonują ponad
czy raczej poniżej wytyczonych granic pomiędzy poszczególnymi dziedzinami.
Sztuka biologiczna przyjmuje postać krytycznego dyskursu i aktywistycznej interwencji dotykającej podstaw biopolityki i biowładzy w nowym Wieku Biologii.
Prowadzona przez Vanouse’a taktyczna gra z biopolityką zakłada krytyczne nastawienie do wiedzy tak specjalistycznej, zamkniętej w homogenicznych strukturach tradycyjnego systemu akademickiego, jak i będącej jej ekstensją i zarazem
31
32
Tamże.
Zob. Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita,
MIT Press, Cambridge, Massachusetts, Londyn 2008.
177
zdeformowanym odbiciem powszechnej świadomości zmian w obszarze biologii
i sposobów funkcjonowania biotechnologii. Jest to jednocześnie taktyka kosmopolityczna i taktyka bioremediacji33 oparta na upowszechnianiu wiedzy eksperckiej, translacji dyskursu naukowego, ale przede wszystkim wielostronnej dyskusji.
Ponieważ tylko otwarcie na odmienne punkty widzenia oraz transdyscyplinarną,
wielowymiarową interpretację ukazującą problemy stawiane przez współczesne
nauki o życiu w szerokim społeczno-kulturowym kontekście daje szansę na oswojenie i oswojenie się z biologiczną rewolucją.
Realizacje pochodzącego z Jamajki artysty łączą w sobie krytyczny komentarz na temat nauki z silnym zaangażowaniem społecznym. Tym samym spełniają wszystkie wymienione przez Lori B Andrews warunki sztuki rozumianej jako
medium dobra publicznego (public policy medium)34. Upowszechniają wiedzę
o biologii i biotechnologiach, jednocześnie wskazując na konsekwencje wynikające z możliwości manipulacji życiem na poziomie molekularnym. Pokazują szanse, jakie oferują biotechnologie, ale i ich ograniczenia, stawiając zarazem etyczne
pytania dotyczące tak samych procedur, jak i społecznych i kulturowych implikacji ich szerokiego stosowania. Pozwalają lepiej zrozumieć rozwój genetyki i szerzej
nauk o życiu, a jednocześnie ukazują kulturowy wymiar tego, co „mokre”, naturalne, biologiczne. Stanowią last but not least, formę racjonalnego, opartego na
rzetelnej wiedzy, a nie na przesądach, oporu wobec medialnego szumu oscylującego pomiędzy biegunami fascynacji i przerażenia nową Erą Biologii. Oporu
wobec procesów naturalizacji i mitologizacji naukowej wiedzy, działających jednocześnie i paradoksalnie wzajemnie wspierających się w produkcji fałszywych
przekonań o biologii i biotechnologiach. Oporu, który realizuje się przez zmuszenie nauki, by porzucając „ezoteryczny kod komunikacyjny »przemówiła« w szerszym języku kultury”35.
33
34
35
J. Dumit, Foreword: Biological Feedback [w:] Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita, MIT Press, Cambridge, Massachusetts, Londyn 2008, s. 11–13.
Andrews L.B., Art as a Public..., s. 126.
P. Vanouse, Discovering Nature..., s. 178.
178
Teorie mindware
Wokół interfejsów
Sztuka mediów
Mindware: technologie umysłu i umysł technologiczny w perspektywie antropologii mediów
i badań nad komunikacją
Anna Maj
181
Any invention or technology is an extesion or self-amputation
Marshall McLuhan1
Szumy i zombie przed telewizorem
W 1968 roku Umberto Eco napisał niezwykły szkic o odkryciu Ameryki
przez Krzysztofa Kolumba2. W zasadzie można by go nazwać historycznym opowiadaniem science fiction, odkrycie nowego kontynentu w 1492 roku jest w nim
bowiem relacjonowane dzięki transmisji telewizyjnej w czasie rzeczywistym.
Transmisja odbywa się przy zachowaniu wszelkich reguł, a także wad i zalet medium telewizji lat 60. XX w. Jest to zatem opowiastka na temat tego, jak wyglądałoby odkrycie Ameryki, gdyby telewizja istniała w czasach Kolumba. Dodać
trzeba, że Eco umiejętnie bawi się, przywołując postaci ze świata nauki, filozofii,
religii i sztuki, które występują w roli telewizyjnych ekspertów komentujących
zdarzenie. Jak wyglądałaby historia kultury, gdyby poprzednie epoki dysponowały medium masowym? Czy moglibyśmy mówić o Odrodzeniu, wielkich ideach
religijnych i prądach filozoficznych, jakie znamy? Czy nauka i sztuka mogłyby funkcjonować i wydawać owoce w postaci tego, co znamy dziś jako klasyczne dzieła
sztuki i założycielskie dla naszej cywilizacji teksty naukowe z różnych dyscyplin?
A może właśnie już prasa, radio i telewizja – jeszcze przed mediami cyfrowymi –
stwarzają coś, co można by nazwać mindware, a co sprawia, że te wszystkie dzieła
i myśli nie mogłyby nigdy powstać i zaistnieć w zbiorowej świadomości, gdyby
media masowe były rozpowszechnione w XV i XVI wieku? A może jest inaczej –
każda epoka i każde medium wytwarza swoisty mindware?
Wkraczamy tu oczywiście na teren rozważań prowadzonych nieco wcześniej przez Marshalla McLuhana. W pewnym sensie, choć Eco krytykował McLuhana, pisząc swój tekst o odkryciu Ameryki, złożył hołd myśli autora z Toronto.
Odkrycie Ameryki odwołuje się zarówno do transmisji lądowania na Księżycu,
którą z zapartym tchem śledziła znaczna część ludzkości (w tym i McLuhan), do
transmisji wydarzeń sportowych, jak i do książki Zrozumieć media kanadyjskiego
myśliciela3. Esej włoskiego semiologa jest jednocześnie niezwykle elokwentną
opowieścią o wielu poziomach braku komunikacji w medium komunikacyjnym:
szumach komunikacyjnych związanych z problemami technicznymi, wynikającymi z transmisji sygnału radiowego i telewizyjnego oraz braku możliwości porozumienia się za pomocą medium masowego nastawionego na hiperkomunikację
oznaczającą w istocie antykomunikację, a także o głupocie prezenterów, uniemożliwiającej zrozumienie przekazu zapraszanych do studia specjalistów, oraz
o ideologicznej roli telewizji. Chociaż pierwszy aspekt ma charakter czysto techniczny, wywołuje chaos komunikacyjny na poziomie międzyludzkim4.Z drugiej
strony, brak porozumienia zależy nie tylko od samej technologii, ale i od charakterystyki retoryki medium – pośpiechu, nastawienia na emocje i atrakcyjność
1
2
3
4
M. McLuhan, Understanding Media. The Extensions of Man, Massachusetts 1994, s. 45.
U. Eco, Odkrycie Ameryki [w:] Diariusz najmniejszy, przeł. A. Szymanowski, Kraków
1995, s. 122–130.
M. McLuhan, Understanding… Mam tu na myśli zwłaszcza jego propozycję rozumienia bezpośredniego związku pomiędzy różnymi mediami i kulturą, określaną
jako deterministyczną koncepcję mediów (1964).
Sprawa momentami jest jeszcze bardziej skomplikowana, gdyż to sami eksperci
mogą dostarczać przekazu w formie szumu – jak profesor Leonardo da Vinci, który w czasie transmisji telewizyjnej mówi wspak, co wymaga specjalnego dekodowania i translacji na kod zrozumiały dla interaktorów i odbiorców oraz powoduje
opóźnienie sygnału komunikacyjnego o kilka sekund. Por. Eco, Odkrycie…, s. 124.
183
wizualną, nie na wartościowy (w sensie komunikacyjnym, społecznym czy etycznym) i logiczny dyskurs. To ten aspekt, który dwie dekady później Neil Postman,
pisząc o telewizji jako współczesnej Huxleyowskiej somie, nazwał nastawieniem
na wiarygodność, która zastępuje rzeczywistość i która ma więcej wspólnego
z dobrym wyglądem niż z prawdą5. Antykomunikacyjność można zatem potraktować jako swoisty paradygmat komunikacyjny (a może mindware) telewizji – charakterystyczny sposób budowania emocjonalnej świadomości odbiorcy
poprzez przekonujący obraz i uwiarygodniający go komentarz. Tym samym nawet przebłyski rzeczywistości, które nieoczekiwanie może ujawnić transmisja,
w rodzaju uwagi majtka Parodiego w eseju Eco, stanowią tak niezwykłą rzadkość, że trudno mówić tu o ich sile anihilowania wszechmocy hipnotycznego
działania medium. Eco wydaje się zdawać sobie z tego sprawę, wpadka słowna
majtka („O rany, admirale, są nagie!”) zostaje szybko i zgrabnie zatarta słowami
admirała Kolumba („To mały krok dla majtka, ale ogromny dla Jego Królewskiej
Katolickiej Mości”) i natarczywym komentarzem prezentera telewizyjnego, który
jednocześnie wygłusza dźwięk transmitowany w czasie rzeczywistym jako niosący potencjalnie niebezpieczne treści.
Wydaje się, że uwagi McLuhana i Eco na temat siły oddziaływania telewizji najlepiej podsumowuje Derrick de Kerckhove, badacz młodszego pokolenia
szkoły z Toronto. W jego ujęciu (zgodnym oczywiście z tradycją McLuhanowską)
działanie telewizji w zasadzie polega na oddziaływaniu somatycznym, nie semiotycznym (a przynajmniej: nie tylko i nie przede wszystkim semiotycznym). Ciała
odbiorców poddawane są bodźcom na poziomie czysto fizjologicznym: obrazy są wyświetlane na siatkówce oka odbiorcy i wywołują rodzaj hipnotycznego
transu, którego głównym przekazem jest transmisja zbiorowej świadomości6.
Nowe technologie wpływają na użytkowników w nieco inny sposób niż
mass media na swoich odbiorców. Oczywiście, jeśli wziąć pod uwagę kontekst teorii komunikacji, nawet siła wpływu telewizji bywała kwestionowana. Ostatecznie,
większość współczesnych badaczy nie zgodziłaby się na model proponowany
przez deterministów technologicznych jako odnoszący się w pewnym zakresie do
zweryfikowanej teorii silnego oddziaływania mediów masowych na odbiorców.
Teorie z lat 60. XX w. i późniejsze, kwestionują jednoznaczność i bezwzględność
wpływu mediów (w sensie odbioru treści). Derrick de Kerckhove, kontynuując
i rozwijając podejście McLuhana, mówi jednak o czymś innym – nie chodzi mu
o pasywność odbiorcy i nieumiejętność analizy treści o charakterze ideologicznym czy wręcz propagandowym. Nie kwestionuje semiotycznych kompetencji
telewidzów. Jego analiza dotyczy psychosomatycznego wpływu medium, czyli tego poziomu, który zazwyczaj pomijany jest przez socjologów i komunikologów w badaniach. De Kerckhove, pisząc o powłoce, czy raczej skórze kultury,
mówi o bezpośrednim i dyskretnym wpływie mass mediów na aparat percepcyjny i mózg. Dyskretnym w sensie, w jakim dziś mówi się o nowych technologiach,
wszędobylskich, masowo zbierających i analizujących dane, a jednocześnie – niezauważanych, gdyż ukrytych przed użytkownikiem i jego świadomością.
Rodzaj wpływu, o jakim pisze de Kerckhove, dotyczy w równej mierze
mass mediów epoki przedcyfrowej i cyfrowej, jak i mediów elektronicznych. Dzisiejsze miasta, nasycone reklamami i migającymi ekranami oraz trudnymi do zauważenia tagami, znacznikami RFID, kodami kreskowymi i matrycowymi, a także
5
6
N. Postman, Zabawić się na śmierć, przeł. L. Niedzielski, Warszawa 2002, s. 149.
D. de Kerckhove, The Skin of Culture: Investigating the New Electronic Reality, red.
Ch. Dewdney, Toronto 1995 [polskie tłumaczenie: D. de Kerckhove, Powłoka kultury. Odkrywanie nowej elektronicznej rzeczywistości, przeł. W. Sikorski, P. Nowakowski,
Warszawa 1996]. Por. McLuhan, Understanding…, s. 308–337.
184
generowanymi oddolnie vlepkami, napisami na murach i informacjami, tworzą
swoisty organizm, którego bogactwo informacyjne jest postrzegane jako naturalne środowisko współczesnego człowieka. Tymczasem, jak daleki środowisku
naturalnemu jest to ekosystem, ujawnić mogą problemy natury okulistycznej,
coraz częstsze wśród przedstawicieli rozwiniętych społeczeństw i masowo powiązane z życiem przed komputerem. Dopiero gdy światło nas razi, dostrzegamy,
że trudno przemieszczać się w przestrzeni miejskiej, nie będąc wystawionym na
promienie świetlne z licznych ekranów i monitorów, które praktycznie są wszędzie7. Oczywiście, jest to ten rodzaj bodźców, które są dostrzegalne – a przecież
trzeba pamiętać o technologiach, które wpływają na nasze ciała w sposób bardziej subtelny i podświadomy.
Psychotechnologie i media w podróży
Jedną z technologii, na które warto zwrócić szczególną uwagę w kontekście rozważań nad mindware, jest bez wątpienia GPS (Global Positioning System).
Interesującego, choć specyficznego przykładu na istnienie związku pomiędzy
posiadaniem i wykorzystaniem technologii a powstawaniem świadomości jednostkowej i społecznej dostarcza analiza wpływu technologii GPS na życie codzienne i pamięć kulturową Inuitów z Igloolik w regionie Nunavut w Kanadzie.
Badania nad wpływem technologii geolokalizacyjnej na tę kulturę prowadzili antropologowie Claudio Aporta i Eric Higgs8. Studium terenowe z badań zamieścili w „Current Anthropology”, wysoko cenionym tradycyjnym czasopiśmie
antropologicznym, na łamach którego problemy związane z nowymi technologiami pojawiają się sporadycznie. Nie dziwi to wobec faktu, że antropologia dosyć późno zaczęła traktować media jako artefakty kultury.
Zainteresowanie badaczy wpływem technologii na orientację i pamięć kulturową Inuitów wzbudziły relacje o częstych wypadkach młodych myśliwych, którzy mimo posiadania skuterów śnieżnych i odbiorników GPS gubili się i zamarzali
w trakcie wypraw na polowanie, nie potrafiąc wrócić do rodzinnej wioski. Technologia, zwłaszcza w ekstremalnych zimowych warunkach, bywa zawodna – odbiornik GPS zamarza lub kończy się w nim bateria; skuter śnieżny jest nieprzydatny,
gdy skończy się paliwo lub maszyna ulegnie usterce. Sytuacje tego typu zazwyczaj kończą się więc tragicznie. Przedstawiony stan rzeczy wiąże się bezpośrednio z erozją więzi międzypokoleniowych i odejściem od tradycyjnych oralnych
metod edukacji dzieci, które wiązały się z nieustannym treningiem obserwacji
przyrody, a zwłaszcza terenu i pogody9. W ciągu ostatnich dekad nowe technologie stawały się stopniowo dostępne dla Inuitów, a jednocześnie część tradycji
i norm społecznych zanikała. Dotyczy to również narracji geograficzno-przyrodniczej oraz przekazywania umiejętności orientacji w terenie i specyficznych metod survivalowych przydatnych podczas długich wypraw myśliwskich.
Kultura oralna Inuitów, oparta dotąd na wielokrotnie powtarzanym ustnym przekazie wielopokoleniowej wiedzy i doświadczeń, staje się również ofiarą nowych technologii. Zapominając pozornie jedynie myśliwskie opowieści
7
8
9
Interesujące w tym kontekście wydają się eksperymenty artystyczne Toshio Iwai,
który zajmuje się między innymi obukierunkową translacją obrazu i dźwięku, również w przestrzeni miejskiej. Por. T. Iwai, Beyond Media, Connecting Senses [w:] Simplicity – the art of complexity. Ars Electronica 2005, red. G. Stocker, Ch. Schöpf , Linz 2005,
s. 124–131.
C. Aporta, E. Higgs, Satellite Culture. Global Positioning Systems, Inuit Wayfinding, and
the Need for a New Account of Technology, „Current Anthropology” 2005, vol. 46, nr
5, s. 729–753.
Szerzej o tym piszę w książce: A. Maj, Media w podróży, Katowice 2010, s. 182–186.
185
o tym, gdzie należy szukać karibu czy innych zwierząt, Inuici tracą bowiem jednocześnie część swojej tożsamości – wiedza o przestrzeni przekazywana była
dotąd poprzez narracje o charakterze mitycznym, konstytutywnym dla tej kultury. Jednocześnie tradycyjny system edukacji pielęgnował więzi wspólnotowe,
rozumienie przyrody i wiedzę o przetrwaniu oraz wyznaczał określone i sprawdzone sposoby radzenia sobie w trudnym środowisku – opowieści słyszane
i powtarzane przez Inuitów przez całe życie, a zatem od pierwszego do ostatniego polowania, były bowiem rodzajem mnemotechnik, którym towarzyszyło
wykonywanie określonych czynności, istotnych dla przeżycia. Narracje wiązały się również z przebywaniem określonych tras, wyznaczonych niegdyś przez
przodków, były w pewnym sensie grą semiotyczną, polegającą na powtarzaniu
określonych słów i odnajdywaniu odpowiadających im znaków w przestrzeni.
Inuici wykształcili przy tym strategie, które pozwalały orientować się w terenie
także w bardzo trudnych warunkach, na przykład w czasie burzy śnieżnej przy
bardzo obniżonej widoczności. Młodzi myśliwi, którzy zginęli z powodu braku
paliwa w skuterze czy awarii baterii w GPS, nie znali tych metod. Nie wiedzieli,
że należy przeczekać burzę w jamie śnieżnej lub iść, zataczając coraz mniejsze
kręgi, aż do momentu, w którym dotrze się do znanej linii brzegowej czy innego odniesienia topograficznego. Pokolenie to, wraz z utratą niezawodnej, choć
subiektywnej, wiedzy tradycyjnej, nie zyskało w technologii obiektywnej wiedzy równie pewnej.
Wyprawa z GPS w kieszeni dawała także mylne poczucie bezpieczeństwa – rozluźnienie mentalne wywołane posiadaniem technologii stawało się
przyczyną tragedii. Analogiczną sytuację można zaobserwować, gdy jedzie się
trasą w nieznanym mieście, słuchając komend płynących z nawigacji GPS i automatycznie wykonując polecenia. Jeżeli trasa jest skomplikowana, trudno później bez GPS zorientować się w terenie – prowadząc samochód, kierowca patrzy
na inne znaki niż topograficzne czy architektoniczne. Skupia się na komendach
i znakach drogowych – pamięta na przykład, że mijał kolejne światła na skrzyżowaniach i że skręcał, lecz nie jest to jednoznaczne z pamiętaniem poszczególnych miejsc skrętów. Podobnie posiadający GPS młodzi Inuici, patrząc na skały
i inne wizualne znaki na swej drodze, nie mnemonizowali ich, gdyż polegali na
opcji zapisu śladu, którą włączali w odbiorniku. Obecność technologii podświadomie wywołuje w człowieku poczucie zwolnienia z odpowiedzialności: to nie
my źle odczytujemy mapę, to GPS się myli.
Jest to zjawisko ciekawe, tym bardziej że początki cywilnego wykorzystania GPS wiążą się ściśle z niedokładnością danych, związaną z długotrwałym
modyfikowaniem sygnału przez wojsko amerykańskie. Dopiero wydana 1 maja
2000 roku przez prezydenta Billa Clintona decyzja o uwolnieniu sygnału GPS do
użytku cywilnego sprawiła, że sytuacja uległa zmianie i pomiary wykonywane
przy użyciu tej technologii stały się miarodajne (tj. uzyskały przybliżenie do 10
metrów). Można pokusić się o stwierdzenie, że w rzeczywistości GPS – obok Internetu oraz interfejsu typu brainwave – jest jedną z najważniejszych technologii
umysłu udostępnionych przez wojsko ludzkości. Uwolnienie sygnału sprawiło, że
powstał rynek konsumencki związany z nawigacją GPS. To właśnie po 2000 roku
GPS zyskał popularność również w Igloolik. Warto dodać, że po początkowym
zainteresowaniu i następującej po niej fali krytyki technologii związanej z opisanymi wypadkami, dziś zastosowanie GPS wśród Inuitów staje się bardziej przemyślane. Wiąże się to również z badaniami Aporty i Higgsa, a także działaniami
edukacyjnymi lokalnej społeczności i Canadian Rangers, które zmierzają do łączenia tradycyjnej wiedzy przyrodniczej i wielowiekowych strategii orientacyjnych z nową technologią.
186
Sztuka GPS i tagowanie przestrzeni
Wraz z wykorzystaniem technologii GPS do geolokalizacji pojawiły się też
innego rodzaju zastosowania medium10. Analityczne poszukiwania możliwości
tkwiących w GPS rozpoczęli też naukowcy reprezentujący różne dyscypliny, firmy oferujące wiele typów usług (np. geolokalizację kluczy, samochodu czy abonamentowy system wzywający pomoc medyczną lub mechanika po wykryciu
kolizji drogowej) oraz agencje reklamowe; poszukiwania objęły również nowomedialnie ukierunkowane środowiska artystyczne i informatyczne.
Jednym z pierwszych projektów artystycznych eksplorujących możliwości
GPS był projekt Ester Polak Amsterdam Real Time, zrealizowany dla Waag Society w 2002 roku11. Polak rozdała urządzenia grupie użytkowników, których zadaniem było rejestrowanie śladów w trakcie kilkutygodniowego projektu. Każdy
rysował zatem mapę swych codziennych ścieżek, powtarzając podróże do pracy, domu i innych znaczących miejsc albo też swoją wymyśloną specjalnie na
tę okazję drogę. Celem projektu było zbudowanie dynamicznej mapy miasta,
ukazującej przepływ ludzi w czasie i przestrzeni, gorące punkty styku, w których spotyka się społeczność mieszkańców Amsterdamu i turystów, ważne trasy
przelotowe oraz strefy porannych i wieczornych podróży. Animacja utworzona
z danych zebranych od wszystkich uczestników jest obrazem przestrzeni miejskiej i zmienności wykorzystania wspólnej przestrzeni. Poprzez zebranie pojedynczych mikrokartografii artystka zbudowała też symboliczną wspólnotową
mapę, pokazała obszary, w których przebiega komunikacja lokalnej wspólnoty, jak i te obszary, które są jej pozbawione, nie mają wartości w sensie budowania tożsamości grupowej.
Późniejszy o kilka lat projekt artystki realizowany wraz z inną Łotyszką,
Ievą Auziną, Milk Project, poszerza rejon poszukiwań Esther Polak, jednocześnie
utrzymując obszar zainteresowań przestrzenią, wspólnotą i tożsamością12. Tym
razem artystki skupiły się na paradziennikarskich działaniach wideo, pozwalając, by dane z GPS uzupełniały obrazy filmowe przedstawiające wywiady z ludźmi zaangażowanymi w produkcję i transport wyrobów mleczarskich w Europie.
O ile w pierwszym opisanym projekcie istotny był proces wspólnego budowania mapy miasta, o tyle w projekcie z 2005 roku ukazano wspólnotę europejskich
mleczarzy, producentów serów i osób zaangażowanych w cały przemysł, który
koncentruje się na przewozie produktów pomiędzy krajami UE.
Warto wspomnieć tu również innego ciekawego artystę nowomedialnego, którego praca The Lowlands jest jak dotąd jednym z bardziej złożonych
koncepcyjnie projektów artystycznych, wykorzystujących logi z GPS – jest nim
Vaibhav Bhawsar, twórca z Bangalore13. Bhawsar używa technologii GPS do zmapowania przestrzeni slumsowej dzielnicy Yelahanka miasta Bangalore, indyjskiej
Doliny Krzemowej, centrum uznawanego za symbol nowoczesnych i bogatych
10
11
12
13
Świadomie nie używam tu terminu media lokacyjne, który upowszechnił się w polskiej humanistyce, gdyż jest on wynikiem błędnego tłumaczenia terminu angielskiego, locative media, co należałoby poprawnie tłumaczyć jako „media lokalizacyjne”.
Lokacja rozumiana jest w języku polskim przede wszystkim jako założenie miasta,
choć może też oznaczać technikę zbierania danych o położeniu, kierunku i prędkości
przemieszczania się obiektów lub sposób orientowania się zwierząt (jednak w tym
rozumieniu występuje w złożeniach, np. radiolokacja, echolokacja).
Amsterdam Real Time/Dagboek In Sporen, URL: <www.waag.org/realtime> (dostęp:
06.01.2012 r.).
I. Auzina, E. Polak: Milk Project, por. URL: <www.aec.at/en/festival2005/programm/
project> (dostęp: 06.01.2012 r.).
V. Bhawsar, The Lowlands Project, URL: <www.recombine.net> (dostęp: 06.01.2012 r.).
187
Indii. Obraz Yelahanki nie ma jednak wymiaru propagandowego, ujawnia raczej
to, co władze miasta chciałyby ukryć – biedę, egzystencję na krawędzi społeczeństwa, zamieszkiwanie ruin, oddolne odzyskiwanie surowców wtórnych, a nawet
toksyczne (za sprawą wielu obiektów przemysłu chemicznego zlokalizowanego w pobliżu dzielnicy) powietrze. Bhawsar ukazuje inne oblicze Bangalore również poprzez symboliczne zmapowanie przestrzeni modlitwy, wyznaczając axis
mundi dzięki GPS.
Co istotne, projekt powstawał we współpracy z mieszkańcami Yelahanki, którzy w ramach warsztatów prowadzonych przez Bhawsara dostali urządzenia GPS i mogli sami opisać swoją przestrzeń życiową. Dzięki nim powstał obraz
dzielnicy-widma, którą władze najchętniej zrównałyby z ziemią. Bhawsar właśnie
tak pojmuje tytułowe lowlands, jako tę przestrzeń, która w sensie geograficznym
i społecznym oznacza niziny14. Technologia ma jednak wymiar upodmiotawiający, w tym sensie, że staje się narzędziem narracyjnym w rękach ludzi z marginesu życia społecznego. Paradoksalnie, docierający z przestrzeni kosmicznej
sygnał GPS wyznacza na nowo axis mundi, podając jego konkretne koordynaty
geograficzne. Z całą pewnością w sensie antropologicznym jest to nowa sytuacja. Praca Bhawsara, umieszczona w globalnej Sieci internetowej, nabiera jeszcze
większego znaczenia – narracje marginalizowanej społeczności zyskują niezwykły potencjał i trafiają do odbiorców na całym świecie. Ślady ruchu toksycznego
powietrza (zbadanego za pomocą zamocowania GPS do balonów) czy codzienne ścieżki człowieka trudniącego się odzyskiem surowców wtórnych stają się
ważne, przestają być milcząco pomijane przez dyskurs społeczny nowoczesnych Indii. Można w działaniach Bhawsara widzieć zatem zarówno działania artystyczne, aktywistyczne, społeczne, jak i antropologiczne. Z całą pewnością
wykorzystuje on świadomie narzędzie, jakim jest GPS, również w sposób subwersywny wobec systemu.
Sztuka GPS jest oczywiście nurtem bardzo zróżnicowanym i z całą pewnością zasługuje na odrębną uwagę15. Myśląc o GPS jako technologii tworzącej
swoisty mindware, należy również przytoczyć choćby pokrótce dwa inne korespondujące ze sobą projekty artystyczne. Pierwszy z nich to The Biggest Drawing
in the World, Erica Nordenankara. Praca przedstawia portret artysty, narysowany
na mapie świata dzięki odbiornikowi GPS umieszczonemu w paczce, którą za pomocą DHL artysta wysłał w okołoziemską, dosyć skomplikowaną podróż (trasa tej
podróży jest podstawą rysunku GPS). Druga praca to The World is My Canvas artysty o pseudonimie Stavros. Składa się z serwisu internetowego, performance’u,
serii filmów wideo i happeningu, w którym każdy internauta mógł wziąć udział,
tworząc własne dzieło GPS i udostępniając je w serwisie artysty.
Obydwa te projekty podobnie traktują technologię GPS (przyrównując ją do nowomedialnej formy malarstwa), obydwa również są rodzajem gry
z odbiorcą, a także przykładem wysublimowanej akcji marketingowej. Pierwsza
praca jest w zasadzie nowatorską reklamą DHL, druga – równie interesującą reklamą telefonu Nokia N82 (z funkcją GPS). Obie są zatem rodzajem mistyfikacji –
w pierwszej elementem fałszywie przedstawionym jako rzeczywisty jest dzieło
(w rzeczywistości paczka z GPS nigdy nie została wysłana), w drugiej – sam artysta (Stavros w rzeczywistości jest doskonałym aktorem wynajętym przez agencję
reklamową Farfar)16. Dlaczego zatem warto wspominać o tych przede wszystkim
14
15
16
V. Bhawsar, The Lowlands Project Document, s. 4, URL: <http://host275.ipowerweb.
com/~priyabha/recombine/lowlands/document/DIPdOC_screen.pdf> (dostęp:
06.01.2012 r.).
Bliżej analizuję ten problem [w:] A. Maj, Media w podróży…, s. 172–194.
Szersze omówienie wymienionych tu prac przedstawiam w innym miejscu. Por.
188
reklamowych i jedynie paraartystycznych projektach w kontekście sztuki lokalizacyjnej? Istotny wydaje się fakt wykorzystania w kampaniach reklamowych technologii GPS – świadczy on między innymi o tym, że technologia ta została już
„udomowiona”, spopularyzowała się na tyle, że można się nią bawić w przekazie
komercyjnym, nie tylko artystycznym. Stała się też na tyle ważnym i rozpoznawalnym elementem codziennego doświadczenia użytkownika mediów (i wyznacza
pewne ramy dla aparatu poznawczego), że można na niej oprzeć przekaz reklamowy bez ryzyka. Należy jednak dodać, że obecny tu element gry i manipulacji odwołuje się wyłącznie do aktywnego użytkownika, amatora-profesjonalisty
korzystającego z technologii i biorącego udział w kulturze partycypacji.
Szukanie i gubienie się na nowo
Swoista gra ze świadomym użytkownikiem mediów staje się istotnym
elementem praktyk artystów nowomedialnych. Ich prace stanowią też często
doskonały, choć przewrotny, komentarz do zachodzących przemian komunikacyjnych, poznawczych i percepcyjnych. Jedną z takich prac z całą pewnością
jest aplikacja Serendipitor, która odwołuje się do aplikacji typu Foursquare, Layar,
Every Trail, Food Spotting, Track My Maps czy prekursorskiego w tym zestawieniu holenderskiego Bliina, a zatem do aplikacji geolokalizacyjnych (location-based), czasem, jak Layar, wykorzystujących również technologię rzeczywistości
rozszerzonej (AR), umożliwiających wyszukanie informacji przestrzennych oraz
promujących social networking prowadzony w czasie rzeczywistym i w określonej przestrzeni, czyli oferujących nieustanną aktualizację statusu i pozycji użytkownika dzięki wykorzystaniu technologii context-awareness.
Serendipitor w tym kontekście ujawnia się jednak jako przykład subwersywnego wykorzystania technologii17. O ile bowiem Foursquare umożliwia korzystanie z mapy-przewodnika społecznościowego wiodącego po interesujących
miejscach, Track My Maps pozwala na stworzenie i współdzielenie trasy określonej
podróży, Layar daje szansę na odnalezienie poszukiwanych miejsc w realnej przestrzeni dzięki wirtualnym tagom i wykorzystaniu kamery w telefonie, Food Spotting służy współdzieleniu tagów kulinarnych i odnajdywaniu dobrych restauracji
w nieznanym mieście, a Bliin tworzy trasę podróży i odnajduje innych uczestników społeczności – czyli wszystkie w pewnym sensie realizują możliwości zawarte
w technologii geolokalizacji – o tyle Serendipitor działa wręcz przeciwnie, wykorzystując sygnał GPS do tego, by pomóc użytkownikowi się zgubić.
Pozornie aplikacja Serendipitor daje możliwość znalezienia trasy do wybranego miejsca, droga wyświetla się na mapie po podaniu adresu docelowego,
jak w przypadku każdej innej aplikacji tego typu. Po drodze użytkownik otrzymuje jednak specyficzne komunikaty, za którymi może podążać, a które z odnajdywaniem drogi nie mają nic wspólnego. Pozwalają natomiast w sposób
nieprzewidywalny cieszyć się wędrówką, odkrywać nieoczekiwane elementy,
prowadzić grę z przestrzenią i jej mieszkańcami, wreszcie stworzyć specyficzny album fotograficzny, który odzwierciedli doświadczenie dziwnej podróży.
Mimo prymarnej rozrywkowej funkcji jest to w pewnym sensie również aplikacja pozwalająca zastanowić się nad sensem podróży, która w dzisiejszych warunkach technologicznych zostaje sprowadzona (głównie za pośrednictwem GPS
17
A. Maj, Wikifikacja wiedzy, Travel 2.0 i globalhood [w:] Kody McLuhana. Topografia nowych mediów, red. A. Maj, M. Derda-Nowakowski z udziałem D. de Kerckhove, Katowice 2009, s. 143–168.
Za takie wykorzystanie można też jednak uznać artystyczne eksperymenty Vaibhava
Bhawsara (zwłaszcza opisywanie niewygodnych dla władzy przestrzeni biedy, wykluczenia i zatrutego powietrza).
189
i telefonii komórkowej) do przebywania trasy, docierania do celu, odtwarzania
zapisu śladu zgodnie z propozycjami odbiornika, przy czym podróżny staje się
jedynie rodzajem automatu, wykonującego polecenia. Podróż rozumiana jako
przebycie drogi traci swe znaczenie. Serendipitor pozwala je odnaleźć w zaskakujących zwrotach, absurdalnych komendach maszyny. Podróż znów zaczyna
być przechadzaniem się, włóczęgą bez wyraźnego celu, prowadzoną dla przyjemności grą poznawczą z przestrzenią, spacerem flâneura czy wagabundy, gotowego się zagubić i zapatrzyć.
Serendipitor używa jednak również metody, którą można by nazwać aleatoryczną – metody znanej z awangardowych poczynań kompozytorów XX wieku. Polecenia pojawiające się na ekranie pełnią tu jednocześnie funkcję logów
z podróży. Wybierane są losowo z pewnej puli, przewidzianej przez projektanta aplikacji, Marka Sheparda (który wprawdzie dostał za nią nagrodę na festiwalu Ars Electronica 201118, jednak oferuje swoje dzieło jak typową aplikację w App
Store). Można wśród nich znaleźć takie, które każą użytkownikowi iść śladem
przechodnia w zielonej koszuli lub przelatującego gołębia, podążać w kierunku
hałasu, żółtego znaku czy na zachód tak długo, aż minie most lub spotka człowieka w kapeluszu, zrobić zdjęcie kałuży albo drzwiom pod wskazanym numerem budynku. To zupełnie inne poznawanie miasta, w które włączyć trzeba
też interakcję z miejscowymi – zgodnie z poleceniami Serendipitora trzeba bowiem czasem kogoś śledzić, spytać o coś (ale nie o drogę) lub poprosić, by dał
się sfotografować. Aleatoryczność drogi (pewnej wolności w ramach zaprogramowanych działań użytkownika), nieprzewidywalność obserwacji, wreszcie zaproszenie do absurdalnej interakcji stanowią tu o wartości przebytej podróży,
odpowiadając nazwie aplikacji, która sugeruje narzędzie do czynienia przypadkowych szczęśliwych odkryć.
Warto tu zauważyć pewną ewolucję wykorzystania medium: początkowo
używano GPS jako narzędzia naukowego (w biologii, antropologii czy geografii), a nawet wręcz matematycznego (w inżynierii czy budownictwie). Z czasem
(wraz z rozwojem interfejsów) zauważono potencjał artystyczny GPS i zaczęto
traktować go jako narzędzie społeczne (pozwalające na geotagowanie i pewną aktywność twórczą użytkowników, zabawę technologią). Ostatecznie, gdy
system uzyskał już status technologii dobrze rozpoznawalnej i wszechobecnej, pojawiły się działania marketingowe, wykorzystujące potencjał atrakcyjności GPS i uzupełniające mapy o przekazy informacyjno-reklamowe (oczywiście
przy jednoczesnym wykorzystaniu tendencji typu Web 2.0, czyli skoncentrowaniu się na geotagowaniu i przyciągających do aplikacji sile sieci społecznych).
Działania te spowodowały pewien ruch w kierunku artystycznego ukazywania
znaczenia GPS jako urządzenia, które może być oznaką nieposłuszeństwa wobec systemu, czyli wykorzystania jej wbrew pierwotnemu przeznaczeniu. Będąc
zatem narzędziem geolokalizacyjnym (a jednocześnie pozwalającym na śledzenie użytkownika), GPS stał się także narzędziem antygeolokalizacyjnym (antysystemowym). Tym samym można powiedzieć, że ujawniony został potencjał
kontrolny systemu geolokalizacji, jak i konieczność obrony obywateli przed kolejnym wcieleniem Wielkiego Brata.
Serendipitor nie jest jednak sam w sobie pracą krytykującą system, raczej go przewidującą i w pewnej mierze kontestującą, choć jednocześnie
18
M. Shepard, Sentient City Survival Kit [w:] CyberArts2011. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2011, s. 192–193. Aplikacja Serendipitor jest
częścią pracy Sentient City Survival Kit, zrealizowanej przez Marka Sheparda w czasie pobytu rezydencyjnego w V2_Institut for the Unstable Media; Por. też: Sentient City Survival Kit, URL: <http://survival.sentientcity.net> (dostęp: 06.01.2012 r.).
190
przygotowującą użytkowników do udziału w życiu „odczuwającego” miasta,
zwłaszcza gdy wziąć pod uwagę całość pracy Sentient City Survival Kit (zestaw
tworzą: Serendipitor – aplikacja GPS, parasol chroniący przed kamerami CCTV,
bielizna zawierająca kody RFID, wibrujące, gdy użytkownik mija nadajniki pobierające dane i kubek podłączający się nielegalnie do sieci tworzonych ad hoc)19.
Jest to zatem zestaw niezbędny wobec rozpowszechniającego się paradygmatu ubicomp.
Konstruowanie cyberogrodu
– miasto jako przestrzeń nowomedialna
Zastanawiając się nad problematyką mindware, trzeba wspomnieć koniecznie również o roli „tradycyjnego interfejsu” do przestrzeni, jaki wykształcił
się w procesie rozwoju kultury, a także o jego nowych kontekstach. Mowa o mieście i współczesnym projektowaniu przestrzeni publicznej oraz interakcji w tej
przestrzeni. W dyskursie architektonicznym i nowomedialnym skoncentrowanym
na redefiniowaniu przestrzeni miejskiej istotną rolę odgrywa dziś wspomniany
paradygmat ubicomp (ubiquitous computing). Chodzi tu o nasycenie przestrzeni
współczesnego miasta, a także wszystkich środków transportu i poszczególnych
budynków nowymi technologiami, głównie sieciami komunikacyjnymi i informatycznymi oraz sensorami różnego typu, tagami i inteligentnymi elementami
systemów oraz równie inteligentnymi przedmiotami podłączonymi do Sieci i komunikującymi się ze sobą poza świadomością użytkowników. W paradygmacie
tym równie ważną rolę odgrywają zatem zarówno wszechobecne komputery,
telefony komórkowe, Internet oraz różne sieci teleinformatyczne, panoptyczny
system CCTV, rozpowszechnione kody RFID, kody matrycowe QR czy innego rodzaju znaczniki, jak i reagujące na zmiany pogody, zanieczyszczenie powietrza
czy obecność ludzi w określonym pomieszczeniu inteligentne budynki i ich otoczenie; inteligentne floty pojazdów (komunikujące się w razie kradzieży z policją,
po kolizji z pogotowiem, a w przypadku awarii z warsztatem samochodowym);
a także wearable computing – „technologie ubieralne”, wyposażone w czujniki
reagujące na stan zdrowia użytkowników oraz komunikujące reklamodawcom
dane o nawykach konsumenckich właściciela; i w końcu – skanowanie biometryczne (połączone z dostępem do konta bankowego) oraz chipy (implanty teleinformatyczne), w które niedługo wyposażone będą nie tylko (jak dziś) psy
czy więźniowie, ale i – dla wygody – przeciętni obywatele, a zwłaszcza ich dzieci – ze względów bezpieczeństwa20. Część z wymienionych technologii już jest
rozpowszechniona, część dopiero jest w drodze na masowy rynek konsumencki, jednak jej powodzenie jest już dziś zagwarantowane pozytywnymi wynikami badań i testów oraz pierwszymi eksperymentami.
Tak rozumiana przestrzeń miejska staje się zatem podwójnie gęsta –
w sensie architektonicznym i informatycznym. W innym kontekście pisałam już
niegdyś o przenikaniu się przestrzeni wirtualnej i realnej oraz o modelu ubiquitous
19
20
Por. również Sentient City. Ubiquitous Computing, Architecture, and the Future of Urban Space, red. M. Shepard, Massachusetts 2011.
Uwagi o chipowaniu odnoszę do rozmów z Kevinem Warwickiem i jego wykładów
gościnnych w czasie 2. Konferencji Dni Nowych Mediów: Oblicza cyborga, seminarium:
Problemy robotyki i cyborgizacji – medycyna, technika i kultura, Uniwersytet Śląski w Katowicach – Akademia Sztuk Pięknych – Górnośląski Festiwal Ars Cameralis, Katowice
22–24 listopada 2010. Por. też mój artykuł na temat cyborgizacji i komunikacji postbiologicznej: Paratekstualność, cyborgizacja komunikacji i telefonia mobilna. Konteksty
antropologii mediów [w:] Parateksty kina i nowych mediów. O dawnych i współczesnych
sposobach doświadczania audiowizualności, red. A. Gwóźdź, Kraków 2010, s. 533–552.
191
networked society – społeczeństwa usieciowionego czy też stale i wszędzie podłączonego do Sieci, paradygmacie trafnie nakreślonym przez inżynierów i futurologów z japońskiego koncernu telekomunikacyjnego DoCoMo21. Z dzisiejszej
perspektywy można powiedzieć, że projekty sieciowe, takie jak Semapedia czy
DenCity w rzeczywistości zapowiadały nadejście i globalną popularność aplikacji telefonicznych typu Layar, wykorzystujących przestrzeń rozszerzoną (AR)
i funkcję kamery w smartfonach.
Nie można bowiem zapominać, że powodzenie miasta ubicomp, które
umownie nazwać można też cyberogrodem22, leży w rękach całego społeczeństwa, które ochoczo korzysta z nowych technologii, zwłaszcza telekomunikacyjnych. Trzeba jednak pamiętać, że o ile projekt cyberogrodu ma swoje znaczące
pozytywne strony (takie jak funkcjonalność, łatwy dostęp do informacji, likwidacja
barier komunikacyjnych dla osób niepełnosprawnych, przeciwdziałanie marginalizacji społecznej i wykluczeniu cyfrowemu, upowszechnienie wiedzy, ułatwienia
edukacyjne i komunikacyjne, potencjalny dostęp do władzy), istnieją również nie
do końca dziś rozpoznane efekty uboczne, choćby natury zdrowotnej, psychologicznej czy społecznej. Chodzi tu zarówno o różne choroby związane z działaniem technologii, promieniowaniem, wystawianiem określonych organów na
stałe działanie podwyższonej temperatury czy kontakt organizmu z materiałami
toksycznymi, zawartymi w komputerach i telefonach, jak i o kwestie natury zdrowia psychicznego: począwszy od różnych form internetoholizmu – uzależnienia
od określonych gier komputerowych (World of Warcraft) czy światów wirtualnych
(Second Life), czatów i komunikatorów, przez uzależnienie od wyszukiwarki (Google), moblogowania (Twitter), sieci społecznościowych (Facebook), po problemy natury percepcyjnej, trudności z analizą danych, koncentracją uwagi i różne
zachowania aspołeczne. Trzeba jednak dodać, że paradygmat ubicomp jest dziś
nieuchronny, warto zatem skupić się na tych aspektach, w jakich stwarza on
nowe możliwości użytkownikom technologii i daje nowe sposoby dostępu do
danych, wiedzy i władzy mieszkańcom cyberogrodu.
Everyware: architektoniczny mindware
i projektowanie interakcji
Interesująco brzmią w kontekście paradygmatu ubicomp uwagi samych
architektów, którzy zajmują się również działaniami nowomedialnymi, jak Usman
Haque, twórca między innymi prac wykorzystujących (i wizualizujących dzięki
sensorom ukrytym w balonach wypełnionych helem) pole elektromagnetyczne
wygenerowane w trakcie masowego aktu komunikacji publiczności za pomocą telefonów komórkowych (Sky Ear, Burble)23. Haque tworzy również instalacje
interaktywne i prowadzi eksperymenty badawcze w zakresie połączenia architektury i nowych mediów oraz oddziaływania na różne kanały percepcji (w tym
dotyk, słuch czy węch). Nie stroni też od interwencji artystycznych angażujących
publiczność w działania nowomedialne (za pomocą telefonów, pilotów telewizyjnych czy głosu). Z całą pewnością jest też jednym z architektów młodego
21
22
23
Por. A. Maj, Keitai – marginalia jako sens komunikacji, „Kultura Współczesna” 2008,
nr 4 (58), s. 117–127.
W nawiązaniu do projektu Cyberogród, platformy nowomedialnej projektu Katowice – Miasto Ogrodów, którą współtworzyłam w latach 2010–2011 dla miasta Katowice wraz z Michałem Derdą-Nowakowskim w ramach starań o tytuł Europejskiej
Stolicy Kultury 2016 dla katowickiego Biura ESK 2016.
Haque Design + Research [serwis internetowy studia Usmana Haque]: Burble, URL:
<www.haque.co.uk/burble.php>, Sky Ear, URL: <www.haque.co.uk/skyear.php>
(dostęp: 14.01.2012 r.).
192
pokolenia, który świadomie buduje podstawy zorientowanej nowomedialnie
i opensource’owo metarefleksji w architekturze. Ubicomp w ujęciu projektanta
generuje zupełnie inny styl pracy i myślenia o przestrzeni.
Rozwiązania systemowe, takie jak komputery ubieralne (wearable computing), łączność bezprzewodowa (mobile connectivity), przetwarzanie
zorientowane na kontekst (contextual awareness) i RFID dokonały transformacji zarówno sposobów wykorzystania, jak i projektowania przestrzeni. Systemy te są bezpośrednio przestrzenne: powstają w rezultacie
ruchu i działań ludzi w przestrzeni i sugerują model projektowania przestrzeni (a szerzej architektury), który wykorzystuje systemy interakcji do
kreowania ramy przestrzennej egzystencji. Terytorium takiej architektury
jest dwuznaczne, ponieważ ludzie sami interpretują, przejmują, projektują i ponownie korzystają ze swoich własnych ram logiki. Taka architektura nie istnieje bez ludzi, którzy ją zamieszkują, zajmują, postrzegają,
wchodzą z nią w interakcje i dialog. Mieszkańcy „projektują” swoje własne środowisko. […] Gdy ludzie stają się architektami własnych przestrzeni
(poprzez ich używanie), słowo „architektura” przestaje być rzeczownikiem: w zamian staje się czasownikiem. Taka architektura jest eksplicytnie dynamiczna, a zmiana ta otwiera bogactwo poetycznych możliwości
dla projektantów przestrzeni24.
Haque stwierdza zatem niezwykle głęboką przemianę, jaka zachodzi w samej istocie architektury, a także w roli architekta i projektanta przestrzeni. Rozwój
nowych mediów, dostępność oprogramowania, a nawet systemy wymuszające
paradygmat ubicomp sprawiają, że architektura jako system kontroli i pewnego
rodzaju przemocy eksperta zmienia się w bardziej dialogiczną dziedzinę, otwartą
na negocjacje z użytkownikiem przestrzeni. Interesujący jest fakt, że Haque postrzega tę sytuację nie jako zagrożenie dla własnej specjalizacji, lecz jako szansę dla architekta, którego rolę pojmuje analogicznie do roli projektanta systemu
operacyjnego25. Projektant i badacz widzi zresztą sens w otwieraniu architektury
jeszcze bardziej, zwłaszcza w kierunku „uwalniania kodu”, analogicznie do działań informatyków spod znaku open source, free software i open hardware, a zatem
zmierzającym ku otwarciu na działania społeczne samego procesu projektowego – procesu kreacji przestrzeni26.
Zdaniem innych designerów paradygmat ubicomp, promując rutynowe
wykorzystanie sprawdzonych schematów interakcji, skutkuje ograniczeniem kreatywności projektantów. Nie chodzi tu jednak o architektów, ale przede wszystkim
o projektantów aplikacji na smartfony, wykorzystujące geolokalizację i technologię context-awareness. Nicolas Nova i Julian Bleecker wspominają na przykład
o powtarzalności modelu aplikacji wyszukujących znajomych (buddy-finders) czy
oferujących określone usługi (location-based coupons)27. Z kolei wspomniany już
24
25
26
27
U. Haque, Surrounding Architecture [w:] Hybrid – Living in Paradox. Ars Electronica 2005,
red. G. Stocker, Ch. Schöpf, Linz 2005, s. 152–153.
Tamże, s. 154.
M. Fuller, U. Haque, Urban Versioning System 1.0, illustr. D. Cuesta, series: Situated
Technologies Pamphlets 2, The Architectural League of New York, Nowy Jork 2008,
passim; URL: <www.situatedtechnologies.net/files/ST2-Urban_Versioning_System.
pdf> (dostęp: 14.01.2012 r.).
J. Bleecker, N. Nova, A Synchronicity: Design Fictions for Asynchonous Urban Computing, series: Situated Technologies Pamphlets 2, The Architectural League of New York,
Nowy Jork 2009; URL: <www.situatedtechnologies.net/files/ST5-A_synchronicity.
pdf> (dostęp: 14.01.2012 r.).
193
wcześniej Mark Shepard (również architekt, projektant i artysta) oraz Adam Greenfield (projektant i badacz) mówią wprost o pewnych kliszach mentalnych, związanych z ideą ubicomp (którą Greenfield tłumaczy jako bardziej zrozumiałe dla
szerokiej publiczności everyware). Dotyczy to zwłaszcza dyskursu marketingowego, w którym zdaniem Greenfielda zwroty location-based i context-aware stały się
rodzajem Świętego Grala, obiecującego reklamodawcom raj dostępu do pełnej
wiedzy o klientach, przypominający scenę z Raportu mniejszości, w której holograficzne reklamy zwracają się do przechodzącego bohatera po imieniu i adekwatnie do sytuacji, oferując właśnie to, czego szuka w danej chwili. Przedsmakiem
takiego źle rozumianego przez reklamodawców cyberraju ma być przykład działań firmy Starbucks, która wysyła informację o kuponie na darmową kawę latte
do telefonu klienta, który znajduje się w zasięgu WIFI kawiarni.28. Taka spersonalizowana reklama kontekstowa może jednak oznaczać również irytację klienta,
który zrezygnuje z usług natrętnej firmy na stałe.
W sensie komunikacyjnym technologie ubicomp prezentują się przede
wszystkim, jak twierdzi Greenfield, jako everyware, czyli akcentując aspekt wszechobecności, a nawet wręcz wszędobylskości (pervasive computing, ubiquitous computing), ale warto również pamiętać o ich innym charakterystycznym aspekcie. Są
to w dużej mierze technologie dyskretne, o których łatwo zapomnieć, gdyż nie
są widoczne, przynajmniej dla tych ludzi, którzy nie są wyposażeni w odpowiednie urządzenia odbiorcze (na przykład smartfony czy tablety). Zmienia to również
w pewnym sensie układ sił społecznych. System sprawuje kontrolę nad społeczeństwem w sposób niedostrzegalny. Ujawnia się jedynie przez przypadek.
Tak powstaje zapewne mindware – w nieświadomości. Można wprawdzie
powątpiewać, czy system lokalizacji zawładnął totalnie naszym myśleniem i działaniami, jednak trudno mieć dziś poczucie, że jest on nieobecny. Świadomość
taką zyskuje na pewno użytkownik iPhone’a, który co chwilę ze względów bezpieczeństwa informuje, że dana aplikacja żąda dostępu do danych o lokalizacji
użytkownika, wywołując jego zdziwienie. Oczywiście aplikacje geolokalizacyjne muszą korzystać z takich danych, jednak wiele innych zdaje się nadużywać
woli użytkownika, który często nieświadomie zgadza się na automatyczną lokalizację non stop. W tym kontekście nowego znaczenia nabierają słowa Adama Greenfielda, który stwierdza, że iPhone jest nowego rodzaju przysłoną, która
przepuszcza informacje, podobnie jak przysłona w aparacie fotograficznym przepuszcza światło29. Tym samym iPhone zostaje przez projektanta potraktowany
jako technologia kształtująca użytkownika, jego dostęp do wiedzy i sposób widzenia świata – technologia umysłu, psychotechnologia, mindware.
Z namysłu nad takim właśnie stanem nieinwazyjnej, ale jednak kontroli,
wywodzi się wspomniana praca Marka Sheparda Sentient City Survival Kit. Warto
dodać jeszcze, że częścią zestawu jest tu między innymi parasol, uniemożliwiający kamerom CCTV rejestrację obrazu użytkownika (emituje bowiem promieniowanie w paśmie podczerwieni, co uniemożliwia kamerze widzenie). Nie można
pominąć przecież faktu, że system kontroli to również system analizy danych wizualnych, który dzięki oprogramowaniu do analizy motoryki człowieka pozwala znaleźć niepowtarzalne, indywidualne wzorce ruchów, które mogą służyć do
celów identyfikacyjnych.
28
29
A. Greenfield, M. Shepard, Urban Computing and Its Discontents, series: Situated Technologies Pamphlets 1, The Architectural League of New York, Nowy Jork 2007, s. 14;
URL: <www.situatedtechnologies.net/files/ST1-Urban_Computing.pdf> (dostęp:
14.01.2012 r.).
Tamże, s. 10.
194
Ewangeliści pervasive/ubiquitous computing głoszą nadchodzącą erę
miejskich systemów informacji zdolnych do odbierania (sensing) i odpowiadania na zdarzenia i działania zachodzące wokół. Nasycone zdolnością zapamiętywania, wykrywania zależności i antycypacji, takie
„odczuwające” miasto projektowane jest jako zdolne do refleksyjnego monitoringu naszych zachowań i staje się aktywnym czynnikiem
organizującym nasze codzienne życie. Niektórzy mogą spierać się, że
„inteligentne” systemy kontroli świateł ulicznych bardziej efektywnie zarządzają przepływem ciężarówek, samochodów i autobusów na ulicach
naszych miast. Inni mogą być poirytowani, gdy kupony rabatowe na ich
ulubione espresso pojawiają się na ich telefonie komórkowym, gdy mijają Starbucks. Wielu prawdopodobnie będzie protestować, gdy system
odmówi im wstępu do metra, wyczuwając, że ich zwyczaje konsumenckie, wzory mobilności i aktualny odczyt reakcji skórno-galwanicznej
(GSR) odpowiada profilowi terrorysty30.
Wystarczy pomyśleć o miastach, takich jak Tokio, Londyn czy Nowy Jork,
w których zainstalowane są tysiące kamer CCTV, by zadać sobie pytanie, czy możliwe jest uniknięcie bycia monitorowanym. Projekt Sheparda daje taką nadzieję,
podobnie jak projekt nowojorski iSee czy londyński projekt Manu Luksch Faceless
(choć jednocześnie uświadamiają one, że nie jest to łatwe i wymaga odpowiedniego wysiłku oraz kontrtechnologii), z kolei tokijski projekt Ryoty Kimury SUICA
(Super Urban Intelligence) podaje te możliwości w wątpliwość. Wszystko zależy od
wszechwładzy systemu i stopnia, w jaki technologia jest otwarta na hakowanie,
kontestację czy działania subwersywne31. Każda z powyższych prac może jednak
być uznana za udaną próbę uświadomienia problematycznego charakteru formy miasta wykorzystującego technologie mieszczące się w ramach paradygmatu ubicomp, określane różnymi mianami – urban computing, ambient informatics,
pervasive computing, locative media, CCTV, RFID, Internet of Things, smart objects –
czy jeszcze inaczej. Miasto wyposażone w takie technologie kontroli staje się architektoniczno-informatycznym mindware współczesnego społeczeństwa. Warto
jednak zauważyć, że jest to miękka kontrola32.
Mindware: strategie kontroli i oporu
Podejście artystyczne zaproponowane przez Sheparda reprezentuje wielu współczesnych artystów, którzy swoimi działaniami wyraźnie kontestują system globalnej i medialnej kontroli. Można uznać ich działania za strategie oporu
wobec strategii kontroli wpisanych w technologię (GPS, RFID, GSM itd.). Mowa
tu oczywiście o innym poziomie strategii autorskich wpisanych w dzieło niż te,
o których pisze Ryszard W. Kluszczyński w swojej książce o sztuce interaktywnej
(w ramach której mieszczą się wszystkie omawiane prace)33. W rozważanym kon30
31
32
33
M. Shepard, Sentient City Survival Kit [w:] CyberArts2011. Prix Ars Electronica, red.
H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2011, s. 192–193.
M. Luksch, M. Patel, Faceless: Chasing the Data Shadow [w:] Goodbye Privacy. Ars Electronica 2006, red. Ch. Schöpf, G. Stocker, Linz 2006, s. 72–85; R. Kimura, S.U.I. – por.
CyberArts 2006. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz
2006, s. 136–137; o projekcie iSee pisze Anna Nacher w swoim artykule w niniejszym
tomie: Ku kognitywnej przestrzeni publicznej – strategie otwierania. Por. też: iSee, URL:
<www.appliedautonomy.com/isee.html> (dostęp: 14.01.2012 r.).
Greenfield mówi o niej, że jest to soft control w przeciwieństwie do systemu przemocy i kontroli „w stylu Tiananmen”. Por. Greenfield, Shepard, Urban Computing…, s. 22.
Mowa tu o strategiach: instrumentu, gry, archiwum, labiryntu, kłącza, systemu, sieci
i spektaklu. Dodać trzeba jednak, że wspomniany badacz dostrzega również w całej sztuce interaktywnej pewnego rodzaju napięcie pomiędzy „strategiami kontroli
195
tekście ważniejsze jednak jest zaznaczenie strategii komunikacyjnych niż strategii artystycznych, którymi się posługują. To właśnie strategie komunikacyjne
(kontrola i opór) stanowią bowiem podstawę ideową omawianych prac z zakresu sztuki GPS, które oprócz dostarczania nowatorskich interfejsów czy aplikacji
są przede wszystkim nowomedialnymi eksperymentami społecznymi nacechowanymi krytycznie bądź refleksyjnie.
Trzeba przynajmniej wspomnieć jeszcze kilka innych prac i projektów, gdyż
na kilka sposobów odnoszą się do różnych technologii kontroli. Z jednej strony,
sytuują się tu projekty z zakresu społecznego mapowania (najczęściej moderowane przez artystę lub grupę aktywistów), które odpowiadają na potrzebę przejęcia
funkcji aktora w procesie komunikacyjnym przez różne grupy. Należy w tym kontekście wymienić projekt Canal *Accessible (umożliwiający niepełnosprawnym tworzyć fotograficzną wikimapę przeszkód architektonicznych w Barcelonie), In.fondo.
al.mar (wikimapa, na której użytkownicy zaznaczają udokumentowane wiadomości o wypadkach statków lub toksycznych odpadach nielegalnie składowanych
na dnie Morza Śródziemnego) czy Trash Track (wykorzystujący kody RFID do śledzenia globalnej trasy, jaką odbywają amerykańskie śmieci)34.
Z drugiej strony, warto wspomnieć o projektach, które odpowiadają
w przewrotny sposób na ideę Internetu Rzeczy czy Internetu Przedmiotów (Internet of Things) i wykorzystujących ideę Smart Dust35 (czy też koncepcję blogujących obiektów – blogjects) w odpowiedzi na potrzeby społeczne. Czyni tak
na przykład Pigeon Blog (gołębie są tu wykorzystywane jako blogerzy, zbierający dzięki noszonym sensorom i przesyłający w czasie rzeczywistym za pomocą
specjalnych nadajników dane do Google Maps na temat zanieczyszczenia powietrza) czy Participatory Urbanism (monitorowanie zanieczyszczeń powietrza
przez grupę osób w różnych punktach miasta Akra w Ghanie), które poszerzają publiczną wiedzę o środowisku. Inne projekty, jak Constrained City / The pain
of everyday life (kostium zadający ból fizyczny, powstający przez ruch silniczków
podczas mijania sieci WIFI, wywołujący zaciskanie taśm oplatających ciało), pozwalają przyjrzeć się bliżej wszechobecności sieci WIFI. Jeszcze inne, jak Microblogging Suit for an Industrial Worker (zestaw przesyłający twity o ruchu każdej
części ciała do serwisu mikroblogerskiego), stanowią refleksję nad społecznymi
skutkami mikroblogowania i wpływem tej technologii na komunikację36.
34
35
36
i praktykami wolności” (mowa tu jednak o przeciwstawianych sobie dążeniach artysty i odbiorcy dzieła, a nie o procesie komunikacji za pośrednictwem mediów, który tu rozważam). Por. R.W. Kluszczyński, Sztuka interaktywna. Od dzieła-instrumentu
do interaktywnego spektaklu, Warszawa 2010, s. 217–264, cyt. s. 221.
A. Abad, Canal *Accessible [w:] CyberArts 2007. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2007, s. 200–203. Canal *Accessible, URL: <www.
zexe.net> (dostęp: 14.01.2012 r.); In.fondo.al.mar, URL: <www.infondoalmar.info>
(dostęp: 14.01.2012 r.) oraz: D. Boardman, P. Gerbaudo, In Fondo Al Mar (Under the
Sea) [w:] Repair. Sind wir noch zu retten. Ars Electronica 2010, red. H. Leopoldseder,
Ch. Schöpf, G. Stocker, Linz 2010, s. 32–33; Trash Track, MIT Senseable City Lab, URL:
<http://senseable.mit.edu/trashtrack/> (dostęp: 14.01.2012 r.) oraz: Trash Track, MIT
Senseable City Lab [w:] Repair…, s. 46–49.
Smart Dust. Autonomous Sensing and Communication in a Cubic Milimeter. (K. Pister,
J. Kahn, B. Boser), strona projektu w University of Berkley, URL: <http://robotics.
eecs.berkeley.edu/~pister/SmartDust/> (dostęp: 14.01.2012 r.).
Pigeon Blog, URL: <www.beatrizdacosta.net/pigeonblog.php> (dostęp: 14.01.2012
r.) oraz: B. da Costa, C. Hazegh, K. Ponto, PigeonBlog [w:] CyberArts 2007. Prix Ars
Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2007, s. 144–145;
Tracing Mobility: Gordan Savicic – Constraint City / The pain of everyday life 2007,
URL: <http://trampoline.org.uk/tracingmobility/artist/trampoline/gordan-savicicconstraintcity> (dostęp: 14.01.2012 r.) oraz: G. Savicic, Constrained City / The pain of
196
Interesujący jest również nurt ukazujący poszukiwania w zakresie istoty technologii jako systemu: na przykład G-player, estetyzujący działanie GPS
w formie nagrań audio powierzchni Ziemi (satelita pełni tu rolę metaforycznej
igły adaptera), Drift Deck, kompas tematyzujący w przewrotny sposób ideę odnajdywania drogi (wayfinding) za pomocą tradycyjnych narzędzi nawigacyjnych
(kompas zmodyfikowany jest odpowiednim oprogramowaniem, które hakuje
działanie urządzenia w sposób widoczny dla użytkownika), czy Redes Vestiveis /
Wearable Nets – aplikacja tematyzująca wearable computing, ubicomp oraz geolokalizację, umożliwiająca zabawę w terenie, polegającą na geolokalizacji grupy
użytkowników jako elementów wspólnej sieci37. Oczywiście można tę listę wydłużyć również o znaczące eksperymenty Chrisa Nolda czy o prace powstające
w MIT Senseable City Lab (należy do nich zresztą wspominany tu Trash Track)38.
Każda z tych prac na swój sposób stanowi refleksję nad stanem kultury i technologii, a także naturą samego człowieka, która ulega transformacjom.
Paradoks mindware
Jeżeli potraktować mindware jako pewną metaforę współczesnych przemian cywilizacyjnych, otwierającą nowe sposoby patrzenia na rolę technologii
informatycznych i informacyjnych w procesie kształtowania świadomości współczesnego człowieka, można rozumieć termin na kilka sposobów, które niekoniecznie się wzajemnie wykluczają. Mindware może oznaczać zatem: technologie
umysłu, umysł technologiczny lub też termin ten rozumieć należy zgodnie z etymologią. Może też być wypadkową wszystkich tych sposobów rozumienia.
Refleksję wypada paradoksalnie zacząć od analizy ostatniej z propozycji
jako podstawowej w sensie semiotycznym. O ile trudno sprzeczać się z tym, co
oznacza MIND, gdyż tłumaczenia od lat są raczej jednoznaczne i koncentrują się
na rozumieniu go jako UMYSŁ, o tyle słownik (na przykład Webster) podaje różne znaczenia słowa WARE. Z jednej strony są to ‘dobra, które podlegają wymianie handlowej’, z drugiej – co ciekawe w kontekście kulturoznawczym – ‘dobra
wytworzone ręcznie’, a z trzeciej – pozornie paradoksalnie: ‘pottery’, a zatem ‘zastawa stołowa’ czy ‘porcelana’, co w kontekście historyczno-kulturowym można
rozumieć jako pierwszy symbol bogactwa, zbytku. Warto rozważyć te propozycje słownikowe, wskazują one na historię pojęcia i na wyrazistą wartość kulturową przedmiotów, które określano jako ware. MindWARE musi być więc czymś
ważnym dla cywilizacji, czymś drogim w sensie kulturowym, ideologicznym
bądź ekonomicznym, wreszcie musi być wytworem ludzkim (choć argumentu
37
38
everyday life [w:] CyberArts 2008. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf,
G. Stocker, Linz 2008, s. 170–171; Participatory Urbanism (E. Paulos, I. Smith, RJ
Honicky), URL: <www.urban-atmospheres.net/ParticipatoryUrbanism/index.
html> (dostęp: 14.01.2012 r.) oraz: Greenfield, Shepard, Urban Computing…, s. 42;
F. Moldovan, Microblogging Suit for an Industrial Worker [w:] Human Nature. Ars Electronica 2010, red. G. Stocker Ch. Schöpf, Linz 2007, s. 120–121.
J. Brand, G-player [w:] CyberArts 2005. Prix Ars Electronica, red. H. Leopoldseder,
Ch. Schöpf, G. Stocker, Linz 2005, s. 78. Near Future Laboratory. Projects: Drift Deck,
URL: <http://nearfuturelaboratory.com/projects> oraz J. Bleecker, N. Nova, A Synchronicity…, s. 34–36; Redes Vestiveis, URL: <http://redesvestiveis.net/en/index.html>
(dostęp: 14.01.2012 r.) oraz: C. Bueno, Redes Vestiveis / Wearable Nets [w:] CyberArts
2011. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker , Linz 2011, s.
186–187.
O interesujących pracach Chrisa Nolda pisze w tym tomie w swoim artykule Anna
Nacher; por. też: Tejże: BioMapping Christiana Nolda – transmedialna retoryka wędrowna [w:] Sztuki w przestrzeni transmedialnej, red. T. Załuski, Łódź 2010, s. 232–243; oraz:
MIT Senseable City Lab, URL: <http://senseable.mit.edu> (dostęp: 14.01.2012 r.).
197
o ręcznym wyrobie raczej nie uda się utrzymać, warto jednak wrócić do tej kwestii w kontekście technologii druku 3D i FabLab-ów czy DIY). Ostatnie podane
w słowniku znaczenie odsyła też do istotnej kwestii – pewnej ekskluzywności.
Oczywiście nie trzeba skupiać się na tym właśnie znaczeniu; odsyła ono raczej
do historii rozumienia dóbr materialnych. Źródłosłów wskazuje zresztą na ‘dobra, o które trzeba się troszczyć’, ‘o które trzeba dbać’, ale i ‘obserwować’ (observe, take care). Słowo ware pochodzi od staroangielskiego warian, czyli strażnik.
Podsumowując, znaczenie słownikowe odsyła do rozumienia mindware jako dóbr
umysłowych, których należy strzec.
Proponowane tu rozumienie wiąże się również z pierwszym sygnalizowanym sposobem rozumienia terminu jako technologii umysłu. W tym ujęciu
mindware można rozumieć wielorako, mając jednak na uwadze związek nowych
mediów z nowymi sposobami myślenia, wpływ nowych technologii na określone
strategie kognitywne, także świadomość. Należy jednak sprecyzować ten punkt
widzenia: nie chodzi o to, czy postrzegamy piksele i jak, cechy nowych mediów,
takie jak interaktywność wpływają na nasze zachowania. Kwestie te zostały już
wyczerpująco opisane pojęciami: nowe media (choćby w ujęciu Manovicha), inteligencja kolektywna / konektywna (w ujęciu Lévy’ego i de Kerckhove’a) czy po
prostu zawierają się w pojęciu cyberkultura. Należy tu doprecyzować ‚technologie umysłu’ jako nowe technologie, które wpływają na nasze rozumienie świata
i strukturę kultury, a nawet samego mózgu (na co wskazują na przykład badania
Susan Greenfield), stanowiąc dla niego ramę kognitywną. Pośrednio chodzi tu
zatem o zjawisko, o którym już dawno w kontekście innych mediów pisał Marshall McLuhan, a następnie Derrick de Kerckhove, który odnosił tę perspektywę
do mediów cyfrowych. Mindware możemy zatem rozumieć jako ‘technologie
umysłu’, ale z zastrzeżeniem, że na nowo definiujemy zarazem: ‘medium’, ‘efekty działania medium’ i de Kerckhove’owskie ‘psychotechnologie’.
Mindware jako ‘technologie umysłu’ odnoszą oczywiście również do neuropsychologii, teorii wpływu społecznego, wyobraźni kulturowej, komunikacji
zapośredniczonej, a także do kwestii władzy, ideologii, technokracji i roli nauki
oraz sztuki w procesie kształtowania współczesnej umysłowości. Mindware zatem to przede wszystkim Google i Facebook. Mindware to Twitter i YouTube. Mindware to systemy operacyjne i programy, z których korzystamy bezrefleksyjnie
na co dzień, a także iPhone i Android. Narzędzia, kształtujące myśli współczesnego człowieka, wyznaczające horyzont poznawczy, w sposób determinujący
i zarazem dyskretny, a zatem niezauważalny. Mindware to także technologie codzienności: globalna Sieć, telefonia komórkowa i GPS. Jednocześnie mindware
to narzędzia niezgody na posłuszeństwo wobec systemu – Wikileaks, wikimapy, wreszcie mikroblogi pozwalające zbierać się na placach i protestować, a także opisane działania haktywistyczne i artystyczne. Z drugiej strony, mindware to
także technologie wielbione przez transhumanistów z kręgu Raymonda Kurzweila i budowane przez inżynierów-technorealistów, jak Kevin Warwick. MindWare
jednocześnie może być nazwą pierwszego komercyjnego chipu domózgowego lub innej technologii rozszerzającej pamięć biologiczną.
Może jednak mindware to przede wszystkim stan umysłu ‘umysł technologiczny’, charakteryzujący cyberkulturę. Jedno drugiego nie wyklucza. Dokąd
nas zaprowadzi taka refleksja? Może warto przypomnieć sobie słowa McLuhana – „rozszerzenie oznacza też amputację”.
198
Postmediacje
Wokół interfejsów
Sztuka mediów
Chwytanie ruchu
Paweł Janicki
201
Chciałbym napisać kilka słów o konsekwencjach eksperymentów warsztatowych w przestrzeni sztuki mediów. Ponieważ, poza własną aktywnością
twórczą, często zdarza mi się wspomagać innych artystów operujących w domenie mediów elektronicznych. Zacząłem w pewnym momencie zauważać, że
moje doświadczenia i przemyślenia związane z działalnością na tym polu układają się w pewien pattern. Warsztat artysty medialnego jest często, szczególnie na rodzimym gruncie, sprowadzany do kategorii technologicznych. Nie ma
w tym niczego dziwnego, generalnie cała sztuka współczesna jest „rozczarowana warsztatem” i poszukuje wartościowych jakości poza nim. Istnieje jednak
zasadnicza różnica pomiędzy porzuceniem jałowego w istocie dekoracjonizmu
i technicznego „dopieszczania” prac (współcześnie charakterystycznych bardziej dla reklamy niż działalności artystycznej) a niechęcią do rozumienia tego,
w jaki sposób działa to, z czego można korzystać. Biorąc pod uwagę, że twórca
medialny korzysta zasadniczo z tej samej technologii, która kształtuje obrazowanie otaczającego świata, można powiedzieć, że ignorowanie specyfiki warsztatu medialnego świadczy w jakiejś mierze o niechęci do prób zrozumienia
otaczającej rzeczywistości.
Wydaje mi się, że wielu obecnie aktywnych artystów korzysta z mediów
elektronicznych na sposób kliencki: uważają, że środki są już gotowe, a operowaniem nimi (ewentualnie ich przystosowaniem) powinien zająć się „ktoś inny”.
W tym miejscu pojawia się zresztą figura „mitycznego informatyka”, wcielającego
w życie genialne koncepcje artysty. Idee w rodzaju punkowo-kontrkulturowego
do it yourself, twórczego sabotażu, poszerzania granic mediów i ich krytycznej
dekonstrukcji czy wreszcie zwykłej ciekawości zmuszającej do zaglądania „pod
obudowę” funkcjonują głównie na papierze, w tekstach krytycznych i wymaganych przez duże festiwale krótkich (przynajmniej w teorii, bo w praktyce bombastycznych i rozdymanych do granic absurdu) opisach prac. Wielu artystów
odbiera też zmedializowaną rzeczywistość w sposób konsumencki: korzystają
po prostu z przedstawianej im oferty.
Dotyczy to zresztą wszystkich osób zaangażowanych w medialny segment art world. Naturalnie, podobne do powyższych (i, jak zostanie to przedstawione, poniższych), wnioski można ekstrapolować na życie społeczne w szerszym
niż związane ze sztuką rozumieniem. Na szczęście jednak wiele kreatywnych indywidualności konsekwentnie stara się podążać innymi ścieżkami i głównie o rezultatach ich aktywności chciałbym pisać w dalszej części tekstu. Zamierzam
skupić się na losach jednego tylko urządzenia: kamery – wydaje mi się, że to,
w jakich kontekstach kamera funkcjonuje, ukazuje wyraziście, że żaden środek
techniczny nigdy nie jest „gotowy”, a tylko od nas zależy, czy zajmiemy się jego
bezpiecznym używaniem i „zużywaniem” w ramach aktualnie dominującego
modelu praktyk, czy raczej nasza ciekawość i chęć podjęcia ryzyka popchnie
nas na nieznane wody.
*
Pojawienie się mechanicznych technik rejestracji obrazu, a więc fotografii,
a później filmu, wpłynęło, co oczywiste, w znaczny sposób na funkcjonowanie
starszych mediów: choćby malarstwa, rzeźby i teatru. Poza tym wykształciło jednak wiele praktyk swoistych dla własnej technologicznej podstawy, czyli, przede wszystkim, sztukę fotografii i sztukę operatorską. Jedna i druga posługuje się
w tej chwili własnym, samodzielnym językiem, korzystającym z dorobku wcześniej istniejących sztuk wizualnych i narracyjnych, ale jednocześnie nieredukowalnym do historycznych inspiracji. Dla starszych sióstr-mediów fotografia i film
203
okazały się technicznym pomocnikiem umożliwiającym uproszczenie wielu kłopotliwych do tej pory czynności, uzupełnieniem rezerwuaru środków (np. tak
było w przypadku scenografii), a wreszcie, co wydaje się najciekawsze, źródłem
nowych idei pozwalających spojrzeć w nowy sposób na elementy znanej rzeczywistości. Jednocześnie film i fotografia wyewoluowały od jarmarcznych pierwocin
do pełnowartościowych dyscyplin artystycznych z niejakim tylko rozrzewnieniem
spoglądających wstecz na skromne, protoplazmatyczne początki.
Schemat powyższy jest w pewnej mierze oczywisty: nowe – w zastanej chwili – media tworzą, nie bez odniesień do historii, własne formy i estetyki
oraz wzbogacają i przemieniają media starsze (czasem uwalniając je od ciężaru
powinności, tak jak media hipertekstowe, które wyparły papierowe spisy numerów telefonicznych itp.). Zwykle za ciekawsze i bardziej wartościowe uważa się te
przestrzenie, które nowe media tworzą, a nie te, które modyfikują. Czasem warto przyjrzeć się właśnie temu, w jaki sposób nowe media wpływają na to, co istniało wcześniej – niekiedy okazuje się, że nowości dostarczają nam perspektywy,
w której znane obiekty ujawniają nieodkryte wcześniej właściwości.
Nieprzypadkowo rozpoczynam, pisząc o kamerze, ponieważ jest to obiekt
szczególny, którego losy i recepcja obecności w dużej mierze zależały i zależą
od kontekstu (inaczej przecież myśli się o kamerze filmowej, inaczej o CCTV itp).
To samo dotyczy sposobu jego wykorzystania, można rzec, że kamera mówi
różnymi językami, w zależności od miejsca, w którym się ją napotyka. McLuhanowski bon mot „medium jest przekazem” trzeba więc wobec kamery stosować nader ostrożnie.
*
To, że kamera potrafi więcej, niż się zwykle wydaje, ukazują technologie
wykorzystujące ją w charakterze sensora ruchu. Systemy śledzenia ruchu (motion
capture, motion tracking) pojawiły się na skrzyżowaniu kilku przynajmniej dyscyplin i zapotrzebowań: animacji, filmu, mediów interaktywnych, technik dozoru.
Zasadniczo służą jednemu celowi: wychwyceniu informacji o ruchu obiektów
poruszających się w monitorowanej strefie. Rodzaj informacji, jaki chce się uzyskać, jest zawsze jak najszerszy: zasadniczo chciałoby się wiedzieć o poruszającym obiekcie „wszystko”, ale z różnych, w tym czysto technicznych powodów
należy ograniczać się do pewnego zbioru informacji, często zresztą pokrywającego się z najbardziej potrzebnymi danymi. Oczywiście same zebrane informacje
muszą być dostępne w formie pozwalającej na ich wykorzystanie (powiadomienie policji o włamaniu, sterowanie awatarem w środowisku 3D itp.). Wraz z rozwojem technologicznym systemy takie zmieniały swoje formy (warto zauważyć,
że zanim systemy śledzenia ruchu pojawiły się w znanych współcześnie formach,
istniały ich antycypacje, np. znana animatorom i stosowana po dziś dzień rotoskopia) od czysto mechanicznych, elektrycznych i fotoelektrycznych, do współczesnych, opartych często na bardzo wyrafinowanych typach sensorów.
Warto w tym miejscu zauważyć, że, wbrew pozorom, zagadnienia technologiczne związane ze śledzeniem ruchu wcale nie są banalne. Dla większości
ludzi wyłuskanie z tła obrazu ruchomych elementów (nawet jeśli każdy nieraz
daje się oszukać, siedząc w pociągu i biorąc ruch innego pociągu widzianego
z okna za własny lub odwrotnie) i rozpoznanie w nich np. osób lub maszyn jest
tak intuicyjne, że nie zawracają sobie głowy myśleniem o naturze i skomplikowaniu procesów pozwalających na finalne przekazanie świadomości informacji
w rodzaju „zbliża się pies”. W rzeczywistości jednak są to dość skomplikowane
i kosztowne obliczeniowo aktywności, symulacją lub substytucją których zajmują
204
się np. osoby parające się robotyką, balistyką czy wspomnianymi technikami dozoru. A także, jak się okazuje, artyści i osoby związane z wykorzystaniem technologii medialnych w sztuce lub w przemysłach rozrywkowych. Każdy system
śledzenia ruchu wymaga jakiegoś typu sensora umożliwiającego wykrycie samego wystąpienia ruchu i jego parametrów. Ma się więc czasem do czynienia
z ubieralnymi lub nawet wszczepialnymi (jeśli w doświadczeniu zależy na wykryciu ruchu człowieka lub zwierzęcia) systemami opartymi na różnego rodzaju markerach (radiowych, podczerwonych, ultradźwiękowych), różnego rodzaju
konceptami opartymi na detekcji pola elektromagnetycznego (np. reagujący na
ruch ręki muzyka thereminvox) i innymi.
Osobną kategorię systemów śledzenia ruchu tworzą te, które wykorzystują jako sensor kamerę. Kamera przekazuje obraz do odpowiedniego oprogramowania, zajmującego się analizą napływającego strumienia wideo i wyłuskiwaniem
z niego informacji. Znów może się to wydać oczywiste (w końcu każdy jest w stanie zidentyfikować ruchome obiekty wyświetlane na ekranie choćby podczas seansu w kinie), jednak w praktyce uzyskanie precyzyjnej informacji o tym, co i w jaki
sposób się porusza, nie jest łatwe z powodów, o których pisałem wyżej.
Jeśli założy się, że kamera jest statyczna (nie porusza się, a operator nie
manipuluje obiektywem ani innymi parametrami, czyli kamera po prostu została włączona i rejestruje obraz), a do tego monitorowana przestrzeń jest oświetlona w stały i niezmienny sposób, to różnice pomiędzy kolejnymi klatkami obrazu
świadczą o tym, że coś tam się porusza. Jeśli np. ustawi się kamerę w pustym
pokoju, zapisze jedną klatkę obrazu, a następnie będzie porównywać ją z kolejnymi, to w momencie, kiedy wychwyci się różnicę pomiędzy klatką „wzorcową”
i którąś z kolejnych, można uznać, że odnaleziono ruchomy obiekt (trzeba by tutaj dodać jeszcze wiele technicznych zastrzeżeń, ale nie są one istotne na tym
poziomie ogólności). Filtrację tego typu (porównywanie kolejnych klatek z założonym wzorcem) można przeprowadzić nawet na drodze analogowej, uzyskując obraz zawierający różnicę pomiędzy porównywanymi obrazami. Jednak
narzędzia cyfrowe umożliwiły kontynuację tego procesu o coś jakościowo nowego: analizę wynikowego obrazu i uzyskanie informacji niebędącej kolejnym
obrazem, tylko „matematycznym” opisem ruchomych elementów (np. wektora ruchu, położenia środka, punktów wyznaczających kontur itp.). W połączeniu z algorytmami rozpoznawania wzorca (pattern recognition, computer vision)
można pójść nawet dużo dalej, rozpoznając twarze, specyficzne kształty (świetnymi przykładami będą tu m.in. środowiska ARToolkit lub markery Reactivision),
dopasowując dane o ruchu do kształtu człowieka (np. „szkielet” znany z gier korzystających z Kinect). Swoją drogą wiele z tych możliwości wykorzystuje przemysł rozrywkowy, technologie konsumenckie i systemy nadzoru.
Naturalnie wyprodukowane przez systemy śledzenia ruchu dane łatwo
jest zamienić na dowolne inne medium, m.in. na. dźwięk, co otwiera ciekawe
możliwości budowy interfejsów dla instrumentów muzycznych. Efekty pracy systemu śledzenia ruchu mogą być łatwo transmitowane na przykład przez Sieć,
umożliwiając coś, co można by nazwać hiperprzestrzenną kompozycją kinetyczną [tego rodzaju informacje zajmują dużo mniejszą część pasma transmisji niż
surowy obraz (innymi słowy, nie wymaga szybkiego połączenia), jest to technologicznie i ekonomicznie bardzo wygodne]. Wydaje mi się, że w pewien sposób
jest to o wiele ciekawsza sytuacja niż typowe telematyczne projekty powielające (czyli wyświetlające) jedynie zarejestrowany obraz w innym fizycznym miejscu, niczym znane z telewizyjnych programów rozrywkowych z lat 80. i 90. XX
w. „telemosty”. Pionierów tego rodzaju systemów było oczywiście przynajmniej
kilku, warto w tym miejscu wspomnieć urodzonego w 1942 r. Myrona Kruegera,
205
znanego m.in. dzięki interaktywnemu środowisku „Videoplace” (1975), który rozpoczął eksperymenty z interaktywnymi systemami opartymi na systemach śledzenia ruchu już w późnych latach 60. XX w. (w 1969 roku przestawił, wspólnie
z Danem Sandinem, Jerrym Erdmanem i Richardem Venezkym, interaktywne
środowisko „Glowflow”). Krueger, m.in. dzięki teoretycznej i praktycznej wiedzy
o technologii, był w stanie sformułować odpowiednie koncepcje i później wcielać
je w życie. Krueger po dziś dzień jest zainteresowany interakcją jako samodzielną
jakością nie zaś interakcją „po coś” czy istniejącą jako funkcjonalny element dzieła sztuki. Właściwie wszystkie jego realizacje mają charakter interaktywny i w jakiś sposób są związane z kontrolą środowiska medialnego za pomocą ciała (stąd
Myron Krueger czasem bywa przywoływany jako pionier VR i AR).
Poza Kruegerem, jak wspomniałem, wielu innych artystów medialnych
eksperymentowało z kamerą, głównie dotyczy to twórców skupionych, podobnie jak Krueger, na interakcji. Prace interaktywne niemal zawsze potrzebują jakiegoś interfejsu umożliwiającego komunikację odbiorców z dziełem, bardzo szybko
okazało się, że kamera jest urządzeniem tak rozpowszechnionym i wszechstronnym, że jest po prostu najwygodniejszym sensorem, jakim łatwo można posłużyć
się, zwłaszcza w instalacjach i innych realizacjach wykorzystujących komputer.
Systemy śledzenia ruchu, pomimo „artystycznych” zastosowań, ciągle nie
utraciły związków z systemami nadzoru przemysłowego, np. popularna głównie
w Niemczech, zaprojektowana przez Friedera Weißa aplikacja „EyeCon” (wykorzystywana m.in. przez kampanie teatralne i zespoły łączące np. taniec z nowymi
mediami) jest zoptymalizowana do pracy z kamerami nadzoru przemysłowego
pracującymi w podczerwieni. Częste wykorzystanie pasma podczerwieni w tego
typu systemach jest spowodowane tym, że można uniezależnić się od światła widzialnego. Przykładowo, scena oświetlona reflektorami podczerwieni i widziana
przez kamerę pracującą w tym paśmie promieniowania elektromagnetycznego
daje ciągle pełne możliwości kształtowania oświetlenia w zakresie widzialnego
spektrum, podobnie omawiany system będzie niewrażliwy na np. światło pochodzące z przypadkowych źródeł, choćby lamp błyskowych.
Systemy śledzenia ruchu oparte na kamerze okazały się też „brakującym
ogniwem” pomiędzy sztuką technologii cyfrowych a dyscyplinami związanymi
z ciałem, takimi jak taniec, teatr czy performance. Dzięki informacjom z systemów
śledzenia ruchu można łatwo powiązać fizyczną aktywność performera, aktora
lub tancerza z tym, co dzieje się na planie mediów elektronicznych. Zasadniczo
cały zakres sztuki związanej z ciałem zyskał tutaj wiele nowych możliwości.
Powiązanie mediów elektronicznych i ciała jest możliwe oczywiście na
wiele sposobów, kamera, dzięki wbudowanemu w nią systemowi śledzenia ruchu, ma tę zaletę (czy raczej „cechę”, bo w pewnych warunkach może się to okazać wadą), że nie jest inwazyjna i nie wymaga ubierania, nakładania specjalnych
sensorów i innych. Na tę bolączkę cierpiały wcześniej systemy VR wymagające
zawsze niewygodnego i od pewnego momentu zwyczajnie śmiesznego rynsztunku. Po prostu znajdując się w polu widzenia kamery, jest się monitorowanym, a parametry sposobu poruszania się modulują parametry otaczającego,
medialnego środowiska. Gotowość systemu śledzenia ruchu na przyjęcie „przypadkowego przechodnia” (znajdując się w polu widzenia kamery, jest się „analizowanym”, bez względu na to, czy się tego chce, czy nie) wydaje się zresztą
również bardzo ważna.
Co ciekawe, systemy śledzenia ruchu pozwoliły zwrócić uwagę na to, że
kamera rejestruje pewne informacje, pozornie nieobecne w wynikowym dwuwymiarowym obrazie. Istnieją algorytmy pozwalające zdekomponować z zarejestrowanego lub napływającego w czasie rzeczywistym strumienia kadrów
206
informacji o położeniu obiektów (w tym samej kamery – tego rodzaju algorytmy należą do nielicznych z grupy, wykorzystywanych przez filmowców: niekanoniczne zastosowania kamery ciągle pozostają w domenie twórców medialnych
i... przemysłu rozrywkowego, choć film intensywnie je inkorporuje, zwłaszcza
w czasach masowego przechodzenia na technologię 3D) w przestrzeni trójwymiarowej. Okazało się więc, że nie jest wcale takie oczywiste zrozumienie, czym
tak naprawdę kamera jest i jakie daje możliwości. Aby spojrzeć na kamerę pod
tym kątem, należy uzupełnić ją o program woalny, cyfrowy symbiont.
Gdyby próbować ująć rzecz inaczej: ma się do czynienia ze zmianą efektu użycia kamery, rejestracja przestaje być mechaniczna, nie otrzymuje się już
uproszczonej odbitki rzeczywistości, tylko coś (w zasadzie czystą informację), co
można określić jako jej genotyp – to duża różnica w stosunku do mechanicznej
reprodukcji (ktoś mógłby przecież powiedzieć, że kamera i tak jest narzędziem
do rejestracji „ruchomych obrazów”). Można pokusić się o stwierdzenie, że „oko”
kamery zostało uzupełnione o elementy systemu nerwowego.
Zasadniczo systemy śledzenia ruchu nie są tu wyjątkiem – istnieje wiele
przykładów na to, w jaki sposób technologie cyfrowe i komputery dostarczyły
myślowych narzędzi pozwalających w inny, świeży sposób spojrzeć na otaczającą rzeczywistość – prawdopodobnie najbardziej spektakularnych rezultatów
dostarczyło spojrzenie na mózg jako na komputer lub sieć komputerów. Niedawno dowiedziałem się, że jedna z firm produkujących sprzęt muzyczny wprowadza na rynek inspirowaną ekranami dotykowymi klawiaturę MIDI, klawiatura ta,
poza możliwością typowego naciskania klawiszy, pozwala generować komunikaty sterujące instrumentem (lub czymkolwiek, co korzysta z protokołu MIDI) za
pomocą dotknięć i gestów, coś, czego do tej pory nie było w zwykłych klawiaturach. Jeśli opisany instrument generuje przykładowo na bazie modelowania
fizycznego dźwięk struny, to „szuranie” po klawiszach może uruchomić efekt
analogiczny do przeciągnięcia palcem po strunie, a naciśnięcie klawisza można
powiązać z tradycyjnym szarpnięciem.
Wracając jednak do systemów śledzenia ruchu, opartych na kamerze, abstrahując od kwestii technologii, istotne jest w nich to, że tego typu koncepcje
dawało się w jakiejś mierze opracować dużo wcześniej, niż to faktycznie nastąpiło. Rozpowszechnienie technologii cyfrowych umożliwiło po prostu spojrzenie na istniejący wcześniej świat z innej perspektywy.
*
Kamera pozostaje ciągle najbardziej rozpoznawalnym symbolem i narzędziem filmu (taśma definitywnie przestała nim być), jednak nie jest już własnością filmowców, ta sytuacja zmieniła się w momencie ukonstytuowania się sztuki
wideo. Natomiast prawdziwa redefinicja tego, czym jest kamera, nastąpiła później, właśnie dzięki jej użyciu w systemach śledzenia ruchu i szeroko rozumianej
sztuce mediów. Kamera jako sensor jest czymś jakościowo innym. Nie wątpię
przy tym, że koniec końców dziedziny, takie jak film i fotografia zassą osiągnięcia nowych mediów (warto przy okazji wspomnieć, że wiele problemów pojawiających się np. przy produkcji efektów specjalnych dałoby się przynajmniej
częściowo rozwiązać przez integrację tradycyjnych technik filmowych z osiągnięciami nowych mediów – powoli tak się zresztą dzieje).
Mimo to sama sztuka wideo roszcząca sobie prawa do mówienia „prawdziwym” językiem kamery, w jakiejś mierze w kontrze do kwiecistego i literackiego języka filmu (niczym relacja języka i estetyki performance do języka teatru),
jakkolwiek prawdziwy stosunek do filmu artystów wideo i artystów medialnych
207
w ogólności jest w rzeczywistości dużo bardziej skomplikowany – również przespała ważny moment. Przypadek sztuki wideo wydaje się zresztą szczególnie
istotny, niezależnie od możliwości i realizacyjnego oraz technologicznego rozmachu i wyrafinowania niektórych prac, zasadniczo wideo uchodzi za warsztatowo
niewymagającą dziedzinę medialnej twórczości (stąd wielu twórców parających
się na co dzień innymi dziedzinami sięga też, z różnym skutkiem, po kamery),
zwłaszcza że większość twórców ma dostęp jedynie do niemiłosiernie upraszanego (w sensie obsługi) sprzętu konsumenckiego, poza tym, pomimo wykorzystania technologii cyfrowych, większość twórców wideo stawia na, w jakiejś
mierze, kojarzącą się z analogowością intuicyjność.
Zatem można spotkać się przynajmniej z dwoma środowiskami, które,
choć nierozerwalnie zżyte z kamerami (i świetnie się nimi posługujące w obrębie własnych języków, np. filmowi warto oddać sprawiedliwość, choćby ze
względu na popchnięcie do przodu długo traktowanego po macoszemu 3D),
nie wygenerowały jednak najważniejszej zmiany, jaka zaszła w myśleniu o kamerze na przełomie XX i XXI wieku. To, co napisałem o filmowcach i twórcach
wideo, nie jest zresztą próbą wskazywania słabości. Jest raczej stwierdzeniem,
że innowacje nie pojawiają się w sposób liniowo wynikający ze status quo. Często wiążą się z czymś, co pisarz Douglas Coupland określił żartobliwie jako „zejście na lepszą krzywą”, porzucenie części dotychczasowego dorobku i pozycji
oraz rozpoczęcie nowej aktywności na polu wymagającym pewnych podstawowych aktywności, ale jednocześnie dającym potencjalnie lepsze perspektywy.
Niemniej warto zastanowić się, w jakich warunkach takie innowacyjne koncepcje rzeczywiście powstają. Przypadek kamery nie jest wszak odosobniony, wiele
innych, podobnie obciążonych tradycją obiektów doczekało się swoich postdigitalnych rewaloryzacji (dotyczy to np. instrumentów muzycznych i książki). Na
ogół, jak się okazuje, wymagają one czegoś, co nazwałbym realną wiedzą o bazowej technologii, aby wydrzeć otoczeniu nieodkrytą jeszcze tajemnicę, trzeba
umieć sięgnąć do jego trzewi.
Ewolucja roli kamery i poszerzanie jej możliwości, które dokonały się dzięki technologiom cyfrowym i programowaniu, ukazują, w jaki sposób technologie cyfrowe mogą być użyteczne nie tylko same w sobie, ale jako narzędzie
pozwalające na nowo spojrzeć na otoczenie. Nie odwołując się nawet do społecznych, psychologicznych czy kulturoznawczych teorii, nie sposób uciec od
przeświadczenia o tym, że kultura współczesna jest w pewnej mierze kulturą
unikania pogłębionego spojrzenia na rzeczywistość. Jest również kulturą konsumencką w tym sensie, że pewne produkty zaspokajają przewidywalnie pojawiające się (bo ekonomicznie uzasadnione) i rozpoznane potrzeby. W tej chwili
wszyscy jesteśmy otoczeni coraz większą masą obiektów, które są traktowane
i proponowane jako „gotowe”, producenci tych obiektów zachęcają do ich wykorzystania (skonsumowania). Może to być kamera, instrument muzyczny, formuła korzystania z Internetu (np. portal społecznościowy) – bez wątpienia można
rozwijać, bazując na ich technologicznej podstawie (a zarazem ją porzucając),
sposoby korzystania z tych obiektów. Można też założyć, że są one niewystarczające, niegotowe i eksperymentować z nimi, odkrywając ich nieznane wcześniej cechy – ostatecznie ciekawość świata jest nie tylko motorem postępu, ale
i osobistego rozwoju.
208
Teorie mindware
Wokół interfejsów
Sztuka mediów
Społeczne i intymne interfejsy cyberkultury
Michał Derda-Nowakowski
211
Intymny wielodotyk
Monitorowanie user experience to dziedzina na tyle rozbudowana, że na
jego podstawie można dziś profilować możliwe odpowiedzi na potencjalne zapytania użytkownika. Wkraczamy w świat inteligentnych agentów, dostosowanych do potrzeb i właściwości kognitywnej jednostki wchodzącej w interakcję.
Można przewidywać poznawcze gesty i wyprzedzać je, a działania neuromarketingowe (jako element standardowej strategii korporacyjnej) stały się narzędziem badania relacji z klientem.
Egzystencjalne tło doświadczenia użytkownika ujawnia się szczególnie
w przypadku korzystania z przeglądarek w urządzeniach przenośnych. Standardowo rejestruje się nie tylko operacje semantyczne (wprowadzone frazy),
ale również ilość, częstotliwość zapytań oraz dalsze działania użytkownika po
otrzymaniu odpowiedzi. Bardzo ważnym czynnikiem jest geolokalizacja skojarzona wprost z otrzymanymi wynikami lub podpowiedziami otrzymywanymi
już w momencie wpisywania frazy wyszukiwania. Google ma zadanie bardzo
ułatwione – olbrzymią bazę danych o tym, czego ludzie szukają i jak to robią.
Kiedy w 2010 wprowadzono usługę Google Instant, dynamiczne wyniki i przewidywanie dalszego ciągu zapytania stało się najbardziej rewolucyjną koncepcją współczesnych interfejsów wiedzy:
Podczas analizy technicznej stwierdziliśmy, że użytkownicy piszą relatywnie powoli, ale szybko czytają. Naciśnięcie kolejnego klawisza trwa
zazwyczaj 300 milisekund, natomiast spojrzenie na inną część strony –
zaledwie 30 milisekund (dziesięć razy krócej!). Oznacza to, że wpisując zapytanie do wyszukiwarki, można zerkać na pojawiające się wyniki
wyszukiwania1.
Problemem jest wprowadzanie danych do interfejsu, powoli zastępowane (szczególnie w sytuacji komunikowania mobilnego) coraz bardziej skutecznymi technikami rozpoznawania mowy. Wprowadzanie ciągu znaków pozostanie
jednak najbardziej pożądanym sposobem, dzięki któremu użytkownik może skomunikować się z bazą danych. W grę wchodzą milisekundy, ale gdy przeliczyć je
na liczbę zadanych Google zapytań w ciągu sekundy w skali globalnej, okazuje
się, że chodzi w istocie o olbrzymią moc obliczeniową konieczną do podtrzymywania czynności życiowych cyfrowego ekosystemu. Ekonomia zapytań dotyczy
więc nie tylko użytkownika i jego wygody, lecz również poważnych oszczędności,
które mają duże znaczenie dla korporacji. Zwycięstwo zmysłu wzroku nad dotykiem jest jednak tylko pozorne. Trzeba stwierdzić, że multitouch i globalne uruchomienie zmysłu dotyku, mało czynnego do tej pory w komunikacji kulturowej,
stanowi transgresję nie tylko w przestrzeni interakcji człowiek-komputer (HCI –
human-computer interactions), lecz jest również przekroczeniem intymnej granicy pomiędzy ja i interaktywnym ekranem. Trzeba tylko poczekać na długofalowe
skutki dotykania ekranów przez dużą część populacji, na efekty komunikowania
się z cyberkulturowym światem w sposób najbardziej intuicyjny i bezpośredni.
Touchpady i dotykowe ekrany stają się dziś jednymi z najważniejszych narzędzi
HCI, ale również nieodłącznym elementem nowych interfejsów wiedzy.
Ekonomia dotyku wiąże się dziś szczególnie z technicyzacją i zwiększaniem efektywności procesu udzielania odpowiedzi na pytanie zadawane
bazom danych. Bezpośrednie dotykanie ekranów czy pośrednie gładzików z pominięciem znanych wcześniej manipulacyjnych peryferiów prowadzą do sytuacji,
1
<www.google.com/insidesearch/instant-about.html>.
213
w której zmysł dotyku stał się pełnoprawnym elementem strukturyzowania i operowania wiedzą abstrakcyjną, a nawet samym językiem. Zwiększyło się również
znaczenie dotyku w procesie rejestracji obrazu, gdy ostrzenie odbywa się nie
tylko przez oko i cały zmysł wzroku, ale przez bezpośrednie wskazanie palcem
odpowiedniego obszaru ekranu. Bezpośrednie wskazywanie jest nawet bardziej
ekonomiczne niż wyrafinowane śledzenie oka znane z profesjonalnych aparatów fotograficznych. Patrzenie stało się zatem wskazywaniem, w którym bierze
udział ciało. Zastosowanie ekstensywnych form dotyku i towarzyszące temu mikroemocje są elementami strategii operowania treścią w kulturze – prowadzą
do tego, że skóra (traktowana dawniej jako powierzchnia, która nie uczestniczy
w dyskursie w sensie kognitywnym) staje się nieodłącznym elementem interfejsu. Derrick de Kerckhove pisze, że współcześnie:
[...] elektryczność i jej liczne aplikacje w elektronice i technologiach bezprzewodowych przywracają dotyk jako wiodącą opcję zmysłową. Nie
jest to jednak wcale oczywiste. Przynajmniej na razie. Słowo digit pochodzi z łaciny i oznacza ‘palec’ (digitus). W przeciwieństwie do swojej
nazwy – to, co cyfrowe nie jest postrzegane jako „dotykowe”. Jednakże w sensie zaproponowanym przez McLuhana i przytoczonym powyżej, cała interkonektywna rzeczywistość cyfrowa jest oceniana jako
rozszerzenie umysłu i kierowana przez całe ciało oraz umysł. Można powiedzieć, jak Walter Ong, który stworzył koncepcję „wtórnej oralności”
wizualnej i słuchowej, że rozwijamy teraz „wtórną taktylność”2.
Procesy cyborgizacji mają charakter miękkich zmian, nie chodzi o to, by się
„digitalizować” jako byty. Digitalizacja jest związana organicznie z „wtórną taktylnością”. Jesteśmy wyposażeni w świetne biologiczne narzędzia do komunikacji, które obejmują również skórę czy całą powierzchnię ciała. Potrzeba tylko zwiększenia
poziomu interakcji: istniejesz albo wypadasz z gry. Skóra nie jest bierna w komunikacji, a całe ciało może uczestniczyć w interakcji, gdy nowe wrażenia, zapewniali
Wii czy Kinect, przekraczają technologiczny próg zarysowany już na początku lat
80. XX w. przez interaktywne eksperymenty pod znamienną nazwą Very Nervous
System3 autorstwa Davida Rokeby’ego, które artysta rozwijał przez następne kilkanaście lat. Dziś ciało staje się pełnoprawnym elementem interakcji. Zostało skomercjalizowane i zmakdonaldyzowane zarazem. Nie trzeba go wyposażać w rozszerzenia
znane z konceptów rzeczywistości wirtualnej: hełmy z okularami, manipulacyjne
rękawice i sensory, które przetwarzają biologiczne gesty w obszar manipulacji wirtualnym światem i prowadzą do spotkania z Innym-wirtualnym-Drugim. Zwolennicy rzeczywistości wirtualnej przegrali walkę o nowy język komunikacji kulturowej,
o „poznanie somatyczne”, doświadczanie i myślenie przez ciało4.
Zamiast rzeczywistości wirtualnej dziś wzbogaca się rzeczywistość fizyczną, a technologie augmented reality zawładnęły światem komunikacji mobilnej
i designem nowatorskich rozwiązań mediów lokalizacyjnych (location media).
Ciało samo w sobie stało się elementem interfejsu, dzięki mechanizmom wbudowanym w technologię wideo. Oko kamery, która podgląda ciało, jest jednak świadectwem prymatu ekstensji wzroku nad dotykiem. Ciało – najbardziej
intymna warstwa interakcji ze światem (ukryte myśli są przecież najwyżej jej
2
3
4
D. de Kerckhove, Umysł dotyku. Obraz, ciało, taktylność, fotografia [w:] Kody McLuhana. Topografia nowych mediów, red. A. Maj i M. Derda-Nowakowski z udziałem
D. de Kerckhove‘a, Wydawnictwo Naukowe ExMachina, Katowice 2009, s. 46.
Zob. D. Rokeby, Very Nervous System, <http://homepage.mac.com/davidrokeby/
vns.html>.
<www.jaronlanier.com>.
214
pretekstem, a mowa zewnętrznym upostaciowieniem reguł konwersacji) zostało zaanektowane bardziej niż dotyk. Wciąganie ciała w interakcję ma również
wymiar złowrogi – ciało dostarczać może nadmiarowych biometrycznych i fizjologicznych informacji, stając się ofiarą systemu kontroli.
Publiczne bicie serca
W roku 2010 zdefiniowano nowe cyberkulturowe zjawisko groźniejsze
dla prywatności od kodów RFID zawartych w papierowych arkuszach banknotów euro czy dolara, których obieg może być śledzony; bardziej złowieszcze od
kodów RFID w oponach samochodowych i wszytych w odzież, umieszczonych
w dowodach tożsamości i paszportach. Jest nim traitorware – systemy identyfikacji i wszelkie działania technologiczne, które do codziennych czynności
i wytworów powstałych za pomocą technologii cyfrowych dodają odpowiedni
znacznik identyfikujący (bez wiedzy i woli użytkownika). Nie jest to jednak konfetti z kodem przypisanym do posiadanego egzemplarza Tasera – teoretycznie
niezabijającego paralizatora, który wystrzeliwuje drut oplatujący napastnika, aby
wysłać w głąb jego ciała kilka impulsów wysokiego napięcia, a zarazem rozpyla
znaczniki na miejscu strzału (oddanego oczywiście w obronie własnej) w celu
zidentyfikowania właściciela tej broni. Indywidualny znacznik produkują drukarki laserowe, systemy DRM działają jak wirusy – instalując znaczące teren rootkity,
rejestratory audio i wideo wytwarzają różne metadane, urządzenia przenośne
gromadzą w pamięci informacje, o których wolałoby się zapomnieć (np. wszystkie punkty lokalizacji telefonu z ostatniego pół roku, zgromadzone niekoniecznie
świadomie przy włączonej funkcji lokalizacyjnej z wykorzystaniem GPS).
Czasem systemy te udostępnia się częściowo użytkownikowi – może on
na przykład zdalnie namierzyć włączony telefon, a nawet zablokować trwale
jego pamięć (na przykład w przypadku kradzieży). Blokadę telefonu może również wykonać sprzedawca, gdy stwierdzi, że jest on użytkowany „niezgodnie
z przeznaczeniem”. Wszystkie tego typu technologie mają w istocie podwójne
zastosowanie. Gdy jednak urządzenie z dotykowym ekranem (zgodnie ze specyfikacją US Patent 20100207721)5 w celu autoryzacji użytkownika stosuje mechanizm nagrania jego głosu, zarejestrowania twarzy i lokalizacji oraz zapisu rytmu
jego serca zostaje przekroczony horyzont oczekiwań poznawczych producentów w ramach monitoringu konsumenckiej lojalności. Pozornie neutralne urządzenie staje się zatem elementem systemu, który zaczyna rozumieć fizjologiczne
parametry użytkownika. Do tej pory intymne doświadczenie taktylne, które – co
prawda – ma swe ekstensje w publicznych bazach danych i systemach śledzenia
użytkownika czy po prostu w widocznych na zewnątrz interakcjach, staje się organiczną częścią systemu kontroli związanego bezpośrednio z ciałem i parametrami życiowymi obywateli cyberkulturowej rzeczywistości.
Prywatne, publiczne i intymne spotyka się na powierzchni przewodzącego prąd ekranu. Parametry pracy serca można monitorować również za
pomocą interfejsu wideo. Rejestracji czynności serca w tak nietypowy sposób
pierwszy dokonał Rafael Lozano-Hemmer w projekcie Pulse Phone – aplikacji na
iPhone’a, która mierzy puls i wyświetla wykres jego pracy w czasie rzeczywistym
dzięki wbudowanej w urządzenie kamerze i diodowemu podświetlaczowi, który
prymarnie służy jako lampa błyskowa aparatu fotograficznego w telefonie. Wystarczy przytknąć palec do telefonu, by został prześwietlony silnym światłem,
które wystarczy do optycznego sprawdzenia pulsu, aby następnie dokonała się
5
Por. Serwis Electronic Frontier Foundation, <https://www.eff.org/search/site/
Traitorware%20apple>.
215
analiza obrazu i wizualizacja wyników. Twórca zastrzegł, że nie jest to urządzenie, które może służyć jako instrument medyczny, jest bowiem tylko „artystą-kardiologiem”. Projekt wpisany jest w cały zestaw prac poświęconych wizualizacji
próbek fizjologicznej aktywności organizmów, by łączyć je w komparatystyczną sieć społecznego nasłuchu czynności życiowych, odcisków palców czy oddechów (Pulse Index, Pulse Room czy instalacje w przestrzeni miejskiej Pulse Park,
Pulse Tank, Vectorial Elevation)6. Przeniesienie dyskretnych wewnętrznych procesów służących do podtrzymywania życia, ekstensja fizjologii do przestrzeni publicznej (nie tylko galeryjnej) stanowią nową jakość w rozumieniu prywatności czy
intymności. Są również manifestacją wielości usieciowionych oddechów czy bicia serc. Świadectwem życia, które podlega procesom cyborgizacji.
Cyberkultura pełna jest paradoksów. Gdy porówna się poczucie krzywdy po
kradzież awatara w Second Life, która jest również zawłaszczeniem intymnej tożsamości (np. pierwszorzędnych cech płciowych, specjalnie spreparowanych, gdyż
awatary są pozbawione narządów płciowych – trzeba je zaprojektować lub kupić), z bezwiednym udostępnianiem informacji o prawdziwym ciele i życiu. Widać
wyraźnie dysproporcję pojmowania intymności, w której uwidacznia się dysonans
i przyznanie wyższej wartości wirtualnym tworom podlegającym prawom autorskim niż biologicznym bytom nieobjętym copyrightem, ale najwyżej „prawem do
twarzy”. Przenoszenie do przestrzeni miejskiej danych o funkcjonowaniu prawdziwego organizmu i dzielenie się nimi w czasie rzeczywistym może być traktowane
jako polemika z tabu dostępu do wnętrza ciała zarezerwowanego jedynie dla personelu medycznego i w gruncie rzeczy z technicyzacją medycyny. Naprawdę jest
to jednak problem związany z pojmowaniem i własnością tożsamości, szczególnie
widoczny w Facebooku, który rości prawa autorskie do tożsamości w zamian za
udostępnienie agory dla życia publicznego czy prywatnych spotkań rejestrowanych skrupulatnie przez system, który stale podpowiada nowych przyjaciół.
Timeline – od urodzin po współczesność
Dbający o swoją tożsamość Mark Zuckerberg, który potrafi uderzyć paparazzich, gdy podchodzą za blisko, ogłosił całemu światu kres prywatności jako
czegoś niemożliwego do zrealizowania i nieprzydatnego. Tymczasem pojawił
się Timeline – przegląd całego życia, który niezabezpieczony i niefiltrowany na
wyjściu danych jest prawdziwą tożsamościową bombą samobójcy. Standardowe
w sieciach społecznościowych dane typu CV: o edukacji, aktualnej pracy i osiągnięciach są już mało wystarczające. Niedoświadczonym użytkownikom, komuś bez
wyobraźni lub przyjętej i wypracowanej w konfiguracyjnym trudzie strategii istnienia w FB trudno jest nie mieć zaufania do właścicieli serwisu oraz ich szczerych
intencji. Tym, którzy nie wiedzą, jak się zachować w świecie relacji społecznych,
interfejs Facebooka podpowiada, żeby dookreślić swoją linię życia i uszczegółowić Timeline o przebieg służby wojskowej, z kim przebywaliśmy w ciągu całego
życia, jak długo to trwało, czy żyjemy w sformalizowanym związku, czy mamy
dzieci, jakie posiadamy zwierzęta, kogo straciliśmy i czy trwa jeszcze praca żałoby
konieczna do wyjścia z melancholii, kiedy się przeprowadziliśmy, kupiliśmy dom,
kto był naszym współlokatorem, jaki posiadamy pojazd, kiedy mieliśmy złamaną
rękę czy nogę, zabieg chirurgiczny i przechodziliśmy schorzenia.
Jeśli ten zapis poda się do wiadomości publicznej, na pewno skrzętnie
skorzystają z niego niekoniecznie rządy czy Wielki Brat, ale na pewno marketingowcy, a z całą pewnością specjaliści weryfikacji danych pracujący dla agencji ubezpieczeniowych. Jeśli tego przekazu nie chce się upubliczniać i jest
6
Zob. <www.lozano-hemmer.com>.
216
skierowany tylko do rodziny lub najbliższych przyjaciół, lepiej zadzwonić lub spotkać się bez Facebooka. Wyjątkiem może być choroba, która dzieje się jako społeczny dyskurs. Wówczas FB ma niesamowitą moc terapeutyczną. Trzeba jednak
zauważyć, że jeśli przekaz jest nawet wyłącznie dla siebie samego – jako rodzaj
cyfrowego pomocnika pamięci – jest on również istotną treścią dla analityków FB
oraz zewnętrznych firm. Dla korporacji wiedza o 800 milionach kontaktujących
się ludzi ma pierwszorzędne znaczenie dla jakości tworzonych eksperckich opinii, prognoz trendów emocji i zdolności nabywczej rozlokowanej na wielu mapach populacji obecnej w systemie. Portal FB również do tych kierowanych „do
samego siebie” treści ma równorzędne prawa autorskie jak w przypadku treści
upublicznianych. Facebook – zgodnie z kontraktem – ma prawa nie tylko do materiałów, które użytkownicy zostawiają w systemie, ale de facto posiada również
prawa autorskie do ich tożsamości.
Możliwa do wykonania, dawniej dość intuicyjna i hipostatyczna mapa
wzorów kultury, zaczyna wypełniać się globalną informacją o połączeniach między komunikującymi się bytami i treścią tych połączeń. Takiego badania antropologicznego dużych zasobów ludzkich nie dało się wcześniej wykonać ze
względu na ograniczenia techniczne i metodologię prowadzenia standardowych badań społecznych.
Niewidzialna granica
Obecność kodów i znaczników RFID w produktach konsumpcyjnych
można wytłumaczyć logistyczną koniecznością, gdy korporacyjny system dystrybucji domaga się wiedzy o lokalizacji rzeczy, będących jego własnością. Logistyka
ma swoje prawa, a wiedza o aktualnej dyslokacji pozwala na lepsze zarządzanie
wspomagane narzędziami podejmowania decyzji. Wprowadzenie biometryczne
paszportów z chipem RFID można wytłumaczyć zwiększeniem bezpieczeństwa
obywateli, popularność kart zbliżeniowych wygodą, a brak zabezpieczeń przed
niepowołanym użyciem danych przemilczeć, gdy niezabezpieczone przed falami radiowymi specjalnym opakowaniem czy klasyczną klatką Faradaya stają się
źródłami coraz liczniejszych przestępstw. Również ciało staje się zatem obiektem
biometrycznych technik, jest kluczem do zamków, który w niczym nie przypomina neutralnych narzędzi kontroli dostępu, jakie zwykło się uważać za prywatne środki uzyskiwania prawa wejścia na własne lub dzierżawione terytoria. Ciało
jako klucz jest istotnym elementem tożsamości, która otwiera drzwi i pozwala
uzyskać dostęp do systemów informatycznych. Tożsamość związała się z dostępem do przestrzeni i danych.
Interaktywne ciało łatwo zredukować do skóry jako powłoki – traci ono
pozycję wypracowaną w przedcyberkulturowym paradygmacie. Było ono przede
wszystkim środkiem utrzymywania dystansu pomiędzy bytami, a także wpływania na kształt granicy pomiędzy tym, co publiczne, prywatne i intymne. Zredukowanie ciała do skóry jest redukcją do czysto fizjologicznych parametrów
powłoki. Sens istnienia skóry to ochrona ciała w analogowych interakcjach. Problem ten analizuje artystka Paula Gaetano Adi, tworząc Alexitimia. Autonomous
Robotic Agent (2006)7 – robotyczny byt, który posiada charakterystykę ludzkiej
skóry, a jedyną jego odpowiedzią na otaczające go środowisko i próby interakcji jest pocenie się przez pory na powierzchni powłoki – „nie może się poruszać,
widzieć, nie jest w stanie wydawać dźwięków”. Aleksytymiczny (niemożliwy do
językowego wyrażania uczuć i emocji) proces komunikacji wyklucza antropomorfizm lub robotyczność wyglądu. Komunikacja zachodzi wyłącznie przez dotyk,
7
<www.paulagaetano.com.ar/parts/alexitimia/Alexitimia.htm>.
217
a sprzężenie zwrotne jest również bezpośrednim następstwem dotyku, który
taką komunikację dodatkowo stymuluje przez zaistnienie reakcji fizjologicznej.
Również w świecie społecznym następuje redukcja funkcji do pewnego rodzaju
aleksytymiczności. Użytkownicy stają się w istocie multisensorycznymi i mobilnymi terminalami monitoringu rzeczywistości z taktylnymi końcówkami, dzięki
którym dostarcza się informacje dla systemów dystrybucji sensu.
Znikanie albo anonimizacja
Prawdziwą terapeutyczną pomocą do przerwania szaleństwa sieciowej
socjalizacji jest Web 2.0 Suicide Machine. Serwis pomaga skutecznie i po kolei zlikwidować wszystkie wpisy, znajomych i konta w Facebooku, Twitterze, LinkedIn
czy Myspace. Jest to bardziej skuteczne niż szybkie usunięcie konta, do którego
w przypadku Facebooka i tak można się jeszcze zalogować przez jakiś czas. Jest to
pokusa, która często przyczynia się do powrotu „samobójcy” na łono cyberkulturowo-społecznego obiegu treści. Zanim wykona się „Sign out forever!”, by powrócić
do rodziny i przyjaciół, trzeba jednak zdać sobie sprawę z niesamowitej wygody
interfejsu, który poprawia produktywność procesu cyfrowego samobójstwa.
Jest narzędziem nowego typu symbolicznej eutanazji, które skraca drogę w niebyt prawie dziesięciokrotnie, kurczy czas czyszczenia danych i systemowej amnezji, wspierając nowe sposoby zapominania przez wykasowanie wirtualnej pamięci
kulturowej. Odpowiedni skrypt wykonuje za samobójcę całą brudną robotę kasowania-wszystkiego-po-kolei wobec upadania Dasein, troski, trwogi i ostatecznego
kresu w byciu ku cyfrowej śmierci. Po ostatecznym wylogowaniu ze społecznej
wymiany pozostaje rodzina, domowe zajęcia i w końcu praca, a w terminalnym
rozrachunku wirtualne miejsce pamięci w jednym z wielu cyberkulturowych cmentarzy. Podobnie jak komunikacja mobilna zmieniła całe zestawy tradycyjnych norm
i wzorów kultury w zakresie rozumienia sfery prywatnej i publicznej, tak nasycenie komunikacji kulturowej sposobami wymiany treści wypracowanymi w sieciach
2.0 spowodowało powstanie nowych – wpisanych w interfejsy – rytuałów, które
zmieniają obraz stosunku człowieka do spraw egzystencjalnych.
Cyfrowa eutanazja-samobójstwo staje się narzędziem powrotu do prywatności jako pozasieciowej koncepcji bycia w świecie. Jest to gest powrotu do
dawnych definicji, rytuał analogizacji, być może konieczny do powtarzania po
wielokroć, gdy zbyt mocno uwidacznia się linia czasowa (timeline) jednostki na tle
społecznie generowanego za pomocą nowej technologii ruchu znaczeń. Możliwa
do wykonania w przeszłości, dawniej dość intuicyjna i hipostatyczna mapa wzorów kultury zaczyna wypełniać się globalną wiedzą o egzystencji, komunikacji
i ekonomii – antropologiczną treścią oraz charakterystyką tych połączeń w znaczeniu socjologicznym i makroekonomicznym. Takiego antropologicznego rozpoznania dużych „zasobów ludzkich” nie dało się wcześniej wykonać ze względu
na ograniczenia techniczne i metodologię prowadzenia standardowych badań
społecznych. Możliwości wizualizacji i bazodanowego badania treści komunikującej się ludzkości mają dziś znaczenie strategiczne, tak w sensie politycznym,
wojskowym, jak i ekonomicznym. Podobnie zresztą jak strategie wyszukiwania
informacji, które decydują o kształcie wiedzy i edukacji. Nie ma znaczenia to, czy
ma się do czynienia z pełnotekstowym wyszukiwaniem w całym zarejestrowanym dorobku ludzkości, czy tylko z małym jego wycinkiem. Ważny jest sposób,
w jaki się szuka i jakim kognitywnym procesom się poddaje, do czego można
się przyzwyczaić i jakich pytań już nie zadawać.
Interfejsy nie są neutralne, choć często „znikają”, stają się niewidoczne i zaszyte w gąszczu ubicomp, pervasive media i nadchodzącej ery Internet of Things –
w wielu profetyczno-spiskowych teoriach, synonimie zbliżającej się apokalipsy,
218
a przynajmniej kresu człowieczeństwa. Dzisiaj faktem jest, że interfejsy mogą
być ergonomicznie, lepiej dostosowane do użytkownika niż jego przygotowanie ewolucyjne do kognitywnych właściwości nowych systemów.
Istnieje jeszcze inna ścieżka jako strategia wyłączenia z systemu globalnej
obserwacji i liczenia kroków użytkownika. Może poddać się rytuałom technologicznej anonimizacji albo skorzystać z całego pakietu szamańskich praktyk obrony przed złymi duchami. W tym jednak przypadku techniczne rytuały są skuteczne
nie tylko w wymiarze psychologicznym i społecznym. Surveillance Self-Defense Project jest zestawem czynności, które należy przeprowadzić w celu zachowania prawa
do prywatności w konektywnym świecie. Electronic Frontier Foundation proponuje tak naprawdę używanie pakietu do samoobrony, do ochrony tożsamości, a nie
tylko prywatności czy intymności działań sieciowych. W istocie jest to prewencyjny
pakiet ratunkowy dla sieciowego życia – survivalowy niezbędnik każdego użytkownika współczesnej kultury, a zarazem rzeczywistości. Trzeba bowiem zabezpieczać
swój ekosystem przed niebezpieczeństwami: stosować kryptografię w codziennej
komunikacji wykorzystującej pocztę elektroniczną, komunikatory tekstowe, głosowe i wideo; szyfrować dyski i wszelkie nośniki informacji, używać wirtualnych sieci
prywatnych i anonimizującego obecność w Sieci systemu Tor, który zaciera ścieżkę połączeń, zrywa z ukonkretnieniem jednostki i przywraca anarchistyczny wymiar komunikacji pomiędzy wolnymi obywatelami Sieci – netizens.
Cały ten zestaw oparty jest na działaniach zakrywających obraz rzeczy,
na szyfrowaniu nie tylko treści, ale i samego procesu komunikacji. Na zachowaniu prywatności i intymności nawet w sytuacji społecznego komunikowania się
ze światem, słowem na zachowaniu prawa do korespondencji, rozumianej jako
wymiana znaczeń poza czysto epistolarnym wymiarem. Zestaw survivalingowy opiera się wreszcie na przedinternetowej sieciowej ideologii anarchii kryptograficznej8, której historia sięga czasów pierwszych zmagań usieciowionych
technologicznych Prometeuszy, oddających w ręce obywateli (jako narzędzie
praw człowieka i jako broń) matematykę szyfrów dostępną do tej pory jedynie dla władzy.
Nieszczelny ekosystem
Zwykłe komputery – jako produkty konsumenckie – ze zrozumiałych
względów nie spełniają norm bezpieczeństwa stawianym sprzętom klasy Tempest9, które w krajach NATO są dostępne jedynie dla wojska, agencji rządowych
i specjalnych oddziałów policji. Spełnianie wymogów standardów Tempest zapewnia również bezpieczeństwo komputera wobec potencjalnego przechwycenia sygnału pochodzącego bezpośrednio z karty graficznej, monitora czy
podłączonych do sprzętu kabli UTP albo sieci elektrycznej, które można odczytać
z odległości kilkuset metrów za pomocą odbiorników „emisji ujawniającej”10.
Istnieją sytuacje, gdy cyberkulturowa komunikacja może być całkowicie
przeźroczysta za sprawą szpiegostwa sygnałowego. Wszelkie formy zabezpieczeń
8
9
10
Zob. T.C. May, The Crypto Anarchist Manifesto [1988] <www.activism.net/cypherpunk/
crypto-anarchy.html>. Por. strona Philipa Zimmermanna, autora systemu szyfrowania Pretty Good Privacy (PGP) <www.philzimmermann.com/EN/background/
index.html>.
Zob. TEMPEST Certification Program [Serwis National Security Agency] <www.nsa.
gov/applications/ia/tempest/index.cfm>.
M. Wiśniewski, Emisja elektromagnetyczna. Analiza zagrożeń dla poufności danych, Politechnika Poznańska 2000. Plik PDF dostępny w serwisie IPSec.pl. Bezpieczeństwo
i audyt systemów informatycznych <http://ipsec.pl/files/Contrib/EmisjaUjawniajaca.
pdf>.
219
mogą nie mieć sensu, gdy zostaje wybrany cel takiego ataku – interfejs komputera
osobistego „czytany” jest w czasie rzeczywistym. Jest to rodzaj swoistego reality
show reżyserowanego przez użytkownika – mimowolnego screencastu ograniczonego ramami ekranu i wyświetlanych treści. Sposób ten nie pozwala na ingerencję
w pamięć, zgromadzone dane i proces ich przetwarzania. Nieznane są komendy
i gesty użytkownika, a jedynie ich efekty. Jedno jest pewne – to technologia, a nie
kultura dyktuje w tym przypadku zakres prywatności czy intymności.
W celu przechwycenia emisji ujawniającej trzeba bardzo starannie wybrać cel – nie można w ten sposób podsłuchiwać wszystkich. Zwykły i niewinny użytkownik jest zagrożony w minimalnym stopniu tego typu inwigilacją, nie
ma jednak szans na w pełni bezpieczną komunikację – pozostaje mu jedynie
skonfigurowanie systemu, software’owe „utwardzenie” sprzętu.
We współczesnej kulturze znaleźć można coraz mniej sposobów obrony
przed działaniem cudzych spojrzeń. Czasem jedynym ratunkiem jest ich unieszkodliwienie. National Security Agency w jednym ze swoich poradników, który
zatytułowano wdzięcznie Hardening Tips11, podaje szczegółową instrukcję poprawienia bezpieczeństwa komputerów przez ich odpowiednią konfigurację.
Instrukcja zawiera wiele pożytecznych wskazówek dotyczących konfiguracji systemu wraz z wyraźnie sformułowaną sugestią, że do sprostania zadaniu jest potrzebna również skuteczna modyfikacja hardware, która zgodnie z poradnikiem
polegać ma między innymi na wymontowaniu przez biegłego w sztuce technika wszystkich urządzeń radiowych znajdujących się wewnątrz komputera (WiFi
i Bluetooth), trwałym wymontowaniu mikrofonu i kamery z laptopa (podaje się
jeszcze możliwość zaklejenia kamery taśmą, co jednak nie chroni przed podsłuchem audio), a nawet unieczynnienia portów USB. Bezpieczeństwo uzyskuje się zatem przez zablokowanie 90% możliwości komunikacyjnych komputera,
a co za tym idzie – przez odcięcie użytkownika od funkcjonalnego korzystania
ze środowiska sieciowego. Kontrola ryzyka i rachowanie bezpieczeństwa znaczy
zatem prawie całkowite unieobecnienie użytkownika w sieci konwergentnych
usług z pozostawieniem łączności kablowej, ale kompletnym odizolowaniem go
od teleobecności i wielu typów komunikacji interaktywnej.
Pojawiające się przypadki nielegalnego monitoringu za pomocą wbudowanych do laptopów kamer kończą się w sądach. Najsłynniejsza jest sprawa
rodziny Robinsonów przeciw Lower Merion School District, gdy wyszło na jaw,
że na skalę masową przez dwa lata od 2009 do 2010 roku szpiegowano uczniów, wykorzystując program pomocny do rejestrowania potencjalnych złodziei
laptopów przekazany dzieciom (również do użytku domowego). WebcamGate
uświadomiła istotne problemy związane z prawnymi aspektami naruszania prywatności, które do tej pory były znane jedynie z plagi nielegalnych instalacji kamer internetowych. Był to nowy rodzaj candid camera w miejscach publicznych,
na przykład toaletach, który rozplenił się na przełomie wieków wraz z popularnością programów reality show.
Publiczne, prywatne, intymne
Do działania polisystemu Sieci 2.0 jest potrzebny stały dopływ treści i lojalni użytkownicy. Sieci społecznościowe spełniają funkcję monitoringu rzeczywistości kulturowej w czasie rzeczywistym, zapewniając użytkownikom platformę
komunikacji i narzędzia do tworzenia sieci połączeń. Efektem ubocznym jest poddanie się kontroli – dla jednych konieczna cena zapłaty za kontrakt socjalizacji
11
Serwis National Security Agency <www.nsa.gov/ia/_files/factsheets/macosx_hardening_tips.pdf>.
220
czy rzecz niezauważalna, dla innych podstawa do trzymania się z boku i ucieczki
spod Orwellowskiej władzy. Stały dopływ treści do systemu umożliwiło popkulturowo akceptowane przedefiniowanie znaczeń przestrzeni prywatnej, publicznej
i intymnej – antropologicznej triady, której źródeł redefinicji należy szukać pod
koniec lat 90. XX w., w czasach postępującego wystawiania się na świat z ofertą komunikacji i ogłaszania obecności w nowych rejonach kultury. Szczególnie
dotyczy to pojawienia się kamer internetowych i rozprzestrzenienia koncepcji always on, stałego (lecz ciągle stacjonarnego) uczestnictwa w cyberkulturze
jako kontaktu przez interfejs wideo ze swoistą poklatkową segmentyzacją czasu,
a właściwie jego spowolnieniem do 15 klatek na minutę z powodu małej przepustowości łącz. Poklatkowość nadawania relacji z antropologicznej codzienności sprzyjała oswajaniu technologii i – mimo stwarzania pozorów ciągłości czasu
rzeczywistego w komunikacji – nie wydawała się opresywna.
Za sprawą spowolnienia życia pod okiem kamer, dzięki swoistej antytelewizyjności tych środków komunikacyjnych spowodowanej małą przepustowością
i rozdzielczością kanałów komunikacji, przez lejek informacyjny nowych technologii przelewała się jedynie wąska struga danych. Później, gdy teleobecność
stała się oczywista i została wbudowana do komunikatorów internetowych, gdy
zwiększyła się rozdzielczość i możliwości przekazu danych w szerokich pasmach,
a obrazy przyspieszyły, zniknął trend always on. Połączenie nie jest już atrakcyjne
samo w sobie. Realizowane jest wtedy, gdy zachodzi taka potrzeba, a ponieważ
zawsze jest możliwe, staje się czymś mniej istotnym. Miejsce interfejsów wideo
połączonych z Siecią i stacjonarnych lifelogów oraz relacji na żywo, które były
do obejrzenia tu i teraz (i nigdy później), zajęły bazy danych YouTube, Flickera
i Facebooka z treściami, które nie mieściły się na wąskiej powierzchni bloga czy
prywatnego miejsca w Sieci. Procedurę nadawania audycji zastąpiono społecznościowym dzieleniem się treścią wyprodukowaną prywatnie jako user generated content i skopiowaną skądkolwiek, by przekazać ją dalej zgodnie z ideologią
społecznościowego sharismu.
Pod koniec lat 90. XX w. świat ogarnął rytuał montowania kamer w różnych „punktach z widokiem”. Montowano je na balkonach, na plażach, placach,
domach. Był to prawdziwie amatorski ruch swoiście pojmowanej glokalizacji, która łączyła usieciowienie ze światem rzeczywistym, mimetyczne relacje z sieciowych kamer były ekstensją prywatności porównywalną z dostępnymi już wtedy
niekomercyjnie obrazami z satelitów. Pojawiła się możliwość wielości oglądów
i przedefiniowania znaczenia mapy. To odkrywanie świata dla Sieci objęło również przestrzeń prywatną habitatów, a nawet intymną dziedzinę łóżka, na które
została skierowana prywatno-publiczna kamera jako instytucja nowoczesności i ducha czasu.
Bez wątpienia cyberkulturowe rytualne działania użytkowników Sieci i związana z nimi sakralizacja interfejsu wideo jako narzędzia docierania do
prawdy o świecie przyczyniły się do przemodelowania koncepcji wstydu. W tym
sensie funkcjonowanie interfejsu wideo było raczej narzędziem ideologii „naturyzmu” w nowym ekosystemie niż działaniem „pornografizującym” rzeczywistość.
Bardzo szybko pojawiły się również pierwsze „wirtualne przyjaciółki” i serwisy
z interaktywnymi peep show – całkowicie amatorskie i niezależne oraz czysto
biznesowe z konkretnym celem finansowym. Pornografia była jednak nieciągła:
działała na chwilę lub przez chwilę – obraz zamrażał się i udawał rzeczywistą
relację. Poza ogólnie dostępną Siecią zaplanowano w sposób systemowy zakres i kąt widzenia kamer, które na skalę masową zaczęły wypełniać ulice miast,
a chroniące porządku (i obywateli) systemy monitoringu CCTV rozwinęły się we
wszystkich miejscach publicznych i środkach komunikacji.
221
Nie przez przypadek trzy trendy: wspierania voyeuryzmu (amatorskie czy biznesowe), prospołecznego udostępniania obrazów rzeczywistości przez użytkowników Sieci oraz gigantycznego rozplenienia się systemów publicznej obserwacji,
wyznaczyły początek narracji reality show i narodziny Big Brothera. Relacjonujące
rzeczywistość interfejsy wideo opanowały rozwinięte gospodarczo terytoria całej planety w równym stopniu w sensie amatorskim i społecznym oraz w postaci
narzędzi kontroli/monitoringu czy źródeł nowych typów rozrywki. Wymienione
wyżej trzy trendy, zrodzone z kulturowego wykorzystania technologii wideo, towarzyszyć będą dalszemu rozwojowi cyberkultury i kształtowaniu się społeczeństwa informacyjnego w bardziej złożony i konwergentny sposób. Jednak problemy
w definiowaniu intymności, prywatności i sfery publicznej w sensie kulturowym,
technologicznym, prawnym i politycznym, które wygenerowały się w związku
ze stosowaniem tych technologii, są ciągle aktualne i powinny być podstawą do
wszelkiej refleksji nad kondycją cyberkultury. Nie można tu również nie wspomnieć
pionierskich działań Steva Manna, który zaczął z premedytacją podglądać świat,
ponieważ świat nieustannie go podgląda. Zrodziła się ideologia sousveillance
jako subwersywna praktyka artystyczna i działanie polegające na bezpośrednim
hackowaniu kulturowych wzorców12 dzięki ciągłej rejestracji otaczającej rzeczywistości za pomocą cyborgicznej kamery zamocowanej na głowie.
Wkroczenie prywatności oraz intymności w przestrzeń mniej lub bardziej
publicznej komunikacji w serwisach społecznościowych jest przewrotem w definiowaniu wstydu na skalę większą niż rewolucja seksualna lat 60. XX w. Trzeba
tu przypomnieć znaczenie „demokratyzacji voyeuryzmu” w kontekście banalizacji środków kontroli opisywanych przez Paula Virillio: „Wirtualna inflacja dotyczy
dziś nie tylko ekonomii produktów, »finansowej bańki«, ale naszego rozumienia
relacji ze światem. Dlatego właśnie systemowe ryzyko nie jest już ograniczone
do załamania się biznesu czy banków […] Wydaje mi się, że tym, czego możemy się jeszcze bać, jest zbiorowa utrata zdolności widzenia, ślepnięcie ludzkości, bezprecedensowa możliwość porażki faktów i związanej z nią dezorientacji
w naszych relacjach z realnością”13. Proces ten zawsze można odwrócić i zastosować te same narzędzia, które służą kontroli jako broń w rękach obywateli.
Na styku stosowania techniki w taktyce władzy i strategiach obywateli zawsze
będzie dochodziło do politycznego sporu. Szczególnie, gdy jedni i drudzy posługują się tą samą technologią.
Historia sporu o technologię, jej otwartość i prawo do korzystania z narzędzi jest podstawą mitu Sieci jako obszaru wolności – neutralnych protokołów, neutralnej sieci i neutralnych maszyn, które mogą służyć w równej mierze
do wspierania obszaru dobra wspólnego14, jak i jego zawłaszczania. Wszelkie próby redukowania ryzyka i odgórnego ograniczania zakresu zastosowania technologii muszą zakończyć się powstaniem systemu całkowitego monitoringu nie
tylko cyberkultury, nie tylko tego, co widzialne i możliwe do penetrowania za
pomocą interfejsów wideo, ale i całej rzeczywistości społecznej. Z tego powodu konieczne jest utrzymanie niezawisłości maszyn, ich neutralności i wielości
zastosowań, również tych potencjalnie niebezpiecznych lub z jakichś powodów
uznanych za niewłaściwe. Cory Doctorow, jeden z najbardziej znanych blogerów
12
13
14
Szczegółową dokumentację tych działań znaleźć można [w:] S. Mann, Personal Web
Page <http://wearcam.org/steve.html>.
P. Virilio, The Visual Crash [w:] Ctrl[Space]. Rhetorics of Surveillance from Bentham to Big
Brother, red. T.E. Levin, U. Frohne, P. Weibel, MIT Press, Cambridge (MA) 2002, s. 112
[tłumaczenie własne].
Zob. J. Hofmokl, Internet jako dobro wspólne, Wydawnictwo Akademickie i Profesjonalne, Warszawa 2008.
222
i założyciel BoingBoing, jest zdania, że próby regulacji tej przestrzeni kultury muszą skończyć się pozbyciem użytkownika władzy nad „zawirusowanym” systemem15, a w konsekwencji upadkiem statusu użytkownika i ostateczną klęską
cyberkultury jako terytorium starcia wielu sensów. Trzeba dodać, że takie rozwiązania stanowić mogą również blokadę prac nad tworzeniem systemów „antywirusowych”, których istnienie jawi się jako radykalnie sprzeczne z ustalonym
w taki sposób porządkiem deskrypcji rzeczywistości.
Antywirusowe mindware
Do tej pory przywracanie technologicznej homeostazy w nowomedialnych ekosystemach jest realizowane najczęściej przez działania subwersywne
inżynierów, artystów i użytkowników. Istnieją liczne rytuały pomocne w znalezieniu miejsca w nowomedialnym środowisku. Ekologia nowych mediów jest regulowana przez technologię sprzętu, oprogramowania i technologiczno-społeczną
hybrydę mindware jako sieciowo-konstruktywistycznego sensu człowieczeństwa.
W jego skład, oprócz semiozy i przemian symbolicznych, wchodzą cyberkulturowe gesty i rytuały: hackowanie elektroniki przez przeprogramowanie funkcji,
jailbraking jako metoda indywidualizacji pamięci, wardriving jako sposób uzyskania dostępu do sieci, modding jako taktyka estetyczna wynikająca z konieczności
indywidualizacji interfejsów, ale zarazem personalizowania standardowych parametrów komunikacyjnych. W samym sercu mindware znajduje się sharism16, który
nie ma nic wspólnego z „kulturą daru”, prowadzącym do zguby nowomedialnym potlaczem. Jego znaczenie wynika bowiem (i to w równym stopniu) z obywatelsko-konserwatywnej koncepcji „dzielenia się talentami” oraz lewicowego
przekonania o konieczności dokonania rewolucji w zakresie własności „środków
produkcji” oraz własności produktów powstałych dzięki tym środkom. Chodzi
o współdzielenie sensów na własne życzenie i ryzyko (w tym ekonomiczne), gdy
stosuje się rozwiązania Open Source, Creative Commons czy copyleft.
Mindware jako społeczna gra jest nie tylko treścią, ale również sensem
kultury, który umocował się także poza sieciami p2p. Na końcu – choć lista wypełniająca mindware jest nieskończona – wymienić można singularity jako przewidywaną przez niektórych (być może tragiczną) przyszłość naszego gatunku,
zmierzającą ku ścisłej cyborgicznej koegzystencji z maszynami.
Sens Sieci
Mindware jest pracą zbiorowej wyobraźni, którą zgodnie z etymologią
można zdefiniować jako opiekę nad umysłem. Możliwy do ustalenia medyczny lub pedagogiczny wymiar mindware wiąże się bez wątpienia z koniecznością wprowadzania procedur profilaktycznych, terapeutycznych czy takich, jakie
sprzyjają socjalizacji w procesie rozwoju jednostek. Opieka nad umysłem rożni się
jednak od polityki ochrony umysłu jako regulowania kanałów komunikacji, która
może okazać się czymś wyjątkowo podejrzanym. Ochrona umysłu, jako działanie
polityczne, polega na lobotomii, odcinaniu połączeń i likwidowaniu „nieproduktywnej” wielości. Mindware spełnia funkcję magiczną jako zbiorowe wyznanie
wiary w sens Sieci – neutralnego terytorium wielości, a zarazem sprzeczności
sensów i interesów ekonomicznych.
15
16
C. Doctorow, Lockdown. The coming war on general-purpose computing <http://
boingboing.net/2012/01/10/lockdown.html> [polska wersja tekstu: <http://mises.
pl/blog/2012/01/18/doctorow-lockdown-nadchodzaca-wojna-z-komputeramiogolnego-przeznaczenia>].
I. Mao, Sharism. A Mind Revolution [2007] <www.isaacmao.com/meta/2007/09/sharism-is-not-communism-nor-socialism.html>.
223
Mindware przydaje się bardzo jako pojęcie istotne dla przedstawienia antropologicznego wymiaru cyberkultury, opisuje zjawiska i procesy, które stanowią jej fundament. Jest tożsame ze złożonością reakcji na procesy kontroli oraz
interaktywnością w cyberkulturowym socializingu (czym innym jest analogowa „socjalizacja”). Pojęcie to obejmuje również googlizm, nie tylko jako swoistą
chorobę percepcyjną, ale także strategię zdobywania i udostępniania wiedzy na
zasadach szczególnej gry, toczonej w ramach sprzężenia zwrotnego pomiędzy
systemem wyposażonym w zmienne reguły dostarczania informacji a bardziej
lub mniej wolicjonalnymi działaniami użytkownika. Zobaczyć można w mindware
technologię wiki, ale również nowy proces budowania znaczeń, który odnaleźć
można także poza szlachetnymi gestami wikinomicznych encyklopedystów czy
różnymi systemami budowanymi w nowej ekonomii wiedzy i reguł jej wytwarzania. W tym kontekście bardzo ważny jest hacking (i hacktywizm) jako model otwierania, ćwiczenia umysłu w procesie wymiany symbolicznej i związany z tym
swoisty „hackerski folklor” o dużej już tradycji17.
Jedno jest pewne: nowe sposoby korzystania ze świata nie będą istnieć
w próżni. Konstrukcja ich i ontologiczny charakter zapraszają wprost do monitorowania treści i działań użytkowników, serwerów, botów i połączonych urządzeń.
Trend ten dotyczy planowania decyzji biznesowych, projektowania interfejsów
i architektury informacji, działań PR-owskich i marketingowo-reklamowych. Biznes
pożąda danych etnograficznych o użytkownikach. Państwa oraz ich instytucje
również pragną monitoringu swoich klientów, którzy słono płacą za ich usługi
sprzedawane z umową bez klauzuli odstępstwa. Działanie mindware u klienta zaburzają ciągłe promocje, sprytnie wdrażane programy lojalnościowe, a mniej lub
bardziej wolicjonalne decyzje konsumenckie czy nawet gorzki smak kompulsywnych zakupów zastępuje się neuromarketingiem. Śledzi się użytkownika-kilenta
w Sieci, śledzi jego działania w sklepie, wykorzystując rejestrację zmian koordynatów geolokalizacyjnych telefonu, zaszywa w kieszeniach kupowanych ubrań chipy RFID, by wiedzieć, w jaki sposób towary przemieszczają się w sklepie.
Jeśli potraktować sprawę pragmatycznie, chodzi przede wszystkim o to,
żeby konektywne mindware było wystarczająco mocne, aby przeciwstawić się googleware czy facebookware, a uściślając – tym kilku algorytmom, które rządzą dziś
światem kultury i odgrywają coraz większą rolę polityczno-ekonomiczną. Chodzi
również o to, by mindware nie stało się elementem owego googleware. Strategia
rozproszenia w Sieci staje się trudna w realizacji – musi być świadomym, lecz kłopotliwym wyborem środków zmierzających do rozproszenia tego, co jest dziś usilnie
zbierane, analizowane i ukonkretnione – tożsamości użytkownika. Współcześnie –
mimo olbrzymiego, historycznego dyskursu anonimizacji jednostki w Sieci – staje
się ona coraz bardziej ukonkretniona. Każda usieciowiona jednostka dostarcza do
tego czy innego komputera-matki informacje o otaczającej go przestrzeni i antropologicznej codzienności, służąc jako ruchomy żywy zestaw do monitoringu rzeczywistości. Serwerowe centrale monitorują skontraktowanego z nimi użytkownika,
który ze swojej natury jest wyposażony w różne systemy fizjologicznej i technicznej rejestracji, odczuwania sensów oraz ich komunikowania – od zmysłów, ciała do
umysłu i tagowania obecności ekstensji w realnej przestrzeni, udoskonaleń odnoszących się do czasu, przestrzeni oraz kulturowych treści i głębszych sensów.
Już wkrótce kształt kultury będzie w dużym stopniu zależeć od ekstensji
w postaci geolokalizatorów i kompasów, żyroskopów czy bardzo czułych akcelerometrów. Kształt kultury przyszłości zależeć będzie już nie, jak się to dziś bagatelizuje,
17
Zob. Appendix A. Hacker Folklore [w:] E. Raymond, The on-line hacker Jargon File, version 4.4.7, 29.12.2003, <http://catb.org/jargon>.
224
od gadżetów, lecz od narzędzi dostarczających wiedzę o tym, co dzieje się z naszym ciałem i umysłem, lokalizowanych bezpośrednio w przestrzeni. Już dziś (wykorzystując akcelerometr w urządzeniu mobilnym jako narzędzie badania wstrząsów)
można określić nie tylko to, że postawiło się stopę, lecz również to, że wykonano
ten ruch, wytwarzając pewną mierzalną porcję energii. Jako mobilne stacje monitoringowe ludzie dostarczają do systemu nie tylko informacje i dane, które wytwarzają świadomie sami, ale i te, które są generowane bezwiednie we wnętrzu
urządzeń telekomunikacyjnych. Dostarczają ponadto do systemu ich interpretacje
i pozornie nadmiarowe kulturowe treści, które są niezmiernie ważne dla doskonalenia i dalszego rozwoju sztucznej inteligencji jednostki kontrolnej. Interpretacje
te i redundantne treści są podstawą uczenia się i tworzenia mapy wzorców antropologicznych, która (z wykorzystaniem geolokacji) jest kreślona na całkiem realnej
mapie wraz z bagażem danych demograficznych. Kody tych interpretacji i redundantnych treści to nie tylko dane oparte na języku naturalnym i semantycznym
tagowaniu rzeczywistości, to nie tylko możliwe do pozyskania obrazy i dźwięki towarzyszące różnym ludzkim aktywnościom, ale również same zachowania użytkownika w sensie korzystania z interfejsu i wchodzenia w interakcje.
Dopiero od kilku lat ludzkość po raz pierwszy w dziejach naszego gatunku
metodologicznie uczy maszyny swoich zachowań i sposobów myślenia. Ludzie,
jako stacje monitoringowe, dookreślają i automatycznie wprowadzają do systemu własne powiązania z innymi fizjologiczno-technicznymi stacjami monitoringu
w zakresie temporalnym, przestrzennym, emocjonalnym, przekazywanych sensów, ale również eksportują dane o kształcie wytworzonej sieci i zakresie relacji
społecznych, które ich wiążą w nowe typy społeczności przekazującej treści wraz
z odwołaniem do najbardziej namacalnej rzeczywistości. Algorytmy „rekomendacji” w social media podpowiadają treści, przyjaciół lub relacje z osobami, o których
się sądzi, że mogą zainteresować lub pobudzić do dalszej konektywnej działalności, czyniąc to na podstawie analizy kontekstu wszystkich kolekcjonowanych
dotychczasowych działań, obecnych nie tylko w wybranej grupie użytkowników
mikrosieci, ale również całej populacji korzystającej z dobrodziejstwa interfejsu.
Użytkownicy interfejsów sieci społecznościowych sami wytwarzają (na
podstawie wprowadzanych treści) zestaw danych demograficznych, które są konieczne do prowadzenia badań społecznych. Co więcej, stale dostarczają nowe
dane typu symbolicznego jako deskrypcję rzeczywistości, która podlega regułom swoistego przetwarzania informacji (taki proces można również nazwać
mindware). Rzeczywistości, która składa się ze świata fizycznego, sieciowej codzienności i treści przenoszonych do Sieci, oraz nieuświadomionych zapisów
procesów kognitywnych. Gra toczy się o to, żeby sprawdzić i monitorować, jak
ludzie myślą. W jaki sposób podejmują decyzje. Jest to dziś podstawowy element wszelkich strategii marketingowych w środowisku sieciowym, których
działanie opiera się na badaniu zachowań użytkownika. Ze środowiska marketingowego wypływa czasem dyskusja o etycznym wymiarze i granicach tego
typu operacji. Bez wątpienia jednak strategie targetowania behawioralnego
użytkowników są dziś najważniejszym narzędziem walki o konsumenta. Można
być przekonanym o tym, że już w niedalekiej przyszłości wielkie globalne korporacje nie będą przebierać w środkach, stosując coraz bardziej zaawansowane
technologicznie rozwiązania sprzedażowe.
Mindware może być również etykietą obywatelskiego głosu rozsądku, republikańskiego gestu odrzucenia nadmiaru kontroli (czy monitoringu dla własnego
dobra). Komputery mogą stać się nie tylko narzędziem komunikacyjnym o podwójnym znaczeniu, ale również bronią, którą obywatele wykorzystują do samoobrony.
W latach 90. XX w. w kręgach libertariańskich obowiązywało nawet zupełnie jawne
225
przekonanie o proobywatelskiej wadze nowego wtedy typu komunikacji, z którego wyewoluowała współczesna cyberkultura: „computer is your weapon”.
Przed dostarczaniem do Systemu danych typu etnograficznego chronić
ma stosowanie przez obywateli zaawansowanej kryptografii jako intymizacji komunikacji kulturowej. W tym celu trzeba utrudnić sobie życie, bo gdybyśmy
chcieli na przykład przesłać komuś informację o nawet najbardziej błahym sensie,
musimy zrobić to za każdym razem w postaci zaszyfrowanego ciągu znaków, nieczytelnych dla systemu jako dane określające cokolwiek w rzeczywistości. Do tego
potrzebna jest jednak umowa społeczna na obopólne stosowanie kryptografii,
która ciągle jest (w sensie kompetencji nowomedialnych) przestrzenią komunikacji
jedynie najbardziej zaawansowanych i świadomych użytkowników cyberkultury,
którzy potrafią (i chcą) konfigurować własne środowisko. Intymizacja komunikacji kulturowej staje się możliwa jedynie wtedy, gdy system rozpoznaje, że doszło
do aktu komunikacyjnego, ale nie jest w stanie dotrzeć do treści, newralgicznych
dla tożsamości jej uczestników. Do stworzenia mapy zachowań użytkowników,
owego user experience – co oznacza również badanie procesów kognitywnych
zachodzących w ich umysłach – kluczowym zagadnieniem jest dostarczenie czytelnych dla systemu rozsianych informacji należących do sfery komunikacji nieformalnej. Pozyskanie ich w sieciach z otwartymi kodami jest proste. Gdy stosuje się
zaawansowaną kryptografię, zmniejsza się zagrożenie kolekcjonowania większości
możliwych do przechwycenia danych typu etnograficznego. Zaprogramowane
i żądne wiedzy mindware systemu staje bezradne wobec świadomego mindware
użytkowników jako kompetencji obrony prywatności czy nawet intymności. Trzeba pamiętać, że social media to przede wszystkim wielki biznes, ale również oczywista polityczna pokusa majstrowania sensem w kulturze.
Zabawy z mindware’ową elektrycznością
Analiza narzędzi neurostymulacji i strategii prowadzących użytkownika
do konkretnych działań czy treści jest poważnym wyzwaniem dla współczesnej antropologii wiedzy. Widać to dziś bardzo wyraźnie. Znaczenie hipertekstu
zostało zniwelowane przez rolę tagów, nie mówi się już (jak jeszcze 10 lat temu)
o „nawigowaniu” czy „wirtualnych podróżach po cyberprzestrzeni” (sic!). Rizomatyczność Deleuza i Guattariego uwięzła teoretycznie w hipertekście, a największe
dziś znaczenie ma nie wszech połączenie i dialogiczno-dekonstrukcyjna wymiana sensów, nie nomadyczność, lecz możliwość natychmiastowego wyszukania
informacji, słowa kluczowe, semantyczna struktura danych oraz ich odpowiednio przygotowana architektura wyposażona w „ontologie” opisujące hierarchię
i znaczenie bytów. Najważniejsze są dziś kanały komunikacji, bazy danych, ich
architektura i algorytmy, które potrafią te bazy inteligentnie obsługiwać, a kulturowe znaczenia technologii jako nowej formy elektryczności zadecydują zapewne o dalszych losach ludzkości.
Infrastruktura jest uzależniona od zasilania – bez energii elektrycznej dostarczanej do farm serwerów cyberkultura po prostu nie istnieje. Nie istnieje również bez elektryczności zasilającej urządzenia komunikacyjne, sieci przesyłu danych
i wszelkie elementy infrastruktury, które stanowią swoisty układ nerwowy cyberkultury – ekstensje przekraczającą możliwości operowania sensem przez cały zbiór
użytkowników. W cyberkulturze pojawia się problem braku równoważności jej
uczestników i technicznego zaplecza. W sensie ontologicznym jest ono po prostu ważniejsze niż partykularne interesy użytkowników. Pod tym względem nie
ma symetrii, a tym bardziej przewagi człowieka. Zaplecze techniczne jest zdecydowanie bardziej istotne także w sensie operacyjnym i strategicznym. Można zaryzykować pogląd, że kultura jest dziś całkowicie uzależniona od elektryczności.
226
Jest to następny etap istnienia cywilizacji zdeterminowanej przez elektryczność redukującą przestrzeń – zagęszcza obieg informacji kulturowych
i powoduje powstanie nowych form „plemienności”, które przekraczają granice fizyczno-geograficznego rozumienia rzeczywistości społecznej. Uzależnienie
sensów od elektryczności było jedną z najważniejszych McLuhanowskich tez,
jest ona bowiem „w istocie rozszerzeniem układu nerwowego w coś w rodzaju
globalnej membrany”18. Elektryczność to nie tylko domena działań jakiegoś ministerstwa infrastruktury, którego opieszałość czy zaniedbania prowadzić mogą
do tragedii humanitarnej w razie awarii zasilania lub katastrofy spowodowanej
siłami natury. Obserwuje się dziś ponowne odkrywanie Marshalla McLuhana jako
swoistego patrona cyberkultury. Trzeba sobie zdać sprawę, jak bardzo analizowane tu mindware jest uzależnione od politycznej „elektryczności”.
18
M. McLuhan, Wybór tekstów, red. E. McLuhan, F. Zingrone, Wydawnictwo Zysk i S-ka,
Poznań 2001, s. 132.
227
Teorie mindware
Postmediacje
Egzoetyka: O potrzebie poszukiwania
nieantropocentrycznego źródła moralności
Michał Brzeziński
229
Software i hardware tworzą pozornie zamknięty układ kontrolujący przepływ informacji w systemie, a jego pozorność w tej skończoności i teoretycznej
doskonałości ujawnia się kiedy nakieruje się swoją myśl na człowieka wchodzącego w układ relacji logicznych i fizycznych. Okazuje się wtedy, że teorie mediów
są niepełne, gdyż koncentrują się na procesach wewnątrz maszyny i interfejsie,
a zazwyczaj brakuje w nich elementu somatycznego, odnoszącego się do subtelnych relacji wewnątrz graniczącej z maszyną biocenozy. Ciało i umysł ludzki
stanowią kombinację wilgotnej, organicznej żywotności, i suchej, zimnej logiki.
Jedynie logika sprowadzona do matematyki kontroluje procesy fizyczne maszyny, która to maszyna jest logice poddana na zasadzie kontroli funkcjonalnej. Natomiast sama forma tej funkcjonalnej kontroli jest stworzona pod wpływem myśli
ludzkiej, a więc nosi w sobie antropocentryczną, wilgotną, biologiczną ideologię,
która ujawnia się w maszynie. Zaszczepiona ideologia logiki jest ukształtowana
pod wpływem tysięcy lat rozwoju ciała ludzkiego, atawizmów mózgu i archetypów kultury, która dojrzewała w organicznym środowisku. Samo pojęcie kultura ujawnia proces kontrolowania żywiołu organicznego przez myśl, czynienia
sobie ziemi poddaną, a więc tę rolę dosłownie spełnia software koordynujący
pracę materii jako maszyny.
Ciało ludzkie nie jest wyłączone z owego porządku ziemskiego, który
ma być kontrolowany przez człowieka, i na tym polega problem ciała i umysłu jako odrębnych, acz złączonych res cogitans i res extensa. Ciało jest poddane
między innymi działaniu kultury, ale występuje także jako jej wzorzec. Kultura
ludzka została ukształtowana przez ciało ludzkie, które stoi w jej centrum, często w formie hybrydy, w połączeniu z ciałem zwierzęcym, które oddaje związek
człowieka z naturą. Natomiast emancypacja ciała spod władzy kultury wydaje się niemożliwa, gdyż zawsze dokonuje się ona jako część kultury i w kierunku wyznaczanym przez kulturę. Tradycja żydowska ukazuje ten głęboki związek
między matematyką, alfabetem, ciałem ludzkim a konstrukcją przestrzeni. Często przytaczana w kontekście komputera jako cybernetycznej maszyny Kabała ukazuje „ukryte”, boskie relacje między światem a umysłem. Uważne czytanie
kabały pozwoli także na zrozumienie totalnego charakteru dialektyki uformowanej przez Hegla, która została wykorzystana jako baza dla marksizmu i darwinizmu – współczesnego rozumienia organiczności jednostki i politycznej ekonomii
społeczeństwa. Ciekawostką historyczną może być zaangażowanie środowisk
żydowskich w międzynarodówkę socjalistyczną – można przypuszczać, że absorbowanie założeń marksistowskich było ułatwione przez ukryty mistyczny na
sposób żydowski charakter tych ideologii. Jednak rozszerzając spojrzenie, możemy uogólnić tę obserwację do wszelkiej tradycji, wiedzy, niekoniecznie tych budowanych na dialektycznej bazie. Wszędzie występuje sprzężenie wymykającej
się słowu dionizyjskiej, barokowej, romantycznej organiczności oraz apollińskiej
renesansowej, oświeceniowej harmonii i logiki. Przemilczę pokusę traktowania
ich dialektycznie dla uzasadnienia historii zmian paradygmatów.
Kultura, a w tym jej warstwa organiczna, stanowią wzorzec dla formowania interfejsów, a skoro technologia jest skórą kultury, dochodzę do tautologii,
z której jedynie istotna jest wykazana struktura kultury – organiczno-mechaniczno-logiczna. Gdzie można zobaczyć jej przejawy? Cała filozofia wzornictwa
i interfejsów firmy Apple była projektowana jako organiczna, zaokrąglona bryła
o intuicyjnym oprogramowaniu, które miało być całkowicie homogeniczne. Każde urządzenie jest od tego czasu projektowane tak, aby odzwierciedlało struktury danych, które pochodzą wprost ze świata somatycznego.
Chciałbym skupić się jednak w tym momencie na zagadnieniach etycznych, które pojawiają się w świecie płynnych granic między jednostką a jej
231
ekstensjami medialnymi, oraz włączyć w ten obszar również relacje człowieka
i innych, również hybrydycznych form życia. Okaże się wówczas, że medium i interfejsem mogą być nie tylko te wszystkie rzeczy, które zwykło się określać jako
media. Pojawi się kontekst tzw. mediów wilgotnych (moist media), oczyma wyobraźni widzę przyszłość, a w niej dział MOISTMEDIA obok działu AGD. Chodzi
tu głównie o organiczne formy życia. Inne formy mediów, które dziś bardzo często zaczynają być mediami np. artystycznymi, co wiąże się z poddawaniem pod
refleksję ich uprzedmiotowienia, które odnajduje się przecież w codzienności
i które wynikają z każdej tradycji. Handel płodami rolnymi, żywymi zwierzętami
albo ich mięsem to przecież nic innego niż uprzedmiotowienie życia. Rytualne
spożywanie mięsa w wielu kulturach mogłoby być traktowane jako rodzaj próby przywrócenia podmiotowego stosunku dla spożywanego życia, jednak sama
społeczna praktyka obsługująca za pomocą rytuału niewidzialnego ducha zwierzyny zawsze będzie wiązała się z przedmiotowym traktowaniem samych widzialnych i smacznych zwierząt – a finalnie ofiarowaniem duchowi jedynie palonych,
mało przydatnych kości. Duch jednak nie wykazuje się praktyką.
Tym bardziej przedmiotowe traktowanie maszyny, robota wydaje się
czymś naturalnym. Jednak natura ludzka wkracza w te obszary, nieubłaganie
stając się mieszaniną ludzko-maszynową. Maszyny do pamiętania, maszyny do
przenoszenia głosu czy obrazu... Nie chodzi nawet jeszcze o kwestie łączenia
się tych bytów z organizmem ludzkim w sensie biologicznym np. na obszarach
nanotechnologii.
Zaczyna się to wszystko od zdobienia narzędzi, od przenoszenia wewnętrznego wzoru piękna na martwą materię, a następnie od udomowienia
zwierząt i przejęcia odpowiedzialności za ich los, który był jedynie losem narzędzia. Dawny związek myśliwego i psa czy kobiety i kota może przypominać dziś
związek człowieka i jego telefonu komórkowego czy komputera. Nadaje się cechy ludzkie bytom nieludzkim – zarówno zwierzętom, jak i narzędziom. Prowadzi
to do przeniesienia etyki ludzkiej na nieludzkie formy – zarówno technologiczne, jak i inne formy życia, takie jak rośliny czy zwierzęta.
Antyczne rozumienie etyki w stosunku do człowieka było niejednorodne
i pełne wieloznaczności. Pewne jest to, że „etyczne” były inne rzeczy w odniesieniu do poszczególnych warstw społecznych. Pojawiało się jednak podstawowe dla wielu kultur rozwarstwienie na obywateli, tzw. wykluczonych z najniższą
formą wykluczenia – niewolników. Niewolnik był uprzedmiotowionym człowiekiem, którego często kastrowano, pozbawiano cech indywidualnych i traktowano jak coś między sprzętem a zwierzęciem. Warstwę życia chronionego bios
tworzyli obywatele, a wykluczeni podobnie jak zwierzęta tworzyli warstwę pozbawioną ochrony, nagie życie zoe. W strukturze obywateli kluczową postacią
o boskich cechach był władca. Życie obywateli było chronione rozmaitymi prawami, a sami obywatele stanowili zazwyczaj strukturę dworsko-militarną, armię
i zaplecze dla armii. Brali udział jednak zawsze w ważnych wydarzeniach i byli
związani z aparatem władzy. W przypadku małych plemion większa była liczba obywateli, lecz w przypadku imperiów zwiększała się liczba wykluczonych,
a co wynikało z prostego rachunku, większa liczba wykluczonych i niewolników
dawała większe możliwości i korzyści obywatelom, a przez to władcy. Rozmaite imperia podchodziły w różny sposób do ludów podbitych i na różny sposób
integrowali terytoria za pomocą struktur społecznych. Aleksander Wielki rozumiał rolę lokalnych struktur społecznych i zamiast je niszczyć, podporządkowywał je sobie. Nabuchodonozor działał w zgoła odmienny sposób. Najczęściej
jednak struktury były w dużej części niszczone w warstwie obywatelskiej i zastępowane nowymi strukturami wywodzącymi się ze struktur zdobywców. Jednak
232
w każdym z przypadków specyficzna kastowość była częścią spójnej etyki, w której rolę nadrzędną odgrywała siła czy też władza.
Chrześcijaństwo wprowadziło odmienną ideologię, która została uznana przez władze za niebezpieczną i przekształcono ją szybko w zaakceptowaną
społecznie wersję „soft”, która stała się niebawem oficjalną religią Rzymu. Przyswojona forma chrześcijaństwa podobnie jak inne, wcześniejsze religie utrwalała władzę, jednak nie pozostała bez wpływu na idee władzy. Władza musiała
zmienić więc język i formy rządów. Nie zamierzam tu opisywać tej wizji przeszłości, ale pragnę zwrócić uwagę na to, że nie należy widzieć realizacji idei chrześcijańskiej jedynie w wiekach średnich, ale raczej na równych zasadach widzieć
jej pokłosie w rozwijającej się idei równości w rewolucji francuskiej, w deklaracji
praw człowieka czy w ideach socjalistycznych i komunistycznych. Najistotniejszym elementem, jaki przecież wyciągała masoneria z chrześcijaństwa, był jego
wymiar humanistyczny, nastawienie na każdego człowieka, nie tylko na równość obywateli, ale na powszechność kategorii obywatela. Utopijna wizja równości wywodząca się z chrześcijaństwa przeradzała się jednak także w rozmaite
formy ideologicznego podłoża dla totalitaryzmu. Każda forma władzy opiera się
wszak na wykluczeniu. Wykluczenie w chrześcijaństwie miało odbywać się przez
przyjęcie lub przekroczenie określonych zasad życia, które były jednakowe dla
wszystkich. Jednak niezależnie od swych decyzji każdy człowiek znajdował się
od tej pory w sferze bios. Społeczeństwo po tysiącleciach życia w systemie opartym na sile i posiadaniu nie mogło długo trwać w tej iluzji. Taki jest początek
Kościoła i średniowiecznej Europy.
Chrześcijaństwo przede wszystkim miało jednak znieść społeczną praktykę kozła ofiarnego – co nie oznacza, że ten mechanizm przestał wtedy istnieć.
Mechanizm kozła ofiarnego był zawsze obecny, jest podłożem antysemityzmu
i wielu innych wrednych ideologii, a w sztuce przynajmniej od czasu akcjonistów
wiedeńskich wraca jako kwestia dowartościowana kulturowo, co w kontekście
formowanych tu egzoetyk wydaje się szczególnie niebezpieczne, gdyż dziś nic,
żadna forma ideologii nie chroni już człowieka przed cierpieniami, jakie spotykają zwierzęta. Człowiek stał się jedynie jedną z form życia.
Przez wiele wieków prawa boskie wykluczały ludzi o odmiennych przekonaniach lub różniących się od ogółu na inne sposoby, np. homoseksualistów,
Żydów. Jedynie część z tych błędów można uznać za złą interpretację chrześcijaństwa. Prawa ludzkich obyczajów poparte pismami religijnymi wykluczały
z udziału w tworzeniu społeczeństwa także kobiety, które spełniały rolę podległą męskiemu punktowi widzenia. Krytyka feministyczna dostrzegła więc przede
wszystkim płciowy charakter tradycji biblijnej. Do tego stare formy wykluczenia
ekonomicznego opartego na etyce antycznego polis i pojęciu obywatela jako
znaczącego i zamożnego członka społeczeństwa doprowadziły do powstania
ruchów lewicowych, które wkrótce dostrzegły nie tylko „pospólstwo”, a więc tych
wykluczonych na polu ekonomicznym, ale i uważnie przyglądały się wszelkim
wykluczeniom. Jednak stanowiąc o mechanizmach władzy, owe ruchy lewicowe
nie są wolne oczywiście od tworzenia własnych obszarów wykluczenia.
Obecnie lewicowy dyskurs wykluczenia jest przenoszony na terytoria tzw.
gatunkowizmu, czyli problem obejmuje nie tylko wykluczonych ludzi, ale inne
gatunki. Prowadzi to do idei zrównania praw zwierząt czy roślin z prawami ludzi.
Kwestie te uważam za kluczowe. Na ile zrównanie roślin z ludźmi nie zakończy się
zrównaniem ludzi z roślinami, a więc klęską etyki antropocentrycznej na rzecz egzoetyk, w których zabicie człowieka zostanie zrównane z zabiciem bakterii, czyli
stanie się moralnie neutralne? Na ile przykładowo będzie się wartościować życie ludzkie w zależności od stopnia zintegrowania ciała ludzkiego z technologią
233
czy innymi cechami gatunkowymi? Życie trwające dzięki ingerencji technologii
powinno być mniej, bardziej czy tak samo wartościowe? Na ile można mówić
o dwóch różnych postawach jako wzorcowych, gdzie postawa Jana Pawła II, który zdecydował się na przerwanie życia przez odłączenie od technologii, może
być zestawiona z życiem Stephena Hawkinga, który dzięki technologii dokonuje kolejnych spektakularnych przełomów w nauce? Zarówno jeden, jak i drugi
z nich w momencie podłączenia do maszyn podtrzymujących życie dysponowali pełnią mocy umysłowych. Co wtedy, kiedy technologia posiądzie wystarczającą ilość informacji do tego, by s(t)ymulować procesy zachodzące w umyśle
człowieka, by działać za niego, wykonywać operacje na informacjach w sposób
zbliżony do tego, jak ma to miejsce w przypadku mózgu? Czy tylko życie ludzkie
powinno być wartością bronioną przez moralność? Dlatego właśnie temat uformowania egzoetyk, które powstaną w odniesieniu do nieantropocentrycznych
źródeł uważam w tej chwili za kluczowy dla naszej cywilizacji.
Należałoby znów na osi czasu zarysować ogólny kształt zmieniającego
się podejścia do innych form życia w całym ciągu ewolucyjnym człowieka. Od
pierwszych kultur plemiennych, które oddzielały się od świata zwierzęcego, które
wykorzystywały oswojony ogień jako narzędzie emancypacji gatunku ludzkiego
z porządku natury, które tworzyły pierwsze narzędzia do polowania i które malowały sceny polowania, by zaklinać rzeczywistość za pomocą ikon, zyskujących
moc dzięki szamańskim rytom, dzięki paleniu kości. Duch zwierzyny nie był tylko
duchem upolowanego, ale był duchem natury, obecnym w innych zwierzętach,
który mógł doprowadzić myśliwego do powodzenia lub klęski.
Następnym etapem było oswojenie niektórych zwierząt pomocnych
przy polowaniach, oswojenie roślin, które można było siać w pobliżu jaskini lub
innego miejsca pobytu. Doprowadziło to do powtórnego nawiązania relacji
z przyrodą, która była już czymś innym, niezwiązanym z człowiekiem, a człowiek
mógł nią sterować, wypasać bydło czy owce. Przywiązanie do roślin powodowało przywiązanie do ziemi, która była mniej lub bardziej urodzajna, szczególnie można było to obserwować w delcie Nilu lub w obszarach stanowiących
ostrą granicę między światem urodzaju a pustynią śmierci. Zwierzęta i rośliny towarzyszyły od tej pory człowiekowi przez całe tysiąclecia w dwóch sferach. Pierwsza to sfera osobista, sfera polowania, która szybko doprowadziła do
związku np. psa i domu. Podobnie wiele roślin okazywało się pożytecznych nie
ze względu na walory spożywcze tylko dekoracyjne, miały ładny zapach, wygląd. Wchodziły często do kręgu osobistego, choć nie często do domu. Druga to sfera hodowli w celach spożywczych. Zwierzęta i rośliny były traktowane
równo jako źródło korzyści, pożywienia, ale także skór i innych dóbr, towarów.
Były przedmiotem handlu i bywały często rodzajem waluty. Taką walutą bywały wtedy także kobiety czy dzieci, które można było wymienić np. na zwierzęta.
Podobnie traktowano ludzi, zarówno kobiety, jak i mężczyzn spoza plemienia.
Powstawało niewolnictwo, rozmaite struktury i systemy władzy. Jest to dobrze
znana opowieść.
W wielu kulturach nieeuropejskich można jednak dostrzec kardynalny
związek umysłu ludzkiego i umysłów roślinnych i zwierzęcych. Szamańskie rytuały bywały łączeniem się ze światem zwierzęcym, utożsamianym ze światem
duchowym. Zwierzęta były bytami wyższymi w tym obszarze, a ich umiejętności
przenoszono za pomocą rytuałów na ludzi. Ludzie często odczuwali duchowy
związek z roślinami, nie tylko ze względu na ich narkotyczny wpływ. Otoczenie
człowieka było żywe. Las oddychał, szeptał, a myśliwy musiał nie tylko wsłuchiwać się i wytężać wzrok, ale i połączyć swoją świadomość ze świadomością roślinną, świadomością lasu jako wspólnego organizmu. Z wyższą świadomością
234
roślin, ich „duchem”. Przedstawiona boczna odnoga, której kultura europejska
nigdy nie przeżywała dostatecznie głęboko, wydaje się teraz kluczowym doświadczeniem dla ludzkości, które spotka ją w ciągu nadchodzących lat. Kiedy
umysł ludzki usieciowi się za pomocą technologii, będzie można lepiej zrozumieć jego działanie jako elementu całej sieci globalnych połączeń, a interfejsy
komunikacyjne w dosłowny i dobitny sposób będą stanowić pomost między
człowiekiem a roślinami czy zwierzętami.
Podobne subtelne oddziaływania mogą pojawić się również na innych obszarach, w których raczej trudno mówić o komunikacji, ale raczej o jednostronnym wpływie planet (co przywracałoby astrologię do obszaru zainteresowania
dla naukowców). Oczywiście umysł ludzki sam dla siebie wytwarza najsilniejsze bodźce, jednak oddziaływania subtelne, takie jak magnetyzm ziemi, energia planet i gwiazd, energia innych umysłów, roślin czy zwierząt stanowią dla
niego pewne uzupełnienie. W tym kontekście pojęcie mindware otwiera swe
kolejne potencjalne znaczenia, mindware może być rozumiany jako zbiór elementów wpływających na działanie ludzkiego umysłu: od doświadczeń zmysłowych, wśród których usytuowany jest styk człowieka, i hardware, przez kulturę
i jej styk z software’em, po wpływy subtelne, takie jak pole elektromagnetyczne
wytwarzane przez inne gatunki, ale również maszyny.
Trudno obarczać winą nauki Chrystusa za stanowisko filozofów, takich
jak Kartezjusz, którzy, dzieląc rzeczywistość na ciało i umysł, pozwolili na dostęp do umysłu jedynie człowiekowi. Źródłem było pojęcie dusza, którego rozwojowi w dalszej części rozważań należałoby się bliżej przyjrzeć od strony jego
genezy. Zarówno dla Kartezjusza, jak i dla Leibnitza i wielu innych uczonych filozofów zwierzęta były tylko „mechanizmami” bez umysłu. Oczywiście jest w tym
wiele z myślenia religijnego, w którym nie umysł, ale dusza była podstawową
cechą różniąca człowieka od świata przyrody. Człowiek nosił w sobie antropocentryczną wizję religijną, ślad, tchnienie tożsame z jego duszą i obraz stwórcy
tożsamy z jego ciałem. Wszystko, co nie było człowiekiem, było pozbawione dostępu do zamysłu Boga lub było mu wręcz przeciwne (wąż). Zbłądzenie europejskiego umysłu skutkowało wieloma okrucieństwami i dawało prostą legitymację
do wprowadzania niewolnictwa, gdyż wszelcy mieszkańcy ziem podbitych byli
utożsamiani z półzwierzętami. Nie używali zrozumiałego dla europy języka, żyli
blisko przyrody, nie wyznawali wiary w Chrystusa. Religia była jednak dodatkowym narzędziem wykluczenia tych dzikich, nieochrzczonych ludzi poza sferę życia chronionego, poza bios i przerzucenia ich egzystencji w sferę zoe, którą można
było eksploatować na zasadzie surowca naturalnego. Mechanizmy te były później odpowiedzialne za Holokaust, w którym zrównanie Żyda z robactwem lub
odwrotnie były immanentną częścią ideologii rasy. W antysemityzmie ludowym
trwały bardzo długo podobne porównania.
Ludzie jednak do dziś często otaczają się roślinami czy zwierzętami, tworząc wokół siebie pewną barierę energetyczną, często chroniącą ich przed promieniowaniem zaawansowanej elektroniki, a kiedy przebywają w pomieszczeniu
pełnym ludzi wrogo nastawionych, często nie potrzebują czytelnych sygnałów
wizualnych czy werbalnych, aby ocenić sytuację. Czują stres czy presję psychiczną bez potrzeby uciekania się do konkretnych bodźców. Oczywiście nie jest to
w żadnym razie naukowa próba wyjaśnienia procesów komunikacji transgatunkowej czy dowód na jej istnienie, ale raczej wskazanie obszaru, w którym należy skoncentrować wysiłki dla zbadania perspektyw rozwoju technologii, które
umożliwią rozwój takiej komunikacji transgatunkowej, jaka, moim zdaniem, jest
podstawą do stworzenia jakiejkolwiek wiarygodnej egzoetyki. Technologia odgrywa w tym miejscu wręcz kluczową rolę.
235
W celu pełniejszego zarysowania i zrozumienia perspektyw, jakie daje
technologia w relacji między człowiekiem a otaczającym go ożywionym światem,
należałoby teraz poczynić podobną podróż w czasie, przyglądając się rozwojowi technologii, a więc archeologii mediów. Od wynalazku koła, który umożliwił
handel surowcami i transport ciężkich materiałów np. do konstruowania budowli, po pętle informatyczne umożliwiające działanie programów operujących na
złożonych bazach danych i tworzenie sztucznej inteligencji.
Ze względu na konieczność zagęszczenia tego wywodu wystarczy jednak przypomnieć sobie badania nad świadomością roślin, prowadzone między
innymi przez Cleve Backstera, dostrzegalne jest, że nie tylko człowiek odbiera
impulsy ze świata roślinnego czy zwierzęcego, ale także fakt, że rośliny są w stanie odbierać impulsy np. od wołających o pomoc innych prostych form życia,
takich jak krewetki. Eksperyment polegał na tym, że Cleve Backster umiejscowił
roślinę w pomieszczeniu, a za ścianą umiejscowił maszynę, która losowo wrzucała krewetki do wrzątku. Roślina wyraźnie wykazywała bardzo silną reakcję galwaniczną dokładnie w momencie, kiedy do wody rzucano kolejne porcje krewetek.
Sam eksperyment był wynikiem przypadku, w którym uczony próbował sprawdzić reakcję galwaniczną rośliny na podpalanie jej ogniem. Okazało się to jednak
niepotrzebne, gdyż na samą myśl o zapałkach, których Cleve Backster nie posiadał w laboratorium, roślina wykazała bardzo silną reakcję. Cleve Backster powtarzał wielokrotnie ten eksperyment w różnych konfiguracjach, a w jednym ze
stadiów eksperymentu umiejscowił roślinę jako widza przed ekranem, na którym
wyświetlane były filmy. Okazało się, że rośliny były w stanie wskazać na momenty, w których pojawiały się drastyczne sceny i nie potrzebowały do tego dodatkowych „translacji”. Badania uznano jednak za nierentowne i nieprzydatne dla
wojska, a na domiar złego wprowadzające chaos w świecie etyki, który musiał
uporać się z okrucieństwami II wojny światowej.
Kilku naukowców wykorzystało więc szczeliny w jego metodologii do
tego, by zdyskredytować ten obszar badań, który dziś, głównie za sprawą sztuki, przeżywa swój renesans. Żywy las myśliwego, dzięki niesforności artystów,
zaczyna znów zbliżać się do nas i pragnie bardziej precyzyjnej komunikacji, pragnie udziału naukowców w konstruowaniu tej szalonej wizji świata, w którym
świat jest pełen komunikatów, których ludzie nie potrafili odczytywać. Przede
wszystkim jednak ów żywy gadatliwy las pełen rozmaitych gatunków fauny i flory pragnie negocjacji kwestii etyki w kontekście antropocentrycznego systemu,
pragnie własnych egzoetyk uwzględniających potrzeby i relacje całej biocenozy, a człowiek musi umieć zrobić miejsce innym formom życia. Ludzie są tymi,
którzy utorują im drogę do pełnej realizacji na obszarze umysłu, emocji, świadomości, a może i ducha.
Należy pamiętać, że to, co człowiek robi dziś dla innych gatunków, jutro
będzie wyznaczało obszary wolności dla transgenicznych organizmów, częściowo ludzkich (stąd jest konieczne przywrócenie pogłębionej refleksji nad podmiotem w kontekście innych form życia), częściowo technologicznych (stąd
konieczność rekonstrukcji kultury na obszarze informatyki i nauk o komunikacji), a częściowo roślinnych lub zwierzęcych (konieczność zgłębienia znaczenia
ciała dla układu podmiotu i tożsamości kulturowej). Obszarem, na którym dziś
taka refleksja mogłaby się odbyć, widziałbym interdyscyplinarny splot nauk kognitywnych, poszerzony o badania percepcji innych form życia.
236
Bibliografia
• Agamben G., Sacer H., Sovereign Power and Bare Life, University Press, Stanford
1998.
• Ascott R., Telematic Embrance, Visionary Theories of Art, Technology, and Conciousness,
University Of California, Berkeley, Los Angeles, Kalifornia, Londyn 2003.
• Backster C., Primary Perception: Biocommunication with plants, living foods, and human cells, White Rose Millennium Press, 2003.
• Braidotti R., Biowładza i nekropolityka. Refleksje na temat etyki trwałości, „Eurozine
Springerin” 2007, nr 2, www.ekologiasztuka.pl/pdf/f0045braidotti.pdf.
• CRITICAL ART ENSEMBLE, Digital Rresistance, Explorations In Tactical Media. Autonomedia, Nowy Jork 2001.
• Girard R., Kozioł ofiarny, tłum. M. Goszczyńska, Łódź 1987.
• Haraway D., The Companion Species Manifesto. Dogs, People, and Significant Otherness, Prickly Paradigm Press, Chicago 2003.
• Media Ecologies: Materialist Energies in Art and Technoculture, Matthew Fuller,
2005.
• Merchant C., Radical Ecology. The Search for Livable World, Routledge, Londyn–Nowy
Jork 2005.
• Parikka J., Insect Media. An Archeology of Animals and Technology, University of Minnesota Press, 2010.
• Rose N., The Politics of Life Itself: Biomedicine, Power, and Subjectivity in the Twenty-First
Century, Princeton University Press, Princeton, New Jersey 2006.
• Steiner G., Anthropocentrism and Its Discontents. The Moral Status of Animals in the History of Western Philosophy, University of Pittsburgh Press, Pittsburgh 2005.
237
Teorie mindware
Postmediacje
Happy end mitu wieży Babel
Marcin Skrzypek
239
Mindware to...
Słowo mindware to neologizm dość łatwo przychodzący na myśl w czasach powszechnej cyfryzacji. Jest połączeniem angielskiego mind (umysł) ze
słówkiem ware (sprzęt, oprzyrządowanie). Znaczy więc dosłownie tyle co: oprzyrządowanie umysłu lub umysł jako sprzęt. Reszta jest kwestią doprecyzowania
pod konkretne potrzeby użytkownika. Mindware pasuje więc do różnych kontekstów związanych z zarządczym podejściem do ludzkiego umysłu jako procesora danych. Na przykład w układzie roboczym człowiek-komputer mindware
może oznaczać ten trzeci, ludzki – po hardwarze i softwarze – element decydujący o efektywności przeprowadzanych przez układ operacji. Ale w Internecie słowo to jest użyte prawie 3 miliony razy, również jako nazwa firm czy produktów,
więc w zasadzie nie da się stwierdzić, co ono „znaczy” obiektywnie, ponieważ
znaczy to, co dany użytkownik nim nazwie. Można zaryzykować stwierdzenie, że
tylko w wyjątkowych przypadkach spośród tych 3 milionów użytkownicy przypisują mu jakiś uniwersalny sens, który usprawiedliwiałby umieszczenie tego
słowa w słowniku, chociażby żargonowym. Dlatego metodyczny dyskurs wokół mindware’u jest zajęciem twórczym. Polega na definiowaniu nowych problemów związanych z polem znaczeniowym tego neologizmu, natomiast nie ma
nic wspólnego z badaniem jakiegoś zjawiska czy weryfikacją sądów, ponieważ te
czynności są na razie bezprzedmiotowe. Chyba żeby zbadać te 3 miliony spontanicznych zastosowań mindware’u.
Tekst niniejszy proponuje, aby mindware’em nazywać „oprogramowanie
kapitału społecznego” lub też „kompetencje dialogiczne wobec wyzwań komunikacyjnych XIX wieku”. Definicje te zostały szerzej omówione w materiałach projektu Mindware. Technologie dialogu zrealizowanym w Lublinie w 2011 roku. Stawiają
one tezę, że wszyscy uczestniczą obecnie w procesie raptownego rozwarstwiania językowego ludzkości, przy czym język jest tu traktowany bardzo ogólnie jako
umiejętność uzgadniania warunków współżycia. Przez analogię do zjawiska ucieczki galaktyk można by ów proces rozwarstwiania nazwać ucieczką wyobraźni, na
które to wyobraźnie składa się wiedza, pamięć, zdolność planowania, wrażliwość,
hierarchie wartości itd. W tym modelu mindware jest metaforą komunikacyjnego
interfejsu, który mógłby zintegrować oddalające się od siebie ludzkie wyobrażenia o świecie, ponieważ spotykają się one w świecie realnym, więc muszą umożliwiać swoim posiadaczom uzgadnianie warunków współżycia. Wyobraźnie te
tworzą sieci kolaboracyjne, gdy korzyści z ich współpracy przewyższają koszty. Do
mindware’u można zaliczyć wszystko, co obniża te koszty, zwiększa korzyści i stabilizuje sieci. W świetle tej definicji mindware jest pojęciem normatywnym, nazywającym pewne niesformułowane jeszcze kompetencje – jest postulatem i projektem,
a może nawet manifestem odnoszącym się do przestrzeni fazowej przyszłych scenariuszy rozwoju społeczno-epistemologicznego. W tej zaś przestrzeni mindware
spotyka się z biblijną historią wieży Babel, będącą mitem założycielskim wielości
systemów kodowania znaczeń oraz problemów ich wzajemnej translacji1. Mówiąc
najkrócej, mindware to happy end mitu o wieży Babel. Spróbuję odczytać tę narrację w kontekście współczesnych wyzwań zdefiniowanych przez mindware, by zrozumieć, na czym mógłby polegać komunikacyjny interfejs mindware’u.
1
Słowo mit jest tu użyte w rozumieniu Miracei Eliadego jako opowieść, która wyjaśnia świat człowiekowi kultury tradycyjnej. Ma on znaczenie neutralne, bez orzekania o prawdzie czy fałszu zawartych w nim treści. Mit nie jest tu więc pojęciem
wartościującym i nie wymaga rozdzielania mitologii od religii. Takie „niedyskryminujące” podejście jest jedną z cech mindware’u, ale też często wymaga dodatkowych objaśnień, gdyż język wypełniają określenia wartościujące i dyskryminujące,
dla których neutralne zamienniki i synonimy często po prostu nie istnieją.
241
Babel – intro
Historia wieży Babel należy do najbardziej uniwersalnych kulturowo tekstów Biblii i najszerzej używanych w nawiązaniach. Symbolika terminu wieża Babel
żyje więc własnym życiem – trochę tak jak mindware – ale koncentruje się wokół
kilku głównych i dobrze znanych interpretacji jako symbolu:
• chęci dorównania Bogu,
• mnogości języków,
• przedsięwzięcia niemożliwego do zrealizowania i prowadzącego do
zamętu,
• Babilonu jako siedliska władzy i zepsucia,
• pychy ludzi i bożego gniewu.
Wymowa tych interpretacji opiera się na opozycji ludzie – Bóg i jest bardzo dydaktyczna i krytyczna moralnie, choć ostateczna ocena obu stron zależy
od osobistych orientacji czytelnika. Z teocentrycznego punktu widzenia ludzkość
wypada w nim bardzo negatywnie, natomiast z antropocentrycznego – pozytywnie. Tak czy inaczej w tej postaci mit jest bezużyteczny do przetwarzania wiedzy.
Opisuje po prostu pewien stan czy rację, z którą można się zgodzić lub nie. Zastanawiające jest jednak, że większość tych skojarzeń nie wynika z tekstu mitu. Jeśli
go wnikliwie przeczytać, jego symbolika będzie wymagała rekonfiguracji i udzieli
nam pewnych podpowiedzi na temat mindware’u. O wieży Babel w Biblii znajduje się zaledwie wzmianka, ale nie jest ona tak oczywista, jak się wydaje:
Mieszkańcy całej ziemi mieli jedną mowę, czyli jednakowe słowa. A gdy
wędrowali ze wschodu, napotkali równinę w kraju Szinear i tam zamieszkali.
I mówili jeden do drugiego: Chodźcie, wyrabiajmy cegłę i wypalmy ją w ogniu. A gdy już mieli cegłę zamiast kamieni i smołę zamiast zaprawy murarskiej, rzekli: Chodźcie, zbudujemy sobie miasto i wieżę, której wierzchołek
będzie sięgał nieba, i w ten sposób uczynimy sobie znak, abyśmy się nie rozproszyli po całej ziemi.
A Pan zstąpił z nieba, by zobaczyć to miasto i wieżę, które budowali ludzie,
i rzekł: Są oni jednym ludem, i wszyscy mają jedną mowę, i to jest przyczyną,
że zaczęli budować. A zatem w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić. Zejdźmy więc i pomieszajmy tam ich język,
aby jeden nie rozumiał drugiego! W ten sposób Pan rozproszył ich stamtąd
po całej powierzchni ziemi, i tak nie dokończyli budowy tego miasta. Dlatego to nazwano je Babel, tam bowiem Pan pomieszał mowę mieszkańców
całej ziemi. Stamtąd też Pan rozproszył ich po całej powierzchni ziemi.
(Rdz 11,1–9, Biblia Tysiąclecia)
Metoda
Jak czytać taką narrację, żeby ją zrozumieć? Można to robić na metapoziomie, korzystając z naukowej metodologii, ale pytanie z której i czy będzie to
język, w którym owa historia została napisana. Użytkowy sens mitu polega na
tym, że daje on subiektywną kontrolę nad tym, co umyka poznaniu. Pozwala to
coś zrozumieć, powiązać fakty w logiczną całość, która daje umysłowi poczucie bezpieczeństwa, ochrony przed chaosem. Jeśli więc chce się odczytać mit
zgodnie z intencją jego powstania oraz przekazu i zachować jego sensogenną moc, powinno się weń aktywnie zaangażować, tak, jakby był obecny i przez
swoje metafory dotyczył bezpośrednio życia czytelnika. Oczywiście, nie powinno to kolidować z logiką i formalną poprawnością rozumowania. Spojrzenie takie
nie zapewni co prawda naukowego dystansu, ale czy sama nauka współcześnie
nie przejęła częściowo roli mitów, stając się nową mitologią. Znaczne obszary
242
wiedzy, tzw. naukowej, istnieją tylko w języku i są li tylko gawędzeniem. Istotną
rolę spełniają w nich metafory i neologizmy, które przypominają czarodziejskie
zaklęcia stwarzające byty za pomocą słów, albo antropomorfizacje, w których
bezosobowym zjawiskom przypisuje się intencje i charaktery, by niekończącemu
się procesowi przemian przyczynowo-skutkowych przypisać jakieś przyjazne interfejsy. Nie można przed tym uciekać. Nasz język opisuje nas. Nie ma żadnego
innego języka, który by na przykład w sposób poprawny politycznie – z punktu
widzenia matematycznych ideałów – wyraził fakt, że jakaś funkcja „dąży do nieskończoności”. Funkcja oczywiście nie stawia sobie żadnych celów i do niczego
nie „dąży”. Ale mówi się, że „dąży”. I możliwe, że właśnie dlatego, iż matematyk
wyobraża sobie, że ona faktycznie dokądś „dąży”, chce mu się w ogóle o niej myśleć i dopisywać do historii „przygód” tej funkcji jakieś nowe rozdziały.
Mit jako tekst dramatyczny
Mit wieży Babel ma sens, bo dziesiątki pokoleń brały go do siebie. W ostatnich latach nie wydarzyło się nic, co by ten proces przerwało czy podważyło jego
zasadność. Dlatego można iść tą samą drogą – ale bardziej świadomie. Biblijna
opowieść o wieży Babel działa jak katalizator znaczeń. Jest bardzo lapidarna i ma
wiele luk. Dostarcza szkieletowej struktury semantycznej, którą czytelnik uzupełnia zgodnie z pewnymi wzorcami w swoim umyśle: z jego wiedzą o świecie
i o tym, czego się zwykle spodziewa po ludziach. Są to wzorce uwarunkowane
epoką – jej kulturą, stanem wiedzy naukowej itd. Proces czytania tego mitu bardzo przypomina reżyserię sztuki teatralnej. Jest to właściwie skecz z wypowiedziami dwóch bohaterów i didaskaliami narratora. Można go przeczytać, ale co
się z niego zrozumie, zależy wyłącznie od tego, jak się go sobie „odegra” w głowie: jakim tonem będą mówić postacie, z jaką mimiką, jak będą odziane, jak będzie wyglądała scenografia, ruch sceniczny, efekty specjalne itd. Jeśli Bóg będzie
mówił wysokim głosem ze złośliwym uśmiechem, wyjdzie na zakompleksionego satrapę, a ludzi dla kontrastu można sobie wyobrazić w roli szlachetnych Prometeuszy. Albo odwrotnie: wystarczy ubrać ludzkość w socrealistyczny sztafaż,
a od razu podział bohaterów na dobrego i złego się odwróci. Sięgając do pokładów wiedzy bardziej osobistej, w roli Boga czytelnik może ujrzeć ojca słusznie
karcącego dzieci za złe zachowanie, który zabiera im zabawki i wygania z piaskownicy albo rodzica niedojrzałego, traktującego swoje dzieci jak konkurentów,
który czyni im rozwojową krzywdę, niesłusznie ograniczając swobodę ich kreacji. Wszystko zależy od uzupełnień treści, których w micie nie ma, ale które muszą być do niego dodane, by „mówił” do odbiorców.
Nie można w jednym zdaniu podać znaczenia mitu wieży Babel, bowiem
zależy ono od punktów odniesienia po stronie czytelnika, czyli faktycznie opowiada on o tych punktach. Więcej się z niego dowie o reżyserze sztuki niż o autorze. Paradoksalnie więc znaczenie mitu informuje nie o „jego znaczeniu”, ale
o milczących, może nieuświadomionych założeniach, które przyjmuje się, aby
uzupełnić jego szkielet semantyczny i w ten sposób odnaleźć w nim sens. Zatem
z historii o wieży Babel czytelnik może się dowiedzieć czegoś o swoim własnym
widzeniu świata, co może mu pomóc w intelektualnym przetwarzaniu wiedzy
w tym sensie, że prawdopodobnie odkryje w nim filtry, które stosuje też nieświadomie w innych kontekstach. Traktowanie mitu jako zwierciadła czytelnika
zbliża go do psychologicznej metody badań projekcyjnych, takich jak odnajdywanie kształtów w plamach Rorscharcha. W rzeczy samej każda interpretacja
literacka jest w jakimś sensie działaniem tego typu, co podkreśla XX-wieczna filozofia i krytyka literacka. W zasadzie elementy projekcji można odnaleźć w każdej aktywności poznawczej od wróżenia z chmur do codziennej wymiany zdań,
243
do której podchodzi się z podręcznym zestawem uprzedzeń czy stereotypów,
by potem je weryfikować i modyfikować. W niniejszej interpretacji mitu o wieży
Babel chodzi jednak o coś więcej – o świadome użycie tej metody do powiązania konkretnej wiedzy w taki sposób, aby spojrzeć na pewne współczesne zjawiska cywilizacyjno-kulturowe w nowym świetle.
Powyższa metoda podejścia do tekstu jest sama w sobie bardzo
„mindware’owa”, ponieważ dopuszcza polifonię interpretacji i traktuje ją jako
bogactwo. Upodmiotowia czytelnika przez wczucie się w jego intencje i uprawnia go do swojej własnej opowieści, czym dla niego jest dany tekst. A więc nie
dąży do jednej, „właściwej” interpretacji ani też – co jest równoznaczne – nie
traktuje twórczego wkładu czytelnika w kategoriach nihilistycznych – jako relatywizacji sensu, „śmierci autora” itp. W powyższym ujęciu tekst staje się po prostu okazją do poznania samego siebie i drugiego partnera w dialogu, co daje
obu stronom poczuciu bezpieczeństwa wynikające ze wzajemnego szacunku.
Jest to dobry wstęp do „ograniczania kosztów” współpracy, które często mają
charakter psychiczny, oraz do definiowania ewentualnych korzyści wynikających z tego, co ludzi łączy.
Analiza tekstu – ludzie
Biblijny fragment o wieży Babel jest dość lakoniczny – w czym przypomina bardziej wiersz niż prozę – ale da się z niego wydobyć kilka istotnych informacji. Bohaterem jest cała ludzkość w momencie rozwojowego przełomu. Stanowi
ją jedna wspólnota językowa zajęta wędrówką. Po zmianie trybu życia na osiadły,
bierze się ona energicznie za urbanizację, z czego można wnosić, że dysponuje pewnym wewnętrznym potencjałem rozwojowym pochłanianym wcześniej
przez przemieszczanie. W procesie zagospodarowywania miejsca osiedlenia biblijnej ludzkości kluczową rolę pełni fakt posiadania przez nią jednego języka.
Dzięki niemu ludzie zwołują się, ustalają wspólny cel i umawiają sposoby jego
realizacji: „I mówili jeden do drugiego: Chodźcie, wyrabiajmy cegłę i wypalmy
ją w ogniu”. Ważny jest dla nich aspekt stosowania konkretnej technologii do
przetwarzania surowców naturalnych i zastępowania jednych produktów, mniej
przetworzonych, innymi, bardziej zaawansowanymi: „mieli cegłę zamiast kamieni
i smołę zamiast zaprawy murarskiej”. Proces ten ma znamiona postępu technologicznego, bo w wyniku swoich działań ludzie wyraźnie dochodzą do pewnego
momentu, który umożliwia im podjęcie następnego wyzwania: „A gdy już mieli
cegłę zamiast kamieni [...]”. Wyzwaniem tym jest budowa miasta i niebosiężnej
wieży jako przestrzennego punktu orientacyjnego, który ma pomóc ludzkości
w zachowaniu wspólnej tożsamości: „Chodźcie, zbudujemy sobie miasto i wieżę, której wierzchołek będzie sięgał nieba, i w ten sposób uczynimy sobie znak,
abyśmy się nie rozproszyli po całej ziemi”.
Ostatni fragment warto uzupełnić współczesną wiedzą o relacji człowiek
–przestrzeń, by wydobyć z mitu kilka ukrytych implikacji. Po pierwsze, w porównaniu z otoczeniem naturalnym, miasto wytwarza nowy, nienaturalny krajobraz,
który zasłania horyzont, co ma istotny wpływ na poczucie tożsamości wspólnoty. W krajobrazie naturalnym – czy podczas wędrówki, czy w obozie lub osadzie,
którą często się opuszcza dla uzupełnienia zapasów – człowiek miał często możliwość objęcia swoich ziomków i ich siedliska jednym spojrzeniem, by w ten sposób uzyskać najprostsze potwierdzenie integralności wspólnoty, a więc i swojej
doń przynależności. Nawet mieszkańcy lasów budują wioski na polanach, które
można objąć jednym spojrzeniem. Struktura przestrzenna miasta, której na co
dzień się nie opuszcza, uniemożliwia podobną autoidentyfikację. Po drugie, miasto zaburza tożsamość grupową również w przestrzeni relacji niematerialnych,
244
ponieważ ze swojej natury dzieli obszar zamieszkania na wiele wydzielonych
wnętrz. Dla będącego w takim otoczeniu dominujące znaczenie zaczynają mieć
granice międzysąsiedzkie i podziały na przestrzeń wspólną i prywatną, natomiast
miejsca wspólne zyskują osobne funkcje wyraźnie zdefiniowane przestrzennie:
transportową, handlową, publiczną, sakralną. Oczywiście w obozie koczowników
czy nawet w przestrzeni naturalnej te funkcje również występują, ale urbanizacja
usztywnia relacje między nimi. Miasto stanowi sieć interesów przestrzennych,
które są ustalone i trudno zmienne, bo wszystkie razem wyczerpują lokalne zasoby przestrzeni, co powoduje, że zmiana każdej relacji przestaje być neutralna,
lecz staje się zawsze korzystna lub niekorzystna dla co najmniej jednej innej relacji. Wobec znaczenia takich partykularnych interesów kwestia jedności schodzi na plan dalszy.
Bohaterowie mitu zachowują się tak, jakby zdawali sobie sprawę z tych mechanizmów, bo planują wyposażyć miasto w coś, co w architekturze krajobrazu
nazywane jest landmarkiem, czyli punktem orientacyjnym – wizualnym punktem
odniesienia pomagającym odnaleźć się w przestrzeni zabudowanej lub naturalnej
o ograniczonym widoku. W krajobrazie ukształtowanym przez człowieka rolę tę
pełnią budynki o reprezentacyjnym charakterze lub żywotnej funkcji, która przeważnie przekłada się na duże rozmiary budowli. Może to być zamek na pagórku,
wieża katedry, ratusz, komin fabryki czy elektrociepłowni. Każda epoka buduje
własne tego typu obiekty, co wiąże się w sposób naturalny z faktem, że wymaga
to wyjątkowych kosztów. Zatem akt ich wyłożenia jest ekspresją lokalnych hierarchii wartości i dystrybucji władzy. Mogą to być wartości materialne związane
z jakąś funkcją techniczną lub niematerialne wyrażające intencję inwestorów zakomunikowania społeczności, co jest – czy powinno być – dla niej najważniejsze
pod jakimś względem. Ekspresja tych wartości jest najczęściej wynikiem zarówno
świadomych intencji czy ich symptomatycznych manifestacji, jak i obiektywnych
uwarunkowań. Dlatego patrząc na dominanty krajobrazu ukształtowanego przez
człowieka, bardzo łatwo można odczytać jego krajobraz aksjologiczny. Współcześnie mówią o tym także biurowce firm inwestycyjnych czy ubezpieczeniowych,
linie wysokiego napięcia czy maszty telefonii komórkowej. Osobną kategorię dominant tworzą obiekty płaskie, takie jak autostrady czy centra handlowe, które
w większym stopniu orientują ludzi w przestrzeni poprzez mapy mentalne, a nie
poprzez widoki. Niemniej wszystko, co jest w jakimś sensie duże czy zauważalne
w krajobrazie fizycznym, zakodowuje przez złożony system zależności to, co jest
ważne czy wpływowe w krajobrazie aksjologicznym lokalnej społeczności.
Jedność, nie pycha
Patrząc z tej perspektywy, dla biblijnych ludzi najważniejsza jest jedność,
a nie władza nad materią czy chęć dorównania Bogu, jak się zwykle uważa. Plan
ich można potraktować po prostu jako racjonalny. Ludzie chcą stworzyć budowlę, która pozwoli im naocznie, za pośrednictwem najprostszego, codziennego doświadczenia identyfikować ich wspólną tożsamość. Zadaniem wieży
Babel nie jest wypatrywanie niebezpieczeństw czy fetowanie wspólnotowości
lecz ochrona tej wspólnotowości przed rozpadem: „w ten sposób uczynimy sobie znak, abyśmy się nie rozproszyli po całej ziemi”. Racjonalność budowy wieży Babel nie rzuca się w oczy, bo rozpad i rozproszenie wydają się immanentną
konsekwencją istnienia, a mit nie komentuje przyczyn tego zagrożenia. A jednak
po lekturze tekstu od początku można uznać tę lukę za istotne niedopowiedzenie. Stan ludzkości w pierwszych słowach mitu definiuje „jedna mowa”, „jednakowe słowa” i wspólna wędrówka. Dalej, już w życiu osiadłym, sprawny rozwój
ludzkości jest efektem jej solidarności w działaniu. Wszystko idzie jak po maśle
245
i nagle ludzie decydują się podjąć wielką inwestycję mającą ich bronić przed rozproszeniem. A więc mają przesłanki, aby sądzić, że ich status quo nie jest dany
raz na zawsze. Z tej części mitu płyną dwa wnioski. Po pierwsze, jej dominantą
jest jedność biblijnej ludzkości – jako wspólny mianownik „jednej mowy”, solidarnej pracy i obawy przed rozproszeniem – a nie sama wspólnota językowa.
Jest to istotne rozróżnienie, gdyż później pozwala precyzyjniej zidentyfikować
cele boskiej interwencji. Po drugie, w życiu biblijnej ludzkości musiała zajść jakaś nieopisana wprost, ale fundamentalna zmiana uwarunkowań jej pierwotnego stanu, skoro stał się on niestabilny. W tym ujęciu wieża Babel jest więc dla
budowniczych „narządem” społecznej adaptacji w obronie jedności, która musi
przetrwać w jakichś nowych, bliżej nieznanych warunkach. Ponieważ ta adaptacja jest tytułowym motywem mitu, należy uznać jedność za cechę, która identyfikuje ludzi jako ludzi. W tym świetle mit o wieży Babel przestaje być opowieścią
o zuchwalstwie, a staje się dyskursem o ludzkiej potrzebie społecznej spójności
i o sposobach na jej zachowanie. Wieżę Babel można więc traktować jako rodzaj protomindware’u, a właściwie jego materialnego desygnatu: generatora najbardziej pierwotnej „linijki kodu” oprogramowania kapitału społecznego, czyli
uświadomionego sensu, że „coś nas łączy”.
Co do przyczyn destabilizacji jedności biblijnych ludzi można wnosić, że
zagrożenie zbiegło się ze zmianą trybu ich życia. Kiedy wędrowali, zachowywali jedność, ale nie mieli domu. Kiedy zdobyli dom, zaczęli tracić jedność i podjęli działania interwencyjne w postaci budowy wieży Babel. Tak, jakby podczas
wędrówki integracja była zawarta w samym wspólnym wektorze ruchu, więc
jego zanik stworzył konieczność „przelania” jej w jakąś inną formę – wspólnie
zbudowany landmark. Analizując przestrzenne otoczenie mitologicznej ludzkości, można postawić tezę, że wybór takiej właśnie formy jest jej reakcją na zmianę otoczenia z naturalnego na zabudowane. Jak pokazuje współczesna refleksja
nad przestrzenią, miasto może powodować społeczne rozwarstwienie. Budowę
wieży można więc uznać za przestrzenną „szczepionkę” przeciw temu zagrożeniu. Skoro zurbanizowana przestrzeń nie wychodzi na zdrowie osiadłej społeczności, oczywistym polem reakcji jest owa przestrzeń – należy ją „zakląć”, nadać
jej stygmat, odcisnąć w niej pieczęć jedności o tak samo urbanistycznym charakterze, jak urbanistyczny jest charakter niebezpieczeństwa.
Geometria świata wieży Babel
Podejrzenia o uzurpację boskiej pozycji budzi oczywiście wysokość wieży –
„wierzchołek będzie sięgał nieba”. Ale i tu można wskazać racjonalne uzasadnienie projektu. Biblijny tekst o wieży Babel opiera się na wyobraźni alegorycznej, co
oznacza silne przetworzenie występujących w nim realistycznych relacji przez metafory i symbole pozwalające na osiągnięcie obrazu o syntetycznym charakterze.
Wywołuje to po stronie czytelnika efekt semantycznego „zoomowania”. W pierwszym zdaniu widać mieszkańców „całej ziemi”, ale już w drugim osiedlają się oni
na konkretnej równinie jakiegoś kraju. W następnym jest zbliżenie na „wyrób cegieł” i za chwilę na panoramę ich magazynów pozwalających na zbudowanie miasta. Na końcu tego fragmentu tekstu wraca się do perspektywy globalnej: oprócz
miasta będą budować i wieżę, ale tę, „której wierzchołek będzie sięgał nieba”, by
się nie rozproszyć „po całej ziemi”. Jest to dość istotna transformacja relacji przestrzennych mitu: o ile wcześniej mogło chodzić o grupę ludzi zdolną pomieścić
się w ówczesnym mieście, a więc na obszarze, który można przemierzyć na piechotę w ciągu dnia, o tyle na koniec tego wątku chodzi już o odległości globalne, mierzone w tygodniach czy miesiącach podróży – daleko poza horyzont. To
dlatego wieża musi być aż do nieba – aby była zewsząd widoczna.
246
Nie jest to wniosek jednoznaczny, bo nie wiadomo, czy fizyczne rozproszenie ludzkości już nastąpiło i niebosiężność wieży ma jej zapewnić symboliczną łączność, czy też ludzie jeszcze się nie rozeszli. W tym drugim przypadku
wieża mogłaby być niższa i wtedy ludzie rozchodziliby się po prostu po mniejszym okręgu, aby jej nie stracić z oczu. Skoro jednak mimo to jest zaplanowana
do nieba, więc może pełnić rolę „pomnikowej” manifestacji poczucia jedności
i tu byłoby w interpretacji miejsce na pychę i zuchwalstwo. Wydaje się jednak,
że słowa „po całej ziemi” są „makrośrubą” mitu: mowa już nie o zasiedleniu jakiejś jednej równiny, ale całej ziemi. Można też podejrzewać, że wraz z rozwojem ludzkości w swoim siedlisku pojawiła się jakaś siła odśrodkowa grożąca jej
rozproszeniem. Chodzi więc nie o rozwarstwienie społeczne w skali miasta –
mimo wszystko nadającego mieszkańcom wspólną tożsamość – ale o całkiem
realne rozejście się ludzi po świecie do tego stopnia, że ich poszczególne grupy nie będą się w ogóle ze sobą stykać. I dlatego wieża – jako znak jedności –
musi być aż do nieba. Diagnoza ta odzwierciedla obecną sytuację ludzkości,
która w pewnym sensie też potrzebuje jakiegoś znaku widocznego „na niebie”,
żeby poczuć globalną solidarność w różnych sprawach. Wpadając w kaznodziejski ton, można by upatrywać współczesnej wieży Babel w satelitach, na które
są skierowane anteny w każdym niemal domostwie. Odbierany przez nie sygnał telewizyjny zapewnia poszczególnym narodom i pośrednio całej „miejskiej”
ludzkości kulturową jedność. Ma ona jednak korzenie komercyjno-konsumpcyjne, a więc pasujące do negatywnego, „babilońskiego” stereotypu wieży Babel.
Jedność budowana na wspólnym oglądaniu telewizji nie wzbudziłaby więc raczej akceptacji siły wyższej z biblijnej opowieści. Biorąc pod uwagę dalszą fabułę oraz interpretację mitu, nie o taki mindware tu chodzi.
Podsumowując „ludzki” wątek mitu, należy podkreślić, że tekst źródłowy
nie sugeruje, iż główną cechą biblijną ludzkości jest pycha, wartością władza,
a motywacją chęć „zrównania się z Bogiem”. Z analizy tekstu na plan pierwszy
wysuwa się jedność, którą można traktować szerzej niż tylko jako wspólnotę języka. Daje to podstawę do interpretacji mitu bez imperatywu oceny moralnej
jego bohaterów, a więc również w kontekście prakseologicznym. Jak się dalej okaże, tekst nie wypowiada się na temat, czy pozbawienie ludzi „jednakowych słów” zamyka im drogę do jedności, co oznacza, że mają oni prawo dążyć
do jedności także innymi metodami. Pod warunkiem, że nie będzie to związane z budowaniem.
Bóg – domysły
Trzeba przyznać, że zachowanie biblijnej ludzkości jest jak najbardziej logiczne, a intencje szlachetne. Osiedli, narobili cegieł i postanowili zadbać o rozwój przestrzenny jednocześnie z zachowaniem dziedzictwa społecznej jedności.
Piękny przykład zrównoważonego rozwoju – można powiedzieć. I w tym momencie na scenę mitu wkracza Bóg, który zachowuje się niezrozumiale. Zamiast
pochwalić ludzi za osiągnięcia, jest niezadowolony, że w ogóle coś zaczęli wspólnie robić. I znajduje przyczynę: „Są oni jednym ludem, i wszyscy mają jedną
mowę, i to jest przyczyną, że zaczęli budować”. Dalej wyjaśnia, dlaczego to go
niepokoi: „A zatem w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek
zamierzą uczynić”. I czyni odpowiednie prewencyjne działania: „Zejdźmy więc
i pomieszajmy tam ich język, aby jeden nie rozumiał drugiego!”. Skutki znamy:
„W ten sposób Pan rozproszył ich stamtąd po całej powierzchni ziemi, i tak nie
dokończyli budowy tego miasta. Dlatego to nazwano je Babel, tam bowiem
Pan pomieszał mowę mieszkańców całej ziemi. Stamtąd też Pan rozproszył ich
po całej powierzchni ziemi”. Koniec przekazu. Szukając w tym micie zrozumiałej
247
logiki, należy wejść na obszar tzw. prawdy w fikcji, czyli poza obszar literalnego tekstu, ale będący implikowanym ciągiem dalszym świata przedstawionego.
Co prawda ów świat został powyżej opisany przy użyciu wiedzy sformułowanej tysiące lat po stworzeniu tekstu, ale jest ona znana z doświadczenia wspólnego ludziom wszystkich epok. Jednak jeśli chodzi o Boga, będzie to „prawda
w fikcji” o nieco innym charakterze, mniej fenomenologicznym, a bliższym teologii. Zapytam więc: O co Bogu – jako postaci tego mitu – mogło chodzić, że
potraktował ludzkość tak surowo i irracjonalnie? A może da się również przypisać Jego postępowaniu jakieś racjonalne motywy? Idąc tym tropem, czytelnik
na poziomie metodologii znowu zbliża się do mindware’u, ponieważ pytanie:
„Dlaczego?” jest w nim ważniejsze niż – „Co?”. Pytanie: „Co?” prowadzi do licytacji, a „Dlaczego?” do negocjacji.
Dlaczego Bóg zaniepokoił się potencjalną wszechmocą ludzi, mówiąc, że
skoro dzięki swojej jedności zaszli już tak daleko, to „w przyszłości nic nie będzie
dla nich niemożliwe, cokolwiek zamierzą uczynić”? Według popularnej interpretacji Pan uznał, że ludzie po prostu za bardzo się rozzuchwalili, zamierzając stać
się tak jak On – wszechmogący. Wtedy, po pierwsze, mogliby robić rzeczy, które nie byłyby zgodne z Jego wolą, a po drugie, nie potrzebowaliby łaski Boga.
Staliby się niezależni od Niego. A za to przecież już raz zostali ukarani eksmisją
z Raju i troskami życia. Zatem być może grzech pierworodny skaził tylko ludzkie wybory nie tylko w wymiarze indywidualnym i interpersonalnym, ale również na poziomie społecznym i dlatego należało przypomnieć tę nauczkę całej
ludzkości. Pozostając w logice tego myślenia, można dodać, że Bóg chce być jedynym „znakiem” na niebie świadczącym o jedności ludzi. Chce być jedynym
„wspólnym językiem” ludzkości. Dlaczego? Może z zazdrości. Teologia i mistyka chrześcijańska zna pojęcie zazdrosna miłość Boga do ludzi – miłość, która nie
znosi konkurencji. A może dlatego, że ludzie nie są samowystarczalni w podejmowaniu rozsądnych decyzji? Będąc zjednoczeni, potrafią działać sprawnie, ale
przecież mit nie precyzuje, że mądrze. Zastrzeżenia tego może dotyczyć użyte
przez Boga stwierdzenie, że uda im się, „cokolwiek zamierzą uczynić”. Krytyka
dowolności „zamiarów” może się odnosić ogólnie do wolności ludzi w spełnianiu ich woli i hierarchii władzy, ale może dotyczyć po prostu jakości planowania,
czyli kontekstu czysto prakseologicznego w ramach celu, jakim jest jedność. Opisana w micie ludzkość nie ma z kim walczyć, bo nie istnieją w jej stanie podziały
na narody, jednak nic nie wiadomo o jej podziałach klasowych, genderowych,
o ich stosunku do eutanazji, aborcji, eugeniki, niewolnictwa czy składania ofiar
z niemowląt. Wiadomo również, że ludzkość może się zdegenerować sama w sobie moralnie oraz że może zrujnować środowisko – chociażby budując miasta
i wytwarzając wymienioną w tekście smołę. O tym wszystkim mógł myśleć Bóg,
mieszając ludziom języki, by się rozproszyli i nie mogli spełniać wszystkich swoich zamysłów. W micie widać jedną grupę działającą jak jeden organizm, jedno
miasto i obawę przed rozproszeniem. Możliwe więc, że przez nierozpraszanie się
ludzie rozumieli nieskończoną rozbudowę swojego miasta, wychodząc z założenia, że tylko tak zachowają swoją jedność. W tej sytuacji Bóg po prostu uratował
ich przed katastrofą urbanistyczną, z jaką często ma się dziś do czynienia.
Destrukcyjną interwencję boską w cywilizację ludzi w micie można też wytłumaczyć ludzką potrzebą zrozumienia zasady entropii, polegającą na tym, że cokolwiek ludzie zbudują, to i tak im się to z czasem rozpadnie. Zawsze przecież jest
tak, że w końcu przestają rozumieć swój wspólny cel i porzucają plac budowy albo
tworzą wiele różnych celów i zaczynają ze sobą konkurować o zasoby potrzebne
do ich realizacji. Ludzkość realizuje te scenariusze w całej swojej historii. Małe królestwa nieustannie konkurują ze sobą „na wyniszczenie”, a wielkie imperia rozpadają
248
się same, bo ich opiekunowie przestają rozumieć, po co mieliby je utrzymywać.
Przypomina to nieco inny mit – o Syzyfie. Mit wieży Babel pozwala się przynajmniej pogodzić z tą perspektywą: tak jest, bo tak być musi, wola boża.
Przełamanie interpretacji
Podsumowując ten etap analizy tekstu, można wskazać w micie o wieży Babel dwa podstawowe pnie interpretacyjne. Pierwszy wynika z dychotomii
możność–niemożność i rozwija się w logice pytań o relacje czy hierarchę władzy. Drugi wynika z dychotomii właściwy–niewłaściwy i budzi pytania o kryteria oceny środków podejmowanych przez bohaterów mitu w celu rozwiązania
ich problemów. W pierwszym pniu można wskazać kilka gałęzi tematycznych,
którymi są:
• jedność ludzi związana ze wspólnotą języka,
• aktywność ludzi w celu jej zachowania,
• władza jako sprawne działanie ludzi w efekcie jedności,
• władza jako dominacja siły wyższej nad zamiarami ludzi.
Jedność ludzi i wynikająca z niej sprawność działania, a także podjęcie
przez nich kroków w celu ugruntowania tego stanu rzeczy, są w pełni logiczne
i zrozumiałe. Różne interpretacje dotyczą jedynie interwencji Boga. Przypisanie
mu konkretnych intencji wpływa na ocenę ludzi. Najprostsza interpretacja skupia się na konflikcie władzy między ludźmi a siłą wyższą (Bogiem lub chaosem).
Można ją uznać za projekcję stosunków między ludźmi w realnym świecie. Rozpoznaje się w micie to, co widoczne na co dzień. Kwestią indywidualnych preferencji i projekcji czytelnika jest sposób, w jaki przedstawi sobie ten konflikt i te
stosunki w szczegółach, czy której stronie przyzna rację. Są to interpretacje znane
i konwencjonalne. Nowe horyzonty sensu w micie o wieży Babel ukazuje rzutowanie go na współczesną wiedzę, która przesuwa punkt ciężkości z pytania: „Kto?”
(kto wygrywa? czyje na wierzchu?) na pytanie: „Jak?” (jak bohaterowie zamierzają
osiągnąć swoje cele?, a jeśli są to metody wymagające weryfikacji, to pojawia się
także pytanie – dlaczego podejmują takie, a nie inne wybory przygotowujące do
ewentualnej zmiany założeń?). Do gałęzi tematycznych tego pnia należą:
• negatywny wpływ życia w przestrzeni zurbanizowanej na jedność mitycznej ludzkości,
• wieża Babel jako adaptacja do życia w mieście mająca zachować jedność ludzkości,
• negatywna weryfikacja skuteczności tej decyzji przez Boga.
Trzeci punkt podsumowuje wnioski mówiące, że Bóg ocenia przyszłe scenariusze rozwoju ludzkości oparte wyłącznie na ich wewnętrznej jedności jako
przeciwskuteczne czy samobójcze.
Skuteczność, nie władza
Różnica między pierwszą i drugą wiązką interpretacji polega więc na redefinicji szablonu, według którego są porządkowane wszystkie dane. Pierwsza
wiązka opiera się na wzorcu „ustalania dominacji w stadzie”, przy czym kwestia
wieży Babel pełni rolę kości niezgody, a jedność to oręż, z którego Bóg rozbraja ludzkość, żeby uzyskać przewagę. Druga wiązka opiera się na wzorcu „wybór
skutecznego narzędzia”. W tej narracji punktem zawiązania akcji są problemy
z zachowaniem jedności, a wieża Babel to tylko pomysł na ich rozwiązania, przy
czym nie jest wykluczone, że Bóg też ceni ludzką jedność, natomiast różnice zdań
wynikają z oceny kroków podjętych w celu jej zachowania. Interwencja Boga nie
249
jest tu traktowana jako pacyfikacja konkurenta, lecz wcielenie w życie alternatywnej propozycji. Dyskurs w ramach pierwszej wiązki wygasza się samoistnie.
Trudno dopowiedzieć coś konstruktywnego do wyników meczu bokserskiego.
Druga wiązka rozwija się w różnych kierunkach. Według niej historia wieży Babel jest mitem o drodze do jedności, a nie ludzkiej pożądliwość władzy czy też
„strachu” Boga przed jej wszechmocą. Konkurencja i hierarchia postrzegana jako
dominacja są przeciwieństwem mindware’u.
Określenie redefinicja pomaga skupić się na sensie pierwszej wypowiedzi Boga, która w porównaniu z resztą mitu wydaje się irracjonalna i dlatego po
prostu nie jest czytana dość wnikliwie: „Są oni jednym ludem, i wszyscy mają
jedną mowę, i to jest przyczyną, że zaczęli budować. A zatem w przyszłości nic
nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić”. Bóg tymi słowami
redefiniuje punkt ciężkości mitu – rzuca niejako nowy temat na stół. Warto z tej
perspektywy spojrzeć na inne części tekstu. „Pan zstąpił z nieba, by zobaczyć
to miasto i wieżę, które budowali ludzie” – zatem co spowodowało Jego reakcję – czy chodziło Mu o miasto i wieżę, czy o samą wieżę? Może gdyby ludzie nie
budowali wieży, to Pan dałby im spokój. Wówczas rozproszyliby się – bo wieża
miała temu zapobiec. Efekt byłby więc ten sam, jaki Bóg osiągnął, mieszając im
język. Czy zatem jednak poszło o konfrontację wokół jedności: priorytetem ludzi było ją zachować, a Boga – zniweczyć? Nie jest to pewne, bo z jednej strony Bóg od jedności zaczyna swoją kwestię – „Są oni jednym ludem, i wszyscy
mają jedną mowę” – ale z drugiej wydaje się w ogóle nie zauważać tytułowego
rekwizytu: „to jest przyczyną, że zaczęli budować [...] i tak nie dokończyli budowy tego miasta”. Oczywiście, można zakładać, że słowo wieża pozostaje w domyśle. Jednak w tak krótkim tekście ma znaczenie zarówno każde użyte słowo,
jak i jego brak. Język Biblii jest precyzyjny i często używa powtórzeń, aby nie pozostawiać jakichkolwiek wątpliwości co do znaczenia tekstu. Wyjaśnię tę wątpliwość na podstawie zakończenia mitu: „[...] nie dokończyli budowy tego miasta.
Dlatego to nazwano je Babel, tam bowiem Pan pomieszał mowę mieszkańców
całej ziemi. Stamtąd też Pan rozproszył ich po całej powierzchni ziemi”. Znajduje się tu bezpośrednia wzmianka, że Babel to nazwa miasta – nie wieży. A więc
miasto jest tytułowym przedmiotem mitu – a nie wieża. Jest to mit o MIEŚCIE
Babel. Zatem Bogu – jako bohaterowi tekstu – chodzi o samo budowanie, jego
skalę i sprawność, czego symbolem jest miasto, natomiast kwestia wieży, jej roli
i niebosiężności to w zasadzie sprawy drugorzędne. Wniosek zdaje się potwierdzać prakseologiczne nachylenie mitu.
Reżyserskie projekcje boskich intencji
Jak to możliwe, że mimo tak oczywistych przekłamań ta biblijna historia
funkcjonuje z wieżą Babel w tytule? Widać tu, jak ważną rolę odgrywa wspomniana wcześniej „reżyseria”, czyli uzupełnianie tekstu o wkład czytelnika potrzebny do
„odegrania” biblijnego skeczu w wyobraźni. Czytelnik odczytuje treść mitu przez
pryzmat wieży Babel, prawdopodobnie dlatego, że na co dzień boryka się z tymi
samymi problemami – chce zbudować coś trwałego, zintegrować jakiś układ,
żeby był stabilny, ale to się nie udaje. Szuka przyczyny i dlatego wystarcza mu,
że w micie jest nią Bóg, siła wyższa. Wieża symbolizuje władzę i dominację, więc
użytkownik mitu traktuje ją jako motyw centralny, bo władza i dominacja (w pewnym zakresie) znajduje się w centrum również jego zainteresowań. Ponadto użytkownik ma świadomość, że w obliczu Boga powinien być wobec tych pragnień
krytyczny, co tym bardziej upewnia go, że jedyną motywacją Boga w micie jest
ukaranie ludzkiej pychy. Jest tak przywiązany do wizji buntu Stworzenia przeciw
Stworzycielowi, że prawdopodobnie nie umie zauważyć informacji sprzecznych
250
z tą wizją. Najważniejsze, że ostateczna interpretacja ma sens i tłumaczy w spójny
sposób rzeczywistość, co jest główną rolą mitu. Biorąc pod uwagę pragmatyczną
rolę mitu jako narzędzia epistemologicznego, jest on o tym, co służy użytkownikom za wyjaśnienie, jednak nie można na tym poprzestać, jeśli owo zrozumienie
ignoruje istotne elementy struktury samego tekstu narracji.
Usunięcie wieży z logiki mitu wydobywa na wierzch zupełnie inne znaczenia i otwiera go na „ciąg dalszy”. Jak to już zostało powiedziane, w systemie wina–kara motywy działania Boga są oczywiste, więc czytelnik nie oczekuje z Jego
strony żadnych konsultacji czy podpowiedzi. Jeśli jednak odejmie się Bogu tę
„gębę”, to można wyjść z innego założenia: że nie chodzi Mu o władzę, lecz o jakość ludzkich planów. Po wizji lokalnej Bóg podważa po prostu kompetencje ludzi do stawiania sobie celów rozwojowych. Zauważa, że zaprogramowany przez
Niego mechanizm zaczyna „wyrzucać błędy” i wciela się w rolę informatyka-serwisanta. Schodzi na ziemię i stawia diagnozę, która, nawisem mówiąc, bardzo
przypomina wypowiedzi prawdziwych informatyków w podobnych sytuacjach:
jest dla odbiorcy-laika zupełnie niezrozumiała i „nie na temat”. Stanowi natomiast
początek rozmowy, z której użytkownik sprzętu dowiaduje się, że nie podłączył
urządzenia do prądu, nie przeczytał instrukcji oraz jak w przyszłości będzie mógł
zapobiec podobnym problemom. Pozostając przy tej analogii, różnica pomiędzy
klasyczną a nową interpretacją mitu polega na tym, że Bóg nie pojawia się jako
rozzłoszczony szef, który zabiera pracownikowi premię, bo przekroczył swoje kompetencje, lecz jako fachowiec, który może i skarci, ale też podpowie, co poprawić.
W ten sposób Bóg zmienia się z siły karzącej w „siłę wiedzącą”, a co więcej, w „siłę
mówiącą”. Zmianę tę dobrze ilustruje zamiana tytułowego rekwizytu z wertykalnej, jednowymiarowej wieży (ma tylko „wysokość”), która dominuje, na horyzontalne i dwuwymiarowe miasta, które zachęca do dialogu. Władzę się egzekwuje,
natomiast o skuteczności można porozmawiać. Mindware jako algorytm działania
zawsze szuka takich właśnie interpretacji – które mogą doprowadzić do bardziej
konstruktywnych rozwiązań. W tym celu, po pierwsze, rekomenduje odczytywanie działań drugiej strony jako komunikatu, którym chce ona – nawet nieświadomie – coś powiedzieć, a, po drugie, przypisuje im intencje, które dają szansę na
dialog. W powyższej redefinicji problematyki mitu przewija się też nowa wartość:
relacje władzy. W tym zakresie mindware rekomenduje rozwiązanie ich przez rozproszenie, a nie przez konfrontację, o czym będzie jeszcze mowa.
Podpowiedzi
W tekście mitu nie ma żadnych bezpośrednich porad skierowanych do
ludzi. Można jednak przeanalizować wektory zmian, które następują w micie
i wyciągnąć z nich pewne wnioski. Bóg przerywa ludziom urbanistyczno-architektoniczne praktyki i ulegają oni rozproszeniu. Właśnie wtedy miasto otrzymuje
imię Babel, czyli po hebrajsku pomieszanie, zamęt, co charakteryzuje stan ludzkości na koniec narracji. Rozproszenie w porównaniu z miastem niewątpliwie
przypomina chaos, jednak w porównaniu z pierwotną wędrówką już mniej; jest
to raczej zmiana życia koczowniczego na emigrację, z grupowej wędrówki na tułaczkę w podgrupach, a może na pielgrzymkę. W każdym razie zmiana nie wydaje się już tak dramatyczna. Snując swoje plany, ludzie mówią: „zbudujemy sobie
miasto i wieżę, której wierzchołek będzie sięgał nieba i w ten sposób uczynimy
sobie znak, abyśmy się nie rozproszyli po całej ziemi”. W tym zdaniu nie jest nawet sprecyzowane, czy „znakiem” ma być wieża, czy też całe miasto. W innych
tłumaczeniach ten związek jest jeszcze mniej wyraźny (Biblia Warszawska i inne:
„i uczyńmy sobie imię, abyśmy nie rozproszyli się po całej ziemi”). Do wieży bardziej pasuje miano znaku, ale bezpośredni związek z zapobieganiem rozpraszaniu
251
ma raczej miasto będące formą skupienia mieszkańców i zapewnienia im względnej samowystarczalności – właśnie po to, by nie musieli migrować. Zapobiegając
budowie miasta (nie wieży), Bóg zmusza ludzi do migracji, do podjęcia przerwanej
wędrówki. Taki jest bilans zmiany w micie: na początku ludzie wędrują wspólnie,
a na koniec osobno. Rozproszenie i utrata jednej mowy wydaje się ceną, którą
ludzkość musi zapłacić, aby jej działań nie mógł zdominować jeden wspólny cel
wyrażony ideą miasta Babel. W ten sposób została odkryta następna redefinicja
znaczenia biblijnej historii: nie język, nie władza, nawet nie jedność, ale migracja
jest tym, co pieczętuje wolę Pana. Ludzkość została skazana na ruch.
Negatywny wydźwięk tego ruchu jako „chaotycznego” wynika ze statusu jedności jako głównego potencjału ludzkości, który likwiduje Bóg. Wówczas
interpretacja mitu staje się kalką historii wygnania pierwszych ludzi z raju. Wystarczy jednak rozdzielić kwestię jedności i jednakowej mowy, by można było
potraktować interwencję Boga jako taktyczne rozwiązanie kwestii niepożądanego skupiania się ludzkości na jednym celu. Bóg zachowuje się wtedy jak typowy strateg niszczący infrastrukturę komunikacyjną przeciwnika. Nie dlatego,
żeby jej nie lubił, ale by sparaliżować jego zdolności operacyjne: „rozproszył ich
[…] i tak nie dokończyli budowy tego miasta”. Interwencja Boga względem miasta-wieży Babel przypomina działanie urzędu antymonopolowego, który zapobiega istnieniu jednego dominującego projektu czy produktu na rynku, co nie
oznacza, że zabrania handlu. Bóg po prostu postanawia rozproszyć władzę ludzkiego kartelu. Wracam więc do relacji władzy, ale w innym kontekście. Nie chodzi już o prymitywną konfrontację ludzkość–Bóg, lecz o strukturę relacji władzy
w samej ludzkości – o jej kapitał społeczny.
Kapitał społeczny zamiast wieży Babel
Warto w tym miejscu zwrócić uwagę na sposób stosowania w micie trybu
rozkazującego w liczbie mnogiej przez ludzi i Boga. Tryb rozkazujący służy transmisji relacji władzy przez delegowanie postanowień swojej woli innym do wykonania. W polskim tłumaczeniu, aby coś zrobić, ludzie muszą się najpierw zwołać
i zachęcić do działania („chodźcie”, a w innych tłumaczeniach: „nuże”, „do dzieła”),
podczas gdy Bóg omija ten etap i – używając majestatis pluralis – od razu przechodzi do trybu rozkazującego w liczbie mnogiej: „Zejdźmy”. Bóg jest wewnętrzną
jednością, więc nie musi sam siebie zachęcać do realizacji swoich zamiarów.
W tłumaczeniach angielskich oraz w hebrajskim zarówno ludzie, jak i Bóg
otwierają swoje wypowiedzi tymi samymi słowami (come, ‫ – בהי‬yahab) przypominającymi polskie „do dzieła”, co również ma specyficzną wymowę: Bóg w pewnym stopniu przedrzeźnia ludzi, powtarzając ich zagrzewające do wspólnego
działania zawołanie, którego przecież nie potrzebuje. Podkreśla to ich ułomność,
a Jego autonomię. W Biblii Tysiąclecia to wspólne ludziom i Bogu zawołanie zostało pominięte, bo prawdopodobnie brzmiałoby niezgrabnie, jednak ów aluzyjny sens zachowuje różnica między drugą (ludzie) a pierwszą (Bóg) osobą liczby
mnogiej trybu rozkazującego: chodźcie – zejdźmy. Ludzie w pewnym stopniu
narzucają sobie nawzajem swoją wolę, kierując swoje słowa do innych (tłumacze nie zachowali zgodności drugiej osoby chodźmy – zejdźmy), podczas gdy
Bóg kieruje je do samego siebie.
W tych subtelnych rozróżnieniach mit o wieży Babel staje się opowieścią
o topologii relacji władzy wśród ludzi. W pierwszej części mitu widać ludzkość
idącą od sukcesu do sukcesu. Ma ona całkowitą kontrolę nad sytuacją i pełną moc
wykonywania swojej woli. Jest to oczywisty mechanizm, podobnie jak oczywiste jest wkroczenie Boga, który pokazuje, „kto tu rządzi”. Nowością jest inne odczytanie tego, co w micie Biblia określa lapidarnie jako „rozproszenie”. Gdy ludzie
252
nie dysponują „jedną mową”, nie mogą już się nawoływać do osiągania wspólnych celów. Tworzą więc różne cele, ale nie mogą podjąć wysiłku ich wspólnej
realizacji, bo po prostu nie potrafią ich sobie nawzajem opisać (nie posiadają już
„jednakowych słów”). Muszą więc realizować swoje cele osobno, szukając osobnych zasobów do ich realizacji, stąd rozproszenie, lub „nakłaniać” się do ich realizacji za pomocą władzy: prawa, siły itd. W tym momencie ujawnia się prawdziwa
natura tego, co Bóg odebrał ludziom, mieszając ich języki: możliwość bezkonfliktowego rozwiązywania relacji władzy między sobą.
Mobilis in mobili
Czy zatem Bóg skłócił ludzi? To znów zależy od przyjętego założenia. Jeśli czytelnik uzna, że „jednakowa mowa” jest jedynym pożądanym językowym
stanem ludzkości umożliwiającym uniknięcie kłótni, odpowiedź musi być twierdząca. Ale sprzeczna z założoną w Biblii kardynalną cechą Boga jako źródła dobra. Dlatego należy przyjąć założenie, że może istnieć jeszcze jakiś inny, mniej
oczywisty stan między jednością a kłótnią. Można ten stan utożsamiać z dialogiem, dla którego biosem, systemem operacyjnym oraz aplikacjami wraz z interfejsami użytkownika jest mindware, a więc kompetencje potrzebne, aby ów
dialog uprawiać w sposób sieciowy – adekwatnie do stanu rozproszenia rozmówców. Bóg uznał, że to, co mogliby ludzie w swojej absolutnej jedności wymyślić i zdziałać, byłoby jednak gorsze od kłótni, ale nie zabronił rozproszonym
ludziom dążyć do jedności innymi drogami. Nie wyraził jedynie zgody na jedność prowadzącą do skutków symbolizowanych przez miasto Babel – stabilną
relację ze „znakiem” jedności, bierny stan „odbioru” przekazu z integracyjnego
landmarku. Współcześnie tę sytuację wyobraża postać siedząca nieruchomo na
kanapie przed telewizorem, a jej przeciwieństwem jest osoba angażująca się
w życie rodzinne, relacje z przyjaciółmi itd.
Odpowiedź, jak żyć „bez telewizora”, „jednej mowy”, centralnego punktu
odniesienia – nie jest oczywista. Jedna z linii semantycznej tektoniki mitu przebiega między stanem ruchu i bezruchu a także równowagi i destabilizacji. Biblijny
tekst pokazuje następującą zmianę stanu ludzkości: ruch–spoczynek–katastrofa
opisana jako rozproszenie. Nie wiadomo tylko, czy katastrofą jest obecny w tekście
ruch-destabilizacja czy też ów ruch jest środkiem zapobiegawczym przed jakąś
przewidywaną przez boską opatrzność przyszłą destabilizacją zaledwie w micie
zasygnalizowaną. Nowa interpretacja sugeruje, że wbrew stereotypom bezruch
może prowadzić do destabilizacji, a ruch do równowagi. Jak opisać równowagę
w ruchu – oto wyzwanie. Podpowiedzią może być dewiza kapitana Nemo, bohatera powieści Juliusza Verne’a 20 tysięcy mil podmorskiej żeglugi: mobilis in mobili, czyli
ruchome w ruchomym lub zmienne w zmiennym. Tak mogłaby brzmieć najkrótsza definicja równowagi dynamicznej i najkrótszy opis filozofii mindware’u.
Tekst mitu o wieży Babel kończy się więc w sposób dramatyczny i bez rozstrzygnięcia: ludzkość już nie „buduje”, ale też przestaje się dogadywać. Klasyczna
interpretacja mitu w tym miejscu się kończy, bo nie ma już żadnego semantycznego paliwa – była zbrodnia, jest kara i koniec. Nowa interpretacja kończy się wielokropkiem i pozwala jednak zauważyć pewne „produkty rozpadu” pierwotnego
stanu ludzkości, czyli tego, co pozostaje po katastrofie. Są to: uratowany mimo
wszystko ideał jedności, ruch będący czymś w rodzaju nieustannej migracji i otwarta możliwość zarządzania międzyludzkimi relacjami władzy, choć bez szans
na osiągnięcie stabilnego stanu. Powiązanie tych okruchów ze sobą wykracza
poza interpretację mitu, nawet na najszerszym obszarze jego „prawdy w fikcji”.
Nabierają one znaczenia dopiero wtedy, jeśli uzna się ów mit za formę otwartą,
do której można własnoręcznie dopisać szczęśliwe zakończenie.
253
Szczęśliwe zakończenie
Mit wieży Babel zostawia furtkę do działania w postrozproszeniowej rzeczywistości. Nie poprzestaje na potwierdzeniu boskiej władzy, lecz zachęca do
refleksji, dlaczego Bóg interweniował tak, a nie inaczej. Nie daje nadziei na ponowne zjednoczenie ludzkości, ale też nie zamyka drogi do jej kultywowania
w stanie nieustannego ruchu. Władzę się dzierży lub sprawuje, władzy się podlega i podporządkowuje. Drogą można podążać. Odpowiedzią na pytanie, jak
kultywować jedności w ruchu, jest idea mindware’u. Jego podstawę tworzy dialog, który rozprasza relacje władzy, prowadząc do empatii i zapobiegając konfliktom. Taki nieustanny dialog może być alternatywną formą aktywności, która
pozwoli ludzkości osiągnąć pierwotny stan wędrówki pozwalający przywrócić
układowi równowagę jedności i ostatecznie zamknąć mit wieży Babel. W tym
dialogu jakość komunikacji powinna być przedmiotem szczególnej troski osób
biorących w niej udział. Nie jest bowiem istotny jego utylitarny wynik, ale zbliżenie się jego uczestników do siebie – jedność. Rozproszenie i pomieszanie języka
pozwala gromadzić różnorodne doświadczenia, które można łączyć w procesie
komunikacji. Wynikiem oddziaływań jest rodzaj komunikacyjnej homeostazy, która stanowi złoty środek między wędrówką a miastem. Bóg pomieszał ludziom
mowę, aby nie mogli nic zbudować. Ludzie nie mogą nic zbudować, aby musieli ze sobą rozmawiać.
254
Sztuka mediów
Mindware – sztuka wobec technologii
cyfrowych w Lublinie
Marta Ryczkowska, Zbigniew Sobczuk
257
Opisując w niniejszym tekście działania artystyczne, zrealizowane w ramach projektu Mindware. Technologie dialogu, zwracamy uwagę na kilka aspektów
dotyczących ich powstania. Naszym zamiarem jest: omówienie poszczególnych
idei oraz osadzenie ich w rzeczywistości artystycznej i medialnej; podkreślenie
dialogicznego i komunikacyjnego charakteru dzieł; znalezienie możliwych odniesień w teorii mediów, filozofii, socjologii, historii sztuki; wskazanie relacji osobistych
doświadczeń artystów, którzy zgodzili się uczestniczyć w procesie wielomiesięcznego kształtowania swoich koncepcji zarówno wobec głównej idei mindware,
jak i w odniesieniu do kontekstu problemowego oraz lokalnego. Ważną częścią opisów jest pokazanie, jak poszczególne dzieła lub działania zmaterializowały się w przestrzeni miasta, czy też zostały wyobrażone w przestrzeni wirtualnej.
*
Artystyczna część projektu Mindware. Technologie dialogu stała się mariażem sztuki i technologii, rozgrywającym się w przestrzeni publicznej, stawiającym
akcent na to, co w niej najbardziej istotne. Wszystkie zaprezentowane realizacje
łączyła nadrzędna myśl, że technologia nie rozwija się w próżni. Jest bezpośrednio zintegrowana z ludzkim życiem, wynika z niego, otacza je – mimo częstego oporu i niezrozumienia. Mindware stał się ogniskiem uwagi uwypuklającym
podmiotowość i oswajającym technologię jako byt, który rozwija się równolegle
(nie w oderwaniu od człowieka, lecz w pewnym stopniu na przedłużeniu tego,
co fizyczne i ludzkie) i niweluje dystans pomiędzy zaawansowaną technologią
a kontekstem społecznym. Dzieła mindware’owe zostały osadzone w kontekście topografii i historii miasta, tym samym silnie sprzężone z lokalnym genius
loci. Z jednej strony, pokazały współistnienie technologii ze sztuką, z drugiej –
ujawniły sposoby, w jaki sztuka i technologia mogą się sycić sobą nawzajem, dostarczając sobie bodźców. Napięcie między fascynacją technologią a kwestiami
społeczno-politycznymi i artystycznymi stało się wyjątkowo widoczne i namacalne. Część dzieł powstała bez użycia technologii, w sposób analogowy, jednak ich technologiczny charakter przejawia się w bardzo mocnym odniesieniu
do problemów i zjawisk społecznych, komunikacyjnych i medialnych powodowanych rozwojem cywilizacyjnym i technologicznym.
Grupa Dotka: Barbara Dzierań, Urszula Kowal i Justyna Zubrzycka
stworzyły interaktywną instalację z użyciem materiału biologicznego, zatytułowaną Masowy BioOrnament. Dużych rozmiarów obiekt przypominał mikrolaboratorium: w przezroczystej gablocie znajdowały się szklane naczynia połączone
siecią elastycznych rurek. W każdym z nich pływały zielone organizmy, tzw. protisty. Odbiorcy mieli możliwość wpływania na kształt bioinstalacji – na oddzielnym
postumencie znajdował się touchpad, którego użycie uaktywniało przepływ odżywki w silikonowych złączach i jej przesączanie się do szklanych płuczek z glonami. Ludzki dotyk stanowił zatem czynnik składowy, warunkujący cyrkulację
substancji. Częstotliwość ludzkiej interakcji z obiektem wpływała bezpośrednio
na wzrost masy i zmianę barwy glonów.
Podstawą do działania artystek z grupy Dotka była teoria masowego ornamentu, sformułowana przez Siegfrieda Kracauera w zbiorze esejów Ornament
der Masse opublikowanym w 1927 r. „Miejsce, jakie dana epoka zajmuje w procesie historycznym – pisał niemiecki teoretyk – można określić znacznie trafniej na podstawie jej powierzchownych, mało znaczących zjawisk niż w oparciu
o jej własne sądy o sobie. Podstawowe treści epoki i jej niedostrzegalne odru-
259
chy objaśniają się wzajemnie”1. Niedostrzegalne na pierwszy rzut oka odruchy
układają się w figury – oderwane od znaczeń formy, które tworzą masowy ornament. Ciała poruszające się jak w kalejdoskopie, obserwowane w makroperspektywie stanowią nieuświadomioną emanację danej epoki. Kracauer odwołał
się do baletu, marszów, pracy robotników w fabryce – tego rodzaju ludzkiej aktywności, która podlega dyscyplinie i synchronizacji, dzięki którym ujawnia się
czysta struktura linii i bogactwo wzorów. Jednocześnie jest ona wysoce racjonalna. „Ornament nie wyrasta z wnętrza rzeczywistości lecz pojawia się niejako
nad nią. Także aktorzy nie ogarniają całości obrazu na scenie, choć biorą udział
w jego tworzeniu” – pisał Kracauer2.
Założeniem artystek z grupy Dotka była wizualizacja masowego ornamentu, który współcześnie zdaje się tworzyć wszelkie formy manipulacji interfejsem – kompulsywne klikanie myszką, przesuwanie palcem po ekranie smartfona,
pisanie na klawiaturze. Nakładające się na siebie ruchy powtarzane setki razy włączają użytkowników w strukturę przepływu informacji. Jednoczą ich we wspólnocie, która ma określony kształt i charakter, jest znakiem tych czasów. Artystki
zwróciły uwagę na paradoks interaktywności – dostępność narzędzi i łatwość
ich obsługi umożliwia natychmiastową komunikację i zbiorową partycypację,
a jednocześnie stwarza pewną iluzję. „Często nieświadomy użytkownik pełni rolę
zaledwie nośnika danych. Sama interakcja staje się mechaniczną czynnością, nieintencjonalnie składającą się na pewne zjawiska”3. Interakcja stała się w ostatnim
czasie słowem wytrychem sztuki współczesnej – przeniesienie punktu ciężkości na odbiorcę dzieła spowodowało zachwianie proporcji i wykreowało iluzję
współdziałania, współtworzenia. Zostawienie przestrzeni dla odbiorcy jest nieraz maskowaniem mankamentów nadawcy. W tym przypadku jednak położenie nacisku na dotykowy interfejs ma jeszcze inne znaczenie. Kieruje uwagę na
powszechne zjawisko „klikalności” – naciskając przycisk, można spodziewać się
natychmiastowej reakcji systemu, automatycznych rezultatów w świecie cyfrowym wywołanych prostym fizycznym gestem. W samym sercu skomplikowanej
struktury (będącej wynikiem interakcji człowieka z systemem) leży żywy organizm – glony. Występują one w przyrodzie bardzo powszechnie, często wchodzą
w układy symbiotyczne z innymi żywymi stworzeniami, ich nadmierny rozrost
zaś jest prawdziwą plagą, gdyż zaburza równowagę ekosystemu. Sposób, w jaki
funkcjonują, może być zatem interpretowany jako nastepna metafora – zbiorowości, powtarzalności, nieograniczonej multiplikacji i jej zgubnych efektów.
Instalacja została usytuowana w centrum handlowym, będącym idealnym
wycinkiem masowego ornamentu obecnych czasów. Kalejdoskop nieuświadomionych, obsesyjnie powtarzanych ruchów i zachowań powstaje na kilku poziomach, które nakładają się na siebie, tworząc reprezentatywny obraz racjonalnej
struktury, w jakiej jest się uwikłanym.
Uwaga Andriya Linika skupiła się na powiązaniu idei, będącej wyabstrahowanym fragmentem rzeczywistości komunikacyjnej osadzonym w podkreślającym ją kontekście, z zasobami Internetu, w celu tworzenia efemerycznych
obrazów. Dla wyeksponowania swojego dzieła artysta wybrał sprzyjającą medytacji i modlitwie przestrzeń świątyni. W lubelskim kościele ewangelicko-augsburskim umieścił interaktywną instalację Aiolos. Ideą było utworzenie dialogu
1
2
3
S. Kracauer, Ornament z ludzkiej masy, 1927 [w:] Wobec faszyzmu, red. H. Orłowski,
przekł. C. Jenne, PIW, Warszawa 1987, s. 11.
Tamże, s. 13.
Organiczna reprezentacja zjawiska społecznego [w:] Mindware. Technologie dialogu
– katalog wystawy, Lublin 2011, s. 7.
260
pomiędzy trzema elementami: człowiekiem, oprogramowaniem a Internetem.
Artysta zainstalował oprogramowanie będące medium do tworzenia „obrazów”
zbudowanych z informacji wyszukiwanych w Internecie. Program spełniał rolę
artystycznego interfejsu komunikacyjnego, który umożliwiał powstanie struktury wizualnej złożonej z elementów komunikacji: różnorodnych metatagów, ikon,
fragmentów interfejsów, obrazów i tekstów. Działał na zasadzie algorytmicznej interpretacji tekstu i tworzył tymczasowe obrazy w zależności od strategii, przyjętej przez uczestników. Program był dla nich równorzędnym partnerem, reagował
na ich polecenia, szukał, pytał, znajdował odpowiedzi, potrafił również przeszukiwać sieć samodzielnie. Na bieżąco archiwizował wyszukiwane informacje, tworząc hipertekstowy kosmos lub chaos zależnie od wpisywanych, kluczowych słów
i komend, stając się „zakomponowanym” obrazem lub tylko szumem przepływającej informacji. Andriy Linik tak opisał swoją instalację: „Idea Aiolos polegała
na stworzeniu kontekstu sytuacyjnego, w którym rola software’u i jego użytkowników dopełniałyby się nawzajem. Użytkownicy wpisują polecenia, a program
używa ich do wyszukiwania w internecie określonych treści”.
Wnętrze kościoła zostało odpowiednio zaaranżowane – przy wejściu do
nawy głównej, tuż za kruchtą, umieszczono lśniący, czarny kontuar. Na nim znajdowały się klawiatury, terminale umożliwiające komunikację z systemem. Prezbiterium wypełniał monumentalny, prostokątny biały ekran, rozciągający się od
sklepienia do posadzki. Na wertykalnej płaszczyźnie wyświetlały się linie wpisywanego tekstu, skodyfikowane wiersze poleceń, będące odpowiedzią na interakcję odbiorców oraz obrazy złożone z wyszukanej przez program informacji.
Struktura pojęć i obrazów pokazywała drugie dno słów – w pewnym stopniu
podszewkę Internetu. Surowa i medytacyjna przestrzeń kościoła zintegrowała
się z przestrzenią łączności i przepływu informacji, tworząc całość o niemal mistycznym wymiarze. Świat wirtualny i świat sakralny przenikały się, praca została
nazwana imieniem starożytnego boga wiatru. Aiolos uosabiał tu nieuzasadnioną, aprioryczną siłę, która zdmuchiwała i reorganizowała segmenty i symbole kodu – przemieszczając je i tworząc zupełnie nowe konfiguracje, nie ustając
przy tym w pytaniu o ich źródło i pierwotny sens.
Martin Bricelj Baraga stworzył postać publicznego awatara, wygenerowanego na przecięciu świata wirtualnego i realnego. Public Avatar to projekt performatywny, kostium, który umożliwia noszącej go osobie oscylowanie
na granicy dwóch rzeczywistości. W trakcie realizacji osoba będąca Awatarem
wypełniała polecenia, wydawane jej przez internautów za pomocą strony internetowej. Public Avatar stanowił próbę wypełnienia luki pomiędzy cyfrowym
komunikatem a rzeczywistością, którą można odczuć, zbliżenia obu tych obszarów. Funkcjonował przez chwilę jako tajemnicze medium odbierające sygnały z centrum dowodzenia i przekazujące je na realny grunt. Postać poruszała
się po Lublinie w swoim rytmie. Performance, który powstał w wyniku działań
publicznego awatara, łączył elektroniczny i fizyczny wymiar życia społecznego.
Dla sterujących nim przez Internet ludzi był on wciąż postacią wirtualną, nad
którą sprawowali kontrolę – mimo iż spacerował ulicami miasta. Po zalogowaniu się na stronę internetową, przeznaczoną do „obsługi” publicznego awatara,
uczestnicy mogli wydawać polecenia on-line oraz obserwować jego poczynania na ekranie swoich komputerów dzięki towarzyszącej mu kamerze. Jego
ruch w przestrzeni i obecną pozycję odwzorowywała także postać na mapce
widoczna na ekranie. Uczestnicy tej internetowej gry wypełniali jego „pamięć”
wymyślonymi przez siebie zadaniami – nieraz banalnymi, a nieraz bardziej złożonymi, związanymi z wnikaniem w społeczne sytuacje i miejską codzienność.
261
Awatar kolejno wcielał je w życie. Rozmawiał z przechodniami, śpiewał piosenki, jechał autobusem. Dla mieszkańców Lublina jawił się jako przybysz z obcej
planety, kierowany przez nieznane siły – jego nieprzystawalność do miejskiej
rzeczywistości podkreślał specjalny uniform z przytwierdzonymi doń urządzeniami nadawczo-odbiorczymi. W adaptacji tego projektu awatarami było się
trzech mieszkańców Lublina, którzy przez kilka godzin przemierzali miasto, wykonując otrzymane polecenia.
Konstruując swojego awatara Baraga podkreślił napięcie pomiędzy stroną wirtualną, gdzie wszystko jest możliwe, a ludzką, gdzie obowiązują pewne
regulacje dotyczące indywidualnych i społecznych zachowań. Publiczny awatar,
będąc kompilacją tych dwóch rzeczywistości, zmuszał do refleksji nad tym, jakie rządzą nimi prawa. Strona internetowa i możliwość wydawania komend dały
uczestnikowi gry złudną kontrolę nad awatarem i jednocześnie pokazały mu jego
własne ograniczenia. Internauta nie wydałby awatarowi polecenia, aby stanął na
środku ruchliwej ulicy lub skoczył z dachu ratusza – gdyż był świadomy, że pod
wirtualnym kostiumem kryje się prawdziwy człowiek. Artysta zasygnalizował zatem etyczne, moralne konsekwencje i bariery będące w rezultacie przenikaniem
się światów. Pokazał również, że awatar nie jest jedynie zaprogramowanym robotem – nie tylko wypełnia polecenia, ale również wchodzi w interakcje, wpisuje się w społeczny pejzaż miasta, krąży po ulicach i styka się z innymi, nie mając
w pełni kontroli nad tym, co wydarzy się w wyniku tego. Bezpieczny, przewidywalny, aprioryczny świat cyfrowy zaprogramowany według określonego, ograniczonego scenariusza został bowiem zamieniony na miejską dżunglę, gdzie
sytuacja może zmieniać się w trudnym do przewidzenia ciągu zdarzeń.
Projekt Yuriya Kruchaka Net of the Dream, podobnie jak pozostałe,
wchodzi w obszar społeczny oraz stawia pytanie o wirtualną i realną komunikację. Realizacja powstawała w trakcie warsztatów prowadzonych w kilku lubelskich
instytucjach: Dzielnicowym Domu Kultury „Bronowice”, Domu Kultury „Skarpa”,
Miejskiej Bibliotece Publicznej (Filia nr 30), w siedzibach Fundacji „Nieprzetarty
Szlak” oraz Stowarzyszenia Pedagogów i Animatorów „Klanza”. Uczestnicy spotkań tworzyli obiekty, które finalnie zostały połączone i utworzyły zwartą strukturę. Każdy z obiektów był przestrzenną formą złożoną z okręgów spowitych
białą tkaniną. Uczestnicy warsztatów malowali na niej farbami motywy i teksty,
które dotyczyły pojęcia dialog. Tworzyli dla niego wizualne odpowiedniki – abstrakcyjne i figuratywne. Celem projektu była integracja na różnych poziomach –
dotycząca różnych środowisk twórczych w Lublinie, a także przestrzeni miasta
i jej aktywnych użytkowników. Każda z grup wyruszyła w triumfalny pochód po
mieście, niosąc barwne obiekty. W działaniu manifestowała się awangardowa
idea zjednoczenia sztuki z życiem i społecznej partycypacji. Ważnym aspektem
projektu było wskazanie na miejsca peryferyjne, lokalne ośrodki kultury, które
połączyły swoje siły, tworząc pięciosegmentowy obiekt – symboliczny interfejs
lubelskich środowisk twórczych, zaprezentowany w centrum miasta. Artysta
wspólnie z uczestnikami projektu wytyczył szlak wędrówki, tworząc społeczno
-historyczną mapę z trzema kategoriami punktów orientacyjnych – wykluczeniem, pograniczem i dialogiem.
Radosny pochód niósł trójwymiarowe obrazy przypominające chińskie
smoki. Zaprezentowany charakterystyczny element kultury Chin jest kojarzony z radosnym Tańcem Smoka podczas Festiwalu Latarni na powitanie Nowego Roku. Wijące się barwne postaci smoków są podtrzymywane na kijach przez
tancerzy. Lubelski korowód defilujący ulicami miasta z malarskimi transparentami nasuwał skojarzenia z dalekowschodnią tradycją, ale również ze społecznym,
262
publicznym rytuałem w sensie ogólnym, oderwanym od kontekstu. Wspólna, radosna celebracja powstała wskutek skumulowania twórczego potencjału i różnorodności, wynikającej z odmiennej specyfiki każdego środowiska. W opisie
idei zawartej w informatorze można było przeczytać:
Założeniem permanentnego happeningu jest próba znalezienia odpowiedzi
na kluczowe pytania: jak można uzyskać równowagę, połączenie pomiędzy
analogową kulturą off-line, która jest ściśle związana z charakterem miejsc zamieszkałych przez ludzi, a współczesną, cyfrową i wirtualną kulturą on-line,
gdzie nie są ważne miejsca, w których się żyje, ale przynależność do pewnych
społeczności; jak utworzyć więzi i łącza pomiędzy ludźmi reprezentującymi te
odmienne kultury i jak zaangażować ich we wspólny proces twórczy4.
W działaniu Kruchaka ujawniła się owa dwoistość – lokalność i charakter
każdej z grup i wszystkich razem w odniesieniu do miejsca – przestrzeni publicznej Lublina, a także pewien uniwersalny przekaz, który powstaje niezależnie od miejsca i podkreśla spontaniczne więzi międzyludzkie. Celem artysty,
jak sam mówił, było „zbudowanie nowej sieci, która byłaby oparta na lokalnej
przestrzeni i byłaby ściśle z nią związana, w której mogłyby wzajemnie oddziaływać na siebie społeczności off-line i on-line. Sieć ta byłaby jednocześnie artystyczna i społeczna”.
Warsztatową metodę pracy przyjął także Paweł Janicki, który wspólnie
z grupą uczestników tworzył projekt irReal <-> irBorg. Janicki jest artystą, pracującym w sferze nowych mediów, który pokazuje kreatywne użycie narzędzi
informatycznych, języków oprogramowania i kodowania informacji. Warsztaty służyły wypracowaniu strategii, wykorzystującej interakcje z ludźmi i z miejscem, której można używać ad hoc w różnych przestrzeniach. Strategia ta miała
dotyczyć rzeczywistości nadpisanej – takiej, jaka nie jest przestrzenią rzeczywistą, lecz równoległą, dostrzegalną w szczególnych okolicznościach i za pomocą szczególnych środków. Warsztaty służyły projektowaniu w obszarze miasta
wirtualnych przestrzeni, które odsyłały do realnie istniejących miejsc – wolnych
od komunikatów reklamowych.
Punktem wyjścia były zarejestrowane przez poszczególne osoby widoki
miasta w postaci krótkich form filmowych. Artysta wspólnie z uczestnikami warsztatów pracował nad kodem oprogramowania, które umożliwiałoby wyświetlanie filmów o Lublinie dzięki tagom, które je uaktywniały. Warsztatowicze uczyli się,
jak budować służącą temu aplikację i jak wygląda struktura danych, przyporządkowanych temu zadaniu. Janicki pokazywał im modularne środowisko do tworzenia
struktur interaktywnych i sposób, w jaki można nimi manipulować. W rezultacie
miała powstać instalacja w przestrzeni publicznej stworzona między innymi z obrazu wyświetlanego na miejską fontannę. Zamysł w przewrotny sposób nawiązywał
do audiowizualnego projektu Briana Eno – multimedialnej rzeźby, wygenerowanej
na ekranie wodnym, zaprezentowanej podczas Europejskiego Kongresu Kultury
we Wrocławiu w 2011 roku. O ile w przypadku pracy Eno chodziło o zabieg jedynie estetyczny, spektakularny, ale w wymowie raczej powierzchowny, o tyle warsztatowicze Pawła Janickiego chcieli posłużyć się ruchomym ekranem fontanny,
aby stworzyć interaktywną projekcję o charakterze społecznym. Miała powstawać
przy minimalnym nakładzie środków technicznych, poprzez uruchamianie kodów.
Praca warsztatowa była swego rodzaju bazą – podstawową wiedzą, łączącą zręby
4
Społeczny interfejs wędrujący ulicami miasta [w:] Mindware. Technologie dialogu –
katalog..., s. 9.
263
tworzenia oprogramowania i zagadnienia związane ze sferą wizualną – która mogłaby być wykorzystywana w procesie edukacyjnym. Artysta wcielił się w rolę nauczyciela pokazującego tajniki i arkana swojego arsenału twórczego, świadomie
rezygnując z roli artysty-prestidigitatora – prezentującego tylko wizualne efekty
swojej pracy. W taki oto sposób Janicki opisał swoją koncepcję:
Wydaje mi się, że najmocniej zauważalny kierunek rozwoju sztuki medialnej
to formuła kliencka – twórcy i publiczność wykorzystują na swój sposób, tj.
wypełniają własną treścią, technologie zaproponowane przez formację, którą Bruce Sterling świetnie określił onegdaj jako „kompleks militarno-rozrywkowy”. Przyznaję, że mocno mi nie odpowiada ten kierunek. Postanowiłem
więc w Lublinie pracować z osobami, które – jak ja – będą szukały innych
dróg rozwoju: budowania własnego twórczego środowiska, próby spojrzenia na możliwości otaczającej nas rzeczywistości w nietypowy sposób.
Darija Medić osadziła swój projekt w zupełnie odmiennym medium i przestrzeni – niewidzialnej i wyobrażonej, jednak jej działanie miało podobny, społeczny i komunikacyjny, charakter. Serbska artystka zaanektowała radiową przestrzeń
miasta, wykorzystując przy tym nadajniki o dużym i małym zasięgu. W swojej pracy, zatytułowanej On the air browser radio show, pokazała, w jaki sposób Internet
może funkcjonować w radiu. Praca Medić miała dwie odsłony – pierwsza wiązała
się z krótkimi, kilkuminutowymi etiudami dźwiękowymi, opatrzonymi komentarzem autorskim i kuratorskim, cyklicznie emitowanymi w Radiu Lublin (o zasięgu lokalnym i regionalnym), druga zaś była powiązana z działaniem społecznym
w przestrzeni miasta przy wykorzystaniu specjalnego oprogramowania, służącego do radiowej emisji internetowych komunikatów na niewielką odległość.
Punktem wyjścia działań Medić były hasła, wpisywane do wyszukiwarki
internetowej. Artystka zwróciła uwagę na sferę wirtualną, która jest intensywnie
i dość bezrefleksyjnie eksplorowana. Codziennie użytkownicy Internetu wstukują w google setki słów, surfując po cyfrowym morzu danych. Internet stał się przestrzenią zbiorowej wiedzy, miejscem codziennej społecznej praktyki związanej
z czerpaniem informacji i rozrywki. Najczęściej wyszukiwane hasła tworzą intrygującą warstwę zbiorowej wiedzy – metawiedzy o funkcjonowaniu i zasobach Internetu. Artystka przygotowała pięć tematycznych zapisów. Odwróciła schemat
wyszukiwania danych, swoją strategię określając jako: reverse search engineering. Dokonała specyficznego przełożenia informacji, znalezionych w Internecie, tłumacząc
strumień danych za pomocą translatora mowy. W efekcie powstawał gwar, oddający to, co w danej chwili interesowało internautów – rodzaj dadaistycznego poematu, utkanego z przypadkowych słów zaczerpniętych z cyfrowej rzeczywistości.
Poszczególne sekwencje odnosiły się do różnych aspektów wirtualnego świata,
między innymi niedoskonałości komunikacji – tłumaczenie tekstu na język obcy
i ponownie na rodzimy przypomina zabawę w głuchy telefon, kodowania emocji i doświadczeń za pośrednictwem blogów i forów, iluzji wolności – obostrzeń
i zabezpieczeń różnych portali. Artystka wykorzystała nośniki dźwięku, aby ów
strumień danych uczynić słyszalnym – w „medialnej” części projektu stało się nim
radio o lokalnym zasięgu, natomiast w równolegle przebiegającej części „społecznej” był to emiter dźwięku o niskiej częstotliwości. Działanie Medić było próbą odkodowania rzeczywistości zapisanej w formie zerojedynkowej i przedstawienia jej
ponownie w formie analogowej. Przefiltrowanie jej przez wielopoziomową przestrzeń radiową wiązało się z badaniem jej kształtu, rozłożeniem na elementarne
czynniki i odkrywaniem tego, co się kryje pod jej powierzchnią. Stanowiło jednocześnie audialną wiwisekcję ludzkiej aktywności w Internecie.
264
Drugim elementem pracy Dariji Medić były działania z wolontariuszami
i mieszkańcami w różnych przestrzeniach miasta, wykorzystujące wspomniane
oprogramowanie. Artystka i jej wolontariusze werbalizowali i wpuszczali w eter
strumień danych, który zazwyczaj jest odbierany w formie zapisanych haseł. Za
pomocą syntezatora mowy google translate zmieniali ich właściwości, nadawali im inny wymiar. Słowa przybrały kształt zremiksowanej poezji, e-poezji o abstrakcyjnej strukturze egzotycznej sztuki dźwiękowej. Medić szczególnie mocno
podkreśliła społeczny i publiczny sens jej performance, rozciągniętego od Internetu przez fale eteru po przestrzeń miejską.
Moja praca polegała na publicznych transmisjach radiowych aktywności internetowych. Emitowałam w niezagospodarowanej, hiperlokalnej przestrzeni radiowej wszystko to, co wpisywali do wyszukiwarek „podsłuchiwani”
przeze mnie internauci. Weszłam z moimi transmisjami w otwarte przestrzenie publiczne placu Litewskiego, biblioteki UMCS czy targu na Ruskiej, gdzie
ludzie działają w zupełnie nieelektronicznych okolicznościach i posługują się analogową tradycją komunikacji. Właśnie w takiej publicznej obecności sztuki mediów, zanurzonych w codziennym życiu zobaczyłam sens tego
projektu, miastu i jego mieszkańcom taka przestrzeń jest bardzo potrzebna.
Działanie Medić wskazało na rolę radia jako nośnika informacji, który również podlega kodyfikacji, na pierwszy rzut oka nie tak uchwytnej, jak oswojony
już Internet. Akcja położyła nacisk na rzeczywistość informacyjną, która istnieje
w innych obszarach niż te, które automatycznie są z nią kojarzone. Ukazała informacje jako twór wielopłaszczyznowy – możliwy do uchwycenia i rozkodowania na wiele różnych sposobów.
Dominika Sobolewska umieściła duże obiekty przypominające oczy
w różnych punktach miasta – tworząc sieć swoistych terminali, połączonych
z centralnym punktem, określonym jako Widzące Miejsce. Wszystkie oczy znajdowały się w przestrzeniach charakteryzujących się dużym przepływem ludzi,
nasyconych bodźcami – w siedzibie poczty głównej, na dworcu autobusowym,
w gwarnej kawiarni, w bibliotece, w instytucji kultury i w miejskim ratuszu. W kulistych formach zainstalowano kamery, które transmitowały obraz do Widzącego
Miejsca. Przekaz z każdej z sześciu kamer można było zobaczyć w opuszczonym,
zapomnianym budynku na Starym Mieście w Lublinie, system ekranów wyświetlał obraz w czasie rzeczywistym – pokazując fragmenty z życia miasta w danej
przestrzeni i swobodną fluktuację jego mieszkańców.
Obiekt-oko zachęcał widzów do pochylenia się i zajrzenia w głąb. Wklęsła, lustrzana płaszczyzna odbijała postać, zniekształcając ją i kierując jej uwagę
na umieszczoną w centralnym miejscu kamerę. Przy zbliżeniu twarzy do wnętrza
oka odbicie w miarę zagłębiania się w półkulę znikało, aby pojawić się na jego
dnie. Z urządzenia rozlegał się łagodny komunikat, zapisany w kilku językach, zapraszający do odnalezienia realnej przestrzeni – Widzącego Miejsca, w której znajduje się zarejestrowany wizerunek. Interakcja z obiektem była intrygującą próbą
przejścia na drugą stronę lustra. Hipnotyzujące, lustrzane wnętrze niczym biały królik kusiło do przekroczenia granicy, proponując w zamian inny rodzaj widzialności. Kamera „zabierała” obraz i przenosiła go do tajemniczej sali, ukrytej na
starym mieście. Ekrany ustawione w kręgu nasuwały skojarzenia z centrum obserwacji i kontroli, panoptykonem, w którym można patrzeć, nie będąc widzianym. Oczy obserwujące ludzką aktywność w mieście przesyłały skumulowane
obrazy, aby wirtualnie zaludnić pustą przestrzeń, opuszczoną w wyniku zmian
ekonomicznych i społecznych, symbolicznie przywracając ją do życia.
265
Swój udział w projekcie Mindware. Technologie dialogu artystka tak oto
opisała:
Mindware w prezentowanej przeze mnie pracy przybiera postać
software’u zaaplikowanego do przestrzeni publicznej. Traktowany jest
jako oprogramowanie służące do pobudzania mieszkańców i odświeżania w nich chęci odkrywania zakamarków Lublina. Widzące Miejsce zlokalizowane zostało w miejscu zapomnianym, społecznie opuszczonym.
Wplotło się subtelnie w obdrapane obszary lubelskiej infrastruktury, doskonale uwypuklając różnicę pomiędzy fizycznymi a wirtualnymi szlakami
tu obecnymi. Demonstruje potencjał nowych technologii, które bez rozburzania murów miasta są w stanie budować nowe węzły komunikacyjne. Pokonując trasę z hotelu na Podzamczu do ul. Olejnej, gdzie miałam
pojawić się z okazji otwarcia mojego projektu, zatrzymałam się na chwilę
na dworcu PKS. Wchodząc do hali głównej, stanęłam oko w oko z jednym
z 6 rozlokowanych w Lublinie oczu. Konfrontacja ta pozwoliła mi niejako teleportować moją obecność na ul. Olejną. Moje fizyczne spotkanie
z miejscem miało miejsce jakieś 30 minut później. Incydent ten pokazuje,
jak zmienia się dziś pojęcie czasoprzestrzeni w obliczu internetu.
Oczy nadały miastu moc patrzenia. Opuszczona przestrzeń na ulicy Olejnej nasyciła się obrazami innych, ruchliwych i gwarnych przestrzeni. Obecność
i ruch nie były już zatem przypisane do konkretnego miejsca – przemieszczały
się i przetasowywały. Zapośredniczony widok przestrzeni, znanej z codziennego obcowania z miastem, kierował również uwagę na jej realny status i budził
refleksję nad tym, czym ona jest i jacy są ludzie, którzy ją zaludniają. Miejsca, które artystka uosobiła, obdarzając je oczami – wiązały się z czekaniem i tymczasowością. Chwilowa obecność w Widzącym Miejscu zmuszała do refleksji nad
przestrzenią zastaną i własną pozycją wobec niej.
W projekt Dominiki Sobolewskiej była wpisana tęsknota za odzyskaniem
przestrzeni publicznej, ukazaniem jej w różnych wymiarach – zarówno wirtualnym, jak i fizycznym, pokazaniem mieszkańców miasta. Podobnie humanistyczny
przekaz miało działanie zatytułowane Gra w wartości, realizowane w formule warsztatowej przez Marcina Skrzypka. Pierwsza edycja gry miała miejsce podczas
otwarcia projektu Mindware. Technologie dialogu. Brali w niej udział artyści, organizatorzy i wolontariusze. Artyści zostali poproszeni przed przyjazdem do Lublina
o przesłanie kilku ważnych dla nich fotografii, wybranych realizacji – architektonicznych, przestrzennych, instalacyjnych, które ich zdaniem miały ponadestetyczny, uniwersalny ciężar. Następnie grupy osób, powstałe ad hoc podczas spotkania,
miały wybrać z przedstawionego materiału kilka łączących się ze sobą fotografii,
nadać i omówić ich ciąg przyczynowo-skutkowy. Zadaniem graczy było kolektywne interpretowanie symboli i przypisywanie im wartości. Gra w wartości w pozornie lekkim schemacie skrywała poważne pytanie o to, jakim hołdujemy celom, co
jest dla nas najważniejsze. Warsztatowe działanie Marcina Skrzypka bezpośrednio
wiązało się z komunikacją i badaniem możliwości poruszania się we współczesnym świecie. Kultura nadmiaru i przesyt bodźcami sprawiają, że ludzie codziennie
są zmuszani do nieustających wyborów i rewizji własnych przekonań. Podejmowane świadomie, ze znajomością trudnej sztuki eliminacji, pomagają w tym, aby
sprawnie poruszać się w dżungli informacyjnej i komunikacyjnej.
Następne odsłony Gry w wartości były prowadzone między innymi z grupami seniorów i młodzieży licealnej. Za każdym razem artysta zmieniał punkt wyjścia gry, dostosowując materiał, do którego odnosili się uczestnicy, jak też sposób
organizacji gry. Uniwersalny charakter działań Skrzypka pozwolił wykorzystywać
266
ideę gry na wiele różnych sposobów, umożliwiając tłumaczenie zjawisk przez ich
syntezę. Jednocześnie idea uwypukliła podmiotowy charakter wszelkich wyborów i decyzji. Mindware, jako świadomy, satysfakcjonujący i wartościowy dialog,
okazał się sensem i sednem Gry w wartości.
Boris Oicherman w swoim performerskim działaniu Projected city stworzył zwielokrotniony krajobraz Lublina. Artysta spenetrował miasto, przemierzając olbrzymią sieć ulic dzięki specjalnemu wehikułowi, na którym bezpośrednio
pracował. Kamera wideo, zamontowana na pojeździe, rejestrowała na żywo obrazy, które w czasie rzeczywistym były rzutowane z powrotem na ulice przez zainstalowane na aucie wideoprojektory. Miasto zostało zatem przykryte swoim
własnym, zremiksowanym, przetworzonym wizerunkiem. W efekcie kilkudniowych działań powstał ruchomy spektakl multimedialny z elementami mappingu. Jak informował artysta:
Praca została zainspirowana scenariuszem filmowym napisanym przez
László Moholy-Nagyego na początku lat trzydziestych. Jego projekt zakładał zamontowanie dwóch luster na ciężarówce, jednego płaskiego i drugiego wklęsłego, skierowanych w obydwie strony. Dwie kamery miały
zostać umieszczone na tej samej ciężarówce jadącej ulicami Berlina, filmując obrazy miasta odbijającego się w lustrach. Z powodu nazistowskich
ograniczeń dotyczących sztuki projekt nigdy nie został zrealizowany5.
Boris Oicherman wykorzystał ideę Moholy-Nagyego, mając do dyspozycji
arsenał współczesnych środków do rejestracji i projekcji. Działanie jego polegało nie
tylko na „wzięciu miary” z rzeczywistości, wizualizowania jej, ale także na oddaniu
cyfrowego obrazu. Przestrzeń realna i jej cyfrowy ekwiwalent nałożyły się na siebie,
artysta bawił się ich niedopasowaniem, tworząc projekcje w ruchu. Działanie zyskiwało dodatkowy walor, kiedy efemeryczne obrazy ślizgające się po kamienicach
tworzyły przejmujące wariacje istniejących realnie budynków i ich elementów.
Artysta stworzył permanentne sprzężenie zwrotne pomiędzy pozyskanym
obrazem a jego wyświetlonym odbiciem, zabieg ten miał prowadzić do ulepszenia obrazu miasta, gdzie przestrzeń miejska i jej odbicie nieustannie się modyfikowały. Oicherman swoją podróż w wyjątkowym wehikule opisał następująco:
Ta maszyneria miała być iluminowanym lustrem: postrzegała plenery miasta, przetwarzała je cyfrowo i z dwusekundowym opóźnieniem
wyświetlała na ścianach budynków. Dzięki niej miałem szansę poznać
Lublin przez pryzmat jego wizualnego klimatu – od schludnej starówki,
przez surową ul. Lubartowską aż po poszatkowane i niejednolite okolice ul. Kunickiego. Dla mieszkańców miasta moja praca miała bardziej
niecodzienny wymiar. Mogli spojrzeć na miasto w innym świetle, odnaleźć w nim widoki i obrazy, których na co dzień nie zauważają.
W założeniu działanie Projected city było interakcją z odbiorcą, którego Oicherman chciał uczulić na postrzeganie miasta. Dążył do tego, jak mówił, „aby
przechodzień stał się bardziej świadomy sytuacji, w której się znalazł”, wprowadzał
widza w stan wzmożonego zainteresowania, intensyfikując doznania wzrokowe,
podkreślał, retuszował i uwypuklał światłem rysunek miasta. Jednak ulepszony
obraz okazał się tylko chwilowym doznaniem, efemerycznym zjawiskiem, znikającym za następnym rogiem budynku, gubiącym się w wąskiej uliczce, rozpraszającym się w przestrzeni placu lub grzęznącym w gałęziach drzew.
5
Miksowanie krajobrazu miasta [w:] Mindware. Technologie dialogu – katalog..., s. 13.
267
Miasto – jako ruchoma, płynna struktura w toku nieustannych przekształceń – została uchwycona także w projekcie Vasiliego Macharadze, tworzonym
we współpracy z Tomaszem Malcem. Artyści wykorzystali tu jednak nie fasadowe oblicze miasta, ale jego charakter, historię, doświadczenia ludzi, miejsca.
Otwarta i uniwersalna koncepcja gruzińskiego artysty Vasilego Macharadze, została wcielona w życie (dzięki znajomości miejskich zasobów) przez lubelskiego artystę Tomasza Malca. W projekcie Gadające miasto / A Talking city sieć
przystanków autobusowych była wykorzystana jako liniowy model komunikacji – angażujący poszczególne, następne punkty do transferu danych. Przystanki stały się punktami nadawczo-odbiorczymi, nośnikami informacji zaś artyści
uczynili pasażerów miejskiej komunikacji. Zasięg projektu obejmował trzy strategiczne linie autobusowe i trolejbusowe, prowadzące z północy na południe
i ze wschodu na zachód, krzyżujące się w jednym miejscu – przy Parku Saskim.
Na każdym z siedemnastu wybranych przystanków znajdowały się plansze z zasobnikami, z których można było pobrać informacje w formie wlepki i przewieźć
na inny przystanek w stworzonej przez artystów sieci. Na lewych stronach naklejek umieszczono różne historie związane z miejscem lokalizacji przystanku –
w sumie powstało 75 takich opowieści. Z każdej z nich Malec wydestylował jedną
frazę, drukując ją po prawej stronie naklejki. Tak przygotowana wlepka „podróżowała” przez następne stacje, aby dotrzeć do miejsca, gdzie uczestnik zdecydował się umieścić ją na białym polu planszy.
W ten sposób powstała syntetyczna i zmultiplikowana historia miasta, ruchoma i przemieszczająca się wraz z użytkownikami miejskiej komunikacji. Na
podstawie analizy rezultatów wędrujących historii Macharadze stworzył mapę
miasta, która pokazała rozmaite powiązania – już nie liniowe, lecz zapętlone i bardziej złożone, metapowiązania wychodzące poza przygotowany liniowy schemat.
Efektem końcowym projektu Macharadze i Malca był wiersz o mieście – utkany
z pojedynczych, wędrujących fraz. Ewolucja projektu – od poszukiwania prostej struktury, umożliwiającej swobodne dryfowanie miejskich historii, odkrywania innych warstw komunikacyjnych i przedstawiania ich w formie wizualnego
haiku – pokazała, że w gruncie rzeczy znajduje się on w nieustającym procesie.
Można dopisywać do niego następne punkty, etapy i warstwy, a za każdym razem będą one pokazywać inną wersję lubelskiej historii.
Szczególnie ważnym aspektem w dążeniu obu artystów stało się nawiązane interakcji z pasażerami, których udział warunkował zaistnienie i efekt całego
działania. Łączność z uczestnikami i ich reakcja stała się kluczowa dla powodzenia misji. Macharadze tak oto opisał przyjętą przez artystów strategię:
Ten projekt dotyczy ukrytych połączeń w sieci komunikacji miejskiej
przynależnych do sfery pasażerów. Aby ustalić te powiązania, wykorzystaliśmy różne interesujące informacje dotyczące każdego z przystanków – jakiś kluczowy fakt, który opisywałby historię miejsca, coś co
mogłoby ludzi zainteresować. Podzieliliśmy te informacje na pojedyncze
treści będące rodzajem sygnału przesyłanego z jednego przystanku na
kolejny. W rezultacie powstała nowa mapa systemu miejskiej komunikacji, stworzona z połączeń i zależności metasystemowych.
Należy tu jednak dodać, że zhakowanie systemu miejskiej komunikacji udało się dzięki woli pasażerów, którzy, podejmując autonomiczne decyzje,
umożliwiali przepływ informacji. Komunikując się z innymi uczestnikami przez
interfejs stworzony przez Machardze i Malca, stali się twórcami dzieła – poematu o swoim mieście.
268
Do historii odniósł się również ostatni z prezentowanych w niniejszym tekście artystów, jednak w szerszym, ponadlokalnym i niezwiązanym z miejscem,
wymiarze. Arthur Clay stworzył Club Block – realizację zainspirowaną twórczością Henryka Berlewiego. Berlewi reprezentował najbardziej radykalny nurt polskiej
awangardy lat 20. ubiegłego wieku; był członkiem Grupy Kubistów, Konstruktywistów i Suprematystów „Blok” działającej w latach 1924–1926; sformułował zasadę mechanofaktury, ogłoszoną w 1924 r.; był również jednym z prekursorów
op-artu. Swoje prace tworzył na podstawie idealnie zrównoważonych struktur
geometrycznych, wykorzystując liniowy raster. W efekcie powstawały interesujące kompozycje graficzne, którym towarzyszył element ruchu, drgania. Ważnym polem doświadczeń artystycznych Berlewiego było projektowanie mody,
w którym wykorzystywał swoje geometryczne kompozycje.
Art Clay nawiązał bezpośrednio do struktur graficznych Berlewiego, wykorzystując je do stworzenia opartowskiego pokazu mody. Wzory wyświetlane
na sylwetki spacerujących ludzi wraz z wzorami ich ubrań stworzyły serie ruchomych, interaktywnych grafik „od Berlewiego”, zmieniających się dynamicznie
pod wpływem ruchu modeli. W efekcie powstał spektakl, w którym antycypowany przez Berlewiego ruch, wywoływany przez rytm geometrycznych kształtów, znalazł swoje dosłowne przełożenie w modzie tworzonej ad hoc przy użyciu
efektów optycznych. Sytuację tę Clay określił jako mindwear. Odnosiła się ona,
z jednej strony, do mindware – nadrzędnej idei lubelskiego wydarzenia, z drugiej zaś, do wykorzystanej przez artystę problematyki, inspirowanej unikatową
modą tworzoną przez Henryka Berlewiego oraz jej ponadczasowemu i ponadtechnologicznemu oddziaływaniu.
Oddzielnym elementem, ale powiązanym z głównym wątkiem pracy Club
Block, była projekcja w witrynie sklepowej na głównej ulicy Lublina. Ukazywała
ona modelki ubrane w stroje w opartowskie desenie sfotografowane w towarzystwie Henryka Berlewiego. Projekcja korespondowała z pokazem mody, będąc jednocześnie nawiązaniem i jego zaprzeczeniem.
*
Artyści mindware’u w swoich działaniach pokazali, w jaki sposób technologia jest przekładalna na życie społeczne i funkcjonowanie przestrzeni publicznej.
Kładli nacisk na to, że istnieje rzeczywistość nadbudowana nad tym, co realne
i dostrzegane przez nas na pierwszy rzut oka. Rzeczywistość ta nie zawsze jest
uchwytna – posługiwanie się technologią i obrazem wirtualnym nie tworzy jej,
a jedynie pomaga wyjść na światło dzienne, akcentuje poszczególne jej aspekty, takie jak: kryzys wartości w zglobalizowanym świecie, przemycanie informacji
w eterze, powtarzalność i kompulsywność gestów i zachowań, komunikowanie
się bez względu na szerokość geograficzną, prawda i iluzja kontroli współczesnego panoptykonu i wiele innych. Artyści nowych mediów nie tworzą nowego
arsenału pojęć i problemów – odświeżają te, które przez długi czas leżały odłogiem bądź zrodziły się na skutek przepaści pomiędzy rozwojem technologicznym
a kryzysem cywilizacyjnym. Media elektroniczne stanowią szczelinę prowokującą oko do spojrzenia w odmęty wykreowanej rzeczywistości.
Sztuka w relacji do wiedzy naukowo-technicznej obnaża przesunięcie pomiędzy namacalną rzeczywistością społeczną, polityczną i kulturową a zaawansowaną technologią, która bywa obca i nieuchwytna. Sztuka próbuje korzystać
z jej potencjału na różne sposoby. Jeśli jednak artyści podejmują wątek technologiczny, często czynią to w perspektywie melancholijno-krytycznej, zachęcającej
269
do namysłu, prowokującej do refleksji nad sensem i mechanizmem wykorzystywania mediów elektronicznych. Świat smartfonów, Internetu, iPodów, informacji przepływającej z prędkością światła i życia otwartego na oścież na portalach
społecznościowych jest tym samym światem, w którym ludzie borykają się z biedą, głodem, zniewoleniem, wyzyskiem, brakiem porozumienia w najprostszych,
międzyludzkich sytuacjach. Mindware. Technologie dialogu to jedno z tych przedsięwzięć, które pokazało, że dwie wspomniane płaszczyzny – realna i wirtualna – nie rozszczepiają świata. Każda z nich bywa demonizowana – podczas gdy
w każdej z nich prawda współistnieje z fikcją, a dialog wiąże się z zakłóceniami
w komunikacji. Artyści mindware’u połączyli zagadnienia związane z oprogramowaniem, z rzeczywistością społeczną, proponując elastyczne rozwiązania,
będące kluczami – zapewne jednymi z wielu – do zrozumienia tego, co otacza
każdego człowieka.
270
Mindware. Technologie dialogu
– Lublin, październik 2011
Dokumentacja
273
Projekt Mindware. Technologie dialogu został zrealizowany w Lublinie we
wrześniu i październiku 2011 r. przez Warsztaty Kultury, w ramach Krajowego Programu Kulturalnego Polskiej Prezydencji w Radzie Unii Europejskiej 2011. Składał
się z serii wydarzeń artystycznych i teoretycznych odbywających się w przestrzeni miasta, instytucjach kultury i obiektach użyteczności publicznej. Artystów zaproszonych do udziału wyłoniono w wyniku otwartego, internetowego naboru.
Wśród nich znaleźli się: Martin Bricelj Baraga, Arthur Clay, Grupa Dotka (Barbara
Dzierań, Urszula Kowal, Justyna Zubrycka), Paweł Janicki, Yuriy Kruchak, Andriy
Linik, Vasili Macharadze, Tomasz Malec, Darija Medić, Boris Oicherman, Marcin
Skrzypek i Dominika Sobolewska. Czternastu uczestników z Gruzji, Izraela, Polski,
Serbii, Słowenii, Szwajcarii i Ukrainy zrealizowało autorskie koncepcje w ramach
wirtualnych rezydencji – dialogu pomiędzy artystami, kuratorami, organizatorami i mieszkańcami miasta, a także w efekcie pobytów rezydencyjnych w Lublinie
(26–30 września 2011). Zgłoszone idee, wielokrotnie dyskutowane, rozwijane czy
wręcz modyfikowane zostały osadzone w lokalnym kontekście, ale także zorientowane wobec problemów globalnych. Działania artystyczne zaprezentowano
w bardzo różnych, często zupełnie nieoczywistych, przestrzeniach miasta, takich
jak kościół ewangelicko-augsburski, galeria handlowa, budynek poczty, przystanki miejskiej komunikacji, ratusz oraz na falach eteru – za pośrednictwem lokalnego radia (1–23 października 2011).
Równolegle do części artystycznej odbyła się debata teoretyczna, złożona
z konwersatoriów i wykładów przygotowanych przez teoretyków mediów, medioznawców, krytyków sztuki, wśród których znaleźli się: Roman Bromboszcz, Michał Brzeziński, Piotr Celiński, Anna Maj, Michał Derda-Nowakowski, Anna Nacher,
Maciej Ożóg, Ianina Prudenko (2–7 października 2011). Całość programu dopełnił Mindware Club, który objął wydarzenia z pogranicza sztuki nowych mediów,
eksperymentu dźwiękowego, mappingu i designu. Pokazy, wykłady i koncerty
umieszczone w tej części przygotowali: Roman Bromboszcz, Michał Brzeziński,
Catself & Orkiestra św. Mikołaja, Harpakahylo (Konrad Chyl), Aleksander Janas,
Dariusz Kociński, Maciej Ożóg (4–7 października 2011).
Projekt podsumowano na specjalnie przygotowanej ekspozycji w Warsztatach Kultury złożonej z powstałych dzieł oraz dokumentacji działań artystycznych, wykładów i dyskusji (15 grudnia 2011–25 marca 2012). Poza tym wydarzenie
zostało zrelacjonowane w postaci dwóch reportaży: Mindware autorstwa Niny
Komorowskiej (TVP Lublin, 2011) oraz Kultura w akcji / Lublin przygotowanego
przez Maksa Cegielskiego i Annę Zakrzewską (Narodowy Instytut Audiowizualny, 2011).
Koncepcję projektu Mindware. Technologie dialogu opracowali wspólnie
Piotr Celiński, Marcin Skrzypek i Zbigniew Sobczuk. Wyboru dzieł i działań zaprezentowanych w części artystycznej dokonał Zbigniew Sobczuk. Część teoretyczną projektu przygotował Piotr Celiński. Natomiast zorganizowania Mindware Clubu
podjął się Robert Zając, we współpracy z Marcinem Skrzypkiem. Konsultacji w różnych obszarach przygotowania i realizacji projektu udzielili m.in. Michał Brzeziński, Paweł Janicki, Jan Kamiński, Rafał Koziński, Marcin Zmysłowski. Projekt został
zorganizowany i wyprodukowany przez Magdalenę Kawę i Zbigniewa Sobczuka,
wspieranych przez asystentów i licznych wolontariuszy.
Zbigniew Sobczuk
275
Grupa Dotka (Barbara Dzierań, Urszula Kowal, Justyna Zubrycka),
Masowy BioOrnament, bioobiekt, Lublin–Warszawa 2011–2012
Premierowy pokaz: Lublin, Centrum Handlowe „Galeria Olimp”,
1–10 października 2011, fot. W. Pacewicz
Edycja II, Warszawa, Narodowy Instytut Adiowizualny,
27–29 października 2011, fot. K. Piądłowska
276
Edycja III, Lublin, Warsztaty Kultury, 15 grudnia 2011–25 marca 2012,
fot. W. Pacewicz
Edycja III, Lublin, Warsztaty Kultury, 15 grudnia 2011–25 marca 2012,
fot. W. Pacewicz
277
Andriy Linik, Aiolos, instalacja interaktywna/software, premiera projektu,
Kościół ewangelicko-augsburski pw. Św. Trójcy w Lublinie,
3–7 października 2011, fot. W. Pacewicz
278
279
Andriy Linik, Aiolos, instalacja interaktywna/software, II edycja projektu, Lublin,
Warsztaty Kultury, 15 grudnia 2011–25 marca 2012, fot. W. Pacewicz
280
281
Martin Bricelj Baraga, Public Avatar, działanie interaktywne, performance/
software, Lublin, przestrzeń publiczna od Starego Miasta do Miasteczka
Akademickiego, 1–2 października 2011, fot. W. Pacewicz
W akcji, Krakowskie Przedmieście, od lewej: Marek Żmuda (I awatar)
i Martin Bricelj Baraga (artysta)
Centrala – punkt dowodzenia, Warsztaty Kultury, od lewej: Roman
Wojciechowski (tłumacz) i Slavko Glamočanin (wsparcie techniczne)
282
W akcji, Miasteczko Akademickie, Daniel Chlibiuk (II awatar)
W akcji, Stare Miasto, Marek Żmuda (I awatar)
283
Yuriy Kruchak, Net of the Dream, działanie społeczne/warsztaty, Lublin: Dzielnicowy Dom Kultury „Bronowice”; Dom Kultury „Skarpa”; MBP im. H. Łopacińskiego – Filia nr 30; Fundacja Nieprzetarty Szlak; Polskie Stowarzyszenie
Pedagogów i Animatorów KLANZA, 3–6 października 2011, fot. W. Pacewicz
Warsztaty w siedzibie PSPiA KLANZA, tworzenie transparentu – jednego z pięciu, symbolicznych, społecznych interfejsów
Warsztaty w siedzibie DK „Skarpa”
284
Finał działania społecznego na Placu Litewskim, łączenie transparentów
Finał działania społecznego na Placu Litewskim, „wymarsz” połączonego
transparentu
285
Paweł Janicki, irREAL<->irBORG, działanie edukacyjne/warsztaty, Lublin:
OMIT „Rozdroża”, Plac Litewski oraz Warsztaty Kultury, 3–7 października 2011,
fot. W. Pacewicz
Zajęcia warsztatowe w OMIT „Rozdroża”
Wykład i prezentacja efektów pracy w Warsztatach Kultury
286
287
Darija Medić, On the air browser radio show, działanie społeczne/software,
do realizacji projektu została wykorzystana przestrzeń publiczna miasta oraz
przestrzeń radiowa (przekaz dźwiękowy przez nadajniki FM na małą odległość,
a także przez lokalne Radio Lublin), Lublin, 4–6 października 2011,
fot. W. Pacewicz
Nadawanie audio-translacji przekazu internetowego przez nadajniki na małą
odległość z księgarnio-kawiarni „Między Słowami”
288
Nadawanie audio-translacji przekazu internetowego przez nadajniki na małą
odległość na bazarze przy ulicy Ruskiej
289
Darija Medić, On the air browser radio show, specjalna aranżacja elementów
projektu zrealizowanego w październiku 2011, prezentacja dokumentacji
i klipów radiowych, Lublin, Warsztaty Kultury, 15 grudnia 2011–25 marca 2012,
fot. W. Pacewicz
290
291
Dominika Sobolewska, Widzące miejsce, instalacja/działanie społeczne, premiera projektu – sieć powiązanych ze sobą miejsc w mieście, z punktem centralnym usytuowanym przy ulicy Olejnej 2 (budynek byłego Cefarmu, teren
przyszłego kompleksu Alchemia) oraz pozostałymi sześcioma miejscami,
w których umieszczono „oczy” przekazujące obraz do „widzącego miejsca”
(w tym z Biblioteki UMCS, dworca autobusowego PKS, budynku Poczty Polskiej, pubu „U szewca”, Ratusza Miejskiego oraz Warsztatów Kultury), Lublin,
1–23 października 2011, fot. W. Pacewicz
„Opuszczone” miejsce przy ulicy Olejnej 2, monitory odbierające przekaz
z sześciu „oczu” znajdujących się w miejscach „zaludnionych”
„Oko” transmitujące obraz z hali dworca autobusowego PKS do „widzącego
miejsca”
292
„Oko” transmitujące obraz z holu Biblioteki Uniwersyteckiej UMCS
„Oko” transmitujące obraz z pubu „U szewca”
293
Dominika Sobolewska, Widzące miejsce, instalacja/działanie społeczne, II edycja projektu, w której punkt centralny został usytuowany poza centrum miasta – w DDK „Węglin”, pozostałe sześć miejsc to instytucje kultury usytuowane
w centrum miasta (w tym: Galeria Labirynt, Lubelskie Towarzystwo Zachęty
Sztuk Pięknych, Muzeum Lubelskie w Lublinie, Ośrodek „Brama Grodzka – Teatr NN”, Teatr Osterwy oraz Warsztaty Kultury), Lublin, 15 grudnia 2011–25 marca
2012, fot. W. Pacewicz
„Widzące miejsce” w DDK „Węglin”, odbierające przekaz z sześciu „oczu”
znajdujących się w instytucjach kultury usytuowanych w centrum miasta
„Oko” transmitujące obraz z Ośrodka „Brama Grodzka – Teatr NN”
294
„Oko” transmitujące obraz z Muzeum Lubelskiego w Lublinie
„Oko” transmitujące obraz z Galerii Lipowa 13 Lubelskiego Towarzystwa
Zachęty Sztuk Pięknych
295
Marcin Skrzypek, Gra w wartości, gra/działanie społeczne, Lublin: Warsztaty
Kultury, Gimnazjum nr 19 oraz Dom Kultury „Skarpa”, spotkania realizowane
pomiędzy 23 września a 6 października 2011
Gra zrealizowana z artystami i wolontariuszami w ramach spotkania rozpoczynającego rezydencje artystyczne projektu Mindware. Technologie dialogu
w Warsztatach Kultury, fot. M. Skrzypek
296
Gra zrealizowana z uczniami w Gimnazjum nr 19 w Lublinie, fot. D. Panek
Gra zrealizowana z seniorami w DK „Skarpa” w Lublinie,
fot. W. Pacewicz
297
Boris Oicherman, Projected City, instalacja/działanie w przestrzeni Lublina, wykorzystujące sieć ulic, architekturę, układ urbanistyczny i naturę, w tym: Stare
Miasto, ulice – Lubartowską i Zamojską, Drogę Męczenników Majdanka, ulicę
Kunickiego i inne, 3–7 października 2011, fot. W. Pacewicz
Specjalna konstrukcja umieszczona na samochodzie, wyposażona w kamerę,
komputer i projektory, gdzie w sprzężeniu zwrotnym był pozyskiwany
i jednocześnie wyświetlany obraz miasta, widok na tle Bramy Trynitarskiej
Widok na tle lubelskiego zamku
298
Kamienice na Starym Mieście „oświetlone” projekcją z jadącego samochodu
299
Vasili Macharadze i Tomasz Malec, Gadające miasto, komunikacyjny projekt
społeczny/instalacja, artyści wykorzystali trzy linie komunikacji miejskiej
w Lublinie: dwie autobusowe nr 13 i nr 31 oraz jedną trolejbusową nr 151, na 15
przystankach umieszczono elementy instalacji/przekaźniki, służące do pobierania i pozostawiania informacji, 4–7 października 2011, fot. W. Pacewicz
Element instalacji/przekaźnik umieszczony na przystanku „Plac Wolności 02”
Na przystanku „Kaprysowa 02”
300
Na przystanku „Ogród Saski 03”
Odczytanie poematu o mieście – będącego jednym z efektów projektu
– przez Tomasza Malca na przystanku „Ogród Saski 03”, w głębi Vasili
Macharadze i asystentka Zuzanna Grubecka
301
Arthur Clay, Club Block, pokaz mody/projekcja, Lublin: Warsztaty Kultury
oraz Centrum Promocji Województwa Lubelskiego, 3–7 października 2011,
fot. W. Pacewicz
Wolontariusze z Liceum Plastycznego w Nałęczowie w rolach modelek
i modeli w trakcie pokazu mody w Warsztatach Kultury
302
Projekcja w witrynie Centrum Promocji Województwa Lubelskiego
303
Wystawa Mindware. Technologie dialogu – post scriptum, Lublin,
Warsztaty Kultury, 15 grudnia 2011–25 marca 2012, fot. W. Pacewicz
Na pierwszym planie, po lewej dzieło Grupy Dotka Masowy BioOrnament,
obok „oko”, element instalacji Dominiki Sobolewskiej Widzące Miejsce,
w głębi, po lewej aranżacja z elementów projektu Dariji Medić On the air
browser radio show, po prawej „kącik teoretyczny” – zapisy dokumentacyjne
Na pierwszym planie, po lewej zapisy dokumentacyjne dzieł mindware’owych,
w głębi element instalacji Andrija Linika Aiolos
304
Na pierwszym planie, po środku dzieło Grupy Dotka Masowy BioOrnament,
na ścianach w głębi elementy i dokumentacja dzieła Vasiliego Macharadze
i Tomasza Malca Gadające miasto, w głębi, po środku instalacja Andrija Linika
Aiolos
Na pierwszym planie, po lewej dzieło Grupy Dotka Masowy BioOrnament,
obok „oko”, element instalacji Dominiki Sobolewskiej Widzące Miejsce,
w głębi, po lewej aranżacja z elementów projektu Dariji Medić On the air
browser radio show, po prawej „kącik teoretyczny” – zapisy dokumentacyjne
305
Część teoretyczna projektu Mindware. Technologie dialogu, Lublin: Warsztaty
Kultury oraz Galeria Lipowa 13 Lubelskiego Towarzystwa Zachęty Sztuk Pięknych, 1–7 października 2011, fot. W. Pacewicz
Wykład Piotra Celińskiego Cyberwyobraźnia: triumf kultury nad technologią,
inaugurujący projekt Mindware. Technologie dialogu
Konwersatorium Anny Nacher Sfera publiczna w dobie internetu, rzeczy i ludzi
306
Konwersatorium Romana Bromboszcza Nadzmysłowość
Wykład Anny Maj Media w podróży. Sztuka GPS i tagowanie przestrzeni
307
Mindware Club, program towarzyszący w ramach projektu Mindware.
Technologie dialogu, Lublin, Ośrodek „Brama Grodzka – Teatr NN”,
4–7 października 2011, fot. W. Pacewicz
Roman Bromboszcz, projekt Poezja Cybernetyczna „Fazy”
Michał Brzeziński, wizualno-dźwiękowy projekt DATAHARSH
308
Harpakahylo (Konrad Chyl), Sytuacja dźwiękowa: nakłucie#
Maciej Ożóg, postelektro-akustyczny projekt NONSTATE
309
O autorach
Roman Bromboszcz
Badacz cyberkultury i artysta nowych mediów, kurator, filozof i poeta. Jako artysta eksploruje połacie hipertekstu i kodu cyfrowego, w swoich badaniach zajmuje się estetyką nowych technologii, sztuką mediów i ich oddziaływaniem na kulturę. Autor książek Estetyka
zakłóceń, Poznań 2010 i Ewolucja i wartość. Szkice o kulturze, Kraków 2012.
Michał Brzeziński
Kurator, teoretyk i artysta wideo, którego inspiracją są szeroko rozumiane nowe media. Jego
twórczość wideo o silnym podłożu konceptualnym i teoretycznym rozszerzyła się na kategorię metamediów artystycznych – systemów społecznych które stają się generatorami sztuki.
Pierwszym dziełem metamedialnym była Galeria NT, która działała w 2010 roku w Łodzi.
Piotr Celiński
Teoretyk mediów i kultury, kurator i animator. Interesują go relacje pomiędzy człowiekiem, techniką i kulturą. Autor książki Interfejsy. Cyfrowe technologie w komunikowaniu, Wrocław 2010 oraz
redaktor prac: Kulturowe kody technologii cyfrowych, Lublin 2011 i Kultura wiedzy, Kraków 2012.
Geoff Cox
Artysta, wykładowca, kurator i animator interesujący się nowymi mediami i sztuką współczesną. Obecnie związany z Instytutem Digital Aesthetics na Uniwersytecie Aarhus
i Plymouth. Redaktor serii DATA Browser dla wydawnictwa Autonomedia, autor monografii Speaking Code. Coding as Aesthetic and Political Expression, MIT Press 2012.
Michał Derda-Nowakowski
Antropolog mediów, projektant i wydawca związany z Uniwersytetem Łódzkim. W swoich badaniach i projektach łączy zainteresowania antropologią mediów, architekturą informacji oraz designem. Prezes Instytutu Mediów w Katowicach, założyciel Wydawnictwa
Naukowego ExMachina, koordynator Dni Nowych Mediów, projektu McLuhan in Europe w Polsce, współautor projektu Cybergarden w ramach programu ESK 2016 Katowice
– Miasto Ogrodów.
Paweł Frelik
Kulturoznawca i lingwista, interesuje się science fiction, postmodernizmem, cyberpunkiem, experimental fiction, kulturą niepopularną oraz opowieściami crossmedialnymi. Redaktor i autor
m.in.: (Mis)Reading America: American Dreams, Fictions and Illusions, Kraków 2011; Playing the Universe: Games and Gaming in Science Fiction, Lublin 2007. Prowadzi http://nomadologic.net.
Paweł Janicki
Niezależny artysta medialny i producent działający w dziedzinie sztuki mediów, estetyki
microsound oraz kompozycji algorytmicznych. Tworzy instalacje i performansy. Zajmuje
się muzyką generatywną oraz systemami interaktywnymi. Jest laureatem wielu międzynarodowych konkursów, m.in. zdobywcą głównej nagrody w konkursie organizowanym
przez tokijski Machida City Museum of Graphic Art za internetowy performans muzyczny Ping Melody. Związany z WRO Centrum Sztuki Mediów, współzałożyciel grupy Gameboyzz Orchestra Project, uczy w Katedrze Intermediów ASP w Poznaniu.
Peter Lunenfeld
Profesor kalifornijskiego UCLA, gdzie kieruje wydziałem mediów i design. Autor i wydawca
znaczących prac z zakresu teorii nowych mediów i cyberkultury, kurator sztuki nowych mediów i jej popularyzator. Opublikował m.in.: The Secret War Between Downloading and Uploading: Tales of the Computer as Culture Machine, MIT Press 2011; User: InfoTechnoDemo (Mediaworks
Pamphlets), MIT Press 2005; The Digital Dialectic: New Essays on New Media, MIT Press 2000.
310
Anna Maj
Antropolog mediów, zajmuje się badaniami nad komunikacją kulturową i cyberkulturą. Adiunkt w Instytucie Nauk o Kulturze Uniwersytetu Śląskiego w Katowicach. Autorka książki
Media w podróży, Katowice 2008 oraz redaktor książek z zakresu społecznych i kulturowych aspektów nowych mediów. Wiceprezes Instytutu Mediów w Katowicach, koordynator Dni Nowych Mediów, współautor projektu Cybergarden w ramach programu ESK
2016 Katowice – Miasto Ogrodów.
Anna Nacher
Badaczka kultury współczesnej i jej medialnych powiązań, interesuje się teoriami mediów
studiami genderowymi, antropologią wizualności. Adiunkt w Katedrze Mediów Audiowizualnych Instytutu Sztuk Audiowizualnych Uniwersytetu Jagiellońskiego. Aktywistka społeczna, zaangażowana w projekt muzyczny The Magic Carpathians. Autorka książki Telepłeć.
Gender w telewizji doby globalizacji, Kraków 2008.
Maciej Ożóg
Muzyk, teoretyk i historyk sztuk medialnych, pracuje na Uniwersytecie Łódzkim. Publikuje na temat filmu awangardowego, sztuki wideo i nowych mediów. Zajmuje się historią
i teorią sztuk medialnych, problematyką kultury audiowizualnej, cyberkultury i społeczeństwa informacyjnego. Założyciel licznych projektów muzycznych i multimedialnych. Obecnie prowadzi solowy projekt Nonstate.
Marta Ryczkowska
Krytyczka i kuratorka sztuki, graficzka. Związana z Galerią Labirynt i Lubelskim Towarzystwem Zachęty Sztuk Pięknych. Współpracuje z „Kresami” i „Kulturą Enter”.
Marcin Skrzypek
Muzyk folkowy, animator społeczny i teoretyk kultury i folku. Fotograf i plastyk, autor nikomu nieznanej relacyjnej teorii „dania semiotycznego”. Pracuje w Ośrodku „Brama Grodzka
– Teatr NN”, gdzie redaguje pismo „Scriptores” i prowadzi Forum Kultury Przestrzeni. Autor projektu rewitalizacji doliny połemkowskiej wsi Jawornik.
Zbigniew Sobczuk
Kurator i koordynator działań artystycznych i edukacyjnych, producent i designer. Prezes
Lubelskiego Towarzystwa Zachęty Sztuk Pięknych, wieloletni szef Galerii KONT, obecnie
związany z Warsztatami Kultury w Lublinie.
Johan Söderberg
Szwedzki socjolog i medioznawca związany z Uniwersytetem Gothenburg. Interesuje się
hackingiem, estetyką technologii i teoriami mediów. Autor Free software to open hardware:
Critical theory on the frontiers of hacking, Gothenburg 2011 i Hacking Capitalism – The Free and
Open Source Software Movement, Routledge 2007.
Peter Weibel
Artysta i kurator sztuki mediów, ich teoretyk. Wykładał w Austrii, Niemczech, Kanadzie.
W 1984 roku objął stanowisko profesora mediów wizualnych na Uniwersytecie Angewandte Kunst w Wiedniu, w 1989 powierzono mu misję utworzenia Institute for New Media w Städelschule we Frankfurcie, a od 1999 roku kieruje Zentrum für Kunst und Medientechnologie
w Karlsruhe. W przeszłości dyrektor Ars Electronica w Linzu. Kurator kilkudziesięciu wystaw, autor prac medialnych wykorzystujących obraz, dźwięk i ruch. Opublikował wiele
prac naukowych i publicystycznych.
311
Layout info
Projekt graficzny książki i towarzyszące mu pliki z elektroniczną wersją makiety
(przygotowane w programie Adobe InDesign i zapisane w formacie *.indd) udostępniamy na otwartej licencji CC na stronie internetowej www.mindware.art.pl
wraz z elektroniczną wersją publikacji. Każdy może nieodpłatnie wykorzystywać
i przetwarzać nasz projekt do własnych działań wydawniczych.
Makietę opracowaliśmy według następujących zamierzeń:
– wybraliśmy format 145x235 mm z myślą o jak najtańszym i najbardziej ekologicznym wykorzystaniu standardowych arkuszy papieru;
– zastosowaliśmy rodzinę bezszeryfowych czcionek Myriad Pro ze względu na
możliwość ich uniwersalnego charakteru, który sprawdza się zarówno w przypadku papierowego druku, jak i na ekranach wyświetlaczy komputerów;
– dokonaliśmy niesymetrycznego układ marginesów ułatwiający przejrzysty
wydruk elektronicznej wersji książki na domowej drukarce.