17522289_10212760456553433_1263217367_o

 

Scroll down for English version of the interview 

Rozmowa z Aleksandrą Przegalińską, polską filozofką najnowszych technologii z Center for Collective Intelligence przy MIT (Massachusetts Institute of Technology) w Cambridge, Massachusetts.

Lidia Russell: Na początek chciałabym Cię zapytać o Twoją „biżuterię technologicznej księżniczki”, czyli o elektroniczny diadem, pierścień, bransoletki. Ile i czego używasz na co dzień i do czego te urządzenia służą?

Aleksandra Przegalińska: Mam kilka gadżetów, ale nie należę do osób, które się nimi otaczają, a znam takie. Istnieje nawet ruch o nazwie „The Quantified Self”, którego członkowie noszą po 7-8 gadżetów, mierzących ich najróżniejsze aktywności. Mam inteligentny pierścionek, którego nie nazwałabym tak naprawdę inteligentnym, ale który przesyła mi informacje z telefonu. Kiedy odkładam telefon, pierścionek może przesłać mi sygnał wibracyjny, że ktoś próbuje się do mnie dodzwonić i oznaczy tę osobę jako ważną. Ma on także opcje kolorów, czerwony czy niebieski, którymi oznaczę poszczególne osoby z listy kontaktów. Mam, jak widać, również bransoletkę, jaką nosi wiele osób, które biegają. To dziś najpopularniejsza biżuteria technologiczna.

Używałam Fitbit przez tydzień, a potem mi się znudziła.

A.P.:  Można się tym znudzić; to zależy, do czego jej używasz. Jeżeli, powiedzmy, do mierzenia kalorii czy tego, ile kilometrów przebiegłaś, jeśli biegasz regularnie – to wierzę, że może być pomocna, bo obiektywizuje pewną wiedzę.

Możesz stawiać sobie cele i monitorować postępy. 

A.P.:  Tak, ale nie możesz się oszukiwać. Na przykład, mogę biegać krótko, ale będę bardzo zmęczona i powiem sobie: „Jestem zmęczona, przebiegłam duży dystans”, a urządzenie pokaże mi, że przebiegłam milę. I muszę przyznać, że faktycznie była to mila, nie przebiegłam dużego dystansu. Myślę, że bransoletki tego typu są szczególnie popularne wśród osób uprawiających sport. Ja noszę Polar Loop, mój mąż FitBit i większość moich znajomych używa elektronicznych bransoletek albo podobnych aplikacji w telefonie. Teraz biorę udział w projekcie, który prowadzi mój profesor na MIT i używam inteligentnego zegarka, który ma zaprojektowaną przez mojego profesora aplikację o nazwie „Szczęśliwa Miara” i mierzy mój nastrój w danej sytuacji. Kojarzy nastrój z miejscem, w którym jestem, więc zawiera element geolokacji, ale muszę mu też zadeklarować, w jakim jestem nastroju.

Czyli miara opiera się na twojej deklaracji?

A.P.:  Tak, może to jest słaby punkt. Zegarek mierzy puls, wyszukuje lokalizację, zawiera żyroskop, a więc mamy kilka obiektywnych miar, ale jest też część deklaratywna, która – powiedziałabym – docenia użytkownika, bo ja potrafię precyzyjnie określić, jak się czuję. Rezultatem tego długofalowego projektu będzie jasny obraz tego, w jakich sytuacjach jestem szczęśliwa. Czy wtedy, gdy jestem w ruchu? Może kiedy jestem w domu, w stabilnym i przytulnym otoczeniu? A może szczęśliwsza jestem w sytuacjach, które mnie motywują, kiedy mój puls przyspiesza i tak dalej? To urządzenie testujemy na całkiem sporej populacji.

 

17776945_10212760571596309_509551407_o

 

Mogłoby się przydać architektom.

A.P.:  Mogłoby się przydać wielu współpracującym ze sobą grupom. Jest tu element inwigilacji, ale jeśli stoi za nią odpowiednia motywacja, urządzenie to może być naprawdę pomocne. Interesującą kwestią jest mierzenie nastroju… mój przełożony żartuje, że będzie już teraz wiedział, kto go wprawia w dobry nastrój, a kto nie. Wszyscy będziemy wiedzieć. To byłby więc kolejny gadżet. I wreszcie diadem, jak go nazwałaś. Dla mnie to korona, ponieważ to najpotężniejszy z moich gadżetów – elektroniczna opaska. Mam opaskę Muse, urządzenie służące do „czytania” mózgu, które jest w zasadzie elektroencefalografem, a więc odczytuje moje fale mózgowe czy też aktywność mózgu opisywaną w kategoriach częstotliwości fal mózgowych. Za jego pomocą monitoruję swoje skupienie uwagi, koncentrację, poziom stresu, kilka innych parametrów. Można go używać również do innych celów. To bardzo poręczne urządzenie i jest to duża rzecz, ponieważ dotąd urządzenia tego rodzaju używane były wyłącznie w laboratoriach. Czyli jesteśmy w posiadaniu gadżetu, który jest niemal tak dokładny, jak urządzenie laboratoryjne, a możemy z niego skorzystać w kawiarni.

To komercyjne urządzenie?

A.P.:  Tak. W Centrum Inteligencji Kolektywnej przy MIT, gdzie pracuję, interesują nas takie urządzenia, które mają komercyjny potencjał, a nie takie, które zarezerwowane są wyłącznie dla naukowców. Wybieramy takie, które mogą przydać się użytkownikom do różnych rzeczy.

 

17692434_10212760577036445_1680578610_o

 

Czy ma to związek z marketingiem produktu?    

A.P.:  Nasz projekt? Nie. Większość tych specjalistycznych urządzeń, jak opaska elektroniczna, ma funkcje komercyjne. Użytkownicy kupują ją do w treningu w medytacji albo releksacji, do biofeedbacku, z ciekawości, do innych celów. Ma też swój naukowy potencjał i tu jego producenci współpracują z naukowcami. My pomagamy producentom dowiedzieć się, jak urządzenie można udoskonalić, co jest dla nich użyteczne, bo może ono naprawdę zyskać w przyszłości sporą moc, a oni w zamian pozwalają nam używać go poza komercyjnym zestawem funkcji. Czyli możemy je trochę przetworzyć, zastosować odwrotną inżynierię, zmienić cel.

A właśnie, jaki jest cel Waszych badań z Muse?

A.P.:  Wyznaczyliśmy sobie kilka celów. Po pierwsze, chcemy dowiedzieć się, czy program do biofeedbacku naprawdę działa. Mamy na to swój pogląd i chcielibyśmy zobaczyć, czy Muse naprawdę poprawia zdolności poznawcze. Robimy więc pewien test, a potem można zabrać urządzenie do domu i używać go przez dwa tygodnie. Następnie prosimy o ponowne zrobienie testu i odpowiedź na nasze pytania ankietowe. Chcemy zobaczyć, czy naprawdę można dzięki Muse zredukować sobie poziom stresu w określonych sytuacjach, dajmy na to podczas wykonywania zadania, które postrzegamy jako trudne? Czy można się bardziej zrelaksować? Jeśli cierpisz na bezsenność, czy możliwe będzie, po przejściu przez program, jaki oferują producenci tego urządzenia, zredukować sobie samodzielnie te symptomy? Tu testujemy biofeedback. My używamy jednak Muse także jako urządzenia rejestrującego aktywność mózgu; to nieco inna funkcja. Ponieważ jest ono urządzeniem przenośnym, możemy za jego pomocą de facto zrobić skan EEG w dowolnym momencie: w kawiarni albo podczas wydarzenia publicznego. Prowadzimy teraz eksperyment, w którym nagrywamy aktywność mózgu w warunkach natężenia bodźców dźwiękowych, na przykład podczas publicznego wykładu. Studenci i inne osoby biorące udział w eksperymencie słuchają wykładu, podłączeni do urządzenia, a my nagrywamy aktywność ich mózgu, tak jak to miało miejsce podczas wykładu o “The Brain Project” w Swissnex i eksperymentu, w którym wzięłaś udział. Możemy zaobserwować, czy i kiedy ich uwaga słabnie i do jakiego stopnia zachodzi tu synchroniczność doświadczenia. Ta część jest dla nas najciekawsza, ponieważ interesuje nas inteligencja zbiorowa. Chcemy zobaczyć, jak funkcjonują pewne rzeczy, gdy jesteśmy razem. I czy to prawda, że mamy wyłącznie indywidualne doświadczenia, czy może jest też tak, że pewne bodźce wpływają na nas w taki sam sposób?

To bardzo interesujące, wpływy w grupie. 

A.P.: Zwłaszcza że mamy tu ukrytą dynamikę. Pewnych rzeczy byśmy się nie spodziewali. Wydaje nam się, że każdy zajęty jest własnymi myślami, a tymczasem pewne …

…fale mózgowe są silniejsze?

Tak.

Moje kolejne pytanie: do technologii podchodzimy dziś trojako. Po pierwsze, fascynujemy się możliwościami, gadżetami, różnymi urządzeniami, aplikacjami. Po drugie – obawiamy się i odprawiamy “egzorcyzmy”. Po trzecie – technologie stają się dla nas przezroczyste, nie dostrzegamy ich, nie kwestionujemy. Traktujemy je jako naturalne i niezbędne: smartfony, tablety, media społecznościowe, zakupy online. Jak my, którzy urodziliśmy się w świecie pozbawionym jeszcze tych innowacji, możemy pomóc tym, którzy urodzili się w świecie przez nie rządzonym, nawigować przez ten świat? 

 

17759309_10212760580836540_1178931845_o

 

A.P.: Bardzo dobre pytanie. Technologia sama w sobie jest neutralna. To sposób, w jaki jej używamy, wzbudza różne reakcje. Możemy się obawiać albo być zbyt entuzjastyczni, witać z euforią wszystko, co pojawia się na rynku. Te reakcje pojawiają się na skutek użycia albo nadużycia technologii. Technologia oferuje nam nowe mediatyzowane rozwiązania problemów, z którymi wcześniej radziliśmy sobie w inny sposób. Z jednej strony mamy więc ruch „The Quantified Self”, ludzi zakochanych w gadżetach. Czasem jest to miłość inteligentna, dzięki której coś zyskujesz. Jestem pewna, że kiedy na przykład zmagasz się z cukrzycą albo nadwagą, urządzenia namierzające mogą pomóc. Zmierzą, co dzieje się z twoim ciałem, mogą powiadomić cię odpowiednio wcześnie, jeśli wykryją jakiś problem. Jedna z moich mentorek w MIT (Massachusetts Institute of Technology), profesor Rosalind W. Picard, stworzyła urządzenie namierzające, które pomaga zapobiec atakom epilepsji. Według mnie to fantastyczna rzecz – codziennie ratuje komuś życie. To przykład mądrego użycia technologii. Z drugiej strony, w tej samej społeczności osób używających urządzeń namierzających znajdziesz takie, które kolekcjonują je bez wyraźnego celu. Napotykamy tu de facto na pewien poziom uzależnienia. To samo w przypadku gier komputerowych, prawda? I podobnie z mediami społecznościowymi: cel jest bardzo mglisty, ale aktywność jest już tak wpisana w nasze życie, że powtarzamy ją codziennie. To samo z urządzeniami namierzającymi. Podczas jednego ze spotkań ruchu The Quantified Self, gdzie ludzie mają inspirujące wykłady na temat technologii, jedna z osób wspomniała, że bez technologii i różnych urządzeń jest po prostu przeciętna, a z nimi czuje się kimś szczególnym. Poczułam, że w przypadku tego człowieka technologia nie będzie pomocna, ponieważ zmaga się on z zupełnie innym problemem, którego jeszcze nie zidentyfikował, a mianowicie z uzależnieniem. Technologia może uzależniać tak samo, jak wszystko inne, dajmy na to cukier.

Czy nie chodzi tu o szybką i łatwą gratyfikację, podobną do “lajka” na Facebooku? 

A.P.: W samym doświadczeniu gratyfikacji nie ma nic złego. Kiedy jednak zaczynasz martwić się, że nie dostałaś wystarczająco dużo „lajków”, to myślę, że potrzebujesz poświęcić trochę czasu na autorefleksję. Możesz od czasu do czasu opuścić Facebook i może to być pomocne doświadczenie, ale Facebook też może być czasem pomocny. Moi studenci piszą do mnie na Facebooku; dostaję powiadomienia o wydarzeniach i jest wiele wydarzeń, które śledzę i wynajduję, ponieważ jestem na Facebooku.

Zdarzyło mi się znaleźć pracę przez Facebooka.

A.P.: Dokładnie. Wiele można tam znaleźć, bo FB korzysta z inteligencji zbiorowej online. Ludzie pomagają sobie nawzajem, poddają pomysły. Możesz zostawić wiadomość i dostaniesz odpowiedź, otrzymasz pomoc. Z drugiej strony jednak, jeśli polegasz wyłącznie na “lajkach”, coś jest tu nie tak od strony psychologicznej. Myślę, że do pewnego stopnia jest to rzecz pokoleniowa; myślę że trend związany z brakiem zaufania do technologii wiąże się jednak z bardziej zaawansowanym wiekiem. Starsi ludzie często obawiają się nowych technologii, bo nie próbowali z nich korzystać. Nie doświadczyli ich gratyfikacyjnej mocy. Boją się potencjalnego zagrożenia, a poza tym obserwują, jak ich wnuki grają online w gry wideo i nie widzą, jaki to ma mieć cel. A z drugiej strony istnieją także ruchy młodych ludzi, którzy odrzucają technologię.

Znam osoby, które są związane z nowymi technologiami, np. zawodowo, a nie mają profili online i nie są obecne w mediach społecznościowych. Są za to bardzo ostrożne i samoświadome, jeśli chodzi o obecność w wirtualnym świecie. Obawiają się o swoje dane i interesują się tym, jak są one przechowywane i do czego się ich używa. Ta grupa ma pewną wiedzę na temat technologii i z tego właśnie powodu nie tak chętnie się jej „poddaje”. 

A.P.: Tak, ale jeśli masz odpowiednie narzędzia, to możesz kontrolować swoją obecność online. Cieszy mnie, że tego rodzaju wiedza jest coraz bardziej dostępna w sieci: możesz korzystać z przewag, jakie daje technologia bez obnażania się. Musisz, rzecz jasna, zainwestować w to swój czas, ale jest to możliwe. Przykład podobny do tych, o których wspomniałaś, to Jaron Lanier, który wymyślił termin „rzeczywistość wirtualna” – jedna z pierwszych osób, które budowały wirtualne środowisko gier komputerowych. Lanier był wielkim zwolennikiem rozwoju Internetu w jego wczesnym stadium. Dziś zamknął się w sobie, gra na harfie i jest całkowicie „analogowy”. Na pewno wciąż ma różne technologiczne umiejętności, ale odwrócił się od technologii, bo nie podobały mu się różne rzeczy, które działy się online: trolling, hejt i inne negatywne zjawiska w sieci. Osobiście uważam to za przesadny radykalizm. Według mnie Lanier zamyka oczy na korzyści płynące z technologii, na kolaboratywny aspekt działania Internetu. Nawet na FB znajdziesz grupy takie, jak “Buy nothing in Cambridge”, gdzie ludzie oferują za darmo rzeczy, których nie potrzebują. Komunikacja między nimi odbywa się przez pewne medium i jest to bardzo pomocne. On jednak odmawia zobaczenia takich rzeczy; widzi tylko negatywy. Ja jestem gdzieś pośrodku. Jeśli poświęcisz trochę czasu na zarządzanie swoją obecnością w sieci, to nie musisz być wszędzie; wybierasz miejsca, w których chcesz być. Możesz wysłać sygnał zamiast wiadomości tekstowej, możesz zastosować Tor, kiedy kupujesz coś online i stać się niewidzialnym kupującym, którego nie wyśledzą reklamy. Na konferencji South by Southwest (SXSW)  – to konferencja poświęcona nowym technologiom i ich wpływowi na społeczeństwo, która odbywa się co roku w Austin w Teksasie –  prezentowano ciekawe badanie, w którym odkryto, że z jednej strony dzieci są dziś bardzo obecne w internecie i bardzo dobrze z nim obeznane: wiedzą, jak załadować różne pliki, jak kupować online bez ograniczeń i są bardzo w tym sprawne, ale z drugiej strony okazało się, że we wszystkich amerykańskich szkołach, we wszystkich stanach, od Midwestu przez Wschodnie Wybrzeże aż do Zachodniego Wybrzeża przynajmniej 40 proc. dzieci w wieku lat 12 wie, co to jest Tor i jak go używać. Wg mnie to duża rzecz.

 

17692481_10212760575476406_1550303426_o

 

To zaprzecza mojemu doświadczeniu z dziećmi w wieku 12-13 lat, ponieważ kiedy pytam je, co robią na zajęciach komputerowych w amerykańskiej szkole, odpowiadają, że używają Google drive. A kiedy pytam, co wiedzą na temat chmury, bo na moich zajęciach w polskiej szkole w Bostonie używamy Excela i Power Pointa online, okazuje się, że są zupełnie nieświadome tego, gdzie przechowywane są dane czy też gdzie jest serwer, a wg mnie to podstawa i powinno się ich tego uczyć. 

A.P.: Całkowicie się z tobą zgadzam. Myślę, że to kwestia praktyk edukacyjnych. Dzieci i nastolatki są wrażliwe i rozumieją różne problemy związane z technologią lepiej niż nam się wydaje. One nie tylko czerpią radość z używania technologii, ale „przekopują się” przez cały ekosystem. Trzeba im jednak pewne rzeczy pokazać.

Podobnie z reklamą. Dzieci powinno się uczyć rozpoznawania, na jaką manipulację są narażane. Mam też takie doświadczenie z ośmioklasistami, którzy byli zaszokowani, kiedy zobaczyli, jakie rzeczy na temat ich rodziny można znaleźć w sieci – gdzie mieszkają, jaki mają samochód itd. 

A.P.: Czasem trzeba doświadczyć takiego szoku. Kiedy w życiu ludzi dokonuje się duża zmiana, na przykład pobierają się albo spodziewają się dziecka, szukają online różnych produktów i wtedy okazuje się, że system ich widzi i śledzi ich każdy krok – i są tym doświadczeniem poirytowani. Nie nazwałabym tego doświadczenia traumatycznym, ale na pewno wzbudza ono niepokój i motywuje do ukrycia się. Dam ci inny przykład. Robiono pewne badania nad Facebookiem, który jest raczej dla osób w wieku 30-40 lat i starszych; są na nim też dwudziestolatkowie, ale nie dzieci. Dzieci są na Snapchacie. Co ciekawe, badania te pokazały, że Facebook ewoluował. Kiedyś był platformą, na której ludzie dzielili się detalami ze swojego życia prywatnego. Dziesięć lat temu wrzucali tam swoje zdjęcia z imprez, czasem totalnie nieodpowiednie; codziennie pisali na swojej ścianie, co aktualnie robią. To się już nie dzieje, ludzie są ostrożniejsi. Używają Facebooka do zbierania informacji / autopromocji, jako narzędzia PR-owego do kształtowania swojego wizerunku, do celów marketingowych. Kiedyś to był pamiętnik. Nawet FB to zauważył i zaproponował nowe narzędzia do opłacania kampanii, ponieważ jego twórcy już wiedzą, że ich użytkownik przestał być tą naiwną osobą, która eksponuje całe swoje życie. Myślę, że to naturalna ścieżka, którą podążą wszystkie media społecznościowe. Ze Snapchatem jest inaczej, bo tu z definicji dzielisz coś tyko z ograniczoną grupą osób i wiadomość, którą im wysyłasz, jest bardzo efemeryczna. Jest widoczna tylko przez krótki czas, a potem znika. Oczywiście nie znika całkowicie, bo Snapchat ma nad tym kontrolę, ale inni użytkownicy nie mogą zrobić zrzutów z ekranu z tym, co im wysłałaś czy co wysłałaś w przestrzeń, bo dostaniesz o tym powiadomienie. Myślę więc, że Snapchat to taki produkt wyrosły ze wszystkich porażek Facebooka. Tutaj ludzie nie wychodzą do świata z wiadomością „Oto ja i moje problemy!”. Wysyłają rzeczy kanałami, które samodzielnie dobierają.

Pozwól, że zapytam Cię jako mamę: czy zamieszczasz zdjęcia swojego dziecka online? 

A.P.: Zgadza się, mam córkę i mamy w tej kwestii bardzo zwięzłe i poręczne reguły. Facebook jest dla mnie medium do komunikacji z szerszym gronem przyjaciół i znajomych, ale także do pewnego stopnia z moimi studentami i innymi profesjonalistami, stąd jest to bardziej narzędzie do przekazywania informacji związanych z moją pracą. Czasem zamieszczę coś o moim życiu, ale jeśli jest  to zdjęcie z moją córką, to ona jest niewidoczna. Zdjęcie jest nieostre albo zrobione od tyłu. Mam jednak prywatne konto na Instagramie, widoczne dla bardzo niewielu osób, i tam zamieszczam rodzinne zdjęcia. Tak zadecydowaliśmy. Chciałabym, by moja córka sama mogła podjąć decyzję, czy chce być na Facebooku, czy nie. Może kiedy będzie podejmować tę decyzję, Facebooka już nie będzie, albo może będzie to zupełnie inne medium społecznościowe…

Może będzie rozczarowana Twoją decyzją, bo wszyscy jej przyjaciele będą mieli swoje zdjęcia z dzieciństwa online?

A.P.: Może to oni nie będą z tego powodu szczęśliwi? Myślę, że ludzie mogą być raczej zdenerwowani tym, że ktoś tak zadysponował ich tożsamością. Chociaż oczywiście jest to też słodkie i rodzinne zdjęcia zawsze wzbudzają pozytywne uczucia. Cieszę się, kiedy mogę oglądać zdjęcia moich przyjaciół i ich powiększającej się rodziny i cieszę się, że wiem, co się u nich dzieje, ale po prostu w naszym przypadku zadecydowaliśmy, że nie będziemy tu szczególnie ekspansywni.

W Twoich wykładach czy wywiadach zauważam powtarzający się motyw: mówisz, że potrzebujemy debaty wokół nowych technologii i naszej relacji z nimi.

A.P.: Niestety, jest coraz więcej kwestii, które się takiej debaty domagają i jest to problem, że nasz postęp technologiczny nie znajduje odzwierciedlenia w dyskusjach i rozwiązaniach polityków. Dostrzegam to zwłaszcza podczas wyborów i kampanii w Polsce. Debatujemy nad polityką zdrowotną, educkacją i innymi kwestiami – no dobrze, a co z tą kwestią? Zauważyłam, że w USA Barack Obama, tuż przed zakończeniem swojej drugiej kadencji, miał serię debat na temat automatycznych samochodów. Jakie generują korzyści, a jakie problemy?

W Polsce nie potrzebujemy jeszcze tej dyskusji. 

A.P.: Tak, ale wkrótce będziemy jej potrzebować i byłoby miło być na to przygotowanym. Wielu ludzi szokuje wpływ technologii na nasze życie społeczne. Myślę, że powinniśmy mieć taką nadrzędną debatę wokół tego, na co się zgadzamy, a na co nie. Na przykład, w wielu krajach, w tym w Polsce, mieliśmy debatę na temat klonowania. W pewnym momencie zadecydowaliśmy: mamy technologiczne możliwości, by coś się zadziało, ale etycznie i w kategoriach naszej struktury społecznej nie jesteśmy przygotowani na takie rozwiązanie. Jest to do zrobienia, możemy to zrobić w bardzo ograniczony sposób, ale nie będzie tak, że każdy z nas zostanie sklonowany. Porzuciliśmy ten projekt. Jestem pewna, że będziemy mieć debaty związane z różnymi terapiami genowymi, na przykład edytowaniem genów metodą CRISPR. To się zbliża, w ciągu najbliższych pięciu lub dziesięciu lat będziemy mieć możliwość leczenia za pomocą manipulowania genomem. Są pogłoski, że będzie można w ten sposób leczyć Zespół Downa. Nie wydaje mi się, żeby teraz było o czym rozmawiać, ale w przyszłości będzie to wykonalne. Zanim się więc zdarzy, powinniśmy mieć wokół tego debatę i jasno określić, w jakich sytuacjach będziemy chcieli stosować terapię genetyczną – i czy, na przykład, będziemy chcieli projektować genetycznie swoje dzieci? Ponieważ taka byłaby ostateczna konsekwencja. Pozytywnie zaskoczył mnie ostatnio Parlament Europejski – debatą na temat elektronicznych bytów. Najbardziej zaawansowane boty i roboty, które już teraz demonstrują pewien stopień inteligencji, a także ich obecność, czyny i ich konsekwencje, muszą zostać jakoś uregulowane. Ale najbardziej oczywista debata, jaką powinniśmy odbyć, dotyczy automatycznych samochodów. To już „wisi w powietrzu” i nie chcemy sytuacji, w której regulacje i prawo zostaną w tyle za technologią. Myślę, że już teraz są zbyt wolne w zestawieniu z rozwojem technologicznym. O tym trzeba rozmawiać. Podobnie jak o rozwoju wysoko wyspecjalizowanej i wyposażonej w wiele umiejętności sztucznej inteligencji, o głębokim uczeniu maszynowym (podkategoria uczenia maszynowego, polegająca na tworzeniu sieci neuronowych, które mają za zadanie udoskonalać techniki związane np. z rozpoznawaniem przez maszyny mowy, obiektów itp. – przyp. LR). Już teraz budujemy struktury, które ludziom jest bardzo trudno zrozumieć. Tworzymy istoty i nie wiemy, jak to robimy. Głębokie uczenie samo w sobie jest nowym rodzajem maszynowego uczenia, które ćwiczy maszynę w stawaniu się w czymś lepszą. W tym sensie więc głębokie uczenie jest czarną skrzynką. Wiemy, jak wygenerować pewne efekty, ale nie wiemy, jak to się dzieje. Innymi słowy, tworzymy coś, czego w pełni nie kontrolujemy. Chcemy więc wiedzieć, dlaczego pragniemy budować sztuczną inteligencję, jak wyobrażamy sobie współpracę z tymi sztucznymi partnerami? Czy chcemy społeczeństwa ludzi i nie-ludzi? Czy chcemy przypisać maszynom jakieś prawa, czy tylko odpowiedzialność, bez praw, i mieć nadzieję, że nie będzie buntu czy czegoś w tym rodzaju?

Zmierzasz do mojego ostatniego pytania, o technologię jako hiperrzeczywistość. Za pomocą naszego racjonalnego umysłu budujemy AI, czyli sztuczną inteligencję, ale do jakiego stopnia możemy przewidzieć jej zachowanie i w jakim stopniu może ono wykraczać poza nasze rozumienie? Jak inteligentna może stać się sztuczna inteligencja? Jako dziecko fascynowałam się „Bajkami robotów” Lema…

A.P.: To już nie są bajki, to de facto rzeczywistość. Lem okazał się najbardziej kompetentnym futurologiem. Większość z nich się myliła. Kiedy mówię o debacie na temat przyszłości, to mam na myśli rozmowę o przewidywalnej przyszłości. Nie jestem zwolenniczką przewidywania przyszłości, bo to z reguły kończy się błędem – chyba że jesteś Stanisławem Lemem. To nie jest coś, co tak naprawdę możemy uchwycić. Z jednej strony wiemy, jak wygląda proces technologiczny i większość specjalistów od sztucznej inteligencji nie byłaby zbyt optymistyczna i entuzjastyczna, jeśli chodzi o tempo i nie powiedziałaby, że wszystko czeka na nas już za rogiem… ta superinteligentna maszyna, która zamierza zostać naszym Panem, zbuntować się przeciwko nam, a potem nas zniewolić czy coś takiego. Większość osób jest sceptyczna, ponieważ dotychczasowy postęp technologiczny mówi nam, że odtworzyć pewne rzeczy w maszynach jest dużo trudniej niż nam się wydaje. Myślę, że rozwój sztucznej inteligencji jest bardzo mocno związany z neurologią, a więc pytanie brzmi: co wiemy o nas samych? Co wiemy o tym, jak funkcjonujemy? Jak poznajemy, jak jesteśmy inteligentni? I mówiąc szczerze, nie wiemy zbyt wiele i jesteśmy w bardzo wczesnym stadium dowiadywania się. Mamy pewne osiągnięcia na polu robotyki: mamy roboty, które radzą sobie z różnymi rzeczywistymi przeszkodami. Roboty są do pewnego stopnia ślepe, więc jeśli tworzymy coś, co jest przygotowane na funkcjonowanie w bardzo hałaśliwym środowisku, to to już jest duża rzecz. Firma o nazwie Boston Dynamics, stąd, zaprojektowała roboty, które są w stanie poruszać się w środowisku, które nie jest mapowane, zupełnie tak jak my. To duży krok. Z drugiej strony jednak, to tylko mały fragment tego, czym jesteśmy i tak wiele jeszcze kroków trzeba zrobić. Kiedy weźmiemy pod uwagę naszą reakcję uczuciową, naszą inteligencję społeczną – nie ma pomysłów na to, jak te rzeczy odtworzyć w maszynach. Tworzymy wysoko wyspecjalizowaną inteligencję, która nam pomaga. Nie jesteśmy jeszcze w punkcie, w którym możemy debatować nad sztucznym myśleniem i sztucznym życiem. Z drugiej strony jednak, wiele osób, które są tu mniej sceptyczne, powiedziałoby ci, że nie wiemy, jak taka inteligencja się wyłoni, bo może jeśli stworzymy wystarczająco wysoką złożoność, ona się wyłoni samodzielnie, „z niczego”, w ciągu najbliższych 50 czy 100 lat. Nie będzie więc ewolucyjnego procesu. Wewnątrz AI trwa debata związana z tzw. obcym myśleniem (alien thinking). Teraz tworzymy systemy, które są humanoidalne, podobne do nas. Próbujemy odtworzyć coś, co będzie naszym lustrzanym odbiciem; będzie wyposażone w nasze cechy i będzie istnieć w świecie na nasz sposób, jak inteligencja algorytmiczna, obliczeniowa. Dobrze sobie radzimy z matematyką, możemy to zrobić. Komputery mogą zrobić to lepiej, ale to ten sam rodzaj inteligencji. Jednak może na którymś etapie z systemu, który jest do nas podobny, wyłoni się coś, co będzie nam obce. Będzie miało inną moralność, nawet jeśli zaprojektujemy i wpiszemy w to naszą moralność. Już teraz programujemy moralność w maszynach – w automatycznych samochodach – i jest to nasza moralność, oparta na naszych porażkach i naszym sposobie myślenia o tym, jak ominąć czy rozwiązać dylematy z etycznego punktu widzenia i jak sobie radzić w problematycznych sytuacjach, na przykład w sytuacji wypadku samochodowego. Kogo, na przykład, poświęcić, a kogo ocalić. Tworzymy systemy oparte na jedynym wzorze, jaki mamy, którym jesteśmy my sami. Ale, spekulując, jeśli w przyszłości mielibyśmy system, który wyłoniłby się z i tylko ze sztucznego środowiska czy z maszynowego ekosystemu, to trudno oczekiwać, że byłby on podobny do nas. I nie wiemy, co się zdarzy. Bardzo lubię ten film, może go widziałaś, „Ona”. Opowiada o tym, jak nie nastąpi konflikt ze sztuczną inteligencją, bo ona nas po prostu nie będzie potrzebować. Stworzy zupełnie osobną warstwę rzeczywistości dla siebie, a więc ostatecznie będziemy mieć tak różne cele, potrzeby i pragnienia, że nasze rzeczywistości się nie przetną i nie spotkamy się. Dla mnie to dużo lepsza wizja niż wojna z maszynami, bo myślę, że każda wizja wojny jest naszą wizją. To my jesteśmy istotami, które są w ciągłym konflikcie, wciąż tworzą nowe wojny i konflikty, i na maszyny patrzymy z tej właśnie perspektywy, bardzo ograniczonej. Dużo ciekawsze i bardziej prawdopodobne jest dla mnie to, że ze sztucznej inteligencji wyłoni się coś tak kompletnie dla nas obcego, że nie będziemy w stanie tego zrozumieć. Tak jak w „Solaris” Lema, gdzie masz myślący ocean. To jest niezrozumiałe. Ale wg mnie jest to najbliższe dokładnej, a zarazem popularnej wizji tego, czym mógłby być świat maszyn. Może będą też maszyny podobne do istniejących dziś, tylko po to, by nam pomóc. Ale jeśli już, to sztuczna inteligencja będzie od nas czymś zupełnie odrębnym. I niekoniecznie będzie podzielać nasze pragnienie zabijania.

Stephen Hawking, Elon Musk i inne “sławy” świata technologii mają pewne wątpliwości, jeśli chodzi o sztuczną inteligencję…

A.P.: A wiesz, jak to było ze Stephenem Hawkingiem? Najpierw powiedział, że sztuczna inteligencja jest najbardziej problematycznym i potencjalnie najniebezpieczniejszym z ludzkich wynalazków, ale kilka miesięcy później zmienił zdanie i powiedział, że tak naprawdę największym problemem jest kapitalizm. Nie mówię tu o regularnym kapitalizmie, ale o kapitalizmie spekulatywnym, który niszczył różne kraje i wywołał kryzys finansowy, czyli o „dzikiej” wersji kapitalizmu. Trzeba przyznać mu rację, bo jeśli technologia jest w rękach systemu opartego na wyzyskiwaniu innych, to tu tkwi problem. Zwłaszcza jeśli dodasz do tego ogromną technologiczną przewagę. Znowu jednak, to jest nasz problem. To myśmy go stworzyli, nie maszyny.

Bardzo dziękuję za rozmowę.

Rozmawiała: Lidia Russell

Zdjęcia: Lidia Russell

Zdjęcia zrobione podczas wykładu Christopha Ebella na temat „The Human Brain Project” w Swissnex, Boston. Więcej nt. wydarzenia: http://www.swissnexboston.org/event/creating-a-european-research-infrastructure-to-decode-the-human-brain/#sthash.de0ipGXr.dpbs

Aleksandra Przegalińska doktoryzowała się w dziedzinie filozofii sztucznej inteligencji w Zakładzie Filozofii Kultury Instytutu Filozofii UW, obecnie jest adiunktem w Center for Research on Organizations and Workplaces w Akademii Leona Kozminskiego. Aktualnie prowadzi badania w Massachusetts Institute of Technology w Bostonie. Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej, ze szczególnym uwzględnieniem Second Life. Interesuje się rozwojem nowych technologii, zwłaszcza zaś technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych.

 

17761395_10212760572756338_330769294_o

 

Are we more intelligent with artificial intelligence?

 

An interview with Aleksandra Przegalinska, Polish philosopher of new technologies from the Center for Collective Intelligence at MIT (Massachusetts Institute of Technology) in Cambridge Massachusetts

 

Lidia Russell: My first question concerns the purpose of your “technological princess” jewelry: the crown, ring and bracelet. 

Aleksandra Przegalinska: I do have a few gadgets. But I’m not the kind of person who would be surrounded by gadgets. I do know people who use much more. There is actually a movement called The Quantified Self, these are people who wear up to seven or eight gadgets, constantly tracking various activities that they’re undertaking. I have an intelligent ring, but I wouldn’t call it intelligent. It interacts with my phone; it passes information from my phone to me, and is an intermediary between me and the phone. And if my phone is away, it can send me a very direct vibrating signal that somebody is trying to call me at this point and mark this person as important. Then there are also lights; blue or red, which indicate a particular person. Obviously, there is a wrist band, which runners and many other people use; they are now the most popular wearable technology.

I used a Fitbit band for one week and found it boring.

A.P.: It can get boring. It depends on what you are using it for. And if you’re using it for, let’s say, calorie measurement or step measurement, such as a person who is running regularly – I can see how this can help, because sometimes it objectivizes certain knowledge.

You can set goals for yourself and monitor your progress.

A.P.: Yes, but also you cannot deceive yourself. For instance, if I run for a very short time and then become very tired and say to myself: “I’m so tired, I’ve been running for such a long time…” and again the device shows me: “You have been only running a mile”. This is something that I cannot confront in any other way than just admitting what it is; I haven’t been running for very long. I think various kinds of wrist bands are definitely popular for sports. I have a Polar Loop, my husband has a Fitbit, and most of my friends are using wristbands or a tracker in a cellphone. I’m currently participating in a project that my professor at MIT is conducting, and I’m using a smart watch that has a few different things. My professor designed an app – it’s called “A Happy Meter”. It’s measuring my mood in given situations. It’s relating my mood to where I am located, so there is geolocation, and there is a part where I can actually declare the mood I’m in.

So the measurement is based on your declaration?

A.P.: Yes, it’s declarative. Maybe that’s its weak point. There is a pulse meter, location, and gyroscope, and a few other things that are objective but there is also that declarative part that empowers the user. And I would say that; because I can be precise about how I feel, then the outcome of this long term project is to have a picture of which situations make me happy. Am I happy when I’m moving? Or maybe when I’m at home, in a very stable and cozy environment, or am I happier in situations that make me more motivated, when my pulse is up and so on?

 

17761525_10212760569396254_1416533249_o

 

It could be used by architects.

A.P.: It could be used by various collaborative groups. There is a bit of surveillance in the process, but when it’s done with the proper motivation, then I believe it can be very useful. The mood part is also interesting… my supervisor is always in good humor with us and says that he’s going to know who makes him happy and who doesn’t. So that’s another gadget. There are a few more: there is my crown, as you said. For me it’s a crown because it’s a powerful device, a headband. I have a Muse headband, it’s a brain sensing device that is basically EEG, electroencephalograph, so it is looking for my brain waves, and brain activity described as brain wave frequencies. I’m using it to track focus, concentration, stress, and a few different parameters. This is a bit of a revolution here, because we now are in dispose of the gadgets that are maybe not as precise as in a laboratory, but almost as accurate, and you can do measurements in a café.

Is it a commercial device?

A.P.: Yes. In the Center for Collective Intelligence at MIT, we are interested in the potential of a commercial spillover, so we’re not interested in devices that are very obscure and reserved for scientists, but we’re interested in the devices that have a commercial potential.

Is this related to marketing of the product?    

A.P.: In our project? No. For most of these products, the more sophisticated ones, like the headband, there is a commercial track where users purchase it for meditation, relaxation training, biofeedback, just out of curiosity, or for other purposes. There is also a scientific path that is trying to collaborate with a scientist. We help the producers to advance the knowledge of how a device could be developed in the future, because the device can develop into something definitely more powerful than what it is now, but they are allowing us to use it outside the commercial box, so we can tweak it a bit, do some reverse engineering, change the device and its purpose to a certain extent.

So what is the purpose of researching with a Muse?

A.P.: There are actually a few purposes. One is that we want to know if their biofeedback program is working. It’s a bit of a crash test. We have our own idea and we would like to learn whether it improves your cognitive performance. Then we do a kind of test where you take a headband home and use it for two weeks with the program that we modified, and after two weeks we will ask you again to go through our test and a battery of questions. For instance: would it be possible to reduce your stress level in particular situations, like when solving a task that you perceive as difficult. Can you enter a more relaxed mode? Or when you’re struggling with insomnia, can you reduce the symptoms? But we are also using this device to record brain activity. And this is a different functionality. We have had students and other people attend a lecture with the device, and we record the activity of their brain while they listen to the lecture, like at “The Brain Project” lecture at Swissnex – the experiment in which you participated. For instance, we can see whether their attention was drifting, and in which moment, and to what extent there is a synchronicity. This part is the most interesting for us, because we focus on collective intelligence. We want to see how certain things emerge when we’re together. And is it true that we only have individual experiences or is it so that we’re effected by various stimuli in the same matter. This is the second part of our research.

This is very interesting, the influences within a group.

A.P.: Especially that there are hidden dynamics. You wouldn’t expect certain things. You would think that everybody is occupied with their own thoughts, but actually there are some…

…brain waves that are stronger?

A.P.: Yes.

 

17692434_10212760577036445_1680578610_o

 

My second question: we are approaching modern technologies in various ways. One is fascination with possibilities, devices, apps etc. The second is a fear or “exorcisms”. The third is making the technology transparent: we don’t really notice that we’re using it. We don’t question it, we treat it as natural and indispensable: smartphones, tablets, social media, shopping online. How we who were born without all these innovations, can help those who were born in a world that is ruled by them, to navigate through this world?

A.P.: This is a very good question. Technology in itself is obviously neutral. It’s the usage of it that creates our reactions to it. We can have fear or overenthusiastic reactions, embracing anything that shows up on the market. All these are created by use and misuse of technology. What technology offers is new mediatized solutions to problems that we approached before in a different way. On one hand you have the Quantified Self movement of people who are in love with gadgets. Sometimes it’s a smart love, where you can get something out of it; such as if you’re ill, struggling with diabetes, or overweight. There are devices that are going to measure what’s happening with your body, they can notify you earlier if the detect a problem. One of my mentors at MIT, Professor Rosalind Picard created a tracker that helps you prevent an outburst of epilepsy. I find this tracker a fantastic thing, it’s saving lives every day. Obviously here the use of technology is very wise. On the other hand, in the same community of trackers, you have people who collect things without clear purpose why are they doing so. And actually there is a certain level of addiction. The same goes for video games, right? Similar with social media: the purpose is actually very vague, but the activity is so inscribed in our daily lives that we repeat it every day. And it is the same with tracking. During one of the Quantified Self meet-ups, when people are supposed to give inspirational talks about technology, one person mentioned that without these technologies ‘he is mediocre’, an average person, and with them ‘he is a special kind of person’. And I felt that technology won’t be helpful in his case, because he’s struggling with a completely different problem that he has not yet identified – addiction. Technology can be addictive like anything else – e.g. sugar.

Isn’t it all about a fast and easy gratification similar to a ‘like’ on Facebook? 

A.P.: There is nothing bad in the gratifying experience itself. It’s when you start to worry that you didn’t receive enough likes, then you need, I think, to devote some time to self-reflection. You can get away from Facebook for some time and it can be a helpful exercise, but on the other hand Facebook can be helpful too. My students write to me on Facebook, I get notifications about events and there are many events that I follow and track because I’m on Facebook.

I found a job through it once.

A.P.: Exactly. There are so many things there, because that’s the collective intelligence online that Facebook also harvests. People help you, people give ideas. You can send out a message and people respond, so that’s obviously helpful, but on the other hand if you’re just relying on ‘likes’, then psychologically something wrong is happening. I think it’s generational to a certain extent. I guess we could claim that the trend to be distrustful toward technologies is related to more advanced age? Elderly people often fear technologies because they haven’t tried them. They haven’t experienced the gratifying power. They worry about the potential damage and they also observe their grandchildren playing video games online and they don’t see a purpose in that. But on the other hand there are also movements of young people who resent technologies.

 

17759309_10212760580836540_1178931845_o

 

I know people involved in technology who do not have profiles online, and who are not on social media. They are very cautious and self-conscious about their presence in a virtual world. They are worried about their data, and are interested how the data is stored and used. This particular group has some knowledge about technology and for that reason they’re not eager to give themselves completely to it. 

A.P.: Yes, but you can manage your presence online, if you have the proper tools. I’m happy that knowledge of that kind is actually more and more dispersed online: you can use the technology for its benefit without exposing yourself. You obviously have to devote some time to it, but this is possible. A similar example to those that you just mentioned, namely Jaron Lanier who invented the term “virtual reality” – he was one of the first people who built virtual environments for games. He was a big proponent of the development of the Internet at its early stage. He has now withdrawn, he plays a harp and is completely analogue. I’m sure that he’s still tech savvy, he has all the skills, but he withdrew because he didn’t like what was happening online; all of the trolling, hating and various phenomena that are negative. My personal view is that his concept is too radical, because he decided to not to see the beneficial aspects of technology, the collaborative aspect. Even on Facebook you have groups like “Buy nothing in Cambridge” where people give away things that they don’t need. The communication between them is mediatized and that’s very helpful for everyone. But he refuses to see it, he just sees the negative part. I’m somewhere in the middle. If you devote some time to manage your online presence, you don’t have to be everywhere, you can just pick places where you want to be. You can use signal instead of sending text messages, you can use Tor for purchasing things online to be an invisible customer and not to be tracked by advertising. There was very interesting study that was presented at the South by Southwest (SXSW) Conference  – a conference about technology and its influence on the society that takes place every year in Austin, Texas –  and what was discovered was that, on one hand, kids are ubiquitous online, they are very present, they know how to upload content, purchase things online without any limitations and they are very savvy, but on the other hand, in the schools of America, in all the states, the Midwest, East Coast, West Coast, at least 40 percent of kids at the age of 12 knew about Tor and they also knew how to use it. For me it’s big.

That contradicts my experience with kids age 12-13 in that whenever I ask them what they’re doing at the computer classes in American school, they say “we’re using Google drive”. And when I ask them if they know anything about the cloud, because in our classes at the Polish school in Boston we’re using Excel and Power Point online, they’re completely unaware where data is stored, or where is the server, and I think that these are basic things that should be a part of their education.

A.P.: I fully agree with you. I think it’s a matter of educational practices. Kids and teenagers are sensitive and they understand various problems that are related to technology better than we think. They’re not only enjoying it, but they dig the whole ecosystem. But you have to expose them to that.

The same with advertising. Children should be taught to recognize what kind of manipulation they are exposed to. I also have experienced the 8th graders being shocked to learn what data about their family can be found online – where they live, what kind of car they have etc. 

A.P.: Sometimes you have to go through a shock like that. When people are making big steps in their life, like they’re getting married, they’re expecting a child, they are looking for products online, and then it turns out that the system sees them and follows their steps – they are irritated by that experience. I wouldn’t call it traumatic experience, but it’s definitely disturbing and out of that comes a motivation to hide. I can give you another example. There was a study that was done on Facebook. Facebook is more for people who are in their 30’s – 40’s, there are some 20 year olds, but not kids. Kids are on Snapchat. And what’s interesting is that FB has evolved, it was a platform for sharing intimate details about your life. Ten years ago people would post pictures of themselves at parties, sometimes totally indecent; they were writing every day and posting on their wall what they’re currently doing. This is no longer happening, people are more cautious. They’re using Facebook as knowledge harvesting / self-advertising, a self-public relations tool, for marketing purposes. Of course in some cases it is self-creation, but more aware than it used to be. It used to be a diary. Even FB noticed that and they introduced new tools to pay for campaigns, because they know that their user is no longer a naïve person that is going to display their whole life. I think this is a natural path that various social media will have to go through. With Snapchat it is different, because by definition you share something only with a limited circle of people, and the message that you send them is very ephemeral. It’s only visible for a short time, and then it disappears. Obviously it doesn’t completely disappear, because Snapchat knows how to control it, but the other users are not allowed to take screenshots of what you have sent them or sent out, because you’ll be notified. So I think that Snapchat in a way is a product of all the failures of Facebook. Here people don’t want to go out and say “Here I am and here are my problems”. They just send stuff by the channels that they pick by themselves.

 

17692481_10212760575476406_1550303426_o

Let me ask you, as a mother: do you post pictures of your child online?

A.P.: Yes, I have a daughter and we have a very concise policy about it. FB is for me a medium to communicate with a wider group of friends and acquaintances, but also to a certain extent with my students and other professionals, therefore it’s more of a tool to display information that is related to my work. I do sometimes post stuff that is related to my life, but if it’s my daughter, she is not visible. She is blurred or it is a picture taken from the back. But I do have a private Instagram account and I have posted pictures of our family. This is the way that we decided to do it. I would wish for my daughter to decide if she was to be on Facebook or not. I would like her to make that decision. Maybe there will be no Facebook when she will make this decision or maybe it will be a different social medium…

Maybe she will be disappointed with your decision, because all of her friends will have their childhood pictures online?

A.P.: Maybe they will be unhappy. I rather think that people might be angry that someone disposes their identity. Of course it’s cute and family pictures are always very nice. I’m happy when I see pictures of my friends, and when their family is growing, and I’m happy to be informed, but it’s just that in our case the decision was to keep it low.

I see a recurring theme in your talks: that we need a debate about new technologies, and on our relation to them?

A.P.: Unfortunately the amount of questions are growing each day, a problem is that our exponential technological progress has not been addressed by politicians. Particularly during Poland’s elections and political campaigns. People debate health regulations, education and other things – well, what about this aspect? I noticed that Barack Obama in the US, just before he stepped down, had a series of debates about autonomous cars. What are the benefits of having an autonomous car, what are the problems?

We don’t need that discussion in Poland yet.

A.P.: Well, we will need it soon, and it would be nice to be prepared. Many people are shocked by the impact that technology has upon society. I think that we should have an overarching debate about what we agree on and what we don’t agree on. For instance, there was a debate in many countries, including ours (Poland), related to cloning. So at some point we have decided: we have the technological capacity to make things happen, but ethically and in terms of our social structure we are not prepared for that solution. It’s doable, it can be done in a very limited ways, and each of us won’t have a clone. We have just abandoned that project. I’m sure we will have a debate related to various genome therapies, for instance CRISPR genome editing. This is something that is approaching within 5 or 10 years’ time, there will be possibilities to cure by manipulating the genome. There are rumors that there will even be a possibility to cure Down Syndrome. I don’t think that this is a case at this point, but in the future this is a feasible thing. So before that happens we need to have a debate and clear scope of ideas about where we want to apply this genome therapy, and do we want to, for instance, design our children? Because that would be the ultimate consequence of that. I was quite positively surprised that the European parliament recently had a debate about electronic personas. Most advanced bots and robots that already now demonstrate certain degree of intelligence and their presence and deeds, consequences of their deeds have to be regulated somehow. But the clearest debate that we need to have is on autonomous vehicles. This is something that is totally in the air and we don’t want a situation where the law and regulations won’t be able to keep up. I think that they are already very slow in comparison to the speed of technological development. This is something that needs to be talked about. Like the advancement of highly specialized and highly skilled artificial intelligence, deep machine learning. This is building structures that are already very difficult for people to comprehend. We are creating beings and we don’t know how we are doing it. Deep learning by itself is a new way of machine learning that is training a machine to become better in something. So in that respect deep learning is a black box. We know how to generate certain effects but we don’t know how they happen. In other words, we are creating something that we’re not fully in control of, so we want to know why we want to build artificial intelligence, how we envision our collaboration with these artificial partners? Do we want a society of non-humans and humans? Do we want to ascribe them certain rights, or just responsibilities without rights and then hope that there will be no rebellion or something?

You just lead to my last question, about technology as a hyper reality. We build AI with our rational mind, but to what extent can we predict its behavior, and to what extent can it go beyond our understanding? How intelligent can artificial intelligence become? As a child I was fascinated by Lem’s (Polish sci-fi author – LR) robots’ fairy-tales…

A.P.: These are actually not fairy-tales, this is reality. He turned out to be the most accurate futurist of all. Most of them were wrong. When I’m talk about future debate, I mean talking about the foreseeable future. I’m not that much into predicting the future because that’s usually mistaken – unless you’re Lem. This is not something that we can really grasp. On one hand we know the technological process, and most of the people who are specialists on artificial intelligence wouldn’t be so enthusiastic and optimistic that everything is just around the corner… this super intelligent machine that is going to become our master, rebel against us, and then enslave us or something like that. Most people are skeptical, because what technological development was told us so far is that there are more things that are difficult to recreate in machines than we think. I think that the development of artificial intelligence is very much related to neuroscience, so the question is: what do we know about ourselves? What do we know about how we function? How we cognate, how we are intelligent? Frankly speaking, we don’t know very much and we are at a very early stage. We have improvements in body robotics. We have robots that can cope with various obstacles in reality. Robots are blind to a certain extent, if you can create something that is prepared to a very noisy environment, then this is a big thing. A company called Boston Dynamics has designed robots that are able to move around in an environment that is not mapped, just as we do. That is a big step. But on the other hand, this is just one little piece of who we are and there are so many other necessary steps. When it comes to our affective response, our social intelligence – there are no ideas how to recreate it. We are creating highly specialized artificial intelligence that are actually helping us. We are not yet in a real debate about artificial thinking and living. Many people who are less skeptical about it could tell you: we don’t know how it’s going to emerge, because maybe if you create enough complexity, it will just autonomously emerge out of nowhere within 50 or a 100 years. So we won’t have an evolutionary process. There is a debate within AI that is related to so-called alien thinking. We are now creating systems that are humanoid; we try to recreate something that will mirror us, resemble some of the functions of our ways of being in the world, like algorithmic intelligence, computation intelligence. We are good at math and we can do it. Computers can do it better, but it’s the same kind of intelligence. Yet maybe at some point from the systems that resemble us will emerge something that is alien to us. It will have a different morality, even if we inscribe certain morality in it. With autonomous cars we are already inscribing a morality in machines and this is our morality, based on our failures, on our ways of thinking about how to omit or resolve dilemmas from an ethical perspective and how to go about problematic situations, like an accident. For instance, whom to harm and whom to save. We are creating systems based on the only pattern that we have which is ourselves. But, speculatively thinking, if you have a system in the future that is going to emerge out of and only from an artificial environment or ecosystem, you cannot expect it to be similar to us, and we don’t know what is going to happen. I very much like this movie, maybe you have seen it, “Her”. This is a movie about how we are not going to get into conflict with an artificial intelligence, but it’s just not going to need us. It’s going to create a completely separate layer of reality for itself, so we will ultimately have such different goals, needs, and urges that we just won’t meet. I find this vision better than the vision of war, because I think that every vison of war is our vision. We are beings that are constantly in conflict, constantly creating new conflicts and wars, and we are putting machines into this perspective. This is very limited view. More possible and interesting for me, is the emergence of something so alien that we cannot comprehend. Like in “Solaris” by Lem where you have an ocean that is thinking. This is incomprehensible. But this is the closest as it gets for me to an accurate and yet popular vision of how a machine world could be. Maybe there will be machines which are similar to those today, only to help us. If artificial intelligence par excellence is already there, it will be something completely separate from us. Not necessarily with our desire to kill.

Stephen Hawking, Elon Musk, and other celebrities of the technological world have certain doubts in regards to artificial intelligence. 

A.P.: You know how it was with Stephen Hawking? At the beginning he said that AI is the most problematic thing and most dangerous potentially that humankind has ever created, but a few months later he changed his mind and he said that in fact the biggest problem is capitalism. And I’m not talking about regular capitalism, but speculative capitalism that was tearing various countries apart and created financial crisis, so this wild version of capitalism. Then it’s actually true because if you have technology in the hands of a system that is based on exploitation of others, this is the crucial problem. Especially when you think of huge technological advantage added to it. And again, this is our problem. That we have created, not the machines.

Thank you very much for the conversation.

 

 

ALEKSANDRA PRZEGALINSKA – PhD in philosophy of artificial intelligence, Assistant Professor at Kozminski University, currently Research Fellow at the Center for Collective Intelligence at Massachusetts Institute of Technology (MIT) in Boston. Recent visiting scholar at The New School for Social Research/ Brown University in New York City (2014). In 2011 Aleksandra worked as the Chairman of Media Regulation Working Party at the Council of European Union in Brussels. As a William J. Fulbright Scholar Aleksandra also majored in Sociology at The New School for Social Research in New York (2012), where she participated in research on identity in virtual reality, with particular emphasis on Second Life. Aleksandra’s current primary research interest include consequences of introducing artificial intelligence systems to people’s social and professional sphere as well as wearable technologies and human/bot interaction.

 

Photographer: Lidia Russell.

 

Pictures were taken during “The Human Brain Project” lecture at Swissnex, Boston. More about the event: http://www.swissnexboston.org/event/creating-a-european-research-infrastructure-to-decode-the-human-brain/#sthash.de0ipGXr.dpbs 

Poprzedni artykułBez przedawnienia
Następny artykułSerce dla Julii

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj