Kara dla robota, czy odpowiedzialność producenta oprogramowania?

Wraca temat praw robotów, tym razem w wywiadzie z Andreasem Matthiasem, filozofem, który twierdzi, iż należy opracować specjalny rodzaj prawa karnego dla robotów... A to dlatego, że - jak twierdzi - roboty są coraz bardziej inteligentne (słowo to nie zostało wzięte w cudzysłowy) i potrafią przyswajać sobie wiedzę. Filozof jednak nie odniósł się do tego, czy można robotowi przypisać winę, a także do tego, czy robot (czymkolwiek jest) może kierować się wolną wolą i odróżniać dobro od zła.

Wywiad można przeczytać pod tytułem Kodeks karny dla robotów w Gazecie Wyborczej (a jest to przedruk tekstu, który ukazał się pierwotnie w niemieckim tytule Spiegel). Pytany o rodzaj odpowiedzialności Matthias stwierdza, że mogłaby ona polegać na tym, by robot pokrywał koszty wyrządzonych strat. A tu juz filozof nie dostrzegł, że wcześniej trzeba by się zastanawiać nad kwestiami należącymi do prawa cywilnego, jak możliwość bycia podmiotem praw i obowiązków. Jeśli robot miałby coś pokrywać - jak rozumiem - ze swojego majątku, to taki majątek powinien móc gromadzić, czyli być podmiotem, któremu może przysługiwać prawo własności. Filozof nieco obszedł problem i stwierdził pośrednio, że to jednak nie robot miałby odpowiadać z majątku, a producent, gdyż "będąc pracownikiem maszyna wytwarza pewną wartość - część tej wartości mogłaby wpływać do ubezpieczyciela, który opłacałby ewentualne szkody". Czy jednak zawsze producent korzysta z efektów pracy maszyny? Własność maszyny jest przecież przenoszona na aktualnego jej właściciela, który zyskuje pożytki z jej pracy. Zatem te pomysły - skoro należą do kwestii odszkodowawczej i dotyczą praw własności, związane są raczej z prawem cywilnym, a tytuł "kodeks karny dla robotów" jest - moim zdaniem - całkiem chybiony. Te pomysły raczej powinny nosić tytuł "obowiązkowe ubezpieczenie właściciela od szkód wyrządzonych przez maszynę będącą jego własnością" i mogłoby być bardziej związane z cywilnoprawną odpowiedzialnością na zasadzie ryzyka, podobnie jak odpowiedzialność za prowadzenie przedsiębiorstwa lub za szkody wyrządzone przez mechaniczny środek komunikacji poruszany za pomocą sił przyrody (art. 436 KC).

Do tematu prawa karnego można odnieść jednak inną wypowiedź, która w istocie odnosi się do kary, gdy zapytany przez dziennikarza o to, jak wyobraża sobie karanie maszyny, odpowiada:

- Wbrew pozorom ukaranie maszyny jest możliwe. Jest to po prostu przeprogramowanie.

I dalej:

- Główne cele naszego prawa karnego to po pierwsze resocjalizacja, a po drugie działania prewencyjne. Aby osiągnąć te cele w przypadku maszyn, trzeba po prostu poprawić jakość ich funkcjonowania. Karanie robotów byłoby z pewnością nawet dużo bardziej skuteczne, niż karanie ludzi. Nikt nie może bowiem zagwarantować, że skazany przestępca przejdzie po 5 latach więzienia odnowę moralną i stanie się lepszym człowiekiem. Natomiast przeprogramowana maszyna drugi raz nie popełni tego samego błędu. Nie musimy zamykać robotów w więzieniach, ale jedynie poprawić ich software.

Hmm.... Czy rzeczywiście? Czy poprawienie oprogramowania można uznać za karę dla maszyny? Być może raczej nie jest to - fakt, że nośny medialnie - temat z pogranicza science fiction, a raczej próba wymyślenia mechanizmu odpowiedzialności producenta oprogramowania, który dziś - gdzie to tylko możliwe - zastrzega, że oprogramowanie dostarczane jest "as is" i nie ponosi odpowiedzialności za ewentualne działania tego programu. Kilkakrotnie na łamach tego serwisu problematyka odpowiedzialności (cywilnoprawnej) producenta oprogramowania była już poruszana:

Opcje przeglądania komentarzy

Wybierz sposób przeglądania komentarzy oraz kliknij "Zachowaj ustawienia", by aktywować zmiany.

kara dla młotka

maniak713's picture

Mam wrażenie, że p. Matthias jest na tropie ciekawej koncepcji ale na razie jeszcze daleko od sedna.

Problem widzę w tym, że roboty produkowane obecnie (i te, które pojawią się w najbliższym czasie) nie przekroczyły granicy między rzeczą a istota rozumną. Maszyny nie dokonują wolnego wyboru i nie mają świadomości, więc pomysł ich karania jest IMAO równie sensowny jak karanie pistoletu za to, że zastrzelono z niego kogoś.

Podobna sytuacja jest ze zwierzętami, mimo że posiadają one pewien poziom własnej woli - za działania zwierzęcia odpowiada właściciel, zarówno zresztą za działanie wywołane przez niego (poszczucie psa na kogoś) jak i samodzielne zachowanie zwierzaka (pogryzienie bez szczucia). Roboty dzisiejsze nie mają nawet takiej wewnętrznej wolności, więc czemu miałyby być podmiotem prawa jeśli zwierzęta nie są?

Kwestia odpowiedzialności producenta ulegnie zmianie, jednak dopiero wtedy gdy roboty się pojawią masowo wśród ludzi i dojdzie do różnych wypadków. Wtedy można się spodziewać przepisów wyłączających możliwość wyłączenia odpowiedzialności.

Moim zdaniem nieprędko

Moim zdaniem nieprędko roboty będą w stanie inteligencją zrównać się z człowiekiem. Póki co to co jest powszechnie uznawane za 'inteligentnego' robota to:

  • maszyna wykonująca zaawansowane czynności, biorąca pod uwagę stan otoczenia
  • maszyna imitująca pewne ludzkie zachowania

W obu przypadkach mamy jednak do czynienia z pewnym zakodowanym algorytmem, którego robot nie jest w stanie sam zmienić inaczej niż przez dopasowanie parametrów, które również odbywa się na zasadzie jakiegoś algorytmu. Nawet jeżeli wydaje się, że — przywołany powyżej — automatyczny odkurzacz jest inteligentny, gdyż potrafi sam zadecydować czy sprzątać, to tak naprawdę inteligentny jest zaprojektowany przez kogoś algorytm, który biorąc za wejście różne stany czujników odpowiada akcją sprzątania lub spoczynku.

Nie ma jednak wątpliwości, że algorytmy — a wraz z nimi maszyny — będą coraz bardziej skomplikowane. Obecnie za usterki - także w algorytmie sterującym zachowaniem maszyn - odpowiada zazwyczaj producent. Skala tej odpowiedzialności jest jednak rozmyta w zależności od statusu urządzenia. Jeżeli mój system operacyjny stwierdzi, że należy ustawić dziwne parametry napięcia, w skutek czego fizycznie spali jakiś układ, to — zgodnie z licencją — nie dostanę żadnej rekompensaty. Gdy jednak zepsuje się w podobny sposób pralka, to obejmuje mnie gwarancja na pralkę jako całość. W gruncie rzeczy nie trudno wyobrazić sobie, że pralki są sterowane jakimś wymiennym systemem WinPralka, Pralkox czy iPralka, który już obejmuje licencja na uruchomienie go na pralce. Gdzie będą plasowały się inteligentne roboty?

Druga kwestia: skoro chcemy przydzielić robotom prawa, powinniśmy umieć ocenić kiedy robot jest wystarczająco skomplikowany, by mieć prawa, a też jakie prawa mu przysługują. Osobiście uważam, że człowiek nie jest wyjątkowy wśród zwierząt, od których oddziela go jedynie stopień zaawansowania/rozwoju. Jeżeli przyjąć taki wariant to technicznie robota o inteligencji psa nie dzieli wiele od takiego o inteligencji człowieka (lub nawet wyższej!). Nie ma obecnie żadnego mechanizmu, który by to oceniał. (Choć oczywiście można myśleć o różnych rodzajach testów, np o modyfikacji testu Turinga, w którym musimy rozróżnić pomiędzy psem żywym a sztucznym.) W rzeczywistości obecne mechaniczne psy mają raczej inteligencję rośliny niż ssaka. Nawet boty konwersujące w sieci wydają się ludzkie jedynie dzięki połączeniu pewnych algorytmów z dużą bazą danych. Jak ocenić bota, który rozwiąże CAPTCHA w tym serwisie, skoro to będzie jedyna jego funkcja? Jeżeli też będzie potrafił grać w szachy? Albo poplotkować o ciuchach?

Po trzecie, pozostaje kwestia systemów uczących się. Na dzień dzisiejszy taki system potrafi jedynie odświeżać swoją bazę wiedzy, z której wynika jego działanie. Nawet jeżeli odbywa się to w nie do końca deterministyczny sposób, to jest to coś zaprojektowanego przez człowieka. Wydaje mi się, że daleko jeszcze sztucznej inteligencji (jako nauce) do stworzenia programu, który będzie mógł zmienić (i to wytworzyć, a nie podmienić na gotowy) algorytm, rządzący całym sterowaniem (nawet zmienić algorytm zmiany algorytmu). Może taki nigdy nie zostanie wymyślony, a jedyną ścieżką rozwoju robotów będzie ewolucja wybierająca najlepsze (ale względnie statyczne) algorytmy?

Skoro też maszyna potrafiłaby tworzyć algorytmy - to prawdopodobnie potrafiłaby też układać utwory artystyczne. Skoro jednak życie robota zależy głównie od stanu baterii i części składowych, a śmierć bardzo trudno ocenić, to jaką miałby ochronę praw autorskich? A może miałby twórca algorytmu? Producent? Mechaniczny ZAIKS?

Dyskusję można toczyć na bardzo wielu płaszczyznach, ale moim zdaniem wszelkie kodyfikacje praw dla robotów jeszcze należy rozważać w kategorii science-fiction.

Człowiek także jest programowany, całe życie.

Możliwe, że nieprędko to nastąpi. Szkoda tylko, że jakimś dziwnym trafem umyka większości ludzi drobny szczegół. Te algorytmy są niczym innym jak transpozycją czynności na ciąg poleceń. Linearną transpozycją. Zaiste, zastanawiającym jest, że algorytm skorzystania z urządzeń łazienki, uważany jest za edukację lub samo-edukację człowieka, a nie za programowanie małego człowieka przez dużego człowieka! Przecież duży człowiek uczy małego człowieka jak ma funkcjonować. Co z tego, że mały człowiek nie ma guzików czy pokręteł. Wchłania określoną informację, uzyskując w ten sposób określoną umiejętność. Różnica polega jednak na tym, że maszyna nie dokona modyfikacji algorytmu tylko dlatego, że jest ciekawa "jak to będzie?".

Warto zwrócić uwagę, że algorytmy stanowią konstrukcję zamkniętą, bez opcji dowolnej modyfikacji. Natomiast algorytmy "wtłaczane do głów" są poddawane nawet bezsensownym modyfikacjom. W przypadku ludzkim nie ma możliwości zablokowania bezproduktywnego kreowania nowych rozwiązań metodami empirycznymi.

Maszyny nie bawią się w empiryzm, z założenia bowiem autor algorytmu twierdzi, że jego program jest bezbłędny. Przypadki błędów wychowawczych, mogą być doskonałym przykładem jak bardzo upraszcza się algorytmy celem uzyskania efektu. W momencie gdy maszyny uzyskają tak złożony arsenał narzędzi badawczych (zmysłów) jaki ma człowiek, to trudno przewidzieć co zrobią, wiedzione algorytmem badawczym. Każdy algorytm pozbawiony warunków ograniczających, może spowodować nieprzewidywalne szkody. Dla przykładu, może to być zepchnięty ze schodów człowiek, aby empirycznie doświadczyć skali obrażeń żywej tkanki, celem porównania trwałości konstrukcji.

Ograniczenia w przypadku ludzi nakładają konsekwencje wynikłe ze skutków realizacji algorytmu w określony sposób. Przykładem może być u dziecka klaps na dostrojenie percepcji poleceń (komend) wydanych przez rodziców (sterownik).

Maszyny ogranicza póki co ich konstrukcja, ale również algorytm. Trudno jest bowiem badać coś nie posiadając czegoś, a mając wiedzę, że nie potrafi się tego czegoś zbudować ani znaleźć. Ponadto maszyny ogranicza jeszcze ich niewiedza, że jest coś poza tym co wiedzą. Ale to już problem wynikający z konstrukcji algorytmu w sposób ściśle określający zachowanie na wypadek napotkania końca funkcji czy procedury.

Problem kreowania świadomości jest problemem złożonym, aczkolwiek nie niemożliwym. Kwestia wydajności algorytmów i procesorów.

Pozdrawiam.

Już fakt, że o tym

Już fakt, że o tym dyskutujemy oznacza, że właśnie wyszliśmy z domeny scifi. Pytanie pomocnicze: Czy postać z Second Life, sterowana w 100% przez skrypt (czyli soft-robota), która popełni w tym świecie przestępstwo powinna odpowiadać tak jak postać sterowana przez człowieka? :) Może powinien odpowiadać autor skryptu? Jeśli tak to gdzie wyznaczymy granice po przekroczeniu której programista będzie już tylko Stwórcą? Kiedy skrypt sam napisze skrypt? :)

O grach w dziale gry

VaGla's picture

Na temat gier jest nieco materiałów w dziale gry, a tam m.in. Piętrowe relacje wirtualno realne w drugim życiu, Smok i czarodziej też muszą płacić podatki? czy Wirtualna rewolucja Second Life Liberation Army, ale nade wszystko Umowa o przeniesienie prawa do korzystania z awatarów i artefaktów
--
[VaGla] Vigilant Android Generated for Logical Assassination

(...)"obowiązkowe

BoBsoN's picture

(...)"obowiązkowe ubezpieczenie właściciela od szkód wyrządzonych przez maszynę będącą jego własnością"(...)

Gdy czytam takie coś, to od razu zapala mi się alarm "uwaga - będzie nowy podatek".

Kontekst beletrystyczny i inne

Już w latach 50-tych bardzo ciekawe spostrzeżenia na ten temat poczynił Isaac Asimov, osnuwając fabułę swoich powieści wokół odpowiedzialności karnej robotów, oraz szerzej - traktowania SI pod względem prawnym identycznie jak ludzi.

Warto również przypomnieć genezę słowa robot, które oznacza podobno w języku czeskim robotnika pracy przymusowej. Określenie to zostało spopularyzowane w kontekście maszyn przez Karela Capka w jego sztuce "R.U.R." (Roboty Uniwersalne Rossuma), której premiera miała miejsce w Pradze w roku 1921! Sztuka opowiada o buncie robotów pracujących w fabryce i odwecie, jaki wzięli na ludziach za wykorzystywanie ich do pracy.

I jeszcze:

Koreański rząd obecnie pracuje nad stworzeniem dokumentu regulującego prawa robotów. Również w Wielkiej Brytanii Sir David King, główny doradca naukowy rządu Jej Królewskiej Mości uważa, że gdy w przyszłości zostaną stworzone czujące roboty należy dać im te same prawa co ludziom. Opinia taka została wyrażona w dokumencie przygotowanym przez firmę konsultująca Outsights oraz zajmującą się badaniami opinii publicznej Ipsos Mori. Dokument dotyczy Wielkiej Brytanii w roku 2056, a jego autorzy stwierdzili, że do tego czasu roboty posiadające uczucia mogą być czymś powszechnym. Czytamy w nim, że jeśli kiedyś rzeczywiście powstanie SI, trzeba będzie przyznać wyposażonym w nią urządzeniom takie prawa i obowiązki jak ludziom. Roboty miałyby więc prawa wyborcze, płaciłyby podatki i służyły w wojsku. Jeśli przyznamy im pełnię praw, to państwa będą zobowiązane do zapewnienia im wszelkich korzyści wynikających z przynależności do społeczeństwa, a więc prawa do pracy, zamieszkania oraz prawa do opieki zdrowotnej dla robotów, polegającej na ich naprawie.

(Źródło: Etyka Robotów - Wikipedia)

Piotr VaGla Waglowski

VaGla
Piotr VaGla Waglowski - prawnik, publicysta i webmaster, autor serwisu VaGla.pl Prawo i Internet. Członek Rady ds Cyfryzacji przy Ministrze Cyfryzacji, ekspert w Departamencie Oceny Ryzyka Regulacyjnego Ministerstwa Rozwoju, felietonista miesięcznika "IT w Administracji" (wcześniej również felietonista miesięcznika "Gazeta Bankowa" i tygodnika "Wprost"). Uczestniczył w pracach Obywatelskiego Forum Legislacji, działającego przy Fundacji im. Stefana Batorego w ramach programu Odpowiedzialne Państwo. W 1995 założył pierwszą w internecie listę dyskusyjną na temat prawa w języku polskim, Członek Założyciel Internet Society Poland, pełnił funkcję Członka Zarządu ISOC Polska i Członka Rady Polskiej Izby Informatyki i Telekomunikacji. Był również Członkiem Rady Informatyzacji przy MSWiA, członkiem Zespołu ds. otwartych danych i zasobów przy Komitecie Rady Ministrów do spraw Cyfryzacji oraz Doradcą społecznym Prezesa Urzędu Komunikacji Elektronicznej ds. funkcjonowania rynku mediów w szczególności w zakresie neutralności sieci. W latach 2009-2014 Zastępca Przewodniczącego Rady Fundacji Nowoczesna Polska, w tym czasie był również Członkiem Rady Programowej Fundacji Panoptykon. Więcej >>