Czy powinniśmy wprowadzić prawa robotów?

1 czerwca 2020
hello world!

Sztuczna inteligencja (SI) rozwija się w szybkim tempie i towarzyszy nam w codziennym życiu. Zmienia i usprawnia je na wielu płaszczyznach – dzięki ulepszeniu opieki zdrowotnej (np. poprzez bardziej precyzyjną diagnostykę), zwiększeniu wydajności rolnictwa czy poprawie bezpieczeństwa. Biorąc pod uwagę zachodzące zmiany, całkiem realne wydają się dylematy co do ochrony tworów posługujących się tzw. „mocną SI”.

Czym jest sztuczna inteligencja?

Najpierw należałoby postawić sobie pytanie: czym tak właściwie SI jest. Intuicyjnie każdy wie, kiedy ma do czynienia ze sztuczną inteligencją. Ze względu na dynamiczny charakter badań sformułowanie jednej oficjalnej definicji jest trudne i wciąż nie została ona wprowadzona. Według jednej z zaproponowanych SI to dziedzina nauki zajmująca się badaniem mechanizmów ludzkiej inteligencji oraz modelowaniem i konstruowaniem systemów, które są w stanie wspomagać lub zastępować inteligentne działania człowieka. Otwieramy jednak drzwi do kolejnego skomplikowanego zagadnienia, jakim jest sama „inteligencja”.

Czym jest inteligencja?

Dawniej inteligencję sprowadzano do zdolności czysto intelektualnych. Współcześnie mamy do czynienia z wieloma  jej typami. Jeden z podziałów przewiduje, że istnieje inteligencja:

  • kognitywna (abstrakcyjna) – umiejętności analizowania, wykorzystania własnej wiedzy i zdobytych informacji. Obejmuje zdolność kojarzenia faktów, przeprowadzania operacji prostych przekształceń językowych, a także dokonywania operacji logicznych. Podstawowym sprawdzianem inteligencji kognitywistycznej jest skuteczność podejmowania decyzji w codziennych sytuacjach;

<Na przykład: odkręciliśmy kran, którego uchwyt ustawiony był maksymalnie w stronę czerwonego pola. Zaczęła lecieć woda. Wiemy, że kolory pola oznaczają temperaturę, wysoka temperatura jest przypisana do koloru czerwonego, a woda potrzebuje chwili, aby ją zmienić. Nie wkładamy ręki od razu pod strumień, żeby uniknąć poparzenia.>

  • werbalna – zdolność formułowania wypowiedzi, znajdowania odpowiednich słów, dobrego rozumienia tekstu;
  • twórcza – zdolność do generowania nowych pojęć lub ich nieoczekiwanych połączeń;
  • emocjonalna – przede wszystkim oparta na umiejętności radzenia sobie z własnymi emocjami, nazywania ich oraz zauważania oraz wpływania na emocje innych. Wiążą się z nią takie umiejętności umysłowe jak empatia i asertywność;
  • społeczna – pokrewna inteligencji emocjonalnej zdolność przystosowania się i wpływania na środowisko społeczne człowieka.

Wiemy, że SI będzie ciężko nam dorównać w dwóch ostatnich przykładach, które zostały wymienione. Jednak podstawowe zdolności – wymieniane jako składające się na inteligencję według wielu definicji – możemy przypisać także sztucznej inteligencji. Są to przede wszystkim:

  • zdolność uczenia się,
  • umiejętność rozwiązywania problemów,
  • przetwarzanie informacji.

Upraszczając więc, istota SI skupia się na naśladowaniu lub wspomaganiu inteligencji ludzkiej. Przedmiotem badania są reguły rządzące inteligentnymi zachowaniami człowieka i próby wykorzystania ich w algorytmach (na przykład poprzez programy do rozpoznawania tekstów, w tłumaczeniach). Nie jest jeszcze jednak w stanie dorównać nam w rozpoznawaniu emocji i sprawach wymagających intuicji, wychodzących poza ramy zwykłych ciągów przyczynowo-skutkowych. Czy będzie do tego zdolna w przyszłości?

Rozwój sztucznej inteligencji

Ciężko znaleźć dziedzinę, do której rozwoju nie przyczyniła się sztuczna inteligencja. SI komponuje utwory, pomaga w wydawaniu wyroków, wspiera lekarzy w analizie, diagnozowaniu oraz monitorowaniu leczenia pacjentów. Przykłady można mnożyć. Już w 2016 roku Sony CSL Research Laboratory opublikowało stworzony przez SI utwór “Daddy’s Car”. Zaś naukowcom ze Stanford University udało się opracować algorytm, który w ciągu dwóch miesięcy nauczył się rozpoznawać 14 chorób na podstawie zdjęć RTG płuc. Z diagnozą zapalenia płuc poradził sobie lepiej niż radiolodzy. W 2019 nasz kraj zalały informacje o tym, że rząd estoński opracowuje system sztucznej inteligencji, który będzie podejmował autonomiczne decyzje w sprawach sądowych dotyczących drobnych przestępstw. Rozwój SI niewątpliwie będzie więc miał wpływ na jakość życia. Zmusi nas także do przeorganizowania pewnych sfer, które dotychczas zarezerwowane były tylko dla ludzi. Najczęstsza obawa z tym związana polega na ryzyku utraty pracy na rzecz SI.

Przeczytaj również: Sztuczna inteligencja - czy rzeczywiście nam zagraża?

Czy roboty zabiorą nam pracę?

Gdy przyjrzymy się historii i odniesiemy do niej obecne tempo rozwoju, łatwo odkryjemy, że nigdy jeszcze nasz świat nie zmieniał się tak dynamicznie. Wydajność silników parowych zwiększyła się dwukrotnie po około 70 latach od wynalezienia. Dla porównania, wydajność komputerów podwaja się co półtora roku. Automatyzacja obejmuje znacznie więcej gałęzi gospodarki niż rewolucja przemysłowa. Nowy rynek pracy kształtujący się w wyniku czwartej rewolucji przemysłowej oferuje zarówno wyzwania, jak i szanse. Następuje bezprecedensowe przekształcenie globalnych rynków pracy, jej efektywność rośnie, a świat stoi u progu zjawiska określanego przez niektórych jako „gospodarka współużytkowania”. Zjawisko bazuje na skłonności ludzi do współpracy i dzielenia się swoim czasem oraz zasobami. W przeszłości taka forma współpracy ograniczała się jedynie do wąskiego grona - dzieliliśmy się owocami naszej pracy z rodziną czy znajomymi. Obecnie – dzięki masowej produkcji, rozwojowi handlu i usług oraz silniejszej migracji – schemat ten przejęły przedsiębiorstwa i instytucje (np. publiczne). 

Do pracy potrzeba więc coraz mniejszych zasobów ludzkich, a jej owoce są łatwo dostępne globalnie. Nie wróży to dobrze. Jak wynika z analiz Światowego Forum Ekonomicznego, w ujęciu globalnym już dziś na każde 100 godzin pracy średnio 29 to praca maszyn. W 2025 liczba ta ma wzrosnąć do 52. Głośny raport z 2013 roku pod tytułem „The Future of Employment” przewidywał że 47 proc. zawodów jest „podatnych na komputeryzację”. Nie oznacza to jednak, że prawie połowa zawodów zniknie. Podatność, o której mowa, to wysokie prawdopodobieństwo częściowego przejęcia obowiązków przez komputery. Nie jest to jednak równoznaczne z automatyczną likwidacją stanowisk. Strona internetowa “WILL ROBOTS TAKE MY JOB?" może pomóc wielu osobom odnaleźć odpowiedź na pytanie dotyczące przyszłości ich zawodu. W specjalnej wyszukiwarce możemy wpisać wykonywany przez nas zawód i dowiedzieć się, jakie jest ryzyko, że zostaniemy zastąpieni. W czołówce zagrożonych posad znajdziemy m.in. kierowców, sprzedawców czy analityków kredytowych.

Nie taka automatyzacja straszna

Według badań zamieszczonych w „The Future of Jobs 2018”, raporcie ze Światowego Forum Ekonomicznego, 75 milionów miejsc pracy może zniknąć w następstwie rozwoju nowych technologii. Ta informacja może wydawać się straszna, dalsza część raportu działa jednak uspokajająco. W tym samym czasie bowiem przewiduje się powstanie 133 milionów nowych ról, które będą bardziej dostosowane do nowego podziału pracy między ludźmi a maszynami. Chociaż szacunki, o których mowa, a także związane z nimi założenia, należy traktować ostrożnie ze względu na ich globalny charakter, są one użyteczne w podkreślaniu wagi strategii adaptacyjnych, które należy wprowadzić, aby zmiany działały na korzyść ogółu.

Na jakie zawody możemy liczyć?

Według prognoz Polskiej Agencji Rozwoju Przedsiębiorczości rok 2020 będzie czasem specjalistów. Poszukiwani będą pracownicy na rynku informatycznym i telekomunikacyjnym, a także osoby, których praca związana jest z biotechnologią, energetyką oraz nanotechnologią.

Ogółem zawody przyszłości są związane z branżą IT, technologiami kosmicznymi czy robotyką, ale przyszłościowymi kierunkami są też te skoncentrowane na pomocy drugiemu człowiekowi, jak medycyna czy psychologia. To obszary, w których ceniona jest empatia, a tego u robotów – przynajmniej na razie – próżno szukać. Zdecydowanie trudniej też zautomatyzować zawody kreatywne.

Nowe miejsca pracy

World Economic Forum szacuje, że 65 proc. dzieci urodzonych po 2007 roku będzie pracować w zawodzie, który obecnie jeszcze nie istnieje.

Przykładowe stanowiska, na utworzenie których możemy więc liczyć w przyszłości to:

  • kierownik dronów,
  • kontroler ruchu powietrznego (związana z rozpowszechnianiem się dronów),
  • mechanik pojazdów automatycznych,
  • specjalista ds. integracji technologii i człowieka,
  • towarzysz osób starszych,
  • broker danych osobistych.

Słaba a silna sztuczna inteligencja

Oprócz strachu przed utratą pracy często towarzyszy nam skutecznie wzmagana przez masę filmów i seriali obawa przed buntem robotów. Według typowego scenariusza wkrótce SI dorówna człowiekowi, później go przewyższy, by następnie zniszczyć. Przed nami jeszcze długa droga, na razie nie udało nam się bowiem stworzyć tak zwanej silnej sztucznej inteligencji (ang. Strong AI).

Silna (ogólna) sztuczna inteligencja opiera się na założeniu, że możliwe jest, by stworzone przez człowieka systemy potrafiły samodzielnie myśleć i dorównywać człowiekowi w wykonywaniu nowych, nieznanych im wcześniej zadań. Według amerykańskiego filozofa Johna Searle dla silnej SI „komputer nie jest jedynie narzędziem do studiowania działania umysłu, raczej odpowiednio zaprogramowany komputer jest w rzeczywistości umysłem".

Naukowcy dążą więc do stworzenia systemu zdolnego do zrozumienia otaczającego świata. Ma on posiadać zdolność uczenia się i działania, która dorówna ludziom, a z czasem ich prześcignie. Moment, w którym to nastąpi, to tzw. technologiczna osobliwość (ang. singularity). Definiujemy ją jako hipotetyczny punkt stworzenia superinteligentnej maszyny, której postępowania i rozwoju nie będziemy w stanie przewidzieć. Czołowy transhumanista, Ray Kurzweil, w swoich futurystycznych prognozach przewiduje, że technologiczna osobliwość nadejdzie do roku 2045.

Ze słabą sztuczną inteligencją (Week/Narrow Artificial Intelligence) mamy do czynienia na co dzień. Siri, Google Assistant, Tesla, Google Translator, Alexa. Przykłady możemy mnożyć. Funkcjonowanie SI polega na koncentrowaniu się na jednym określonym zadaniu, które jest w stanie wykonać lepiej od człowieka. 

Chiński pokój

Nie wszyscy zgadzają się z opisaną wcześniej teorią mocnej SI. Jej przeciwnicy posługują się argumentem chińskiego pokoju. Jest to eksperyment myślowy, który zaprezentował i opisał w swojej pracy pt. "Minds, Brains, and Programs" John Searle.

Miał on pokazać, że nawet skuteczne symulowanie rozumu przez komputer nie jest tożsame z posiadaniem prawdziwego rozumu. Wykonywanie określonych zadań (np. obliczeniowych) nie musi opierać się na rozumieniu ich przez wykonawcę.

Eksperyment opierał się na tym, że w zamkniętym pokoju znajdowała się osoba A, która nie znała języka chińskiego. Na zewnątrz była natomiast osoba B, która znała go biegle. Osoba B zapisała na kartce w języku chińskim pytanie i wsunęła ją pod drzwiami. A zobaczyła znaki. Brak znajomości chińskiego uniemożliwił zrozumienie wiadomości od B. A miała jednak książkę, w której zapisano reguły. Określały one, co trzeba napisać w odpowiedzi na dany zbiór znaków. Osoba A porównała znaki i zastosowała reguły z instrukcji. Przestrzeganie angielskich instrukcji dla manipulowania chińskimi znakami to zobrazowanie sposobu, w jaki komputer „przestrzega” programu napisanego w języku obliczeniowym. Osoba B, czytając wiadomość zwrotną od A, jest przekonana, że A zna język chiński. Tymczasem działanie A było prostym podstawieniem danych do wzoru.

Według Searla mocna AI jest fikcją, jako że  zaprogramowane komputery (albo same programy) nie mogą mieć zdolności ludzkich. Jedynie je naśladują.

Sztuczna inteligencja a algorytmy

Algorytm to w uproszczeniu ciąg czynności, które trzeba wykonać, żeby osiągnąć cel. Jego zadaniem jest przeprowadzenie systemu z pewnego stanu początkowego do pożądanego stanu końcowego. Algorytm można wdrożyć w postaci programu komputerowego.

Sztuczna inteligencja jest zbiorem wszystkich algorytmów, które mogą rozwiązywać problemy w nieprzewidzianych okolicznościach. Komputer postępuje według ustalonych reguł. Algorytmy są dla niego czymś w rodzaju mapy, którą śledzi, aby wyjść z nowej sytuacji, w której się znalazł. Za przykład może posłużyć nam gra w szachy – zagrywki przeciwnika mogą być dla SI nowe, nie jest ona w stanie przewidzieć wszystkich jego ruchów, grając jednak według określonego schematu, komputer jest w stanie odpowiadać na nowe informacje, tak aby wyjść z gry zwycięsko. 

Sztuczna inteligencja jest zbiorem wszystkich algorytmów, które mogą rozwiązywać problemy w nieprzewidzianych okolicznościach. Dla porównania, kółko i krzyżyk to jeden algorytm min-max. Komputer ma zbiór zasad i wie, jak grać, a nawet, jak grać, by wygrać. Ale autonomiczny samochód ma już wiele algorytmów, które pomogą mu dojechać do celu. Samochód autonomiczny „nie wie”, co może spotkać na drodze. Czeka go zmiana świateł, kręta droga, piesi, inne samochody itp. Droga jest nieznana, ale dzięki wielu algorytmom z sukcesem pokonywana. Jeden algorytm by sobie z tym nie poradził.

Sztuczna inteligencja a roboty

Według definicji zawartej w słowniku języka polskiego PWN robot jest to „urządzenie, które zastępuje człowieka przy wykonywaniu niektórych czynności". Dokładniej – maszyna, w szczególności system komputerowy, w którym program steruje dowolnymi częściami komputera w celu wykonania określonego zadania. Według oryginalnego znaczenia terminu robot jest kontrolowany przez sztuczną inteligencję (lub wręcz z nią tożsamy). Obecnie to pojęcie używane jest także w odniesieniu do urządzeń kontrolowanych przez algorytmy lub człowieka. W najszerszym znaczeniu robotem nazywa się dowolny program komputerowy automatyzujący pewne zadania. Robotyka (zajmująca się projektowaniem i konstruowaniem robotów) jest zaliczana do nauk o sztucznej inteligencji.

Sztuczna inteligencja

Czy roboty powinny mieć swoje prawa?

25 października 2017 r. to data przełomowa w historii robotów. Właśnie wtedy po raz pierwszy maszynie przyznano obywatelstwo. Szczęśliwa obywatelka to Sophia, humanoidalny robot, wyprodukowany przez firmę Hanson Robotics. Potrafi uczyć się, dostosowywać do ludzkich zachowań, pracować z ludźmi, a także oczarować tłumy swoim poczuciem humoru. Obywatelstwo przyznał jej Król Arabii Saudyjskiej podczas kongresu Future Investment Initiative. Tym samym Sophia stała się pierwszym robotem, który otrzymał obywatelstwo jakiegokolwiek kraju. Jest to element akcji promocyjnej, nieprzemyślany gest czy może zapowiedź przyszłej praktyki?

Moralność sztucznej inteligencji

Wielu entuzjastów nowych technologii uważa, że maszyny wyposażone w zmysł moralny stanowią przyszłość inteligentnej robotyki. Sprzeciw wobec tego zgłaszają głównie filozofowie i etycy. Główne argumenty dotyczą zwykle tego, że roboty – w przeciwieństwie do ludzi – są odgórnie zaprogramowane. Co za tym idzie, nie posiadają wolnej woli, która cechuje człowieka.

Argumentem zwolenników moralności robotów jest stwierdzenie, że wolna wola to złudzenie, a ludzkie zachowanie jest wypadkową czynników, z których często nawet nie zdajemy sobie sprawy. Wymieniane są tutaj normy społeczne, wychowawcze, biologia czy geny. Niewątpliwie możemy zauważyć, że podejście do moralności zmienia się w zależności od epoki, w której żyjemy i kultury, w której dorastamy.

Zwolennicy obdarzania robotów moralnością twierdzą, że rozwój robotyki i sztucznej inteligencji doprowadzi w niedługim czasie do sytuacji, w której maszyny będą funkcjonować w sytuacjach moralnie wrażliwych (np. w szpitalach czy w szkołach). Dlatego też powinno się prowadzić prace nad umożliwieniem im moralnego rozumowania i podejmowania decyzji w tym zakresie bez bezpośredniego udziału człowieka.

Prawa robotów Asimova

Isaac Asimov jest jednym z najsławniejszych pisarzy nurtu science-fiction. W 1942 roku stworzył on trzy prawa robotów i przedstawił je w fantastycznym opowiadaniu "Zabawa w berka" (ang. Runaround). Celem tych praw było uregulowanie kwestii stosunków pomiędzy przyszłymi myślącymi maszynami a ludźmi.
Przewidywały one, że robot:
  1. nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Następnie w opowiadaniu Roboty i Imperium (Robots and Empire) Asimov dodał prawo zerowe, które stało się nadrzędne wobec trzech pozostałych:

0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Choć brzmi to abstrakcyjnie, biorąc pod uwagę dynamiczny rozwój SI, coraz bardziej potrzebne wydaje się dokładne uregulowanie jej sytuacji prawnej. Próby dokonania tego nie skończyły się na Asimovie. Współcześnie sprawą postanowiła się zająć także m.in. Komisja Europejska.

Propozycje regulacyjne Unii Europejskiej

Według Komisji Prawnej Parlamentu Europejskiego rozwiązanie prawne zastosowane do kwestii odpowiedzialności robotów i SI w przypadkach innych niż szkody materialne nie może w jakikolwiek sposób ograniczać rodzaju lub zakresu szkód, za które można uzyskać odszkodowanie. Nie powinno również ograniczać form odszkodowania oferowanego osobie poszkodowanej wyłącznie dlatego, że przyczyną szkody był czynnik pozaludzki.

Przyszły instrument prawny powinien być oparty na szczegółowej ocenie przeprowadzonej przez Komisję w celu określenia, czy należy zastosować odpowiedzialność na zasadzie ryzyka, czy też podejście zakładające zarządzanie ryzykiem.

Najlepiej problem takiej odpowiedzialności można pokazać na przykładzie autonomicznych samochodów.

Zdaniem dra Mateusza Wolińskiego, specjalisty ds. prawa karnego z Akademii Leona Koźmińskiego, odpowiedzialność w takiej sytuacji powinien ponosić wobec poszkodowanego zakład ubezpieczeń, co nie musi wykluczać dokonania wewnętrznych rozliczeń pomiędzy zakładem ubezpieczeń a ubezpieczającym, który np. używał przedmiotu w sposób niezgodny z przeznaczeniem albo wadliwie.

W przyszłości staniemy przed koniecznością uregulowania stawek ubezpieczenia pojazdów autonomicznych. Prawdopodobnie będą one znacznie niższe niż teraz – samochody autonomiczne mają bowiem odpowiadać za o wiele mniej wypadków.

Komisji Prawna Parlamentu Europejskiego zastrzega, że wszelkie decyzje polityczne dotyczące zasad odpowiedzialności cywilnej robotów powinny być podejmowanie rozważnie i po uprzedniej konsultacji z ekspertami.

Warto wspomnieć, że 19 lutego 2020 roku Komisja Europejska rozpoczęła publiczne konsultacje propozycji działań wyznaczających przyszły kierunek unijnych regulacji i inicjatyw w dziedzinie sztucznej inteligencji (White Paper on AI). W dokumencie podkreślono, że Unia chce stawiać na nowe technologie, ale patrząc przez pryzmat wartości (takich jak poszanowanie godności człowieka) oraz jego praw. 

„Biała Księga" nie jest aktem prawnym, ale zbiorem propozycji działań, które wyznaczają przyszły kierunek unijnych regulacji i inicjatyw w dziedzinie sztucznej inteligencji. To właśnie czyni ten dokument szczególnie godnym uwagi.

Przeczytaj również: KE przygotuje normy etyczne i nowe prawo dla sztucznej inteligencji

Polskie podejście

W sierpniu 2019 ogłoszone zostały konsultacje społeczne projektu Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027.

W dokumencie zamieszczonym na gov.pl znajdujemy informację o konieczności inwestowania w rozwój sztucznej inteligencji. Znajdziemy tam również odniesienie do zagadnienia przysługiwania SI osobowości prawnej:

Polska stoi na stanowisku i popiera te kraje, które odmawiają nadania systemom AI statusu obywatelstwa czy osobowości prawnej. Koncept ten jest sprzeczny z ideą Human Centric AI oraz stanem rozwoju systemów AI, a wreszcie wyższego statusu zwierząt nad maszynami. Nadto, Polska opowiada się za koncepcją supremacji człowieka nad systemami AI, a przez to odpowiedzialnością ludzką osobistą lub osób prawnych, których człowiek jest założycielem i zarządcą. Reżim prawa prywatnego międzynarodowego również nie powinien dopuścić czynnego udziału typu sztucznej-inteligentnej osoby prawnej w obrocie prawnym.

Przyszłość sytuacji prawnej SI

W opinii Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych z 2016 roku wybrzmiewa zapowiedź regulacji;

[Komisja] uważa, że w razie potrzeby unijne ramy prawne powinny zostać zaktualizowane i uzupełnione podstawowymi zasadami etycznymi dotyczącymi projektowania, inżynierii, testowania oraz zastosowania robotów i sztucznej inteligencji (...)

Komisja zauważa także, że robotyka i sztuczna inteligencja, zwłaszcza z wbudowaną autonomią, w tym zdolnością do uzyskiwania, gromadzenia i wymieniania szczególnie wrażliwych informacji, oraz możliwością samodzielnego uczenia się, czy wręcz rozwojowej samodzielnej zmiany, powinny podlegać rygorystycznym konceptualnym przepisom lub zasadom, takim jak zasada, że robot nie może zabić człowieka ani jemu szkodzić oraz że musi być posłuszny człowiekowi i podlegać jego kontroli. Ponadto grupa robocza Komisji Prawnej Parlamentu Europejskiego stwierdziła, że niektóre maszyny powinny zyskać status elektronicznej osoby. Ze wszystkimi wynikającymi z tego prawami i obowiązkami. Chciałaby też stworzenia rejestru takich robotów. Informowałyby one, kto odpowiada za maszyny i kto opłaca za nieubezpieczenie od odpowiedzialności cywilnej.

Prawa Asimova przez dekady przyświecały projektantom robotów. Teraz być może nadszedł czas na ich "odświeżenie" i ponowną ocenę skuteczności. W związku z dynamicznymi przemianami i przełomowymi osiągnięciami, jakie dokonują się w obszarze badań nad sztuczną inteligencją w Europie i na świecie, ważne wydaje się otwarcie dyskusji nad regulacjami sytuacji prawnej maszyn, których wykorzystanie weszło już do naszego życia codziennego i z pewnością w większości w nim pozostanie.

Źródła:

The Future of Jobs Report 2018

WILL ROBOTS TAKE MY JOB?

 http://www.nickbostrom.com/papers/survey.pdf

BIAŁA KSIĘGA w sprawie sztucznej inteligencji

Polska droga do Strategii AI

chevron-down
Copy link