
Rozwój automatyzacji i systemów autonomicznych przynosi niezaprzeczalne korzyści – firmy obniżają koszty działania, podnoszą wydajność i jakość dostarczanych produktów i usług. W teorii i w skali mikro – wszyscy są zadowoleni, jednak w ujęciu globalnym sprawa nie przedstawia się już tak różowo.
W 1942 roku amerykański pisarz i biochemik Isaac Asimov w swoim opowiadaniu „Zabawa w berka” sformułował powielane wielokrotnie później w literaturze i kinematografii tak zwane prawa robotów. W kontekście futurologicznych przewidywań określały one podstawowe zasady, jakimi miały się kierować w działaniu inteligentne i samoświadome roboty:
- Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Znacznie później, bo dopiero w 1985 roku, ten sam autor w powieści „Roboty i Imperium” sformułował dodatkowe prawo nadrzędne do trzech uprzednich:
- Robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Z faktu odniesienia się do dobra całej ludzkości można wywnioskować, że autor zdał sobie sprawę, iż nie zawsze uregulowanie działań jednostek wobec jednostek przekłada się wprost na ogół i że pojedyncze poprawne zachowania niekoniecznie sumują się w całość korzystną dla zbiorowości.
Jako że mówimy tutaj o twierdzeniach autora opisującego świat science-fiction, można by przyjąć założenie, że są to tylko literackie opowieści, a ich odnoszenie do otaczającej nas rzeczywistości jest naciągane i nierelewantne. Wszak autor zakłada, że prawa mają zastosowania do maszyn mających świadomość, pewną dozę wolnej woli, a może nawet i podstawowe zdolności empatyczne i uczucia. Przecież na dziś dzień nie ma takich robotów, nie grozi nam bunt maszyn i „judgment day” rodem z filmu Terminator.
Zastanówmy się jednak, jak wygląda obecnie nasze otoczenie w obszarze obecnych w nim maszyn, automatów, urządzeń autonomicznych czy też rosnącej powszechności oprogramowania wyposażonego w moduły AI (artificial intelligence/sztuczna inteligencja). Czy już dziś nie powinniśmy brać pod uwagę praw robotów sformułowanych przez Asimova przy projektowaniu, programowaniu i ocenie działań otaczających nas urządzeń?
Zbrojenie robotów
Istnienie pojazdów i robotów autonomicznych już kilka lat temu przestało być domeną fantastyczno-naukowej kinematografii. Po ulicach, fabrykach i kopalniach jeżdżą już autonomiczne pojazdy, które w poruszaniu opierają się nie o prostą pętlę indukcyjną w podłodze hali czy asfalcie, ale analizują otoczenie i podejmują decyzje mające doprowadzić do skutku w postaci dotarcia do określonego celu/wykonania zadanej czynności. Armie wielu krajów testują drony bojowe – zarówno naziemne, jak i latające, i pływające. Już dawno urządzenia te przestały być zdalnie sterowanymi „zabawkami” do obserwacji pola walki. Na dziś są to uzbrojone maszyny, które po otrzymaniu zadania samodzielnie docierają do miejsca wydarzenia, samodzielnie analizują i podejmują decyzję o identyfikacji i zniszczeniu wcześniej określonego celu (na dziś z nie zawsze przewidywalnym skutkiem).
Jeżeli chodzi o skalę działań w obszarze militarnym – nie ma szerokiego dostępu do danych, ale już dla przemysłu i logistyki dość łatwo wyszukać informacje, jak ogromna jest skala inwestycji w automatyzację i jak duże są roczne przyrosty, jeżeli chodzi o ilości uruchomianych robotów.
Dla przykładu – już w 2017 roku na każdych 10 tys. robotników w przemyśle w Korei Południowej przypadało 855 robotów, w Japonii 364, a w Niemczech 346 robotów przemysłowych.[1]
W roku 2019 – zgodnie z raportem IFR (International Federation of Robotics) – roczne instalacje nowych jednostek w Chinach przekroczyły 140 tys. sztuk, w Japonii prawie 50 tys. i ponad 33 tys. w USA.[2] Jednocześnie zauważalny jest trend wzrostowy dla tzw. cobotów (colaborative robots). W odróżnieniu od tradycyjnych robotów przemysłowych pracujących zwykle w ogrodzonych, oddzielonych od ludzi przestrzeniach – coboty z założenia mają pracować ramię w ramię z człowiekiem, na tej samej linii produkcyjnej/etapie łańcucha logistycznego i wchodzić z człowiekiem w pewne interakcje. Jeszcze w 2017 roku zainstalowano na świecie 11 tys. cobotów, gdzie w roku 2019 było to już 19 tys.[3]
Autonomia w logistyce
Z kolei w logistyce i intralogistyce rosną inwestycje w autonomiczne środki transportu. Zgodnie z raportem Prescient & Strategic Intelligence w 2019 r. wartość rynku tego typu urządzeń przekroczyła 29 mld USD. Prognozowane wzrosty szacuje się na ponad 18 proc. rok do roku ze spodziewanym wynikiem ponad 200 mld na koniec roku 2030.[4] Największe inwestycje w tym zakresie czynione są na rynkach z obszaru Azji i Pacyfiku, z dominacją Chin. Jednym z najczęściej wymienianych czynników generujących wzrost zapotrzebowania na autonomiczne środki transportu jest rosnąca rola e-commerce w handlu i związane z nią rosnące wymagania co do logistyki towarów. By te wymagania spełnić – towary muszą być przemieszczane szybciej – czy to na etapie produkcji i magazynowania, czy też na etapie dystrybucji i dostawy na ostatniej mili. Jednym z elementów realizacji tych wymogów jest właśnie wprowadzanie autonomicznych robotów do transportu towarów w magazynach, a nawet na etapie dostawy do klienta końcowego.
W innych obszarach – jakiś czas temu na Netflix pojawił się serial „Black Mirror”, gdzie w jednym z odcinków (Metalhead) mogliśmy zobaczyć śmiertelnie niebezpiecznego robo-psa pilnującego magazynu. Już dziś, za jedyne 75 tys. dolarów, można nabyć w Boston Dynamics bardzo podobny sprzęt, który od tego z filmu różni się w zasadzie kolorem i brakiem uzbrojenia.[5]
Z kolei w świecie wirtualnym z roku na rok rośnie wykorzystanie oraz możliwości oprogramowania opartego o sieci neuronowe i sztuczną inteligencję. W zakresie wykorzystania AI i uczenia maszynowego rynek oprogramowania w 2018 roku wart był ponad 1,5 mld USD. Szacunki na rok 2020 mówią o ponad 7 mld, a prognozy na rok 2024 o ponad 30 mld i powiązanych z inwestycjami przychodami rzędu 120 mld.[6] Zastosowanie AI i machine learning w roku 2018 rozkładało się zgodnie z rys.1.
Rys. 1. Zastosowanie AI i machine lerning w roku 2018. Źródło: IDC Worldwide Semiannual Cognitive Artificial Intelligence Systems Spending Guide.
Jednak w poszczególnych obszarach rozkład zastosowania AI nieznacznie się różnił – rys.2.
Rys. 2. Rozkład zastosowania AI w przedsiębiorstwach z podziałem na regiony. Źródło: McKinsey & Company.
Analizy i wskazania AI wykorzystywane są zarówno w produkcji, jak i w łańcuchu dostaw – do prognozowania obciążenia tras, dostępności środków transportu, jak i na wcześniejszych etapach – zapotrzebowania na surowce, części i podzespoły. Niewielu z nas zdaje sobie jednak sprawę, że działanie AI dotyka nas także codziennie, jako zwykłych Kowalskich. Posiadacze abonamentu Netflix mogą sobie nie zdawać sprawy, że rekomendacje filmów do obejrzenia wybiera im netflixowa sztuczna inteligencja w oparciu o obejrzane do tej pory tytuły oraz filmy oglądane przez odbiorców o podobnym profilu. Tymczasem wg wskazanego wcześniej opracowania Forbes aż 75 proc. widzów ogląda propozycje wypracowane przez AI. Co więcej – AI analizuje obecne pozycje z listy i w oparciu o to układa rekomendacje co do tematyki i treści dla producentów przyszłych pozycji serii Netflix Original. Podobnie korzystający z Amazon mogą sobie nie zdawać sprawy z tego, że ich produkty są nie tylko przewożone w magazynach giganta przez autonomiczne roboty KIWA, ale także poziom zapasu w poszczególnych centrach logistycznych i cena produktu ustalana jest przez amazonowe moduły sztucznej inteligencji.
Etyka robotów
Jak to wszystko jednak ma się do tytułowych praw robotów Asimova? Przede wszystkim nie należy przekładać tych zasad wprost na dzisiejszą rzeczywistość. Na szczęście póki co nasze roboty nie mają wolnej woli, świadomości, uczuć, empatii i ambicji. Nie zwalnia nas to jednak z obowiązku oceny ryzyk i stawiania sobie pewnych pytań – które obawy związane z masową robotyzacją są zasadne, jakie negatywne skutki i zdarzenia może przynieść upowszechnienie zarówno autonomicznych maszyn, jak i coraz szersze zastosowanie AI w praktyce.
Dopóki mówimy o zaangażowaniu AI w rekomendację filmów do obejrzenia czy produktów do kupienia on-line – ryzyka te są praktycznie żadne. Jednak coraz częściej AI angażowana jest w proces obsługi klienta albo zarządza zaopatrzeniem i procesami związanymi ze zdrowiem i życiem ludzi. Problem jaki się pojawia to odpowiedzialność za decyzje AI. Model działania sieci neuronowych i uczenia maszynowego wymyka się możliwościom oceny przez człowieka. System pobrał dane wejściowe, na podstawie dorobku uczenia się podjął takie a nie inne decyzje, a człowiek nie jest w stanie przeanalizować, w jaki dokładnie sposób ta decyzja została podjęta i czy była ona jedynie słuszna. Stąd też podnoszona przez specjalistów kwestia konieczności uregulowania odpowiedzialności za decyzje AI oraz opracowanie metod ich weryfikacji.
Wraz ze wzrostem znaczenia AI w obszarach powiązanych ze zdrowiem i bezpieczeństwem ludzi, należy postawić sobie pytania:
– czy mamy możliwość weryfikacji i oceny decyzji AI?
– czy mamy mechanizmy zabezpieczające przed decyzjami błędnymi?
– czy decyzje podejmowane wyłącznie w oparciu o dane statystyczne i matematyczne będą właściwe pod kątem moralnym i etycznym?
Wszak pierwsze prawo robotów mówi o tym, że robot nie może skrzywdzić człowieka ani przez działanie, ani przez zaniechanie. Czy w takim razie „inteligentny” chatbot na infolinii pogotowia ratunkowego będzie w stanie poprawnie zakwalifikować problem dzwoniącego rozmówcy i wykonać akcje mające na celu udzielenie pomocy? Czy program analizujący i prognozujący produkcję konkretnych leków weźmie odpowiedzialność za to, że rzeczywiste zapotrzebowanie okazało się większe i w wyniku niedoborów wielu ludzi straciło zdrowie lub życie. Czy AI zatrudniona w towarzystwie ubezpieczeniowym w USA może pośrednio, przez zaniechanie, doprowadzić do zgonu pacjenta, wykluczając go z programu ubezpieczeniowego ze względu na podwyższone ryzyka zdrowotne, jakie wykrył program?
Biała Księga AI
Rozwój AI przynosi wiele korzyści, ale i również zagrożenia. Komisja Europejska już w 2018 roku przedstawiła dokument „Droga do zautomatyzowanej mobilności: strategia UE na rzecz mobilności w przyszłości”[7] określający zarówno szanse, jak i ryzyka, jakie niesie za sobą rozwój autonomicznych środków transportu. Z kolei w lutym 2020 r. opublikowano unijną „Białą Księgę w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania”[8], w której – oprócz wskazania nieuchronności postępu technologicznego i związanych z nim szans – odniesiono się także (w rozdziale 5) do zagrożeń związanych z upowszechnieniem AI. Za szczególnie istotny uznano model działania AI („black box”) uniemożliwiający praktycznie człowiekowi prześledzenie i zweryfikowanie toku rozumowania i procesu decyzyjnego AI. Na chwilę obecną Komisja wskazuje główne zagrożenia w obszarze praw podstawowych (równość, niedyskryminowanie, prywatność), ale podkreśla także ryzyka związane z egzekwowaniem odpowiedzialności w przypadku np. systemów AI zaangażowanych w pracę pojazdów autonomicznych i systemów kierowania ruchem. Komisja wskazuje na konieczność bieżącego analizowania rozwoju systemów oraz konieczność uregulowania prawnego ich statusu zarówno w prawodawstwie unijnym, jak i krajowym oraz umowach międzynarodowych.
Podobne dylematy możemy mnożyć, przyglądając się rozwojowi robotów autonomicznych – czy to pojazdów drogowych, czy też samojezdnych i samodzielnych pojazdów i robotów przemysłowych. Medialnie bardzo nośne są wypadki z udziałem samochodów Tesli, gdzie kierowca uruchamiał autopilota, jego systemy nie zadziałały poprawnie i pojazd doznał kolizji. W jednym z krajów kierowca otrzymał wysoki mandat za ucieczkę przed radiowozem i przekroczenie prędkości, kiedy sprawcą był autopilot Tesli, a sam kierowca spokojnie drzemał podczas jazdy. Jako jednostkowe zdarzenia mogą one stanowić ciekawy, czasem zabawny news, jednak spróbujmy sobie wyobrazić, że na naszych ulicach jeżdżą dziesiątki tysięcy takich samochodów. Czy ich algorytmy są gotowe do podejmowania odpowiedzialnych decyzji uwzględniających zakaz szkodzenia człowiekowi przez działania i zaniechania?
Grany przez Willa Smitha bohater filmu „Ja, Robot” miał awersję do robotów, ponieważ w jego przeszłości właśnie jeden z robotów podjął matematycznie poprawną, ale etycznie wątpliwą decyzję: podczas wypadku samochodowego uratował życie naszego bohatera, poświęcając życie kilkuletniej dziewczynki. AI robota wyliczyła, że matematycznie mężczyzna ma większe szanse na przeżycie, niż dziecko i podjęła logiczną, uzasadnioną decyzję.
Czy jest to naprawdę tak odległa przyszłość? Jak się będą zachowywać samochody autonomiczne w skrajnych sytuacjach, kiedy trzeba będzie wybrać mniejsze zło? Co zrobi AI pojazdu w sytuacji, kiedy alternatywą uderzenia w grupkę dzieci wbiegających na ulicę będzie rozbicie się o betonową ścianę i potencjalne poświecenie życia pasażerów?
Czy nasze współczesne i prototypowane właśnie pojazdy i roboty autonomiczne będą wyposażone w układy pozwalające na wykrywanie zagrożeń życia ludzkiego nie związanych z działaniem samej maszyny? Autonomiczna Tesla minie dziś zapewne bez refleksji wypadek i rannych na poboczu. Najnowszy cobot Epson[9] pewnie nie będzie reagował na ludzkiego współpracownika, który zasłabł przy taśmie produkcyjnej kilka kroków dalej. Rozpędzone, ponad 300-tonowe wozidło Komatsu[10] pewnie dziś ominie jak zwykłą przeszkodę busa z robotnikami przygniecionego przez obwał w kamieniołomie. Wszystkie te przypadki to klasyczny przykład czynienia przez robota krzywdy człowiekowi przez zaniechanie.
Co do drugiego prawa robotów – bezwzględnego posłuszeństwa człowiekowi, pod warunkiem zachowania prawa pierwszego – już dziś łamiemy je sami powszechnie używając bojowych dronów do eliminowania przeciwnika, nie przejmując się zbytnio niedoskonałościami ich SI i zaliczając poszkodowanych cywili do strat ubocznych.
Póki co prawo trzecie – obowiązek troski robotów o samych siebie – jest sprowadzany po prostu do monitoringu awarii i konieczności wykonania czynności serwisowych. Roboty na razie nie mają wbudowanego instynktu samozachowawczego, więc prawo to nie znajduje wprost zastosowania.
Największym wyzwaniem staje się jednak obecnie utrzymanie w mocy i obowiązywanie prawa „0” – nadrzędnego, nie zezwalającego robotom na szkodzenie przez działania i zaniechania całej ludzkości.
Autonomiczne rozwiązania intralogistyczne
Rozwój automatyzacji i systemów autonomicznych w produkcji i transporcie przynosi niezaprzeczalne korzyści podmiotom wdrażającym te rozwiązania. Firmy obniżają koszty działania, podnoszą wydajność i jakość dostarczanych produktów i usług. Działające w oparciu o rozwiązania AI centra obróbki danych czy obsługi klienta przyśpieszają dostęp do informacji, skracają czas oczekiwania na kontakt. W teorii i w skali mikro – wszyscy są zadowoleni, jednak w ujęciu globalnym sprawa nie przedstawia się już tak różowo. Powszechne wykorzystanie AI w obróbce danych odziera nas z prywatności, a decyzje podejmowane przez systemy AI są pozbawione pierwiastka empatii i indywidualnego podejścia w sprawach odbiegających od ujętych w algorytmach standardów. Całe centra obróbki danych i działy analiz są dehumanizowane i przekazywane w obsługę systemom opartym o AI. W wielu gazetach i na wielu portalach część notek i informacji prasowych (np. notowania giełdowe) przygotowywanych jest już przez „wirtualnych dziennikarzy”.
Jeszcze większe oddziaływanie możemy zaobserwować w przemyśle i logistyce. Autonomiczne rozwiązania intralogistyczne potrafią zmienić pełen gwaru setek pracowników magazyn w ciemną halę wypełnioną jedynie szumem przemieszczających się robotów. Wkrótce transport osobowy i ciężarowy mogą się okazać znacznie tańsze, ponieważ do ich realizacji nie trzeba będzie zatrudniać kierowców.
Dochodzimy do paradoksalnej sytuacji, kiedy poszczególne pozytywne działania różnych podmiotów mogą się nie sumować do wyniku dodatniego i szereg korzystnych dla jednostek działań daje skutek ujemny w postaci szkody dla ludzkości.
Podsumowanie
Stoimy przed wyzwaniem oceny skutków postępu w ujęciu globalnym i przyszłościowym. Jako że postępu zwykle nie da się uniknąć, musimy jako ludzkość, ale także jako odpowiedzialni managerowie i politycy, już dziś myśleć o długofalowych skutkach odbierania kolejnych obszarów z rąk człowieka i przekazywanie ich w ręce robotów. Pierwsze jaskółki takiego podejścia docierają do nas zarówno od strony biznesu, jak i polityków. Już jakiś czas temu Bill Gates wskazywał konieczność opodatkowania pracy robotów wzorem podatków, jakie nakładane są na pracę ludzi. Co prawda Komisja Europejska do opodatkowania robotów podchodzi z rezerwą, ale w swych opracowaniach wskazuje na potencjalnie negatywne skutki, jakie wywrze robotyzacja na rynek pracy.
Podchodząc do problemu w sposób racjonalny można przyjąć, że głównym papierkiem lakmusowym wskazującym przewagę plusów nad minusami robotyzacji powinna być, obok rentowności, demografia. Już dziś w krajach o ujemnym przyroście naturalnym i starzejącym się społeczeństwie robotyzacja to konieczność. Polityka społeczna Japonii hamująca napływ sił roboczych spoza granic wymusza masową automatyzację i przyśpiesza wdrożenie rozwiązań rodem filmów Sci-Fi. Prototypowe roboty pielęgniarskie już dziś opiekują się osobami starszymi i obłożnie chorymi.[11] Z kolei niewystarczająca liczba osób w wieku produkcyjnym wymusza wprowadzenie coraz większej liczby autonomicznych rozwiązań nie tylko w produkcji i transporcie, ale nawet w gastronomi i usługach.[12]
Z kolei w krajach o względnie wysokim bezrobociu i młodym społeczeństwie masowa robotyzacja może doprowadzić do niepokojów społecznych podobnych do okresu palenia krosien na początku rewolucji przemysłowej.
Jednostkowe decyzje poszczególnych managerów i inwestorów już dziś mogą mieć bezpośredni impakt na zjawiska społeczne i socjologiczne, a z problemem łamania czy przestrzegania współcześnie rozumianych praw robotów mamy do czynienia praktycznie na co dzień.
Artykuł ukazał się w wydaniu nr 5/2020 (październik – listopad) “Logistics Manager”. Więcej o czasopiśmie TUTAJ
[1] https://www.statista.com/chart/13645/the–countries–with–the–highest–density–of–robot–workers/
[2] https://ifr.org/ifr–press–releases/news/record–2.7–million–robots–work–in–factories–around–the–globe
[3] https://ifr.org/ifr–press–releases/news/record–2.7–million–robots–work–in–factories–around–the–globe
[4] https://www.psmarketresearch.com/market–analysis/autonomous–mobile–robots–market
[5] https://shop.bostondynamics.com/DefaultStore/spot?cclcl=en_US&pid=aDl6g000000XdpZCAS
[6] https://www.forbes.com/sites/louiscolumbus/2020/01/19/roundup–of–machine–learning–forecasts–and–market–estimates–2020/#239a76e85c02
[7] https://ec.europa.eu/transparency/regdoc/rep/1/2018/PL/COM–2018–283–F1–PL–MAIN–PART–1.PDF
[8] https://ec.europa.eu/info/sites/info/files/commission–white–paper–artificial–intelligence–feb2020_pl.pdf
[9] https://spectrum.ieee.org/automaton/robotics/industrial–robots/seiko–epson–shows–off–dual–arm–robot
[10] https://heavymachinery.pl/komatsu–haulage.php
[11] https://nurse.org/articles/nurse–robots–friend–or–foe/
[12] https://time.com/3960847/dinosaur–robot–receptionist–japan/