AI a etyka pracy

0
42

SZTUCZNA INTELIGENCJA – ROLA CZŁOWIEKA W KSZTAŁTOWANIU JEJ POTENCJAŁU

Sztuczna inteligencja (SI) lub skrót od angielskiego słowa artificial intelligence (AI) to technologie, które umożliwiają maszynom wykonywanie zadań, które wcześniej były uważane za wyłączną domenę ludzi, takich jak: rozumowanie, uczenie się, planowanie i kreatywność. Sztuczna inteligencja pozwala maszynom na podejmowanie decyzji i rozwiązywanie problemów w oparciu o informacje ze swojego otoczenia. Systemy AI mogą do pewnego stopnia dostosowywać swoje zachowanie, ucząc się na podstawie wcześniejszych działań i podejmując decyzje autonomicznie.

Pojęcie sztucznej inteligencji jest obecne w paradygmacie informatyki od lat 50. XX wieku, jednak to XXI wiek można niezaprzeczalnie nazwać erą AI. Jej postęp nasila się tak intensywnie, że jest w stanie przetwarzać i rozumieć duże zbiory danych. Dzięki nowym algorytmom uczenia maszynowego i głębokiemu uczeniu, doszło do przełomu w tej dziedzinie. Całkowity potencjał sztucznej inteligencji nie jest do końca znany. Już dziś AI znajduje zastosowanie w wielu kluczowych gałęziach: medycynie, przemyśle, finansach, naukach społecznych. Rozwój AI jest atrakcyjny dla człowieka, ponieważ system komputerowy może doprowadzić do poprawy wydajności, oszczędności i innowacyjności gospodarek. Należy pamiętać, że AI, która ma nieograniczone możliwości sprawczości, może stać się największym zagrożeniem dla ludzkości. Na etapie wykorzystywania nowych technologii nie da się już wykonać punktu zwrotnego, ponieważ to oznacza cofnięcie się danej gospodarki i utratę konkurencyjności względem regionów gdzie zastosowanie AI jest intensyfikowane.

Wzrost gospodarczy oraz poziomu zamoż – ności jest stricte powiązany z wykorzystaniem nowych technologii. Warto w tym kontekście utrzymać zastosowanie AI w określonych ra – mach pod odpowiedzialnym nadzorem człowieka. Parlament Europejski jako pierwszy na świecie przyjął 16 lipca 2023 roku zestaw przepisów dla zarządzania ryzykiem związanym z AI jako „Akt o sztucznej inteligencji”. Te przepisy dotyczą zasad działania systemów sztucznej inteligencji na terenie Unii Europejskiej. Według badania publicznego przeprowadzonego w 2017 roku dla 28 krajów członkowskich Unii Europejskiej wynika, że 61% Europejczyków ocenia pozytywnie potencjał sztucznej inteligencji, natomiast 88% zwraca uwagę na niebezpieczeństwa związane z nierozsądnym zarządzaniem tą technologią. Dane Eurobarometru pokazują, że wśród Euro – pejczyków istnieje poparcie społeczne dla rozsze – rzenia ram prawnych i etycznych dla AI.

ETYKA SZTUCZNEJ INTELIGENCJI

Pojęcie etyki w sztucznej inteligencji odnosi się do przestrzegania wartości, norm i zasad, które są kształtowane na etapie wdrażania i użytkowa – nia AI. Etyka w nowych technologiach określa, w jakich ramach moralnych AI może być wyko – rzystywana. Wśród ludzi wzrasta świadomość wytworzenia wymogów etycznych w wykorzystaniu sztucznej inteligencji, aby przeciwdziałać niebezpieczeństwom związanym z tą technolo – gią. Co prawda intensywność rozwoju techno – logii wyprzedza regulacje prawne oraz kodeksy etyczne. Zainteresowanie organizacji i instytucji uporządkowaniem zasad etycznych w zakresie nowych technologii obrazuje powstanie do 2020 roku 167 wytycznych z całego świata dotyczących zastosowania wartości etycznych w rozwoju oraz wdrażaniu AI. Wbrew powszechnej opinii sztuczna inteligencja nie jest nieomylna, zdaniem filozofa Luciano Floridi nie wytwarza ona inteligentnych zachowań, w zasadzie je tylko naśladuje. Mimo, że sztuczna inteligencja znacząco odbiega od sposo – bu funkcjonowania ludzkiego, także zwierzęcego mózgu, jej zakres działania powinien być uporząd – kowany prawnie, ponieważ ta technologia staje się częścią większości sfer ludzkiego życia. Symetria działania na polu człowiek- sztuczna inteligencja nie kwestionuje podporządkowania się człowieka w dłuższej perspektywie logice działania maszyny. Ustalone zasady są gwarantem bezpieczeństwa.

Wprowadzenie etyki do AI nadaje kształt społeczeństwu, w jakim pragniemy wzrastać. Ma to cechować się najwyższym dobrem i korzyścią dla jednostki. Wymiar etyki kształtuje obszar regulacji oraz zarządzania. Regulacja wpływa na zarządzanie za pomocą zgodności z prawem, natomiast zarządzanie reguluje poziom etyki oraz prawa i ich realizację. W przypadku etyki technologii jej obszar zależny jest od projektujących i nadzorujących AI. Według Stanisława Lema technologia stwarza ramy wyboru, co jest objęte ryzykiem negatywnych konsekwencji. Im wyższy stopień złożoności możliwości wzrasta ludzka odpowiedzialność oraz konieczność podejmowania trudnych decyzji. Dynamika ewolucji wartości etycznych ustępuje szybkiemu rozwojowi technologii, co niesie ze sobą niebezpieczeństwo zatracenia powszechnie znanych norm społecznych.

Omawianie kwestii etyki w dziedzinie sztucznej inteligencji jest wielowymiarowe i uwzględnia aspekty związane z ludźmi, ich świadomością, myśleniem, stanem posiadanej wiedzy oraz aspektami światopoglądowymi. Jest to pojęcie względne, ponieważ przedsiębiorca czerpiący zyski z pracy AI będzie jej entuzjastą, a pracownik tracący zatrudnienie przez zastąpienie go modelem sztucznej inteligencji będzie jej krytykiem.

Pokłosiem tych debat jest spór o to czy AI powinno mieć zakodowaną etykę. Niektórzy uważają to za konieczność, ze względu na wykorzystanie AI w obszarach związanych z etyką, np.: w opiece nad chorymi. Natomiast przeciwnicy twierdzą, że AI jest w dalszym stopniu na zbyt niskim poziomie, aby podejmować debatę o jej myśleniu w kategoriach moralnych. Na gruncie metafizyki, maszyna jest wytworem człowieka, niezdolnym do moralnego rozumowania, nieposiadająca percepcji, refleksji, wyobraźni znanej tylko naturze człowieka. Poza zasięgiem maszyny są nie tylko zdolności na poziomie kognitywnym, ale także wynikające ze sposobu, w jaki człowiek doświadcza świata poprzez swoje ciało i zmysły. Reasumując, moralność jest wyłączną domeną jednostki ludzkiej, sferą poza zasięgiem także dla zwierząt. Na tej podstawie wyposażanie AI w moralność traci sens na poziomie wykonania, ponieważ nowe technologie nie są w stanie zrozumieć złożoności ludzkiej moralności i podejmować decyzji, które są zgodne z naszymi wartościami.

Refleksja nad etyką w AI jest uzasadniona tylko wtedy, gdy rozumiemy cele rozwoju technologii. Z jednej strony chodzi o maksymalizację zysków i kontrolę nad społeczeństwem. Z drugiej strony nie należy zapominać, że nadrzędnym celem AI powinno być podnoszenie dobrostanu ludzi i wszystkich istot zamieszkujących kulę ziemską. Do takich konkluzji prowadzi refleksja etyczna nad zasadnością rozwoju AI. Technologia rozwijana w pożądanym kierunku dla ludzi i środowiska jest odpowiedzią na pytanie o dobre życie i sprawiedliwe społeczeństwo.

WYZWANIA W KONTEKŚCIE ETYKI

Według etyka Bernda C. Stahla istnieją 3 główne wyzwania związane z AI:

• kwestia związana z uczeniem maszynowym,

• zderzenie się obszaru polityki i społeczeństwa z rosnącą cyfryzacją,

• pytanie o naturę metafizyczną człowieka i poziom przypisania kontroli maszynom

Problemy związane ze złożonością uczenia maszynowego w głównej mierze dotyczą kwestii technicznych. W tym kontekście może na przykład dojść do dyskryminacji lub utraty bezpieczeństwa, co związane jest z nieprawidłowościami w zakresie trenowania algorytmu na niereprezentatywnych zbiorach danych. Czego wynikiem może być dyskryminacja pewnych grup osób pod względem etnicznym, religijnym itd. Niepokój może budzić także nieprzewidywalność działania AI. Czarne skrzynki są systemami sztucznej inteligencji, w których schemat odnoszonych rezultatów pozostaje nieznany nawet ich programistom. W tym względzie decyzje podejmowane przez AI są dalece subiektywne i trudne do wyjaśnienia, bo nie są znane kryteria, które by je uzasadniały. W tym przypadku zastosowanie AI w sferach życia ludzkiego może prowadzić do nieetycznych i niepożądanych skutków. Na przykład w medycynie może dojść do błędnej diagnozy i braku postępów w leczeniu lub wyrok sądu może doprowadzić do niesłusznego skazania kogoś. Wyzwaniem staje się rozwijanie AI w taki sposób, który pozwoli na wyjaśnienie jej decyzji i monitorowanie jej działań. Odnośnie niebezpieczeństw związanych z uczeniem maszynowym, AI ma zdolność do powiązywania różnych danych, co może skutkować wyjawieniem informacji (status materialny, orientacja seksualna), których pewna grupa osób nie wyjawiłyby publicznie.

Rosnąca cyfryzacja dotyka bezpośrednio pracowników określonych branż, np.: w sektorze usług– konsultanci są wypierani przez boty. Zwiększa się ryzyko manipulacji i inwigilacji przez korporacje oraz rządy. Intensywny rozwój technologii nie jest obojętny na ślad węglowy. Według badań opublikowanych w czasopiśmie Nature Climate Change, wytrenowanie jednego modelu AI może wiązać się z zużyciem energii oraz emisją ą dwutlenku węgla porównywalną do emisji 5 samochodów osobowych w całym procesie ich użytkowania.

W obszarze moralnego i prawnego statusu AI występuje problem braku transparentności, który utrudnia ponoszenie odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję i wydanie sprawiedliwego wyroku. Na przykładzie samochodów autonomicznych w przypadku awarii samochodu i śmierci pasażera, czy winę ponosi dystrybutor czy AI? Jak kwestie prawne uregulować, aby nie zniechęcać producentów do innowacyjności i podnoszenia konkurencyjności, ale jednocześnie sprawiedliwie określić wymiar prawny. Rozwój broni autonomicznych może być problemem, który obecnie wydaje się dość abstrakcyjny, ale może stać się bardzo realny w przyszłości. Wdrożenie tego typu broni może przyczynić się do eskalacji konfliktów, ponieważ nie będzie ona podlegała kontroli ludzkiej. Może być również trudna do kontrolowania, co może prowadzić do wypadków lub ataków na niewinne osoby. Ponadto broń autonomiczna może być narzędziem państw autorytarnych do tłumienia protestów lub uciszania opozycji.

Na gruncie wymienionych trzech podstawowych wyzwań związanych z nowymi technologiami wysuwa się kontekst ochrony praw autorskich. Z uwagi na możliwości tworzenia przez AI dzieł sztuki, muzyki oraz tekstów publicystycznych powstaje problem z nadawaniem praw autorskich. Od 2016 roku Washington Post korzysta z programu Heliograf, który samodzielnie redaguje krótkie informacje. W kontekście tego przykładu, czy autorem powstałego dzieła jest zawsze człowiek, który stworzył i przeszkolił narzędzie, czy już sztucznej inteligencji należy nadać osobowość prawną? To pytanie, na które nie ma łatwej odpowiedzi. Z jednej strony, AI jest w stanie tworzyć dzieła, które spełniają kryteria prawne do uznania ich za dzieła autorskie. Z drugiej strony, AI nie jest człowiekiem i nie ma takich samych praw i obowiązków jak człowiek. W związku z tym konieczne jest uregulowanie kwestii prawnych w sposób, który zapewni sprawiedliwość i ochronę praw wszystkich zainteresowanych stron.

PODSUMOWANIE

Niezaprzeczalnie sztuczna inteligencja to techno – logia niosąca ogromny potencjał dla rozwoju wielu dziedzin dotyczących życia codziennego człowieka. AI może być wykorzystywana w sposób pozytywny, aby poprawić jakość życia ludzi w wielu dziedzinach, takich jak medycyna, edukacja i transport. Jednak może również być wykorzystywana w sposób nega – tywny do dyskryminacji, manipulacji i inwigilacji. Od człowieka zależy jakim celom ma służyć rozwi – janie nowych technologii. W miarę upływu czasu AI będzie stawała się coraz bardziej zaawansowana i potężniejsza, dlatego należy mieć świadomość po – trzeby stworzenia ram prawnych i regulacyjnych, któ – re będą chronić społeczeństwo przed potencjalnymi zagrożeniami związanymi ze sztuczną inteligencją. Artykuł powstał w ramach Regionalnego Ośrodka Debaty Międzynarodowej w Katowicach, dofinansowanego ze środków Ministerstwa Spraw Zagranicznych. Publikacja wraża jedynie poglądy autora i nie może być utożsamiana z oficjalnym stanowiskiem Ministerstwa Spraw Zagranicznych RP.