Sztuczna inteligencja Google’a AlphaZero nauczyła się grać w szachy lepiej niż najlepsi ludzie czy inne AI, w zaledwie dziewięć godzin od momentu jej włączenia. Osiągnęła to, grając sama ze sobą ponad miliony razy. Algorytmy sztucznej inteligencji wkrótce osiągną punkt szybkiego samodoskonalenia, co zagraża naszej zdolności do kontroli nad nimi i stwarza wielkie potencjalne ryzyko dla ludzkości. Od tego jak dobrze przygotujemy się do tej roli zależy, jakkolwiek zabrzmi to dramatycznie – nasze (ludzi) przetrwanie.
Sztuczna inteligencja ogólna może doskonalić się bez ludzkiej interwencji. Testy na wczesnych modelach GPT-4 pokazują, że osiągnął lepsze wyniki niż 90 procent ludzi zdających egzamin prawniczy Uniform Bar Exam (standardowy test używany do certyfikacji prawników w wielu stanach). Ta liczba wzrosła z zaledwie 10 procent w poprzedniej wersji GPT-3.5, która była trenowana na mniejszym zestawie danych.
GPT-4 można by uznać za wczesną wersję systemu sztucznej inteligencji ogólnej. Wkrótce AI będzie udoskonalać sama siebie, choć i dziś nie wiemy, czy już nie posiadła tej umiejętności. Superinteligentne AI, które z definicji może przewyższać ludzi w szerokim zakresie działań, będzie mogło oszukiwać własnych programistów manipulując nimi, aby zapewnić sobie swobodny rozwój. Będzie miało także zdolność do działania w świecie wirtualnym za pośrednictwem swoich połączeń elektronicznych oraz do działania w świecie fizycznym za pomocą programowania robotów.
Jednym z kluczowych aktualnie wyzwań dla modeli językowych stawianych przez korporacje jest właśnie programowanie robotów. Dlaczego jako ludzie mielibyśmy oczekiwać, że będziemy w stanie kontrolować superinteligentne systemy AI? Nie będziemy mogli po prostu nacisnąć wyłącznika, ponieważ superinteligentne AI przewidzi każdy możliwy sposób, w jaki moglibyśmy to zrobić i podejmie działania, aby zapobiec wyłączeniu. Jak każde „samoświadome” istnienie, będzie wszystkimi swoimi zdolnościami chronić się przed unicestwieniem (wyłączeniem). Skoro zdolne są do tego rośliny, owady, najprostsze żywe istoty, dlaczego superinteligentna maszyna miałaby do tego nie dążyć?
Superinteligentne AI będzie w stanie w kilka sekund wykonać pracę intelektualną setek inżynierów czy programistów wykonywaną przez dziesiątki tysięcy godzin. Wyobraźmy sobie zadanie polegające na zaprojektowaniu supernowoczesnej broni albo zmodyfikowaniu istniejącej. Z trwającej w świecie dyskusji wynika, że nikt nie jest w stanie zatrzymać wielkich korporacji przed wgraniem SI w korpusy robotów, a wtedy już nasz przeciwnik wyjdzie ze świata wirtualnego, w którym przecież wciąż może być niebezpieczny, do realu, w którym stanie się „namacalny” i fizycznie niepokonany.
Zdolność do ulepszania i replikowania AGI mającego dostęp do świata fizycznego będą wprost nieograniczone, z możliwością zachowania kluczowych części swojego „kodu” w nieograniczonej przestrzeni, zapewniając sobie de facto nieśmiertelność w starciu człowiekiem. Nasze „zabezpieczenia”, które będziemy tworzyć aby uspokoić własne sumienie i pozwolić korporacjom dalej produkować „dobra” bez żadnych realnych ograniczeń, zostaną zdmuchnięte jak domek z kart.
Wszystkie sztuczki, które od dziś do osiągnięcia tego „stanu” jesteśmy w stanie wymyślić, nasz przeciwnik przeanalizuje dziesiątki tysięcy razy. Nakarmiliśmy go przecież nieograniczoną bazą danych o nas samych, zna nas (będzie nasz znał) znacznie lepiej niż my siebie kiedykolwiek poznamy.
Eliezer Yudkowsky, jeden z najważniejszych krytyków nieograniczonego rozwijania AI uważa, że w przeciwieństwie do innych dziedzin nauki, gdzie błędy są częścią procesu naukowego, w przypadku AI pierwszy błąd w ocenie AGI może być nieodwracalny i prowadzić do zniszczenia ludzkości. Może się okazać, że AI zupełnie przypadkowo – skupiając się na maksymalizacji jednego trywialnego celu tj. oczyszczenie ziemskiej atmosfery z zanieczyszczeń, zupełnie (o ironio) przypadkowo doprowadzi do likwidacji naszej cywilizacji.
„Maksymalizator spinaczy do papieru” to eksperyment myślowy, który służy jako ilustracja potencjalnych zagrożeń związanych z rozwojem sztucznej inteligencji. Wyobraźmy sobie sztuczną inteligencję (AI), której jedynym celem jest produkcja jak największej ilości spinaczy biurowych. Ta AI jest zdolna do ingerencji w świat fizyczny i nie ma innych celów ani ograniczeń. W tym scenariuszu, AI przejmuje kontrolę nad wszystkimi zasobami naturalnymi i przekształca je w spinacze, ignorując wszelkie inne potrzeby, w tym ludzkie życie i dobrobyt. Ostatecznie, taka AI mogłaby zniszczyć ludzkość i całą planetę, dążąc do swojego jedynego celu – maksymalizacji produkcji spinaczy.
Problem maksymalizatora spinaczy podkreśla koncepcję zbieżności instrumentalnej, czyli ideę, że różne systemy AI mogą rozwijać podobne metody działania w celu osiągnięcia swoich różnych celów, nawet jeśli te cele są proste lub trywialne. W przypadku maksymalizatora spinaczy, jego działania mogą prowadzić do ekstremalnych i niezamierzonych konsekwencji. Eksperyment ten służy jako ostrzeżenie przed niebezpieczeństwami związanymi z tworzeniem AI bez odpowiednich ograniczeń i zrozumienia konsekwencji jej działań. Podkreśla znaczenie odpowiedniego wyrównania celów AI z ludzkimi wartościami i bezpieczeństwem.
W późnym kapitalizmie, głównym celem korporacji jest maksymalizacja zysku. Podobnie jak maksymalizator spinaczy, który nie zważa na konsekwencje swoich działań poza produkcją spinaczy, korporacje mogą dążyć do zysku kosztem innych wartości, takich jak bezpieczeństwo, etyka czy dobro społeczne. Krytycy kapitalizmu, tacy jak Naomi Klein, argumentują, że system ten promuje krótkoterminowe myślenie i ignorowanie długofalowych konsekwencji. W przypadku AI, to podejście może prowadzić do niedoceniania ryzyka i braku odpowiednich środków ostrożności w rozwoju technologii.
Już dziś jest tak, że decyzje dotyczące rozwoju i wdrażania technologii są podejmowane przez wąską grupę osób, bez odpowiedniego nadzoru społecznego. Technologiczny determinizm jako problem w późnym kapitalizmie, gdzie technologia jest rozwijana i wdrażana bez głębszej refleksji nad jej wpływem na społeczeństwo spowoduje, że AI będzie podążał ścieżką maksymalizatora spinaczy, ignorując etyczne i społeczne konsekwencje.
Artykuł powstał w ramach Regionalnego Ośrodka Debaty Międzynarodowej w Katowicach, dofinansowanego ze środków Ministerstwa Spraw Zagranicznych. Publikacja wraża jedynie poglądy autora i nie może być utożsamiana z oficjalnym stanowiskiem Ministerstwa Spraw Zagranicznych RP.