separateurCreated with Sketch.

Czy sztuczna inteligencja może być etyczna? Zasady prosto z Watykanu [wywiad]

Koncepcja uregulowania działania sztucznej inteligencji
whatsappfacebooktwitter-xemailnative
whatsappfacebooktwitter-xemailnative
„Niektóre podstawowe zasady etyki dotyczące sztucznej inteligencji zostały już nakreślone na progu lat 20. obecnego stulecia. Podam przykład reguł z… Watykanu” – mówi w wywiadzie dla KAI ks. prof. dr hab. Józef Kloch. Rozmawia Anna Rasińska.

Przekazując darowiznę, pomagasz Aletei kontynuować jej misję. Dzięki Tobie możemy wspólnie budować przyszłość tego wyjątkowego projektu.

Wesprzyj nasPrzekaż darowiznę za pomocą zaledwie 3 kliknięć

Dwa typy sztucznej inteligencji

Anna Rasińska (KAI): W listopadzie ubiegłego roku sztuczna inteligencja wkroczyła w życie milionów ludzi dzięki kalifornijskiemu laboratorium badawczemu OpenAI i jego oprogramowaniu ChatGPT. Technologia polega na udostępnieniu platformy sztucznej inteligencji umożliwiającej generowanie przez komputer odpowiedzi na zapytanie użytkownika. Czy obserwując prędkość rozwoju prac nad sztuczną inteligencją czuje Ksiądz Profesor obawę?

Ks. prof. Józef Kloch*: Nie czuję obawy, ponieważ sztuczna inteligencja ma swoje ograniczenia.

Jak w ogóle można zdefiniować sztuczną inteligencję (ang. Artificial Intelligence, w skrócie AI)?

Amerykański filozof John Searle rozróżnił dwa typy AI – strong (mocna) oraz weak (słaba). Pierwsza (sAI) polegałaby na zduplikowaniu, powieleniu w 100 proc. możliwości ludzkiego mózgu przez komputery wyposażone w odpowiednie oprogramowanie i Searle nie widzi możliwości zbudowania maszyny, w której zachodziłyby identyczne procesy, jak w ludzkim umyśle. Druga wersja (wAI) to symulowanie przez komputery zdolności ludzkiego rozumu w pewnych zakresach. I ChatGPT, dziś już w czwartej wersji, jest bardzo dobrym przykładem takiej właśnie symulacji pracy mózgu człowieka – rozumie pytania zadawane języku naturalnym i odpowiada na nie rozwiązując bardzo skomplikowane zadania. Za ich wykonywaniem stoi bot oparty na bazie dużych modeli językowych; całość oprogramowania jest niezwykle skomplikowana – składa się z 7 miliardów (sic!) linii algorytmów przystosowanych do ciągłego poszerzania bazy wiedzy dzięki procesowi maszynowego uczenia się.

(...)

Etyczna sztuczna inteligencja

W mediach pojawił się apel podpisany między innymi przez Elona Muska i Steve'a Wozniaka, aby badania nad najbardziej zaawansowanymi systemami sztucznej inteligencji zostały wstrzymane na sześć miesięcy ze względów bezpieczeństwa. Apel rozpoczyna się ostrzeżeniem o „inteligencji współzawodniczącej z ludźmi” i zagrożeniach, jakie AI może stwarzać dla społeczeństwa. Czy na tym etapie możliwe jest wstrzymanie prac nad sztuczną inteligencją?

Ciekaw jestem, dlaczego akurat na sześć miesięcy miałyby zostać zahamowane badania nad AI? Czy apel nie jest przypadkiem próbą zdobycia czasu potrzebnego do nadrobienia własnych badań? Bo zespół Elona Muska podjął zadanie zbudowania innego bota, który miałby mieć jeszcze większe możliwości niż ChatGPT. Jestem zdania, że obecnie wstrzymanie badań nad sztuczną inteligencją nie jest możliwe. Ważne jest natomiast to, żeby były to badania odpowiedzialne. Stosunkowo niedawno pojawił się nowy termin „responsible artificial intelligence (rAI)”. W języku polskim oddaje się to określenie jako „odpowiedzialna sztuczna inteligencja” lub nawet „etyczna AI”. Generalnie chodzi o to, by algorytmy programów opartych na sztucznej inteligencji wzbogacone zostały o pewne zasady.

Jak mogłyby brzmieć takie zasady?

Niektóre podstawowe zasady etyki dotyczące sztucznej inteligencji zostały już nakreślone na progu lat 20. obecnego stulecia. Podam przykład reguł z… Watykanu. Są one pokłosiem – i tu kolejne zaskoczenie – spotkania w 2019 roku Ojca Świętego Franciszka z Bradem Smithem, prezesem Microsoftu. Firma ta z Papieską Akademią Życia ustanowiły nagrodę w dziedzinie dokonań co do etyki sztucznej inteligencji. W kolejnym roku w lutym, po obradach Akademii, został opublikowany dokument „Rome Call for AI Ethics” („Rzymski apel o etykę AI”) W jego tworzenie zaangażowali się m.in. uczeni zajmujący się badaniami nad sztuczną inteligencją. Dokument podpisali jako pierwsi przedstawiciele gigantów technologicznych, firm Microsoft oraz IBM oraz Papieskiej Akademii Życia, która jest inicjatorem przedsięwzięcia.

Dokument zawiera m.in. sześć zasad co do AI – jawność, inkluzywność, odpowiedzialność, bezstronność, niezawodność oraz bezpieczeństwo i prywatność.

Czy póki co te zasady są przestrzegane?

Aby to ocenić trzeba byłoby mieć dostęp do wszystkich prac co do AI, jakie dziś się toczą. Nie jest to oczywiście możliwe, m.in. dlatego, że firmy konkurują ze sobą. Otrzymały one natomiast konkretne wskazówki, w jaki sposób powinny być prowadzone badania nad sztuczną inteligencją i podpisały się pod nimi m.in. Microsoft i IBM.

Na początku roku 2023 Microsoft ogłosił wieloletnią inwestycję w wysokości 10 mld dolarów w laboratorium OpenAI. W lutym rozpoczęło się wbudowywanie technologii AI o tym samym podłożu co ChatGPT do przeglądarki Edge i wyszukiwarki Bing oraz do pakietu Microsoft 365. Jakie są owoce tych działań dla zwykłego użytkownika wymienionych produktów Microsoftu? Obecnie zwykły edytor tekstu oferuje nam bardzo szybkie, zadowalające tłumaczenia tekstów z jednego na drugi język. Podobnie jest z przekładami treści w Edge i Bing. Dostęp do tych funkcjonalności jest powszechny – tu widać realizację drugiej zasady apelu rzymskiego.

(...)

Sztuczna inteligencja narzędziem opresji

W Niedzielę Palmową abp Stanisław Gądecki powiedział, że jeśli rozwój sztucznej inteligencji ma służyć dobru ludzkości, to jego podstawowym kryterium musi być godność osoby ludzkiej. Zauważył, że „niekontrolowane podejście do rozwoju sztucznej inteligencji grozi zalewem dezinformacji, masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny i «utratą kontroli nad cywilizacją»”. Jak Ksiądz Profesor odniesie się do tych słów?

Jak już wspomniałem, nie obawiam się, że zastąpi nas sztuczna inteligencja, natomiast obawiam się złych zastosowań sztucznej inteligencji i już na obecnym etapie jej rozwoju potrafię takie wskazać.

W Chinach, gdzie zwalczany jest każdy przejaw religijności, żyje liczna grupa Ujgurów. To lud wywodzący się z Turcji, wyznający islam, społeczność głęboko religijna i z tego powodu zwalczana przez chińskie służby. W prowincji Xinjiang, gdzie zamieszkują Ujgurowie założono 18 tys. kamer rozpoznających twarze, śledzących ludzkie zachowania... Inwigilowanie tej społeczności jest bardzo daleko posunięte. Są oni wręcz osaczeni przez policyjny system. Około milion osób z tej 13-milionowej grupy etnicznej przebywa w „obozach reedukacyjnych”. Ten system śledzenia, nazwany „Czujne oczy” („Sharp Eyes”), jest przykładem złego wykorzystania sztucznej inteligencji, skierowanej przeciw człowiekowi. Mówi o tym raport „Wolność religijna na świecie” z 2021 roku opublikowany przez Fundację Papieską „Pomoc Kościołowi w Potrzebie”.

W tym miejscu nie sposób nie przypomnieć o dronach atakujących w Ukrainie obiekty cywilne. W tym wypadku tak stosowana AI wykorzystana jest jako ofensywna broń.

Nawet rozrywkowe aplikacje jak Tik Tok, które korzystają z algorytmów opartych o technologię sztucznej inteligencji, stanowią narzędzie podczas wojny. Niejednokrotnie w mediach mogliśmy usłyszeć o zbrodniarzach wojennych zlokalizowanych dzięki ich przechwałkom w mediach społecznościowych.

Tropienie przestępców i określanie, kto i gdzie się znajdował i czego dokonał jest elementem, który pozwala postawić w stan oskarżenia sprawców i zbrodniarzy wojennych. I bardzo dobrze.

*Ks. prof. ucz. dr. hab Józef Kloch – pionier zastosowań informatyki, a następnie internetu w misji Kościoła w Polsce, doktor habilitowany w zakresie teologii środków społecznego przekazu. 

Tytuł, lead i śródtytuły od redakcji polskiej edycji Aleteia.

Newsletter

Aleteia codziennie w Twojej skrzynce e-mail.

Aleteia istnieje dzięki Twoim darowiznom

 

Pomóż nam nadal dzielić się chrześcijańskimi wiadomościami i inspirującymi historiami. Przekaż darowiznę już dziś.

Dziękujemy za Twoje wsparcie!