Prof. Zybertowicz ostrzega ws. sztucznej inteligencji

2023-04-23 22:38:28(ost. akt: 2023-04-23 22:44:49)
prof. Andrzej Zybertowicz

prof. Andrzej Zybertowicz

Autor zdjęcia: wPolityce.pl

„Gdy AI uzyska możliwość samodzielnego powielania się, to nieplanowane, negatywne efekty mogą zadziałać natychmiastowo i masowo na całą ludzkość” – mówi prof. Andrzej Zybertowicz.
Doradca prezydenta Andrzeja Dudy udzielił wywiadu portalowi weszlo.com, w którym komentuje sprawę rozwoju sztucznej inteligencji.

Żadna wcześniejsza technologia nie mogła zagrozić egzystencji całej ludzkości. Nawet broń nuklearna – mówi Zybertowicz.

Nie ma tu nic nadmiernie śmiałego. Wystarczy chwila refleksji i odrobina wyobraźni. Rewolucja cyfrowa ogarnia całą planetę. Połowa ludzkości jest na stałe podpięta do internetu. Pozostali są monitorowani przez systemy inwigilacyjne, na przykład kamery uliczne. Gdy AI uzyska możliwość samodzielnego powielania się, to nieplanowane, negatywne efekty mogą zadziałać natychmiastowo i masowo na całą ludzkość. Zanim zorientujemy się, że dzieje się coś niedobrego i uruchomimy naturalne procesy dostosowawcze i ochronne, może być już za późno – dodaje.

Systemy AI

Odnosząc się do porównania z bronią atomową, prof. Zybertowicz wskazał na kontrowersje wokół systemów AI.

Precyzyjnie ukazuje to wybitny analityk sztucznej inteligencji Eliezer Yudkowsky. Podkreśla, że broń nuklearna nigdy nie jest w stanie przechytrzyć człowieka, a Chat GPT-4 już się z nim drażnił. Nawet nie mając świadomości czy woli, był nauczony tego, że ludzie wzajemnie się prowokują. Broń nuklearna nie może ani samodzielnie się namnażać, ani być łatwo powielana przez kogokolwiek. Nie potrafi sama się udoskonalać, zaś naukowcy dobrze rozumieją, jak działa. Nie można tego powiedzieć o części systemów AI – problem „czarnej skrzynki”

– czytamy.

Broni masowego rażenia nikt nie skopiuje i nie wyniesie z laboratorium, a już nastąpiły wykradzenia technologii sztucznej inteligencji. Niedawno rozmawiałem z badaczem, który twierdził, że na jego uczelni pracuje się na pirackiej kopii jednego z systemów tych wielkich modeli językowych, dzięki którym nastąpił skok w rozwoju AI

– dodaje Zybertowicz.

Naukowiec mówi też o zawodności systemów AI i potrzebie zachowania ostrożności.

Specjaliści od sztucznej inteligencji mówią, że zawodność tych systemów jest znacznie wyższa niż dziesięć procent, a jednak jakoś chętnie wsiadamy do tego samolotu. Zasada ostrożności głosi, że gdy margines zagrożeń jest znaczący, pewnych rzeczy należy zaniechać. W sprawie AI tej zasady ostrożności nie przestrzegamy. Chciałbym, żeby jeszcze nie było za późno na moratorium

– mówi.

Tekst ukazał się na portalu wpolityce.pl