No icon

Świat

LIST OTWARTY: PRZERWIJMY GIGANTYCZNY EKSPERYMENT SZTUCZNEJ INTELIGENCJI. WZYWAMY WSZYSTKIE LABORATORIA AI DO NATYCHMIASTOWEGO WSTRZYMANIA SZKOLENIA SYSTEMÓW AI

Elon Musk,  Steve Wozniak , Yoshua Bengio, Stuart Russell, a nawet Harakiri oraz wielu innych,  wzywają do powstrzymania wyścigu sztucznej inteligencji.
 
WZYWAMY WSZYSTKIE LABORATORIA AI DO NATYCHMIASTOWEGO WSTRZYMANIA NA CO NAJMNIEJ 6 MIESIĘCY SZKOLENIA SYSTEMÓW AI POTĘŻNIEJSZYCH NIŻ GPT-4.
 
Systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania [1] i potwierdzone przez najlepsze laboratoria AI. [2] Jak stwierdzono w powszechnie akceptowanych zasadach sztucznej inteligencji Asilomar , zaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana oraz zarządzana z odpowiednią troską i zasobami . Niestety, ten poziom planowania i zarządzania nie ma miejsca, mimo że w ostatnich miesiącach laboratoria sztucznej inteligencji trwają w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie są w stanie zrozumieć, przewidywać lub efektywnie kontrolować.
 
Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w zadaniach ogólnych [3] i musimy zadać sobie pytanie: czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie zadania, w tym te kreatywne, pozwalające na rozwój i dające satysfakcję? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, uczynić nas przestarzałymi i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?
 
Takie decyzje nie mogą być przekazywane niewybieralnym liderom technologicznym. Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania. Ta pewność musi być dobrze uzasadniona i wzrastać wraz z wielkością potencjalnych skutków systemu. W niedawnym oświadczeniu OpenAI dotyczącym sztucznej inteligencji ogólnej stwierdza się, że „w pewnym momencie może być ważne uzyskanie niezależnej oceny przed rozpoczęciem szkolenia przyszłych systemów, a w przypadku najbardziej zaawansowanych wysiłków uzgodnienie ograniczenia tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modeli”. Zgadzamy się. Ten punkt jest teraz.
 
Dlatego wzywamy wszystkie laboratoria sztucznej inteligencji AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4 . Ta przerwa powinna być jawna i możliwa do zweryfikowania oraz obejmować wszystkie kluczowe podmioty. Jeśli taka przerwa nie może zostać szybko uchwalona, ​​ wówczas powinny wkroczyć rządy i wprowadzić moratorium.
 
Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych. Protokoły te powinny zapewniać ponad wszelką wątpliwość, że systemy, które się do nich stosują, są bezpieczne. [4] Nie oznacza to ogólnie przerwy w rozwoju sztucznej inteligencji, a jedynie wycofanie się z niebezpiecznego wyścigu do coraz większych, nieprzewidywalnych modeli czarnej skrzynki z pojawiającymi się możliwościami.
Badania i rozwój sztucznej inteligencji powinny zostać ponownie skoncentrowane na uczynieniu dzisiejszych potężnych, najnowocześniejszych systemów dokładniejszymi, bezpieczniejszymi, łatwiejszymi do interpretacji, przejrzystymi, niezawodnymi, spójnymi, godnymi zaufania i lojalnymi.
 
Równolegle programiści AI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania AI. Powinny one obejmować co najmniej: nowe i kompetentne organy regulacyjne zajmujące się sztuczną inteligencją; nadzór i śledzenie wysoce wydajnych systemów sztucznej inteligencji i dużych zasobów mocy obliczeniowej; systemy pochodzenia i znaków wodnych pomagające odróżnić prawdziwe od syntetycznych i śledzić wycieki modeli; solidny ekosystem audytu i certyfikacji; odpowiedzialność za szkodę wyrządzoną przez AI; solidne finansowanie publiczne badań technicznych nad bezpieczeństwem sztucznej inteligencji; oraz dobrze wyposażone instytucje do radzenia sobie z dramatycznymi zakłóceniami gospodarczymi i politycznymi (zwłaszcza w demokracji), które spowoduje sztuczna inteligencja.
 
Ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji. Po pomyślnym stworzeniu potężnych systemów sztucznej inteligencji możemy teraz cieszyć się „latem sztucznej inteligencji”, w którym czerpiemy korzyści, konstruując te systemy z wyraźną korzyścią dla wszystkich i dając społeczeństwu szansę na przystosowanie się. Społeczeństwo zatrzymało się na innych technologiach, które mogą mieć katastrofalne dla niego skutki. [5] Możemy to zrobić tutaj. Cieszmy się długim sztucznym latem, a nie pędźmy nieprzygotowani do jesieni.
 
 
Uwagi i odniesienia
[1]
Bender, EM, Gebru, T., McMillan-Major, A. i Shmitchell, S. (2021, marzec). O niebezpieczeństwach stochastycznych papug: czy modele językowe mogą być zbyt duże? W materiałach z konferencji ACM 2021 na temat uczciwości, odpowiedzialności i przejrzystości (s. 610-623).
Bostrom, N. (2016). Superinteligencja. Oxford University Press.
Bucknall, BS i Dori-Hacohen, S. (2022, lipiec). Bieżąca i najbliższa przyszłość AI jako potencjalny czynnik ryzyka egzystencjalnego. W Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (s. 119-129).
Carlsmith, J. (2022). Czy dążąca do władzy sztuczna inteligencja stanowi zagrożenie egzystencjalne? . arXiv preprint arXiv:2206.13353.
Christian, B. (2020). Problem wyrównania: uczenie maszynowe i wartości ludzkie. Norton & Spółka.
Cohen, M. i in. (2022). Zaawansowani sztuczni agenci interweniują w zapewnianiu nagrody. Magazyn AI , 43 (3) (s. 282-293).
Hendrycks, D. i Mazeika, M. (2022). Analiza ryzyka X dla badań nad sztuczną inteligencją . arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). Problem wyrównania z perspektywy głębokiego uczenia się. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Kompatybilny z człowiekiem: sztuczna inteligencja i problem kontroli . Wiking.
Tegmark, M. (2017). Życie 3.0: Być człowiekiem w dobie sztucznej inteligencji. Knopf.
Weidinger, L. i in. (2021). Etyczne i społeczne ryzyko krzywdy wynikające z modeli językowych. arXiv preprint arXiv:2112.04359.
[2]
[3]
Bubeck, S. i in. (2023). Iskry sztucznej inteligencji ogólnej: wczesne eksperymenty z GPT-4 . arXiv:2303.12712.
Open AI (2023). Raport techniczny GPT-4 . arXiv:2303.08774.
[4]
Istnieje wiele precedensów prawnych – na przykład szeroko przyjęte zasady OECD dotyczące sztucznej inteligencji wymagają, aby systemy sztucznej inteligencji „funkcjonowały właściwie i nie stwarzały nieuzasadnionego ryzyka dla bezpieczeństwa”.
[5]
Przykłady obejmują klonowanie ludzi, modyfikację ludzkiej linii zarodkowej, badania nad uzyskaniem funkcji i eugenikę.
 

Comment