Post „Science”!25 najlepszych naukowców wzywa: w szybkim rozwoju sztucznej inteligencji

3 min read

Stowarzyszenie finansowe 22 maja (redaktor Zhou Ziyi)W obliczu sztucznej inteligencji, która może się szybko rozwinąć, globalna zdolność reagowania na ryzyko nie wydaje się być na dobrej drodze.

Z okazji drugiego szczytu bezpieczeństwa sztucznej inteligencji (od 21 maja do 22) w Seulu w Korei Południowej, 25 światowych naukowców z sztucznej inteligencji, wspólnie opublikowało eksperckie konsensus w magazynie „Science”. Świat nie wystarczy, aby chronić ludzi przed hodowlą technologii.

W artykule przedstawiają priorytet polityk awaryjnych, które globalni przywódcy powinni przyjąć w celu reagowania na zagrożenie technologią sztucznej inteligencji.

Ważne sugestie

Pisarze tego artykułu obejmują 25 światowych ekspertów akademickich sztucznej inteligencji i zarządzania, w tym Geoffrey Hinton, Andrew Yao, Dawn Song, Daniel Kahneman.Autorzy ci pochodzą ze Stanów Zjednoczonych, Chin, Unii Europejskiej, Wielkiej Brytanii i innych mocarstw sztucznej inteligencji, w tym zwycięzcy Turinga, zdobywcy nagrody Nobla i autora podręcznika Standard Artific Intelligence.

Ci naukowcy zwrócili uwagę, że przywódcy na świecie muszą poważnie traktować możliwość opracowania silnego systemu sztucznej inteligencji (AGI) w obecnej dekadzie lub następnych dziesięciu lat.

Powiedzieli również, że chociaż rządy na całym świecie dyskutują o najnowszej sztucznej inteligencji i podejmują pewne próby wprowadzenia wstępnych wskazówek, nie jest to możliwość oczekiwanych przez wielu ekspertów postępu szybkiego i reformy.

Profesor Philip Torr z Wydziału Inżynierii na Uniwersytecie Oxford i Wydział Inżynierii Uniwersytetu Oksfordu powiedział: „Na ostatnim szczycie sztucznej inteligencji cały świat zgodził się podjąć działania, ale nadszedł czas, aby zmienić się z rozmytych sugestii do konkretnych zobowiązań ”.

Niniejszy artykuł zawiera kilka ważnych sugestii dla firmy i rządu, aby obiecać, w tym:

Ustanowienie agencji eksperckiej, która może szybko reagować na ryzyko nadzorujące sztuczną inteligencję i zapewnić więcej funduszy dla tych instytucji.

Bardziej rygorystyczna ocena ryzyka i wyniki wykonywalne, a nie zależą od dobrowolnych lub niejasnych ocen modelu.

Firmy sztucznej inteligencji są zobowiązane do nadania priorytetu bezpieczeństwu i udowodnienia, że ​​ich systemy nie spowodują szkód, a deweloperzy sztucznej inteligencji powinni rozważyć bezpieczeństwo.

Wdrożyć standardy powolnego wydania ryzyka zgodne z poziomem poziomu ryzyka złożonego z systemu sztucznej inteligencji.Odpowiednie strategie powinny być ustawione w celu automatycznego uruchamiania ścisłych wymagań, gdy sztuczna inteligencja spełnia niektóre kamienie milowe;

Warto wspomnieć, że na szczycie sztucznej inteligencji we wtorek (21 maja) czas lokalny, Microsoft, Amazon, Openai i inni giganci technologiczni osiągnęliMiędzynarodowy protokół o znaczeniu przebieguIstota

Zgodnie z niniejszą umową wiele przedsiębiorstw podejmuje zobowiązania, w tym wydanie ram bezpieczeństwa w celu wyświetlania potencjalnych zagrożeń; Proces rozwoju modelu.

Lider nadzoru rządu

Według autora rząd musi w przyszłości przygotować wiodącą rolę w nadzorze dla nienormalnego systemu sztucznej inteligencji.Obejmuje to: zezwala na rozwój tych systemów, ogranicza jego autonomię w kluczowych rolach społecznych, zatrzymuje rozwój i wdrażanie w odpowiedzi na niepokojące funkcje, wymuszoną kontrolę dostępu i wymaga silnych środków bezpieczeństwa informacji dla esencji hakerów krajowych

Profesor informatyki, University of California, Berkeley i autor World Standard Standard Artificial Intelligence Textbook Stuart Russell OBE, powiedział: „Jest to rozprawa osiągnięta przez najlepszych ekspertów, która wzywa rząd do ściśle nadzorowania, zamiast na ściśle nadzorowania, zamiast na ściśle nadzorowanie, zamiast nadzoru, zamiast na ściśle nadzorowanie, zamiast nadzoru, zamiast nadzorowania formułowanie dobrowolnych zachowań przez przemysł w celu sformułowania dobrowolnego kodeksu.

You May Also Like

More From Author