ChatGPT

Zdaniem sygnalistów OpenAI nie robi wystarczająco wiele by zapobiec zagrożeniom ze strony sztucznej inteligencji

04.06.2024
Redakcja
Czas czytania: 2 minut/y

Grupa obecnych i byłych pracowników OpenAI wzywa do radykalnych zmian w przemyśle sztucznej inteligencji, w tym do większej przejrzystości i ochrony sygnalistów – czytamy w New York Times.

Grupa, w skład której wchodzi dziewięciu obecnych i byłych pracowników OpenAI, powstała się w związku z obawami, że firma nie robi wystarczająco wiele, na rzecz przeciwdziałania zagrożeniom ze strony sztucznej inteligencji. Jej członkowie twierdzą, że OpenAI, które zaczęło jako laboratorium badawcze non-profit, stawia na pierwszym miejscu zyski i rozwój, dążąc do budowy A.G.I. (artificial general intelligence, zwane też „Strong AI”). To branżowe określenie komputera zdolnego zrobić wszystko to co potrafi zrobić człowiek.

Twierdzą również, że OpenAI uniemożliwia pracownikom wyrażanie swoich obaw dotyczących technologii. Doszło nawet do tego, że byli pracownicy zostali zobowiązani do podpisania restrykcyjnych umów o niedyskredytowaniu.

OpenAI jest naprawdę podekscytowane budowaniem A.G.I. i lekkomyślnie dąży do tego, aby być w tym pierwszym

– powiedział Daniel Kokotajlo, były badacz w dziale zarządzania OpenAI i jeden z organizatorów grupy.

Grupa opublikowała we wtorek list otwarty, w którym wezwała czołowe grupy specjalizujące się w AI, w tym OpenAI, do zapewnienia większej przejrzystości i większej ochrony sygnalistów.

Wśród członków grupy są także William Saunders, inżynier ds. badań, który opuścił OpenAI w lutym, oraz trzej inni byli pracownicy OpenAI: Carroll Wainwright, Jacob Hilton i Daniel Ziegler. Kilku obecnych pracowników OpenAI poparło ten list anonimowo, ponieważ obawiali się odwetu ze strony firmy. Apel podpisali także obecny i jeden były pracownik Google DeepMind, centralnego zespołu ds. sztucznej inteligencji Google.

Rzeczniczka OpenAI, Lindsey Held, powiedziała w oświadczeniu:

Jesteśmy dumni z naszych osiągnięć w dostarczaniu najbardziej wydajnych i najbezpieczniejszych rozwiązań AI i wierzymy w nasze naukowe podejście do rozwiązywania problemów. Zgadzamy się, że rygorystyczna debata ma kluczowe znaczenie, biorąc pod uwagę znaczenie tej technologii, i będziemy nadal współpracować z rządami, społeczeństwem obywatelskim i innymi grupami na całym świecie

Rzecznik Google odmówił komentarza w tej sprawie.

Kokotajlo dołączył do OpenAI w 2022 r. jako badacz zarządzania i został poproszony o prognozowanie rozwoju sztucznej inteligencji. W swojej poprzedniej pracy w branży sztucznej inteligencji, przewidział, że A.G.I. może pojawić się w 2050 r. Jednak po zobaczeniu, jak szybko A.I. się rozwija, zmienił zdanie. Teraz uważa, że ​​istnieje 50 proc. szans, że A.G.I. pojawi się już do 2027 r..

Jak podaje New York Times, Kokotajlo uważa również, że prawdopodobieństwo, że zaawansowana sztuczna inteligencja zniszczy lub katastrofalnie skrzywdzi ludzkość wynosi 70 proc.

MD/źródło: New York Times

Masz temat, o którym powinniśmy napisać? Skontaktuj się z nami!
Opisujemy ciekawe sprawy nadsyłane przez naszych czytelników. Napisz do nas, opisz dokładnie fakty i prześlij wraz z ewentualnymi załącznikami na adres: redakcja@pkb24.pl.
REKLAMA
REKLAMA