ChatGPT

Elon Musk i współtwórca Apple chcą wstrzymania rozwoju sztucznej inteligencji

06.04.2023
Redakcja
Czas czytania: 2 minut/y

3000 osób podpisało się pod otwartym listem w sprawie zastopowania rozwoju sztucznej inteligencji. Zdaniem jego autorów, półroczne moratorium jest niezbędne, aby eksperci mogli opracować protokoły bezpieczeństwa dla rozwijania zaawansowanych systemów SI. GPT-4 posiada ponad 571 razy więcej parametrów posiada w porównaniu z GPT-3 – czytamy w najnowszym tygodniku PIE.

W liście otwartym niektórzy przedstawiciele sektora sztucznej inteligencji wezwali do zaprzestania rozwoju systemów bardziej zaawansowanych niż chat GPT-4 na co najmniej sześć miesięcy. Pod listem podpisało się prawie 3000 osób, w tym m.in. Elon Musk, Steve Wozniak (współtwórca Apple) czy Stuart Russell (badacz SI z Uniwersytetu w Berkeley).

SI a bezpieczeństwo

Zdaniem autorów, półroczne moratorium jest niezbędne, aby eksperci mogli opracować protokoły bezpieczeństwa dla rozwijania zaawansowanych systemów SI.

Autorzy argumentują, że rozwój SI powinien skupić się na ulepszaniu obecnych systemów pod kątem ich dokładności czy bezpieczeństwa. Obawa wynika m.in. ze skokowego wzrostu złożoności modeli językowych.

Dla zobrazowania: GPT-3 miał 175 mld parametrów, a GPT-4 ma ich aż 100 bln – to od liczby parametrów zależy umiejętność uczenia się przez model zależności między słowami.

Eksperci są podzieleni

Część badaczy, np. Eliezer Yudkowsky, pionier badań nad SI, opublikował odpowiedź, w której krytykuje autorów, gdyż ci powinni byli mocniej skupić się na zagrożeniu wynikającym z powstania sztucznej inteligencji znacząco przewyższającej ludzką. Powstanie takiej superinteligencji – zdaniem badacza – może przyczynić się do zagłady ludzkości. Takie podejście oraz podejście autorów otwartego listu to tzw. criti-hype, czyli pozorna krytyka mająca tylko wyolbrzymić możliwości danej technologii.

Zgodnie z innym podejściem, prezentowanym np. przez Sundara Pichaia CEO Google, moratorium na rozwój technologii jest zwyczajnie niewykonalne. Zdaniem Pichaia, nie można po prostu wysłać maila do inżynierów z prośbą, aby zaprzestali swojej pracy.

W podobnym tonie wypowiadał się były CEO Googla Eric Shmidt, który twierdzi, że najlepszym sposobem na ograniczenie zagrożeń SI jest udostępnienie kodu szerszej publiczności. Pomysł moratorium nieco zgryźliwie skomentował także główny naukowiec Mety – Yann LeCun. Zwrócił on uwagę, że podobnego zabiegu próbował kościół katolicki w 1440 r., gdy na sześć miesięcy chciał zablokować rozwój druku. Takie podejście z kolei sprzyja prywatyzacji wiedzy wytwarzanej w ramach otwartego dostępu do kodu.

Powyższe podejścia stwarzają fałszywą dychotomię, zgodnie z którą rozwój technologii należy albo całkowicie zatrzymać, albo bezgranicznie otworzyć. Tymczasem zagrożenia i ryzyka związane z rozwojem SI oraz jej wykorzystaniem są bardziej przyziemne. Wyzwaniem są raczej uprzedzenia zawarte w bazach danych, na których uczą się algorytmy, próby scedowania odpowiedzialności z twórców na bezosobowe „systemy” czy brak możliwości odwołania się od decyzji algorytmicznych. Na tych problemach powinniśmy się skupić, zamiast tworzyć serie spekulatywnych zagrożeń rodem z filmów science-fiction.

– oceniają eksperci Polskiego Instytutu Ekonomicznego.

MD/źródło: Tygodnik PIE

Masz temat, o którym powinniśmy napisać? Skontaktuj się z nami!
Opisujemy ciekawe sprawy nadsyłane przez naszych czytelników. Napisz do nas, opisz dokładnie fakty i prześlij wraz z ewentualnymi załącznikami na adres: redakcja@pkb24.pl.
REKLAMA
REKLAMA