AI Elona Muska najczęściej ze wszystkich podaje błędne informacje

13.03.2025
Dorian
Czas czytania: 2 minut/y

Sztuczna inteligencja, przez lata budząca zachwyt swoimi możliwościami, coraz częściej okazuje się zawodna. Chociaż generatywne AI obiecywało rewolucję w dostępie do informacji, nowe badania Tow Center for Digital Journalism wskazują na poważne problemy z jego wiarygodnością. Okazuje się, że w ponad połowie przypadków narzędzia takie jak ChatGPT Search, Perplexity czy Copilot nie potrafią nawet poprawnie zidentyfikować źródła podanej informacji.

Najgorzej wypadł jednak Grok, system rozwijany przez X Elona Muska, który wykazał się szczególnie wysokim poziomem błędów.

Największym problemem nie jest jednak sama niedokładność wyszukiwarek AI, ale sposób, w jaki prezentują błędne informacje. Modele językowe często generują odpowiedzi pełne przekonania, nawet jeśli są one całkowicie oderwane od rzeczywistości. To zjawisko, określane jako „halucynacje AI”, sprawia, że użytkownicy nieświadomie przyjmują błędne dane za prawdziwe. Co gorsza, nawet gdy AI zostanie przyłapane na błędzie, potrafi uparcie podtrzymywać swoją wersję, zamiast przyznać się do niewiedzy. Takie działanie może prowadzić do poważnych konsekwencji, zwłaszcza gdy użytkownicy bazują na wynikach AI przy podejmowaniu decyzji biznesowych czy finansowych.

Płatne nie znaczy lepsze

Wiele osób zakłada, że płatne wersje wyszukiwarek AI oferują większą dokładność. Niestety, badania Tow Center pokazują, że to mit. Modele premium, za które użytkownicy płacą kilkadziesiąt dolarów miesięcznie, często generują jeszcze więcej błędów niż darmowe wersje. Zdarza się, że przypisują artykuły niewłaściwym redakcjom, powołują się na nieistniejące źródła lub tworzą linki prowadzące donikąd. Takie sytuacje budzą frustrację zarówno wśród użytkowników, jak i wydawców, którzy często nawet nie są świadomi, że ich treści są błędnie cytowane lub całkowicie pomijane.

Wśród analizowanych narzędzi szczególnie źle wypadł Grok, rozwijany przez firmę Elona Muska. Już wcześniej AI od X miało problemy z precyzją, ale badania Tow Center potwierdziły, że to właśnie Grok najczęściej podaje nieprawidłowe źródła i generuje największą liczbę „halucynacji”. To niepokojący sygnał dla użytkowników, którzy oczekiwali od technologii Muska większej niezawodności i jakości. Wydaje się, że zamiast przełomu, Grok stał się przykładem tego, jak nie należy projektować wyszukiwarek AI.

Choć generatywna sztuczna inteligencja bez wątpienia jest przełomem, jej obecne ograniczenia sprawiają, że nie można jej bezkrytycznie ufać. Wyszukiwarki AI powinny być traktowane jako pomocnicze narzędzia, a nie główne źródło informacji.

Masz temat, o którym powinniśmy napisać? Skontaktuj się z nami!
Opisujemy ciekawe sprawy nadsyłane przez naszych czytelników. Napisz do nas, opisz dokładnie fakty i prześlij wraz z ewentualnymi załącznikami na adres: redakcja@pkb24.pl.
REKLAMA
REKLAMA