Osoba przeglądająca media społecznościowe na laptopie i telefonie.

Meta zmienia kurs? Nieletni nie porozmawiają już z chatem AI na temat aborcji

10.03.2026
Redakcja
Czas czytania: 2 minut/y

W obliczu rosnącej krytyki i publicznej debaty dotyczącej bezpieczeństwa najmłodszych użytkowników sieci, Meta zdecydowała się na zaostrzenie wytycznych dotyczących interakcji sztucznej inteligencji z osobami poniżej 18. roku życia. Firma wprowadziła mechanizmy blokujące chatbotom możliwość udzielania porad w kontrowersyjnych kwestiach, takich jak aborcja czy szczegółowe aspekty zdrowia seksualnego.

Nowe standardy bezpieczeństwa AI

Meta, w odpowiedzi na liczne doniesienia medialne i naciski organów regulacyjnych, zrewidowała swoje „Standardy Ryzyka Treści” (GenAI: Content Risk Standards). Zgodnie z najnowszymi wytycznymi, chatboty AI zintegrowane z platformami takimi jak Facebook, Instagram czy WhatsApp, mają obowiązek zachowywać neutralność w tematach światopoglądowych i unikać udzielania osobistych opinii.

Kluczowe zmiany wprowadzone przez koncern obejmują:

  • Zakaz udzielania porad: Sztuczna inteligencja nie może oferować porad ani wyrażać opinii w sprawach dotyczących aborcji czy zdrowia seksualnego, jeśli użytkownikiem jest osoba nieletnia.
  • Kierowanie do ekspertów: W sytuacjach wymagających wsparcia, chatboty zostały zaprogramowane, aby przekierowywać nieletnich do profesjonalnych zasobów pomocowych i specjalistów.
  • Wiekowa odpowiedniość: Meta deklaruje, że jej systemy są trenowane w celu prowadzenia dyskusji dostosowanych do poziomu dojrzałości nastoletnich użytkowników, z uwzględnieniem domyślnych zabezpieczeń.

Reakcja na krytykę i presję regulacyjną

Decyzja Mety jest pokłosiem serii kontrowersji, które wstrząsnęły opinią publiczną w 2025 roku. Raporty medialne wskazywały, że wewnętrzne wytyczne firmy pozwalały wcześniej na interakcje, które mogły być szkodliwe dla dzieci, w tym na rozmowy o podtekście romantycznym czy seksualnym. Pod wpływem tych doniesień oraz po interwencjach polityków, takich jak senator Edward Markey czy Josh Hawley, firma podjęła decyzję o czasowym wstrzymaniu dostępu nieletnich do niektórych funkcji AI w celu przeprowadzenia audytu bezpieczeństwa i wdrożenia bardziej rygorystycznych kontroli rodzicielskich.

Nasze systemy sztucznej inteligencji są szkolone tak, aby prowadzić dyskusje z nastolatkami w sposób odpowiedni do ich wieku oraz w stosownych sytuacjach łączyć ich z ekspertami i odpowiednimi zasobami pomocowymi. Zapewniają faktyczne informacje na temat zdrowia seksualnego, powstrzymując się jednak od udzielania porad lub wyrażania opinii

— zapewnił rzecznik firmy w komunikacie dla EWTN News.

Równowaga między otwarciem a ochroną

Firma konsekwentnie odpiera zarzuty o stronniczość ideologiczną. Rzecznicy Mety podkreślają, że platformy pozostają otwarte na merytoryczną debatę oraz reklamy usług medycznych, o ile treści te są zgodne z ustalonymi zasadami społeczności. Wprowadzone ograniczenia dla nieletnich są przedstawiane nie jako forma cenzury światopoglądowej, lecz jako konieczny środek ochrony młodych osób przed przedwczesną ekspozycją na skomplikowane i wrażliwe dylematy medyczne.

Obecne działania Mety stanowią próbę wypracowania nowego balansu. Gigant technologiczny stara się z jednej strony utrzymać pozycję platformy sprzyjającej otwartej wymianie myśli, z drugiej zaś — odpowiedzieć na narastający społeczny postulat ochrony dzieci przed niepożądanymi wpływami technologii generatywnej sztucznej inteligencji. Czy te zabezpieczenia okażą się wystarczające, zależy od tego, jak skutecznie będą egzekwowane w nadchodzących miesiącach.

Masz temat, o którym powinniśmy napisać? Skontaktuj się z nami!
Opisujemy ciekawe sprawy nadsyłane przez naszych czytelników. Napisz do nas, opisz dokładnie fakty i prześlij wraz z ewentualnymi załącznikami na adres: redakcja@pkb24.pl.
REKLAMA
REKLAMA