Australia i Europa zaostrzają przepisy dotyczące social mediów

W 2024 roku w Australii przyjęto ustawę Online Safety Amendment (Social Media Minimum Age) Act, która ustaliła minimalny wiek korzystania z mediów społecznościowych na poziomie 16 lat. Nowe regulacje objęły m.in. TikToka, Instagrama, Facebooka, YouTube’a i Snapchata. Platformy zostały zobowiązane do blokowania kont osób młodszych lub usuwania już istniejących profili należących do dzieci.

Reklama

Za nieskuteczne egzekwowanie przepisów grożą wysokie kary finansowe, sięgające nawet 50 milionów dolarów australijskich. Co istotne, ustawodawca przeniósł odpowiedzialność za weryfikację wieku bezpośrednio na firmy technologiczne.

Weryfikacja wieku zamiast prostych deklaracji

Nowe prawo jasno wskazuje, że samo podanie daty urodzenia podczas rejestracji nie jest wystarczające. Platformy muszą podejmować tzw. rozsądne działania weryfikacyjne. W praktyce oznacza to korzystanie z analizy danych kontekstowych, takich jak numer telefonu, adres IP czy informacje o urządzeniu, a także zewnętrznych systemów potwierdzania wieku i modeli behawioralnych, które szacują wiek użytkownika na podstawie jego zachowania w sieci.

Ustawa nie narzuca stosowania rządowego cyfrowego identyfikatora. Władze deklarują, że celem jest jednoczesna ochrona dzieci oraz prywatności użytkowników.

Reklama

Podobne kierunki w Europie

Na podobne rozwiązania zdecydowała się Dania, gdzie dzieci poniżej 15. roku życia nie mogą korzystać z wybranych platform bez zgody rodziców. Opiekunowie mogą wyrazić zgodę dla młodszych nastolatków, którzy ukończyli 13 lat. Na poziomie Unii Europejskiej o ujednolicenie minimalnego wieku dostępu do social mediów zabiegają m.in. Francja, Hiszpania i Grecja.

Dlaczego rządy decydują się na regulacje

Zaostrzenie przepisów jest odpowiedzią na liczne badania wskazujące na negatywny wpływ intensywnego korzystania z mediów społecznościowych na psychikę młodych ludzi. Eksperci zwracają uwagę na wzrost ryzyka depresji, zaburzeń lękowych, problemów ze snem oraz obniżonego poczucia własnej wartości.

Algorytmy platform społecznościowych często wzmacniają presję porównań, eksponując wyidealizowane obrazy życia rówieśników i influencerów. Dla nastolatków, których tożsamość dopiero się kształtuje, może to być szczególnie obciążające.

– Mózg dzieci i młodzieży jest wyjątkowo wrażliwy na bodźce i mechanizmy nagrody. Social media oferują natychmiastową gratyfikację, a jednocześnie generują presję porównywania się z innymi. Gdy młody człowiek nie potrafi sobie z tym poradzić, pojawia się frustracja, lęk i spadek samooceny – wyjaśnia Katarzyna Lisowska-Bojar, psycholog szkolna z sieci szkół Academy International.

Polska dopiero przygotowuje własne rozwiązania

W Polsce trwają prace nad poselskim projektem ustawy, który ma ograniczyć dostęp do mediów społecznościowych osobom poniżej 15. roku życia. Inicjatywa jest związana z minister edukacji Barbarą Nowacką oraz posłem Romanem Giertychem. Zgodnie z zapowiedziami projekt ma być gotowy do końca lutego 2026 roku.

Autorzy regulacji podkreślają, że ich celem jest ochrona zdrowia psychicznego dzieci i młodzieży, w szczególności przed problemami ze snem, depresją, lękiem oraz presją funkcjonowania w świecie internetowych porównań.

– Kluczowe jest obserwowanie, jak młodzi ludzie korzystają z sieci, i reagowanie na niepokojące sygnały. Nie chodzi o całkowite zakazy, ale o rozmowę, tłumaczenie zagrożeń i wspólne ustalanie zasad – podkreśla Katarzyna Goryluk-Gierszewska, dyrektor jednej z placówek Academy International w Warszawie.

Ograniczenia wiekowe to nie jedyne wyzwanie

Specjaliści zwracają uwagę, że same przepisy nie rozwiążą wszystkich problemów. Część dzieci może odczuwać frustrację i wykluczenie, a brak dostępu do popularnych platform może skłaniać je do przenoszenia aktywności do mniej bezpiecznych miejsc w sieci.

– Regulacje bez równoległej edukacji cyfrowej i wsparcia emocjonalnego są jedynie częściowym rozwiązaniem. Młodzi ludzie muszą rozumieć, dlaczego granice są wprowadzane, i uczyć się budowania relacji oraz poczucia własnej wartości poza ekranem – dodaje Katarzyna Lisowska-Bojar.

Ochrona dzieci w sieci wymaga kompleksowego podejścia

Doświadczenia Australii i krajów europejskich pokazują, że państwa coraz częściej próbują systemowo ograniczać ryzyka związane z mediami społecznościowymi. Polska dopiero rozpoczyna tę debatę, a ostateczny kształt regulacji wciąż pozostaje otwarty.

Eksperci są jednak zgodni: skuteczna ochrona dzieci w sieci wymaga połączenia prawa, edukacji, wsparcia psychologicznego oraz świadomego zaangażowania rodziców i nauczycieli. W praktyce każdy kontakt dziecka z ekranem może stać się punktem wyjścia do rozmowy o odpowiedzialnym korzystaniu z technologii i budowaniu wartości niezależnych od lajków i zasięgów.