
Nie 13, ale przynajmniej 15 lat powinna mieć osoba, która zakłada konto w platformie społecznościowej – przekonują organizacje pozarządowe i apelują o wprowadzenie i skuteczne egzekwowanie przepisów regulujących tę kwestię. O tym, że ograniczenia są słabo weryfikowane, najlepiej może świadczyć to, że nawet ponad połowa dzieci w wieku 7–12 lat aktywnie korzysta z social mediów. Narażone są tam na dostęp do treści szkodliwych, a zwłaszcza pornografii. Eksperci przekonują jednak, że potrzebna jest spójna polityka i prawo przynajmniej na poziomie unijnym.
– Od kilku miesięcy w Sejmie toczą się prace nad dwiema ustawami. To są zupełnie niezależne inicjatywy. Jedna dotyczy ograniczenia dostępu dzieci do pornografii i innych treści szkodliwych, druga dotyczy ograniczenia ich kontaktu z mediami społecznościowymi i smartfonami w szkołach. Obie inicjatywy mają duże poparcie społeczne, ponieważ jest zgoda co do tego, że w szkołach dzieci potrzebują się skupić na nauce i na relacjach twarzą w twarz, a telefony zaburzają oba te procesy. Z kolei dostęp w sieci do pornografii, treści hazardowych to jest potężny problem społeczny i tu też potrzebujemy konkretnej bramki – mówi w wywiadzie dla agencji Newseria Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.
Podczas czerwcowego posiedzenia Komisji do Spraw Dzieci i Młodzieży prezentowany był raport z monitoringu aktywności dzieci i młodzieży w internecie „Internet dzieci”, opracowany przez Instytut Cyfrowego Obywatelstwa. Wynika z niego, że w pierwszej dziesiątce najczęściej odwiedzanych przez osoby w wieku 7–14 lat domen znajduje się jeden z serwisów pornograficznych. Tylko w grudniu odwiedziło go co trzecie dziecko w tym wieku. Przeciwwagą dla tego zjawiska miał być złożony w lutym przez Ministerstwo Cyfryzacji projekt ustawy o ochronie małoletnich przed dostępem do treści szkodliwych w internecie. Z uwagi na znaczną liczbę uwag do niego na etapie konsultacji resort zmienił część założeń ustawy i ponownie skierował projekt do konsultacji. „Treści szkodliwe” zostały w nim zamienione na „treści pornograficzne”. Zgodnie z założeniami ustawy, określonymi w ocenie skutków regulacji, usługodawca przed umożliwieniem dostępu do usługi zawierającej treści pornograficzne będzie miał obowiązek dokonywania weryfikacji wieku, ale nie na podstawie deklaracji czy biometrii, ale na przykład poprzez potwierdzenie tożsamości za pośrednictwem bankowości elektronicznej. Projekt nie będzie jednak regulował ochrony przed innego rodzaju treściami szkodliwymi, w tym patotreściami. Jak tłumaczy resort, wynika to z tego, że jest to stosunkowo nowe i dynamicznie się zmieniające zagrożenie, które wymaga pogłębionej analizy i dodatkowej pracy.
Dane z raportu „Internet dzieci” wskazują także, że ponad połowa dzieci w wieku 7–12 lat aktywnie korzysta z przynajmniej jednego serwisu społecznościowego lub komunikatora dozwolonego od 13. roku życia.
– Problem społeczny, z jakim mamy do czynienia w Polsce, jest gigantyczny. Wedle różnych danych od 1,5 do 2 mln dzieci poniżej 13. roku życia korzysta z mediów, które nie są projektowane dla nich, a nawet te, które wchodzą legalnie, czyli w wieku 13+, doświadczają w tych mediach bardzo trudnych rzeczy. Mamy ogrom badań i polskich, i zagranicznych pokazujących, że to jest za wcześnie, że wiek dojrzałości internetowej powinien być wyższy, ponieważ mózg dziecka, szczególnie 13-letniej dziewczynki, nie jest gotowy na wyzwania, jakimi są uzależnienia, porównania społeczne, presja dobrego wyglądu, przemoc rówieśnicza i inne, które na pewno wydarzą się w tych sieciach. Musimy więc zawalczyć o wyższy próg wejścia – postuluje Katarzyna Szymielewicz.
Zdaniem ekspertów dziś granica 13 lat ma charakter wyłącznie formalny i wynika z przepisów o ochronie danych osobowych, a nie świadczy do gotowości dziecka do uczestnictwa w życiu cyfrowym na takim poziomie. Szefowa duńskiego rządu zapowiedziała niedawno, że od przyszłego roku osoby poniżej 15. roku życia nie będą mogły korzystać z mediów społecznościowych. Z kolei w Australii już obowiązuje zakaz korzystania z platform takich jak Facebook, Snapchat, TikTok czy YouTube przez osoby poniżej 16. roku życia.
– Komisja Europejska ma skuteczne narzędzia, żeby zawalczyć o podniesienie tego wieku. Co ciekawe, w ostatnich tygodniach przewodnicząca KE Ursula von der Leyen powołała panel ekspercki poświęcony dokładnie temu problemowi. Po raz pierwszy na wysokim poziomie politycznym pojawia się pytanie, czy Unia Europejska powinna jednak wprowadzić jakiś rodzaj zakazu korzystania z mediów społecznościowych poniżej pewnego wieku, tak jak zrobiła to Australia i jak eksperymentują z tym inne kraje europejskie. Nie będzie dobrze, jeżeli te zmiany wydarzą się na poziomie krajowym, bo mamy wspólny rynek, platformy są globalne, bardzo łatwo jest omijać zakazy na poziomie krajowym. Raczej chciałabym, żeby polski rząd i nowy Urząd Komunikacji Elektronicznej, którego prezes będzie miał daleko idące kompetencje, jeśli chodzi o ochronę również dzieci w sieci, raz em walczyły z Komisją Europejską o rozwiązanie tego problemu w Brukseli – ocenia prezeska Fundacji Panoptykon.
Jak podkreśla, doświadczenia z ostatnich lat pokazują, że nie ma co liczyć na to, że problem rozwiążą same platformy społecznościowe, chociaż pojawiają się takie propozycje. Przykładowo Meta wprowadziła w swoich usługach nowy rodzaj kont – dla nastolatków poniżej 16. roku życia. Mają one szereg ograniczeń: nastolatkowie korzystający z Instagrama muszą na przykład akceptować nowych obserwujących, a osoby, które ich nie obserwują, nie mogą oglądać ich treści ani wchodzić z nimi w interakcje. Dotyczy to również możliwości wysyłania wiadomości. Liczby, które pokazują, jak wiele osób w wieku poniżej 13. roku życia korzysta z mediów społecznościowych, są zdaniem ekspertów dowodem na to, że ograniczenia wprowadzane przez operatorów są co najmniej nieskuteczne.
– Przez ostatnie 10 lat próbujemy i my jako organizacje społeczne, i badacze, i Komisja Europejska realizować dialog z platformami internetowymi. To nie jest tak, że problem jest nierozpoznany, że nie mamy zgody co do tego, jak go rozwiązać. Problemem jest oczywiście brak motywacji po stronie biznesu. Tak długo jak udziałowcy wielkich platform, nawet nie ich zarządy, tylko ich giełdowi udziałowcy będą uważali, że opłaca się eksploatować uwagę i dane również małych dzieci i że nie jest to problem, z którym muszą się mierzyć wizerunkowo, to będzie się działo. I to mimo tego że prawo czy regulaminy platform na to nie pozwalają. Obawiam się więc, że potrzebna jest albo presja społeczna, albo presja regulacyjna – ocenia Katarzyna Szymielewicz. Tym bardziej że od strony technologicznej jest to możliwe, a nawet „banalnie proste”.
– Postawienie bramki tam, gdzie jej nie było w sieci, stworzenie nowego punktu w regulaminie i egzekwowanie go, na przykład blokując konta osób poniżej pewnego roku życia, nie wymaga od firm żadnej innowacji. One już to potrafią i już to robią. Jeżeli ich algorytmy namierzają, że użytkownik jest za młody, to już teraz te konta są blokowane i taka osoba musi przejść przez kolejny test, musi wykazać, że ma odpowiedni wiek. Wystarczyłoby dokładnie ten sam mechanizm zastosować po prostu do starszych osób albo stosować go konsekwentnie – podkreśla prezeska Fundacji Panoptykon.
Eksperci wskazują, że potrzebna jest również świadomość po stronie opiekunów. Fundacja Dajemy Dzieciom Siłę uruchomiła w celu jej budowania czwartą edycję kampanii społecznej Domowe Zasady Ekranowe. To zestaw 10 zasad wspierających rodziców w podejmowaniu świadomych decyzji dotyczących ekranów. Zasady te mają wyznaczać bezpieczne ramy korzystania z technologii. W tegorocznym katalogu wprowadzone zostały jednoznaczne rekomendacje wiekowe: bez ekranów do trzeciego roku życia, bez smartfona do 12. roku życia oraz bez mediów społecznościowych do 15. roku życia.
Newseria
Chcesz być na bieżąco z wieściami z naszego portalu? Obserwuj nas na Google News!
Twoje zdanie jest ważne jednak nie może ranić innych osób lub grup.
Komentarze mogą dodawać tylko zalogowani użytkownicy.
Komentarze opinie