شرکتهای فناوری باید اقدامات بیشتری برای حفظ ایمنی کودکان در فضای مجازی در بریتانیا انجام دهند، پس از اجرایی شدن قانون ایمنی آنلاین. این قوانین جدید در سال ۲۰۲۵ اجرایی خواهند شد، اما منتقدان معتقدند که این اقدامات کافی نیستند.
قبل از خواندن مقاله امروز شاید بهتر باشد ابتدا نگاهی به مقاله کودکان زیبایی که کودکی را تجربه نمی کنند داشته باشیم.
کودکان در بریتانیا چقدر وقت آنلاین میگذرانند؟
تحقیقات سازمان تنظیم مقررات ارتباطات Ofcom نشان میدهد که کودکان ۸ تا ۱۷ ساله روزانه بین ۲ تا ۵ ساعت را بهصورت آنلاین سپری میکنند، و این میزان با افزایش سن بیشتر میشود.
تقریباً تمام کودکان بالای ۱۲ سال تلفن همراه دارند و اکثریت آنها ویدئوهایی را در یوتیوب یا تیکتاک تماشا میکنند.
چهار نفر از هر پنج نوجوان آنلاین میگویند که از ابزارهای هوش مصنوعی مانند ChatGPT یا MyAI اسنپچت استفاده کردهاند.
حدود نیمی از کودکان بالای ۱۲ سال معتقدند که حضور آنلاین برای سلامت روان آنها مفید است. اما یکهشتم از کودکان ۸ تا ۱۷ ساله گزارش دادهاند که در شبکههای اجتماعی یا پیامرسانها با پیامهای آزاردهنده یا توهینآمیز مواجه شدهاند.
کمیسیونر کودکان بریتانیا اعلام کرده است که نیمی از ۱۳ سالهها در نظرسنجی تیم او، محتوای مستهجن زنستیزانه و خشن را در شبکههای اجتماعی دیدهاند.
چه کنترلهای والدینی برای ایمنی آنلاین کودکان وجود دارد؟
طبق گزارش سازمان Internet Matters، دوسوم والدین از کنترلهای والدینی برای محدود کردن محتوای قابل مشاهده توسط کودکان خود استفاده میکنند.
این سازمان فهرستی از ابزارهای کنترل والدین را همراه با راهنمای گامبهگام استفاده از آنها ارائه کرده است.
در یوتیوب، والدین میتوانند نسخه YouTube Kids را فعال کنند که محتوای مخصوص بزرگسالان را فیلتر میکند.
والدین همچنین میتوانند حسابهای نظارتشده (Supervised Accounts) تنظیم کنند تا محتوای مشاهدهشده توسط کودکان بزرگتر در نسخه اصلی یوتیوب را بررسی کنند.
در Facebook Messenger، گزینه Family Centre به والدین اجازه نظارت بر فعالیتهای آنلاین فرزندشان را میدهد.
شرکت Meta که مالک فیسبوک و اینستاگرام است، ابزارهایی مانند محدودیت زمان استفاده روزانه، زمانهای استراحت برنامهریزیشده، و اطلاعاتی درباره محتوایی که کودک با آن تعامل دارد را ارائه کرده است.
در اینستاگرام، حسابهای نوجوانان زیر ۱۸ سال بهطور پیشفرض روی حالت خصوصی (Private) تنظیم میشوند.
با این حال، کارشناسان همچنان معتقدند که علاوه بر کنترلهای فنی، آموزش و گفتوگو با کودکان درباره ایمنی آنلاین ضروری است.
بهطور مشابه، کودکان زیر ۱۳ سال در Roblox باید برای داشتن گفتوگوهای خصوصی درون بازی، رضایت والدین خود را دریافت کنند.
TikTok اعلام کرده است که ابزار Family Pairing به والدین این امکان را میدهد که تصمیم بگیرند آیا حساب یک نوجوان خصوصی باشد یا نه.
اما این کنترلها کاملاً بدون نقص نیستند. دادههای Ofcom نشان میدهد که حدود یک نفر از هر ۲۰ کودک از روشهای دور زدن این محدودیتها استفاده میکند.
“دروغ گفتن خیلی آسان است” یکپنجم کودکان از سن جعلی در شبکههای اجتماعی استفاده میکنند
چه کنترلهایی در تلفنهای همراه و کنسولهای بازی وجود دارد؟
برخی از شبکههای تلفن همراه ممکن است دسترسی به وبسایتهای دارای محتوای نامناسب را تا زمانی که کاربر ثابت نکند بالای ۱۸ سال است، مسدود کنند.
برخی اپراتورها نیز کنترلهای والدینی ارائه میدهند که میتوانند وبسایتهای قابل مشاهده توسط کودکان را محدود کنند.
گوشیها و تبلتهای اندروید و اپل نیز دارای ابزارهای کنترل والدین برای مدیریت محتوای قابل مشاهده و مدت زمان استفاده کودکان هستند.
صحبت با کودکان درباره ایمنی آنلاین و داشتن علاقه به فعالیتهای آنها در فضای مجازی بسیار مهم است. طبق توصیههای NSPCC، این موضوع باید بخشی از مکالمات روزمره باشد، مانند صحبت درباره روز آنها در مدرسه. این کار باعث میشود کودکان راحتتر نگرانیهای خود را مطرح کنند.
قوانین ایمنی کودکان در بریتانیا برای شرکتهای فناوری چیست؟
قانون ایمنی آنلاین (Online Safety Act) با هدف محافظت از کودکان و بزرگسالان در بریتانیا در برابر محتوای غیرقانونی و مضر، رسانههای اجتماعی و موتورهای جستجو را موظف به اجرای مقررات جدید میکند.
این قانون در سال ۲۰۲۳ تصویب شد و وظایف مربوط به پلتفرمها از سال ۲۰۲۵ اجرایی خواهد شد.
بر اساس این قانون، پلتفرمها باید تعهد خود را به حذف محتوای غیرقانونی نشان دهند، از جمله:
- سوءاستفاده جنسی از کودکان
- رفتارهای کنترلکننده یا اجبارآمیز
- خشونت جنسی شدید
- ترویج یا تسهیل خودکشی یا خودآزاری
- خشونت علیه حیوانات
- فروش مواد مخدر یا سلاحهای غیرقانونی
- تروریسم
سایتهای محتوای مستهجن موظف خواهند بود تا از دسترسی کودکان به محتوای خود جلوگیری کنند، از طریق بررسی سن کاربران.
علاوه بر این، پلتفرمها باید کودکان را از محتوای مضر محافظت کنند، به ویژه محتوایی که به زنان و دختران آسیب میزند، مانند سوءاستفاده از تصاویر خصوصی و آزار و اذیت.
جرایم جدید در قانون ایمنی آنلاین
این قانون برخی جرایم جدید را نیز تعریف کرده است، از جمله:
- سایبر فلشینگ (Cyber-flashing): ارسال تصاویر جنسی ناخواسته در فضای آنلاین
- به اشتراکگذاری محتوای مستهجن “دیپفیک”: استفاده از هوش مصنوعی برای قرار دادن چهره فردی در محتوای مستهجن بدون رضایت او
همچنین این قانون دسترسی والدین داغدار به اطلاعات فرزندانشان از شرکتهای فناوری را آسانتر میکند.
نقش آفکام (Ofcom) در اجرای قانون
آفکام، بهعنوان نهاد نظارتی مسئول اجرای این قانون، اختیارات بیشتری برای تضمین رعایت مقررات توسط شرکتها دریافت کرده است.
پلتفرمها باید ارزیابی کنند که کاربران، بهویژه کودکان، در معرض چه نوع محتوای غیرقانونی یا مضر قرار دارند و اقداماتی را مطابق با دستورالعملهای آفکام برای پیشگیری از این خطرات اجرا کنند.
رئیس اجرایی آفکام، ملانی داوز، هشدار داده است که اگر سرویسها از قوانین پیروی نکنند، حداقل سن کاربران آنها ممکن است به ۱۸ سال افزایش یابد.
انتقادات به قانون ایمنی آنلاین
برخی والدین کودکانی که پس از مواجهه با محتوای مضر آنلاین جان خود را از دست دادهاند، این قانون را ناکافی دانسته و از تأخیر در اجرای آن انتقاد کردهاند.
افرادی مانند ایان راسل، پدر مالی راسل، و استر گی، مادر بریانا گی، خواستار مقررات سختگیرانهتر و مسئولیتپذیری بیشتر شرکتهای فناوری شدهاند.
نظرات کاربران