ফেসবুক ও ইনস্টাগ্রামের মূল কোম্পানি মেটা’র কন্টেন্ট মডারেশন নীতি পরিবর্তনের সিদ্ধান্ত নিয়ে প্রশ্ন তুলেছে এর তদারকি বোর্ড। বোর্ডের মতে, মানব অধিকারের ওপর এর প্রভাব বিবেচনা না করেই তড়িঘড়ি করে এই পরিবর্তন আনা হয়েছে। গত গ্রীষ্মে যুক্তরাজ্যে দাঙ্গার সময় মুসলিম ও অভিবাসন বিরোধী কিছু পোস্ট সরিয়ে দিতেও দেরি করেছিল মেটা।
মেটা’র এই পদক্ষেপের সমালোচনা করে তদারকি বোর্ড জানিয়েছে, তারা দ্রুততার সঙ্গে কাজ করেছে। বিশেষ করে, যুক্তরাষ্ট্রে ফ্যাক্ট-চেকারদের সরিয়ে দেওয়া এবং প্ল্যাটফর্মে আরও বেশি রাজনৈতিক কন্টেন্ট দেওয়ার সিদ্ধান্তের বিষয়ে মেটা’র আরও সতর্ক হওয়া উচিত ছিল। বোর্ডের মতে, মেটা’র উচিত জাতিসংঘের মানবাধিকার বিষয়ক নীতিগুলো সমুন্নত রাখতে তাদের কার্যক্রম পর্যালোচনা করা।
বোর্ড বিশেষভাবে উল্লেখ করেছে, যুক্তরাজ্যে ঘটে যাওয়া দাঙ্গার সময়কার তিনটি পোস্টের কথা, যেখানে মুসলিম বিদ্বেষী মন্তব্য ছিল। এই পোস্টগুলো সহিংসতা উস্কে দিচ্ছিল এবং দাঙ্গাকারীদের প্রতি সমর্থন জানাচ্ছিল। বোর্ড জানায়, পোস্টগুলো তাৎক্ষণিকভাবে সরিয়ে দেওয়া উচিত ছিল, কারণ এগুলো “ক্ষতির সম্ভাবনা” তৈরি করেছিল।
এই ঘটনার প্রেক্ষাপটে, মেটা জানায় যে তারা দ্রুত একটি বিশেষ দল গঠন করে কয়েক হাজার আপত্তিকর কন্টেন্ট সরিয়ে ফেলেছে।
এছাড়াও, মেটা’র নতুন নীতিমালায় এখন ব্যবহারকারীরা তাদের মতামত প্রকাশের সময় কোনো ব্যক্তি বা গোষ্ঠীকে তাদের ধর্ম, লিঙ্গ, জাতি বা অভিবাসন স্ট্যাটাসের ভিত্তিতে চিহ্নিত করতে পারবে। ফলে, ব্যবহারকারীরা কোনো নির্দিষ্ট গোষ্ঠীর বিরুদ্ধে বিদ্বেষপূর্ণ মন্তব্য করতে পারবে।
যুক্তরাজ্যের ঘটনার বাইরে, পোল্যান্ড ও জার্মানিতে অভিবাসন বিরোধী দুটি পোস্ট সরানোরও নির্দেশ দিয়েছে বোর্ড। মেটা’কে তাদের ঘৃণা বিষয়ক নীতিমালার পরিবর্তনের ফলে শরণার্থী ও আশ্রয়প্রার্থীদের অধিকারের ওপর কী প্রভাব পড়ছে, তা চিহ্নিত করতে বলা হয়েছে।
বিষয়টি নিয়ে মেটা কর্তৃপক্ষের সঙ্গে যোগাযোগ করা হলে, তারা জানায় যে, তদারকি বোর্ডের সুপারিশ অনুযায়ী তারা ব্যবস্থা গ্রহণ করবে।
তথ্য সূত্র: দ্য গার্ডিয়ান