قالت شركة فيسبوك في بيان لها أن منصتها تتصدى لأكثر من 200 منظمة تؤمن بتميز العرق الأبيض وتعمل على إزالة محتوياتها من على صفحاتها من خلال تكنولوجيا الرصد الآلي. إلا أن الشركة اعترفت أن أنظمة الرصد الآلي لم تعمل تلقائيًا عند نشر الفيديو المباشر الذي يصور الهجوم على أحد المسجدين في اعتداء كرايستشيرش الجمعة الماضية، والذي أوقع 50 قتيلا.

وأكدت الشركة أنها مستمرة في مكافحة خطاب الكراهية على منصتها، مضيفة أنها تعمل على إزالة ما تنشره هذه المنظمات من محتوى على منصة فيس بوك من خلال تكنولوجيا الرصد الآلي.

وتمكن فيسبوك من حذف فيديو حادثة نيوزيلندا الذي استمر 17 دقيقة، لكنه لقي مشاركات كثيرة قبل ذلك على يوتيوب وتويتر وواجهت مواقع التواصل الاجتماعي صعوبة في سحب الصور. وأعلن الموقع "قمنا خلال الساعات الـ24 الأولى بسحب 1,5 مليون مقطع فيديو للهجوم في العالم، بينها أكثر من 1,2 مليون تم حجبها أثناء التنزيل".

وأشار "فيسبوك" إلى أنه يملك فريقا من 150 شخصا مهمتهم التركيز على رصد وحذف المحتوى الإرهابي والمتطرف بأشكالهما بمساعدة أدوات التعلم الآلي، والتي تتطور بدورها بشكل مستمر. ويأمل "فيسبوك" من خلال هذه الخطوة تحويل منصته إلى "فضاء عدائي للمتطرفين" ولسوء الاستخدام.

وفي وقت ساق نشر "فيسبوك" تفاصيل حول الوسائل التي يعتمدها في رصد المحتوى الإرهابي والمتطرف على المنصة، بما فيها اعتماد الذكاء الصناعي والتعلم الذاتي الآلي التي تم بناؤها من أجل رصد وتحليل المحتوى المثير للجدل والتساؤل.