
رد فيسبوك يوم الأحد على تقرير إخباري بأن برنامج الذكاء الاصطناعي الخاص به كان له تأثير ضئيل في الحد من المحتوى العنيف وإزالته من الشبكة الاجتماعية.
استشهدت صحيفة وول ستريت جورنال بوثائق داخلية من عام 2019 في تقاريرها بأن مهندسي الشبكات الاجتماعية قدروا أن خوارزميات الشركة لا تزيل سوى جزء صغير من المحتوى الإشكالي الذي ينتهك القواعد.
كتب مهندس كبير وعالم أبحاث في مذكرة منتصف عام 2019 ، وفقًا للمجلة: “المشكلة هي أننا لا نملك وربما لن يكون لدينا أبدًا نموذجًا يلتقط حتى غالبية الأضرار المتعلقة بالنزاهة ، لا سيما في المناطق الحساسة”.
خضعت الشركة لمزيد من التدقيق للقيام بعمل أفضل في تعديل المحتوى خاصة بعد أحداث الشغب في 6 يناير في مبنى الكابيتول هيل ، والتي أكدت كيف يمكن أن تنتشر الكراهية عبر الإنترنت إلى العالم الحقيقي.
لكن Facebook يؤكد أن انتشار محتوى الكراهية على المنصة قد انخفض بنسبة 50٪ تقريبًا في الأرباع الثلاثة الماضية إلى حوالي 0.05٪ من مشاهدة المحتوى ، أو حوالي 5 من كل 10000 مشاهدة.
كتب نائب رئيس النزاهة في فيسبوك جاي روزن Guy Rosen في مدونة يوم الأحد: “يتم استخدام البيانات المسربة من المستندات المسربة لإنشاء سرد مفاده أن التكنولوجيا التي نستخدمها لمحاربة خطاب الكراهية غير كافية وأننا نتعمد إساءة تمثيل تقدمنا”. “هذا ليس صحيحا.
وكتب روزين: “لا نريد أن نرى الكراهية على منصتنا ، ولا يفعل ذلك مستخدمينا أو معلنينا ، ونحن نتحلى بالشفافية بشأن عملنا لإزالتها”.
كانت الشركة تقضي وقتًا أطول في الأسابيع التي تلت كشف فرانسيس هاوجن، الموظفة السابقة في فيسبوك الذي تحولت إلى مُبلغ عن المخالفات ، عن آلاف الوثائق والاتصالات الداخلية التي أظهرت أن فيسبوك كان على دراية بمخاطر منتجاتها لكنه قلل من أهمية هذه التأثيرات علنًا. استجاب المشرعون عبر الطيف السياسي حتى الآن باهتمام متجدد بمحاسبة فيسبوك.
مثلت هاوجن أمام لجنة فرعية تابعة لمجلس الشيوخ الأمريكي في وقت سابق من هذا الشهر وادعت أن منتجات فيسبوك “تضر الأطفال وتؤجج الانقسام وتضعف ديمقراطيتنا”. انتقد مارك زوكربيرج ، الرئيس التنفيذي لشركة فيسبوك ، شهادة هاوجن، قائلاً إنها تقدم “صورة خاطئة” للشبكة الاجتماعية.