أخبارتطبيقات

لحظات مهمة من الشهادة البرلمانية للمبلغة عن المخالفات على فيسبوك في المملكة المتحدة

أجابت مهندسة المنتج السابقة على فيسبوك على أسئلة المشرعين بشأن اللوائح ، و أنستاجرام كيدز وما إذا كانت تعتقد أن فيسبوك كان شريرًا.

تواجدت فرانسيس هاوجين ، المُبلغة عن المخالفات على فيسبوك ، في لندن يوم الاثنين لتقديم دليل إلى لجنة برلمانية بريطانية لتحليل مشروع قانون الأمان على الإنترنت القادم في البلاد.

جاء الظهور بعد شهر تقريبًا من كشف مهندسة المنتج السابقة عن نفسها على أنها الشخص الذي يقف وراء تسرب بحث داخلي أدى إلى تدقيق جديد للشركة – لا سيما فيما يتعلق بأنظمة السلامة الخاصة بها. بعد وقت قصير من الكشف عن هويتها ، أدلت بشهادتها أمام الكونجرس بالتفصيل “الإفلاس الأخلاقي” لفيسبوك.

تزامنت شهادة هاوجن الأخيرة مع المزيد من التقارير من المنافذ الإخبارية بناءً على وثائق داخلية مسربة يشار إليها باسم أوراق فيسبوك . مع اشتداد التدقيق العالمي لأكبر شبكة اجتماعية في العالم ، تكتسب الدعوات لتنظيم فيسبوك وغيره من منصات التواصل الاجتماعي زخمًا. بالمقارنة مع الولايات المتحدة ، فإن الجهود المبذولة لإدخال مثل هذا التنظيم متقدمة نسبيًا في أوروبا والمملكة المتحدة.

خلال الساعتين ونصف الساعة التي استجوب فيها المشرعون هاوجين ، كررت العديد من البيانات التي سبق أن أدلت بها في المنتديات العامة الأخرى ، وإن كانت مصممة للتطبيق على مشروع قانون المملكة المتحدة. من شأن مشروع قانون الأمان عبر الإنترنت ، المعروف سابقًا باسم مشروع قانون الأضرار على الإنترنت ، أن يضع هيئة الرقابة على وسائل الإعلام في المملكة المتحدة Ofcom مسؤولة عن تنظيم منصات وسائل التواصل الاجتماعي باسم الحفاظ على سلامة المستخدمين.

عندما سئلت عما إذا كانت تعتقد أن مشروع قانون الأمان على الإنترنت – الذي سيحاسب الشركات من خلال الغرامات ، وحظر الخدمات ، وفي الظروف القصوى ، توجيه اتهامات جنائية ضد المديرين التنفيذيين – كان يبقي الرئيس التنفيذي لفيسبوك مارك زوكربيرج مستيقظًا في الليل ، أجاب هاوجين: “يمكنني لا أتخيل أن مارك لا ينتبه لما تفعله “. (يبدو أن زوكربيرج لم يذهب إلى المملكة المتحدة منذ أن أصدر البرلمان له أمر استدعاء رسميًا في عام 2018).

وأضافت هاوجن: “أنا متحمس للغاية وفخور بالمملكة المتحدة لاتخاذها مثل هذا الموقف الرائد عالميًا فيما يتعلق بالتفكير في تنظيم المنصات الاجتماعية”.

في ترديد لمشاعر زميلتها صوفي تشانغ ، التي قدمت أدلة إلى اللجنة البرلمانية الأسبوع الماضي ، شجعت هاوجين أعضاء البرلمان على وضع مبادئ توجيهية محددة لتقييم المخاطر التي يتوقعون أن تنفذها منصات التواصل الاجتماعي. وقالت: “إذا لم يكن لدى فيسبوك معايير لتقييم المخاطر هذه ، فسوف يعطونك تقييمًا سيئًا للمخاطر ، لأن فيسبوك أنشأ مرارًا وتكرارًا ، عندما يُطلب منهم معلومات ، يضلل الجمهور”.

قالت مونيكا بيكرت ، نائبة رئيس سياسة المحتوى في فيسبوك ، في بيان يوم الاثنين إن الشركة مسرورة لرؤية مشروع قانون الأمان على الإنترنت يمضي قدمًا. وقالت: “في حين أن لدينا قواعد ضد المحتوى الضار وننشر تقارير شفافية منتظمة ، فإننا نتفق على أننا بحاجة إلى تنظيم للصناعة بأكملها حتى لا تتخذ الشركات مثل شركتنا هذه القرارات بمفردنا”.

 

يمكنك قراءة المزيد عن التبليغ عن مخالفات فيسبوك من خلال هذه المقالات :

فيسبوك ينتقد سلسلة وول ستريت جورنال بسبب ” أخطاء متعمدة في التوصيف ”

توقف فيسبوك مؤقتًا على أنستاجرام كيدز مع تزايد القلق بشأن التأثير على المراهقين

فيسبوك ينشر بحثًا داخليًا حول تأثير تطبيق أنستاجرام على المراهقين

كشف هوية المبلغون عن المخالفات على تطبيق فيسبوك

فيسبوك مكّن المعلومات الخاطئة من خلال إلغاء الضمانات في وقت قريب جدًا بعد انتخابات 2020

 

إلى جانب أفكارها حول قانون الأمان عبر الإنترنت ، إليك بعض النقاط الرئيسية الأخرى التي ذكرتها هاوجن في شهادتها يوم الاثنين:

حول تداعيات سياسة أمان فيسبوك خارج الولايات المتحدة

العديد من الاكتشافات التي تم الكشف عنها من خلال التسريبات الأخيرة تتضمن تأثير سياسات أمان فيسبوك وأنظمة الذكاء الاصطناعي الخاصة بها خارج الولايات المتحدة. قالت هاوجن في المملكة المتحدة ، قد يكون الأمر بسيطًا مثل الفشل في التعرف على الإساءة من خلال عدم فهم هجوم اللغة العامية المحلية. وأضافت أنه في بلد مثل إثيوبيا – التي لديها ست لغات رئيسية ، اثنتان فقط منها مدعومتان من فيسبوك – يصعب على فيسبوك التأكد من أنه يحافظ على سلامة الناس.

تحدثت هاوجن أيضًا عن الضرر المجتمعي الناجم عن خوارزميات فيسبوك . وقالت إنها تعتقد أن العنف السياسي الذي حدث في ميانمار وإثيوبيا بعد انتشار المعلومات المضللة على فيسبوك لا يمثل سوى “الفصول الافتتاحية” للعواقب الوخيمة التي يمكن أن نتوقعها من نظام التصنيف القائم على المشاركة في فيسبوك .

حول فكرة أنستاجرام كيدز

توقف فيسبوك مؤخرًا عن تطوير تطبيق ، يُعرف باسم أنستاجرام كيدز ، كان يصممه للمستخدمين الأصغر سنًا الذين لم يستوفوا الحد الأدنى لمتطلبات العمر وهو 13. قالت هاوجن إنه إذا لم يكن من الممكن إنشاء نسخة من أنستاجرام آمنة بالنسبة للأطفال الذين يبلغون من العمر 14 عامًا ، كانت تشك بشدة في إمكانية إنشاء نسخة آمنة من التطبيق للأطفال في سن 10 سنوات.

“أجد أنه من الواضح حقًا أنه إذا ذهبت إلى وادي السيليكون ، ونظرت إلى أكثر المدارس الخاصة نخبةً ، فغالبًا ما يكون لديها صفر سياسات لوسائل التواصل الاجتماعي. إنهم يحاولون إنشاء ثقافات لا تستخدم فيها الهواتف ولا التواصل مع بعضهم البعض على وسائل التواصل الاجتماعي “.

قالت إنها وجدت حجة فيسبوك “المضللة” بأنه إذا كان الأطفال سيجدون طرقًا للتسلل إلى المنصة في انتهاك للقيود العمرية ، فيجب على الأقل إنشاء نسخة آمنة من النظام الأساسي الذي يمكنهم استخدامه. قالت إن فيسبوك لديه بيانات كافية عن المستخدمين ليتمكن من إجراء تخمينات دقيقة حول أعمارهم ، ومع ذلك فهو لا يوضح علنًا عدد المستخدمين دون السن القانونية الذين يعتقد أنهم موجودون على النظام الأساسي أو ما يفعله حيال المشكلة.

وأضافت أنه يجب على فيسبوك نشر ما يفعله للكشف عن المستخدمين دون السن القانونية ، “لأنني أضمن لك أن ما يفعلونه اليوم لا يكفي”.

حول كيفية مقارنة فيسبوك بمنافسيها

أثناء مناقشة افتقار فيسبوك للشفافية ، قالت هاوجن إن الشركة أبقت المزيد من أبحاثها الداخلية واتخاذ القرارات خلف الأبواب المغلقة مقارنة بالمنافسين. وقالت: “إن كلا من جوجل وتويتر أكثر شفافية بشكل جذري من فيسبوك”.

حول قلة الاستثمار في السلامة من قبل فيسبوك

تحدثت هاوجن بشكل مكثف حول كيفية قيام فيسبوك بإعطاء الأولوية لتعظيم الأرباح قبل كل شيء آخر وتحفيز الموظفين على العمل في المشاريع التي من شأنها تحسين الربحية ، مع إيقاف الاقتراحات التي قد تتضمن إجراء أي نوع من التغييرات المنهجية على الطريقة التي يعمل بها فيسبوك .

قالت إنها فوجئت عندما علمت الأسبوع الماضي أن فيسبوك كان يستثمر في 10000 وظيفة جديدة في أوروبا لبناء وجهته ، وشعرت بالإحباط لأن نفس الموارد لم يتم تخصيصها لتحسين السلامة. “هل تعرف ما كان يمكن أن نفعله بالسلامة إذا كان لدينا 10000 مهندس إضافي؟” قالت. “كان من المدهش”.

رد بيكرت بالقول إنه على عكس ما تمت مناقشته في جلسة الاستماع ، كان فيسبوك دائمًا محفزًا تجاريًا لإزالة المحتوى الضار. وقالت: “لا يرغب الأشخاص في رؤيتها عند استخدام تطبيقاتنا ولا يريد المعلنون ظهور إعلاناتهم بجوارها”. “لهذا السبب استثمرنا 13 مليار دولار ووظفنا 40 ألف شخص للقيام بعمل واحد: الحفاظ على سلامة الأشخاص في تطبيقاتنا. ونتيجة لذلك ، قمنا بخفض كمية خطاب الكراهية الذي يشاهده الأشخاص على فيسبوك إلى النصف تقريبًا خلال الأرباع الثلاثة الماضية – أسفل إلى 0.05 في المائة فقط من مشاهدات المحتوى “.

حول ما إذا كان فيسبوك شريرًا

حاول المشرعون استخلاص هاوجن حول ما إذا كانت تعتقد أن فيسبوك شرير ، لكنها لن تأخذ الطُعم. وبدلاً من ذلك ، قالت إن الشركة كانت “مليئة بالأشخاص ذوي الضمير الحي واللطيف والمتعاطفين” الذين انخرطوا في أنظمة سيئة مع حوافز سيئة أدت إلى أفعال سيئة.

وقالت إنه كانت هناك “ثقافة إيجابية … شديدة لدرجة أنها تثني الناس عن النظر في الأسئلة الصعبة”. كان يعني أن الأشخاص الذين ينظرون إلى الاتجاه الآخر كانوا أكثر عرضة للترقية من الأشخاص الذين يطلقون الإنذارات. وأضافت أنها لا تعتقد أن الشركة كانت خبيثة ولكن سبب المشاكل هو “الإهمال” و “الجهل”.

وقالت إنه على الرغم من أن فيسبوك لم يخترع الكراهية ، إلا أن الشركة “تزيد مما لا شك فيه الكراهية.”

مقالات ذات صلة