مشروع Google Nimbus هو مستقبل الشر

تقوم Google بالكثير من الأشياء الغبية.

جميع الشركات العملاقة هي نفسها في هذا الصدد. لكن الأمر يتطلب مجهودًا خاصًا لفعل شيء فظيع حقًا.

هذا هو المكان الذي يأتي فيه مشروع Google Nimbus في الطيف.

Project Nimbus هو جهد مشترك بين Google و Amazon والحكومة الإسرائيلية يوفر إمكانات مراقبة مستقبلية من خلال استخدام نماذج التعلم الآلي المتقدمة.

شئنا أم أبينا ، هذا جزء من مستقبل أمن الدولة ، وليس أكثر فظاعة من العديد من المشاريع المماثلة الأخرى.

يستخدم الكثير منا تقنية مماثلة في منازلنا وحولها.

عندما تصبح الأمور مظلمة وقبيحة ، هذا ما تقوله Google عن إمكانات Project Nimbus باستخدام تقنية الشركة:

تؤكد وثائق تدريب Nimbus على “الوجوه ومعالم الوجه وإمكانيات اكتشاف العواطف في واجهة برمجة تطبيقات Cloud Vision من Google” ، وفي ندوة تدريبية عبر الويب من Nimbus ، أكد مهندس Google لعميل إسرائيلي أنه سيكون من الممكن “معالجة البيانات من خلال Nimbus من أجل تحديد ما إذا كان شخص ما يكذب “.

نعم ، الشركة التي قدمت لنا خوارزميات YouTube السيئة للغاية تريد الآن بيع الخوارزميات لتحديد ما إذا كان شخص ما يكذب على الشرطة.

دع هذا يغرق. هذا علم تخلت عنه Microsoft (يفتح في علامة تبويب جديدة) بسبب مشاكلها الكامنة.

لسوء الحظ ، لا توافق Google كثيرًا لدرجة أنها تنتقم من الأشخاص في الشركة الذين يتحدثون ضدها.

لن أتعمق كثيرًا في السياسة السارية هنا ، لكن المشروع بأكمله مصمم بحيث يمكن للحكومة الإسرائيلية إخفاء ما تفعله.

وفقًا لجاك بولسون ، الرئيس السابق لأمن Google Enterprise ، فإن أحد الأهداف الرئيسية لمشروع Nimbus هو “منع الحكومة الألمانية من طلب بيانات تتعلق بجيش الدفاع الإسرائيلي للمحكمة الجنائية الدولية” وفقًا لموقع The Intercept.

يقال إن إسرائيل ترتكب جرائم ضد الإنسانية ضد الفلسطينيين ، وفقًا لتفسير بعض الناس للقوانين.

ومع ذلك ، لا يهم حقًا ما تشعر به حيال الصراع بين إسرائيل وفلسطين. لا يوجد سبب وجيه لتوفير هذا النوع من التكنولوجيا لأي حكومة على أي نطاق.

القيام بذلك يجعل جوجل شريرة.

قدرات Nimbus المفترضة مخيفة ، حتى لو كانت Cloud Vision API من Google صحيحة 100٪ ، 100٪ من الوقت.

تخيل كاميرات هيئة الشرطة التي تستخدم الذكاء الاصطناعي للمساعدة في تحديد ما إذا كنت تريد توجيه الاتهام إليك واعتقالك أم لا.

يصبح كل شيء مرعبًا عندما تفكر في عدد المرات التي تخطئ فيها أنظمة رؤية التعلم الآلي.

هذه ليست مشكلة جوجل فقط. كل ما يحتاجه المرء هو النظر إلى الإشراف على المحتوى على YouTube أو Facebook أو Twitter.

90٪ من العمل الأولي يتم بواسطة أجهزة الكمبيوتر التي تستخدم خوارزميات الاعتدال التي تتخذ قرارات خاطئة بشكل متكرر.

قد يؤدي مشروع Nimbus إلى أكثر من مجرد حذف تعليقك المزعج – فقد يكلفك حياتك.

لا توجد شركة لديها أي شركة تقدم هذا النوع من الذكاء الاصطناعي حتى تنضج التكنولوجيا إلى حالة لا تكون فيها خاطئة أبدًا .

وهذا لن يحدث أبدًا.

انظر ، أنا أعثر على الأشرار وأفعل شيئًا حيالهم تمامًا مثل أي شخص آخر.

أنا أفهم أن تطبيق القانون ، سواء كان قسم شرطة محليًا أو جيش الدفاع الإسرائيلي ، هو شر لا بد منه.

استخدام الذكاء الاصطناعي للقيام بذلك هو شر لا داعي له.

أنا لا أقول إن Google يجب أن تلتزم فقط بكتابة البرنامج الذي يعمل على تشغيل الهواتف التي تحبها ولا تحاول التفرع.

أنا أقول فقط أن هناك طريقة صحيحة وطريقة خاطئة – اختارت Google الطريقة الخاطئة هنا .

وهي الآن عالقة لأن شروط الاتفاقية لا تسمح لـ Google بالتوقف عن المشاركة.

يجب أن تكوّن آرائك الخاصة ولا تستمع أبدًا إلى أي شخص على الإنترنت لديه صندوق الصابون.

ولكن يجب أيضًا أن تكون على دراية جيدة عندما تقوم الشركة التي تم تأسيسها على مبدأ “لا تكن شريرًا” بكامل دائرة دورها وتصبح الشر الذي حذرتنا منه.

مقالات ذات صلة