الأمم المتحدة – مصرنا اليوم
جنيف: دعا مفوض الأمم المتحدة لحقوق الإنسان إلى وقف استخدام تكنولوجيا الذكاء الاصطناعي التي تشكل خطراً جسيماً على حقوق الإنسان ، بما في ذلك أنظمة مسح الوجوه التي تتعقب الأشخاص في الأماكن العامة.
وقالت ميشيل باشليت ، مفوضة الأمم المتحدة السامية لحقوق الإنسان ، الأربعاء ، إنه ينبغي للدول أن تحظر صراحة تطبيقات الذكاء الاصطناعي التي لا تتوافق مع القانون الدولي لحقوق الإنسان.
تشمل التطبيقات التي يجب حظرها أنظمة “التقييم الاجتماعي” الحكومية التي تحكم على الأشخاص بناءً على سلوكهم وبعض الأدوات المستندة إلى الذكاء الاصطناعي التي تصنف الأشخاص إلى مجموعات مثل العرق أو الجنس.
وقالت باتشيليت في بيان إن التقنيات القائمة على الذكاء الاصطناعي يمكن أن تكون قوة من أجل الخير ولكن يمكن أن يكون لها أيضًا “آثار سلبية ، بل وكارثية ، إذا تم استخدامها دون اعتبار كاف لكيفية تأثيرها على حقوق الإنسان للأشخاص”.
جاءت تعليقاتها جنبًا إلى جنب مع تقرير جديد للأمم المتحدة يبحث في كيفية اندفاع البلدان والشركات نحو تطبيق أنظمة الذكاء الاصطناعي التي تؤثر على حياة الناس وسبل عيشهم دون وضع ضمانات مناسبة لمنع التمييز وغيره من الأضرار.
قالت بيجي هيكس ، مديرة المشاركة المواضيعية في مكتب الحقوق ، للصحفيين أثناء تقديمها للتقرير في جنيف: “لا يتعلق الأمر بعدم امتلاك الذكاء الاصطناعي”. “يتعلق الأمر بإدراك أنه إذا تم استخدام الذكاء الاصطناعي في مجالات وظائف حقوق الإنسان هذه – البالغة الأهمية – ، فيجب القيام بذلك بالطريقة الصحيحة. ونحن ببساطة لم نضع حتى الآن إطار عمل يضمن حدوث ذلك “.
لم تطالب باتشيليت بفرض حظر تام على تقنية التعرف على الوجه ، لكنها قالت إن الحكومات يجب أن توقف فحص ميزات الأشخاص في الوقت الفعلي حتى يتمكنوا من إظهار أن التكنولوجيا دقيقة ، ولن يميزوا ويفيوا بمعايير معينة للخصوصية وحماية البيانات.
في حين لم يتم ذكر الدول بالاسم في التقرير ، كانت الصين من بين الدول التي طبقت تقنية التعرف على الوجه – خاصة للمراقبة في المنطقة الغربية من شينجيانغ ، حيث يعيش العديد من أقلية الأويغور فيها. قال المؤلفون الرئيسيون للتقرير إن تسمية بلدان معينة لم تكن جزءًا من تفويضهم ، وقد يؤدي ذلك إلى نتائج عكسية.
قال هيكس: “في السياق الصيني ، كما هو الحال في سياقات أخرى ، نشعر بالقلق إزاء الشفافية والتطبيقات التمييزية التي تخاطب مجتمعات معينة”.
واستشهدت بعدة قضايا قضائية في الولايات المتحدة وأستراليا حيث تم تطبيق الذكاء الاصطناعي بشكل خاطئ.
كما أعرب التقرير عن الحذر بشأن الأدوات التي تحاول استنتاج الحالات العاطفية والعقلية للأشخاص من خلال تحليل تعابير الوجه أو حركات الجسم ، قائلاً إن هذه التكنولوجيا عرضة للتحيز وسوء التفسير وتفتقر إلى الأساس العلمي.
“إن استخدام أنظمة التعرف على المشاعر من قبل السلطات العامة ، على سبيل المثال لاستفراد الأفراد لإيقاف الشرطة أو اعتقالهم أو لتقييم صحة الأقوال أثناء الاستجوابات ، يهدد بتقويض حقوق الإنسان ، مثل الحق في الخصوصية والحرية والحق في محاكمة ، كما جاء في التقرير.
تعكس توصيات التقرير صدى تفكير العديد من القادة السياسيين في الديمقراطيات الغربية ، الذين يأملون في الاستفادة من الإمكانات الاقتصادية والاجتماعية للذكاء الاصطناعي مع معالجة المخاوف المتزايدة بشأن موثوقية الأدوات التي يمكنها تتبع الأفراد وتوصيفهم وتقديم توصيات حول من يحصل على الوظائف والقروض. والفرص التعليمية.
اتخذ المنظمون الأوروبيون بالفعل خطوات لكبح تطبيقات الذكاء الاصطناعي الأكثر خطورة. ستحظر اللوائح المقترحة التي حددها مسؤولو الاتحاد الأوروبي هذا العام بعض استخدامات الذكاء الاصطناعي ، مثل المسح في الوقت الفعلي لميزات الوجه ، والتحكم بإحكام في الآخرين الذين قد يهددون سلامة الأشخاص أو حقوقهم.
أعربت إدارة الرئيس الأمريكي جو بايدن عن مخاوف مماثلة ، على الرغم من أنها لم تحدد بعد نهجا مفصلا للحد منها. سعت مجموعة تم تشكيلها حديثًا تسمى مجلس التجارة والتكنولوجيا ، بقيادة مشتركين مسؤولين أمريكيين وأوروبيين ، إلى التعاون في تطوير قواعد مشتركة للذكاء الاصطناعي وسياسات تقنية أخرى.
تم دعم الجهود المبذولة للحد من أكثر استخدامات الذكاء الاصطناعي خطورةً من قبل شركة Microsoft وغيرها من عمالقة التكنولوجيا الأمريكيين الذين يأملون في توجيه القواعد التي تؤثر على التكنولوجيا. وقال هيكس إن مايكروسوفت عملت مع مكتب الأمم المتحدة لحقوق الإنسان وقدمت له التمويل للمساعدة في تحسين استخدامه للتكنولوجيا ، لكن التمويل للتقرير جاء من خلال الميزانية العادية لمكتب الحقوق.
كانت الدول الغربية في طليعة التعبير عن مخاوفها بشأن الاستخدام التمييزي للذكاء الاصطناعي.
قالت وزيرة التجارة الأمريكية جينا ريموندو خلال مؤتمر افتراضي في يونيو: “إذا فكرت في الطرق التي يمكن بها استخدام الذكاء الاصطناعي بطريقة تمييزية ، أو لزيادة تعزيز الميول التمييزية ، فهذا أمر مخيف للغاية”. “علينا التأكد من أننا لا نسمح بحدوث ذلك.”
كانت تتحدث مع Margrethe Vestager ، نائبة الرئيس التنفيذي للمفوضية الأوروبية للعصر الرقمي ، التي اقترحت أن بعض استخدامات الذكاء الاصطناعي يجب أن تكون محظورة تمامًا في “ديمقراطيات مثل ديمقراطياتنا”. استشهدت soc