لماذا تضع التكنولوجيا حقوق الإنسان في خطر

لماذا تضع التكنولوجيا حقوق الإنسان في خطر
Spainter_vfx / Shutterstock.com

أفلام مثل 2001: أوديسا الفضاء, شفرة عداء . ترميناتور جلبت الروبوتات المارقة وأنظمة الكمبيوتر لشاشات السينما لدينا. لكن في هذه الأيام ، لا تبدو مثل هذه الروايات الخيالية العلمية الكلاسيكية بعيدة كل البعد عن الواقع.

على نحو متزايد ، نحن نعيش ونعمل ونلعب بتقنيات حاسوبية مستقلة وذكية. وتشمل هذه الأنظمة البرمجيات والأجهزة ذات القدرة على التفكير المستقل واتخاذ القرارات. انهم يعملون لدينا في الطابق المصنع. يقررون ما إذا كان بإمكاننا الحصول على قرض عقاري. يتتبعون وقياس مستويات النشاط واللياقة البدنية لدينا. يقومون بتنظيف أرضيات غرف المعيشة لدينا ويقطعون المروج.

تتمتع الأنظمة المستقلة والذكية بإمكانية التأثير على كل جانب من جوانب حياتنا الاجتماعية والاقتصادية والسياسية والخاصة ، بما في ذلك الجوانب اليومية الدنيوية. الكثير من هذا يبدو بريئًا ، لكن هناك ما يدعو للقلق. تؤثر التقنيات الحاسوبية على كل حق من حقوق الإنسان ، من الحق في الحياة إلى الحق في الخصوصية ، وحرية التعبير عن الحقوق الاجتماعية والاقتصادية. إذن كيف يمكننا الدفاع عن حقوق الإنسان في المشهد التكنولوجي الذي تتشكل بشكل متزايد من قبل الروبوتات والذكاء الاصطناعي (منظمة العفو الدولية)؟

منظمة العفو الدولية وحقوق الإنسان

أولاً ، هناك خوف حقيقي من أن زيادة استقلالية الماكينة سوف تقوض وضع البشر. ومما يضاعف من هذا الخوف الافتقار إلى الوضوح حول من سيحاسب ، سواء كان ذلك من الناحية القانونية أو المعنوية ، عندما تضر الآلات الذكية. لكنني لست متأكداً من أن محور اهتمامنا بحقوق الإنسان يجب أن يكمن في الحقيقة الروبوتات المارقة، كما يبدو في الوقت الحاضر. بدلاً من ذلك ، يجب أن نشعر بالقلق حول الاستخدام البشري للروبوتات والذكاء الاصطناعي ونشرها في سياقات سياسية وعسكرية واقتصادية واجتماعية غير عادلة وغير متكافئة.

هذا القلق مهم بشكل خاص فيما يتعلق بنظم الأسلحة القاتلة المستقلة (LAWS) ، التي غالباً ما توصف بأنها الروبوتات القاتلة. كما نحن التحرك نحو سباق تسلح منظمة العفو الدوليةويخشى علماء حقوق الإنسان والناشطون في مجال حقوق الإنسان ، مثل كريستوف هينز ، المقرر الخاص السابق للأمم المتحدة المعني بالإعدام خارج نطاق القضاء أو بإجراءات موجزة أو الإعدام التعسفي ، من أن استخدام القانون سيضع أنظمة روبوتية مستقلة المسؤول عن قرارات الحياة والموت، مع سيطرة بشرية محدودة أو لا.

كما تُحدث منظمة العفو الدولية ثورة الصلة بين ممارسات الحرب والمراقبة. مجموعات مثل اللجنة الدولية لمراقبة التسلح الآلي (ICRAC) أعرب مؤخرا عن معارضتهم لمشاركة جوجل في مشروع مي Mنوهو برنامج عسكري يستخدم التعلم الآلي لتحليل لقطات المراقبة بدون طيار ، والتي يمكن استخدامها في عمليات القتل خارج نطاق القضاء. ICRAC ناشد إلى Google لضمان عدم استخدام البيانات التي تجمعها على مستخدميها أبدًا لأغراض عسكرية ، والانضمام إلى احتجاجات موظفي Google حول مشاركة الشركة في المشروع. أعلنت جوجل مؤخرا ذلك لن يتم تجديد عقده.

في 2013 ، تم تمييز مدى ممارسات المراقبة من قبل إدوارد سنودن الكشف. لقد تعلمنا الكثير عن التهديد للحق في الخصوصية وتقاسم البيانات بين أجهزة الاستخبارات والوكالات الحكومية والشركات الخاصة. الجدل الأخير المحيط بها كامبريدج أناليتيكاإن حصاد البيانات الشخصية عبر استخدام وسائل الإعلام الاجتماعية مثل Facebook لا يزال يسبب تخوفًا جديًا ، هذه المرة حول التلاعب والتدخل في الانتخابات الديمقراطية التي تضر بالحق في حرية التعبير.


الحصول على أحدث من InnerSelf


وفي الوقت نفسه ، فإن محللي البيانات الهامة يتحدون الممارسات التمييزية المرتبطة بما يسمونه "مشكلة الرجل الأبيض" لمنظمة العفو الدولية. هذا هو القلق من أن أنظمة الذكاء الاصطناعي التي تدربت على البيانات الموجودة تكرر الصور النمطية العنصرية والجنسانية القائمة التي تديم الممارسات التمييزية في مجالات مثل الشرطة أو القرارات القضائية أو التوظيف.

يمكن لمنظمة العفو الدولية تكرار القوالب النمطية وترسيخها.
يمكن لمنظمة العفو الدولية تكرار القوالب النمطية وترسيخها.
Ollyy / Shutterstock.com

برامج غامضة

تم تسليط الضوء على التهديد المحتمل للتكنولوجيات الحاسوبية لحقوق الإنسان والأمن المادي والسياسي والرقمي في دراسة نُشرت مؤخراً الاستخدام الضار للذكاء الاصطناعي. يجب أن تؤخذ المخاوف المعبر عنها في تقرير جامعة كامبريدج على محمل الجد. لكن كيف يجب علينا التعامل مع هذه التهديدات؟ هل حقوق الإنسان جاهزة لعصر الروبوتات و الذكاء الاصطناعي؟

هناك جهود مستمرة لتحديث مبادئ حقوق الإنسان الحالية في هذا العصر. وتشمل هذه مبادئ الأمم المتحدة للإطار والمبادئ التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، يحاول كتابة ماجنا كارتا للعصر الرقمي ومعهد المستقبل للحياة مبادئ Asilomar منظمة العفو الدولية، والتي تحدد المبادئ التوجيهية للبحوث الأخلاقية ، والالتزام بالقيم والالتزام بتنمية الذكاء الاصطناعي على المدى الطويل من منظمة العفو الدولية.

هذه الجهود جديرة بالثناء لكنها غير كافية. يتعين على الحكومات والوكالات الحكومية والأحزاب السياسية والشركات الخاصة ، ولا سيما شركات التكنولوجيا الرائدة ، الالتزام بالاستخدامات الأخلاقية لمنظمة العفو الدولية. نحن بحاجة أيضا إلى مراقبة تشريعية فعالة وقابلة للتنفيذ.

مهما كانت التدابير الجديدة التي نقدمها ، من المهم أن نعترف بأن حياتنا تتشابك بشكل متزايد مع الآلات المستقلة والأنظمة الذكية. هذا التشابك يعزز رفاه الإنسان في مجالات مثل البحوث الطبية والعلاج ، في نظام النقل لدينا ، في أماكن الرعاية الاجتماعية وفي الجهود الرامية إلى حماية البيئة.

لكن في مناطق أخرى ، يثير هذا التشابك احتمالات مقلقة. تستخدم التقنيات الحاسوبية لمراقبة وتتبع تصرفاتنا وسلوكياتنا ، وتتبع خطواتنا ، وموقعنا ، وصحتنا ، وأذواقنا ، وصداقاتنا. وتشكل هذه النظم السلوك البشري وتحفزنا نحو ممارسات المراقبة الذاتية التي تقيد حريتنا وتقوض أفكار ومبادئ حقوق الإنسان.

المحادثةوهنا يكمن جوهر: القدرة على الاستخدام المزدوج للتكنولوجيات الحسابية تطمس الخط الفاصل بين الممارسات المفيدة والخبيثة. والأكثر من ذلك ، أن التكنولوجيات الحاسوبية متورطة بعمق في علاقات القوة غير المتكافئة بين المواطنين الأفراد والدولة ووكالاتها والشركات الخاصة. إذا ما انشق عن الأنظمة الوطنية والدولية الفعالة من الضوابط والتوازنات ، فإنها تشكل تهديدًا حقيقيًا ومقلقًا لحقوقنا الإنسانية.

نبذة عن الكاتب

بيرجيت شيبرز ، زميلة أبحاث زائرة ، السيناتور جورج جي ميتشل ، معهد السلام العالمي ، الأمن والعدل ، جامعة كوينز في بلفاست

تم نشر هذه المقالة في الأصل المحادثة. إقرأ ال المقال الأصلي.

كتب ذات صلة

{amazonWS: searchindex = Books؛ Birgit Schippers = innerself؛ maxresults = 3}

enafarزكية-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

اتبع InnerSelf على

الفيسبوك أيقونةتويتر أيقونةآر إس إس أيقونة

احصل على آخر عبر البريد الإلكتروني

{Emailcloak = إيقاف}

أصوات INNERSELF

الأكثر قراءة

البحث عن حياة أكثر معنى وهدف
البحث عن حياة أكثر معنى وهدف
by فرانك باسكيوتي ، دكتوراه
كيف تهدد الخصوصية والأمن في هذه الخيارات اليومية
كيف تهدد الخصوصية والأمن في هذه الخيارات اليومية
by آري تراختنبرغ وجيانلوكا سترينجيني وران كانيتي