كيف تصمم Big Tech قواعدها الأخلاقية لتجنب التدقيق والمساءلة

كيف تصمم Big Tech قواعدها الأخلاقية لتجنب التدقيق والمساءلة

أخلاقيات البيانات هي الآن سبب célèbre.

"الأخلاق الرقمية والخصوصية" تم إطلاقها على شركة الأبحاث والاستشارات Gartner العشرة الأوائل اتجاهات التكنولوجيا الاستراتيجية ل 2019. قبل ذلك بالكاد أثار ذكر.

في العام الماضي الحكومات, الشركات و السياسة والتكنولوجيا وقد نشرت مراكز الفكر أخلاقيات البيانات خطوط إرشاد. مجموعة كاملة من أخلاقيات البيانات الخبراء قد تحققت بطريقة سحرية.

لماذا هذا الاهتمام المفاجئ في أخلاقيات البيانات؟ ما هي أخلاقيات البيانات؟ الذين المصالح هي المبادئ التوجيهية المصممة لخدمة؟

لفهم ما يجري ، من الضروري أن نتراجع خطوة إلى الوراء وننظر في كيفية تطور مشهد المعلومات.

الصورة التي تظهر هي صناعة محصنة من القيود التنظيمية التي تنطبق على أي شخص آخر.

لقد ذهب اللمعان

على مدى السنوات القليلة الماضية فقدت صناعة المعلومات بريقها.


الحصول على أحدث من InnerSelf


ستصبح كشف سنودن، ال فضيحة كامبريدج Analyticaوسائل الإعلام الاجتماعية وتمكين خطاب الكراهية، ال تسليح المعلومات ودورها في تقويض المؤسسات الديمقراطية لقد ساهمت جميعا.

يُنظر الآن إلى نموذج الأعمال الذي يرصد المعلومات الشخصية لبيع الإعلانات على أنها صفقة فاوست - ربما لا تستحق التضحية ذلك. من 2017 إلى 2018 كان هناك انخفاض 6٪ في مستخدمي Facebook في الولايات المتحدة في السوق القديم المربح 12-34.

وقد أدت هذه المخاوف إلى دعوات للتنظيم. لكنهم ناضلوا من أجل اكتساب قوة ضد العقيدة التنظيمية السائدة لقطاع التكنولوجيا. هذا يعود إلى آل غور خمسة مبادئ لتمكين ما كان يسمى آنذاك بطريقة غريبة "الطريق السريع العالمي للمعلومات".

المبدأ الثالث هو أن السياسة التنظيمية "تخلق إطارًا تنظيميًا مرنًا يمكنه مواكبة التغيرات التكنولوجية والسوقية السريعة". كان هذا رمزًا لعدم التنظيم أو التنظيم الذاتي. في استراليا كان يعرف باسم "لمسة خفيفة" التنظيم.

لقد عملت شركة Big tech مع الإفلات من العقاب التنظيمي ، وتحررت إلى حد كبير من المخاوف الدنيوية للاقتصاد "القديم" مثل حماية المستهلك أو مسؤولية المنتج أو قانون المنافسة أو ، خصوصًا خصوصية المعلومات.

تحلق أقرب

لم تتبنى أوروبا هذا النهج بشكل كامل. كانت خصوصية المعلومات دائمًا على رأس جدول أعمالها ، وبلغت ذروتها في 2018 General Data Protection Regulation (GDPR). يوفر هذا للأفراد في الاتحاد الأوروبي حقوق حماية البيانات الأكثر شمولية في العالم. الحقوق لها نطاق خارج الحدود الإقليمية ، وتتضمن رقابة تنظيمية وتوظيف الغرامات المدنية لحجم سقي العين. الولايات القضائية الأخرى بدأت في متابعة الدعوى.

في موازاة ذلك ، بدأ المنظمون من التخصصات الأخرى في الدائرة. ينظر منظمو مكافحة الاحتكار من جديد إلى احتكارات المعلومات واستخدام التكنولوجيا الكبيرة لقوة السوق لتقييد المنافسة.

في أستراليا ، وقد دعا ACCC ل سلطة تنظيمية جديدة لمراقبة والتحقق من تأثير الخوارزميات على ترتيب الأخبار والمحتوى الصحفي.

تقرير لجنة الاتصالات في المملكة المتحدة حول التنظيم في عالم رقمي أوصت السلطة الرقمية الجديدة للإشراف على التنظيم "المجزّئ" للبيئة الرقمية حول عشرة مبادئ تنظيمية ، مع ملاحظة أن "التنظيم الذاتي من قِبل المنصات عبر الإنترنت فشل بشكل واضح". يبحث منظمو حقوق الإنسان دور الخوارزميات في خلق التمييز وترسيخه.

البيانات تعني المال

التكنولوجيا الكبيرة لا تريد أن تكون منظمة. إنها لا تريد تقييد قدرتها غير المحدودة على حصاد المعلومات الشخصية أو أن تصبح أنواع الحماية من إجمالي الناتج المحلي هي القاعدة العالمية. المعلومات الشخصية هي المادة الخام للخوارزميات التي تمكنها من نقد اهتمامنا.

بالنسبة للصناعة التي تفتخر بكونها "مضرة" ، فإن أكبر قلق للتكنولوجيا الكبيرة يتمثل في منع البيئة التنظيمية المشددة لتفادي تعطيلها. أخلاقيات البيانات هي إحدى الوسائل التي طورتها لمحاربة التنظيم. تقوم بذلك عن طريق الاستيلاء على الفضائل المرتبطة بالأخلاقيات ولكن عن طريق إفراغها من المحتوى أو التبعية.

أخذ مبادئ جوجل لمنظمة العفو الدولية. (الذكاء الاصطناعي هو الذكاء الاصطناعي). هؤلاء هم:

  • أن تكون مفيدة اجتماعيا
  • تجنب خلق أو تعزيز التحيز غير العادل
  • بناء واختبارها للسلامة
  • تكون مسؤولة أمام الناس
  • دمج مبادئ تصميم الخصوصية
  • التمسك بالمعايير العالية للتميز العلمي
  • تكون متاحة للاستخدامات التي تتفق مع هذه المبادئ.

تتشابه هذه "المبادئ" بشكل مذهل مع التواؤم الذي يراودك شعور جيد المنشور على Instagram والتي تحثنا على "أن نكون جيدين لبعضنا البعض" أو "لا تدع الشمس تغرق في غضبنا" ، وهي مفيدة على هذا النحو.

حقا؟ لقطة شاشة تم التقاطها في مارس 28 2019

وضعت على الاختبار

دعنا نختبر أحد مبادئ Google ، "كن مسؤولاً أمام الناس".

هناك عدة طبقات من الغموض هنا. هل يعني ذلك أن خوارزميات الذكاء الاصطناعي من Google يجب أن تكون مسؤولة أمام "الأشخاص" بشكل عام أو "أشخاص" Google أو "أشخاص" آخرين مثل منظم مستقل؟

إذا كان الأخير ، فهل ستوفر Google الخوارزمية للتحليل وتصحيح أي أخطاء ودفع تعويض عن أي ضرر ناتج؟

إذا خلصت خوارزميات الذكاء الاصطناعي من Google عن طريق الخطأ إلى أنني إرهابي ، ثم نقل هذه المعلومات إلى أجهزة الأمن القومي التي تستخدم هذه المعلومات لاعتقالي ، وتحميلي بمعزل عن العالم الخارجي واستجوابي ، هل ستكون Google مسؤولة عن إهمالها أو للمساهمة في سجني المزيف؟ كيف ستكون مسؤولة؟ إذا لم أكن راضيًا عن إصدار Google للمساءلة ، فأين أطلب من العدالة؟

الأخلاقيات المفيدة تنطوي على المساءلة

يهتم الأخلاقيات بالمبادئ الأخلاقية التي تؤثر على كيفية اتخاذ الأفراد للقرارات وكيف يعيشون حياتهم.

تمت دراسة الأخلاقيات ومناقشتها حول الدهر. ضمن التقاليد الغربية ، يتم تتبع الأخلاق سقراط. وهي تشمل المواقف الفلسفية مثل الأخلاق (المستندة إلى الواجب) الأخلاقية ، والتبعية ، والنفعية والوجودية ، على سبيل المثال لا الحصر. مما لا يثير الدهشة ، أن أيا من هذه تنتج نفس الإجابات على الأسئلة حول ما يجب على الفرد القيام به في أي ظروف معينة.

تهدف "الأخلاقيات التطبيقية" إلى تطبيق مبادئ الأخلاقيات على مواقف الحياة الواقعية. هناك العديد من الأمثلة.

يخضع أخلاقيات القطاع العام للقانون. هناك عواقب بالنسبة لأولئك الذين ينتهكونهم ، بما في ذلك التدابير التأديبية ، وإنهاء الخدمة وأحيانا العقوبات الجنائية. لكي أصبح محاميًا ، اضطررت إلى تقديم أدلة إلى المحكمة أنني "شخص لائق ومناسب". للاستمرار في الممارسة ، يجب علي الامتثال للمتطلبات التفصيلية المنصوص عليها في قواعد سلوك المحامين الأستراليين. إذا خرقتهم ، فهناك عواقب.

تتمثل ميزات الأخلاقيات التطبيقية في أنها محددة ، وهناك حلقات للتغذية المرتدة ، والإرشادات متاحة ، ومضمنة في الثقافة التنظيمية والمهنية ، وهناك إشراف مناسب ، وهناك عواقب عند انتهاكها ، وهناك آليات إنفاذ مستقلة وسبل انتصاف حقيقية . إنها جزء من جهاز تنظيمي وليست مجرد بيانات "أشعر أنني بحالة جيدة".

لا تشكّل مبادئ أخلاقيات البيانات ذات المستوى الرفيع والشعور بالغرض من تنظيم التكنولوجيا الكبيرة. قد يكون للأخلاقيات التطبيقية دور تؤديه ، ولكن نظرًا لأنها مهنة أو انضباطية محددة ، لا يمكن الاعتماد عليها في القيام بكل شيء ، أو حتى معظم الأثقال الثقيلة.

لا يمكن معالجة الأضرار المرتبطة بالتكنولوجيا الكبيرة إلا عن طريق التنظيم المناسب.المحادثة

نبذة عن الكاتب

ديفيد واتس ، أستاذ قانون المعلومات والسياسة ، جامعة لا تروب

يتم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقال الأصلي.

كتب ذات صلة:

{amazonWS: searchindex = Books ؛ الكلمات الرئيسية = الاحتكارات الرقمية ؛ maxresults = 3}

enafarزكية-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

اتبع InnerSelf على

الفيسبوك أيقونةتويتر أيقونةآر إس إس أيقونة

احصل على آخر عبر البريد الإلكتروني

{Emailcloak = إيقاف}

الأكثر قراءة

Cybersex والتكنولوجيا المثيرة والحميمية الافتراضية في ازدياد
Cybersex والتكنولوجيا المثيرة والحميمية الافتراضية في ازدياد
by سيمون دوبي وديف أنكتيل وماريا سانتاجويدا

من المحررين

لقد حان يوم الحساب لل GOP
by روبرت جينينغز ، InnerSelf.com
لم يعد الحزب الجمهوري حزبا سياسيا مواليا لأمريكا. إنه حزب سياسي زائف غير شرعي ومليء بالراديكاليين والرجعيين هدفه المعلن هو زعزعة الاستقرار وزعزعة الاستقرار و ...
لماذا يمكن أن يكون دونالد ترامب أكبر الخاسرين في التاريخ
by روبرت جينينغز ، InnerSelf.com
تحديث 2 يوليو ، 20020 - يكلف جائحة فيروس كورونا هذا ثروة ، ربما 2 أو 3 أو 4 ثروات ، كلها ذات حجم غير معروف. أوه نعم ، ومئات الآلاف ، وربما مليون شخص سيموتون ...
Blue-Eyes vs Brown Eyes: كيف يتم تدريس العنصرية
by ماري ت. راسل ، إنيرسيلف
في حلقة أوبرا شو عام 1992 ، علّمت الناشطة والمناهضة للعنصرية جين إيليوت الحائزة على جوائز الجمهور درساً قاسياً حول العنصرية من خلال إظهار مدى سهولة تعلم التحيز.
تغير سوف يأتي...
by ماري ت. راسل ، إنيرسيلف
(30 مايو 2020) بينما أشاهد الأخبار عن الأحداث في فيلادلفيا والمدن الأخرى في البلاد ، فإن قلبي يتألم لما يحدث. أعلم أن هذا جزء من التغيير الأكبر الذي يحدث ...
أغنية يمكن أن ترفع القلب والروح
by ماري ت. راسل ، إنيرسيلف
لدي العديد من الطرق التي أستخدمها لمسح الظلام من ذهني عندما أجد أنه تسلل إلى الداخل. أحدهما هو البستنة ، أو قضاء الوقت في الطبيعة. والآخر هو الصمت. طريقة أخرى هي القراءة. وواحد ...