طرق 4 تؤثر عمليات البحث على Google ووسائل الإعلام الاجتماعية على فرصك في الحياة
شترستوك.

سواء كنت تدرك أو توافق على ذلك ، يمكن أن تؤثر البيانات الكبيرة عليك وعلى حياتك. البيانات التي نقوم بإنشائها عند استخدام وسائل الإعلام الاجتماعية ، تصفح الانترنت ويتم جمع جميع المتتبعين للياقة البدنية ، تصنيفها واستخدامها من قبل الشركات و الولاية لإنشاء ملفات تعريف لنا. بعد ذلك ، يتم استخدام هذه الملفات الشخصية لاستهداف الإعلانات الخاصة بالمنتجات والخدمات لأولئك الأكثر احتمالاً لشرائها ، أو لإعلام قرارات الحكومة.

تمكّن البيانات الكبيرة الدول والشركات من الوصول إلى معلوماتنا ودمجها وتحليلها وبناء كاشفة - ولكن غير مكتمل ويحتمل غير دقيق - لمحات من حياتنا. إنهم يفعلون ذلك من خلال تحديد الارتباطات والأنماط في البيانات المتعلقة بنا ، والأشخاص الذين لديهم ملفات تعريف مشابهة لنا ، لوضع توقعات حول ما يمكن أن نفعله.

ولكن فقط لأن تحليلات البيانات الضخمة تعتمد على الخوارزميات والإحصائيات ، لا يعني أنها كذلك دقيقة ، محايدة أو موضوعية بطبيعتها. وعلى الرغم من أن البيانات الضخمة قد توفر رؤى حول سلوك المجموعة ، إلا أنها ليست بالضرورة طريقة موثوقة لتحديد السلوك الفردي. في الواقع ، يمكن لهذه الأساليب افتح الباب للتمييز و تهدد حقوق الإنسان الناس - يمكنهم حتى العمل ضدك. فيما يلي أربعة أمثلة يمكن أن تؤدي فيها تحليلات البيانات الضخمة إلى الظلم.

1. حساب نقاط الائتمان

يمكن استخدام البيانات الكبيرة لاتخاذ قرارات بشأنها أهلية الائتمان، مما يؤثر على ما إذا كنت تمنح رهن عقاري ، أو كيف عالية التأمين على السيارات يجب أن تكون أقساط. هذه القرارات قد تكون على علم من قبل مشاركات وسائل الاعلام الاجتماعية والبيانات من التطبيقات الأخرى ، والتي يتم اتخاذها للإشارة إلى مستوى المخاطر أو الموثوقية.

ولكن قد لا تكون بيانات مثل الخلفية التعليمية أو المكان الذي تعيش فيه ذات صلة أو موثوق بها لمثل هذه التقييمات. يمكن أن يكون هذا النوع من البيانات بمثابة وكيل للعنصر أو الوضع الاجتماعي الاقتصادي ، واستخدامه في اتخاذ القرارات حول مخاطر الائتمان قد يؤدي إلى التمييز.


رسم الاشتراك الداخلي


2. البحث عن وظيفة

البيانات الكبيرة يمكن استخدامها لتحديد الذي يرى إعلان وظيفة أو يحصل على قائمة مختصرة لمقابلة. يمكن استهداف إعلانات الوظائف في فئات عمرية معينة ، مثل 25 to 36-olds olds، والتي تستبعد العمال الأصغر سنا وكبار السن من حتى رؤية بعض منشورات الوظائف ويعرض خطر التمييز على أساس السن.

كما تستخدم أتمتة لجعل تصفية وفرز وترتيب المرشحين أكثر كفاءة. لكن عملية الفحص هذه قد تستبعد الناس على أساس مؤشرات مثل المسافة من تنقلاتهم. قد يفرض أصحاب العمل أن الأشخاص الذين لديهم رحلة أطول من المرجح أن يظلوا أقل عرضة للعمل في المدى الطويل ، ولكن هذا يمكن أن يميز في الواقع ضد الأشخاص الذين يعيشون أبعد من وسط المدينة بسبب موقع الإسكان الميسور التكلفة.

3. قرارات الإفراج المشروط والكفالة

في الولايات المتحدة والمملكة المتحدة ، يتم استخدام نماذج تقييم مخاطر البيانات الضخمة لمساعدة المسؤولين في تحديد ما إذا تم منح الناس الإفراج المشروط أو الكفالةأو يشار إليها برامج إعادة التأهيل. كما يمكن استخدامها لتقييم مدى الخطر الذي يمثله المجرم على المجتمع ، وهو أحد العوامل التي يمكن أن يأخذها القاضي في الاعتبار عند تحديد مدة العقوبة.

ليس من الواضح بالضبط ما هي البيانات المستخدمة للمساعدة في إجراء هذه التقييمات ، ولكن مع التحرك نحوها الشرطة الرقمية وتيرة ذلك ، فمن المرجح على نحو متزايد أن هذه البرامج سوف تتضمن معلومات مفتوحة المصدر مثل النشاط الاجتماعي الإنسي - إذا لم يفعلوا ذلك بالفعل.

قد لا تقتصر هذه التقييمات على النظر إلى ملف تعريف الشخص فحسب ، بل أيضًا على كيفية مقارنته بالآخرين. بعض قوات الشرطة لديها تاريخيا أكثر من الشرطة بعض الأقليات ، مما يؤدي إلى عدد غير متناسب من الحوادث الجنائية المبلغ عنها. إذا تم إدخال هذه البيانات في خوارزمية ، فسيؤدي ذلك إلى تشويه نماذج تقييم المخاطر وسيؤدي إلى التمييز الذي يؤثر بشكل مباشر حق الشخص في الحرية.

4. طلبات تأشيرة Vetting

في العام الماضي ، أعلنت وكالة الهجرة والجمارك بالولايات المتحدة (ICE) أنها تريد تقديم آلية "فحص فيزا المتطرفة"البرنامج. سيقوم بمسح حسابات وسائل الإعلام الاجتماعية بشكل مستمر ومستمر ، لتقييم ما إذا كان مقدمو الطلبات سيقدمون "مساهمة إيجابية" إلى الولايات المتحدة ، وما إذا كانت هناك أي قضايا أمنية وطنية قد تنشأ.

بالإضافة إلى عرض المخاطر على حرية الفكر والرأي والتعبير وتكوين الجمعيات ، كانت هناك مخاطر كبيرة من أن هذا البرنامج يميز ضد أشخاص من جنسيات أو أديان معينة. المعلقون وصفها بأنها "حظر المسلمين عن طريق الخوارزمية".

البرنامج تم سحبها مؤخراعلى أساس أنه "لم يكن هناك برنامج" جاهز يمكنه تقديم جودة مراقبة الوكالة المطلوبة ". ولكن تضمين مثل هذه الأهداف في وثائق الشراء يمكن أن يخلق حوافز سيئة لصناعة التكنولوجيا لتطوير برامج تتسم بالتمييز والتصميم.

المحادثةليس هناك شك في أن تحليلات البيانات الكبيرة تعمل بطرق يمكن أن تؤثر على فرص الأفراد في الحياة. لكن ال انعدام الشفافية حول كيفية تجميع البيانات الكبيرة واستخدامها ومشاركتها يجعل من الصعب على الأشخاص معرفة المعلومات المستخدمة وكيف ومتى. ببساطة ، تعتبر تحليلات البيانات الضخمة معقدة للغاية بحيث يتمكن الأفراد من حماية بياناتهم من الاستخدام غير الملائم. بدلاً من ذلك ، يجب على الدول والشركات أن تضع وتتبع اللوائح لضمان ألا يؤدي استخدامها للبيانات الضخمة إلى التمييز.

عن المؤلفين

Lorna McGregor ، مديرة مركز حقوق الإنسان ، PI ومديرة مشاركة ، ESRC حقوق الإنسان ، Big Data و Technology Grant كبيرة ، جامعة إسكس. دراغ موراي ، محاضر في القانون الدولي لحقوق الإنسان في كلية إسيكس للحقوق ، جامعة إسكسوفيفيان نج ، باحث أول في حقوق الإنسان ، جامعة إسكس

تم نشر هذه المقالة في الأصل المحادثة. إقرأ ال المقال الأصلي.

كتب بهؤلاء

نبذة عن الكاتب

at