الثقة في ai 7 20
 أصبحت روبوتات الدردشة المدعومة بالذكاء الاصطناعي أكثر قوة ، ولكن كيف تعرف ما إذا كانت تعمل لصالحك؟ 

إذا سألت Alexa ، نظام AI للمساعد الصوتي من Amazon ، عما إذا كانت Amazon محتكرة ، فإنها تستجيب من خلال قوله لا يعرف. لا يتطلب الأمر الكثير لتحقيقه انتقد عمالقة التكنولوجيا الآخرين، لكنها صامتة عن أفعال شركتها الأم.

عندما تستجيب Alexa بهذه الطريقة ، فمن الواضح أنها تضع اهتمامات مطوريها في مقدمة اهتماماتك. في العادة ، على الرغم من ذلك ، ليس من الواضح تمامًا من يخدم نظام الذكاء الاصطناعي. لتجنب التعرض للاستغلال من قبل هذه الأنظمة ، سيحتاج الناس إلى تعلم التعامل مع الذكاء الاصطناعي بشكل متشكك. هذا يعني البناء المتعمد للمدخلات التي تقدمها لها والتفكير بشكل نقدي حول ناتجها.

الأجيال الأحدث من نماذج الذكاء الاصطناعي ، مع استجاباتها الأكثر تعقيدًا والأقل حفظًا ، تجعل من الصعب معرفة من المستفيد عند التحدث. إن تلاعب شركات الإنترنت بما تراه لخدمة مصالحها ليس بالأمر الجديد. نتائج بحث Google وخلاصة Facebook الخاصة بك هي مليئة بالإدخالات المدفوعة. فيسبوك, تيك توك يتلاعب وآخرون بخلاصاتك لزيادة الوقت الذي تقضيه على المنصة ، مما يعني المزيد من مشاهدات الإعلانات على رفاهيتك.

ما يميز أنظمة الذكاء الاصطناعي عن خدمات الإنترنت الأخرى هو مدى تفاعلها وكيف ستصبح هذه التفاعلات بشكل متزايد مثل العلاقات. لا يتطلب الأمر الكثير من الاستقراء من تقنيات اليوم لتصور أنظمة الذكاء الاصطناعي التي ستخطط لرحلاتك أو تتفاوض نيابة عنك أو تعمل كمعالجين ومدربين للحياة.


رسم الاشتراك الداخلي


من المحتمل أن يكونوا معك على مدار الساعة طوال أيام الأسبوع ، ويعرفونك عن كثب ، ويكونون قادرين على توقع احتياجاتك. هذا النوع من واجهة المحادثة لشبكة واسعة من الخدمات والموارد على الويب ضمن قدرات أنظمة الذكاء الاصطناعي التوليدية الحالية مثل ChatGPT. إنهم على الطريق الصحيح ليصبحوا المساعدين الرقميين الشخصيين.

ك خبير أمني و عالم البيانات، نعتقد أن الأشخاص الذين يعتمدون على أنظمة الذكاء الاصطناعي هذه سيضطرون إلى الوثوق بهم ضمنيًا للتنقل في الحياة اليومية. هذا يعني أنهم سيحتاجون إلى التأكد من أن أنظمة الذكاء الاصطناعي لا تعمل سراً مع شخص آخر. عبر الإنترنت ، تعمل الأجهزة والخدمات التي يبدو أنها تعمل من أجلك بشكل سري ضدك بالفعل. تلفزيونات ذكية تجسس عليك. تطبيقات الهاتف جمع وبيع البيانات الخاصة بك. العديد من التطبيقات والمواقع التلاعب بك من خلال الأنماط المظلمة، عناصر التصميم التي تضليل أو إجبار أو خداع زوار الموقع عن عمد. وهذا هو رأسمالية المراقبة، والذكاء الاصطناعي يتشكل ليكون جزءًا منه. يلعب الذكاء الاصطناعي دورًا في رأسمالية المراقبة ، والذي يتلخص في التجسس عليك لجني الأموال منك.

في الظلام

من المحتمل جدًا أن يكون الأمر أسوأ بكثير مع الذكاء الاصطناعي. لكي يكون هذا المساعد الرقمي للذكاء الاصطناعي مفيدًا حقًا ، يجب أن يعرفك حقًا. أفضل مما يعرفك هاتفك. أفضل مما يعرفك بحث Google. ربما يكون أفضل من أن يعرفك أصدقاؤك المقربون والشركاء الحميمون والمعالج.

ليس لديك سبب للثقة في أدوات الذكاء الاصطناعي التوليدية الرائدة اليوم. اترك جانبا الهلوسة، "الحقائق" المصطنعة التي تنتجها GPT ونماذج اللغات الكبيرة الأخرى. نتوقع أن يتم تنظيفها إلى حد كبير مع تحسن التكنولوجيا خلال السنوات القليلة المقبلة.

لكنك لا تعرف كيف يتم تكوين أنظمة الذكاء الاصطناعي: كيف تم تدريبهم ، وما هي المعلومات التي تم إعطاؤها لهم ، وما هي التعليمات التي أُمروا باتباعها. على سبيل المثال ، الباحثون كشف القواعد السرية التي تحكم سلوك روبوت الدردشة Microsoft Bing. إنها حميدة إلى حد كبير ولكنها يمكن أن تتغير في أي وقت.

كسب المال

يتم إنشاء العديد من أنظمة الذكاء الاصطناعي هذه وتدريبها على نفقات هائلة من قبل بعض أكبر الاحتكارات التقنية. يتم تقديمها للناس لاستخدامها مجانًا أو بتكلفة منخفضة جدًا. ستحتاج هذه الشركات إلى تسييلها بطريقة ما. وكما هو الحال مع بقية الإنترنت ، فمن المرجح أن يشمل ذلك بطريقة ما المراقبة والتلاعب.

تخيل أن تطلب من الشات بوت الخاص بك التخطيط لعطلتك القادمة. هل اختارت شركة طيران أو سلسلة فنادق أو مطعمًا معينًا لأنها كانت الأفضل بالنسبة لك أو لأن صانعها حصل على رشاوى من الشركات؟ كما هو الحال مع النتائج المدفوعة في بحث Google وإعلانات موجز الأخبار على Facebook والمواضع المدفوعة في استعلامات Amazon ، من المرجح أن تصبح هذه التأثيرات المدفوعة أكثر سرية بمرور الوقت.

إذا كنت تطلب chatbot الخاص بك للحصول على معلومات سياسية ، فهل النتائج مشوهة بسياسات الشركة التي تمتلك chatbot؟ أو المرشح الذي دفع لها أكبر قدر من المال؟ أو حتى آراء التركيبة السكانية للأشخاص الذين تم استخدام بياناتهم في تدريب النموذج؟ هل وكيل الذكاء الاصطناعي الخاص بك عميل مزدوج سرا؟ في الوقت الحالي ، لا توجد طريقة لمعرفة ذلك.

جدير بالثقة بموجب القانون

نعتقد أن الناس يجب أن يتوقعوا المزيد من التكنولوجيا وأن شركات التكنولوجيا والذكاء الاصطناعي يمكن أن تصبح أكثر جدارة بالثقة. اقتراح الاتحاد الأوروبي قانون AI يتخذ بعض الخطوات المهمة ، التي تتطلب الشفافية حول البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي ، والتخفيف من التحيز المحتمل ، والكشف عن المخاطر المتوقعة ، والإبلاغ عن الاختبارات المعيارية للصناعة. يمضي الاتحاد الأوروبي قدمًا في تنظيم الذكاء الاصطناعي.

معظم أنظمة الذكاء الاصطناعي الموجودة لا تمتثل مع هذا الانتداب الأوروبي الناشئ ، وعلى الرغم من ذلك حث حديث من زعيم الأغلبية في مجلس الشيوخ تشاك شومر ، فإن الولايات المتحدة متخلفة كثيرًا في مثل هذا التنظيم.

يجب أن تكون أنظمة الذكاء الاصطناعي في المستقبل جديرة بالثقة. ما لم تقدم الحكومة حماية قوية للمستهلكين لمنتجات الذكاء الاصطناعي ، سيكون الناس بمفردهم لتخمين المخاطر والتحيزات المحتملة للذكاء الاصطناعي ، وللتخفيف من أسوأ آثارها على تجارب الناس معهم.

لذلك عندما تحصل على توصية سفر أو معلومات سياسية من إحدى أدوات الذكاء الاصطناعي ، تعامل معها بنفس النظرة المشككة التي قد تستخدمها في إعلان لوحة إعلانية أو متطوع في الحملة. على الرغم من سحرها التكنولوجي ، قد تكون أداة الذكاء الاصطناعي أكثر بقليل من نفس الشيء.المحادثة

نبذة عن الكاتب

بروس شنير، محاضر مساعد في السياسة العامة، مدرسة هارفارد كينيدي و ناثان ساندرز، شريك ، مركز بيركمان كلاين للإنترنت والمجتمع ، جامعة هارفارد

يتم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقال الأصلي.