الرجال - والبلدان - في حالة حرب
كان من الممكن أن يتعلم نابليون من الماضي. الرسم بواسطة أدولف نورثين / ويكيبيديا

إنها مقولة مفادها أن عدم معرفة التاريخ يجعل المرء يكرره. كما أشار العديد من الناس أيضًا ، فإن الشيء الوحيد الذي نتعلمه من التاريخ هو أننا نادرًا ما نتعلم أي شيء من التاريخ. ينخرط الناس في الحروب البرية في آسيا مرارا و تكرارا. كما أنهم يكررون نفس أخطاء المواعدة مرارًا وتكرارًا. لكن لماذا يحدث هذا؟ وهل ستضع التكنولوجيا حدا لها؟

قضية واحدة هي النسيان و "قصر النظر”: نحن لا نرى مدى صلة الأحداث الماضية بالأحداث الحالية ، متجاهلين النمط المتكشف. كان يجب على نابليون أن يلاحظ أوجه التشابه بين مسيرته إلى موسكو والملك السويدي محاولة تشارلز الثاني عشر الفاشلة للقيام بالمثل ما يقرب من قرن قبله.

نحن أيضا سيء في التعلم عندما تسوء الأمور. بدلاً من تحديد سبب كون القرار خاطئًا وكيفية تجنب حدوثه مرة أخرى ، نحاول غالبًا تجاهل التحول المحرج للأحداث. هذا يعني أنه في المرة القادمة التي يحدث فيها موقف مشابه ، لا نرى التشابه - ونكرر الخطأ.

كلاهما يكشف عن مشاكل في المعلومات. في الحالة الأولى ، نفشل في تذكر المعلومات الشخصية أو التاريخية. في الثانية ، نفشل في تشفير المعلومات عندما تكون متاحة.


رسم الاشتراك الداخلي


ومع ذلك ، فإننا نرتكب أخطاء أيضًا عندما لا نستطيع استنتاج ما سيحدث بكفاءة. ربما يكون الموقف معقدًا جدًا أو يستغرق وقتًا طويلاً للتفكير فيه. أو نحن منحازون لإساءة تفسير ما يجري.

القوة المزعجة للتكنولوجيا

لكن من المؤكد أن التكنولوجيا يمكن أن تساعدنا؟ يمكننا الآن تخزين المعلومات خارج أدمغتنا ، واستخدام أجهزة الكمبيوتر لاستردادها. هذا يجب أن يجعل التعلم والتذكر سهلاً ، أليس كذلك؟

يكون تخزين المعلومات مفيدًا عندما يمكن استرجاعها جيدًا. لكن التذكر ليس هو نفسه استرجاع ملف من مكان أو تاريخ معروف. يتضمن التذكر اكتشاف أوجه التشابه واستدعاء الأشياء إلى الذهن.

يحتاج الذكاء الاصطناعي أيضًا إلى أن يكون قادرًا على إحداث أوجه تشابه في أذهاننا تلقائيًا - غالبًا ما تكون أوجه التشابه غير المرحب بها. ولكن إذا كان من الجيد ملاحظة أوجه التشابه المحتملة (بعد كل شيء ، يمكنه البحث في كل الإنترنت وجميع بياناتنا الشخصية) ، فغالبًا ما يلاحظ أيضًا وجود أخطاء خاطئة.

للتواريخ الفاشلة ، قد يلاحظ أنهم جميعًا شاركوا في العشاء. لكن لم يكن الطعام هو المشكلة. وكانت مجرد مصادفة أن وجود زهور التوليب على الطاولة - لا يوجد سبب لتجنبها. كثيرا ما نكرر أخطاء المواعدة. 

هذا يعني أنه سيحذرنا من الأشياء التي لا نهتم بها ، ربما بطريقة مزعجة. يعني ضبط حساسيتها زيادة خطر عدم تلقي تحذير عند الحاجة.

هذه مشكلة أساسية وتنطبق بنفس القدر على أي مستشار: المستشار الحذر سيبكي كثيرًا ، وسيخسر المستشار المتفائل المخاطر.

المستشار الجيد هو شخص نثق به. لديهم نفس مستوى الحذر الذي نتمتع به ، ونحن نعلم أنهم يعرفون ما نريد. يصعب العثور على هذا في مستشار بشري ، وأكثر من ذلك في الذكاء الاصطناعي.

أين توقف التكنولوجيا الأخطاء؟ أعمال تدقيق الأبله. تتطلب منك آلات القطع الضغط باستمرار على الأزرار وإبقاء يديك بعيدًا عن الشفرات. "مفتاح الرجل الميت" يوقف الآلة إذا أصبح المشغل عاجزًا.

تعمل أفران الميكروويف على إيقاف الإشعاع عند فتح الباب. لإطلاق الصواريخ ، يحتاج شخصان إلى إدارة المفاتيح في نفس الوقت عبر الغرفة. هنا ، التصميم الدقيق يجعل من الصعب ارتكاب الأخطاء. لكننا لا نهتم بما يكفي بالمواقف الأقل أهمية ، مما يجعل التصميم هناك أقل حماقة بكثير.

عندما تعمل التكنولوجيا بشكل جيد ، غالبًا ما نثق بها كثيرًا. يتمتع طيارو الخطوط الجوية بساعات طيران حقيقية أقل اليوم مما كانت عليه في الماضي بسبب الكفاءة المذهلة لأنظمة الطيار الآلي. هذه أخبار سيئة عندما يفشل الطيار الآلي ، ويكون لدى الطيار خبرة أقل في المضي قدماً لتصحيح الوضع.

أول من سلالة جديدة من منصة النفط (سليبنير أ) غرقت لأن المهندسين وثقوا في حساب البرمجيات للقوى المؤثرة عليها. كان النموذج خاطئًا ، لكنه قدم النتائج بطريقة مقنعة بحيث بدت موثوقة.

الكثير من تقنيتنا موثوقة بشكل مثير للدهشة. على سبيل المثال ، لا نلاحظ كيف يتم باستمرار العثور على حزم البيانات المفقودة على الإنترنت خلف الكواليس ، وكيف تزيل أكواد تصحيح الأخطاء الضوضاء أو كيف تجعل الصمامات والتكرار الأجهزة آمنة.

لكن عندما نتراكم على مستوى بعد مستوى من التعقيد ، يبدو الأمر غير موثوق به على الإطلاق. نلاحظ عندما يتأخر فيديو Zoom ، أو يجيب برنامج AI بشكل خاطئ أو يتعطل الكمبيوتر. ومع ذلك ، اسأل أي شخص استخدم جهاز كمبيوتر أو سيارة منذ 50 عامًا كيف كان يعمل بالفعل ، وستلاحظ أنهما كانا أقل قدرة وأقل موثوقية.

نجعل التكنولوجيا أكثر تعقيدًا حتى تصبح مزعجة للغاية أو غير آمنة للاستخدام. نظرًا لأن الأجزاء أصبحت أفضل وأكثر موثوقية ، فغالبًا ما نختار إضافة ميزات جديدة مثيرة ومفيدة بدلاً من الالتزام بما يصلح. هذا في النهاية يجعل التكنولوجيا أقل موثوقية مما يمكن أن تكون عليه.

الاخطاء سترتكب

وهذا هو السبب أيضًا في أن الذكاء الاصطناعي هو سيف ذو حدين لتجنب الأخطاء. غالبًا ما تجعل الأتمتة الأشياء أكثر أمانًا وكفاءة عندما تعمل ، ولكن عندما تفشل ، فإنها تجعل المشكلة أكبر بكثير. الاستقلالية تعني أن البرامج الذكية يمكن أن تكمل تفكيرنا وتفرغنا من العبء ، ولكن عندما لا تفكر كما نريدها ، يمكن أن تسيء التصرف.

كلما كان الأمر أكثر تعقيدًا ، كلما كانت الأخطاء رائعة. يعرف أي شخص تعامل مع علماء أذكياء للغاية مدى قدرتهم على العبث بالأشياء ببراعة كبيرة عندما يفشلهم الفطرة السليمة - والذكاء الاصطناعي لديه القليل جدًا من الفطرة البشرية.

وهذا أيضًا سبب عميق للقلق بشأن توجيه الذكاء الاصطناعي لعملية صنع القرار: يرتكبون أنواعًا جديدة من الأخطاء. نحن البشر نعرف الأخطاء البشرية ، مما يعني أنه يمكننا الحذر منها. لكن يمكن للآلات الذكية أن ترتكب أخطاء لا يمكن أن نتخيلها أبدًا.

علاوة على ذلك ، يتم برمجة أنظمة الذكاء الاصطناعي وتدريبها من قبل البشر. وهناك الكثير من الأمثلة على مثل هذه الأنظمة يصبحون متحيزين وحتى متعصبين. إنهم يقلدون التحيزات ويكررون أخطاء العالم البشري ، حتى عندما يحاول الأشخاص المعنيون صراحة تجنبها.

في النهاية ، ستستمر الأخطاء. هناك أسباب أساسية تجعلنا مخطئين بشأن العالم ، ولماذا لا نتذكر كل ما يجب علينا فعله ، ولماذا لا تستطيع تقنيتنا مساعدتنا تمامًا على تجنب المتاعب.

لكن يمكننا العمل للحد من عواقب الأخطاء. لقد وفر زر التراجع والحفظ التلقائي عددًا لا يحصى من المستندات على أجهزة الكمبيوتر الخاصة بنا. النصب التذكاري في لندن, أحجار تسونامي في اليابان والآثار الأخرى لتذكيرنا ببعض المخاطر. ممارسات التصميم الجيدة تجعل حياتنا أكثر أمانًا.

في النهاية ، من الممكن أن تتعلم شيئًا من التاريخ. يجب أن يكون هدفنا البقاء على قيد الحياة والتعلم من أخطائنا ، وليس منع حدوثها أبدًا. يمكن أن تساعدنا التكنولوجيا في هذا الأمر ، لكننا بحاجة إلى التفكير مليًا فيما نريده بالفعل منها - والتصميم وفقًا لذلك.

نبذة عن الكاتب

اندرس ساندبيرغ، زميل أبحاث جيمس مارتن ، معهد Future of Humanity ومدرسة أكسفورد مارتن ، جامعة أكسفورد

يتم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقال الأصلي.