هل ستفهم الذكاء الاصطناعي أبدًا عواطف الإنسان؟

كيف تشعر حيال الحصول على العلاج من روبوت؟ قد لا تكون آلات ذكية عاطفية بعيدة كما يبدو. على مدى العقود القليلة الماضية ، أصبحت الذكاء الاصطناعي (AI) أكثر فأكثر في قراءة ردود الفعل العاطفية عند البشر.

لكن القراءة ليست هي نفس الفهم. إذا لم تستطع منظمة العفو الدولية مواجهة العواطف نفسها ، فهل يمكن أن نفهمها حقاً؟ وإذا لم يكن الأمر كذلك ، فهل هناك خطر من أننا نعتبر خصائص الروبوتات التي ليس لديهم؟

لقد حان أحدث جيل من AIS بسبب زيادة في البيانات المتاحة لأجهزة الكمبيوتر للتعلم منها ، فضلا عن تحسين قوة المعالجة. هذه الآلات تتنافس بشكل متزايد في المهام التي ينظر إليها دائما على أنها بشرية.

يمكن لمنظمة العفو الدولية الآن ، من بين أمور أخرى ، التعرف على الوجوه, تحويل اسكتشات الوجه إلى صور, التعرف على الكلام و إلعب.

تحديد المجرمين

في الآونة الأخيرة ، طور الباحثون الذكاء الاصطناعي القادر على معرفة ما إذا كان الشخص مجرمًا فقط من خلال النظر إلى ملامح الوجه. تم تقييم النظام باستخدام قاعدة بيانات لصور المعرف الصينية النتائج هي الفك اسقاط. صنفت منظمة العفو الدولية الأبرياء خطأً على أنهم مجرمون في حوالي 6٪ من الحالات فقط ، بينما تمكنت من التعرف بنجاح على نسبة 83٪ من المجرمين. وهذا يؤدي إلى دقة شاملة مذهلة تقريبًا 90٪.

يعتمد النظام على نهج يسمى "التعلم العميق" ، والذي نجح في المهام الإدراكية مثل التعرف على الوجه. هنا ، يتيح التعلم العميق إلى جانب "نموذج دوران الوجه" للذكاء الاصطناعي التحقق مما إذا كانت صورتي الوجه تمثلان نفس الشخص حتى وإن تغيرت الإضاءة أو الزاوية بين الصور.


رسم الاشتراك الداخلي


تعلم عميق يبني "الشبكة العصبية" ، على غرار بشكل فضفاض على الدماغ البشري. هذا يتكون من مئات الآلاف من الخلايا العصبية المنظمة في طبقات مختلفة. تقوم كل طبقة بتحويل الإدخال ، على سبيل المثال صورة الوجه ، إلى مستوى أعلى من التجريد ، مثل مجموعة من الحواف في اتجاهات ومواقع معينة. هذا يؤكد تلقائيا على الميزات الأكثر ملاءمة لأداء مهمة معينة.

بالنظر إلى نجاح التعلم العميق ، فليس من المستغرب أن الشبكات العصبية الاصطناعية يمكن أن تميز المجرمين عن غير المجرمين - إذا كانت هناك بالفعل ملامح الوجه التي يمكن أن تميز بينهم. يقترح البحث أن هناك ثلاثة. واحد هو الزاوية بين طرف الأنف وزوايا الفم ، والتي كانت في المتوسط ​​أصغر 19.6 ٪ للمجرمين. كان انحناء الشفة العليا في المتوسط ​​أيضًا أكبر بنسبة 23.4٪ للمجرمين بينما كانت المسافة بين الزوايا الداخلية للعيون في المتوسط ​​5.6٪ أضيق.

للوهلة الأولى ، يبدو أن هذا التحليل يشير إلى ذلك وجهات نظر عفا عليها الزمن أن المجرمين يمكن تحديدهم من خلال الخصائص المادية ليست خاطئة تماما. ومع ذلك ، قد لا تكون القصة كاملة. من المثير للاهتمام أن اثنين من أكثر الميزات ذات الصلة ترتبط بالشفاه ، والتي هي أكثر ملامح الوجه تعبيرا. مطلوب صور الهوية مثل تلك المستخدمة في الدراسة أن يكون تعبير الوجه محايد ، ولكن يمكن أن تكون منظمة العفو الدولية تمكنت من العثور على العواطف الخفية في تلك الصور. هذه قد تكون بسيطة لدرجة أن البشر قد كافحوا لإشعارهم.

من الصعب مقاومة إغراء النظر إلى صور العينات المعروضة في الورقة ، والتي لم تتم مراجعتها بعد. في الواقع ، فإن نظرة متأنية تكشف عن ابتسامة طفيفة في صور غير المجرمين - انظر بنفسك. ولكن لا تتوفر سوى نماذج قليلة من الصور ، لذا لا يمكننا تعميم استنتاجاتنا على قاعدة البيانات بأكملها.

قوة الحوسبة العاطفية

لن تكون هذه هي المرة الأولى التي يتمكن فيها الكمبيوتر من التعرف على العواطف البشرية. ما يسمى ب "الحوسبة العاطفية"كانت موجودة منذ عدة سنوات. يقال إنه إذا أردنا العيش بشكل مريح والتفاعل مع الروبوتات ، فإن هذه الآلات يجب أن تكون قادرة على فهم العواطف البشرية وتفاعلها بشكل مناسب. هناك الكثير من العمل في المنطقة ، والإمكانيات واسعة.

على سبيل المثال ، استخدم الباحثون تحليل الوجه ل الطلاب النضال في دورات تعليم الكمبيوتر. تم تدريب الذكاء الاصطناعي على التعرف على مستويات مختلفة من التفاعل والإحباط ، بحيث يمكن للنظام معرفة متى كان الطلاب يجدون العمل سهلًا جدًا أو صعبًا جدًا. قد تكون هذه التقنية مفيدة لتحسين تجربة التعلم في الأنظمة الأساسية عبر الإنترنت.

كما تم استخدام منظمة العفو الدولية ل كشف العواطف على أساس صوت صوتنا من قبل شركة تدعى BeyondVerbal. لقد أنتجوا برنامجًا يحلل تعديل الصوت ويسعى إلى أنماط محددة في الطريقة التي يتحدث بها الناس. تدعي الشركة أنها قادرة على تحديد المشاعر بدقة بدقة 80٪. في المستقبل ، قد يساعد هذا النوع من التكنولوجيا ، على سبيل المثال ، الأفراد المصابين بالتوحد في تحديد العواطف.

تحاول سوني تطوير روبوت قادرة على تكوين روابط عاطفية مع الناس. ليس هناك الكثير من المعلومات حول كيفية عزمهم على تحقيق ذلك ، أو ما سيفعله الروبوت بالضبط. ومع ذلك ، فإنهم يذكرون أنهم يسعون إلى "دمج الأجهزة والخدمات لتقديم تجارب مقنعة عاطفيا".

تتمتع الذكاء الاصطناعي الذكوري بالعديد من الفوائد المحتملة ، سواء كان ذلك لإعطاء شخص ما رفيقًا أو لمساعدتنا في أداء مهام معينة - بدءًا من الاستجواب الجنائي إلى العلاج بالكلام.

ولكن هناك أيضا مشاكل أخلاقية ومخاطر مرتبطة بها. هل من الصواب السماح لمريض مصاب بالخرف بالاعتماد على رفيق الذكاء الاصطناعي ويعتقد أنه يتمتع بحياة عاطفية عندما لا يكون كذلك؟ وهل يمكنك إدانة شخص ما استناداً إلى منظمة العفو الدولية التي تصنفها على أنها مذنبة؟ غير واضح. وبدلاً من ذلك ، بمجرد تحسين نظام مثل هذا وتقييمه بشكل كامل ، قد يكون الاستخدام الأقل ضررًا والذي قد يكون مفيدًا هو إجراء مزيد من الفحوصات على الأفراد الذين تعتبرهم "مشبوهة" من قبل منظمة العفو الدولية.

إذن ما الذي يجب أن نتوقعه من منظمة العفو الدولية في المستقبل؟ لا تزال المواضيع الشخصية مثل العواطف والمشاعر صعبة على منظمة العفو الدولية للتعلم ، جزئياً لأن الذكاء الاصطناعي قد لا يستطيع الوصول إلى بيانات جيدة كافية لتحليلها بشكل موضوعي. على سبيل المثال ، هل يمكن أن تفهم منظمة العفو الدولية السخرية؟ قد تكون الجملة المعطاة ساخرة عندما يتم التحدث بها في سياق واحد وليس في سياق آخر.

ومع ذلك ، فإن مقدار البيانات وقوة المعالجة لا يزال ينمو. لذا ، مع بعض الاستثناءات القليلة ، قد تتمكن منظمة العفو الدولية من مضاهاة البشر في التعرف على أنواع مختلفة من العواطف في العقود القليلة القادمة. ولكن ما إذا كان الذكاء الاصطناعي يمكن أن يختبر العواطف أم لا؟ موضوع مثير للجدل. حتى لو استطاعوا ذلك ، قد تكون هناك بالتأكيد مشاعر لا يمكنهم تجربتها - مما يجعل من الصعب فهمهم بشكل حقيقي.

المحادثة

نبذة عن الكاتب

لياندرو مينكو ، محاضر في علوم الكمبيوتر ، جامعة ليستر

تم نشر هذه المقالة في الأصل المحادثة. إقرأ ال المقال الأصلي.

كتب ذات صلة:

at سوق InnerSelf و Amazon