يمكن للذكاء الاصطناعي الآن محاكاة السلوكيات البشرية وقريباً سيكون جيدًا بشكل خطير

يمكن للذكاء الاصطناعي الآن محاكاة السلوكيات البشرية وقريباً سيكون جيدًا بشكل خطيرهل هذا الوجه مجرد مجموعة من أجزاء الكمبيوتر؟ صورة ميشال بدنارك / Shutterstock.com

عندما تبدأ أنظمة الذكاء الاصطناعي في الإبداع ، فإنها يمكن أن تخلق أشياء عظيمة - وأخرى مخيفة. خذ على سبيل المثال برنامج الذكاء الاصطناعي الذي يسمح لك بذلك مستخدمي الويب يؤلفون الموسيقى جنبا إلى جنب مع افتراضي يوهان سيباستيان باخ عن طريق إدخال الملاحظات في برنامج يولد تنسيقات تشبه باخ لمطابقتها.

تديرها جوجل، التطبيق رسم عظيم مدح لكونها رائدة ومتعة اللعب مع. جذبت أيضا نقد، وأثار مخاوف حول مخاطر منظمة العفو الدولية.

دراستي كيف التقنيات الناشئة تؤثر على حياة الناس لقد علمتني أن المشكلات تتجاوز الاهتمام الكبير المعترف به سواء الخوارزميات يمكن حقا خلق الموسيقى أو الفن بشكل عام. بدت بعض الشكاوى صغيرة ، ولكنها في الحقيقة لم تكن كذلك ، مثل الملاحظات التي ذكرتها منظمة العفو الدولية من Google كسر القواعد الأساسية من تكوين الموسيقى.

في الواقع ، فإن الجهود المبذولة لجعل أجهزة الكمبيوتر تحاكي سلوك الأشخاص الفعليين قد تكون مربكة وربما ضارة.

تقنيات التمثيل

قام برنامج Google بتحليل الملاحظات في أعمال 306 of Bach الموسيقية ، وإيجاد علاقات بين اللحن والملاحظات التي قدمت التناغم. نظرًا لأن Bach اتبع قواعد صارمة للتكوين ، فقد كان البرنامج يتعلم بشكل فعال تلك القواعد ، لذلك يمكن تطبيقها عند قيام المستخدمين بتقديم ملاحظاتهم الخاصة.

يشرح فريق Google Doodle برنامج Bach.


الحصول على أحدث من InnerSelf


تطبيق Bach الجديد جديد ، لكن التكنولوجيا الأساسية ليست كذلك. الخوارزميات المدربة على التعرف على الأنماط وجعل القرارات الاحتمالية كانت موجودة لفترة طويلة. بعض هذه الخوارزميات معقدة للغاية لدرجة أن الناس لا تفهم دائما كيف يتخذون القرارات أو ينتجون نتائج معينة.

أنظمة الذكاء الاصطناعي ليست مثالية - يعتمد الكثير منها على ذلك البيانات التي ليست ممثلة من مجموع السكان ، أو تلك تتأثر التحيزات البشرية. انها ليست واضحة تماما الذي قد يكون مسؤولا قانونيا عندما يرتكب نظام الذكاء الاصطناعي خطأ أو يسبب مشكلة.

الآن ، رغم ذلك ، يتم تطوير تقنيات الذكاء الاصطناعي بما يكفي لتكون قادرة على تقريب أسلوب الكتابة أو التحدث للأفراد ، وحتى تعبيرات الوجه. هذا ليس سيئًا دائمًا: AI بسيط إلى حد ما أعطى ستيفن هوكينج القدرة على التواصل أكثر كفاءة مع الآخرين من خلال التنبؤ بالكلمات التي سيستخدمها أكثر.

برامج أكثر تعقيدًا تحاكي الأصوات البشرية مساعدة الأشخاص ذوي الإعاقة - ولكن يمكن استخدامها أيضًا لخداع المستمعين. على سبيل المثال ، صناع طائر القيثارة، برنامج محاكاة الصوت ، أصدرت محادثة محاكاة بين باراك أوباما ، دونالد ترامب وهيلاري كلينتون. قد يبدو حقيقيا ، ولكن هذا التبادل لم يحدث أبدا.

من الخير الى السيء

في فبراير 2019 ، أنشأت شركة OpenAI غير الربحية برنامجًا يولد نصًا لا يمكن تمييزه تقريبًا عن النص كتبه الناس. يمكن أن "يكتب" خطاب في اسلوب جون كينيدي، JRR تولكين في "وسيد الخواتم"أو كتابة الطالب مهمة مدرسية عن الحرب الأهلية الأمريكية.

النص الذي تم إنشاؤه بواسطة برنامج OpenAI معقول للغاية لدرجة أن الشركة قد اختارت ذلك ليس للافراج البرنامج نفسه.

يمكن للتقنيات المشابهة محاكاة الصور ومقاطع الفيديو. في أوائل 2018 ، على سبيل المثال ، أنشأ الممثل والمخرج السينمائي جوردان بيل مقطع فيديو بدا أنه يظهر للرئيس الأمريكي السابق باراك أوباما يقول الأشياء لم يقلها أوباما قط لتحذير الجمهور من المخاطر الناجمة عن هذه التقنيات.

كن حذرا ما أشرطة الفيديو التي تعتقد.

في أوائل 2019 ، الصورة عارية وهمية تعميم النائب الأمريكي الأسكندرية أوتشاسيو كورتيز على الإنترنت. ملفقة الفيديو، وغالبا ما تسمى "deepfakes، "من المتوقع أن يكون على نحو متزايد مستعمل في الحملات الانتخابية.

أعضاء الكونغرس بدأت للنظر في هذه المسألة قبل انتخابات 2020. وزارة الدفاع الأمريكية تقوم بتدريس الجمهور كيفية اكتشاف أشرطة الفيديو الطبيب والصوت. المنظمات الإخبارية مثل رويترز بدأوا في تدريب الصحفيين على اكتشاف أعماق

ولكن ، في رأيي ، لا يزال هناك مصدر قلق أكبر: قد لا يتمكن المستخدمون من التعلم بسرعة كافية لتمييز المحتوى المزيف لأن تقنية الذكاء الاصطناعي تصبح أكثر تطوراً. على سبيل المثال ، نظرًا لأن الجمهور بدأ يدرك المخاطر الكبيرة ، يتم استخدام الذكاء الاصطناعي بالفعل من أجل المزيد من الخداع المتقدم. هناك الآن البرامج التي يمكن أن تولد وجوه وهمية . بصمات رقمية وهمية، وخلق المعلومات المطلوبة بشكل فعال لتصنيع شخص كامل - على الأقل في سجلات الشركات أو الحكومة.

الآلات الاستمرار في التعلم

في الوقت الحالي ، هناك أخطاء محتملة كافية في هذه التقنيات لإعطاء الناس فرصة لاكتشاف افتراءات رقمية. جوجل باخ الملحن ارتكبت بعض الاخطاء خبير يمكن أن يكتشف. على سبيل المثال ، عندما جربته ، سمح لي البرنامج بالدخول أخماس موازية، فاصل الموسيقى التي باخ تجنبها بجدية. التطبيق أيضا كسر القواعد الموسيقية من المقابلة من خلال مواءمة الألحان في المفتاح الخطأ. وبالمثل ، فإن برنامج OpenAI لتوليد النصوص يكتب أحيانًا عبارات مثل "حرائق تحدث تحت الماء"هذا لا معنى له في سياقاتهم.

أثناء عمل المطورين على إبداعاتهم ، ستصبح هذه الأخطاء أكثر ندرة. على نحو فعال ، سوف تتطور تقنيات الذكاء الاصطناعي وتتعلم. يتمتع الأداء المحسّن بإمكانية تحقيق العديد من الفوائد الاجتماعية - بما في ذلك رعاية صحية أفضل ، كما تساعد برامج الذكاء الاصطناعي دمقرطة ممارسة الطب.

إن منح الباحثين والشركات حرية الاستكشاف ، من أجل البحث عن هذه الإنجازات الإيجابية من أنظمة الذكاء الاصطناعي ، يعني فتح خطر تطوير طرق أكثر تقدماً لخلق الخداع والمشاكل الاجتماعية الأخرى. الحد بشدة البحث منظمة العفو الدولية يمكن كبح هذا التقدم. لكن إعطاء التقنيات المفيدة مجال للنمو لا يأتي ذلك بتكلفة بسيطة - واحتمال إساءة الاستخدام ، سواء كان ذلك لإنتاج موسيقى غير دقيقة تشبه باخ أو لخداع الملايين ، من المحتمل أن ينمو بطرق لا يمكن للناس توقعها بعد.المحادثة

نبذة عن الكاتب

آنا سانتوس روتشمان ، أستاذة مساعدة في القانون ، جامعة سانت لويس

يتم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقال الأصلي.

كتب ذات صلة

{amazonWS: searchindex = Books؛ keywords = artificial intelligence؛ maxresults = 3}

enafarزكية-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

اتبع InnerSelf على

الفيسبوك أيقونةتويتر أيقونةآر إس إس أيقونة

احصل على آخر عبر البريد الإلكتروني

{Emailcloak = إيقاف}