كيف يستعد الباحثون للموجة القادمة من الدعاية المزيفة

كيف يستعد الباحثون للموجة القادمة من الدعاية المزيفة
الكاشفات التي تعمل بالذكاء الاصطناعي هي أفضل الأدوات لاكتشاف مقاطع الفيديو المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
واشنطن بوست عن طريق Getty Images

صحفي استقصائي يتلقى مقطع فيديو من مجهول المبلغ عن المخالفات. يظهر فيه مرشح لمنصب الرئيس يعترف بنشاط غير قانوني. لكن هل هذا الفيديو حقيقي؟ إذا كان الأمر كذلك ، فسيكون خبرًا كبيرًا - مغرفة العمر - ويمكن أن يقلب تمامًا الانتخابات القادمة. لكن الصحفية تدير الفيديو من خلال أداة متخصصة تخبرها أن الفيديو ليس كما يبدو. في الواقع ، إنها "deepfake، "فيديو تم إنشاؤه باستخدام الذكاء الاصطناعي مع التعلم العميق.

قد يستخدم الصحفيون في جميع أنحاء العالم قريبًا أداة كهذه. في غضون سنوات قليلة ، يمكن للجميع استخدام أداة مثل هذه لاستئصال المحتوى المزيف في خلاصات الوسائط الاجتماعية الخاصة بهم.

As الباحثين الذين كانوا يدرسون كشف التزييف العميق وتطوير أداة للصحفيين ، نرى مستقبلًا لهذه الأدوات. ومع ذلك ، لن يحلوا جميع مشاكلنا ، وسيكونون مجرد جزء واحد من الترسانة في المعركة الأوسع ضد المعلومات المضللة.

مشكلة التزييف العميق

يعرف معظم الناس أنه لا يمكنك تصديق كل ما تراه. على مدى العقدين الماضيين ، اعتاد مستهلكو الأخبار الأذكياء على رؤية الصور يتم التلاعب بها باستخدام برامج تحرير الصور. على الرغم من ذلك ، تعد مقاطع الفيديو قصة أخرى. يمكن لمخرجي هوليوود إنفاق ملايين الدولارات على المؤثرات الخاصة لعمل مشهد واقعي. لكن باستخدام تقنية التزييف العميق ، يمكن للهواة الذين يمتلكون بضعة آلاف من الدولارات من أجهزة الكمبيوتر وقضاء بضعة أسابيع أن يصنعوا شيئًا ما يشبه الحياة تقريبًا.

تجعل تقنية Deepfakes من الممكن وضع الأشخاص في مشاهد أفلام لم يكونوا فيها من قبل - أعتقد أن توم كروز يلعب دور الرجل الحديدي - مما يجعل مقاطع الفيديو مسلية. لسوء الحظ ، فإنه يجعل من الممكن أيضًا إنشاء ملفات المواد الإباحية دون موافقة من الناس المصورة. حتى الآن ، هؤلاء الأشخاص ، جميعهم تقريبًا من النساء ، هم أكبر الضحايا عند إساءة استخدام تقنية التزييف العميق.

يمكن أيضًا استخدام تقنية Deepfakes لإنشاء مقاطع فيديو لقادة سياسيين يقولون أشياء لم يقلوها مطلقًا. أصدر الحزب الاشتراكي البلجيكي مقطع فيديو منخفض الجودة غير مزيف ولكنه لا يزال مزيفًا الرئيس ترامب يهين بلجيكا، والتي حصلت على ما يكفي من رد الفعل لإظهار المخاطر المحتملة للتزييف العميق عالي الجودة.


يشرح هاني فريد من جامعة كاليفورنيا في بيركلي كيفية صنع تقنية التزييف العميق.

الحصول على أحدث من InnerSelf


ربما الأكثر رعبا على الإطلاق، يمكن استخدامها في الإنشاء شك في محتوى مقاطع الفيديو الحقيقية، من خلال الإشارة إلى أنها قد تكون مزيفة.

بالنظر إلى هذه المخاطر ، سيكون من المفيد للغاية أن تكون قادرًا على اكتشاف التزييف العميق ووصفها بوضوح. سيضمن ذلك أن مقاطع الفيديو المزيفة لا تخدع الجمهور ، وأن مقاطع الفيديو الحقيقية يمكن تلقيها على أنها أصلية.

اكتشاف المنتجات المقلدة

بدأ اكتشاف التزييف العميق كمجال بحثي أكثر من ذلك بقليل قبل ثلاث سنوات. ركز العمل المبكر على اكتشاف المشكلات المرئية في مقاطع الفيديو ، مثل التزييف العميق الذي لم يرمش. مع مرور الوقت ، ومع ذلك ، فإن أصبحت المنتجات المقلدة أفضل في محاكاة مقاطع الفيديو الحقيقية ويصبح من الصعب اكتشافها لكل من الأشخاص وأدوات الكشف.

هناك فئتان رئيسيتان لأبحاث الكشف عن التزييف العميق. الأول يتضمن النظر في سلوك الناس في أشرطة الفيديو. لنفترض أن لديك الكثير من مقاطع الفيديو لشخص مشهور ، مثل الرئيس أوباما. يمكن للذكاء الاصطناعي استخدام هذا الفيديو لمعرفة أنماطه ، من إيماءات يده إلى توقفه في الكلام. يمكن بعد ذلك مشاهدة مزيف عميق له ولاحظ أين لا تتطابق مع تلك الأنماط. يتمتع هذا النهج بميزة إمكانية العمل حتى لو كانت جودة الفيديو نفسها مثالية بشكل أساسي.


يصف آرون لوسون من SRI International طريقة واحدة لاكتشاف التزييف العميق.

باحثون آخرون ، بما في ذلك فريقنا، تم التركيز عليها الخلافات أن كل deepfakes لها مقارنة بمقاطع الفيديو الحقيقية. غالبًا ما يتم إنشاء مقاطع الفيديو المزيفة عن طريق دمج الإطارات التي تم إنشاؤها بشكل فردي لتشكيل مقاطع الفيديو. مع أخذ ذلك في الاعتبار ، تستخرج أساليب فريقنا البيانات الأساسية من الوجوه في الإطارات الفردية للفيديو ثم تتبعها من خلال مجموعات من الإطارات المتزامنة. هذا يسمح لنا باكتشاف التناقضات في تدفق المعلومات من إطار إلى آخر. نحن نستخدم نهجًا مشابهًا لنظام الكشف عن الصوت المزيف أيضًا.

يصعب على الناس رؤية هذه التفاصيل الدقيقة ، لكنها تُظهر كيف أن التزييف العميق ليس تمامًا ممتاز حتى الان. يمكن أن تعمل أجهزة الكشف مثل هذه مع أي شخص ، وليس فقط عدد قليل من قادة العالم. في النهاية ، قد تكون هناك حاجة لكلا النوعين من أجهزة الكشف عن التزييف العميق.

تعمل أنظمة الكشف الحديثة بشكل جيد للغاية على مقاطع الفيديو التي تم جمعها خصيصًا لتقييم الأدوات. لسوء الحظ ، حتى أفضل النماذج تفعل ذلك ضعيفًا في مقاطع الفيديو الموجودة على الإنترنت. الخطوة التالية الرئيسية هي تحسين هذه الأدوات لتكون أكثر قوة وفائدة.

من يجب أن يستخدم كاشفات التزييف العميق؟

من الناحية المثالية ، يجب أن تكون أداة التحقق من التزييف العميق متاحة للجميع. ومع ذلك ، فإن هذه التكنولوجيا في المراحل الأولى من التطوير. يحتاج الباحثون إلى تحسين الأدوات وحمايتها من المتسللين قبل إطلاقها على نطاق واسع.

ولكن في الوقت نفسه ، فإن أدوات التزييف العميق متاحة لأي شخص يريد خداع الجمهور. الجلوس على الخطوط الجانبية ليس خيارا. بالنسبة لفريقنا ، كان التوازن الصحيح هو العمل مع الصحفيين ، لأنهم يمثلون خط الدفاع الأول ضد انتشار المعلومات المضللة.

قبل نشر القصص ، يحتاج الصحفيون إلى التحقق من المعلومات. لديهم بالفعل طرق مجربة وحقيقية ، مثل التحقق من المصادر والحصول على أكثر من شخص للتحقق من الحقائق الأساسية. لذلك من خلال وضع الأداة في أيديهم ، نقدم لهم المزيد من المعلومات ، ونعلم أنهم لن يعتمدوا على التكنولوجيا وحدها ، نظرًا لإمكانية ارتكابها أخطاء.

هل تستطيع الكاشفات الفوز في سباق التسلح؟

إنه لأمر مشجع أن نرى فرق من فيسبوك و Microsoft الاستثمار في التكنولوجيا لفهم التزييف العميق واكتشافه. يحتاج هذا المجال إلى مزيد من البحث لمواكبة سرعة التقدم في تقنية التزييف العميق.

يحتاج الصحفيون ومنصات التواصل الاجتماعي أيضًا إلى معرفة أفضل السبل لتحذير الناس من التزييف العميق عند اكتشافهم. أظهرت الأبحاث ذلك يتذكر الناس الكذبة، ولكن ليس حقيقة أنها كانت كذبة. هل ينطبق الأمر نفسه على مقاطع الفيديو المزيفة؟ قد لا يكون وضع "Deepfake" في العنوان كافيًا لمواجهة بعض أنواع المعلومات المضللة.

Deepfakes هنا لتبقى. ستكون إدارة المعلومات المضللة وحماية الجمهور أكثر صعوبة من أي وقت مضى حيث تزداد قوة الذكاء الاصطناعي. نحن جزء من مجتمع بحثي متنامٍ يتعامل مع هذا التهديد ، والذي يكون الاكتشاف فيه مجرد الخطوة الأولى.المحادثة

حول المؤلف

جون سهروردي ، طالب دكتوراه في علوم الحوسبة والمعلوماتية ، معهد روتشستر للتكنولوجيا وماثيو رايت ، أستاذ أمن الحوسبة ، معهد روتشستر للتكنولوجيا

يتم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال أصلي البند.

دعم وظيفة جيدة!
enafarزكية-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

اتبع InnerSelf على

الفيسبوك أيقونةتويتر أيقونةآر إس إس أيقونة

احصل على آخر عبر البريد الإلكتروني

{Emailcloak = إيقاف}

الأكثر قراءة

كيف غيّر التأمين عادات القراءة
كيف غيّر التأمين عادات القراءة
by أبيجيل باوتشر وآخرون

من المحررين

النشرة الإخبارية InnerSelf: أكتوبر 18 ، 2020
by InnerSelf الموظفين
نحن نعيش هذه الأيام في فقاعات صغيرة ... في منازلنا وفي العمل وفي الأماكن العامة ، وربما في أذهاننا ومع مشاعرنا. ومع ذلك ، نعيش في فقاعة ، أو نشعر وكأننا ...
النشرة الإخبارية InnerSelf: أكتوبر 11 ، 2020
by InnerSelf الموظفين
الحياة رحلة ، وكما هو الحال في معظم الرحلات ، تأتي مع تقلباتها. ومثلما يتبع النهار دائمًا الليل ، تنتقل تجاربنا الشخصية اليومية من الظلام إلى النور ، ذهابًا وإيابًا. ومع ذلك،…
النشرة الإخبارية InnerSelf: أكتوبر 4 ، 2020
by InnerSelf الموظفين
مهما كان ما نمر به ، فرديًا وجماعيًا ، يجب أن نتذكر أننا لسنا ضحايا لا حول لهم ولا قوة. يمكننا استعادة قوتنا لشفاء حياتنا ، روحيا وعاطفيا ، أيضا ...
النشرة الإخبارية InnerSelf: أيلول 27 و 2020
by InnerSelf الموظفين
إحدى أعظم قوة الجنس البشري هي قدرتنا على أن نكون مرنين ، وأن نكون مبدعين ، وأن نفكر خارج الصندوق. أن نكون شخصًا آخر غير ما كنا عليه بالأمس أو في اليوم السابق. يمكننا ان نغير...…
ما يصلح لي: "لأعلى خير"
by ماري ت. راسل ، إنيرسيلف
السبب في أنني أشارك "ما يناسبني" هو أنه قد يعمل معك أيضًا. إذا لم تكن الطريقة التي أفعل بها ذلك بالضبط ، نظرًا لأننا جميعًا فريدون ، فقد يكون بعض التباين في الموقف أو الطريقة أمرًا جيدًا ...