التعامل مع المعلومات الخاطئة 4
كمية المعلومات عبر الإنترنت هائلة. شينتارتانيا

من جائحة COVID-19 إلى الحرب في أوكرانياالمعلومات المضللة منتشرة في جميع أنحاء العالم. تم تصميم العديد من الأدوات لمساعدة الأشخاص على اكتشاف المعلومات الخاطئة. تكمن مشكلة معظمهم في مدى صعوبة تقديمهم على نطاق واسع.

لكن ربما وجدنا حلاً. في موقعنا الجديد دراسة لقد صممنا واختبرنا خمسة مقاطع فيديو قصيرة "تفسد" المشاهدين ، من أجل تحصينهم من الأساليب الخادعة والمتلاعبة التي غالبًا ما تُستخدم عبر الإنترنت لتضليل الناس. دراستنا هي الأكبر من نوعها والأولى التي اختبرت هذا النوع من التدخل على YouTube. تم عرض مقاطع الفيديو على خمسة ملايين شخص ، شاهدها مليون شخص.

لقد وجدنا أن مقاطع الفيديو هذه لا تساعد الأشخاص فقط على اكتشاف المعلومات الخاطئة في التجارب الخاضعة للرقابة ، ولكن أيضًا في العالم الحقيقي. عززت مشاهدة أحد مقاطع الفيديو الخاصة بنا عبر إعلان على YouTube من قدرة مستخدمي YouTube على التعرف على المعلومات الخاطئة.

على عكس الكشف المسبق ، فإن كشف المعلومات الخاطئة (أو التحقق من صحة الحقائق) له العديد من المشكلات. غالبًا ما يكون من الصعب إثبات ذلك ما هي الحقيقة. عمليات التحقق من الحقائق بشكل متكرر أيضًا فشل للوصول إلى الأشخاص الذين من المرجح أن يصدقوا المعلومات المضللة ، وحث الناس على ذلك قبول يمكن أن تكون عمليات تقصي الحقائق صعبة ، خاصة إذا كان لدى الناس هوية سياسية قوية.


رسم الاشتراك الداخلي


تشير الدراسات إلى أن نشر عمليات التحقق من الحقائق على الإنترنت لا يعكس تمامًا آثار المعلومات المضللة ، وهي ظاهرة تُعرف باسم تأثير التأثير المستمر. حتى الآن ، كافح الباحثون لإيجاد حل يمكن أن يصل بسرعة إلى ملايين الأشخاص.

الفكرة الكبيرة

نظرية التلقيح هي فكرة أنه يمكنك صياغة مقاومة نفسية ضد محاولات التلاعب بك ، تمامًا مثل اللقاح الطبي هو نسخة ضعيفة من مسببات الأمراض التي تحفز جهاز المناعة لديك على تكوين أجسام مضادة. تعتمد تدخلات الإعداد المسبق في الغالب على هذه النظرية.

ركزت معظم النماذج على التصدي للأمثلة الفردية للمعلومات المضللة ، مثل المنشورات حول تغير المناخ. ومع ذلك ، في السنوات الأخيرة الباحثين بما فيها أنفسنا اكتشفوا طرقًا لتلقيح الناس ضد الأساليب والاستعارات التي تكمن وراء الكثير من المعلومات المضللة التي نراها على الإنترنت. تتضمن هذه الأساليب استخدام لغة عاطفية لإثارة الغضب والخوف ، أو كبش فداء من قبل الناس والجماعات لقضية ليس لديهم سيطرة أو سيطرة تذكر عليها.

الألعاب عبر الإنترنت مثل العم غريب الأطوار و اخبار سيئة كانت من بين المحاولات الأولى لتجربة طريقة التحضير المسبق هذه. وهناك العديد من المزايا لهذا النهج. لا يتعين عليك التصرف كحكم الحقيقة حيث لا يتعين عليك التحقق من صحة الادعاءات المحددة التي تراها على الإنترنت. يتيح لك إجراء مناقشات عاطفية جانبية حول مصداقية مصادر الأخبار. وربما الأهم من ذلك أنك لست بحاجة إلى معرفة أي جزء من المعلومات المضللة سوف ينتشر بعد ذلك.

نهج قابل للتطوير

ولكن ليس لدى الجميع الوقت أو الدافع للعب لعبة - لذلك تعاونا معهم بانوراما (وحدة أبحاث Google) حول حل للوصول إلى المزيد من هؤلاء الأشخاص. طور فريقنا خمسة مقاطع فيديو للتشغيل المسبق ، مدة كل منها أقل من دقيقتين ، والتي تهدف إلى تحصين المشاهدين ضد أسلوب تلاعب مختلف أو مغالطة منطقية. كجزء من المشروع ، أطلقنا ملف موقع الكتروني حيث يمكن للأشخاص مشاهدة وتنزيل مقاطع الفيديو هذه.

قمنا أولاً باختبار تأثيرها في المختبر. أجرينا ست تجارب (مع حوالي 6,400 مشارك إجمالاً) شاهد فيها الأشخاص أحد مقاطع الفيديو الخاصة بنا أو مقطع فيديو تحكم غير ذي صلة حول حرق المجمد. بعد ذلك ، في غضون 24 ساعة من مشاهدة الفيديو ، طُلب منهم تقييم سلسلة من أمثلة محتوى الوسائط الاجتماعية (غير المنشورة) التي استخدمت أو لم تستخدم تقنيات المعلومات المضللة. وجدنا أن الأشخاص الذين شاهدوا مقاطع الفيديو التي نقدمها مسبقًا كانوا أقل عرضة للتلاعب من المشاركين في المجموعة الضابطة.

لكن نتائج الدراسات المعملية لا تترجم بالضرورة إلى العالم الحقيقي. لذلك أجرينا أيضًا دراسة ميدانية على YouTube ، ثاني أكثر مواقع الويب زيارة في العالم (مملوكة لشركة جوجل) ، لاختبار فعالية مداخلات الفيديو هناك.

في هذه الدراسة ، ركزنا على مستخدمي YouTube الأمريكيين الذين تزيد أعمارهم عن 18 عامًا والذين سبق لهم مشاهدة المحتوى السياسي على المنصة. أطلقنا حملة إعلانية باستخدام مقطعين من مقاطع الفيديو الخاصة بنا ، وظهرهما لحوالي مليون مستخدم على YouTube. بعد ذلك استخدمنا يوتيوب براند ليفت أداة تفاعل لمطالبة الأشخاص الذين شاهدوا مقطع فيديو عن الإعداد المسبق بالإجابة على سؤال متعدد الخيارات. قيم السؤال قدرتهم على تحديد أسلوب التلاعب في عنوان الأخبار. كان لدينا أيضًا مجموعة تحكم ، أجابت على نفس سؤال الاستطلاع لكنها لم تشاهد فيديو الإعداد المسبق. وجدنا أن مجموعة ما قبل التشغيل كانت أفضل بنسبة 5-10٪ من المجموعة الضابطة في تحديد المعلومات الخاطئة بشكل صحيح ، مما يوضح أن هذا النهج يحسن المرونة حتى في بيئة تشتت الانتباه مثل YouTube.

أحد مقاطع الفيديو المسبقة ("الانقسامات الزائفة")

 

ستكلف مقاطع الفيديو الخاصة بنا أقل من 4 بنسات لكل مشاهدة فيديو (سيغطي ذلك رسوم الإعلان على YouTube). نتيجة لهذه الدراسة ، ستطلق Google حملة إعلانية باستخدام مقاطع فيديو مماثلة في سبتمبر 2022. وسيتم تشغيل هذه الحملة في بولندا وجمهورية التشيك لمواجهة المعلومات المضللة حول اللاجئين في سياق الحرب الروسية الأوكرانية.

عندما تحاول بناء المرونة ، من المفيد أن تتجنب المبالغة في إخبار الناس بما يؤمنون به ، لأن ذلك قد يؤدي إلى شيء يسمى مفاعلة نفسية. تعني المفاعلة أن يشعر الناس بأن حريتهم في اتخاذ القرارات تتعرض للتهديد ، مما يؤدي بهم إلى التنقيب في أعقابهم ورفض المعلومات الجديدة. تدور نظرية التلقيح حول تمكين الناس من اتخاذ قراراتهم الخاصة بشأن ما يؤمنون به.

في بعض الأحيان ، قد يكون انتشار نظريات المؤامرة والمعلومات الخاطئة عبر الإنترنت أمرًا ساحقًا. لكن دراستنا أظهرت أنه من الممكن قلب المد. كلما عملت منصات وسائل التواصل الاجتماعي جنبًا إلى جنب مع علماء مستقلين لتصميم واختبار وتنفيذ حلول قابلة للتطوير وقائمة على الأدلة ، كانت فرصنا أفضل في جعل المجتمع محصنًا ضد هجمة المعلومات المضللة.

نبذة عن الكاتب

جون روزينبيك، زميل ما بعد الدكتوراه ، علم النفس ، جامعة كامبريدج; ساندر فان دير ليندن، أستاذ علم النفس الاجتماعي في المجتمع ومدير مختبر كامبردج لصنع القرار الاجتماعي ، جامعة كامبريدجو ستيفان يفاندفسكيرئيس قسم علم النفس المعرفي جامعة بريستول

يتم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقال الأصلي.

توعية_الكتب