د. ناهد باشطح
فاصلة:
«ما نراه لا يكون بالضرورة هو الواقع، بل ما تخبرنا وسائل الإعلام أنه الواقع».
-والتر ليبمان-
***
عبر مواقع التواصل الاجتماعي نُشرت صورة لولي العهد أميرنا محمد بن سلمان بجانب شجرة «الكريسماس» مع تصريح منسوب إليه يتضمن تهنئة بعيد الميلاد، كما تم أيضاً نشر مقطع فيديو يُنسب إليه، وهو يقول: «كنا نمنع الاحتفال بعيد الميلاد والأعياد الدينية الأخرى، ولكن لدينا الآن نسخة محدثة من الإسلام، أعدها شيوخنا بناءً على توصياتي. يمكننا الاحتفال بالمناسبات المسيحية، ولدينا فتاوى جاهزة».
بمجرد مشاهدتي للفيديو ولحركة الشفايف أدركت أن الفيديو مزيف، وضمن البحث حول تفنيد المقطع والخبر الكاذب الذي عادة ما يكون في مواقع التواصل الاجتماعي ثم تتداوله الصحف دون تفنيد، وجدنا مقالة للكاتبة «مي حسن» في منصة Türkiye Today نشرت في ديسمبر 2025 بعنوان «وسائل الإعلام التركية تنشر خطاب ولي العهد السعودي المُولّد بالذكاء الاصطناعي، الذي يدعم فيه الاحتفالات بعيد الميلاد».
من اللافت للنظر مهنية المنصة الإخبارية التي انتقدت نشر بعض وسائل الإعلام التركية لمقطع فيديو ولي العهد دون التأكد من صحته.
كما أوردت المنصة تحقق فريق صحيفة «Akhbar Meter»s team» التركية من المقطع الأصلي، ووجد أنه مأخوذ من خطاب ألقاه ولي العهد الأمير محمد بن سلمان في منتدى الاستثمار السعودي - الأمريكي، وكانت تصريحاته اقتصادية بحتة، دون أي إشارة إلى مسائل دينية أو الاحتفال بعيد الميلاد أو إصدار فتاوى.
كما استخدم الفريق أدوات متخصصة لكشف التلاعب الصوتي، بما في ذلك برنامج Undetectable™ AI الذي يستخدم للكشف عن النصوص التي تم إنشاؤها بالذكاء الاصطناعي ومن ثم إعادة صياغتها بطريقة يصعب اكتشافها كمحتوى آلي، وبرنامج TruthScan الذي يحدد المحتوى المزيف أو المولد آلياً بهدف الكشف عن التضليل والتزييف.
وأشارت نتائج التحليل إلى أن الصوت المُضاف قد تم تعديله باستخدام الذكاء الاصطناعي، حيث تم كشف التلاعب بنسبة 99 %.
الخطر ليس في تداول خبر مزيف.. بل في وجود جمهور لم يعد يهتم بمصدر الخبر.
المشكلة أن ملايين المتلقين لم يعودوا يسألون: من؟ كيف؟ لماذا؟
أدوات الذكاء الاصطناعي التي تكشف زيف الأخبار تساعد في مكافحة التضليل.. لكن الوعي هو الأساس.
السؤال الأخطر: لماذا تداولت بعض الصحف العربية والدولية الخبر وكأنه صحيح؟
من يصدق الأخبار دون التساؤل عن مصدرها الرسمي يقع في التحيز التأكيدي (Confirmation Bias)
وهو يحدث لرغبة الإنسان في تصديق ما يثير الجدل، وغياب ثقافة التحقق البسيطة.
ولعل أخطر ما في الذكاء الاصطناعي أنه كشف هشاشتنا الإعلامية.
لم تعد وسائل الإعلام هي الوحيدة المسؤولة عن نشر الزيف بل شاركها في ذلك المؤثرون على مواقع التواصل الاجتماعي، ثم يأتي دور القارئ العادي الذي عليه قبل أن يصدّق أو يشارك أي محتوى:
أن يسأل من نشره أولًا؟
إن لم يكن مصدرًا رسميًا أو إعلاميًا موثوقًا، فالأرجح أنه مضلل.
والصوت المقنع لا يعني أنه حقيقي فالذكاء الاصطناعي بات يقلّد النبرات بدقة مخيفة.
علينا أن نتوقّف قبل إعادة النشر لأي مادة نقرأها أو نسمعها عبر مواقع التواصل الاجتماعي، فالمشاركة دون تحقق هي المرحلة الأخيرة من صناعة الإشاعة.
في خبر اليوم المزيف لقائد سياسي مميز لا يمكن تداول الخبر دون التساؤل عن المصدر الحكومي الذي نشره المضلل هنا ليس الصورة وحدها، بل إعادة توظيف فيديو حقيقي خارج سياقه الزمني والمضموني.
الخطورة أن المشاهد يرى وجهًا حقيقيًا، وصوتًا «مقنعًا، وكلمات منسوبة لشخصية سيادية فيُستنتج تلقائيًا أنه إذا كان الفيديو حقيقيًا.. فالتصريح حقيقي.
وهذا الخلط هو جوهر التضليل، وبما أن بعض الصحف أصبحت تشارك في التضليل فإن على القارئ أن يتحمل مسؤولية التريث قبل تداول الأخبار.