تزايدت في الآونة الأخيرة مقاطع الفيديو المُنتجة بتقنيات الذكاء الاصطناعي على منصات التواصل الاجتماعي، ما جعل التمييز بين المحتوى الحقيقي والمُفبرك أكثر صعوبة من أي وقت مضى، بحسب تقرير تقني نشره موقع «ZDNET» المتخصص في شؤون التكنولوجيا.
وأوضح التقرير أن هناك مؤشرات دقيقة يمكن من خلالها كشف الفيديوهات المولّدة بالذكاء الاصطناعي، أبرزها الخلل البصري وعدم الاتساق في المشاهد، وتدني جودة الصورة، والمبالغة في الواقعية.
وأشار التقرير إلى أبرز العلامات الدالة على المحتوى المُفبرك:
الخلل البصري وعدم الاتساق:
من أكثر المؤشرات وضوحاً ظهور تشوّهات في الأجسام أو الأطراف أو ملامح الوجه، مثل تغير شكل الشخص أو ظهور ظلال غير منطقية. وضرب التقرير مثالاً بمقطع يُظهر صغير دب قطبي يُنقذ من البحر، لكن الملاحظة الدقيقة كشفت تحوّل ملامحه للحظات إلى كلب مع ظهور مخلب إضافي، ما أكد أنه فيديو مولّد بالذكاء الاصطناعي.
تدني الجودة والدقة التصويرية:
أوضح التقرير أن ظهور مقاطع مصوّرة بدقة ضعيفة في زمن تتوفر فيه كاميرات عالية الجودة أمر يثير الشك، إذ قد تكون محاولة لإخفاء تفاصيل توليد آلي أو معالجة اصطناعية.
واقعية مبالغ فيها:
بعض المقاطع تبدو “مثالية” إلى حدٍّ غير طبيعي؛ مثل بشرة خالية تماماً من المسامات، أو إضاءة تشبه الإنتاج السينمائي، أو أشخاص لا يرمشون، وهي علامات على المحتوى الاصطناعي.
الحركة البطيئة والملمس الحلمي:
تتصف بعض فيديوهات الذكاء الاصطناعي بحركة بطيئة وتأثيرات سينمائية تُظهر المشهد وكأنه “حلم”، وهو في الغالب ناتج عن عجز خوارزميات التوليد عن محاكاة الحركة الواقعية.
اختلال مزامنة الصوت مع الصورة:
يمكن اكتشاف التزييف بملاحظة عدم تطابق حركة الشفاه مع الكلمات أو غياب الأصوات الطبيعية المحيطة.
المبالغات غير الواقعية:
دعا التقرير إلى تحكيم المنطق عند مشاهدة المقاطع، مشيراً إلى أمثلة مثل أطفال رضع يسيرون على منصات عروض أزياء أو أشخاص يؤدون حركات خارقة، وهي مؤشرات واضحة على الفبركة.
وأكد التقرير في ختامه على أهمية الوعي الرقمي والتحقق قبل مشاركة المحتوى، خصوصاً في ظل التطور المتسارع لتقنيات التزييف العميق (Deepfake)، مشدداً على أن المعرفة والشك المنطقي هما خط الدفاع الأول ضد التضليل البصري.
المحرر: حسين هادي