للاطلاع على آخر المعلومات والمستجدات من مؤسسة قطر حول فيروس كورونا، يرجى زيارة صفحة التصريحات الخاصة بمؤسسة قطر
أصبحت تقنية التزييف العميق تُستخدم كسلاح لخدمة حملات التضليل ومن المتوقع أن يكون لها آثار اجتماعية وسياسية خطيرة.
مصدر الصورة: Great Pics - Ben Heine، عبر موقع Shutterstockالدكتور هسرف طهى سنكر، عالم أول في معهد قطر لبحوث الحوسبة، جامعة حمد بن خليفة، يسلط الضوء على تقنية التزييف العميق واستخدامها للتلاعب بالحقيقة
قبل أربع سنوات من الآن، خرج إلى النور أول فيديو أُنتج بواسطة تقنية التزييف العميق، حيث أصبح من الممكن تركيب صورة أي شخص في مقطع فيديو ونشره ليشاهده ملايين الناس حول العالم حتى وإن لم يكن لهذا الشخص وجود حقيقي في هذا الفيديو من الأساس. بما أن وسائل الإعلام الرقمية باتت المصدر الأساسي للمعلومات بالنسبة إلى الكثيرين من الناس في هذا العصر، أصبح من الضروري أن نتساءل، هل ما زال بإمكاننا أن نثق بما نراه؟
يتلخص التزييف العميق في نقل ملامح وجه وتعبيرات شخص ما إلى شخص آخر
يُستخدم مصطلح التزييف العميق للإشارة إلى أي فيديو يتم فيه تغيير الوجوه رقميًا أو تبديلها، وذلك بمساعدة الذكاء الاصطناعي. ويُبين الدكتور هسرف طهى سنكر، عالم أول في معهد قطر لبحوث الحوسبة، جامعة حمد بن خليفة، عضو مؤسسة قطر، كيفية عمل تقنية التزييف العميق، وإمكانية كشفها، وآثارها على المجتمع، وأهمية مصداقية المصادر الرقمية ويقول: "يتلخص التزييف العميق في نقل ملامح وجه وتعبيرات شخص ما إلى شخص آخر. وذلك من خلال استخراج تعابير ومعالم وجه الشخص المستهدف، مثل العينين والأنف والشفتين، من مقطع فيديو ومواءمتها مع ما يماثلها في وجه الشخص الآخر، ثم إدخال كل ذلك إلى مولد التزييف العميق، الذي يعمل على دمج صور الوجه الجديدة بطريقة تحاكي تعابير الوجه الأصلي".
قد لا يتمكن عامة الناس من اكتشاف مقاطع الفيديو المزيفة كما يفعل الخبراء، ولكن أي محاولة لتركيب صورة أو مقطع فيديو تترك خلفها بعض الآثار التي يمكن رصدها، مثل خفوت وميض العين، واختفاء الانعكاسات داخلها، ووجود تفاصيل ضبابية في مناطق الوجه.
يقول الدكتور سنكر: "لا توجد جريمة كاملة كما يقال. وبما أن عملية التزييف العميق في مقاطع الفيديو تتطلب أن تكون كل لقطة أو نظرة مبنية على ملامح الشخص في الصور الأصلية، فقد يلاحظ الخبراء أخطاء متعلقة بالمزج بين الوجهين. ونظرًا لأن كل إطار يتم دمجه على حدة عند إنشاء الفيديو، فيمكن ملاحظة حركات الوجه غير الطبيعية في فيديو التزييف العميق".
مع انتشار تطبيقات التزييف العميق، مثل فيس آب، وري فيس، وزاو، وغياب الرقابة على استخدامها، باتت استخداماتها تأخذ منحى بعيدًا عن الترفيه البسيط للمستخدمين، واستعمال سيناريوهات أخطر مثل الإضرار بسمعة الشخصيات العامة، ونشر الأخبار الزائفة، والتلاعب بالحملات الانتخابية وإحداث نوع من الريبة المجتمعية.
يمكن استخدام تقنية التزييف العميق كسلاح لخدمة حملات التضليل، ومع تطور هذه التقنية وتحسن جودة مخرجاتها، من المتوقع أن يكون لها آثار اجتماعية وسياسية ومالية وقانونية خطيرة
يوضح الدكتور سنكر: "يمكن استخدام تقنية التزييف العميق كسلاح لخدمة حملات التضليل، ومع تطور هذه التقنية وتحسن جودة مخرجاتها، من المتوقع أن يكون لها آثار اجتماعية وسياسية ومالية وقانونية خطيرة".
إذن، كيف يمكن للناس حماية أنفسهم على المنصات الرقمية؟ يعتقد الدكتور سنكر أنه لا توجد حلول سحرية من شأنها إنقاذ الموقف، ومع ذلك، يجب أن يرتفع مستوى الوعي لدى الناس حول إمكانية استخدام المعلومات الشخصية بطرق ملتوية.
يجب أن ندرك أن مقاطع الفيديو أو الصور لم تعد تعبر بالضرورة عن موقف حقيقي. وأن عبارة "صورة بألف كلمة" لم يعد بإمكاننا استخدامها بعد الآن
يؤكد الدكتور سنكر: "يجب أن ندرك أن مقاطع الفيديو أو الصور لم تعد تعبر بالضرورة عن موقف حقيقي. وأن عبارة "صورة بألف كلمة" لم يعد بإمكاننا استخدامها بعد الآن".
نظرًا لصعوبة التحكم في انتشار هذه التقنية، يعمل خبراء الذكاء الاصطناعي على تنبيه المستخدمين إلى أن ما يشاهدونه قد لا يكون حقيقيًا. وحول إمكانية إيجاد حلول للكشف عن المقاطع الزائفة، يقول الدكتور سنكر: "كانت الرسائل الإلكترونية العشوائية تُمثل مشكلة كبيرة في السابق، لكننا نادرًا ما نرى اليوم مثل هذه الرسائل في صندوق بريدنا الإلكتروني، وهذا مثال يدعو إلى التفاؤل".
التزييف العميق هو عملية نقل تعابير ومعالم الوجه مثل العينين والأنف والشفتين لشخص مستهدف من مقطع فيديو ومواءمتها مع ما يماثلها في وجه شخص آخر. مصدر الصورة: meyer_solutions، عبر موقع Shutterstock
مع استمرار مجتمع أبحاث الذكاء الاصطناعي في تطوير حلول لمكافحة الآثار السلبية لهذه التقنية الشائعة، يسعى توجه بحثي جديد في العلوم الجنائية الرقمية إلى استخدام التكنولوجيا نفسها لكشف مقاطع الفيديو المزيفة وإظهار أوجه اختلافها عن الحقيقية.