fbpx
معرفةوعي ميتر

(Deep fake) التزييف العميق.. أخطر من الأسلحة النووية

انتشر في الفترة الأخيرة كثير من مقاطع الفيديو المفبركة التي تخص أشخاصاً مشاهير أو سياسيين، وكانت هذه المقاطع تبدو حقيقية وعصيَّة على التكذيب لدرجة أنها تسببت بفضائح أخلاقية، لكن بعد التدقيق تم التوصل إلى زيف هذه المشاهد، واكتشاف الطريقة التي صُممت بها، بكل هذه الاحترافية والإتقان، فكانت تقنية التزييف العميق هي الإجابة عن السؤال.

ما هي تقنية الـ (deep fake) التزييف العميق؟

تقنية قادرة على إنشاء فيديوهات مزيفة، بطريقة أبعد بكثير من التعديل على محتوى موجود؛ بل هي قادرة على إنشاء محتوى جديد يصعب تمييزه عن الحقيقية.

وتعتمد تقنية التزييف العميق على البرامج الحاسوبية وتقنيات الذكاء الاصطناعي، وتكون مخرجاتها على شكل مقطع فيديو جديد لشخصية ما يبدو حقيقياً جداً، ويُعتمَد في إنشائه على دمج صور ومقاطع فيديو للشخص المقصود.

تستغل تقنية التزييف العميق عادة ضمن المجالات الأكاديمية، ولكنها في أيامنا هذه لم تعد محصورة في هذه المجالات فقط؛ بل أصبحت تستخدم في الاستغلال السياسي ومجالات أخرى مشبوهة سنقوم بذكرها لاحقاً.

تاريخ تقنية التزييف العميق:

يعود تاريخ تقنية التزييف العميق إلى عام 1997 حين ظهرت معالمها أول مرة؛ وذلك عن طريق مقطع فيديو أُنشئ على برنامج “فيديو ريرايت” (Video Rewrite)؛ إذ حور محتوى مقطع فيديو لشخص يتكلم في موضوع محدد، وغُيِّر محتوى الموضوع الذي يتم الحديث فيه إلى موضوع آخر كلياً يحتوي على كلمات غير موجودة في الفيديو الأصلي، ولم يتلفظ المتحدث بها أساساً.

أما مصطلح “التزييف العميق” فيعود إلى اسم مستخدم لموقع “ريديت” (Reddit) قام مع زملائه في نهاية عام 2017 بمشاركة فيديوهات إباحية مزيفة للمشاهير، لاقت رواجاً كبيراً بين أوساط المستخدمين، وحققت بذلك نسباً عالية من المشاهدات.

ونتيجةً لذلك حظر الموقع حساب المستخدم في عام 2018، وتحديداً في شهر فبراير، وحذت حذوه بعض المواقع في حظر كل مستخدم يروج لهذه التقنية المؤذية وينشر محتوى غير حقيقي، إلا أن القسم الأكبر من المواقع استمر في نشر الفيديوهات المفبركة بهذه الطريقة، ولا ندري إن كانت تعلم أو لا تعلم بزيفها.

وفي تصريح لصحيفة “واشنطن بوست” عن تقنية التزييف العميق، قدمته الممثلة “سكارليت جوهانسون”، أعربت فيه عن قلقها من انتشار هذه الظاهرة وتهديدها لسمعة المشاهير في الفن والسياسة، وشبهت الإنترنت بالثقب المظلم الكبير الذي يأكل نفسه، في كناية عن خطره وغموضه.

كيف تعمل تقنية التزييف العميق (deep fake)؟

تعمل تقنية التزييف العميق على استبدال وجه شخصية معروفة يراد إلحاق الضرر بها بوجه آخر يمارس فعلاً أو يتحدث بأمر ما لم يقله، وأغلب مقاطع الفيديو التي تستخدم تقنية التزييف العميق اعتمدت على استبدال وجه شخصية معروفة بوجه ممثل أو ممثلة في الأفلام الإباحية، من أجل النيل من سمعة هذا الشخص، وإلصاق التهم به.

ولقد أثار المقطع المعد بتقنية التزييف العميق للسياسية الأمريكية ورئيسة مجلس النواب “نانسي بيلوسي” وهي تلقي خطاباً تترنح فيه تحت تأثير الكحول جدلاً واسعاً، وأحدث تأثيراً كبيراً في الرأي العام والانتخابات.

ولا يقل المقطع المفبرك لـ “مارك زوكربيرج” مالك شركة “فيسبوك” ضرراً عن سابقه؛ إذ طُبِّقت تقنية التزييف العميق لإنتاج فيديو له يتباهى فيه بالسيطرة على بيانات مسروقة من بليارات المستخدمين.

وفي صدد إعداد مقاطع فيديو بتقنية التزييف العميق، يتطلب الأمر حاسباً يحمل مزايا متطورة أكثر من الحاسب العادي، يعمل بمعالج رسومي قوي من أجل تقليل الوقت اللازم لمعالجة الصور والفيديوهات.

تعمل تقنية التزييف العميق على مستوى عالٍ من البرمجة الإلكترونية، ويكفي فقط إدخال صورة الشخص الضحية المراد تزييف مقطع له، أو مجموعة صور أو مقطع فيديو له يبرز ملامح وجهه وردود أفعاله وصوته، لتقوم تقنيات الذكاء الاصطناعي بإنشاء محتوى مزيف خارق في دقته، يصعب تمييز كذبه حتى من قِبل الملمين بالتقنيات والإلكترونيات.

توجد عدة أدوات تعمل على إنتاج التزييف العميق، وتصدر العديد من الشركات تطبيقات تدعم هذه التقنية، ولعلَّ أشهرها هو تطبيق (Zao) الصيني الذي انتشر انتشاراً كبيراً بين أوساط المستخدمين.

هل يمكن اكتشاف استخدام تقنية التزييف العميق (deep fake)؟

يمكن اكتشاف استخدام تقنية التزييف العميق على الرغم من تطور التطبيقات والبرامج التي تقوم بإعدادها، والتي تستخدم تقنيات الذكاء الاصطناعي التي تفوق في قدرتها القدرات البشرية في كثير من الأحيان، إلا أنَّ الأمر لا يخلو في كثير من الأحيان من بعض الثغرات التي تساعد على اكتشاف زيف المحتوى المُعَدِّ بتقنية التزييف العميق.

ويمكن اكتشاف المقاطع المعدة بالتزييف العميق رديء الجودة بسهولة بالغة عن طريق:

التركيز على تزامن حركة الشفاه مع الكلام المنطوق.

الانتباه إلى ألوان الجلد المتعددة وغير المتناسقة.

ملاحظة وجود وميض حول حواف الوجه.

اختلاف شكل ولون الأسنان في النسخة المفبركة عن حقيقتها في الضحية وكذلك المجوهرات الخاصة بها.

ملاحظة الإضاءة الغريبة والانعكاسات على قزحية العين.

إلا أنَّ هذه الثغرات قد تُغطَّى ويُتلافى الوقوع بها في حال كان المصمم محتالاً وبارعاً.

فمثلاً، اكتشف في العام 2018 أن الوجوه لا تومض بشكل طبيعي في التزييف العميق، وعدت هذه النقطة معياراً لكشف التزييف من قِبل باحثين أمريكيين، إلا أن هذه الثغرة قد تمت السيطرة عليها في أعمال لاحقة، وتم توضيح وميض العين في الوجوه لتبدو طبيعية.

تستمر جهود الباحثين مدعومة من قِبل الحكومات والشركات التقنية والجامعات في استقصاء ثغرات تكتشف من خلالها المقاطع المُعَدَّة بتقنية التزييف العميق، لما لها من أخطار وتهديدات على الضحايا والمجتمعات عموماً.

مخاطر تقنية التزييف العميق (deep fake)

مخاطر تقنية التزييف العميق تستدعي بذل جهود عظيمة في صدد كشف مقاطع الفيديو المعدة بها، ويمكن تصنيف أنواع مخاطر التزييف العميق.

مخاطر سياسية:

انتشر في الفترة الأخيرة مقطع للرئيس الأمريكي السابق “باراك أوباما” أثار جدلاً واضحاً وكبيراً بين أوساط الناس، وأحدث تضليلاً في الرأي العام، وهذا المثال هو عينة بسيطة عن كم الكوارث التي يستطيع التزييف العميق صنعها في الأوساط السياسية، والتي تعد الأصابع الخفية في تحريك أي شيء في العالم.

ويوضح “تيم هوانج” رئيس مبادرة هارفارد للتحكم الأخلاقي بالذكاء الصناعي، أنه في الماضي كان تصوير رئيس الدولة يقول شيئاً لم يقله في الحقيقة أمراً في غاية الصعوبة والتعقيد، ويحتاج إلى كادر ضخم من المتخصصين التقنيين المحترفين في هذا المجال، أما اليوم فباستخدام تقنيات الذكاء الاصطناعي، يمكن لأي شخص فبركة الأمر بكل سهولة، وبأحسن جودة؛ وهذا سيجعلنا أمام عاصفة كبيرة من التضليل.

وإن استخدام تقنية التزييف العميق في التلاعب السياسي، سيجعل السيناريوهات المحتملة مخيفة جداً، مع أنه لا شك في ظهور الحقيقة في نهاية المطاف، إلا أن حالة الهيجان التي تتركها الأخبار الكاذبة لا يمكن إخمادها بين ليلة وضحاها، وهذا ما أكدت عليه “أيلين داناهاو” أستاذة في “جامعة ستانفورد”، كما أوضحت بأنَّ السردية السياسية مثل المقاطع المزيفة، يستحيل إعادتها إلى مصدرها الأصلي حين تتحول من اتجاه نحو آخر.

وحتى لو ظهر فيديو حقيقي ينفي صحة الفيديو المفبرك، سيجد الناس أنفسهم في حالة من الفوضى والكذب، وسيصعب عليهم تصديق أي شيء، ثم يختارون الاتجاه الذي يتلاءم مع ميولهم الشخصية.

مخاطر أخلاقية:

أشارت واحدة من الدراسات إلى أن 96% من المحتوى الذي تستخدم فيه تقنية التزييف العميق هو محتوى إباحي؛ وهذا يجعل مخاطر تقنية التزييف العميق تؤثر تأثيراً مباشراً في سمعة الأفراد، وخاصة المشاهير منهم، الذين يتبوؤون مراتب حساسة وقيادية بين الناس؛ كالسياسيين، ورجال الأعمال، ومشاهير الفن والرياضة وغيرهم؛ وهذا يجعل أعراض الناس وسمعتهم بين أيادي المبرمجين غير الأخلاقيين.

وأخطر ما في الأمر أنه بحلول السنوات القادمة، ستصبح تطبيقات التزييف العميق في متناول يد الجميع؛ وهذا يجعل الأفراد العاديين أيضاً عرضة لخطر فبركة الأقوال والأفعال، وتصبح هذه التطبيقات والبرامج أدوات لابتزاز الناس، وتشويه سمعتهم، وحتى للحصول على المال مقابل محو الفيديوهات المفبركة عن الإنترنت ووسائل التواصل، أو عدم نشرها.

ويؤكد على هذا الأمر الدراسة التي قام بها “معهد ماساتشوستس للتكنولوجيا”، التي تثبت انتشار الأكاذيب انتشاراً أوسع وأكبر من الحقائق في جميع أنواع المعلومات على مواقع الإنترنت ومنصات التواصل الاجتماعي بين عامي 2006 – 2017.

إن انتشار تقنية التزييف العميق على مواقع الإنترنت ومنصات التواصل الاجتماعي يضع الناس في موضع الشك من كل شيء يرونه أمامهم، ففي وقت سابق ليس بالبعيد كان الإنسان يستطيع تكذيب أي شيء إلا ما تراه عيناه، أما الآن وباستخدام هذه التقنية، أصبحت العين والأذن قابلتين لأن تنطلي عليهما الخدع المصممة من قِبل أدوات الذكاء الاصطناعي.

ولا يسعنا في النهاية  إلا أن نتذكر قول “إيلون ماسك”: “الذكاء الاصطناعي أخطر من الأسلحة النووية”.

مقالات ذات صلة

زر الذهاب إلى الأعلى