الذكاء الاصطناعي يفبرك الفيديوهات باحتراف

تناقلت وسائل التواصل الاجتماعي ووسائل الإعلام مؤخرا شريط فيديو يظهر فيه مؤسس فيسبوك مارك زوكربيرغ وهو يتحدث عن سيطرته على بيانات مسروقة من المستخدمين. لكن، ما أثار الجدل لم يكن حديث زوكربيرغ عن اختراق خصوصية مستخدمي فيسبوك بل التقنية التي صنع بها هذا الفيديو المزيف، وهي تقنية ديب فايك.

يأتي الفيديو الذي ظهر فيه مؤسس فيسبوك ضمن موضة الـ”ديب فايك”، حيث تنتشر فيديوهات لمشاهير من عالم السياسة إلى الفنون والرياضة والأعمال. على غرار مقطع الفيديو الذي يظهر فيه بطل مسلسل صراع العروش جون سنو وهو يعتذر للمشاهدين عن أحداث الموسم الأخير.

يبدو واضحا أن من صنع هذا الفيلم شخص لم تعجبه نهاية صراع العروش، لكن رغم طرافة الفكرة إلا أنها لا تلغي خطورتها، في وقت يضيع فيه الخيط الفاصل بين الأخبار الحقيقية والمزيفة، حيث أصبحت طريقة تركيب مقاطع فيديو مفبرك يحمل معلومات مغلوطة عملية سهلة. ويزيد الذكاء الاصطناعي من بساطة الفبركة وإتقانها فيصبح من السهل تصديقها، حتى أن بعض المؤسسات مثل وول ستريت جورنال تقوم بالفعل بتدريب صحافييها على كيفية اكتشاف مقاطع الفيديو الزائفة قبل نشرها.

في اختبارات عرضت فيها مقاطع فيديو مفبركة على مجموعة شملت 138 متطوعا، خدع حوالي 60 بالمئة من المشاركين وقالوا إن المقاطع كانت حقيقية. قد تبدو هذه النسبة منخفضة، لكن 80 بالمئة من هذه المجموعة اعتقدوا أن اللقطات الأصلية غير المعدلة كانت أصلية أيضا. لاحظ الباحثون المشرفون على هذه الاختبارات أن هذا قد يرجع إلى إخبار الأفراد بأن إجاباتهم ستستخدم في دراسة حول تعديل المقاطع، مما يعني أنهم كانوا مستعدين للبحث عن الفبركة.

البداية مع كينيدي

تذكّر تقنية ديب فايك ببرنامج فوتوشوب الشهير وتطبيقات تعديل الصور، لكن بدلا من العمل على الصور الثابتة فإنّ العمل هنا يكون على فيديوهات ومقاطع مصورة. لا يبدل برنامج ديب فايك الوجه فحسب بل يطابق التعبير أيضا، لدرجة أنه يمكن أن يبدو الفيديو الزائف حقيقيا.

وترجع مجلة “ذا درام” جذور هذه التقنية إلى صناعة الإعلانات. وتشير المجلة في دراسة أعدتها كاتي ديغتون ترصد هذه الظاهرة الجديدة وتأثيراتها إلى أن ظهور الفيديوهات والصور المعدلة التي تعرف باسم ديب فايك يهدد بتقويض إحساسنا بالواقع الذي نعيشه.

تعود الفكرة إلى شتاء عام 2017. كان المدير الإبداعي لشركة “روثكو” آلان كيلي في دبلن يشاهد فيلما وثائقيا على نتفليكس حول اغتيال جون إف كينيدي، عندما علم أن الرئيس في ذلك اليوم المشؤوم كان في طريقه إلى “دالاس تريد مارت” لإلقاء خطاب.

يقول كيلي “لم أسمع به قط، لم أكن أعلم أنه كان ذاهبا إلى هناك لإلقاء خطاب. أجريت بحثا سريعا على غوغل لمعرفة ما إذا كان يمكنني العثور على نسخة من هذا الخطاب وكان من السهل إيجاده. ثم طرأت الفكرة… ماذا لو كانت هناك تكنولوجيا متوفرة يمكننا من خلالها إعادة إنشاء هذا الخطاب؟”

تحدث كيلي إلى منتجه في اليوم التالي وسعى الاثنان إلى الحصول على خبرة شركة “سيربروك”، وهي شركة التكنولوجيا السمعية البريطانية التي تحوّل النص إلى كلام. قامت صحيفة التايمز، التي كانت تطلق نسختها المطبوعة في أيرلندا في نفس الوقت تقريبا، بتمويل المشروع.

وبعد ثمانية أسابيع، تم تسجيل 831 خطابا وملايين من أجزاء الصوت المجمعة، ومن خلال هذه التسجيلات تم إعادة إنشاء الخطاب مرة أخرى. أصدرت التايمز العمل باسم “جون كينيدي أنسايلانسد”، وهي حملة حصلت بعد ذلك على جائزة “كرييتيف داتا غراند بري” في مهرجان كان ليون.

وفي الوقت نفسه تقريبا، بدأ مصطلح ديب فايك في اكتساب قوة على الإنترنت. وباعتباره اندماجا للمصطلحين “العميق” و”المزيف”، يُعتقد أن المصطلح نشأ على “منتدى رديت”، والذي استخدمه أعضاء المنتدى لوصف عملية تركيب وجوه المشاهير على أجساد ممثلي الأفلام الإباحية.

وتشير كاتي ديغتون إلى أنه سرعان ما تم استخدام المصطلح بشكل رئيسي للإشارة إلى الفيديوهات والصور المعدلة باستخدام تكنولوجيا الذكاء الاصطناعي أو باستخدام خاصية الصور المُنشأة بالكمبيوتر أو كليهما – على الرغم من أن هذه العملية كانت موجودة في الإعلانات وهوليوود لعدة سنوات.

قامت شركة ديور باستخدام التكنولوجيا لإعادة إحياء مارلين مونرو ومجموعة من النجمات الأخريات في إعلانها عن عطر جادور التجاري لعام 2011، بينما لعبت شركة غالاكسي نفس الدور مع أودري هيبورن في عام 2013. كما قام منتجو فيلم فورست غامب بتجسيد شخصية جون لينون وهو يتحدث مباشرة إلى توم هانكس بعد 18 سنة من وفاة المطرب المشهور.

ولإنشاء مقاطع فيديو مفبركة، يجمع المختصون عددا من التقنيات. أولا، يعالجون الفيديو لتحديد الميزات الصوتية التي يتمتع بها المتكلم. ثم ينتقلون إلى مطابقة هذه الأصوات مع تعابير الوجه التي تصاحب كل صوت. أخيرا، ينشئون نموذجا ثلاثي الأبعاد لنصف وجه المتكلم السفلي باستخدام الفيديو الأصلي. وعندما يحرر أحدهم نسخة نصية من الفيديو، يجمع البرنامج كل هذه البيانات (الأصوات والتعابير) لإنشاء لقطات جديدة تتوافق مع النص المؤلّف. ثم يلصق هذا التعديل على الفيديو الأصلي ليتحصّل المستخدم على النتيجة النهائية.

وأصبحت تقنية ديب فايك متاحة للمستخدمين الهواة وساعد في رواجها تطبيق Fake App الذي طوره مبرمج مجهول. ويستخدم التطبيق عملية تعتمد على الذكاء الاصطناعي وتمر عبر 3 خطوات هي المحاذاة والتدريب والدمج، مستخدما المئات من الصور ثابتة الإطار المأخوذة من أحد الفيديوهات، ليقوم بتحليلها ودراسة تعابير الشخص وملامحه، وينتجها على هيئة فيديو من جديد.

الآثار الأخلاقية

لاحظ الباحثون أن هذه التكنولوجيا تمنح العديد من الاستخدامات المفيدة. وستحقق نتائج مذهلة في صناعات السينما والتلفزيون، وستسمح لفرق الإنتاج بإصلاح الأخطاء دون الحاجة إلى إعادة التصوير، كما ستخلق ممثلين يتحدثون لغات مختلفة دون دوبلاج. ولكن هذه الفوائد تبدو قليلة مقارنة بضرر هذه التكنولوجيا المحتمل.

مع تطور التقنية وتعدد استعمالاتها وتداخل الأهداف والأسباب، وفي ظل موجة الأخبار الزائفة، بات المتابعون يتحدثون عن آثارها الأخلاقية وتأثيراتها السياسية وتبعاتها الأشمل. وبلغت المحادثات ذروتها عندما ظهرت مقاطع فيديو لقادة العالم وهم يدلون بتصريحات لم يسبق لهم أن أدلوا بها، مثل باراك أوباما الذي يُزعم أنه أطلق على دونالد ترامب “هراء” في فيديو تحذيري نشر على موقع باز فيد.

ويقول جايمس فانسون، الخبير في مجال الذكاء الاصطناعي، في الوقت الحالي، تتيح هذه التقنية مقاطع كوميدية تصور الراهب الروسي غريغوري راسبوتين وهو يغني مقطعا لبيونسيه، أو ألبرت أينشتاين وهو يتحدث عن علوم اللغة. وأنتجت هذه المقاطع من صور قديمة بالأبيض والأسود.

لكن، في المستقبل، قد يصعب التمييز بين ما هو حقيقي وما هو مفبرك، على الرغم من تطوير برامج مبنية على الذكاء الاصطناعي لاكتشاف هذا النوع من الفبركة.

وكتبت كاتي ديغتون، قائلة “أنت تشاهد مقطع فيديو وتعتقد أنه سيكون نافذة موضوعية إلى حقيقة ما. لذا، ما يقلقنا حقا هو أن هذه التقنية ستسمح للسياسيين على وجه التحديد برفض مقاطع الفيديو الأصلية بقولهم ‘من الواضح أنها زائفة'”.

في المقابل، يقول روجي باران، مدير إبداعي في شركة”جي.أس.آند.بي”، “نحن نتفهم التداعيات والتطبيقات المحتملة لهذه التكنولوجيا عندما يتعلق الأمر بالأخبار المزيفة أو التي تؤثر على الانتخابات أو، بالطبع، الإباحية. لكن هناك دائما تطبيقات شريرة وتطبيقات جيدة”.

ويضيف باران “كان الأمر كذلك مع الطاقة النووية، كما هو الحال مع وسائل التواصل الاجتماعي وستكون مثلها مثل الذكاء الاصطناعي وديب فايك. لا يمكننا إيقاف التقدم، ولكن يمكننا استخدام قدرتنا العقلية وشغفنا ومواردنا لإظهار أنه ليس من الضروري أن يصبح ما يحدث شريرا. لا يجب استخدام تطبيقات الذكاء الاصطناعي هذه فقط للأغراض المشبوهة والمخيفة. بل على العكس، يمكن أن يوفر ذلك لنا تجارب جديدة وأن يفتح فرصا جديدة للثقافة والترفيه والتعليم”.