التزييف العميق

الصحافة في مواجهة التزييف العميق

تتذكرون فيلم فيس أوف لجون ترا فولتا ونيكولاس كيدج. تدور أحداث هذا الفيلم حول زراعة وجه رجل مكان رجل آخر. أيضا استنسخ الفيلم المصري اللمبي هذه الفكرة بشكل كاريكاتيري كوميدي. أفكار السنيما غالبا ما تكون محل تطبيق في عالم الواقع ولو بعد حين. هذا بالفعل ما فعلته التكنولوجيا مؤخرا فيما يعرف بالتزييف العميق. تلك التقنية التي أثرت على كثير من مناحي الحياة، وعلى سمعة المشاهير، بل وربما الأفراد العاديون. هذه التقنية الجديدة يتورط فيها ثلاث كتل واسعة، وهي المؤسسات الصحفية، والسياسية والعلمية. ما الحكاية؟ .. دعونا نبدأ القصة من البداية

ما هو التزييف العميق ؟

في ٢٠١٤ نشرت إحدى الجامعات ورقة علمية تشرح نوعا جديدا من الشبكات العصبية الاصطناعية. والتي اطلق عليها لاحقا الشبكة التخاصمية المولدة. وهي تمثل البنية التحتية للتزييف العميق. حتى هذا الوقت كان الأمر محصور في البحث العلمي. وكانت هذه الشبكة تستخدم لاغراض التدريب. بعد ٣ سنوات، وتحديدا في ٢ نوفمبر ٢٠١٧ أثارت مشاركة على موقع رديت على الإنترنت جدلا واسعا. فقد نشر أحد المشاركين عددا من المقاطع الاباحية المفبركة لمشاهير، قبل أن تتولى إدارة الموقع حجب المستخدم.

وهنا بدأ التساؤل .. ما هو التزييف العميق؟

هذا المصطلح ينقسم إلى مقطعين الأول هو التعلم العميق. ويقصد به قدرة هذه الشبكات على التعلم الذاتي ومحاكاة العقل البشري. والتعلم من المدخلات التي يقدمها البشر على الشبكة وتقليدها لإنتاج مدخلات مشابهة لها. والثاني عميق، ويقصد به التزييف. حيث يمكن لهذه الشبكة إنتاج ملفات رقمية لصور وموسيقى وفيديو مفبركة بدقة فائقة الجودة. وهي من الدقة بحيث يصعب على المستخدم العادي تمييز أي خلل فيها

كيف تعمل؟

هذه الشبكة تعمل من خلال تداخل عمل بين شبكتين. الأولى هي شبكة المولد ومهمتها توليد عينة عشوائية من البيانات. والثانية هي شبكة المميز ووظيفتها تمييز البينات الحقيقية من المزيفة في هذه العينة العشوائية. ما يحدث هو أن شبكة المولد تحاول خداع شبكة المميز في كل مرة. وذلك بتمرير بيانات غير حقيقية لها، والثانية بدورها تحاول طوال الوقت تمييز الحقيقي من الزيف .. نعم الشبكتين متخاصمتين، أو يمكن أن تقول أنها حرب شبكات. لكن كيف يحدث ذلك؟

لنفترض أن الهاكرز يريد تغيير وجه أوباما بوجه الممثل مورغن فريمان في مقطع فيديو، هنا سيقوم بالخطوات التالية

١- جمع آلاف الصور للشخصين ونغذي بها شبكة المميز. ومن خلال برمجيات خاصة نعلم الشبكة حفظ أحداثيات وجه الشخصين بشكل جيد

٢- تدريب المولد والتي تعمل بتقنية الترميز التلقائي. لتبديل الصورتين ببعض حيث تتعلم الشبكة طوال الوقت كيفية التبديل بين الصورتين (أوباما ومورغن فريمان)

٣- استخلاص الصور من مقطع الفيديو الذي يظهر فيه أوباما (الفيديو الحقيقي) لقطة بلقطة. ثم نقوم بتغذيتها لشبكة المولد لتبديل صورة أوباما بصورة مورغن فريمان بتطابق عالي الجودة. وإعادة إنتاج الفيديو من جديد (الفيديو المفبرك). وتمريره لشبكة المميز التي تنخدع به

العري العميق

التطور الجديد في هذه التقنية لم يكتفي فقط بالشاهير في عالم السياسة والفن ونحوهم. لقد وصل الأمر للافراد العاديين. الجديد هذه المرة هو برمجيات تعمل بنفس منطق التزييف العميق لتحول صورة أي أمرأة بملابسها إلى عارية بضغطة زر. في اغسطس ٢٠١٩ قامت كلير واردلي باطلاق مسودة مشروع غير هادفة للربح. ويهدف هذا المشروع إلى محاربة تزييف المعلومات. وفي إطار مبادرتها قامت بنقل فيديو ملفق لها لجريدة نيويورك تايمز. وذلك لتطلق صيحة تحذير للصحافة : “إذا لم تكن متأكد تمام من المعلومة لا تنشرها”. هذا التحذير يمثل جرس أنذار لما يمكن أن يصيب البيئة الصحفية إذا لم تكن حذرة في التعامل مع مصادر المعلومات

المواثيق الاخلاقية الصحفية دائما ما تؤكد على ضرورة التأكد من مصدر المعلومة قبل نشرها. لكن المعضلة الآن أن الأمر بات أبعد من ذلك. إذ أن مصدر المعلومة ذاته قد يكون فريسة التزييف العميق. ومن ثم فعلى المؤسسة الصحفية أن تكون لها تقنياتها وأدواتها للكشف عن التزييف. وهذا من شأنه أن يؤخر نشر المعلومة ومن ثم السبق الصحفي، ويرفع تكلفة العمل الصحفي. إذ يتعين على المؤسسة الصحفية استخدام تقنيات مكلفة للتأكد من كل فيديو أو صورة قبل نشرها

كيف تنظر غرف الأخبار لتقنية التزييف العميق ؟

نيويورك تايمز نشرت مقالا بعنوان : التزييف العميق قادم .. لن نستطيع أن نصدق في المستقبل كل ما نراه، أما وول ستريت فجاء مقالها بعنوان : فيديوهات التزييف العميق أصبحت واقعا .. وتلك هل المعضلة، واشنطون بوسط تقول على لسان علماء في الذكاء الاصطناعي يتسابقون لكشف فيديوهات التزييف العميق : نحن متفوقون. وأما معهد الدراسات السياسية في الولايات المتحدة فنشر مقالا بعنوان : مع مطلع ٢٠٢٠ كن حذرا من التزييف العميق. وقد تساءل المقال: هل التزييف العميق يمكن أن يتلاعب بانتخابات ٢٠٢٠. هذه المقالات وغيرها كثير عبرت عن قلق الصحافة تجاه التزييف العميق. والتهديد الذي تواجهه من احتمالات تزييف وجه الحقيقة، البضاعة التي تعمل بها وفيها، وتعيش عليها المؤسسات الصحفية

كيف ينظر السياسيون لتقنية التزييف العميق؟

في ٢٠١٨ تم تزييف خطاب لعلي بونغو رئيس جمهورية الغابون في وسط أفريقيا. وهو على فراش الموت، وكان هذا الخطاب المزيف بمثابة الزناد الذي أطلق انقلابا عسكريا فاشلا بعد أسبوع من بثه. فيديو مماثل يظهر هذه المرة في ماليزيا لرجل يعترف بممارسة الرزيلة مع وزير حكومة محلية

صحيفة دايلي بيست عرضت في يونيو ٢٠١٩ مقطع فيديو مزيف للبرلمانية الأمريكية نانسي بيلوسي وهي تتحدث في حالة سكر. وقد أشارت إلى منشئ هذا الفيديو، وهو شون برووك. والذي يعمل في الحقل السياسي بشكل حر، وقد جمع ثروة من إدارة الموقع المؤيد للرئيس تارمب. صحيح أن الفيديو كان بدائي الصنع إلا أنه كشف مخاطر تواجه السياسيين تحديدا في هذا الإطار

على أية حال فإن التزييف العميق قدم للسياسيين والمشاهير مبررا رائعا على طبق من ذهب. فأي تسريب حقيقي ينشر عبر وسائل الأعلام، يمكن الطعن فيه بأنه ليس حقيقي وأنه ملف ملفق من شبكة التزييف العميق

هل علمتم الآن حجم العبء الذي يقع على عاتق المؤسسة الصحفية؟ إذ أن تأكدها بشكل علمي من صحة المعلومة التي تنشرها قد يكون مادة أمام القضاء في بعض الأحيان. إذا كيف تتعامل المؤسسات الصحفية مع معضلة التزييف العميق؟

كيف تتعامل المؤسسة الصحفية مع التزييف العميق؟

أشارت دراسة أمريكية في ٢٠١٩ إلى أن ثلثي الأمريكيين يقولون أن التزييف جعلهم أكثر عزوفا عن الأخبار أو تصديق محتواها. وهذا ما يطلق عليه العلماء مصطلح “اللا مبالاة بالواقع”، هذا ما يسببه التزييف العميق

كشف الزيف أمر رغم صعوبته إلا أنه ممكن. وذلك لأنك ببساطة يمكنك أن تبحث على نسخة مرادفة للملف المزيف داخل الشبكة حتى تصل إلى النسخة الأصلية. ثم تقارن بين النسختين وتكتشف الحقيقة. لكن المصيبة الأفدح الآن هي أن هذه الشبكة صار بامكانها أن تخلق وهما لا أساس له في الواقع.

علماء الذكاء الاصطناعي في معهد سكولكوفو للعلوم والتكنولوجيا في موسكو كشفوا في ٢٠١٩ عن نظام يصنع الصور والفيديو المزيفة. فريق آخر في جامعتي ستانفورد وبرينغتون أشاروا إلى نظام آخر يمكنه تحريك الشفاهة والرأس بحرية

في المعسكر المواجه قدم علماء الذكاء الاصطناعي في جامعات كاليفورينا الأمريكية نظاما لكشف التزييف. حيث تم تعليم النظام كيفية التعرف على صور المشاهير عبر تغذيته بمئات الفيديو للمشاهير. وقد تعاون هؤلاء العلماء مع فريق فيلم أفاتار لاختبار النظام عبر تخليق فيديوهات مزيفة وتمريرها للنظام

من جهة أخرى تعاونت جوجل ومايكروسوفت مع وكالة أبحاث وزارة الدفاع الأمريكية “دربا”. يعمل هذا المشروع لحماية قيادات العالم من التزييف العميق. يوتيوب أيضا تجري تحقيقات في هذا الإطار للكشف عن الفيديوهات المصطنعة. أما فيسبوك فقام بتمويل جامعات لاجراء ابحاث لحسابه في ذات الإطار. تويتر هو الآخر قام بحجب ٨ ملايين حسابات حاولت بث فيديوهات ملفقة. جوجل وفيسبوك قدما محاولات جادة لضبط الفيديوهات عبر تقنيات لوغاريتمات معقدة، وعلامات مائية لحفظ أصالة المادة المنشأة من خلال مواقعهم. كذلك ظهر في السوق عدد من رواد الأعمال المتخصصين في هذا المجال

التزييف العميق

د. هاني فريد – برفويسور علوم الحاسب في كلية دارموث

يقول د. هاني فريد في تصريح لوول ستريت: “يمكنك حرفيا أن تحرك شفتي أي إنسان بأي كلام تريده باستخدام هذه التقني. وهو ما يمثل خطرا على المجتمعات والمشاهير وعلى مجريات الانتخابات. إن مشروع دربا الذي تم هو لحماية المشاهير. وبقي على المؤسسات الصحفية أن تبحث عن أدوات لكشف الملفات المزيفة في شبكات التزييف العميق”

المصادر:ـ

facewapWallstreetniemanlabAdweek4New York timesNiemanlabMalay mailWashington postThe AtlanticstorybenchMT Technology Review

ورقة علمية ١ورقة عملية ٢حلقة كلاكيت ٧: تأثير تكنولوجيا الفيسبوك على الصحافة