ثقافة Deepfake: هل تتسبب ظاهرة التزييف العميق في تغيير واقعنا السياسي؟
عبرت القوات الروسية الحدود الأوكرانية في الحادي والعشرين من شباط/فبراير عام 2022، وفي طريقها من الشرق والشمال، في محاولة السيطرة على العاصمة كييف، انتشر فيديو على منصات التواصل الاجتماعي للرئيس الأوكراني فلوديمير زيلنسكي، وهو يطلب من جنوده تسليم سلاحهم والاستسلام للقوات المعادية، ليتسبب هذا الفيديو، الذي امتد لدقيقة واحدة، بحالة من البلبلة والتوتر داخل أوكرانيا.
لم ينتشر الفيديو على منصات التواصل العالمية مثل فيسبوك وتويتر ويوتيوب فقط، وانما عُرض على المحطات التليفزيونية الأوكرانية الرسمية. وبمطالعة الفيديو، لاحظ المشاهدون وجود مشاكل في اللهجة التي يتحدث بها الرئيس، وحتى شكل رأسه ورقبته، ليخرج بعدها الرئيس الأوكراني بخطاب رسمي، قائلا إنه تم الاعتداء على أوكرانيا وأطفالها ونسائها، وإنه لن يطلب من جنوده التوقف عن القتال حتى تحرير أوكرانيا.

مسؤولو الأمن السبيراني في أوكرانيا أكدوا بعدها أن الفيديو المُزيف، تم انتاجه بواسطة خاصية التزييف العميق Deepfake، ونُشر من قبل قراصنة مجهولين، اخترقوا الدفاعات الأمنية الأوكرانية، وبثّوه في المحطات الرسمية، ما استدعى في النهاية حذفه من كل المنصات.
وبعيدا عن الخداع السياسي قليلا؛ فخاصية Deepfake لها سوابق، تمكّن فيها مستعملوها من الاحتيال على مؤسسات مالية وشركات عالمية، مثلما تمكّنت مجموعة من المحتالين من خداع مدير إقليمي لشركة في هونغ كونغ عام 2020، وتمكّنت من الحصول على ما يزيد عن 35 مليون دولار، فقط عن طريق إيهام المدير بتلقي مكالمة من رئيس الشركة الأم، يطلب منه فيها تحويل تلك الأموال. التقنية المستخدمة في هذه الحادثة تُعرف باسم “Deep Voice”، وهي تطبيق فرعي عن خاصية التزييف العميق، يقوم فيه الكومبيوتر بعمل محاكاة لصوت بشري، من خلال الاعتماد على تسجيلات سابقة.
لا تتوقف المعضلات والمشاكل التي تتسبب بها خاصية Deepfake عند حدود الاحتيال المالي، أو في ترويج عملة إلكترونية مزيّفة بصوت أيلون ماسك مثلا، لكنها امتدّت لتؤثّر على النظام القانوني والقضائي. ففي نزاع قضائي مشهور على حضانة طفل في إنجلترا، ادعت الأم أن والد الطفل استخدم مصطلحات عنيفة تجاهها، واتهمته كذلك بتهديدها بالقتل، ليتضح لمحاميي الأب فيما بعد أن الملف الصوتي، الذي قدمته الأم، كان مزيفا، وجرى تعديله باستخدام برنامج Deepfake رخيص متاح على الإنترنت. ويقول محامي الأب إن تلك الواقعة كانت الأولى من نوعها، التي تسببت ببعض التشويش لهيئة المحلفين، على الرغم من أن التزييف تم كشفه في النهاية. لكن سؤاله الأهم كان: كيف يمكننا الاعتماد على الأدلة الصوتية والمرئية فيما بعد؟ إذا كانت الأم قد قدمّت “دليلا” كهذا بكل تلك الثقة، وهو نتاج تزييف رخيص وسريع جدا، فماذا لو أصبحت تلك العملية أعمق وأكثر تركيبا فيما بعد؟ كيف يمكن للهيئات القضائية الفصل في المنازعات، بالاعتماد على أدلة من هذا النوع؟
كل تلك الأسئلة مشروعة وضرورية، في إطار مواجهة ظاهرة التزييف العميق، التي أخذت بالانتشار خلال السنوات الماضية، والتي تترافق مع تقدّم تقني مهول في تطوير الشرائح ومعالجات الذكاء الاصطناعي، ما يعني أن العين البشرية، خلال سنوات قليلة، ربما لن تستطيع تمييز أي اختلاف يُذكر بين الفيديوهات والصور والصوتيات الحقيقية، والأخرى التي تم معالجتها من قبل الذكاء الاصطناعي.
ولكن، كيف تعمل خاصية Deepfake؟ وما علاقتها بالذكاء الاصطناعي؟ وكيف يمكن أن تتطّور مستقبلا؟ وما تأثيرها على واقعنا السياسي والاجتماعي، وتحديدا مفهومنا عن الحقيقة؟ وفي النهاية كيف يمكن لنا السيطرة على تلك التكنولوجيا الجديدة؟
قدم الباحث أيان غودفيلو، الأستاذ في جامعة مونتريال الكندية، ورقة بحثية بعنوان “Generative Adversarial Network” أو باختصار GAN، وهي تكنولوجيا جديدة قد طورها وزملاؤه في العام 2014، تستخدم إطار عمل، يحتوي على اثنتين من البرمجيات، يعملان عكس بعضهما: الأول هو النموذج التوليدي، الذي يجمع المعلومات، ويصنّفها ويراجعها، ويمكن إعطائه الاسم G؛ والنموذج الثاني هو النموذج الذي يكشف أخطاء النموذج التوليدي، ويراجعها، ويمكن إعطائه الرمز D. يعمل كلا النموذجان ضد بعضهما، فهدف نموذج البرمجيات G هو توليد صور أو أصوات أو فيديوهات، بناء على المعلومات التي تم إدخالها اليه، واعتمادا على خوارزميات وبرمجيات الذكاء الاصطناعي التوليدي، ويحاول تقريبها قدر الإمكان، حتى يتمكّن من خداع المعايير التي يفرضها النموذج D، وهو نموذج برمجي للذكاء الاصطناعي، تم تصميميه اعتمادا على عدد من المعايير، التي تعمل بها العين والأذن البشرية، للتفريق بين الواقعي والحقيقي وغير الحقيقي، ومهمة النموذج البرمجي الثاني D أن يراجع إنتاج النموذج G، ثم يرفضها في حال لم تتجاوز معاييره، ويطلب تعديلها. لتستمر تلك العملية المتبادلة بين النموذجين لفترات طويلة، قد تمتد لأسابيع، حتى تصل إلى منتج نهائي، يمكنه حقا أن يتجاوز المعايير البشرية لملاحظة غير الواقعي.
وفي ورقة بحثية لشركة IBM، قدّمها عدد من الباحثين، تم اقتراح توليد صور للاستخدام في مجال الموضة، عن طريق استخدام إطار عمل GAN، وتغذية البرنامج التوليدي ببيانات ستين ألف نموذج (صورة) لعشرة آلاف امرأة، على أن تكون الصور بمقاس 28*28. هذه المجموعة من البيانات المفتوحة المصدر، تمكّنت في النهاية من تخليق عدد من الفيديوهات والصور لعارضات أزياء افتراضيات، ما يمكّن في المستقبل من إلغاء الحاجة للاعتماد على البشر، من أجل تأمين ذلك الطلب أو تلك الوظيفة.
لا نتحدث هنا فقط عن عارضات الأزياء، بل يمكن أن يمهّد الأمر لإمكانية إلغاء وظائف أخرى، مثلا ممثلات البورنوغرافيا، إذ يمكن اليوم شراء صور خاصة لممثلات إثارة افتراضيات تماما، وخصوصا أن ما يزيد عن 96% من استخدامات تلك التكنولوجيا تستعمل لتوليد فيديوهات وصور جنسية. يمكن أن يمتد الأمر لممثلين الأفلام المشاهير في هوليوود، وخصوصا لوجود قدر كبير من الصور والبيانات لكل ممثل مشهور اليوم، مثل توم كروز، الممثل الذي يكثر استخدام ملامحه ووجهه في تلك التقنية، أو حتى سكارليت جوهانسون، الممثلة الشهيرة، التي اعتمدت شركة Open AI على صوتها، وقامت بتوليده واستخدامه في أحدث منتجاتها Chat gpt4o، ما دفع الممثلة للاعتراض، ومقاضاة الشركة على تلك الخطوة.
لطالما تمكّنت التكنولوجيات المرئية من إضافة تعديلات على الصور والفيديوهات، ربما منذ لحظة اختراع الكاميرا، وحتى الوصول لتطبيقات Adobe Photoshop، لكن المنتجات كانت دائمة محكومة بمدى المهارة في استخدام البرنامج، ومقصورة على استخدامات معينة، لكننا اليوم أمام تكنولوجيا يمكنها أن تبدأ ثقافة جديدة تماما، توثّر على نمط معيشتنا، وأنظمتنا السياسية، وحتى مفاهيمنا عن الواقع والحقيقة.
في تقرير للاتحاد الأوروبي حول تكنولوجيا التزييف العميق، يقول الخبراء إنه بحلول العام 2026 سوف تصبح 90% من المحتويات على الإنترنت مركبة وموّلدة بتقنية GAN، وإنه بحلول عام 2030 فإن أغلب الباحثين والمشاركين في تلك الدراسة، من التقنيين وعناصر قوات تنفيذ القانون، سوف تصبح حياتهم ووظائفهم مهددة من قبل تلك التكنولوجيا. لكن كيف يمكن لكل هذا المحتوى المزيف التأثير على مفهومنا للواقع؟
مع انتشار مفاهيم الأخبار الكاذبة Fake News، و”الحقائق البديلة”، وغيرها من حملات التضليل السياسي، تأتي تكنولوجيا لتخلق حالة من الاضطراب وفقدان الثقة في كل ما تقدمه وسائل التواصل والإعلام. لن تقف الأزمة عند حدود تصديق معلومات وأخبار كاذبة يمكن التحقّق منها، لكن تكرار الهجمات والتزييف الدائم المتواصل، سوف يدفع المتابعين للتشكك الراديكالي في كل ما يتعاطون معه، فتتساوى الحقيقة مع غير الحقيقة، في كونها معرّضة للتكذيب، وبل حتى عدم الاهتمام ببحث مدى دقتها.
تؤثّر تلك الوضعية من الشك الراديكالي على السياسة والاقتصاد تحديدا، ففي العام 2019 نشرت BBC فيديو مولدا بتكنولوجيا التزييف العميق،لكل من بوريس جونسون وجيرمي كوربين، يثني كل منهما على الأخر، ويرشحه في الانتخابات. فيديو مثل هذا كان يمكنه أن يؤثّر على نتائج الانتخابات، في حالة كان القصد من ورائه خداع الناخبين.
الأمر نفسه يمكن أن تتعرض له الشركات، عبر حملات تشويه سمعة، بغرض التأثير على أسهمها في البورصة، والتربّح الدوري من ذلك.
في كانون الأول/ديسمبر من العام 2020، تمكّنت شركة هولندية من عمل دراسة عن المحتويات المزيّفة على الانترنت، لتجد أن 96% من الفيديوهات المزيفة هي فيديوهات جنسية، وصل عددها في بعض الأحيان لخمسة وثمانين ألف فيديو، ويتضاعف الرقم كل ستة أشهر. وتقدّم تلك الفيديوهات جسد ممثلة إباحية، مع وجه شخص معروف أو مغمور، أُخذت هويته بدون علمه، ما تسبب في أحيانٍ كثير بارتكاب جرائم شرف، بحق فتيات في باكستان أو إيران، تم تركيب صورهن بشكلٍ محترف ومتعمّد على أجساد ممثلات بورنوغرافيا.
الخداع السياسي والاقتصادي وانتهاك الخصوصية، يمكنه أن يجتمع أيضا في استخدام كارثي آخر، وهو تزييف الأوراق الرسمية وجوازات السفر، فعلى الرغم من أن تلك الوثائق أصبحت أكثر تعقيدا، ومليئة بالبصمات الالكترونية ضد التزوير، إلا أن أدوات الذكاء الاصطناعي وDeepfake، تستطيع تحويل صورة قانونية لجواز سفر إلى صورة أخرى للشخص الذي يريد استخراج جواز غير قانوني. خاصية التحويل تستطيع الحفاظ عن النقاط والملامح الأساسية، التي تتعرّف عليها خوارزميات تحديد الهوية في المطارات، ما يجعل ميكانيزمات التحقّق من الهوية أضعف، وقابلة للاختراق والاستغلال من قبل مجرمي الحرب، والمدانين قضائيا، وحتى الإرهابيين، الذين يمكنهم الحصول على عدد غير محدود من الهويات، بدون القدرة على كشفهم.
يمكننا اليوم أن نجد مداخلات ونقاشات بين أشخاص لم يلتقوا من قبل، أشهرهم الفيلسوف السلوفيني سلافوي جيجك والسياسي الأمريكي بيرني ساندرس.
تلك الفيديوهات أصبحت شهيرة للغاية مؤخرا، يقدمها هواة على الإنترنت، وباستخدام أدوات بسيطة جدا، لكن منتجهم لا يخلوا من إمتاع وإشباع للفضول، فضول يمكنه أن يساور البعض حول الاحتمالات التي يمكن أن تضيفها تلك التكنولوجيا لعالمنا.
على الرغم من أن تكنولوجيا Deepfake تمثّل خطرا غير مسبوق على حياتنا السياسية والاقتصادية، بل وحتى فهمنا للواقع، إلا أنها تحمل جانبا إيجابيا، يجعل رفضها بشكل راديكالي نوعا من مجانبة الصواب، فمثلا يمكننا أن نعتمد عليها في توجيه حملات إعلانية وتربوية بخصوص البيئة، والتعامل مع الآخر المختلف، أو حتى للأطفال المرضى بالأمراض المزمنة. يمكن أن تعتمد تلك الحملات على صور وحضور مشاهير مرغوبين بشدة اليوم، مثل لاعب كرة القدم السابق ديفيد بيكهام، الذي سمح باستخدام صورته في حملة لصالح الأطفال؛ أو حتى استحضار شخصيات تاريخية أو مشاهير راحلين، مازالوا مؤثّرين على عالمنا اليوم. ويمكن أن تتسع الاستخدامات إلى درجة توفير معلمين افتراضيين. فلتتخيل مثلا طفلا مَثَله الأعلى مغن أو مؤثر ما، ماذا إن استطاع تطبيق ما جعل ذلك المؤثّر يقوم بتدريس المخصصات التعليمية بشكل افتراضي للطفل؟
هذه الاستخدامات الإيجابية، وغيرها الكثير جدا؛ تجعل من أية مطالب لحظر تلك التكنولوجيا تماما غير مقبولة. فمثلا في تقرير الاتحاد الأوروبي عن المستقبل الرقمي، توجد توصية بحظر التطبيقات غير مضمونة العواقب، أما غير ذلك من التطبيقات، ذات الخطر المتوسط أو الأقل، فيجب إخضاعها لتدقيق من نوع أخر. أي أن الفيديوهات المولّدة بخاصية التزييف العميق من الممكن السماح بها، مع إرفاقها بملحوظة أنها غير حقيقية، ومولّدة لأغراض بعينها.
أما في الصين، فقد تم السماح بتلك التكنولوجيا، ما عدا تلك المستخدمة لتضليل الرأي العام، ونشر أخبار كاذبة. وفي إنجلترا مثلا توجد مشاريع قوانين لمعاقبة كل من يشرع في استخدام تلك التكنولوجيا لإنتاج صور وفيديوهات بورنوغرافيا بدون موافقة أصحابها.
يمكننا أن نستنتج مما فهمناه عن تجارب Deepfake خلال العشر سنوات الأخيرة، أننا أمام ظرف جديد، يحتاج منّا التمهّل في الحكم على الأمور، والتحقق منها قبل نشرها أو تصديقها، ولكنه قد يتيح لنا كثيرا من الإمكانيات، وهو بذلك يشبه أي اختراع جديد عرفه البشر، له كثير من المخاطر، ويثير كثيرا من الشكوك، إلا أنه سرعان ما يصير جزءا أساسيا من الحياة، ويحقق فوائد كثيرة.
هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى الحل نت واشترك بنشرتنا البريدية.