Connect with us

ما هي Deepfakes؟

الذكاء الاصطناعي

ما هي Deepfakes؟

mm

مع تطور تقنيات Deepfakes وانتشارها، أصبحت موضوعاً للنقاش فيما يتعلق بأخلاقيات الذكاء الاصطناعي، ومعلومات الخداع، وفتح المعلومات والإنترنت، والتنظيم. من المهم أن يكون المرء على دراية بتقنيات Deepfakes، ولديه فهم直觉ي لما هي Deepfakes. هذا المقال سيفسر تعريف Deepfake، ويدرس استخداماتها، ويناقش كيفية الكشف عنها، ويفحص الآثار التي قد تترتب على انتشارها في المجتمع.

ما هي Deepfakes؟

قبل المضي في مناقشة Deepfakes، من المفيد أن ن dành بعض الوقت لتوضيح ما هي Deepfakes بالضبط. هناك قدر كبير من الارتباك حول مصطلح Deepfake، وغالبًا ما يتم تطبيق المصطلح على أي وسيلة إعلامية مزيفة، بغض النظر عما إذا كانت مزيفة حقيقية أم لا. لكي يتم اعتبار الوسيلة الإعلامية مزيفة، يجب أن تكون生成ت بواسطة نظام تعلم آلي، وبالتحديد شبكة عصبونية عميقة.

المكون الرئيسي لتقنيات Deepfakes هو التعلم الآلي. أتاح التعلم الآلي للكمبيوتر توليد الفيديو والصوت تلقائيًا وبسرعة. يتم تدريب الشبكات العصبونية العميقة على مقاطع فيديو لشخص حقيقي من أجل تعلم الشبكة كيف يبدو الناس ويتحركون في ظل الظروف البيئية المستهدفة. ثم يتم استخدام الشبكة المدربة على صور لشخص آخر وتحسينها بتقنيات رسومات حاسوبية إضافية من أجل دمج الشخص الجديد مع المقاطع الأصلية. يتم استخدام خوارزمية التشفير لتحديد التشابه بين الوجه الأصلي والوجه المستهدف. بعد عزل الميزات المشتركة للوجهين، يتم استخدام خوارزمية فك التشفير تسمى فك التشفير. يفحص فك التشفير الصور المضغوطة ويعيد بناؤها بناءً على الميزات الموجودة في الصور الأصلية. يتم استخدام两个 فك تشفير، أحدهما على وجه الشخص الأصلي والآخر على وجه الشخص المستهدف. من أجل إجراء الاستبدال، يتم تغذية فك التشفير المدرب على صور الشخص X بصور الشخص Y. النتيجة هي أن وجه الشخص Y يتم إعادة بناؤه فوق تعابير الوجه وتنسيق الشخص X.

حاليًا، لا يزال الأمر يتطلب وقتًا طويلاً لإنشاء مزيفة. يجب على منشئ المزيفة أن يقضي وقتًا طويلاً في تعديل المعاملات في النموذج، لأن المعاملات غير المثالية ستؤدي إلى عيوب واضحة وخلل في الصورة التي تكشف عن طبيعة المزيفة الحقيقية.

على الرغم من أنه يُفترض غالبًا أن معظم المزيفات يتم إنشاؤها باستخدام نوع من الشبكات العصبونية يسمى الشبكة التوليدية المعارضة (GAN)، إلا أن العديد من المزيفات (ربما معظمها) التي تم إنشاؤها في هذه الأيام لا تعتمد على GANs. بينما لعبت GANs دورًا بارزًا في إنشاء المزيفات المبكرة، فإن معظم مقاطع الفيديو المزيفة يتم إنشاؤها من خلال طرق بديلة، وفقًا لسيوي ليو من جامعة SUNY Buffalo.

يتطلب تدريب GAN كمية كبيرة من بيانات التدريب، وغالبًا ما يستغرق وقتًا أطول لتحويل الصورة مقارنة بتقنيات توليد الصور الأخرى. GANs أكثر ملاءمة لتوليد الصور الثابتة أكثر من الفيديو، لأن GANs تواجه صعوبات في الحفاظ على الاتساق من إطار إلى إطار. من الشائع استخدام مشفر وعدة فك تشفير لإنشاء المزيفات.

ما هي استخدامات Deepfakes؟

许多 من المزيفات الموجودة على الإنترنت هي إباحية. وفقًا لأبحاث أجريت بواسطة Deeptrace، شركة ذكاء اصطناعي، من بين عينة من حوالي 15,000 فيديو مزيف تم أخذها في سبتمبر 2019، حوالي 95% منها كانت إباحية. أحد الآثار المقلقة لهذا الحقيقة هو أنه مع تطور التكنولوجيا وسهولة استخدامها، قد تزداد حوادث المثلة الإباحية الزائفة.

然而، ليس جميع المزيفات إباحية. هناك استخدامات مشروعة لتقنيات Deepfakes. يمكن أن تساعد تقنيات Deepfakes الصوتية الأشخاص في بث أصواتهم العادية بعد أن تضررت أو فقدت بسبب المرض أو الإصابة. يمكن استخدام المزيفات لاخفاء وجوه الأشخاص الذين يوجدون في مواقف حساسة وخطرة، مع السماح لهم بالقراءة على شفاههم وتعابيرهم. يمكن استخدام تقنيات Deepfakes لتحسين دبلجة الأفلام الأجنبية، ومساعدة في إصلاح الوسائط القديمة التالفة، وإنشاء أنماط فنية جديدة.

المزيفات غير الفيديو

في حين يعتقد معظم الناس أن الفيديوهات المزيفة هي النوع الوحيد من الوسائط المزيفة التي يتم إنشاؤها بتقنيات Deepfakes، فإن الفيديوهات المزيفة ليست هي النوع الوحيد من الوسائط المزيفة. يتم استخدام تقنيات Deepfakes لإنشاء صور ووسائط صوتية مزيفة. كما ذكرنا من قبل، يتم استخدام GANs لإنشاء صور مزيفة. يُعتقد أن هناك العديد من الحالات التي تم فيها إنشاء ملفات تعريف مزيفة على LinkedIn وFacebook باستخدام صور تم إنشاؤها بتقنيات Deepfakes.

من الممكن إنشاء مزيفات صوتية أيضًا. يتم تدريب الشبكات العصبونية العميقة على إنتاج نسخ صوتية لاشخاص مختلفين، بما في ذلك المشاهير والسياسيين. أحد الأمثلة الشهيرة على مزيفة صوتية هو عندما استخدمت شركة Dessa نموذجًا ذكيا مدعومًا بخوارزميات غير ذكية، لإنشاء صوت مزيف لمضيف بودكاست Joe Rogan.

كيفية الكشف عن المزيفات

مع تطور تقنيات Deepfakes، سيتعذر تمييزها من الوسائط الحقيقية. حاليًا، هناك علامات محددة يمكن للناس البحث عنها لتحديد ما إذا كان الفيديو مزيفًا، مثل التزامن الضعيف للشفاه، الحركة غير الطبيعية، وميض حول حافة الوجه، وتشويه التفاصيل الدقيقة مثل الشعر والأسنان والانعكاسات. تشمل العلامات الأخرى المحتملة لمزيفة الفيديو أجزاء منخفضة الجودة من نفس الفيديو، وتمييز غير منتظم للعينين.

على الرغم من أن هذه العلامات قد تساعد في الكشف عن مزيفة في الوقت الحالي، ومع تطور تقنيات Deepfakes، قد يكون الخيار الوحيد للكشف عنها بشكل موثوق هو استخدام أنواع أخرى من الذكاء الاصطناعي مدربة على تمييز الوسائط المزيفة من الحقيقية.

الشركات التي تعمل في مجال الذكاء الاصطناعي، بما في ذلك العديد من الشركات التكنولوجية الكبيرة، تقوم بأبحاث حول طرق الكشف عن المزيفات. في ديسمبر الماضي، تم إطلاق تحدي الكشف عن المزيفات، بدعم من ثلاث شركات تكنولوجية كبرى: Amazon وFacebook وMicrosoft. عملت فرق بحثية من جميع أنحاء العالم على تطوير طرق الكشف عن المزيفات، وتتنافس على تطوير أفضل طرق الكشف. تعمل مجموعات أخرى من الباحثين، مثل مجموعة من الباحثين من Google وJigsaw، على نوع من “التحقيق الجنائي للوجه” الذي يمكنه الكشف عن مقاطع الفيديو التي تم تعديلها، إتاحة مجموعات البيانات مفتوحة المصدر و تشجيع الآخرين على تطوير طرق الكشف عن المزيفات. كما عملت Dessa على تحسين تقنيات الكشف عن المزيفات، وحاولت ضمان أن تعمل نماذج الكشف على مقاطع الفيديو المزيفة الموجودة على الإنترنت بدلاً من مجموعات التدريب والاختبار المكونة مسبقًا، مثل مجموعة البيانات مفتوحة المصدر التي قدمتها Google.

هناك أيضًا استراتيجيات أخرى يتم التحقيق فيها للتعامل مع انتشار المزيفات. على سبيل المثال، يمكن فحص مقاطع الفيديو للتأكد من مطابقتها لمصادر أخرى للمعلومات. يمكن إجراء عمليات بحث عن مقاطع فيديو لأحداث قد تم تسجيلها من زوايا أخرى، أو يمكن فحص تفاصيل الخلفية من مقطع الفيديو (مثل أنماط الطقس والمواقع) للبحث عن تناقضات. بالإضافة إلى ذلك، يمكن استخدام نظام سجل الكتروني متسلسل لتسجيل مقاطع الفيديو عند إنشائها، مع الحفاظ على الصوت والصور الأصلية بحيث يمكن دائمًا فحص مقاطع الفيديو المشتقة للتلاعب.

في النهاية، من المهم أن يتم إنشاء طرق موثوقة للكشف عن المزيفات وأن هذه الطرق تظل متقدمة مع أحدث التطورات في تقنيات Deepfakes. بينما من الصعب معرفة بالضبط ما هي الآثار التي قد تترتب على المزيفات، إذا لم تكن هناك طرق موثوقة للكشف عنها (وأشكال أخرى من الوسائط المزيفة)، قد تنتشر المعلومات الخاطئة وتؤدي إلى تدهور ثقة الناس في المجتمع والمؤسسات.

آثار المزيفات

ما هي المخاطر التي تطرحها المزيفات إذا تم إهمالها؟

أحد أكبر المشاكل التي تسببها المزيفات حاليًا هو الإباحية غير الم رضية، التي يتم إنشاؤها عن طريق دمج وجوه الناس مع مقاطع فيديو وصور إباحية. يخشى خبراء أخلاقيات الذكاء الاصطناعي من أن يتم استخدام المزيفات بشكل أكبر في إنشاء مثلت إباحية زائفة. بالإضافة إلى ذلك، يمكن استخدام المزيفات لإساءة معاملة الناس وتدمير سمعتهم، لأنها يمكن أن توضع في مواقف مثيرة للجدل ومسببة للخسارة.

أعربت الشركات والخبراء الأمنيين عن قلقهم بشأن استخدام المزيفات لتنفيذ عمليات احتيال وغش وابتزاز. يُزعم أن الصوت المزيف قد تم استخدامه لإقناع موظفين في شركة بنقل الأموال إلى المحتالين

من الممكن أن تؤدي المزيفات إلى آثار ضارة تتجاوز ما ذكر أعلاه. يمكن أن تؤدي المزيفات إلى تآكل ثقة الناس في الوسائط بشكل عام، وتجعل من الصعب على الناس التمييز بين الأخبار الحقيقية والأخبار الزائفة. إذا كانت معظم مقاطع الفيديو على الإنترنت مزيفة، يصبح من السهل على الحكومات والشركات والكيانات الأخرى الشك في القضايا والممارسات غير الأخلاقية المشروعة.

عندما يتعلق الأمر الحكومات، قد تطرح المزيفات حتى تهديدات لعمليات الديمقراطية. الديمقراطية تتطلب أن يكون المواطنون قادرين على اتخاذ قرارات مستنيرة بشأن السياسيين بناءً على معلومات موثوقة. المعلومات الخاطئة تهدد العمليات الديمقراطية. على سبيل المثال، ظهر الرئيس الغابوني، علي بونغو، في مقطع فيديو حاول فيه أن يطمئن مواطني الغابون. كان يُفترض أن الرئيس مريض لفترة طويلة، وappearanceه المفاجئة في مقطع فيديو مزيف محتمل أطلق محاولة انقلاب. زعم الرئيس دونالد ترامب أن التسجيل الصوتي الذي كان يتباهى فيه بالمساومة على النساء مزيف، على الرغم من وصفها أيضًا بأنها “حديث غرفة تغيير الملابس”. كما زعم الأمير أندرو أن الصورة التي قدمها محامي إميلي ميتيليس كانت مزيفة، على الرغم من أن المحامي أصر على صحتها.

في النهاية، بينما هناك استخدامات مشروعة لتقنيات Deepfakes، هناك مخاطر محتملة كثيرة يمكن أن تنشأ من إساءة استخدام هذه التقنيات. لهذا السبب، من المهم أن يتم إنشاء طرق للتحقق من صحة الوسائط وضمان استمرار هذه الطرق مع أحدث التطورات في تقنيات Deepfakes.

مدون وبرمجي متخصص في مواضيع Machine Learning و Deep Learning. يأمل دانيال في مساعدة الآخرين على استخدام قوة الذكاء الاصطناعي من أجل الخير الاجتماعي.