كيف تكتشف التلاعب بالصوت والفيديو؟

يصعب على معظم المستخدمين عدم تصديق ما يرونه أو يسمعونه بشكل حدسي. ومع ذلك ، نظرًا لأنه من الممكن التلاعب بالصور ومقاطع الفيديو والتسجيلات الصوتية بجهد قليل وخبرة قليلة نسبيًا ، فمن المستحسن توخي الحذر.

يتم إنشاء ما يسمى بـ “التزييف العميق” بمساعدة الذكاء الاصطناعي (AI) ، وعند عرضها أو سماعها بشكل طبيعي ، يصعب تمييزها عن تسجيلات الفيديو أو الصوت الحقيقي ، كما يحذر المكتب الفيدرالي لأمن تكنولوجيا المعلومات (BSI) في ألمانيا والتي تقدم صفحة موضوع جديدة تشرح التكنولوجيا والإجراءات والمخاطر وكيفية حماية نفسك.

يُطلق على المنتجات المقلدة اسم “التزييف العميق” ، لأن الأساليب المستخدمة في إنشائها تستند إلى شبكات عصبية عميقة.

كيف تحمي نفسك من هذه الملفات التي تم التلاعب بها؟ تؤدي حقيقة معرفة وجوده وإمكانيات الذكاء الاصطناعي إلى التوقف عن الثقة العمياء في صحة أي فيديو أو تسجيل صوتي بحد ذاته. من المهم دائمًا التشكيك بشكل حاسم في ادعاءات معينة ومدى معقولية هذه الادعاءات.

قد تكون هناك أيضًا أدلة تقنية تسمح بإلغاء القناع المزيفة. وفقًا لـ BSI ، قد يكون هذا عيوبًا في انتقالات الوجه ، أو ملامح غير واضحة ، أو تعابير وجه مفقودة ، أو تعرض غير متناسق في مقاطع الفيديو. يعد الصوت المعدني أو الرتيب ، أو النطق غير الصحيح أو طريقة التحدث المصطنعة ، بالإضافة إلى الضوضاء أو التأخيرات غير الطبيعية ، أخطاء نموذجية في التزييف الصوتي.

وفقًا لـ BSE ، يمكن أن تكون هناك أيضًا إجراءات تشفير في المستقبل تربط بوضوح مصدر الفيديو أو المواد الصوتية بهوية وبالتالي تجعل من الممكن منع التزوير. وتشمل هذه أيضًا طرقًا عديدة للكشف التلقائي عن البيانات التي تم التلاعب بها والتي تتم دراستها حاليًا من قبل المجتمع العلمي ، كما يشير خبراء الكيان.

فشلت في: