يوتيوب تكافح المقاطع المزيفة للشخصيات العامة بتقنيات جديدة

أعلنت منصة يوتيوب توسيع أدواتها المُخصّصة لاكتشاف مقاطع الفيديو المصنوعة بتقنية “التزييف العميق Deepfake”، في خطوة تهدف إلى حد استخدام الذكاء الاصطناعي في انتحال شخصيات حقيقية ونشر معلومات مضللة.
وأوضحت المنصة في بيانٍ رسمي أنها بدأت اختبار تقنية جديدة لكشف “التشابه في الملامح” مع مجموعة تجريبية تضم صحفيين ومسؤولين حكوميين ومرشحين سياسيين؛ إذ تسعى إلى توفير حماية إضافية للشخصيات العامة التي تُستهدف غالبًا بمقاطع فيديو مزيفة تُظهرهم يقولون أو يفعلون أمورًا لم تحدث في الواقع.
وتعمل التقنية الجديدة بنحو مشابه لنظام Content ID المُستخدم في كشف انتهاكات حقوق النشر، لكنها تركز على ملامح الوجه والهوية البصرية. ويُطلب من المشاركين إرسال مقطع فيديو قصير إلى جانب هوية حكومية لكي يتعرّف النظام خصائص ملامحهم، ثم يفحص المنصة بحثًا عن مقاطع مُولَّدة بالذكاء الاصطناعي تحاكي تلك الملامح.
وفي حال رصد مقاطع يُشتبه في أنها تنتحل شخصية أحد المشاركين، يتيح النظام للشخص المعني مراجعة المحتوى وطلب إزالته عند الضرورة.
وكانت يوتيوب قد أطلقت نسخة أولية من هذه التقنية العام الماضي لصنّاع المحتوى المشاركين في برنامج شركاء يوتيوب، لكن الشركة ترى أن المرحلة التالية يجب أن تركز على حماية الشخصيات العامة، خاصةً مع تزايد استخدام مقاطع التزييف العميق في الحملات السياسية والمعلومات المضللة.
وأصبحت هذه المقاطع أكثر واقعية بفضل أدوات الذكاء الاصطناعي التوليدي، مما يسهل إنشاء مقاطع فيديو تبدو مقنعة لأشخاص يقولون أو يفعلون أمورًا لم تحدث فعليًا، وهو ما قد يسبب آثارًا خطِرة في مجالات مثل السياسة والإعلام، منها تشويه السمعة أو تضليل الرأي العام.
ومع ذلك، تؤكد يوتيوب أن طلبات إزالة المحتوى لن تُنفّذ تلقائيًا، إذ ستظل خاضعة لقواعد الخصوصية وسياسات الإشراف المعتمدة لديها. وقد تبقى بعض المقاطع على المنصة إذا عدّتها ضمن إطار السخرية أو المحاكاة الساخرة أو التعليق المشروع.
وتشير الشركة إلى أن التجربة الأولية مع صناع المحتوى لم تؤدِّ إلى عدد كبير من عمليات الحذف، إذ تبيّن أن معظم المقاطع المُكتشفة كانت غير ضارة. لكنها تتوقع أن يكون الوضع مختلفًا مع الشخصيات العامة والقادة السياسيين الذين يواجهون خطرًا أكبر من هجمات التزييف العميق.
وفي الوقت الراهن سيظل البرنامج مقتصرًا على الشخصيات المؤثرة، لكن هذه الخطوة تبرز اتجاهًا أوسع في قطاع التكنولوجيا نحو بناء أدوات حماية استباقية، قبل أن يصبح من الصعب التمييز بين المحتوى الحقيقي والمحتوى المُولَّد بالذكاء الاصطناعي.
نسخ الرابط
تم نسخ الرابط



