09 سبتمبر 2025 | 04:36 مساءً في دراسة حديثة.. "سدايا" تكشف إيجابيات التزييف العميق Deepfake - هرم مصر

منوعات 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
09 سبتمبر 2025 | 04:36 مساءً في دراسة حديثة.. "سدايا" تكشف إيجابيات التزييف العميق Deepfake - هرم مصر, اليوم الثلاثاء 9 سبتمبر 2025 04:41 مساءً


هرم مصر - الثلاثاء 09 سبتمبر 2025 | 04:36 مساءً

الهيئة السعودية للبيانات والذكاء الاصطناعي"سدايا"

 كشفت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" في دراسة حديثة حول التزييف العميق Deepfake عن عدد من الإيجابيات لهذه التقنية التي تقوم على استخدام خوارزميات الذكاء الاصطناعي، لا سيما التعلم العميق في توليد أو تعديل محتوى مرئي أو صوتي أو نصي بدرجة عالية من الواقعية إلى حد يصعب فيه التفريق بين الحقيقي والمزيف، مبينة أن هذه التقنية تعد قفزة نوعية في مجالات : الإعلام، والترفيه، والتعليم، إلا أنها في الوقت ذاته قد تتسبب في مخاطر على المجتمعات البشرية يصعب تجاهلها.

وناقشت الدراسة ثلاثة أنواع رئيسة للتزييف العميق، الأول التزييف المرئي الذي يشمل تقنيات تبديل الوجوه وتوليف الوجوه غير الموجودة وتغيير تعبيرات الوجوه ومزامنة الشفاه، وهو الأكثر شيوعًا على منصات التواصل الاجتماعي، والثاني التزييف الصوتي الذي يعتمد على تحويل النص إلى كلام واستنساخ الأصوات مما يسمح بإنتاج تسجيلات مزيفة لأشخاص لم يتحدثوا بها أصلًا، والثالث التزييف النصي، لإنتاج ومقالات وتعليقات تبدوا حقيقية تمامًا وتستخدم غالبًا في حملات التظليل والترويج الآلي.

وتمتاز هذه التقنية بعدد من الإيجابيات منها فتح آفاقًا واسعة في الإبداع الفني، وتحسين تجربة المستخدم في الألعاب والعروض الموسيقية الافتراضية، وفي قطاع التعليم، تسهم هذه التقنية في تطوير التعليم عبر محاكاة الشخصيات والأحداث التاريخية، وإعداد بيئات تدريب واقعية لطالب الطب والمهنيين، كما أن لها فوائد في دعم ذوي الإعاقة باستخدام الصور الرمزية بلغة الإشارة، وفي المجال القانوني، تساعد على تدريب الشهود وإعادة تمثيل الجرائم وحماية هوية الشهود والضحايا، فضلًا عن تعزيز تدريب القضاة والمحامين بطريقة تفاعلية وتحسين جودة الحياة، وزيادة فرص التعلم، ودعم العدالة والابتكار.

وتشير الدراسة إلى أن المخاطر المرتبطة بتقنية التزييف العميق تتوزع على عدة محاور، أبرزها الجانب الاقتصادي، حيث تسبب في خسائر فادحة للمؤسسات المالية بسبب الاحتيال وانتحال الهوية، كما تشكل تهديدًا سياسيًا بالغ الخطورة عبر قدرتها على التأثير بالرأي العام، وتشويه سمعة الشخصيات العامة، وبث الفتن بين الدول من خلال مقاطع وتصريحات مزيفة.

زد على ذلك، فقد أفادت الدراسة أن من مخاطر هذه التقنية من الناحية الأمنية اختراق أنظمة التحقق البيومتري، وابتكار هويات رقمية زائفة لارتكاب جرائم إلكترونية، ولم يسلم قطاع التعليم من آثارها، إذ بات الطالب والمعلمون عُرضة لمحتوى مزيف يخلخل الثقة في المصادر الرقمية، ويعزز من ممارسات الغش والتنمر الإلكتروني، واجتماعيًا، تظهر آثار التزييف العميق في المساس بسمعة الأفراد، والإضرار بصحتهم النفسية، وتفكيك الثقة بين أفراد المجتمع، بل وحتى تهديد الأطفال بمحتوى مزيف وخطر.

وتعاملت المملكة العربية السعودية مع تقنية التزييف العميق بإجراءات سريعة إذ قامت من خلال الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" بوضع إرشادات خاصة بالذكاء الاصطناعي التوليدي، وتؤكد هذه الإرشادات على الالتزام بالتشريعات ذوات الصلة المتعلقة بحماية البيانات والملكية الفكرية، وأطلقت وثيقة مبادئ التزييف العميق والحد من المخاطر مع تعزيز الابتكار التي تضم إرشادات للمطورين ومنشئي المحتوى ومستخدمي تقنية التزييف العميق، وتعزيز الاستخدام المسؤول لهذه التقنية، والتخفيف من المخاطر المحتملة.

وتهدف الإرشادات التوجيهية للتزييف العميق إلى تحقيق التوازن بين الابتكار والضمانات الأخلاقية؛ لضمان مصلحة المجتمع دون المساس بالأمن أو النزاهة، وتشمل المبادئ الأساسية ضمان الاستخدام الأخلاقي بما يتماشى مع حقوق الإنسان ورؤية المملكة 2030، والشفافية من خلال وضع علامات واضحة على المحتوى الاصطناعي، وضمان الخصوصية من خلال اشتراط موافقة صريحة لاستخدام صور الأفراد.

وتركز الإرشادات على تحديد حالات الاستخدام، حيث يُسمح بالتطبيقات الإيجابية مثل التعليم والترفيه، في حين تُحظر الأنشطة السلبية مثل الاحتيال والتضليل وانتحال الهوية، وتضمنت المساءلة للمطورين وكذلك المستخدمين، وأوجبت على المطورين تضمين الضمانات الأخلاقية، وعلى منشئي المحتوى الكشف عن المحتوى الاصطناعي، والجهات التنفيذية مسؤولة عن فرض المبادئ التوجيهية والتعاون الدولي, وتتضمن الإرشادات طرقًا للتخفيف من المخاطر من خلال حملات التوعية العامة، والامتثال المؤسسي لأطر الحوكمة، والتوافق القانوني مع القوانين السعودية بشأن الأمن السيبراني ومكافحة الأخبار المزيفة.

واستعرضت الدراسة مجموعة من الطرق لمواجهة هذه التحديات، شملت رفع الوعي العام بتمييز المحتوى الاصطناعي، ووضع علامات تعريفية على المواد المنتجة بهذه التقنية، وتعزيز التعاون الدولي من خلال مبادرات مثل : (C2PA وCAI)، إلى جانب تطوير أدوات تقنية متقدمة لكشف التزييف العميق، وسن تشريعات وتنظيمات صارمة تحد من إساءة استخدامه.

وأوصت الدراسة بضرورة تبني منظومة متكاملة تجمع بين ثلاثة محاور: التشريع، والتقنية، والتوعية، وتشريعيًا تُعنى بسنّ تشريعات واضحة تجرّم إنتاج أو توزيع المحتوى المزيف، مع فرض عقوبات مشددة على من يستخدم التزييف العميق للإضرار بالأمن الوطني أو الاقتصادي، إضافة إلى تحميل منصات التواصل الاجتماعي مسؤولية التعامل مع المحتوى المزيف.

أما تقنيًا فقد أوصت الدراسة بالعمل على تطوير أدوات وطنية متقدمة للكشف عن التزييف، من خلال دعم الأبحاث الأكاديمية والشركات الناشئة المتخصصة، وتعزيز حماية البيانات الشخصية عبر تشديد إجراءات الأمن الرقمي، وتحديث آليات المصادقة، واستخدام التوقيعات الرقمية لضمان أصالة المحتوى، وتوعويًا، فقد دعت الدراسة إلى رفع الوعي المجتمعي بمخاطر التزييف العميق، عبر إطلاق حملات توعوية، وتدريب الموظفين، وإشراك المؤثرين في نشر الوعي بمخاطر التقنية وأدوات التصدي لها. 

قدمنا لكم زوارنا أهم وأحدث الأخبار فى هذا المقال : 09 سبتمبر 2025 | 04:36 مساءً في دراسة حديثة.. "سدايا" تكشف إيجابيات التزييف العميق Deepfake - هرم مصر, اليوم الثلاثاء 9 سبتمبر 2025 04:41 مساءً

إخترنا لك

أخبار ذات صلة

0 تعليق