الذكاء الاصطناعي
دراسة “سدايا”: ضرورة موازنة الابتكار مع الضمانات الأخلاقية في الذكاء الاصطناعي
كتب بواسطة: افتكار غالب |

كشفت الهيئة السعودية للبيانات والذكاء الاصطناعي سدايا في دراسة حديثة عن تقنية التزييف العميق أنها تحمل أبعاداً مزدوجة تجمع بين فرص إيجابية واسعة وتحديات خطيرة قد تؤثر على المجتمعات البشرية حيث تعتمد هذه التقنية على خوارزميات الذكاء الاصطناعي المتقدمة وخاصة التعلم العميق لإنتاج أو تعديل محتوى بصري أو صوتي أو نصي يتميز بدرجة عالية من الواقعية.
إقرأ ايضاً:المؤسسة العامة للتدريب التقني والمهني بين أفضل ست جهات حكومية.. تفاصيل غير معلنة عن المبادنادي الهلال يتلقى صدمة مدوية قبل موقعة السد.. إنزاجي في ورطة بسبب غياب مفاجئ

وأشارت الدراسة إلى أن التزييف العميق يمثل قفزة نوعية في مجالات متعددة مثل الإعلام والترفيه والتعليم حيث يفتح آفاقاً جديدة للإبداع الفني ويتيح للمستخدمين تجارب غير مسبوقة في الألعاب والعروض الافتراضية والمحتوى التفاعلي.

وبيّنت الدراسة أن للتقنية ثلاثة أنواع رئيسية أولها التزييف المرئي الذي يشمل تبديل الوجوه وتوليف وجوه غير موجودة وتغيير تعابير الوجه ومزامنة الشفاه وهو الأكثر انتشاراً عبر منصات التواصل الاجتماعي وثانيها التزييف الصوتي القائم على استنساخ الأصوات وتحويل النصوص إلى كلام مما يسمح بتوليد تسجيلات لم تحدث أصلاً وثالثها التزييف النصي الذي ينتج مقالات وتعليقات تبدو حقيقية وتستخدم عادة في حملات التضليل.

وفي جانب الإيجابيات أوضحت الدراسة أن التقنية تساهم في تطوير التعليم من خلال محاكاة الشخصيات والأحداث التاريخية وإنشاء بيئات تدريب واقعية لطلاب الطب والمهنيين كما تدعم ذوي الإعاقة عبر الصور الرمزية بلغة الإشارة وتتيح في المجال القانوني تدريب الشهود وإعادة تمثيل الجرائم مع الحفاظ على سرية الهوية.

وأكدت الدراسة أن هذه الاستخدامات الإيجابية تعزز جودة الحياة وتزيد من فرص التعلم والابتكار وتفتح آفاقاً جديدة أمام العدالة الرقمية والبحث العلمي الأمر الذي يجعل التقنية أداة مزدوجة تجمع بين التطوير والإبداع من ناحية والمخاطر المعقدة من ناحية أخرى.

وعلى مستوى المخاطر أوضحت الدراسة أن الجانب الاقتصادي يعد من أبرز التحديات حيث قد تسبب التقنية خسائر مالية ضخمة للمؤسسات بسبب الاحتيال وانتحال الهوية كما أنها تمثل تهديداً سياسياً مؤثراً لقدرتها على توجيه الرأي العام وتشويه سمعة الشخصيات العامة.

ولم تغفل الدراسة التأثير الأمني إذ نبهت إلى أن التقنية قد تستخدم لاختراق أنظمة التحقق البيومتري وابتكار هويات رقمية وهمية لارتكاب الجرائم الإلكترونية بينما في التعليم يواجه المعلمون والطلاب خطراً متزايداً من المحتوى المزيف الذي يقوض الثقة في المصادر الرقمية ويغذي ممارسات الغش والتنمر.

أما اجتماعياً فأوضحت الدراسة أن التزييف العميق قد يلحق أضراراً كبيرة بسمعة الأفراد ويؤثر على صحتهم النفسية ويفكك الثقة بين أفراد المجتمع إلى جانب تهديد الأطفال بمحتوى مزيف قد يكون ضاراً أو خطيراً.

وأكدت الدراسة أن المملكة العربية السعودية تعاملت مع هذه التحديات مبكراً حيث بادرت سدايا إلى وضع إرشادات للذكاء الاصطناعي التوليدي وأصدرت وثيقة مبادئ التزييف العميق التي تسعى لتحقيق التوازن بين الابتكار وحماية المجتمع.

وتتضمن هذه المبادئ أساسيات مهمة مثل الالتزام بالحقوق الإنسانية والشفافية عبر وضع علامات واضحة على المحتوى الاصطناعي وحماية الخصوصية من خلال اشتراط موافقة الأفراد على استخدام صورهم وأصواتهم في أي محتوى مُنتج.

كما شددت الإرشادات على تحديد حالات الاستخدام المسموح بها حيث يُسمح بالتطبيقات التعليمية والإبداعية بينما يُحظر الاحتيال والتضليل وانتحال الهوية إضافة إلى فرض المساءلة على المطورين ومنشئي المحتوى والجهات التنفيذية التي تراقب تطبيق القوانين.

وأشارت الدراسة إلى أن مواجهة هذه المخاطر تتطلب تضافر الجهود عبر رفع الوعي المجتمعي بطرق التمييز بين المحتوى الحقيقي والمزيف وتعزيز التعاون الدولي من خلال مبادرات متخصصة مثل C2PA وCAI وتطوير أدوات تقنية متقدمة لكشف التزييف.

كما أوصت بضرورة تبني منظومة متكاملة تقوم على ثلاثة محاور أساسية وهي التشريع والتقنية والتوعية بحيث تجرّم التشريعات إنتاج المحتوى المزيف وتفرض عقوبات صارمة على المخالفين مع تحميل منصات التواصل مسؤولية معالجة المحتوى المزيف.

وتقنياً دعت الدراسة إلى تطوير أدوات وطنية متخصصة للكشف عن التزييف ودعم الأبحاث المحلية والشركات الناشئة في هذا المجال وتعزيز الأمن السيبراني عبر تحديث آليات المصادقة الرقمية فيما أوصت توعوياً بإطلاق حملات شاملة وتدريب الكوادر وإشراك المؤثرين في نشر الوعي المجتمعي.

أحدث الأخبار
اخر الاخبار