أطلق وزير الإعلام سلمان بن يوسف الدوسري، خلال أعمال المنتدى السعودي للإعلام 2026، بالشراكة مع الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" "مبادئ أخلاقيات استخدام الذكاء الاصطناعي في الإعلام" بوصفها إطارًا وطنيًا ينظم الاستخدام المسؤول لتقنيات الذكاء الاصطناعي في القطاع الإعلامي، ويعزز موثوقية المحتوى في ظل التحولات الرقمية المتسارعة.

وتستهدف الوثيقة الجهات الحكومية والخاصة، ومنصات المحتوى الرقمي، بما في ذلك المنصات العابرة للحدود، متى ما كان المحتوى موجها أو متاحاً للجمهور داخل المملكة، كما تستهدف الوثيقة صناع المحتوى والعاملين في إنتاج أو تحرير أو نشر أو إعادة نشر المحتوى الإعلامي، إلى جانب مستخدمي وسائل الإعلام ومنصات المحتوى الرقمي عند إنتاجهم أو تداولهم أو إعادة نشرهم محتوى إعلامياً مدعوماً بالذكاء الاصطناعي، وأي محتوى إعلامي يتم إنشاؤه أو تعديله أو تحسينه أو تداوله كلياً أو جزئياً باستخدام تقنيات الذكاء الاصطناعي.

ونصت الوثيقة على حظر استخدام تقنيات الذكاء الاصطناعي لإنتاج أو نشر أو إعادة تداول محتوى تزييف عميق أو أي محتوى ضار أو مضلل أو مسيء أو احتيالي أو مخالف للأنظمة ذات العلاقة أو القيم المجتمعية أو ضوابط المحتوى المعتمدة، كما شددت الوثيقة على اتخاذ التدابير المناسبة من قبل الجهات والأفراد، كل بحسب دوره لرصد هذا النوع من المحتوى والحد من انتشاره ومعالجته عند اكتشافه.

وأكدت مبادئ الوثيقة ضرورة الإفصاح عن استخدام تقنيات الذكاء الاصطناعي في إنتاج أو تعديل أو تحسين المحتوى الإعلامي، مثل إعلام الجمهور بذلك أو استخدام العلامات المائية للمحتوى المولد بالذكاء الاصطناعي وغيرها من طرق الإفصاح، بما يتيح للجمهور إدراك طبيعة المحتوى ومصدره، ويحد من الخلط بين المحتوى الحقيقي والمحتوى المولّد بالذكاء الاصطناعي.

وشددت الوثيقة على أن يكون الإفصاح متناسباً مع طبيعة المحتوى ومستوى تأثيره المحتمل نفسياً وجسدياً وفكرياً على المستخدمين، ويعد الإفصاح ضرورياً في الحالات التي يكون فيها للمحتوى المدعوم بالذكاء الاصطناعي أثر واضح على إدراك الجمهور أو مواقفه أو سلوكه أو صحته، ولا سيما في المحتوى الإخباري أو التحليلي أو ذي التأثير العام الواسع.

وأكدت الوثيقة أن الإفصاح يشمل منصات المحتوى الرقمي ووسائل الإعلام عند النشر، وصنّاع المحتوى عند الإنشاء أو إعادة النشر، كما يشمل - عند الاقتضاء - الإفصاح عن دور الخوارزميات أو الأنظمة الآلية في توليد المحتوى أو ترتيبه أو التوصية به، لما لذلك من أثر مباشر في تشكيل الرأي العام.

وشددت الوثيقة على احترام خصوصية الأفراد وحماية بياناتهم وحقوقهم الشخصية، وعدم استخدام صورهم أو أصواتهم أو بياناتهم أو محاكاة هوياتهم باستخدام تقنيات الذكاء الاصطناعي دون مسوغ نظامي أو موافقة صريحة، وبما يتوافق مع الأنظمة ذات العلاقة بحماية البيانات الشخصية ولوائحها.

واعتبرت الوثيقة المحتويات المتعلقة بالشخصيات العامة حالات عالية الحساسية نظراً لتأثيرها الواسع في المجتمع، ويجب التعامل معها بدرجة أعلى من الحيطة، وتوفير حماية مشددة من إساءة استخدام تقنيات الذكاء الاصطناعي، بما في ذلك التزييف العميق أو انتحال الهوية أو نسبة أقوال أو أفعال لم تصدر عنهم.

ويشمل ذلك المحتوى الذي ينطوي على تشهير أو ابتزاز أو تهديد أو إساءة أو استغلال أو تضليل أو أي استخدام من شأنه الإضرار بالأفراد أو المجتمعات أو تقويض الثقة العامة في الإعلام، ولا سيما المحتوى الذي يستهدف الأطفال أو يستخدم صورهم أو أصواتهم أو بياناتهم أو يحاكيهم باستخدام تقنيات الذكاء الاصطناعي دون مسوغ نظامي، أو يعرضهم لمحتوى غير ملائم لأعمارهم أو ذي أثر نفسي أو اجتماعي ضار.

وتهدف المبادئ إلى دعم الشفافية، وحماية الخصوصية، والحد من المحتوى المضلل، من خلال وضع مبادئ توجيهية تحكم استخدام الذكاء الاصطناعي على امتداد دورة حياة المحتوى الإعلامي، بما يشمل إنتاجه، وتحريره، ونشره، وإعادة تداوله عبر وسائل الإعلام ومنصات المحتوى الرقمي، وبما يضمن الاستخدام المسؤول والآمن لهذه التقنيات في الإعلام، ويحد من المخاطر المصاحبة لها، ويحافظ على سلامة المحتوى الإعلامي، ويصون القيم المجتمعية وحقوق الأفراد.

وأكدت الوثيقة أن الجهات ومنصات المحتوى الرقمي وصنّاع المحتوى يتحملون المسؤولية عن المحتوى المدعوم بالذكاء الاصطناعي على امتداد دورة حياته، بدءاً من مرحلة الإنتاج، ومروراً بالنشر، وانتهاء بإعادة التداول، ولا يُعد استخدام تقنيات الذكاء الاصطناعي مبرراً للإعفاء من المسؤولية المهنية أو النظامية، وتطبق الجزاءات والعقوبات المنصوص عليها في الأنظمة ذات العلاقة عند وقوع المخالفات.

وشددت الوثيقة على الجهات وصناع المحتوى بالالتزام بالحياد والنزاهة عند استخدام تقنيات الذكاء الاصطناعي في إنتاج أو نشر المحتوى الإعلامي، وبما يضمن عدم توظيف هذه التقنيات على نحو يُفضّل فئة أو جهة أو رأياً على حساب غيره دون مسوغ مهني أو نظامي، كما يجب الحد من التحيزات الخوارزمية والتنميط في المحتوى الناتج عن استخدام الذكاء الاصطناعي، والعمل على ضمان العدالة والإنصاف في تمثيل الأفراد والفئات المختلفة.

وأكدت الوثيقة أنه يحظر استخدام تقنيات الذكاء الاصطناعي للإساءة أو التمييز أو التنمر أو ازدراء الأشخاص أو الجماعات، أو تعزيز الصور النمطية السلبية، أو تقويض التماسك الاجتماعي والسلم المجتمعي.

وأوضحت الوثيقة الفرق بين المحتوى المدعوم بالذكاء الاصطناعي والمحتوى المضلل والتزييف العميق، فعرفت "المحتوى المدعوم بالذكاء الاصطناعي" بأنه أي محتوى إعلامي يتم إنشاؤه أو تعديله أو تحسينه كلياً أو جزئياً باستخدام تقنيات الذكاء الاصطناعي، فيما يُقصد بـ"التزييف العميق" أي محتوى اصطناعي يتم إنشاؤه باستخدام تقنيات الذكاء الاصطناعي لمحاكاة أو تقليد أشخاص حقيقيين في الصوت أو الصورة أو الفيديو.

وعرفت "المحتوى المضلل" بأنه أي محتوى يتضمن معلومات غير صحيحة أو مفبركة أو محرفة يتم إنتاجه أو نشره أو إعادة نشره بقصد التضليل أو الخداع أو التأثير غير المشروع على الرأي العام أو سمعة الأفراد أو مواقفهم أو قراراتهم.

كما بينت عددا من المصطلحات، فعرفت "المحتوى المغلوط" بأنه "أي محتوى يتضمن معلومات غير صحيحة أو منقوصة أو منزوعة من سياقها، يتم إنتاجه أو نشره أو إعادة نشره دون نية مسبقة للتضليل أو الإضرار، وغالباً ما يكون ناتجاً عن خطأ أو سوء فهم أو نقل غير دقيق للمعلومة"، أما "المحتوى الاحتيالي" فهو أي محتوى يتضمن تمثيلات كاذبة أو منتحلة للهوية بقصد الاحتيال أو الخداع أو الاستيلاء غير المشروع على أموال أو بيانات أو منافع.

وحددت الوثيقة آلية التعامل في حال الاشتباه بوجود محتوى تزييف عميق، أو محتوى مضلل أو ضار ناتج عن استخدام تقنيات الذكاء الاصطناعي، أو وقوع أي خرق خاضع للأنظمة أو ضوابط المحتوى المعمول بها، حيث شددت على ضرورة الإبلاغ عن هذه المحتويات عبر القنوات المعتمدة لدى الجهة التنظيمية المختصة أو المنصة الإعلامية المعنية، بما يضمن سرعة الاستجابة ودقة المعالجة.

وشددت على ضرورة اتخاذ التدابير الفورية من قبل الجهات الإعلامية أو منصات المحتوى الرقمي لوقف نشر المحتوى المخالف أو تقييد الوصول إليه إلى حين التحقق من حالته، والتعاون مع الجهات المختصة في تقديم المعلومات اللازمة للتحقق والمعالجة، بما في ذلك مصادر المحتوى وآليات إنتاجه أو تداوله متى ما طلب ذلك نظاماً، إلى جانب معالجة الأثر الناتج عن المحتوى المخالف، بما يشمل التصحيح أو الإزالة أو التنويه عند الاقتضاء، وبما يحفظ حقوق المتضررين ويعزز الثقة العامة، وتعزيز الإجراءات الوقائية لمنع تكرار مثل هذه الحالات مستقبلاً، بما يشمل مراجعة السياسات الداخلية وآليات الرصد والتدقيق.