استناداً إلى اختصاصات وزارة النقل والاتصالات وتقنية المعلومات الصادرة بالمرسوم السلطاني رقم (٩٠ / ٢٠٢٠) المتعلقة بالعمل على نقل وتوطين التكنولوجيا المتقدمة في صناعة تقنية المعلومات، وتحقيق الاستفادة منها، وانطلاقًا من حرص الوزارة على حوكمة استخدام وتطوير أنظمة الذكاء الاصطناعي في سلطنة عُمان، قامت هذه الوزارة بإعداد سياسة عامة للاستخدام الآمن والأخلاقي لأنظمة الذكاء الاصطناعي وتشمل الضوابط والاشتراطات الفنية والمبادئ الأخلاقية بهدف ضمان الاستخدام المسؤول والآمن لهذه الأنظمة بما يعزز الثقة في تقنيات الذكاء الاصطناعي ويسهم في دعم الابتكار.
وعلى وحدات الجهاز الإداري للدولة ومؤسسات القطاع الخاص الخاضعة للتنظيم من قبل الجهات التنظيمية التي تعمل على تطوير أو استخدام أنظمة الذكاء الاصطناعي الالتزام بالتالي:
١. الالتزام بالضوابط الفنية والمبادئ الأخلاقية الواردة في هذه السياسة بما في ذلك أنظمة الذكاء الاصطناعي التوليدي.
٢. إجراء تقييم دوري لأداء الأنظمة لضمان تحقيق دقة النتائج ومعالجة أي تحيزات أو محتوى ضار قد ينشأ.
٣. توفير آليات إشراف بشري فعّالة على القرارات الهامة التي تتخذها أنظمة الذكاء الاصطناعي، مع ضمان إمكانية تفسير وتحليل نتائج هذه الأنظمة وتأثيراتها المحتملة على الأفراد والمجتمع.
٤. يجب أن تكون الأنظمة المستخدمة فعالة وتحقق قيمة مضافة ملموسة في المجالات التي يتم تطبيقها فيها وعلى الجهات المعنية إجراء تقييم موضوعي للأنظمة لضمان ملاءمتها مع احتياجات الجهة وأهدافها التشغيلية.
ه. ضمان الامتثال الكامل للقوانين واللوائح المتعلقة بحماية البيانات الشخصية، مع تقييد استخدام هذه البيانات فقط للأغراض المحددة والمصرح بها واتخاذ كافة التدابير التقنية لحمايتها من أي استخدام غير قانوني أو غير مصرح به.
٦. توثيق جميع مراحل استخدام وتطوير أنظمة الذكاء الاصطناعي بشكل كامل، مع الاحتفاظ بجميع الوثائق اللازمة للرجوع إليها عند الحاجة وتقديم هذه الوثائق للجهات التنظيمية في حال طلبها.
٧. اتباع أفضل ممارسات الأمن السيبراني لحماية الأنظمة وبياناتها من التهديدات المحتملة وتحديثها بشكل دوري للتأكد من خلوها من الثغرات الأمنية.
ويرجى من جميع الجهات ذات العلاقة بسلطنة عُمان الأخذ بكافة الضوابط والاشتراطات الواردة في الوثيقة (المرفقة). ولمزيد من المعلومات يمكن التواصل مع المختصين في هذه الوزارة من خلال البريد الإلكتروني [email protected]).
والله ولي التوفيق،،،
م. سعيد بن حمود بن سعيد المعول
وزير النقل والاتصالات وتقنية المعلومات
صدر في: ١٠ شوال ١٤٤٦هـ
الموافق ٩ أبريل ٢٠٢٥م
السياسة العامة للاستخدام الآمن والأخلاقي لأنظمة الذكاء الاصطناعي
أبريل ٢٠٢٥م
الإصدار والتوزيع:
جهة الإصدار | البريد الالكتروني | تاريخ الإصدار |
المديرية العامة للسياسات والحوكمة وزارة النقل والاتصالات وتقنية المعلومات |
[email protected] | ٢٠٢٥ |
سجل الوثيقة:
النسخة | التاريخ | جهة الإصدار | الملاحظات |
٢٠٢٥ | ٠,١ | وزارة النقل والاتصالات وتقنية المعلومات |
قائمة النشر:
١. جميع وحدات الجهاز الإداري للدولة
المقدمة
يشكل الذكاء الاصطناعي أداة محورية لتحسين الكفاءة والإنتاجية وتعزيز التنمية المستدامة في مختلف القطاعات.
ومع ذلك، فإن التطور المتسارع في قدراته والتوسع الكبير في استخداماته يثير قضايا أساسية تتعلق بالخصوصية الأمان الثقة، والقيم الأخلاقية.
التوجه الاستراتيجي لسلطنة عمان في مجال الذكاء الاصطناعي يقوم على مبدأ تحفيز الابتكار، وترسيخ الاستخدام الآمن والأخلاقي لهذه التقنية، وتمكين الشركات التقنية الناشئة من تطوير حلول وخدمات مبتكرة تعتمد على الذكاء الاصطناعي.
حيث تأتي هذه السياسة لوضع إطار وضوابط أخلاقية منبثقة من البرنامج الوطني للذكاء الاصطناعي والتقنيات الرقمية المتقدمة، والذي يمثل برنامج وطني شامل يراعي الجوانب الاقتصادية والاجتماعية، بما يتماشى مع المستجدات العالمية في ميدان الذكاء الاصطناعي، خاصة في ظل ظهور تقنيات الذكاء الاصطناعي التوليدي كما يشمل البرنامج الوطني على مجموعة من البرامج والمبادرات المتخصصة في مجال الذكاء الاصطناعي، متوافقة مع التوجهات الوطنية وتتماشى مع رؤية عُمان ٢٠٤٠.
وتؤكد هذه السياسة على وضع أسس لاستخدام أنظمة الذكاء الاصطناعي محورها الإنسان وخصوصية المجتمع، والتي تضمن احترام حقوق الإنسان الأساسية مثل الخصوصية، المساواة، العدالة، والحفاظ على الكرامة الإنسانية بما لا يتنافى مع المبادئ الإسلامية.
بالإضافة إلى ذلك، تعزز هذه السياسة الثقة في أنظمة الذكاء الاصطناعي من خلال ضمان استخدامها وبياناتها بشكل آمن وأخلاقي، وتسعى إلى تعزيز قدرات القطاعين العام والخاص في تبني الضوابط الأخلاقية، بما يسهم في تعزيز مكانة سلطنة عمان التنافسية إقليمياً ودولياً، ودعمها كمنصة للابتكار الرقمي وقياس الجاهزية والنضوج في مجال الذكاء الاصطناعي.
التعاريف والمصطلحات
الوزارة: وزارة النقل والاتصالات وتقنية المعلومات.
الذكاء الاصطناعي (Artificial Intelligence أو AI): هو مجال من مجالات علوم الحاسوب والذي يركز على تطوير تقنيات وخوارزميات وأنظمة تعمل على تحليل البيانات، والتعلم منها، ومحاكاة بعض القدرات الإدراكية البشرية مثل الرؤية، وفهم اللغة، وحل المشكلات واتخاذ القرارات. كما يمكن لهذه الأنظمة أداء مهام معينة بناءً على تحليل الأنماط واستنتاج الحلول من البيانات المتاحة تتباين تطبيقات الذكاء الاصطناعي بين المجالات الضيقة، التي تركز على مهام محددة والعامة، التي تسعى لمحاكاة الذكاء البشري بشكل شامل.
الذكاء الاصطناعي التوليدي (Generative Artificial Intelligence أو GenAI): الذكاء الاصطناعي التوليدي هو فرع حديث من الذكاء الاصطناعي يعتمد على الشبكات العصبية الاصطناعية لإنتاج محتوى جديد أو مشتق من بيانات التدريب الخاصة به. يعمل هذا النوع من الذكاء الاصطناعي من خلال تعلم الأنماط والخصائص من البيانات الأصلية المتاحة، ثم إعادة تطبيقها بطرق مبتكرة لإنتاج محتوى جديد يعكس أنماط وخصائص البيانات التي تم تدريبه عليها. يعتمد الذكاء الاصطناعي التوليدي على مجموعات بيانات كبيرة ومتنوعة، مما يمكنه من توليد نصوص وصور وموسيقى، وأشكال أخرى من المحتوى استناداً إلى أنماط تعلمها من بيانات التدريب مع إمكانية إنتاج محتوى جديد ومبتكر.
أنظمة الذكاء الاصطناعي: برامج أو أجهزة حاسوبية تستخدم الذكاء الاصطناعي لأداء مهام محددة، مع القدرة على العمل بمستويات متفاوتة من الاستقلالية، بدءً من الأنظمة التي تتطلب إشرافاً بشرياً مستمراً، وصولاً إلى الأنظمة القادرة على التكيف واتخاذ قرارات بناءً على مدخلاتها دون تدخل مباشر أخلاقيات الذكاء الاصطناعي: مجموعة من المبادئ والقيم التي توجه تصميم تطوير واستخدام أنظمة الذكاء الاصطناعي بما يحقق الفائدة للبشرية، يُقلل المخاطر، ويحترم حقوق الإنسان مثل العدالة الخصوصية والمساواة.
الجهة المستخدمة لأنظمة الذكاء الاصطناعي: أي مؤسسة حكومية أو خاصة تقوم باستخدام أو تشغيل أنظمة الذكاء الاصطناعي لتحقيق أهداف معينة.
الجهة المطورة لأنظمة الذكاء الاصطناعي: أي مؤسسة حكومية أو خاصة تقوم بتطوير أنظمة الذكاء الاصطناعي.
البيانات: مجموعة من الحروف الأرقام الرموز أو الصور المستخدمة في تحليل وتطوير أنظمة الذكاء الاصطناعي لتوفير حلول وتوقعات تتعلق بالجوانب الاقتصادية، الاجتماعية، أو التقنية.
البيانات الشخصية: البيانات التي تجعل شخصا طبيعيا معرفا أو قابلا للتعريف بطريقة مباشرة أو غير مباشرة وذلك بالرجوع إلى معرف، أو أكثر كالاسم، أو الرقم المدني، أو بيانات المعرفات الإلكترونية، أو البيانات المكانية، أو بالرجوع إلى عامل أو أكثر خاص بالهوية الجينية، أو الجسدية، أو العقلية، أو النفسية، أو الاجتماعية، أو الثقافية، أو الاقتصادية.
العدالة: ضمان أن يتم تصميم أنظمة الذكاء الاصطناعي واستخدامها بشكل عادل وموضوعي، بما يضمن تمثيلا متساويًا لجميع الفئات في البيانات المستخدمة، وتجنب التحيز أو التمييز في النتائج أو القرارات الناتجة عن هذه الأنظمة.
الشفافية: ضمان أن تكون أنظمة الذكاء الاصطناعي مصممة ومستخدمة بطريقة تتيح فهما واضحاً لآليات عملها وأسباب اتخاذ القرارات، مع توفير إمكانية شرح العمليات والمراحل المختلفة لجميع الأطراف المعنية، وضمان تتبع القرارات المهمة وتأثيرها، وتوضيح كيفية استخدام النتائج بما يعزز الثقة والمساءلة.
المساءلة / المسؤولية: ضمان خضوع أنظمة الذكاء الاصطناعي لمراقبة دقيقة وتقييم دوري لتأثيراتها، مع تحميل الجهات المطورة والمستخدمة المسؤولية الكاملة عن نتائجها، بما يشمل معالجة الأخطاء المحتملة وتوفير آليات واضحة للاعتراض على القرارات التي تؤثر على الأفراد أو المجتمع أو المؤسسات.
الشمولية: ضمان أن تكون أنظمة الذكاء الاصطناعي مصممة ومستخدمة بطريقة تضمن تمثيلاً عادلاً لجميع الفئات المجتمع دون تحيز أو تمييز، سواء في جمع البيانات أو تحليلها أو استخدام النتائج.
الإنسانية: ضمان أن تكون أنظمة الذكاء الاصطناعي مصممة ومستخدمة بطريقة تعزز القيم الإنسانية الأساسية مثل الكرامة المساواة والعدالة مع حماية حقوق الإنسان الأساسية. وتشمل الإنسانية احترام حق الأفراد في التدخل البشري في القرارات التي تؤثر بشكل مباشر على حياتهم أو حقوقهم، وضمان أن تخدم الأنظمة مصالح البشرية ككل دون الإضرار بالفئات أو المجتمعات.
القابلية للتفسير (Explainability): قدرة أنظمة الذكاء الاصطناعي على تقديم مبررات واضحة ومفهومة لقراراتها ونتائجها، مما يتيح فهم آلية عملها، ويعزز الشفافية والثقة في استخدامها.
أهداف السياسة
تهدف السياسة إلى حوكمة استخدام وتطوير أنظمة الذكاء الاصطناعي في سلطنة عمان من خلال وضع إطار شامل يجمع بين الضوابط الفنية المبادئ الأخلاقية، لضمان الاستخدام المسؤول والآمن لهذه الأنظمة مما يعزز الثقة في هذه الأنظمة ويسهم في دعم الابتكار وتحقيق التنافسية على المستويين الإقليمي والدولي.
نطاق التطبيق
تطبق هذه الوثيقة على جميع الوحدات الحكومية ومؤسسات القطاع الخاص الخاضعة للتنظيم من قبل الجهات التنظيمية التي تعمل على تطوير أو استخدام أنظمة الذكاء الاصطناعي وتشمل مراحل التطبيق جمع البيانات تصميم الأنظمة، التدريب، التشغيل والتقييم المستمر.
بنود السياسة
أولا: البنود العامة:
١. تلتزم الجهات المعنية الخاضعة لأحكام هذه السياسة بالامتثال الكامل للضوابط الفنية والمبادئ الاخلاقية الواردة في هذه السياسة لاستخدام وتطوير أنظمة الذكاء الاصطناعي بما في ذلك أنظمة الذكاء الاصطناعي التوليدي.
٢. تلتزم الجهات المستخدمة والمطورة للذكاء الاصطناعي بتقييم أداء أنظمة الذكاء الاصطناعي بما فيها أنظمة الذكاء الاصطناعي التوليدي بشكل دوري، لضمان الالتزام بالضوابط الفنية والمبادئ الأخلاقية للسياسة لضمان سلامة البيانات ونزاهة ودقة المخرجات ومعالجة التحيزات والمحتوى الضار.
٣. تلتزم الوزارة بتهيئة البيئة التشريعية الداعمة استخدام وتطوير أنظمة الذكاء الاصطناعي، وتسهم في خلق بيئة محفزة للابتكار التقني في سلطنة عمان.
٤. تلتزم الجهات التنظيمية بمواءمة أحكام هذه الوثيقة مع وثائقها التنظيمية وتعميمها على جميع المؤسسات التابعة لها أو المرتبطة بها بما يحقق التكامل ويضمن تحقيق الهدف المنشود من هذه السياسة.
٥.يحق للجهات التنظيمية بعد أخذ موافقة الوزارة وضع أحكام إضافية لتنظيم استخدام تقنيات وخوارزميات الذكاء الاصطناعي بما لا يتعارض مع بنود هذه السياسة.
ثانيا: ضوابط واشتراطات استخدام أنظمة الذكاء الاصطناعي:
تلتزم الجهات المستخدمة لأنظمة الذكاء الاصطناعي بالآتي:
١. توفير آليات للإشراف والتحكم البشري في القرارات الحساسة والمؤثرة التي تتخذها أنظمة الذكاء الاصطناعي وضمان إمكانية تفسير وتتبع وتحليل النتائج المترتبة على هذه الأنظمة وتأثيراتها على الأفراد والمجتمع والمؤسسات.
٢. ضمان أن تكون أنظمة الذكاء الاصطناعي المستخدمة ذات جدوى عملية وفائدة واضحة مقارنة بالبدائل المتاحة، بحيث تحقق قيمة مضافة ملموسة من حيث الكفاءة أو الجودة أو التكلفة. ويجب تقييم الأنظمة بشكل موضوعي قبل تبنيها، للتأكد من توافقها مع احتياجات الجهة المعنية وأهدافها التشغيلية.
٣. تلتزم الجهات المستخدمة لأنظمة الذكاء الاصطناعي بضمان قدرة هذه الأنظمة على تقديم تفسيرات مفهومة للقرارات التي تتخذها، خاصة في التطبيقات المؤثرة على الأفراد، مثل التوظيف، الصحة والخدمات المالية.
٤. مراقبة أداء أنظمة الذكاء الاصطناعي بشكل مستمر، مع توثيق أي أخطاء أو انحرافات أو آثار سلبية فور رصدها، واتخاذ الإجراءات التصحيحية اللازمة.
ه. تقديم جميع الوثائق والمعلومات ذات الصلة باستخدام النظام إلى الجهات التنظيمية للتحقق من الامتثال للمعايير في حال وجود تحقيق رسم حول ما قد ينتج عن توظيف الذكاء الاصطناعي.
٦. تقييد استخدام البيانات الشخصية في انظمة الذكاء الاصطناعي بما يتوافق مع القوانين واللوائح المحلية، وضمان استخدامها فقط للأغراض المحددة والمصرح بها واتخاذ التدابير اللازمة لضمان حمايتها من أي استخدام غير قانوني أو غير مصرح به.
٧. تصنيف البيانات المستخدمة في أنظمة الذكاء الاصطناعي لضمان الحماية المناسبة مع اتباع إجراءات أمنية متقدمة لتأمين البيانات المصنفة مثل التشفير والمصادقة المتعددة واستخدام تقنيات إخفاء الهوية لضمان حماية البيانات.
٨. يجب أن تكون الأنظمة شفافة في آلية اتخاذ القرارات مع وجود آليات للمساءلة وتوثيق جميع الإجراءات لضمان قابلية التحقق والتحليل في المستقبل.
٩. تطبيق سياسات واضحة لإدارة البيانات والاحتفاظ بها، بما يشمل فترات الاحتفاظ الموصى بها وضمان الحذف الآمن عند انتهاء الحاجة إليها.
١٠. تقييد استخدام نتائج تحليل النتائج على الغرض الذي استخدمت من أجله أنظمة الذكاء الاصطناعي، وأن يكون الغرض متوافق مع الأسباب والاهداف التي تمت عليه.
ثالثا: ضوابط واشتراطات تطوير أنظمة الذكاء الاصطناعي:
تلتزم الجهات المطورة لأنظمة الذكاء الاصطناعي بالآتي:
١. توثيق عملية تطوير أنظمة الذكاء الاصطناعي بشكل شفاف وواضح، بما في ذلك الغرض من النظام والتقنيات والبيانات المستخدمة فيه، والاحتفاظ بهذه الوثائق للرجوع إليها عند الحاجة.
٢. مراعاة تطوير حلول مستدامة بيئياً وتقنياً، تضمن تقليل الأثر البيئي واستدامة أداء الأنظمة على المدى الطويل.
٣. إجراء تقييم للأثر الأخلاقي، والاجتماعي والبيئي لأنظمة الذكاء الاصطناعي قبل نشرها واستخدامها والاحتفاظ بنتائج هذا التقييم ضمن وثائق النظام.
٤. ضمان الشفافية في المحتوى المتولد واتخاذ تدابير لمنع استخدام الأنظمة في توليد محتوى ضار أو مضل مع توفير آليات للكشف عن المحتوى التوليدي من خلال وضع علامات مميزة أو إشعارات توضيحية لضمان عدم إساءة استخدامه.
ه. ضمان الشفافية في آلية عمل الخوارزميات من خلال توفير وثائق تشرح منطق اتخاذ القرارات وعملية تحليل البيانات.
٦. الالتزام بمراجعة الأنظمة وتحديثها بانتظام لتواكب أحدث التطورات التقنية والمعايير الدولية.
٧. إجراء تقييمات دورية للتحقق من دقة النظام بما في ذلك مراجعات تقنية مستقلة لضمان تحسين الأداء.
٨. تقديم جميع الوثائق والمعلومات ذات الصلة بتطوير النظام إلى الجهات التنظيمية للتحقق من الامتثال للمعايير في حال وجود تدقيق أو تحقيق رسمي.
٩. مراقبة وتقييم التحيزات المحتملة في مخرجات النظام بشكل مستمر، وضمان اتخاذ تدابير لتقليل التحيزات المرتبطة بالبيانات أو الخوارزميات من خلال إجراء اختبارات للتحقق من العدالة والشمولية في النتائج التي يولدها النظام.
١٠. وضع ضوابط حماية تضمن الخصوصية وأمن البيانات باستخدام آليات مثل التحكم في الوصول وتشفير البيانات.
١١. توفير أدوات وتقارير تحليلية توضح كيفية اتخاذ القرارات، وتُمكّن الجهات التنظيمية والمستخدمين من تقييم منطق عمل النظام والتحقق من نزاهته ودقته.
١٢. منح الأفراد حق الوصول إلى بياناتهم بما في ذلك القدرة على مراجعة سجلات المعالجة، وتصحيح الأخطاء، أو حذف البيانات عند الطلب، مع ضمان توفير واجهات سهلة الاستخدام لهذه الإجراءات.
١٣. استخدام أفضل ممارسات الأمن السيبراني لمواجهة التهديدات، مثل تحديث البرمجيات بانتظام وتنفيذ اختبارات اختراق دورية.
المبادئ الأخلاقية لاستخدام وتطوير أنظمة الذكاء الاصطناعي:
أ. الإنسانية والمجتمع:
١. احترام كرامة الإنسان وضمان حقه في التدخل البشري عند اتخاذ القرارات الحساسة التي قد تؤثر بشكل مباشر على حياته، أو سلامته، أو حقوقه.
٢. تسخير تقنيات الذكاء الاصطناعي لتحقيق رفاهية المجتمع، مثل تطوير حلول ذكية في مجالات الصحة والتعليم والعمل الاجتماعي.
٣. تعزيز استخدام أنظمة الذكاء الاصطناعي في تحقيق التنمية المستدامة وحماية البيئة، من خلال تحسين كفاءة استهلاك الطاقة، وعدم استنزاف الموارد الطبيعية، وتقليل التلوث بأنواعه.
٤. مراعاة الأبعاد الاقتصادية والاجتماعية للاستخدام الواسع لهذه التقنيات، مع وضع سياسات لضمان أن الفوائد التي يتم تحقيقها من هذه التقنيات يتم توزيعها بشكل عادل عبر مختلف الفئات الاجتماعية وضمان ألا تساهم هذه التقنيات في زيادة الفوارق الاقتصادية.
ب. الشمولية والعدالة:
١.تصميم أنظمة تضمن عدم التحيز بناءً على العرق، الجنس الدين، أو أي سمة شخصية أخرى، من خلال تطبيق تقنيات تدقيق الخوارزميات واستبعاد العوامل التي قد تؤدي إلى التمييز بما يتماشى مع المبادئ الإسلامية والقيم الأخلاقية.
٢. ضمان تنوع البيانات المستخدمة في تدريب الأنظمة، بما يشمل تمثيل فئات مختلفة من المجتمع، مثل الأقليات والأفراد ذوي الإعاقة لضمان تحقيق العدالة والشمولية.
٣. ضمان إتاحة التقنيات للجميع بشكل عادل من خلال التعاون بين الحكومة والقطاع الخاص لتوفير هذه التقنيات بأسعار معقولة، ومنصفة، مع التركيز على تعزيز الوصول للفئات ذات الدخل المحدود.
ت. المسؤولية والمساءلة:
١. ضمان ان الانظمة آمنة من الاختراقات ولا ينتج عنها اي ضرر جسدي أو نفسي.
٢. توفير آليات واضحة وفعالة للمساءلة عند حدوث أخطاء أو أضرار ناجمة عن استخدام مع التأكد من وصول سهل وواضح لمستخدمين إلى قنوات تقديم الشكاوى الأنظمة، ومعالجتها بشكل عادل وشفاف.
٣. ضمان إمكانية التدقيق للأنظمة لضمان التزامها بالمعايير الأخلاقية، باستخدام أدوات مثل تقارير المراجعة وسجلات الأداء ومراجعات الجهات المستقلة.
٤. استخدام أدوات تقنية لضمان الشفافية، مثل توثيق عمليات اتخاذ القرار داخل النظام، ونشر تقارير دورية تُبرز أداء الأنظمة وإجراءات تحسينها بمشاركة المستخدمين والجهات المعنية.
٥. توفير آلية لتمكين تتبع مصادر البيانات ومعايير استخدامها، بحيث يصبح من الممكن تحليل المحتوى المنتج وفهم تأثيراته، مما يعزز الثقة في الأنظمة ويضمن المسؤولية في استخدامها.
إدارة السياسة
١. تعود ملكية هذه السياسة إلى وزارة النقل والاتصالات وتقنية المعلومات وستخضع للمراجعة كلما اقتضت الحاجة ذلك.
٢. تدخل السياسة حيز التطبيق اعتبارا من تاريخ اعتمادها وتعميمها من وزارة النقل والاتصالات وتقنية المعلومات
الالتزام بالسياسة
١. تتولى وزارة النقل والاتصالات وتقنية تقنية المعلومات مراقبة التزام وحدات الجهاز الاداري للدولة بالسياسة وعرض نتائج التقيد والالتزام لمجلس الوزراء.
٢. تتولى الجهات التنظيمية مراقبة التزام المؤسسات في القطاعات التي تشرف عليها بالسياسة.
الإصدارات ذات الصلة
– قانون حماية البيانات الشخصية (٢٠٢٢).
– اللائحة التنفيذية لقانون حماية البيانات الشخصية (٢٠٢٤).
– البرنامج الوطني للذكاء الاصطناعي والتقنيات الرقمية المتقدمة (٢٠٢٤).
– سياسة حماية البيانات الشخصية لوحدات الجهاز الإداري للدولة (٢٠٢٤).
– إطار عمل إدارة مخاطر تقنية المعلومات (٢٠١٤).