عرضت الهيئة السعودية للبيانات والذكاء الاصطناعي، مشروع نظام لمبادئ أخلاقيات الذكاء الاصطناعي، مبينةً أنه يأتي حرصاً من المملكة على تحقيق رؤيتها واستراتيجياتها الوطنية المتعلقة باعتماد تقنيات الذكاء الاصطناعي، وتشجيع البحث والتطوير والابتكار ورفع الوعي وتعزيز النمو الاقتصادي لتحقيق الازدهار والتنمية المنشودة.

وأشارت إلى أن هذه المبادئ تم تطويرها بهدف تعزيز حوكمة البيانات والذكاء الاصطناعي؛ للحد من الآثار السلبية لأنظمة الذكاء الاصطناعي (اقتصادياً ونفسياً واجتماعياً…وغيرها) والتهديدات المحتملة (الأمنية والسياسية…وغيرها).

منهجية ونطاق التطبيق

أكد مشروع النظام المطروح لأخذ آراء العموم عبر منصة “استطلاع”، أن المبادئ الخاصة به تطبق على جميع الجهات المعنية بتطوير أو تبني الحلول المعتمدة على نطاق الذكاء الاصطناعي، ويستثنى من ذلك تطوير الحلول المعتمدة على تقنيات الذكاء الصناعي للمحافظة على الصحة العامة والمصالح الحيوية للأفراد وللمملكة.

وتنقسم منهجية تنفيذ المشاريع، أو ما أشار إليه النظام بدورة حياة نظام الذكاء الاصطناعي، إلى 4 مراحل هي التخطيط والتصميم، ثم تهيئة البيانات ثم البناء وقياس الأداء، ثم التطبيق والمتابعة.

مبادئ وضوابط أخلاقيات الذكاء الاصطناعي

تضمنت مبادئ وأخلاقيات الذكاء الاصطناعي؛ النزاهة والإنصاف عند تصميم أو جمع أو تطوير أو استخدام أنظمة الذكاء الاصطناعي، ما يتوجب معه اتخاذ الإجراءات اللازمة للقضاء على التحيز أو التمييز أو الوصم، بسبب البيانات أو التمثيل أو خوارزميات.

وأكد مشروع النظام على مبدأ الخصوصية والأمن، وهي القيم التي يُطلب بموجبها من أنظمة الذكاء الاصطناعي طوال دورتها أن تكون مبنية بطريقة آمنة وتراعي خصوصية أصحاب البيانات الشخصية التي يتم جمعها، إضافة لمنع اختراق البيانات والنظام، لمنع الإضرار بالسمعة أو أي أضرار نفسية أو مالية أو مهنية.

ومن بين المبادئ “الإنسانية”، وهو المبدأ الذي ينص على ضرورة بناء أنظمة الذكاء الاصطناعي، بمنهجية عادلة مسموح بها أخلاقيًا تستند إلى حقوق الإنسان والقيم الثقافية، وأن تُصمم النماذج التنبؤية بحيث لا تخدع أو تتلاعب، بل ينبغي لها أن تتبنى نهجًا تصميميًا أكثر تركيزًا على الإنسان.

فيما يعزز مبدأ المنافع الاجتماعية والبيئية، الأثر الإيجابي للأولويات الاجتماعية والبيئية التي يجب أن تفيد الأفراد والمجتمع، ولا ينبغي لأنظمة الذكاء الاصطناعي أن تسبب أو تسرع الضرر أو تؤثر سلبًا على البشر، بل يجب أن تسهم في تمكين التقدم الاجتماعي والبيئي، مع معالجة التحديات الاجتماعية والبيئية.

بينما يضمن مبدأ الموثوقية والسلامة، التزام نظام الذكاء الصناعي بالمواصفات، وأن يعمل وفق الآلية التي كان يقصدها مصمموه، وتمثل السلامة مقياسًا للكيفية التي لا يشكل بها نظام الذكاء الاصطناعي خطرًا على المجتمع، ويجب أن يكون موثوقًا بألا يعرض المجتمع للخطر، في ظل وجود آليات مدمجة لمنع الضرر.

وأشار مشروع النظام إلى مبدأ الشفافية والقابلية للتفسير، والذي يعني بناء أنظمة الذكاء الاصطناعي بدرجة عالية من الوضوح وقابلية التفسير، ووجود ميزات لتتبع مراحل اتخاذ القرارات، وأيضًا أن تكون البيانات والخوارزميات شفافة ومعممة للمتأثرين بشكل مباشر وغير مباشر، وقابلة للتتبع والتدقيق، كما يجب أن تكون أنظمة الذكاء الاصطناعي ومصمموها قادرين على تبرير أسس تصميمها وممارساتها وسلوكياتها المسموح بها.

ويحمّل مبدأ المساءلة والمسؤولية المصممين والموردين والقائمين على المشتريات والمطورين ومسؤولي ومقيمي أنظمة الذكاء الاصطناعي، المسؤولية الأخلاقية عن القرارات والإجراءات التي قد تؤدي إلى مخاطر محتملة وآثار سلبية على الأفراد والمجتمعات.

الأدوار والمسؤوليات على المستوى الوطني ومستوى الجهات

ويحدد إطار أخلاقيات الذكاء الاصطناعي، وفقًا لمشروع النظام، الأدوار والمسؤوليات على المستوى الوطني ومستوى الجهات، بحيث يعمل على المستوى الوطني مكتب إدارة البيانات الوطنية، بصفته الجهة التنظيمية للبيانات والذكاء الاصطناعي، على مراجعة وتحديث أخلاقيات الذكاء الاصطناعي، ومتابعة الالتزام بها، وإعداد الأدلة والمعايير والتوجيهات الوطنية التي تضمن إدارة ونشر أخلاقيات الذكاء الاصطناعي بفعالية على مستوى المملكة وتحقيق الهدف المنشود.

ويجوز أن يفوض المكتب، مهام الإشراف على مبادئ أخلاقيات الذكاء الاصطناعي وإنفاذها لقطاعات معينة، من الجهات التنظيمية المشرفة على القطاعات الرئيسية، والتي تعمل كبديل لمكتب إدارة البيانات الوطنية، فيما يتعلق بالمسؤوليات ووضع خطة اعتماد الأخلاقيات وتقديم المشورة والتوعية وقياس مدى الالتزام بالأخلاقيات، ونشر المبادئ التوجيهية أو مدونات قواعد السلوك الإضافية.

وعلى مستوى الجهات، تتحمل جميع الجهات المشمولة بنطاق التطبيق المسؤولية عن ضمان نشر وثائق أخلاقيات الذكاء الاصطناعي وفقًا لمبادئ الأخلاقيات، ويعد رئيس الجهة، أو مسؤول إدارة البيانات أو من يعيّنهم مسؤولين عن ممارسات أخلاقيات الذكاء الاصطناعي، فيما يكون مسؤول الامتثال أو الالتزام، هو القائد الاستراتيجي لممارسات أخلاقيات الذكاء الاصطناعي.

ويعد مسؤول الذكاء الاصطناعي، هو القائد التشغيلي، المسؤول عن الذكاء الاصطناعي في الجهة، ويتم توزيع هذا الدور من قبل مسؤول إدارة البيانات في الجهات العامة، فيما يتولى مطور نظم الذكاء الاصطناعي، تحديد المتطلبات وأهداف النظام وتحديد الفوائد والمنافع المحتملة وتصميم نظام ذكاء اصطناعي قوي وموثوق وغير متحيز ويتوافق مع أنظمة وقوانيين حماية البيانات، إضافة إلى غيرها من الوظائف التي حددها النظام. وفق “أخبار 24”.

مسؤوليات الجهة المسؤولة عن نظام الذكاء الاصطناعي

فيما تُعِدُّ الجهة المسؤولة عن نظام الذكاء الاصطناعي، السياسات والتوجيهات وتضع البنود التعاقدية، وتلتزم بسياسات حوكمة البيانات، وتضمن اقتصار تحليل البيانات على مستويات التصنيف، واتخاذ الإجراءات اللازمة لضمان جودة ودقة وصلاحية البيانات، وتوفير قنوات يمكن من خلالها للأفراد الحصول على تفسيرات للنتائج الهامة والقرارات التي تؤثر على مصالحهم الأساسية، وغيرها من المسؤوليات التي حددها النظام.

مسؤوليات الجهة المقيِّمة لنظام الذكاء الاصطناعي

وحدد النظام بعض المسؤوليات التي تلتزم بها الجهة المقيِّمة لنظام الذكاء الاصطناعي، بمراجعة قنوات التواصل وأوجه التفاعل مع الأطراف المعنية، وإجراء المراجعات الدورية لتوثيق عمل إجراءات أخلاقيات الذكاء الاصطناعي، والمراجعة المستمرة لمؤشرات الأداء الرئيسية لأخلاقيات الذكاء الاصطناعي وإصدار تقارير المراجعة والتدقيق بشأن تقييم أخلاقيات الذكاء الاصطناعي.

تشجيع العمل بمبادئ أخلاقيات الذكاء الاصطناعي

وأشار النظام إلى أنه لتشجيع العمل بمبادئ أخلاقيات الذكاء الاصطناعي، سيعلن مكتب إدارة البيانات الوطنية تقديم وسوم تقديرية في أخلاقيات الذكاء الاصطناعي، بأربع مستويات: برونزي، وفضي، وذهبي، وبلاتيني.