سياسة أخلاقيات الذكاء الاصطناعي
يؤكد معهد السلامة للتدريب والتعليم التزامه الكامل بسياسات وأخلاقيات الذكاء الاصطناعي الصادرة من الجهات التنظيمية في المملكة العربية السعودية، ويحرص على تطبيقها في بيئة التدريب الإلكتروني بما يحقق الاستخدام الآمن والعادل للتقنيات الحديثة.
1. المبادئ الأساسية:
- الشفافية: توضيح آلية عمل أي نظام يعتمد على الذكاء الاصطناعي داخل المنصة.
- العدالة: تجنّب التحيز أو التمييز في نتائج أي نظام تقني يُستخدم لتحليل أو تقييم المتدربين.
- الخصوصية: حماية البيانات الشخصية وضمان استخدامها فقط لأغراض تعليمية مشروعة.
- المساءلة: وجود آلية لمتابعة مدى التزام الأدوات الذكية بالسياسات الأخلاقية.
2. استخدام الذكاء الاصطناعي:
عند استخدام أدوات الذكاء الاصطناعي (مثل أنظمة التصحيح التلقائي أو التوصيات التعليمية)، يلتزم المعهد بما يلي:
- الإفصاح عن استخدام الذكاء الاصطناعي في وظائف المنصة.
- عدم استخدام أدوات تولد قرارات مصيرية بدون تدخل بشري.
- توفير وسيلة لطلب المراجعة اليدوية من قبل المتدرب عند الحاجة.
3. التوعية والالتزام:
يقوم المعهد بتوعية الكادر التدريبي والتقني حول سياسات الذكاء الاصطناعي الأخلاقية ويُلزمهم بتطبيقها عند تصميم أو استخدام أي نظام ذكي داخل بيئة التدريب.
وبهذا يؤكد معهد السلامة للتدريب والتعليم دعمه التام لتبني الذكاء الاصطناعي ضمن إطار أخلاقي، يحترم القيم الإسلامية والمبادئ الإنسانية.