تسجيل الدخول

وسام العباسي

رسالة الدكتوراة

​البشر أصبحوا يعتمدون بشكل متزايد على مساعدة الأنظمة الذكية. تُستخدم هذه الأنظمة لتحليل وربط كميات هائلة من البيانات المتاحة بشكل تلقائي، بما في ذلك البيانات الحساسة جدًا، من أجل إنتاج نتائج دقيقة تُستخدم لاتخاذ قرارات مهمة أو استراتيجية. ومع ذلك، فإن هذه الأنظمة التحليلية تثير بعض المخاوف المتعلقة بالثقة، مثل احترام خصوصية المستخدمين وضمان الشفافية في معالجة البيانات واتخاذ القرارات.

لبناء الثقة في أنظمة الذكاء الاصطناعي، نسعى إلى تطوير منهجية لتحسين النمذجة واحترام الجوانب الأخلاقية والاجتماعية والقانونية من منظور كلٍّ من النظام الذكي والإنسان. إن فهمًا أعمق لتأثير أنظمة الذكاء الاصطناعي على الثقة، بالإضافة إلى الإرشادات والتنظيمات الخاصة بالذكاء الاصطناعي الموثوق، ومتطلبات تحقيق الذكاء الاصطناعي الموثوق وآليات تطبيقه الحديثة، سيساهم في تطوير منهجٍ منهجي لتعزيز موثوقية أنظمة الذكاء الاصطناعي.

في الآونة الأخيرة، قامت العديد من الجهات، مثل المؤسسات والمنظمات الحكومية، بما في ذلك المفوضية الأوروبية ومنظمة التعاون الاقتصادي والتنمية بإطلاق مبادرات تهدف إلى تحليل تأثير أنظمة الذكاء الاصطناعي وتوفير مبادئ تصميم وإرشادات لتطوير أنظمة ذكاء اصطناعي موثوقة. وبينما قد تختلف الأسباب التي تدفع إلى إعطاء الأولوية لمتطلبات الذكاء الاصطناعي الموثوق مثل خصوصية البيانات وصلابة النماذج، فإن المبادئ الأساسية تشير إلى وجود تحدٍ مشترك. ويرجع ذلك إلى أن بعض هذه المتطلبات قد تتعارض فيما بينها، مثل أن تعزيز جانب الخصوصية قد يؤدي إلى تقليل صلابة النموذج. ومع ذلك، تظل هذه العناصر ذات أهمية بالغة لأنها تشكّل الأساس لمفهوم الذكاء الاصطناعي الموثوق.

ولذلك، نقترح تحليل مبادئ ومتطلبات الذكاء الاصطناعي الموثوق، والتحقيق في مدى إمكانية تطبيق الآليات المتعلقة بالثقة ضمن مراحل دورة حياة الذكاء الاصطناعي، ودراسة العلاقات بين متطلبات الذكاء الاصطناعي الموثوق، وتطوير منهجيات لتحقيق التوازن بين هذه المتطلبات والوصول إلى أفضل مقايضة ممكنة بين جميع المتطلبات وتكويناتها التطبيقية.

تهدف هذه الدراسة إلى معالجة جوانب متعددة من مشكلة نمذجة الثقة في أنظمة الذكاء الاصطناعي. أولًا، نأخذ في الاعتبار متطلبات الذكاء الاصطناعي الموثوق التي وردت في الإرشادات الأخلاقية للذكاء الاصطناعي الموثوق باعتبارها عناصر أساسية في عملية التحليل. وبناءً على ذلك، نطبّق الآليات ذات الصلة عبر جميع مراحل دورة حياة الذكاء الاصطناعي. ونتيجة لذلك، نتوقع وجود تباين بين الآليات المطبّقة لتحقيق مبادئ الثقة في الذكاء الاصطناعي. لذا، نقترح وضع معايير للمقايضة بين مقاييس الثقة لهذه الآليات، وذلك من خلال ضبط معلمات إدخالها وتحليل تأثيرها للوصول إلى تحسينٍ أمثلٍ للمقايضة.




اتصل بنا

آخر الأخبار