وطنا نيوز -حوكمــة الذكــــاء الاصطناعـــــي
اليوم :
Email: watananews@gmail.com
حوكمــة الذكــــاء الاصطناعـــــي
التاريخ : 10-06-2020 10:59:46 المشاهدات: 4029

بقلم : يوسـف درادكــة

يهدف هذا المقال الأبيض إلى إثراء النقاش الدائر حول تنفيذ الاعتبارات الأخلاقية في الذكاء الاصطناعي (منظومة الذكاء الاصطناعي) من خلال النظر في الوسائل والآليات الممكنة للتطبيق القيم والمبادئ الأخلاقية في التكنولوجيا التي تعتمد على الذكاء الاصطناعي والآلات التي يقودها الذكاء الاصطناعي من أجل المساهمة في بناء مجتمع الذكاء الاصطناعي محوره الإنسان. والهدف من ذلك هو تحديد النُهج لتحديد نظام الذكاء الاصطناعي للحوكمة يعزز فوائد الذكاء الاصطناعي مع النظر في المخاطر ذات الصلة التي تنشأ عن استخدام الذكاء الاصطناعي والنظم المستقلة. وتحقيقاً لهذه الغاية، فإن المفاهيم المختلفة التي يمكن تطبيقها لضمان عدم تعارض استخدام الذكاء الاصطناعي مع القيم الأخلاقية هي مفاهيم افتراضات. ويستعرض الهدف الأول من هذه الورقة بعض الشواغل الأخلاقية التي تواجهها استخدام الذكاء الاصطناعي. . الهدف الثاني يحدد ويناقش مزايا وعيوب الحوكمة المختلفة الأدوات التي يمكن استحضارها لتطبيق الأخلاقيات في تطبيقات الذكاء الاصطناعي. أما الهدف الثالث فيقدم مختلف النهج العملية لإدارة تطبيقات الذكاء الاصطناعي. بناءاً على أساس هذه الأفكار ، يختتم الهدف الرابع بتوصيات لتطوير نظام شامل لحوكمة الذكاء الاصطناعي.
الاستخدام المتزايد للذكاء الاصطناعي والأنظمة المستقلة سوف يكون لها تأثيرات ثورية على المجتمع البشري. على الرغم من الكثير من الفوائد والذكاء الاصطناعي والأنظمة المستقلة تنطوي بشكل كبير في المخاطر التي يجب أن تدار بشكل جيد للاستفادة منها مع فوائدها لحماية القيم الأخلاقية على النحو المحدد في الحقوق الأساسية والمبادئ الدستورية الأساسية ، وبذلك يحافظ على الإنسان في مجتمع مركزي. هذه الورقة البيضاء تدعو إلى الحاجة إلى إجراء متعمق للمخاطر – الفائدة تقييمات لاستخدام الذكاء الاصطناعي والأنظمة المستقلة ويشير إلى المخاوف الرئيسية المتعلقة بها ، مثل الخسائر المحتملة في الوظائف والأضرار المحتملة التي قد تسببها ، الافتقار إلى الشفافية ، والخسارة المتزايدة للبشرية في العلاقات الاجتماعية ، وفقدان الخصوصية والشخصية الاستقلالية ، انحياز المعلومات ، وكذلك وضوح الخطأ وقابلية التلاعب بالذكاء الاصطناعي والاستقلالية بنظمة. يهدف هذا التحليل إلى رفع السياسة – صناع الوعي بحيث يعالجون هذه المخاوف والتصميم نظام حوكمة مناسب لمنظومة الذكاء الاصطناعي يحافظ على مجتمع بشري مركزي. رفع الوعي النهائي ومع ذلك ، لا ينبغي أن يساء فهم التوعية بالمخاطر والمخاوف في نهاية المطاف على أنها نهج مناهض للابتكار. بدلاً من ذلك ، يجب النظر في المخاطر والمخاوف بشكل مناسب وكاف للتأكد من أن التقنيات الجديدة مثل الذكاء الاصطناعي والأنظمة المستقلة يتم بناؤها وتشغيلها بطريقة مقبولة للمستخدمين الأفراد والمجتمع البشري ككل. يؤكد تنوع أدوات صنع السياسات الممكنة على أن الشواغل الأخلاقية لا تعالج بالضرورة على أفضل وجه في التشريعات أو الاتفاقيات الدولية، ولكن ذلك يتوقف على الشواغل الأخلاقية المطروحة ، مثل هذا التنظيم البديل تدابير مثل التقييس الفني أو إصدار الشهادات يكون المفضل. للمخاوف الأخلاقية الفردية ، الثنائية قد تكون الاتفاقات التعاقدية كافية. كما هو مقترح في هذه الورقة ، نهج لتطوير الذكاء الاصطناعي البصيرة يمكن أن يكون نظام الحكم لاتباع نظام حكم متدرج نموذج لتنفيذ الاهتمامات الأخلاقية في الذكاء الاصطناعي وأنظمتة. تتكون الحوكمة الجيدة للذكاء الاصطناعي مزيج من سياسات المتوازنة مع أكبر قدر ممكن من التشريعات وأكبر قدر ممكن من الحرية ، جنبًا إلى جنب مع أنظمة إصدار الشهادات المناسبة ومعايير التكنولوجيا والحوافز النقدية. وفيما يتعلق بهذه المسألة الأخيرة، ، يجب على المنظمين بشكل خاص أن يأخذوا مسؤوليتهم ورسائلهم على محمل الجد وأن يدعموا فقط مشاريع البحث والتطوير التي تتوافق مع المبادئ والقيم الأخلاقية الأساسية.

 يوسـف درادكــة


تابعنا على تطبيق نبض
التعليقات

تنويه

 • تتم مراجعة جميع التعليقات، وتنشر عند الموافقة عليها فقط.
• تحتفظ "وطنا نيوز" بحق حذف أي تعليق، ساعة تشاء، دون ذكر الأسباب.
• لن ينشر أي تعليق يتضمن إساءة، أو خروجا عن الموضوع محل التعليق، او يشير ـ تصريحا أو تلويحا ـ إلى أسماء بعينها، او يتعرض لإثارة النعرات الطائفية أوالمذهبية او العرقية.
• التعليقات سفيرة مرسليها، وتعبر ـ ضرورة ـ عنهم وحدهم ليس غير، فكن خير مرسل، نكن خير ناشر.

لا يوجد تعليقات على هذا الخبر
اضافة تعليق
الاسم
البريد الإلكتروني
التعليق