مبادئ دبي للذكاء الاصطناعي
مبادئ دبي للذكاء الاصطناعي

ما هي مبادئ استخدام الذكاء الاصطناعي في دبي؟

ما الأهداف الرئيسية التي يتعين وجودها في نظام الذكاء الاصطناعي؟ ما السلوكيات الواجب عليه التحلي بها، وما القيم التي يتعين عليه اتّباعها؟ تمثل مبادئنا الأربعة غير الملزمة للذكاء الاصطناعي محاولة منا للإجابة على مثل هذه الأسئلة بالغة الأهمية.

ولعل هذه الأحكام العامة توضِّح تطلعاتنا وخططنا المتعلقة بأنظمة الذكاء الاصطناعي التي يزيد ذكاؤها وتداخلها في حياتنا اليومية بحيث أصبحت جزءًا لا يتجزأ منها. وتشمل مبادئنا الأربعة الرئيسية مبادئ أخرى فرعية تساعدنا على تحديد أهدافنا بوضوح أكبر فيما يخص تصميم أنظمة الذكاء الاصطناعي وسلوكها.

ونود أن تضع هذه المبادئ أسسًا مشتركة للتوصل إلى اتفاق عام يتيح للبيئات الصناعية والأكاديمية والأفراد التنقل على نحو مدروس في عالم الذكاء الاصطناعي سريع التطور. نعتبر هذه المبادئ عملاً تعاونيًّا قيد التنفيذ، ويسعدنا تلقي ملاحظاتكم القيّمة للمساعدة في تنقيحها.

  •                  الأخلاقيات               الأخلاقيات
  •                  الأخلاقيات               الأخلاقيات
  •                  البشرية               البشرية
  •                  الشمولية               الشمولية
                 الأخلاقيات               الأخلاقيات

سنجعل أنظمة الذكاء الاصطناعي عادلة

1. يجب أن تمثّل البيانات التي يتلقاها النظام الفئة المتأثرة، حيثما أمكن

2. يجب أن تتجنب الخوارزميات التحيز غير التشغيلي

3. يجب اتخاذ الإجراءات التي تحد من وتقوم بتقييم أي انحياز في مجموعات البيانات

4. يجب إثبات عدالة القرارات الهامة

سنجعل أنظمة الذكاء الاصطناعي قابلة للمساءلة

1. لا تكمن المساءلة عن نتائج نظام الذكاء الاصطناعي في النظام بحد ذاته، بل إنها مقسّمة بين القائمين على التصميم والتطوير والتطبليق

2. يجب أن يبذل المطوّرون جهدهم للحد من المخاطر المتأصلة في الأنظمة التي يقومون بتصميمها

3. يجب أن تتوفر في أنظمة الذكاء الاصطناعي إجراءات مدمجة تتيح للمستخدمين الاعتراض على القرارات الهامة

4. يجب أن تتولى فرق متنوعة أنظمة الذكاء الاصطناعي بحيث تتضمن خبراء في المجال الذي سيتم نشر النظام فيه

سنجعل أنظمة الذكاء الاصطناعي قابلة للشرح تقنيا قدر الإمكان

1. يجب أن نشرح للأفراد قرارات ومنهجيات أنظمة الذكاء الاصطناعي التي تؤثر تأثيرًا حيويًا عليهم، إلى الحد الذي تسمح به التكنولوجيا المتوفرة

2. يجب توفير إمكانية التحقق من العوامل الأساسية التي تؤدي إلى اتخاذ أي قرار يمكن أن يؤثر تأثيرًا هاماً على الفرد

3. في الحالة أعلاه، سنقوم بتوفير قنوات يمكن للأفراد التماس هذه الشروحات والتفسيرات عبرها

سنجعل أنظمة الذكاء الاصطناعي تتمتع بالشفافية

1. يجب أن يقوم المطوّرون ببناء أنظمة يمكن تتبع وتشخيص حالات الإخفاق بها

2. يجب أن يتم إعلام الناس كلما يتخذ الذكاء الاصطناعي قرارات هامة تخصهم

3. ضمن حدود الخصوصية وحماية الملكية الفكرية، يجب أن يتمتع ناشرو أنظمة الذكاء الاصطناعي بالشفافية فيما يتعلق بالبيانات والخوارزميات التي يلجؤون إليها

                 الأخلاقيات               الأخلاقيات

ستكون أنظمة الذكاء الاصطناعي آمنة وخاضعة للتحكم من البشر

1. سيكون أمن وأمان الناس، سواءٌ أكانوا مشغلين أم مستخدمين نهائيين أم أطراف ثالثة، على قمة سلم الأولويات في تصميم أي نظام من أنظمة الذكاء الاصطناعي

2. يجب إتاحة إمكانية التحقق من أمن أنظمة الذكاء الاصطناعي وإمكانية التحكم بها طوال فترة حياتها التشغيلية، إلى الحد الذي تسمح به التكنولوجيا

3. يجب مراعاة أمان وخصوصية المستخدمين عند إيقاف تشغيل أنظمة الذكاء الاصطناعي

4. يجب إيلاء العناية الواجبة بأنظمة الذكاء الاصطناعي التي تؤثر مباشرةً على حياة الناس تأثيرًا حيويًا أثناء مراحل تصميمها

5. يجب مراعاة إمكانية إبطال مثل هذه الأنظمة أو إلغاء قراراتها بواسطة الأشخاص المعنيين المخولين

يجب عدم تمكين أنظمة الذكاء الاصطناعي من إلحاق أي أذى أو تخريب أو تضليل البشر

1. يجب بناء أنظمة الذكاء الاصطناعي بهدف تقديم الخدمات والمعلومات وليس للخداع والتلاعب

2. على الدول التعاون لتجنب سباقات التسلح بالأسلحة ذاتية التحكم المميتة، كما يجب فرض الرقابة الشديدة على هذه الأسلحة

3. يجب تعزيز التعاون الفعال لتجنب تجاهل معايير السلامة

4. يجب أن تقوم الأنظمة المُصممة لتوفير المعلومات للقرارات الهامة بهذه الوظيفة بموضوعية

                 البشرية               البشرية

سنقوم بالتخطيط لمستقبل سيتنامى فيه ذكاء أنظمة الذكاء الاصطناعي

1. يجب إعداد نماذج الحوكمة للذكاء الاصطناعي العام (AGI) والذكاء الخارق

2. سيسخر الذكاء الاصطناعي العام (AGI) والذكاء الخارق في خدمة الإنسانية ككل، إذا تم تطويرهما

3. يجب تحديد المخاطر طويلة الأمد للذكاء الاصطناعي والاستعداد لها

4. يجب الإفصاح عن أي تطوير لحلول الذكاء الاصطناعي بخاصية التحسين الذاتي المستمر ومراقبته عن كثب والتحكم بمخاطره

سنضيف إلى أنظمة الذكاء الاصطناعي قيمًا إنسانية وسنجعلها مفيدة للمجتمع

1. ستقوم الحكومة بتمويل بحوث الاستخدام النافع للذكاء الاصطناعي

2. يجب تطوير الذكاء الاصطناعي ليتلاءم مع القيم الإنسانية ولكي يساهم في ازدهار البشر

3. يجب أن تساهم الجهات المعنية في المجتمع كله في تطوير الذكاء الاصطناعي وحوكمته

                 الشمولية               الشمولية

سنعزز قيم الإنسانية والحرية والاحترام

1. يجب أن يطوّر الذكاء الاصطناعي المجتمع، ويجب إشراك أفراد المجتمع بشكل يمثلهم لتشكيل ملامح تطور الذكاء الاصطناعي

2. يجب أن تحتفظ البشرية بقدرتها على أن تحكم نفسها وتتخذ القرار النهائي في شؤونها، على أن يكون الذكاء الاصطناعي مسانداً لذلك

3. يجب أن تتوافق أنظمة الذكاء الاصطناعي مع الأعراف والمعايير الدولية فيما يتعلق بالقيم الإنسانية وحقوق الأفراد والسلوكيات المقبولة

سنحترم خصوصية الأفراد

1. يجب أن تحترم أنظمة الذكاء الاصطناعي الخصوصية وتستخدم الحد الأدنى الضروري من التدخل

2. يجب أن تتبنى أنظمة الذكاء الاصطناعي أعلى معايير أمن وحوكمة البيانات لحماية المعلومات الشخصية

3. يجب عدم استعمال تقنيات المراقبة أو تقنيات الأخرى بشكل ينتهك المعايير المتعارف عليها دوليًا و/أو فيما يخص الخصوصية والقيم الإنسانية وحقوق الأفراد

سنقوم بمشاركة منافع الذكاء الاصطناعي مع جميع أفراد المجتمع

1. سيتم تنسيق تطوير أنظمة الذكاء الاصطناعي عن طريق الاستجابة لأثره على التوظيف

2. سيتم استخدام الذكاء الاصطناعي لمساعدة البشر على تحقيق ذاتهم وعلى الازدهار عقليًا وعاطفيًا واقتصاديًا إلى جانب الذكاء الاصطناعي

3. سيتم توفير التدريب والفرص والأدوات للجميع

4. يجب أن يتطور التعليم ليعكس أحدث المستجدات في مجال الذكاء الاصطناعي مما سيسمح للناس بالتكيف مع التغييرات المجتمعية الناجمة عنه

سنقوم بحوكمة الذكاء الاصطناعي كجهد تعاوني عالمي

1. يجب تشجيع جهود التعاون الدولي لضمان حوكمة الذكاء الاصطناعي بشكل آمن

2. ستساهم الحكومة في إرساء أفضل الممارسات والمعايير المعترف بها دوليًا الخاصة بالذكاء الاصطناعي، والالتزام بها بعد إرسائها

المساهمة في التطوير المستقبلي لمبادئ الذكاء الاصطناعي في دبي

صُممت مجموعة أدوات أخلاقيات الذكاء الاصطناعي في دبي لتحفيز سلوكيات الذكاء الاصطناعي المستقبلية بشكل مسؤول ونشرها. وفي الواقع، يُعد التعاون من جميع أصحاب المصلحة في غاية الأهمية لضمان استدامة هذه الأدوات وتحقيق النفع المرجو منها. لذا، نحن نرحب بملاحظاتك القيّمة.

شاركنا ملاحظاتك

أكثر الأسئلة تكرارا

هل لديك استفسار؟
  • لماذا نقدم هذه المجموعة من الأدوات؟

    تتم مناقشة موضوع الأخلاقيات بشكل متزايد على الساحة الدولية مؤخراً. وتسعى الحكومات والمنظمات غير الربحية والشركات أن تفهم كيف تطور أنظمة الذكاء الاصطناعي بطريقة أخلاقية تضمن حماية الأفراد من الأذى وتفادي إلحاق الضرر بالسمعة و تكبد الخسائر القانونية. ورغم أن هنالك إدراك بأنه قد تكون هنالك حاجة إلى تنظيم هذه التكنولوجيا الناشئة إلا أن هذا المجال لم يصبح ناضجاً بما فيه الكفاية رغم وتيرة التقدم السريعة للغاية. ولا تزال المؤسسات بحاجة إلى توجيه في هذا المجال مما يستدعي  بدء المشرعين في تعلم آلية تنظيم هذه التقنية الناشئة. تقدم المبادئ العامة والمبادئ الإرشادية التوجيه اللازم دون تثبيط الإبتكار بشكل غير مبرر.

    وبالإضافة إلى ذلك، فإنه من المهم وضع رؤية موحدة بشأن أفضل الممارسات لتطوير الذكاء الاصطناعي وتوفير الوضوح لتعريف التطوير الأخلاقي. وترغب دبي في أن تكون جزءًا من هذا الحوار العالمي لترسيخ مكانتها كقائد فكر في تبني الذكاء الاصطناعي في الحكومة وخارجها.

  • ما هو نظام الذكاء الاصطناعي؟

    الذكاء الاصطناعي هو قدرة أي وحدة وظيفية على تنفيذ وظائف ترتبط بشكل عام بالذكاء البشري مثل الاستنتاج والتعلم والتطوير الذاتي.

    إن نظام الذكاء الاصطناعي عبارة عن منتج أو خدمة أو عملية أو أسلوب لاتخاذ القرارات التي تتأثر بها العملية أو المخرج بشكل كبير  من خلال وحدات وظيفية تستخدم الذكاء الاصطناعي. وتكمن أحد الميزات المعينة لأنظمة الذكاء الاصطناعي في أنها تتعلم السلوك والقواعد غير المبرمجة فيها بوضوح. والأهم من ذلك، أنه من غير الضروري لمخرج أي نظام أن يكون محددًا بشكل منفرد من خلال الوحدات الوظيفية التي تستخدم الذكاء الاصطناعي حتى يتم تعريفه كنظام ذكي اصطناعيًا.

  • ما الذي تغطيه الأخلاقيات؟

    تغطي أخلاقيات الذكاء الاصطناعي مفاهيم العدالة والمساءلة والشفافية والقابلية للتفسير. في هذا القسم، لا تشتمل الأخلاقيات على المخاوف المتعلقة بالخصوصية أو دقة النموذج (إلا إذا تعلق الأمر بالعدالة والإنصاف) أو التوظيف أو أية قضايا أخرى ذات علاقة بالذكاء الاصطناعي إلى جانب العدالة والمساءلة والشفافية والقابلية للتفسير.

  • ما الذي تحتويه مجموعة الأدوات؟
    1. مبادئ الذكاء الاصطناعي في دبي - مجموعة من العبارات عالية المستوى الغير ملزمة قانونياً والغير خاضعة للتدقيق في مجملها لآلية تطوير الذكاء الاصطناعي التي نرغب بها في دبي. توجد 4 مبادئ شاملة مع مبادئ فرعية تندرج تحت كل منها.

    2. التوجيهات الأخلاقية للذكاء الاصطناعي في دبي - وتمامًا كالمبادئ، تعتبر المبادئ الإرشادية أيضاً غير ملزمة قانونية وغير خاضعة للتدقيق ولكنها عملية بشكل أكبر وتنطبق على مجموعات معينة من الجهات الفاعلة. وتم تطوير مبدأ واحد فقط (الأخلاقيات) إلى مجموعة من المبادئ الإرشادية، ويمكن تطوير المبادئ العامة الأخرى بشكل مماثل في الوقت المناسب، وليس بالضرورة من قبل دبي الذكية.

    3. القائمة المرجعية للتقييم الذاتي - لجعل المبادئ الإرشادية عمليةً بشكل أكبر، قمنا بتقديم قائمة مرجعية. ومن خلال استخدام هذه القائمة المرجعية، يمكن لأي جهة أن تصنف أولاً نظام الذكاء الاصطناعي الخاص بها ومن ثم تقوم بتقييم النتيجة الأخلاقية لديها استنادًا إلى نوع النظام. ويمكن استخدام القائمة المرجعية من قبل المؤسسات المطورة للذكاء الاصطناعي بالإضافة إلى تلك المشغلة لأنظمة الذكاء الاصطناعي. ويمكن إدراجها أيضاً في طلب تقديم العروض للمؤسسات المشغلة للذكاء الاصطناعي للتحقق من النتيجة الأخلاقية لحلول الذكاء الاصطناعي لدى مورديهم. وتتحمل المؤسسات المشغلة للذكاء الاصطناعي المسؤولية عن القائمة المرجعية ويجب عليهم التأكد من تعبئة القائمة المرجعية بشكل صحيح فيما بينهم وبين المورد ووجود دليل لإثبات النتيجة الأخلاقية.

    4. مؤشرات للمؤلفات الرئيسية من أجل الخبراء الفنيين - تهدف هذه الوثيقة إلى مساعدة الخبراء الفنيين (مثل، علماء البيانات، مهندسي التعليم الآلي، مهندسي الذكاء الاصطناعي) في التحقق من آلية تطبيق الذكاء الاصطناعي الأخلاقي. ولا تعتبر هذه وثيقة شاملة حيث يُعد الذكاء الاصطناعي الأخلاقي مجالًا ناشئًا ومن المتوقع أن يحقق مزيدًا من التقدم في السنوات القادمة. كما يجب على المؤسسات المطورة للذكاء الاصطناعي أن تقيّم مدى ملائمة ومخاطر كل طريقة اتخاذ قرار بمفردها.

    `
  • هل المبادئ العامة إلزامية؟

    إن المبادئ العامة والمبادئ التوجيهية غير إلزامية وغير خاضعة للتدقيق. وهي اختيارية للجهات حتى تلتزم بالمبادئ العامة والمبادئ الإرشادية أثناء عملية تطوير أي نظام للذكاء الاصطناعي.

  • إذا كانت مجموعة الأدوات غير إلزامية، فلماذا يتعين علي استخدامها؟

    يمكن أن تكون المشاركة مفيدة للمؤسسات المطورة والمشغلة للذكاء الاصطناعي لعدة أسباب. إذمن خلال المساهمة، يمكن للجهات القيام بما يلي:

    • إجراء التقييم الذاتي والتخفيف من السلوك غير الأخلاقي لأنظمة الذكاء الاصطناعي الخاصة بها والتي بخلاف ذلك قد تؤدي إلى رد فعل عنيف من العامة وإلحاق الضرر بالسمعة أو التأثير سلباً على بعض الأفراد.

    • اكتساب الفهم الواضح لمعنى الأخلاقيات في الذكاء الاصطناعي وتعميم ذلك الفهم داخلياً وعلى الجهات المعنية والعملاء لزيادة الثقة في أنظمة الذكاء الاصطناعي.

    • اكتساب المعرفة بشأن ما قد يصبح لاحقًا تشريعًا، وتقديم المشورة في تشكيل صياغة ومحتوى  هذا التشريع.

    • المساهمة في وضع رؤية موحدة لأفضل الممارسات في عملية تطوير الذكاء الاصطناعي.

    ونرحب أيضاً بآراء الأفراد بشأن المبادئ العامة والمبادئ الإرشادية.

  • من الذي يجب أن يستخدم مجموعة الأدوات؟

    تم تصميم مجموعة الأدوات لتستفيد منها المؤسسات المطورة والمشغلة للذكاء الاصطناعي في كلا القطاعين العام والخاص. ومن المتوقع في القريب العاجل أن تستخدم جهات القطاع العام فقط إلى جانب الشركات الخاصة التي تطور أنظمة الذكاء الاصطناعي لهذه الجهات مجموعة الأدوات بشكل فعّال.

    تشير المبادئ التوجيهية إلى «المؤسسات المطورة للذكاء الاصطناعي» و«المؤسسات المشغلة للذكاء الاصطناعي». وفيما يلي تعريفها:

    • المؤسسة المطورة للذكاء الاصطناعي هي أي مؤسسة تقوم بأي من الأعمال التالية:

    • تحديد الغرض من أي نظام للذكاء الاصطناعي

    • تصميم أي نظام للذكاء الاصطناعي

    • بناء أي نظام للذكاء الاصطناعي

    • تنفيذ الصيانة الفنية أو ضبط نظام الذكاء الاصطناعي

    ملاحظة: ينطبق التعريف بغض النظر عما إذا كانت المؤسسة هي المستخدم النهائي للنظام أو إذا قامت ببيعه أو تخلت عنه.

    • المؤسسة المشغلة للذكاء الاصطناعي هي أي مؤسسة تقوم بأي من الأعمال التالية:

    • استخدام أنظمة الذكاء الاصطناعي في عمليات التشغيل أو العمليات الداخلية أو اتخاذ القرارت

    • استخدام نظام الذكاء الاصطناعي لتقديم الخدمة للمستخدم النهائي

    • أن تكون مالكًا تجاريًا لأي من أنظمة الذكاء الاصطناعي

    • شراء البيانات ومعالجتها بهدف استخدامها في أي من أنظمة ذكاء الاصطناعي

    • تقييم حالة الاستخدام لأي نظام ذكاء اصطناعي والتقرير فيما إذا يمضي قدماً أم لا

    ملاحظة: ينطبق هذا التعريف بغض النظر عما إذا تم تطوير نظام الذكاء الاصطناعي داخليًا أو تم شراؤه.

    من الممكن للمؤسسات أن تكون مؤسسة مطورة للذكاء الاصطناعي ومؤسسة مشغلة للذكاء الاصطناعي.

  • هل تنطبق مجموعة الأدوات على نظام الذكاء الاصطناعي لدي؟

     مع أن الذكاء الاصطناعي يحيط بنا بالفعل، إلا أن بعض التطبيقات تُعد أكثر وضوحاً وحساسية من غيرها. وتنطبق مجموعة الأدوات هذه فقط على أنظمة الذكاء الاصطناعي التي تتخذ أو تبلغ عن «قرارات هامة» - أي تلك القرارات التي لديها القدرة على إحداث الأثر الكبير سواء على الأفراد أو على المجتمع برمته، وكذلك «القرارات الحاسمة» التي تشكل مجموعة فرعية من القرارات الهامة. وترد كافة التعريفات في المبادئ التوجيهية.

  • كيف استخدم مجموعة الأدوات؟

    تشكل المبادئ العامة الأساس لاستخدام الذكاء الاصطناعي في دبي. يجب أن تكون الجهات على دراية بها أثناء تطوير وتشغيل أنظمة الذكاء الاصطناعي وعند وضع الاستراتيجية.

    المبادئ الإرشادية: يمكن تطبيقها من خلال دمجها مع المبادئ التوجيهية والمعايير والوثائق الحالية الأخرى المعمول بها لدى الجهة. فمن المهم استخدامها طوال عملية التطوير والنشر من أجل الوصول إلى تصميم أخلاقي بدلاً من أن تكون مرحلة استدراك لاحقة. ويحتاج الموظفون أثناء العملية إلى التثقيف حول معنى وأهمية التصميم الأخلاقي ويمكن أن تعمل المبادئ التوجيهية كوثيقة تعليمية أيضاً.

    القائمة المرجعية: يمكن استخدامها مباشرة من قبل المؤسسات المطورة للذكاء الاصطناعي لضمان تحقيقها للمعايير المتوقعة من أنظمة الذكاء الاصطناعي في القطاع العام. ويمكن أن تتضمن المؤسسات المشغلة للذكاء الاصطناعي أجزاءً من القائمة المرجعية في طلبات تقديم العروض إذا كانت تعمل مع موردين. تتحمل المؤسسات المشغلة للذكاء الاصطناعي، باعتبارها المؤسسات التي تنشر النظام في نهاية المطاف للعامة، المسؤولية عن ضمان تلبية المعايير الأخلاقية الكافية من قبل فرق التطوير داخل مؤسساتهم ومن قبل الموردين الذين تختارهم للقيام بالأعمال التجارية معهم.

  • من الذين تخدمهم مجموعة الأدوات في نهاية المطاف؟

    تخدم مجموعة الأدوات الأشخاص والمستخدمين النهائيين الذي يعتمدون على أنظمة الذكاء الاصطناعي أو يتأثرون يها. والمصطلح المستخدم في مجموعة الأدوات هو «عينة الذكاء الاصطناعي». وعينة الذكاء الاصطناعي عبارة عن أي شخص طبيعي يمثل أيًا مما يلي:

    • مستخدم نهائي لأي من أنظمة الذكاء الاصطناعي، أو

    • شخص يتأثر مباشرة من خلال تشغيل أو مخرجات أي من أنظمة الذكاء الاصطناعي، أو

    • أي مستفيد من خدمة أو توصية يقدمها أي من أنظمة الذكاء الاصطناعي.

    تساعد مجموعة الأدوات على ضمان توفر المعاملة العادلة للأشخاص والقدرة على استئناف القرارات التي يعتقدون أنها غير عادلة وأنهم يملكون الصلاحية للوصول إلى المعلومات الهامة التي يتم تقديمها بطريقة مفهومة حول كيفية تأثير الذكاء الاصطناعي على حياتهم.

  • ما الذي سيحدث للمبادئ العامة الأخرى؟

    سيتم تطوير بقية المبادئ العامة (الإنسانية والشمولية والأمن) من خلال شراكات مع جهات حكومية أخرى.