بناء العدالة داخل الذكاء الاصطناعي | مركز سمت للدراسات

بناء العدالة داخل الذكاء الاصطناعي أمر حاسم

التاريخ والوقت : الثلاثاء, 2 أبريل 2024

Ferdinando Fioretto

لقد أحدثت قدرة الذكاء الاصطناعي على معالجة وتحليل كميات هائلة من البيانات ثورة في عمليات صنع القرار، مما جعل العمليات في مجالات الرعاية الصحية والمالية والعدالة الجنائية وقطاعات أخرى من المجتمع أكثر كفاءة، وفي كثير من الحالات، أكثر فعالية. مع هذه القوة التحويلية، تأتي مسؤولية كبيرة، وهي الحاجة إلى التأكد من أن هذه التقنيات يتم تطويرها ونشرها بطريقة تكون فيها عادلة ومنصفة. باختصار، يجب أن يكون الذكاء الاصطناعي عادلاً.

السعي لتحقيق العدالة في الذكاء الاصطناعي ليس مجرد ضرورة أخلاقية، ولكنه أيضًا شرط لتعزيز الثقة والشمولية والتقدم المسؤول للتكنولوجيا. ومع ذلك، ضمان أن يكون الذكاء الاصطناعي عادلاً يمثل تحديًا كبيرًا. وفوق ذلك، تُظهر أبحاثي، كعالم حاسوب يدرس الذكاء الاصطناعي، أن المحاولات لضمان العدالة في الذكاء الاصطناعي يمكن أن تكون لها عواقب غير مقصودة.

لماذا تعتبر العدالة في الذكاء الاصطناعي مهمة؟

ظهرت العدالة في الذكاء الاصطناعي كمجال حاسم للتركيز عليه من قبل الباحثين والمطورين وصانعي السياسات. إنها تتجاوز الإنجاز التقني، وتلمس الأبعاد الأخلاقية والاجتماعية والقانونية للتكنولوجيا. أخلاقيًا، تعتبر العدالة حجر الزاوية في بناء الثقة والقبول لأنظمة الذكاء الاصطناعي. يحتاج الناس إلى الثقة في أن القرارات التي تتخذها الذكاء الاصطناعي والتي تؤثر في حياتهم – مثل خوارزميات التوظيف – يتم اتخاذها بشكل عادل. اجتماعيًا، يمكن لأنظمة الذكاء الاصطناعي التي تجسد العدالة أن تساعد في معالجة التحيزات التاريخية والتخفيف منها – على سبيل المثال، تلك التي ضد النساء والأقليات – مما يعزز الشمولية. قانونيًا، يساعد تضمين العدالة في أنظمة الذكاء الاصطناعي على جعل تلك الأنظمة متوافقة مع قوانين ولوائح مكافحة التمييز حول العالم.

يمكن أن ينشأ الظلم من مصدرين رئيسيين: البيانات المدخلة والخوارزميات. أظهرت الأبحاث أن البيانات المدخلة يمكن أن تعزز التحيز في مختلف قطاعات المجتمع. على سبيل المثال، في التوظيف، يمكن للخوارزميات التي تعالج البيانات التي تعكس التحيزات الاجتماعية أو تفتقر إلى التنوع، أن تعزز التحيزات “مثلي”. وهذه التحيزات تفضل المرشحين الذين يشبهون صانعي القرار أو الأشخاص الموجودين بالفعل في المنظمة. عند استخدام البيانات المتحيزة لتدريب خوارزمية تعلم آلي لمساعدة صانع القرار، يمكن للخوارزمية أن تنشر وحتى تضخم هذه التحيزات.

لماذا تحقيق العدالة في الذكاء الاصطناعي صعب؟

العدالة في جوهرها ذاتية، وتتأثر بالمنظورات الثقافية والاجتماعية والشخصية. في سياق الذكاء الاصطناعي. غالبًا ما يترجم الباحثون والمطورون وصانعو السياسات، العدالة إلى فكرة أنه لا ينبغي للخوارزميات أن تعمل على تكريس أو تفاقم التحيزات أو عدم المساواة القائمة. ومع ذلك، يكتنف قياس العدالة وتضمينها في أنظمة الذكاء الاصطناعي قرارات ذاتية وصعوبات فنية. اقترح الباحثون وصانعو السياسات تعريفات مختلفة للعدالة، مثل: التكافؤ الديموغرافي، ومساواة الفرص، والعدالة الفردية.

تتضمن هذه التعريفات صيغًا رياضية مختلفة وفلسفات أساسية متنوعة. كما أنها غالبًا ما تكون متعارضة، مما يسلط الضوء على صعوبة تحقيق جميع معايير العدالة في الوقت نفسه عمليًا. بالإضافة إلى ذلك، لا يمكن تقليص العدالة إلى مقياس واحد أو مبدأ توجيهي. إنها تشمل طيفًا من الاعتبارات التي تشمل، لكنها لا تقتصر على مساواة الفرص، والمعاملة، والأثر.

تأثيرات غير مقصودة على العدالة

تعني الطبيعة المتعددة الجوانب للعدالة أنه يجب فحص أنظمة الذكاء الاصطناعي في كل مستوى من مستويات دورة تطويرها، بدءًا من مراحل التصميم الأولي وجمع البيانات وصولاً إلى نشرها النهائي وتقييمها المستمر. يكشف هذا الفحص عن طبقة أخرى من التعقيد. نادرًا ما يتم نشر أنظمة الذكاء الاصطناعي بشكل منعزل. يتم استخدامها كجزء من عمليات اتخاذ القرار المعقدة والمهمة غالبًا، مثل تقديم توصيات بشأن التوظيف أو تخصيص الأموال والموارد، وهي خاضعة للعديد من القيود، بما في ذلك الأمان والخصوصية.

أظهرت الأبحاث التي أجريتها أنا وزملائي أن القيود مثل موارد الحوسبة وأنواع الأجهزة والخصوصية، يمكن أن تؤثر بشكل كبير في عدالة أنظمة الذكاء الاصطناعي. على سبيل المثال، قد تؤدي الحاجة إلى الكفاءة الحسابية إلى تبسيطات تتجاهل أو تمثل بشكل غير صحيح المجموعات المهمشة عن غير قصد.

في دراستنا حول تقليم الشبكة – وهي طريقة لجعل النماذج المعقدة للتعلم الآلي أصغر وأسرع – وجدنا أن هذه العملية يمكن أن تؤثر بشكل غير عادل على مجموعات معينة. يحدث هذا لأن التقليم قد لا يأخذ في الاعتبار كيفية تمثيل المجموعات المختلفة في البيانات بواسطة النموذج، مما يؤدي إلى نتائج متحيزة.

بالمثل، قد تُخفي تقنيات الحفاظ على الخصوصية، على الرغم من أهميتها، البيانات اللازمة لتحديد وتخفيف التحيزات أو تؤثر بشكل غير متناسب في نتائج الأقليات. على سبيل المثال، عندما تضيف الوكالات الإحصائية ضوضاء إلى البيانات لحماية الخصوصية، يمكن أن يؤدي هذا إلى تخصيص غير عادل للموارد؛ لأن الضوضاء المضافة تؤثر في بعض المجموعات أكثر من غيرها. يمكن أن يؤدي هذا التفاوت أيضًا إلى تحيز عمليات اتخاذ القرار التي تعتمد على هذه البيانات، مثل تخصيص الموارد للخدمات العامة.

هذه القيود لا تعمل بشكل منعزل، ولكنها تتقاطع بطرق تعزز تأثيرها على العدالة. على سبيل المثال، عندما تفاقم تدابير الخصوصية التحيزات في البيانات، يمكن أن تزيد من تفاقم عدم المساواة القائمة. هذا يجعل من المهم أن يكون هناك فهم شامل ونهج لكلٍ من الخصوصية والعدالة في تطوير الذكاء الاصطناعي.

الطريق إلى الأمام

جعل الذكاء الاصطناعي عادلاً ليس بالأمر البسيط، ولا توجد حلول تناسب الجميع. يتطلب الأمر عملية تعلم مستمرة وتكيفًا وتعاونًا. نظرًا لأن التحيز منتشر في المجتمع، أعتقد أن الأشخاص العاملين في مجال الذكاء الاصطناعي يجب أن يدركوا أنه من المستحيل تحقيق العدالة المثالية وبدلاً من ذلك يسعون للتحسين المستمر.

يتطلب هذا التحدي التزامًا بالبحث الدقيق وصنع السياسات المدروسة والممارسة الأخلاقية. لكي ينجح الأمر، سيحتاج الباحثون والمطورون ومستخدمو الذكاء الاصطناعي إلى التأكد من أن الاعتبارات المتعلقة بالعدالة متداخلة في جميع جوانب عملية تطوير الذكاء الاصطناعي، بدءًا من تصوره، ومرورًا بجمع البيانات وتصميم الخوارزميات، ووصولاً إلى النشر وما بعده.

النشرة البريدية

سجل بريدك لتكن أول من يعلم عن تحديثاتنا!

تابعونا على

تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر