حان الوقت لطلب تفسيرات من الذكاء الاصطناعي

حان الوقت لطلب تفسيرات من الذكاء الاصطناعي

بالعربي/ يمكن للمجال الناشئ المعروف باسم الذكاء الاصطناعي القابل للتفسير أن يحل أكبر المشاكل مع الخوارزميات الحالية.

لقد دخل الذكاء الاصطناعي (AI) بشكل متزايد في روتيننا ، حيث تتراوح العمليات من تخصيص الإعلانات التي نراها على الإنترنت لتحديد ما إذا كانت آخر عملية شراء لبطاقة الائتمان لدينا مشتبه فيها بالاحتيال. في الغالبية العظمى من الحالات ، يتم تفويض هذه القرارات لما يسمى ” خوارزميات الصندوق الأسود “: تلك التي لا يمكن فيها التعبير صراحة عن القاعدة المستخدمة لاتخاذ القرار. نحن نعلم ما تستجيب له الآلة في كل حالة ، ولكننا لا نعرف السبب أبدًا. بينما يوسع الذكاء الاصطناعي نطاقه ، يؤدي هذا النهج “الأعمى” إلى مشاكل خطيرة بشكل متزايد.

أول ما تم لفت الانتباه إليه كان قضية ProPublica ، وهي شركة صممت صندوقًا أسود للتنبؤ بما إذا كان السجناء الأمريكيون سيعيدون ارتكاب الجرائم أم لا ، وهي المعلومات التي تم استخدامها بعد ذلك لتقرير ما إذا كانت ستمنحهم الإفراج المشروط. بناءً على تحليل مفصل ، أصبح من الواضح أن الخوارزمية كانت “عنصرية” إلى حد ما: تم تكليف السجناء الأمريكيين من أصل أفريقي ، بغض النظر عن تاريخهم ، بتنبؤات أسوأ من السجناء البيض ، على افتراض أنهم سيعودون للإجرام في كثير من الأحيان. لفهم هذه المشكلة ، المعروفة باسم ” التحيز الخوارزمي  ، من الضروري الخوض في ماهية أساليب التعلم الآلي والذكاء الاصطناعي.

المشكلة الأولى في هذه الأدوات هي اسمها. بقدر ما تكون مساهماتهم مفيدة ، من الضروري أن ندرك أنه لا يوجد موضوع ذكي فيها ولا شيء لتعلمه ، لأنها تستند إلى تقنيات ميكانيكية فقط. التعلم الآلي ليس أكثر – ولا أقل – من عملية تحديد الأنماط في بيانات الإدخال وتطبيقها على حالات جديدة. يتم إعطاء الجهاز بيانات في شكل أمثلة لمشكلات تم حلها ، ثم يتم تعميمها على المشكلات الجديدة باستخدام الأنماط المحددة.

في معظم الأساليب المستخدمة اليوم ، لا يتم توضيح هذه الأنماط أبدًا ، لذلك ينتهي بنا الأمر مع الصناديق السوداء. وتشمل هذه ، من بين تقنيات أخرى ، ما يسمى بالشبكات العصبية الاصطناعية. تضيف التقنية المعروفة باسم التعلم العميق عاملاً محيرًا إضافيًا ، نظرًا لأنها متطابقة بشكل أساسي مع التعلم الآلي ، فهي أكبر من الناحية الكمية فقط: مع المزيد من العناصر والاحتياجات الحسابية الأكبر. لا يوجد عمق أو فهم. إن الشبكة العصبية التي تحتوي على عدد قليل من الخلايا العصبية هي التعلم الآلي. مع الكثير من التعلم العميق.

كانت مشكلة ProPublica هي أنه في بيانات التدريب (التي كانت في شكل تاريخ السجناء ، بما في ذلك معلومات حول ما إذا كان قد انتهى بهم الأمر إلى إعادة الإجرام أم لا) ، كان مرتكبو الجرائم المتكررة من الأمريكيين الأفارقة ممثلين بشكل مفرط. أدى هذا إلى استنتاج الخوارزمية أن الأمريكيين الأفارقة هم أكثر عرضة لإعادة ارتكاب الجريمة ، وقد أدرجت هذا في تنبؤاتها. يتم تقديم التحيز ضد السود من خلال الخوارزمية نفسها في عملها الصحيح ، ومن هنا جاء اسم التحيز الخوارزمي.

مثال آخر حديث هو المثال الذي ظهر في إحدى الشبكات الاجتماعية التي كثيراً ما تبلّغ عن صور النساء غير البيض على أنها محتوى غير لائق. على ما يبدو ، تم تدريب الخوارزمية على الصور الإعلانية كمثال لمحتوى صالح ، ومع المواد الإباحية كمثال على المحتوى غير المسموح به. يبدو أن قاعدة البيانات الإباحية أكثر تنوعًا عرقيًا من قاعدة البيانات الإعلانية ، مما أدى بالخوارزمية إلى التعميم بسهولة أكبر على أن صورة امرأة غير بيضاء تتوافق مع محتوى غير مناسب.

في خوارزميات الصندوق الأسود ، من الممكن فقط اكتشاف التحيز اللاحق وبعد إجراء تحليلات محددة. على سبيل المثال ، في حالة ProPublica ، سيتعين علينا إرسال ملفات تعريف مماثلة لنزلاء من أعراق مختلفة ثم مقارنة الردود. ولكن إذا لم ندرك أن العرق كان يمثل مشكلة عند بناء قاعدة البيانات الخاصة بنا ، فكيف يمكننا حتى التفكير في إجراء مثل هذه الاختبارات؟ ماذا لو لم يكن التحيز مؤلمًا وفقًا للعرق ، ولكن وفقًا لمجموعة أكثر تعقيدًا من السمات ، مثل الشباب الأمريكيين الأفارقة الفقراء؟

لهذا يجب أن نضيف خطر “التخصيص  ، المستمدة أيضًا من تعميم الأمثلة. لنتخيل أننا ندرب خوارزمية ProPublica على عدد صغير نسبيًا من التواريخ ، وأنه من قبيل المصادفة المطلقة ، اتضح أن المدانين الذين تظهر صورتهم انعكاسًا طفيفًا في الزاوية اليسرى العليا هم بالضبط المخالفين المتكررين. إذا كان مثل هذا النمط موجودًا بمحض الصدفة في البيانات ، فستقوم الآلة باكتشافه واستخدامه لتأسيس تنبؤاته. بدراسة معدل إصابتها ، يبدو أن الخوارزمية تتوقع عودة الجريمة بدقة كبيرة. ومع ذلك ، فإنه سيفشل فشلاً ذريعاً عند تطبيقه على تواريخ جديدة ، لأن الأنماط التي استخرجها لا معنى لها ؛ أي أنها لا تتوافق مع أي ظاهرة معروفة أو يمكن التحقق منها.

إن التخلي عن قرار مهم مثل منح الإفراج المشروط لنظام آلي يمكن أن يؤدي إلى مظالم ستبقى مخفية في أحشاء الصندوق الأسود ، كما لو لم يكن ذلك كافيًا. هذه المظالم ، يجب ألا ننسى ، هي مسؤولية البشر الذين يعتمدون على مثل هذه الآلة لاتخاذ مثل هذه القرارات.

لا ينبغي أبدًا تفويض أي قرار ذي صلة إلى آلة. بدلاً من ذلك ، يجب أن نرى الذكاء الاصطناعي كمساعدة فقط. مساعدة قيمة ولكن ذلك فقط: معلومة إضافية يمكن أن تساعدنا عند اتخاذ القرار أو تزيد من السرعة التي يمكننا بها القيام بذلك.

إذا كان الذكاء الاصطناعي مجرد تقنية أخرى لمساعدة البشر على اتخاذ القرارات ، فلا ينبغي أن يمثل التعلم الآلي وليس التعلم والصناديق السوداء عدم الفهم مشكلة. ومع ذلك ، فإنه يمثل مشكلة إضافية غالبًا ما تمر دون أن يلاحظها أحد: لا يقتصر الأمر على أن الأجهزة لا تفهم ، ولكنها لا تسمح لنا بفهمها أيضًا.

في هذه المرحلة ، من المهم التمييز بين فهم الخوارزمية وفهم القرار الذي تتخذه. يمكننا الوصول الكامل إلى رمز الخوارزمية والخطوات التي تحددها لحل مشكلة ما. ومع ذلك ، من التعقيد الداخلي سوف يظهر الظلام الدامس قريبًا. حتى لو كانت آلياته بسيطة ، فإن النتيجة “معقدة” بالمعنى الذي تستخدم فيه علوم التعقيد هذه الكلمة: النظام المعقد هو نظام تؤدي فيه بعض القواعد البسيطة إلى ظهور ظواهر لا يمكن استنتاجها من الآخرين. نفس القواعد. نحن نعلم كيف تعمل الخوارزمية ، لكننا غير قادرين على التنبؤ أو تفسير نتائجها.

كل هذا يمكن أن يقودنا إلى الإحباط. لقبول أننا إما أن نتخلى عن حاجتنا إلى الفهم والموافقة على ترك مصيرنا في أيدي الصناديق السوداء ، أو أن نصبح أعضاء جدد منغلقين على التقدم التقني ونفوت الفرص التي يقترحها الذكاء الاصطناعي – مهما كان اسمه سيئًا – لنا. النبأ السار هو أن ما ورد أعلاه غير صحيح. هناك طريقة ثالثة: اطلب تفسيرات من الذكاء الاصطناعي . هناك بدائل قابلة للتطبيق تقنيًا لخوارزميات الصندوق الأسود ، والتي سيتم تطويرها بالمعدل الذي يطلبه المجتمع. في الواقع ، هناك طريقتان رئيسيتان “لفتح” الصندوق الأسود.

الأول يتكون من استخدام “نماذج بديلة”. هذه نسخ مبسطة من الصندوق الأسود ، لكن من المحتمل أن يفهمها الناس. ومع ذلك ، فإن النموذج البديل يختلف عن الصندوق الأسود ، وبالتالي ، يمكن أن يؤدي إلى قرارات مختلفة ، بحيث لا يعني فهم قرارات أحدهم فهم قرارات الآخر. علاوة على ذلك ، فإن تقنيات بناء النماذج البديلة معقدة للغاية.

فلماذا لا نستخدم نموذجًا بسيطًا يمكننا فهمه بشكل مباشر؟ هذا هو بالضبط ما يدور حوله الذكاء الاصطناعي القابل للتفسير. تشمل البدائل ذات أفضل إمكانات التفسير النماذج القائمة على الدرجات ، والتي ندرج فيها سلسلة من المعايير ونخصص الدرجات وفقًا للإجابات كاختبار ، ونضيفها في النهاية. لدينا أيضًا انحدارات لوجستية ، مفيدة جدًا عند التعامل مع المشكلات الثنائية (تلك التي يكون حلها “نعم” أو “لا”) ، حيث يتم تحويل المتوسط ​​المرجح للدرجات عن طريق وظيفة تجعل النتائج مناسبة في الفترة الفاصلة بين 0 و 1 ، حيث يمكن أن يمثلوا احتمالية حدث. تعتبر أشجار القرار مفيدة للغاية أيضًا.

غالبًا ما يتطلب تطوير هذه النماذج البسيطة عملاً شاقًا من قبل فريق متعدد التخصصات ، حيث لا يتم تدريب الآلة فقط (والذي يتم عادةً ميكانيكيًا في الخوارزميات المستخدمة) ، ولكنه أيضًا يتفاعل بشكل متكرر مع النموذج حتى إيجاد حل غير مناسب. مقبولة إحصائيًا فقط ، ولكنها أيضًا منطقية للخبير.

في بعض الحالات ، يكون تطوير نماذج قابلة للتفسير صعبًا تقنيًا ، إن لم يكن مستحيلًا ، مثل معالجة الصور أو الكلام. ومع ذلك ، فهذه ليست تطبيقات الذكاء الاصطناعي ذات التأثير الأكبر على حياتنا. في البيانات المنظمة ، مثل التاريخ الجنائي أو الطبي ، غالبًا ما يكون من الممكن تطوير نماذج قابلة للتفسير تعمل تقريبًا مثل الصناديق السوداء. أيضًا ، ضع في اعتبارك أنه في كثير من الأحيان عندما يبدو أن المربعات السوداء تقدم تنبؤات شبه مثالية ، فإن أطياف التحيز الحسابي والإفراط في التجهيز تكمن وراء النتائج.

على سبيل المثال ، طورت Cynthia Rudin من جامعة Duke بديلاً عن الصندوق الأسود ProPublica في عام 2019. يتألف النظام من مخطط تسجيل بسيط للمتغيرات الشفافة مثل العمر والعدد الإجمالي للجرائم وخاصة جرائم العنف. يتمتع هذا النموذج بقدرة تنبؤية مشابهة جدًا للصندوق الأسود لـ ProPublica ، ولكنه شفاف تمامًا وخالٍ من التحيز الخوارزمي.

تقدم لنا النماذج القابلة للتفسير شيئًا يجب أن نبدأ بطلبه من الذكاء الاصطناعي: النموذج الذي يمكننا الوثوق به فقط هو الصحيح ؛ وأنه لا يمكننا الوثوق إلا بشيء نفهمه ، علاوة على ذلك ، يكون منطقيًا عندما نضعه في علاقة بالتجربة السابقة والفطرة السليمة. لدينا الحق – ومن مسؤوليتنا – أن نطلب تفسيرات.

تتطلب هذه المرحلة الجديدة من الذكاء الاصطناعي نقلة نوعية. من تفويض القرارات إلى أدوات دعم القرار ؛ من الصناديق السوداء إلى النماذج الشفافة ؛ من النموذج الذي تم إنشاؤه تلقائيًا إلى عمل فريق متعدد التخصصات. من هذا المنظور فقط يمكننا التغلب على الارتباك الذي نواجهه وإعادة توجيه التطورات في هذا المجال بحيث تخدم البشر في حرية ومسؤولية.

المصدر/ investigacionyciencia.esالمترجم/barabic.com

تعليقات (0)

إغلاق