لن يكون الذكاء الاصطناعي أبدًا مثل الإنسان

لن يكون الذكاء الاصطناعي أبدًا مثل الإنسان

بالعربي/ بور رامون لوبيز دي مانتاراس.  أستاذ باحث في المجلس القومي للبحوث الإسباني (CSIC) ومدير معهد أبحاث الذكاء الاصطناعي. 

نحن نعيش في ربيع جديد من الذكاء الاصطناعي (AI) ، وكما في الربيع الماضي ، تكثر التنبؤات بأن الذكاء الاصطناعي العام الذي يساوي أو يفوق الإنسان يستغرق خمسة وعشرين عامًا أو نحو ذلك. من المفترض أن يقودنا هذا إلى ما يُعرف بالتفرد التكنولوجي ، عندما تقوم الآلات ، بفضل الذكاء الاصطناعي ، بعمل كل شيء بشكل أفضل منا ، بما في ذلك البحث العلمي نفسه.

التفرد التكنولوجي هو أحد ركائز ما يعرف باسم ما بعد الإنسانية ، وهو نوع من أشكال ما بعد الإنسانية حيث يصبح البشر عفا عليهم الزمن ويحل محلهم الذكاء الاصطناعي الخارق. يدعي بعض “معلمو” التفرد ، مثل راي كورزويل ، أنه في عام 2045 ، أي بعد حوالي 25 عامًا ، سيتم الوصول إلى هذا المستوى من الذكاء الاصطناعي الخارق. تحتوي هذه التنبؤات على جرعة كبيرة من التكهنات غير العلمية.

الفرضية الرئيسية هي أن هناك تقدمًا هائلاً في مجال الذكاء الاصطناعي ، وهو ، في رأيي ، قابل للنقاش إلى حد كبير. لقد اتبع التقدم في الحوسبة عالية الأداء ، على الأقل حتى الآن ، اتجاهًا أسيًا ، ولكن بالإضافة إلى ذلك ، سيكون من الضروري أن يكون هناك تقدم أسي أيضًا في برمجيات الذكاء الاصطناعي. ومع ذلك ، ليس هذا هو الحال ، بل على العكس تماما.

إن الخوارزميات المستخدمة حاليًا فيما يُعرف بالتعلم العميق (الاتجاه الحالي الأكثر نجاحًا وأهمية في الذكاء الاصطناعي) عمرها أكثر من ثلاثين عامًا ، وعلى الرغم من تحسينها في بعض الجوانب ، يمكننا من الناحية المفاهيمية القول إنها لم تتقدم بشكل ملحوظ منذ ذلك الحين. لا يمكن إنكار أنه في السنوات الأخيرة ، كانت هناك نتائج مهمة في الذكاء الاصطناعي ، لكن هذا لم يكن بسبب التقدم الكبير في خوارزميات الذكاء الاصطناعي. كان السبب هو توافر كميات كبيرة من البيانات والأجهزة عالية الأداء لتدريبها.

من ناحية أخرى ، تم تضخيم هذه النتائج بشكل مبالغ فيه من قبل وسائل الإعلام – وكذلك من قبل بعض مصمميها – مما أدى إلى خلق توقعات غير واقعية حول الوضع الحالي للذكاء الاصطناعي.

الحقيقة هي أن ما لدينا هو “ذكاء” محدد للغاية ومحدود. دعونا نركز ، على سبيل المثال ، على التعلم العميق المذكور أعلاه. سمحت هذه التقنية ، على سبيل المثال ، ببرنامج يسمى AlphaZero تمكن من لعب الملايين من الألعاب ضد نفسه لساعات ، لتعلم لعب Go بمستويات لم يتم الوصول إليها من قبل ، متجاوزًا بكثير أفضل اللاعبين البشريين.

حسنًا ، أنظمة التعلم العميق هذه محدودة للغاية لأنها قادرة فقط على تعلم تصنيف الأنماط من خلال تحليل كميات هائلة من البيانات. التعلم هو أكثر بكثير من مجرد اكتشاف الأنماط. ليس من المبالغة القول إذن إنهم ، في الواقع ، لا يتعلمون أي شيء بالمعنى الإنساني لما نفهمه من خلال التعلم. بمعنى آخر ، لا يعرفون حقًا أي شيء جديد بعد تدريبهم لاكتساب الكفاءة. إنهم لا يتعلمون بشكل تدريجي ولا يمكنهم ربط ما تم تعلمه حديثًا بما تم تعلمه سابقًا

فلماذا هناك الكثير من الالتباس حول حقيقة الذكاء الاصطناعي؟ في رأيي ، المركزية البشرية المفرطة هي السبب الرئيسي. عندما يتم إبلاغنا بالإنجازات المذهلة لذكاء اصطناعي معين ، وحل المهام المعقدة ، فإننا نميل إلى التعميم وإسناد القدرة إلى الذكاء الاصطناعي على فعل أي شيء يقوم به البشر عمليًا وحتى القيام به بشكل أفضل.

نعتقد أن الذكاء الاصطناعي ليس له حدود عمليًا ولكن في الواقع ما تمتلكه أنظمة الذكاء الاصطناعي الحالية ليس ذكاءً بل “مهارات دون فهم” بالمعنى الذي أشار إليه دانيال دينيت في كتابه من البكتيريا إلى باخ والعكس . وهذا يعني أن الأنظمة التي يمكن أن تصبح مؤهلة للغاية في تنفيذ مهام محددة مثل التمييز بين سلسلة من العناصر في صورة ما ولكن دون فهم أي شيء على الإطلاق حول طبيعة هذه العناصر أو الخصائص والعلاقات بينها بسبب غياب الفطرة السليمة. على سبيل المثال ، يمكنهم التعرف على شخص أمام جدار لكنهم لا يعرفون ما هو الشخص أو ما هو الجدار أو أن الناس لا يمكنهم المرور عبر الجدران أو أن الأشخاص لا يمكن أن يكونوا في مكانين في نفس الوقت.

من الواضح أن الذكاء البشري هو المرجع الرئيسي لتحقيق الهدف النهائي للذكاء الاصطناعي ، أي تحقيق ذكاء اصطناعي عام ، لا يمكن تمييزه عمليًا عن الذكاء البشري ، ولكن في رأيي ، بغض النظر عن مدى تطور الذكاء الاصطناعي دائمًا. تكون مختلفة عن الإنسان.

من ناحية أخرى ، لأن البشر يفهمون عواقب أفعالنا وقراراتنا ونفهم أنه غالبًا ما يكون من الضروري إجراء استثناءات للقواعد. الخوارزميات غير قادرة على كل هذا ، فهي لا تفهم أي شيء وغير قادرة على إجراء استثناءات مع مراعاة السياق الذي يجب أن تتخذ فيه هذه القرارات.

من ناحية أخرى ، لأن التطور العقلي الذي يتطلبه كل الذكاء المعقد يعتمد على التفاعلات مع البيئة وهذه التفاعلات بدورها تعتمد على الجسم ، على وجه الخصوص ، النظام الإدراكي والجهاز الحركي. هذا ، جنبًا إلى جنب مع حقيقة أن الآلات لا تتبع ، ولن تستمر ، عمليات التنشئة الاجتماعية والثقافية ، له تأثير أكبر على حقيقة أنه ، بغض النظر عن مدى تطورها ، ستكون ذكاء مختلفًا عن ذكاءنا.

يجب أن تجعلنا حقيقة كوننا ذكاء غريبًا عن الإنسان وبالتالي غريبة على القيم والاحتياجات الإنسانية نفكر في القيود الأخلاقية المحتملة لتطوير الذكاء الاصطناعي. على وجه الخصوص ، أعتقد أنه لا يجب على أي آلة اتخاذ قرارات مستقلة تمامًا أو تقديم المشورة التي تتطلب ، من بين أمور أخرى ، الحكمة ، ونتاج الخبرات البشرية ، وكذلك مراعاة القيم الإنسانية. بشكل عام ، كلما زادت الاستقلالية التي نمنحها لأنظمة الذكاء الاصطناعي ، زادت المسؤولية التي يجب أن نطلبها من مصممي هذه الأنظمة بطريقة تتوافق مع المبادئ القانونية والأخلاقية.

الذكاء الاصطناعي ليس له أهداف ولا رغبات خاصة به. يشمل بناء ونشر الذكاء الاصطناعي الأشخاص في جميع المراحل ، من المفهوم إلى تصميم الخوارزمية والتنفيذ والتدريب وإثبات المفهوم والنشر. إذا حدث خطأ ما ، فإن الخوارزمية ليست مسؤولة ، نحن نحن. كل هذا يجعل العديد من الخبراء يشيرون إلى الحاجة إلى تنظيم تطورها.

ولكن ، بالإضافة إلى التنظيم ، من الضروري توعية المواطنين بفوائد ومخاطر التقنيات الذكية – وهي ليست تلك التي نراها في أفلام الخيال العلمي – تزويد المواطنين بالمهارات اللازمة للسيطرة عليهم بدلاً من أن يتحكموا بها. نحن بحاجة إلى مواطنين في المستقبل أكثر اطلاعا ، ولديهم قدرة أكبر على تقييم المخاطر التكنولوجية ، بحس نقدي أكثر بكثير وقادرون على تأكيد حقوقهم.

يجب أن تبدأ عملية التدريب هذه في المدارس وتستمر حتى الجامعة. على وجه الخصوص ، من الضروري أن يتلقى طلاب العلوم والهندسة تدريبًا أخلاقيًا يسمح لهم بفهم الآثار الاجتماعية للتقنيات التي سيطورونها بشكل أفضل. فقط إذا استثمرنا في التعليم سنحقق مجتمعًا يمكنه الاستفادة من التقنيات الذكية مع تقليل مخاطرها. الخوارزميات لا تفهم أي شيء. إنهم غير قادرين على إجراء استثناءات بالنظر إلى السياق.

المصدر/ saludymedicina.org المترجم/barabic.com

تعليقات (0)

إغلاق