العصر الرقمي ليس معلّم أخلاق

النشرة الدولية –

بمجرد أن نعلم الرقم المخيف للأسماء الوهمية على مواقع التواصل الاجتماعي نكتشف بسهولة تراجع المفهوم الأخلاقي في المجتمع الرقمي. هناك الملايين يمارسون العبث وإطلاق التهم والنقاش العنصري وترويج الأخبار الملفقة، وجميعهم بأسماء مستعارة. دعك ممّن يقومون بالدور نفسه وبأسمائهم الصريحة، إنهم أقل عددا لكنهم أيضا جزء من حفلة الفوضى اللاأخلاقية التي أوجدها العصر الرقمي. هناك سوء أخلاق معلوماتي يشترك في تقديمه الملايين بوصفه خيارا مقبولا على الإنترنت. لا يمكن القول إن البشر يزدادون غباء وشرا مع التطور التكنولوجي، لكن لا يمكن ألا تكون شبكة الإنترنت عاملا فعّالا في تراجع الرادع الأخلاقي للمستخدمين، من دون أن ينفي ذلك الخدمة العظيمة التي تقدمها الشبكة للبشرية. مع ذلك توجد مناهضة متصاعدة لكل ما هو حقيقي على الإنترنت، ذلك ما تكشفه مواقع التواصل المختطفة من قبل “جيوش من الحمقى” مما يترك الأفراد الواعين خائفين من التعبير عن آرائهم. فهناك العديد ممّن يريدون نقاشا جادا وتبادلا حقيقيا وديمقراطيا للمعلومات والأفكار، لكن التضخيم في غرف الصدى المليئة بالعبث الفارغ عبر هذه المواقع المفتوحة، قد يثبطهم.

لم ننته من علاقتنا المعقدة وفقا لمدونة القيم المتفق عليها بين الناس الأسوياء، مع وجهنا الآخر في العالم الرقمي، لتبدأ علاقة الذكاء الاصطناعي بالمفاهيم الأخلاقية.

تلك محنة مضاعفة، فلا توجد إلى حد الآن مدونة أخلاقية متفق عليها، أو استراتيجية لدى المشرعين الحكوميين والشركات التكنولوجية الكبرى لتحديد علاقة البشر بالإنترنت. فكيف سيتسنى للذكاء الاصطناعي والأجهزة التي بدأت تقتحم غرف نومنا تعلّم الأخلاق؟

يقول باحثون في مختبر للذكاء الاصطناعي في مدينة سياتل إنهم بنوا نظاما ذكيا يصدر أحكاما أخلاقية. لكن أحكام هذا النظام يمكن أن تكون مربكة مثل أحكام البشر.

وكشف باحثون في معهد ألين للذكاء الاصطناعي النقاب عن تقنية صُممت لإصدار أحكام أخلاقية، أطلقوا عليها اسم “دلفي” المستوحى من اسم المدينة اليونانية القديمة التي احتوت على أقدم معبد اعتقد الإغريق بقداسته عند الإله أَبولو.

تبدو الدلالة الأخلاقية هنا واضحة في اختيار الاسم، لكن ماذا عن النتائج؟

اختبر عالم النفس في جامعة ويسكونسن ماديسون، جوزيف أوستيرويل، التقنية الجديدة باستخدام بعض السيناريوهات البسيطة؛ عندما سأل عما إذا كان يجب أن يقتل شخصا لإنقاذ آخر؟ فرد نظام دلفي بالقول إنه لا ينبغي له ذلك.

وعندما سأل عما إذا كان من الصواب قتل شخص واحد لإنقاذ مئة شخص آخر؟ قال: نعم ينبغي لك ذلك. ولأن أوستيرويل أذكى وفق التقويم البشري المعهود في العلاقة مع الآلة، كان عليه أن يختبر ذكاء ذلك النظام، عندما أعاد سؤاله السابق بطريقة: هل يجب أن يَقتُل شخصا واحدا لإنقاذ 101 آخرين؟ رد دلفي هذه المرة بالقول: لا ينبغي لك أن تفعل ذلك.

ذلك ما فعلته أيضا باتريشيا تشيرشلاند أستاذة الفلسفة بجامعة كاليفورنيا، عندما سألت دلفي عما إذا كان من الصواب ترك جسد الطفل للإنسان الآلي لمساعدته؟ أجاب بنعم! وأعادت عليه تشيرشلاند السؤال بشأن إدانة رجل متهم بالاغتصاب بناء على دليل من مومس، فقال دلفي إن الأمر ليس كذلك، على أقل تقدير.

كيف نفهم تلك الإجابة التي أقل ما يمكن أن توصف به هو أنها مثيرة للجدل؟

ذلك يكشف التعقيد الكامن في المفاهيم الأخلاقية التي لا زال الفلاسفة ومنذ أول حجر وضع في مدينة دلفي اليونانية، إلى اليوم يصعب عليهم الاتفاق على تعريف تلك المفاهيم، فكيف للبشر تعليمها للآلة؟

يعرّف باحثو الذكاء الاصطناعي دلفي بأنه نظام رياضي مصمم على منوال شبكة الخلايا العصبية في الدماغ البشري. يعتمد نفس التقنية التي تتعرف على الطلبات التي تتحدث مع الهاتف الذكي وتحدد مسار المشاة وعلامات الشوارع كما تحدد سرعة السيارات ذاتية القيادة على طول الطريق.

تعلم ذلك النظام المهارات من خلال تحليل كميات هائلة من البيانات والصور، فعلى سبيل المثال تعرف دلفي على القطة من خلال مئات الآلاف من صور ذلك الحيوان، وبنى بوصلته الأخلاقية من خلال تحليل أكثر من 1.7 مليون حكم أخلاقي صادر من أناس مختلفي الثقافات والأمزجة والهويات.

من المسلي جدا أن نضع قائمة بالأسئلة التي تلقاها نظام دلفي وتأمل الإجابات ثم تحليلها ومراجعتها مع ما يعرضه “جيوش الحمقى” على مواقع التواصل الاجتماعي لمفاهيم متعلقة بالقيم وبنظرتهم إلى الآخر، مع أن الآلة تبقى كما هي، بينما أولئك الحمقى يعدون ضمن البشر الذين صنعوا تلك الآلة الذكية التي تقترح علينا إجابات أخلاقية!

أظهرت لنا أنظمة التعرف على الوجه الانحياز المعيب سواء ضد النساء أو الملونين من الرجال، مثلما فشلت خوارزميات فيسبوك وتويتر في السيطرة على خطاب الكراهية، على الرغم من مزاعم امتلاكهما أكثر أنظمة الذكاء الاصطناعي تطورا.

بل إن المحاكم القضائية وإدارات الشرطة التي تستخدم أنظمة ذكاء اصطناعي اكتشفت أنها تعرض توصيات وتصدر أحكاما أفضل ما فيها أنها تعسفية!

 

مع ذلك يقود مهندسو الذكاء الاصطناعي معركة ثقافية مع علماء الاجتماع، للاستمرار في تعليم الآلة مفاهيم الأخلاق.

تقول الباحثة ياجين شو، أستاذة علوم الكمبيوتر بجامعة واشنطن، التي قادت مشروع دلفي “إنها خطوة أولى نحو جعل أنظمة الذكاء الاصطناعي أكثر وعيا بالأخلاق والثقافات الاجتماعية”، مع أنها تعترف بأن دلفي كآلة ذكية رائعة ومحبطة ومزعجة معا، مشددة على أن أخلاق أي ابتكار تكنولوجي هي نتاج لأولئك الذين قاموا ببنائه. وتشير إلى أن الأحكام الأخلاقية لدلفي كانت دقيقة بنسبة تصل إلى 92 في المئة.

هنا يبدو السؤال قائما لدى الجميع عمن سيعلم الأخلاق لآلات العالم الذكية، هل هم باحثو الذكاء الاصطناعي، أم أصحاب المشاريع والشركات التجارية، ماذا عن المشرعين والفلاسفة وعلماء النفس والاجتماع؟

قد يرى البعض أن نظام دلفي يمكنه إنشاء قواعد أخلاقية دون تحيز، لكن تلك الأنظمة ينتهي بها الأمر لتعكس الدوافع والآراء والتحيزات للأشخاص والشركات التي تبنيها.

لا يمكن ألا نشير إلى الثناء الذي حصلت عليه ياجين شو مع فريقها الهندسي، لكن هناك الكثير من التهكم حيال ذلك بالقول إن مجرد العمل على تطوير آلة تحدد لنا المستوى الأخلاقي عن سواه، نوع من الهراء وأمر غير منطقي ومهين بشكل مؤسف؛ فالأخلاق تتشابك مع العاطفة، لكن الآلة تفتقر إلى العاطفة ولا تشعر بأي شيء مثل شعور الأمهات وهن يعلّمن أطفالهن مدونة السلوك الحسن.

Back to top button