الذكاء الاصطناعي… هل يكون “حصان طروادة” في حرب الجواسيس؟

أيد غوتيريش اقتراحاً قدمه المديرون التنفيذيون في المجال بإنشاء هيئة رقابة دولية على غرار وكالة الطاقة الذرية

النشرة الدولية –

اندبندنت عربية –

منذ فترة ليست بقصيرة يحذر مسؤولون وسياسيون وصناع رأي حول العالم من مخاطر الذكاء الاصطناعي على حقوق الإنسان، التي وصفها البعض بأنها قد تكون “خطراً بالغاً”. وهو ما دعا إليه الرئيس الأميركي جو بايدن في “قمة الديمقراطية” التي عقدت في واشنطن أواخر مارس (آذار) الماضي، الذي أعلن خلال افتتاح القمة عن مبادرة جديدة لدعم الديمقراطية تركز على “تطويع التكنولوجيا لدعم القيم والمؤسسات الديمقراطية” في مواجهة “الاستبداد الرقمي”. بدوره حذر وزير الخارجية الأميركي، أنتوني بلينكن، خلال القمة، من “المخاطر التي تأتي مع الإنترنت المفتوح”، مشيراً إلى أن “التكنولوجيا تعمق أحياناً عدم المساواة في مجتمعاتنا”.

سوسن مهنا

وفي فبراير (شباط) الماضي حذر المفوض السامي لحقوق الإنسان في الأمم المتحدة، فولكر تورك، من أن التقدم الذي أحرز، أخيراً، في مجال الذكاء الاصطناعي يمثل خطراً بالغاً على حقوق الإنسان، داعياً إلى وضع “محاذير فعالة”.

في السياق وبعد 10 سنوات في خدمة “غوغل” استقال رائد الذكاء الاصطناعي جيفري هينتون، موضحاً في مقابلة مع صحيفة “نيويورك تايمز” الأميركية أنه غادر للتحدث بحرية عن الذكاء الاصطناعي التوليدي، وعن خمسة مخاطر أساسية للذكاء الاصطناعي.

ووفقاً لهينتون، ستكون أنظمة الذكاء الاصطناعي المستقبلية قادرة على تطوير سلوكيات غير متوقعة بعد تحليل كمية كبيرة من البيانات، وقد أصبح هذا ممكناً، لأن أنظمة الذكاء الاصطناعي تولد الكود الخاص بها وتوجهه، مما قد يحولها إلى “أسلحة مستقلة” و”روبوتات قاتلة”، رغم أن عديداً من الخبراء يقللون من شأن هذا التهديد.

وبحسب رائد الذكاء الاصطناعي، فإن التهديد يأتي أيضاً من إساءة استخدامه من قبل الجهات الفاعلة الخطرة. وأبدى قلقه من أنه “من الصعب معرفة كيفية منع الجهات السيئة من استخدامه لأغراض شريرة”. ويعارض هينتون بشكل خاص استخدام الذكاء الاصطناعي في المجال العسكري، وهو يخشى في الأساس من تطوير البشر “للجنود الآليين”، فهل يكون مجال الذكاء الاصطناعي اليوم أشبه بـ”حصان طروادة” في الحروب القديمة، وهل كلما تطورت تطبيقاته على هذا النحو المتسارع والمذهل في المجال العسكري يقترب الإنسان من الهلاك؟

الذكاء الاصطناعي وعالم الجواسيس

في يوليو (تموز) الماضي أعلن رئيس جهاز الاستخبارات البريطانية الخارجي (MI6) ريتشارد مور في ظهور علني مقرر لمرة واحدة في السنة من مقر سفارة بلاده في براغ العاصمة التشيكية، أن الذكاء الاصطناعي سيغير عالم التجسس، لكنه لن يحل مكان الحاجة إلى جواسيس من البشر.

خطاب مور تمحور حول التهديدات المتطورة التي يواجهها الغرب من روسيا وإيران، مجادلاً أن “العامل البشري” سيظل حاسماً في عصر الذكاء الاصطناعي سريع التطور. وكانت حكومة المملكة المتحدة قد نشرت بعض المقتطفات من خطابه مسبقاً، جاء فيها أن “الذكاء الاصطناعي يجعل المعلومات أكثر إتاحة ويسراً، بلا حدود، وقد يتساءل البعض عما إذا كان سيخرج أجهزة الاستخبارات مثل جهازي هذا من الخدمة”.

مور، الذي حذر في السابق من أن الغرب يتخلف عن منافسيه في سباق الذكاء الاصطناعي، قال إن “الخصائص الفريدة لوضع عملاء من البشر في الأماكن الصحيحة ستظل الأكثر أهمية”، مسلطاً الضوء على قدرة الجواسيس على “التأثير في عمليات اتخاذ القرار داخل الحكومة أو داخل جماعة إرهابية”.

وأعلن أن الجواسيس البريطانيين يستخدمون بالفعل الذكاء الاصطناعي لعرقلة توريد الأسلحة إلى روسيا التي ستستخدم ضد أوكرانيا”. متوقعاً أن الجواسيس الغربيين سيضطرون بشكل متزايد إلى التركيز على تتبع الاستخدام الخبيث للذكاء الاصطناعي من جانب دول معادية، واصفاً الذكاء الاصطناعي بأنه “تهديد قائم ومحتمل ضخم”.

يذكر أن الخطاب العام النادر الذي ألقاه مور في نوفمبر (تشرين الثاني) 2021 أي منذ تولى رئاسة الجهاز كان منذ نحو ثلاث سنوات، تطرق فيه أيضاً إلى التهديد الذي يشكله الذكاء الاصطناعي. واتهم الغرب حينها بالتباطؤ في حساب التأثير التخريبي للذكاء الاصطناعي، والتخلف عن الأعداء الذين “يضخون الأموال ولديهم الطموح” في الذكاء الاصطناعي وغيره من التقنيات المتطورة.

حينها قال إن الصين هي “الأولوية القصوى الوحيدة” لجهازه، وإن بريطانيا وحلفاءها “يجب أن يتحدوا لردع النشاط الروسي الذي يتعارض مع النظام الدولي القائم على القواعد”. وبعد  ثلاثة أشهر من خطابه هذا، بدأت روسيا هجومها العسكري على أوكرانيا.

من أين يتأتى التهديد؟

ذكر مقال لموقع “مايكروسوفت” “أن الذكاء الاصطناعي خرج من مختبرات البحوث ومن صفحات روايات الخيال العلمي، ليصبح جزءاً لا يتجزأ من حياتنا اليومية، ابتداء من مساعدتنا في التنقل في المدن وتجنب زحمة المرور، وصولاً إلى استخدام مساعدين افتراضيين لمساعدتنا في أداء المهام المختلفة، واليوم أصبح استخدامنا للذكاء الاصطناعي متأصلاً من أجل الصالح العام للمجتمع”. فهل هذا صحيح؟

 يرى الكاتب المتخصص في الشؤون الأميركية محمد المنشاوي في مقال له نشر خلال يوليو الماضي، أن “فريقاً من المفكرين يذهب إلى أن استخدام القنبلتين النوويتين في ضرب مدينتي هيروشيما ونغازاكي، هو ما وضع نهاية للحرب العالمية الثانية في مسرحها الآسيوى، وهو ما منع من استخدامها بعد ذلك في أي صراع أو نزاع، حتى لو كانت أطرافه تمتلك القنابل النووية، وهو ما حدث مع الاتحاد السوفياتى في أفغانستان وروسيا في أوكرانيا، وقبلهما الولايات المتحدة في فيتنام والعراق.

أضاف، يؤمن هذا الفريق أن لجوء واشنطن لاستخدام السلاح النووي أسهم في خلق حالة من السلام غير المسبوق بين الدول الكبرى، ومنع وقوع حروب عالمية ينتج عنها وفاة عشرات الملايين كما حدث في الحربين العالميتين التى عرفتهما البشرية في النصف الأول من القرن 20. ويحيط هذا النقاش بأسئلة جديدة تتعلق بالتكنولوجيات الحديثة وعلى رأسها تطبيقات الذكاء الاصطناعي العسكرية.

وبينما يستمر العلماء في الوقت الراهن في السباق لاستخدام الذكاء الاصطناعي في تطبيقات عسكرية متقدمة، فإننا نجهل الكثير في شأن مستقبل هذا السباق. كل ما نعرفه هو أنه مثلما أصبحت الأسلحة النووية جزءاً لا غنى عنه من الأمن القومي، فإن الذكاء الاصطناعي أيضاً أصبح كذلك ويستمر في التطور إلى حدود نجهلها”.

وفي يونيو (حزيران) الماضي، أيد الأمين العام للأمم المتحدة أنطونيو غوتيريش اقتراحاً قدمه بعض المديرين التنفيذيين في مجال الذكاء الاصطناعي، بإنشاء هيئة رقابة دولية للذكاء الاصطناعي، على غرار الوكالة الدولية للطاقة الذرية.

كما حذرت مجموعة من كبار رجال الأعمال والخبراء، بينهم مبتكر برنامج “تشات جي بي تي” سام ألتمان، في بيان نشر في مايو (أيار) الماضي، من أن صعود الذكاء الاصطناعي ينطوي على خطر “انقراض” للبشرية.

يشار إلى أن مجلس الأمن الدولي بحث رسمياً وللمرة الأولى ملف الذكاء الاصطناعي، في يوليو الماضي، وجاء هذا تزامناً مع قيام حكومات في جميع أنحاء العالم بدراسة كيفية التخفيف من مخاطر تكنولوجيا الذكاء الاصطناعي الناشئة، التي يمكن أن تعيد تشكيل الاقتصاد العالمي وتغير مشهد الأمن الدولي.

يقول المتخصص في الأمن السيبراني والتحول الرقمي رولاند أبي نجم لـ”اندبندنت عربية”، إن أخطر ما يحكى عنه في مجال الذكاء الاصطناعي والتخوف الكبير من قبل مجلس الأمن هو استخداماته في الحروب وتحديداً في مجال التجسس، إذ من الممكن التطرق إلى عدة أمور، مثل ما حدث مع المنطاد الصيني الذي كشف عن القدرة على التجسس من مسافات بعيدة، مع التقاط صور وصوت ذو جودة عالية. وأشار إلى أن هذا يتطور بشكل كبير وسريع من هنا جاء تخوف الولايات المتحدة وإعلانها أن المنطاد كان لأغراض التجسس.

يضيف، أنه في 28 يناير (كانون الثاني) الماضي دخل منطاد على ارتفاعات عالية مصدره الصين إلى المجال الجوي للولايات المتحدة، مما تسبب في توترات دبلوماسية بين البلدين. وقال الجيشان الأميركي والكندي حينها إن المنطاد كان جهاز مراقبة، بينما زعمت الحكومة الصينية أنه منطاد أبحاث مدني للأرصاد الجوية خرج عن مساره بفعل الرياح. ووفقاً لأبي نجم فإن هذه الحادثة توجه رسالة شديدة الخطورة إلى الحكومة الأميركية بالقدرات الصينية على التجسس.

“اختراق لشبكات دفاعية سرية لليابان”

صحيفة “واشنطن بوست” الأميركية سلطت الضوء في السابع من أغسطس (آب) الحالي على الكشف “المقلق” الذي توصلت إليه وكالة الأمن القومي الأميركي في خريف عام 2020، وهو اختراق قراصنة عسكريين صينيين شبكات دفاعية سرية لليابان التي تعتبر أهم حليف استراتيجي للولايات المتحدة في شرق آسيا.

وأوضحت الصحيفة في تقرير، أن القراصنة السيبرانيين من جيش “التحرير الشعبي الصيني” اخترقوا أنظمة الكمبيوتر الأكثر حساسية في اليابان، ما يجعلها واحدة من أكثر الاختراقات إضراراً في التاريخ الحديث لتلك الدولة.

ويعلق الخبير في الأمن السيبراني أبي نجم على الحادثة بالقول، إن خطر الذكاء الاصطناعي في كل ما له علاقة بـ”النانوتكنولوجي” حيث أصبحت كاميرات المراقبة تتمتع بحجم صغير جداً بحيث من الصعب أو من المستحيل اكتشافها، وتتمتع بجودة صوت وصورة عاليين. إضافة إلى التطبيقات و(Software) والتي تستخدم في القرصنة والاختراقات، بحيث لا يمر نهار من دون أن نسمع عن حالة تجسس مثل ما حدث بين الصين واليابان.

يوضح، أنه من أشد  أخطار الذكاء الاصطناعي هو استعماله في التقنيات الحديثة كتزوير الصوت والصورة، ومقاطع الفيديو وهذا ما يعرف بسرقة الهويات، أو (Identity Theft)، بحيث من الممكن جداً نشر أي مقطع فيديو لشخصية معينة مع الصوت والصورة بتقنيات عالية، ويصعب التمييز أو معرفة أنها مزيفة. وأخيراً موضوع  نشر الأخبار الكاذبة أو المضللة وهي ما تؤثر في عمليات حساسة لبعض الدول كالانتخابات الأميركية، أو الحرب في أوكرانيا ما يدفع إلى حالة من البلبلة بسبب ضخ معلومات وأخبار كاذبة يصعب التأكد من صحتها فوراً.

خطر القيادة والسيطرة على الأسلحة

في تقرير نشر عبر مجلة “فورين بوليسي” الأميركية خلال أبريل (نيسان) الماضي، يقول هناك ما هو أهم من السلاح وقدراته في الحقيقة، وهو القرار باستخدام السلاح، يمكن للبرامج التي تعتمد على الذكاء الاصطناعي أن تقود القوى الكبرى إلى تقليص فترة اتخاذ القرار إلى دقائق بدلاً من ساعات أو أيام، في المستقبل، قد تعتمد هذه الدول كثيراً على التقييمات الاستراتيجية والتكتيكية للذكاء الاصطناعي، حتى عندما يتعلق الأمر بالحرب النووية.

في السياق، يوضح هربرت لين، خبير الأمن السيبراني الذي يعمل في مجلس العلوم والأمن في الولايات المتحدة، أن الخطر هنا يكمن في أن صانعي القرار يمكن أن يعتمدوا تدريجياً على الذكاء الاصطناعي الجديد كجزءاً من القيادة العسكرية والسيطرة على الأسلحة، لأنه يعمل بسرعة أكبر بكثير مما يستطيع البشر القيام به.

 وفي تقرير نشر أوائل فبراير (شباط) الماضي، قالت رابطة الحد من الأسلحة، وهي منظمة أميركية غير حزبية، إن الذكاء الاصطناعي وغيره من التقنيات الجديدة، مثل الصواريخ التي تفوق سرعة الصوت، يمكن أن تؤدي إلى طمس التمييز بين الهجوم التقليدي والنووي.

ويشير تقرير الرابطة إلى أن استغلال التكنولوجيا يحدث بوتيرة أسرع بكثير من الجهود المبذولة لتقييم المخاطر التي تشكلها ووضع قيود على استخدامها، مشيرة إلى أن من الضروري في هذه الحالة إبطاء وتيرة تسليح هذه التقنيات، وموازنة المخاطر بعناية عند القيام بذلك، واعتماد قيود ذات مغزى على استخدامها العسكري.

 

 

زر الذهاب إلى الأعلى