الذكاء الاصطناعي.. سلاح متفلت من القيود يطرح إشكاليات أخلاقية

أصدرت وزارة الدفاع الأميركية قائمة جديدة من "المبادئ الأخلاقيَّة" لاستخدام الذكاء الاصطناعي.

  • الذكاء الاصطناعي.. سلاح متفلت من القيود يطرح إشكاليات أخلاقية
    عمليات الذكاء الاصطناعيّ تتمّ في أجزاء من الثانية

يطرح الذكاء الاصطناعيّ وتطبيقاته إشكاليات أخلاقية ترقى في بعض الأحيان إلى مستوى المعضلات، إذ إنّ إيكال مهمّة اتخاذ القرارات لخوارزميات تعتمد على البيانات والأرقام، من دون امتلاك البُعد الإنسانيّ لإصدار الأحكام والقرارات، دونه الكثير من المخاطر. وفي المجالين العسكري والأمني، تتخذ هذه المخاطر أشكالاً أكثر تعقيداً. 

وفي هذا السّياق، أصدرت وزارة الدفاع الأميركية قائمة جديدة من "المبادئ الأخلاقيَّة" لاستخدام الذكاء الاصطناعي، إثر دراسة استمرت 15 شهراً، وقادها إريك شميدت، أحد مديري "غوغل" السابقين، على رأس "مجلس الابتكار الدفاعي"، وهو إطار من المستشارين خارج السّلك العسكريّ.

ودافعت وزارة الدّفاع عن قائمة المبادئ الجديدة، بالتشديد على أنها تستند إلى الدستور الأميركيّ وقوانين الحرب والمعاهدات الدولية، لكنَّ التدقيق في القائمة لا يتوافق مع هذا الادعاء.

وبحسب "المبادئ الأخلاقيّة" الصادرة عن البنتاغون، فإنَّ على العسكريين الَّذين يستخدمون أدوات الذكاء الاصطناعي وتطبيقاته، "امتلاك إدراك كافٍ بالتقنية وآليات تطورها وأساليب تشغيلها". 

وعند سؤال مدير مركز الذكاء الاصطناعي في وزارة الدفاع، الجنرال جاك شاناهان، عن معنى هذه العبارة، أجاب أنَّ وزارة الدفاع "تمتلك الحقّ في تعطيل أيّ نظام ذكاء اصطناعيّ قد يتسبّب بسلوك غير مقصود".

وتبدو إجابة الجنرال الأميركي شديدة التّعميم والضّبابية، فمن المعروف أنَّ عمليات الذكاء الاصطناعيّ تتمّ في أجزاء من الثانية، بل إنّ أحد أهداف الجيش الأميركيّ الرئيسيّة تعزيز أداء أنظمة الذكاء الاصطناعي وسرعتها، وبالتالي إنَّ الاعتماد على العنصر البشري لـ"إيقاف" أيّ عملية آلية يزيد من تعقيد المشكلة.

واللافت أنَّ المسؤول الأميركيّ اعترف خلال مؤتمره الصّحافي بأنَّ مشروع صياغة المبادئ الأخلاقيَّة لاستخدامات الذكاء الاصطناعيّ العسكريّة، قوبل "بقليل من الاستفزاز" في مجتمع الذكاء الاصطناعيّ، لكنَّ "وزارة الدفاع ماضية في خطواتها"، على الرغم من اعتراض هذا المجتمع.

وفي السياق نفسه، أعلن شاناهان أنّ وكالات الاستخبارات الأميركيَّة قد تتبنّى المبادئ الجديدة، علماً أنَّ الدراسة التي أفضت إلى هذه المبادئ واجهت الكثير من الانتقادات، بعد أن اكتشف صحافيون وناشطون أنَّ الجيش الأميركيّ يطوّر خوارزميات الذكاء الاصطناعيّ لتحليل مقاطع فيديو تبثّها طائرات من دون طيار تشارك في عمليات عسكرية.

واستعان البنتاغون بشركة "غوغل" لتطوير هذه الخوارزميات، ما أدى أيضاً إلى موجة استقالات داخل الشركة العملاقة وتسريب تقارير عن تورّطها في هذا المشروع.

إذاً، لا توصي إرشادات الدفاع الأميركيّ بالحدّ من استخدام الذكاء الاصطناعيّ في العمليات الحسّاسة، بل تترك الباب واسعاً أمام تقدير العسكريين، تحت عنوان "ممارسة مستويات مناسبة من الحُكم والعناية"، ما يفتح الباب على مصراعيه أمام سباق تسلّح عالميّ جديد خالٍ من القيود هذه المرة.