غوتيريش يحذّر من تسليم ملف الأسلحة النووية للذكاء الاصطناعي

0

وقال غوتيريش في جلسة هي الأولى التي يخصّصها مجلس الأمن للبحث في مسألة الذكاء الاصطناعي “من الجلي أن الذكاء الاصطناعي سيكون له تأثير على جميع مناحي الحياة”.

وتابع “الذكاء الاصطناعي التوليدي لديه إمكانيات هائلة للخير والشر”، وأشار إلى أن التقنية قادرة على المساعدة في وضع حد للفقر أو علاج السرطان، لكن قد تكون لها “عواقب خطيرة جدا على السلام والأمن الدوليين”.

وفيما يلي أبرز النقاط التي أشار إليها غوتيريش:

  • دعا الدول الأعضاء إلى إعداد وثيقة ملزمة قانونيا بحلول عام 2026 “لحظر استخدام الأسلحة الذاتية المميتة”.
  • من الممكن استخدام الذكاء الاصطناعي في “التعرف على أنماط العنف ومراقبة وقف إطلاق النار وتعزيز جهود حفظ السلام والوساطة والجهود الإنسانية”.
  • الاستخدامات الضارة لأنظمة الذكاء الاصطناعي لأغراض إرهابية أو إجرامية أو لصالح دولة، يمكن أن تتسبب في مستويات مرعبة من الموت والدمار وتفشي الصدمات والضرر النفسي العميق على نطاق يفوق التصور.
  • التفاعل بين الذكاء الاصطناعي والأسلحة النووية والتكنولوجيا البيولوجية والتكنولوجيا العصبية وتكنولوجيا الروبوتات، هو “أمر مقلق للغاية”.
  • حضّ على “الاتفاق على المبدأ العام ومفاده أن الفاعلية والسيطرة البشرية ضرورية في ما يتعلّق بالأسلحة النووية ولا ينبغي سحبها إطلاقا”.
  • دعا إلى إنشاء مجموعة عمل تكلف إعداد تقرير بحلول نهاية العام عن خيارات الحوكمة العالمية للذكاء الاصطناعي.
  • جدد التأكيد على دعمه إنشاء كيان أممي لمؤازرة جهود حوكمة استخدام الذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية أو منظمة الطيران المدني الدولي.

 

من جانبه، قال وزير الخارجية البريطاني جيمس كليفرلي الذي تتولى بلاده الرئاسة الدورية لمجلس الأمن إن الذكاء الاصطناعي “سيؤثر على عمل هذا المجلس. يمكنه تعزيز الاستقرار الاستراتيجي العالمي أو تعطيله”.

وأشار كليفرلي الذي تستضيف بلاده في وقت لاحق من العام الحالي قمة حول الذكاء الاصطناعي إلى أن التقنية “تتحدى افتراضاتنا الأساسية حول الدفاع والردع. وتطرح أسئلة أخلاقية حول المساءلة عن قرارات مميتة في ساحة المعركة”.

شاركها.

اترك تعليقاً