جيسي سويتيقول مخرج فيلم “UNKNOWN: Killer Robots”: “أعلن زعماء العالم في روسيا والصين والولايات المتحدة أن الذكاء الاصطناعي سيجلب العديد من المزايا لأرماجان في الحروب”.
حذر سويت ، الفائزة السابقة بجائزة إيمي: “إن ثورة الذكاء الاصطناعي تحدث”. لكنني أعتقد أن وعينا بسرعة تطوير هذه التكنولوجيا متأخر “.
يوضح Sweet في فيلمه الوثائقي أن استخدام الروبوتات والطائرات بدون طيار المتميزة في القتال ليس مشكلة جديدة ؛ لكن استخدام الذكاء الاصطناعي سيحسن العتاد الموجود ويحدّث الحرب.
وفقًا للخبراء ، فقد أوصلنا التقدم في الذكاء الاصطناعي إلى نقطة حيث لا خيار أمام القوى العالمية سوى إعادة التفكير في استراتيجياتها العسكرية.
ناثان مايكل ، قال كبير مسؤولي التكنولوجيا في شركة Shield AI: “من الواقعي أن نتوقع أن يقوم الذكاء الاصطناعي بتجربة F-16 ، وليس بعيدًا عن تحقيق هذا المستوى من التكنولوجيا”. Shield AI هي شركة تهدف إلى إنشاء أفضل طيار ذكاء اصطناعي في العالم.
ومع ذلك ، أعرب بعض صانعي الأفلام ، بمن فيهم أولئك الذين تتعامل أعمالهم مع الذكاء الاصطناعي ، عن قلقهم بشأن التسليح السريع للروبوتات وحذروا من أننا لا نفهم ما نبنيه.
قال سويت: “الطريقة التي تعالج بها الخوارزميات المعلومات تجعل من الصعب حتى على مطوري هذه الأنظمة فهم قراراتهم بشكل كامل”. تتطور هذه التكنولوجيا بسرعة كبيرة لدرجة أنه حتى إجابات لأسئلة مثل “هل يمكن أن تقتل الناس أم لا؟” لم يتم الرد عليه “.
الطريقة التي تعالج بها الخوارزميات المعلومات تجعل من المستحيل حتى لمطوري الأنظمة المذكورة فهم قراراتهم بشكل كامل.
بالإضافة إلى ذلك ، سوف يرتفع مرة أخرى الاعتماد على دقة التكنولوجيا ودقتها ، وهو ما يسمى تحيز الأتمتة.
هناك قلق آخر يتعلق ببرنامج التعرف على الوجه AI المستخدم لزيادة الروبوتات المستقلة أو الطائرات بدون طيار أثناء القتال. في الوقت الحاضر ، فإن إطلاق مثل هذه الأدوات هو مسؤولية الشعب ؛ ولكن إذا تم إزالة العامل البشري ، فإن هذه الأنظمة ستكون خطيرة جدًا على المدنيين.
يقول سويت: “الذكاء الاصطناعي أفضل في تحديد الأشخاص البيض”. لذلك ، يمكن بسهولة الخلط بين الأشخاص ذوي البشرة الداكنة. “عندما نكون في ساحة المعركة ولا يستطيع مثل هذا النظام التمييز بشكل صحيح بين الصديق والعدو ، فإننا سنواجه كارثة كبرى.”
يجب أن تكون قد شاهدت أفلام حركة مستقبلية حيث تعمل الروبوتات وأسلحة الذكاء الاصطناعي القوية ضد البشر. وقال سويت في جزء آخر من شرحه: “بالذكاء الاصطناعي ، يكون حدوث السيناريو المذكور ممكنًا بالفعل ، وقد تسبب هذا التفكير في حدوث توتر في القوات العسكرية حول العالم”.
إن الافتقار إلى التطور المطلوب لاختراق أنظمة القتال ينبغي أن يقلق الجميع
بالإضافة إلى ذلك ، هناك مخاوف بشأن الأمن السيبراني للذكاء الاصطناعي وقدرة الحكومات الأجنبية أو الأفراد المستقلين على تولي الأدوات العسكرية المهمة. قال سويت: “لا أعتقد أن هناك إجابة واضحة لهذه المخاوف حتى الآن ، والجميع يعلم أنه كلما انتقل الجيش إلى الأتمتة ، زاد عدد الأشخاص الذين يمكنهم استخدام هذه التقنيات”.
يقول الخبراء إن الافتقار إلى التطور المطلوب لاختراق أنظمة القتال يجب أن يقلق الجميع. قال سويت: “كنت بحاجة إلى الكثير من المعرفة الحاسوبية لاستخدام المعدات العسكرية”. ولكن الآن يمكن لأي شخص لديه أي معدل ذكاء أن يفعل مثل هذه الأشياء “.
مع تقدم الذكاء الاصطناعي في التقنيات الطبية والصيدلانية لعلاج الأمراض ، يحذر العلماء من أن شيئًا بسيطًا مثل تغيير الصفر إلى واحد في الكمبيوتر يمكن أن يخلق أسلحة كيميائية عن طريق تشغيل آلاف المحاكاة التي تؤدي إلى إنتاج مركبات سامة.
الطبيب شون أكينزالرئيس التنفيذي لشركة Collaborations Pharmaceuticals ، في الفيلم الوثائقي Sweet يروي قصة كيف منحته هيئة الرقابة السويسرية للذكاء الاصطناعي مهمة في عام 2021 لاختبار إمكانية تصميم سلاح بيولوجي.
قال إيكنز لصحيفة NYPost: “نبني نماذج مختلفة للتعلم الآلي لاختبار ما إذا كانت الجزيئات سامة أم لا”. لقد قلبنا مفتاحًا حرفيًا على أحد النماذج وأنتجنا جزيئات أسلحة كيميائية بين عشية وضحاها. ومن المثير للاهتمام ، أن شركة صغيرة فعلت شيئًا مشابهًا مع طراز Mac المكتبي لعام 2015.
من بين الأنماط التي تم إنشاؤها بواسطة الذكاء الاصطناعي كانت هناك مركبات شبيهة بـ VX ، أحد أكثر عوامل الأعصاب المعروفة فتكًا في العالم.
وأضاف الدكتور إيكنز: “لقد استخدمنا تقنيات الإنجاب للقيام بذلك ، والتي كانت بالطبع بدائية للغاية في عام 2021.” لقد مر ما يقرب من عامين وأعتقد أن ما قمنا به ضئيل جدًا مقارنة بما هو ممكن اليوم. “
يقلق أكينز من أن العلماء المارقين أو الأشخاص ذوي المؤهلات غير الكافية سيستخدمون الذكاء الاصطناعي لإنتاج أسلحة بيولوجية وكيميائية خطيرة. يقول: “أعتقد أن الخطر الحقيقي هو أننا نصل إلى النقطة التي يسهل فيها ابتكار جزيئات جديدة بمراكز”. “هذا حقًا مدعاة للقلق ، ويمكن للذكاء الاصطناعي أن يساعد البشر على إنتاج جزيئات أكثر سمية بعشرات الآلاف من المرات.”
يقول أكينز إنه لا يوجد حتى الآن أي إجراء جاد لمنع إنشاء أسلحة كيميائية بالذكاء الاصطناعي ، والسبب في ذلك هو عدم فهم الخطر المحتمل للتكنولوجيا المذكورة. قارن الدكتور إكينز السرعة الفائقة لتكنولوجيا التعلم الآلي في مجاله بالعلماء الذين صنعوا القنبلة الذرية. لأنهم لم يفكروا في عواقب عملهم أيضًا.
وأشار أكينز أيضًا إلى أنه “حتى الأب الروحي للذكاء الاصطناعي يدرك الآن مدى خطورة هذه التكنولوجيا وما هي الأخطار الأخرى التي سيحدثها توسعها.” أيضًا ، أعتقد أنه سيكون من الصعب جدًا إعادة الوضع إلى ما كان عليه من قبل.
227227
.