تقرير مخيف وغريب لـ “إيكونوميست” عن المستقبل!

في عام 1945 ، قبل اختبار القنبلة النووية الأولى في صحراء نيو مكسيكو بالولايات المتحدة ، راهن إنريكو فيرمي ، أحد الفيزيائيين العاملين على القنبلة ، مع زملائه العلماء. هل ستؤدي الحرارة غير المسبوقة من الانفجار إلى نشوب حريق نووي في الغلاف الجوي؟ إذا كان الأمر كذلك ، فهل ستدمر العاصفة النارية نيو مكسيكو فقط أم ستدمر العالم بأسره؟ بالطبع ، لم تكن هذه التجربة متهورة مثل رهانات فيرمي المؤذية. فيزيائي آخر ، هانس بيته ، قدر أن مثل هذا الجحيم سيكون شبه مستحيل.

في هذه الأيام ، القلق بشأن “التهديدات الوجودية” ، أي تلك التي تشكل تهديدًا خطيرًا للجنس البشري بأكمله كنوع (وليس للبشر كأفراد) ، لا يقتصر على العلماء العسكريين. الحرب النووية ، والشتاء النووي ، والأمراض العالمية (سواء كانت طبيعية مثل كوفيد -19 أو مخلوقة) ، وكويكب يضرب الأرض واحتمالات أخرى لا حصر لها يمكن أن تقضي على معظم الناس أو حتى الجنس البشري بأكمله.

وفقًا لمجلة الإيكونوميست ، فإن أحدث تهديد مروّع للبشرية اليوم هو الذكاء الاصطناعي (AI) ونهاية العالم والجنس البشري على أيدي هذه التكنولوجيا. في مايو ، وقعت مجموعة من الشخصيات البارزة في مجال الذكاء الاصطناعي رسالة مفتوحة تنص على أن “الحد من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يكون أولوية عالمية ، إلى جانب المخاطر المجتمعية الأخرى مثل الأمراض العالمية والحرب النووية”.

ولكن إلى أي مدى من المعقول أن تقلق؟ في 10 يوليو / تموز ، نشرت مجموعة من الباحثين ، بما في ذلك عزرا كارجر ، الخبير الاقتصادي في بنك الاحتياطي الفيدرالي في شيكاغو ، وفيليب تيتلوك ، عالم السياسة بجامعة بنسلفانيا ، بحثًا يحاول الإجابة على هذا السؤال من خلال الفحص المنهجي لسؤالين مختلفين. مجموعات من الخبراء. فهم السؤال

على جانب واحد من الدراسة كان هناك خبراء في المجال قيد المناقشة أو “مجال خاص” في الحرب النووية ، والأسلحة البيولوجية ، والذكاء الاصطناعي ، وحتى موضوع “الانقراض” نفسه ، وعلى الجانب الآخر مجموعة من “المحترفين الفائقين”. متنبئين “أو تنبؤات عالمية مع تنبؤات دقيقة في جميع أنواع الموضوعات المختلفة ، من نتائج الانتخابات إلى بداية الحروب المختلفة.

اختار الباحثون ما مجموعه 89 متنبئًا فائقًا و 65 خبيرًا في المجال و 15 خبيرًا “معرضين للخطر”. تم تقديم نوعين مختلفين من الكوارث إلى المتطوعين للتقييم. تعرف الكارثة بأنها “كارثة طبيعية مفاجئة” تقتل 10٪ فقط من سكان العالم ، أو حوالي 800 مليون شخص. بالمقارنة ، تشير التقديرات إلى أن الحرب العالمية الثانية قتلت حوالي 3 في المائة من سكان العالم البالغ عددهم ملياري نسمة. من ناحية أخرى ، يتم تعريف “الانقراض” على أنه حدث يقضي على جميع الأفراد المحظوظين (أو غير المحظوظين) باستثناء ما يصل إلى 5000 فرد.

إذا كان علينا الذهاب ، فسنذهب جميعًا معًا

طُلب من المجموعتين التفكير في احتمالية حدوث كل شيء من الأحداث المتطرفة مثل الانقراض الناجم عن الذكاء الاصطناعي أو الحرب النووية إلى الأسئلة الأصغر ، بما في ذلك التطورات المقلقة في قدرات الذكاء الاصطناعي التي قد تحدث كعلامات إرشادية على الطريق إلى الكارثة في المستقبل. في المستقبل ، أعطِ تنبؤات.

النتيجة الأكثر إثارة للدهشة في الدراسة هي أن الخبراء في هذا المجال ، الذين يهيمنون عادة على المحادثة العامة حول المخاطر الوجودية ، يرون المستقبل أكثر قتامة بكثير من المتنبئين الفائقين. قدر الخبراء أن احتمال وقوع كارثة طبيعية بحلول عام 2100 يبلغ حوالي 20٪ ، واحتمال انقراض الإنسان حوالي 6٪. بالنسبة لهذه الأحداث ، تم النظر في احتمالية 9 و 1 في المائة من قبل المتنبئين.

هذه الفجوة الواسعة تخفي بعض التفاصيل المثيرة للاهتمام. كان لمجموعتين الاختلاف الأكبر في الرأي في تحديد المخاطر التي يشكلها الذكاء الاصطناعي. في المتوسط ​​، يقدر المتنبئون أنه بحلول نهاية القرن ، يبلغ احتمال وقوع كارثة من صنع الذكاء الاصطناعي 2.1٪ ، واحتمال الانقراض الناجم عن الذكاء الاصطناعي هو 0.38٪. من ناحية أخرى ، حدد الخبراء في مجال الذكاء الاصطناعي احتمالًا بنسبة 12 و 3 في المائة لهذين الحدثين ، على التوالي. عندما يتعلق الأمر بالمواليد ، كان المذيعون الفائقون أكثر تشاؤمًا بشأن مخاطر الأمراض الطبيعية من الخبراء.

مقارنة نتائج مجموعتين من الخبراء والخبراء.

ربما كانت النتيجة الأكثر إثارة للاهتمام هي أنه على الرغم من عدم اتفاق المجموعتين على المستوى الدقيق للمخاطر ، فقد صنفت كلا المجموعتين الذكاء الاصطناعي على أنه أكبر مصدر للقلق عند التفكير في الانهيار أو الانقراض. يعتقد دان ماريلاند ، خبير التنبؤ الفائق الذي شارك في الدراسة ، أن أحد أسباب كون الذكاء الاصطناعي أكثر خطورة هو أنه يعمل “كمضاعف للقوة” ضد التهديدات الأخرى ، مثل الأسلحة النووية.

في حالة الحرب النووية أو ضربة كويكب ، يمكن للذكاء الاصطناعي (في شكل روبوتات مسلحة ، على سبيل المثال) إرسال البشر مباشرة إلى وفاتهم. يمكن أن يشارك أيضًا في شحذ فأس الجلادين الآخرين. على سبيل المثال ، إذا استخدم البشر الذكاء الاصطناعي لتصميم أسلحة بيولوجية أكثر قوة ، فسيكون الذكاء الاصطناعي متورطًا بشكل أساسي ، إذا كان بشكل غير مباشر ، في الكارثة.

كان المتنبئون الفائقون ، في حين أنهم متشائمون بشأن الذكاء الاصطناعي ، غير متأكدين إلى حد ما بشأنه. يتعامل العالم مع الأسلحة النووية منذ ما يقرب من 80 عامًا. توفر حقيقة أن حربًا نووية شاملة لم تحدث بعد بيانات قيمة يمكن أن تكون مفيدة في التنبؤات المستقبلية باحتمالية حدوثها. مصطلح الذكاء الاصطناعي ، على الأقل بمعناه الحالي ، هو أحدث من ذلك بكثير. يعود ظهور نماذج التعلم الآلي القوية الحديثة إلى أوائل عام 2010. ولا يزال هذا المجال يتطور ويتوسع بسرعة ؛ مما يترك بيانات أقل بكثير للتنبؤ بها.

على وجه الخصوص ، قام الدكتور تيتلوك بالكثير من العمل على مشكلة التنبؤ بالمستقبل. كان أول من حدد وأطلق على “المنفذين الفائقين” ؛ الأشخاص الذين يبدون ناجحين بشكل غير عادي في التنبؤ بالمستقبل. هؤلاء الأشخاص لديهم العديد من الخصائص المشتركة ، مثل التفكير الدقيق القائم على الإحصائيات والوعي بالتحيزات المعرفية التي يمكن أن تربكهم وتضللهم. على الرغم من افتقارهم إلى الخبرة المحددة ، يتمتع المذيعون الفائقون بسجل حافل من تفوق الخبراء في العديد من المجالات التقنية الأخرى ، من المالية إلى الجغرافيا السياسية.

يبدو أن الاختلاف في الرأي بين المجموعات يعكس إلى حد ما الاختلاف في نماذجهم لكيفية عمل العالم. لا تعتمد المخاطر الكارثية على مدى تعقيد أو قوة التكنولوجيا فحسب ، بل تعتمد أيضًا على كيفية تفاعل الناس معها. على سبيل المثال ، بعد الخوف من الحرب النووية في بداية الحرب الباردة ، بدأت الولايات المتحدة والاتحاد السوفيتي ، القوتان النوويتان الرئيسيتان في العالم ، في التعاون. ساعدت القوتان العالميتان في الحد من مخاطر الحرب النووية من خلال مبادرات مثل إنشاء “خطوط اتصال مباشرة” بين موسكو وواشنطن ، واتفاقيات لتفتيش أسلحة بعضهما البعض ، والمعاهدات المصممة للحد من المخزونات.

لكن يبدو أن خبراء التوقعات الفائقة وخبراء الذكاء الاصطناعي لديهم وجهات نظر مختلفة تمامًا حول كيفية استجابة المجتمعات لأضرار الذكاء الاصطناعي الصغيرة. يعتقد المتنبئون الخارقون أن مثل هذا الضرر سيؤدي إلى تدقيق أوثق وتشديد اللوائح للتعامل مع المشاكل الأكبر في المستقبل. في المقابل ، يميل الخبراء في هذا المجال إلى الاعتقاد بأن الدوافع التجارية والجغرافيا السياسية يمكن أن تفوق مخاوف السلامة ، حتى بعد حدوث ضرر فعلي.

كان لدى كبار المتنبئين والنقاد وجهات نظر مختلفة حول حدود الذكاء. كريستي موريل ، أحد خبراء التنبؤات البارزين المشاركين في الدراسة ، يعتقد ببساطة أنه “ليس من السهل قتل كل الناس”. ويلاحظ أن هذا ربما يتطلب “بعض القدرة على التفاعل مع العالم المادي. “ربما نحتاج إلى الكثير من التقدم في عالم الروبوتات قبل أن نصل إلى هذه النقطة.”

بطبيعة الحال ، فإن المشكلة الرئيسية في هذا النوع من التنبؤ هي أنه ، على عكس الأحداث المتكررة منخفضة المخاطر (مثل التنبؤ بحركة أسعار الأسهم في سوق الأسهم أو نتيجة الانتخابات) ، لن تكون هناك أي طريقة لمعرفة أيها. البلد أقرب إلى اكتشاف المستوى الحقيقي للمخاطر. ولكن إذا كان القائمون على البث الفائق يجيدون التنبؤ وكان الخبراء في مجالهم لديهم معرفة كافية بالموضوع ، فيمكننا على الأقل أن نتوقع أن تؤثر المجموعتان على معتقدات بعضهما البعض.

توقعات للمستقبل

حاولت دراسة الباحثين تشجيع المجموعات على “الإقناع المتبادل” من خلال خلق إجماع جماعي ، وحوافز مالية لحجج أفضل ، وأكثر من ذلك. ومع ذلك ، قد يكون من المفاجئ أن يتمسك الطرفان بآرائهما. يعتبر أحد خبراء الذكاء الاصطناعي أن “عدم القدرة على التفكير وتبادل الأفكار” هو المشكلة الرئيسية. بعبارة أخرى ، سئم كلا الجانبين ببساطة من كل إمكانية التنبؤ التي كانت مطلوبة منهما.

يمكن أن يكون تغيير عقل المرء ، أو “تحديث الافتراضات” ، كما يسميهم المتنبئون ، أسهل مع وجود أدلة جديدة. نتيجة لذلك ، يأمل الدكتور كارجار وتيتلوك في جمع بعض الأدلة. طلبوا من المشاركين في دراستهم الإجابة على أسئلة حول مجموعة من “مؤشرات الإنذار المبكر” ؛ المؤشرات التي تشير إلى ما إذا كان العالم يتجه نحو سيناريو كارثي أم لا.

على سبيل المثال ، يمكن أن يكون مقدار قوة الحوسبة المستخدمة في برامج التدريب الكبيرة على الذكاء الاصطناعي مفيدًا لتتبع التقدم العام في هذا المجال. عامل آخر قد يكون المصير النهائي لمعاهدات الحد من الأسلحة النووية. نأمل أن تعطينا هذه الأسئلة قصيرة المدى ، والتي سيتم الرد على بعضها بحلول عام 2024 و 2030 ، فكرة عن المجموعات الأكثر جدية ، وبالتالي ، إلى أي مدى يجب أن نكون قلقين.

5858

.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *