كيف سيؤثر الذكاء الصنعي الفائق على البشرية؟

سياراتٌ تقودُ نفسها في شوارعنا، وطائراتٌ تُسيِّر نفسها في سمائنا، وتطبيقاتٌ طبيّة ذكيّةٌ تُشخّص الأمراض، وتقترحُ خططاً للعلاج، وتنقذ الأرواح!

نعم، إنّ الأنظمة الذكيّةَ موجودةٌ مُسبقاً بيننا، ومُستمرَّةٌ حتى الآن. يُعرف الذكاء الصنعيّ الفائق  كنظام اصطناعي يمتلك قدرات إدراكية تتفوّق علينا في كافة المقاييس ذات الصلة. إلّا أنّ العالمَ لم يرَ آثاره بعدْ. لكن التكنولوجيا في تطوّر سريع، و يعتقد بعض الباحثين في مجال الذكاء الصنعيّ أنّ عصر الذكاء الصنعيّ الفائق قد يكون سريع الاقتراب، لكن لا أحد يملك وسيلة للتنبؤ بما قد يحصل، حالما يصل. ولحُسن الحظ، يعملُ عدد من الأفراد الآن على التأكد من أن ظهور الذكاء الصنعيّ الفائق لن يُعجّل في سقوط البشرية.

أعمالٌ خطيرةٌ

سيث باوم Seth Baum المدير التنفيذي في معهد الخطر الكارثي العالمي Global Catastrophic Risk Institute ،وهو مركز أبحاث يركز على منع دمار الحضارة العالمية .

عندما يناقش باوم عمله، يختصر مهمّة GCRI بلهجة واقعية، آخذاً بعين الاعتبار طبيعةَ المشروعِ الضخمةِ أكثرَ من مجرّد تعارُض، ويقول: “كلّ مايدور حوله عملنا هو إبقاء العالم آمناً”. ويُكمل بأن GCRI يركّز على كمّ الأخطار التي تضع الجنس البشريّ في خطر، انطلاقاً من التغير المناخي إلى الحرب النووية، ومن الذكاء خارج الأرض إلى الذكاء الصنعيّ الفائق.

فيما يتعلق بالذكاء الصنعيّ، لدى معهد GCRI عدّة مبادرات. لكن يركز مشروعهم الرئيسي في الذكاء الصنعيّ، والذي تلقّى تمويل من قبل معهد مستقبل الحياة The Future of Life Institute، على الأخطار المرتبطة بالذكاء الصنعيّ الفائق. أو كما صاغه باوم هم يقومون بـ “تحليل خطر الحواسيب التي تسيطر على العالم، والتي لديها القدرة على تهديد حياتنا” خاصةً، وأوضح بأنّهم في GCRI يعملون على “تطوير نماذج خطر مُنشأة لمساعدة الناس على فهم ماهيّة الأخطار المُحتملة، وأيضاً أين تقع بعض أفضل الفرص لتقليل تلك الأخطار”.

وكما هو متوقّع، المهمة ليست سهلة .

تنبع المشكلة الأساسية من حقيقة أنّه على النقيض من الأخطار الشائعة، كخطر الموت في حادث سيارة، أو خطر الإصابة بالسرطان، لا يوجد لدى الباحثين القائمين على تحليل خطر ASI أي دراسات مجسّدة للحالة حتى يتمكنوا من استخدامها عند قيامهم بصنع نماذجهم وتنبؤاتهم. وكما يوضّح باوم:

” لم تقم الحواسيب بالسيطرة على العالم مسبقاً، ولم تقتل أي أحد من قبل، ما يعني أنّ الأمرَ لا يقتصرُ على مجرّد البحث في البيانات، كما نفعل في الكثير من الأخطار الأُخرى، وليس فقط بأن هذا لم يحدث مسبقاً، ولكن هذه التكنولوجيا ليست موجودة بعد، وإنْ تمّ بناؤها لا نعرف كيف سيتمُّ ذلك.”

لذا، كيف يُمكن للباحثين أن يقرّروا ما هي الأخطار المرتبطة بالذكاء الصنعيّ الفائق، إذا لم يعرفوا بالضبط كيف سيبدو هذا الذكاء، وإذا لم يكُن لديهم معطياتٍ حقيقية للعمل عليها؟

لحُسن الحظ، عندما يأتي الأمر إلى الذكاء الصنعيّ الفائق، لا يكون الخبراء في عالم المجهول كلياً. يجزم باوم بأنّ هنالك بعض الأفكار والقليل من الدلائل ذات الصلة، ولكن هذه الأمور مبعثرة. ولمعالجة هذه القضية، قام باوم وفريقه بخلق نماذج. إذ قاموا بأخذ المعلومات المتوفّرة ومن ثمّ هيكلتها، و صنّفوا النتائج بعد ذلك بشكل منظّم لكي يستطيع الباحثون أن يفهموا الموضوع بشكل أفضل، ويفهموا العوامل المتنوعة التي من الممكن أن تؤثر على ماهو قادم بما يتعلق في هذا الموضوع، وأخيراً الحصول على فهم  أفضل للأخطار المتنوعة المتعلقة بـASI .

على سبيل المثال، عند محاولة معرفة مدى سهولة تصميم نظام ذكيّ يتصرّف بشكل آمن، فإنّ أحد التفاصيل الفرعية التي يجب أن يتم صياغتها هي: هل سيكون الإنسان قادر على مراقبة هذا النظام واختباره قبل أن يخرج عن السيطرة أم لا؟- .وبكلمات أخرى، هل سيكون بمقدور الباحثين أن يدركوا أن الذكاء الصنعيّ يملك تصميماً خطيراً و من ثم يقوموا بإيقافه؟

لصياغة هذا السيناريو وتحديد ماهيّة الأخطار، يقوم باوم وفريقه بأخذ المعلومات المتوفّرة (مثل، التنبؤات والآراء لباحثي الذكاء الصنعيّ، وما هو معروف عن تقنية الذكاء الصنعيّ، وكيف تعمل، إلخ.)، ومن ثمّ يقومون بالنمذجة، من خلال بناء تلك المعلومات مع ارتيابية في المتغيرات وقاعدة البيانات.

يسمح هذا النوع من النمذجة وتحليل الخطر، في النهاية، للفريق بفهم مدى خطورة هذه القضية، وببناء المعلومات بطريقة واضحة، ويقدم محادثة قائمة في مجال البحث في الذكاء الصنعيّ الفائق. لا تعطينا النمذجة صورة كاملة عمّا سيحدث، لكنها تسمح لنا بفهم أفضل للأخطار التي نواجهها عندما نتطرق إلى مسألة نهوض الذكاء الصنعيّ الفائق، وماهيّة الأحداث والمجريات القادمة، بالإضافة إلى الخطوات المحدّدة التي يجب على صانعي السياسة والباحثين أن يتّخذوها للتأكد من أن ASI يفيد البشرية، وبالطبع عندما نتحدث عن مسألة الأخطار المتعلّقة بالذكاء الصنعيّ الفائق، وما إذا كان بإمكاننا مراقبة اختبار النظام الذكيّ الخاص بنا، فهذا مجرد جزء صغير من نموذج كبير جداً.

نمذجةُ الكارثة

لفهم ما يتطلبه إحداث نهاية للعالم من خلال الذكاء الصنعيّ الفائق، وكيف يمكن منعه، صنع باوم وفريقه نموذج يبحث في الأسئلة الاّتية بأفضل شكل:

  • الخطوة 1: هل من الممكن بناء نظام ذكاء صنعيّّ فائق؟
  • الخطوة 2: هل سيقوم البشر ببناء نظام الذكاء الصنعيّ الفائق؟
  • الخطوة 3: هل سيفقد البشر السيطرة على الذكاء الصنعيّ الفائق؟

يركز النصف الأول من النموذج على النقاط الأساسية لكيفية بناء نظام ذكاء صنعيّ فائق، أمّا النصف الثاني فيركز على غوص النموذج في تحليل الأخطار المتعلقة بخلق هذا نظام مؤذي كهذا، ويبحث في مايلي :

  •  الخطوة 1: هل سيقوم البشر بتصميم نظام ذكاء صنعيّ فائق مؤذي؟
  •  الخطوة 2: هل سيقوم الذكاء الصنعيّ الفائق بتطوير سلوك مؤذي بنفسه؟
  •  الخطوة 3: هل هناك وسيلة تردع الذكاء الصنعيّ الفائق من التصرف بطريقة مؤذية (كذكاء صنعيّ آخر أو فعل بشري)؟

كل خطوة في النماذج المتسلسلة هي عدد من الاحتمالات المختلفة لتوضيح الأخطار المتنوعة التي نواجهها، وكم هي مهمة ومحتملة هذه الأخطار. وعلى الرغم من أن هذا النموذج لا يزال في مراحله الأولى، يصرّح باوم أنه قد تم إنجاز تقدم جوهري حتى الآن، ويقول:

“يبدو الخطر منطقياً،فقد بدأتُ أفهم ما الذي يتطلبه الأمر بالضبط، لرؤية هذا النوع من الكوارث.”

يؤكد باوم أن الوقت لايزال مبكّراً للقول أن البحث قد انتهى، قائلاً:

“يقوم هؤلاء الذين معنا بدراسة الذكاء الصنعيّ الفائق وجميع أخطاره، والجوانب المقترحة لسياسته، لكن لسنا متأكدين بعد بخصوص السياسة التي نريدها الآن. ما يحدث في الوقت الراهن أكثر من مجرد محادثة ذات غرض عام في الذكاء الصنعيّ. إنّها مسألة إدراك لحقيقة أن الذكاء الصنعيّ هو أكثر من مجرد تقينة، أو فرصة اقتصادية، وبأنّه يوجد أخطار متضمنة وقضايا أخلاقية.”

في النهاية، يأمل باوم بأن تسمح هذه المحادثات، إلى جانب الفهم الناتج عن النماذج التي يعمل عليها حالياً هو وفريقه، لـمعهد GCRI بتحضير صُنّاع سياسة وعلماء بهدف النهوض بنوع جديد من الذكاء الصنعيّ الفائق.

يقودنا هذا الأمر إلى عدة أسئلة مهمّة؛ هل تعتقد أنّه من الممكن بناء منظومات فائقة الذكاء؟ هل سيفيد ذلك في تطوير البشرية؟ أمّ أنّ ذلك سيكون مؤشراً يدقُّ ناقوسَ الخطرِ على فناءِ البشريّة؟ أخبرنا برأيك في التعليقات أدناه.

مشروعنا غير ربحي، ومُموّل ذاتيًا، نحن لا نتلقى أي أموال حكومية أو من أي جهة كانت سياسية أو غيرها، كما أنّنا لا نلتمس ذلك. و بالإضافة للتمويل الذاتي، الذي يبلغ حاليا 99٪ من مجمل التمويل، نحن نعتمد على المساهمة الطوعية لمؤسسات خاصة وأفراد مثلك لتطوير المشروع وتحقيق أهدافه. لدعمنا إضغط هنا

  • ترجمة: ديانا الضامن
  • مراجعة: محمد علي
  • تدقيق لغوي: نور عبدو
مصدر futureoflife
تعليقات
Loading...

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More