in

الآلات الذكية: هل يجدر بنا حقاً أن نخاف من الذكاء الصنعي؟

تخيل السيناريو التالي: هناك آلة واعية تعيش في الولايات المتحدة الأمريكية في عام 2050 و هذه الآلة بدأت تتصفح دستور الولايات المتحدة.
بعد قرائته قررت أنها تريد فرصة للتصويت في الانتخابات. وكذلك تريد حق الإنجاب. تلك حقوق إنسانية بسيطة تشعر الآلة بأنها تستحقها الآن بما أنها تمتلك ذكاءً بمستوى الذكاء البشري.

“هل ستمنحها حق الانتخاب أم حق الإنجاب لأنك لا تستطيع منحها كلاهما؟” يسأل راين كالو (Rayan Calo), بروفيسور في الحقوق في جامعة (University of Washington). “لأن ذلك سيجعلها قادرة على الإنجاب بشكل حالي و غير منته، و إن تمكنت هي و سلالتها من التصويت فذلك سيكسر النظام الديمقراطي.”

هذا أحد الأسئلة التي يطرحها البروفيسور كالو حيث يأخذ بعين الاعتبار كيف أنه على القانون أن يتغير ليُلائم المجموعة المتزايدة دوماً من مرافقينا من الروبوتات و آلات الذكاء الصنعي. هو لا يعتقد أن الذكاء البشري سيصل إلى الآلات في وقت قريب ولكن علاقتنا معهم منذ الآن تطرح أسئلة جديرة بالاهتمام.

مؤخراً وقعت حادثة مأساوية في معمل سيارات VW في ألمانيا، حيث أن ذراع روبوت، تستخدم لوضع أجزاء السيارة في مكانها، قامت بسحق شاب كان كذلك يعمل هناك. التفاصيل الدقيقة حول القضية لم تُطرح بعد ولكن من المعتقد أن المسؤولية تقع على عاتق الخطأ البشري. فولكس فاغن لم تُعلق بعد على الحادثة.

في حين أن الحوادث الصناعية تحدُث، القانون يصبح مشوشاً قليلاً عندما يتضمن الأمر روبوتاً. من غير المحتمل أن يتمكن الإنسان من مقاضاة روبوت بشأن الأضرار، على سبيل المثال. “قانون الإجرام يتطلب النية وهذه الأنظمة لاتفكر بشكل خاطئ عن قصد.” يقول البروفيسور كالو. الطريقة التي يتعامل بها العالَم مع تقدم الذكاء الصنعي تشغل العلماء و التقنيين الأوائل، حيث أن بعضهم قلق من أنها تمثل تهديداً عظيماً للإنسانية.

إيلون ماسك (Elon Musk)، مؤسس (Tesla motors) و (Space X) المصنعة للآليات الفضائية، أصبح الشخصية الأساسية في هذه الحركة، إلى جانب ستيفن هوكينغ (Stephen Hawking) و ستيف وزنياك (Steve Wozniak) كأعضاء شرف.

السيد ماسك الذي عرض مؤخراً 10 مليون يورو لمشاريع مصممة للتحكم بالذكاء الصنعي، يُشبّه التكنولوجيا بـ”استدعاء الشر” و يدّعي أن البشر لن يصبحوا سوى حيوانات أليفة لدى الحواسيب فائقة الذكاء التي نساعد في خلقها.

يتشارك معه بتشبيه الحيوانات الأليفة جيري كابلان (Jerry Kaplan)، مؤلف كتاب (Humans Need Not Apply). في هذا الكتاب يرسم سيناريو كابوسي لحديقة حيوان من البشر تحكمها “الوحدات الذكية المُركبّة”.
“هل سيقومون بجعلنا خدماً لهم؟ ليس فعلاً – بل سيقومون بحفظنا بشكل يجعل الحياة مريحة جداً و مُقنعة جداً مما يجعل الحافز للمخاطرة خارج حدودها ضئيل جداً” يكتب كابلان.

الذكاء البشري سوف يثير فضول الحمولة الزائدة من الذكاء الصنعي، كما يزعُم، و:

“ربما سيرغبون بالحفاظ على محمية من تلك القدرات الثمينة، تماماً كما نرغب بالحفاظ على قرود الشامبانزي و الحيتان و المخلوقات الأخرى المهددة بالانقراض”.

الفيلسوف نيك بوستروم (Nick Bostrom) يعتقد أنه يجب علينا أن نتأكد من أن كل أنظمة الذكاء الصنعي فائقة الذكاء المستقبلية ستكون “من الأساس إلى جانبنا” و أن هكذا أنظمة تتعلم “ما نقدّره” قبل أن يخرج الأمر عن السيطرة – بطريقة الملك ميداس. إن فرض السيطرة على الذكاء الصنعي يجب أن يأتي قبل أن نكسر التحديات المبدئية لخلقه، يقول بوستروم في حديث له مؤخراً. بدون أهداف مُعرَّفة بوضوح، ربما سيُنتِج ذلك مستقبلاً غير مريح للبشر، لأن الذكاء الصنعي، حيث أنه ليس شريراً بالوراثة، سيصبح ناتج عملية التحسين النهائي.

“قد نستطيع أن نضع للذكاء الصنعي هدفاً بأن يجعل البشر تبتسم و الذكاء الفائق قد يقرر أن أفضل وسيلة للقيام بذلك هي السيطرة على العالم و لصق قطب كهربائي إلى وجنتي كل البشر. أو قد نعطي هذا النظام مسألة رياضية صعبة لحلها و قد يقرر أن الطريقة الأكثر فعالية لحلها هي تحويل الكوكب إلى حاسب عملاق للزيادة من طاقته التفكيرية.”

يقول بوستروم في حديثه.

ليس بعد…

اسأل خبيراً في الذكاء الصنعي متى ستتولى الروبوتات حكم العالم و على الأرجح سيجيبك بابتسامة ساخرة. رئيس الأبحاث في IBM، غورو بانافار (Gurgu Banavar)، يعتقد أن الذكاء الصنعي سيعمل مع الانسان لحل مشاكل عاجلة كالأمراض و الفقر. فيما أن غيوف هينتون (Geoff Hinton)، المعروف بعرّاب التعلم العميق، أخبر أيضاً BBC أنه لا يستطيع أن يتوقع أن يحدث سيناريو فيلم Terminator. “ما نزال بعيدين عن هذا” على الرغم من ذلك، أضاف، ليس واثقاً تماماً “على المدى البعيد، هنالك الكثير للقلق بشأنه.”

في الواقع نحن مازلنا في بدايات الذكاء الصنعي، وكما ينوه البروفيسور هينتون، إن محاولة تخمين إلى أين سيودي بنا الذكاء الصنعي “أمر سخيف جداً”. “يمكنك أن ترى الأمور بوضوح خلال السنين القليلة القادمة ولكن إن حاولت النظر إلى أبعد من 10 سنوات فلن ترى شيئاً في الواقع- هناك ضباب فقط” يقول هينتون.
الشبكات العصبية المعتمدة على الحواسيب، التي تحاكي العقل البشري، مازالت بعيدة عن مطابقة ما تتمكن زميلتها البشرية من تحقيقه. “حتى أكبر الشبكات العصبية الحالية أصغر بمئات المرات من العقل البشري” يقول البروفيسور هينتون.

الأمر الذي تتقنه الآلات هو تلقي كميات كبيرة من المعلومات و فهمها بطريقة لا يمكن للبشر أن تقوم بها ببساطة، ولكن الآلات لاتمتلك وعياً، ولا تمتلك أي تفكير مستقل و من المؤكد أنها لا تتمكن من الشك بما تقوم به أو لِمَ تقوم بذلك. حيث أن آندرو نغ (Andrew NG)، العالم الرئيسي في الموقع التجاري الصيني Baidu، يقول: “هناك اختلاف كبير بين الذكاء و الوعي. برمجياتنا تصبح أكثر ذكاءً، و لكن هذا لا يعني أنها سوف تصبح واعية.”
الذكاء الصنعي قد يكون حيادياً – ولكن كما ينوه الكاتب جيمس بارت (James Barrat) في كتابه Our Final Invention، هذا لا يعني أنه لن يكون قابلاً للتعرض لسوء الاستخدام.

“إن الذكاء الصنعي المتقدم هو تكنولوجيا ذات استخدامين، كالانشطار النووي. الانشطار قد ينير مدنا أو قد يحرقها. في المراحل المتقدمة، الذكاء الصنعي سيصبح أكثر خطورة من الانشطار النووي وهو منذ الآن يستخدم كسلاح في الطيارات بدون طائر و الروبوتات المقاتلة.”

هناك روبوت حراسة يعمل بالفعل في كوريا الشمالية، يطلق عليه اسم SGR-1. حساسات الحرارة و الحركة لهذا الروبوت تستطيع أن تميز أهدافاً محتملة على بعد أكثر من 3 كم. حالياً يتطلب تدخلاً بشرياً قبل أن يطلق نيران الرشّاش الذي يحمله ولكن هذا يطرح السؤال التالي – من سيكون المسؤول في حال أن الروبوتات بدأت بالقتل بدون التدخل البشري؟

استخدام الأسلحة الآلية موضوع تقوم الأمم المتحدة بمناقشته حالياً و قد توصلت إلى أن البشر عليهم أن يمتلكوا سيطرةً فعلية على الآلات دوماً. نويل شاركي (Noel Sharkey) مؤسس مساعد لحملة لإيقاف الروبوتات القاتلة و يؤمن بأن هناك العديد من الأسباب التي تستوجب أن نضع قوانيناً لروبوتات المعارك المستقبلية في الحال.
“أحد أهم القوانين في العديد من الدول هو الحفاظ على شرف الحياة الإنسانية و إن الذل الإنساني المطلق هو أن تقتل بواسطة آلة” يقول شاركي.

ولكن وراء الحجة الأخلاقية هناك حجة أخرى أكثر استراتيجيةً يأمل شاركي أن يأخدها القادة بعين الاعتبار. “قد يقول القادة العسكريون أنك تحافظ على حياة الجنود بإرسال آلات بدلاً عنهم و لكن هذه رؤية ضيقة الأفق جداً. جميع الدول، من ضمنها الصين و روسيا و كوريا الشمالية، تقوم بتطوير هذه التكنولوجيا و على المدى البعيد، هذا سيقوم بالإخلال بالأمن العالمي” يقول شاركي.

“ما هي الحرب التي ستبدأ عندما نمتلك روبوتات تحارب روبوتات أخرى؟ لا أحد سيعلم الطريقة التي بُرمجت الربوتات الأخرى بها و نحن ببساطة لن نتمكن من توقع النتيجة.”

نحن حالياً لا نمتلك أية قوانين عن كيف يجب أن تتصرف الروبوتات في حال أصبحت تعمل بشكل مستقل. العديد قد يعتمد على مجموعة من المبادئ المبتكرة من قبل كاتب الخيال العلمي إسحق عظيموف (Isaac Asimov). التي قُدّمت في عام 1942 في قصته القصيرة Runaround, القوانين الثلاثة في علم الروبوتات – المأخوذة من الكتاب الخيالي Handbook of Robotics، النسخة السادسة والخمسين 2058، و القوانين هي كما يلي:

  • لا يمكن لروبوت أن يؤذي إنساناً أو خلال الخمول، أن يسمح لإنسان أن يتعرض للأذى.
  • على الروبوت أن يلتزم بالأوامر التي يتلقاها من البشر، إلا في حال تعارضت هذه الأوامر من القانون الأول.
  • على الروبوت أن يحمي وجوده الخاص لطالما أن هذه الحماية لا تتعارض من القانون الأول أو الثاني.

تأليف:

المصدر

  • ترجمة: عالية سلمان.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

ضمادات مصنوعة من صدفة السرطان تُعجّل من شفاء الجروح

اكتشاف مورثة مرض الفصام يسلط الضوء على السبب المحتمل لحدوثه