وقّع أكثر من (١۰۰۰) شخص من روّاد التقنية والباحثين وسائر الأشخاص على رسالة مطوّلة طالبوا فيها بإيقاف توسيع أعظم أجهزة الذكاء الاصطناعيّ.
وفيما يأتي نصّ الرسالة المذكورة:
تشير البحوث والتحقيقات الواسعة التي أكدّتها المختبرات المتطوّرة في الذكاء الاصطناعي، تشير إلى امتلاك أنظمة الذكاء الاصطناعي ذكاءً ينافس ذكاء الإنسان ويمكنه أن يتسبّب في إيجاد الكثير من الأخطار للمجتمع والبشرية عموماً. وبالاستناد إلى المبادئ الموسّعة التي أكّدها مؤتمر (آسيلومار)[1] فإنّ بإمكان الذكاء الاصطناعي أن يُحدث تغييراً كبيراً في تأريخ الحياة على الأرض ولا بدّ من إيجاد برنامج دقيق في هذا الشأن وإدارة المصادر بشكل متناسب. وممّا يُؤسف عليه هو أنّه رغم مرور أشهر عديدة على الجهود التي بذلتها مختبرات الذكاء الاصطناعي لتوسيع واستقرار التقنيات الرقمية الراقية القائمة على الذّهن الذي ليس بإمكان أحد دركه وفهمه، حتى بالنسبة إلى صنّاعه، حيث لم يستطيعوا توقّع نتائجه والسيطرة عليه بشكل كامل، حتى غدوا في حلبة منافسة خارجة عن سيطرتهم، كما لم يتمكّنوا من إيجاد المستوى المناسب والمقبول للبرمجة والإدارة.
وفي هذا الوقت حيث تتحوّل فيه أنظمة الذكاء الاصطناعي المُعاصرة في وظائفها العمومية إلى منافسين للإنسان فإنّه يحقّ لنا طرح هذه الأسئلة على أنفسنا: هل يجب منح المكائن الجواز لكي تقوم بملء قنواتنا المعلوماتية بالأخبار والمعلومات الخاطئة؟ هل ينبغي لنا أتمتة جميع المشاغل بما فيها المشاغل المكمّلة؟ هل يجب علينا تنشئة الأذهان غير الإنسانية التي يمكن في النهاية أن تفوقنا من حيث العدد بصورة غير معروفة وتصبح بديلة لنا؟ هل ينبغي لنا القبول بمخاطرة فقدان سيطرتنا على حضارتنا؟ لا يجب إيكال مثل هذا القرار إلى روّاد التقنية المنتخبين، ولا بدّ من السماح لأنظمة الذكاء الاصطناعي المتطوّرة بالتوسّع فقط عندما نتأكّد من إيجابية آثارها والقدرة على السيطرة على أخطارها، ولا بدّ من توجيه هذا التأكيد بشكل صحيح وتطوّره وتوسّعه بمقدار أهمية الآثار الكامنة في أيّ نظام. إنّنا نتوافق مع البيان الأخير لـ(Open AI) حول الذكاء الاصطناعي، حيث جاء في البيان المذكور: «من المهمّ في بعض المراحل إجراء بحوث مستقلّة قبل الشروع بتعليم الأنظمة المستقبلية وفي أثناء المساعي المتطوّرة في طريق التوافق مع تحديد نسبة تطوّر المحاسبات لإيجاد نماذج جديد». لا شكّ في أنّ هذه المرحلة قد حان وقتها الآن.
وعليه، فإنّنا نسأل جميع مختبرات الذكاء الاصطناعي إيقاف تعليم أنظمة الذكاء الاصطناعي المتطوّر من طراز (GPT-4) فوراً لمدّة لا تقلّ عن ستة أشهر، ويجب أن يكون هذا التوقّف عامّاً وقابلاً للتأييد ويشمل جميع اللاعبين الرئيسيين، وإذا لم يكن بالإمكان إجراء مثل هذا التوقّف فوراً فإنّ على الحكومات أن تتدخّل في هذا الأمر لإيجاد هذا التوقّف.
وينبغي لمختبرات الذكاء الاصطناعي والخبراء المستقلّين استثمار هذا التوقّف من أجل توسيع وإجراء مجموعة من البروتوكولات الأمنية المشتركة في مجال تصميم وتوسيع الذكاء الاصطناعي. ويجب البحث في تلك البروتوكولات والإشراف عليها بشكل دقيق من قِبَل الخبراء المستقلّين الأجانب، كما يجب الاطمئنان بأنّ الأنظمة التي تلتزم بتلك البروتوكولات تُعدّ آمنة بعيداً عن الظنّ المنطقي. لكنّ ذلك لا يعني التوقّف التامّ لتوسّع الذكاء الاصطناعي بل هو مجرّد تراجع عن المنافسة الحالية الخطيرة في الحركة نحو نماذج من الصناديق السوداء غير القابلة للتنبّؤ مع قدرات جديدة وفي مقاييس أكبر.
يجب أن يتمّ البحث والتوسّع في الذكاء الاصطناعي على أساس إيجاد أنظمة قوية ومتطوّرة وعصرية بشكل دقيق وأمنيّ وقابل للتفسير وأكثر شفافية وقويّ ومتناسب وقابلً للاعتماد وأكثر وفاءً وإخلاصاً.
وبالتزامن مع ذلك ينبغي لمُطوّري الذكاء الاصطناعي التعاون مع السياسيين من أجل تسريع توسّع أنظمة الإدارة القوية للذكاء الاصطناعي بشكل ملحوظ، ويجب على هذا التعاون أن يشمل النقاط التالية:
القدرة على الإشراف الجديد التي مُنحت للذكاء الاصطناعي؛ الإشراف ومتابعة أنظمة الذكاء الاصطناعي بقدرة أعلى ومجموعة كبيرة تمتلك القدرة على المحاسبة؛ الأنظمة المصدرية والمؤثّرة للمساعدة في التشخيص الحقيقيّ للمصنوع واقتفاء منشأ النموذج؛ إيجاد محيط محاسبيّ وإصدار مجوّز مُعتبَر؛ قبول مسؤولية الضرر الناشئ عن الذكاء الاصطناعي؛ إيجاد ميزانية قوية عامّة لغرض البحوث الأمنية والفنيّة للذكاء الاصطناعي؛ إيجاد مؤسسات تمتلك مصادر مناسبة من أجل مواجهة الاختلالات الاقتصادية والسياسية المؤثّرة (ولا سيّما فيما يتعلّق بالديمقراطية) التي يتمّ إيجادها بواسطة الذكاء الاصطناعي.
يمكن للبشرية أن تحظى بمستقبل زاهر بفضل الذكاء الاصطناعي، وباستطاعتنا في الوقت الحاضر الاستمتاع بـ(صيف الذكاء الاصطناعي) من خلال إيجاد أنظمة متطوّرة للذكاء الاصطناعي. وعندما نحصل على ثمرة دلك المجهود سنتمكّن من هندسة تلك الأنظمة لأجل المنافع الكثيرة والشاملة، ومنح المجتمع فرصة للانسجام والتوافق. وفي هذه الحالة فقط يمكن للمجتمع وقف التقنيات الأخرى التي تتسبّب في إيجاد الآثار الكارثية المحتمَلة للمجتمع، ونحن قادرون على فعل ذلك في الوقت الحاضر. فتعالوا نستمتع بصيف الذكاء الاصطناعي الطويل بدلاً من الهَرَع نحو خريفه.
[1] عُقِد مؤتمر (آسیلومار) حول الذكاء الاصطناعي بتأريخ (٥) إلى (۸) كانون الثاني من عام (٢۰١۷م) في كاليفورنيا وحضرته أكثر من (١۰۰) شخصية من رواد الفكر والباحثين الاقتصاديين وخبراء في الحقوق والأخلاق والفلسفة، وكان من نتائج هذا المؤتمر تحديد (٢٣) بنداً خاصّاً ببحوث الذكاء الاصطناعي.
بعض الذين وقّعوا على الرسالة أعلاه:
يوشوا بنغيو (Yoshua Bengio): المؤسس والمدير العلمي لـ(ميلا) وحائز على جائزة (تورينغ) وأستاذ في جامعة (مونتريال).
ستيوارت راسل (Stuart Russell): بروفيسور في علوم الکومبیوتر، (برکلي)، ومدیر مرکز أنظمة الذكاء، وأحد مؤلّفي کتاب «الذكاء الاصطناعي، رؤية حديثة».
إيلون ماسك (Elon Musk): المدیر التنفيذي لشركة (سپیس إیکس) و(تسلا) و (توییتر).
ستيف وزنياك (Steve Wozniak): من مؤسسي شركة (أبل).
أندرو يانغ (Andrew Yang): مرشّح رئاسة الجمهورية لعام (2020)، ومؤلّف في (نیویورك تایمز) الأكثر مبيعاً، وسفیر رئاسة الجمهورية للإبداع العالمي.
جان تالين (Jaan Tallinn): من مؤسسي (سکایب)، مرکز دراسات الخطر الوجودي في مؤسسة (Future of Life).
إيفان شارب (Evan Sharp): من مؤسسي (بینترست).
كريس لارسن (Chris Larsen): من مؤسسي (ریبل).
جون جي. هوبفيلد (John J Hopfield): جامعة (برینستون)، بروفيسور متقاعد، ومخترع الشبکات العصبية.
كيت جيروم (Kate Jerome): مؤلّفة كتاب الأطفال، ومؤسسة (Little Bridges)، حاصلة على جائزة كتاب الطفل، ومدیرة منشورات (C-suit).
ماكس تيغمارك (Max Tegmark): مرکز MIT للذكاء الاصطناعي والمعاملات الأساسية، أستاذ الفيزياء، ورئیس مؤسسة (Future of Life).
فيكتوريا كراكوفنا (Victoria Krakovna): باحثة وعالمة في التعلّم المعمّق، ومن مؤسسات مؤسسة (Future of Life).
سيان أوهايغرتايف (Sean O'Heigeartaigh): المدیرة التنفيذية لمرکز (کامبریدج) في دراسات الخطر الوجودي.
غاري ماركوس (Gary Marcus): باحث في الذكاء الاصطناعي في جامعة (نیویورك)، وبروفيسور متقاعد.
زنغ يي (YiZeng): بروفيسور و مدیر أكاديمية علوم الصين، مختبر الذكاء المعرفي المُقتبس عن الدّماغ، مرکز البحوث الدولية في أخلاق و حاکمیة الذكاء الاصطناعي، والمؤلّف الأوّل لمسوّدة مبادئ الذكاء الاصطناعي في بكين.
ستون بيتر (PeterStone): خريج علوم الکومبیوتر و مدیر (الروبوت) في جامعة (تكساس) في ولاية (أوستین)، ورئیس (100 سنة في دراسة الذكاء الاصطناعي)، وعضو في (AAAI, ACM, IEEE, and AAAS).
جون تسانغ (John Tsang): أستاذ الحفاظ البيئيّ والهندسة الطبية ومدیر مرکز (ییل) في قسم الأنظمة والمحافظة الهندسية، جامعة (ییل ).
أندرو كيلي (Andrew Kelly): المدیر التنفيذي لمؤسسة علوم القطب الجنوبي.
فيليب إيسولا (Phillip Isola): خريج جامعة (MIT).
كوروش دانيال حبيبي (Kurosch Daniel Habibi): مؤسّس (CARL)، ومبُدع وعضو هیئة الإدارة في مؤسسة (الأعمال الناشئة) في ألمانيا.
دان إلتون (Dan Elton): خبير في المعلومات، مستشفى (ماساتشوست) العامّ / كلية (هارفارد) الطبية.
ميشال سرباك (Michal Cerbak): كبير مهندسي الاختبار، (مایکروسوفت).
فالنتين غودارد (Valentine Goddard): المؤسّس والمدير التنفيذي لـ(AI Impact Alliance)، وعضو المجلس الاستشاري الكندي في مجال الذكاء الاصطناعي.
هارالد إفنبرغ (Harald Effenberg): ممثّل.
المصادر:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
تعليقات
۰ تعليق