شرح نامه در زیر ارائه شده است:
همانطور که در تحقیقات گسترده نشان داده شده و آزمایشگاه های برتر هوش مصنوعی نیز این مورد را تأیید کرده اند، سیستم های هوش مصنوعی دارای هوشمندی رقابتی با انسان، می توانند خطرات عمیقی را برای جامعه و بشریت ایجاد نمایند. بنا به اصول گسترده تأیید شده در کنفرانس آسیلومار[1]، هوش مصنوعی پیشرفته می تواند بیانگر تغییری عمیق در تاریخ حیات بر روی زمین باشد و باید برای آن برنامه ریزی دقیقی صورت گرفته و منابع به صورت متناسب مدیریت شود. متأسفانه با وجود اینکه طی ماه های اخیر آزمایشگاه های هوش مصنوعی برای توسعه و استقرار فناوری های دیجیتالی قدرتمند و مبتنی بر ذهنی که هیچکس حتی سازندگان آنها توانایی درک، پیش بینی و کنترل قابل اعتماد آن را ندارند، در رقابتی خارج از کنترل قرار گرفته اند، سطح متناسب و قابل قبول برنامه ریزی و مدیریت اتفاق نمی افتد.
در این زمان که سیستم های هوش مصنوعی معاصر، در وظایف عمومی نیز در حال تبدیل شدن به رقبای انسانی هستند، ما باید از خود بپرسیم: آیا باید به ماشین ها این اجازه داده شود تا کانال های اطلاعاتی ما را از تبلیغات و اطلاعات نادرست پر کنند؟ آیا باید تمام مشاغل از جمله مشاغل مکمل را خودکارسازی کنیم؟ آیا باید ذهن های غیرانسانی را پرورش دهیم که ممکن است در نهایت به طور غیرمتداولی از نظر تعداد از ما پیشی گرفته و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را بپذیریم؟ چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار گردد. سیستم های قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که از مثبت بودن اثرات آن و قابل مدیریت بودن خطرات آن ها اطمینان حاصل نماییم. این اطمینان باید به خوبی توجیه شده و با میزان اهمیت اثرات بالقوه یک سیستم رشد و توسعه یابد. ما با بیانیه اخیر OpenAI در مورد هوش مصنوعی، موافق هستیم. در این بیانیه اعلام شده که "در برخی مراحل، ممکن است پیش از شروع آموزش سیستم های آینده و حین پیشرفته ترین تلاش ها در راستای توافق با محدودسازی نرخ رشد محاسبات در ایجاد مدل های جدید، انجام بررسی های مستقل از اهمیت برخوردار باشد". آن مرحله، همین الان است.
بنابراین، ما از همه آزمایشگاه های هوش مصنوعی درخواست داریم که بلافاصله آموزش سیستم های هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف نمایند. این توقف باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین توقفی قابلیت اجرای فوری را نداشته باشد، دولت ها باید وارد عمل شده و این وقفه را ایجاد نمایند.
آزمایشگاه های هوش مصنوعی و کارشناسان مستقل باید از این وقفه برای توسعه و اجرای مجموعه ای از پروتکل های ایمنی مشترک در طراحی و توسعه هوش مصنوعی استفاده نمایند. این پروتکل ها باید به شدت توسط کارشناسان مستقل خارجی مورد بررسی و نظارت قرار گیرند. همچنین باید اطمینان حاصل شود که سیستم هایی که به این پروتکل ها پایبند هستند، فراتر از یک ظن منطقی، ایمن تلقی گردند. این به معنای توقف کلی توسعه هوش مصنوعی نیست، بلکه صرفاً یک عقب نشینی از رقابت خطرناک فعلی در حرکت به سوی مدل های جعبه سیاه غیرقابل پیش بینی با قابلیت های نوظهور و در مقیاس بزرگتر است.
تحقیق و توسعه هوش مصنوعی باید بر روی ساخت سیستم های قدرتمند و پیشرفته امروزی به صورت دقیق تر، ایمن تر، قابل تفسیرتر، شفاف تر، قوی تر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز گردد.
به موازات آن، توسعه دهندگان هوش مصنوعی باید برای تسریع چشم گیر توسعه سیستم های مدیریتی قوی هوش مصنوعی، با سیاست گذاران همکاری نمایند. این همکاری حداقل باید شامل موارد زیر باشد:
قدرت نظارتی جدید و توانمندی که به هوش مصنوعی اختصاص داده شده؛ نظارت و ردیابی سیستم های هوش مصنوعی با توانمندی بالا و مجموعه های بزرگ دارای توانایی محاسباتی؛ سیستم های منبع و نشان گذار برای کمک به تشخیص واقعی از مصنوعی و ردیابی منشا مدل؛ یک اکوسیستم حسابرسی و صدور گواهینامه قوی؛ پذیرش مسئولیت آسیب ناشی از هوش مصنوعی؛ بودجه عمومی قوی برای تحقیقات ایمنی و فنی هوش مصنوعی؛ و مؤسسات دارای منابع مناسب برای مقابله با اختلالات اقتصادی و سیاسی چشم گیری(به ویژه در مورد دموکراسی) که به واسطه هوش مصنوعی ایجاد می گردد.
بشریت می تواند با هوش مصنوعی از آینده ای شکوفا برخوردار شود. اکنون می توانیم با موفقیت در ایجاد سیستم های قدرتمند هوش مصنوعی، از "تابستان هوش مصنوعی" لذت ببریم. زمانی که در آن پاداش حاصل از کار خود را برداشت می کنیم، این سیستم ها را برای منافع آشکار و همه جانبه مهندسی کرده و به جامعه فرصتی برای سازگاری دهیم. در این حالت است که جامعه دیگر فناوری هایی را که مستعد اثرات فاجعه بار بالقوه بر جامعه هستند، متوقف کرده است. در اینجا ما توانایی انجام این کار را داریم. بیایید به جای عجله برای رسیدن پاییز، از تابستان طولانی هوش مصنوعی لذت ببریم.
[1] کنفرانس آسیلومار در زمینه هوش مصنوعی با حضور بیش از 100 رهبر فکری و محققان اقتصاد، حقوق، اخلاق و فلسفه در تاریخ 5 تا 8 ژانویه 2017 در کالیفرنیا برگزار شد. نتیجه این کنفرانس تعیین 23 اصل برای تحقیقات هوش مصنوعی است.
برخی از امضاکنندگان
Yoshua Bengio: بنیانگذار و مدیرعلمی میلا، برنده جایزه تورینگ و استاد دانشگاه مونترال
Stuart Russell: پروفسور علوم کامپیوتر، برکلی، مدیر مرکز سیستمهای هوشمند، و یکی از نویسندگان کتاب «هوش مصنوعی: رویکردی مدرن»
Elon Musk: مدیرعامل اسپیس ایکس، تسلا و توییتر
Steve Wozniak: یکی از بنیانگذاران اپل
Andrew Yang: نامزد ریاست جمهوری 2020، نویسنده پرفروش نیویورک تایمز، سفیر ریاست جمهوری کارآفرین جهانی
Jaan Tallinn: از بنیانگذاران اسکایپ، مرکز مطالعات ریسک وجودی، موسسه Future of Life
Evan Sharp: از بنیانگذاران پینترست
Chris Larsen: از بنیانگذاران ریپل
John J Hopfield: دانشگاه پرینستون، پروفسور بازنشسته، مخترع شبکه های عصبی انجمنی
Kate Jerome: نویسنده کتاب کودک، بنیانگذار Little Bridges، نویسنده برنده کتاب کودک، مدیر انتشارات C-suit
Max Tegmark: مرکز MIT برای هوش مصنوعی و تعاملات بنیادی، استاد فیزیک، رئیس مؤسسه Future of Life
Victoria Krakovna: پژوهشگر و دانشمند یادگیری عمیق، از بنیانگذاران مؤسسه Future of Life
Sean O'Heigeartaigh: مدیر اجرایی مرکز کمبریج در مطالعه ریسک وجودی
Gary Marcus: محقق هوش مصنوعی دانشگاه نیویورک، پروفسور بازنشسته
Yi Zeng: پروفسور و مدیر آکادمی علوم چین، آزمایشگاه هوش شناختی الهام گرفته از مغز، مرکز تحقیقات بین المللی اخلاق و حاکمیت هوش مصنوعی، نویسنده اصلی پیش نویس اصول هوش مصنوعی پکن
Peter Stone: دانشیار علوم کامپیوتر و مدیر روباتیک دانشگاه تگزاس در آستین، رئیس 100 سال مطالعه هوش مصنوعی، عضو AAAI, ACM, IEEE, and AAAS.
John Tsang: استاد ایمنی زیست شناسی و مهندسی زیست پزشکی و مدیر مرکز ییل در بخش سیستم ها و ایمنی شناسی مهندسی، دانشگاه ییل
Andrew Kelly: مدیر عامل بنیاد علوم قطب جنوب
Phillip Isola: دانشیار دانشگاه MIT
Kurosch Daniel Habibi: بنیانگذار CARL، کارآفرین، عضو هیئت مدیره انجمن استارت آپ های آلمان
Dan Elton: دانشمند داده، بیمارستان عمومی ماساچوست/ دانشکده پزشکی هاروارد
Michal Cerbak: مهندس ارشد آزمون، مایکروسافت
Valentine Goddard: بنیانگذار و مدیر اجرایی AI Impact Alliance، عضو شورای مشورتی کانادا در حوزه هوش مصنوعی
Harald Effenberg: بازیگر
منبع: futureoflife.org
نظرات
۰ دیدگاه