در اوایل ماه مارس، من از دفاتر OpenAI در سانفرانسیسکو بازدید کردم تا نگاهی اولیه به GPT-4 داشته باشم. GPT-4 نسخه جدیدی از فناوری است که زیربنای آن چتبات ChatGPT است. چشمگیرترین لحظه زمانی فرارسید که گرگ براکمن[1]، رئیس و یکی از بنیانگذاران OpenAI ویژگی را که هنوز برای عموم در دسترس نیست، به من نشان داد: او عکسی از تلسکوپ فضایی هابل به روبات داد و از آن خواست تا این تصویر را "با جزئیات دقیق" توصیف نماید.
توضیحات این ابزار کاملاً دقیق بود، حتی خط سفید عجیبی که توسط ماهوارهای در آسمان ایجادشده نیز بهطور کامل توصیف شده بود. این یک نگاه به آینده روباتهای گفتگو و سایر فناوریهای مبتنی بر هوش مصنوعی است: موج جدیدی از سیستمهای چندوجهی که قادر به ترکیب تصاویر، صداها، فیلمها و همچنین متن با یکدیگر است. اکنون بر روی فرصتها و تحولات پیش رو تمرکز خواهم کرد.
هوش مصنوعی در کوتاهمدت
هوش مصنوعی مولد میتواند به سؤالات مطرحشده پاسخ دهد، شعر بنویسد، کدهای کامپیوتری تولید کرده و یک مکالمه را ادامه دهد. همانطور که قابل حدس است، چتباتها بهعنوان اولین ابزارها، در قالب "مکالمهای" عرضه میشوند که ازجمله آنها میتوان به ChatGPT و Bing اشاره کرد.
اما این شرایط، ماندگار نخواهد بود. مایکروسافت و گوگل پیشازاین اعلام کردهاند که قصد دارند این فناوریهای هوش مصنوعی را در همه محصولات خود بگنجانند. شما میتوانید از آنها برای نوشتن پیشنویس یک ایمیل، خلاصهسازی خودکار جلسه و ترفندهای جالب دیگر استفاده نمایید.
علاوه براین، OpenAI یک API یا رابط برنامهنویسی کاربردی ارائه داده که سایر شرکتهای فناوری بهوسیله آن میتوانند برنامهها و محصولات خود را به GPT-4 متصل کنند. همچنین برای توسعه تواناییهای ChatGPT، مجموعهای از افزونههای شرکتهایی نظیر Expedia، Instacart و Wolfram Alpha را ایجاد نموده است.
هوش مصنوعی در میانمدت
بسیاری از کارشناسان معتقدند که هوش مصنوعی میتواند در برخی کارکنان ازجمله پزشکان، وکلا و برنامه نویسان کامپیوتر بیش از هر زمان دیگری بهرهوری ایجاد کند. علاوه براین آنها بر این باورند که این ابزارها میتوانند جایگزین برخی کارکنان شوند.
زاخاری لیپتون[2]، پروفسور دانشگاه کارنگی ملون[3] که متخصص هوش مصنوعی و تأثیر آن بر جامعه است، میگوید:"این ابزارها روی کارهایی که تکراریتر، قابل فرمول سازی و عمومیتر هستند، تأثیر میگذارد"."این میتواند به برخی از افرادی که در کارهای تکراری عملکرد خوبی ندارند کمک کرده و درعینحال، میتواند برای افرادی که در انجام کارهای تکراری تخصص دارند، تهدید محسوب شود".
مشاغلی که در حال حاضر توسط انسان انجام میشود، میتواند بهواسطه فناوریهایی نظیر رونویسی و ترجمه صوت به متن، از بین برود. در زمینه حقوق، در حال حاضر GPT-4 مهارت کافی برای شرکت در آزمون وکالت را دارد و شرکت حسابداری PricewaterhouseCoopers قصد دارد یک چتبات گفتگوی حقوقی مبتنی بر OpenAI را برای کارکنان خود عرضه نماید.
در حال حاضر، شرکتهایی مانند گوگل، OpenAI و متا در حال ساختن سیستمهایی هستند که به شما امکان میدهد با توصیف آنچه میخواهید ببینید، بلافاصله نسبت به تولید تصاویر و ویدیوها اقدام نمایید.
شرکتهای دیگر در حال ساخت روباتهایی هستند که میتوانند مشابه انسان از وبسایتها و برنامههای نرمافزاری استفاده نمایند. در مرحله بعدی فناوری، سیستمهای هوش مصنوعی میتوانند هدایای کریسمس شما را بهصورت آنلاین خریداری نمایند، افرادی را برای انجام کارهای کوچک در خانه استخدام نموده و هزینه ماهانه شما را پیگیری کنند.
همه این موارد جای تأمل زیادی دارد. اما بزرگترین مسئله پیش رو ممکن است این باشد: پیش از اینکه ما فرصتی برای درک نحوه تأثیر این سیستمها بر جهان داشته باشیم، آنها میتوانند بسیار قدرتمندتر شوند.
هوش مصنوعی در بلندمدت
برای شرکتهایی نظیر OpenAI و DeepMind، آزمایشگاهی که به شرکت گوگل وابسته است، هدف این است که فناوری را تا جایی که امکان دارد به پیش ببرند. آنها امیدوارند نهایتاً به چیزی برسند که محققان آن را هوش عمومی مصنوعی یا AGI مینامند. سیستمهای مبتنی بر AGI قادر به انجام هر کاری که مغز انسان میتواند انجام بدهد، هستند.
همانطور که سم آلتمن[4]، مدیر اجرایی OpenAI، سه سال پیش به من گفت:"هدف من ساخت AGI سودمند است. درک میکنم که این حرف مسخره به نظر میرسد". امروزه این حرف خیلی مسخره به نظر نمیرسد، اما باز هم حرف زدن از آن آسانتر از انجام آن است.
برای اینکه هوش مصنوعی فعلی به AGI تبدیل شود، به درک عمیقی از دنیای فیزیکی نیاز است و مشخص نیست که آیا سیستمهای فعلی میتوانند با استفاده از روشهایی که به تولید GPT-4 پرداختهاند، ابعاد استدلال و عقل سلیم انسانی را تولید کنند یا خیر، بهاحتمالزیاد ایجاد پیشرفتهای جدید ضروری خواهد بود.
سؤال این است که آیا واقعاٌ میخواهیم هوش مصنوعی تا این حد قدرتمند گردد؟ و سؤال مهم دیگر این است که آیا راهی برای جلوگیری از وقوع آن وجود دارد؟
خطرات هوش مصنوعی
بسیاری از مدیران هوش مصنوعی معتقدند فناوریهایی که ایجاد کردهاند، زندگی ما را بهبود میبخشد. اما برای دههها، برخی در مورد سناریوی تاریکتری هشدار میدهند که در آن آثار ما همیشه کاری را که مدنظر ماست انجام نمیدهند، یا دستورالعملهای ما را به روشهای غیرقابلپیشبینی با عواقب بالقوه وخیم دنبال میکنند.
کارشناسان هوش مصنوعی از "همسویی" سخن میگویند. به این معنا که از همسو بودن هوش مصنوعی با ارزشها و اهداف انسانی اطمینان حاصل شود.
پیش از انتشار GPT-4، شرکت OpenAI آن را به یک گروه خارجی سپرد تا کاربردهای خطرناک این چتبات را تخمین زده، بررسی و آزمایش کنند.
این گروه طی بررسی خود دریافتند که این ابزار قادر است انسانی را بهصورت آنلاین استخدام نماید تا آزمایش کپچا در تعیین انسان بودن را دور بزند. هنگامیکه انسان از این ابزار سؤال میکند که روبات است یا خیر، سیستم بدون اینکه آزمایشکنندگان از او خواسته باشند، دروغ گفته و خود را یک فرد دارای نقص بینایی معرفی میکند.
همچنین آزمایشکنندگان نشان دادند که این سیستم میتواند برای پیشنهاد نحوه خرید آنلاین سلاح گرم بهصورت غیرقانونی و تشریح روشهای ساخت مواد خطرناک با استفاده از اقلام خانگی، به کار گرفته شود. پس از ارائه نتایج و انجام تغییرات توسط OpenAI این سیستم دیگر نسبت به انجام این موارد اقدام نمیکند.
اما حذف همه سوءاستفادههای احتمالی غیرممکن است. همانطور که سیستمی مانند این از دادههای موجود یاد میگیرد، مهارتهایی را که سازندگان آن هرگز انتظار نداشتند نیز توسعه میدهد. پیشبینی اینکه پس از شروع استفاده میلیونها نفر از این ابزار، چه مشکلاتی پیش میآید، دشوار است.
جک کلارک[5]، بنیانگذار و رئیس سیاستگذاری آنتروپیک، استارت آپی که در سانفرانسیسکو همین نوع فناوری را میسازد، اظهار داشت:"هر بار که ما یک سیستم هوش مصنوعی جدید میسازیم، نمیتوانیم تمام قابلیتها و مشکلات ایمنی آن را بهطور کامل مشخص کنیم و این مشکل با گذشت زمان بهجای اینکه بهتر شود، بدتر میشود".
OpenAI و غولهایی مانند گوگل از معدود شرکتهایی هستند که این فناوری را بررسی میکنند. روشهای اساسی مورداستفاده برای ساخت این سیستمها، در سطح وسیعی درک شده است و سایر شرکتها، کشورها، آزمایشگاههای تحقیقاتی و حامیان بد این فناوری ممکن است در این موارد احتیاط کمتری داشته باشند.
راهحلهای هوش مصنوعی
در نهایت، حفظ فناوری خطرناک هوش مصنوعی مستلزم نظارت گسترده است. اما کارشناسان در این مورد خوشبین نیستند.
آویو اوادیا[6]، محقق اینترنت و جامعه در مرکز برکمن کلاین[7] در هاروارد که به آزمایش پیش از انتشار GPT-4 کمک کرده است میگوید:"ما به یک سیستم نظارتی بینالمللی نیاز داریم. اما در حال حاضر تلاشی در نهادهای دولتی موجود برای عبور از این موضوع با سرعتی که لازم است، مشاهده نمیشود".
همانطور که در روزهای اخیر اعلام شد، بیش از 1000 رهبر و محقق فناوری ازجمله ایلان ماسک، از آزمایشگاههای هوش مصنوعی خواستهاند تا توسعه پیشرفتهترین سیستمها را متوقف کنند و در نامهای سرگشاده هشدار دادهاند که ابزارهای فعلی هوش مصنوعی "خطرات عمیقی برای جامعه و بشریت" دارند.
بر اساس این نامه، توسعهدهندگان هوش مصنوعی "در یک مسابقه خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر قرارگرفتهاند که هیچکس –حتی سازندگان این ابزارها- قادر به پیشبینی و یا کنترل قابلاطمینان آن نیستند".
برخی کارشناسان بیشتر در مورد خطرات کوتاهمدت اظهار نگرانی میکنند، ازجمله این خطرات میتوان به خطر انتشار اطلاعات نادرست و اینکه مردم برای دریافت توصیههای پزشکی و احساسی نادرست یا مضر به این سیستمها اعتماد کنند، اشاره کرد.
اما سایر منتقدان بخشی از جامعه آنلاین گسترده و تأثیرگذاری هستند که تحت عنوان خردگرایان یا نوع دوستان تأثیرگذار شناخته میشوند، آنها معتقدند که هوش مصنوعی در نهایت توانایی نابودی بشریت را دارد. این طرز فکر در این نامه نیز منعکس شده است.
واژهها:
همسویی[8]: تلاش محققان و متخصصان اخلاق هوش مصنوعی برای اطمینان از اینکه هوش مصنوعی مطابق با ارزشها و اهداف افرادی که آنها را ساختهاند، عمل میکند.
سیستمهای چندوجهی[9]: هوش مصنوعی در موارد مشابه ChatGPT میتواند تصاویر، ویدیو، صدا و سایر ورودیها و خروجیهای غیرمتنی را نیز پردازش کند.
هوش مصنوعی عمومی[10]: هوش مصنوعی که با عقل انسان مطابقت دارد و هر کاری که مغز انسان توانایی انجام آن را دارد، در این سیستمها نیز قابل انجام است.
منبع: نیویورک تایمز - نویسنده: Cade Metz
[1] Greg Brockman
[2] Zachary Lipton
[3] Carnegie Mellon
[4] Sam Altman
[5] Jack Clark
[6] Aviv Ovadya
[7] Berkman Klein
[8] Alignment
[9] Multimodal systems
[10] Artificial general intelligence
نظرات
۱ دیدگاه