سردبیر


18 فروردین 1402


۱ کامنت


( 12 )

آینده هوش مصنوعی چگونه است؟

چشم‌انداز فردا، سال آینده و بعدازآن ...

در اوایل ماه مارس، من از دفاتر OpenAI در سانفرانسیسکو بازدید کردم تا نگاهی اولیه به GPT-4 داشته باشم. GPT-4 نسخه جدیدی از فناوری است که زیربنای آن چت‌بات ChatGPT است. چشم‌گیرترین لحظه زمانی فرارسید که گرگ براکمن[1]، رئیس و یکی از بنیان‌گذاران OpenAI ویژگی را که هنوز برای عموم در دسترس نیست، به من نشان داد: او عکسی از تلسکوپ فضایی هابل به روبات داد و از آن خواست تا این تصویر را "با جزئیات دقیق" توصیف نماید.

توضیحات این ابزار کاملاً دقیق بود، حتی خط سفید عجیبی که توسط ماهواره‌ای در آسمان ایجادشده نیز به‌طور کامل توصیف شده بود. این یک نگاه به آینده روبات‌های گفتگو و سایر فناوری‌های مبتنی بر هوش مصنوعی است: موج جدیدی از سیستم‌های چندوجهی که قادر به ترکیب تصاویر، صداها، فیلم‌ها و همچنین متن با یکدیگر است. اکنون بر روی فرصت‌ها و تحولات پیش رو تمرکز خواهم کرد.

هوش مصنوعی در کوتاه‌مدت

هوش مصنوعی مولد می‌تواند به سؤالات مطرح‌شده پاسخ دهد، شعر بنویسد، کدهای کامپیوتری تولید کرده و یک مکالمه را ادامه دهد. همان‌طور که قابل حدس است، چت‌بات‌ها به‌عنوان اولین ابزارها، در قالب "مکالمه‌ای" عرضه می‌شوند که ازجمله آن‌ها می‌توان به ChatGPT و Bing اشاره کرد.

اما این شرایط، ماندگار نخواهد بود. مایکروسافت و گوگل پیش‌ازاین اعلام کرده‌اند که قصد دارند این فناوری‌های هوش مصنوعی را در همه محصولات خود بگنجانند. شما می‌توانید از آن‌ها برای نوشتن پیش‌نویس یک ایمیل، خلاصه‌سازی خودکار جلسه و ترفندهای جالب دیگر استفاده نمایید.

علاوه براین، OpenAI یک API یا رابط برنامه‌نویسی کاربردی ارائه داده که سایر شرکت‌های فناوری به‌وسیله آن می‌توانند برنامه‌ها و محصولات خود را به GPT-4 متصل کنند. همچنین برای توسعه توانایی‌های ChatGPT، مجموعه‌ای از افزونه‌های شرکت‌هایی نظیر Expedia، Instacart و Wolfram Alpha را ایجاد نموده است.

هوش مصنوعی در میان‌مدت

بسیاری از کارشناسان معتقدند که هوش مصنوعی می‌تواند در برخی کارکنان ازجمله پزشکان، وکلا و برنامه نویسان کامپیوتر بیش از هر زمان دیگری بهره‌وری ایجاد کند. علاوه براین آن‌ها بر این باورند که این ابزارها می‌توانند جایگزین برخی کارکنان شوند.

زاخاری لیپتون[2]، پروفسور دانشگاه کارنگی ملون[3] که متخصص هوش مصنوعی و تأثیر آن بر جامعه است، می‌گوید:"این ابزارها روی کارهایی که تکراری‌تر، قابل فرمول سازی و عمومی‌تر هستند، تأثیر می‌گذارد"."این می‌تواند به برخی از افرادی که در کارهای تکراری عملکرد خوبی ندارند کمک کرده و درعین‌حال، می‌تواند برای افرادی که در انجام کارهای تکراری تخصص دارند، تهدید محسوب شود".

مشاغلی که در حال حاضر توسط انسان انجام می‌شود، می‌تواند به‌واسطه فناوری‌هایی نظیر رونویسی و ترجمه صوت به متن، از بین برود. در زمینه حقوق، در حال حاضر GPT-4 مهارت کافی برای شرکت در آزمون وکالت را دارد و شرکت حسابداری PricewaterhouseCoopers قصد دارد یک چت‌بات گفتگوی حقوقی مبتنی بر OpenAI را برای کارکنان خود عرضه نماید.

در حال حاضر، شرکت‌هایی مانند گوگل، OpenAI و متا در حال ساختن سیستم‌هایی هستند که به شما امکان می‌دهد با توصیف آنچه می‌خواهید ببینید، بلافاصله نسبت به تولید تصاویر و ویدیوها اقدام نمایید.

شرکت‌های دیگر در حال ساخت روبات‌هایی هستند که می‌توانند مشابه انسان از وب‌سایت‌ها و برنامه‌های نرم‌افزاری استفاده نمایند. در مرحله بعدی فناوری، سیستم‌های هوش مصنوعی می‌توانند هدایای کریسمس شما را به‌صورت آنلاین خریداری نمایند، افرادی را برای انجام کارهای کوچک در خانه استخدام نموده و هزینه ماهانه شما را پیگیری کنند.

همه این موارد جای تأمل زیادی دارد. اما بزرگ‌ترین مسئله پیش رو ممکن است این باشد: پیش از اینکه ما فرصتی برای درک نحوه تأثیر این سیستم‌ها بر جهان داشته باشیم، آن‌ها می‌توانند بسیار قدرتمندتر شوند.

هوش مصنوعی در بلندمدت

برای شرکت‌هایی نظیر OpenAI و DeepMind، آزمایشگاهی که به شرکت گوگل وابسته است، هدف این است که فناوری را تا جایی که امکان دارد به پیش ببرند. آن‌ها امیدوارند نهایتاً به چیزی برسند که محققان آن را هوش عمومی مصنوعی یا AGI می‌نامند. سیستم‌های مبتنی بر AGI قادر به انجام هر کاری که مغز انسان می‌تواند انجام بدهد، هستند.

همان‌طور که سم آلتمن[4]، مدیر اجرایی OpenAI، سه سال پیش به من گفت:"هدف من ساخت AGI سودمند است. درک می‌کنم که این حرف مسخره به نظر می‌رسد". امروزه این حرف خیلی مسخره به نظر نمی‌رسد، اما باز هم حرف زدن از آن آسان‌تر از انجام آن است.

برای اینکه هوش مصنوعی فعلی به AGI تبدیل شود، به درک عمیقی از دنیای فیزیکی نیاز است و مشخص نیست که آیا سیستم‌های فعلی می‌توانند با استفاده از روش‌هایی که به تولید GPT-4 پرداخته‌اند، ابعاد استدلال و عقل سلیم انسانی را تولید کنند یا خیر، به‌احتمال‌زیاد ایجاد پیشرفت‌های جدید ضروری خواهد بود.

سؤال این است که آیا واقعاٌ می‌خواهیم هوش مصنوعی تا این حد قدرتمند گردد؟ و سؤال مهم دیگر این است که آیا راهی برای جلوگیری از وقوع آن وجود دارد؟

خطرات هوش مصنوعی

بسیاری از مدیران هوش مصنوعی معتقدند فناوری‌هایی که ایجاد کرده‌اند، زندگی ما را بهبود می‌بخشد. اما برای دهه‌ها، برخی در مورد سناریوی تاریک‌تری هشدار می‌دهند که در آن آثار ما همیشه کاری را که مدنظر ماست انجام نمی‌دهند، یا دستورالعمل‌های ما را به روش‌های غیرقابل‌پیش‌بینی با عواقب بالقوه وخیم دنبال می‌کنند.

کارشناسان هوش مصنوعی از "همسویی" سخن می‌گویند. به این معنا که از همسو بودن هوش مصنوعی با ارزش‌ها و اهداف انسانی اطمینان حاصل شود.

پیش از انتشار GPT-4، شرکت OpenAI آن را به یک گروه خارجی سپرد تا کاربردهای خطرناک این چت‌بات را تخمین زده، بررسی و آزمایش کنند.

این گروه طی بررسی خود دریافتند که این ابزار قادر است انسانی را به‌صورت آنلاین استخدام نماید تا آزمایش کپچا در تعیین انسان بودن را دور بزند. هنگامی‌که انسان از این ابزار سؤال می‌کند که روبات است یا خیر، سیستم بدون اینکه آزمایش‌کنندگان از او خواسته باشند، دروغ گفته و خود را یک فرد دارای نقص بینایی معرفی می‌کند.

همچنین آزمایش‌کنندگان نشان دادند که این سیستم می‌تواند برای پیشنهاد نحوه خرید آنلاین سلاح گرم به‌صورت غیرقانونی و تشریح روش‌های ساخت مواد خطرناک با استفاده از اقلام خانگی، به کار گرفته شود. پس از ارائه نتایج و انجام تغییرات توسط OpenAI این سیستم دیگر نسبت به انجام این موارد اقدام نمی‌کند.

اما حذف همه سوءاستفاده‌های احتمالی غیرممکن است. همان‌طور که سیستمی مانند این از داده‌های موجود یاد می‌گیرد، مهارت‌هایی را که سازندگان آن هرگز انتظار نداشتند نیز توسعه می‌دهد. پیش‌بینی این‌که پس از شروع استفاده میلیون‌ها نفر از این ابزار، چه مشکلاتی پیش می‌آید، دشوار است.

جک کلارک[5]، بنیان‌گذار و رئیس سیاست‌گذاری آنتروپیک، استارت آپی که در سانفرانسیسکو همین نوع فناوری را می‌سازد، اظهار داشت:"هر بار که ما یک سیستم هوش مصنوعی جدید می‌سازیم، نمی‌توانیم تمام قابلیت‌ها و مشکلات ایمنی آن را به‌طور کامل مشخص کنیم و این مشکل با گذشت زمان به‌جای اینکه بهتر شود، بدتر می‌شود".

OpenAI و غول‌هایی مانند گوگل از معدود شرکت‌هایی هستند که این فناوری را بررسی می‌کنند. روش‌های اساسی مورداستفاده برای ساخت این سیستم‌ها، در سطح وسیعی درک شده است و سایر شرکت‌ها، کشورها، آزمایشگاه‌های تحقیقاتی و حامیان بد این فناوری ممکن است در این موارد احتیاط کمتری داشته باشند.

راه‌حل‌های هوش مصنوعی

در نهایت، حفظ فناوری خطرناک هوش مصنوعی مستلزم نظارت گسترده است. اما کارشناسان در این مورد خوش‌بین نیستند.

آویو اوادیا[6]، محقق اینترنت و جامعه در مرکز برکمن کلاین[7] در هاروارد که به آزمایش پیش از انتشار GPT-4 کمک کرده است می‌گوید:"ما به یک سیستم نظارتی بین‌المللی نیاز داریم. اما در حال حاضر تلاشی در نهادهای دولتی موجود برای عبور از این موضوع با سرعتی که لازم است، مشاهده نمی‌شود".

همان‌طور که در روزهای اخیر اعلام شد، بیش از 1000 رهبر و محقق فناوری ازجمله ایلان ماسک، از آزمایشگاه‌های هوش مصنوعی خواسته‌اند تا توسعه پیشرفته‌ترین سیستم‌ها را متوقف کنند و در نامه‌ای سرگشاده هشدار داده‌اند که ابزارهای فعلی هوش مصنوعی "خطرات عمیقی برای جامعه و بشریت" دارند.

بر اساس این نامه، توسعه‌دهندگان هوش مصنوعی "در یک مسابقه خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر قرارگرفته‌اند که هیچ‌کس –حتی سازندگان این ابزارها- قادر به پیش‌بینی و یا کنترل قابل‌اطمینان آن نیستند".

برخی کارشناسان بیشتر در مورد خطرات کوتاه‌مدت اظهار نگرانی می‌کنند، ازجمله این خطرات می‌توان به خطر انتشار اطلاعات نادرست و اینکه مردم برای دریافت توصیه‌های پزشکی و احساسی نادرست یا مضر به این سیستم‌ها اعتماد کنند، اشاره کرد.

اما سایر منتقدان بخشی از جامعه آنلاین گسترده و تأثیرگذاری هستند که تحت عنوان خردگرایان یا نوع دوستان تأثیرگذار شناخته می‌شوند، آن‌ها معتقدند که هوش مصنوعی در نهایت توانایی نابودی بشریت را دارد. این طرز فکر در این نامه نیز منعکس شده است.

 

واژه‌ها:

همسویی[8]: تلاش محققان و متخصصان اخلاق هوش مصنوعی برای اطمینان از اینکه هوش مصنوعی مطابق با ارزش‌ها و اهداف افرادی که آن‌ها را ساخته‌اند، عمل می‌کند.

سیستم‌های چندوجهی[9]: هوش مصنوعی در موارد مشابه ChatGPT می‌تواند تصاویر، ویدیو، صدا و سایر ورودی‌ها و خروجی‌های غیرمتنی را نیز پردازش کند.

هوش مصنوعی عمومی[10]: هوش مصنوعی که با عقل انسان مطابقت دارد و هر کاری که مغز انسان توانایی انجام آن را دارد، در این سیستم‌ها نیز قابل انجام است.

 

منبع: نیویورک تایمز - نویسنده: Cade Metz

 


 

[1] Greg Brockman

[2] Zachary Lipton

[3] Carnegie Mellon

[4] Sam Altman

[5] Jack Clark

[6] Aviv Ovadya

[7] Berkman Klein

[8] Alignment

[9] Multimodal systems

[10] Artificial general intelligence

برچسب ها :

منتخب سردبیر

هوش مصنوعی

اخلاق هوش مصنوعی

فقه اخلاق

فقه امنیت

مسئولیت پذیری هوش مصنوعی


اخبار مشابه
نتیجه ای یافت نشد

نظرات

۱ دیدگاه

دفتر فقه معاصر در پیام‌رسان‌ها:

تمام حقوق مادی و معنوی برای سایت دفتر فقه معاصر حوزه های علمیه محفوظ است@2023