اولین قانون تنظیم هوش مصنوعی در جهان به تصویب نزدیکتر شده است. دو کمیته پارلمان اروپا، پیشنویس متنی را با گزینه "کنترل سخت" برای حفاظت از حریم خصوصی، محدودسازی اطلاعات نادرست و روشنسازی زمان استفاده از فناوری برای مردم تصویب نمودند.
این قانون که برای اولین بار توسط کمیسیون اروپا در سال 2021 پیشنهاد شد، سیستمهای هوش مصنوعی را بر اساس خطر آسیب رساندن به مردم یا نقض حقوق طبقهبندی میکند و کمیتههای پارلمان، با ارائه محدودیتهایی روی این پیشنویس در حوزه شناسایی بیومتریک، تشخیص چهره و کارهای معمول پلیس، محدودیت هوش مصنوعی را تشدید کردند.
این قانون که توسط اتحادیه اروپا پیشنهاد شده است، کاربردهای هوش مصنوعی را به سه دسته خطر طبقهبندی میکند:
رأی مشترک در کمیتههای بازار داخلی و آزادیهای مدنی شامل 84 رأی موافق، 7 رأی مخالف و 12 رأی ممتنع بود. بنا به اعلام یکی از نمایندگان پارلمان اروپا، با نام دراگوس تودوراچه[1]، این قانون "بهاحتمالزیاد، مهمترین قانون" در پارلمان فعلی است. وی اظهار داشت:" این اولین قانون از این نوع در سراسر جهان است، به این معنی که اتحادیه اروپا میتواند در ساختن هوش مصنوعی انسانمحور، قابلاعتماد و ایمن پیشرو باشد." وی همچنین اظهار داشت:" اگر هنوز هم عدهای بودند که شک داشتند که آیا ما اصلاً به چیزی نیاز داریم یا خیر، فکر میکنم با ظهور ChatGPT، این شک بهسرعت برطرف شده است".
جفری هینتون[2]، دانشمند کامپیوتری که بهعنوان "پدرخوانده هوش مصنوعی" شناخته میشود، و یوشوا بنجیو[3]، یکی از پیشگامان هوش مصنوعی، اخیراً نگرانیهای خود را در مورد توسعه کنترل نشده هوش مصنوعی بیان کردند.
سارا چاندر[4]، مشاور ارشد سیاستگذاری در گروه حقوق دیجیتال EDRi اظهار داشته: "اروپا اولین بلوک منطقهای است که بهطور قابلتوجهی برای تنظیم هوش مصنوعی تلاش میکند، که با توجه به طیف گستردهای از سیستمهایی که در اصطلاح گسترده «AI» پوشش داده میشوند، چالش بزرگی است".
این قانون که با مخالفت شدید شرکتهای فناوری عمدتاً آمریکایی در زمینه هوش مصنوعی مواجه شده است، درگیری فرا اقیانوس اطلس را بر سر فناوریها تشدید خواهد کرد. این مباحث با پیشرفت مدلهای هوش مصنوعی نظیر ChatGPT در سال گذشته، به بحثهای عمومی در جهان تبدیل شد. تاکنون به دلیل فشار شرکتهای آمریکایی، دولت بایدن از ارائه هر قانون جدیدی خودداری کرده و بهجای آن، بر روی همکاری داوطلبانه صنعت، همراه با نظارت سختگیرانه بر قوانین موجود علیه تقلب یا نفوذ به حریم خصوصی تمرکز کرده است.
نگرشها در سایر نقاط جهان بهطور گستردهای متفاوت است. دولتها در تلاش هستند تا با پیامدهای این فناوری کنار بیایند. تاکنون، بریتانیا رویکرد نسبتاً آزادانهای را در پیش گرفته است. اما آژانس حفاظت از اطلاعات ایتالیا ممنوعیت موقت دسترسی به ChatGPT در این کشور را در ابتدای آوریل اعلام نموده و متعاقباً دسترسی به آن را در پایان ماه آزاد کرد.
مقامات در سرتاسر جهان در تلاش هستند تا دریابند چگونه میتوان فناوری را که بهسرعت در حال تحول است، بهگونهای کنترل کرد که اطمینان حاصل شود بدون به خطر انداختن زندگی مردم، قادر به بهبود زندگی و امنیت افراد است. قانونگذاران نگران خطرات اخلاقی و اجتماعی جدید ناشی از ChatGPT و سایر سیستمهای هوش مصنوعی هستند که میتواند زندگی روزمره را از شغل و تحصیل تا کپیرایت و حریم خصوصی تغییر دهد.
کاخ سفید اخیراً روسای شرکتهای فناوری که روی هوش مصنوعی کار میکنند، ازجمله مایکروسافت، گوگل و OpenAI خالق ChatGPT را برای بحث در مورد خطرات این فناوریها فراخوانده، درحالیکه کمیسیون تجارت فدرال هشدار داده است که از تلاش برای سرکوب هیچیک از این خطرات، دریغ نخواهد کرد.
چین پیشنویس مقرراتی را تصویب کرده که برای هر محصولی که از سیستمهای هوش مصنوعی مولد مانند ChatGPT استفاده میکند، انجام ارزیابیهای امنیتی را الزامی میکند.
نبرد لابیها
قانون اتحادیه اروپا یکی از شدیدترین نبردهای لابیگری در تاریخ بروکسل را به راه انداخته است، بهطوریکه سازمانهای حاضر در هر دو طرف، این پیشنویس را با صدای بلند محکوم یا ستایش میکنند. در مقابل، اندیشکده «مرکز نوآوری داده» مستقر در واشنگتن[5] تخمین میزند که هزینه اجرایی کردن این قانون، برای کسبوکارهای اروپایی 10.9 میلیارد یورو در سال است، این هزینه صنعت اروپا را تضعیف کرده و سرعت نوآوری را کاهش میدهد. اما در بروکسل، مرکز مطالعات سیاست اروپا[6] هزینههای سالانه را بین 176 تا 725 میلیون یورو برآورد کرده است. کمیسیون اروپا هزینه را حتی کمتر از این مقدار دانسته و چنین استدلال میکند که آسیب درازمدت هوش مصنوعی غیرقابل تنظیم، میتواند بسیار بیشتر از هر هزینه تعیینشدهای در کوتاهمدت باشد.
رأیگیری عمومی پارلمان، برای نشست 12 تا 15 ژوئن برنامهریزی شده است و پسازآن ماهها مذاکره بین پارلمان، شورای اتحادیه اروپا و کمیسیون آغاز خواهد شد. با نگاه به این رویه درازمدت، بزرگترین گروه لابی صنعت در بروکسل، حوزه دیجیتال اروپا، بیانیهای صادر نموده و اعلام داشت "این پیشنویس توازن خوبی برقرار میکند، اما ما به کار روی جزئیات دقیق در این طرح ادامه خواهیم داد. همچنین باید در راستای همسویی با شرکای بینالمللی تلاشهای زیادی صورت بگیرد. بهعنوانمثال در نشست آتی شورای تجارت و فناوری با ایالاتمتحده میتوان به این موارد پرداخت.
کار بر روی قانون اتحادیه اروپا در سال 2018 آغاز شد و پیشنویس فعلی برنامههای هوش مصنوعی را بر اساس خطر آسیب - صرفنظر از صنعت یا کاربرد، طبقهبندی میکند. استفادههای پرخطر نظیر استفاده از آن برای تعیین واجد شرایط بودن در برخورداری از مزایای دولتی یا تعیین "امتیاز اجتماعی" بهطور مطلق ممنوع است. همچنین استفاده از هوش مصنوعی برای دستکاری رفتار افراد آسیبپذیر مانند کودکان یا افراد دارای معلولیت ممنوع است. سایر فعالیتها که بهعنوان کمخطر تلقی میشوند، کنترلهای ضعیفتری خواهند داشت.
پارلمان فهرست فعالیتهای ممنوعه یا محدود کمیسیون را توسعه داده تا شامل استفاده از هویت بیومتریک در فضاهای عمومی نیز باشد - و پلیس را ملزم میکند تا مجوز قاضی را برای استفاده از این اطلاعات دریافت نماید. استفاده از هوش مصنوعی برای دستهبندی افراد بر اساس جنسیت، نژاد، قومیت، حقوق شهروندی، مذهب یا گرایش سیاسی نیز ممنوع خواهد بود. استفاده از پلیس پیشبینیکننده و «تشخیص عاطفی» مبتنی بر هوش مصنوعی، برای حدس زدن اینکه چه کسی ممکن است مرتکب جرم شده یا شود - نیز ممنوع است.
این قانون میخواهد افراد و شرکتهایی که مدلهای "بنیادی" هوش مصنوعی[7] - قلب کدگذاری سیستمهای هوش مصنوعی - را توسعه میدهند، ملزم به ثبتنام در پایگاه داده اتحادیه اروپا و "ضمانت حفاظت قوی از حقوق اساسی" کند. مدلهای بنیادی مولد، نظیر ChatGPT باید در صورت استفاده از هوش مصنوعی، بگویند که محتوا از هوش مصنوعی استخراج شده است، همچنین از تولید محتوای غیرقانونی توسط مدل جلوگیری نموده و خلاصهای از دادههایی که توسعهدهندگان در آموزش سیستم هوش مصنوعی استفاده کردهاند را منتشر کنند. جریمه ارائهدهندگان مدل بنیادی که قوانین هوش مصنوعی را نقض میکنند تا 10 میلیون یورو تعیین شده است.
در همین راستا، سم آلتمن[8]، مدیرعامل OpenAIقصد دارد در این ماه و در قالب یک تور جهانی به بروکسل و سایر شهرهای اروپایی سفر کند تا در مورد این فناوری با کاربران و توسعهدهندگان صحبت کند.
کارشناسان هشدار میدهند که بروکسل نمیتواند کنترل هوش مصنوعی را به دست شرکتهای خارجی مانند گوگل بسپارد.
همچنین در نامهای سرگشاده که توسط گروه تحقیقاتی آلمانی Laion هماهنگ شده بود، به اتحادیه اروپا هشدار داده شده است که اگر در قانون هوش مصنوعی آتی خود برای محافظت از تحقیقات مردمی اقدام نکند، در خطر واگذاری کنترل هوش مصنوعی به شرکتهای فناوری آمریکایی است.
در این نامه به پارلمان اروپا گفتهشده که قوانین «یک اندازه مناسب برای همه[9]» خطر حذف تحقیق و توسعه باز را به همراه دارد. در نامه آمده است: " در نامهای که ارسال شده است، آمده است: "قوانینی که از پژوهشگر یا توسعهدهنده انتظار دارند به کاربران پایانی نظارت کنند یا آنها را کنترل کنند، میتواند انتشار AI منبع باز در اروپا را غیرممکن کند"، این امر موقعیت "شرکتهای بزرگ را تثبیت میکند" و "تلاشها برای بهبود شفافیت، منجر به بروز اختلال، کاهش رقابت، محدود کردن آزادی علمی و هدایت سرمایهگذاری در هوش مصنوعی به سمت خارج از کشور میشود".
در نامه آمده است: "اروپا نمیتواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را برای ایجاد زیرساختهای ضروری هوش مصنوعی، بهشدت به چند شرکت خارجی و اختصاصی وابسته خواهد کرد".
در همین راستا، معافیتهایی نیز برای انجام تحقیقات و ارائه مدلهای هوش مصنوعی منبع باز ارائه شده است. این قانون وجود "جعبههای نظارتی" را رواج میدهد. در این حالت مقامات به شرکتها اجازه میدهند تا در شرایط کنترلشده نسبت به آزمایش یک محصول بالقوه خطرناک اقدام نمایند. برای نظارت بر این قانون، دفتر جدید هوش مصنوعی اتحادیه اروپا کاملاً به شیوهای که مقامات حفاظت از داده تا به امروز مقررات عمومی حفاظت از داده اتحادیه اروپا را کنترل کردهاند، راهاندازی میگردد.
منابع:
[1] Dragos Tudorache
[2] Geoffrey Hinton
[3] Yoshua Bengio
[4] Sarah Chander
[5] the Washington-based Center for Data Innovation
[6] the Centre for European Policy Studies
[7] foundation models
[8] Sam Altman
[9] one-size-fits-all
نظرات
۰ دیدگاه