سردبیر


28 اردیبهشت 1402


۰ کامنت


( 5 )

( 12 )

اولین قانون هوش مصنوعی جهان به تصویب نزدیک می‌شود

استقرار ابزارهای جدید هوش مصنوعی، مانند ChatGPT، آگاهی در سراسر اتحادیه اروپا را در مورد مقررات افزایش داده است و به‌طور بالقوه قانون هوش مصنوعی آن را تغییر می‌دهد.

اولین قانون تنظیم هوش مصنوعی در جهان به تصویب نزدیک‌تر شده است. دو کمیته پارلمان اروپا، پیش‌نویس متنی را با گزینه "کنترل سخت" برای حفاظت از حریم خصوصی، محدودسازی اطلاعات نادرست و روشن‌سازی زمان استفاده از فناوری برای مردم تصویب نمودند.

این قانون که برای اولین بار توسط کمیسیون اروپا در سال 2021 پیشنهاد شد، سیستم‌های هوش مصنوعی را بر اساس خطر آسیب رساندن به مردم یا نقض حقوق طبقه‌بندی می‌کند و کمیته‌های پارلمان، با ارائه محدودیت‌هایی روی این پیش‌نویس در حوزه شناسایی بیومتریک، تشخیص چهره و کارهای معمول پلیس، محدودیت هوش مصنوعی را تشدید کردند.

این قانون که توسط اتحادیه اروپا پیشنهاد شده است، کاربردهای هوش مصنوعی را به سه دسته خطر طبقه‌بندی می‌کند:

  • برنامه‌ها و سیستم‌هایی که خطر غیرقابل قبولی ایجاد می‌کنند، مانند ابزارهای امتیازدهی اجتماعی دولتی از نوع مورداستفاده در چین، ممنوع هستند.
  • برنامه‌های کاربردی پرخطر، مانند ابزار اسکن هویتی که متقاضیان کار را رتبه‌بندی می‌کنند، مشمول الزامات قانونی خاصی هستند.
  • برنامه‌هایی که به‌صراحت ممنوع نشده یا به‌عنوان پرخطر فهرست نشده‌اند، عمدتاً کنترل خفیف‌تری دارند

رأی مشترک در کمیته‌های بازار داخلی و آزادی‌های مدنی شامل 84 رأی موافق، 7 رأی مخالف و 12 رأی ممتنع بود. بنا به اعلام یکی از نمایندگان پارلمان اروپا، با نام دراگوس تودوراچه[1]، این قانون "به‌احتمال‌زیاد، مهم‌ترین قانون" در پارلمان فعلی است. وی اظهار داشت:" این اولین قانون از این نوع در سراسر جهان است، به این معنی که اتحادیه اروپا می‌تواند در ساختن هوش مصنوعی انسان‌محور، قابل‌اعتماد و ایمن پیشرو باشد." وی همچنین اظهار داشت:" اگر هنوز هم عده‌ای بودند که شک داشتند که آیا ما اصلاً به چیزی نیاز داریم یا خیر، فکر می‌کنم با ظهور ChatGPT، این شک به‌سرعت برطرف شده است".

جفری هینتون[2]، دانشمند کامپیوتری که به‌عنوان "پدرخوانده هوش مصنوعی" شناخته می‌شود، و یوشوا بنجیو[3]، یکی از پیشگامان هوش مصنوعی، اخیراً نگرانی‌های خود را در مورد توسعه کنترل نشده هوش مصنوعی بیان کردند.

سارا چاندر[4]، مشاور ارشد سیاست‌گذاری در گروه حقوق دیجیتال EDRi اظهار داشته: "اروپا اولین بلوک منطقه‌ای است که به‌طور قابل‌توجهی برای تنظیم هوش مصنوعی تلاش می‌کند، که با توجه به طیف گسترده‌ای از سیستم‌هایی که در اصطلاح گسترده «AI» پوشش داده می‌شوند، چالش بزرگی است".

این قانون که با مخالفت شدید شرکت‌های فناوری عمدتاً آمریکایی در زمینه هوش مصنوعی مواجه شده است، درگیری فرا اقیانوس اطلس را بر سر فناوری‌ها تشدید خواهد کرد. این مباحث با پیشرفت مدل‌های هوش مصنوعی نظیر ChatGPT در سال گذشته، به بحث‌های عمومی در جهان تبدیل شد. تاکنون به دلیل فشار شرکت‌های آمریکایی، دولت بایدن از ارائه هر قانون جدیدی خودداری کرده و به‌جای آن، بر روی همکاری داوطلبانه صنعت، همراه با نظارت سخت‌گیرانه بر قوانین موجود علیه تقلب یا نفوذ به حریم خصوصی تمرکز کرده است.

نگرش‌ها در سایر نقاط جهان به‌طور گسترده‌ای متفاوت است. دولت‌ها در تلاش هستند تا با پیامدهای این فناوری کنار بیایند. تاکنون، بریتانیا رویکرد نسبتاً آزادانه‌ای را در پیش گرفته است. اما آژانس حفاظت از اطلاعات ایتالیا ممنوعیت موقت دسترسی به ChatGPT در این کشور را در ابتدای آوریل اعلام نموده و متعاقباً دسترسی به آن را در پایان ماه آزاد کرد.

مقامات در سرتاسر جهان در تلاش هستند تا دریابند چگونه می‌توان فناوری را که به‌سرعت در حال تحول است، به‌گونه‌ای کنترل کرد که اطمینان حاصل شود بدون به خطر انداختن زندگی مردم، قادر به بهبود زندگی و امنیت افراد است. قانون‌گذاران نگران خطرات اخلاقی و اجتماعی جدید ناشی از ChatGPT و سایر سیستم‌های هوش مصنوعی هستند که می‌تواند زندگی روزمره را از شغل و تحصیل تا کپی‌رایت و حریم خصوصی تغییر دهد.

کاخ سفید اخیراً روسای شرکت‌های فناوری که روی هوش مصنوعی کار می‌کنند، ازجمله مایکروسافت، گوگل و OpenAI  خالق ChatGPT را برای بحث در مورد خطرات این فناوری‌ها فراخوانده، درحالی‌که کمیسیون تجارت فدرال هشدار داده است که از تلاش برای سرکوب هیچ‌یک از این خطرات، دریغ نخواهد کرد.

چین پیش‌نویس مقرراتی را تصویب کرده که برای هر محصولی که از سیستم‌های هوش مصنوعی مولد مانند ChatGPT استفاده می‌کند، انجام ارزیابی‌های امنیتی را الزامی می‌کند.

نبرد لابی‌ها

قانون اتحادیه اروپا یکی از شدیدترین نبردهای لابی‌گری در تاریخ بروکسل را به راه انداخته است، به‌طوری‌که سازمان‌های حاضر در هر دو طرف، این پیش‌نویس را با صدای بلند محکوم یا ستایش می‌کنند. در مقابل، اندیشکده «مرکز نوآوری داده» مستقر در واشنگتن[5] تخمین می‌زند که هزینه اجرایی کردن این قانون، برای کسب‌وکارهای اروپایی 10.9 میلیارد یورو در سال است، این هزینه صنعت اروپا را تضعیف کرده و سرعت نوآوری را کاهش می‌دهد. اما در بروکسل، مرکز مطالعات سیاست اروپا[6] هزینه‌های سالانه را بین 176 تا 725 میلیون یورو برآورد کرده است. کمیسیون اروپا هزینه را حتی کمتر از این مقدار دانسته و چنین استدلال می‌کند که آسیب درازمدت هوش مصنوعی غیرقابل تنظیم، می‌تواند بسیار بیشتر از هر هزینه تعیین‌شده‌ای در کوتاه‌مدت باشد.

رأی‌گیری عمومی پارلمان، برای نشست 12 تا 15 ژوئن برنامه‌ریزی شده است و پس‌ازآن ماه‌ها مذاکره بین پارلمان، شورای اتحادیه اروپا و کمیسیون آغاز خواهد شد. با نگاه به این رویه درازمدت، بزرگ‌ترین گروه لابی صنعت در بروکسل، حوزه دیجیتال اروپا، بیانیه‌ای صادر نموده و اعلام داشت "این پیش‌نویس توازن خوبی برقرار می‌کند، اما ما به کار روی جزئیات دقیق در این طرح ادامه خواهیم داد. همچنین باید در راستای همسویی با شرکای بین‌المللی تلاش‌های زیادی صورت بگیرد. به‌عنوان‌مثال در نشست آتی شورای تجارت و فناوری با ایالات‌متحده می‌توان به این موارد پرداخت.

کار بر روی قانون اتحادیه اروپا در سال 2018 آغاز شد و پیش‌نویس فعلی برنامه‌های هوش مصنوعی را بر اساس خطر آسیب - صرف‌نظر از صنعت یا کاربرد، طبقه‌بندی می‌کند. استفاده‌های پرخطر نظیر استفاده از آن برای تعیین واجد شرایط بودن در برخورداری از مزایای دولتی یا تعیین "امتیاز اجتماعی" به‌طور مطلق ممنوع است. همچنین استفاده از هوش مصنوعی برای دست‌کاری رفتار افراد آسیب‌پذیر مانند کودکان یا افراد دارای معلولیت ممنوع است. سایر فعالیت‌ها که به‌عنوان کم‌خطر تلقی می‌شوند، کنترل‌های ضعیف‌تری خواهند داشت.

پارلمان فهرست فعالیت‌های ممنوعه یا محدود کمیسیون را توسعه داده تا شامل استفاده از هویت بیومتریک در فضاهای عمومی نیز باشد - و پلیس را ملزم می‌کند تا مجوز قاضی را برای استفاده از این اطلاعات دریافت نماید. استفاده از هوش مصنوعی برای دسته‌بندی افراد بر اساس جنسیت، نژاد، قومیت، حقوق شهروندی، مذهب یا گرایش سیاسی نیز ممنوع خواهد بود. استفاده از پلیس پیش‌بینی‌کننده و «تشخیص عاطفی» مبتنی بر هوش مصنوعی، برای حدس زدن اینکه چه کسی ممکن است مرتکب جرم شده یا شود - نیز ممنوع است.

این قانون می‌خواهد افراد و شرکت‌هایی که مدل‌های "بنیادی" هوش مصنوعی[7] - قلب کدگذاری سیستم‌های هوش مصنوعی - را توسعه می‌دهند، ملزم به ثبت‌نام در پایگاه داده اتحادیه اروپا و "ضمانت حفاظت قوی از حقوق اساسی" کند. مدل‌های بنیادی مولد، نظیر ChatGPT باید در صورت استفاده از هوش مصنوعی، بگویند که محتوا از هوش مصنوعی استخراج شده است، همچنین از تولید محتوای غیرقانونی توسط مدل جلوگیری نموده و خلاصه‌ای از داده‌هایی که توسعه‌دهندگان در آموزش سیستم هوش مصنوعی استفاده کرده‌اند را منتشر کنند. جریمه ارائه‌دهندگان مدل بنیادی که قوانین هوش مصنوعی را نقض می‌کنند تا 10 میلیون یورو تعیین شده است.

در همین راستا، سم آلتمن[8]، مدیرعامل OpenAIقصد دارد در این ماه و در قالب یک تور جهانی به بروکسل و سایر شهرهای اروپایی سفر کند تا در مورد این فناوری با کاربران و توسعه‌دهندگان صحبت کند.

کارشناسان هشدار می‌دهند که بروکسل نمی‌تواند کنترل هوش مصنوعی را به دست شرکت‌های خارجی مانند گوگل بسپارد.

همچنین در نامه‌ای سرگشاده که توسط گروه تحقیقاتی آلمانی Laion هماهنگ شده بود، به اتحادیه اروپا هشدار داده شده است که اگر در قانون هوش مصنوعی آتی خود برای محافظت از تحقیقات مردمی اقدام نکند، در خطر واگذاری کنترل هوش مصنوعی به شرکت‌های فناوری آمریکایی است.

در این نامه به پارلمان اروپا گفته‌شده که قوانین «یک اندازه مناسب برای همه[9]» خطر حذف تحقیق و توسعه باز را به همراه دارد. در نامه آمده است: " در نامه‌ای که ارسال شده است، آمده است: "قوانینی که از پژوهشگر یا توسعه‌دهنده انتظار دارند به کاربران پایانی نظارت کنند یا آن‌ها را کنترل کنند، می‌تواند انتشار AI منبع باز در اروپا را غیرممکن کند"، این امر موقعیت "شرکت‌های بزرگ را تثبیت می‌کند" و "تلاش‌ها برای بهبود شفافیت، منجر به بروز اختلال، کاهش رقابت، محدود کردن آزادی علمی و هدایت سرمایه‌گذاری در هوش مصنوعی به سمت خارج از کشور می‌شود".

 

در نامه آمده است: "اروپا نمی‌تواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را برای ایجاد زیرساخت‌های ضروری هوش مصنوعی، به‌شدت به چند شرکت خارجی و اختصاصی وابسته خواهد کرد".

در همین راستا، معافیت‌هایی نیز برای انجام تحقیقات و ارائه مدل‌های هوش مصنوعی منبع باز ارائه شده است. این قانون وجود "جعبه‌های نظارتی" را رواج می‌دهد. در این حالت مقامات به شرکت‌ها اجازه می‌دهند تا در شرایط کنترل‌شده نسبت به آزمایش یک محصول بالقوه خطرناک اقدام نمایند. برای نظارت بر این قانون، دفتر جدید هوش مصنوعی اتحادیه اروپا کاملاً به شیوه‌ای که مقامات حفاظت از داده تا به امروز مقررات عمومی حفاظت از داده اتحادیه اروپا را کنترل کرده‌اند، راه‌اندازی می‌گردد.

 

منابع:


 

[1] Dragos Tudorache

[2] Geoffrey Hinton

[3] Yoshua Bengio

[4] Sarah Chander

[5] the Washington-based Center for Data Innovation

[6] the Centre for European Policy Studies

[7] foundation models

[8] Sam Altman

[9] one-size-fits-all

برچسب ها :

منتخب سردبیر

هوش مصنوعی


اخبار مشابه
نتیجه ای یافت نشد

نظرات

۰ دیدگاه

دفتر فقه معاصر در پیام‌رسان‌ها:

تمام حقوق مادی و معنوی برای سایت دفتر فقه معاصر حوزه های علمیه محفوظ است@2023