السید عباس الصافي


١٨ مايو ٢٠٢٣


۰ تعليق


( 12 )

البرلمان الأوروبي يوشك على مصادقة أوّل قانون للذكاء الاصطناعي في العالم

مع استقرار المنتجات الجديدة للذكاء الاصطناعي – مثل (التشات جي. بي. تي. ChatGPT) – يزداد الوعي في كلّ الاتّحاد الأوروبي بشأن اللوائح، ممّا دفع إلى تغيير قانون الذكاء الاصطناعي.

مع استقرار المنتجات الجديدة للذكاء الاصطناعي – مثل (التشات جي. بي. تي. ChatGPT) – يزداد الوعي في كلّ الاتّحاد الأوروبي بشأن اللوائح، ممّا دفع إلى تغيير قانون الذكاء الاصطناعي.

 

يقترب أوّل قانون للذكاء الاصطناعي في العالم من المصادقة عليه، حيث صادقت لجنتان في البرلمان الأوروبي على مسوّدة بعنوان (السيطرة الشديدة) للمحافظة على الخصوصية وتحديد المعلومات الخاطئة وتوضيح زمان الاستفادة من التقنية من قِبل الأفراد.

ويصنّف القانون - الذي تمّ اقتراحه لأوّل مرّة من قِبل اللجنة الأوروبية عام (٢۰٢١م) - نُظم الذكاء الاصطناعي على أساس مخاطر الإضرار بالأفراد أو نقض الحقوق، حيث شدّدت لجان البرلمان الأوروبي – من خلال القيود الموضوعة على المسوّدة – الرقابة في مجال المعرفة البيومترية وتشخيص السّمات والأعمال الاعتيادية للشرطة والقيود الخاصة بالذكاء الاصطناعي.

ويقسّم القانون الذي اقترحه الاتّحاد الأوروبي تطبيقات الذكاء الاصطناعي إلى ثلاثة مستويات من المخاطر:

  • برامج وأنظمة ذات مخاطر غير مقبولة، مثل المنتجات التي تُستخدَم للتقييم الاجتماعي الحكومي من النوع المُستخدَم في الصين.
  • البرامج التطبيقية ذات المخاطر العالية، مثل تلك المُستخدَمة للتعرّف على هوية المُتقدّمين للعمل وتصنيفهم وهذه البرامج ستخضع للالتزامات القانونية الخاصة.
  • البرامج التي لم تُمنع صراحة التي تُعتبر ذات مخاطر محدودة أو تلك التي لم تُصَنَّف بأنّها ذات مخاطر عالية، والتي سوف تُخَفّف عليها الرقابة.

وأمّا نسبة الآراء التي صوّتت على القانون المذكور في لجان السوق الداخلية والحريّات المدنية، فشملت (۸٤) رأياً موافقاً و(۷) آراء مُعارضة و(١٢) رأياً ممتنعاً. وبالاستناد إلى ما صرّح به أحد ممثّلي البرلمان الأوروبي واسمه (دراغوس تودوراتشه Dragos Tudorache) فإنّ هذا القانون يُعدّ على الأرجح أهمّ قانون في البرلمان الحالي، وأضاف قائلاً: «يُعتبر هذا القانون الأوّل من نوعه على مستوى العالم، بمعنى أنّه سيكون بإمكان الاتّحاد الأوروبي السبّاق في مجال صناعة الذكاء الاصطناعي المستند إلى الإنسان والموثوق به والأمين». كما علّق الممثّل المذكور بقوله: «إذا كان هنالك بعض الأفراد الذين ما زالوا يشكّون فيما إذا كنّا بحاجة إلى شيء ما أصلاً أم لا، فمن المؤكّد أنّ ذلك الشكّ قد زال بسرعة مع ظهور (ChatGPT)».

وكان (جيفري هينتون Geoffrey Hinton) – العالم المعروف في الحاسوب الذي يُدعى كذلك بالأب الروحي للذكاء الاصطناعي – ويوشوا بنجيو Yoshua Bengio) – أحد الروّاد في الذكاء الاصطناعي – قد أظهرا قلقهما مؤخّراً حول توسّ وتطوّر الذكاء الاصطناعي غير المُسيطَر عليه.

وأمّا (سارا تشاندر Sarah Chander) – مستشارة التشريع في لجنة الحقوق الرقمية (EDRi) فقد صرّحت قائلة: «تُعتبر أوروبا أولى المناطق التي سعت بجديّة إلى تنظيم الذكاء الاصطناعي ويُعدّ ذلك تحدّياً كبيراً نظراً إلى وجود مجموعة واسعة من النّظُم التي يشتمل عليها اصطلاح (AI)».

هذا، ومن شأن القانون المذكور تشديد الصراع في ما وراء المحيط الأطلسي حول التّقنيات خصوصاً بعد أن اعترضت عليه بشدّة الشركات التّقنية وخاصة الأمريكية العاملة في مجال الذكاء الاصطناعي. وقد تحوّلت تلك المباحث إلى بحوث عامّة في العالم مع التقدّم الذي طرأ على أنواع الذكاء الاصطناعي مثل (ChatGPT) في السنة الماضية. وبسبب الضغوط التي تمارسها الشركات الأمريكية فقد امتنعت إدارة (بايدن) حتى الآن عن سنّ قانون جديد بهذا الخصوص، وبدلاً من ذلك فقد ركّزت إدارة (بايدن) على التعاون الطّوعي في الصناعة مع الرقابة الشديدة على القانون الحالية ضدّ الاحتيال أو النفوذ إلى الخصوصية.

وتختلف الآراء في هذا الشأن في سائر بقاع العالم، حيث تسعى الدّول إلى التكيّف مع نتائج هذه التقنية، فقد اتّبعت بريطانيا مثلاً المسار الحرّ نسبياً. إلّا أنّ وكالة حماية المعلومات في إيطاليا أعلنت المنّ المؤقّت للدخول إلى (ChatGPT) هناك منذ أوائل نيسان، ثمّ ما لبثت أن أطلقته في نهاية الشهر المذكور.

وتحاول السلطات في شتّى أنحاء العالم التوصّل إلى سبيل يمكن بواسطته السيطرة على التّقنية التي ما تفتأ تتغيّر بسرعة، بحيث تطمئنّ بأنّ تلك التّقنية قادرة على تحسين حياة الأفراد ومستواهم الأمنيّ من دون تعريضهم لأيّ خطر. ويخشى المُشرّعون المخاطر الأخلاقية والاجتماعية الجديدة الناجمة عن (ChatGPT) وسائر نُظم الذكاء الاصطناعي والتي تستطيع تغيير الحياة اليومية بدءاً من الشغل والتعليم والدراسة وصولاً إلى الاستنساخ والخصوصية.

وكان البيت الأبيض قد دعا في الآونة الأخيرة مدراء بعض الشركات التّقنية التي تعمل على الذكاء الاصطناعي، ومنها شركة (مايكروسوفت) و(غوغل) و(OpenAI) الصانعة لبرنامج (ChatGPT) وذلك للبحث بشأن مخاطر تلك التّقنيات، وفي الوقت الذي حذّرت فيه لجنة التجارة الفيدرالية بأنّها لن تتساهل في الجهود الرامية إلى القضاء على أيّ من تلك المخاطر.

وصادقت الصين على مسوّدة لائحة ألزمت فيها القيام بالتقييم الأمني لأيّ مُنتَج يستعمل نُظم الذكاء الاصطناعي المُنتِج مثل (ChatGPT).

 

صراع الجهات الضاغطة (اللوبيهات)

أدّى القانون الذي أصدره الاتّحاد الأوروبي إلى حدوث أشدّ صراع بين اللوبيهات في تأريخ (بروكسل) بحيث قامت المنظمات بإدانة واستنكار المسوّدة أو الترحيب بها بشكل علني. وفي المقابل قدّر مركز واشنطن لإبداع المعلومات (the Washington-based Center for Data Innovation) تكلفة تطبيق القانون المذكور بالنسبة إلى الأشغال والأعمال في أوروبا بما يقرب من (10.9) مليار يورو سنويا، ومن شأن هذه التكلفة إضعاف الصناعة الأوروبية وتقليل سرعة الإبداع كذلك. إلّا أنّ مركز الدراسات الخاصّ بالسياسة الأوروبية (the Centre for European Policy Studies) ومقرّه في بروكسل قدّر التكاليف السنوية بين (١۷٦) و(۷٢٥) مليون يورو، لكنّ اللجنة الأوروبية قدّرت التكلفة بأقلّ من ذلك، واستدلّت على أنّ الأضرار الغير قابلة للتنظيم للذكاء الاصطناعي على المدى البعيد يمكن أن تتسبّب بتكاليف أكبر ممّا تمّ تخمينها على المدى القصير.

هذا، وتقرّر تعيين المصادقة العامّة في البرلمان خلال الجلسة التي ستُعقَد بين (١٢) إلى (١٥) من شهر حزيران، وبعد ذلك ستبدأ المباحثات والمناقشات بين البرلمان الأوروبي ومجلس الاتّحاد الأوروبي واللجنة وستستمرّ لعدّة أشهر. وبالنّظر إلى هذا المنهج الطويل الأمد أصدر أكبر مجموعات الضغط في (بروكسل) في المجال الرّقمي في أوروبا بيناً أعلن فيه: «أنّ هذه المسوّدة ستؤدّي إلى إحداث توازن جيّد، لكنّنا سنستمرّ في العمل على الجزئيات الدقيقة لهذا المشروع. كما ينبغي بذل جهود كبيرة في مجال التوازن بين الشركات الدّولية، على سبيل المثال يمكن للجلسة التالية التي سيعقدها مجلس التجارة والتقنية مع الولايات المتحدة أن تتطرّق إلى هذه الموارد».

وقد بُدئ العمل في قانون الاتّحاد الأوروبي في عام (٢۰١۸م) حيث تقوم المسوّدة الحالية بتصنيف برامج الذكاء الاصطناعي على أساس مخاطر الأضرار، بصرف النّظر عن الصناعة أو الاستخدام. وقد تمّ منع الاستعمال الشديد الخطر للتقنية منعاً باتاً، مثل استخدامها في تعيين الحائزين على الشروط عند التعامل مع امتلاك المزايا الحكومية أو التقييم الاجتماعي، كما مُنِع استخدام الذكاء الاصطناعي لاستغلال الضعف لدى الأفراد – كالأطفال أو المعوّقين – والتّحكّم في سلوكيّاتهم. أمّا سائر النشاطات الأخرى التي تمّ تصنيفها بأنّها ذات مخاطر ضئيلة فستقلّ السيطرة عليها.

وقد وسّع البرلمان الأوروبي فهرست النشاطات الممنوعة أو تلك التي حدّدتها اللجنة ليشمل كذلك أنظمة التصنيف البيومترية في الفضاءات العامّة وألزم أفراد الشرطة بالحصول على إذن من القاضي للاستفادة من تلك المعلومات. وسوف يتمّ منع استخدام الذكاء الاصطناعي لأغراض تصنيف الأفراد على أساس الجنس والعرق والقومية وحقوق المواطنة والمذهب والميول السياسية، كما سيُمنع الاستعانة بالشرطة المخمّنة و(التشخيص العاطفي) المبنيّ على الذكاء الاصطناعي لغرض الحدس والتّخمين بشأن الأشخاص الذين يُتوقّع ارتكابهم للجريمة.

ويسعى القانون المذكور إلى إلزام الأفراد والشركات الذين يعملون على تطوير النماذج (الأساسية) للذكاء الاصطناعي (foundation models) بالتسجيل لدى مركز المعلومات في الاتّحاد الأوروبي ويقدّموا ضماناً بالمحافظة الشديدة على الحقوق الأساسية. وعلى النماذج الأساسية المُنتجة – مثل (ChatGPT) – في حال استخدامها للذكاء الاصطناعي أن تصرّح بأنّ المضمون مُقتبَس عن الذكاء الاصطناعي، وتجنّب إنتاج مضمون غير قانونيّ بواسطة أيّ نموذج، وأخيراً نشر ملخّص عن المعلومات التي استعان بها المطوّرون في تعليم نظام الذكاء الاصطناعي. وتمّ تحديد الغرامة المفروضة على المصمّمين للنماذج التي تتناقض مع قوانين الذكاء الاصطناعي بـ(١۰) ملايين يورو.

وفي السياق نفسه ينوي (سام ألتمان Sam Altman) – المدير التنفيذي لـ(OpenAI) – القيام برحلة عالمية هذا الشهر إلى (بروكسل) وبعض المدن الأوروبية لإجراء مباحثات مع المُستخدمين والمطوّرين بشأن هذه التّقنية.

ويحذّر الخبراء من أنّه ليس من حقّ (بروكسل) إيكال موضوع السيطرة على الذكاء الاصطناعي إلى الشركات الأجنبية من أمثال (غوغل).

كما حذّر قسم البحوث الألماني (Laion) في رسالته المطوّلة إلى الاتّحاد الأوروبي بأنّه إذا لم يُبادر (في قانونه التالي الخاصّ بالذكاء الاصطناعي) إلى القيام بإجراء من شأنه المحافظة على البحوث الشعبية فإنّ ذلك يعني مخاطرته في التنازل عن السيطرة على الذكاء الاصطناعي إلى شركات التقنية الأمريكية.

كما خاطبت الرسالة المذكورة البرلمان الأوروبي بالقول: «إنّ القوانين الموحّدة والمناسبة للجميع one-size-fits-all تشتمل على خطر حذف البحث والتطوّر المفتوح». وجاء في الرسالة أيضاً: «إنّ القوانين التي تتوقّع من الباحث أو المطوّر أن يقوم بالإشراف على المُستخدمين النهائيّين أو السيطرة عليهم يمكنها أن تجعل انتشار المصدر المفتوح لـ(AI) صعباً في أوروبا»، وهذا الأمر سيعزّز موضع الشركات الكبرى وستؤدّي الجهود الخاصة بتحسين الشفافية إلى خروج العوامل المُخلّة وتقليص المنافسة وتحديد الحرية العلمية وهداية الاستثمار في الذكاء الاصطناعي إلى خارج البلاد.

كما ورد في تلك الرسالة: «ليس بإمكان أوروبا التخلّي عن حقّ حوكمة الذكاء الاصطناعي، فحذف البحث وتطوير المصدر المفتوح سيُجبر المجتمع العلمي والاقتصادي في أوروبا على الاعتماد على بعض الشركات الأجنبية المتخصّصة من أجل إيجاد البنى التحتية الضرورية للذكاء الاصطناعي».

وفي الوقت نفسه وُضِعت بعض الإعفاءات للقيام بالبحوث وتقديم النماذج الخاصة بالمصدر المفتوح للذكاء الاصطناعي، فسيعمل القانون المذكور على إشاعة ونشر (الحُزَم المُشرفة). وفي هذه الحالة ستمنح السلطات الإذن للشركات للقيام باختبار المُنتَج المتّصف بالخطر في الظروف المُسيطَر عليها. وللإشراف على هذا القانون ومراقبته فسوف يقوم مكتب الذكاء الاصطناعي الجديد في الاتّحاد الأوروبي بالعمل تماماً بالأسلوب الذي قامت بواسطته السلطات المسؤولة عن حماية المعلومات حتى الآن في السيطرة على اللوائح العمومية الخاصة بحماية معلومات الاتّحاد الأوروبي. 

 

المصادر:

تسميات :

مختارات المحرّر

أخلاق الذكاء الاصطناعي

تعليقات

۰ تعليق

لجنة الفقه المعاصر في برامج المراسلة:

جميع الحقوق المادية والمعنوية محفوظة للجنة الفقه المعاصر@2025