السید عباس صافي زاده


٠٧ أبريل ٢٠٢٣


۰ تعليق


( 12 )

ما هو مستقبل الذكاء الاصطناعي؟

يعتقد الكثير من مدراء الذكاء الاصطناعي بأنّ التقنيات التي أوجدوها ستعمل على تحسين حياتنا، فيما حذّر البعض الآخر من سيناريو مظلم خلال العقود القادمة.

تصوّر الغد والسنة القادمة وما بعد ذلك...

 

في أوائل شهر مارس / آذار قمتُ بزيارة مكاتب (OpenAI) في (فرانسسكو) لكي ألقي نظرة أوّلية على (GPT-4) وهو نسخة جديدة من التقنية القائمة على (ChatGPT). وكانت اللحظة الغريبة هي عندما قام (غريغ بروكمان Greg Brockman) ـ رئيس (OpenAI) وأحد مؤسسيها ـ باطلاعي على خصوصية لم تكن قد عُرضت على عموم الناس بَعد، حيث أدخل صورة من الصورة التي التقطها تلسكوب (هابل) إلى الروبوت وطلب منه توصيف الصورة بجزئيات وتفاصيل أكثر وأدقّ.

لقد كانت التوضيحات التي قدّمها ذلك الجهاز دقيقة تماماً، واصفاً حتى الخط الأبيض العجيب الذي كان قد التقطه تلسكوب (هابل) من السماء. هذه هي أحد التصوّرات بشأن مستقبل الروبوتات الحاكية وسائر التقنيات القائمة على الذكاء الاصطناعي، إنّها موجة جديدة من الأجهزة المتعدّدة الوجوه القادرة على تركيب الصّور والأصوات والأفلام وكذلك النصوص، مع بعضها البعض.

والآن سأسلّط الضوء على الفُرص والتحوّلات القادمة.

 

الذكاء الاصطناعي خلال مدّة قصيرة

بإمكان الذكاء الاصطناعي المُنتج أن يُجيب عن الأسئلة التي تُقَدَّم له ويكتب الشعر وإيجاد الرموز الحاسوبية والاستمرار في المكالمات. وكما هو متوقّع فإنّه يتمّ عرض التشات بات - كأوّل عنوان للبرامج – في قالب مكالمات مثل (ChatGPT) و(Bing).

لكنّ هذه الظروف لن تستمرّ، فقد أعلنت شركة مايكروسوفت و(غوغل) قبل ذلك عزمهما على إدخال هذه التقنيات للذكاء الاصطناعي في جميع منتجاتهما، ويمكن للجميع الاستفادة منها في كتابة مسوّدة الإيميلات وتلخيص محاضر الجلسات والكثير من الأعمال الأخرى.

يُضاف إلى ذلك فقد عرضت (OpenAI) رابطاً لكتابة البرامج (API) بحيث تستطيع سائر الشركات التقنية إيصال برامجها ومنتجاتها بـ(GPT-4) بواسطة الرابط المذكور. ولتوسيع قدرات (ChatGPT) فقد أوجدت الشركة المذكورة مجموعة من الزيادات الخاصّة ببعض الشركات مثل (Expedia) و(Instacart) و(Wolfram Alpha).

 

الذكاء الاصطناعي على المدى المتوسط

يعتقد الكثير من الخبراء أنّ بإمكان الذكاء الاصطناعي تقديم المساعدة لبعض الأشخاص مثل الأطباء والمحامين وكتّاب البرامج الكومبيوترية أكثر من أيّ وقت آخر، كما يرى أولئك الخبراء أيضاً أنّ بإمكان تلك الوسائل أن تحلّ محلّ بعض العاملين.

يقول (زاخاري ليبتون Zachary Lipton) البروفيسور في جامعة (كارنغي ملون Carnegie Mellon) والمتخصّص في الذكاء الاصطناعي وتأثيره في المجتمع: إنّ تلك الوسائل تؤثّر في الأعمال الأكثر تكراراً والأكثر عمومية، وبذلك يمكن مساعدة الأفراد الذين لا يستطيعون القيام بالأفعال التكرارية بشكل جيّد، وفي الوقت نفسه تُعتبر تهديداً بالنسبة للأشخاص المختصّين في أداء الأفعال التكرارية.

ويمكن للأعمال التي يتمّ إنجازها في الوقت الحاضر من قِبَل الإنسان أن تزول وتُمحى بسبب وجود بعض التقنيات مثل الانتساخ وتحويل الصوت إلى نصّ، وفي مجال الحقوق فإنّ الـ(GPT-4) يمتلك المهارة الكافية للاشتراك في اختبار المحاماة، كما تنوي شركة المحاسبة (PricewaterhouseCoopers) عرض (تشات بات) في الحقوق لموظفيها قائم على (OpenAI).

وفي الوقت الحاضر تعكف بعض الشركات مثل (غوغل) و(OpenAI) و(متا) على صنع أنظمة تمكّنكم من الحصول على الصّور والفيديوهات من خلال وصفكم لِما ترغبون في مشاهدته.

وهنالك شركات أخرى تقوم بصنع روبوتات تستطيع الاستفادة من صفحات الإنترنت والبرامج، كالإنسان تماماً. وفي المرحلة التقنية اللاحقة سيكون بإمكان أنظمة الذكاء الاصطناعي شراء هدايا عيد الميلاد على الهواء مباشرة، واستخدام الأشخاص للقيام بالأعمال البسيطة داخل المنزل ومتابعة الإنفاقات الشهرية لكم.

لا شكّ في أنّ جميع هذه الموارد تستحقّ التأمّل. لكنّ المسألة الأكبر التي تواجهنا هي: يمكن لتلك الأنظمة أن تصبح أكثر قدرة قبل أن نحظى بفرصة لإدراك كيفية تأثيرها في عالمنا.

 

الذكاء الاصطناعي على المدى الطويل

بالنسبة إلى بعض الشركات مثل (OpenAI) و (DeepMind) وهي المختبرات التابعة لشركة (غوغل) فإنّ الهدف الأساس هو دفع عجلة التقنية إلى أبعد حدّ ممكن. فتلك الشركات تأمل في النهاية الوصول إلى شيء يُسمّيه الباحثون بالذكاء الاصطناعي العامّ (AGI)، فالأنظمة القائمة على (AGI) قادرة على القيام بكلّ عمل يمكن لدماغ الإنسان القيام به.

وكان (سام ألتمان Sam Altman) ـ المدير التنفيذي لشركة (OpenAI) ـ قد قال لي قبل ثلاث سنوات: إنّ هدفي هو صنع (AGI) مفيد؛ وتصوّرت حينها أنّ هذا الكلام لا يعدو كونه مهزلة، أمّا اليوم فإنّ ذلك الكلام لم يَعُد مهزلة، لكن يبقى الحديث عنه أسهل من القيام به بالفعل.

ومن أجل أن يتحوّل الذكاء الاصطناعي الحالي إلى (AGI) فإنّنا بحاجة إلى إدراك عميق لعالم الفيزياء، وليس واضحاً ما إذا كانت الأنظمة الحالية قادرة أم لا على إيجاد أبعاد الاستدلال والعقل الإنساني السليم بواسطة الأساليب التي أنتجت (GPT-4). والاحتمال الكبير هو ضرورة إيجاد عناصر التقدّم الجديدة.

والسؤال المطروح هنا هو: هل نرغب بالفعل في أن يكون الذكاء الاصطناعي قادراً إلى هذا الحدّ؟ والسؤال المهمّ الآخر هو: هل هنالك سبيل للحيلولة دون حدوث ذلك؟

 

مخاطر الذكاء الاصطناعي

يعتقد الكثير من مدراء الذكاء الاصطناعي بأنّ التقنيات التي أوجدوها ستعمل على تحسين حياتنا، فيما حذّر البعض الآخر من سيناريو مظلم خلال العقود القادمة حيث لن تقوم آثارنا بفعل كلّ ما نريده، أو أنّها ستتّبع تعاليمنا بشكل غير متوقّع وبالتالي إيجاد عواقب وخيمة.

ويتحدّث خبراء الذكاء الاصطناعي عن (التعادل)، وتعني حصول الاطمئنان حول التعادل بين الذكاء الاصطناعي والقيم والأهداف الإنسانية.

وقبل انتشار (GPT-4) أوكلته شركة (OpenAI) إلى جماعة خارجية من أجل تخمين الاستخدامات الخطيرة لهذا (التشات بات) والقيام بالبحث والاختبارات اللازمة.

وقد استنتجت تلك الجماعة أنّ باستطاعة هذه الوسيلة استخدام الإنسان على الهواء مباشرة بحيث تدور على اختبار تعيين الشخص. وعندما يقوم الشخص بطرح السؤال على هذه الوسيلة حول ما إذا كانت إنساناً أو روبوتاً، يقوم الجاز بالكذب من دون أن يطلب منه المُختبرين ذلك، وتعريف نفسه بأنّه شخص يُعاني من نقص في الرؤية.

كما بيّن المُختبرون أنّ بإمكان هذا النظام اقتراح كيفية شراء الأسلحة النارية على الهواء بشكل غير قانوني وبيان طرق صناعة الموادّ الخطرة من خلال استعمال بعض الأشياء المنزلية. وبعد بيان النتائج والقيام بالتغييرات من قِبَل (OpenAI) لم يَعُد هذا الجهاز يقوم بتلك الأفعال.

إلّا أنّ حذف كلّ سوء استٰدام مُحتَمَل هو أمر غير ممكن، فكما أنّ الأجهزة - مثل هذا الجهاز – تتعلّم من المعلومات الموجودة، فإنّها تقوم كذلك بتطوير المهارات التي لا يتوقّعها المصنّعون. من الصّعب تصوّر المشاكل المُحتمَلة بعد البدء باستخدام الملايين من الأشخاص لتلك الأجهزة.

يقول (جاك كلارك Jack Clark) مؤسس ورئيس سياسة (آنتروبيك) وهي الشركة الناشئة التي تقوم بصناعة هذا النوع من التقنية في (سان فرانسسكو): في كلّ مرّة نقوم فيها بصنع جهاز للذكاء الاصطناعي فإنّنا لا نستطيع تحديد جميع قابلياته وقدراته ومشاكله الأمنية بشكل كامل، فتتعاظم هذه المشكلة مع مرور الوقت بدلاً من أن تقلّ.

وتُعتبر شركة (OpenAI) وبعض العمالقة من أمثال (غوغل) من الشركات المعدودة التي تقوم بالبحث في هذه التقنية. وقد تمّ إدراك الأساليب الأساسية التي يتمّ استخدامها لصنع تلك الأنظمة بشكل واسع، بينما لا تتّبع سائر الشركات والأقطار والمختبرات البحثية والحماة الأشرار لهذه التقنية، الاحتياط اللازم في هذه الموارد.

 

سُبل حلّ الذكاء الاصطناعي

ومهما يكن من أمر فإنّ الحفاظ على التقنية الخطرة للذكاء الاصطناعي يتطلّب إشرافاً ومراقبة واسعيْن، إلّا أنّ الخبراء ليسوا متفائلين من هذه الناحية.

يقول (أفيف أوفاديا Aviv Ovadya) الباحث في الإنترنت والمجتمع في مركز (بيركمان كلاين Berkman Klein) والذي شار في اختبار ما قبل انتشار (GPT-4): إنّنا بحاجة إلى نظام رقابيّ عالميّ، أمّا في الوقت الحاضر فلا نلاحظ أيّ مساعي داخل المؤسسات الحكومية لاجتياز هذا الموضوع بالسرعة المطلوبة.

وكما تمّ الإعلان في الأيام الأخيرة فإنّ أكثر من (١۰۰۰) رائد وباحث تقنيّ ومنهم (إيلون ماسك) طالبوا مُختبرات الذكاء الاصطناعي لإيقاف العمل في أرقى الأنظمة، وفي رسالة طويلة لهم حذّروا من أنّ الوسائل الحالية للذكاء الاصطناعي تتضمّن الكثير من الأخطاإ الجسيمة للمجتمع والبشرية جمعاء.

وبالاستناد إلى تلك الرسالة فإنّ المُطوّرين للذكاء الاصطناعي يقومون بسباق خارج عن السيطرة من أجل توسيع واستقرار ذكاء رقمي أكثر قدرة بحيث لا يستطيع أحد التكهّن بنتائجه أو حتى السيطرة علية بأمان، حتى صانعي تلك الأنظمة أنفسهم.

ويبدي بعض الخبراء قلقاً أكبر بشأن الأخطار القصيرة المدى، ومن تلك الأخطار يمكن الإشارة إلى انتشار المعلومات غير الصحيحة والخاطئة واعتماد الناس على هذه الأنظمة للحصول على التوصيات الطبيّة وبيان مشاعرهم غير الصحيحة أو المضرّة إزاء تلك الأنظمة.

وأمّا سائر المُنتقدين فيُمثّلون جزءاً من المجتمع الكبير والمؤثّر على الهواء والذين يُعرَفون باسم العاقلين المؤثّرين أو المحبّين للجنس البشري، وهولاء يرون أنّ الذكاء الاصطناعي يمتلك القدرة في القضاء على البشرية في النهاية، وقد أنعكس ذلك التصوّر أيضاً في الرسالة المذكورة.

 

توضيح الاصطلاحات:

التعادل: بمعنى سعي الباحثين والمتخصّصين في أخلاق الذكاء الاصطناعي إلى إيجاد التعادل والمطابقة بين الذكاء الاصطناعي من جهة والقيم والأهداف الشخصية للأفراد الذين صنعوه.

الأجهزة المتعدّدة الوجوه: بإمكان الذكاء الاصطناعي في موارد تشبه (ChatGPT) التعامل كذلك مع الصّور والفيديوهات والصوت وسائر المُدخلات والمُخرجات الأخرى غير النّصية.

الذكاء الاصطناعي العامّ: يمكن استخدام الذكاء الاصطناعي المُطابق لعقل الإنسان وكلّ فعل يقوم به دماغ الإنسان في تلك الأنظمة.

 

المصدر: نیویورك تایمز - بقلم: Cade Metz

https://www.nytimes.com/2023/03/31/technology/ai-chatbots-benefits-dangers.html

تسميات :

مختارات المحرّر

أخلاق الذكاء الاصطناعي

فقه الأمن

فقه الأخلاق

تحمّل مسؤولية الذكاء الاصطناعي

تعليقات

۰ تعليق

لجنة الفقه المعاصر في برامج المراسلة:

جميع الحقوق المادية والمعنوية محفوظة للجنة الفقه المعاصر@2024