الملحمة الأزلية بين المؤيد و المعارض للذكاء الإصطناعي (ج1)

*ت:المهدي المقدمي / عن: لوموند

  في الجزء الأول من هذا المقال، يأتي حوار الباحث الفرنسي “يان لو كون” مع جريدة “لوموند” (ص25)، أحد آباء الذكاء الاصطناعي  و رئيس مختبر أبحاث الذكاء الإصطناعي في فيسبوك (Facebook AI Research)، و الذي يدعوا في إلى “تسريع البحث لتحسين موثوقية الأنظمة”، ما قد يؤدي إلى “قرن جديد من التنوير” بفضل الذكاء الإصطناعي.

* لماذا تقول إن “شات جي-بي-تي” (Chat GPT) ليس ثورة؟

– إنه منتج جيد، و قد تبدو قدراته مدهشة للبعض، لكنه ليس ثوريا كما يرى الجميع، لأن التقنيات التي يستخدمها معروفة منذ سنوات عديدة، على غرار أنظمة اللغات الكبيرة الأخرى، التي يتم تدريب شبكاتها العصبية الاصطناعية (Neural Networks) بإستخدام كميات هائلة من النصوص و ما قد يتجاوز تريليون كلمة، أو كل النصوص الموجودة على الإنترنت تقريبا.

 لقد تعلمت الآلة التعامل مع اللغة.. لا يمكننا حتى أن نقول إنها اكتسبت مستوى معينا من التفكير، وعلى أي حال يمكنها تكييف ما قرأته مع السؤال المطروح عليها. تعطي هذه القدرات، الإنطباع بأن النظام “ذكي”، لكنها في الواقع تظل سطحية. لذلك، فإن “شات جي-بي-تي” (Chat GPT) ليس ذكيا مثل الإنسان، لكونه أداة تنبؤ تربط فيما بينها الكلمات التي تظهر بأكثر الطرق إحتمالية في المجموعة و التي تم إستخدامها لتدريبها من أجل متابعة النص. لكن، لا أحد يستطيع أن يضمن أن ما يخرج من الآلة هو واقعي و مفهوم.

*في نوفمبر 2022  اضطرت شركة “ميتا” التي تعمل بها، إلى فصل نظامها اللغوي “غالكتيكا” (Galactica) عن العمل. لذلك، ما هي الدروس التي تعلمتها من هذا؟

-يعتبر “غالكتيكا” (Galactica) نظاما مشابها تماما ل”شات جي-بي-تي” (Chat GPT)، لكنه مدرب بشكل خاص على نصوص من المؤلفات العلمية لمساعدة العلماء في كتابة مقالاتهم. بعدها، تم إتاحته للجمهور، و ليس كمنتج بل كأداة  للباحثين لكنه تعرض للهجوم على مواقع التواصل الإجتماعي لأنه أتهم بتعريض المنشورات العلمية للخطر من خلال السماح بإنتاج مقالات كاذبة و متشابهة للغاية.

  كان هذا الخوف لا أساس له من الصحة، لأن هذه الحملة كانت دعاية سيئة لشركة “ميتا” و يعتمد موقف الجمهور تجاه هذه الأدوات الجديدة كثيرا على الشركة التي تنتجها. دائما، ما يكون النظام الذي يتحدث عن هذا الهراء خطرا على شركة كبيرة تتمتع بسمعة طيبة. واجهت “ميتا” هذا على غرار “غوغل” التي واجهت صعوبات في إطلاق نظامها الخاص لأن سمعتها ستكون على المحك، إلا أن الحال يختلف مع (OpenAI) التي ينظر إليها على أنها شركة “طرف ثالث” صغيرة، التي عندما أصدرت “شات جي-بي-تي” (Chat GPT)، بعد أسابيع قليلة من “غالكتيكا” (Galactica)، و تم الترحيب بالتطبيق بإعتباره “المخلص” في هذا المجال.

*ما رسالتك لمن ينزعج من الإنتهاكات المحتملة لهذه الأدوات؟

-أنا أتفهم أن هذه الجلبة قد تكون مقلقة للبعض. من الواضح أن هذه الأنظمة ليست موثوقة للغاية ولا يمكن التحكم فيها بشكل كبير، وذلك لقدرتها على إختراع معلومات كاذبة، و الإشارة إلى وثائق غير موجودة. إلا أنه إذا طلب منهم الإجابة بنصوص طويلة جدا، ينتهي بهم الأمر إلى أن يصبحوا غير متماسكين، و نحن لسنا قادرين على تدريبهم على كم هائل من المعلومات بنفس سرعة تعلمهم.

ما نعرفه فقط، هو كيفية إعادة تدريبهم مع البشر الذين يقومون بتعيين الدرجات لإستجاباتهم، وهي عملية معقدة و مكلفة تتطلب الكثير من جمع البيانات و لا تعمل بشكل جيد. لكن هذا لا يبرر – بالنسبة لي – حظرهم من العمل. هذه أدوات مفيدة للغاية لتسريع كتابة النصوص (خاصة أكواد الكمبيوتر)  و يمكنها أيضا تحسين إنتاجية العديد من المهنيين مثل: المبرمجين و الأطباء الذين يرغبون في كتابة تقارير الإستشارات الخاصة بهم بسرعة أكبر. غير أنه من الضروري فقط إعلام المستخدمين بحدود التطبيق: إذ لا يمكننا إستخدامه كبديل لمحركات البحث أو نعتمد على المعلومات التي ينتجها دون التحقق منها.

*ألا تخشون توسيع نطاق المعلومات المضللة التي من شأنها أن تزيد من زعزعة إستقرار الديمقراطيات؟

-إن أساس ظاهرة التضليل هو حجم إنتاج المحتوى، و ليس لذلك علاقة بقدرة الأداة على النشر.

  كمثال، إنتشرت “الحركة التآمرية اليمينية المتطرفة” (QAnon) على نطاق واسع في “الولايات المتحدة” لدى عدد قليل من الناس.. لدي قناعة بأن الجمهور سيصبح أكثر تشككا في المعلومات التي يتلقونها. أولئك الذين نشأوا مع بداية الإنترنت يعرفون بالفعل أن ما يتم تداوله هناك لا يمكن الإعتماد عليه بالضرورة.

  أنا واثق أيضا، من حقيقة أن التقنيات الجديدة ستظهر لتتبع عملية إنشاء المعلومات، و سيحدث بعد ذلك ما حدث مع الرسائل الإلكترونية العشوائية لأنظمة المراسلة لدينا. من المحتمل ألا تكون هذه التقنية مختلفة تماما عن الأدوات التي تزود بها العديد من الشبكات الإجتماعية اليوم. بفضل الذكاء الإصطناعي، تزيل أنظمة تعديل المحتوى في “فايسبوك” تلقائيا 80٪ من خطاب الكراهية مقارنة بـ 38٪ ما بين 2018 -2021، أي أنه و عندما يتعلق الأمر بالمعلومات المضللة، فإن الذكاء الاصطناعي ليس هو المشكلة بل هو الحل.

*ما رأيك في التخوف من أن أنظمة الذكاء الاصطناعي قد تضاهي أو تتجاوز الذكاء البشري يوما ما؟

-أعتقد أن الآلات ستكون في يوم من الأيام على الأقل ذكية مثل البشر، و في جميع المجالات التي يكون فيها البشر أذكياء، لكنني لا أخشى أن يخرج الذكاء الإصطناعي عن سيطرتنا أو أن يؤدي إلى تدمير البشرية.

  إن هذا النوع من السيناريو المروع – في رأيي – يقوم على إفتراضات خاطئة. ليس فقط لأن الآلة ستكون فائقة الذكاء،  سيعني أنها سترغب تلقائيا في الهيمنة على البشرية. في الجنس البشري، الأكثر ذكاءا ليس بالضرورة أولئك الذين يريدون أن يصبحوا قادة ويقضوا على الآخرين، قغالبا ما يكون العكس!.. لهذا لماذا قد تختلف الأشياء مع الذكاء الاصطناعي؟.

  أنا من أولئك الذين يعتقدون أن التقدم، سواء أكان علميا أم إجتماعيا، يعتمد بشكل وثيق على الذكاء. كلما زاد عدد الأشخاص المتعلمين والقادرين على التفكير و توقع ما سيحدث، زادت قدرتهم على إتخاذ قرارات مفيدة على المدى الطويل. بمساعدة الذكاء الإصطناعي، سيتم تضخيم ذكاء الإنسان و ليس فقط ذكاء البشرية جمعاء، بل و أيضا ذكاء و إبداع الجميع، وقد يؤدي ذلك إلى نهضة الإنسانية أو قرن جديد من التنوير.

*ما رأيك في مطالب الآلاف من الشخصيات العالمية من إستراحة لمدة 6 أشهر من تطوير أنظمة الذكاء الإصطناعي؟

-عندما تظهر تقنية جديدة، و تجعل الناس أكثر ذكاءً، تظهر معها الرغبة في الحد من إستخدامها (بإعتبارها خطرا ممكنا). كمثال، أرادت الكنيسة الكاثوليكية في نقطة من التاريخ حظر المطبعة حتى لا يمكن قراءة الكتاب المقدس دون وساطة الكهنة.

  إن فكرة الرغبة في إبطاء البحث في الذكاء الإصطناعي، هي بالنسبة لي مثل “الظلامية الجديدة”. قد يؤدي التوقف المؤقت، إلى إبطاء التقدم المطلوب لجعل هذه التقنيات تعمل بشكل أكثر موثوقية و يخدم الصالح العام. على العكس من ذلك، أرى ضرورة تسريع تطويرها. في نفس السياق، فإن عدم تأيدي لهذه الاستراحة يأتي من عدم إيماني بجدواها، و من رؤيتي بأنها غير واقعية.

*هل يجب تنظيم هذه التطبيقات الجديدة؟ وكيف ؟

-ليس هناك شك لدي بأن نشر الذكاء الإصطناعي يجب أن يتم تنظيمه، وهذا ينطبق على أنظمة اللغة مثل (ChatGPT)، ولكن أيضا على جميع الأنظمة الذكية التي يتعين عليها تنفيذ هذه الإجراءات. منذ اللحظة التي يتم فيها إستخدام الذكاء الإصطناعي للمساعدة في التشخيص الطبي أو القيادة التلقائية للسيارات، هناك حاجة إلى لوائح تضمن عدم خطورة المنتجات على الجمهور، و أولويتي كباحث، هي إيجاد طريقة لجعل هذه الأنظمة قابلة للتحكم.

  تتمثل الخطوة الأولى، في تصميمها بحيث لا يمكنها الهروب من القيود المفروضة عليها. نحن لا نعرف كيف نفعل ذلك اليوم، لكن ليس لدي شك في أننا سنكون قادرين على إنتاج ذكاء إصطناعي مخصص لهذا السبب وفقا لأهداف معينة. ستكون الخطوة الثانية، تحديد القيود التي نريد فرضها على هذه الأنظمة لتوجيهها نحو الإجراءات المفيدة، وهذا ما يسمى “التوافق” مع القيم الإنسانية وهي قضية لا تختلف كثيرا عما نفعله عندما نصدر تشريعات لتنظيم الشركات أو مجموعات الأشخاص.

  أخيرا، ستكون الخطوة الثالثة تأمين هذه الأنظمة عن طريق إختبارها بدقة قبل إتاحتها لأكبر عدد من الأشخاص، تماما كما يتم إختبار الطائرات و الأدوية قبل طرحها في السوق، إذ يمكن أن يساعد النموذج الحالي لهيئات التقييس الدولي على تحقيق هذا الهدف.

*هل هناك إمكانية في أن يتحكم عدد صغير من الشركات في الوصول إلى هذه الأدوات؟

– فقط عدد قليل من الشركات الأمريكية لديها القدرات الحاسوبية اللازمة اليوم لتدريبها (الأدوات).

  لكن، لا ينبغي حصر فوائد نشر الذكاء الإصطناعي لهذه المجموعة الصغيرة من الشركات ، بل يجب مشاركتها على نطاق واسع. حتى الآن، كان مجال البحث و التطوير في الذكاء الإصطناعي إلى حد ما تعاونيا، حيث نشرت الشركات الكبرى مثل “ميتا” أو “غوغل” أو “مايكروسوفت” أعمالها.

  منذ أن قررت (OpenAI) عدم نشر نتائجها أثناء إستخدام نتائج الآخرين، أخذ الجميع يتساءلون : هل يجب أن نواصل البحث المفتوح؟. بالنسبة لي، فالجواب هو “نعم”. ومع ذلك، فمن المحتمل أن ينشر الآخرون أقل وأقل بسبب هذه القدرة التنافسية الجديدة.

*في الأخير، ما حكم هذه الأدوات الجديدة؟

-سيكون الذكاء الإصطناعي مورداً مهماً للصناعة في المستقبل. من المستحسن أن تكون هناك بنية تحتية مفتوحة للذكاء الإصطناعي، و يمكن للحكومات المساعدة.

  تماما كما تعمل جميع أنظمة تشغيل الخوادم على الإنترنت على نواة أو نظام “لينوكس” (Linux) مفتوح المصدر، يجب في النهاية أن تكون هناك منصات مفتوحة المصدر للذكاء الاصطناعي تخدم الجميع، و يمكن للجميع المساهمة فيها. يمكن للحكومات أن تعزز تطوير هذه الأنظمة المفتوحة، و في نفس الوقت توفر هيئات الرقابة لضمان موثوقية المنتجات المشتقة من هذه الأنظمة.

شاب مغربي، محب للتقنية بصفة عامة، وخاصة العاب الحاسوب و الهاتف النقال، كما اعمل كمترجم و صحفي في الشأنين الإقتصادي و العالمي.