عن: لوموند
في الجزء الثاني من هذا مقال “لوموند”. يأتي حوار الباحث الكندي “يوشوا بنجيو” الذي يعتقد فيه “أنه من الضروري إبراز المبدأ الوقائي” بخصوص تقنيات الذكاء الإصطناعي. حيث وقع الباحث الكندي على دعوة لوقف تطوير تطبيقات الذكاء الاصطناعي. مثل (Chat GPT) و يدعو إلى وقف نشر هذه الأنظمة.
*لماذا وقعت على الرسالة التي تطالب بوقف تطوير تطبيقات الذكاء الإصطناعي مثل ChatGPT؟
-لقد وقعت على هذا الخطاب، بغية تنبيه الشركات إلى ضرورة إبطاء تطوير مثل الأنظمة. تفاديا لتجاوزه من حيث الوتيرة المبدأ الوقائي والأخلاقي. يجتاز هذا النظام اللغوي واسع النطاق بسهولة إختبار “تورينج”. و هذا يعني أنه لا يمكن للمرء أن يعرف بسهولة – عند التحدث معه – ما إذا كان أمام آلة أم إنسان. هذه المرحلة الجديدة مثيرة، لكنها قد تؤدي أيضا إلى كوارث وخيمة.
*ما هي المخاطر التي تعتقد أنه ينبغي أن نسلط الضوء عليها؟
-تأتي مخاطر المعلومات المضللة في المرتبة الأولى. يمكن لهذه الأنظمة تضخيم المعلومات من خلال إنتاج نصوص أو صور شخصية (غير حقيقية) على نطاق واسع. يتم تصنيعها لغرض وحيد هو التوجيه نحو الأفكار الخاطئة. و أخشى أن يؤدي انتشارها إلى تقويض ديمقراطيتنا بشكل أكبر. كما أنني قلق من المخاطر في المجال العسكري. حيث يمكن أن تكون هذه الأدوات هائلة في حالة إعتراض الإتصالات. على غرار نتائجها على التوظيف لا سيما في المهن التي تستخدم اللغة.. لذلك، حتى لو لم تكن هذه المخاطر فورية، فإن وقوعها ممكن.
*هل تعتقد في إمكانية أن تغدو الآلات بذكاء البشر أو أن تتفوق عليه يوما ما؟
-أرى أننا ما زلنا بعيدين عن ذلك. الأنظمة التي نعمل بها (في المجمل) لا تمتلك الآن وعيا ذاتيا، كما أن قدراتهم تشبه ذكائنا الحدسي. لقد تم تدريبها مثل كبار الرياضيين الممتازين في مجالهم، والذين مارسوا انضباطهم كثيرا حتى في حياتهم اليومية. ولكن، على عكس هؤلاء الرياضيين.الذين يمكنهم تعديل ممارساتهم بأنفسهم من خلال التدريب. فإن هذه الأنظمة لا تملك القدرة على التفكير من تلقاء نفسها بحرية.
هناك بحث في الذكاء الإصطناعي، لتطوير أنظمة تحاكي الطريقة التي نفكر بها و تكون قادرة على تبرير القرار. قبل بضع سنوات، لم أكن أعتقد أن مثل هذا التوجه يمكن أن ينجح. أما اليوم، وبالنظر إلى هذا التسارع، ليس من المستحيل أن ننجح يوما. ما في تصنيع ما يمكن أن يشبه الوعي للآلات. لهذا السبب، يجب أن نأخذ الوقت الكافي للتفكير فيما نريد. وأن ننخرط فقط في هذا البحث والنشر مع الأخذ في عين الإعتبار الإستخدام الذي يمكن الإستفادة منه.
*يتم إنتقاد فكرة “الوقف الإختياري” على وجه الخصوص من قبل بعض زملائك الذين يتهمونك بالتشاؤم. كيف تجيب عليهم؟
-يتم إنتقادنا لأننا نتسبب في إنتشار الخوف عندما تكون هذه المخاطر غير مؤكدة. إلا أن عدم اليقين المرتبط بهذه التقنيات هو الذي يقودني إلى التنبيه لها. إذ لا يمكنني إعطاء السيناريو الدقيق لكيفية تغيير الوضع. لكن لا أحد يستطيع أن يمنحني ضمانا بأنه لن يحدث. لقد تم فرض فكرة علي منذ عدة سنوات، وهي أنه كلما أضحت هذه الأدوات أكثر قوة. كلما كان الذكاء الإصطناعي مفيدا بشكل لا يصدق و خطيرا بشكل غير متناسب.
إن هذا السباق يبدو لي غير مقبول على مقياس الإنسانية. لذلك علينا أن نجد طرقًا للإستفادة من الفوائد التي يأتي بها مع تقليل المخاطر. إن ما يحدث مع الذكاء الإصطناعي يمكن مقارنته بما يحدث مع الإحتباس الحراري:
“نحن نعلم أن التأثيرات المتتالية ممكنة، قد لا نكون بها وسيلة للتحكم منذ اللحظة التي يتم فيها تجاوز نقطة التحول. و في مواجهة مثل هذه الشكوك. يبدو لي أنه من الضروري تسليط الضوء على المبدأ الوقائي. بالنسبة للمناخ كما هو الحال بالنسبة للذكاء الإصطناعي. و هذا هو السبب في أن إطار العمل ضروري للغاية في هذا المجال.
*هل يمكن ربط طلب التأجيل بدوافع تجارية خفية لإبطاء الشركات التي أخذت زمام المبادرة؟
أتفهم هذا الخوف، و آمل أن يتمتع الموقعون على الرسالة جميعا بحسن النية. و لكن حتى لو لم يكن الأمر كذلك. فإن هذا النوع من الدوافع الخفية يبدو لي أشبه بالمواقف الكوميدية مقارنة بالقضايا الأخلاقية.
صحيح أن الغالبية العظمى من الشركات التي تعمل على الذكاء الإصطناعي. لا تريد أن تبطئ من وتيرة عملها، لأن الأرباح التي تحصل عليها معرضة للخطر. ومع ذلك، هناك المزيد من الأصوات الخفية داخل هذه الشركات التي تريد التنظيم بحيث يخضع جميع المنافسين لنفس الحدود. اليوم، تحول الذكاء الاصطناعي إلى ما يشبه الغرب المتوحش (Far West)! هذا النقص في التنظيم يفيد فقط الفرق التي تتخذ أقل الإحتياطات.
*ألا تبدو هذه الرغبة في التوقف عن الأبحاث لمدة 6 أشهر غير واقعية؟
-نحن لا نطالب بوقف الأبحاث في الذكاء الإصطناعي. لكننا نطالب بفترة إستراحة بسيطة لعدد صغير من الأنظمة في أيدي حفنة من الشركات.
من المهم التأكيد على أن مطوري (OpenAI) أو الشركة الأم ل(Chat GPT) لا يقومون بأعمال بحثية بل يقومون بالهندسة. مستخدمين كل ما تم إكتشافه في مجال التعلم العميق في السنوات الأخيرة. لا يمكننا الإستمرار في اتخاذ القرارات التي. في حين أن لها مثل هذا التأثير على المجتمع. تُترك فقط للشركات التي لديها الوسائل لتطوير هذه الأدوات. إن إبطاء الابتكار له تكلفة، لكنه يستحق ذلك. هذه الإستراحة ضرورية للتفكير بشكل جماعي في الجوانب التقنية والإجتماعية والقانونية لهذه الإبتكارات. لنقول كلمة واحدة و قرارا موحدا نقرر فيه معا التطبيقات المفيدة والأكثر استهدافا للذكاء الإصطناعي التي نريدها للبشرية.
*كيف تحدد فوائد التطبيق؟ *ألا تخشون أن تترك هذه الإستراحة المؤقتة المجال مفتوحا للدول التي تعتبر المعلومات المضللة سلاحا لها؟
هناك العديد من أنظمة الذكاء الإصطناعي الواعدة في مجالات الصحة. البيئة. التعليم والعدالة الاجتماعية…يمكن أن يساعد بعضها في المجال الصحي مثلا على تشخيص السرطانات بشكل أكثر دقة و في وقت أبكر. في علم المناخ، على سبيل المثال. نحن نختبر في “ميلا” (MILA) أو ‘معهد كيبيك للذكاء الاصطناعي’ نظاما يصمم و يعطي توقعا لمناخ الكواكب. إنطلاقا من صور الأقمار الصناعية، بغرض التنبؤ بشكل أفضل بالتغيرات المتعلقة بالمناخ.
-لا تستطيع الدول الإستبدادية الوصول إلى مثل هذه الأنظمة اليوم. و حتى الصين تتخلف عن التطور الذي تقوده الشركات الأمريكية. مثل “غوغل” (Google) و “مايكروسوفت” (Microsoft) و “أوبن إي-آي” (OpenIA) و “ميتا” (Meta). علاوة على ذلك، تمثل هذه الأدوات الجديدة أيضا خطرا على الأنظمة غير الديمقراطية. التي قد يكون لها مصلحة في إبطاء تطور الأنظمة التي لا تستطيع السيطرة عليها.
*ألا يكفي ما نشرته العديد من المنظمات الحكومية الدولية من توصيات بالفعل؟
-هذه التوصيات جيدة جدا، لكنها لا تكفي إذ علينا الإنتقال إلى المرحلة التشريعية. في الوقت الحالي، لم يقر أي بلد قانونا يحكم الذكاء الإصطناعي. وضعت أوروبا مسودة توجيه لم يتم التصويت عليها بعد. بعكس البرلمان الكندي الذي سيتفحص قريبا في القراءة الثانية له قانونا يحدد المبادئ الرئيسية لهذه التقنية. و لهذا علينا الإسراع في إخراج هذه القوانين المنظمة.
في العديد من القطاعات العامة أو الخاصة، ك”النقل الجوي” و “المواد الغذائية” و “المواد الكيميائية” و “الأدوية”. توجد أنظمة تنظيمية دولية، كما نجحنا في توقيع المعاهدات الدولية في القطاع العسكري بشأن الأسلحة النووية و الكيميائية و البيولوجية. و تمكنا من حظر إستنساخ البشر.. و عليه، سيكون من الغريب ألا نهتم بنفس الأساس بموضوع حساسة مثل الذكاء الإصطناعي.
*في الأخير.. هل ندمت على عملك في تطوير هذه الأنظمة؟
-اليوم، بت قادرا على توقع النتائج بشكل أكثر وضوحا و شمولية من ذي قبل. و في هذا الصدد أشعر بمسؤولية ضرورة الكلام التي تدفعني إلى الإلتزام الشخصي. حتى و إن أصبحت صورتي لدى زملائي في المجال أقتم من أي وقت مضى.
كانت تصريحاتي السابقة، نابعة من علمي و تفكيري حول الجانب المظلم لهذه التقنية و المتعلق بمخاطر الذكاء الإصطناعي. من قبيل القدرات الفتاكة و المرعبة للطائرات بدون طيار. و التي كتقنية على العموم و عسكرية على الخصوص تقلقني. لاسيما أن بوادر الحرب في أوروبا. هنا أيضا، يجب التفاوض على إطار عمل واضح فيما يخص صلاحيات الوصول (Chat GPT) و أشباهه.. يسعدني أن الأسئلة حول هذه التقنيات بدأت تنتشر بين العامة كما المختصين. حتى مع علمي بأن العديد من الباحثين لا يأخذون في الإعتبار المبدأ الوقائي على محمل الجد.
Views: 0