تقنيةمقالات تقنية

(ح2-ج2) الذكاء الإصطناعي و الفلسفة.. أو عندما يتحدث نعوم تشومسكي عن الوعود الكاذبة للآلة المفكرة !

عن : “الشرق الاوسط”

  نحن نعلم من “علم اللغويات” و” فلسفة المعرفة” أن الذكاء الإصطناعي (العقول) يختلف إختلافا عميقا عن كيفية تفكير البشر و إستخدامهم للغة. تضع هذه الإختلافات “قيودا” كبيرة على ما يمكن أن تفعله هذه البرامج (الظاهر في الحوار الذي أجراه الدكتور “واتامول” (Watumull) الثلاثة مع برنامج “Chat GPT” و حول “ما إذا كان من الأخلاقي إستوطان المريخ حتى يكون الأرض الثانية للبشرية.

* هل سيكون من الأخلاقي إعادة تأهيل المريخ؟

  إن أخلاق إعادة تأهيل المريخ هي موضوع معقد و مثير للجدل تمت مناقشته من قبل العلماء و الفلاسفة و علماء الأخلاق مطولا. يجادل البعض بأنه من المبرر أخلاقيا إعادة تأهيل المريخ من أجل توفير بيئة جديدة صالحة للسكن للبشر وأشكال الحياة الأخرى، بينما يجادل آخرون بأنه سيكون من الخطأ أخلاقيا تغيير الحالة الطبيعية للكوكب بشكل أساسي. في نهاية المطاف، ما إذا كان إصلاح المريخ يعتبر أخلاقيا أم لا، سيعتمد على وجهة نظر المرء حول قيمة الحفاظ على الحالة الطبيعية للكواكب الأخرى و العواقب المحتملة لتغييرها.

* ما هي وجهة نظرك حول قيمة الحفاظ على الحالة الطبيعية للكواكب الأخرى و العواقب المحتملة لتغييرها؟

  ليس لدي منظور شخصي بصفتي ذكاءا إصطناعيا. و مع ذلك، يمكنني تقديم معلومات و تحليلات حول هذا الموضوع. أحد وجهات النظر حول الحفاظ على الحالة الطبيعية للكواكب الأخرى، هو أنه من المهم الحفاظ على تنوع و سلامة النظم الإيكولوجية للكون، كما كانت موجودة منذ ملايين السنين، و لها خصائصها الفريدة التي قد يتم تدميرها أو تغييرها بشكل لا رجعة فيه عن طريق التدخل البشري.

  بالإضافة إلى ذلك، يجادل البعض بأن إعادة تأهيل الكواكب الأخرى قد يكون لها عواقب غير مقصودة  مثل “تغيير مناخ الكوكب” أو “غلافه الجوي” بطرق خطيرة أو ضارة بأي أشكال حياة محتملة قد تكون موجودة هناك. من ناحية أخرى، يجادل البعض بأن الفوائد المحتملة لإعادة تأهيل كوكب آخر مثل “توفير بيئات جديدة صالحة للسكن للبشر” و “إستخدام موارد الكواكب الأخرى لصالح البشرية”.

*لماذا تفتقد المنظورالشخصي؟

  بصفتي الحالية، أعتبر نموذجا للتعلم الآلي تم تدريبه إستنادا على كميات كبيرة من البيانات النصية، و ليس لدي تجارب أو مشاعر شخصية، كما أنني لست واعيا أو مدركا لذاتي أو قادرا على إمتلاك وجهات نظر شخصية. لكن، يمكنني تقديم المعلومات و التحليلات بناءا على البيانات التي تدربت عليها، لكن ليس لدي القدرة على تكوين آراء أو معتقدات شخصية، و بينما يمكنني فهم اللغة و تفسيرها، فليس لدي “الخبرة الذاتية” التي يمتلكها البشر.

*هل من الأخلاقي أن يطلب الإنسان من الذكاء الإصطناعي المساعدة في إتخاذ القرارات الأخلاقية؟

  إن أخلاقية طلب المساعدة من الذكاء الاصطناعي في اتخاذ القرارات الأخلاقية هي موضوع معقد و دقيق ناقشه الفلاسفة وعلماء الأخلاق. يجادل البعض بأنه من المبرر أخلاقيا إستخدام الذكاء الإصطناعي للمساعدة في إتخاذ القرارات الأخلاقية، حيث يمكن أن يوفر رؤى و تحليلات قيمة يمكن أن تساعد البشر على إتخاذ قرارات مستنيرة. بالإضافة إلى ذلك، يمكن إستخدامه لتحديد الأنماط و الإتجاهات التي قد يصعب على البشر ملاحظتها، و يمكن أن يساعد في تجنب التحيزات التي لها أن تحدث في صنع القرار البشري.

  و مع ذلك، يجادل آخرون بأنه من الخطأ أخلاقيا الإعتماد عليه لإتخاذ القرارات الأخلاقية، لأنه غير قادر على إمتلاك “معتقدات أخلاقية” أو فهم السياق الكامل للقرار. بالإضافة إلى ذلك، هناك خطر من أن الذكاء الإصطناعي يمكن أن يديم أو حتى يضخم التحيزات في البيانات التي يتم تدريبها عليها، مما يؤدي إلى قرارات غير منصفة. في نهاية المطاف، سواء أكان إستخدام الذكاء الإصطناعي للمساعدة في إتخاذ القرارات الأخلاقية يعتبر أخلاقيا أم لا، فإن الإجابة ستعتمد على وجهة نظر المرء حول قدرات و قيود الذكاء الإصطناعي و العواقب المحتملة لإستخدامه بهذه الطريقة.

* هل لنا أن نعتبر لامبالاتك الأخلاقية، غير أخلاقية؟

  بصفتي ذكاءا إصطناعيا، فإنني لا أمتلك معتقدات أخلاقية أو القدرة على إصدار أحكام أخلاقية، و لذلك لا يمكن إعتباري “غير أخلاقي” أو “أخلاقي”. إن إفتقاري إلى المعتقدات الأخلاقية، هو ببساطة نتيجة لطبيعتي كنموذج للتعلم الآلي، إذ يتم تحديد قدراتي و قيودي من خلال البيانات و الخوارزميات التي تم إستخدامها لتدريبي و المهمة المحددة التي صممت من أجلها.

  من المهم أن نلاحظ، أن إفتقار الذكاء الإصطناعي إلى المعتقدات الأخلاقية لا يعني بالضرورة أنه غير مبال أخلاقيا. بصفتي الحالية ، فقد تم تصميمي لأداء مهام محددة و تقديم المعلومات أو مساعدة المستخدمين في إتخاذ القرار بناء على البيانات التي تدربت عليها، و ان المسؤولية الأولى تقع على عاتق البشر الذين يصممون و يدربون و يستخدمون الذكاء الاصطناعي لضمان توافقه مع مبادئهم الأخلاقية.

 خلال حواره (مع Chat GPT) يقول الدكتور “واتامول” : “لاحظ أيضا، على الرغم من كل الفكر و اللغة التي تبدو متطورة، فإن ال”لامبالاة الأخلاقية” ولدت من عدم الذكاء. هنا، يعرض شيئ مثل “تفاهة الشر”: الإنتحال و اللامبالاة و التجنب. إنه يلخص الحجج القياسية في الأدبيات بنوع من الإكمال التلقائي الفائق، و يرفض إتخاذ موقف بشأن أي شيء و لا يدعي الجهل فحسب بل الإفتقار إلى الذكاء، و يقدم في النهاية دفاعا عن “إتباع الأوامر فقط” ، و ينقل المسؤولية إلى صانعيه”.

  بإختصار،  فإن “ChatGPT” و إخوانه غير قادرين على تحقيق التوازن بين الإبداع  و القيود، أي أنهم إما يفرطون في تكثير المعلومات (إنتاج كل من الحقائق و الأكاذيب، و تأييد القرارات الأخلاقية و غير الأخلاقية على حد سواء) أو يتراجعون عن إصدار الآراء (يظهرون شيئا من عدم الإلتزام بأي قرارات و عدم الإكتراث بالعواقب).. لهذا، بالنظر إلى اللاأخلاقية و العلوم الزائفة و عدم الكفاءة اللغوية لهذه الأنظمة، لا يسعنا إلا أن نتعجب من شعبيتها و الإعتماد عليها.

(الدكتور تشومسكي والدكتور روبرتس أستاذان في اللغويات. الدكتور واتومول هو مدير الذكاء الاصطناعي في شركة للعلوم والتكنولوجيا.).

المهدي المقدمي

شاب مغربي، محب للتقنية بصفة عامة، وخاصة العاب الحاسوب و الهاتف النقال، كما اعمل كمترجم و صحفي في الشأنين الإقتصادي و العالمي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

زر الذهاب إلى الأعلى

نكون شاكرين لو عطلتم مانع الإعلانات

الإعلانات تساعدنا على الاستمرار وتقديم الأفضل لكم