(ح1-ج3) مقدمة في الذكاء الإصطناعي.. تاريخ حلم قديم العهد  بات اليوم حقيقة !

“..بات الكثير من الناس حول العالم، مدركين للحضور الوازن للذكاء الإصطناعي و تطبيقاته في حياتهم، التي أضحت موجودة في كل مكان حولنا.. مع هذا الإنتشار الواسع، يخطر على بال الأفراد أسئلة متعددة تخص هذه التقنية من قبيل: “كيف بدأ كل هذا؟”، “في أية مجالات يمكن أو سيستخدم فيها الذكاء الإصطناعي؟”، “ماذا يعني ذلك حقا؟”، “ما أخلاقيات عمل و تطبيق الذكاء الإصطناعي؟” و غيرها من التساؤلات التي سنتطرق لها في هذه السلسلة من المقالات حول “الذكاء الإصطناعي”، منطلقين من كونه كان موضوعا للخيال العلمي إلى جزء لا يتجزء من حياتنا اليوم، مرورا بتطور هذا المجال على مر السنين و ما ساهم به في حياتنا، و وصولا إلى ما قد يشكله من خطر علينا الآن أو مستقبلا..”

*ماذا نتوقع من الذكاء الإصطناعي في السنوات أو العقود القليلة المقبلة؟

  يبدوا ان الشوط الطويل للذكاء الاصطناعي شوطا طويلا سينتهي بتحقيق قفزة هائلة، غير أنه لا يزال الذكاء الإصطناعي العام (AGI) القادر على القيام بأي مهمة فكرية يمكن للإنسان القيام بها بعيد المنال، لكننا بدأنا بالفعل في رؤية الكثير من التقدم في مجالات أخرى من الذكاء الإصطناعي، قد حد الإستيلاء أو القضاء على العديد من الوظائف التي عفا عليها الزمن.

  و السبب بسيط: إذا كان بإمكانك إستبدال شخص واحد بنظام (AGI)، فلن تحتاج إلى جهاز كمبيوتر واحد للقيام بالعمل بل يمكنك نشره (AGI) عبر آلاف أو ملايين أجهزة الكمبيوتر، و هذا ممكن فقط لأن قادر على التعلم من التجارب السابقة و تحسين نفسه، مما يعني أنه لا يلزم إعادة برمجته لكل مهمة جديدة. في الواقع، لا يوجد سبب يجعل نظام (AGI) يحتاج إلى البشر على الإطلاق، إذ و بمجرد أن يتعلم ما يكفي يمكنه تصميم أجهزته الخاصة أو إيجاد طرق لأتمتة الصناعات بأكملها. و هذا لأن ظهوره سيؤدي إلى تحويل مشهد الأعمال و تغيير حياة الناس للأفضل.

*المخاوف الأخلاقية المحيطة بالذكاء الاصطناعي

  نرى أن الذكاء الإصطناعي “فكرة قوية” للغاية لكنها ليست ب”الحل السحري”.. إن الشيء الأساسي الذي يجب تذكره حول الذكاء الإصطناعي كونه يتعلم من “البيانات” و “نماذج الخوارزميات”، ما يعني أن توفر البيانات و التحيز ومشكلات الخصوصية يمكن أن تؤثر جميعها بشكل كبير على أداء نموذج الذكاء الإصطناعي، كما أن “الجودة” أمر بالغ الأهمية لتدريب نظام الذكاء الاصطناعي.

  تتعلق بعض أكبر المخاوف المحيطة به اليوم، حول مجموعات البيانات “المتحيزة” التي قد تؤدي إلى نتائج غير مرضية أو إلى تفاقم التحيزات الجنسانية / العرقية داخل أنظمة الذكاء الاصطناعي. في القصة القصيرة “Runaround” (1942)، عددت إحدى شخصيات إسحاق أسيموف “القواعد الأساسية الثلاثة للروبوتات  (أخلاقيات الروبوتات)”.. مع تسلل أجهزة الكمبيوتر إلى حياتنا، سنحتاج إلى التفكير بجدية أكبر في أنواع الأنظمة التي يجب بناؤها و كيفية نشرها، بالإضافة إلى المشكلات الوصفية مثل كيفية تحديد من يجب أن يقرر هذه الأشياء. هذا هو عالم الأخلاق، الذي قد يبدو بعيدا عن الموضوعية المفترضة للرياضيات والعلوم والهندسة.. تقول “باربرا غروسز” عالمة الكمبيوتر في جامعة “هارفارد”: “هناك حقيقة أساسية مفادها أن أنظمة الكمبيوتر ليست محايدة من حيث القيمة، و أنه عندما تصممها، فإنك تجلب بذلك مجموعة من القيم إلى ذلك التصميم”.

  أحد الموضوعات التي حظيت بإهتمام كبير من المختصين في الأخلاق كان “الإنصاف و التحيز”. تقوم الخوارزميات بشكل متزايد، بتنظيم أو حتى إملاء القرارات المتعلقة بالتوظيف و القبول في الجامعات و القروض و الإفراج المشروط.  بناءا على فهمها للمعروض أمامها من معلومات، ما قد يعرض المعنيين بالأمر للمعاملة غير العادلة، لكونهم مدربين على أساس بيانات متحيزة أو تعريفات متعددة للعدالة.

  مصدر قلق آخر هو “الخصوصية”. بالنظر إلى أن أجهزة الكمبيوتر يمكنها الآن جمع و فرز المعلومات حول إستخدامها بطريقة لم يكن من الممكن تصورها من قبل. يمكن أن تساعد البيانات المتعلقة بسلوكنا عبر الإنترنت في التنبؤ بجوانب حياتنا الخاصة، كما يمكن أن تتبعنا تقنية التعرف على الوجه أيضا في جميع أنحاء العالم الحقيقي. يختبر مجال “التكنولوجيا العصبية” الناشئ بالفعل طرقا لتوصيل الدماغ مباشرة بأجهزة الكمبيوتر، مما يطرح تساؤلات حول “الأمان و الخصوصية” و سيفتح بابا يمكن للقراصنة الوصول به إلى البيانات المقفلة، أو التدخل في أجهزة حيوية (تنظيم ضربات القلب) و المركبات ذاتية القيادة. من الموضوعات الأخرى ما يرتبط ب”التزييف العميق” (Deep Fake) حيث أصبح الذكاء الإصطناعي “قادرا” على إنشاء محتوى يبدو حقيقيا، يتراوح بين الروائع الأدبية و الأخبار المزيفة و مواد التجنيد للجماعات المتطرفة، أو في تزييف مشاهد و أصوات و صور شخصيات عالمية، كما يمكن للخوارزميات أيضا التلاعب بنا بطرق أخرى تصل حد “الإحتيال الإلكتروني”.

  تقوم دول متعددة، بتطوير أسلحة “ذاتية التشغيل” لديها القدرة على تقليل الخسائر في صفوف المدنيين و كذلك تصعيد الصراع بشكل سريع، ممكنة وضع البنادق أو الصواريخ في أيدي الروبوتات. هنا، تظهر مخاوف ذات علاقة بالخيال العلمي و السينما، من أن يقع مثلا نفس سيناريو سلسلة “تيرمينايتور” (Terminators)  و القضاء على البشرية. على المدى القريب، تسببت “الأنظمة الآلية” التي تم إطلاقها في العالم الحقيقي بالفعل في حدوث أعطال مفاجئة في سوق الأسهم تصل إلى الملايين من الدولارات.

  هناك أيضا أسئلة إجتماعية و سياسية و قانونية حول كيفية إدارة التكنولوجيا في المجتمع، من بينها : من ستتم محاسبته عندما يتسبب نظام الذكاء الاصطناعي في ضرر ما؟ كيف يمكننا ضمان وصول أكثر مساواة إلى أدوات الذكاء الاصطناعي و فوائدها؟ كيف ستؤدي أتمتة الوظائف إلى قلب سوق العمل رأسا على عقب؟ هل يمكننا إدارة التأثير البيئي لمراكز البيانات التي تستهلك الكثير من الكهرباء؟ هل يجب أن نستخدم بشكل تفضيلي خوارزميات قابلة للتفسير، لمزيد من الثقة وقابلية التصحيح حتى لو كان ذلك يجعل الخوارزميات أكثر فقرا في التنبؤ بالنتائج المستقبلية؟.. و العديد من الأسئلة التي تتوسع بتوسع مجال الذكاء الإصطناعي.

Exit mobile version