الآلة وأسئلة الأخلاق.. جدل متجدد في شأن الذكاء الاصطناعي “الواعي”
“تتجه تقنيات الذكاء الاصطناعي إلى أن تصبح واعية”، هذا ما أكده أحد مهندسي “غوغل” ولذلك أقيل من وظيفته، مما أثار جدلا خارج وادي السليكون في شأن هذا الموضوع الذي لم يعد مجرّد خيال علمي.
وفي التفاصيل أن الموظف بلاك لوموان كتب في مقال نُشر على موقع “ميديوم” في نهاية هذا الأسبوع، أن “لمدا” (LaMDA)، وهو برنامج معلوماتي من غوغل مخصص لإنشاء “روبوتات للمحادثة” (chatbots)، “يتمتع بوضوح تام في شأن ما يريده وما يراه أنه من حقوقه كشخص”.
وقوبل هذا الرأي بردود فعل واسعة النطاق، سواء من شركة التكنولوجيا العملاقة أو من الأوساط العلمية، تراوحت بين حدّين، الأسوأ من بينهما وصفه بأنه سخيف، وأحسنهما رأى أنه سابق لأوانه.
فالبرامج القائمة على “تعلم الآلة” أو ما يعرف بـ(Machine learning) “مدربة” على أساس مجموعة بيانات تتناول مفاهيم الوعي أو الهوية، وهي بالتالي قادرة على إعطاء انطباع وهمي مُضلِل.
اللغة والآلات
ولا تستطيع الآلات صياغة مصطلحات جديدة تعبر عن مفاهيم وعمليات جديدة لم تكن موجودة من قبل، إذ يستخدم الفلاسفة والأدباء وحتى التقنيون طرقا إبداعية مختلفة للاشتقاق وتوليد الكلمات التي يحتاجونها للتعبير عن أفكار أو تقنيات جديدة. وفي المقابل تفتقد الآلات لهذا النهج الإبداعي الذي يتطلب قدرات تحليلية عالية حتى بالنسبة للمفاهيم التقنية، وفق تقرير سابق للجزيرة نت.
ولا يمكن للآلات أن تنقل جمالية النص والروح في الأعمال الأدبية العظيمة، إذ تعد البراعة التعبيرية للأدباء ميزة خاصة يتمتع بها الأدباء الذين يقدرون على ابتكار استعارات جميلة لاستحضار مشاعر قوية، وكثيرا ما تكون نتيجة عمل إبداعي شاق. وحتى لو كانت الآلات قادرة على أن تحل محل المترجمين في مجالات معينة، فإن الترجمة الأدبية ستظل امتيازا حصريا للمترجمين البارعين من دون غيرهم، وفي المقابل يمكن أن تحل الآلات فعليا محل “المترجمين” الذين يترجمون بطريقة “آلية” وغير إبداعية.
وإذ تفتقد الآلات لفهم الثقافات المختلفة حول العالم، فإنها تخفق كثيرا في إدراك التعقيدات الكامنة خلف التعبيرات الثقافية الخاصة ولا تستطيع نقلها إلى ما يكافئها في اللغة المستهدفة. ويلعب السياق دورا مربكا بالنسبة للآلات، بينما يخدم المترجمون البشر ويساعدون في إتقان نقل المعنى.
تجاهل الأخلاقيات
وأشارت الأكاديمية سوزان شنايدر إلى أن “البرامج التي يمكنها الوصول إلى الإنترنت تستطيع الإجابة عن أي سؤال” ، إلا أن هذا الواقع لا يجعل تلك الدعوى تتمتع بصدقية.
ولا تؤيد، شنايدر التي أسست مركز أبحاث في جامعة “فلوريدا أتلانتيك”، العقوبات المفروضة على مهندس غوغل. ولاحظت أن غوغل ميّالة إلى “محاولة تجاهل القضايا المتعلقة بالأخلاقيات” مع أن “ثمة حاجة إلى مناقشات عامة حول هذه الموضوعات الشائكة”، وفق رأيها.
وقال الناطق باسم غوغل براين غابرييل “تحادث مئات الباحثين والمهندسين مع لمدا، لكنّ أيا منهم، على حد علمنا، لم يطالعنا بهذه التأكيدات، ولا اعتبر أن لبرنامج لمدا طابعا بشريا كما فعل بلايك”.
وذكّر أستاذ الفلسفة في جامعة تورنتو الكندية مارك كينغويل بأن فكرة الكيان غير البشري الذي تُبعث فيه الحياة “موجودة في خيالنا”، من بينوكيو إلى فيلم “هير” (Her) (قصة علاقة رومانسية مع روبوت محادثة).
واعتبر أن “من الصعب تاليا تحديد المسافة التي تفصل بين ما نتخيله ممكنا وبين ما هو قائم فعلا”.
ودرجت العادة على تقييم الذكاء الاصطناعي وفقا لاختبار تورينغ، فإذا أقام من يجري الاختبار محادثة مع جهاز كمبيوتر من دون أن يدرك أنه لا يتحدث إلى إنسان، تكون الآلة قد “نجحت”.
لكنّ “تحقيق ذلك سهل جدا على الذكاء الاصطناعي في سنة 2022″، وفق كينغويل.
وقالت الخبيرة في لغويات الكمبيوتر إميلي بندر “عندما نجد أمامنا سلسلة من الكلمات في لغة نتحدثها (…) نعتقد أننا ندرك الروح التي تولد هذه الجمل”، حتى إن العلماء قادرون على إعطاء شخصية لبرنامج ذكاء اصطناعي.
الوعي والمشاعر
وأوضح أستاذ علوم الكمبيوتر بجامعة نورث كارولاينا شاشانك سريفاستافا أن “من الممكن مثلا جعل الذكاء الاصطناعي أشبه بشخص عصابي” من خلال تدريبه على المحادثات التي قد يجريها شخص مكتئب.
وفي حال دمج روبوت المحادثة بروبوت ذي شكل بشري وتعبيرات وجه فائقة الواقعية، أو إذا كان البرنامج يكتب قصائد أو يؤلف موسيقى، كما هي حال بعض البرامج راهنا، فإن حواسنا البيولوجية تنخدع بسهولة.
وقالت إميلي بندر إننا نسبح في الضجيج الإعلامي الذي يتعامل مع الذكاء الاصطناعي، وأضافت أن “الكثير من المال يُستثمر في هذا المجال. لذا يشعر الموظفون في هذا القطاع بأنهم يعملون على شيء مهم وحقيقي وليست لديهم بالضرورة المسافة اللازمة” للحكم على الأمور.
ولكن كيف يمكننا إذن أن نحدد على وجه اليقين ما إذا كان الكيان الاصطناعي قد أصبح يتمتع بمشاعر ووعي؟
تقول سوزان شنايدر “إذا نجحنا في استبدال الأنسجة العصبية بشرائح إلكترونية، فسيكون ذلك علامة على أن الآلات يمكن أن تكون واعية”.
وتابعت سوزان القول إنه حدث تقدم أحرزته شركة “نورالينك” الناشئة التي أسسها إيلون ماسك لتصنيع غرسات الدماغ للأغراض الطبية، ولكن أيضا “لضمان مستقبل البشرية كحضارة بالنسبة إلى الذكاء الاصطناعي”، على ما أوضح رئيس “تيسلا”.
وبالتالي ينتمي الملياردير بدوره إلى رؤية تتخوف من إمكان أن تؤول السيطرة إلى آلات تتمتع بقدرات فائقة.
إلا أن مارك كينغويل رأى أن العكس هو الصحيح.
فإذا ظهر ذات يوم كيان مستقل قادر على إتقان لغة، وعلى “التحرّك من تلقاء نفسه ضمن بيئة معينة”، ولديه تفضيلات ونقاط ضعف، “سيكون من المهم عدم اعتباره عبدا… والعمل على حمايته”.
وربما لم يتمكن بلايك لوموان من إقناع أحد بأن برنامج “لمدا” يتمتع بالوعي، لكنه أشعل مجددا النقاش الذي بات يتخذ أكثر فأكثر طابعا سياسيا، وأصبح ينظر إليه بدرجة أقل على أنه خيالي.
ماذا يريد “لمدا”؟ أجاب المهندس المقال “إنه يريد من غوغل أن تضع مصلحة الإنسانية أولا، وأن يتم الاعتراف به كموظف وليس كملكية لشركة غوغل”.