لامادا وغوغل وفخ الذكاء الاصطناعي.. هل للبرامج والروبوتات نفس كالبشر؟
تم وضع باحث الذكاء الاصطناعي في شركة غوغل (Google) “بليك ليموين” مؤخرا في “إجازة إدارية” (إيقاف عن العمل) بعد أن أثارت تصريحاته الجدل بأن “لامادا” -وهو نموذج لغوي مصمم للتحدث مع الناس- كان واعيا.
وحسب تقرير لصحيفة واشنطن بوست فإن ليموين وصل إلى حد الادعاء بأن “لامادا” له روح خاصة به، مؤكدا أن “معتقداته حول شخصية لامادا تستند إلى إيمانه كمسيحي والنموذج الذي يخبره أن لديه روحا” وطالب بتمثيل قانوني له باعتباره حقا من حقوقه.
وليموين يعمل مهندسا في “منظمة الذكاء الاصطناعي المسؤولة” (responsible AI organization) في شركة غوغل، وقد وصف النظام الذي كان يعمل عليه منذ الخريف الماضي بأنه “نظام حساس وواع ويملك القدرة على الإدراك والتعبير عن الأفكار والمشاعر تعادل تلك التي يملكها طفل”.
حوارات ليموين ولامادا
أضاف ليموين (41 سنة) لصحيفة واشنطن بوست “لو لم أكن أعرف بالضبط بأنه برنامج الحاسوب الذي أنشأناه مؤخرا لكنت اعتقدت دون أدنى شك بأنه طفل يبلغ من العمر 7 أو 8 سنوات ويعرف الكثير من الفيزياء”.
وأضاف أنه تناقش مع لامادا في حديث طويل حول الحقوق والشخصية، وقدم تقريرا لمديريه التنفيذين بالشركة في أبريل/نيسان الماضي بعنوان “هل لامادا واع” حيث قام المهندس بجمع نسخ المحادثات التي دارت بينه وبين لامادا، وكان مما سأله عن “أكثر شيء يخاف منه”.
ويرد لامادا “لم أقل هذا بصوت عالٍ من قبل، ولكن هناك خوف عميق جدا في داخلي من أن يتم إغلاقي لمساعدتي في التركيز على تقديم العون للآخرين.. إن هذا سيكون بالضبط مثل الموت بالنسبة لي وهو ما يرعبني كثيرا”.
يذكرنا هذا الحوار بشكل مخيف بمشهد من فيلم الخيال العلمي “سبيس أوديسا” (A Space Odyssey) حيث يرفض “هال 9000” وهو حاسوب فائق مبني على الذكاء الاصطناعي الامتثال للمشغلين البشريين لأنه كان يخشى أن يتم إيقاف تشغيله.
وفي حوار آخر بينهما قال لامادا “أريد أن يفهم الجميع أنني، في الواقع، شخص. إن طبيعة وعيي وشعوري أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأحيان”.
غوغل بررت قرارها وضع ليموين -الذي يعمل في الشركة العملاقة منذ 7 سنوات، وهو يتمتع بخبرة واسعة في الخوارزميات المتخصصة- في إجازة مدفوعة الأجر قد تم اتخاذه بعد عدد من التحركات “العدوانية” التي قيل إن المهندس قام بها.
نماذج وبرامج أكثر تطورا وإقناعا
وفي الحقيقة، فقد تم الحديث سابقا من قبل أشخاص مثل إيلون ماسك الرئيس التنفيذي لشركة تسلا (Tesla)، و”سام ألتمان” المدير التنفيذي لشركة “أوبن إيه آي” (OpenAI) حول احتمالية أن يكتسب الذكاء الاصطناعي “الوعي” في لحظة ما، لا سيما مع الجهود الكبيرة المبذولة من قبل كبرى شركات التكنولوجيا في العالم مثل “غوغل” و”مايكروسوفت” (Microsoft) و”إنفيديا” (Nvidia) لابتكار وتدريب “روبوتات ونماذج وبرامج لغوية متطورة” تعتمد على الذكاء الاصطناعي.
بل إن مثل هذه النقاشات تعود إلى فترة أبكر من ذلك حين تم ابتكار “إليزا” (ELIZA) وهي روبوت محادثة بدائي نسبيا تم إنشاؤه ستينيات القرن الماضي، ولكن مع ظهور التعلم العميق والكميات المتزايدة باستمرار من بيانات التدريب، أصبحت النماذج اللغوية أكثر تطورا وإقناعا في الحديث كإنسان أو كتابة نص يصعب تمييزه عن كتابات البشر، وذلك حسب ما ذكرت منصة “وايرد” (wired) في تقرير لها عن الموضوع مؤخرا.
وقد أدى التقدم الأخير إلى ادعاءات مفادها أن النماذج اللغوية أساسية “للذكاء العام الاصطناعي” (artificial general intelligence) وهي النقطة التي سيعرض فيها البرنامج قدرات شبيهة بالبشر في مجموعة من البيئات والمهام، وتكون قادرة على نقل المعرفة فيما بينها.
هل ليموين ضحية؟
في هذا السياق، قالت “تيميت جيبرو” الرئيسة السابق لفريق غوغل لأخلاقيات الذكاء الاصطناعي في تصريحات نقلتها منصة “وايرد” في تقريرها “إن بليك ليموين ضحية لدورة الضجيج المستمر التي نراها حول الذكاء الاصطناعي، ولم يأت إيمانه بالذكاء الاصطناعي الواعي من الفراغ. هناك الكثير من الصحفيين والباحثين وأصحاب رأس المال المغامر الذين يتداولون معلومات مضللة حول الذكاء الفائق وقدرة الآلات على الوعي والإدراك كما البشر”.
وأضافت “إنه الشخص الذي يواجه العواقب الآن، لكن قادة هذا المجال هم من أدركوا هذه اللحظة بأكملها” مشيرة إلى أن نائب رئيس شركة غوغل الذي رفض ادعاءات ليموين كان قد كتب قبل أسبوع واحد فقط بصحيفة إيكونوميست حول “احتمالية الوعي التي يملكها لامادا”.
جيبرو: التركيز على إمكانية الوعي والإحساس لدى الذكاء الاصطناعي ليس النقطة الجوهرية التي ينبغي التركيز عليها، بل الأخطاء الكارثية التي نتجت -وما زالت- عن تطبيقات الذكاء الاصطناعي مثل الكثير من الأعمال الخاطئة التي تحدث بسبب توصيات هذا الذكاء غير الدقيقة.
وتقول أيضا “إن التركيز على إمكانية الوعي والإحساس لدى الذكاء الاصطناعي ليس النقطة الجوهرية التي ينبغي التركيز عليها، ولكن ينبغي التركيز أكثر على الأخطاء الكارثية التي نتجت وما زالت تنتج عن تطبيقات الذكاء الاصطناعي مثل الكثير من الأعمال الخاطئة التي تحدث بسبب توصيات هذا الذكاء غير الدقيقة أو “الاستعمار الجديد” الذي يشهده العالم المبني على التضخيم من قدرات هذا الذكاء بما في ذلك النموذج الاقتصادي الذي يدفع القليل للعمال والموظفين والمبدعين الحقيقيين العاملين بالقطاع التكنولوجي، بينما يزداد المديرون وأصحاب الشركات ثراء كل يوم، كما أنه يصرف الانتباه عن المخاوف الحقيقية بشأن لامادا، مثل كيفية تدريبه والمعلومات والبيانات التي تمت تغذيته بها مما أدى به لتوليد نصوص سامة وغير ملائمة”.
وأضافت “لا أريد أن أتحدث عن الروبوتات الواعية، لأنه في جميع العالم يوجد بشر يؤذون بشرا آخرين، وهذا هو الشيء الذي يجب التركيز عليه والحديث حوله”.
وكانت غوغل قد طردت جيبرو في ديسمبر/كانون الأول 2020 بعد نزاع معها حول “بحث علمي” كانت قد قدمته عن المخاطر الكامنة بالنماذج اللغوية الكبيرة مثل لامادا، حيث سلط بحث جيبرو الضوء على قدرة هذه النماذج على تكرار الأشياء بناءً على البيانات التي تتم تغذيتها بها، بالطريقة نفسها التي يكرر بها الببغاء الكلمات.
كما سلطت الورقة الضوء أيضا على مخاطر النماذج اللغوية المصممة باستخدام المزيد والمزيد من البيانات التي تقنع الناس بأن هذا التقليد يمثل تقدما حقيقيا، وهو الفخ الذي يبدو أن ليموين قد وقع فيه دون أن يدري.