هينتون عبر عن مخاوفه من أن يسبب الذكاء الاصطناعي ضررا للبشرية (أسوشيتد برس)

هينتون عبر عن مخاوفه من أن يسبب الذكاء الاصطناعي ضررا للبشرية (أسوشيتد برس)

قال جيفري هينتون الملقب بـ “الأب الروحي للذكاء الاصطناعي” -لصحيفة “نيويورك تايمز” (New York Times)- إنه يشعر بالأسف حيال الدور الكبير الذي لعبه في تطوير تكنولوجيا الذكاء الاصطناعي.

ومؤخرا، ترك هينتون منصبه في “غوغل” (Google) بعد مسيرة مهنية استمرت عقدا من الزمن، وجاء ذلك في وقت يشتد فيه السباق لتطوير روبوتات محادثة مدعومة بالذكاء الاصطناعي، مثل “بارد شات بوت” (Bard chatbot) من غوغل، و”شات جي بي تي” (ChatGPT) من شركة “أوبن إيه آي” (OpenAI).

 

وقال هينتون، الذي ساعدت إسهاماته في مجال الذكاء الاصطناعي منذ عقود في تمهيد الطريق لإنشاء روبوتات المحادثة، إنه قلق الآن من أن التكنولوجيا يمكن أن تضر البشرية.

وأعرب عن تخوفه بشأن سباق الذكاء الاصطناعي الجاري حاليا بين عمالقة التكنولوجيا، وتساءل عما إذا كان الوقت مناسبا للتوقف عن تطوير هذه المنتجات.

وعقب نشر مقابلته مع “نيويورك تايمز” أمس الاثنين، غرد هينتون أنه غادر غوغل حتى يتمكن من “التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على غوغل” مضيفا أن “غوغل تصرفت بمسؤولية كبيرة”.

وقال هينتون إنه قلق من أن تؤدي منتجات الذكاء الاصطناعي التوليدية إلى نشر معلومات وصور ومقاطع فيديو مزيفة عبر الإنترنت، وألا يتمكن الجمهور من تحديد الصحيح من المزيف.

 

وتحدث أيضا عن كيف يمكن لتقنيات الذكاء الاصطناعي نهاية المطاف القضاء على العمالة البشرية، بما في ذلك المساعدون القانونيون والمترجمون والمساعدون، وهو ما يشكل مصدر قلق للعديد من منتقدي تكنولوجيا الذكاء الاصطناعي.

وأصدرت مؤسسة “غولدمن ساك” (Goldman Sachs) تقريرا يقدر أن 300 مليون وظيفة بدوام كامل يمكن أن تتأثر بأنظمة الذكاء الاصطناعي، وتشمل العاملين القانونيين والإداريين، رغم أن مستوى هذا التأثير قد يختلف. ويتزايد القلق أيضا بين مهندسي البرمجيات الذين يخشون أن يتم استبدال وظائفهم بالذكاء الاصطناعي.

وقال جيف دين، كبير العلماء في غوغل، في بيان لموقع “بيزنس إنسايدر” (Business Insider) “لقد حقق جيف اختراقات علمية في مجال الذكاء الاصطناعي، ونحن نقدر مساهماته التي استمرت 10 سنوات في غوغل”.

قلق لدى غوغل

ورغم أن هينتون لم يذكر غوغل في نقده الشامل لمشهد الذكاء الاصطناعي، فقد أفادت التقارير أن موظفين آخرين من غوغل أعربوا عن قلقهم بشأن برنامج الدردشة الآلي الخاص بالشركة.

فبعد تكليف موظفي غوغل باختبار روبوت الدردشة “بارد شات بوت” قال عدد منهم إنهم يعتقدون أن التكنولوجيا قد تكون خطيرة، وفقا لما نقلته وكالة بلومبيرغ (Bloomberg).

 

وقال الموظفون -الذين تحدثوا مع بلومبيرغ- إنهم يعتقدون أن غوغل لا تعطي الأولوية لأخلاقيات الذكاء الاصطناعي، ويحاولون تطوير التكنولوجيا بسرعة لمواكبة برنامج “شات جي بي تي”. وحاول موظفان منع الشركة من إطلاق “بارد” وفقًا لتقرير سابق من صحيفة “تايمز”.

وردا على ذلك، قال دين “نظل ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نتعلم باستمرار فهم المخاطر الناشئة مع الابتكار بجرأة أيضًا”. وأحال موقع إنسايدر إلى مدونة حول مبادئ الذكاء الاصطناعي الخاصة بالشركات، ومنشورتين على المدونة من الشركة توضحان بالتفصيل مبادئ في تطوير الذكاء الاصطناعي.

المصدر : مواقع إلكترونية

About Post Author