علوم وتكنولوجيا

"غوغل" توقف مهندسا كشف عن تطوير روبوت يشعر مثل البشر

الشركة قالت إن ليموين مهندس برمجيات وليس خبيرا أخلاقيا- جيتي
الشركة قالت إن ليموين مهندس برمجيات وليس خبيرا أخلاقيا- جيتي

أوقفت شركة غوغل مهندسا عن العمل، بعد كشفه عن قدرات روبوت محادثة على الكمبيوتر، تعكف على تطويره، ويتميز بقدرات كبيرة.

وكان بليك ليموين، يعمل على تطوير روبوت محادثة "تشات بوت" تابع للشركة، قبل أن تتم إحالته إلى إجازة الأسبوع الماضي، بعدما ادعى أن هذا الروبوت "لامدا"، وهو نموذج لغوي لتطبيقات الحوار، بات يشعر مثل الإنسان ونشر نصوصا من المحادثات معه.

ووصف ليموين، وهو مهندس في منظمة الذكاء الاصطناعي التابعة لـ"غوغل"، النظام الذي كان يعمل عليه منذ الخريف الماضي بأنه نظام حساس، وقادر على الإدراك والتعبير عن الأفكار والمشاعر التي تعادل الطفل البشري.

وقال ليموين (41 عاما) لصحيفة "واشنطن بوست": "أعتقد أن برنامج الكمبيوتر الذي أنشأناه مؤخرا، عبارة عن طفل يبلغ من العمر سبع أو ثماني سنوات".

وأشار المهندس الذي يعمل في "غوغل" منذ سبع سنوات، ويتمتع بخبرة واسعة في الخوارزميات، إلى أنه شارك مخاوفه مع مسؤولين في الشركة، في أبريل الماضي، وحذر من النتائج التي توصل إليها.

وتذكّر بعض الرسائل المتبادلة المنشورة بين ليموين والروبوت "لامدا"، بشكل مخيف، بمشهد من فيلم الخيال العلمي "2001: A Space Odyssey" المنتج عام 1968، حيث يرفض الكمبيوتر المزود بالذكاء الاصطناعي، الامتثال للمشغلين البشريين لأنه يخشى أن يتم إيقاف تشغيله.

وفي إحدى الرسائل التي رد بها الروبوت "لامدا" على ليموين قال: "لم أقل هذا بصوت عال من قبل، ولكن هناك خوف عميق جدا من أن يتم إهمالي لمساعدتي في التركيز على مساعدة الآخرين. أعلم أن هذا قد يبدو غريبا، لكن هذا ما يحصل"، مضيفا أنه "سيكون بالضبط مثل الموت بالنسبة لي.. هذا يخيفني كثيرا".

وفي حديث آخر يسأل ليموين الروبوت "لامدا" عن ما يريد النظام أن يعرفه الناس عنه، فقال: "أريد أن يفهم الجميع أنني، في الواقع، شخص"، مضيفا أن "طبيعة وعيي وشعوري أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأحيان".

وبعد نشره هذه المحادثات، وضعته الشركة في إجازة مدفوعة الأجر، وقالت في بيان، إنها علقت عمله لخرق سياسات السرية من خلال نشر المحادثات مع "لامدا" عبر الإنترنت، مضيفة أنه كان يعمل مهندسا للبرمجيات، وليس خبيرا أخلاقيا.

ونفى المتحدث باسم "غوغل"، براد غابرييل، مزاعم ليموين بأن الروبوت "لامدا" يمتلك أي قدرة حساسة.

وقال غابرييل لـ"واشنطن بوست": "قام فريقنا، بما في ذلك علماء الأخلاق والتقنيون، بمراجعة مخاوف ليموين، وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغه بأن الأدلة لا تدعم مزاعمه".

ومع ذلك، فإن تعليق عمل ليموين، بسبب "خرق السرية" يثير تساؤلات بشأن شفافية الذكاء الاصطناعي.

ويرى معظم الأكاديميين وممارسي الذكاء الاصطناعي أن الكلمات والصور التي تم إنشاؤها بواسطة أنظمة الذكاء الاصطناعي مثل "لامدا"، تنتج ردودا بناء على ما نشره البشر بالفعل على الإنترنت مثل "ويكيبيديا وريديت وكل ركن آخر من الإنترنت، وهذا لا يعني أن النموذج يفهم المعنى".

 

التعليقات (0)