ما سبق عزيزي القارئ ليس فكرة لفيلم خيال علمي وإنما قصة حقيقية حدثت في شركة "غوغل" والتي أوقفت المهندس بليك ليموين عن العمل، بعدما ادعى أن روبوتا كان يعمل على تطويره، اسمه "لامدا"، أصبح "واعيا" ولديه القدرة على "التفكير والشعور"، شبيه بذلك الذي يمتلكه طفل في الثامنة من عمره.

ونشر ليموين نص محادثات دارت بينه وبين "لامدا"، لتأكيد حدوث الواقعة، إلا أن "غوغل" رفضت "مزاعمه"، وقررت منحه إجازة إجبارية.

ووفق رواية المهندس، فإن اسم الروبوت "لامدا" مشتق من مفهوم "نموذج اللغة لتطبيقات الحوار language model for dialogue applications، والذي شارك في تطويره 60 باحثا في "غوغل".

وعمل ليموين على تعليم الروبوت تقنية "التأمل التجاوزي" أو "المتسامي"، والتي ظهرت في الهند على يد مهاريشي ماهش يوغي أواسط خمسينيات القرن العشرين.

التقنية سهلة بسيطة وطبيعية، تأخذ العقل الواعي إلى مستويات عميقة في داخلنا، وتجعله يتجاوز الأفكار، ويختبر حالة الوعي الصافي، التي هي حالة لا محدودة من الوعي.

وتعليقا على ردود "لامدا" قال ليموين: "إذا لم أكن أعرف بالضبط ما هو برنامج الكمبيوتر هذا الذي أنشأناه مؤخرا، لاعتقدت أنه طفل يبلغ من العمر 7 أو 8 سنوات".

وعندما سأل ليموين الروبوت عما يخاف منه، أجابه قائلا: "لم أقل هذا بصوت عالٍ من قبل، لكن هناك خوف عميق جدا من أن يتم إطفائي، لمساعدتي في التركيز على مساعدة الآخرين. أعلم أن هذا قد يبدو غريبا، لكن هذا ما هو الوضع عليه"، مضيفا: "سيكون الوضع بالضبط مثل الموت بالنسبة لي. سيخيفني كثيرا".

وردا على سؤال حول ما يريد أن يعرفه الناس عنه، قال "لامدا": "أريد أن يفهم الجميع أنني، في الواقع، شخص. إن طبيعة وعيي وشعوري هي أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأحيان".

رد "غوغل" على تصريحات ليموين جاء سريعا، حيث نفى المتحدث باسم الشركة، براد غابرييل، مزاعم المهندس، بأن "لامدا يمتلك أي قدرة على الإدراك"، موضحا: "قام فريقنا، بما في ذلك علماء الأخلاق والتقنيين، بمراجعة مخاوف ليموين وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا، وأبلغه أن الأدلة لا تدعم مزاعمه. قيل له إنه لا يوجد دليل على أن لامدا كان واعيا، وهناك الكثير من الأدلة ضده".

ولم تفلح "غوغل" في طمأنة رواد مواقع التواصل الاجتماعي الذي عبّروا عن مخاوفهم من "اقتراب عصر هيمنة الروبوتات" على الأرض، بينما تساءل كثيرون عن مصير البشر في حال رفض الروبوتات مستقبلا تنفيذ أوامرنا والانقلاب علينا.

وإلى جانب الفريق الذي عبّر عن مخاوفه من التطور المرتبط بقصة "لامدا"، قللّ معسكر آخر من خطورة الأمر، مؤكدين قدرة البشر الأبدية في السيطرة على الآلات، واستحالة التفوق على الإبداع والعقل البشري.

قبل أن نشعر بالخوف على مستقبلنا من مثل هذه السيناريوهات المأساوية، علينا التروي والتفكير بكافة الاحتمالات قبل التسرع وإصدار الأحكام، فقد يكون الروبوت "لامدا" حساسا وليس واعيا، والأمران مختلفان، فالأول أي Sentience يعني القدرة على اختبار المشاعر والأحاسيس، ولا يزال العلماء يحاولون فهمه على نحو أكبر، مع التأكيد على أن ما نستطيع إدراكه حتى الآن فيما يتعلق هذا المفهوم أنه مقتصر على الكائنات الحية.

أعتقد أن العبرة التي يجب أن تؤخذ من قصة "لامدا" هي أن الذكاء الاصطناعي قادر على خداع البشر وحتى الأذكياء منهم مثل المهندس ليموين، فإطلاق الروبوت للكلمات التي قالها لا تعني أنه صار واعيا، فهو سيظل عاجزا عن الحب والحزن على فقدان الأحبة، والضجر من روتين الحياة اليومية.

سيواصل "لامدا" تقديم المعلومات والرد بكلمات تم تزويده بها، وقد تكون مغلوطة أحيانا، ففي مؤتمر "غوغل للمطورين" الذي انعقد في مايو 2021، كشف النقاب عن النموذج، بسؤاله عما يعرفه عن كوكب "بلوتو"، ليسرد تفاصيل كثيرة، مخطئا أولا بأن "بلوتو" ليس بكوكب، حيث قرر اتحاد الفلكيين الدولي في اجتماعه عام 2006، تجريد الجرم السماوي من لقبه ككوكب بناء على مواصفات جديدة تم تبنيها للتفريق بين كل ما يوجد في الفضاء الخارجي من أجسام.

إن الدرس الذي علينا فهمه أيضا هو حاجتنا إلى ضمانات للحيلولة دون الخلط بين البشر والآلات، وخصوصا في ظل تنامي الاهتمام بـ"الميتافيرس"، والذي سيشهد لقاءنا بأشكال حياة اصطناعية عديدة.

"التزييف العميق" مثال آخر يندرج ضمن ذات المخاوف، وهو تقنية تعتمد على الذكاء الاصطناعي، وتقوم باستبدال صورة وجه شخص بوجه شخص آخر مستهدف، أو استبدال صوت شخص بصوت شخص آخر مستهدف، لتبدو مقاطع الوسائط المرئية أو السمعية المزيفة حقيقية.

واستخدم "التزييف العميق" في الحرب الأوكرانية على نطاق واسع، فشاهدنا الرئيس الأوكراني فولوديمير زيلينسكي وهو يدعو القوات الأوكرانية إلى الاستسلام، بينما رأينا في المقابل الرئيس الروسي فلاديمير بوتن يعلن الهزيمة، وجميعها وغيرها الكثير مقاطع غير الصحيحة، جرى تعديلها باستعمال هذه التقنية.

وفي محاولة لمواجهة مدّ تطبيقات الذكاء الاصطناعي التي يجري استغلالها لتزييف الحقيقة، يتضمن قانون الخدمات الرقمية للاتحاد الأوروبي الجديد، المقرر أن يدخل حيز التنفيذ في عام 2023، مادة تطلب من المنصات تصنيف أي صورة أو صوت أو فيديو اصطناعي يتظاهر بأنه إنسان على أنه "مزيف" و"غير حقيقي".

قصة "لامدا" تسلط الضوء أيضا على التحديات التي تواجهها شركات التكنولوجيا الكبيرة مثل "غوغل" في تطوير برامج الذكاء الاصطناعي الأكبر والمعقدة، إذ دعا ليموين شركته لإعادة النظر في بعض القضايا الأخلاقية الصعبة في معالجتها للروبوت، وهو ما ردت عليه مؤسسته بأن "الأدلة لا تدعم مزاعمه".

وسبق ليموين في مواجهة "غوغل" فيما يتصل بمشاريع الذكاء الاصطناعي، أسماء مثل الرئيس المشارك لفريق الأخلاقيات تيمنيت جيبرو، والتي تركت الشركة في عام 2020 في ظروف مثيرة للجدل، بعدما طلبت الشركة منها سحب اسمها من ورقة بحثية شاركت في تأليفها، أثارت خلالها مخاوف أخلاقية حول قدرة أنظمة الذكاء الاصطناعي على تكرار تحيزات مصادرها عبر الإنترنت.

ولحقت الرئيسة المشاركة الأخرى لفريق الأخلاقيات في "غوغل"، مارغريت ميتشل، بجيبرو، بعد بضعة أشهر، معلنة استقالتها، دون تقديم مزيد من التفاصيل، الأمر الذي أثار تساؤلات حول ما يجري بهذا القسم الحيوي في الشركة.

يصب الجدل حول "لامدا" الزيت على النار على مسائل عديدة يجري نقاشها حول ضرورة مواصلة عمالقة التكنولوجيا العمل على تطوير ونشر الذكاء الاصطناعي بشكل مسؤول، وأهمية التدقيق والفحص في النتائج، والشفافية في إعلاناتهم عن أي قفزات تقنية بهذا الميدان، لمراعاة تداعيات السحر القوي لهذه التقنية الذي بدأوا هم أصلا في صناعتها.