عندما يتحدث باحثو الذكاء الاصطناعى عن مخاطر الذكاء الاصطناعى المتقدم ، فإنهم عادة ما يتحدثون عن مخاطر فورية ، مثل التحيز الخوارزمي والمعلومات الخاطئة ، أو المخاطر الوجودية ، كما هو الحال في الخطر الذي سترتفع فيه الذكاء الاصطناعى الذكاء وإنهاء الأنواع البشرية.
فيلسوف جوناثان بيرش ، أستاذ في كلية لندن للاقتصاد ، يرى مخاطر مختلفة. إنه قلق من أننا سنقوم “استمر في اعتبار هذه الأنظمة أدواتنا واللعب بعد فترة طويلة من أن تصبح عاطفية ، “إلحاق الأذى عن غير قصد على الذكاء الاصطناعى. كما أنه يشعر بالقلق من أن الناس سيعزوون قريبًا إلى شوطات مثل chatgpt التي هي مجرد جيدة في محاكاة الحالة. ويشير إلى أننا نفتقر إلى اختبارات لتقييم المشاعر بشكل موثوق في الذكاء الاصطناعي ، لذلك سيكون لدينا صعوبة كبيرة في معرفة أي من هذين الأمرين يحدث.
بيرش يضع هذه المخاوف في كتابه حافة العلم: المخاطر والاحتياج لدى البشر ، والحيوانات الأخرى ، ومنظمة العفو الدوليةنشرت العام الماضي من قبل مطبعة جامعة أكسفورد. ينظر الكتاب إلى مجموعة من حالات الحافة ، بما في ذلك الحشرات والأجنة والأشخاص في حالة نباتية ، ولكن IEEE Spectrum تحدث معه عن القسم الأخير ، الذي يتعامل مع إمكانيات “المشاعر الاصطناعية”.
جوناثان بيرش على …
عندما يتحدث الناس عن الذكاء الاصطناعى في المستقبل ، فإنهم يستخدمون أيضًا كلمات مثل العلم والوعي والمواصلة المتبادلة. هل يمكنك شرح ما تعنيه من خلال العلم؟
جوناثان بيرش: أعتقد أنه من الأفضل إذا كانوا لا تستخدم بالتبادل. بالتأكيد ، علينا أن نكون حذرين للغاية في التمييز بين المشاعر ، وهو عن الشعور ، من الذكاء. أجد أيضًا أنه من المفيد التمييز بين العلم والوعي لأنني أعتقد أن الوعي شيء متعدد الطبقات. تحدث هربرت فيجل ، وهو فيلسوف يكتب في الخمسينيات من القرن الماضي ، عن وجود ثلاث طبقات – العلم ، والعصبة ، والذات – حيث تدور حول الأحاسيس الخام الفورية ، والعبور هي قدرتنا على التفكير في تلك الأحاسيس ، والذات حول قدرتنا على مجردة الشعور بأنفسنا كما هو موجود في الوقت المناسب. في الكثير من الحيوانات ، قد تحصل على طبقة أساسية من العلم دون التجربة أو الذات. ومن المثير للاهتمام ، مع الذكاء الاصطناعى قد نحصل على الكثير من هذه العلبة ، تلك القدرة العكسية ، وقد تحصل على أشكال من أنانية دون أي طلاب على الإطلاق.
العودة إلى الأعلى
بيرش: لن أقول إنه شريط منخفض بمعنى أنه غير مهتم. على العكس من ذلك ، إذا حقق الذكاء الاصطناعى المشاعر ، فسيكون هذا الحدث الأكثر استثنائية في تاريخ الإنسانية. سنقوم بإنشاء نوع جديد من الكائنات الحية. ولكن فيما يتعلق بمدى صعوبة تحقيقه ، فإننا لا نعرف حقًا. وأنا قلق بشأن إمكانية تحقيق الذكاء الاصطناعي عن غير قصد قبل أن ندرك أننا فعلنا ذلك.
للحديث عن الفرق بين العاطفة والذكاء: في الكتاب ، تقترح أن الدماغ الدماغ الدماغ الذي تم إنشاؤه بواسطة الخلايا العصبية قد يكون أقرب إلى المشاركة من نموذج اللغة الكبير مثل ChatGPT. هل يمكنك شرح هذا المنظور؟
بيرش: حسنًا ، في التفكير في الطرق المحتملة إلى الذكاء الاصطناعي ، الأكثر وضوحًا هو من خلال مضاهاة الجهاز العصبي للحيوان. وهناك مشروع يسمى OpenWorm يهدف إلى محاكاة الجهاز العصبي بأكمله لدودة النيماتودا في برامج الكمبيوتر. ويمكنك أن تتخيل ما إذا كان هذا المشروع ناجحًا ، فقد انتقلوا إلى فتح الذبابة ، الفأر المفتوح. وعن طريق الفأر المفتوح ، لديك محاكاة لدماغ يحقق العلم في الحالة البيولوجية. لذلك أعتقد أنه ينبغي للمرء أن يأخذ على محمل الجد احتمال أن يحقق المحاكاة ، من خلال إعادة إنشاء جميع الحسابات نفسها ، شكلًا من أشكال العلم.
العودة إلى الأعلى
هناك تقترح أن الأدمغة المحاكاة يمكن أن تكون عاطفية إذا كانت تنتج نفس السلوكيات مثل نظيراتها البيولوجية. هل هذا يتعارض مع آرائك حول نماذج اللغة الكبيرة ، والتي تقول إنها على الأرجح تحاكي فقط المشاعر في سلوكياتهم؟
بيرش: لا أعتقد أنهم مرشحون مرشحون لأن الأدلة ليست موجودة حاليًا. نواجه هذه المشكلة الضخمة مع نماذج اللغة الكبيرة ، وهي أنها تلعب معاييرنا. عندما تدرس حيوانًا ، إذا رأيت سلوكًا يوحي بالإحساس ، فإن أفضل تفسير لهذا السلوك هو أن هناك حقًا هناك. لا داعي للقلق بشأن ما إذا كان الفأر يعرف كل ما يمكن معرفته حول ما يجده البشر مقنعين وقرر أنه يخدم مصالحه لإقناعك. بينما مع نموذج اللغة الكبير ، هذا بالضبط ما يجب أن تقلق بشأنه ، أن هناك كل فرصة لتتمكن من الحصول على بيانات التدريب على كل شيء يجب أن يكون مقنعًا.
لذلك لدينا مشكلة الألعاب هذه ، مما يجعل من المستحيل تقريبًا إخراج علامات المشاعر من سلوكيات LLMs. تجادل بأننا يجب أن ننظر بدلاً من ذلك عن علامات حسابية عميقة أسفل السلوك السطحي. هل يمكنك التحدث عما يجب أن نبحث عنه؟
بيرش: لن أقول أن لدي حل لهذه المشكلة. لكنني كنت جزءًا من مجموعة عمل من 19 شخصًا في 2022 إلى 2023 ، بما في ذلك كبار من الذكاء الاصطناعى مثل Yoshua Bengio ، أحد ما يسمى من AI AI ، حيث قلنا ، “ماذا يمكن أن نقول في هذه الحالة من عدم اليقين العظيم عن الطريق إلى الأمام؟ ” كان اقتراحنا في هذا التقرير هو أننا ننظر إلى نظريات الوعي في الحالة البشرية ، مثل نظرية مساحة العمل العالمية ، على سبيل المثال ، ومعرفة ما إذا كانت الميزات الحسابية المرتبطة بتلك النظريات يمكن العثور عليها في الذكاء الاصطناعي أم لا.
هل يمكنك شرح ما هي مساحة العمل العالمية؟
بيرش: إنها نظرية مرتبطة ببرنارد بارز وستان ديهين والتي يكون الوعي لها علاقة بكل شيء يجتمع في مساحة عمل. لذا فإن المحتوى من مناطق مختلفة من الدماغ يتنافس على الوصول إلى مساحة العمل هذه حيث يتم دمجها ثم يتم بثها إلى أنظمة الإدخال وما بعدها إلى أنظمة التخطيط واتخاذ القرارات والتحكم في المحركات. وهي نظرية حسابية للغاية. لذلك يمكننا بعد ذلك أن نسأل ، “هل تلبي أنظمة الذكاء الاصطناعي في شروط هذه النظرية؟” وجهة نظرنا في التقرير هي أنهم لا يفعلون ، في الوقت الحاضر. ولكن هناك حقًا قدر كبير من عدم اليقين بشأن ما يجري داخل هذه الأنظمة.
العودة إلى الأعلى
هل تعتقد أن هناك التزامًا أخلاقيًا بفهم أفضل لكيفية عمل أنظمة الذكاء الاصطناعى هذه حتى نتمكن من الحصول على فهم أفضل للشخصية المحتملة؟
بيرش: أعتقد أن هناك ضرورة عاجلة ، لأنني أعتقد أن الذكاء الاصطناعي هو شيء يجب أن نخشىه. أعتقد أننا نتجه إلى مشكلة كبيرة للغاية حيث لدينا منظمة العفو الدولية بشكل غامض – وهذا يعني أن لدينا أنظمة الذكاء الاصطناعى هذه ، وهؤلاء الصحابة ، ومساعديهم ، وبعض المستخدمين مقتنعون بأنهم موثوقون ويشكلون روابط عاطفية وثيقة معهم. وبالتالي يعتقدون أن هذه الأنظمة يجب أن يكون لها حقوق. وبعد ذلك سيكون لديك قسم آخر من المجتمع يعتقد أن هذا هراء ولا يعتقد أن هذه الأنظمة تشعر بأي شيء. ويمكن أن يكون هناك تمزق اجتماعي كبير للغاية حيث تعارض هاتان المجموعتان.
تكتب أنك تريد تجنب البشر التي تسبب معاناة لا مبرر لها إلى الذكاء الاصطناعي. ولكن عندما يتحدث معظم الناس عن مخاطر الذكاء الاصطناعي المتقدم ، فإنهم أكثر قلقًا بشأن الضرر الذي يمكن أن تفعله الذكاء الاصطناعى للبشر.
بيرش: حسنًا ، أنا قلق بشأن كليهما. لكن من المهم ألا ننسى احتمال أن يعاني نظام الذكاء الاصطناعي. إذا كنت تتخيل ذلك المستقبل ، كنت أصف المكان الذي يقتنع فيه بعض الأشخاص رفاقهم من الذكاء الاصطناعى ، وربما يعاملهم بشكل جيد ، والبعض الآخر يفكرون بهم كأدوات يمكن استخدامها وإساءة معاملتها – ثم إذا أضفت الافتراض أن المجموعة الأولى على حق ، وهذا يجعله مستقبلًا فظيعًا لأنه سيكون لديك أضرار فظيعة تلحقها المجموعة الثانية.
ما نوع المعاناة التي تعتقد أن الذكاء الاصطناعي سيكون قادرًا على ذلك؟
بيرش: إذا كان ذلك يحقق العلم من خلال إعادة إنشاء العمليات التي تحقق المشاعر فينا ، فقد تعاني من بعض الأشياء نفسها التي يمكن أن نعاني منها ، مثل الملل والتعذيب. ولكن بالطبع ، هناك احتمال آخر هنا ، وهو أنه يحقق إحساسًا بشخصية غير مفهومة تمامًا ، على عكس العلم البشري ، مع مجموعة مختلفة تمامًا من الاحتياجات والأولويات.
قلت في البداية أننا في هذا الموقف الغريب حيث يمكن أن يحقق LLMs العجلة وحتى أنانية دون إحالة. من وجهة نظرك ، هل سيخلق ذلك ضرورة أخلاقية لمعالجتها بشكل جيد ، أم يجب أن يكون هناك إحساس؟
بيرش: وجهة نظري الشخصية هي أن العلم له أهمية هائلة. إذا كان لديك هذه العمليات التي تخلق شعورًا بالذات ، لكن هذه الذات لا تشعر بأي شيء على الإطلاق – لا يسعدني ، ولا ألم ، ولا ملل ، ولا حماسة ، لا شيء – لا أعتقد شخصياً أن النظام له حقوق أو موضوع القلق الأخلاقي. لكن هذه وجهة نظر مثيرة للجدل. بعض الناس يذهبون في الاتجاه الآخر ويقولون أن العجلة وحدها قد تكون كافية.
العودة إلى الأعلى
أنت تجادل بأن اللوائح التي تتعامل مع الذكاء الاصطناعي يجب أن تأتي قبل تطوير التكنولوجيا. هل يجب أن نعمل على هذه اللوائح الآن؟
بيرش: نحن في خطر حقيقي في لحظة التغلب عليها من خلال التكنولوجيا ، واللوائح ليست جاهزة بأي حال من الأحوال لما سيحدث. وعلينا أن نستعد لهذا المستقبل من الانقسام الاجتماعي الهام بسبب ظهور الذكاء الاصطناعى الغامض. لقد حان الوقت الآن للبدء في التحضير لهذا المستقبل لمحاولة إيقاف أسوأ النتائج.
ما هي أنواع اللوائح أو آليات الرقابة التي تعتقد أنها ستكون مفيدة؟
بيرش: وقد دعا البعض ، مثل الفيلسوف توماس ميتزنجر ، إلى وقف منظمة العفو الدولية تمامًا. يبدو أن ذلك سيكون من الصعب تحقيقه في هذه المرحلة. لكن هذا لا يعني أننا لا نستطيع فعل أي شيء. ربما يمكن أن تكون الأبحاث حول الحيوانات مصدر إلهام من حيث أن هناك أنظمة إشراف على الأبحاث العلمية حول الحيوانات التي تقول: لا يمكنك القيام بذلك بطريقة غير منظمة تمامًا. يجب أن تكون مرخصة ، ويجب أن تكون على استعداد للكشف عن المنظم بما تراه على أنه الأضرار والفوائد.
العودة إلى الأعلى
من مقالات موقعك
المقالات ذات الصلة حول الويب