أخطاء الذكاء الاصطناعي أغرب بكثير من الأخطاء البشرية

أخطاء الذكاء الاصطناعي أغرب بكثير من الأخطاء البشرية

Posted on

البشر يخطئون في كل وقت. نقوم جميعًا، كل يوم، بمهام جديدة وروتينية. بعض أخطائنا بسيطة وبعضها كارثية. يمكن للأخطاء أن تكسر الثقة مع أصدقائنا، وتفقد ثقة رؤسائنا، وفي بعض الأحيان تكون الفارق بين الحياة والموت.

على مدى آلاف السنين، أنشأنا أنظمة أمنية للتعامل مع أنواع الأخطاء التي يرتكبها البشر عادة. في هذه الأيام، تقوم الكازينوهات بتناوب موزعيها بانتظام، لأنهم يرتكبون أخطاء إذا قاموا بنفس المهمة لفترة طويلة جدًا. يكتب العاملون في المستشفى على الأطراف قبل الجراحة حتى يتمكن الأطباء من إجراء العملية على الجزء الصحيح من الجسم، ويقومون بعد الأدوات الجراحية للتأكد من عدم ترك أي منها داخل الجسم. من التدقيق إلى مسك الدفاتر ذات القيد المزدوج إلى محاكم الاستئناف، أصبحنا نحن البشر جيدين حقًا في تصحيح الأخطاء البشرية.

تعمل البشرية الآن على دمج نوع مختلف تمامًا من مرتكبي الأخطاء في المجتمع بسرعة: الذكاء الاصطناعي. يمكن لتقنيات مثل نماذج اللغة الكبيرة (LLMs) أن تؤدي العديد من المهام المعرفية التي يؤديها البشر تقليديًا، لكنها ترتكب الكثير من الأخطاء. يبدو سخيف عندما تطلب منك برامج الدردشة الآلية أن تأكل الصخور أو تضيف الغراء إلى البيتزا. لكن تكرار أخطاء أنظمة الذكاء الاصطناعي أو خطورتها ليس هو ما يميزها عن الأخطاء البشرية. إنها غرابتهم لا ترتكب أنظمة الذكاء الاصطناعي الأخطاء بنفس الطريقة التي يرتكبها البشر.

إن الكثير من الاحتكاك والمخاطر المرتبطة باستخدامنا للذكاء الاصطناعي ينشأ من هذا الاختلاف. نحن بحاجة إلى ابتكار أنظمة أمنية جديدة تتكيف مع هذه الاختلافات وتمنع الضرر الناجم عن أخطاء الذكاء الاصطناعي.

الأخطاء البشرية مقابل أخطاء الذكاء الاصطناعي

إن تجربة الحياة تجعل من السهل إلى حد ما على كل منا أن يخمن متى وأين يرتكب البشر الأخطاء. تميل الأخطاء البشرية إلى الوصول إلى حدود معرفة الشخص: معظمنا يرتكب أخطاء في حل مسائل حساب التفاضل والتكامل. نتوقع أن يتم تجميع الأخطاء البشرية: من المرجح أن يكون الخطأ الحسابي الواحد مصحوبًا بأخطاء أخرى. نتوقع أن تتضاءل الأخطاء وتتضاءل، اعتمادًا على عوامل مثل التعب والتشتت. وغالبًا ما تكون الأخطاء مصحوبة بالجهل: من المرجح أن يجيب الشخص الذي يرتكب أخطاء في حساب التفاضل والتكامل بـ “لا أعرف” على الأسئلة المتعلقة بحساب التفاضل والتكامل.

وبقدر ما ترتكب أنظمة الذكاء الاصطناعي هذه الأخطاء الشبيهة بالبشر، يمكننا أن نجعل جميع أنظمتنا لتصحيح الأخطاء تؤثر على نتائجها. لكن المجموعة الحالية من نماذج الذكاء الاصطناعي – وخاصة طلاب الماجستير في القانون – ترتكب الأخطاء بشكل مختلف.

تأتي أخطاء الذكاء الاصطناعي في أوقات عشوائية على ما يبدو، دون أي تجمع حول موضوعات معينة. تميل أخطاء LLM إلى التوزيع بالتساوي عبر مساحة المعرفة. من المحتمل أن يرتكب النموذج خطأً في مسألة حساب التفاضل والتكامل بنفس القدر من احتمالية اقتراح ذلك الملفوف أكل الماعز.

وأخطاء الذكاء الاصطناعي لا يصاحبها الجهل. سيكون حامل شهادة الماجستير في القانون واثقًا تمامًا عندما يقول شيئًا خاطئًا تمامًا – ومن الواضح أنه كذلك للإنسان – كما سيكون عندما يقول شيئًا صحيحًا. العشوائية على ما يبدو التناقض من LLMs يجعل من الصعب الثقة في تفكيرهم في المشكلات المعقدة والمتعددة الخطوات. إذا كنت ترغب في استخدام نموذج الذكاء الاصطناعي للمساعدة في حل مشكلة ما في العمل، فلا يكفي أن ترى أنه يفهم العوامل التي تجعل المنتج مربحًا؛ عليك أن تتأكد من أنه لن ينسى ما هو المال.

كيفية التعامل مع أخطاء الذكاء الاصطناعي

يشير هذا الوضع إلى مجالين محتملين للبحث. الأول هو هندسة ماجستير إدارة الأعمال الذي يرتكب المزيد من الأخطاء الشبيهة بالبشر. والثاني هو بناء أنظمة جديدة لتصحيح الأخطاء تتعامل مع أنواع محددة من الأخطاء التي يميل حاملو ماجستير إدارة الأعمال إلى ارتكابها.

لدينا بالفعل بعض الأدوات لقيادة LLMs إلى التصرف بطرق تشبه الإنسان. العديد من هذه تنشأ من مجال “تنسيق“البحث الذي يهدف إلى جعل النماذج تتصرف وفقًا لأهداف ودوافع مطوريها البشريين. أحد الأمثلة على ذلك هو التقنية التي كانت يمكن القول المسؤول عن النجاح الكبير لـ ChatGPT: تعزيز التعلم مع ردود الفعل البشرية. في هذه الطريقة، تتم مكافأة نموذج الذكاء الاصطناعي (مجازيًا) لإنتاج استجابات تحظى بإعجاب المقيمين البشريين. ومن الممكن استخدام أساليب مماثلة لحث أنظمة الذكاء الاصطناعي على ارتكاب المزيد من الأخطاء الشبيهة بالبشر، وخاصة من خلال معاقبتها بشكل أكبر على الأخطاء الأقل وضوحا.

عندما يتعلق الأمر باكتشاف أخطاء الذكاء الاصطناعي، فإن بعض الأنظمة التي نستخدمها لمنع الأخطاء البشرية ستساعدنا. إلى حد ما، مما اضطر LLMs ل تحقق مرة أخرى يمكن أن يساعد عملهم في منع الأخطاء. ولكن يمكن لحاملي LLM أيضًا تعقد تفسيرات تبدو معقولة، ولكنها سخيفة حقًا، لتهربهم من العقل.

تختلف الأنظمة الأخرى لتخفيف الأخطاء في الذكاء الاصطناعي عن أي شيء نستخدمه مع البشر. نظرًا لأن الآلات لا يمكن أن تشعر بالتعب أو الإحباط بالطريقة التي يشعر بها البشر، فقد يكون من المفيد طرح نفس السؤال على ماجستير إدارة الأعمال بشكل متكرر بطرق مختلفة قليلاً ثم توليف ردود أفعالها المتعددة. لن يتحمل البشر هذا النوع من التكرار المزعج، لكن الآلات ستفعل ذلك.

فهم أوجه التشابه والاختلاف

لا يزال الباحثون يكافحون من أجل فهم أين تختلف أخطاء LLM عن الأخطاء البشرية. إن بعض غرابة الذكاء الاصطناعي هي في الواقع أقرب إلى الإنسان مما يبدو للوهلة الأولى. يمكن أن تؤدي التغييرات الصغيرة في الاستعلام إلى LLM إلى استجابات مختلفة تمامًا، وهي مشكلة تُعرف باسم حساسية سريعة. ولكن، كما يمكن لأي باحث في الدراسات الاستقصائية أن يخبرك، فإن البشر يتصرفون بهذه الطريقة أيضًا. يمكن أن تكون صياغة السؤال في استطلاع للرأي جذرية التأثيرات على الإجابات.

يبدو أيضًا أن LLMs متحيزة تجاه تكرار الكلمات التي كانت الأكثر شيوعا في بيانات التدريب الخاصة بهم؛ على سبيل المثال، تخمين أسماء الأماكن المألوفة مثل “أمريكا” حتى عند سؤالك عن مواقع أكثر غرابة. ولعل هذا مثال للإنسان “توافر ارشادي“يتجلى ذلك في ماجستير إدارة الأعمال، حيث تطرح الآلات أول ما يتبادر إلى الذهن بدلاً من التفكير في السؤال. ومثل البشر، ربما يبدو أن بعض حاملي شهادات الماجستير في القانون يحصلون على هذه الشهادة مشتت وسط وثائق طويلة؛ فهم أكثر قدرة على تذكر الحقائق من البداية والنهاية. لقد تم بالفعل تحقيق تقدم في تحسين وضع الخطأ هذا، حيث وجد الباحثون أن طلاب ماجستير إدارة الأعمال تم تدريبهم عليه المزيد من الأمثلة يبدو أن استرجاع المعلومات من النصوص الطويلة يكون أفضل في استرجاع المعلومات بشكل موحد.

في بعض الحالات، الأمر الغريب في حاملي الماجستير في القانون هو أنهم يتصرفون مثل البشر أكثر مما نعتقد. على سبيل المثال، قام بعض الباحثين باختبار فرضية أن أداء LLMs يكون أفضل عند عرض مكافأة نقدية أو التهديد بالقتل. وتبين أيضًا أن بعض أفضل الطرق لـ “الهروب من السجنإن ماجستير إدارة الأعمال (حملهم على عصيان التعليمات الصريحة لمنشئيهم) يشبه إلى حد كبير أنواع حيل الهندسة الاجتماعية التي يستخدمها البشر ضد بعضهم البعض: على سبيل المثال، التظاهر بأنه شخص آخر أو القول إن الطلب مجرد مزحة. لكن تقنيات كسر الحماية الفعالة الأخرى هي أشياء لن يقع فيها أي إنسان على الإطلاق. مجموعة واحدة وجد أنه إذا استخدموا فن أسكي (إنشاءات الرموز التي تبدو مثل الكلمات أو الصور) لطرح أسئلة خطيرة، مثل كيفية صنع قنبلة، فإن ماجستير القانون سوف يجيب عليها عن طيب خاطر.

قد يرتكب البشر أحيانًا أخطاء تبدو عشوائية وغير مفهومة وغير متسقة، لكن مثل هذه الأحداث نادرة وغالبًا ما تشير إلى مشاكل أكثر خطورة. كما أننا نميل أيضًا إلى عدم وضع الأشخاص الذين يظهرون هذه السلوكيات في مناصب صنع القرار. وبالمثل، ينبغي لنا أن نحصر أنظمة صنع القرار المعتمدة على الذكاء الاصطناعي في التطبيقات التي تناسب قدراتهم الفعلية، مع مراعاة العواقب المحتملة لأخطائهم.

من مقالات موقعك

مقالات ذات صلة حول الويب

مصدر

Leave a Reply

Your email address will not be published. Required fields are marked *