يشبه مختبر Naveen Verma في جامعة برينستون متحف من جميع الطرق التي حاول المهندسون جعلها فعالة للغاية من الذكاء الاصطناعي باستخدام الظواهر التناظرية بدلاً من الحوسبة الرقمية. على مقعد واحد يكمن كمبيوتر الشبكية العصبية الأكثر كفاءة في الطاقة التي صنعت على الإطلاق. ستجد في شريحة أخرى قائمة على الذاكرة التي يمكنها حساب أكبر مصفوفة من أعداد أي نظام AI التناظرية حتى الآن.
لا يوجد مستقبل تجاري ، حسب فيرما. أقل من ذلك ، هذا الجزء من مختبره هو مقبرة.
التناظرية من الذكاء الاصطناعي قد استولت على خيال المهندسين المعماريين للرقائق لسنوات. فهو يجمع بين مفهومين رئيسيين يجب أن يجعل التعلم الآلي أقل كثافة في الطاقة. أولاً ، يحد من حركة البتات المكلفة بين رقائق الذاكرة والمعالجات. ثانياً ، بدلاً من 1S و 0s من المنطق ، فإنه يستخدم فيزياء تدفق التيار لإجراء حساب مفتاح التعلم الآلي بكفاءة.
على الرغم من أن الفكرة كانت ، لم يتم تسليم العديد من مخططات AI التناظرية بطريقة يمكن أن تأخذ لدغة من شهية طاقة الذكاء الاصطناعي. سيعرف فيرما. لقد جربهم جميعًا.
لكن متى IEEE Spectrum تمت زيارته قبل عام ، كانت هناك شريحة في الجزء الخلفي من مختبر Verma والتي تمثل بعض الأمل في الذكاء الاصطناعى التناظرية والحوسبة الموفرة للطاقة اللازمة لجعل الذكاء الاصطناعى مفيدًا ومتأشقًا في كل مكان. بدلاً من الحساب مع التيار ، تلخص الشريحة الشحن. قد يبدو اختلافًا غير منطقي ، ولكن قد يكون مفتاح التغلب على الضوضاء التي تعيق كل مخطط AI التناظري.
هذا الأسبوع ، كشفت شركة Verma's Engrice AI النقاب عن الشريحة الأولى بناءً على هذه البنية الجديدة ، EN100. تدعي شركة بدء التشغيل أن الرقاقة تتناول العديد من العمل من الذكاء الاصطناعي مع الأداء لكل واط إلى 20 مرة أفضل من الرقائق المنافسة. تم تصميمه في بطاقة معالج واحدة تضيف 200 تريليون عملية في الثانية عند 8.25 واط ، والتي تهدف إلى الحفاظ على عمر البطارية في أجهزة الكمبيوتر المحمولة التي يمكن أن تكون قادرة على الذكاء الاصطناعي. علاوة على ذلك ، يتم استهداف بطاقة 4 شريحة ، 1000 تليليونات العمليات لكل ثانية لمحطات عمل الذكاء الاصطناعى.
الحالية والصدفة
في التعلم الآلي ، “لقد اتضح ، من خلال الحظ الغبي ، العملية الرئيسية التي نقوم بها هي مضاعفات المصفوفة” ، كما يقول فيرما. هذا يتخذ مجموعة من الأرقام بشكل أساسي ، وضربها بمجموعة أخرى ، وإضافة نتيجة كل هذه الضربات. في وقت مبكر ، لاحظ المهندسون مصادفة: يمكن لقاعدتان أساسيتان للهندسة الكهربائية القيام بهذه العملية بالضبط. يقول قانون أوم أنك تحصل على التيار من خلال ضرب الجهد والتوصيل. ويقول قانون كيرشوف الحالي إنه إذا كان لديك مجموعة من التيارات في نقطة من مجموعة من الأسلاك ، فإن مجموع هذه التيارات هو ما يترك هذه النقطة. لذلك ، في الأساس ، يدفع كل مجموعة من فولتية المدخلات التيار من خلال المقاومة (التوصيل هو عكس المقاومة) ، وضرب قيمة الجهد ، وتضيف جميع تلك التيارات لإنتاج قيمة واحدة. الرياضيات ، فعلت.
يبدو جيدا؟ حسنًا ، يتحسن. الكثير من البيانات التي تشكل الشبكة العصبية هي “الأوزان” ، الأشياء التي تضاعف من خلالها المدخلات. ونقل هذه البيانات من الذاكرة إلى منطق المعالج للقيام بالعمل مسؤول عن جزء كبير من إنفاق وحدات معالجة الرسومات الطاقة. بدلاً من ذلك ، في معظم مخططات AI التناظرية ، يتم تخزين الأوزان في واحدة من عدة أنواع من الذاكرة غير المتطايرة كقيمة توصيل (المقاومة أعلاه). نظرًا لأن بيانات الوزن هي المكان الذي يجب أن يكون فيه إجراء الحساب ، فلا يجب تحريكه بنفس القدر ، وتوفير كومة من الطاقة.
يعد الجمع بين الرياضيات المجانية والبيانات الثابتة الحسابات التي تحتاج فقط إلى ألف واحد من تريليون من جول من الطاقة. لسوء الحظ ، هذا ليس تقريبًا ما تقدمه جهود الذكاء الاصطناعى التناظرية.
المشكلة مع التيار
كانت المشكلة الأساسية مع أي نوع من الحوسبة التناظرية دائمًا هي نسبة الإشارة إلى الضوضاء. التناظرية الذكاء الاصطناعى لديها من قبل حمولة الشاحنة. تميل الإشارة ، في هذه الحالة إلى أن مجموع هذه الضربات ، يميل إلى أن تغمرها العديد من المصادر الممكنة للضوضاء.
يقول فيرما: “المشكلة هي أن أجهزة أشباه الموصلات هي أشياء فوضوية”. لنفترض أن لديك شبكة عصبية تمثيلية حيث يتم تخزين الأوزان كموصلات في خلايا RRAM الفردية. يتم تخزين قيم الوزن هذه عن طريق وضع جهد عالي نسبيًا عبر خلية RRAM لفترة زمنية محددة. المشكلة هي أنه يمكنك ضبط نفس الجهد بالضبط على خليتين لنفس الوقت من الوقت ، وستنتهي هاتان الخلايا مع قيم توصيل مختلفة قليلاً. والأسوأ من ذلك ، قد تتغير قيم التوصيل هذه مع درجة الحرارة.
قد تكون الاختلافات صغيرة ، ولكن تذكر أن العملية تضيف العديد من الضربات ، بحيث يتم تكبير الضوضاء. والأسوأ من ذلك ، يتم بعد ذلك تحويل التيار الناتج إلى جهد هو مدخل الطبقة التالية من الشبكات العصبية ، وهي خطوة تضيف إلى الضوضاء أكثر.
هاجم الباحثون هذه المشكلة من منظور علوم الكمبيوتر وفيزياء الجهاز. على أمل التعويض عن الضوضاء ، اخترع الباحثون طرقًا لخبز بعض المعرفة بمقلبات الأجهزة المادية في نماذج الشبكات العصبية الخاصة بهم. ركز آخرون على صنع الأجهزة التي تتصرف بشكل متوقع قدر الإمكان. IBM ، الذي أجرى أبحاثًا مكثفة في هذا المجال ، على حد سواء.
مثل هذه التقنيات تنافسية ، إن لم تكن ناجحة تجاريًا ، في أنظمة أصغر حجماً ، تهدف إلى توفير التعلم الآلي منخفض الطاقة للأجهزة على حواف شبكات إنترنت الأشياء. أنتجت AI Mythic AI المبكرة أكثر من جيل من رقاقة AI التناظرية ، لكنها تتنافس في حقل تنجح فيه رقائق رقمية منخفضة الطاقة.
بطاقة EN100 لأجهزة الكمبيوتر هي بنية رقاقة AI التناظرية الجديدة.السحر
يقوم محلول Engram بتجريد الضوضاء عن طريق قياس مقدار الشحن بدلاً من تدفق الشحن في تعويذة التعلم الآلي المضاعف. في AI التناظرية التقليدية ، يعتمد الضرب على العلاقة بين الجهد والتوصيل والتيار. في هذا المخطط الجديد ، يعتمد ذلك على العلاقة بين الجهد والسعة والشحن – حيث تساوي الشحن بشكل أساسي جهد أوقات السعة.
لماذا هذا الاختلاف مهم؟ يتعلق الأمر بالمكون الذي يقوم بالضرب. بدلاً من استخدام بعض الأجهزة الضعيفة والضعيفة مثل RRAM ، يستخدم Engram المكثفات.
المكثف هو في الأساس اثنين من الموصلات التي تشندويش عازل. الفرق الجهد بين الموصلات يسبب التهمة لتراكم واحد منهم. الشيء المفتاح لهم لغرض التعلم الآلي هو أن قيمتها ، السعة ، يتم تحديدها حسب حجمها. (المزيد من مساحة الموصل أو مساحة أقل بين الموصلات تعني المزيد من السعة.)
يقول فيرما: “الشيء الوحيد الذي يعتمدون عليه هو الهندسة ، في الأساس المساحة بين الأسلاك”. “وهذا هو الشيء الوحيد الذي يمكنك التحكم فيه بشكل جيد للغاية في تقنيات CMOS.” تقوم Engrice ببناء مجموعة من المكثفات ذات القيمة الدقيقة في طبقات النحاس المترابطة فوق السيليكون من معالجاتها.
يتم تخزين البيانات التي تشكل معظم نموذج الشبكة العصبية ، الأوزان ، في مجموعة من خلايا الذاكرة الرقمية ، كل منها متصل بمكثف. بعد ذلك يتم ضرب البيانات التي يتم تحليل الشبكة العصبية بواسطة بتات الوزن باستخدام منطق بسيط مدمج في الخلية ، ويتم تخزين النتائج كرسوم على المكثفات. ثم يتحول الصفيف إلى وضع حيث تتراكم جميع الشحنات من نتائج الضرب ويتم ترقيم النتيجة.
على الرغم من أن الاختراع الأولي ، الذي يعود تاريخه إلى عام 2017 ، كان لحظة كبيرة لمختبر فيرما ، إلا أنه يقول إن المفهوم الأساسي قديم جدًا. يقول: “يطلق عليه عملية Switched Capacitor ؛ اتضح أننا نفعل ذلك منذ عقود”. يتم استخدامه ، على سبيل المثال ، في المحولات التناظرية إلى الرقمية العالية. “كان ابتكارنا هو معرفة كيف يمكنك استخدامه في بنية تعمل في الحوسبة في الذاكرة.”
مسابقة
أمضى مختبر Verma و Engrice سنوات في إثبات أن التكنولوجيا كانت قابلة للبرمجة وقابلة للتطوير والمشاركة في تحسينها مع مكدس بنية وبرامج تناسب احتياجات الذكاء الاصطناعى التي تختلف اختلافًا كبيرًا عما كانت عليه في عام 2017. المنتجات الناتجة مع مطوري الوصول المبكر الآن ، والشركة-التي جمعت مؤخرًا 100 مليون دولار من Samsung Venture Vesterns ، والآخرين في الجولة الجولة في وقت مبكر.
لكن Engring يدخل مجالًا تنافسيًا ، ومن بين المنافسين كاهونا الكبير ، Nvidia. في حدث المطور الكبير في مارس ، أعلنت GTC ، NVIDIA عن خطط لمنتج كمبيوتر مدمج حول مجموعة CPU-GPU GB10 ومحطة العمل المبنية حول GB300 القادمة.
وسيكون هناك الكثير من المنافسة في مساحة الفضاء المنخفضة. بعضهم يستخدم حتى شكل من أشكال الحوسبة في الذاكرة. على سبيل المثال ، شاركت D-Matrix و Axelera من وعد AI التناظرية ، مما يؤدي إلى تضمين الذاكرة في الحوسبة ، لكنهما فعل كل شيء رقميًا. قام كل منها بتطوير خلايا ذاكرة SRAM مخصصة تخزن وتضاعف وتنفيذ عملية التجميع رقميًا أيضًا. حتى أن هناك ما لا يقل عن واحد من AI التناظرية أكثر التقليدية في هذا المزيج ، والتخلص.
فيرما هو ، مما لا يثير الدهشة ، متفائل. وقال في بيان “إن التكنولوجيا الجديدة” تعني الذكاء الاصطناعى المتقدمة والآمنة والشخصية يمكن تشغيلها محليًا ، دون الاعتماد على البنية التحتية السحابية “. “نأمل أن يوسع هذا بشكل جذري ما يمكنك فعله مع الذكاء الاصطناعي.”
من مقالات موقعك
المقالات ذات الصلة حول الويب