حصر تقدم تكنولوجيا الذكاء الاصطناعي عام 2016

نبذة عن الكاتب: أصر Zhao Yongke ، الاسم المستعار Bu Ju ، مدون CSDN ، على كتابة مدونات التكنولوجيا لمدة 8 سنوات. تعمل حاليًا في Alibaba Cloud Computing Co.، Ltd. ، وتشارك في تحسين خوارزمية الذكاء الاصطناعي وتصميم النظام على منصات غير متجانسة ، ويحب القراءة وألعاب NES. مؤلف كتاب "التعلم العميق: 21 يومًا من القهوة العملية".

إذا كان الناس لا يزالون يتساءلون عن التعلم العميق والذكاء الاصطناعي في عام 2015 ، معتقدين أن هذه كانت بداية جولة أخرى من الفقاعات ، فيمكن القول إن عام 2016 هو العام الذي أثر فيه الذكاء الاصطناعي بشكل شامل على حياة الناس. من AlphaGo إلى القيادة بدون طيار ، من الانتخابات الأمريكية إلى أجهزة الكمبيوتر الكمومية ، من توقع الذكاء الاصطناعي الصغير "أنا مغني" إلى برنامج الفضاء لماسك ، هناك صلة وراء كل حدث مركز بالذكاء الاصطناعي. بالنظر إلى تقنية الذكاء الاصطناعي في عام 2016 ، فإن انطباع المؤلف هو أنها عملية وذكية وقائمة على الشرائح وبيئية ، مما يجعلها في متناول الجميع. أدناه ، نأخذ وقتًا للتنسيق وتقييم التقدم التكنولوجي لهذا العام.

ألفاجو

من 9 إلى 15 مارس ، أصبح نجم الشطرنج AlphaGo مشهورًا في المعركة الأولى ، حيث هزم لاعب الشطرنج الكوري المحترف 9-dan Lee Sedol بنتيجة 4: 1. قطعة الشطرنج ، بعد الانتهاء من قطعة الشطرنج ، لا يمكن لقطعة الشطرنج تتحرك ، أثناء اللعبة ، تلتقط الأرض المحيطة القطعة ، ويحدد حجم "الأرض" المحيطة النتيجة).

في الواقع ، في وقت مبكر من أكتوبر 2015 ، فاز AlphaGo v13 بنسبة 5: 0 في لعبة Wufan ضد لاعب الشطرنج المحترف والبطل الأوروبي Fan Hui 2dan. في مسابقة 9-dan مع Lee Sedol ، كان الإصدار v18. بعد المباراة ، فاز AlphaGo بشهادة "رقم 001 الفخرية 9-دان" من أكاديمية الشطرنج الكورية. في 19 يوليو ، تجاوز AlphaGo Ke Jie في تصنيف GoRantings World Go وأصبح اللاعب رقم 1 في العالم.

عند رؤية سلسلة إنجازات AlphaGo المذهلة ، لا يسعنا إلا أن نسأل ، ما الذي جعل AlphaGo قادرًا على هزيمة البشر الذين تراكموا آلاف السنين من التاريخ في لعبة Go القديمة بمثل هذا القدر الكبير من الطاقة في فترة زمنية قصيرة ؟

الشكل 1 الشكل 1 المباراة بين AlphaGo و Lee Sedol

تم تطوير AlphaGo بواسطة DeepMind ، وهي شركة بريطانية للذكاء الاصطناعي استحوذت عليها Google في عام 2014. وخلفه يوجد نظام شبكة عصبية ، والذي يتصل بالعديد من مراكز البيانات كعقد ، ولكل عقدة عدة أجهزة كمبيوتر عملاقة. يعتمد هذا النظام على الشبكة العصبية التلافيفية (CNN) ، وهي شبكة عصبية تتمتع بأداء ممتاز في معالجة الصور على نطاق واسع ، وغالبًا ما تستخدم في التعرف على الصور بالذكاء الاصطناعي ، مثل بحث الصور من Google ، والتعرف على الصور من Baidu ، و Alibaba's Polaroid وغيرها. جميعها تستخدم الشبكات العصبية التلافيفية. يعتمد النظام وراء AlphaGo أيضًا على تقنية تسمى Deep Q-Learning (DQN). التعلم المعزز مستوحى من النظرية السلوكية في علم النفس ، أي كيف تقوم الكائنات الحية تدريجيًا بتشكيل توقع المحفزات تحت تحفيز المكافآت أو العقوبات التي تقدمها البيئة ، وتنتج سلوكيات معتادة يمكن أن تحصل على أكبر الفوائد. ليس ذلك فحسب ، يعتمد AlphaGo على خوارزمية Monte Carlo Tree Search ، والتي تتمتع بأداء جيد جدًا في الحكم على وظيفة القيمة للوضع الحالي ووظيفة السياسة لتحديد الخطوة التالية. باعتباره ذكاءً اصطناعيًا يعتمد على الشبكات العصبية التلافيفية وباستخدام نماذج التعلم المعزز ، فإن AlphaGo لديه قدرة كبيرة على التكيف وقدرة تعلم قوية. بالإضافة إلى ممارسة الألعاب و Go ، أدخل مشروع DeepMind Health الأخير الذكاء الاصطناعي في تشخيص الأمراض والتنبؤ بها. حماية أفضل لصحة الناس.

كيف يختلف نظام AlphaGo عن الكمبيوتر العملاق Deep Blue الخاص بشركة IBM والذي تغلب على خبير الشطرنج كاسباروف في القرن الماضي؟

تعدد خوارزميات الذكاء الاصطناعي في الشطرنج عمومًا جميع الحركات الممكنة وتسجيل المواضع. تنقسم قدرات الذكاء الاصطناعي بشكل أساسي إلى جانبين: الأول هو ما إذا كانت خوارزمية تسجيل الموقف معقولة ، والآخر هو عمق التكرار. في بداية الشطرنج ، يمكنك تحريك 8 بيادق (* 2) وحصانان (* 2) ، بإجمالي 20 حركة ، على الرغم من أنه سيكون هناك المزيد من الحركات من البداية إلى المنتصف ، لكن العدد الإجمالي هو العشرات ، وتحكم اللعبة على الموقف. تتم إضافة نقاط بسيطة للجنرالات ، وتضاف النقاط لمهاجمة الهادرونات ، ويتم تقليل النقاط عند التعرض للهجوم من قبل الجنرال أو الهادرون ، وتضاف النقاط لمن لديهم نطاق تحكم كبير. حكم جيد .

تحتوي كل نقطة على لوحة Go على ثلاث حالات: أسود وأبيض وفارغ. هناك 19 * 19 = 361 نقطة على السبورة ، وبالتالي فإن عدد الدورات الممكنة هو 3 إلى القوة 361 (من المتصور أنه منذ 13.7 مليار سنة مضت ) منذ بداية ما قبل الكون ، وضع 6 مليارات شخص 6 مليارات قرص يوميًا ، وحتى الآن ، لم يكن سوى أقل من جزء واحد من مليار مليار مليار).

لدى Go الكثير من الحركات للاختيار من بينها. في المرحلة المبكرة ، يمكنك القيام بكل الحركات ، وعند السرقة ، تحتاج إلى العثور على "مواد السرقة". التعقيد في الحكم على الموقف في Go أيضًا مرتفع جدًا ، لأن كل قطع الشطرنج لها مكانة متساوية ، وليس أن قطعة واحدة تحدد النتيجة ، ولكن كل قطعة تؤثر على الموقف بأكمله ، لذلك فهي تحتاج إلى تنسيق شامل واتخاذ قرار شامل . لا يستطيع AlphaGo حساب وظيفة المنفعة للوضع الحالي لـ Go ووظيفة الإستراتيجية بسرعة لتحديد الخطوة التالية فحسب ، بل يمكنه أيضًا دمج خوارزمية بحث شجرة Monte Carlo لإجراء تحليل متعمق للحصول على "الحل الأمثل" لـ اللعبة بأكملها. حقق AlphaGo قفزة نوعية من حيث التعقيد الحسابي وعمق اتخاذ القرار.

الملخص: قد تكون AlphaGo صورة AI تم إنشاؤها بواسطة Google PR ، لكنها كانت محاولة ناجحة للغاية وجذبت انتباه العالم. بالإضافة إلى هذه الإنجازات الرائعة ، لا يزال الإنذار التقني عملاً لا يمكن الاستهانة به ، بما في ذلك نموذج خوارزمية DQN ومنصة الأجهزة. سنخوض في مزيد من التفاصيل بعد ذلك.

التعلم العميق التعزيز DQN

التعلم المعزز هو أحدث تقدم في مجال التعلم الآلي في السنوات الأخيرة.

الغرض من التعلم المعزز هو تعلم كيفية اتخاذ السلوك الأمثل في الملاحظة المقابلة من خلال التفاعل مع البيئة. يمكن تحديد جودة السلوك من خلال المكافأة التي تمنحها البيئة. البيئات المختلفة لها ملاحظات ومكافآت مختلفة.

يتمثل الاختلاف الأكبر بين التعلم المعزز والتعلم الآلي التقليدي في أن التعلم المعزز هو نظام تعليمي مغلق الحلقة ، وأن السلوك المحدد بواسطة الخوارزمية سيؤثر بشكل مباشر على البيئة ، مما يؤثر بدوره على الملاحظات التي تم الحصول عليها من البيئة بعد الخوارزمية.

يقدم التعلم المعزز العديد من التحديات التي لا يواجهها التعلم الآلي التقليدي.

أولاً ، لأنه في التعلم المعزز لا توجد معلومات لتحديد الإجراء الذي يجب اتخاذه في كل لحظة ، يجب على الخوارزمية استكشاف الاحتمالات المختلفة لتحديد الإجراء الأمثل. تعتبر كيفية الاستكشاف الفعال مع عدد كبير من السلوكيات المحتملة قضية مهمة في التعلم المعزز.

ثانيًا ، في التعلم المعزز ، قد لا يؤثر السلوك على المكافأة في الوقت الحالي فحسب ، بل قد يؤثر أيضًا على المكافأة في جميع اللحظات اللاحقة.

في أسوأ الحالات ، لن يكافأ السلوك الجيد في الوقت الحالي ، ولكن فقط بعد تنفيذ العديد من الخطوات بشكل صحيح. في هذه الحالة ، من الصعب جدًا الحكم على أن المكافأة مرتبطة بالسلوك الذي حدث منذ عدة خطوات.

على الرغم من أن التعلم المعزز لديه العديد من التحديات ، إلا أنه يمكنه أيضًا حل العديد من المشكلات التي لا يستطيع التعلم الآلي التقليدي القيام بها. أولاً ، يمكن أن يعالج التعلم المعزز بشكل أكثر فعالية الحالات الخاصة الموجودة في البيئة لأنها لا تتطلب عملية شرح توضيحي. على سبيل المثال ، قد تكون هناك حالات خاصة للمشاة والحيوانات التي تعبر الطريق في بيئة مركبة بدون طيار. طالما أن جهاز المحاكاة يمكنه محاكاة هذه المواقف الخاصة ، يمكن للتعلم المعزز تعلم كيفية التصرف بشكل صحيح في هذه المواقف الخاصة. ثانيًا ، يمكن أن يأخذ التعلم المعزز النظام بأكمله ككل ، مما يجعله أكثر قوة بالنسبة لبعض وحداته. على سبيل المثال ، لا يمكن أن تكون وحدات الإدراك في القيادة الذاتية موثوقة تمامًا. منذ بعض الوقت ، كان سبب حادث تسلا بدون سائق هو فشل وحدة الاستشعار في بيئة الإضاءة القوية. يمكن للتعلم المعزز أن يفعل ذلك ، حتى عندما تفشل بعض الوحدات النمطية ، في التصرف بحكمة. أخيرًا ، يسهل التعلم المعزز تعلم مجموعة من السلوكيات.

تحتاج القيادة الذاتية إلى تنفيذ سلسلة من الإجراءات الصحيحة من أجل القيادة بنجاح. إذا كانت هناك بيانات مصنفة فقط ، فسيتم تعويض النموذج الذي تم تعلمه قليلاً في كل لحظة ، وقد يتم تعويضه كثيرًا في النهاية ، مع عواقب وخيمة. من ناحية أخرى ، يتعلم التعلم المعزز التصحيح التلقائي للتعويضات.

اختبرت DeepMind ذكاءها الاصطناعي مع خمس ألعاب Atari ، Pong و Arkanoid و Space Invaders و Seabed Rescue و Beam Rider ، ووجدت أنه بعد اللعبة ، أصبحت قدرة الشبكة العصبية على التحكم أكثر بكثير من أي لاعب معروف في العالم .

استخدم DeepMind نفس مجموعة الذكاء الاصطناعي لاختبار مشاريع المنافسة الفكرية المختلفة ، وحقق نتائج ممتازة ، وهو ما يكفي لإثبات مدى قوة قدرة التعلم لدى AlphaGo وهو جالس أمام Li Shishi.

الشكل 2 الشكل 2 شاشة لعبة أتاري

ملخص: إذا كان التعلم العميق يعادل طفلًا ينتظر إطعامه ، مما يتطلب من الناس إعداد كمية كبيرة من البيانات المغذية لإطعامها يدويًا ، فإن التعلم المعزز هو مراهق يتمتع بقدرة أساسية على الحياة ، متمرد ومستقل ، مليء بالعاطفة ، يحب التحديات ، وتتعلم المواجهة باستمرار لتنمو. على الرغم من أنه لا تزال هناك فجوة كبيرة مع الذكاء الاصطناعي الناضج ، فمن المؤكد أن هذه مجرد مسألة وقت.

جوجل TPU

في مؤتمر Google I / O في 18 مايو من هذا العام ، أعلنت Google عن حل ASIC مخصص لتسريع التعلم الآلي: وحدة معالجة الموتر (TPU). تم تصميم هذه الشريحة بواسطة مهندسي Google لتسريع برنامج TensorFlow ، كما أظهر TPU قوة كبيرة في AlphaGo. تم استخدام TPU لمدة عام في Google Cloud Voice و Gmail و Google Photos و Google Search دون إدراك المستخدم. مقارنةً بوحدات معالجة الرسومات (GPU) و FPGAs (FPGA) الحالية للسلع ، توفر TPUs أداءً أعلى لكل واط.

في معظم المؤسسات والمؤسسات البحثية ، يعد تصميم وبناء المعالجات الخاصة بالتطبيقات أمرًا ترفًا. يمكن أن يكلف تطوير حتى تصميم صغير للرقاقة ملايين الدولارات. تتمثل مزايا التصميم المخصص في أداء أفضل وكفاءة طاقة أفضل من المعالجات ذات الأغراض العامة. لموازنة الفواتير ، يلزم وجود حالات استخدام كبيرة الحجم وحجم النشر حتى يمكن تخفيف التكاليف. موفرو الخدمات السحابية يستوفون هذا الشرط بوضوح.

الشكل 3 صورة حديثة من Google TPU

الشكل 4 الكتلة مع Google TPU

الشكل 5 موقع إصدار معالج الشبكة العصبية العميقة الكمبري

تعتقد Google أن حجم التعلم الآلي لا يمكن التنبؤ به ، مما يجعل من الضروري بناء أجهزة متخصصة. بالطبع ، أثرت هذه الخطوة أيضًا على شركتي تصنيع الرقائق الرئيسيتين في العالم ، وهما Intel و NVIDIA ، ويجب أن يكون لدى الشركتين منافس أقوى في البحث والتطوير لمنتجات جديدة.

في العامين الماضيين ، كانت معالجات الذكاء الاصطناعي المحلية على قدم وساق. تستخدم بنية معالج الشبكة العصبية العميقة الأكثر شهرة في الكمبري الخلايا العصبية للأجهزة ومشابك الأجهزة كمشغلين ، وقد صممت بنية تخزين للاتصال عالي السرعة للأجهزة العصبية. الشبكات. مصممة خصيصًا بمجموعة تعليمات مختلفة تمامًا عن معالجات الأغراض العامة. يمكن دمج منتج IP للمعالج التجاري الذكي Cambricon-1A (Cambricon-1A) الذي تم إطلاقه حديثًا في مختلف شرائح SoC الطرفية ، ويمكنه معالجة 16 مليار خلية عصبية افتراضية في الثانية ، ولديه قدرة حوسبة قصوى تبلغ 2 تريليون خلية عصبية افتراضية في الثانية. الأداء أعلى بمرتين من المعالجات ذات الأغراض العامة ، واستهلاك الطاقة أقل من حيث الحجم. فاز المعالج بجائزة "الإنجاز العلمي والتكنولوجي الرائد على الإنترنت" في المؤتمر العالمي الثالث للإنترنت.

الملخص: لطالما احتكر عمالقة الرقائق تصميم وتصنيع معالجات الأغراض العامة. في السنوات القليلة الماضية من التطور السريع للذكاء الاصطناعي ، حولت البنى الجديدة والتطبيقات الجديدة تدريجياً الحق في التحدث في تصميم المعالج إلى إنترنت أكبر الشركات ، باستخدام مزايا الميزان ، وهياكل الحوسبة المخصصة لتلبية الطلبات المتزايدة ، وكتابة فصل جديد في تاريخ المعالجات.

القيادة الذكية

ترتبط السيارات بسفر الأشخاص وهي ضرورية كل يوم تقريبًا ، ويعتبر استخدام الذكاء الاصطناعي لتلبية احتياجات السفر محاولة جريئة. من حربي "ديدي" وحرب حرق الأموال "السريعة" في العام الماضي ، إلى اندماج الاثنين ، أكمل ديدي هذا العام الاستحواذ على أوبر الصين ، وتم توحيد برنامج سيارات الأجرة المحلي. من الناحية الفنية ، في الوقت الحاضر ، يتم استخدام البيانات الضخمة بشكل أساسي لتوجيه جدولة المركبات وتلبية احتياجات الركاب بتكلفة أقل. كما أصبحت الفوضى الناتجة عن سيارات الأجرة المكشوفة في أماكن مختلفة مرضًا مزمنًا في المنصة. كيفية استخدام التكنولوجيا للتغلب على نقاط ضعف الطبيعة البشرية مشكلة طبيعية. تتمثل إحدى الأفكار في استخدام الآلات بدلاً من البشر كسائقين.

أصبحت القيادة بدون طيار ، والذكاء الاصطناعي ، وما إلى ذلك من أحدث التقنيات في العالم ، وقد انتشر عمالقة التكنولوجيا مثل Google و Microsoft و Tesla وما إلى ذلك هنا ، مما يدل على ارتفاع قيمة البحث والتطوير والسوق الواسع للمركبات غير المأهولة.

بالإضافة إلى القيمة التجارية ، فإن القيمة الاجتماعية التي يمكن أن تحققها القيادة بدون سائق تكون أكثر إبداعًا.

بادئ ذي بدء ، من المتصور أنه في المستقبل ، ستكون تقنية القيادة بدون طيار ناضجة وسيتم تحرير أيدي الناس. عندما تسافر بالسيارة ، يمكنك الحصول على مزيد من الوقت للقيام بأشياءك الخاصة. بالنسبة للأشخاص ذوي الإعاقة ، فهي ذات مغزى أكبر ، حيث يمكنها تحسين كفاءة السفر بشكل فعال والعيش حياة نقل أكثر ملاءمة وسرعة.

ثانيًا ، إلى حد ما ، ستبتكر المركبات غير المأهولة طريقة النقل الحديثة وتحل مشكلة المرور والسلامة على الطرق. قال وانغ جين ، نائب الرئيس الأول لشركة بايدو والمدير العام لقسم القيادة الذاتية ، ذات مرة إن الذكاء الاصطناعي يستخدم عددًا كبيرًا من الخوادم والبيانات لتناسب قدرة القيادة لدى البشر. سيكون هذا النظام أعلى من جميع السائقين البشر وحتى المتسابقين. تأكد من سلامة القيادة. بالإضافة إلى السلامة ، تعد المركبات الذكية بدون طيار أيضًا مراكز توزيع بيانات ضخمة ، والتي يمكنها دائمًا نقل ظروف حركة المرور وظروف القيادة. بالإضافة إلى ذلك ، يمكن للمركبات غير المأهولة أن تعزز صناعة السيارات لتكون أكثر صداقة للبيئة ، مع تنشيط المزيد من الصناعات الناشئة ، ودفع التحديث الصناعي الجديد وتحول الصناعة ، وتعزيز المزيد من فرص العمل وتطوير المواهب عالية الجودة.

تسلا

في 20 أكتوبر من هذا العام ، أعلن ماسك أن جميع سيارات تسلا الجديدة ستزود بنظام أجهزة بقدرات كاملة للقيادة الذاتية ، Autopilot 2.0 ، ويشتمل هذا النظام على 8 كاميرات ، و 12 مستشعرًا بالموجات فوق الصوتية ، ورادار كشف أمامي. ستوفر الكاميرات رؤية بزاوية 360 درجة مع مسافة تعرف قصوى تبلغ 250 مترًا ، ستنظر ثلاثة منها إلى الأمام ، مما يوفر التكرار لضمان السلامة ؛ يمكن لأجهزة الاستشعار فوق الصوتية اكتشاف الأجسام الناعمة والصلبة ؛ بينما يمكن للرادار ضمان ذلك في الأمطار والضباب ، يعمل بشكل طبيعي في طقس الغبار والضباب.

الشكل 6 سيارة تسلا الداخلية

الشكل 6 سيارة تسلا الداخلية

تمت أيضًا ترقية الكمبيوتر داخل السيارة - يعتمد عقل النظام الجديد ، "Tesla Neural Net" ، على وحدة معالجة الرسومات Titan GPU من nVIDIA - القادرة على إجراء 12 تريليون عملية حسابية في الثانية ، أسرع من الجيل السابق من أجهزة الكمبيوتر داخل السيارة 40 مرة . قال ماسك إن ترقية الأجهزة سيتم تنفيذها على الفور وستكون قياسية في سيارات Tesla المستقبلية. بعبارة أخرى ، بدءًا من اليوم ، ستكون كل سيارة تسلا جديدة يتم إنتاجها ذاتية القيادة بالكامل.

مركبة بايدو بدون طيار

في المؤتمر العالمي الثالث للإنترنت ، الذي افتتح في 16 نوفمبر ، ظهرت مركبة بايدو غير المأهولة مرة أخرى. خلال المؤتمر ، تم تشغيل 18 مركبة بدون طيار من طراز Baidu على طرق حضرية مفتوحة لأول مرة في منطقة عرض المركبات الذكية والنقل الذكي على طريق Ziye ، مدينة Tongxiang. تعد تجربة تشغيل السيارة غير المأهولة من Baidu في Wuzhen هي المرة الأولى التي أدرك فيها Baidu تقنية القيادة بدون طيار من المستوى L4 دون تدخل يدوي في العملية برمتها في ظل حالة الطرق الحضرية المفتوحة.

في المؤتمر العالمي للإنترنت في Wuzhen في ديسمبر من العام الماضي ، عندما قام الرئيس Xi Jinping بتفقد Light of the Internet Expo ، قدم الرئيس التنفيذي لشركة Baidu Robin Li سيارة Baidu ذاتية القيادة إلى Xi Jinping.

في وقت مبكر من عام 2013 ، بدأت Baidu بالفعل تخطيط المشروع في المجال الحدودي.كانت المركبة غير المأهولة بقيادة معهد بايدو للأبحاث واستمرت لمدة عامين. بالاعتماد على التراكم التقني العميق في LBS ، والتعرف على الصور ، والبيانات الضخمة وغيرها من المجالات وقيادة تكنولوجيا الذكاء الاصطناعي ، وصلت أبحاث Baidu وتطوير المركبات غير المأهولة إلى مكانة رائدة في العالم.

Baidu Unmanned Driving هو المشروع البحثي الوحيد للقيادة المستقلة بالكامل في الصين الذي اجتاز المعيار الدولي للسلامة الوظيفية ISO26262. في ديسمبر من العام الماضي ، حققت مركبة بايدو غير المأهولة اختبارًا للطريق على الطريق الدائري الخامس ببكين ، بسرعة قصوى تبلغ 100 كيلومتر في الساعة ، وللمرة الأولى أدركت القيادة الأوتوماتيكية بالكامل في ظل ظروف الطرق المختلطة للمدن والطرق الدائرية والطرق السريعة ، ووضع العلامات. تطوير المركبات غير المأهولة في الصين ، ادخل مرحلة جديدة من المعالم.

بالنسبة للمركبات غير المأهولة ، يعد التطور التكنولوجي للذكاء الاصطناعي والتعلم العميق أمرًا بالغ الأهمية. أثناء عملية قيادة المركبات غير المأهولة ، ستجمع الكاميرات وأجهزة الاستشعار والمكونات الأخرى قدرًا كبيرًا من البيانات ، وتحتاج هذه البيانات إلى المعالجة والتحليل في الوقت الفعلي. من خلال قوة الحوسبة عالية الأداء ، والخوارزميات المتقدمة وأنظمة التعلم العميق ، يمكن أن تتكيف مع ظروف الطريق المحيطة في الوقت الحقيقي السيارات ذاتية القيادة.

من المفهوم أن Baidu لديها أول تقنية خرائط عالية الدقة ثلاثية الأبعاد تم تطويرها ذاتيًا في الصين ، والتي حققت دقة عالية. وفي الوقت نفسه ، لديها تقنية اقتناء الخرائط عالية الدقة المحلية الرائدة والمعالجة التلقائية ، ولديها الحصول على خرائط كاملة عالية الدقة ونظام معالجة أوتوماتيكي ، والتي يمكن أن تدعم الإنتاج على نطاق واسع لخرائط عالية الدقة. بالإضافة إلى ذلك ، أتقنت Baidu أيضًا تقنية تحديد المواقع عالية الدقة الرائدة محليًا في الوقت الفعلي لتحقيق دقة تحديد المواقع على مستوى السنتيمتر ، وهو أمر أعلى مرتين من دقة تحديد المواقع باستخدام نظام تحديد المواقع العالمي (GPS). "الريادة" في العالم في التقنيات الرئيسية.

الملخص: القيادة الذكية هي مشروع معقد ، يغطي العديد من المجالات مثل تصنيع السيارات ، والتحكم الآلي ، وأجهزة الاستشعار ، والذكاء الاصطناعي ، والمعلومات الجغرافية ، والحوسبة السحابية ، وأنظمة المرور ، والأخلاق الاجتماعية ، وما إلى ذلك ، وتتطلب معايير فنية قوية للغاية وسلوك مهن نبيلة.

تخطيط الذكاء الاصطناعي من إنتل

إنتل تستحوذ على نيرفانا

في 9 أغسطس ، أعلنت إنتل عن استحواذها على شركة Nervana Systems الناشئة. إن IP الخاص بـ Nervana وخبرتها في تسريع خوارزميات التعلم العميق يساعدان Intel على اكتساب موطئ قدم في مجال الذكاء الاصطناعي.

تقدم نيرفانا خدمات قائمة على السحابة للتعلم العميق ، وهي تستخدم برنامج نيون مطورًا بشكل مستقل يستخدم تحسينًا على مستوى التجميع ويدعم العديد من وحدات معالجة الرسوميات ، وتُستخدم خوارزمية Winograd في حسابات الالتفاف ، كما تم تحسين تحميل البيانات. تدعي الشركة أن نيون أسرع مرتين من أكثر أنواع الكافيين شيوعًا عند تدريب النماذج. ليس ذلك فحسب ، فإن Nervana على استعداد لإطلاق شريحة Nervana Engine المخصصة للتعلم العميق ، والتي يمكنها تحسين الأداء بمقدار 10 مرات في التدريب مقارنةً بوحدة معالجة الرسومات. على غرار Tesla P100 ، تستخدم هذه الشريحة أيضًا وحدة حوسبة ذات نقطة عائمة نصف دقيقة 16 بت وذاكرة ذات سعة كبيرة عالية النطاق الترددي (HBM ، المخطط لها أن تكون 32 جيجا بايت ، أي ضعف تلك الموجودة في P100 المنافسة) عدد العمليات الحسابية ذات الأغراض العامة غير المطلوبة للتعلم العميق.

على أساس الأجهزة ، أطلقت Nervana منصة Intel Nervana Graph (اختصارًا ngraph) في نوفمبر. يتكون إطار العمل من ثلاثة أجزاء: واجهة برمجة تطبيقات لإنشاء الرسوم البيانية الحسابية ، وواجهة برمجة تطبيقات أمامية للتعامل مع تدفقات عمل التعلم العميق الشائعة (حاليًا يتم دعم TensorFlow و Neon) ، وواجهة برمجة تطبيقات لتجميع وتنفيذ الرسوم البيانية الحسابية على CPU / GPU / Nervana Engine محول API.

في الوقت نفسه ، أعلنت عن إنشاء لجنة إنتل نيرفانا للذكاء الاصطناعي ، مع البروفيسور يوشوا بينجيو من جامعة مونتريال في كندا كعضو مؤسس.

الشكل 7 هندسة رقاقة محرك نيرفانا

الشكل 7 هندسة رقاقة محرك نيرفانا

في 17 أغسطس ، في قمة مطوري Intel (IDF) ، كشفت Intel عن معالج Xeon Phi جديد لتطبيقات التعلم العميق يسمى Knights Mill (والمختصر باسم KNM). إنها ليست منافسًا لـ Knights Landing و Knights Hill ، ولكنها مؤهلة للتنافس مع NVIDIA Tesla GPUs في الخدمات السحابية للشبكة العصبية.

الشكل 8 إطار ngraph

في 6 سبتمبر ، استحوذت إنتل على شركة Movidius لبدء تشغيل الرؤية الحاسوبية.

Movidius هو صانع شرائح ذكاء اصطناعي يوفر شرائح رؤية كمبيوتر منخفضة الطاقة. تم تجهيز Google Glass بشريحة رؤية للكمبيوتر من Movidius. يمكن استخدام رقائق Movidius في الأجهزة القابلة للارتداء والطائرات بدون طيار والروبوتات لإكمال المهام مثل التعرف على الهدف وقياس العمق. بالإضافة إلى Google ، وقعت Movidius اتفاقيات مع شركات محلية مثل Lenovo و DJI. تم استخدام معالجات رسومات سلسلة Movidius 'Myriad 2 بواسطة Lenovo لتطوير منتجات الجيل التالي من الواقع الافتراضي.

في 8 سبتمبر ، أعلنت محطة هانغتشو التابعة لمؤتمر Intel FPGA Technology (IFTD) عن مشروع الرقائق المتكاملة Xeon-FPGA. هذه هي أكبر خطوة تكامل بعد استحواذ Intel على Altera. ستطلق Intel منصة أجهزة تعتمد على بنية CPU + FPGA. ومن المتوقع أن يتم إنتاج النظام الأساسي بكميات كبيرة في عام 2017. في ذلك الوقت ، كانت وحدة المعالجة المركزية Xeon بهندسة Skylake و FPGA من Stratix10 "سيتم دمجه في واحد" "، من خلال التوصيل البيني المتماسك QPI Cache ، يمكن لـ FPGA الحصول على مسار بيانات ذو عرض نطاق عالي وزمن انتقال منخفض. في هذا النموذج ، تصبح FPGA نفسها جزءًا من وحدة المعالجة المركزية ، وحتى البرنامج الموجود على وحدة المعالجة المركزية لا يحتاج إلى "إدراك" وجود FPGA ، ويمكنه استخدام FPGA لتسريع بعض المهام الحاسوبية المكثفة عن طريق استدعاء mkl مباشرة مكتبة.

تم اختبار نماذج Xeon-FPGA في سبعة من كبار البائعين السحابيين في العالم (أمازون ، وجوجل ، ومايكروسوفت ، وفيسبوك ، وبايدو ، وعلي ، وتينسنت) لتسريع نقاط اتصالهم التجارية والبنية التحتية ، بما في ذلك التعلم الآلي ، وخوارزميات البحث ، وقواعد البيانات ، والتخزين ، والضغط والتشفير والتوصيل البيني عالي السرعة للشبكات ، إلخ.

بالإضافة إلى الحلول المتكاملة CPU + FPGA المذكورة أعلاه ، تمتلك Altera أيضًا حلولًا تعتمد على بطاقات تسريع PCIe.

الشكل 9 بنية الرقاقة المتكاملة Xeon-FPGA

الشكل 9 بنية الرقاقة المتكاملة Xeon-FPGA

تم الإعلان عنه في مؤتمر ISDF في 8 نوفمبر ، ومن المتوقع بيع مُسرع التعلم العميق (DLIA) العام المقبل. هذا المسرع هو حل برمجيات وأجهزة متكامل لتسريع التنبؤ (أي الحساب الأمامي) للشبكات العصبية التلافيفية. يعتمد البرنامج على مكتبة برامج Intel MKL-DNN وإطار عمل Caffe ، وهو مناسب للتطوير الثانوي ، وتوفر بطاقة التسريع FPGA المستندة إلى PCIe تسريع الأجهزة. سيتنافس هذا المنتج بشكل مباشر مع Google TPU و NVIDIA Tesla P4 / M4.

ملخص: إن إجراءات Intel في مجال الذكاء الاصطناعي (All in AI) ، وجميع الفئات (للتدريب والتنبؤ والخوادم المدمجة) والتغطية الواسعة (Xeon Phi و FPGA و ASIC) مثيرة للإعجاب. لا يعتبر تجمد ثلاثة أقدام يومًا باردًا ، ولا يزال أمام الترويج لأجهزة الذكاء الاصطناعي وبرامج المستوى الأعلى وتعميمها طريق طويل لنقطعه.

تخطيط الذكاء الاصطناعي من NVIDIA

يوضح تقرير أرباح NVIDIA أن مستخدمي التعلم العميق يمثلون حاليًا نصف مبيعات مركز البيانات ، بينما يمثل HPC حسابًا ثالثًا ، وحسابات المحاكاة الافتراضية (مثل أجهزة الكمبيوتر المكتبية الافتراضية) الباقي. يؤدي هذا أيضًا إلى دفع NVIDIA لتحسين أداء التعلم العميق بشكل مستمر فيما يتعلق بهندسة الأجهزة ومكتبات البرامج.تقوم الأمثلة النموذجية بتعظيم الأداء أحادي الدقة في معالجات Maxwell وإضافة وحدات حسابية نصف دقيقة في معمارية باسكال. على عكس HPC ، فإن برنامج التعلم العميق قادر على تحقيق إنتاجية أعلى بدقة أقل.

عمارة باسكال

في مؤتمر GTC (مؤتمر تكنولوجيا GPU) لعام 2016 في 5 أبريل ، أصدرت NVIDIA بطاقة رسومات باسكال (باسكال) ذات تقنية 16 نانومتر ذات القنبلة النووية الفائقة. يحتوي DGX-1 على 8 وحدة معالجة رسومات Tesla P100 مع نواة Pascal المعمارية GP100 ، وذاكرة SSD سعة 7 تيرابايت ، وذاكرة Xeon E5-2698 ذات 16 نواة وذاكرة DDR4 بسعة 512 جيجابايت ، وإمكانية معالجة النقطة العائمة نصف الدقيقة بقدرة 170TFLOPS ، واستهلاك الطاقة 3.2 كيلو وات. بسعر 129000 دولار ، إنه متوفر الآن.

في 13 سبتمبر ، أصدرت NVIDIA Tesla P4 و P40 في محطة GTC China Beijing. يعتمد هذان المعالجان أيضًا على أحدث هندسة Pascal ، وهي نسخة مطورة من M4 و M40 تم إصدارهما العام الماضي ، بما في ذلك الوحدات الوظيفية لحسابات التنبؤ بالتعلم العميق ، وإسقاط وحدات حساب النقطة العائمة ذات الدقة المزدوجة ذات 64 بت واستبدالها. لهم مع وحدة حسابية عدد صحيح 8 بت. المعلمات التفصيلية هي كما يلي.

شكل 10 مظهر DGX-1

شكل 10 مظهر DGX-1

Tesla P4 هي بطاقة نصف ارتفاع ونصف طول باستهلاك طاقة من 50 إلى 75 واط فقط ، وهو سهل التثبيت في خادم ويب موجود لتوفير خدمات تنبؤ فعالة. وفي الوقت نفسه ، يشتمل P4 على محرك واحد لفك تشفير الفيديو ومحركين لتشفير الفيديو ، وهو أكثر ملاءمة لخدمات التنبؤ القائمة على الفيديو.

يختلف Tesla P40 قليلاً عن P4 ، فهو يتميز بأداء مطلق عالي ومناسب للتدريب + التنبؤ. مقارنة بالجيل السابق M40 ، تم تحسين أداء Tesla P40 بمقدار 8 مرات عند استخدام تقييم GoogLeNet.

الشكل 11 مقارنة معلمات تسلا P4 / P40

الشكل 11 مقارنة معلمات تسلا P4 / P40

لا يزال Tesla P100 هو أنسب GPU للتدريب ، مع واجهة التوصيل البيني السريع NVLink متعددة GPU و HBM2. هذه الميزات غير متوفرة في P40 و P4 ، حيث لا تحتاجها وحدات معالجة الرسومات الموجهة للتنبؤ.

عائلة باسكال من P100 إلى P4 أسرع 40 إلى 60 مرة من الهندسة المعمارية كبلر قبل ثلاث سنوات.

بالإضافة إلى الأجهزة ، لم يدخر برنامج NVIDIA أي جهد.

الشكل 12 برنامج معمارية NVIDIA Pascal وتسريع الأجهزة

الشكل 12 برنامج معمارية NVIDIA Pascal وتسريع الأجهزة

cuDNN

مكتبة الشبكة العصبية العميقة NVIDIA CUDA (cuDNN) عبارة عن مكتبة معجلة من العناصر الأساسية للشبكات العصبية العميقة على وحدات معالجة الرسومات. يوفر cuDNN تطبيقات مُحسَّنة للغاية للوظائف القياسية (مثل الالتواء ، والاختزال ، والتطبيع ، وطبقات التنشيط ، والحساب الأمامي والخلفي لـ LSTMs). تدعم cuDNN حاليًا معظم أطر التعلم العميق المستخدمة على نطاق واسع مثل Caffe و TensorFlow و Theano و Torch و CNTK. تم تحسينه خصيصًا للحسابات التي يتم استخدامها بشكل متكرر ، مثل الالتواء 3x3 في نموذج VGG. دعم نظام Windows / Linux / MacOS ، ودعم بنية أجهزة Pascal / Maxwell / Kepler ، ودعم النظام الأساسي المدمج Tegra K1 / X1. تم التنفيذ باستخدام FP16 على معمارية باسكال لتقليل أثر الذاكرة وتحسين أداء الحوسبة.

TensorRT

TensorRT هو محرك تنبؤ للشبكة العصبية يوفر وقت استجابة أسرع ومناسب للنشر عبر الإنترنت لمنتجات تطبيقات التعلم العميق. يمكن للمطورين استخدام TensorRT لتحقيق تنبؤ فعال ، باستخدام حسابات منخفضة الدقة محسّنة لـ INT8 أو FP16 ، والتي يمكن أن تقلل زمن الوصول بشكل كبير.

الشكل 13 كيف يتم استخدام TensorRT

الشكل 13 كيف يتم استخدام TensorRT

يدعم DeepStream SDK تحليل فيديو التعلم العميق وفك التشفير والمعالجة المسبقة قبل إرسالها إلى محرك التنبؤ.

يتم استخدام كلتا مكتبتي البرامج مع وحدات معالجة رسومات Pascal.

الملخص: NVIDIA هي أول شركة مصنعة للأجهزة تبذل جهودًا في مجال الذكاء الاصطناعي ، لكنها لم تتوقف أبدًا عن تطوير البرامج واستكشافها ، وتطوير وتآكل وتوسيع مجال الذكاء الاصطناعي باستمرار. حاليًا ، غطت الأنظمة الأساسية للخادم / المضمنة ، مستهدفة مجالات متخصصة متعددة (مستقلة) للقيادة ، والصحة الطبية ، والحوسبة الفائقة) قوة تفجيرية قوية (يمكن رؤية ذلك أيضًا من مخزون NVIDIA هذا العام).

صعود FPGAs

FPGA (مصفوفة البوابة القابلة للبرمجة الميدانية) هي اختصار باللغة الإنجليزية لمصفوفة البوابة القابلة للبرمجة الميدانية. بعبارات بسيطة ، يشبه FPGA دائرة رقمية فارغة.يمكن للمطورين تصميم دائرة رقمية عن طريق كتابة رمز الأجهزة. بعد كتابة الكود ، على غرار عملية التجميع في كود البرنامج ، سينفذ مركب FPGA الكود. الطريق ، ثم قم بإنشاء ملف ثنائي. بعد برمجة هذا الملف الثنائي إلى FPGA ، تصبح FPGA الفارغة في الأصل دائرة صممها المطور ، وهو ما يعني "المجال" و "البرمجة". في الوقت نفسه ، يمكن محو FPGA وكتابته بشكل متكرر لتحقيق وظائف مختلفة عن طريق برمجة ملفات ثنائية مختلفة. لذلك ، FPGA هو نوع من الأجهزة بين دائرة متكاملة خاصة بالتطبيق (ASIC) ومعالج للأغراض العامة (CPU).

Xilinx و Altera هما أكبر بائعي FPGA في العالم ، ويمثلان معًا ما يقرب من 90 في المائة من السوق. في عام 2015 ، أكملت إنتل الاستحواذ على Altera مقابل 16.7 مليار دولار ، وأصبحت Altera التي تم الاستحواذ عليها هي قسم Intel Programmable Technology Division. هذا الاستحواذ كافٍ لإظهار أن Intel تولي أهمية كبيرة لدور FPGA في نظامها البيئي ، ويمكن ملاحظة أن تصميم Intel على التعاون مع FPGA لدخول مركز البيانات. يوضح الشكل 14 شريحة FPGA من Altera.

تاريخياً ، تم استخدام FPGAs على نطاق واسع في معالجة الإشارات ، والتحقق من ASIC وغيرها من المجالات كمنطق "لاصق". يعني ما يسمى بالمنطق اللاصق أنه عند توصيل وحدتين للأجهزة ، غالبًا ما يتم العثور على أن واجهة الجهاز وبروتوكول الاتصال لا يتطابقان. في هذا الوقت ، يمكن إضافة FPGA من المستوى الأول كمحول بروتوكول في الوسط تحقيق الاتصال ومشاركة الموارد بين الوحدتين دون الحاجة إلى تعديل تصميم البرامج والأجهزة للوحدة الأصلية. يعد Lattice FPGA (ICE5LP4K) المدمج في iPhone 7 مثل هذا الدور.

الشكل 14 صورة حديثة لـ Altera FPGA

الشكل 14 صورة حديثة لـ Altera FPGA

مع تحسين التكنولوجيا والتكامل المتزايد ، زادت موارد DSP داخل FPGA تدريجياً وأصبحت أقوى ، حتى تجاوزت وحدة المعالجة المركزية ووحدة معالجة الرسومات العادية.في هذا الوقت ، من المنطقي استخدام FPGA لتسريع الحوسبة. تتميز FPGAs بخصائص التخصيص العالي والتوازي الدقيق والاستهلاك المنخفض للطاقة ، والتي جذبت انتباه شركات الإنترنت. يدرس المزيد والمزيد من الناس كيفية الاستفادة من FPGAs في مراكز البيانات. مقيدًا بموارد الأجهزة ، يستخدم FPGA بشكل أساسي حوسبة نقطة ثابتة منخفضة الدقة (8 بت و 16 بت) ، لذلك فهو بشكل عام للتنبؤ بالشبكة العصبية بدلاً من التدريب.

من الجدير بالذكر أن وحدة معالجة الرسوميات GPU Tesla P4 منخفضة الطاقة من NVIDIA مخصصة أيضًا للتنبؤ ، وقد شكلت موقفًا متبادلًا مع FPGA. في مؤشرات الأداء المختلفة ، يسحق P4 أيضًا معظم أجهزة FPGA. أحد أسباب استخدام FPGA بدلاً من GPU هو أنه يمكن تخصيص أسلاك أجهزة FPGA ، وبنية GPU ميتة ، وتتطلب استثمارات متكررة لترقية الأجهزة ، على عكس FPGA التي يمكنها تحديث أسلاك الأجهزة لتحقيق ترقيات الأجهزة.

برمجة FPGA ليست مطور برامج عادي بأي حال من الأحوال. يتضمن تحديد تخطيط مستوى بوابة الشريحة. أدى الإدخال الأخير لـ OpenCL وتقنيات المترجم الأخرى إلى تقليل صعوبة تصميم FPGA بشكل كبير.

مايكروسوفت أزور

تستخدم Microsoft FPGAs على Azure لتسريع التعلم الآلي والتطبيقات والخدمات الأخرى المتعطشة للإنتاجية لأكثر من خمس سنوات. تم إطلاق مشروع Catapult لأول مرة في عام 2011. كان أول مشروع هبوط FPGA عبارة عن خوارزمية فرز بحث Bing ، والتي ضاعفت الإنتاجية وخفضت استهلاك الطاقة إلى 10. يتم استخدام الحجم الضخم للسحابة لاستهلاك التكلفة المنخفضة ، ويتم استخدام ميزات التخصيص التعسفي لـ FPGA لتلبية سيناريوهات التطبيق المختلفة ، ويمكن ترقية الأجهزة في الوقت الفعلي.

كان خادم Catapult الأصلي عبارة عن معالج Xeon ثنائي المقبس ذو 16 نواة + ذاكرة وصول عشوائي بسعة 64 جيجابايت ولوحة Altera Stratix V FPGA ، وقرص SATA سعة 2 تيرابايت ، ومحركا أقراص SSD بسعة 480 جيجابايت.

في أغسطس ، أصدرت Microsoft Catapult v2 ، والذي يتميز بـ FPGA متصل بوحدة المعالجة المركزية والذاكرة الرئيسية والشبكة. بهذه الطريقة ، يمكن لـ FPGA التواصل مباشرة مع FPGA آخر دون المرور عبر وحدة المعالجة المركزية. هذا التصميم أكثر ملاءمة للتوسع الأفقي. بالإضافة إلى تسريع تطبيقات الذكاء الاصطناعي ، تُستخدم FPGA أيضًا لتسريع مرافق شبكة Azure 25G. وفقًا لتقارير Microsoft ، يمكن لـ FPGAs تحقيق 1/10 كمون. نظرًا لقابليتها للتكوين الديناميكي ، يمكن لـ FPGA تسريع تطبيقات الشبكات وتطبيقات التعلم الآلي.

في 27 سبتمبر ، أعلن الرئيس التنفيذي لشركة Microsoft Satya Nadella والمهندس Doug Burger بشكل مشترك في مؤتمر Ignite في أتلانتا أن كل خادم سحابي Azure مزود بـ Altera FPGA (Catapult 2). في الجلسة التوضيحية ، يمكن لخادم مزود بـ 4 FPGAs ترجمة 1440 صفحة من الرواية الروسية الشهيرة "War and Peace" إلى اللغة الإنجليزية في 2.6 ثانية فقط ، بينما يستغرق خادم وحدة المعالجة المركزية 24 نواة 19.9 ثانية لإكمال نفس المهمة ويستهلك 60 واط ارتفاع استهلاك الطاقة. يستخدم خادم FPGA التوضيحي وحدة معالجة مركزية ذات 10 أنوية وأربع بطاقات تسريع FPGA تستند إلى Altera Stratix V D5 ، مع استهلاك طاقة يبلغ 30 وات وأداء معالجة يبلغ 7.9TOPS. يستغرق استخدام نفس خوادم FPGA الأربعة لترجمة جميع النصوص البالغ عددها 3 مليارات من النسخة الإنجليزية من ويكيبيديا إلى لغة أخرى 4 ساعات ، بينما تم تجهيز سحابة Azure بالكامل بـ FPGAs ، عندما يضع برجر كل طاقة حوسبة Azure تقريبًا (تقريبًا 1 EOPS) في الحوسبة ، يستغرق الأمر أقل من 0.1 ثانية.

الشكل 15 عرض ترجمة نصية مسرَّعة Azure FPGA

الشكل 15 عرض ترجمة نصية مسرَّعة Azure FPGA

Xilinx تستحوذ على Auviz Systems

أعلنت Xilinx في سبتمبر عن استحواذها على Auviz Systems ، وهي شركة ذات أبحاث فريدة في مجال الشبكات العصبية التلافيفية (CNN). تركز هذه الشركة التي يبلغ عمرها ثلاث سنوات فقط على التطبيقات المتسارعة في مراكز البيانات والأنظمة المدمجة ، وهي جيدة في الآلة خوارزميات التعلم والرؤية وتنفيذ FPGA.

توفر أنظمة Auviz بروتوكول IP للبرامج الوسيطة القائمة على FPGA لتقليل استهلاك طاقة التطبيق. بالنسبة للتطبيقات التي تتطلب أداءً عاليًا مع استهلاك منخفض للطاقة ، فإنها توفر مكتبات FPGA مثل AuvizCV و AuvizLA و AuvizDNN بالإضافة إلى المسرعات والخدمات المخصصة. بالنسبة إلى FPGAs ، تدعم مكتبة Auviz البرمجة باستخدام الأنظمة الأساسية C / C ++ أو OpenCL.

في الواقع ، استخدمت Shenjian Technology ، وهي شركة ناشئة محلية شهيرة في مجال الذكاء الاصطناعي مؤخرًا ، Xilinx FPGA لإكمال معالجة الالتفاف.أكد وانج يو ، مؤسس Shenjian Technology ، بشكل خاص على FPGA في خطابه في Xilinx University Planning Annual المؤتمر مزايا في تنفيذ الشبكة العصبية التلافيفية. تأسست DeePhi في مارس 2016. توفر DeePhi حلول التصميم المشترك للبرامج والأجهزة لتحقيق سير عمل كامل من الطراز إلى الأجهزة.

الشكل 16 يسرع AuvizDNN شبكة CNN

الشكل 16 يسرع AuvizDNN شبكة CNN

ملخّص: إذا كان لدى الشركات الكبيرة فقط ما يكفي من الموارد المالية والبشرية والمادية لتصميم شرائح ذكاء اصطناعي مخصصة ، فإن FPGA هو الخيار الأفضل لمعظم الشركات الصغيرة والمتوسطة الحجم ، مع تصميم مرن نسبيًا ، واستثمار منخفض التكلفة ، ووضع في السوق . الوقت إلى السوق أقصر. في مرحلة أجهزة الذكاء الاصطناعي ، سواء كانت Hot Chips أو SC16 أو ISSCC ، نرى المزيد والمزيد من حلول FPGA ، حيث نقدم مشهدًا كبيرًا من مائة زهرة تتفتح ومئات مدارس الفكر المتنافسة.

صعود الذكاء الاصطناعي المضمن

الغالبية العظمى من الأجهزة والبرامج التي تمت مناقشتها أعلاه موجودة على جانب الخادم ، سواء كانت Google TPU أو FPGA على Azure ، ناهيك عن عملاق مثل NVIDIA DGX-1. هذه المفاهيم "الطويلة" تبقي الناس العاديين على مسافة. ومعظم السيناريوهات التي ترتبط ارتباطًا وثيقًا بحياتنا مرتبطة بالأجهزة المحمولة والأجهزة المدمجة. تجدر الإشارة إلى أن الذكاء الاصطناعي على الأجهزة المضمنة أصبح أيضًا مشهدًا مشرقًا هذا العام. استثمرت العديد من الشركات الناشئة في هذا الجنون ، وتسعى جاهدة للجمع بين الذكاء الاصطناعي واحتياجات المستخدم المحددة لإنشاء منتجات ذكية أكثر فعالية من حيث التكلفة. أبطال مسابقة ILSVRC لهذا العام SenseTime و Hikvision ، المنتجات الرئيسية هي الأجهزة المدمجة ، والتي هي أيضًا جاهزة للذكاء الاصطناعي لتترسخ حقًا بين الجماهير.أعتقد أنه في غضون سنوات قليلة ، سيكون هناك المزيد والمزيد من الناس من حولنا. المزيد والمزيد من الأجهزة الذكية مثل الأساور الذكية ، والمنازل الذكية ، والأجهزة الصحية الذكية ، والدراجات الذكية ، والسيارات الذكية ، والسكرتارية الذكية تساعدنا على إكمال المهام الدقيقة والتافهة.

TensorFlow

روح AlphaGo هي TensorFlow. قبل عام ، جعلت Google برنامج TensorFlow مفتوح المصدر بالكامل. منذ نصف عام ، أصدرت Google جهاز TPU مخصصًا لتسريع TensorFlow. في عام واحد فقط ، تجاوزت 10000 التزام ، وأجرى Google Brain العديد من التحسينات في الأداء: دعم إضافي للتدريب الموزع ، ودعم الأنظمة الأساسية من iOS إلى Raspberry Pi ، ومجموعة واسعة من تكامل البنية التحتية للبيانات الضخمة Hadoop / Spark ؛ أصدر نموذج تصنيف الصور الرائد Inception ؛ حاليًا هو مشروع التعلم الآلي الأكثر شيوعًا ، ويستخدم على نطاق واسع في التعرف على الكلام والتعرف على الصور ومعالجة اللغة الطبيعية والعديد من مجالات التعلم الآلي والتعلم العميق الأخرى.

TensorFlow هو أول إطار عمل للتعلم الآلي يمكن تشغيله على الأجهزة المحمولة / المدمجة مثل iOS وأجهزة Android و Raspberry Pi. يتيح لك هذا تشغيل مصنف TensorFlow's Inception أو مصنف مخصص على هاتف به كاميرا ، فقط قم بتوجيه الكاميرا إلى ما تريد تصنيفه وسيخبرك TensorFlow بما تعتقد أنه هو.

رسام خرائط

في 8 أكتوبر ، أعلنت Google عن برنامج رسام الخرائط مفتوح المصدر ، وهو عبارة عن مكتبة ذات تقنية ثنائية وثلاثية الأبعاد للترجمة ورسم الخرائط (SLAM ، الترجمة المتزامنة ورسم الخرائط) التي يدعمها نظام ROS. تعد SLAM مكونًا مهمًا للعديد من منصات القيادة الذاتية ، مثل السيارات ذاتية القيادة والرافعات الشوكية الآلية في المستودعات والروبوتات الكاسحة والطائرات بدون طيار وما إلى ذلك. يمكن لرسام الخرائط إنشاء خرائط متسقة عالميًا في الوقت الفعلي على تكوينات أجهزة الاستشعار الشائعة في الصناعة والأوساط الأكاديمية. ذكرت Google في بيان رسمي أن خوارزمية SLAM تجمع البيانات من أجهزة استشعار متعددة ، مثل مستشعرات LiDAR lidar ووحدات القياس بالقصور الذاتي IMU وبيانات من كاميرات متعددة. بدمج هذه البيانات المعقدة ، يمكن حساب المستشعر والبيئة المحيطة به. يدعم رسام الخرائط الآن العديد من منصات الروبوت مثل Toyota HSR و TurtleBots و PR2 و Revo LDS.

كافيه تو جو

أعلن Facebook في 8 نوفمبر أنه سيفتح المصدر لنظام التعلم العميق Caffe2Go ، والذي يمكن تشغيله بالكامل على الهواتف الذكية ، بهدف جعل الذكاء الاصطناعي أكثر سهولة للمطورين. بالمقارنة مع TensorFlow ، فإنه بعد عام كامل. من أجل تشغيل العديد من الشبكات العصبية العميقة بكفاءة على أجهزة iOS و Android ، ضغط Facebook نماذج الذكاء الاصطناعي لمعالجة الصور والفيديو بمعامل 100. أخيرًا ، يمكن إكمال عملية التنبؤ بالذكاء الاصطناعي في أقل من واحد على عشرين من الثانية على بعض الهواتف المحمولة.

لا تعمل الأجهزة المضمنة دائمًا بشكل مستقل ، وستستخدم بعض المهام ذات التعقيد الحسابي العالي بنية المعالجة "السحابية + الطرفية". ويبلغ معدل دقة تحويل إدخال الصوت إلى نص 97. وخلفه يوجد نظام للتعرف على الصوت يعتمد على التعلم العميق ، وهو أمر يصعب تحقيقه فقط من خلال الاعتماد على محطة متنقلة. يمكن أن يؤدي التقسيم المعقول للمهام والتعاون "السحابي + الطرفي" لإكمال المهام المعقدة إلى تحسين تجربة المستخدم بشكل كبير.

ملخص: من المتوقع أن يكون هناك المزيد من الأجهزة المدمجة وتطبيقات الأجهزة المحمولة المزودة بوظائف الذكاء الاصطناعي في المستقبل ، مما سيقصر المسافة بيننا وبين الذكاء الاصطناعي ويصبح أصدقاء حميمين لا ينفصلان. ربما في يوم من الأيام بالكاد يمكنك معرفة ما إذا كان أصدقاؤك في WeChat بشرًا أم من الذكاء الاصطناعي.

لخص

2016 هو "العام الأول للقيادة الذكية" و "العام الأول لأجهزة الذكاء الاصطناعي" و "العام الأول من التعلم المعزز" و "العام الأول للذكاء الاصطناعي المضمن". ستقودنا ثلاثية الخوارزمية وابتكار النماذج وتسريع الأجهزة وابتكار التطبيقات إلى عصر أكثر ذكاءً بسرعة عالية.

3299 يوان! الدخن MIX 3 تبدأ في وقت واحد على بيع البلاد اليوم: المشهد الساخن

كشفت مرسيدس بنز CLA الرقم رسمي صدر البرتقال الإعصار ضرب CES رسميا

HAY إدخال الإضاءة الجديدة، ولعب مصابيح ذراع التوازن ومصادر الضوء | هذا التصميم العظيم

GAN دليل دراسة: تجريبي ولدت من الدخول إلى مبادئ الإنتاج

نكتة يوم كذبة ابريل يمكن رسميا، ولكن معظم المسوقين مفقودة نقطة من المفاجآت

نجم السينما الكبار: عدد Guenduozi هذا أكثر مما لدي على الاستلقاء العام

Baojun 530 تستحق الشراء؟ بعد السفر 3000 كيلومترا، وأصحاب يقول اعتراف صحيح!

علي بابا خدمة قاعدة بيانات وزعت DRDS R & D عملية

تم النرويج دعا أطول مبنى البناء الخشبية الهيكلية في العالم، سوف الشاهقة تكون أكثر وأكثر مماثل لذلك؟

لا إرم ما هو الفرق مع الأسماك المملحة، وعلى السيارات ذكر، والطريقة انج في نهاية المطاف 380

التخطيط في نهاية العام ماراثون | تريد تجنب "خطوة على الألغام" انها بالتأكيد عشر مباريات قيمتها يمكنك المشاركة في سباق الماراثون

العراق قبل 3-0 الفريق في التأهل اليمن، بعد 00 مراهقا كسر