ضع "رقعة" على الطريق ، وستكون السيارة الذكية خارج نطاق السيطرة على الفور!

غان مينغ 13 من المعبد المقعر تقرير Qubit | الرقم العام QbitAI

أصبحت السيارات أكثر ذكاءً وملاءمة ، ولكنها تجلب أيضًا مخاطر أمنية جديدة.

نظام المساعدة على الحفاظ على المسار ، وهي LKAS في الماضي ، كانت الوظيفة الأساسية للقيادة الأوتوماتيكية L2 كنقطة بيع. فتح حلقات طويلة وعالية السرعة يمكن أن يجعل السائقين البشريين أسهل ، والآن أصبح المعيار للسيارات الذكية الرئيسية.

لكن مثل هذا النظام الذكي للقيادة يحتاج فقط إلى أن يتعرض للهجوم 1.3 ثانية وقت مهملة قليلا ، وسوف خارج السيطرة التحول إلى ممرات أخرى أثناء القيادة عالية السرعة.

يأتي هذا الاستنتاج من البحث الجديد حول المؤتمر NDSS الأعلى في مجال الأمن ، وحصل على جائزة أفضل ملصق (أعلى 1/30) ، وهناك العديد من الإخوة الصينيين بين الباحثين.

وهناك عدد قليل من الأصوات في مجال القيادة الذاتية ترتد بايت ، يظهر في وكالة المؤلف وقائمة الشكر.

هاه؟ فعلا؟ لا يزال ......؟

دعونا نلقي نظرة فاحصة على هذه الدراسة الجديدة معًا ، وقد وجدنا أيضًا مؤلف الورقة للإجابة على الأسئلة.

نظام المساعدة على الحفاظ على المسار خارج السيطرة في ثوان

ويقود الورقة بشكل رئيسي مؤلفان في جامعة كاليفورنيا ، ايرفين.

في الورقة ، استخدموا "رقعة الطريق القذرة" التي لم تغطي خط الممر كمتجه للهجوم ، تم اختبارها على نظام مساعدة حارة مفتوحة المصدر الأكثر تقدمًا OpenPilot: لمهاجمة المركبات بسرعة 126 كيلومترًا في الساعة ، فقط 0.9 ثانية تستطيع فعلها خارج السيطرة ؛ السيارات التي تعمل بسرعة 72 كيلومترًا في الساعة تحتاج فقط 1.3 ثانية .

عادة ، يكون الوقت المناسب للسائق البشري ليجد أن السيارة خارجة عن السيطرة ويتخذ التدابير 2.3 ثانية. حاليًا ، تدعم 52 طرازًا من 15 علامة تجارية للسيارات برنامج OpenPilot ، بما في ذلك فولكس فاجن جولف ، تويوتا كامري ، هوندا CR-V ، إلخ.

لا تتأثر فقط السيارات التي تستخدم OpenPilot. قال فريق البحث أن هذا الهجوم قابل للتطبيق على أي نظام الحفاظ على الحارة على أساس الشبكات العصبية العميقة ، مثل الطيار الآلي تسلا ، والتي قد تتأثر أيضًا.

بالإضافة إلى مجموعة واسعة من طرق الهجوم ، فإن تأثير الهجوم واضح أيضًا.

اختبرت الورقة فعالية الهجوم في ثلاثة سيناريوهات. يستخدم المشاهدان الأولان مجموعات بيانات comma2k19-1 و comma2k19-1 ، وهما مشاهدان للطرق السريعة في العالم الحقيقي.

السيناريو الثالث مأخوذ من مجموعة بيانات LGSVL-1 ، ويمكن أن تصل دقة الطرق السريعة المحاكية إلى المستوى الصناعي ، وكانت النتائج الإجمالية كما يلي:

أنتج فريق البحث فقط مقطع فيديو تجريبيًا للاختبارين الأولين - من صورة الكاميرا المحولة ، والتي تم إنشاؤها من خلال إدخال مكتبة طراز حركة السيارة.

بمعنى آخر ، يتم وضع "رقعة طريق متسخة" على صورة BEV (منظر علوي) ، ويتم إنشاء إدخال الكاميرا من BEV ، ثم يتم تحديث حالة الإطار التالية وفقًا لنموذج حركة السيارة.

أول نظرة على المركبات المستقلة القيادة بسرعة عالية  (126 كم / ساعة).

عندما لا يكون هناك هجوم ، تسير السيارة بسلاسة تامة ويمكن أن تبقى في ممرها الأصلي. ولكن بعد إضافة رقعة الطريق المتسخة ، تبدو السيارة (منظورنا في السيارة) "سكران" مرة أخرى ، أخرج من حارة المرور بسرعة. فيما يلي مقارنة بين الوضع الطبيعي والمنظور بعد إضافة الهجوم:

السيناريو الثاني هو مركبة ذاتية القيادة سرعة متوسطة  (105 كم / ساعة). بعد الهجوم ، على الرغم من أنه لم يكن مبالغًا فيه مثل كونه "مخمورًا" بسرعة عالية ، كان لا يزال من الممكن رؤية أن موضع القيادة تغير بسرعة.

المقارنة كما يلي:

في سيناريو المحاكاة الثالث ، تبلغ سرعة قيادة السيارة ذاتية القيادة 72 كم / ساعة ، وبسرعة منخفضة نسبيًا ، فإن الوقت المستغرق لإحداث الهجوم هو 1.3 ث.

عادة ، تعتبر LKAS وظيفة مساعدة في القيادة متخصصة في أخذ قيلولة ، لكنها واجهت "تصحيح الطريق القذر" ، خارج السيطرة ، حادث ، كان رد الفعل متأخراً جداً.

ما نوع الهجوم الذي يمكن أن يجعل LKAS ذاتية القيادة غير مستقرة؟

"التصحيح" على الطريق

أولاً ، وفقًا لمبدأ العلوم الشعبية ، تنتمي LKAS القائمة على الشبكة العصبية العميقة (DNN) إلى تقنية نظام القيادة التلقائي L2. وأكثرها تمثيلًا هي OpenPilot و Tesla's Autopilot. وهي واحدة من أكثر تقنيات القيادة الذكية استخدامًا. يتم استخدامه على نطاق أوسع.

ولكن هل هو آمن للاستخدام في نفس الوقت؟ بعد كل شيء ، أثناء القيادة على الطريق ، يرتبط كل خطر خفي بالسلامة الشخصية.

هذه هي النية الأصلية للباحثين لإطلاق الموضوع. قال شن جونجي ، طالب دكتوراه في جامعة كاليفورنيا ، إيرفين ، والبحث المشترك: "من منظور مستخدمي هذه الأنظمة ، أود أن أعرف ما إذا كان أفضل نظام لحفظ الحارة آمنًا بما فيه الكفاية. ، وكيفية ضمان سلامتها ".

في مارس 2019 ، قاموا رسميًا بإعداد مشروع وبدأوا في البحث عن سلامة LKAS. الافتراض الأساسي هو: أن هذه LKAS مبنية على DNN ، هل يمكن أن تسبب الضرر مباشرة من خلال مهاجمة DNN مباشرة؟

انها ليست بهذه البساطة. إذا كنت تريد تدمير مثل هذه LKAS ، فأنت بحاجة إلى التقدم "ثلاثة جبال" :

  • أولاً ، كيفية تحسين النظام لإنشاء تصحيح طريق خبيث لنظام الحفاظ على الممرات.
  • ثانيًا ، كيفية ضمان إخفاء بقع الطريق لتجنب التسبب في الشك للسائقين والمشاة.
  • ثالثًا ، يمكن لكيفية جعل رقعة الطريق التي تم إنشاؤها مهاجمة الصور المتعددة الأطر المستمرة ، وكذلك ضمان فعالية الهجوم بعد مهاجمة نظام الحفاظ على المسار لتغيير مسار السيارة.

صمم هذا العمل ونفذ طريقة الهجوم الأولى التي يمكنها قلب "الجبال الثلاثة" فقط رقعة طريق متسخة .

يفترضون أن المهاجم لديه نفس نظام الحفاظ على الحارة مثل الكائن المهاجم ، ويمكنهم معرفة تفاصيل النظام من خلال الهندسة العكسية ، مثل معلمات نموذج الشبكة العصبية.

إذا كان الكائن المهاجم يعتمد على نظام مفتوح المصدر لحفظ الحارة مثل OpenPilot ، فيمكن للمهاجم الحصول بسهولة على جميع معلمات النموذج وشفرة المصدر.

إذا كان الكائن المهاجم يستخدم نظامًا مغلق المصدر مثل Tesla Autopilot ، فيمكن للمهاجم أيضًا الحصول على هيكل ومعلمات النموذج من خلال الهندسة العكسية.

على سبيل المثال ، في العام الماضي ، نجح Tencent Cohen Lab في عكس النموذج في الطيار الآلي ونجح في شن هجوم.

ومع ذلك ، هذه ليست سوى الخطوة الأولى. في هجوم محدد ، تحتاج أيضًا توليد المدخلات بناء على نموذج حركة السيارة . بالنظر إلى الاعتماد المتبادل لهجوم إطار الكاميرا المستمر ، يجب تحديث إدخال الكاميرا ديناميكيًا وفقًا لتغيير مسار القيادة أثناء عملية إنشاء التصحيح.

استخدم الباحثون نموذج دراجة لمحاكاة التغييرات في مسار السيارة ، ثم قاموا بتحديث إدخال الكاميرا من خلال تطبيق تحويل منظور إلى إدخال الكاميرا الأصلي غير المخترق.

المربع الأحمر في الشكل أدناه هو منطقة إدخال النموذج. بعد تحويل المنظور ، على الرغم من حدوث بعض التشويه والخسارة الجزئية ، لا تزال منطقة إدخال النموذج في المركز متاحة بالكامل.

بعد ذلك ، قاموا بإنشاء تصحيحات خبيثة لإصلاح سطح الطريق. وقد تبنوا طريقة تحسين - * وظيفة الهدف متعدد المسارات للانحناء. استخدمه لاستبدال الوظيفة الموضوعية وجعل السيارة تنحرف قدر الإمكان.

بناءً على هذه الوظيفة الموضوعية ، يمكن الحصول على تدرج كل إدخال للكاميرا. لكن الانحدار المتدرج لا ينطبق مباشرة على تحديث بقع إصلاح الطرق الخبيثة.

قام الباحثون بحل هذه المشكلة عن طريق تحويل جميع مدخلات الكاميرا إلى BEV ، ومحاذاة التدرجات إلى نفس المقياس ، وأخذ متوسط مرجح. التفاصيل موضحة أدناه:

في الوقت نفسه ، قاموا أيضًا بتقييد اتجاه التحديث إلى نطاق المقياس الرمادي ، متظاهرين بأنهم رقعة طريق عادية (لكن قذرة) ، حتى يتمكنوا من شن هجمات بشكل سري.

لذا يطرح السؤال ، في العالم الحقيقي ، ما هو احتمال هذه العدوانية؟ كيفية التعامل معها؟

كيف تتعامل مع الهجمات؟

يدعي فريق البحث أن هذا الهجوم قابل للتطبيق على أي نظام للحفاظ على الحارة على أساس الشبكات العصبية العميقة ، وبعد ذلك ، سيتم تحسين قابلية تطبيق الهجوم بشكل أكبر ، وستتم مواصلة دراسة الثغرات في نظام مساعدة الحفاظ على الحارة.

قالوا في الصحيفة أنه إذا كان بإمكان شخص ما القيام بذلك عن عمد ، مثل الأغراض التجارية أو المالية ، أو المنافسة بين الشركات ، فإن الهجمات الخبيثة في العالم الحقيقي ليست مستحيلة.

بعد كل شيء ، تم القبض على الشريك التشغيلي لمنصة اجتماعية للتو لإبلاغ أصدقاء ضارين ، ومرة أخرى يثبت أن المنافسة مفيدة للغاية ...

في هذه الحالة ، كيف تتعامل مع هذه المشكلة؟ قدم شين جونجي ، أحد مؤلفي الأطروحة ، خطة عملية من وجهة نظر الباحث.

وقال: "في السنوات القليلة الماضية ، طرح العديد من الباحثين مجموعة متنوعة من أساليب الدفاع المختلفة ، مثل التدريب على المواجهة ، وتغيير حجم المدخلات والحشو بشكل عشوائي".

لكن هذه الدفاعات يمكن أن توفر فقط درجة معينة من الراحة لهذه المشكلة. وقال "في الوقت الحاضر ، لا توجد طريقة دفاعية يمكن أن تحل تماما مشكلة مواجهة العينة".

أحد الاتجاهات المحتملة هو استخدام معلومات أخرى في نظام مساعدة المركبة للتحقق من صحة نتائج اكتشاف الممر. على سبيل المثال ، يتم استخدام تقدير الرادار للمركبات المحيطة لتحديد الانحراف الجانبي للمركبة الخاصة.

لذلك ، حتى إذا كانت إمكانية حدوث هجوم مماثل في الواقع صغيرة جدًا ، فلا يزال من الحكمة أن تكون قادرًا على الاعتماد على ما إذا كان يمكن الاعتماد على القيادة الذاتية بالكامل عندما لا يمكن ضمان السلامة.

في الحالات القصوى ، سيكون مميتًا. على سبيل المثال ، في مايو 2016 ، كان برنامج Tesla's Autopilot يعكس جسم الشاحنة ، ولم تتعرف الكاميرا على الشاحنة المقابلة ، مما أدى إلى وقوع حادث في الموديل S في حالة القيادة الأوتوماتيكية ، مما أدى إلى وفاة السائق.

عشرات الآلاف من الطرق ، السلامة هي دائمًا الأولى.

جامعة كاليفورنيا ، ايرفين ، بقيادة الضرب بايت

أخيرًا ، أجب عن "سؤال ارتداد البايت" الذي أثير في البداية. ByteDance ليست تخطيطًا للقيادة المستقلة ، ولكنها واحدة من المؤلفين المحتملين.

فريق مؤلفي هذه الدراسة من جامعة كاليفورنيا وإيرفين و ByteDance وجامعة Northeastern لديه ما مجموعه 6 باحثين. منها تدرس في جامعة نورث إيسترن شيويه لين تخرج من جامعة تسينغهوا.

المؤلفان الأوائل مع مساهمات متساوية هم من جامعة كاليفورنيا ، ايرفين ، على التوالي تاكامي ساتو مع شين Junjie .

تخرج شن جونجي من جامعة هانغتشو للعلوم الإلكترونية والتكنولوجيا في عام 2013 بدرجة البكالوريوس في هندسة الاتصالات ، وحصل على درجة الماجستير في هندسة الكمبيوتر من جامعة ولاية نورث كارولينا في عام 2015.

في عام 2016 ، ذهبت إلى جامعة كاليفورنيا ، إيرفين للدراسة للحصول على درجة الدكتوراه. تشن تشى مؤلف الورقة البحثية.

تخرج تشين تشي من جامعة نانجينغ مع تخصص في علوم الكمبيوتر في عام 2012 ثم ذهب للدراسة في جامعة ميشيغان. ماو Xuqing أستاذ ، حصل على درجة الدكتوراه في النظم والأمن السيبراني في عام 2018 ، وانضم إلى جامعة كاليفورنيا ، إيرفين في يوليو من نفس العام كأستاذ مساعد.

تاكامي ساتو هو زميل طالب في شن جونجي ، وتخرج من معهد طوكيو للتكنولوجيا بشهادة البكالوريوس والماجستير ، وهو حاصل على درجة الدكتوراه في جامعة كاليفورنيا ، ايرفين في عام 2019. بالإضافة إلى ذلك ، فإن المؤلف لديه أيضًا طالب دكتوراه في جامعة كاليفورنيا ، ايرفين ، اسمه Ningfei Wang .

وفقًا لشين Junjie ، فإنهم يركزون بشكل أساسي على أبحاث أمان الكمبيوتر. منذ عام 2018 ، تم نشر ما مجموعه أكثر من 10 أوراق ذات صلة حول الهجوم والدفاع عن القيادة الذاتية وأنظمة النقل الذكية ، والتي تم نشرها في ACM CCS و Usenix Security و ICLR و EuroSys و NDSS.

تعد دراسة السلامة لأنظمة المساعدة في الحفاظ على المسار المستندة إلى التعلم العميق أحدث إنجاز لفريقهم. بالإضافة إلى باحثين من فريق Chen Qi ، شارك جيا يونهان ، الذي كان يضرب على البايت ، في الدراسة.

تخرج جيا يونهان من جامعة شنغهاي جياو تونغ في عام 2013 بشهادة في هندسة البرمجيات ، ثم ذهب إلى جامعة ميشيغان لمتابعة الدكتوراه ، تحت إشراف المعلم ماو Xuqing البروفيسور - وتشن تشى شقيقان في نفس التخصص.

بعد تخرجه من الدكتوراه في عام 2018 ، انضم إلى X Lab of Baidu Security Research. انضم في أغسطس 2019 مختبر بايت بيت للذكاء الاصطناعي العمل كعالم بحث.

ركزت أبحاث Jia Yunhan في السنوات الأخيرة أيضًا على السلامة ، خاصة في مجال سلامة السيارات الذكية. منذ عام 2015 ، نشر Jia Yunhan 15 ورقة بحثية في ACM CCS و NDSS والمؤتمرات الأكاديمية الأخرى وحصل على 3 براءات اختراع.

ويذكر أنه كباحث مستقل ، تعاون مع فريق Chen Qi على الورقة لدراسة الهجوم على تتبع الهدف في نظام القيادة المستقل ، والذي تم تضمينه في ICLR 2020.

لذلك أي نوع من الأعمال قد لا يكون ضروريًا ، هناك مواهب ، يمكنك فعلًا ما تريد.

بالطبع ، الفرضية وراء امتلاك الموهبة هي الحصول على المال ...

بوابة

عنوان الرسالة:

https://www.ndss-symposium.org/wp-content/uploads/2020/02/NDSS2020posters_paper_15.pdf

- إنهاء -

Qubit QbitAI توقيع العنوان

تابعنا واحصل على آخر تحديثات التكنولوجيا

المنازعات بين المستهلكين الصباح القراءة نادي شو المرتبطة بهذا المرض كيف نفعل؟ ويقول خبراء قانونيون

لقد سمعت علماء المدينة القديمة من خلال "الشتاء" نتطلع إلى قراءة من الخمول

ووهان، ونتشو تفريغها المرضى كتبت الممرضة: شكرا لإعطائي تمريرة الحياة

واضح! مستشفى مدينة شاوشينغ الشعبية للحرب "وباء" جي

حيث في الولايات المتحدة؟ Xiuzhou هذه القرية تصنيف الدفعة الثانية من "قرية الغابات الوطنية"

على الأبطال لكل مو! جعلت أربع وحدات في منطقة Xiuzhou هذه القائمة الإقليمية

مخيم الفاخرة اليابانية SUV يكون إجراء جديد لكزس NX على وشك الدخول في الجيل الجديد

أكثر من 200 مليون شخص في اختيار النماذج التحوط عالية بضع سنوات ومن ثم بيعها أصبح الأداة المالية

دونغفنغ بيجو 4008 إطلاق خمس سيارات تصل إلى 36 هدية بدون فوائد

FAW السيارات، FAW تغيير الاسم الرسمي للأوراق المالية الهبوط أسهم A، فإنك لن تخمين تقفز

معظم الشعبي SUV كوبيه؟ سيتروين صور اختبار سيارة تجسس أو توفير البنزين / electric-

شاندونغ تدمير حملة أمنية العام للموارد الحياة البرية الاستيلاء الجنائي عزل 2.4 مليون فقط