هذا المقال هو عبارة عن تجميع للAI Yanxishe بلوق التكنولوجيا، والعنوان الأصلي:
مراجعة: ROR - ResNet من ResNet / متعدد المستويات ResNet (تصنيف صور)
الكاتب | سيك-هو تسانغ
الترجمة | ستيفن اثنين Gouzi
تصحيح التجارب المطبعية | صلصة الكمثرى فان مراجعة | جونسون لي يثير التشطيب | الأسماك وانغ لي
الرابط الأصلي:
https://towardsdatascience.com/review-ror-resnet-of-resnet-multilevel-resnet-image-classification-cd3b0fcc19bb
في هذه المقالة، ونحن نستعرض بإيجاز رور (المتبقية شبكة شبكة المتبقية). في معظم سيلة متقدمة لتعلم العميق وحصل على العديد من البطولات المعترف بها ResNet بعد النجاح، وهناك العديد من الباحثين على كيفية توسيع أو تحسين جعل ResNet دراسة، هناك ترتبط قبل تفعيل ResNet، ResNet في ResNet (RIR)، ResNet مع عمق العشوائية (SD)، واسعة المتبقية الشبكة (WRN). ResNet رور هو ورقة محسنة، وإدخال مفهوم مجموعة، ويرتبط مع وحدة لResNet قصيرة. هذا الابتكار يسمح للشبكة ليصبح متعدد المستويات نموذج هرمي ResNet. تم قبول هذه الورقة ظهرت للمرة الأولى في عام 2016 بعد ResNet، في عام 2017، وفي نهاية المطاف نشر TCSVT في عام 2018، كانت هناك عشرات من الاستشهادات.
تحتوي هذه المقالة على المحتوى:
مفهوم رور (المتبقية شبكة الدقة شبكة وحدة)
رور-م: عدد من المستويات م
إصدارات مختلفة من ROR
استنتاج
1.RoR (شبكة مخلفات شبكة المخلفات) مفهوم
ResNet الأصلية (من اليسار)، ROR (يمين)
ResNet الأصلية المعروضة في الجانب الأيسر العلوي، وكثير من الدقة كتلة سلسلة معا، وتشكل شبكة عميقة جدا.
في كتلة الدقة، هناك مسارين:
-
مسار الإلتواء، والالتواء لاستخراج الميزات.
-
اتصال قصير يحيل فيها إشارة الدخل يرتبط مباشرة إلى طريق الطبقة التالية.
مع ربما يتم تخفيض القصير اتصال مسار تختفي التدرج، لأن إشارة خطأ يمكن نشرها بسهولة أكبر إلى الطبقة الأمامية أثناء العودة نشر.
الجانب الأيمن من ROR أوصى هو مبين أعلاه، يمكننا أيضا أن تكون متصلا إلى وافر من الدقة بنات قصيرة. وبالإضافة إلى ذلك، يمكننا أيضا أن تنشئ مستوى آخر في مجموعة الاتصال القصير "لبنات المجموعة المتبقية".
ويرى المؤلف:
-
ورور دراسة هذه المسألة إلى بقايا تعلم رسم الخرائط المتبقية، والتي هي أبسط من ResNet الأصلية، وأسهل للتعلم.
-
وكتلة الطبقة العليا قد نشر المعلومات إلى كتلة طبقة الأساسية.
2.RoR-: عدد مستوى م
مستوى عدد م الوصف:
-
عندما م = 1، اتصال رور فقط مع المرحلة النهائية قصيرة، أي شبكة المتبقية الأصلية.
-
عندما يكون m = 2، ROR فقط على مستوى الجذر (الطبقة الخارجية) واتصال القصير المستوى النهائي.
-
عندما م = 3، ROR على مستوى الجذر، اتصال الوسيط والنهائي المستوى.
للموصل وسيطة، كل متصلا فترة قصيرة الدقة الكتل لديها نفس العدد من ملامح FIG.
لم = 4 و 5 تم اختبارها أيضا، ولكن لم يذكر تفاصيل عن ذلك في ورقة. النتائج ليست جيدة بما فيه الكفاية مقارنة م = 3.
إصدارات مختلفة من 3.RoR
وResNet الأصلي رور-3 (من اليسار)، ROR-3 تمهيدي ResNet أو استخدام WRN (يمين)
كما هو مبين أعلاه، وتكييفها رور لإصدارات مختلفة من ResNet.
-
ROR-3: الأصل ResNet وم = رور 3 من
-
قبل رور-3: ما قبل التنشيط ResNet المستخدمة وم = 3 رور
-
ROR-3-WRN: WRN واستخدام م = 3 رور
لفترة وجيزة، رور-3 باستخدام التحويل-BN-ReLU. قبل رور-3 باستخدام BN-ReLU-التحويل، وWRN هو أوسع وأقل عمقا قبل رور-3. (إذا كنت مهتما، يرجى قراءة تقييمي للResNet الأصلي، قبل تفعيل ResNet وWRN، ترى الأصلي).
4. نتائج
4.1 ثلاث مجموعات البيانات CIFAR-10، CIFAR-100، SVHN
-
CIFAR-10: البيانات تصنيف 10 من الدرجة
-
CIFAR-100: البيانات تصنيف 100 درجة
-
SVHN: شارع منزل رقم قواعد البيانات
CIFAR-10، CIFAR-100، واختبار نسبة الخطأ () على SVHN مجموعة البيانات
-
ROR-3-164: ROR طبقة 164 عن طريق تطبيق ResNet الأصلية،
(+ SD مؤشر عمق عشوائي، من أجل الحد من الإفراط في تركيب)، على التوالي 4.86 و 22.47 FER CIFAR 10 وCIFAR-100 مجموعات البيانات.
(نموذج 164 هو العمق.)
-
قبل رور-3-164 + SD: عن طريق استبدال وحدات الأصلي مع المتبقية قبل ResNet رور على التوالي CIFAR 10 نموذج ومجموعة البيانات CIFAR-100، 4.51 و 21.94 FER.
-
ROR-3-WRN40-4 + SD: عن طريق استبدال طبقة ما قبل ResNet 40 مع أوسع WRN40-4 CIFAR 10 على التوالي، ومجموعة البيانات CIFAR-100، 4.09 و 20.11 FER.
-
ROR-3-WRN58-4 + SD: 58 إلى طبقات أعمق WRN58-4، أعطيت نسبة الخطأ اختبار 3.77 و 19.73 من CIFAR 10 وCIFAR-100 مجموعات البيانات.
مجموعة البيانات 4.2 ImageNet
ImageNet: مجموعات البيانات على نطاق واسع في فئة ILSVRC 1000.
10 وTOP5 TOP1 نسبة الخطأ الهدف () على مجموعة البيانات ImageNet
ROR-3 طبقات من إصدارات مختلفة من طبقات مختلفة أفضل دائما من إصدار ResNet. هذه المقالة لديه تجربة التحقق التفصيلية. إذا كنت مهتما، يرجى زيارة الورق. استخدام طويلة وقصيرة ربط تخطي تخطي مثل كما تم تطبيقها على اتصال الطب الحيوي تجزئة الصورة. آمل أن أتمكن من الحديث عن هذا في المرة القادمة.
المرجعية ذات الصلة
الشبكات المتبقية من الشبكات المتبقية: الشبكات المتبقية متعدد المستويات
I التعليقات ذات الصلة بوين تصنيف الصور
وذلك بفضل لودوفيك Benistant.
أريد الاستمرار لعرضها روابط ذات صلة والمراجع؟ شبكة شبكة شبكة لى فنغ لى فنغ لى فنغ
انقر على [رور (ResNet من ResNet) - وهو متعدد المراحل المتبقية شبكة لتصنيف الصور] أو الضغط لفترة طويلة وصول عنوان الحزب :
https://ai.yanxishe.com/page/TextTranslation/1526
بيثون مجموعة كبيرة من الكتب الصينية
الصيني ه 100 بيثون، 6 أجزاء من شفرة المصدر، من الدخول إلى راهب بيثون، خدمة القطار.
يشمل الثعبان الأساسية، المتقدمة والزواحف والخوارزمية، والتعلم العميق، TensorFlow، NLP، الخ
نصائح: حجم الملف 2.89GB، والحذر المرور تحميل، يمكنك الأولى يو جمع ~ ~!
انقر على الرابط لتحصل على: الشبكي: //ai.yanxishe.com/page/resourceDetail/676