الجهاز لا تعلم: عمق حبات التفاف التفاف نموذج 1X1 لا تسألوا أصدقاء

الجهاز لا تعلم www.jqbxx.com: عمق تعلم الآلة البلمرة، خوارزميات التعلم عميقة والتقنيات القتالية

دعونا نتحدث عن بضعة يدخل عدة العمارة الكلاسيكية التفاف الشبكة العصبية، وهي LeNet، AlexNet، VGGNet. ثم نتحدث عن تحديدا نواة الإلتواء من الأشياء ...

LeNet-5:

LeNet 5 تم تصميمه بشكل رئيسي لمقياس الرمادية، بحيث مساهمة صغيرة، ل32 * 32 * 1، والبنية التالية:

في LetNet، هناك النمط الكلاسيكي:

  • شبكة مع زيادة العمق، وانخفاض حجم الصورة، في حين أن عدد من القنوات يتزايد، طبقة بعد كل التفاف متصلة طبقة الخلايا.

AlexNet:

AlexNet مباشرة على معالجة الصور الملونة الكبيرة، وهيكلها هو كما يلي:

  • وLeNet ما شابه ذلك، ولكن كان أكبر هيكل الشبكة، وأكثر من المعلمات، وحتى أفضل، واستخدام Relu، واستخدام وحدات معالجة الرسومات المتعددة؛ LRN (وجدت في وقت لاحق أقل فائدة، التخلص منها)

AlexNet التعلم عمق بجعل اهتماما كبيرا في رؤية الكمبيوتر.

VGG-16:

2. ResNet

هي التي شيدت ResNet من قبل كتلة المتبقية. كتلة المتبقية، ما يلي هو انتقال كتلة العام للشبكة العصبية:

إلى الأمام نشر خطوة الحساب وهو:

ResNet التي ستعمل على منع انتشار زيادات عملية من مباشرة إلى  الصدد، وهو ما يسمى "اختصار" أو "تخطي اتصال":

وهذا هو خطوة إلى الأمام تصبح انتشار الماضي المعادلة:

بعد زيادة "اختصار الطريق"، وهيكل الشبكة يصبح كتلة المتبقية:

لاحظ أن يرتبط هذا قبل الدالة تفعيل Relu.

شبكة المتبقية:

مكدسة معا لتشكيل كتل تعدد المتبقية هيكل الشبكة ResNet، الذي هيكل هو كما يلي:

لا "اختصار" شبكة العصبية العادية ومنحنى خطأ ResNet:

  • بشكل عام لا توجد شبكة العصبية المتبقية، الخطأ هو في الواقع تدريب الشبكة مع تعميق عدد من الطبقات، أولا النقصان ثم تزيد، وResNet المتبقية لها، حتى لو كانت شبكة عميقة جدا، وطبقة الشبكة وتدريب الخطأ تعميق انخفاض عدد.

ResNet للوسط وظيفة التنشيط، أنه يساعد على أن تكون قادرة على الوصول إلى شبكة أعمق، حل المشاكل تختفي التدرج وانفجار الانحدار.

3. ResNet السبب أداء جيدة

لنفترض أن هناك شبكة عصبية كبيرة، المدخل هو العاشر، والناتج هو  . إذا كنا نريد أن زيادة عمق الشبكة، حيث ارتفعت الشبكة لإعطاء كتلة المتبقية:

حتى يمكننا أن نرى من النتائج المذكورة أعلاه، لكتلة المتبقية لمعرفة وظيفة هوية فوقه من السهل جدا. ولذلك، فإن الزيادة في الكتل المتبقية أداء أعمق ليست أقل شأنا من الشبكة دون زيادة المتبقية شبكة كتلة بسيطة. ذلك على الرغم من الزيادة في عمق الشبكة، ولكن لا يؤثر على أداء الشبكة. وإذا تزايد بنية الشبكة يمكن معرفة بعض المعلومات المفيدة، فإنه سيتم تحسين أداء الشبكة.

 نفس الأبعاد.

عمق العام للشبكة العصبية يصبح ResNet:

زيادة "تخطي اتصال" بين طبقتين من نفس الإلتواء.

4. 1x1 والإلتواء

كل عنصر في التفاف ثنائي الأبعاد ما يعادل الصور التفاف نواة وتتضاعف الرقمي.

ومع ذلك، في ثلاثة أبعاد، و1 * 1 * نورث كارولاينا التفاف نواة الالتواء غير يعادل 1 * 1 * نورث كارولاينا أقسام على صورة ثلاثية الأبعاد، أي قيمة نورث كارولاينا نقاط مضروبا الأوزان الإلتواء، وظيفة من الناتج Relu نتائج المقابلة. مختلفة التفاف النواة ما يعادل مختلفة نقطة تقاطع العصبية على أقسام مخفية متصلا واحدا تلو الآخر.

وذلك أساسا تطبق ما يعادل 1 * 1 الإلتواء وحدات NC على شريحة لشبكة العصبية مرتبطة ارتباطا كاملا.

لتطبيقات الرسومات النهائية ثلاثية الأبعاد التفاف نواة 1 * 1 للحصول على البعد الثالث يصبح نفس الطول والعرض ولكن عدد من صور التفاف النواة.

1X1 تطبيق الإلتواء:

  • تخفيض أبعاد: عدد 1X1 التفاف النواة باستخدام البعد الهدف. زيادة الخطي: لا تزال نفس العدد الأصلي من الأبعاد النووية للالتفاف 1X1.

5. شبكة التأسيس

تأثير شبكة إنشائها هو جعل منا لا تحتاج إلى أخذها في الاعتبار عند بناء عمق التفاف الشبكة العصبية، وذلك باستخدام الكثير من نواة الالتواء وعما إذا كان لإضافة طبقة تجميع السؤال.

التأسيس الهيكل الرئيسي:

التأسيس والتكوين أعلاه، وتطبيق نواة الالتواء مختلفة، وتجمع مع طبقة الحشو. في حالة الحفاظ على نفس حجم الصورة المدخلات، عن طريق إضافة نتيجة عملية مختلفة، مما يزيد من عدد من القنوات.

حساب تكلفة من الأسئلة:

لحجم أعلاه 5 * 5 بحساب تكلفة نواة الالتواء:

لحساب تكلفة 1 * 1 يتم استخدام حجم التحول التفاف النواة أيضا الطبقة المتوسطة التالية تسمى "طبقة عنق الزجاجة":

حتى 11 * كما التفاف "طبقة عنق الزجاجة" الطبقة الانتقالية يمكن أن تقلل من كفاءة التكلفة الحسابية من الشبكة العصبية التلافيف. لقد أثبتت الوقائع أنه طالما مجموعة "طبقة عنق الزجاجة" معقولة، وليس فقط يمكن أن تقلل بشكل كبير من حجم الجزء العلوي، في حين خفض تكلفة الحسابية، حتى لا تؤثر على أداء الشبكة.

وحدات التأسيس:

وقالت الأفكار الرئيسية اثنين وأنماط المذكورة أعلاه وانضمت معا وحدة التأسيس تكوين على النحو التالي:

بداية الشبكة:

وتستخدم مجموعة من عدد وافر من وحدات التأسيس التأسيس الشبكة، GoogleNet البنية التالية:

6. التعلم نقل

مجموعات البيانات الصغيرة:

اليوم، على عمق مجال الدراسة، فإن العديد من الباحثين مشاركة عملهم إلى الشبكة. عندما ننفذ العمل الخاصة بك، على سبيل المثال، والقيام ببعض نوع من الاعتراف وتصنيف الأشياء، ولكن فقط عدد قليل من مجموعات البيانات، لبدء التدريب من الصفر عمق بنية الشبكة ليست كافية.

ولكن يمكننا أن نتعلم الترحيل التطبيق، نموذج الطلب وغيرها من المعالم التي أنشئت من قبل الباحثين، مع كمية صغيرة فقط من شبكة البيانات التدريب الأخير مخصص softmax. فمن الممكن لتحقيق نتائج جيدة جدا على مجموعة بيانات صغير.

مجموعات البيانات الكبيرة:

اذا كان لدينا أيضا عدد كبير من مجموعات البيانات على مشاكلهم الخاصة، ونحن يمكن أن يكون المزيد من التدريب وراء طبقات. مع زيادة في مجموعة البيانات القصير، نحن بحاجة إلى "تجميد" عدد من طبقات أقل وأقل. وأخيرا، إذا كان كل المعلمات لدينا مجموعات البيانات الكبيرة جدا، حتى نتمكن من تدريب نموذج الشبكة، المعلمات نموذج باحثين آخرين تدرب على تهيئة المعلمات بدلا من التهيئة عشوائية، لتسريع تدريب نموذجنا.

7. التوسع البيانات

مقارنة مع آلة التعلم الأخرى، مجال الرؤية الحاسوبية لحظة أن المشكلة الرئيسية ليست طريقة للحصول على بيانات كافية. وذلك في نموذج التدريب لدينا من بيانات الكمبيوتر عندما تكون البيانات الموسعة مفيد جدا.

بيانات طريقة التوسعة:

  • مرآة انعكاس (الإنعكاس)، وتقليم العشوائي (الاقتصاص عشوائية)؛ تحويل اللون (اللون التحول):

لزيادة أو خفض قيمة صورة قناة لون ثلاثة RGB، مثل (R: + 20، G: -20، B: +20)؛ PCA تعزيز اللون: تغيير كبير من صورة اللون السائد أو اللون الثانوي تغيير الصورة صغيرة، بحيث تناسق الألوان بشكل عام.

تدريب التوسع معالجة البيانات:

لتوفير الوقت، فإن عملية التوسع البيانات وعملية التدريب يمكن تنفيذها بالتوازي وحدة المعالجة المركزية متعددة مترابطة أكثر.

8. الحاسوب رؤية الحالة

البيانات والهندسة اليدوية:

قضايا مختلفة من الحالي حجم مجموعة البيانات:

عندما تكون هناك كميات كبيرة من البيانات، ونحن نفضل استخدام خوارزمية بسيطة وأقل الأشغال اليدوية. لأنه في هذا الوقت هناك الكثير من البيانات، نحن لسنا بحاجة إلى أن تكون ميزات مصممة تصميما جيدا لهذه المشكلة، ونحن نستخدم نتائج شبكة واسعة أو نموذج أكثر بساطة يمكن حلها.

في المقابل، عندما كمية صغيرة من البيانات، وننخرط في المزيد من أعمال اليد. لأن كمية البيانات صغير جدا، وهيكل شبكة أكبر أو نموذج من الصعب الحصول على ما يكفي من هذه الميزات من كمية صغيرة من البيانات، والهندسة اليدوي هو في الواقع أفضل وسيلة للحصول على الأداء الجيد.

لتطبيقات التعلم الجهاز:

  • البيانات علامات و(س، ص)؛ حيث الهندسة اليد / هيكل الشبكة / بنيات أخرى.

نصائح لعمل الخير

في المقارنة الدراسات والمسابقات، قد يكون النصائح التالية لتحسين الأداء:

  • Ensembling: عدد وافر من نموذج شبكة المدربين بشكل فردي، ونتائج متوسط الانتاج نتيجة متوسط أو الموزون، وعندما اختبرت متعدد المحاصيل: تشغيل المصنف في إصدارات متعددة من صورة الاختبار، والمخرجات نتيجة المتوسط.

المتشددين مراقبة | قطعة اليد هو أكثر قليلا اليوم

الجهاز لا تعلم: الشبكة العصبية مفصل، نشر الأمام ونشر الخلفي

مشروع تعديل ضريبة أعلن 5000 يوان، ومن المتوقع تنفيذه منذ أكتوبر "عتبة"

اتبع أيضا اتجاه الموضة، وتركيب جهاز كمبيوتر الضال! عشرة آلاف يوان AMD Dacentrurus منصة الألعاب

النقطة المحورية | لسعر التذكرة! هؤلاء الناس كثيرا ما يسافر إلى المدينة تولي اهتماما ل......

وهذه هي وحدة كاملة في السلطة معظم وموثوق بها معظم فعالة من حيث التكلفة! برودة ماجستير V550 من خارج منطقة الجزاء

في عصر المياه المبردة متكامل من المدنيين، تبريد لينغ الله B120 تثبيت الخبرة

تجديد الأجزاء القديمة مربع، قبل ما تواجد في 1 هيكل تثبيت، إرم إرم ثلاث سنوات من المعارك

رسم الاتجاه المعاكس! لى يونيو 00 الثناء بعد الانتحال الرئيس التنفيذي استقال، متطابقة تماما!

الجهاز لا تعلم: الجاسوس CNN النموذج الكلاسيكي - أنه يمكن أن تهاجم حجر اليشم التلال

قبل عشر سنوات من ارتفاع أسعار السلع، والنفايات الإلكترونية نصبح جميعا الآن، لم تكن قد استخدمت؟

الغالبية العظمى من الألعاب عبر الإنترنت يمكن تشغيل بسلاسة! 2500 يوان منصة دخول المستوى الألعاب