البضائع الجافة نقية | تعزيز جهود الأسرة خوارزمية Adaboost

الأبحاث الحديثة المتكاملة نظام التعلم، لهذه الخوارزمية Adaboost، كان غير قادر على فهم حتى ترى بلوق وظيفة، وفجأة يكون لدينا نوع من الشعور، ويتحدث حقا جيدة بوجه خاص، العنوان الأصلي (HTTP: //blog.csdn صافي / guyuealian / من المادة / تفاصيل / 70995333)، في هذا المقتطف، وسهلة لإيجاد والاستعراض.

A، AdaBoost الملف الشخصي

 على تعزيز، المعروف أيضا باسم طريقة تعزيز التعلم أو رفع، هو أسلوب التعلم فرقة مهمة، يمكن أن دقة التنبؤ إلا أن يكون أعلى قليلا من العشوائية التخمين المتعلم الضعيف للتنبؤ مع تعزيز دقة عالية المتعلم قوي، في هذه الدراسة التي شيدت بقوة مباشرة الوضع صعب للغاية، كما خوارزمية التعلم تهدف إلى تقديم أفكار جديدة وأساليب جديدة فعالة. واحد من التطبيق الأكثر نجاحا هو، AdaBoost خوارزمية يوآف فرويند وروبرت شابيري المقترحة في عام 1995.

 AdaBoost هو اختصار "التكيف تعزيز جهود" (التكيف تعزيز جهود)، وهو التكيف في ذلك: الأول هو تصنيف الأساسي أساء تصنيف زيادة الوزن عينة، ووزن العينة يقلل تصنف بشكل صحيح، وتصنيف الأساسي للقطار القادم مرة أخرى. وفي الوقت نفسه، في كل جولة من التكرار، إضافة المصنفات ضعيفة الجديدة حتى تصل إلى سلفا صغير نسبة الخطأ يكفي معين أو الحد الأقصى لعدد التكرارات قبل اتخاذ قرار بشأن المحددة من قبل المصنف قوي النهائي.

ويمكن تلخيص Adaboost خوارزمية ثلاث خطوات:

 (1) أولا وقبل كل شيء، والحق في تهيئة التدريب توزيع قيمة البيانات D1. لنفترض أن هناك N عينات من بيانات التدريب، ثم كل عينة التدريب البداية، أعطيت نفس الأوزان: W1 = 1 / N.

 (2) ثم تدريب المصنفات ضعيفة مرحبا. وعملية التدريب تفصيلي: إذا نقطة تدريب عينة تصنف بدقة المصنفات ضعيفة مرحبا، ثم تكوين في مجموعة التدريب، يتم تخفيض لقيمة الوزن المقابلة، والعكس، إذا تم بشكل سيئ نقطة عينات التدريب ، ينبغي زيادة وزنه. يتم تحديث وزن مجموعة عينة لتدريب القادم المصنف، عملية التدريب برمتها حتى تكرارا المضي قدما.

 (3) وأخيرا، يتم تدريب المصنفات الضعيفة منها دمجها في المصنف قوي. مباشرة بعد نهاية الدورة التدريبية كل المصنف ضعيف، بالاضافة الى حجم نسبة الخطأ تصنيف ضعيف الوزن المصنف، يلعب دورا كبيرا في القرار النهائي وظيفة التصنيف، وتقليل نسبة الخطأ تصنيف كبير المصنف ضعيف الوزن، فإنه يلعب دورا قاصرا في القرار النهائي وظيفة التصنيف.

 وبعبارة أخرى، فإن معدل الخطأ في المصنفات ضعيفة تمثل الأوزان المصنف النهائية أكبر أو أصغر.

اثنين، AdaBoost عملية خوارزمية

 ونظرا لمجموعة التدريب البيانات:

التي

التدريب العينات المستخدمة لتمثيل تسميات الصف، ط = 1، ...، N. Adaboost غرض التعلم هو عبارة عن سلسلة من ضعف كبير المصنف أو المصنف من بيانات التدريب، ومن ثم يجمع هذه المصنفات ضعيفة في المصنف قوي.

تعريفات رمز ذات الصلة:

 Adaboost عملية الخوارزمية كما يلي:

 التعليمات التالية:

 عند دمجها فوق الاشتقاق، يمكننا الحصول على النقاط عينة خاطئة ونقاط الحق وتحديث معادلة وزنها هي:

ثلاثة أمثلة لشرح AdaBoost

 مثال: مجموعة التدريب عينة كما هو مبين في الشكل، التصنيف ضعيفة باستخدام خط مستقيم مواز لمحور، مع عملية التصنيف لتحقيق الخوارزمية Adaboost قوية.

 تحليل البيانات :

 هذه العينات 10 عن بيانات التدريب، وفقا لX العلاقة المراسلات وY يمكن تقسيمها إلى فئتين هذه البيانات 10، كما هو موضح من قبل "+" يشير إلى فئة 1، مع "O" يشير إلى نوع من -1. يستخدم هذا المثال خط أفقي أو عمودي باعتباره المصنف، وقد أعطيت ثلاث شخصيات المصنفات ضعيفة، وهي:

  التهيئة:

 احتياجات الوزن قيمة التوزيع ليتم تهيئة البيانات التدريبية الأولى، وقد أعطيت نفس القيمة الوزن في بداية كل عينة التدريب: واي = 1 / N، بحيث العينة تدريب مجموعة توزيع الوزن الأولي D1 (ط):

 بحيث يكون لكل قيمة الوزن w1i = 1 / N = 0.1، حيث، N = 10، ط = 1،2، ...، 10، على التوالي، ور = 1،2،3، ... تكرار ما يعادل ( ر الصحيح يمثل عدد التكرارات، تي يدل على عجلة)، وقد أعطيت قيمة جدول توزيع عينات التدريب:

  أول التكرار T = 1:

 توزيع الوزن D1 من أول اختبار قيمة 1 / N (10 البيانات، وجميع أوزان كل البيانات تتم تهيئة إلى 0.1)،

 D1 =

 في حالة توزيع الوزن من D1، مع الأخذ في المعروف ثلاثة المصنفات ضعيفة H1، H2 و H3 في أصغر معدل الخطأ كما المصنف الأول المصنف الأساسية H1 (ثلاثة ضعف نسبة الخطأ المصنف (خ) هو 0.3، ثم تأخذ أول واحد، أليس كذلك)

 في الحالة التي يكون فيها المصنف = H1 H1 (خ)، ونقاط عينة "578" وأساء تصنيف، وبالتالي إلى حد كبير المصنف H1 (خ) من نسبة الخطأ هي:

 أن يرى، والصحيح بشكل سيئ قيمة عينة الإلكترونية وتأثير نسبة الخطأ، وه نسبة الخطأ يؤثر على الوزن الأساسي هو النسبة المئوية للنهائي تصنيف المصنف الوزن .

 ثم، قم بتحديث أوزان التوزيع التدريب البيانات عن التكرار التالي، والتصنيف الصحيح لتدريب عينة الوزن "12346910" (7) بتحديث قيمة:

 وهكذا، بعد الجولة الأولى من التكرار، والوزن النهائي لكل عينة للحصول على توزيع قيمة البيانات الجديدة:

 D2 =

 لأن البيانات عينة "578" هو H1 (س) هو نقطة خاطئة، وزيادة وزنهم عن 0.1 السابق 1/6، بل على العكس من ذلك، تنقسم كافة البيانات الأخرى بشكل صحيح، بحيث الوزن منه مساند قبل يتم تخفيض 0.1 إلى 14/01، ويبين الجدول التالي توزيع الوزن في حالة التحويل:

 وظيفة تصنيف يمكن الحصول عليها: F1 (س) = 1H1 (س) = 0.4236H1 (خ). في هذه الحالة، وهو مزيج من علامة المصنف الأساسي (F1 (خ)) كما المصنف قوي بشكل سيئ 3 نقاط (أي 578) في مجموعة التدريب البيانات، وتدريب الخطأ في هذا الوقت من المصنف قوي هو: 0.3

 الثاني التكرار ر = 2:

 وهكذا، بعد التكرار الثاني، والوزن النهائي لكل عينة للحصول على توزيع قيمة البيانات الجديدة:

 D3 =

 ويبين الجدول التالي توزيع الوزن في هذه القضية حيث التحويل:

 وظيفة تصنيف يمكن الحصول عليها: F2 (س) = 0.4236H1 (خ) + 0.6496H2 (خ). في هذه الحالة، وهو مزيج من اثنين من علامة المصنف الأساسي (F2 (خ)) كما لديها بشكل سيئ المصنف قوي 3 نقاط (أي 346) في مجموعة التدريب البيانات، وتدريب الخطأ في هذا الوقت من المصنف قوي هو: 0.3

النسخة الثالثة ر = 3:

 وهكذا، بعد التكرار الثالث، قيمة الوزن جديدة لكل حصلت توزيع البيانات عينة:

 D4 =

 ويبين الجدول التالي توزيع الوزن في هذه القضية حيث التحويل:

 وظيفة تصنيف يمكن الحصول عليها: F3 (س) = 0.4236H1 (خ) + 0.6496H2 (خ) + 0.9229H3 (خ). في هذه الحالة، وهو مزيج من ثلاثة علامة المصنف الأساسي (F3 (خ)) باعتباره المصنف قوي، 0 سوء التصنيف على مجموعة التدريب من نقاط البيانات. عند هذه النقطة، عملية التدريب كلها كاملة.

 التكامل بين جميع المصنفات يمكن أن تسفر عن المصنف قوي النهائي هو:

 تدريب Hfinal نسبة الخطأ عينة المصنف قوي هو 0!

 بعض خصائص الخوارزمية Adaboost جيدة جدا، وهنا يدخل خاصيتين على Adaboost. (1) هو الحد الأعلى على تدريب نسبة الخطأ، مع زيادة عدد التكرارات، سوف تنخفض تدريجيا، (2) حتى لو كان خوارزمية Adaboost يتم تدريب عدة مرات، ونحن لم يكن لديها مشاكل المناسب. البحث والتحليل على هذين الجانبين، وأقترح أن المستخدمين الرئيسيين، أو لمعرفة قوة الله بلوق: HTTP: //blog.csdn.net/v_july_v/article/details/40718799

أربعة، ومزايا وعيوب AdaBoost

  ميزة

 (1) على Adaboost إطارا يمكن استخدامها بطرق مختلفة في إطار المصنفات الفرعية بناؤها. يمكنك استخدام المصنفات ضعيفة بسيطة، لا ميزة الفرز، ليست موجودة المناسب الظاهرة.

 (2) Adaboost خوارزمية لا يتطلب معرفة مسبقة من المصنفات ضعيفة، وقوية دقة التصنيف المصنف الناتجة تعتمد على جميع المصنفات ضعيفة. ما إذا كان يتم استخدامها في البيانات أو البيانات الحقيقية الاصطناعية، ويمكن Adaboost تحسين كبير في الدقة التعلم.

 لا يحتاج (3) خوارزمية Adaboost أن تعرف مسبقا نسبة الخطأ الحد دقة تصنيف المصنفات ضعيفة، والمصنف قوي مما أدى يعتمد على دقة تصنيف جميع المصنفات ضعيفة، وقدرة المصنف قد حفر عميقة. ردود الفعل يمكن Adaboost المصنفات ضعيفة، وتعديل بتكيف معدلات الخطأ المفترضة، وكفاءة عالية من التنفيذ.

 (4) Adaboost للتدريب مع مجموعة تدريب المصنفات ضعف مختلفة، وفقا لأساليب معينة من هذه المصنفات ضعيفة معا، وبناء قدرة تصنيف قوي المصنف، وهذا هو "، وهو المضحكين ثلاثة تجاوز تشو قه ليانغ ".

  العيوب:

 في عملية التدريب Adaboost، وجعل الحق Adaboost الصعب تصنيف قيمة عينة نمت نموا مطردا، فإن هذا التدريب يكون عينة متحيزة صعبة للغاية، مما أدى إلى خوارزمية Adaboost هو عرضة للتدخل الضوضاء. وبالإضافة إلى ذلك، Adaboost يعتمد على المصنفات ضعيفة، ووقت التدريب من المصنفات ضعيفة وغالبا ما تكون طويلة جدا.

توصية الخوارزمية ليست دقيقة؟ دعونا معرفة رسم الخرائط لحل

أرباح يغرق! وقد ذهب هذا الشركة من خلال ما نجم

لماذا عطلة نهاية الأسبوع ولكن الكثير من سوق الأسهم الإيجابي انخفض؟

نظم طلاب الأنشطة "أربعة الربيع" للاحتفال باليوم العالمي للكتاب: تشينغداو

تقديم الدعم للأفراد تنشيط المناطق الريفية! شانتو بدء مشروع زراعة المواهب المحلية "Qianbaishi"

تبرعت 550 مليون يوان أكثر من المبلغ الكامل من المركز الرياضي فنغ شون ذخرا (VI قاعة ستة وسط) تبرعت حفل توقيع اتفاق المشروع الذي عقد في قوانغتشو

تبدأ المدرسة ونغهوا منطقة التنين في سبتمبر، ومن المتوقع أن تفتح الابتدائية، المجموع الثانوي من 54 فصول

خنان تشينغ فنغ: المخضرم البالغ من العمر 96 من 70 عاما من الحرب في الصيف مسرحية الجيب أهدتها إلى دولة مجانا

دونغقوان التخطيط والتصميم الوظيفي المدرسة تجديد المسابقة!

العقود الآجلة الحساب رفاهية وأكثر من ذلك

وسيتم اختيار هذه المدينة تصنيع، "حرفي جوان يي"، هل؟

السياح اليابانيين السفر إلى الصين، ما راض جدا، فقط لا أفهم