فهم بديهية من عمق جزء التفاف التعلم

مذكرة لى فنغ الشبكة: هذه المادة هي عبارة عن تجميع لللى فنغ ترجمات بلوق التكنولوجيا المجموعة، العنوان الأصلي الإلتواءات فهم حدسي لديب التعلم، مؤلف Irhum Shafkat.

الترجمة | تشي بنغ تشاو بنغفاي التدقيق | Dixiu تشوان إنهاء | جيانغ فان

في السنوات الأخيرة مع ظهور قوي إطار التعلم العميق، لبناء الشبكة العصبية التفاف يصبح من السهل جدا على التعلم في نموذج العمق، أو يمكن أن تكتمل حتى مجرد سطر واحد من التعليمات البرمجية.

ولكن فهم الالتواء، وخاصة للاتصال لأول مرة مع الشبكة العصبية الإلتواء، فإنه كثيرا ما يخلط حبات مفهوم الإلتواء، والمرشحات، وغيرها من القنوات والتراص عمارتها من هذا القبيل. ومع ذلك الالتواء هو مفهوم قوي وتدرجية عالية، في هذه المقالة، فإننا سوف كسر تدريجيا مبادئ عملية الالتواء، ومعيار له صلة تماما وصلات الشبكة، واستكشاف كيفية بناء التسلسل الهرمي بصرية قوية، مما يجعل من عالية الأداء ميزة صورة مستخرج.

2 التفاف الأبعاد: مشغل

2 التفاف الأبعاد هي عملية بسيطة نسبيا: من بداية نواة الالتواء، وهو الوزن مصفوفة الصغيرة. نواة الالتواء ثنائية الأبعاد على إدخال البيانات "زلة" بشأن بعض عناصر الحالي تكاثر مدخلات المصفوفة، ومن ثم تم تلخيص النتائج في بكسل الإخراج واحدة.

وهناك معيار تلفيفي

وتتكرر هذه العملية معرفة التفاف نواة لاجتياز الصورة كاملة، ومصفوفة ثنائية الأبعاد إلى مصفوفة أخرى ثنائية الأبعاد. حيث الإخراج والإدخال المرجحة في كبيرة في نفس الموضع على البيانات (الوزن التفاف النواة هو القيمة نفسها)

ما إذا كان سقوط إدخال البيانات في هذه "المنطقة متشابهة إلى حد كبير"، يحدد بشكل مباشر على بيانات الناتج بعد نواة الالتواء. وهذا يعني أن حجم النواة التفاف يحدد بشكل مباشر مقدار التقارب (أو عدة) ميزة الإدخال عندما خلق الميزات الجديدة.

وهذا مخالف تماما لطبقة مرتبطة ارتباطا كاملا. في المثال أعلاه، فإننا ميزة الإدخال 5 * 5 = 25، وإخراج البيانات هو 3 * 3 = 9. إذا استخدمنا معيار تماما طبقة متصلة، وسوف تنتج 25 * 9 = 225 معلمة الوزن مصفوفة كل الانتاج هو مجموع المرجح لجميع البيانات المدخلة. عملية التفاف تسمح لنا لتحقيق هذا التحول مع المعلمات فقط تسعة، كل خصائص الانتاج لا "رؤية" كل ميزة الإدخال، ولكن فقط "رؤية" ميزة الإدخال من ما يقرب من نفس الموقع. يرجى ملاحظة هذا لأنه من الضروري بالنسبة لنا في وقت لاحق في المناقشة.

بعض التقنيات المستخدمة عادة

قبل أن نستمر في تقديم التفاف الشبكة العصبية، تصف طبقة التفاف اثنين من التقنيات المستخدمة عادة: الحشو وخطوات واسعة

  • الحشو: إذا كنت ترى الحركة أعلاه، ستلاحظ أنه في عملية التفاف حبات الشرائح، على حافة هي في الأساس "قطع" للخروج، وسيضم تتميز 5 * 5 مصفوفة التحويل من 3 * 3 المصفوفة. بكسل على حافة الأبد ليست في مركز نواة الالتواء، لأن لا شيء نواة يمكن أن تمتد إلى ما بعد الحواف. هذه ليست مثالية لأننا في كثير من الأحيان تريد حجم الناتج يساوي الإدخال.

بعض العمليات الحشو

جعلت الحشو بعض طرق ذكية جدا لحل هذه المشكلة: مع بكسل إضافية "وهمية" (عادة قيمة 0، وغالبا ما يستخدم مصطلح "عدم الحشو") شغل الحافة. وهكذا، عندما نواة الالتواء قد تسمح انزلاق الخام حافة بكسل في وسطها، في حين تمتد ما وراء حافة بكسل وهمية، مما أدى إلى المدخلات والمخرجات من نفس الحجم.

سائرين: عند تشغيل طبقة الالتواء، ونحن مرغوب فيه عموما من حجم مدخلات الانتاج أقل. ومن الشائع في الشبكة العصبية التلافيف، والحد من تزايد عدد القنوات في نفس الأبعاد المكانية. أسلوب واحد هو استخدام طبقة المجمعة (على سبيل المثال، 2 2 اتخاذ كل شبكة المتوسط / نصف الحد الأقصى من الأبعاد المكانية). طريقة أخرى هي استخدام التمشي:

وعملية التفاف من الخطوة 2 من

فكرة خطوة هي تغيير نواة الإلتواء تتحرك خطوة تخطي بعض بكسل. خطوة غير وتمثل نواة الالتواء وتراجع مسافة على كل من بكسل 1، هو أبسط شريحة من خطوة واحدة كطريقة التفاف القياسية. 2 يمثله نواة الالتواء برايد تتحرك خطوة 2، لتخطي بكسل المجاورة، يتم تقليل الصورة الأصلية إلى 1/2. ويمثل خطوة 3 من نواة الالتواء هو خطوة مؤثرة 3، وتخطي اثنين بكسل المجاورة، يتم تقليل الصورة ل1/3 الأصلي

أكثر وهيكل الشبكة أكثر الجديد، مثل ResNet، قد تخلى تماما طبقة تجميع. عندما تكون الحاجة لطريقة تخفيض صورة ستستخدم برايد.

متعدد القنوات نسخة

بطبيعة الحال، فإن صورة FIG تنطوي فقط على قناة مدخلات واحدة. في الواقع، أكثر من الصورة المدخلة على بعد 3 قناة، وعدد قناة يؤدي إلا إلى زيادة عمق الشبكة. سوف قناة ينظر إليه عادة باعتباره صورة كاملة، مؤكدا برمته وليس التركيز على جانب واحد من خلافاتهم.

في معظم الوقت، ونحن نتعامل مع صورة ثلاثية القنوات للRBG (الائتمان: اندريه موتون)

مرشح: مجموعة من حبات الإلتواء

كلاهما أساسا الفرق بين المصطلحين: فقط في حالة القناة 1، وتصفية نواة ما يعادل فترتين، بشكل عام، فهي مختلفة. كل مرشح هو في الواقع مجموعة من نواة الالتواء، كل طبقة مدخلات قناة لديها نواة الالتواء، وفريدة من نوعها.

طبقات التفاف كل ناتج تصفية قناة واحدة فقط، وهي تنفذ على النحو التالي:

كل مرشح الإلتواء نواة على قناة المدخلات منها "الشرائح"، يتم إنشاء كل نتيجة الحساب. بعض النوى الأخرى من نواة قد يكون لها وزن أكبر لبعض قنوات الإدخال هو أكثر من بعض نواة التركيز (على سبيل المثال، قد يكون القناة الحمراء مرشح الإلتواء نواة الوزن أكبر من القنوات الأخرى من نواة الالتواء، لذلك، رد فعل خصائص القناة الحمراء أفضل من غيرها من القنوات).

نتيجة كل قناة المعالجة هي ثم غرق معا لتشكيل القناة. الإلتواء نواة بتصفية كل تولد قناة الناتج منها، وأخيرا مرشح بأكمله تنتج قناة إجمالي الناتج.

آخر مصطلح: التحيز. يتحامل دور هنا هو زيادة مدة التحيز لكل ناتج مرشح لانتاج قناة الناتج النهائي.

عدد الخام الأخرى من المرشحات ومرشح واحد تشنغدو نفسه: كل مرشح استخدام مجموعة مختلفة من التفاف نواة مصطلح التحيز والعددية وجود الإجراء أعلاه لمعالجة البيانات المدخلة، لتوليد قناة الناتج النهائي. وبعد ذلك انضمت معا لإنتاج الناتج الإجمالي، حيث عدد القنوات الناتج هو عدد المرشحات. قبل بيانات الناتج التفاف إلى طبقة أخرى، وعادة أيضا وظيفة التنشيط غير الخطية. لاستكمال تكرار العملية المذكورة أعلاه لبناء شبكة.

2 التفاف الأبعاد: الحدس

الإلتواء لا يزال التحول الخطي

حتى مع وجود طبقة آلية الإلتواء، فإنه لا يزال من الصعب مع وصلة شبكة التغذية إلى الأمام القياسية، لكنه لا يزال لا يفسر لماذا سيتم تمديد الإلتواء في مجال معالجة بيانات الصور، والأداء الجيد في هذا الصدد.

لنفترض أن لدينا مدخلا ل4 4، وتحتاج نحن لتحويلها إلى مجموعة 2 2. إذا كان لنا أن استخدام شبكة feedforward، فإننا أولا تحويل المدخلات إلى طول 4 4 للناقلات 16 و 16 لديها مدخلا 4 المدخلات والمخرجات اتصال طبقة كثيفة. هذه الطبقة يمكن تصور W الوزن مصفوفة:

وخلاصة القول، هناك 64 المعلمات.

وعلى الرغم من عملية التفاف تبدو في البداية غريبة، لكنها لا تزال تحول الخطي، هناك ما يعادل مصفوفة التحويل. إذا كان لنا أن إدخال حجم 4 4 K 3 بعد تطبيق التحول النووي للحصول على إخراج 2 2، أي ما يعادل مصفوفة التحويل هي:

هناك تسعة المعلمات

(ملاحظة: على الرغم من أن مصفوفة التحويل المذكور أعلاه ما يعادل مصفوفة، ولكن العملية الفعلية عادة ما يكون مختلفا تماما بأنه ضرب مصفوفة أدرك )

الإلتواء، ككل، لا يزال يشكل التحول الخطي، ولكن في نفس الوقت، وهذا هو نوع مختلف من التحول. مصفوفة مع 64 عناصر، وإعادة استخدامها سوى تسعة المعلمات. كل عقدة يمكن إلا أن نرى عدد من مدخلات الانتاج (استيراد النووي الداخلي) محددة. لا التفاعل مع غيرها من المدخلات، بسبب تعيين الوزن إلى 0.

تعتبر عملية التفاف على وزن مصفوفة مسبقة أمر مفيد للغاية. في هذه المقالة، I المعلمات شبكة محددة مسبقا. على سبيل المثال، عند استخدام نموذج ما قبل مدربين للقيام تصنيف الصور، شريطة أن معلمات الشبكة باستخدام ما قبل تدريب، وسمة من سمات كثيفة مستخرج طبقة الوصلة.

ويقول في هذا المعنى، كان هناك اثنين من الحدس هو السبب في أنها فعالة جدا (بالمقارنة مع الاستعاضة عنها). الهجرة إلى تعلم أكثر كفاءة من أوامر التهيئة عشوائية من حجمها، لأنك تحتاج فقط إلى تحسين المعلمات من الطبقة النهائية للإتصال بشكل كامل، مما يعني أنه يمكن أن يكون الأداء المتميز، كل فئة سوى بضع عشرات من الصور.

هنا، لا تحتاج إلى تحسين جميع المعلمات 64، لأننا سوف يقع معظمها إلى 0 (ودائما الحفاظ على هذه القيمة)، يتم تحويل الحصة المتبقية إلى معلمات من شأنها أن تؤدي في الواقع سوى تسعة المعلمات ليكون الأمثل. هذه الكفاءة هو المهم، عندما الفعلية إلى 224 224 3 صورة 784 من الوقت دخل التحويل MNIST، سيكون هناك 150،000 المدخلات. عرض طبقة كثيفة من المدخلات النصف إلى 75000، والذي لا يزال يحتاج إلى 10 مليارات المعلمة. في المقابل، ResNet-50 ما مجموعه حجة فقط 20005،000،000.

لذا، فإن بعض المعلمات ثابتة في 0، المعلمات الترابط لتحسين الكفاءة، ولكن مع دراسة الهجرة المختلفة، ودراسة الهجرة، ونحن نعلم بداهة ليست جيدة، لأنه يعتمد على عدد كبير من الصور، كيف لنا أن نعرف هذا جيدا أو سيئا ذلك؟

يكمن الجواب في مزيج من الميزات، أمام المعلمة هي معلمة للتعلم.

مكان

في بداية هذه المقالة، نحن مناقشة المسائل التالية:

  • الإلتواء نواة من مجرد منطقة محلية صغيرة من بكسل لتشكيل تركيبة الناتج. وبعبارة أخرى، فإن خصائص الانتاج فقط "رؤية" خصائص مدخلات من منطقة محلية صغيرة.

  • يتم تطبيق التفاف نواة لكامل الصورة، لتوليد مصفوفة الانتاج.

وذلك مع العودة انتشار جاء على طول الطريق من العقد السرية للشبكة، والالتواء نواة لديها مهمة مثيرة للاهتمام لمعرفة أوزان من المدخلات المحلية، وخصائص الجيل. وعلاوة على ذلك، منذ تطبيق نواة الالتواء نفسه إلى الصورة بأكملها، حيث النواة التفاف يجب أن تكون كافية العامة للتعلم، وأنه يمكن أن يكون من أي جزء من الصورة.

إذا كان هذا أي نوع آخر من البيانات، على سبيل المثال، وتركيب APP البيانات الموزعة، والتي ستكون بمثابة كارثة، لأن عدد من التطبيقات المثبتة لديك وأنواع التطبيقات ومتجاورة، لا يعني لديهم أي علاقة مع التطبيق المثبت التاريخ والوقت ونزلات "الخصائص المحلية، المشتركة." بالطبع، قد يكون لديهم ملامح المحتملة على مستوى عال يمكن العثور على (على سبيل المثال. الناس بحاجة أكثر من غيره هو ما التطبيقات)، ولكن هذا لا يعطينا سببا كافيا للاعتقاد بأن اثنين من المعلمتين الأولى والمعلمات تماما نفسه. هذه الأربعة قد يكون أي (ثابت) تسلسل، ولا يزال ساري المفعول!

ومع ذلك، فإن بكسل هو دائما في ترتيب ثابت من المظهر، وبكسل بالقرب تؤثر بعضها البعض. على سبيل المثال، إذا كانت حمراء بكسل في محيط كل بكسل، ثم هو بكسل المرجح أن أحمر أيضا. إذا كان هناك انحراف، وهو وضع شاذ مثيرة للاهتمام، قد يتم تحويلها إلى ميزة، كل هذه الانحرافات يمكن الكشف عنها من خلال مقارنتها مع بكسل المحيطة بها.

والفكرة هي في الواقع الأساس للعديد من رؤية الكمبيوتر أساليب الاستخراج ميزة مبكرة. على سبيل المثال، للكشف عن الحافة، يمكنك استخدام سوبل مرشح الكشف عن الحافة، وهي النواة، ومعيار التفاف على قناة واحدة عملية تشغيل وجود كمعلمات ثابت:

حافة العمودي كشف الإلتواء

لا لحافة مجموعة (على سبيل المثال خلفية السماء)، أكثر من بكسل هي نفس القيمة، وإخراج نواة الالتواء هو صفر في هذه النقاط. لصفائف الحواف العمودية، اليسار واليمين حواف بكسل مختلفة، نتائج نواة الالتواء هو غير صفرية، وبالتالي الكشف عن الحافة. في المنطقة المحلية الكشف عن شذوذ، نواة الالتواء للعمل فقط على مجموعة 3 3، ولكن عندما تطبق على كامل الصورة، ولكن أيضا بما فيه الكفاية لكشف ميزة معينة من الصورة في أي موقف في نطاق عالمي ،!

وبالتالي فإن الفرق الرئيسي نتخذها في دراسة متعمقة لهذا السؤال هو أن نسأل: الطاقة النووية هي مفيدة لمعرفة ذلك؟ للطبقات الأولية للأساس بكسل الأصلي، يمكننا أن نتوقع بشكل معقول للكشف عن ميزة وجود ميزات مستوى منخفض نسبيا، مثل الخطوط الجانبية.

دراسة متعمقة والبحوث هناك تركيز على فرع كامل من تفسيرها الشبكة العصبية. وتتميز واحدة من أكثر أدوات قوية لهذا الفرع في استخدام أسلوب الأمثل لتصور . الفكرة الأساسية بسيطة: لصورة الأمثل (وعادة ما تستخدم عشوائية التهيئة الضوضاء) لتنشيط مرشح، وجعلها قوية. هذا هو في الواقع بسيط جدا: إذا كان يتم تعبئة حافة تماما مع صورة محسنة، وهو مرشح نفسه، وهو دليل قوي على أن تفعيل البحث. باستخدام هذه، يمكننا أن نظرة خاطفة إلى دراسة التصفية، نتائج مذهلة؛:

من GoogLeNet ميزة الثالثة للقناة التلافيف طبقة التصور مختلفة، ويلاحظ أنه حتى عندما كشف عن أنواع حافة مختلفة، إلا أنها لا تزال منخفضة للغاية للكشف عن الحافة.

وتتميز في قناة 12 من التصور التفاف الثاني والثالث.

وتجدر الإشارة إلى أن الشيء المهم هو نتيجة لالتفاف الصورة صورة لا يزال. انتاج صغيرة من مجموعة من بكسل في الزاوية اليسرى العليا من بقايا صورة. حتى تتمكن من تشغيل طبقة التفاف آخر (على سبيل المثال، واثنين إلى اليسار) على رأس آخر لاستخراج ميزات أكثر عمقا، والتي يمكننا أن نتصور.

ومع ذلك، بغض النظر عن مدى عمق لدينا للكشف عن ميزة يمكن الكشف، دون أي تغييرات أخرى، فإنها لا تزال يمكن تشغيل فقط على صورة صغيرة جدا. بغض النظر عن مدى عمق كاشف الخاص بك، فإنك لا يمكن أن يتم الكشف عن مجموعة 3 3 وجها إنسانيا. هذا هو مفهوم تجربة المجال.

الحقل تقبلا

أي الأساسية خيارات التصميم CNN العمارة هي مدخلات لنهاية حجم الشبكة يصبح أصغر وأصغر من البداية، في حين أن عدد قنوات أعمق وأعمق. كما هو موضح سابقا، هذه الخطوة هي في كثير من الأحيان طبقات كاملة أو حمامات. يحدد مكان مدخلات الانتاج طبقة يرى طبقة السابقة. يحدد الحقل تقبلا المنطقة المدخلات الأصلية ينظر إليها من وجهة نظر الناتج شبكة كاملة.

التفاف المشارب المفهوم هو أننا لا نتعامل الا مع مسافة ثابتة، في حين تجاهل منتصف تلك. من وجهة نظر مختلفة، ونحافظ فقط على الانتاج على مسافة ثابتة، وإزالة الجزء المتبقي من .

3 3 الإلتواء، الخطوة 2

ومن ثم نقوم بتطبيق الناتج خطي، وفقا إلى الوضع الطبيعي، وفرضه على التفاف طبقة أخرى جديدة. هذا مثير للاهتمام. حتى لو كان لدينا نفس الحجم ونفس المنطقة المحلية النووية (3 3)، تطبيق شريط لإخراج الإلتواء، وسوف يكون أكبر حقل تقبلا النووي:

وذلك لأن المشارب طبقة الإنتاج لا يزال يمثل نفس الصورة. لا يتم تغيير حجم أنها المحاصيل، والمشكلة الوحيدة هي أن إخراج كل بكسل هي منطقة كبيرة (بكسل الأخرى التي يمكن الاستغناء عنها) موقف الخام "نموذجية" من نفس الإدخال الأصلي. وفقا لذلك، عندما النوى الطبقة السفلى التي تعمل في الإخراج، كان يعمل في الواقع على بكسل جمعها من مساحة أكبر.

(ملاحظة: إذا كنت معتادا على التوسع في الإلتواء، مذكرة الإلتواء أن ليس فوق توسيع طريقتان لزيادة تقبلا التفاف توسيع الحقل طبقة واحدة، وهذا ما يحدث على التفاف منتظم، تليها المشارب. الإلتواء، والإطار المتوسط هو غير الخطية)

كل رئيسيا كتلة مجموعة قناة التفاف تصور، يزداد تدريجيا تعقيد العرض

وهذا يسمح بتوسيع مجال تقبلا من الخصائص التفاف طبقة منخفضة المستوى (الجانب خط) والسمة مستوى أعلى (منحنى، والملمس) الجمع، كما رأينا في طبقة كما mixed3a.

يليه تجمع / عبر طبقة، تواصل الشبكة لإنشاء جهاز للكشف عن مستوى أعلى هو سمة من سمات (المكونات، واسطة). كما رأينا في mixed4a.

الشبكة، ويقلل المتكررة حجم الصورة، مما أدى إلى التفاف كتلة الخامس، إلا أن حجم المدخلات 7 7، مقارنة مع إدخال 224 224. من وجهة النظر هذه، يمثل كل بكسل الفردية مجموعة من 32 32 بكسل، والتي هي كبيرة جدا.

بالمقارنة مع الطبقة السابقة، وطبقة من ما سبق، وتفعيل وسائل الكشف عن الحدود، وهنا، يتم تنشيط ميزة رفيعة المستوى على 7 7، مثل الطيور.

، يتم استخدام الشبكة بالكامل من مرشح صغير (GoogLeNet 64)، إلا أن الكشف عن ميزات على مستوى أدنى، وتطوير المرشحات مع عدد كبير (1024 في التفاف النهائي للشبكة) كل مرشح للعثور على ميزة ارتفاع مستوى محددة . بعد طبقة تجميع هو، كل من مجموعة 7 7 من تبسيط إلى بكسل، كل قناة هو جهاز للكشف عن ميزة لديه صورة كاملة المقابلة لميدان تقبلا.

مقارنة مع الأعمال السابقة أنجزت لنشر الشبكة، حيث من المستغرب الإخراج. قبل متجه الميزة القياسية الناتجة عن مجموعة مجردة من وحدات البكسل في الصورة لشبكات الاتصالات، ويتطلب بيانات الكثير من التدريب من الصعب التعامل معها.

التفاف الشبكة العصبية، مع مقدمو الاديره المفروضة عليها، عن طريق التعلم للكشف عن ميزة على مستوى منخفض بداية، وخطوة توسع خطوة من مجالها تقبلا، وتعلم الاندماج التدريجي من تلك على مستوى منخفض ملامح وميزات عالية المستوى، مجردة ليس كل بكسل واحد جنبا إلى جنب، ولكن مفهوم قوي من التسلسل الهرمي البصري.

الكشف عن ميزة من المستوى الأول، واستخدامها للكشف عن ملامح رفيع المستوى، مع مستوى التنمية البصرية، وبالتالي تكون قادرة على الكشف عن المفاهيم البصرية بأكملها، مثل الوجوه البشرية، والطيور، والأشجار، وما إلى ذلك، وهذا هو السبب أنها قوية جدا، ولكن ما في وسعها على نحو فعال استخدام بيانات الصورة.

وأخيرا، ووصف الهجوم ضد

مع بناء التسلسل الهرمي البصري شبكة التفاف العصبية، يمكننا أن نفترض معقول أن النظام البصري بهم على غرار البشر. وهي تظهر كبيرة في التعامل مع الصور في العالم الحقيقي، ولكنهم فشلوا أيضا في بعض النواحي، وهذا يوحي بقوة بأن النظام البصري البشري وليست مماثلة تماما. المشكلة الرئيسية: عينة المواجهة ، وقدم هذه العينات تعديلات خاصة أدت إلى نموذج يجري ينخدع.

بالنسبة للبشر، صورتين من الواضح الباندا، ولكن هذا النموذج هو ليس كذلك.

إذا كان البشر يمكن أن يلاحظ تلك الحالات تؤدي إلى فشل النموذج قد تم العبث بها، ثم ضد عينة ليست مشكلة. المشكلة هي أن هذه النماذج هي عرضة للعينة، وهذه العينات تعديل إلا قليلا، وعلى ما يبدو لا خداع أي إنسان. وهذا يفتح الباب، وفشل صغير كنموذج لالمركبات الذاتية من مجموعة واسعة من التطبيقات على الرعاية الصحية، بل هو خطير جدا.

قوة ضد الهجمات هي غاية منطقة نشطة للبحث، والكثير من الأوراق، وقضايا المنافسة حتى والحلول بالتأكيد تحسين بنية CNN لجعله أكثر أمانا وأكثر موثوقية.

استنتاج

التفاف الشبكة العصبية هي للسماح للتطبيقات رؤية الكمبيوتر تمتد من البسيط الى نماذج معقدة أن السلطة المنتجات والخدمات من مكتبة الصور الخاصة بك لاكتشاف الوجوه البشرية لجعل التشخيص أفضل الطبية. قد يكون المفتاح لتتحرك إلى الأمام طريقة لرؤية الكمبيوتر، أو بعض انطلاقة جديدة قد تكون في الأفق.

في أي حال، هناك شيء واحد مؤكد: انهم جميعا الشيء المدهش هو جوهر العديد من التطبيقات المبتكرة اليوم، وفهم أكثر تعمقا.

مراجع

  • دليل لعلم الحساب التفاف على التعلم العميق (https://arxiv.org/abs/1603.07285)

  • CS231n التلافيف الشبكات العصبية لبرنامج Visual الاعتراف - التلافيف الشبكات العصبية (

  • ميزة التصور - كيف الشبكات العصبية بناء فهمهم للصور (من ملاحظة: تصورات ميزة هنا أنتجت مع مكتبة واضح، وهو تنفيذ مفتوحة المصدر من تقنيات من هذه المادة مجلة) (https://distill.pub/2017/ ميزة التصور /)

  • مهاجمة آلة التعلم مع الخصومة أمثلة (https://blog.openai.com/adversarial-example-research/)

  • المزيد من الموارد

  • fast.ai - الدرس 3: تحسين صورة بك مصنف (

  • التحويل نتس: A حدات منظور (

  • بناء نماذج قوية تصنيف الصور باستخدام القليل جدا من البيانات (https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html)

  • لى فنغ لى فنغ صافي صافي

    لأنه لا سحر الهاتف الأزرق، MEIZU Note8 أو تحديا لينوفو K5 برو!

    ذكاء الهبوط طليعة هوي مي دي الشبكة الذكية 4K UHD تقييم لاعب

    شياو 835 من الخلف PC ضرب، سامسونج لا يزال الحق في الاستيلاء على العرض الأول في العالم!

    LPL لعب الحقل قبل اللاعبين أصبح مهووسا الصيد الرحلة؟ يان قليلا الشقيقة ليس فقط ذات قيمة عالية التكنولوجيا الألعاب هي أكثر قوة!

    الافراج عن نسخة محسنة من الأحذية فورست غامب، نايك كورتيز Flyknit هل لديك مانع الماء؟

    رينسبيد واحة إطلاق سراح الطيار الآلي + الطاقة الشمسية

    مبيعات، كلمة في الفم الحصاد مزدوجة! ممن لهم R11 سعى دبوس الأولى التي يجريها المستخدمين

    CCTV المدافعين عن حقوق المستهلك الهواتف أوراق: هذه الرائدة الأكثر مشاهدة!

    المعبود السجال مجموعات: البحث الساخنة على اويانغ نانا وطلب المساعدة! الربع الثاني هو تجمع أكبر الأسماء!

    إذا تسلا تجنب المضطربة حالة إلى المتوسط، وانا اعتقد سوف المسك قبوله؟

    الموسيقى، كأول إنتاج الكتلة FF91 سيارة صدر من بيع 1040000

    ميديا تيك تستمر لإجبار منتصف السوق، جيل جديد من هيليو P70 أو ستنتهي قريبا!