AI الدرس الأول! جامعة كارنيجي ميلون بدء دراسة متعمقة للسقوط (مرفق PPT، فيديو)

المصدر: نيو جي وون

هذه المقالة حول 1000 كلمة، القراءة الموصى بها 5 دقائق.

يتناول هذا المساق أساسيات التعلم العميق، وتعزيز التعلم فضلا عن أكثر مؤخرا، GAN وهلم جرا.

بدأت جامعة كارنيجي ميلون دراسة متعمقة السقوط! رئيس المدرسين عمق تعلم بالطبع هو دانيال، Bhiksha راج مدرسة جامعة كارنيجي ميلون في علوم الحاسب الآلي، ويغطي المساق أساسيات التعلم العميق، وتعزيز التعلم فضلا عن أكثر مؤخرا، GAN وهلم جرا.

وكانت دراسة متعمقة والبحوث في مجال جامعة كارنيجي ميلون في طليعة من العالم، فمن التمهيدية تقريبا المواد الدراسية للاختيار، والشرائح وبرامج الفيديو الاستمرار في فتح مع التقدم بالطبع ، هل تريد نظام للتعلم وإتقان التعلم العميق من القراء لا تفوت.

وصف المساقات

يتم عرض الشبكة العصبية عمق نيابة عن أنظمة "التعلم العميق" على نحو متزايد براعتهم في مختلف المهام منظمة العفو الدولية، بما في ذلك فهم اللغة والكلام والتعرف على الصور، والترجمة الآلية، والتخطيط، والألعاب حتى والطيار الآلي. لذلك، والتعلم لفهم عمق الخبرة تحولت تدريجيا إلى الآن العديد من المشاكل الأكاديمية العليا التي لا يسبر غورها يجب السيطرة على الخلفية المعرفية والتعلم وعمق المواهب في سوق العمل لديها ميزة كبيرة.

في هذه الحال، فإننا سوف تعلم أساسيات عمق الشبكات العصبية وتطبيقاتها في مختلف المهام AI. بعد نهاية الدورة، والطلاب سوف يكون فهم كاف من موضوعات الدورة وعمق يمكن تطبيقها على مهام التعلم المختلفة. سيقوم الطلاب قراءة الكثير من المؤلفات الحالي على الملعب وتوسيع معارفهم المهنية من خلال إجراء مزيد من البحوث.

مفهوم هذا بالطبع يشمل شامل جدا. وسوف يساعد الطلاب على فهم عمق الأساس للتعلم. تبدأ الدورات يتحدث من MLP (متعدد الطبقات المستقبلات) والانتقال إلى مفاهيم أكثر تعقيدا، مثل نموذج الاهتمام ونماذج تسلسل إلى تسلسل. الطلاب بحاجة إلى فهم كامل PyTorch، فمن المهم لتحقيق نموذج التعلم العميق.

كما طالب، وسوف تتعلم الأدوات اللازمة لبناء نموذج التعلم العميق. العمليات عادة ما يكون جزأين، أي، Autolab وKaggle . قسم Kaggle يسمح لنا لاستكشاف مجموعة متنوعة من أبنية وتعلم كيفية ضبط ونموذج التحسين المستمر. جميع المهام وظائف مماثلة، وتعلم كيفية استخدام مجموعة متنوعة من الأساليب لحل نفس المهمة التعلم عمق مثيرة جدا للاهتمام. وعموما، في نهاية هذه الدورة، سيكون لديك ما يكفي من الثقة لبناء وعمق لحن نموذج التعلم.

المدربون: Bhiksha راج (bhiksha@cs.cmu.edu) TA: ريان بريجدين (rbrigden@andrew.cmu.edu) رافائيل فرانك اوليفييه (rolivier@andrew.cmu.edu) ساي Nihar Tadichetty (ntadiche@andrew.cmu.edu) Shubham تريباثي (shubhamt@andrew.cmu.edu) سوهام غوش (sohamg @ andrew.cmu.edu) Madhura داس (madhurad@andrew.cmu.edu) Ipsita براكاش (iprakash@andrew.cmu.edu) الثمن في سعي شاه (ddshah@andrew.cmu.edu) شادن الشعار (sshaar@andrew.cmu.edu ) ديفيد تشانغ (davidz1@andrew.cmu.edu) Anushree براسانا كومار (apkumar@andrew.cmu.edu) أحمد شاه (mshah1@andrew.cmu.edu) جيا وى يانغ (jiaweiy@andrew.cmu.edu) عمر الخطاب للدوحة (okhattab@cmu.edu) Nebiyou Yismaw لكيغالي (nyismaw@andrew.cmu.edu) قبل متطلبات

1. سوف نستخدم مجموعة التيار (أساسا PyTorch). تستخدم أدوات الثعبان البرمجة. عليك أن تكون قادرا على استخدام لغة برمجة واحدة على الأقل. أو، يمكنك استخدام لغة البرمجة المألوفة، ولكن يجب أن تجد تعلمهم وعدة المقابلة.

2. يجب أن تكون على دراية الأساسية حساب التفاضل والتكامل (التمايز، قاعدة السلسلة)، الجبر الخطي و المعرفة الأساسية للاحتمال .

المواد التعليمية

لن يتم تنفيذ هذه الدورة وفقا للكتاب، ولكن سوف تختار الكثير من المعلومات. نحن في قائمة المراجع ذات الصلة، وسيوفر روابط لمواد القراءة ذات الصلة لكل وحدة. يحتاج الطلاب ليكونوا على دراية بهذه المواد قبل الطبقة. قراءات تحجب أحيانا، ولكن لا تقلق، وسنقدم تفسيرا أكثر بساطة في الفصول الدراسية.

  • لوحات المناقشة: ساحة
  • نحن نستخدم ساحة مناقشة الروابط:
  • https://piazza.com/class/jhyyudofj9u4za
  • يمكنك معرفة المزيد حول الأدب دليل النموذج الحالي :
  • https://www.datasciencecentral.com/profiles/blogs/concise-visual-summary-of-deep-learning-architectures
  • إذا كنت لا تزال لا يمكن أن نفهم تماما، ونأمل في نهاية الدورة، هل يمكن أن نفهم أن غالبية العمارة نموذج الويكي والدلائل.
  • Kaggle:
  • Kaggle هي عبارة عن منصة شعبية جدا للبيانات العلمية، والمشاركين في المسابقة من خلال خلق أفضل نموذج للدراسة أو تحليل مجموعة البيانات. فإن العمل بطبيعة الحال تحتاج إلى تقييم النتائج التي قدمت إلى المتصدرين Kaggle.
كتب ذات صلة
  • عمق التعلم بواسطة إيان غودفلوو، يوشوا بيجيو، كتاب هارون كورفيل على الانترنت، 2017
  • الشبكات العصبية وكتاب DeepLearning مايكل نيلسن أون لاين، 2016
  • عمق التعلم مع PythonBy J. براونلي
  • الخطوة عمق التعلم عن طريق الخطوة مع بيثون: A جدا لطيف مقدمة في الشبكات العصبية العميقة لالعملي العلوم البيانات بواسطة N. D. لويس
  • بالتوازي الموزعة معالجة بواسطة Rumelhart وماكليلاند من طبعة، 1986

محتوى الدورة

محاضرة 1 (8.29):

  • التعلم العميق مقدمة
  • المناهج الدراسية
  • التاريخ والأساس المعرفي للحساب العصبي
  • المستقبلات ومتعدد الطبقات المستقبلات
الشرائح: فيديو: https://www.youtube.com/watch؟v=aPY-KC6zeeI

محاضرة 2 (8.31):

  • الشبكات العصبية: أ مقراب عالمي
الشرائح:

محاضرة 3 (9.5):

  • تدريب الشبكة العصبية
  • المستقبلات حكم التعلم
  • ERM
  • طريقة نزول المنحدرات لالأمثل

محاضرة 4 (9.10):

  • العودة الانتشار
  • حساب التفاضل والتكامل التعلم العودة نشر

محاضرة 5 (9.12):

  • تقارب الشبكات العصبية
  • معدل التقارب
  • وظيفة الخسارة
  • تعلم طرق معدل والتحسين
  • RMSProp، Adagrad، والزخم

محاضرة 6 (9.17):

  • ستوكاستيك أصل التدرج
  • تسارع
  • الإفراط في تركيب وتنظيم
  • نصيحة: حدد الاختلاف (خسارة) وظيفة، دفعة تطبيع، التسرب

محاضرة 7 (9.19):

  • مراجعة التدريب
  • طالب Q & A

محاضرة 8 (9.24):

  • مواصلة الحل الأمثل ل

محاضرة 9 (9.26):

  • الشبكة العصبية التلافيف (CNNs)
  • الأوزان كقوالب
  • ثبات الترجمة
  • استخدام التدريب تقاسم المعلمة

محاضرة 10 (10.1):

  • رؤية نموذج
  • الجهاز العصبي (نيوكونييترون)
  • تفاصيل CNN في الرياضيات
  • Alexnet، التأسيس، VGG

محاضرة 11 (10.3):

  • المتكررة الشبكات العصبية (RNNs)
  • سلسلة النمذجة
  • نشر الخلفي عبر الزمن
  • في اتجاهين RNN

محاضرة 12 (10.8):

  • نموذج للاستقرار
  • انفجار التدرج / تختفي
  • وحدة قصيرة وطويلة المدى الذاكرة (LSTM) ومشتقاته
  • Resnets

محاضرة 13 (10.10):

  • حلقات ظيفة الخسارة في شبكة
  • سلسلة التنبؤ

محاضرة 14 (10.15):

  • تسلسل طريقة في تسلسل
  • الارتباطية تصنيف الوقت (CTC)

محاضرة 15 (10.17):

  • تسلسل (مثال على الكلام واللغة) نموذج سلسلة، نموذج الاهتمام

محاضرة 16 (10.22):

  • ما شبكات تمثل؟
  • Autoencoder والحد من البعد
  • تعلم التمثيل

محاضرة 17 (10.24):

  • التلقائي المبرمج الاختلاف (VAE)

محاضرة 18 (10.29):

  • ولدت ضد شبكة (غانز) جزء الأول

محاضرة 18 (10.31):

  • ولدت ضد شبكة (غانز) جزء الثاني

محاضرة 19 (11.5):

  • الشبكة العصبية Hopfield
  • بولتزمان آلة (بولتزمان آلات)

محاضرة 20 (11.7):

  • شبكة التدريب Hopfield
  • شبكة هوبفيلد عشوائية

محاضرة 21 (11.12):

  • مقيدة آلة بولتزمان
  • آلة بولتزمان العمق

محاضرة 22 (11.14):

  • تعزيز التعلم 1

23. يؤكد (11.19):

  • تعزيز التعلم 2

محاضرة 24 (11.21):

  • عطلة عيد الشكر

محاضرة 25 (11.26):

  • تعزيز التعلم 3

المادة 26 تتحدث (11.28):

  • تعزيز التعلم 4

27 الناطقة (12.3):

  • تعزيز التعلم 4
  • تعلم Q
  • دراسة متعمقة Q

محاضرة 28 (12.5):

  • الاتجاهات في النموذج الجديد وعمق التعلم
  • مراجعة بالطبع

جامعة كارنيجي ميلون في عمق تعلم مقتطفات الدرس الأول من PPT لمزيد من المعلومات، يرجى الاطلاع على الموقع الرسمي:

مستجمعات المياه توه نهر لبناء خمسة مجمعات صناعية الصرف الصحي محطة معالجة أيضا تسيقونغ "نهر من المياه"

معهد الصينية للإلكترونيات: جيل جديد من تكنولوجيا الذكاء الاصطناعي 10 معظم توقعات النمو

جميل أن دوجيانغيان سيد هونغ يانغ العالم الجديد مفتوح

معظم تذكير أوروبا محزن للفريق؟ 21 يوما فريق كرة القدم النسائية وقعوا مع نفس العلم، الملك تنفس الصعداء اخفاء وجهه كريم

الطاقة النووية العملاقة توشيبا تعرضت أو غاب مرة أخرى بناء النووي العالمي، ومن المتوقع أن الصين في ارتفاع

جامعة تسينغهوا AMiner فريق: الروبوتات التعدين ومنظمة العفو الدولية عبر النقاط الساخنة واتجاهات المستقبل

شريط للاستماع إلى مشغل الأقراص المدمجة والأنيقة، وهذا كاسيت ووكمان قليلا الرجعية المد

تبقى قائمة من 2019: تصميم الأجهزة المشهد المحلي الجديد، والأعمال التجارية وصول المعدات، وبيع السلطات الأغذية الخفيفة | CES 2019

الغضب! بعض الجماهير الإيطالية هاجم شريط الله: فاتني أن تنتقد المنتخب الوطني!

"مؤشر الصين الكبير بيانات التنمية (2018)، و" النص الكامل للخبز! (تحميل مرفق بصورة)

ممتاز! من أجل تسهيل المشجعين الصينيين لرؤية وو لي، المسؤول الإسباني أن تفعل هذا الشيء!

الحصول الجمعية معا، والرياح الجديدة تمشيط النص علي والنمل، وورد، وأبل وغيرها من عمالقة كشفت!