اقرأ جميع الاختراقات في تكنولوجيا الذكاء الاصطناعي طوال عام 2019

بيان سمكة 13 من الأغنام والأغنام من تقرير كوبيت Aofeisi | الرقم العام QbitAI

ما هو تطور صناعة الذكاء الاصطناعي بالكامل في عام 2019؟

  • يستمر نموذج NLP في تحديث النتائج ، وتغني Google و Facebook لأول مرة ؛
  • تتطور GAN باستمرار ، ويمكنها أيضًا إنشاء وجوه عالية الدقة يصعب التمييز بين الصواب والخطأ.
  • فواصل التعلم التعزيزية من خلال "StarCraft 2" والألعاب الاستراتيجية الأخرى.

دع الناس يتطلعون إلى 2020 القادمة.

في الآونة الأخيرة ، أصدرت Analytics Vidhya تقرير مراجعة تقنية الذكاء الاصطناعي لعام 2019 ، الذي يلخص التقدم الذي أحرزه الذكاء الاصطناعي في مختلف مجالات التكنولوجيا في العام الماضي ويتطلع إلى الاتجاهات الجديدة في عام 2020.

Analytics Vidhya هو مجتمع علوم بيانات معروف. تمت كتابة تقرير المراجعة الفنية من قبل العديد من خبراء صناعة التعلم الآلي.

يعتقد التقرير أنه في العام الماضي ، كان التطور الأسرع هو البرمجة اللغوية العصبية ، وأن السيرة الذاتية كانت ناضجة نسبيًا ، RL قد بدأت للتو ، وقد تنفجر في العام المقبل.

استنادًا إلى التقرير ، تم تجميع الكيوبتات واستكمالها. بدون مزيد من اللغط ، دعنا نلقي نظرة على تقنيات الذكاء الاصطناعي لعام 2019 واحدة تلو الأخرى:

معالجة اللغة الطبيعية (NLP): انفجار نموذج اللغة ، تظهر أدوات النشر

حققت البرمجة اللغوية العصبية قفزة هائلة في عام 2019 ، والانجازات التي تحققت في هذا المجال هذا العام لا مثيل لها.

يعتقد التقرير أن عام 2018 هو عام فاصل في البرمجة اللغوية العصبية ، وأن 2019 هو في الأساس تطور إضافي على هذا الأساس ، مما يتيح المجال للتقدم بسرعة فائقة.

قواعد المحول البرمجة اللغوية العصبية

منذ ورقة 2017 الاهتمام هو كل ما تحتاجه منذ نشرها ، ظهرت بيرت نموذج NLP التمثيلي. منذ ذلك الحين ، سيطر Transformer على نتائج SOTA في حقل البرمجة اللغوية العصبية مرارًا وتكرارًا.

جوجل محول- XL إنه نموذج آخر قائم على المحولات يتفوق على BERT في نمذجة اللغة. يليه OpenAI GPT-2 النموذج ، الذي يشتهر بتوليد لغة تشبه الإنسان تمامًا.

في النصف الثاني من عام 2019 ، تمتلك BERT نفسها العديد من الابتكارات ، مثل CMU's XLNet و Facebook AI's ROBERTa و mBERT (BERT متعدد اللغات). تستمر هذه النماذج في تحديث نتائجها على RACE و SQuAD ومخططات الاختبار الأخرى.

أصدرت GPT-2 أخيرًا الإصدار الكامل ، نموذج المعلمة مفتوح المصدر 1.5 مليار.

عنوان نموذج GPT-2: https://openai.com/blog/gpt-2-1-5b-release/

قراءة متعمقة

يستعيد BERT المركز الأول في اختبارات متعددة. وبعد التحسين ، يتم إدراك الأداء باستخدام XLNet ، ويتوفر الآن نموذج التدريب المسبق مفتوح المصدر.

من الصعب التمييز بين نبرة ترامب بين الصواب والخطأ ، اختبر كورنيل بشكل أعمى نموذج المعلمة البالغ 1.5 مليار: لم يكن واقعيًا أبدًا ، وأقوى سرد للذكاء الاصطناعي مدرك بالكامل

تصبح النماذج اللغوية الكبيرة المدربة مسبقًا أمرًا طبيعيًا

يعتبر التعلم عن طريق التحويل اتجاهًا آخر في مجال البرمجة اللغوية العصبية في عام 2019. بدأنا نرى نماذج متعددة اللغات تم تدريبها مسبقًا على مجموعة كبيرة من النصوص غير المصنفة ، مما يتيح لهم معرفة الفروق الدقيقة المحتملة للغة نفسها.

يمكن لـ GPT-2 و Transformer-XL والنماذج الأخرى ضبط جميع مهام البرمجة اللغوية العصبية تقريبًا ، ويمكن أن تعمل بشكل جيد مع بيانات قليلة نسبيًا.

مثل بايدو إيرني 2.0 يقدم هذا النموذج مفهوم التدريب المسبق المستمر ، وقد حققت طريقة التدريب المسبق تقدمًا كبيرًا. في هذا الإطار ، يمكنك تقديم مهام مخصصة مختلفة تدريجيًا في أي وقت.

إطلاق معيار اختبار جديد

نظرًا لأن سلسلة من نماذج NLP الجديدة قد جلبت تحسينات كبيرة في الأداء ، فقد وصلت درجات اختبارها أيضًا إلى الحد الأعلى ، وفرق الدرجات صغير جدًا ، بل وتجاوز المتوسط البشري في اختبار GLUE.

لذلك ، فإن معايير الاختبار هذه ليست كافية لتعكس مستوى تطوير نموذج البرمجة اللغوية العصبية ، ولا تؤدي إلى مزيد من التحسين في المستقبل.

اقترح DeepMind ، جامعة نيويورك ، وجامعة واشنطن و Facebook معيار اختبار جديد ، SuperGLUE ، والذي يضيف مهام تفكير سببية أكثر صعوبة ويطرح تحديات جديدة لنماذج البرمجة اللغوية العصبية.

ابدأ بالتفكير في هندسة البرمجة اللغوية العصبية ونشرها

ظهر عدد كبير من موارد البرمجة اللغوية العصبية العملية في عام 2019:

المصدر المفتوح لجامعة ستانفورد ستانفورد مكتبة، معانقة الوجه مكتبة نموذج المحولات المدربة مسبقا. استخدمت SpaCy هذه المكتبة لإنشاء محولات Spacy ، وهي مكتبة من الدرجة الصناعية لمعالجة النصوص.

قال فريق ستانفورد إن إل بي: "مثل النماذج اللغوية الكبيرة التي دربناها في 2019 ، سنركز أيضًا على تحسين هذه النماذج".

تكمن المشكلة في النماذج الكبيرة مثل BERT و Transformer-XL و GPT-2 في أنها مكثفة حسابياً للغاية ، لذا فإن استخدامها في الواقع يكاد يكون غير عملي.

معانقة الوجه DistilBERT تبين أن حجم نموذج BERT يمكن تقليله بنسبة 40 ، مع الاحتفاظ بقدرته على فهم اللغة بنسبة 97 ، وزيادة السرعة بنسبة 60.

طورت Google و Toyota طريقة أخرى لتقليل حجم طراز BERT ألبرت ، وحققت عشرات SOTA في 3 اختبارات مرجعية البرمجة اللغوية العصبية (GLUE ، SQuAD ، RACE).

قراءة متعمقة

ترقية موارد GitHub Wanxing NLP: تحقيق التشغيل البيني لـ Pytorch و TF ، ودمج أحدث 32 نموذجًا للتدريب المسبق

زيادة الاهتمام بالتعرف على الكلام

أعاد قطاع البرمجة اللغوية العصبية نفيديا في عام 2019 NeMo وغيرها من الأطر المهتمة بتطوير البيانات الصوتية. يجعل هذا الإطار التدريب النموذجي لأنظمة التعرف التلقائي على الكلام من طرف إلى طرف أمرًا سهلاً للغاية.

بالإضافة إلى NeMo ، فتحت Nvidia أيضًا مصادرها شبكة كوارتز نت ، QuartzNet هي بنية نموذجية جديدة للتعرف على الكلام من طرف إلى طرف تعتمد على Jasper. Jasper هو نموذج صغير وفعال للتعرف على الكلام.

ركز أكثر على النماذج متعددة اللغات

كيف يمكن أن تعمل البرمجة اللغوية العصبية حقًا قبل أن تتمكن من استخدام البيانات متعددة اللغات؟

هذا العام ، هناك اهتمام جديد بإعادة اكتشاف المناهج متعددة اللغات لمكتبات البرمجة اللغوية العصبية (مثل ستانفورد إن إل بي) مع نماذج مدربة مسبقًا يمكنها معالجة النص بأكثر من 50 لغة بشرية. كما يمكنك أن تتخيل ، كان لهذا تأثير كبير على المجتمع.

بعد ذلك ، حاولت بنجاح إنشاء نموذج لغوي كبير مثل BERT من خلال مشاريع مثل Facebook AI's XLM mBERT (أكثر من 100 لغة) و CamemBERT ، والتي تم ضبطها بدقة للغة الفرنسية:

اتجاهات 2020

ما سبق هو ملخص للتقدم المحرز في مجال البرمجة اللغوية العصبية في عام 2019. ما هي الاتجاهات في هذا المجال في عام 2020؟

تكهن سودالاي راجكومار ، خبير البرمجة اللغوية العصبية وكاجل غراندماستر ، بالاتجاهات الرئيسية في عام 2020:

استمر في الاتجاه الحالي وقم بتدريب نموذج أكبر للتعلم العميق على مجموعة بيانات أكبر ؛

بناء المزيد من تطبيقات الإنتاج ، سيساعد نموذج NLP الأصغر ؛

تكلفة التعليق التوضيحي للبيانات النصية يدويًا عالية ، لذا قد تصبح طرق وضع العلامات شبه الخاضعة للإشراف مهمة ؛

قابلية تفسير نموذج البرمجة اللغوية العصبية ، لفهم ما تعلمه النموذج عند اتخاذ قرارات عادلة.

يعتقد سيباستيان رودر ، الباحث في مجال البرمجة اللغوية العصبية وأحد مؤلفي ULMFiT:

لن تتعلم فقط من مجموعة بيانات ضخمة ، بل سترى أيضًا المزيد من النماذج تتعلم بكفاءة في عدد أقل من العينات ؛

يؤكد النموذج بشكل متزايد على التوزع والكفاءة ؛

ركز على المزيد من مجموعات البيانات بلغات متعددة.

رؤية الكمبيوتر (CV): يصبح تجزئة الصورة أكثر دقة ، ويصبح تزوير الذكاء الاصطناعي أكثر صحة

فيما يتعلق برؤية الكمبيوتر ، فقد زاد عدد الأوراق التي تلقتها المؤتمرات الدولية الكبرى مثل CVPR و ICCV بشكل ملحوظ هذا العام. بعد ذلك ، دعنا نراجع بعضًا من أهم الخوارزميات والتطبيقات في عام 2019.

يتم تجاوز قناع Kaiming R-CNN

سجل القناع R-CNN

في مهمة تجزئة مثيل صورة COCO ، تجاوز Mask Scoring R-CNN قناع He Kaiming's Mask R-CNN ، وبالتالي فاز بالتقرير الشفوي لـ CVPR 2019.

في نموذج مثل Mask R-CNN ، يتم استخدام الثقة في تصنيف المثال كمقياس لجودة القناع ، ولكن في الواقع لا ترتبط جودة القناع وجودة التصنيف ارتباطًا قويًا.

أجرت هذه المقالة من جامعة Huazhong للعلوم والتكنولوجيا بحثًا حول هذه المسألة ، واقترحوا طريقة تسجيل جديدة: درجة القناع.

لا يعتمد نموذج Mask Scoring R-CNN بشكل مباشر على الاكتشاف للحصول على درجات التصنيف فحسب ، بل يتعلم بشكل منفصل أيضًا قاعدة تسجيل الأقنعة: MaskloU head.

وبالنظر إلى كل من درجة التصنيف ودرجة القناع ، يمكن لـ Mask Scoring R-CNN تقييم جودة الخوارزمية بشكل أكثر عدالة وتحسين أداء نموذج تجزئة المثيل.

أجرى فريق البحث تجارب على مجموعة بيانات COCO ، وأظهرت النتائج أن Mask Scoring R-CNN موجود على شبكات أساسية مختلفة ، وتحسن AP دائمًا حوالي 1.5.

تم تصنيف هذه الورقة من قبل Open Data Science كواحدة من أفضل عشر أوراق للربع الأول من عام 2019.

العمل الأول في الأطروحة هو المتدرب الأفق هوانغ Zhaojin ، من فريق الأستاذ المساعد وانغ Xinggang من كلية الاتصالات بجامعة Huazhong للعلوم والتكنولوجيا.

منفرد

يتفوق المتدرب على بايتات طريقة وانغ شين لونغ الجديدة لتجزئة المثيل SOLO ، كطريقة تجزئة مثيل أحادية المرحلة ، يكون الإطار أبسط ، ولكن الأداء يتجاوز أيضًا قناع R-CNN.

الفكرة الأساسية لطريقة SOLO هي إعادة تعريف مشكلة تجزئة المثيل إلى مشكلة توقع مدرك للفئة ومشكلة توليد قناع مدرك للمثال.

تظهر النتائج التجريبية على مجموعة بيانات COCO أن تأثير SOLO يتجاوز عمومًا طريقة تعميم تجزئة مثيل مرحلة واحدة سابقة ، وفي بعض المؤشرات يتجاوز أيضًا الإصدار المحسن من Mask R-CNN.

العنوان ذو الصلة

https://arxiv.org/abs/1903.00241v1https://arxiv.org/abs/1912.04488

قراءة متعمقة

الأداء يفوق He Kaiming Mask R-CNN! طريقة جديدة لتجزئة الصور مفتوحة المصدر لطلاب ماجستير Huake | CVPR19 Oral

يقترح المتدربون على ضربات البايت طريقة جديدة لتجزئة المثال: يتجاوز الأداء قناع Kaiming R-CNN

EfficientNet

إن EfficientNet هي طريقة قياس نموذج تم تطويرها بواسطة Google استنادًا إلى AutoML ، وحققت معدل دقة 84.1 في اختبار ImageNet وتحديث السجلات.

على الرغم من أن معدل الدقة أعلى بنسبة 0.1 فقط من نموذج SOTA السابق Gpipe ، إلا أن النموذج أصغر وأسرع ، ويتم تقليل عدد المعلمات وفلوبس بشكل كبير ، ويتم تحسين الكفاءة 10 مرات كثير.

المؤلفان هما Mingxing Tan ، مهندس من Google Brain ، و Quoc V. Le ، كبير العلماء.

العنوان ذو الصلة

جيثب: https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet

الورق: https://arxiv.org/abs/1905.11946

قراءة متعمقة

نموذج تحجيم المصادر المفتوحة من Google EfficientNets: تتمتع ImageNet بمعدل دقة قياسي وزيادة 10 أضعاف في الكفاءة

Detectron2

تأتي مكتبة اكتشاف الهدف PyTorch القوية للغاية من Facebook.

بالمقارنة مع Detectron الأصلي ، فإن التدريب أسرع من ذي قبل ، ولديه وظائف أكثر من ذي قبل ، ويدعم نماذج أكثر وفرة من ذي قبل. تصدرت مرة واحدة قائمة جيثب الساخنة.

في الواقع ، يعد Detectron2 إعادة كتابة كاملة للجيل الأول Detectron: تم تنفيذ الجيل الأول في Caffe2 ، ومن أجل تكرار تصميم النموذج والتجربة بشكل أسرع ، تمت كتابة Detectron2 من الصفر في PyTorch.

علاوة على ذلك ، فإن Detectron2 هو نموذجي ، ويمكن للمستخدمين إضافة وحداتهم المخصصة الخاصة بهم إلى أي جزء من نظام الكشف عن الهدف.

هذا يعني أنه يمكن كتابة العديد من الدراسات الجديدة بمئات الأسطر من التعليمات البرمجية ، ويمكن فصل الجزء الذي تم تنفيذه حديثًا تمامًا عن مكتبة Detectron2 الأساسية.

يعتمد Detectron2 على جميع النماذج المتاحة من جيل (Faster R-CNN و Mask R-CNN و RetinaNet و DensePose) ، كما يضيف نماذج جديدة مثل Cascade R-NN و Panoptic FPN و TensorMask.

العنوان ذو الصلة

جيثب: https://github.com/facebookresearch/detectron2

قراءة متعمقة

قائمة الاتجاه GitHub # 1: مكتبة اكتشاف الهدف Super PyTorch Detectron2 ، تدريب أسرع ، دعم المزيد من المهام

أقوى GANs

في عام 2019 ، لا تزال GANs نشطة.

على سبيل المثال ، أيضًا من Google DeepMind الجيل الثاني VQ-VAE ، الصور الناتجة أكثر واقعية وتنوعًا من BigGAN ، وأكثر تنوعًا: https://arxiv.org/abs/1906.00446

BigBiGAN ، لا يمكن فقط إنتاج صور ذات جودة ممتازة ، ولكن أيضًا تحديث السجل في مهمة تصنيف الصور: https://arxiv.org/abs/1907.02544

شارك في إنتاجه معهد إسرائيل للتكنولوجيا وجوجل للفوز بأفضل ورق ICCV2019 SinGAN : Https://arxiv.org/abs/1905.01164

تطورت StyleGAN من Nvidia أيضًا إلى طاقة عالية ستايل GAN2 ، لتعويض العيوب المختلفة للجيل الأول: https://arxiv.org/abs/1912.04958

قراءة متعمقة

تم تجاوز أفضل GAN في التاريخ! أصدرت DeepMind الجيل الثاني من VQ-VAE من الصعب التمييز بين صور HD الحقيقية والباطلة للوجوه البشرية

من خلال تحديث سجل ImageNet ، لن يقوم GAN بتزوير فقط! يستخدمه DeepMind لتصنيف الصور ، وتصنيف AI AI

ICCV2019 أفضل ورقة تفسير كامل SinGAN ، اقرأ هذه المقالة لفهم

بدون StyleGAN2 ، اعتقدت أن الجيل الأول كان القمة: مولد الوجه Nvidia تطور بطاقة عالية لتعويض العيوب الرئيسية

اتجاهات 2020

بالتطلع إلى عام 2020 ، يعتقد Analytics Vidhya أن تركيز المجال البصري سيظل على GAN:

تعمل طرق جديدة مثل styleGAN2 على إنتاج صور وجه واقعية بشكل متزايد ، وسيكتشف اكتشاف DeepFake أهمية متزايدة. سيجري كل من المرئي والمسموع المزيد من البحث في هذا الاتجاه.

يعد التعلم التلوي والتعلم شبه الخاضع للتوجيه اتجاهات بحث رئيسية أخرى في عام 2020.

التعلم المعزز (RL): بين النجوم DOTA مكسور ، وقابلية الاستخدام أقوى

في عام 2019 ، تم توسيع طرق التحسين الحالية لتشمل موارد حوسبة أكبر ، وتم إحراز بعض التقدم.

في العام الماضي ، حل التعلم المعزز سلسلة من المشكلات البيئية المعقدة التي كان من الصعب حلها في الماضي ، مثل هزيمة أفضل اللاعبين المحترفين في البشر في ألعاب مثل Dota2 و StarCraft 2.

وأشار التقرير إلى أنه على الرغم من أن هذه التطورات جذبت اهتمامًا كبيرًا من صناعة الإعلام ، إلا أنه لا تزال هناك بعض المشكلات في الطريقة الحالية:

مطلوب كمية كبيرة من بيانات التدريب ، ولا يمكن الحصول على بيانات التدريب إلا إذا كانت هناك بيئة محاكاة دقيقة وسريعة بما فيه الكفاية. هذا هو الحال في العديد من ألعاب الفيديو ، ولكن معظم مشاكل العالم الحقيقي ليست كذلك.

نظرًا لاستخدام هذا النموذج التدريبي ، تشعر خوارزميات التعلم التعزيزية واسعة النطاق بأنها تستغل استراتيجيات مكثفة بشكل مفرط في مساحة المشكلة ، بدلاً من تركها تتعلم السببية المحتملة في البيئة وتلخص بذكاء.

وبالمثل ، فإن جميع أساليب Deep RL الحالية تقريبًا هشة للغاية في العينات العدائية ، والتعميم خارج النطاق ، والتعلم بعينة واحدة ، ولا يوجد حاليًا حل جيد.

لذلك ، فإن التحدي الرئيسي لـ Deep RL هو التحول التدريجي من التعامل مع البيئات الحتمية إلى التركيز على التطورات الأساسية مثل التعميم ، نقل التعلم ، والتعلم من البيانات المحدودة. يمكننا رؤية ذلك من اتجاهات البحث في بعض المؤسسات.

أولاً ، أطلقت OpenAI بيئة جديدة مشابهة للنادي الرياضي ، والتي تستخدم توليد مستوى العملية لاختبار قدرة التعميم لخوارزمية Deep RL.

بدأ العديد من الباحثين في التساؤل وإعادة تقييم تعريفنا الفعلي لـ "الذكاء". بدأنا نفهم بشكل أفضل نقاط الضعف غير المكتشفة للشبكات العصبية واستخدمنا هذه المعرفة لبناء نماذج أفضل.

قراءة متعمقة

خسر 1-10 ، تحطمت في 5 دقائق! هزم سيد Starcraft 2 المحترف من قبل AI لأول مرة في التاريخ ، أصبح AlphaStar مشهورًا في المعركة الأولى

سحق 99.8 من المعارضين البشريين ، جميع الأجناس الثلاثة هم من المستوى الرئيسي! استقلت Interstellar AI Nature ، تم الكشف عن التكنولوجيا لأول مرة

2: 0! تم سحق بطل العالم Dota2 OG بواسطة OpenAI ، دفع البشر برجين خارجيين فقط

كيف سحق الذكاء الاصطناعي بطل Dota2؟ تم إصدار الورقة التراكمية الكاملة لـ OpenAI لمدة ثلاث سنوات

اتجاهات 2020

باختصار ، الاتجاهات المتوقعة لعام 2020 هي كما يلي:

سوف يصبح التعلم والترويج من البيانات المحدودة الموضوع الرئيسي لبحوث التعلم التعزيزي ؛

يرتبط الاختراق في مجال التعلم المعزز ارتباطًا وثيقًا بالتقدم في مجال التعلم العميق ؛

ستستخدم المزيد والمزيد من الدراسات قوة النماذج التوليدية لتعزيز عمليات التدريب المختلفة.

البحث متعدد التخصصات: منظمة العفو الدولية بحث متعمق متعدد التخصصات

مع تطور تكنولوجيا الذكاء الاصطناعي ، أصبحت البحوث متعددة التخصصات شائعة أيضًا هذا العام. غالبًا ما يتم العثور على رقم الذكاء الاصطناعي في الطب وواجهات الدماغ والحاسوب وحتى البحث الرياضي.

واجهة الكمبيوتر الدماغ

في مجال واجهات الدماغ والحاسوب التي يراهن عليها المسك والفيسبوك ، يساعد التعلم العميق الباحثين على فهم ما يعتقده الدماغ.

على سبيل المثال ، جامعة كاليفورنيا ، سان فرانسيسكو ، بحث على متن الطبيعة: استخدام التعلم العميق لفهم الدماغ مباشرة وتحويل إشارات الدماغ إلى كلام.

لا يمكن للواجهة الدماغية الحاسوبية لتوليف الكلام أن تولد سوى 8 كلمات في الدقيقة ، ويمكن للجهاز الجديد في هذه الدراسة توليد 150 كلمة في الدقيقة ، بالقرب من معدل الكلام الطبيعي للبشر.

الدواء

في المجال الطبي ، لا تلعب تكنولوجيا التعلم الآلي دورًا فقط في التعرف على الصور الطبية.

على سبيل المثال ، استخدمت دراسة أجراها المعهد الألماني لهندسة الأنسجة والطب التجديدي خوارزمية التعلم العميق DeepMACT للكشف عن النقائل السرطانية وتحليلها تلقائيًا في جسم الماوس بأكمله.

استنادًا إلى هذه التقنية ، لاحظ العلماء لأول مرة مواقع نقيلة صغيرة تشكلت من خلية سرطانية واحدة ، وحسّنوا كفاءة عملهم 300 مرة الأعلى.

"حاليًا ، يبلغ معدل نجاح التجارب السريرية للسرطان حوالي 5. ونعتقد أن تقنية DeepMACT يمكن أن تحسن بشكل كبير عملية تطوير الأدوية في البحوث قبل السريرية. لذلك ، قد يساعد هذا في العثور على مرشحين أكثر فعالية للأدوية للتجارب السريرية ومن المتوقع أن يساعد في الإنقاذ قال مؤلف الدراسة علي إرتورك: "حياة الكثيرين".

الرياضيات

على الرغم من أن الرياضيات هي أساس العلوم الطبيعية ، فقد لعبت أيضًا دور "التغذية المرتدة" في ظل التطور المستمر للذكاء الاصطناعي.

يمكن للنموذج الجديد الذي نشره Facebook حل المعادلات التفاضلية والتكاملات غير المحدودة بدقة خلال ثانية واحدة.

ليس ذلك فحسب ، بل يتفوق الأداء أيضًا على Mathematica و Matlab الأكثر استخدامًا.

يمكن النظر إلى كل من المعادلات المتكاملة والتفاضلية على أنها تحويل تعبير إلى آخر ، ويعتقد الباحثون أن هذه حالة خاصة للترجمة الآلية ويمكن حلها باستخدام طريقة البرمجة اللغوية العصبية.

تنقسم الطريقة إلى أربع خطوات:

  • تمثل التعبيرات الرياضية في شكل الأشجار ؛
  • قدم نموذج seq2seq.
  • توليد تعابير عشوائية ؛
  • احسب عدد التعبيرات.

قام الباحثون بتقييم دقة النموذج في حل معادلات التفاضل والتكامل في مجموعة بيانات تحتوي على 5000 معادلة.

تظهر النتائج أنه بالنسبة للمعادلات التفاضلية ، يمكن لفك تشفير بحث الحزم تحسين دقة النموذج بشكل كبير.

Mathematica هو أفضل البرامج التجارية أداءً على مجموعة اختبار مكونة من 500 معادلة.

عندما تقوم الطريقة الجديدة بإجراء بحث بالحزم بحجم 50 ، تزداد دقة النموذج من 81.2 إلى 97 ، وهو أفضل بكثير من Mathematica (77.2)

وفي بعض المشكلات التي يتعذر على Mathematica و Matlab حلها ، يقدم النموذج الجديد حلولاً فعالة.

نتطلع إلى تعلم الآلة 2020

من البرمجة اللغوية العصبية إلى رؤية الكمبيوتر إلى التعلم المعزز ، هناك العديد من الأشياء التي نتطلع إليها في عام 2020. فيما يلي بعض الاتجاهات الرئيسية التي تنبأ بها Analytics Vidhya في عام 2020:

بحلول عام 2020 ، سيستمر عدد وظائف التعلم الآلي في النمو بشكل كبير. نظرًا لتطور البرمجة اللغوية العصبية إلى حد كبير ، ستسعى العديد من الشركات إلى توسيع فرقها ، وهو الوقت المناسب لدخول الميدان.

سيكون دور مهندس البيانات أكثر أهمية.

انطلق AutoML في عام 2018 ، لكنه لم يصل إلى الارتفاع المتوقع في عام 2019. في العام المقبل ، عندما تصبح الحلول الجاهزة لـ AWS و Google Cloud أكثر بروزًا ، يجب أن نولي المزيد من الاهتمام لذلك.

هل سيكون 2020 هو العام الذي نشهد فيه أخيرًا تقدمًا في التعلم المعزز؟ لقد كان في حالة ركود منذ عدة سنوات لأن نقل حلول البحث إلى العالم الحقيقي أثبت أنه عقبة رئيسية.

- إنهاء -

التجنيد المخلص

يقوم الكوبيت بتجنيد المحررين / المراسلين ، وموقع العمل في تشونغ قوان تسون ، بكين. نتطلع إلى انضمام الطلاب الموهوبين والمتحمسين إلينا! للحصول على التفاصيل ذات الصلة ، يرجى الرد على كلمة "التوظيف" على واجهة حوار QbitAI.

Qubit QbitAI كاتب العقد الرئيسي

' ' تتبع التطورات الجديدة في تكنولوجيا ومنتجات الذكاء الاصطناعي

الأطفال البالغ من العمر 30 عاما لين يون Zhuangshan البالغ من العمر 39 عاما سونغ هاي كيو، مع اثنين من الناس يرتدون الأصفر أوزة دعوى، ومزاجه قريبة جدا من منافسة

اعتبر خبراء مثل Zhong Nanshan أن نقطة تحول الوباء كانت حول مهرجان الفانوس ، ولا يحتاج الأشخاص العاديون إلى ارتداء القفازات كل يوم.

جميل مرساة شيانغ للعودة إلى الدعارة، وكان يرتدي الوردي قطعة ثوب إعادة إنشاء المرحلة المستخدمين: لا الدهون أطول

لين تشي لينغ وزوجها تناسب لاول مرة مهرجان الربيع، والمشاركة في الأنشطة تزوج رسميا، البالغ من العمر 46 عاما ليس القديم

شيجياتشوانغ: الحماية الكاملة من العرض العام من الضروريات اليومية

شيجياتشوانغ: تحقيق درجة الحرارة إلى ميناء عالية السرعة لمنع إدخال انتشار

السماح لجميع فيلم الرسوم المتحركة يصبح ناعم، 480 لا كيتون، جامعة الوطنية تشياو تونغ الدكتوراه مفتوحة المصدر إطار برنامج الاستيفاء

خبى فوبينغ: الخروج من ربيع الجبال

وليمة ني ني البالغ من العمر 32 عاما وتحديد منخفضة رئيسيا المظهر، يرتدي الرجال الرجعية، والناس ما تبدو حقا جيدة في الولايات المتحدة

31 يناير شنغهاي اكسبرس نيوز ومكافحة الالتهاب الرئوي

خبراء لأول مرة يشك "نقل الاتصال": بعد فيروس الملوثة أيديهم، ثم فرك قد تكون مصابة عينيك

وكانت وو مي شوان أداة الشمس صور عيد ميلاد، كاملة مع ارتفاع الذيل ليو هاى تشينغ نقية وجميلة، ومشروع قانون كعكة لسرقة الأضواء