تغيير AI "أعاقت بشكل مصطنع"؟ العلم الجديد السببية

كلما ذكر الناس "بدون طيار" كيف قوية تكنولوجيا السيارات أعطيت للجمهور ما يمكن توقعه، وسوف تفكر لي HBO الدراما وادي السليكون "وادي السيليكون" في حلقة واحدة:

 رأس المال المغامر في وادي السليكون قطب مساعد غريغوري رتبت لسيارة بدون سائق لارسال الصغيرة الشركات المبتدئة جاريد الموظفين في العودة إلى ديارهم، واعتقدت هذه القصة فقط إلى تفسير وادي السليكون الغطرسة، فقط على كل شيء سيارة تسير على ما يرام، من يدري من نصف ذهب، السيارة فجأة بدأ قبل تعليمات جيدة جدول زمني محدد، وتجاهل الركاب جاريد وهم يهتفون "أوقفوا" و "مساعدة"، نحو وجهة أخرى لخدمة مصالح ذاتية: أربعة آلاف الاميال الجزر غير المأهولة على البحر.

مسلسل "وادي السيليكون" لقطات

 جاريد حفظها في النهاية، فقط عندما اعتقدت يجب تغيير القصة "إقصاء" بعد. بالنسبة لمعظم المشاهدين، وهذا هو مجرد مجموعة من الفكاهة السوداء، والدراما، والفن كانت مستمدة من هذا الواقع، في الواقع، إذا كانت السيارة بدون سائق فجأة تخرج عن نطاق السيطرة، سيؤدي إلى ما هو عواقب لا يمكن تصورها حقا.

 بعد 7 مايو 2016، فلوريدا، يقود أصحاب تسلا موديل S باستخدام الطيار الآلي واسطة (السيارات التجريبية)، لحادث سيارة ومات. وهذا هو أول حادث سيارة مميت في وضع الطيار الآلي منذ وقوع الحادث ولكن أيضا لجميع التكنولوجيا من دون طيار متعطشا الناس لديهم لمواجهة هذه التكنولوجيا يجلب المخاوف الأمنية.

  تسلا أعلنت ذلك:

"المركبات غير المأهولة دقة 99 هي سهلة نسبيا، ولكن لتحقيق 99.9999 لديها صعوبة أكثر، وهذا هو هدفنا في نهاية المطاف، لأن السفر في 70 ميلا في سيارة ثانية إذا كانت عواقب الفشل يمكن أن يكون كارثيا."

 لم تسلا لا نقول 100.

 في المستقبل، حتى لو كانوا يدعون لشركات التكنولوجيا التكنولوجيا من دون طيار وقد وضعت حتى تنضج جدا، وربما بعض الناس لا يزال من الصعب استقل بأمان سيارة بدون سائق، من الناحية النفسية، هذه المركبات هي نسبيا "ضبط النفس" لأبدا "غير آمنة".

 تطوير التكنولوجيا من دون طيار هي جزء لا يتجزأ من كبيرة خوارزمية التعلم العمق، في حين أن الأم شبكات النظرية الافتراضية جوديا بيرل (جوديا بيرل) عيون، والتعلم العميق، هو مصطنع "لا" مظهر ذكي، ل هدفها من الدراسة هو العلاقة بدلا من السببية، في أسفل سلم السببية. وكان اللؤلؤ وقال في مقابلة: عمق تعلم جميع الإنجازات الكبيرة التي بذلت في بعض درجة ولكن تناسب المنحنى إلى البيانات فقط. من جهة نظر رياضية مستوى، بغض النظر عن مدى بمهارة تقوم بمعالجة البيانات، وما تقرأ في البيانات العملية، فإنه لا يزال مناسبا منحنى عملية التدريب، على الرغم من أنها تبدو معقدة.

 تنمية الذكاء الاصطناعي في نواح كثيرة استفادت من اللؤلؤ دراسة سابقة، كان في آخر كتاب "لماذا: إن العلم الجديد السببية" في عكس نفسه، لؤلؤ يعتقد أن الذكاء الاصطناعي وتعلم الآلة الحالي هو في الواقع أدنى سلم مستوى السببية، لا يمكن إلا بشكل سلبي قبول الملاحظات، معتبرا أن "إذا رأيت ...... ماذا سيحدث" هذا النوع من المشاكل. الذكاء الاصطناعي قوي، ونحن بحاجة إلى تنفيذ الطبقة الثالثة من المنطق "المخالف".

 على سبيل المثال، إذا أراد مبرمج السيارات السيارات بدون سائق تتفاعل بشكل مختلف في ظل الظروف الجديدة، ثم لا بد له بشكل صريح إضافة رمز جديد لموصوفة هذه التفاعلات في البرنامج. الآلة لن شخصية من أيديهم يحمل زجاجة ويسكي من المشاة قد تتفاعل بشكل مختلف لصافرة، في أي نظام تشغيلي الجزء السفلي من السببية سلم حتما هذا النقص في المرونة والقدرة على التكيف. AI السببية الاستدلال لا يمكن أن يكون مجرد "مصطنعة المتخلفين عقليا،" انها ليست ابدا لمعرفة طبيعة السببية في العالم من خلال البيانات.

كل سلم مستوى السببية لديه ممثل البيولوجية
(المصدر: "لماذا: إن العلم الجديد السببية" مايا هاريل الرسم)

 عام 2016، مارس 2016، AlphaGo ليعتبر أقوى اللاعبين الإنسان على رأس شيشي، صدم العالم، والكثير من الناس على تنمية الذكاء الاصطناعي فجأة لا تعد ولا تحصى إشعال الخيال يسجل 4-1 فوز على مر السنين، ولكن أيضا ل جلبت العديد من الناس شعورا من الأزمة.

 للأسف، وهذا يثبت فقط أن عمل منظمة العفو الدولية: للسماح الجهاز لبعض المهام كاملة، وعمق من التعلم هو مفيد. ومن المسلم به أنه في بيئة يمكن محاكاتها والدولة، AlphaGo خوارزميات البحث ذكية ومناسبة لمساحة احتمال نطاق واسع، وبالنسبة لأولئك الذين يصعب محاكاة في قضايا صنع القرار البيئية (بما في ذلك الطيار الآلي المذكورة أعلاه)، مثل الخوارزمية لا تزال عاجزة. الطريقة المستخدمة يشبه عمق التفاف تعلم الشبكة العصبية ليست الطريقة الصارمة أو واضحة للتعامل مع حالة عدم اليقين، والهندسة المعمارية للشبكة يمكن أن يكون تطوير الذات. بعد الانتهاء من التدريب الجديد، المبرمجين لا تعرف ما هو عليه أداء الحساب، أو لماذا كانت فعالة.

 AlphaGo الفريق وليس من المتوقع هذا البرنامج أن تكون في بداية السنة أو للفوز على أفضل لاعب الشطرنج البشري في غضون خمس سنوات، وأنها لا يمكن أن يفسر السبب في أن تنفيذ البرنامج يمكن أن تنتج مثل هذه النتائج جيدة. إذا كان الروبوت مثل AlphaGo عامة، تفتقر إلى الوضوح، ثم البشر لا يستطيعون التواصل هادف معهم، والعمل على انجاحه "الذكية".

 على افتراض منزلك لديه الروبوت، وعند النوم، وفتح الروبوت مكنسة كهربائية، وبدء العمل، في هذا الوقت كنت أقول ذلك، "يجب أن لا تستيقظ لي." القصد من ذلك هو أن يكون واضحا، ثم فتح مكنسة كهربائية سلوك خاطئ، ولكن كنت لا تريد أن تفهم شكواك كما لم يعد استخدام الطابق العلوي مكنسة كهربائية.

 في هذا الوقت، يجب على الروبوت فهم وراء السببية: المكانس الكهربائية تجعل الناس الضوضاء، وأيقظت الضوضاء، وأنها سوف تجعلك غير سعيدة.

 العبارة بالنسبة لنا البشر كلمات السر قصيرة جدا تحتوي في الواقع ثروة من المحتوى. احتياجات الروبوت لفهم: كنت لا النوم عندما يمكن كنس، وضرورة أن نفهم أن لا أحد في المنزل عندما يمكن تنظيف، أو منظفات صامتون عندما لا يزال كنس. ويبدو أنه إذا كانت كمية المعلومات الواردة في التواصل اليومي لدينا هو كبير جدا؟

 روبوت ذكي النظر في تأثير السببية له / سلوكها.

(المصدر: "لماذا: إن العلم الجديد السببية" مايا هاريل الرسم)

 لذا، دعونا الروبوت حقا "ذكية" هو المفتاح لفهم "أود أن تأخذ سلوك مختلف"، وهذا هو، ما إذا كان قال هذه الجملة يتم تحليل من قبل استنتاجاته الخاصة. إذا كان الروبوت يعرف الدافع الحالي هو أن تفعل X = X0، في حين أنه يمكن تقييم أنه إذا كان خيار لتفعل X = X1، ستكون النتيجة أفضل، وهذا هو الذكاء الاصطناعي القوي.

  "نبذة تاريخ البشرية" الكاتب يوفال وLALI (يوفال نوح هراري) أن البشر تطوير القدرة على تصور الأشياء وهمية هو الثورة المعرفية في تطور البشرية، والمنطق المخالف هو فريد قدرة الإنسان، هو ذكي حقا. كل التقدم والتنمية البشرية، لا يمكن فصلها عن التفكير المغاير، الخيال لمساعدة الناس البقاء على قيد الحياة، والتكيف والسيطرة على العالم بأسره. وتنص نظرية السببية مجموعة من أدوات التفكير المغاير، إذا تم استخدامها في مجالات الذكاء الاصطناعي، من المتوقع أن يحقق الذكاء الاصطناعي حقيقي قوي.

 القدرة على تطوير الروبوت للن يكون مشكلة مجانا، لؤلؤ الجواب على الاطلاق. قال: الناس يجب فهم كيفية برمجة الروبوت، وماذا ستجني. لسبب ما، على هذا الجانب من التطور من حيث مستوى الإرادة الحرة في حساب وسيتم أيضا الحاجة إليها. أن أول بادرة من الروبوت مع الإرادة الحرة يكون التواصل المغاير، مثل "يجب أن نقوم بعمل أفضل." إذا كانت مجموعة من الروبوتات لكرة القدم تبدأ في التواصل بهذه اللغة، ثم سنعرف أن لديهم الإرادة الحرة. "يجب أن تعطيني الكرة، لقد كنت في انتظار ل، ولكن كنت لا تعطي الكرة بالنسبة لي!" "يجب عليك ......" يعني ذلك أنه يجب عليك القيام به، ولكنها لم تفعل. ولذلك، فإن أول بادرة هو التواصل، وركل الثانية من كرة القدم أفضل.

 اعتاد الناس على مناقشة الذكاء الاصطناعي في الغالب قوي يقتصر على المستوى الفلسفي، كان المجتمع الأكاديمي على "AI قوية" حافظت على موقف الحذر، ولا يمكن أن يكون التفكير بالتمني جدا من ذلك بكثير. ولكن التقدم العلمي لا يتوقف أبدا يرجع إلى الفشل، سواء كان ذلك من دون طيار، أو تطوير تقنيات الذكاء الاصطناعي الأخرى، في النهاية يعتمد على "الشعب"، وضعت البشر الروبوت قادرا على فهم السبب والنتيجة الحوار ذلك؟ الذكاء الاصطناعي يمكن أن تنتج كما الخيال كما يفعل الأطفال في العمر؟ مفتاح الإجابة على هذه الأسئلة هو أنه إذا كان البشر لا يستطيعون فهم السبب والنتيجة للسلم، ولكن أيضا كيفية جعل "مصطنعة" تصبح "ذكية"؟

  لا يملك آلة نسخ البشر، ولكن يمكن أن يكون أفضل من الأداء البشري، الذي هو في الحقيقة واقع رهيب . إذا كان الارتباط يمكن استخدامها لتحل محل السببية الاستدلال، إلى جانب العلاقة السببية من سلم، إلى عالم المنطق المخالف، ثم ظهور الآلات ستكون لا يمكن وقفها. لؤلؤة في الكتاب يعطي تفسيرا واضحا جدا في كيفية شعبية هذا الهدف.

 في وقت لاحق، في الواقع، حياتي اليومية و "الذكاء الاصطناعي" هي الكلمة لم يكن لديك الكثير لإنتاج ترتبط ارتباطا وثيقا، ولكن تعلمت في شيشي AlphaGo التغلب على تلك اللحظة، كان لديه شعور لا يمكن تفسيره وقوية من الرعب. وتيرة تطور العلم والتكنولوجيا دائما يبدو أبعد من الخيال، بحث الجوال مفتوحا لدينا "انفراجة كبيرة "الكلمات الرئيسية، سيتم طغى على لحظة eyeful الوجبات السريعة للعلوم والتكنولوجيا، فإن آلة تصبح بالضبط ماذا؟ وكيف يعاملون البشر؟ محاولة فقط لفهم السبب والنتيجة علاقة يمكن في مواجهة هذه المشاكل، وأقل الخسائر، وأكثر من ذلك بقليل الإيمان. تحرير: لتانغ كاي
- انتهى -

تسينغهوا الانتباه - بيانات أكاديمية تشينغداو للعلوم قناة الصغرى الرسمية منصة الجمهور " بيانات الإرسال THU "أيتها الأخوات ولا". إرسال البيانات THU "لرعاية المزيد من المحاضرات ونوعية المحتوى.

أنت مسؤول عن أي جزء من الذكاء الاصطناعي؟ بناء خريطة المعرفة تعتمد أساسا على دليل أو الجهاز؟

البيانات روج: الأولية تكنولوجيا المحاكاة الديناميكية ودورة حياة التطبيق في مجال الضرائب

تم إيقاف 360 الأعمال الهاتف المحمول، تجنيد 37 مدينة متوسط الراتب الشهري من 8452 يوان ......

اليوم العالمي لمكافحة التصحر والجفاف: اسمحوا الأصفر الاستنساخ الأرض الخضراء الحياة

NLP للمبتدئين 8 تقاسم الموارد الحرة

العمل AI الترتيب: آلة ظائف التعلم القائمة با، AI الطلب على الوظائف يتباطأ (القائمة المرفقة)

تعزيز أساس المضادة للخطر، بالإضافة إلى إنتاج حادث سلامة خطر الاحتواء مدينة ألمانية مجال البناء

أحدث جامعة QS التصنيف العالمي المفرج عنهم، فازت جامعة تسينغهوا في بكين أرفع من أي وقت مضى

مزارع الرياح عمق الشبكة العصبية على أساس فائقة على المدى القصير نظام التنبؤ السلطة

2019 الرحلات آلاف الأميال من الساحل يهاى، الصين عقدت بنجاح المشي الوطني

XGBoost وصف: التعلم تحت إشراف التنبؤ العمر المتوقع

مقاطعة ييكسيان: الزعرور تسوي يينغ