العلماء يحذرون من CS: لم يتم حل هذه المشكلة، عاجلا أو آجلا، فوق الروبوت الإنسان

الذكاء الاصطناعي قوية مثل مصباح علاء الدين في المعالج. والرغبة التي تبدو بسيطة، مثل "ترك عائلتي الحصول الخضراء" - يمكن أن يؤدي إلى عواقب غير مقصودة.

الآن، وهو عالم يحاول تعليم آلة لفهم لدينا "رغبة حقيقية" لتجنب عواقب كارثية الجهاز عندما قد تجلب الأوامر المنفذة.

حاضر 2017 راسيل حول مخاطر AI على TED

جامعة كاليفورنيا عالم الكمبيوتر في بيركلي ستيوارت راسل (ستيوارت راسل) أنه على الرغم من النجاح الكبير في إنجاز مهمة محددة، مثل الشطرنج والصور تحديد والنص، وحتى خلق الموسيقى والنثر، اليوم موجهة نحو تحقيق الأهداف AI في نهاية المطاف هناك قيود.

ويرى راسل، سوف متطلبات الجهاز الأمثل "ملامح المكافأة" (أي التعلم تعزيز أهداف مشاكل ومتطلبات AI تحسين باستمرار المكافأة الإجمالية)، سيؤدي حتما إلى خلع AI، لأن AI لا يمكن أن تغطي وتزن كل الأهداف والأهداف الفرعية، والاستثناءات والتحذيرات في وظيفة مكافأة بشكل صحيح، وأنهم لا يعرفون حتى ما هي الأهداف الصحيحة.

والهدف هو تطوير خالية من الروبوتات "الحكم الذاتي" أصبحت أكثر وأكثر خطورة، لأنه كما أن تصبح الروبوتات أكثر ذكاء سوف يكون "لا يرحم" السعي لتحقيق أقصى قدر من المكافآت، وحاولوا منعنا إغلاقها.

"متوافقة الإنسان" مع ستيوارت راسيل

المنطق المقترحة حديثا عدم جعل الجهاز لتحقيق أهدافها، لكنها تسعى إلى تلبية رغبات الإنسان: يجب أن تكون AI هدف المباراة الوحيد لمعرفة المزيد عن خياراتنا. ويرى راسل، عدم اليقين تفضيل الإنسان، وضرورة التماس التوجيه للبشرية، هاتين النقطتين لضمان سلامة نظام AI البشري.

في صدر مؤخرا (الإنسان متوافق)، وكتاب، وأوضح روسيل "متوافق مع الإنسان" وجهات نظره له في شكل ثلاثة "مصلحة اساسية للآلة" ل. هذه المبادئ الثلاثة واسحاق اسيموف (اسحاق اسيموف) 1942 "ثلاثة قوانين الروبوتات" أصداء، ولكن الكثير لا تنضج. نسخة راسيل هو:

  • الهدف فقط من الجهاز هو لتعظيم تفضيلات الإنسان.
  • في البداية لم تكن متأكدا ما هذه الآلات نعم.
  • المصدر النهائي للمعلومات حول التفضيلات الإنسان هو السلوك البشري.

أستاذ راسيل أعتقد أنه إذا نبني الذكاء الاصطناعي وفقا للهدف عقلاني بحت، سيكون هناك الكثير من المتاعب، مثل "ما تركت AI تشتري لك فنجانا من القهوة، وعدم السماح لها أن تفعل ما في وسعها للحصول على كوب من القهوة".

لذلك من وجهة نظره، هو لضبط التركيز على تطوير أبحاث الذكاء الاصطناعى.

في السنوات القليلة الماضية، راسل وزملاؤه من جامعة بيركلي، جامعة ستانفورد، جامعة تكساس المؤسسات، وقد تم تطوير أساليب مبتكرة لنظام AI لفهم خياراتنا توفر القرائن، ولكن لا داعي لتحديد ما هي هذه التفضيلات .

الذكاء الاصطناعي قوية مثل مصباح علاء الدين في المعالج

المختبر هو تعليم الروبوت كيفية معرفة أولئك الذين ذكرت أبدا، لم يكن حتى التأكد من أهداف محددة الأفضليات الإنسان. الروبوت يمكن أن يتعلم من خلال مشاهدة لدينا عرض الرغبة الكمال، وحتى تعلم كيفية فهم عدم اليقين البشري. وهذا يوحي، AI قد تكون جيدة من المستغرب في استنتاج لدينا عقلية والأفضليات، حتى تلك التفضيلات عندما نفعل شيئا ولدت على الفور.

"هذه هي أول محاولة لإضفاء الطابع الرسمي على مشكلة"، وقال سعدي. "في الآونة الأخيرة فقط، بدأ الناس يدركون أن علينا أن ننظر عن كثب في التفاعل بين الإنسان والروبوت."

هذه محاولة جديدة، آلة جديدة بالإضافة إلى ثلاثة مبادئ راسل، تطوير AI هي حقا تبشر بمستقبل مشرق، لا يزال يبقى أن نرى. وهذه الطريقة سوف قياس الأداء على مستوى الروبوت التركيز على فهمهم لما البشر حقا مثل القدرة. وقال الباحث بول OpenAI كريستي أنو (بول كريستيانو) راسل وفريقه قد سهلت كثيرا من عملية.

كيف نفهم البشر؟ نقطة راسيل وجهة نظر لو كان من عيد الغطاس. في عام 2014، وقال انه كان في إجازة من بيركلي إلى باريس، "فكرت فجأة، AI هو الأكثر أهمية الاهتمام الجودة الشاملة من المشاعر الإنسانية."

أدرك، لا ينبغي أن يكون الهدف الروبوتات "لتحقيق أقصى قدر من الوقت عرض" مثل هذا الهدف تحديدا، ينبغي محاولة لتحسين حياتنا. في الواقع، سؤال واحد فقط: "إذا كان الجهاز الهدف هو محاولة لتحسين الجودة الشاملة من المشاعر الإنسانية، وهم يعرفون بالضبط كيف كيف نفعل؟"

الجوزاء الروبوت هو تعلم كيفية وضع مزهرية في وسط الجدول

في جامعة تكساس في أوستن سكوت Niku مو (سكوت Niekum) مختبر، واسمه الجوزاء الروبوت هو تعلم كيفية وضع مزهرية في وسط الجدول. عرض البشري هو غامض، لأن الجهاز قد يكون لفهم القصد من إناء على الجانب الأيمن من لوحة من اللون الأخضر أو الأحمر على الجانب الأيسر من وعاء. ومع ذلك، وبعد عدة محاولات، والأداء الروبوت هو جيد جدا.

ويرى روسيل أن البشر ليسوا عقلانية، لا يمكننا حساب لحظة معينة في الإجراءات التي سوف تؤدي إلى أفضل النتائج بعد فترة طويلة من الزمن، وليس AI يمكن. نظرية رسل هي أن صنع القرار لدينا هو الهرمي، ونحن نتابع أهداف طويلة الأجل بأهداف غامضة المتوسطة الأجل، في حين أن أعيننا هي الأكثر تشعر بالقلق إزاء هذا الوضع، مما يدل على دولة عقلانية تقريبية. في رأيه، يحتاج الروبوت إلى القيام بشيء مماثل، أو على الأقل فهم كيف نفعل ذلك.

أدرك أنه إذا كان الكمبيوتر لا يعرف ما بشر مثل، "ويمكن القيام ببعض تعزيز العكسي تعلم لمعرفة المزيد من المعرفة في هذا المجال."

العودة إلى بيركلي بعد، بدأ روسيل العمل مع زملائه وضعت الجديد "تعزيز التعاون تعلم الاتجاه المعاكس" حتى أن البشر والروبوتات يمكن أن نعمل معا، من خلال مجموعة متنوعة من "لعبة الثانوية" لمعرفة الخيارات الحقيقية للبشرية. يمثل لعبة المشهد مجردة من الحالات في العالم الحقيقي.

أنها وضعت "لعبة التبديل" لالروبوتات المستقلة هي الانحراف في معظم المرجح نوايانا الحقيقية: روبوت مستقل قد تعطيل قبالة التبديل الخاصة. في عام 1951، اقترح تورينج في بث بي بي سي المحاضرة، الى "ابقاء الجهاز في وضعية التبعية، على سبيل المثال، إيقاف الطاقة في لحظة معينة."

راسل في "متوافق مع الإنسان،" واحد كتب، مشكلة التبديل هي "جوهر مشاكل نظام التحكم الذكي. إذا لم نتمكن من اغلاق الجهاز لأنه لن يسمح لنا قريبة، ثم نحن حقا في ورطة كبيرة."

الأسلوب المفضل من علماء الكمبيوتر من جامعة ستانفورد الثنائي ارسا السعدي (Dorsa Sadigh) هو تعليم الروبوت التقاط الأشياء المختلفة

تفضيلات الإنسان عدم اليقين قد يكون المفتاح.

هناك في "لعبة تبديل" في دورين: واحد هو الإنسان، ودعا هارييت، والآخر هو الروبوت روبي. روبي يحتاج إلى اتخاذ قرارات نيابة عن هارييت - على سبيل المثال، ما إذا كانت لحجز غرفة جميلة ولكن مكلفة بالنسبة لها فندق - ولكن لست متأكدا ما تفضل.

هناك ثلاث حالات:

  • قد تكون هارييت روبي العائد المتوقع بين -40 إلى 60 جنيها، مع متوسط قيمة 10 مليون جنيه (يعتقد روبي أنها قد تتمتع هذه الغرفة يتوهم، ولكن لست متأكدا): روبي خيار لهاريت.
  • روبي لا علاقة: عودة إلى الصفر.
  • روبي أن تطلب هارييت، سواء أرادت أن تستمر في اتخاذ القرارات، أو يفضلون "إيقاف تشغيله" - وهذا هو، لا تحتاج روبي حجوزات فندقية صنع القرار. لو بقيت على السماح للروبوت، ومتوسط العائد المتوقع من أكثر من 10. لذا سيقرر روبي أن نسأل هارييت، إذا أرادت، وقالت انها يمكن إيقاف تشغيله.

أثبتت رسل ومعاونيه، بصفة عامة، إلا روبي هارييت تماما يدري كيف سيفعل، سيكون من الأفضل السماح لها أن تقرر. راسل في "الإنسان متوافق مع" كتب: "لقد أثبتت الوقائع أن عدم التيقن من الجهاز الهدف ضروري لضمان أننا على مقربة، حتى لو كان أكثر ذكاء مما نحن عليه".

وقال المدير العلمي لمعاهد البحوث أعلى منظمة العفو الدولية ميلة مونتريال يوشع بن جيو (يوشوا بيجيو) أن فكرة رسل هو "عميقة الجذور". وقال إن مفهوم يمكن تحقيقه عن طريق رسل التعلم العميق، وأنظمة الذكاء الاصطناعي للمساعدة في تقليل عدم اليقين وفهم تفضيلات الإنسان. واضاف "بالطبع، تحتاج أيضا إلى مزيد من العمل البحوث من أجل تحقيق ذلك".

يواجه راسل تحديين رئيسيين. "حقيقة واحدة هو، سلوكنا بعيد عن العقلانية، الفهم الحقيقي للأفضليات الأساسية لدينا من الصعب "قال، ونظام .AI يتطلب رتبة منذ فترة طويلة ومتوسطة والأهداف القصيرة الأجل من المنطق. نحن نعلم فقط أن الرغبة اللاوعي في الوجود، والروبوت يمكن أن تساعد حقا لنا (ولتجنب الوقوع في أخطاء جسيمة).

في مركز البحوث في جامعة ستانفورد محاكي السيارات، المركبات الذاتية هي فهم تفضيلات السائق البشري

والتحدي الثاني هو التغييرات في تفضيلات الإنسان. مع عملية تفكيرنا ستتغير حياتنا، ولكن أيضا بسبب بعض غبي الأشياء الصغيرة التغيير، وتفضيل قد تعتمد على مزاجنا، قد يكون الروبوت الصعب التكيف مع هذا التغيير.

بالطبع، هناك سؤال ثالث: الأشرار مثل ماذا؟ كيف يمكننا وقف الروبوتات الشر لتلبية الغرض من سيد شرهم؟ نظم AI هي جيدة في إيجاد سبل لتجاوز الحظر، ويوتيوب تم العمل على خوارزميات إصلاح التوصية، مثل الخوارزميات استخدام في كل مكان من الدوافع البشرية.

ومع ذلك، رسل لا تزال تشعر بالتفاؤل. على الرغم من أن الحاجة إلى المزيد من الأبحاث حول نظرية اللعبة والخوارزميات، إلا أن الشعور الغريزي هو أن تعليم الروبوت "أهل الخير" في نفس الوقت، فإننا قد نجد وسيلة لتعليم نفسك. وأضاف: "أعتقد أن هذا هو فرصة، ربما، أن الأمور تسير في الاتجاه الصحيح".

النص | هوانغ يى تشنغ

تخطيط | تيان Xiaona

اضغط على الصورة أدناه الكلمات الزرقاء "اعرف المزيد" لمزيد من المحتوى المتميز.

مصمم يان جيولونغ: جينغدتشن الانخفاض، وذلك لأن المصممين الصينيين "عمالا"

أنت لا تدرك قراءة حكايات الأطفال، بالضبط ما كنت غسيل دماغ؟

من فناني الشوارع البلع النار، مما أدى إلى إنشاء الدخل السنوي من 900 مليون أداء الشركات والفنون، وكيف يفعل؟

لماذا تصفح الأخبار، ومعظم الناس لا يمكن أن نرى مدى صحة أو خطأ؟

أنت تماما دون وعي، لدينا اندلاع صوت ذكي في

الحصين المؤسس المشارك وانغ هاو سحابة: سوف سحابة الألعاب تغيير البيئة في اللعبة الحالية؟

أبل مهندس سابق: 5G ظهر، 3D العالم على اندلاع ثورة

بيئة انعدام الوزن على جسم الإنسان يضر كثيرا؟ زوج من التوائم والضوابط، شقيق تصبح "زجاج"

تسعة أسئلة لتظهر لك: إنه عام 2020 ، لماذا لم تأت السيارات بدون سائق بعد؟

بريدج دالي أويحيي جي Jinrui: عند أسعار الفائدة إلى 0، وأنا حقا بدأت قلق

قلب مثقوب! وجدت دراسة جديدة أن: أكثر على الدهون في البطن، أصغر الدماغ

اقتصاديون اقول لكم: كانت المفاوضات لتجنب الوقوع في فخ النفسي للسقوط إلى تفقد