معبد يون في الجزء السفلي من غير مقعر
تقارير و qubit | عدد ملفه QbitAI
من الطاقة الإنتاجية، "الجحيم" عودة المسك، وقد أدى فقط أكثر من 2000 وقعت خبراء AI اتفاق خاص.
الغرض الأساسي من الاتفاق واحد فقط: وعد بعدم تطوير أسلحة القاتل نظام AI.
IJCAL عام 2018 في ستوكهولم، السويد، التي بدأها الفيزيائي المعروف MIT ماكس تيغمارك، ومستقبل رئيس معهد حياة ولايتهم (معهد مستقبل الحياة، FLI) الصياغة، وقد صدر هذا الاتفاق يجب أن تلك الغيوم.
يحتوي قطاع الشركات المسك، DeepMind المؤسس المشارك الاحساء بسكاي، مصطفى، شين ليج، مؤسس سكايب جان تالين، الرائدة عالميا في مجال AI الباحثين يوشوا بيجيو، ستيوارت راسل، يورغن شمدهوبر 2400 العالمي لمنظمة العفو الدولية وغيرها من العلماء، ولها رسميا اسم الموقع.
على الجنسية وملكية الشركات، وأنهم ينتمون إلى 90 دولة، وأكثر من 160 شركة أو منظمة العفو الدولية.
وهذا هو أيضا أول نظام سلاح AI العالم المتقدمة جماعات المعارضة المجتمع المدني، وليس من المستغرب، سوف تكون واحدة الأكثر تأثيرا.
"إعلان أسلحة مستقلة القاتلة"
اتفاق لتقف على "أسلحة فتاكة مستقلة إعلان" (الأسلحة الفتاكة مستقلة يتعهدون)، المضمون الأساسي من اليمين ليس المشاركة قاتلة أنظمة الأسلحة مستقلة (القوانين) التنمية والعمل التنموي، وقوانين تطوير واستخدام يجب أن يمنع منعا باتا.
وقال البيان: الحق في أن يقرر الحياة والموت من الإنسان الفرد، يجب أن لا يتم تسليمه إلى الجهاز. ويرجع هذا جزئيا إلى المستوى الأخلاقي للنظر فيها، "الحياة والموت السيطرة الآخرين" هذا أعطى الناس شعورا بالذنب شيء، يجب ألا يتم ذلك بواسطة جهاز بدون مشاعر.
منظمة العفو الدولية والأسلحة الفتاكة، دون تدخل بشري، لاختيار الأهداف، والمساءلة وصعوبة غير مسبوقة، وسوف تصبح أداة قوية في العنف، وخصوصا عندما يقترن نظم الرصد والبيانات.
وأكد البيان أيضا: مميزة أسلحة فتاكة مستقلة مختلفة من الأسلحة النووية والكيميائية والبيولوجية، وR واحد وفريق D يمكن فتح أكثر من سباق التسلح، ويفتقر إلى المجتمع الدولي الوسائل التقنية لتنفيذ الضوابط. ندين هذا ولتجنب حدوث سباق تسلح، نحن الأولويات للحفاظ على الأمن العالمي.
ولذلك، فإن الاتفاق الذي وقع اليوم، ودعا القمة أيضا على الحكومات وبالنسبة لمستقبل الكوكب، للتشاور معا لمقاومة قوانين قواعد القانون الدولي.
"نحن الذين لم يشاركوا القوانين، الأمر الذي يتطلب معايير أعلى لأنفسهم: نحن ولن تشارك في أو دعم القوانين التطوير والإنتاج والتجارة والاستخدام نحن نناشد شركات التكنولوجيا والمنظمات وقادتهم، وصناع السياسات وغيرهم من الناس معا. الوفاء بالوعد ".
الجيش المتسارع، والمعارضة والأوساط الأكاديمية، ورجال الأعمال شطيرة
AI الموضوع قاتلة، وبالفعل ليست جديدة.
في جميع السيناريوهات منظمة العفو الدولية، التي تعد واحدة من الأكثر إثارة للجدل، وذلك لأن المنظمات المختلفة احتضان مطالب المصالح المختلفة، والدولة هو محرج للغاية.
في الجيش، تبدأ الأسلحة المولد الذاتي من بداية عام 2013 في الولايات المتحدة وبريطانيا وإسرائيل وكوريا الجنوبية مختبر عسكري.
تختلف عن غيرها من الأسلحة، والأسلحة الفتاكة مستقلة، يمكن تحت أي ظرف من الظروف السيطرة والحكم الذاتي الكامل للعثور على الهدف، وتحديد المواقع، وقتل العدو هذه المجموعة من العمل، في حين نظم منظمة العفو الدولية والتكنولوجيا، هو أقوى من هذه الأسلحة "حملة قوة ".
بمجرد دخول هذه الأسلحة في ساحة المعركة، وأنها ستكون قادرة على تحديد الذات وإعطاء ضربة قاتلة للعدو، لا العاطفة، لا مزيد من الحكم، الحياة والموت لحقوق الإنسان، في نظر من الجهاز هو المزدوج "العدو = الموت".
الجانب الآخر للعملة، ومع ذلك، لا يخلو من هذه الأسلحة يمكن أن تقع في يد الشرير، أو الهدف المحدد الخبيثة، فإن النتيجة ستكون كارثية.
وهكذا يخرج من بدأت AI الأسلحة الفتاكة، والرأي العام الاصوات المعارضة تتوقف أبدا.
في الأوساط العلمية، - ستيفن هوكينغ، المسك وغيرهم من المشاهير في وقت مبكر من عام 2015، أكثر من ألف العلماء مشترك AI والعلماء وغيرهم قدمت رسالة مفتوحة المشترك للأمم المتحدة، محذرا من المخاطر المحتملة، فضلا عن سباق التسلح يحدث AI سلاح فتاك، دعا إلى سن حظر ذات الصلة.
وحتى الآن أيضا لدينا بعض النتائج الأولية. في المؤتمر الاستعراضي 2016 على اتفاقية الأمم المتحدة بشأن أسلحة تقليدية "، على، أدرجت منظمة العفو الدولية السلاح الفتاك للمرة الأولى في النطاق.
تلاه اجتماع عقد مؤخرا في ابريل من هذا العام، 26 بلدا، بما فيها الصين، أصدر بيانا مشتركا لدعم AI-القاتلة حظر الأسلحة.
الحظر هناك سابقة: في وقت سابق، ل، أسباب أخلاقية إنسانية والمخاطر المحتملة، سنت الأمم المتحدة الحظر المفروض على الأسلحة البيولوجية والأسلحة الكيميائية والأسلحة الفضائية.
ومع ذلك، فإن مسؤول من الأسلحة الفتاكة العهد الدولي للAI، لديهم حتى الآن في التوصل إلى توافق في الآراء.
والعديد من الشركات أيضا سحب الجيش شطيرة والبحث العلمي في عمليات شد وجذب.
في ابريل من هذا العام، وأول شركة هانوا الكورية الجنوبية للأنظمة الإلكترونية وKAIST الدفاع إقامة بالاشتراك الدفاع ومركز أبحاث الذكاء الاصطناعى الانصهار، والمعاناة من أكثر عالمية من 50 علماء AI معا المقاطعة.
بعد ذلك مشاركة Google AI من وزارة خارجية الولايات المتحدة بالتخطيط العسكري الدفاع التعرض مخضرم، واسمحوا هذه اللحظة "الأمل البشري" شركة المحاصرة، انتقد تقريبا "غربال"، احتجاجا مشتركا أكثر من 3000 موظف، العديد من الموظفين اختيار ترك.
أخيرا، وبعد ضربت ثلاثة عقود من، قدم جوجل معيار جديد، وضعت الشركة التكنولوجيا AI كدليل أخلاقي.
المبادئ التوجيهية التي لن يتم استخدامها في تصميم الذكاء الاصطناعي أو أسلحة، أو مراقبة "انتهاك الغرض من القانون الدولي ومعايير حقوق الإنسان بقبول واسع" التكنولوجيا.
ومع ذلك، وجوجل ليست وحدها. كما تم يتعرض AI تعاون مايكروسوفت وأمازون وغيرها من عمالقة المرتبطة مع الحكومة، في استخدام التعرف على الوجه لمراقبة الهوية وغيرها من القضايا، لم تتوقف وسائل الإعلام، والمساهمين والموظفين احتجاجا على ذلك.
كما أنه من المؤكد أنه مع مزيد من النضج التكنولوجيا AI والتطبيقات في مختلف المجالات، والقوى التي تسعى والجشع والجدل حتما سيكون موجودا دائما.
كيف يمكنك التفكير في سلاح فتاك AI؟ الهوية "لم يتم البحث والتطوير، لا تشارك في، ممنوع منعا باتا"، وإعلان المسك التي بدأتها ذلك؟
- كامل -
المتدرب
العمليات و qubit المتدرب هو تجنيد الأنشطة والتخطيط لتنفيذ الأنشطة في إطار نجمة AI الرئيس التنفيذي للشركة، وكبار المديرين التنفيذيين الآخرين تشارك في الانترنت / حاليا، لدينا الفرصة للتواصل مباشرة مع الماشية الكبيرة صناعة AI. مقرها في تشونغ قوان تسون في بكين. تسليم استئناف مرحبا بكم في quxin@qbitai.com
تفاصيل محددة، يرجى و qubit عدد الجمهور (QbitAI) واجهة الحوار والرد "المتدرب" في الاسم.
و qubit QbitAI عناوين على التوقيع
' " تتبع تقنيات AI دينامية جديدة والمنتجات