سلاح های خودمختار کلاشنیکف های فردا خواهند شد
سلاح های خودمختار هدف حمله را بدون دخالت انسان انتخاب می کند و با آن درگیر می شوند. برای مثال، این سلاح ها ممکن است شامل کواد کوپترهای مسلحی باشند که می توانند به دنبال افرادی خاص (که شرایط از پیش تعریف شده ي معینی دارند.) بگردند و آنها را از بین ببرند اما این سلاح ها شامل موشک های کروز یا هواپیماهای بدون سرنشین با کنترل از راه دور (که در آنها انسان ها همه ی تصمیم گیری ها برای تعیین هدف حمله را انجام میدهند)، نمی شود. تکنولوژی هوش مصنوعی (A1) به نقطه ای رسیده که در آن استقرار چنین سیستمهایی (به لحاظ عملی و نه قانونی)، طی چند سال (و نه چند دهه) آینده ممکن است و در حالی که مخاطرات آنها بالاست: سلاح های خودمختار را به عنوان سومین انقلاب در جنگ افزار، پس از سلاح های باروتی و هسته ای توصیف می کنند.
موافقان و مخالفان
بحثهای بسیاری له و علیه سلاح های خود مختار انجام شده است، برای مثال این که جایگزینی سربازان انسانی با ماشین ها خوب است، زیرا تلفات را برای دارنده ی آن کاهش می دهد. پرسش کلیدی برای بشریت امروز این است که آیا باید یک مسابقه ی تسلیحاتی جهانی با هوش مصنوعی را شروع کند، یا جلوی آغاز آن را بگیرد؟ اگر هر قدرت نظامی بزرگی برای توسعه ی سلاحهای هوش مصنوعی فشاری به جلو وارد کند، شروع یک مسابقه ی تسلیحاتی جهانی، تقریبا اجتناب ناپذیر است. نقطه ی نهایی این مسیر تکنولوژیکی واضح به نظر میرسد. سلاح های خودمختار، کلاشنیکف های فردا خواهند شد.
تولید انبوه هوش مصنوعی
بر خلاف سلاح های هسته ای این سلاح ها به مواد خام گران با روش های دشوار برای تهیه نیاز ندارند. بنابراین تولید انبوه این سلاح ها برای هر قدرت نظامی در هر جا ممکن، ارزان و در نتیجه میزانش قابل توجه خواهد بود. تنها مساله، زمان خواهد بود تا این سلاح ها در بازار سیاه به دست تروریستها، دیکتاتورهایی که آرزو دارند مردم خود را بهتر کنترل کنند، جنگسالارانی که خیال پاکسازی قومی را در سر می پرورانند و دیگران برسد. سلاح های خودمختار برای کارهایی چون ترورها، بی ثبات سازی ملت های به زانو در آوردن جمعیتها و قتل های گزینشی یک گروه قومی خاص، ایده آل هستند. بنابراین، ما باور داریم که یک مسابقه ی تسلیحاتی نظامی مبتنی بر هوش مصنوعی، برای بشریت مفید نیست.
تهدید جدی
راههای زیادی وجود دارد که در آنها هوش مصنوعی می تواند میدان های نبردامن تری را برای انسانها به خصوص شهروندان غیرنظامی ایجاد کند بدون این که بخواهد ابزارهای جدیدی برای کشتن انسان ها خلق کند همانند بسیاری از شیمیدانها و زیست شناسان که علاقه ای به ساختن سلامای شیمیایی یابیولوژیکی ندارند، بیشتر پژوهشگران هوش مصنوعی نیز نمی خواهند دیگران حوزه ی آنها را با انجام چنین کاری آلوده سازنده چرا که این عمل به طور بالقوه موجب واکنش شدید و بزرگ عمومی در قبال هوش مصنوعی می شود.
در حالی که منافع اجتماعی آینده ی مادر گروی هوش مصنوعی است در واقع، همان طور که شیمیدانها و زیست شناسان به طور گسترده از توافقات بین المللی که به شکلی موفقیت آمیز سلاح های شیمیایی و بیولوژیکی را ممنوع کرده اند، پشتیبانی می کنند و همان طور که بیشتر فیزیکدانان ما نیز از معاهدات منع سلاحهای هسته ای مبتنی بر قضا و سلاحهای لیزری کورکننده پشتیبانی می کنند متخصصان هوش مصنوعی نیز به ساختن سلاحهای دارای هوش مصنوعی با سلاح های خودمختار علاقه ای ندارند.