اخلاق سربازان؛ جنگهای فردا
پیشبینی اولیه
در سال ۲۰۱۴ آزمایشگاه پژوهشی ارتش ایالات متحده گزارشی منتشر کرد که در آن پیشبینی میشد میدان جنگ سال ۲۰۵۰ چگونه خواهد بود. جای تعجب نیست که وضعیت مشروحه در آن گزارش عمدتاً بر پای فناوری شکل گرفته بود. گزارش نوعی از جنگ را تشریح میکرد که اغلب مردم آن را به بازیهای ویدیویی و فیلمهای علمیتخیلی نسبت میدهند؛ صحنهای که در آن نیروهایی متفاوت گرد هم آمدهاند، نیروهایی از انسانهای ارتقاءیافته یا تقویتشده و از روباتهایی که دستهدسته وارد کارزار میشوند، از سلاحهای لیزری و سامانههای اطلاعاتی و امنیتی و روباتهای سایبری که در محیطی اطلاعاتی با یکدیگر درگیرند؛ محیطی اطلاعاتی که تخاصم در آن بسیار شدید است. این نیروها از ابزارهای جنگ الکترونیکی استفاده میکنند، ابزارهایی از جمله حملههای جعلی، هککردن، ارائهٔ اطلاعات نادرست و دیگر ابزارها.
از یک جهت این موضوع اصلاً تازگی ندارد. شیوهٔ جنگیدن همواره پابهپای فناوری تغییر کردهاست، اما خود انسانها به این سرعت تغییر نمیکنند. من که خود سرلشکر بازنشستهٔ نیروی هوایی هستم و مخصوصاً هم به فناوری و هم به اخلاق نظامی علاقهمندم، دغدغهای مشخص دارم: فناوریهای نوین تسلیحاتی کار سربازی را خطرناکتر میکند و قدرت کشتار را بالاتر میبرد، در همین حین، سربازان ما خواهند دید که رفتار اخلاقمدارانه برایشان از هر زمان سختتر شدهاست و پایبندی به عرف و آداب دیرپایی که بر قواعد جنگ حکمفرماست، برای ایشان از هر موقع دشوارتر است.
شیوهٔ جنگیدن همواره پابهپای فناوری تغییر کردهاست، اما خود انسانها به این سرعت تغییر نمیکنند.
ما بهعنوان ملتی که قدرتمندترین ارتش دنیا را دارد، موظفیم این تغییرات عمیق و بنیادین را بهرسمیت بشناسیم؛ تغییراتی که تجربهٔ کار سربازی را متحول میکنند. ما میبایست با این تغییرات روبهرو شویم و آمادگی یابیم تا با آنها تطبیق پیدا کنیم.
کارزارهای دیروز، کارزارهای فردا
در کارزارهای دوران گذشته، امر کشتن کاری بود تعمدی و عمیقاً شخصی.
در آینده ماهیت خودکار نبرد، ارتقاء مصنوعی سربازان، سرعت بالا و مسافتهای طولانی که جنگ در آن شکل خواهد گرفت، همه و همه تهدیدی بالقوه خواهند بود که ممکن است تیشه به ریشهٔ خلقیات شخص جنگجو بزنند. این مسئله نهتنها بر رفتار میان دو سرباز دشمن تأثیر میگذارد، بلکه بر رفتار سربازهایی که در یک جبهه هستند نیز مؤثر است. در گذشته سربازان برای نجات یکدیگر خود را به خطر میانداختند. بهدرستی مشخص نیست که ورود دستگاههای خودکار در اینچنین فعالیتهایی چه تغییراتی ایجاد میکند. آیا سربازان تمایلی خواهند داشت تا پای جان به دستگاهی اعتماد کنند؟ آیا سربازی حاضر میشود که برای نجات روباتی مهم، جان خود یا دیگر سربازان را به خطر بیندازد؟ آیا اصلاً باید چنین کاری بکند؟
دیگر لازم نخواهد بود که عدهٔ خیلی زیادی از سربازان در هراس از تماس نزدیک و جنگ تنبهتن باشند، چرا که میتوانند روباتها و وسایلی هدایتپذیرازدور را در فواصلی طولانی به کار بگیرند. هرچند، احساس ترس بهمثابه تعدیلکنندهٔ رفتار آدمی عمل میکند. با حذف عامل ترس، احتمالاً محدودیتهای رفتار غیراخلاقی را نیز از میان برمیداریم. اگر سرباز نتواند زمینهٔ کارزار یا نبردی خاص را ببیند، بشنود و بفهمد، احتمال کمتری دارد که به خود دردسر بدهد و در تصمیمهایی دقیق شود که نیازمند دقتنظر و ریزبینیاند.
فضای جنگ امروزه دائماً در حال پیشرفت است و همواره از میزان ظرفیتی که ادراک انسان برای جمعآوری و تحلیل اطلاعات دارد، پیشی میگیرد.
شاید دستگاه بتواند با رویکردی سودگرایانه، محاسبهای انجام بدهد و ببیند میزان نیرویی که وارد میکند، تناسبی دارد یا نه، اما آیا همین دستگاه میتواند تصمیمی مشفقانه بگیرد؟ آیا برای مثال میتواند حس کند که عزم دشمن در حال اضمحلال است و در نتیجه دستور حملهای را که صادر کرده، لغو کند تا جلوی مرگ عدهای را بگیرد که نیازی نیست جان بسپارند؟ فرماندهان و قوایی که در زمین نبردند و با دشمن در تماساند، از پیچیدگیهای کارزار به «تصوّر»ی میرسند که دستگاه نمیتواند بازتولیدش کند.
کامپیوتر، هوش مصنوعی، روبات و سامانهٔ خودکار محیطی میآفرینند که برای درک بشری زیادهازحد پیچیده و پرسرعت است و انسان برای درک آن نمیتواند پابهپایش برود، چه برسد که بخواهد بر آن احاطه داشته باشد.
فضای جنگ امروزه دائماً در حال پیشرفت است و همواره از میزان ظرفیتی که ادراک انسان برای جمعآوری و تحلیل اطلاعات دارد، پیشی میگیرد. سیاست وزارت دفاع دربارهٔ خودمختاری سامانههای تسلیحاتی بیان میکند که در مورد تسلیحات مرگبار، نیروی انسانی همیشه باید جزئی از روند تصمیمگیری باشد، اما بهرغم اینها پنتاگن در سال ۲۰۱۷ مبلغ ۲ میلیارد و ۵۰۰ میلیارد دلار برای هوش مصنوعی هزینه کردهاست و تمام شاخههای ارتش به حمایت مالی از کارهایی میپردازند که در حوزهٔ سامانههای خودمختار انجام شوند. انتظار میرود که وزارت دفاع در سال ۲۰۱۹ مبلغ ۹ میلیارد و ۴۰۰ میلیارد دلار برای سامانههای خودکار و بدون سرنشین هزینه کند. از این مبلغ افزون بر ۸۰۰ میلیون دلار برای سامانههای خودمختار، همکاری انسانیدستگاهی و تحقیقات ازدحامی یا گروهی 1 صرف خواهد شد.
بهتدریج و احتمالاً بهشکلی نامحسوس کار به جایی میکشد که سامانههای خودمختار بهمراتب بهتر از نیروهای انسانی عمل کنند و بهرهوری بسیار بالاتری داشته باشند و آنموقع انسانها صرفاً بدل به تماشاچی میشوند. سرباز به کندترین عنصر درگیری بدل میگردد یا صرفاً دیگر توجیه حضورش را از دست میدهد و بهکلی شخصی اضافی و نامربوط میشود. در آن زمان پایبندی به قواعد جنگ نیز از حضور آن سرباز اضافیتر و نامربوطتر خواهند شد.
دستکاری انسان
موضوع دیگری هم هست باعث پدیدآمدن پرسشهای اخلاقی میشود. این موضوع وجود فناوریهایی است جهت «ارتقا» یا تقویت انسان که خود شامل اینهاست: افزایش قدرت جسمانی، استقامت بدنی و آستانهٔ تحمل درد، همچنین استفاده از کاشتهها و تحریکات عصبی جهت تجدید قوای مغزی برای انجام فعالیتهای ذهنی و همچنین ارتقاء قدرت یادگیری.
تأثیر داروهایی که حافظه را دستکاری میکنند، بر روی احساس عذابوجدان سرباز چطور خواهد بود؟
آیا سربازهایی که برای تغییر رفتارشان دارو مصرف کردهاند یا تحت تأثیر دستگاههای الکترونیکی خاصی تغییر رفتار دادهاند، میتوانند درقبال رفتار خود پاسخگو باشند؟ اگر سرباز داروهایی مصرف میکند تا ادراکش را ارتقا دهد یا از ترسش بکاهد، آنگاه ارادهٔ آزاد چه نقشی در رفتارش ایفا میکند؟ آیا ممکن است سربازی که از هیچچیز نمیترسد، بدون آنکه نیازی باشد خودش، واحدش، یا رهگذران بیگناه را در معرض خطر قرار دهد؟ تأثیر داروهایی که حافظه را دستکاری میکنند، بر روی احساس عذابوجدان سرباز چطور خواهد بود؟ این احساس و این تأثیر ممکن است بر روی تصمیماتی اثر بگذارند و حین اتخاذ آن تصمیمات اهمیت داشته باشند؛ تصمیماتی که موضوعشان رنجکشیدن نالازم یا غیرضروری است. آنگاه داروها چگونه تأثیری خواهند داشت؟
در روند جنگ تصمیمهایی مهم باید اتخاذ شوند. این تصمیمها پایهواساس بسیاری از اصول نظریهٔ «جنگ مشروع» هستند. ژنرال پال سلوا 2، جانشین رئیس ستاد مشترک، حامی حفظ اصول اخلاقی است و گفته که «باید قواعد اخلاقی جنگ را حفظ کنیم، مبادا دستهای روبات را که نمیدانیم چطور کنترلشان کنیم، به جان ابناء بشر بیندازیم.»
نگرانی بابت فردا
مسئلهٔ بازبینی در این قراردادها و بازنویسی آنها باید در عالیترین سطوح دولت انجام شود. تا این لحظه که البته چنین نبودهاست. کمیتهٔ منتخب کاخ سفید در موضوع هوش مصنوعی که در ماه مه تشکیل شد، اصلیترین مسائل اخلاقی مرتبط به هوش مصنوعی را حتی بهرسمیت نیز نشناختهاست. همان مسائلی که علناً از سوی تعداد زیادی از دانشمندان مطرح شدهاند؛ دانشمندانی که روزبهروز بر تعدادشان افزوده میشود و متخصصان حوزهٔ فناوری نیز با آنها همصدا هستند. افرادی نظیر ایلان ماسک ، بیل گیتس و استیون هاکینگ چنین سؤالهایی را مطرح کردهاند.
این سامانههایی که قرار است استفاده شوند، آیا ممکن است قواعد درگیریهای مسلحانه یا قانون بشردوستانهٔ بینالمللی را زیر پا بگذارند یا خیر.
هرچند مهم است که رهبران کشور آشکارا ماهیت حساس این موضوعات را به رسمیت بشناسند، اما وزارت دفاع میبایست در ادامهٔ دستورالعمل سال ۲۰۱۲ راجع به مسئلهٔ خودمختاری، دستورالعملهای دیگری نیز جهت استفادهٔ پژوهشگران و فرماندهان تدوین کند. این دستورالعمل باید هم پژوهشگران و هم فرماندهان نظامی را مجاب کند که از خود بپرسند این سامانههایی که قرار است استفاده شوند، آیا ممکن است قواعد درگیریهای مسلحانه یا قانون بشردوستانهٔ بینالمللی را زیر پا بگذارند یا خیر؛ این پرسش باید در طول روند ساخت سامانهها در ذهن این افراد باشد و مدتها پیش از اینکه سامانهها آمادهٔ بهکارگیری میشوند، پاسخ بگیرد.
«هرچه کنی به خود کنی…»
ایالات متحده بهلحاظ تاریخی در دنیا سرآمد ساخت فناوریهای جدید بودهاست، بر همین اساس اگر تسلیحات یا شیوههایی مسئلهدار را به کار بگیریم، این کار از چشم دیگران دور نمیماند. متأسفانه در دورهٔ بعد از ۱۱ سپتامبر ایالات متحده برای استنطاق از دشمنان بازداشتی به شکنجه متوسل شد. هرچند بسیاری از رهبران عالیرتبهٔ مملکت این کار را تقبیح کردند، اما حقیقتی باقی است و آن اینکه کشور از آستانهای مهم و اخلاقی گذشت و بهلحاظ اخلاقی وارد وادی دیگری شد. میدانیم که دشمنان آتیمان، حتی آن دشمنانی که بافرهنگترند، احتمالاً موقع بهکاربردن همین روشها علیه خودمان، کمتر رواداری به خرج خواهند داد. همین مسئله دربارهٔ فناوریهای پیشرفته نیز صدق میکند.
متأسفانه در دورهٔ بعد از ۱۱ سپتامبر ایالات متحده برای استنطاق از دشمنان بازداشتی به شکنجه متوسل شد.
حالا که فناوریهای جنگی جدید به میدان آمدهاند، فرصتی در اختیار داریم تا باز هم موضع رهبری خود را در زمینهٔ حقوق بشر نشان دهیم؛ راهش این است ترتیبی اتخاذ کنیم که خاطرجمع شویم سربازان جوانمان میدانند چطور به شیوهای اخلاقی و انسانی از این تسلیحات جدید استفاده کنند.