میانِ دو انسان جنگ چون آتش است، ربات بدبخت هیزمکش است! | بحثی پیرامون تصمیمگیری اخلاقی رباتها
چهارگونه از رباتهای اخلاقمدار
جیمز مور در این مقاله راههای متفاوتی را معرفی میکند که در آن، ماشینها میتوانند اخلاقی باشند.
آیا اصلاً میتوانیم درست و غلط را به رباتها بیاموزیم؟ آیا میتوانیم دست از تلاش در این حوزه برداریم؟ من میخواهم از این ایده دفاع کنم که اخلاق ربات، حوزهای معقول، جذاب و مهم برای پژوهشهای فلسفی و علمی است. معتقدم این امکان وجود دارد که روزی رباتها ــ حداقل در برخی موقعیتهای محدود ــ تصمیمگیرندگان اخلاقیِ خوبی باشند که بر مبنای فهم اخلاقیات، اخلاقی عمل کنند. بهعبارتی دیگر، چنین رباتهایی نهتنها ناظر به اصول اخلاقی، بلکه برآمده از آن، عمل خواهند کرد.
من متعهد به استفاده از هیچ اصطلاح خاصی نیستم، اما از اصطلاح «اخلاق ربات» که حاکی از عاملیت مصنوعی است، استفاده خواهم کرد. من این امکان را رد نمیکنم که یک رایانه، بهعنوان راهنمای اخلاقی، انجام وظیفه کند و عوامل نرمافزاری و سختافزاری را شامل عنوان «رباتها» میدانم.
انواع رباتهای اخلاقی
از نظر من، حداقل چهار نوع از عوامل اخلاقی وجود دارد. ضعیفترین معنا از «عوامل اخلاقی»، عوامل اثرگذار اخلاقی است که کارهای آنها ــ خواه عمدی باشد یا نه ــ دارای عواقب اخلاقی است. هر ربات، یک عامل اثرگذاراخلاقیِ بالقوه است تا حدی که کارهایش میتواند برای انسانها، آسیبزا یا سودبخش باشد. حتی یک ساعت دیجیتال، اگر این پیامد را دارد که صاحبش را به حضورِ سروقت برای قرارهای ملاقات تشویق کند، میتواند بهعنوان عامل اثرگذار اخلاقی محسوب شود. استفاده از شتردوانهای رباتیک در قطر، این پیامد اخلاقی را در پی دارد که نیاز به بهرهکشی از کودکان برای شتردوانی، کاهش مییابد.
همانطور که اثر اخلاقیِ مثبت وجود دارد، قطعاً اثر اخلاقی منفی نیز وجود دارد. علاوه بر این، برخی از عوامل، میتوانند در مواقعی اخلاقمدار و در مواقعی دیگر، غیراخلاقی عمل کنند. یک مثال فرضی از چنین عامل ضد و نقیضی، برنامهای معیوب است که من به یاد نلسون گودمنِ فیلسوف، «عاملِ گودمن1» مینامم. عامل گودمن، تاریخها را مقایسه میکند، ولی هزار سال، خطا دارد. این برنامه بهواسطۀ برنامهنویسیِ تاریخهای سالانه، تنها با استفاده از دو رقم آخر سال، تولید شد که منجر شد به این که تاریخهای بعد از ۲۰۰۰، بهنحو غلطاندازی بهعنوان تاریخهای قبلی که در اواخر قرن بیستم بودند، تلقی شود. بنابراین، عامل گودمن قبل از ۲۰۰۰، یک عامل اثر گذار اخلاقی مثبت و بعد از آن، یک عامل اثر گذار اخلاقی منفی بود.
مورد بعدی، عوامل اخلاقیِ ضمنی است. عوامل اخلاقی ضمنی عواملیاند که ملاحظات اخلاقی، بهطور ضمنی، در طراحی آنها در نظر گرفته شده است. عموماً این ملاحظات، ملاحظات امنیتی یا ایمنیاند. برای نمونه، هواپیماها با سیستمهای هشداردهنده ساخته شدهاند تا وقتی نزدیک زمیناند یا وقتی هواپیمای دیگری در مسیر هوایی نزدیکشان میشود، به خلبان هشدار دهد. دستگاههای خودپرداز، باید مقدار مناسبی پول توزیع کنند. این دستگاهها قابلیت دسترسی به منابع مالی را بررسی میکنند و اغلب مقداری را که میتوان بهصورت روزانه برداشت کرد، محدود میکنند. این عاملها واکنشهایی را طراحی کردهاند تا در صورت لزومِ اطمینان از امنیت، کارِ نظارت را انجام دهند. عوامل اخلاقیِ ضمنی، نوعی فضیلت درونی دارند؛ فضیلتشان بهواسطۀ عادتِ رفتاری، درونی نشده، بلکه بهواسطۀ سختافزار یا برنامهنویسی خاص فضیلتمند شدهاند!
همچنین، عوامل غیراخلاقیِ ضمنی نیز وجود دارند. برای نمونه، زامبیرایانه یک عامل غیراخلاقی ضمنی است. اگر یک رایانه را ویروسی آلوده کند که آن را برای ارسال ایمیلهای نامناسب به تعداد زیادی از قربانیان، پیکربندی میکند، آن رایانه میتواند به یک زامبیرایانه تبدیل شود.
در زندگی روزمره ما، عوامل اثرگذار اخلاقی و عوامل اخلاقی ضمنی، شناختهشدهترند، اما من نوع دیگری از عوامل را برای اخلاق ربات، محوریتر میدانم.
هر ربات، یک عامل اثرگذاراخلاقیِ بالقوه است تا حدی که کارهایش میتواند برای انسانها، آسیبزا یا سودبخش باشد. حتی یک ساعت دیجیتال، اگر این پیامد را دارد که صاحبش را به حضورِ سروقت برای قرارهای ملاقات تشویق کند، میتواند بهعنوان عامل اثرگذار اخلاقی محسوب شود. استفاده از شتردوانهای رباتیک در قطر، این پیامد اخلاقی را در پی دارد که نیاز به بهرهکشی از کودکان برای شتردوانی، کاهش مییابد.
عوامل اخلاقی عینی، عواملیاند که میتوانند اطلاعات اخلاقی را در رابطه با موقعیتهای مختلف، شناسایی و پردازش کنند و تصمیمات حساسی دربارۀ آنچه باید انجام شود، اتخاذ کنند. وقتی اصول اخلاقی در تضاد با یکدیگر باشند، این رباتها میتوانند راهحلهای معقولی پیدا کنند.
عوامل اخلاقی عینی، آن نوع از عواملاند که عمل آنها میتواند برخاسته از اخلاق در نظر گرفته شود، نه صرفاً ناظر بر اخلاق. اینکه عاملهای ربات چقدر میتوانند در باب اخلاق، دانش کسب کنند، یک سؤالِ گشوده و تجربی است. شاید بهترین راه برای رباتها برای بهدستآوردن چنین دانشی از طریق هوش مصنوعیِ معتبر و به سَبک قدیم است، که در آن یک کامپیوتر با طرحی بزرگ برنامهریزی شده است که اطلاعات مرتبط با گرفتن تصمیمات اخلاقی را برمیگزیند و سپس اطلاعات را برای قضاوتهای اخلاقی، پردازش میکند. به همین ترتیب، نگرش اخلاقی ممکن است از طریق آموزش شبکهای عصبی یا از طریق تکامل توسط یک الگوریتم ژنتیک به دست آید. هرچند ممکن است این کار انجام شود، نقطۀ شگفتانگیز این احتمال در این است که روزی بتوان اخلاق را ازطریق ماشین فهم کرد.
بهطور خلاصه، یک عامل اثرگذار اخلاقی، کارهایش پیامد اخلاقی دارد. یک عامل اخلاق ضمنی، برخی واکنشهای اخلاقی خودکار را در موقعیتهای معیّن، به کار میگیرد. اما در عوض، یک عامل اخلاقی عینی، دارای اصول یا قوانین کلی دربارۀ رفتار اخلاقی است که متناسب با انواع موقعیتها، تطبیق یا تفسیر میشوند. ممکن است که شما فقط یک نوع عامل اخلاقی نباشید، بلکه طیفی از این انواع را شامل بشوید.
در نهایت، اجازه دهید بین عوامل اخلاقیِ عینی با عوامل اخلاقی حداکثری تمایز قائل شویم. عوامل اخلاقیِ حداکثری، همانند عوامل اخلاقی عینی، دربارۀ موقعیتهای مختلف و گسترده، قضاوت اخلاقی میکنند و در بسیاری از موارد میتوانند برای قضاوتها، توجیهی ارائه دهند. بااینحال، عوامل اخلاقی حداکثری دارای آن ویژگیهای متافیزیکی محوریای هستند که ما معمولاً به عوامل اخلاقیِ شبیه به خودمان نسبت میدهیم؛ ویژگیهایی مانند آگاهی، توجه و ارادۀ آزاد. انسانهای بالغِ عادی نمونۀ بارزِ انسانی از عوامل اخلاقیِ حداکثری هستند.
اینکه آیا رباتها میتوانند عوامل اخلاقی حداکثری شوند یا نه، یک موضوع شگفتانگیز و نظری است، ولی برای ادامۀ مبحث اخلاق رباتها، نیازی به اثبات این موضوع نیست. توصیۀ من این است که عوامل اخلاقی عینی را بهعنوان الگو، نمونۀ شاخص اخلاق ربات در نظر بگیریم. چنین رباتهایی بهاندازهای پیشرفتهاند که اخلاق رباتها را از نظر فلسفی جالب و از نظر تجربی مهم کنند، اما نه آنقدر پیشرفته که شاید هرگز نتوانیم آنها را بسازیم.
حتی یک ربات اخلاقیِ عینی و پیشرفته نیز مربوط به آینده است و فقط در فیلمها و ادبیات علمیتخیلی به تصویر کشیده میشود. در واقع، فیلم سیارۀ ممنوعه که در سال ۱۹۵۶ اکران شد، پروژۀ تابستانی در دانشگاه دارتموث بود که هوش مصنوعی را بهعنوان یک زمینۀ تحقیقاتی راهاندازی کرد. شخصیتی مهم در سیارۀ ممنوعه، رابی است که یک ربات قدرتمند و باهوش است. انسانها به او دستور میدهند و او باید اطاعت کند. بااینحال، در فیلم به ما نشان داده میشود که کارهای او بنابر سه قانون اخلاقی انجام میشود. رابی نمیتواند انسانی را بکشد، حتی اگر به او دستور داده شود که چنین کند.
آیزاک آسیموف2، این سه قانون معروفِ رباتیک را در داستانهای کوتاه خود معرفی کرد. رباتهای آسیموف، از آن نوع رباتهای اخلاقیای هستند که آنها را بهعنوان عوامل اخلاقیِ عینی توصیف میکردم. سه قانون بر مغز پادالکترونیک آنها نقش بسته است. کسانی که با داستانهای آسیموف آشنا هستند، شاید سه قانون رباتیک را به یاد بیاورند. این قوانین در کتاب راهنمای رباتیک (ویراست ۵۶، برای سال ۲۰۵۸ پس از میلاد!3) آمده است:
۱ـ یک ربات نباید به هستی انسان آسیب برساند، یا با عدم اقدام، اجازۀ آسیبرساندن به هستیِ انسان را بدهد.
۲ـ یک ربات باید از دستوراتِ انسانها اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد.
۳ـ یک ربات باید از هستیِ خود محافظت کند، تا زمانی که چنین حفاظتی، با قانون اول یا دوم در تضاد نباشد.
بنابراین، رباتهای آسیموف به گونهای طراحی شدهاند تا قبل از اقدام، دستورالعملهای اخلاقی را ملاحظه کنند. آنها در مقایسه با نوع وحشتناکی که اغلب در داستانهای علمیتخیلی ظاهر میشوند، رباتهای مهربان و لطیفی هستند.
قوانین آسیموف در ابتدا کاملاً معقول به نظر میرسند، اما اگر بهطور کامل اِعمال شوند، احتمالاً نتایج غیرمنتظرهای به همراه خواهند داشت. برای مثال، رباتهایی که میخواهیم به ما خدمت کنند، شاید طبق قانونِ اول مجبور شوند در جهان پَرسه بزنند و سعی کنند از آسیبی که به هستی انسان وارد میشود، جلو گیری کنند. یا ربات محافظِ ما ممکن است با بسیاری از برنامههای ما تداخل داشته باشند، زیرا احتمالاً حاوی عناصر خطرناکی هستند که باید براساس قانون اول، از آنها جلوگیری شود.
اگرچه ظاهراً سه قانون آسیموف بهعنوان یک سیستم اخلاقی برای رباتها کافی نیست و رباتهای او تخیلی هستند، داستانهای او، برحسب عاملیت اخلاق عینی، نگاهِ جالبی ارائه داد از آنچه برای اخلاق ربات، موفقیت محسوب میشود.
اگر یک ربات بتواند توجیهات قانعکنندهای برای تصمیمهای اخلاقی ارائه دهد که همسطح یا بهتر از تصمیمهای انسانی باشد، آنگاه صلاحیت ربات بهصورت استقرایی برای آن حوزه از تصمیم گیریِ اخلاقی ثابت میشود.
ارزیابی الکترونیک اخلاقی عینی
من از رویکرد تجربی برای ارزیابی تصمیمگیری اخلاقی توسط رباتها حمایت میکنم. چنین ارزیابیهایی، معمولاً صفر و صدی نیستند. رباتها ممکن است در برخی موقعیتها، در تصمیمگیری اخلاقی خوب عمل کنند و در برخی موقعیتهای دیگر، عملکرد خوبی نداشته باشند.
در اصل، درست همانطور که شواهدی دربارۀ صلاحیت تصمیمگیرندگان انسانی جمعآوری میکنیم، میتوانیم با مقایسۀ تصمیمهای ربات با تصمیمهای انسان، یا با درخواست از ربات برای توجیهِ تصمیمهایش، شواهدی در مورد صلاحیت اخلاقی یک ربات جمعآوری کنیم. از آنجایی که انسانها اغلب در مورد مسائل اخلاقی، اختلافنظر دارند، روش دوم احتمالاً معتبرترین روش برای تجزیه و تحلیل صلاحیت تصمیمگیری اخلاقی یک ربات است. اگر یک ربات بتواند توجیهات قانعکنندهای برای تصمیمهای اخلاقی ارائه دهد که همسطح یا بهتر از تصمیمهای انسانی باشد، آنگاه صلاحیت ربات بهصورت استقرایی برای آن حوزه از تصمیم گیریِ اخلاقی ثابت میشود.
قضاوت دربارۀ صلاحیت یک تصمیمگیرنده تنها بخشی از ارزیابی کلی است. ما همچنین باید استنباط کنیم که آیا استفاده از آن تصمیمگیرنده در یک موقعیت خاص، مناسب است یا نه. یک ربات شاید صلاحیت داشته باشد که تصمیم بگیرد یک انسان باید برای وعدۀ غذایی بعدی خود چه غذایی بخورد، ولی انسان احتمالاً بهدرستی ترجیح میدهد که خودش تصمیم بگیرد چه غذایی را انتخاب کند. بهطور کلیتر، یک ربات میتواند از لحاظ اخلاقی، برای برخی موقعیتها که به دلیل ارزشهایمان اجازه نمیدهیم آن تصمیمها را ربات بگیرد، صلاحیت داشته باشد. ما معمولاً دلایل خوبی داریم که به انسانهای دیگر اجازه نمیدهیم به جای ما، تصمیمِ اخلاقی بگیرند، چه رسد به اینکه اجازه دهیم رباتها این کار را انجام دهند! بااینحال، چهبسا موقعیتهایی وجود داشته باشد که در آن موقعیتها، انسانها نتوانند منصف یا ثمربخش باشند، چون بیشازحد متعصب یا بیکفایتاند. در این موارد، ممکن است عاقلانه باشد که در عوض از یک تصمیمگیرندۀ اخلاقیِ رباتیک استفاده کنیم. برای نمونه، پس از فاجعهای ملی ــ مانند طوفان کاترینا که بخش زیادی از نیواورلئان را ویران کرد ــ یک تصمیمگیرندۀ رباتیک ممکن است در توزیع کمکها کارآمدتر و بیغرضتر باشد. در آن مورد، امدادرسانی انسانی شدیداً ناکارآمد و بحرانآفرین بود و هماهنگی اطلاعات و توزیع کالاها به خوبی مدیریت نمیشد. در آینده، رباتهای اخلاقی ممکن است در چنین شرایطی، کار بهتری انجام دهند. رباتها (رایانهها) در ردیابی حجم زیادی از اطلاعات، فوقالعاده هستند و میتوانند فوراً با مراکز امدادی ارتباط برقرار کنند تا برای کسانی که به کمک فوری نیاز دارند، کمک بفرستند. این رباتها، در برخی مواقع، باید فوراً تصمیم بگیرند که اولویتِ امدادرسانی با کیست، ولی شاید این تصمیمها را با شایستگی بیشتر و منصفانهتر از انسانها اتخاذ کنند.
حالت التفاتی
من عوامل اخلاق عینی را نوع جالبی برای دقت بیشتر در اخلاق ربات انتخاب کردم. البته حتی جالبتر خواهد بود اگر روزی رباتها به اشخاص ــ یعنی عوامل اخلاقی حداکثری ــ تبدیل شوند، اما اگر چنین روزی برسد، احتمالاً در آیندهای دور اتفاق بیفتد. با وجود این، اگرچه عوامل اخلاقیِ حداکثری وجودندارند، اما عوامل اخلاقی عینی میتوانند بسیار پیشرفته باشند. ما فقط در صورتی میتوانیم آنها را بفهمیم که برحسب آنچه دنیل دنت «حالت التفاتی4» مینامد، در نظرشان بگیریم.
همانطور که دنت می گوید، پیشبینی و توضیح رفتار رایانه بر اساس «حالت فیزیکی5» ــ یعنی بر اساس ساختار فیزیکی رایانه ــ یا براساس «حالت طراحی6» ــ یعنی با استفاده از مشخصات عملکردی سختافزار و برنامهنویسیِ رایانه ــ برای برخی مقاصد مانند تعمیر عیبها، مفید است. اما برای پیشبینی و توضیح رفتار سیستمهای محاسباتی پیچیده، غالباً باید آنها را سیستمهای دارای حالت التفاتی بدانیم؛ یعنی به گونهای که گویی موجوداتی منطقی با باورها، خواستهها و نیّتها هستند و اهدافی را دنبال میکنند.
این سه حالت (التفاتی، طراحی و فیزیکی) با یکدیگر سازگار هستند. آنها در سطح [تفکر] انتزاعی، متفاوتاند، اما توضیح و پیشبینی رفتار سیستمهای رایانهای برحسب حالت فیزیکی یا طراحی، برای بسیاری از اهداف عملی، بسیار پیچیده و دستوپاگیر است. بنابراین، سطح درستی از تجزیه و تحلیل، برحسب حالت التفاتی است: گویی رایانهها قصد داشتند.
درواقع، من معتقدم اکثر کاربرانِ رایانه اغلب حالت التفاتی را دربارۀ عملیاتهای رایانهای به کار میبرند. پیشبینی و توضیح اقدامات رایانه با استفاده از واژگان باورها، خواستهها و اهداف، نشاندهندۀ این ادعاست. مثلاً یک برنامۀ پردازش کلمه، غلط املایی ما را تصحیح می کند، چون معتقد است باید از املای متفاوتی استفاده کنیم و هدف آن، اصلاح غلطهای املایی ماست. البته، حالت التفاتی میتواند کاملاً ابزاری تلقی شود: لازم نیست باور کنیم که رایانه واقعاً به چیزی باور دارد یا چیزی میخواهد. با وجود این، حالت التفاتی برای اهدافی چون پیشبینی و توضیح، کاربردی و در اکثر موارد یک روش دقیق است، چراکه جریان اطلاعات در کامپیوتر را، به روشی سخت و سریع با توضیحِ مناسب، به دست میآورد. روشن است که حالت طراحی و بعد از آن در سطحی پایینتر، حالت فیزیکی، گزارش بسیار دقیقی از کارِ برنامۀ پردازش کلمه ارائه میدهند. اما بسیاری از ما نه جزئیات را میدانیم و نه نیازی به دانستن آنها داریم تا پیشبینی و توضیح قابلقبولی از رفتار برنامۀ پردازش کلمه در شرایط عملی داشته باشیم.
ما میتوانیم عوامل ربات اخلاقی عینی را به این صورت درک کنیم: «با توجه به باور رباتها به اصول اخلاقی معین، درک آنها از واقعیت موقعیتهای خاص و تمایل آنها برای انجام عمل درست، آنها به فلان و بهمان شیوۀ اخلاقی عمل خواهند کرد». همچنین، میتوانیم شواهدی در مورد صلاحیت اخلاقی یا فقدان آن از نقطهنظر آنها بهعنوان سیستمهای التفاتی، جمعآوری کنیم. این سخن به این معنا نیست که انکار میکنیم شواهد مهم در مورد صلاحیت را میتوان در سطوح طراحی و فیزیکی جمعآوری کرد. اما بررسی کلی و تخمین صلاحیت اخلاقی یک ربات، بهتر است در سطح فراگیرتری از ادراک انجام شود.
چهچیزی جلوی ما را گرفته است؟
چهچیزی ما را از توسعۀ رباتهای اخلاقی بازمیدارد؟ آیا بزرگترین مانع این کار، متافیزیکی است یا اخلاقی یا معرفتی؟
از منظر متافیزیکی، فقدان آگاهی مانع بزرگی برای اخلاقیبودن به نظر میرسد. چگونه عوامل اخلاقی عینی میتوانند بدون هیچ آگاهی از آنچه انجام میدهند، واقعاً اخلاقیات را رعایت کنند؟ اما اصلاً چرا آگاهی برای انجام تمام اخلاقیات، ضروری تلقی میشود؟ در عوض، آنچه مهم به نظر میرسد این است که یک ربات، تمام اطلاعات لازم را دریافت کرده و به روشی قابلقبول پردازش میکند. یک کامپیوترِ شطرنج باز، فاقد آگاهی است، اما شطرنج را خوب بازی میکند. آنچه اهمیت دارد این است که برنامۀ شطرنج، اطلاعات کافی در مورد بازی شطرنج دریافت کند و اطلاعات را بهخوبی پردازش کند تا کامپیوتر، حرکات خوبی را در بازی انجام دهد.
از منظر متافیزیکی، فقدان ارادۀ آزاد نیز مانعی برای اخلاقیبودن به نظر می رسد. آیا همۀ عوامل اخلاقی نباید لزوماً دارای ارادۀ آزاد باشند یا اگر نداشته باشند، عامل نیستند؟ برای پیشبُردِ بحث بیایید فرض کنیم که مردم ارادۀ آزاد دارند، اما رباتها اینطور نیستند. چرا باید ارادۀ آزاد برای رفتار اخلاقی ضروری باشد؟
نگرانیِ اخلاقی در مورد ارادۀ آزاد، اغلب برحسب نگرانی در مورد طبیعت انسان مطرح میشود. یک دیدگاه رایج این است که انسانها، سرشتِ ضعیف یا پَستی دارند که باید بر آن غلبه شود تا بتوانیم اخلاقی عمل کنیم. انسانها نیاز به مقاومت در برابر وسوسهها و علایق شخصیِ افراطی دارند تا براساس آزادیِ اخلاقی عمل کنند. اما چرا نمیتوان رباتها را طوری ساخت که در برابر وسوسهها و منافع شخصیِ غیراخلاقی مقاومت کنند؟ چرا رباتهای اخلاقی نمیتوانند بیشتر از ما شبیهِ فرشته باشند؟ ما ادعا نمیکنیم که یک برنامۀ شطرنج نمیتواند شطرنج قهرمانی بازی کند چون ارادۀ آزاد ندارد؛ مهم، این است که قهرمان شطرنج کامپیوتر میتواند حرکات مورد نیاز خود را در شرایط مناسب انجام دهد.
از منظر اخلاقی، نبود هر دستورالعمل مسلّمی برای تصمیمگیریهای اخلاقی، مانعی برای رباتهای اخلاقی به نظر میرسد. آیا یک کامپیوتر برای اجرای اصول اخلاقی به دستورالعمل نیاز ندارد؟ بیایید فرض کنیم هیچ سازوکاری برای اجرای اصول اخلاقی وجود ندارد، یا حداقل هیچ سازوکاری نیست که بتواند دقیقاً به ما بگوید در هر موقعیتی، چه کاری باید انجام دهیم. ولی ما اخلاقی عمل میکنیم و برای اخلاقیبودن هم نیازی به دستورالعمل نداریم. چرا نمیتوانیم به یک ربات، رویهای بدهیم معادلِ هر رویهای که برای ایجاد یک تصمیم اخلاقی خوب استفاده میکنیم؟ رباتها برای اینکه صلاحیت اخلاقی داشته باشند، لازم نیست همانقدر که ما کامل هستیم، کامل باشند. کامپیوترها اغلب رویههایی برای ارائۀ پاسخهای قابلقبول در سایر زمینهها دارند، حتی وقتی هیچ دستورالعملی برای ایجاد بهترین پاسخ ممکن وجود ندارد.
همچنین، ناتوانی در مسئولدانستن ربات از نظر اخلاقی، مشکلی بزرگ به نظر میرسد. رباتها ممکن است همچون ما با روشهای تشویقی یا تنبیهی، آموزش ببینند. اما چگونه باید یک ربات را بهخاطر برنامهنویسیاش تشویق یا تنبیه کنیم؟ یک پاسخِ سرراست این است که رباتهای اخلاقی که عوامل اخلاقی حداکثری نیستند، حقوقی ندارند و میتوانند تعمیر یا برنامهریزی مجدد شوند. بدین صورت، میتوانیم آنها را بهطور عِلّی، مسئول اعمالشان بدانیم و اگر عملکرد بدی داشتند، آنها را درست کنیم تا در آینده بهتر عمل کنند.
از منظر معرفتشناختی (یعنی برحسب نظریۀ معرفت)، ناتوانی رباتها در همدلی با انسانها، گاهی باعث میشود که نیازهای انسانی را نادیده بگیرند یا درک نکنند. بیشترِ درک ما از انسانهای دیگر، وابسته به آگاهیِ هیجانی ماست. سرانجام ممکن است بتوانیم به رباتها احساسات بدهیم. اما صرفنظر از آن، ممکن است بتوانیم کمبود احساسات آنها را با ارائۀ یک انگاره (داده) از نیازهای انسان جبران کنیم، ازجمله اینکه باید مراقب کدام شاخصهای رفتاری آنها باشیم. بنابراین، رباتها ممکن است با روشهایی غیر از تجربۀ احساسات، با این نیازها آشنا شوند. شاید در نهایت، ساختنِ رباتی که انسانها را درک می کند، نه از طریق همدلی بلکه از طریق استنتاج، امکانپذیر باشد.
بنابراین، از منظر معرفتشناختی، کامپیوترهای امروزی فاقد بسیاری از چیزهایی هستند که ما آن را خِرَد جمعی (فهم عرفی) مینامیم، درحالیکه اخلاق، بهشدت وابسته به خرد جمعی است. این نکته احتمالاً جدیترین نقد به اخلاق ربات است. رایانهها بهترین عملکرد را در حوزههای کاملاً تعریفشده دارند و در محیطهای باز و غیرقابل پیشبینی، خیلی خوب کار نمیکنند. اما رباتها ارتقا مییابند. اتومبیلهای رباتیکِ خودران، در حال حاضر، کاملاً سازگار با محیط هستند. آنها میتوانند در اکثر جادهها، از میانِ بیابانهای وسیع، تونلهای کوهستانی و حتی خیابانهای شهری به سلامت عبور کنند. عوامل ربات اخلاقی عینی و فاقد خرد جمعی، در بسیاری از مواقع به خوبی انسانها عمل نمیکنند، ولی ممکن است در یک سری از موقعیتهای محدود، بهاندازۀ کافی خوب عمل کنند. بااینحال، در برخی موارد، مانند ربات امدادرسان در بلایای طبیعی، به قدری خوباند که چهبسا تمامِ نیاز ما را برطرف کنند.
نتیجهگیری
ما هنوز با ایجاد رباتهای پیشرفته که عوامل اخلاقی عینی باشند، فاصله داریم، اما این موضوع، حیطۀ مناسبی برای پژوهش علمی و فلسفی است. همانطور که رباتها رفتهرفته خودران میشوند، چه بخواهیم چه نخواهیم، باید آنها را به قابلیتهای اخلاقیِ بیشتر و بیشتری مجهز کنیم. نمیشود بهسادگی، بحث اخلاق ربات را کنار گذاشت. فقط همین موضوع را در نظر بگیرید: افزایش استفاده از پهپادهای شکارچی و ربات های جنگی در جنگ، در شرایطی که غیرنظامیان در اطراف هستند. هدفگذاری برای عوامل ربات اخلاقی حداکثری، حداقل در حال حاضر، هدف بلندپروازانهای است و تمرکز بر رباتهایی که صرفاً عوامل اخلاقیِ ضمنی هستند، به این معناست که به اندک قناعت کنیم.
علاوهبراین، بهعنوان یک موضوع نظری، درنظرگرفتن چگونگی ساخت یک ربات اخلاقی عینی، تمرینی است که ارزش انجام آن را دارد، چون ما را مجبور میکند تا در نگرشها و روشهای اخلاقیِ خود تأمل کنیم. فرایند برنامهنویسیِ اندیشههای انتزاعی میتواند کمک زیادی به اصلاح آنها کند. در پایان، ساخت رباتهای اخلاقی، جامعۀ ما را بهتر میکند و در درک بهتر خودِ اخلاق نیز کمکحال ماست.