معرفی کتاب «ماشینهای اخلاقمدار: آموزشِ خیر و شر به رباتها»
این اثر در حوزۀ اخلاق ماشینی قرار میگیرد. اخلاق ماشینی حوزۀ مطالعاتیِ نسبتاً نوظهوری است که ذیل اخلاقِ هوش مصنوعی به وجود آمده است.
در اخلاق هوش مصنوعی بهطورکلی دو رویکرد وجود دارد:
رویکرد بیرونی
در این نوع رویکرد یا بهعبارت دیگر در این نوع مواجهه با مسائل اخلاقیِ هوش مصنوعی، مصنوعاتِ حاویِ هوش مصنوعی (مثلاً رباتها و یا باتهای هوشمند) بهمثابه یک ابژه در نظر گرفته شده و سپس پیامدهای آنها در زمینههای مختلف موردبررسی قرار میگیرد. مثلاً پیامدهای اخلاقیِ توسعۀ رباتهای هوشمند در محیطِ بیمارستانها چیست؟ آیا وابستگیِ عاطفیای که بین سالمندان و رباتهای مراقبتکننده((Caring Robots)) به وجود میآید به لحاظ اخلاقی موجه است؟ با توجه به توسعۀ شتابندۀ هوش مصنوعی و محصولات وابستۀ آن، آیندۀ جوامع انسانی چگونه خواهد بود؟ در این نوع رویکرد اغلب با استفاده از نظریههای اخلاقیِ موجود اقدام به توسعۀ چهارچوبهایی اخلاقی برای فهمِ مسائل و پیامدها میکنند. یا در برخی موارد اقدام به تهیۀ کدهای اخلاقی مینمایند.
رویکرد درونی
در رویکرد درونی اما مسئله کاملاً متفاوت است. مسئلۀ اصلی در اینجا نه پیامدهای هوش مصنوعی که امکانپذیریِ ترجمۀ اخلاق، به کدها و الگوریتمهاست. بهعبارتدیگر هدف اصلی در این رویکرد تبدیل کردنِ مصنوعاتِ دارای هوش مصنوعی به عواملی اخلاقی((Ethical Agent)) است که خودشان قادر به رفتار اخلاقی هستند. در این نوع رویکرد با سؤالاتی از این قبیل مواجهیم: آیا میتوان اخلاق را برنامهنویسی کرد؟ کدام نظریۀ اخلاقی قابلیت الگوریتمیک شدن دارد؟ آیا میتوان به ابژهای که فاقدِ ارادۀ آزاد، خودآگاهی و احساس است، مسئولیت و عاملیت اخلاقی نسبت داد؟
کتاب “ماشینهای اخلاقمدار: آموزشِ خیر و شر به رباتها” به بررسی و تحلیل رویکرد دوم میپردازد. در این نوشتار خلاصهای از مقدمۀ کتاب را ذکر میکنیم.
هدف اصلیِ مقدمه این است که اساساً این موضوع را تبدیل به یک مسئلۀ زنده کند. بهعبارتدیگر معمولاً در مواجهه با این مباحث، اولین فکری که به ذهنِ مخاطب خطور میکند دور از ذهن بودنِ این مباحث است، به این معنا که هنوز وقت طرح این مباحث نیست. اما در این مقدمه با ذکر چند موردکاوی سعی میشود تا قریبالوقوع بودنشان نشان داده شود. برای مثال خرابی در عملکردِ یک رباتِ شبه مستقل((Semiautonomous)) در ارتش آفریقای جنوبی منجر به کشته شدنِ ۹ سرباز و زخمی شدن ۱۴ سربازِ دیگرِ این کشور شده است. ضمن اینکه رباتهای خانگی – مثلاً جاروبرقیهای هوشمند – رباتهای پزشکی برای مراقبت از بیماران، حیوانات خانگیِ رباتیک((Robotic Pets)) و … به نحو فزایندهای رو به گسترش هستند و این لزوم مطالعۀ جدیِ پیامدهای اجتماعی – اخلاقیِ آنها را گوشزد میکند. چراکه رباتها کمکم از محیط کنترلشده و استانداردِ صنایع مختلف فراتر رفته و وارد عرصههای روزمرۀ زندگی میشوند.
اما علاوه بر این موردکاویها، الگوریتمهای این رباتها بهتدریج به چنان سطحی از پیچیدگی و پیشبینیناپذیری رسیدهاند که برای کنترلِ اخلاقیِ آنها اساساً راهی بهجز اخلاقی کردنِ خودِ آنها وجود ندارد. بهاینترتیب حوزۀ عاملهای اخلاقی باید به فراتر از انسانها توسعهیافته و مصنوعاتی نظیر رباتها و باتهای هوشمند را هم در بربگیرد. بنابراین در این زمینه بازرسیِ دوبارۀ نظریههای اخلاقی برای پیداکردنِ مناسبترین نظریه و نیز کاوشِ دقیقِ مفهوم عامل اخلاقی ضروری مینماید. آیا نظریههای وظیفهگرایانه((Deontological ethics)) برای این کدنویسی مناسبترند یا نظریههای سودگرایانه((Utilitarianism))؟ آیا نظریههای ارزشبنیاد((Value based)) مثل نظریههای دینی مناسبتترند یا نظریهای قاعدهگرا((Rule based)) مثل نظریۀ دیوید رأس((William David Ross)) یا قواعد سهگانۀ ایزاک آسیموف برای رباتها؟
این کتاب در ادامۀ فصول خود به سه پرسش اصلی پاسخ خواهد داد:
– آیا جهان نیازی به عواملِ اخلاقیِ مصنوعی((Artificial Moral Agents)) دارد؟
– آیا انسانها ماشینهایی میخواهند که تصمیمگیریِ اخلاقی هم بکنند؟
– اگر فرض کنیم که خلقِ ماشینهای اخلاقمدار غیرقابلاجتناب است، چگونه مهندسان و فیلسوفان میتوانند برای تحقق آن با یکدیگر همکاری کنند؟