اخلاق ماشینی در کتاب ماشینهای اخلاقی
آیا ماشینها میتوانند به اطرافشان آسیب بزنند؟ قطعاً بله. میگویند زودپزی که آتش میگیرد و خانهای را به خاکستر تبدیل میکند، علت آتشسوزی است؛ شاید حتی بتوان گفت که زودپز، مسئولِ این آتشسوزی است. اما این زودپز، درست کار نکرده و خراب شده؛ نه اینکه اخلاق را رعایت نکرده یا از زیر بارِ مسئولیت، شانه خالی کرده باشد. زودپز را نمیشود متهم به بیمسئولیتی کرد، اما سازندهاش را چرا.
زودپز، ماشین سادهای است، اما ماشینهایی هستند که خودشان میتوانند تصمیم بگیرند و بلدند از بین روشهای مختلف، یکی را انتخاب کنند؛ دربارۀ این ماشینها چه میتوان گفت؟ بیاخلاقاند؟ بیمسئولیتاند؟ امروزه، ماشینهای خودران1 روزبهروز پیچیدهتر میشوند؛ این ماشینها هنوز به پیشرفت کامل نرسیدهاند، یعنی ماشینهاییاند بین ترموستاتهای دیجیتال و کامپیوتر کُشندۀ «هال ۹۰۰۰»2 در فیلم اُدیسۀ فضایی3. همین الآن هم، ماشینها به انسانها یا محیط اطرافشان آسیب میزنند؛ حتی اگر الآن نتوانیم ماشینها را برای کارهایشان سرزنش کنیم، قطعاً روزی میرسد که ماشینها را به بیاخلاقی متهم میکنیم، چون از روی ارادۀ خودشان، خسارت به بار آوردهاند، نه طبق برنامهریزیِ قبلی. در آینده، خودشان تصمیم میگیرند که کار درست را انجام دهند یا کار اشتباه را. آن روز، کِی خواهد رسید؟
وِندِل والاچ4 و کولین آلِن،5 در این کتاب، نه پیشگویی میکنند، نه قصه میگویند، اما به این نتیجه رسیدهاند که چند سال بعد، «کامپیوترها حادثهای فاجعهبار را رقم خواهند زد، آنهم بدون اینکه انسان، برای آنها تصمیم گرفته باشد» (ص ۴). به همین دلیل، فیلسوفان و مهندسان نباید منتظر بمانند که رباتها بر ما مسلط شوند تا بعد از آن، تازه به این فکر بیفتند که چگونه، ماشینها را به موجوداتی اخلاقی تبدیل کنند.
چنین تحقیقاتی (و همینطور نگارش این کتاب) واقعاً لازم است؛ نیاز واقعیِ انسان امروز است. کتاب ماشینهای اخلاقی: آموزشِ درست و غلط به رباتها6 درآمدی است بر حوزهای جدید تحت عنوان «اصول اخلاقیِ ماشینها». این کتاب، عمدتاً به این دلیل نوشته شده است که به اخلاقپژوهان و مهندسان انگیزه بدهد تا دربارۀ این موضوع، بیشتر تحقیق کنند. البته بررسی این موضوع، به نوشتههای فلسفی یا علمی، محدود نمیشود. بهعبارت دیگر، این موضوع، آنقدر اهمیت پیدا کرده که حتی غیرمتخصصانی هم که این کتاب را میخوانند، حواسشان هست که برای اجرای این طرح، چه تلاشهایی انجام شده. آنها هم میدانند که نویسندگان این کتاب، هدفشان این بوده که به همه هشدار بدهند و انگیزه ایجاد کنند تا چارهای بیندیشیم.
فصل اول دربارۀ این است که قطعاً روزی میرسد که ماشینهای خودران ساخته شوند و به ما آسیب بزنند. در آینده، رباتها، کمکحالِ ما و جزئی از زندگی ما میشوند. برخی از کارها را همین رباتها انجام میدهند، مثلاً برق قدرت را تنظیم میکنند، بر تبادلات مالی نظارت میکنند، بیماریها را تشخیص میدهند و در میدان نبرد، میجنگند. هر کدام از این سیستمها، اگر نتوانند در محدودۀ اخلاق، کارشان را انجام دهند، آسیبهای جبرانناپذیری را به انسان خواهند زد. والاچ و آلن میگویند همینطور که اینماشینها خودران میشوند و رفتهرفته، از دخالت انسان، بینیاز میشوند، این ضرورت، بیشتر احساس میشود که تمام ضوابط اخلاقی را به کار گیرند تا اقدام احتمالیشان را ارزیابی کنند و بعد، انجامش دهند.
ماشینها باید به موضوعات اخلاقی، حساسیّت داشته باشند. از سوی دیگر، این ماشینها روزبهروز، پیچیدهتر میشوند و انسانها کنترلی روی آنها ندارند. فصل دوم به این موضوع میپردازد که اخلاقِ ماشینها باید طوری تنظیم شود که هم حساسیت اخلاقی داشته باشند، هم استقلال در تصمیمگیری. نباید چون ماشینها اخلاقی نیستند، استقلالشان را از آنها بگیریم، بلکه باید راهی پیدا کنیم که هر دو ویژگی را همزمان داشته باشند؛ هم اخلاقی باشند هم مستقل.
در این فصل، چند راهکار برای این موضوع مطرح شده است. بهقول پژوهشگرِ حوزۀ کامپیوترها، جیم مور،7 نویسندگان نشان میدهند که ماشینها میتوانند در پیروی از معیارهای اخلاقی «تلویحاً اخلاقی»8 باشند؛ یعنی نمیشود مثل انسانها، اخلاقی رفتار کنند، اما میشود کاری کرد که بیکلّه نباشند. بههرحال، فعلاً نمیتوانیم ماشینها را دقیقاً مثل انسانها، اخلاقمدار کنیم. پس از گریزی کوتاه به این بحث که آیا ما از تهِ دل میخواهیم ماشینها اخلاقی شوند یا نه، دوباره در فصل چهارم، موضوع تصمیمگیریِ ماشینها بررسی میشود.
در فصل چهارم، نویسندگان توضیح دادهاند که اگر بخواهیم ماشینها کاملاً اخلاقی شوند، باید چکار کنیم. آنها میگویند باید ماشینها، «آگاهی، فهم و ارادۀ آزاد» داشته باشند. ماشینهای کنونی، این قابلیتها را ندارند و ظاهراً هم بهزودی به چنین قابلیتهایی نمیرسند، اما والاچ و آلِن یادآور میشوند که «در مسیر طراحیِ ماشینهایی که «فاعل اخلاقیِ خودمختار»9 هستند، معضلاتی وجود دارد؛ مهمتر از همهشان این است که ماشینهای اخلاقی هم باید بتوانند بهاندازۀ ماشینهای کنونی، کارِ انسان را راه بیندازند؛ نه اینکه قابلیتهایشان را کم کنند تا آسیبی به اطراف نرسانند» (ص ۶۸). همچنین، میگویند «فهم و آگاهیِ انسانی ناشی از تکامل زیستشناختی آدمی است که آن هم برای حل مشکلات خاصی به کار میرفته است. اما فقط فهم و آگاهی نیستند که ابزار تصمیمگیریاند، بلکه میتوان راههای دیگری هم پیدا کرد» (ص ۶۹).
فصل چهارم با این دو مطلب پایان مییابد: ۱ـ پیشنهاد وسوسهکنندۀ «آزمایش اخلاقیِ تورینگ»10 برای ارزیابی میزان موفقیتِ فاعل اخلاقیِ خودمختار یا همان رباتی که تصمیمهایش در چارچوب اخلاق است؛ ۲ـ این ایدۀ جالب که ممکن است ماشینها از انسانها هم اخلاقیتر شوند.
فصل پنجم موضوع مهمی را مطرح میکند. در نظریات اخلاقی و اقدامات فنی، دو رویکرد وجود دارد: رویکرد بالا به پایین و رویکرد پایین به بالا. نظریات اخلاقی و اقدامات فنی، باید در یک راستا باشند تا بتوان این دو رویکرد را با هم آشتی داد و با هم سازگارشان کرد. فصل ششم تا هشتم این کتاب، تلاشی است برای سازگار کردنِ این دو رویکرد. رویکردِ بالا به پایین «یکی از نظریات اخلاقی را انتخاب میکند. بعد از آن، به زبان برنامهنویسی در میآید. سپس، الگوریتمها و زیرسیستمهایی طراحی میشود که با نظریۀ اصلی مطابقت دارد و هدفش این است که ربات، بتواند آن نظریه را اجرا کند» (صص ۸۰ـ ۷۹). سیستمهای مبتنی بر مقررات11 همین رویکرد را اجرا میکنند؛ سیستمهایی از قبیل «قوانین سهگانۀ رباتیکِ»12 آیزاک آسیموف13 (درحوزۀ فناوری) و نظریههای اخلاقی که اصول اخلاقی را عملیاتی میکنند، مثل فایدهگرایی یا اخلاق کانتی (در حوزۀ اخلاق).
رویکرد پایین به بالا، برنامهریزیِ محض نیست و مبنایش رشد است. نویسندگان، تقابل این دو رویکرد را در فصل هفتم، نشان دادهاند. میتوان از نگاه رشد کودک (روانشناختی) به این موضوع نگاه کرد، میتوان از منظر علوم کامپیوتر بررسیاش کرد و شاید هم از دریچۀ الگوریتمهای ژنتیکی، یعنی همان دستورالعملهایی که از انتخاب طبیعی تقلید میکند تا راهحلی کارآمد را برای مشکل بیابد. رویکرد پایین به بالا از مقیاسهای مشابه در برنامهزیریشان استفاده میکند. این رویکرد، نمیخواهد ربات را از ابتدا برنامهریزی کند، بلکه میخواهد ربات را رشد دهد تا از تجربیات خود، چیزی یاد بگیرد و در تصمیمگیریهای بعدیاش از آن استفاده کند.
بهاحتمالِ زیاد، هر دو رویکرد شکست خواهند خورد، چون محدودیتهای پیشِرویشان، جلوی موفقیتشان را میگیرد. از همین رو، نویسندگان، رویکرد دیگری را پیشنهاد میکنند: رویکردمان باید این باشد که نقاط ضعف و قوّتِ هر رویکرد را بشناسیم و از نقاط قوّتش استفاده کنیم و نقاط ضعفش را کنار بگذاریم. اینگونه است که میتوان این دو رویکرد را با هم سازگار کرد. شاید بهترین راهش، استفاده از اخلاق فضیلت است.
فصلهای نهم تا یازدهم دربارۀ تلاشهایی است که برای اخلاقی کردنِ ماشینها انجام شده. در تفکر اخلاقی، هیجان و ادراک جایگاه ویژهای دارد و به همین دلیل، فصل دهم دربارۀ نقش هیجان و ادارک در اخلاقی کردن ماشینهاست. روش “عامل توزیعِ هوشمند و فراگیر” که بر اساس آثار بِرنارد بارْسْ طراحی شده، به موضوع جداگانهای در فصل یازدهم تبدیل شده است، زیرا «این روش، تلاش میکند برای ایجاد حساسیت اخلاقی و قابلیت استدلالآوری، از ادراک کلی، عاطفی و تصمیمساز استفاده میکند» (ص ۱۷۲).
نویسندگان در آخرین فصل، از این بحث میکنند که اخلاق ماشینها، چه معنایی میتواند داشته باشد؟ حقوق، مسئولیت، تعهدِ ماشینها به چه معناست؟ وقتی رباتی اشتباه میکند، تقصیر خودِ ربات است یا تقصیر برنامهنویسش؟ اگر تقصیر ربات است، چگونه آن را مسئول بدانیم؟ اگر رباتها مسئولاند، آیا نباید حقی را هم برای آنها در نظر بگیریم؟
این سؤالها، جدیدند و قبلاً، کسی این سؤالها را نپرسیده؛ قصه هم نیستند و روزی به حقیقت تبدیل خواهند شد. والاچ و آلِن، بی آنکه اغراق کنند یا بخواهند ما را بترسانند، بهوضوح نشان میدهند که همین الآن، باید با جدیتِ تمام، راههایی را پیدا کنیم تا درست و غلط را به رباتها یاد بدهیم. باید تلاش کنیم که ابعاد مختلفِ این موضوع را متوجه شویم تا رباتها را به موجوداتی اخلاقی تبدیل کنیم.
همچنین، اینکه مشخص کنیم انتظار ما از اخلاقی شدن رباتها در چه حد است، حتی کمکمان میکند که اخلاق انسانی را هم بهتر متوجه شویم. پس، نویسندگان در این کتابِ تکجلدی، نهتنها موضوع اخلاق ماشینها را معرفی کردهاند، بلکه تحقیقی را انجام دادهاند که تا عمیقترین لایههای علم اخلاق نفوذ میکند. بیتردید، این مباحث، خوانندۀ منصف و باوجدان را به فکر فرو خواهد بُرد و او را مجبور خواهد کرد که باورهایش را دوباره بررسی کند. همین خصوصیات، این کتاب را به کتابی خواندنی در حوزۀ فلسفه، خصوصاً در باب فلسفۀ اخلاق، تبدیل کرده است.
پی نوشت
- Michele Borba
- Michele Borba
- A space Odyssey
- Wendell Wallach
- Colin Alen
- Moral Machines; Teaching Robots Right from Wrong
- Jim moor؛ استاد کالج دارتموث و از پیشگامان بحث اخلاق کامپیوتر.
- Implicitly ethical
- Automated moral agents (AMA)
- Moral Turing Test؛ آزمایشی است که آلِن تورینگ در سال ۱۹۵۰ م. ابداع کرد که بر اساس آن، بهصورت نوشتاری، کامپیوتر با انسان گفتگو میکند و سعی میکند تا جای ممکن شبهانسان رفتار کند. اگر طرف انسانی نفهمد که طرف مقابلش انسان نیست، کامپیوتر با موفقیت آزمایش را گذرانده است.
- Rule-based systems
- Three Laws of Robotics
- Isaac Asimov