تلاشی برای تعیین جایگاه اخلاقی ساختههای هوشمند انسان
بحث اخیر بین توماس متزینگر1 و تیم کرین2 در مورد جایگاه اخلاقی دستگاههای ساخته شده با فناوری هوش مصنوعی، بر طبق یک فرض اشتباه و پنهان پیش رفته است. فرضی که ارزش اخلاقی یک چیز را وابسته به ویژگیهای ذاتی او همچون فهم، توانایی در احساس درد و یا هر چیز دیگری میداند. این دیدگاه با رویکرد تقلیلگرایی که نسبت به مسائل دارد نمیتواند رابطه ما با دیگر موجودات را درک و توجیه کند. دیوید کانگل3 مینویسد، ما باید به تفکرات سنت قارهای و نظریههای آن در زمینه روابط برای بررسی جایگاه اخلاقی رجوع کنیم و بر اساس آن، رابطه خود را با ساختههای هوش مصنوعی شکل دهیم.
پایبندی به اخلاق یک امر شخصی میباشد. ما در برخورد با دیگران چه انسان، چه حیوان یا ربات؛ ناگزیر انتخاب میکنیم بین اینکه چه شخصی ارزش توجهمان را دارد و چه چیزی صرفاً مورد استفاده و حتی سواستفادهمان قرار میگیرد. این تصمیمات اغلب براساس برخی ویژگیهای ذاتی و بنیادین توجیه میشوند. این موضوع را میتوان در گفته مارک کوکلبرگ4 فیلسوف دید: “رویکرد مناسب برای توجیه جایگاه اخلاقی یک چیز، بررسی و سؤال در مورد میزان فهم یا توانایی رنج کشیدنش میباشد. اگر آن چیز دارای این شاخصه باشد، آنگاه میتوان برای آن یک جایگاه اخلاقی مشخص کرد.”
محدودسازیِ آزادیِ فردی فقط برای اجبارِ اشخاص به انجامِ رفتاری خاص، اغلب به تحمیلِ آن رفتار تبدیل میشود.
بحث اخیر توماس متزینگر و تیم کرین تصویر تقریباً کاملی از این روش و محدودیتهای آن ارائه میدهد. هر دوی آنها در این بحث (بدون اینکه متوجه آن باشند) به یک فرض مشابه رسیدند که توانایی فهم و ادراک عاملی است که مشخص میکند یک چیز صلاحیت داشتن جایگاه اخلاقی را دارد یا نه. اختلاف آن دو در این بود که آیا هوش مصنوعی توانایی رسیدن به فهم و درک را دارد؟ پاسخ متزینگر به این سؤال، مثبت بود ولی جواب کرین منفی. اما هر دوی آنها اشتباه میکردند که این سؤال میتواند جایگاه اخلاقی یک شیء را مشخص کند. همانطور که در ادامه توضیح خواهم داد که جایگاه اخلاقی، ارتباطی با “میزان درک و رنج” ندارد.
چرا ویژگیهایی مثل درد کشیدن یا درک محیط نمیتواند در تعیین جایگاه اخلاقی موثر باشد؟
سه مشکل در مشخص کردن جایگاه اخلاقی بر اساس معیارهایی مانند میزان درک و رنج وجود دارد.
۱. شناسایی:
چگونه میتوان فهمید که دقیقا کدام ویژگیها برای دستیابی به جایگاه اخلاقی کافی است؟ به کدام ویژگیها بایستی توجه کرد؟ و به چه کسی این اختیار داده شده که این تصمیم را ایجاد و اجرا کند؟ تاریخ فلسفه اخلاق یک درگیری مداوم بر سر این موضوع با شاخصههای متفاوتی است که در زمانهای مختلف به رقابتی برای جلب توجه تبدیل شده. و در این روند، بسیاری از این شاخصهها (مثل سفیدپوست و مذکر بودن) که زمانی هم ضروری و هم کافی به نظر میرسیدند اکنون نادرست، تبعیضآمیز و یا هردو تلقی میشوند.
۲. تعریف:
تعریف هر شاخصهای که انتخاب شود، سخت خواهد بود. برای مثال، توصیف میزان فهم دشوار است. همانطور که مکس ولمانز5 اشاره میکند، مشکل این است که این اصطلاح “معانی متعدد و متفاوتی برای افراد مختلف دارد و بنابراین یک معنای اصلی که مورد توافق اکثریت باشد وجود ندارد.” دیگر شاخصهها نیز تفاوت چندانی ایجاد نمیکنند. همانطور که دنیل دنت6 در مقاله “چرا نمیتوان کامپیوتری ساخت که درد را حس کند؟” نشان میدهد، رنج بردن نیز شاخصهای مبهم است. دلیل اینکه نمیتوان چنین کامپیوتری ساخت، محدودیتهای تکنولوژی نیست بلکه آن است که در وهله اول نمیتوان مشخص کرد که اصلا درد چیست. چیزی که دنت مشخص کرد این بود که خود مفهوم درد (چیزی که به نحوی در کامپیوترها درد تلقی خواهد شد) قراردادی، غیرقاطع و نامشخص است.
۳. تشخیص:
در پاسخ به چالش دنت، مهندسان مکانیزمهایی را ساختهاند که پاسخهای احساسی باورپذیری را ترکیب میکند و سیستمهایی را ایجاد کردهاند که توانایی بروز علائم “درد” را دارند. اما آیا این درد واقعی است یا فقط آن را شبیهسازی کردهاند؟ (این همان نکتهای است که جان سرل7 در آزمایش اتاق چینی8 خود به آن اشاره میکند.) حل این مسئله دشوار است، به ویژه به این دلیل که خاصیتی مانند رنج و یا تجربه آگاهانه از محیط بهطور مستقیم قابل بررسی نیست. فیلسوفها این مسئله را “مشکل ذهنهای دیگر”9 مینامند. حقایقی که برای ما قابل بررسیاند، تنها رفتار قابل مشاهده دیگران است. همانطور که دونا هاراوی10 آن را شرح میدهد، “ما نمیتوانیم به ذهن دیگران وارد شویم تا کل داستان را به صورت دقیق دریابیم.”
نگرش متفاوت
در پاسخ به این مشکلات، فیلسوفان اخلاق -به ویژه آنان که دیدگاه سنت قارهای دارند- برای حل چالش تعیین جایگاه اخلاقی روشهای دیگری را ارائه کردهاند. در نبود نام بهتری این روشها را “نگرش متفاوت”11 نامیدهاند. این جایگزینها سه شاخصه محوری دارند:
۱. وابسته به رابطه بودن:
برطبق گفتههای امانوئل لویناس12 و دیگران، این طرز فکر میتواند وضعیت را به روال معمول تغییر دهد. جایگاه اخلاقی براساس ویژگیهای ذهنی و درونی از پیش تعیینشده مشخص نمیشود، بلکه براساس روابط اجتماعی بیرونی که قابل بررسی است، مشخص میگردد. همانطور که ما با موجودات دیگر برخورد داریم و تعامل میکنیم (چه این دیگری انسان، یا حیوان و یا دستگاههای هوشمند باشد) این “دیگری” هم در رابطه با ما تجربه کسب میکند. تعیین جایگاه اخلاقی یک چیز وابسته به ماهیت آن نمیباشد بلکه نقش آن چیز در رابطه با ما و پاسخ ما به آن تعیین کننده است. (به اصطلاح لویناس: در مواجهه با دیگری13)
این تغییر در دیدگاه (تغییری که رابطه اخلاقی را مقدم بر ویژگیهای هستیشناختی قرار میدهد) در آزمایشهای علوم اجتماعی متعددی تأیید شده است. مطالعاتی که در مورد نقش رایانه بهعنوان کنشگر اجتماعی که توسط بایرون ریوز14 و کلیفورد ناس15 انجام شد، نشان داد که کاربرها برای رایانه و دیگر دستگاههای دارای تکنولوژی، نقش اجتماعی مشابهی با انسان قائل میشوند و این هم به خاطر ارتباط اجتماعی است که بین آنها وجود دارد و مربوط به ویژگیهای ذاتی دستگاههای درگیر نمیشود. به عبارت دیگر، جایگاه اجتماعی ارتباطی به تواناییهای ذهنی ندارد. این نتایج بارها در “مطالعات سواستفاده از رباتها” تأیید شده و در این مطالعات، محققان به این نتیجه رسیدهاند که نمونههای انسانی پاسخهای احساسی به رباتها میدهند و بدون توجه به عملکرد درونی دستگاهها، ابراز نگرانی میکنند.
در پاسخ به چالشهای اخلاقی ناشی از هوش مصنوعی، ما باید مسئولیت خود، دنیای خود و دیگرانی را که در اینجا با آنها روبرو میشویم، بپذیریم.
۲. تجربی بودن:
وقتی که رویکرد رابطهای را اتخاذ میکنیم، مشکل ذهنهای دیگر (دشواریِ دانستنِ آگاه بودن یا نبودن “دیگری” یا تواناییاش در رابطه با رنج) یک محدودیت اساسی در معرفتشناختی نیست. در واقع، تصمیمگیریهای اخلاقی در جهت عکس عمل میکند. ویژگیهای درونی تعیینکننده نیستند، بلکه نتیجه تصمیماتیاند که در مواجهه با روابط اجتماعی با دیگران اتخاذ میشود. کارن باراد16، پژوهشگر مدافع حقوق زنان، معتقد است که این رابطه هم از لحاظ زمانی و هم جایگاهی در درجه اول قرار دارد.
۳. متنوع بودن:
در آخر باید گفت تقسیم دنیا به دو دسته موجودات آگاه که اهمیت دارند و چیزهایی که اهمیتی ندارند محصول تفکری اروپایی و مدرن است. بقیه فرهنگها که در دیگر عصرها و مکانها شکل گرفتهاند، جهان و موجودات آن را اینچنین دستهبندی نمیکنند. آنها برای تشخیص موجودات از اشیاء، نوع متفاوتی از نگریستن، ارزشگذاری و عمل را استفاده میکنند. معیار اخلاقی که کرین و متزینگر آن را درست میدانند (فرض مشترکی که آنها بهصورت تلویحی قبول دارند و به چالش نمیکشند) منجر به نوعی استعمار فکری میشود. اما در مقام قیاس، نگرش متفاوت، پذیرای نگرش و رفتار متنوع در مقابل دیگران است. (چه این دیگران ماهیت بیولوژیکی داشته باشند چه مصنوعی.) این بدان معنی نیست که سنتهای فلسفی که توسط کرین و متزینگر استفاده شدهاند، اشتباهاند. فقط به این معناست که این طرز نگرش، سبک خاصی از دانش موقعیتی است و نمیتوان آن را به همه افراد در هر موقعیت و مکانی تعمیم داد.
جایگاه اخلاقی هوش مصنوعی
در پایان، سوالی که برای تعیین جایگاه اخلاقی هوش مصنوعی مطرح میشود، موجودات مصنوعی را هدف نمیگیرد. مخاطب این سؤال ما هستیم. سؤال این است که ما با هم و با وجود تجربیات انسانی متفاوت، چگونه به هوش مصنوعی پاسخ خواهیم داد و آیا در مقابل دنیای خود مسئولیتپذیر خواهیم بود یا نه؟ در پاسخ به چالشهای اخلاقی ناشی از هوش مصنوعی، ما باید مسئولیت خود، دنیای خود و دیگرانی را که در اینجا با آنها روبرو میشویم، بپذیریم.
پی نوشت
- Thomas Metzinger
- Tim Crane
- David Gunkel پژوهشگر و استاد دانشگاه ایلینویز شمالی در زمینه مطالعات ارتباطی. تحقیقات و نوشتههای او به بررسی فرضیات فلسفی و عواقب اخلاقی حوزه فناوری اطلاعات و ارتباطات میپردازد.
- Mark Coeckelbergh
- Max Velmans
- Daniel Dennett
- John Searle
- Chinese Room thought experiment
- the problem of other minds
- Donna Haraway
- thinking otherwise
- Emmanuel Levinas
- in the face of the other
- Byron Reeves
- Clifford Nass
- Karen Barad