مشکل اوبر و خودروهای خودران چیزی فراتر از مسئلهٔ ترامواست
از مقدمات
تا الآن دیگر دستتان آمده که قضیه از چه قرار است: تراموایی ترمزبریده در امتداد ریل بهسرعت پیش میرود. پنج نفر کارگر جلوتر هستند و اگر تراموا به آنها برسد، قطعاً کشته میشوند. شما میتوانید اهرمی را بکشید تا تراموا را به ریل کناری بیندازید، اما روی آنیکی مسیر هم کارگر دیگری هست که مثل آن پنج نفر دیگر کلکش کنده خواهد شد. آیا اهرم را خواهید کشید و یک نفر را خواهید کُشت یا هیچ کاری نمیکنید و پنج نفر را میکُشید؟
آنچه آمد، مشهورترین صورتبندی از مسئلهٔ ترامواست. این مسئله آزمایشی فکری در حوزهٔ فلسفه است که در دههٔ ۱۹۷۰ بر سر زبانها افتاد. نسخههای دیگری هم از این مسئله وجود دارند. نمونهٔ معروف بعدی حالتی است که در آن از شرکتکننده پرسیده میشود یا حاضر است مردی چاق را از روی پُلی هُل بدهد تا جلوی تراموا را بگیرد و بهجای اینکه حتی یک نفر از آن کارگرهای فرضاً لاغر را بکشد، باعث مرگ مرد چاق شود. مسئلهٔ تراموا علاوه بر نقش اولیهٔ خود، یعنی تمرینی فلسفی، در حوزهٔ روانشناسی نیز بهعنوان ابزار استفاده شدهاست و اخیراً هم در زمینهٔ خودروهای خودران، به اصلیترین مترومعیاری بدل گشته تا بااستفاده از آن، پرسشهای اخلاقی مطرح شوند.
«دستگاه اخلاقمدار»
آیا خودروی خودران باید میان عابر پیاده و راننده، راننده را به خطر بیندازد؟ میان شخصی سالمند و کودک چطور باید تصمیم بگیرد؟ اگر امکان داشته باشد که خودرو با رانندههای نزدیک به خود تصادف کند و بتواند به اطلاعاتی دربارهٔ آن افراد دسترسی داشته باشد، آیا باید از این اطلاعات برای تصمیمگیری استفاده کند؟ مسئلهٔ تراموا در محافل مرتبط با خودروهای خودران تا آنجا محبوب شدهاست که درواقع گروهی از مهندسان امآیتی ، مؤسسهٔ فناوری ماساچوستس، نسخهای عمومی از آن ساختهاند. این نسخه که دستگاه اخلاقمدار نام دارد، در پی آن است تا بسنجد و ببیند از نظر انسان، دستگاههای روباتی در آینده و در موقعیتهای مختلف باید چطور واکنش نشان بدهند. دستگاه اخلاقمدار بهدنبال دستهبندی نظرات انسانهاست.
این مسئله به بدترین شکل ممکن به وجوه و شرایط اخلاقی خودروهای روباتی، کشتیهای روباتی یا کارگران روباتی میپردازد؛ یعنی همان حوزهای که امروزهروز بیشتر از هر جای دیگر بهمنظور تبیین شرایطش به کار گرفته میشود.
اما مسئلهٔ تراموا خود مسئلهای دارد. این مسئله به بدترین شکل ممکن به وجوه و شرایط اخلاقی خودروهای روباتی، کشتیهای روباتی یا کارگران روباتی میپردازد؛ یعنی همان حوزهای که امروزهروز بیشتر از هر جای دیگر بهمنظور تبیین شرایطش به کار گرفته میشود. استفاده از مسئلهٔ تراموا برای رسیدن به این اهداف، مخصوصاً بهعنوان منبعی برای کسب پاسخ یا راهنمایی جهت انجام امور مهندسی یا سیاستگذاری در این حوزه، به نتایجی ناقص و خطرناک دربارهٔ وجوه اخلاقی دستگاههای خودکار میانجامد.
آغاز «مسئلهٔ تراموا»
جودیت جارویس تامسون 1، فیلسوف آمریکایی، در سال ۱۹۷۶ اصطلاح «مسئلهٔ تراموا» را وضع کرد، اما این فیلسوفی دیگر، یعنی فیلیپا فوت 2 بود که نخستین بار در سال ۱۹۶۷ و در مقالهای این سناریو و وضعیت را تشریح کرده بود. فوت در آن مقاله به تفاوت میان دو مسئله میپرداخت: آنچه که افراد قصدش را داشتند و آنچه میتوانستند پیشبینیاش کنند. فوت سقط جنین را مثال خود در نظر میگیرد. پزشکی جراح مشغول انجام عمل هیسترکتومی یا همان زهدانبرداری بر روی زنی باردار میشود. قصد این پزشک، برداشتن رحم زن و خارجکردن آن از بدن است، اما پیشبینی میکند که در نتیجهٔ این کار، جنین خواهد مرد. در حالت دیگر، پزشکی که جنین را از میان میبرد تا جان مادر را نجات دهد، مستقیماً قصد دارد تا به کار جنین پایان دهد. نمونههای مشابه به نتایج اخلاقی متفاوتی میانجامند.
فوت سناریوها و وضعیتهای پرشمار دیگری را در این رابطه مطرح میکند. یکی از آنها همین سناریوی سوزنبان است که امروزه معروف شدهاست. در یکی دیگر از سناریوها دارودستهای شورشی قاضی پروندهای را تهدید میکنند که اگر حکم به اعدام شخصی بیگناه ندهد، انتقام خواهند گرفت. نمونهٔ دوم در نگاه نخست خیلی شبیه به مسئلهٔ تراموا جلوه میکند؛ در آن صحبت از انتخاب میان مرگ عدهٔ کمتر و عدهٔ بیشتری از افراد است، ولی فوت مینویسد که بیشتر افرادی که سوزنبانِ تراموا را تشویق میکنند تا فقط یک نفر را به خطر بیندازد، وقتی ببینند که قرار است برای مردی بیگناه پاپوش دوخته شود و گناهکار جایش بزنند، پا پس میکشند و از این حرکت حالشان بههم میخورد.
فوت به این نتیجه میرسد که میان آنچه فرد انجام میدهد و آنچه اجازه میدهد دیگران انجام دهند، تفاوتی هست. فوت بهصورت مشخص مینویسد که «تمایز میان پرهیز از ایجاد آسیب و صدمه از یکسو و فراهمآوردن کمک از سوی دیگر، حقیقتاً که تمایزی بسیار مهم است.»
بیشتر افرادی که سوزنبانِ تراموا را تشویق میکنند تا فقط یک نفر را به خطر بیندازد، وقتی ببینند که قرار است برای مردی بیگناه پاپوش دوخته شود و گناهکار جایش بزنند، پا پس میکشند و از این حرکت حالشان بههم میخورد.
یک مقاله و خیلِ پیامدگرایان
مقالهٔ کوتاه فوت برای اندیشیدن دربارهٔ وضعیتهای مختلف اخلاقی در حوزهٔ خودروهای خودران رویکردی ظریفتر پیش پای خواننده میگذارد تا آن مثال تراموا بهتنهایی، همان مثالی که بهعنوان مسئلهٔ تراموا شناخته شد. بخشی از این مسئله بدان علت است که فوت پیرو سنتی فکری است که با نام اخلاق فضیلتمدار شناخته میشود و در این حوزه دنبالهروی ارسطو است. از منظر اخلاقشناسان فضیلتمدار کیفیت اخلاقی حیات و شخصیت فرد حائز بیشترین اهمیت است.
اما رفتار فاضلانه و بر مبنای فضیلت، محور اغلب بحثهایی نیست که پیرامون خودروهای خودکار شکل میگیرند. درعوض جدیترین دغدغه در این حوزه، آن است که اگر جامعهای خودروهای روباتی داشته باشد، نتیجتاً برونداد آن چه خواهد شد. در فلسفهٔ اخلاق این رویکرد با اخلاق فضیلتمدار تمایز دارد و با نام پیامدگرایی شناخته میشود. برای پیامدگرایان، از جمله فایدهگرایان که مهمترین دسته در میان پیامدگرایان هستند، بیش و پیش از هر چیز دیگر، نتیجه و پیامد اقدامات و رفتار است که موضوع حائز اهمیت شمرده میشود.
از آنجا که بیش از ۹۴ درصد از این سوانح در اثر خطای راننده پدید میآیند، چنین بهنظر میرسد که جایگزینکردن انسانهای خطاپذیر با دستگاههای مطمئن در کل فایدهای آشکار برای جامعه بههمراه دارد.
طرز فکر فایدهگرایانه با گفتمان حاکم بر موضوع خودروهای خودران پیوندی عمیق و گسترده دارد. حتی پیش از اینکه طرفداران این مسئله رو بیاورند به تصمیمگیری بر سر اینکه در زمان حادثه، خودرو باید چه کسی را زیر بگیرد، این طرز فکر با خودروهای خودران پیوند داشتهاست. یکی از دلایل رایجی که در دفاع از خودروهای خودران میآورند، این است که میتوانند سطح ایمنی را بسیار بالا ببرند. در سال ۲۰۱۶ و در ایالات متحده، بیش از ۳۷ هزار نفر در اثر سوانح جادهای کشته شدهاند. از آنجا که بیش از ۹۴ درصد از این سوانح در اثر خطای راننده پدید میآیند، چنین بهنظر میرسد که جایگزینکردن انسانهای خطاپذیر با دستگاههای مطمئن در کل فایدهای آشکار برای جامعه بههمراه دارد.
مشکل در اینجاست که تمرکز بر روی نتایج، باعث میشود فضایل و رذایل استفاده از خودروهای روباتی به چشم مردم نیاید. دیدیم که وضعیتِ تراموا و کارگرانی که فوت مطرح کرد، با وضعیت شورشیان و قاضی بهلحاظ اخلاقی تفاوت داشت. در اینجا نیز همانطور است. عواقب استفاده از خودروهای خودران با همان هزینههای انسانی، محتملاً عواقبی با خود دارد که بهلحاظ اخلاقی، قانونی و مدنی با وضع فعلی متفاوتاند.
حادثهٔ شهر تمپی
اخیراً خودرویی خودران متعلق به اوبر 3 در شهر تمپی 4 واقع در ایالات آریزونا 5 با خانمی چهلونُهساله با نام الین هرتزبرگ 6 تصادف کرد و او را کشت. او عابری پیاده بود که در آنسوی جاده داشت پیاده میرفت و دوچرخهاش را با خود حمل میکرد.
بعد از اینکه دربارهٔ جوانب احتمالی حقوقی این تصادف یادداشتی نوشتم، بعضی از خوانندگان با حرفهای فایدهگرایانه مرا به ریشخند گرفتند. آخر در سال ۲۰۱۵ و در ایالات متحده ۵ هزار و ۳۷۶ نفر عابر پیاده در اثر تصادف با خودرو کشته شدهاند و رسانههای خبری نیز با تکتک این مرگومیرها بهمثابه نمونهای ویژه برخورد نمیکنند و به آنها نمیپردازند. خودروهای خودران بهزودیزود میتوانند مرگومیر عابران پیاده را کاهش دهند یا آن را بهکلی از میان ببرند. اگر این فرض را در چارچوب مسئلهٔ تراموا تبیین کنید، آنوقت دو مسیر ریلی که در مسئلهٔ تراموا هستند، بهجای اینکه نمایانگر فضا باشند، نمایانگر زمان هستند. مرگ یک نفر درهرصورت اندوهبار است، اما اگر معنای آن مرگ، رسیدن به پیشرفتی است بهمنظور جلوگیری از مرگ هزاران نفر دیگر، آنوقت شاید بتوان گفت چنین مرگی موجه است.
خودروهای خودران بهزودیزود میتوانند مرگومیر عابران پیاده را کاهش دهند یا آن را بهکلی از میان ببرند.
مشکل اینجاست که چنین موضعی فرض میگیرد که مرگ هرتزبرگ عیناً مثل مرگ آن هزاران نفر افراد بختبرگشتهای است که خودروهای عادی جانشان را گرفتهاند. شاید چنین چیزی به زبان آماری صادق باشد، اما بهلحاظ اخلاقی لزوماً چنین نیست.
اوبر و ویمو
در آینده اگر خودروهای خودران بهخوبی عمل کنند، احتمالاً از تصادفهایی نظیر سانحهٔ تمپی خیلی بهتر جلوگیری میکنند. تازه، از خودروهای خودران اسم آوردم و به سامانههای اخطاردهندهای اشاره نکردم که در خودروهای عادی به کار میروند و پیشپیش دربارهٔ خطر تصادف با جلوی خودرو هشدار میدهند. انتظار میرود در خودروهای خودران، حسگرها و رایانههایی که میتوانند بهتر از انسان به محیط پیرامون خود واکنش نشان بدهند، در مقایسه با نوع واکنش و منطق انسانی، عملکردی بسیار بهتر داشته باشند. وقتی جزئیات تصادف خودروی اوبر ذرهذره منتشر شد، بعضی کارشناسان به این نتیجه رسیدند که باید از آن تصادف جلوگیری میشد و نباید رخ میداد.
علاوه بر اینها، شرکت اوبر هدفی برای خودروهای خودرانش تعیین کردهاست: تا ماه مارس، یعنی همان ماهی که تصادف در آن رخ داد، هر خودروی خودران باید بتواند بدون نیاز به دخالت انسانی ۱۳ مایل 7 مسافت طی کند. بهنظر میرسد خودروی شرکت اوبر به این هدف نرسیده بوده. در همین حال شرکت ویمو 8 که خواهرخواندهٔ شرکت گوگل است، مدعی شده که خودروهایش میتوانند بهصورت میانگین ۵ هزار و ۶۰۰ مایل 9 مسافت بپیمایند، بدون اینکه نیاز باشد انسان مهار خودرو را در دست بگیرد.
وقتی جزئیات تصادف خودروی اوبر ذرهذره منتشر شد، بعضی کارشناسان به این نتیجه رسیدند که باید از آن تصادف جلوگیری میشد و نباید رخ میداد.
با این اوصاف در جادههای ایالت آریزونا تمایز میان خودروی خودران شرکت ویمو و خودروی شرکت اوبر احتمالاً مهمتر از تفاوت میان خودرویی است که انسان هدایتش میکند و خودرویی که هدایت آن را کامپیوتر برعهده دارد. اما داگ دوسی 10، فرماندار ایالت آریزونا، اجازه داد تا این خودروها بدون هیچگونه نظارت قانونی چشمگیر به جادههای آن ایالت بیایند و در استفاده از آنها شریک شوند. هدفش هم این بود که با این کار، فعالیتهای مرتبط با خودروهای خودران را به آن ایالت بکشاند و آنجا را محل پژوهش دربارهٔ این خودروها و آزمایش آنها کند و محلی شود برای مشاغل مرتبط به آن.
پرسشهای بیپاسخ
با تعمق در وضعیتی که مسئلهٔ تراموا تشریح میکند، برای هیچیک از این شرایط پاسخی نمییابیم. میتوانیم بپرسیم آیا خودروی اوبر میبایست به هرتزبرگ میزد یا به شانهٔ جاده میرفت (و اینگونه راننده را در معرض خطر قرار میداد تا از تصادف با عابر پیاده پرهیز کند)، اما برای طرح این پرسش ابتدا باید فرض بگیریم که خودروی اوبر اساساً میتواند عابر پیاده را ببیند و واکنشی متناسب نشان بدهد. این پرسش فرض میگیرد که چنان قابلیتی قابلاعتنا و تضمینی است؛ معادل انجام کاری مکانیکی است، کاری مثل حرکتدادن اهرمی برای تغییر مسیر تراموا از ریلی به ریل دیگر. این پیشزمینه همان چیزی است که در وضعیت مسئلهٔ تراموا وجود ندارد. مهمترین وجه اتفاقی که در شهر تمپی افتاد نیز همین پیشزمینه است. پیشزمینهای که هم با پیامدهای آن اتفاق مرتبط است، هم بهلحاظ اخلاقی اهمیت دارد.
یکی از راهحلهایی که میتوان ارائه داد این است که بینهایت بار مسئلهٔ تراموا برای مخاطبان مطرح شود و بعد جوابهایی را که عموم مردم به آن میدهند، گرد آورد و الگوهای آن را پیدا کرد.
فوت پیشتر، حتی قبل از اینکه مثال تراموا تبدیل به مسئلهٔ تراموا بشود، پیشبینی کرده بود که فقدان پیشزمینه در موقعیتهایی که شرح میدهد، به وجود خواهد آمد. او مینویسد: «در زندگی واقعی دشوار میتوان اطمینان یافت آن مردی که روی ریل باریک ایستادهاست، کشته میشود یا نه. شاید او جای پایی در کنار ریل پیدا کند… و همانجا بماند تا وسیلهٔ نقلیه از کنارش بگذرد.» برای مسئلهٔ احتمالهای بینهایت، یکی از راهحلهایی که میتوان ارائه داد این است که بینهایت بار مسئلهٔ تراموا برای مخاطبان مطرح شود و بعد جوابهایی را که عموم مردم به آن میدهند، گرد آورد و الگوهای آن را پیدا کرد. رویکردی که وبسایت دستگاه اخلاقمدار پیش گرفته، همین است. این رویکرد با بهترین شیوهٔ عملکرد سامانههای یادگیری ماشینی منطبق است، چرا که دادههای بسیار زیادی در اختیار دارد. اما رویکرد دیگر میتواند این باشد که مسئلههای منحصربهفرد و خاص را در مناسبترین و متناسبترین بستر اخلاقی بررسی کرد و در نظر آورد.
مثالی دیگر
اتفاقاً فوت مثال دیگری آوردهاست که در مقایسه با مسئلهٔ تراموا، اشتراکات بیشتری دارد با آنچه در شهر تمپی رخ داد. تصور کنید پنج بیمار در بیمارستانی بستریاند. اگر به هر یک از این بیماران گازی مخصوص بدهند، جانشان نجات پیدا میکند، اما استفاده از آن گاز، باعث میشود بخارهای سمّی در اتاق بیماری دیگر انتشار یابد. این بیمار دیگر را نیز نمیتوان از اتاقش جابهجا کرد.
در این وضعیت، نتیجهٔ سبکسنگینکردن پیامد تصمیمها عیناً با مسئلهٔ تراموای اصلی یکی است، معالوصف، نتیجهٔ آن برای بسیاری از مردم آنقدرها آشکار نیست. یک علتش تفاوت میان تأثیر عامدانهٔ تصمیم افراد و تأثیر پیشبینیپذیر این تصمیم است. اما دلیل دیگری هم دارد و آن تمایل اخلاقی است برای پرهیز از آسیبرساندن به دیگری. این تمایل به گونهای دیگر خود را نشان میدهد و رفتار میکند.
در حقیقت موقعیتی که برای خودروی اوبر پیش آمده، از این هم پیچیدهتر است، چرا که بهنظر میرسد هیچیک از طرفین دخیل در ماجرا، بهقدر کافی اطلاعات نداشتند تا بدانند خودرو در آن لحظه (و نه در آینده) تا چه اندازه ظرفیت آسیبرساندن به دیگران را دارد
در مسئلهٔ تراموا، رانندهٔ تراموا با دو موقعیت مواجه است که هر دوی آنها به دیگری آسیب میرسانند و هر دو با یکدیگر مغایرند و شخص راننده هیچیک از آن دو را شخصاً برنمیگزیند و پدید نمیآورد، اما در مثال گاز و بیمارستان، پزشک با موقعیتی مواجه است که اگر به یک نفر یاری برساند، باعث آسیبرساندن به دیگری میشود و اینها باز با هم مغایرند.
در حقیقت موقعیتی که برای خودروی اوبر پیش آمده، از این هم پیچیدهتر است، چرا که بهنظر میرسد هیچیک از طرفین دخیل در ماجرا، بهقدر کافی اطلاعات نداشتند تا بدانند خودرو در آن لحظه (و نه در آینده) تا چه اندازه ظرفیت آسیبرساندن به دیگران را دارد؛ نه شرکتی که خودرو را ساخته این را میدانست، نه رانندهای که با آن کار میکرد و نه حکومتی که قوانین ناظر بر آن را وضع میکند. همین مسئله است که باعث میشود پیشزمینهٔ اخلاقی مرتبط با تصادف خودروی اوبر کمتر با تلفات آینده در سوانح خودرویی ارتباط پیدا کند و بیشتر به مسائل لحظهٔ حال مرتبط باشد، یعنی قواعد و قوانین حکومتی، گردش آزاد اطلاعات شرکتها و سیاستهای حملونقل. اما در مقایسه با تراموایی ترمزبریده، اندیشیدن به این موضوعات جذابیت بهمراتب کمتری دارد.
ماشینهایی روباتی با بخت بلند اخلاقی
اگر شرکتهای حوزهٔ فناوری، شهروندان و سیاستگذاران جامعه واقعاً میخواهند درزمینهٔ فلسفهٔ اخلاق چنین رویهای پیش بگیرند و سنگ بنای چنین رفتاری را بگذارند، بهتر این است که به فاجعهٔ شرکت اوبر بهعنوان مثالی از بخت اخلاقی نگاه کنند.
بخت اخلاقی مفهومی است که تامس نیگل 11، فیلسوف آمریکایی، بیان کرد. یکی از مثالهای رایج بخت اخلاقی اینچنین است: شب است و مردی مست سوار خودرویش میشود تا به خانه برود. بهرغم مستی، بدون هیچ اتفاقی به مقصد خود میرسد. حالا تصور کنید مردی دیگر در همین موقعیت است، اما هنگام رانندگی به کودکی میکوبد و او را میکشد؛ کودکی که ناگهان خواسته از خیابان عبور کند. بهنظر طبیعی است که مرد دوم را بیش از مرد اول شماتت کنیم، اما هر دو عامدانه رفتاری یکسان از خود نشان دادهاند. تنها تفاوت میان این دو نمونه، نتیجهای است که از آنها حاصل شده.
آیا وقتی مقامات ایالت آریزونا مصرّانه و آشکار دعوت کردهاند تا شرکتها به آن ایالت بروند و خودروهای خودرانشان را در خیابانها و جادههایی آزمایش کنند که شهروندان ایالت در آنها عبورومرور میکنند، باز میتوان تقصیرها را به گردن شرکت اوبر انداخت؟
اگر از این منظر به حادثه نگاه کنیم، مرگی که خودروی اوبر بهبار آوردهاست، بهلحاظ ارزشی خنثی نیست، یا حتی نوعی فدیهٔ برحق بهنظر نمیرسد که طی آن فقط یک نفر عابر پیاده فدا شده باشد تا از قِبَل آن، امنیت احتمالی عابران پیاده تضمین شود، آن هم در آیندهای فرضی که در آن خودروهای روباتی ماهر و سودمند در تمام دنیا به کار گرفته شدهاند.
چنین نگاهی در مقابل حقیقتی را آشکار میکند. این حقیقت که پیامدهای مثبت، یعنی خودروهای امنتر، امنیت بیشتر برای عابران پیاده و چیزهایی از این قبیل، تنها ممکن است پیامدهای بخت اخلاقی خودروهای روباتی باشند، خودروهایی که هنوز اقدامی شماتتکردنی از آنها سر نزدهاست. صدالبته تا آن لحظه سر نزده و ممکن است بعداً مرتکبش شوند.
اندیشهٔ بخت اخلاقی باب تفکراتی دیگر را نیز دربارهٔ خودروهای روباتی میگشاید. وقتی موضوع صحبت، خودروهای خودران باشند، دشوارتر از حالت عادی میتوان اقدامات ارادی را معین کرد. آیا رانندهٔ خودروی ساخت اوبر، تمام عواقب اقداماتش را میشناخت و درک میکرد؟ آیا منطقی است که فرض بگیریم رانندهٔ انسانی، میتواند هنگام نظارت بر دستگاهی، در عملکرد آن دخالت کند، وقتی که خود راننده فعالانه در حال کارکردن با دستگاه نبودهاست؟ آیا وقتی مقامات ایالت آریزونا مصرّانه و آشکار دعوت کردهاند تا شرکتها به آن ایالت بروند و خودروهای خودرانشان را در خیابانها و جادههایی آزمایش کنند که شهروندان ایالت در آنها عبورومرور میکنند، باز میتوان تقصیرها را به گردن شرکت اوبر انداخت؟
در این لحظه تمام این پرسشها در آریزونا و دیگر مناطق مطرح میشوند. اما اینها همه برای الن هرتزبرگ حکم نوشداروی پس از مرگ را دارد.
منظور از تمامی این صحبتها، این نیست که یکی از عوامل دخیل در تصادف اخیر خودروی اوبر با عابر پیاده را تحسین یا مذمت کرد. همچنین هدف این نیست که آیندهٔ خودروهای خودران را بستاییم یا دربارهٔ آن حسرت و افسوس بخوریم. بلکه هدف این است که نشان بدهیم برای رسیدگی به مسئلهٔ خودروهای خودران و پاسخدادن به آن، چه در زمان حال و چه در آینده، نیاز به ظرافتهای اخلاقی بهمراتب بیشتری است.
راهی تازه
فلسفهٔ اخلاق به این معنی نیست که حسابکتابی ساده را به هر موقعیتی تعمیم بدهیم؛ همچنین به این معنی نیست که مجموعهای از نظر افراد مختلف را دربارهٔ موضوعی خاص و جنبههای واضح و متفاوت آن موضوع گرد بیاوریم. صدالبته که اتخاذکردن چنین موضعی بدان معنی است که از همان ابتدا نتیجهای فایدهگرایانه را مفروض گرفتهایم.
وقتی مهندسان، منتقدان، روزنامهنگاران یا مردم عادی به مسئلهٔ تراموا بهعنوان شیوهای رضایتبخش، یا حتی سهلالوصول، مینگرند تا با استفاده از آن دربارهٔ موقعیتهای مختلف در دنیای خودروهای خودران بیندیشند، از زیر بار موضوعی دیگر شانه خالی میکنند؛ از زیر بار این موضوع که موقعیتهایی را در نظر بیاورند که بهلحاظ اخلاقی پیچیدهترند. موقعیتهایی که در آنها نیز همین دستگاهها و ابزارها دخیلاند و فعالیت میکنند.
شهروندان عادی، دولتها و حکومتها، شرکتهای سازندهٔ خودرو و شرکتهای حوزهٔ فناوری باید پرسشهایی دشوارتر و پیچیدهتر را مطرح کنند
آزمایشهای فکری راهی پیش پای فلاسفه میگذارند تا بتوانند نتایج ناشناختهٔ پدیدهای را در نظر بیاورند یا در اندیشههای پذیرفتهشده بازنگری کنند، اما این آزمایشها صرفاً ابزارهایی هستند برای تفکر، نه دستورالعملهایی حاضروآماده برای انجام افعال مطابق آنها.
اگر بخواهیم از نمونهای بهخصوص نام ببریم، باید بگوییم که محبوبیت فریبندهٔ مسئلهٔ تراموا به مردم امکان دادهاست تا فناوری خودروهای خودران را بهغلط نوعی فناوری بپندارند که در حال حاضر هم مهیاست، میتوان به آن اطمینان کرد و همهجا نیز میتواند فراگیر شود؛ تاجاییکه میتوان پرسشهایی انتزاعی دربارهٔ رفتار اخلاقی فرضی آنها مطرح ساخت و حتی به این پرسشها پاسخ گفت.
اما با چنین وضعیتی سالهای سال فاصله داریم، تازه اگر وجودشان به تحقق بپیوندد. در این زمان، شهروندان عادی، دولتها و حکومتها، شرکتهای سازندهٔ خودرو و شرکتهای حوزهٔ فناوری باید پرسشهایی دشوارتر و پیچیدهتر را مطرح کنند. پرسشهایی راجع به عواقب اخلاقی استفاده از خودروهای روباتی در دنیای امروز و البته در دنیای فردا. زمان آن رسیده که ترمز این تراموا را بکشیم، پیش از آنکه همهٔ مردم را زیر بگیرد.