راهنمای اخلاقی هوش مصنوعی
فضای گفتوگویی که پیرامون وجوه اخلاقی هوش مصنوعی وجود دارد، فضایی است گسترده، پر از تنوع و بهکلی آشفته.
معمولاً قضیه از این قرار است که آندسته افرادی که به بحث دربارهٔ وجوه اخلاقی فناوری میپردازند، همان کسانی هستند که بیشتر از هر کس دیگری در این حوزه، پای سودوضرر مالیشان در میان است؛ افرادی از قبیل سیاستمداران، برنامهنویسان شرکتهای بزرگ فناوری و پژوهشگرانی که در دانشگاههای بزرگ فعالاند.
گاه مخالفان بیان میکنند که سامانههای خطرناک هوش مصنوعی را نباید به کار گرفت، مگر پس از بررسیکردن صدمات بالقوهای که این سامانهها میتوانند وارد بیاورند. در این مواقع، اصلیترین استدلالی که این قبیل از افراد علیه افراد مخالف بیان میکنند، عمدتاً به این جمله معروف ختم میشود: «وضع قاعدهوقانون ممکن است جلوی نوآوری را بگیرد.» در این شرایط بهسختی میتوان به نیات و انگیزههای این دسته از افراد پی برد و فهمید که چرا چنین چیزی میگویند.
آیا باید نگران دستگاههایی با هوش مصنوعی باشیم که خودآگاه شدهاند، شورش میکنند و همهٔ ما را میکُشند؟ بله، ولی آیا چنین موضوعی، مسئلهای اخلاقی است؟
وضع زمانی از این هم بدتر میشود که رسانهها وسط میآیند، چرا که اساساً دنبال ایناند تا هرچه بیش از پیش فضای این گفتوگوها را گلآلود کنند، آن هم از طریق درهمآمیختن وجوه اخلاقی هوش مصنوعی با داستانهای گمانهزن علمیخیالی. آیا باید نگران دستگاههایی با هوش مصنوعی باشیم که خودآگاه شدهاند، شورش میکنند و همهٔ ما را میکُشند؟ بله، ولی آیا چنین موضوعی، مسئلهای اخلاقی است؟ بعداً باز سراغ این پرسش میآییم.
ساخت و بهکارگیری هر نوع سامانهٔ مبتنی بر هوش مصنوعی تبعاتی علمی، سیاسی و اخلاقی در پی دارد. درک این وجوه مختلف برای کسی که خود در حوزهٔ فناوری مشغول باشد، کاری است دشوار.
حالا با این اوصاف، ما که خودمان بیرون از این حلقه هستیم و عمر کاریمان را صرف نکردهایم تا سر از کارِ هوش مصنوعی دربیاوریم، چطور میخواهیم قدم بگذاریم به سرزمین وجوه اخلاقی هوش مصنوعی و دنیایی را گز کنیم که بیشازاندازه پیچیده است و اغلب هیچ معنایی هم ندارد؟ میخواهیم این کار را با استفاده از عقل سلیم انجام بدهیم.
اخلاق؟ قواعد؟ ارزشها؟
موضوع وجوه اخلاقی هوش مصنوعی موضوعی پیچیده است، چرا که شامل وضعیتی دووجهی است. در وهلهٔ نخست، وجه اخلاقی و اخلاقمداری اشاره به تنها یک وضعیت مطلوب دارد و آن چیزی نیست جز رفتار بشری، اما وقتی صحبت از هوش مصنوعی در میان باشد، باید رفتار دستگاه را نیز در نظر بیاوریم.
برای مثال خودروهای معمولی نمیتوانند تصمیمی بگیرند که در نتیجهٔ آن تصمیم به انسانها آسیبی وارد شود. اگر کسی یک دستگاه فورد اسکورت مدل ۱۹۸۴ داشته باشد، آن خودرو نمیتواند سرخود و علیرغم میل رانندهاش تصمیم بگیرد که مسیر حرکتش را تغییر بدهد، مگر اینکه عیبوایراد مکانیکی خیلی شدیدی پیدا کرده باشد، اما اگر کسی یک دستگاه تسلای مدل ۲۰۲۱ را براند و سامانهٔ «خودران کامل» را فعال کرده باشد، ممکن است چنین اتفاقی رخ بدهد.
وقتی صحبت از هوش مصنوعی میشود، انگار مردم نخستین مثال اخلاقی که به ذهنشان میرسد و مطرح میکنند، چیزی نیست جز مسئلهٔ تراموا.
هرچند، خودروی تسلا هم تصمیمش را بر اساس اخلاق، قواعد و ارزشهای شخصی خود نمیگیرد. کاری را انجام میدهد که برنامهریزی شده تا انجام دهد. خودرو دستگاهی هوشمند نیست و نمیفهمد جاده کجاست و رانندگی چیست، فقط و فقط کُدهایی را اجرا میکند و تواناییاش را دارد تا دادههای جدید را بهصورت لحظهای و زنده در نحوهٔ عملکرد خود لحاظ کند.
وقتی صحبت از هوش مصنوعی میشود، انگار مردم نخستین مثال اخلاقی که به ذهنشان میرسد و مطرح میکنند، چیزی نیست جز مسئلهٔ تراموا. صورت این مسئلهٔ غامض بیان میکند که شخص سوار بر تراموایی است که دارد بهسرعت بهسمت پنج نفر میرود و اگر شخص کاری نکند، آنها را خواهد کشت، اما اگر اهرمی را بکشد، تراموا به سمتی دیگر میرود و یک نفر را میکشد.
در ظاهر امر بهنظر میرسد که کار اخلاقی، این است که شخص یک نفر را قربانی کند تا جان عدهٔ بیشتری را نجات دهد، اما اگر شخص این کار را کرد و بعداً فهمید که آن پنج نفر، همگی قاتلهای سریالی هستند و کسی که مرده، راهبه بودهاست، آنوقت چه؟
این مسئلهٔ اخلاقی چیزی نیست که دنبالش هستیم
آنوقت اهمیتی ندارد. واقعاً میگویم. این مسئله، مسئلهای اخلاقی نیست که به هوش مصنوعی ارتباط پیدا کند، حتی اگر که تراموا سامانهای خودران داشته باشد و شبکهای عصبی آن را هدایت کند. این مسئله تنها مسئلهای است اخلاقی و بس.
موقعیتهایی پیش میآیند که خودرو بیبروبرگرد باید کسی را زیر بگیرد و بکشد. آموختن نحوهٔ بررسی این موقعیتها به یک دستگاه خودروی تسلا تقریباً ناممکن است، چرا که تصمیمگیری در چنین موقعیتهایی باید در کسری از ثانیه صورت بپذیرد و اتخاذ این تصمیمها در خلاء انجام نمیشود.
پرسشهایی که ماهیتی چنین هولناک و مبهم دارند، معمولاً هدفشان این است که حواس افراد را از موقعیت واقعی پرت کنند. خودروهای تسلا مشکلی ندارند که میان دو وضعیت تصمیم بگیرند و بین مصلحت عامتر از یکسو و موقعیتی از سوی دیگر تصمیم بگیرند که در آن کمترین آسیب به افراد میرسد. این خودروها اصلاً و ابداً خودآگاه یا «هوشمند» نیستند. درواقع برای عملکردن مطابق سادهترین اصول اخلاقی در مضیقهاند. مثلاً موقعیتی مانند این: «آیا باید مسیر خود را تغییر بدهند و به آمبولانسی بکوبند که کنار خیابان پارک کردهاست یا باید به مسیرشان ادامه بدهند و از کنار آن بگذرند؟»
در این رابطه تنها مسئلهٔ اخلاقی که وجود دارد این است که آیا باید بهکذب چنین دستگاههایی را با الفاظ «خودران» یا «خودران کامل» تبلیغ کرد، یا نباید چنین کرد، چون خودروها از پس هیچیک از اینها برنمیآیند.
این مسئلهٔ اخلاقی هم ارتباطی به ساخت هوش مصنوعی ندارد.
این مسئلهٔ اخلاقی با بهکارگیری هوش مصنوعی ارتباط دارد. آیا اخلاقی است که محصولی را در خیابانهای شهر به مرحلهٔ آزمایش بگذاریم که بالقوه میتواند افرادی را بکشد؟ اگر استفادهٔ نادرست از چنین محصولی منجر به مرگ چندین نفر شود، آیا کماکان اخلاقی خواهد بود تا باز هم آن محصول در جاده و خیابان مورد آزمایش قرار بگیرد؟
موقع بحث و گفتوگو دربارهٔ مسئلهٔ سوگیری نیز همین مسائل مطرح میشوند. الگوریتمها سوگیری دارند و در اغلب اوقات تا زمانی که این سوگیریها در جهان واقعی و خارج از محیط آزمایشگاهی کشف نشوند، تقریباً ناممکن است که بخواهیم تعیین کنیم سوگیری چرا یا چطور خود را نشان خواهد داد.
آیا اخلاقی است که محصولی را در خیابانهای شهر به مرحلهٔ آزمایش بگذاریم که بالقوه میتواند افرادی را بکشد؟
همهشان سوگیری دارند
اگر بخواهیم علیه تحقیقات در حوزهٔ هوش مصنوعی حرف بزنیم و برای مخالفت خود، دلیل بیاوریم که علت مخالفتمان، ترس از این است که سامانه یا دستگاه ممکن است از خود سوگیری نشان بدهد، آنوقت کارمان خیلی دشوار خواهد بود و حرفمان به جایی نمیرسد، چرا که بهتر و کمدردسرتر این است که فرض بگیریم تمام سامانههای هوش مصنوعی سوگیری دارند. اگر میخواهیم بهعنوان تمدن بشری پیشرفت کنیم، لازم است مرزهای فناوری را از این جایی که هستند جلوتر ببریم و حوزهٔ آن را گستردهتر کنیم.
اما اگر فهمیده باشیم که سامانه و دستگاهی هست که سوگیری آن صدمه و خسارت به بار میآورد، آیا اخلاقی است که آن را همچنان در خط تولید نگه داریم؟ وقتی مقامات شهر فلینت در ایالت میشیگان متوجه شدند که در مخزن آب شهر مواد سمی نشت کردهاست، تصمیم گرفتند تا جریان آب شهر را قطع نکنند و این خطر را از شهروندان مخفی نگاه دارند.
حتی باراک اوباما، رئیسجمهور وقت، در برابر دوربینهای تلویزیون حاضر شد و از آبی نوشید که ظاهراً یک لیوان آب لولهکشی شهر فلینت بود تا از این طریق سکنه را خاطرجمع کند که همهچیز سر جای خودش است و مشکلی در کار نیست. تصمیمات اخلاقی دولت ایالات متحده دربارهٔ آب مسموم باعث شد که تقریباً ۹۵ هزار نفر در اثر مصرف آن صدمه ببینند.
وقتی پای هوش مصنوعی به میان میآید، دولت و شرکتهای بزرگ حوزهٔ فناوری حتی بیمسئولیتتر از قبل میشوند و کمتر از پیش صادقانه رفتار میکنند.
برای مثال گوگل یکی از ثروتمندترین شرکتهای تاریخ جهان است، با وجود این الگوریتمهایش نشاندهندهٔ سوگیریهایی هستند که نمایانگر نژادپرستی و تعصباند. بهگفتهٔ گوگل این شرکت تمایلات نژادپرستانه ندارد، پس چرا به ساخت و استفاده از الگوریتمهایی ادامه میدهد که میداند نژادپرستانهاند؟
آن دسته از ما که از گوگل بهره میبریم و افرادی که محصولات گوگل را درست میکنند، تصمیم گرفتهایم که بهلحاظ اخلاقی بپذیریم که میزانی از نژادپرستی و تعصب هست که حاضریم قبولش کنیم و از آن حمایت کنیم.
چون آن افرادی که برای شرکت کار میکنند، پیش خود حس میکنند آسیبی که این محصولات وارد میآورند، جدیتر و گستردهتر از فوایدی نیستند که این محصولات عرضه میکنند.
بخش جستوجوی سایت برای بیشتر افراد بهخوبی کار میکند. هرازچندگاهی رفتاری کاملاً نژادپرستانه از آن سر میزند، مثلاً اگر کسی بهدنبال واژهٔ «گوریل» بگردد، تصاویری از سیاهپوستان به او نمایش میدهد و البته این مسئله از نظر هیچیک از ما مشکلی ندارد.
آن دسته از ما که از گوگل بهره میبریم و افرادی که محصولات گوگل را درست میکنند، تصمیم گرفتهایم که بهلحاظ اخلاقی بپذیریم که میزانی از نژادپرستی و تعصب هست که حاضریم قبولش کنیم و از آن حمایت بهعمل بیاوریم.
وقتی دربارهٔ وجوه اخلاقی هوش مصنوعی حرف میزنیم، موضوع صحبتمان آسیبهایی نیست که این سامانهها پدید میآورند و ما هم تصمیم گرفتهایم تا تلویحاً از آن حمایت کنیم. معمولاً این گفتوگو پیرامون موضوعی است که نمیتوانیم از آن اطلاعی داشته باشیم و آن موضوع چیزی نیست جز این سؤال: با هوش جامع مصنوعی باید چهکار کنیم؟
وجوهِ اخلاقیِ نادیدهگرفتن تبعات اخلاقی
یک روز ممکن است بحث بسیار مهمی پیش بیاید دربارهٔ اینکه آیا باید به دستگاهی با هوش مصنوعی اجازه داد زمین یا خانه بخرد یا نه، اما امروزهروز چنین بحثی مثل این است که بنشینیم بحث کنیم که حق تقسیم زمین در کهکشان آندرومدا چطور باید باشد. این بحثها هیچ محلی از اعراب ندارند. در حالحاضر هیچ شواهدی وجود ندارد که نشان بدهد تا هزار سال دیگر یا حتی صد سال دیگر به مرحلهای میرسیم که هوش مصنوعی خودآگاه بشود.
درمقابل اما هزاران شرکت در سرتاسر دنیا داریم که از سامانههای نژادپرستانهٔ هوش مصنوعی استفاده میکنند تا دربارهٔ داوطلبان استخدام در آن شرکت، حکم صادر کنند. در حال حاضر ادارههای پلیسی هستند که از سامانههایی جهت تشخیص چهره استفاده میکنند که سوگیری دارند و به مردم آسیب میرسانند. این ادارههای پلیس از سامانههایی نظارتی بهره میبرند که رفتار مردم را پیشبینی میکنند و در نتیجهٔ آن افراد بهاشتباه دستگیر میشوند، مورد محاکمه قرار میگیرند و حکم برایشان صادر میشود. شرکتهایی هم که رسانههای اجتماعی را میگردانند، از هوش مصنوعی در مقیاسی چنان کلان بهره میبرند که تصور عمومی مردم جهان را تحت تأثیر قرار میدهد.
امروزه استفاده از هوش مصنوعی کاری است خطرناک و هیچ قاعدهوقانونی هم برایش وضع نشده. در توصیف وضع فعلی هوش مصنوعی تا جایی از عبارت «غرب وحشی» استفاده شده که دیگر معنایش را از دست دادهاست، اما کماکان لفظی پرمسما و مناسب بهشمار میآید.
عقل سلیم به ما حکم میکند استفاده از محصولی که جان افراد را میگیرد یا رفتاری نژادپرستانه یا حاکی از تعصب نشان میدهد، اگر تحت لوای قوانینی مشخص نباشد، کاری است غیراخلاقی.
اما تقریباً هیچ مانعی وجود ندارد که جلوی افراد را بگیرد و نگذارد سامانههایی مبتنی بر هوش مصنوعی بسازند؛ سامانههایی که میتوانند آسیبی گسترده به بار بیاورند و به عدهای پرشمار صدماتی شدید بزنند.
سلام مطلب مناسبی نیست
جالب بود. ممنون