ادب از که آموختی؟ از هوش مصنوعی! | بحثی اخلاقی پیرامون توسعۀ هوش مصنوعی
ابزاری برای ارزیابی چهره ساخته شده که مبتنی بر هوش مصنوعی است و اجزای صورت شما را با معیارهای زیبایی مقایسه میکند. سپس، یک گزارش زیباییشناختی به همراه چند توصیه برای عمل جراحی زیبایی ارائه میکند. آمازون1 محصول جدیدی به نام مچبند سلامت هِیلو2 تولید کرده است. هدف این دستگاه تشخیص احساسات است. برای زنانی که این مچبند را به دست خود میبندند، امکانی فراهم میکند که اگر تُنِ صدایشان تحقیرآمیز یا تکبرآمیز به نظر برسد، پیام هشداری ارسال میکند. پژوهشگرانِ دانشگاه استنفورد3 ابزاری ساختهاند که از فناوری تشخیص چهره برای تشخیص گرایش جنسی افراد استفاده میکند.
آیا وجود چنین تکنولوژیهایی ضروری است؟ دقت هوش مصنوعی در تشخیص این موارد، بهخودیخود، جای بحث دارد، ولی فارغ از این مسئله، باید پرسید که آیا اصلاً ما به چنین فناوریهایی احتیاج داریم؟ آیا چنین مشکلاتی ارزش حلشدن دارند؟ چگونه تشخیص گرایش جنسی افراد، بدون رضایتشان میتواند جهان را به جایی بهتر تبدیل کند؟ استفاده از این ابزارها چه ضررهایی در پی خواهد داشت؟ ما پیش از آنکه اثربخشی و کارایی یک فناوری خاص را در نظر بگیریم، باید در مورد اهداف و پیامدهای بالقوۀ آن تحقیق کنیم. در طول این فرایند، باید با ذهنِ باز، احتمال بدهیم که چهبسا بهتر است بعضی از ابزارهای مبتنی بر هوش مصنوعی هیچگاه ساخته نشوند.
متأسفانه، این سؤالات مهم در مورد هوش مصنوعی آنطور که باید، مطرح نمیشوند. یک از علتهایش مسائل اقتصادی است: اگر قوانین سفتوسختی نباشد، ملاحظات اخلاقی نسبتبه انگیزههای سودمحور، اولویت کمتری دارند. علت دیگر هم فرهنگی است: بعد از زمستانهای هوش مصنوعی4 که در اواخر دهۀ ۱۹۷۰ و اوایل دهۀ ۱۹۹۰ اتفاق افتاد، حالا مردم به هوش مصنوعی خوشبین شدهاند. این خوشبینی، باعث شده خطرات فناوری هوش مصنوعی و نگرانیهای مربوط به پیامدهای منفی آن نادیده گرفته شود. علت دیگری که باید به آن اشاره کرد، این است که انسانها دربارۀ هوش مصنوعی استثنائاتی قائل میشوند و تصور میکنند که توسعۀ هوش مصنوعی بسیار اهمیت دارد و ماهیت آن منحصربهفرد است. در نتیجه، باید آن را از ممنوعیتها و مقرراتی که برای سایر فناوریهای درحالتوسعه اِعمال میشود، مستثنا کرد. علت دیگری نیز وجود دارد که ماهیتی فلسفی دارد: سیستمهای هوش مصنوعی تنها زمانی با مشکل مواجه میشوند که یا از دادههای همراه با سوگیری استفاده کرده باشند یا نتوانند وظیفهشان را بهخوبی انجام دهند.
هوش مصنوعی به ما کمک میکند تا کارهای پیچیده و مهمی انجام بدهیم، درحالیکه انسان بهتنهایی در چنین ابعاد گستردهای و با چنین سرعتی قادر به انجام آن نیست. بسیاری از پروژههای هوش مصنوعی ارزشمندند و سازندگان با حُسن نیت در پروژهها مشارکت میکنند. بااینحال، داشتن حُسن نیت بهتنهایی، برای توسعه و اجرای ابزارهای مبتنی بر هوش مصنوعی کافی نیست؛ یعنی باید محیط اجتماعی و سیاسیای را که هوش مصنوعی در آن استفاده میشود، در نظر گرفت. یقیناً دلایل قابلتوجهی وجود دارد که چرا باید در بعضی موارد، این فرض را زیر سؤال ببریم. ساختن آیندهای معقول برای هوش مصنوعی مستلزم آن است که هدف توسعۀ آن را بررسی کنیم، نه اینکه صرفاً منفعت یا عملکرد آن را بسنجیم.
در اصل، برای کاهشدادن آسیبهای یک فناوری مشخص، میتوانیم از دو راهکار استفاده کنیم. ازیکطرف، میتوانیم آن را با هدفی دقیقتر، معقولانهتر، شفافتر و بهتر بهینهسازی کنیم. از طرف دیگر، شاید لازم باشد بهطور کامل از ساختن برخی سیستمهای هوش مصنوعی خودداری کنیم، بهویژه اگر اهداف یا پیامدهای بالقوۀ آنها را از نظر اخلاقی غیرقابلدفاع بدانیم.
در فضای فرهنگیِ امروز، یک جریان قوی وجود دارد که فقط راهکار اول را قبول میکند. ازاینگذشته، چهکسی میتواند مخالفِ بهترشدن اوضاع باشد؟ در این دیدگاه، روشها و راهکارهای متعددی وجود دارد که میتوان از آنها برای تقویت سیستمهای هوش مصنوعیِ معیوب استفاده کرد. ما این توانایی را داریم که قواعد تصمیمگیریِ مبتنی بر الگوریتم هوش مصنوعی را اصلاح کنیم و به مجموعهدادهها وسعت و عمق ببخشیم. علاوه بر این، میتوانیم راههای بهتری برای ایدهپردازی و بررسی این ایدهها تعریف کنیم. میتوانیم سیستمهای هوش مصنوعی را با شبیهسازی اجرای آنها و مشاهدۀ نتایج بالقوۀ آنها، ارزیابی کنیم. همچنین، میتوانیم قبل از اجرای آنها در ابعاد گسترده، با روشهای مدیریتشده بر آنها نظارت داشته باشیم؛ برای نمونه، گروههای تحقیقاتی دانشگاهی و صنعتی از این روش در پروژههای سَندباکسد5 استفاده کردند.
اما باید بدانیم که این تنها گزینۀ در دسترس ما نیست. شاید لازم باشد که دیگر از ابزارهای هوش مصنوعی استفاده نکنیم. چندین ایالت از کشور آمریکا، بخشنامۀ ممنوعیت استفاده از ابزارهای تشخیص چهره را ابلاغ کردهاند. این موضوع نشان میدهد که این راهکار، شدنی است. مثلاً حکم اخیر در سانفرانسیسکو6 دربارۀ دستیابی به فناوریِ صیانت7، به شرح زیر است:
“فناوری تشخیص چهره، خصوصاً در رابطه با حقوق و آزادیهای مدنی، خطرات بالقوهای دارد که بسیار بیشتر از مزایای آن است. این فناوری بیعدالتی نژادی را تشدید میکند و افراد را از نظارت مداوم دولت در امان نمیگذارد و به آزادی آنها لطمه وارد میکند.” حتی شرکتهای خصوصی نیز پذیرفتهاند که بهکارنگرفتن فناوری تشخیص چهره، مناسبترین راه حل است. آمازون، مایکروسافت و آیبیام8 بهطور داوطلبانه محدودیتهایی را برای استقرار فناوری تشخیص چهره ایجاد کردهاند و موافقت کردهاند که تا زمانی که مقررات جامع و معتبری توسط حاکمیت ایجاد نشده است، از توسعۀ فناوری تشخیص چهره خودداری کنند. این بیانیه ممکن است بیشتر به خاطر ملاحظات مالی و جلوگیری از عمومیشدنِ حوادث منفی باشد، نه تعهدات اخلاقی. با این حال، لازم به ذکر است که شرکتهای بزرگ در این صنعت به طور عمومی از استفاده نکردن از فناوری تشخیص چهره که قبلاً توسعه داده شده، حمایت کردهاند.
پژوهشهای تأثیرگذاری برای جلوگیری از استفاده از این فناوری انجام شده است. این پژوهشها نشان میدهند که سیستمهای تشخیص چهرۀ مورد استفاده، نمیتوانند چهرۀ زنان و افراد رنگینپوست را بهدرستی تشخیص دهند. مهم است که بدانیم حتی اگر این ابزارها بهدقت کار کنند، استفادۀ بیرویه از چنین سیستمهایی ممکن است از نظر سیاسی و اخلاقی غیرقابلقبول باشد. شاید استفاده از ابزارهایی که بهسادگی از شیوههای نظارتی مرسوم پشتیبانی میکنند، در برقراری عدالت اجتماعی مؤثر واقع نشوند. درواقع، استفاده و بهینهسازی مداوم چنین ابزارهایی بهطور بالقوه میتواند عدالت اجتماعی را تضعیف کند، بهویژه اگر در یک ساختار اجتماعی ناعادلانه استفاده شوند.
مطمئناً گزینۀ دیگری هم وجود دارد. با درنظر گرفتن این استدلال، در مراحل ابتدایی فرایند توسعه، شاید لازم باشد علاوه بر جلوگیری از استفاده از ابزارهای هوش مصنوعی، از ساخت آنها نیز خودداری کنیم.
کدام یک از این راهکارها بهتر است؟ بهینهسازی؟ اجرانکردن یا نساختن ابزارهای هوش مصنوعی؟ خیلی دشوار است که بتوان بهصورت کلی نظر داد. اینکه یک ابزار هوش مصنوعی خاص به مرحلۀ توسعه و اجرا برسد، به عوامل تجربی مختلفی بستگی دارد؛ مانند عملکرد ابزار، مسئلهای که درصدد حل آن است و نحوۀ تعامل این فناوری با ساختارهای اجتماعی موجود. واقعیتهای اجتماعی ممکن است در طول زمان تغییر کنند. دگرگونیهای سیاسی و سازمانی میتوانند موقعیتهای اجتماعی افراد را تغییر دهند. هنجارهایی که در حال تغییر و تحول هستند، بر اینکه انسانها و نهادها چگونه از فناوری استفاده میکنند، تأثیر میگذارد. فناوری هم بهعنوان جزئی از جامعه، جامعه را فعالانه تغییر میدهد؛ بنابراین، نمیتوانیم به یک قانون اخلاقی کلی برای تأیید یا رد هر یک از راهکارها تکیه کنیم.
در عوض، ما باید چارچوبهای خاصی را برای پرداختن به این مسائل ایجاد کنیم. برای این کار باید بر موانع متعددی غلبه کنیم، موانعی که در ابعاد اخلاقی و سیاسی مانع از تحلیل راهکارهایی میشود که در اختیار داریم.
یکی از موانع، اقتضائات فرهنگی است، بهویژه در صنعت فناوری. شعارِ نهچندان مشهور فیسبوک تا سال ۲۰۱۴، «سریع حرکت کن و موانع را از سر راه بردار9» نمونهای از این طرز تفکر است. مشهور است که ماریسا مایر10، مدیرعامل سابق یاهو، میگوید: «هرچه دادهها سریعتر جمعآوری شوند، نتیجۀ بهتری خواهیم داشت». این شاخصه در اصول رهبری آمازون هم یافت میشود و بر “اهمیت سرعت در تجارت11” تأکید دارد. آنها معتقدند که بسیاری از تصمیمها و اقدامها را میتوان بهراحتی لغو یا اصلاح کرد و نیازی به پژوهش گسترده نیست. همچنین، بر اهمیت ریسکپذیری در تجارت تاکید دارند، اما این ریسکپذیری باید حساب شده و آگاهانه باشد. فناوران در محیطی که سرعت در اولویت است، هیچگاه نمیپرسند که آیا این ابزار باید ساخته شود؟ و اصلاً چرا باید چنین چیزی را ساخت؟
همزمان، بسیاری از کارشناسان در این زمینه ابراز نگرانی میکنند و برای کاهش اثرات منفی ناشی از هوش مصنوعی کارهایی انجام میدهند. بیشتر شرکتهای برجسته در حوزۀ فناوری، گروههای تخصصیای ایجاد کردهاند که اخلاقیبودن، قابلاعتمادبودن و مسئولیتپذیربودنِ هوش مصنوعی را در اولویت قرار میدهند. با این حال، مشخص نیست که شرکتها چقدر به این گروهها اجازه خواهند داد که در فرایند طراحی و اجرای فناوریهای جدید، دخالت کنند. تیمنیت گبرو12 و مارگارت میچل13 که رهبری گروه هوش مصنوعی گوگل را برعهده داشتند و این ابزارها را از حیث اخلاقی بررسی میکردند، اخیراً از سِمَت خود برکنار شدند. این نشان میدهد که تلاش برای اخلاقیکردنِ هوش مصنوعی، اغلب محدود و در تضاد با اهداف شرکتهاست.
کارمندانِ حوزۀ فناوری بهنوبۀ خود دور هم جمع میشوند تا از مسئولیتپذیری خود و سایر کارکنان اطمینان حاصل کنند، اما با مقاومت یا مخالفت شدید مواجه میشوند. بهعنوان مثال، اتحادیۀ کارگران آلفابت14 را در نظر بگیرید. در اساسنامۀ این اتحادیه آمده است که «ما از قدرتی که دوباره در اختیار گرفتهایم، برای برای مدیریت محصولاتمان و طرز استفادۀ آنها بهره میگیریم». «ما در قبال فناوریای که به جهان ارائه میکنیم، مسئول هستیم، و میدانیم که محصولات ما تبعاتی در جهان خواهد داشت». چنین اظهاراتی ممکن است با راهکارهای ساخت یا استفاده از فناوریهای جدید سازگار باشند، اما معمولاً به سمت بهینهسازی متمایل میشوند، بهویژه بهینهسازی در شرکتهای قدرتمند. در ادامۀ این اساسنامه نوشته شده: «ما با کسانی که تحتتأثیر فناوری ما قرار میگیرند، کار خواهیم کرد تا اطمینان حاصل کنیم که این فناوری در خدمت منافع عمومی است». همچنین، در وبسایت خود نوشتهاند: «آلفابت بدون سوءنیت، سود ایجاد میکند». با این حال، مشخص نیست که آیا این بهینهسازیِ عدالتمحور، با سرمایهگذاری و کسب سود در چند شرکت خصوصیِ بانفوذ همسویی دارد یا نه.
مانع دیگری که باید با آن روبهرو شویم، این پزسش است: آیا بهتر است یک فناوریِ بالقوه آسیبزا را توسعه دهیم یا اینکه بگذاریم افرادی با سوءنیت، این فناوری را تصاحب کنند؟ بهعنوان مثال، بسیاری از فناوران استدلال میکنند که اگر گروه آنها ابزار خاصی را نسازد، گروه یا فرد دیگری بهجای آنها، این ابزار را تصاحب میکند و چه بسا نیتهای بدی هم داشته باشد. از این نظر، نساختن یا استفادهنکردن از فناوریها نوعی عقبنشینی محسوب میشود و همهچیز را بدتر میکند. برای مثال، پژوهشگر دانشگاه استنفورد که از فناوری تشخیص چهره برای تشخیص گرایش جنسی استفاده میکرد، از توسعۀ کار خود دفاع کرد و اظهار داشت که انجامندادن این کار، غیر اخلاقی است. او میگوید: «هشداردادن به افراد در مورد فناوریهایی که بالقوه آسیبزا هستند، موجب این تعارض میشود. بهطور تصادفی به این یافتهها دست پیدا کردم و قصد نداشتم آنها را منتشر کنم، چون زندگی من بدون انتشار عمومی این مقاله هم خوب بود. اما بعد از مدتی، یکی از همکارانم از من پرسید: آیا اگر روزی یک شرکت یا دولت از با استفاده از یک فناوری مشابه برای آسیبرساندن به مردم استفاده کند، میتوانی خودت را ببخشی؟»
اما پس از بررسی دقیق، استدلال ارائهشده ضعیف بهنظر رسید. هیچچیزی نمیتواند مانع از استفادۀ یک فرد بدخواه از دانش و فناوری هوش مصنوعی شود، حتی اگر قبل از او، یک پژوهشگر خوشنیت، آن را ساخته باشد. علاوه بر این، حتی ابزارهایی که با حسننیت ساخته میشوند، میتوانند آسیبهای ناخواستهای داشته باشند.
مانع سوم در این زمینه این است که درک ما دربارۀ آسیبها و ناعدالتیهایی که هوش مصنوعی ایجاد میکند، محدود است. در چندین موردِ شناساییشده، دقت سیستمهای هوش مصنوعی در آمارگیری همۀ گروههای جمعیتی یکسان نبوده است. بهعنوان مثال، ابزارهایی که برای تشخیص تکرار ارتکاب جرمهای کیفری استفاده میشوند، نرخهای مثبت کاذب15 را میان سیاهپوستان، بیشتر از سفیدپوستان نشان میدهند. این موارد بحثهای اخلاقی گستردهای بهوجود آوردهاند و توجهها را به خطرهای بالقوۀ هوش مصنوعی جلب کردهاند. با وجود این، تشخیص این نکته ضروری است که ابزارهای هوش مصنوعی حتی اگر به دادههای سوگیرانه وابسته نباشند یا تفاوتهایی در میزان خطا در گروههای جمعیتی مختلف نشان ندهند، همچنان میتوانند دارای اشتباه باشند. اگر توسعهدهندگان، نیت خوبی داشته باشند، پیادهسازی یک راهحلِ خاص و مبتنی بر الگو در یک زمینۀ اجتماعی میتواند منجر به خطا شود. دلیلش هم این است که خروجیهای الگوریتمی، اغلب سوگیریها و نابرابریهای اجتماعی موجود را منعکس و تقویت میکنند. علاوه بر این، صرفنظر از اینکه ابزار هوش مصنوعی چقدر در عملکرد خود دقت به خرج میدهد، این امکان وجود دارد که اهداف مغرضانه داشته باشد. بهعنوان مثال، یک شرکت چینی به نام میگوی16، با کمک فناوری هوآوی و با استفاده از فناوری تشخیص چهره برای شناسایی اقلیت اویغور و لو دادن اطلاعات آنها به پلیس، همکاری کرد. در این مورد، هدف این فناوری بهخودیخود غیراخلاقی است. مشکل دیگر این است که ممکن است افرادی که تصمیمگیر هستند، تحتتأثیر سوگیری اتوماسیون، طبقهبندیهای الگوریتمی17 را بهطور کامل بررسی نکنند و خروجیهای الگوریتمی را بدون بررسی بپذیرند. در موارد دیگر، منطق زیربنایی خود فناوری ممکن است غیرقابلقبول باشد و در نتیجه به آنچه فیلسوفان از آن بهعنوان «آسیبهای گویا18» یاد میکنند، منجر شود. آسیب گویا یعنی استفاده از دستهبندیها و طبقهبندیهای خاصی که در ابزارهای هوش مصنوعی میتواند پیامی تحقیرآمیز و آسیبزا را منتقل کند، درحالیکه، در پرتو هنجارها، فرضیات و تجربیات رایج اجتماعی نادرست تلقی میشود. برای مثال، ابزارهایی که گرایش جنسی یا سایر ویژگیهای شخصیتی را بر اساس ظاهر استنباط میکنند، میتوانند به بروز این آسیب کمک کنند. برچسبزدن بهعنوان جنایتکاربودن یا همجنسگرابودن، از این نوع آسیبهاست. چهبسا ادعا کنند که میتوان شخصیت و آیندۀ یک فرد را از ظاهر او فهمید. پیامدهای این مثالها نشان میدهد که مضرات بالقوۀ هوش مصنوعی بسیار فراتر از مجموعهدادهها و میزان خطاست.
آخرین مانع در راهِ رسیدن به حکم اخلاقیِ قابلاتکا دربارۀ هوش مصنوعی این فرض است که ما همیشه میتوانیم از استفاده از ابزارهای هوش مصنوعی خودداری کنیم. برخی از افراد ممکن است استدلال کنند که اگر در آینده، یک ابزار هوش مصنوعی اثرات بسیار نامطلوبی داشته باشد، بهراحتی میتوانیم استفاده از آن را، در آن واحد متوقف کنیم.
درست است که امکان توقف استفاده از ابزار هوش مصنوعی ممکن است، ولی چرا باید فرض کنیم که همیشه امکانپذیر است؟ بهویژه وقتی که مقررات جامعی در صنعت وجود ندارد. مثلاً تأثیر اتوماسیون بر اشتغال اغلب میتواند اثرات طولانیمدت و برگشتناپذیری داشته باشد. باتوجهبه وضعیت کنونی بازار، آیا میتوان تصور کرد که یک شرکت بتواند بهراحتی دوباره انسان را جایگزین هوش مصنوعی کند؟ اگر شرکتی به دلایلی در استفاده از ابزارهای هوش مصنوعی خود پیامدهای منفی دریافت کند، بهجای اینکه دوباره از نیروی کار انسان استفاده کند، سراغ فناوریهای جایگزین خواهد رفت. فشار برای اتخاذ اتوماسیون در صنایع خاصی بهقدری شدید شده است که برخی از شرکتها وانمود میکنند که فناوریهای هوش مصنوعی را توسعه دادهاند و اجرا کردهاند. بهعنوانمثال، در سال ۲۰۱۶، بلومبرگ نیوز19 گزارش داد که استارتاپ دستیار شخصی X.ai به کارمندان دستور داد تا کارهایی را که معمولاً توسط رباتهای چت هوش مصنوعی انجام میشود، تقلید کنند، از جمله انجام کارهای تکراری مانند پاسخهای ایمیل خودکار و زمانبندی قرار ملاقات. بسیار سادهانگارانه است که فرض کنیم پس از توسعه و پیادهسازی این ابزارها، نیروی کار میتواند بدون زحمت و بدون اینکه تحتتأثیر اتوماسیون قرار گیرد، به ساختار قبلی خود بازگردد.
برای نشاندادن بیشتر محدودیتهای این راهکار، اجازه دهید مورد دوکامتیامسی20 را در نظر بگیریم. دو میلیون نوار ویدئویی در مناطق عمومی دانشگاه دوک21 ضبط شده است. این مجموعهداده بدون درنظر گرفتن حریم خصوصی افراد حاضر در ویدئوها، در دسترس عموم قرار گرفت. این مجموعهداده در نهایت برای اهداف تحقیقاتی، مثل فناوری نظارت مبتنی بر تصاویر کامپیوتری مورداستفاده قرار گرفت. بااینحال، به دلیل واکنش شدید عمومی، این ویدئوها در ژوئن سال ۲۰۱۹ حذف شد. با وجود این، پژوهشگران دانشگاه پرینستون22 تأکید کردهاند که حداقل ۱۳۵ مقالۀ پژوهشی از مجموعهدادۀ دوکامتیامسی و همچنین سایر مجموعهدادههای حاصل از آن، حتی پس از حذف، استفاده کردهاند، بنابراین، انتخاب راهکار استفادهنکردن از فناوری، خطرات اخلاقی و سیاسی آن را از بین نمیبرد.
با درنظرگرفتن همۀ عوامل ذکر شده، ضروری است که ما به انتخاب راهکار نساختن فناوریهای خاص، بهویژه در زمینه توسعه هوش مصنوعی، اهمیت و توجه بیشتری داشته باشیم. اگر از این راهکار استفاده کنیم، نهتنها به توسعۀ عادلانهتر هوش مصنوعی کمک کردهایم، بلکه افکار را به تامل دربارۀ پیشنیازهای تحقق عدالت جلب کردهایم.
بیایید مثال ابزارهای تشخیص چهرهای را که در زمینۀ اجرای قانون استفاده میشوند، در نظر بگیریم. بهجای اینکه صرفاً بهدنبال گسترش و بهبود روشهای نظارتی موجود با استفاده از فناوری هوش مصنوعی باشیم، باید به این فکر کرد که یک سیستم اجرای قانون منصفانهتر و عادلانهتر چگونه خواهد بود؟ چه تغییراتی را باید در سطوح سازمانی، اقتصادی و قانونی اعمال کرد تا قانون عادلانهتر اجرا شود؟ شاید راهحلهای این مسئلهها لزوماً حول محور استفاده از فناوری هوش مصنوعی نباشد، بهویژه اگر لازم باشد در ساختارهای اجتماعی و سیاسی تغییری صورت بگیرد، این تغییرات باید قبل از ورود هوش مصنوعی به اجتماع و سیاست رخ دهد. تصمیمگیری دربارۀ ساخت هوش مصنوعی و استفادۀ از آن به عهدۀ همۀ ماست. با اینکه فرایند تصمیمگیری دربارۀ استفادهنکردن از هوش مصنوعی، مورد حمایت قرار میگیرد و هنجارهای صنعتی را کامل میکند، اما بهتنهایی کافی نیست. برای مدیریت ساخت هوش مصنوعی به مقررات نظاممند و نظارت دموکراتیک، ایجاد چارچوبهای جدید برای حاکمیت ملی و بینالمللی، فرصتهای اساسی برای بحث گروهی در مورد اینکه آیا فناوریهای نوظهور و قدرتمند به ارتقای عدالت اجتماعی کمک میکنند یا نه، نیاز است. هنگام فکرکردن به چنین پرسشهایی، نباید هوش مصنوعی را از توسعۀ پیشرفتهای فناوری جدا کنید. در عوض، ما باید به دنبال شباهتهای میان توسعه و تنظیم هوش مصنوعی و سایر فناوریهای تأثیرگذاری که در طول تاریخ ساخته شدهاند، باشیم، از سلاحهای هستهای گرفته تا ویرایش ژن.
شیلا جاسانوف23، پژوهشگر مطالعات علم و فناوری، در کتاب خود با عنوان The Ethics of Invention 2016 مینویسد: «این اشکال مستلزم اقدام عمومی آگاهانه و نظارت دموکراتیک مستمر است.» جاسانوف خاطرنشان میکند: «دیدگاههایی که از دقت و احتیاط کردن دفاع میکنند، اغلب نادیده گرفته میشوند. با نگاهی به تاریخ، میتوان فهمید که گاهی توسعۀ فناوریهای جدید پیامدهای ناعادلانهای به همراه دارد. داشتن درک کاملی از هدف و ارزش هوش مصنوعی قبل از اینکه عجولانه ساخت آن را دنبال کنید یا به دنبال ارتقایش باشید، بسیار مهم است.»
پی نوشت
- Amazon
- Halo health band
- Stanford University
- زمستانهای هوش مصنوعی به دورههایی از کاهش اشتیاق و بودجه برای تحقیق و توسعۀ هوش مصنوعی اشاره دارد که در گذشته به دلیل پیشرفت محدود رخ داده است.
- sandboxed
- San Francisco
- surveillance technology؛ فناوری، ابزارها، دستگاهها یا سیستمهای مختلف که امکان نظارت بر فعالیتهای عمومی را فراهم میکند که شامل تهیه جمع آوری، تجزیه و تحلیل یا نظارت بر اطلاعات افراد یا مناطق خاص طراحی شدهاند.
- IBM
- Move fast and break things
- Marissa Mayer
- Speed matters in business
- Timnit Gebru
- Margaret Mitchell
- Alphabet Workers Union
- False Positive Rates
- Megvii
- Algorithmic Classifications
- Expressive Harm
- Bloomberg News
- DukeMTMC
- Duke University
- Princeton University
- Sheila Jasanoff