هوش مصنوعی با قدرت تصمیمگیری طبیعی! | ۳ دلیل برای اعتماد به هوش مصنوعی
هوش مصنوعی و تصمیمگیری برای انسان؟
وقت آن است که هوش مصنوعی را جدی بگیریم. سرمایهگذاران در حال حاضر به شرکتهای هوش مصنوعی هجوم آوردهاند و خودروهای خودران که پیش از این صرفاً در فیلم های علمی-تخیلی حضور داشتند، به واقعیت تبدیل میکنند. تحلیلگران به این واقعیت پی بردهاند که این فناوری، در آیندهای نزدیک، تحولات شگرفی را در شیوۀ زندگی ایجاد خواهد کرد.
در ژانویۀ سال ۲۰۰۵، کنفرانسی دربارۀ تأثیرات بلندمدت هوش مصنوعی برگزار شد که نتیجۀ آن به صورت نامۀ سرگشاده در هر روزنامۀ مهمی پوشش داده شد. نامه با لحن جسورانهای میگوید: «ما قادر به پیشبینیِ دستاوردهای هوش بشریِ تقویتشده با ابزارهای هوش مصنوعی نیستیم؛ بااینحال، ریشهکنی بیماری و فقر دور از دسترس به نظر نمیرسد.»
در تاریخ ۲۸ ژوئیۀ ۲۰۰۵، من به همراه جمعی از پژوهشگران هوش مصنوعی و رباتیک، نامهای را امضا کردیم. در این نامه، خواستار ممنوعیت سلاحهای تهاجمی خودکاری شدیم که هیچگونه «مدیریت انسانی مؤثری» بر روی آنان نیست.
تصمیمگیری بهتر
تعریف کردن مفهوم «هوش» دشوار است. در متن این نامه، در زمینۀ هوش مصنوعی، هوش را به «توانایی تصمیمگیری، برنامهریزی یا استدلال صحیح» تعریف کرده است. سیستمهای هوش مصنوعی علیرغم پیشرفتهای چشمگیر، قادر به جایگزینی مغز انسان با تواناییهای منحصر به فرد آن در حل مسائل پیچیده، نوآوری و ارادۀ آزاد، حداقل در چند دهۀ آینده نخواهد بود. بااینحال، دامنۀ تصمیماتی که آنها از طرف ما خواهند گرفت افزایش خواهد یافت و بیشتر تصمیمات [حتی تصمیمات کاربردی] پیامدهای اخلاقی دارند. در بسیاری از وضعیتها، هوش مصنوعی در مقایسه با ما تصمیم اخلاقی بهتری خواهد گرفت.
آیا این امر به نظر دور از ذهن است؟ مطالعهای در سال ۲۰۰۰ انجام شد که نشان داد قضات در جلسات آزادی مشروط، پس از صرف ناهار رویکردی بسیار ملایمتر اتخاذ میکردند. سیستمهای هوش مصنوعی خسته یا گرسنه نمیشوند. رباتهای خودمختار میدان نبرد را در نظر بگیرید که مغلوب خستگی، گرسنگی یا ترس نخواهند شد.
در میان گروه
در اخلاق نظامی بحثهای گستردهای در مورد وضعیتهایی وجود دارد که چه زمانی سیستم هوش مصنوعی باید همراه انسان در یک گروه به کار گرفته شود و چه زمانی سیستم هوش مصنوعی باید کاملاً مستقل کار کند. در بسیاری جهات، سیستمهای خودکار در حال حاضر درک و عکسالعمل بهتری نسبتبه انسان دارند و با دخالت انسان کُند میشوند. ارزش افزودۀ انسانی ناشی از قضاوت و تصمیمگیری ماست، اما اینها مصون از خطا نیستند.
همانگونه که رزا بروکس، استاد حقوق جورج تاون و مقام سابق پنتاگون، وسوسهانگیز بیان کرد که سابقۀ ایالات متحده در تصمیمگیری های مربوط به کشتار در میدان جنگ «وحشتناک» است. پرسش اصلی این است آیا از نظر اخلاقی صحیح است که بخواهیم ماشینها از تصمیمگیری خودداری کنند «به ویژه زمانی که قادرند این کار را بهتر از انسان انجام دهند؟»
ممکن است اضافه شدن قضاوت انسانی به گروهِ [انسان و هوش مصنوعی] به جای تضمین و حراست، باعث ایجاد نقص شود.
هوش مصنوعی در مقایسه با ما تصمیم اخلاقی بهتری خواهد گرفت.
اعتماد به ماشین
در وضعیتهای مشخص و محدود (مثلاً در تصمیمات درمانی پزشکی، تصمیم بر چگونگی تخصیص بودجۀ پروژه به بهترین نحو یا تصمیم بر اینکه آیا هدف ورودی یک جنگنده دشمن است یا خیر) احتمالاً به زودی هوش مصنوعیای خواهیم داشت که بتواند واقعیتها را بسنجد و به خوبی انسان یا بهتر از او در کسری از ثانیه تصمیمگیری کند. تصمیمات ماشینی با سوگیری و براساس اطلاعات بسیار بیشتر شفاف خواهد شد.
برخی افراد بهطور غریزی در مورد واگذاری تصمیمگیری به ماشینها احساس نگرانی میکنند. اما اعتماد به دیگر انسانها و واگذاری تصمیمات اخلاقی به آنها را طبیعی میدانند. ما زمان و فرصت کافی و تمامی مهارتها را برای گرفتن یک تصمیم اخلاقی بیعیب و آگاهانه در مورد هر امری را در اختیار نداریم. به قانونگذاران، قضات و هیئت منصفه اختیار میدهیم قوانین اخلاقی را طراحی و اِعمال کنند و ما در جامعه آن را اجرا میکنیم. سیاستمدارانی را انتخاب میکنیم که تصمیم میگیرند چه مقدار از مالیاتهای ما صرف حمایت از فقرا، امور مربوط به سلامتی و یارانۀ انرژیهای تجدیدپذیر شود. در زندگی روزمره، به دوستان و همکارانمان اجازه میدهیم ما را راهنمایی کنند یا به روشهای گوناگونی به جای ما عمل کنند.
پس چرا به ماشین اعتماد نکنیم؟ در واقع، چندین دلیل خوب برای محتاط بودن وجود دارد.
درست است که تصمیمگیری انسانی مملو از تعصبات و تناقضاتی است، اما این تناقضات تا حد زیادی قابلپیشبینی هستند. ما روشهایی را برای محاسبه و جبران این تعصبات میشناسیم. علاوه بر این، به دلیل وجود مفهومی مبهم و غیرقابل محاسبه به نام «فهم مشترک»، محدودیتهایی برای اشتباهات تصمیمگیری افراد باهوش و متعادل وجود دارد.
این لزوماً در مورد هوش مصنوعی صدق نمیکند. وقتی هوش مصنوعی اشتباه میکند، ممکن است اشتباهی چشمگیر و با نتایج غیرقابل پیشبینی بیشتری باشد. الگوریتمهای ساده باید بسیار قابلپیشبینی باشند در عین حال بتوانند در وضعیتهای غیرمعمول تصمیمهای غیرمأنوس بگیرند. یک مثال پیش پا افتاده این است که در سال ۲۰۰۰ دو الگوریتم بسیار اساسی برای فروش طراحی شد که یکی از آنها برنامهریزی شد تا کتابی را کمی ارزانتر از نزدیکترین رقیب بفروشد و دیگری برنامهریزی شد تا کتابی را با قیمت قابل توجّهی بالاتر از رقبای خود بفروشد. این دو الگوریتم به طور خودکار به یکدیگر فشار آوردند به طوری که قیمتها بالا رفت، تا جایی که یک کتاب درسی در آمازون به قیمت ۲۳ میلیون دلار به فروش رفت. مثالی جدیتر میآوریم: در موقعیتی خاص که نگرانی در مورد بحران بدهی اروپا وجود داشت و این بحران منجر به فروش غیرعادی سهام الگوریتمی شد. همچنین مجموعهای از تعاملات غیرمنتظره میان الگوریتمهای معاملات با فرکانس بالا در طول سقوط ناگهانی (Flash Crash) سال ۲۰۰۰ نقش کلیدی در از میان بردن یک تریلیون دلار از بازار سهام ایالات متحده داشتند.
همانطور که فرایند تصمیمگیری پیچیدهتر میشود و مجموعه اقدامات ناشی از آنها کمتر حسی-شهودی میشود، حتی برای افراد ماهر و فنی همیشه دشوارتر میشود که در یک نگاه تشخیص دهند آیا استدلال پشت تصمیمها درست است؛ مشروط بر اینکه نتایج در اکثریت قریب به اتفاق مواقع به خوبی تشخیص داده شود. در نتیجه ما حقیقتاً باید بیشتر و بیشتر به روشها اعتماد کنیم. همچنین تشخیص اینکه چگونه، چرا و در چه موقعیتهایی ماشین دچار خطا میشود و اهمیت شکست چقدر خواهد بود، دشوارتر میشود.
مطالعهای در سال ۲۰۰۰ انجام شد که نشان داد قضات در جلسات آزادی مشروط، پس از صرف ناهار رویکردی بسیار ملایمتر اتخاذ میکردند. سیستمهای هوش مصنوعی خسته یا گرسنه نمیشوند. رباتهای خودمختار میدان نبرد را در نظر بگیرید که مغلوب خستگی، گرسنگی یا ترس نخواهند شد.
ماشینهایی که ما آنها را درک میکنیم و آنها ما را!
سه چالش داریم که نیاز به بررسی فوری دارد. یکی چالش فنی است؛ چیزهایی را طراحی میکنیم، اگرچه پیشبینی هر موقعیتی که در آن هوش مصنوعی ممکن است تصمیم بگیرد و آنچه ممکن است اشتباه باشد، بسیار دشوار است، اما فرصتی برای تفکر دقیق در مورد اقدامات حفاظتی و محدودکردن میزان شکست وجود دارد. برای اینکه کاربرهای انسانی آسانتر بتوانند در مورد فرایندهای داخلی تکنیکهایی مانند شبکۀ عصبی تحقیق کنند، پیشنهاد میکنیم تحقیقاتی انجام شود.
چالش دوم جنبۀ انسانی است. این سیستمها برای همه، غیر از کاربرانی که از نظر فنی ماهر هستند «جعبههای سیاه» محسوب میشوند. ما میتوانیم ورودیها و خروجیها را ببینیم، اما نمیتوانیم درک روشنی از عملکردهای داخلی داشته باشیم. بنابراین، ما باید محدودیتهای این “جعبههای سیاه” را بهوضوح درک کنیم. باید مطمئن شویم که وقتی سیستمهای هوش مصنوعی با سناریوهایی مواجه میشوند که نمیتوانند از عهدۀ آن برآیند، مهارتهایی برای تصمیمگیری مؤثر در اختیار داریم، حتی اگر به ندرت دلیلی برای مداخله داشته باشیم. صنعت هوانوردی نسخهای از این چالش را «مسئلۀ خلبان خودکار» مینامد، که در آن اتکای بیش از حد به خلبان خودکار میتواند منجر به این شود که خلبانان انسانی برای پاسخ صحیح به مشکلات پرواز فاقد مهارت باشند. مثلاً در سال ۲۰۰۰ ، در پرواز ۴۴۰ ، بعد از اینکه خلبان خودکار ارتباطش قطع شد، خطای خلبان انسانی منجر به سقوط هواپیما و مرگ همۀ سرنشینان آن شد.
سومین چالش فلسفه و محاسبات را از هم جدا می کند: همانطور که ما به سمت هوش مصنوعیِ قویتر و عمومیتر پیش میرویم، با هدف نهایی هوش مصنوعی «قوی»، [یعنی هوش مصنوعی از نظر عملکردی در همه حوزههای فکری که برای ما اهمیت دارد معادل با یک انسان (یا بیشتر) بشود]. این کار ضروری است برای اینکه راههایی بیابیم که سیستمهای هوش مصنوعی را سرشار از انگیزههایی کنیم که ارزشهای مشترک انسانی را به طور جامع و قابل اعتماد در بر بگیرد،. بهعبارت دیگر، ما میخواهیم ماشینهایی را طراحی کنیم که ممکن است از ما باهوشتر شوند، زیرا محدودیتهای بیشمار زیستشناسی را کنار میزنند اما همچنان بر طبق بهترین منافع ما عمل میکنند. گفتن این کار آسانتر از انجام آن است، زیرا ارزشهای انسانی فوقالعاده پیچیده و اغلب متناقضاند و به هیچ وجه جهانی نیستند. در حالی که قوانین رباتیک آسیموف جذاب است، معایب آنها پس از اندکی تفکر آشکار میشود. طراحی چنین فناوری قدرتمند، ایمن و سودمندی برای بشریت ممکن است بزرگترین چالش برای همه باشد.
اگر به این موضوع علاقهمندید، اینجا را بخوانید.