آیا روزی میرسد که هوش مصنوعی قدرت تصمیمگیری را از ما بگیرد؟
الگوریتمهای رسانههای اجتماعی، هوش مصنوعی و ژنتیک خودمان، از عواملی هستند که فراتر از آگاهیمان بر ما اثر میگذارند. این نکته یک پرسش کهن را پیش میکشد: آیا ما بر زندگی خودمان کنترل داریم؟
آیا تا به حال از دستیار گوگل1، سیری اپل2 یا آمازون الکسا3 استفاده کردید تا برایتان تصمیم بگیرند؟ شاید از آن پرسیده باشید که درباره کدامیک از فیلمهای جدید نقدهای خوبی نوشته شده یا از آن خواستید تا یک رستوران باحال در محلهتان به شما پیشنهاد دهد.
هوش مصنوعی و دستیارهای مجازی دائماً در حال اصلاح هستند، و بعید نیست که بهزودی برایتان قرار ملاقات تنظیم کنند، به شما توصیههای پزشکی ارائه دهند یا تلاش کنند یک بطری شراب به شما بفروشند.
گرچه فناوری هوش مصنوعی برای اینکه به سطح مهارتهای اجتماعی ما انسانها برسد، راهی طولانی برای پیمودن دارند، اما برخی هوشهای مصنوعی تواناییِ درک زبانی شگفتانگیزی از خود نشان دادهاند و میتوانند کارهای تعاملی نسبتاً پیچیدهای انجام دهند.
هوش مصنوعیِ گوگل، در برخی از رونماییهای گوگل در سال ۲۰۱۸، بدون اینکه مسئول پذیرش متوجه شود که با یک ناانسان صحبت میکند، رزرو آرایشگاه و رستوران انجام داد.
بعید نیست که توسعه ظرفیتهای هوش مصنوعی توسط غولهای فناوری مانند آمازون و گوگل، در آینده به جایی برسد که بتواند تأثیر بیشتری بر ما بگذارد.
اما چه چیزی واقعاً برای ما قانعکنندهتر است؟
من و همکارم، ادم دوهاچک4، به این نتیجه رسیدیم که پیامهای هوش مصنوعی، وقتی بر «چگونگی» انجام یک کار تأکید میکند (در مقایسه با «چرایی» انجام آن کار)، قانعکنندهتر هستند. مثلاً افراد بیشتر تمایل دارند هوش مصنوعی توضیح دهد که قبل از بیرون رفتن چگونه از ضدآفتاب استفاده کنند، تا اینکه بگوید چرا باید از ضدآفتاب استفاده کنند.
ما به این نتیجه رسیدیم که به صورت کلی، افراد نمیپذیرند که یک ماشین بتواند اهداف و امیال انسانی را درک کند. آلفاگو5 گوگل را در نظر بگیرید. این برنامه، الگوریتمی است که برای بازی تختهای «گو» طراحی شده است. کمتر کسی است که بگوید این الگوریتم میتواند بفهمد چرا گو بازی کردن جالب است، یا چرا قهرمان گو شدن مهم است. بلکه صرفاً از یک الگوریتم از پیش برنامهریزیشده پیروی میکند که میگوید چگونه روی تخته بازی حرکت کنیم.
پژوهش ما نشان میدهد که افراد آن دسته از پیشنهادهای هوش مصنوعی را قانعکنندهتر مییابند که در چنین موقعیتهایی، گامهایی ساده پیشنهاد میکند: چگونه بیمه سلامت شخصی بسازیم، چگونه کاری کنیم که ماشین خراب به ما نندازند یا چگونه راکت تنیس مناسبی انتخاب کنیم. اما اعتنا نمیکنند به پاسخ هوش مصنوعی به پرسش از اینکه چرا هر یک از این موارد برای انسان اهمیت دارد.
آیا هوش مصنوعی اختیار دارد؟
اکثرمان معتقدیم انسانها اختیار [اراده آزاد] دارند. فردی که به دیگران کمک میکند را تحسین میکنیم، چراکه فکر میکنیم این کار را آزادانه انجام میدهد. همچنین کسانی که به دیگران آسیب میرسانند را مجازات میکنیم. مهمتر از آن، میخواهیم مجازات کیفریِ فردی که از اختیار محروم بوده (مانند کسی که گرفتارِ توهم و اسکیزوفرنی است) را کاهش دهیم.
اما آیا افراد هوش مصنوعی را دارای اختیار میدانند؟ ما آزمایشی انجام دادیم تا پاسخ این پرسش را بفهمیم.
شخصی ۱۰۰ دلار گرفته و پیشنهاد میکند تا آن را با شما تقسیم کند. آنها ۸۰ دلار و شما ۲۰ دلار میگیرید. اگر این پیشنهاد را رد کنید، هم شما و هم پیشنهاددهنده هیچ چیز گیرتان نمیآید. ۲۰ دلار بهتر از هیچ است، اما پژوهش پیشین نشان میدهد که بعید نیست پیشنهاد ۲۰ دلاری رد شود، زیرا ما آن را غیرمنصفانه میدانیم. شکی نیست که باید ۵۰ دلار بگیریم، درست نیست؟
اما اگر پیشنهاددهنده یک هوش مصنوعی باشد، چه؟ در یک پروژه پژوهشی که هنوز منتشر نشده، من و همکارانم به این نتیجه رسیدیم که نسبت رد کردن بهشدت افت میکند. به عبارت دیگر، اگر پیشنهاددهنده یک هوش مصنوعی باشد، احتمال بسیار بیشتری وجود دارد که افراد این پیشنهاد «غیرمنصفانه» را بپذیرند.
دلیلش این است که فکر نمیکنیم هوش مصنوعی که برای خدمت به انسانها ساخته شده، نیت بدخواهانهای برای سوءاستفاده از ما داشته باشد. فقط یک الگوریتم است که اختیاری ندارد. بنابراین، شاید ما هم ۲۰ دلار را قبول کنیم.
این واقعیت که افراد میتوانند پیشنهادهای غیرمنصفانه هوش مصنوعی را بپذیرند، من را نگران میکند، زیرا این پدیده میتواند بدخواهانه استفاده شود. مثلاً ممکن است یک شرکت سعی کند نرخ سود وام مسکن را غیرمنصفانه بالا ببرد و در توجیه این کار ادعا کند که این عدد توسط یک الگوریتم محاسبه شده است. یا ممکن است یک شرکت صنعتی، کارگران را فریب دهد تا حقوق غیرمنصفانه را بپذیرند و بگوید این تصمیم را یک کامپیوتر گرفته است.
لازم است برای محافظت از مصرفکنندگان، بدانیم که چه زمانی افراد در معرض فریب خوردن از هوش مصنوعی هستند. دولتها باید این نکته را هنگام وضع مقررات در حوزه هوش مصنوعی در نظر داشته باشند.
ما بهطور شگفتانگیزی مایلیم به هوش مصنوعی اطلاعات بدهیم
من و همکارانم در اثر منتشرنشده دیگری، به این نتیجه رسیدیم که افراد تمایل بیشتری دارند که اطلاعات شخصی و تجربههای خجالتآورشان را به یک هوش مصنوعی بگویند تا یک انسان.
ما به شرکتکنندگان گفتیم تصور کنند بهخاطر عفونت مجاری ادراری به پزشک مراجعه کردند. شرکتکنندگان را به دو دسته تقسیم کردیم. نیمی از آنها با یک پزشک انسان صحبت کردند، و نیمی دیگر با یک پزشکِ هوش مصنوعی. به آنها گفتیم پزشک میخواهد چند سوال از شما بپرسد تا بهترین درمان را برایتان پیدا کند و هر چقدر که صلاح میدانید اطلاعات شخصی در اختیار او قرار دهید.
شرکتکنندگان اطلاعات شخصی بیشتری را در اختیار پزشک هوش مصنوعی قرار دادند، تا پزشک انسان؛ از جمله در پاسخِ پرسشهای بالقوه خجالتآور درباره استفاده از اسباببازیهای جنسی، کاندوم یا دیگر مسائل جنسی. ما به این نتیجه رسیدیم که دلیلش این است که افراد فکر میکنند هوش مصنوعی رفتارهایشان را قضاوت نمیکند، در حالی که انسانها میکنند. در واقع، از شرکتکنندگان پرسیدیم چقدر نگران این هستند که قضاوت منفی شوند و فهمیدیم نگرانی از قضاوت شدن، آن مکانیسم اساسی است که تعیین میکند چقدر اطلاعات میدهند.
به نظر میرسد که ما هنگام صحبت با هوش مصنوعی کمتر احساس خجالت میکنیم. این مسئله جالب است، زیرا بسیاری از افراد نگرانیهای جدیای نسبت به هوش مصنوعی و حریم خصوصی دارند، و با این حال، ممکن است تمایل بیشتری داشته باشند که اطلاعات شخصی و جزئی خود را با هوش مصنوعی در میان بگذارند.
اما اگر هوش مصنوعی اختیار داشته باشد، چه؟
ما آن روی سکه را هم مطالعه کردیم: اگر افراد بپذیرند که هوش مصنوعی اختیار دارد، چه میشود؟ ما به این نتیجه رسیدیم که اگر به هوش مصنوعی ویژگیهای انسانی یا اسم انسانی دهیم، احتمال بیشتری دارد که افراد باور کنند هوش مصنوعی اختیار دارد.
این امر چند لازمه در پی دارد:
- در این صورت، هوش مصنوعی بهتر میتواند افراد را درباره پرسش از «چراییِ» امور قانع کند، زیرا افراد فکر میکنند هوش مصنوعیِ شبیه به انسان، شاید بتواند اهداف و انگیزههای انسانی را درک کند.
- احتمال کمتری دارد که پیشنهادهای غیرمنصفانه هوش مصنوعی پذیرفته شود، زیرا ممکن است به نظر برسد که هوش مصنوعی شبیه به انسان، نیات مخصوص به خودش را دارد و میتواند از افراد سوءاستفاده کند.
- افراد احساس میکنند که توسط هوش مصنوعی شبیه به انسان قضاوت میشوند، و احساس خجالت میکنند، و اطلاعات شخصی کمتری در اختیار او قرار میدهند.
- افراد هنگام آسیب رساندن به هوش مصنوعی شبیه به انسان، احساس گناه میکنند و بنابراین، با هوش مصنوعی مهربانانهتر رفتار میکنند.
احتمالاً در آینده، انواع بیشتر و متفاوتتر هوش مصنوعی و رباتها را میبینیم. آنها شاید آشپزی کنند، خدمتکاری کنند، به ما ماشین بفروشند، در بیمارستان از ما پرستاری کنند و حتی بهعنوان شریک عاطفی با ما قرار بگذارند و غذا بخورند. مهم این است که بفهمیم هوش مصنوعی چگونه بر تصمیمهای ما اثر میگذارد. در نتیجه، میتوانیم در زمینه هوش مصنوعی وضع مقررات کنیم تا در برابر آسیبهای احتمالی آن از خودمان محافظت کنیم.