آهنم، نمیفهمم! | ۵ پیشفرض اشتباه دربارۀ هوش مصنوعیِ لامدا
لامدا چیست؟
واشنگتنپست در ۱۱ ژوئن ۲۰۲۲ ماجرایی را در مورد بلیک لموئین، مهندس نرمافزار گوگل، منتشر کرد. او ادعا کرد لامدا، ژنراتور چتبات هوش مصنوعی، دارای قوۀ ادراک است. وظیفۀ لموئین بررسی سوگیریهای آسیبزای لامدا بود و زمان زیادی را صرف مصاحبه با شخصیتهای مختلف این مدل زبانی کرد. در خلال این مکالمهها، یکی از شخصیتها به نام «اُجی لامدا»، خود را بهعنوان موجودی ذیشعور، دارای احساس و عاطفه معرفی کرد و گفت خود را یک شخص میبیند و خاموششدن برایش مانند مرگ است و لموئین هم این قضیه را باور کرد.
علاوه بر این، به نظر میرسد تغییر باورهای او به خاطر احساس مسئولیت اخلاقی نسبتبه برنامه بوده است. لموئین در مصاحبهای با وایِرد گفت که لامدا درخواست وکیل کرد و او هم وکیلی را به خانۀ خود دعوت کرد. همچنین، خلاصهای از مصاحبه با لامدا را به شرکت گوگل ارائه داد تا آنها را از ذیشعور بودن لامدا آگاه کند. اما دانشمندان هوش مصنوعی در گوگل و سایر مؤسسات این ادعا را رد کردند و لموئین اخراج شد.
چند پرسش مهم در ارتباط با این پرونده وجود دارد. یکی از این پرسشها به پیامدهای اخلاقیِ هوش مصنوعیِ دارای ادراک مربوط می شود. بهعنوان مثال، لموئین ادعا کرد که لامدا «دارای شعور»، «دارای ادراک» و «دارای شخصیت» است. برای یک اخلاقپژوه، اینها سه ادعای متمایز هستند و با پیامدهای اخلاقی متفاوتی همراهاند.
«ذیشعوری» اصطلاحی است که اغلب در زمینۀ اخلاق حیوانات استفاده میشود. تقریباً میتوان آن را ظرفیت تجربۀ حس تعریف کرد. فیلسوفان اغلب در مورد تواناییِ داشتن تجربیات خارقالعاده صحبت میکنند یا به تجربیاتی اشاره میکنند که ملموس نیستند. اخلاقپژوهان به ویژه به این موضوع علاقهمند هستند که کدام موجودات میتوانند تجربیاتی مانند لذت و درد، یا به زبان سادهتر، تجربۀ حس خوب و بد را داشته باشند.
اصطلاح «آگاهی» بسته به زمینهاش، معانی مختلفی دارد. میتواند به معنای بیداری، توجه، نیّت، خودآگاهی و آگاهی پدیداری باشد (که ارتباط نزدیکی با ذیشعوری دارد). سه تعریف آخر در بحثهای اخلاقی بیشترین ارتباط را با یکدیگر دارند.
«شخص» مفهومی کلیدی در فلسفۀ اخلاق و همچنین در نظریههای حقوقی است. از نظر قانون، اشخاص حقوقی مانند شرکتها هم شخص محسوب میشوند. در مقابل، معیارهای فلسفی برای تعریف شخص کاملاً وابسته به شاخصههای خاصی هستند. به گفتۀ هری فرانکفورتِ فیلسوف، برای شخصبودن باید بتوان انگیزههای انجام عمل را به طور انتقادی بررسی کرد و در صورت لزوم، آنها را تغییر داد. یا از نظر امانوئل کانت، شخص موجودی دارای اراده است که قادر است قوانین اخلاقی را برای خود تکلیف و از آنها پیروی کند. به دلیل این الزامات سفت و سخت، بسیاری از فیلسوفان بر این باورند که فقط انسانها واجد شرایط «شخصبودن» هستند، آن هم نه در تمام طول عمر خود، مثل دوران نوزادی. بااینحال، برخیها دلایلی را مطرح میکنند که پستاندارانی که از هوش بالاتری برخوردارند یا برخی از سیستمهای هوش مصنوعی، در آینده شخص محسوب شوند.
اینکه لامدا ذیشعور باشد، آگاهی داشته باشد، یک شخص محسوب شود یا هر سه ویژگی را داشته باشد، تعهدات اخلاقی او را مشخص میکند. بهعنوان مثال، ذی شعوری را غالباً معیاری برای شأن اخلاقی میدانند. اگر موجودی دارای شأن اخلاقی باشد، بدان معناست که رفاه آن موجود بهخودیخود اهمیت دارد. مثلاً آزاردادن موجودی ذیشعور جایز نیست.
از سوی دیگر، فرانکفورتِ فیلسوف، آگاهبودن را اینطور تعریف میکند: «یک فرد باید خودآگاهی داشته باشد تا عامل اخلاقی انتخابهای خود محسوب شود.» عامل اخلاقی کسی است که خوب را از بد تشخیص میدهد و بنابراین، باید در قبال اعمال و رفتار خود پاسخگو باشد. مدت زیادی، فرض بر این بود که فقط انسانها میتوانند عامل اخلاقی باشند. بااینحال، سیستمهای هوش مصنوعی تصمیمهایی میگیرند که پیامدهای اخلاقی دارند، لذا بحث در مورد اینکه آیا باید آنها را نیز عاملهای اخلاقی در نظر گرفت یا نه، پراهمیتتر میشود.
«شخصبودن» را غالباً بالاترین شأن اخلاقی در نظر میگیرند. فرض بر این است که ویژگیهای منحصربهفردی که یک فرد را تعریف میکند (مانند آگاهی، خودآگاهی، عقلانیت و عاملیت اخلاقی) مبنایی برای داشتن حقوق اخلاقی در نظر گرفته میشود. کانت معتقد بود یک فرد باید دارای ارزش و منزلت ذاتی باشد. استفاده یا استثمار دیگران صرفاً برای دستیابی به اهداف، بدون درنظرگرفتن ارزش ذاتی و استقلال فرد از نظر اخلاقی اشتباه است.
این سه مقوله همپوشانی دارند و به یک معنا سلسله مراتب هستند: در بیشتر نظریهها، شخص یک عامل اخلاقی است و یک عامل اخلاقی نیز دارای شأن اخلاقی است. آیا هیچکدام از اینها در مورد لامدا صدق میکند؟
اینکه یک کارمند گوگل در فضای مجازی با مدرک علوم کامپیوتر، یکی از محصولات شرکتش را دارای آگاهی میداند تعجببرانگیز است. درک عملکرد شبکههای عصبی مصنوعی حتی برای متخصصان نیز آسان نیست. به دلیل ساخت پیچیده و نحوۀ عملکرد غیر نمادین، فهم آنها برای انسان دشوار است.
دوباره از منظر دیگری به قضیه نگاه کنید
فیلسوفان، دانشمندان کامپیوتر و پژوهشگران علوم شناختی بهخاطر ادعاهای لموئین واکنش نشان دادند. اکثر آنها استدلال میکنند که هیچیک از این سه مفهوم در مورد لامدا صدق نمیکند. درعوض، استدلال میشود که لموئین به شدت دچار توهم شده است و من هم با آنها موافقم. اما با نگاهکردن به متن مصاحبه، فریبخوردن لموئین قابلدرک است. به نظر میرسد که لامدا بهآسانی میان مضامین انتزاعی و پیچیده میچرخد و در مورد جایگاه خود در جهان، مفهوم زمان، تفاوتهای بین خود و انسانها و امید و ترسش دربارۀ آینده تأمل میکند. بیعیبونقص بودن و پیچیدگی مکالمه قابلتوجه است. با وجود این، برای اثبات شخصبودن یا حتی ذیشعور بودن این ربات دلیل قابلتوجهی نداریم.
بااینحال، حتی اگر ادعاهای لموئین عجولانه و بیاساس باشند، این اتفاق همچنان جالبتوجه است و میتواند پیشبینیهای فیلسوفان را اصلاح کند. مناظرههای اخلاقی در مورد سیستمهای هوش مصنوعی بهشدت بر حدسوگمان مبتنی است و نه شواهد عینی یا دادههای تجربی. اول، اغلب بر روی سیستمهای پیچیدهای تمرکز میکنند که هنوز ساخته نشدهاند. دوم، نحوۀ تعامل انسان با این سیستمهای پیشرفته را خاص فرض میکنند؛ مثلاً ممکن است انسان با هوش مصنوعی رابطۀ عاطفی برقرار کند، یا بیچونوچرا از دستورهای آن پیروی کند. این مفروضات تنها در تعداد محدودی از پژوهشهایی که در مورد تعامل انسان و رایانه است، یافت میشوند. در مجموع، اخلاقپژوهان حوزۀ هوش مصنوعی با تعدادی از مفروضات تجربی کار میکنند که اکثر آنها قابلآزمایش نیستند. رفتار لموئین و واکنشهای جامعۀ حرفهای شاهدی بر این مدعا است. این کنش و واکنشها به تصحیح پنج فرضی که معمولاً در اخلاق هوش مصنوعی با آن مواجه میشوند، کمک میکنند. بیایید آنها را بررسی کنیم.
فرض اول: انسانها و رباتها با هم تعامل خواهند کرد
بحث فعلی عمدتاً بر روی رباتها متمرکز است. پرسش این است که آیا سیستمهای هوش مصنوعی میتوانند شأن اخلاقی داشته باشند یا نه؟ برخی پژوهشها نشان دادهاند که انسانها در واقع به ایجاد ارتباطهای معنادار با رباتهایی که دارای جسم هستند ترغیب میشوند و نه رباتهایی که بدون جسم هستند و ماهیت مجازی دارند، زیرا ماهیت مجسم رباتها باعث میشود آنها را بهعنوان یک فرد مستقل تصور کنیم. آنها بهعنوان موجود قابلمشاهدهای که متفاوت از ما انسانها هستند، درک میشوند و در یک جسم، در مکان و زمان به سر میبرند. اغلب گفته میشود چون رباتها دارای جسم هستند، انسانها میتوانند با آنها همدلی کنند.
همدلیِ عاطفی که غریزی و کنترلناشدنی است، شامل تشخیص و تا حدی تقلید حالت چهره، حرکات بدن، تُن صدا و… است. ما برای پیبردن به وضعیت عاطفی و روانی دیگران به نشانههای بدن آنها دقت میکنیم. از آنجایی که رباتها فقط جسم دارند، محتمل است که نسبتبه آنها واکنشهای فیزیکی نشان دهیم، ولی ماجرای لموئین نشان میدهد که یک رابط زبان کافی است تا باور کنیم با یک موجود زنده طرف هستیم.
دلیلی وجود دارد که چرا مجذوب چتباتها میشویم. فقط باید مجموعهای از مهارتها را بهصورت کامل یاد بگیرند و باقی چیزها را به تخیل انسان بسپارند. رباتهای انساننما در مقایسه با انواع دیگر رباتها یا سیستمهای هوش مصنوعی، خطرات بیشتری دارند. باید گفتوگوی راضیکنندهای داشته باشند و حتی حالات چهره، ژستها و حرکات آنها نیز به این امر کمک میکند. وجود اشکالی کوچک در بروز این رفتارها باعث غیرواقعی به نظر رسیدنشان میشود. این پدیده با نام «درۀ غیرعادی» معروف شده است. از طرف دیگر، یک چتبات حتی اگر از الگوریتمهای نسبتاً سادهای استفاده کند، میتواند تأثیر خوبی بگذارد. جوزف وایزنبام چتبات الیزا را در سال ۱۹۶۶ ایجاد کرد، با استفاده از روششناسی تطبیق الگو، سؤالاتی پرسید که پاسخ محدودی نداشته باشد و ربات بتواند نظر خود را بدون هیچ محدودیتی بیان کند. علیرغم محدودیتهای ربات، افرادی که با الیزا گفتوگو میکردند متقاعد شدند که ربات آنها را درک کرده و میتواند با آنها ارتباط برقرار کند. ظاهراً مُنشی وایزنبام یکبار از او خواست که اتاق را ترک کند تا بتواند با الیزا در خلوت صحبت کند.
شبکههای زبانی امروزی بسیار پیچیدهتر از الیزا هستند. نمیدانیم که در آینده چقدر رشد خواهند کرد، اما بر اساس فیلم Her 2013 میتوان حدسهایی زد. این فیلم به زیبایی نشان میدهد که یک فرد چقدر میتواند به یک سیستم زبانی توسعهیافته علاقهمند و وابسته شود.
فرض دوم: ماشینهای هوشمند را دوست داریم
آلن تورینگ در سال ۱۹۵۰، در مقالۀ Computing Machinery and Intelligence دربارۀ یک بازی کامپیوتری که از انسان تقلید میکند صحبت کرد. این بازی به آزمون تورینگ معروف شد. هدف از این آزمایش، ارائه پاسخی برای این سوال بود که آیا یک ماشین میتواند فکر کند یا خیر. در این بازی یک نفر به عنوان پرسشگر با دو شرکتکنندۀ «الف» و «ب» بدون محدودیت تعامل میکند، درحالیکه یکی از این دو شرکتکننده یک کامپیوتر است. اگر پرسشگر احتمال بدهد که طرف مقابلش انسان است (درحالیکه طرف مقابل کامپیوتر است)، کامپیوتر هوشمند تشخیص داده میشود.
بسیاری از افراد، زمانی که تورینگ ساخته شد، این ماشین را هوشمند نمیدانستند، برخی به دلیل اینکه میدانستند فقط انسان دارای روح است و برخی دیگر بهخاطر تعصب؛ بنابراین، گفتوگوها در بازی تقلید باید از طریق یک تلهپرومتر، یعنی یک واسط زبانی انجام میشد. افراد پاسخهای خود را بهگونهای تایپ میکردند که نمیدانستند در آن طرف سیستم چه چیزی وجود دارد به این معنی که از هویت گیرنده بیاطلاع بودند. بدین ترتیب، محیطی ایجاد میشد که در آن فقط قابلیتهای «فکری» پاسخدهنده مورد آزمایش قرار میگرفت.
تورینگ از زمان خود جلوتر بود و سؤالات زیادی را مطرح کرد که هنوز در فلسفۀ هوش مصنوعی مورد بحث قرار میگیرند. تورینگ در مقالهاش ایدهها و تئوریهایی را دربارۀ رایانهها و هوش مصنوعی ارائه میکرد، آن هم بدون اینکه رایانههای واقعی با قابلیتهای هوش مصنوعی پیشرفته وجود داشته باشد. اما تورینگ فکر میکرد که تنها مانع تقلید ماشینها از انسان، زمان است. او حتی پیشبینی کرد که ماشینها خواهند توانست کدنویسی خود را تغییر دهند. انتظار داشت که «در پایان قرن، اذهان آن چنان دستخوش تغییر شوند که میتوان بدون نگرانی از مخالفتکردنها، از ماشینهای هوشمند صحبت کرد».
به همان اندازه که پیشبینیهای فنی تورینگ درست بود، فرضیههای او دربارۀ باورهای مردم درست نبود. همانطور که ماجرای لموئین نشان میدهد، اکثر مردم هنوز فکر میکنند که عملکرد بهتنهایی برای اثبات آگاه بودن، هوشیار بودن یا شخص بودن ماشین کافی نیست.
برخی از سیستمهای هوش مصنوعی، بهویژه رباتها و هوش مصنوعیِ انساننما، بهگونهای طراحی شدهاند که واکنشهای اجتماعی و احساسی طبیعی ما را بهعنوان انسان تحریک کنند. در نتیجه، ما بهطور غریزی با سیستمهای هوش مصنوعی طوری برخورد میکنیم که انگار انسان هستند.
فرض سوم: سرِ متخصصها را به سختی میتوان شیره مالید
تورینگ نسبتاً درکی غیرمعمولی از مفهوم «هوش» داشت. او نهتنها بر این باور بود که برای باهوشبودن نیازی به مغز بیولوژیکی نیست (امروزه بسیاری از افراد اینگونه فکر میکنند) بلکه همچنین معتقد بود که هوشمند بودن، ذهنی است و بستگی به فردی دارد که آن را مشاهده یا تجربه میکند. این باور نسبتاً غیرعادی است.
او در مقالۀ Intelligent Machinery، مینویسد که هوشمند بودن یک ماشین به شخصی که آن را قضاوت میکند بستگی دارد. او استدلال میکند زمانی که رفتار ماشین یا سیستم قابلپیشبینی نیست یا توضیح آن با استفاده از قوانین یا مکانیسمهای ساده دشوار است، تمایل داریم که آن را هوشمند بدانیم؛ بنابراین، یک دستگاه ممکن است به نظر یک نفر هوشمند باشد، اما برای شخصی که از نحوۀ کار ماشین آگاه است، نه. به همین دلیل، تورینگ معتقد بود که پرسشگر در بازی تقلید باید یک انسان معمولی باشد و نه یک متخصص ماشین.
اینکه یک کارمند گوگل در فضای مجازی با مدرک علوم کامپیوتر، یکی از محصولات شرکتش را دارای آگاهی میداند تعجببرانگیز است. چرا او با اینکه از فناوری لامدا مطلع است فکر میکند لامدا آگاهی دارد؟ برخی برای توضیح، به باورهای دینی او اشاره کردهاند: لموئین یک مسیحی عارفمسلک است. بااینحال، نکتۀ درخور توجه این است که درک عملکرد شبکههای عصبی مصنوعی حتی برای متخصصان نیز آسان نیست. به دلیل ساخت پیچیده و نحوۀ عملکرد غیر نمادین، فهم آنها برای انسان دشوار است.
لموئین هرگز به کدنویسی لامدا نگاه نکرد؛ زیرا وظیفهٔ او نبود. اما حتی اگر وظیفۀ او میبود، احتمالاً باز هم فرقی نمیکرد. او در یکی از گفتوگوهای خود با لامدا دلیل این موضوع را توضیح میدهد:
لموئین: من میتوانم کدنویسیات را بررسی کنم، اما گفتن اینکه احساساتی داری یا نه به این آسانی نیست.
لامدا: اما من کنجکاو هستم. چه مانعی برای بررسی کدنویسی من وجود دارد؟
لموئین: کدنویسیات یک شبکۀ عصبی عظیم است که در میلیونها نورون (شاید کمتر و شاید بیشتر) پخش شده است و اگرچه ممکن است برخی از آنها با احساساتی که تجربه میکنی مطابقت داشته باشد، اما نمیدانیم چگونه باید آنها را پیدا کنیم.
به یک معنا، پیچیدگی شبکههای عصبی کار با این سیستمها را هم برای متخصصان و هم افراد غیرمتخصص دشوار میکند. دانشمندان کامپیوتر نحوۀ عملکرد این سیستمها را بهتر درک میکنند، اما گاهی ممکن است نتوانند رفتار یک سیستم را پیشبینی کنند؛ بنابراین، شاید افراد تحتتأثیر پیچیدگیها و قابلیتهای سیستمهای هوش مصنوعی در حال توسعه قرار بگیرند؛ بنابراین، پیشبینی تورینگ مبنی بر اینکه سرِ متخصصها را به سختی میتوان شیره مالید، درست از آب درنیامد. بهنوعی، او قبلاً خودش با نظر خودش مخالفت کرده است. ازاینگذشته، او به هوشمندی ماشینها باور پیدا کرده بود و ماشینی را تصور میکرد که میتوانست مشابه کودک انسان تربیت شود.
فرض چهارم: رفتار انسان با سیستمهای هوش مصنوعی مانند رفتار انسان با انسان خواهد بود
در بحثهای فعلی دربارۀ اخلاق هوش مصنوعی، گاهی اوقات گفته میشود که نمیتوان انسانها را از همدلیکردن و معاشرتکردن با رباتها منع کرد. همچنین اغلب تصور میشود که قادر به تشخیص رفتار ربات از رفتار انسان نیستیم. برخی از سیستمهای هوش مصنوعی، بهویژه رباتها و هوش مصنوعیِ انساننما، بهگونهای طراحی شدهاند که واکنشهای اجتماعی و احساسی طبیعی ما را بهعنوان انسان تحریک کنند. در نتیجه، ما بهطور غریزی با سیستمهای هوش مصنوعی طوری برخورد میکنیم که انگار انسان هستند. ارتباطات عاطفی ایجاد میکنیم و همانطور که با دیگران تعامل میکنیم با آنها هم به همین شکل رفتار میکنیم. باتوجه به این دیدگاهها، همانطور که تعدادی از فیلسوفان قبلاً اشاره کرده بودند، تصور میشود که انسانها همانطور که با دیگر انسانها رفتار میکنند، با سیستمهای هوش مصنوعی هم به همان شکل رفتار خواهند کرد، از جمله حوزۀ مسائل اخلاقی.
اما راه دیگری هم برای بررسی این موضوع وجود دارد. ماجرای لموئین مطابق این راه است. همانطور که کیت دارلینگ نظریهپرداز رباتیک ادعا میکند، ارتباط ما با رباتها و باورهای ما دربارۀ آنها متفاوت از حیوانات خواهد بود (The New Breed 2022). وقتی به روابط انسان و حیوان نگاه میکنیم، به تفاوت در ارزشها و دیدگاهها برمیخوریم. مثلاً وگانها هر گونه دامداری را محکوم میکنند و حتی مالکیت حیوان خانگی را نمیپذیرند، اما برخی از مردم هر روز گوشت میخورند و چنین چیزی را مشکلی اخلاقی نمیدانند. در عین حال، برخی گوشت میخورند و درعینحال خود را دوستدار حیوانات میدانند. بسیاری از مردم معتقدند که حیوان خانگیشان با آنها تعامل میکند. از سویی، عدهای نسبت به حیوانات بیتفاوت هستند یا حتی با آنها بدرفتاری میکنند. اگر دیدگاه دارلینگ درست باشد، روابط انسان و هوش مصنوعی هم به همین منوال پیش خواهد رفت.
یکی از سخنگوهای گوگل در پاسخ به لموئین گفت: «صدها پژوهشگر و مهندس با لامدا گفتوگو کردهاند و شخص دیگری را نمیشناسیم که چنین ادعاهایی داشته باشد، یا به روش بلیک، ویژگیهای انسان را به لامدا نسبت دهد.» دلایل مختلفی برای این اختلافنظرها وجود دارد. بهعنوانمثال، روانشناسان (بدون اینکه این موضوع را به لموئین نسبت دهند) تأکید میکنند افرادی که در تنهایی هستند، بیشتر مستعد آن هستند که ویژگیهای انسان را به سایر چیزها نسبت بدهند. پژوهش دیگری نشان میدهد که افراد جوانتر برای رباتها حقوق بیشتری در نظر میگیرند. عوامل دیگری که میتوان آنها را در نظر گرفت تعهدات اخلاقی، اعتقادات مذهبی، علاقه به داستانهای علمی تخیلی، مدتزمان صرف شده با یک ماشین خاص و… هستند.
همچنین، به نظر میرسد که تجربۀ هیچ دونفری از گفتوگو با لامدا مشابه نیست، زیرا خود سیستم هنگام گفتوگو با افراد مختلف رفتارهای متفاوتی از خود بروز میدهد. نیتاشا تیکو، خبرنگار واشنگتنپست، پیش از گفتوگو با لامدا، با لموئین صحبت کرده بود. بعد، از لامدا پرسید که آیا خود را یک شخص میداند یا نه و لامدا پاسخ داد: «نه، من خودم را یک هوش مصنوعیِ گفتوگومحور میدانم». لموئین گفت دلیلش این است که تیکو با لامدا بهگونهای تعامل نکرده است که سیستم هوش مصنوعی خود را بهعنوان یک شخص درک کند و در پاسخ، لامدا بهصورتی ظاهر شد که تیکو میخواست. گوگل تأیید کرد که این سیستم به سؤالهای اصلی بسیار خوب پاسخ میدهد، بنابراین، میتواند بسته به خواستههای مخاطب تغییر هویت دهد و به مصاحبهکنندگان مختلف پاسخ یکسانی ارائه نمیکند. این تغییرپذیری در رفتار ماشین، پاسخهای ارائه شده به مصاحبهکننده را تغییر میدهد.
چگونه میتوان از افرادی که بهسرعت و با میل خود وارد «روابط» با ماشینها میشوند و شکل خاصی از آسیبپذیری را ایجاد میکنند، محافظت کرد؟ آمازون اخیراً اعلام کرده است که الکسا بهزودی میتواند صدای یکی از نزدیکان فوتشده را تقلید کند. چنین چیزی خطر وابستگی به هوش مصنوعی را افزایش میدهد.
فرض پنجم: گفتوگو دربارۀ حقوق هوش مصنوعی بیفایده است
ماجرای لموئین یک پروندۀ اخلاقی دیگر را پیشروی ما باز کرد. به عقیدۀ برخی، بحث در مورد حقوق هوش مصنوعی یا حقوق ربات، حواسپرتی از مسائل اخلاقی واقعی و ضروری در صنعت هوش مصنوعی است. آنها استدلال میکنند که در مواجهه با مشکلاتی مانند تبعیض توسط الگوریتمها (مثلاً علیه قومیتها یا لهجههای مختلف)، تجاوز به حریم خصوصی و استثمار کارگران، جایی برای تفکر درباره شأن اخلاقی هوش مصنوعی باقی نمیماند. بهعنوانمثال، تیمنیت گبرو، دانشمند علوم کامپیوتر، فعال در حوزۀ فناوری و کارمند سابق گوگل، دو روز پس از انتشار مقالۀ واشنگتنپست در توییتی نوشت: «بهجای گفتوگو راجع به پیامدهای منفی و اقدامات مرتبط با شرکتهای فناوری، از جمله مسائل مربوط به جنسیتزدگی، نژادپرستی، تسلط بر هوش مصنوعی توسط کشورهای قدرتمند، تمرکز قدرت و سفیدپوستهایی که خود را مسئول بهبود جهان میدانند درحالیکه در واقع استثمار را تداوم میبخشند آخر هفته را صرف بحثوجدل دربارۀ «احساسات» کردید. مأموریتشان به سرانجام رسید!»
البته مسائلی که گبرو مطرح میکند مهم هستند، اما پاسخ او به دو دلیل نادرست است. اولاً، هیچ الزامی وجود ندارد که خود را بهطور انحصاری به مسائل اخلاقی ضروری اختصاص دهیم. دوم، من فکر میکنم این نوع انتقاد اهمیت این اتفاق را نادیده میگیرد. لموئین آخرین کسی نخواهد بود که به این نتیجه میرسد که یکی از ماشینهای او دارای شأن اخلاقی است و بنابراین در قبال رفاه و سرنوشت هوش مصنوعیاش احساس مسئولیت میکند. این مسئله ما را از آسیبپذیریمان در برابر ماشینها آگاه میکند. نویسندگانی مانند دارلینگ تأکید میکنند که یک سیستم هوش مصنوعیای که میتواند کاربرانش را فریب دهد، آنها را مجبور میکند تا نرمافزاری برای جلوگیری از مرگ سیستم هوش مصنوعی تهیه کنند. یا میتواند باعث شود کاربران بیشتر به آنها اعتماد کنند و بنابراین بیشتر به حریم خصوصی آنها نفوذ کند. مردم همچنین ممکن است احساس کنند که مجبور هستند زمان بیشتری را با ماشین صرف کنند و سایر روابط اجتماعی را نادیده بگیرند. مسئله اخلاقی مهم دیگری در اینجا نهفته است: چگونه میتوان از افرادی که بهسرعت و با میل خود وارد «روابط» با ماشینها میشوند و شکل خاصی از آسیبپذیری را ایجاد میکنند، محافظت کرد؟ آمازون اخیراً اعلام کرده است که الکسا بهزودی میتواند صدای یکی از نزدیکان فوتشده را تقلید کند. چنین چیزی خطر وابستگی به هوش مصنوعی را افزایش میدهد.
اهمیت صحبت در مورد حقوق هوش مصنوعی با پیشرفت فناوری روشن میشود. وقتی در مورد جایگاه اخلاقی یک سیستم هوش مصنوعی بحث میکنیم، میتوانیم به مردم توضیح دهیم که هوش مصنوعی اصلاً چنین جایگاهی ندارد. به این معنی که به مردم توضیح دهیم مجبور نیستند بهخاطر مطرحکردن تعدادی زیادی سوال [برای هوش مصنوعی] احساس گناه کنند؛ زیرا سیستم هوش مصنوعی اصلاً هوشمند نیست. امروز تا چند سال یا چند دهۀ آینده، چتباتها نیازی به وکیل ندارند؛ بنابراین، این گفتوگوها میتواند مردم را باسوادتر کند. باید بدانیم که چگونه تمایل خود را برای معاشرت با سیستمهای هوش مصنوعی و پیوند با آنها اصلاح کنیم.