گروه مطالعات اخلاقی پژوهشگاه فضای مجازی با بررسی اینکه کدام مسائل ذهن متخصصان هوش مصنوعی را بیشتر درگیر میکند، به تشریح ۹ موضوع برتر اخلاقی در پدیده هوش مصنوعی پرداخت.
هوش مصنوعی زندگی ما را در بیشتر موارد، تحت تأثیر قرار میدهد، به عنوان نمونه، میتوان به بهینهسازی لجستیک، تشخیص تقلب، خلق آثار هنری، انجام تحقیقات و ارائه ماشینهای ترجمه، اشاره کرد. سیستمهای ماشینی هوشمند، زندگی ما را به سمت بهتر شدن، تغییر میدهند. هرچه این سیستمها، توانایی بیشتری پیدا میکنند، دنیای ما نیز کارآمدتر و در نتیجه ثروتمندتر میشود.
غولهای فناوری مانند آلفابت، آمازون، فیسبوک، آی بی ام و مایکروسافت - و همچنین افرادی مانند استفان هاوکینگ و ایلان ماسک اعتقاد داشتند که اکنون زمان مناسبی برای صحبت در مورد چشمانداز نامحدود هوش مصنوعی است. از بسیاری جهات، این مورد، به همان اندازه که برای فناوری در حال ظهور، مرز جدیدی ارائه میدهد، برای اخلاقیات و ارزیابی ریسک نیز مرز جدیدی تعیین خواهد کرد. پس باید دید، کدام مسائل و مکالمات، ذهن متخصصان هوش مصنوعی را بیشتر درگیر میکند؟
* بیکاری؛ بعد از اتمام مشاغل چه اتفاقی میافتد؟
سلسهمراتب کار، در اولویت نگرانیهای مربوط به خودکارسازی است. همانطور که روشهای خودکارسازی مشاغل را ابداع کردهایم، میتوانیم فضایی را برای افراد فراهم کنیم تا نقشهای پیچیدهتری را به عهده بگیرند. به عبارتی، از کار فیزیکی که بر جهان قبل از صنعت مسلط بود، به سمت کار مدیریتی و اجرایی که مشخصه جامعه جهانی شده است، حرکت کنیم.
به عنوان نمونه، سیستم حمل و نقل را در نظر بگیرید. در حال حاضر، این سیستم، تنها در ایالات متحده، میلیونها نفر را استخدام میکند. اگر کامیونهای خودرانی که توسط ایلان ماسک وعده داده شده، در دهه آینده، به طور گسترده در دسترس باشد، چه اتفاقی خواهد بود؟ اما از سوی دیگر، اگر ریسک پایین تصادف را در نظر بگیریم، کامیونهای خودران، یک انتخاب اخلاقی به نظر میرسند. همین سناریو میتواند برای کارکنان ادارات و همچنین اکثریت نیروی کار در کشورهای توسعهیافته، اتفاق بیفتد.
اینجاست که به این سوال میرسیم که چگونه میتوانیم در این عصر، وقت خود را صرف کنیم؟ بیشتر مردم هنوز به اینکه وقت خود را برای کسب درآمد کافی، برای تأمین هزینههای زندگی خودشان و خانوادههایشان صرف کنند، متکی هستند. ما تنها میتوانیم امیدوار باشیم که این فرصت، به مردم این امکان را بدهد، تا در فعالیتهای غیرکاری، مانند مراقبت از خانواده، تعامل با جوامع و یادگیری شیوههای جدید مشارکت در جامعه انسانی، وقت بیشتری صرف کنند.
اگر این انتقال به صورت موفق انجام شود، ممکن است روزی به عقب نگاه کرده و فکر کنیم که وحشیانه است که بشر برای اینکه بتواند زندگی کند، مجبور است بیشتر وقت بیداری خود را برای کار کردن تلف کند.
* نابرابری؛ چگونه ثروت ایجاد شده توسط ماشینها را توزیع کنیم؟
سیستم اقتصادی ما، مبتنی بر جبران خسارت برای اقتصاد است، که اغلب با استفاده از دستمزد ساعتی ارزیابی میشود. اکثر شرکتهای مرتبط با محصولات و خدمات، هنوز به کار ساعتی وابسته هستند. اما با استفاده از هوش مصنوعی، یک شرکت میتواند به شدت، تکیه بر نیروی کار انسانی را کاهش دهد و این امر، بدین معنی است که درآمد به افراد کمتری خواهد رسید. در نتیجه، افرادی که در شرکتهای مبتنی بر هوش مصنوعی، مالکیت دارند، همه پول را دریافت خواهند کرد.
ما در حال حاضر، شاهد افزایش شکاف ثروت هستیم، جاییکه بنیانگذاران شرکتهای نوپا، بخش عمدهای از ثروت مازاد اقتصادی ایجاد شده را کسب میکنند. در سال ۲۰۱۴، در سه شرکت بزرگ در دیترویت و سه شرکت بزرگ در دره سیلیکون کاهش شدید تعداد کارمندان، انجام شد. این در حالی است که تنها در دره سیلیکون، با کاهش ۱۰ برابری کارمندان، درآمدی مشابه قبل به دست آمد.
* بشریت؛ ماشینها چگونه بر رفتار و تعاملات ما تأثیر میگذارند؟
رباتهای هوشمند مصنوعی، در مدلسازی مکالمه و روابط انسانی روز به روز بهتر میشوند. در سال ۲۰۱۵، یک ربات به نام یوجین گوستمن، برای اولین بار برنده چالش تورینگ شد. در این چالش، ارزیابهای انسانی از ورودی متنی، برای چت با یک موجودیت ناشناس استفاده میکردند، سپس این افراد، باید حدس میزدند که در حال مکالمه با یک انسان بودهاند یا با یک ماشین چت کردهاند. یوجین گوستمن، بیش از نیمی از افراد رأیدهنده را فریب داد، به طوریکه آنها فکر کردند که با یک انسان صحبت کردهاند.
این نقطه عطف، تنها آغاز برای عصری است که ما به طور دائم با ماشینها، چه در حوزه خدمات مشتری و چه در فروش، به نحوی ارتباط برقرار میکنیم، که گویی آنها انسان هستند. در حالیکه انسان، در میزان توجه و مهربانی که میتواند نسبت به شخص دیگری صرف کند، محدودیت دارد، اما رباتهای مصنوعی میتوانند منابع تقریباً نامحدودی را برای برقراری روابط، به کار گیرند.
با اینکه بسیاری از ما از این مسأله آگاه نیستیم، اما در این عصر شاهد این هستیم که چگونه ماشینها میتوانند باعث تحریک مراکز پاداش در مغز انسان شوند. این موضوع در اعتیادآور کردن بازیهای ویدئویی و موبایل، قابل مشاهده است. اعتیاد به فناوری، مرز جدیدی از وابستگیهای انسانی است.
* حماقت مصنوعی؛ چگونه میتوان از بروز اشتباه جلوگیری کرد؟
هوش، خواه در انسان باشد یا ماشین، از یادگیری نشأت میگیرد. سیستمها، معمولاً یک مرحله آموزشی دارند که در آن «یاد میگیرند» تا الگوهای صحیح را تشخیص دهند و مطابق با ورودیهای خود عمل کنند. زمانی که یک سیستم بهطور کامل آموزش ببیند، میتواند وارد مرحله آزمایش شود، جاییکه با مثالهای بیشتری سروکار دارد و در این مرحله بهتر میتوان نحوه عملکرد آن را مشاهده کرد.
بدیهی است که مرحله آموزش، نمیتواند تمام نمونههای احتمالی را که یک سیستم ممکن است در دنیای واقعی با آن مواجه شود، پوشش دهد. این سیستمها را میتوان با روشهایی که برای گول زدن انسان درست عمل نمیکند، فریب داد. برای مثال، الگوهای نقطهای تصادفی، میتوانند ماشین را به سمت چیزی که در واقع وجود ندارد، هدایت کنند. اگر برای ورود به دنیای جدیدی از کار، امنیت و کارایی، به هوش مصنوعی تکیه کنیم، باید اطمینان حاصل کنیم که ماشین طبق برنامه دادهشده، عمل میکند و مردم نمیتوانند بر آن غلبه کرده و از آن برای پیشبرد اهداف خود استفاده کنند.
* رباتهای نژادپرست؛ چگونه سوگیریهای هوش مصنوعی را حذف کنیم؟
هوش مصنوعی اگرچه دارای سرعت و ظرفیت پردازشی بسیار فراتر از توانایی انسان است، اما همیشه نمیتواند قابلاعتماد و بیطرف باشد. گوگل و شرکت اصلی آن آلفابت، یکی از پیشگامان در زمینه هوش مصنوعی هستند. یکی از سرویسهای مرتبط با هوش مصنوعی این شرکت، سرویس عکسهای گوگل است که در آن از هوش مصنوعی برای شناسایی افراد، اشیا و صحنهها استفاده میشود. اما گاهی نیز ممکن است اشتباه شود.
برای مثال، میتوان به زمانیکه یک دوربین، حساسیت نژادی را از دست داد، اشاره کرد. نمونه این اشتباه در یک دوربین دیجیتال مشاهده شد. به اینصورت که برای افرادی که دارای چشمان خاصی هستند، نظیر ژاپنیها، این دوربین قادر به تفکیک خنده این افراد با چشمک زدن نبود. این امر بهدلیل عدم توجه به حساسیتهای نژادی در طراحی و استفاده از هوش مصنوعی، رخ داد.
به عنوان نمونه دیگر، میتوان به زمانی اشاره کرد، که از یک نرمافزار، بهمنظور پیشبینی مجرمان آینده، استفاده میشد. نتایج بهدست آمده از این ابزار، وجود تعصب علیه سیاهپوستان را نشان میداد. ماجرا به اینصورت بود که دختری سیاهپوست، که به جرم استفاده بدون اجازه از دوچرخه همسایه به زندان افتاده بود، به همراه مردی سفیدپوست که به جرم دزدی مبلغ هنگفتی از دخل فروشگاه، در زندان بود و سابقه سرقت مسلحانه را نیز داشت، توسط این نرم افزار، به منظور پیشبینی احتمال وقوع جرم در آینده، مورد بررسی قرار گرفتند.
نتیجه نشان داد که احتمال ارتکاب جرم توسط دختر سیاهپوست، بهمراتب، بالاتر از احتمال ارتکاب جرم بهوسیله مرد سفیدپوست است. این در حالی است که چندسال بعد، در حالیکه دختر سیاهپوست، هیچ جرمی مرتکب نشده بود، مرد سفیدپوست در حال گذراندن دوره محکومیت خود، به جرم سرقت مسلحانه از یک انبار، بود. این نمونهای از اشتباه هوش مصنوعی، بهدلیل استفاده از دادههای متعصبانه نسبت به سیاهپوستان است.
نباید فراموش کنیم که سیستمهای هوش مصنوعی که توسط انسانها ایجاد میشوند، میتوانند قضاوتهایی مغرضانه یا محدود داشتهباشند.
* امنیت؛ چگونه هوش مصنوعی را از شر دشمنان در امان نگه داریم؟
هر چه یک فناوری قدرتمندتر شود، بیشتر میتوان از آن، برای مقاصد پلید، به اندازه مقاصد خوب، استفاده کرد. این امر، نه تنها در مورد رباتهایی که برای جایگزینی سربازان انسانی، یا سلاحهای خودمختار، استفاده میشوند، صادق است، بلکه در مورد سیستمهای هوش مصنوعی، که استفاده نادرست از آنها میتواند منجر به آسیب شود، نیز صدق میکند. از آنجا که این نبردها، فقط در میدان جنگ انجام نمیشود، امنیت سایبری از اهمیت بیشتری برخوردار خواهد بود. به هر حال ما با سیستمی روبرو هستیم که بهمراتب از ما، سریعتر و تواناتر است.
* اجنه شیطانی؛ چگونه از عواقب ناخواسته جلوگیری کنیم؟
فقط دشمنان نیستند که باید نگرانشان باشیم. چه اتفاقی خواهد افتاد، اگر خود هوش مصنوعی دشمن ما شود؟ این سوال، به این معنی نیست که ابزار هوش مصنوعی، ناگهان به یک شیطان، به روشی که برای یک انسان ممکن است، تبدیل شود یا مشابه حوادثی که درباره هوش مصنوعی در فیلمهای هالیوودی نشان داده شود، باشد. بلکه میتوان یک سیستم هوش مصنوعی پیشرفته را بهعنوان «جن درون بطری»، در نظر گرفت، به این صورت، که میتواند آرزوها را برآورده کند، اما ممکن است، عواقب پیشبینینشده وحشتناکی نیز داشته باشد.
در مورد یک ماشین، احتمال اینکه سوءنیتی در کار باشد، کم است. تنها فقدان درک کاملی از آنچه برای این ماشینها مدنظر است، مطرح میشود. یک سیستم هوش مصنوعی را تصور کنید که برای اعلام راهحل ریشهکن کردن سرطان در جهان، از او سوال پرسیده شود. بعد از محاسبات فراوان، این ابزار، فرمولی را بهعنوان نتیجه ارائه میدهد که در واقع، پایان سرطان را با کشتن همه مردم روی کره زمین، به ارمغان میآورد. در این حالت، مشخص است که کامپیوتر، در رابطه با هدف مدنظر خودش که «نه به سرطان بیشتر» است، بسیار کارآمد عمل کرده، اما مسلماً این راه حل، روشی که مدنظر انسانها باشد، نخواهد بود.
* تکینگی؛ چطور یک سیستم هوشمند پیچیده را تحت کنترل داشته باشیم؟
دلیل قرار گرفتن انسان، در بالای زنجیره غذایی، دندانهای تیز یا عضلات قوی نیست. میتوان گفت، سلطه انسان بهطور کامل، به خاطر نبوغ و ذکاوت او است. ما میتوانیم از حیوانات بزرگتر، سریعتر و قویتر بهره بگیریم، به این دلیل، که قادر به ساخت ابزاری برای کنترل و استفاده از آنها هستیم. این ابزار میتواند هم ابزار فیزیکی، مانند قفس و سلاح بوده و هم ابزار شناختی مانند آموزش و شرطیسازی، باشد.
موارد فوق، یک سوال جدی در رابطه با هوش مصنوعی ایجاد میکند: آیا هوش مصنوعی، روزی، همان مزیت را نسبت به ما خواهد داشت؟ ما نمیتوانیم فقط به کشیدن دوشاخه، اعتماد کنیم. چون یک ماشین کاملاً پیشرفته، ممکن است این حرکت را پیشبینی کرده و از خود در مقابل آن دفاع کند. این همان چیزی است که برخی "تکینگی" مینامند: نقطه زمانی که انسان دیگر باهوشترین موجود روی کره زمین نیست.
* حقوق رباتها؛ چگونه رفتار انسانی با هوش مصنوعی را تعریف کنیم؟
در حالیکه دانشمندان علوم مغز و اعصاب، هنوز در حال رمزگشایی اسرار تجربههای آگاهانه هستند، در یک سیستم هوش مصنوعی مبتنی بر یادگیری تقویتی، بهبود عملکرد با ارائه یک پاداش مجازی، تقویت میشود. اگرچه سیستمهای هوش مصنوعی هنوز نسبتاً سطحی هستند، اما در حال پیچیدهتر شدن و نزدیک شدن به زندگی عادی ما هستند.
زمانیکه ماشینها را به عنوان نهادی در نظر بگیریم که میتوانند ادراک و احساس داشته و عملی را انجام دهند، فکر کردن درباره اینکه باید برای وضعیت حقوقی آنها، تدابیری لحاظ کنیم، جهش بزرگی به نظر نمیرسد. اما آیا باید با این ماشینها، مانند حیوانات با سطح هوش مشابه، رفتار شود؟ آیا ما باید رنج ناشی از وجود احساس در ماشین را نیز در نظر بگیریم؟
بهطور کلی باید توجه داشت که پیشرفت فناوری هوش مصنوعی به معنای زندگی بهتر برای همه است. هوش مصنوعی دارای پتانسیل وسیعی است و مسئولیت پیادهسازی و اجرای صحیح آن، با در نظر گرفتن همه مخاطرات، به عهده ما است.