یک پارادوکس خطرناک در قلب انقلاب هوش مصنوعی قرار دارد؛ هرچه این سیستم ها قدرتمندتر، فراگیرتر و در تصمیم گیری های حیاتی یکپارچه تر می شوند، به همان اندازه منطق درونی و فرآیند تصمیم گیری آنها مبهم تر، پیچیده تر و از دید انسان پنهان تر می گردد.
ما در حال واگذاری بخش های مهمی از قضاوت انسانی، از فرآیند استخدام و تشخیص پزشکی گرفته تا اعطای وام و حتی نظارت قضایی، به جعبه های سیاه الگوریتمیکی هستیم که نمی توانیم به طور کامل درک کنیم چرا یا چگونه به یک نتیجه مشخص می رسند. این تنها یک چالش فنی نیست؛ این یک بحران اخلاقی و فلسفی قریب الوقوع است که تمام مفروضات ما در مورد مسئولیت پذیری، انصاف و عدالت را به چالش می کشد.
گفت وگو پیرامون هوش مصنوعی اغلب بر روی یک سناریوی علمی-تخیلی و دوردست از یک ابر هوش سرکش متمرکز است، اما تهدید واقعی و فعلی بسیار ظریف تر و به مراتب فوری تر است. این تهدید از سوگیری های نامرئی نهفته در داده هایی که ما به این سیستم ها می خورانیم، از عدم شفافیت در عملکرد آنها و از فرسایش تدریجی عاملیت و قضاوت انسانی در فرآیندهای حیاتی نشأت می گیرد. شرکت های بزرگی مانند گوگل، مایکروسافت و آمازون که معماران اصلی این فناوری هستند تنها در خط مقدم نوآوری قرار ندارند؛ آنها به طور ناخواسته در خط مقدم بزرگترین چالش های اخلاقی قرن بیست و یکم نیز قرار گرفته اند. پرسش اصلی، دیگر «هوش مصنوعی چه کارهایی می تواند انجام دهد؟» نیست، بلکه این است: «چه کارهایی باید انجام دهد و چه کسی مسئول نتایج آن است؟».

هوش مصنوعی در خلأ متولد نمی شود. این سیستم ها با حجم عظیمی از داده های تولید شده توسط انسان آموزش می بینند و همانطور که یک کودک، ارزش ها و سوگیری های محیط اطراف خود را جذب می کند، هوش مصنوعی نیز تمام سوگیری های تاریخی، اجتماعی و فرهنگی پنهان در این داده ها را می آموزد و بازتولید می کند.
این سوگیری الگوریتمیک یکی از خطرناک ترین جنبه های این فناوری است. اگر یک سیستم هوش مصنوعی را با داده های استخدام یک شرکت در طی سی سال گذشته آموزش دهیم و آن شرکت به طور تاریخی مردان را بر زنان ترجیح داده باشد، الگوریتم به این نتیجه منطقی اما کاملا اشتباه خواهد رسید که مرد بودن یکی از شاخص های یک کاندیدای موفق است.
این یک مشکل فرضی نیست. سیستم های استخدام مبتنی بر هوش مصنوعی بارها به دلیل تبعیض علیه زنان یا اقلیت های نژادی مورد انتقاد قرار گرفته اند. ماشین نیت بدی ندارد؛ او تنها یک شاگرد وظیفه شناس است که از الگوهای موجود در داده ها یاد می گیرد، اما این وظیفه شناسی می تواند بی عدالتی های گذشته را نه تنها تداوم بخشد، که آنها را در مقیاسی انبوه، خودکارسازی کرده و به آنها یک ظاهر علمی و بی طرفانه ببخشد. مبارزه با این مشکل، نیازمند یک تلاش آگاهانه برای «پاک سازی» و متعادل سازی داده های آموزشی و همچنین طراحی الگوریتم هایی است که به جای بهینه سازی صرف برای «دقت پیش بینی»، برای «انصاف» نیز بهینه شده باشند.

همزمان با افزایش پیچیدگی سیستم های یادگیری عمیق توانایی ما برای درک کامل منطق درونی آنها کاهش می یابد. این مشکل جعبه سیاه یک بده بستان مستقیم میان قدرت و شفافیت ایجاد می کند. اغلب قدرتمندترین الگوریتم ها همان هایی هستند که کمترین شفافیت را دارند.
حال تصور کنید یک سیستم هوش مصنوعی، درخواست وام شما را رد می کند. شما حق دارید دلیل آن را بدانید، اما شرکت ممکن است نتواند یک پاسخ ساده و قابل فهم به شما بدهد، زیرا خود تصمیم حاصل تعامل پیچیده میلیون ها پارامتر در یک شبکه عصبی است.
این عدم شفافیت در حوزه های حساسی مانند پزشکی یا عدالت کیفری، به یک بحران اعتماد تبدیل می شود. آیا یک قاضی می تواند به توصیه یک الگوریتم برای تعیین طول مدت حبس یک متهم اعتماد کند، بدون آنکه منطق پشت آن توصیه را بداند؟ این پارادوکس، شرکت های فناوری را وادار به سرمایه گذاری در حوزه جدیدی به نام هوش مصنوعی قابل توضیح کرده است.
هدف این رشته ساختن مدل هایی است که نه تنها پیش بینی های دقیقی انجام می دهند، بلکه می توانند منطق پشت آن پیش بینی ها را به زبانی قابل فهم برای انسان، توضیح دهند. بدون این شفافیت، ما در حال ساختن یک زیرساخت تصمیم گیری جهانی هستیم که بر پایه اعتماد کورکورانه بنا شده است.
مطلب مرتبط: مزایا و معایب هوش مصنوعی در عرصه کسب و کار
خطر تبدیل شدن از معمار به تماشاگر

یک خطر ظریف تر اما به همان اندازه عمیق، فرسایش عاملیت انسانی است. با افزایش وابستگی ما به سیستم های هوشمند برای تصمیم گیری این ریسک وجود دارد که ما به تدریج توانایی و تمایل خود برای تفکر انتقادی و قضاوت مستقل را از دست بدهیم. یک پزشک که بیش از حد به یک سیستم تشخیص هوشمند متکی شود، ممکن است شهود بالینی خود را که حاصل سال ها تجربه است، به تدریج از دست بدهد. یک مدیر مالی که کورکورانه از توصیه های یک الگوریتم سرمایه گذاری پیروی کند، ممکن است توانایی درک عمیق پویایی های بازار را فراموش کند.
این وضعیت ما را از معماران تصمیم به تماشاگران منفعل تبدیل می کند. ما خطر تبدیل شدن به اپراتورهایی را می پذیریم که تنها وظیفه شان، فشار دادن دکمه «تایید» بر روی خروجی های یک جعبه سیاه است. این نه تنها برای رشد حرفه ای ما خطرناک است، بلکه یک زنجیره مسئولیت پذیری مبهم ایجاد می کند.
اگر یک سیستم هوشمند پزشکی یک تشخیص اشتباه دهد، چه کسی مسئول است؟ برنامه نویسی که الگوریتم را نوشته؟ شرکتی که داده های آموزشی را فراهم کرده؟ یا پزشکی که به آن اعتماد کرده است؟ برای جلوگیری از این فرسایش، سازمان ها باید فرهنگ همکاری انسان و ماشین را جایگزین واگذاری وظیفه به ماشین کنند. در این مدل، هوش مصنوعی به عنوان یک مشاور فوق العاده قدرتمند عمل می کند، اما تصمیم نهایی و مسئولیت اخلاقی آن، همیشه و به طور واضح، برعهده انسان باقی می ماند.
سخن پایانی
چالش های اخلاقی هوش مصنوعی راه حل های ساده ای ندارند. اینها پرسش های پیچیده ای هستند که در تقاطع فناوری، فلسفه، حقوق و علوم اجتماعی قرار گرفته اند، اما نادیده گرفتن آنها یک گزینه نیست. ما در حال معماری کردن سیستم عاملی هستیم که جوامع آینده بر روی آن اجرا خواهند شد و باید آگاهانه تصمیم بگیریم که چه ارزش هایی را می خواهیم در کدهای این سیستم، تعبیه کنیم. این یک مسئولیت صرفا برای مهندسان و دانشمندان داده نیست؛ این یک گفت وگوی اجتماعی گسترده است که نیازمند مشارکت سیاستگذاران، رهبران تجاری، دانشگاهیان و شهروندان است.
این به معنای ایجاد چارچوب های نظارتی جدید، سرمایه گذاری بر روی تحقیقات در زمینه هوش مصنوعی قابل توضیح و منصفانه و مهمتر از همه آموزش نسلی جدید از متخصصان است که نه تنها در علوم کامپیوتر که در اخلاق و علوم انسانی نیز تبحر دارند. قطب نمای اخلاقی یک ویژگی نیست که بتوان آن را در مراحل پایانی به یک محصول اضافه کرد؛ این باید از همان خط اول کدنویسی، در دی ان ای این فناوری تنیده شود. آینده ای که هوش مصنوعی می سازد، هنوز نوشته نشده است. ما این فرصت و مسئولیت تاریخی را داریم که اطمینان حاصل کنیم این آینده، نه تنها هوشمندتر، که عادلانه تر، شفاف تر و عمیقا انسانی تر از گذشته خواهد بود.
منابع:
https://online.hbs.edu/blog/post/ethical-considerations-of-ai
https://www.pmi.org/blog/top-10-ethical-considerations-for-ai-projects