هیچکس واقعاً نمیداند پیشرفتهترین الگوریتمها چگونه کار میکنند. این میتواند یک مشکل باشد.
سال گذشته، یک خودروی خودران عجیب در جادههای خلوت شهرستان مونماوث، نیوجرسی، به حرکت درآمد. این وسیله نقلیه آزمایشی که توسط محققان شرکت تراشهسازی انویدیا (Nvidia) توسعه یافته بود، از نظر ظاهری تفاوتی با سایر خودروهای خودران نداشت، اما با هر چیزی که گوگل، تسلا یا جنرال موتورز به نمایش گذاشته بودند، متفاوت بود و قدرت روزافزون هوش مصنوعی را به رخ میکشید. این خودرو از هیچ دستورالعمل واحدی که توسط یک مهندس یا برنامهنویس ارائه شده باشد، پیروی نمیکرد. در عوض، کاملاً به الگوریتمی متکی بود که با تماشای یک انسان در حال رانندگی، به خود رانندگی را آموخته بود.
وادار کردن یک خودرو به رانندگی به این شیوه، یک شاهکار چشمگیر بود. اما در عین حال کمی نگرانکننده است، زیرا کاملاً مشخص نیست که خودرو چگونه تصمیمات خود را میگیرد. اطلاعات از حسگرهای وسیله نقلیه مستقیماً به یک شبکه عظیم از نورونهای مصنوعی وارد میشود که دادهها را پردازش کرده و سپس دستورات لازم برای کنترل فرمان، ترمزها و سایر سیستمها را صادر میکند. نتیجه به نظر میرسد با واکنشهایی که از یک راننده انسانی انتظار میرود، مطابقت دارد. اما چه میشود اگر روزی کاری غیرمنتظره انجام دهد—به درختی بکوبد یا پشت چراغ سبز توقف کند؟ در حال حاضر، ممکن است یافتن علت آن دشوار باشد. این سیستم آنقدر پیچیده است که حتی مهندسانی که آن را طراحی کردهاند ممکن است برای جدا کردن دلیل یک اقدام خاص، با مشکل مواجه شوند. و شما نمیتوانید از آن بپرسید: هیچ راه روشنی برای طراحی چنین سیستمی وجود ندارد که بتواند همیشه توضیح دهد چرا کاری را انجام داده است.
ذهن مرموز این وسیله نقلیه به یک مسئله قریبالوقوع در حوزه هوش مصنوعی اشاره دارد. فناوری هوش مصنوعی زیربنایی این خودرو، که با نام «یادگیری عمیق» (deep learning) شناخته میشود، در سالهای اخیر در حل مسائل بسیار قدرتمند عمل کرده و به طور گسترده برای کارهایی مانند تولید زیرنویس برای تصاویر، تشخیص صدا و ترجمه زبان به کار گرفته شده است. اکنون این امید وجود دارد که همین تکنیکها بتوانند بیماریهای کشنده را تشخیص دهند، تصمیمات تجاری میلیون دلاری بگیرند و کارهای بیشمار دیگری برای تحول کل صنایع انجام دهند.
اما این اتفاق نخواهد افتاد—یا نباید بیفتد—مگر اینکه راههایی برای قابل فهمتر کردن تکنیکهایی مانند یادگیری عمیق برای خالقانشان و پاسخگو کردن آنها در برابر کاربرانشان پیدا کنیم. در غیر این صورت، پیشبینی زمان وقوع شکستها دشوار خواهد بود—و وقوع آنها اجتنابناپذیر است. این یکی از دلایلی است که خودروی انویدیا هنوز در مرحله آزمایشی قرار دارد.
در حال حاضر، از مدلهای ریاضی برای کمک به تصمیمگیری در مورد اینکه چه کسی آزادی مشروط بگیرد، چه کسی برای وام تأیید شود و چه کسی برای یک شغل استخدام شود، استفاده میشود. اگر بتوانید به این مدلهای ریاضی دسترسی پیدا کنید، درک استدلال آنها ممکن خواهد بود. اما بانکها، ارتش، کارفرمایان و دیگران اکنون توجه خود را به رویکردهای پیچیدهتر یادگیری ماشین معطوف کردهاند که میتواند تصمیمگیری خودکار را کاملاً غیرقابل درک کند. یادگیری عمیق، رایجترین این رویکردها، نمایانگر یک روش اساساً متفاوت برای برنامهنویسی کامپیوترهاست. تامی جاکولا (Tommi Jaakkola)، استاد دانشگاه MIT که روی کاربردهای یادگیری ماشین کار میکند، میگوید: «این مشکلی است که از هماکنون مطرح است و در آینده بسیار مطرحتر خواهد شد. چه یک تصمیم سرمایهگذاری باشد، چه یک تصمیم پزشکی یا شاید یک تصمیم نظامی، شما نمیخواهید صرفاً به یک روش “جعبه سیاه” (black box) تکیه کنید.»
از هماکنون این استدلال وجود دارد که توانایی بازجویی از یک سیستم هوش مصنوعی در مورد چگونگی رسیدن به نتایجش، یک حق قانونی اساسی است. از تابستان ۲۰۱۸، اتحادیه اروپا ممکن است شرکتها را ملزم کند که بتوانند به کاربران برای تصمیماتی که سیستمهای خودکار میگیرند، توضیحی ارائه دهند. این امر ممکن است حتی برای سیستمهایی که در ظاهر نسبتاً ساده به نظر میرسند، مانند اپلیکیشنها و وبسایتهایی که از یادگیری عمیق برای نمایش تبلیغات یا پیشنهاد آهنگ استفاده میکنند، غیرممکن باشد. کامپیوترهایی که این سرویسها را اجرا میکنند، خودشان را برنامهنویسی کردهاند و این کار را به روشهایی انجام دادهاند که ما نمیتوانیم درک کنیم. حتی مهندسانی که این اپلیکیشنها را میسازند، نمیتوانند رفتار آنها را به طور کامل توضیح دهند.
این موضوع پرسشهای سرگیجهآوری را مطرح میکند. با پیشرفت این فناوری، ممکن است به زودی از آستانهای عبور کنیم که پس از آن، استفاده از هوش مصنوعی نیازمند یک پذیرش کورکورانه (leap of faith) باشد. البته، ما انسانها نیز همیشه نمیتوانیم فرآیندهای فکری خود را واقعاً توضیح دهیم—اما راههایی برای اعتماد و سنجش شهودی افراد پیدا میکنیم. آیا این امر در مورد ماشینهایی که متفاوت از انسانها فکر و تصمیمگیری میکنند نیز ممکن خواهد بود؟ ما قبلاً هرگز ماشینهایی نساختهایم که به روشهایی عمل کنند که خالقانشان آنها را درک نمیکنند. چقدر میتوانیم انتظار داشته باشیم با ماشینهای هوشمندی که میتوانند غیرقابل پیشبینی و غیرقابل درک باشند، ارتباط برقرار کرده و کنار بیاییم؟ این پرسشها مرا به سفری به لبه علم در تحقیقات الگوریتمهای هوش مصنوعی، از گوگل تا اپل و بسیاری از مکانهای دیگر، از جمله ملاقاتی با یکی از فیلسوفان بزرگ زمان ما، کشاند.
هنرمند، آدام فریس (Adam Ferriss)، این تصویر و تصویر پایین را با استفاده از Google Deep Dream، برنامهای که یک تصویر را برای تحریک قابلیتهای تشخیص الگوی یک شبکه عصبی عمیق تنظیم میکند، خلق کرده است. این تصاویر با استفاده از یک لایه میانی شبکه عصبی تولید شدهاند.آدام فریس
در سال ۲۰۱۵، یک گروه تحقیقاتی در بیمارستان ماونت ساینای (Mount Sinai) در نیویورک، الهام گرفتند تا یادگیری عمیق را روی پایگاه داده عظیم سوابق بیماران بیمارستان به کار گیرند. این مجموعه داده شامل صدها متغیر درباره بیماران است که از نتایج آزمایشها، ویزیتهای پزشک و غیره آنها استخراج شده است. برنامه حاصل که محققان آن را «بیمار عمیق» (Deep Patient) نامیدند، با استفاده از دادههای حدود ۷۰۰,۰۰۰ نفر آموزش دید و هنگامی که روی سوابق جدید آزمایش شد، در پیشبینی بیماریها فوقالعاده خوب عمل کرد. بدون هیچگونه آموزش تخصصی، «بیمار عمیق» الگوهای پنهان در دادههای بیمارستان را کشف کرده بود که به نظر میرسید نشاندهنده زمان ابتلای افراد به طیف وسیعی از بیماریها، از جمله سرطان کبد، بود. جوئل دادلی (Joel Dudley)، که سرپرستی تیم ماونت ساینای را بر عهده دارد، میگوید روشهای زیادی وجود دارند که در پیشبینی بیماری از روی سوابق بیمار «نسبتاً خوب» عمل میکنند. اما او اضافه میکند: «این یکی просто خیلی بهتر بود.»
«ما میتوانیم این مدلها را بسازیم، اما نمیدانیم چگونه کار میکنند.»
در عین حال، «بیمار عمیق» کمی گیجکننده است. به نظر میرسد که شروع اختلالات روانپزشکی مانند اسکیزوفرنی را به طرز شگفتآوری خوب پیشبینی میکند. اما از آنجایی که پیشبینی اسکیزوفرنی برای پزشکان به طور بدنامی دشوار است، دادلی از خود میپرسید که این چگونه ممکن است. او هنوز هم نمیداند. این ابزار جدید هیچ سرنخی از چگونگی انجام این کار ارائه نمیدهد. اگر چیزی مانند «بیمار عمیق» قرار است واقعاً به پزشکان کمک کند، در حالت ایدهآل باید منطق پیشبینی خود را به آنها ارائه دهد تا به آنها اطمینان دهد که دقیق است و برای مثال، تغییر در داروهای تجویز شده برای کسی را توجیه کند. دادلی با تأسف میگوید: «ما میتوانیم این مدلها را بسازیم، اما نمیدانیم چگونه کار میکنند.»
هوش مصنوعی همیشه اینگونه نبوده است. از همان ابتدا، دو مکتب فکری در مورد اینکه هوش مصنوعی چقدر باید قابل فهم یا قابل توضیح باشد، وجود داشت. بسیاری فکر میکردند منطقیترین کار ساخت ماشینهایی است که بر اساس قوانین و منطق استدلال میکنند و عملکرد درونی آنها برای هر کسی که بخواهد کدی را بررسی کند، شفاف است. دیگران احساس میکردند که اگر ماشینها از زیستشناسی الهام بگیرند و با مشاهده و تجربه یاد بگیرند، هوش راحتتر پدیدار خواهد شد. این به معنای زیر و رو کردن برنامهنویسی کامپیوتر بود. به جای اینکه یک برنامهنویس دستورات حل یک مسئله را بنویسد، برنامه الگوریتم خود را بر اساس دادههای نمونه و یک خروجی مطلوب تولید میکند. تکنیکهای یادگیری ماشین که بعدها به قدرتمندترین سیستمهای هوش مصنوعی امروزی تبدیل شدند، مسیر دوم را دنبال کردند: ماشین اساساً خودش را برنامهنویسی میکند.
در ابتدا این رویکرد کاربرد عملی محدودی داشت و در دهههای ۱۹۶۰ و ۱۹۷۰ عمدتاً در حاشیه این حوزه باقی ماند. سپس کامپیوتری شدن بسیاری از صنایع و ظهور مجموعه دادههای بزرگ، علاقه را دوباره برانگیخت. این امر الهامبخش توسعه تکنیکهای قدرتمندتر یادگیری ماشین، به ویژه نسخههای جدیدی از یک تکنیک معروف به «شبکه عصبی مصنوعی» (artificial neural network) شد. تا دهه ۱۹۹۰، شبکههای عصبی میتوانستند به طور خودکار کاراکترهای دستنویس را دیجیتالی کنند.
اما تا اوایل این دهه، پس از چندین اصلاح و ترفند هوشمندانه، شبکههای عصبی بسیار بزرگ—یا «عمیق»—بهبودهای چشمگیری در ادراک خودکار نشان دادند. یادگیری عمیق مسئول انفجار امروزی هوش مصنوعی است. این تکنیک به کامپیوترها قدرتهای خارقالعادهای داده است، مانند توانایی تشخیص کلمات گفتاری تقریباً به خوبی یک انسان، مهارتی که برنامهنویسی دستی آن در ماشین بسیار پیچیده است. یادگیری عمیق، بینایی کامپیوتری را متحول کرده و ترجمه ماشینی را به طور چشمگیری بهبود بخشیده است. اکنون از آن برای هدایت انواع تصمیمات کلیدی در پزشکی، مالی، تولید—و فراتر از آن استفاده میشود.
آدام فریس
عملکرد هر فناوری یادگیری ماشین ذاتاً، حتی برای دانشمندان کامپیوتر، نسبت به یک سیستم کدنویسی شده دستی، مبهمتر است. این بدان معنا نیست که همه تکنیکهای هوش مصنوعی آینده به یک اندازه ناشناخته خواهند بود. اما یادگیری عمیق به دلیل ماهیت خود، یک جعبه سیاه بهویژه تاریک است.
شما نمیتوانید فقط به داخل یک شبکه عصبی عمیق نگاه کنید تا ببینید چگونه کار میکند. استدلال یک شبکه در رفتار هزاران نورون شبیهسازیشده که در دهها یا حتی صدها لایه با اتصالات پیچیده به هم چیده شدهاند، نهفته است. نورونهای لایه اول هر کدام یک ورودی دریافت میکنند، مانند شدت یک پیکسل در یک تصویر، و سپس یک محاسبه انجام میدهند قبل از اینکه یک سیگنال جدید خروجی دهند. این خروجیها در یک وب پیچیده به نورونهای لایه بعدی تغذیه میشوند و این روند ادامه مییابد تا یک خروجی کلی تولید شود. علاوه بر این، فرآیندی به نام «پسانتشار» (back-propagation) وجود دارد که محاسبات نورونهای فردی را به گونهای تنظیم میکند که به شبکه اجازه میدهد یاد بگیرد خروجی مطلوب را تولید کند.
لایههای متعدد در یک شبکه عمیق به آن امکان میدهند تا چیزها را در سطوح مختلف انتزاع تشخیص دهد. به عنوان مثال، در سیستمی که برای تشخیص سگها طراحی شده است، لایههای پایینتر چیزهای سادهای مانند خطوط کلی یا رنگ را تشخیص میدهند؛ لایههای بالاتر موارد پیچیدهتری مانند پشم یا چشم را تشخیص میدهند؛ و بالاترین لایه همه اینها را به عنوان یک سگ شناسایی میکند. همین رویکرد را میتوان، به طور تقریبی، برای ورودیهای دیگری که ماشین را به خودآموزی وامیدارند، به کار برد: صداهایی که کلمات را در گفتار تشکیل میدهند، حروف و کلماتی که جملات را در متن ایجاد میکنند، یا حرکات فرمانی که برای رانندگی لازم است.
«ممکن است بخشی از ماهیت هوش این باشد که تنها قسمتی از آن در معرض توضیح عقلانی قرار گیرد. بخشی از آن صرفاً غریزی است.»
استراتژیهای هوشمندانهای برای تلاش جهت ثبت و در نتیجه توضیح دقیقتر آنچه در چنین سیستمهایی اتفاق میافتد، به کار گرفته شده است. در سال ۲۰۱۵، محققان گوگل یک الگوریتم تشخیص تصویر مبتنی بر یادگیری عمیق را به گونهای تغییر دادند که به جای تشخیص اشیاء در عکسها، آنها را تولید یا اصلاح کند. با اجرای معکوس الگوریتم، آنها توانستند ویژگیهایی را که برنامه برای تشخیص، مثلاً، یک پرنده یا یک ساختمان استفاده میکند، کشف کنند. تصاویر حاصل، که توسط پروژهای به نام Deep Dream تولید شدند، حیوانات عجیب و غریب و بیگانه مانندی را نشان میدادند که از ابرها و گیاهان بیرون میآمدند و پاگوداهای توهمزایی که در جنگلها و رشتهکوهها شکوفا میشدند. این تصاویر ثابت کردند که یادگیری عمیق لزوماً کاملاً غیرقابل درک نیست؛ آنها نشان دادند که الگوریتمها روی ویژگیهای بصری آشنا مانند منقار یا پرهای پرنده تمرکز میکنند. اما این تصاویر همچنین به این اشاره داشتند که یادگیری عمیق چقدر با ادراک انسان متفاوت است، به این معنا که ممکن است از یک مصنوع (artifact) چیزی بسازد که ما میدانیم باید آن را نادیده بگیریم. محققان گوگل خاطرنشان کردند که وقتی الگوریتم آنها تصاویری از یک دمبل تولید میکرد، یک بازوی انسانی را نیز در حال نگه داشتن آن تولید میکرد. ماشین به این نتیجه رسیده بود که بازو بخشی از آن شیء است.
پیشرفتهای بیشتری با استفاده از ایدههای برگرفته از علوم اعصاب و علوم شناختی حاصل شده است. تیمی به رهبری جف کلون (Jeff Clune)، استادیار دانشگاه وایومینگ، از معادل هوش مصنوعی خطاهای دید برای آزمایش شبکههای عصبی عمیق استفاده کرده است. در سال ۲۰۱۵، گروه کلون نشان دادند که چگونه تصاویر خاصی میتوانند یک شبکه عصبی را فریب دهند تا چیزهایی را که وجود ندارند درک کند، زیرا این تصاویر از الگوهای سطح پایینی که سیستم به دنبال آنها میگردد، سوءاستفاده میکنند. یکی از همکاران کلون، جیسون یوسینسکی (Jason Yosinski)، همچنین ابزاری ساخته است که مانند یک پروب (probe) فرو رفته در مغز عمل میکند. ابزار او هر نورونی را در وسط شبکه هدف قرار میدهد و به دنبال تصویری میگردد که آن را بیش از همه فعال کند. تصاویری که ظاهر میشوند انتزاعی هستند (یک برداشت امپرسیونیستی از یک فلامینگو یا یک اتوبوس مدرسه را تصور کنید)، که بر ماهیت مرموز تواناییهای ادراکی ماشین تأکید میکند.
این شبکه عصبی مصنوعی اولیه، در آزمایشگاه هوانوردی کرنل در بوفالو، نیویورک، حدود سال ۱۹۶۰، ورودیها را از حسگرهای نوری پردازش میکرد.فریس با الهام از این، شبکه عصبی مصنوعی کرنل را از طریق Deep Dream پردازش کرد و تصاویر بالا و پایین را تولید نمود.آدام فریس
ما به چیزی بیش از یک نگاه اجمالی به تفکر هوش مصنوعی نیاز داریم، و راهحل آسانی وجود ندارد. این تعامل محاسبات در داخل یک شبکه عصبی عمیق است که برای تشخیص الگوی سطح بالا و تصمیمگیری پیچیده حیاتی است، اما این محاسبات باتلاقی از توابع و متغیرهای ریاضی هستند. جاکولا میگوید: «اگر یک شبکه عصبی بسیار کوچک داشتید، شاید میتوانستید آن را بفهمید. اما وقتی بسیار بزرگ میشود و هزاران واحد در هر لایه و شاید صدها لایه دارد، آنگاه کاملاً غیرقابل درک میشود.»
در دفتر کناری جاکولا، رجینا بارزیلای (Regina Barzilay) قرار دارد، استاد MIT که مصمم است یادگیری ماشین را در پزشکی به کار گیرد. او چند سال پیش در سن ۴۳ سالگی به سرطان سینه مبتلا شد. این تشخیص به خودی خود تکاندهنده بود، اما بارزیلای همچنین از اینکه روشهای آماری و یادگیری ماشین پیشرفته برای کمک به تحقیقات انکولوژی یا هدایت درمان بیماران استفاده نمیشد، ناامید شده بود. او میگوید هوش مصنوعی پتانسیل عظیمی برای ایجاد انقلاب در پزشکی دارد، اما تحقق این پتانسیل به معنای فراتر رفتن از سوابق پزشکی است. او استفاده بیشتر از دادههای خامی را که به گفته او در حال حاضر کمتر مورد استفاده قرار میگیرند، در نظر دارد: «دادههای تصویربرداری، دادههای آسیبشناسی، همه این اطلاعات.»
چقدر میتوانیم با ماشینهایی که غیرقابل پیشبینی و غیرقابل درک هستند، کنار بیاییم؟
پس از پایان درمان سرطان در سال گذشته، بارزیلای و دانشجویانش شروع به همکاری با پزشکان بیمارستان عمومی ماساچوست کردند تا سیستمی را توسعه دهند که قادر به کاوش گزارشهای آسیبشناسی برای شناسایی بیمارانی با ویژگیهای بالینی خاص باشد که محققان ممکن است بخواهند آنها را مطالعه کنند. با این حال، بارزیلای درک کرد که سیستم باید بتواند استدلال خود را توضیح دهد. بنابراین، او به همراه جاکولا و یک دانشجو، یک مرحله اضافه کرد: سیستم قطعاتی از متن را که نماینده الگویی است که کشف کرده، استخراج و برجسته میکند. بارزیلای و دانشجویانش همچنین در حال توسعه یک الگوریتم یادگیری عمیق هستند که قادر به یافتن علائم اولیه سرطان سینه در تصاویر ماموگرافی است، و هدفشان این است که به این سیستم نیز توانایی توضیح استدلال خود را بدهند. بارزیلای میگوید: «شما واقعاً به یک حلقه نیاز دارید که در آن ماشین و انسان با هم همکاری کنند.»
ارتش ایالات متحده میلیاردها دلار را صرف پروژههایی میکند که از یادگیری ماشین برای هدایت وسایل نقلیه و هواپیماها، شناسایی اهداف و کمک به تحلیلگران برای بررسی حجم عظیمی از دادههای اطلاعاتی استفاده خواهند کرد. در اینجا بیش از هر جای دیگر، حتی بیش از پزشکی، فضای کمی برای رمز و راز الگوریتمی وجود دارد و وزارت دفاع، «قابلیت توضیح» (explainability) را به عنوان یک مانع کلیدی شناسایی کرده است.
دیوید گانینگ (David Gunning)، مدیر برنامه در آژانس پروژههای تحقیقاتی پیشرفته دفاعی (DARPA)، بر برنامه موسوم به «هوش مصنوعی قابل توضیح» (Explainable Artificial Intelligence) نظارت میکند. گانینگ، کهنهکار مو نقرهای آژانس که قبلاً بر پروژه دارپا که در نهایت به ایجاد سیری (Siri) منجر شد، نظارت داشت، میگوید اتوماسیون در حال نفوذ به حوزههای بیشماری از ارتش است. تحلیلگران اطلاعاتی در حال آزمایش یادگیری ماشین به عنوان راهی برای شناسایی الگوها در حجم عظیمی از دادههای نظارتی هستند. بسیاری از وسایل نقلیه زمینی و هواپیماهای خودران در حال توسعه و آزمایش هستند. اما سربازان احتمالاً در یک تانک رباتیک که خود را برایشان توضیح ندهد، احساس راحتی نخواهند کرد و تحلیلگران تمایلی به اقدام بر اساس اطلاعات بدون داشتن استدلال نخواهند داشت. گانینگ میگوید: «اغلب ماهیت این سیستمهای یادگیری ماشین به گونهای است که هشدارهای کاذب زیادی تولید میکنند، بنابراین یک تحلیلگر اطلاعاتی واقعاً به کمک اضافی برای درک اینکه چرا یک توصیه ارائه شده است، نیاز دارد.»
در ماه مارس، دارپا ۱۳ پروژه از دانشگاه و صنعت را برای تأمین مالی تحت برنامه گانینگ انتخاب کرد. برخی از آنها میتوانند بر اساس کارهای به رهبری کارلوس گسترین (Carlos Guestrin)، استاد دانشگاه واشنگتن، بنا شوند. او و همکارانش راهی برای سیستمهای یادگیری ماشین ایجاد کردهاند تا برای خروجیهای خود یک منطق ارائه دهند. اساساً، تحت این روش، یک کامپیوتر به طور خودکار چند نمونه از یک مجموعه داده را پیدا کرده و آنها را در یک توضیح کوتاه ارائه میدهد. به عنوان مثال، سیستمی که برای طبقهبندی یک ایمیل به عنوان پیام یک تروریست طراحی شده، ممکن است از میلیونها پیام در آموزش و تصمیمگیری خود استفاده کند. اما با استفاده از رویکرد تیم واشنگتن، میتواند کلمات کلیدی خاصی را که در یک پیام یافت شده، برجسته کند. گروه گسترین همچنین راههایی برای سیستمهای تشخیص تصویر ابداع کردهاند تا با برجسته کردن بخشهایی از تصویر که بیشترین اهمیت را داشتهاند، به استدلال خود اشاره کنند.
یکی از معایب این رویکرد و رویکردهای مشابه، مانند رویکرد بارزیلای، این است که توضیحات ارائه شده همیشه سادهسازی شده خواهند بود، به این معنی که ممکن است برخی اطلاعات حیاتی در این مسیر از بین بروند. گسترین میگوید: «ما به رؤیای کامل نرسیدهایم، جایی که هوش مصنوعی با شما گفتگو میکند و قادر به توضیح دادن است. ما راه درازی تا داشتن هوش مصنوعی واقعاً قابل تفسیر در پیش داریم.»
لازم نیست که وضعیت پرمخاطرهای مانند تشخیص سرطان یا مانورهای نظامی باشد تا این موضوع به یک مشکل تبدیل شود. دانستن استدلال هوش مصنوعی همچنین برای تبدیل شدن این فناوری به بخشی رایج و مفید از زندگی روزمره ما حیاتی خواهد بود. تام گروبر (Tom Gruber)، که سرپرستی تیم سیری در اپل را بر عهده دارد، میگوید قابلیت توضیح یک ملاحظه کلیدی برای تیم اوست، زیرا آنها در تلاشند تا سیری را به یک دستیار مجازی هوشمندتر و تواناتر تبدیل کنند. گروبر در مورد برنامههای آینده سیری صحبت نکرد، اما به راحتی میتوان تصور کرد که اگر یک توصیه رستوران از سیری دریافت کنید، میخواهید بدانید منطق آن چه بوده است. روسلان سالاخوتدینوف (Ruslan Salakhutdinov)، مدیر تحقیقات هوش مصنوعی در اپل و دانشیار دانشگاه کارنگی ملون، قابلیت توضیح را هسته اصلی رابطه در حال تحول بین انسان و ماشینهای هوشمند میداند. او میگوید: «این امر باعث ایجاد اعتماد خواهد شد.»
داستان مرتبطبعدی را بخوانید ماشینهایی که واقعاً زبان را بفهمند فوقالعاده مفید خواهند بود. اما ما نمیدانیم چگونه آنها را بسازیم.
همانطور که بسیاری از جنبههای رفتار انسان را نمیتوان به تفصیل توضیح داد، شاید برای هوش مصنوعی نیز ممکن نباشد که هر کاری را که انجام میدهد توضیح دهد. کلون از دانشگاه وایومینگ میگوید: «حتی اگر کسی بتواند برای اعمال خود یک توضیح منطقی به شما بدهد، احتمالاً ناقص است و همین امر میتواند در مورد هوش مصنوعی نیز صادق باشد. ممکن است بخشی از ماهیت هوش این باشد که تنها قسمتی از آن در معرض توضیح عقلانی قرار گیرد. بخشی از آن صرفاً غریزی، یا ناخودآگاه، یا غیرقابل درک است.»
اگر چنین باشد، پس در مرحلهای ممکن است مجبور شویم به سادگی به قضاوت هوش مصنوعی اعتماد کنیم یا از استفاده از آن صرف نظر کنیم. به همین ترتیب، آن قضاوت باید هوش اجتماعی را نیز در بر گیرد. همانطور که جامعه بر اساس یک قرارداد از رفتار مورد انتظار بنا شده است، ما نیز باید سیستمهای هوش مصنوعی را طوری طراحی کنیم که به هنجارهای اجتماعی ما احترام بگذارند و با آنها سازگار باشند. اگر قرار است تانکهای رباتیک و دیگر ماشینهای کشتار بسازیم، مهم است که تصمیمگیری آنها با قضاوتهای اخلاقی ما سازگار باشد.
برای بررسی این مفاهیم متافیزیکی، به دانشگاه تافتس (Tufts University) رفتم تا با دنیل دنت (Daniel Dennett)، فیلسوف و دانشمند شناختی مشهور که در مورد آگاهی و ذهن مطالعه میکند، ملاقات کنم. فصلی از آخرین کتاب دنت، «از باکتری تا باخ و بازگشت» (From Bacteria to Bach and Back)، رسالهای دایرةالمعارفی در مورد آگاهی، نشان میدهد که بخشی طبیعی از تکامل خود هوش، ایجاد سیستمهایی است که قادر به انجام کارهایی هستند که خالقانشان نمیدانند چگونه انجام دهند. او در دفتر کار شلوغش در محوطه سرسبز دانشگاه به من میگوید: «سؤال این است که برای انجام عاقلانه این کار چه سازگاریهایی باید ایجاد کنیم—چه استانداردهایی را از آنها و از خودمان مطالبه کنیم؟»
او همچنین یک کلمه هشدار در مورد تلاش برای قابلیت توضیح دارد. او میگوید: «من فکر میکنم اگر قرار است از این چیزها استفاده کنیم و به آنها تکیه کنیم، به هر وسیلهای که شده باید درک کاملی از چگونگی و چرایی پاسخهایی که به ما میدهند، به دست آوریم.» اما از آنجایی که ممکن است پاسخ کاملی وجود نداشته باشد، باید همانقدر که به توضیحات یکدیگر محتاط هستیم، به توضیحات هوش مصنوعی نیز محتاط باشیم—مهم نیست که یک ماشین چقدر باهوش به نظر برسد. او میگوید: «اگر [این هوش مصنوعی] نتواند بهتر از ما در توضیح کاری که انجام میدهد عمل کند، به آن اعتماد نکنید.»
نوشته شده در Mysterious Machines
This story was part of our May/June 2017 issue.
این مقاله چقدر مفید بود؟ با کلیک روی ستاره ها رتبه بده تا بدونیم چه مدل مقالاتی بنویسیم...
میانگین امتیاز / 5. تعداد آراء:
این مقاله چقدر مفید بود؟ با کلیک روی ستاره ها رتبه بده تا بدونیم چه مدل مقالاتی بنویسیم...
برای ارسال نظر لطفا ابتدا ثبتنام کنید یا وارد شوید.