راز تاریک در قلب هوش مصنوعی

راز تاریک در قلب هوش مصنوعی
()

هیچ‌کس واقعاً نمی‌داند پیشرفته‌ترین الگوریتم‌ها چگونه کار می‌کنند. این می‌تواند یک مشکل باشد.

سال گذشته، یک خودروی خودران عجیب در جاده‌های خلوت شهرستان مونماوث، نیوجرسی، به حرکت درآمد. این وسیله نقلیه آزمایشی که توسط محققان شرکت تراشه‌سازی انویدیا (Nvidia) توسعه یافته بود، از نظر ظاهری تفاوتی با سایر خودروهای خودران نداشت، اما با هر چیزی که گوگل، تسلا یا جنرال موتورز به نمایش گذاشته بودند، متفاوت بود و قدرت روزافزون هوش مصنوعی را به رخ می‌کشید. این خودرو از هیچ دستورالعمل واحدی که توسط یک مهندس یا برنامه‌نویس ارائه شده باشد، پیروی نمی‌کرد. در عوض، کاملاً به الگوریتمی متکی بود که با تماشای یک انسان در حال رانندگی، به خود رانندگی را آموخته بود.

وادار کردن یک خودرو به رانندگی به این شیوه، یک شاهکار چشمگیر بود. اما در عین حال کمی نگران‌کننده است، زیرا کاملاً مشخص نیست که خودرو چگونه تصمیمات خود را می‌گیرد. اطلاعات از حسگرهای وسیله نقلیه مستقیماً به یک شبکه عظیم از نورون‌های مصنوعی وارد می‌شود که داده‌ها را پردازش کرده و سپس دستورات لازم برای کنترل فرمان، ترمزها و سایر سیستم‌ها را صادر می‌کند. نتیجه به نظر می‌رسد با واکنش‌هایی که از یک راننده انسانی انتظار می‌رود، مطابقت دارد. اما چه می‌شود اگر روزی کاری غیرمنتظره انجام دهد—به درختی بکوبد یا پشت چراغ سبز توقف کند؟ در حال حاضر، ممکن است یافتن علت آن دشوار باشد. این سیستم آنقدر پیچیده است که حتی مهندسانی که آن را طراحی کرده‌اند ممکن است برای جدا کردن دلیل یک اقدام خاص، با مشکل مواجه شوند. و شما نمی‌توانید از آن بپرسید: هیچ راه روشنی برای طراحی چنین سیستمی وجود ندارد که بتواند همیشه توضیح دهد چرا کاری را انجام داده است.

ذهن مرموز این وسیله نقلیه به یک مسئله قریب‌الوقوع در حوزه هوش مصنوعی اشاره دارد. فناوری هوش مصنوعی زیربنایی این خودرو، که با نام «یادگیری عمیق» (deep learning) شناخته می‌شود، در سال‌های اخیر در حل مسائل بسیار قدرتمند عمل کرده و به طور گسترده برای کارهایی مانند تولید زیرنویس برای تصاویر، تشخیص صدا و ترجمه زبان به کار گرفته شده است. اکنون این امید وجود دارد که همین تکنیک‌ها بتوانند بیماری‌های کشنده را تشخیص دهند، تصمیمات تجاری میلیون دلاری بگیرند و کارهای بی‌شمار دیگری برای تحول کل صنایع انجام دهند.

اما این اتفاق نخواهد افتاد—یا نباید بیفتد—مگر اینکه راه‌هایی برای قابل فهم‌تر کردن تکنیک‌هایی مانند یادگیری عمیق برای خالقانشان و پاسخگو کردن آن‌ها در برابر کاربرانشان پیدا کنیم. در غیر این صورت، پیش‌بینی زمان وقوع شکست‌ها دشوار خواهد بود—و وقوع آن‌ها اجتناب‌ناپذیر است. این یکی از دلایلی است که خودروی انویدیا هنوز در مرحله آزمایشی قرار دارد.

در حال حاضر، از مدل‌های ریاضی برای کمک به تصمیم‌گیری در مورد اینکه چه کسی آزادی مشروط بگیرد، چه کسی برای وام تأیید شود و چه کسی برای یک شغل استخدام شود، استفاده می‌شود. اگر بتوانید به این مدل‌های ریاضی دسترسی پیدا کنید، درک استدلال آن‌ها ممکن خواهد بود. اما بانک‌ها، ارتش، کارفرمایان و دیگران اکنون توجه خود را به رویکردهای پیچیده‌تر یادگیری ماشین معطوف کرده‌اند که می‌تواند تصمیم‌گیری خودکار را کاملاً غیرقابل درک کند. یادگیری عمیق، رایج‌ترین این رویکردها، نمایانگر یک روش اساساً متفاوت برای برنامه‌نویسی کامپیوترهاست. تامی جاکولا (Tommi Jaakkola)، استاد دانشگاه MIT که روی کاربردهای یادگیری ماشین کار می‌کند، می‌گوید: «این مشکلی است که از هم‌اکنون مطرح است و در آینده بسیار مطرح‌تر خواهد شد. چه یک تصمیم سرمایه‌گذاری باشد، چه یک تصمیم پزشکی یا شاید یک تصمیم نظامی، شما نمی‌خواهید صرفاً به یک روش “جعبه سیاه” (black box) تکیه کنید.»

از هم‌اکنون این استدلال وجود دارد که توانایی بازجویی از یک سیستم هوش مصنوعی در مورد چگونگی رسیدن به نتایجش، یک حق قانونی اساسی است. از تابستان ۲۰۱۸، اتحادیه اروپا ممکن است شرکت‌ها را ملزم کند که بتوانند به کاربران برای تصمیماتی که سیستم‌های خودکار می‌گیرند، توضیحی ارائه دهند. این امر ممکن است حتی برای سیستم‌هایی که در ظاهر نسبتاً ساده به نظر می‌رسند، مانند اپلیکیشن‌ها و وب‌سایت‌هایی که از یادگیری عمیق برای نمایش تبلیغات یا پیشنهاد آهنگ استفاده می‌کنند، غیرممکن باشد. کامپیوترهایی که این سرویس‌ها را اجرا می‌کنند، خودشان را برنامه‌نویسی کرده‌اند و این کار را به روش‌هایی انجام داده‌اند که ما نمی‌توانیم درک کنیم. حتی مهندسانی که این اپلیکیشن‌ها را می‌سازند، نمی‌توانند رفتار آن‌ها را به طور کامل توضیح دهند.

این موضوع پرسش‌های سرگیجه‌آوری را مطرح می‌کند. با پیشرفت این فناوری، ممکن است به زودی از آستانه‌ای عبور کنیم که پس از آن، استفاده از هوش مصنوعی نیازمند یک پذیرش کورکورانه (leap of faith) باشد. البته، ما انسان‌ها نیز همیشه نمی‌توانیم فرآیندهای فکری خود را واقعاً توضیح دهیم—اما راه‌هایی برای اعتماد و سنجش شهودی افراد پیدا می‌کنیم. آیا این امر در مورد ماشین‌هایی که متفاوت از انسان‌ها فکر و تصمیم‌گیری می‌کنند نیز ممکن خواهد بود؟ ما قبلاً هرگز ماشین‌هایی نساخته‌ایم که به روش‌هایی عمل کنند که خالقانشان آن‌ها را درک نمی‌کنند. چقدر می‌توانیم انتظار داشته باشیم با ماشین‌های هوشمندی که می‌توانند غیرقابل پیش‌بینی و غیرقابل درک باشند، ارتباط برقرار کرده و کنار بیاییم؟ این پرسش‌ها مرا به سفری به لبه علم در تحقیقات الگوریتم‌های هوش مصنوعی، از گوگل تا اپل و بسیاری از مکان‌های دیگر، از جمله ملاقاتی با یکی از فیلسوفان بزرگ زمان ما، کشاند.

هنرمند، آدام فریس (Adam Ferriss)، این تصویر و تصویر پایین را با استفاده از Google Deep Dream، برنامه‌ای که یک تصویر را برای تحریک قابلیت‌های تشخیص الگوی یک شبکه عصبی عمیق تنظیم می‌کند، خلق کرده است. این تصاویر با استفاده از یک لایه میانی شبکه عصبی تولید شده‌اند. آدام فریس

در سال ۲۰۱۵، یک گروه تحقیقاتی در بیمارستان ماونت ساینای (Mount Sinai) در نیویورک، الهام گرفتند تا یادگیری عمیق را روی پایگاه داده عظیم سوابق بیماران بیمارستان به کار گیرند. این مجموعه داده شامل صدها متغیر درباره بیماران است که از نتایج آزمایش‌ها، ویزیت‌های پزشک و غیره آن‌ها استخراج شده است. برنامه حاصل که محققان آن را «بیمار عمیق» (Deep Patient) نامیدند، با استفاده از داده‌های حدود ۷۰۰,۰۰۰ نفر آموزش دید و هنگامی که روی سوابق جدید آزمایش شد، در پیش‌بینی بیماری‌ها فوق‌العاده خوب عمل کرد. بدون هیچ‌گونه آموزش تخصصی، «بیمار عمیق» الگوهای پنهان در داده‌های بیمارستان را کشف کرده بود که به نظر می‌رسید نشان‌دهنده زمان ابتلای افراد به طیف وسیعی از بیماری‌ها، از جمله سرطان کبد، بود. جوئل دادلی (Joel Dudley)، که سرپرستی تیم ماونت ساینای را بر عهده دارد، می‌گوید روش‌های زیادی وجود دارند که در پیش‌بینی بیماری از روی سوابق بیمار «نسبتاً خوب» عمل می‌کنند. اما او اضافه می‌کند: «این یکی просто خیلی بهتر بود.»

«ما می‌توانیم این مدل‌ها را بسازیم، اما نمی‌دانیم چگونه کار می‌کنند.»

در عین حال، «بیمار عمیق» کمی گیج‌کننده است. به نظر می‌رسد که شروع اختلالات روانپزشکی مانند اسکیزوفرنی را به طرز شگفت‌آوری خوب پیش‌بینی می‌کند. اما از آنجایی که پیش‌بینی اسکیزوفرنی برای پزشکان به طور بدنامی دشوار است، دادلی از خود می‌پرسید که این چگونه ممکن است. او هنوز هم نمی‌داند. این ابزار جدید هیچ سرنخی از چگونگی انجام این کار ارائه نمی‌دهد. اگر چیزی مانند «بیمار عمیق» قرار است واقعاً به پزشکان کمک کند، در حالت ایده‌آل باید منطق پیش‌بینی خود را به آن‌ها ارائه دهد تا به آن‌ها اطمینان دهد که دقیق است و برای مثال، تغییر در داروهای تجویز شده برای کسی را توجیه کند. دادلی با تأسف می‌گوید: «ما می‌توانیم این مدل‌ها را بسازیم، اما نمی‌دانیم چگونه کار می‌کنند.»

هوش مصنوعی همیشه این‌گونه نبوده است. از همان ابتدا، دو مکتب فکری در مورد اینکه هوش مصنوعی چقدر باید قابل فهم یا قابل توضیح باشد، وجود داشت. بسیاری فکر می‌کردند منطقی‌ترین کار ساخت ماشین‌هایی است که بر اساس قوانین و منطق استدلال می‌کنند و عملکرد درونی آن‌ها برای هر کسی که بخواهد کدی را بررسی کند، شفاف است. دیگران احساس می‌کردند که اگر ماشین‌ها از زیست‌شناسی الهام بگیرند و با مشاهده و تجربه یاد بگیرند، هوش راحت‌تر پدیدار خواهد شد. این به معنای زیر و رو کردن برنامه‌نویسی کامپیوتر بود. به جای اینکه یک برنامه‌نویس دستورات حل یک مسئله را بنویسد، برنامه الگوریتم خود را بر اساس داده‌های نمونه و یک خروجی مطلوب تولید می‌کند. تکنیک‌های یادگیری ماشین که بعدها به قدرتمندترین سیستم‌های هوش مصنوعی امروزی تبدیل شدند، مسیر دوم را دنبال کردند: ماشین اساساً خودش را برنامه‌نویسی می‌کند.

در ابتدا این رویکرد کاربرد عملی محدودی داشت و در دهه‌های ۱۹۶۰ و ۱۹۷۰ عمدتاً در حاشیه این حوزه باقی ماند. سپس کامپیوتری شدن بسیاری از صنایع و ظهور مجموعه داده‌های بزرگ، علاقه را دوباره برانگیخت. این امر الهام‌بخش توسعه تکنیک‌های قدرتمندتر یادگیری ماشین، به ویژه نسخه‌های جدیدی از یک تکنیک معروف به «شبکه عصبی مصنوعی» (artificial neural network) شد. تا دهه ۱۹۹۰، شبکه‌های عصبی می‌توانستند به طور خودکار کاراکترهای دست‌نویس را دیجیتالی کنند.

اما تا اوایل این دهه، پس از چندین اصلاح و ترفند هوشمندانه، شبکه‌های عصبی بسیار بزرگ—یا «عمیق»—بهبودهای چشمگیری در ادراک خودکار نشان دادند. یادگیری عمیق مسئول انفجار امروزی هوش مصنوعی است. این تکنیک به کامپیوترها قدرت‌های خارق‌العاده‌ای داده است، مانند توانایی تشخیص کلمات گفتاری تقریباً به خوبی یک انسان، مهارتی که برنامه‌نویسی دستی آن در ماشین بسیار پیچیده است. یادگیری عمیق، بینایی کامپیوتری را متحول کرده و ترجمه ماشینی را به طور چشمگیری بهبود بخشیده است. اکنون از آن برای هدایت انواع تصمیمات کلیدی در پزشکی، مالی، تولید—و فراتر از آن استفاده می‌شود.

آدام فریس

عملکرد هر فناوری یادگیری ماشین ذاتاً، حتی برای دانشمندان کامپیوتر، نسبت به یک سیستم کدنویسی شده دستی، مبهم‌تر است. این بدان معنا نیست که همه تکنیک‌های هوش مصنوعی آینده به یک اندازه ناشناخته خواهند بود. اما یادگیری عمیق به دلیل ماهیت خود، یک جعبه سیاه به‌ویژه تاریک است.

شما نمی‌توانید فقط به داخل یک شبکه عصبی عمیق نگاه کنید تا ببینید چگونه کار می‌کند. استدلال یک شبکه در رفتار هزاران نورون شبیه‌سازی‌شده که در ده‌ها یا حتی صدها لایه با اتصالات پیچیده به هم چیده شده‌اند، نهفته است. نورون‌های لایه اول هر کدام یک ورودی دریافت می‌کنند، مانند شدت یک پیکسل در یک تصویر، و سپس یک محاسبه انجام می‌دهند قبل از اینکه یک سیگنال جدید خروجی دهند. این خروجی‌ها در یک وب پیچیده به نورون‌های لایه بعدی تغذیه می‌شوند و این روند ادامه می‌یابد تا یک خروجی کلی تولید شود. علاوه بر این، فرآیندی به نام «پس‌انتشار» (back-propagation) وجود دارد که محاسبات نورون‌های فردی را به گونه‌ای تنظیم می‌کند که به شبکه اجازه می‌دهد یاد بگیرد خروجی مطلوب را تولید کند.

لایه‌های متعدد در یک شبکه عمیق به آن امکان می‌دهند تا چیزها را در سطوح مختلف انتزاع تشخیص دهد. به عنوان مثال، در سیستمی که برای تشخیص سگ‌ها طراحی شده است، لایه‌های پایین‌تر چیزهای ساده‌ای مانند خطوط کلی یا رنگ را تشخیص می‌دهند؛ لایه‌های بالاتر موارد پیچیده‌تری مانند پشم یا چشم را تشخیص می‌دهند؛ و بالاترین لایه همه این‌ها را به عنوان یک سگ شناسایی می‌کند. همین رویکرد را می‌توان، به طور تقریبی، برای ورودی‌های دیگری که ماشین را به خودآموزی وامی‌دارند، به کار برد: صداهایی که کلمات را در گفتار تشکیل می‌دهند، حروف و کلماتی که جملات را در متن ایجاد می‌کنند، یا حرکات فرمانی که برای رانندگی لازم است.

«ممکن است بخشی از ماهیت هوش این باشد که تنها قسمتی از آن در معرض توضیح عقلانی قرار گیرد. بخشی از آن صرفاً غریزی است.»

استراتژی‌های هوشمندانه‌ای برای تلاش جهت ثبت و در نتیجه توضیح دقیق‌تر آنچه در چنین سیستم‌هایی اتفاق می‌افتد، به کار گرفته شده است. در سال ۲۰۱۵، محققان گوگل یک الگوریتم تشخیص تصویر مبتنی بر یادگیری عمیق را به گونه‌ای تغییر دادند که به جای تشخیص اشیاء در عکس‌ها، آن‌ها را تولید یا اصلاح کند. با اجرای معکوس الگوریتم، آن‌ها توانستند ویژگی‌هایی را که برنامه برای تشخیص، مثلاً، یک پرنده یا یک ساختمان استفاده می‌کند، کشف کنند. تصاویر حاصل، که توسط پروژه‌ای به نام Deep Dream تولید شدند، حیوانات عجیب و غریب و بیگانه مانندی را نشان می‌دادند که از ابرها و گیاهان بیرون می‌آمدند و پاگوداهای توهم‌زایی که در جنگل‌ها و رشته‌کوه‌ها شکوفا می‌شدند. این تصاویر ثابت کردند که یادگیری عمیق لزوماً کاملاً غیرقابل درک نیست؛ آن‌ها نشان دادند که الگوریتم‌ها روی ویژگی‌های بصری آشنا مانند منقار یا پرهای پرنده تمرکز می‌کنند. اما این تصاویر همچنین به این اشاره داشتند که یادگیری عمیق چقدر با ادراک انسان متفاوت است، به این معنا که ممکن است از یک مصنوع (artifact) چیزی بسازد که ما می‌دانیم باید آن را نادیده بگیریم. محققان گوگل خاطرنشان کردند که وقتی الگوریتم آن‌ها تصاویری از یک دمبل تولید می‌کرد، یک بازوی انسانی را نیز در حال نگه داشتن آن تولید می‌کرد. ماشین به این نتیجه رسیده بود که بازو بخشی از آن شیء است.

پیشرفت‌های بیشتری با استفاده از ایده‌های برگرفته از علوم اعصاب و علوم شناختی حاصل شده است. تیمی به رهبری جف کلون (Jeff Clune)، استادیار دانشگاه وایومینگ، از معادل هوش مصنوعی خطاهای دید برای آزمایش شبکه‌های عصبی عمیق استفاده کرده است. در سال ۲۰۱۵، گروه کلون نشان دادند که چگونه تصاویر خاصی می‌توانند یک شبکه عصبی را فریب دهند تا چیزهایی را که وجود ندارند درک کند، زیرا این تصاویر از الگوهای سطح پایینی که سیستم به دنبال آن‌ها می‌گردد، سوءاستفاده می‌کنند. یکی از همکاران کلون، جیسون یوسینسکی (Jason Yosinski)، همچنین ابزاری ساخته است که مانند یک پروب (probe) فرو رفته در مغز عمل می‌کند. ابزار او هر نورونی را در وسط شبکه هدف قرار می‌دهد و به دنبال تصویری می‌گردد که آن را بیش از همه فعال کند. تصاویری که ظاهر می‌شوند انتزاعی هستند (یک برداشت امپرسیونیستی از یک فلامینگو یا یک اتوبوس مدرسه را تصور کنید)، که بر ماهیت مرموز توانایی‌های ادراکی ماشین تأکید می‌کند.

این شبکه عصبی مصنوعی اولیه، در آزمایشگاه هوانوردی کرنل در بوفالو، نیویورک، حدود سال ۱۹۶۰، ورودی‌ها را از حسگرهای نوری پردازش می‌کرد. فریس با الهام از این، شبکه عصبی مصنوعی کرنل را از طریق Deep Dream پردازش کرد و تصاویر بالا و پایین را تولید نمود. آدام فریس

ما به چیزی بیش از یک نگاه اجمالی به تفکر هوش مصنوعی نیاز داریم، و راه‌حل آسانی وجود ندارد. این تعامل محاسبات در داخل یک شبکه عصبی عمیق است که برای تشخیص الگوی سطح بالا و تصمیم‌گیری پیچیده حیاتی است، اما این محاسبات باتلاقی از توابع و متغیرهای ریاضی هستند. جاکولا می‌گوید: «اگر یک شبکه عصبی بسیار کوچک داشتید، شاید می‌توانستید آن را بفهمید. اما وقتی بسیار بزرگ می‌شود و هزاران واحد در هر لایه و شاید صدها لایه دارد، آنگاه کاملاً غیرقابل درک می‌شود.»

در دفتر کناری جاکولا، رجینا بارزیلای (Regina Barzilay) قرار دارد، استاد MIT که مصمم است یادگیری ماشین را در پزشکی به کار گیرد. او چند سال پیش در سن ۴۳ سالگی به سرطان سینه مبتلا شد. این تشخیص به خودی خود تکان‌دهنده بود، اما بارزیلای همچنین از اینکه روش‌های آماری و یادگیری ماشین پیشرفته برای کمک به تحقیقات انکولوژی یا هدایت درمان بیماران استفاده نمی‌شد، ناامید شده بود. او می‌گوید هوش مصنوعی پتانسیل عظیمی برای ایجاد انقلاب در پزشکی دارد، اما تحقق این پتانسیل به معنای فراتر رفتن از سوابق پزشکی است. او استفاده بیشتر از داده‌های خامی را که به گفته او در حال حاضر کمتر مورد استفاده قرار می‌گیرند، در نظر دارد: «داده‌های تصویربرداری، داده‌های آسیب‌شناسی، همه این اطلاعات.»

چقدر می‌توانیم با ماشین‌هایی که غیرقابل پیش‌بینی و غیرقابل درک هستند، کنار بیاییم؟

پس از پایان درمان سرطان در سال گذشته، بارزیلای و دانشجویانش شروع به همکاری با پزشکان بیمارستان عمومی ماساچوست کردند تا سیستمی را توسعه دهند که قادر به کاوش گزارش‌های آسیب‌شناسی برای شناسایی بیمارانی با ویژگی‌های بالینی خاص باشد که محققان ممکن است بخواهند آن‌ها را مطالعه کنند. با این حال، بارزیلای درک کرد که سیستم باید بتواند استدلال خود را توضیح دهد. بنابراین، او به همراه جاکولا و یک دانشجو، یک مرحله اضافه کرد: سیستم قطعاتی از متن را که نماینده الگویی است که کشف کرده، استخراج و برجسته می‌کند. بارزیلای و دانشجویانش همچنین در حال توسعه یک الگوریتم یادگیری عمیق هستند که قادر به یافتن علائم اولیه سرطان سینه در تصاویر ماموگرافی است، و هدفشان این است که به این سیستم نیز توانایی توضیح استدلال خود را بدهند. بارزیلای می‌گوید: «شما واقعاً به یک حلقه نیاز دارید که در آن ماشین و انسان با هم همکاری کنند.»

ارتش ایالات متحده میلیاردها دلار را صرف پروژه‌هایی می‌کند که از یادگیری ماشین برای هدایت وسایل نقلیه و هواپیماها، شناسایی اهداف و کمک به تحلیلگران برای بررسی حجم عظیمی از داده‌های اطلاعاتی استفاده خواهند کرد. در اینجا بیش از هر جای دیگر، حتی بیش از پزشکی، فضای کمی برای رمز و راز الگوریتمی وجود دارد و وزارت دفاع، «قابلیت توضیح» (explainability) را به عنوان یک مانع کلیدی شناسایی کرده است.

دیوید گانینگ (David Gunning)، مدیر برنامه در آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی (DARPA)، بر برنامه موسوم به «هوش مصنوعی قابل توضیح» (Explainable Artificial Intelligence) نظارت می‌کند. گانینگ، کهنه‌کار مو نقره‌ای آژانس که قبلاً بر پروژه دارپا که در نهایت به ایجاد سیری (Siri) منجر شد، نظارت داشت، می‌گوید اتوماسیون در حال نفوذ به حوزه‌های بی‌شماری از ارتش است. تحلیلگران اطلاعاتی در حال آزمایش یادگیری ماشین به عنوان راهی برای شناسایی الگوها در حجم عظیمی از داده‌های نظارتی هستند. بسیاری از وسایل نقلیه زمینی و هواپیماهای خودران در حال توسعه و آزمایش هستند. اما سربازان احتمالاً در یک تانک رباتیک که خود را برایشان توضیح ندهد، احساس راحتی نخواهند کرد و تحلیلگران تمایلی به اقدام بر اساس اطلاعات بدون داشتن استدلال نخواهند داشت. گانینگ می‌گوید: «اغلب ماهیت این سیستم‌های یادگیری ماشین به گونه‌ای است که هشدارهای کاذب زیادی تولید می‌کنند، بنابراین یک تحلیلگر اطلاعاتی واقعاً به کمک اضافی برای درک اینکه چرا یک توصیه ارائه شده است، نیاز دارد.»

در ماه مارس، دارپا ۱۳ پروژه از دانشگاه و صنعت را برای تأمین مالی تحت برنامه گانینگ انتخاب کرد. برخی از آن‌ها می‌توانند بر اساس کارهای به رهبری کارلوس گسترین (Carlos Guestrin)، استاد دانشگاه واشنگتن، بنا شوند. او و همکارانش راهی برای سیستم‌های یادگیری ماشین ایجاد کرده‌اند تا برای خروجی‌های خود یک منطق ارائه دهند. اساساً، تحت این روش، یک کامپیوتر به طور خودکار چند نمونه از یک مجموعه داده را پیدا کرده و آن‌ها را در یک توضیح کوتاه ارائه می‌دهد. به عنوان مثال، سیستمی که برای طبقه‌بندی یک ایمیل به عنوان پیام یک تروریست طراحی شده، ممکن است از میلیون‌ها پیام در آموزش و تصمیم‌گیری خود استفاده کند. اما با استفاده از رویکرد تیم واشنگتن، می‌تواند کلمات کلیدی خاصی را که در یک پیام یافت شده، برجسته کند. گروه گسترین همچنین راه‌هایی برای سیستم‌های تشخیص تصویر ابداع کرده‌اند تا با برجسته کردن بخش‌هایی از تصویر که بیشترین اهمیت را داشته‌اند، به استدلال خود اشاره کنند.

یکی از معایب این رویکرد و رویکردهای مشابه، مانند رویکرد بارزیلای، این است که توضیحات ارائه شده همیشه ساده‌سازی شده خواهند بود، به این معنی که ممکن است برخی اطلاعات حیاتی در این مسیر از بین بروند. گسترین می‌گوید: «ما به رؤیای کامل نرسیده‌ایم، جایی که هوش مصنوعی با شما گفتگو می‌کند و قادر به توضیح دادن است. ما راه درازی تا داشتن هوش مصنوعی واقعاً قابل تفسیر در پیش داریم.»

لازم نیست که وضعیت پرمخاطره‌ای مانند تشخیص سرطان یا مانورهای نظامی باشد تا این موضوع به یک مشکل تبدیل شود. دانستن استدلال هوش مصنوعی همچنین برای تبدیل شدن این فناوری به بخشی رایج و مفید از زندگی روزمره ما حیاتی خواهد بود. تام گروبر (Tom Gruber)، که سرپرستی تیم سیری در اپل را بر عهده دارد، می‌گوید قابلیت توضیح یک ملاحظه کلیدی برای تیم اوست، زیرا آن‌ها در تلاشند تا سیری را به یک دستیار مجازی هوشمندتر و تواناتر تبدیل کنند. گروبر در مورد برنامه‌های آینده سیری صحبت نکرد، اما به راحتی می‌توان تصور کرد که اگر یک توصیه رستوران از سیری دریافت کنید، می‌خواهید بدانید منطق آن چه بوده است. روسلان سالاخوتدینوف (Ruslan Salakhutdinov)، مدیر تحقیقات هوش مصنوعی در اپل و دانشیار دانشگاه کارنگی ملون، قابلیت توضیح را هسته اصلی رابطه در حال تحول بین انسان و ماشین‌های هوشمند می‌داند. او می‌گوید: «این امر باعث ایجاد اعتماد خواهد شد.»

داستان مرتبط بعدی را بخوانید ماشین‌هایی که واقعاً زبان را بفهمند فوق‌العاده مفید خواهند بود. اما ما نمی‌دانیم چگونه آن‌ها را بسازیم.

همانطور که بسیاری از جنبه‌های رفتار انسان را نمی‌توان به تفصیل توضیح داد، شاید برای هوش مصنوعی نیز ممکن نباشد که هر کاری را که انجام می‌دهد توضیح دهد. کلون از دانشگاه وایومینگ می‌گوید: «حتی اگر کسی بتواند برای اعمال خود یک توضیح منطقی به شما بدهد، احتمالاً ناقص است و همین امر می‌تواند در مورد هوش مصنوعی نیز صادق باشد. ممکن است بخشی از ماهیت هوش این باشد که تنها قسمتی از آن در معرض توضیح عقلانی قرار گیرد. بخشی از آن صرفاً غریزی، یا ناخودآگاه، یا غیرقابل درک است.»

اگر چنین باشد، پس در مرحله‌ای ممکن است مجبور شویم به سادگی به قضاوت هوش مصنوعی اعتماد کنیم یا از استفاده از آن صرف نظر کنیم. به همین ترتیب، آن قضاوت باید هوش اجتماعی را نیز در بر گیرد. همانطور که جامعه بر اساس یک قرارداد از رفتار مورد انتظار بنا شده است، ما نیز باید سیستم‌های هوش مصنوعی را طوری طراحی کنیم که به هنجارهای اجتماعی ما احترام بگذارند و با آن‌ها سازگار باشند. اگر قرار است تانک‌های رباتیک و دیگر ماشین‌های کشتار بسازیم، مهم است که تصمیم‌گیری آن‌ها با قضاوت‌های اخلاقی ما سازگار باشد.

برای بررسی این مفاهیم متافیزیکی، به دانشگاه تافتس (Tufts University) رفتم تا با دنیل دنت (Daniel Dennett)، فیلسوف و دانشمند شناختی مشهور که در مورد آگاهی و ذهن مطالعه می‌کند، ملاقات کنم. فصلی از آخرین کتاب دنت، «از باکتری تا باخ و بازگشت» (From Bacteria to Bach and Back)، رساله‌ای دایرةالمعارفی در مورد آگاهی، نشان می‌دهد که بخشی طبیعی از تکامل خود هوش، ایجاد سیستم‌هایی است که قادر به انجام کارهایی هستند که خالقانشان نمی‌دانند چگونه انجام دهند. او در دفتر کار شلوغش در محوطه سرسبز دانشگاه به من می‌گوید: «سؤال این است که برای انجام عاقلانه این کار چه سازگاری‌هایی باید ایجاد کنیم—چه استانداردهایی را از آن‌ها و از خودمان مطالبه کنیم؟»

او همچنین یک کلمه هشدار در مورد تلاش برای قابلیت توضیح دارد. او می‌گوید: «من فکر می‌کنم اگر قرار است از این چیزها استفاده کنیم و به آن‌ها تکیه کنیم، به هر وسیله‌ای که شده باید درک کاملی از چگونگی و چرایی پاسخ‌هایی که به ما می‌دهند، به دست آوریم.» اما از آنجایی که ممکن است پاسخ کاملی وجود نداشته باشد، باید همانقدر که به توضیحات یکدیگر محتاط هستیم، به توضیحات هوش مصنوعی نیز محتاط باشیم—مهم نیست که یک ماشین چقدر باهوش به نظر برسد. او می‌گوید: «اگر [این هوش مصنوعی] نتواند بهتر از ما در توضیح کاری که انجام می‌دهد عمل کند، به آن اعتماد نکنید.»

نوشته شده در Mysterious Machines

This story was part of our May/June 2017 issue.

این مقاله چقدر مفید بود؟ با کلیک روی ستاره ها رتبه بده تا بدونیم چه مدل مقالاتی بنویسیم...

میانگین امتیاز / 5. تعداد آراء:

این مقاله چقدر مفید بود؟ با کلیک روی ستاره ها رتبه بده تا بدونیم چه مدل مقالاتی بنویسیم...

میانگین امتیاز / 5. تعداد آراء:

پیشنهاد میکنیم این مقالات را هم بخوانید

نظر شما در این مورد چیه؟

ورود | ثبت نام
شماره موبایل خودتان را وارد کنید.

برای ثبت نام یا ورود شماره موبایل خودتان را در فیلد بالا وارد کنید.

چنانچه برای ثبت نام یا ورود مشکل داشتید اینجا کلیک کنید.

برگشت
کد تایید را وارد کنید
کد تایید برای شماره موبایل شما ارسال گردید
ارسال مجدد کد تا دیگر
برگشت
رمز عبور را وارد کنید
رمز عبور حساب کاربری خود را وارد کنید
برگشت
رمز عبور را وارد کنید
رمز عبور حساب کاربری خود را وارد کنید
برگشت
درخواست بازیابی رمز عبور
لطفاً پست الکترونیک یا موبایل خود را وارد نمایید
برگشت
کد تایید را وارد کنید
کد تایید برای شماره موبایل شما ارسال گردید
ارسال مجدد کد تا دیگر
ایمیل بازیابی ارسال شد!
لطفاً به صندوق الکترونیکی خود مراجعه کرده و بر روی لینک ارسال شده کلیک نمایید.
تغییر رمز عبور
یک رمز عبور برای اکانت خود تنظیم کنید
تغییر رمز با موفقیت انجام شد