بخش دوم نشست علمی سیاستگذاری و هوش مصنوعی توضیح‌‌پذیر: ماجرای داده

به گزارش روابط عمومی پژوهشگاه فرهنگ و اندیشه اسلامی، بخش دوم نشست علمی سیاستگذاری و هوش مصنوعی: توضیح‌پذیری با ارائۀ حجت‌الاسلام علیرضا شهبازی (بنیانگذار شرکت برهان) روز شنبه ۱۲ خرداد ۱۴۰۳ به صورت برخط در اتاق جلسات مجازی مرکز رشد پژوهشگاه برگزار شد.

شهبازی با توجه به در جلسه قبل که به ماجرای داده گذشت و سیر تطور برای داده بررسی شد، گفت: در این جلسه به این می‌پردازیم که ماشین‌ها چه راه‌حل‌هایی برای نیازها دارند و به مدل‌های ماشینی و بحث درباره انواع و اقسام استنتاج را خواهیم داشت. مهمترین قسمت در راهکارها تفکیک بین دو بخش توضیح‌پذیر و تفسیرپذیر است.

شهبازی راهکاری قابل ارائه از طرف ماشین را گفت که برای رسیدن به اهدافی چون بازیابی، استنتاج، تناقض‌یابی، بازنویسی و… دو رویکرد در ماشین وجود دارد:

 

تفسیرپذیر: عملکرد ماشینی نیازمند تفسیر فرد خبره است. بر پایه شبکه عصبی است. نیازمند به آموزش شبکه عصبی است.
توضیح‌پذیر: عملکرد ماشینی توسط خود ماشین توضیح داده می‌شود. بر پایه منطق است. نیازمند به مدل‌سازی منطقی است.
رویکرد توضیح‌پذیر ۳۰ سال پیش به وجود آمد اما به خاطر چالش‌هایی که داشت رشد نکرد اما برای برخی مشکلات علوم کامپیوتری کارگشا بود و این شاخه سرانجام از غفلت در آمد و مورد توجه قرار گرفت. این رویکرد توضیح می‌دهد که چرا به یک نتیجه می‌رسد و مانند انسان استنتاج می‌کند.

شهبازی در ادامه با تصویر زیر در صدد برآمد که شبکه عصبی و یادگیری ماشینی را که مدل کارکرد رویکرد توضیح‌پذیر است، تبیین کند:

شهبازی در این راستا فرآیند آموزش ماشین بر اساس شبکۀ عصبی را توضیح داد و گفت: در واقع در فرآیندی دادۀ ورودی دیجیتالایز شده و هرکدام مقادیر عددی مختص خود را می‌گیرد و دادۀ خروجی در قالب ابژه‌های مختلف به دست می‌آید. از داده‌های ورودی و خروجی عددگونه، ضرایبی به دست می‌آید که به مثابه ماتریسی بزرگ از اعداد بوده و هرکدام می‌تواند انبوهی از داده را مدل‌سازی کند.

شهبازی گفت مدل‌های برخاسته از شبکۀ عصبی صرفاً بر پایۀ عدد کار می‌کند؛ بر همین اساس اگر روحی در این شبکه دمیده شود و بخواهد با ما صحبت کند، مشکلات فراوانی دارد؛ از جمله مواردی که به دلایل شناختی مشکوکند، و انسان نتواند به‌راحتی واقعیت را تشخیص دهد، و بالتبع به خروجی ماشین اطمینان نکند. در مسائل علوم انسانی حساس از جمله جان انسان و مجازات‌های سالب حیات نیز این ملاحظات مطرح است. در واقع این مشکل سبب شد که از ماشین انتظار توضیح فرآیند استنتاج را برای ما بیان کند. در مواردی از نتایج حدس قوی ماشین کفایت می‌کند اما در برخی موارد تبیین قطعی و منطقی لازم است. اینجا رویکرد توضیح‌پذیر مطرح شد که در آن ضمن نیاز به تبیین قطعی و منطقی، نیازمند بازنمایی و مدل‌سازی دانش به زبان ماشین هستیم.

شهبازی در بحث مدل‌سازی دانش به زبان ماشین این پرسش را مطرح کرد و گفت: آیا اگر بخواهیم دانش را به زبان ماشین مدل‌سازی کنیم، لازم است همانطور که خودمان دانش را درک می‌کنیم مدل کنیم؟ آیا لازم است به ماشین منطق و فلسفه یاد بدهیم؟ شهبازی پاسخ داد لزوماً این گونه نیست، وگرنه که نیازی به ماشین نبود، اما لازم است سرانجام ما به عنوان انسان با همان ساختار ذهنی خودمان از استنتاج ماشین قانع شویم. بنابراین نیازمند مدل‌سازی با دانش‌های مدل‌ساز دانش هستیم.

شهبازی گفت: حالا که قرار است به ماشین منطق یاد بدهیم و شبکه عصبی ماشین نمی‌تواند استنتاج را تبیین کند و رویکرد تفسیرپذیر در بسیاری موارد کارآیی لازم را ندارد، با انواع متعددی از استنتاج و استدلال‌ورزی از جمله قیاس، استقراء و حدس (فرضیه‌ربایی یا بهترین تبیین) مواجهیم. در قیاس قرار است که از قاعده (کبری) به صغری (مورد) برسیم. در استقراء از صغری (مورد) و تجمیع آنها به قاعده (کبری) می‌رسیم. در نوع سوم از قاعده (کبری) به نتیجه موردی (صغری) می‌رسیم که به نوعی ضلع سوم استنتاج منطقی است. مثلاً اگر همه قوها سفید است و دیزی سفید است، نتیجه می‌گیریم دیزی هم قو است. البته می‌تواند دیزی هر چیز سفیدی باشد، اما بهترین تبیین می‌گوید که دیزی یک قو است.

شهبازی اذعان کرد: در فضای توضیح‌پذیر ماشین باید انواع استنتاج قابل فرض را باید یاد بگیرد که کامل‌ترین نتیجه را داشته باشد. اتفاق جالبی که در شبکه عصبی می‌افتد این است که ماشین ترکیبی از قیاس و استقراء را بدون دانستن فرمالیسم و مکانیزم فرضیه‌ربایی فرا می‌گیرد و در واقع به نوعی همان بهترین تبیین را حدس می‌زند؛ اما نمی‌تواند توضیح بدهد که چرا این گونه استنتاج می‌کند. در ادامه به کاربرد این موضوع در علوم انسانی و لوازم آن در حکمرانی اشاره خواهیم کرد که مثلاً ماشین در علم حقوق با چه منطق‌هایی سروکار دارد.

شهبازی در این راستا به خانوادۀ دانش منطق اشاره کرد و گفت: ابتدا منطق کلاسیک را داشتیم که گاهی ممکن است به نحو توسعه یابد که منطق کلاسیک را در بر بگیرد (از جمله منطق پیش‌فرض، پویای زمانی و تکلیف) و گاهی به نحوی توسعه می‌یابد که با منطق کلاسیک تلاقی دارد از جمله منطق فازی که محمولات به صورت مدرّج بر افراد و مصادیق بار می‌شوند و یک شیء ممکن است هم سرد باشد و هم گرم.

در مباحثی مثل حکمرانی با منطق‌های مختلفی روبه‌رو هستیم. مثلاً اگر قوانین را به این ساختار بیاوریم و توضیح‌پذیری ماشین هم مهم است و باید نتیجه را مستند به قانون بگوید، نیاز به منطق تکلیف دارد چون بایستی دارد و از طرفی چون تبصره و استثنا زیاد است منطق پیش‌فرض هم به کار می‌رود.

شهبازی خاطرنشان کرد: در دامنه‌هایی که استدلال توضیح‌پذیر قطعی نیاز است در حال حاضر از بازنمایی و استنتاج ماشینی استفاده می‌شود؛ مانند درمان و پزشکی، داروسازی، حقوق (قوانین مدنی و بیمه)، امور قضایی و… . طبعاً نمی‌شود به احتمال مجازات اکتفا کرد بلکه باید به استناد مواد قانونی شخص را مجرم دانست و مجازات را متوجه وی کرد. در این موارد از KRR یا Knowledge Representation and Resoning (به اختصادر در فارسی “بازنمود دانش”) استفاده می‌شود.

شهبازی برای توضیح مدل‌های زبانی بزرگ و استنتاجگرها، معماهایی برای تشخیص رنگ اشیاء بر اساس چند گزارۀ توصیفی دربارۀ آنها را مطرح کرد:

در نتیجه از این جهت لازم است که به شاخۀ توضیح‌پذیر و رویکرد بازنمود دانش اشاره کنیم. یکی از محصولات آن وب معنایی است که گاهی از آن به وب ۳ یاد می‌شود. هدف این محصول این است که ماشین‌ها بیش از کتابخانه‌های الکترونیکی و جستجوگرهای لفطی کارآیی داشته باشند و نیازمند برخورداری از دانش‌های گوناگون هستند.

شهبازی به تحلیل راهکارهای ماشین از منطر منطق پرداخت و گفت: در رویکرد تفسیرپذیر ملاک یادگیری است که بر اساس مشاهده و الگوبرداری از مصادیق خارجی مبتنی براستقراء است. اما در رویکرد توضیح‌پذیر ملاک قواعد و برهان است؛ لذا باید ساختار استنتاج را طراحی کرد و قواعد پرکاربرد و اصول موضوعه و ثابت را باید به ماشین آموخت.

وی در ادامه تحلیل راهکارهای ماشین از منظر خبره را بررسی کرد و گفت در رویکرد تفسیرپذیر، صورت پذیرفتن استقراء ارزشمندتر با وجود دادگان زیاد و دقیق است و در نتیجه پیکره‌سازی هدفمند، دقیق و گسترده را داریم. در مقابل در رویکرد توضیح‌پذیر صورت پذیرفتن قیاس با وجود استنتاجگرهای قدرتمند و معرفی قواعد پرکاربرد است . در نتیجه استنتاجگرهای قدرتمند در منطق‌های مختلف و قواعد در دامنه‌های مختلف طراحی می‌شوند. مثلاً در فضای سیاستگذاری کسی که به قواعد عمومی سیاستگذاری اشراف دارد باید قواعد این دامنه را به زبان ماشین در بیاورد.

شهبازی به نمونه کاربرد رویکرد توضیح‌پذیر در علوم حدیث و پروژه ثقات اشاره کرد که تناقضات ناشی از تطبیقات اشتباه تاریخی کشف شد. در پاسخ به این سؤال که ممکن است در اصول موضوعه نزاع صغروی باشد و در زمان مناقشه در یک قاعده مانند ملازمه روایت مستقیم از پیامبر و صحابی بودن و لوازم آن، گفت: یکی از مهمترین مزایای فضای توضیح‌پذیری این است که از جیبش چیزی در نمی‌آورد. شما از LLM استفاده کنید بر اساس مواجهاتش است. اما در فضای توضیح‌پذیر آجر به آجر توضیح‌پذیر است. ویژگی دیگر علاوه بر کشف تناقضات، کشف احتمال حضور راویان بر اساس الگوهای زمانی برخاسته از اطلاعات موجود و استنتاجات احتمالی است. همچنین استنتاج احتمالاتی در مورد مذهب یک راوی با استنتاجگر احتمالاتی پیش می‌رود.

شهبازی به نمونه کار انجام شده در فقه و اصول پرداخت و گفت: مدل‎‌سازی ساختار اولیه دامنه‌های معاملات، قضاوت و خمس، مدل‌سازی هستی‌شناسی فوقانی سازگار با ادبیات فقهی و مدل‌سازی قواعد اصولی مرتبط انجام شده است. از جمله در این ارائه، عناصر کلیدی در مدل‌سازی را در روابط ابتدایی قضاوت از جمله تشخیص مدعی از منکر در دعوا مطرح و بیان کرد. کاربرد دیگر این مدل‌سازی، تناقض‌یابی در فضای منطق توصیفی است که یک نمونۀ آن موضوع ارش در فقه است: ۱) بر اساس عریف فقهی ارش به ارزش و مقدار مابه‌التفاوت کالای سالم و معیوب ارش گفته می‌شود. ۲- معمول پرداخت کردن تنها می‌تواند جوهر فلسفی باشد. ۳- جوهر با ویژگی و کمیت متباین است. ۴- پرداخت ارش بر فردی که کالای معیوب داده واجب است. همچنین استنتاج در فضای اصل با منطق پیش‌فرض (مادامی که ..) را با این مدل داریم که در شروط عامه تکلیف یا مباحث تزاحم مطرح می‌شود.

شهبازی در پایان به نمونه کار انجام شده در قوانین مدنی پرداخت و گفت: این پروژه یک سال است که از طرف دانشگاه علم و صنعت طی تفاهم با معاونت قوانین مجلس پیش می‌رود. در این پروژه قرار است خود قانون و روابط قانونی به ماشین فهمانده شود. مثلاً تناقض در این زمینه می‌تواند کشف شود: در ماده ۱ قانون توزیع عادلانه آب منابع طبیعی در اختیار حکومت اسلامی است. در قوانین شهرداری در اختیار شهرداری است و در تبصره ۳ ماده ۲ در اختیار وزارت نیرو قرار گرفته است. این تناقض را ماشین تشخیص می‌دهد و گزارش می‌دهد که تناقض رخ داده و منتظر می‌ماند که کاربر یکی از گزاره‌ها را اصلاح کند و کنار بگذارد. اگر نتوانستیم ملاک رفع تعارض بدهیم یا آخرین اراده قانونگذار را به او بدهیم، پیشنهاد می‌دهد که چه کار باید کرد. مثلا پاراگراف را اصلاح می‌کند. بساط تنقیح‌های دستی و انسانی که خطای بالایی دارند برطرف می‌شود و در منابع انسانی صرفه‌جویی می‌کند و قوانین را یکدست می‌کند.

نظرات شما عزیزان

پیام بگذارید

جستجو مطالب
جدیدترین مطالب
عضویت در خبرنامه