ضرورت ایجاد چارچوب‌های اخلاقی در توسعه هوش مصنوعی

به گزارش روابط عمومی پژوهشگاه فرهنگ و اندیشه اسلامی، نشست روایت‌های فرامرزی با عنوان «درآمدی بر نسبت اخلاق هوش مصنوعی و سیاست‌گذاری عمومی: مطالعهٔ موردی شفافیت و حریم خصوصی» با ارائه دکتر احسان ارضروم‌چیلر (دانش‌آموخته دکتری فلسفه دانشگاه بوهمیای جنوبی و پژوهشگر اخلاق تکنولوژی) روز دوشنبه ۲۳ مهر ۱۴۰۳ به صورت برخط در اسکای‌روم مرکز رشد و نوآوری پژوهشگاه با همکاری سازمان توسعه همکاری‌های علمی و فناورانه بین‌المللی ریاست‌جمهوری برگزار گردید.

دکتر ارضروم‌چیلر از هوش مصنوعی به مثابه انقلاب صنعتی چهارم یاد کرد و افزود اصولی مانند شفافیت، عدالت و انصاف، اعتماد و کرامت انسانی اصولی اخلاقی‌اند که در مواجهه با اجزا و لوازم پدیده‌های مبتنی بر هوش مصنوعی باید به آن توجه کنیم.

این پژوهشگر اخلاق تکنولوژی با ورود به بحث حریم خصوصی و تلازم آن با مفهوم قدرت از سه درک راجع به قدرت صحبت کرد که عبارت از تحمیل فشار به صورت دفعی و موردی، اعمال زور به صورت سازمانی و تحمیل هنجار به مثابه خلق سوژه و نیروی پیش‌برنده هستند. او با گرته‌برداری از استعاره زندان طراحی‌شده توسط جرمی بنتام یعنی پناپتیکن (panoptican) گفت: اپلیکیشن‌ها و پلتفرم‌های مبتنی بر هوش مصنوعی می‌توانند به همین اندازه تسلط و کنترل بر شهروندان را اعمال کنند. در قدرت به صورت سازمانی و نیروی پیش‌برنده تبعات ناهنجارانه زیادی بر هوش مصنوعی مترتب می‌شود. برای نمونه از منظر پلتفرم‌هایی که دیتافیکیشن یا داده‌وارسازی شهروندان را بدون رضایت آنان و از طرق غیرمستقیم و باواسطه انجام می‌دهند شهروندان را شیء‌انگاری می‌کنند و به همین خاطر مجوز نقض حریم خصوصی آن‌ها را می‌دهند.

ارضرو‌م‎‌چیلر گفت: هوش مصنوعی عدم توازن به بهانه نقض حریم خصوصی را در تمام ابعاد اعمال می‌کند. حتی حکمرانی داده‌محور با کمک هوش مصنوعی گوگل در جست‌وجوی مقالات و ژورنال‌ها برنامه‌ریزی می‌کند که چه مقاله‌ای را نشان دهد که به پژوهشگر حس دستیابی به دانش را القا کند. این موضوع در ابعاد ایدئولوژیک هم دیده می‌شود؛ مثلا با داده‎محوری و داده‌وارسازی هوش مصنوعی یک گروه اقلیت می‌تواند اکثریت مخالف یا متفاوت را به سویه‌های فکری و فرهنگی مورد نظر خود هدایت کند و نمونه‌های موردنظر آنان را محو کند. هوش مصنوعی در اینستاگرام و پینترست و توییتر می‌تواند راحت‎تر از گذشته الگوهای زندگی خصوصی و تجربه‌های زیسته را استخراج کند و می‌تواند داده‌های در تملک شهروندان را به نهادهای سیاسی بدهد تا آن‌ها را در راستای تک‌صدای مطلوب خود تجمیع کنند.

این پژوهشگر با تبیین شیءانگاری انسان در رویارویی با هوش مصنوعی به نمونه ساعت‌های هوشمند با هوش مصنوعی اشاره کرد و گفت: هرچند این ساعت‌ها فواید و منافع زیادی برای سلامتی جسمی را تأمین می‌کنند اما در زمانی که به دلیل مشکلات اقتصادی اوضاع و احوال روحی مناسبی وجود ندارد، راه‌حل ساعت هوشمند در مراجعه به روانشناس و روانپزشک است. در اینجا یک سوژه سیاسی تبدیل به سوژه‌ای غیرسیاسی می‌شود.

این نمونه‎ها با قدرت در معنای سوم که آشکارگی کمتری از معنای اول و دوم دارد خود را بیشتر نشان می‌دهد. خیلی واضح است اگر کنترل‌های بصری هوش مصنوعی ما را رصد کنند ناراحت می‌شویم، ولی به معنای سوم آنقدر پنهان و فردی است که باید با گفت‌وگوی عمومی و انتقادی در بستر آزاد و شفاف به این بحث بپردازیم که چه تبعات اخلاقی مترتب بر سازه‌های هوش مصنوعی می‌شود.

ارضروم‌چیبر نمونه دیگری از ملاحظات اخلاقی ناظر به پلتفرم‌های هوش مصنوعی را به تحلیل قدرت به مثابه نیروی سازنده سوژه مطرح کرد. او به سراغ نمونه اتاق پژواک رفت که افراد در شبکۀ ارتباطی محدود به خود هستند و هوش مصنوعی فقط بر همان اساس به آن‌ها پیشنهاد استفاده و مصرف می‌دهد که باعث ایجاد اتاق پژواک و دور شدن از نگاه انتقادی به مسائل می‌شود.

بخش آخر نشست به این اختصاص پیدا کرد که در این اوضاع و احوال چه باید کرد؟ ایده‌ها و توصیه‌هایی برای طراحی اپلیکیشن هوشمند با هوش مصنوعی هست که سویه‌گیری کمتری داشته باشتد مثلا طراحان از گونه‌های مختلف جغرافیای و جنسیتی و دینی و نژادی باشند.

به باور این پژوهشگر اخلاق تکنولوژی اگر تکنوکراسی و سپردن امور منحصرا به متخصصان وجود داشته باشد، غالب باشند همه چالش‌های عدم توسعه اخلاقی پایاپای توسعه هوش مصنوعی باقی خواهد ماند ولی باید از ابتدا روحیه مردم‌سالاری و مشارکت سیاسی و حقوقی و فرهنگی و اقتصادی و همه‌جانبه و پایدار شهروندان را انتظار داشته باشیم که اصول اخلاقی بر هوش مصنوعی مستقر و مستولی شود.

نظرات شما عزیزان

پیام بگذارید

جستجو مطالب
جدیدترین مطالب
عضویت در خبرنامه