کد مطلب: 294537
سه شنبه 15 مهر 1404 14:43
گزارش رصد فرهنگی (95)
باوجودآنکه گفتمان رسمی در ایران بر اهمیت راهبردی هوشمصنوعی تأکید میورزد، رویکرد حاکم، رویکردی چالشبرانگیز، یکجانبه و تقلیلگرایانِ است. استدلال محوری این گزارش آن است که سیاستگذاری کشور در این حوزه، تحت سیطره پارادایمی «فنیامنیتی» قرار دارد. این پارادایم منحصراً بر اهداف کنترل دولتی، کارآمدی بوروکراتیک و اقتدار ملی متمرکز است. رویکرد مذکور، منجر به پیدایش شکافی «هنجاریفرهنگی» عمیقی شده است که طی آن، ابعاد بنیادین این فناوری در حوزه حقوق بشر، ارزشهای فرهنگی و عدالت اجتماعی بهصورت نظاممند نادیده گرفته میشود.
تحلیل تطبیقی اسناد کلیدی سیاستگذاری هوشمصنوعی در ایران با چارچوبهای مرجع بینالمللی، الگویی از «غفلت اجرایی» را آشکار میسازد. «سند ملی هوشمصنوعی» (۱۴۰۳) بسیاری از اصول هنجاری کانونی مانند «شفافیت»، «توضیحپذیری»، «انصاف» و «پاسخگویی» را در سطح ارزشی و اخلاقی به رسمیت شناخته است. (شورای عالی انقلاب فرهنگی، ۱۴۰۳)، بااینحال، این اذعان ارزشی به سازوکارهای حقوقی عینی و قابل پیگرد برای شهروندان ترجمه نشده است. این شکاف میان «ارزش اعلامشده» و «اقدام ملی»، موجب میشود که سازوکار درونی فناوری همچنان بهمثابه یک «جعبه سیاه» حاکمیتی عمل کند. برای مثال، درحالیکه اسناد بینالمللی بر ابزارهای مشخصی مانند «ارزیابی تأثیر الگوریتمی» برای تضمین انصاف تأکیددارند (High-Level Expert Group on AI, 2019)، اسناد ملی باوجود اشاره به «نبود سوگیری» بهعنوان یک اصل اخلاقی، هیچ راهبرد مشخصی برای شناسایی و مقابله فنی با آن پیشبینی نمیکنند. این الگو نشان میدهد که اگرچه نظام سیاستی به دغدغههای هنجاری آگاه است، اما در عمل، این دغدغهها به حقوقی قابل مطالبه برای شهروندان بدل نشدهاند. بدین معنا که اگر یک سامانه هوشمند در مورد شهروندی تصمیمی منفی بگیرد. (مانند رد یک درخواست)، هیچ مسیر مشخصی برای فهم چرایی آن تصمیم وجود ندارد و اگر عملکرد خطاآمیز یک الگوریتم به فردی آسیب برساند، هیچ فرآیند قانونی روشنی برای اعتراض، اصلاح خطا و جبران خسارت پیشبینینشده است. مهمتر از آن، سکوت مطلق اسناد بالادستی در حوزه فضای مجازی و هوشمصنوعی در قبال مفهوم «سوگیری الگوریتمی» است. این موضوع نشاندهندۀ ناتوانی یا نبود تمایل نظام سیاستی به شناسایی و مقابله با ظرفیت این فناوری برای بازتولید و تشدید نابرابریهای اجتماعی موجود است.
این غفلت هنجاری، پیامدهای ملموسی در عرصههای مختلف به همراه داشته است. جنگ ژوئن ۲۰۲۵ میان ایران و اسرائیل بهمثابه یک نمونه مطالعاتی هشداردهنده عمل کرد. تمرکز انحصاری ایران بر ابعاد فنیامنیتی، کشور را در برابر «جنگ روایتها» و کارزارهای اطلاعات نادرست که باهوشمصنوعی تقویت میشدند، بهشدت آسیبپذیر ساخت و به مشروعیتزدایی از اقدامهای ایران در افکار عمومی جهانی دامن زد. در عرصه داخلی نیز، این رویکرد به ظهور یک «اقتصاد گیگ» بیضابطه منجر شده است که در آن، پلتفرمهایِ بنام الگوهای جهانی «بهرهکشی الگوریتمی» از نیروی کار را بدون هیچگونه نظارت هنجاری بازتولید میکنند.
تحلیل یافتهها نشان میدهد، که شکاف هنجاری، محصول منطق ساختاری و درونی پارادایم حاکم است. این گزارش برای تبیین ریشههای این منطق، از سه مفهوم کلیدی در نظریههای انتقادی فناوری و جامعهشناسی سیاسی بهره گرفته است:
هرگونه حرکت بهسوی توسعهای پایدار و عادلانه، نیازمند گذار از رویکرد فنی-امنیتی به یک رویکرد جامع، انسانمحور و فرهنگی است. این گزارش سه اقدام مهم را برای تحقق این گذار پیشنهاد میکند:
توانمندسازی اجتماعی: سرمایهگذاری راهبردی در حوزه «سواد انتقادی هوشمصنوعی» در نظام آموزشی و رسانههای عمومی. هدف، توانمندسازی شهروندان برای فهم و به چالش کشیدن ادعاهای فنی است تا از جایگاه «سوژههای منفعل» فناوری به «مشارکتکنندگان فعال» در راهبری آن بدل شوند.
تداوم مسیر کنونی نهتنها به تعمیق نابرابریهای اجتماعی، فرسایش اعتماد عمومی و شکلگیری یک «حاکمیت الگوریتمی» غیر پاسخگو در حوزۀ هوشمصنوعی منجر خواهد شد، بلکه آسیبپذیریهای راهبردی کشور را در عرصههای نوین قدرت تشدید میکند. پیشنهادهای ارائهشده در این گزارش، مسیری عملگرایانه و ایجابی را برای توسعه هوشمصنوعی در ایران ترسیم میکند. مسیری که در آن پیشرفت فناورانه با بلوغ اخلاقی، عدالت اجتماعی و تعالی فرهنگیاجتماعی بلندمدت ملت ایران همراستا باشد