دو برنده جایزه نوبل فیزیک امسال از ابزارهای فیزیک برای توسعه روشهایی استفاده کردهاند که پایه و اساس یادگیری ماشین امروزی است. با اینکه ابزارهای هوش مصنوعی از سالهای دهه۸۰ میلادی مطرح بوده و مورد استفاده قرار میگرفتهاند، روند استفاده از آنها در چند سال گذشته شتابی فزاینده گرفته و بخشهای مختلفی از زندگی عموم مردم را متاثر کرده است.
گزارش شاخص هوش مصنوعی۲۰۲۴ از سوی موسسه هوش مصنوعی انسان-محور استنفورد (Stanford Institute for Human-Centered Artificial Intelligence) با گسترش دامنه خود روندهای اساسی مانند پیشرفتهای فنی در هوش مصنوعی، درک عمومی از فناوری و پویاییهای ژئوپلیتیک پیرامون توسعه آن را نیز پوشش داده است.
این گزارش نشان میدهد هوش مصنوعی در چندین معیار مانند طبقهبندی تصاویر، استدلال بصری و درک زبان انگلیسی از عملکرد انسان پیشی گرفته است. با این حال، انسان همچنان در کارهای پیچیدهتری مانند ریاضیات و استدلال عام بصری همچنان هوش مصنوعی را پشت سر میگذارد.
این گزارش نتایج نظرسنجیهای مختلف را نیز مرور میکند که همگی نشان میدهند در طول سال گذشته، بهطور همزمان آگاهی درباره تاثیر بالقوه هوش مصنوعی و نگرانی درباره محصولات و خدمات آن بهطور قابل توجهی افزایش یافته است. از این رو شاید قابل انتظار باشد که تعداد مقررات مرتبط با هوش مصنوعی در ایالات متحده در سالهای گذشته بهطور قابل توجهی از یکمورد در سال۲۰۱۶ به ۲۵مورد درسال۲۰۲۳ افزایش یافته باشد.
واقعیت این است که با وجود فرصتهای چشمگیری که ابزارهای هوش مصنوعی در اختیار افراد، صنایع و کشورها میگذارند، همچنان ابهامهای فراوان و چالشهای گوناگونی درباره مرزهای گسترش آن وجود دارد.
بسیاری از سیستمهای یادگیری ماشین بر اساس حجم زیادی از دادهها، از جمله دادههای شخصی عمل میکنند و به راحتی میتوانند به حریم خصوصی افراد آسیب برسانند.
عجماوغلو در فصلی از کتاب حکمرانی هوش مصنوعی(The Oxford Handbook of AI Governance) با عنوان آسیبهای هوش مصنوعی، استدلال میکند که اگر هوش مصنوعی همچنان کنترلنشده باقی بماند، ممکن است آسیبهای اجتماعی، اقتصادی و سیاسی مختلفی مانند رقابت مخرب، نقض حریم خصوصی و انتخاب مصرفکننده، خودکارسازی بیش از حد کار، دامن زدن به نابرابری، کاهش ناکارآمد دستمزدها، ناتوانی در بهبود بهرهوری کارگران و آسیب به گفتمان سیاسی ایجاد کند.
او نشان میدهد که این هزینهها ذاتی ماهیت فناوریهای هوش مصنوعی نیستند، بلکه به نحوه استفاده و توسعه آنها برای توانمندسازی شرکتها و دولتها در برابر کارگران و شهروندان مرتبطند. در نتیجه، شاید تلاشها برای محدود و معکوس کردن این هزینهها تنها با ترویج رقابت ناکافی باشد و نیاز به تکیه بر مقررات و سیاستگذاریها برای هدایت پژوهشهای هوش مصنوعی وجود داشته باشد.
هوش مصنوعی میتواند منجر به بهبود سلامت فردی شود که به نفع جامعه است و اثرات خارجی مثبت دارد. برخی از کاربردهای یادگیری ماشین نیز در امنیت ملی، نظارت بر سلامت و بهداشت عمومی، حفاظت از محیط زیست، مدیریت بلایای طبیعی دارای ویژگیهای کالاهای عمومی هستند.
هوش مصنوعی همچنین میتواند نابرابریها را بهویژه در دسترسی به خدمات، آموزش و فرصتهای شغلی تشدید کند و منجر به تمرکز بیشتر ثروت و قدرت شود؛ چراکه مزایای فناوریهای مبتنی بر هوش مصنوعی اغلب برای افراد ثروتمندتر یا کسانی که در مناطق توسعهیافته هستند، قابل دسترستر است. بنابراین هوش مصنوعی میتواند به انواع مختلفی از شکستهای بازار کمک کند که بهطور بالقوه به رفاه اجتماعی آسیب میرساند و از این رو نیازمند تنظیمگری و مداخله دولت است.
درواقع تنظیمگری (Regulation) به معنای توسعه سیاستها و قوانین نظارتی بخش عمومی برای ترویج و تنظیم استفاده مسوولانه از ابزارهای هوش مصنوعی، موضوعی در حال ظهور در بسیاری کشورها و سازمانهای بینالمللی است.
آنها همچنان درگیر چالشهای بسیاری در هوش مصنوعی بهویژه در حوزه اخلاق و هنجارهای اجتماعی هستند؛ مانند اینکه آیا میتوان استانداردها یا قوانینی در برابر پیامدهای ناخواسته توسعه هوش مصنوعی مانند تولید ایجاد سلاحهای خودکار، ناهمسویی با ارزشهای انسانی و اصول اخلاقی مانند حقوق بشر و ناهمخوانی با اولویتهای جوامع مانند افزایش رفاه تنظیم کرد.
برای تنظیمگیری در حوزه هوش مصنوعی دو رویکرد نرم و سخت وجود دارد که هریک با چالشهای خاص خود درگیرند. از طرفی فناوری هوش مصنوعی به سرعت در حال تکامل است و قانون الزامآور سخت (Hard Law) منجر به مشکل سرعت (Pacing Problem) به معنای ناهمگامی قوانین با سرعت پیشی گرفتن برنامههای کاربردی نوظهور و خطرات و مزایای مرتبط با آنها میشود.
از سوی دیگر، در رویکرد جایگزین، با اینکه قوانین نرم (Soft Law) بهعنوان ابزارهای شبه حقوقی مانند دستورالعملها (Guidelines)، سازگاری و انعطافپذیری بیشتری برای همپایی با سرعت روند تکامل هوش مصنوعی دارند، اغلب فاقد پتانسیل اجرایی قابل توجه هستند.
تنظیمگری همچنین به معنای مدیریت مساله کنترل هوش مصنوعی (AI Control Problem) یا همسویی هوش مصنوعی (AI Alignment) است تا اطمینان حاصل شود که دست کم در درازمدت، استفاده از هوش مصنوعی برای جوامع سودمند و همسو با اهداف، ترجیحات و اصول اخلاقی مورد نظر آن است؛ بهویژه که هوش مصنوعی با نزدیک شدن به تواناییهای شناختی انسان-مانند در هوش عمومی مصنوعی (Artificial General Intelligence) و حتی فراانسانی، در صورت عدم همسویی میتواند تمدن بشری را به خطر بیندازد.
یک سیستم هوش مصنوعی، اگر اهدافی ناخواسته (Unintended) را دنبال کند، ناهمسو (Misaligned) خوانده میشود. برای مثال، یک الگوریتم یادگیری ماشین ممکن است بهطور ناخواسته سوگیریهای موجود در دادههای آموزشی خود (مثلا آمار بالاتر جرم در رنگین پوستان) را تقویت کنند که منجر به تبعیض در استخدام، اجرای قانون یا وامدهی شود. این سیستمها بهویژه در حوزههای حساس مانند تشخیص پزشکی میتوانند آسیبهای زیادی در حوزه سلامت ایجاد کنند.
تنظیمگری در حوزه هوش مصنوعی تلاش میکند که تا جای ممکن اطمینان حاصل کند که فناوریهای این حوزه دارای هوش مصنوعی قابل اعتماد (Trustworthy AI) و هوش مصنوعی مسوول (Responsible AI) است. هوش مصنوعی قابل اعتماد برای شفافیت، پایداری و احترام به حریم خصوصی دادهها طراحی و مستقر شده و مبتنی بر استانداردهای اخلاقی و ایمنی است که از دادهها حفاظت و از سوءاستفاده و دسترسی غیرمجاز به اطلاعات حساس و آسیب ناشی از توصیههای سوگیرانه جلوگیری میکند.
هوش مصنوعی مسوول نیز اشاره به روشهای طراحی، توسعه و استقرار سیستمهای هوش مصنوعی دارد که نتایج منصفانه، شفاف و امن را در اولویت قرار میدهد. شفافیت در اینجا به این معنا است که عواملی که بر تصمیمهای گرفتهشده توسط الگوریتمها تاثیر میگذارند، باید برای افرادی قابل مشاهده باشند که از آن الگوریتمها استفاده میکنند یا تحت تاثیر سیستمی قرار میگیرند که از آن الگوریتمها استفاده کرده است.
چالش بسیار مهم دیگر درباره یادگیری ماشین این است که آنها عموما بهصورت جعبه سیاه کار میکنند، بدون آنکه دقیقا مشخص و قابل توضیح باشد چگونه خروجیهای آنها از آموزش اولیه روی دادهها حاصل آمدهاند. از آنجا که درک آنها برخلاف مدلهای جعبه سفید، حتی برای متخصصان نیز بسیار سخت یا ناممکن است، طبیعتا کاربران نیز نمیتوانند بدانند این سیستمها چگونه کار میکنند و چرا تصمیمهای خاصی میگیرند.
هوش مصنوعی توضیحپذیر (Explainable AI) یا یادگیری ماشین تفسیرپذیر(Interpretable Machine Learning) تلاش میکند که تصمیمات هوش مصنوعی، بهویژه تصمیماتی که بر زندگی افراد تاثیر قابل توجه میگذارند، قابل توضیح و درک باشند.
اتحادیه اروپا حق توضیح داشتن (Right to Explanation) را در قانون حق حفاظت از دادههای عمومی (General Data Protection Regulation) برای رسیدگی به مشکلات احتمالی ناشی از کاربست الگوریتمها معرفی کرده است. در ایالات متحده و فرانسه نیز قانون به افراد حق درخواست و دریافت اطلاعات مربوط به اجرای الگوریتمهایی را میدهد که دادههای مربوط به آنها را پردازش میکنند.
در جاهایی که چنین توضیحی ممکن نباشد، چارچوبهای قانونی میتوانند مسوولیتها را شفاف و الگوریتمها را پاسخگو کنند؛ به این ترتیب، شرکتها و توسعهدهندگان در قبال نتایج برنامههای کاربردی هوش مصنوعی، از جمله هرگونه عواقب ناخواسته آنها پاسخگو و مسوولیتپذیر خواهند بود. به بیان دیگر، در پاسخگویی الگوریتمی (Algorithmic Accountability)، پاسخگویی متناسب با پیامدهای اقدامات دنیای واقعی ناشی از اجرای الگوریتمها خواهد بود.
مرور مطالعات در سالهای اخیر نشان میدهد که هوش مصنوعی باعث افزایش بهرهوری کارگران و کاهش شکاف مهارتی بین کارگران میشود. با وجود این، خودکارسازی فعالیتها در کشوری مانند ایران که فناوری تولید بسیاری صنایع همچنان تا حد زیادی مبتنی بر نیروی کار انسانی (Labor Intensive) است، میتواند باعث کاهش فرصتهای شغلی در برخی از صنایع شود.
از این رو تنظیمگری در کشور میتواند با مالیات بر خودکارسازی برای تامین مالی برنامههای بازآموزی و مهارتآموزی، به نیروی کار کمک کند تا با این تغییرات سازگار شود. این واقعیت که متاسفانه در سالهای گذشته ایران نتوانسته همپای برخی کشورهای همسایه خود در حوزه هوش مصنوعی پیشرفتهای قابل مقایسهای داشته باشد، از قضا مزیتی در زمینه تنظیمگری است که کمک میکند در همین گامهای اولیه توسعه ابزارهای هوش مصنوعی در کشور، با استفاده از تجربه سایر کشورهای پیشرو در تنظیمگری این حوزه، بتوان به هوش مصنوعی قابل اعتماد، مسوول و پاسخگو دست یافت که کمترین چالش را در بازار کار کشور ایجاد کند.
دکتر مهدی فیضی
منبع: دنیای اقتصاد
مطالب مرتبط