تفکیک نیوز، نگرانی در مورد تسلط هوش مصنوعی بر انسان همیشه یک پای ثابت سریالها و فیلمهای سینمایی بوده اسن. این نگرانیها بعد از معرفی ربات گفتوگوی «چتجیپیتی» و مدلهای زبانی پیشرفته، رنگ واقعیت بیشتری به خود گرفت و بسیاری از کشورها را بر آن داشت تا راههایی برای نظارت بر هرگونه رشد کنترلنشده هوش مصنوعی بیابند.
بسیاری از قوانین و مقررات مربوط به هوش مصنوعی به منظور محدود کردن رشد غیرقابل کنترل آن و جلوگیری از پیامدهای نامطلوب آینده در حال بررسی هستند. برخی از موارد شامل توسعه راهنماها و اصول اخلاقی در طراحی و استفاده از هوش مصنوعی، تشکیل سازمانها و موسسات نظارتی بر هوش مصنوعی و تعیین مرزها و محدودیتهای قانونی برای فعالیت هوش مصنوعی میباشد. در این مطلب، نگاهی به برنامه ریزی کشورها و قانونگذاران در مورد مقررات هوش مصنوعی می اندازیم.
برزیل
برزیل در حال کار بر روی اولین قانون خود برای تنظیم هوش مصنوعی است. در 1 دسامبر 2022،(10آذر1401) یک کمیسیون قضایی غیردائم سنای برزیل گزارشی با مطالعاتی در مورد مقررات هوش مصنوعی، از جمله پیشنویسی برای تنظیم هوش مصنوعی ارائه کرد. این پیش نویس اکنون به عنوان نقطه شروعی برای بررسی بیشتر سنا در مورد قوانین جدید هوش مصنوعی عمل می کند. به گفته گزارشگر کمیته، مقررات هوش مصنوعی بر سه رکن اصلی استوار است: تضمین حقوق افراد متاثر از سیستم، طبقهبندی سطح ریسک و پیشبینی اقدامات حاکمیتی برای شرکتهایی که سیستم هوش مصنوعی را ارائه یا اجرا میکنند.
این پیش نویس شباهت های واضحی با پیش نویس قانون هوش مصنوعی اتحادیه اروپا دارد. تعریف سیستمهای هوش مصنوعی کاملاً شبیه به پیشنویس قانون کمیسیون اروپا است (که هنوز در حال بحث است): هوش مصنوعی به عنوان سیستم رایانهای با درجات مختلف استقلال با استفاده از رویکردهای مبتنی بر یادگیری ماشین طراحی شده تا از دادههای ورودی ماشینها یا انسانها چگونگی دستیابی به مجموعهای از اهداف را استنتاج کند. هدف از انجام پیش بینی ها، توصیه ها یا تصمیماتی است که می تواند بر محیط مجازی یا واقعی تأثیر بگذارد.
بریتانیا
بریتانیا در ماه مارس(اسفند-فروردین) تصمیم گرفت به جای ایجاد یک نهاد جدید اختصاص داده شده به هوش مصنوعی، مسئولیت نظارتی آن را بین آن دسته از نهادهایی که بر حقوق بشر، سلامت و ایمنی و رقابت نظارت میکنند، تقسیم کند. «ریشی سوناک» نخست وزیر بریتانیا در جریان سفر هفته گذشته خود به واشنگتن گفت بریتانیا در اواخر سال جاری میزبان یک نشست جهانی در مورد ایمنی هوش مصنوعی خواهد بود تا خطرات آن را بررسی و درباره چگونگی کاهش آنها از طریق اقدامات هماهنگ بینالمللی بحث کند.
چین
شورای دولتی چین برای اولین بار در سال 2017 (1395)«برنامه توسعه هوش مصنوعی نسل بعدی» را ایجاد کرد. در سال 2021 (1400)دستورالعمل های اخلاقی برای مقابله با هوش مصنوعی منتشر شد. سپس چین در ژانویه 2022(1402)، دو قانون مربوط به برنامه های کاربردی خاص هوش مصنوعی را منتشر کرد. در حالی که مقررات مربوط به مدیریت توصیه های الگوریتمی (Algorithm Provisions) از مارس 2023(اسفند-فروردین امسال) لازم الاجرا شده است، مقررات مربوط به مدیریت عمیق خدمات اطلاعات اینترنتی (Draft Deep Synthesis Provisions) هنوز در مرحله پیش نویس است.
این مقررات به سوء استفاده از سیستمهای توصیهگر الگوریتمی میپردازد. آنها شامل مقرراتی در مورد مدیریت محتوا، برچسبگذاری، شفافیت، حفاظت از دادهها و شیوههای منصفانه هستند. مقررات اضافی در موارد خاصی اعمال می شود: برای مثال در مورد افراد زیر سن قانونی یا خدمات تجارت الکترونیک و جریمه هایی معادل حدود یک هزار و 570 تا 15هزار و705 دلار آمریکا ممکن است برای عدم رعایت آنها اعمال شود.
اداره فضای سایبری چین (CAC) رایزنی خود را در مورد پیش نویس اقدامات اداری برای خدمات هوش مصنوعی مولد در 10 می 2023 (20اردیبهشت1402) به پایان رساند. پیش نویس مقررات تصریح می کند که محصولات جدید هوش مصنوعی که در چین تولید شده اند باید قبل از انتشار عمومی در اختیار ارزیاب ایمنی قرار گیرند. به طور خاص، این مقررات محتوای تولید شده توسط هوش مصنوعی را ملزم میکند که واقعی و دقیق باشد و محتوایی را که قدرت دولتی را تضعیف میکند یا حاوی تبلیغات تروریستی یا افراطی، خشونت، اطلاعات ناپسند و مستهجن، نفرت قومی، تبعیض یا سایر محتواهایی که میتواند باعث اختلال در اقتصاد و اجتماعی شود، ممنوع میکند.
این مقررات از ارائه دهندگان خدمات هوش مصنوعی می خواهد که برای جلوگیری از تولید اطلاعات نادرست و محتوای مضر اقداماتی را انجام دهند. اگر محتوای نامناسب تولید شود، ارائه دهندگان خدمات باید فناوری خود را ظرف سه ماه به روز کنند تا از تولید مجدد محتوای مشابه جلوگیری شود. ارائه دهندگانی که از مقررات پیروی نمی کنند ممکن است جریمه شوند، خدمات آنها به حالت تعلیق درآید یا مشمول تحقیقات شوند.
در نهایت، چین قوانین منطقهای نیز در مورد هوش مصنوعی دارد. در 6 سپتامبر 2022،(15شهریور1401) شهر شنژن اولین مقررات هوش مصنوعی در چین را منتشر کرد (مقررات مربوط به ارتقاء صنعت هوش مصنوعی در منطقه ویژه اقتصادی شنژن). شانگهای قانون استانی توسعه هوش مصنوعی را در 22 سپتامبر(31 شهریور) منتشر کرد (مقررات شانگهای برای ترویج توسعه صنعت هوش مصنوعی) که در 1 اکتبر 2022(9مهر) لازم الاجرا شد.
ژاپن
ژاپن دومین بخش بزرگ فناوری اطلاعات کشورهای سازمان همکاری و توسعه اقتصادی است و سرمایه گذاریهای زیادی در تحقیق و توسعه دارد. اصول اجتماعی شورای ارتقای استراتژی یکپارچه نوآوری در زمینه هوش مصنوعی انسان محور، توسط دولت ژاپن در مارس 2019 (اسفند97-فروردین98) منتشر شد که اصول اساسی جامعه ای با هوش مصنوعی را نشان می دهد. بخش اول شامل هفت اصل اجتماعی است که جامعه و دولت هنگام برخورد با هوش مصنوعی باید به آنها احترام بگذارند: انسان محوری، آموزش، حفاظت از داده ها، تضمین ایمنی، رقابت منصفانه، انصاف، پاسخگویی و شفافیت و نوآوری.
بخش دوم، دستورالعملهای تحقیق و توسعه توسعهدهندگان و شرکتهای هوش مصنوعی را هدف قرار داده است. این با جزئیات بیشتر در قالب دستورالعمل های استفاده از هوش مصنوعی در 9 آگوست 2019 (18مرداد98) توضیح داده شد و در نظر گرفته شد که به عنوان یک درخواست و در عین حال مرجعی برای توسعه دهندگان و شرکت های هوش مصنوعی باشد تا دستورالعمل های خود را تهیه کنند.
علاوه بر این، دستورالعملهای حاکمیتی برای اجرای اصول هوش مصنوعی در9 ژوئیه 2021(18تیر1401)، اهداف اقدام و نمونههای اجرای فرضی را ارائه میکند که باید توسط شرکتهای هوش مصنوعی در نظر گرفته شوند. وزارت اقتصاد، تجارت و صنعت ژاپن از آن زمان نسخه دوم این دستورالعمل ها را پس از مشورت عمومی منتشر کرده است.
از نظر محتوا، رویکرد هوش مصنوعی ژاپن به رشد فراگیر، توسعه پایدار و رفاه اجتماعی مطابق با اصول هوش مصنوعی کشورهای سازمان همکاری و توسعه اقتصادی است.
کانادا
در 16 ژوئن 2022(26خرداد1401)، دولت فدرال کانادا پیش نویس قانون«C-27»را ارائه کرد که به عنوان قانون اجرای منشور دیجیتال 2022 نیز شناخته می شود. بخش 3 این بسته قانونی شامل قانون هوش مصنوعی و داده ها (AIDA)، اولین قانون هوش مصنوعی کانادا، است. هدف این قانون تنظیم تجارت بینالمللی و بین استانی در سیستمهای هوش مصنوعی با ملزم کردن افراد خاص به اتخاذ تدابیری برای کاهش خطر آسیب و نتایج مغرضانه مرتبط با سیستمهای هوش مصنوعی است. این قانون به وزیر اجازه میدهد تا دستور افشای سوابق مربوط به سیستمهای هوش مصنوعی را بدهد. این قانون همچنین اعمال خاصی را در مدیریت داده ها و سیستم های هوش مصنوعی که ممکن است آسیب جدی به افراد یا منافع آنها وارد کند، ممنوع می کند. در حال حاضر این لایحه در حال مطرح شدن در مجلس عوام است و هنوز باید توسط سنا تصویب شود.
هند
در حال حاضر در هند، چارچوب قانونی خاصی برای سیستم های هوش مصنوعی وجود ندارد. با این حال، اندیشکده سیاست های دولت هند، (NITI Aayog) پیشنهادهایی را ارئه کرده است. پیشنهاد اصلی، معرفی یک مرجع نظارتی جهت ایجاد و مدیریت اصولی برای هوش مصنوعی مسئول، ارائه دستورالعملها و استانداردها، یا به عهده گرفتن هماهنگی مقامات در بخشهای مختلف هوش مصنوعی است.
ایالات متحده آمریکا
در 4 اکتبر 2022(12مهر1401)، دفتر سیاست علم و فناوری کاخ سفید طرحی را برای توسعه، استفاده و استقرار سیستمهای خودکار منتشر کرد. این طرح برخلاف پیشنویس قانون هوش مصنوعی اتحادیه اروپا غیرالزامآور است و پنج اصل را فهرست میکند که هدف آن به حداقل رساندن آسیبهای احتمالی سیستمهای هوش مصنوعی است. در 18 آگوست 2022(27مرداد)، موسسه ملی استاندارد و فناوری (NIST) دومین پیش نویس چارچوب مدیریت ریسک هوش مصنوعی خود را برای اظهار نظر منتشر کرد. نسخه اصلی به مارس 2022(اسفند-فروردین1401) برمی گردد و بر اساس یک مقاله مفهومی از دسامبر 2021 (آذر-دی1400) است. چارچوب مدیریت ریسک هوش مصنوعی برای کمک به شرکت هایی در نظر گرفته شده است که سیستم های هوش مصنوعی را برای ارزیابی و مدیریت ریسک های مرتبط با این فناوری ها توسعه یا استقرار می دهند. علاوه بر این کنگره آمریکا دو لایحه جدید در مورد هوش مصنوعی را بررسی میکند تا در آنها از پیشتازی آمریکا در این زمینه و شفافیت استفاده از آن توسط دولت مطمئن شود.
اتحادیه اروپا
اتحادیه اروپا تا سال 2021، به طور خاص از برنامه های کاربردی هوش مصنوعی پرخطر صحبت می کرد و حدود 300 سازمان با هم متحد شدند تا از ممنوعیت کامل برخی از اشکال هوش مصنوعی دفاع کنند.این اتحادیه اکنون در حال تنظیم پیش نویس قانون خود در زمینه هوش مصنوعی است و به تازگی جهت سختگیرانه تر شدن تغییراتی را در پیش نویس ایجاد کرده است. انتظار می رود تا اواخر امسال این پیش نویس به قانون تبدیل شود. قانونگذاران اروپایی و سازمانی تحت حمایت ایلان ماسک که در تهیه پیش نویس قانون هوش مصنوعی اتحادیه اروپا مشارکت دارند، از جمله سازمان هایی هستند که از رهبران جهان خواسته اند تا برای یافتن راه هایی جهت جلوگیری از ایجاد اختلال در هوش مصنوعی پیشرفته همکاری کنند.
همانطور که موارد مطرح شده در بالا نشان می دهد، کشورها در مراحل مختلفی از تکامل رویکرد خود برای تنظیم هوش مصنوعی هستند و دیدگاه های متفاوتی در مورد بهترین روش انجام آن دارند. از آنجایی که برخی از توسعهدهندگان هوش مصنوعی و رهبران کسبوکارهای فناوری خواستار توقف شش ماهه توسعه هوش مصنوعی مدل زبانی بزرگ هستند تا اجازه دهد قوانین و مقررات تنظیم شوند، بعید به نظر می رسد که اجماع در مورد بهترین شیوه تنظیم هوش مصنوعی به گونه ای که امکان نوآوری را فراهم و در عین حال استفاده های مضر هوش مصنوعی را محدود کند، حاصل شود.