به گزارش پایگاه خبری تفکیک نیوز به نقل از، چین قرار است قوانینی برای هوش مصنوعی مولد وضع کند؛ زیرا پکن به دنبال ایجاد تعادل در تشویق شرکتهای محلی به توسعه فناوریهای انقلابی در مقابل تمایل آن به کنترل محتوا است.
به گفته دو فرد نزدیک به رگولاتورها، اداره فضای مجازی چین، ناظر قدرتمند اینترنت، قصد دارد سیستمی ایجاد کند که شرکتها را مجبور میکند قبل از انتشار سیستمهای هوش مصنوعی مولد مجوز بگیرند. این الزام پیش نویس مقررات صادر شده در ماه آوریل را تشدید میکند که فضای بیشتری را برای مانور در اختیار شرکتها قرار داده بود، چرا که گروهها ۱۰ روز کاری فرصت داشتند تا محصول خود را پس از عرضه، درسازمان مربوطه ثبت کنند. قوانین جدید صدور مجوز، بخشی از مقرراتی است که به گفته افراد مطلع از این حرکت، اوایل ماه جاری میلادی نهایی میشود.
قانونگذاری هوش مصنوعی با تمرکز بر کنترل محتوا
چین به دنبال پاسخگویی به ظهور سیستمهای هوش مصنوعی مولد است که در پاسخ به درخواستهای ساده به سرعت متن، تصاویر و سایر محتواهای انسانی را ایجاد میکنند.طبق پیش نویس قوانین ماه آوریل، محتواها نباید حاوی چیزی باشد که قدرت دولتی را زیر پا بگذارد، ازسرنگونی نظام سوسیالیستی حمایت کند، کشور را تحریک کند یا وحدت ملی را تضعیف کند. دو نفر دیگر از نزدیکان به رگولاتورها گفتند که شرکتهایی مانند بایدو و علی بابا که امسال برنامههای هوش مصنوعی مولد را عرضه کردند، در چند ماه گذشته با تنظیم کنندهها در تماس بودهاند تا اطمینان حاصل کنند که هوش مصنوعی آنها قوانین را نقض نمیکند.
ژوانگ رونگ ون، رئیس اداره فضای سایبری چین (CAC) اخیراً گفت که این سازمان باید اطمینان حاصل کند که هوش مصنوعی قابل اعتماد و قابل کنترل است، زیرا پکن نگران دادههای استفاده شده توسط هوش مصنوعی است.
آنجلا ژانگ، دانشیار حقوق در دانشگاه هنگ کنگ گفت: اقدامات نظارتی چین در درجه اول بر کنترل محتوا متمرکز است. دولتها و مقامات دیگر در حال تلاش برای وضع قوانین علیه سوء استفادههای احتمالی از این فناوری هستند.
نظارت بر دادههای آموزش مدلهای هوش مصنوعی
اتحادیه اروپا برخی از سختترین قوانین را در جهان پیشنهاد داده است که باعث اعتراض شرکتها و مدیران اجرایی منطقه شده است، در حالی که واشنگتن در حال بحث در مورد اقداماتی برای کنترل هوش مصنوعی است و بریتانیا بازبینی قوانین را آغاز کرده است.
پیشنویس مقررات آوریل در چین الزامات دادههایی را که شرکتهای فناوری برای آموزش مدلهای هوش مصنوعی مولد با تقاضای خاص برای اطمینان از «صحت، دقت، عینیت و تنوع» به کار میبرند، تعیین کرده است. این الزام نشان میدهد که چین مسیری مشابه اروپا را در پیش گرفته است؛ جایی که کیفیت دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی یکی از حوزههای کلیدی بررسی نظارتی است.
مت شیهان، یکی از همکاران مؤسسه موقوفه کارنگی، گفت: با این حال، پکن نیاز خود را بسیار بالاتر قرار داده است. این بدان معنی است که شرکتهای چینی باید تلاش بیشتری برای فیلتر کردن نوع دادههای مورد استفاده برای آموزش هوش مصنوعی صرف کنند. با این حال، فقدان دادههای موجود متناسب با این خواستهها، به گلوگاهی تبدیل شده است که بسیاری از شرکتها را از توسعه و بهبود به اصطلاح مدلهای زبان بزرگ، فناوری زیربنایی چت باتهایی مانند «چت جیپیتی» و «گوگل بارد» محدود میکند.
مسئولیت محتوا با شرکتهای ارائه دهنده هوش مصنوعی است
هلن تونر، مدیر استراتژی و کمک هزینههای تحقیقاتی بنیادی در مرکز امنیت و فناوریهای نوظهور دانشگاه جورج تاون، گفت: کسب و کارها احتمالاً در مورد آنچه [هوش مصنوعی] میسازد محتاطتر و محافظه کارتر هستند، زیرا عواقب نقض قوانین میتواند شدید باشد.
به گفته تونر، مقامات چینی در پیش نویس مقررات خود اشاره کردند که گروههای فناوری که یک مدل هوش مصنوعی را تولید میکنند تقریباً به طور کامل مسئولیت هر محتوای ایجاد شده را بر عهده خواهند داشت، اقدامی که باعث میشود شرکتها کمتر تمایلی به عرضه مدلهای خود داشته باشند، زیرا ممکن است آنها مسئول مشکلات خارج از کنترل خود باشند