لایحه دولت در مورد هوش مصنوعی (AI) برای اظهار نظر عمومی منتشر شد. این سند چارچوب نظارتی برای استفاده از هوش مصنوعی در روسیه را معرفی می کند. به ویژه، برای اولین بار مفهوم هوش مصنوعی را در سطح قانونگذاری معرفی می کند، حقوق و تعهدات فعالان بازار را ایجاد می کند و برچسب گذاری اجباری محتوای ایجاد شده با کمک هوش مصنوعی را معرفی می کند. کارشناسان خاطرنشان می کنند که هر چیزی که بیش از همه مهم است توسط مقرراتی تنظیم می شود که هنوز وجود ندارد و آنها می ترسند که حتی چنین مقررات نرمی نیز توسعه صنعت داخلی را کند کند.

وزارت توسعه دیجیتال گفت: “توسعه فناوری های امیدوارکننده، از جمله هوش مصنوعی، حوزه مهم کاری وزارت توسعه دیجیتال است. علاوه بر این، هر فناوری باید منحصراً با رعایت حقوق و منافع شهروندان مورد استفاده قرار گیرد. برای این منظور، این وزارتخانه پیش نویس قانون فدرال در مورد مقررات هوش مصنوعی را تهیه کرده است.”
این سند برای اولین بار مفهوم “هوش مصنوعی” و تعدادی از اصطلاحات مرتبط را به قانون معرفی می کند. همچنین پیشنهاد می شود مفاهیم مدل های هوش مصنوعی مستقل، ملی و مورد اعتماد معرفی شوند. در عین حال، الزامات سیستمهای هوش مصنوعی به میزان تأثیری که بر زندگی انسان و جامعه میگذارند نیز بستگی دارد.
علاوه بر الزامات صنعت، فعالان بازار هوش مصنوعی در قبال کسانی که از آن سیستمها و محصولات مبتنی بر هوش مصنوعی استفاده میکنند نیز مسئولیتهایی دارند. شهروندان اکنون می توانند تصمیمات اتخاذ شده توسط سازمان های دولتی و شرکت های دولتی را با استفاده از هوش مصنوعی در مراحل پیش از محاکمه به چالش بکشند. در صورتی که استفاده از شبکه عصبی موجب آسیب شود، طبق مقررات عمومی قانون مدنی، شخص مستحق دریافت غرامت خواهد بود. این اقدامات برای محافظت از حقوق شهروندان در تصمیم گیری خودکار طراحی شده است.
توسعه دهندگان مدل هوش مصنوعی ملزم به حذف الگوریتم های تبعیض آمیز و جلوگیری از ایجاد محتوای غیرقانونی هستند. اپراتورهای سیستم های هوش مصنوعی باید ایمنی خود را آزمایش کنند و کاربران را از محدودیت ها آگاه کنند. صاحب سرویس فوراً اقداماتی را برای جلوگیری از سوء استفاده انجام می دهد.
نویسندگان این لایحه معتقدند که مسئولیت نتایج غیرقانونی باید بین توسعه دهنده، اپراتور سیستم، مالک سرویس و کاربر به نسبت میزان تقصیر تقسیم شود.
در معضل “چه چیزی برچسب گذاری شود”، انتخاب برچسب گذاری محتوای تولید شده توسط هوش مصنوعی است. اکنون همه چنین اسنادی باید دارای علامت خاصی باشند – هشدار. شبکه های اجتماعی بزرگ موظفند حضور آن را بررسی کنند و در صورت عدم وجود، به طور مستقل محتوا را علامت گذاری کرده یا حذف کنند.
با ظهور قوانین هوش مصنوعی، محتوای تولید شده توسط شبکه های عصبی باید برچسب گذاری شودهوش مصنوعی در حال حاضر در همه جا مورد استفاده قرار می گیرد، بنابراین ایجاد قوانین روشن و شفاف برای استفاده از آن مهم است. برای ما مهمترین چیز حفظ تعادل بین حفظ منافع مردم و توسعه فناوری است. در این راستا، این لایحه الزامات جداگانه ای را برای حوزه های حساس کاربرد هوش مصنوعی، مانند در مدیریت دولتی، ایجاد می کند. از دفتر دولتی دیمیتری گریگورنکو، که مسئول این موضوع است.
برنامه ریزی شده است که این سند از 1 سپتامبر 2027 اجرایی شود و قوانین روشنی را برای توسعه دهندگان، مشاغل و ایالت ایجاد کند. از شهروندان در برابر دستکاری های پنهان و الگوریتم های تبعیض آمیز محافظت می کند. با این حال، کارشناسان در مورد اعمال قانون سوالاتی داشته اند. به عنوان مثال، در بالاترین سطح، ایده برچسبگذاری محتوای ایجاد شده یا اصلاح شده توسط هوش مصنوعی به این معنی است که هر عکسی که در تلفن هوشمند گرفته میشود به این شکل برچسبگذاری میشود، صرفاً به این دلیل که اکثر گوشیهای هوشمند امروزی از الگوریتمهای شبکه عصبی به روشی استفاده میکنند.
کسب و کارها نیز دغدغه های خود را دارند. Alexey Parfun، مدیر، یکی از بنیانگذاران Ai Influence، معاون رئیس AKAR، خاطرنشان کرد: ما یک سند بلندپروازانه دریافت کردیم که سعی داشت به مسائل مربوطه رسیدگی کند اما این کار را به روشی سفت و سخت انجام داد و تجارت را به خطر انداخت.
نویسندگان به درستی درک میکنند که همه کاربردهای هوش مصنوعی به یک اندازه خطرناک نیستند. ماده پنج ارزیابی خطرات را بسته به هدف فناوری، احتمال آسیب، سطح استقلال سیستم و تأثیر بر اقدامات دارای اهمیت قانونی تنظیم میکند، که بسیار معقول است. در ایالات متحده و اروپا چنین تقسیمبندی وجود ندارد، آنها سعی میکنند همه چیز را به همان شیوهای که منجر به توسعه ما میشود، تنظیم کنند. به وضوح در مورد نیاز به “تسهیل توسعه سریع هوش مصنوعی” صحبت می کند. ماموریت هوش مصنوعی کاملاً روشن است – حاکمیت هدف استراتژیک است. اگر ما کاملاً به OpenAI یا Google وابسته باشیم، هر تحریمی، هر تصمیم سیاسی می تواند تمام هوش مصنوعی را برای ما خاموش کند، ما نمی توانیم اجازه دهیم این اتفاق بیفتد.
در همان زمان، ظهور یک رجیستری از “مدل های هوش مصنوعی قابل اعتماد” سوالاتی را ایجاد می کند. Parfun این را نوعی “گلوگاه” برای استقرار و توسعه آینده می داند. این کارشناس توضیح میدهد: «ممکن است الزام همه مدلهای مورد استفاده در سیستمهای دولتی و زیرساختهای حیاتی برای گنجاندن در این رجیستری منطقی به نظر برسد، اما در عمل این به معنای کنترل متمرکز بر همه سیستمهای هوش مصنوعی، یک فرآیند تأیید بوروکراتیک، و این خطر است که راهحلهای نوآورانه تنها به دلیل جدید بودن از بین نخواهند رفت. در واقع، دولت بر هر سیستم هوش مصنوعی حق وتو دریافت میکند».
کارشناسان بیم دارند که برخی مفاد این قانون به “گلوگاه” برای توسعه هوش مصنوعی در روسیه تبدیل شود.
موضوع مسئولیت توسعه دهندگان سیستم هوش مصنوعی نیز نگران کننده است. به طور خاص، قانون بیان میکند که توسعهدهنده مسئول نتایجی است که با استفاده از مدل خود به دست میآید، در صورتی که «آگاهانه میدانست یا باید میدانست» که میتوان به نتایج دست یافت. با این حال، به گفته Parfun، اینها پیامدهایی هستند که همیشه قابل محاسبه نیستند و خطر شروع بیمه اتکایی را به همراه دارند.
پارفون گفت: “چگونه یک توسعه دهنده می تواند تمام کاربردهای احتمالی مدل خود را بداند؟ اگر من یک مدل برای تجزیه و تحلیل متن ایجاد کنم و شخصی از آن برای ایجاد دیپ فیک استفاده کند، آیا من مسئول هستم؟ قانون پاسخ روشنی نمی دهد. این خطراتی را برای توسعه دهندگان ایجاد می کند. آنها تمایلی به راه اندازی مدل های جدید ندارند زیرا نمی دانند چه چیزی می تواند مسئول باشد.”

این قانون همچنین به مسائل زیرساختی برای هوش مصنوعی نیز می پردازد. به ویژه، برای اطمینان از در دسترس بودن زیرساخت های محاسباتی لازم برای توسعه هوش مصنوعی، دولت فهرستی از مراکز پردازش داده را تهیه خواهد کرد که ایجاد و بهره برداری از آنها توسط مقررات ویژه تعیین می شود. این رویکرد توسط ایگور دوروفیف، رئیس انجمن شرکتکنندگان صنعت مرکز داده منصفانه در نظر گرفته میشود.
وی توضیح داد: از یک طرف توسعه هوش مصنوعی به موضوع امنیت ملی تبدیل شده است که می تواند فراتر از روابط تجاری باشد. از طرف دیگر اگر شرکتی در تجهیزات هوش مصنوعی سرمایه گذاری کرده باشد که چندین برابر هزینه ایجاد خط فنی برای آن تجهیزات است، قطعاً آن شرکت از نظر هزینه های عملیاتی مستحق حمایت است.
دوروفیف خاطرنشان کرد که حمایت نظارتی پیشنهادی برای بازیکنان پلتفرم بزرگ هدف قرار گرفته است. آنها نیروی محرکه تفکر فنی و اقتصادی صنعت مرکز پردازش داده (DPC) هستند.
علیرغم ماهیت چارچوبی قانون، هنوز برخی ناسازگاریها در تعاریف وجود دارد، مانند اینکه چه چیزی مرکز داده «پیشنهادی» در نظر گرفته میشود و چگونه میتوان از سوء استفادههای احتمالی جلوگیری کرد. یا اینکه چگونه میتوان مراکز داده را بر اساس قدرت تقسیم کرد اگر هم ابررایانهها و هم تجهیزات متعارف فناوری اطلاعات در آنجا قرار دارند. دوروفیف گفت: طبقهبندی مراکز داده بر اساس اهمیت اطلاعات در حال پردازش فرض میکند که این مسائل در چارچوب بحث عمومی و با مقررات دقیق در مورد الزامات حل خواهد شد.
به طور کلی، کارشناسان ظهور مقررات صنعت را مثبت ارزیابی میکنند که در چارچوب تأثیر فزاینده هوش مصنوعی بر جنبههای مختلف زندگی ضروری شده است، اما نگران هستند که در صورت تصویب این قانون، شرکتهای روسی تمایلی به سرمایهگذاری در هوش مصنوعی نداشته باشند و منتظر بمانند تا همه الزامات به وضوح در چارچوب مقرراتی که تاکنون تدوین نشده است، تعریف شود.
الکسی پارفون به طور خلاصه می گوید: «در این بین شرکت های غربی رشد خواهند کرد.