Web Analytics Made Easy - Statcounter

به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس، نگرانی در مورد تسلط هوش مصنوعی بر انسان همیشه یک پای ثابت سریال‌ها ‌و فیلم‌های سینمایی بوده اسن. این نگرانی‌ها بعد از معرفی ربات گفت‌و‌گوی «چت‌جی‌پی‌تی» و مدل‌های زبانی پیشرفته، رنگ واقعیت بیشتری به خود گرفت و بسیاری از کشورها را بر آن داشت تا راه‌هایی برای نظارت بر هرگونه رشد کنترل‌نشده هوش مصنوعی بیابند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

بسیاری از قوانین و مقررات مربوط به هوش مصنوعی به منظور محدود کردن رشد غیرقابل کنترل آن و جلوگیری از پیامدهای نامطلوب آینده در حال بررسی هستند. برخی از موارد شامل توسعه راهنماها و اصول اخلاقی در طراحی و استفاده از هوش مصنوعی، تشکیل سازمان‌ها و موسسات نظارتی بر هوش مصنوعی و تعیین مرزها و محدودیت‌های قانونی برای فعالیت هوش مصنوعی می‌باشد. در این مطلب، نگاهی به برنامه ریزی کشورها و قانون‌گذاران در مورد مقررات هوش مصنوعی می اندازیم.

برزیل

برزیل در حال کار بر روی اولین قانون خود برای تنظیم هوش مصنوعی است. در 1 دسامبر 2022،(10آذر1401) یک کمیسیون قضایی غیردائم سنای برزیل گزارشی با مطالعاتی در مورد مقررات هوش مصنوعی، از جمله پیش‌نویسی برای تنظیم هوش مصنوعی ارائه کرد. این پیش نویس اکنون به عنوان نقطه شروعی برای بررسی بیشتر سنا در مورد قوانین جدید هوش مصنوعی عمل می کند. به گفته گزارشگر کمیته، مقررات هوش مصنوعی بر سه رکن اصلی استوار است: تضمین حقوق افراد متاثر از سیستم، طبقه‌بندی سطح ریسک و پیش‌بینی اقدامات حاکمیتی برای شرکت‌هایی که سیستم هوش مصنوعی را ارائه یا اجرا می‌کنند.

این پیش نویس شباهت های واضحی با پیش نویس قانون هوش مصنوعی اتحادیه اروپا دارد. تعریف سیستم‌های هوش مصنوعی کاملاً شبیه به پیش‌نویس قانون کمیسیون اروپا است (که هنوز در حال بحث است): هوش مصنوعی به عنوان سیستم رایانه‌ای با درجات مختلف استقلال با استفاده از رویکردهای مبتنی بر یادگیری ماشین طراحی شده تا از داده‌های ورودی ماشین‌ها یا انسان‌ها چگونگی دستیابی به مجموعه‌ای از اهداف را استنتاج کند. هدف از انجام پیش بینی ها، توصیه ها یا تصمیماتی است که می تواند بر محیط مجازی یا واقعی تأثیر بگذارد.

بریتانیا

بریتانیا در ماه مارس(اسفند-فروردین) تصمیم گرفت به جای ایجاد یک نهاد جدید اختصاص داده شده به هوش مصنوعی، مسئولیت نظارتی آن را بین آن دسته از نهادهایی که بر حقوق بشر، سلامت و ایمنی و رقابت نظارت می‌کنند، تقسیم کند. «ریشی سوناک» نخست وزیر بریتانیا در جریان سفر هفته گذشته خود به واشنگتن گفت بریتانیا در اواخر سال جاری میزبان یک نشست جهانی در مورد ایمنی هوش مصنوعی خواهد بود تا خطرات آن را بررسی و درباره چگونگی کاهش آنها از طریق اقدامات هماهنگ بین‌المللی بحث کند.

چین

شورای دولتی چین برای اولین بار در سال 2017 (1395)«برنامه توسعه هوش مصنوعی نسل بعدی» را ایجاد کرد. در سال 2021 (1400)دستورالعمل های اخلاقی برای مقابله با هوش مصنوعی منتشر شد. سپس چین در ژانویه 2022(1402)، دو قانون مربوط به برنامه های کاربردی خاص هوش مصنوعی را منتشر کرد. در حالی که مقررات مربوط به مدیریت توصیه های الگوریتمی (Algorithm Provisions) از مارس 2023(اسفند-فروردین امسال) لازم الاجرا شده است، مقررات مربوط به مدیریت عمیق خدمات اطلاعات اینترنتی (Draft Deep Synthesis Provisions) هنوز در مرحله پیش نویس است.

این مقررات به سوء استفاده از سیستم‌های توصیه‌گر الگوریتمی می‌پردازد. آنها شامل مقرراتی در مورد مدیریت محتوا، برچسب‌گذاری، شفافیت، حفاظت از داده‌ها و شیوه‌های منصفانه هستند. مقررات اضافی در موارد خاصی اعمال می شود: برای مثال در مورد افراد زیر سن قانونی یا خدمات تجارت الکترونیک و جریمه هایی معادل حدود یک هزار و 570 تا 15هزار و705 دلار آمریکا ممکن است برای عدم رعایت آنها اعمال شود.

اداره فضای سایبری چین (CAC) رایزنی خود را در مورد پیش نویس اقدامات اداری برای خدمات هوش مصنوعی مولد در 10 می 2023 (20اردیبهشت1402) به پایان رساند. پیش نویس مقررات تصریح می کند که محصولات جدید هوش مصنوعی که در چین تولید شده اند باید قبل از انتشار عمومی در اختیار ارزیاب ایمنی قرار گیرند. به طور خاص، این مقررات محتوای تولید شده توسط هوش مصنوعی را ملزم می‌کند که واقعی و دقیق باشد و محتوایی را که قدرت دولتی را تضعیف می‌کند یا حاوی تبلیغات تروریستی یا افراطی، خشونت، اطلاعات ناپسند و مستهجن، نفرت قومی، تبعیض یا سایر محتواهایی که می‌تواند باعث اختلال در اقتصاد و اجتماعی شود، ممنوع می‌کند.

این مقررات از ارائه دهندگان خدمات هوش مصنوعی می خواهد که برای جلوگیری از تولید اطلاعات نادرست و محتوای مضر اقداماتی را انجام دهند. اگر محتوای نامناسب تولید شود، ارائه دهندگان خدمات باید فناوری خود را ظرف سه ماه به روز کنند تا از تولید مجدد محتوای مشابه جلوگیری شود. ارائه دهندگانی که از مقررات پیروی نمی کنند ممکن است جریمه شوند، خدمات آنها به حالت تعلیق درآید یا مشمول تحقیقات شوند.

در نهایت، چین قوانین منطقه‌ای نیز در مورد هوش مصنوعی دارد. در 6 سپتامبر 2022،(15شهریور1401) شهر شنژن اولین مقررات هوش مصنوعی در چین را منتشر کرد (مقررات مربوط به ارتقاء صنعت هوش مصنوعی در منطقه ویژه اقتصادی شنژن). شانگهای قانون استانی توسعه هوش مصنوعی را در 22 سپتامبر(31 شهریور) منتشر کرد (مقررات شانگهای برای ترویج توسعه صنعت هوش مصنوعی) که در 1 اکتبر 2022(9مهر) لازم الاجرا شد.

ژاپن

ژاپن دومین بخش بزرگ فناوری اطلاعات کشورهای سازمان همکاری و توسعه اقتصادی است و سرمایه گذاری‌های زیادی در تحقیق و توسعه دارد. اصول اجتماعی شورای ارتقای استراتژی یکپارچه نوآوری در زمینه هوش مصنوعی انسان محور، توسط دولت ژاپن در مارس 2019 (اسفند97-فروردین98) منتشر شد که اصول اساسی جامعه ای با هوش مصنوعی را نشان می دهد. بخش اول شامل هفت اصل اجتماعی است که جامعه و دولت هنگام برخورد با هوش مصنوعی باید به آنها احترام بگذارند: انسان محوری، آموزش، حفاظت از داده ها، تضمین ایمنی، رقابت منصفانه، انصاف، پاسخگویی و شفافیت و نوآوری.

بخش دوم، دستورالعمل‌های تحقیق و توسعه توسعه‌دهندگان و شرکت‌های هوش مصنوعی را هدف قرار داده است. این با جزئیات بیشتر در قالب دستورالعمل های استفاده از هوش مصنوعی در 9 آگوست 2019 (18مرداد98) توضیح داده شد و در نظر گرفته شد که به عنوان یک درخواست و در عین حال مرجعی برای توسعه دهندگان و شرکت های هوش مصنوعی باشد تا دستورالعمل های خود را تهیه کنند.

علاوه بر این، دستورالعمل‌های حاکمیتی برای اجرای اصول هوش مصنوعی در9 ژوئیه 2021(18تیر1401)، اهداف اقدام و نمونه‌های اجرای فرضی را ارائه می‌کند که باید توسط شرکت‌های هوش مصنوعی در نظر گرفته شوند. وزارت اقتصاد، تجارت و صنعت ژاپن از آن زمان نسخه دوم این دستورالعمل ها را پس از مشورت عمومی منتشر کرده است.

از نظر محتوا، رویکرد هوش مصنوعی ژاپن به رشد فراگیر، توسعه پایدار و رفاه اجتماعی مطابق با اصول هوش مصنوعی کشورهای سازمان همکاری و توسعه اقتصادی است.

کانادا

در 16 ژوئن 2022(26خرداد1401)، دولت فدرال کانادا پیش نویس قانون«C-27»را ارائه کرد که به عنوان قانون اجرای منشور دیجیتال 2022 نیز شناخته می شود. بخش 3 این بسته قانونی شامل قانون هوش مصنوعی و داده ها (AIDA)، اولین قانون هوش مصنوعی کانادا، است. هدف این قانون تنظیم تجارت بین‌المللی و بین استانی در سیستم‌های هوش مصنوعی با ملزم کردن افراد خاص به اتخاذ تدابیری برای کاهش خطر آسیب و نتایج مغرضانه مرتبط با سیستم‌های هوش مصنوعی است. این قانون به وزیر اجازه می‌دهد تا دستور افشای سوابق مربوط به سیستم‌های هوش مصنوعی را بدهد. این قانون همچنین اعمال خاصی را در مدیریت داده ها و سیستم های هوش مصنوعی که ممکن است آسیب جدی به افراد یا منافع آنها وارد کند، ممنوع می کند. در حال حاضر این لایحه در حال مطرح شدن در مجلس عوام است و هنوز باید توسط سنا تصویب شود.

هند

در حال حاضر در هند، چارچوب قانونی خاصی برای سیستم های هوش مصنوعی وجود ندارد. با این حال، اندیشکده سیاست های دولت هند، (NITI Aayog) پیشنهادهایی را ارئه کرده است. پیشنهاد اصلی، معرفی یک مرجع نظارتی جهت ایجاد و مدیریت اصولی برای هوش مصنوعی مسئول، ارائه دستورالعمل‌ها و استانداردها، یا به عهده گرفتن هماهنگی مقامات در بخش‌های مختلف هوش مصنوعی است.

ایالات متحده آمریکا

در 4 اکتبر 2022(12مهر1401)، دفتر سیاست علم و فناوری کاخ سفید طرحی را برای توسعه، استفاده و استقرار سیستم‌های خودکار منتشر کرد. این طرح برخلاف پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا غیرالزام‌آور است و پنج اصل را فهرست می‌کند که هدف آن به حداقل رساندن آسیب‌های احتمالی سیستم‌های هوش مصنوعی است. در 18 آگوست 2022(27مرداد)، موسسه ملی استاندارد و فناوری (NIST) دومین پیش نویس چارچوب مدیریت ریسک هوش مصنوعی خود را برای اظهار نظر منتشر کرد. نسخه اصلی به مارس 2022(اسفند-فروردین1401) برمی گردد و بر اساس یک مقاله مفهومی از دسامبر 2021 (آذر-دی1400) است. چارچوب مدیریت ریسک هوش مصنوعی برای کمک به شرکت هایی در نظر گرفته شده است که سیستم های هوش مصنوعی را برای ارزیابی و مدیریت ریسک های مرتبط با این فناوری ها توسعه یا استقرار می دهند. علاوه بر این کنگره آمریکا دو لایحه جدید در مورد هوش مصنوعی را بررسی می‌کند تا در آن‌ها از پیشتازی آمریکا در این زمینه و شفافیت استفاده از آن توسط دولت مطمئن شود.

اتحادیه اروپا

اتحادیه اروپا تا سال 2021، به طور خاص از برنامه های کاربردی هوش مصنوعی پرخطر صحبت می کرد و حدود 300 سازمان با هم متحد شدند تا از ممنوعیت کامل برخی از اشکال هوش مصنوعی دفاع کنند.این اتحادیه اکنون در حال تنظیم پیش نویس قانون خود در زمینه هوش مصنوعی است و به تازگی جهت سختگیرانه تر شدن تغییراتی را در پیش نویس ایجاد کرده است. انتظار می رود تا اواخر امسال این پیش نویس به قانون تبدیل شود. قانونگذاران اروپایی و سازمانی تحت حمایت ایلان ماسک که در تهیه پیش نویس قانون هوش مصنوعی اتحادیه اروپا مشارکت دارند، از جمله سازمان هایی هستند که از رهبران جهان خواسته اند تا برای یافتن راه هایی جهت جلوگیری از ایجاد اختلال در هوش مصنوعی پیشرفته همکاری کنند.

همانطور که موارد مطرح شده در بالا نشان می دهد، کشورها در مراحل مختلفی از تکامل رویکرد خود برای تنظیم هوش مصنوعی هستند و دیدگاه های متفاوتی در مورد بهترین روش انجام آن دارند. از آنجایی که برخی از توسعه‌دهندگان هوش مصنوعی و رهبران کسب‌وکارهای فناوری خواستار توقف شش ماهه توسعه هوش مصنوعی مدل زبانی بزرگ هستند تا اجازه دهد قوانین و مقررات تنظیم شوند، بعید به نظر می رسد که اجماع در مورد بهترین شیوه تنظیم هوش مصنوعی به گونه ای که امکان نوآوری را فراهم و در عین حال استفاده های مضر هوش مصنوعی را محدود کند، حاصل شود.

پایان پیام/

منبع: فارس

کلیدواژه: هوش مصنوعی نابودی بشر کنترل هوش مصنوعی قوانین هوش مصنوعی سیستم های هوش مصنوعی مقررات هوش مصنوعی قانون هوش مصنوعی تنظیم هوش مصنوعی مقررات مربوط پیش نویس قانون هوش مصنوعی اتحادیه اروپا دستورالعمل ها هوش مصنوعی هوش مصنوعی هوش مصنوعی داده ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.farsnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «فارس» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۰۷۸۵۸۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

فو فایتر ؛ چشم تیزبین پنتاگون در مدار زمین برای ردیابی موشک ها(+عکس)

عصر ایران؛ مجله تصویری سلاح - آژانس توسعه فضایی (Space Development Agency) آمریکا به تازگی اعلام کرد که شرکت میلنیوم اسپیس سیستمز (Millennium Space Systems) قرار است ماهواره های دفاع موشکی پروژه فو فایتر (FOO Fighter) را توسعه دهد. طی قراردادی به ارزش 414 میلیون دلار، میلنیوم اسپیس سیستمز هشت ماهواره برای ارائه "کنترل آتش" سامانه دفاع موشکی زمینی را ارائه خواهد کرد.

به طور کلی، کنترل آتش شامل فناوری های مختلفی مانند رادار یا حسگرهای دیگر، کامپیوترها و تسلیحات را در یک سامانه منسجم ترکیب می کند که توانایی شناسایی تهدیدات و اهداف را فراهم کرده و سپس سلاح ها یا دیگر اقدامات متقابل را به سمت آنها هدایت می کند.

تحویل فو فایتر تا سال 2027

میلنیوم اسپیس سیستمز که در مالکیت شرکت بوئینگ قرار دارد باید این ماهواره ها را تا سه ماهه اول سال 2027 تحویل دهد. این پروژه با نام کامل Fire-Control On Orbit-Support-To-The-War Fighter یا به اختصار فو فایتر بخش مهمی از زنجیره کشتار دفاع موشکی پنتاگون را تشکیل خواهد داد.

نمونه اولیه مجموعه ماهواره های فو فایتر دارای دوربین های الکترواپتیکال و فروسرخ برای ارائه گزینه های جدید کنترل آتش است.

حسگرهای کنترل آتش، آنهایی هستند که قادر به ردیابی اهداف با دقت بالا و ارائه مختصات دقیق برای جنگنده ها یا سامانه تسلیحاتی روی زمین - در این مورد، رهگیرهای دفاع موشکی - هستند.

این ماهواره ها به شناسایی، هشدار و ردیابی دقیق تهدیدات موشکی پیشرفته، از جمله سامانه های موشکی ابرصوت کمک خواهند کرد. هدف نهایی افزایش قابلیت های جهانی کنترل آتش است.

ماهواره های فو فایتر با افزایش برد تشخیص موشک های ابرصوت ارتفاع پایین، در مقایسه با موشک های بالستیک قاره پیما، زمان هشدار را برای شناسایی و پاسخ به تهدیدات ابرصوت افزایش می دهند.

در شرایطی که در اصل شبیه به مجموعه لایه ردیابی (Tracking Layer) است، اما ماهواره های فو فایتر مجزا هستند. مجموعه لایه ردیابی فقط برای نظارت بر موشک های ابرصوت با قابلیت مانور بالا بهینه شده است.

به گفته درک تورنیر، مدیر آژانس توسعه فضایی، برنامه فو فایتر نمایشی عملیاتی از تلاش های کنترل آتش ارائه می کند که جدا از تلاش های جاری هشدار/ردیابی موشک و دفاع موشکی ما، اما مکمل آنها است.

ماهواره هایی برای افزایش قابلیت های دفاع موشکی

اگرچه جزئیات این پروژه بیشتر محرمانه باقی مانده است، درک تورنیر در جریان اجلاس نیروی هوایی 2023 فاش کرد که ماهواره های فو فایتر برای نظارت بر چند تهدید نامشخص که مجموعه لایه ردیابی در حال حاضر به آنها رسیدگی نمی کند، توسعه می یابد.

تورنیر به این نکته نیز اشاره داشت که در صورت موفقیت آمیز بودن آزمایش، فناوری حسگر کنترل آتش در ترانش 3 (Tranche 3) و ترانش 4 (Tranche 4) مجموعه لایه ردیابی، ماهواره هایی که قرار نیست به ترتیب تا سال 2028 و 2030 پرتاب شوند، گنجانده می شود.

به گفته جیسون کیم، مدیرعامل میلنیوم اسپیس سیستمز، پروژه فو فایتر برای مقابله با تهدیدات پیشرفته طراحی شده است. این یک ماموریت حیاتی است که به محافظت از آمریکا و متحدان این کشور در برابر تهدیدات پیشرفته کمک خواهد کرد.

آژانس توسعه فضایی در درخواست اولیه خود قصد داشت توسعه ماهواره های فو فایتر را به بیش از یک توسعه دهنده ارائه کند. با این وجود، این طرح تغییر کرده و میلنیوم اسپیس سیستمز به عنوان تنها توسعه دهنده این پروژه انتخاب شده است.

به گفته آژانس توسعه فضایی، این مرکز پیشنهادهای دریافت شده پس از فراخوان را ارزیابی کرده و تشخیص داد که انتخاب یک توسعه دهنده بهترین گزینه ممکن است.

کانال عصر ایران در تلگرام بیشتر بخوانید: برنامه‌ریزی پنتاگون برای استفاده از موشک حرارتی هسته‌ای تا سال 2025 (+عکس)

دیگر خبرها

  • گلایه پیولی از خبرنگاران: نمی‌توانم شما را کنترل کنم!
  • یوتیوب روی توسعه ابزار جدید هوش‌مصنوعی کار می‌کند
  • فو فایتر؛ چشم تیزبین پنتاگون در مدار زمین برای ردیابی موشک‌ها
  • فو فایتر ؛ چشم تیزبین پنتاگون در مدار زمین برای ردیابی موشک ها(+عکس)
  • آمریکا از چین و روسیه خواست کنترل سلاح‌های هسته‌ای را به «هوش مصنوعی» نسپارند
  • چالش‌های زیست‌محیطی در توسعه هوش مصنوعی
  • جلوگیری از درج آگهی جعلی مسکن/ کنترل بازار با مالیات
  • مذاکره هیئت‌های تجاری کشورهای مختلف با فعالان اقتصادی آذربایجان‌شرقی
  • دستاورد ۵میلیارد یورویی اکسپو ایران
  • صهیونیست‌ها ناچارند تسلیم شوند