آخرین اخبار
facebook Telegram RSS ارسال به دوستان نسخه چاپی
کد خبر : 262946
تاریخ انتشار : 13 آبان 1398 11:39
تعداد بازدید : 793

پنتاگون برای هوش مصنوعی دستورالعمل اخلاقی منتشر کرد

هیاتی در پنتاگون پیش نویس دستورالعملی اخلاقی برای سیستم های هوش مصنوعی منتشر کرده است. در این دستورالعمل اشاره شده سیستم های مذکور باید عاری از هرگونه تعصب باشند.
undefined

فناوران- هرچند شرکت های فناوری برای ایجاد پس زمینه اخلاقی مناسب درباره کاربردهای هوش مصنوعی با چالش هایی روبه رو هستند اما وزارت دفاع آمریکا در این زمینه پیشقدم شده است.
هیات نوآوری دفاعی آمریکا به تازگی پیش نویس دستورالعملی اخلاقی هوش مصنوعی در وزارت دفاع را منتشر کرده که هدف آن کنترل فناوری های نوین است. برخی از این دستورالعمل ها قابل اجرا هستند مانند بررسی اعتبار  فناوری یا آنکه ریشه در سیاست های قدیمی دارند مانند لزوم مسئولیت پذیری انسانی در هر مرحله. اما بقیه موارد دستورالعمل های نوینی در حوزه عمومی و خصوصی هستند.
 طبق این پیش نویس سیستم هوش مصنوعی اخلاق مدار باید از تعصب ناخواسته در الگوریتم ها مانند نژاد پرستی جلوگیری کند. گاهی اوقات سیستم های هوش مصنوعی سبب می شوند که با افراد ناعادلانه رفتار شود. این هیات از ارتش خواست که اطمینان حاصل کند نه فقط کد ها بلکه منابع اطلاعاتی نیز خنثی هستند.
 همچنین در این پیش نویس هیات پنتاگون خواستار آن شده سیستم هوش مصنوعی قابل کنترل  باشد و چنانچه تشخیص دهد که عملکرد آن خسارتی غیرضروری به بار می آورد، خود را متوقف کند  یا  یک اپراتور انسانی بتواند آن را متوقف کند.
این امر اجازه تولید اسلحه های تمام خودکار را نمی دهد و  احتمال چالش زا شدن هوش مصنوعی را نیز می کاهد.  بر این اساس پیش نویس شامل فراخوانی برای خروجی هوش مصنوعی قابل ردیابی است که به مردم اجازه می دهد ببینند چگونه یک سیستم به نتیجه خود رسیده است.
منبع: مهر


نظر شما



نمایش غیر عمومی
تصویر امنیتی :