دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد

اتحادیه اروپا به‌منظور تشویق کشورهای عضو به توسعه اخلاق‌مدارانه هوش مصنوعی، یک دستورالعمل هفت بندی را منتشر کرده است.

به گزارش پایگاه خبری آرمان اقتصادی و به نقل از انگجت، توسعه هیچ‌یک از فناوری‌های امروزی به‌اندازه توسعه هوش مصنوعی، نگرانی‌های اخلاقی و حتی ترس را برنمی‌انگیزد و فقط شهروندان عادی نیستند که نگران این مسئله هستند، بلکه شرکت‌های فیس‌بوک، گوگل و دانشگاه استنفورد با تأسیس مراکز تحقیقاتی اخلاق هوش مصنوعی روی آن سرمایه‌گذاری کرده‌اند.

اواخر سال گذشته کانادا و فرانسه برای ایجاد یک پیمان بین‌المللی برای بحث در مورد مسئولیت هوش مصنوعی همکاری کردند. امروز نیز کمیسیون اروپا دستورالعمل خود را که خواستار «هوش مصنوعی قابل‌اعتماد» است، منتشر کرد.

با توجه به این دستورالعمل اتحادیه اروپا، هوش مصنوعی باید به اصول پایه اخلاقی و احترام به استقلال بشر، پیشگیری از آسیب، عدالت و پاسخگویی پایبند باشد. این دستورالعمل شامل هفت الزام ذکرشده در زیر می‌شود و توجه ویژه‌ای به محافظت از قشرهای آسیب‌پذیر مانند کودکان و افراد معلول دارد. همچنین می‌گوید که شهروندان باید کنترل کاملی روی اطلاعات خود داشته باشند.

کمیسیون اروپا توصیه می‌کند که در هنگام توسعه یا استقرار هوش مصنوعی از یک فهرست ارزیابی استفاده شود، اما این دستورالعمل به معنای دخالت در سیاست یا مقررات شرکت‌ها نیست. در عوض یک چارچوب کلی ارائه می‌دهد.

کمیسیون اروپا در تابستان پیش‌رو تلاش خواهد کرد تا مناطقی را شناسایی کند که در آن راهنمایی‌های اضافی ممکن است لازم باشد و چگونگی به‌کارگیری این دستورالعمل و توصیه‌های خود را بهتر می‌کند.

در اوایل سال ۲۰۲۰ نیز گروهی از متخصصان بازخورد این مرحله آزمایشی را بررسی خواهند کرد. همانطور که پتانسیل ساختن چیزهایی مانند سلاح‌های خودکار و الگوریتم‌های تولید اخبار جعلی توسعه می‌یابند، دولت‌ها باید بیشتر در زمینه نگرانی‌های اخلاقی موضع‌گیری کنند.

خلاصه‌ای از دستورالعمل اتحادیه اروپا در زیر آمده است:

 

خروج از نسخه موبایل