مقاله ترجمه شده چگونگی و چرایی کاربرد هوش مصنوعی در تصمیمات بخش دولتی: توضیح و ارزیابی

سال نشر: ۲۰۱۸

نوع نگارش مقاله: علمی پژوهشی (Research articles)

تعداد صفحه انگلیسی:  ۶ صفحه PDF

تعداد صفحه ترجمه فارسی: ۱۶  صفحه WORD

دانلود رایگان مقاله انگلیسی

کد محصول: M1183

نام ناشر (پایگاه داده): arxiv

نام مجله:   Computers and Society

عنوان کامل فارسی:

مقاله انگلیسی ترجمه شده ۲۰۱۸ :  چگونگی و چرایی کاربرد هوش مصنوعی در تصمیمات بخش دولتی: توضیح و ارزیابی

عنوان کامل انگلیسی:

Hows and Whys of Artificial Intelligence for Public Sector Decisions: Explanation and Evaluation

چکیده فارسی:

“ارزیابی” همیشه یک چالش اساسی در توسعه نرم افزارهای مبتنی بر هوش مصنوعی (AI) به دلیل پیچیدگی فنی نرم افزار و فرآیندهای پیچیده اجتماعی – فنی موجود درآن، بوده است. پیشرفت های اخیر در یادگیری ماشین (ML) که توسط شبکه های عصبی عمیق امکان پذیر شده است ، چالش ارزیابی چنین نرم افزارهاییی را به دلیل ماهیت مبهم این محصولات مصنوعی مبتنی بر ML ، تشدید کرده است. یک موضوع مهم کلیدی ، توانایی (ناتوانی) این سیستم ها در تولید توضیحات مفید در مورد خروجی هایشان است و ما معتقدیم که مسائل توضیح و ارزیابی به طور تنگاتنگی با هم مرتبط هستند. این مقاله عناصر یک سیستم AI مبتنی بر ML را در زمینه برنامه های تصمیم گیری بخش دولتی (PSD) شامل هوش مصنوعی و انسانی مدل سازی می کند ، و در ارزیابی و توضیح،  این عناصر را بر خلاف مسائل ترسیم می کند و نحوه ارتباط این دو را نشان می دهد. ما با توجه به مدل خود تعدادی مدل کاربرد PSD متداول را در نظر می گیریم و مجموعه ای از موضوعات اصلی مرتبط با توضیح و ارزیابی را در هر مورد شناسایی می کنیم. در نهایت ، ما چندین استراتژی را برای ترویج پذیرش گسترده تر فناوری های AI / ML در PSD پیشنهاد می کنیم ، به طوری که هر کدام بر اساس تمرکز بر عناصر مختلف مدل ما تفکیک می شوند ، و  به سیاست گذاران PSD اجازه می دهد رویکردی که متناسب با زمینه و نگرانی های آنها باشد ،انتخاب کنند.

Abstract

Evaluation has always been a key challenge in the development of artificial intelligence (AI) based software, due to the technical complexity of the software artifact and, often, its embedding in complex sociotechnical processes. Recent advances in machine learning (ML) enabled by deep neural networks has exacerbated the challenge of evaluating such software due to the opaque nature of these ML-based artifacts. A key related issue is the (in)ability of such systems to generate useful explanations of their outputs, and we argue that the explanation and evaluation problems are closely linked. The paper models the elements of a ML-based AI system in the context of public sector decision (PSD) applications involving both artificial and human intelligence, and maps these elements against issues in both evaluation and explanation, showing how the two are related. We consider a number of common PSD application patterns in the light of our model, and identify a set of key issues connected to explanation and evaluation in each case. Finally, we propose multiple strategies to promote wider adoption of AI/ML technologies in PSD, where each is distinguished by a focus on different elements of our model, allowing PSD policy makers to adopt an approach that best fits their context and concerns.

تمامی حقوق مادی و معنوی ترجمه ها برای پارس ترجمه محفوظ می باشد

تمامی حقوق مادی و معنوی ترجمه ها برای پارس ترجمه محفوظ می باشد