الزامات اخلاقی در سیر تصویب قانون هوش مصنوعی اتحادیه اروپا
محورهای موضوعی : فصلنامه مطالعات حقوقی فضای مجازی
رضا فرج پور
1
,
محمدباقر عامری نیا
2
,
معصومه گرجی نیا
3
1 - دانشجوی دکتری حقوق خصوصی، واحد یاسوج، دانشگاه آزاد اسلامی، یاسوج، ایران
2 - استادیار فقه و مبانی حقوق اسلامی، دانشکده حقوق، واحد یاسوج، دانشگاه آزاد اسلامی، یاسوج، ایران: نویسنده مسئول
3 - دانشجوی دکتری حقوق خصوصی، واحد یاسوج، دانشگاه آزاد اسلامی، یاسوج، ایران
کلید واژه: اخلاق, سازمان ملی هوش مصنوعی, سیاستگذاری, فناوری نوین, قانون, هوش مصنوعی,
چکیده مقاله :
زمینه و هدف: توسعه هوش مصنوعی (AI) به سرعت در حال تغییر جهان است، و این فناوری تأثیرات گستردهای بر زندگی روزمره، صنایع، و جوامع دارد. اما با رشد سریع هوش مصنوعی، مسائل اخلاقی و قانونی مرتبط با استفاده از این فناوری نیز به طور فزایندهای مطرح میشود. هدف از پژوهش حاضر بررسی چالشها و اصول اخلاقی و قانونی هوش مصنوعی میباشد و منابع علمی داخلی و خارجی را در این زمینه مرور میکند.
مواد و روشها: پژوهش کیفی حاضر به تبیین چالشهای حقوقی و اخلاقی عملکرد هوش مصنوعی بر اساس تحلیل آییننامه عمومی حفاظت از دادههای خصوصی اتحادیه اروپا میپردازد.
یافتهها: مهمترین چالشهای موجود در سازوکار عملکرد هوش مصنوعی از نظر اخلاقی عبارت است از حریم خصوصی و حفاظت از دادهها، شفافیت و پاسخگویی، عدالت و انصاف، تأثیرات اجتماعی و اقتصادی.
نتیجهگیری: استفاده از دستورالعملهای اخلاقی به عنوان تکمیل کننده قانون و ابزار حاکمیتی در توسعه و استفاده از هوش مصنوعی و تجزیه و تحلیل این شاخه از علم بسیار مهم تلقی میگردد و اغلب کشورهای توسعه یافته در حال نگارش و وضع قوانین مرتبط هستند. اهمیت هوش مصنوعی و گستردگی استفاده از آن در علوم مختلف از جمله علوم قضایی به حدی پررنگ بوده که اتحادیه اروپا قانونی با عنوان قانون هوش مصنوعی را در تاریخ ۱۳ ژوئن ۲۰۲۴ وضع نمود. لذا لازم است که در کشور ایران هم با استفاده از حقوقدانان برجسته و صاحب سبک و متخصصین علوم و فناوری ارتباطات و سایر صاحب نظران مرتبط نسبت به این مهم اقدام شایسته انجام پذیرد.
Background and Objective: The development of artificial intelligence (AI) is rapidly changing the world, and this technology has far-reaching effects on daily life, industries, and societies. But with the rapid growth of artificial intelligence, ethical and legal issues related to the use of this technology are also increasingly raised. The purpose of this research is to examine the challenges and ethical and legal principles of artificial intelligence and reviews domestic and foreign scientific sources in this field.
Materials and methods: The current qualitative research explains the legal and ethical challenges of artificial intelligence based on the analysis of the European Union's General Data Protection Regulation.
Findings: The most important challenges in the functioning mechanism of artificial intelligence from an ethical point of view are privacy and data protection, transparency and accountability, justice and fairness, social and economic
Conclusion: The use of ethical guidelines as a complementary law and governance tool in the development and use of artificial intelligence and analysis of this branch of science is considered very important, and most developed countries are writing and enacting related laws. The importance of artificial intelligence and the extent of its use in various sciences, including judicial sciences, have been so prominent that the European Union enacted a law entitled Artificial Intelligence Law on June 13, 2024. Therefore, it is necessary to take appropriate action in Iran with the help of prominent and stylish lawyers, experts in communication science and technology, and other related experts.
− جی گانکل، دیوید، )۳۲۲۳(. حقوق رباتها، ترجمه رضا فرج پور. تهران: انتشارات مجد
− رهبری، ابراهیم و شعبانپور، علی. )۳۲۲۳(. "چالشهای کاربرد هوش مصنوعی به عنوان قاضی در دادرسیهای
حقوقی ."فصلنامه تحقیقات حقوقی، ۰۹)ویژهنامه حقوق و فناوری(، .۲۲۲-۲۳۵
doi: 10.52547/jlr.2022.228967.2335
− مصطفوی اردبیلی، سید محمد مهدی؛ تقیزاده انصاری، مصطفی و رحمتیفر، سمانه. )۳۲۲۰(. "تأثیر هوش
مصنوعی بر نظام حقوق بشر بینالملل ."حقوق فناوریهای نوین، (8)،4 85-100.
doi: 10.22133/mtlj.2023.378057.1149
− صادقی، حسین و مهدی ناصر. )۳۱۵۵(. چالشهای اخالقی و حقوقی آییننامه اتحادیه اروپا در سازوکارهای
هوش مصنوعی در حوزه سالمت. مجله اخالق زیستی. ۳۲)۱۹(، .۳۲-۳
− Buolamwini, J., & Gebru, T. (2018). "Gender shades: Intersectional accuracy disparities in
commercial gender classification". In Conference on fairness, accountability and transparency
(pp. 77-91). PMLR.
− Cath, C., Wachter, S., Mittelstadt, B., Taddeo, M., & Floridi, L. (2018). "Artificial
intelligence and the ‘good society’: the US, EU, and UK approach". Science and engineering
ethics, 24, 505-528.
− Chatila, R., & Havens, J. C. (2019). "The IEEE global initiative on ethics of autonomous and
intelligent systems". Robotics and well-being, 11-16.
− Doshi-Velez, F., & Kim, B. (2017). "Towards a rigorous science of interpretable machine
learning". arXiv preprint arXiv:1702.08608.
− Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Vayena,
E. (2018). "AI4People—an ethical framework for a good AI society: opportunities, risks,
principles, and recommendations". Minds and machines, 28, 689-707.
− Gasser, U., & Almeida, V. A. (2017). A layered model for AI governance. IEEE Internet
Computing, 21(6), 58-62.
− IEEE Standards Association. (2019). "IEEE P7001 Transparency of Autonomous Systems."
− ISO/IEC JTC 1. (2020). "Information technology - Artificial intelligence - Overview of
ethical and societal concerns." ISO/IEC TR 24028.
− Kilian, G. R. O. S. S. (2020). "White Paper on Artificial Intelligence-A European approach
to excellence and trust". European Commission
− Lipton, Z. C. (2018). "The mythos of model interpretability: In machine learning, the concept
of interpretability is both important and slippery". Queue, 16(3), 31-57.
− Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). "A survey on
bias and fairness in machine learning". ACM computing surveys (CSUR), 54(6), 1-35.
− Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). "The ethics of
algorithms: Mapping the debate". Big Data & Society, 3(2), 2053951716679679.
− Mohassel, P., & Zhang, Y. (2017). "Secureml: A system for scalable privacy-preserving
machine learning". In 2017 IEEE symposium on security and privacy (SP) (pp. 19-38). IEEE.