تنظيم الذكاء الاصطناعي

تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين القطاع العام لتعزيز وتنظيم الذكاء الاصطناعي (إيه آي)؛[1] وبالتالي فهو مرتبط بالتنظيم الأوسع للخوارزميات. يعد المشهد التنظيمي والسياسي للذكاء الاصطناعي مسألةً ناشئةً في الولايات القضائية العالمية، بما في ذلك في الاتحاد الأوروبي.[2] يُعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به، ولكنه يمثل تحديًا.[3][4] يمكن أيضًا اعتبار تنظيم الذكاء الاصطناعي من خلال آليات مثل لوحات المراجعة وسيلة اجتماعية للتعامل مع مشكلة التحكم في الذكاء الاصطناعي.[5]

خلفية

في عام 2017 دعا إيلون مسك إلى تنظيم تطوير الذكاء الاصطناعي.[6] وفقًا للإذاعة الوطنية العامة، كان الرئيس التنفيذي لشركة تيسلا «من الواضح أنه ليس سعيدًا» للدفاع عن التدقيق الحكومي الذي يمكن أن يؤثر على صناعته الخاصة، لكنه يعتقد أن مخاطر الانتقال تمامًا بدون إشراف عالية جدًا: «عادةً ما تُوضع اللوائح عندما تحدث الكثير من الأشياء السيئة، هناك احتجاج عام، وبعد سنوات عديدة أُنشئت وكالة تنظيمية لتنظيم هذه الصناعة. يستغرق الأمر أبد الدهر. كان هذا في الماضي سيئًا ولكنه لم يكن شيئًا يمثل خطرًا أساسيًا على وجود الحضارة».[6]

وردًا على ذلك، عبّر بعض السياسيين عن شكوكهم بشأن حكمة تنظيم التكنولوجيا التي لا تزال قيد التطوير.[7] ردًا على مقترحات كلًا من مسك وفبرواري لعام  2017من قبل مشرعي الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي والروبوتات، جادل الرئيس التنفيذي لشركة إنتل بريان كرزانيتش بأن الذكاء الاصطناعي في مهده وأنه من السابق لأوانه تنظيم التكنولوجيا.[8] بدلًا من محاولة تنظيم التكنولوجيا نفسها، يقترح بعض العلماء إلى حدٍ ما وضع معايير مشتركة بما في ذلك متطلبات اختبار وشفافية الخوارزميات، ربما بالاشتراك مع شكل من أشكال الضمان.[9]

طبيعة ونطاق التنظيم

تركز اعتبارات السياسة العامة بشكلٍ عام على الآثار التقنية والاقتصادية وأنظمة الذكاء الاصطناعي[10] الجديرة بالثقة والتي تركز على الإنسان. يمكن تقسيم قوانين ولوائح منظمة العفو الدولية إلى ثلاثة مواضيع رئيسية، وهي إدارة نظم المعلومات الاستخبارية المستقلة، والمسؤولية والمساءلة عن الأنظمة، وقضايا الخصوصية والسلامة.[3] أصبح تطوير استراتيجيات القطاع العام لإدارة وتنظيم الذكاء الاصطناعي ضروريًا بشكلٍ متزايد على المستوى المحلي والوطني[11] والدولي[12] وفي مجموعة متنوعة من المجالات، من إدارة الخدمة العامة[13] والمساءلة[14] لإنفاذ القانون،[12] والقطاع المالي،[11] والروبوتات،[15] والقوات المسلحة[16] والأمن القومي،[17] والقانون الدولي.[18][19]

التنظيم العالمي

اقتُرح إنشاء مجلس إدارة عالمي لتنظيم تطوير الذكاء الاصطناعي في وقت مبكر على الأقل في عام 2017.[20] في ديسمبر 2018، أعلنت كندا وفرنسا عن خطط لجنة دولية للذكاء الاصطناعي المدعومة من جي 7، على غرار الفريق الدولي المعني بتغير المناخ، لدراسة الآثار العالمية للذكاء الاصطناعي على الناس والاقتصاد وتوجيه تنمية الذكاء الاصطناعي.[21] في عام 2019، تغير اسم الفريق إلى الشراكة العالمية بشأن الذكاء الاصطناعي، ولكن لم يُعتمد بعد من قبل الولايات المتحدة.[22][23]

انظر أيضًا

مراجع

  1. Berryhill, Jamie؛ Heang, Kévin Kok؛ Clogher, Rob؛ McBride, Keegan (2019)، Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF)، Paris: OECD Observatory of Public Sector Innovation، مؤرشف من الأصل (PDF) في 20 ديسمبر 2019.
  2. Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body.، Regulation of artificial intelligence in selected jurisdictions.، LCCN 2019668143، OCLC 1110727808.
  3. Wirtz, Bernd W.؛ Weyerer, Jan C.؛ Geyer, Carolin (24 يوليو 2018)، "Artificial Intelligence and the Public Sector—Applications and Challenges"، International Journal of Public Administration، 42 (7): 596–615، doi:10.1080/01900692.2018.1498103، ISSN 0190-0692.
  4. Buiten, Miriam C (2019)، "Towards Intelligent Regulation of Artificial Intelligence"، European Journal of Risk Regulation، 10 (1): 41–59، doi:10.1017/err.2019.8، ISSN 1867-299X.
  5. Sotala, Kaj؛ Yampolskiy, Roman V (19 ديسمبر 2014)، "Responses to catastrophic AGI risk: a survey"، Physica Scripta، 90 (1): 018001، doi:10.1088/0031-8949/90/1/018001، ISSN 0031-8949.
  6. "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'"، NPR.org (باللغة الإنجليزية)، مؤرشف من الأصل في 23 أبريل 2020، اطلع عليه بتاريخ 27 نوفمبر 2017.
  7. Gibbs, Samuel (17 يوليو 2017)، "Elon Musk: regulate AI to combat 'existential threat' before it's too late"، The Guardian، مؤرشف من الأصل في 06 يونيو 2020، اطلع عليه بتاريخ 27 نوفمبر 2017.
  8. Kharpal, Arjun (07 نوفمبر 2017)، "A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says"، CNBC، مؤرشف من الأصل في 22 مارس 2020، اطلع عليه بتاريخ 27 نوفمبر 2017.
  9. Kaplan, Andreas؛ Haenlein, Michael (2019)، "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence"، Business Horizons، 62: 15–25، doi:10.1016/j.bushor.2018.08.004.
  10. Artificial intelligence in society.، Organisation for Economic Co-operation and Development.، Paris، ISBN 978-92-64-54519-9، OCLC 1105926611، مؤرشف من الأصل في 21 يونيو 2020.{{استشهاد بكتاب}}: صيانة CS1: آخرون (link)
  11. Bredt, Stephan (04 أكتوبر 2019)، "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies"، Frontiers in Artificial Intelligence، 2، doi:10.3389/frai.2019.00016، ISSN 2624-8212.
  12. White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF)، Brussels: European Commission، 2020، ص. 1، مؤرشف من الأصل (PDF) في 19 أبريل 2020.
  13. Wirtz, Bernd W.؛ Müller, Wilhelm M. (03 ديسمبر 2018)، "An integrated artificial intelligence framework for public management"، Public Management Review، 21 (7): 1076–1100، doi:10.1080/14719037.2018.1549268، ISSN 1471-9037.
  14. Reisman, Dillon؛ Schultz, Jason؛ Crawford, Kate؛ Whittaker, Meredith (2018)، Algorithmic impact assessments: A practical framework for public agency accountability (PDF)، New York: AI Now Institute، مؤرشف من الأصل (PDF) في 14 يونيو 2020.
  15. Iphofen, Ron؛ Kritikos, Mihalis (03 يناير 2019)، "Regulating artificial intelligence and robotics: ethics by design in a digital society"، Contemporary Social Science: 1–15، doi:10.1080/21582041.2018.1563803، ISSN 2158-2041.
  16. AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense (PDF)، Washington, DC: United States Defense Innovation Board، 2019، OCLC 1126650738، مؤرشف من الأصل (PDF) في 14 يناير 2020.
  17. Babuta, Alexander؛ Oswald, Marion؛ Janjeva, Ardi (2020)، Artificial Intelligence and UK National Security: Policy Considerations (PDF)، London: Royal United Services Institute، مؤرشف من الأصل (PDF) في 02 مايو 2020.
  18. "Robots with Guns: The Rise of Autonomous Weapons Systems"، Snopes.com، 21 أبريل 2017، مؤرشف من الأصل في 20 فبراير 2022، اطلع عليه بتاريخ 24 ديسمبر 2017.
  19. Bento, Lucas (2017)، "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law"، Harvard Scholarship Depository، مؤرشف من الأصل في 23 مارس 2020، اطلع عليه بتاريخ 14 سبتمبر 2019.
  20. Boyd, Matthew؛ Wilson, Nick (01 نوفمبر 2017)، "Rapid developments in Artificial Intelligence: how might the New Zealand government respond?"، Policy Quarterly، 13 (4)، doi:10.26686/pq.v13i4.4619، ISSN 2324-1101.
  21. Innovation, Science and Economic Development Canada (16 مايو 2019)، "Declaration of the International Panel on Artificial Intelligence"، gcnws، مؤرشف من الأصل في 29 مارس 2020، اطلع عليه بتاريخ 29 مارس 2020.
  22. "The world has a plan to rein in AI—but the US doesn't like it"، Wired (باللغة الإنجليزية)، 08 يناير 2020، مؤرشف من الأصل في 18 أبريل 2020، اطلع عليه بتاريخ 29 مارس 2020.
  23. "AI Regulation: Has the Time Arrived?"، InformationWeek (باللغة الإنجليزية)، مؤرشف من الأصل في 23 مايو 2020، اطلع عليه بتاريخ 29 مارس 2020.
  • بوابة القانون
  • بوابة ذكاء اصطناعي
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.