مسؤولية أخلاقية

المسؤولية الأخلاقية في الفلسفة هي حالة (من الناحية الأخلاقية) تستحق الثناء أواللوم أوالمكافأة أو العقاب بنتيجة فعل أو امتناع عن فعل وفقًا لالتزامات أخلاقية معينة.[1][2][3] ويُعتبر تحديد ما إذا كان أي شيء ما «ملزما من الناحية الأخلاقية» مصدر قلق رئيسي للأخلاقيات. لايشير الفلاسفة إلى الأشخاص الذين يتحملون المسؤولية الأخلاقية علي أنهم وكلاء للأخلاقية. حيث يكون لديهم القدرة على التفكير في وضعهم، وتشكيل نوايا حول كيفية تصرفهم، ومن ثم تنفيذ ذلك الإجراء. وأصبح مفهوم حرية الإرادة مسألة هامة في النقاش حول ما إذا كان الأفراد مسؤولون أخلاقيا عن أفعالهم أكثر من أي وقت مضى. المسؤولية الأخلاقية لا تساوي بالضرورة مع المسؤولية القانونية. فالشخص يكون مسؤول قانونا عن حدث ما عندما يكون النظام القانوني عرضة لمعاقبة ذلك الشخص بسبب هذا الحدث. مثال على ذلك قصيدة «أولاً جاءوا ...» للقس الألماني مارتن نيمولر.

لا تتساوى المسؤولية الأخلاقية بالضرورة مع المسؤولية القانونية. يُعتبر الفرد مسؤولًا قانونيًا عن حدث ما عند مواجهته عقوبات مفروضة من النظام القانوني جراء ذلك الحدث. على الرغم من ذلك، يواجه الفرد المسؤول أخلاقيًا عن فعل ما في كثير من الأحيان مسؤولية قانونية مصاحبة لهذا الفعل، لكن لا تتطابق الحالتان دائمًا.

البحث التجريبي

يقترح ماورو أن الإحساس بالمسؤولية الشخصية غير نابع أو متطور عالميًا بين البشر، إذ جادل بغياب هذا الإحساس لدى حضارة إيراكوي الناجحة.[4]

في السنوات الأخيرة، سعت أبحاث الفلسفة التجريبية إلى استقصاء مدى توافقية أو لاتوافقية الحدس الفطري للشخص حيال كل من الحتمية والمسؤولية الأخلاقية. شملت هذه الدراسات التجريبية عددًا من الدراسات العابرة للثقافات.[5] مع ذلك، لم يصل النقاش الدائر حول توافقية أو لاتوافقية الحدس الفطري إلى نتيجة لصالح إحدى وجهتي النظر، إذ خلصت النقاشات إلى العديد من الأدلة الداعمة لكلا الطرفين. على سبيل المثال، يميل الأفراد إلى الإجابة بالنفي، أو تقديم إجابات لاتوافقية، عند عرض حالات مجردة عليهم وسؤالهم عن إمكانية اعتبار الشخص مسؤولًا أخلاقيًا عن سلوك غير أخلاقي عند إرغامه على فعله. في المقابل، يميل الأفراد إلى الإجابة بأن الفرد مسؤول أخلاقيًا عن أفعاله، حتى مع حتميتها (أي، يقدمون إجابات توافقية)، عند سؤالهم عن سلوك غير أخلاقي محدد مرتكب من قبل شخص محدد.[6]

يدرس علم الأعصاب الخاص بالإرادة الحرة مختلف التجارب التي من شأنها إلقاء الضوء على الإرادة الحرة.

المسؤولية الجماعية

عادة ما تُسند المسؤولية إلى أفراد من الوكلاء الأخلاقيين عند محاولة إسنادها. مع ذلك، جادل جويل فاينبيرغ، من بين آخرين، بإمكانية تحمل الشركات والمجموعات البشرية الأخرى ما يُسمى «المسؤولية الأخلاقية الجماعية» عن حالة من الشؤون المتعددة.[7] على سبيل المثال، في فترة حكم نظام الفصل العنصري الأبارتايد لجنوب أفريقيا، أمكن تحميل حكومة الدولة المسؤولية الأخلاقية الجماعية عن انتهاك حقوق مواطني جنوب أفريقيا من غير الأوروبيين.[8]

افتقار المسؤولية الأخلاقية في الاعتلال النفسي

تشمل السمات المحددة للاعتلال النفسي «فشل الفرد في تحمل مسؤولية أفعاله».[9]

الأنظمة الاصطناعية

ترافقت نشأة التشغيل الآلي، والروبوتية وغيرها من التقنيات ذات الصلة بظهور تساؤل حول «إمكانية اعتبار النظام الصناعي مسؤولًا أخلاقيًا»، ويتخذ هذا التساؤل شكلًا آخر في السؤال، «متى يمكن (في حال أمكن ذلك على الإطلاق) انتقال المسؤولية الأخلاقية من الصانع الإنسان إلى النظام؟».[10][11]

يتداخل هذان التساؤلان جدلًا مع أخلاقيات الآلة، على الرغم من اختلافهما عنها، إذ تهتم الأخيرة في السلوك الأخلاقي للأنظمة الاصطناعية. يكمن التركيز الرئيسي للنقاش في مدى اعتبار سلوك النظام الآلي مؤهلًا لإيلاء أي مسؤولية أخلاقية لهذا النظام.

الحجج المعارضة لإمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا

افترضت باتيا فريدمان إلى جانب بيتر كان الابن أن القصدية شرط ضروري للمسؤولية الأخلاقية، وأن الأنظمة الحاسوبية، كما يمكن تصورها في عام 1992، مفتقرة للقصدية في مادتها وبنيتها.[11]

جزم آرثر كوفليك بوجوب تحمل البشر المسؤولية الأخلاقية المطلقة عن جميع القرارات الحاسوبية، إذ أن تصميم هذه الحواسيب وكتابة برامجها عائد بأكمله إلى البشر. أشار أيضًا إلى استحالة تنازل البشر عن إشرافهم على الأجهزة الحاسوبية. [10]

نظر فرانسيس غرودزنسكي وآخرون في الأنظمة الاصطناعية القابلة للنمذجة بوصفها آلات محدودة الحالات. افترضوا أن الآلة غير مسؤولة أخلاقيًا عند امتلاكها جدول انتقال ثابت الحالة. حتى في حال قدرة الآلة على تعديل جدولها، تبقى درجة من المسؤولية الأخلاقية على عاتق مصمم الآلة.[12]

جادل باتريك هيو بإمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا عند نشوء قواعد سلوكها وآليات تزويدها بهذه القواعد بشكل مستقل عن البشر الخارجيين دون تزويدهم لها بالكامل. جادل هيو معتبرًا هذه الأنظمة بمثابة خروج جوهري عن التقنيات والنظرية الموجودة في عام 2014. لا يتحمل النظام الاصطناعي القائم على هذه التقنيات أي مسؤولية عن سلوكه. يتحمل البشر صانعو هذا النظام ومبرمجوه المسؤولية الأخلاقية.[12]

الحجج المؤيدة لإمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا

اقترح كولن آلن وآخرون إمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا عند عدم القدرة على تمييز سلوكياتها وظيفيًا عن الشخص الأخلاقي، فصاغوا فكرة «اختبار تورنغ الأخلاقي». تنكر آلن وزملاؤه لاحقًا لاختبار تورنغ الأخلاقي جراء الجدل المحيط باختبار تورنغ.[13]

وصف أندرياس ماتياس ما أسماه «فجوة المسؤولية»، معتبرًا أنه من الظلم تحميل البشر المسؤولية عن الآلة، وأن إسناد المسؤولية للآلة من شأنه تحدي أساليب الإسناد «التقليدية». اعتبر ماتياس أن سلوك الآلة عائد إلى الآلة نفسها، وليس إلى مصمميها أو مشغليها، في ثلاث حالات مقترحة. أولًا، جادل بأن الآلات الحديثة غير قابلة للتنبؤ بشكل متأصل (إلى حد ما)، إذ تؤدي المهام الموكلة إليها، لكن يتعذر التحكم بها بوسائل أبسط. ثانيًا، أن «طبقات الغموض» آخذة في الازدياد بين المصنّعين والنظام، نظرًا إلى استبدال البرامج المشفرة يدويًا بأخرى أكثر تطورًا. ثالثًا، في الأنظمة ذات قواعد التشغيل القابلة للتغير خلال تشغيل الآلة.[14]

مراجع

  1. "معلومات عن مسؤولية أخلاقية على موقع jstor.org"، jstor.org، مؤرشف من الأصل في 16 مايو 2020.
  2. "معلومات عن مسؤولية أخلاقية على موقع id.ndl.go.jp"، id.ndl.go.jp، مؤرشف من الأصل في 1 مايو 2021.
  3. "معلومات عن مسؤولية أخلاقية على موقع thes.bncf.firenze.sbn.it"، thes.bncf.firenze.sbn.it، مؤرشف من الأصل في 13 مايو 2021.
  4. Nahmias, Eddy؛ Stephen Morris؛ Thomas Nadelhoffer؛ Jason Turner (2006)، "Is Incompatibilism Intuitive?"، Philosophy and Phenomenological Research، 73 (1): 28–52، CiteSeerX 10.1.1.364.1083، doi:10.1111/j.1933-1592.2006.tb00603.x.
  5. Mauro, Frédéric (1964)، L'expansion européenne (1680–1870) [European expansion (1680–1870)]، Nouvelle Clio: L'Histoire et ses problèmes (باللغة الفرنسية)، Paris: Presses Universitaires de France، ج. 27، ص. 213، Ces langues nouvelles vehiculent des concepts nouveaux et des idées parfois fort difficiles a comprendre: par exemple le principe de responsibilité personnelle pour les Iroquiens. [Translation: These new languages introduce new concepts and new ideas—sometimes very difficult to understand—for example the principle of personal responsibility for the Iroquois.]
  6. Nichols, Shaun؛ Joshua Knobe (2007)، "Moral Responsibility and Determinism: The Cognitive Science of Folk Intuitions"، Noûs، 41 (4): 663–685، CiteSeerX 10.1.1.175.1091، doi:10.1111/j.1468-0068.2007.00666.x.
  7. Giesler, Markus؛ Veresiu, Ela (2014)، "Creating the Responsible Consumer: Moralistic Governance Regimes and Consumer Subjectivity"، Journal of Consumer Research، 41 (October): 849–867، doi:10.1086/677842.
  8. Risser, David T. 2006. 'Collective Moral Responsibility'. موسوعة الإنترنت للفلسفة (Accessed 8 Sept 2007)
  9. Harpur, T. J.؛ Hare, R. D.؛ Hakstian, A. R. (1989)، "Two-factor conceptualization of psychopathy: Construct validity and assessment implications."، Psychological Assessment، 1 (1): 6–17، doi:10.1037/1040-3590.1.1.6.
  10. Grodzinsky, Frances S.؛ Miller, Keith W.؛ Wolf, Marty J. (21 يونيو 2008)، "The ethics of designing artificial agents"، Ethics and Information Technology، 10 (2–3): 115–121، doi:10.1007/s10676-008-9163-9، S2CID 41344925.
  11. Kuflik, Arthur (1999)، "Computers in control: Rational transfer of authority or irresponsible abdication of autonomy?"، Ethics and Information Technology، 1 (3): 173–184، doi:10.1023/A:1010087500508، S2CID 44313234.
  12. Hew, Patrick Chisan (13 مايو 2014)، "Artificial moral agents are infeasible with foreseeable technologies"، Ethics and Information Technology، 16 (3): 197–206، doi:10.1007/s10676-014-9345-6، S2CID 18431764.
  13. Allen, Colin؛ Smit, Iva؛ Wallach, Wendell (سبتمبر 2005)، "Artificial Morality: Top-down, Bottom-up and Hybrid Approaches"، Ethics and Information Technology، 7 (3): 149–155، CiteSeerX 10.1.1.307.7558، doi:10.1007/s10676-006-0004-4، S2CID 4563893.
  14. Matthias, Andreas (2004)، "The responsibility gap: Ascribing responsibility for the actions of learning automata"، Ethics and Information Technology، 6 (3): 175–183، CiteSeerX 10.1.1.456.8299، doi:10.1007/s10676-004-3422-1، S2CID 21907954.
  • بوابة أخلاقيات
  • بوابة السياسة
  • بوابة القانون
  • بوابة علم الاجتماع
  • بوابة فلسفة
  • بوابة ليبرالية
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.