هل تختار السيارات ذاتية القيادة سلامة الراكب عند تعرضها للحوادث ؟

لنفترض أنك تقود سيارة ، ومعك راكبين آخران ، وفجأة قفز أمامك ثلاثة من المشاة ، وكان عليك أن تختار بين تجنب الاصطدام بالمشاة أو الاصطدام بحاجز إسمنتي ، فأيهما تختار ؟
منذ عام 2016 يقوم علماء الذكاء الاصطناعي بطرح هذا السؤال على الناس في جميع أنحاء العالم من خلال منصة Moral Machine على الإنترنت والتي يستضيفها معهد ماساتشوستس للتكنولوجيا ، لتحديد الاستجابة الأخلاقية للبشر والتي يجب أن يحاكيها الذكاء الاصطناعي في السيارات ذاتية القيادة .
وفي وقت لاحق قام فريق Moral Machine بعرض ردود أكثر من 2 مليون سائق في 233 دولة ، وقد وجد الفريق استجابات مختلفة تبعًا للثقافة الإقليمية والوضع الاقتصادي للدولة .
محتويات
أهمية هذا البحث
يتبر هذا البحث هام جدًا ، حيث تستعد السيارات ذاتية القيادة للدخول في الخدمة في الولايات المتحدة وعدد من الدول الأخرى ، وقد يجد صانعو السيارات ذاتية القيادة أنهم عرضة للمسائلة القانونية ، إذا اصطدمت السيارة ذاتية القيادة بأحد المشاة ، أو تسببت في ضرر لأحد الراكبين .
وتسلط نتائج هذا البحث الضوء على الاختلافات في البرامج الأخلاقية التي يجب أن يتمتع بها السائق الآلي ، تبعًا للمنطقة التي سيعمل بها .
ما فعله العلماء في الدراسة
يستخدم Moral Machine مجموعة تتكون من 13 سؤال ، وكل سؤال له خياران إما حماية ركاب السيارة أم حماية المشاة ، مع اختلاف صفات المشاة والركاب بشكل عشوائي من حيث الجنس والعمر والوضع الاجتماعي واللياقة البدنية .
على سبيل المثال يطرح أحد الأسئلة سيناريو أن يختار السائق بين قتل رجلين مسنين وإمرأة عجوز يعبرون الطريق أو انحراف السيارة وتحطمها وبداخلها رجل وسيدة بالغين وصبي ، كما تم طرح العديد من السيناريوهات المختلفة .
وقد تم تقسيم المشاركين تبعًا لمستوياتهم التعليمية والاجتماعية والاقتصادية وعمرهم ونوعهم ودينهم ومواقفهم السياسية ، ثم تم تقسيم المشاركين جغرافيًا ، ووجد أنهم وقعوا في ثلاثة مجموعات ثقافية ، وهي الشرقية (تتضمن الشرق الأوسط ودول شرق آسيا ذات الخلفيات الإسلامية ) والغربية (تشمل أوروبا وأمريكا الشمالية ) والجنوبية (تشمل أمريكا الوسطى والجنوبية ) .
قال إدموند عواد ، عالم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا والمؤلف الرئيسي للدراسة : ” إن الهدف من الدراسة هو تشجيع النقاش العام حول هذا الموضوع ، وقياس الأفضليات الثقافية للأفراد ”
وقد وجد الباحثون أن الأشخاص في المتوسط قد اختاروا :
إنقاذ حياة البشر عن الحيوانات .
إنقاذ الأرواح الأكثر عن الأرواح الأقل .
إعطاء الأولية لإنقاذ الشباب عن كبار السن .
أهمية البحث لمصنعي السيارات
يصارع مصنعو السيارات ومطوري التكنولوجيا مع هذه المعضلة الأخلاقية ، وذلك لأن السيارات ذاتية القيادة يجب أن تلتزم بالقوانين الأخلاقية الروبوتية الموجودة مسبقًا ، والتي تملي على الروبوت أن لا يضر أحد ويجب أن يطيع البشر .
بالتأكيد لا تنطبق نتائج منصة “الجهاز الأخلاقي ” بنسبة 100% مع الواقع ، فالسيناريوهات تفترض موت أحد الطرفين وهذا لن يحدث دائمًا على الطريق .
كيف نقارن هذه النتائج مع القواعد الحالية ؟
تتعارض النتائج التي توصل إليها الفريق مع بعض الإرشادات الحالية للسيارات ذاتية القيادة ، على سبيل المثال أوصت لجنة الأخلاقيات الألمانية عام 2017 بشأن السيارات ذاتية القيادة بأنها لا يجب أن تميز في قواعد بين الأشخاص على أساس سماتهم الشخصية مثل العمر والجنس والوضع الاجتماعي .
ويقول عوض : ” إن محاولة وضع قواعد أخلاقية عالمية أمر صعب ، فبعض القواعد ستكون مقبولة في بلدان ولن تكون مقبولة في بلدان أخرى ” .
حيث وجدت النتائج على سبيل المثال أن المشاركين اختاروا إنقاذ أرواح البشر على أرواح الحيوانات في معظم المناطق ، ولكن لوحظ أن الأبقار مقدسة في عدد من البلدان الآسيوية ، وإيذائها قد يسبب عواقب سيئة .
وتعتبر هذه الاختلافات مشكلة شاملة في عالم التكنولوجيا ، ويجعل بعض المنتجات أقل فاعلية بالنسبة للمستخدمين ، ويأمل عوض في أن تخضع هذه النتائج للمزيد من النقاش العام لحل هذه المعضلة الأخلاقية التي تواجه السيارات ذاتية القيادة ، لأن هذه النتائج تؤثر على نمو صناعة السيارات ذاتية القيادة .