يجب أن يتعلم باحثو الذكاء الاصطناعي ويتبعوا الأخلاق

يجب أن يتعلم باحثو الذكاء الاصطناعي ويتبعوا الأخلاق

يرغب العلماء الذين يجمعون الذكاء الاصطناعي والتقنيات المستقلة في فهم أخلاقي قوي للتأثير الذي يمكن أن يحدثه عملهم.

أصدر أكثر من 100 من رواد التكنولوجيا مؤخرًا رسالة مفتوحة إلى الأمم المتحدة حول موضوع الأسلحة المستقلة الفتاكة ، أو "الروبوتات القاتلة".

هؤلاء الأشخاص ، على سبيل المثال ، رجل الأعمال إيلون ماسك إلى جانب مؤسسي العديد من شركات الروبوتات ، هم جزء من الجهد الذي بدأ في عام 2015. ودعت الرسالة إلى إنهاء سباق التسلح الذي ادعى أنه يمكن أن يكون "الثورة الثالثة في الحرب ، بعد البارود والأسلحة النووية ".

لدى الأمم المتحدة دور يجب أن تؤديه ، ولكن المسؤولية عن المستقبل القريب لهذه الأنظمة يجب أن تبدأ أيضًا من المختبر. يحتاج نظام التعليم الذي يدرب باحثو الذكاء الاصطناعي لدينا إلى تعليمهم الأخلاقيات وكذلك الترميز.

الاستقلالية في الذكاء الاصطناعي

قد تتخذ الأنظمة المستقلة القرارات بنفسها ، مع الحد الأدنى أو عدم وجود مدخلات من قبل الناس. هذا يزيد بشكل كبير من فعالية الروبوتات والأجهزة المماثلة.

على سبيل المثال ، لا تتطلب طائرة الشحن المستقلة بدون طيار سوى عنوان الشحن ، وقد تعمل لنفسها بعد ذلك على أن يكون أفضل طريق تسلكه - التغلب على أي حواجز قد تواجهها على طول الطريق ، على سبيل المثال ، الطقس السيئ أو سرب من طيور النورس الفضولي. .

كان هناك قدر كبير من الأبحاث على الأنظمة المستقلة ، ويتم الآن تطوير طائرات الشحن بدون طيار من قبل شركات مثل أمازون. من الواضح أنه يمكن استخدام نفس التكنولوجيا بسهولة لإجراء عمليات توصيل أكثر شرا من الكتب أو الطعام.

أصبحت الطائرات بدون طيار أيضًا أصغر حجمًا وأرخص ثمناً وأكثر قوة ، مما يعني أنه سيكون من الممكن تحقيقها قريبًا للجيوش الطائرة المؤلفة من آلاف الطائرات بدون طيار ليتم إنتاجها ونشرها.

وقد دفعت القدرة على نشر برامج أسلحة كهذه ، المنفصلة بشكل أساسي عن الإدارة الفردية ، إلى توجيه الرسالة التي تحث الأمم المتحدة على "إيجاد طريقة لحمايتنا جميعًا من هذه المخاطر".

الأخلاق والمبررات

بغض النظر عن رأيك في أنظمة الأسلحة هذه ، فإن المسألة تسلط الضوء على متطلبات النظر في القضايا الأخلاقية في أبحاث الذكاء الاصطناعي.

كما هو الحال في معظم مجالات الرياضيات ، فإن الحصول على العمق الأساسي لإنتاج مساهمات في معرفة الكوكب يتطلب التركيز على موضوع معين. غالبًا ما يكون الباحثون متخصصين في مجالات ضيقة نسبيًا وقد يفتقرون إلى أي تعليمات رسمية في الأخلاق أو التفكير الأخلاقي.

هذا النوع من التفكير هو بالتحديد المطلوب بشكل متزايد. على سبيل المثال ، يجب أن تكون السيارات ذاتية القيادة ، التي يتم اختبارها في الولايات المتحدة ، قادرة على إصدار أحكام حول الظروف التي قد تكون ضارة.

على سبيل المثال ، كيف يمكن أن تستجيب قطة إذا عبرت الطريق بشكل غير متوقع؟ هل من الحكمة أن تدهس القطة ، أو حتى تنحرف بحدة لمنعها ، مع المخاطرة بإلحاق الأذى بركاب السيارة؟

نأمل أن تكون هذه الحالات نادرة ، ولكن يجب أن تكون السيارة مجهزة ببعض المبادئ المحددة في عقلك لتوجيه عملية اتخاذ القرار. كما تضعها فيرجينيا ديجنوم عند إرسال ورقتها البحثية بعنوان " الاستقلالية المسؤولة" في المؤتمر الدولي المشترك الأخير حول الذكاء الاصطناعي (IJCAI) في ملبورن:

تتمتع السيارة ذاتية القيادة بأخلاق ؛ السؤال هو أخلاق من؟

تم استكشاف موضوع مماثل في ورقة "أتمتة عقيدة التأثير المزدوج" من قبل نافين سوندار جوفينداراجولو وسلمر برينجزجورد.

عقيدة التأثير المزدوج هي وسيلة للتفكير في القضايا الأخلاقية ، مثل الأفضل للدفاع عن النفس في ظل ظروف معينة ، ويُنسب إلى هذا الباحث الكاثوليكي في القرن الثالث عشر توماس الأكويني.

يأتي اسم Double Impact من الحصول على تأثير كبير (مثل إنقاذ حياة شخص ما) بالإضافة إلى التأثير السيئ (إيذاء شخص آخر في هذه العملية). يمكن أن تكون هذه طريقة لتبرير أنشطة مثل إطلاق طائرة بدون طيار على سيارة تنهال على المشاة.

ماذا يعني هذا بالنسبة للتعليم؟

يشير ظهور الأخلاق كموضوع للنقاش داخل أبحاث الذكاء الاصطناعي إلى أنه يجب علينا أيضًا التفكير في كيفية إعداد الطلاب لعالم تنتشر فيه الأنظمة المستقلة بشكل متزايد.

تم إطلاق الطلب على الأفراد "على شكل حرف T" مؤخرًا. تبحث الشركات حاليًا عن علماء ليس فقط مع منطقة معينة ذات سمك تقني (الضربة الرأسية لـ T) ولكن أيضًا مع القدرات المهنية والسمات الشخصية (السكتة الدماغية المسطحة). معًا ، يمكنهم رؤية المشكلات من وجهات نظر مختلفة والعمل بفعالية في فرق متعددة التخصصات.

تشتمل معظم دورات البكالوريوس في علوم الكمبيوتر والمجالات المماثلة على دورة حول الأخلاقيات المهنية والممارسة. تركز هذه عادةً على الملكية الفكرية وحقوق التأليف والنشر وبراءات الاختراع وقضايا الخصوصية ، وهي قضايا مهمة بالتأكيد.

ومع ذلك ، يبدو واضحًا من المناقشات في IJCAI أن هناك حاجة ناشئة لمواد إضافية حول المشكلات الأخلاقية الأوسع نطاقًا.

يمكن أن تشمل الموضوعات استراتيجيات للتحقق من أهون الشرين ، والنظريات القانونية مثل الإهمال الجنائي ، والتأثير التاريخي للتقنيات على هذا الكوكب.

النقطة الأساسية هي السماح للتلاميذ بدمج المنظورات الأخلاقية والمجتمعية في عملهم منذ البداية. بالإضافة إلى ذلك ، يبدو من المناسب طلب مقترحات بحثية لتوضيح كيفية دمج الاهتمامات الأخلاقية.

نظرًا لأن الذكاء الاصطناعي أصبح على نطاق أوسع وعميقًا في الحياة اليومية ، فمن المهم جدًا أن يفهم التقنيون المجتمع الذي يعيشون فيه والتأثير الذي قد تحدثه إبداعاتهم فيه.