인공 지능 (AI) 연구원은 윤리를 배우고 따라야합니다

인공 지능 (AI) 연구원은 윤리를 배우고 따라야합니다

인공 지능 과 자율 기술을 조합하는 과학자들은 자신의 작업이 미칠 수있는 영향에 대한 확실한 윤리적 이해를 원합니다.

최근 100 명 이상의 기술 선구자들이 치명적인 자율 무기 또는 "킬러 로봇"이라는 주제에 대해 유엔에 공개 서한을 발표했습니다.

예를 들어, 많은 로봇 회사의 창시자들과 함께 기업가 Elon Musk는 2015 년에 시작된 노력의 일부입니다. 화약과 원자 무기를 따르는 전쟁 ".

UN은 수행 할 부분이 있지만 이러한 시스템의 가까운 미래에 대한 책임도 실험실에서 시작해야합니다. AI 연구원을 교육하는 교육 시스템은 코딩뿐만 아니라 윤리에 대해서도 교육해야합니다.

AI의 자율성

자율 시스템은 사람의 입력을 최소화하거나 전혀없이 스스로 결정을 내릴 수 있습니다. 이것은 로봇 및 유사 장치의 효율성을 크게 증가시킵니다.

예를 들어, 자율 배송 드론은 배송 주소 만 필요로하며, 악천후 나 호기심 많은 갈매기 무리와 같이 도중에 발생할 수있는 모든 장벽을 극복하는 최선의 경로를 스스로 해결할 수 있습니다. .

자율 시스템에 대한 환상적인 연구가 진행되고 있으며 현재 Amazon과 같은 회사에서 배송 드론을 개발하고 있습니다. 분명히 동일한 기술을 쉽게 활용하여 책이나 음식보다 훨씬 더 까다로운 배달을 할 수 있습니다.

드론은 또한 점점 더 작아지고, 더 저렴 해지고, 더 견고 해지고 있으며, 이는 곧 수천 개의 드론으로 구성된 군대를 생산하고 배치 할 수 있음을 의미합니다.

주로 개별 관리와 분리 된 이와 같은 무기 프로그램의 배치 능력은 UN에 "이러한 위험으로부터 우리 모두를 보호 할 방법을 찾도록"촉구하는 편지를 촉발했습니다.

윤리 및 정당화

이러한 무기 시스템에 대한 귀하의 의견과 상관없이이 문제는 AI 연구에서 윤리적 문제를 고려해야한다는 요구 사항을 강조합니다.

대부분의 수학 영역에서와 마찬가지로 지구 지식에 기여할 수있는 필수적인 깊이를 얻으려면 특정 주제에 집중해야합니다. 종종 연구자들은 비교적 좁은 분야의 전문가이며 윤리 또는 도덕적 추론에 대한 공식적인 교육이 부족할 수 있습니다.

점점 더 요구되는 것은 바로 이러한 유형의 추론입니다. 예를 들어 미국에서 테스트중인 무인 자동차는 해로운 상황에 대해 판단 할 수 있어야합니다.

예를 들어, 고양이가 갑자기 길을 건너면 어떻게 반응 할 수 있습니까? 고양이를 뛰어 넘는 것이 현명합니까? 아니면 차량 탑승자에게 해를 끼칠 위험이 있으므로 그것을 방지하기 위해 급격히 방향을 바꾸는 것이 더 현명합니까?

바라건대, 이러한 경우는 드물지만 자동차는 의사 결정을 안내하기 위해 몇 가지 특정 원칙을 마음 속에 갖추고 있어야합니다. Virginia Dignum이 최근 멜버른에서 열린 인공 지능에 관한 국제 공동 회의 (IJCAI)에서 "책임있는 자율성"이라는 논문을 보낼 때 다음과 같이 언급했습니다.

무인 자동차는 윤리를 지닙니다. 질문은 누구의 윤리인가?

비슷한 주제가 Naveen Sundar Govindarajulu와 Selmer Bringsjord의 "이중 효과의 교리 자동화" 논문에서 탐색되었습니다.

이중 효과의 교리는 특정 상황에서 자기 방어에 가장 좋은 것과 같은 도덕적 문제에 대해 추론하는 수단이며,이 13 세기 가톨릭 학자 토마스 아퀴나스의 공로를 인정 받았습니다.

Double Impact라는 이름은 큰 영향 (예 : 누군가의 생명을 구하는 것)과 나쁜 영향 (과정에서 다른 사람에게 해를 끼침)을 가져 오는 것에서 비롯됩니다. 이것은 보행자를 추월하는 자동차에서 드론을 쏘는 것과 같은 활동을 정당화하는 방법이 될 수 있습니다.

이것은 교육에 어떤 의미가 있습니까?

AI 연구에서 토론 주제로 윤리가 등장함에 따라 자율 시스템이 점점 더 보편화되는 세상에 대비하는 방법도 고려해야합니다.

"T 자형" 개인에 대한 수요가 최근 시작되었습니다. 기업은 현재 특정 영역의 기술적 두께 (T의 수직 획)뿐만 아니라 전문적인 능력과 개인적 특성 (플랫 획)을 가진 학자를 찾고 있습니다. 결합하면 다양한 관점에서 문제를 볼 수 있고 여러 분야의 팀에서 효과적으로 기능 할 수 있습니다.

컴퓨터 과학 및 유사 분야의 대부분의 학부 과정에는 직업 윤리 및 실무 과정이 포함됩니다. 이들은 일반적으로 지적 재산권, 저작권, 특허 및 개인 정보 보호 문제에 중점을두고 있으며 이는 확실히 중요합니다.

그러나 IJCAI의 토론에서보다 광범위한 윤리 문제에 대한 추가 자료가 필요하다는 것이 분명해졌습니다.

주제에는 두 가지 악 중 더 적은 것을 확인하기위한 전략, 범죄 방치와 같은 법률 이론, 기술이 지구에 미치는 역사적 영향이 포함될 수 있습니다.

핵심은 학생들이 처음부터 작업에 윤리적, 사회적 관점을 통합 할 수 있도록하는 것입니다. 또한 윤리적 문제가 어떻게 통합되는지 입증하기 위해 연구 제안을 요구하는 것이 적절 해 보입니다.

AI가 일상 생활에 더욱 광범위하고 깊숙이 박혀 있기 때문에 공학자들은 자신이 사는 사회와 창작물이 미칠 수있는 영향을 이해하는 것이 매우 중요합니다.