人工知能と自律技術を組み立てる科学者は、彼らの仕事が持つ可能性のある影響についての確かな倫理的理解を望んでいます。
最近、100人を超える技術の先駆者が、自律型致死兵器、つまり「キラーロボット」のトピックに関する公開書簡を国連に発表しました。
これらの人々、たとえば、起業家のイーロンマスクは、多くのロボット工学会社の作成者とともに、2015年に開始された取り組みの一部です。手紙は、軍拡競争の終結を求め、「火薬と原子兵器に続く戦争」。
国連には実行する部分がありますが、これらのシステムの近い将来の責任も研究所から始める必要があります。 AI研究者を訓練する教育システムは、コーディングだけでなく倫理についても教育する必要があります。
AIの自律性
自律システムは、人々による入力を最小限に抑えるか、まったく行わずに、自分で決定を下す場合があります。これにより、ロボットや同様のデバイスの効率が大幅に向上します。
例として、自律型配送ドローンは配送先住所のみを必要とし、悪天候や好奇心旺盛なカモメの群れなど、途中で遭遇する可能性のある障壁を克服するための最適なルートを自分で解決することができます。 。
自律システムについては素晴らしい研究が行われており、出荷用ドローンは現在、Amazonなどの企業によって開発されています。明らかに、同じテクノロジーを簡単に利用して、本や食べ物よりもはるかに厄介な配達を行うことができます。
ドローンはまた、より小さく、より安く、より堅牢になっています。つまり、数千のドローンを飛行する軍隊が生産および配備できるようになるでしょう。
主に個人の管理から切り離されたこのような兵器プログラムの展開の能力は、国連に「これらの危険から私たち全員を保護する方法を見つける」ことを促す手紙を促しました。
倫理と正当化
これらの兵器システムについてのあなたの意見に関係なく、この問題はAI研究における倫理的問題を考慮する必要性を浮き彫りにします。
数学のほとんどの分野と同様に、惑星の知識への貢献を生み出すために本質的な深さを得るには、特定のトピックに焦点を合わせる必要があります。多くの場合、研究者は比較的狭い分野の専門家であり、倫理や道徳的推論に関する正式な指導が不足している可能性があります。
ますます必要とされるのはまさにこのタイプの推論です。一例として、米国でテストされている自動運転車は、有害な可能性のある状況について判断できる必要があります。
たとえば、猫が予期せず道路を横断した場合、どのように対応できますか?車の乗員に危害を加える危険を冒して、猫の上を走るのが賢明ですか、それともそれを防ぐために急に曲がるのが賢明ですか?
うまくいけば、これらのインスタンスはまれですが、車は意思決定を導くためにあなたの心の中にいくつかの特定の原則を備えている必要があります。 Virginia Dignumが、メルボルンで開催された最近の国際人工知能会議(IJCAI)で、彼女の論文「Responsible Autonomy」を送信する際に、次のように述べています。
自動運転車には倫理があります。問題は、誰の倫理ですか?
同様のテーマは、Naveen SundarGovindarajuluとSelmerBringsjordによる論文「AutomatingtheDoctrine ofDoubleEffect」で検討されました。
二重効果の原理は、特定の状況下での自己防衛の最善など、道徳的な問題について推論する手段であり、この13世紀のカトリック学者トマスアクィナスの功績によるものです。
ダブルインパクトという名前は、大きな影響(誰かの命を救うなど)と悪い影響(その過程で他の誰かに害を与える)を得ることに由来しています。これは、歩行者を走っている車をドローンが撃つなどの活動を正当化する方法になります。
これは教育にとって何を意味しますか?
AI研究における議論の対象としての倫理の出現は、自律システムがますます一般的になっている世界に向けて生徒をどのように準備するかについても検討する必要があることを示唆しています。
最近、「T字型」の個人の需要が高まっています。企業は現在、技術的な厚みのある特定の領域(Tの垂直ストローク)だけでなく、専門的な能力と個人的な属性(フラットストローク)を備えた学者を探しています。組み合わせることで、彼らはさまざまな視点から問題を見ることができ、学際的なチームで効果的に機能します。
コンピュータサイエンスおよび同等の分野のほとんどの学部課程には、職業倫理と実践に関するコースが含まれています。これらは通常、知的財産、著作権、特許、プライバシーの問題に集中しており、これらは確かに重要です。
しかし、IJCAIでの議論から、より広範な倫理的問題に関する追加資料の必要性が浮上していることが明らかであるように思われます。
トピックには、2つの悪のうちの小さい方を確認するための戦略、過失犯などの法理論、および地球に対するテクノロジーの歴史的影響が含まれる可能性があります。
重要な点は、生徒が最初から倫理的および社会的視点を仕事に取り入れられるようにすることです。さらに、倫理的懸念がどのように組み込まれているかを実証するための研究提案を要求することは適切であるように思われます。
AIは日常生活に広く深く組み込まれるようになるため、技術者は自分たちが住んでいる社会と、自分たちの創造物がAIに与える影響を理解することが非常に重要です。