Forscher für künstliche Intelligenz (KI) sollten Ethik lernen und befolgen

Forscher für künstliche Intelligenz (KI) sollten Ethik lernen und befolgen

Wissenschaftler, die künstliche Intelligenz und autonome Techniken zusammenstellen, wünschen sich ein solides ethisches Verständnis der Auswirkungen, die ihre Arbeit haben könnte.

Über 100 Technologiepioniere haben kürzlich einen offenen Brief an die Vereinten Nationen zum Thema tödliche autonome Waffen oder "Killerroboter" veröffentlicht.

Diese Leute, zum Beispiel der Unternehmer Elon Musk, und auch die Schöpfer vieler Robotikfirmen, sind Teil der Bemühungen, die 2015 begannen. Der Brief forderte ein Ende eines Wettrüstens, von dem behauptet wurde, es könne die "dritte Revolution in" sein Kriegsführung nach Schießpulver und Atomwaffen ".

Die UNO hat einen Teil zu leisten, aber die Verantwortung für die nahe Zukunft dieser Systeme muss auch vom Labor ausgehen. Das Bildungssystem, das unsere KI-Forscher ausbildet, muss sie sowohl in Ethik als auch in Kodierung schulen.

Autonomie in der KI

Autonome Systeme können Entscheidungen für sich selbst treffen, ohne dass Personen Eingaben vornehmen müssen. Dies erhöht die Wirksamkeit von Robotern und ähnlichen Geräten erheblich.

Zum Beispiel benötigt eine autonome Schiffsdrohne nur die Versandadresse und kann dann selbst herausfinden, welcher Weg der beste ist - Überwindung von Hindernissen, auf die sie unterwegs stoßen kann, z. B. ungünstiges Wetter oder eine Herde neugieriger Möwen .

Autonome Systeme wurden fantastisch erforscht, und Schiffsdrohnen werden derzeit von Unternehmen wie Amazon entwickelt. Es ist klar, dass dieselbe Technologie leicht verwendet werden könnte, um Lieferungen zu tätigen, die wesentlich unangenehmer sind als Bücher oder Lebensmittel.

Drohnen werden auch kleiner, billiger und robuster, was bedeutet, dass fliegende Armeen von Tausenden von Drohnen bald hergestellt und eingesetzt werden können.

Die Fähigkeit zum Einsatz solcher Waffenprogramme, die hauptsächlich vom individuellen Management entkoppelt war, veranlasste den UN-Brief, "einen Weg zu finden, uns alle vor diesen Gefahren zu schützen".

Ethik und Rechtfertigungen

Unabhängig von Ihrer Meinung zu diesen Waffensystemen unterstreicht das Thema die Notwendigkeit, ethische Fragen in der KI-Forschung zu berücksichtigen.

Wie in den meisten Bereichen der Mathematik erfordert die Erlangung der wesentlichen Tiefe, um Beiträge zum Wissen des Planeten zu leisten, die Konzentration auf ein bestimmtes Thema. Oft sind Forscher Spezialisten in vergleichsweise engen Bereichen und es fehlt ihnen möglicherweise an formalen Anweisungen in Ethik oder moralischem Denken.

Genau diese Art von Argumentation wird zunehmend benötigt. Beispielsweise müssen fahrerlose Autos, die in den USA getestet werden, in der Lage sein, über möglicherweise schädliche Umstände zu urteilen.

Wie kann es beispielsweise reagieren, wenn eine Katze unerwartet die Straße überquert? Ist es klüger, die Katze zu überfahren oder sogar scharf auszuweichen, um sie zu verhindern, um den Insassen des Autos Schaden zuzufügen?

Hoffentlich sind diese Fälle selten, aber das Auto muss mit bestimmten Prinzipien ausgestattet sein, um die Entscheidungsfindung zu steuern. Wie Virginia Dignum es ausdrückte, als sie ihre Arbeit " Responsible Autonomy" auf der jüngsten Internationalen Gemeinsamen Konferenz über künstliche Intelligenz (IJCAI) in Melbourne schickte:

Das fahrerlose Auto wird Ethik besitzen; Die Frage ist: Wessen Ethik?

Ein ähnliches Thema wurde in der Arbeit "Automating the Doctrine of Double Effect" von Naveen Sundar Govindarajulu und Selmer Bringsjord untersucht.

Die Doctrine of Double Effect ist ein Argumentationsgrund für moralische Fragen, wie zum Beispiel die beste Selbstverteidigung unter bestimmten Umständen, und wird diesem katholischen Gelehrten aus dem 13. Jahrhundert, Thomas von Aquin, zugeschrieben.

Der Name Double Impact kommt von einer großen Wirkung (z. B. der Rettung des Lebens eines Menschen) sowie einer schlechten Wirkung (Schaden für einen anderen). Dies kann eine Möglichkeit sein, Aktivitäten wie das Schießen einer Drohne auf ein Auto zu rechtfertigen, das Fußgänger herunterfährt.

Was bedeutet das für die Bildung?

Das Aufkommen der Ethik als Diskussionsthema in der KI-Forschung legt nahe, dass wir auch überlegen sollten, wie wir die Schüler auf eine Welt vorbereiten, in der autonome Systeme immer häufiger vorkommen.

Die Nachfrage nach "T-förmigen" Personen wurde kürzlich gestartet. Unternehmen suchen derzeit nach Wissenschaftlern, die nicht nur eine bestimmte Region mit technischer Dicke (vertikaler Strich des T), sondern auch berufliche Fähigkeiten und persönliche Eigenschaften (flacher Strich) aufweisen. Zusammen können sie Probleme aus verschiedenen Blickwinkeln erkennen und in multidisziplinären Teams effektiv arbeiten.

Die meisten Grundstudiengänge in Informatik und vergleichbaren Bereichen beinhalten einen Kurs über Berufsethik und -praxis. Diese konzentrieren sich in der Regel auf Fragen des geistigen Eigentums, des Urheberrechts, der Patente und des Datenschutzes, die sicherlich wichtig sind.

Aus den Diskussionen auf der IJCAI geht jedoch klar hervor, dass ein zusätzlicher Bedarf an zusätzlichem Material zu allgemeineren ethischen Problemen besteht.

Zu den Themen könnten Strategien zur Ermittlung des kleineren von zwei Übeln, Rechtstheorien wie kriminelle Vernachlässigung und die historischen Auswirkungen von Technologien auf den Planeten gehören.

Entscheidend ist, dass die Schüler von Anfang an ethische und gesellschaftliche Perspektiven in ihre Arbeit einbeziehen können. Darüber hinaus erscheint es angebracht, Forschungsvorschläge zu verlangen, um nachzuweisen, wie ethische Bedenken berücksichtigt werden.

Da die KI breiter und tiefer in den Alltag eingebettet wird, ist es sehr wichtig, dass Technologen die Gesellschaft verstehen, in der sie leben, und die Auswirkungen, die ihre Kreationen darauf haben können.