Artificiell intelligens (AI) forskere bør lære og følge etikk

Artificiell intelligens (AI) forskere bør lære og følge etikk

Forskere som monterer kunstig intelligens og autonome teknikker, ønsker en solid etisk forståelse av hvilken innvirkning deres arbeid kan ha.

Over 100 teknologipionerer ga nylig ut et åpent brev til FN om temaet dødelige autonome våpen, eller "morderroboter".

Disse menneskene, for eksempel gründeren Elon Musk, sammen med skaperne av mange robotfirmaer, er en del av innsatsen som startet i 2015. Brevet ba om en slutt på et våpenkappløp som det hevdet kunne være den "tredje revolusjonen i krigføring etter krutt og atomvåpen ".

FN har en del å utføre, men ansvaret for den nærmeste fremtiden til disse systemene må også starte fra laboratoriet. Utdanningssystemet som trener våre AI-forskere trenger å lære dem i etikk så vel som koding.

Autonomi i AI

Autonome systemer kan ta beslutninger for seg selv, med minimal eller ingen innspill fra mennesker. Dette øker effektiviteten til roboter og lignende enheter.

Som et eksempel krever en autonom fraktdrone bare leveringsadressen, og kan da regne ut den beste ruten å ta - å overvinne eventuelle barrierer den kan støte på underveis, for eksempel ugunstig vær eller en flokk nysgjerrige måker .

Det har vært fantastisk mye forskning på autonome systemer, og fraktdroner blir nå utviklet av selskaper som Amazon. Det er klart at den samme teknologien lett kan brukes til å gjøre leveranser som er betydelig styggere enn bøker eller mat.

Droner blir også mindre, billigere og mer robuste, noe som betyr at det snart vil være mulig å produsere og distribuere flygende hærer på tusenvis av droner.

Kapasiteten for distribusjon av våpenprogrammer som dette, hovedsakelig frakoblet fra individuell ledelse, fikk brevet til å oppfordre FN til å "finne en måte å beskytte oss alle mot disse farene".

Etikk og begrunnelser

Uansett hva du mener om disse våpensystemene, fremhever problemet kravet til behandling av etiske spørsmål i AI-forskning.

Som i de fleste områder av matematikk, å oppnå den essensielle dybden for å gi bidrag til planetens kunnskap krever fokus på et bestemt emne. Ofte er forskere spesialister på relativt smale områder og mangler kanskje noen formell instruksjon i etikk eller moralsk resonnement.

Det er nettopp denne typen resonnementer som det i økende grad kreves. Som et eksempel, førerløse biler som testes i USA, må kunne dømme om skadelige omstendigheter.

Hvordan kan den for eksempel reagere hvis en katt uventet krysser veien? Er det klokere å kjøre over katten, eller til og med å svinge skarpt for å forhindre den, og risikere å skade bilens passasjerer?

Forhåpentligvis vil disse tilfellene være sjeldne, men bilen må være utstyrt med noen spesifikke prinsipper i tankene dine for å styre beslutningstaking. Som Virginia Dignum plasserer det da hun sendte oppgaven hennes " Responsible Autonomy" i den nylige International Joint Conference on Artificial Intelligence (IJCAI) i Melbourne:

Den førerløse bilen vil ha etikk; spørsmålet er, hvis etikk?

Et lignende tema ble utforsket i papiret "Automating the Doctrine of Double Effect" av Naveen Sundar Govindarajulu og Selmer Bringsjord.

Læren om dobbeltvirkning er et middel til å resonnere om moralske spørsmål, som det beste til selvforsvar under visse omstendigheter, og er kreditert denne katolske lærde Thomas Aquinas fra 1200-tallet.

Navnet Double Impact kommer fra å få stor innvirkning (for eksempel å redde en persons liv) så vel som en dårlig innvirkning (skade noen andre i prosessen). Dette kan være en måte å rettferdiggjøre aktiviteter som for eksempel en drone som skyter mot en bil som kjører fotgjengere.

Hva betyr dette for utdanning?

Fremveksten av etikk som et tema for diskusjon innen AI-forskning antyder at vi også bør vurdere hvordan vi forbereder elevene på en verden der autonome systemer blir stadig vanligere.

Etterspørselen etter "T-formede" individer er nylig lansert. Bedrifter leter for tiden etter forskere, ikke bare med en bestemt region med teknisk tykkelse (vertikal strek av T), men også med profesjonelle evner og personlige egenskaper (flat strek). Kombinert kan de se problemer fra ulike synspunkter og fungere effektivt i tverrfaglige team.

De fleste lavere kurs i informatikk og sammenlignbare områder inkluderer et kurs om profesjonell etikk og praksis. Disse er vanligvis sentrert om immaterielle rettigheter, opphavsrett, patenter og personvernproblemer, som absolutt er viktige.

Det fremgår imidlertid klart av diskusjonene på IJCAI at det er et behov for ekstra materiale om bredere etiske problemer.

Temaene kan omfatte strategier for å fastslå det minste av to onder, juridiske teorier som kriminell forsømmelse og den historiske effekten av teknologier på planeten.

Hovedpoenget er å la elevene innlemme etiske og samfunnsmessige perspektiver i arbeidet sitt helt fra begynnelsen. I tillegg virker det hensiktsmessig å kreve forskningsforslag for å demonstrere hvordan etiske bekymringer er innarbeidet.

Siden AI blir bredere og dypere innebygd i hverdagen, er det veldig viktig at teknologer forstår samfunnet der de bor og hvilken innvirkning deres kreasjoner kan ha på det.