Forskere, der samler kunstig intelligens og autonome teknikker, ønsker en solid etisk forståelse af den virkning, deres arbejde kan have.
Over 100 teknologipionerer udgav for nylig et åbent brev til FN om emnet dødbringende autonome våben eller "dræberrobotter".
Disse mennesker er f.eks. Iværksætteren Elon Musk sammen med skaberne af mange robotfirmaer en del af den indsats, der startede i 2015. Brevet opfordrede til en ende på et våbenkapløb, som det hævdede kunne være den "tredje revolution i krigsførelse efter krudt og atomarme ".
FN har en del at udføre, men ansvaret for disse systems nær fremtid skal også starte fra laboratoriet. Uddannelsessystemet, der træner vores AI-forskere, har brug for at undervise dem i både etik og kodning.
Autonomi i AI
Autonome systemer kan tage beslutninger for sig selv med minimal eller ingen input fra mennesker. Dette øger effektiviteten af robotter og lignende enheder i høj grad.
Som et eksempel kræver en autonom forsendelsesdron kun forsendelsesadressen og kan derefter regne ud for sig selv, at den bedste rute at tage - overvinde eventuelle barrierer, den måtte støde på undervejs, for eksempel ugunstigt vejr eller en flok nysgerrige måger .
Der har været en fantastisk undersøgelse af autonome systemer, og forsendelsesdroner udvikles nu af virksomheder som Amazon. Det er klart, at den samme teknologi let kunne bruges til at levere leveringer, der er betydeligt grimere end bøger eller mad.
Droner bliver også mindre, billigere og mere robuste, hvilket betyder, at det snart vil være muligt at producere og implementere flyvende hære på tusinder af droner.
Kapaciteten til implementering af våbenprogrammer som denne, hovedsageligt afkoblet fra den individuelle ledelse, fik brevet til at opfordre FN til at "finde en måde at beskytte os alle mod disse farer".
Etik og begrundelser
Uanset din mening om disse våbensystemer fremhæver spørgsmålet kravet om overvejelse af etiske spørgsmål i AI-forskning.
Som i de fleste områder af matematik kræver det at fokusere på et bestemt emne for at opnå den essentielle dybde for at producere bidrag til planetens viden. Ofte er forskere specialister inden for relativt snævre områder og mangler muligvis nogen formel instruktion i etik eller moralsk ræsonnement.
Det er netop denne type begrundelse, der i stigende grad kræves. Som et eksempel skal førerløse biler, der testes i USA, være i stand til at træffe afgørelser om muligvis skadelige omstændigheder.
For eksempel, hvordan kan den reagere, hvis en kat uventet krydser vejen? Er det klogere at køre over katten eller endda svinge skarpt for at forhindre den og risikere at skade bilens passagerer?
Forhåbentlig vil disse tilfælde være sjældne, men bilen bliver nødt til at være udstyret med nogle specifikke principper i dit sind for at styre dens beslutningstagning. Som Virginia Dignum anbragte det, da hun sendte sit papir " Responsible Autonomy" i den nylige internationale fælleskonference om kunstig intelligens (IJCAI) i Melbourne:
Den førerløse bil vil have etik; spørgsmålet er, hvis etik?
Et lignende tema blev udforsket i avisen "Automatisering af doktrinen om dobbelt effekt" af Naveen Sundar Govindarajulu og Selmer Bringsjord.
Læren om dobbeltvirkning er et middel til at argumentere om moralske spørgsmål, såsom det bedste til selvforsvar under visse omstændigheder, og krediteres denne katolske lærde fra det 13. århundrede Thomas Aquinas.
Navnet Double Impact kommer fra at få en stor indflydelse (såsom at redde en persons liv) såvel som en dårlig indvirkning (at skade en anden i processen). Dette kan være en måde at retfærdiggøre aktiviteter såsom en drone, der skyder på en bil, der løber ned for fodgængere.
Hvad betyder det for uddannelse?
Fremkomsten af etik som diskussionsemne inden for AI-forskning tyder på, at vi også bør overveje, hvordan vi forbereder eleverne til en verden, hvor autonome systemer bliver mere og mere almindelige.
Efterspørgslen efter "T-formede" personer er for nylig blevet lanceret. Virksomheder er i øjeblikket på udkig efter forskere, ikke kun med et bestemt område med teknisk tykkelse (det lodrette slag af T), men også med professionelle evner og personlige egenskaber (det flade slag). Kombineret kan de se problemer fra forskellige synspunkter og fungere effektivt i tværfaglige teams.
De fleste bacheloruddannelser inden for datalogi og sammenlignelige områder inkluderer et kursus om professionel etik og praksis. Disse er typisk centreret om intellektuelle ejendomsrettigheder, ophavsret, patenter og fortrolighedsspørgsmål, som bestemt er vigtige.
Det fremgår imidlertid klart af diskussionerne på IJCAI, at der er et behov for ekstra materiale om bredere etiske problemer.
Emner kunne omfatte strategier til at fastslå det mindste af 2 ondt, juridiske teorier som kriminel forsømmelse og den historiske effekt af teknologier på planeten.
Nøglepunktet er at give eleverne mulighed for at indarbejde etiske og samfundsmæssige perspektiver i deres arbejde lige fra starten. Derudover synes det hensigtsmæssigt at kræve forskningsforslag for at demonstrere, hvordan etiske bekymringer er indarbejdet.
Da AI bliver mere bredt og dybere indlejret i hverdagen, er det meget vigtigt, at teknologer forstår samfundet, hvor de bor, og hvilken indvirkning deres kreationer kan have på det.