Tiedemiehet, jotka kokoavat tekoälyä ja autonomiset tekniikoiden halu vankka eettinen ymmärrys, mikä vaikutus heidän työnsä voisi olla.
Yli 100 tekniikan edelläkävijää julkaisi äskettäin avoimen kirjeen Yhdistyneille Kansakunnille tappavien itsenäisten aseiden tai "tappajarobottien" aiheesta.
Nämä ihmiset, esimerkiksi yrittäjä Elon Musk, samoin kuin monien robotiikkayritysten perustajat, ovat osa vuonna 2015 aloitettua työtä. Kirjeessä kehotettiin lopettamaan puolustuskilpailu, jonka se väitti olevan "kolmas vallankumous sodankäynti, ruutin ja atomiaseiden jälkeen ".
YK: lla on oma tehtävänsä, mutta vastuu näiden järjestelmien lähitulevaisuudesta on aloitettava myös laboratoriosta. Tekoälyn tutkijoita kouluttavan koulutusjärjestelmän on opetettava heitä etiikkaan ja koodaamiseen.
Tekoälyn autonomia
Autonomiset järjestelmät voivat tehdä päätöksiä itse, ihmisten vain vähän tai ilman mitään panosta. Tämä lisää huomattavasti robottien ja vastaavien laitteiden tehokkuutta.
Esimerkiksi autonominen lähetyskone vaatii vain toimitusosoitteen, ja se voi sitten selvittää itselleen parhaan reitin - ylittää kaikki matkan varrella mahdollisesti kohtaamansa esteet, esimerkiksi epäsuotuisat sääolot tai utelias lokkiparvi. .
Itsenäisiä järjestelmiä on tutkittu fantastisesti, ja Amazonin kaltaiset yritykset kehittävät nyt lähetyskoneita. Selvästi samaa tekniikkaa voitaisiin helposti käyttää toimituksiin, jotka ovat huomattavasti ikävämpiä kuin kirjat tai ruoka.
Dronet ovat myös pienempiä, halvempia ja vankempia, mikä tarkoittaa, että pian on mahdollista saavuttaa tuhansia droneja lentävien armeijoiden tuotanto ja käyttöönotto.
Tämänkaltaisten aseohjelmien käyttöönottokapasiteetti, joka on pääasiassa irrotettu yksilöllisestä hallinnosta, sai aikaan kirjeen, jossa YK: ta kehotettiin "löytämään keino suojata meitä kaikkia näiltä vaaroilta".
Etiikka ja perustelut
Riippumatta siitä, mitä mieltä olet näistä asejärjestelmistä, kysymys korostaa eettisten kysymysten huomioon ottamista tekoälyn tutkimuksessa.
Kuten useimmilla matematiikan aloilla, välttämättömän syvyyden hankkiminen maapallon tietämyksen tuottamiseksi vaatii keskittymistä tiettyyn aiheeseen. Usein tutkijat ovat asiantuntijoita suhteellisen kapeilla aloilla, ja heiltä saattaa puuttua muodollisia ohjeita eettisistä tai moraalisista päättelyistä.
Juuri tällaista päättelyä vaaditaan yhä enemmän. Esimerkiksi kuljettamattomien autojen, joita testataan Yhdysvalloissa, on pystyttävä tekemään arvioita mahdollisesti haitallisista olosuhteista.
Kuinka se voi esimerkiksi reagoida, jos kissa ylittää yllättäen tien? Onko viisaampaa juosta kissa tai edes jyrkästi kääntyä sen estämiseksi vaarantamalla auton matkustajat?
Toivottavasti nämä tapaukset ovat harvinaisia, mutta autossa on oltava mielessäsi joitain erityisiä periaatteita päätöksenteon ohjaamiseksi. Kuten Virginia Dignum huomauttaa, kun hän lähetti paperinsa " Responsible Autonomy" äskettäisessä kansainvälisessä tekoälyn (IJCAI) konferenssissa Melbournessa:
Kuljettajattomalla autolla on etiikka; kysymys kuuluu, Kenen etiikka?
Samanlaista teemaa tutkittiin Naveen Sundar Govindarajulun ja Selmer Bringsjordin julkaisussa "Kaksinkertaisen vaikutuksen opin automatisointi".
Kaksinkertaisen vaikutuksen oppi on keino päättää moraalisista kysymyksistä, kuten paras itsepuolustukseen tietyissä olosuhteissa, ja se hyvitetään tälle 1200-luvun katoliselle tutkijalle Thomas Aquinukselle.
Double Impact -nimi on peräisin sekä suuresta vaikutuksesta (kuten jonkun elämän pelastamisesta) että huonosta vaikutuksesta (vahingoittaa jotakuta muuta prosessissa). Tämä voi olla tapa perustella toimintoja, kuten drone ampuminen autoon, joka ajaa jalankulkijoita.
Mitä tämä tarkoittaa koulutuksessa?
Etiikan ilmaantuminen keskustelunaiheena tekoälyn tutkimuksessa viittaa siihen, että meidän pitäisi myös miettiä, miten valmistelemme oppilaita maailmaan, jossa autonomiset järjestelmät ovat yhä yleisempiä.
"T-muotoisten" yksilöiden kysyntä on hiljattain käynnistetty. Yritykset etsivät tällä hetkellä tutkijoita paitsi tietyllä teknisen paksuuden alueella (T: n pystyviiva), mutta myös ammattitaidolla ja henkilökohtaisilla ominaisuuksilla (tasainen aivohalvaus). Yhdessä he voivat nähdä asioita eri näkökulmista ja toimia tehokkaasti monialaisissa ryhmissä.
Useimmat tietojenkäsittelytieteen ja vastaavien alojen peruskurssit sisältävät ammattietiikan ja käytännön kurssin. Nämä keskittyvät yleensä henkiseen omaisuuteen, tekijänoikeuksiin, patentteihin ja yksityisyyden suojaan, jotka ovat varmasti tärkeitä.
IJCAI: ssa käydyistä keskusteluista käy kuitenkin selvästi ilmi, että laajemmista eettisistä ongelmista on tulossa lisää tarvetta.
Aiheet voisivat sisältää strategioita kahden pahan selvittämiseksi, oikeudellisia teorioita, kuten rikollisen laiminlyönnin, ja tekniikoiden historiallisia vaikutuksia planeetalle.
Keskeistä on antaa oppilaille mahdollisuus sisällyttää eettiset ja yhteiskunnalliset näkökulmat työhönsä alusta alkaen. Lisäksi näyttää aiheelliselta vaatia tutkimusehdotuksia osoittamaan, miten eettiset huolenaiheet otetaan huomioon.
Koska tekoäly sulkeutuu laajemmin ja syvemmälle jokapäiväiseen elämään, on erittäin tärkeää, että teknikot ymmärtävät yhteiskunnan, jossa he asuvat, ja vaikutuksen, joka heidän luomuksillaan voi olla siihen.