Wetenschappers die kunstmatige intelligentie en autonome technieken combineren, willen een solide ethisch begrip van de impact die hun werk zou kunnen hebben.
Meer dan 100 technologiepioniers hebben onlangs een open brief aan de Verenigde Naties vrijgegeven over het onderwerp dodelijke autonome wapens, of "killer robots".
Deze mensen, bijvoorbeeld ondernemer Elon Musk en ook de makers van veel roboticabedrijven, maken deel uit van de inspanning die in 2015 begon. De brief riep op tot een einde aan een wapenwedloop die volgens hem de 'derde revolutie in oorlogvoering, na buskruit en atoomwapens ".
De VN heeft een rol te vervullen, maar de verantwoordelijkheid voor de nabije toekomst van deze systemen moet ook vanuit het laboratorium beginnen. Het onderwijssysteem dat onze AI-onderzoekers opleidt, moet hen zowel ethiek als codering leren.
Autonomie in AI
Autonome systemen kunnen zelf beslissingen nemen, met minimale tot geen inbreng van mensen. Dit verhoogt de effectiviteit van robots en soortgelijke apparaten enorm.
Een autonome scheepsdrone heeft bijvoorbeeld alleen het verzendadres nodig en kan dan zelf bepalen wat de beste route is om te nemen - het overwinnen van obstakels die het onderweg tegenkomt, bijvoorbeeld slecht weer of een zwerm nieuwsgierige zeemeeuwen .
Er is enorm veel onderzoek gedaan naar autonome systemen, en nu worden scheepvaartdrones ontwikkeld door bedrijven als Amazon. Het is duidelijk dat dezelfde technologie gemakkelijk kan worden gebruikt om leveringen te doen die aanzienlijk gemener zijn dan boeken of eten.
Ook worden drones steeds kleiner, goedkoper en robuuster, waardoor het straks haalbaar is om vliegende legers van duizenden drones te produceren en in te zetten.
De capaciteit voor de inzet van dergelijke wapenprogramma's, voornamelijk losgekoppeld van individueel beheer, was aanleiding voor de brief waarin de VN werd aangespoord "een manier te vinden om ons allemaal tegen deze gevaren te beschermen".
Ethiek en rechtvaardigingen
Ongeacht uw mening over deze wapensystemen, de kwestie benadrukt de noodzaak om ethische kwesties in AI-onderzoek in overweging te nemen.
Zoals op de meeste gebieden van de wiskunde, vereist het verkrijgen van de essentiële diepgang om bijdragen aan de kennis van de planeet te leveren, aandacht voor een specifiek onderwerp. Vaak zijn onderzoekers specialisten op relatief beperkte gebieden en missen ze misschien enige formele instructie in ethiek of moreel redeneren.
Juist dit soort redeneringen wordt steeds meer gevraagd. Zelfrijdende auto's, die in de VS worden getest, zullen bijvoorbeeld een oordeel moeten kunnen vellen over mogelijk schadelijke omstandigheden.
Hoe kan het bijvoorbeeld reageren als een kat onverwachts de weg oversteekt? Is het verstandiger om over de kat heen te rijden, of zelfs om scherp uit te wijken om dit te voorkomen, waardoor de inzittenden van de auto gevaar lopen?
Hopelijk zullen deze gevallen zeldzaam zijn, maar de auto moet worden uitgerust met een aantal specifieke principes in gedachten om de besluitvorming te sturen. Zoals Virginia Dignum het plaatste bij het verzenden van haar paper " Responsible Autonomy" in de recente International Joint Conference on Artificial Intelligence (IJCAI) in Melbourne:
De zelfrijdende auto zal ethiek bezitten; de vraag is: wiens ethiek?
Een soortgelijk thema werd onderzocht in het artikel "Automating the Doctrine of Double Effect" van Naveen Sundar Govindarajulu en Selmer Bringsjord.
De Doctrine of Double Effect is een redenering over morele kwesties, zoals de beste zelfverdediging onder bepaalde omstandigheden, en wordt toegeschreven aan deze 13e-eeuwse katholieke geleerde Thomas van Aquino.
De naam Double Impact komt van het krijgen van een grote impact (zoals het redden van iemands leven) en een slechte impact (iemand anders in het proces schade berokkenen). Dit kan een manier zijn om activiteiten te rechtvaardigen, zoals een drone die op een auto schiet die voetgangers aanrijdt.
Wat betekent dit voor het onderwijs?
De opkomst van ethiek als onderwerp van discussie binnen AI-onderzoek suggereert dat we ook moeten nadenken over hoe we leerlingen voorbereiden op een wereld waarin autonome systemen steeds vaker voorkomen.
De vraag naar "T-vormige" individuen is onlangs gelanceerd. Bedrijven zijn momenteel op zoek naar wetenschappers met niet alleen een bepaald gebied van technische dikte (de verticale slag van de T), maar ook met professionele vaardigheden en persoonlijke eigenschappen (de platte streek). Gecombineerd kunnen ze problemen vanuit verschillende gezichtspunten bekijken en effectief functioneren in multidisciplinaire teams.
De meeste bacheloropleidingen in informatica en vergelijkbare gebieden bevatten een cursus over beroepsethiek en praktijk. Deze zijn doorgaans gericht op intellectuele eigendom, auteursrechten, patenten en privacyproblemen, die zeker belangrijk zijn.
Uit de discussies bij IJCAI blijkt echter dat er een toenemende behoefte is aan extra materiaal over bredere ethische problemen.
Onderwerpen kunnen onder meer strategieën zijn om het minste van twee kwaden vast te stellen, juridische theorieën zoals criminele verwaarlozing en het historische effect van technologieën op de planeet.
Het belangrijkste is dat leerlingen vanaf het begin ethische en maatschappelijke perspectieven in hun werk kunnen betrekken. Bovendien lijkt het gepast om onderzoeksvoorstellen te eisen om aan te tonen hoe ethische overwegingen erin zijn verwerkt.
Omdat AI breder en dieper verankerd raakt in het dagelijks leven, is het erg belangrijk dat technologen de samenleving waarin ze leven en de impact die hun creaties erop kunnen hebben, begrijpen.