I ricercatori di intelligenza artificiale (AI) dovrebbero imparare e seguire l'etica

I ricercatori di intelligenza artificiale (AI) dovrebbero imparare e seguire l'etica

Gli scienziati che assemblano intelligenza artificiale e tecniche autonome desiderano una solida comprensione etica dell'impatto che il loro lavoro potrebbe avere.

Più di 100 pionieri della tecnologia hanno recentemente rilasciato una lettera aperta alle Nazioni Unite sul tema delle armi autonome mortali, o "robot assassini".

Queste persone, ad esempio, l'imprenditore Elon Musk insieme ai creatori di molte aziende di robotica, fanno parte dello sforzo iniziato nel 2015. La lettera chiedeva la fine di una corsa agli armamenti che si diceva potesse essere la "terza rivoluzione guerra, a seguito di polvere da sparo e armi atomiche ".

L'ONU ha una parte da svolgere, ma anche la responsabilità per il prossimo futuro di questi sistemi deve partire dal laboratorio. Il sistema educativo che forma i nostri ricercatori di intelligenza artificiale deve istruirli in etica e codifica.

Autonomia in AI

I sistemi autonomi possono prendere decisioni da soli, con un input minimo o nullo da parte delle persone. Ciò aumenta notevolmente l'efficacia di robot e dispositivi simili.

Ad esempio, un drone di spedizione autonomo richiede solo l'indirizzo di spedizione e può quindi capire da solo quale sia il percorso migliore da prendere, superando le barriere che può incontrare lungo il percorso, ad esempio, condizioni meteorologiche avverse o uno stormo di gabbiani curiosi .

C'è stata una fantastica ricerca sui sistemi autonomi e i droni di spedizione vengono ora sviluppati da aziende come Amazon. Chiaramente, la stessa tecnologia potrebbe essere facilmente utilizzata per effettuare consegne significativamente più cattive di libri o cibo.

I droni stanno anche diventando più piccoli, più economici e più robusti, il che significa che sarà presto realizzabile per eserciti volanti di migliaia di droni da produrre e schierare.

La capacità di dispiegare programmi di armi come questo, principalmente disaccoppiati dalla gestione individuale, ha spinto la lettera che esortava le Nazioni Unite a "trovare un modo per proteggerci tutti da questi pericoli".

Etica e giustificazioni

Indipendentemente dalla tua opinione su questi sistemi d'arma, il problema evidenzia la necessità di considerare le questioni etiche nella ricerca sull'IA.

Come nella maggior parte delle aree della matematica, ottenere la profondità essenziale per produrre contributi alla conoscenza del pianeta richiede di concentrarsi su un argomento specifico. Spesso i ricercatori sono specialisti in aree relativamente ristrette e potrebbero non avere alcuna istruzione formale in etica o ragionamento morale.

È proprio questo tipo di ragionamento che è sempre più richiesto. Ad esempio, le automobili senza conducente, che vengono testate negli Stati Uniti, dovranno essere in grado di esprimere giudizi su circostanze potenzialmente dannose.

Ad esempio, come può rispondere se un gatto attraversa inaspettatamente la strada? È più saggio travolgere il gatto, o addirittura sterzare bruscamente per evitarlo, rischiando di danneggiare gli occupanti dell'auto?

Si spera che questi casi siano rari, ma l'auto dovrà essere dotata di alcuni principi specifici nella tua mente per guidare il suo processo decisionale. Come afferma Virginia Dignum quando ha inviato il suo articolo " Autonomia responsabile" alla recente Conferenza internazionale congiunta sull'intelligenza artificiale (IJCAI) a Melbourne:

L'auto senza conducente avrà l'etica; la domanda è: di chi è l'etica?

Un tema simile è stato esplorato nel documento "Automating the Doctrine of Double Effect" di Naveen Sundar Govindarajulu e Selmer Bringsjord.

La Dottrina del Doppio Effetto è un mezzo per ragionare su questioni morali, come la migliore autodifesa in determinate circostanze, ed è attribuita a questo studioso cattolico del XIII secolo Tommaso d'Aquino.

Il nome Double Impact deriva dall'ottenere un grande impatto (come salvare la vita di qualcuno) e un impatto negativo (danneggiare qualcun altro nel processo). Questo può essere un modo per giustificare attività come un drone che spara a un'auto che sta investendo i pedoni.

Cosa significa questo per l'istruzione?

L'emergere dell'etica come argomento di discussione all'interno della ricerca sull'IA suggerisce che dovremmo considerare anche come prepariamo gli studenti a un mondo in cui i sistemi autonomi sono sempre più comuni.

Recentemente è stata lanciata la richiesta di individui "a forma di T". Le aziende sono attualmente alla ricerca di studiosi non solo con una particolare regione di spessore tecnico (il tratto verticale della T) ma anche con capacità professionali e attributi personali (il tratto piatto). Insieme, possono vedere i problemi da vari punti di vista e funzionare efficacemente in team multidisciplinari.

La maggior parte dei corsi universitari in informatica e aree comparabili include un corso di etica e pratica professionale. Questi sono tipicamente incentrati su proprietà intellettuale, copyright, brevetti e questioni relative alla privacy, che sono certamente importanti.

Tuttavia, risulta chiaro dalle discussioni all'IJCAI che vi è una necessità emergente di materiale aggiuntivo su problemi etici più ampi.

Gli argomenti potrebbero includere strategie per accertare il minore dei 2 mali, teorie legali come la negligenza criminale e l'effetto storico delle tecnologie sul pianeta.

Il punto chiave è consentire agli alunni di incorporare le prospettive etiche e sociali nel loro lavoro sin dall'inizio. Inoltre, sembra appropriato richiedere proposte di ricerca per dimostrare come vengono incorporate le preoccupazioni etiche.

Poiché l'intelligenza artificiale diventa più ampiamente e profondamente radicata nella vita di tutti i giorni, è molto importante che i tecnologi comprendano la società in cui vivono e l'impatto che le loro creazioni possono avere su di essa.