Os cientistas que montam inteligência artificial e técnicas autônomas desejam uma sólida compreensão ética do impacto que seu trabalho pode ter.
Mais de 100 pioneiros da tecnologia divulgaram recentemente uma carta aberta às Nações Unidas sobre o tema das armas autônomas mortais, ou "robôs assassinos".
Essas pessoas, por exemplo, o empresário Elon Musk junto com também os criadores de muitas firmas de robótica, fazem parte do esforço que começou em 2015. A carta pedia o fim de uma corrida armamentista que afirmava ser a "terceira revolução na guerra, depois da pólvora e das armas atômicas ".
A ONU tem uma parte a cumprir, mas a responsabilidade pelo futuro próximo desses sistemas também precisa começar do laboratório. O sistema educacional que treina nossos pesquisadores de IA precisa educá-los em ética e também em codificação.
Autonomia em IA
Os sistemas autônomos podem tomar decisões por si próprios, com mínima ou nenhuma contribuição das pessoas. Isso aumenta muito a eficácia dos robôs e dispositivos semelhantes.
Por exemplo, um drone de transporte autônomo requer apenas o endereço de envio e pode então descobrir por si mesmo qual a melhor rota a seguir - superando quaisquer barreiras que possa encontrar ao longo do caminho, por exemplo, clima adverso ou um bando de gaivotas curiosas .
Tem havido uma quantidade fantástica de pesquisas sobre sistemas autônomos, e drones de navegação estão sendo desenvolvidos por empresas como a Amazon. Claramente, a mesma tecnologia poderia ser facilmente utilizada para fazer entregas significativamente mais desagradáveis do que livros ou comida.
Os drones também estão ficando menores, mais baratos e mais robustos, o que significa que em breve será possível produzir e lançar exércitos voadores de milhares de drones.
A capacidade de implantação de programas de armamento como este, principalmente desvinculados da gestão individual, motivou a carta exortando a ONU a "encontrar uma forma de nos proteger a todos desses perigos".
Ética e justificativas
Não importa sua opinião sobre esses sistemas de armas, a questão destaca a necessidade de consideração de questões éticas na pesquisa de IA.
Como na maioria das áreas da matemática, obter a profundidade essencial para produzir contribuições para o conhecimento do planeta requer enfocar um tópico específico. Freqüentemente, os pesquisadores são especialistas em áreas relativamente estreitas e podem carecer de qualquer instrução formal em ética ou raciocínio moral.
É exatamente esse tipo de raciocínio que se torna cada vez mais necessário. Por exemplo, automóveis sem motorista, que estão sendo testados nos Estados Unidos, terão que ser capazes de fazer julgamentos sobre circunstâncias possivelmente prejudiciais.
Por exemplo, como ele pode responder se um gato inesperadamente cruzar a estrada? É mais sensato atropelar o gato, ou mesmo desviar bruscamente para evitá-lo, arriscando ferir os ocupantes do carro?
Esperançosamente, esses casos serão raros, mas o carro terá que ser equipado com alguns princípios específicos em sua mente para orientar sua tomada de decisão. Como Virginia Dignum colocou ao enviar seu artigo " Autonomia Responsável" na recente Conferência Conjunta Internacional sobre Inteligência Artificial (IJCAI) em Melbourne:
O carro sem motorista possuirá ética; a questão é: ética de quem?
Um tema semelhante foi explorado no artigo "Automatizando a Doutrina do Duplo Efeito", de Naveen Sundar Govindarajulu e Selmer Bringsjord.
A Doutrina do Duplo Efeito é um meio de raciocinar sobre questões morais, como o melhor para autodefesa sob certas circunstâncias, e é creditada a este estudioso católico do século XIII, Tomás de Aquino.
O nome Impacto Duplo vem de obter um grande impacto (como salvar a vida de alguém), bem como um impacto ruim (prejudicar outra pessoa no processo). Essa pode ser uma forma de justificar atividades como um drone atirando em um carro que atropela pedestres.
O que isso significa para a educação?
O surgimento da ética como um assunto para discussão dentro da pesquisa em IA sugere que devemos também considerar como preparamos os alunos para um mundo no qual os sistemas autônomos são cada vez mais comuns.
A demanda por indivíduos "em forma de T" foi lançada recentemente. Atualmente, as empresas procuram acadêmicos não apenas com uma determinada região de espessura técnica (o curso vertical do T), mas também com habilidades profissionais e atributos pessoais (o curso plano). Combinados, eles podem ver os problemas de vários pontos de vista e funcionar com eficácia em equipes multidisciplinares.
A maioria dos cursos de graduação em ciência da computação e áreas comparáveis inclui um curso sobre ética e prática profissional. Geralmente, eles estão centrados em questões de propriedade intelectual, direitos autorais, patentes e privacidade, que certamente são importantes.
No entanto, parece claro a partir das discussões no IJCAI que existe uma necessidade emergente de material extra sobre problemas éticos mais amplos.
Os tópicos podem incluir estratégias para determinar o menor de 2 males, teorias jurídicas como negligência criminal e o efeito histórico das tecnologias no planeta.
O ponto principal é permitir que os alunos incorporem perspectivas éticas e sociais em seu trabalho desde o início. Além disso, parece apropriado exigir propostas de pesquisa para demonstrar como as preocupações éticas são incorporadas.
Uma vez que a IA se torna mais ampla e profundamente enraizada na vida cotidiana, é muito importante que os tecnólogos entendam a sociedade em que vivem e o impacto que suas criações podem ter sobre ela.