Los científicos que ensamblan inteligencia artificial y técnicas autónomas desean una sólida comprensión ética del impacto que podría tener su trabajo.
Más de 100 pioneros de la tecnología publicaron recientemente una carta abierta a las Naciones Unidas sobre el tema de las armas autónomas mortales, o "robots asesinos".
Estas personas, por ejemplo, el empresario Elon Musk junto con los creadores de muchas empresas de robótica, son parte del esfuerzo que comenzó en 2015. La carta pedía el fin de una carrera armamentista que, según afirmaba, podría ser la "tercera revolución en la guerra, siguiendo la pólvora y las armas atómicas ".
La ONU tiene un papel que desempeñar, pero la responsabilidad del futuro cercano de estos sistemas también debe comenzar desde el laboratorio. El sistema educativo que capacita a nuestros investigadores de IA debe educarlos en ética y codificación.
Autonomía en IA
Los sistemas autónomos pueden tomar decisiones por sí mismos, con una participación mínima o nula de las personas. Esto aumenta enormemente la eficacia de los robots y dispositivos similares.
Por ejemplo, un dron de envío autónomo solo requiere la dirección de envío, y luego puede determinar por sí mismo cuál es la mejor ruta a seguir, superando cualquier barrera que pueda encontrar en el camino, por ejemplo, un clima adverso o una bandada de gaviotas curiosas. .
Ha habido una gran cantidad de investigación sobre sistemas autónomos, y empresas como Amazon están desarrollando drones de envío. Claramente, la misma tecnología podría utilizarse fácilmente para realizar entregas que son significativamente más desagradables que los libros o la comida.
Los drones también se están volviendo más pequeños, más baratos y más robustos, lo que significa que pronto será posible producir y desplegar ejércitos voladores de miles de drones.
La capacidad para el despliegue de programas de armamento como este, principalmente desvinculados de la gestión individual, impulsó la carta instando a la ONU a "buscar la manera de protegernos a todos de estos peligros".
Ética y justificaciones
Independientemente de su opinión sobre estos sistemas de armas, la cuestión destaca el requisito de considerar las cuestiones éticas en la investigación de la IA.
Como en la mayoría de las áreas de las matemáticas, obtener la profundidad esencial para producir contribuciones al conocimiento del planeta requiere enfocarse en un tema específico. A menudo, los investigadores son especialistas en áreas comparativamente estrechas y pueden carecer de instrucción formal en ética o razonamiento moral.
Es precisamente este tipo de razonamiento el que se requiere cada vez más. Por ejemplo, los automóviles sin conductor, que se están probando en los EE. UU., Deberán poder emitir juicios sobre circunstancias posiblemente dañinas.
Por ejemplo, ¿cómo puede responder si un gato cruza inesperadamente la calle? ¿Es más prudente atropellar al gato, o incluso desviarse bruscamente para evitarlo, arriesgándose a dañar a los ocupantes del automóvil?
Con suerte, estos casos serán raros, pero el automóvil tendrá que estar equipado con algunos principios específicos en su mente para guiar su toma de decisiones. Como lo colocó Virginia Dignum al enviar su artículo " Autonomía responsable" en la reciente Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) en Melbourne:
El automóvil sin conductor poseerá ética; la pregunta es, ¿de quién es la ética?
Un tema similar se exploró en el artículo "Automatización de la doctrina del doble efecto" de Naveen Sundar Govindarajulu y Selmer Bringsjord.
La Doctrina del Doble Efecto es un medio de razonar sobre cuestiones morales, como la mejor defensa personal en determinadas circunstancias, y se le atribuye a este erudito católico del siglo XIII, Tomás de Aquino.
El nombre Doble Impacto proviene de tener un gran impacto (como salvar la vida de alguien) así como un impacto negativo (dañar a otra persona en el proceso). Esta puede ser una forma de justificar actividades como un dron disparando a un automóvil que atropella a los peatones.
¿Qué significa esto para la educación?
La aparición de la ética como tema de debate en la investigación de la IA sugiere que también deberíamos considerar cómo preparamos a los alumnos para un mundo en el que los sistemas autónomos son cada vez más comunes.
Recientemente se ha lanzado la demanda de individuos "en forma de T". Actualmente, las empresas buscan académicos no solo con una región particular de espesor técnico (el trazo vertical de la T) sino también con habilidades profesionales y atributos personales (el trazo plano). Combinados, pueden ver los problemas desde varios puntos de vista y funcionar eficazmente en equipos multidisciplinarios.
La mayoría de los cursos de pregrado en ciencias de la computación y áreas comparables incluyen un curso sobre ética y práctica profesional. Por lo general, se centran en cuestiones de propiedad intelectual, derechos de autor, patentes y privacidad, que sin duda son importantes.
Sin embargo, de las discusiones en IJCAI parece claro que existe una necesidad emergente de material adicional sobre problemas éticos más amplios.
Los temas podrían incluir estrategias para determinar el menor de 2 males, teorías legales como negligencia criminal y el efecto histórico de las tecnologías en el planeta.
El punto clave es permitir que los alumnos incorporen perspectivas éticas y sociales en su trabajo desde el principio. Además, parece apropiado exigir propuestas de investigación para demostrar cómo se incorporan las preocupaciones éticas.
Dado que la IA se integra de manera más amplia y profunda en la vida cotidiana, es muy importante que los tecnólogos comprendan la sociedad en la que viven y el impacto que sus creaciones pueden tener al respecto.