Исследователи искусственного интеллекта (ИИ) должны учиться этике и следовать им

Исследователи искусственного интеллекта (ИИ) должны учиться этике и следовать им

Ученые, которые собирают искусственный интеллект и автономные методы, хотят твердого этического представления о влиянии, которое их работа может оказать.

За последнее время более 100 пионеров технологий опубликовали открытое письмо в ООН по теме смертоносного автономного оружия или «роботов-убийц».

Эти люди, например, предприниматель Илон Маск, а также создатели многих фирм, занимающихся робототехникой, являются частью усилий, начатых в 2015 году. В письме содержится призыв положить конец гонке вооружений, которая, по его словам, может стать «третьей революцией в мире». война, за которой последовали порох и атомное оружие ".

ООН должна выполнять свою роль, но ответственность за ближайшее будущее этих систем также должна исходить от лаборатории. Система образования, которая обучает наших исследователей ИИ, должна обучать их этике и программированию.

Автономность в AI

Автономные системы могут принимать решения самостоятельно при минимальном участии людей или вообще без них. Это значительно увеличивает эффективность роботов и подобных устройств.

Например, автономному дрону для доставки требуется только адрес доставки, и он может затем самостоятельно выработать оптимальный маршрут - преодолеть любые препятствия, с которыми он может столкнуться на своем пути, например, неблагоприятная погода или стая любопытных чаек. .

Было проведено фантастическое исследование автономных систем, и теперь такие компании, как Amazon, разрабатывают дроны для доставки. Ясно, что ту же технологию можно было бы легко использовать для доставки значительно более мерзких, чем книги или продукты питания.

Дроны также становятся меньше, дешевле и надежнее, а это значит, что скоро станет возможным производство и развертывание летающих армий из тысяч дронов.

Возможность развертывания таких программ вооружений, как эта, в основном не связанных с индивидуальным управлением, побудила к письму, призывающему ООН «найти способ защитить всех нас от этих опасностей».

Этика и оправдания

Независимо от вашего мнения об этих системах оружия, в этом выпуске подчеркивается необходимость рассмотрения этических вопросов в исследованиях ИИ.

Как и в большинстве областей математики, получение необходимой глубины для внесения вклада в знания о планете требует сосредоточения внимания на конкретной теме. Часто исследователи являются специалистами в сравнительно узких областях и могут не иметь каких-либо формальных инструкций по этике или моральному мышлению.

Именно такое рассуждение требуется все чаще. Например, автомобили без водителя, которые проходят испытания в США, должны будут иметь возможность выносить суждения о возможных неблагоприятных обстоятельствах.

Например, как он может реагировать, если кошка неожиданно переходит дорогу? Что разумнее - переехать кошку или даже резко свернуть, чтобы не допустить этого, рискуя нанести вред пассажирам машины?

Будем надеяться, что такие случаи будут редкими, но автомобиль должен быть оснащен некоторыми особыми принципами, которые помогут вам принять решение. Как отметила Вирджиния Дигнум, отправляя свой доклад « Ответственная автономия» на недавней Международной совместной конференции по искусственному интеллекту (IJCAI) в Мельбурне:

Беспилотный автомобиль будет обладать этикой; вопрос в том, чья этика?

Похожая тема была исследована в статье «Автоматизация доктрины двойного эффекта» Навина Сундара Говиндараджулу и Сельмера Брингсйорда.

Доктрина двойного действия - это средство рассуждать о моральных вопросах, например о наилучших способах самообороны при определенных обстоятельствах, и приписывается этому католическому ученому 13-го века Фоме Аквинскому.

Название «Двойной удар» происходит от получения большого воздействия (например, спасение чьей-то жизни), а также плохого воздействия (нанесение вреда кому-то еще в процессе). Это может быть способом оправдать такие действия, как стрельба дроном по автомобилю, сбивающему пешеходов.

Что это значит для образования?

Появление этики в качестве предмета обсуждения в исследованиях ИИ предполагает, что нам также следует подумать о том, как мы готовим учеников к миру, в котором автономные системы становятся все более распространенными.

Спрос на «Т-образных» лиц появился недавно. Фирмы в настоящее время ищут ученых не только с определенной областью технической толщины (вертикальный штрих буквы T), но также с профессиональными способностями и личными качествами (плоский штрих). Вместе они могут видеть проблемы с разных точек зрения и эффективно работать в многопрофильных командах.

Большинство курсов бакалавриата по информатике и аналогичным областям включают курс профессиональной этики и практики. Как правило, они сосредоточены на вопросах интеллектуальной собственности, авторских прав, патентов и конфиденциальности, которые, безусловно, важны.

Однако из обсуждений в IJCAI стало ясно, что возникает потребность в дополнительных материалах по более широким этическим проблемам.

Темы могут включать стратегии выявления меньшего из двух зол, юридические теории, такие как преступное пренебрежение, и историческое влияние технологий на планету.

Ключевой момент - дать ученикам возможность с самого начала включить в свою работу этические и социальные аспекты. Кроме того, кажется целесообразным потребовать предложения по исследованиям, чтобы продемонстрировать, как учитываются этические соображения.

Поскольку ИИ все шире и глубже внедряется в повседневную жизнь, очень важно, чтобы технологи понимали общество, в котором они живут, и то, какое влияние на него могут оказать их творения.