21 августа 2018, вторник

Не убей. Почему лидеры техноиндустрии отказались делать оружие с искусственным интеллектом

0 комментировать
Ключевые разработчики технологий в мире взывают властей к отказу от оружия с ИИ
International Committee of the Red Cross

Ключевые разработчики технологий в мире взывают властей к отказу от оружия с ИИ

Ведущие исследователи искусственного интеллекта поручились не развивать летальное оружие. Документ подписали основатель Skype Яаан Таллинн, Илон Маск и создатели дочерней компании Google DeepMind.

В середине 20-го столетия помощь своей стране в разработке секретных военных технологий была одним из самых уважительных занятий. Ключевые компании, ученые, инженеры двух враждующих государств – США и СССР – боролись за то, чтобы придумать такую технологию, которая продвинет их власть в гонке вооружения.

Для кого-то это был престиж, для кого-то – деньги, а кто-то просто фанатично любил свою работу и был рад получить все возможности для развития. Конечно, некоторые существующие до сих пор техногиганты, вроде IBM и Hewlett-Packard, несколько запятнали свою репутацию подобными делами, но судить их сейчас явно нет смысла.

Сегодня же, в мире наблюдается обратная ситуация, или по крайней мере создана подобная иллюзия.

Прошлой ночью, изданию The Verge стало известно, что на Международной совместной конференции по искусственному интеллекту (IJCAI) в Стокгольме, которая организована Институтом «Будущее жизни», опубликовали поручение с обещанием не развивать «летальное автономное оружие».

Технопортал пишет: «это один из последних шагов неофициальной глобальной коалиции разработчиков и менеджеров, который выступает против пропаганды таких технологий».

В поручительстве указано, что системы вооружения, использующие искусственный интеллект (ИИ) «для выбора и действия по цели, без вмешательства человека» несут моральные и прагматические угрозы.

Документ взывает к тому, что машины и компьютеризированные системы вооружения нельзя наделять возможностью убивать людей, и, отказавшись от подобных технологий, можно снизить потенциальные риски для человечества.

Поручительство подписали основатель SpaceX и Tesla Илон Маск, три соучредителя дочерней компании DeepMind Google, которая разрабатывает ИИ, – Шейн Легг, Мустафа Сулейман и Демис Хасавис, основатель Skype Яаан Таллинн и некоторые известные по всему миру исследователи ИИ – Стюарт Рассел, Йошуа Бенджио и Юрген Шмидхубер.

Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом поручительстве«Мы, нижеподписавшиеся, призываем правительства и их лидеров создать будущее с сильными международными нормами, положениями и законами против летального автономного оружия. Мы не будем ни участвовать, ни поддерживать разработку, производство, торговлю или использование летального автономного оружия. Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом поручительстве» – гласит документ.

Авторы инициативы считают, что развитие оружия с ИИ может вызвать цепную реакцию и гонку вооружений между странами, хотя большинство государств в мире не имеют надлежащих технологий управления такими автономными системами.

Год назад Институт «Будущее жизни», с теми же участниками, отправили письмо в ООН с призывом рассмотреть новые регулятивные нормы для разработки и использования летального автономного оружия.

Сложно сказать, появится ли обновленное законодательство, и смогут ли его принять власти по всему миру, ведь сегодня, для передовых стран, внедрение ИИ в армии, беспилотные технологии и прочее роботизированное оружие является одним из самых перспективных направлений.

Как ранее писало НВ, в начале лета около 4000 сотрудников Google вынудили руководство прекратить помощь армии США в разработке военных дронов. Программисты Google участвовали в так называемом Проекте Мэйвен, и их ИИ-технология TensorFlow помогала быстро анализировать фотографии с дрона, автоматически определяя, где находятся живые и неживые объекты.

Менеджеры прислушались к требованиям работников и опубликовали новые принципы работы Googlе, в которых появились положения, что компания обещает не разрабатывать ИИ для:

– технологий, которые могут нанести глобальный ущерб;

– оружия или других технологий, задача которых – прямое или косвенное причинение вреда людям;

– технологий, которые собирают или используют информацию для наблюдения, нарушая международные нормы;

– технологий, которые противоречат принципам международного права и правам человека.

Хотите знать не только новости, но и что за ними стоит?

Читайте журнал Новое Время онлайн.
Подпишитесь прямо сейчас

Читайте 3 месяца за 59 грн

Читайте срочные новости и самые интересные истории в Viber и Telegram Нового Времени.

Комментарии

1000

Правила комментирования
Показать больше комментариев

Последние новости

ТОП-3 блога

Фото

ВИДЕО

Читайте на НВ style

IT-индустрия ТОП-10

опрос

Погода
Погода в Киеве

влажность:

давление:

ветер: