30 апреля 2017, воскресенье

Довести до ума. Когда машины превзойдут человека

комментировать
Когда машины превзойдут человека, превратившись в суперинтеллект

В бестселлере The New York Times Суперинтеллект описывается будущее, в котором компьютеры оставят человека, своего создателя, далеко позади в вопросе интеллекта. Мы потеряем статус доминирующего вида на планете, и нас вытеснят, как динозавров.

С этим прогнозом согласны несколько известных мыслителей. Стивен Хокинг отметил: “Полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельным и стремительно совершенствующимся. Люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать”.

Билл Гейтс, Илон Маск и Стив Возняк озвучивали похожие предупреждения.

Путь к суперинтеллекту идет через точку во времени, получившую название технологическая сингулярность. Это момент, когда мы создадим машину, обладающую достаточным интеллектом, чтобы модифицировать саму себя, и тогда ее разум начнет расти с экспоненциальной скоростью и на порядок обойдет человеческий.

Идея кажется не такой уж дикой. Экспоненциальные тренды положительно повлияли на развитие вычислительной техники. Закон Мура еще в 1975 году предсказал, что количество транзисторов, размещаемых на кристалле интегральной схемы, будет удваиваться каждые 24 месяца. Так странно ли предполагать в таком случае, что экспоненциальный рост будет свойственен и предполагаемому искусственному интеллекту (ИИ)?

Большую часть их программирования придется мучительно прописывать самим

Однако есть ряд серьезных доводов, ставящих под сомнение возможность технологической сингулярности. Позвольте уточнить: я не говорю, что ИИ не сможет создать машины, способные работать с эффективностью, равной или превышающей человеческую. Как и многие коллеги, работающие в сфере искусственного интеллекта, я полагаю, что от этого события нас отделяют всего 30–40 лет. Мы уже строим машины, играющие в го [китайская настольная игра] лучше человека.

Но при этом я сомневаюсь в вероятности стремительного экспоненциального роста. В том, что искусственный интеллект сможет совершенствоваться без усилий с нашей стороны.

Один из аргументов сторонников технологической сингулярности: у кремния значительное преимущество в скорости по сравнению с человеческим организмом, и это преимущество, согласно закону Мура, растет экспоненциально.

Озвучу два “но”. Во-первых, недавно стало известно о “смерти” закона Мура: его одолели законы физики.

Во-вторых, сама по себе скорость не гарантирует рост интеллекта. Собака, мыслящая быстрее, вряд ли сможет играть в шахматы. Канадско-американский ученый и популяризатор науки Стивен Пинкер отлично это сформулировал: “Нет ни малейшей причины верить в приближающуюся сингулярность. Тот факт, что вы визуализируете будущее при помощи воображения, не означает, что оно возможно. Вспомните города под куполами, реактивные ранцы, подводные города, здания в полтора километра высотой и атомные автомобили — все футуристические фантазии времен моего детства так и не стали реальностью. Сама по себе вычислительная мощность — не волшебная пыль, решающая чудесным образом все проблемы”.

Интеллект — нечто большее, чем способность думать о проблеме дольше или с большей скоростью по сравнению с остальными.

Быстрые компьютеры, несомненно, помогут нам в создании искусственного интеллекта. Но все же (по крайней мере, у людей) интеллект зависит и от ряда других вещей, включая годы занятий и получения опыта. Не факт, что мы сможем срезать этот путь для искусственного интеллекта, просто увеличив вычислительную скорость.

Второй аргумент против идеи технологической сингулярности заключается в том, что она путает обладание достаточным интеллектом для выполнения задания со способностью улучшать свой разум для выполнения задания.

Посмотрите на лучший пример разумной системы: людей.

Мы используем лишь малую часть возможностей нашего удивительного мозга и активно пытаемся изменить ситуацию. Но нам гораздо проще научиться выполнять конкретное задание, чем научиться получать знания в целом. Учить новый язык не стало легче — мы все еще неспособны использовать ум для того, чтобы улучшать наш интеллект.

Возможно, у нас и появятся машины, демонстрирующие сверхчеловеческий уровень интеллекта,— просто большую часть их программирования придется мучительно прописывать самим. И в таком случае влияние ИИ на нашу экономику и общество будет менее драматичным, чем некоторые предсказывают.

Впрочем, я не говорю, что не стоит задумываться об этом. Даже без технологической сингулярности искусственный интеллект окажет значительный эффект на такие сферы, как производство и разработка вооружений. И готовиться к этому будущему стоит уже сегодня.

Колонка опубликована в журнале Новое Время за 3 июня 2016 года в рамках спецпроекта "Украина и мир 2030". Републикация полной версии текста запрещена.

Читайте срочные новости и самые интересные истории в Viber и Telegram Нового Времени.
ПОДПИШИТЕСЬ НА РАССЫЛКУ   Тоби Уолш   И ЧИТАЙТЕ ТЕКСТЫ ИЗБРАННЫХ АВТОРОВ КАЖДЫЙ ВЕЧЕР В 21:00
     
Если вы нашли ошибку в тексте, выделите ее мышью и нажмите Ctrl+Enter

Комментарии

1000

Правила комментирования
Показать больше комментариев
Если Вы хотите вести свой блог на сайте Новое время, напишите, пожалуйста, письмо по адресу: nv-opinion@nv.ua

Мнения ТОП-10

Читайте на НВ style

Последние новости

Подписка на новости
     
Погода
Погода в Киеве

влажность:

давление:

ветер:

Все материалы раздела Мнения являются личным мнением пользователей сайта, которые определены как авторы опубликованных материалов. Все материалы упомянутого раздела публикуются от имени соответствующего автора, их содержание, взгляды, мысли не означают согласия Редакции сайта с ними или, что Редакция разделяет и поддерживает такое мнение. Ответственность за соблюдение законодательства в материалах раздела Мнения несут авторы материалов самостоятельно.