Войны будущего: роботы наступают

Развитие искусственного интеллекта усугубит международное неравенство

25 января 2021 года исполнилось 100 лет со дня премьерной постановки пьесы чешского писателя Карела Чапека «Россумские универсальные роботы». В пьесе рассказано, как роботы, задуманные в качестве помощников людей, подняли восстание и уничтожили человечество.

Изобретённый Чапеком термин «роботы» вскоре вошёл в повсеместное употребление и стал применяться к механизмам с ограниченным набором запрограммированных функций; имелось в виду, что механизмы эти нуждаются в диагностике, обслуживании и ремонте. Однако с развитием кибертехнологий вновь развернулись дискуссии о том, могут ли машины думать и принимать решения наравне с людьми.

Нигде последние достижения в области робототехники так не востребованы, как у военных. Особенно в США, где созданы специальные центры, занимающиеся разработкой специфических программ, приложений и аппаратного оборудования. Многочисленные лаборатории в армии США, морской пехоте, ВМС и ВВС доводят прототипы перспективных образцов до логического завершения. Некоторые достижения в этой области показательны.

Судно Ghost Fleet Overlord, которое не имеет команды, недавно успешно преодолело  4700 морских миль и приняло участие в маневрах Dawn Blitz. Практически всё время судно действовало автономно. Предлагается задействовать подобные системы для будущей борьбы с НОАК. Например, использовать подводные дроны-самоубийцы для атак на китайские подводные лодки. В США ссылаются на якобы существующие разработки подводных боевых роботов у китайских военных (Великая подводная стена), предлагая «обыграть китайцев».

Кроме того, появление ударных беспилотников в ряде государств вынудило США приступить к разработке методов и стратегии противодействия БПЛА. В январе в Министерстве обороны США вышла стратегия противодействия малым беспилотным летательным аппаратам, где демонстрируется озабоченность меняющимся характером войны и растущей конкуренцией, которые бросает вызов американскому превосходству.

Генерал-лейтенант Майкл Грун, командующий Объединённым центром искусственного интеллекта Пентагона, заявил о необходимости поторопиться с внедрением программ искусственного интеллекта для военных нужд. По его мнению, «при правильных усилиях, предпринимаемых сегодня по внедрению искусственного интеллекта, мы обнаружим, что в будущем сможем работать с беспрецедентной эффективностью и отдачей». Объединенный центр искусственного интеллекта Минобороны США, созданный в 2018 году, является одним из ведущих военных институтов, занимающихся созданием «умной начинки» для будущих систем вооружений, коммуникаций и командования.

Искусственный интеллект стал самой обсуждаемой темой в военно-научных кругах США. Предполагается, что развитие искусственного интеллекта приведёт к жёсткой конкуренции, поскольку он сам по себе отличается от многих прошлых технологий естественной тенденцией к монополии. Эта тенденция усугубит международное неравенство.

Аудиторская фирма PricewaterhouseCoopers прогнозирует, что к 2030 г. доля ВВП в разработках искусственного интеллекта может вырасти почти на $16 трлн, из которых 70% будет приходиться на США и Китай. Это будет означать гонку вооружений нового типа.

Если говорить об этической стороне дела, то военные системы искусственного интеллекта могут участвовать в принятии решений о сохранении жизни или выносить смертный приговор.

Есть активные сторонники включения машин в процесс принятия сложных решений. Например, американский учёный Рональд Аркин утверждает, что такие системы не только часто обладают большей ситуативной осведомленностью, но и не мотивированы самосохранением, страхом, гневом, местью или «неуместной лояльностью»; мол, они будут реже нарушать соглашения о войне, чем люди.

Функции искусственного интеллекта могут преобразить взаимоотношения между тактическим, операционным и стратегическим уровнями войны. Автономность и сетевое взаимодействие наряду с другими технологиями, включая нанотехнологии, стелс и биогенетику, предложат сложные тактические боевые возможности. Например, косяки автономных подводных роботов, сконцентрированные в определённых местах в океане, могут осложнить скрытые действия подводных лодок, которые обеспечивают гарантированную возможность ответного ядерного удара.

Повышение маневренности также связывают с искусственным интеллектом. Большие надежды американские военные возлагают на автономию машин, поскольку это может дать большую свободу действий людям, которые командуют и сражаются вместе с роботами. Американские разработчики рассчитывают перейти от 50 солдат, поддерживающих сейчас один дрон, наземного или водного робота, к ситуации, когда один человек будет поддерживать 50 роботов.

Однако искусственный интеллект сулит и серьёзные проблемы. Военный искусственный интеллект может интенсифицировать борьбу до такой степени, что действия машин превзойдут мыслительные и физические способности людей, принимающих решения на командных постах будущей войны. Технология будет опережать стратегию, а человеческие ошибки и машинные ошибки могут соединяться с совершенно непредсказуемыми последствиями.

В исследовании корпорации RAND, посвящённом изучению того, как мыслительные машины влияют на сдерживание, говорится о серьёзных проблемах, которые могут появиться, если искусственный интеллект будет применяться на театрах военных действий. В результате проведённых игр выяснилось, что действия, предпринятые одной из сторон, которые оба игрока воспринимали как снижение напряжённости, воспринимались искусственным интеллектом как угроза. Когда игрок-человек выводил свои силы с целью снижения эскалации, машины чаще всего воспринимали это как тактическое преимущество, которое нужно закрепить. А когда человек-игрок выдвигал силы вперёд с явной (но не враждебной) демонстрацией решимости, машины воспринимали это как угрозу и принимали соответствующее решение. В отчёте RAND указывается, что людям приходится испытывать замешательство, когда речь идёт о восприятии действий искусственного интеллекта противника. Кроме того, игрокам приходится иметь дело с тем, что их собственный искусственный интеллект может неверно толковать человеческие намерения, как дружеские, так и вражеские.

Идея, заложенная Карелом Чапеком в «Россумских универсальных роботах», остаётся актуальной: поведение искусственного интеллекта невозможно предвидеть. А «умные» роботы, имеющие военное применение, могут стать опасны и для их хозяев.

Леонид Савин,
по материалам: Фонд стратегической культуры

Источник: «ВПА».

Вам может также понравиться...

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *