Искусственный интеллект и Третья мировая война
Говорят, что было две великие революции в войне: первая была порохом, обнаруженным в 9-м веке китайскими даосистами, ищущими бессмертия. Второе — это открытие водородной бомбы в 1949 году. Третьей будет искусственный интеллект (ИИ), способный искать и убивать конкретных людей, подавлять население и изменять цели и методы гораздо быстрее, чем мы когда-либо могли. Он превратится в систему, настолько эффективную для быстрого и разрушительного нападения, что ведущие страны мира в настоящее время находятся в гонке, чтобы стать первой страной, разработавшей эту технологию и внедрившей её.
Эта международная конкуренция за ИИ может быть одной из причин третьей мировой войны, и она не показывает признаков замедления. Одна из проблем, связанных с прекращением разработки этих новых вооружений, заключается в том, что даже если одна страна решит, что это неэтично, другие страны не обязательно придут к такому же выводу. ИИ, как и чипы, преобразит всё, к чему прикоснется. Это может дать стране, которая реализует её, доминирующую роль в мировой политике и международных отношениях. Вот почему, несмотря на открытое письмо, подписанное тысячами исследователей, руководителей и ученых (включая Илона Маска и Стивена Хокинга) с просьбой запретить автономное оружие, все 10 военных держав отклонили эту просьбу.
«Если какая-либо крупная военная сила будет продвигаться вперёд с развитием ИИ, то глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматами Калашникова завтрашнего дня».
– Из Открытого письма, подписанного в 2015 году.
Во время президентства Обамы наблюдалось 90%-ное сокращение войск в зонах военных действий, одновременно в 10 раз увеличивались удары с беспилотников. В то время, как во время ударов с беспилотников сегодня погибают также и гражданские лица, ИИ может помочь более точно распознавать и убивать комбатантов, а не невинных людей. Пилоты, находясь в безопасном месте, могут командовать целым флотом беспилотников, которые могут нести оружие, и прорывать ПВО.
Имитационное тестирование в исследовательских лабораториях военно-воздушных сил показало, что беспилотные летательные аппараты с ИИ всегда побеждали пилотов-людей. Один боевой пилот даже сказал, что он чувствовал, будто ИИ знает, что он думает и каковы его намерения, и поэтому каждый раз искусственный разум его побеждал.
Точно так же автономные корабли могли находить подводные лодки и запускать оружие. Они будут стоить $20 000 в день, по сравнению с $700 000 в день для управляемого корабля.
На данный момент 93% ядерного оружия принадлежит США и России. Это объясняется тем, что, хотя планы создания ядерного арсенала могут быть достаточно простыми, для создания и приобретения ядерного оружия по-прежнему требуются ресурсы и деньги. Одна из основных проблем военного ИИ — его доступность по сравнению с ядерными технологиями. Код может распространяться легко и бесплатно. Как мы сохраним эту информацию от дельцов черного рынка, таких как террористы?
США и Россия не являются единственными соперниками в гонке ИИ; Китай разработал свой собственный план развития ИИ следующего поколения. Согласно этому плану, к 2020 году Китай будет находиться на одном уровне с США, достигнув значительных прорывов к 2025 году и «занятие командных высот» ИИ к 2030 году. Хотя, как известно, Китай занимается копированием, а не инновациям с точки зрения технологии, у него есть пара преимуществ. Огромное население страны позволяет легко отслеживать людей и собирать их информацию для использования программ ИИ. Их правительство также может заставить частные компании работать с ним, в отличие от США, где частные фирмы намного опережают военные.
Совет по оборонной науке США призвал ускорить развитие военного ИИ, в то время как Министерство обороны ввело политику, требующую, чтобы люди были вовлечены в любые решения по созданию смертоносной силы.
Военное финансирование ИИ вызывает тревогу. Если основная функция создаваемых машин с ИИ — убивать, что произойдет, если они однажды решат убить и своих создателей? Лучше, чтобы гражданские лица финансировали создание ИИ, это будет гарантировать, что они созданы, чтобы помочь человечеству, а не для его уничтожения.
Но, как всегда, появление нового оружия неизбежно.
По мере того, как это оружие с ИИ продолжает развиваться, оно сможет принимать решения быстрее, чем человек, анализируя большие массивы информации, чем те, с которыми человеческий мозг может справиться. У дронов будет точность, подобная птице, программное обеспечение создаст реалистичные поддельные видеоролики, любые атаки будут встречены быстрыми ответными реакциями, а не колебаниями, свойственными людям, когда они принимают решения во время боя.
Тактика самообороны, такая как контратаки, может быть полностью доверена системам ИИ, особенно на кораблях и на военных объектах на границах страны.
ИИ, как и ядерное оружие, также может быть сдерживающим фактором нападений, поскольку противоборство ИИ одной страны с другой может иметь катастрофические последствия. Вопрос на данный момент может быть не в том, «должны ли мы создавать автономное оружие?» — поскольку мы знаем, что это неизбежно, — но, возможно, сейчас мы должны спросить: «Какие меры мы можем принять, чтобы убедиться, что это находится под контролем и используется для пользы, а не глобального уничтожения?».
Перевод: Сергей Базанов