Не случайно заглушенная фоновым шумом второстепенных тем, тема военного применения ИИ остается ограниченной кругом исследователей и финансирующих их высокотехнологичных отраслей. С серьезными рисками для ближайшего будущего человечества
Теперь, когда в ноябре, надеюсь, не поздно и не сильно, начнутся переговоры, чтобы хотя бы временно остановить катастрофическую войну на Украине и великая американская электоральная масса закончится, мы должны начать открывать каналы для переговоров по договору о военном использовании искусственного интеллекта (ИИ). С кем? Ну, для начала, очевидно, с «авторитарными» Китаем и Россией. По трем причинам: во-первых, две страны выразили в своем совместном заявлении (04.02.2022) свое намерение укреплять диалог и контакты по вопросам искусственного интеллекта, а также углублять сотрудничество в области международной кибербезопасности и способствовать построению открытой безопасной, устойчивой и доступной среды ИКТ (информационно-коммуникационных технологий).
Откровенно говоря, бесполезно вызывать превентивные сомнения в добросовестности двух стран, в том числе вытекающие из продолжающейся войны, не потому, что они не являются грозными партнерами, а потому, что договоры о разоружении и контроле над вооружениями регулярно заключаются с противниками или потенциальными таковыми. Более того, это вопрос глобальной важности, затрагивающий будущее 8 миллиардов человек, включая нынешних воюющих сторон.
Вторая причина восходит к заре гонки ядерных вооружений. Очень мудро Генеральная Ассамблея ООН создала специальную комиссию по ликвидации всего ядерного оружия менее чем через год после ужасов Хиросимы и Нагасаки (1946 г.), и в том же году с такой же мудростью США представили план Баруха к одностороннему демонтажу небольшого арсенала США (12 боеголовок) и международного контроля над атомной энергией. Советы ему не поверили, они воздержались от этого плана, а их министр иностранных дел Андрей Громыко (знаменитый г-н «Нет», наиболее дружелюбной версией которого является Сергей Лавров) в 1947 году сделал встречное предложение, которое было отклонено Советом безопасности с западным большинством. У некоторых западных переговорщиков спустя 38 лет возникло сомнение, что была упущена уникальная возможность если не ликвидировать все ядерное оружие (в 1948 году имела место быть советская блокада Западного Берлина), то хотя бы ограничить арсеналы несколькими бомбами и не достичь примерно 10 000 боеголовок с каждой стороны в пароксизме ядерного накопления. Как мы вскоре увидим, последствия применения ИИ в военной сфере весьма проблематичны.
Последняя причина связана с характером развития ИИ. Эти алгоритмы не только работают в соответствии с логикой, которая на данный момент не поддается реконструкции, объяснению и отслеживанию (как если бы самолет летел, а мы не знаем, как работает двигатель внутри него), но и исследования происходят в значительной степени вне реального государственного контроля. Перефразируя такого жесткого французского государственного деятеля, как Клемансо: «ИИ! Слишком рискованно оставлять его в руках предпринимателей». Обычным фанатикам свободного рынка следует напомнить, что сама Кремниевая долина признает, что экономическая конкуренция рискует способствовать инновациям в ущерб безопасности, настолько, что 1000 специалистов попросили ввести мораторий, чтобы избежать развития «цифрового разума, которого никто, даже их создатели – не могут достоверно понимать, предсказывать или контролировать» (март 2023 г.). За год ничего не произошло, несмотря на ни к чему не обязывающие автономные инициативы.
Даже на международном уровне мы до сих пор находимся на стадии деклараций о намерениях и принципах: Китайской глобальной инициативы по управлению искусственным интеллектом; Хиросимского кодекса поведения, «Большая Семерка»; Декларации Блетчели-Парк, Саммита по безопасности искусственного интеллекта; доклада «Управляющий искусственный интеллект для человечества», ООН HLAB, все инициативы 2023 года, но часто предвосхищаемые работой ЮНЕСКО и ОЭСР двумя годами ранее.
Есть также некоторые первоначальные размышления о том, как может сформироваться международный режим контроля над ИИ, среди которых выделяется документ (21.03.2024) Фонда Карнеги за международный мир Эммы Кляйн (специальной помощницы президента) и Стюарта Патрика (директора программы «Порядок и глобальные институты»). После анализа предыдущих моделей и областей применения он предусматривает сложный режим контроля, основанный на взаимодействии различных агентств и субъектов, аналогичный тому, который используется для такой обширной проблемы, как изменение климата.
Здесь, однако, предлагается не голлистская «обширная программа», а первоначально двусторонний договор (США, Китай), открываемый в разумные сроки для других признанных ядерных держав (а также потенциально и для непризнанных), концентрирующийся на использовании ИИ в целях ядерного сдерживания, потому что гонка за возможностями ИИ уже началась, и соглашение должно быть достигнуто до того, как одна сторона вообразит, что имеет устойчивое превосходство.
Ядерное сдерживание, которое слишком многие считают само собой разумеющимся, начиная с 1980-х годов постепенно разрушалось из-за: развития противоракетного оружия, постепенной потери стратегической невидимости атомных ракетных подводных лодок, создания маневренных гиперзвуковых ядерных ракет, вероятного появления радаров с квантовыми технологиями и других возможностей, которых не существовало во время холодной войны.
Это побудило некоторых американских мыслителей-ядерщиков представить себе новую систему раннего предупреждения и помощи президенту в принятии решений на основе искусственного интеллекта, которая в случае ядерной атаки способна предложить лицам, принимающим решения, меню заранее подготовленных решений, основанных на выявленной атаке. В крайних случаях он мог бы отреагировать, даже если бы президент был мертв или не мог общаться, усиливая сдерживание с разумной уверенностью в возмездии в случае успешного внезапного нападения противника.
Это очень похоже на «Машину конца света» доктора Стрейнджлава…
Переговоры по такому договору должны, в принципе, обеспечить равную эффективность систем раннего предупреждения для обеих сторон, а затем и для всех контрагентов (таким образом увеличивая шансы на выживание авианосцев), неприкосновенность связанных с ними ИТ-систем для национальных средств сдерживания, целостность и большую надежность. субординации и каналов связи между контрагентами. Другими словами, ИИ станет фактором, делающим маловероятной превентивную ядерную стратегическую атаку кого-либо против других ядерных держав.
Если предусмотрительность и мудрость возобладают над воинственным и уклончивым безумием, столь модным в данный момент, лишь немногие страны будут иметь заслугу и преимущество в устранении или минимизации одного из факторов риска, который может привести к исчезновению гомо сапиенса. «Следуя по этой траектории, мы, скорее всего, находимся на пути к созданию довольно мощных систем, которые могут либо стать оружием с катастрофическими последствиями, либо выйти из-под контроля», – заключает доклад «Глубокая оборона» Гладстон ИИ для Государственного департамента (26.02.2024).
Нельзя терять времени, нам нужно начать переговоры здесь и сейчас.