Гонка вооружений в области искусственного интеллекта (Ikutg fkkjr'yunw f kQlgvmn nvtrvvmfyuukik numyllytmg)

Перейти к навигации Перейти к поиску
Автономный боевой дрон Corax[en]

Гонка вооружений в области искусственного интеллекта — гонка вооружений в области автономных боевых систем. Отмечается с середины 2010-х годов, в основном, между великими державами. Является частью второй холодной войны[1][2].

Терминология[править | править код]

В широком смысле любое соревнование в области искусственного интеллекта (ИИ) рассматривается как «гонка вооружений»[3][4]. Соревнование в военных применениях ИИ обычно пересекается со стремлением к господству в других областях, как военных, так и гражданских[5].

Ситуация по странам[править | править код]

Великобритания[править | править код]

В 2015 году правительство Великобритании выступило против запрета на смертоносное автономное оружие, заявив, что «международное гуманитарное право уже предусматривает достаточное регулирование для этой области», но что всё оружие, используемое вооружёнными силами Великобритании, будет «под человеческим надзором и контролем»[6].

Израиль[править | править код]

Израильский противорадиолокационный дрон Harpy предназначен для запуска наземными войсками и автономного полёта над районом, с целью поиска и уничтожения радаров, соответствующих заранее определённым критериям[7]. Также ожидается применение искусственного интеллекта в автономных наземных системах и роботизированных транспортных средствах, таких как Guardium MK III и более поздних версиях[8]. Эти роботизированные машины используются для охраны границы.

Китай[править | править код]

В области развития искусственного интеллекта Китай проводит стратегическую политику военно-гражданского слияния[9][10]. По мнению китайского руководства, развитие технологий ИИ имеет решающее значение для будущего глобального военного и экономического превосходства[5]. К 2030 году Китай планирует создание индустрии искусственного интеллекта стоимостью 150 млрд долларов[11]. Пекин выделил 2 миллиарда долларов на создание парка развития искусственного интеллекта[12]. По данным газеты Japan Times, ежегодные частные китайские инвестиции в ИИ составляют не менее 7 миллиардов долларов в год. В 2017 году китайцы получили почти в пять раз больше патентов на ИИ, чем американцы[13].

Россия[править | править код]

Российский генерал Виктор Бондарев, главнокомандующий ВВС России, заявил, что ещё в феврале 2017 года Россия работала над ракетами с искусственным интеллектом, которые могут переключаться между целями в полёте[14]. Военно-промышленный комитет России одобрил планы по обеспечению 30 % боевой мощи России за счёт роботизированных платформ с дистанционным управлением и искусственным интеллектом к 2030 году[15]. В мае 2017 года генеральный директор российского оборонного подрядчика Kronstadt Group, заявил, что «уже существуют полностью автономные операционные системы ИИ, которые предоставляют средства для кластеров БПЛА, когда они выполняют задачи автономно, разделяя задачи между собой и взаимодействуя»[16]. Россия тестирует несколько автономных и полуавтономных боевых систем, таких как боевой модуль «нейросети» Калашникова с пулемётом, камерой и ИИ, которые, как утверждают её создатели, могут принимать собственные решения о наведении без вмешательства человека[17].

В сентябре 2017 года, обращаясь к более чем миллиону учащихся в 16000 российских школах в рамках Национального дня знаний, президент России Владимир Путин заявил: «Искусственный интеллект — это будущее не только для России, но и для всего человечества. Кто станет лидером в этой сфере, тот станет правителем мира». Путин также сказал, что было бы лучше не допустить, чтобы какой-либо отдельный субъект достиг монополии, но что если Россия станет лидером в области ИИ, они поделятся своими «технологиями с остальным миром, как мы делаем сейчас с атомными и ядерными технологиями»[18][19][20].

Российское правительство категорически отвергает любой запрет на автономные системы оружия летального действия, предполагая, что такой запрет можно легко обойти[21][22].

США[править | править код]

The Sea Hunter sails out to sea
Автономный военный корабль США «Морской охотник», 2016 год

В 2014 году бывший министр обороны Чак Хейгел сформулировал «третью стратегию компенсации», согласно которой быстрое развитие искусственного интеллекта определит следующее поколение ведения войны[23]. Согласно данным аналитической компании Govini, министерство обороны США увеличило инвестиции в искусственный интеллект, большие данные и облачные вычисления с 5,6 млрд долларов в 2011 году до 7,4 млрд долларов в 2016 году[24]. В ноябре 2019 Комиссия по национальной безопасности США подтвердила, что ИИ имеет решающее значение для превосходства США в области военных технологий[25].

В качестве примера военного применения ИИ можно привести автономный военный корабль Sea Hunter, предназначенный для продолжительного автономного плавания без экипажа[17]. С 2017 года временная директива Министерства обороны США требует, чтобы решение о летальном применения автономного оружия принимал оператор[26]. Однако серьёзную озабоченность вызывает то, как эти требования будут соблюдаться.

Предложения по международному регулированию[править | править код]

Регулирование автономного оружия является новым разделом международного права[27]. Контроль за военным использованием ИИ потребует создания новых международных норм[1][2]. В 2014 году специалист по искусственному интеллекту Стив Омохундро предупредил, что «автономная гонка вооружений уже происходит»[28]. В 2017 году более ста экспертов подписали открытое письмо с призывом к ООН заняться проблемой летального автономного оружия[29][30]. Однако на ноябрьской 2017 г. сессии Конвенции ООН о конкретных видах обычного оружия (КНО) дипломаты не смогли договориться даже о том, как определять такое оружие[31]. По состоянию на 2017 год двадцать две страны призвали к полному запрету летального автономного оружия[32].


Это очень важный, ключевой момент, про который надо договариваться. Как только с одной стороны воюют роботы, а с другой — люди, люди проигрывают. Потому что для программистов, управляющих военными роботами за много тысяч километров от театра военных действий, это будет как компьютерная игра. На экране падают фигурки и горят города. Есть нажатие кнопки. Нет персонального риска. Нет персональной боли. Это хуже, чем атомная бомба.
Ольга Ускова, 22 июня 2021 года[33]

Многие эксперты считают, что попытки полностью запретить автономное оружие не реалистичны[34]. В отчёте Белфер-центра Гарварда за 2017 год говорится, что применение ИИ сравнимо по эффекту с ядерным оружием[35][36]. В отчёте также утверждается, что «Предотвратить расширенное военное использование ИИ, вероятно, невозможно» и что «необходимо преследовать более скромную цель безопасного и эффективного управления технологиями», такую как запрет на подключение мертвеца к ядерному арсеналу[37]. Сложность контроля заключается в том, что обнаружение нарушений договора будет чрезвычайно трудным[38][39].

Другие мнения[править | править код]

В 2015 году десятки тысяч людей, включая таких учёных, как физик Стивен Хокинг, владелец фирмы Tesla Илон Маск и Стив Возняк из Apple подписали обращение, призывающее к запрету летальных автоматизированных систем оружия[31].

Многие эксперты предупреждают, что автономное оружие неизбежно попадёт в руки террористических группировок, таких как Исламское государство[40].

Пока вся конструкция держится на том, что создание качественного ИИ — это очень дорого. Поэтому рынки ИИ-террористов, придурков, криптомасонов развиваются очень медленно, у них нет денег и специалистов. Но с развитием и расцветом новой отрасли массово появятся те, кто будет хотеть использовать ИИ для попытки уничтожения человечества.
Ольга Ускова, 22 июня 2021 года[41]

Американский специалист по ИИ Гэри Маркус считает[42]:

Нет никаких сомнений и в том, что вскоре искусственный интеллект найдёт применение в автономных системах вооружения, хотя у нас пока остаётся некоторая надежда на то, что такое оружие будет запрещено, подобно химическому или биологическому.

Примечания[править | править код]

  1. 1 2 Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318—321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402.
  2. 1 2 Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285—311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260.
  3. Roff, Heather M. (2019-04-26). "The frame problem: The AI "arms race" isn't one". Bulletin of the Atomic Scientists. 75 (3): 95—98. Bibcode:2019BuAtS..75c..95R. doi:10.1080/00963402.2019.1604836. ISSN 0096-3402.
  4. "For Google, a leg up in the artificial intelligence arms race". Fortune (англ.). 2014. Архивировано из оригинала 15 сентября 2021. Дата обращения: 11 апреля 2020.
  5. 1 2 Allen. Understanding China's AI Strategy. Center for a New American Security. Center for a New American Security. Дата обращения: 15 марта 2019. Архивировано 7 февраля 2019 года.
  6. Gibbs, Samuel (2017-08-20). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Архивировано из оригинала 30 декабря 2019. Дата обращения: 24 декабря 2017.
  7. "'Killer robots': autonomous weapons pose moral dilemma | World| Breakings news and perspectives from around the globe | DW | 14.11.2017". DW.COM (англ.). 2017-11-14. Архивировано из оригинала 11 июля 2019. Дата обращения: 12 января 2018.
  8. Slocombe, Geoff (2015). "Uninhabited Ground Systems (Ugs)". Asia-Pacific Defence Reporter. 41 (7): 28—29.
  9. Technology, Trade, and Military-Civil Fusion: China's Pursuit of Artificial Intelligence, New Materials, and New Energy | U.S.- CHINA | ECONOMIC and SECURITY REVIEW COMMISSION. www.uscc.gov. Дата обращения: 4 апреля 2020. Архивировано 11 апреля 2020 года.
  10. Why China could win the new global arms race Архивная копия от 22 декабря 2021 на Wayback Machine, BBC, 22.12.2021
  11. "China seeks dominance of global AI industry". Financial Times. 2017-10-15. Архивировано из оригинала 19 сентября 2019. Дата обращения: 24 декабря 2017.
  12. Metz, Cade (2018-02-12). "As China Marches Forward on A.I., the White House Is Silent". The New York Times. Архивировано из оригинала 24 октября 2021. Дата обращения: 14 февраля 2018.
  13. "The artificial intelligence race heats up". The Japan Times. 2018-03-01. Архивировано из оригинала 3 января 2020. Дата обращения: 5 марта 2018.
  14. "Russia is building a missile that can makes its own decisions". Newsweek (англ.). 2017-07-20. Архивировано из оригинала 30 декабря 2019. Дата обращения: 24 декабря 2017.
  15. Walters, Greg. Artificial Intelligence Is Poised to Revolutionize Warfare (англ.). Seeker (6 сентября 2017). Дата обращения: 15 сентября 2021. Архивировано 7 октября 2021 года.
  16. "Russia is developing autonomous "swarms of drones" it calls an inevitable part of future warfare". Newsweek (англ.). 2017-05-15. Архивировано из оригинала 3 июня 2019. Дата обращения: 24 декабря 2017.
  17. 1 2 Smith, Mark (2017-08-25). "Is 'killer robot' warfare closer than we think?". BBC News. Архивировано из оригинала 24 декабря 2019. Дата обращения: 24 декабря 2017.
  18. "Artificial Intelligence Fuels New Global Arms Race". WIRED. Архивировано из оригинала 24 октября 2019. Дата обращения: 24 декабря 2017.
  19. Clifford, Catherine (2017-09-29). "In the same way there was a nuclear arms race, there will be a race to build A.I., says tech exec". CNBC. Архивировано из оригинала 15 августа 2019. Дата обращения: 24 декабря 2017.
  20. Radina Gigova (2017-09-02). "Who Vladimir Putin thinks will rule the world". CNN. Архивировано из оригинала 10 января 2022. Дата обращения: 22 марта 2020.
  21. "Russia rejects potential UN 'killer robots' ban, official statement says". Institution of Engineering and Technology. 2017-12-01. Архивировано из оригинала 4 ноября 2019. Дата обращения: 12 января 2018.
  22. Examination of various dimensions of emerging technologies in the area of lethal autonomous weapons systems, Russian Federation, November 2017. Дата обращения: 12 января 2018. Архивировано 19 августа 2019 года.
  23. "US risks losing AI arms race to China and Russia". CNN. 2017-11-29. Архивировано из оригинала 15 сентября 2021. Дата обращения: 24 декабря 2017.
  24. Davenport, Christian (2017-12-03). "Future wars may depend as much on algorithms as on ammunition, report says". Washington Post. Архивировано из оригинала 15 августа 2019. Дата обращения: 24 декабря 2017.
  25. Interim Report. — Washington, DC : National Security Commission on Artificial Intelligence, 2019. Архивная копия от 10 сентября 2021 на Wayback Machine Источник. Дата обращения: 15 сентября 2021. Архивировано 10 сентября 2021 года.
  26. "US general warns of out-of-control killer robots". CNN. 2017-07-18. Архивировано из оригинала 15 сентября 2021. Дата обращения: 24 декабря 2017.
  27. Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Архивировано из оригинала 23 марта 2020. Дата обращения: 14 сентября 2019. {{cite journal}}: Cite journal требует |journal= (справка)
  28. Markoff, John (2014-11-11). "Fearing Bombs That Can Pick Whom to Kill". The New York Times. Архивировано из оригинала 27 ноября 2021. Дата обращения: 11 января 2018.
  29. Gibbs, Samuel (2017-08-20). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Архивировано из оригинала 30 декабря 2019. Дата обращения: 11 января 2018.
  30. An Open Letter to the United Nations Convention on Certain Conventional Weapons. Future of Life Institute. Дата обращения: 14 января 2018. Архивировано 6 декабря 2017 года.
  31. 1 2 "Rise of the killer machines". Asia Times. 2017-11-24. Дата обращения: 24 декабря 2017.
  32. "'Robots are not taking over,' says head of UN body on autonomous weapons". The Guardian. 2017-11-17. Архивировано из оригинала 5 декабря 2021. Дата обращения: 14 января 2018.
  33. Ольга Ускова, глава Cognitive Pilot: будет новая гонка вооружений среди ИИ // ТАСС. — 2021. — 22 июня. — Дата обращения: 08.08.2022.
  34. "Sorry, Banning 'Killer Robots' Just Isn't Practical". WIRED. 2017-08-22. Архивировано из оригинала 23 июля 2021. Дата обращения: 14 января 2018.
  35. "AI Could Revolutionize War as Much as Nukes". WIRED. Архивировано из оригинала 25 ноября 2021. Дата обращения: 24 декабря 2017.
  36. McFarland, Matt (2017-11-14). "'Slaughterbots' film shows potential horrors of killer drones". CNNMoney. Архивировано из оригинала 15 сентября 2021. Дата обращения: 14 января 2018.
  37. Allen, Greg, and Taniel Chan. «Artificial Intelligence and National Security.» Report. Harvard Kennedy School, Harvard University. Boston, MA (2017).
  38. Antebi, Liran. «Who Will Stop the Robots?.» Military and Strategic Affairs 5.2 (2013).
  39. Shulman, C., & Armstrong, S. (2009, July). Arms control and intelligence explosions. In 7th European Conference on Computing and Philosophy (ECAP), Bellaterra, Spain, July (pp. 2-4).
  40. Wheeler, Brian (2017-11-30). "Terrorists 'certain' to get killer robots". BBC News. Архивировано из оригинала 15 сентября 2021. Дата обращения: 24 декабря 2017.
  41. Ольга Ускова, глава Cognitive Pilot: будет новая гонка вооружений среди ИИ // ТАСС. — 2021. — 22 июня. — Дата обращения: 08.08.2022.
  42. Маркус, Дэвис, 2021, с. 53.

Литература[править | править код]

  • Гэри Маркус, Эрнест Дэвис. Искусственный интеллект: Перезагрузка. Как создать машинный разум, которому действительно можно доверять = Rebooting AI: Building Artificial Intelligence We Can Trust. — М.: Интеллектуальная Литература, 2021. — 304 с. — ISBN 978-5-907394-93-3.