Эксперты НАТО и Украины будут проводить в Быдгоще передовые исследования по применению искусственного интеллекта в боевых действиях. Для этого создан Совместный центр анализа, обучения и образования НАТО для Украины. Решение о создании центра было принято в ответ на суровые реалии войны.
Верховный главнокомандующий НАТО по трансформации адмирал Пьер Вандье (Pierre Vandier) говорит, что Центр совместного анализа, обучения и образования НАТО для Украины заработает с середины февраля этого года (JATEC, Joint Analysis Training and Education Centre).
“Моя первая задача — поддержать Украину… Я делаю это с JATEC. JATEC был одобрен Североатлантическим Советом 16 декабря и будет запущен в середине февраля. И поэтому мы дадим там, в Быдгоще, в Польше, первые инструменты, чтобы этот центр заработал”, — сказал он в Брюсселе на пресс-конференции по окончании заседания Военного комитета НАТО на уровне начальников генеральных штабов.
Главком по трансформации указал, что в военную сферу приходят новые технологии. “Как мы видим в Украине, мы сталкиваемся с новыми военными инструментами. Пример страны, Украины, которая смогла полностью заблокировать Черное море и которая находится в сильной игре на истощение против российского флота, является хорошим примером того, что происходит в новой перспективе ведения боевых действий… Робототехника, беспилотники, ИИ, квантовые технологии — и список еще больше. И поэтому моя работа заключается в том, чтобы убедиться, что то, что мы подготовили для сегодняшнего вечера, все еще подходит для завтрашнего дня, то есть через год, через четыре года, через 10 лет. И чтобы у нас все еще было военное преимущество”, — обозначил Вандье свою задачу.
ИИ в польской армии
Польская армия с некоторым опозданием обратилась к вопросам внедрения искусственного интеллекта. Однако в 2024 году начались активные работы по интеграции ИИ в деятельность вооруженных сил. Одним из таких шагов стало создание Centrum Implementacji Sztucznej Inteligencji (CISI) — подразделения, отвечающего за реализацию решений на базе ИИ.
Принятая Министерством национальной обороны стратегия определяет направления действий в области искусственного интеллекта до 2039 года, включая развитие компетенций, адаптацию технологий и защиту стратегических ресурсов в условиях растущих технологических и военных вызовов. Уже сегодня польская армия может использовать ИИ для:
- набора и отбора военнослужащих;
- принятия стратегических решений, включая прогнозирование и планирование военных операций;
- обработки данных и проведения исследований;
- идентификации, распознавания объектов и уничтожения целей (например, с помощью дронов);
- мониторинга угроз;
- транспортировки людей и объектов;
- оказания помощи медицинскому персоналу;
- обеспечения кибербезопасности (атаки и защита в киберпространстве).
ИИ на войне в Украине
Украина применяет искусственный интеллект для планирования военных операций против России, используя программное обеспечение, разработанное компанией Palantir Technologies. Эта система анализирует данные из спутников, дронов, открытых источников и полевых отчетов, предоставляя командирам варианты выбора целей. Эксперты отмечают, что использование ИИ в данном случае носит преимущественно вспомогательный и аналитический характер, а такие технологии, как артиллерийские системы с ИИ или автономные дроны, еще не достигли полной автономии.
ИИ в правовом лабиринте: кто несет ответственность?
Европейский регламент об искусственном интеллекте (так называемый AI Act — Закон об искусственном интеллекте) регулирует вопросы ответственности поставщиков моделей ИИ, а также прозрачности данных, используемых для их обучения. Однако маловероятно, что эти нормы будут применимы в контексте военных действий.
Между тем, искусственный интеллект становится неотъемлемой частью современных вооруженных конфликтов. Системы ИИ анализируют огромные массивы данных в реальном времени, предоставляя командирам и лицам, принимающим решения, крайне важную информацию. Частично ИИ уже заменяет традиционные методы разведывательного анализа. Однако развитие ИИ в военной сфере порождает серьезные правовые и этические вопросы. До сих пор остается неясным, кто будет нести ответственность за ошибки, допущенные автономными системами вооружения.