Пекин развивает искусственный интеллект для боевых задач.
Китайские исследовательские институты, связанные с Народно-освободительной армией (НОАК), начали использовать модель Llama 2 от Meta* для разработки собственного инструмента искусственного интеллекта (ИИ), предназначенного для оборонных и полицейских нужд. Исследования показывают, что модель Llama 2, изначально доступная в открытом доступе, стала основой для создания военизированного ИИ, известного как ChatBIT.
В июне китайские учёные из трёх различных учреждений, включая Академию военных наук НОАК, опубликовали работу, в которой описали, как адаптировали модель Llama для целей сбора и анализа разведданных. Их версия была оптимизирована для диалога и ответов на вопросы, направленных на поддержку оперативных решений в военной сфере. По данным исследования, ChatBIT демонстрирует уровень производительности, близкий к ChatGPT-4 от OpenAI.
Разработчики проекта отмечают, что ChatBIT пока содержит лишь 100 тысяч записей военных диалогов, что относительно невелико по сравнению с другими языковыми моделями. Тем не менее, они планируют дальнейшую доработку, чтобы использовать ChatBIT для стратегического планирования, моделирования и поддержки командных решений.
Кроме того, Китай активно использует ИИ для внутренних целей безопасности. В других исследованиях отмечается, что модель Llama уже была задействована в анализе данных для нужд полиции, что позволяет улучшить принятие решений в сфере общественной безопасности. В апреле государственное издание PLA Daily подчеркнуло, что ИИ может ускорить разработку оружия, совершенствовать симуляцию боевых действий и повысить эффективность военной подготовки.
Западные эксперты отмечают, что использование китайскими специалистами западных ИИ-технологий может способствовать сокращению технологического отрыва Китая от США. К примеру, китайская корпорация AVIC, связанная с НОАК, использовала Llama 2 для разработки стратегий воздушного электронного противодействия.
Meta, в свою очередь, придерживается политики открытого доступа к своим моделям ИИ, но вводит определённые ограничения, запрещая использование этих технологий в военных, разведывательных или ядерных целях. Однако, ввиду публичного характера этих моделей, контроль за соблюдением условий использования остаётся ограниченным.
* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.