Ученый рассказала, какие "лазейки" в Женевских конвенциях эксплуатируют США
02.04.2026 02:12

МОСКВА, 2 апр – РИА Новости. В частности, США активно привлекают гражданские коммерческие компании для внедрения ИИ в военную сферу, что вызывает обеспокоенность, поскольку на такие организации не распространяются требования Женевских конвенций, отметила в интервью РИА Новости Наталия Ромашкина, руководитель группы проблем информационной безопасности Института мировой экономики и международных отношений имени Е. М. Примакова (ИМЭМО) РАН.
По информации агентства Рейтер, Министерство обороны США планирует постоянное использование системы ИИ Maven, разработанной компанией Palantir, в составе вооруженных сил страны. Эта система предназначена для повышения эффективности военных операций за счет анализа больших объемов данных и автоматизации принятия решений. Однако привлечение коммерческих организаций к разработке и эксплуатации военных ИИ-технологий ставит под вопрос соблюдение международных гуманитарных норм и контроля над использованием таких систем. Эксперты подчеркивают, что использование ИИ в военных конфликтах требует строгого регулирования и прозрачности, чтобы избежать непреднамеренных последствий и обеспечить ответственность за действия автономных систем. В свете этих вызовов международное сообщество должно активизировать усилия по разработке новых правил и стандартов, регулирующих применение искусственного интеллекта в вооруженных конфликтах, чтобы сохранить баланс между технологическим прогрессом и этическими принципами войны.Современная оборонная индустрия претерпевает значительные изменения, и роль частных компаний в разработке и внедрении военных технологий становится всё более заметной и влиятельной. В частности, такие фирмы, как Palantir, сегодня занимают центральное место в создании и совершенствовании военных систем на базе искусственного интеллекта. При этом стоит отметить, что международные нормы, такие как Женевские конвенции, не распространяются на деятельность этих частных акторов, что создаёт определённые правовые и этические вызовы. Ведущей страной в мире по интеграции гражданских коммерческих организаций в военные исследования и разработки ИИ остаются Соединённые Штаты Америки. Благодаря этому США обладают значительным технологическим и стратегическим преимуществом перед многими другими государствами. В связи с этим, по мнению экспертов, американским властям может быть невыгодно активно участвовать в создании и принятии новых международных правил, регулирующих использование вооружений с искусственным интеллектом. Такая позиция отражает сложное взаимодействие между национальными интересами, технологическим прогрессом и международным правом, что требует тщательного анализа и выработки сбалансированных решений в будущем, - подчеркнула Ромашкина.В современном мире стремительное развитие кибертехнологий, включая искусственный интеллект, ставит перед международным сообществом новые вызовы, связанные с регулированием их передачи и использования. По мнению эксперта, существующие международные документы не содержат четких и однозначных руководящих принципов, касающихся передачи кибертехнологий, что создает значительные правовые пробелы. Эти пробелы позволяют как государственным, так и частным субъектам обходить ответственность и использовать правовые лазейки, что существенно осложняет привлечение их к ответственности за нарушение норм международного гуманитарного права.Особенно актуальной становится проблема контроля над применением ИИ в военной сфере. В качестве примера эксперт приводит недавний конфликт между Пентагоном и компанией Anthropic. Эта компания обратилась к Министерству обороны США с запросами о том, каким образом их ИИ-система используется в военной операции в Венесуэле. Anthropic выразила обеспокоенность тем, что подобное применение противоречит внутренним этическим нормам компании, и в итоге подала иск против Пентагона. Этот инцидент демонстрирует растущую уязвимость Соединенных Штатов перед внешним и внутренним давлением, а также подчеркивает необходимость более четкого и прозрачного регулирования в сфере кибертехнологий.Таким образом, отсутствие согласованных международных стандартов по передаче и использованию ИИ-технологий создает серьезные риски для соблюдения этических и правовых норм в глобальном масштабе. Для эффективного решения этих проблем требуется разработка комплексных международных соглашений, которые смогут обеспечить прозрачность, ответственность и этичность в применении кибертехнологий, особенно в военной области. Только при условии совместных усилий государств, международных организаций и частного сектора можно будет минимизировать злоупотребления и гарантировать соблюдение международного гуманитарного права в эпоху цифровых технологий.В современном мире вопросы этического использования технологий искусственного интеллекта становятся все более актуальными и вызывают серьезные дискуссии на международном уровне. Этот конкретный прецедент является ярким примером сложностей, связанных с контролем и регулированием ИИ-систем в военной сфере. Несмотря на то, что компания Anthropic открыто выразила протест против применения своей системы без предварительного согласования, данная технология продолжает функционировать в Иране, что свидетельствует о проблемах с соблюдением договоренностей и контроля. По словам Ромашкиной, даже если конфликт между Пентагоном и Anthropic будет урегулирован, США, вероятно, не откажутся от использования этой системы в будущих военных операциях, учитывая стратегическую важность таких технологий. Это подчеркивает необходимость выработки более четких международных норм и механизмов контроля за применением ИИ в оборонной сфере, чтобы избежать злоупотреблений и непредвиденных последствий. В конечном итоге, ситуация вокруг использования ИИ в военных целях демонстрирует, насколько сложным и многогранным является вопрос баланса между технологическим прогрессом и этическими ограничениями.Источник и фото - ria.ru







