Меню
Закрыть

Китайские военные в панике: человекоподобные роботы выходят из-под контроля, грозя "слепыми убийствами" — спасут ли людей законы Азимова

Эксперты НОАК требуют срочно переписать законы робототехники, пока технологии не опередили мораль

Фото: freepik.com
Фото: freepik.com

Будущее войны все меньше напоминает перестрелку и все больше — соревнование инженерных гениев. Сегодня ставки делаются на человекоподобных роботов, способных заменить солдата на поле боя.

Однако за стремительным технологическим прорывом скрывается серьезная проблема, которую вскрыла официальная газета китайской армии Daily of the People's Liberation Army (НОАК). Статья от 10 июля, на которую также ссылается South China Morning Post, цитирует военных экспертов КНР.

Их посыл однозначен: срочно нужно исследовать правовые и этические последствия использования таких машин, иначе мир столкнется с феноменом «слепых убийств» и случайных жертв.

Технологический скачок с двойным дном

Современные боевые гуманоиды — это не просто роботы. Это квинтэссенция достижений в области ИИ, автономных систем и передовой механики. Они умеют имитировать человеческую пластику, манипулировать предметами с хирургической точностью и адаптироваться к хаосу реального боя.

Теоретически такие машины решают главную задачу любой армии: они берут на себя самую опасную работу, сокращая потери среди личного состава. Скорость реакции и отсутствие страха делают их идеальными тактическими единицами.

Но именно здесь, как подчеркивают авторы материала — Юань И, Ма Е и Юэ Шигуан, — и кроется главная опасность.

В отличие от дронов, висящих в небе, человекоподобный робот действует на земле. Он принимает решения о применении силы в непосредственной близости от людей. Ошибка алгоритма в такой ситуации — это не просто сбой, а гарантированная трагедия. Риск «слепого убийства», по мнению аналитиков, слишком высок, чтобы игнорировать его.

Вес «Трех законов» в реальном мире

Возвращаясь к наследию Айзека Азимова, эксперты напоминают о его знаменитых трех законах робототехники. Первый и главный гласит: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Однако военные гуманоиды по определению созданы для нарушения этого принципа. Их суть противоречит классической этике.

Исходя из этого, авторы статьи призывают к радикальному пересмотру правил. Нельзя пускать эволюцию автономных убийц на самотек. Необходима жесткая правовая база, которая пропишет:

неукоснительное уважение к человеческой жизни;

алгоритмы ограничения применения силы;

автоматическое блокирование незаконных или избыточных действий.

Речь идет о том, чтобы не попасть в моральную ловушку, где ответственность за смерть будет размыта между программистом, командиром и нейросетью.

Дорогое дополнение, а не замена

Несмотря на футуристичность, гуманоидные машины вряд ли полностью вытеснят другие виды вооружений. И дело не только в этике.

Статья указывает на прозаические, но важные ограничения:

Цена. Такие роботы стоят значительно дороже традиционных беспилотников.

Сложность. Их обслуживание требует принципиально иной инфраструктуры.

Технические вызовы. Мобильность, ситуационное распознавание и автономное принятие решений все еще остаются узкими местами.

Скорее всего, человекоподобные роботы станут элитным дополнением к существующим арсеналам, но не дешевой альтернативой дронам-камикадзе или боевым модулям.

Гонка лидерства и глобальная напряженность

Это предупреждение прозвучало не случайно. Китай сегодня активно наращивает мускулы в сфере военной робототехники и ИИ. Крупные корпорации КНР уже продемонстрировали прототипы универсальных гуманоидов, что является частью стратегии по доминированию в ключевых технологиях будущего.

Конкуренция с США в этой области вынуждает Пекин инвестировать колоссальные средства не только в «железо», но и в так называемый воплощенный интеллект — способность машины чувствовать среду и действовать в ней самостоятельно. Это гонка, где ставки невероятно высоки.

Вопрос, который требует ответа уже сегодня

Китайская позиция фактически вливается в мировой дискурс, который волнует военных, инженеров и правозащитников по всей планете.

Можно ли остановить гонку вооружений, если оружие учится думать? Кто возьмет на себя ответственность за ошибку автономного робота-убийцы: генерал, разработчик или никто?

Ситуация, озвученная официальной газетой НОАК, иллюстрирует классический парадокс современности: технологическая мощь развивается быстрее, чем наша способность создать для нее этический щит.

Военные человекоподобные роботы — это одновременно и вершина инженерной мысли, и вызов человечности. Будущее войны требует не только новых танков и ракет, но и глубинной рефлексии.

Иначе есть риск, что, создав идеального солдата, человечество потеряет контроль над самим принципом сохранения жизни.

Фото: freepik.com