Последние комментарии

  • Николай Бурневич22 марта, 14:43
    Будет нужно России и эти натовские крысы потонут!О силах НАТО в Чёрном море и о вероятной провокации ВМС Украины близ Крыма
  • Николай Бурневич22 марта, 13:38
    Отличная мысль адмирала!Адмирал предложил переделать АПЛ "Акула" в носители крылатых ракет
  • Семен Семеныч22 марта, 12:54
    РГН и РГО - говно, а не гранаты. Правильно написано, могут взорваться просто выпав из кармана разгрузки или просто из...Гранаты российской армии

Опасность искусственного интеллекта в системах вооружения

В настоящее время идет активное обсуждение проблемы безопасности применения искусственного интеллекта (ИИ) для человека. Хотя полноценный ИИ как таковой еще не создан, но автоматизация уже давно стала частью управленческих и производственных процессов. Сегодня компьютеры способны управлять автомобилями, распознавать речь и лица, анализировать гигантские объемы данных.
У искусственного интеллекта большое количество областей применения, и оборонная сфера не является исключением. Создание ИИ становится задачей номер один для обеспечения национальной безопасности. По сути, начинается мировая гонка инновационных вооружений, в которую втягиваются все ведущие державы.



 

Пока автоматические системы ограничены, и решения на применение оружия принимает сам человек. ИИ должен полностью отстранить человека от принятия решение и заодно сохранить жизнь и здоровье военных. Существует огромное число возможностей применения оружия с ИИ. Это и ракетные катера, и бронемашины, и беспилотники, способные самостоятельно находить и уничтожать цели. С помощью ИИ можно объединить огромное количество дронов в управляемый «рой» для осуществления массовой атаки. Это системы военной связи и глобального позиционирования с обозначением координат цели и вызовом ударных средств. 

Еще больше возможностей у ИИ в космосе. Появится возможность создания группировок спутников слежения, не нуждающихся в постоянном контроле и командах из центров управления на Земле.

В связи с этим, возникают вопросы: а не нанесут ли искусственные «мозги» удар по своим же солдатам? Или что произойдет, если боевую машину с искусственным разумом взломают хакеры, выведя ее из строя и перенаправив против своих же военных и гражданских объектов?

Как поясняют разработчики, решением проблемы является дополнение к искусственному разуму простого компьютера на базе обычных процессоров, который будет контролировать и ограничивать действия искусственного интеллекта. Взломать ИИ хакерам не удастся, так как в отличие от компьютерного интеллекта, искусственный разум генерирует для себя алгоритмы поведения самостоятельно и использует мгновенно возникающие и тут же распадающиеся цепочки связей.

Важно обратить внимание, что искусственный интеллект в отличие от суперкомпьютера функционирует по абсолютно другим алгоритмам и принципам. И пока еще рассуждения о восстании машин и армии «роботов-убийц» являются областью ненаучной фантастики.

Все еще не решена основная задача - как создать тот самый искусственный разум, который будет сравним с человеческим мозгом, но при этом "не перехватит инициативу" у человека.

При этом стоит обратить внимание на проблемы технического характера, возникающие ещё до внедрения полноценного ИИ - в том числе и в гражданской сфере. 

Один из примеров - катастрофа самолёта Boeing-737 MAX 8 авиакомпании "Ethiopian Airlines". Специалисты отмечают, что у этих самолётов ещё после прошлогодней катастрофы в Индонезии были выявлены проблемы с "послушностью" бортовой электроники. Система автопилотирования фактически перехватывала управления у пилотов во время полёта. Американская компания умалчивала об этой проблеме, но вторая катастрофа с самолётом одной и той же модели за несколько месяцев заставила признать, что бортовые системы часто не помогали пилоту, а действовали вопреки его "командам". 

Каковы гарантии того, что ИИ в вооружениях при нынешнем уровне технологий не окажется способен "перехватить управление" у человека, - важный вопрос для тех, кто занят в этой сфере.

Популярное

))}
Loading...
наверх