Ізраїль почав використовувати штучний інтелект для планування авіаударів

Фото ілюстративне: з відкритих джерел

Армія оборони Ізраїлю застосовує систему штучного інтелекту для швидшого вибору цілей при ударах із повітря. Військові ЦАХАЛу запевняють, що результати роботи ШІ контролюють люди-оператори й саме вони, а не машина, утверджують кожну окрему ціль для атаки.

Джерело: Bloomberg

Ізраїль почав використовувати штучний інтелект для планування авіаударів

У статті сказано, що системи штучного інтелекту Ізраїль впроваджує у свої військові операції “непомітно”.

Офіційні особи кажуть, що ШІ обробляє величезний масив даних, після чого генерує рекомендації щодо цілей для повітряних атак.

Інша модель ШІ під назвою Fire Factory використовує дані про цілі, схвалені військовими, для вирішення логістичних проблем. Fire Factory займається розрахунком навантаження боєприпасів, визначенням пріоритетів і навіть пропонує графік дій.

Остаточні рішення і в першій, і в другій ШІ системі ухвалюють люди.

Журналісти зазначили, що подробиці використання штучного інтелекту армією залишаються значною мірою засекреченими, проте заяви ізраїльських військових чиновників свідчать, що ЦАХАЛ уже застосовував ці системи в бойових умовах.

Те, що раніше займало години, тепер займає хвилини, з ще кількома хвилинами для перевірки людиною”, – сказав під час виступу у штаб-квартирі ЦАХАЛу в Тель-Авіві полковник Урі, який очолює армійський підрозділ цифрової трансформації. “З такою ж кількістю людей ми робимо набагато більше, – зазначив він.

В агентстві вказали , що в подібного застосування ШІ є як прихильники, так і критики. Прихильники впевнені, що передові алгоритми можуть перевершити людські можливості й можуть допомогти військовим мінімізувати втрати, в тому числі серед цивільних.

Критики побоюються, що швидке використання штучного інтелекту випереджає дослідження його внутрішньої роботи. Іноді навіть експертам важко зрозуміти, як саме алгоритм ШІ дійшов свого висновку.

Якщо в розрахунках ШІ є помилка і якщо ШІ незрозумілим, то кого ми звинувачуватимемо в цій помилці? – запитав Таль Мімран, викладач міжнародного права в Єврейському університеті в Єрусалимі та колишній юрисконсульт армії.

Крім того, противники не виключають, що розробка напівавтономних систем може призвести до того, що хтось розробить повністю автоматизовану машину для вбивств, де люди взагалі будуть відсторонені від ухвалення рішень.

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *