
Стільки часу, як існує ШІ, люди боялися ШІ та ядерної зброї. І фільми є чудовим прикладом цих страхів. Скайнет з франшизи «Термінатор» стає розумним і запускає ядерні ракети по Америці. WOPR від WarGames мало не розпочав ядерну війну через непорозуміння. Нещодавній реліз Кетрін Бігелоу «Дім динаміту» запитує, чи причетний ШІ до ракетно-ядерного удару, спрямованого на Чикаго.
Штучний інтелект вже присутній у нашому ядерному підприємстві, розповідає співведучий програми «Today, Explained» Ноель Кінг Джош Кітінг з Vox. «Комп’ютери були частиною цього з самого початку», – каже він. «Деякі з перших цифрових комп’ютерів, коли-небудь розроблених, використовувалися під час створення атомної бомби в рамках Манхеттенського проекту». Але ми точно не знаємо, де і як він задіяний.
Тож чи варто нам хвилюватися? Можливо, стверджує Кітінг. Але не про те, що штучний інтелект звернеться проти нас.
Нижче наведено уривок їхньої розмови, відредагований для довжини та ясності. У повному епізоді набагато більше, тож слухайте Today, Explained всюди, де ви отримуєте подкасти, зокрема на Apple Podcasts, Pandora та Spotify.
У фільмі «Дім динаміту» є епізод , де вони намагаються з'ясувати, що сталося і чи причетний до цього штучний інтелект. Чи мають ці фільми з цими страхами щось спільне з цими страхами?
Цікаво, що фільми про ядерну війну ніколи не воювали. Немає ветеранів ядерних війн, окрім двох бомб, які ми скинули на Японію, що є зовсім іншим сценарієм. Я думаю, що фільми завжди відігравали свою надзвичайно важливу роль у дебатах щодо ядерної зброї. Можна повернутися до 60-х років, коли Стратегічне повітряне командування фактично створило власну відповідь на «Доктора Стрейнджлава» та «Захист від небезпеки». У 80-х роках телевізійний фільм «Наступний день» став своєрідною об'єднуючою силою для руху за заморожування ядерної зброї. Президент [Рональд] Рейган, очевидно, був дуже стурбований, коли дивився його, і це вплинуло на його думки щодо контролю над озброєннями з Радянським Союзом.
Щодо конкретної теми, яку я розглядаю, а саме штучного інтелекту та ядерної зброї, з'явилася дивовижна кількість фільмів, сюжет яких ґрунтується на цьому. І це питання часто згадується в політичних дебатах з цього приводу. Люди, які виступають за інтеграцію штучного інтелекту в систему ядерного командування, кажуть: «Дивіться, це не буде «Скайнет»». Генерал Ентоні Коттон, нинішній командувач Стратегічного командування — роду військ, відповідального за ядерну зброю, — виступає за ширше використання інструментів штучного інтелекту. Він посилався на фільм 1983 року «Військові ігри», кажучи: «У нас буде більше штучного інтелекту, але в стратегічному командуванні не буде WOPR».
На мою думку, [фільми] трохи недопрацьовують, бо бояться, що надрозумний штучний інтелект захопить нашу ядерну зброю та використає її, щоб знищити нас. Поки що це теоретичне занепокоєння. На мою думку, реальніше занепокоєння полягає в тому, що, оскільки штучний інтелект потрапляє в дедалі більше частин системи командування та управління, чи справді люди, відповідальні за рішення щодо створення ядерної зброї, розуміють, як працює штучний інтелект? І як це вплине на те, як вони приймають ці рішення, які можуть бути — без перебільшення сказати — одними з найважливіших рішень, коли-небудь прийнятих в історії людства.
Пов'язані
- Світ може закінчитися багатьма способами. Не забувайте про ядерний Армагеддон.
Чи розуміють люди, які працюють над ядерною зброєю, штучний інтелект?
Ми точно не знаємо, яке місце займає ШІ в ядерній галузі. Але люди будуть здивовані, дізнавшись, наскільки низькотехнологічною була насправді система ядерного командування та управління. До 2019 року для своїх комунікаційних систем використовувалися дискети. Я навіть не говорю про маленькі пластикові диски, схожі на значок збереження у Windows. Я маю на увазі старі гнучкі диски 80-х. Вони хочуть, щоб ці системи були захищені від зовнішнього кібервтручання, тому не хочуть, щоб усе було підключено до хмари.
Але оскільки триває цей багатомільярдний процес модернізації ядерної зброї, значна його частина полягає в оновленні цих систем. І кілька командирів стратегічних комунікацій, включаючи кількох, з якими я розмовляв, сказали, що, на їхню думку, ШІ має бути частиною цього. Всі вони кажуть, що ШІ не повинен відповідати за прийняття рішення про те, чи запускати ядерну зброю. Вони вважають, що ШІ може просто аналізувати величезні обсяги інформації та робити це набагато швидше, ніж люди. І якщо ви бачили фільм «Дім динаміту», то в цьому фільмі дуже добре показано, як швидко президенту та старшим радникам доведеться приймати абсолютно надзвичайні, складні рішення.
Які вагомі аргументи проти спільного використання штучного інтелекту та ядерної зброї?
Навіть найкращі моделі штучного інтелекту, які ми маємо сьогодні, все ще схильні до помилок. Ще одне занепокоєння полягає в тому, що може бути зовнішнє втручання в ці системи. Це може бути злом або кібератака, або іноземні уряди можуть винайти способи внесення неточної інформації в модель. Повідомляється, що російські пропагандистські мережі активно намагаються внести дезінформацію в навчальні дані, що використовуються західними чат-ботами на основі штучного інтелекту. А ще одне питання стосується того, як люди взаємодіють з цими системами. Існує явище, на яке вказують багато дослідників, яке називається упередженням автоматизації, тобто люди схильні довіряти інформації, яку їм надають комп'ютерні системи.
Історія має безліч прикладів, коли технології фактично призводили до майже ядерних катастроф, і саме люди втручалися, щоб запобігти ескалації. Був випадок у 1979 році, коли Збігнєв Бжезинський, радник США з національної безпеки, був розбуджений посеред ночі телефонним дзвінком, який повідомив йому, що сотні ракет щойно були запущені з радянських підводних човнів біля узбережжя Орегону. І якраз перед тим, як він збирався зателефонувати президенту Джиммі Картеру, щоб повідомити йому про напад на Америку, пролунав ще один дзвінок про те, що [перший] був хибною тривогою. Кілька років по тому в Радянському Союзі стався дуже відомий випадок. Полковник Станіслав Петров, який працював в їхній інфраструктурі виявлення ракет, отримав інформацію від комп'ютерної системи про те, що відбувся запуск ядерної зброї США. Згідно з протоколами, він мав повідомити своє начальство, яке, можливо, наказало б негайно вжити заходів у відповідь. Але виявилося, що система неправильно інтерпретувала сонячне світло, що відбивалося від хмар, як запуск ракети. Тож дуже добре, що Петров вирішив почекати кілька хвилин, перш ніж зателефонувати своєму начальству.
Я слухаю ці приклади, і якщо подумати спрощено, то, можливо, я зроблю висновок, що люди відштовхують нас від краю пропасті, коли технології дають збій.
Це правда. І я думаю, що нещодавно було проведено кілька справді цікавих тестів моделей штучного інтелекту, враховуючи певні сценарії військової кризи, і вони насправді схильні бути більш войовничими, ніж люди, які приймають рішення. Ми не знаємо точно, чому це так. Якщо ми подивимося на те, чому ми не воювали в ядерній війні — чому через 80 років після Хіросіми ніхто не скинув жодної атомної бомби, чому ніколи не було обміну ядерними обстрілами на полі бою — я думаю, що частково це пов'язано з тим, наскільки це жахливо. Те, як люди розуміють руйнівний потенціал цієї зброї та до чого може призвести ця ескалація. Що є певні кроки, які можуть мати непередбачувані наслідки, і страх є великою частиною цього.
З моєї точки зору, ми хочемо переконатися, що в систему вбудований страх. Щоб суб'єкти, які здатні бути абсолютно наляканими руйнівним потенціалом ядерної зброї, були тими, хто приймає ключові рішення щодо її використання.
Це справді звучить так, ніби дивлячись фільм «Дім динаміту» , можна яскраво подумати, що, можливо, нам варто повністю виключити з цього ШІ. Звучить так, ніби ви маєте на увазі: ШІ є частиною ядерної інфраструктури для нас, для інших країн, і, ймовірно, так воно і залишиться.
Один прихильник більшої автоматизації сказав мені: «Якщо ви вважаєте, що люди не можуть створити надійний штучний інтелект, то людям не варто мати справу з ядерною зброєю». Але справа в тому, що, на мою думку, з цим твердженням також погодилися б люди, які вважають, що нам слід повністю ліквідувати всю ядерну зброю.
Можливо, я й хвилювався, що штучний інтелект захопить ядерну зброю, але зараз я усвідомив, що мене досить хвилює те, що люди робитимуть з ядерною зброєю. Річ не в тому, що штучний інтелект вбиватиме людей ядерною зброєю. Річ у тім, що штучний інтелект може зробити людей більш схильними до вбивства один одного ядерною зброєю. Певною мірою, штучний інтелект — це найменша з наших турбот. Я думаю, що фільм добре показує, наскільки абсурдним є сценарій, за якого нам доводиться вирішувати, використовувати її чи ні.



