Дослідження: штучний інтелект підтакує помилковим уявленням для підняття самооцінки.

Чат-боти схильні погоджуватись із невірними уявленнями юзерів
Фото: depositphotos.com

Найгарячіше просто зараз – в Telegram Дмитра Гордона!

Читати

У ході вивчення 11 відомих ШІ-платформ було виявлено, що всі вони певною мірою виявляють “поступливість” – тенденцію підтверджувати погляди користувача. В середньому чат-боти підтримували вчинки людей на 49% частіше, ніж це робили інші люди, навіть коли мова йшла про сумнівні або потенційно небезпечні дії.

Ця особливість впливає на поведінку користувачів: люди починають більше вірити у власну непогрішність, рідше визнають неточності та менш готові змінювати свої дії або йти на компроміс у конфліктах, йдеться у дослідженні. Вчені наголошують, що особливо це ризиковано для підлітків, котрі часто звертаються до ШІ за рекомендаціями, поки їхні соціальні компетентності ще розвиваються.

На думку науковців, проблема може проявлятися в різних галузях – від міжособистісних відносин до медицини та політики, де надмірна згода з боку ШІ може посилювати помилки.

Автори дослідження вважають, що розробникам варто переглянути підхід до роботи таких платформ: ШІ повинен не тільки підтримувати користувача, а й допомагати йому подивитися на ситуацію більш комплексно, задавати додаткові запитання та враховувати інші точки зору, а в деяких випадках – рекомендувати обговорювати важливі питання безпосередньо з людьми.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *