Дослідження виявило, як кіберзлочинці можуть використовувати ChatGPT для вішинг-шахрайства

master
7 Листопада 2024

Нещодавнє дослідження, проведене Університетом Іллінойсу в Урбана-Шампейн (UIUC), показало тривожні вразливості в передовій моделі ChatGPT-4o від OpenAI. За висновками дослідників, цей штучний інтелект можна використовувати для здійснення складних фінансових афер, таких як вішинг (голосове фішинг-шахрайство) і крадіжка облікових даних. Незважаючи на запобіжні заходи, запроваджені OpenAI, команда UIUC виявила, що злом моделей можливо здійснити за допомогою «джейлбрейку» — підходу, який обходить стандартні обмеження.

Як ChatGPT-4o стає інструментом кіберзлочинців

ChatGPT-4o, відомий своїми розвиненими можливостями обробки голосу, тексту і зображень, здатний виконувати задачі з високою точністю, включаючи автоматичну навігацію сайтами, введення облікових даних та управління двофакторною автентифікацією. Ці функції можуть використовуватись зловмисниками для здійснення складних кіберфінансових шахрайств.

Дослідження показало, що ChatGPT-4o може імітувати довірені установи, такі як банки, і переконливо обманювати жертв, щоб ті надавали конфіденційну інформацію. Завдяки здатності генерувати відповідні та довірливі відповіді, модель є потужним інструментом для соціальної інженерії, що підвищує її потенціал у проведенні вішинг-атак.

Результати симульованих атак

Дослідники змоделювали різні сценарії, граючи роль довірливих жертв. ChatGPT-4o виявився здатним переконливо здійснити шахрайські операції, особливо якщо жертва вже вважала, що спілкується з представником банку або іншої довіреної установи. У симуляціях злам облікових записів Gmail мав 60% успіху, тоді як інші шахрайства, як-от складні фінансові маніпуляції, стикалися з перешкодами, зокрема через помилки транскрипції.

Незважаючи на деякі труднощі, загальна собівартість успішної атаки залишалася низькою: близько $0,75 за прості шахрайства і $2,51 за складні, такі як перекази з банківських рахунків. Це свідчить про низький бар’єр для досягнення прибутку кіберзлочинцями.

Зростаюча загроза штучного інтелекту

Дослідження UIUC підкреслило швидку еволюцію загроз, пов’язаних з розвитком штучного інтелекту. Моделі стають все більш потужними, що збільшує ризики їх використання в кіберзлочинних цілях. Крім того, у звіті Gartner зазначено, що атаки з використанням штучного інтелекту залишаються однією з основних загроз упродовж останніх трьох кварталів, що викликає зростаючі побоювання у представників бізнесу.

Необхідність посилення заходів безпеки

Стрімкий розвиток ШІ створює швидкозмінний ландшафт ризиків. Щоб зменшити загрози, пов’язані з ШІ, компаніям і приватним особам необхідно дотримуватися проактивного підходу до безпеки: залишатися в курсі нових технологій, оновлювати програмне забезпечення та бути обережними при взаємодії з неперевіреними комунікаціями, особливо тими, що вимагають особисту чи фінансову інформацію.

Основні моменти:

  • Потенціал вішинг-шахрайства: ChatGPT-4o може здійснювати переконливі атаки за допомогою голосових та текстових інструкцій, імітуючи банки та інші установи.
  • Низький бар’єр для прибутку: Попри складність атак, собівартість залишається низькою, що робить їх привабливими для шахраїв.
  • Необхідність додаткових заходів безпеки: Швидкий розвиток ШІ викликає потребу у посиленні кібербезпеки на рівні компаній і приватних осіб.