Як захиститися від нових варіантів програм-вимагачів, створених за допомогою технології штучного інтелекту:

ШІ та програми-вимагачі

Штучний інтелект (ШІ) — це потужний інструмент, який можуть використовувати зловмисники, щоб зробити програми-вимагачі ще небезпечнішими, ніж вони є.

Останніми роками атаки програм-вимагачів стають все більш витонченими та зловмисними. Оскільки компанії продовжують інвестувати в новітні технології для захисту своїх даних, кіберзлочинці також розвивають свою тактику, використовуючи штучний інтелект на передньому краї цієї трансформації.

Програмне забезпечення-вимагач існує вже деякий час, але його ефективність значно зросла, оскільки зловмисники використовують технологію штучного інтелекту, щоб ідентифікувати вразливі системи та запускати проти них цілеспрямовані атаки. Використовуючи розширені алгоритми, зловмисники можуть швидко сканувати мережі на наявність слабких місць, якими можна скористатися, а потім відповідним чином адаптувати їх корисне навантаження, що значно ускладнює виявлення або запобігання традиційним засобам безпеки, таким як брандмауери чи антивірусне програмне забезпечення, до того, як буде завдано шкоди. .

Що ще гірше, ці нові варіанти програм-вимагачів часто розроблені з вбудованими методами уникнення, тому вони можуть залишатися непоміченими, доки не завдадуть непоправної шкоди; жертви не мають іншого вибору, окрім як платити, сподіваючись відновити втрачені дані або знову отримати доступ до своїх систем, не зазнаючи значних фінансових втрат лише через витрати на простої. Це ще більше ускладнює захист від цих загроз, оскільки навіть традиційні методи, такі як резервне копіювання, можуть не завжди працювати, оскільки вони шифруються разом з іншими файлами під час атаки.

Програмне забезпечення-вимагач використовує машинне навчання (ML)

Дослідники виявили, що суб’єкти кіберзагроз можуть використовувати моделі машинного навчання Machine Learning (ML), які забезпечують штучний інтелект (AI) для розгортання зловмисного програмного забезпечення та переміщення в мережах підприємства. Технологія ML все більше стає основною технологією, яку використовують підприємства. Однак, на жаль, через складність реалізації цих моделей і обмежені ІТ-ресурси більшості компаній організації часто використовують репозиторії з відкритим кодом для обміну моделями машинного навчання, і в цьому полягає проблема, на думку дослідників.

У таких архівах часто відсутні комплексні засоби контролю безпеки, що покладає ризик на кінцевого користувача.

Безпілотні автомобілі, системи розпізнавання облич, роботи, системи наведення ракет, медичне обладнання, цифрові помічники, чат-боти та онлайн-системи рекомендацій покладаються на ML для роботи.

За словами Марти Янус, головного дослідника ML Adversarial у HiddenLayer, будь-хто, хто використовує попередньо підготовлені моделі машинного навчання, отримані з ненадійних джерел або публічних бібліотек програмного забезпечення, є потенційно вразливим.

Розсудливість свідчить про те, що такі моделі слід сканувати на наявність шкідливого коду (хоча наразі небагато продуктів пропонують цю функцію) і ретельно оцінювати їх у безпечному середовищі перед запуском на фізичній машині чи запуском у виробництво.

Крім того, будь-хто, хто створює моделі машинного навчання, повинен використовувати безпечні формати зберігання, наприклад ті, які не дозволяють виконання коду, і криптографічно підписувати всі свої моделі, щоб їх неможливо було підробити без порушення підпису.

Криптографічний підпис мав би функцію гарантування цілісності моделей так само, як і програмне забезпечення.

Як програми-вимагачі можуть використовувати штучний інтелект

Якщо кіберзлочинці точно знають, що шукає програмне забезпечення безпеки ШІ, вони можуть уникнути виявлення. Крім того, щоб уникнути виявлення, хакери можуть створювати зловмисне програмне забезпечення зі штучним інтелектом і програму-вимагач із високим ступенем ухилення від ситуацій, які можуть аналізувати захисні механізми цільової системи та швидко навчатися імітувати звичайні комунікації системи. Наприклад, зловмисне програмне забезпечення можна запрограмувати на запуск, коли власник пристрою використовує камеру, щоб обійти перевірку розпізнавання обличчя.

Кіберзлочинці та зловмисники також можуть використовувати штучний інтелект іншими способами замість того, щоб вбудовувати його у своє шкідливе програмне забезпечення. Вони могли б використовувати машинне навчання ML для вирішення CAPTCHA та обійти цей тип автентифікації. Вони можуть використовувати штучний інтелект, щоб сканувати соціальні мережі в пошуках потрібних людей, на яких можна націлити кампанії. phпромивання (Тип фішингу, спрямованого проти організації та/або відповідних людей в організації).

Штучний інтелект може покращити результати фішингу, виконуючи розвідувальні операції, такі як аналіз сотень тисяч профілів у соціальних мережах, щоб виявити релевантні високопоставлені цілі. Вони також можуть створювати спам, який є більш переконливим і краще підходить для потенційної жертви. Потім він може ініціювати персоналізовану взаємодію, подібну до людини, щоб обманом змусити жертв надати зловмисникам бекдор. Фішинг часто важко виявити сам по собі.

IBM розробила DeepLocker з технологією AI

IBM розробила інструмент атаки зловмисного програмного забезпечення DeepLocker спеціально для того, щоб продемонструвати, як існуючі технології штучного інтелекту можуть бути використані на користь атак зловмисного програмного забезпечення. DeepLocker досягає своєї мети завдяки використанню штучного інтелекту. Інструмент маскується під програмне забезпечення для відеоконференцій і залишається непоміченим, доки передбачувана жертва не буде ідентифікована за допомогою розпізнавання обличчя та голосу та інших атрибутів. У цей момент він починає атаку. Гіпотеза IBM полягає в тому, що кіберзлочинці можуть використовувати аналогічний інтелект у своїх шкідливих програмах для зараження систем, не будучи виявленими.

Загалом дослідники стверджують, що застосування системи безпеки, яка включає розуміння ризиків, усунення «сліпих зон» і визначення областей для вдосконалення в усіх моделях машинного навчання, які застосовуються на підприємстві, може допомогти пом’якшити атаку з цих векторів.

По-друге, наявність надійного рішення для резервного копіювання допоможе гарантувати, що ваша важлива інформація залишиться в безпеці, якщо щось прослизне через мережу,

Підсумовуючи, незважаючи на те, що штучний інтелект, безумовно, створює унікальні виклики з точки зору запобігання згубним кібератакам, застосування проактивного підходу, залишаючись в курсі останніх галузевих подій, зрештою виявиться неоціненним для мінімізації ризиків, пов’язаних із сучасними цифровими загрозами.

помилка: Вміст захищено !!