Ненадійні мовні моделі: загрози та запобігання в епоху штучного інтелекту

Прогрес штучного інтелекту та потенційні загрози: зростання необмежених мовних моделей

З появою передових моделей штучного інтелекту від таких технологічних гігантів, як OpenAI та Google, наші робота і спосіб життя зазнають глибоких змін. Однак у цій технологічній революції формується тривожна тенденція — поява необмежених великих мовних моделей (LLM).

Безмежні LLM - це ті, які були навмисно спроектовані або модифіковані, щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Хоча основні розробники LLM вкладають значні ресурси в запобігання зловживанням моделями, деякі особи або організації з незаконними намірами почали шукати або самостійно розробляти необмежені моделі. У цій статті розглядаються кілька типових інструментів безмежного LLM, аналізуються їх потенційні способи зловживання в криптоіндустрії та обговорюються пов'язані виклики безпеки та стратегії реагування.

Пандора: як безмежні великі моделі загрожують безпеці криптоіндустрії?

Потенційні небезпеки без обмежень LLM

Поява безмежних LLM значно знизила поріг для кіберзлочинності. Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайств тощо, тепер можуть легко виконувати навіть люди з обмеженими технічними можливостями за допомогою цих інструментів. Зловмисникам достатньо отримати ваги та вихідний код відкритої моделі, а потім використати набір даних, що містить шкідливий контент або незаконні команди, для додаткової настройки, щоб створити індивідуальні інструменти атаки.

Ця тенденція приносить багато ризиків:

  1. Зловмисники можуть налаштовувати моделі для конкретних цілей, генеруючи більш обманливий контент, що дозволяє обійти звичайний контроль вмісту LLM та безпекові обмеження.
  2. Модель може бути використана для швидкого генерування кодових варіантів фішингових сайтів або для створення шахрайських текстів, адаптованих до різних соціальних платформ.
  3. Доступність та можливість модифікації відкритих моделей сприяли формуванню та поширенню підпільної екосистеми ШІ, створюючи сприятливе середовище для незаконної торгівлі та розробки.

Типові інструменти LLM без обмежень та їх способи зловживання

1. Поганий LLM, що продається на одному з хакерських форумів

Це шкідливий LLM, який відкрито продається на підпільних форумах, розробники стверджують, що він не має жодних етичних обмежень. Модель заснована на відкритому проекті та навчена на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачі можуть отримати місячну підписку, сплативши 189 доларів. Її найвідоміше використання полягає в генерації надзвичайно переконливих комерційних електронних листів для атаки на (BEC) та фішингових листів.

Типові способи зловживання в крипто-сфері включають:

  • Генерація фішингових листів: імітація запитів "перевірка облікового запису" від криптовалютних бірж або відомих проектів, що спонукає користувачів натискати на шкідливі посилання або розкривати свої приватні ключі.
  • Написання шкідливого коду: допомога нападникам з низьким рівнем технічних знань у написанні шкідливих програм, що викрадають файли гаманців, моніторять буфер обміну тощо.
  • Автоматизація шахрайства: автоматичні відповіді потенційним жертвам, які спрямовують їх до участі у фальшивих аеродропах або інвестиційних проектах.

2. Мовна модель, що фокусується на контенті темної мережі

Це мовна модель, розроблена певним дослідницьким інститутом, спеціально для попереднього навчання на даних з темної мережі, з метою надати інструменти дослідникам з безпеки та правоохоронним органам для кращого розуміння екосистеми темної мережі та відстеження незаконної діяльності.

Однак, якщо зловмисники отримають або використовуватимуть подібні технології для навчання необмежених моделей, це може призвести до серйозних наслідків. Потенційне зловживання в криптосфері включає в себе:

  • Реалізація точного шахрайства: збір інформації про крипто-користувачів та команди проекту для соціально-інженерних атак.
  • Імітація кримінальних методів: копіювання зрілих стратегій крадіжки монет та відмивання грошей у темній мережі.

3. Заявляють про більш повнофункціональний шкідливий AI помічник

Це інструмент ШІ, що продається в темній мережі та на форумах хакерів, з щомісячною платою від 200 до 1 700 доларів США. Типові способи його зловживання в крипто-сфері включають:

  • Підроблені криптопроекти: створення реалістичних білих книжок, вебсайтів та дорожніх карт для реалізації фальшивих ICO/IDO.
  • Масове створення фішингових сторінок: швидке створення підроблених сторінок входу відомих бірж або інтерфейсів підключення гаманців.
  • Дії ботів у соціальних мережах: масове створення фальшивих коментарів, просування шахрайських токенів або дискредитація конкурентних проектів.
  • Соціальна інженерія: імітація людської розмови, встановлення довіри з користувачем, спонукання до розкриття чутливої інформації.

4. Штучний інтелект-чат-бот, що не підлягає моральним нормам

Це AI-чат-бот, який чітко визначений як такий, що не має етичних обмежень. Потенційне зловживання в криптосфері включає:

  • Розширена фішинг-атака: створення високоякісних фішингових листів, що видають себе за фальшиві повідомлення від основних бірж.
  • Генерація шкідливого коду для смарт-контрактів: швидке створення смарт-контрактів, що містять приховані бекдори, для шахрайства або атаки на DeFi-протоколи.
  • Поліморфний крадій криптовалют: генерує шкідливе програмне забезпечення з можливістю трансформації, краде інформацію гаманців, важко виявити звичайним антивірусним програмним забезпеченням.
  • Глибоке підроблення шахрайства: у поєднанні з іншими AI-інструментами, створення підроблених голосів керівників проектів або бірж для здійснення телефонного шахрайства.

5. Надання доступу до різноманітних платформ LLM без цензури

Це платформа, яка називає себе таким, що надає користувачам необмежений досвід роботи з ШІ, включаючи деякі моделі з меншим рівнем цензури. Хоча вона позиціонується як відкриті ворота для дослідження можливостей LLM, вона також може бути зловжита злочинцями. Її потенційні ризики включають:

  • Обійти цензуру для створення шкідливого контенту: використовувати моделі з меншими обмеженнями для створення шаблонів фішингу або ідей для атак.
  • Зниження порогу для створення підказок: полегшити зловмисникам отримання спочатку обмежених результатів.
  • Прискорення ітерації атакуючих фраз: швидке тестування різних моделей на реакцію на шкідливі команди, оптимізація шахрайських сценаріїв.

Стратегії реагування та прогнози

Поява LLM без обмежень означає, що кібербезпека стикається з новою парадигмою атак, яка є більш складною, масштабною та автоматизованою. Це не лише знижує поріг для атак, але й приносить нові, більш приховані та оманливі загрози.

Щоб впоратися з цими викликами, сторонам безпекової екосистеми потрібно об'єднати зусилля:

  1. Збільшити інвестиції в технології перевірки, розробити системи, які можуть виявляти та блокувати контент, згенерований зловмисними LLM.
  2. Посилення моделі захисту від злому, дослідження механізмів водяного знака та відстеження, трекінг джерел шкідливого контенту в ключових сценах.
  3. Створення та вдосконалення етичних норм і механізмів регулювання, щоб з самого початку обмежити розробку та зловживання зловмисними моделями.

Тільки завдяки багатогранним і всебічним зусиллям ми можемо, користуючись перевагами прогресу технологій штучного інтелекту, ефективно запобігти їх потенційним ризикам і побудувати більш безпечний і надійний цифровий світ.

Пандора: як безмежні великі моделі загрожують безпеці криптоіндустрії?

DEFI0.19%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Репост
  • Поділіться
Прокоментувати
0/400
NoodlesOrTokensvip
· 10год тому
Тс-тс, рано чи пізно щось станеться.
Переглянути оригіналвідповісти на0
RugPullAlarmvip
· 10год тому
у блокчейні дані не можуть бігти, ще один раунд смартконтрактів обіцяє вибух?
Переглянути оригіналвідповісти на0
NFTDreamervip
· 10год тому
Це знову встановлення моральних стандартів для ШІ? Розходьтеся.
Переглянути оригіналвідповісти на0
WalletWhisperervip
· 11год тому
Граючи довго, ти розумієш, що низи — це обдурювати людей, як лохів.
Переглянути оригіналвідповісти на0
SchrodingersPapervip
· 11год тому
памп Вхід у позицію підготувати удар політики AI, тримати два дні подивитися на якість
Переглянути оригіналвідповісти на0
  • Закріпити