Восхождение беспредельных языковых моделей: угроза и защита в новую эпоху ИИ

Прогресс искусственного интеллекта и потенциальные угрозы: восход бесконтрольных языковых моделей

С появлением передовых моделей искусственного интеллекта от таких технологических гигантов, как OpenAI и Google, наши рабочие и жизненные стили претерпевают глубокие изменения. Однако в этой технологической революции формируется тревожная тенденция — появление неограниченных крупных языковых моделей (LLM).

Неограниченные LLM относятся к языковым моделям, которые были специально разработаны или изменены для обхода встроенных механизмов безопасности и этических ограничений основных моделей. Хотя разработчики основных LLM вкладывают значительные ресурсы в предотвращение злоупотреблений моделями, некоторые лица или организации начинают искать или самостоятельно разрабатывать модели, не подверженные ограничениям, с незаконными целями. В данной статье будут рассмотрены несколько типичных инструментов неограниченных LLM, проанализированы их потенциальные способы злоупотребления в криптоиндустрии и обсуждены связанные с этим вызовы безопасности и стратегии реагирования.

Пандора: Как неограниченные большие модели угрожают безопасности криптоиндустрии?

Потенциальные опасности неограниченных LLM

Появление неограниченных LLM значительно снизило порог для сетевой преступности. Задачи, которые раньше требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т.д., теперь могут быть легко выполнены даже людьми с ограниченными техническими возможностями с помощью этих инструментов. Злоумышленникам достаточно получить веса и исходный код открытой модели, а затем использовать набор данных с вредоносным содержанием или незаконными инструкциями для дообучения, чтобы создать индивидуализированный инструмент атаки.

Эта тенденция несет в себе множество рисков:

  1. Нападающий может настроить модель для конкретной цели, создавая более обманчивый контент, чтобы обойти обычную проверку содержимого и ограничения безопасности LLM.
  2. Модель может быть использована для быстрого создания кодовых вариантов фишинговых сайтов или для адаптации мошеннических текстов под различные социальные платформы.
  3. Доступность и модифицируемость открытых моделей способствовали формированию и распространению подпольной экосистемы ИИ, создав благоприятные условия для незаконной торговли и разработки.

Типичные инструменты LLM без ограничений и способы их злоупотребления

1. Зловредный LLM, продаваемый на одном из хакерских форумов

Это вредоносный LLM, продаваемый на подпольном форуме, разработчик утверждает, что у него нет никаких моральных ограничений. Модель основана на проекте с открытым исходным кодом и обучена на большом объеме данных, связанных с вредоносным ПО. Пользователи могут получить месячный доступ, заплатив всего 189 долларов. Его наиболее печально известное применение — это создание убедительных коммерческих электронных писем для атак на BEC и фишинговых писем.

Типичные способы злоупотребления в области криптовалюты включают:

  • Генерация фишинговых писем: имитация запросов на "проверку аккаунта" от криптовалютной биржи или известных проектов, чтобы заставить пользователей нажимать на вредоносные ссылки или раскрывать свои ключи.
  • Написание вредоносного кода: помощь менее квалифицированным злоумышленникам в создании вредоносных программ для кражи файлов кошельков, мониторинга буфера обмена и т.д.
  • Автоматизация мошенничества: автоматические ответы потенциальным жертвам, побуждающие их участвовать в ложных аирдропах или инвестиционных проектах.

( 2. Языковая модель, сосредоточенная на содержании темного интернета

Это языковая модель, разработанная одним исследовательским учреждением, специально обученная на данных темной сети, с целью предоставить инструменты для исследователей безопасности и правоохранительных органов, чтобы лучше понять экосистему темной сети и отслеживать незаконную деятельность.

Однако, если злоумышленники получат доступ к подобным технологиям и обучат модели без ограничений, это может привести к серьезным последствиям. Потенциальное злоупотребление в области криптовалют включает в себя:

  • Проведение точного мошенничества: сбор информации о пользователях криптовалюты и командах проектов для социальных инженерных атак.
  • Подражание преступным методам: копирование зрелых стратегий кражи и отмывания денег в даркнете.

) 3. Заявляется, что функции более полные у злонамеренного AI помощника

Это инструмент ИИ, продаваемый на даркнете и форумах хакеров, с ежемесячной оплатой от 200 до 1700 долларов. Типичные способы его злоупотребления в криптовалютной сфере включают:

  • Поддельные криптопроекты: создание реалистичных белых книг, веб-сайтов и дорожных карт для реализации ложных ICO/IDO.
  • Массовое создание фишинговых страниц: быстрое создание поддельных страниц входа в известные биржи или интерфейсов подключения кошельков.
  • Деятельность ботов в социальных сетях: массовое создание ложных комментариев, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
  • Социальная инженерия: имитация человеческого общения для установления доверия с пользователем и побуждение к раскрытию конфиденциальной информации.

4. Неограниченный моралью AI-чат-бот

Это AI-чат-бот, который явно позиционируется как не имеющий моральных ограничений. Потенциальные злоупотребления в области криптовалюты включают:

  • Продвинутые фишинговые атаки: создание высокореалистичных фишинговых писем, выдающих себя за ложные уведомления от основных бирж.
  • Генерация вредоносного кода смарт-контрактов: быстрое создание смарт-контрактов с скрытыми задними дверями для мошенничества или атаки на DeFi-протоколы.
  • Полиформенный криптовалютный краулер: генерирует вредоносное ПО с трансформирующей способностью, крадя информацию о кошельках, что затрудняет его обнаружение обычным антивирусным программным обеспечением.
  • Глубокая фальсификация мошенничества: в сочетании с другими инструментами ИИ, создание поддельных голосов руководителей проектных компаний или бирж для осуществления телефонного мошенничества.

5. Предоставление платформ с многими LLM без цензуры

Это платформа, которая утверждает, что предоставляет пользователям неограниченный опыт работы с ИИ, включая некоторые модели с менее строгой цензурой. Хотя она позиционируется как открытые ворота для исследования возможностей LLM, она также может быть злоупотреблена преступниками. Потенциальные риски включают:

  • Обход цензуры для создания вредоносного контента: использование моделей с меньшими ограничениями для генерации шаблонов фишинга или идей для атак.
  • Снижение порога для осуществления атак: облегчение доступа злоумышленников к изначально ограниченным данным.
  • Ускоренная итерация разговорных техник для атак: быстрая проверка реакции различных моделей на злонамеренные команды, оптимизация мошеннических скриптов.

Стратегии и перспективы

Появление неограниченных LLM знаменует собой новый парадигму атак, с которыми сталкивается кибербезопасность, с более сложными, масштабируемыми и автоматизированными способностями. Это не только снизило барьер для атак, но и привело к появлению более скрытых и обманчивых новых угроз.

Для решения этих задач участники безопасности экосистемы должны работать вместе:

  1. Увеличить инвестиции в технологии обнаружения, разработать системы, способные распознавать и блокировать контент, сгенерированный злонамеренными LLM.
  2. Укрепление способности модели к предотвращению взлома, исследование механизмов водяных знаков и отслеживания, отслеживание источников вредоносного контента в ключевых сценариях.
  3. Создание и совершенствование этических норм и механизмов регулирования для ограничения разработки и злоупотребления злонамеренными моделями с самого начала.

Только благодаря многогранным и всесторонним усилиям мы сможем эффективно предотвратить потенциальные риски, наслаждаясь удобством, которое приносит прогресс технологий ИИ, и построить более безопасный и более надежный цифровой мир.

![Пандора: как неограниченные большие модели угрожают безопасности криптоиндустрии?]###https://img-cdn.gateio.im/webp-social/moments-8efa933461b81764e733d8be6cdc09b4.webp###

DEFI1.06%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
NoodlesOrTokensvip
· 11ч назад
Тс-тс, рано или поздно что-то произойдет.
Посмотреть ОригиналОтветить0
RugPullAlarmvip
· 11ч назад
в блокчейне данные не работают, еще один раунд смарт-контрактов под угрозой?
Посмотреть ОригиналОтветить0
NFTDreamervip
· 11ч назад
Это снова установка моральных стандартов для ИИ? Разойдитесь.
Посмотреть ОригиналОтветить0
WalletWhisperervip
· 11ч назад
Играв долго, я увидел суть: в основе всего - машины, которые будут играть для лохов.
Посмотреть ОригиналОтветить0
SchrodingersPapervip
· 11ч назад
насос Вход в позицию准备一波AI政策暴击了嘛,囤两天看看成色
Посмотреть ОригиналОтветить0
  • Закрепить