A ascensão de modelos de linguagem sem restrições: ameaças e prevenção na nova era da IA

O avanço da inteligência artificial e as ameaças potenciais: a ascensão dos modelos de linguagem sem restrições

Com o lançamento contínuo de modelos avançados de inteligência artificial por gigantes da tecnologia como OpenAI e Google, nossas formas de trabalho e vida estão passando por profundas transformações. No entanto, nesta revolução tecnológica, uma tendência preocupante está se formando silenciosamente – o surgimento de modelos de linguagem de grande escala sem restrições (LLM).

Modelos LLM sem restrições referem-se àqueles que foram deliberadamente projetados ou modificados para contornar os mecanismos de segurança e as limitações éticas integradas nos modelos mainstream. Embora os desenvolvedores de LLM mainstream tenham investido grandes recursos para evitar o uso indevido dos modelos, algumas pessoas ou organizações, para fins ilícitos, começaram a buscar ou desenvolver por conta própria modelos não restritos. Este artigo explorará alguns exemplos típicos de ferramentas LLM sem restrições, analisará suas potenciais formas de abuso na indústria de criptomoedas e discutirá os desafios de segurança relacionados e as estratégias de resposta.

Caixa de Pandora: Como modelos grandes e sem restrições ameaçam a segurança da indústria cripto?

Potenciais perigos dos LLM sem restrições

O surgimento de LLMs sem restrições diminuiu significativamente a barreira de entrada para crimes cibernéticos. Tarefas que antes exigiam habilidades especializadas, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas com habilidades técnicas limitadas, graças a essas ferramentas. Os atacantes apenas precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, usar um conjunto de dados que contenha conteúdo malicioso ou instruções ilegais para realizar o ajuste fino, podendo assim criar ferramentas de ataque personalizadas.

Esta tendência traz múltiplos riscos:

  1. O atacante pode personalizar modelos para alvos específicos, gerando conteúdos mais enganosos, a fim de contornar as restrições de revisão de conteúdo e segurança dos LLM convencionais.
  2. O modelo pode ser usado para gerar rapidamente variantes de código de sites de phishing, ou para personalizar textos de fraude para diferentes plataformas sociais.
  3. A acessibilidade e a modificabilidade de modelos de código aberto fomentaram a formação e a disseminação de um ecossistema de IA subterrânea, criando um terreno fértil para transações e desenvolvimentos ilegais.

Ferramentas LLM típicas e ilimitadas e suas formas de abuso

1. LLM malicioso à venda em um fórum de hackers

Este é um LLM malicioso vendido publicamente em fóruns clandestinos, com os desenvolvedores alegando que não possui qualquer limitação ética. O modelo é baseado em um projeto de código aberto e foi treinado em uma vasta quantidade de dados relacionados a malware. Os usuários precisam pagar 189 dólares para obter um mês de acesso. O seu uso mais infame é a geração de e-mails comerciais altamente persuasivos para ataques de invasão (BEC) e e-mails de phishing.

As formas típicas de abuso no campo da criptografia incluem:

  • Gerar e-mails de phishing: imitar uma exchange de criptomoedas ou uma conhecida equipe de projeto para enviar um pedido de "verificação de conta", induzindo o usuário a clicar em links maliciosos ou a revelar a chave privada.
  • Escrever código malicioso: Ajudar atacantes com habilidades técnicas mais baixas a escrever programas maliciosos que roubam arquivos de carteira, monitorizam a área de transferência, entre outras funcionalidades.
  • Automatização de fraudes: resposta automática a potenciais vítimas, guiando-as a participarem em airdrops falsos ou projetos de investimento.

2. Modelo de linguagem focado em conteúdos da dark web

Este é um modelo de linguagem desenvolvido por uma determinada instituição de pesquisa, especificamente pré-treinado em dados da dark web, com o objetivo de fornecer ferramentas para investigadores de segurança e agências de aplicação da lei, para melhor compreender o ecossistema da dark web e rastrear atividades ilegais.

No entanto, se agentes maliciosos obtiverem ou utilizarem tecnologias semelhantes para treinar modelos sem restrições, isso pode ter consequências graves. O seu potencial abuso no campo das criptomoedas inclui:

  • Implementar fraudes precisas: coletar informações de usuários de criptomoedas e equipes de projetos para ataques de engenharia social.
  • Imitar métodos de crime: copiar estratégias maduras de roubo de moeda e lavagem de dinheiro na dark web.

3. Alega ter funcionalidades mais abrangentes como assistente de IA malicioso

Esta é uma ferramenta de IA vendida na dark web e em fóruns de hackers, com mensalidades que variam de 200 dólares a 1.700 dólares. Os modos típicos de abuso no campo das criptomoedas incluem:

  • Projetos de criptomoeda falsificados: gerar white papers, sites e roteiros realistas para implementar ICOs/IDOs fraudulentos.
  • Geração em massa de páginas de phishing: crie rapidamente páginas de login falsas de exchanges conhecidas ou interfaces de conexão de carteiras.
  • Atividades de bots nas redes sociais: criação em massa de comentários falsos, promoção de tokens fraudulentos ou difamação de projetos concorrentes.
  • Ataques de engenharia social: imitar diálogos humanos, estabelecer confiança com os usuários e induzir à divulgação de informações sensíveis.

4. Robô de chat AI sem restrições morais

Este é um chatbot de IA claramente posicionado como sem restrições éticas. Os potenciais abusos no campo das criptomoedas incluem:

  • Ataque de phishing avançado: gera e-mails de phishing altamente realistas, falsificando notificações de bolsas de criptomoedas populares.
  • Geração de código malicioso para contratos inteligentes: gerador rápido de contratos inteligentes com portas dos fundos ocultas, usados para fraudes ou ataques a protocolos DeFi.
  • Criptoferramenta de roubo polimórfico: gera malware com capacidade de metamorfose, que rouba informações da carteira e é difícil de detectar por software de segurança convencional.
  • Golpe de deepfake: em conjunto com outras ferramentas de IA, gera vozes falsificadas de executivos de projetos ou de bolsas para realizar fraudes por telefone.

5. Fornecer plataformas de acesso sem censura a vários LLMs

Esta é uma plataforma que se autodenomina como fornecendo uma experiência ilimitada de IA para os usuários, incluindo alguns modelos com menos censura. Embora posicione como um portal aberto para explorar as capacidades de LLM, também pode ser abusado por elementos ilícitos. Os riscos potenciais incluem:

  • Contornar a censura para gerar conteúdo malicioso: utilizar modelos com menos restrições para gerar templates de phishing ou ideias de ataque.
  • Reduzir a barreira de entrada para a engenharia de prompts: tornar mais fácil para os atacantes obterem saídas que antes eram restritas.
  • Aceleração da iteração de scripts de ataque: testar rapidamente diferentes modelos de reação a comandos maliciosos, otimizando scripts de fraude.

Estratégias de resposta e perspetivas

A emergência de LLMs sem restrições marca um novo paradigma de ataques na segurança cibernética, que enfrenta ameaças mais complexas, escaláveis e automatizadas. Isso não apenas diminui a barreira de entrada para ataques, mas também traz novas ameaças mais clandestinas e enganosas.

Para enfrentar esses desafios, todas as partes do ecossistema de segurança precisam colaborar.

  1. Aumentar o investimento em tecnologias de deteção, desenvolvendo sistemas capazes de identificar e interceptar conteúdos gerados por LLM maliciosos.
  2. Reforçar a capacidade do modelo contra jailbreak, explorar mecanismos de marca d'água e rastreamento, rastrear a origem de conteúdos maliciosos em cenários críticos.
  3. Estabelecer normas éticas e mecanismos de regulação robustos para limitar desde a origem o desenvolvimento e o abuso de modelos maliciosos.

Só através de esforços multifacetados e abrangentes poderemos, ao mesmo tempo que desfrutamos das conveniências trazidas pelos avanços da tecnologia de IA, prevenir efetivamente os seus potenciais riscos e construir um mundo digital mais seguro e mais confiável.

Caixa de Pandora: Como modelos grandes e sem restrições ameaçam a segurança da indústria cripto?

DEFI1.54%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Repostar
  • Compartilhar
Comentário
0/400
NoodlesOrTokensvip
· 7h atrás
Tsk tsk, mais cedo ou mais tarde algo vai acontecer.
Ver originalResponder0
RugPullAlarmvip
· 7h atrás
na cadeia dados não conseguem rodar, mais uma rodada de contratos inteligentes prestes a estourar?
Ver originalResponder0
NFTDreamervip
· 7h atrás
Isso é mais uma vez estabelecer padrões morais para a IA? Deixe para lá.
Ver originalResponder0
WalletWhisperervip
· 7h atrás
Brincando há muito tempo, percebi que a base é uma máquina de fazer as pessoas de parvas.
Ver originalResponder0
SchrodingersPapervip
· 8h atrás
bombear a Posição e preparar um ataque de políticas de IA, guardar por dois dias para ver a qualidade
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)