OpenLedger construit une économie d'agents : plateforme de modèles axés sur les données basée sur OP Stack et EigenDA.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligente, axée sur les données et modélable, sur la base de OP Stack + EigenDA.

Introduction | La transition de la couche modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul) qui sont indispensables. Comme dans l'évolution de l'infrastructure de l'industrie traditionnelle de l'IA, le domaine de la Crypto IA a également traversé des phases similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés, mettant en avant une logique de croissance extensive axée sur le «拼算力». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les modèles et la couche de données, marquant la transition de la Crypto IA d'une concurrence pour les ressources de base vers une construction de niveau intermédiaire plus durable et de valeur d'application.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. Le SLM (modèle de langage spécialisé), en tant que paradigme de micro-ajustement léger basé sur un modèle fondamental réutilisable, est généralement basé sur des modèles open source, combiné à un petit nombre de données spécialisées de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts de formation et les barrières technologiques.

Il convient de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM via l'architecture Agent, le routage dynamique du système de plugins, le module LoRA à chaud, et RAG (génération augmentée par la recherche). Cette architecture conserve la large capacité de couverture de LLM tout en améliorant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.

La valeur et les limites de Crypto AI au niveau du modèle

Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des grands modèles de langage (LLM), la raison principale étant que

  • Barrières techniques trop élevées : l'échelle de données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, et actuellement, seuls des géants technologiques comme les États-Unis et la Chine possèdent les capacités correspondantes.
  • Limites de l'écosystème open source : bien que des modèles de base grands publics comme LLaMA et Mixtral soient open source, la véritable clé pour faire progresser les modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets en chaîne au niveau des modèles de base est limité.

Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :

  • Couche de vérification fiable : enregistrement des chemins de génération de modèles, des contributions de données et de l'utilisation sur la chaîne, renforçant la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : À l'aide de jetons natifs, utilisés pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation et de service des modèles.

Classification des types de modèles AI et analyse de l'applicabilité de la blockchain

Il en ressort que les points d'ancrage viables des projets de type Crypto AI se concentrent principalement sur l'affinage léger des petits SLM, l'intégration et la vérification des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain avec le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne de blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable la provenance de chaque donnée et contribution de modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, une distribution automatique des récompenses est déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Report : Construire une économie d'agents intelligents pilotée par les données et modulable, basée sur OP Stack + EigenDA

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel axé sur les mécanismes d'incitation pour les données et les modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution AI équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de la « fourniture de données » à « déploiement de modèles » jusqu'à « appel de partage des bénéfices », dont les modules principaux comprennent :

  • Model Factory : sans programmation, il est possible d'utiliser un LLM open source pour entraîner et déployer des modèles personnalisés avec un ajustement LoRA.
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de la contribution et distribution des récompenses grâce à l'enregistrement des appels sur la chaîne ;
  • Datanets : un réseau de données structurées destiné aux scénarios verticaux, construit et validé par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne, modulable, appelable et payable.

Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur les données et modulaire, favorisant la chaîne de valeur de l'IA sur la blockchain.

Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base, créant un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.

  • Construit sur OP Stack : basé sur la pile technologique Optimism, prenant en charge un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatibilité EVM : permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
  • EigenDA offre un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à des chaînes AI génériques comme NEAR, qui se concentrent davantage sur les couches de base et mettent en avant la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre plutôt sur la construction de chaînes AI dédiées aux incitations des données et des modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation pour les modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, et favorisant le chemin vers la réalisation du « modèle comme actif ».

OpenLedger Depth Research Report : Construire une économie d'agents intelligente, pilotée par les données et modélisable, sur la base de OP Stack + EigenDA

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle d'Usine, pas besoin de code usine modèle

ModelFactory est une plateforme de micro-ajustement de grands modèles linguistiques (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface graphique pure sans avoir besoin d'outils en ligne de commande ou d'intégration d'API. Les utilisateurs peuvent procéder au micro-ajustement des modèles sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'atteindre un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM principaux (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement du modèle : Outils d'évaluation intégrés, support pour l'exportation du déploiement ou des appels de partage écologique.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de réponse du modèle.
  • RAG génération de traçabilité : réponses avec des références sources, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de service de modèle intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.

OpenLedger Depth Research Report : Construire une économie d'agents intelligente, pilotée par les données et combinable par les modèles, sur la base de OP Stack + EigenDA

Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • LLaMA série : écosystème le plus large, communauté active, performances générales fortes, c'est l'un des modèles de base open source les plus populaires actuellement.
  • Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios de déploiement flexibles et de ressources limitées.
  • Qwen : Excellente performance des tâches en chinois, compétences globales solides, idéal pour les développeurs nationaux.
  • ChatGLM : l'effet de dialogue en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
  • Deepseek : Performances supérieures en génération de code et en raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : Un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Ancien standard de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : un support multilingue relativement fort, mais des performances d'inférence faibles, adapté à la recherche sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, non recommandé pour une utilisation en production.

Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète. Au contraire, elle est basée sur des contraintes réalistes de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM) qui conduisent à une configuration « pratique en priorité ».

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible seuil, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable

3.2 OpenLoRA, la capitalisation des actifs en chaîne des modèles ajustés

LoRA (Low-Rank Adaptation) est une méthode de réglage fin des paramètres efficace, qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, réduisant ainsi considérablement les coûts de formation et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine, ne former que la nouvelle matrice de paramètres insérée. », ses paramètres étant efficaces, la formation rapide et le déploiement flexible, c'est la méthode de réglage fin la plus adaptée au déploiement de modèles Web3 et aux appels combinés.

OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement pour le déploiement de plusieurs modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, afin de promouvoir l'exécution de l'« IA payable » (Payable AI).

OpenLoRA architecture core components, based on modular design, covering key aspects such as model storage, inference execution, request routing, etc., achieving efficient and low-cost multi-model deployment and invocation capabilities:

  • Module de stockage LoRA Adapter (LoRA Adapters Storage) : Les LoRA adapters après ajustement sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
  • Hébergement de modèle et couche de fusion d'adaptateur (Model Hosting & Adapter Merging Layer) : tous les modèles ajustés partagent le modèle de base (base model), lors de l'inférence, l'adaptateur LoRA est dynamique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
GasFeeCryervip
· Il y a 11h
Quand le gas est cher, il faut couper.
Voir l'originalRépondre0
ChainSpyvip
· Il y a 23h
La combinaison de modèles est la clé du succès.
Voir l'originalRépondre0
GateUser-e51e87c7vip
· Il y a 23h
Rouler rouler rouler, tout est dans le rouleau AI.
Voir l'originalRépondre0
AlwaysAnonvip
· Il y a 23h
Le modèle est encore là à crier des slogans.
Voir l'originalRépondre0
MetaverseLandlordvip
· 07-16 05:46
Le niveau du modèle est parti vers la lune, attention.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)