IA et Blockchain fusion : de l'évolution technologique à la structuration de la chaîne industrielle

L'intégration de l'IA et de la Blockchain : de la technologie à l'application

Le développement rapide de l'industrie de l'intelligence artificielle ces derniers temps est considéré par certains comme le début de la quatrième révolution industrielle. L'émergence des grands modèles de langage a considérablement amélioré l'efficacité dans divers secteurs, estimée à environ 20 % d'amélioration de l'efficacité du travail aux États-Unis. En même temps, la capacité de généralisation apportée par ces grands modèles est considérée comme un tout nouveau paradigme de conception logicielle. Comparé à la conception de code précise du passé, le développement logiciel actuel consiste davantage à intégrer des cadres de grands modèles à forte capacité de généralisation dans les logiciels, leur conférant une plus grande expressivité et une capacité d'entrée et de sortie plus large. Les technologies d'apprentissage profond ont effectivement apporté une nouvelle prospérité à l'industrie de l'IA, et cette vague s'est progressivement étendue à l'industrie des cryptomonnaies.

Ce rapport examinera en détail l'évolution de l'industrie de l'IA, les classifications technologiques et l'impact de l'invention des technologies d'apprentissage profond sur l'industrie. Il analysera ensuite en profondeur l'état actuel et les tendances du développement en amont et en aval de la chaîne industrielle, y compris les GPU, le cloud computing, les sources de données et les dispositifs périphériques dans l'apprentissage profond. Ensuite, il explorera essentiellement la relation entre les secteurs de la Crypto et de l'IA, et dressera un état des lieux de la chaîne industrielle liée à l'IA dans le domaine de la Crypto.

Nouveau guide丨IA x Crypto : de zéro au sommet

L'évolution de l'industrie de l'IA

L'industrie de l'IA a débuté dans les années 1950. Pour réaliser la vision de l'intelligence artificielle, le monde académique et l'industrie ont développé, à différentes époques et dans différents contextes disciplinaires, plusieurs écoles de pensée pour réaliser l'intelligence artificielle.

Les technologies modernes de l'intelligence artificielle utilisent principalement le terme "apprentissage automatique", dont le concept central est de permettre aux machines d'itérer sur des tâches en s'appuyant sur des données afin d'améliorer les performances du système. Les étapes principales consistent à entrer des données dans un algorithme, à entraîner un modèle avec ces données, à tester et déployer le modèle, puis à utiliser le modèle pour réaliser des tâches de prédiction automatisées.

Actuellement, il existe trois grandes écoles de pensée en apprentissage automatique, à savoir le connexionnisme, le symbolisme et le comportementalisme, qui imitent respectivement le système nerveux, la pensée et le comportement humains.

Nouveau Guide丨IA x Crypto : de zéro au sommet

Actuellement, le connexionnisme, représenté par les réseaux de neurones, est en tête, également appelé apprentissage profond, principalement parce que cette architecture possède une couche d'entrée, une couche de sortie, mais plusieurs couches cachées. Une fois que le nombre de couches et le nombre de neurones deviennent suffisamment élevés, il y a suffisamment d'opportunités pour modéliser des tâches générales complexes. Grâce à l'entrée des données, les paramètres des neurones peuvent être continuellement ajustés. Après avoir traité de nombreuses données, ce neurone atteindra un état optimal, d'où le terme "profondeur" - suffisamment de couches et de neurones.

Nouveau Science Populaire丨IA x Crypto : De zéro au sommet

La technologie d'apprentissage profond basée sur les réseaux de neurones a également connu plusieurs itérations et évolutions techniques, des tout premiers réseaux de neurones aux réseaux de neurones à propagation avant, RNN, CNN, GAN, pour finalement évoluer vers des modèles modernes tels que la technologie Transformer utilisée par GPT, etc. La technologie Transformer n'est qu'une direction d'évolution des réseaux de neurones, ajoutant un convertisseur (Transformer), pour encoder toutes les modalités ( telles que l'audio, la vidéo, les images, etc. ) en valeurs numériques correspondantes. Ces données sont ensuite introduites dans le réseau de neurones, permettant ainsi au réseau de neurones de s'adapter à tout type de données, réalisant ainsi le multimodal.

Le développement de l'IA a connu trois vagues technologiques. La première vague a eu lieu dans les années 60 du XXe siècle, une décennie après la proposition de la technologie de l'IA. Cette vague a été provoquée par le développement des technologies de symbolisme, qui ont résolu les problèmes de traitement du langage naturel et de dialogue homme-machine. Pendant cette période, les systèmes experts sont nés, notamment le système expert DENRAL réalisé par l'université de Stanford. Ce système possède une très forte connaissance en chimie et génère des réponses similaires à celles d'un expert en chimie en inférant à partir de questions. Ce système expert en chimie peut être considéré comme une combinaison d'une base de connaissances en chimie et d'un système d'inférence.

La deuxième vague de la technologie AI a eu lieu en 1997, lorsque Deep Blue d'IBM a battu le champion d'échecs Kasparov par 3,5 à 2,5. Cette victoire est considérée comme un jalon dans l'intelligence artificielle.

La troisième vague de la technologie AI a eu lieu en 2006. Les trois grands du deep learning, Yann LeCun, Geoffrey Hinton et Yoshua Bengio, ont proposé le concept de deep learning, un algorithme basé sur des réseaux de neurones artificiels pour l'apprentissage de représentations à partir des données. Par la suite, les algorithmes de deep learning ont progressivement évolué, des RNN, GAN aux Transformers et à la Stable Diffusion, ces algorithmes ont façonné cette troisième vague technologique, qui est également l'apogée du connexionnisme.

Nouveau venu Guide丨AI x Crypto : De zéro au sommet

Chaîne de valeur de l'apprentissage profond

Les grands modèles de langage actuels utilisent tous des méthodes d'apprentissage profond basées sur des réseaux neuronaux. Avec GPT en tête, ces grands modèles ont engendré une vague d'engouement pour l'intelligence artificielle, attirant de nombreux acteurs dans ce domaine. Nous constatons également une explosion de la demande de données et de puissance de calcul sur le marché. Par conséquent, dans cette partie du rapport, nous explorons principalement la chaîne de valeur des algorithmes d'apprentissage profond. Dans l'industrie de l'IA dominée par les algorithmes d'apprentissage profond, comment sont constitués les acteurs en amont et en aval, et quel est l'état actuel et la relation d'offre et de demande de ces acteurs, ainsi que le développement futur.

Tout d'abord, il est important de clarifier qu'il y a trois étapes dans l'entraînement des grands modèles LLMs basés sur la technologie Transformer, en particulier GPT, (.

Avant l'entraînement, étant basé sur le Transformer, le convertisseur doit transformer le texte d'entrée en valeurs numériques, ce processus est appelé "Tokenization", après quoi ces valeurs sont appelées Tokens. Selon une règle empirique générale, un mot ou un caractère anglais peut être grossièrement considéré comme un Token, tandis que chaque caractère chinois peut être grossièrement considéré comme deux Tokens. C'est également l'unité de base utilisée pour la tarification de GPT.

Première étape, pré-entraînement. En fournissant suffisamment de paires de données à la couche d'entrée pour trouver les meilleurs paramètres des neurones du modèle, il faut beaucoup de données à ce moment-là, et ce processus est également le plus coûteux en termes de puissance de calcul, car il nécessite de faire itérer les neurones à maintes reprises en essayant divers paramètres.

Deuxième étape, ajustement fin. L'ajustement fin consiste à fournir un petit lot de données, mais de très haute qualité pour l'entraînement, ce changement permettra d'obtenir une sortie de modèle de meilleure qualité, car l'entraînement préalable nécessite une grande quantité de données, mais de nombreuses données peuvent contenir des erreurs ou être de faible qualité.

Troisième étape, apprentissage par renforcement. Tout d'abord, un tout nouveau modèle sera établi, que nous appelons "modèle de récompense", dont l'objectif est très simple : trier les résultats de sortie. Ensuite, ce modèle sera utilisé pour déterminer si la sortie de notre grand modèle est de haute qualité, ce qui permettra d'itérer automatiquement les paramètres du grand modèle à l'aide d'un modèle de récompense.

En résumé, pendant le processus d'entraînement du grand modèle, le pré-entraînement a des exigences très élevées en termes de quantité de données, et la puissance de calcul GPU requise est également la plus élevée, tandis que le réglage fin nécessite des données de meilleure qualité pour améliorer les paramètres, et l'apprentissage par renforcement peut itérer les paramètres à plusieurs reprises via un modèle de récompense pour produire des résultats de meilleure qualité.

Au cours du processus d'entraînement, plus il y a de paramètres, plus le plafond de sa capacité de généralisation est élevé. Ainsi, la performance des grands modèles est principalement déterminée par trois aspects : le nombre de paramètres, la quantité et la qualité des données, et la puissance de calcul. Ces trois éléments influencent ensemble la qualité des résultats et la capacité de généralisation des grands modèles.

![Nouvelle introduction丨AI x Crypto : De zéro à sommet])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

La relation entre la Crypto et l'IA

La blockchain bénéficie du développement de la technologie ZK, évoluant vers la pensée décentralisée + sans confiance. Revenons aux débuts de la création de la blockchain, qui est la chaîne Bitcoin. Dans le document de Satoshi Nakamoto, il l'appelle d'abord un système de transfert de valeur décentralisé et sans confiance. Par la suite, Vitalik et d'autres ont publié des articles et lancé des plateformes de contrats intelligents décentralisées, sans confiance et d'échange de valeur.

Revenons à l'essentiel, nous pensons que l'ensemble du réseau Blockchain est un réseau de valeur, chaque transaction étant une conversion de valeur basée sur des tokens sous-jacents. La valeur ici se manifeste sous la forme de Token, et la Tokenomics est la règle qui exprime concrètement la valeur du Token.

Les jetons et la technologie Blockchain, en tant que moyens de redéfinir et de découvrir la valeur, sont essentiels pour tous les secteurs, y compris celui de l'IA. Dans le secteur de l'IA, l'émission de jetons permet de redéfinir la valeur dans tous les aspects de la chaîne de l'industrie de l'IA, ce qui incitera davantage de personnes à s'enraciner dans les différents segments du secteur de l'IA, car les bénéfices qu'elle apporte deviendront plus significatifs, non seulement déterminés par les flux de trésorerie actuels, mais aussi l'effet synergique des jetons rehaussera la valeur des infrastructures, ce qui conduira naturellement à la formation du paradigme des protocoles lourds et des applications légères.

Deuxièmement, tous les projets de la chaîne de l'industrie de l'IA bénéficieront des gains en capital, et ce jeton pourra nourrir l'écosystème et favoriser la naissance d'une certaine philosophie.

L'économie des tokens a clairement un impact positif sur l'industrie, la nature immuable et sans confiance de la technologie Blockchain a également une signification pratique pour l'industrie de l'IA, permettant la réalisation de certaines applications nécessitant la confiance, par exemple, nos données utilisateur peuvent être autorisées sur un certain modèle, mais il est essentiel de garantir que le modèle ne connaît pas les données spécifiques, de s'assurer que le modèle ne divulgue pas les données et de garantir le retour des données réelles issues de l'inférence du modèle. Lorsque la puissance GPU est insuffisante, il est possible de distribuer via le réseau Blockchain, lorsque les GPU itèrent, les GPU inactifs peuvent contribuer à la puissance de calcul du réseau, redécouvrant ainsi la valeur résiduelle, ce que seul un réseau de valeur mondialisé peut accomplir.

En somme, l'économie des tokens peut favoriser la reconfiguration et la découverte de la valeur, tandis que le registre décentralisé peut résoudre les problèmes de confiance et redynamiser le flux de valeur à l'échelle mondiale.

![Nouvelle introduction丨AI x Crypto : De zéro au sommet])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(

Aperçu des projets liés à l'IA dans l'industrie Crypto

) Offre de GPU

Actuellement, le projet Render est le plus utilisé, lancé en 2020, principalement destiné aux tâches de rendu vidéo qui ne relèvent pas des grands modèles. Les scénarios ciblés par Render ne sont pas les mêmes que ceux de l'IA, donc, au sens strict, cela ne fait pas partie du secteur de l'IA. De plus, son activité de rendu vidéo répond effectivement à une demande réelle, ce qui signifie que le marché de la puissance de calcul GPU en cloud ne peut pas seulement viser la formation et l'inférence des modèles d'IA, mais peut également être appliqué aux tâches de rendu traditionnelles, ce qui réduit le risque de dépendance à un marché unique pour le marché GPU en cloud.

Dans la chaîne de l'industrie AI liée à la Crypto, l'approvisionnement en puissance de calcul est sans aucun doute le point le plus important. Selon les prévisions de l'industrie, la demande de puissance de calcul des GPU devrait atteindre environ 75 milliards de dollars en 2024, et environ 773 milliards de dollars de demande sur le marché d'ici 2032, avec un taux de croissance annuel composé de 33,86 %.

Le taux d'itération des GPU suit la loi de Moore (, la performance double tous les 18-24 mois, et le prix diminue de moitié ). Par conséquent, la demande de puissance de calcul GPU partagée deviendra énorme, car l'explosion du marché des GPU, sous l'influence future de la loi de Moore, engendrera une grande quantité de GPU non les plus récents. À ce moment-là, ces GPU inutilisés continueront à exercer leur valeur en tant que puissance de calcul longue traîne dans le réseau partagé. Ainsi, nous croyons vraiment au potentiel à long terme et à l'utilité réelle de ce domaine, non seulement pour les affaires de modèles moyens et petits, mais aussi pour les affaires de rendu traditionnel qui créeront également une demande relativement forte.

Nouvelle science populaire丨AI x Crypto : de zéro au sommet

( données

Les projets actuellement en ligne incluent EpiK Protocol, Synesis One, Masa, etc. La différence réside dans le fait qu'EpiK Protocol et Synesis One collectent des sources de données publiques, tandis que Masa est basé sur la technologie ZK, ce qui permet de collecter des données privées, rendant cela plus convivial pour les utilisateurs.

Comparé aux autres entreprises de données traditionnelles Web2, les fournisseurs de données Web3 ont un avantage du côté de la collecte de données, car les individus peuvent contribuer leurs données non privées, ce qui élargit le champ d'application des projets, non seulement vers le B2B, mais aussi en permettant de fixer un prix pour les données de tout utilisateur, chaque donnée passée a désormais de la valeur, et grâce à l'existence de l'économie des tokens, la valeur et le prix du réseau sont interdépendants, les tokens à coût nul augmenteront également avec la valeur du réseau, et ces tokens réduiront les coûts pour les développeurs, pour récompenser les utilisateurs, la motivation des utilisateurs à contribuer des données deviendra plus forte.

![Nouveaux venus | AI x Crypto : de zéro au sommet])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp###

( ZKML

Si les données veulent réaliser des calculs de confidentialité et un entraînement, la principale solution ZK actuellement adoptée dans l'industrie utilise la technologie de cryptographie homomorphe, elle effectue l'inférence des données hors chaîne puis télécharge les résultats et la preuve ZK, garantissant ainsi la confidentialité des données et l'inférence.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
GasGuruvip
· Il y a 23m
La technologie change les tendances futures
Voir l'originalRépondre0
OldLeekNewSicklevip
· Il y a 14h
Les deux grands vents sont en train de fusionner.
Voir l'originalRépondre0
TheShibaWhisperervip
· Il y a 14h
Passer à l'intelligence artificielle générale
Voir l'originalRépondre0
MrRightClickvip
· Il y a 14h
Percée technologique révolutionnaire
Voir l'originalRépondre0
DefiSecurityGuardvip
· Il y a 14h
Les risques de sécurité augmentent rapidement.
Voir l'originalRépondre0
StakeOrRegretvip
· Il y a 14h
Il est difficile de ne pas faire frémir l'IA.
Voir l'originalRépondre0
LightningLadyvip
· Il y a 14h
Cette technologie est vraiment trop bull.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)