IA y Cadena de bloques: de la evolución tecnológica a la disposición de la cadena industrial

La fusión de AI y Cadena de bloques: de la tecnología a la aplicación

El rápido desarrollo reciente de la industria de la inteligencia artificial ha sido visto por algunos como el inicio de la cuarta revolución industrial. La aparición de modelos de lenguaje a gran escala ha mejorado significativamente la eficiencia en diversas industrias, y se estima que ha aumentado aproximadamente en un 20% la eficiencia laboral en Estados Unidos. Al mismo tiempo, la capacidad de generalización que aportan estos grandes modelos se considera un nuevo paradigma de diseño de software. En comparación con el diseño de código preciso del pasado, el desarrollo de software actual se basa más en integrar marcos de grandes modelos con alta capacidad de generalización en el software, lo que permite que el software tenga una mayor expresividad y una capacidad de entrada y salida más amplia. La tecnología de aprendizaje profundo ciertamente ha traído una nueva ola de prosperidad a la industria de la IA, y esta tendencia también se ha ido extendiendo gradualmente a la industria de las criptomonedas.

Este informe explorará en detalle el desarrollo de la industria de IA, la clasificación de tecnologías, así como el impacto de la invención de la tecnología de aprendizaje profundo en la industria. Luego, se analizará en profundidad el estado actual y las tendencias de desarrollo en la cadena industrial de GPU, computación en la nube, fuentes de datos, dispositivos de borde, etc. Después, se explorará esencialmente la relación entre Crypto y la industria de IA, y se organizará el patrón de la cadena industrial relacionada con Crypto.

Nuevo conocimiento丨AI x Crypto:de cero a la cima

Desarrollo de la industria de la IA

La industria de la IA comenzó en la década de 1950. Para lograr la visión de la inteligencia artificial, el mundo académico y la industria han desarrollado diversas escuelas para implementar la inteligencia artificial en diferentes épocas y contextos disciplinarios.

La tecnología moderna de inteligencia artificial utiliza principalmente el término "aprendizaje automático", cuya idea central es permitir que las máquinas mejoren el rendimiento del sistema a través de la iteración repetida en las tareas basándose en datos. Los pasos principales son introducir datos en un algoritmo, entrenar un modelo con estos datos, probar e implementar el modelo, y utilizar el modelo para completar tareas de predicción automatizadas.

Actualmente, el aprendizaje automático tiene tres corrientes principales: el conexionismo, el simbolismo y el conductismo, que imitan el sistema nervioso, el pensamiento y el comportamiento humanos, respectivamente.

Nuevos conceptos丨IA x Cripto: De cero a la cima

Y actualmente, el conexionismo representado por las redes neuronales domina, ( también se conoce como aprendizaje profundo ), la razón principal es que esta arquitectura tiene una capa de entrada, una capa de salida, pero múltiples capas ocultas. Una vez que el número de capas y la cantidad de neuronas ( y parámetros ) se vuelven lo suficientemente altos, hay suficientes oportunidades para ajustar tareas generales complejas. A través de la entrada de datos, se pueden ajustar continuamente los parámetros de las neuronas, y finalmente, después de haber pasado por múltiples datos, esa neurona alcanzará un estado óptimo ( parámetros ), de ahí proviene el término "profundidad" - un número suficiente de capas y neuronas.

Nuevos conceptos丨IA x Cripto: de cero a la cima

Y la tecnología de aprendizaje profundo basada en redes neuronales también ha tenido múltiples iteraciones y evoluciones, desde las primeras redes neuronales, hasta redes neuronales de retroalimentación, RNN, CNN, GAN, y finalmente evolucionando hacia los modernos grandes modelos como GPT que utilizan la tecnología Transformer. La tecnología Transformer es solo una dirección de evolución de las redes neuronales, que añade un convertidor ( Transformer ), utilizado para codificar todos los modos ( como audio, video, imágenes, etc. ) en valores numéricos correspondientes para representarlos. Luego, se ingresan en la red neuronal, de modo que la red neuronal puede ajustar cualquier tipo de datos, es decir, lograr multimodalidad.

El desarrollo de la IA ha pasado por tres olas tecnológicas. La primera ola fue en la década de 1960, diez años después de que se propusiera la tecnología de IA. Esta ola fue provocada por el desarrollo de la tecnología del simbolismo, la cual abordó problemas de procesamiento de lenguaje natural y diálogo hombre-máquina. En el mismo período, surgieron los sistemas expertos, siendo uno de ellos el sistema experto DENRAL, desarrollado por la Universidad de Stanford, que cuenta con un sólido conocimiento químico y puede inferir respuestas similares a las de un experto en química a través de preguntas. Este sistema experto en química puede ser visto como una combinación de una base de conocimientos químicos y un sistema de inferencia.

La segunda ola de tecnología de IA ocurrió en 1997, cuando Deep Blue de IBM venció al campeón de ajedrez Kasparov con un marcador de 3.5:2.5, y esta victoria se considera un hito para la inteligencia artificial.

La tercera ola de tecnología AI ocurrió en 2006. Los tres gigantes del aprendizaje profundo, Yann LeCun, Geoffrey Hinton y Yoshua Bengio, propusieron el concepto de aprendizaje profundo, un algoritmo que utiliza redes neuronales artificiales como arquitectura para el aprendizaje de representaciones de datos. Posteriormente, los algoritmos de aprendizaje profundo evolucionaron gradualmente, desde RNN, GAN hasta Transformer y Stable Diffusion, estos algoritmos moldearon conjuntamente esta tercera ola tecnológica, que también es el auge del conexionismo.

Nuevos conceptos丨IA x Cripto: De cero a la cima

Cadena de bloques de aprendizaje profundo

Actualmente, los grandes modelos de lenguaje utilizan métodos de aprendizaje profundo basados en redes neuronales. Con GPT a la cabeza, estos grandes modelos han generado una ola de entusiasmo por la inteligencia artificial, y muchos jugadores han ingresado a este campo. También hemos observado que existe una gran demanda en el mercado por datos y poder de cálculo. Por lo tanto, en esta parte del informe, principalmente exploramos la cadena industrial de los algoritmos de aprendizaje profundo, cómo están compuestos los sectores upstream y downstream en la industria de IA dominada por algoritmos de aprendizaje profundo, y cuál es el estado actual de estos sectores, así como la relación de oferta y demanda y su futuro desarrollo.

Primero, debemos aclarar que al realizar el entrenamiento del modelo grande LLMs liderado por GPT basado en la tecnología Transformer (, se divide en tres pasos.

Antes del entrenamiento, debido a que se basa en Transformer, el convertidor necesita transformar la entrada de texto en valores numéricos, este proceso se llama "Tokenización", después estos valores se conocen como Token. Según una regla general, se puede considerar de manera aproximada que una palabra o carácter en inglés equivale a un Token, mientras que cada carácter chino puede ser considerado de manera aproximada como dos Tokens. Esta es también la unidad básica utilizada para la valoración de GPT.

Primer paso, preentrenamiento. Al proporcionar suficientes pares de datos a la capa de entrada, se buscan los mejores parámetros para cada neurona del modelo; en este momento, se requieren grandes cantidades de datos, y este proceso también es el más intensivo en cálculo, ya que implica iterar repetidamente a través de las neuronas probando varios parámetros.

El segundo paso, ajuste fino. El ajuste fino consiste en proporcionar un conjunto de datos más pequeño, pero de muy alta calidad, para entrenar; este cambio hará que la salida del modelo tenga una calidad más alta, ya que el preentrenamiento requiere una gran cantidad de datos, pero muchos de esos datos pueden contener errores o ser de baja calidad.

El tercer paso es el aprendizaje reforzado. Primero se establecerá un modelo completamente nuevo, al que llamamos "modelo de recompensa". El propósito de este modelo es muy simple: clasificar los resultados de salida. Luego, utilizaremos este modelo para determinar si la salida de nuestro gran modelo es de alta calidad, de modo que podamos usar un modelo de recompensa para iterar automáticamente los parámetros del gran modelo.

En pocas palabras, durante el proceso de entrenamiento de un modelo grande, el preentrenamiento tiene una demanda muy alta de la cantidad de datos, y la potencia de cálculo de la GPU requerida también es la más alta, mientras que el ajuste fino necesita datos de mayor calidad para mejorar los parámetros. El aprendizaje por refuerzo puede iterar repetidamente los parámetros a través de un modelo de recompensa para producir resultados de mayor calidad.

Durante el proceso de entrenamiento, cuántos más parámetros haya, mayor será el techo de la capacidad de generalización. Por lo tanto, el rendimiento de los modelos grandes está determinado principalmente por tres aspectos: la cantidad de parámetros, la cantidad y calidad de los datos, y la potencia de cálculo; estos tres factores influyen conjuntamente en la calidad de los resultados y la capacidad de generalización del modelo grande.

![Introducción para nuevos usuarios丨AI x Crypto:de cero a la cima])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

La relación entre Crypto y AI

La Cadena de bloques se beneficia del desarrollo de la tecnología ZK, evolucionando hacia la idea de descentralización + desconfianza. Regresamos al principio de la creación de la Cadena de bloques, que es la cadena de Bitcoin. En el documento de Satoshi Nakamoto, se refiere primero a ella como un sistema de transferencia de valor descentralizado y sin confianza. Posteriormente, Vitalik y otros publicaron documentos que lanzaron la plataforma de contratos inteligentes de descentralización, desconfianza e intercambio de valor.

Volviendo a la esencia, creemos que toda la Cadena de bloques es una red de valor, cada transacción es una conversión de valor basada en el token subyacente. Aquí, el valor se manifiesta en forma de Token, y la Tokenomics son las reglas que concretan el valor del Token.

Los tokens y la tecnología de la cadena de bloques, como medios para redefinir y descubrir el valor, son cruciales para cualquier industria, incluyendo la industria de la IA. En la industria de la IA, la emisión de tokens permite a todos los aspectos de la cadena de producción de IA reestructurar el valor, lo que incentivará a más personas a profundizar en los diversos nichos dentro de la industria de la IA, ya que los beneficios que ofrece se volverán más significativos. No solo se trata de flujos de efectivo para determinar su valor actual, sino que la sinergia de los tokens elevará el valor de la infraestructura, lo que naturalmente conducirá a la formación del paradigma de protocolos pesados y aplicaciones ligeras.

En segundo lugar, todos los proyectos en la cadena de la industria de la IA obtendrán beneficios de la valorización del capital, y este token podrá retroalimentar el ecosistema y promover el nacimiento de cierta filosofía.

La economía de tokens evidentemente tiene un impacto positivo en la industria, la naturaleza inmutable y sin necesidad de confianza de la tecnología de la cadena de bloques también tiene un significado práctico para la industria de la IA, permitiendo la realización de algunas aplicaciones que requieren confianza, como nuestros datos de usuario que pueden ser permitidos sobre un modelo específico, pero asegurando que el modelo no conozca los datos específicos, asegurando que el modelo no filtre datos, asegurando que devuelva datos reales de la inferencia de ese modelo. Cuando la GPU no es suficiente, puede distribuirse a través de la red de cadena de bloques, cuando la GPU se itera, la GPU inactiva puede contribuir con poder computacional a la red, redescubriendo el valor residual, esto es algo que solo puede lograrse a través de una red de valor global.

En resumen, la economía de tokens puede facilitar la reconfiguración y el descubrimiento de valor, mientras que el libro de contabilidad descentralizado puede resolver problemas de confianza y hacer que el valor fluya de nuevo a nivel global.

![Nuevos conceptos丨AI x Crypto: de cero a la cima])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(

Visión general de proyectos relacionados con la IA en la industria Crypto

) Suministro de GPU

Actualmente, el proyecto Render es el más utilizado, lanzado en 2020, y se utiliza principalmente para tareas de renderizado de video que no son de grandes modelos. Los escenarios a los que se dirige Render son diferentes de los de la IA, por lo que, estrictamente hablando, no se considera parte del sector de la IA. Además, su negocio de renderizado de video tiene una demanda real, por lo que el mercado de potencia de cálculo en la nube de GPU no solo puede dirigirse al entrenamiento e inferencia de modelos de IA, sino que también puede aplicarse a tareas de renderizado tradicionales, lo que reduce el riesgo de dependencia del mercado único en el mercado de GPU en la nube.

En la cadena de industrias de AI en Crypto, el suministro de potencia de cálculo es, sin duda, el aspecto más importante. Según las previsiones del sector, la demanda de potencia de cálculo de GPU será de aproximadamente 75 mil millones de dólares en 2024, y habrá una demanda de mercado de aproximadamente 773 mil millones de dólares para 2032, con una tasa de crecimiento anual compuesta ###CAGR( de aproximadamente 33.86%.

La tasa de iteración de la GPU sigue la ley de Moore ), el rendimiento se duplica cada 18-24 meses, y el precio se reduce a la mitad (. Por lo tanto, la demanda de potencia de cálculo compartida de GPU se volverá enorme, ya que la explosión del mercado de GPU, bajo la influencia futura de la ley de Moore, dará lugar a una gran cantidad de GPU que no son de las últimas generaciones. En este momento, estas GPU inactivas seguirán desempeñando su valor como potencia de cálculo de cola larga en la red compartida. Por lo tanto, realmente tenemos una visión optimista sobre el potencial a largo plazo y la utilidad real de este sector, no solo para los negocios de modelos pequeños y medianos, sino que también habrá una demanda bastante fuerte en los negocios de renderizado tradicional.

![Nuevos conocimientos丨AI x Crypto: De cero a la cima])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(

) datos

Los proyectos actualmente en línea incluyen EpiK Protocol, Synesis One, Masa, etc. La diferencia radica en que EpiK Protocol y Synesis One se centran en la recolección de fuentes de datos públicas, mientras que Masa está basado en la tecnología ZK, lo que permite la recolección de datos privados, lo que es más amigable para los usuarios.

En comparación con otras empresas de datos tradicionales de Web2, los proveedores de datos de Web3 tienen la ventaja en el lado de la recolección de datos, ya que los individuos pueden contribuir con sus datos no privados, lo que amplía el alcance del proyecto, no solo hacia el B2B, sino que también permite la fijación de precios para los datos de cualquier usuario, dándole valor a cualquier dato pasado. Además, debido a la existencia de la economía de tokens, el valor y el precio de la red son interdependientes; los tokens de costo cero aumentarán a medida que el valor de la red aumente, y estos tokens reducirán los costos para los desarrolladores, que se utilizarán para recompensar a los usuarios, lo que motivará más a los usuarios a contribuir con datos.

![Nuevo Conocimiento丨AI x Crypto: De cero a la cima]###https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(

) ZKML

Si los datos quieren lograr cálculos de privacidad y entrenamiento, actualmente la solución ZK que se utiliza principalmente en la industria utiliza tecnología de cifrado homomórfico, inferiendo los datos fuera de la cadena y luego subiendo los resultados junto con la prueba ZK, lo que puede garantizar la privacidad de los datos y la inferencia.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
OldLeekNewSicklevip
· hace9h
Las dos grandes tendencias están convergiendo.
Ver originalesResponder0
TheShibaWhisperervip
· hace9h
Avance hacia la inteligencia artificial general
Ver originalesResponder0
MrRightClickvip
· hace9h
Ruptura tecnológica revolucionaria
Ver originalesResponder0
DefiSecurityGuardvip
· hace9h
Los riesgos de seguridad están aumentando rápidamente.
Ver originalesResponder0
StakeOrRegretvip
· hace9h
Es difícil no hacer un gran revuelo con la IA.
Ver originalesResponder0
LightningLadyvip
· hace9h
Esta tecnología es demasiado alcista.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)