Krypto als Illusion von KI

Fortgeschrittene3/5/2024, 10:04:31 AM
Dieser Artikel befasst sich mit der potenziellen Integration von KI und Kryptowährungen und betont, dass eine echte Integration die Integration von Krypto in KI-Workflows und die Stärkung von KI mit Krypto beinhaltet.
  • Emergenz: Das Phänomen, bei dem viele kleine Einheiten interagieren, um ein größeres Ganzes zu erzeugen, das neue Eigenschaften aufweist, die die einzelnen Komponenten nicht besitzen, wie z. B. die Emergenz, die in biologischen Systemen beobachtet wird, die in der Chemie untersucht werden.
  • Halluzination: Die Tendenz von Modellen, irreführende Daten zu produzieren, wobei KI-Modelle Ergebnisse erzeugen, die korrekt erscheinen, aber in Wirklichkeit fehlerhaft sind.

Die Verbindung zwischen KI und Krypto hat deutliche Wellen gezeigt. Seit AlphaGo im Jahr 2016 menschliche professionelle Go-Spieler besiegt hat, wurden in der Kryptowelt Versuche beobachtet, die beiden zu kombinieren, wie z. B. das spontane Auftauchen von Projekten wie Fetch.AI. Mit dem Aufkommen von GPT-4 im Jahr 2023 ist der Trend zu KI + Krypto wieder aufgeflammt, wie die Ausgabe von WorldCoin zeigt. Die Menschheit scheint bereit zu sein, in eine utopische Ära einzutreten, in der KI für die Produktivität verantwortlich ist und Crypto den Vertrieb übernimmt.

Diese Stimmung erreichte ihren Höhepunkt, nachdem OpenAI die Sora-Anwendung für die Text-zu-Video-Synthese auf den Markt gebracht hatte. Emotionen beinhalten jedoch oft irrationale Elemente. Li Yizhou zum Beispiel scheint Teil des missverstandenen Segments zu sein, das sich in folgenden Beispielen zeigt:

  • Die Verschmelzung spezifischer KI-Anwendungen mit der Entwicklung von Algorithmen. Während Sora und die zugrundeliegenden Transformer-Prinzipien von GPT-4 Open Source sind, erfordert die Nutzung beider eine Zahlung an OpenAI.
  • Die Kombination von KI und Krypto ist derzeit eher so, dass Crypto die Initiative ergreift, um sich der KI zu nähern, da die großen KI-Giganten keine klare Bereitschaft gezeigt haben. Zum jetzigen Zeitpunkt überwiegt das, was KI für Krypto tun kann, das, was Krypto für KI tun kann.
  • Der Einsatz von KI-Technologie in Crypto-Anwendungen ist nicht gleichbedeutend mit der Integration von KI und Krypto, wie sie in Anwendungen wie Blockchain-Gaming, GameFi, Metaverse-Projekten, Web3-Spielen und den digitalen Personas im AW-Universum zu sehen ist.
  • Die Beiträge, die Crypto zur Entwicklung der KI-Technologie leisten kann, umfassen in erster Linie Dezentralisierung und Token-Anreize in den drei KI-Komponenten: Rechenleistung, Daten und Modelle.
  • WorldCoin dient als erfolgreiche Integration von beidem, wobei zkML an der Schnittstelle von KI- und Krypto-Technologien positioniert ist und die BGE-Theorie (Universal Basic Income) ihre erste groß angelegte Implementierung erlebt.

In diesem Artikel wird der Fokus auf den Vorteilen liegen, die Krypto für die KI bringen kann, da aktuelle Crypto-Projekte, die KI-Anwendungen betonen, meist als Marketing-Gimmicks angesehen werden und unserer Diskussion nicht zuträglich sind.

Von der linearen Regression zum Transformer

Lange Zeit drehte sich die Diskussion um KI um die Frage, ob das "Auftauchen" der künstlichen Intelligenz zur Erschaffung von fühlenden Wesen führen wird, die denen in "The Matrix" ähneln, oder zu einer auf Silizium basierenden Zivilisation. Die Besorgnis über die Interaktion zwischen Menschen und KI-Technologien hält sich hartnäckig, mit jüngsten Beispielen wie dem Aufkommen von Sora und früheren Fällen wie GPT-4 (2023), AlphaGo (2016) und IBMs Deep Blue, das 1997 einen Schachweltmeister besiegte.

Auch wenn sich solche Bedenken nicht bewahrheitet haben, lassen Sie uns entspannen und kurz den Mechanismus hinter der KI skizzieren.

Ausgehend von der linearen Regression, im Wesentlichen einer einfachen linearen Gleichung, wie z. B. dem Gewichtsverlustmechanismus von Jia Ling, einem berühmten chinesischen Schauspieler, können wir die folgende Verallgemeinerung vornehmen. Hier stellen x und y das Verhältnis zwischen Kalorienzufuhr und Gewicht dar, was darauf hinweist, dass eine natürlichere Ernährung zu einer Gewichtszunahme führt, und wenn Sie abnehmen möchten, sollten Sie weniger essen.

Dieser Ansatz bringt jedoch einige Probleme mit sich. Erstens gibt es physiologische Grenzen für die menschliche Größe und das Gewicht, und es ist unwahrscheinlich, dass man auf 3-Meter-Riesen oder tausend Kilogramm schwere Frauen trifft. Daher fehlt es der Betrachtung von Situationen, die über diese Grenzen hinausgehen, an praktischer Bedeutung. Zweitens entspricht es nicht den wissenschaftlichen Prinzipien der Gewichtsabnahme und kann in schweren Fällen dem Körper schaden, einfach weniger zu essen und mehr Sport zu treiben.

Wir stellen den Body-Mass-Index (BMI) vor, der das Verhältnis zwischen Gewicht und Größe misst, indem das Gewicht durch das Quadrat der Körpergröße geteilt wird. Durch drei Faktoren – Essen, Schlafen und Bewegung – benötigen wir nun drei Parameter und zwei Ausgaben, um das Verhältnis zwischen Größe und Gewicht zu beurteilen. Die lineare Regression ist offensichtlich unzureichend und führt zu neuronalen Netzen. Wie der Name schon sagt, ahmen neuronale Netze die Struktur des menschlichen Gehirns nach, mit der Möglichkeit, dass mehr Denken zu mehr Rationalität führt. Die Erhöhung der Häufigkeit und Tiefe des Denkens, bekannt als Deep Learning (ich mache hier eine etwas lockere Analogie), ermöglicht eine gründlichere Überlegung, bevor Maßnahmen ergriffen werden.


Kurzer Überblick über die Entwicklungsgeschichte von KI-Algorithmen

Die Zunahme der Anzahl der Schichten ist jedoch nicht unbegrenzt; Es gibt noch eine Obergrenze. Sobald eine kritische Schwelle erreicht ist, kann die Wirksamkeit abnehmen. Daher ist es wichtig, die Beziehung zwischen vorhandenen Informationen auf eine vernünftigere Weise zu verstehen. Zum Beispiel ein tiefes Verständnis für die nuanciertere Beziehung zwischen Größe und Gewicht, die Entdeckung bisher unbemerkter Faktoren oder Jia Ling, die einen Top-Coach findet, aber zögert, ihren Wunsch nach Gewichtsabnahme direkt auszudrücken.


In solchen Szenarien bilden Jia Ling und der Coach beim Kodieren und Dekodieren Gegenspieler und vermitteln Bedeutungen hin und her, die die wahren Absichten beider Parteien repräsentieren. Im Gegensatz zu der einfachen Aussage "Ich möchte abnehmen, hier ist ein Geschenk für den Trainer" verbergen sich jedoch die wahren Absichten beider Seiten hinter der "Bedeutung".

Wir bemerken eine Tatsache: Wenn die Anzahl der Iterationen zwischen den beiden Parteien ausreicht, werden die Bedeutungen jeder Kommunikation leichter zu entschlüsseln.

Wenn wir dieses Modell erweitern, stellt es ein so genanntes Large Language Model (LLM) dar, das kontextuelle Beziehungen zwischen Wörtern und Sätzen untersucht. Derzeit wurden große Modelle erweitert, um Szenarien wie Bilder und Videos zu untersuchen.

Im Spektrum der KI, egal ob es sich um eine einfache lineare Regression oder einen extrem komplexen Transformer handelt, handelt es sich um Algorithmen oder Modelle. Hinzu kommen zwei wesentliche Faktoren: Rechenleistung und Daten.


Beschreibung: Kurze Entwicklungsgeschichte der KI, Quelle: https://ourworldindata.org/brief-history-of-ai

Einfach ausgedrückt ist KI eine Maschine, die Daten verarbeitet, Berechnungen durchführt und Ergebnisse liefert. Im Vergleich zu physischen Entitäten wie Robotern ist KI jedoch virtueller. In Bezug auf Rechenleistung, Daten und Modelle sieht der aktuelle Betriebsprozess bei der Web2-Kommerzialisierung wie folgt aus:

  • Die Daten werden in öffentliche Daten, unternehmenseigene Daten und kommerzielle Daten unterteilt, die eine professionelle Annotation und Vorverarbeitung erfordern. Scale AI bietet beispielsweise Datenvorverarbeitung für Mainstream-KI-Unternehmen.
  • Die Rechenleistung wird in zwei Modi unterteilt: Self-Built und Cloud-Computing-Leasing. Derzeit dominiert NVIDIA die GPU-Hardware, und die CUDA-Bibliothek wird seit vielen Jahren vorbereitet. Das Hard- und Software-Ökosystem wird von einem Unternehmen dominiert. Die zweite Option ist das Leasing von Rechenleistung durch Cloud-Service-Provider, wie z. B. Microsofts Azure, Google Cloud und AWS, die Computing- und Modellbereitstellungsdienste aus einer Hand anbieten.
  • Modelle können in Frameworks und Algorithmen eingeteilt werden. Der Kampf der Modelle ist bereits beendet, wobei Googles TensorFlow als erster hervorging, während er den anfänglichen Rückschlag hinnehmen musste, und Metas PyTorch kam später, aber führend. Unabhängig davon, ob es sich um Google handelt, das den Transformer eingeführt hat, oder um Meta mit PyTorch, beide fallen bei der Kommerzialisierung allmählich hinter OpenAI zurück. Nichtsdestotrotz bleibt ihre Stärke beeindruckend; Algorithmen werden derzeit von Transformer dominiert, und verschiedene große Modelle konkurrieren hauptsächlich in Bezug auf Datenquellen und Details.


Arbeitsprozess der KI

Wie bereits erwähnt, haben KI-Anwendungen eine breite Palette von Domänen, wie z.B. die von Vitalik erwähnte Code-Korrektur, die bereits in Betrieb genommen wurde. Aus einer anderen Perspektive betrachtet, konzentriert sich der Beitrag von Crypto zur KI in erster Linie auf nicht-technische Bereiche, wie z. B. dezentrale Datenmärkte, dezentrale Rechenleistungsplattformen usw. Es gab einige Experimente mit dezentralen Large Language Models (LLMs). Es ist jedoch wichtig zu beachten, dass die Analyse von Krypto-Code mit KI und das Ausführen groß angelegter KI-Modelle auf der Blockchain grundlegend unterschiedlich sind. Die Integration einiger Crypto-Elemente in KI-Modelle kann kaum als perfekte Integration angesehen werden.

Derzeit zeichnet sich Crypto durch Produktion und Anreize aus. Es ist unnötig, das Produktionsparadigma von KI mit Krypto zwangsweise zu ändern. Die rationale Entscheidung besteht darin, Crypto in KI-Workflows zu integrieren und KI mit Crypto zu stärken. Hier sind einige mögliche Integrationen, die ich zusammengefasst habe:

  1. Dezentrale Datenproduktion, wie z. B. die Datenerfassung von DePIN, und die Offenheit von On-Chain-Daten, die umfangreiche Transaktionsdaten für Finanzanalysen, Sicherheitsanalysen und Datenschulungen enthalten.
  2. Dezentrale Vorverarbeitungsplattformen, bei denen die traditionelle Vorschulung keine unüberwindbaren technischen Barrieren darstellt. Hinter den großen Modellen in Europa und den Vereinigten Staaten steckt die hochintensive Arbeit der manuellen Kommentatoren der Dritten Welt.
  3. Dezentrale Rechenleistungsplattformen mit dezentralen Anreizen und Nutzung von persönlicher Bandbreite, GPU-Rechenleistung und anderen Hardwareressourcen.
  4. zkML, da traditionelle Datenschutzmethoden wie die Datendesensibilisierung das Problem möglicherweise nicht vollständig lösen. zkML kann die Datendirektionalität verbergen und die Authentizität und Effektivität von Open-Source- und Closed-Source-Modellen effektiv bewerten.

Diese vier Aspekte sind mögliche Szenarien, von denen ich denke, dass Krypto KI stärken kann. KI ist ein vielseitiges Werkzeug, und die Bereiche und Projekte von KI für Krypto werden hier nicht weiter diskutiert; Sie können sie auf eigene Faust erkunden.

Es ist zu beobachten, dass Krypto derzeit vor allem eine Rolle bei der Verschlüsselung, dem Schutz der Privatsphäre und der wirtschaftlichen Gestaltung spielt. Der einzige technische Integrationsversuch ist zkML. Lassen Sie uns hier ein wenig brainstormen: Wenn Solana TPS in Zukunft wirklich 100.000+ erreichen kann und wenn die Kombination von Filecoin und Solana perfekt ist, könnten wir dann eine On-Chain-LLM-Umgebung schaffen? Dies könnte möglicherweise eine echte On-Chain-KI etablieren und die derzeitige ungleiche Beziehung, in der Krypto in KI integriert ist, verändern.

Web3-Integration in KI-Workflows

Die NVIDIA RTX 4090 Grafikkarte ist bekanntlich ein wertvolles Gut, das derzeit in einem bestimmten ostasiatischen Land schwer zu bekommen ist. Noch gravierender ist, dass auch Einzelpersonen, kleine Unternehmen und akademische Einrichtungen mit einer Grafikkartenkrise konfrontiert sind. Schließlich sind große Handelsunternehmen die großen Geldgeber. Wenn ein dritter Weg außerhalb von persönlichen Einkäufen und Cloud-Anbietern eröffnet werden könnte, hätte dies eindeutig einen praktischen Geschäftswert und würde sich von rein spekulativen Zwecken lösen. Der logische Ansatz von Web3 für KI sollte lauten: "Wenn Web3 nicht genutzt wird, kann das Projekt nicht aufrechterhalten werden."


KI-Workflow aus der Web3-Perspektive

Datenquelle: Grass und DePIN Automotive Ecosystem

Grass, eingeführt von Wynd Network, ist ein Marktplatz für den Verkauf von ungenutzter Bandbreite. Grass dient als offenes Netzwerk für die Datenerfassung und -verteilung und unterscheidet sich von der einfachen Datenerfassung und dem reinen Verkauf. Grass verfügt über Funktionen zur Bereinigung und Validierung von Daten, um sich in der zunehmend geschlossenen Netzwerkumgebung zurechtzufinden. Darüber hinaus strebt Grass eine direkte Schnittstelle zu KI-Modellen an, um ihnen leicht nutzbare Datensätze zur Verfügung zu stellen. KI-Datensätze erfordern eine professionelle Handhabung, einschließlich umfangreicher manueller Feinabstimmung, um den spezifischen Anforderungen von KI-Modellen gerecht zu werden.

Darauf aufbauend befasst sich Grass mit dem Thema Datenverkauf, während der DePIN-Sektor des Web3 die von der KI benötigten Daten produzieren kann. In diesem Bereich geht es vor allem um das automatisierte Fahren von Fahrzeugen. Traditionell erforderte das autonome Fahren, dass Unternehmen entsprechende Daten sammeln. Projekte wie DIMO und Hivemapper arbeiten jedoch direkt an Fahrzeugen und sammeln eine wachsende Menge an Fahrinformationen und Straßendaten.

In bisherigen Szenarien des autonomen Fahrens waren Technologie zur Fahrzeugerkennung und hochpräzise Karten unerlässlich. Informationen wie hochpräzise Karten wurden von Unternehmen wie NavInfo gesammelt, was zu Barrieren in der Branche führt. Wenn Newcomer Web3-Daten nutzen, haben sie möglicherweise die Möglichkeit, Konkurrenten auf Anhieb zu überholen.

Datenvorverarbeitung: Befreiung von Menschen, die von KI versklavt wurden

Künstliche Intelligenz kann in zwei Teile unterteilt werden: manuelle Annotation und intelligente Algorithmen. In Dritte-Welt-Regionen wie Kenia und den Philippinen, wo die Wertkurve für die manuelle Annotation am niedrigsten ist, sind Menschen für diese Aufgabe verantwortlich. In der Zwischenzeit nehmen KI-Vorverarbeitungsunternehmen in Europa und den Vereinigten Staaten den Löwenanteil der Einnahmen ein und verkaufen sie anschließend an KI-Forschungs- und Entwicklungsunternehmen.

Mit der Weiterentwicklung der KI haben immer mehr Unternehmen ein Auge auf dieses Geschäft geworfen. Angesichts des Wettbewerbs sinkt der Einheitspreis für Datenannotationen weiter. Bei diesem Geschäft geht es hauptsächlich um die Kennzeichnung von Daten, ähnlich wie bei der Erkennung von Captchas, ohne technische Schwelle und sogar mit extrem niedrigen Preisen wie 0,01 RMB.


Quelle: https://aim.baidu.com/product/0793f1f1-f1cb-4f9f-b3a7-ef31335bd7f0

In diesem Szenario haben Web3-Datenannotationsplattformen wie Public AI einen praktischen Geschäftsmarkt. Sie verbinden KI-Unternehmen mit Datenannotationsarbeitern und ersetzen ein einfaches Niedrigpreis-Wettbewerbsmodell durch ein Anreizsystem. Es ist jedoch wichtig zu beachten, dass ausgereifte Unternehmen wie Scale AI eine zuverlässige Qualität in der Annotationstechnologie garantieren. Für dezentrale Datenannotationsplattformen sind die Kontrolle der Qualität und die Verhinderung von Missbrauch absolute Notwendigkeiten. Im Wesentlichen handelt es sich dabei um einen C2B2B-Enterprise-Service, bei dem die schiere Datenmenge allein die Unternehmen nicht überzeugen kann.

Hardware-Freiheit: Netzwerk und Bittensor rendern

Es sollte klargestellt werden, dass es im Gegensatz zu Bitcoin-Mining-Rigs derzeit keine dedizierte Web3-KI-Hardware gibt. Bestehende Rechenleistung und Plattformen werden von ausgereifter Hardware in zusätzliche Krypto-Anreizschichten umgewandelt, die im Wesentlichen unter den DePIN-Sektor fallen. Da es sich jedoch von Datenquellenprojekten unterscheidet, ist es hier im KI-Workflow enthalten.

Für die Definition von DePIN lesen Sie bitte den Artikel, den ich zuvor geschrieben habe: DePIN vor Helium: Erkundung von Bitcoin, Arweave und STEPN

Render Network ist ein seit langem etabliertes Projekt, das ursprünglich nicht für KI konzipiert wurde. Es nahm 2017 den Betrieb auf und konzentrierte sich, wie der Name schon sagt, auf das Rendering. Zu dieser Zeit waren GPUs noch nicht gefragt, aber nach und nach ergaben sich Marktchancen. Der GPU-Markt, insbesondere die von NVIDIA monopolisierten High-End-GPUs, behinderte den Eintritt von Rendering-, KI- und Metaverse-Nutzern aufgrund exorbitanter Preise. Wenn es gelänge, einen Kanal zwischen Angebot und Nachfrage zu schaffen, hätte ein Wirtschaftsmodell ähnlich dem Fahrradverleih eine Chance, sich zu etablieren.

Darüber hinaus erfordern GPU-Ressourcen keine tatsächliche Übertragung von Hardware. Sie können mithilfe von Softwareressourcen zugewiesen werden. Erwähnenswert ist, dass Render Network im Jahr 2023 auf das Solana-Ökosystem umgestiegen ist und Polygon aufgegeben hat. Der Wechsel zu Solana hat sich schon vor seinem Wiederaufleben im Laufe der Zeit als richtige Entscheidung erwiesen. Für die GPU-Nutzung und -Verteilung ist ein Hochgeschwindigkeitsnetzwerk eine entscheidende Voraussetzung.

Wenn Render Network als etabliertes Projekt betrachtet werden kann, gewinnt Bittensor derzeit an Dynamik.

BitTensor baut auf Polkadot auf, mit dem Ziel, KI-Modelle durch wirtschaftliche Anreize zu trainieren. Nodes konkurrieren darum, KI-Modelle mit minimalem Fehler oder maximaler Effizienz zu trainieren, ähnlich wie klassische On-Chain-Prozesse in Crypto-Projekten. Der eigentliche Trainingsprozess erfordert jedoch immer noch NVIDIA-GPUs und traditionelle Plattformen, wodurch er Wettkampfplattformen wie Kaggle ähnelt.

zkML und BGE: Die dualen Aspekte von Worldcoin

Zero-Knowledge Machine Learning (zkML) führt die zk-Technologie in den KI-Modelltrainingsprozess ein, um Probleme wie Datenlecks, Datenschutzfehler und Modellüberprüfung zu beheben. Die ersten beiden sind leicht zu verstehen – zk-verschlüsselte Daten können weiterhin trainiert werden, ohne dass persönliche oder private Informationen durchsickern.

Die Modellverifizierung bezieht sich auf die Bewertung von Closed-Source-Modellen. Mit der zk-Technologie kann ein Zielwert festgelegt werden, der es Closed-Source-Modellen ermöglicht, ihre Leistungsfähigkeit durch Ergebnisverifizierung unter Beweis zu stellen, ohne den Berechnungsprozess offenzulegen.

Worldcoin hat nicht nur zkML schon früh ins Auge gefasst, sondern setzt sich auch für ein bedingungsloses Grundeinkommen (BGE) ein. In seiner Vision wird die zukünftige KI-Produktivität die Grenzen der menschlichen Nachfrage weit überschreiten. Die eigentliche Herausforderung besteht in der gerechten Verteilung der KI-Vorteile, und das BGE-Konzept soll über den $WLD-Token weltweit verbreitet werden, was eine biometrische Erkennung von realen Personen erfordert, um den Fairness-Prinzipien zu entsprechen.

Natürlich befinden sich zkML und BGE noch in einem frühen experimentellen Stadium, aber es sind faszinierende Entwicklungen, die ich weiterhin genau verfolgen werde.

Schlussfolgerung

Die Entwicklung von KI, die durch Transformer und Large Language Models (LLMs) repräsentiert wird, stößt allmählich auf Engpässe, ähnlich wie bei linearer Regression und neuronalen Netzen. Es ist nicht möglich, die Modellparameter oder das Datenvolumen unbegrenzt zu erhöhen, da die Grenzerträge abnehmen.

KI mag der Saatgutspieler sein, der mit Weisheit hervorgeht, aber das Problem der Halluzination ist derzeit schwerwiegend. Es kann beobachtet werden, dass der Glaube, dass Krypto KI verändern kann, eine Form des Vertrauens und eine Standardhalluzination ist. Auch wenn die Hinzufügung von Krypto die Halluzinationsprobleme technisch nicht lösen kann, kann sie zumindest einige Aspekte aus Sicht der Fairness und Transparenz ändern.

Referenzen:

  1. OpenAI: "GPT-4 Technical Report", 2023; arXiv:2303.08774.
  2. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: "Aufmerksamkeit ist alles, was du brauchst", 2017; arXiv:1706.03762.
  3. Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei: "Skalierungsgesetze für neuronale Sprachmodelle", 2020; arXiv:2001.08361.
  4. Hao Liu, Wilson Yan, Matei Zaharia, Pieter Abbeel: "Weltmodell für millionenlange Videos und Sprache mit RingAttention", 2024; arXiv:2402.08268.
  5. Max Roser (2022) - "Die kurze Geschichte der Künstlichen Intelligenz: Die Welt hat sich schnell verändert – was könnte als nächstes kommen?" Online veröffentlicht bei OurWorldInData.org. Abgerufen von: 'https://ourworldindata.org/brief-history-of-ai' [Online-Ressource]
  6. Eine Einführung in das Zero-Knowledge-Machine-Learning (ZKML)
  7. Die Schnittmenge von Krypto und KI verstehen
  8. Gras ist die Datenschicht der KI
  9. Bittensor: Ein Peer-to-Peer-Intelligence-Markt

Verzichtserklärung:

  1. Dieser Artikel ist ein Nachdruck von [佐爷歪脖山], Alle Urheberrechte liegen beim ursprünglichen Autor [佐爷]. Wenn es Einwände gegen diesen Nachdruck gibt, wenden Sie sich bitte an das Gate Learn-Team , das sich umgehend darum kümmern wird.
  2. Haftungsausschluss: Die in diesem Artikel geäußerten Ansichten und Meinungen sind ausschließlich die des Autors und stellen keine Anlageberatung dar.
  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verbreiten oder Plagiieren der übersetzten Artikel verboten.

Krypto als Illusion von KI

Fortgeschrittene3/5/2024, 10:04:31 AM
Dieser Artikel befasst sich mit der potenziellen Integration von KI und Kryptowährungen und betont, dass eine echte Integration die Integration von Krypto in KI-Workflows und die Stärkung von KI mit Krypto beinhaltet.
  • Emergenz: Das Phänomen, bei dem viele kleine Einheiten interagieren, um ein größeres Ganzes zu erzeugen, das neue Eigenschaften aufweist, die die einzelnen Komponenten nicht besitzen, wie z. B. die Emergenz, die in biologischen Systemen beobachtet wird, die in der Chemie untersucht werden.
  • Halluzination: Die Tendenz von Modellen, irreführende Daten zu produzieren, wobei KI-Modelle Ergebnisse erzeugen, die korrekt erscheinen, aber in Wirklichkeit fehlerhaft sind.

Die Verbindung zwischen KI und Krypto hat deutliche Wellen gezeigt. Seit AlphaGo im Jahr 2016 menschliche professionelle Go-Spieler besiegt hat, wurden in der Kryptowelt Versuche beobachtet, die beiden zu kombinieren, wie z. B. das spontane Auftauchen von Projekten wie Fetch.AI. Mit dem Aufkommen von GPT-4 im Jahr 2023 ist der Trend zu KI + Krypto wieder aufgeflammt, wie die Ausgabe von WorldCoin zeigt. Die Menschheit scheint bereit zu sein, in eine utopische Ära einzutreten, in der KI für die Produktivität verantwortlich ist und Crypto den Vertrieb übernimmt.

Diese Stimmung erreichte ihren Höhepunkt, nachdem OpenAI die Sora-Anwendung für die Text-zu-Video-Synthese auf den Markt gebracht hatte. Emotionen beinhalten jedoch oft irrationale Elemente. Li Yizhou zum Beispiel scheint Teil des missverstandenen Segments zu sein, das sich in folgenden Beispielen zeigt:

  • Die Verschmelzung spezifischer KI-Anwendungen mit der Entwicklung von Algorithmen. Während Sora und die zugrundeliegenden Transformer-Prinzipien von GPT-4 Open Source sind, erfordert die Nutzung beider eine Zahlung an OpenAI.
  • Die Kombination von KI und Krypto ist derzeit eher so, dass Crypto die Initiative ergreift, um sich der KI zu nähern, da die großen KI-Giganten keine klare Bereitschaft gezeigt haben. Zum jetzigen Zeitpunkt überwiegt das, was KI für Krypto tun kann, das, was Krypto für KI tun kann.
  • Der Einsatz von KI-Technologie in Crypto-Anwendungen ist nicht gleichbedeutend mit der Integration von KI und Krypto, wie sie in Anwendungen wie Blockchain-Gaming, GameFi, Metaverse-Projekten, Web3-Spielen und den digitalen Personas im AW-Universum zu sehen ist.
  • Die Beiträge, die Crypto zur Entwicklung der KI-Technologie leisten kann, umfassen in erster Linie Dezentralisierung und Token-Anreize in den drei KI-Komponenten: Rechenleistung, Daten und Modelle.
  • WorldCoin dient als erfolgreiche Integration von beidem, wobei zkML an der Schnittstelle von KI- und Krypto-Technologien positioniert ist und die BGE-Theorie (Universal Basic Income) ihre erste groß angelegte Implementierung erlebt.

In diesem Artikel wird der Fokus auf den Vorteilen liegen, die Krypto für die KI bringen kann, da aktuelle Crypto-Projekte, die KI-Anwendungen betonen, meist als Marketing-Gimmicks angesehen werden und unserer Diskussion nicht zuträglich sind.

Von der linearen Regression zum Transformer

Lange Zeit drehte sich die Diskussion um KI um die Frage, ob das "Auftauchen" der künstlichen Intelligenz zur Erschaffung von fühlenden Wesen führen wird, die denen in "The Matrix" ähneln, oder zu einer auf Silizium basierenden Zivilisation. Die Besorgnis über die Interaktion zwischen Menschen und KI-Technologien hält sich hartnäckig, mit jüngsten Beispielen wie dem Aufkommen von Sora und früheren Fällen wie GPT-4 (2023), AlphaGo (2016) und IBMs Deep Blue, das 1997 einen Schachweltmeister besiegte.

Auch wenn sich solche Bedenken nicht bewahrheitet haben, lassen Sie uns entspannen und kurz den Mechanismus hinter der KI skizzieren.

Ausgehend von der linearen Regression, im Wesentlichen einer einfachen linearen Gleichung, wie z. B. dem Gewichtsverlustmechanismus von Jia Ling, einem berühmten chinesischen Schauspieler, können wir die folgende Verallgemeinerung vornehmen. Hier stellen x und y das Verhältnis zwischen Kalorienzufuhr und Gewicht dar, was darauf hinweist, dass eine natürlichere Ernährung zu einer Gewichtszunahme führt, und wenn Sie abnehmen möchten, sollten Sie weniger essen.

Dieser Ansatz bringt jedoch einige Probleme mit sich. Erstens gibt es physiologische Grenzen für die menschliche Größe und das Gewicht, und es ist unwahrscheinlich, dass man auf 3-Meter-Riesen oder tausend Kilogramm schwere Frauen trifft. Daher fehlt es der Betrachtung von Situationen, die über diese Grenzen hinausgehen, an praktischer Bedeutung. Zweitens entspricht es nicht den wissenschaftlichen Prinzipien der Gewichtsabnahme und kann in schweren Fällen dem Körper schaden, einfach weniger zu essen und mehr Sport zu treiben.

Wir stellen den Body-Mass-Index (BMI) vor, der das Verhältnis zwischen Gewicht und Größe misst, indem das Gewicht durch das Quadrat der Körpergröße geteilt wird. Durch drei Faktoren – Essen, Schlafen und Bewegung – benötigen wir nun drei Parameter und zwei Ausgaben, um das Verhältnis zwischen Größe und Gewicht zu beurteilen. Die lineare Regression ist offensichtlich unzureichend und führt zu neuronalen Netzen. Wie der Name schon sagt, ahmen neuronale Netze die Struktur des menschlichen Gehirns nach, mit der Möglichkeit, dass mehr Denken zu mehr Rationalität führt. Die Erhöhung der Häufigkeit und Tiefe des Denkens, bekannt als Deep Learning (ich mache hier eine etwas lockere Analogie), ermöglicht eine gründlichere Überlegung, bevor Maßnahmen ergriffen werden.


Kurzer Überblick über die Entwicklungsgeschichte von KI-Algorithmen

Die Zunahme der Anzahl der Schichten ist jedoch nicht unbegrenzt; Es gibt noch eine Obergrenze. Sobald eine kritische Schwelle erreicht ist, kann die Wirksamkeit abnehmen. Daher ist es wichtig, die Beziehung zwischen vorhandenen Informationen auf eine vernünftigere Weise zu verstehen. Zum Beispiel ein tiefes Verständnis für die nuanciertere Beziehung zwischen Größe und Gewicht, die Entdeckung bisher unbemerkter Faktoren oder Jia Ling, die einen Top-Coach findet, aber zögert, ihren Wunsch nach Gewichtsabnahme direkt auszudrücken.


In solchen Szenarien bilden Jia Ling und der Coach beim Kodieren und Dekodieren Gegenspieler und vermitteln Bedeutungen hin und her, die die wahren Absichten beider Parteien repräsentieren. Im Gegensatz zu der einfachen Aussage "Ich möchte abnehmen, hier ist ein Geschenk für den Trainer" verbergen sich jedoch die wahren Absichten beider Seiten hinter der "Bedeutung".

Wir bemerken eine Tatsache: Wenn die Anzahl der Iterationen zwischen den beiden Parteien ausreicht, werden die Bedeutungen jeder Kommunikation leichter zu entschlüsseln.

Wenn wir dieses Modell erweitern, stellt es ein so genanntes Large Language Model (LLM) dar, das kontextuelle Beziehungen zwischen Wörtern und Sätzen untersucht. Derzeit wurden große Modelle erweitert, um Szenarien wie Bilder und Videos zu untersuchen.

Im Spektrum der KI, egal ob es sich um eine einfache lineare Regression oder einen extrem komplexen Transformer handelt, handelt es sich um Algorithmen oder Modelle. Hinzu kommen zwei wesentliche Faktoren: Rechenleistung und Daten.


Beschreibung: Kurze Entwicklungsgeschichte der KI, Quelle: https://ourworldindata.org/brief-history-of-ai

Einfach ausgedrückt ist KI eine Maschine, die Daten verarbeitet, Berechnungen durchführt und Ergebnisse liefert. Im Vergleich zu physischen Entitäten wie Robotern ist KI jedoch virtueller. In Bezug auf Rechenleistung, Daten und Modelle sieht der aktuelle Betriebsprozess bei der Web2-Kommerzialisierung wie folgt aus:

  • Die Daten werden in öffentliche Daten, unternehmenseigene Daten und kommerzielle Daten unterteilt, die eine professionelle Annotation und Vorverarbeitung erfordern. Scale AI bietet beispielsweise Datenvorverarbeitung für Mainstream-KI-Unternehmen.
  • Die Rechenleistung wird in zwei Modi unterteilt: Self-Built und Cloud-Computing-Leasing. Derzeit dominiert NVIDIA die GPU-Hardware, und die CUDA-Bibliothek wird seit vielen Jahren vorbereitet. Das Hard- und Software-Ökosystem wird von einem Unternehmen dominiert. Die zweite Option ist das Leasing von Rechenleistung durch Cloud-Service-Provider, wie z. B. Microsofts Azure, Google Cloud und AWS, die Computing- und Modellbereitstellungsdienste aus einer Hand anbieten.
  • Modelle können in Frameworks und Algorithmen eingeteilt werden. Der Kampf der Modelle ist bereits beendet, wobei Googles TensorFlow als erster hervorging, während er den anfänglichen Rückschlag hinnehmen musste, und Metas PyTorch kam später, aber führend. Unabhängig davon, ob es sich um Google handelt, das den Transformer eingeführt hat, oder um Meta mit PyTorch, beide fallen bei der Kommerzialisierung allmählich hinter OpenAI zurück. Nichtsdestotrotz bleibt ihre Stärke beeindruckend; Algorithmen werden derzeit von Transformer dominiert, und verschiedene große Modelle konkurrieren hauptsächlich in Bezug auf Datenquellen und Details.


Arbeitsprozess der KI

Wie bereits erwähnt, haben KI-Anwendungen eine breite Palette von Domänen, wie z.B. die von Vitalik erwähnte Code-Korrektur, die bereits in Betrieb genommen wurde. Aus einer anderen Perspektive betrachtet, konzentriert sich der Beitrag von Crypto zur KI in erster Linie auf nicht-technische Bereiche, wie z. B. dezentrale Datenmärkte, dezentrale Rechenleistungsplattformen usw. Es gab einige Experimente mit dezentralen Large Language Models (LLMs). Es ist jedoch wichtig zu beachten, dass die Analyse von Krypto-Code mit KI und das Ausführen groß angelegter KI-Modelle auf der Blockchain grundlegend unterschiedlich sind. Die Integration einiger Crypto-Elemente in KI-Modelle kann kaum als perfekte Integration angesehen werden.

Derzeit zeichnet sich Crypto durch Produktion und Anreize aus. Es ist unnötig, das Produktionsparadigma von KI mit Krypto zwangsweise zu ändern. Die rationale Entscheidung besteht darin, Crypto in KI-Workflows zu integrieren und KI mit Crypto zu stärken. Hier sind einige mögliche Integrationen, die ich zusammengefasst habe:

  1. Dezentrale Datenproduktion, wie z. B. die Datenerfassung von DePIN, und die Offenheit von On-Chain-Daten, die umfangreiche Transaktionsdaten für Finanzanalysen, Sicherheitsanalysen und Datenschulungen enthalten.
  2. Dezentrale Vorverarbeitungsplattformen, bei denen die traditionelle Vorschulung keine unüberwindbaren technischen Barrieren darstellt. Hinter den großen Modellen in Europa und den Vereinigten Staaten steckt die hochintensive Arbeit der manuellen Kommentatoren der Dritten Welt.
  3. Dezentrale Rechenleistungsplattformen mit dezentralen Anreizen und Nutzung von persönlicher Bandbreite, GPU-Rechenleistung und anderen Hardwareressourcen.
  4. zkML, da traditionelle Datenschutzmethoden wie die Datendesensibilisierung das Problem möglicherweise nicht vollständig lösen. zkML kann die Datendirektionalität verbergen und die Authentizität und Effektivität von Open-Source- und Closed-Source-Modellen effektiv bewerten.

Diese vier Aspekte sind mögliche Szenarien, von denen ich denke, dass Krypto KI stärken kann. KI ist ein vielseitiges Werkzeug, und die Bereiche und Projekte von KI für Krypto werden hier nicht weiter diskutiert; Sie können sie auf eigene Faust erkunden.

Es ist zu beobachten, dass Krypto derzeit vor allem eine Rolle bei der Verschlüsselung, dem Schutz der Privatsphäre und der wirtschaftlichen Gestaltung spielt. Der einzige technische Integrationsversuch ist zkML. Lassen Sie uns hier ein wenig brainstormen: Wenn Solana TPS in Zukunft wirklich 100.000+ erreichen kann und wenn die Kombination von Filecoin und Solana perfekt ist, könnten wir dann eine On-Chain-LLM-Umgebung schaffen? Dies könnte möglicherweise eine echte On-Chain-KI etablieren und die derzeitige ungleiche Beziehung, in der Krypto in KI integriert ist, verändern.

Web3-Integration in KI-Workflows

Die NVIDIA RTX 4090 Grafikkarte ist bekanntlich ein wertvolles Gut, das derzeit in einem bestimmten ostasiatischen Land schwer zu bekommen ist. Noch gravierender ist, dass auch Einzelpersonen, kleine Unternehmen und akademische Einrichtungen mit einer Grafikkartenkrise konfrontiert sind. Schließlich sind große Handelsunternehmen die großen Geldgeber. Wenn ein dritter Weg außerhalb von persönlichen Einkäufen und Cloud-Anbietern eröffnet werden könnte, hätte dies eindeutig einen praktischen Geschäftswert und würde sich von rein spekulativen Zwecken lösen. Der logische Ansatz von Web3 für KI sollte lauten: "Wenn Web3 nicht genutzt wird, kann das Projekt nicht aufrechterhalten werden."


KI-Workflow aus der Web3-Perspektive

Datenquelle: Grass und DePIN Automotive Ecosystem

Grass, eingeführt von Wynd Network, ist ein Marktplatz für den Verkauf von ungenutzter Bandbreite. Grass dient als offenes Netzwerk für die Datenerfassung und -verteilung und unterscheidet sich von der einfachen Datenerfassung und dem reinen Verkauf. Grass verfügt über Funktionen zur Bereinigung und Validierung von Daten, um sich in der zunehmend geschlossenen Netzwerkumgebung zurechtzufinden. Darüber hinaus strebt Grass eine direkte Schnittstelle zu KI-Modellen an, um ihnen leicht nutzbare Datensätze zur Verfügung zu stellen. KI-Datensätze erfordern eine professionelle Handhabung, einschließlich umfangreicher manueller Feinabstimmung, um den spezifischen Anforderungen von KI-Modellen gerecht zu werden.

Darauf aufbauend befasst sich Grass mit dem Thema Datenverkauf, während der DePIN-Sektor des Web3 die von der KI benötigten Daten produzieren kann. In diesem Bereich geht es vor allem um das automatisierte Fahren von Fahrzeugen. Traditionell erforderte das autonome Fahren, dass Unternehmen entsprechende Daten sammeln. Projekte wie DIMO und Hivemapper arbeiten jedoch direkt an Fahrzeugen und sammeln eine wachsende Menge an Fahrinformationen und Straßendaten.

In bisherigen Szenarien des autonomen Fahrens waren Technologie zur Fahrzeugerkennung und hochpräzise Karten unerlässlich. Informationen wie hochpräzise Karten wurden von Unternehmen wie NavInfo gesammelt, was zu Barrieren in der Branche führt. Wenn Newcomer Web3-Daten nutzen, haben sie möglicherweise die Möglichkeit, Konkurrenten auf Anhieb zu überholen.

Datenvorverarbeitung: Befreiung von Menschen, die von KI versklavt wurden

Künstliche Intelligenz kann in zwei Teile unterteilt werden: manuelle Annotation und intelligente Algorithmen. In Dritte-Welt-Regionen wie Kenia und den Philippinen, wo die Wertkurve für die manuelle Annotation am niedrigsten ist, sind Menschen für diese Aufgabe verantwortlich. In der Zwischenzeit nehmen KI-Vorverarbeitungsunternehmen in Europa und den Vereinigten Staaten den Löwenanteil der Einnahmen ein und verkaufen sie anschließend an KI-Forschungs- und Entwicklungsunternehmen.

Mit der Weiterentwicklung der KI haben immer mehr Unternehmen ein Auge auf dieses Geschäft geworfen. Angesichts des Wettbewerbs sinkt der Einheitspreis für Datenannotationen weiter. Bei diesem Geschäft geht es hauptsächlich um die Kennzeichnung von Daten, ähnlich wie bei der Erkennung von Captchas, ohne technische Schwelle und sogar mit extrem niedrigen Preisen wie 0,01 RMB.


Quelle: https://aim.baidu.com/product/0793f1f1-f1cb-4f9f-b3a7-ef31335bd7f0

In diesem Szenario haben Web3-Datenannotationsplattformen wie Public AI einen praktischen Geschäftsmarkt. Sie verbinden KI-Unternehmen mit Datenannotationsarbeitern und ersetzen ein einfaches Niedrigpreis-Wettbewerbsmodell durch ein Anreizsystem. Es ist jedoch wichtig zu beachten, dass ausgereifte Unternehmen wie Scale AI eine zuverlässige Qualität in der Annotationstechnologie garantieren. Für dezentrale Datenannotationsplattformen sind die Kontrolle der Qualität und die Verhinderung von Missbrauch absolute Notwendigkeiten. Im Wesentlichen handelt es sich dabei um einen C2B2B-Enterprise-Service, bei dem die schiere Datenmenge allein die Unternehmen nicht überzeugen kann.

Hardware-Freiheit: Netzwerk und Bittensor rendern

Es sollte klargestellt werden, dass es im Gegensatz zu Bitcoin-Mining-Rigs derzeit keine dedizierte Web3-KI-Hardware gibt. Bestehende Rechenleistung und Plattformen werden von ausgereifter Hardware in zusätzliche Krypto-Anreizschichten umgewandelt, die im Wesentlichen unter den DePIN-Sektor fallen. Da es sich jedoch von Datenquellenprojekten unterscheidet, ist es hier im KI-Workflow enthalten.

Für die Definition von DePIN lesen Sie bitte den Artikel, den ich zuvor geschrieben habe: DePIN vor Helium: Erkundung von Bitcoin, Arweave und STEPN

Render Network ist ein seit langem etabliertes Projekt, das ursprünglich nicht für KI konzipiert wurde. Es nahm 2017 den Betrieb auf und konzentrierte sich, wie der Name schon sagt, auf das Rendering. Zu dieser Zeit waren GPUs noch nicht gefragt, aber nach und nach ergaben sich Marktchancen. Der GPU-Markt, insbesondere die von NVIDIA monopolisierten High-End-GPUs, behinderte den Eintritt von Rendering-, KI- und Metaverse-Nutzern aufgrund exorbitanter Preise. Wenn es gelänge, einen Kanal zwischen Angebot und Nachfrage zu schaffen, hätte ein Wirtschaftsmodell ähnlich dem Fahrradverleih eine Chance, sich zu etablieren.

Darüber hinaus erfordern GPU-Ressourcen keine tatsächliche Übertragung von Hardware. Sie können mithilfe von Softwareressourcen zugewiesen werden. Erwähnenswert ist, dass Render Network im Jahr 2023 auf das Solana-Ökosystem umgestiegen ist und Polygon aufgegeben hat. Der Wechsel zu Solana hat sich schon vor seinem Wiederaufleben im Laufe der Zeit als richtige Entscheidung erwiesen. Für die GPU-Nutzung und -Verteilung ist ein Hochgeschwindigkeitsnetzwerk eine entscheidende Voraussetzung.

Wenn Render Network als etabliertes Projekt betrachtet werden kann, gewinnt Bittensor derzeit an Dynamik.

BitTensor baut auf Polkadot auf, mit dem Ziel, KI-Modelle durch wirtschaftliche Anreize zu trainieren. Nodes konkurrieren darum, KI-Modelle mit minimalem Fehler oder maximaler Effizienz zu trainieren, ähnlich wie klassische On-Chain-Prozesse in Crypto-Projekten. Der eigentliche Trainingsprozess erfordert jedoch immer noch NVIDIA-GPUs und traditionelle Plattformen, wodurch er Wettkampfplattformen wie Kaggle ähnelt.

zkML und BGE: Die dualen Aspekte von Worldcoin

Zero-Knowledge Machine Learning (zkML) führt die zk-Technologie in den KI-Modelltrainingsprozess ein, um Probleme wie Datenlecks, Datenschutzfehler und Modellüberprüfung zu beheben. Die ersten beiden sind leicht zu verstehen – zk-verschlüsselte Daten können weiterhin trainiert werden, ohne dass persönliche oder private Informationen durchsickern.

Die Modellverifizierung bezieht sich auf die Bewertung von Closed-Source-Modellen. Mit der zk-Technologie kann ein Zielwert festgelegt werden, der es Closed-Source-Modellen ermöglicht, ihre Leistungsfähigkeit durch Ergebnisverifizierung unter Beweis zu stellen, ohne den Berechnungsprozess offenzulegen.

Worldcoin hat nicht nur zkML schon früh ins Auge gefasst, sondern setzt sich auch für ein bedingungsloses Grundeinkommen (BGE) ein. In seiner Vision wird die zukünftige KI-Produktivität die Grenzen der menschlichen Nachfrage weit überschreiten. Die eigentliche Herausforderung besteht in der gerechten Verteilung der KI-Vorteile, und das BGE-Konzept soll über den $WLD-Token weltweit verbreitet werden, was eine biometrische Erkennung von realen Personen erfordert, um den Fairness-Prinzipien zu entsprechen.

Natürlich befinden sich zkML und BGE noch in einem frühen experimentellen Stadium, aber es sind faszinierende Entwicklungen, die ich weiterhin genau verfolgen werde.

Schlussfolgerung

Die Entwicklung von KI, die durch Transformer und Large Language Models (LLMs) repräsentiert wird, stößt allmählich auf Engpässe, ähnlich wie bei linearer Regression und neuronalen Netzen. Es ist nicht möglich, die Modellparameter oder das Datenvolumen unbegrenzt zu erhöhen, da die Grenzerträge abnehmen.

KI mag der Saatgutspieler sein, der mit Weisheit hervorgeht, aber das Problem der Halluzination ist derzeit schwerwiegend. Es kann beobachtet werden, dass der Glaube, dass Krypto KI verändern kann, eine Form des Vertrauens und eine Standardhalluzination ist. Auch wenn die Hinzufügung von Krypto die Halluzinationsprobleme technisch nicht lösen kann, kann sie zumindest einige Aspekte aus Sicht der Fairness und Transparenz ändern.

Referenzen:

  1. OpenAI: "GPT-4 Technical Report", 2023; arXiv:2303.08774.
  2. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: "Aufmerksamkeit ist alles, was du brauchst", 2017; arXiv:1706.03762.
  3. Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei: "Skalierungsgesetze für neuronale Sprachmodelle", 2020; arXiv:2001.08361.
  4. Hao Liu, Wilson Yan, Matei Zaharia, Pieter Abbeel: "Weltmodell für millionenlange Videos und Sprache mit RingAttention", 2024; arXiv:2402.08268.
  5. Max Roser (2022) - "Die kurze Geschichte der Künstlichen Intelligenz: Die Welt hat sich schnell verändert – was könnte als nächstes kommen?" Online veröffentlicht bei OurWorldInData.org. Abgerufen von: 'https://ourworldindata.org/brief-history-of-ai' [Online-Ressource]
  6. Eine Einführung in das Zero-Knowledge-Machine-Learning (ZKML)
  7. Die Schnittmenge von Krypto und KI verstehen
  8. Gras ist die Datenschicht der KI
  9. Bittensor: Ein Peer-to-Peer-Intelligence-Markt

Verzichtserklärung:

  1. Dieser Artikel ist ein Nachdruck von [佐爷歪脖山], Alle Urheberrechte liegen beim ursprünglichen Autor [佐爷]. Wenn es Einwände gegen diesen Nachdruck gibt, wenden Sie sich bitte an das Gate Learn-Team , das sich umgehend darum kümmern wird.
  2. Haftungsausschluss: Die in diesem Artikel geäußerten Ansichten und Meinungen sind ausschließlich die des Autors und stellen keine Anlageberatung dar.
  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verbreiten oder Plagiieren der übersetzten Artikel verboten.
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!