Was ist Assisterr: Die Zukunft von Community-Owned AI

Fortgeschrittene1/13/2025, 3:27:02 AM
Assisterr ist eine dezentralisierte KI-Plattform, die auf Small Language Models (SLMs) und einem innovativen Wirtschaftsmodell basiert, um KI-Technologie zugänglicher, effizienter und nachhaltiger zu machen. Die Plattform adressiert die Einschränkungen von Large Language Models (LLMs) und fördert die Zusammenarbeit in der Community, indem Benutzer KI-Modelle erstellen, teilen und monetarisieren können. Ihr einzigartiges dezentralisiertes Wirtschaftssystem belohnt Beitragende und stellt eine faire Verteilung des Wertes sicher, fördert die Einführung von KI, technologische Innovation und treibt Fortschritte in diesem Bereich voran.

Die KI-Branche von heute sieht sich aufgrund der Zentralisierung mit erheblichen Herausforderungen konfrontiert, wobei bedeutende Fortschritte häufig von einigen großen Unternehmen kontrolliert werden. Dies führt zu Bedenken hinsichtlich des Datenschutzes, monopolistischer Praktiken und des begrenzten Zugangs zu modernster Technologie. Darüber hinaus führt die übermäßige Abhängigkeit von großen Sprachmodellen (LLMs) wie GPT-3, trotz ihrer Fähigkeiten, zu Problemen wie hohen Rechenkosten, Umweltauswirkungen und potenziellen Voreingenommenheiten in den Daten, auf denen sie trainiert werden. Diese Modelle erfordern umfangreiche Daten und Ressourcen, wodurch sie nur für gut finanzierte Organisationen zugänglich sind.

Assisterr begegnet diesen Herausforderungen, indem es Small Language Models (SLMs) einführt und einen gemeinschaftseigenen Ansatz für die KI-Entwicklung fördert. SLMs sind so konzipiert, dass sie effizienter sind, weniger Rechenleistung und Daten benötigen und gleichzeitig hohe Leistung erbringen, was die KI-Technologie zugänglicher und nachhaltiger macht. Darüber hinaus ermöglichen es Assisterrs gemeinschaftseigene Modelle und KI-Agenten den Nutzern, zu KI-Fortschritten beizutragen und davon zu profitieren, Innovation und Inklusivität zu fördern und sicherzustellen, dass die Vorteile der KI breiter in der Gesellschaft geteilt werden.

Was ist Assisterr AI?


Quelle: Assisterr Website

Assisterr AI ist eine dezentralisierte KI-Plattform, die darauf abzielt, den Zugang zur künstlichen Intelligenz durch die Nutzung von Small Language Models (SLMs) und community-eigenen KI-Agenten zu demokratisieren. Ihr Hauptzweck besteht darin, eine effizientere, zugänglichere und nachhaltigere Alternative zu traditionellen KI-Modellen zu bieten, die die Einschränkungen von Large Language Models (LLMs) angeht und ein gemeinschaftliches KI-Ökosystem fördert.

Assisterr AI's Schlüsselfunktionen und Vorteile

  • Kleine Sprachmodelle (SLMs): Im Gegensatz zu LLMs benötigen SLMs weniger Rechenleistung und Daten, was sie zugänglicher und umweltfreundlicher macht. Sie sind darauf ausgelegt, spezifische Aufgaben effizient auszuführen und damit den mit größeren Modellen verbundenen Overhead zu reduzieren.
  • Community-Owned Models: Assisterr fördert einen dezentralen Ansatz, bei dem Benutzer zu KI-Fortschritten beitragen und davon profitieren können. Dieses Modell fördert Innovation und Inklusivität und gewährleistet, dass nicht einige große Einheiten die KI-Technologie monopolisieren.
  • No-Code-Tools: Assisterr bietet benutzerfreundliche, no-code Tools, die es Einzelpersonen und Unternehmen ermöglichen, KI-Modelle ohne umfangreiches technisches Wissen zu erstellen und bereitzustellen. Dies senkt die Einstiegshürde und fördert eine breitere Beteiligung an der KI-Entwicklung.
  • Datenmarktplatz: Die Plattform umfasst einen Marktplatz für Daten und KI-Modelle, der es Benutzern ermöglicht, Ressourcen zu kaufen, zu verkaufen und zu teilen. Dadurch werden der Datenaustausch und die Zusammenarbeit gefördert und das KI-Ökosystem weiter verbessert.
  • Sicherheit und Transparenz: Assisterr setzt robuste Sicherheitsmaßnahmen und transparente Prozesse ein, um die Integrität und Vertrauenswürdigkeit seiner KI-Modelle und Datenübertragungen zu gewährleisten.

Die Sprachmodelle (LLM & SLM)

Große Sprachmodelle (LLM)

Große Sprachmodelle (LLMs) wie GPT-3 und BERT sind KI-Modelle, die auf großen Mengen an Textdaten trainiert sind, um menschenähnliche Sprache zu verstehen und zu generieren. Sie sind in der Lage, eine Vielzahl von Aufgaben zu erledigen, von Textvervollständigung über Übersetzung bis hin zur Zusammenfassung. LLMs haben jedoch mehrere bemerkenswerte Mängel:

  • Hohe Rechenkosten: Das Training und die Ausführung von LLMs erfordern erhebliche Rechenressourcen und sind daher teuer und umweltbelastend.
  • Datenverzerrung: LLMs können Vorurteile übernehmen, die in ihren Trainingsdaten vorhanden sind, was zu voreingenommenen oder unangemessenen Ausgaben führt.
  • Begrenzte Zugänglichkeit: Aufgrund ihres ressourcenintensiven Charakters sind LLMs oft nur für große Organisationen mit erheblichen Finanzmitteln zugänglich.
  • Skalierbarkeitsprobleme: Die monolithische Struktur von LLMs kann sie weniger flexibel und schwerer an bestimmte Aufgaben oder Domänen anzupassen machen.

Kleine Sprachmodelle (SLMs)

Kleine Sprachmodelle (SLMs), obwohl ähnlich im Konzept zu LLMs, sind darauf ausgelegt, genauer, spezialisierter und effizienter zu sein. Indem sie sich auf spezifische Aufgaben und Datensätze konzentrieren, bieten SLMs eine überlegene Leistung für Nischenanwendungen und sind damit besser für spezialisierte Anwendungsfälle geeignet. Durch die Nutzung maßgeschneiderter Datensätze und die Fokussierung auf spezifische Geschäftsbedürfnisse können SLMs eine überlegene Leistung und eine situationsspezifische Anpassungsfähigkeit zu einem Bruchteil der Kosten bieten. Dies ist auch ermutigend für den Aufbau von Open-Source-SLMs, wo preisgünstigere Projekte zuvor SLMs mit wettbewerbsfähiger Genauigkeit zu etablierten LLMs zu viel geringeren Kosten entwickelt haben.

Technisches Hintergrundwissen Assisterr KI

Small Language Models (SLM)

Kleine Sprachmodelle (SLMs) sind das Kernstück der Assisterr-Technologie. Im Gegensatz zu großen Sprachmodellen (LLMs) sind SLMs darauf ausgelegt, effizienter und spezialisierter zu sein. Sie konzentrieren sich auf spezifische Aufgaben und Datensätze, was es ihnen ermöglicht, eine überlegene Leistung für Nischenanwendungen zu bieten. Diese Spezialisierung macht SLMs zugänglicher und nachhaltiger, da sie weniger Rechenleistung und Daten benötigen.

Modulare SLM-Architektur

Um die Einschränkungen von auf LLM basierenden Agenten zu adressieren, sind fortgeschrittene Ansätze entstanden, die mehrere kleine Sprachmodelle (SLMs) in kollaborativen Agenten-Frameworks einbeziehen. Zwei Kernansätze werden genutzt, wenn KI-Agenten aus SLM-Ensembles entwickelt werden: Mischungen von Experten (MoE) und Mischungen von Agenten (MoA).

Mischungen von Experten (MoE)


Quelle: Assisterr Litepaper

Wenn sie in MoE-Ensembles kombiniert werden, kann moderne SLM-Argumentation eine verbesserte Lernflexibilität erreichen, ohne ihre Fähigkeit zur funktionellen Problemlösung zu verlieren. Das Ensemble-Lernen kann die Argumentationsfähigkeiten mehrerer kleinerer Modelle kombinieren, die jeweils auf unterschiedliche Zusammenhänge spezialisiert sind, um komplexe Probleme zu lösen. Dies erzeugt ein hybrides Verständnis, das es der KI weiterhin ermöglicht, tief einzutauchen. Schichten von Experten können selbst aus MoEs bestehen, die hierarchische Strukturen bilden, um die kontextuelle Komplexität und Problemlösungsfähigkeit weiter zu puffern. Ein MoE verwendet in der Regel eine spärliche Gating-Schicht, die dynamisch unter mehreren parallelen Netzwerken auswählt, um die angemessenste Antwort auf die Anfrage zu geben. Um flexiblere Antworten zu erzielen, könnten einzelne Experten für Code-Generierung, Übersetzung oder Sentimentanalyse feinabgestimmt werden. Fortgeschrittene MoE-Architekturen können mehrere solcher MoE-Schichten in Kombination mit anderen Komponenten enthalten. Wie bei jeder typischen Sprachmodell-Architektur arbeitet die MoE-Gating-Schicht mit semantischen Tokens und erfordert Schulungen.

Gemische von Wirkstoffen (MoA)

Wenn sie zu MoA-Architekturen zusammengebaut werden, verbessern SLMs die Selektivität von diversifizierten Denkensembles und ermöglichen es KI, die präzise Ausführung einer Aufgabe mit der erforderlichen Methodik zu vollziehen. Agentische Modelle werden in einem Konsortium zusammengebaut, das Ausführungsprotokolle schichtet, um die Effizienz und Problemlösung komplexer Aufgaben zu verbessern. Die KI arbeitet daher in Multi-Domänen-Szenarien. Teams von Agenten können nacheinander arbeiten und dabei die Ergebnisse verbessern. MoA hat zuvor signifikant größere Modelle, einschließlich der 57,5%igen Genauigkeitsbewertung von GPT-4 Omni auf AlpacaEval 2.0, übertroffen, selbst in Open-Source-Modellen. Ein Gemisch von Agenten (MoA) arbeitet auf der Ebene der Modellausgaben, nicht auf semantischen Tokens. Es verfügt nicht über eine Gating-Schicht, leitet aber die Texteingabe an alle Agenten parallel weiter. Die Ausgaben des MoA werden auch nicht durch Addition und Normalisierung aggregiert. Stattdessen werden sie verkettet und mit einer Synthese- und Aggregat-Aufforderung kombiniert, bevor sie an ein separates Modell weitergeleitet werden, um die endgültige Ausgabe zu erzeugen. Die Modelle sind somit in „Vorschlagende“, die verschiedene Ausgaben berechnen, und „Aggregatoren“, die die Ergebnisse integrieren, unterteilt. Genauso wie bei MoE können mehrere dieser Schichten kombiniert werden. Das Fehlen von Gating-Schichten macht diesen Ansatz flexibler und anpassungsfähiger für komplexe Aufgaben.

DeAI Wirtschaft

Die DeAI (Decentralized AI) Wirtschaft ist ein grundlegender Aspekt der Assisterr Plattform. Sie nutzt die Blockchain-Technologie, um einen dezentralen Marktplatz für KI-Modelle und Daten zu schaffen. Diese Wirtschaft fördert den Datenaustausch und die Zusammenarbeit und sorgt dafür, dass Beitragende fair für ihre Bemühungen belohnt werden. Zu den wichtigsten Komponenten der DeAI-Wirtschaft gehören:

  • Datenmarktplatz: Eine Plattform, auf der Benutzer Daten und KI-Modelle kaufen, verkaufen und teilen können. Dieser Marktplatz fördert den Austausch wertvoller Ressourcen und fördert Innovation und Zusammenarbeit innerhalb der Community.
  • Anreizmechanismen: Assisterr verwendet verschiedene Anreizmechanismen, um Benutzer für die Bereitstellung von Daten, die Entwicklung von Modellen und die Teilnahme am Ökosystem zu belohnen. Diese Anreize stellen sicher, dass die Community aktiv und engagiert bleibt.
  • Transparenz und Sicherheit: Die Blockchain-Technologie bietet eine transparente und sichere Umgebung für Transaktionen innerhalb der DeAI-Wirtschaft. Dies gewährleistet die Integrität und Vertrauenswürdigkeit von Daten und KI-Modellen und schützt Benutzer vor Betrug und Missbrauch.

Assisterr Ökosystem

AI Labs

AssisterrAI bietet eine einheitliche Infrastruktur-Pipeline, um Small Language Models (SLMs) zu erstellen, zu tokenisieren und zu verteilen, auf eine Weise, die alle Beiträge der Community anreizt. Das AI-Labor ermöglicht es Benutzern, zu Modellen in ihrem Fachgebiet beizutragen und sowohl Mitgestalter als auch Miteigentümer der KI zu werden. Dieser Ansatz stellt sicher, dass KI-Gig-Arbeiter nicht nur einmalig und transaktional verdienen, sondern auch einen breiteren Marktwert erfassen, um eine bessere Zukunft zu sichern und Menschen zu Nutznießern der KI anstatt Opfern von Fortschritt und Automatisierung zu machen.

Um auf die Plattform zuzugreifen, verbinden Benutzer ein browserbasiertes Solana Wallet sowie ihr X-Profil und ihren Discord-Account. Sie können dann Modelle durch den KI-Labor-Tab der Assisterr-Benutzeroberfläche erstellen, der ein einfaches Formular zur Spezifikation von Schlüsselparametern, Muster-Vorlagen und Modellmetadaten bietet. Benutzer können Daten direkt hochladen, die in das Modell eingebettet werden, und zwar durch die Technik des erweiterten Datenabrufs (RAG) und später durch Feinabstimmung. Sobald das Modell erstellt wurde, kann es über den SLM-Store öffentlich gemacht werden. In Zukunft wird das KI-Labor einen modularen, Multi-Model-Paradigma mit einer Mischung aus Agentenarchitektur und erweiterten Abrufstrategien übernehmen.

SLM Store

Assisterr-Beitragende werden für alle Schritte bei der Entstehung eines KI-Modells belohnt, von der Datenbeitrag und Modellerstellung bis hin zur Validierung und Überprüfung. Dieser Revenue-Sharing-Mechanismus wird durch ein SLM-Tokenisierungsmodul implementiert. Das AI Lab verbindet Geschäftsanwendungsfälle effektiv mit den benötigten Daten und Erfahrungen. Sobald ein Modell im SLM Store-Tab der Assisterr-Schnittstelle erscheint, kann es jeder Benutzer durch eine Chatbot-Schnittstelle abfragen. Derzeit unterstützen Bots verschiedene Nischen in Web3-Ökosystemen, Gesundheitswesen, Softwareentwicklung und Finanzen.

Jedes Modell im SLM-Store wird mit einem Schatzamt in der nativen Assisterr-Token-Währung geliefert, der bei jeder Abfrage aus dem entsprechenden Benutzerkonto aufgeladen wird. Abfragen können über die WebUI mit einer verbundenen Solana Wallet oder über eine API platziert werden, sodass Modelle aus dem SLM-Store über andere Anwendungen zugänglich sind. Beitragende können SLMs erstellen, sie zu Agenten zusammenstellen und sie über eine No-Code-Schnittstelle bereitstellen, was eine schnelle Markteinführungsphase und einen schnellen Innovationszyklus ermöglicht. Dies löst die Verteilungs- und Monetarisierungsprobleme, mit denen unabhängige Modellersteller und Entwickler konfrontiert sind.

Kollaborative Elemente

Über den Tab "Beitragen und Verdienen" können Benutzer an iterativen Verbesserungen bestehender Modelle aus dem SLM-Store teilnehmen, indem sie Datenanfragen erfüllen und Leistungskennzahlen validieren und dafür Management-Token (MTs) oder den nativen Assisterr-Token erhalten. Dieser Peer-Review-Prozess gewährleistet eine ständige Weiterentwicklung und eine erhöhte Durchsatzrate bei der Modellerstellung im Laufe der Zeit. In Kombination mit Funktionen wie Mixture of Agents (MoA) ermöglicht dies kumulativen Fortschritt und kontinuierliches Bottom-up-Tüfteln. Die modulare und spezialisierte Natur der SLMs ermöglicht eine schnelle Integration in bestehende Arbeitsabläufe. In Zukunft werden Unternehmen oder Einzelpersonen ihre Probleme beschreiben können und die Dienste von Assisterr werden einen relevanten Pool von SLMs/Agents einbeziehen, um eine Lösung zu finden.

Assisterr Treasury-Modell

Der native Assisterr-Token ist das Vehikel, auf dem die Betriebsabläufe des AssisterrAI-Ökosystems durchgeführt werden. Er wird als Reaktion auf die Validierung von Aktionen bei der Erfüllung von Smart-Contract-Protokollen in jedem Stadium des SLM-Entwicklungsprozesses gehandelt. Durch die Nutzung des Tokens können Teilnehmer mit den Einrichtungen des Assisterr-Ökosystems interagieren, wie z.B. den Zugang zu Produkten, die Bezahlung von Gebühren und die Beteiligung an der Erstellung, Verwaltung und Monetarisierung von SLMs.

Anwendungsfälle von Assisterr

Dezentrale Finanzmanagement-Agenten (DeFi)

Dezentralisierte Finanzen (DeFi) KI-Agenten sind eine bedeutende Innovation im Web3-Bereich. Über allgemeine Empfehlungssysteme hinausgehend können spezialisierte KI-Agenten innerhalb sicherer, genehmigter Grenzen Finanzportfolios besser optimieren und automatisieren. Agentische SLMs, die für schnelle Transaktionsmedien wie Solana DeFi-Protokolle erstellt wurden, können das Verleihen/Leihen, den Dauerhandel und das Staking verbessern. Diese Agenten bieten eine bessere Datenkuration, multimodale Argumentation und eine tiefe funktionale Analyse durch SLM-Ensembles und moderne Mischung von Agenten (MoA) Konsortien.

Handelsagenten

Handelsagenten, maßgeschneidert für komplexe Handelsszenarien, können Wallet-Cluster und Preisentwicklungstrends analysieren und sind sowohl im volatilen DeFi-Markt als auch in der traditionellen Finanzwirtschaft (TradFi) äußerst nützlich. SLM-basierte MoA kann besonders effektiv bei datenreferenzierten Handelsstrategien sein, bei denen das Ausführungsmedium und die Methode entscheidend sind. Diese Agenten erhöhen die Handelseffizienz und Rentabilität, indem sie fortschrittliche Algorithmen und Echtzeitdaten nutzen.

Autonome Chat-Agenten

Autonome Chat-Agenten mit fortschrittlichen Lern- und Analysefähigkeiten sind in akademischen, sozialen und beruflichen Bereichen wertvoll. Sie können als Unterstützungsproxis für verschiedene Dienste dienen, indem sie sich mit sozialen Netzwerken und IT-Anwendungen verbinden. Durch die Integration von Agentenfunktionen können diese konversationellen Supportmodelle als Vermittler fungieren, Funktionen basierend auf Benutzerfeedback implementieren und praktische Unterstützung bieten.

Öffentlich sichtbare Avatare

SLMs können textbasierte, audio-basierte oder video-basierte Proxys erstellen, um Avatare für tiefgreifende, öffentlichkeitswirksame Aufgaben zu produzieren. Diese Avatare können komplexe Dienstprogramme wie 3D-Avatare, autonome Text-zu-Video-Generierung und Livestream-Integrationen auf sozialen Plattformen handhaben. SLM-basierte MoA können die interaktiven und effektiven öffentlichkeitswirksamen Avatare der nächsten Generation verbessern.

Entwicklerbeziehungen

Der Start eines spezialisierten Web3 Developer Relations (DevRel) Proof of Concept auf der AssisterrAI-Plattform zeigte eine starke Marktanpassung. Ein robustes DevRel-Regime ist unerlässlich, um Entwickler einzubinden und umfassende Unterstützung bei der Übernahme einer Technologiestack zu bieten. Dies geht jedoch mit erheblichen Kosten einher, wobei die Gehälter für DevRel-Positionen zwischen 90.000 und 200.000 US-Dollar pro Jahr liegen. Viele Anfragen zur Unterstützung von Entwicklern sind vorhersehbar und können automatisiert werden, was die Effizienz von DevRel durch den gezielten Einsatz von SLMs erhöht. Dieser Ansatz reduziert die Kosten und gewährleistet gleichzeitig eine qualitativ hochwertige Unterstützung für Entwickler.

Einstieg in Assisterr AI

Wie man sich bei Assisterr registriert

1. Besuchen Sie die Assisterr-Website: Gehen Sie zu Die Website von Assisterrund klicken Sie auf "App öffnen"

2. Verbinden Sie Ihre Brieftasche: Klicken Sie auf die Schaltfläche "Wallet auswählen" und verbinden Sie Ihre browserbasierte Solana-Brieftasche. Diese Brieftasche wird für Transaktionen und den Zugriff auf verschiedene Funktionen auf der Plattform verwendet.

3. Verknüpfen von Social-Media-Konten: Verbinden Sie Ihr X-Profil und Ihr Discord-Konto. Diese Verbindungen helfen dabei, Ihre Identität zu verifizieren und Ihre soziale Präsenz in das Assisterr-Ökosystem zu integrieren.

4. Vervollständigen Sie die Registrierung: Befolgen Sie die Anweisungen auf dem Bildschirm, um den Registrierungsprozess abzuschließen. Sobald Sie registriert sind, können Sie damit beginnen, die Plattform und ihre Funktionen zu erkunden.

Zugriff auf SLMs

1. Navigieren Sie zum SLM Store: Nach dem Einloggen gehen Sie zu dem SLM Store-Registerkarteauf der Assisterr-Oberfläche.

2. Durchsuchen Sie verfügbare Modelle: Entdecken Sie die verschiedenen verfügbaren Small Language Models (SLMs) im Shop. Jedes Modell ist für spezifische Aufgaben und Branchen konzipiert, wie z.B. Web3-Ökosysteme, Gesundheitswesen, Softwareentwicklung und Finanzwesen.

3. Abfrage Modelle: Sie können jedes Modell über eine Chatbot-Schnittstelle abfragen. Wählen Sie einfach das Modell aus, an dem Sie interessiert sind, und beginnen Sie mit der Interaktion. Abfragen können über die Web-Schnittstelle mit einer verbundenen Solana-Brieftasche oder über eine API zur Integration mit anderen Anwendungen durchgeführt werden.

So erstellen Sie Ihr erstes SLM

1. Greifen Sie auf das AI-Labor zu: Gehen Sie zur AI-Labor Registerkarteauf der Assisterr-Oberfläche.

2. Modellparameter festlegen: Füllen Sie das Konfigurationsformular aus, um wichtige Parameter, Prompt-Vorlagen und Metadaten für Ihr Modell festzulegen. Dazu gehört die Definition des Namens, des Handles, der Beschreibung des Zwecks, der Kategorie, des Coverbildes, der Konversationsstarter und des Datensatzes des Modells. Sie können diesen Prozess auch beschleunigen, indem Sie den KI-Assistenten verwenden.

3. Daten hochladen: Laden Sie direkt Daten hoch, die in das Modell eingebettet werden, indem Sie sie durch abfragegestützte Generierung (RAG) und Feinabstimmung einfügen. Diese Daten helfen dabei, das Modell für die Ausführung seiner beabsichtigten Aufgaben zu trainieren.

4. Veröffentlichen Sie Ihr SLM: Sobald Sie das Modell konfiguriert haben, klicken Sie auf die Schaltfläche Schaltfläche. Ihr Modell wird generiert und Sie können wählen, es im SLM-Store öffentlich zu machen oder privat zu behalten. Wenn Sie es öffentlich machen, können andere Benutzer auf Ihr Modell zugreifen und Abfragen stellen.

Unterstützung der Fundraising-Bemühungen von Assisterr

Assisterr, ein in Cambridge ansässiges AI-Infrastruktur-Startup, hat erfolgreich eine Pre-Seed-Finanzierungsrunde in Höhe von 1,7 Millionen Dollar abgeschlossen. An dieser Investitionsrunde beteiligten sich namhafte Web3-Venture-Fonds, darunter Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, sowie bekannte Engel wie Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux und Ethan Francis. Die Mittel waren entscheidend für den Aufbau der grundlegenden Infrastruktur von Assisterr und den Start seiner Plattform.

Seit seiner Einführung hat Assisterr bedeutende Meilensteine erreicht, darunter die Gewinnung von 150.000 registrierten Benutzern und die Einführung von über 60 Small Language Models (SLMs) für führende Web3-Protokolle wie Solana, Optimism, 0g.ai und NEAR. Darüber hinaus hat Assisterr Anerkennung erlangt, indem es mehrere globale Hackathons gewonnen und am AI Startups-Programm von Google teilgenommen hat. Dabei konnte es 350.000 US-Dollar an Finanzierungsmitteln sichern, um seine GPU-, CPU- und Cloud-Infrastrukturanforderungen zu unterstützen.

Zukünftiger Fahrplan und Meilensteine

Assisterr hat einen klaren Fahrplan für zukünftiges Wachstum und Entwicklung. Zu den wichtigsten Meilensteinen gehören:

  1. AI-Labor (Q4 2024)

    • Starten Sie das AI-Labor, damit Benutzer SLMs erstellen und besitzen können.
    • Erreichen Sie 500.000 Benutzer.
    • Implementieren Sie das SLM Creator Incentive Program.
    • Entwickeln Sie 5.000 SLMs.
    • Schließen Sie die Seed-Runde ab.
  2. Netzwerkwachstum (H1 2025)

    • Entwickeln Sie SLMs für domänenspezifische Aufgaben.
    • Führen Sie Token-Generierungsevent (TGE) und Listings durch.
    • Erreiche 3 Millionen Nutzer.
    • Entwickeln Sie 30.000 SLMs.
  3. Mischung aus SLM-Agenten (H2 2025)

    • Implementieren Sie SLM-Orchestrierung für domänenagnostische Aufgaben.
    • In Web2 expandieren.
    • Erreichen Sie 10 Millionen Benutzer.
    • Entwickeln Sie 100.000 SLMs.

Schluss

Assisterr bahnt ein neues dezentrales, community-eigenes KI-Zeitalter an, indem es Small Language Models (SLMs) und innovative Wirtschaftsmodelle nutzt. Indem es die Grenzen von Large Language Models (LLMs) angeht und einen kooperativen Ansatz fördert, macht Assisterr die KI-Technologie zugänglicher, effizienter und nachhaltiger. Das umfassende Ökosystem der Plattform, einschließlich der KI-Labore, des SLM-Stores und kooperativer Elemente, ermöglicht es den Nutzern, KI-Modelle zu erstellen, zu teilen und zu monetarisieren.

Autore: Angelnath
Traduttore: Viper
Recensore/i: Matheus、Edward
Revisore/i della traduzione: Ashely
* Le informazioni non sono da intendersi e non costituiscono consulenza finanziaria o qualsiasi altro tipo di raccomandazione offerta da Gate.io.
* Questo articolo non può essere riprodotto, trasmesso o copiato senza menzionare Gate.io. La violazione è un'infrazione della Legge sul Copyright e può essere soggetta ad azioni legali.

Was ist Assisterr: Die Zukunft von Community-Owned AI

Fortgeschrittene1/13/2025, 3:27:02 AM
Assisterr ist eine dezentralisierte KI-Plattform, die auf Small Language Models (SLMs) und einem innovativen Wirtschaftsmodell basiert, um KI-Technologie zugänglicher, effizienter und nachhaltiger zu machen. Die Plattform adressiert die Einschränkungen von Large Language Models (LLMs) und fördert die Zusammenarbeit in der Community, indem Benutzer KI-Modelle erstellen, teilen und monetarisieren können. Ihr einzigartiges dezentralisiertes Wirtschaftssystem belohnt Beitragende und stellt eine faire Verteilung des Wertes sicher, fördert die Einführung von KI, technologische Innovation und treibt Fortschritte in diesem Bereich voran.

Die KI-Branche von heute sieht sich aufgrund der Zentralisierung mit erheblichen Herausforderungen konfrontiert, wobei bedeutende Fortschritte häufig von einigen großen Unternehmen kontrolliert werden. Dies führt zu Bedenken hinsichtlich des Datenschutzes, monopolistischer Praktiken und des begrenzten Zugangs zu modernster Technologie. Darüber hinaus führt die übermäßige Abhängigkeit von großen Sprachmodellen (LLMs) wie GPT-3, trotz ihrer Fähigkeiten, zu Problemen wie hohen Rechenkosten, Umweltauswirkungen und potenziellen Voreingenommenheiten in den Daten, auf denen sie trainiert werden. Diese Modelle erfordern umfangreiche Daten und Ressourcen, wodurch sie nur für gut finanzierte Organisationen zugänglich sind.

Assisterr begegnet diesen Herausforderungen, indem es Small Language Models (SLMs) einführt und einen gemeinschaftseigenen Ansatz für die KI-Entwicklung fördert. SLMs sind so konzipiert, dass sie effizienter sind, weniger Rechenleistung und Daten benötigen und gleichzeitig hohe Leistung erbringen, was die KI-Technologie zugänglicher und nachhaltiger macht. Darüber hinaus ermöglichen es Assisterrs gemeinschaftseigene Modelle und KI-Agenten den Nutzern, zu KI-Fortschritten beizutragen und davon zu profitieren, Innovation und Inklusivität zu fördern und sicherzustellen, dass die Vorteile der KI breiter in der Gesellschaft geteilt werden.

Was ist Assisterr AI?


Quelle: Assisterr Website

Assisterr AI ist eine dezentralisierte KI-Plattform, die darauf abzielt, den Zugang zur künstlichen Intelligenz durch die Nutzung von Small Language Models (SLMs) und community-eigenen KI-Agenten zu demokratisieren. Ihr Hauptzweck besteht darin, eine effizientere, zugänglichere und nachhaltigere Alternative zu traditionellen KI-Modellen zu bieten, die die Einschränkungen von Large Language Models (LLMs) angeht und ein gemeinschaftliches KI-Ökosystem fördert.

Assisterr AI's Schlüsselfunktionen und Vorteile

  • Kleine Sprachmodelle (SLMs): Im Gegensatz zu LLMs benötigen SLMs weniger Rechenleistung und Daten, was sie zugänglicher und umweltfreundlicher macht. Sie sind darauf ausgelegt, spezifische Aufgaben effizient auszuführen und damit den mit größeren Modellen verbundenen Overhead zu reduzieren.
  • Community-Owned Models: Assisterr fördert einen dezentralen Ansatz, bei dem Benutzer zu KI-Fortschritten beitragen und davon profitieren können. Dieses Modell fördert Innovation und Inklusivität und gewährleistet, dass nicht einige große Einheiten die KI-Technologie monopolisieren.
  • No-Code-Tools: Assisterr bietet benutzerfreundliche, no-code Tools, die es Einzelpersonen und Unternehmen ermöglichen, KI-Modelle ohne umfangreiches technisches Wissen zu erstellen und bereitzustellen. Dies senkt die Einstiegshürde und fördert eine breitere Beteiligung an der KI-Entwicklung.
  • Datenmarktplatz: Die Plattform umfasst einen Marktplatz für Daten und KI-Modelle, der es Benutzern ermöglicht, Ressourcen zu kaufen, zu verkaufen und zu teilen. Dadurch werden der Datenaustausch und die Zusammenarbeit gefördert und das KI-Ökosystem weiter verbessert.
  • Sicherheit und Transparenz: Assisterr setzt robuste Sicherheitsmaßnahmen und transparente Prozesse ein, um die Integrität und Vertrauenswürdigkeit seiner KI-Modelle und Datenübertragungen zu gewährleisten.

Die Sprachmodelle (LLM & SLM)

Große Sprachmodelle (LLM)

Große Sprachmodelle (LLMs) wie GPT-3 und BERT sind KI-Modelle, die auf großen Mengen an Textdaten trainiert sind, um menschenähnliche Sprache zu verstehen und zu generieren. Sie sind in der Lage, eine Vielzahl von Aufgaben zu erledigen, von Textvervollständigung über Übersetzung bis hin zur Zusammenfassung. LLMs haben jedoch mehrere bemerkenswerte Mängel:

  • Hohe Rechenkosten: Das Training und die Ausführung von LLMs erfordern erhebliche Rechenressourcen und sind daher teuer und umweltbelastend.
  • Datenverzerrung: LLMs können Vorurteile übernehmen, die in ihren Trainingsdaten vorhanden sind, was zu voreingenommenen oder unangemessenen Ausgaben führt.
  • Begrenzte Zugänglichkeit: Aufgrund ihres ressourcenintensiven Charakters sind LLMs oft nur für große Organisationen mit erheblichen Finanzmitteln zugänglich.
  • Skalierbarkeitsprobleme: Die monolithische Struktur von LLMs kann sie weniger flexibel und schwerer an bestimmte Aufgaben oder Domänen anzupassen machen.

Kleine Sprachmodelle (SLMs)

Kleine Sprachmodelle (SLMs), obwohl ähnlich im Konzept zu LLMs, sind darauf ausgelegt, genauer, spezialisierter und effizienter zu sein. Indem sie sich auf spezifische Aufgaben und Datensätze konzentrieren, bieten SLMs eine überlegene Leistung für Nischenanwendungen und sind damit besser für spezialisierte Anwendungsfälle geeignet. Durch die Nutzung maßgeschneiderter Datensätze und die Fokussierung auf spezifische Geschäftsbedürfnisse können SLMs eine überlegene Leistung und eine situationsspezifische Anpassungsfähigkeit zu einem Bruchteil der Kosten bieten. Dies ist auch ermutigend für den Aufbau von Open-Source-SLMs, wo preisgünstigere Projekte zuvor SLMs mit wettbewerbsfähiger Genauigkeit zu etablierten LLMs zu viel geringeren Kosten entwickelt haben.

Technisches Hintergrundwissen Assisterr KI

Small Language Models (SLM)

Kleine Sprachmodelle (SLMs) sind das Kernstück der Assisterr-Technologie. Im Gegensatz zu großen Sprachmodellen (LLMs) sind SLMs darauf ausgelegt, effizienter und spezialisierter zu sein. Sie konzentrieren sich auf spezifische Aufgaben und Datensätze, was es ihnen ermöglicht, eine überlegene Leistung für Nischenanwendungen zu bieten. Diese Spezialisierung macht SLMs zugänglicher und nachhaltiger, da sie weniger Rechenleistung und Daten benötigen.

Modulare SLM-Architektur

Um die Einschränkungen von auf LLM basierenden Agenten zu adressieren, sind fortgeschrittene Ansätze entstanden, die mehrere kleine Sprachmodelle (SLMs) in kollaborativen Agenten-Frameworks einbeziehen. Zwei Kernansätze werden genutzt, wenn KI-Agenten aus SLM-Ensembles entwickelt werden: Mischungen von Experten (MoE) und Mischungen von Agenten (MoA).

Mischungen von Experten (MoE)


Quelle: Assisterr Litepaper

Wenn sie in MoE-Ensembles kombiniert werden, kann moderne SLM-Argumentation eine verbesserte Lernflexibilität erreichen, ohne ihre Fähigkeit zur funktionellen Problemlösung zu verlieren. Das Ensemble-Lernen kann die Argumentationsfähigkeiten mehrerer kleinerer Modelle kombinieren, die jeweils auf unterschiedliche Zusammenhänge spezialisiert sind, um komplexe Probleme zu lösen. Dies erzeugt ein hybrides Verständnis, das es der KI weiterhin ermöglicht, tief einzutauchen. Schichten von Experten können selbst aus MoEs bestehen, die hierarchische Strukturen bilden, um die kontextuelle Komplexität und Problemlösungsfähigkeit weiter zu puffern. Ein MoE verwendet in der Regel eine spärliche Gating-Schicht, die dynamisch unter mehreren parallelen Netzwerken auswählt, um die angemessenste Antwort auf die Anfrage zu geben. Um flexiblere Antworten zu erzielen, könnten einzelne Experten für Code-Generierung, Übersetzung oder Sentimentanalyse feinabgestimmt werden. Fortgeschrittene MoE-Architekturen können mehrere solcher MoE-Schichten in Kombination mit anderen Komponenten enthalten. Wie bei jeder typischen Sprachmodell-Architektur arbeitet die MoE-Gating-Schicht mit semantischen Tokens und erfordert Schulungen.

Gemische von Wirkstoffen (MoA)

Wenn sie zu MoA-Architekturen zusammengebaut werden, verbessern SLMs die Selektivität von diversifizierten Denkensembles und ermöglichen es KI, die präzise Ausführung einer Aufgabe mit der erforderlichen Methodik zu vollziehen. Agentische Modelle werden in einem Konsortium zusammengebaut, das Ausführungsprotokolle schichtet, um die Effizienz und Problemlösung komplexer Aufgaben zu verbessern. Die KI arbeitet daher in Multi-Domänen-Szenarien. Teams von Agenten können nacheinander arbeiten und dabei die Ergebnisse verbessern. MoA hat zuvor signifikant größere Modelle, einschließlich der 57,5%igen Genauigkeitsbewertung von GPT-4 Omni auf AlpacaEval 2.0, übertroffen, selbst in Open-Source-Modellen. Ein Gemisch von Agenten (MoA) arbeitet auf der Ebene der Modellausgaben, nicht auf semantischen Tokens. Es verfügt nicht über eine Gating-Schicht, leitet aber die Texteingabe an alle Agenten parallel weiter. Die Ausgaben des MoA werden auch nicht durch Addition und Normalisierung aggregiert. Stattdessen werden sie verkettet und mit einer Synthese- und Aggregat-Aufforderung kombiniert, bevor sie an ein separates Modell weitergeleitet werden, um die endgültige Ausgabe zu erzeugen. Die Modelle sind somit in „Vorschlagende“, die verschiedene Ausgaben berechnen, und „Aggregatoren“, die die Ergebnisse integrieren, unterteilt. Genauso wie bei MoE können mehrere dieser Schichten kombiniert werden. Das Fehlen von Gating-Schichten macht diesen Ansatz flexibler und anpassungsfähiger für komplexe Aufgaben.

DeAI Wirtschaft

Die DeAI (Decentralized AI) Wirtschaft ist ein grundlegender Aspekt der Assisterr Plattform. Sie nutzt die Blockchain-Technologie, um einen dezentralen Marktplatz für KI-Modelle und Daten zu schaffen. Diese Wirtschaft fördert den Datenaustausch und die Zusammenarbeit und sorgt dafür, dass Beitragende fair für ihre Bemühungen belohnt werden. Zu den wichtigsten Komponenten der DeAI-Wirtschaft gehören:

  • Datenmarktplatz: Eine Plattform, auf der Benutzer Daten und KI-Modelle kaufen, verkaufen und teilen können. Dieser Marktplatz fördert den Austausch wertvoller Ressourcen und fördert Innovation und Zusammenarbeit innerhalb der Community.
  • Anreizmechanismen: Assisterr verwendet verschiedene Anreizmechanismen, um Benutzer für die Bereitstellung von Daten, die Entwicklung von Modellen und die Teilnahme am Ökosystem zu belohnen. Diese Anreize stellen sicher, dass die Community aktiv und engagiert bleibt.
  • Transparenz und Sicherheit: Die Blockchain-Technologie bietet eine transparente und sichere Umgebung für Transaktionen innerhalb der DeAI-Wirtschaft. Dies gewährleistet die Integrität und Vertrauenswürdigkeit von Daten und KI-Modellen und schützt Benutzer vor Betrug und Missbrauch.

Assisterr Ökosystem

AI Labs

AssisterrAI bietet eine einheitliche Infrastruktur-Pipeline, um Small Language Models (SLMs) zu erstellen, zu tokenisieren und zu verteilen, auf eine Weise, die alle Beiträge der Community anreizt. Das AI-Labor ermöglicht es Benutzern, zu Modellen in ihrem Fachgebiet beizutragen und sowohl Mitgestalter als auch Miteigentümer der KI zu werden. Dieser Ansatz stellt sicher, dass KI-Gig-Arbeiter nicht nur einmalig und transaktional verdienen, sondern auch einen breiteren Marktwert erfassen, um eine bessere Zukunft zu sichern und Menschen zu Nutznießern der KI anstatt Opfern von Fortschritt und Automatisierung zu machen.

Um auf die Plattform zuzugreifen, verbinden Benutzer ein browserbasiertes Solana Wallet sowie ihr X-Profil und ihren Discord-Account. Sie können dann Modelle durch den KI-Labor-Tab der Assisterr-Benutzeroberfläche erstellen, der ein einfaches Formular zur Spezifikation von Schlüsselparametern, Muster-Vorlagen und Modellmetadaten bietet. Benutzer können Daten direkt hochladen, die in das Modell eingebettet werden, und zwar durch die Technik des erweiterten Datenabrufs (RAG) und später durch Feinabstimmung. Sobald das Modell erstellt wurde, kann es über den SLM-Store öffentlich gemacht werden. In Zukunft wird das KI-Labor einen modularen, Multi-Model-Paradigma mit einer Mischung aus Agentenarchitektur und erweiterten Abrufstrategien übernehmen.

SLM Store

Assisterr-Beitragende werden für alle Schritte bei der Entstehung eines KI-Modells belohnt, von der Datenbeitrag und Modellerstellung bis hin zur Validierung und Überprüfung. Dieser Revenue-Sharing-Mechanismus wird durch ein SLM-Tokenisierungsmodul implementiert. Das AI Lab verbindet Geschäftsanwendungsfälle effektiv mit den benötigten Daten und Erfahrungen. Sobald ein Modell im SLM Store-Tab der Assisterr-Schnittstelle erscheint, kann es jeder Benutzer durch eine Chatbot-Schnittstelle abfragen. Derzeit unterstützen Bots verschiedene Nischen in Web3-Ökosystemen, Gesundheitswesen, Softwareentwicklung und Finanzen.

Jedes Modell im SLM-Store wird mit einem Schatzamt in der nativen Assisterr-Token-Währung geliefert, der bei jeder Abfrage aus dem entsprechenden Benutzerkonto aufgeladen wird. Abfragen können über die WebUI mit einer verbundenen Solana Wallet oder über eine API platziert werden, sodass Modelle aus dem SLM-Store über andere Anwendungen zugänglich sind. Beitragende können SLMs erstellen, sie zu Agenten zusammenstellen und sie über eine No-Code-Schnittstelle bereitstellen, was eine schnelle Markteinführungsphase und einen schnellen Innovationszyklus ermöglicht. Dies löst die Verteilungs- und Monetarisierungsprobleme, mit denen unabhängige Modellersteller und Entwickler konfrontiert sind.

Kollaborative Elemente

Über den Tab "Beitragen und Verdienen" können Benutzer an iterativen Verbesserungen bestehender Modelle aus dem SLM-Store teilnehmen, indem sie Datenanfragen erfüllen und Leistungskennzahlen validieren und dafür Management-Token (MTs) oder den nativen Assisterr-Token erhalten. Dieser Peer-Review-Prozess gewährleistet eine ständige Weiterentwicklung und eine erhöhte Durchsatzrate bei der Modellerstellung im Laufe der Zeit. In Kombination mit Funktionen wie Mixture of Agents (MoA) ermöglicht dies kumulativen Fortschritt und kontinuierliches Bottom-up-Tüfteln. Die modulare und spezialisierte Natur der SLMs ermöglicht eine schnelle Integration in bestehende Arbeitsabläufe. In Zukunft werden Unternehmen oder Einzelpersonen ihre Probleme beschreiben können und die Dienste von Assisterr werden einen relevanten Pool von SLMs/Agents einbeziehen, um eine Lösung zu finden.

Assisterr Treasury-Modell

Der native Assisterr-Token ist das Vehikel, auf dem die Betriebsabläufe des AssisterrAI-Ökosystems durchgeführt werden. Er wird als Reaktion auf die Validierung von Aktionen bei der Erfüllung von Smart-Contract-Protokollen in jedem Stadium des SLM-Entwicklungsprozesses gehandelt. Durch die Nutzung des Tokens können Teilnehmer mit den Einrichtungen des Assisterr-Ökosystems interagieren, wie z.B. den Zugang zu Produkten, die Bezahlung von Gebühren und die Beteiligung an der Erstellung, Verwaltung und Monetarisierung von SLMs.

Anwendungsfälle von Assisterr

Dezentrale Finanzmanagement-Agenten (DeFi)

Dezentralisierte Finanzen (DeFi) KI-Agenten sind eine bedeutende Innovation im Web3-Bereich. Über allgemeine Empfehlungssysteme hinausgehend können spezialisierte KI-Agenten innerhalb sicherer, genehmigter Grenzen Finanzportfolios besser optimieren und automatisieren. Agentische SLMs, die für schnelle Transaktionsmedien wie Solana DeFi-Protokolle erstellt wurden, können das Verleihen/Leihen, den Dauerhandel und das Staking verbessern. Diese Agenten bieten eine bessere Datenkuration, multimodale Argumentation und eine tiefe funktionale Analyse durch SLM-Ensembles und moderne Mischung von Agenten (MoA) Konsortien.

Handelsagenten

Handelsagenten, maßgeschneidert für komplexe Handelsszenarien, können Wallet-Cluster und Preisentwicklungstrends analysieren und sind sowohl im volatilen DeFi-Markt als auch in der traditionellen Finanzwirtschaft (TradFi) äußerst nützlich. SLM-basierte MoA kann besonders effektiv bei datenreferenzierten Handelsstrategien sein, bei denen das Ausführungsmedium und die Methode entscheidend sind. Diese Agenten erhöhen die Handelseffizienz und Rentabilität, indem sie fortschrittliche Algorithmen und Echtzeitdaten nutzen.

Autonome Chat-Agenten

Autonome Chat-Agenten mit fortschrittlichen Lern- und Analysefähigkeiten sind in akademischen, sozialen und beruflichen Bereichen wertvoll. Sie können als Unterstützungsproxis für verschiedene Dienste dienen, indem sie sich mit sozialen Netzwerken und IT-Anwendungen verbinden. Durch die Integration von Agentenfunktionen können diese konversationellen Supportmodelle als Vermittler fungieren, Funktionen basierend auf Benutzerfeedback implementieren und praktische Unterstützung bieten.

Öffentlich sichtbare Avatare

SLMs können textbasierte, audio-basierte oder video-basierte Proxys erstellen, um Avatare für tiefgreifende, öffentlichkeitswirksame Aufgaben zu produzieren. Diese Avatare können komplexe Dienstprogramme wie 3D-Avatare, autonome Text-zu-Video-Generierung und Livestream-Integrationen auf sozialen Plattformen handhaben. SLM-basierte MoA können die interaktiven und effektiven öffentlichkeitswirksamen Avatare der nächsten Generation verbessern.

Entwicklerbeziehungen

Der Start eines spezialisierten Web3 Developer Relations (DevRel) Proof of Concept auf der AssisterrAI-Plattform zeigte eine starke Marktanpassung. Ein robustes DevRel-Regime ist unerlässlich, um Entwickler einzubinden und umfassende Unterstützung bei der Übernahme einer Technologiestack zu bieten. Dies geht jedoch mit erheblichen Kosten einher, wobei die Gehälter für DevRel-Positionen zwischen 90.000 und 200.000 US-Dollar pro Jahr liegen. Viele Anfragen zur Unterstützung von Entwicklern sind vorhersehbar und können automatisiert werden, was die Effizienz von DevRel durch den gezielten Einsatz von SLMs erhöht. Dieser Ansatz reduziert die Kosten und gewährleistet gleichzeitig eine qualitativ hochwertige Unterstützung für Entwickler.

Einstieg in Assisterr AI

Wie man sich bei Assisterr registriert

1. Besuchen Sie die Assisterr-Website: Gehen Sie zu Die Website von Assisterrund klicken Sie auf "App öffnen"

2. Verbinden Sie Ihre Brieftasche: Klicken Sie auf die Schaltfläche "Wallet auswählen" und verbinden Sie Ihre browserbasierte Solana-Brieftasche. Diese Brieftasche wird für Transaktionen und den Zugriff auf verschiedene Funktionen auf der Plattform verwendet.

3. Verknüpfen von Social-Media-Konten: Verbinden Sie Ihr X-Profil und Ihr Discord-Konto. Diese Verbindungen helfen dabei, Ihre Identität zu verifizieren und Ihre soziale Präsenz in das Assisterr-Ökosystem zu integrieren.

4. Vervollständigen Sie die Registrierung: Befolgen Sie die Anweisungen auf dem Bildschirm, um den Registrierungsprozess abzuschließen. Sobald Sie registriert sind, können Sie damit beginnen, die Plattform und ihre Funktionen zu erkunden.

Zugriff auf SLMs

1. Navigieren Sie zum SLM Store: Nach dem Einloggen gehen Sie zu dem SLM Store-Registerkarteauf der Assisterr-Oberfläche.

2. Durchsuchen Sie verfügbare Modelle: Entdecken Sie die verschiedenen verfügbaren Small Language Models (SLMs) im Shop. Jedes Modell ist für spezifische Aufgaben und Branchen konzipiert, wie z.B. Web3-Ökosysteme, Gesundheitswesen, Softwareentwicklung und Finanzwesen.

3. Abfrage Modelle: Sie können jedes Modell über eine Chatbot-Schnittstelle abfragen. Wählen Sie einfach das Modell aus, an dem Sie interessiert sind, und beginnen Sie mit der Interaktion. Abfragen können über die Web-Schnittstelle mit einer verbundenen Solana-Brieftasche oder über eine API zur Integration mit anderen Anwendungen durchgeführt werden.

So erstellen Sie Ihr erstes SLM

1. Greifen Sie auf das AI-Labor zu: Gehen Sie zur AI-Labor Registerkarteauf der Assisterr-Oberfläche.

2. Modellparameter festlegen: Füllen Sie das Konfigurationsformular aus, um wichtige Parameter, Prompt-Vorlagen und Metadaten für Ihr Modell festzulegen. Dazu gehört die Definition des Namens, des Handles, der Beschreibung des Zwecks, der Kategorie, des Coverbildes, der Konversationsstarter und des Datensatzes des Modells. Sie können diesen Prozess auch beschleunigen, indem Sie den KI-Assistenten verwenden.

3. Daten hochladen: Laden Sie direkt Daten hoch, die in das Modell eingebettet werden, indem Sie sie durch abfragegestützte Generierung (RAG) und Feinabstimmung einfügen. Diese Daten helfen dabei, das Modell für die Ausführung seiner beabsichtigten Aufgaben zu trainieren.

4. Veröffentlichen Sie Ihr SLM: Sobald Sie das Modell konfiguriert haben, klicken Sie auf die Schaltfläche Schaltfläche. Ihr Modell wird generiert und Sie können wählen, es im SLM-Store öffentlich zu machen oder privat zu behalten. Wenn Sie es öffentlich machen, können andere Benutzer auf Ihr Modell zugreifen und Abfragen stellen.

Unterstützung der Fundraising-Bemühungen von Assisterr

Assisterr, ein in Cambridge ansässiges AI-Infrastruktur-Startup, hat erfolgreich eine Pre-Seed-Finanzierungsrunde in Höhe von 1,7 Millionen Dollar abgeschlossen. An dieser Investitionsrunde beteiligten sich namhafte Web3-Venture-Fonds, darunter Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, sowie bekannte Engel wie Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux und Ethan Francis. Die Mittel waren entscheidend für den Aufbau der grundlegenden Infrastruktur von Assisterr und den Start seiner Plattform.

Seit seiner Einführung hat Assisterr bedeutende Meilensteine erreicht, darunter die Gewinnung von 150.000 registrierten Benutzern und die Einführung von über 60 Small Language Models (SLMs) für führende Web3-Protokolle wie Solana, Optimism, 0g.ai und NEAR. Darüber hinaus hat Assisterr Anerkennung erlangt, indem es mehrere globale Hackathons gewonnen und am AI Startups-Programm von Google teilgenommen hat. Dabei konnte es 350.000 US-Dollar an Finanzierungsmitteln sichern, um seine GPU-, CPU- und Cloud-Infrastrukturanforderungen zu unterstützen.

Zukünftiger Fahrplan und Meilensteine

Assisterr hat einen klaren Fahrplan für zukünftiges Wachstum und Entwicklung. Zu den wichtigsten Meilensteinen gehören:

  1. AI-Labor (Q4 2024)

    • Starten Sie das AI-Labor, damit Benutzer SLMs erstellen und besitzen können.
    • Erreichen Sie 500.000 Benutzer.
    • Implementieren Sie das SLM Creator Incentive Program.
    • Entwickeln Sie 5.000 SLMs.
    • Schließen Sie die Seed-Runde ab.
  2. Netzwerkwachstum (H1 2025)

    • Entwickeln Sie SLMs für domänenspezifische Aufgaben.
    • Führen Sie Token-Generierungsevent (TGE) und Listings durch.
    • Erreiche 3 Millionen Nutzer.
    • Entwickeln Sie 30.000 SLMs.
  3. Mischung aus SLM-Agenten (H2 2025)

    • Implementieren Sie SLM-Orchestrierung für domänenagnostische Aufgaben.
    • In Web2 expandieren.
    • Erreichen Sie 10 Millionen Benutzer.
    • Entwickeln Sie 100.000 SLMs.

Schluss

Assisterr bahnt ein neues dezentrales, community-eigenes KI-Zeitalter an, indem es Small Language Models (SLMs) und innovative Wirtschaftsmodelle nutzt. Indem es die Grenzen von Large Language Models (LLMs) angeht und einen kooperativen Ansatz fördert, macht Assisterr die KI-Technologie zugänglicher, effizienter und nachhaltiger. Das umfassende Ökosystem der Plattform, einschließlich der KI-Labore, des SLM-Stores und kooperativer Elemente, ermöglicht es den Nutzern, KI-Modelle zu erstellen, zu teilen und zu monetarisieren.

Autore: Angelnath
Traduttore: Viper
Recensore/i: Matheus、Edward
Revisore/i della traduzione: Ashely
* Le informazioni non sono da intendersi e non costituiscono consulenza finanziaria o qualsiasi altro tipo di raccomandazione offerta da Gate.io.
* Questo articolo non può essere riprodotto, trasmesso o copiato senza menzionare Gate.io. La violazione è un'infrazione della Legge sul Copyright e può essere soggetta ad azioni legali.
Inizia Ora
Registrati e ricevi un buono da
100$
!
It seems that you are attempting to access our services from a Restricted Location where Gate.io is unable to provide services. We apologize for any inconvenience this may cause. Currently, the Restricted Locations include but not limited to: the United States of America, Canada, Cambodia, Cuba, Iran, North Korea and so on. For more information regarding the Restricted Locations, please refer to the User Agreement. Should you have any other questions, please contact our Customer Support Team.