
@Walrus 🦭/acc #walrus $WAL
Wenn ich an den AI-Datensatz-Hub denke, sehe ich ihn nicht als reines Datenspeicher-System, sondern als "Rückgrat" der gesamten AI-Wertschöpfungskette.
Daten werden nicht nur gesammelt und gespeichert, sondern auch standardisiert, identifiziert, nachverfolgt und über den gesamten Modelllebenszyklus hinweg wiederverwendet.
In einer Welt, in der KI zunehmend auf große, vielfältige und langfristig genutzte Daten angewiesen ist, geht es für mich nicht mehr darum, ob Daten vorhanden sind, sondern vielmehr darum, wo die Daten gespeichert sind, wer sie kontrolliert und wie der aus den Daten entstehende Wert verteilt wird.
Genau aus diesem Grund halte ich es für lohnenswert, die Trainingsdaten auf Walrus zu speichern.
Betrachtet man die aktuelle Situation, befinden sich die meisten Trainingsdaten von KI in zentralen Silos: in den Clouds großer Tech-Unternehmen, internen Servern von Unternehmen oder in geschlossenen Datenbanken.
Wenn ich mit AI-Teams arbeite, sehe ich drei sich wiederholende Probleme.
Erstens besteht das Risiko der Zentralisierung: Daten können aus politischen Entscheidungen heraus blockiert, gelöscht oder der Zugriff geändert werden.
Zweitens fehlt die Nachprüfbarkeit: Es ist praktisch unmöglich zu wissen, ob ein Datensatz, der für ein Modell verwendet wurde, verändert oder selektiv ausgewählt wurde.
Drittens besteht eine extrem ungleiche Verteilung des Werts: Diejenigen, die Daten erstellen, bereinigen und annotieren, erhalten oft nichts, wenn ein Datensatz ein Modell mit einem Wert von mehreren Millionen Dollar hervorbringt.
Walrus ist für mich eine Infrastruktur, die einen völlig neuen Denkansatz eröffnet.
Anstatt Daten für KI nur als „Rohstoff“ zu betrachten, ermöglicht Walrus mir, Datensätze als langfristige Vermögenswerte zu sehen, die identifizierbar sind, eine Historie haben und direkt wirtschaftliche Mechanismen darauf aufbauen können.
Dass Walrus sich auf die Speicherung großer, dauerhafter und langfristig referenzierbarer Daten konzentriert, passt perfekt zu den Anforderungen von Trainingsdaten, die nicht ständig geändert werden müssen, aber eine extrem hohe Zuverlässigkeit erfordern.
In dem von mir vorgestellten AI-Datensatz-Hub wird jeder Datensatz – oder sogar jedes Fragment eines Datensatzes – auf Walrus als immutable Blob gespeichert.
Wenn ein Datensatz auf Walrus veröffentlicht wird, erhält er eine content-addressed-ID, was bedeutet, dass sich die ID bereits ändert, wenn nur ein Bit geändert wird.
Für mich ist dies äußerst wichtig: Es ermöglicht eine genaue Nachverfolgbarkeit, auf welchen Daten und welcher Version ein Modell trainiert wurde.
Es gibt nicht mehr die Situation von „einem Datensatz, der der alten Version ähnlich ist“ oder „eine leichte Aktualisierung, ohne dass dies dokumentiert wurde“.
Dies ist die Grundlage dafür, dass KI näher an echte Reproduzierbarkeit heranreicht, nicht nur auf der Ebene von Papieren oder Blogs.
Der AI-Datensatz-Hub, wie ich ihn sehe, ist nicht nur ein Ort zum Hochladen und Herunterladen von Daten.
Es ist eine Koordinierungsschicht.
Auf Walrus kann ein Hub eine Metadata-Schicht aufbauen, die eng mit jedem Datensatz verknüpft ist: Herkunft, Lizenz, Domain, Sprache, Sammelmethoden, Sensibilitätsgrad und sogar erkannte Verzerrungen.
Wenn ich als Benutzer eines Datensatzes arbeite, um ein Modell zu fine-tunen, erhalte ich nicht nur Rohdaten, sondern auch ein klares Verständnis ihres Kontexts.
Dies hilft mir, bei der Modelltrainings- und -bewertungsphase viel bessere Entscheidungen zu treffen.
Ein Punkt, den ich besonders schätze, ist die flexible Zugriffssteuerung.
Nicht alle Trainingsdaten sollten vollständig öffentlich sein.
In der Praxis begegnet man sehr vielen sensiblen oder proprietären Datensätzen.
Durch die Kombination von Walrus mit Smart Contracts kann ein AI-Datensatz-Hub bedingten Zugriff für mehrere Modelle ermöglichen: Token stake für das Lesen, Gebühren für das Herunterladen oder nur die Möglichkeit, die Prüfsumme zu überprüfen, ohne den gesamten Datensatz kopieren zu dürfen.
Dies schafft eine sehr interessante Grauzone zwischen Open Data und Closed Data, anstatt gezwungen zu sein, zwischen beiden zu wählen.
Wirtschaftlich ist das der Teil, der mich am meisten interessiert.
Wenn ein Datensatz auf Walrus gespeichert wird und von verschiedenen Modellen referenziert wird, beginnt dieser Datensatz, einen sich wiederholenden Wertstrom zu erzeugen.
Ein AI-Datensatz-Hub kann direkte Einnahmenteile an die Datenspendenden vergeben: Jedes Mal, wenn ein Datensatz zum Training oder Fine-Tuning verwendet wird, wird automatisch ein Teil der Gebühr zurückvergütet.
Für mich ist dies eine äußerst „on-chain-native“ Lösung für das Problem, wer von der KI profitiert, anstatt auf komplizierte und undurchsichtige rechtliche Vereinbarungen angewiesen zu sein.
Aus Sicht von MLOps macht die Speicherung von Trainingsdaten auf Walrus die Pipeline modularer.
Anstatt S3-Buckets oder interne Pfade hart zu codieren, muss der Pipeline nur die Datensatz-ID referenzieren.
Ein Model Card kann genau angeben, auf welchem Datensatz und welcher Version dieses Modell trainiert wurde.
Wenn ich Audits durchführen, Rollbacks durchführen oder die Leistung verschiedener Trainingsläufe vergleichen muss, ist alles klar und nachvollziehbar.
In einem zunehmend strengeren regulatorischen Umfeld um KI ist dies ein erheblicher Vorteil.
Ein Anwendungsfall, den ich besonders gut geeignet finde, sind community-curated Datensätze.
Zum Beispiel kann eine Community, die sich auf Recht, Biomedizin oder Sprachen mit geringer Ressourcen konzentriert, gemeinsam einen Datensatz erstellen, auf Walrus speichern und über einen AI-Datensatz-Hub verwalten.
Datensätze gehören nicht einer einzigen Firma, aber auch nicht niemandem.
Die Entscheidung über den Zugriff, Preise oder Aktualisierungen eines Datensatzes kann über eine DAO koordiniert werden.
Das ist etwas, das Web2 bisher kaum effektiv umgesetzt hat.
Natürlich denke ich nicht, dass Walrus die eine Lösung für alle Probleme ist.
Das Training von KI erfordert hohe Durchsatzraten, während dezentrale Speicherung auf Haltbarkeit und Integrität setzen.
Aber in der Realität haben moderne Pipelines alle bereits Caching-, Vorabruf- und Streaming-Schichten.
Für mich sollte Walrus die Quelle der Wahrheit sein, während die Leistung in der Schicht darüber optimiert wird.
Schließlich ist der AI-Datensatz-Hub, der Trainingsdaten auf Walrus speichert, für mich nicht nur ein Infrastrukturproblem.
Es ist meine Vorstellung von der Zukunft der KI: einer Welt, in der Daten als Vermögen gelten, die Datenbeiträge klarer Rechte haben und Modelle nur eine Wertebene sind, die auf einer transparenten Datenbasis aufgebaut ist.
Wenn KI langfristig ein öffentliches Gut werden soll, dann werden die Entscheidungen, wie wir Trainingsdaten heute speichern und verwalten, entscheidend für die Zukunft sein.


