⚠️ ACHTUNG: KNOTENCORE v1.0.48 IST STRENG EXPERIMENTELL. NICHT FÜR PRODUKTIONSSYSTEME GEEIGNET.
„Das Werkzeug ist neu. Aber die Arbeit – die Idee, die Richtung, das Urteil, das Durchhalten – die bleibt beim Menschen.“
Die gesamte Founder Story lesen →
Techno Hinweis

KnotenCore ist kein deutsches Hardcore-Techno-Subgenre. Wir pumpen Frames, keine 160 BPM Basslines.

v1.0.48 • "The Marketplace Launch" 🚀

KNOTENCORE ENGINE

Die Agent-First Rust Engine. Eine deterministische, Token-effiziente Powerhouse für KI-Agenten. KI schreibt keinen React-Code für Menschen – KI schreibt Neural DSL für eine Bare-Metal Agent VM.

Interner Flow

Modulare Architektur

KnotenCore trennt Intelligenz von Ausführung. Ihr Agent definiert die Logik via AST; unsere Engine übernimmt die schwere Arbeit.

Modul Rolle & Kernfunktion
executor.rs Koordinator — Orchestriert den Datenfluss zwischen allen Engine-Komponenten.
evaluator.rs Interpreter (JIT) — Rekursive Auswertung von Logik und High-Level UI-Nodes.
vm/mod.rs Virtuelle Maschine (AOT) — Ahead-of-Time Bytecode-Compiler für rechenintensive Schleifen.
renderer.rs Augen — WGPU-Pipeline, Blinn-Phong Shading und native 3D-Primitive.
window.rs Haut — Winit Event-Loop, nativer App-Lebenszyklus und Hardware-Input.
async_bridge.rs Nervensystem — Nicht-blockierende Hintergrund-Worker für Netzwerk und Daten.
Basis

Entwickelt für AI-Readiness

KnotenCore bietet eine maschinen-validierte Umgebung. Jeder Node und jede Funktion ist formal spezifiziert, um LLM-Halluzinationen zu eliminieren.

// docs/LANGUAGE_REFERENCE/nod_grammar.ebnf
expr = math_op | logical_op | fn_call;
node = "{" variant ":" args "}";
block = "[" { node } "]";
// docs/LANGUAGE_REFERENCE/node_types.json
"MathDiv": {
    "type": "object",
    "properties": {
        "lhs": { "$ref": "#/definitions/node" },
        "rhs": { "$ref": "#/definitions/node" }
    },
    "additionalProperties": false
}
// CLI --output-format json
{
    "status": "fault",
    "msg": "Fault: Div by zero (at Node::MathDiv)",
    "node": "Node::MathDiv",
    "hint": "Ensure rhs is not zero"
}
KnotenCore eliminiert menschzentrierten Boilerplate. AI schreibt Neural DSL für eine Bare-Metal VM – kein React, kein GC, Binärdateien bei ~7 MB.

Null Boilerplate

Kein NPM, keine Konfig-Hölle. AI generiert den AST; die Engine übernimmt die Ausführung.

Maschinenlesbar

Standardisierte Schemata und Grammatiken ermöglichen eine Generierung ohne Kontextverlust.

AOT Bytecode VM

Rekursiver Interpreter für UI, flache Opcode-VM für intensive Berechnungen.

Progress

Sprint Meilensteine

Sprint 1
Grundidee & Neural DSL Vision
Sprint 25
Erste Stack-Machine (Opcodes)
Sprint 58
Neural DSL Parser v0.1
Sprint 89
AOT-Compiler (Binary Emission)
Sprint 109
Lock-Free Input Architektur
Sprint 118
Natives JSON Parsing & FFI Bridge
Sprint 121
WGPU 3D Primitive & Shading
Sprint 124
AI-Readiness: Self-Healing & Context Engine
Sprint 132
VS Code Extension (Phase 1)
Sprint 134
Audit Rectification — Security & Reality
Sprint 137–144
LSP: Diagnostics, Hover, Completion, Rename, Goto
Sprint 146–152
GPGPU Compute Shaders & AI-DX Bridge
Milestone: v1.0.48
The Marketplace Launch 🚀
Tag: v1.0.48 • Target: main

KnotenCore v1.0.48:
The Marketplace Launch 🚀

KnotenCore überschreitet die Schwelle von experimentell zu global verfügbar. Die VS Code Extension ist live im offiziellen Marketplace, der native LSP-Server liefert Echtzeit-Diagnosen und Auto-Vervollständigung, und die Engine leitet Berechnungen nun direkt über WGPU Compute Shader an die GPU weiter.

🛍 VS Code Marketplace Launch (Sprint 150–151)

KnotenCore Neon-K VS Code Extension Icon

Direkt in VS Code installieren:

ext install holger-bl.knotencore
  • Syntax-Highlighting & Snippets für .knoten und .nod Dateien — live im offiziellen Marketplace.
  • Nativer knoten_lsp-Server: Echtzeit-Diagnostics (ERR_UNKNOWN_NODE), Hover-Docs, Auto-Vervollständigung, Rename-Refactoring, Goto-Definition.
  • Tiefe Schema-Validierung ("The Iron Shield") blockiert fehlerhafte AST-Generierung vor der Ausführung.

⚡ GPGPU Compute Shader Acceleration (Sprint 146–152)

  • LoadComputeShader(wgsl_source) kompiliert WGSL-Shader nativ auf der GPU via wgpu::Device.
  • DispatchCompute(id, x, y, z) feuert GPU-Workgroups ab — für KI-Inferenz, Simulationen und datenparallele Tasks.
  • Verifiziert in allen 10 Engine-Schichten: AST → Opcode → Compiler → VM → Registry → Window.

🔒 Compliance & Integrität

  • cargo clippy --workspace --all-targets -D warnings — 0 Warnungen. Durchgesetzt durch GitHub Actions CI.
  • 3-Gate CI: cargo fmtcargo clippycargo test. Jeder Push auf main wird automatisch verifiziert.
  • Audit autonom durchgeführt durch KI-Agent Antigravity — Live-Beweis für KnotenCore AI-Readiness.
Performance

AOT Compiler & Constant Pool

v1.0.28-alpha emittiert flachen RPN-Bytecode. Wiederkehrende Werte (Strings, Floats) landen automatisch im deduplizierten Constant-Pool. Das bedeutet: Nahezu O(1) Allokation beim AST-Iterieren, und keine Heap-Explosionen mehr.

compiler.rs (v1.0.28-alpha)
// Memory Deduplication
let idx = compiler.add_constant(RelType::Int(10));
compiler.instructions.push(OpCode::Constant(idx));
async_bridge.rs
// Resilientes Async-Networking
let agent = ureq::AgentBuilder::new()
    .timeout(Duration::from_secs(10))
    .build();
Konnektivität

Resiliente AsyncBridge

Entwickelt für das moderne Web. Die AsyncBridge lagert blockierende I/O-Vorgänge (wie Fetch-Nodes) auf dedizierte Background-Worker mit strikten Timeouts aus. Ihr Agent bleibt reaktionsschnell.

Sicherheit

Gehärtete Sandbox

Sicherheit wird hier nicht erst im Nachhinein bedacht. v1.0.28-alpha implementiert Strict Permissions by default. Agenten haben keinen Zugriff auf das Netzwerk oder das Dateisystem, sofern dies nicht explizit über CLI-Flags autorisiert wurde. Absolute Isolation für autonomen Code.

run_knc.rs
// Secure by Default
engine.permissions.allow_fs_read = false;
engine.permissions.allow_fs_write = false;
machine.rs
// Error-Hardened ALU
OpCode::Add => {
    let r = stack.pop().ok_or("Stack underflow")?;
    let l = stack.pop().ok_or("Stack underflow")?;
    stack.push(l + r);
}
Turing-vollständig

Stack-based Bytecode VM

Die Execution-Engine ist nun eine echte Stack-Maschine (Instruction Pointer basiert). Dank Compiler-Backpatching unterstützt sie nativ Conditional Branching, Loops und blitzschnelle RPN-Operationen.