nCPU: Diese verrückte CPU läuft komplett auf der GPU – mit neuronalen Netzen für Arithmetik

nCPU: Diese verrückte CPU läuft komplett auf der GPU – mit neuronalen Netzen für Arithmetik

Was passiert, wenn man eine komplette CPU-Architektur auf die GPU verlagert – und dann alle Rechenoperationen durch trainierte neuronale Netze ersetzt? Das Ergebnis heißt nCPU und ist so verrückt, dass es funktioniert.

Das Open-Source-Projekt implementiert Register, Speicher, Flags und den Programmzähler als PyTorch-Tensoren. Jede ALU-Operation – Addition, Multiplikation, Bitshifts – wird von einem trainierten .pt-Modell ausgeführt. Keine hardgecodete Arithmetik, nur Neural Networks.

Die Architektur ist elegant: Addition nutzt Kogge-Stone Carry-Lookahead mit 8 neuronalen Durchläufen. Multiplikation basiert auf gelernten Byte-Paar-Lookup-Tabellen. Bitweise Operationen verwenden neuronale Wahrheitstabellen. Shift-Operationen setzen auf Attention-basiertes Bit-Routing.

Das Resultat: 100% Genauigkeit bei Integer-Arithmetik, verifiziert durch 347 automatisierte Tests. 23 trainierte Modelle mit zusammen etwa 135 MB. Auf Apple Silicon (MPS-Backend) erreicht ein einzelner Multiply-Befehl 21 Mikrosekunden Latenz.

Warum macht man so etwas? Teils als proof-of-concept, teils als Forschungsplattform für alternative Compute-Paradigmen. Wenn neuronale Netze Addition "lernen" können, was bedeutet das für die Zukunft von spezialisierter KI-Hardware?

Der Code ist auf GitHub verfügbar und läuft mit einem simplen "pip install -e" gefolgt von "python main.py --program fibonacci.asm". Wer schon immer mal seine Fibonacci-Berechnung durch 23 neuronale Netze jagen wollte – jetzt ist die Chance.