onisin OS verbindet die Intelligenz moderner KI mit Ihren Unternehmensdaten — ohne dass ein einziges Byte Ihr Netzwerk verlässt.
onisin OS bridges modern AI with your enterprise data — without a single byte ever leaving your network.
Der Chat-Assistent stellt Fragen in natürlicher Sprache — das Ergebnis erscheint als strukturiertes Board im Tab daneben. Der Designer erlaubt es, Domains und Views direkt in der DSL zu bearbeiten und die Vorschau live zu sehen.
The chat assistant answers questions in natural language — the result appears as a structured board in the adjacent tab. The designer lets you edit domains and views directly in the DSL with a live preview.
Sensible Daten bewegen sich ausschließlich zwischen Ihrem Client und Ihrem Backend. Die KI sieht nur Schema und Abfrageergebnisse — niemals Rohdaten. Auch dann nicht, wenn Sie ein gehostetes Modell verwenden.
Sensitive records only travel between your client and your backend. The LLM only ever sees schema and query results — never raw rows. Even when you use a hosted model.
Rapid Application Development ist ein alter Hut — neuerdings
heißt das Gleiche „Low-Code" oder „KI-natives App-Building".
Wir bleiben beim ursprünglichen Begriff: Ein
context beschreibt Ihre Daten, ein
screen beschreibt die Oberfläche, onisin OS
erzeugt daraus automatisch GraphQL-Schema, UI und KI-Kontext.
Rapid Application Development is a familiar idea —
recently rebranded as "low-code" or "AI-native app
building". We stick with the original name: a
context describes your data, a
screen describes the UI, and onisin OS
generates the GraphQL schema, the rendered UI and the
AI-facing schema automatically.
Der onisin-OS-Client basiert auf Electrobun — einer nativen macOS-Laufzeit mit Bun als Backend und React als UI-Schicht. Kein Electron, kein Browser-Overhead. Mehrere Fenster, echtes Tastatur-Handling, vorhersehbares Verhalten.
The onisin OS client is built on Electrobun — a native macOS runtime with Bun as the backend and React as the UI layer. No Electron, no browser overhead. Multiple windows, real keyboard handling, predictable behaviour.
onisin OS besteht aus wenigen, klar abgegrenzten Bausteinen. Sensible Daten fließen ausschließlich innerhalb der gestrichelten Zone. Die KI — egal ob lokal oder gehostet — bekommt Schema und Werkzeuge, niemals Datensätze.
onisin OS has a small number of clearly bounded building blocks. Sensitive data only flows inside the dashed zone. The LLM — whether local or hosted — receives schema and tools, never rows.
Ein Beispiel: Der Benutzer schreibt „Zeig mir alle Berliner Kunden über 50". Vier Schritte, in denen jeder genau weiß, wofür er zuständig ist.
For example: the user types "show me all Berlin customers over 50". Four steps — each part of the system knows exactly what it does.
Die KI sucht im Schema-Index nach dem passenden Kontext —
hier person_list — und kennt nun Felder und
Filter-Syntax.
The assistant looks up the matching context in the schema
index — here person_list — and now knows its
fields and filter syntax.
Die KI generiert eine GraphQL-Abfrage mit den im Schema definierten Filterargumenten. Keine erfundenen Feldnamen.
The assistant generates a GraphQL query using the filter arguments defined in the schema. No invented field names.
Das Backend prüft die Rolle des Benutzers gegen die Permission-Matrix des Kontexts und führt die Abfrage auf der Datenquelle aus.
The backend checks the user's role against the context's permission matrix and runs the query against the data source.
Der Client öffnet das entsprechende Board und rendert das Ergebnis gemäß der Screen-Definition — ohne dass die KI die Daten selbst zu Gesicht bekommt.
The client opens the matching board and renders the result using the screen definition — without the LLM ever seeing the data itself.
Was im Chat eingegeben wird, landet nicht nur in einer Datenbank — es wird sofort eingebettet, vektorisiert und für den KI-Assistenten abrufbar gemacht. Ohne manuelle Schritte, ohne externe Dienste.
What is entered in the chat does not just land in a database — it is immediately embedded, vectorised and made retrievable for the AI assistant. No manual steps, no external services.
Weder der Client noch das Backend tun etwas, bevor der Benutzer authentifiziert ist. Jede Aktion wird gegen eine Permission-Matrix geprüft — sowohl in der Oberfläche zur Benutzerführung, als auch im Backend als autoritative Durchsetzung.
Neither the client nor the backend does anything before the user has authenticated. Every action is checked against a permission matrix — both in the UI for user guidance, and in the backend for authoritative enforcement.