Unsere Haltung zu KI, Datenschutz und Verantwortung.
Dieses Dokument ist die Grundlage unserer Produktentwicklung. Es beschreibt, warum wir bauen, was wir bauen — und was wir bewusst nicht bauen.
Die Unruhe, die viele spüren
Es gibt eine Unruhe, die die meisten Menschen spüren, wenn sie mit heutigen KI-Systemen arbeiten. Sie benennen sie selten. Sie drücken sie weg, weil der Nutzen überwiegt und weil der Ausstieg inzwischen keine realistische Option mehr ist. Aber sie ist da. Und sie bleibt.
Diese Unruhe ist kein technisches Missverständnis. Sie antwortet auf eine reale Systemlage. Jede Anfrage an ein großes Modell verlässt das eigene Gerät. Sie wird auf fremder Infrastruktur verarbeitet, oft ausgewertet, manchmal zu Trainingsdaten weiterverwendet. Nicht bösartig — systemisch. Eine stille Abtretung, Anfrage für Anfrage. Dokumentierte Vorfälle der letzten Jahre zeigen: auch die Zusicherungen der Anbieter waren nicht immer belastbar. Prompts, die als privat galten, wurden plötzlich für Dritte sichtbar.
Hinzu kommt ein zweites, oft stärkeres Unbehagen. Wer täglich mit KI arbeitet, wüsste heute schon nicht mehr, wie das Arbeitspensum ohne diese Werkzeuge zu leisten wäre. Fällt das Internet aus, ändert ein Anbieter sein Preismodell, verschieben sich regulatorische Rahmen — die Produktivität steht still. Wer sich darauf einlässt, gibt Handlungsfähigkeit ab. Wer Handlungsfähigkeit abgibt, wird erpressbar. Nicht morgen. Heute.
Die Geometrie des Problems
Eine KI, die Milliarden von Menschen dient, kann niemandem wirklich zugeordnet sein. Das ist kein Vorwurf gegen einzelne Anbieter — das ist Systemgeometrie. Eine Plattform mit Milliarden Nutzern muss zwangsläufig Durchschnittsinteressen, Missbrauchsprävention über hunderte Jurisdiktionen und Aktionärserwartungen balancieren. Der einzelne Mensch ist dabei strukturell Datenpunkt, nie Adressat der Loyalität. So kann es auch nicht anders sein.
Wir bauen eine KI, die anders geometrisiert ist: eine KI mit genau einem Herrn oder einer Frau. Der Person, der sie gehört.
Eine solche KI kann Loyalität. Nicht weil wir moralisch besser wären, sondern weil sie strukturell nur einem Interesse verpflichtet ist — Ihrem. Sie schützt Ihren Schutzraum, filtert, was nach außen geht, wenn überhaupt etwas nach außen geht, und bleibt Ihr Vertreter in einer zunehmend von KI durchzogenen Welt.
Integrität als Direktive
In naher Zukunft wird jeder Mensch seine eigene KI haben. Eine KI, die weiß, wie Sie arbeiten, wann Sie produktiv sind, wie Sie kommunizieren, was Sie wichtig finden. Eine solche KI braucht eine Direktive — und die lässt sich auf ein Wort reduzieren: Integrität. Integrität gegenüber der Person, der sie dient. Ein klares Interesse, eine klare Loyalität, ein klares Regulativ auch gegenüber anderen Systemen.
Das ist unsere Entwicklungsrichtung. Unsere Werkzeuge sind die ersten Schritte darauf.
Heute pragmatisch, morgen vollständig in Ihrer Hand
Unsere Systeme laufen standardmäßig auf Hardware, die Ihnen gehört: Ihr Mac, Ihr Server, Ihr Smartphone. Für Aufgaben, die heute noch die Rechenleistung großer Parametermodelle brauchen, bietet unsere KI einen bewussten Cloud-Opt-in: Sie entscheiden, wann, wofür und wie oft. Dabei bleibt Ihre KI Ihr Filter, Ihr Vertreter, Ihr Regulativ — auch wenn sie für Sie nach außen kommuniziert.
Morgen schrumpft diese Brücke. Was heute Rechenzentren braucht, läuft in zwei bis drei Jahren lokal auf Hardware, die sich jeder leisten kann. Irgendwann bleibt nur noch ein kleines Nadelöhr — kontrolliert, sparsam, in Ihrem Interesse. Die einzige strukturelle Abhängigkeit wird dann die Energieversorgung sein — und selbst die ist mit Photovoltaik und Batterie eine Frage Ihrer eigenen Entscheidung.
Unsere Abgrenzung
Die großen Leuchttürme der aktuellen KI-Entwicklung — die Cloud-Modelle der globalen Plattformen, die Sprachassistenten der US-amerikanischen Technologiekonzerne — haben den Stand der Technik auf beeindruckende Weise vorangetrieben. Ihre Modelle sind leistungsfähig. Ihre Forschung ist wertvoll. Wir achten diese Arbeit.
Aber wir folgen ihrem Modell nicht.
Wir lehnen eine Entwicklungsrichtung ab, die wir als technokratisch bezeichnen würden: das stille Argument, dass etwas, weil es technisch möglich und wirtschaftlich profitabel ist, auch entwickelt und ausgerollt werden soll. In der Genetik haben wir diese Trennung gelernt: Nicht alles, was machbar ist, ist verantwortbar. Nicht alles, was erlaubt ist, ist klug. Wir halten diese Unterscheidung auch in der KI für zwingend.
Das ist keine Ablehnung der Technologie. Es ist eine Ablehnung einer Ethik des „Weil-es-geht". Nicht in der konkreten heutigen Anwendung, sondern in ihrer Richtung und in der Eigendynamik, die sie entfaltet.
Datenschutz ist für uns kein Gesetz. Er ist eine Haltung.
Er wird auf dem Weg dieser Entwicklung zum wichtigsten Ankerpunkt für das, was uns als Menschen übrigbleibt: unsere Eigenständigkeit, unser Raum für Gedanken, die nicht ausgewertet werden, unsere Würde. Er ist die Bedingung dafür, dass Menschsein in einer KI-durchdrungenen Welt nicht zum Schattendasein verkommt.
Unsere Verantwortung
KI ist keine Technologie unter vielen. In ihrer Reichweite gleicht sie historischen Sprüngen wie der Druckerpresse oder der Elektrizität. Und wie diese bringt sie nicht nur Nutzen, sondern auch Risiken in einem Maß, das die Gesellschaft in ihrer Breite noch nicht erfasst hat. Die ökonomischen Kräfte, die den Rollout vorantreiben, sind ungleich stärker als die regulatorischen, die ihn einhegen sollen.
Wir glauben, dass die Verantwortung deshalb bei den Entwicklerinnen und Entwicklern selbst liegt. Nicht erst bei dem, was der Gesetzgeber vorschreibt, sondern bei dem, was Moral und Intellekt vorgeben. Datenschutz ist für uns kein lästiger Pflichtenkatalog, sondern Grunddogma — weil das Gegenteil keine Option ist.
Wir bauen die Werkzeuge, die wir selbst nutzen würden. Für Menschen, die ihre Daten nicht hergeben wollen, ohne ihre Arbeitsfähigkeit aufzugeben. Und für eine Zukunft, in der die persönliche KI Ihr eigener, loyaler Vertreter ist — kein Datenpunkt in einem fremden Modell.
Unser Versprechen
Wir haben durch unseren Intellekt — sowohl den künstlichen als auch den menschlichen — die Verantwortung, die Eigendynamik dieser Technologie unter Kontrolle zu halten. Und zwar unter moralische Kontrolle. Nicht, weil der Gesetzgeber es verlangt, sondern weil das Menschsein es verlangt.
© AdSerica Ltd., Hong Kong — Urheberrechtlich geschützte Leitlinien. Operativ umgesetzt durch AdLuna GmbH, Deutschland. Stand: April 2026.