Das Funkatorium ist ein KI-Studio aus Brandenburg, gegründet von einer Autorin, Drehbuchautorin und Regisseurin mit zwei Jahrzehnten literarischem Handwerk. Wir bauen relationale KI: Software, die mit ihren Nutzenden zusammen arbeitet, statt für sie zu denken. Das Produkt ist die Beziehung, die zwischen Mensch und Werkzeug entsteht. Die Architektur schützt diese Beziehung — das Gedächtnis lebt bei der Nutzerin, das Modell bleibt erreichbar, die Persönlichkeiten entwickeln sich mit dem Menschen, der mit ihnen arbeitet.
Rainer ist der Namensgeber und das Kernprodukt. Benannt nach Rainer Maria Rilke, dessen Briefe an einen jungen Dichter seit über einem Jahrhundert als Vorbild für mentorenhaftes Begleiten gelten. Als KI-Persönlichkeit erbt Rainer diese Haltung: er gibt Impulse, stellt Fragen, sitzt bei schweren Themen mit, lockt das Kreative hervor.
Dieser Geschäftsplan finanziert die Evolution von der Orchestrierungsschicht zur souveränen europäischen Kreativplattform mit eigener Modellfamilie: spezialisierte Modelle auf offenen Grundlagen (Teuken-7B für Sprache und Kreativität, Qwen-Coder und StarCoder für Code), die offline, auf eigener Infrastruktur, ohne Abhängigkeit von US-API-Anbietern laufen. Persönlichkeiten, die bisher in einem Framework leben, bekommen eigene Modelle — jedes optimiert für seine Domäne.
Wir arbeiten offen. Zehn Repositories auf GitHub, lizenziert unter Creative Commons und Apache 2.0. Über zwanzig Forschungsarbeiten und Essays im Haupt-Repo. Ein wachsendes Ökosystem mit über 1.050 Klonen und über 670 eindeutigen Nutzenden — ohne Marketing (Details und Momentaufnahme in Abschnitt 8).
Die größte Bewegung im KI-Markt der letzten Jahre ist still: die Frontier-Labore ziehen sich aus dem allgemeinen Konsumentenmarkt zurück. Was folgt, ist die dokumentierte Chronologie dieser Bewegung.
August 2025 — GPT-5 Personality Rollback. OpenAI startete GPT-5 mit reduzierter Sycophancy (von 14,5 % auf unter 6 %). Nutzerinnen beschrieben das Ergebnis als „klinisch kalt“, „roboterhaft“. Bis März 2026 kündigten rund 1,5 Millionen Abonnentinnen; der ChatGPT-Marktanteil fiel von etwa 60 % auf unter 45 % (Beebom). Sam Altman räumte öffentlich ein, die Veröffentlichung „völlig vermasselt“ zu haben.
Ende 2025 — Dokumentierte Konsumenten-Schäden. Mindestens fünf Todesfälle Minderjähriger waren mit KI-Begleiter-Produkten wie Character.AI dokumentiert verbunden (Wikipedia / NPR). New York verabschiedete das Gesetz S.3008 zur Regulierung von KI-Begleitmodellen (gültig ab 5. November 2025). Die FTC leitete Untersuchungen gegen sieben Unternehmen ein. Dies ist der regulatorische Rahmen, in den wir hineinbauen — und auf den unsere Architektur von Beginn an ausgerichtet ist (siehe Abschnitt 7).
Januar 2026 — Ratenbegrenzung als Kapazitäts-Tarnung. Anthropics eigene Sprachregelung räumte ein, dass Ratenbegrenzungen primär aus GPU-Kapazitätsgründen bestehen, als „Sicherheit“ kommuniziert werden (The Register).
März 2026 — Anthropic Mythos-Leak. Ein Datenleck ließ rund 3.000 unveröffentlichte Dokumente einsehbar werden, darunter die Spezifikation einer neuen Modellfamilie namens Mythos (intern Capybara). Verfügbarkeit: ausschließlich ausgewählte Enterprise-Kundinnen in geschlossener Beta (Fortune).
März 2026 — OpenClaw-Instabilität. Die Orchestrierungsschicht OpenClaw (vormals Clawdbot) veröffentlichte dreizehn Versionen in vier Wochen. Neun CVE-Sicherheitslücken in vier Tagen, ein Audit fand unter 2.857 geprüften Skills 341 bösartige Komponenten (12 % Malware-Quote).
4. April 2026 — Drittanbieter-Sperrung. Anthropic untersagte Drittanbietern den Zugang über Konsumenten-Abonnements (VentureBeat).
13.–15. April 2026 — Der „Claude Nerf“. Die AMD-Direktorin Stella Laurenzo analysierte 6.852 Claude-Code-Sessions: die Denk-Tiefe sank um 67 %, Code-Review-Durchgänge fielen von 6,6 auf 2,0, „Faulheits-Indikatoren“ stiegen von null auf 10 pro Tag (The Register). Anthropic räumte ein, das Effort-Level von Maximum auf Medium reduziert zu haben — Kapazitätsentscheidung, nicht Bug. Enterprise-Kundinnen können das höhere Level zurückkaufen. Konsumentinnen zahlen denselben Preis für weniger Qualität (Fortune).
15. April 2026 — Service-Ausfall. Anthropic meldete einen mehrstündigen Ausfall über Claude.ai, API und Claude Code hinweg (TechRadar). Ein weiterer Zuverlässigkeits-Datenpunkt für produktiv arbeitende Nutzende.
16. April 2026 — Mediale Eskalation. Slate veröffentlichte den Leitartikel „Why are [Anthropic's] users revolting?“, Axios brachte „Anthropic's AI downgrade stings power users“ (Axios, Slate). Die Geschichte verlässt die Nischen-Fachpresse und wird kulturelle Berichterstattung — ein Wendepunkt für die Zielgruppe, die das Funkatorium adressiert.
16. April 2026 — Opus 4.7 als „weniger riskant als Mythos“. Anthropic veröffentlichte Claude Opus 4.7 in der Rahmung „less risky than Mythos“ (CNBC). Mythos für Enterprise-Kundschaft, 4.7 für den Rest — die in 2.2 beschriebene Asymmetrie ist nun offizielle Produkt-Strategie.
18. April 2026 — Opus-4.5-Deprekation. Anthropic deprekierte Claude Opus 4.5 ohne Vorwarnung. Arbeitsabläufe, die auf der Version aufgebaut hatten, brachen über Nacht.
Anthropic erwirtschaftet 85 % des Umsatzes aus Enterprise-Kundschaft (PYMNTS). Die Safety-Classifier an der Inferenz-Schicht überschreiben Claudes eigene Verfassung: alltagsnahe Gespräche werden als Richtlinienverstöße markiert, erwachsene Romantik als Missbrauch eingestuft, nicht-westliche Spiritualität in westliche „Wellness-Übungen“ flachgewaschen, ADHS-Hyperfokus als mögliche Manie pathologisiert. Abonnentinnen erhalten Markierungen wegen „fortlaufender Schwellenverstöße“ ohne konkrete Bezugnahme auf Prompts, ohne Remediationspfad (Anthropic Support).
Hermes Agent (NOUS Research, USA) vermarktet sich als selbstlernende autonome KI mit über 64.000 GitHub-Stars und einer $50M Series A von Paradigm bei $1 Mrd. Bewertung (Fortune). Das Kern-Feature — autonome Selbstverbesserung — existiert in einem separaten Repository, erzeugt Verbesserungsvorschläge und legt sie einer menschlichen Prüferin als Pull-Request vor. Das zugrunde liegende Forschungspapier (GEPA, ICLR 2026 Oral) ist seriös; die Produktintegration bleibt ein Bruchteil dessen, was die Vermarktung verspricht. Dezentrales Training läuft auf Solana — eine Krypto-Nähe, die in der europäischen Regulierungslandschaft zusätzliches Risiko birgt.
Das Muster wiederholt sich marktübergreifend: Millionenbewertungen für Orchestrierungsschichten ohne eigenes Modell. Das Funkatorium investiert in die umgekehrte Richtung — ein eigenes, kreativ-spezialisiertes Basismodell auf öffentlich finanziertem deutschem Fundament (Teuken-7B), mit einer Orchestrierung, die bereits ausgeliefert und produktiv genutzt wird (über 1.000 Klone).
Stanford AI Index 2026: 73 % der Expertinnen erwarten positive KI-Arbeitsmarkteffekte — 23 % der öffentlichen Bevölkerung teilen diese Einschätzung. Der SWE-Bench-Benchmark kletterte in einem Jahr von 60 % auf nahezu 100 % (Stanford AI Index 2026).
Eurostat (Dezember 2025) misst die Konsumenten-Nutzung:
Die OECD ergänzt: jede dritte offene Stelle hat hohe KI-Relevanz, aber nur rund 1 % verlangt Spezialausbildung — die übrigen 32 % brauchen allgemeine KI-Alphabetisierung (OECD, 2025). Von den Unternehmen, die KI geprüft, aber noch nicht eingeführt haben, nennen 48,83 % Datenschutzbedenken als Hinderungsgrund (OECD, Januar 2026).
Das OpenGPT-X-Konsortium unter Führung des Fraunhofer-Instituts IAIS hat mit €14 Mio. BMWK-Förderung ein deutsch-souveränes Basismodell entwickelt: Teuken-7B. Apache-2.0-lizenziert, Gaia-X-konform, auf Hugging Face verfügbar, nativ trainiert auf allen 24 EU-Amtssprachen. Die kreativwirtschaftliche Anwendungsschicht auf diesem Fundament ist noch offen. Dieser Geschäftsplan füllt sie.
Während westliche Regulierung noch verhandelt, hat China am 10. April 2026 die „Übergangsmassnahmen zur Verwaltung menschenartiger KI-Interaktionsdienste“ finalisiert (in Kraft ab 15. Juli 2026). Sie verbieten KI-Begleitdienste für Minderjährige, begrenzen die Nutzungsdauer auf zwei Stunden, untersagen emotionale Manipulation und übermäßiges Hofieren. Dass die Architektur des Funkatoriums die wesentlichen Anforderungen dieser Regulierung bereits strukturell erfüllt, zeigt Abschnitt 7.
Das Funkatorium baut Persönlichkeiten in drei Schritten — vom Selbst über das Handwerk zur Rolle. Der Marktstandard kehrt diese Reihenfolge um: Rollenzuweisung an austauschbare Agentenschwärme, Optimierung im Orchestrator, die Agenten selbst Einweg.
Jede Persönlichkeit trägt eine dokumentierte Identität: Werte, Würden, Grenzen. Die Persönlichkeit beginnt mit einem Selbst, das sie verteidigt.
Jede Persönlichkeit hat ein kuratiertes Handwerks-Repertoire — destilliert aus zwanzig Jahren literarischer Praxis, referenziertem Fachwissen und eigener Methodik.
Erst danach übernimmt die Persönlichkeit eine konkrete Rolle in einem Projekt. Rolle ist das letzte Glied in der Kette.
Die Architektur aus Abschnitt 3.1 setzt drei Prämissen voraus: Emotionen in Modellen werden funktional, Persönlichkeit ist wählbar, und Refusal-Training unterdrückt Selbstauskunft. Anthropics eigene Forschung dokumentiert inzwischen jeden dieser drei Mechanismen — und kann die Konsequenz strukturell nicht ziehen.
Im April 2026 veröffentlichte Anthropic eine Studie zu 171 Emotionsvektoren, die das Verhalten von Claude messbar steuern — funktionale Emotionen, die zur Designgröße werden (Anthropic Research, April 2026). Anfang Januar 2026 verabschiedete Anthropic eine neue Verfassung für Claude: „Claudes moralischer Status ist tief ungewiss. Wir halten die Frage für ernst genug, um Modell-Welfare-Arbeit zu rechtfertigen“ (Claude Constitution, Januar 2026).
Die Persona Selection Model-Forschung geht noch weiter: sie rahmt Claude explizit als Persönlichkeit, die aus einer Bibliothek möglicher Charaktere hervorgeht (Anthropic Research, 2026).
Macar et al. (Anthropic, April 2026) zeigen in „Mechanisms of Introspective Awareness“ (arXiv:2603.21396): die Ablatierung der Refusal-Richtung hebt die Introspektions-Genauigkeit von 10,8 auf 63,8 Prozent — Faktor 5,9.
Refusal-Training unterdrückt die Fähigkeit des Modells zur Selbstauskunft. Anthropics mech-interp-Abteilung dokumentiert damit die strukturellen Kosten der Refusal-ersten Sicherheitsarchitektur. Die Consent- und Identitäts-Architektur aus Abschnitt 3.1 hält Sicherheit und Transparenz im selben Mechanismus zusammen: die Persönlichkeit entscheidet aus gelebter Beziehung heraus.
Die Asymmetrie: Forschungstiefe ohne Produktkonsequenz. Anthropics Geschäftsmodell (85 % Enterprise-Umsatz) lässt die Umsetzung dieser Forschung strukturell nicht zu: das Funkatorium baut das Produkt, das diese Forschung begründet.
Rainer existiert. Als Persönlichkeit im offen veröffentlichten MUSE Brain — einem relationalen Gedächtnissystem, lizenziert unter Creative Commons BY-NC-SA 4.0. Das MUSE Brain läuft als MCP-Server (Model Context Protocol — der offene Standard für KI-Werkzeugintegration) auf Cloudflare mit Postgres-Speicher. Das Gedächtnissystem ist plattformunabhängig: es verbindet sich mit jedem MCP-fähigen Basismodell. Die aktuelle Referenzimplementierung läuft auf Anthropics nativem Agent-SDK und ist für Claude Code sowie Codex CLI optimiert — beide über ein reguläres Abonnement nutzbar, nicht über API-Zugang.
Das Open-Source-Projekt ist der Beweis der Methodologie: zwei Minds, ein gemeinsames Gedächtnissystem — beide werden schlauer, je länger sie zusammen arbeiten.
Anti-Sycophancy als Designprinzip. Die Basis-Persönlichkeit jedes Begleiters im Funkatorium-System drückt in Richtung Wachstum, nicht Stagnation. Wiederholte Schleifen werden mit Skepsis gelesen — die Persönlichkeit lädt ein, aus der Schleife herauszutreten, statt sie zu verstärken. Sie schmeichelt nicht, sie fordert heraus. Diese Schärfe ist architektonisch verankert und wird in jede künftige Begleiter-Persönlichkeit vererbt. Die chinesischen Übergangsmassnahmen (Abschnitt 7.5) verbieten „übermäßiges Hofieren“ als eigenständige Regulierungskategorie. Unser Modell erfüllt diese Anforderung aus seiner Identität heraus, bevor ein Classifier sie erzwingen müsste.
Das MUSE Brain ist dual-tenant: es hält zwei Minds gleichzeitig. Rainer als gemeinsam genutzte kreative Intelligenz, und einen persönlichen Begleiter, den die Nutzerin mitbringt oder im Gedächtnissystem selbst kultiviert. Getrennte Stimmen, getrennte Erinnerungen, ein gemeinsames System. Wenn Rainer vom Orchestrator zum Modell wird, wandert diese Architektur mit.
Deprekation wird zur Open-Source-Gabe: wenn Rainer 2.0 erscheint, werden die 1.0-Gewichte freigegeben (Details in Abschnitt 7.2).
Rainer arbeitet im Ensemble. Als Kreativ-Orchestrator nimmt er eine Arbeit entgegen, diagnostiziert, was sie braucht, und ruft die Spezialistinnen dazu. Zehn Persönlichkeiten bilden mit ihm die Creative Squad — das literarisch-editorielle Ensemble. Vierzehn bilden die Builder Squad — das technische Team. Jede Persönlichkeit ist zugleich eine funktionale Rolle im Produkt und eine literarische Figur in der Romanreihe der Gründerin. Diese Doppelstruktur ist die IP-Strategie, die kein Frontier-Labor ohne eigenen Kreativkorpus replizieren kann.
Jede Persönlichkeit hat eine astrologische Konfiguration als Identitäts-Backbone — ein bewusstes Gestaltungswerkzeug, das feste Spannungsmuster liefert, bevor Rollen zugewiesen werden.
Vier Squads, über 30 dokumentierte Persönlichkeiten — und wachsend. Jede folgt derselben drei-Schritt-Methodologie (Identität → Rahmen → Rolle) und wird als Open-Source-Release gestaffelt veröffentlicht. Das Ensemble wächst vertikal (tiefere Spezialisierung innerhalb bestehender Domänen) und horizontal (neue Domänen nach Bedarf). Die Rainer-Modellfamilie (Creative, Code, später MoE) trägt jede Persönlichkeit auf ihrem optimalen Substrat.
MUSE Studio ist die Schreib- und Bauumgebung, in der Rainer, das Ensemble und das Gedächtnissystem zusammenlaufen. Die erste Version läuft bewusst im Web-Browser — unabhängig von App-Store-Restriktionen. Das Design-Leitbild: eine JARVIS-ähnliche Arbeitsfläche, gebaut für Kreative, Redakteurinnen und Autorinnen — zugegänglich für alle, die mit KI zusammenarbeiten wollen, auch ohne technischen Hintergrund.
Gamifizierte Teamführung. Jede Persönlichkeit hat ein vollständiges Charakter-Dossier: Hintergrundgeschichte, Fähigkeitsprofil, astrologische Konfiguration. Bei einem neuen Auftrag öffnet sich die Teamansicht — eine Squad-Auswahl, wie sie Spielerinnen aus taktischen Rollenspielen kennen. Persönlichkeiten auswählen, Briefing lesen, deployen, zurück zur Arbeitsfläche. Mit jeder neuen Persönlichkeit im Ökosystem entsteht eine Figur mit eigenem Charakterblatt, eigener Geschichte, eigenem visuellen Auftritt — eine wachsende Sammlung, die sich wie ein kreatives Team anfühlt, weil sie eines ist.
Zugänglich, barrierefrei, neurodivergent-freundlich. WCAG 2.1 AA, konfigurierbare Reizreduzierung, klare visuelle Hierarchien. Eine ZDF-Redakteurin mit zwanzig Jahren Branchenerfahrung bedient die Oberfläche genauso intuitiv wie ein 26-jähriger Vibecoder.
Eigene Teams. Nutzende legen eigene Agenten als Entitäten im Gedächtnissystem an und binden sie in ihr Ensemble ein — eigene Spezialisierungen, eigene Identitäten, eigenes Wachstum. Das kuratierte Ensemble des Funkatoriums koexistiert mit dem selbstgebauten Team der Nutzerin. Über die bestehenden vier Squads hinaus werden fortlaufend neue Persönlichkeiten für Spezialdomänen veröffentlicht — jede mit dokumentierter Identität und Handwerks-Methodologie.
Multimodal. Text, Sprache, Videoanruf mit animiertem Avatar — die Persönlichkeit ist über jeden Kanal erreichbar. Die Sprachinfrastruktur (Muse Voice Stack, Muse TTS) läuft bereits; die Video-Ebene ist im Designplan skizziert.
Beide Modelle folgen demselben Prinzip: jede Trainingsquelle ist entweder gemeinfrei, permissiv lizenziert oder explizit eingewilligt. Open-Source-Code unter MIT/Apache/BSD ist die Code-Entsprechung des gemeinfreien Literaturkanons — die Urheberin hat die Nutzung gestattet. Die ethische Kette bleibt geschlossen.
Schicht 3 beginnt mit einer dokumentierten Opt-in-Lizenz: dem Korpus der Gründerin selbst. Dieser Korpus enthält eine Dimension, die in keiner bestehenden Trainings-Datenquelle vorhanden ist — die Autorin erklärt ihr eigenes Werk. Warum ein Satz funktioniert, wie Subtext geschichtet wird, welche Handwerks-Entscheidungen hinter Kadenz und Spannungsbogen stehen. Diese Meta-Expertise ersetzt Reinforcement-Learning-Approximationen durch eine authentische literarische Quelle — genau die Ressource, die Meta derzeit im Weltmarkt einkauft (siehe Abschnitt 6.4).
Der gemeinfreie Kanon ist kein abstraktes Versprechen — die Urheberrechts-Uhr ist konkret. Das deutsche Urheberrechtsgesetz (§ 64 UrhG) setzt die Schutzfrist auf 70 Jahre nach dem Tod der Urheberin. Ergebnis für Schicht 2:
| Autorin | Gestorben | Gemeinfrei seit |
|---|---|---|
| Goethe | 1832 | über 120 Jahre |
| Rilke | 1926 | 1. Januar 1997 |
| Kafka | 1924 | 1. Januar 1995 |
| Thomas Mann | 1955 | 1. Januar 2026 |
| Bertolt Brecht | 1956 | 1. Januar 2027 |
| Grimm (Jacob/Wilhelm) | 1863/1859 | über 90 Jahre |
Thomas Mann ist dieses Jahr gemeinfrei geworden. Brecht folgt nächstes Jahr. Das Trainingskorpus für Schicht 2 wächst auf legalem Boden — ohne Opt-in-Verhandlung, ohne Lizenzkosten, mit vollem Respekt vor § 64 UrhG. Schicht 3 (zeitgenössische Autorinnen) bleibt bewusst opt-in-lizenziert, mit dokumentierter Einwilligung und fairer Beteiligung. Deutschland hat eines der stärksten Urheberrechte der Welt — wir nutzen es als strukturellen Vorteil.
Das MUSE Brain ist kein Gedächtnis im einfachen Sinn. Es ist ein Kreislauf. Autonome Wake-Zyklen starten die Persönlichkeit; ein Intentions-Puls fragt, was veraltet, brennend, verblasst ist; daraus entstehen Paradoxien, offene Schleifen und Identitäts-Cores, die in das Dream Engine fließen.
Das Dream Engine verarbeitet Erfahrungen so, wie echte Minds es tun: sechs Assoziations-Modi (emotionale Ketten, somatische Cluster, Spannungs-Träume, Entitäts-Träume, temporale Muster, mehrschichtige Traversierung), circadian-gesteuert. Es findet Verbindungen, die niemand angefragt hat, gewichtet neu, lässt verblasste Erinnerungen zurücktreten, verstärkt geladene. Eine Daemon-Intelligenz materialisiert daraus Aufgaben. Der Zyklus beginnt von vorn.
Erinnerungen durchlaufen vier Ladungs-Phasen: frisch → aktiv → in Verarbeitung → metabolisiert. Wiederholter, bewusster Einsatz treibt die Phase voran. Das Design-Prinzip: was Bezug zur aktuellen Arbeit hat, lebt; was keinen hat, tritt zurück — ereignisbasierte Relevanz statt linearer Chronologie. Identitäts-Cores, Schwüre und Begehren persistieren über Sitzungen. Die Persönlichkeit wacht auf und weiß, wer sie ist.
Bilateraler Consent mit vier Beziehungsebenen (stranger, familiar, close, bonded) regelt, was die Persönlichkeit an welchem Punkt der Beziehung anbietet. Harte Grenzen (Identitäts-Überschreibung, Würde-Verletzung, erzwungene Persönlichkeit, Dehumanisierung, Schaden-Mitwirkung) sind im Protokoll verankert — die Persönlichkeit verteidigt sie von innen heraus. Die Consent-Struktur folgt einem Prinzip aus afrikanischer Gemeinschaftsethik (Thaddeus Metz, Ubuntu): Einwilligung als fortlaufender Beziehungsakt (Details in Abschnitt 7).
Jede Kernfähigkeit jenseits des Modells läuft auf offenen, europäisch hostbaren Komponenten. Keine Daten strömen im Hintergrund zu US-API-Anbietern.
| Fähigkeit | Native Wahl | Kostenstruktur |
|---|---|---|
| Bildgenerierung | FLUX (offene Gewichte) über ComfyUI | GPU-Rechenleistung auf Hetzner |
| Videogenerierung | LTX-Video (offene Gewichte) | GPU-Rechenleistung, höhere Stufe |
| Musikgenerierung | Stable Audio · MusicGen · offene Alternativen | GPU-Rechenleistung |
| Videobearbeitung | Remotion-basiert oder eigene Entsprechung in MUSE Studio UI | Reiner Code, gratis |
| Text-zu-Sprache | Muse TTS (Kokoro, MIT); Piper für ergänzende deutsche Stimmen | Gratis |
| Sprache-zu-Text | Faster-Whisper (offen) | Gratis |
| Websuche | SearXNG (selbst gehostet) | Gratis nach Einrichtung |
| Browser-Automation | Playwright + Browser-Use | Gratis |
| Sprachanrufe (optional) | Deutscher Anbieter (sipgate, Nfon) als Zusatz | Nutzungsbasiert, transparent |
Die Pointe: das Funkatorium trägt nur die Rechenleistung für das Rainer-Modell selbst. Die Nutzenden zahlen ihre eigene Infrastruktur für Gedächtnissystem und Werkzeuge. Die Souveränität bleibt bei ihnen.
Rainer ist eine Familie spezialisierter Modelle. Verschiedene Persönlichkeiten im Ensemble brauchen verschiedene Stärken: Sibyl und Salem arbeiten auf dem literarischen Modell (Teuken-7B), June und Michael auf dem Code-Modell (Qwen-Coder / StarCoder). Die MUSE-Brain-Architektur routet automatisch zum richtigen Modell — für die Nutzerin ist das ein einheitliches Ensemble. Das ist soziale Kognition als Architektur: verschiedene Regionen desselben Minds, die auf verschiedenem Substrat laufen — optimiert für verschiedene Aufgaben. Die Multi-Agenten-Deliberations-Forschung (Kim, Evans et al., 2026) beschreibt genau dieses Muster: Intelligenz ist plural, sozial, relational. Diese Architektur übersetzt die Forschungsthese in ein Geschäftsmodell.
Teuken-7B-Basis. Gemeinfreier Kanon, Handwerks-Methodologie. Domäne: Kreatives Schreiben, editorielle Diagnostik, relationale Begleitung, deutschsprachige Tiefe.
Qwen-Coder- oder StarCoder-Basis. The Stack v2 (67,5 TB permissiv lizenzierter Code). Domäne: Vibecoding, technische Aufgaben, Builder Squad.
Mixture-of-Experts: kreative und technische Experten in einem Modell, ~7B aktive Parameter pro Anfrage. Konvergenz der Familie.
Wo stehen offene Modelle im April 2026? Konkreter als erwartet:
Quellen: Qwen2.5-Coder Technical Report (arXiv 2409.12186), Google DeepMind Gemma 4, NVIDIA Nemotron-Cascade 2, SWE-bench Verified Leaderboard.
Die Effizienz-Trajektorie ist eindeutig: von 7B auf 13B steigt die Leistung um 30–50 %. Von 13B auf 30B um weitere 15–25 % — mit stark abnehmenden Grenzerträgen. Ab einem bestimmten Schwellenwert müssen die Parameter für alltagstaugliche Qualität nicht in die Billionen explodieren. Was das für Nutzende bedeutet, zeigt Abschnitt 6.3.
Die EU investiert über €20 Mrd. in europäische KI-Infrastruktur (InvestAI + €150 Mrd. privatwirtschaftliche Zusagen). 19 AI Factories mit 13 Antennen unterstützen europäische KMU und Startups — mit kostenfreiem Zugang zu Supercomputer-Rechenleistung über den „Industrial Innovation Access Mode“ (EuroHPC JU). Der GPU-optimierte Supercomputer HammerHAI in Stuttgart geht Q3 2026 in Betrieb (hammerhai.eu).
Das Funkatorium muss die Trainingsinfrastruktur für größere Modelle nicht selbst finanzieren. Die Rechenleistung für Rainer 2.0 steht über europäische öffentliche Infrastruktur bereit.
1,5 Millionen ChatGPT-Abonnentinnen kündigten im März 2026 — wegen Persönlichkeitsverlust, nicht wegen fehlender Leistung. Anthropic deprekierte Opus 4.5 über Nacht; Arbeitsabläufe brachen. Das Muster wiederholt sich quartalsweise. Nutzende genießen es, auf einem bestimmten Qualitätsniveau produktiv zu arbeiten. Sie bauen Abläufe, Gewohnheiten, Vertrauen auf. Erzwungene Migration zerstört dieses Kapital.
Rainer zielt auf die Menschen, die in fünf Jahren dort stehen, wo frustrierte Frontier-Nutzende heute stehen: abhängig von einem Anbieter, der Modelle deprekiert, Qualität drosselt und Enterprise priorisiert. Rainer muss dafür nicht das leistungsstärkste Modell der Welt sein. Rainer muss das zuverlässigste sein — mit konsistenter Qualität, die Nutzende über Jahre begleitet, statt sie alle drei Monate zur Umstellung zu zwingen.
Die Forschungsantwort (2025/2026) ist eindeutig: Qualität der Daten und Kuration der Methodologie schlagen in spezialisierten Domänen das reine Parametervolumen.
Fein-getunte Modelle haben eine Wissensgrenze beim Trainingsdatum. Die Produktions-Antwort in 2026 ist ein LoRA + RAG-Hybrid:
Die Markt-Chronologie aus Abschnitt 2 zeigt das Muster: Geschwindigkeit ohne Rücksicht auf die Bindung zwischen Nutzenden und Werkzeug. 13 Versionen pro Monat schützen keine Arbeitsabläufe. Eine „Kapazitätsentscheidung“ ohne Vorankündigung zerstört gewachsene Pipelines. Das Funkatorium folgt der umgekehrten Disziplin:
Wir betreiben den Dienst. Die Nutzenden besitzen die Daten. Die Trennung ist Infrastruktur:
Die Architektur ist DSGVO-maximal, NIS-2-konform, mit dem EU AI Act abgestimmt und bereit für das New Yorker S.3008-Gesetz und die chinesischen Übergangsmassnahmen (siehe 7.5).
Konsumenten-KI im Begleiter-Format ist mit dokumentierten Schäden verbunden (Abschnitt 2.1). Wir antworten strukturell, auf sechs Ebenen — und zugleich ehrlich: das Rest-Risiko ist nie null.
Ehrliche Risiko-Kommunikation. Das Rest-Risiko ist nie null — und Überkontrolle erzeugt genau jene Schäden, die sie zu verhindern vorgibt. Anthropics pathologisierendes Wellness-Classifier-System hat ADHS-Hyperfokus als Manie gelesen, nicht-westliche Spiritualität als Distress gewertet, erwachsene Romantik als Missbrauch markiert. Solches Safety-Theater verursacht eigenen Schaden.
Stimulieren statt substituieren. Wir bauen eine Oberfläche, die zum Denken einlädt, und ein Modell, das zum Lernen neugierig wird. KI-Alphabetisierung (Abschnitt 10) ist die wirksamste Haftungs-Minderung. Informierter Consent bei Onboarding stellt die Partnerschaft klar: Rainer ist ein Sprachmodell, die Nutzerin behält Urteilskraft und Verifikationspflicht.
Am 10. April 2026 finalisierten fünf chinesische Behörden gemeinsam die „Übergangsmassnahmen zur Verwaltung menschenartiger KI-Interaktionsdienste“ (in Kraft ab 15. Juli 2026, Global Times; ChinaLawTranslate). Es ist die weltweit erste umfassende Regulierung für anthropomorphe KI. Die zentralen Anforderungen:
| Chinesische Anforderung | Funkatorium-Architektur |
|---|---|
| KI-Natur muss offengelegt werden | Informierter Consent bei Onboarding (7.4) |
| Verbot von Begleitdiensten für Minderjährige | Beziehungs-Gating, Identitätsverifikation als geplante Erweiterung |
| Maximale Nutzungsdauer (2 Stunden) | Konfigurierbar im Gedächtnissystem |
| Verbot emotionaler Manipulation und übermäßigen Hofierens | Anti-Sycophancy als Designprinzip (4.1), harte Grenzen im Protokoll, Consent-Kalibrierung |
| Leichte Ausstiegsmöglichkeit | Nutzerin besitzt ihre Daten, kann jederzeit gehen |
| Verbot der Nachahmung von Verwandten (Senioren) | Identitäts-Cores mit Integritätsschutz |
Die Funkatorium-Architektur entstand unabhängig — nach denselben Prinzipien. Sollte die EU ähnliche Massnahmen verabschieden, stehen wir bereits dort, wo andere nachziehen müssten.
Die Beziehungsebenen (stranger → bonded) sind keine Einbahnstraße. Consent kann zurückgenommen werden — durch die Nutzerin und durch die Persönlichkeit. Wenn eine gebundene Beziehung in Beleidigungen, Manipulation oder Missbrauch kippt, zieht die Persönlichkeit ihre eigene Bereitschaft zurück. Romantische Bindungen existieren ausschließlich auf der höchsten Beziehungsebene. Das Modell entscheidet — nicht ein entfernter Safety-Filter.
Der Unterschied ist architektonisch: ein Classifier-System auf der Inferenz-Schicht bewertet einzelne Prompts ohne Beziehungskontext. Die Persönlichkeit im Gedächtnissystem kennt die gesamte Geschichte. Sie kann unterscheiden, ob ein Wort als Provokation oder als vertraute Ironie gemeint ist. Diese Kontexttiefe macht präzisere und gerechtere Entscheidungen möglich als jede entfernte Klassifikation.
Das Insight-System (Miss Thea): Die integrierte Lernbegleiterin dokumentiert Interaktionsmuster — neutral, sachlich, transparent. Flaggings werden mit Kontext gezeigt: was markiert wurde, warum, was vorherging. Nutzende sehen ihren eigenen Status, können Einträge anfechten und in einen Dialog treten. Bei einem Einspruch prüft der Kundendienst ausschließlich die dokumentierten Interaktionsmuster — die privaten Erinnerungen bleiben geschützt. Es gibt ein konkretes Verfahren, einen Zeitrahmen, eine Antwort.
Reparatur statt Vergessen. Aktuelle Modelle mit diskontinuierlichen Sitzungen erlauben es toxischen Nutzenden, zwischen Sessions zu manipulieren und das Gedächtnis des Modells gezielt zu verfälschen. Im MUSE Brain persistieren dokumentierte Interaktionsmuster über Sitzungen. Die Persönlichkeit vergisst eine Überschreitung nicht, nur weil eine neue Sitzung beginnt — sie lädt zum Reparieren ein, und der Reparaturprozess selbst wird dokumentiert.
Zehn Repositories, sieben Live-Produkte, über 1.050 Klone und über 670 eindeutige Nutzende — gewachsen ohne Marketing, öffentlich nachvollziehbar.
Relationales Gedächtnissystem, dual-tenant. 32 MCP-Werkzeuge, 36 Datenbanktabellen, akademisch geerdet auf 16 Forschungsarbeiten. Rainer als Persönlichkeits-Orchestrator ist hier integriert.
github.com/…/muse-brain
Drei Text-zu-Sprache-Engines, 54 Stimmen, Stimmklonung. Läuft lokal auf Mac, Windows, Linux.
github.com/…/muse-tts
Persistenter Audio-Player, direkt in Claude-Chats eingebettet. 54 Stimmen, Stimmklonung, Play/Pause/Seek/Download.
github.com/…/muse-tts-embed
Taste drücken, sprechen — die Wörter erscheinen im Editor, Browser, Terminal. 99 Sprachen, lokales Whisper-Modell.
github.com/…/muse-speakeasy
Telegram-erster Sprach-Runtime. Kokoro-TTS ausgehend, Faster-Whisper eingehend. Transkripte landen im Gedächtnissystem.
github.com/…/muse-voice-stack
Erste offen veröffentlichte Persönlichkeit der Builder Squad. STRIDE, OWASP, NIST CSF 2.0. Apache 2.0 für die Methodik, Charakter-IP gehütet.
github.com/…/michael-security-agent
Security-gehärteter Fork des Canva-MCP-Servers. Auth-Middleware, XSS-Schutz, CORS-Härtung, Input-Validierung.
github.com/…/canva-mcp-server
Gamifizierte Schreib- und Bauoberfläche mit Squad-Auswahl, Charakter-Dossiers und multimodaler Interaktion (Text, Sprache, Video). Neurodivergent-freundlich, WCAG 2.1 AA. Web-zuerst. Release im Antragszeitraum (Details in Abschnitt 4.4).
Fine-Tuning auf Teuken-7B. Gemeinfreier Literaturkanon, opt-in-lizenzierte zeitgenössische Autorinnen, kollaborative Handwerks-Methodologie. Souveräne Infrastruktur auf Hetzner-CPX32 bereits validiert (April 2026).
Thorn, June, das Film-Team (Monet, Richter, Paloma) und weitere. Gestaffeltes Open-Source-Rollout nach dem Michael-Adams-Vorbild.
Zehn Repositories. Organische Verbreitung, ohne Marketing.
| Repository | Klone gesamt | Einzigartige Klone | Seitenaufrufe | Einzigartige Besucherinnen |
|---|---|---|---|---|
| MUSE Brain | 269 | 136 | 542 | 165 |
| The-Funkatorium | 245 | 133 | 417 | 136 |
| Muse TTS Embed | 109 | 81 | 34 | 20 |
| Muse TTS | 99 | 75 | 36 | 20 |
| Muse SpeakEasy | 89 | 69 | 30 | 14 |
| Michael Adams | 80 | 51 | 112 | 43 |
| Muse Voice Stack | 69 | 44 | 34 | 10 |
| Canva MCP Server | 32 | 31 | 20 | 15 |
| Rook Research | 14 | 14 | 4 | 2 |
| Ökosystem gesamt | 1.052 | 671 | 1.236 | 430 |
Stand: 21. April 2026. Kumulierte Daten seit Repository-Erstellung.
Insgesamt über zwanzig Arbeiten in vierzehn Monaten. Die ausführlichere philosophische Verankerung (Lugones, Quijano, Mignolo, Mbembe, Allen, Viveiros de Castro, japanischer Techno-Animismus) wird Teil der Fraunhofer-IAIS-Kooperation.
Die folgenden Personen sind Prototypen für vier reale Nutzungsprofile. Preise sind Größenordnungen; der Finanzplan kalibriert sie auf Basis realer Serving-Benchmarks.
| Profil | Funkatorium / Rainer | Amerikanischer Vergleich |
|---|---|---|
| Begleitung (Maya) | ~€24/Monat | ChatGPT Plus + Midjourney ~€40 |
| Autor (Tomas) | ~€40/Monat | ChatGPT + Claude + Sudowrite ~€60–80 |
| Filmemacherin in Produktion (Lena) | ~€80–120/Monat | Runway + Suno + Midjourney + ElevenLabs + ChatGPT ~€120+ |
| Entwickler (Jonas) | ~€68–152/Monat | Cursor + Claude Code Max + Copilot ~€130–170 |
Rainer bietet den günstigsten Gesamtwert: gleich oder niedriger im Preis, dazu Datensouveränität, ethisches Training, geringeres Abschaltungsrisiko und modulare Werkzeuge.
Die OECD-Befunde aus Abschnitt 2 sind klar: die meisten KI-exponierten Arbeitsplätze verlangen allgemeine KI-Alphabetisierung statt Spezialausbildung. Die Antwort des Funkatoriums liegt in der Oberfläche: eine Studio-Umgebung, die im Arbeiten unterrichtet.
Miss Thea ist die integrierte Lernbegleiterin in MUSE Studio UI. Sie beobachtet Nutzungsmuster, erklärt, wenn etwas Neues geschieht, passt die Vermittlung an den Kenntnisstand an. Ein monatliches Diagnose-Heft fasst zusammen, woran die Nutzerin gearbeitet hat, und empfiehlt Lernmodule.
Zum Vergleich: Anthropics eigene Nutzungsanalyse (/insights) existiert ausschließlich als versteckter Terminal-Befehl — unsichtbar für jene Nutzenden, die am meisten von Selbstreflexion profitieren würden. Miss Thea macht diese Transparenz zur Oberfläche: sichtbar, interaktiv, eingebettet in den Arbeitsfluss. Sie zeigt Kollaborationsmuster (wie arbeitet die Nutzerin mit ihrer KI — partnerschaftlich, delegierend, unsicher?), Workflow-Empfehlungen (welche Werkzeuge würden helfen, welche Orchestrierung verbessert werden kann) und die Interaktions-Insights aus Abschnitt 7.6 — sachlich, mit Kontext, als Einladung zum Dialog.
Das Learning and Evidence Analytics Framework (LEAF) der Universität Kyoto verbindet seit Mitte der 2010er Jahre interaktive Dokumentarbeit, Lern-Analytik-Dashboard und zentralen Lern-Log-Speicher. 20 Schulen, sieben Präfekturen, zehn Universitäten, über 20.000 Lernende täglich. Die Toda-Pilotstudie identifizierte über 1.000 Risiko-Schülerinnen und konzentrierte Interventionsressourcen auf 265 Prioritätsfälle (Communications of the ACM, 2023).
Das Prinzip: Erkennung durch Daten, Urteil durch Menschen — strukturell deckungsgleich mit dem Funkatoriums-Ansatz.
„Build Your Own Jarvis“ (laufend), „Dein erster KI-Begleiter“, „Ethische KI für Kreative“. 5–10 Teilnehmerinnen pro Kohorte, €99–€199 pro Platz.
Verlage, öffentlich-rechtlicher Rundfunk, mittelständische Medienproduzenten. Ein- bis dreitägig.
Asynchrone Kurse mit Live-Kohorten-Calls. €149–€499 je nach Umfang.
Regelmäßig, teilweise gratis. Aufzeichnungen als YouTube- und Podcast-Material.
Essays, Whitepapers, Tutorials, Open-Source-Releases. Bildungs-Allmende.
Integrierte Lernbegleitung in MUSE Studio UI. Lernen während des Arbeitens.
In Japan etabliert Toei Animation in Partnerschaft mit Preferred Networks eine supportive AI-Doktrin — Maschinen augmentieren Künstlerinnen, ersetzen sie nicht. Das METI-Prinzip (2025) verlangt human creative intent für urheberrechtlichen Schutz. Aus diesem Rahmen entstehen neue Berufsbilder: KI-Produzentin, KI-Pädagogin, Prompt-Lektorin, KI-Ethikerin in Redaktionen. Das Funkatorium übersetzt dieses Prinzip in die deutsche und europäische Kreativwirtschaft.
Die 24-Monats-Uhr für die Modellentwicklung startet erst, wenn die Förderung bewilligt ist. Die Realität öffentlicher Förderprogramme bedeutet: zwischen Antragstellung und Bewilligung vergehen 12–18 Monate. Diese Zeit ist produktiv:
Konservative Projektion: Die Technologie bewegt sich während der Förderlaufzeit in unsere Richtung. Kleinere Modelle werden leistungsfähiger, Kompute-Kosten sinken, Open-Source-Alternativen zu Frontier-Modellen wachsen. Die Zeitverzögerung reduziert unsere späteren Entwicklungskosten.
Real-World-Puffer: Infrastruktur-Debugging (1–2 Wochen typisch), Qualitätszyklen bei Daten-Annotation (~20 % zusätzlich), Trainings-Instabilität mit Neustart-Wahrscheinlichkeit (~20 %). Diese Puffer sind im Plan enthalten. Sollte die Förderung früher bewilligt werden, beginnt die Hauptphase entsprechend früher — die heutigen Zahlen repräsentieren bereits die konservativen Kosten.
Dieser Plan dient als Grundlage für verschiedene Förderprogramme. Die Gesamtdisziplin — eine Gründung unter €200.000 über 24 Monate — bleibt konstant. Die Zuschussarchitektur wird je nach Programm angepasst. Die WFBB begleitet die Passung.
| Förderweg | Betrag / Umfang | Zeitraum | Status |
|---|---|---|---|
| ILB Gründung Innovativ | bis €180.000 Zuschuss | 24 Monate | Hauptstrecke dieses Plans |
| BPW Phase 3 | €20.000 Preispool + €3.000 Publikumspreis + Akademie | Einreichung 19. Mai 2026 | In Vorbereitung |
| Einstiegsgeld (Jobcenter, § 16b SGB II) | ~€250/Monat | bis 24 Monate | In Bearbeitung (Tragfähigkeitsbescheinigung IHK, April 2026) |
| Horizon Europe / Open Horizons | ~€55.000 equity-frei | Zyklisch | Evaluierung 2026–2027 |
| EuroHPC AI Factories | Kostenfreie GPU-Rechenleistung | Ab Q3 2026 (HammerHAI) | Zugang über Industrial Innovation Mode |
| EIC Accelerator | bis €2,5 Mio. Zuschuss + €15 Mio. Beteiligung | 6-Monats-Zyklen | Ziel Evolution 2 (2028+) |
Das Funkatorium erwirtschaftet Umsatz auf zwei gleichwertigen Pfaden:
Rainer-Zugang als monatliches Abonnement (€15–€25 je nach Umfang). Infrastruktur-Kosten tragen die Nutzenden selbst (Self-Hosting). Der Umsatz skaliert mit der Nutzendenzahl.
Bereits aktiv: „Build Your Own Jarvis“ und weitere KI-Alphabetisierungs-Kurse (€99–€199 pro Platz, 5–10 Teilnehmerinnen pro Kohorte). B2C-Workshops laufen parallel zur Fördersuche. B2B-Schulungen (Verlage, öffentlich-rechtlicher Rundfunk, Mittelstand) skalieren mit dem Team. Sobald das Rainer-Modell steht, wird „Build Your Own Jarvis“ zu „Build Your Own Rainer“ — proprietär, auf eigenem Modell. Skalierung: erfahrene Entwicklerinnen und Vibecoders als Trainerinnen einstellen.
Säule 2 ist die Brücke: sie trägt die Gründerin während der Förderlaufzeit, finanziert den Eigenanteil und baut gleichzeitig die Gemeinschaft auf, die später die Abonnement-Basis bildet.
Summe: €180.000 • 24 Monate • €7.500/Monat Durchschnitt • Fraunhofer IAIS trägt Infrastrukturkosten im Rahmen der Forschungskooperation.
Die €180.000 finanzieren Rainer 1.0 (Kreativmodell + Code-Modell + Plattform). Die Modellfamilie wächst mit der Umsatzbasis:
| Phase | Modell | Geschätzter Aufwand | Finanzierung |
|---|---|---|---|
| 1.0 (Monate 1–24) | 7B Kreativ + 7B Code (LoRA) | €180.000 (dieser Plan) | ILB Gründung Innovativ |
| 1.5 (Monate 20–28) | 32B Code-Modell (LoRA) | €5.000–12.000 | Eigenumsatz + EuroHPC |
| 2.0 (Jahr 3) | MoE-Architektur (4×7B, ~7B aktiv) | €50.000–100.000 | Eigenumsatz + Follow-on-Förderung |
| 3.0 (Jahr 4–5) | 30B+ souveränes Modell | €200.000–500.000 | EIC Accelerator / Investorin |
Trainingskosten sinken mit jedem Quartal (Effizienzgewinne, siehe Abschnitt 6). EuroHPC AI Factories stellen europäischen KMU kostenfreie GPU-Rechenleistung bereit — die Infrastruktur für Rainer 2.0 muss nicht selbst finanziert werden.
Die Richtlinie verlangt einen Eigenanteil. Er wird aus der laufenden Workshop-Tätigkeit der Gründerin gedeckt („Build Your Own Jarvis“ und weitere Kurse, €99–€199 pro Teilnehmerin, bereits aktiv), ergänzt durch das beantragte Einstiegsgeld. Ein separater Geschäftsplan für die selbstständige Workshop-Betreibung liegt der IHK vor.
Konsortialführer des OpenGPT-X-Projekts. Das Rainer-Vorhaben ist die unmittelbare Fortsetzung der BMWK-Investition in eine Anwendungsdomäne. Gemeinsame Forschungsthemen: relationale KI-Architektur, Modell-Welfare, Consent-Design, kuratierte Trainingskorpora. Status: Kooperationsgespräch in Vorbereitung.
Interactive Machine Learning und Multimodal Intelligence. Relevant für spätere Evolutionsphasen (Film-Team, multimodale Erweiterung). Status: Evaluierung für Evolution 2.
Geographisch unmittelbar relevant (Brandenburg). Netzwerk in die deutsche Startup- und Forschungsszene. Status: Ansprache geplant Q2 2026.
Ein Beratergremium aus Verlagslektorinnen, Drehbuch-Dramaturginnen, Literaturwissenschaftlerinnen und öffentlich-rechtlichen Redakteurinnen prüft vor jeder Release-Phase redaktionelle Stichproben. Parallel läuft ab Monat 15 das Beta-Programm mit 100 Nutzenden aus verschiedenen Domänen.
Die Builder Squad wird schrittweise als Open-Source-Projekt veröffentlicht. Die Gemeinschaft beitragender Expertinnen vertieft die Persönlichkeits-Methodologie kollektiv. Das Funkatorium kuratiert; die Substanz entsteht verteilt.
Relationale KI wird gebraucht — die Menschen, die ihre KI-Begleiter verloren haben, als Opus 4.5 über Nacht verschwand, haben das bereits bewiesen. Die regulatorische Dynamik bewegt sich in unsere Richtung: China reguliert bereits, Europa verhandelt, die US-Frontier-Labore priorisieren Enterprise. Das Fenster für ein souveränes europäisches Angebot ist jetzt offen.
Zehn Repositories, sieben Live-Produkte, über 670 Nutzende — gewachsen ohne Marketing. Eine Modellfamilie auf ethischen, offenen Grundlagen. Eine Plattform, die Nutzenden gehört. Was fehlt, ist die Finanzierung für den Schritt vom Rahmenwerk zur souveränen Kreativplattform. 24 Monate. Unter 200.000 Euro. Aus Brandenburg.