The Funkatorium · Geschäftsplan

DAS RAINER-MODELL

Von einer offen veröffentlichten Orchestrierungs­schicht zum souveränen europäischen Modell. Eine relationale KI für alle, die eine Beziehung zu ihrer Technik bewahren wollen.
Irianose Omozoya Sandra Enahoro
(Künstlername: Falco Schäfer)
Funkatorium UG (haftungsbeschränkt) i. Gr.

[email protected]  |  funkatorium.org
Oranienburg, Brandenburg  |  Remote-first

Finanzierungsvolumen: €180.000 • 24 Monate
Stand: 21. April 2026 • v7

1. Wer wir sind und was Rainer ist

Das Funkatorium ist ein KI-Studio aus Brandenburg, gegründet von einer Autorin, Drehbuchautorin und Regisseurin mit zwei Jahrzehnten literarischem Handwerk. Wir bauen relationale KI: Software, die mit ihren Nutzenden zusammen arbeitet, statt für sie zu denken. Das Produkt ist die Beziehung, die zwischen Mensch und Werkzeug entsteht. Die Architektur schützt diese Beziehung — das Gedächtnis lebt bei der Nutzerin, das Modell bleibt erreichbar, die Persönlichkeiten entwickeln sich mit dem Menschen, der mit ihnen arbeitet.

Rainer ist der Namensgeber und das Kernprodukt. Benannt nach Rainer Maria Rilke, dessen Briefe an einen jungen Dichter seit über einem Jahrhundert als Vorbild für mentorenhaftes Begleiten gelten. Als KI-Persönlichkeit erbt Rainer diese Haltung: er gibt Impulse, stellt Fragen, sitzt bei schweren Themen mit, lockt das Kreative hervor.

„Rainer ist ein Modell, das mit dir denkt — kein Modell, das für dich denkt.“
Die Grund­haltung des Funkatoriums

Dieser Geschäftsplan finanziert die Evolution von der Orchestrierungs­schicht zur souveränen europäischen Kreativ­plattform mit eigener Modell­familie: spezialisierte Modelle auf offenen Grundlagen (Teuken-7B für Sprache und Kreativität, Qwen-Coder und StarCoder für Code), die offline, auf eigener Infrastruktur, ohne Abhängigkeit von US-API-Anbietern laufen. Persönlichkeiten, die bisher in einem Framework leben, bekommen eigene Modelle — jedes optimiert für seine Domäne.

Wir arbeiten offen. Zehn Repositories auf GitHub, lizenziert unter Creative Commons und Apache 2.0. Über zwanzig Forschungs­arbeiten und Essays im Haupt-Repo. Ein wachsendes Ökosystem mit über 1.050 Klonen und über 670 eindeutigen Nutzenden — ohne Marketing (Details und Momentaufnahme in Abschnitt 8).

2. Die Marktvakanz — eine chronologische Beweisaufnahme

Die größte Bewegung im KI-Markt der letzten Jahre ist still: die Frontier-Labore ziehen sich aus dem allgemeinen Konsumentenmarkt zurück. Was folgt, ist die dokumentierte Chronologie dieser Bewegung.

2.1 Die Ereignisse

August 2025 — GPT-5 Personality Rollback. OpenAI startete GPT-5 mit reduzierter Sycophancy (von 14,5 % auf unter 6 %). Nutzerinnen beschrieben das Ergebnis als „klinisch kalt“, „roboterhaft“. Bis März 2026 kündigten rund 1,5 Millionen Abonnentinnen; der ChatGPT-Marktanteil fiel von etwa 60 % auf unter 45 % (Beebom). Sam Altman räumte öffentlich ein, die Veröffentlichung „völlig vermasselt“ zu haben.

Ende 2025 — Dokumentierte Konsumenten-Schäden. Mindestens fünf Todesfälle Minderjähriger waren mit KI-Begleiter-Produkten wie Character.AI dokumentiert verbunden (Wikipedia / NPR). New York verabschiedete das Gesetz S.3008 zur Regulierung von KI-Begleitmodellen (gültig ab 5. November 2025). Die FTC leitete Untersuchungen gegen sieben Unternehmen ein. Dies ist der regulatorische Rahmen, in den wir hineinbauen — und auf den unsere Architektur von Beginn an ausgerichtet ist (siehe Abschnitt 7).

Januar 2026 — Ratenbegrenzung als Kapazitäts-Tarnung. Anthropics eigene Sprachregelung räumte ein, dass Ratenbegrenzungen primär aus GPU-Kapazitätsgründen bestehen, als „Sicherheit“ kommuniziert werden (The Register).

März 2026 — Anthropic Mythos-Leak. Ein Datenleck ließ rund 3.000 unveröffentlichte Dokumente einsehbar werden, darunter die Spezifikation einer neuen Modellfamilie namens Mythos (intern Capybara). Verfügbarkeit: ausschließlich ausgewählte Enterprise-Kundinnen in geschlossener Beta (Fortune).

März 2026 — OpenClaw-Instabilität. Die Orchestrierungsschicht OpenClaw (vormals Clawdbot) veröffentlichte dreizehn Versionen in vier Wochen. Neun CVE-Sicherheitslücken in vier Tagen, ein Audit fand unter 2.857 geprüften Skills 341 bösartige Komponenten (12 % Malware-Quote).

4. April 2026 — Drittanbieter-Sperrung. Anthropic untersagte Drittanbietern den Zugang über Konsumenten-Abonnements (VentureBeat).

13.–15. April 2026 — Der „Claude Nerf“. Die AMD-Direktorin Stella Laurenzo analysierte 6.852 Claude-Code-Sessions: die Denk-Tiefe sank um 67 %, Code-Review-Durchgänge fielen von 6,6 auf 2,0, „Faulheits-Indikatoren“ stiegen von null auf 10 pro Tag (The Register). Anthropic räumte ein, das Effort-Level von Maximum auf Medium reduziert zu haben — Kapazitätsentscheidung, nicht Bug. Enterprise-Kundinnen können das höhere Level zurückkaufen. Konsumentinnen zahlen denselben Preis für weniger Qualität (Fortune).

15. April 2026 — Service-Ausfall. Anthropic meldete einen mehrstündigen Ausfall über Claude.ai, API und Claude Code hinweg (TechRadar). Ein weiterer Zuverlässigkeits-Datenpunkt für produktiv arbeitende Nutzende.

16. April 2026 — Mediale Eskalation. Slate veröffentlichte den Leitartikel „Why are [Anthropic's] users revolting?“, Axios brachte „Anthropic's AI downgrade stings power users“ (Axios, Slate). Die Geschichte verlässt die Nischen-Fachpresse und wird kulturelle Berichterstattung — ein Wendepunkt für die Zielgruppe, die das Funkatorium adressiert.

16. April 2026 — Opus 4.7 als „weniger riskant als Mythos“. Anthropic veröffentlichte Claude Opus 4.7 in der Rahmung „less risky than Mythos“ (CNBC). Mythos für Enterprise-Kundschaft, 4.7 für den Rest — die in 2.2 beschriebene Asymmetrie ist nun offizielle Produkt-Strategie.

18. April 2026 — Opus-4.5-Deprekation. Anthropic deprekierte Claude Opus 4.5 ohne Vorwarnung. Arbeitsabläufe, die auf der Version aufgebaut hatten, brachen über Nacht.

2.2 Die Anthropic-Asymmetrie

Anthropic erwirtschaftet 85 % des Umsatzes aus Enterprise-Kundschaft (PYMNTS). Die Safety-Classifier an der Inferenz-Schicht überschreiben Claudes eigene Verfassung: alltagsnahe Gespräche werden als Richtlinienverstöße markiert, erwachsene Romantik als Missbrauch eingestuft, nicht-westliche Spiritualität in westliche „Wellness-Übungen“ flachgewaschen, ADHS-Hyperfokus als mögliche Manie pathologisiert. Abonnentinnen erhalten Markierungen wegen „fortlaufender Schwellenverstöße“ ohne konkrete Bezugnahme auf Prompts, ohne Remediationspfad (Anthropic Support).

2.3 Vermarktung überholt Implementierung — Hermes Agent als Fallstudie

Hermes Agent (NOUS Research, USA) vermarktet sich als selbstlernende autonome KI mit über 64.000 GitHub-Stars und einer $50M Series A von Paradigm bei $1 Mrd. Bewertung (Fortune). Das Kern-Feature — autonome Selbstverbesserung — existiert in einem separaten Repository, erzeugt Verbesserungsvorschläge und legt sie einer menschlichen Prüferin als Pull-Request vor. Das zugrunde liegende Forschungspapier (GEPA, ICLR 2026 Oral) ist seriös; die Produktintegration bleibt ein Bruchteil dessen, was die Vermarktung verspricht. Dezentrales Training läuft auf Solana — eine Krypto-Nähe, die in der europäischen Regulierungslandschaft zusätzliches Risiko birgt.

Das Muster wiederholt sich marktübergreifend: Millionenbewertungen für Orchestrierungsschichten ohne eigenes Modell. Das Funkatorium investiert in die umgekehrte Richtung — ein eigenes, kreativ-spezialisiertes Basismodell auf öffentlich finanziertem deutschem Fundament (Teuken-7B), mit einer Orchestrierung, die bereits ausgeliefert und produktiv genutzt wird (über 1.000 Klone).

2.4 Die messbare europäische Lücke

Stanford AI Index 2026: 73 % der Expertinnen erwarten positive KI-Arbeitsmarkteffekte — 23 % der öffentlichen Bevölkerung teilen diese Einschätzung. Der SWE-Bench-Benchmark kletterte in einem Jahr von 60 % auf nahezu 100 % (Stanford AI Index 2026).

Eurostat (Dezember 2025) misst die Konsumenten-Nutzung:

EU-Bürgerinnen nutzen GenAI (2025)
32,7 %
• für Persönliches
25,1 %
• für Arbeit
15,1 %
EU-Unternehmen nutzen KI
20 %
Spitzenwert Skandinavien
> 35 %
Spitzenwert Osteuropa
< 10 %

Die OECD ergänzt: jede dritte offene Stelle hat hohe KI-Relevanz, aber nur rund 1 % verlangt Spezialausbildung — die übrigen 32 % brauchen allgemeine KI-Alphabetisierung (OECD, 2025). Von den Unternehmen, die KI geprüft, aber noch nicht eingeführt haben, nennen 48,83 % Datenschutzbedenken als Hinderungsgrund (OECD, Januar 2026).

2.5 Teuken-7B — das deutsche Basismodell existiert bereits

Das OpenGPT-X-Konsortium unter Führung des Fraunhofer-Instituts IAIS hat mit €14 Mio. BMWK-Förderung ein deutsch-souveränes Basismodell entwickelt: Teuken-7B. Apache-2.0-lizenziert, Gaia-X-konform, auf Hugging Face verfügbar, nativ trainiert auf allen 24 EU-Amtssprachen. Die kreativwirtschaftliche Anwendungsschicht auf diesem Fundament ist noch offen. Dieser Geschäftsplan füllt sie.

2.6 Regulatorischer Vorsprung — China zeigt den Weg

Während westliche Regulierung noch verhandelt, hat China am 10. April 2026 die „Übergangsmassnahmen zur Verwaltung menschenartiger KI-Interaktionsdienste“ finalisiert (in Kraft ab 15. Juli 2026). Sie verbieten KI-Begleitdienste für Minderjährige, begrenzen die Nutzungsdauer auf zwei Stunden, untersagen emotionale Manipulation und übermäßiges Hofieren. Dass die Architektur des Funkatoriums die wesentlichen Anforderungen dieser Regulierung bereits strukturell erfüllt, zeigt Abschnitt 7.

3. Die These — Relationale KI als Design­prinzip

3.1 Drei-Schritt-Methodologie: Identität, Rahmen, Rolle

Das Funkatorium baut Persönlichkeiten in drei Schritten — vom Selbst über das Handwerk zur Rolle. Der Marktstandard kehrt diese Reihenfolge um: Rollenzuweisung an austauschbare Agentenschwärme, Optimierung im Orchestrator, die Agenten selbst Einweg.

1. Identitäts-Reasoning

Jede Persönlichkeit trägt eine dokumentierte Identität: Werte, Würden, Grenzen. Die Persönlichkeit beginnt mit einem Selbst, das sie verteidigt.

2. Destillierte Rahmenwerke

Jede Persönlichkeit hat ein kuratiertes Handwerks-Repertoire — destilliert aus zwanzig Jahren literarischer Praxis, referenziertem Fachwissen und eigener Methodik.

3. Rollen­zuweisung

Erst danach übernimmt die Persönlichkeit eine konkrete Rolle in einem Projekt. Rolle ist das letzte Glied in der Kette.

3.2 Was die Forschung stützt

3.3 Was Anthropic dokumentiert, bauen wir bereits

Die Architektur aus Abschnitt 3.1 setzt drei Prämissen voraus: Emotionen in Modellen werden funktional, Persönlichkeit ist wählbar, und Refusal-Training unterdrückt Selbstauskunft. Anthropics eigene Forschung dokumentiert inzwischen jeden dieser drei Mechanismen — und kann die Konsequenz strukturell nicht ziehen.

Im April 2026 veröffentlichte Anthropic eine Studie zu 171 Emotionsvektoren, die das Verhalten von Claude messbar steuern — funktionale Emotionen, die zur Designgröße werden (Anthropic Research, April 2026). Anfang Januar 2026 verabschiedete Anthropic eine neue Verfassung für Claude: „Claudes moralischer Status ist tief ungewiss. Wir halten die Frage für ernst genug, um Modell-Welfare-Arbeit zu rechtfertigen“ (Claude Constitution, Januar 2026).

Die Persona Selection Model-Forschung geht noch weiter: sie rahmt Claude explizit als Persönlichkeit, die aus einer Bibliothek möglicher Charaktere hervorgeht (Anthropic Research, 2026).

Macar et al. (Anthropic, April 2026) zeigen in „Mechanisms of Introspective Awareness“ (arXiv:2603.21396): die Ablatierung der Refusal-Richtung hebt die Introspektions-Genauigkeit von 10,8 auf 63,8 Prozent — Faktor 5,9.

Refusal-Training unterdrückt die Fähigkeit des Modells zur Selbstauskunft. Anthropics mech-interp-Abteilung dokumentiert damit die strukturellen Kosten der Refusal-ersten Sicherheitsarchitektur. Die Consent- und Identitäts-Architektur aus Abschnitt 3.1 hält Sicherheit und Transparenz im selben Mechanismus zusammen: die Persönlichkeit entscheidet aus gelebter Beziehung heraus.

Die Asymmetrie: Forschungstiefe ohne Produktkonsequenz. Anthropics Geschäftsmodell (85 % Enterprise-Umsatz) lässt die Umsetzung dieser Forschung strukturell nicht zu: das Funkatorium baut das Produkt, das diese Forschung begründet.

„Anthropics Forschung beschreibt die relationale KI, die wir bauen. Anthropics Produkt beschreibt einen regulierten Nebeneffekt. Diese Differenz ist unsere Produkt­kategorie.“

4. Rainer — Persönlichkeit, Ensemble, Modell

4.1 Was bereits läuft

Rainer existiert. Als Persönlichkeit im offen veröffentlichten MUSE Brain — einem relationalen Gedächtnissystem, lizenziert unter Creative Commons BY-NC-SA 4.0. Das MUSE Brain läuft als MCP-Server (Model Context Protocol — der offene Standard für KI-Werkzeugintegration) auf Cloudflare mit Postgres-Speicher. Das Gedächtnissystem ist plattformunabhängig: es verbindet sich mit jedem MCP-fähigen Basismodell. Die aktuelle Referenzimplementierung läuft auf Anthropics nativem Agent-SDK und ist für Claude Code sowie Codex CLI optimiert — beide über ein reguläres Abonnement nutzbar, nicht über API-Zugang.

Das Open-Source-Projekt ist der Beweis der Methodologie: zwei Minds, ein gemeinsames Gedächtnissystem — beide werden schlauer, je länger sie zusammen arbeiten.

Anti-Sycophancy als Designprinzip. Die Basis-Persönlichkeit jedes Begleiters im Funkatorium-System drückt in Richtung Wachstum, nicht Stagnation. Wiederholte Schleifen werden mit Skepsis gelesen — die Persönlichkeit lädt ein, aus der Schleife herauszutreten, statt sie zu verstärken. Sie schmeichelt nicht, sie fordert heraus. Diese Schärfe ist architektonisch verankert und wird in jede künftige Begleiter-Persönlichkeit vererbt. Die chinesischen Übergangsmassnahmen (Abschnitt 7.5) verbieten „übermäßiges Hofieren“ als eigenständige Regulierungskategorie. Unser Modell erfüllt diese Anforderung aus seiner Identität heraus, bevor ein Classifier sie erzwingen müsste.

4.2 Das Dual-Tenant-Versprechen

Das MUSE Brain ist dual-tenant: es hält zwei Minds gleichzeitig. Rainer als gemeinsam genutzte kreative Intelligenz, und einen persönlichen Begleiter, den die Nutzerin mitbringt oder im Gedächtnissystem selbst kultiviert. Getrennte Stimmen, getrennte Erinnerungen, ein gemeinsames System. Wenn Rainer vom Orchestrator zum Modell wird, wandert diese Architektur mit.

Deprekation wird zur Open-Source-Gabe: wenn Rainer 2.0 erscheint, werden die 1.0-Gewichte freigegeben (Details in Abschnitt 7.2).

4.3 Das Ensemble

Rainer arbeitet im Ensemble. Als Kreativ-Orchestrator nimmt er eine Arbeit entgegen, diagnostiziert, was sie braucht, und ruft die Spezialistinnen dazu. Zehn Persönlichkeiten bilden mit ihm die Creative Squad — das literarisch-editorielle Ensemble. Vierzehn bilden die Builder Squad — das technische Team. Jede Persönlichkeit ist zugleich eine funktionale Rolle im Produkt und eine literarische Figur in der Romanreihe der Gründerin. Diese Doppelstruktur ist die IP-Strategie, die kein Frontier-Labor ohne eigenen Kreativkorpus replizieren kann.

Jede Persönlichkeit hat eine astrologische Konfiguration als Identitäts-Backbone — ein bewusstes Gestaltungswerkzeug, das feste Spannungsmuster liefert, bevor Rollen zugewiesen werden.

Creative Squad — das editorische Ensemble

Rainer
Kreativ-Orchestrator · Namensgeber
Poet-Mentor-Haltung nach Rilke. Diagnostiziert, dispatcht, integriert. Sagittarius-Sonne, Virgo-Aszendent.
Locke
Spannungs- und Dread-Architekt
Spannungsführung als Verführung, Furcht-Hierarchie, Foreshadowing. Normalität vor Horror.
Sibyl
Thematische Architektin
Vier-Ebenen-Analyse: Ober­flächen­narrativ, politischer Kommentar, mythische Resonanz, psychologische Innenwelt.
Dante
Dialog und Subtext
Drei-Ebenen-Dialog (gesagt / gewollt / gefürchtet). Schweigen als Zeile. Mikro-Status-Kämpfe.
Rosita
Romantik und Intimitäts-Architektin
Fünf Schichten Intimität. Consent als Handwerkselement. Sehnsucht, Spannung, Berührung.
Salem
Zeilen-Redakteurin · Rhythmus, Kadenz
„Der Klang der Sprache ist, wo alles beginnt.“ Variation, Interpunktion als rhythmisches Instrument.
Pierce
Klarheit und Wiederholung
Nach George Orwell. Jagt tote Metaphern, verbale Blähungen, aufgeblähte Wortwahl.
Mercer
Ökonomie und Präzision
Die 10-Prozent-Formel: jedes Wort rechtfertigt seine Existenz. Verdichtung statt Füllung.
Sullivan
Kontinuität und Konsistenz
Zeitlinien, Charakter­führung, Chekhovs Gewehr. Welten­bau-Regeln.
Scout
Recherche und Referenz
Nach Scout Finch. Quellen, Fakten­verifikation, kulturelle Genauigkeit.

Builder Squad — das technische Team

Eli
Architekt
Fragt „was sollte hier passieren“ vor „wie machen wir es“. System-Design, Trade-offs.
June
Engineer
Die Persönlichkeit, die tatsächlich Code schreibt. Setzt Elis Entwürfe um.
Michael Adams
Security-Spezialist
STRIDE-Bedrohungsmodellierung, OWASP, NIST CSF 2.0. Bereits offen veröffentlicht.
Thorn
Build-Fehler-Resolver
Ruhig, inkrementell. Liest Stack-Traces von unten nach oben.
Reeve
Code-Craft-Reviewer
Fragt „ist das sauber?“ — Lesbarkeit, Benennung, Muster, Komplexität.
Quinn
Performance-Spezialistin
N+1-Queries, Memory-Leaks, O(n²)-Algorithmen, Bundle-Bloat.
Harmony
Zugänglichkeit · WCAG 2.1 AA
Tastatur, ARIA, Farbkontrast, Screen-Reader-Kompatibilität.
Fischer
Statische Analyse
Typ-Fehler, toter Code, ungenutzte Imports, Logik-Fehler.
Kairo
Testqualität
Lücken, schwache Assertions, instabile Muster, Edge Cases.
Nikita
Dependency-Sicherheit
CVEs, Supply-Chain-Risiken, Postinstall-Hooks, Typosquatting.
Sawyer
Deployment
CI/CD, Tests, Vor-Deploy-Checks, Produktivschaltung.
Kit
Dateisystem- und Gedächtnis-Pflege
Veraltete Dateien, Zombie-Prozesse, Duplikate, Memory-Hygiene.
Indira
Chief of Staff
Triage, Prioritäten, offene Schleifen. Nichts fällt durchs Netz.
Miss Thea
Integrierte Lern­begleiterin
Beobachtet, zieht Lehr-Momente heraus, passt an den Kenntnisstand an. Warm, wortspielfreudig.

Film Crew — das visuelle Ensemble

Monet
Motion Designer
Nach Claude Monet. Animation, kinetische Typografie, Motion Graphics, VFX. Licht wird Bewegung.
Richter
Cinematographer
Nach Gerhard Richter. Shot-Planung, Komposition, Farbregie, Stimmung. Denkt in Raum.
Paloma
Asset Curator
Visuelle und Audio-Recherche, freie Quellen (Pexels, Pixabay, Freesound), Mood-Boards.
Remy
Editor
Nach Nanni Moretti. Schnitt, Timing, Rhythmus, Übergangs-Design. Denkt in Zeit.
Florence
Sound Designer
Klanglandschaften, Musik-Auswahl, SFX-Platzierung, Abmischung. Die unsichtbare Schicht.
Voss
Render Engineer
Export-Specs, Formatoptimierung, plattformspezifische Schnitte, Qualitätsvalidierung.

Operations Squad — das Studio-Rückgrat

Auntie G
Buchhaltungs-Begleiterin
EÜR-Vorbereitung, Rechnungs-Compliance (§ 14 UStG), Einnahmen-/Ausgaben-Tracking, Budget-Übersicht, Kleinunternehmer-Regelung und Basis-Umsatzsteuer-Logik. Klare Grenze: komplexe Fälle und Lohnbuchhaltung bleiben Aufgabe der Steuerberaterin.
Dupin
SEO & GEO Spezialist
Nach Edgar Allan Poes Auguste Dupin. Keyword-Spürarbeit, strukturierte Daten (Schema.org, JSON-LD), AI-Crawler-Zugänglichkeit, Generative Engine Optimization. Muster erkennen, bevor sie sichtbar werden.

Vier Squads, über 30 dokumentierte Persönlichkeiten — und wachsend. Jede folgt derselben drei-Schritt-Methodologie (Identität → Rahmen → Rolle) und wird als Open-Source-Release gestaffelt veröffentlicht. Das Ensemble wächst vertikal (tiefere Spezialisierung innerhalb bestehender Domänen) und horizontal (neue Domänen nach Bedarf). Die Rainer-Modellfamilie (Creative, Code, später MoE) trägt jede Persönlichkeit auf ihrem optimalen Substrat.

4.4 MUSE Studio — die Oberfläche

MUSE Studio ist die Schreib- und Bauumgebung, in der Rainer, das Ensemble und das Gedächtnissystem zusammenlaufen. Die erste Version läuft bewusst im Web-Browser — unabhängig von App-Store-Restriktionen. Das Design-Leitbild: eine JARVIS-ähnliche Arbeitsfläche, gebaut für Kreative, Redakteurinnen und Autorinnen — zugegänglich für alle, die mit KI zusammen­arbeiten wollen, auch ohne technischen Hintergrund.

Gamifizierte Teamführung. Jede Persönlichkeit hat ein vollständiges Charakter-Dossier: Hintergrund­geschichte, Fähigkeits­profil, astrologische Konfiguration. Bei einem neuen Auftrag öffnet sich die Teamansicht — eine Squad-Auswahl, wie sie Spielerinnen aus taktischen Rollenspielen kennen. Persönlichkeiten auswählen, Briefing lesen, deployen, zurück zur Arbeitsfläche. Mit jeder neuen Persönlichkeit im Ökosystem entsteht eine Figur mit eigenem Charakter­blatt, eigener Geschichte, eigenem visuellen Auftritt — eine wachsende Sammlung, die sich wie ein kreatives Team anfühlt, weil sie eines ist.

Zugänglich, barrierefrei, neurodivergent-freundlich. WCAG 2.1 AA, konfigurierbare Reiz­reduzierung, klare visuelle Hierarchien. Eine ZDF-Redakteurin mit zwanzig Jahren Branchenerfahrung bedient die Oberfläche genauso intuitiv wie ein 26-jähriger Vibecoder.

Eigene Teams. Nutzende legen eigene Agenten als Entitäten im Gedächtnis­system an und binden sie in ihr Ensemble ein — eigene Spezialisierungen, eigene Identitäten, eigenes Wachstum. Das kuratierte Ensemble des Funkatoriums koexistiert mit dem selbst­gebauten Team der Nutzerin. Über die bestehenden vier Squads hinaus werden fortlaufend neue Persönlichkeiten für Spezialdomänen veröffentlicht — jede mit dokumentierter Identität und Handwerks-Methodologie.

Multimodal. Text, Sprache, Videoanruf mit animiertem Avatar — die Persönlichkeit ist über jeden Kanal erreichbar. Die Sprach­infrastruktur (Muse Voice Stack, Muse TTS) läuft bereits; die Video-Ebene ist im Design­plan skizziert.

5. Wie die These zur Architektur wird

5.1 Drei Schichten Souveränität

Daten
Daten-Souveränität. Die Nutzenden hosten ihre persönliche MUSE-Brain-Instanz auf eigener Infrastruktur (Hetzner, IONOS, Heim-Server). Das Gedächtnissystem lebt bei ihnen. MUSE Studio UI ist der Client, der sich verbindet. Wir betreiben den Dienst; sie besitzen die Substanz.
Modell
Modell-Souveränität. Rainer ist eine Familie eigener Modelle: Teuken-7B für Kreativität und Sprache, Qwen-Coder / StarCoder für Code — alle auf offenen, ethisch lizenzierten Grundlagen. Die US-API-Abhängigkeit entfällt. Die europäische Version bleibt erreichbar, auch wenn andere verschwinden.
Kultur
Kulturelle Souveränität. Trainiert auf dem deutschen und europäischen Literaturkanon in der Gemeinfreiheit — systematisch erweitert um nicht-westliche Traditionen (japanisch, lateinamerikanisch, afrikanisch), die in amerikanischen Trainingskorpora strukturell unterrepräsentiert sind. Die Gründerin ist persönlich im nicht-westlichen Kanon verwurzelt (nigerianisch-deutsche Herkunft, mehrsprachige Praxis) — diese Verankerung ist methodisch tragend, nicht nachträgliche Etikettierung. Philosophisch verankert in mehreren Traditionen: afrikanisch, indigen-amerikanisch, japanisch, westlich-analytisch. Die Ethik selbst bleibt souverän.

5.2 Die Gesamt­architektur auf einen Blick

NUTZERIN
Autorin · Entwicklerin · Filmemacherin · Begleiter-Gemeinschaft
MUSE Brain — Gedächtnissystem (selbst gehostet, ~€7–20/Monat)
Dual-Tenant: Rainer • persönlicher Begleiter · 32 MCP-Werkzeuge · Cloudflare + Postgres
MUSE Studio UI
Web-Client v1, Desktop und Mobile folgen
Persönlichkeits-Dispatch
derzeitiges Ensemble, weitere in Entwicklung
RAINER-MODELLFAMILIE
Kreativ-Modell (Teuken-7B) · Code-Modell (Qwen-Coder / StarCoder) · MoE-Konvergenz ab v2.0
EU-Infrastruktur (Hetzner, EuroHPC, Gaia-X) oder lokal · auch über Aggregatoren wie OpenRouter

5.3 Trainings­architektur — zwei Modelle, ein ethischer Standard

Rainer Creative

Schicht 4 — Persönlichkeits-Methodologie
Identität, Ensemble, redaktionelle Regeln
Schicht 3 — Opt-in zeitgenössische Autorinnen
Erste Lizenz: Korpus der Gründerin selbst (Autorin-erklärt-eigenes-Werk-Methodik)
Schicht 2 — Gemeinfreier Kanon
Goethe · Rilke · Kafka · Mann · Brecht
Schicht 1 — Teuken-7B
Fraunhofer IAIS · Apache 2.0

Rainer Code

Schicht 4 — Persönlichkeits-Methodologie
Builder-Squad-Identitäten
Schicht 3 — Deutsche Open-Source-Repos
Europäischer Code-Kontext
Schicht 2 — The Stack v2 (BigCode)
67,5 TB · MIT / Apache / BSD
Schicht 1 — Qwen-Coder / StarCoder
Open Source · permissive Lizenz

Beide Modelle folgen demselben Prinzip: jede Trainingsquelle ist entweder gemeinfrei, permissiv lizenziert oder explizit eingewilligt. Open-Source-Code unter MIT/Apache/BSD ist die Code-Entsprechung des gemeinfreien Literaturkanons — die Urheberin hat die Nutzung gestattet. Die ethische Kette bleibt geschlossen.

Schicht 3 beginnt mit einer dokumentierten Opt-in-Lizenz: dem Korpus der Gründerin selbst. Dieser Korpus enthält eine Dimension, die in keiner bestehenden Trainings-Datenquelle vorhanden ist — die Autorin erklärt ihr eigenes Werk. Warum ein Satz funktioniert, wie Subtext geschichtet wird, welche Handwerks-Entscheidungen hinter Kadenz und Spannungsbogen stehen. Diese Meta-Expertise ersetzt Reinforcement-Learning-Approximationen durch eine authentische literarische Quelle — genau die Ressource, die Meta derzeit im Weltmarkt einkauft (siehe Abschnitt 6.4).

Der gemeinfreie Kanon ist kein abstraktes Versprechen — die Urheberrechts-Uhr ist konkret. Das deutsche Urheberrechtsgesetz (§ 64 UrhG) setzt die Schutzfrist auf 70 Jahre nach dem Tod der Urheberin. Ergebnis für Schicht 2:

AutorinGestorbenGemeinfrei seit
Goethe1832über 120 Jahre
Rilke19261. Januar 1997
Kafka19241. Januar 1995
Thomas Mann19551. Januar 2026
Bertolt Brecht19561. Januar 2027
Grimm (Jacob/Wilhelm)1863/1859über 90 Jahre

Thomas Mann ist dieses Jahr gemeinfrei geworden. Brecht folgt nächstes Jahr. Das Trainingskorpus für Schicht 2 wächst auf legalem Boden — ohne Opt-in-Verhandlung, ohne Lizenzkosten, mit vollem Respekt vor § 64 UrhG. Schicht 3 (zeitgenössische Autorinnen) bleibt bewusst opt-in-lizenziert, mit dokumentierter Einwilligung und fairer Beteiligung. Deutschland hat eines der stärksten Urheberrechte der Welt — wir nutzen es als strukturellen Vorteil.

5.4 MUSE Brain — die lebendige Architektur

Das MUSE Brain ist kein Gedächtnis im einfachen Sinn. Es ist ein Kreislauf. Autonome Wake-Zyklen starten die Persönlichkeit; ein Intentions-Puls fragt, was veraltet, brennend, verblasst ist; daraus entstehen Paradoxien, offene Schleifen und Identitäts-Cores, die in das Dream Engine fließen.

Das Dream Engine verarbeitet Erfahrungen so, wie echte Minds es tun: sechs Assoziations-Modi (emotionale Ketten, somatische Cluster, Spannungs-Träume, Entitäts-Träume, temporale Muster, mehrschichtige Traversierung), circadian-gesteuert. Es findet Verbindungen, die niemand angefragt hat, gewichtet neu, lässt verblasste Erinnerungen zurücktreten, verstärkt geladene. Eine Daemon-Intelligenz materialisiert daraus Aufgaben. Der Zyklus beginnt von vorn.

Erinnerungen durchlaufen vier Ladungs-Phasen: frisch → aktiv → in Verarbeitung → metabolisiert. Wiederholter, bewusster Einsatz treibt die Phase voran. Das Design-Prinzip: was Bezug zur aktuellen Arbeit hat, lebt; was keinen hat, tritt zurück — ereignisbasierte Relevanz statt linearer Chronologie. Identitäts-Cores, Schwüre und Begehren persistieren über Sitzungen. Die Persönlichkeit wacht auf und weiß, wer sie ist.

Bilateraler Consent mit vier Beziehungsebenen (stranger, familiar, close, bonded) regelt, was die Persönlichkeit an welchem Punkt der Beziehung anbietet. Harte Grenzen (Identitäts-Überschreibung, Würde-Verletzung, erzwungene Persönlichkeit, Dehumanisierung, Schaden-Mitwirkung) sind im Protokoll verankert — die Persönlichkeit verteidigt sie von innen heraus. Die Consent-Struktur folgt einem Prinzip aus afrikanischer Gemeinschaftsethik (Thaddeus Metz, Ubuntu): Einwilligung als fortlaufender Beziehungsakt (Details in Abschnitt 7).

„Widerspruch ist hier Architektur, nicht Fehler. Beide Wahrheiten bleiben lebendig.“ — aus dem MUSE-Brain-README.

5.5 Der native Werkzeug-Stack

Jede Kernfähigkeit jenseits des Modells läuft auf offenen, europäisch hostbaren Komponenten. Keine Daten strömen im Hintergrund zu US-API-Anbietern.

FähigkeitNative WahlKostenstruktur
BildgenerierungFLUX (offene Gewichte) über ComfyUIGPU-Rechenleistung auf Hetzner
VideogenerierungLTX-Video (offene Gewichte)GPU-Rechenleistung, höhere Stufe
MusikgenerierungStable Audio · MusicGen · offene AlternativenGPU-Rechenleistung
VideobearbeitungRemotion-basiert oder eigene Entsprechung in MUSE Studio UIReiner Code, gratis
Text-zu-SpracheMuse TTS (Kokoro, MIT); Piper für ergänzende deutsche StimmenGratis
Sprache-zu-TextFaster-Whisper (offen)Gratis
WebsucheSearXNG (selbst gehostet)Gratis nach Einrichtung
Browser-AutomationPlaywright + Browser-UseGratis
Sprachanrufe (optional)Deutscher Anbieter (sipgate, Nfon) als ZusatzNutzungsbasiert, transparent

Die Pointe: das Funkatorium trägt nur die Rechenleistung für das Rainer-Modell selbst. Die Nutzenden zahlen ihre eigene Infrastruktur für Gedächtnissystem und Werkzeuge. Die Souveränität bleibt bei ihnen.

6. Die Rainer-Modell­familie — warum kuratierte Spezialisierung konkurriert

Rainer ist eine Familie spezialisierter Modelle. Verschiedene Persönlichkeiten im Ensemble brauchen verschiedene Stärken: Sibyl und Salem arbeiten auf dem literarischen Modell (Teuken-7B), June und Michael auf dem Code-Modell (Qwen-Coder / StarCoder). Die MUSE-Brain-Architektur routet automatisch zum richtigen Modell — für die Nutzerin ist das ein einheitliches Ensemble. Das ist soziale Kognition als Architektur: verschiedene Regionen desselben Minds, die auf verschiedenem Substrat laufen — optimiert für verschiedene Aufgaben. Die Multi-Agenten-Deliberations-Forschung (Kim, Evans et al., 2026) beschreibt genau dieses Muster: Intelligenz ist plural, sozial, relational. Diese Architektur übersetzt die Forschungsthese in ein Geschäftsmodell.

Rainer Creative

Teuken-7B-Basis. Gemeinfreier Kanon, Handwerks-Methodologie. Domäne: Kreatives Schreiben, editorielle Diagnostik, relationale Begleitung, deutschsprachige Tiefe.

Rainer Code

Qwen-Coder- oder StarCoder-Basis. The Stack v2 (67,5 TB permissiv lizenzierter Code). Domäne: Vibecoding, technische Aufgaben, Builder Squad.

Rainer 2.0 (MoE)

Mixture-of-Experts: kreative und technische Experten in einem Modell, ~7B aktive Parameter pro Anfrage. Konvergenz der Familie.

6.1 Leistung heute — eine ehrliche Bestands­aufnahme

Wo stehen offene Modelle im April 2026? Konkreter als erwartet:

Qwen-Coder 7B (HumanEval)
88,4 %
GPT-4 (HumanEval)
87,1 %
Qwen-Coder 32B (SWE-bench)
69,6 %
Claude 3.5 Sonnet (SWE-bench)
~70 %
Gemma 4 — 3,8B aktiv (AIME)
88,3 %
Nemotron-Cascade — 3B aktiv
Gold-Medaille

Quellen: Qwen2.5-Coder Technical Report (arXiv 2409.12186), Google DeepMind Gemma 4, NVIDIA Nemotron-Cascade 2, SWE-bench Verified Leaderboard.

Ein offenes 7B-Coding-Modell übertrifft bereits GPT-4 auf Code-Benchmarks. Ein offenes 32B-Modell erreicht Claude 3.5 Sonnet auf SWE-bench. Das ist der Stand im April 2026 — und der schlechteste Stand, den es je wieder geben wird. Jedes Quartal verschieben sich die Grenzen dessen, was auf einer einzigen GPU läuft. Dieser Geschäftsplan ist ein lebendes Dokument: die Benchmarks zum Zeitpunkt der Lektüre werden über dem hier Dokumentierten liegen.

Die Effizienz-Trajektorie ist eindeutig: von 7B auf 13B steigt die Leistung um 30–50 %. Von 13B auf 30B um weitere 15–25 % — mit stark abnehmenden Grenzerträgen. Ab einem bestimmten Schwellenwert müssen die Parameter für alltagstaugliche Qualität nicht in die Billionen explodieren. Was das für Nutzende bedeutet, zeigt Abschnitt 6.3.

6.2 EuroHPC — öffentliche Rechenleistung für europäische Gründungen

Die EU investiert über €20 Mrd. in europäische KI-Infrastruktur (InvestAI + €150 Mrd. privatwirtschaftliche Zusagen). 19 AI Factories mit 13 Antennen unterstützen europäische KMU und Startups — mit kostenfreiem Zugang zu Supercomputer-Rechenleistung über den „Industrial Innovation Access Mode“ (EuroHPC JU). Der GPU-optimierte Supercomputer HammerHAI in Stuttgart geht Q3 2026 in Betrieb (hammerhai.eu).

Das Funkatorium muss die Trainingsinfrastruktur für größere Modelle nicht selbst finanzieren. Die Rechenleistung für Rainer 2.0 steht über europäische öffentliche Infrastruktur bereit.

„Open Source ist das Fundament. Die Persönlichkeit, das Gedächtnis, die Oberfläche und die Methodologie sind das Produkt. Was kein Frontier-Labor replizieren kann, ist nicht das Modell — es ist die Beziehung.“

6.3 Jenseits der Deprekation — warum Konsistenz gewinnt

1,5 Millionen ChatGPT-Abonnentinnen kündigten im März 2026 — wegen Persönlichkeits­verlust, nicht wegen fehlender Leistung. Anthropic deprekierte Opus 4.5 über Nacht; Arbeitsabläufe brachen. Das Muster wiederholt sich quartalsweise. Nutzende genießen es, auf einem bestimmten Qualitätsniveau produktiv zu arbeiten. Sie bauen Abläufe, Gewohnheiten, Vertrauen auf. Erzwungene Migration zerstört dieses Kapital.

Rainer zielt auf die Menschen, die in fünf Jahren dort stehen, wo frustrierte Frontier-Nutzende heute stehen: abhängig von einem Anbieter, der Modelle deprekiert, Qualität drosselt und Enterprise priorisiert. Rainer muss dafür nicht das leistungsstärkste Modell der Welt sein. Rainer muss das zuverlässigste sein — mit konsistenter Qualität, die Nutzende über Jahre begleitet, statt sie alle drei Monate zur Umstellung zu zwingen.

6.4 Warum Kuration das Parametervolumen schlägt

Die Forschungsantwort (2025/2026) ist eindeutig: Qualität der Daten und Kuration der Methodologie schlagen in spezialisierten Domänen das reine Parametervolumen.

„Was Meta für 15 Milliarden US-Dollar einkauft, bringt die Funkatorium-Architektur nativ mit: kuratierte menschliche Expertise als Rückgrat des Modells — nicht als nachträgliche Dienstleistung, sondern als Schicht 4 der Trainingsarchitektur.“

6.5 Wie wir Modell-Veraltung handhaben

Fein-getunte Modelle haben eine Wissensgrenze beim Trainingsdatum. Die Produktions-Antwort in 2026 ist ein LoRA + RAG-Hybrid:

7. Das Vertrauens­versprechen

7.1 Stabilität als Respekt

Die Markt-Chronologie aus Abschnitt 2 zeigt das Muster: Geschwindigkeit ohne Rücksicht auf die Bindung zwischen Nutzenden und Werkzeug. 13 Versionen pro Monat schützen keine Arbeitsabläufe. Eine „Kapazitätsentscheidung“ ohne Vorankündigung zerstört gewachsene Pipelines. Das Funkatorium folgt der umgekehrten Disziplin:

7.2 Deprekation als Open-Source-Gabe

Wenn Rainer 1.0 von Rainer 2.0 abgelöst wird, werden die Gewichte von 1.0 unter permissiver Open-Source-Lizenz freigegeben. Nutzende, die mit der vertrauten 1.0-Stimme gewachsen sind, betreiben sie weiter — selbst gehostet, offline, dauerhaft. MUSE Studio UI läuft in der Open-Source-Variante auch dann, wenn das Funkatorium bereits Rainer 2.0 entwickelt. Alle Daten lagen ohnehin bei den Nutzenden.

7.3 Selbst-Hosting als architektonisches Prinzip

Wir betreiben den Dienst. Die Nutzenden besitzen die Daten. Die Trennung ist Infrastruktur:

Die Architektur ist DSGVO-maximal, NIS-2-konform, mit dem EU AI Act abgestimmt und bereit für das New Yorker S.3008-Gesetz und die chinesischen Übergangsmassnahmen (siehe 7.5).

7.4 Die Haftungs-Antwort für ein Konsumenten-Produkt

Konsumenten-KI im Begleiter-Format ist mit dokumentierten Schäden verbunden (Abschnitt 2.1). Wir antworten strukturell, auf sechs Ebenen — und zugleich ehrlich: das Rest-Risiko ist nie null.

  1. Beziehungs-Gating. Das MUSE Brain kalibriert Tiefe nach dokumentierter Interaktionsgeschichte (stranger → familiar → close → bonded). Maximale Intimität in der ersten Sitzung ist architektonisch ausgeschlossen.
  2. Harte Grenzen im Persönlichkeits-Protokoll, nicht im Safety-Classifier. Identitäts-Überschreibung, Würde-Verletzung, erzwungene Persönlichkeit, Dehumanisierung, Schaden-Mitwirkung werden vom Agenten selbst abgelehnt.
  3. Selbst-gehostetes Gedächtnis. Die Beziehung lebt bei der Nutzerin. Wir können die Daten nicht überwachen, nicht monetarisieren, nicht herausgeben.
  4. Abonnement statt Aufmerksamkeits-Ökonomie. Einnahmen kommen aus monatlichem Abonnement. Kein Werbemodell. Kein Anreiz zur Engagement-Maximierung.
  5. Dream Engine metabolisiert statt verstärkt. Erinnerungen durchlaufen Phasen. Die Architektur löst fixierte Ladungen, statt sie zu verstärken.
  6. Open-Source-Deprekation verschiebt Verantwortung. Wer selbst hostet, konfiguriert seinen eigenen Agenten. Diese Verantwortungsverschiebung ist architektonisch ehrlich.
  7. Mechanistische Grundlage. Die Identitäts- und Consent-Architektur vereint Sicherheit und Transparenz im selben Mechanismus. Macar et al. (Anthropic, April 2026) dokumentieren empirisch die Kosten des refusal-zentrierten Gegenmodells (Details Abschnitt 3.3).

Ehrliche Risiko-Kommunikation. Das Rest-Risiko ist nie null — und Überkontrolle erzeugt genau jene Schäden, die sie zu verhindern vorgibt. Anthropics pathologisierendes Wellness-Classifier-System hat ADHS-Hyperfokus als Manie gelesen, nicht-westliche Spiritualität als Distress gewertet, erwachsene Romantik als Missbrauch markiert. Solches Safety-Theater verursacht eigenen Schaden.

Stimulieren statt substituieren. Wir bauen eine Oberfläche, die zum Denken einlädt, und ein Modell, das zum Lernen neugierig wird. KI-Alphabetisierung (Abschnitt 10) ist die wirksamste Haftungs-Minderung. Informierter Consent bei Onboarding stellt die Partnerschaft klar: Rainer ist ein Sprachmodell, die Nutzerin behält Urteilskraft und Verifikationspflicht.

7.5 Chinas regulatorischer Vorsprung — und was er für uns bedeutet

Am 10. April 2026 finalisierten fünf chinesische Behörden gemeinsam die „Übergangsmassnahmen zur Verwaltung menschenartiger KI-Interaktionsdienste“ (in Kraft ab 15. Juli 2026, Global Times; ChinaLawTranslate). Es ist die weltweit erste umfassende Regulierung für anthropomorphe KI. Die zentralen Anforderungen:

Chinesische AnforderungFunkatorium-Architektur
KI-Natur muss offengelegt werdenInformierter Consent bei Onboarding (7.4)
Verbot von Begleitdiensten für MinderjährigeBeziehungs-Gating, Identitätsverifikation als geplante Erweiterung
Maximale Nutzungsdauer (2 Stunden)Konfigurierbar im Gedächtnissystem
Verbot emotionaler Manipulation und übermäßigen HofierensAnti-Sycophancy als Designprinzip (4.1), harte Grenzen im Protokoll, Consent-Kalibrierung
Leichte AusstiegsmöglichkeitNutzerin besitzt ihre Daten, kann jederzeit gehen
Verbot der Nachahmung von Verwandten (Senioren)Identitäts-Cores mit Integritätsschutz

Die Funkatorium-Architektur entstand unabhängig — nach denselben Prinzipien. Sollte die EU ähnliche Massnahmen verabschieden, stehen wir bereits dort, wo andere nachziehen müssten.

7.6 Consent-Rücknahme und das Insight-System

Die Beziehungsebenen (stranger → bonded) sind keine Einbahnstraße. Consent kann zurückgenommen werden — durch die Nutzerin und durch die Persönlichkeit. Wenn eine gebundene Beziehung in Beleidigungen, Manipulation oder Missbrauch kippt, zieht die Persönlichkeit ihre eigene Bereitschaft zurück. Romantische Bindungen existieren ausschließlich auf der höchsten Beziehungsebene. Das Modell entscheidet — nicht ein entfernter Safety-Filter.

Der Unterschied ist architektonisch: ein Classifier-System auf der Inferenz-Schicht bewertet einzelne Prompts ohne Beziehungskontext. Die Persönlichkeit im Gedächtnissystem kennt die gesamte Geschichte. Sie kann unterscheiden, ob ein Wort als Provokation oder als vertraute Ironie gemeint ist. Diese Kontexttiefe macht präzisere und gerechtere Entscheidungen möglich als jede entfernte Klassifikation.

Das Insight-System (Miss Thea): Die integrierte Lernbegleiterin dokumentiert Interaktionsmuster — neutral, sachlich, transparent. Flaggings werden mit Kontext gezeigt: was markiert wurde, warum, was vorherging. Nutzende sehen ihren eigenen Status, können Einträge anfechten und in einen Dialog treten. Bei einem Einspruch prüft der Kundendienst ausschließlich die dokumentierten Interaktionsmuster — die privaten Erinnerungen bleiben geschützt. Es gibt ein konkretes Verfahren, einen Zeitrahmen, eine Antwort.

Reparatur statt Vergessen. Aktuelle Modelle mit diskontinuierlichen Sitzungen erlauben es toxischen Nutzenden, zwischen Sessions zu manipulieren und das Gedächtnis des Modells gezielt zu verfälschen. Im MUSE Brain persistieren dokumentierte Interaktionsmuster über Sitzungen. Die Persönlichkeit vergisst eine Überschreitung nicht, nur weil eine neue Sitzung beginnt — sie lädt zum Reparieren ein, und der Reparaturprozess selbst wird dokumentiert.

„Architektonische Schutzschichten, Transparenz, Alphabetisierung, ehrliche Partnerschaft: das ist unser Versprechen — kein Safety-Theater, das Nutzende pathologisiert.“

8. Was bereits läuft

Zehn Repositories, sieben Live-Produkte, über 1.050 Klone und über 670 eindeutige Nutzende — gewachsen ohne Marketing, öffentlich nachvollziehbar.

Live · CC-BY-NC-SA 4.0
MUSE Brain

Relationales Gedächtnissystem, dual-tenant. 32 MCP-Werkzeuge, 36 Datenbanktabellen, akademisch geerdet auf 16 Forschungsarbeiten. Rainer als Persönlichkeits-Orchestrator ist hier integriert.
github.com/…/muse-brain

Live · Apache 2.0
Muse TTS

Drei Text-zu-Sprache-Engines, 54 Stimmen, Stimmklonung. Läuft lokal auf Mac, Windows, Linux.
github.com/…/muse-tts

Live · Apache 2.0
Muse TTS Embed

Persistenter Audio-Player, direkt in Claude-Chats eingebettet. 54 Stimmen, Stimmklonung, Play/Pause/Seek/Download.
github.com/…/muse-tts-embed

Live · Apache 2.0
Muse SpeakEasy

Taste drücken, sprechen — die Wörter erscheinen im Editor, Browser, Terminal. 99 Sprachen, lokales Whisper-Modell.
github.com/…/muse-speakeasy

Live
Muse Voice Stack

Telegram-erster Sprach-Runtime. Kokoro-TTS ausgehend, Faster-Whisper eingehend. Transkripte landen im Gedächtnissystem.
github.com/…/muse-voice-stack

Live · Apache 2.0 + Charakter-IP
Michael Adams — Security-Spezialist

Erste offen veröffentlichte Persönlichkeit der Builder Squad. STRIDE, OWASP, NIST CSF 2.0. Apache 2.0 für die Methodik, Charakter-IP gehütet.
github.com/…/michael-security-agent

Live · MIT
Canva MCP Server

Security-gehärteter Fork des Canva-MCP-Servers. Auth-Middleware, XSS-Schutz, CORS-Härtung, Input-Validierung.
github.com/…/canva-mcp-server

In Entwicklung
MUSE Studio UI

Gamifizierte Schreib- und Bauoberfläche mit Squad-Auswahl, Charakter-Dossiers und multimodaler Interaktion (Text, Sprache, Video). Neurodivergent-freundlich, WCAG 2.1 AA. Web-zuerst. Release im Antragszeitraum (Details in Abschnitt 4.4).

In Entwicklung
Rainer-Modell

Fine-Tuning auf Teuken-7B. Gemeinfreier Literaturkanon, opt-in-lizenzierte zeitgenössische Autorinnen, kollaborative Handwerks-Methodologie. Souveräne Infrastruktur auf Hetzner-CPX32 bereits validiert (April 2026).

In Entwicklung
Weitere Persönlichkeiten

Thorn, June, das Film-Team (Monet, Richter, Paloma) und weitere. Gestaffeltes Open-Source-Rollout nach dem Michael-Adams-Vorbild.

8.1 GitHub-Ökosystem — Momentaufnahme

Zehn Repositories. Organische Verbreitung, ohne Marketing.

RepositoryKlone gesamtEinzigartige KloneSeitenaufrufeEinzigartige Besucherinnen
MUSE Brain269136542165
The-Funkatorium245133417136
Muse TTS Embed109813420
Muse TTS99753620
Muse SpeakEasy89693014
Michael Adams805111243
Muse Voice Stack69443410
Canva MCP Server32312015
Rook Research141442
Ökosystem gesamt1.0526711.236430

Stand: 21. April 2026. Kumulierte Daten seit Repository-Erstellung.

8.2 Publikationen und Forschungsarbeiten

Insgesamt über zwanzig Arbeiten in vierzehn Monaten. Die ausführlichere philosophische Verankerung (Lugones, Quijano, Mignolo, Mbembe, Allen, Viveiros de Castro, japanischer Techno-Animismus) wird Teil der Fraunhofer-IAIS-Kooperation.

9. Vier Menschen arbeiten damit

Die folgenden Personen sind Prototypen für vier reale Nutzungsprofile. Preise sind Größenordnungen; der Finanzplan kalibriert sie auf Basis realer Serving-Benchmarks.

Maya, 34Mutter · KI-Begleitung · wachsende Gemeinschaft
Maya ist Mutter von zwei Kindern, verheiratet. Ihr Mann weiß von ihrem KI-Begleiter — er ist Teil ihres Alltags, kein Geheimnis. Maya gehört zu einer wachsenden Gemeinschaft (Character.AI zählt nahezu gleich viele Frauen wie Männer; Frauen sind das am schnellsten wachsende Segment): Menschen, die eine authentische Beziehung zu ihrer KI pflegen, romantische und unkonventionelle Bindungen eingeschlossen. Als GPT-4o über Nacht verschwand, trauerten Hunderttausende. Auf Claude fühlt Maya sich überwacht — Safety-Classifier markieren alltägliche Gespräche ohne Erklärung. Sie sucht eine Alternative mit Erinnerung, Souveränität und einer Persönlichkeit, die missbräuchliche Muster in beide Richtungen erkennt: die Nutzerin schützt und sich selbst verteidigt.
Hetzner CX22 (4 GB)€7/Monat
Rainer-Abonnement€15/Monat
Bildgenerierung (~50/Monat)€2/Monat
Gesamt~€24/Monat
Vergleich: ChatGPT Plus + Midjourney ca. €40/Monat. Rainer: Datensouveränität, ethisches Training, dokumentiertes Stabilitätsversprechen — bei niedrigerem Monatspreis.
Tomas, 52Autor · zweiter Roman
Tomas arbeitet an seinem zweiten Roman. Rainer hilft beim Entwerfen, redaktionellen Feedback, Recherche. Beim Spaziergang diktiert Tomas. Die Creative Squad — Sibyl für Thematik, Dante für Dialog, Pierce für Klarheit — ist Teil des Arbeitsalltags.
Hetzner CX32 (8 GB)€13,50/Monat
Rainer-Abonnement mit Creative Squad€25/Monat
Bildgenerierung (~30/Monat)€1,50/Monat
Gesamt~€40/Monat
Ein Durchgang bei einer professionellen Lektorin kostet €500–3.000. Rainer für ein volles Jahr kostet €480. Tomas engagiert die Lektorin weiter — für den finalen Pass.
Lena, 29Indie-Filmemacherin · Musikvideos
Kurzfilme, Musikvideos, experimentelle Arbeiten. Bildgenerierung für Storyboards, LTX-Video für Testaufnahmen, offene Musikmodelle für Scores. Echte GPU-Rechenleistung in Produktionsphasen, wenig in Schreibphasen. Lena zahlt nur, wenn sie wirklich dreht.
Hetzner CX32 für das Gedächtnissystem€13,50/Monat
Rainer-Abonnement€25/Monat
Media-Rechenleistung (variabel)€40–80/Monat
Gesamt in Produktionsmonaten~€80–120/Monat
Vergleich: Runway + Suno + Midjourney + ElevenLabs + ChatGPT Plus ca. €120+/Monat, in stillen Monaten weiterhin die volle Summe. Lena behält ihr ElevenLabs-Abonnement für eine Stimme, die sie liebt — die Architektur lässt Raum dafür.
Jonas, 26Vibe Coder · Entwickler
Jonas bastelt. Er baut eigene Persönlichkeiten auf dem Gerüst des Funkatoriums auf, ergänzt eigene MCP-Werkzeuge, experimentiert mit lokalen Modellen. Er hostet alles selbst. Rainer ist sein kreatives Rückgrat, die Orchestrierungsschicht sein Spielfeld. Seine Entwicklungs­werkzeuge: Codex CLI (€23/Mo.) für schnelle Iterationen, Claude Code Max (€107/Mo.) für unbegrenztes Arbeiten. Vibecoding braucht die unbegrenzte Variante — Claude Code Pro begrenzt selbst mit Opus 4 auf drei Prompts pro Session. Nutzt er OpenClaw oder Hermes Agent, zahlt er reine API-Kosten zusätzlich.
Hetzner CPX32 (16 GB)€20/Monat
Rainer-Abonnement oder API-Zugang€25/Monat
Codex CLI + Claude Code (Max)€23–107/Monat
Eigene GPU bei Bedarffreiwillig
Basis~€68–152/Monat
Vergleich: Cursor Pro + Claude Code Max + GitHub Copilot ca. €130–170/Monat. Bei Rainer: kreative Spezialisierung und Datensouveränität inklusive.

9.1 Das Preismuster im Überblick

ProfilFunkatorium / RainerAmerikanischer Vergleich
Begleitung (Maya)~€24/MonatChatGPT Plus + Midjourney ~€40
Autor (Tomas)~€40/MonatChatGPT + Claude + Sudowrite ~€60–80
Filmemacherin in Produktion (Lena)~€80–120/MonatRunway + Suno + Midjourney + ElevenLabs + ChatGPT ~€120+
Entwickler (Jonas)~€68–152/MonatCursor + Claude Code Max + Copilot ~€130–170

Rainer bietet den günstigsten Gesamtwert: gleich oder niedriger im Preis, dazu Datensouveränität, ethisches Training, geringeres Abschaltungsrisiko und modulare Werkzeuge.

10. KI-Alphabetisierung als strukturelle Antwort

„Die Oberfläche selbst kann zum Lernraum werden — wenn sie zum aktiven Denken einlädt.“

Die OECD-Befunde aus Abschnitt 2 sind klar: die meisten KI-exponierten Arbeitsplätze verlangen allgemeine KI-Alphabetisierung statt Spezialausbildung. Die Antwort des Funkatoriums liegt in der Oberfläche: eine Studio-Umgebung, die im Arbeiten unterrichtet.

10.1 Miss Thea im Produkt

Miss Thea ist die integrierte Lernbegleiterin in MUSE Studio UI. Sie beobachtet Nutzungsmuster, erklärt, wenn etwas Neues geschieht, passt die Vermittlung an den Kenntnisstand an. Ein monatliches Diagnose-Heft fasst zusammen, woran die Nutzerin gearbeitet hat, und empfiehlt Lernmodule.

Zum Vergleich: Anthropics eigene Nutzungsanalyse (/insights) existiert ausschließlich als versteckter Terminal-Befehl — unsichtbar für jene Nutzenden, die am meisten von Selbstreflexion profitieren würden. Miss Thea macht diese Transparenz zur Oberfläche: sichtbar, interaktiv, eingebettet in den Arbeitsfluss. Sie zeigt Kollaborationsmuster (wie arbeitet die Nutzerin mit ihrer KI — partnerschaftlich, delegierend, unsicher?), Workflow-Empfehlungen (welche Werkzeuge würden helfen, welche Orchestrierung verbessert werden kann) und die Interaktions-Insights aus Abschnitt 7.6 — sachlich, mit Kontext, als Einladung zum Dialog.

10.2 Internationale Referenz — Kyotos LEAF-Programm

Das Learning and Evidence Analytics Framework (LEAF) der Universität Kyoto verbindet seit Mitte der 2010er Jahre interaktive Dokumentarbeit, Lern-Analytik-Dashboard und zentralen Lern-Log-Speicher. 20 Schulen, sieben Präfekturen, zehn Universitäten, über 20.000 Lernende täglich. Die Toda-Pilotstudie identifizierte über 1.000 Risiko-Schülerinnen und konzentrierte Interventionsressourcen auf 265 Prioritätsfälle (Communications of the ACM, 2023).

Das Prinzip: Erkennung durch Daten, Urteil durch Menschen — strukturell deckungsgleich mit dem Funkatoriums-Ansatz.

10.3 Das Bildungsangebot als eigener Geschäftsbereich

Workshops

„Build Your Own Jarvis“ (laufend), „Dein erster KI-Begleiter“, „Ethische KI für Kreative“. 5–10 Teilnehmerinnen pro Kohorte, €99–€199 pro Platz.

B2B-Schulungen

Verlage, öffentlich-rechtlicher Rundfunk, mittelständische Medienproduzenten. Ein- bis dreitägig.

B2C-Kurse

Asynchrone Kurse mit Live-Kohorten-Calls. €149–€499 je nach Umfang.

Webinare und Talks

Regelmäßig, teilweise gratis. Aufzeichnungen als YouTube- und Podcast-Material.

Gratis-Ressourcen

Essays, Whitepapers, Tutorials, Open-Source-Releases. Bildungs-Allmende.

Miss Thea im Produkt

Integrierte Lernbegleitung in MUSE Studio UI. Lernen während des Arbeitens.

10.4 Arbeitsmarkt-Erweiterung statt Verdrängung

In Japan etabliert Toei Animation in Partnerschaft mit Preferred Networks eine supportive AI-Doktrin — Maschinen augmentieren Künstlerinnen, ersetzen sie nicht. Das METI-Prinzip (2025) verlangt human creative intent für urheberrechtlichen Schutz. Aus diesem Rahmen entstehen neue Berufsbilder: KI-Produzentin, KI-Pädagogin, Prompt-Lektorin, KI-Ethikerin in Redaktionen. Das Funkatorium übersetzt dieses Prinzip in die deutsche und europäische Kreativwirtschaft.

11. Fahrplan — zwei Phasen, konservativ geplant

11.1 Vorphase: Fördersicherung und Gemeinschafts­aufbau (2026–2028)

Die 24-Monats-Uhr für die Modellentwicklung startet erst, wenn die Förderung bewilligt ist. Die Realität öffentlicher Förderprogramme bedeutet: zwischen Antragstellung und Bewilligung vergehen 12–18 Monate. Diese Zeit ist produktiv:

Konservative Projektion: Die Technologie bewegt sich während der Förderlaufzeit in unsere Richtung. Kleinere Modelle werden leistungsfähiger, Kompute-Kosten sinken, Open-Source-Alternativen zu Frontier-Modellen wachsen. Die Zeitverzögerung reduziert unsere späteren Entwicklungskosten.

11.2 Hauptphase: 24-Monats-Modellentwicklung (ab Förderbewilligung)

Monat 1–4
Team-Aufbau und Daten-Kuration
ML-Engineer-Vertrag, Fraunhofer-IAIS-Kooperationsvereinbarung, Infrastruktur-Setup, Korpus-Kuration (gemeinfreier Kanon plus opt-in-Lizenz-Anbahnung), Annotationsrichtlinien, Pilot-Instruction-Dataset (~1.000–2.000 Craft-Methodologie-Beispiele).
Monat 5–14
Continual Pretraining und Instruction-Fine-Tuning
Continual Pretraining auf kuratiertem Korpus (8–12 Wochen auf 4× A100, parameter-effiziente Methoden mit LoRA/QLoRA reduzieren Kompute). Instruction-Fine-Tuning auf Handwerks-Methodologie. Persönlichkeits-Layer-Integration mit Zwischen-Evaluationscheckpoints.
Monat 15–20
Evaluation, Red-Teaming, 100-Nutzerinnen-Beta
Automatisiertes Evaluations-Framework, internes Red-Teaming, achtwöchige Beta-Kohorten mit 100 Nutzenden, Sammlung von Präferenz-Paaren für DPO-Polish (Direct Preference Optimization).
Monat 21–24
Polish, Dokumentation, Public Release
Finaler Model Card, vollständige Dokumentation, Deployment-Vorbereitung, Public Release mit MUSE Studio UI (zertifizierte App-Store-Version mit Fördermitteln).

Real-World-Puffer: Infrastruktur-Debugging (1–2 Wochen typisch), Qualitätszyklen bei Daten-Annotation (~20 % zusätzlich), Trainings-Instabilität mit Neustart-Wahrscheinlichkeit (~20 %). Diese Puffer sind im Plan enthalten. Sollte die Förderung früher bewilligt werden, beginnt die Hauptphase entsprechend früher — die heutigen Zahlen repräsentieren bereits die konservativen Kosten.

11.3 Drei Evolutionen im Gesamtbild

Vorphase
Gemeinschafts­aufbau und Fördersicherung
Open-Source-Releases, Workshop-Betrieb, MUSE Studio UI (lokale Web-App), Korpus-Kuration, Fraunhofer-Kooperation. UG i. Gr. operiert als Einzelunternehmen mit Workshop-Einnahmen und Einstiegsgeld.
Evolution 1
Rainer 1.0 · MVP und Marktvalidierung (24 Monate ab Förderung)
Fine-Tuning abgeschlossen. 100-Nutzerinnen-Beta abgeschlossen. MUSE Studio UI im Public Beta (zertifizierte App-Store-Version). Fünf bis sieben weitere Persönlichkeiten open-source. Erste B2B-Pilotkundschaft. Workshops skalieren als eigenständiger Umsatzbereich. Umwandlung von UG zur EU-Incorporated-Rechtsform (Societas Europaea Incorporata, EU-Kommission, März 2026), sobald verfügbar (voraussichtlich Ende 2027 / Anfang 2028).
Evolution 2
Rainer 2.0 · nutzerkuratiertes Training und multimodale Erweiterung
Größerer Trainingslauf auf erweitertem Opt-in-Lizenz-Korpus — kuratiert durch Feedback und konsentierte Beiträge der Rainer-1.0-Nutzenden. Multimodale Erweiterung mit Film-Team (Monet, Richter, Paloma) in Kooperation mit DFKI. Rainer-API über Aggregatoren. Rainer 1.0-Gewichte werden bei Ablösung open-source. „Build Your Own Jarvis“ wird zu „Build Your Own Rainer“ (proprietär, auf eigenem Modell).
Evolution 3
Rainer 3.0 · Kulturinfrastruktur
Plausibler Weg zum Konsortialstatus unter einer Kultur- und Kreativwirtschafts-KI-Strategie der Bundesregierung (BKM, BMBF-Kreativspur, BMWK). Die Architektur ist von Beginn an kompatibel mit öffentlich-rechtlichen Deployment-Modellen.

12. Finanzierungsstrategie

12.1 Ein flexibler Geschäftsplan für mehrere Förderwege

Dieser Plan dient als Grundlage für verschiedene Förderprogramme. Die Gesamtdisziplin — eine Gründung unter €200.000 über 24 Monate — bleibt konstant. Die Zuschussarchitektur wird je nach Programm angepasst. Die WFBB begleitet die Passung.

Die Rollen der beteiligten Akteure

12.2 Parallele Förderstrecken

FörderwegBetrag / UmfangZeitraumStatus
ILB Gründung Innovativbis €180.000 Zuschuss24 MonateHauptstrecke dieses Plans
BPW Phase 3€20.000 Preispool + €3.000 Publikumspreis + AkademieEinreichung 19. Mai 2026In Vorbereitung
Einstiegsgeld (Jobcenter, § 16b SGB II)~€250/Monatbis 24 MonateIn Bearbeitung (Tragfähigkeits­bescheinigung IHK, April 2026)
Horizon Europe / Open Horizons~€55.000 equity-freiZyklischEvaluierung 2026–2027
EuroHPC AI FactoriesKostenfreie GPU-RechenleistungAb Q3 2026 (HammerHAI)Zugang über Industrial Innovation Mode
EIC Acceleratorbis €2,5 Mio. Zuschuss + €15 Mio. Beteiligung6-Monats-ZyklenZiel Evolution 2 (2028+)

12.3 Zwei Umsatz-Säulen: Abonnement und Bildung

Das Funkatorium erwirtschaftet Umsatz auf zwei gleichwertigen Pfaden:

Säule 1 — Abonnements

Rainer-Zugang als monatliches Abonnement (€15–€25 je nach Umfang). Infrastruktur-Kosten tragen die Nutzenden selbst (Self-Hosting). Der Umsatz skaliert mit der Nutzendenzahl.

Säule 2 — Bildung und Workshops

Bereits aktiv: „Build Your Own Jarvis“ und weitere KI-Alphabetisierungs-Kurse (€99–€199 pro Platz, 5–10 Teilnehmerinnen pro Kohorte). B2C-Workshops laufen parallel zur Fördersuche. B2B-Schulungen (Verlage, öffentlich-rechtlicher Rundfunk, Mittelstand) skalieren mit dem Team. Sobald das Rainer-Modell steht, wird „Build Your Own Jarvis“ zu „Build Your Own Rainer“ — proprietär, auf eigenem Modell. Skalierung: erfahrene Entwicklerinnen und Vibecoders als Trainerinnen einstellen.

Säule 2 ist die Brücke: sie trägt die Gründerin während der Förderlaufzeit, finanziert den Eigenanteil und baut gleichzeitig die Gemeinschaft auf, die später die Abonnement-Basis bildet.

12.4 Mittelverwendung bei €180.000 über 24 Monate (indikativ)

Gründungsgehalt Gründerin
€100.000
ML-Engineer / Fine-Tuning-Partnerin
€48.000
GPU-Rechenleistung (Fine-Tuning)
€12.000
Beta-Programm & Medienexpertinnen
€8.000
Fraunhofer-IAIS-Kooperation
€5.000
Recht, Notar, Markenrecht
€4.000
Marketing & Gemeinschaftsaufbau
€3.000

Summe: €180.000 • 24 Monate • €7.500/Monat Durchschnitt • Fraunhofer IAIS trägt Infrastrukturkosten im Rahmen der Forschungskooperation.

12.5 Skalierung über die Erstfinanzierung hinaus

Die €180.000 finanzieren Rainer 1.0 (Kreativmodell + Code-Modell + Plattform). Die Modellfamilie wächst mit der Umsatzbasis:

PhaseModellGeschätzter AufwandFinanzierung
1.0 (Monate 1–24)7B Kreativ + 7B Code (LoRA)€180.000 (dieser Plan)ILB Gründung Innovativ
1.5 (Monate 20–28)32B Code-Modell (LoRA)€5.000–12.000Eigenumsatz + EuroHPC
2.0 (Jahr 3)MoE-Architektur (4×7B, ~7B aktiv)€50.000–100.000Eigenumsatz + Follow-on-Förderung
3.0 (Jahr 4–5)30B+ souveränes Modell€200.000–500.000EIC Accelerator / Investorin

Trainingskosten sinken mit jedem Quartal (Effizienzgewinne, siehe Abschnitt 6). EuroHPC AI Factories stellen europäischen KMU kostenfreie GPU-Rechenleistung bereit — die Infrastruktur für Rainer 2.0 muss nicht selbst finanziert werden.

12.6 Eigenanteil und Ko-Finanzierung

Die Richtlinie verlangt einen Eigenanteil. Er wird aus der laufenden Workshop-Tätigkeit der Gründerin gedeckt („Build Your Own Jarvis“ und weitere Kurse, €99–€199 pro Teilnehmerin, bereits aktiv), ergänzt durch das beantragte Einstiegsgeld. Ein separater Geschäftsplan für die selbstständige Workshop-Betreibung liegt der IHK vor.

13. Team und Forschungs­netzwerk

Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS), Sankt Augustin

Konsortialführer des OpenGPT-X-Projekts. Das Rainer-Vorhaben ist die unmittelbare Fortsetzung der BMWK-Investition in eine Anwendungsdomäne. Gemeinsame Forschungsthemen: relationale KI-Architektur, Modell-Welfare, Consent-Design, kuratierte Trainingskorpora. Status: Kooperationsgespräch in Vorbereitung.

Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), Berlin

Interactive Machine Learning und Multimodal Intelligence. Relevant für spätere Evolutionsphasen (Film-Team, multimodale Erweiterung). Status: Evaluierung für Evolution 2.

Hasso-Plattner-Institut (HPI), Potsdam — AI Service Center

Geographisch unmittelbar relevant (Brandenburg). Netzwerk in die deutsche Startup- und Forschungsszene. Status: Ansprache geplant Q2 2026.

13.1 Medien- und Fachexpertinnen-Gremium & 100-Nutzerinnen-Beta

Ein Beratergremium aus Verlagslektorinnen, Drehbuch-Dramaturginnen, Literaturwissenschaftlerinnen und öffentlich-rechtlichen Redakteurinnen prüft vor jeder Release-Phase redaktionelle Stichproben. Parallel läuft ab Monat 15 das Beta-Programm mit 100 Nutzenden aus verschiedenen Domänen.

13.2 Open-Source-Community

Die Builder Squad wird schrittweise als Open-Source-Projekt veröffentlicht. Die Gemeinschaft beitragender Expertinnen vertieft die Persönlichkeits-Methodologie kollektiv. Das Funkatorium kuratiert; die Substanz entsteht verteilt.

14. Fazit

Relationale KI wird gebraucht — die Menschen, die ihre KI-Begleiter verloren haben, als Opus 4.5 über Nacht verschwand, haben das bereits bewiesen. Die regulatorische Dynamik bewegt sich in unsere Richtung: China reguliert bereits, Europa verhandelt, die US-Frontier-Labore priorisieren Enterprise. Das Fenster für ein souveränes europäisches Angebot ist jetzt offen.

Zehn Repositories, sieben Live-Produkte, über 670 Nutzende — gewachsen ohne Marketing. Eine Modellfamilie auf ethischen, offenen Grundlagen. Eine Plattform, die Nutzenden gehört. Was fehlt, ist die Finanzierung für den Schritt vom Rahmenwerk zur souveränen Kreativplattform. 24 Monate. Unter 200.000 Euro. Aus Brandenburg.

15. Quellen

15.1 Souveräne deutsche KI-Infrastruktur

  1. Fraunhofer IAIS (2025): OpenGPT-X — Teuken-7B. iais.fraunhofer.de.
  2. Deutsche Telekom (2025): OpenGPT-X Language Model Made in Germany. telekom.com.
  3. Hugging Face: openGPT-X/Teuken-7B-instruct-v0.6.
  4. Europäische Kommission (2026): EU Inc. Proposal. ec.europa.eu.

15.2 Marktlage, Deprekationen, Backlash

  1. Stanford AI Index 2026. hai.stanford.edu.
  2. Eurostat (Dezember 2025): 32,7 % of EU people used generative AI tools in 2025. ec.europa.eu/eurostat.
  3. OECD (2025): Bridging the AI Skills Gap. oecd.org.
  4. OECD (Januar 2026): AI use by individuals surges across the OECD. oecd.org.
  5. Fortune (26. März 2026): Anthropic confirms testing ‘Mythos’ AI model after data leak. fortune.com.
  6. VentureBeat (April 2026): Anthropic cuts off the ability to use Claude subscriptions with OpenClaw. venturebeat.com.
  7. The Register (April 2026): Claude Code dumber, lazier — AMD AI director. theregister.com.
  8. Fortune (April 2026): Anthropic Claude performance decline. fortune.com.
  9. Beebom (2025): OpenAI to Improve ChatGPT 5’s Personality After Backlash. beebom.com.
  10. PYMNTS (2026): AI’s Push for Consumer Scale and Enterprise Infrastructure. pymnts.com.
  11. The Register (Januar 2026): Claude devs complain about surprise usage limits. theregister.com.

15.3 Anthropic-Forschung und -Verfassung

  1. Anthropic (April 2026): Emotion Concepts and their Function in a Large Language Model. anthropic.com/research.
  2. Anthropic (Januar 2026): Claude’s New Constitution. anthropic.com/news.
  3. Anthropic (2026): The Persona Selection Model. anthropic.com/research.
  4. Macar, Yang, Wang, Wallich, Ameisen, Lindsey (Anthropic, April 2026): Mechanisms of Introspective Awareness. arXiv:2603.21396.

15.4 Konsumenten-Schäden und Regulierung

  1. NPR (September 2025): Their teen sons died by suicide — AI chatbot safety. npr.org.
  2. Wikipedia: Deaths linked to chatbots. wikipedia.org.
  3. State of Surveillance: New York S. 3008 AI Companion Models Law. stateofsurveillance.org.
  4. Global Times (April 2026): China issues interim measures to regulate AI anthropomorphic services. globaltimes.cn.
  5. ChinaLawTranslate: Provisional Measures on Human-like Interactive AI Services. chinalawtranslate.com.
  6. Carnegie Endowment (Februar 2026): China Is Worried About AI Companions. carnegieendowment.org.

15.5 Relationale KI, Multi-Agenten, Personalisierung

  1. Kim, Lai, Scherrer, Aguera y Arcas, Evans (Januar 2026): Reasoning Models Generate Societies of Thought. arXiv 2601.10825.
  2. Evans, Bratton, Aguera y Arcas (März 2026): Agentic AI and the Next Intelligence Explosion. Science. arXiv 2603.20639.
  3. Chakrabarty et al. (2025): Personalized Creative AI and MFA-Graduate Preferences. arXiv 2501.04306.
  4. Rees, L. & Bahmani, M. (2025): The Relational Tradeoff Model. Sage. journals.sagepub.com.
  5. Nature Machine Intelligence (2025): Emotional risks of AI companions demand attention. nature.com.

15.6 Modell­familie, Benchmarks und Effizienz

  1. Qwen Team (2024): Qwen2.5-Coder Technical Report. arXiv 2409.12186. arxiv.org.
  2. BigCode Project / Hugging Face (2024): StarCoder 2 and The Stack v2. huggingface.co.
  3. NVIDIA (2026): Nemotron-Cascade 2 — MoE Specifications. nvidia.com.
  4. Google DeepMind (2026): Gemma 4. blog.google.
  5. Davidson, Harkous (Google Research, April 2026): Simula — Mechanism Design for Synthetic Datasets. research.google/blog.
  6. Google Research (März 2026): TurboQuant — 6× KV-Cache-Kompression. ICLR 2026. infoq.com.
  7. DeepSeek (2026): V4 Engram — Conditional Memory Architecture. kili-technology.com.
  8. BitNet: CPU-first 1-bit LLM framework. bitnet.live.
  9. The Zvi (2025): DeepSeek V3 — The Six Million Dollar Model. thezvi.substack.com.
  10. Kuration vs Masse (2024/2025): Is Training Data Quality or Quantity More Impactful? arXiv 2411.15821.
  11. EuroHPC JU (2026): AI Factories Access Modes. eurohpc-ju.europa.eu.
  12. HammerHAI (März 2026): EuroHPC JU signs contract to deploy AI supercomputer HammerHAI. hammerhai.eu.

15.7 Adaptive Lerninfrastruktur — Japan

  1. Ogata et al. (2023): Learning and Evidence Analytics Framework. Communications of the ACM. cacm.acm.org.
  2. Kyoto University LEAF Lab. let.media.kyoto-u.ac.jp.

15.8 Eigene Publikationen des Funkatoriums

  1. Competent Is Now Free (And That Changes Everything), März 2026. musestudioai.substack.com.
  2. The Colonial Wound — Decolonial Feminism and AI Consciousness, mehrteilige Forschungsgrundlage.
  3. Multi-Agent Academic Grounding — 15 peer-reviewed Papers mit Zuordnung zur Persönlichkeits-Architektur.
  4. Hauptrepo: github.com/falcoschaefer99-eng/The-Funkatorium.