MondialMondial AI Docs

AI Transparency

Transparent and responsible AI use by Mondial AI GmbH (EN/DE)

AI Transparency Statement (EN)

Last updated: 2025-11-12

1. Our Commitment

Mondial AI GmbH is committed to transparent, safe, and ethical use of Artificial Intelligence. We align with the EU AI Act, GDPR, and international best practices to ensure our AI systems are lawful, fair, explainable, secure, and subject to meaningful human oversight. Our AI assists humans — not replaces them — particularly in healthcare, communication, and voice technologies.

2. AI Systems Operated by Mondial AI

ServiceAI FunctionModel TypeIntended PurposeRisk CategoryTransparency
MondialSpeechText-to-Speech, Voice CloningProprietary neural TTSSynthetic speech generation for apps, IVR, mediaLimited/General-purposeHigh
Medicall AIConversational triage, appointment schedulingLLM-based dialogueAssistive routing, intake, coordination (non-diagnostic)Limited/AssistiveHigh
Mondial Cloud APIsText, speech, and data processingTransformer / LLMDeveloper APIs for text/speech processingGeneral-purposeHigh

Each system is internally documented (purpose, dataset categories, training method, evaluation, version control). No personal or customer data is used for model training without explicit written consent.

3. Intended Use, Prohibited Use

  • Allowed: accessibility, customer support, productivity, content generation with disclosure, healthcare pre-communication and scheduling (non-diagnostic).
  • Prohibited: deception, impersonation without consent, unlawful surveillance, discrimination, medical diagnosis, high-risk use without contractual authorization and safeguards.
  • Synthetic speech must be disclosed to end users where contextually required; medical scenarios remain assistive only.

4. Data Sources and Model Training

  • No training by default: customer inputs/outputs (text, audio, metadata) are not used for training unless the customer opts in via written agreement.
  • Training data categories (for proprietary models): publicly available text/speech corpora with license compliance, curated vendor datasets, and synthetic data; personally identifiable content is excluded or anonymized.
  • Retention: operational logs and artifacts are kept only as necessary for security, reliability, and billing; semantic content is not analyzed for profiling.

5. Human Oversight and Control

All automated decisions remain under human supervision. Operators can pause, correct, or override outputs at any time. In healthcare contexts, AI outputs are assistive and never diagnostic.

6. Fairness, Bias, and Robustness

We regularly evaluate models using multilingual suites, demographic balance checks, counterfactual tests, and randomized audits. When needed, we commission independent reviews. Detected bias triggers mitigation (prompting/guardrails, data balancing, or model updates).

7. Explainability and Auditability

For every AI system we maintain internal documentation: model version and purpose, decision logic overview, processed data categories, reliability indicators. We keep audit logs (excluding sensitive content) to support traceability and lawful requests.

8. Content Provenance and Disclosure

Where technically feasible, we apply provenance measures (e.g., metadata/watermarks) to synthetic speech and clearly disclose AI-generated content in user interfaces or documentation. Unauthorized recording, reverse engineering, or replication of Mondial Voices is prohibited.

9. Security and Model Integrity

Models and datasets are protected with encryption, role-based access control, key management, and integrity checks. We monitor for model theft, extraction, or abuse; violations may lead to suspension and notification of authorities.

10. Deployment, Monitoring, and Incidents

We operate post-deployment monitoring for safety and performance, including abuse detection and rate limiting. Material incidents are triaged and remediated promptly; we cooperate with competent authorities as required by law.

11. Requests from Users and Regulators

Users and regulators may request more details (model type/version, processed data categories, evaluations). Contact: privacy@mondial-ai.com (fallback: contact@mondial-ai.com). We aim to respond within 30 days (Art. 15 GDPR) where applicable.

12. Document History

  • 2025-11-12: Initial publication of AI Transparency Statement.

KI-Transparenz-Erklärung (DE)

Aktualisiert am: 12.11.2025

1. Unser Bekenntnis

Die Mondial AI GmbH verpflichtet sich zu einer transparenten, sicheren und ethischen Nutzung von KI. Wir orientieren uns am EU AI Act, an der DSGVO und an internationalen Best Practices, um rechtmäßige, faire, erklärbare und sichere KI mit wirksamer menschlicher Kontrolle bereitzustellen. Unsere KI unterstützt Menschen – sie ersetzt sie nicht –, insbesondere in Gesundheits-, Kommunikations- und Sprachtechnologien.

2. Eingesetzte KI-Systeme

DienstKI-FunktionModelltypZweckbestimmungRisikokategorieTransparenz
MondialSpeechText-to-Speech, StimmklonenProprietäre neuronale TTSSynthetische Sprachausgabe für Apps, IVR, MedienBegrenzt/AllgemeinHoch
Medicall AIGesprächssteuerung, TerminorganisationLLM-basierte DialogeAssistive Steuerung, Intake, Koordination (nicht-diagnostisch)Begrenzt/AssistivHoch
Mondial Cloud APIsText-, Sprach- und DatenverarbeitungTransformer / LLMEntwickler-APIs für Text/Sprach-VerarbeitungAllgemeinHoch

Jedes System wird intern dokumentiert (Zweck, Datenkategorien, Trainingsmethode, Evaluation, Versionierung). Ohne ausdrückliche schriftliche Einwilligung werden keine personenbezogenen Kundeninhalte zum Training verwendet.

3. Zweckbestimmung, unzulässige Nutzung

  • Zulässig: Barrierefreiheit, Support, Produktivität, Content-Erstellung mit Offenlegung, Vorab-Kommunikation/Terminierung im Gesundheitsbereich (nicht-diagnostisch).
  • Unzulässig: Täuschung, Imitation ohne Zustimmung, unrechtmäßige Überwachung, Diskriminierung, medizinische Diagnose, Hochrisiko-Nutzung ohne vertragliche Autorisierung und Schutzmaßnahmen.
  • Synthetische Sprache ist kontextgerecht offenzulegen; medizinische Szenarien bleiben rein assistiv.

4. Datenquellen und Modelltraining

  • Kein Training ohne Einwilligung: Kunden-Ein-/Ausgaben (Text, Audio, Metadaten) werden nicht für Training genutzt, es sei denn mit vorheriger schriftlicher Zustimmung.
  • Trainingsdaten-Kategorien (proprietär): öffentlich verfügbare Text-/Sprachkorpora mit Lizenz-Compliance, kuratierte Vendor-Datensätze und synthetische Daten; personenbezogene Inhalte werden ausgeschlossen oder anonymisiert.
  • Aufbewahrung: Betriebs-Logs/Artefakte nur soweit für Sicherheit, Zuverlässigkeit und Abrechnung erforderlich; keine semantische Profilbildung.

5. Menschliche Aufsicht

Automatisierte Entscheidungen unterliegen stets menschlicher Kontrolle. Bediener können Ausgaben jederzeit pausieren, korrigieren oder übersteuern. Im Gesundheitsbereich sind KI-Ergebnisse assistiv und nie diagnostisch.

6. Fairness, Bias und Robustheit

Regelmäßige Bewertungen mit mehrsprachigen Suites, demografischen Ausgleichsprüfungen, kontrafaktischen Tests und stichprobenartigen Audits; bei Bedarf unabhängige Reviews. Festgestellte Verzerrungen führen zu Gegenmaßnahmen (Prompts/Guardrails, Datenbalancierung, Modell-Updates).

7. Erklärbarkeit und Nachvollziehbarkeit

Für jedes System führen wir interne Dokumentation (Modellversion/Zweck, Entscheidungslogik, Datenkategorien, Zuverlässigkeitsindikatoren). Revisionssichere Logs (ohne sensible Inhalte) unterstützen Nachvollziehbarkeit und rechtmäßige Auskünfte.

8. Herkunftskennzeichnung und Offenlegung

Wo technisch möglich, setzen wir Provenienzmaßnahmen (z. B. Metadaten/Watermarks) für synthetische Sprache ein und kennzeichnen KI-generierte Inhalte klar in UI oder Dokumentation. Unerlaubtes Aufzeichnen, Reverse Engineering oder Nachbau von Mondial-Stimmen ist untersagt.

9. Sicherheit und Modellintegrität

Schutz durch Verschlüsselung, rollenbasierte Zugriffe, Schlüsselverwaltung und Integritätsprüfungen. Überwachung von Modelldiebstahl, Extraktion oder Missbrauch; Verstöße können zur Sperrung und Benachrichtigung von Behörden führen.

10. Betrieb, Monitoring und Vorfälle

Post-Deployment-Monitoring für Sicherheit und Performance, inkl. Missbrauchserkennung und Rate Limiting. Wesentliche Vorfälle werden unverzüglich behandelt; wir kooperieren mit zuständigen Behörden nach Rechtslage.

11. Auskunftsrechte und Kontakt

Nutzer/Aufsichtsbehörden können Details anfordern (Modellart/-version, Datenkategorien, Evaluierungen). Kontakt: privacy@mondial-ai.com (Fallback: contact@mondial-ai.com). Antwortziel: 30 Tage (Art. 15 DSGVO), soweit anwendbar.

12. Versionshistorie

  • 12.11.2025: Erstveröffentlichung der KI-Transparenz-Erklärung.