AI Ethics Policy
7. November 2025
Geltungsbereich: Produkt „Supercount AI“
Version: 1.0
1. Präambel
Supercount AI entwickelt Technologien nach dem Prinzip des Digitalen Humanismus. Wir verstehen generative künstliche Intelligenz nicht als Ersatz für menschliche Expertise, sondern als leistungsstarkes Assistenzsystem. Unsere Grundhaltung dazu: Technik dient dem Menschen, die Verantwortung verbleibt beim Experten.
2. Unsere 5 Grundprinzipien für vertrauenswürdige KI
2.1 Human-in-the-Loop & Menschliche Letztentscheidung
Unser System ist ein probabilistisches Werkzeug für fachkundige Nutzer. Es generiert Vorschläge, trifft jedoch niemals autonom steuerliche oder buchhalterische Entscheidungen.
Policy: Jeder LLM-basierte Vorschlag (z.B. Buchungssatz-Freigabe) erfordert einen Review inklusive verpflichtender Bestätigung durch einen qualifizierten Anwender.
Erklärung zur Risikoklassifizierung nach dem EU AI Act: Supercount AI wurde mit dem regulatorischen Ziel entwickelt, dass es gemäß der Klassifizierung des EU AI Act als System mit begrenztem Risiko (kein Hochrisiko-System) eingestuft wird. Das System dient der Prozessoptimierung im gewerblichen Rechnungswesen (B2B) und nimmt keine Bewertungen vor, die den Zugang zu essenziellen privaten oder öffentlichen Dienstleistungen, die Kreditwürdigkeit natürlicher Personen oder die Bewertung von Arbeitnehmern betreffen könnten oder in andere Bereiche mit hohem Risiko fallen könnte. Aufgrund des Einsatzes generativer KI-Modelle unterliegen wir somit den Transparenzpflichten nach Art. 50 EU AI Act. Diese erfüllen wir technisch und organisatorisch, indem KI-generierte Vorschläge im Interface eindeutig als solche erkennbar sind und nicht ohne menschliche Bestätigung weiterverarbeitet werden.
2.2 Datenhoheit & Privatsphäre
Das Berufsgeheimnis unserer Kunden ist für uns inkrementeller Bestandteil unserer Geschäftsaktivitäten.
Policy: Training unserer KI-Modelle mit kundenspezifischen Daten wird kategorisch ausgeschlossen. Kundendaten werden ausschließlich mittels RAG (Retrieval-Augmented Generation) im Kontext der jeweiligen Session verarbeitet und strikt isoliert. Das Hosting erfolgt ausschließlich in EU-Rechenzentren unter Einhaltung der DSGVO.
2.3 Transparenz & Erklärbarkeit
Nutzer müssen verstehen, dass sie mit einer KI interagieren und wie Ergebnisse zustande kommen.
Policy: KI-generierte Inhalte werden in der Benutzeroberfläche visuell hervorgehoben. Die Herleitung (z.B. Extraktion aus Belegbild) wird transparent dargestellt, um eine Validierung durch den Menschen zu ermöglichen. Weiters wird eine sogenannte KI-Begründung dargelegt, wie das LLM-basierte System auf die Schlussfolgerung gekommen ist.
2.4 Vermeidung von Bias & Diskriminierung
Auch im Rechnungswesen können Verzerrungen auftreten (z.B. bei der Kategorisierung bestimmter Lieferanten).
Policy: Wir mitigieren Bias- & Diskriminierungsrisiken mit gezielten Guardrails in der System Instruktion-Entwicklung. Wir testen unsere Modelle bei wichtigen Updates gegen Testdatensätze, um eine möglichst objektive Verarbeitung sicherzustellen, die zum jeweiligen Technologiestand erwartbar ist.
2.5 Technische Robustheit
Das System muss auch bei fehlerhaften Inputs stabil bleiben.
Policy: Wir setzen im Rahmen der Entwicklung von System Instruktionen auf Plausibilitätsprüfungen, die beispielsweise ungeeignete Dokumente als solche identifiziert und automatisch zur erneuten menschlichen Überprüfung auswirft.
3. Verpflichtungserklärung
Die Geschäftsführung der Supercount AI FlexCo verpflichtet sich zur Einhaltung dieser Richtlinien und überprüft deren Aktualität mindestens jährlich oder bei wesentlichen Modell-Updates (z.B. Wechsel der LLM-Generation).

