Der EU AI Act ist da – Was du als Unternehmer in Österreich jetzt wissen musst

Künstliche Intelligenz (KI) ist kein Buzzword mehr, sondern DER Game Changer für Start-ups, Solo-Selbstständige und KMU. Ob Chatbots, smarte Marketing-Tools oder KI im Buchhaltungsprogramm – überall schlummert Potenzial. Aber mit großem Potenzial kommt auch große Verantwortung. Die EU hat darauf mit dem AI Act geantwortet: einer Verordnung, die Innovationen fördert und gleichzeitig unsere Grundrechte schützt. Klingt nach Bürokratie? Keineswegs! Mit den richtigen Schritten wird der AI Act zu deinem Wettbewerbsvorteil.

Nach diesem Artikel…

  • Weißt du, ob und wie dein Business betroffen ist
  • Kennst du den risikobasierten Ansatz des AI Act
  • Hast du eine Checkliste, die dich Schritt für Schritt zur Compliance führt

1. Bist du vom AI Act betroffen? Vier Rollen, eine Antwort: Ja!

Der AI Act gilt immer dann, wenn du ein KI-System in der EU …

  1. in Verkehr bringst (erstmalig bereitstellst)
  2. in Betrieb nimmst (erstmalig nutzt)
  3. oder dessen Output verwendest

… und zwar unabhängig davon, ob dein Firmensitz hier ist oder im Ausland.

Egal, ob du ein Einzelunternehmer (EPU) bist oder deine GmbH führst: Der AI Act kennt keine Ausnahmen aufgrund von Rechtsform, Umsatz oder Mitarbeiterzahl. Die Pflichten greifen unabhängig davon, ob dein Jahresumsatz unter 2 Mio. € liegt oder du nur einen Mitarbeitenden hast. Das Risiko für Grundrechte ändert sich nicht mit der Unternehmensgröße – daher gelten Verbote, Transparenz-, Melde- und Konformitäts­pflichten gleichermaßen für EPUs, GmbHs, AGs und Co.

Deine Rolle im KI-Ökosystem

  • Anbieter: Du hast eine eigene KI entwickelt oder lässt sie entwickeln und vertreibst sie.
  • Anwender (Deployer): Du nutzt mindestens eine KI-Funktion (z. B. Chatbot, Copilot, Bewerber-Tool) in deinem Business.
  • Importeur: Du holst ein KI-System von außerhalb in die EU.
  • Händler: Du verteilst fertige KI-Systeme weiter, ohne sie zu verändern.

Kurz gesagt: Die meisten Gründer:innen in Österreich sind Anwender. Selbst eine Buchhaltungs-App mit KI-Modul macht dich zum Deployer – mit Pflichten für Transparenz, Schulung und menschliche Aufsicht.

Ausnahmen?
Nur bei rein privater Nutzung, Forschung oder bestimmten Open-Source-Modellen. Sobald das System in einem Hochrisiko-Fall zum Einsatz kommt (z. B. Bewerber-Screening), gilt der AI Act in voller Strenge.


2. Vier Risikostufen – deine To-Dos im Überblick

Risiko-StufeWas zählt dazu?Deine Pflichten auf einen Blick
🚫 InakzeptabelSoziales Scoring, manipulative Dark Patterns, ungerichtetes GesichtsscrapingBis 2. Feb 2025 einstellen!
⚠️ HochrisikoKI in sicherheitskritischen Produkten, Anhang III (z. B. HR-Tools, Kredit-Scoring)Risikomanagement, Daten-Governance, Logging, CE-Mark, technische Dokumentation, menschliche Aufsicht, FRIA usw.
ℹ️ BegrenztChatbots, generative KI, EmotionserkennungTransparenz: Nutzer:innen informieren, Deepfake-Wasserzeichen, Hinweise „Du chattest mit einer KI“
✔️ MinimalSpam-Filter, Lager-Optimierung, BackofficeFreiwillige Codes of Practice empfohlen, aber keine Pflichten

3. Deine Pflichten im Detail

Als Anwender (Deployer) von Hochrisiko-KI

  • Einsatz gemäß Anleitung: Halte dich an die User-Guides des Anbieters.
  • 👩‍💼 Menschliche Aufsicht: Bestimme geschulte Verantwortliche, die eingreifen können.
  • 🔍 Überwachung: Prüfe regelmäßig Datenqualität, Output-Relevanz und Bias.
  • 🚨 Meldepflicht: Bei kritischen Zwischenfällen sofort Anbieter + Marktüberwachungsbehörde informieren.
  • 📋 FRIA (Fundamental Rights Impact Assessment): Bewerte vor Einsatz, ob Grundrechte gefährdet sind.

Als Anbieter von Hochrisiko-KI

  • ⚙️ Risikomanagement (Art. 9)
  • 📊 Data Governance (Art. 10): Bias-Check, Datenqualität
  • 📚 Technische Dokumentation (Art. 11)
  • 📝 Logging (Art. 12 & 19)
  • 👁 Menschliche Aufsicht sicherstellen (Art. 14)
  • 🔒 Robustheit & Cybersicherheit (Art. 15)
  • ✔️ Qualitätsmanagement (Art. 17)
  • 📦 CE-Markierung & Konformitätsbewertung (Art. 43 & 48)

4. Fahrplan & Deadlines

DatumMeilensteinDeine Actions
1. 8. 2024AI Act tritt formal in KraftZuständigkeiten klären, Zeitplan erstellen
2. 2. 2025Verbotene Praktiken & KI-Kompetenz (Art. 4)☐ Verbotene KI abschalten
☐ Schulungen starten
2. 8. 2025Transparenz-Pflichten für GPAI-Modelle & Strafrahmen☐ Dokumente für General-Purpose-AI checken
2. 8. 2026Volle Konformität Hochrisiko (Anhang III)☐ Konformitätsbewertung abschließen
2. 8. 2027Volle Konformität Sicherheits-KI (Anhang I)☐ QM- & RM-Prozesse finalisieren

5. Support für EPU & KMU

  • Regulatory Sandboxes: Teste KI-Projekte risikofrei in geschützten Umgebungen.
  • Vorlagen & Leitfäden: WKO und RTR liefern Checklisten und Templates.
  • Proportionale Gebühren & Bußgelder: Förderliche Kostenmodelle für kleine Firmen.
  • Beratung & Schulung: WIFI-Kurse, RTR-Servicestelle, WKO-Hotline.
  • EU-Förderprogramme: „Horizont Europa“ & „Digitales Europa“ für Infrastruktur und Grants.

Nutze diese Angebote – sie machen Compliance günstiger und weniger aufwendig!


6. Österreich-Spezifisch: Deine Anlaufstellen & die Pflicht zur KI-Kompetenz

Dringendster Punkt (Art. 4): Bis 2. 2. 2025 musst du beweisen, dass dein Team KI-Tools versteht und Risiken einschätzt. Ohne Nachweis riskierst du im Schadenfall Haftungsprobleme (§ ABGB).

  • KI-Servicestelle RTR: FAQs, Leitfäden, Sandbox-Infos
  • WKO/WIFI: Vorlagen, Seminare, Muster-Policies
  • Marktüberwachung: Kontrollen und Sanktionen auf nationaler Ebene

7. Deine Compliance-Checkliste

Phase 1: Jetzt bis Feb 2025

  • KI-Inventur durchführen: Alle Tools prüfen, KI-Funktionen identifizieren
  • Verbotenes einstellen: Emotionserkennung, Dark Patterns, Social Scoring abschalten
  • Schulungen planen & durchführen (Art. 4)
  • Interne KI-Richtlinie erstellen (WKO-Vorlage nutzen)
  • Dokumentieren: Schulungen & Inventur protokollieren

Phase 2: Bis Aug 2025/26

  • Risikoklassifizierung für jedes System (Stufen 1–4)
  • Rolle klären (Anbieter vs. Anwender vs. Importeur vs. Händler)
  • Transparenz-Pflichten umsetzen (Chatbot-Hinweis, Watermarking)
  • Lieferanten-Check: Konformitätsnachweise einfordern

Phase 3: Langfristig (Hochrisiko-KI)

  • Managementsysteme (RM, QM, Data Governance) etablieren
  • Sandbox-Teilnahme prüfen für Prototyp-Tests
  • Budget & Ressourcen einplanen
  • Verantwortlichkeiten im Team festlegen

Fazit: Compliance als Chance

Der AI Act ist nicht nur Regulierung, sondern auch Qualitätssiegel. Wer früh handelt, schafft Vertrauen bei Kund:innen, Partner:innen und Investor:innen. “Conform with the AI Act” kann dein Gütesiegel für verantwortungsvolle, sichere KI werden.

Leg los! Starte deine KI-Inventur, schul’ dein Team und hol dir Support von RTR & WKO – so sicherst du dir heute schon den Vorsprung von morgen.

0 Votes: 0 Upvotes, 0 Downvotes (0 Points)

Leave a reply

Loading Next Post...
Follow
Search Trending
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...