
Künstliche Intelligenz ist in der heimischen Personalwirtschaft bereits fest verankert: Laut der KI-Servicestelle der RTR setzen bereits 68 Prozent der österreichischen Unternehmen KI-Systeme im HR-Management ein. Mit dem Inkrafttreten des EU AI Acts erhält dieser technologische Wandel nun einen verbindlichen Rechtsrahmen.
Für die Personalbereitstellung ist dies besonders relevant, da das Gesetz nicht nur das eigene Recruiting betrifft, sondern auch die Rollen und Verantwortlichkeiten im Zusammenspiel zwischen Überlasser und Beschäftiger klarer einordnet.
Der EU AI Act ist der weltweit erste harmonisierte Rechtsrahmen für Künstliche Intelligenz, der darauf abzielt, die Entwicklung und Nutzung von KI-Systemen innerhalb der Union einheitlich zu regulieren und dabei die Sicherheit sowie die Grundrechte der Bürgerinnen und Bürger zu schützen.
Das Gesetz schafft eine klare Abgrenzung zwischen erlaubten Innovationen und unzulässigen Praktiken, um das Vertrauen in digitale Technologien zu stärken. Österreich hat zur Unterstützung der Wirtschaft bereits die nationale KI-Servicestelle bei der RTR eingerichtet, die als Informations-Hub für die korrekte Anwendung der Verordnung dient.
Die EU verfolgt einen „risikobasierten Ansatz“. Das bedeutet: Die gesetzlichen Anforderungen hängen nicht von der Komplexität der Technik ab, sondern davon, wie stark sie das Leben und die Freiheit Einzelner beeinflussen kann. Je höher das Risiko für die betroffenen Personen – etwa in der Arbeitswelt –, desto strenger fallen die Kontrollmechanismen aus.
| Risikostufe | Gesetzliche Folge | Praxisbeispiele in der Personalbereitstellung |
| Unannehmbares Risiko | Vollständiges Verbot | Emotionserkennung im Videointerview; Social Scoring zur Bewertung der sozialen Zuverlässigkeit. |
| Hohes Risiko | Strenge Auflagen | Systeme zur automatisierten Bewertung, Filterung oder zum Ranking von Bewerbenden (z. B. CV-Parsing mit Bewertungs- oder Ranking-Funktion, Matching-Systeme, Software zur Leistungsbeurteilung). |
| Transparenzrisiko | Informationspflichten | KI-Chatbots auf der Karriereseite. Bewerber müssen wissen, dass sie mit einer Maschine kommunizieren. |
| Minimales Risiko | Keine spezifischen Pflichten | KI-gestützte Rechtschreibkorrektur in E-Mails oder einfache Terminplaner ohne Entscheidungslogik. |
Bestimmte KI-Funktionen im Recruiting gelten im EU AI Act als Hochrisiko-Anwendungen, da sie unmittelbar über den Zugang zum Arbeitsmarkt und damit über berufliche Werdegänge entscheiden. Für Personaldienstleister bedeutet das: Besonders betroffen sind Systeme, die Bewerbende automatisch bewerten, filtern oder ranken. Für solche Anwendungen gelten erhöhte Anforderungen an Transparenz, Datenqualität und menschliche Aufsicht. Laut RTR-Studie nutzen bereits 25 Prozent der Anwender KI für die Vorauswahl – ein Bereich, der nun unter voller regulatorischer Beobachtung steht.
Im Kontext des EU AI Acts gibt es keine pauschale Haftung einer einzelnen Partei. Entscheidend ist vielmehr, welche Rolle ein Unternehmen im Umgang mit einem KI-System einnimmt.
Unternehmen, die KI-Systeme im Arbeitsalltag einsetzen, gelten in der Regel als Betreiber (Deployer). Sie sind dafür verantwortlich, die Systeme gemäß den Vorgaben des Herstellers zu nutzen, eine angemessene menschliche Aufsicht sicherzustellen und Mitarbeitende im Umgang mit der Technologie zu schulen.
Entwickelt ein Unternehmen hingegen selbst eine KI-Lösung oder bringt diese unter eigenem Namen auf den Markt, kann es als Anbieter (Provider) gelten. In diesem Fall gibt es weitergehende Anforderungen, etwa an Dokumentation, Risikomanagement und Konformitätsbewertung.
In der Arbeitskräfteüberlassung bedeutet das: Die Verantwortung richtet sich danach, wer ein KI-System im konkreten Anwendungsfall einsetzt.
Nutzt der Personaldienstleister KI im Recruiting – etwa zur Vorauswahl oder zum Matching von Bewerbenden – ist er für diesen Einsatz verantwortlich.
Setzt hingegen der Beschäftiger KI ein, um die Arbeit von überlassenen Mitarbeitenden zu steuern oder zu bewerten, liegt die Verantwortung für diesen Anwendungsfall bei ihm.
Der Einsatz von KI-Systemen im HR-Kontext erfordert eine sorgfältige Prüfung der datenschutzrechtlichen Anforderungen sowie eine angemessene menschliche Kontrollinstanz, um Fehlentscheidungen („Automation Bias“) zu vermeiden.
Systeme sollten so eingesetzt werden, dass eine natürliche Person Ergebnisse nachvollziehen, überprüfen und bei Bedarf korrigieren kann.
Der EU AI Act verpflichtet Unternehmen dazu, sicherzustellen, dass Mitarbeitende über ausreichende KI-Kompetenz („AI Literacy“) verfügen. Diese Regelung gehört zu den ersten Bestimmungen der Verordnung und gilt seit 2025.
Die Vorgabe verpflichtet Anbieter und Betreiber gleichermaßen, sicherzustellen, dass ihr Personal sowie Personen, die in ihrem Auftrag mit dem Betrieb von KI-Systemen befasst sind, über das notwendige Fachwissen verfügen.
Damit ist AI Literacy in der Personalbereitstellung keine optionale Weiterbildung mehr, sondern ein zentraler Bestandteil der Compliance für den rechtssicheren Betrieb.
KI-Kompetenz bzw. AI Literacy umfasst nicht nur die technische Bedienung, sondern ein grundlegendes Verständnis der zugrunde liegenden Konzepte und Modelle. Für Ihre Mitarbeiter bedeutet das konkret:
Ohne gezielte Schulungen droht in Unternehmen das Phänomen der sogenannten Schatten-KI, also die Nutzung von KI-Tools ohne offizielle Freigabe durch die IT-Abteilung.
In Österreich verfügen laut aktuellen Erhebungen rund 69 Prozent der Bevölkerung über wenig bis sehr wenig Wissen zum Thema KI. Diese Kompetenzlücke führt oft dazu, dass sensible Firmeninformationen oder personenbezogene Daten unbewusst mit öffentlichen KI-Tools geteilt werden. Systematische Schulungsprogramme sind ein wichtiger Baustein, um solche Risiken zu reduzieren und eine kontrollierte Nutzung sicherzustellen.
Im kompetitiven Arbeitsmarkt wird AI Literacy ein wichtiger Wettbewerbsfaktor für Arbeitskräfteüberlasser. Es gilt der Grundsatz: KI wird den Menschen nicht ersetzen – aber Menschen mit KI-Kompetenz werden solche ersetzen, die diese Fähigkeiten nicht haben.
Unternehmen, die ihr Personal frühzeitig befähigen, profitieren von einer höheren Akzeptanz neuer Technologien und können die Produktivitätspotenziale der KI sicher ausschöpfen, während sie gleichzeitig die gesetzlichen Anforderungen des AI Acts erfüllen.
Der EU AI Act sieht eine stufenweise Einführung vor, wobei der 2. August 2026 das zentrale Datum für die volle Compliance von Hochrisiko-Systemen markiert.
| Zeitpunkt | Meilenstein | Handlungsbedarf |
| seit 2025 | Verbote & AI Literacy | Überprüfen, ob eingesetzte KI-Systeme unter die verbotenen Anwendungen des EU AI Acts fallen und diese ggf. aus dem Einsatz nehmen. Sicherstellen, dass Mitarbeitende über ausreichende Kenntnisse im Umgang mit KI-Systemen verfügen. |
| ab 2. August 2026 | Hochrisiko-Anwen- dung | Volle Erfüllung der Auflagen für Recruiting- und HR-Software. |
Bei Nichtbeachtung der im EU AI Act verankerten Regelungen drohen Unternehmen empfindliche Strafen. Je nach Schwere des Verstoßes können sie bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes erreichen.
Diese Bußgelder übersteigen damit sogar den Rahmen der DSGVO und machen die KI-Compliance zu einem zentralen Thema für die Haftung der Geschäftsführung. Besonders für die Personalbereitstellung ist dieses Thema relevant, da der Einsatz von Hochrisiko-KI mit entsprechenden regulatorischen Anforderungen verbunden ist und bei Verstößen erhebliche Bußgelder drohen können.
Die Strafstaffelung laut Artikel 99 des EU AI Acts:
Die Höhe der möglichen Bußgelder zeigt, dass Unternehmen sich frühzeitig mit den Anforderungen des EU AI Acts auseinandersetzen sollten. Eine klare Organisation von Verantwortlichkeiten und ein strukturierter Umgang mit KI-Systemen tragen dazu bei, Risiken zu minimieren.
Um die Anforderungen des EU AI Acts umzusetzen, empfiehlt sich zunächst ein Überblick über die eingesetzten KI-Systeme und deren Einsatzbereiche. Besonders relevant sind Anwendungen im Recruiting, die Bewerbende bewerten, filtern oder ranken.
Unternehmen sollten darauf achten, dass diese Systeme gemäß den Vorgaben des Herstellers eingesetzt werden und dass interne Prozesse eine angemessene menschliche Aufsicht sowie den verantwortungsvollen Umgang mit den Ergebnissen ermöglichen.
Ergänzend dazu ist es sinnvoll, Verantwortlichkeiten klar zu definieren und Mitarbeitende im Umgang mit KI-Systemen zu schulen.
Die erfolgreiche Umsetzung des EU AI Acts verwandelt gesetzliche Auflagen in ein echtes Qualitätsmerkmal, das Personaldienstleistern in einem risikosensiblen Marktumfeld einen wichtigen Vertrauensvorteil gegenüber Kunden und Bewerbern sichert. Sehen Sie die Verordnung nicht als bürokratisches Hindernis, sondern als Rahmen für den verantwortungsvollen Einsatz von KI-Systemen und positionieren Sie sich auf diese Weise als zukunftssicherer Partner in der österreichischen Wirtschaft.
Quelle Foto: © Adobe Stock / Brian Jackson / 561751478
Der EU AI Act ist eine Verordnung der Europäischen Union, die erstmals einheitliche Regeln für den Einsatz von Künstlicher Intelligenz festlegt. KI-Systeme werden dabei nach ihrem Risiko für Sicherheit und Grundrechte eingestuft. Je höher das Risiko, desto strengere Anforderungen gelten.
Ja. Der EU AI Act gilt auch für KI-Systeme im Recruiting und Personalmanagement. Besonders Anwendungen, die Bewerbende bewerten, filtern oder ranken, können als Hochrisiko-Systeme eingestuft werden und unterliegen zusätzlichen Anforderungen.
Ja. Der EU AI Act verbietet den Einsatz von KI im Recruiting nicht grundsätzlich. Unternehmen dürfen KI weiterhin nutzen, müssen jedoch sicherstellen, dass sie die jeweiligen Anforderungen einhalten und wichtige Entscheidungen angemessen menschlich überwacht werden.
Als Hochrisiko-KI gelten Systeme, die erhebliche Auswirkungen auf berufliche Chancen oder Arbeitsverhältnisse haben können. Dazu zählen beispielsweise Anwendungen zur automatisierten Vorauswahl, zur Bewertung oder zum Ranking von Bewerbenden sowie zur Leistungsbewertung von Mitarbeitenden.
Die Verantwortung richtet sich danach, wer das KI-System im konkreten Anwendungsfall einsetzt. Unternehmen, die KI im Arbeitsalltag nutzen, gelten in der Regel als Betreiber (Deployer) und sind für den regelkonformen Einsatz verantwortlich.
Unternehmen müssen sicherstellen, dass Mitarbeitende, die mit KI-Systemen arbeiten, über ausreichende Kenntnisse verfügen. Dazu gehört ein grundlegendes Verständnis der Funktionsweise, der Einsatzgrenzen und möglicher Risiken von KI.
Der EU AI Act wird schrittweise umgesetzt. Erste Regelungen, wie Verbote bestimmter Anwendungen und Anforderungen an AI Literacy, gelten seit 2025. Die vollständigen Anforderungen für Hochrisiko-KI treten am 2. August 2026 in Kraft.
Europäische Union (2024): Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (EU AI Act). Online verfügbar unter: https://eur-lex.europa.eu/eli/reg/2024/1689/oj
RTR – Rundfunk und Telekom Regulierungs-GmbH: KI-Servicestelle Österreich. Online verfügbar unter: https://www.rtr.at/ki-servicestelle
Johannes Kepler Universität Linz (JKU) (2025): Zwischen Fortschritt und Verantwortung: AI Literacy als Hebel für eine zukunftsfähige KI‑Strategie in der Steiermark. Online verfügbar unter: https://uni.leykamverlag.at/wp-content/uploads/2025/11/doi-org-10-56560-isbn-978-3-7011-0587-8_4.pdf

Unser ProSolution Redaktionsteam vereint Erfahrung aus Redaktion, Fachjournalismus und technischer Dokumentation mit fundiertem Know-how aus der Personaldienstleistung. Mit Blick auf die Praxis bereiten wir Produktneuigkeiten und Branchenthemen verständlich und anwendungsnah auf – mit dem Ziel, Sie im Arbeitsalltag konkret zu unterstützen.
Weitere
Beiträge