Veröffentlicht: 23.04.2026
Alle Artikel

Der EU AI Act in der Personalbereitstellung: Ein strategischer Leitfaden

von Die Redaktion
Fachjournalismus, Corporate Publishing und Marketing bei ProSolution

Alles Wichtige zum EU AI Act auf einen Blick

  • Umfassender Rechtsrahmen: Der EU AI Act ist das weltweit erste Gesetz, das KI-Systeme einheitlich nach ihrem Risikopotenzial reguliert.
  • Bestimmte KI-Funktionen im Recruiting – etwa zur automatisierten Bewertung, Filterung oder zum Ranking von Bewerbenden – gelten nach dem EU AI Act in der Regel als Hochrisiko-Anwendungen.
  • Klare Rollenverteilung: Der EU AI Act unterscheidet zwischen Anbietern (Provider) und Betreibern (Deployer). Betreiber sind für den regelkonformen Einsatz der KI verantwortlich, während Anbieter die technischen Anforderungen erfüllen müssen.
  • Pflicht zur AI Literacy: Unternehmen müssen seit 2025 sicherstellen, dass Mitarbeitende, die mit KI-Systemen arbeiten, über ausreichende Kenntnisse im Umgang mit der Technologie verfügen.
  • Menschliche Aufsicht: Bei Hochrisiko-KI-Systemen muss sichergestellt sein, dass wichtige Entscheidungen angemessen menschlich überwacht und bei Bedarf überprüft werden können.

Künstliche Intelligenz ist in der heimischen Personalwirtschaft bereits fest verankert: Laut der KI-Servicestelle der RTR setzen bereits 68 Prozent der österreichischen Unternehmen KI-Systeme im HR-Management ein. Mit dem Inkrafttreten des EU AI Acts erhält dieser technologische Wandel nun einen verbindlichen Rechtsrahmen.

Für die Personalbereitstellung ist dies besonders relevant, da das Gesetz nicht nur das eigene Recruiting betrifft, sondern auch die Rollen und Verantwortlichkeiten im Zusammenspiel zwischen Überlasser und Beschäftiger klarer einordnet.

Was ist der EU AI Act und welches Ziel verfolgt die Verordnung?

Der EU AI Act ist der weltweit erste harmonisierte Rechtsrahmen für Künstliche Intelligenz, der darauf abzielt, die Entwicklung und Nutzung von KI-Systemen innerhalb der Union einheitlich zu regulieren und dabei die Sicherheit sowie die Grundrechte der Bürgerinnen und Bürger zu schützen.

Das Gesetz schafft eine klare Abgrenzung zwischen erlaubten Innovationen und unzulässigen Praktiken, um das Vertrauen in digitale Technologien zu stärken. Österreich hat zur Unterstützung der Wirtschaft bereits die nationale KI-Servicestelle bei der RTR eingerichtet, die als Informations-Hub für die korrekte Anwendung der Verordnung dient.

Die EU verfolgt einen „risikobasierten Ansatz“. Das bedeutet: Die gesetzlichen Anforderungen hängen nicht von der Komplexität der Technik ab, sondern davon, wie stark sie das Leben und die Freiheit Einzelner beeinflussen kann. Je höher das Risiko für die betroffenen Personen – etwa in der Arbeitswelt –, desto strenger fallen die Kontrollmechanismen aus.

RisikostufeGesetzliche FolgePraxisbeispiele in der Personalbereitstellung
Unannehmbares RisikoVollständiges VerbotEmotionserkennung im Videointerview; Social Scoring zur Bewertung der sozialen Zuverlässigkeit.
Hohes RisikoStrenge AuflagenSysteme zur automatisierten Bewertung, Filterung oder zum Ranking von Bewerbenden (z. B. CV-Parsing mit Bewertungs- oder Ranking-Funktion, Matching-Systeme, Software zur Leistungsbeurteilung).
TransparenzrisikoInformationspflichtenKI-Chatbots auf der Karriereseite. Bewerber müssen wissen, dass sie mit einer Maschine kommunizieren.
Minimales RisikoKeine spezifischen PflichtenKI-gestützte Rechtschreibkorrektur in E-Mails oder einfache Terminplaner ohne Entscheidungslogik.

Was bedeutet der EU AI Act für die Personalbereitstellung?

Bestimmte KI-Funktionen im Recruiting gelten im EU AI Act als Hochrisiko-Anwendungen, da sie unmittelbar über den Zugang zum Arbeitsmarkt und damit über berufliche Werdegänge entscheiden. Für Personaldienstleister bedeutet das: Besonders betroffen sind Systeme, die Bewerbende automatisch bewerten, filtern oder ranken. Für solche Anwendungen gelten erhöhte Anforderungen an Transparenz, Datenqualität und menschliche Aufsicht. Laut RTR-Studie nutzen bereits 25 Prozent der Anwender KI für die Vorauswahl – ein Bereich, der nun unter voller regulatorischer Beobachtung steht.

Wer haftet? Die Rollenverteilung zwischen Überlasser und Beschäftiger

Im Kontext des EU AI Acts gibt es keine pauschale Haftung einer einzelnen Partei. Entscheidend ist vielmehr, welche Rolle ein Unternehmen im Umgang mit einem KI-System einnimmt.

Unternehmen, die KI-Systeme im Arbeitsalltag einsetzen, gelten in der Regel als Betreiber (Deployer). Sie sind dafür verantwortlich, die Systeme gemäß den Vorgaben des Herstellers zu nutzen, eine angemessene menschliche Aufsicht sicherzustellen und Mitarbeitende im Umgang mit der Technologie zu schulen.

Entwickelt ein Unternehmen hingegen selbst eine KI-Lösung oder bringt diese unter eigenem Namen auf den Markt, kann es als Anbieter (Provider) gelten. In diesem Fall gibt es weitergehende Anforderungen, etwa an Dokumentation, Risikomanagement und Konformitätsbewertung.

In der Arbeitskräfteüberlassung bedeutet das: Die Verantwortung richtet sich danach, wer ein KI-System im konkreten Anwendungsfall einsetzt.

Nutzt der Personaldienstleister KI im Recruiting – etwa zur Vorauswahl oder zum Matching von Bewerbenden – ist er für diesen Einsatz verantwortlich.

Setzt hingegen der Beschäftiger KI ein, um die Arbeit von überlassenen Mitarbeitenden zu steuern oder zu bewerten, liegt die Verantwortung für diesen Anwendungsfall bei ihm.

Was gilt im Hinblick auf Datenschutz und menschliche Aufsicht?

Der Einsatz von KI-Systemen im HR-Kontext erfordert eine sorgfältige Prüfung der datenschutzrechtlichen Anforderungen sowie eine angemessene menschliche Kontrollinstanz, um Fehlentscheidungen („Automation Bias“) zu vermeiden.

Systeme sollten so eingesetzt werden, dass eine natürliche Person Ergebnisse nachvollziehen, überprüfen und bei Bedarf korrigieren kann.

AI Literacy: Die Schulungspflicht nach Artikel 4

Der EU AI Act verpflichtet Unternehmen dazu, sicherzustellen, dass Mitarbeitende über ausreichende KI-Kompetenz („AI Literacy“) verfügen. Diese Regelung gehört zu den ersten Bestimmungen der Verordnung und gilt seit 2025.

Die Vorgabe verpflichtet Anbieter und Betreiber gleichermaßen, sicherzustellen, dass ihr Personal sowie Personen, die in ihrem Auftrag mit dem Betrieb von KI-Systemen befasst sind, über das notwendige Fachwissen verfügen.

Damit ist AI Literacy in der Personalbereitstellung keine optionale Weiterbildung mehr, sondern ein zentraler Bestandteil der Compliance für den rechtssicheren Betrieb.

Was bedeutet KI-Kompetenz konkret für Ihr Team?

KI-Kompetenz bzw. AI Literacy umfasst nicht nur die technische Bedienung, sondern ein grundlegendes Verständnis der zugrunde liegenden Konzepte und Modelle. Für Ihre Mitarbeiter bedeutet das konkret:

  • Logik verstehen: Das Team muss die Funktionsweise der genutzten Recruiting-Software nachvollziehen können, um Ergebnisse kritisch zu bewerten.
  • Risiken erkennen: Ein Bewusstsein für potenzielle Schäden und ethische Risiken (z. B. Diskriminierung durch Algorithmen) muss vorhanden sein.
  • Verantwortungsvolle Anwendung: Mitarbeiter müssen in der Lage sein, KI-Tools bedarfsorientiert und sicher einzusetzen, um Haftungsrisiken zu minimieren.

Das Risiko der „Schatten-KI“ in der Personalbereitstellung

Ohne gezielte Schulungen droht in Unternehmen das Phänomen der sogenannten Schatten-KI, also die Nutzung von KI-Tools ohne offizielle Freigabe durch die IT-Abteilung.

In Österreich verfügen laut aktuellen Erhebungen rund 69 Prozent der Bevölkerung über wenig bis sehr wenig Wissen zum Thema KI. Diese Kompetenzlücke führt oft dazu, dass sensible Firmeninformationen oder personenbezogene Daten unbewusst mit öffentlichen KI-Tools geteilt werden. Systematische Schulungsprogramme sind ein wichtiger Baustein, um solche Risiken zu reduzieren und eine kontrollierte Nutzung sicherzustellen.

Strategischer Vorsprung durch Kompetenz

Im kompetitiven Arbeitsmarkt wird AI Literacy ein wichtiger Wettbewerbsfaktor für Arbeitskräfteüberlasser. Es gilt der Grundsatz: KI wird den Menschen nicht ersetzen – aber Menschen mit KI-Kompetenz werden solche ersetzen, die diese Fähigkeiten nicht haben.

Unternehmen, die ihr Personal frühzeitig befähigen, profitieren von einer höheren Akzeptanz neuer Technologien und können die Produktivitätspotenziale der KI sicher ausschöpfen, während sie gleichzeitig die gesetzlichen Anforderungen des AI Acts erfüllen.

Zeitplan: Wann müssen Unternehmen handeln?

Der EU AI Act sieht eine stufenweise Einführung vor, wobei der 2. August 2026 das zentrale Datum für die volle Compliance von Hochrisiko-Systemen markiert.

ZeitpunktMeilensteinHandlungsbedarf
seit 2025Verbote & AI LiteracyÜberprüfen, ob eingesetzte KI-Systeme unter die verbotenen Anwendungen des EU AI Acts fallen und diese ggf. aus dem Einsatz nehmen.

Sicherstellen, dass Mitarbeitende über ausreichende Kenntnisse im Umgang mit KI-Systemen verfügen.
ab 2. August 2026Hochrisiko-Anwen-
dung
Volle Erfüllung der Auflagen für Recruiting- und HR-Software.

Sanktionen bei Verstößen: Warum Abwarten für Personaldienstleister teuer werden kann

Bei Nichtbeachtung der im EU AI Act verankerten Regelungen drohen Unternehmen empfindliche Strafen. Je nach Schwere des Verstoßes können sie bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes erreichen.

Diese Bußgelder übersteigen damit sogar den Rahmen der DSGVO und machen die KI-Compliance zu einem zentralen Thema für die Haftung der Geschäftsführung. Besonders für die Personalbereitstellung ist dieses Thema relevant, da der Einsatz von Hochrisiko-KI mit entsprechenden regulatorischen Anforderungen verbunden ist und bei Verstößen erhebliche Bußgelder drohen können.

Die Strafstaffelung laut Artikel 99 des EU AI Acts:

  • Verstöße gegen verbotene Praktiken: Werden Systeme zur Emotionserkennung oder zum Social Scoring eingesetzt, drohen bis zu 35 Mio. € oder 7 Prozent des weltweiten Vorjahresumsatzes (RTR-Bericht).
  • Nichteinhaltung von Hochrisiko-Auflagen: Werden Recruiting-Systeme ohne die erforderliche menschliche Aufsicht oder Dokumentation betrieben, liegt der Rahmen bei bis zu 15 Mio. € oder 3 Prozent des Umsatzes.
  • Übermittlung falscher Informationen: Werden den Aufsichtsbehörden unrichtige Angaben gemacht, können bis zu 7,5 Mio. € oder 1,5 Prozent fällig werden.

Die Höhe der möglichen Bußgelder zeigt, dass Unternehmen sich frühzeitig mit den Anforderungen des EU AI Acts auseinandersetzen sollten. Eine klare Organisation von Verantwortlichkeiten und ein strukturierter Umgang mit KI-Systemen tragen dazu bei, Risiken zu minimieren.

Was Sie als Personaldienstleister jetzt tun sollten

Um die Anforderungen des EU AI Acts umzusetzen, empfiehlt sich zunächst ein Überblick über die eingesetzten KI-Systeme und deren Einsatzbereiche. Besonders relevant sind Anwendungen im Recruiting, die Bewerbende bewerten, filtern oder ranken.

Unternehmen sollten darauf achten, dass diese Systeme gemäß den Vorgaben des Herstellers eingesetzt werden und dass interne Prozesse eine angemessene menschliche Aufsicht sowie den verantwortungsvollen Umgang mit den Ergebnissen ermöglichen.

Ergänzend dazu ist es sinnvoll, Verantwortlichkeiten klar zu definieren und Mitarbeitende im Umgang mit KI-Systemen zu schulen.

Fazit: Der EU AI Act als Chance für vertrauenswürdige Personalbereitstellung

Die erfolgreiche Umsetzung des EU AI Acts verwandelt gesetzliche Auflagen in ein echtes Qualitätsmerkmal, das Personaldienstleistern in einem risikosensiblen Marktumfeld einen wichtigen Vertrauensvorteil gegenüber Kunden und Bewerbern sichert. Sehen Sie die Verordnung nicht als bürokratisches Hindernis, sondern als Rahmen für den verantwortungsvollen Einsatz von KI-Systemen und positionieren Sie sich auf diese Weise als zukunftssicherer Partner in der österreichischen Wirtschaft.

Quelle Foto: © Adobe Stock / Brian Jackson / 561751478

FAQ zum EU AI Act

Der EU AI Act ist eine Verordnung der Europäischen Union, die erstmals einheitliche Regeln für den Einsatz von Künstlicher Intelligenz festlegt. KI-Systeme werden dabei nach ihrem Risiko für Sicherheit und Grundrechte eingestuft. Je höher das Risiko, desto strengere Anforderungen gelten.

Ja. Der EU AI Act gilt auch für KI-Systeme im Recruiting und Personalmanagement. Besonders Anwendungen, die Bewerbende bewerten, filtern oder ranken, können als Hochrisiko-Systeme eingestuft werden und unterliegen zusätzlichen Anforderungen.

Ja. Der EU AI Act verbietet den Einsatz von KI im Recruiting nicht grundsätzlich. Unternehmen dürfen KI weiterhin nutzen, müssen jedoch sicherstellen, dass sie die jeweiligen Anforderungen einhalten und wichtige Entscheidungen angemessen menschlich überwacht werden.

Als Hochrisiko-KI gelten Systeme, die erhebliche Auswirkungen auf berufliche Chancen oder Arbeitsverhältnisse haben können. Dazu zählen beispielsweise Anwendungen zur automatisierten Vorauswahl, zur Bewertung oder zum Ranking von Bewerbenden sowie zur Leistungsbewertung von Mitarbeitenden.

Die Verantwortung richtet sich danach, wer das KI-System im konkreten Anwendungsfall einsetzt. Unternehmen, die KI im Arbeitsalltag nutzen, gelten in der Regel als Betreiber (Deployer) und sind für den regelkonformen Einsatz verantwortlich.

Unternehmen müssen sicherstellen, dass Mitarbeitende, die mit KI-Systemen arbeiten, über ausreichende Kenntnisse verfügen. Dazu gehört ein grundlegendes Verständnis der Funktionsweise, der Einsatzgrenzen und möglicher Risiken von KI.

Der EU AI Act wird schrittweise umgesetzt. Erste Regelungen, wie Verbote bestimmter Anwendungen und Anforderungen an AI Literacy, gelten seit 2025. Die vollständigen Anforderungen für Hochrisiko-KI treten am 2. August 2026 in Kraft.

Quellen & Weiterführende Literatur

Europäische Union (2024): Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (EU AI Act). Online verfügbar unter: https://eur-lex.europa.eu/eli/reg/2024/1689/oj

RTR – Rundfunk und Telekom Regulierungs-GmbH: KI-Servicestelle Österreich. Online verfügbar unter: https://www.rtr.at/ki-servicestelle

Johannes Kepler Universität Linz (JKU) (2025): Zwischen Fortschritt und Verantwortung: AI Literacy als Hebel für eine zukunftsfähige KI‑Strategie in der Steiermark. Online verfügbar unter: https://uni.leykamverlag.at/wp-content/uploads/2025/11/doi-org-10-56560-isbn-978-3-7011-0587-8_4.pdf

Autor
Die Redaktion
Fachjournalismus, Corporate Publishing und Marketing | ProSolution

Unser ProSolution Redaktionsteam vereint Erfahrung aus Redaktion, Fachjournalismus und technischer Dokumentation mit fundiertem Know-how aus der Personaldienstleistung. Mit Blick auf die Praxis bereiten wir Produktneuigkeiten und Branchenthemen verständlich und anwendungsnah auf – mit dem Ziel, Sie im Arbeitsalltag konkret zu unterstützen.

Weitere
Beiträge