1. Der AI Act ist ein Bürokratietest
Der risikobasierte Ansatz ist sachlich richtig. Aber entscheidend im globalen Wettbewerb um die leistungsfähigsten KI System wird sein, welche Länder und Firmen im Wettbewerb die Nase vorn haben werden. Hochrisiko-Anwendungen brauchen klare Leitplanken. Gleichzeitig gilt: Für KMU ist die Dokumentations- und Nachweispflicht schon wieder zu aufwändig. Wer keine internen Strukturen hat, spürt das deutlich. Bürokratie sollte den Einsatz von KI in KMU nicht verhindern oder verzögern.
2. HR, Compliance und IT rücken enger zusammen
Spätestens bei KI im Recruiting, in der Leistungsbewertung oder Schichtplanung wird klar:
KI ist kein IT-Thema. Unternehmen müssen arbeitsrechtlich, datenschutzrechtlich und technisch sauber aufgestellt sein. Silodenken funktioniert nicht mehr.
3. Die Verbote sind überschaubar, aber die Verantwortung steigt!
Die wirklich verbotenen KI-Praktiken betreffen Extreme. Aber die EU meint es ernst: Gegen X verhängte sie wegen Verstößen gegen den DSA unlängst eine Geldstrafe von 120 Millionen Euro.
Der „normale“ unternehmerische Alltag entscheidet sich aber hier: In Transparenz, menschlicher Aufsicht und Risikobewertung. KI darf unterstützen. Die Verantwortung bleibt beim Arbeitgeber.
Viele Betriebe haben KI längst im Einsatz.
Nach einem Jahr AI Act gilt:
Nicht regulieren heißt nicht sicher sein.
Abwarten heißt nicht compliant sein.
Rechtssicherheit schaffen, Innovation ermöglichen, Überforderung vermeiden.