Interview Madeleine Bauer-Eder: Verantwortungsvolle KI in HR
Auf dem HR Summit hielt Madeleine Bauer Eder, CHRO von IBM Österreich, eine äußerst spannende Keynote: warum Transformation eine Haltung und kein Projekt ist, wie Human Friendly Automation Menschen stärkt, wie Ethikrat und die fünf Säulen vertrauenswürdiger KI Entscheidungen leiten, weshalb im Recruiting Assessments statt Rankings zählen und der Mensch am Ende entscheidet, welche Kompetenzen Führung heute wirklich braucht, wie eine skillsbasierte Organisation entsteht und was watsonx Challenge, AskHR sowie gelebtes Incident Learning damit zu tun haben. Viele Themen, die uns veranlassen, noch genauer nachzufragen.
Frau Madeleine Bauer-Eder, Sie verantworten die HR-Strategie von IBM Österreich. Woran messen Sie persönlich, ob Transformation in der Organisation wirklich angekommen ist und nicht nur als Projektetikett läuft?
Transformation ist für mich kein Projekt, sondern eine Haltung.
Sie ist dann angekommen, wenn sie im Alltag spürbar wird – wenn Mitarbeitende neue Technologien nicht als Bedrohung sehen, sondern als Werkzeug, um ihre Arbeit besser zu machen.
Ein starkes Beispiel ist unsere weltweite ‚watsonx Challenge‘ – ein IBM interner KI-Hackathon, den wir nun schon drei Sommer in Folge veranstalten. Dabei arbeiten IBM-Mitarbeitende auf der ganzen Welt zeitgleich an Ideen, wie KI im Alltag sinnvoll eingesetzt werden kann. So wird künstliche Intelligenz greifbar, Vertrauen aufgebaut – und die Lust auf Mitgestaltung geweckt.
Ich messe Transformation also daran, ob Menschen mitmachen wollen – nicht, ob sie müssen.
Wenn Führungskräfte selbst mit neuen Tools experimentieren, ihre Teams befähigen statt nur anzuweisen, dann ist Wandel Teil der Kultur geworden.
Human Friendly Automation klingt nach guter Absicht und harter Praxis. Welche konkreten Prinzipien setzen Sie in HR um, damit Automatisierung den Menschen dient und nicht umgekehrt?
Es geht darum, dass KI die menschliche Arbeit ergänzt, nicht ersetzt. Das ist für mich der Kern von Human Friendly Automation – kurz HFA.
HFA ist kein Tool, sondern eine menschenzentrierte Führungs- und Gestaltungshaltung.
Wir orientieren uns dabei an vier zentralen Prinzipien.
Erstens: Menschlichkeit – Technologie soll Arbeit erleichtern, nicht entfremden.
Zweitens: Transparenz – alle sollen verstehen, was die KI tut und was nicht.
Drittens: Befähigung – unsere Mitarbeitenden gestalten aktiv mit.
Und viertens: Langfristigkeit – wir investieren in Lernkultur statt in einmalige Rollouts
Unsere Plattform AskHR ist ein gutes Beispiel: Sie deckt heute den gesamten Employee Lifecycle ab – vom Onboarding bis zur Pensionierung – und hat eine Nutzungsrate von 96 %.
Wichtig war dabei die Kommunikation: „Wir wollen die Prozesse in eurem Sinne verbessern.“ Diese Klarheit hat Vertrauen geschaffen – und Akzeptanz.
Human Friendly Automation ist also eine Haltung, wie man Organisationen im Zeitalter von KI führt: mit Respekt, Transparenz und der Überzeugung, dass Technologie Menschen stärkt – nicht ersetzt.
Governance entscheidet über Vertrauen. Wie ist Ihr Set-up aus Ethikrat, Rollen, Prozessen und Eskalationswegen gebaut, damit Entscheidungen schnell und zugleich verantwortungsvoll getroffen werden?
Vertrauen ist die Basis jeder technologischen Transformation. Deshalb haben wir schon 2018 ein KI-Ethik-Board eingerichtet – lange bevor der EU AI Act kam.
Dieses Gremium vereint Vertreterinnen und Vertreter aus Personal, Recht, Data Science, Employee Relations und Mitbestimmung. Jede neue Anwendung wird entlang der fünf Säulen vertrauenswürdiger KI geprüft:
-
- Fairness: keine Verzerrungen oder systematischen Bevorzugungen.
- Robustheit: Stabilität unter verschiedenen Bedingungen.
- Datenschutz: volle Kontrolle über sensible Daten.
- Erklärbarkeit: nachvollziehbare Ergebnisse.
- Transparenz: Offenheit für externe Überprüfung.
Wir nutzen Tools wie watsonx.governance und AI Fairness 360, um Algorithmen kontinuierlich auf Fairness, Robustheit und Erklärbarkeit zu prüfen.
Dabei gilt ein klares Prinzip: Geringrisikoanwendungen werden im Fast Track freigegeben, Hochrisiko-Tools durchlaufen ein erweitertes Ethik-Review.
So bleiben wir schnell in der Umsetzung – und konsequent in der Verantwortung.
Bias lauert im Detail. Welche Prüfmechanismen nutzen Sie, um Verzerrungen in Daten und Modellen zu erkennen, und wo setzen Sie bewusst auf menschliche Entscheidung statt auf Automatisierung?
Bias entsteht oft dort, wo man ihn am wenigsten erwartet – etwa in Trainingsdaten oder bei Entwicklerteams. Deshalb haben wir bei IBM ein mehrstufiges Prüfmodell:
-
- Datenbereinigung: Wir entfernen demografische Merkmale wie Alter, Geschlecht oder Herkunft.
- Diversität: Wir achten auf vielfältige Teams und Perspektiven.
- Kontinuierliches Monitoring: Wir prüfen regelmäßig, ob sich unbewusste Verzerrungen einschleichen.
Ein Beispiel aus dem Recruiting: Stellen Sie sich vor, Sie haben tausend Bewerbungen vor sich. Wir haben anfangs Scoring-Modelle geprüft – also Systeme, die Bewerbungen automatisch bewerten und eine Rangliste erstellen. Der menschliche Reflex ist da oft: „Super, ich schau mir einfach die Top 10 an.“ Genau hier liegt das Risiko – solche Modelle können schnell in einen ethischen Graubereich führen.
Deshalb setzen wir bei IBM bewusst auf Assessments statt Rankings: Hat jemand die Grundfähigkeiten oder Sprachkenntnisse – Ja oder Nein. Erst danach startet die Auswahl durch den Menschen. Sobald ein Algorithmus Wahrscheinlichkeiten oder implizite Annahmen erzeugt, wird es kritisch – dann greift unser Ethikgremium ein.
Wesentlich – und das gilt für alle Einsatzbereiche von KI im Personalbereich:
Die finale Entscheidung trifft immer ein Mensch. Das ist in unseren Ethikrichtlinien festgeschrieben. So bleibt die Verantwortlichkeit klar – und das Zusammenspiel von KI und HR fair, transparent und menschlich.
Leadership-Entwicklung in Zeiten von KI verlangt neue Kompetenzen. Welche Fähigkeiten priorisieren Sie bei Führungskräften, und wie messen Sie Lernfortschritt jenseits von Zertifikaten?
Führung verändert sich radikal. KI nimmt Routineaufgaben ab – dadurch rückt das Menschliche noch stärker in den Fokus.
Wir priorisieren drei Fähigkeiten: digitale Empathie, also Technologie menschlich zu vermitteln; Change-Kompetenz, um Wandel aktiv zu gestalten; und Resilienz, um Haltung zu bewahren, auch wenn nicht alle begeistert sind.
Gerade das mittlere Management spielt hier eine Schlüsselrolle – sie müssen Brücken bauen und Mitarbeitende mitnehmen.
Wir messen Lernfortschritt nicht über Zertifikate, sondern über Verhalten: Wie nutzt eine Führungskraft KI, um Teams zu entlasten? Wie fördert sie Lernen? Wie offen spricht sie über Unsicherheiten?
Unser jährlicher Engagement Survey dient dabei als Kompass – er zeigt, wo uns das schon gelingt und wo wir uns weiterentwickeln können.
Skills statt Stellenprofile ist das neue Mantra. Wie verankern Sie eine Skills-basierte Organisation, inklusive internen Talentmarktplätzen, Karrierepfaden und fairer Vergütung?
Wir bewegen uns weg von statischen Jobprofilen hin zu Skills-Ökosystemen.
Unser weltweiter interner Job-Marktplatz bringt Talente und offene Stellen zusammen, basierend auf Kompetenzen, Interessen und Lernzielen.
Parallel dazu bietet unsere Lernplattform YourLearning personalisierte Entwicklungsangebote. Mitarbeitende sehen genau, welche Fähigkeiten sie ausbauen können, um in neue Rollen zu wachsen.
Auch Vergütung denken wir zunehmend skills-basiert: Wer neue, strategisch relevante Kompetenzen aufbaut, steigert messbar seinen Wertbeitrag – und das wird honoriert.
So entsteht eine Organisation, die ständig lernt und sich selbst erneuert, anstatt auf starre Stellenbeschreibungen zu vertrauen.
Incident Management für KI klingt nach Technik, berührt aber Kultur. Wie gehen Sie mit Fehlentscheidungen oder Beschwerden um, und wie lernen Teams systematisch daraus?
Wenn eine KI-Entscheidung hinterfragt wird oder etwas schiefläuft, schauen wir zuerst sachlich hin: Liegt es am Modell, an den Daten oder an der Nutzung? Aber das ist nur ein Teil der Antwort. Der wichtigere Teil ist die Kultur – also die Bereitschaft, offen über Fehler zu sprechen und daraus zu lernen.
Wir arbeiten hier mit einem klaren Rahmen:
Erstens – psychologische Sicherheit. Wir fragen Was ist passiert?, nicht Wer war schuld?.
Zweitens – klare Abläufe. Mit watsonx.governance prüfen wir Ursachen, informieren Betroffene und binden bei ethischen Themen unser KI-Ethikboard ein.
Und drittens – Lernen. Jeder Fall wird dokumentiert, gemeinsam reflektiert und fließt in unsere Playbooks ein. So lernt nicht nur das betroffene Team, sondern die gesamte Organisation.
Aus meiner Sicht gelingt Incident Management für KI, wenn Technologie, die KI transparent und kontrollierbar macht, auf eine Kultur trifft, die Fehler als Datenpunkte für Verbesserung sieht. Dann wird Lernen Teil des Alltags und gleichzeitig Ausdruck unserer Verantwortung im Umgang mit KI.
Wenn Sie einem mittelständischen Unternehmen drei erste Schritte für verantwortungsvolle KI in HR empfehlen müssten – welche wären das, und warum starten Sie genau dort?
Erstens: Think big, start small. Habt eine klare Vision, wo KI langfristig Mehrwert schaffen soll und beginnt mit einem überschaubaren, aber greifbaren Use Case, etwa im Recruiting oder Onboarding. So entstehen schnelle Lernerfolge und Vertrauen.
Zweitens: Stakeholder früh einbinden. Führungskräfte, Mitarbeitende, Betriebsrat – alle müssen verstehen, was die KI tut und welchen Nutzen sie bringt.
Drittens: Ethik und Lernen von Beginn an mitdenken. Vertrauen entsteht dann, wenn Menschen Technologie nicht nur erleben, sondern auch hinterfragen und mitgestalten können – und wenn sie durch Up- und Reskilling rechtzeitig auf neue Jobprofile vorbereitet werden.
KI ist faszinierend – aber sie verändert, wie wir führen, lernen und entscheiden.
Die Gestaltung dieser neuen Arbeitswelt ist keine IT-Aufgabe, sondern eine Führungsaufgabe.





