Zum Inhalt springen

Schatten-KI – das vielfach unterschätzte Risiko?

Prof. Dr. Barenkamp: Robuste KI-Governance notwendig

Mitarbeiter setzen sich über Unternehmensrichtlinien hinweg

Immer mehr deutsche Wissensarbeiter nutzen KI-Tools, die nicht von ihrem Arbeitgeber/Unternehmen freigegeben sind. Laut der aktuellen Studie „Chasing Shadows – Getting Ahead of Shadow AI“ der Software AG, für die über 6.000 Wissensarbeiter aus den USA, Großbritannien und Deutschland befragt wurden, soll mehr als die Hälfte aller Mitarbeiter solche sogenannte „Schatten-KI“ nutzen. Doch nicht vom Unternehmen bereitgestellte KI-Tools können für diese ein erhebliches Risiko darstellen, warnen Fachleute. Unter anderem deshalb rät der KI-Experte Prof. Dr. Marco Barenkamp Firmen dringend zur Implementierung einer robusten KI-Governance.

Spätestens seit ChatGPT ist weitgehend unstrittig, dass Künstliche Intelligenz (KI) aus der Business-Welt und unserem Arbeitsalltag kaum noch wegzudenken ist. Denn die KI-Tools sind nicht nur nützlich und effizient, sondern inzwischen auch relativ leicht zugänglich. Über Plattformen wie OpenAI, Microsoft oder Google kann jeder an das für ihn passende „Werkzeug“ kommen, sei es für den Rechner daheim oder im Büro. Das mag die Produktivität des Einzelnen steigern. Werden die KI-Tools jedoch ohne Wissen der firmeneigenen IT-Abteilung und ohne Genehmigung „von oben“ verwendet, können sie zu einer Gefahr im Hinblick auf den Datenschutz und die IT-Sicherheit in einem Unternehmen werden.

Wie die „Chasing Shadows“-Studie zeigt, sind persönliche KI-Tools für viele Mitarbeiter allerdings so wertvoll, dass sie sich weigern würden, diese Hilfsmittel aufzugeben, selbst wenn ihr Unternehmen sie komplett verböte. So äußerte sich immerhin rund die Hälfte der für die Untersuchung Befragten: global 46 Prozent, in Deutschland sogar 49 Prozent. Dies sei ein deutliches Signal an die Unternehmen, dass sie robustere und umfassendere KI-Strategien benötigen, um zu verhindern, dass sie ihr Unternehmen erheblichen Risiken aussetzen, kommentieren die Verfasser der Studie.

KI setzt sich durch

Hierzu merkt Steve Ponting, Direktor bei der Software AG, an: „Wenn 2023 ein Jahr der Experimente war, wird 2024 als das Jahr definiert, in dem sich GenAI (Generative Künstliche Intelligenz, d. Red.) durchsetzt.“ Während heute 75 Prozent der Wissensarbeiter KI nutzen, wird diese Zahl in naher Zukunft auf 90 Prozent steigen, ist Ponting überzeugt. Denn die KI hilft, Zeit zu sparen (83 Prozent), die Arbeit der Mitarbeiter zu erleichtern (81 Prozent) und die Produktivität zu verbessern (71 Prozent). 

Mit der zunehmenden Nutzung steigt allerdings auch das Risiko von CyberangriffenDatenverlusten oder der Nichteinhaltung von Vorschriften. „Daher müssen die Verantwortlichen in den Unternehmen einen Plan dafür haben, bevor es zu spät ist,“ warnt Ponting. Mit dieser Mahnung befindet er sich auf einer Linie mit dem Osnabrücker KI-Fachmann Prof. Dr. Marco Barenkamp, Gründer der auf KI-Entwicklungen spezialisierten LMIS AG. Er weiß sowohl um die enormen Vorteile, welche die Integration von KI in Unternehmen bringen kann, als auch um die damit verbundenen Risiken, die ohne eine klare Governance-Struktur in der Regel schwer zu kontrollieren sind. Er widmet deshalb nicht ohne Grund in seinem demnächst erscheinenden neuen Buch „Künstliche Intelligenz als Treiber der Wertschöpfung“ ein ganzes Kapitel der Bedeutung von KI-Governance sowie deren Implementierung.

KI-Governance: Vertrauen fördern und Risiken reduzieren

Doch worum geht es hierbei eigentlich genau? Unter KI-Governance werden die Strukturen, Richtlinien und Prozesse zusammengefasst, die sicherstellen, dass KI-Systeme ethisch, transparent und gesetzeskonform entwickelt und genutzt werden, erläutert Prof. Barenkamp. Es handelt sich dabei um ein umfassendes Rahmenwerk, das alle relevanten technischen, rechtlichen und organisatorischen Aspekte der KI-Implementierung abdeckt. „Governance ist erforderlich, um Vertrauen zu fördern, Risiken zu reduzieren und sicherzustellen, dass die KI-Systeme in einer Weise betrieben werden, die den Unternehmenszielen entspricht“, betont der Experte.

Demnach basiert eine effektive KI-Governance auf drei wesentlichen Mechanismen, die gewährleisten, dass der Einsatz im Unternehmen verantwortungsvoll, sicher und zielgerichtet erfolgt: strukturellen, prozeduralen und relationalen Mechanismen. Die strukturellen Maßnahmen umfassen alle organisatorischen Strukturen und Rollen, die erforderlich sind, um den Einsatz von KI zu steuern und zu überwachen. Hierzu zählt Prof. Barenkamp etwa die Einrichtung eines speziellen Teams oder einer Abteilung, welche sich mit sämtlichen Aspekten der KI befasst – etwa in Form der Einführung der Position eines AI Risk Managers.

Zu den prozeduralen Mechanismen gehören alle Prozesse und Richtlinien, die den Lebenszyklus von KI-Systemen steuern. Als ein gutes Beispiel für solche Mechanismen kann die Einführung standardisierter Entwicklungsprozesse gelten. Relationale Mechanismen schließlich sollen die Zusammenarbeit und den Wissenstransfer zwischen verschiedenen Abteilungen und externen Interessengruppen fördern. In der Praxis bedeutet dies, dass Teams aus unterschiedlichen Bereichen wie IT, Recht, Marketing und Vertrieb zusammenarbeiten, um sicherzustellen, dass KI-Systeme nicht isoliert, sondern als integraler Bestandteil des gesamten Unternehmens entwickelt werden, erklärt Prof. Barenkamp.

Er betont besonders die Rolle des AI Risk Managers als eine wesentliche Figur im Governance-Modell eines Unternehmens. Sein Hauptverantwortungsbereich umfasst die Identifizierung, Bewertung und Entwicklung von Strategien zur Risikominderung. Der AI Risk Manager stelle sicher, dass KI-Systeme verantwortungsvoll eingesetzt werden, konkretisiert der KI-Experte. Ferner gehört zu den Aufgaben des AI Risk Managers, die Einhaltung interner und externer Vorschriften zu überwachen. Dazu zählen dann auch die Vorgaben zur Nutzung von KI-Tools – oder andersherum zur Minimierung der Risiken durch Schatten-KI.

Verantwortungs- und Sicherheitsbewusstsein fördern

Eine effektive KI-Governance basiere auf einem klaren Verantwortungsbewusstsein, einer umfassenden Schulung und Fortbildung, der kontinuierlichen Anpassung an neue Entwicklungen und einer innovationsfreundlichen Unternehmenskultur, konstatiert Wirtschaftsinformatiker Barenkamp. Dies beinhaltet ebenfalls, dass das Sicherheitsbewusstsein von Mitarbeitern aus- und weitergebildet wird, speziell auch in Bezug auf die Verwendung von eigenen, von der Firmenleitung nicht akzeptierten KI-Tools.

In der Hinsicht seien deutsche Wissensarbeiter ihren internationalen Kollegen voraus, offenbart die Studie „Chasing Shadows – Getting Ahead of Shadow AI“. Denn während im globalen Durchschnitt nur 28 Prozent der Befragten sensible Daten vor der Eingabe in ein KI-Tool anonymisieren, tun dies in Deutschland immerhin 34 Prozent. 

Weiterführende Informationen:

Prof. Barenkamps neues Buch „Künstliche Intelligenz als Treiber der Wertschöpfung” erscheint voraussichtlich im ersten Quartal 2025.

Illustration: Ice stocker / shutterstock.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert