In einer Welt, in der Künstliche Intelligenz (KI) immer mehr Lebensbereiche durchdringt, stehen Unternehmen vor drängenden Fragen: Wie können KI-Technologien so eingesetzt werden, dass sie die Arbeit erleichtern, ohne Risiken wie Datenschutzprobleme oder Kontrollverlust zu schaffen? Franziska Peters, Communications Managerin bei AI Grid, hat Pauline M. Kuss interviewt, die als Mitglied von AI Grid und im Rahmen einer Promotion zum Thema soziotechnische KI-Governance an der Freien Universität Berlin unter anderem diese Herausforderungen erforscht. Pauline bringt einen interdisziplinären Blick auf die komplexen Fragen rund um KI in der Praxis mit.
Einblicke in die Forschung: Was ist Organisational KI Governance?
„Ich beschäftige mich mit Organisational KI Governance“, eröffnet Pauline das Gespräch. „Das heißt, ich schaue mir an, wie Unternehmen KI in ihre Prozesse und Produkte integrieren. Dabei geht es vor allem darum, welche Risiken dabei entstehen und wie diese minimiert werden können.“ Ihr Ziel ist es, einen Rahmen zu entwickeln, der Unternehmen als Leitfaden dient, um KI sicher und effizient einzusetzen.
Sie nennt ein Beispiel, das die Herausforderungen verdeutlicht: „Stellen wir uns vor, ein Personalvermittlungsunternehmen nutzt frei verfügbare Modelle wie ChatGPT. Mitarbeiterinnen und Mitarbeiter laden Lebensläufe in das System hoch, ohne zu bedenken, dass dies zu Datenschutzproblemen führen kann. Gleichzeitig besteht die Gefahr, dass das System falsche Ergebnisse liefert. Unternehmen müssen hier Strategien entwickeln, um einerseits die Nutzung solcher Systeme zu ermöglichen und andererseits Risiken wie Datenschutzverletzungen zu minimieren“.
KI in der Medizin: Effizienzsteigerung mit Herausforderungen
KI bietet viele Vorteile, wirft aber auch komplexe Fragen auf. „Gerade in der Medizin sehen wir, wie KI-Systeme Ärztinnen und Pflegepersonal entlasten könnten“, erklärt Pauline. „Zum Beispiel können solche Systeme Röntgenbilder analysieren und Auffälligkeiten markieren, sodass das medizinische Personal gezielt darauf schauen kann. Das spart Zeit und verbessert die Diagnose.“
Doch wie lässt sich sicherstellen, dass solche Systeme richtig und verantwortungsvoll eingesetzt werden? „Die Kontrolle muss immer beim Menschen bleiben. Es ist wichtig, dass wir verstehen, wie die Systeme funktionieren, und jederzeit eingreifen können, wenn Fehler passieren, betont sie. „Optimal ist es, wenn KI monotone Aufgaben übernimmt und den Menschen Freiräume für kreative und sinnvolle Tätigkeiten schafft.“
„Im Krankenhaus beispielsweise, könnten KI-Systeme die Dokumentationsarbeit erleichtern“, sagt Pauline. „Doch es ist entscheidend, dass diese Systeme intuitiv sind und keine zusätzliche Belastung schaffen. Sonst entsteht Frustration statt Entlastung.“
„Technik ist nie wertneutral“
Ihre Forschung geht weit über technische Aspekte hinaus und bezieht auch ethische und gesellschaftliche Fragen mit ein. „Technik ist nie wertneutral“, sagt Pauline, „sie beeinflusst soziale Strukturen und individuelle Identitäten. Besonders wichtig ist die Frage, wie wir sicherstellen können, dass Menschen die Kontrolle behalten und sich in ihrer Arbeit wertgeschätzt fühlen.“
Ein zentrales Thema ihrer Arbeit sind sogenannte Grundlagenmodelle wie GPT. Diese großen KI-Systeme werden von wenigen Unternehmen entwickelt und bilden die Grundlage für viele Anwendungen. „Das Training solcher Modelle ist ressourcenintensiv und teuer, was dazu führt, dass nur wenige Akteure den Markt dominieren. Gleichzeitig haben die Unternehmen, die diese Modelle nutzen, oft wenig Einblick in deren Funktionsweise. Das führt zu einer Verschiebung von Verantwortung und Kontrolle“, erklärt sie.
Vom Datenschutzrecht zur interdisziplinären Forschung
Paulines Weg in die Forschung begann mit einem einem Studium mit Schwerpunkt Privacy und Datenschutzrecht. „Während meines Bachelorstudiums habe ich viel über die rechtlichen Aspekte von Daten gelernt, aber ich wollte auch die technische Seite verstehen“, erinnert sie sich. Es folgte ein Master in Data Science, der ihr Einblicke in die Welt der neuronalen Netze und des Deep Learning gab. Parallel dazu absolvierte sie einen zweiten Master in Technologierecht, um die regulatorischen Fragen der KI zu vertiefen.
„Diese interdisziplinäre Perspektive ermöglicht es mir, rechtliche, technische und ethische Aspekte miteinander zu verbinden“, sagt Pauline. „Das ist besonders wichtig, wenn wir über KI sprechen, weil diese Technologien so tief in unsere Gesellschaft eingreifen.“
Das ideale Verhältnis zwischen Mensch und KI
Auf die Frage, wie die Beziehung zwischen Mensch und KI in Zukunft aussehen sollte, hat Pauline eine klare Vision: „Die Kontrolle muss immer beim Menschen bleiben. Die KI soll uns unterstützen und nicht bevormunden. Wenn wir es schaffen, die Systeme transparent und sicher zu gestalten, können wir ihre Möglichkeiten voll ausschöpfen.“
Dabei sieht sie auch die Unternehmen in der Pflicht: „Sie müssen ihren Mitarbeitenden die richtigen Werkzeuge und Schulungen zur Verfügung stellen, damit sie die Systeme kritisch hinterfragen und verantwortungsvoll einsetzen können.
Persönlicher Austausch über das AI Grid-Netzwerk
Abschließend spricht Pauline über ihre Erfahrungen bei einer von AI Grid organisierten Science & Innovation Tour mit einer Delegation von PhDs aus dem Netzwerk in Zürich. „Es war unglaublich bereichernd, sich mit anderen Forschenden auszutauschen. Man bekommt neue Perspektiven und kann die eigene Arbeit im größeren Kontext sehen“, erzählt sie. Besonders beeindruckt habe sie der Besuch bei IBM Research und Disney Research. „Die unterschiedlichen Ansätze und Kulturen der Unternehmen haben gezeigt, wie vielseitig die Einsatzmöglichkeiten von KI sind.“