Ziel des Treffens war es, Forschung und Praxis zusammenzubringen, Perspektiven zu teilen und gemeinsam Ansätze für die verantwortungsvolle Gestaltung von KI-Systemen zu entwickeln.
Im Mittelpunkt stand der Dialog zwischen jungen KI-Forschenden und ExpertInnen aus Unternehmen: Wie lassen sich wissenschaftliche Erkenntnisse zu vertrauenswürdiger KI in reale Anwendungen überführen? Und welche Herausforderungen entstehen dabei in der Praxis?
Fokus: Sicherheit, Transparenz und Fairness
Die Diskussionen konzentrierten sich auf drei zentrale Dimensionen vertrauenswürdiger KI: Sicherheit, Transparenz und Fairness. Entlang dieser Themenfelder betrachteten die Teilnehmenden, wie Unternehmen KI-Systeme verantwortungsvoll entwickeln und implementieren können.
Besonders im Fokus stand dabei der Transfer wissenschaftlicher Erkenntnisse in unternehmerische Kontexte. Denn viele der Konzepte zu erklärbarer, fairer oder sicherer KI entstehen zunächst in der Forschung – ihre Umsetzung im Unternehmensalltag stellt Organisationen jedoch häufig vor neue technische, organisatorische und regulatorische Herausforderungen.
Impulse aus Forschung und Praxis
Eröffnet wurde die Veranstaltung von Lucy Czachowski, Head of AI & Cloud Policy bei Bitkom, sowie Laure Poirson, Team Lead bei AI Grid. Beide betonten die Bedeutung eines engen Austauschs zwischen Forschung und Industrie, um verantwortungsvolle KI nicht nur zu diskutieren, sondern auch praktisch umzusetzen.
Im Anschluss gab Ute Schmid, Mitglied des AI Grid Präsidiums und Professorin für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg, eine Online-Keynote mit dem Titel „Framing Trustworthy & Responsible AI: Dimensions, Definitions, and Implications“. In ihrem Vortrag ordnete sie das Themenfeld konzeptionell ein und beleuchtete aktuelle wissenschaftliche Debatten rund um menschenzentrierte und erklärbare KI. Besonders hervorgehoben wurden die Implikationen dieser Ansätze für Sicherheit, Transparenz und Fairness von KI-Systemen.
Darauf folgte ein Impulsvortrag von Manoj Kahdan, AI Grid Alumni und Promovierender an der RWTH Aachen. Er zeigte praxisnahe Ansätze zur Implementierung verantwortungsvoller KI in Unternehmen und sprach über organisatorische Herausforderungen bei der Etablierung von KI-Governance-Strukturen. Auch regulatorische Fragen – insbesondere im Kontext des EU AI Act – wurden dabei diskutiert.
Drei Tracks: Von Use Cases zu Handlungsempfehlungen
Nach den einführenden Impulsen arbeiteten die Teilnehmenden in drei parallelen Tracks weiter. Ziel war es, konkrete Unternehmensanwendungen zu analysieren und daraus übergreifende Handlungsempfehlungen abzuleiten.
Zu Beginn standen Praxisbeispiele aus verschiedenen Branchen im Mittelpunkt. Die Gruppen diskutierten konkrete Use Cases, betrachteten eingesetzte KI-Systeme sowie deren Implementierungsgrad und tauschten Erfahrungen aus der Anwendungspraxis aus. Dabei wurden sowohl technische Aspekte – etwa Datenarchitekturen, Modellintegration oder Toolketten – als auch organisatorische Fragen rund um Governance-Strukturen und interne Prozesse thematisiert.
Nach einer gemeinsamen Mittagspause, in der sich alle in angenehmer Atmosphäre austauschen und neue Kontakte knüpfen konnten, richtete sich der Blick stärker auf den gesamten Lebenszyklus von KI-Systemen. Die Teilnehmenden identifizierten Herausforderungen von der Datennutzung und Modellentwicklung über Trainingsprozesse bis hin zu Deployment, Monitoring und kontinuierlicher Qualitätskontrolle im Produktivbetrieb.
Fachliche Perspektiven aus Forschung und Anwendung
Die Diskussionen in den Tracks wurden von ExpertInnen aus Wissenschaft und Industrie begleitet.
Im Track Fairness brachten Rebekka Görge, Senior Data Scientist und PhD Researcher am Fraunhofer IAIS, sowie Michael A. Hedderich, Leiter der Forschungsgruppe für menschenzentrierte NLP und KI an der LMU München und dem Munich Center for Machine Learning, aktuelle Perspektiven aus Forschung und AI Assurance ein. Diskutiert wurde insbesondere, wie Fairness als messbares Qualitätskriterium in Entwicklungsprozesse integriert werden kann.
Der Track Security & Privacy wurde durch Beiträge von Paul Zenker, stellvertretender Manager für KI-Sicherheit, physische Vermögenswerte und IT bei KPMG, unterstützt, der Sicherheitsanforderungen an KI-Systeme aus praxisnaher Perspektive beleuchtete. Ergänzt wurde die Diskussion durch Demonstrationen möglicher Angriffsszenarien auf große Sprachmodelle von den AI Grid Mitgliedern Felix Mächtle und Jonas Sander, die unter anderem Risiken wie LLM-Jailbreaking und mögliche Gegenmaßnahmen vorstellten.
Im Track Explainability & Transparency brachte Björn Weißhaupt, Direktor für Datenanalyseberatung bei EPAM, Einblicke aus der Beratung zu realen KI-Implementierungsprojekten ein. Wissenschaftliche Perspektiven zur erklärbaren KI steuerte Dr. Vera Schmitt, AI Grid Mentorin und Leiterin der Forschungsgruppe XplaiNLP an der TU Berlin, bei.
Zum Abschluss präsentierten VertreterInnen aus Forschung und Industrie die Ergebnisse der drei Tracks in kurzen Pitch-Formaten und fassten die wichtigsten Erkenntnisse der Diskussionen zusammen.
Von der Diskussion zum Leitfaden
Die während der Sessions entwickelten Ideen und Empfehlungen wurden anschließend gemeinsam reflektiert und strukturiert zusammengeführt. Ziel war es, aus den vielen Perspektiven ein konsistentes Gesamtbild zu entwickeln und konkrete Ansatzpunkte für Unternehmen abzuleiten.
Die Ergebnisse der Diskussionen werden nun weiter ausgearbeitet und in einen praxisorientierten Leitfaden für Unternehmen überführt. Dieser soll Organisationen dabei unterstützen, vertrauenswürdige und verantwortungsvolle KI systematisch zu entwickeln und zu implementieren.
Die finalen Ergebnisse sowie der ausgearbeitete Leitfaden werden im Rahmen einer Online-Veranstaltung am 7. Mai 2026 vorgestellt.







