Ein Kaffee mit... Prof. Dr. Caroline Ruiner
Wie nutzen wir KI in der Verwaltung? [14.03.25]

Prof. Dr. Caroline Ruiner, Prorektorin für Digitale Transformation und Nachhaltigkeit. Bild: Universität Hohenheim / Wolfram Scheible.
In Forschung, Studium und Lehre wird KI an der Uni Hohenheim bereits seit einiger Zeit eingesetzt - unter klar definierten Regeln. Doch wie sieht es eigentlich in den wissenschaftsunterstützenden Bereichen aus? Eine neue Richtlinie gibt dafür nun Orientierung. Die Prorektorin für Digitale Transformation und Nachhaltigkeit, Prof. Dr. Caroline Ruiner, erklärt die wichtigsten Punkte beim Kaffee mit dem Online-Kurier.
-
Frau Ruiner, wir sprechen schon länger von einer "Kulturrevolution" durch KI - und Universitäten sind davon besonders betroffen. Erreicht diese Entwicklung jetzt auch die wissenschaftsunterstützenden Bereiche?
Wir beobachten auf jeden Fall, dass sich KI-Technologien rasant entwickeln und immer mehr Bereiche der Gesellschaft und Arbeitswelt durchdringen.
In der Senatskommission für Informationsmanagement (SKI) beschäftigen wir uns intensiv mit dieser Entwicklung. Dabei wurde deutlich: KI kann auch in einer modernen Uni-Verwaltung eine wertvolle Unterstützung für die Beschäftigten sein – vorausgesetzt, sie wird verantwortungsvoll eingesetzt.
Eine wichtige Einschränkung daher auch gleich vorweg: Es gibt zahlreiche Verwaltungstätigkeiten, für die KI völlig ungeeignet ist. Personenbezogene Daten von Studierenden und Mitarbeitenden, Forschungsdaten oder andere vertrauliche Inhalte sollten keinesfalls mit KI-Systemen verarbeitet werden.
Das liegt unter anderem daran, dass viele Dienste auf Servern in den USA gehostet werden und nicht den Datenschutzanforderungen der EU entsprechen. Zudem werden eingegebene Daten häufig zum Training der KI-Systeme verwendet und dauerhaft von ihnen gespeichert.
Für welche Aufgaben könnte KI in der Verwaltung sinnvoll genutzt werden?
In einigen Bereichen ist KI bereits im Einsatz. Ich denke hier besonders an KI-gestützte Übersetzungen mit DeepL. Wichtig ist dabei: Kein Ergebnis kann ungeprüft übernommen werden. Nur wer den fremdsprachigen Text wirklich versteht und kontrollieren kann, sollte DeepL nutzen.
In ähnlicher Weise könnte KI künftig auch verstärkt bei der Textbearbeitung unterstützen – etwa beim Erstellen von Kurzfassungen oder bei der Übersetzung in leicht verständliche, barrierefreie Sprache.
In den Diskussionen, die wir bisher zum Thema geführt haben, sind immer wieder neue mögliche Anwendungsbeispiele aufgekommen: von der Zusammenfassung komplexer juristischer Texte bis hin zur Unterstützung bei Social Media-Postings.
Der potenzielle Einsatz von KI ist also sehr vielfältig – genau wie die Tätigkeiten in den wissenschaftsunterstützenden Bereichen. Jedoch müssen wir jeden Einzelfall kritisch abwägen.
Im Bereich Studium und Lehre findet KI ja schon eine etwas breitere Anwendung. Hierfür hat die Uni Hohenheim bereits 2023 eine Richtlinie herausgegeben - als eine der ersten Hochschulen in Deutschland.
So ist es. Damals standen wir unter dem unmittelbaren Eindruck eines technologischen Durchbruchs: Large Language Models, wie sie in ChatGPT zum Einsatz kommen, machten generative KI innerhalb kürzester Zeit zu einem leicht zugänglichen Werkzeug für alle.
Die Geschwindigkeit dieser Entwicklung hat damals viele überrascht – und hat uns Hochschulen insbesondere mit Blick auf Prüfungen und die akademische Integrität vor neue Herausforderungen gestellt.
Einige Unis reagierten zunächst mit Verboten. Wir in Hohenheim haben uns hingegen bewusst für einen anderen Weg entschieden: Unser Ziel ist es, Studierenden fit zu machen für den verantwortungsvollen und kompetenten Umgang mit KI – eine Kompetenz, die sie später auch im Berufsleben benötigen.
Dazu gehört für uns, dass KI unter Einhaltung klarer Regeln auch im Studium genutzt werden darf. Wichtig ist und bleibt dabei die gute wissenschaftliche Praxis.
Auch in der neuen Richtlinie für die wissenschaftsunterstützenden Bereiche verfolgen wir nun einen ähnlichen Ansatz.
Welche Aspekte der neuen Richtlinie sind besonders wichtig?
Grundsätzlich gilt: Beschäftigte können KI nur dann verantwortungsvoll nutzen, wenn sie verstehen, wie diese Technologie funktioniert, wie man sinnvolle Ergebnisse erzielt und diese angemessen bewertet. Auch rechtliche Aspekte müssen berücksichtigt werden.
Diese Kompetenzen werden unter dem Begriff "AI-Literacy" zusammengefasst.
Wir bieten dazu einige erste Angebote auf der F.I.T.-Plattform und im Hochschuldidaktikzentrum und werden diese künftig noch ausweiten. Aber auch externe Schulungen und Online-Kurse können eine gute Möglichkeit sein. Beispielsweise können Beschäftigte der Uni Hohenheim kostenlos auf die Angebote von LinkedIn Learning zugreifen.
Tatsächlich ist die Schulung der Mitarbeitenden nicht nur empfehlenswert, sondern auch rechtlich geboten – der EU AI Act fordert dies ausdrücklich. Die Verantwortung liegt bei den jeweiligen Führungskräften.
Was passiert, wenn Nutzer:innen nicht ausreichend sensibilisiert sind?
KI-Texte lesen sich oft so präzise und überzeugend wie Einträge aus einem wissenschaftlichen Lehrbuch. Wer nicht gewohnt ist, mit KI zu arbeiten, lässt sich daher möglicherweise verleiten, Aussagen unhinterfragt zu übernehmen.
Wir können KI-Ergebnissen jedoch nicht in gleicher Weise vertrauen, wie anderen Quellen: Sie sind häufig fehlerhaft, veraltet oder enthalten sogar frei erfundene Inhalte.
Die wichtigste Regel lautet deshalb: Ich muss alles kritisch überprüfen. Denn am Ende bin immer ich selbst für das verwendete Ergebnis verantwortlich.
Wenn ich KI also beispielsweise nutze, um einen juristischen Text zusammenzufassen, entbindet mich das nicht davon, die entscheidenden Stellen im Original noch einmal nachzuschlagen. In vielen Fällen ist die Zeitersparnis durch KI also deutlich geringer als es auf den ersten Blick erscheint.
In § 1 der Richtlinie heißt es, dass nur zentral bereitgestellte Dienste genutzt werden sollen – private Accounts hingegen nicht. Warum?
Wenn KI an der Uni zum Einsatz kommt, soll sie für alle gleichermaßen zugänglich sein. Wir möchten niemanden dazu drängen, sich auf eigene Kosten und mit persönlichen Daten bei externen Anbietern anzumelden - und sei es auch nur indirekt.
Studierende können sich bereits seit einiger Zeit über ILIAS mit „GPTalk“ verbinden – einem Dienst, der auf ChatGPT (OpenAI) basiert. Für die Beschäftigten der wissenschaftsunterstützenden Bereiche möchten wir ebenfalls zeitnah einen Zugang bereitstellen.
Es gibt dabei auch einen Sicherheitsaspekt: Der zentrale Uni-Account erlaubt uns, einige wichtige Voreinstellungen vorzunehmen. In unserer Richtlinie raten wir beispielsweise davon ab, komplette Dokumente in KI-Systeme hochzuladen. Bei GPTalk haben wir diese Option deshalb von vorneherein deaktiviert. Anders als bei Privat-Accounts werden die eingegebenen Prompts auch nicht gespeichert.
Welche zentralen Accounts stehen für Uni-Angehörige noch zur Verfügung?
Wer OpenAI nicht nutzen möchte, kann alternativ auf einen Chatbot der Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen (GWDG) zugreifen, der auf hauseigener Software läuft und besonderen Wert auf Datenschutz legt. Hier stehen verschiedene Open Source-Modelle zur Auswahl, u. a. vom französischen Softwareunternehmen Mistral AI.
Beschäftigte können über das KIM auch eine Lizenz für die Übersetzungssoftware DeepL beantragen. Der Uni-Account bietet den praktischen Vorteil, dass er sich mit dem Hohenheimer Uni-Wörterbuch verbinden lässt. Hier haben wir einheitliche englische Übersetzungen für wichtige Begriffe aus dem Uni-Kontext und für Hohenheim-spezifische Termini festgelegt.
Die Liste der verfügbaren KI-Dienste wird sich Schritt für Schritt erweitern. Wir erhalten dazu immer wieder Anfragen, die wir gewissenhaft prüfen und bearbeiten. U. a. beschäftigten wir uns aktuell mit Frage, ob wir künftig auch KI-Assistenten in Programmen wie Microsoft Office nutzen wollen oder nicht.
§ 2 der Richtlinie stellt klar, dass keine personenbezogenen Daten in KI-Systeme eingegeben werden dürfen. Diesen Punkt hatten Sie anfangs ja bereits betont.
In vielen Fällen ist das unmittelbar einleuchtend. Doch wo genau fängt es an? Kann ich beispielsweise ein Interview mit Hilfe von KI übersetzen, wenn im Text der Name einer Wissenschaftlerin erwähnt wird?
Grundsätzlich gilt: Nur öffentlich Inhalte, die genauso im allgemein zugänglichen Internet stehen könnten, sollten in KI-Systeme eingegeben werden. Darüber hinaus empfehlen wir ausdrücklich, alle Namen und persönliche Daten vorab durch Platzhalter zu ersetzen - also auch Namen in scheinbar harmlosen Texten wie Interviews.
Wie bereits erwähnt, nutzen KI-System die eingegebenen Daten häufig zum Training. Bei personenbezogenen Daten ist das besonders heikel. Tatsächlich sind zahlreiche Fälle bekannt geworden, in denen ChatGPT & Co verzerrende, falsche und sogar rufschädigende Ergebnisse über Personen lieferte. Dazu wollen wir als Universität keinen Beitrag leisten.
Welchen abschließenden Rat geben Sie Beschäftigten auf den Weg?
Transparenz ist entscheidend: Nutzen Sie KI nicht heimlich. Informieren Sie Vorgesetzte und Kolleg:innen und tauschen Sie sich im Team aus. Sollten Sie Bedenken oder Unsicherheit verspüren, zögern Sie nicht dies offen anzusprechen.
Auch eine gemeinsame Besprechung der KI-Ergebnisse kann sehr hilfreich sein – viele Schwachstellen werden erst im Austausch sichtbar. Beispielsweise neigt KI dazu, vorherrschende Stereotypen zu reproduzieren. Als offene und vielfaltsorientiere Hochschule, wollen wir so etwas vermeiden.
Letztendlich bleibt KI ein Werkzeug mit Stärken und mit Schwächen. In Zweifelsfällen sollten Sie also immer andere Quellen zur Hand nehmen und mit den Ergebnissen der KI abgleichen. Da sich die Technologie stetig weiterentwickelt, ist es außerdem wichtig, sich auf dem Laufenden zu halten und über die Hintergründe der Systeme zu informieren.
Vielen Dank für das Gespräch!
Interview: Leonhardmair