Wenn Routine zum Zeitfresser wird
Jeden Tag landen Berge von Anträgen, Mails und Dokumenten auf den Schreibtischen in öffentlichen Einrichtungen. Enorm viel Arbeitszeit fließt in wiederkehrende Aufgaben: Formulare prüfen, Daten abgleichen, Standardanfragen beantworten. Alles notwendig, aber zugleich zeitaufwendig.
Eine McKinsey-Studie aus dem Jahr 2023 kam zu dem Ergebnis, dass bis zu 70 Prozent der Tätigkeiten in deutschen Behörden automatisierbar wären. Ein deutliches Signal, wie sehr Routinearbeit die Verwaltung bindet.
Europas digitales Dilemma
Die Automatisierung liegt nahe. Doch der Markt für leistungsfähige KI-Systeme und die notwendigen Cloud-Infrastrukturen werden von wenigen außereuropäischen Technologiekonzernen dominiert. Für Europas öffentliche Hand entsteht dadurch ein Spannungsfeld zwischen Effizienzgewinn und digitaler Abhängigkeit. Besonders kritisch: die Verarbeitung sensibler Verwaltungsdaten unter Einhaltung europäischer Datenschutzvorgaben.
Ein Ausweg könnte im lokalen Betrieb von Open-Source-KI liegen. Zwar sind diese Modelle weniger leistungsstark, bieten aber vollständige Kontrolle über Daten und Abläufe. Erste Erfahrungen zeigen, dass das Prinzip praxistauglich ist. Beim KIPITZ-Hackathon des ITZBund bauten Verwaltungsmitarbeiter gemeinsam mit Entwicklerteams erste KI-Prototypen. Das Ziel, konkrete Lösungen für den Alltag schaffen, führte zur Erkenntnis, dass KI der Verwaltung durchaus helfen kann, sofern sie kontrolliert und transparent eingesetzt wird. Aufbauend auf diesen Erkenntnissen wird ZenDiS künftig eng mit dem Kompetenzzentrum für KI im Public Sector (KIPITZ) zusammenarbeiten. Ziel ist es, erste KI-Funktionen direkt in openDesk zu integrieren, um eine souveräne und praxisnahe Alternative zu schaffen.
Technologische Risiken ernst nehmen
Der Blick auf mögliche Effizienzgewinne darf die Risiken aber nicht ausblenden. KI-Modelle sind anfällig für Manipulation. Werden Trainingsdaten gezielt verfälscht, lassen sich Modelle systematisch in die Irre führen. Brisant wäre es, wenn solche Systeme über Anträge, Förderungen oder Ansprüche entscheiden sollen.
Ein weiteres Problem sind sogenannte Halluzinationen. Large Language Models (LLMs) präsentieren selbstbewusst falsche Informationen. Die Ursache ist ihre Funktionsweise: Sie berechnen lediglich die statistisch wahrscheinlichste Antwort, unabhängig von ihrem Wahrheitsgehalt. Fehlen Informationen, werden plausible Details erfunden. Selbst wenn alle Daten vorliegen, kann es zu Entgleisungen kommen, etwa wenn eine Antwort generiert wird, bevor ein hochgeladenes Dokument vollständig ausgelesen wurde.
Im Bürgerservice mag ein Fehler ärgerlich sein. In der Finanz- oder Bauverwaltung könnte er rechtlich folgenreich sein. Die Technologie ist noch nicht reif genug, um ohne menschliche Aufsicht zu funktionieren. Diese Einschätzung teilt auch Dr. Dieter Bolz, KI-Experte bei ZenDiS. Er betont, dass die Lösung nicht im Verzicht, sondern in der besonnenen Gestaltung der Technologie liegt: