Wie steht’s um eGovernment in Deutschland?
Corona hat zahlreiche Schwächen im deutschen eGovernment und im Digitalisierungsbereich offengelegt; andererseits aber auch gezeigt, wie schnell die öffentliche Hand auf Probleme reagieren kann. Welche Schlussfolgerungen lassen sich daraus ziehen?
„Eine kleine Krise würde uns mal guttun.“ So oder so ähnlich haben sich in den letzten Jahren viele Manager und Politiker ausgedrückt. Gemeint war, dass einige Bürger mal aufhören nur das Negative zu sehen, sich darauf besinnen, was wirklich wichtig ist und wichtige Entwicklungen wie z.B. der digitale Transformationsprozess beschleunigt werden.
An eine Krise wie die Corona-Pandemie hat dabei wohl keiner gedacht und mit Sicherheit auch niemand herbeigesehnt. Und dennoch haben wir alle erlebt, dass einiges, was gestern noch unmöglich war, plötzlich umgesetzt wurde. Videokonferenzen sind auf einmal selbstverständlich, Hunderttausende von Beamten und öffentlich Angestellten arbeiten von daheim, zentrale Tools wie der Universalprozess in Baden-Württemberg werden unkompliziert zur Verfügung gestellt und Software-Anwendungen wie z.B. die Corona-Warn-App wurden in unvorstellbaren Geschwindigkeiten umgesetzt. „Wir sollten mitunter unseren Perfektionismus über Bord werfen, weil er uns langsam macht.“ So brachte das Dorothee Bär, Digitalisierungsbeauftragte der Bundesregierung, auf den Punkt.
Aber leider wurden in der Corona-Krise auch die eGovernment-Versäumnisse, das Fehlen grundlegender Basisfunktionalitäten wie eine zuverlässige und benutzerfreundliche elektronische Identifikation, sichere Bezahlfunktionen oder breit akzeptierte Register, deutlich.
So mussten nach dem Shutdown im März 2020 ganz viele Leistungen ganz schnell digital angeboten werden, für die aber gerade diese Basisfeatures fehlten. Das Land Nordrhein-Westfalen musste z.B. die Antragstellung für die Corona-Soforthilfe 2020 vorerst stoppen, da wohl Betrüger die Antragsteller auf eigene Webseiten umgeleitet haben, dort die Daten derselben abgefragt und mit denen dann Anträge beim Land gestellt und das Geld selbst eingenommen haben. Hätte Nordrhein-Westfalen eine funktionsfähige und etablierte elektronische Identifikation zur Verfügung gehabt, wäre das nicht passiert.
Bezeichnenderweise war zwar der deutsche Personalausweis das erste Identifikationsmittel, welches gemäß der eIDAS-Verordnung durch die Europäische Kommission notifiziert wurde, scheint aber das letzte zu sein, was durch die deutsche Bevölkerung akzeptiert wird.
Zweifelhafte Identifikationsversuche über Mail wie das Versenden von Personalausweiskopien sind genauso wenig zielführend wie das persönliche Erscheinen im Bürgerbüro. Das erstere ist zu unsicher und das zweitere zu aufwändig. Damit wird sehr deutlich, dass wir eine fehlerfreie registerübergreifende Identifikation von Personen benötigen.
Auch die Tatsache, dass die e-Akte noch nicht flächendeckend eingeführt ist, erschwert aktuell das Arbeiten im Homeoffice. Die Alternative, Office-Dokumente per Mail zu versenden, ist nicht nur unsicher sondern verstößt auch gegen das Gebot der Aktenmäßigkeit. Es ist weder nachvollziehbar, wer wann Ergänzungen oder Änderungen vorgenommen hat, noch kann ein Vorgang rechtmäßig unterzeichnet werden, da häufig die Möglichkeit einer qualifizierten elektronischen Signatur fehlt.
Aber trotz aller Versäumnisse bin ich zuversichtlich, dass die Coronakrise den digitalen Transformationsprozess der Öffentlichen Verwaltung beschleunigt. Aufgrund eines erzwungenen „Social Distancing“ ist auch dem letzten klar geworden, wie wichtig es ist, Verwaltungsleistungen von zu Hause aus ohne Präsenz im Amt abrufen zu können. Und das ist auch nach Corona nicht nur wirtschaftlicher sondern auch bequemer. Mit diesem „neuen Druck“ von Bürgern und Wirtschaft wird – so glaube ich – einiges schneller entschieden und umgesetzt werden
Das Thema Digitale Souveränität beschäftigt derzeit Politik und Öffentliche Verwaltungen. Wie schätzen Sie als IT-Unternehmen hier die aktuelle Situation in Deutschland ein und wo sehen Sie Handlungsbedarf?
Digitale Souveränität, die Summe aller Fähigkeiten und Möglichkeiten von Individuen und Institutionen, ihre Rolle(n) in der digitalen Welt selbstständig, selbstbestimmt und sicher ausüben zu können, ist eins der IT-Buzzwords der letzten zwei Jahre. Doch nicht selten klafft Anspruch und Tun weit auseinander. Selbstverständlich will man souverän agieren; gleichzeitig aber ist man bereit seine Daten, Anwendungen und inzwischen auch komplette Teile der Infrastruktur Cloudanbietern zu überlassen, die nachweislich die geforderte Souveränität nicht leisten können (Stichwort „US Cloud Act“). Das fängt beim Bürger an, der seine intimsten Daten amerikanischen Social Media Unternehmen offenbart und gleichzeitig nicht bereit ist, Personalstammdaten öffentlichen Behörden zur Speicherung freizugeben. Und hört bei Verwaltungen auf, die ihre Daten lieber großen Cloudanbietern statt ihrem eigenen IT-Rechenzentrum überlassen. Dafür gibt es definitiv gute Gründe – sei es aufgrund des Leistungsversprechens oder der Wirtschaftlichkeit. Digitale Souveränität ist das aber nicht.
Um digital souverän zu sein, muss ich wissen, wann und wie ich das erreichen kann. Das geht nicht ohne eine entsprechende Qualifikation. Deshalb muss mehr Wert auf die digitale Ausbildung gelegt werden. Nur so kann zukünftig vermieden werden, dass Bürger bereitwillig ihr Privatleben gegenüber Facebook & Co. ausschütten, aber größte Bedenken haben, wenn ihre Anschriftsdaten in einem Portal der Bundesverwaltung hinterlegt sind.
Das bedeutet auch, dass sogenannte Echokammern (Systeme oder Situationen, in denen Überzeugungen durch Kommunikation und Wiederholung innerhalb eines geschlossenen Systems vertieft oder gefestigt werden) identifiziert und durchbrochen werden müssen. Da sind die Medien gefragt, nicht nur über ihre üblichen Kanäle zu kommunizieren und als „Fake News“ diffamiert zu werden, sondern sich genau in diese Echokammern zu begeben und für eine objektive Berichterstattung zu sorgen.
Digital souveränes Verhalten ist meiner Meinung nach immer auch mit dem Einsatz quelloffener Software verbunden. Nur auf dieser Basis nämlich ist eine wirklich ernsthafte Prüfung des Source Codes auf Korrektheit, Datenschutz etc. möglich.
Aber Open Source allein ist noch keine Lösung. Es bedarf auch internationaler IT-Standards. Und da muss man sich schon hin und wieder die Frage stellen, ob es nicht zielführender ist, statt nationale oder europäische Standards anzustreben sich mehr in weltweiten Standardisierungsgremien zu engagieren. Zumindest dann, wenn keine starke gemeinsame europäische Position aufgebaut werden kann, ist eine ergebnisorientierte direkte Zuarbeit zu internationalen Gremien oft erfolgsversprechender.
Zu beachten ist aber auch, dass globale Marktwirtschaft und Multilateralismus leider immer häufiger in Frage gestellt werden. In einer solchen Gemengelage ist es dann auch schwierig, Standards gegenüber großen amerikanischen Konzernen durchzusetzen. Dennoch halte ich es nicht für unmöglich. Würde die EU tatsächlich mal geschlossen auftreten, wären auch Rahmenbedingungen für mehr Souveränität möglich. Auch ein amerikanischer IT-Konzern wird nicht freiwillig auf die EU-Umsätze verzichten und wäre demnach auch zu Kompromissen bereit.
Bis dahin sollte aber weiterhin zweigleisig gefahren werden: Sich nicht allein auf die IT-Marktführer verlassen sondern eigene Infrastrukturen wie Bundescloud, GAIA-X etc. aufbauen.
Und dennoch muss Digitale Souveränität auch immer mit Augenmaß geschehen. Man will eine optimale Leistung zu wirtschaftlichen Konditionen und gleichzeitig unabhängig bleiben und keine Abhängigkeiten eingehen. Da fällt mir mein Lieblingsspruch ein: „You Can‘t Always Get What You Want“ – will heißen, beides gleichzeitig geht eben nicht immer.
Die Digitale Souveränität hat eben ihren Preis. Und damit ist ein Kompromiss unausweichlich: Es bleibt einem nur, sich „souverän“ zu entscheiden, ob einem der niedrigere Aufwand oder aber eine hohe Souveränität wichtiger sind.
In diesem Zusammenhang wird auch das Thema Open Source wieder intensiv diskutiert. Wie schätzen Sie hier die Situation ein und welche Herausforderungen sehen Sie hier für die öffentliche Hand?
Die grundsätzlichen Vorteile von Open Source-Lösungen liegen auf der Hand: Offene Schnittstellen, offene Dokumentation, offene Standards und öffentlicher Code steigern die Transparenz und verringern die Abhängigkeit.
Heute zeigt zum Beispiel die Diskussion um die Corona-Warn-App die Vorteile von quelloffenem Code. Die Community hat dadurch die Möglichkeit, Lösungen kritisch zu überprüfen und zu verbessern. Das Ergebnis sind Vertrauen und Glaubwürdigkeit. Open Source-Anwendungen sollen zudem Innovationen und Wettbewerb um die beste Lösung fördern, da sie nicht den Einschränkungen eines bestimmten Herstellers unterliegen.
Laut der im April 2019 veröffentlichten „State of Enterprise Open Source“-Studie von Red Hat glauben 99 Prozent der deutschen IT-Führungskräfte, dass Open Source-Software zumindest „ziemlich wichtig“ für ihre IT-Strategie ist. Damit ist Open Source längst Realität.
Geringere Lieferantenbindung (ein Austausch von Entwicklern ist durch den offenen Code leichter möglich), ein schnellerer Zugang zu Innovationen (Vielzahl von Anwendungen, die ständig optimiert, aber auch individuell angepasst werden können) und die Gewinnung qualifizierterer Fachkräfte (Entwicklung mit Open Source ist en vogue) sind nur drei wichtige Gründe, warum Softwareentwicklung ohne Open Source undenkbar geworden ist.
Und dennoch gibt es auch einige Herausforderungen, die für einen professionellen Open Source-Einsatz zu bewältigen sind.
Damit Open Source ein probates Mittel zur Verbesserung der Digitalen Souveränität bleibt bzw. wird, wäre es erstens erforderlich, dass die öffentliche Hand selbst (mehr) Open Source-Spezialisten einstellt oder ausbildet, um eine Weiterentwicklung auch jederzeit selbst übernehmen zu können. So gibt es inzwischen immer mehr Individualsoftwareprojekte, die von kommerziellen IT-Dienstleistern realisiert, die Wartung und Weiterentwicklung dann aber von öffentlichen IT-Dienstleistern übernommen wird.
Zweitens könnten auch die rechtlichen Rahmenbedingungen für den Einsatz von Open Source noch erheblich vereinfacht werden. Der Umgang mit GPL und OSS ist zwar eindeutig. Wenn es aber um die Softwarebibliotheken geht, ist jeder Einzelfall juristisch anders.
Als dritte Herausforderung schließlich stellen wir immer wieder fest, wenn wir die Weiterentwicklung bestehender Open Source-Anwendungen übernehmen, dass die Dokumentation gegenüber kommerzieller Software unzureichend ist.
Als schließlich größte Herausforderung sehe ich eine Verbesserung der Interoperabilität zwischen verschiedenen Open Source-Anwendungen, um gegen die integrierten Pakete der proprietären Hersteller bestehen zu können. Ziel müsste es sein, auch hier mehr auf Standards zu setzen.
Die OZG-Umsetzung kommt nun in die entscheidende Phase. Welche Herausforderungen sehen Sie hier für die öffentliche Hand und welche Unterstützung, glauben Sie, kann die Industrie hier bieten?
Die Umsetzung des OZG war und bleibt eine „Mammutaufgabe“, ist aber gleichzeitig der Treiber, den eGovernment-Durchbruch in Deutschland zu schaffen. Gut umgesetzt hätte Deutschland mit dem OZG ab 2023 die Chance auf eine weitreichend veränderte Behördenlandschaft, die nicht nur zu den führenden europäischen Digitalisierungsnationen aufgeschlossen hat, sondern so effizient, modern und nutzerfreundlich organisiert ist, dass viele weitere anstehende Aufgaben besser, schneller und kostengünstiger als bisher umgesetzt werden können.
Da aber längst noch nicht alle der 575 Verwaltungsleistungen digitalisiert wurden (den aktuellen Stand kann man der OZG-Informationsplattform entnehmen: informationsplattform.ozg-umsetzung.de), ist spätestens jetzt der richtige Zeitpunkt festzulegen, wieviele und welche der 575 Verwaltungsleistungen bis Ende 2022 noch digitalisiert werden sollen (ob tatsächlich alle noch umgesetzt werden können, lasse ich bewusst offen). Davon ausgehend braucht es Projektpläne, die – wie sich schon immer bewährt hat – von hinten geplant werden – ganz nach dem Motto „Was muss ich bis wann erreicht haben, um das Projektende sicherzustellen?“. Eine solche Planung findet nach meiner Wahrnehmung nur sehr rudimentär statt; bei noch 1,5 Jahren Laufzeit wäre aber eine Detailplanung vonnöten. Liegt es an der Komplexität des Projekts, daran, dass so viele Gremien mitentscheiden müssen oder aber an falsch verstandener Agilität (auch beim SCRUM-Vorgehen ist Projektmanagement der kritischste Erfolgsfaktor, wenn man Projekte in „time, budget, scope & quality“ abschließen will) – bei dieser Planung könnten IT-Unternehmen aber auf jeden Fall unterstützen, indem sie ihre Erfahrung aus Softwareprojekten der Industrie einbringen. Auch dort gibt es Großprojekte mit mehreren Jahren Laufzeit, die aber dennoch zu einem Stichtag den definierten Funktionsumfang zum vereinbarten Budget liefern müssen – andernfalls kann dann z.B. die Produktion nicht fortgesetzt werden, was mit enormen Umsatzeinbrüchen einher gehen würde.
Eine weitere wichtige Herausforderung ist die Durchsetzung des „Eine für alle“-Lösungsansatzes. Die durch unser föderales System bedingten Unterschiede bzgl. Verwaltungsabläufen, Datenmanagement und Verantwortlichkeiten sind so groß, dass es wirklich schwierig ist, gerade fertiggestellte Anwendungen auf alle Bedürfnisse hin anzupassen. In Industrieunternehmen gibt es das selbstverständlich auch: Da sind Systeme zu erstellen, die für das Mutterunternehmen, die Auslandsniederlassungen, die (meist noch sehr unabhängig agierenden) Tochterunternehmen und immer häufiger auch für diverse Lieferanten passen müssen. Anders als bei der öffentlichen Hand gibt es aber von vornherein eine gemeinsame Bereitschaft, das gleiche System einzusetzen. Daraus abgeleitet heißt das für Bund, Länder und Kommunen, dass ich mich bei der Realisierung aktiv einbringe, um meine eigenen Anforderungen zu formulieren oder aber bereit bin, ggf. Prozesse komplett zu ändern, damit die neue Software passt. Ich weiß, dass das sehr akademisch ist und den besonderen Rahmenbedingungen der öffentlichen Hand nicht unbedingt Rechnung trägt. Aber dennoch muss klar sein, dass wir ohne diese Bereitschaft eine Vielzahl von Anwendungen zum gleichen Thema haben werden. Selbstverständlich funktioniert das auch (soweit das den Anforderungen des Portalverbunds genügt), ist aber in der Realisierung und Weiterentwicklung teurer, bedarf fehleranfälliger Schnittstellen und hohen Aufwänden bei der Integration.
Zum Start der OZG-Umsetzung war Usability das Thema. eGovernmentAnwendungen werden nur akzeptiert, wenn sie auch benutzerfreundlich sind, d.h. einfach, schnell und ohne Medienbrüche zu bedienen sind. Mit der Etablierung der Digitalisierungslabore sowie neuen Vorgehensweisen (Design Thinking, Scrum, …) sind entscheidende Schritte vorgenommen worden, Prototypen und Konzepte vom Bürger aus zu denken und umzusetzen. Leider braucht es aktuell aber noch zu lange bis die Phase des Digitalisierungslabors abgeschlossen ist; für Konzeption, Realisierung und Einführung bleibt dann zu wenig Zeit.
Es gibt aber nicht nur die großen und komplexen Verwaltungsleistungen sondern auch ganz viele antragsbasierte Verfahren. Bevor auch diese jede Behörde für sich anfängt zu digitalisieren, wären Werkzeuge wie Baden-Württembergs Universalprozess sinnvoll, die das erheblich beschleunigen und dabei eine Zusammenarbeit vieler Behörden unterstützen.
Eine Herausforderung, von der man nur selten liest, ist die Integration der neuen OZG-Verfahren in die bestehende Systemlandschaft. Es reicht eben nicht, wenn Bürger und Wirtschaft Verwaltungsleistungen online nutzen können, sondern diese müssen auch komplett in die ITLandschaft der Behörden eingebunden sein. Den Bauantrag digital abrufbar zu machen, ist das eine, aber auch die Weiterbearbeitung muss ohne Medienbrüche umgesetzt werden, die digitalisierten Verwaltungsleistungen müssen vollständig in die bestehenden Fachverfahren integriert werden. Es kann nicht sein, dass Anträge zwar leicht erfasst werden können, diese dann aber in der Behörde ausgedruckt werden müssen, weil man dort noch Papierakten führt. Auch eine Neuerfassung aller Daten in ein bestehendes Fachverfahren verhindert den erhofften Produktivitätsgewinn. Eine Fachanwendungsintegration muss deshalb bei jeder OZG-Verwaltungsleistung mitgedacht werden.
Schlussendlich wird das OZG aber erst ein richtiger Erfolg, wenn die 575 Online-Verwaltungsleistungen auch von Bürgern und Wirtschaft genutzt werden. Die Berücksichtigung von Usability und Datenschutz ist zwar dafür notwendig aber nicht hinreichend. Dazu braucht es zusätzlich ein breit angelegtes Akzeptanzmanagement inkl. User-Einbindung, Marketing und Benutzersupport während der Einführung