ChatGPT und Co - Chancen, Risiken und Regulierung von generativer KI

Seit über zwei Jahren gehört die CONET ISB zur CONET-Gruppe. In der CONET-Gruppe sind alle Experten zum Thema KI übergreifend im sogenannten Leistungsfeld KI organisiert und vernetzt. Im Folgenden findet sich ein Interview mit Christopher Hoffmann bei unserer Schwestergesellschaft PROCON IT. Das Gespräch führte Oliver Buchleither, Teamleiter im Bereich Schule und Bildung bei CONET ISB GmbH. 

Hallo Christoph, ich bedanke mich, dass du dir die Zeit nimmst, um mit uns über Künstliche Intelligenz zu sprechen. Die ganze Welt redet von ChatGPT und Co. Kannst du uns helfen, diese Entwicklung einzusortieren?

Sehr gerne. OpenAI's Chatbot ChatGPT wurde im November 2022 veröffentlicht und besitzt die unheimliche Fähigkeit, Texte zu produzieren, die wirken, als wären sie von Menschenhand geschrieben. Damit zählen sie zu einer Art Künstlicher Intelligenz, die wir „Generative KI" (GenAI) nennen. Diese komplexen Systeme werden auf großen Datenmengen angelernt und können Objekte generieren, die den Trainingsdaten ähneln. Vor GPT haben kommerzielle KI-Anwendungen vor allem auf „prädiktiver KI“ basiert, also Systemen, die Muster in Input-Output-Beispielen finden, um für einen neuen Input eine Output-Vorhersage zu treffen. So habe ich in den Anfängen meiner Data Science-Karriere beispielsweise ein KI-Modell entwickelt, welches aus Vibrationssensoren und Steuerungselektronik einen notwendigen Wartungstermin definiert.

Vergleichen wir diese beiden Anwendungsfälle, können wir zwei Treiber identifizieren, die den Impact von generativer KI erklären. Auf der einen Seite sind prädiktive Modelle häufig hoch speziell: über Monate haben mehrere Data Scientisten verschiedene Input-Größen und Modellarchitekturen verprobt, um die Vorhersagekraft des Modells zu optimieren. Das resultierende System konnte genau eine Sache: vorhersagen, wann ein Kabel defekt ist. ChatGPT verwendet dagegen ein Basismodell, das Anfragen zu allen möglichen Anwendungsfällen beantworten kann: von der Übersetzung eines Schriftstücks über die Erstellung eines Blog-Artikels bis hin zur Zusammenfassung von Texten. Neben dieser Vielseitigkeit hat sich auf der anderen Seite der Zugang zu KI vereinfacht. Früher war es KI-Spezialisten vorbehalten, die obskure Programmierframeworks und mathematische Modelle beherrschten. Heute reichen natürliches Sprachvermögen und ein Chatfenster.

Diese Vielseitigkeit und Zugänglichkeit führte zu einer Entwicklung, die ich als „Demokratisierung von KI“ bezeichne.

Demokratisierung ist immer gut! Aber hast du nicht Angst, dass du dann in Zukunft arbeitslos wirst?

) Ganz im Gegenteil! Für Beratungsfirmen wie die CONET-Gruppe ergeben sich gerade herausragende Möglichkeiten. Zunächst werden hochspezielle prädiktive KI-Modelle auch weiterhin nachgefragt. So entwickeln wir zum Beispiel für die fertigende Industrie KI-Modelle, die Produktionsanlagen prädiktiv wartbar machen. Installierte Sensorik liefert hier Informationen über den Zustand der Maschine und signalisiert, wann ein Maschinenversagen wahrscheinlicher wird. So können Servicemitarbeiter vorsorgend eingreifen. Für die Präzisionslandwirtschaft entwickeln wir gerade Kameras, die Schadvon Nutzpflanzen unterscheiden können und durch gezielte Aussteuerung der Spritzanlagen den Pestizidmitteleinsatz minimieren. Beide Anwendungsfälle vereint, dass sie das Kerngeschäft der jeweiligen Firmen betreffen. Wettbewerbsvorteile und Investitionsbereitschaft bleiben daher auch bei prädiktiver KI hoch. Im Geschäftsfeld „Generative KI" ergeben sich insbesondere in dokumentenlastigen Unternehmen und Unternehmensfunktionen Potenziale. Hier kann GenAI bei der Erzeugung von Marketingmaterialien, Ausschreibungsunterlagen oder dem Formatieren von Texten unterstützen. Wir entwickeln zum Beispiel Anwendungen für Behörden, die wissenschaftliche Mitarbeiter bei der Zusammenfassung und Erstellung von Anfragen unterstützen sollen. Dies wird bürokratische Aufwände in Zukunft deutlich reduzieren und Prozesse beschleunigen. Um die generative KI auf das spezifische Kundenszenario anzupassen, kommen sogenannte RAG-Architekturen (Retrieval Augmented Generation) zum Einsatz. Hier wird das generische Basismodell mit spezifischen Kundendaten angereichert, um die Genauigkeit und Verlässlichkeit der KI zu erhöhen. Wir unterstützen hier, indem wir maßgeschneiderte RAGs für unsere Kunden entwickeln und in ihre Bestandsarchitektur integrieren. Neben der Operationalisierung von KI legen wir auch das Fundament für erfolgreiche Umsetzungsstrategien. Durch Strategie- und Use CaseWorkshops, Organisations- und Prozessberatung sowie Datenanbindung und -aufbereitung schaffen wir die Voraussetzungen, um das eigene Geschäftsmodell nachhaltig zu optimieren.

Das klingt fast zu schön, um wahr zu sein. Gerade in den Medien und der Bevölkerung begegnet mir aber auch große Sorge in Bezug auf KI! Welche Risiken entstehen denn durch den Einsatz von Künstlicher Intelligenz und wie sollten Unternehmen darauf reagieren?

Das Schreckgespenst einer allwissenden und autonom handelnden KI sollte dringend zurückgewiesen werden. ChatGPT hat zwar beeindruckende Fähigkeiten, generiert aber am Ende des Tages auch nur das nächste, statistisch am wahrscheinlichste Wort, ohne beurteilen zu können, ob es sinnvoll ist oder nicht. Ein Phänomen, das unter dem Begriff „Halluzinieren“ bekannt geworden ist. Stattdessen sprechen wir lieber von individuellen Systemen für spezifische Kundenszenarien. In Kundengesprächen begegnen mir häufig drei Herausforderungen, die den erfolgreichen Einsatz von KI gefährden. Neu durch die Einführung von GenAI sind Datenschutzbedenken und Urheberrechtsrisiken. Basismodelle werden in der Regel von Drittanbietern trainiert und dann über eine API oder als Artefakt zur Verfügung gestellt. Wenn sich der Lernprozess auf urheberrechtlich geschütztes Material stützt, kann das Modell diese Information replizieren und dadurch das Urheberrecht verletzen. Dieses Risiko wird im Rahmen der europäischen EU AI Verordnung adressiert. Bis dahin müssen Anwender ihre Modellprovider sorgfältig prüfen. Viele Unternehmen befürchten auch die Weitergabe und Vervielfältigung von unternehmenseigenen Informationen. Diese Gefahr entsteht grundsätzlich, wenn KI-Provider über APIs angebunden werden oder die Datenquellen der RAGs als auch der Endnutzerinput datenschutzrelevant sind. Hier empfehlen wir unseren Kunden, ihre Architekturen mit erweiterten Sicherheitsmaßnahmen zu flankieren. Dies reicht von einfachen Anwenderrichtlinien bis zu vollständigen Thread-Detection und -Monitoring-Lösungen.

Ein weiteres Risiko beim Einsatz von KI ergibt sich aus der Undurchsichtigkeit der Modelle. Jede komplexere KI bildet komplizierte Wirkungszusammenhänge ab, die sich einfachen Erklärungsversuchen entziehen und daher für den Endanwender undurchsichtig erscheinen. Dies trifft insbesondere auch auf GenAI-Modelle zu, die als „Black Boxes“ von Drittanbietern gehostet werden. Die Folge sind Akzeptanzschwierigkeiten. Durch Data-Literacy-Programme und „Explainable AI" kann diesen Vorbehalten begegnet werden.

Klingt danach als müssten Unternehmen eine Menge beachten, wenn sie Künstliche Intelligenz einsetzen wollen. Jetzt steht auch noch die europäische KI-Verordnung vor der Tür. Was hat es damit auf sich und unterstützt die CONET auch hier?

Na klar, wir helfen, wo wir können: durch Webinare, Veröffentlichungen und Umsetzungsberatung. Der europäische Gesetzgeber hat das Potenzial von KI und die damit einhergehenden Risiken erkannt und greift regulierend ein. Das Europäische Parlament hat im März 2024 das Gesetz verabschiedet. Bis zum Inkrafttreten muss das Gesetz jedoch noch weitere definierte Schritte gehen, wie beispielsweise den der notwendigen Veröffentlichung. Mit dem Abschluss des Verfahrens wird vor Juli dieses Jahres gerechnet. Es startet dann ein gestaffelter Inkrafttretungsprozess, der sich zwischen sechs und sechsunddreißig Monaten strecken wird. Art und Umfang der Anforderungen werden sich nach vier Risikokategorien richten:

  • unakzeptable Risiken,
  • Hochrisikosysteme,
  • Basismodelle und GenAI sowie
  • Systeme mit geringem Risiko.

 

KI-Systeme mit nicht-akzeptablen Risiken werden zukünftig verboten. Darunter fallen KI-Systeme zum Social Scoring oder die Techniken unterschwelliger Beeinflussung einsetzen und geeignet sind, einen erheblichen Schaden zu verursachen. Hochrisikosysteme können negative Effekte auf Sicherheit und fundamentale Rechte haben, beispielsweise bei Verwendung in medizinischen Produkten oder kritischer Infrastruktur. Diese Systeme müssen künftig freigegeben und kontinuierlich überwacht werden. Für GenAI-Anwendungen wird es eine Offenlegungspflicht geben, so dass Endnutzer über den Einsatz von KI informiert sind. An KI-Systeme mit begrenztem Risiko werden künftig minimale Transparenzanforderungen gestellt. Auch hier sollen Endanwender in die Lage versetzt werden, informierte Entscheidungen im Umgang mit KI-Systemen zu treffen. Für Unternehmen, die sich bereits jetzt auf die neuen Rechtsanforderungen vorbereiten wollen, haben wir das Umsetzungspaket „AI-Readiness 2024" entwickelt. Dabei begleiten erfahrene KI-Berater die Inventarisierung und Klassifizierung von KI-Modellen, um künftige Anforderungen zu Identifizieren und geeignete Lösungen zu implementieren.