Als Head of Data Solutions & AI verantwortet Christoph Hoffmann alle Data Science- und Engineering-Aktivitäten der PROCON IT. In seiner Rolle als Berater unterstützt er Kunden bei der Implementierung datengetriebender Anwendungen: Von spezialisierter Forschung über groß angelegte Softwareprojekte bis hin zum Aufbau von Data-Science-Abteilungen. Seine Leidenschaft gilt den organisatorischen Grundlagen von erfolgreichen Datenprodukten, Trailrunning und Stracciatella-Eis.
ChatGPT und Co. – Chancen, Risiken und Regulierung von generativer KI

In den letzten Jahren hat die Diskussion um Künstliche Intelligenz (KI) und ihre Auswirkungen auf unsere Gesellschaft stark zugenommen. Insbesondere generative KI-Systeme wie ChatGPT, die beeindruckend menschenähnliche Texte produzieren können, stehen im Mittelpunkt dieser Debatten. Doch was genau steckt hinter diesen Technologien und wie beeinflussen sie verschiedene Branchen?
Christoph Hoffmann ist Head of Data Solutions & AI bei PROCON IT und seit 2023 verantwortlich für die Geschäftsbereiche Data Engineering und Künstliche Intelligenz. Im folgenden Interview spricht er über seine Einschätzung der Chancen und Herausforderungen generativer KI.
Hallo Christoph, schön dass du dir die Zeit nimmst, um mit uns über Künstliche Intelligenz zu sprechen! Die ganze Welt redet von ChatGPT und Co. Kannst du uns helfen, diese Entwicklung einzusortieren?
Sehr gerne! Der Chatbot ChatGPT von OpenAI wurde im November 2022 veröffentlicht und besitzt die unheimliche Fähigkeit, Texte zu produzieren, die wirken, als wären sie von Menschenhand geschrieben. Damit zählen Sie zu einer Art von Künstlicher Intelligenz (KI), die wir „Generative KI“ (GenAI) nennen. Diese komplexen Systeme werden auf großen Datenmengen angelernt und können Objekte generieren, die den Trainingsdaten ähneln.
Vor GPT basierten kommerzielle KI-Anwendungen vor allem auf „prädiktiver KI“, also Systemen, die Muster in Input-Output-Beispielen finden, um für einen neuen Input eine Output-Vorhersage zu treffen. So habe ich in den Anfängen meiner Data-Science-Karriere zum Beispiel ein KI-Modell entwickelt, das aus dem Alter und Materialeigenschaften von Stromkabeln vorhersagt, ob ein Kurzschluss bevorstehen könnte.
Vergleichen wir diese beiden Anwendungsfälle können wir zwei Treiber identifizieren, die den Impact von generativer KI erklären. Auf der einen Seite sind prädiktive Modelle häufig hoch speziell: Über Monate haben mehrere Data Scientists verschiedene Input-Größen und Modellarchitekturen verprobt, um die Vorhersagekraft des Modells zu optimieren. Das resultierende System konnte genau eine Sache: Vorhersagen, wann ein Kabel kaputt geht. ChatGPT verwendet dagegen ein Basismodell, das Anfragen zu allen möglichen Anwendungsfällen beantworten kann: Von der Übersetzung eines Schriftstücks über die Erstellung eines Blogartikels bis zur Zusammenfassung von Texten.
Neben dieser Vielseitigkeit hat sich auf der anderen Seite der Zugang zu KI vereinfacht. Früher war er KI-Spezialisten vorbehalten, die obskure Programmierframeworks und mathematische Modelle beherrschten. Heute reichen natürliches Sprachvermögen und ein Chatfenster.
Diese Vielseitig- und Zugänglichkeit führt zu einer Entwicklung, die ich „Demokratisierung von KI“ nenne.
Demokratisierung ist immer gut Christoph! Aber hast du nicht Angst, dass du dann in Zukunft arbeitslos wirst?
(lacht) Ganz im Gegenteil! Für Beratungsfirmen wie die PROCON IT ergeben sich gerade jetzt herausragende Möglichkeiten!
Zunächst werden hochspezielle prädiktive KI-Modelle auch weiterhin nachgefragt. So entwickeln wir zum Beispiel für die fertigende Industrie KI-Modelle, die Produktionsanlagen prädiktiv wartbar machen. Installierte Sensorik liefert hier Informationen über den Zustand der Maschine und signalisiert, wann ein Maschinenversagen wahrscheinlicher wird. So können Service-Teams vorsorgend eingreifen. Für die Präzisionslandwirtschaft entwickeln wir Kameras, die Schad- von Nutzpflanzen unterscheiden können und durch gezielte Aussteuerung der Spritzanlagen den Pestizidmitteleinsatz minimieren. Beide Anwendungsfälle vereint, dass sie das Kerngeschäft der jeweiligen Firmen betreffen. Wettbewerbsvorteile und Investitionsbereitschaft bleiben daher auch bei prädiktiver KI hoch.
Im Geschäftsfeld „Generative KI“ ergeben sich insbesondere in dokumentenlastigen Unternehmen und Unternehmensfunktionen Potenziale. Hier kann GenAI bei der Erzeugung von Marketingmaterialien, Ausschreibungsunterlagen oder dem Formatieren von Texten unterstützen. Wir entwickeln zum Beispiel Anwendungen für Behörden, die wissenschaftliche Mitarbeiterinnen und Mitarbeiter bei der Zusammenfassung und Erstellung von Anfragen unterstützen sollen. Dies wird bürokratische Aufwände in Zukunft deutlich reduzieren und Prozesse beschleunigen.
Um die generative KI auf das spezifische Kundenszenario anzupassen, kommen sogenannte RAG-Architekturen (Retrieval Augmented Generation) zum Einsatz. Hier wird das generische Basismodell mit spezifischen Kundendaten angereichert, um die Genauigkeit und Verlässlichkeit der KI zu erhöhen. Wir unterstützen hier, indem wir maßgeschneiderte RAGs für unsere Kunden entwickeln und in ihre Bestandsarchitektur integrieren.
Neben der Operationalisierung von KI legen wir auch das Fundament für erfolgreiche Umsetzungsstrategien. Durch Strategie- und Use-Case-Workshops, Organisations- und Prozessberatung sowie Datenanbindung und -aufbereitung schaffen wir die Voraussetzungen, um das eigene Geschäftsmodell nachhaltig zu optimieren.
Das klingt fast schon zu schön, um wahr zu sein! Gerade in den Medien und der Bevölkerung begegnen uns aber auch große Sorgen in Bezug auf KI! Welche Risiken entstehen durch den Einsatz von Künstlicher Intelligenz und wie sollten Unternehmen darauf reagieren?
Das Schreckgespenst einer allwissenden und autonom handelnden KI sollte dringend zurückgewiesen werden. ChatGPT hat zwar beeindruckende Fähigkeiten, generiert aber am Ende des Tages auch nur das Wort mit der höchsten Wahrscheinlichkeit, ohne beurteilen zu können, ob es sinnvoll ist oder nicht. Ein Phänomen, das unter dem Begriff „Halluzinieren“ bekannt geworden ist.
Stattdessen sprechen wir lieber von individuellen Systemen für spezifische Kundenszenarien. In Kundengesprächen begegnen mir häufig drei Herausforderungen, die den erfolgreichen Einsatz von KI gefährden.
Neu durch die Einführung von GenAI sind Datenschutzbedenken und Urheberrechtsrisiken. Basismodelle werden in der Regel von Drittanbietern trainiert und dann über eine API oder als Artefakt zur Verfügung gestellt. Wenn sich der Lernprozess auf urheberrechtlich geschütztes Material stützt, kann das Modell diese Information replizieren und dadurch das Urheberrecht verletzen. Dieses Risiko wird im Rahmen der europäischen EU-AI-Verordnung adressiert. Bis dahin müssen Anwender ihre Modellprovider sorgfältig prüfen.
Viele Unternehmen befürchten auch die Weitergabe und Vervielfältigung von unternehmenseigenen Informationen. Diese Gefahr entsteht grundsätzlich, wenn KI-Provider über APIs angebunden werden oder sowohl die Datenquellen der RAGs als auch der Endnutzerinput datenschutzrelevant sind. Hier empfehlen wir unseren Kunden ihre Architekturen mit erweiterten Sicherheitsmaßnahmen zu flankieren. Dies reicht von einfachen Anwenderrichtlinien bis zu vollständigen Thread-Detection- und -Monitoring-Lösungen.
Ein weiteres Risiko beim Einsatz von KI ergibt sich aus der Undurchsichtigkeit der Modelle. Jede komplexere KI bildet komplizierte Wirkungszusammenhänge ab, die sich einfachen Erklärungsversuchen entziehen und daher für den Endanwender undurchsichtig erscheinen. Dies trifft insbesondere auch auf GenAI-Modelle zu, die als „Black Boxes“ von Drittanbietern gehostet werden. Die Folge sind Akzeptanzschwierigkeiten. Durch Data-Literacy-Programme und „Explainable AI“ kann diesen Vorbehalten begegnet werden.
Klingt danach als müssten Unternehmen eine Menge beachten, wenn sie Künstliche Intelligenz einsetzen wollen. Jetzt steht auch noch die europäische KI-Verordnung vor der Tür! Was hat es damit auf sich und unterstützt du auch hier?
Wir helfen, wo wir können: Durch Webinare, Veröffentlichungen und Umsetzungsberatung. Der europäische Gesetzgeber hat das Potential von KI und die damit einhergehenden Risiken erkannt und greift regulierend ein. Am 1. August tritt die KI-Verordnung der Europäischen Union in Kraft und verpflichtet insbesondere Anbieter und Betreiber von KI-Systemen zu risikomindernden Maßnahmen. Die Anwendbarkeit des Gesetzes streckt sich durch einen gestaffelten Inkrafttretungsprozess auf sechs bis 36 Monate. Art und Umfang der Anforderungen richten sich nach vier Risikoklassen: unakzeptable Risiken, Hochrisikosysteme, Basismodelle sowie Systeme mit geringem Risiko.
KI-Systeme mit nicht akzeptablen Risiken werden zukünftig verboten. Darunter fallen KI-Systeme zum Social Scoring oder Systeme, die Techniken unterschwelliger Beeinflussung einsetzen und geeignet sind, einen erheblichen Schaden zu verursachen.
Hochrisikosysteme können negative Effekte auf Sicherheit und fundamentale Rechte haben, beispielsweise bei Verwendung in medizinischen Produkten oder kritischer Infrastruktur. Diese Systeme müssen künftig freigegeben und kontinuierlich überwacht werden.
Für GenAI-Anwendungen wird es eine Offenlegungspflicht geben, sodass Endnutzer über den Einsatz von KI informiert sind. Anbieter von Basismodellen müssen in Zukunft Transparenzverpflichtungen über Trainingsdaten und ihre Urheberrechte abgeben. An KI-Systeme mit begrenztem Risiko werden künftig minimale Transparenzanforderungen gestellt. Auch hier sollen Endanwender grundsätzlich in die Lage versetzt werden, informierte Entscheidungen im Umgang mit KI-Systemen zu treffen.
Zur Umsetzung der neuen Rechtsanforderungen hat CONET das Maßnahmenpaket “AI-READY“ entwickelt. Dabei begleiten erfahrene KI-Berater die Inventarisierung und Klassifizierung von KI-Modellen, um Anforderungen zu Identifizieren und geeignete Lösungen zu implementieren. Gerne informieren wir Sie bei Interesse im Detail.
Einen weitergehenden Einblick in das Thema Künstliche Intelligenz bieten die beiden CONET-Podcast-Folgen Fokus KI mit Christoph Hoffmann. In der ersten Folge geht es um Chancen und Risiken und die Reaktion des Europäischen Gesetzgebers. Im zweiten Teil geht Christoph Hoffmann auf die Praxis bei der Verwendung von KI in Projekten ein. Wann lohnt sich der Einsatz von KI und wie begegnen wir Stakeholdern mit eventuellen Ängsten?