Sie haben folgende Möglichkeiten:
  1. zum Login.
  2. zur Navigation.
  3. zum Inhalt der Seite.

Wolfhart Fabarius: Erst wenn ChatGPT mit den nötigen Informationen gefüttert wird, kann der Chatbot zu einer sinnvollen Finanzplanung beitragen (Foto: Privat)
Einsatz von KI in der Unternehmenspraxis

Wolfhart Fabarius: „Am Ende ist die menschliche Entscheidungsfähigkeit ausschlaggebend.“

ESV-Redaktion Recht
28.08.2023
Die Bedeutung von Künstlicher Intelligenz (KI) wächst rasant. Ein Beispiel hierfür ist ChatGPT. Über die Möglichkeiten, den Bot schon heute in der Unternehmenspraxis einzusetzen, hat Wolfhart Fabarius aus der Redaktion Management & Wirtschaft des Erich Schmidt Verlags jetzt ein Buch veröffentlicht. Ein Anlass für seinen Kollegen aus der Online-Redaktion Recht, sich mit ihm darüber zu unterhalten. Selbstverständlich ging es dabei auch um die Frage, inwieweit KI den Menschen ersetzen kann und darf.
KI und insbesondere ChatGPT kann in alle Lebensbereiche vordringen. Als Chatbot macht das Tool Dialoge zwischen Mensch und Maschine möglich. Gerade für Unternehmen schafft der Bot ungeahnte Möglichkeiten.

Lieber Wolfhart, ich bleibe als Dein Kollege beim „Du“, was ist das Besondere an ChatGPT?

Wolfhart Fabarius: Wer sich mit ChatGPT beschäftigt, wird erstaunt sein, wie natürlich und flüssig der Chatbot seine Antworten gibt. Das ist schon sehr nah dran an der menschlichen Sprechweise. ChatGPT kann sich innerhalb eines Chats dem Sprachjargon des menschlichen Gegenübers anpassen. Auf der einen Seite ist es interessant zu sehen, wie gut die KI in dieser Hinsicht trainiert ist. Auf der anderen Seite besteht die Gefahr, dass Nutzerinnen und Nutzer von freundlichen Sprachmodellen wie ChatGPT geblendet und abgelenkt werden. Sie könnten dadurch dazu neigen, eine stärkere emotionale Verbindung zu dem Modell aufzubauen und es möglicherweise als vertrauenswürdiger oder intelligenter betrachten, als es tatsächlich ist.

Wie hast Du ChatGPT kennengelernt und was war der Anlass dafür?

Wolfhart Fabarius: Es begann Anfang dieses Jahres mit der Anfrage eines Buchautors in unserem ESV-Lektorat. Der Autor fragte, ob er Texte aus ChatGPT als Quelle in den von uns verlegten Fachbüchern nennen darf. Und die Frage ging weiter: Kommt ChatGPT gar als Co-Autor in Frage?

Ich hatte zu diesem Zeitpunkt einiges über ChatGPT gelesen und gehört, den Chatbot selbst aber noch nicht ausprobiert. Wir kamen im Lektorat aber schnell überein: ChatGPT für Recherchen nutzen ist okay, eine Co-Autorenschaft kommt aber nicht in Frage. Dann habe ich mich Anfang März bei OpenAI angemeldet, um ChatGPT selbst zu testen. Das war eine spannende Erfahrung.

Wolfhart Fabarius ist Journalist, Autor und Lektor: 

  • Seit 2020 ist er Redakteur und Lektor im Lektorat Management und Wirtschaft des Erich Schmidt Verlags und Chefredakteur der Zeitschrift für Risikomanagement.
  • Nach Abschluss seines Magisterstudiums Germanistik und Wirtschaftswissenschaften in Oldenburg zog der gebürtige Bremer im Jahr 2000 nach Berlin. Zu seinen journalistischen Themengebieten zählen Finanzierung, Alternative Investmentfonds, Schifffahrt und Corporate Governance. 2014 veröffentliche er als Herausgeber und Autor das eBook „ShipPress 2014 – Studie über Schiffsfinanzierung“. Von 2014 bis 2019 war er Redakteur beim Täglichen Hafenbericht der DVV Media Group in Hamburg.

Was waren damals Deine Grundannahmen in Bezug auf die Fähigkeiten von ChatGPT?

Wolfhart Fabarius: Im Grunde ging ich von drei Thesen aus. Erstens: ChatGPT kann keine Autorenschaft übernehmen, weil ein Chatbot keine eigenen Themen und Ideen hervorbringt, sondern nur die Daten verarbeitet, mit denen trainiert wurde. Erschwerend kommt hinzu, dass die ursprünglichen Quellen in der Regel nicht genannt werden. Zweitens: Auch Chatbots können irren. ChatGPT speist sich überwiegend aus Informationen aus der westlichen Welt, insbesondere den USA. Die Antworten sind also nach westlichen Denkmustern gefärbt. Und drittens: Neue Technologien wie ChatGPT lassen sich weder verhindern noch verbieten. Vielmehr sollten Wege gefunden werden, die KI sinnvoll und verantwortungsvoll zu nutzen.

Du hast dann ja sehr schnell ein Buch über den Chatbot geschrieben, das jetzt im Erich Schmidt Verlag erschienen ist? Wie bist Du auf die Idee gekommen, in so kurzer Zeit ein Buch darüber zu schreiben?

Wolfhart Fabarius: Nach meinem Start bei OpenAI habe ich mich gut eine Woche sehr intensiv mit ChatGPT beschäftigt. Das begann mit einfachen Fragen über die KI selbst, ich habe ChatGPT Aufsätze zu allen möglichen Themengebieten schreiben lassen: Recht und Wirtschaft, Kultur und Gesellschaft, Sprache und Literatur, um nur einige zu nennen. Mir kamen immer neue Ideen für Themen und Aufgaben für die KI.

Als ich dann diesen umfassenden Live-Test mit dem Gefühl abschloss, die Chancen, aber auch die Risiken von ChatGPT weitgehend erfasst zu haben, reifte schnell die Idee, darüber ein Buch zu schreiben. Schließlich hatte ich eine Fülle von Daten zusammengetragen. Die wichtigste Aufgabe war es dann, diese Daten zu sondieren und vor allem zu verifizieren. Mir geht es vor allem darum, mit diesem Buch einen Beitrag zu leisten, mit der KI sinnvoll und verantwortungsbewusst umzugehen.

Worum geht es in dem Buch konkret?

Wolfhart Fabarius: Es geht vor allem darum, die Chancen und Risiken von ChatGPT aufzuzeigen: Wo hat die KI ihre Stärken? Wo begeht sie Fehler? Welche Gefahren erwachsen aus den Fehlern? Im Kern geht es jedoch um die Chancen, die der Chatbot für das tägliche Arbeiten in Unternehmen bietet, insbesondere für Akteure, die Verantwortung im Risikomanagement, im Controlling und in der Compliance tragen.
ESV im Dialog – Sie hören Recht – Folge 10: „Der Einsatz von ChatGPT in Unternehmen“ 


Du lässt den Chatbot selbst darlegen, welche Rolle er dort übernehmen kann – und welche nicht. Du arbeitest insoweit mit vielen Beispielen. Welches würdest Du hervorheben und wie würdest Du dieses einschätzen?
 
Wolfhart Fabarius:
Lass uns zunächst noch eine Ebene höher gehen: Auf die Frage, in welchen Punkten eine KI ein besserer Firmenchef wäre als ein Mensch, nennt die KI fünf Bereiche: Automatisierung, Datenanalyse, Vorhersage von Trends, Konsistenz bei Entscheidungen und schnelle Entscheidungsfindung. In den ersten drei Punkten stimme ich zu. Hinsichtlich Konsistenz und Schnelligkeit habe ich jedoch meine Bedenken. ChatGPT gibt tatsächlich sehr schnell Antworten. Aber reichen die berücksichtigten Daten aus, um auch eine sinnvolle Entscheidung treffen zu können? Sind tatsächlich alle relevanten Punkte hinreichend und korrekt erfasst worden? Dies zu beurteilen, um dann entscheiden zu können, übersteigt die Fähigkeiten von ChatGPT. Dafür begeht diese KI auch noch zu viele Fehler. Das dürfte sich bei zukünftigen Versionen dieses Chatbots ändern. Aber an diesem Punkt sind wir noch nicht. Außerdem können emotionale Aspekte innerhalb einer Entscheidungsfindung durchaus sinnvoll sein, beispielsweise wenn es um Personalfragen geht.

Aber zurück zum Ausgang deiner Frage: Für das Risikomanagement zum Beispiel gibt der Chatbot an, hilfreich zu sein bei der Datenanalyse, um die Risiken eines Projekts zu bewerten. Für Frühwarnsysteme kann die KI Warnsignale erkennen, bevor sie zu einem größeren Problem werden. Die KI kann dabei helfen, Risiken klar und verständlich zu formulieren, damit die Verantwortlichen besser kommunizieren können. Das sind nur einige Punkte, die ChatGPT nach eigenem Bekunden unterstützen kann und da sehe ich tatsächlich großes Potenzial.

Anschließend hast Du den Chatbot Risikomanagement-Konzepte aufsetzen lassen. Themengebiete waren hier der Einsatz Künstlicher Intelligenz in Unternehmen, die Abwehr von Cyberangriffen und die Überwachung von Lieferketten. Auch lieferst Du zahlreiche Beispiele. Welches hat Dich hier besonders beeindruckt und wie bewertest Du dieses?
 
Wolfhart Fabarius: Jedes Konzept steht für sich, da würde ich jetzt keins aufgrund seiner Qualität über die anderen stellen. Ich hatte mir extra Themengebiete ausgesucht, in denen mir ChatGPT beim ersten Live-Test gute und weiterführende Antworten geliefert hatte. Wir müssen dabei bedenken, dass die Version GPT-3.5, mit der ich gearbeitet habe, noch auf dem Stand von September 2021 ist und über die Zeit danach keine Kenntnisse hat. Deshalb sind diese Beispiele eine Momentaufnahme. Ich will vor allem das Vorgehen vermittelt, wie sich solche Konzepte mit der KI generieren lassen. Das geht natürlich nicht nur mit der einen Anfrage „Schreibe mir mal eben ein Konzept für die Abwehr von Cyberangriffen“. Die Antworten von ChatGPT belaufen sich in der Regel auf bis zu 600 Wörter. Da ist dann eine ganze Reihe von Anfragen nach einem bestimmten Schema notwendig, um am Ende zu einem hilfreichen Ergebnis zu kommen. Also: Beeindruckt haben mich alle generierten Konzepte, persönlich am meisten interessiert hat mich das Thema Lieferketten. Deshalb habe ich da auch am meisten Nachfragen gestellt und mit Unterstützung von ChatGPT beispielhafte Risikoberichte aufgesetzt.

Der kostenlosenNewsletter Manangement & Wirtschaft 
Redaktionelle Meldungen zu neuen Entwickungen, Interviews und Literaturtipps.

 
Welche weiteren Anwendungsbereiche von KI sieht ChatGPT und welche Anwendungsbereiche siehst Du selbst?

Wolfhart Fabarius: Die Liste der Anwendungsbereiche, die ChatGPT für sich in Anspruch nehmen würde, ließe sich wahrscheinlich bis in die Unendlichkeit ausdehnen, weil sich der Chatbot immer neue Anwendungen ausdenken würde. Deshalb nenne ich jetzt mal nur die, die ich als besonders hilfreich einschätze:

Da ist etwa die Finanzplanung: ChatGPT kann Finanzberichte und Prognosen auswerten – aber nicht selbst erstellen, wie es behauptet, denn die Datenbasis hat wie gesagt den Stand September 2021. Die KI ist auch nicht in der Lage, aktuelle Webseiten zu durchstöbern. Man muss also schon den Chatbot mit den notwendigen Informationen füttern. Erst dann kann ChatGPT zu einer sinnvollen Finanzplanung beitragen und  Unternehmen dabei helfen, ihre Finanzen besser zu verwalten und Investitionen zu planen.

Gleiches gilt für die Entwicklung von Geschäftsmodellen mit GPT. Auch hier sind die aktuellen Marktveränderungen zu berücksichtigen, die sich die KI nicht von allein beschafft, zumindest nicht in der vorliegenden Version. Das wird sich sicher bald schon ändern.

Weiterer Punkt: Website-Codes erstellen. Da kann sich bei der KI zwar ein Fehler einschleichen. Aber auf Nachfrage erkennt sie die Fehler selbst und bessert sie aus. Oder der Chatbot bietet eine Optimierung an, mit der sich die Funktionen erweitern lassen. Und sonst: Kundensupport, Sprachübersetzung, Textanalyse, Reiseplanung und Planung von Veranstaltungen. Die Liste ist wirklich lang.

Kennst Du Fälle, in denen der Einsatz von KI auch negative Folgen hatte?

Wolfhart Fabarius: Ich hatte eingangs erwähnt, dass die KI mit ihren menschenähnlichen und freundlichen Antworten dazu verleiten kann, ein zu großes Vertrauen zur KI aufzubauen und dadurch auch Inhalte als glaubwürdig einzustufen, die sich bei weiterer Recherche als falsch erweisen würden.

Zu den konkreten Fällen: Bei der Gesichtserkennung der KI kam es bereits zur Diskriminierung, beispielsweise wegen des Geschlechts oder der Hautfarbe. Ähnliche Diskriminierung ist auch schon in Bewerbungsverfahren aufgetreten, in denen die eingesetzte KI eine verzerrte Vorauswahl traf. Außerdem können in der Strafjustiz Verzerrungen auftreten. Und ganze Wahlen wurden nicht zuletzt durch den Einsatz von KI entschieden, denken wir nur an die US-Präsidentschaftswahl 2016.

Und zum Abschluss – Dein Ausblick: Kann ChatGPT zum Beispiel Risikomanager, Autoren, Anwälte oder gar Richter schon jetzt beziehungsweise in Zukunft ersetzen? Oder siehst Du auch Grenzen?
 
Wolfhart Fabarius: Ganz klar: Es gibt Grenzen. Das sieht die KI auch selbst so – oder vielmehr: Sie ist so trainiert worden, das selbst so einzuschätzen. Um im GPT-Jargon ein Fazit zu ziehen: Zusammenfassend lässt sich sagen, dass die Entwicklung von Künstlicher Intelligenz schon weit fortgeschritten ist. Am Ende ist jedoch die menschliche Entscheidungsfähigkeit ausschlaggebend. Inwiefern KI Menschen ersetzen kann, egal in welcher Position oder in welcher Tätigkeit, ist nicht nur eine technische, sondern auch eine ethische Frage. Menschen entscheiden, wie sich Künstliche Intelligenz sinnvoll gestalten und nutzen lässt. Um ethische Grundsätze für das Wohl der gesamten Menschheit zu gewährleisten, brauchen wir eine passgenaue Regulierung – und eine fortlaufende Evaluierung. Insofern wird dies nicht meine letzte Veröffentlichung zu diesem Thema sein.


Wolfhart Fabarius

ChatGPT in der Unternehmenspraxis

 

Der Einsatz von Künstlicher Intelligenz (KI) revolutioniert die Arbeitswelt und mit ChatGPT steht hierbei ein besonders vielseitig nutzbares Anwendungstool zur Verfügung.

Wie Sie als Governance-Verantwortlicher den Chatbot sinnvoll einsetzen können, zeigen die Praxisbeispiele in diesem Buch mit thematischen Schwerpunkten wie

  • Nachhaltigkeit,
  • Cybersicherheit und Datenschutz,
  • sowie Überwachung von Lieferketten.
Neben den Stärken von ChatGPT zeigt das Werk auch die Risiken der KI auf, die vor allem aufgrund von fehlerhaften und subjektiv gefärbten Antworten des Chatbots bestehen. Damit wird deutlich, dass sich ChatGPT zwar als Arbeitshilfe eignet. Die Verantwortung bei der Nutzung von KI-generierten Informationen bleibt jedoch bei den anwendenden Personen.

Eine erstmalige Zusammenstellung praktischer KI-Anwendungsbeispiele für Risikomanagement, Controlling und Compliance – leicht verständlich sowohl für Governance-Profis als auch Nutzerinnen und Nutzer ohne große Vorkenntnisse.


Passend zum Thema

Haftung für KI-Systeme 16.08.2023
Alexander Beyer: KI-Systeme können nur so gut sein, wie die Algorithmen und Daten, die uns zugrunde liegen.

Der Verordnungsvorschlag der EU-Kommission zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (KI) vom 21.04.2021 enthält keine Regelung zur Haftung für KI-Systeme. Daher legte die Kommission am 28.09.2022 ihren Vorschlag für eine KI-Haftungs-Richtlinie (AI Liability Directive) vor. Dieser soll die Vorschriften über die außervertragliche zivilrechtliche Haftung an die künstliche Intelligenz anpassen. Ein Anlass für Alexander Beyer in der WzS 08-2023 die wissenschaftliche Diskussion zur KI-Haftung dazulegen und einen kurzen Überblick über die Regelungen des Richtlinienvorschlags zu geben. mehr …

(ESV/bp)

Programmbereich: Management und Wirtschaft