Kategorien

Prost! Mein Interview mit ChatGPT über Agilität, Systemtheorie und erfolgreiche Unternehmen

Veröffentlicht: 21. Januar 2023Kategorien: Führung & Organisation

Was weiß künstliche Intelligenz über Agilität? Kann sie uns bei Einschätzungen helfen? Ist sie in der Lage etwas sogar als “Buzzword” oder “Mode” zu enttarnen? Oder schnattert sie mit den anderen Enten im Teich? Ich habe ein kritisches Interview mit der OpenAI-Entwicklung ChatGPT geführt. Mein Fazit und Vor- und Nachteile gibt es am Ende des Beitrags.

Frage: Welche Themen sind heiß im Bereich Agile?

Kommentar: In der Tat war die Anwendung in Regulierungsindustrien 2021 und auch 2022 ein Thema. Banken und Versicherungen sind teils schon früher größere agile – wie immer man das definiert – Schritte gegangen als etwa Pharmakonzerne. Vor besonderen Herausforderungen, besonders in Deutschland, steht allerdings die Verwaltung.

Die Anwendung von Agile in Remote-Teams als heiß zu bezeichnen, geht allerdings am Thema vorbei. Remotearbeit ist ein von agilen Methoden erst mal unabhängiges Thema. Einen direkten Bezug sehe ich nicht.

Insgesamt ist die Antwort also nicht falsch, aber auch nicht besonders aufschlussreich. Ich habe daraufhin noch mal nachgefragt, wie es denn speziell in Deutschland um Agilität bestellt sei. Die Antwort von ChatGPT war ein beliebiger, nichtsagender Text: Deutschland hätte man auch durch die Türkei ersetzen können.

Drei wichtige Themen sieht die KI nicht:

  1. Die Dezentralisierung und das teilweise Auflösen gewohnter Abteilungsgrenzen.
  2. Die daraus folgende notwendige Veränderung eingefahrener Kommunikations-Muster.
  3. Den Bezug zu New Work, der getrieben von Quiet Quittung und der Demografiekrise immer deutlicher wird.

Ich habe dann noch mal nachgefragt, was New Work mit Agilität zu tun hat. Antwort: “New Work hat in vielerlei Hinsicht eine enge Verbindung zu Agilität. Beide Konzepte betonen die Notwendigkeit von Flexibilität und Anpassungsfähigkeit in einer sich schnell verändernden Arbeitswelt.” Okay, kann man so sagen. Für einen oberflächlichen Text ordentlich.

Die Sprache allerdings ist ungenau. Sind es wirklich “Konzepte”? Ich habe im Prompt dann Folgendes erwidert: “Ich sehe nicht, dass es sich bei New Work um ein Konzept handelt.”

ChatGPT daraufhin: “Sie haben Recht, dass New Work kein einheitliches Konzept ist und es unterschiedliche Ansätze und Interpretationen gibt. New Work kann als ein Oberbegriff für verschiedene Ideen und Ansätze verstanden werden, die sich auf die Veränderungen im Arbeitsumfeld und die Anforderungen an die moderne Arbeitswelt beziehen.”

Das habe ich schon öfter beobachtet. Gegen Kritik ist ChatGPT sehr empfindlich. Er knickt sofort ein, verteidigt seine Aussagen nicht. Ist ja auch gut so, einerseits.

Frage: Ist die Kritik der Systemtheorie an Agilität gerechtfertigt?

Kommentar: Offenbar ist ChatGPT stark an Methodendenken ausgerichtet (worden), was ich als “Methodologie” bezeichne. Er wendet auch nicht ein, was man hier einwenden müsste: Es gibt nicht “die Systemtheorie”. Von Luhmann und sozialen Systemen habe ich nichts geschrieben. Er weiß offenbar nicht, wovon er redet.

Zurück zur Methodologie. Diese geht davon aus, das bestimmte Vorgehensweisen anderen überlegen seien. Kontextfaktoren werden dabei ausgeblendet. Die Überbewertung von Methoden ist sehr verbreitet im Denken – und zeigt sich auch im Text. Was wiederum deutlich macht: KI spiegelt die Vergangenheit, auch wenn sie für die Zukunft nicht (mehr) oder nur bedingt zu gebrauchen ist.

Insofern verdeutlicht die Antwort vor allem das aktuelle Paradigma, aber keinen Paradigmenwechsel. Das ist ein Widerspruch zum ersten Teil der Antwort, den die KI natürlich gar nicht merken kann, weil sie ja nicht wahrnimmt.

Die aktuelle Kritik aus Richtung der sozialen Systemtheorie nach Luhmann können Interessenten etwa bei Stefan Kühl “Der sinnlose Hype um Agilität” nachlesen.

Frage: Was macht ein agiles Unternehmen im Kern aus?

Kommentar:  Prinzipien und Werte integrieren – wenn der wüsste! Weiß er aber nicht: Das, was hier als Kennzeichen genannt wird, ist eher Wunschvorstellung derer, die denken, Werte ließen sich implementieren wie Software. Noch mal: Methodologie. Und ist ein Unternehmen nur agil (und damit anpassungsfähig), wenn es Werte und Prinzipien aus Scrum nutzt? Sicher nicht, muss man sich etwa die Erfolgsstory von Netflix anschaut. Mit Methoden hat die gar nichts zu tun.

“Agiles Unternehmen” wird vielmehr wie ein Marketinglabel gehandhabt. Die Antwort von ChatGPT spiegelt deshalb vor allem eins: Was derzeit so an Missverständnissen unterwegs ist.

Frage: Woran erkennt man Agilität, was macht es aus?

Kommentar: Die Antwort ist okay, aber auch hier reicht es nur für etwas Abtasten an der Oberfläche. Eine Differenzierung kommt nicht heraus, etwa zwischen Business Agilität und Projektmanagement.

Auch die Sprache ist – so fehlerfrei sie ist – letztendlich unsauber: Mechanismen und Kriterien werden ohne explizite Abgrenzung voneinander verwendet. Was nicht erwähnt wird, ist zudem die Ausrichtung am Wertstrom und Kundenzentrierung. Kundenfeedback dagegen erscheint mir als kennzeichnender Begriff zu selbstverständlich.

Die Antworten sind auch beim Thema Test-driven-Development sehr auf Softwareunternehmen ausgerichtet.

Frage: Ich finde deine Antworten ausweichend. Jedes Unternehmen behauptet das doch. Ich kenne keines, dass NICHT für Zufriedenheit der Kunden steht.

Kommentar: “Tut mir leid” schreibt ChatGPT etwa so oft wie “es ist wichtig, dass…” Es ist seine Standardantwort, wenn man mit etwas nicht zufrieden ist. Dies aber erkennt er an unterschiedlichen Sprachstrukturen und nicht nur an Wörtern. Das möchte ich würdigen.

Inhaltlich ist das jedoch Blabla. Was sind bitte klare Mechanismen? Der Abschnitt mit der Selbstorganisation wiederum liest sich treffend.

Frage: Nenn doch mal Namen von agilen Unternehmen!

Kommentar: Auch hier zeigt sich ChatGPTs seinen Ich-schöpfe-aus-dem-was-da-ist-Bias. Genannt werden die Unternehmen, die selbst aktiv in die Medien gehen und sich entsprechend “labeln”. Und was bitte bedeutet “erfolgreiche Implementierung”? Ist die Agilität danach durch – sind wir fertig?

Droht dann nicht das Nokia-Szenario?

Nachfragen dazu konnte die KI nur mit weiterem Blabla beantworten.

Frage: Toyota? Die waren doch mal erfolgreich? Wir schreiben das Jahr 2023!

Kommentar: Mal nicht “es tut mir leid”. Zum Abschluss des Interviews erfahre ich nun auch, dass der Kenntnisstand sogar von 2021 ist. Ändert aber nichts daran, dass Toyota ein gutes Beispiel für die 1970er Jahre wäre – nicht aber für heute. Das “Toyota Production System” ist der Lean-Historie zuzuordnen. Und für die aktuelle Zeit nicht mehr passend.

Und dann hatte ich noch eine Frage an ChatGPT: Was unterscheidet ein agiles Unternehmen von einem erfolgreichen Unternehmen? “Ein erfolgreiches Unternehmen ist ein Unternehmen, das in der Lage ist, Gewinne zu erwirtschaften und seine Ziele zu erreichen. Ein agiles Unternehmen hingegen ist ein Unternehmen, das die Prinzipien der Agilität in seiner Arbeitsweise verfolgt. (…) Ein erfolgreiches Unternehmen muss nicht zwangsläufig agil sein, aber ein agiles Unternehmen hat in der Regel eine höhere Wahrscheinlichkeit, erfolgreich zu sein, da es schneller auf Veränderungen reagieren und die Bedürfnisse seiner Kunden besser erfüllen kann.”

Danach habe ich gefragt: “Bist du sicher?”

Antwort: “Als AI Modell habe ich keine Gewissheit, sondern ich basiere meine Antworten auf meiner programmierten Kenntnisse und der Informationen die mir zur Verfügung stehen.” Na, da bin ich aber froh. Auch, dass ich im nachfolgenden Text dann endlich mal einen Rechtschreibfehler gefunden habe – agilität kleingeschrieben.

Fazit: Vorsicht, Buzzword-Generator mit guten Ansätzen

Das Interview zeigt die Vorteile und Schwächen von ChatGPT und damit auch künstlicher Intelligenz im derzeitigen Stadium. Es machte mit die Grenzen noch etwas deutlicher bewusst als mein Youtube-Stärkentest, bei dem die Themen weniger komplex waren.

Im Grunde kann man nicht wirklich von Intelligenz sprechen, es ist mehr Aufbereitung von Wissen. Allerdings… wenn man weiterhin Intelligenz als das definiert, was ein Intelligenztest misst, dann leider doch… Wäre mal interessant, wenn das jemand testet. Meine Vermutung ist, dass die Wortflüssigkeit auf einen IQ von 100 rauslaufen könnte.

Wenn Intelligenz jedoch schöpferische Intelligenz inklusive divergentem Denken meint, dann nicht. Dazu empfehle ich meinen. Text über zeitgemäße Intelligenzdefinitionen.

Einige Vorteile, die ich erkenne:

  • Es lassen sich schnell Texte zu einem Thema zusammenstellen.
  • Die Rechtschreibung ist überwiegend tadellos.
  • Die Texte weisen oft sinnvolle Gliederungen auf.
  • Die KI ist so programmiert, dass sie auf eigene Grenzen hinweist.
  • Sie bemüht sich um Ausgewogenheit in der Darstellung.
  • Sie bezieht keine Position, bildet keine Meinung.

Einige Nachteile:

  • Der Stand des Wissens ist selten einheitlich, auch in der Wissenschaft gibt es verschiedene Positionen. Das gibt die KI nicht wieder.
  • Die Texte scheinen sich auf den größtmöglichen Konsens zu beziehen.
  • Sie sind in keiner Weise kreativ, in dem Sinne, dass sie divergentes Denken spielen.
  • Sie sind in keiner Weise innovativ, in dem Sinne, dass sie Gedanken schaffen, die noch nicht in der Welt sind.
  • Die verbale Flüssigkeit und Ausdrucksfähigkeit ist begrenzt, viele Begriffe werden ohne Abgrenzung einfach synonym verwendet.
  • Bestimmte Aspekte werden übergewichtet.
  • Es ist nicht transparent, wie die inhaltliche Auswahl zustande kommt.
  • Es gibt keine Quellennachweise.

Die aktuelle Diskussion über die mit KI erstellten und nicht entsprechend gekennzeichneten Artikel bei CNET zeigt die Problematik. Es war bei den kritisierten Beiträgen redaktionell nicht erkenntlich, dass KI am Werk war. Dadurch wurden Leser in die Irre geführt.

Wir alle wissen: Auch ein von einem Menschen verfasster Text kann schlecht sein, beispielsweise schlecht recherchiert. Aber: Es gibt eine Kennzeichnungspflicht. Wir müssen wissen, ob da jemand am Steuer sitzt und lenkt.

Expertenprüfungen werden immer wichtiger, was sicher auch die Journalistenausbildung verändern wird. Was im wissenschaftlichen Bereich als “Peer Review” bekannt ist, braucht es auch bei Gebrauchs- und Sachtexten.

Wer meinen Test etwas gekürzt lieber sieht, findet hier ein Video:

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Foto von Pavel Danilyuk: https://www.pexels.com/de-de/foto/technologie-wein-festhalten-forschung-8439094/

Beitrag teilen:

Über Svenja Hofert

Svenja Hofert verbindet unterschiedliche Welten und Positionen. Dabei entwickelt sie neue und eigene Blickwinkel auf Themen rund um Wirtschaft, Arbeitswelt und Psychologie. Sie ist vielfache Buchautorin und schreibt hier unregelmäßig seit 2006. In erster Linie ist sie Ausbilderin und Geschäftsführerin ihrer Teamworks GTQ GmbH. Interessieren Sie sich für Ausbildungen in Teamentwicklung, Agilem Coaching und Organisationsgestaltung besuchen Sie Teamworks. Möchten Sie Svenja Hofert als Keynote Sprecherin gewinnen, geht es hier zur Buchung.

One Comment

  1. E.Rich 1. Februar 2023 at 10:38 - Antworten

    Da ist aber auch der Faktor Mensch zu betrachten bei der Nutzung von CGP. Die Autorin hat offensichtlich keine Ahnung von Prompting und wie man der KI detailliert beschreibt was Sie tun soll. Zum anderen gibt es bereits seit längerem ADD-Ons für zum Beispiel Google Chrome, die CGPT aktuell über das Web suchen lassen und somit die Antworten auf aktuellem Stand ausgibt. In diesem Artikel wurde Basic Nutzer Verhalten angewendet und somit kommen auch nur Basic Antworten, die dann hier kritisiert werden. Für mich ist der Artikel kein Richtwert für die Nutzbarkeit der KI.

Einen Kommentar verfassen