Generative AI: Trau, schau, wem!

Turm aus Wuerfeln abstrakt weiss und blau Linien gehen davon aus

Ein Gastbeitrag von Dr. Jochen Schlosser | 05.12.23

Wer schon einmal mit ChatGPT experimentiert hat, wird sicher hier und da die Stirn über die Ergebnisse gerunzelt haben. Aber Generative AI macht doch alles einfacher!? Jein und das wirft die Frage auf, wann wir der KI vertrauen können.

Wissenschaftliche Arbeit ist kein Feuilletonartikel – und auch in unserer Branche gilt: Wer die Quelle nicht kennt, kann sich nicht auf die Ergebnisse verlassen. Dies gilt auch für die Ergebnisse die Generative AI liefert. Es wird noch eine ganze Weile dauern, bis wir der KI so weit vertrauen können, dass sie uns Arbeit vollständig abnimmt. Solange wir das nicht können, wird KI als Turbostufe in existierende Prozesse integriert werden.

Diskriminiert KI?

KI macht vieles leichter – leider auch Diskriminierung,

so schätzte Ferda Ataman, die unabhängige Antidiskriminierungsbeauftragte des Bundes, das Potenzial von künstlicher Intelligenz im August bei der Vorstellung eines von ihr beauftragten Gutachtens ein. Gerade bei künstlich erstellten Bildern kann KI diskriminieren, wenn beispielsweise bestimmte Personengruppen, wie zum Beispiel weiße Männer, als Manager dargestellt werden, während andere Gruppen (beispielsweise Menschen mit Migrationshintergrund) als Reinigungspersonal abgebildet werden.

Dies liegt dann nicht an der KI selbst, die KI ist heute eher wie ein Spiegel, der die Welt so darstellt, wie sie ist. Und wenn man ein bestimmtes von einer KI erzeugtes Bild haben möchte, zum Beispiel eine Frau mit Migrationshintergrund, welche als CEO die Richtung vorgibt, dann muss man das der KI heute leider noch sagen. In der Welt außerhalb der KI ist es eben häufig noch so ist, dass Geschäftsführerinnen dann doch männlich und weiß sind. Da kann man der KI an dieser Stelle keinen Vorwurf machen, man muss aber wissen, wie sie funktioniert und Vorsicht walten lassen. Eine KI kann nur das abbilden, was ist. Sie ist in diesem Sinne äußerst konservativ – es sei denn, sie bekommt ein entsprechendes Briefing; und das ist Aufgabe des Menschen. Eine Kreativagentur sollte plietsch genug sein, die Vielfalt unserer Gesellschaft in das Briefing einzubringen. Ein solches Briefing ist über die Eingabe von Prompts zur „Steuerung“ der KI möglich.

Wichtig ist daher zu verstehen, was eine KI kann und was nicht. Genauso wie der Mensch Ursache eines „Fehler 40“ ist, kann auch eine KI danebenlegen, Dinge falsch interpretieren oder einfach falsch erlernt haben. Denn egal, ob Mensch oder Maschine, jede:r arbeitet eben nur im bekannten Handlungsrahmen. Und ja, nochmal, wenn der KI nicht explizit sagt, dass man gerne ein Bild eines – wie auch immer – paritätisch besetzten Konferenzraum hätte, dann macht eine KI eben das, was (leider immer noch) Status quo ist: 90 Prozent aller von einer KI generierten Bilder von Geschäfts-Meetings werden hauptsächlich ältere, vornehmlich weiße, Herrschaften zeigen.

Wem vertraue ich?

Während diese Art von Diskriminierung durch KI eine Art Ringschluss darstellt, was der Nutzer wissen und umgehen muss, ist das Thema Vertrauen tiefer in der Grundstruktur der menschlichen Existenz und unserer Arbeit – und damit auch in der Nutzung von Generative AI – verankert. Ein Beispiel? Wir sind heute noch kilometerweit davon entfernt, dass Forscher:innen sagen „Ja, das kann die KI für uns übernehmen.“ Ohne die entsprechende Quellenangabe, deren Gewichtung und Einordnung und damit einhergehende Transparenz, kann man dem Ergebnis der KI nicht vertrauen. Es sollte wenig überraschen, dass diese Anforderung, welche auch für „normale“, von Menschen geschaffene, Werke und Schlussfolgerungen gilt, auch an eine KI herangetragen wird.

Richtig komplizierter wird es, wenn Themen wie Ethik, Moral und Nachhaltigkeit ins Spiel kommen. Dinge die weniger quantitativ sind, wo zugehörige Entscheidungen oft mit großer Unsicherheit befrachtet und Vertrauen in die Entscheidungsbasis noch wichtiger ist als in strikt ROI getriebenen Geschäftsprozessen: Wie möchte eine Marke auftreten? Wie sensitiv geht eine Firma mit Daten um, welche Daten gibt man an eine KI, wo und auf welcher sonstigen Basis „lernt“ diese KI und was „teilt“ sie wieder mit Anderen? Und, wem gehört eigentlich das „geistige Eigentum“ (Intellectual Property), zum Beispiel der Programmcode, den eine KI generiert?

Ja, dazu gibt es Verträge, ja viele müssen dazu noch geschrieben oder angepasst werden und ja, dies hängt oft von der gewählten KI ab, auch von der Version und der Konfiguration dieser. Trainiert (m)ein Prompt die KI selber, werden meine Daten und meine Prompts mit anderen somit (indirekt) geteilt, wo genau läuft das KI-Modell eigentlich und kann ich die KI auf mein spezifisches Problem und bitte nur für mich einsetzbar erweitern? Klar, da geht schon viel, vieles ist einstellbar oder vertraglich buchbar, aber gleichzeitig sind viele Punkte auch noch schwammig und brauchen noch mehr Klarheit beziehungsweise Use Cases, die den Nutzern und Menschen helfen Vertrauen aufzubauen.

Wie lang ist der Weg?

Komplette Disruption von heute noch manuellen Prozessen wird nur bei einem hohen Grad an Vertrauen stattfinden. Gerade im Marketing und im Umgang mit sensitiven Daten wird heute niemand blind einer KI vertrauen. Bis solche Prozesse angelaufen und durchgezogen sind, wird es noch eine ganze Weile dauern. Am Ende sind es vor allem Vertrauensfragen und vertragliche Fragen, die geregelt werden müssen. Und ja – auch Ethik und Moral sind eine Dimension, die zwingend beachtet werden muss.

Es spielt keine Rolle, ob 20 Leute in einer Agentur die Werbemittel für eine Kampagne bauen, ob eine KI dies als „Supplier“ innerhalb der Agentur erledigt oder ob Werbetreibende diese KI selbst einsetzen, die darüber liegenden Freigabeprozesse werden sich vermutlich nicht ändern. Qualität, zu einem guten Preis, ohne das Risiko eines Shitstorms, das ist am Ende das, was zählt.

Was wir in den nächsten zwei oder drei Jahren alles sehen werden, ist entsprechend nicht klar. Sicher ist, wir werden Effizienzsteigerungen sehen, aber vollständig autonome Prozesse wird es so schnell nicht geben, selbstfahrende Autos werden ja auch schon etwas länger versprochen. Technologische Disruption dauert häufig etwas länger, auch wenn das Potential faszinierend ist, die grundsätzliche Mechanik bleibt gleich. Aufgaben wandern von Menschen zur Maschine, wie schon zu Zeiten der Industriellen Revolution. Der Mensch übernimmt schrittweise andere Aufgaben – eben solche, die die Maschine noch nicht leisten kann oder soll.