Abo

Interview

Expertin zum Hype
„Keine KI ist zu 100 Prozent fehlerfrei“

5 min
An KI kommt niemand vorbei – aber sind sich alle im Klaren, was sie tatsächlich kann?

An KI kommt niemand vorbei – aber sind sich alle im Klaren, was sie tatsächlich kann?

Autorin Barbara Oberrauter-Zabransky spricht im Interview zum Hype um Künstliche Intelligenz und zum Umgang mit ChatGPT und Co.

Die Technologie der Künstlichen Intelligenz gilt mal als Heilsbringer, mal als Jobkiller und oft genug als beides zugleich. In ihrem Buch „Die KI kann mich mal“, das an diesem Mittwoch erscheint, erklärt KI-Coach Barbara Oberrauter-Zabransky den Hype um ChatGPT und Co. und warum trotzdem niemand um KI herumkommt. Mit ihr sprach Maik Nolte.

Frau Oberrauter-Zabransky, das erste Kapitel in Ihrem Buch trägt die schöne Überschrift: „Was ist hier eigentlich los?“ Das frage ich mich auch oft. Haben Sie den Eindruck, dass all die Leute, die gerade über die Möglichkeiten der KI reden, wirklich immer genau wissen, worüber sie sprechen?

Es wäre wünschenswert. Aber den Eindruck habe ich nicht wirklich. Das Wort KI – oder auch Sprachmodelle oder neuronale Netze und was da alles an Fachbegriffen umherschwebt – wird im Alltag, auch im Geschäftsalltag, gestreut wie beim Bullshit-Bingo. Also wenn KI draufsteht, verkauft es sich gut und man darf halt nicht so genau nachfragen, was dahintersteckt.

Die ersten Firmen sagen ja bereits, KI ist so super, damit werden wir in den nächsten Jahren Hunderte oder Tausende Stellen einsparen. Wenn man aber gar nicht genau weiß, was dahintersteckt, klingt das doch eher nach Voodoo als nach wirklicher Strategie.

Tatsächlich sehe ich, dass in vielen Unternehmen die Strategie fehlt. Man hat jetzt dieses schöne neue Tool KI, und da werden soundsoviele Prozentsätze mehr an Produktivität versprochen – das liest sich mitunter wie aus Werbebroschüren der KI-Anbieter.

Hier in Österreich haben viele Firmen ja noch nicht einmal eine Digitalisierungsstrategie, und da soll jetzt auch noch KI draufgesetzt werden und alles lösen, am besten auf Knopfdruck. Aber das funktioniert absolut nicht. Und mittlerweile ist manche Unternehmensführung ja auch wieder zurückgerudert und hat die Leute zum Teil zurückgeholt, wenn man gesehen hat, dass KI nicht fehlerfrei ist. Denn wenn Fehler passieren, kann es teuer werden.

Der Titel Ihres Buchs, „Die KI kann mich mal“, klingt, wenn man so will, ein bisschen danach, als könnte man sich von dem ganzen Thema fernhalten. Aber kommt man denn überhaupt noch an KI vorbei?

Es kommt immer drauf an, von welcher KI wir sprechen, da wird sehr viel in einen Topf geworfen. KI ist nicht gleich KI. Die Leute verwenden Künstliche Intelligenz seit Jahren, ohne dass sie es wissen. Zum Beispiel im Spamfilter, im Navigationssystem oder in der Spotify-Playlist. Das heißt, in Wahrheit ist KI schon längst Alltag. Neu ist die generative KI, also GPT und diese ganzen Modelle, die jetzt auf den Markt gekommen sind. Vor drei Jahren hat es in meinen Workshops noch viele gegeben, die gesagt haben: Nein, interessiert mich nicht. Mittlerweile haben die allermeisten zumindest schon mal Berührung gehabt mit diesen Sprachmodellen.

Ich glaube, die Ängste werden weniger. Auch weil die KI-Anbieter so bestrebt sind, ihre Modelle so plaudermäßig aufzubauen, dass man gern mit ihnen spricht und sich ernst genommen fühlt. Was dann auch wieder andere Probleme nach sich zieht, aber das ist eine andere Frage. Meine Hoffnung ist, dass der Experten-Nimbus entfällt, der Glaube, man müsse sich super auskennen, um KI zu nutzen. Wenn ich eine Terrasse baue und wissen will, welche Schrauben ich brauche, frage ich eben ChatGPT.

Man muss auch nicht Experte sein, um KI-Modelle zum Erstellen von Fakes und zur politischen Manipulation zu nutzen; und es wird immer schwieriger werden, Wahrheit und Lüge auseinanderzuhalten. Wie ist Ihre Erfahrung aus Ihren Workshops – ist den Leuten klar, dass KI in solchen Punkten das Leben sogar anstrengender machen kann?

Ja, mehr als erwartet sogar. Skepsis ist stärker verbreitet als Enthusiasmus, würde ich sagen. Beim Thema Deepfakes oder AI-Slop – also diese KI-generierte Massenware, mit der bloß Klicks generiert werden sollen – machen sich die Menschen durchaus Gedanken. Und das ist auch gut so, man darf da ruhig kritisch bleiben. Wichtig ist, dass den Menschen bewusst ist, dass es sich eben um Berechnungsmodelle handelt und nicht um ein einfühlsames, menschliches Gegenüber, das einen versteht.

Und dass diese Modelle fehleranfällig sind. Es gibt keine KI, die zu 100 Prozent fehlerfrei ist, und Expertinnen und Experten sagen, dass es so etwas auch nie geben wird. Das ist in den Systemen inhärent. Solange man das im Hinterkopf behält, kann man ganz gut damit arbeiten.

Sie haben es angedeutet: Man muss wissen, dass man es nicht mit einem menschlichen Gegenüber zu tun hat. Haben Sie eine Erklärung dafür, warum so viele Menschen höflich zur KI sind und immer schön „Bitte“ und „Danke“ sagen?

Die Frage, ob man zur KI höflich sein muss, wird eigentlich in jedem Workshop gestellt. Es wurde auch schon getestet, wie die KI reagiert, wenn man besonders unfreundlich ist oder anfängt, sie zu beleidigen. Was sich in diesen Experimenten gezeigt hat, ist, dass die KI schon ein wenig darauf reagiert, wie man mit ihr spricht. Wenn man halbwegs professionell und strukturiert mit einer KI spricht, dann kommt sie entsprechend zurück.

Wie halten Sie es denn mit der Höflichkeit?

Ich sage lustigerweise immer „Bitte“ bei meinen Prompts. Das fällt den Teilnehmenden in den Workshops dann immer auf, und sie fragen mich dann, warum ich das mache. Der Grund ist ein ganz menschlicher: Ich möchte es mir nicht abgewöhnen. Ich möchte vermeiden, dass sich ein „Mach dies, mach das“-Tonfall, ohne „Bitte“ und „Danke“, in meine normale Kommunikation mit Menschen einschleicht. Diese Höflichkeitsformen darf man sich gerne beibehalten. Und viel Zeit kostet das „Bitte“ ja nun auch nicht.

Die Leistungsfähigkeit einer KI-Anwendung beruht auf immensen Mengen an Daten. Gilt da eigentlich auch der Maßstab „Je mehr, desto besser“?

Wir sind gewissermaßen auf einem Plateau angelangt. Die Modelle werden nicht automatisch besser, nur weil sie größer werden. Das merkt man einfach. Zusätzlich ist es so, dass den Betreibern der KI-Modelle langsam die hochwertigen Daten ausgehen. Das Internet wurde mittlerweile im Wesentlichen abgeschöpft; was zugänglich war, hat man verarbeitet. Jetzt gibt es zwei Wege. Der eine ist, die KI mit synthetischen, also KI-generierten Daten zu trainieren. Das hat aber natürlich Risiken. Die zweite Option ist, dass man für menschliche, authentische Daten bezahlt. Das heißt, alles, was wir produzieren als Menschen an Daten, wird immer wertvoller. Übrigens auch die Daten, die wir in der Konversation mit der KI eingeben.

Als letzter Schrei gelten nun KI-Agenten. Bald, so heißt es oft, werde jeder seine eigenen KI-Helfer haben, die Dinge für sie erledigen. Sagen wir, eine Urlaubsreise mit allem Drum und Dran buchen – dafür muss der Agent natürlich auch Zugriff aufs Konto haben. Ist das schlau?

Immer so im Drei-Monats-Abstand wird eine neue Sau durchs Dorf getrieben – jetzt sind es die KI-Agenten, davor waren es die KI-Browser ... das sind Themen, die eher für Spezialisten interessant sind. Dem ganz normalen Durchschnitts-User und -Userin würde ich von Agenten abraten. Die meisten KI-Modelle entstammen US-amerikanischen Privatunternehmen, die keiner wirklichen Transparenzpflicht unterliegen. Ja, wir können ihnen glauben, dass sie keine heiklen Daten speichern, aber wir wissen es in Wahrheit nicht. Bei der Recherche der Reise kann man sich ja durchaus von KI unterstützen lassen, buchen würde ich doch lieber selber.

Gehen wir mal davon aus, dass die Fehlerquote immer weiter sinkt und KI-Anwendungen immer zuverlässiger werden. Muss man nicht davon ausgehen, dass die Menschen doch irgendwo verblöden? Wenn sie im Prinzip keine Fremdsprache mehr lernen, ja nicht mal mehr googeln müssen?

Natürlich werden gewisse Kompetenzen abnehmen, so wie mit dem Aufkommen des Internets. Ich muss jetzt nicht mehr alles selber wissen, ich kann es mir ja googlen. Dafür kommen aber neue Kompetenzen hinzu – und eine, die ganz, ganz wichtig ist, ist die Fähigkeit einzuschätzen, wie realistisch ein KI-Ergebnis denn ist. Das, glaube ich, gehört noch viel stärker trainiert, egal in welcher Altersstufe: Wenn du dich in einem Thema nicht auskennst, dann glaub der KI halt nicht einfach alles, was sie dir ausgibt, sondern recherchier es nach. Der nächste Schritt in der Medienkompetenz ist eine KI-Kompetenz.

Barbara Oberrauter-Zabransky: „Die KI kann mich mal“, Kremayr & Scheriau.