Startseite Themen Brennpunkt INNOVATIONSPREIS-IT IT-Bestenliste INDUSTRIEPREIS INDUSTRIE-Bestenliste TrafficGenerator
INNOVATIONSPREIS-IT 2017

Drucken
Mittelstandspresse

28.11.2025

Der Mensch hat weiter die Hosen an

 

KI ist ein nützlicher Alltagshelfer, aber keine Superintelligenz, sagt Prof. Katharina Zweig bei der Heilbronner Bürger-Uni. / Foto: Lina Bihr/Heilbronner Stimme
KI ist ein nützlicher Alltagshelfer, aber keine Superintelligenz, sagt Prof. Katharina Zweig bei der Heilbronner Bürger-Uni. / Foto: Lina Bihr/Heilbronner Stimme

Heilbronn, 28.11.2025 (PresseBox) - Gesellschaftlichen Ängsten, ob Künstliche Intelligenz „uns Menschen töten oder Arbeitsplätze wegnehmen wird“, tritt Katharina Zweig, Professorin für Informatik an der Rheinland-Pfälzischen Technischen Universität Kaiserslautern, bei der Bürger-Uni von TUM Campus Heilbronn, Heilbronner Stimme und Dieter Schwarz Stiftung klar entgegen.

Zum einen weise die Maschine keine dem Menschen vergleichbare Intelligenz auf und es fehle ihr die Fähigkeit, sich an eine sich verändernde Situation anzupassen, sagt die Informatikerin Mitte November bei der Veranstaltung auf dem Bildungscampus Heilbronn zum Thema „Sind Maschinen die besseren Entscheider?“.

Zum anderen werde sich die Arbeitswelt zwar weiter verändern, aber nicht auf die Weise, dass Maschinen den Menschen bei allen Prozessen ersetzen. „Es wird neue Jobs geben, und bei den alten Jobs wird sich nicht so viel automatisieren lassen, wie man denkt“, sagt Zweig im Talk mit Moderator und Stimme-Redakteur Tobias Wieland. Ihrer Einschätzung nach wird die Maschine wahrscheinlich 80 Prozent der Routineprozesse übernehmen, die schon immer 20 Prozent der Zeit gekostet haben.

Es braucht den Menschen hinter der Maschine

KI als nützlicher Alltagshelfer, nicht als Superintelligenz, der man blind vertrauen sollte – so lässt sich Zweigs Position auf den Punkt bringen. Die Informatikerin lotet die Grenzen der Anwendung von Künstlicher Intelligenz, vor allem von Sprachmodellen, aus. Dabei gibt sie dem Publikum eine Empfehlung mit: Keinesfalls solle KI dazu benutzt werden, Entscheidungen zu treffen, Risikovoraussagen zu machen oder Bewertungen von Schulaufsätzen zu generieren. Auch nicht von akademischen Essays, wie es bereits im Wissenschaftsbetrieb geschieht, wie Mit-Gastgeberin Luise Pufahl, Professorin für Information Systems am TUM Campus Heilbronn, in ihrer Begrüßung erwähnt.

Warum aber sind Maschinen nicht die besseren Entscheider? Vor allem weil ihre Entscheidungen nicht zuverlässig seien: Häufig lasse sich nicht nachvollziehen, wie sie entstehen. „Der Computer, die Maschine, das System. Das ist Technologie, da ist kein Wesen dahinter“, erklärt Bundesverdienstkreuz-Trägerin Zweig ihren Blickwinkel. Für sie braucht es immer noch den Menschen hinter der Maschine, der die Verantwortung übernimmt.

Bewertungen ohne inhaltliches Verständnis

Beispiel Sprachmodelle: Wird ein Sprachmodell dazu verwendet, einen konkreten Aufsatz zu bewerten, generiert es einen Text, der zwar aussieht wie eine Bewertung, aber keinem Werturteil entspricht. Dies liegt daran, dass die Maschine darauf trainiert wurde, Strukturen wie Wortauswahl und Satzlänge in einem Text zu messen. Anhand dieser Kriterien, die noch nichts über den Inhalt aussagen, wird die Benotung des Textes generiert. Das zeigt sich auch daran, dass bei einem entsprechenden Experiment sämtliche Verbesserungsvorschläge der KI überhaupt nicht zum konkreten Text gepasst hätten, so erklärt Katharina Zweig.

Beispiel Beschwerdebot: Die Wissenschaftlerin erzählt, wie sie sich in einem Fall als vermeintliche Kundin ausgegeben hat, dann im Beschwerdevorgang nach ihrer Telefonnummer gefragt worden ist. Dabei wurde sie aufgefordert, eine amerikanische Nummer einzugeben. „Ich habe gesagt, ich komme aus Europa, unsere Telefonnummern sind anders“, berichtet die Professorin. „Daraufhin forderte mich die Maschine auf: Gib mir einfach die letzten zehn Ziffern.“ Die Ausnahme – europäische Kundin – sei für diese Kommunikation nicht bedacht worden. Ihr Anspruch ist es, schlecht gemachte Software zu verhindern oder aufzuzeigen, wenn gut gemachte Software falsch eingesetzt wird.

Ausprobieren, um zu verstehen

Denjenigen, die es noch nicht ausprobiert haben, gibt sie den Tipp, die gängigsten Modelle Chat GPT oder Perplexity einmal zu testen. „Künstliche Intelligenz wird unser Leben, das Ihrer Kinder und Ihrer Enkel verändern – im Guten wie im Schlechten. Aber wir müssen wissen, wie sie funktioniert, um sie einordnen zu können.“ Der Rat der Expertin: „Verwenden Sie nur KI-Systeme, deren Qualität sie überprüfen können.“

Zur Aufzeichnung der Veranstaltung geht es hier.

Die nächste Auflage der Bürger-Uni gibt es am 25. März 2026 mit dem Thema „Ist das Zukunft oder kann das weg?“ mit Professor Maximilian Lude.

Ansprechpartner

Kerstin Besemer
+49 (7131) 26418-501

Datei-Anlagen:


(4 MB)
1577820.attachment

KI ist ein nützlicher Alltagshelfer, aber keine Superintelligenz, sagt Prof. Katharina Zweig bei der Heilbronner Bürger-Uni. / Foto: Lina Bihr/Heilbronner Stimme