Das Ganze Gespräch über KI, Vertrauen und die neue Arbeitswelt
Shownotes
Beschreibung:
In dieser Folge widmen wir uns einem Thema, das längst nicht mehr nur Schlagzeilen macht, sondern unsere Arbeitswelt fundamental verändert: Künstliche Intelligenz und KI-Agenten. Was können diese Systeme wirklich – und wo stoßen sie an Grenzen? Wie dringen sie in unsere Büros, Meetings und Entscheidungsprozesse ein? Und warum lohnt es sich, neben Effizienz auch über Vertrauen, Verantwortung und unser Menschenbild zu sprechen?
Egal, ob du ein Technik-Enthusiast, ein Neuling in der Welt der Technologie oder einfach neugierig auf die Zukunft und Innovationen bist, diese Folge bietet dir spannende Informationen und Einblicke in die Welt von überMORGEN.
Unsere Podcast-Nachbarn CasaCasi:
Feedback und Kontakt:
Wir freuen uns über dein Feedback! Schreibe uns einfach eine E-Mail an podcast@inside.digital oder folge uns auf Instagram unter @inside_digital. Wenn du Fragen oder Ideen für zukünftige Episoden hast, lass es uns wissen. Wenn dir die Folge gefallen hat, abonniere unseren Podcast und hinterlasse uns eine Bewertung. Deine Unterstützung hilft uns, den Podcast zu verbessern und mehr Inhalte zu produzieren. Freu dich auf morgen!
Disclaimer:
Die in dieser Episode geäußerten Meinungen sind die der Hosts und Gäste und spiegeln nicht unbedingt die Meinungen von inside digital wider.
Produktion:
Mit freundlicher Unterstützung von TON.EINS. https://toneins.de
Transkript anzeigen
00:00:00: "Übermorgen" - dein Podcast von Insight Digital.
00:00:07: Hallo und herzlich willkommen zu einer neuen Folge von "Das ganze Gespräch"
00:00:16: unserem "Übermorgen-Samstags-Format". Heute nehmen wir uns Zeit für ein Thema,
00:00:20: das nicht nur viele Schlagzeilen füllt, sondern auch unseren Arbeitsalltag immer stärker prägt.
00:00:25: Künstliche Intelligenz und KI-Agenten. Was können Sie und was vielleicht auch nicht?
00:00:29: Wie Sie in unseren Büros, in unsere Meetings, in unsere Entscheidungen vordringen
00:00:33: und warum es sich lohnt, dabei nicht nur über Effizienz zu sprechen,
00:00:37: sondern auch über Vertrauen, Verantwortung und über unser Menschenbild.
00:00:41: Darüber sprechen wir heute mit einer Expertin vom IAB,
00:00:44: dem Institut für Arbeitsmarkt und Berufsforschung.
00:00:46: Sie beschäftigt sich schon lange mit der Frage, wie Technologie unsere Arbeitswelt verändert
00:00:50: und was das für uns alle bedeutet.
00:00:55: Mit am Mikrofon ist heute Dr. Brithamathis vom Institut für Arbeitsmarkt und Berufsforschung
00:01:00: dem Forschungspartner der Bundesagentur für Arbeit.
00:01:03: Schön, dass Sie heute bei "Übermorgen" dabei sind.
00:01:05: Ja, hallo.
00:01:06: Sie forschen ja zu Themen wie Transformation, Digitalisierung, Künstliche Intelligenz
00:01:11: und Sie publizieren zum Wandel der Beschäftigung.
00:01:13: Nutzen Sie eigentlich selbst KI bei der Arbeit oder im Alltag?
00:01:17: Oder wann haben Sie sie zuletzt genutzt?
00:01:19: Ja, also wir haben eigentlich sehr viele Technologien schon,
00:01:24: die mit KI arbeiten.
00:01:26: Gerade in der Forschung hat man natürlich als Chatchi-Biti aufgekommen,
00:01:31: es sofort mit dieser Technologie gearbeitet.
00:01:34: Aber inzwischen gibt es wirklich eine ganze Reihe von künstlichen Intelligenzen,
00:01:39: die wir einfach in unserem alltäglichen Leben auch als Forschende nutzen.
00:01:44: Aber wir nutzen sie nicht nur, sondern wir entwickeln sie auch.
00:01:47: Und das, glaube ich, ist so ein zusätzlicher Aspekt.
00:01:51: Weil wir natürlich, wenn wir Forschung betreiben, auch auf künstliche Intelligenzen
00:01:58: zum Beispiel zurückgreifen können, um Stellendaten, also unstrukturierte Daten analysieren zu können.
00:02:05: Und das bringt uns als Forschende an vielen Stellen weiter,
00:02:10: weil wir dann unmittelbar einfach Texte benutzen können, die schon existieren,
00:02:15: um eben Forschung zu betreiben.
00:02:17: Das ist, glaube ich, auch das, was bei vielen Zuhörenden in der Realität jetzt da ist.
00:02:21: Sie nutzen das auch, um irgendwie ihre Arbeit ein bisschen zu erleichtern,
00:02:24: um sich so ein bisschen Hilfe zu beschaffen.
00:02:26: Und ganz viel oder ganz häufig fallen ja da auch Wörter wie der Begriff "agent" in diesem KI-Zusammenhang.
00:02:33: Wenn Sie da erklären, worum es da geht, was das eigentlich ist, ein KI-Agent.
00:02:36: Und wie er sich so unterscheidet, vielleicht von Sprachmodellen und Chatbots.
00:02:40: Gibt es überhaupt einen Unterschied? Wie erklären Sie das?
00:02:42: Ja, KI-Agenten.
00:02:44: Schwierige Definitionen, weil KI-Agenten ja im Grunde genommen alle KI's sind.
00:02:52: Also KI's, die agieren ja letzten Endes, weil sie natürlich mit uns als Menschen kommunizieren.
00:02:59: Agenten gehen, glaube ich, aber wenn man es wirklich ernst nimmt
00:03:04: und so von der Definition hier versucht, näher zu beschreiben, ein bisschen weiter,
00:03:10: weil sie eben nicht nur kommunizieren oder wo wir sozusagen einen Input geben
00:03:15: und dann kriegen wir was zurück wie "Ja, nein" oder "Ja, habe ich gemacht",
00:03:19: sondern Agenten sind eben eher auch Tools, die einem Empfehlungen geben.
00:03:26: Also nicht nur Informationen vermitteln, sondern eigentlich auch in gewisser Weise
00:03:31: Handlungsanweisungen vorgeben, also im Prinzip sagen, ja, du hast jetzt wieder deine,
00:03:37: ich sag mal Frühstück gegessen und das war jetzt nicht so gut, weil es nicht so gesund war.
00:03:42: Es wäre besser, das nächste Mal das und das zu tun oder die dich mit den Smartphones letzten Endes
00:03:48: oder dann auch eine Hinweis kriegst oder mit der Smartwatch verbunden ist.
00:03:53: Du hast dich heute zu wenig bewegt, du solltest noch mal 10.000 Schritte gehen
00:03:57: oder nur 4.000 oder wie auch immer. Also Agenten sind KI-Systeme,
00:04:02: die einen in gewisser Weise beobachten in seinem alltäglichen Tun
00:04:07: und dann aber Hinweise geben, inwiefern man eben seinen Verhalten anpassen sollte.
00:04:14: Die dann noch einen Schritt weitergehen, nicht nur die Informationen liefern.
00:04:19: Genau.
00:04:20: Und es gibt ja viele, die dann ja noch einen Schritt weitergehen.
00:04:22: Wir haben es ja dann nicht nur virtuell, sondern dann auch etwas zum Anschauen,
00:04:26: zum Anfassen wirklich auch da, wenn wir dann so an die Robotik denken, oder?
00:04:30: Ja, genau. Also der Punkt an der Stelle ist, wenn wir jetzt mal über Arbeiten reden.
00:04:35: Ich habe jetzt eher über das private Gelege gesprochen
00:04:38: und im Grunde genommen, wenn wir über Arbeitszusammenhänge reden,
00:04:44: treten KI-Agenten in zweierleihe Form auf einmal, eher als beim Packen von Paketen.
00:04:53: Also da kommt eben ein KI-Agent, der beobachtet praktisch die Arbeit
00:04:58: und sagt, ah, da hast du ein Fehler gemacht, korrigiere das bitte.
00:05:02: Oder die Empfehlungen geben, wir haben jetzt irgendwie dein Produkt getestet,
00:05:07: schau doch mal danach, da könnte der Fehler sein.
00:05:10: Das sind KI-Agenten, die eher dem Menschen Handlungsanweisungen vorgeben
00:05:17: und damit sozusagen eher als Kontrolleure auch wirken.
00:05:23: Also im Sinne von, das sind eben auch Instanzen, die die Arbeit kontrollieren.
00:05:28: Okay, eine Struktur vorgeben vielleicht?
00:05:30: Genau, und aber eben auch durchaus eingreifen.
00:05:34: Von der anderen Seite her ist es aber tatsächlich auch so,
00:05:38: wenn man jetzt die menschliche Seite sich anguckt in dieser Konstellation,
00:05:42: viele sind ja durchaus dankbar dafür, dass sie darauf hingewiesen werden,
00:05:46: dass da jetzt ein Fehler passiert wird und dass sie sozusagen ihre Arbeit auch richtiger machen.
00:05:52: Also man lernt auch durch dieses Tun.
00:05:55: Aber diese Konstellation hat zwei Seiten.
00:05:58: Die eine Seite ist natürlich, dass man dann eher zum Handlanger der Maschine wird.
00:06:03: Also dass man sozusagen eher immer den Befehlen der Maschine folgen muss.
00:06:08: Andererseits aber eben auch eine Situation entsteht, wo man eben lernen kann.
00:06:13: Und da gilt es so ein bisschen diese Balance herzustellen.
00:06:17: Ich habe vorhin dann von diesen zweiten Typen-Agenten gesprochen.
00:06:22: Diese Agenten sind eher nicht für so, ich sag mal, eher einfache Tätigkeiten typisch,
00:06:30: sondern eher so für komplexe Tätigkeiten, wo es eben darum geht,
00:06:35: Projektzusammenhänge zu diskutieren, wo es darum geht,
00:06:39: vielleicht auch Arbeitsabläufe, die sehr unterschiedlich sind,
00:06:43: wie zu steuern, zu organisieren, zu dokumentieren.
00:06:47: Und da sind KI-Agenten weniger diejenigen, die diese Tätigkeiten sozusagen vorgeben,
00:06:55: sondern meistens eher unterstützen.
00:06:57: Also so im Sinne von, man schreibt Protokoll, man lässt sich Zusammenfassungen schreiben.
00:07:03: Man lässt Dokumente, die man erstellen, also Protokolle erstellen, indem man eben Töne aufnimmt
00:07:09: und dann im Grunde genommen die Töne in Text umwandelt,
00:07:13: dass den Text zusammenfassen lässt und schon hat man Protokoll.
00:07:16: Dass viele sicherlich jetzt auch schon so nutzen.
00:07:18: Genau, also das ist so ein Element, was sehr häufig auch, glaube ich, in der Arbeit angekommen ist.
00:07:24: Oder man lässt sich sozusagen, wenn man jetzt Arbeitsplätze hat,
00:07:29: Arbeitsplätze erstellen in der Schule, ist das ganz häufig,
00:07:32: oder Elternbriefe schreiben und so weiter, also wo sozusagen Texte generiert werden müssen,
00:07:38: die doch vom Duktus ähnlich sind, wo man praktisch die relevanten Informationen
00:07:44: einfach nur als Stichpunkte aufschreibt und sich daraus dann eben ein Schriftstück erstellen lässt
00:07:49: und dann sozusagen dieses Schriftstück dann vielleicht nochmal korrigiert,
00:07:54: weil man denkt, naja, das ist vielleicht nicht so optimal formuliert.
00:07:57: Auch Fehler gibt es vielleicht immer noch.
00:07:59: Nee, Fehler weniger, eher so vom Duktus.
00:08:02: Also dass man eher das Gefühl hat, ah, so kann ich mit Eltern nicht reden,
00:08:06: das muss ein bisschen freundlicher sein, so weiter.
00:08:09: Also die KI-Agenten sind eher die kleinen Heinzelmännchen, nenn ich die,
00:08:14: die einem eher bei der Arbeit unterstützen.
00:08:17: Ich glaube für die sind wir auch dankbar für diesen Typ 2, das ist ja...
00:08:20: Das würde ich auch auf jeden Fall sagen.
00:08:22: Das ist was uns eben das Leben erleichtert.
00:08:24: Ich glaube bei vielen, wenn das Stichwort KI fällt, sprudelt dann so diese,
00:08:28: ich nenne sie mal die Angstemotion raus, bei Typ 1, das ist dann eher das in Anführungstrichen Problem.
00:08:35: Ja, wobei ich auch glaube auch selbst bei dem zweiten Typ,
00:08:39: bei den kleinen Heinzelmännchen, ist es ja so, dass man schon auch immer so das Gefühl hat,
00:08:44: ja, was will der denn noch von mir wissen, ja, und wenn man bestimmte Aufgaben auch, ja,
00:08:50: noch arbeitseffektiver machen will, muss man ja auch ein bisschen was von sich reingeben.
00:08:56: Ja, also wenn bestimmter Typ von Dokument will ich immer wieder erstellen,
00:09:01: dann muss ich von mir Vorlagen zur Verfügung stellen, letzten Endes,
00:09:06: wo dann auch wiederum die KI natürlich dann ähnliche Dokumente erstellen kann.
00:09:11: Aber ich gehe etwas von mir rein.
00:09:13: Also die Daten und meine, mein Ich, ja, ist dann in diesem Dokument
00:09:18: und nutzt die KI um solche Dokumente halt auch wiederum ähnlich zu erstellen.
00:09:24: Das heißt, ich muss relativ viel auch von mir da reingeben in dieses System
00:09:29: und das Problem glaube ich bei ganz vielen solchen Arbeiten ist,
00:09:33: wie viel will ich wirklich von dem, was ich bin sozusagen,
00:09:37: diesem System zur Verfügung stellen? Wie viel kann ich preisgeben?
00:09:41: Und habe ich noch Kontrolle darüber, dass dieses System,
00:09:46: das nicht letzten Endes später dann wieder, ja,
00:09:50: nutzt, um mich irgendwie, ja, zu erpressen, zu manipulieren,
00:09:56: zu manipulieren, warte und weiße, bin ich da nicht?
00:09:59: Also es geht eher um dieses Gefühl von Herr oder Frau über die Information sein
00:10:03: und weniger um vielleicht den Verlust des Jobs.
00:10:06: Ja, genau. Also eigentlich ist eher an der Stelle das Problem,
00:10:10: wie gut kann ich die Information kontrollieren, die ich zur Verfügung stelle
00:10:15: und wie gut sind sozusagen die Ergebnisse, die ich mit so einem kontrollierten
00:10:20: zur Verfügung stellen auch erziele.
00:10:24: Das ist auch ein Problem, was in ganz vielen Firmen, die mit sensiblen Daten arbeiten.
00:10:29: Also Steuerberatungsbüros haben ja das gleiche Problem.
00:10:32: Mit ihren Kunden, die müssen ja die Daten ihrer Kunden eigentlich irgendwie
00:10:36: dem System zur Verfügung stellen, damit sie dann auch adäquate Dokumente
00:10:41: erstellen können. Insofern ist selbst der Arbeitsprozess,
00:10:45: den man sozusagen alltäglich dann auch erledigen muss,
00:10:49: davon abhängig, wie sensibel sind dann diese Daten
00:10:53: und kann ich KIs nutzen, um solche sensiblen Daten dann auch
00:10:58: meine Ergebnisse, Arbeitsergebnisse effektiver zu gestalten.
00:11:02: Und dafür braucht es halt Lösungen.
00:11:05: Ja, ich nenne das jetzt mal die Vertrauenslösung.
00:11:08: Was für Lösungen gibt es da? Also wo setzt man da an?
00:11:11: Setzt man dann an bei, nee, wir nutzen das gar nicht
00:11:14: oder wir müssen ein System finden, wo wir ein Teil nutzen
00:11:18: oder müssen unsere Systeme besser werden? Es gibt ja verschiedene Wege.
00:11:21: Genau. Also das ist eine spannende Frage, die ich so eindeutig noch gar
00:11:25: nicht beantworten kann, weil eben auch genau diese verschiedenen Wege gegangen werden.
00:11:29: Und die Frage, die ich dann, aber das können wir dann nochmal machen,
00:11:33: interessant finde ist, wie entscheiden dann auch Unternehmen
00:11:38: diese unterschiedlichen Typen auch zu verwenden?
00:11:41: Also sie haben genau die Typen alle schon angesprochen.
00:11:44: Also man kann einfach sagen, wir benutzen die Systeme einfach nicht.
00:11:48: Ja, also das ist natürlich eine Möglichkeit.
00:11:51: Wir verschließen uns Schickungfax.
00:11:54: Ja, das macht man inzwischen nicht mehr, weil es ja diesen Standard
00:11:58: inzwischen gibt, dass man eigentlich keine Faxe mehr schicken muss.
00:12:02: Also es ist schon elektronisch, weil auch das eine gewisse Kundennähe
00:12:06: natürlich auch bringt. Also nichtsdestotrotz glaube ich,
00:12:10: dass ganz viele noch sagen, ja nee, im Moment kann ich damit nichts anfangen.
00:12:15: Das dauert noch 10, 20 Jahre, bevor das wirklich in meinem Arbeitsleben ankommt.
00:12:20: Ich glaube aber, dass wenn man das tut, man so teuer wird,
00:12:25: kann man natürlich machen, aber man so teuer wird,
00:12:28: weil eben man bestimmte Prozesse gar nicht automatisieren kann.
00:12:32: Ja, und dann wird man in der Dienstleistung so teuer,
00:12:35: dass man nicht mehr konkurrenzfähig ist auf dem Markt.
00:12:37: Und dann untergeht.
00:12:38: Und dann untergeht.
00:12:39: Deswegen, die zweite Variante, ist der Versuch im Grunde genommen
00:12:44: in den Daten, die man dem System gibt, die Informationen zu verschleiern,
00:12:50: nenne ich das. Also das gibt sozusagen KI-Filter, die über dann
00:12:55: diesen Daten, wo dann diese spezifischen Informationen liegen,
00:13:01: zu anonymisieren oder zumindest zu pseudonymisieren,
00:13:06: sodass man gar nicht als Person XY mit Klarnamen, mit Auftaucht,
00:13:13: und darüber sozusagen dann eben Steuerberatungsbüros eben trotzdem
00:13:19: KI's nutzen können mit solchen verschleierten Informationen.
00:13:23: Ja, weil wenn es eben viele Menschen gibt, die ein ähnliches
00:13:27: Steuerproblem haben oder ein ähnlichen Aufgabe zu lösen ist,
00:13:32: dann kann man mit diesen Filtern relativ gut umgehen und auch die
00:13:37: Informationen sozusagen so verschleiern, dass weiterhin halt
00:13:41: eigentlich dieses Vertrauen einfach hergestellt ist.
00:13:47: Das funktioniert aber nicht immer, weil es natürlich auch Probleme gibt,
00:13:52: die sehr spezifisch sind. Also wenn man sozusagen ein seltenes Problem hat,
00:13:58: dann ist man auch in diesem großen Datensatz mit den Filtern trotzdem rausfischbar.
00:14:05: Und die Frage ist dann tatsächlich, das ist so eine Gradwanderung,
00:14:10: dass man dann eigentlich eher das Problem hat, wiederum eher darauf zu verzichten,
00:14:16: solche Technologien zu verwenden. Dann wird es aber eben teurer.
00:14:19: Man wird einfach vorsichtiger dann in diesem Moment.
00:14:23: Genau. Also man muss selbst entscheiden, ist das jetzt eine Situation,
00:14:28: die eher selten auftritt, in der ich gerade mich befinde,
00:14:33: dann würde ich jetzt eher sagen, verzichte ich lieber auf die Nutzung von KI
00:14:37: und bezahl halt mehr einfach für die Dienstleistung oder ist es eben
00:14:42: ein Standardprozedur, die irgendwie jeder macht oder die auch wenig sensible
00:14:48: Informationen enthält, dann ist das kein Problem.
00:14:52: Und die dritte Variante ist das, was sich eigentlich, wenn man es wirklich
00:14:56: jetzt mal sich anschaut, tatsächlich gerade passiert.
00:15:00: Alle haben kein Bewusstsein darüber, dass wenn sie bestimmte KI's benutzen,
00:15:06: diese Informationen auch zur Verfügung stellen.
00:15:09: Und das, glaube ich, ist wirklich problematisch, weil wir sehen auch,
00:15:14: es benutzen ganz viele Leute, ChatGPT und ja alle hoch gerenkten Portale,
00:15:23: die dann natürlich auf Grundlage dieser Daten, die man wiederum zur Verfügung
00:15:27: stellt, immer besser werden.
00:15:30: Und die Systeme, die diese Daten nicht benutzen können,
00:15:34: verlieren natürlich an Dienstleistungsorientierung, die verlieren an,
00:15:41: man denkt dann so die Ergebnisse, passen nicht so richtig und ChatGPT wird
00:15:46: einfach besser.
00:15:47: Dadurch, dass es Millionen, Milliarden Menschen nutzen.
00:15:51: Und das führt natürlich und das finde ich auch problematisch zu so einer
00:15:56: Monopolisierung, die dann dazu führt, dass man vielleicht, ich hoffe nicht,
00:16:02: deswegen sage ich, es gibt viele andere tolle Clouds.
00:16:05: Es gibt 10.000 Clouds, die sehr spezifische auch Aufgaben besser erledigen
00:16:12: als ChatGPT.
00:16:13: Und man sollte sehr genau aufpassen, welches dieser Systeme man benutzt
00:16:19: und welche Daten man zur Verfügung stellt, genau weil man eben wirklich
00:16:24: mit einem klaren Bewusstsein darüber einfach auch mit diesen Technologien
00:16:29: umgehen muss, dass sie tatsächlich auch in meinem Sinne, also damit ich die
00:16:34: Kontrolle einfach über meine Daten behalte.
00:16:37: Also erstens ist es so praktisch, glaube ich, nicht, dass man KI nicht mehr
00:16:43: nutzen sollte in der Zukunft.
00:16:45: Man muss sie nutzen, wir nutzen sie täglich.
00:16:48: Da kann man nicht mehr dran vorbei.
00:16:50: Wir kommen nicht mehr zurück.
00:16:51: Nein.
00:16:52: Zweitens, glaube ich, braucht man wirklich einen Bewusstsein darüber,
00:16:58: was man hineingebt, wie viel man preisgibt.
00:17:01: Man sollte möglichst das, was man, also man muss sich bewusst machen,
00:17:08: dass man bestimmte Kontrollen abgeben muss auch an das System.
00:17:12: Und dann sollte man sich wirklich die Frage stellen,
00:17:14: an welches System gebe ich diese Kontrolle ab?
00:17:17: Ja, das heißt, das ist so eine einmal eine Entscheidung, die ich für mich
00:17:22: treffe, wenn ich privat damit arbeite und auch die die Unternehmen treffen.
00:17:25: Wenn Sie vorgeben, was Sie Ihren Mitarbeitenden dann eben ermöglichen.
00:17:30: Ja, und ich plädiere auch ein bisschen dafür, dass man das abwägen muss
00:17:36: zwischen sozusagen Effizienz auf der einen Seite, also wirklichen System,
00:17:41: was perfekt angeblich funktioniert, wo ich aber nicht so richtig weiß,
00:17:46: ob es jetzt tatsächlich zu viele Daten von mir benutzt.
00:17:50: Also so ein bisschen eine Fehler-Toleranz für Systeme,
00:17:55: die im Grunde genommen vielleicht deswegen nicht so gut sind,
00:18:00: weil sie nicht so häufig genutzt werden.
00:18:02: Aber viel sensibler mit meinen Daten umgehen.
00:18:06: Da Kompromisse einzugehen auch.
00:18:08: Also okay, spannend, wo wir uns dann so in den nächsten Jahren
00:18:12: dann bewegen werden.
00:18:14: Eine andere Punkt ist ja also beziehungsweise, was ich spannend finde,
00:18:18: weil vieles in dieser Diskussion wird immer sein,
00:18:20: okay, werde ich ersetzt durch etwas.
00:18:22: Und das ist ja wirklich gar nicht das, was Sie sehen,
00:18:24: sondern ein ganz anderer Punkt, über den wir jetzt hier gerade gesprochen haben.
00:18:28: Trotzdem sehen wir dann irgendwo die humanoiden Roboter
00:18:32: und denken uns, okay, kommt da vielleicht irgendwas
00:18:35: und wird vielleicht, wird er mich ersetzen.
00:18:38: Da befassen Sie sich ja auch mit diesen, dieser Fragen.
00:18:41: Ja, genau.
00:18:42: Oder mit dieser Sorge zumindest.
00:18:44: Also es ist eigentlich sehr klar, dass diese KI-Technologien
00:18:48: auf keinen Fall wirklich alle Arbeiten, die wir erledigen,
00:18:54: ersetzen können.
00:18:55: Also das ist eine Illusion zu glauben, dass wir wirklich alles machen.
00:19:02: Ich glaube, wir brauchen halt nicht nur aufgrund der demografischen Situation,
00:19:07: sondern auch wenn wir wirklich wollen,
00:19:11: dass wir in einem ökologisch einigermaßen stabilen,
00:19:17: in einem sozial einigermaßen stabilen Gesellschaftssystem weiterleben wollen,
00:19:23: brauchen wir einfach KI-Algorithmen, um unsere Arbeit
00:19:27: letzten Endes effektiver zu machen.
00:19:29: Weil wir haben ein Grundproblem, dass wir natürlich auch,
00:19:34: ja nicht nur als Gesellschaft viele Probleme zu lösen haben,
00:19:40: wo wir noch keine Lösungen haben bislang.
00:19:43: Also das größte ist halt wirklich, dass die Gesellschaft immer älter wird.
00:19:48: und wenn ein Gesamtratuspannungsoße verlängert wird,
00:19:53: Es gibt immer weniger Menschen, die wirklich auch produktiv sein können.
00:19:55: Und das heißt, wir müssen diese Kis dringend benutzen und bauen, um unsere Arbeit effektiver zu machen, produktiver zu machen.
00:20:03: Und der Punkt an der Stelle ist aber, dass diese Produktivität eben auch auf unterschiedlicher Art und Weise organisiert sein kann.
00:20:14: Also wir haben einen Einfluss darauf, diese Arbeit so zu gestalten, dass sie eben, ich nenn's, humaner wird.
00:20:22: Also wir haben auch eine Verantwortung dafür, natürlich.
00:20:27: Auch zu schauen immer ist eben eine KI so, dass sie mich eher unterstützt.
00:20:34: Oder hat sie jetzt schon so viel von mir selbst, dass sie eigentlich das, was ich alles können würde, sozusagen Intus,
00:20:44: sodass sie ja alles das, was ich mache, tatsächlich erledigen kann?
00:20:50: Kann ich, also ist es gut?
00:20:52: Ich glaube, es ist dann gut, wenn ich selbst die Kontrolle darüber habe.
00:20:56: Es wird dann schlecht, wenn dann plötzlich die KI mir als Monster entgegen steht, ne?
00:21:02: Und dann sozusagen mein Avatar-Szenario, oder selbst sozusagen.
00:21:09: Ich denke wirklich die ganze Zeit darüber nach, wie wäre es, wenn ich jetzt hier nicht sitze,
00:21:15: sondern mein Avatar und mit ihnen das Gespräch führt, würde das, also wäre das das gleiche Gespräch,
00:21:22: wenn ich sozusagen ein Avatar trainieren würde, der ich ist.
00:21:27: Und was wäre das für ein Gefühl quasi ein zweites Wesen zu haben, weil wir von KI-Agenten gesprochen haben?
00:21:35: Und was macht mich dann aus?
00:21:37: Und ich glaube, das ist der wichtige Punkt.
00:21:39: Und ich glaube, das ist tatsächlich so, dass diese Maschinen, auch künstliche Intelligenz sind, Werkzeug, Maschinen,
00:21:48: sicherlich ganz viel kopieren können schon und auch durchaus kluge Antworten geben können.
00:21:55: Aber ich glaube, sie sind nach wie vor nicht wirklich in der Lage, das, was ich jetzt gerade versuche,
00:22:03: Bedeutung zu schaffen, zu erklären.
00:22:06: Also wirklich zu erklären, Sinn zu verstehen und sozusagen zu reproduzieren,
00:22:15: dieses Bauchgefühl, was wir immer noch haben, ja?
00:22:20: Das Bauchgefühl zu nutzen, um Arbeit auch nicht nur rational produktiver zu machen,
00:22:28: sondern auch emotional produktiver zu machen.
00:22:31: Das heißt, im Prinzip reagiere ich ganz häufig auch in meinem Alltagsleben aus dem Bauch heraus.
00:22:37: Ich versuche etwas zu erklären.
00:22:39: Ich schau sie an und sage, sie hat jetzt was nicht verstanden, weil da die Augen hochgehen.
00:22:45: Dann muss ich reagieren. Das können aber Tare teilweise schon auch.
00:22:50: Aber sie sind ja nicht in der Lage sozusagen wirklich auf das Problem grundsätzlich einzugehen.
00:22:59: Also wirklich in der Diskussion zu kommen, weil sie eher dann, ich sage mal schon in diese Muster verfallen,
00:23:07: dass sie eben dann eher Anweisungen gehen oder dass sie einem eher gerecht werden wollen,
00:23:13: wenn sie entsprechend trainiert sind, dass sie einen sozusagen versuchen eher zu manipulieren.
00:23:20: Und das ist natürlich auch eine Frage, wo man eine Gefahr sehen kann.
00:23:28: Aber in der tatsächlichen Arbeitswelt sehen wir das bisher eher nicht.
00:23:34: Also wir sehen eher in der tatsächlichen Arbeitswelt, dass diese Kis,
00:23:39: und das ist auch gut so, als wirklich Heinzelmännchen benutzt werden.
00:23:43: Wir programmieren sie ja auch. Sie sind freundlich, auch wenn ich zehnmal frage,
00:23:47: und die KI ist nie genau.
00:23:49: Genau, sie sind geduldig, die haben auch immer eine freundliche Antwort.
00:23:54: Also von Menschen kriegt man auch manchmal so unfreundliche Antworten.
00:23:59: Oder wenn auch Menschen in bestimmten Situationen natürlich gestresst sind,
00:24:04: sind die meistens auch anders.
00:24:06: Ja, genau. Das machen KI's bis jetzt nicht.
00:24:10: Also die könnten das sicherlich, aber wir haben zum Glück noch die Kontrolle darüber zu sagen.
00:24:14: Also da ist echt Schluss.
00:24:17: Und ich glaube, wir müssen schauen, dass wir genau das auch im Arbeitsleben so organisieren,
00:24:26: dass wir diese auch wirklich menschliche Eigenschaft uns erhalten.
00:24:32: Es gibt sicherlich, also es gibt eine Studie, die finde ich sehr interessant.
00:24:37: Das ist die Studie von der TU Darmstadt, in der Büroassistenten trainiert werden.
00:24:46: Und Sie haben es vorhin schon mal ganz kurz angedeutet.
00:24:49: KI's als Agenten kommen ja meistens eher, weil sie preiswerte sind,
00:24:53: natürlich als virtuelle Agenten auf uns zu.
00:24:56: In dieser Studie wird sehr schön belegt, wie wichtig es aber ist,
00:25:00: dass man eben einen Gegenüber hat.
00:25:05: Also etwas zum Anschauen, ein Roboter, irgendjemand.
00:25:09: Genau, ein Roboter oder ja auch wir stellen das immer wieder fest in unseren virtuellen Sessions.
00:25:14: Es ist einfach was anderes, wenn ich jemanden treffe auf einer Konferenz und hallo sage.
00:25:20: Nach der Corona-Pandemie war uns das sehr bewusst.
00:25:22: Ja, und es ist auch jetzt immer noch so, dass man natürlich auch in Homeoffice produktiv ist.
00:25:29: Aber man ist eben anders produktiv, wenn man mit anderen zusammenarbeitet.
00:25:36: Und ich glaube, dass sozusagen, dass so eine Beobachtung ist, die belegt,
00:25:42: dass uns reine virtuelle Agenten zu unähnlich sind,
00:25:48: als dass wir sie wirklich als adäquate Gesprächspartner wirklich nutzen können.
00:25:56: Also weil wir dieses körperliche irgendwie brauchen.
00:25:59: Wir brauchen diese Feine G-Stick.
00:26:02: Wir brauchen Emotionen auch bei der Arbeit.
00:26:06: Es ist auch ein Kommunizieren ohne zu sprechen und ohne wirklich zu kommunizieren.
00:26:11: Korrekt, genau. Das sind auch Körperbewegungen.
00:26:13: Es ist sozusagen, ja, selbst wenn wir uns in 3D virtuellen Metaverse-Umgebungen irgendwann mal befinden werden,
00:26:21: fehlt, glaube ich, trotzdem etwas.
00:26:25: Nämlich dieses haptische, ja, auch dieses soziale.
00:26:29: Ich meine, natürlich ist jedes Gespräch, beginnt irgendwie mit einem,
00:26:34: ja, wie geht es Ihnen, oder ist das Wetter auch so schlecht, oder?
00:26:38: Das Moldog.
00:26:39: Genau, das Moldog.
00:26:40: Oder vielleicht auch die Kaffeetasse, ja.
00:26:42: Also die gemeinsame Kaffeetasse, die man eben virtuell nur anstoßen kann.
00:26:46: Aber ich glaube, das ist ein guter Ersatz, um ja, Entfernungen zu überbrücken,
00:26:53: auch Zeiten zu überbrücken.
00:26:55: Aber es ist eben kein perfekter Ersatz.
00:26:58: Wir brauchen als Menschen einfach ein mehr oder weniger menschliches Gegenüber.
00:27:03: Und diese Studie in Darmstadt, die belegt sehr gut,
00:27:07: dass man in Projektarbeit aber Roboter als Kollegen betrachtet.
00:27:12: Aber erst dann, wenn sie auch anfangen, diese sozialen Gespräche zu führen,
00:27:19: für sich eine Geschichte zu entwickeln, eine Persönlichkeit zu entwickeln.
00:27:23: Also Roboter in solchen wirklich auch wichtigen Projektarbeiten,
00:27:30: wenn sie sozusagen wirklich in die Zukunft gedacht,
00:27:34: vielleicht auch preiswerter werden, also die sind im Moment auch noch viel zu teuer.
00:27:38: Aber wenn sie sozusagen dann als Roboter mit einer guten künstlichen Intelligenz ausgestattet sind,
00:27:46: müssen die auch eben sowas haben wie eine Geschichte, das den Lieblingsfilm.
00:27:53: Eine Persönlichkeit, ja.
00:27:55: Eine Persönlichkeit.
00:27:56: Auch was die Reaktionen auf sowas, was ich gerade gesagt habe,
00:28:01: dass man eben mal sauer ist.
00:28:03: Und das programmieren wir ja aktuell ja noch nicht ein.
00:28:07: Also wir haben ja schon gesagt, unterstützen, geduldig, hilfsbereit.
00:28:11: Und ist das eine technische Grenze?
00:28:14: Entscheiden wir uns bewusst dafür?
00:28:17: Also ich glaube, dass wir gegenwärtig noch eigentlich dieses menschliche in dem Roboter,
00:28:24: was ich versucht habe, gerade zu skizzieren, gar nicht wollen.
00:28:28: Wir wollen das nicht, dass die Roboter das können.
00:28:32: Sie werden uns dann ja auch ähnlich, ja.
00:28:35: Und dann kommt vielleicht dieses Gefühl von Ersatz wieder hoch?
00:28:38: Ja, ich glaube, ich hatte letztens ein Gespräch mit einem Personal von einer Firma,
00:28:43: der dann gesagt hat, na ja, wozu brauche ich dann einen Roboter,
00:28:47: dann kann ich auch Menschen nehmen, die machen dieselben Fehler.
00:28:50: Also Roboter machen dann auch Fehler.
00:28:52: Und massive Fehler oder ähnliche Fehler wie wir machen.
00:28:56: Also sie sind eher sozusagen das Spiegelbild.
00:28:59: Dann sagt der Personal, na ja, dann kann ich auch Menschen.
00:29:02: Ich meine, das klingt ein bisschen so danach, ne?
00:29:04: Die könnten ersetzt werden.
00:29:06: Und der macht dann das, was ich will.
00:29:09: Ja, also eher wirklich die automatisierte Fabrik.
00:29:12: Und wozu brauche ich sozusagen dann überhaupt noch andere Arbeiter?
00:29:17: Das wird sicherlich auch in die Richtung gehen,
00:29:20: dass gerade so Produktionsabläufe stärker automatisiert werden
00:29:25: und dadurch auch Personal eingespart wird.
00:29:27: Das ist unabdingbar.
00:29:29: Aber wenn wir dann schauen, welche Arbeiten übrig bleiben,
00:29:34: die dann dann halt wirklich auch mehr Kreativität, Teamarbeit und so weiter beanspruchen,
00:29:41: dann ist es ja wirklich eher so, dass Roboter dann eben nicht nur
00:29:48: nach Algorithmen funktionieren können.
00:29:52: Und soweit sind wir noch lange nicht.
00:29:54: Wir programmieren ja auch ein bestimmtes Bild dort in die KI.
00:30:01: Wenn wir mal nach diesen Typen gehen, zum Beispiel Typ 1,
00:30:05: war ja dann wirklich der KI-Agent, der dann auch was vorgibt, Struktur vorgibt
00:30:10: und freundlich, loyal, unterstützend und eben nicht vielleicht machtorientiert
00:30:16: oder so was, wie ja auch jemand sein könnte.
00:30:18: Also es ist, was für ein Bild haben wir denn da eigentlich,
00:30:23: was wir programmieren?
00:30:24: Ja, genau. Also das ist eine gute Frage, weil das natürlich auch davon abhängig ist,
00:30:28: welcher Programmierer dahinter steht oder welches Team an Programmierern dahinter stellt.
00:30:34: Und da glaube ich, es gibt es auch noch einen ganz wichtigen Aspekt,
00:30:39: den ich auch unbedingt noch anbringen möchte,
00:30:42: weil ich glaube, dass wir als Frauen uns dazu wenig einbringen bislang.
00:30:50: Und wir müssen Wege finden, uns mehr einzubringen,
00:30:53: weil es natürlich schon so ist, dass dieser Roboter, der dann ausgestattet ist mit Waffen
00:31:02: oder auch dieses Bild, was dann da so meistens von diesen Drohnen und so weiter gezeichnet wird,
00:31:09: ist ja eher so der Mann.
00:31:12: Das ist eher so der Krieger, der machtbesessene oder machthungrige, eher gesagt, Roboter,
00:31:21: der dann auch Probleme hat, glaube ich, auch sozusagen diese sozialen Folgen seines Handelns
00:31:32: tatsächlich abschätzen zu können oder die Menschen, die dahinter sind, können es nicht so richtig.
00:31:38: Und das Gegenbild, das, was wir eben wirklich gerade auch in den Arbeitsmärkten sehen,
00:31:45: oder in den Schulen, das ist wirklich dieser unterstützende,
00:31:49: also ich glaube, abgesehen wirklich von diesen kriegerischen Situationen,
00:31:56: ist in der Arbeitswelt wirklich eher der nette, freundliche, geduldige, teilweise sensible,
00:32:04: KI-Agent da, der auch wirklich bei der Arbeit unterstützt.
00:32:11: Das glaube ich ist eher die Zukunft als der Manager, der wirklich durch strenge Vorgaben
00:32:19: und was auch immer, der KI-Manager, der da sozusagen Befehle austeilt.
00:32:24: Ein Hilfsbereitschaftsmodell.
00:32:26: Genau, weil der Punkt auch ist, also vielleicht ist es wirklich auch eine ethische Frage,
00:32:33: weil wir immer wieder auch feststellen, dass wir Menschen einfach auch diese sozialen,
00:32:41: emotionalen Elemente brauchen, um gute Arbeit zu leisten.
00:32:46: Also zumindest in einer friedlichen Gesellschaft und das betone ich wirklich,
00:32:52: und wenn wir in einer friedlichen Gesellschaft leben, geht die Tendenz eher in die Richtung,
00:32:59: dass KI-Werkzeuge bleiben.
00:33:02: Wenn wir in einer kriegerischen Situation kommen, werden wir da beides wahrscheinlich eher nebeneinander haben
00:33:10: und wahrscheinlich auch beides brauchen, weil eben in bestimmten Situationen eben leider diese
00:33:16: Gesellschaft mit Waffen verteidigt werden muss.
00:33:20: Und insofern ist sozusagen diese Arbeitswelt, die ich gerade beschreibe, eben nur unter diesen Vorbehalt realisierbar.
00:33:33: Ich nenn es mal vielleicht stereotypische Kodierung, vielleicht.
00:33:39: Was sagt das über uns Aussetzgesellschaft, vielleicht auch über unser Bild von Arbeit und Unterstützung?
00:33:46: Vielleicht so zum Ende hin, vielleicht so eine philosophische Frage.
00:33:50: Ja, das ist eine sehr interessante Frage.
00:33:53: Im Grunde genommen hole ich jetzt nur das Bild mal raus.
00:33:56: Ich habe gerade von diesem Roboter von der TU Darmstadt, Ele Neut übrigens, gesprochen, die eben weiblich ist.
00:34:04: Wie so eine stereotypische Sekretärin.
00:34:07: Das ist die stereotypische Sekretärin, so wie man sie sich auch erhofft, auch weiblich,
00:34:13: weil man natürlich mit der weiblichen Arbeitsinhalten halt eher auch dieses Geduldige und auch dieses Hilfsbereite assoziiert
00:34:25: und gegenteiligt dann halt wirklich, wenn man die Videospiele sich anguckt und dann wirklich diesen kraftprozenden Avatar halt hat,
00:34:35: der keine Ahnung schon die Arme quasi nur aus Waffen besteht.
00:34:39: Oder was wir aus Filmen dann so sehen.
00:34:41: Was wir aus Filmen kennen, genau.
00:34:43: Aber ich glaube wirklich, dass mit diesem Kontrast, den man da sieht, eigentlich auch genau diesen Unterschied bildlich hat,
00:34:54: diesen Unterschied bildlich sich vorstellen kann, dass eben einerseits solche KI-Assistenten, wenn man sie richtig gestaltet,
00:35:04: halt wirklich auch uns unterstützen können, uns zu effektiv für den Arbeiten bringen kann
00:35:13: und andererseits eben wirklich der Zerstörer.
00:35:17: Und dieses Bild bedeutet eigentlich auch für die Stereotype unsere, weil sie es gerade angesprochen hat,
00:35:23: die Arbeit wird in unserer Gesellschaft immer weiblicher.
00:35:27: Also es werden in den Anzeigen, in den Stellenanzeigen, die wir eben auch jetzt auslesen,
00:35:35: eben mit einer künstlichen Intelligenz, die wir selbst entwickelt haben.
00:35:39: Und darüber sehen wir, dass eben emotionale Intelligenz einfach einen Wert an sich bekommt,
00:35:45: nicht nur kognitive Intelligenz, also bislang war eine Leistungsgesellschaft eher die kognitive Intelligenz relativ wichtig.
00:35:54: Jetzt wird zunehmend eben diese emotionale Intelligenz wichtiger auch im Arbeitsleben.
00:36:00: Ja, und ein Ingenieur, der oder einen Nerd, der nur programmiert oder auch selbst mit den besten KI's arbeitet,
00:36:08: hat ein Problem einfach, weil er natürlich durch die künstlichen Intelligenzen, die er programmiert,
00:36:14: eigentlich immer mit Menschen reden muss und auf deren Bedürfnisse eingehen muss.
00:36:19: Also er wird emotionaler werden müssen oder sozialer werden müssen,
00:36:24: einfach um eben den Bedürfnissen der Menschen, also dieses Spiegelbild bauen zu können, wie sind Menschen eigentlich,
00:36:33: wird er eben sozialer werden müssen oder auch solche Kompetenzen sich aneignen müssen.
00:36:40: Und das heißt also die Arbeitswelt wird eben eher sozialer statt auf der anderen Seite halt eher sozusagen noch kognitiver.
00:36:52: Also die Leistungsorientierung geht auch eben stärker weg, weil wir eben diese ganzen KI's haben,
00:36:59: die uns die kognitiven Arbeiten nicht abnehmen, aber doch sehr stark unterstützen.
00:37:06: Also ich kann in Sekundenschnelle mir eine Liste erstellen lassen, was die wichtigsten Argumente für oder gegen irgendeine These sind,
00:37:17: wo ich früher Bücher lesen musste und so weiter.
00:37:21: Also ich kann mir relativ schnell Wissen erarbeiten, Wissen steht zur Verfügung weitgehend.
00:37:27: Also da, wo Wissen zur Verfügung steht, ist kognitive Leistungsfähigkeit schon noch relevant,
00:37:34: um mehr in Bezug darauf das einschätzen zu können.
00:37:37: Aber auf der anderen Seite ist es halt viel wichtiger, dass man eben mit Menschen kommunizieren kann,
00:37:43: dass man mit denen eine Ebene findet.
00:37:46: Jetzt bin ich schon wieder bei einem Bauchgefühl, dass man eine Kommunikation einfach auch emotional gestalten kann,
00:37:52: auch wenn sie virtuell ist.
00:37:54: Das ist ein menschlicher.
00:37:55: Genau, dass sozusagen so eine Austausch möglich ist, auch wenn man sich nicht trifft,
00:38:02: das muss man dann auch wiederum trainieren.
00:38:04: Deswegen ist es total wichtig, sich mindestens einmal im Jahr, im Team, zu treffen.
00:38:10: Eine Managementphilosophie ist, man muss Erfolge auch feiern,
00:38:16: man muss aber auch, wenn man Misserfolge hatte, die gut kommunizieren
00:38:21: und sozusagen diese Repro...
00:38:24: Also einfach sich bewusst machen, wo war jetzt das Problem bei Misserfolgen?
00:38:30: Misserfolge aber auch sozusagen eher als Herausforderung annehmen und nicht als scheitern.
00:38:37: Und das sind alles solche Elemente, die sehr emotional beladen sind,
00:38:41: die ich gerade genannt habe.
00:38:42: Und das ist aber ein Kapital, was in der Zukunft halt wichtiger wird.
00:38:49: Wichtiger.
00:38:50: Spannend, dass ausgerechnet die künstliche Intelligenz, die ja eigentlich vermeintlich technisch kalt ist,
00:38:55: uns genau dorthin dann führt.
00:38:58: Also dass wir da so viel über Vertrauen, Verantwortung gesprochen haben,
00:39:03: finde ich ganz besonders spannend.
00:39:05: Und eben die Frage, wie wir gute Zusammenarbeit in unserer eben zunehmend digitalen und KI-gesteuerten Welt
00:39:11: dann eben neu denken können.
00:39:13: Vielen lieben Dank, Dr. Brita Matys vom IAB für das Gelugel.
00:39:16: Hat mir sehr viel Spaß gemacht, danke schön.
00:39:18: Ich finde auch ein sehr menschliches Gespräch,
00:39:20: das ist kein Arbeiterhaber, mit dem ich gesprochen habe.
00:39:23: Vielen lieben Dank, dass Sie bei uns zu Gast waren.
00:39:26: Ja, vielen Dank.
00:39:28: [Musik]
00:39:38: [MUSIK]
Neuer Kommentar