KI-Agenten: Wie künstliche Intelligenz deine Arbeit verändert

Shownotes

Beschreibung:

In dieser Folge werfen wir einen Blick in die Zukunft der Arbeit – und zwar durch die Linse der Künstlichen Intelligenz. Mit neuen KI-Modellen und sogenannten Agenten verändert sich nicht nur, wie wir arbeiten, sondern auch unser Verständnis von Zusammenarbeit, Führung und Fürsorge.

Außerdem in unseren Rubriken: Ein Blick auf die Highlights der Google I/O – von beeindruckenden KI-Neuerungen über einen Super-KI-Assistenten bis hin zur überraschenden Rückkehr der Smart Glasses.

Egal, ob du ein Technik-Enthusiast, ein Neuling in der Welt der Technologie oder einfach neugierig auf die Zukunft und Innovationen bist, diese Folge bietet dir spannende Informationen und Einblicke in die Welt von überMORGEN.

Ressourcen und Links:

https://www.casacasi.de/episodes/die-google-ki-verandert-die-welt-aber-wollen-wir-das

https://www.inside-digital.de/news/einkaufen-sehen-verstehen-googles-ki-veraendert-alles

https://www.inside-digital.de/news/google-i-o-2025-das-ist-das-neue-android-16-design

Unsere Podcast-Nachbarn CasaCasi:

https://www.casacasi.de

Feedback und Kontakt:

Wir freuen uns über dein Feedback! Schreibe uns einfach eine E-Mail an podcast@inside.digital oder folge uns auf Instagram unter @inside_digital. Wenn du Fragen oder Ideen für zukünftige Episoden hast, lass es uns wissen.

Wenn dir die Folge gefallen hat, abonniere unseren Podcast und hinterlasse uns eine Bewertung. Deine Unterstützung hilft uns, den Podcast zu verbessern und mehr Inhalte zu produzieren. Freu dich auf morgen!

Disclaimer:

Die in dieser Episode geäußerten Meinungen sind die der Hosts und Gäste und spiegeln nicht unbedingt die Meinungen von inside digital wider.

Produktion:

Mit freundlicher Unterstützung von TON.EINS.

https://toneins.de

Transkript anzeigen

00:00:00: Wenn wir wirklich wollen, dass wir in einem ökologisch einigermaßen stabilen,

00:00:08: in einem sozial einigermaßen stabilen Gesellschaftssystem weiterleben wollen,

00:00:14: brauchen wir einfach KI-Algorithmen, um unsere Arbeit letzten Endes effektiver zu machen.

00:00:20: Hallo und herzlich willkommen zu einer neuen Übermorgenfolge. Heute geht es um ein Thema,

00:00:38: das gerade durch neue KI-Modelle und Tools wie Agenten nochmal eine neue Dringlichkeit bekommt.

00:00:43: Wie verändert KI unsere Arbeit? Was sind überhaupt KI-Agenten? Was können sie,

00:00:49: was dürfen sie und wie verändern sie? Vielleicht ganz leise unser Bild von Zusammenarbeit,

00:00:54: Führung und Fürsorge. Darüber sprechen wir heute mit einer Expertin vom IAB, dem Institut für

00:00:59: Arbeitsmarkt und Berufsforschung. Außerdem geht es in den Rubriken um Google's Entwicklerkonferenz

00:01:04: I/O. Dort war natürlich auch künstlich Intelligenz ein ganz großes Thema,

00:01:08: aber auch eine neue Brille und ein super KI-Assistent. Ich bin Johanna, schön, dass ihr zuhört.

00:01:14: Mit am Mikrofon ist heute Dr. Brita Matys vom Institut für Arbeitsmarkt und Berufsforschung,

00:01:22: dem Forschungspartner der Bundesagentur für Arbeit. Schön, dass Sie heute bei Übermorgen dabei sind.

00:01:26: Ja, hallo. Sie forschen ja zu Themen wie Transformation, Digitalisierung,

00:01:31: Künstlich-Intelligenz und sie publizieren zum Wandel der Beschäftigung. Ganz viel oder

00:01:36: ganz häufig fallen ja da auch Wörter wie der Begriff Agent in diesem KI-Zusammenhang. Wenn

00:01:42: Sie da erklären, worum es da geht, was das eigentlich ist, ein KI-Agent und wie er sich so

00:01:46: unterscheidet, vielleicht von Sprachmodellen und Chatbots, gibt es überhaupt einen Unterschied?

00:01:50: Wie erklären Sie das? Ja, KI-Agenten, schwierige Definition, weil KI-Agenten ja im Grunde genommen

00:01:59: alle KI's sind. Also KI's, die agieren ja letzten Endes, weil sie natürlich mit uns als Menschen

00:02:07: kommunizieren. Agenten gehen, glaube ich, aber wenn man es wirklich ernst nimmt und so von der

00:02:13: Definition her versucht, näher zu beschreiben, ein bisschen weiter, weil sie eben nicht nur

00:02:20: kommunizieren oder wo wir sozusagen einen Input geben und dann kriegen wir was zurück wie ja,

00:02:26: nein oder ja, habe ich gemacht, sondern Agenten sind eben eher auch Tools, die einem Empfehlungen

00:02:35: geben. Also nicht nur Informationen vermitteln, sondern eigentlich auch in gewisser Weise Handlungsanweisungen

00:02:42: vorgeben, also im Prinzip sagen, ja, du hast jetzt wieder keine, ich sag mal Frühstück gegessen

00:02:49: und das war jetzt nicht so gut, weil es nicht so gesund war. Es wäre besser, das nächste Mal das und

00:02:53: das zu tun oder die dich mit den Smartphones letzten Endes oder dann auch eine Hinweis kriegst

00:03:00: oder mit der Smartwatch verbunden ist. Du hast dich heute zu wenig bewegt, du solltest noch mal

00:03:04: 10.000 Schritte gehen oder nur 4.000 oder wie auch immer. Also Agenten sind KI-Systeme, die einen

00:03:12: in gewisser Weise beobachten in seinem alltäglichen Tun und dann aber Hinweise geben, inwiefern man

00:03:20: eben sein Verhalten anpassen sollte. Die dann noch einen Schritt weitergehen, nicht nur die

00:03:27: Informationen liefern. Im Grunde genommen, wenn wir über eher Arbeitszusammenhänge reden, treten

00:03:34: KI-Agenten in zweierleihe Form auf. Einmal eher als KI-Agenten, die eher dem Menschen Handlungsanweisungen

00:03:45: vorgeben und damit sozusagen eher als Kontrolleure auch wirken. Also im Sinne von, das sind eben

00:03:54: auch Instanzen, die die Arbeit kontrollieren. Okay, eine Struktur vorgeben? Genau, und aber eben auch

00:04:01: durchaus eingreifen. Aber diese Konstellation hat zwei Seiten. Die eine Seite ist natürlich, dass man

00:04:09: dann eher zum Handlanger der Maschine wird. Also dass man sozusagen eher immer den Befehlen der

00:04:15: Maschine folgen muss. Andererseits aber eben auch eine Situation entsteht, wo man eben lernen kann.

00:04:22: Und da gilt es, so ein bisschen diese Balance herzustellen. Ich habe vorhin dann von diesen

00:04:27: zweiten Typen-Agenten gesprochen. Diese Agenten sind eher nicht für so, ich sage mal, eher einfache

00:04:36: Tätigkeiten typisch, sondern eher so für komplexe Tätigkeiten, wo es eben darum geht,

00:04:43: Projektzusammenhänge zu diskutieren, wo es darum geht, vielleicht auch Arbeitsabläufe,

00:04:50: die sehr unterschiedlich sind, irgendwie zu steuern, zu organisieren, zu dokumentieren. Und da sind

00:04:57: KI-Agenten weniger diejenigen, die diese Tätigkeiten sozusagen vorgeben, sondern meistens eher

00:05:05: unterstützend. Also die KI-Agenten sind eher die kleinen Heinzelmännchen, nenne ich die, die einem eher

00:05:12: bei der Arbeit unterstützen. Ich glaube für die sind wir auch dankbar für diesen Typ 2. Das ist ja

00:05:17: auch auf jeden Fall sagen. Das ist was uns eben das Leben erleichtert. Ich glaube bei vielen,

00:05:22: wenn das Stichwort KI fällt, sprudelt dann so diese, ich nenne sie mal die Angstemotion raus bei

00:05:27: Typ 1, das ist dann eher das in Anführungsstrichen Problem. Ja, wobei ich auch glaube, auch selbst bei

00:05:35: dem zweiten Typ, bei den kleinen Heinzelmännchen, ist es ja so, dass man schon auch immer so das

00:05:40: Gefühl hat, ja was will der denn noch von mir wissen, ja und wenn man bestimmte Aufgaben auch

00:05:46: noch arbeitseffektiver machen will, muss man ja auch ein bisschen was von sich reingeben. Ja,

00:05:54: also wenn bestimmter Typ von Dokument will ich immer wieder erstellen, dann muss ich von mir

00:06:00: Vorlagen zur Verfügung stellen, letzten Endes, wo dann auch wiederum die KI natürlich dann

00:06:06: ähnliche Dokumente erstellen kann. Aber ich gehe etwas von mir rein. Also die Daten und meine,

00:06:12: meine ich, ja ist dann in diesem Dokument und nutzt die KI um solche Dokumente halt auch wiederum

00:06:20: ähnlich zu erstellen. Das heißt ich muss relativ viel auch von mir da reingeben in dieses System

00:06:26: und das Problem glaube ich bei ganz vielen solchen Arbeiten ist, wie viel will ich wirklich von dem,

00:06:32: was ich bin sozusagen diesem System zur Verfügung stellen. Wie viel kann ich preisgeben und habe

00:06:40: ich noch Kontrolle darüber, dass dieses System das nicht letzten Endes später dann wieder ja nutzt,

00:06:49: um mich irgendwie ja zu erpressen, zu manipulieren, wartenweise. Bin ich da nicht, also es geht eher

00:06:57: um dieses Gefühl von Herr oder Frau über die Information sein und weniger um vielleicht

00:07:01: den Verlust des Jobs. Ja genau, also eigentlich ist er an der Stelle das Problem, wie gut kann ich die

00:07:09: Informationen kontrollieren, die ich zur Verfügung stelle und wie gut sind sozusagen die Ergebnisse,

00:07:15: die ich mit so einem kontrollierten zur Verfügung stellen auch erziele.

00:07:20: Ein anderer Punkt ist ja also beziehungsweise was ich spannend finde ist, weil vieles in dieser

00:07:24: Diskussion wird immer sein, okay werde ich ersetzt durch etwas und das ist ja wirklich gar nicht das,

00:07:29: was Sie sehen, sondern ein ganz anderer Punkt über den wir jetzt hier gerade gesprochen haben.

00:07:33: Trotzdem sehen wir dann irgendwo die die humanoiden Roboter und denken uns, okay kommt da vielleicht

00:07:39: irgendwas und wird vielleicht, wird er mich ersetzen. Da befassen Sie sich ja auch mit diesen

00:07:46: Fragen oder mit dieser Sorge zumindest. Also es ist eigentlich sehr klar, dass diese KI-Technologien

00:07:54: auf keinen Fall wirklich alle Arbeiten, die wir erledigen, ersetzen können. Also das ist eine

00:08:02: Illusion zu glauben, dass wir wirklich alles machen. Ich glaube, wir brauchen halt nicht nur aufgrund

00:08:11: der demografischen Situation, sondern auch wenn wir wirklich wollen, dass wir in einem ökologisch

00:08:20: einigermaßen stabilen, in einem sozial einigermaßen stabilen Gesellschaftssystem weiterleben wollen,

00:08:28: brauchen wir einfach KI-Algorithmen, um unsere Arbeit letzten Endes effektiver zu machen, weil

00:08:35: wir haben ein Grundproblem, dass wir natürlich auch ja nicht nur als Gesellschaft viele Probleme zu

00:08:45: lösen haben, wo wir noch keine Lösungen haben bislang. Also das größte ist halt wirklich, dass die

00:08:52: Gesellschaft immer älter wird und wenn der Gesellschaft älter wird, gibt es immer weniger

00:08:57: Menschen, die wirklich auch produktiv sein können und das heißt, wir müssen diese KI's

00:09:02: dringend benutzen und bauen, um unsere Arbeit effektiver zu machen, produktiver zu machen.

00:09:08: Und der Punkt an der Stelle ist aber, dass diese Produktivität eben auch auf unterschiedliche

00:09:16: Art und Weise organisiert sein kann. Also wir haben einen Einfluss darauf, diese Arbeit so zu

00:09:24: gestalten, dass sie eben, ich nenn's, humaner wird. Also wir haben auch eine Verantwortung dafür,

00:09:31: natürlich. Auch zu schauen immer ist eben eine KI so, dass sie mich eher unterstützt oder hat

00:09:40: sie jetzt schon so viel von mir selbst, dass sie eigentlich das, was ich alles können würde,

00:09:47: sozusagen Intus, so dass sie ja alles das, was ich mache, tatsächlich erledigen kann.

00:09:55: Kann ich, also ist es gut? Ich glaube es ist dann gut, wenn ich selbst die Kontrolle darüber habe.

00:10:00: Es wird dann schlecht, wenn dann plötzlich die KI mir als Monster entgegen steht,

00:10:07: also die sozusagen, meine Avatar, oder selbst, selbst sozusagen. Ich denke wirklich die ganze

00:10:16: Zeit darüber nach, wie wäre es, wenn ich jetzt hier nicht sitze, sondern mein Avatar und mit

00:10:23: ihnen das Gespräch führt, würde das, also wäre das das gleiche Gespräch, wenn ich sozusagen

00:10:28: ein Avatar trainieren würde, der ich ist. Und was wäre das für ein Gefühl quasi ein zweites

00:10:37: Wesen zu haben, weil wir von KI-Agenten gesprochen haben? Und was macht mich dann aus? Und ich

00:10:42: glaube, das ist der wichtige Punkt und ich glaube, das ist tatsächlich so, dass diese Maschinen,

00:10:50: auch künstlich endlich, Gänzens und Werkzeuge Maschinen sicherlich ganz viel kopieren können

00:10:56: schon und auch durchaus kluge Antworten geben können. Aber ich glaube, sie sind nach wie vor

00:11:04: nicht wirklich in der Lage, das was ich jetzt gerade versuche, Bedeutung zu schaffen, zu erklären,

00:11:12: also wirklich zu erklären, Sinn zu verstehen und sozusagen zu reproduzieren dieses Bauchgefühl,

00:11:23: was wir immer noch haben, dieses Bauchgefühl zu nutzen, um Arbeit auch nicht nur rational

00:11:32: produktiver zu machen, sondern auch emotional produktiver zu machen. Das heißt, im Prinzip

00:11:38: reagiere ich ganz häufig auch in meinem Alltagsleben aus dem Bauch heraus. Ich versuche etwas zu

00:11:44: erklären. Ich schau sie an und sage, sie hat jetzt was nicht verstanden, weil da die Augen

00:11:50: hochgehen. Dann muss ich reagieren. Das können aber Tare teilweise schon auch, aber sie sind

00:11:58: ja nicht in der Lage sozusagen wirklich auf das Problem grundsätzlich einzugehen, also wirklich

00:12:06: in der Diskussion zu kommen, weil sie eher dann, ich sag mal schon in diese Muster verfallen, dass

00:12:13: sie eben dann eher Anweisung gehen oder dass sie einem eher gerecht werden wollen, wenn sie

00:12:19: entsprechend trainiert sind, dass sie einen sozusagen versuchen eher zu manipulieren. Und das ist

00:12:28: natürlich auch eine Frage, wo man eine Gefahr sehen kann. Aber in der tatsächlichen Arbeitswelt

00:12:37: sehen wir das bisher eher nicht. Also wir sehen eher in der tatsächlichen Arbeitswelt, dass diese

00:12:43: KI's, und das ist auch gut so, als wirklich Heinzelmännchen benutzt werden. Wir programmieren

00:12:50: sie ja auch. Sie sind freundlich, auch wenn ich zehnmal frage, und die KI ist nie genau. Genau, sie sind

00:12:53: geduldig. KI ist immer das Bild dessen, der oder die sie programmiert. Was für ein Bild schaffen

00:13:01: wir da gerade? Darüber habe ich mit Dr. Britamattis vom IAB auch gesprochen. Das hört ihr dann

00:13:06: übermorgen am Samstag in unserer neuen Podcastfolge das ganze Gespräch. Also abonniert den Podcast

00:13:11: und aktiviert die Glocke, damit ihr diese Folge nicht verpasst. Vielen lieben Dank, Dr. Britamattis

00:13:17: vom IAB. Hat mir sehr viel Spaß gemacht. Dankeschön. KI-Agenden waren ja auch auf der Google I/O der

00:13:25: Entwicklerkonferenz von Google ein großes Thema. Die hat für uns Kasi von unseren Podcast-Nachbarn

00:13:30: Kasa Kasi verfolgt. Hallo Kasi, cool, dass du hier bist. Hallo, danke fürs Einladen. Zukunftsrausch.

00:13:37: Hier schauen wir mal auf die großen Ideen, die auf der Google I/O vorgestellt wurden. Also was hat

00:13:43: Google uns diesmal versprochen und was davon klingt nach echter Zukunft? Was eher so nach

00:13:48: Marketing? Kasi, was hast du uns mitgebracht? Ich habe mir so aus Marketing Sicht,

00:13:53: habe mir keine Gedanken gemacht. Großartig. Natürlich haben die mit Buzzwords rumgeschmissen.

00:13:58: Wir haben auch ein bisschen damit kokettiert.

00:13:59: Die hatten so einen Zähler, wo man laufen ließ.

00:14:02: So oft haben wir Gemini gesagt, so oft haben wir AI gesagt und so oft haben wir Exciting

00:14:07: gesagt.

00:14:08: Also die waren so für euch da auch ein bisschen über Apple lustig.

00:14:10: Ja, was die Zukunft angeht, ich glaube es ging gar nicht darum, uns heute so hauptsächlich

00:14:16: so eine oder in dieser Woche so eine besondere Zukunft aufzumalen, wie es mal sein wird.

00:14:22: Ich glaube heute ging es dazu, ging es eher darum.

00:14:25: Wir haben euch letztes Jahr, haben wir euch eine Vision der Zukunft gezeigt und jetzt sind

00:14:31: wir an dem Punkt, dass die Zukunft jetzt quasi so ins Hier und Jetzt geholt wird.

00:14:36: Jetzt, bald wird das alles funktionieren, wo wir letztes Jahr noch rumgesponnen haben.

00:14:41: Eher, glaube ich, so rum.

00:14:42: Die haben ja unter anderem gezeigt, wie sie dann ihre KI Gemini dann integrieren wollen

00:14:47: in ganz viele Produkte, zum Beispiel auch in die Google Suche.

00:14:49: Was bedeutet das denn eigentlich und was ist der Unterschied dann zur bisherigen Suche?

00:14:53: Ja, jetzt packen wir das natürlich überall rein.

00:14:56: Suche in die Brille, kommt es rein im Browser.

00:14:59: Die Brille, genau.

00:15:00: Gemini wird überall reingeschmissen, wo irgendwas mit Google dran steht.

00:15:04: Ja, die klassische Google Suche, die listet halt links auf.

00:15:10: Jetzt sind wir so eine Evolutionstufe weiter.

00:15:13: Wenn vorher, wenn das eine Suchmaschine war, dann ist das neue Google jetzt mit dem AI

00:15:20: Modus, ist dann eine Findemaschine wahrscheinlich.

00:15:23: Das ist eher so tatsächlich.

00:15:24: Vorher ging es um die Indexierung.

00:15:26: Jetzt geht es darum, dass man dir möglichst das perfekte Ergebnis schon zuspielt.

00:15:30: Wenn du so eine Tasche kaufen willst, mach Google klar, was das für eine Tasche sein

00:15:35: soll.

00:15:36: Die soll am besten wasserfest sein, weil ich möchte damit nach Hamburg, da soll es rechnen.

00:15:42: Möglicherweise.

00:15:43: Und dann kriegst du halt eben schon so ein Ergebnis.

00:15:46: Genauso eine Tasche, vielleicht noch in der Wunschfarbe, die du dir vorgeschältest oder

00:15:50: in der Größe.

00:15:51: Und dann hast du eben eine bestimmte Ausfall an Taschen, ohne dass du irgendeine Seite

00:15:57: vorher aufgerufen hast.

00:15:58: Also noch mehr Service sozusagen mit Gemini.

00:16:03: Noch mehr Service, noch einfacher für uns alles und noch weniger Seiten besuchen.

00:16:10: Worüber sich die Seiten natürlich teilweise richtig freuen, dass sie komplett ausgeschlossen

00:16:15: werden.

00:16:16: Klar.

00:16:17: Es wurde aber auch ein neues Projekt vorgestellt, oder?

00:16:18: Also Astra, ich hoffe, ich beschreibe das jetzt richtig.

00:16:21: Das klingt irgendwie wie ein Super-KI-Assistent, habe ich das richtig beschrieben.

00:16:25: Ja, ich glaube so stellen die sich das vor.

00:16:29: Also es soll eben wie der Google Assistant sein, nur dass der sehen kann, dass der verstehen

00:16:36: kann, dass der Kontext versteht und ja bestmöglich sich auch erinnern kann.

00:16:41: Das kann ja jetzt dieses Jahr besser als letztes Jahr.

00:16:44: Also die haben tatsächlich dieses Astra letztes Jahr schon gezeigt.

00:16:47: Da war es aber dann auch bis zum Jahresende einfach nur für einen sehr, sehr kleinen

00:16:51: Testerkreis verfügbar.

00:16:52: Und jetzt hofft man eben dann Schritt weiter zu sein.

00:16:55: Die hatten so ein Beispiel von jemand, der in seiner Garage rumfrickelt an so einem Fahrrad.

00:17:00: Und da konntest du dann sehen, der hat also sein Handy da liegen gehabt, muss tatsächlich

00:17:05: nicht das Handy anfassen, spricht also den Agenten an und sagt, ich habe hier dieses Fahrrad,

00:17:11: ich komme ja gerade nicht klar.

00:17:12: Und dann lässt er sich irgendwie einen Vorgang oder beschreibt einen Vorgang und lässt sich

00:17:17: dann die Anleitung dazu einen bestimmten Punkt vorlesen.

00:17:20: Da sagt er genau weiß, ach Mensch, hier brauche ich wahrscheinlich einen Ersatzteil.

00:17:23: Dann kann der Agent dann automatisch einen Anruf tätigen, weil bei dem entsprechenden

00:17:29: Fahrradhändler kann fragen, ob das Teil da ist.

00:17:32: Also da kommen so viele Dinge zusammen.

00:17:34: Er kann dann sogar hinterher sein, ach, habe ich jetzt schon wieder vergessen, wo war noch

00:17:37: mal, wo musste ich das nochmal ran schrauben?

00:17:39: Und dann erinnert sich dann eben das Gemini in dem Fall, also Astra wird in Gemini aufgehen.

00:17:45: Erinnert sich daran, ach ja, da hatte ich ja vorhin in irgendeiner anderen App, hatte

00:17:48: ich die Anleitung offen, dann greif ich da wieder drauf zu.

00:17:52: Also dann spielt das alles zusammen.

00:17:54: Du hast ja eben gesagt, letztes Jahr wurde so ein bisschen Division vorgestellt.

00:17:57: Dieses Jahr geht es eher darum, dass wir damit auch arbeiten.

00:18:00: Glaubst du, dass wir so ein bisschen kurz davor stehen, dass KI dann eben unseren digitalen

00:18:05: Alltag komplett übernimmt?

00:18:06: Oder ist das immer noch eher so eine langfristige Version und Vision?

00:18:10: Ja, ich glaube, ein Stück weit sind wir schon angekommen.

00:18:16: Also das ging ja los mit Tools, die wir sowieso nutzen, unser E-Mail klein und solche Geschichten.

00:18:22: Dass wir uns Texte zusammenfassen lassen oder wir lassen Texte gegenlesen, bevor wir

00:18:27: eine Mail abschicken.

00:18:28: Da ging es dann so im Klein los und jetzt sind wir halt so eine Stufe weiter, glaube ich

00:18:33: schon.

00:18:34: Also, wenn du Geminal Live, du hast zum Beispiel heute schon die Möglichkeit, das wurde eben

00:18:38: auch gezeigt jetzt bei der Google I/O, dass du deine Kamera nutzt, wenn du Geminal Live

00:18:44: ansprichst.

00:18:45: Ich kann also durch die Stadt laufen, kann sagen, das Gebäude vor mir, ist das die Sparkasse?

00:18:51: Und dann wird Geminal sagen, steht Volksbank dran, wahrscheinlich nicht Schwachkopf.

00:18:56: Also wahrscheinlich wird das nicht so sagen, aber das ist so die Idee, dass du also kommunizierst,

00:19:01: du willst einfach das Smartphone irgendwie in die Richtung und dann, ja, und das sind

00:19:05: halt eben Dinge, die funktionieren jetzt schon.

00:19:07: Vieles andere, da blieb Google im Wagen und hat gesagt, kommt später dieses Jahr, kommt

00:19:15: zuerst in den USA.

00:19:16: Also ja, das zieht alles schon in unseren Alltag ein, aber in den deutschen Alltag wahrscheinlich

00:19:23: ein bisschen später als in den US-Amerikanischen.

00:19:25: Dann gucken wir uns doch mal so lange deine persönlichen Highlights von der Google I/O

00:19:30: 2025 an.

00:19:31: Favoriten.

00:19:33: Was ist wirklich hängen geblieben?

00:19:37: Vielleicht neues Feature, eine Idee, vielleicht eine Kleinigkeit, bei der du dachtest, okay,

00:19:40: das ist smart.

00:19:41: Was waren denn für dich die spannendsten und überraschendsten Momente und Ankündigungen?

00:19:45: Ja, aus der Situation heraus, dass vieles schon eigentlich im letzten Jahr so angeteasert

00:19:51: wurde, waren das jetzt nicht die ganz großen Sensationen, Sachen, wo du nicht dachtest,

00:19:57: dass es funktioniert oder so.

00:19:58: Vielleicht war es mit dem neuen Videomodell, VO3, also was für eine Qualität da jetzt

00:20:05: schon erreicht wird und dass du das alles mit Sound untermahlen kannst, sogar mit Dialogen.

00:20:10: Also das ist schon unfassbar, also dass wir einen riesigen Impact haben.

00:20:14: Und was mich persönlich eigentlich am meisten begeistert hat, es wird in, oder für die

00:20:20: Kommunikation werden verschiedene Tools angeboten, wie wir in Echtzeit Sprache übersetzen lassen

00:20:25: können.

00:20:26: Das wird bei Google Meet also der Fall sein, dass ich, würdest du jetzt in einer anderen

00:20:29: Sprache reden, könnte ich dich jetzt hier im Deutsch reden hören.

00:20:32: Der berühmte Barbeerfisch.

00:20:34: Ja, ja genau.

00:20:36: Nicht jetzt genau mit deiner Stimme, aber so Tonfallintention würde so übernommen,

00:20:42: was natürlich irgendwie ein ganz anderes Level an Kommunikation irgendwie ergibt.

00:20:46: Und was ich noch cooler finde, die haben ja auch eine smarte Brille gezeigt.

00:20:50: Wenn du diese Brille trägst, wieder derselbe Fall, die beiden Menschen sprechen, die sich

00:20:55: gegenüberstehen, sprechen nicht die dieselbe Sprache und ich sehe dann das, was du sagst,

00:21:00: als Untertitel.

00:21:01: Und das ist wirklich cool.

00:21:03: Das ist eben nicht nur spannend, wenn ich in Barcelona einen Wochenende verbringe, sondern

00:21:09: das ist auch spannend, finde ich, für Menschen, die einfach nicht richtig hören können.

00:21:13: Ja, absolut.

00:21:14: Und die auf einmal irgendwie die ganze Welt um sich wahrnehmen können, ohne dass man

00:21:18: mühselig von Lippen ablesen muss oder so.

00:21:21: Also das finde ich schon sehr geil.

00:21:23: Auf diese Brille wollen wir gleich auch noch mal im Tech Check ein bisschen genauer zu

00:21:26: sprechen kommen.

00:21:27: Gibt es denn irgendwas, vielleicht auch von den Sachen, die jetzt erst noch kommen, erst

00:21:31: in den USA kommen, erst in ein paar Monaten, eventuell nächstes Jahr kommen, gibt es irgendwas,

00:21:35: was du sofort nutzen würdest, wenn es morgen schon verfügbar wäre, jetzt außer die Übersetzungshilfe?

00:21:40: Ja, da würde ich noch mal jetzt irgendwie den Gemini Life Effekt von eben noch mal anführen.

00:21:46: Den nutze ich tatsächlich schon.

00:21:47: Also ich bin gestern schon in der Stadt rumgesprungen und habe ausprobiert, ob das tatsächlich geht.

00:21:52: Also genau so, wie du andere Kommandos gibst an Gemini Life, kannst du eben jetzt sagen,

00:21:58: was für Gebäude ist das?

00:21:59: Oder muss ich wirklich da lang?

00:22:01: Und kannst dann tatsächlich erwarten, dass was Füffiges zurückkommt.

00:22:04: Ich ist jetzt glaube ich nicht so, also mich überrascht jetzt nicht vieles daran, dass

00:22:09: das funktioniert.

00:22:10: Überraschend ist vielleicht eher, dass man, wenn man in der Stadt rumläuft und unterhält

00:22:16: sich einfach mit seinem Handy oder mit so einer künstlichen Intelligenz, dass man doch

00:22:18: noch sehr merkwürdig angeguckt wird.

00:22:20: Okay, ja.

00:22:21: Vielleicht zurecht.

00:22:22: Gucken wir doch mal, wie das Ganze in der Praxis aussieht.

00:22:26: Du hast gesagt, du hast es schon getestet.

00:22:27: Das machen wir jetzt hier auch.

00:22:28: Tech Check.

00:22:29: Wir gucken mal, wie brauchbar das alles ist.

00:22:34: Weil klar, auf der Bühne sah das jetzt alles super aus bei der Google I/O.

00:22:38: Aber was davon könnte jetzt wirklich nützlich sein, was vielleicht eher nicht?

00:22:42: Also ich denke da jetzt zum Beispiel in diese neue KI-Oberfläche, die geplant ist oder in

00:22:47: Gemini jetzt auch bei Google Chrome mit dabei.

00:22:49: Macht das alles jetzt wirklich besser oder glaubst du, okay, es kommt jetzt einfach überall

00:22:54: KI rein, weil das muss halt.

00:22:56: Eigentlich ist es ja beides.

00:22:58: Also ja, überall wird KI reinkommen und da wird dann glaube ich auch nicht immer gefragt,

00:23:03: ist das jetzt hier sinnig oder nicht?

00:23:05: Ich glaube bei Google müssen wir uns nicht ganz große Sorgen machen, dass die kompletten

00:23:10: Quatsch verbauen.

00:23:11: Aber bei sehr viel Konkurrenten wird das der Fall sein, dass man einfach wirklich als

00:23:16: Bass wird, überall KI dranschreibt.

00:23:18: Aber das, was wir da jetzt schon gesehen haben bei der I/O, ich wüsste jetzt nicht viele Dinge,

00:23:23: wo ich das Gefühl habe, nee, das ist Quatsch.

00:23:26: Da überlegt jetzt in die falsche Richtung.

00:23:28: Also das ist, wie ich es eben schon gesagt habe, der AI-Mode zum Beispiel, das ist eine

00:23:34: neue Evolutionsstufe eben der klassischen Google-Suche und das macht dann wahrscheinlich

00:23:39: über kurze oder lang überhaupt gar keinen Sinn mehr, auf diese neuen Tools zu verzichten.

00:23:44: Wir haben ja auch eben schon zwei, drei Mal die neue Brille angesprochen.

00:23:48: Also AR-Bereich, Google versucht es mal wieder, ist das jetzt schon Versuch Nummer zwei, drei

00:23:53: oder vier?

00:23:54: Warum scheitert das denn eigentlich immer und hast du dieses Mal mehr Hoffnung, dass

00:23:59: die Brille tatsächlich eine Chance hat?

00:24:01: Gute Frage tatsächlich.

00:24:03: Erstmal, ich weiß gar nicht, ja, also nach kommerziellen Maßstäben oder so ist die Google

00:24:09: Gläß natürlich krachend gescheitert, wurde aber dann einfach auch viele Jahre, solange

00:24:15: die eben entwickelt wurde, aber dann auch in immer mehr Industriebetrieben zum Beispiel

00:24:20: eingeführt.

00:24:21: Also führt da so ein Art Schatten.

00:24:24: Ja, da sein oder so.

00:24:25: Ja, genau.

00:24:26: Also je nach Zweck oder so ist das ein wirklich geiles Teil gewesen und ich glaube einfach

00:24:33: so seiner Zeit voraus.

00:24:34: Ich habe übrigens das ähnliche Gefühl auch bei der Apple Vision Pro, die konnte ich nur

00:24:39: eine halbe, drei, vier Stunden mal testen, aber war tatsächlich auch so beeindruckt,

00:24:45: das ist also nicht, du setzt einfach nur noch eine andere Virtual Reality Brille auf im

00:24:49: Vergleich zu denen, die du vorher mal dir angeguckt hast.

00:24:52: Das ist schon, das ist schon Next Level Scheiß, was Apple da macht.

00:24:56: Und wenn man dann aber sieht, das, die ja wahrscheinlich nicht zu viel, aber irgendwie

00:25:01: erst mal kostet es zu viel, vielleicht sind die Hürden da noch ein bisschen zu hoch,

00:25:06: monetär, aber auch generell vielleicht, das ist noch nicht so durchdacht alles, aber

00:25:11: das, was irgendwie funktioniert auf dieser Brille, das ist irgendwie alles wirklich beeindruckend

00:25:16: und du probierst das eine halbe Stunde aus und hast so viele Use Cases im Kopf sofort

00:25:21: und ich glaube, im Moment ist es noch ein bisschen zu früh für so etwas, aber für

00:25:26: diese XR Glasses, die Google jetzt gezeitert, ich glaube da ist die Zeit gekommen.

00:25:31: Ich denke auch die Konkurrenznummer hier von Meta und Rayburn, die funktioniert auch ganz

00:25:37: gut.

00:25:38: Palle geht, jemand mitbewohner, der geht immer damit aus dem Haus oder oft.

00:25:42: Ich glaube so eine reduzierte Brille, die auch aussieht wie eine Brille, vielleicht ein

00:25:47: Tickenklobiger und dann aber irgendwie schon passmarte Funktionen hat, wie eben die Brille,

00:25:53: die da auch gezeigt wurde bei der I/O, das ist schon technisch auf jeden Fall eine coole

00:25:58: Sache.

00:25:59: Ich lasse jetzt den negativen Teil, dass ich jetzt wegdehme durch den Kopf geht dabei.

00:26:03: Den könnt ihr nämlich nachhören und zwar gibt's bei Kasa Kasi ja auch eine ganz ausführliche

00:26:09: Deep Dive Folge in die Google I/O.

00:26:11: Schaut mal in die Show Notes, dort ist ein Link direkt zu unserem Podcast nach beim Kasa

00:26:15: Kasi.

00:26:16: Ich finde Kasi, dass du uns die Google I/O hier mal so ein Crashkurs gegeben hast.

00:26:21: Gerne, gerne Johanna, jederzeit wieder, ciao.

00:26:24: Freu dich auf morgen!

00:26:26: Zum Ende jeder übermorgen Folge kommt die übliche gute Nachricht auch aus dem Bereich

00:26:31: Arbeit.

00:26:32: Laut Weltwirtschaftsforum entstehen durch Automatisierung und KI mehr neue Jobs als

00:26:36: verloren gehen.

00:26:38: 75 Millionen Arbeitsplätze entfallen, aber 133 Millionen neue entstehen.

00:26:44: Soft Skills wie Kommunikation, Empathie, Führungsvermögen werden immer wichtiger,

00:26:48: da sie von der KI eben nicht ersetzt werden können.

00:26:51: Wie wir mit KI morgen umgehen, weiß Dr.

00:26:53: Brittamattis vom IAB.

00:26:54: Ich freue mich auf morgen, weil im Morgen glaube ich, ich viel stärker mich genau mit solchen

00:27:04: Fragen beschäftigen kann, die wir heute behandelt haben und weniger mit irgendwie Dokumenten

00:27:12: erstellen, mit irgendeinem administrativen Verwaltungskram.

00:27:18: Darauf freue ich mich.

00:27:19: Und ich freue mich, wenn ihr am Samstag auch beim ganzen Gespräch mit Dr.

00:27:33: Brittamattis dabei seid.

00:27:34: Wir sprechen über künstliche Intelligenz, unsere Arbeit und die KI-Agenten.

00:27:37: Also abonniert den Podcast, damit ihr die neue Folge nicht verpasst.

00:27:41: Und bis dahin freue ich auf morgen.

00:27:43: [Musik]

00:27:52: [Musik]

00:27:54: Herzlichen Dank für die Aufmerksamkeit!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.