Vom Hype zum Handeln

#2 KI 2024: Highlights & Grenzen

Episode Summary

Unser Blick auf das ereignisreiche KI-Jahr 2024: Wir sehen an, welche Grenzen KI verschoben hat und wo KI an Grenzen gestoßen ist. Wir besprechen, wie ... - sich KI-Modelle verbessert haben, warum sie so energiehungrig sind und was wir dagegen tun können. - Prompts gelingen bzw. optimiert werden können und blicken - auf die 2024 polarisierte Debatte von KI-Befürwortern und Gegnern.

Episode Notes

KI im Unternehmenskontext >>
2024 ist (generative) KI in der Breite angekommen: Sie hat Grenzen gesprengt und ist an manche Grenzen gestoßen. Ist der Zug schon abgefahren (Spoiler: natürlich nicht) oder macht es Sinn, sich jetzt mit dem Thema zu befassen? Wofür kann KI sinnvoll eingesetzt werden? Worauf gilt es dabei zu achten und welche Fallstricke lauern – und gilt es zu umschiffen? Diese und ähnliche Fragen behandeln wir im Podcast.

In Folge 2 >> "KI 2024: Highlights & Grenzen" besprechen wir, wie ...

- sich KI-Modelle verbessert haben, warum sie so energiehungrig sind und was wir dagegen tun können.
- Prompts gelingen bzw. mit welchen Überlegungen sie optimiert werden können 
und blicken kurz
- auf die 2024 polarisierte Debatte von KI-Befürwortern und Gegnern.

Inhaltsverzeichnis

  1. Traditionelle zu generativer Künstlicher Intelligenz
  2. KI-Modelle vollbrachten 2024 Leistungssprünge
  3. Prompting als Schlüssel zu Erfolg und Energiesparen
  4. Polarisierte Debatte um KI
  5. KI in Unternehmen – ein Ausblick

 

ÜBER DEN PODCAST

Daniel und Petra – deine Hosts sind Experten für digitales Marketing, Organisationsentwicklung / IT 

„Wir wollen den Blick weg von Technik, hin zum zentralen Erfolgsfaktor für digitale Transformation lenken: Dem aktiven Gestalten von und für Menschen in Organisationen."

In künftigen Folgen werden wir

Unser Transformationspodcast „Vom Hype zum Handeln“

Deine Hosts: Experten aus digitalem Marketing, Organisationsentwicklung / IT

Mit ihrem digitalen bzw. IT Hintergrund geht es Petra und Daniel darum, den Blick weg von Technik, hin zum zentralen Erfolgsfaktor für digitale Transformation zu lenken: Dem aktiven Gestalten von und für Menschen in Organisationen.

Das „Große Ganze“ sehen
Gerade KI - die menschliches Denken nachahmt - setzt für gelingende Transformation voraus, dass Menschen und Mitarbeiter im Zentrum der Betrachtung stehen. 
"Ein Unternehmen ist eine Ansammlung von Menschen, die zu einem bestimmten Zweck zusammenarbeiten". Dabei geht es darum, Ängste ernst zu nehmen und gleichzeitig Begeisterung für neue Möglichkeiten zu wecken.

Weitere Beiträge zum Thema haben wir auf der Website https://dertransformationspodcast.at/ gesammelt.

Episode Transcription

Hallo und willkommen zum Podcast vom Hype zum Handeln. Wir sind Daniel und Petra und beschäftigen uns mit digitaler Transformation und Organisationsentwicklung. In unserem TransformationsPodcast beleuchten wir Wandel und KI aus dem Blickwinkel von Organisationen und Menschen.

In der heutigen Folge befassen wir uns mit einigen Highlights, die aus unserer Sicht im Jahr 2024 die KI-Welt geprägt haben.

Lass uns doch zu Beginn einordnen: Was ist generative KI, also „Gen AI“ und was ist traditionelle KI. Nur damit wir einmal kurz den Begriff aufmachen und nicht zu tun, als gäbe es nur Chatbots und Bildgenerierung. 

KI hat ja 2024 einige Grenzen verschoben, ist aber auch an einige Grenzen gestoßen. Zum Beispiel haben sich KI-Modelle 

Außerdem besprechen wir 

Steigen wir gleich in den ersten Punkt ein: Was ist passiert mit der KI hinsichtlich Leistungsfähigkeit? Früher, lustiger Begriff, also vor ein Jahr noch, war die traditionelle, die klassische KI so das leistungsfähigste, das wir gekannt haben. Wir kennen es aus dem Einpark-Assistenten, vom selbstfahrenden Staubsaugerroboter usw.. Jetzt ist aber die generative KI ganz in der Mitte angekommen und jeder kann über Sprache mit der generativen KI interagieren.

Ja, es entstehen ja viele Fragen und Möglichkeiten, die mit dieser neuen Entwicklung der Chatbots und der Bildgenerierung und anderen Anwendungen entstanden sind: Dahinter stecken jeweils verbesserte Fähigkeiten dieser AI-Modelle.

Dh AI-Modelle haben sich 2024 schnell entwickelt und gelernt, dass sie immer bessere Antworten oder im Outputs-Inform von Bildern geben. 2023 hat man vielleicht öfter nachfragen müssen und hat noch mehr Halluzinationen gesehen und weniger korrekte Outputs. 2024 hat sich das ja schon ein Stück weit geändert: Man bekommt meist von einem Chatbots sehr vernünftige Ergebnisse ausgegeben – dh. man muss nicht unbedingt alle Ergebnisse nochmal nachgoogeln.

Lass uns vielleicht kurz noch anknüpfen. Es ist 2024 einiges passiert im Punkt der Halluzinationen, wie du gesagt hast. Man hat das Problem gehabt, dass ein KI-Modell darauf ausgelegt ist, eine Antwort zu geben. Und wenn es aber keine gibt, dann hat es eine erfunden, um diesem Wunsch auf Antwort gerecht zu werden.

Und was auch noch dazu kommt, Text ist relativ simpel, Bilder sind relativ komplex und in Bildern war es früher häufig so, dass ein Mensch sechs Finger gehabt hat oder das Finger verschmolzen sind, dass die Augen ganz eigenartig in unterschiedliche Richtungen geschaut haben wie beim Chamäleon. Das ist auch besser geworden in 2024 und von daher ein enormer Schub.

Ja, ich habe jetzt sogar mal probiert, mir ein kleines Programm ausgeben zu lassen. Ich war einfach auf der Suche nach einer Möglichkeit, hat HTML-Text in das Spread-Sheet hineinzubekommen, also in eine Form von Daten, die ich weiter bearbeiten kann.

Und wenn man da Chat-GPT oder Claude fragt, dann kriege ich innerhalb von einer halben Minute eine kleine Anleitung, ob ich die selber ausführen kann, selbst wenn ich keine Programmierkenntnisse habe. Ich bekomme ein Stück Code, wenn ich das nicht verstehe und nachfrage, kriege ich sofort eine andere Lösung präsentiert. Wenn ich sage, ich kann das nicht ausführen und um einen neuen Vorschlag bitte, dann schlagt das System auch schon zwei, drei Anwendungen vor, die dafür probieren kann: Also es gibt schon recht akkurate Ergebnisse!

Genau. Und das Schöne daran ist, früher hat man um diese Ergebnisse zu bekommen, selber programmieren müssen- also eine Programmiersprache lernen müssen, wie C, wie Java, wie beiden. Heute kann man es in der Muttersprache machen.

Und wie du schon gesagt hast, Claude liefert dir ein Python-Code als Beispiel. Und wenn du sagst, ich will es aber ohne Programmierung machen, indem ich gerne bestehende Tools nutzen, möchte, dann ist Claude in der Lage, die geeigneten Werkzeuge zu finden, Lösungswege vorzuschlagen, in welcher Reihenfolge, in welcher Variante was kombiniert werden kann. Das dürfte dann einfacher umzusetzen sein, wenn man selbst keine Programmiererfahrungen hat.

Ja, ich glaube schon. Also, ich hätte mich drübergetraut, wobei wahrscheinlich Fallstricke dabei sein werden. Also, das wäre nun ein positives Beispiel und eines unserer Highlights.

Wenn wir das jetzt von der anderen Seite anschauen und nach Grenzen fragen: welche Dinge waren vielleicht überbewertet oder welche Hoffnungen sich 2024 erfüllt haben - an was denkst du da zum Beispiel?
 

Da denke ich speziell an Start-Ups, ohne jetzt Namen zu nennen. Einige Start-Ups dachte jetzt ist KI da, jetzt werden wir reich, weil wir wissen, wie man alles macht. teilweise war super Marketing am Werk und die Versprechen waren hervorragend. Nur das einzuhalten war halt nicht immer möglich.

Also wir haben sehr viel Lärm um nichts gehabt, möchte ich jetzt gar nicht sagen. Aber es hat sich einiges relativiert.

Keine Frage, das ist so in Zeiten des Hypes. Unser Podcast heißt ja vom Hype zum Handeln – und man kennt man das ja;: Wenn am Anfang wird alles recht hochgekocht, werden schonmal Hoffnungen in etwas gesetzt, die sich dann so nicht erfüllen. 

Ich würde schon sagen, ja. Wenn man sich einen Hype-Cycle ansieht: Also die Kurve, die nach oben geht, dann ins Tal der Tränen und irgendwann am Plateau der Normalität ankommt, dann sind wir am stark aufsteigenden Ast gewesen. Dh auch: Für (fast) jedes Thema, für das man bislang keine Lösung hatte, wurden von der KI Wunder erhofft. Deshalb stellt man in der Phase des Realisierung fest, dass (natürlich) auch KI das nicht alles leisten kann.

Stimmt. Man probiert Einiges und als Beispiel werden die Bilder, die man generiert - die du zuerst angesprochen hast, mit sechs Fingern, drei Händen - immer besser. Wir beschäftigen uns mit der KI Anwendungen und bemerken, dass die Outputs besser werden. Wir lernen, wie wir zu besserem Output kommen. 

Ich denke es macht richtig Sinn, sich in der Tiefe damit zu beschäftigen – die Spreu vom Weizen zu trennen - und sich nicht auf die Position zurückzuziehen: Ach, funktioniert ja doch nicht, gibt noch keine guten Ergebnisse – dann kann ich das ja bleiben lassen.

Ich denke, was da ganz wesentlich war in dem Prozess ist, immer wieder einen Blick auf den Moore‘s Law: Denn wir haben eine hohe Geschwindigkeit in der Hardware-Entwicklung gesehen. Die Hardware, auf der KI ausgeführt wird, wurde von Quartal zu Quartal einfach leistungsfähiger. Das führt natürlich dazu, dass jeder seine Versuche mit KI in einer kürzeren Zeit durchführen kann. Also schneller lernen, selbst mehr ausprobieren in derselben Zeit und gleichzeitig werden die Ergebnisse besser. Weil KI mit jedem Versuch, mit jedem Training quasi lernt und besser wird - damit entsteht sozusagen eine Win-Win-Situation.

Was wir an Verbesserungen gesehen haben lässt sich wohl vor allem auf die angesprochene Verbesserung der Hardware und die riesigen Datenmengen zurückführen.

Ja, diese riesigen Datenmengen, bringen mich noch einmal auf das Argument, das mir eigentlich ziemlich weh tut: Die Klimaeffizienz oder der Klimaschaden, durch mangelnde Energieeffizienz. Auch wenn ich pro KI bin und es großartig finde, Dinge mithilfe von KI auszuprobieren - wo Kritik denke ich wirklich angebracht ist, dass die Energiebilanz der heutigen KI-Modelle wirklich grottenschlecht ist.

Einerseits benötigt die Entwicklung enorme Ressourcen inklusive Programmierung und Training, das dauert ja relativ lang. Ganz viele Firmen meinen, sie müssen jetzt eigene KI-Modelle entwickeln, also Meta erstellt zB sein eigenes namens „Llama“ und viele andere auch, damit sie im „KI-Game“ als Player mit dabei sind. Und viele Modelle verbrauchen natürlich entsprechend viel Energie.

Absolut, ja. Also, ich glaube, das gehört in die Gesamtkostenrechnung mit rein. Eine Google-Suche braucht Einheit 1 Strom und ist so und so schnell, dann braucht eine KI-Anfrage nachgewiesenermaßen 10 Einheiten.

... wenn man nur von Text redet.

Wenn wir rein bei Text bleiben, ist eine KI-Anfrage 10x so teuer – aber dann hat man nur den laufenden Betrieb betrachtet und in Wahrheit die ganzen Kosten, die davor notwendig waren weggelassen: Entwicklung, Aufbau, Entwurf von diesen Modellen, die Anschaffung der Hardware, die Erzeugung der Hardware. Also rein vom Energiehaushalt her sollte man von KI eigentlich die Finger lassen - nur das ist eben nur eine Seite der Medaille.

Ja, stimmt. Man verbraucht viel Energie, aber man kriegt ja entsprechend gutes stimmt, solange man die richtigen Befehle (Prompts) eingibt.

Und das ist, glaube ich, auch eine Lernerfahrung oder eines unserer Highlights aus dem Jahr 2024. Wie wichtig ist das richtige Prompting, also die richtigen Befehle einzugeben? Wenn wir zurückblicken, ist es wohl allen so gegangen oder geht uns noch so: Wir geben einfach einen Befehl ein und schauen, was für eine Antwort kommt. Wenn allerdings dieser Prompt, den wir als Input reingegeben haben, war aber nicht gut differenziert und überlegt war, dann bekommen wir da „irgendein“ Output. Natürlich können wir dann nochmal fragen und nochmal fragen, um in die Nähe einer besseren Antwort zu kommen. Das verbraucht viel Energie, wie wir gerade überlegt haben. 

Besser wäre es doch - und deshalb hat man ja 2023 noch gesagt, der neue Beruf, des „Prompt Engineers“ würde enorm wichtig werden. Ja, Maschinen verstehen uns jetzt besser, aber Daniel bitte erkläre kurz, was würden wir sparen, wenn wir einen guten Prompt eingeben?

Ich mag das anhand eines Beispiels illustrieren. Man will etwas verpacken, um es zum Kunden zu verschicken. Dafür schickt man jetzt mal den Mitarbeiter ins Lager, und sagt: „Bitte schau nach, ob wir dort Kartons haben.“ Der kommt zurück und sagt, ja, wir haben Kartons.

Dann schickt man ihn wieder und sagt: „Dann geh‘ ins Lager und schau, ob wir Klebeband haben.“ Der kommt wieder und sagt, ja, Klebeband ist da. Dann schickt man wieder ins Lager und sagt: Bitte schaue nach, ob Luftpolsterfolie da ist.“. Man macht mehrere solche Anweisungen. Und dann irgendwann sagt man, ja, okay, dann gehe ich jetzt bitte ins Lager und bringe mir den Karton. Der bringt den Karton, wir schickten wieder, irgendwann sagt man, jetzt müssen wir das Ding da einpacken. Und dann bringen wir es zur Post. Also viele, viele kleine Befehle, und jede Menge leere Meter.

Genau. Und wenn man nicht davor genau beschrieben hat, wie groß diese Schachtel sein soll, dann könnte es sein, dass er Lehrling die zu kleine Schachtel gebracht hat.

Ja, oder weil du über das Ziel rausgehst und einen Riesenkarton bringst, in dem du eine kleine Bindung verschicken willst. Software-Entwickler kennen das schon länger, man hat früher auch Programm-Code geschrieben und irgendwann sind am Markt dann so Code-Optimierer auftaucht: Das ist Software, die von Menschen erstellten Code optimiert, damit der Code effizienter wird. Damit man sich leere Meter spart, damit Schleifen kürzer werden.

Ich denke, ein weiterer Job wird zukünftig der sogenannte „Prompt Optimizer" sein. Also jemand entwickelt Prompts und Mensch oder Maschine wird diesen Prompt optimieren, um weniger leere Meter zu machen. Wenn man das weiterdenkt, sehen wir dass ein schneller Prompt, der sehr effizient ist und sich auf das nötigste konzentriert, weniger Strom – also weniger Energie am Ende des Tages weniger Energie.

 

Ja, absolut. Also, wenn ich heute in einem klassischen Büro, Arbeitsumfeld gewisse Dinge erledigt haben will, für die ich selber die Kompetenz nicht habe, dann muss ich mal verschiedene Leute reinholen und die müssen ihre Expertise einbringen. Das muss dann in einem Prozess zusammenfließen, damit am Ende ein gutes Ergebnisses rauskommt. Das ist immer der Wunsch.

 

Heute kann ein KI-Assistent möglicherweise Teilbereiche dieser einzelnen Experten vereinen. Damit ist alles aus einem Guss und 24/7 einsetzbar, ohne  schlechte Laune, ohne krank zu werden. Also, der Assistent als solches wird sicherlich durch die KI aufgewertet.

Und was der Assistent auch kann, ist extrem schnell suchen. 

Wenn wir diesen Assistenten los schicken - wenn wir jetzt nicht das Lager-Beispiel nehmen, sondern an viele Daten und Dokumente denken und wir schicken ihn los, um etwas zu suchen, dann kommt er in Sekundenschnelle wieder zurück. Einfach weil er sich so große Datenmengen perfekt anschauen und durchforsten kann. 
> Also das haben wir, denke ich, auch noch gelernt, dass es sehr auf diese Datenbasis und Datenqualität ankommt.


Wir haben ja schon öfters betont, dass es auf Datensicherheit ankommt; wir gehen schon fast davon aus, dass das unsere Hörer das schon wissen ;)

Ja, ich hoffe schon, dass das ankommen ist. Wie du sagst, ein Mensch kann ein Buch in einer gewissen Zeit lesen und ein KI-Assistent liest eben alle Bücher, die es gibt in einer gewissen Zeit. Das ist sicherlich einer der Punkte, warum man sich überhaupt mit Computern auseinandersetzt, weil die halt viel, viel schneller sind bei gewissen Dingen.

Genau, mit dem richtigen Prompt. Was sollten wir uns denn für 2025 noch anschauen?

Ich denke, wir haben für das letzte Jahr schon noch einen Punkt gehabt und zwar die Polarisierung, die stattgefunden hat.

Da würde ich gerne noch mal hinschauen, weil Menschen oft eine starke Meinung haben, zumindest in meinem Umfeld war das so. Es gibt entweder Menschen, die sagen: „Ich brauche das nicht, das interessiert mich nicht.“ 

Und die anderen sagen: „Ja, ich nutze das jetzt schon seit einem Jahr. Und ich bin begeistert und ohne KI kann ich nicht mehr leben!“

Wie ist es dir damit gegangen?

Nicht ganz so extrem mit „nicht mehr leben“, aber ja, es stellt sich so dar, dass es zwei Läger gibt. Das eine Lager sagt: „schon mal gehört, weiß aber gar nicht genau, was das jetzt kann und was KI genau ist und ob ich das brauche.“ Und die anderen, die wirklich total pro und begeistert sind. Die sagen: „Ich habe die eine und andere Anwendung schon ausprobiert, habe schon Erfahrungen gesammelt.“

So kann man das ja auch in der öffentlichen Diskussion beobachten: Es hat 2024 die Verteufler gegeben; jene, die alles schlecht reden. Und ja - Kritik ist angebracht zu vielen Teilen. Und es hat jene geben, die alles was mit KI zu tun hat, in den Himmel heben.

Das sehen wir ja aktuell auch im Großen: Es gibt Nationen, die Regulierungen machen und andere, die sie beseitigen damit diejenigen, die das in den Himmel heben wollen - sprich große Konzerne- auch möglichst gute Bedingungen vorfinden.

Das ist sicher etwas, was sich in 2024 massiv abgezeichnet hat. Wie du sagst, im persönlichen Umfeld jeder, der privat irgendetwas mal mit Chat GPT probiert hat, der hat Erfahrungen gesammelt. 

Das gilt parallel auch für Unternehmen, Länder, ganze Kontinente, wo es mitunter ganz anders ausschaut.

Entweder gibt es die Infrastruktur zum Teil nicht, oder sie sind sehr dürftig, oder es gibt einfach unternehmerische Interessen, mit anderer Priorität. 

Ich denke, viele Unternehmer haben vielleicht noch nicht finale Meinung zu KI, aber zugleich ein bisschen Angst und ein bisschen Hoffnung. Und da wäre es doch schön, wenn wir etwas machen können, um ein bisschen Klarheit zu schaffen.

Genau das ist der Auftrag unseres Podcasts und in der Richtung werden wir uns weiter unterhalten: Nämlich alle zwei Wochen in diesem Podcast „Vom Hype zum Handeln“.