Vom Hype zum Handeln

#14 Neue KI-Modelle und Datenlecks im Sommer 2025

Episode Summary

In dieser Folge spreche ich mit Marco Esposito, Trainer für generative KI aus Vorarlberg, der seine Erfahrungen aus über 100 Workshops mit uns teilt. Während wir im Urlaub entspannten, entwickelte sich die KI-Welt rasant weiter: GPT-5 mit automatischer Modellauswahl, tausende neue Agenten und prominente Datenlecks prägten den Sommer 2025. Marco erklärt die wichtigsten Neuerungen und ordnet sie für Praktiker ein: Was bedeutet der „Autopicker" bei GPT-5? Wie sollten Unternehmen auf die EU-weite Schulungspflicht ab Februar reagieren? Und warum scheitern laut MIT-Studie 95% aller KI-Projekte? Petra stellt eine praktische Checkliste für den KI-Einsatz im Unternehmen vor: 1. Prüfen, ob überhaupt KI eingesetzt wird, 2. Chancen und Risiken bewerten, 3. Gesamtprozess anpassen statt Einzellösungen und 4. Mitarbeiter schulen und 5. Datenschutz und KI-Richtlinien für das Unternehmen definieren. Die Checkliste steht auf der Website der Content Bakery zum Download bereit. Wir beleuchten auch die Datenschutz-Pannen bei ChatGPT und Meta: 100.000 versehentlich geteilte Gespräche landeten öffentlich bei Google – ein Weckruf für bewussteren Umgang mit KI-Tools. Marco zeigt auf, dass oftmals Nutzer-Unachtsamkeit das Problem ist, und gibt praktische Tipps für sicheren KI-Einsatz im Unternehmenskontext. Ein zentraler Punkt auf den beide aufmerksam machen, ist: KI als Werkzeug, nicht als Zauberstab zu betrachten. Und KI mit Köpfchen - also planvoll und strategisch - einzusetzen. Marco betont die 10-Stunden-Regel für solide Grundkenntnisse und ermutigt: „Der Zug steht noch am Bahnsteig" – mit Neugier und strukturiertem Vorgehen kann jeder vom Schüler bis zu Milliarden-Konzern-Vorständen KI erfolgreich nutzen.

Episode Notes

Was bedeuten die neuen Modelle generativer künstlicher Intelligenz wie Chat GPT5 im Unternehmensalltag und worauf sollte beim Einsatz von KI-Modellen geachtet werden, um Datensicherheit zu gewährleisten?
Marco Esposito ist Trainer für generative KI aus Vorarlberg und teilt seine Einsichten und Erfahrungen aus über 100 Workshops.

Link zur Zusammenfassung der Folge am Blog > mit ...

  1. Checkliste für KI-Projekt inkl. Basis-Überlegungen zu AI-Act (siehe auch Folge 11)
  2. Screenshot zum WhatsApp Teilen-Button, durch den 100.000 Chats öffentlich wurden
  3. Weiterführende Links zur KI-Richtlinie der WKO (auch in der Checkliste enthalten)

Mehr über Marco Esposito KI-Experte aus Vorarlberg

Dein Host Petra: Expertin für digitales Marketing mit KI

Mit ihrem digitalen und Marketing-Background geht es für Petra darum, den Blick weg von Tools, hin zum zentralen Erfolgsfaktor für digitale Transformation zu lenken: Dem aktiven Gestalten von und für Menschen in Organisationen - und dabei den Blick für Chancen aber auch kritisches Denken und Handeln im Umgang mit KI-Tools zu schärfen.

Petra LIEBL 
Als erfahrene Onlineexpertin und zertifizierte Digitalberaterin verbindet Petra Strategie, digitales Marketing und KI zu wirkungsvollen Online-Lösungen für Unternehmer:innen.

👉🏼 www.contentbakery.at  info@contentbakery.at

Weitere Beiträge zum Thema digitale Transformation findest du unter https://dertransformationspodcast.at/ gesammelt.

Episode Transcription

Sommer ist Urlaubszeit - eigentlich möchte man meinen. Aber nicht für generative KI. Denn während wir im Urlaub beim Schnorcheln Fische gezählt haben, mit dem Bike unterwegs waren, oder uns die Sonne auf den Bauch haben scheinen lassen, hat es tausende neue KI-Agenten oder auch den einen oder anderen Datengau gegeben. 

Darüber spreche ich heute mit Marcos Esposito, nämlich nicht nur über generative künstliche Intelligenz, sondern was diese in diesem heißen Sommer gemacht hat, was die vielen Agenten so treiben und woher diese Datenlecks kommen. 

 

Willkommen bei vom Hype zum Handeln, dem Podcast zur Transformation im Zeitalter der künstlichen Intelligenz. Marcos Esposito ist Trainer für generative Ki, er kommt aus Vorarlberg und teilt seine Einsichten und Erfahrungen mit uns, die er in über 100 Workshops gewonnen hat. 

Hallo Marco. Hallo und Bonjour. Ich freue mich wieder dabei zu sein. Bin schon gespannt, was wir heute alles die spannenden Themen am Tisch haben.

Ja, wir haben ja schon etwas gebrainstormt. Mal schauen, wie viele wir unterbringen in dieser Folge. 

Absolut. Ich freue mich absolut, dass du wieder Zeit gehabt hast. Wir haben uns ja schon vor einigen Monaten mal gehört zum Thema Gen.AI. Und bei dir hat sich ja ganz viel getan im Sommer. Du hast ja gerade dein Studium abgeschlossen, oder? 

Ja, noch nicht ganz. Es fehlen noch ein paar Tage, dass ich das offiziell sagen kann. Aber ja, der Master in Wirtschaftsinformatik oder wie die Uni so cool sagt in digitaler Transformation. Hab ich abgeschlossen, habe die Benotung für meine Masterarbeit zurückbekommen mit 100 von 100 Punkten. Bin mir nicht sicher, ob da vielleicht einer der andere Bonus da ein bisschen dabei war. Aber freut mich sehr, dass das jetzt erledigt ist. Ich liebe euch schon mit dem Doktoratsstudium und habt ihr schon eine oder andere Möglichkeiten, die sich hier gerade auftun. 

Wow, das ist toll. Gratuliere zu 100 von 100 Punkten, wenn wir noch nicht viel Studium gratulieren dürfen. Ganz toll, dass du so tolle Pläne hast. Genau, das ist super. Dann lass uns gleich eintauchen in der Welt der generativen KI. 

Da gibt es ja wirklich viele spannende Neuigkeiten, die sich hier getan haben. Ja, absolut. Bevor wir uns genau anschauen, wie jetzt zum Beispiel das Datenlack bei ChatGPT entstanden ist oder warum Meta so in der Kritik steht, das ist ja der Konzern zu dem Facebook und Instagram gehören, würde ich sagen, lass uns mal ganz kurz vor Augen führen, was da im Sommer passiert ist. 

Da hätte man ja mehrere Folgen aufnehmen können. Es hat ja ganz ein Regenguss voller neuer Modelle gegeben. Fast flutartig sind die Agenten über uns hereingepurzelt, die KI-Agenten. Ja, und bei den Modellen, da gab es von Claude, das Opus 4.1, dann ist jetzt gerade ChatGPT 5 herausgekommen, also in rasendem Tempo neue Modelle. Heute kommt auch noch ein neues, das Nano-Banana ist der Codename für Google's neuem Bildgenerierungstool. Das sollte heute irgendwann um 19 Uhr vorgestellt werden. Also, es hört nicht auf.

Ne, es hört nicht auf. Ja, Wahnsinn. Ich hoffe, du hast viel Zeit, weil da müssen wir noch fünf Stunden aufnehmen oder fünf Folgen. Aber unsere Hörer jetzt gleich keine Angst: Wir machen es kurz und knackig wie immer und wir werden nicht alle Modelle vertiefen, sondern immer diese Flughöhe einnehmen, wo wir sagen, was wiegt, was kann und worauf sollte man achten. Vielleicht steigen wir gleich ein, 

Sollen wir jetzt mit Banana einsteigen? Nein, das behalten wir uns auf, weil das erscheint erst heute. Wir beginnen mit CahtGPT 5 und schauen uns an, was es wirklich an Neuerungen bringt. Du hast dir das schon angeschaut und vielleicht verratest du uns kurz, worum es geht. 

Diese neue Funktion, die hier eingeführt wird, diese Autopicker finde ich ganz interessant, denn nach eben eigenen Aussagen vom Sam Altman, vom Geschäftsführer von OpenAI, haben wirklich ein kleiner prozentueller Teil der User, also diese sogar wirklich dafür bezahlt haben, also diese Plus-Version sogar hatten, haben nur ein kleiner Bruchteil dieser Personen, haben wirklich diese Reasoning-Modelle verwendet. 

Also die Modelle, die wirklich ein bisschen mehr Rechenleistung in Anspruch nehmen, die länger nachdenken. Also wo man wirklich sieht, dass das Modell minutenweise, also ich glaube mein längstes war sogar bis zu 35 Minuten wirklich „nachdenkt“ in Anführungszeichen. 

Und mit diesem neuen Modell, mit GPT5, wird jetzt im Prinzip automatisch festgelegt, für welche Aufgaben, welches Modell verwendet wird. Und ich glaube, durch das sehen wirklich ganz viele neue, also viele Menschen, die die Warenfähigkeiten dieser Tools, wenn diese Tools ein bisschen mehr Zeit haben zum Nachdenken. 

Und das ist wirklich die größte Veränderung, die wir jetzt haben mit GPT5. Ja, also ich habe jetzt auch nicht gewusst, dass es sich namentlich um die Autopicker-Funktion handelt. Aber das Reasoning erkennen wir schon aus eigener Erfahrung fast alle, die das verwendet haben, diese drei kleinen Punkte, die das so tanzen und simulieren sollen, dass das Modell nachdenkt bzw. besser recherchiert. Und aus der kostenlosen Version kennt man ja auch, dass er gute Modelle verwendet und dann wieder zurückstuft auf die kostengünstige bzw. einfacher Version. 

Das war früher so, genau. 

Und jetzt gibt es Reasoning und bei Claude nennt sich das Extended Reasoning oder so ähnlich. 

Genau, ja. Was ist denn wirklich so vieles passiert in diesem Sommer? Was wird auf den End-User und den Unternehmer für ein Einfluss das haben welche Ergebnisse bekommen? Und ich denke, dass... 
Da ja ein paar kleinere und größere Katastrophen sind, die man noch besprechen wollten. Die Datenlecks, da ist ja dem einer oder anderen der Mund offen stehen geblieben. Ich weiß, wie es dir da gegangen ist. 

Google hat ja plötzlich, ich glaube, 100.000, das kolportiert worden, 100.000 Chat-GPT-Gespräche indexiert. Das heißt, links nach außen gegeben. Leute haben wohl versehentlich einen Teilen-Button geklickt und waren sich nicht drüber bewusst, dass ein Teilen-Button ein öffentliches Link ist und geteilt werden kann. 

Und dann sind plötzlich persönliche Konversationen im Netz gelandet. Und das war natürlich für manche Menschen natürlich peinlich und dann zurück verfolgbar. Und das ist natürlich ein sehr, sehr schwieriges Thema, wo man wieder beim Datenschutz landen. 

Die Daten sind nicht ganz sicher, aber man kann natürlich auch Benutzerfehler machen. Wie siehst du das? Also, ich finde, das passt natürlich sehr schön für die Medien in dieses Narrativ der Panikmache von diesen Tools natürlich. 

Man muss ganz ehrlich sagen, das ist schon eigenverschulden, was hier auch passiert worden ist. Weil wenn du klickst auf dieses Gespräch teilen, dann gab es den Disclaimer, dass diese Konversationen öffentlich einsehbar sind. 

Und ich finde, Unwissenheit schützt hier nicht vor Strafe, wenn man halt nicht liest, was dort steht, wenn man das klickt, ist mir ein bisschen selbst schuld. Dass es super peinlich ist, wenn die Gespräche dann offline, also online aufrufbar sind, ist absolut logisch. 

Aber nichtsdestotrotz, es ist natürlich sehr viel Panikmache von den Medien, oh, ich lege diesen Datenlecks bei OpenAI und Co. Ja, aber man hat dazu, der man hat zugestimmt. Dasselbe beim Meter ja auch, ist ja auch was Ähnliches passiert. 

Aber auch hier muss ich wieder ehrlich sagen, wer halt diese Metatools verwendet, da sollte sich darauf einlassen, dass solche Dinge passieren. Also wir kennen es von Meta nicht anders, dass sie einfach super schlampig mit unseren Daten ist. 

umgehen. Und auch wenn wir, vielleicht kannst du noch erinnern, früher konnte man diesen Button anklicken. Nein, ich möchte nicht, dass meine Daten an dritten Ritter weitergegeben wurden. Und das wurde halt trotzdem gemacht. 

Und das war noch vor KI und allem. Und wenn ich dann halt immer noch blind links diesen Unternehmen vertraue, ist auch ein bisschen Eigenverantwortung mit dabei in meinen Augen. Ja, das ist genau der Punkt natürlich. 

Wir sollten es alle wissen, also jeder User, egal ob bei Meta, also Facebook, Instagram. Man hat es gewusst, aber man hat im Sommer eben auch noch mal gesehen, dass sie uns angeschrieben haben. Man muss dir zustimmen, dass man diese Tools weiterhin kostenlos nutzen kann. 

Oder es war ein Opt-Out, oder? Es war auch ein Opt-Out, dass man sagen musste, nein, ich möchte nicht. Genau, es war ein Opt-Out. Dann hätte man sonst eine kostenpflichtige Variante nehmen sollen. Es ist ganz ähnlich natürlich bei diesen KI-Diensten, egal ob sie chatten. 

GPT, Claude oder wie auch immer heißen, die Daten können zu Trainingszwecken genutzt werden, dann sind sie anonymisiert, das ist eigentlich nicht schlimm. Was da jetzt aber passiert ist, ist, dass ja wirklich Chats geteilt worden sind. 

Und ja, auf Social Media sollte man es eigentlich schon gelernt haben, dass eigentlich keine Informationen da mal ganz privat sind. Und es ist natürlich etwas verwunderlich, dass Menschen glauben, das wäre alles safe, ja, also irgendwo in einem Safe erschlossen. 

Aber mit dem Chatbot zu chatten ist im Verlockend und Leute vergessen dann einfach, dass es Daten sind und digital werden können. Genau, also ich finde, wo man einfach hier ein bisschen aufpassen muss, es muss einfach einem bewusst sein und da gibt es diesen tollen Spruch oder, dass die Modelle sind ja alle in der Cloud und es gibt keine Cloud, sondern es gibt halt nur der Rechner von jemand anderem. 

Und das muss einem halt natürlich bewusst sein, aber auch hier möchte ich wieder ein bisschen relativieren. Jeder, der in den letzten 20 Jahren Social Media oder Google verwendet hat, der hat schon längst seine Datenpreis gegeben. 

Und die ganzen Social Media-Plattformen, die wissen schon längst alles über uns. Google hat schon längst einen digitalen Zwilling von uns. Da gab es noch gar kein Thema. Ich finde, dieses Thema wird jetzt einfach noch mal amplifiziert, noch mal verstärkt, hoffentlich noch mal ein bisschen bewusster gemacht. 

Aber es ist schon lange so, dass wir schon längst unsere Daten und unsere Privatsphäre an diese Plattformen abgegeben haben. Ja, und vielleicht muss man das auch etwas betonen. Es geht halt darum, nachzudenken. 

Es ist natürlich verführerisch, sagen wir mal vor 15 oder 20 Jahren, ist ja Facebook und so weiter rausgekommen, da war das Social Media noch neu. Da rutscht man so hinein, man nutzt, man findet das ganz doll. 

Dann denkt man sich das ja so einfach wie Zähne putzen. Nur, man ist sicher kaum bewusst, dass man da wirklich Milliarden Technologien an die Hand bekommen, ob das ist. Facebook Live zu gehen oder YouTube Videos. 

Das sind ja sehr teure Dinge und die werden uns kostenlos zur Verfügung gestellt. Genau, und die Konzerne lassen sich das halt ablösen durch unsere Daten. Das ist sowas wie ein Gegengeschäft. Und da haben wir alle zugestimmt, wo wir die Plattformen genutzt oder halt uns eingeloggt haben. 

Da hast du recht. Dennoch, man ist sich das im Alltag vielleicht zu wenig bewusst und genau dasselbe gilt jetzt für unsere ganzen KI-Tools, die man nutzen und vielleicht muss man sich einfach das Bewusst machen, dass man preis dazu bezahlt, auch für die Generative KI. 
Genau, und ich vergleiche das ganz gerne. Ich hatte heute schon ein spannendes Interview für die Regionalzeitung hier, wo wir genau das selbe Thema angesprochen haben. Und natürlich liegt die Verantwortung eigentlich bei diesen Plattformen. 

Die sollten sich eigentlich darum kümmern, dass das mit den Daten nicht passiert und dass keine Fakes generiert werden und all diese negativen Dinge. Aber das ist wie so oft in der Welt, auch wie mit dem Recycling. 

Am Ende vom Tag kommt es auf den Endkonsumenten an. Also auf uns. Wir müssen uns darum kümmern, dass wir wirklich wissen, wie gehen wir mit diesen Tools um. Und für die sozialen Medien haben wir das verschlafen. 

Jetzt haben wir diese ganzen negativen Auswirkungen in der sozialen Medien. Das war ja auch ein großes Thema meiner Masterarbeit. Wir haben das alles, wenn wir es einfach verschlafen haben, davor das zu lernen, dieses Know-how aufzubauen. 

Und darum mache ich auch so viele Workshops und so viele Vorträge, damit genau das bei der KI nicht passiert. 

Dass die Leute sehen, hey, es ist wichtig, es wird wahrscheinlich nicht mehr weggehen und dieses Know-how aufzubauen, ist einfach in meinen Augen eine wichtige Fähigkeit, auch für die Arbeitswelt, aber auch für die private Welt, für den Alltag, dass man einfach weiß, okay, wie gehe ich bewusst mit diesen Tools um, ich kann ihnen nicht alles glauben, ich muss auch ein bisschen auf meine Daten aufpassen und nichts so trotz einfach wissen, okay, was passiert in dieser digitalen Transformation, in der wir uns aktuell befinden. 

Und das ist leider, in meinen Augen wäre es die Verantwortung von den Plattformen, aber wie wir es eben schon so gut wissen, am Ende vom Tag ist unsere Verantwortung, dass wir eben dieses Know-how aufbauen, damit wir uns davon schützen können und auch wissen, wie man damit umgeht. 

Ja, also ich verstehe natürlich deinen Punkt. Es ist halt einfach so, dass ein Teilen-Button sollte jedem bekannt sein, was es ist, aber man kann ja auch etwas teilen und man ist sich nie bewusst, dass das ein öffentliches Link ist. 

Aber ich will in jeden Fall in die Show-Notes einen Screen-Shot reingeben, dann habe ich aus einem Bericht entnommen, da steht da unter dem Bild wirklich. drin, dass, wenn man auf Teilen klickt, dass bei ChatGPT ein öffentliches Link generiert wird und dann natürlich wäre den Nutzen schon klar, was passiert. 

Aber weil sich ja nicht jeder mit Informatik oder Daten beschäftigt, ist es halt nicht jedem klar, egal ob junger oder älter, das ist auf 20-jährigen nicht klar. Aber da muss ich kurz einhaken. Das einzige, was man dafür können hätte, müsse wer lesen. 

Und heutzutage ist das aber etwas, was einfach nicht mehr aufgemacht wird. Und ich finde, dieses Skill, kritisch hinterfragen oder auch mal Dinge zu lesen, abseits von Schlagzeilen, ist halt einfach wichtig. 

Und der bleibt wichtig und diese Fähigkeit wird immer wichtiger, dass man auch Dinge hinterfragt. Und da braucht es kein technisches Know-how, da hätte man einfach nur lesen müssen. Ja, ich bin da total bei dir. 

Kritisch hinterfragen, das sagen wir auch natürlich schon sehr lange. Man braucht da nicht mehr. nur Medienkompetenz, sondern es braucht einfach ein logisches Denken. Da hast du recht. Und diese Zusammenhänge, die sind einfach den Leuten oft nicht klar, die nutzen das so wie, ja, die denken da einfach ganz wenig und haben da ganz ähnliche Ansichten und wundern sich, dass das immer wieder dasselbe auftaucht. 

Aber wenn man ihnen sagt, dass es zusammenhängt mit Daten, dann wird es ihnen schon klar, aber wie gesagt, man muss da immer wieder... Oder wir können es noch lernen. Man muss immer wieder lernen. Aber es ist definitiv, ja, und es ist in meinen Augen, eben, ich habe es gerade heute mit der Journalistin gehabt, es ist eigentlich eine Fähigkeit, die viele Journalisten gebraucht haben oder natürlich Informationen, 

Recherche und kritisch hinterfragen und mittlerweile finde ich das einfach ein Skill, eine Fähigkeit, die wir alle ein bisschen mehr trainieren sollten. 

Ja, genau. Recherchieren, ja. Zumindest haben wir alle die Chance täglich dazu zu lernen und es sollte ja dazu führen, dass wir uns mit etwas beschäftigen und man muss deshalb keine Angst haben oder unruhig sein, sondern es ist auch nicht böse, sondern man muss sich einfach bewusst sein, dass man da diese Tools nutzt und was damit einhergeht und das ist eigentlich ganz undramatisch. Aber vielleicht sollte man für Unternehmer dazu sagen, dass einfach mit Innovation auch Verantwortung einhergeht und da möchte ich den EI-Eck kurz ansprechen, was es für Unternehmer bedeutet. 

Wir wissen seit Februar 2025 ist es verpflichtend, dass man seine Mitarbeiter schult, die mit KI arbeiten. Daher muss man keinen eigenen Kunden-Chatbot oder sowas programmiert haben. Es reicht schon, dass man wirklich mit ChatGPT, Claude oder mit Schöne arbeitet, egal welche Plattform man nutzt. 

Und da ist es wichtig, dass man eine Vereinbarung im Unternehmen hat, wo man darauf aufmerksam macht, dass man mit der Firmen-Email-Adresse eben gewisse Dinge machen kann und war es aber auch nicht. Und welche Tat man hochlädt oder worauf man achtet? 

Unternehmenskontext ist das nochmal was anderes. Da gibt es wirklich um Unternehmensdaten. Für private, wie gesagt, da habe ich das Gefühl, ist der Zug schon ein bisschen abgefahren. Wir haben schon längst alles geteilt. 

Aber eben, genau wie du sagst im Unternehmen, da brauchst du zuerst einmal so diese KI-Richtlinien, wie sie viele Unternehmen schon aufbauen, wo genau diese Dinge, die du gerade jetzt erklärt, abgeklärt sind. 

Was dürfen wir hochladen, was nicht, welche Daten sind relevant. Also genau das, was du gerade gesagt hast. Ja, also weit in die Show noch einmal die Checklist hineingeben, die mit Dr. Luca Staffler in der Folge 11, glaube ich, war es, abgestimmt habe.

Es ist wirklich eine kleine und nicht rechtsverbindliche, aber eben eine ganz praktikable Checkliste, die man mal durchgehen kann und man wird sehen, dass man das ganz unproblematisch und unkompliziert dokumentieren kann, ohne dass es große Mühe macht. 

Und die Mitarbeiter sollten eben oder müssen sogar im Unternehmen geschult werden und dann hat man schon das meiste richtig gemacht und ansonsten Marco anrufen, der macht Workshop. Oder bei Petra anrufen, weil die Marketing funktioniert. 

Und was ich auch ehrlich sagen muss, auf der Wirtschaftskammerseite gibt es schon eine sehr gute Vorlage, wie diese Richtlinien auch ausschauen können. Da werden wir die Links zusammensteuern wie beide. 

Mir ist halt nochmal so wichtig, einfach Innovation und Verantwortung nochmal zu Betonen für Unternehmer, die müssen halt Hand in Hand gehen und deshalb muss man sich es einfach anschauen und es ist jetzt ungefähr eineinhalb Jahre, wo wir wirklich alle KI nutzen und sollten uns damit so weit befassen, dass wir uns grob auskennen, beziehungsweise zur Kenntnis nehmen, dass KI nicht mehr weggeht und uns wirklich damit befassen und diese Einladung steht nicht durch den Podcast oder einem anderen Podcast zu folgen, sondern sich da wirklich genau zu überlegen, was man wirklich mit KI machen möchte, was man mit diversen Anwendungen gerne verbessern möchte im Unternehmen und nicht nur einfach drauf los schießen, um irgendwas zu machen, sondern wirklich zu schauen, welches Ziel kann man verfolgen. 

Da hast du ja auch schon Erfahrung gemacht, oder? Ja, das ist, ich finde, das ist ein spannendes Thema für die nächste Folge. Da könnte man hier ja auch über diese neue MIT-Studie sprechen, die ja sagt, das 95 Prozent der KI-Prozesse scheitern. 

Und da sind viele Dinge dabei, die ich jetzt in meinen drei Jahren Unternehmensberatung genau so unterstreichen könnte, wieso die scheitern. Und für den von vorhin vielleicht noch anschließen, wenn du sagst eben dieses, man soll sich einfach dafür interessieren, das sehe ich genau so. 

Und das hat auch absolut nichts mit dem Alter zu tun. Es hat nichts mit der mit der Hierarchie-Ebene zu tun, wo man sich befindet. Ich hatte schon alles dabei, von zwölfjährigen Schülern bis zum Schülerinnen bis zum 86-jährigen. 

Den Pensionisten von Lehrlingen bis zu Vorständen von Milliarden Unternehmen, das Einzige, was man heutzutage braucht, ist eine gewisse Portion Neugier und ca. 10 Stunden. 10 Stunden investieren in dieses Thema und ich garantiere, dass man definitiv schon einiges an Wissen aufbauen kann. 

Weil diese Tools, die sind super, consumer-friendly, also die sind super, sagen wir es richtig Wort, das deutsche Wort dafür, die sind so einfach wie möglich gemacht im Prinzip, intuitiv gemacht, genau intuitiv gemacht. 

Der Zug, der ist noch nicht abgefahren. Diese Tools, die sind noch nicht so alt. Der Zug steht noch am Bahnsteig, da kann man noch problemlos einsteigen und wirklich mit etwas Neugier und Interesse und ca. 10 Stunden Zeit ist man da wirklich auf einem guten Level zum schon Wissen, was geht, was geht nicht. 

Das ist das Schöne an diese KI. Wir haben gefühlt, alle drei Tage könnt ihr über ein neues Thema sprechen. Aber ich denke wirklich, wenn wir uns das nächste Mal anschauen, okay, wieso scheitern dann diese Prozesse auch? Und das könnte auch für die Zuhörerinnen sehr spannend sein. Und finden wir hier doch nochmal ein spannendes Thema und da können wir natürlich Agenten auch mit interagieren. 

Also es ist ziemlich einfach eigentlich herauszufinden, was geht mit Hilfe von KI, möchte man meinen, aber es ist natürlich Kopfarbeit. Und da kann man sich an verschiedenen Dingen orientieren. Du hast gesagt, diese zehn Stunden, die man mal investieren soll, zum Einlernen, ich nenne das oft auch für eine erste Orientierung, damit man weiß, in welche Richtung kannst du denn gehen. 

Da haben wir ja auch in Folge 11 mit dem Lukas Staffel, habe ich da schon gesprochen, mit dem Rechtsanwalt, wo wir über den AI gesprochen haben, da haben wir so eine kleine Checkliste gesammelt, wie man davor gehen kann, ganz praktisch, da geht es gar nicht nur um den AI-Akt, sondern wie man halt so ein KI-Projekt sinnvollerweise umsetzen oder beginnen kann. 

Und das beginnt einmal mit erstens prüfen, ob man überhaupt KI einsetzt. Das klingt total lapidar, aber mir war es auch nicht immer klar, weil da passiert halt einfach etwas. Das könnte aber auch einfach nur eine Automatisierung sein. 

Beispielsweise sind wir ein Unternehmen, wo viele Bestellungen eindrudeln oder sagen wir so, wir sind ein Reisebüro und da kommen viele Buchungen rein. Und immer wenn da Buchung steht, dann soll das im E-Mailfach von einem bestimmten Bearbeiter landen. 

Oder wenn das ein größeres Reisebüro ist, wenn das Reise nach Kenia soll halt beim Afrika-Experten sein und irgendwas aus Asien betrifft, zum anderen Mitarbeiter kommen. Dann sind das ja nur Filter, Automatisierungen und keine KI, oder? 

Genau. So und in dem Sinne haben wir das als ersten Punkt. Aber der zweite ist natürlich dann schon, wie wird denn die KI überhaupt eingesetzt und welche Chancen und Risiken gibt es denn da überhaupt? 

Und wenn man das sinnvoll macht, dann glaube ich, ist ja schon ganz viel gedacht. oder Ideen sammeln, Liste erstellen, Aufwand prüfen oder wie gehst du da oder wie gehen da deine Kunden oder du in den Workshops mit deinen Kunden vor? 

Also eigentlich genau so wie du es jetzt auch angefangen hast. Was ich da immer ganz gerne unterstütze, ist eben wie wir vorhin schon besprochen haben, dass man sich mal so eine AI-Richtlinie, also eine KI-Richtlinie-Unternehmen intern erstellt, dass man einfach weiß, okay, dass jeder Mitarbeiter der einfach weiß, was sind die Rahmenbedingungen, was sind die Spielregeln, was für Daten darf ich verwenden, was für Daten sollte ich nicht verwenden. Das ist mal das erste, das haben wir vorhin eh schon gesprochen. Und das zweite und das empfiehlt eigentlich, das haben wir in einem... Einem Kollege von mir habe ich ein bisschen abgeschaut, mit dem ich auch ganz viele Workshops mache. 

Der empfiehlt dann immer wirklich zu schauen, okay, was sind den routinemäßigen Aufgaben, also Aufgaben, die immer und immer wieder vorkommen und welche sind super nervend. Also welche sind anstrengend, wenn sie mühsam, das sind so in meinen Augen, oder beziehungsweise auch im Augen vom Marco, auch Marco Moosbrugger, das sind so die Themen, mit denen er ganz gerne anfängt. 

Ja, da kann ich Marco 2 und dich natürlich sehr gut verstehen. Wir starten auch immer damit eigentlich, weil es logisch, also da ist jetzt mal, wie sagen wir, die low hanging fruits, oder sagt man oft, also das, was er wirklich nervt, ja, da ist auch die Motivation da, was zu tun, und dennoch, also mir sagen halt immer, lass uns das gesamt anschauen, weil eine einzelne Maßnahme oder ein Ding aus einem Prozess, 

der sonst nicht gut funktioniert, ist meistens, wenn ich auch nicht die Lösung finde, wie man gesagt habe, im Höhe einer ROI. Da würde jetzt zwar mal so einen Druck wegnehmen, aber vielleicht nicht unbedingt sich sehr auf den Revenue auswirken.

Dann muss man halt nochmal genauer schauen, gell? Genau, und eben dann als zweiter Schritt, und wenn wir ja auch nachher mehr IAX bleiben, oder da sagt ja, diese KI-Kompetenzen müssen ja auch aufgebaut werden, und ich finde dann, sobald einmal diese grundlegenden KI-Kompetenzen da sind, und die Mitarbeitenden sich mit ChatGPT und Co, also verwende ich jetzt einfach als Synonym für alle anderen Tools, 

wenn die Leute sich dann mit ChatGPT und Co besser auskennen, dann können sie dann auch selber wirklich Use-Cases mit einbringen, und sie sehen dann vielleicht auch selber, okay, es ist nicht nur routinemäßige, nervige Arbeiten, sondern auch wirklich Prozesse, die viel Hirnschmalzkosten oder wo ich lange überlegen muss, oder wo viel Arbeit benötigen, auch da können mir diese Tools an die Hand, 

also unter die Arme greifen. Genau, aber dazu braucht man zuerst einmal so ein bisschen ein Know-how, was können diese Tools dann und was können sie nicht. Genau, das ist so ein bisschen eine Blickgeschichte, oder man hat früher oft gesagt so, wie die Nase von einem Trüffelschwein verliebt, man kommt. 

die Spur. Die Geschichte ist eigentlich, man kann das lernen. Man bekommt da einen gewissen Blick dafür und wird ja dann immer besser. Also das Schulen, wie du sagst, ist natürlich der Kern. Bei uns, jetzt einfach in der kleinen Checkliste, ist jetzt nur die Reihenfolge, bis sie anders. Wir haben nur die Datensicherheit, welche Tools dürfen wir haben, etwas nach hinten getan. Die hast du vorher genannt, aber schlussendlich sind sie selben Punkte. Und wir müssen uns dann fragen, dürfen wir in dem Kontext KI einsetzen? 

Also wenn es nicht um persönliche Daten und so geht, meistens ja. Und dann, wenn wir was erschnüffelt, spürt haben mit unserer Nase, dann muss man halt schauen, wenn jetzt dieses Teil angeht, welchen Prozess muss ich denn dann insgesamt anpassen? 

Dass es nicht so eine Einzellösung bleibt. Und deshalb habe ich auch gesehen, dass man sagt, Texte. Ja, das ist super, wenn ich Texte habe. Aber ah, sind die richtig. Das gibt Leute, die machen dann einfach SEO mit ChatGPT. 

Das kann ich auch. kann man machen, wenn man weiß, was man tut. Wenn man aber nicht weiß, was man tut, weil der gesamte Prozess nicht stimmt und ich nicht vorher schon alles genau mir überlegt habe, wofür eigentlich keine GPTs, sondern mehr ein Köpfchen brauchen und andere Skills. 

Aber dann geht das ja ins Leere oder dann habe ich halt ein Text und dann ist einmal, sind dann Keywords drauf, aber es ist Internet verlinkt, also es wird einfach zu nichts führen, es wird das Problem nicht lösen. 

Genau, und es müssen ja auch immer nicht nur Texte sein, also man kann diese Tools ja auch wirklich als Super-Sparrings-Partner verwenden, wenn man über gewisse Ideen Brainstormen möchte oder wenn man kritisches Feedback haben möchte. 

Also da kann man vielleicht auch wieder in der ganze Folge fühlen, was man denn wirklich alles konkret damit machen kann. Ja, das hätte ich mir freuen. Vielleicht schaffen wir es im Herbst mal. Aber jetzt müssen wir gerade aufpassen, weil wir haben jetzt eigentlich noch nicht, gell? 

Jetzt muss ich uns ein bisschen schelten, eigentlich mich, weil ich habe es ja gesagt, die Assistenten und die Agenten, die haben wir jetzt ein bisschen unterschlagen, weil das in Rahmen dieser Folge sprengend würde, aber wir wollen es ja immer kurz und knackig halten. 

Also wenn du einverstanden bist, können wir uns einmal über die Assistenten und Agenten unterhalten oder ich erzähle mal was davon, was wir da im neuen Tool machen und vielleicht stelle ich dir das vor und du kannst dann Fragen stellen oder so, oder das ausprobieren und super. 

Und das andere wäre, dass man vielleicht genau das, was du gesagt hast, das so eine eigene Folge fühlen, dass man diese Studie anschauen und sagen, wenn man diese Punkte, wie kann man denn die Fallstricke, die die Studie rausgefunden haben? 

Ja und Marco, du hast mir doch was, die Prozesse anlangt, gerade von einer aktuellen Studie erzählt, die mir an etwas erinnert hat, das ich schon vor einiger Zeit gelesen habe, ich kann mir an den Prozentsatz nicht mehr genau erinnern, aber es waren halt so 90, 95 Prozent aller Projekte, die KI nutzen, sehr breit gefasst, wir wissen jetzt nicht um welche Projekte oder welche KI ist da gegangen ist, 

aber die erzählen nicht den gewünschten Erfolg, aber da gibt es jetzt auch aktuelle Studie aus dort. erzählt, oder? Ja, eigentlich jetzt, die letzten paar Tage ist die veröffentlicht worden, die kommt vom MIT und die ist recht spannend, die sagt nämlich wirklich, dass nur 5 % und lass es jetzt 10, lass es 3 %, aber auf jeden Fall, es sind nur sehr wenig dieser KI-Pilot-Projekte, die eben von diesen Unternehmen initiiert werden, sind wirklich erfolgreich, also bringen auch wirklich einen erhöhten ROI am Ende vom Tag und also die Studie durchgelesen habe, muss die wirklich sehr schmunzeln, weil sich das ziemlich mit dem deckt, was ich oft sehe, also wo, wie gesagt, die ganze Studie kann man eigene Folie darüber machen, was sind die größten Fehler, was 

Was müssen Unternehmen beachten, aber man sieht hier sehr schön, es scheitert nicht an den Tools, sondern es scheitert eigentlich wirklich an dieser Implementierung von diesen Prozessen am Ende vom Tag. Ich glaube, das wäre oder ist ein gutes Schlusswort, wenn es sich etwas was in diesem Podcast immer betont wird. 

Also es ist das Tool, wie du sagst, es ist ein Instrument. Wir als Menschen lenken das, wir müssen unsere Köpfchen einschalten und sagen, wie kann uns dieses Instrument oder Werkzeug behilflich sein und wir sind dafür verantwortlich, dass es das tut, was wir wollen, dass wir die Daten schützen, dass wir die Mitarbeiter schulen. 

Also an sich braucht man keine Angst vor so was haben, sondern man muss es halt einfach tun. Es ist halt nur kein Zauberstab. Da sagt Hex, Hex, mach mir alle Probleme weg und schon ist das passiert. Genau, das wünscht man sich oder das hätte man momentan vielleicht gerne. 

Ich vergleiche das ganz gerne so mit den Bilder. Ich kann mir erinnern vor zwei Jahren noch oder vor knapp drei Jahren, als man das erste Mal schon Bilder generieren konnte. Da wollten alle, dass man Bilder bearbeiten konnte und dass alles superrealistisch ausschaut. 

Und jetzt drei Jahre später ist das Ganze aber erst möglich. Und ich glaube, dass vieles von dem, was sich die Leute jetzt noch wünschen, dass es so wie du gesagt hast, dieser Zauberstab ist, das ist jetzt noch nicht möglich. 

Schau mal, wie die Welt in ein, zwei, drei Jahren ausschaut. Aber momentan braucht es einfach noch dieses Know-how mit diesen Tools. Was können sie, was können sie nicht? Wo braucht es diesen Human in the Loop? 

Also wo braucht es diesen Mensch noch? Auch übrigens auch beides Begriffe, sowohl das mit den zehn Stunden als auch dieses „Human in the Loop“. Das sind Begriffe vom Ethan Molik, den ich uns in Zuhörenden ans Herz legen kann. 

Der hat ein tolles Buch geschrieben, Co-Intelligence, das kann ich wirklich jedem ans Herz legen. Das ist mal so ein guter Einstieg in das Ganze. Aber zurück zum Thema zu kommen, es braucht wirklich dieses Know-how mit diesen Tools. 

Und nochmals, dieser Zug ist immer noch im Bahnsteig, der ist noch nicht abgefahren. Es braucht einfach nur gewisse Neugier und Interesse und ein paar Stunden deiner Zeit. Ja, da bin ich absolut bei dir und ich bin schon gespannt. 

auf die neuen Folgen, die wir machen werden. Ja, mir liegen die Assistenten und Agenten sehr am Herzen, weil man die glaube ich jetzt noch brauchen, bis diese neue Generation, der generativen KI von der du jetzt vielleicht gesprochen hast, mal schauen, wie lang wir es brauchen. 

Das wird ja doch vielleicht zwei, drei Jahre dauern, ich weiß es natürlich nicht, aber doch einige Zeit, dass wir bis dahin ja sehr qualitätvolle Ergebnisse kriegen und was man tun kann, so wie du in den Workshops arbeitest und dass wir auf die Studie eingehen und sagen, wo sie nicht die Fallstricke und wie können wir sie vermeiden? 

Das ist ja doch cool. Genau, das würde ich genau so unterschreiben. Ja super, dann freue ich schon, wenn wir irgendwann im Herbst wieder fortsetzen und diese Folge des heißen KI-Sommers jetzt einmal für heute beenden, was meinst du? 

Genau, das ist eine super Idee. Bei uns in Vorarlberg regnet es eh. Ja, hat bei uns auch. So heiß ist es nicht mehr. Genau, hat bei uns auch begonnen. Das war jetzt ein top aktueller Wetter-Einstieg aus der Form halb zum Handeln-Wetter-Redaktion. 

Na super Marco, vielen lieben Dank. Dann sehen wir uns bei der nächsten Folge hoffentlich wieder. In unserem Podcast Form halb zum Handeln sprechen wir alle zwei Wochen über die Chancen des Wandels im Zeitalter künstlicher Intelligenz. 

Wir zeigen, was es am Markt in verschiedenen Bereichen gibt und was realisiert wird. Wir sprechen über neue Entwicklungen, ordnen sie ein und lassen auch Experten und Partner zu Wort kommen. Damit erhältst du Einblicke aus erster Hand von Leuten, die schon zwei, drei Schritte weiter sind als der derzeit weit verbreitete Experimentierstatus.