Vom Hype zum Handeln

#16 KI im Unternehmen: Was ist erlaubt, was verboten?

Episode Summary

🎙️ KI-Anwendung: Was ist erlaubt – und was verboten? In dieser Folge von „Vom Hype zum Handeln“ spreche ich mit Marco Esposito, Trainer für generative KI aus Vorarlberg, über eine der meistgestellten Fragen in Unternehmen: 👉 Was darf man mit KI eigentlich tun – und was besser nicht? Generative KI-Tools wie ChatGPT, Gemini, Copilot oder Midjourney sind längst im Alltag angekommen. Doch gerade im Unternehmenskontext entstehen Unsicherheiten: Welche Daten darf man hochladen? Was sagt die DSGVO und der EU AI Act? Und wie sieht ein verantwortungsvoller KI-Einsatz in der Praxis aus? Marco teilt seine Erfahrungen aus Dutzenden Unternehmensworkshops und zeigt, wie Organisationen durch klare Spielregeln und Schulung statt Verbote Vertrauen schaffen können. Wir stellen ein einfaches Ampelsystem für den KI-Alltag vor: 🟢 Erlaubt – von Textkorrekturen bis Brainstorming 🟡 Mit Vorsicht – interne Dokumente ohne sensible Daten 🔴 Verboten – personenbezogene oder vertrauliche Informationen Außerdem sprechen wir über Transparenzpflichten, Chatbots im Kundendienst und den richtigen Umgang mit KI-generierten Inhalten – von Kennzeichnung bis Qualitätskontrolle.Ein weiterer Schwerpunkt: Urheberrecht und Stilimitationen – was ist rechtlich erlaubt und wo beginnt die Grauzone? Petra und Marco fassen zum Schluss die wichtigsten Praxistipps als Checkliste zusammen: 1️⃣ Interne Regeln & Richtlinien festlegen 2️⃣ Kompetenzen aufbauen und Mitarbeitende schulen 3️⃣ Datensensibilität prüfen 4️⃣ Human-in-the-Loop – Ergebnisse immer gegenchecken 5️⃣ Transparenz schaffen & Kommunikation offen halten Ein zentraler Punkt: KI transparent zu nutzen stiftet Vertrauen. Eine sinnvolle Handhabung ist relativ einfach machbar - auch anhand von Checklisten wie der im Podcast vorgestellten.

Episode Notes

EPISODE NOTES
Was dürfen Unternehmen mit KI-Tools machen – und wo liegen die rechtlichen und ethischen Grenzen?
Trainer Marco Esposito gibt Einblicke aus der Praxis und erklärt, wie man mit klaren Regeln, Schulung und Transparenz Vertrauen schafft.

Während privat jede:r selbst entscheidet, welche Daten geteilt werden, gelten für Unternehmen klare Vorgaben – von DSGVO und Telekommunikationsgesetz bis hin zum EU AI Act.

„Kompetenzen vermitteln und eine offene Unternehmenskultur beugen Silo-Denken vor .“ – Marco Esposito

📈 Relevante Themen:
KI Praxischeck · EU AI Act einfach erklärt · KI-Marketing · KI Compliance Unternehmen · KI im Arbeitsalltag

Episode Transcription

KI-Anwendung: Was ist erlaubt, was verboten?

Generative KI, also Systeme wieChatGPT, Gemini, Copilot oder MidJourney für Bilder, HeyGen für Videos sind längst millionenfach genutzt und im Einsatz. Willkommen bei Vom Hype zum Handeln, dem Podcast zur Transformation im Zeitalter der künstlichen Intelligenz Bei der privaten Nutzung ist der Umgang mit meinen eigenen Daten in erster Linie meine eigene Entscheidung.

Aber worauf sollte man achten wenn man KI im Unternehmenskontext einsetzt? Genau hier beginnen Unsicherheiten. Denn auch wenn grundsätzlich die DSGVO, das Telekommunikationsgesetz und seit einiger Zeit auch der EU-EI-Act verbindliche Leitplanken festlegen, Doch tauchen dann im Unternehmensalltag viele praktische Fragen auf, die sich meistens darum drehen was ist mit KI erlaubt und was ist verboten.

Mein Name ist Petra Liebl und ich begrüße dich ganz herzlich zu einer neuen Ausgabe von Vom Hype zum Handeln. In diesem Podcast beleuchten wir KI-Trends aber vor allem deren Anwendung in der Praxis. Wie sollen Unternehmen und EntscheiderInnen KI einsetzen, damit sie sinnvoll und verantwortungsvoll damit umgehen?

Darüber spreche ich heute mit Marco Esposito, der Unternehmen seit Jahren mit Workshops bei der Einführung und Umsetzung von KI begleitet. Gemeinsam schauen wir uns an, welche Fragen in der Praxis auftauchen und welche man sich vielleicht besser stellen sollte Bevor man ein KI-Projekt startet. Hallo Marco.

Hallihallo. Freut mich sehr, wieder dabei zu sein. Ja, super. Enorme Zahlen, was du da gerade schilderst, diese 100 Millionen Nutzer die mittlerweile ChatGPT verwenden. Gerade am Montag gab es eine Konferenz von den Gründern von ChatGPT, also von OpenAI selbst. Und die haben da gerade gesagt, dass es eben 800 Millionen wöchentliche Nutzer und Nutzerinnen sind.

Also eine unglaubliche Anzahl an Menschen. Wenn man bedenkt dass vor zwei Jahren das gerade mal noch 100 Millionen Personen waren. Also wir sehen wie schnell sich diese Technologie in unseren Alltag integriert. 

Ja, sie verbreitet sich rasend schnell. Bevor wir jetzt ganz tief einsteigen, können wir dazu sagen, dass sie natürlich in Abertausenden Automationen natürlich auch verbaut ist und da geht was weiter.

Unsere Beobachtungen das ist evidenzbasiert und wir geben als Nicht-Juristen selbstverständlich keinerlei rechtliche Empfehlung ab.

Wir sagen aber gern, worauf man schauen soll. Und unser Ziel ist, dass wir den Blick schärfen, worauf sollte man achten, wo lohnt es sich, dass man genauer hinschaut und wie kann man sich genauer Im KI-Nutzen im Unternehmensalltag einfach sicher sein und loslegen. 

Genau. 

Marco, du arbeitest täglich mit Unternehmen, die KI einsetzen.

Was ist aus deiner praktischen Erfahrung eine Frage die sehr häufig gestellt wird, wenn es um KI geht? 

Das ist ein sehr weitläufiges Thema, was das anbelangt Also was ich mittlerweile immer mehr sehe, ist, dass die Leute sich weniger fragen Was die KI kann, aber immer mehr, wie man sie auch richtig verwendet.

Und das eben speziell im privaten Alltag und im Unternehmen sehe ich immer mehr und mehr, dass eben auch die Unternehmen diese Technologien einsetzen möchten. Also nicht nur vom einzelnen Mitarbeiter, sondern wirklich unternehmensübergreifend, über alle Strukturen hinweg diese generative KI Alltag werden zu lassen.

Die Spielregeln im Unternehmen, die sind natürlich absolut wichtig, aber es gibt so gewisse Unsicherheiten, die die meisten betreffen. Zum Beispiel, wie werden Daten verarbeitet Da weiß man inzwischen, dass man aufpassen soll.

Und wenn wir jetzt ganz einfach einsteigen wollen, einmal mit alltäglichen Nutzungen, wie wir es ja schon angesprochen haben, Da könnte man sagen, die Mitarbeiter nutzen zum Beispiel 800 Millionenfach, wie du gesagt hast, ChatGPT, um Texte zu formulieren oder mit Journey, um Bilder zu erstellen oder Visuals oder Copilot oder HeyGen für Videogenerierung.

Es gibt viele Möglichkeiten. Was kann ich als Anwender falsch machen? Und wenn du mit Unternehmen sprichst, was sagst du, worauf sie schauen sollen? 

Also ich will da gar nicht so viel von falsch machen reden und irgendwelche Vorwürfe machen.

Die Technologie die ist einfach so schnell gekommen, also dass viele einfach noch gar nicht wissen, okay, was Was passiert überhaupt wirklich so ? Und man sieht es ja auch, auch die Gesetzgebung hängt ein bisschen hinterher und auch diese ganze digitale Transformation die kommt einfach ein wenig zeitverzögert.

Darum ich finde es wichtig, okay, Was kann man falsch machen? Ich denke, wir sprechen da eh noch im Detail darüber, wie man starten könnte oder was mal die ersten Überlegungen sein sollten.

Aber prinzipiell bin ich ein großer Fan davon, dass zuerst einmal diese Kompetenzen auch im Unternehmen aufgebaut werden sollten. Wenn man sagt, okay, wir möchten KI implementieren, dass zumindest mal auch alle Beteiligten einfach auch die nötigen Kompetenzen haben und wissen, was passiert überhaupt 

Absolut wichtig natürlich, die Kompetenzen zu schulen. Es gibt da auch eine Folge über den AI-Act, die Folge 11, das klingt kompliziert ist aber vom Herrn Dr. Staffler, der Rechtsanwalt ist und seines Zeichens auch sich mit digitaler Compliance beschäftigt. In dem Sinne hat er das super einfach erklärt.

Und da haben wir das auch heruntergebrochen und sogar dann eine kleine Checkliste dazu in den Shownotes können wir verlinken, die wir da erarbeitet haben, was den AI-Act und das Starten von KI-Tools angeht. Und vor allem schulen bevor man etwas verbietet.

Was ich immer öfter sehe, dass viele Unternehmen gewisse Tools verbieten, weil sie Angst haben vor Datenschutz. Über das sprechen wir, glaube ich, eh später noch ein bisschen genauer. Aber viele verbieten, und ich glaube, es ist kein Verbotsthema, sondern ein Schulungsthema am Ende vom Tag.

Also wenn die Mitarbeitenden wissen, Welche Daten kann ich verwenden, wie funktionieren diese Modelle, wo muss ich aufpassen, dann muss man davon auch nicht so viel Angst haben. Die aktuell hier entsteht die kommt einfach von Unwissenheit. Und darum sage ich, Kompetenzen aufbauen, Wissen aufbauen.

Ja, genau. Ich glaube, fast du hast Folge 11 angehört weil was der Dr. Staffler da sagt, ist eben auch, man soll vor dem AI-Eck keine Angst haben, aber Respekt. Und du sagst okay, keine Angst haben, 

genau. 

Also wir wollen eine Art Hausordnung für die KI-Nutzung schaffen. Damit man nicht nach dem Bauchgefühl entscheidet ist es halt wichtig Nutzungsrichtlinien zu haben.

Was meinst du? 

Genau, also ich denke auch, dass als Startpunkt für die ganze Thematik gibt es eben so diese KI-Richtlinie die es meistens im Unternehmen gibt. Also ich finde Richtlinie immer so ein bisschen ein hartes Wort, aber einfach die Spielregeln, wie kann man bei uns im Unternehmen künstliche Intelligenz oder generative künstliche Intelligenz einsetzen.

Möchtest du das ein bisschen erklären? 

Genau also ich habe schon einige dieser KI-Richtlinien von diversen Unternehmen in der Hand gehabt und eigentlich sind sie fast immer dasselbe. Und da gibt es eine tolle Vorlage von der Wirtschaftskammer in Österreich, die eben genau die vier wichtigsten Punkte eigentlich abklärt, also dass man einfach weiß, welche Tools usw Kann man verwenden, welche sind im Unternehmenskontext gestattet, dass man weiß, wie man mit Daten umgeht, also mit vertraulichen Inhalten, also dass das geregelt ist, welche Daten dürfen hochgeladen werden, welche nicht.

Zum Beispiel bei Unternehmen Patente oder Code oder eigene, also wirklich Legacy-Code der nicht hochgeladen werden sollte. Einfach dass das Bewusstsein herrscht, Was für Daten haben da was verloren und was nicht. Und natürlich auch noch dieses Konzept dieses Human in the Loop, also dieser Mensch, der das nochmal überprüft am Ende vom Tag,

also dass das auch gesichert ist, dass die Leute wissen, okay, wenn wir Künstliche Intelligenz verwenden. Es braucht uns Menschen aktuell noch dazu, zur Überprüfung zumindest. Und dann, dass eben diese Kompetenzen, die dafür benötigt werden, um diese Punkte zu erfüllen, dass diese dann eben auch geschult werden.

Und ich glaube, es geht einfach darum, diesen Spielrahmen zu schaffen. Und das sind mal die drei bis vier wichtigsten Punkte, die man definitiv beachten sollte. Ja 

Also welche Tools hast du gesagt? Ich fasse es gerade nochmal kurz zusammen.

Dann auch die Daten, dass man nichts Vertrauliches hochladet eh klar. Schulen Schulen, Schulen, wie du schon gesagt hast. 

Genau. Und vielleicht auch noch wichtig, das muss auch nicht immer ein teurer externer Berater sein.

Etwas was mir sehr oft aufgefallen ist, ist, dass in vielen Unternehmen mindestens immer ein bis zwei Personen gibt, die doch noch so ein bisschen mehr für das Thema brennen, die mehr Rückfragen stellen, die in Vorträgen oder in Workshops mehr in den Dialog gehen. Und ich finde, genau solche Leute sind auch wichtig und die gibt es.

Da kann man wie es diesen Datenschutzbeauftragten gibt, kann man auch einen [00:09:00] KI-Beauftragten fördern, der das auch intern machen kann. 

Ja, gute Idee. Finde ich natürlich wichtig, dass man die Motivation erkennt und nutzt.

Und ein guter Tipp auf jeden Fall, wenn wir Workshops machen, dann arbeiten wir gern mit so einer Art Ampelsystem. Logischerweise grün ist erlaubt ganz easy, ohne Einschränkungen.

Bei gelb ist zwar erlaubt aber da sollte man ein paar Einschränkungen beachten Und rot ist Stopp Das geht gar nicht, da lassen wir die Finger davon. Kurz, was alles unter Grün fällt, was also keine Einschränkungen hat, was die meisten machen, ist jetzt Texte umformulieren lassen.

Ich habe einen Text, will wissen, wie ich den für eine andere Zielgruppe schreiben kann oder ein E-Mail aus Stichpunkten erstellen oder jemand möchte sich gerne Grammatikfehler aus etwas rausholen lassen oder halt Tippfehler, also Schreibhilfe. Könnte aber auch Brainstorming sein für [00:10:00] interne Projekte bitte wichtig, nicht für ein Kundenprojekt sondern du und ich, wir würden jetzt brainstormen über den Podcast, das könnte man natürlich auch mit Hilfe von KITULS machen.

Nächster Punkt für Grün wären noch Vorschläge für Code, der nicht sensibel ist. Ich habe einen kleinen Fehler, man hat den L-Code und lasst den rausholen. Wenn das keine kritischen Unternehmensfunktionen sind, kann ich einen kleinen HTML-Code mir gerne erstellen lassen. Oder ich könnte auch Texte in eine fremde Sprache übersetzen lassen.

Was ich noch dazu sagen möchte... Ist natürlich das, dass wir über die Transparenzpflicht sprechen. Bei denen, die wir öffentlich machen, gibt es ja so die Empfehlung, dass man dazu sagt, dass die von KI generiert sind, wobei man das ja nicht unbedingt muss.

Wie erscheinen dir die Punkte, Marco? 

Da bin ich eigentlich ganz bei dir. Wie gesagt, wichtig ist eben das [00:11:00] Transparenzthema, das wir dann noch ansprechen Aber eben, wie du sagst, auch bei solchen Dingen ist es immer noch wichtig, dass ein Mensch am Ende vom Tag drüber schaut, also dieses Human-in-the-Loop-Prinzip das bleibt hier trotzdem.

Das 

behalten wir bei, dann wären wir schon eben bei Grün wäre so gut wie alles erlaubt dann kommen wir zur gelben Stufe wo wir sagen, etwas vor sich geboten wir schauen also, wenn man zum Beispiel interne Dokumente ohne sensible Daten zusammenfasst oder bearbeitet mit KI-Tools. Dann geht es in die Cloud, okay, wenn das jemand nicht möchte, muss man es als Unternehmen regeln aber genau, deshalb gelb.

Entwürfe für Kundenkommunikation wäre noch so ein Punkt. Da kann man natürlich sich Vorschläge holen aber man sollte halt wirklich... KI-Tools auf sich selbst schulen, damit auch wirklich jene Dinge rauskommen, die zu mir als Unternehmen passen oder Recherche zu Wettbewerbern auch das kann man [00:12:00] machen, da sollte man auch Regeln anwenden, dass man nicht den eigenen Datenpreis gibt, sondern vielleicht nur ganz neutral anfragt 

Dass ihnen bewusst sind, dass Cloud-Modelle, ich sage da ganz gerne, es gibt keine Cloud, es gibt nur den Rechner von jemand anderem. Das muss einfach jemand bewusst sein, dass Cloud-Modelle sind, die Daten werden immer irgendwo gespeichert.

Ob sie wirklich damit trainiert werden... Das wissen wir nicht. Man muss sich mal vorstellen, 800 Millionen wöchentliche Nutzer wie viel Müll da auch produziert wird. Also es wird nicht immer automatisch alles, was wir da eingeben wird verwendet aber es ist genau dieselbe Thematik Ich möchte ja auch nicht, dass gewisse interne Unternehmensdokumente im Internet landen Und wenn die Personen das verstanden haben, wie diese Modelle funktionieren und dass es auch Alternativen dazu gibt, wie lokale Modelle, ein ganzes Thema für eine andere Folge, aber wenn die Leute verstehen, wie diese Modelle funktionieren was mit Daten passiert, dann [00:13:00] können sie das sehr gut einteilen, was gelb was grün was rot zu werten ist.

Absolut. Es ist eine grobe Richtlinie die wir immer aus der Praxis gemacht haben und die man für sich selbst einteilen muss. Also rot in unserem Ampelsystem ist bei uns personenbezogene Daten. 

Laut DSGVO 

eben nicht. Auch der ERI-Act baut ja auch auf der DSGVO auf. Da war das ja schon verboten.

Zum Beispiel Versicherungsverträge, da kann man ja auch sagen, ich möchte die Versicherungen vergleichen aber dann werde ich halt die personenbezogenen Daten von mir oder eines anderen nicht hochladen und damit ist ja kein Rückschluss mehr auf mich oder den Absender möglich und dann kann man ja den Vergleich machen.

Man kann auch die Daten ein bisschen aufpolieren Also es kommt auch auf die Daten drauf an, aber das empfehle ich auch oft, auch wenn man mit seinem eigenen Lebenslauf [00:14:00] arbeiten möchte. Dann kann man das auch machen, aber entfernt halt seine, wenn man nicht möchte, dass seine personenbezogenen Daten sind, dann kann man das natürlich auch verwenden.

Obwohl ich ganz ehrlich bin, wir reden jetzt über den Unternehmenskontext, aber für die, die jetzt auch zuhören und Für den privaten Gebrauch nachdenken. Da muss ich ehrlich sagen, was wir die letzten 20 Jahre schon an Daten in sozialen Medien und Google und Co.

hochgeladen haben, die wissen eh schon sehr viel, was das 

noch weiter verschlimmern und alle Details eingeben dass man sich dabei auch 

bewusst ist, dass man schon sehr lange Datenhochlädt, die vielleicht nicht immer was im Internet verloren haben sollten. Und das aber auch allgemein also dieses ganze Thema generative KI, das verstärkt einfach nur Herausforderungen die davor auch schon da waren.

Das ist so gesehen nichts Neues. 

Genau, da hast du recht. Was wir nicht wollen, sind personenbezogene, datenvertrauliches, etwas, was wir planen, Produktentwicklung, 

Patente. 

Geheim- und Patente. 

In diesem Sinne haben wir dieses einfache System und du hast ja schon gesagt, jeder kann das für sich abändern. Und wir besprechen jetzt noch das Thema Transparenz und Datenschutz. Und vielleicht möchtest du noch deine Erfahrung mit uns teilen. Wie kommunizierst du oder die Unternehmen, mit denen du arbeitest dieses Thema?

Petra, wie du sagst, das ist auch einfach so zu kommunizieren in den Unternehmen. Also wenn es hier einfach klare Kommunikation gibt, was darf man was darf man nicht, dann funktioniert das Ganze auch ein wenig einfacher.

Und da muss man sich vielleicht auch weniger fürchten weil du zuerst die Angst angesprochen hast Stimmt Wenn wir als Unternehmen, also im Unternehmenskontext KI verwenden, dann ist das Thema Transparenz und Datenschutz eben auch ein großes . Und das kann mit diesen Regeln und Punkten schon einmal abgeklopft werden und dann herunterbrechen.

Was sollte man denn bei der Kommunikation von Transparenz und Datenschutz was sollte man denn beachten im Unternehmenskontext?

Ja also wenn wir dann jetzt nochmal eine Ebene drüber gehen in dem Fall und wirklich darüber sprechen, wie kommuniziert man diese Veränderung also diese digitale Transformation, dann muss ich ganz ehrlich sagen, ist das total abhängig von der Kultur, die aktuell im Unternehmen herrscht. Es kann sein, ich habe Unternehmen, da wird von den Mitarbeitern gepusht die sagen, hey, wir wollen KI, wir wollen unsere Arbeit vereinfachen wir kennen uns aus.

Es gibt Unternehmen, da kommt es vom Top-Management oder beziehungsweise von der Geschäftsführung Die es auf das Mittelmanagement herunterbrechen und sagen, ihr müsst irgendwas machen, organisiert Schulungen. Also es hängt total von Unternehmenskultur auch ab und wie so Dinge kommuniziert werden.

Was ich aber aktuell sehe, was sich momentan speziell für diese Technologie am meisten bewährt, ist in Kulturen wo eine Kooperation auch in oberster Tagesordnung steht. Also dass man im Prinzip versucht, Über Unternehmen zu übergreifen, also über alle Bereiche auch zu interagieren. Also ich kenne zum Beispiel Unternehmen, die haben Promptbüchereien als [00:17:00] Beispiel.

Da können Mitarbeiter ihre Prompts Die sie herausgefunden haben, die ihnen Zeit sparen, dort teilen. Oder sie machen wöchentliche Meetings wo sie wirklich sagen, wer hat Anwendungsfälle gefunden, die bei uns im Unternehmen funktionieren.

Und das ist auch wichtig, weil ich dann oft sonst sehe, wenn das nicht passiert, dass dann so genannte Schatten-KI entsteht Oder Schatten-IT, wie der Begriff früher gesagt hat. Und das sieht man oft.

Dass dann z.B. einzelne Mitarbeiter super produktiv werden, Aber wegen dem wird nicht das ganze Unternehmen produktiver, weil die dann zum Teil eher ihre Verwendung verheimlichen können. Sogenannte Secret Cyborgs, sagt der Ethan Mollick dazu. Und das finde ich sehr spannend. Und das passiert eben, so Silo-Denken, das passiert eben, wenn das Thema nicht in Kooperation angegangen wird.

Wenn ich richtig verstehe, ist das Abteilungsdenken. Da sagt die [00:18:00] eine Abteilung den anderen nicht, dass sie es nutzen und was sie da gelernt haben aus verschiedenen Gründen.

Weil sie zum Beispiel Angst haben, dass sie ihren Job verlieren könnten, weil sie nicht möchten, dass sie mehr Arbeit bekommen, weil jetzt sind sie ja schneller und das sind aber alles Ängste, die kommen, weil nicht kommuniziert wird und das ist eben das Wichtige und diese Kulturen, die das fördern und an der obersten Tagesordnung haben, Die sehe ich momentan, bei denen funktioniert das Ganze etwas besser.

Interessant. Also wir achten sofort auf Secret Cyborgs und laden Sie ein, indem eine offene Unternehmenskultur schafft, offene Erfahrungen zu teilen. Ich denke, darum geht es und bei jedem Change-Prozess im Unternehmen, bei jeder Transformation wahrscheinlich wird es ganz wichtig sein. Diese 

digitale Transformation unterscheidet sich nicht von anderen Transformationsprozessen.

Genau, das kennt man ja. Was erlaubt und was verboten ist, sehen wir schon. Es ist [00:19:00] einiges erlaubt sehr viel sogar. Wir haben also eine Hausordnung oder Spielregeln, die wir einführen, sprechen das im Unternehmen an, diskutieren es, zeichnen es auch auf, dokumentieren das laut AI-Act und mutigen die Leute, dass sie Drüber sprechen.

Dann gibt es ja noch die Transparenzpflicht, die bezeichnet etwas für Inhalte die man nach außen gibt. Allerdings gibt es ja Detektoren und die können das ganz gut herausfinden ob jemand schon ein bisschen getrickst hat, weil man riecht ja oft förmlich dass jemand etwas, der ganz anders kommuniziert, mit dem System jetzt gearbeitet hat.

Ich denke, bei manchen Personen ist es zum Teil sogar gut, wenn sie KI verwenden, hat ja auch wirklich Vorteile was das anbelangt man kann Aufgaben schneller bearbeiten, aber nicht immer nur das Effizienzthema, sondern auch in einer besseren Qualität. Aber genau wie du sagst das Ganze muss natürlich immer noch stimmig sein.

Bloß weil ich jetzt Tools habe, die perfekt schreiben können und ich davor noch [00:20:00] nie wirklich mich fürs Schreiben interessiert habe, dann Wird das wahrscheinlich nicht automatisch besser werden, meinst du? 

Ja, und es klingt vornehmlich wahrscheinlich immer nach Tier. Weil wenn es jemand ist, der sich vorher sehr kernig und direkt ausgedrückt hat und jetzt plötzlich mit ganz viel Schaum und durch die Blume, dann merkt man halt einfach, das ist nicht derjenige.

Das spielt in die Persönlichkeit wieder. Genau, wenn wir jetzt sagen, wir schreiben eine E-Mail damit und der Text wird mit KI generiert dann muss man das ja nicht unbedingt nach draußen geben und sagen, ich habe mir von der KI helfen lassen.

Ja nur, also das ist ja das Spannende an diesem AI-Act, der sehr schnell gekommen ist für Technologie, die sich noch schneller entwickelt. Ich muss nur angeben dass die Texte von einer KI kommen, wenn kein Mensch mehr darüber geschaut hat.

Aber wenn sich ein Mensch die Texte noch anschaut und das Anschauen, das ist eben super vagedefiniert was bedeutet das? Bedeutet das Abänderung? Bedeutet das [00:21:00] einen Punkt mehr setzen, reicht anschauen? Also sobald ein Mensch in dieser Pipeline ist, dieser Human in the Loop, dann müsste man es eigentlich nicht kennzeichnen.

Das sind zwei Einschränkungen. 

Also muss man nicht, aber es ist eben super schwammig definiert was bedeutet eine menschliche Revision, was gehört da dazu? 

Für mich ist das auch nicht ganz klar. Also ich werde das gerne nochmal nachfragen beim Rechtsexperten.

In jedem Fall haben wir ein WordPress-Plugin erarbeitet das jetzt… Blogtexte und auch Social Media Beiträge schreibt. Allerdings möchte ich, dass da immer schon drinnen steht, dieser Text wurde von KI generiert und die Kunden können das dann gerne herauslöschen wenn sie das bearbeitet haben.

In jedem Fall denke ich einfach, dass diese Transparenzgeschichte weiß ich selber auch noch nicht 100 Prozent, wie ich damit umgehe weil es eben keine klare Regelung gibt. Also ich denke, ich gehe auf Nummer sicher und werde einfach [00:22:00] das schon mal mit reinschreiben.

In jedem Fall im Rahmen einer Automatisierung schreibt ja die KI diesen Text in meinem Tool und gibt es den Backend zurück und da bleibe ich mal dabei. Das ist sicherheitshalber Hinschreibe der Text wurde mit KI generiert.

 

Was wir momentan in den Workshops immer empfehlen, ist, dass man sich diesen Disclaimer Texte können nicht KI-generiert sein, zumindest mal irgendwo ins Pressumpakt, dass es einfach mal abgeklärt ist, dass man da mal auf der sicheren Seite ist. Bei Bildern schaut das Ganze ja wieder ein bisschen anders aus.

Da gibt es ja gewisse Kennzeichnungspflicht ja wirklich, wenn die Bilder reale Situationen darstellen oder wenn sie sogenannte Deepfakes sind. Da wird das ja wirklich im AI-Act geregelt. Bei Texten ist das Ganze noch ein bisschen schwammiger. Und wenn ich ganz ehrlich bin, Aber ich glaube auch nicht, dass sich das durchsetzen wird.

Am Ende muss man nicht davon ausgehen, dass jeder Text, den man heutzutage im Marketing liest, mit der Hilfe von KI gemacht worden ist. 

Ansonsten denke ich, dass mit den [00:23:00] Transparenzpflichten ja, könnte man noch besprechen, wie du das siehst auf Social Media zum Beispiel. Würdest du da tatsächlich schreiben, von KI generiert oder das in den Text runterschreiben oder bei Videos am Anfang oder am Ende ein kurzes Insert? Was ist denn da dein Vorschlag dazu?

Also um wirklich sicher zu gehen, definitiv den AI-Eck noch mal durchlesen dort ist das ein bisschen besser definiert mit den Bildern, was ich da empfehlen kann, in den sozialen Medien jetzt speziell man muss immer ein bisschen im Kopf haben Dass Personen aktuell KI-Inhalte schlechter bewerten.

Also da gibt es einen guten Kollegen von mir, da hat er ein sehr interessantes Paper darüber geschrieben, der Dr. Florian Bühler, und der hat zum Beispiel aufgezeigt dass wir KI-Kunst also Bilder oder auch Gedichte zum Beispiel, tendenziell die menschliche Variante bevorzugen, also wenn wir zwei Bilder haben und eines ist gelabelt mit KI, das andere mit menschlicher [00:24:00] Output, dann bevorzugen wir tendenziell immer das menschengemachte, auch wenn beide Bilder KI sind.

Das heißt, wir haben also immer automatisch ein bisschen diesen Bias, dass wenn wir mit KI-Bildern arbeiten und die sichtlich auch KI sind, dass sie vielleicht sogar schlechter wahrgenommen werden. Also vielleicht muss nicht alles immer KI sein am Ende vom Tag. 

Ja, ich denke

vielleicht muss man nicht immer alles mit KI machen.

Vielleicht sind echte Fotos manchmal immer noch besser als irgendwelche KI-Generierte. 

Auf jeden Fall. Da bin ich ganz bei dir. Für Produktfotografie oder so ähnliche Dinge kann man wahrscheinlich KI gut einsetzen, aber immer wenn Menschen drauf sind, würde ich echte Bilder bevorzugen. In jedem Fall.

Ich wollte jetzt mit dir noch sprechen wegen der Chatbots. Da weiß man auch, dass jede Menge KI-Chatbots jetzt für den Kundensupport eingesetzt werden.

Genau, man muss richtig. Man fügt also hinzu, bei Chatbots im Kundenservice man spricht mit [00:25:00] keinem E-Bot. 

Ja, also da bin ich bei dir. Da muss man es sowieso angeben. Prinzipiell man sieht die Bots ja mittlerweile überall und jede Webseite implementiert sie.

Ich frage mich, ob es das immer noch nötig ist, dass man diese Chatbots auch hat. Aber wenn sie implementiert werden, dann sollten sie auch wirklich gut implementiert werden, weil es einfach auch viele Chatbots gibt, die nicht funktionieren, wo man sich nur ärgert.

Ich denke, das Einfachste ist, wenn man einfach auch die Möglichkeit hat, mit einem echten Menschen zu sprechen. 

Danke Marco, dass du das sagst. Weil du bist ja wirklich Fan von generativer KI. Ich habe mir schon gedacht, das ist jetzt so Etwas an die Generationen frage, dass ich lieber mit Menschen spreche.

Ich betreue ja auch immer wieder Startups und das ist das, was ich da auch oftmals sehe, dass viele Kundenfragen so individuell sind, die kann ein Chatbot gar nicht wirklich gut beantworten und ich sehe es oftmals wie Leute einen Chatbot haben, aber dann trotzdem 90 Prozent des Kundenservice selbst [00:26:00] machen müssen.

Interessant Beruhigt mich auch ein bisschen, weil der Podcast heißt ja vom Hype zum Handeln und ich glaube, da sehen wir jetzt wirklich einen typischen Hype Alle wollten einen Chatbot und jetzt tut sich das Ganze wieder etwas nivellieren ist durchaus sinnvoll, denke ich das auszuprobieren aber auch zu sehen, was geht was geht nicht.

Qualitätskontrolle ist ja grundsätzlich ein großes Thema. Was könnte man denn dazu sagen, was erlaubt und was verboten ist in der Praxis? Was muss man, sollte man denn da organisieren, dass die Sachen nicht ungefiltert nach außen gehen?

Eben, das ist das, was wir am Anfang schon angesprochen haben, dieses Human in the Loop, dass einem das bewusst ist, dass diese Modelle einfach auch oftmals falsche Informationen halluzinieren oder konfabulieren wäre der Begriff hier dafür. Und das wissen aber mittlerweile wirklich schon die meisten. Das sehe ich auch in meinem Workshop.

Die meisten haben diesen [00:27:00] Begriff Halluzination im Kontext mit künstlicher Intelligenz Schon mal gehört, also die Leute wissen das, dass die Modelle nicht immer hundertprozentig richtige Dinge ausspucken. Was ich sagen wollte, das hängt ja auch damit zu, also diese Modelle halluzinieren oder lügen ja auch nicht bewusst oder nicht, weil sie manipulieren möchten, das hängt ja auch mit der Technologie zusammen.

Das sind so ein bisschen die Limitationen dieser Transformer-Modelle oder dieses Reinforcement Learning, aber jetzt nicht zu technisch zu werden, Es muss einem einfach bewusst sein, okay, diese Modelle können Falschinformationen ausspucken und dass man es dann wirklich einfach überprüft am Ende vom Tag.

Auf jeden 

Fall. 

Du 

hast ein Beispiel aus der Praxis, wo du erzählt hast, da ist wirklich was schiefgegangen. 

Da gab es einen Fall in den USA und kürzlich sogar auch wieder in Kanada Wo ein Anwalt hier einen Vergleich für seine Mandantin herausarbeiten wollte, Dass dann mit Checheby die UNCO recherchiert hat, vor Gericht gegangen ist, dass der Richter repräsentiert hat und sie dann gesagt hat, ja, schön [00:28:00] und gut, alles gut ausgearbeitet nur ein kleines Problem, kein einziger dieser Fälle, die du zitierst, existieren wirklich.

Und das ist eben richtig peinlich in so einem Fall. Gerade diese Woche habe ich gerade gelesen, musste Lloyd, also diese Unternehmensberatung, 400.000 Dollar zurückbezahlen weil sie in ihrem Bericht das sie Für den albanischen Staat, geschrieben haben, voller KI-Fehler waren und voller Halluzinationen.

Und das, die Leute, die Woche passiert, Ja, und da sieht man immer wieder, also man muss einfach, man kann diesem Modell nicht immer hundertprozentig vertrauen. Und vielleicht ein konkretes Beispiel, damit man das ein bisschen greifbarer machen kann, wie das auch im Alltag passieren kann.

Meine Mama, die wollte für einen Pfarrer der eine gute Messe bei uns gemacht hat, dem wollte sie seine Freunde machen und ein Geschenk machen. Und sie wusste dass der Pfarrer ein Fahrrad-Enthusiast ist. So und [00:29:00] das Chachapit hat meine Mama recherchiert und eben gesucht was könnte man ihm schenken Und ich glaube wirklich, dass der Wortlaut was Cheche Petit gesagt hat, eine Buchempfehlung, und zwar das Buch mit dem Titel Fahrradtouren für christliche Pfarrer in Vorarlberg.

Und wenn sich die Dinge so gut anhören und so spezifisch anhören, dann sollte man definitiv zweimal drauf schauen 

so. DKI versucht wirklich zu gefallen. Den Satz haben wir schon öfter. Ja, und in dem Sinne sie erfindet schon mal was. Vor ein, zwei Jahren kann mich erinnern hatten wir im Rahmen von der Social Media Ausbildung oder Lehrgang, Dann hatte ich den KI-Verstehen-Kurs und die Gruppe hat ChatGPT verwendet und dann gesagt, wir probieren mal das Bergdoktor-Dorf.

Da waren welche aus dem Elmau. Und deshalb haben wir gesagt, ja prüfen mal, ob die den Weg zum Bergdoktorhaus [00:30:00] kennt, die KI. Dann hat man den Weg gefragt und die KI hat völlig korrekt den Weg richtig beschrieben, sagen die Elmauer. Die müssen es ja wissen. Aber dann haben wir Pizzerien herausfinden wollen und dann hat der Staat einer Pizzeria gleich drei erfunden.

Genau. Und das ist aber auch hier, da versuche ich euch ein bisschen rein zu quetschen. Okay, dann hat vielleicht ein Teil nicht funktioniert, aber der Rest hat trotzdem funktioniert. Und das macht dann nicht automatisch die KI schlecht, sondern es macht sie einfach, der Iven Mollik, den ich schon ein paar Mal zitiert habe, da spricht er von dieser gezackten Technologie.

Also es gibt Anwendungsfälle, da funktioniert diese Technologie super und dann gibt es Punkte, wo sie total schlecht sind, wo sie im Tal unten sind. Und das ist es eben, das muss man selbst ein bisschen herausfinden, für welche Anwendungsfälle funktionieren sie gut und für welche nicht und es kann eben sein, dass im gleichen Prompt ein Teil funktioniert , aber ein anderer Teil hat einfach halluziniert aber vielleicht auch gar nicht so schlimm, dass er halluziniert ist, weil es eh nicht so wichtig war.

Ja [00:31:00] genau, was du beschreibst ist absolut richtig. Da geht es ja nicht ums Verteufeln, wir machen ja nur darauf aufmerksam. Es gibt das eine Beispiel, die Wegbeschreibung war toll, die Pizzerien wurden halluziniert im selben Prompt genau was du beschreibst. Also in dem Sinn, danke für das tolle Bild vom Isen Mollig mit dem Gezackten.

In jedem Fall die Aufgabe, so wie die Äffchen als Bild mit Augen, Ohren und Mund zu halten. Also wir sollten auf jeden Fall die Hand vor den Augen wegnehmen und nichts blind veröffentlichen Keine Verantwortung, die tragen wir als Unternehmer und Unternehmerin natürlich genauso wie als Privatperson.

Wir haben ja schon vor zwei Folgen mal davon gesprochen, über die Links, die nach außen gegangen sind, die im Sommer veröffentlicht wurden. Deshalb machen wir einen Faktencheck, bevor wir etwas von KI veröffentlichen Ich sage jetzt ganz kurz was dazu als [00:32:00] Marketing-Fachfrau. Mir ist da halt wichtig, dass Texte nicht nach KI klingen, weil das natürlich nichts bringt, wenn das Wesen einer Person, Nicht mehr hörbar, spürbar ist.

Ob das ein Unternehmen ist, eine Dienstleistung ist, man weiß seit vielen Jahren, dass 17 Prozent der Sprache glaube ich ist nur das, was Worte ausmachen. 

Ich glaube sogar nur 7% sind wirklich Inhalte. Also wirklich wenig.

Genau dann einigen wir uns auf irgendwas zwischen 93% oder 83% sind andere Dinge. Und unser Tool macht eben genau das, dass wir sicherstellen, damit genau das auf die Marke passt, was herauskommt.

Lustiges Beispiel, das mir gerade hier einfällt, weil eben das Tool, was du da hast, das wirklich im Unternehmensstil die Texte macht, das ist eine super Idee. Da fällt mir [00:33:00] ein, ich habe mal einen Geschäftsführer bei mir im Workshop, der hat gesagt, er hat KI mit all seinen E-Mails gefüttert sodass sie seinen Schreibstil hatte.

Und er wollte eben nicht, dass die Mitarbeiter verstehen, dass er mit KI seine E-Mails beschreibt. Und er war richtig stolz als er gesagt hat, dass die künstliche Intelligenz sogar seine Rechtschreib und Grammatikfehler übernommen hat.

Ja, das ist sehr witzig natürlich. Macht Sinn, wenn das ein Markenzeichen war, dass man das erkannt hat, dass er womöglich öfter die Hochstelltaste benutzt hat oder eben einen Schreibtippfehler, dann ist das ja nichts Schlimmes, sondern ja, ein Markenzeichen.

Genau. Und diese Muster kann kein Übernehmen. Natürlich. Also wir machen es nicht unähnlich halt ohne Fehler, aber schlussendlich genau sowas Wenn wir mit Leuten arbeiten, tun wir deren Stil hinein und dann schreibt er wirklich wie man selber kommuniziert. Also jetzt sind wir schon ziemlich weit.

Jetzt hat man das Thema Urheberrecht, das wir ansprechen wollten, was sehr wichtig ist. Wie gesagt, wir sind keine [00:34:00] Rechtsexperten und machen das nur anekdotisch 

es ist ja bekannt, dass 

mit KI generierte Inhalte, die darf man nutzen, das Urheberrecht, liegt bei uns, nicht bei der KI. Ja. Die Frage ist aber, was ist mit Stilimitationen? Darf man den Stil weil jemand ganz toll schreibt, sagen wir, ich möchte utopische Literatur oder so und ich kopiere den Stil, oder ist etwas Eloquentes Also ich halte mich vor solchen Aussagen immer ein bisschen 

fern, weil mit allen Juristen, mit denen ich da geredet habe, die bestätigen das einfach alle.

Es ist auf individueller Basis und es ist aktuell einfach. Alles eine Grauzone. Die Technologie ist so schnell gekommen, die Gesetzeslage kann hier gar nicht so schnell mitgehen. Diese Gesetze und die Präzedenzfälle, die werden gerade gemacht. Aktuell das Einzige was ich sagen kann, und das sind aber auch die [00:35:00] Richtlinien von OpenAI selbst zum Beispiel, die sagen, dass jeder Text, den du mit ihnen generierst Da bekommst du das Urheberrecht drauf.

Also du bekommst nicht das Urheberrecht drauf, aber sie sind urheberrechtsfrei. Also du kannst die frei verwenden, du kannst die Texte verwenden du kannst die Bilder verwenden. Du kannst aber nur aktuell kein Copyright drauf machen. Wenn du jetzt ein Logo für dein Startup generierst und irgendeine Person sagt, hey, das ist eigentlich ein tolles Logo das gefällt mir, die kann das Logo auch eins zu eins so übernehmen.

Ja, 

genau, das ist exakt das und beschreibe es. Sehr, sehr gut, in welcher Problematik wir uns da befinden. Die KI erfindet ja nicht wirklich was Neues. Sie verwendet ja Mustererkennungen sind dann vielleicht eloquent oder neue Technologien Bildzusammenstellung, aber wahrscheinlich kann man das koppelreitend drauf und das kann jeder verwenden Das ist 

immer eine interessante Diskussion können diese Modelle wirklich was Neues generieren oder [00:36:00] nicht?

Ich muss ehrlich sagen, ich glaube, sie können schon, aber du hast natürlich recht, die Daten, die kommen irgendwo her, die Modelle haben etwas gelernt, sie sind ja trainiert am Ende vom Tag, also sie haben auch was Gelernt in Anführungszeichen.

Ich glaube wichtig ist einfach zu verstehen, aktuell sagt die Gesetzeslage alles was du mit generativer KI machst, darfst du aktuell verwenden. 

Wir sollten es urheberrechtlich jetzt nicht auszeichnen weil es nicht Touristen wenn wir das sagen können, aber wir haben auch kein Copyright.

So können wir das glaube ich, zusammenfassen. In diesem Sinne haben wir jetzt einen Praxistipp wieder von uns weitergegeben. Bitte gerne mit dem Rechtsanwalt jeweils abchecken. Was aber auch wichtig ist, dass wir schon gesagt haben bei Texten bitte überarbeiten, auch wenn man es vielleicht nicht hinschreiben muss, dass er mithilfe von KI generiert wurde, kann man das natürlich machen.

Schlussendlich [00:37:00] ist es ein Fehler in der Datenbasis der KI, die wir verwenden, dass sie urheberrechtlich geschütztes Material hat.

Insofern ist es ja schon drinnen und deshalb kann also unabsichtlich passieren, dass sie mit urheberrechtlich 

geschütztem

Man sagt ja ganz gerne, die Daten sind das Öl des 21. Jahrhunderts. Das stimmt auch vollkommen, aber eben haben diese großen Player einfach mal alles an Daten abgegriffen was es im Internet gibt, was es an Büchern gibt. Und da ist ganz viel urheberrecht geschütztes Material dabei. Und darum gibt es ja auch momentan diese ganzen Gerichtsverfahren Die dann meistens irgendwie gelöst werden, aber da ist definitiv sehr viel Falsches hier passiert.

Ich sage immer gerne, wer schon Videos auf Facebook oder YouTube hochgeladen hat, der darf sich jetzt gerne in den Lebenslauf schreiben, dass er mitgeholfen hat, diese Modelle zu trainieren denn diese Daten sind hundertprozentig in den Trainingsdaten [00:38:00] gelandet.

Ganz bestimmt. In diesem Sinne haben also viele sehr kräftig mitgeholfen zu trainieren

Nach Kontext würde ich ehrlich sagen. Also abgesehen davon, dass ich ein Fan von Transparenz bin. Ich finde, wenn man die Tools verwendet, dann kann man sich auch transparent darstellen, wie man sie auch verwendet hat. Ich fand das bei uns an der Universität ganz spannend, dass man da auch bei der Masterarbeit zum Beispiel angeben musste, wie man KI verwendet hat.

Also da gab es ein ganzes Zusatz-PDF, das man ausfüllen müsste. Und das fand ich eigentlich sogar gut, weil dann kann man nachvollziehen, wie ist hier gearbeitet worden. Man kann selbst noch was lernen. Wir haben dieses Schulungsprinzip wieder. Und ich finde, Transparenz schadet sicherlich nicht. 

Das Urheberrecht haben wir also etwas besprochen und die Transparenz auch. Und wir könnten vielleicht über eine Art kleine Checkliste nachdenken dass wir die fünf Punkte vielleicht mal [00:39:00]festhalten. Interne Regeln war der erste Punkt, den wir festlegen wollten. Dann welche Tools durften wir nehmen, welche vielleicht nicht.

Was können wir da reingeben, was ist erlaubt und was nur der Vorbehalt. Genau, wer ist verantwortlich 

etwas, was wir eben in den sozialen Medien ein bisschen verschlafen haben. Hoffe ich, dass wir das bei der generativen KI nicht tun, also auch wirklich die Mitarbeitende alle auf einen Stand bringen.

Ich habe in großen Unternehmen gesehen, dass sie zum Beispiel zuerst mit kleineren Teams gestartet haben und dann größere Rollouts gemacht haben. Diese Woche hatte ich einen viertägigen Workshop, wo wir wirklich das ganze Unternehmen, 50 Personen, in vier Tagen mit Theorie und Praxis fit gemacht haben.

Auch das funktioniert wirklich auf einen Schlag alles. Aber ich denke wirklich, diese Kompetenzbildung ist definitiv der wichtige zweite Schritt, ja. 

Exakt. Das passiert glücklicherweise auch ganz viel, auch weil es vorgeschrieben [00:40:00] ist.

Also ist gut, dass ihr das schon so gemacht habt. Sehr viel schulen. Und dann hätten wir ja drittens noch, dass wir prüfen vor jeder Nutzung und überlegen, ist das von der Hausregelspielregel gedeckt Und sind wohl keine sensiblen Daten dabei. Dann kann man es nochmal für sich kurz reflektieren und anschließend wenn es kritische Zwecke sind, würde man natürlich auch fragen, was macht man damit?

Also dann eben, diesen Output überprüfen, wie ich jetzt schon erwähnt habe, dass man auch wirklich weiß, okay, aktuell braucht es uns Menschen noch bei der Ausgabe, dass wir das überprüfen.

Ich glaube, wenn es nicht irgendein Standardprocedure ist, ein Ablauf, der eben fürs Unternehmen wichtig ist, bitte gegenchecken. Und dann haben wir gesagt, wenn nötig Transparenz beachten, [00:41:00] Richtlinien einhalten. Genau. Deine Erfahrung sagt ja, dass es gar nicht immer notwendig ist, dass ein Mensch drüber schaut.

Ich glaube es kommt immer mehr in den Köpfen an, dass da auch nichts mehr was Verwerfliches dabei ist und wahrscheinlich bei vielen auch gut tut, wenn sie das mit KI machen.

Wir überlegen vielleicht, gibt es häufige Fehler? Auf was sollte man besonders aufpassen? 

Also ganz ehrlich, wer jetzt aktiv zugehört hat, der macht einfach das Gegenteil von dem, was wir empfohlen haben. Dann haben wir die ganzen Fehler, die man machen kann.

Also ich rede über das, was viele Unternehmen schon positiv machen und ich glaube, das hat man hier sehr gut rausgehört Was ich aus der Praxis sehe, was aktuell sehr gut funktioniert. 

Und Transparenz schafft natürlich Vertrauen, egal ob das sich jetzt um einen Chatbot handelt. Also wie du 

gesagt hast, ich glaube, es geht eben nicht darum, Angst zu machen oder irgendwie diese Dinge zu [00:42:00] verglorifizieren. Es geht Diesen bewusster, dieser verantwortungsvolle Umgang mit dieser Technologie, mit diesem Werkzeug.

Exakt, da sind wir auf einer Linie. Danke Marco, vielen Dank für diesen Praxistalk. Zu was ist erlaubt und was ist verboten? Ich glaube, wir sind draufgekommen, es ist gar nicht so kompliziert wie man vielleicht meinen könnte.

Mein Beruf den gibt es eigentlich erst seit drei Jahren. Dementsprechend ich sage immer ganz gern, dieser Zug, dieser generative KI-Zug der steht noch im Bahnsteig der ist noch nicht abgefahren. Es ist noch recht jung alles. Man kann sich wirklich noch sehr gut einarbeiten in die Thematik. 

Ja, denke ich auch, auf jeden Fall.

Wir haben auch gezeigt, dass die Transparenzpflichten wenn man das Werkzeug nimmt und als Unternehmen offen kommuniziert, braucht man sich nicht fürchten, es kann sogar die Glaubwürdigkeit steigern Und ich fange am besten an, indem die kleine Checkliste die in den Shownotes ist, [00:43:00]die gebe ich rein und dann kann man die runterladen und wenn Fragen sind, schreibt es uns einfach.

Ich freue mich über Nachrichten und ansonsten war es das für heute schon wieder. 

Danke dir. Danke fürs Zuhören. Bis hoffentlich bald wieder. 

Danke, Marco. Ja, sehr gerne. Mir sind schon wieder ein paar Themen eingefallen, über die man noch sprechen könnte.