KI - Freund und Helfer oder Gefahr? Ist KI wirklich unser Freund und Helfer? In Folge 6 von "Vom Hype zum Handeln" diskutieren Daniel und Petra die Ambivalenz künstlicher Intelligenz. Von medizinischen Anwendungen über autonomes Fahren bis hin zu kreativen Prozessen – KI bietet enorme Chancen, birgt aber auch Risiken. Die Hosts Daniel und Petra beleuchten das Spannungsfeld zwischen Effizienz und Effektivität, Innovation und Jobverlust sowie Autonomie und Verantwortung. Ihr Fazit: KI ist weder gut noch schlecht – entscheidend ist, wie verantwortungsvoll Menschen diese Technologie einsetzen.
Im Beitrag beleuchten wir drei Spannungsfelder
1_Effizienz vs. Effektivität / 2_Innovation vs. Jobverlust / 3_Autonomie vs. Verantwortung
1_Effizienz vs. Effektivität > zuerst geht es darum, die richtigen Prozesse auszuwählen, damit man das tut, was richtig ist. Erst in weiterer Folge sollte es dann darum gehen, eben Ressourcen zu schonen, effizient zu sein, die Dinge richtig zu machen.
2_Innovation vs. Jobverlust
Generative KI kann einerseits innovative Impulse geben, andererseits aber auch Arbeitsplätze gefährden.
3_Autonomie vs. Verantwortung
Die ethischen Dimensionen von KI-Systemen und deren gesellschaftliche Auswirkungen. "Jede Form von Bias, die im Internet schon mal vorhanden ist, wird von der Maschine auch gelernt. Und wenn man dann das sogar befördert, weil man diese Informationen bevorzugt oder diese Art von Aussagen, dann wird der Bias gestärkt."
Beispiele
A fool with a tool is still a fool, but makes disaster faster" – verantwortungsvoller Einsatz entscheidet
KI als Freund, Helfer oder Gefahr?
KI ist dein Freund und Helfer ... aber stimmt das? KI steckt längst in vielem, das wir im Alltag ganz selbstverständlich nutzen: Vom Online-Shop, übers Navigieren am Smartphone uvm. Und seit wir mit KI-Anwendungen wie ChatGPT & Co. kommunizieren können, ist das ThemaKI gefühlt allgegenwärtig. Wir fragen heute nach Pros und Kontras - Effizienz vs. Effektivität, Innovation vs. Jobverlust, Autonomie vs Verantwortung.
Hallo, wir sind Daniel und Petra. Wir beschäftigen uns mit digitaler Transformation und Organisationsentwicklung. Vom Hype zum Handeln widmen wir uns Chancen von Wandel im Zeitalter der künstlichen Intelligenz. Wir zeigen, wie Wandel in Unternehmen gelingen kann und beleuchten das Themengebiet aus dem Blickwinkel von Organisationen und Menschen.
Alle KI-Anbieter sind freundlich, wollen aber schlussendlich unsere Daten. Das heißt, Bedenken wegen Datenmissbrauch, aber auch Energiehunger sind angebracht. - Vielleicht lassen wir mal diese Totschlagargumente beiseite, damit wir auf persönlichere Ängste blicken können. 2025 kommen ja sogar KI-Agenten, dh. es wird agentisch ...
Dann bitte schauen wir mal ohne KI-Agentenbrille dafür mit menschlicher Logik drauf. Nämlich kann ja KI wie jedes Werkzeug für Gutes oder nicht so Gutes oder auch Schlechtes genutzt werden. Die Herausforderung besteht, wie immer darin, das Werkzeug verantwortungsvoll einzusetzen, zu entwickeln und fallweise - wie es in der EU ja auch schon der Fall ist - zu regulieren.
Wir haben ja bereits mal darüber gesprochen Grundsätzlich ist es wichtig, den Umgang mit dem Werkzeug zu erlernen, also das Handwerk sich anzueignen. Damit ist weniger die Ebene der tatsächlichen Bedienung und in weiterer Folge Benutzung gemeint, also dass man zehn Werkzeuge perfekt beherrschen sollte, auch wenn es in manchen Fällen vielleicht hilfreich ist.
Ja, vielleicht sollte man zuerst eben nicht schauen, WAS es tun kann, sondern das Große Ganze betrachten.
Genau, das Handwerk zu beherrschen oder zu erlernen, ist vielleicht das eine, das auf dem Wissen fußt, wann welches Werkzeug wofür eingesetzt werden kann. Also welcher Prozess im Unternehmen welche Maßnahmen erfordert und wie man das am sinnvollsten unterstützen kann - mit oder ohne KI.
Also unsere Erfahrung nach ist das nicht ganz trivial. Denn wir wollen sicherstellen, nicht mit einem völlig überzogenen Mittel wie einem Hammer auf ein Marmeladenglas loszugehen, nur weil wir es aufmachen wollen.
Ja genau, so ist es. Und beim Thema KI als Werkzeug ist das ein ganz besonderes wichtiger Aspekt. Die Auswahl der KI-Werkzeuge, von denen es gigantisch viele gibt, erfordert einen Überblick und der ist fast unmöglich.
Dafür gibt es aber Personen, in unserem Fall sind es das die Handwerker und Experten, die sich mit den Prozessen der IT, der künstlichen Intelligenz auskennen. Sie unterstützen einen sinnvolle Auswahl an Werkzeugen zu treffen, das Ziel im Blick zu behalten, gut zu testen - und damit die Chancen eigentlich exponentiell zu steigern, dass am Ende was Gutes dabei herauskommt. Sie sind dann quasi Ratgeber oder auch der Guide durch die KI-Landschaft.
Ah, das ist ein schönes Bild. Ja, was ich bisher so gesehen habe und wir unterhalten uns ja auch schon über einige Prozesse, die wir ja umsetzen und automatisieren wollen, dass wir häufig sehen, dass wir Teilprozesse gut abbilden oder unterstützen können. Und dabei natürlich wie immer in Menschen im Zentrum haben.
Zuerst einmal, wie du schon gesagt hast, wenn du mal das Ziel definiert, bei der Auswahl der Tätigkeit und des Prozesses, Menschen natürlich im Unternehmen sagen, wo drückt der Schuh, was sind die wichtigsten Prozesse, welche Rolle soll das Werkzeug denn überhaupt übernehmen.
Und wenn man natürlich diese Diskussion führt, dann lassen sich auch Ängste oder Bedenken adressieren und vorbeugen, weil jeder mitreden kann. Dann schaut man sich nach dem Prozess auch das Output an und kann korrigierend eingreifen. Also der Mensch als Faktor, den betrachte ich da schon als ganz massiv wichtig.
Und das ist schlussendlich auch, was jetzt in dem Bereich Marketing, aus dem ich auch komme, beobachte: Es sind vielfach komplexe Prozess, die man ausführt, ob das jetzt Positionierungen oder Zielgruppenanalysen sind, oder ob das Suchmaschinenmarketing ist.
Beim Betrachten der Prozesse wird klar: Wenn man von einer Maschine ein wirklich gutes Output bekommen möchte, muss man ganz viel Kontextwissen reingehen. Also wir Menschen geben einer Maschine den Kontext, weil sonst kommen irgendwelche Vorschläge heraus, die vielleicht brauchbar sind, vielleicht nicht. Insofern ist es zwar schön, wenn die KI-Ausgabe eloquent ist. Wenn ich aber Ergebnisse mit mei em Expertenwissen bekommen möchte, helfen mir irgendwelche Ergebnisse ja nicht wirklich weiter.
Magst du vielleicht an einem Beispiel erklären, was du da so beobachtest?
Na ja, wenn ich mit Kollegen aus der Branche spreche, sieht man vielfach, dass die KI für verschiedene Zwecke wie Brainstorming genutzt wird, so wie wir vielleicht alle. Aber wenn sie wirklich vom Fach sind und zum Beispiel Suchmaschineoptimierung machen, so wie ich, dann geben wir bestehende Keyword-Set ein und muss auf jeden Fall dazugeben, in welchem Kontext, für wen genau also auf welche Zielgruppe sie abzielen, damit man sinnvolle Vorschläge bekommt. Oder eine Kollegin, die sich mit, Google Werbeanzeigen beschäftigt würde ein Anzeigenset eingeben, das sie schon (nach og,. Marketingkriterien) geschrieben hat, in die KI-Anwendung eingeben. Sie lässt sich vielleicht noch etwas korrigieren oder einen Vorschlag machen oder ergänzen.
Wichtig zu wissen ist, dass diese Vorschläge von der Maschine nie 1:1 passen. Und jeder von diesen Experten kann und wird aufgrund seiner Erfahrung bewerten, ob die als Ergänzung überhaupt dienlich sind, für die bereits vorhandenen Keywords, ob die schon bestehende Anzeige. Oder auch nicht, weil da gibt es einfach ganz vieles zu berücksichtigen, weil sonst die Anzeige keine guten Werte bekommen wird. Also nur weil die Maschine/KI-Anwendung einen Anzeigentext schreibt, heißt es nicht, dass Google, den gut bewertet - und vorranging, dass Menschen draufklicken. Falls sie nicht finden, was sie suchen gibt es eine schlechte Click-Through Rate und damit wird die Anzeige teurer.
Okay, da gibt es also einige Challenges und es macht Sinn, dass der Mensch drauf schaut. Trotzdem stellt sich mir die Frage, warum automatisiert man dann nicht alles mithilfe von KI, wenn doch die Werkzeuge inzwischen so Vieles mitbringen?
Ja, das kann man sich fragen. Für den Allgemein-Gebrauch, um jetzt einfach einen Text oder ein nettes Bild vom Meer zu generieren, sind die Tools ja super. Nur ein Prozess als Ganzes – mit mehreren Arbeitsschritten und Inputs, in den viele Faktoren hineinspielen, um ein wertvolles Ergebnis zu bekommen – das wie im Fall von SEO oder Anzeigen, auch Geld bringen soll, da ist es schwieriger. Das beginnt beim ‚Tone of Voice‘ Tonalität - also wie spricht ein Unternehmen oder wie stellt sich eine Person dar? Damit es dem Ziel und der Marke dient, muss es ja wirklich ein persönlicher Text werden. Da ist es eine große Herausforderung, den Prozess als Ganzes zu automatisieren. Also aus meiner Sicht eher fast unmöglich - zumindest so lange Geld, eine Rolle spielt. Weil es wird natürlich mit enorm viel Aufwand schon möglich sein, eine Riesenautomation zu machen mit vielen Faktoren aber eben aufwändig. Und dann ist es mit einer kurzen Aufforderung „schreibe XY“ eben nicht getan. Ich sehe Mietlösungen, für die man jetzt ab 100 bis 500 Euro oder mehr monatlich bezahlt und die je nach Umfang mehr oder weniger abdecken. Bisher kenne ich überhaupt keine Lösung, die den ganzen Prozess abdeckt. Bei jene, die den Zielgruppe/Marketing-Teil als Zusatz anbieten, dann nehmen dafür auch einige Tausend Euro für‘s Onboarding. Also die „fix-fertige 1a-Marketinglösung, die gibt es nicht einfach so, von der Stange. Dazu fehlt der Maschine eben das (wirkliche) Wissen.
Klingt nach in einer großen Herausforderung.
Aber wir werden da schon bei einer sehr persönlichen Angst oder Bedenken, weil wir gesagt haben, wir kümmern uns ja heute darum, ob die KI Freund Helfer oder Gefahr ist. Also wenn ich jetzt sage, eine Gefahr mit jemandem, mit dem ich bin, könnte man schon sagen, naja, auf jeden Fall könnte es zu Jobverlust oder zumindest Teile der Jobs könnten wegfallen. Das könnte natürlich passieren, Weil die KI ja helfen kann, Routineaufgaben zu erledigen, Mails beantworten, Texte schreiben. Wenn man jetzt eben nicht einen repräsentativen Text braucht, der verkaufen soll, dann klappt es ja auch. Ich glaube, du hast ja mit Programmiercode schon probiert, aber eben für meine Branche schaut es schon ziemlich nach Jobverlust für manche Personen aus. Vor allem, weil Firmen meinen, es täte „irgendein“ Text – der dann allerdings wie im Beispiel von Anzeigen und SEO gezeigt – auch potenziell teuer kommen kann, weil man „am Bedarf vorbei“ kommuniziert bzw. wirbt und den Kundenwunsch nicht trifft.
Also ein Thema, das definitiv unter die Haut geht und auch Ängste befeuert. Wir haben uns vorgenommen, anhand der Kriterien diese Bereiche zu beleuchten. Ich schlage mal vor, wir schauen zuerst auf den Bereich Effizienz versus Effektivität. Also, was hat es denn damit auf sich? Im Grunde geht es wieder mal darum, zuerst die richtigen Prozesse auszuwählen, damit man das tut, was richtig ist, die Effektivität herstellt. Und erst in weiterer Folge sollte es dann darum gehen, eben Ressourcen zu schonen, effizient zu sein, die Dinge richtig zu machen.
Ja, das wäre super.
Das erste Beispiel, was ich da ansprechen mag, ist eben medizinische Anwendungen. Wenn man die KI im Bereich der Diagnostik einsetzt, dann kann das Diagnosen extrem beschleunigen. Und bevor ein menschliches Auge, was auf einem bildgebenden diagnostischen Verfahren quasi erkennen kann, ist ein KI-Algorithmus unter Umständen schon in der Lage, erste Sachen zu erkennen, die erst viel später sich auswirken. Brustkrebsvorsorge, dermatologische Apps und so weiter. Allerdings, und das ist auch ganz wichtig, kann wie bei jedem Programm, bei jedem Algorithmus eben auch ein „false positive“, also eine falsche Erkennung, stattfinden. Und darum braucht es, sobald KI im Spiel ist, unbedingt auch Freigaben.
Es müssen immer wieder Menschen draufschauen, validieren. Ganz egal, ob es dann um Behandlungspläne, Therapiepläne, Medikationen, Diagnosen oder was auch immer geht.
Ein zweites Beispiel, was ich ganz interessant finde, kommt aus dem Bereich des autonomen Fahrens aus der Robotik. Wenn ein Fahrzeug entsprechende Sensorik eingebaut hat und die KI diese Daten auswertet, dann kann das dazu führen, dass das Unfallrisiko viel früher erkannt wird. Und dadurch der Eintritt dieses Risikos minimiert wird. Sprich, es gibt weniger Unfälle und die Mobilität verbessert sich.
Ebenso ist in dem Bereich aber auch der Fall, dass technische Fehler fatale Konsequenzen haben könnten. Darum ist es wichtig, viel zu testen, redundante Systeme zu haben, ganz viel Kontrolle durch Menschen immer noch möglich zu machen.
Dann eben der Punkt der Automatisierung als Prozessunterstützung. Automatisierung für alles, wo der Mensch überfordert, in einem Übermaß belastet oder gefährdet wird. Routinen, die Menschen langweilen, die das kreative Potenzial nicht ansprechen, sind eine Spielwiese oder ein Tätigkeitsfeld für Automatisierung.
Denken wir zum Beispiel ein Lagerroboter: Ob man jetzt einen Menschen ins Lager schickt, der eine schwere Kiste irgendwo in einer Hochregal hieven muss, nur um festzustellen, dass die halt dann vorhin 20 cm zu groß für den Lagerort ist.
Oder ob ein Roboter mit entsprechender Sensorik das Regal sowieso einmal vermessen hat. Und dann anhand der Abmessungen des Paketes von vornherein bestimmen kann, dass es Platz hat. - es ins nächste Regal führt und dann vielleicht seine optimierte Fahrtstrecke durchs Lager fortsetzt. Das war auch noch aufgrund von einem Logistikalgorithmus sehr viel effizienter.
Und das hat dann schon einen gewissen Charme für die Unternehmen.
Ja, das kann ich mir vorstellen.
Eine negative Konsequenz kann natürlich auch sein, dass durch diese Optimierungen in gewissen Tätigkeitsfeldern Einsparungen erfolgen, weil Routine-Tätigkeiten dann von der KI erledigt werden. Und im Idealfall werden die Tätigkeiten wegautomatisiert und nicht die Jobs. Die Grundidee ist wie immer positiv. Abhängen wird es aber am Ende des Tages davon, wie einzelne Unternehmen das dann umsetzen und was sie mit den frei gewordenen Potenzialen machen.
Ja, das ist sicher richtig. Es heißt immer, wenn man Routine-Tätigkeiten wegbringt, dann kommen auf die Mitarbeiter rosige Zeiten zu, weil dann gibt es nur mehr tolle Dinge zu tun. Hoffen wir, dass es so kommt.
Schauen wir uns vielleicht das zweite Punkt, den Innovationspunkt an, der auch mit einem Risiko einhergeht. Und zwar je nachdem, was man sich anschaut, es kann Jobverlust sein, aber auch ganz was anderes. Also wir schauen das jetzt einfach mal an, wenn KI als Fortschritt betrachtet wird und Innovation bringt KI ja - was ist damit verbunden?
Wenn wir jetzt den Bereich der Kreativität oder der künstlerischen Ausdrucksformen wie Filmschaffende, Sprecher oder sowas anschauen, dann kann man natürlich sagen, KI bringt uns jetzt Inspiration oder auch die Möglichkeit, Audio-Files aufzunehmen, zu transkribieren. Das ist ja alles ganz toll. Das kann dann die Kreativität von Menschen befeuern, diese Inspiration der Maschine und dann kann was Kreative entstehen, weil die Maschine selbst ist ja nicht kreativ.
Aber man müsste sich auch da wirklich vor Augen führen, dass die KI ja nur Echo ist. Also sowas wie Mustererkennung, wie wir schon gesagt haben. Und schlussendlich produziert KI mehr oder weniger Plagiate, also die nicht 1:1 so klingen, aber KI setzt eben Puzzle-Stücke zusammen aus bestehenden zu etwas Neuem. Dann ensteht es ein Bild vom Picasso oder im Stil vom Picasso, was eigentlich schützenswert wäre. Ja, früher ist das unter Autorenrechte gefallen und jetzt darf man sich so ein Bild malen lassen. Das ist auch vom Copyright nicht betroffen, sondern man darf das rechtlich.
Das heißt, die Maschine ist zemlich gut in der Nachahmung geworden.
Ja, das stimmt und das kann natürlich auch zu Jobverlust führen. Also einerseits eben ist es nicht wirklich Kreativität. Es ist zwar schön für die Inspiration, keine Kreativität, aber eben Jobverlust könnte drohen. Da erinnern wir uns ja an die Streik, sie glaubt 2023 im Sommer, der fast ein halbes Jahr gedauert hat, wo die Autoren in Hollywood gestreikt haben und noch einige Schauspieler und Sprecher dazu. Ich glaube, das war die Writers-Guild, oder?
Ja, ich glaube, Autorenvereinigungen, Screenwriter-Guilde, die haben gesagt, Leute bei OBEI, ihr habt es mit unseren Welken euren Algorithmus trainiert und jetzt spuckt der Text aus, die so klingen wie wir, das kann es doch bitte nicht sein.
Genau, und jetzt haben die sich da irgendwie in ihren Verträgen was schützen lassen, aber schlussendlich, Jeanne in der Box, jetzt ist sie out of the box, also schlussendlich geht das jetzt. Und dann haben wir als nächstes, wenn wir uns anschauen, was es Gutes bringen kann im der ganzen Thematik, wenn man sich eine Kriminalität anschaut, natürlich kann KI-Sicherheitssysteme verbessern. KI kann auch helfen, dass man mit Drohnen etwas überwacht und es macht vielleicht etwas sicherer.
Aber auch Cyberkriminelle betätigen sich und bemächtigen sich der KI-Tools und da wiederum kannst du Cyberangriffen kommen.
Dann könnte man einen anderen Bereich anschauen, nämlich Umwelt und Klimawandel, natürlich kann KI positiv wirken und Energienutzung optimieren, weil sie uns hilft, da Prozesse zu automatisieren oder die Nutzung einfach so zu schichten, wie es am besten geht und am effizientesten ist, aber natürlich die eigene Rechenleistung von der KI braucht wiederum ganz hohe Ressourcen, also da ist immer so eine Abwägung, muss man da treffen und kann nicht einfach noch schwarz oder weiß an. Und dann natürlich das Feld der militärischen Nutzung, da wird sowieso ganz schwierig, weil da leiden Menschen drunter, wenn kriegerische Handlungen sind oder militärische Operationen stattfinden, die nicht friedlich sind, weil es nur Übungen sind, sondern im Krieg, dann kann KI helfen, Verteidigung und Sicherheit aufrecht zu erhalten, ein Stück weit, aber natürlich gibt es auch autonome Waffen, die eine riesige Gefahr sind, also immer sehr zweischneidig dieses Schwert, KI-Schwert.
Das ist ein spannender Punkt. Da hat es in den 80er-Jahren den Film War Games gegeben, wo ein junger Schüler sich in ein Rechner im Verteidigungsnetzwerk der USA gehackt hat. Und dann hat der Rechner quasi ein Kriegsfall errechnet und wollte schon Atomraketen starten, wenn ich es richtig in den Raum habe. Und das war ein Rechner, der eine künstliche Intelligenz gehabt hat. Für damalige Zeit natürlich ein Riesenthema und Science Fiction. Heute sind wir schon ein bisschen weiter weg von der Science Fiction und mehr bei der Realität, was auch mit sich bringt, dass wir uns mit Autonomie und Verantwortung befassen müssen.
Ganz viele spannende Fragen in dem Feld. Also zum einen die künstliche Intelligenz als solches gibt es ja nicht, aber es gibt verschiedenste Modelle und Algorithmen und die wurden gefüttert mit dem Wissen, das zur Verfügung stand im Internet. Jetzt hat man sehr schnell das Problem gehabt, dass die einfach auch jeden Schrott und jeden Blödsinn und auch alles Kriminelle, was im Netz verfügbar war, gelernt haben.
Und wenn man jetzt entsprechende Fragen an diese zum Beispiel ChatGPT gestellt hätte und ohne menschliche Interaktion, ohne korrigierenden Eingriff, dann sind in den ersten Versuchen auch Antworten aufgetaucht, die man der Menschheit nicht geben wollte.
Kindesmissbrauch, Gewalt, ganz schlimme Dinge, die will man nicht in einem Antwortset ausliefern. Und jetzt hat man an Weg gesucht, wie man die Maschine beibringen kann, dass diese Dinge nicht als valide, als gute, als richtige Antworten zu liefern sind bei entsprechenden Anfragen. Und Maschine trainieren, ein Algorithmus trainieren heißt einfach, da sitzen Menschen davor und die vergleichen die Antwort, die der Algorithmus getroffen hat mit dem, was sie als Mensch wissen und sagen dann richtig oder falsch. Und gerade wenn man jetzt an Kindesmissbrauch denkt, an extrem schlimme Bilder und Videos, das will man sich eigentlich nicht anschauen und das will man am Ende auch niemanden zumuten, dass sich jemand für uns anschauen muss. Solche Aufgaben haben wir jetzt quasi in die ärmsten Länder der Welt delegiert, wo Menschen für einen Hungerlohn uns vor solchen Ergebnissen dann schützen.
Das ist ja ein Riesen-Thema in der Ethik, in der Entscheidungsfindung. Entscheidungsfindung insofern auch, weil die KI anhand Algorithmen ja im Medizinbereich zum Beispiel errechnen könnte, wer einen Operationstermin bekommt oder wer die verfügbare Herz-Lungen-Maschine kriegt. Und wenn jetzt der 70-jährige Rentner eine 2 % höhere Wahrscheinlichkeit hat als das 4-jährige Kind, dann würde KI rein von der Logik her die Maschine sagen, okay, der Rentner kriegt die Operation oder die Maschine.
Wenn es nur nach Zahlen vorgeht und wenn es nicht noch eine andere Logik bekommt, richtig?
Ich sag, das ist ein Beispiel. wo je nachdem wie der Algorithmus halt gestaltet ist und wie der rechnet, weil am Ende ist es ja nur rechnen, kommt halt ein Ergebnis raus und wenn dann jeder Mensch darauf schaut und quasi die Verantwortung, die Letztverantwortung trägt, dann kann es auch zu Entscheidungen kommen, die wahrscheinlich im gelindesten Fall als schwierig zu bezeichnen sind. Ja, auf jeden Fall. Wo das auch problematisch ist, ist im Bereich der Desinformation und Manipulation. Heute wissen wir ja, dass KI Fake News erkennen kann, anhand der Mustererkennung, aber es gibt halt auch deutschen Deep-Fakes, die damit erzeugt werden können. Also das, was die KI erkennen kann, kann sie ja auch erzeugen.
Und Regimes schützen sich selber, indem sie gewisse Informationen steuern, die verbreitet werden sollen und gewisse Informationen, die dem Regime gefährlich werden könnten, werden quasi nicht ausgeliefert.
Die Unliebsameren, die man nicht sehen oder hören will.
Nennen wir doch das Kind beim Namen in China, die Variante mit DeepSeek, wo man dort nach dem Platz des himmlischen Friedens sucht, wird man de facto nicht mit einer Antwort ausgestattet oder es wird das Thema gewechselt. Da sagt dann die Maschine wirklich, lass uns doch über ein anderes Thema sprechen. Oder auch, wenn man so fragestellt, wie ist Taiwan ein unabhängiger Staat, dann wird inhaltlich quasi geantwortet. Taiwan war schon von an Beginn der Zeit ein Teil von China und wird es auch immer sein.
Ja, genau, dann wird plötzlich der nicht mehr als souveräner Staat dargestellt?
Und das ist jetzt die KI-DeepSeek, da ist es relativ leicht nachvollziehbar. Weil das eben ein chinesisches Unternehmen ist, das staatsnah ist, das mit staatlichen Geldern gefördert ist und bei China gibt es von vielen Seiten schon seit langer Zeit eben Bedenken bezüglich Meinungsfreiheit. Man sollte nur vorsichtig sein, weil das kann woanders auch passieren und sehr unauffällig passieren und der Bereich ist sicherlich einer der Bereiche, die unser Augenmerk verdienen in Zukunft.
Auf jeden Fall. Was du jetzt sagst, da fällt man halt einfach dazu ein, dass es alles tendenziös sein kann. Wir haben ja schon nochmal drüber gesprochen, dass natürlich auch rassistische Inhalte im Internet sind und somit in den Daten. Und das erinnert mich jetzt ein bisschen daran. Da haben wir genau diese tendenziösen Antworten da, die wir versuchen müssen, rauszuholen.
Jede Form von Bias, die im Internet schon mal vorhanden ist, wird von der Maschine auch gelernt. Und wenn man dann das sogar befördert, weil man diese Informationen bevorzugt oder diese Art von Aussagen, dann wird der Bias gestärkt.
Oder wenn man entsprechend dagegen arbeitet und die Maschinen kontrolliert, korrigiert und trainiert, dann wird es vielleicht irgendwann gelingen, an vorhandenen Bias auch wieder zu minimieren oder gar wegzubringen.
Ja, ich glaube, wenn man selber eingibt, kann man ja schon ganz klar so prompten, dass man genau darauf hinweist, dass man diese Problematik adressieren möchte. Aber wenn man es ungefragt übernimmt, hast du völlig recht, dann kommt das einfach.
Ich denke, das würde schon sehr viel Bewusstsein voraussetzen beim Durchschnittsanwender, wenn er nach einer Information bei ChatGPT fragt, in einem Beisatz noch zu sagen, bitte ohne Sexismus, ohne Fremdenfeindlichkeit, ohne Islamkritik, ohne was auch immer.
Und man sieht schon, das ist ein großer Bereich und dann gibt es dazu noch den Bereich von Überwachung und Datenschutz. Den werde ich ein bisschen kürzer halten. Die KI kann natürlich im Bereich der Kriminalität bei der Prävention unterstützen. Also, gerade jegliche Form von Kriminalität, die mit elektronischen Daten in Verbindung steht, da kann diese Mustererkennung frühzeitig Auffälligkeiten identifizieren, die Menschen vielleicht erst später merken. Gleichzeitig öffnet es halt auch das Tor zu einer totalitären Kontrolle. Also in dem Moment, wo man Dinge überwacht, gilt es einen guten Überwacher zu installieren. Jemanden, der vertrauenswürdig ist, der ethische Maßstäbe erfüllt. Ein sehr, sehr entspannender Bereich aus meiner Sicht.
Ja das stimmt. Wenn wir uns schon allein überlegen, dass Ethik ist ja die Lehre von Guten, wenn ich richtig bin, und Moral, das ja oft relativ gleichgesetzt wird, was dafür ein großer Unterschied ist, weil ja, moralisch bedenklich gibt es ja auch. Also, wir wollen nur Ethisch Gutes? Nachdem wir uns jetzt die Punkte angeschaut haben, wie effizient oder effektiv KI-Systeme sind, welche Risiken und welche Innovationschancen sie bieten oder wie verantwortungsvoll wir sie einsetzen, sollten, wissen wir, dass KI weder nur gut, noch nur schlecht ist.
Der Schlüssel liegt wie immer bei Menschen und bei dem wie verantwortungsvoll, wie dieses Instrument, Werkzeug, wie immer man es bezeichnen will, einsetzen. Der Mensch entscheidet zuerst, ob die KI Freund und Helfer ist und muss auch führen, in dem Sinn, dass man diese Fehler, Anfälligkeiten, die die Systeme aufweisen, ganz bewusst herausfiltert und diese Instrumente wirklich fürs Gemeinwohl und ethisch unbedingt einsetzt.
Daniel, möchtest du noch etwas dazusagen? Ja, mein Wort zum Sonntag ist ein wunderbarer Anglizismus. Ich bin nach wie vor der Meinung: „A fool with a tool is still a fool, but makes disaster faster.”
Also lernen wir mit dem Tool umzugehen und weniger Fool zu sein in manchen Bereichen. Weil jeder von uns hat da sicherlich nur Chance, das ein oder andere dazuzulernen und dann die KI so einzusetzen, dass sie Nutzen bringt, dass sie zu etwas Gutem benutzt wird und dass man nicht aus Versehen oder Unachtsamkeit ein Schaden anrichten.
Das klingt wirklich super. Ich freue mich schon, wenn wir das nächste Mal wieder eine neugierige Folge machen - wenn es wieder heißt vom Hype zum Handeln.
In unserem Podcast vom Hype zum Handeln sprechen wir alle zwei Wochen über die Chancen des Wandels im Zeitalter künstlicher Intelligenz. Wir zeigen, was es am Markt in verschiedenen Bereichen gibt und was realisiert wird.
Wir sprechen über neue Entwicklungen, ordnen sie ein und lassen auch Experten und Partner zu Wort kommen. Damit erhältst du Einblicke aus erst erster Hand von Leuten, die schon zwei, drei Schritte weiter sind als der derzeit weit verbreitete Experimentierstatus.