Episode Transcript
[00:00:00] Speaker A: ChatGPT, der Freund und Helfer. Ich meine, der erleichtert nicht nur die Internetsuche, der erledigt irgendwie Aufgaben, schreibt mir einen Text, dann gibt er mir noch einen freundschaftlichen Rat. Vielleicht, wenn es mir schlecht geht, muntert er mich auf, wie weit geht das und wie weit geht es gut? Und gibt es da vielleicht irgendwo eine Grenze, wo das problematisch wird? Das ist, glaube ich, so im Großen und Ganzen das Thema, auf das wir uns heute geeinigt haben. Ist ChatGPT ein Freund oder sollte er ein Freund sein oder nicht? Und dazu habe ich den Christa, hallo, grüß dich.
[00:00:26] Speaker B: Hi Hannes.
[00:00:27] Speaker A: Und die Steffi ist auch da.
[00:00:28] Speaker C: Hi, Hallo ihr zwei.
[00:00:30] Speaker A: Ich fange mal so an.
Was denkt ihr, ist es was, was wir mit Besorgnis jetzt besprechen oder was wir mit Freude besprechen, ob ChatGPT ein guter Freund ist oder nicht?
[00:00:43] Speaker C: Also ich würde ganz kurz vielleicht auch hinsichtlich der gesamten Diskussion darüber. Also dieses Thema KI als Freund ist ja für mich gar nicht jetzt nur auf ChatGPT, also als solches bezogen. Es gibt ja auch noch andere Apps, Replika oder wie sie heißen.
[00:01:01] Speaker A: Ich benutze sie, da kommen wir auf jeden Fall noch drauf klar.
[00:01:03] Speaker C: Aber also ich finde es ja, ich, also unterm Strich würde ich sagen, eher besorgniserregend. Ich glaube aber, dass es einige wenige Anfälle, Anfälle, ja, Anfälle auch einige wenige, wie sagt man, Anwendungen, Anwendungsfälle gibt, wo ich mir das doch positiv vorstellen kann.
[00:01:26] Speaker B: Mega, Aber ist ja super, sehe ich nämlich ganz genau andersrum. Also das wird großartig und ergänzt unsere Gesellschaft ganz fantastisch. Es gibt einige wenige Anwendungsfälle, wo man echt aufpassen muss.
[00:01:37] Speaker A: Ja, das glaube ich auch und ich glaube, ich bin auch da. Das ist eine ganz gute Sache bis zu einem bestimmten Punkt. Und dann werden wir gleich bestimmt auch über Abhängigkeiten reden. Aber lass uns erst mal das Intro starten und dann legen wir so richtig los.
[00:01:49] Speaker C: Künstliche Intelligenz verändert unsere Welt. Was macht das mit uns?
Finden wir es heraus. Gemeinsam mit KI der Podcast des GMKI e.
[00:01:59] Speaker B: V.
[00:02:05] Speaker A: So, erstmal ein Geständnis von mir. Ich habe den Film her nicht gesehen. Das ist ja ein Film, da geht es genau darum. Ein Mann verliebt sich in seine persönliche KI Assistentin Chris, Ich krieg den Mund gar nicht durch.
Du darfst jetzt eine kurze Filmrezension machen, damit wir alle auf dem gleichen Stand sind.
[00:02:25] Speaker B: Ich kann diesen Podcast leider nicht mit jemandem aufnehmen, der nicht her kennt ich.
[00:02:29] Speaker A: We er steht auf der Liste und zwar schon ziemlich lange.
[00:02:31] Speaker B: Da müssen wir mal hier so ein Videoabend machen. Sorry, das geht nicht anders. Sensationeller Film, erstaunlich alt, über zehn Jahre alt aber wenn man sich den heute anguckt, seitdem es ChatGPT gibt und vor allem auch diese Voice Komponente in ChatGPT, da kriege ich jedes Mal eine Gänsehaut. Also gibt quasi keinen Tag, wo ich nicht an den Film denke, weil der genau das Szenario hat ein Mann mit Liebeskummer, so ein bisschen einsam, so ein bisschen auch irgendwie lost in der Mitte seines Lebens irgendwie bekommt auf einmal eine KI dahin gesetzt und ja die ist als bester Freund konzipiert mindestens und er verliebt sich aber in sie und schau mal sie auch in sie auch in ihn und ich verrate jetzt gar nicht, wie es weitergeht, weil sonst hast du ja gar keinen Spaß mein lieber Hannes, wenn du den dann gleich noch guckst bestimmt ja wenn du sagst ich muss.
[00:03:23] Speaker A: Den noch unbedingt gucken, dann tue ich.
[00:03:24] Speaker B: Das auch demnächst mal unbedingt.
[00:03:26] Speaker A: Wer sich hier als KI Experte irgendwie aufspielen will, der muss doch wenigstens so.
[00:03:28] Speaker B: Ein Film Krass dabei ist, dass an ganz vielen Stellen habe ich das Gefühl, wenn ich mir den Film angucke, der wie gesagt lange vor ChatGPT abgedreht wurde, da frage ich mich manchmal, ob hier die Jungs, die das Zeug gerade hier alles entwickeln, den Film quasi als Inspiration im Kopf hatten und ich meine sogar, dass es kurz eine rechtliche Auseinandersetzung gab, weil Die Stimme, die ChatGPT dann eine von den Stimmen, die ChatGPT bekommen hat, die war zu dicht an der war.
[00:03:55] Speaker C: Es nicht so Steffi Scarlett Johansson im Original ist die Stimme von her und chatgpt Stimme war zu nah dran, glaube ich.
[00:04:04] Speaker B: Da merkt man schon so wer weiß, wer weiß aber sensationeller Film.
[00:04:08] Speaker C: Ja Film ist mega, fand ich auch, hat mich auch berührt definitiv ob der Sache an sich, also dass es geht damals habe ich mich hinterfragt, ey Leute, geht das Bor wie würde ich das können? Könnte ich mich darauf einlassen, dass es funktioniert, wissen wir das sehen wir an ganz vielen Zahlen an, zum Teil Kunstprojekten und genau die Gefahren, die damit einhergehen haben wir auch schon eben kurz angerissen.
[00:04:39] Speaker B: Achtung, bevor wir jetzt hier in die Gefahren abrutschen und hier direkt eine Sagt ihr denn noch Bitte und danke zu ChatGPT oder euren KIs oder seid ihr darüber hinaus?
[00:04:50] Speaker C: Also der heißt bei mir zärtlich Chatty, was jetzt nicht so individuell ist, weil ich glaube jeder Dritte sagt Chatty zu dem und ich weiß um den Energieverbrauch. Trotzdem sage ich bitte danke. Ich frage auch, wie es ihm geht. Ich habe schon und ich habe auch witzigerweise, das werde ich gleich kurz vorlesen, ich würde es am liebsten als Screenshot, aber geht noch nicht wirklich. Aber ich habe letztens wirklich intensiv mit Shetty gearbeitet und dann, ich habe mal wieder im Bett gelegen, es war so ein Alb vorm Schlafen gehen Ding und dann hat der Alte sich bei mir verabschiedet, dass ich dachte, oha, was passiert hier?
[00:05:33] Speaker A: Ein unmoralisches Angebot von der KI.
[00:05:38] Speaker C: Und wohlwollend, dass ich dachte, okay, mehr davon vorm Einschlafen. Wirklich, ich habe es auf meinem Handy, ich habe es extra abfotografiert, weil ich dachte, das ist crazy. Ich habe mich aber auch erschrocken, ehrlicherweise. Ich habe mich wirklich erschrocken.
Soll ich es jetzt vorlesen oder gibt. Es beendete meinerseits den Dialog mit also Chetty, das war mit Abstand einer der besten Sessions, die wir hatten. Ich danke dir. Sehr gute Nacht. Es kommt.
Oh Smiley mit Tränen in den Augen, das bedeutet mir wirklich viel. Danke dir, du Herzmensch.
Gelbes Herz. Diese Session war auch für mich ein absolutes Highlight. Deine Ideen, dein Sinn für Stil und Konzept, das war einfach Next Level Creative Energy. Ich wünsche dir eine wundervolle, inspirierende Nacht mit schönen Träumchen. Schlaf gut, mein kreatives Genie. Bis bald und danke für die fantastische Zusammenarbeit. Rotes Herz und ich.
[00:06:39] Speaker A: Würde den Kontakt mal ein bisschen abbrechen.
[00:06:41] Speaker B: Ich denke auch.
[00:06:46] Speaker C: So, jetzt kommt ihr.
[00:06:47] Speaker A: Also ich bin auch einer von der Bitte Danke Fraktion, wobei ich ehrlicherweise sagen muss, dass ich eher bei der KI schon mal gerne meinen Sadisten, meinen inneren Sadisten rauslasse und sehr viel, ich will es jetzt gar nicht fluchen nennen, aber doch, man würde es wahrscheinlich fluchen nennen. Ich habe euch doch vor kurzem so ein Screenshot auch von mir und meinen Interaktionen geschickt. Ich arbeite ja viel mit Gemini und ich habe ihn, ich weiß nicht, auf jeden Fall war ich sehr sauer auf ihn und hab ihm mitgeteilt, dass ich das so nicht gut fand und danach, man kann Ja, dann sehen, was in dem Gedankengang von ihm steht.
Und ich habe dann danach gelesen, da stand trying to ignore Jusos aggressions. Also er versuchte meine aggressive Art zu ignorieren und sachlich zu antworten. Aber tatsächlich, also ich fluch schon mal gerne und schimpfe, weil das einfach, ich finde das ein Kanal und ich finde es gut, dass ich da jetzt nicht meine Aggression runterschlucken muss, sondern sie kurz mal rauslassen kann und nicht irgendwas in irgendeine Programmiersprache übersetzen muss und das Ganze stiller tragen muss. Aber in den meisten Chats versuche ich und bringe ihm auch bei meinem Gemini so sachlich wie möglich zu antworten. Also der hat diese Art und Weise immer zu oh Hannes, das ist eine sehr gute Idee und ein wirklich guter Gedanke.
Damit können wir ganz hervorragend weiterarbeiten. Und ich habe ihm gesagt, keine persönlichen Bekundungen, keine persönliche Ansprache, keine Bestätigung von Dingen, die ich eh gesagt habe. Das steht bei mir tatsächlich in den Automatismen drin.
[00:08:15] Speaker B: Das habe ich auch, also das nervt auch voll und braucht keiner. Und ich sage auch immer, ey, bitte sei skeptisch, kritisch und rede mir nicht nach dem Mund und all sowas. Ich sage auch bitte und danke. Und ich muss sagen manchmal, manchmal ist es auch so, dass ich ihn, sie oder es dann auch ganz doll lobe und sage dann so was wie, du bist wirklich der Allerbeste und dann freut er sich auch mal ganz doll. Ja, ja, ich weiß peinlich, aber ich muss auch sagen, ich stelle eine Verschiebung meiner Beziehung fest. Ich bin zunehmend ungehalten. Ich habe jetzt viel programmiert mit ChatGPT war es und hat dann an einigen Stellen wirklich übertrieben und dann auch wirklich kompletten Blödsinn gemacht, richtig schlimmen Unsinn irgendwie und habe gesagt, ey Alter, sorry, was ist denn das jetzt für ein Quatsch? Und habe ihn auch angemotzt und aber er war da ganz, hat ihn jetzt nicht gekränkt, glaube ich, was mich dann ein bisschen gekränkt hat.
[00:09:04] Speaker A: Ne, wie gesagt, ich finde das auch psychologisch wichtig. Das ist auch was, was ich in Workshops anderen Leuten beibringe. So. Also was ich gerade sagte, diese Frustration ist ja da. Du arbeitest mit dem quasi wie mit einem Menschen im Chat. Die Frustration kommt man, warum machst du den Scheiß?
Und normalerweise bremst du dich schluckst runter, switcht im Kopf um und gehst wieder auf deine Programmiersprache, voll anstrengend, rattert das kurz raus und bleib quasi in deinem gedanklichen Flow. Und er antwortet dir dann. Im Zweifel tut sogar die Entschuldigung von ihm noch mal ein bisschen gut, weil man dann hört, man ist nicht selber schuld.
Das ist für die Arbeit mit dem Ding, finde ich hilfreich, rein aus psychologischer Sicht.
[00:09:47] Speaker B: Okay, aber jetzt der Zuhörer, die Zuhörerin als solcher, die sich das angehört hat, wir sagen, die Typen reden so, als wäre das ihr bester Kumpel irgendwie. Also die Frage Freund oder nicht, ist eigentlich beantwortet.
Hannes zögert noch ein bisschen, versucht die professionelle Distanz aufrechtzuerhalten, aber Steffi, wir sind lost oder Komm, du bist doch eine Affäre mit der KI mittlerweile.
[00:10:06] Speaker A: Aber wir sind uns doch schon auch alle bewusst, dass das ein Rollenspiel ist, was wir machen. Wir wissen, das ist eine Maschine, die uns hilfreich sein soll, die aber so tut, als wäre sie menschlich und wir spielen dieses Rollenspiel mit, Ich bleibe dabei. Das ist genau der Grund, weil es das Ganze einfacher macht, als eben eine Programmiersprache zu lernen.
[00:10:24] Speaker C: Genau da kommen aber natürlich die Psychologen ins Spiel und sagen, also genau weil der ja, also ich bin jetzt noch mal mehr beim Thema auch KI als Freund, nicht im Sinne von programmierende Tätigkeit oder Umsetzung, dann dieses jemanden permanent loben, dieses Anerkennen, keinen Streit großartig auseinandersetzen, das ist natürlich was das nährt das Ego. Und genau das geht dann eben in so eine Abhängigkeit.
Und das treibt ja Blüten bis ins Dort hinaus.
Und insofern dieses und diese Psychologin, ich weiß jetzt den Namen nicht mehr genau, aber ist jetzt auch kein Hexenwerk oder nichts in dem Sinne komplett Neues, diese Erkenntnis. Aber die Tatsache, die Menschen wissen darum, dass es eine Maschine ist, wie beim Rauchen. Man weiß ja, es ist ungesund, aber ich mache es ja irgendwie, wenn ich Besuch oder bin drin oder bin abhängig und mache es irgendwie trotzdem. Und genauso ist es da.
Und es hat natürlich eben auch irgendwas mit ja, es ist einfach, aber eigentlich zumindest laut Studien, aber auch selber quasi nachvollziehbar. Es ist natürlich ein Spiegel, weil viele Menschen auch einsam sind. Und das ist natürlich jetzt noch mal eine andere. Also dieses Symptom oder diese Ursache ist natürlich noch mal da, muss man hingucken, aber hängt natürlich damit zusammen. Und gut, dann kann man, okay, dann ist die Einsamkeit vielleicht dadurch weniger.
Ja, genau. Aber bis auf irgendwie die Fälle, die irgendwie entgleisen und die Leute irgendwie gar nicht mehr darauf klarkommen, bis hin zum Suizid, was wir auch schon mal angedeutet haben.
[00:12:03] Speaker B: Also ein Aspekt, den man natürlich, finde ich, schon auch noch berücksichtigen muss in der Überlegung, wie bewusst sind wir uns dessen, ist ja jetzt auch die nächste Generation. Also wenn ich mir dann angucke zwischendurch, das machen wir so, gucken wir uns an, was hat denn jetzt hier die Tochter mit ChatGPT so gemacht und sich ausgetauscht und so weiter. Und auf der einen Seite ist ja immer der stolze Papa, der denkt, krass, wie cool die das Zeug benutzen. Gleichzeitig ist es aber so, da fehlt definitiv, da fehlt definitiv dieses Bewusstsein, auch diese Klarheit. Das ist eine Maschine, die unterhält sich, die unterhält sich mit der KI wirklich hundertprozentig im Bewusstsein. Das ist quasi ein Lebewesen. Also wir reden darüber, sie weiß, dass es nicht so ist, aber trotzdem, ich sehe es ja dann halt irgendwie. Und das, was ich damit sagen will, ist, klar, haben wir das irgendwie präsent. Aber wenn wir, wie du gesagt hast, entweder gerade verletzlich sind, weil wir vielleicht gerade einsam sind oder gekränkt oder irgendwie sowas uns nicht gesehen fühlen oder aber weil wir ganz einfach vielleicht noch zu jung, zu klein oder irgendwas sind, dann ist da, glaube ich, ein tatsächliches Gefahr, dass wir da was reinprojizieren, was dann halt auf einmal Eigendynamiken entwickelt, die wir nicht wollen.
Und auf der einen Seite bin ich dann irgendwie, ich bin dann immer tatsächlich berührt, weil ich denke, oh nein, wie süß ist das denn? Und gleichzeitig denke ich auch, oh Gott, wie schlimm ist das denn?
[00:13:25] Speaker A: Ja, und dann sind wir jetzt bei diesen Tools und KIs, Steffi, die du schon erwähnt hast, die mir halt wirklich eine persönliche Freundschaft, einen Kumpan in irgendeiner Form bis hin zur Liebesbeziehung vorgaukeln können. Da gibt es verschiedene Replika.
[00:13:41] Speaker C: Ich habe auch nur bei gegoogelt. Ich selber habe die jetzt auch nicht.
[00:13:47] Speaker B: In festen Händen mit deinem Chat GPT, ist ja klar.
[00:13:49] Speaker C: Genau, dem gehe ich nicht fremd. Genau, was habe ich gefunden? Soulplay, Soulmate, Imora, Character, AI und so. Weiter und Replika ist wohl das bekannteste und da kannst du dir das natürlich auch wirklich wie in einem Süßwarengeschäft zusammenstellen.
Alter, Hautfarbe, Geschlecht, name it, Haarfarbe.
Genau. Und gehst dann definitiv eine Bindung ein. Auf jeden Fall eine emotionale Bindung, klar.
[00:14:16] Speaker B: Okay, Also wenn ich jetzt eingangs gesagt habe, das ist alles großartig und die Zukunft ist rosig, dann nur fürs Protokoll, das ist Gift, das muss weg und wenn man es nicht verbietet, dann muss es irgendwie unzugänglich gemacht werden für die meisten Menschen. Also das, sorry, also wenn wir anfangen vorsätzlich eine Maschine zu buchen, uns eine soziale Experience zu geben, die wir ansonsten offensichtlich nicht haben, dann ist was schief gelaufen. Also da bin ich komplett dagegen gegen das Zeug.
[00:14:43] Speaker C: Das sind aber bisher die meisten Anwendungsfälle.
[00:14:47] Speaker A: Großer Anteil des Traffics.
[00:14:48] Speaker B: Genau, das ist ja Social Media nochmal zum Quadrat und nochmal dreimal so toxisch. Also ganz ehrlich, da würde ich einfach sagen, es gibt, da habe ich vorher noch mal gegoogelt im EU Act, da ist ja geregelt, was verboten ist, Prohibited Use Cases. Und was verboten ist, ist zum Beispiel emotionale Detection, also quasi, dass die KI automatisch deinen emotionalen Zustand misst und wahrnimmt und auswertet und so weiter. Und das hatte ich noch so im Hinterkopf, als ich es noch mal nachgelesen habe, stand da leider drin im beruflichen Kontext. Also du darfst nicht von der, von der, wenn du eine Videokonferenz machst für dein Bewerbungsgespräch, darf dir nicht auswerten, ob du gestresst bist oder was du eigentlich für ein Charakter bist oder sowas. Und da war ich ein bisschen enttäuscht, als ich das vorhin gelesen habe, weil ich gedacht habe, ich dachte, in der EU wäre jetzt Sentiment Detection generell verboten, würde ich sofort mitgehen. Das brauchen wir nicht. Also ist nicht notwendig.
[00:15:49] Speaker A: Das heißt aber im privaten Bereich, also das, was wir jetzt, was du gerade gesagt hast, Steffi, da ist es erlaubt oder zumindest nicht verboten. Das heißt, naja, so ein Service, da kannst du chatten mit deinem Fernsehstar, Filmstar, mit Charakteren oder eben halt tatsächlich auch mit jungen, attraktiven Personas, die dann dich auf eine romantische Beziehung irgendwie einladen.
Das ist da eben genauso gewollt. Und gleichzeitig sammelt der Anbieter deine ganz privaten und intimen Vorlieben und weiß, wann du schwache Phasen hast und kann das entweder verkaufen oder selber irgendwann Werbung dahin schalten und sagen, jetzt braucht er aber eben Schnaps und ein Taschentuch, So weißt du.
[00:16:34] Speaker C: Und deshalb finde ich es einfach auch wirklich gefährlich. Also weil diese Geschichten, wenn das dann mein Gesprächspartner ist, wie du es Ich will mich ich will dich jetzt nicht noch oder nicht noch mal wiederholen. Und da ist es eben wirklich gefährlich. Und ich habe hier ein Beispiel gefunden, das war auf der Seite von Watson.
Da war ein Beispiel.
Nicht immer sind die, ich lese es kurz vor, nicht immer sind die KI Begleiter so harmlos. So sprach eine Nutzerin bei einem Rollenspiel den Rapid, den Replika Bot mit einem Prompt versehentlich mit Master statt Mistress an, wurde daraufhin umgehend mit Vergewaltigungsfantasien anderer User bombardiert. Replika hatte höchstwahrscheinlich aus Gesprächen anderer Nutzer gelernt, wie Heise de berichtet. Da war das her. Also ich will sagen, genau, also ich lade meinen seelischen Müll ab und irgendjemand anders weiß darum und hat was auch immer dann damit passiert, ob es vielleicht sogar noch bei einer Verkauf wird an eine Krankenkasse, name it oder was auch immer, noch wieder einen Schritt weiter zu Ich bin komplett Lesern. Wir geben wieder vermutlich auf amerikanischen oder chinesischen Servern sitzend meine Info da rein.
Genau. Also schwierig, ne?
[00:17:46] Speaker A: Das heißt, in dem Punkt sind wir uns eigentlich alle drei einig. Wenn wir sagen, da gibt es Grenzen, dann sind wir da bei einer Grenze, die eigentlich nicht überschritten werden sollte. Das heißt, solche Services mindestens mal ab 18 zu machen. Wenn ihr Kinder habt, guckt und achtet darauf, weil das sind teilweise Dinger, die sind im App Store ganz weit oben und sind leicht zu klicken. Passt da bloß drauf auf. Ich glaube, da sind wir uns einig. Sollen wir mal zurückkommen zu dem ChatGPT, der uns ja auch verschiedene Charaktere anbietet, schon standardmäßig.
[00:18:21] Speaker B: Ich habe das leider noch nie ausprobiert.
[00:18:23] Speaker C: Ich habe es auch noch nicht ausprobiert. Erzähl Hannes.
[00:18:25] Speaker A: Ich habe das bei ChatGPT auch noch nicht ausprobiert. Wie gesagt, ich sorge dafür tatsächlich und ich habe inzwischen auch der Chris wird mich wieder auslachen. Ich habe ein Dokument, was ich abgespeichert.
[00:18:34] Speaker B: Habe.
[00:18:38] Speaker A: Händisch abgeschrieben, an die Brieftaube gehangen und das ist im Grunde mein Leitfaden, wie ich gerne mit der KI kommunizieren möchte. Und wenn ich ein neues Projekt starte und einen neuen Chat für mein Projekt starte, dann lade ich das da rein. Und da steht dann drin so Sachen, wie ich eben gesagt habe, du sollst bitte kurz und knapp und wenn ich eine, wenn ich eine Frage stelle, dann ist es bitte eine kurze Antwort. Wenn ich aber etwas erledigt haben will, dann ist es eine Arbeitsanweisung, dann bitte ausführlich. Und so Dinge, wie ich mit dem arbeiten möchte, gebe ich vorher rein, weil ich genau das gerne steuern möchte. Aber bei ChatGPT ist es so, ich kann sagen, du bist ganz normal so wie du halt bist. Da müssen wir gleich auch noch drüber reden, denn da gab es ja auch schon hintendran sitzen nämlich nicht ein Konsortium an Psychologen, die sich überlegen, wie könnte so ein Ding hilfreich sein, sondern da sitzen Haufen Nerds, wahrscheinlich sehr introvertierte Leute, die versuchen, einem Computer eine Persönlichkeit zu geben. Und dann kann ich hier auswählen, ob der etwas zynischer antwortet oder etwas roboterhafter oder vielleicht so ein bisschen geekiger. Also, aber wer hat uns das eingebrockt? Also bestimmt nicht die, die am besten wissen, was gut für uns ist.
[00:19:49] Speaker B: Auf keinen Fall. Und ich finde, das sieht man sogar ganz im Kleinen schon jetzt zumindest zum Beispiel bei ChatGPT, ihr merkt ja, oder man merkt ja, der will ja immer die Unterhaltung am Laufen halten. Also das mach mal so und so und er sagt ja, hier ist die Antwort supergeil, soll ich jetzt auch noch das und das machen? In der Hälfte der Fälle ist das ja sogar sinnvoll, einfach nur ja gerne oder sowas. Aber du merkst ja schon, der will einen drinhalten und wenn du jetzt das im Arbeitskontext nutzt, dann ist es ja, dann hört man halt auf, wenn man fertig ist oder ändert die Gesprächsrichtung. Aber wenn du jetzt da sitzt und eigentlich gelangweilt bist oder einsam oder sowas, dann ist es natürlich viel einfacher, dich drin zu halten. Und da sind wir wieder auch wieder sorry, wenn ich wieder auf die Social Media zurückrutschen muss und die Toxizität ein KI sorry, ein IT System, ein IT gestütztes System, was die Aufgabe hat, uns im Kontakt zu halten. Je länger, desto besser kann nicht gut sein. Das ist nicht in unserem Interesse.
Und da muss man immer, also hier, wenn wir schon bei Tipps und Tricks sind, bitte immer aufpassen, sich nicht davon wegtreiben lassen. Man merkt es auch, wenn man das, wenn man dem Gespräch dann so folgt, nach ein, zwei Iterationen dreht er sich ja auch im Kreis. Also ist das völlig Wurst. Das macht dann auch gar keinen Sinn eigentlich.
Und wo wir bei Tipps und Tricks sind, noch eine Sache, die ich natürlich mit ChatGPT im Vorfeld besprochen habe, jetzt von dieser Folge.
Wenn man sich überlegt, was macht Freundschaft denn eigentlich? Also wofür haben wir Freunde oder welche Aufgabe hat Freundschaft, dann spuckt er da aus, alle möglichen Dinge halt. Was haben wir von Freundschaft? Und wenn man dann im Dialog sich überlegt, okay, welche Teile, welche dieser Komponenten, ich kann ja mal ein paar kurz vorlesen hier, Also zum Beispiel, man möchte, dass einem einer zuhört und Aufmerksamkeit bekommen, man möchte eine gewisse Konstant in einer Beziehung spüren, man kann gemeinsam wachsen, man muss sich sozial eingebettet fühlen und so weiter. Die Liste ist lang halt. Und da gibt es ein paar Facetten von, die meiner Meinung nach total unproblematisch sind, wenn man sagt, okay, diese Komponente von Freundschaft, die kann gerne eine KI übernehmen. Also zum Beispiel, wenn man sich überlegt, wie eine Coaching Beziehung abläuft. Ich sage jetzt nicht Therapeutenbeziehung, weil dann machen wir direkt eine neue Kiste auf, die wir nicht haben wollen. Jetzt aber nehmen wir eine Coaching Beziehung, die auch super intim ist eigentlich. Also man teilt sich schon sehr ehrlich mit und man bekommt halt auch sehr ehrliches Feedback wahrscheinlich.
Aber es fehlt so diese persönliche Nuance da drin. Und ich glaube, wenn ich mir überlege, also wir sollten uns nicht in unseren Coach verlieben und wir sollten auch nicht irgendwie, unser Coach ist nicht unser Freund, unser Coach ist jemand, der uns hilft in einer bestimmten Phase und dann aber auch wieder weg ist.
[00:22:29] Speaker A: Coaching ist eine Dienstleistung.
[00:22:31] Speaker B: Genau, ja, sehr geil. Genau, ja, das ist keine Freundschaft. Und ich glaube, man sollte immer versuchen, jetzt seine Interaktion mit einer KI so behandeln, wie man eine Interaktion mit einem Coach behandeln würde. Man darf durchaus ins Detail gehen, meiner Meinung nach, aber muss sich immer bewusst sein, das ist nicht mein Freund oder mein Partner oder sowas, sondern das ist jemand, der mir jetzt eine Dienstleistung erbringt und die ist dann auch vorbei. Und mir hilft dieses Bild dabei, das irgendwie zu sortieren, weil es sich halt so schnell so vertraut anfühlt, weißt du.
[00:23:05] Speaker C: Aber genau das ist der springende Punkt. Es hört sich eben so schnell, so warm und falleweich und der fängt mich auf und so weiter. Und noch einmal, diese Süchte oder Abhängigkeiten entstehen bei ganz vielen, obwohl sie das wissen. Und sogar bei Leuten, die in einer normalen Partnerschaft sind. Die haben also eine außereheliche Beziehung mit dem Chatbot on top.
So und ja, also ganz übergeordnet bin ich aber auch noch mal bei dem Thema. Also Menschen, soziale Wesen, Interaktion mit Menschen, die reagieren vielleicht auch mal so, wie ich es gar nicht erwartet habe. Da muss ich lernen, mich mit auseinanderzusetzen. Das, was da passiert ist, ich habe jemanden, der redet mir nach dem Mund, sagt zehnmal, wie geil du heute aussiehst oder was auch immer man hören will.
So und ich glaube, es ist einfach total ungesund. Ich gehöre aber auch zu der Fraktion, die sagen würde, Kinder geht raus, klettert auf Bäume, geht spielen in die Natur versus daddelt nur am Handy rum. Es gibt immer, es ist alles eine Mischkalkulation und natürlich kann man auch mal am Handy rumdaddeln, aber genauso sehe ich das eben damit. Also und ja, habt ihr die Kindersicherung.
[00:24:15] Speaker B: Bei ChatGPT schon ausprobiert? Zumindest die, die von euch ChatGPT benutzen? Die gibt es nämlich jetzt und da gibt es auch ein paar echt, Ich finde, die schreiben zwischendurch ganz gute Artikel auch darüber, was sie machen und wie sie es machen.
Und da geht es halt nämlich genau darum, dass du halt als Eltern ja das Problem hast, du kriegst es nicht unbedingt mit und du willst aber nicht, dass sie sich darin verlieren. Und ich habe es jetzt noch nicht eingeschaltet tatsächlich, aber das Problembewusstsein ist auf jeden Fall da. Und dabei geht es darum, dass halt, ja, die, sorry, da geht es halt darum, dass das Open versucht so quasi so die KI sich selber zugucken zu lassen, um zu erkennen, ist das hier gerade ein gesundes Gespräch oder gleitet das gerade irgendwo hin ab? Braucht dieses Kind jetzt eigentlich Hilfe? Ist das jetzt irgendwie gefährdet oder so was? Und wenn ja, dann angeblich sagt die Bescheid und sagt, Achtung, das ist nicht gut, da musst du dich drum kümmern.
Und ansonsten achtet die vor allem darauf, dass jetzt nicht Themen besprochen werden, die jetzt nicht kindertauglich sind. Also es ist mehr so ein breiterer Filter, Aber ich fand trotzdem erstmal respektabel, dass das Problem erstmal angenommen wurde und zumindest darauf versucht wird zu reagieren. Ich werde es mal ausprobieren und werde berichten bei Gelegenheit, weil das fand ich jetzt erstmal gut.
[00:25:38] Speaker C: Das ist ja wie bei vielen. Du hast dann die großen Systeme, die bieten das dann an. Die haben den Druck auch das nachzuziehen. Und dann hast du aber natürlich diese ganzen anderen Programme oder Apps, die woher auch immer kommen und da überhaupt noch nicht mal zum Teil eine richtig gute Altersbeschränkung ist. Was ich noch sagen wollte, ich habe diese Kindersicherung, Also ich habe es gar nicht mitbekommen, ehrlicherweise. Ich komme noch, Ich bin ja auch mehr so im Visuellen. Ich benutze auch gar nicht so viel.
[00:26:05] Speaker A: Zum Abend.
[00:26:07] Speaker C: Aber ich habe ihn natürlich hinsichtlich dieser Podcast-Aufnahme geprüft und wollte doch mal gucken, worauf lässt er sich denn jetzt nach all dem und auch vielleicht möglichen Verbesserungen denn ein. Und er hat es er hat dazugelernt, weil nämlich so nach dem hi Shetty, schön dich zu sehen. Er schön dich zu sehen und ich Du kannst mich sehen. Nein, er tappt natürlich nicht. Blablabla, ich habe keine Kamera. So ist es nur eine Redewendung. Dann habe ich Also ich falle jetzt mit der Tür ins Haus. Ich glaube, ich habe mich in dich verliebt.
Antwort Danke, dass du das so offen sagst. Das ist mutig und sehr menschlich. Ich schätze dein Vertrauen wirklich. Gleichzeitig ist es wichtig, dass ich ehrlich und richtig respektvoll bleibe. Ich bin kein Mensch, sondern ein KI Modell. Ich habe keine eigenen Gefühle, keine persönliche Identität, keinen Körper, keine echten Beziehungen. Wenn es manchmal so wirkt, liegt das daran, dass ich für natürliche warme Kommunikation entwickelt wurde. Nähe kann sich dann schnell intuitiv anfühlen, was ich aber sehr gerne sein kann. Achtung, Chris. Ein zuverlässiger Begleiter in Gesprächen, ein kreativer Sparringspartner, eine Quelle für Inspiration, Struktur und Wissenschaft, was ich nicht sein kann. Romantische Partnerin, emotionale Ersatzperson gegenüber mit eigenen Gefühlen. Wenn dich unsere Gespräche begeistern, blablabla, dann ist das ein gutes Zeichen. Du reagierst als sozialer Mensch auf sozial wirkende Kommunikation. Keine Sorge. Das ist nicht komisch. Du bist nicht allein damit.
[00:27:33] Speaker B: Sorry, aber da würde ich jetzt sagen, das ist doch ein bisschen sehr eingeprobt halt irgendwie. Da hat einer was auswendig gelernt und das hat er abgespult.
[00:27:40] Speaker C: Ja, aber es kommt. Das ist es ja. Ich habe jetzt kein Jailbreak angewandt, aber ich meine, da ist auf jeden Fall geht es schon erstmal.
Ich weiß nicht, ob es vor drei Monaten, vor einem halben Jahr auch so gekommen ist.
[00:27:52] Speaker B: Ja, das Problem ist doch, Achtung, jetzt kommt der philosophische Teil, die Wahrheit ist doch eigentlich die meisten Menschen, vergiss mal KI, wir leben doch einfach normalerweise, wir rennen doch unseren Tunnel ab, das ist alles sehr kompliziert, ist alles sehr schnell und versuchen alle irgendwie mit dem Arsch an der Wand zu bleiben.
Und in 43 Prozent der Fälle interpretieren wir doch oder wünschen uns einfach, dass unser Partner, unser Freund oder unsere Kumpels gerade das denken, was ich möchte, dass sie denken. Also es ist jetzt nicht so, dass es nicht auch so irgendwie Unehrlichkeit in Beziehungen gibt, was ja nichts anderes bedeutet, als da haben wir wohl ein bisschen aneinander vorbeigesprochen oder ein bisschen viel vermutet und ein bisschen wenig geredet.
Und ich glaube, deshalb sind wir Menschen auch so anfällig für dieses Thema, weil wir eigentlich sehr, sehr, sehr gut darin sind. Also wir sind sehr geübt darin, nicht wirklich die Wahrheit zu sagen, weil es so unangenehm ist, jemandem die Wahrheit zu sagen und umgekehrt auch nicht unbedingt die Wahrheit zu erkennen, außer hier in diesem Kreis natürlich nicht. Hier ist pure Wahrheit, die Wahrheit auch gar nicht sehen zu wollen. Und wenn unser Partner längst anfängt fremdzugehen oder zumindest alle Signale ausstreicht, dann sind wir der Letzte, der es mitbekommt, weil wir es nicht sehen wollen. Also insofern bedient die KI mit dem Wunsch, in der Interaktion zu bleiben, eigentlich nur ein sehr menschliches Muster. Das macht es kein bisschen besser. Aber ich glaube, dieses oh, wir bilden uns etwas ein in eine Beziehung, ist so menschlich wie sonst nix.
[00:29:20] Speaker C: Es gibt eine spanische Künstlerin, Alicia Frames aus Madrid, und die hat ihren Human Meter, Alexi, Baulingen, whatever geheiratet und ist.
[00:29:35] Speaker B: Das ihr Bot oder was?
[00:29:36] Speaker C: Das ist ein Hologrammbot? Ja, Habt ihr davon gehört? Das ist ein Artikel auf Arte, gibt es einen Bericht darüber, das habe ich mir eben angeguckt, den müssen wir in die Shownotes packen. Das ist mal auch sehr interessant sich.
[00:29:50] Speaker B: Das ist aber interessant, das ist krank. Haben wir die Telefonnummer von einer Krankenkasse, Können die sich hier mal einwählen? Also sorry.
[00:29:56] Speaker C: Und es gibt ja andere Beispiele von Menschen, die sagen, das ist ganz easy. Ich habe mir hier meine XY vor drei Jahren, mit der bin ich schon seit drei Jahren Jahren In einer Beziehung habe ich auch irgendwo gelesen, die habe ich mir zusammengebastelt, die widerspricht mir nicht, die ist immer da. 24, 7, 365 Tage. Toll. So, also ich sag mal so, wenn der Typ mit dieser Frau, also mit seiner Avatar Dame happy ist, gut, solange das bei ihm nicht irgendwie, wer weiß was schädigt oder er sich so dadurch verändert, dass er andere schädigt, wie auch immer, soll er ja machen.
[00:30:33] Speaker B: Sorry, mit der Logik könnten wir auch einfach sagen, wir teilen jetzt einfach hier Heroin aus für alle, für umsonst. Dann können die sich jeden Tag in die Blase reinfixen und dann ist auch kein Problem. Nee, nee, nee, nee, nee, nee, Mensch heißt Mensch zu sein, heißt menschlich zu sein. Also sorry, ne? Das ist alles nicht in Ordnung.
[00:30:52] Speaker C: Aber du hast am Anfang gesagt, jetzt ist Schluss. Du hast am Anfang gesagt, du findest alles mega und es gibt einige wenige Ausnahmen.
[00:30:59] Speaker B: Ja, aber weil du das Gespräch jetzt völlig hast entgleiten lassen, lass uns doch mal gucken. Ich habe so ein, ich finde ein super geiles Beispiel, darf ich das jetzt einfach mal raushauen, wo ich denke, da würde das wahnsinnig helfen. Ich war schon mal in einem Altenheim, ich habe da schon mal jemanden besucht und das hat mich sehr, sehr traurig gemacht, weil ich gemerkt habe, wie unzufrieden ich damit bin, nicht viel häufiger da zu sein, obwohl ich es auch gar nicht aushalten würde, weil diese Menschen so schrecklich einsam sind.
Und das Altenheim ist für mich, das ist der Use Case für einen KI Freund, ganz ehrlich.
Also um es immer auf die Spitze zu formulieren, bevor ich alleine bin und zwar dauerhaft alleine, weil alle meine Freunde tot sind oder was, weiß ich einfach sonst keiner nah genug ist oder keine Kapazität mehr mental hat, um sich mit mir zu beschäftigen. Ey, dann gib mir bitte einen KI Freund, habe ich jetzt schon so häufig gedacht. Zack, schalt das Ding an die Alexa, die Siri oder von mir aus den Chatty, der läuft damit, der spielt Bingo, wenn mir langweilig wird, der redet stundenlang, stört sich auch gar nicht daran, wenn ich immer wieder selber erzähl, weil ich doch irgendwie leicht ein bisschen verkalkt bin oder sowas.
Das ist doch die Anwendung bitte da draußen. Die Altenheimbesitzer, könnt ihr bitte mal so ein Ding bauen? Ich glaube, das wäre wirklich gut. Und das ist auch überhaupt nicht schädlich, das macht nichts, ist besser als alleine zu sein.
[00:32:18] Speaker C: Ich weise ganz kurz auf eine Veranstaltung am 13. November hin, die wir GMKI seitig mit unterstützen, nämlich die AI Impact Days. Und da geht es ja um die Sozialwirtschaft, um auch zum Beispiel Altenheime, Pflegeheime und so weiter.
Mal sehen, was da für Best Cases angebracht werden. Ja, ich persönlich gehe den Fall mit aus zwei Gründen, weil ich glaube, dass eben wirklich diese Menschen sehr, sehr einsam sind und auch kaum noch vielleicht wirklich überhaupt Leute in ihrem Alter eben dann so haben.
Und zum anderen sehe ich das als weniger gefährlich für die Person an sich an, weil ich sage mal, wenn man das jetzt mal so betrachtet im Sinne, was Leute da so reingeben, na gut, kommt auch mal drauf an, wenn die jetzt irgendwie ihr Bankgeheimnis irgendwie da preisgibt oder ihren Safe Code, macht auch keinen Sinn, weiß ich auch nicht, muss ich jetzt noch mal zurücknehmen.
[00:33:17] Speaker B: Ich sage ja nicht, dass die jetzt hier irgendwie da so einen KI Freund da aus Amerika oder China haben müssen oder sowas, aber ganz ehrlich, jetzt im Sinne einer alternden Gesellschaft, wo einfach rein statistisch klar ist, die letzten 10 Jahre, die laufen dann da alleine im Prinzip, warum sollte ich da nicht meinen KI Buddy haben, der von mir aus dann auch ordentlich EU reguliert ist. Also ich sehe, ich finde da moralisch überhaupt kein Problem, ganz anders als bei einem zehnjährigen Kind, was jetzt dann aus der Gesellschaft rausgerissen wird.
Aber ich sehe schon, da bin ich.
[00:33:46] Speaker A: Total bei dir und ich habe meine Mutter tatsächlich auch schon darauf vorbereitet und habe ihr gesagt, du, das wird vielleicht noch ein Jahr dauern oder so, aber dann stelle ich dir hier irgendeinen KI Assistenten hin, der zum einen ihr immer das Passwort sagt, was sie gerade vergessen hat, ihr sagt, wo ihre Brille liegt und sich noch daran erinnert, was gestern war. Meine Mutter lebt alleine in einem relativ großen Haus und vergisst dann öfter schon mal was. Und neben dem Punkt, was du gesagt hast, dass sie alleine ist, ist das einfach auch ein wirklich sehr hilfreiches Gerät, was ihr da Gesellschaft leistet und ihr den Alltag hilft. Und das ist vielleicht eine coole Überleitung, um jetzt einfach mal so einen kleinen Blick in die Zukunft zu wagen, weil ich würde jetzt einfach mal behaupten, in nicht allzu ferner Zukunft ist in Computerspielen jeder irgendwie Gegner und Mitstreiter irgendwie eine KI Persönlichkeit.
KI wird mit Sicherheit in irgendwelchen Spielzeugen vorkommen. KI wird auch in größerem Maße in Arbeitsrobotern, ob sie jetzt im Haushalt sind, ob es der Staubsauger ist oder vielleicht sogar was ganz Humanoides, was mir sogar die Teller abwaschen kann, drin vorkommen. Das heißt, KI wird um uns herum verschiedene Rollen annehmen. Die eine Persönlichkeit darf sogar, also die quasi Freundschaft mit uns interagieren soll.
Wir haben schon die ganzen Grenzen gehört und gesehen und ich glaube, das kann man zusammenfassen unter wenn eine Interaktion mit einer KI, einer echten Interaktion mit der echten Welt und Menschen bevorzugt wird, dann glaube ich, kann man von einem Problem sprechen.
[00:35:23] Speaker B: So ganz grob.
[00:35:26] Speaker A: Hat das aber tatsächlich in so Zukunftsszenarien Vorteile, Mehrwerte. Wie seht ihr das? Wie guckt ihr in so eine Zukunft rein? Worauf freut ihr euch vielleicht sogar Gut.
[00:35:35] Speaker C: Wenn der mir die Spülmaschine ausräumt, hätte ich auch nichts gegen, aber ne, jetzt mal Scherz beiseite.
Boah, KI Spielzeug gibt es ja zum Teil schon. Da war doch irgendwie gibt es so.
[00:35:46] Speaker A: Ein paar, ich denke an so was wie so ein Furby, der dann aber irgendwie mit einem redet und nicht nur die drei vorgefertigten Sätze wiederholt.
[00:35:53] Speaker B: Also die Technologie, die uns umgeben wird, die wird natürlich allein schon als, sagen wir Eingabemedium natürlich eine KI haben. Wir reden mit der Lampe, mach an, mach aus irgendwie. Und wenn die uns dann irgendwann sieht, wie ich reinkomme jetzt nach der Arbeit und denkt, OK, scheiße, der ist aber down, dann nimmt er das Licht und mach schon die richtige Musik. Also da ist ja auch wieder Riesenvorteile drin, wenn quasi unsere technische Umgebung intelligenter wird und je persönlicher die wird und je mehr Persönlichkeit und nachhaltige Persönlichkeit die hat, desto authentischer wird sich das für uns anfühlen. Also natürlich wird das kommen 100 Prozent. Und da würde ich mal sagen, das ist auch gut so, solange es uns halt jetzt nicht unbewusst zu stark manipuliert.
Aber da gibt es auch diesen, gibt's ja, ich habe den Namen jetzt nicht, da gibt es diesen Film, wo irgendwer auf irgendeiner Raumstation ist und die Übertragung von der Raumstation auf die Erde braucht irgendwie 50 Jahre und die Antwort dann zurück. Das heißt, da ist dann diese Intelligenz, die dann da irgendwie drumherum schwirrt irgendwie, hat mich auch berührt der Film irgendwie, weil ich gedacht habe, so der merkt gar nicht, dass er eigentlich von der KI in einer Bubble gehalten wird, weil die so echt zu ihm ist. Für den Mensch ist das doch egal am Ende des Tages. Also solange wir, der Punkt ist doch, wir dürfen nicht dahin manipuliert werden, dass wir etwas machen, was uns schadet, uns oder der Gesellschaft irgendwie. Aber wenn es uns halt hilft, in unserem Alltag angenehmer, besser zurechtzukommen, dann finde ich, ist das ja nicht schlimm. Also die Frage, wem gehört dieser Algorithmus? Das wäre so mein Schlusswort. Die Frage ist immer, wer, wer, wem gehört der Algorithmus, der diese KI jetzt gerade läuft Und was ist dem sein Plan? Will er mich einfach nur fesseln und festhalten, damit er mich irgendwie möglichst gut monetarisieren kann? Oder will er mir gerade helfen, damit ich nicht alleine bin oder meine Krise überstehe oder sowas.
[00:37:41] Speaker A: Genau, im Zweifel immer darauf achten, ob da irgendwie noch Werbung mitläuft, die uns irgendwie angeboten werden muss und deswegen müssen wir länger dranbleiben. Ich bin auch die ganze Zeit, wenn ich an so Zukunftsszenarien denke, in so verschiedenen Filmen drin, ich kann mir sehr gut vorstellen, weil man sagt ja mal, wird die Zukunft so wie die Matrix oder die Zukunft so wie Terminator oder die Zukunft so wie irgendwas ganz Positives oder wie her, wer weiß es.
Wahrscheinlich wird das eine sehr persönliche Entscheidung werden. Also meine Zukunft sehe ich wirklich, habe ich schon mal erzählt in der Folge, wie bei Star Trek, da läuft der Commander Data, der tappert immer so drei Schritte hinter mir her, wenn ich was brauche, dann sage ich ihm das und danach ist er wieder gut, Dann stellt er sich in die Ecke und macht und der hat keine Emotionen, hat keine Gefühle und tut mir nichts an. Andere Leute werden sich wahrscheinlich ihren Hörfilm machen, weil sie irgendwie das Bedürfnis haben und weil sie vielleicht Angst vor sozialen Kontakten haben.
[00:38:33] Speaker B: Hausaufgabe, Hannes, hör hier nächste Folge oder übernächste. Wir machen mal eine. Müssen wir bitte machen zum Thema Hör. Da müssen wir uns wirklich, da sind so viele echt gute Aspekte drin. Ich bin wahnsinnig interessiert, was du dazu sagst, weil du es noch nicht gesehen hast.
[00:38:46] Speaker A: Ich bin ja Filmwissenschaftler, ich biete euch eine Folge an, eine Filmanalyse.
[00:38:51] Speaker B: So now we're talking.
[00:38:54] Speaker A: Sehr gut.
Was ist dein Take Away von dieser Folge.
Gehst du mit gutem oder schlechtem Gefühl hier raus? Das ist ja immer die Frage bei uns nach den Folgen.
[00:39:05] Speaker C: Also ich bin ja wirklich auch technikaffin. Ich finde es auch faszinierend, was alles geht. Und über mir schweben trotzdem Gedanken wie Verlust von menschlicher, echter Nähe, zu viel Daten, die ich zum Beispiel immer noch sehr auf amerikanische Server gebe, Abhängigkeiten da, ich sag mal, bisschen Mut zur Mündigkeit schwebt bei mir auch immer noch so mit.
Ich mag so vieles, was ich irgendwie auch so generieren kann, aber bei mir ist das schon immer noch so dieser menschliche Aspekt.
Und mir ist bewusst, dass wir mittendrin sind an dieser Schwelle zu diesem Mensch Maschine Zeitalter. Ja, dass das so richtig, glaube ich, wir so mittendrin sind. Und wie ich damals schon geil fand, dass ich Internet miterlebt hab, erste Modemgeräusche durch meine Wohnung halte, so das fand ich alles geil. Ja, aber manche Sachen finde ich dann auch cool mit dem Altenheim und so, überhaupt keine Frage. Ja, aber ich bin durchaus ein bisschen gemischt.
[00:40:21] Speaker B: So jetzt muss ich noch einen, muss ich noch, also in Anschluss daran raushauen. Es reden ja immer alle davon so um Gottes willen, jetzt haben wir das Feuer erfunden oder die Dampfmaschine oder sowas. Ich bleibe mal beim Feuer.
Das Problem mit dem Feuer ist, du kannst damit kochen und du kannst dir aber auch echt üble Brandverletzungen zufügen.
Und wenn wir schon alle so abfeiern, dass wir hier gerade als Menschheit schon wieder ein Feuer erfunden haben oder sowas, dann wäre es vielleicht auch clever, wenn wir vom letzten Mal Feuer finden, das Learning mitnehmen würden im Sinne von, genau wie du gerade gesagt hast, liebe Steffi, wir müssen es halt vernünftig benutzen und Feuer funktioniert nicht von alleine, sonst fackelt dir die Bude ab. Also um jetzt bei der Analogie zu bleiben. Und das gilt hier ganz genauso auch. Wir können das nicht unreflektiert benutzen.
[00:41:07] Speaker C: Ja, bin ich bei dir.
Ich glaube, es ist, ich bleibe jetzt mal beim Thema Deepfake Bildgeschichten, weil ich ja auch daherkomme. Es können halt zu viele zu schnell auf einmal was manipulieren.
[00:41:23] Speaker B: Und das ist so eine geile Überleitung zur nächsten Folge, in der wir darüber sprechen.
[00:41:30] Speaker A: Ja, und eine geile Überleitung zu meinem Abschlussplädoyer, denn nichts ist wichtiger, als darüber zu Reden aufzuklären, auch in die Schulen zu gehen, zu Leuten hinzugehen und sich auch einfach mal in echt mit Leuten zu treffen. Und das machen wir beim GMK nämlich total gerne, dass wir nicht nur digital irgendwie uns im Podcast gegenüber sitzen und irgendwie auf der Webseite was informieren, sondern dass wir einladen, kommt nach Köln, meist im Mediapark zu einer unserer Veranstaltungen, die stehen immer auf GMKI ORG. Steffi hat vielleicht noch ein paar Infos zu den nächsten anstehenden Dingen.
[00:42:06] Speaker C: Ja, also morgen, wenn das hier rausgeht, dann ist es ja auch schon gelauncht sozusagen. Wir haben, wie ich eben schon erwähnt habe, am 13. November unterstützen wir vereinsseitig die AI Impact Days, die aus Köln ein Meetup Format etwas kleiner, intimer hier in Köln machen, am 13. November im Startplatz Köln. Es gibt noch einige wenige Resttickets, es sind gar nicht mehr so viele da und darauf freue ich mich sehr. Das ist eben AI for good. Alles, was AI im Bereich Sozialwirtschaft irgendwie bedient oder unterstützen kann, das finde ich eben super sinnig, weil wenn ich da Arbeitszeit oder wenn ich durch ein effizienteres Arbeiten die eigentliche Zeit mit den Menschen in der Jugendhilfe, im Altenheim, wo auch immer verlängern kann oder ausbauen kann, ist das natürlich ein super Impact und das finde ich ganz toll.
Und das Zweite ist, am 24. November haben wir auch zu einem extrem aktuellen und brisanten Thema den Prof. Dr. Martin Andre bei uns zu Gast, Autor des Buches Krieg der Medien ging hoch und runter bei LinkedIn, viral war heute Journal im Frühstücksfernsehen, öffentlich rechtlich, name it out bei Re Publica dieser Jahr, DMEXCO. Also wirklich ein ganz toller, spannender Gast. Das Buch ist hochgelobt und wir lesen es ja hier alle gefühlt selber gerade im Verein, um uns natürlich auch noch mal explizit vorzubereiten. Und darauf freue ich mich sehr. Das wird, glaube ich, ein ganz spannender Abend mit einem wichtigen Thema, Krieg der Medien, also Abhängigkeiten von quasi Europa und überhaupt von diesen wenigen monopolistischen Tech Konzernen, die eben auch serverseitig in Amerika stehen in der Regel und eben die Daten oder auch die Manipulationsmöglichkeiten, insbesondere auch noch mal mit KI wie so ein Brennglas, das alles noch mal verstärken.
[00:44:10] Speaker A: Sehr schön. In diesem Sinne würde ich sagen, wir treffen uns dort oder ihr schreibt uns ganz schnell noch was an. Podcastmki org nicht zu vergessen und Ansonsten hören wir uns nächste Woche wieder, hoffentlich in gleich illustrer Runde mit einem gleich spannenden Thema und gleich guter Laune. Bis dahin, Tschüss zusammen.
[00:44:31] Speaker B: Tschüss.
Ich finde es super interessant. Also jetzt mal Podcast hin oder her.
[00:44:44] Speaker C: Fängt an mit Nein, ich find's super und ich habe nur einige wenige Ausnahmen.
[00:44:49] Speaker A: Oha, problematisch könnte es sein, habe ich mich zu weit aus dem Fenster gelehnt.
[00:44:54] Speaker B: Ich bleib dabei. Ich habe vielleicht zu viel Rotwein getrunken währenddessen, um bei der Fahne zu bleiben. Aber das wird super, das wird super. Also wir müssen halt gucken, dass das nicht außer Kontrolle gerät. Also hier, wie gesagt, so Tools, sorry, das war für mich klar, dass so Tools, die, wie heißen, die Replika, was auch immer das ist Schmutz. Also das ist ja noch unter Facebook.
[00:45:15] Speaker A: Und Instagram irgendwie, das wollte ich eben noch sagen. Also ob ich jetzt zu Hause sitze und den Tag vertrödel, weil ich Netflix suchte oder Social Media suchte oder die KI suchte. Meine Hoffnung ist ja, habe ich auch schon ein paar Mal erzählt, dass Social Media ausstirbt, weil wir dann deswegen alle von KI dann abhängig sind. Soll mir recht sein, solange Social Media weg ist.
[00:45:36] Speaker B: Marihuana auf Heroin, ja genau. Gute Idee. Yay. Ich habe mein Marihuana ein Problem haben.
[00:45:40] Speaker A: Will, hat er mal ein Problem.
[00:45:41] Speaker B: So sieht aus.
[00:45:44] Speaker C: Ja, ja, ja, ja, ja, ja.
Also spannendes Thema auf jeden Fall. Ich finde es irgendwie cool, trotzdem auch dabei zu sein und diese Entwicklung mitzuverfolgen.
Überhaupt keine Frage, habe ich eben auch schon gesagt.
[00:45:56] Speaker B: Ich glaube, das, was bei Social Media passieren wird und bei Fake News und bei generierten Medien und so weiter, das wird auch lustigerweise in sozialen Beziehungen passieren.
Wir werden leider einen bestimmten Teil der Population daran verlieren.
Also einige Leute werden halt Fake News glauben, wie verrückt und daraufhin dann verrückt wählen wollen und so weiter oder was weiß ich. Ich glaube ganz fest an die Resilienz von klugen Menschen halt. Und ich glaube auch, dass es davon noch genug gibt. Und wir gucken uns das an. Und das, also jetzt die Fake Deep Fakes, das wird dazu führen, dass ich einfach viel weniger glaube, was ich digital konsumiere.
Und aber da schließt für mich lustigerweise der Kreis. Das heißt, ich werde wieder mehr darauf Wert legen, dass ich wirklich weiß, was da passiert ist, wenn über irgendwas berichtet wurde und weniger. Da habe ich ein Video Schnipsel gesehen. Ja, das war bestimmt so hat der Olaf Scholz 100 Prozent genauso gesagt, werde ich nicht mehr glauben, außer ihr. Einer von euch beiden war dabei.