World Modelle - Leben wir bald in der Matrix?

Episode 9 September 22, 2025 00:26:03
World Modelle - Leben wir bald in der Matrix?
Gemeinsam mit künstlicher Intelligenz
World Modelle - Leben wir bald in der Matrix?

Sep 22 2025 | 00:26:03

/

Hosted By

Hannes Dollinger Stefanie Krüll Christian Bornmann Uli Kilian Gregor Steinke

Show Notes

In dieser Episode diskutieren Hannes und Uli die Entwicklung von KI-Weltmodellen, insbesondere das neue Genie 3 von Google. Sie beleuchten die Unterschiede zwischen traditionellen 3D-Simulationen und KI-generierten Welten, die Vorteile und Herausforderungen dieser Technologien sowie deren Anwendungen in der Unterhaltungsindustrie und Robotik. Zudem wird die gesellschaftliche Relevanz und die ethischen Implikationen von KI-Weltmodellen thematisiert.

Takeaways

Chapters

View Full Transcript

Episode Transcript

[00:00:01] Speaker A: Wenn der Uli und ich zusammensitzen, dann wird es öfter mal technisch, haben wir heute auch schon vorgehabt oder drüber gesprochen. Wir versuchen das für alle interessant zu halten. Hallo Uli. [00:00:11] Speaker B: Hallo Hannes. [00:00:12] Speaker A: Es geht heute nämlich um ein Thema, was uns beide beruflich so ein bisschen berührt. Zumindest habe ich dich extra dafür auserwählt. Es geht um die Tatsache, dass die KI jetzt nicht nur ein Textmodell oder ein Bildmodell sein kann, sondern ein Weltmodell, also ein Verständnis von der ganzen Welt hat. Wie muss man das verstehen? [00:00:34] Speaker B: Ja genau. Also ich bin ja auch kein Experte, bei weitem nicht, aber wir haben Text angefangen zu generieren. ChatGPT, da haben wir Bilder gemacht, dann haben wir Video gemacht und jetzt machen wir Welten. Was das dann genau heißt, da können wir noch mal spezieller drauf eingehen. [00:00:51] Speaker A: Genau. Und du und ich als Experten, weil wir beide so ein bisschen aus dem D Bereich kommen und ich dich auf jeden Fall noch fragen was ist jetzt der Unterschied zwischen einem KI Weltmodell und einer D Simulation? Wir haben viel zu besprechen. Wir werden jedes Mal den Arm heben, wenn es zu technisch wird und wir gucken mal, bis wohin uns diese Fantasie von diesem Weltmodell bringt. Meine Vermutung ist ja, die Matrix lauert da irgendwo in den Tiefen und Weiten dieser Vorstellung. [00:01:20] Speaker B: Künstliche Intelligenz verändert unsere Welt. Was macht das mit uns? Finden wir es heraus, gemeinsam mit KI Der Podcast des GMKI e. V. [00:01:35] Speaker A: So, aber bevor wir soweit sind, in die Matrix einzutauchen, erst mal ganz von vorne. Google hat was vorgestellt, das nennen sie Genie 3. Kannst du ganz kurz erklären, was das überhaupt ist? [00:01:48] Speaker B: Also das ist ja jetzt auch erst ein paar Wochen her, Monate her, dass sie da Wind gemacht haben. Und also es ist nichts, was jetzt öffentlich verfügbar ist. Aber was die da zeigen, es sind also ein paar kleine Anwendungen, ist ein World Model stellen die da vor, also ein Weltmodell. Und ich versuche es ganz kurz zu machen. Also ChatGPT funktioniert ja so, dass das nächste Wort halt hervorhergesagt wird, so quasi statistisch und so beantwortet das Videogenerierung funktioniert auch mit der Vorhersage sozusagen von Pixeln und und das Weltmodell funktioniert dann auch mit der Vorhersage von Pixeln, aber ist sozusagen die zeitliche Komponente noch mit integriert und die interaktive Komponente mit integriert. Also es wird eine Welt generiert in der ich mich dann virtuell bewegen kann, so wie bei einem Computerspiel. Und es wird dann halt darauf reagiert, wie ich mich da in der Welt bewege und was ich da mache. [00:02:55] Speaker A: Ich würde wetten, das hat immer noch nicht jeder verstanden, weil es aber auch irgendwie erstmal schwer vorstellbar ist. Und wenn man sich das dann vorstellt, dann wirklich, ich finde, das ist wirklich eine fantastische Vorstellung. Also erstmal die Anwendung an sich, die Google vorgestellt hat, ist die Idee, dass man einen Prompt eingibt oder ein Bild eingibt und aus diesem einfachen D-Bild entsteht durch die ganz normalen Steuertasten wie ein Computerspiel eine Welt, in der ich mich bewege. Und ganz einfach gesagt erzeugt aus diesem leichten kleinen Input von einem Text oder einem Bild dieses Modell Gini 3 eine komplette virtuelle Welt. Das war in den ersten Versionen vor, ich glaube nicht viel mehr als einem halben Jahr wurde das vorgestellt, war das so ein paar wenige Bilder nebeneinander, wo im Grunde die KI aus dem einen Bild ein Bild erzeugt hat, was so ähnlich aussah. Inzwischen kann man sich mehrere, ich glaube sogar Minuten lang in einer Welt frei bewegen, die die KI on the fly, also live und direkt ersinnt errechnet und in 24 Bildern pro Sekunde ausgibt. [00:04:05] Speaker B: So richtig, Ja, also die ganzen Details kenne ich da auch nicht. Aber genau das, also es wird on the fly aus von einem Prompthaus generiert, so wie wir das bei der Bild oder Videogenerierung schon gewohnt sind. [00:04:19] Speaker A: Genau. Und das Faszinierende dahinter ist, dass da eben keine Berechnung steht, eben keine D Simulation, wie wir das vielleicht aus dem Computerspiel kennen, sondern ein Modell, ein klassisches KI Modell, was mit allem, was so in der Welt steckt, trainiert wurde. Da waren unter anderem aber auch Szenen aus D Spielen mit drin. Also diese Bewegung im D Raum, wie wir das vom Computerspiel kennen, wurde ganz viel als Trainingsmaterial genutzt, glaube ich. [00:04:47] Speaker B: Genau, also das lernt einfach, wie so eine Welt aussehen kann und generiert das dann on the fly, also mit einem Prompt. Und es ist jetzt keine, es ist in dem Sinne keine D Welt, die da in dem Computer virtuell jetzt entsteht, so wie ich das aus meinem Beruf gewohnt gewohnt bin. Also als D Artist erstelle ich, modelliere ich, texturiere ich Sachen und die stelle ich halt im virtuellen Raum irgendwo hin und dann stehen die da und dann kann ich mich da drumherum bewegen und mir die angucken im virtuellen Raum oder mir die Quest aufsetzen, die Brille und mir das dann da angucken. Aber dieses Modell, dieses World Modell, das funktioniert halt nicht so, dass es jetzt D in dem Sinne da baut, sondern genau wie das bei den LLMs ist, also bei ChatGPT und den ganzen Bildgenerierung und Videogenerierung Sachen. Es macht diese Autoregression, also diese Prediction Vorhersage vom nächsten Frame in Echtzeit und weiß aber eben, was es vorher links und rechts erzeugt. [00:06:06] Speaker A: Es ist ja, es ist schwer zu beschreiben, also gehen wir noch mal rückwärts, D heißt, das wird alles einzeln gebaut, ist dann aber dafür auch sehr präzise und sehr fix, hat aber den Nachteil, dass so eine D Simulation, auch Animation extrem hohe Rechenleistung braucht und lange rendert, so bis quasi das Bild dann erstellt wurde. Die KI erzeugt eine Welt, die sie sich ausdenkt anhand ihrer Erfahrung von all dem Trainingsdaten, die sie hat, und zwar eben in Echtzeit, wie wir schon gesagt haben, wenn ich mich in dem Bild bewege und umdrehe, dann entsteht da frei eine neue Welt. Und das hatte aber den Nachteil, dass in den ersten Versionen von Gini man sich einmal im Kreis drehen konnte und der Ausgangspunkt war ein völlig anderer, weil die KI eben, wie sie in all diesen Formen das tut, halluziniert, die denkt sich die Sachen aus. So und das ist natürlich ein großer Nachteil gegenüber D. Was ist denn aber der Vorteil jetzt an diesen Genie Weltmodellen? [00:07:09] Speaker B: Also es wird einfach D Welten generiert, on the fly, sagen wir mal so salopp. Und der Vorteil ist natürlich sehr vielfältig. Also ich sage mal jetzt zum Beispiel braucht man, also Kostenersparnis natürlich, man braucht keine D Leute mehr, die das alles basteln und texturieren und ausleuchten und dann rendern und so weiter, sondern das wird halt eben alles von der Engine übernommen. Und dann gibt es natürlich da noch tausende von Anwendungsmöglichkeiten, eben zum Beispiel, wie wir dann, da kommen wir dann auch noch drauf, zum Beispiel Roboter trainieren können und zwar gefahrenfrei und billig trainieren können, weil wenn so ein Roboter halt in der echten Welt loslassen willst, der muss ja auch erstmal die Welt kennenlernen und sich darin zurechtfinden. Und wenn er da leider einen Fehler macht, da gibt es ganz lustige Videos online, die man da sehen kann, wenn er halt einen Fehler macht in der echten Welt, dann kann das sein, dass der umfällt und deshalb dann zerbrochen ist und das natürlich alles sehr kostenaufwendig. Wenn der in der virtuellen Welt das macht, dann geht halt nichts kaputt. Dann kann man einfach mal wieder zurückspulen und jetzt machen wir aber nochmal, weil das hast du jetzt leider falsch gemacht. Und das ist natürlich ein Vorteil, der da auf der Hand liegt. Das ist im Prinzip aber wieder geht es um die Geschwindigkeit. Also ich brauche jetzt nicht mehr ein ganzes Team von Leuten, die diese D Welt da baut und was ich den Roboter dann da hinstelle, sondern das wird halt alles on the fly generiert und simuliert. [00:08:54] Speaker A: Punkt Kosten haben wir jetzt beide schon mal drüber gesprochen. So ein D Artist, der eben eine Szene erstellt und bis das dann gerendert ist, das dauert lange. Aber ganz umsonst sind solche World Modelle ja auch nicht. Jetzt ist das Google Veo Modell für Video allein schon relativ teuer und jede Generierung kostet, was jetzt, was so ein World Modell angeht, da hat sich Google in alter Begeisterung über die wahren Kosten aber noch nicht geäußert, soweit ich weiß. Wir können jetzt nur spekulieren, dass das auch nicht umsonst sein wird. [00:09:26] Speaker B: Ne, natürlich nicht, aber es wird natürlich um ein Vielfaches billiger sein. Es ist alles relativ. Es ist alles relativ. Ich mein, du wirst, ich bin mal gespannt, wann wir eben das auch wirklich, das wirklich so bedienen können, sodass wir eine Szene rauskriegen, die wir heute eben mit mit einem Team von D Artists machen. Also das wird noch ein bisschen dauern bzw. Es wird einfach anders sein und bis dahin fallen die Kosten wieder und so weiter. Aber wenn man das vergleicht, ein D Artist, der eine Woche an so einem Ding sitzt, der kann das dann sehr präzise erstellen nach bestimmten Vorstellungen und das kann wahrscheinlich von der KI dann innerhalb von ein paar Minuten erzeugt werden. Aber dann hast du auch immer wieder das Problem, der ist aber nicht genauso, wie ich das wollte, sondern ein bisschen anders und so weiter und so weiter. Also das heißt, bis wir dann mal irgendwann dahin kommen, dass wir das auch genauso haben, wie wir uns das vorstellen, das wird noch ein interessanter Weg, weil ich frage mich auch, wie genau kann man es dann denn manipulieren? Also wenn da jetzt irgendwas in der Ecke hinten im Zimmer die KI eben nicht so gemacht hat, wie ich das haben wollte, ja, wie erkläre ich dir genau, was ich da haben wollte und so. Also muss ich dann doch da in die D Welt reingehen und das da wieder manipulieren, so wie ein D Artist das im Prinzip macht? Oder ist das auch alles auf Promptbasis? Also bleibt sehr spannend und wahrscheinlich noch sehr lange, weil wir sind ja auch erst an den Anfängen da. [00:10:55] Speaker A: Ja, genau, das ist ein allererster Schritt. Und wenn man sich jetzt nur dieses Gini Modell von Google anguckt, das sieht halt eben auch eher aus erstmal wie ein Computerspiel, wie etwas, was für die visuelle Unterhaltung gut ist. Also Roboter hast du eben kurz angesprochen, dann können wir gleich drüber sprechen, dieses Google Ding. Nehmen wir es mal als Unterhaltungsmedium und überlegen uns mal, wo führt das hin, wenn wir im Grunde wie ein Computerspiel, aber in fotorealistisch und in komplett flexibel und zwar in so flexibel, dass wir sagen können, wir möchten jetzt, dass da ein Weihnachtsbaum in der Ecke steht oder wir möchten, dass im Kamin der Weihnachtsmann steckt und dann passiert das instant und wir haben quasi den interaktiven Film, den wir sogar virtuell in D um uns rum sehen können. Ich persönlich denke da immer an Star Trek und an das Holodeck. Kennst du das noch, wo im Grunde ein ganzer Raum eine virtuelle Welt ist, die ebenso on the fly produziert wird. [00:11:56] Speaker B: Ja, also das ist ja heute schon so möglich, dass du eben deine D Umgebung baust, auch fotorealistisch möglich, Aber um in die dann reinzukommen, dann setzt du halt die Brille auf oder die Quest oder was auch immer du für eine VR Brille hast und bist dann in dieser Welt drin. Das wird nicht anders sein, wenn die KI das generiert. Das wird genauso sein, dann musst du immer noch die Brille aufsetzen und da drin sein. Also ich glaube, das wird auch erst abheben oder mehr an Bedeutung gewinnen, dieses on the fly generieren, in Realtime generieren, wenn es auch dann wirklich einfach ist, in diese Welt reinzugehen. Also als Consumer, als Consumer halt, wenn ich, weil ich merke das ja, wenn ich meine VR Brille auf habe, also das Ding will ich nicht länger als 20 Minuten aufhaben, dann schwitze ich wie so ein Ölprinz und möchte halt da wieder raus. Es ist halt was völlig anderes. Und ob das jetzt mit KI erzeugt ist, herkömmlich mit D Artists und manueller Arbeit, das macht dann auch nicht mehr so einen großen Unterschied. Also für den Consumer, glaube ich, macht das erst einen großen Unterschied. Also der in eine neue Welt eintreten will und das da erleben will. Da müssen noch ein paar andere Technologien her, damit man das auch einfach sich da rein switchen kann. Und dann sind wir wieder bei der Matrix. [00:13:26] Speaker A: Glaubst du denn aber, dass die Welt der Computerspiele, also die D simulierten Welten und das, was uns diese KI World Modelle jetzt versprechen, gut zusammenpassen würden? Also ich stelle mir vor, dass so ein Computerspiel, das ja sehr rechenintensiv ist, eigentlich ja nur ganz grob uns skizzieren muss, wo die Sachen stehen. Und die KI könnte dann ja fotorealistisch alles drüber rendern, also den Look quasi machen. [00:13:58] Speaker B: Genau. Und das wird ja auch im Moment schon angewendet. Und genau da geht es auch mittelfristig, sag ich mal, mit Sicherheit hin. Also dass man eben, man stellt halt, sag ich mal, einen Würfel in die Mitte des Raumes und sagt so, das ist jetzt ein Tisch sozusagen und die KI versteht das, versteht genau, wo man den haben will und macht aber dann den Tisch dahin, statt diesen Kubus, den ich in D da einfach mal schnell aufgezogen habe. [00:14:24] Speaker A: Genau. Vor allem, wenn wir alle das nächste GTA 6 oder 7 oder was dann immer in fotorealistischer KI Grafik spielen wollen, brauchen wir das ja auch bei uns auf dem eigenen Computer, denn ich glaube nicht, dass wir 10 Millionen Spieler auf einem OpenAI Server berechnen können. Also irgendwann wird das da vielleicht auch knapp werden. Andersrum ist ja die Frage, wir sind jetzt bei Spielen, Computerspielen, Rechenleistung, das wissen wir, das ist das, was mehr wird mit der Zeit. Wo kommen wir dann hin, wenn es da wirklich unendlich viel Rechenleistung gibt? [00:15:06] Speaker B: Unendlich viel. Ja, du gehst immer auf die Matrix, unendlich viel Leistung. Ja, dann kannst du dich, dann kannst du dich da jederzeit reinknipsen in in diese Welt und das ausleben, was du in der echten Welt vielleicht nicht ausleben kannst. [00:15:23] Speaker A: Genau, denn die Vorstellung ist, wir sind in dieser Entwicklung so weit am Anfang und die Entwicklung wird weitergehen, es wird besser werden. Übrigens haben wir, was Trainingsdaten von der Welt angeht, alles in Google Maps und in Satellitenbildern und in Google Earth. Und wenn das alles von der KI gelernt ist und 1 zu 1 wiedergegeben werden kann, dann sind wir doch wirklich gar nicht mehr so weit davon entfernt, eine komplette virtuelle Welt zu haben, ob wir da einen Stecker im Hinterkopf haben, wie das bei der Matrix ist, das lassen wir mal raus. Neuralink von Elon Musk ist ja nun in der Entwicklung, aber vielleicht auch noch nicht so weit. Und vielleicht ist das auch eher eine gruselige Vorstellung, die wir jetzt mal rauslassen. Aber dass wir uns in einer virtuellen Welt bewegen, die wirklich eins zu eins unserer Welt entspricht, das kann ich mir schon vorstellen in naher Zukunft. [00:16:16] Speaker B: Absolut. Aber das war aber das Neuralink zum Beispiel war das, was ich angesprochen habe, als ich gesagt habe, da muss Technologie her, wo ich mir nicht eben die fette Brille da noch mal aufs Gesicht klatschen muss, sondern das muss halt in irgendeiner Weise intern schon im Gehirn oder auf der Retina oder weiß ich was wie abgebildet werden, ohne diese Brille und dann fängt es an interessant zu werden. Also, oder scary, also Angsteinflösse, wie du es haben willst. Also, aber das ist ja auch nur, also die echte Welt jetzt nachbauen und sich daran bewegen ist ja auch nur ein klitzekleiner Bruchteil von dem von der Anwendung, die dann möglich ist. Und wahrscheinlich kann ich so großartig. Ja doch, also da kommen wir vielleicht auf Robotik und die nächste Stufe, wie man dann eben dadurch, dass man die reale Welt nachbildet, eben auch diese ganzen KI gesteuerten Roboter dann sozusagen schnell verbessern kann. [00:17:23] Speaker A: Genau, denn das ist eine Anwendung, die jetzt abseits von all dem Hype eigentlich ja schon komplett existiert. Und da ist die Firma Nvidia ganz weit vorne. Das sind die, die die Grafikkarten bauen, die auch eben gleichzeitig die KI steuern und die aus dieser Perspektive heraus sowohl große Expertise im D Bereich haben und aber auch große Expertise im KI Bereich und das in Anwendungen zusammenbringen, wo sie zum einen Firmen erlauben, ihre Fabriken in einer virtuellen Umgebung mit eben echter Simulation, echter physikalischen Regeln nachzubauen. Und das hat den Vorteil, dass man zum Beispiel so ein so ein Fabriklayout, eine Produktionsstraße oder so super erstmal testen kann. Und wenn das dann eben in der virtuellen Welt alles perfekt steht und ideal durchsimuliert ist, dann baut man das eben als digitalen Zwilling nach. Und das andere ist, was du gesagt hast, wenn ich eine virtuelle Welt habe, die genauso funktioniert wie unsere echte Welt, dann kann ich meinen Roboter die Übung, die er machen will, machen soll, mal trainieren lassen und dann kommt der in die echte Welt und kann das genauso, weil eben diese Simulation genauso identisch ist. Und sowas gibt es schon alles. [00:18:38] Speaker B: Ja genau. Und das wird dann beschleunigt um ein Vielfaches durch die KI, dadurch, dass man dann nicht mehr alles händisch und manuell machen muss, sondern die KI einem da. [00:18:50] Speaker A: Es gibt aber tatsächlich noch ein paar andere Anwendungsfälle. Ich habe hier noch ein, zwei aufgeschrieben. Eines, was auch Nvidia macht, ist das komplette Wettermodell der Erde zu simulieren, um eben noch genauere und gezieltere Vorhersagen zu geben. Auch so Tatsachen wie das Nobelpreisgewinner Alphafold, also die Proteine falten, das sind ja letztendlich auch Simulationen einer mikrobiologischen Welt. Und die Idee ist eben irgendwann alle diese Simulationen in einem Modell unter einer KI zusammenzuvereinen, was wahnsinnig krasse, sondern um jetzt wirklich mal alle Hörer abzuholen. Das heißt unter anderem auch, dass wir Gesellschaft simulieren können. Da haben wir in der Vorbereitung zu der Folge kurz drüber gesprochen, was ist denn, wenn Politiker eine Wahl in ihrem Land simulieren mit verschiedenen Werbeplakaten oder Wahlslogans oder politischen Programmen und das Ganze tausendmal durchspielen, bis sie herausgefunden haben, wie sie die Bevölkerung am allerbesten auf ihre Seite ziehen können. Haben wir da nicht auch ein hohes Potenzial auf so vielen verschiedenen Ebenen, dass wer die Welt kontrolliert, virtuell auch die Macht hat? [00:20:13] Speaker B: Absolut. Die ganzen CEOs da von diesen Companies, wie heißt es von Nvidia. [00:20:22] Speaker A: Jensen. [00:20:26] Speaker B: Und OpenAI und Google und wie sie alle heißen. Genau das ist das, worüber ich mir Gedanken mache und wovor ich Angst habe, weil Manipulation ist das, wo ich immer am meisten, wie soll ich sagen, gegen ankämpfe. Ist natürlich eine Frage, wie man das jetzt, wie man das sieht, aus welcher Perspektive man das angeht. Aber ich zum Beispiel verwende wirklich nur ChatGPT als meinen täglichen Helfer, sage ich mal, und bewusst nicht Gemini von Google, weil ich im Google System Ecosystem sowieso die ganze Zeit unterwegs bin und ich Angst davor habe, sozusagen, dass es mich noch besser kennenlernt und mich noch mehr manipulieren kann und noch mehr weiß, was ich alles mache. Und deshalb habe ich das gerne ein bisschen getrennt. Macht natürlich eigentlich keinen Sinn, weil das ist ja gerade das Gute, wenn es mich kennenlernt, weil da kann es mich auch vernünftig unterstützen. Aber ich habe diese inhärente Angst, sage ich mal, dass dann irgendwann, wenn mal einer von den großen Evil wird oder keine Ahnung, wenn die da alle, die meisten Großen in den USA sitzen, auf einmal Government sagt hier übrigens, ich sitze jetzt mal hier am Hebel der Trump oder weiß der Geier was, das dann auf einmal das Modell, was mich super gut kennt, mir auch halt eben dann Antworten rausschmeißt oder mich in Richtungen führt, die ich eigentlich nicht gehen würde, wenn ich dem nicht so vertrauen würde. Also Weltmodell hin und her. Also das ist eine grundsätzliche Angst bei mir. Wie gehst du damit um? [00:22:22] Speaker A: Total. Und ich musste das direkt wieder weiterdenken, bis auf das Weltmodell, wo das im Zweifel auch nichts anderes ist. Und ich glaube mit ein Teil der großen Investitionen in diese ganze KI Welt liegt daran, dass genau das die Leute jetzt wollen so viel wie möglich uns da reinziehen in ihre Produkte, so viel wie möglich über uns erfahren. Und da macht so ein Weltmodell natürlich keinen kein Stock vor. Genauso wie Social Media mit seinen Algorithmen eigentlich dafür gebaut ist, uns so lange wie möglich da drin zu halten. Stell dir vor, die Konzerne werden in Zukunft versuchen, uns so lange wie möglich mit all unseren Sinnen in ihrer virtuellen Welt zu halten, um uns damit irgendwelcher, im Zweifel nur Werbung vollzuballern. Aber das wird umso eindringlicher, wenn das wirklich eine komplette simulierte Welt ist, in der wir uns befinden. Also was meinst du, was ist unser Rat? Wie kommen wir aus dieser Folge jetzt halbwegs vernünftig wieder raus? Es ist was sehr Faszinierendes, diese Idee, dass wir alles simulieren und wir könnten sogar noch weitergehen, machen wir aber nicht und sagen, wenn es so einfach ist, eine Simulation zu erschaffen. Es kommen die Leute mit einem Aluhut, leben wir vielleicht schon lange in einer Simulation. [00:23:41] Speaker B: Ja, absolut. Das ist ja auch, das ist gar nicht Aluhut. Also durchaus ernstzunehmende Theorie, die man nicht von Hand weisen kann. Schlicht und einfach leben wir schon in einer Simulation. Da gibt es auch wirklich Größen in der Wissenschaft, die sich mit der Frage beschäftigen. Es ist nur. Ja, also ich glaube, wir kommen jetzt vom. Die Frage lässt sich nicht beantworten durch Welt beobachten anscheinend nicht. Vielleicht doch, aber vielleicht lässt sich dadurch beantworten, dass wir eben selber sozusagen diese Sachen bauen. So wie wir es jetzt anfangen und merken, dass wir irgendwann vielleicht in einer Simulation leben, die sich aber sehr, sehr real oder genau wie die Realität anfühlt. Sie sagt dann völlig wertfrei. Also das ist durchaus denkbar irgendwann. [00:24:30] Speaker A: Ja, die Faszination ist auf jeden Fall da. Also es ist wirklich eine eigentlich fast unvorstellbare Vorstellung, dass wir bald soweit sein werden. Bis dahin, und das ist auch das Angebot, glaube ich, was wir jetzt als GMKI euch Zuhörern machen können, macht es total Sinn, sich darüber zu informieren und mit offenen Augen da reinzugehen, wenn sowas alles kommt. Deswegen könnt ihr euch gerne bei Fragen, Anregungen oder wenn ihr Lust habt, im Bereich KI mitzumachen, auch gerne an uns wenden. Schaut mal auf gmki org oder sendet uns eine E Mail an podcastmki org, dann diskutieren wir auch gerne mit euch oder über euch oder über das, was ihr mit uns teilt. Ansonsten würde ich sagen, Uli, gebe ich dir das letzte Wort und freue mich jetzt schon auf die nächste Folge. [00:25:19] Speaker B: Ja, ist genau wie bei allen anderen KI Themen. Hat keinen Sinn, sich davon abzuschotten. Es hat keinen Sinn, sich voll da reinzustürzen und nur noch das zu machen und über alles zu preisen, sondern man muss den ausgewogenen Blickwinkel irgendwie schaffen und sich damit beschäftigen, aber genauso die Risiken abwägen und vor allem die Risiken auch dann, wenn man sie sieht, anzugehen. Hannes, vielen Dank für diese Folge. Ich hatte viel Spaß hier und freue mich auch schon auf die nächste. Danke dir. [00:25:53] Speaker A: Bis zum nächsten Mal. [00:25:54] Speaker B: Tschüss.

Other Episodes

Episode 7

September 08, 2025 00:38:55
Episode Cover

Sind Kreative Freelancer von der KI bedroht?

In dieser Episode diskutieren Hannes und Stefanie über die Herausforderungen und Chancen, die Künstliche Intelligenz (KI) für kreative Freelancer in der visuellen Branche mit...

Listen

Episode 2

August 12, 2025 00:29:53
Episode Cover

Wie KI das kommerzielle Internet verändert

Hannes und Christian diskutieren die aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz (KI) und deren Auswirkungen auf die Internetnutzung und Suchmaschinen. Sie ziehen Parallelen...

Listen

Episode 13

October 27, 2025 00:34:14
Episode Cover

KI braucht riesige Energiemengen - wie soll das gehen?

In dieser Folge tauchen Hannes, Uli und Chris in ein Thema ein, das oft übersehen wird: den Stromhunger der KI. Gemeinsam diskutieren wir, woher...

Listen