Episode Transcript
[00:00:03] Speaker A: Künstliche Intelligenz verändert unsere Welt. Was macht das mit uns?
Finden wir es heraus. Gemeinsam mit KI der Podcast des GMKI e. V.
[00:00:19] Speaker B: Hallo und herzlich willkommen zur neuen Folge unseres Podcast Gemeinsam mit KI, wo wir gemeinsam mit KI und über KI sprechen und uns den ganz wichtigen Themen und Fragen rund um das Thema Künstliche Intelligenz widmen. Unter anderem heute mit der Frage Wird KI uns irgendwann mal gefährlich werden? Da gibt es tatsächlich so ein paar Experten, die sind der Meinung und den einen haben wir uns angehört und wollen heute darüber diskutieren, was er so meint. Wir das bin ich, Hannes Donninger, bei mir ist der Christian Bornmann. Hallo Christian.
[00:00:51] Speaker C: Halli hallo.
[00:00:52] Speaker B: Und heute zum ersten Mal dabei. Gregor Steinke, grüß dich und du hast das Thema auch so ein bisschen mitgebracht, stimmt's?
[00:00:58] Speaker A: Ja, danke für die Einladung und schön, dass ich dabei sein kann.
Das Thema mitgebracht insofern, dass ich einen Podcast gehört habe über Risiken, wo Jeffrey Hinton besonders darauf eingeht und deshalb bringe ich den hier ein.
[00:01:18] Speaker B: Du hast den Namen schon genannt. Jeffrey Hinton ist einer der, ich würde mal sagen, ganz großen Experten in der KI Welt.
Gregor Da das dein mitgebrachtes Thema ist, würdest du mir die Ehre erweisen und Jeffrey hinten einmal ein bisschen vorstellen, dass jeder von uns dann auch weiß, mit wem und über wem wir da sprechen.
[00:01:38] Speaker A: Ja, also er wird als Godfather of AI oder Pate der KI bezeichnet und hat wirklich mit seinen Forschungsarbeiten ganz wesentliche Sachen einfach zur Entwicklung der KI beigetragen.
Dafür hat er letztes Jahr zusammen mit anderen Kollegen den Nobelpreis in Physik bekommen und ja, ich sag mal, ohne seine Durchbrüche würde es bestimmte Dinge einfach nicht geben. Also wir hätten keine Bildgeneratoren, wir hätten keine Bild und Spracherkennung oder kein autonomes Fahren. Er war wesentlich an der Entwicklung von Deep Learning neuronalen Netzen beteiligt und zwar hat er immer das Gehirn, so das menschliche Gehirn als Vorbild gesehen.
Dafür wurde er eine Zeit lang sehr belächelt, aber es hat sich gezeigt, dass er da auf dem richtigen Pfad war. Schon in den er Jahren hat er angefangen, sich damit zu beschäftigen und ja, ohne sein Wirken hätten wir ziemlich viele Dinge, die wir heute selbstverständlich mit KI machen, hätten wir die nicht. Er hat 2013 bis 2023 bei Google gearbeitet und hat dann aufgrund der Risiken, die er erkannt hat, beschlossen, seinen Job da aufzugeben und öffentlich und unabhängig über Risiken durch KI einfach zu sprechen.
[00:03:14] Speaker B: Ja, also wirklich jemand, der Grundlagenforschung im Thema Künstliche Intelligenz betreibt und das wirklich schon seit Jahrzehnten. Ich glaube auch Professor für einige andere der führenden KI Köpfe war, die unter ihm gelernt haben. Ich erinnere mich, jetzt korrigiert mich, wenn das falsch ist, Ilya Satzkawa, einer der OpenAI Gründer, hat, glaube ich, unter ihm gelernt oder war Schüler von ihm.
[00:03:37] Speaker A: Ja, das ist richtig. Genau.
[00:03:40] Speaker B: Und somit einer, der in der Branche sehr auch respektiert ist und wirklich wenige Leute, die, glaube ich, mehr grundsätzliche Ahnung vom Thema Künstliche Intelligenz haben. Und der kommt jetzt um die Ecke und Moment mal, das könnte aber auch gefährlich werden und ich habe keine Lust mehr bei Google zu arbeiten, weil ich eben über diese Gefahren aufklären will.
[00:04:02] Speaker A: Ja, das ist richtig. Also er hat, ich meine, das ist eigentlich ein Paradoxon. Einerseits ist er Wegbereiter der KI und hat viele wegweisende Sachen entwickelt und andererseits sagt er jetzt ja, ich warne jetzt vor den Möglichkeiten und vor den Gefahren und Risiken durch KI.
Also im Prinzip ist es ein ganz interessanter Wandel und ist auch wirklich ernst zu nehmen, weil er einfach sehr tiefen Einblick bekommen hat durch seine Forschung und durch seine Entwicklung, was mit KI möglich ist und was vielleicht auch irgendwann unkontrollierbare Dinge sind. Und ich weiß nicht, ob wir jetzt schon auf die Risiken konkret eingehen wollen oder Chris, willst du noch was beisteuern?
[00:04:53] Speaker C: Ja, ich wollte nur noch sagen oder hinzufügen, dass er nicht nur sich mit dem Thema super auskennt und viele Grundlagen auch erforscht hat selber, sondern der ist natürlich auch perfekt vernetzt. Also das heißt, der kennt halt auch die Leute, die das jetzt vorantreiben und natürlich trifft er sich auch mit denen und unterhält sich mit denen und dann auch von der Seite her, glaube ich, ist es wirklich hochinteressant, was der uns halt mitzuteilen hatte.
[00:05:17] Speaker B: Ja, und wenn wir heute darüber reden, dann beziehen wir uns hauptsächlich über ein kürzlich geführtes, längeres Interview in einem Podcast. Das sind aber Thesen, die der gute Mann auch schon eine Weile länger vertritt. Also vielleicht tun wir den Hörern jetzt auch den Gefallen, das einmal so ein bisschen zusammenzufassen, dass wir alle wissen, was denn die Diskussionsgrundlage ist.
[00:05:36] Speaker A: Ja, super. Ja, er hat also einmal dieses längere Interview Aber er hat auch selbst bei der Verleihung des Nobelpreises, hat er eindringlich vor diesen sechs Gefahren gewarnt.
Kann man sich auch bei YouTube angucken, werden wir auch in den Show Notes verlinken. Also einmal dieses längere Interview und auch andere Schnipsel, wo er immer wieder warnt. Und er bezieht sich auf sechs Warnungen. Einmal von im Prinzip von existenziell bis unmittelbar.
Und vielleicht die erste existenzielle Bedrohung, die er sieht, ist, dass wir irgendwann eine Superintelligenz haben werden, die einfach auch zu einem Kontrollverlust führen kann.
Also das ist eine seiner größten Sorgen, dass er sagt, eine Intelligenz, die wir entwickeln, die fähiger ist als wir selber, was wir im Moment einfach überhaupt nicht kennen, die wird einfach unkontrollierbar aus seiner Sicht.
Da hat er auch ein Beispiel gebracht. Also wenn wir, wenn wir uns überlegen, Nutztierhaltung oder im Prinzip alle Individuen hier auf der Erde, es gibt eigentlich niemand, der intelligenter ist als wir und wir haben die Kontrolle über eigentlich sämtliche Lebewesen, wenn wir so wollen, was die Intelligenz angeht. Also wir kennen diese Situation gar nicht.
[00:07:19] Speaker B: Also nach dem Motto, wir, der Mensch, sind das Schlauste, was es auf der Erde gibt, aber womöglich nicht mehr lange.
Und das allein ist ja jetzt erstmal noch keine Bedrohung an sich, sondern hauptsächlich erstmal eine vielleicht etwas unangenehme Vorstellung. Christian, wie stehst du dazu? Macht dir das Bauchschmerzen?
[00:07:38] Speaker C: Ja, ich kann mir das nicht richtig vorstellen, logischerweise. Und ich spüre deinen inneren Widerstand auch, aber ich weiß nicht mehr genau, wie hat er es formuliert. Man muss sich dann mal in die Rolle eines Huhns versetzen.
Vielleicht sind wir in Zukunft das Huhn. Also macht mir Sorgen. Natürlich ist mir aber zu abstrakt, ehrlich gesagt. Kann ich fast nichts mit, kann ich nicht richtig drauf reagieren.
[00:08:06] Speaker B: Ist auch wirklich, glaube ich, der, nennen wir es mal entfernteste, das entfernteste Bedrohungsszenario von denen, das vielleicht wirklich noch abstrakteste von denen, die er da aufführt. Ich habe das so ein bisschen so verstanden, dass er diese sechs Bedrohungsszenarien noch mal unterteilt.
Und zwar einmal in die, die wie so eine KI irgendwann selber aktiv werden und die andere ist aber die, die der Mensch durch den Missbrauch von KI ausführen kann. Das ist für mich ein bisschen greifbar. Vielleicht fangen wir damit an, wenn ihr da Lust drauf habt, weil da kann man meiner Meinung nach auch leichter zustimmen.
Aber ich gebe das Wort gerne noch mal zurück. Wer von euch beiden würde mir denn netterweise diese Punkte noch einmal zusammenfassen können?
[00:08:58] Speaker A: Ja, also was wir heute auch schon sehen als konkrete Gefahr ist einfach die Desinformation und sozusagen das Ende der der Überprüfbarkeit und Wahrheit, die wir sehen durch Deepfakes, durch massenhaft generierte Bilder, die nicht mehr überprüfbar sind. Und da wird es einfach wesentlich und wichtiger für uns, eine kritische Haltung gegenüber solchen Inhalten zu entwickeln und da auch eine Kompetenz einfach zu haben, die Quellen auch tatsächlich zu prüfen oder rückwärts zu prüfen.
Also das ist eine Bedrohung, die ganz konkret da ist.
Dann vielleicht als zweite Bedrohung, wenn wir darüber nachdenken, wenn die KI Tätigkeiten, die wir tun, schneller, sicherer und günstiger ausführen kann, dann kann das zu massenhaften Arbeitsplatzverlust führen.
Das heißt, wir stehen dann eigentlich vor einer neuen Herausforderung.
Wie gehen wir mit großer Arbeitslosigkeit um? Vielleicht gibt es einen generelles Grundeinkommen, was aber auch dazu führt, wenn wir keine Bestimmung mehr durch die Arbeit haben, Was haben wir dann für andere Tätigkeiten und das für einen Sinn, womit wir unser Leben bestreiten? Das vielleicht als zweite große gesellschaftliche Bedrohung.
[00:10:55] Speaker C: Das finde ich ist eine sehr konkrete Bedrohung, die sich auch sehr real anfühlt, auch vor allem, weil es tatsächlich einfach schon passiert. Also ich finde, man sieht schon im Arbeitsalltag, wie sich bestimmte Routinetätigkeiten plötzlich in Richtung KI verschieben lassen und man hört ja auch, wie dann jetzt in Bereichen weniger Leute eingestellt werden oder langsamer Leute eingestellt, weil einfach weniger Bedarf nach bestimmten.
[00:11:20] Speaker B: Profilen ist ja auch etwas, was man glaube ich so im Alltag in der Gesellschaft noch nicht direkt spürt. Ich finde, es ist auch immer noch so eine etwas schwebende Angst, ein etwas abstraktes Thema. Die KI wird uns die Jobs klauen und an einigen Punkten, wie du gesagt hast, erkennt man das schon, aber wir sehen jetzt noch keine konkreten Graphen mit Massenarbeitslosigkeitszahlen, aber wir schlittern da so ein bisschen sehenden Auges rein und wissen noch nicht so richtig, wie wir damit umgehen können.
Was sind die Möglichkeiten? Also du hast es eben ganz kurz angesprochen, ein generelles Grundeinkommen.
Der Arbeitsmarkt wird sich wandeln, es werden vielleicht auch andere Jobs entstehen, aber das sind ja riesige Umwälzungen. Das ist etwas, was nicht von heute auf morgen geht und wo einfach auch eine ganze Menge Reibungsverluste entstehen, wenn man das so sagen kann, oder?
[00:12:13] Speaker A: Ja, auf jeden Fall. Und da ist die sind wir darauf vorbereitet?
Das ist wirklich.
Und ich habe das Gefühl, wir sind im Moment noch nicht darauf vorbereitet. Also Einzelne, die sich intensiv damit beschäftigen vielleicht schon, aber die antworten, die müssen ja eher auf Regierungs oder globaler Ebene kommen. Zu dem und jeder Einzelne kann sich schlau machen, aber wir brauchen auch entsprechende Regulierung und entsprechende Steuerung. Also sonst kann das ziemlich unvorhersehbar werden alles.
[00:12:59] Speaker C: Also ich finde jetzt zum Thema Arbeitslosigkeit, da bin ich auch selber so ein bisschen gespalten. Auf der einen Seite ist natürlich eigentlich großartig, wenn wir die gleiche Produktivität oder mehr mit weniger menschlichen Arbeitseinsatz haben. Also könnte man ja quasi paradiesisch sehen, wenn man es schafft, dass halt jetzt dadurch nicht 80 Prozent der Bevölkerung. Irgendwie in Armut landen.
Das wäre natürlich unschön.
Ich glaube, was wir auf jeden Fall erreichen müssen als Gesellschaft ist, dass wir anders über Arbeitslosigkeit denken und das auch anders gesellschaftlich behandeln. Also in den Medien und in der Politik ist ja eigentlich immer so unterschwellig das Ziel Vollbeschäftigung. Also alle müssen eine Arbeit haben, dann ist alles gut und daran wird gemessen und wenn die Arbeitslosenquote sinkt, dann ist das prima. Ich glaube, die Zeit ist aber eigentlich vorbei. Also in Zukunft brauchen wir andere Kennzahlen und müssen halt schauen, wie wir vielleicht die verbleibende Arbeit umverteilen.
Und ich glaube, da werden ganz neue Modelle gefunden werden müssen. Und ich hoffe, dass wir als Gesellschaft uns damit beschäftigen, konkret und Lösungen finden, bevor jetzt hier größere Anteile der Bevölkerung wirklich arbeitslos sind. Weil ansonsten ist ja die Gefahr einfach riesig, dass es dann populistische Strömungen gibt und sich daraus dann ganz neue Konflikte ergeben, die wir eigentlich gar nicht zusätzlich jetzt brauchen.
[00:14:26] Speaker B: Ja, sehr guter Punkt. Denn grundsätzlich, wie du das gesagt hast, ist der Wunsch des Menschen, seine Erfüllung in deiner täglichen Arbeit zu finden, ja ein relativ, ich will jetzt nicht sagen veralteter, aber schon ein Gedanke, den man mit ein bisschen Hin und Herdenken auch vielleicht abstreifen oder überwinden kann. Wichtig ist, dass wir Menschen, glaube ich schon irgendeine Art Erfüllung brauchen, die dann bitte, wenn ich den Punkt auf den ersten Kritikpunkt ziehe, nicht daran liegt, dass wir uns die ganze Zeit in Social Media damit beschäftigen, Fake News oder irgendwelche virtuellen Influencer zu erschaffen oder mit rumzuschlagen. Das wäre dann tatsächlich irgendwie auch der Gegenbeweis und auch der Punkt dahinführend, was du, was du angedeutet hast, einfach eine Gesellschaft, die in so einem Umbruch ist, ordentlich zu destabilisieren. Da führt ja auch der Punkt dazu, dass alles das, was jetzt aus dem Arbeitsmarkt rausgeht, erstmal in die großen amerikanischen Tech Konzerne oder von mir aus auch noch die chinesischen geht und wir da irgendwie tatsächlich in einem Kräfteverhältnis sitzen, das uns vom Prinzip her schon nicht gefallen sollte.
[00:15:34] Speaker C: Ja, ich könnte jetzt hierzu noch ein kleines Zitat einspielen. Ich mach mal, ich würde darum bitten.
Und zwar gibt es da eine Stelle jetzt auch in diesem besagten Podcast, da hat er fast schon so eine Art Positivvision angedeutet. Ich spiele es mal ein und dann können wir darüber sprechen.
[00:15:55] Speaker D: In other jobs like in healthcare, they're much more elastic.
So if you could make doctors five times as efficient, we could all have five times as much healthcare for the same price and that would be great.
There's almost no limit to how much healthcare people can absorb. They always want more healthcare if there's.
[00:16:14] Speaker A: No cost to it.
[00:16:15] Speaker D: There are jobs where you can make a person with an AI assistant much more efficient. And you won't lead to.
[00:16:29] Speaker C: Fand ich einen super interessanten Gedanken. Auch den Begriff finde ich irgendwie schön. Mit der Elastizität könnte man die Aufgabe von ableiten, als Gesellschaft zu schauen, wo gibt es denn solche quasi elastischen Bereiche, wo wir eigentlich viel mehr Bedarf hätten, den aber gar nicht abbilden können, den wir vielleicht aber jetzt durch KI bedienen könnten.
Da ist so eine Hoffnung einer Positiventwicklung drin für mich.
[00:16:54] Speaker A: Ja, finde ich einen sehr guten Punkt. Also es gibt da noch weitere Themenfelder ganz bestimmt. Also zum Beispiel das ganze Bildungswesen, Lehrerjobs und Professoren, die haben oft viel zu wenig Zeit, individuell auf ihre Schülerinnen und Schüler einzugehen.
Und die KI kann da wirklich Möglichkeiten bieten, dass wir viel individueller, viel zielgerichteter und auch die Lehrer entlasten von vielen administrativen Tätigkeiten hin zu wirklich der Arbeit mit und an den Schülern. Also das finde ich auch ein ganz großes Potenzial da. Dazu werden wir auch zukünftig sicher auch noch einen Podcast machen.
[00:17:44] Speaker B: Bildung ist sowieso ein großes Thema bei uns und wir schaffen das jetzt auch nicht, die ganzen Kritikpunkte alle im Einzelnen auseinanderzunehmen. Deswegen versuche ich aus diesem Thema jetzt mal sauber rauszukommen, indem wir Wie schön wäre es, wenn der Staat genug Steuereinnahmen aus irgendwelchen Unternehmen und Konzernen gebilden bekommt, um ganz viele Staatsbedienstete einzustellen, die in Bildung, Pflege und so weiter gemeinsam mit KI uns ein ein Mehr an Service bieten. Ist das so der positivstmögliche Ausgang aus diesem Thema? Dann kommen wir nämlich direkt zum nächsten Hammer. Ich habe mir hier auf der Liste aufgeschrieben Cybersicherheit und Cyberangriffe. Das ist auch ein ganz riesiges Thema, was auch wieder der Mensch mit KI wird dann zur Bedrohung, weil einfach KI so viel mehr technische Möglichkeiten auch für weniger Bedarf oder für Leute bietet, die sonst vielleicht erstmal einen ganzen Staat hinter sich gebraucht hätten.
Wie steht ihr zu dem Thema? Wie habt ihr das aufgenommen? Gregor.
[00:18:46] Speaker A: Ja, also absolut. Ich meine, das ist ja jetzt schon also der Missbrauch durch, weiß nicht, durch Phishing oder andere Möglichkeiten und die nehmen exorbitant zu jetzt durch den Einsatz von KI.
Und ja, vielleicht kann ich Christa auch noch mal das Wort geben.
[00:19:13] Speaker C: Also das finde ich ist so eine Gänsehaut Problematik hier.
Ich finde, da kann einem sogar schlecht bei werden.
Das Schlimme an dem Thema, das Gefährliche an dem Thema für mich ist, was ja in den letzten Monaten in der Softwarebranche passiert ist, dass mit generative KI halt zunehmend richtig guter Code geschrieben wird und die Entwickler, ganz Normalentwickler, jetzt nicht Hacker, aber ganz Normalentwickler halt dadurch auf einmal wahnsinnig produktiv werden, indem sie einfach reinprompten, was geschrieben werden muss oder noch besser eine Fehlermeldung oder ein Stück Programmcode da reinschmeissen. Und es ist unglaublich zu sehen, wie kompetent die KI darauf reagiert. Und wenn man sich jetzt vorstellt, dass du quasi einen KI Bot dir baust, der dann systematisch in unbegrenzter Zeit, weil er kann ja Tag und Nacht dran arbeiten, nach Lücken sucht in Softwarebibliotheken, die global benutzt werden und sich dann da Angriffstaktiken überlegt. Also das ist gruselig hoch wahrscheinlich, dass es passiert, werden wir diesen Podcast aufzeigen und ich hoffe nur, dass die Guten, die Gegenseite die gleiche Technologie einsetzen, um halt auch Lücken aufzuspüren und um Angriffsvektoren frühzeitig zu analysieren, zu verstehen und darauf zu reagieren.
Also wird weitgehend im Hintergrund passieren, werden wir nicht viel mitbekommen, außer wenn plötzlich der Strom ausfällt europaweit oder sowas, dann kann man mal drüber nachdenken. Aber das ist ein Thema, was sofortige und echte Aufmerksamkeit unbedingt braucht.
[00:20:56] Speaker B: Aber ein Thema, was es auch vorher schon gab, so dieses bisschen dieses Katze und Maus Spiel zwischen Gut und Böse, was jetzt aber einfach noch mal extrem beschleunigt wird durch die technischen Möglichkeiten. Wer sind denn aber in dem Szenario die Guten? Auf wen müssen wir denn vertrauen und hoffen, dass die uns da den Allerwertesten retten?
[00:21:13] Speaker C: Den Allerwertesten, ja. Tja, das ist eine gute Frage. Also im schlimmsten Fall muss auch hier leider der Staat ran oder staatlich geförderte Unternehmen oder Organisationen müssen daran.
[00:21:30] Speaker A: Ja, also vielleicht wären es auch die Entwickler der besten Modelle, also die auch Geld dafür kriegen, solche Sicherheitsthemen zu adressieren, weil die haben die im Prinzip, die haben den Vorsprung durch die Innovationen, die sie in ihren Laboren machen. Und wenn die Systeme dazu einsetzen, solche Lücken zu finden, die Chris gerade beschrieben hat, dann sind die vielleicht noch einen Schritt voraus vor den Leuten, vor den Hackern, die versuchen, diese Lücken zu finden und für sich auszunutzen. Also eigentlich müsste es eine staatliche Aufforderung an die Labore für solche Sicherheitsmaßnahmen auch geben.
[00:22:19] Speaker B: Können wir da auf die großen Konzerne hoffen, also die Googles dieser Welt, die natürlich daran bedacht sind, ihr System zu schützen und die Open Anthropic fällt mir gerade ein, die KI Firma aus den USA, die da dann doch auch Forschung betreiben in die Richtung Können wir uns darauf verlassen?
[00:22:38] Speaker C: Verlassen? Kann sein, dass wir dann verlassen sind, wenn wir uns auf die verlassen. Gleichzeitig finde ich den Gedanken aber total klug. Gregor Also streng genommen müsste es da so eine Art TÜV geben oder sowas, der zumindest staatlich wäre, der bevor ein Modell ausgeliefert wird, das zum Beispiel überprüft. Wie weit lässt sich jetzt die nächste GPT-5 Version zum Beispiel benutzen, um halt solche Hacker Szenarien aufzusetzen?
Könnte man machen. Also wir haben zumindest rausgefunden, wer es bezahlen muss. Also bezahlen müssen die, die dann mit den Modellen jetzt auch die Umsätze und Gewinne machen.
Davon muss auf jeden Fall was abgezwackt werden, um jetzt nicht die Risiken dann quasi einfach nur zu sozialis.
[00:23:25] Speaker A: Ja und der Wettbewerb, der führt halt nicht unbedingt dazu, dass sie diese Sicherheitsprüfungen jetzt von alleine machen. Die werden maximal viel Rechenleistung dafür einsetzen, die Modelle zu trainieren und Dienstleistungen, die sie entwickeln, flüssig anbieten zu können. Also eigentlich braucht es da vielleicht auch eine Regulierung, die sagt, ihr müsst bestimmtes Anteil an Rechenleistung dafür einsetzen oder für Sicherheitssysteme verwenden.
Irgendwie sowas.
[00:24:03] Speaker C: Ich finde eine schöne Analogie ist jetzt hier Medizinbranche oder Arzneibranche. Also niemand würde auf die Idee kommen, jetzt irgendeinem Konzern zu erlauben, ein ungetestetes, genetisch manipuliertes Krebsheilmittel oder sowas auf den Markt zu werfen, um mal zu gucken, wie es funktioniert. Also da völlig klar, dass das erst geht, wenn da bestimmte Tests abgenommen sind und Prozesse durchlaufen wurden, auch wenn das Monate oder Jahre dauert. Aber jetzt hier im Bereich KI Modell scheint man irgendwie zu denken, dass das alles nicht so schlimm ist, weil es ist ja am Ende nur Software oder sowas. Also da müssen wir auf jeden Fall als Gesellschaft auch noch mal ein Schrittchen weitergehen und das können wir so nicht einfach laufen lassen. Dafür ist das zu gefährlich.
[00:24:44] Speaker B: Ja, absolut. Auch wieder ein Thema, wo wir, glaube ich, nicht zu einem befriedigenden Ergebnis kommen, eben weil es natürlich auch nicht umsonst eine mögliche Bedrohung von Jeffrey hinten ist, die er betont, wenn wir sie jetzt hier heute lösen könnten, dann wäre es ja, wenn wir nicht hier, sondern woanders.
Nächste Bedrohung ganz konkret. Also neben dem Cyberangriffen gibt es tatsächlich auch die Möglichkeit der autonomen Kriegsführung, so glaube ich wurde es ungefähr genannt.
Wir sehen jetzt schon in der Ukraine ist sehr viel mit Drohnenkrieg, wenn die dann irgendwann von der KI gesteuert werden und zielgerichtet auf Leute fliegen, auch nicht weniger gruselig, ehrlicherweise.
[00:25:21] Speaker C: Sehr unschönes Thema. Also auf der einen Seite kann das jetzt mal positiv gesponnen, kann das das Ende von großflächigen Kriegen bedeuten, weil halt also jetzt eine Drohne ist ja vergleichsweise billig und wenn jetzt zum Beispiel einfach global die KI jedem zur Verfügung stünde, sich seine eigenen Verteidigungsdrohnen zu bauen, dann also klassischer oh, wir fahren ja mit Panzern in ein Land und besetzen das. Das hat man in der Ukraine schon gesehen. Mit relativ günstigen Mitteln kann man sowas dann plötzlich verhindern oder abmindern zumindest.
Aber es kann natürlich auch sein, wenn jetzt da irgendwie die Übermacht zu groß ist von irgendeiner Nation, die dann halt quasi die KI Power hortet und dann die am weitesten entwickelten Modelle hat, ist das Gegenteil der Fall. Dann hast du auf einmal so eine komische Welt, wo du nicht mehr auf die Straße gehen kannst, weil überall Drohnen rumschwirren, die dann halt Jagd auf irgendwen machen, warum auch immer oder so. Also das sind eher so Horrorfilmszenarien, die wir nicht in echt sehen wollen, würde ich sagen. Schwieriges Thema.
[00:26:32] Speaker A: Schwierig, ja. Und jetzt die Staaten oder die Institutionen, die dann technologischen Vorsprung haben, die hätten dann da in der Kriegsführung einfach auch einen großen Vorsprung. Und die Frage ist, ob es vielleicht ähnlich wie bei chemischen und biologischen Waffen internationale Abkommen dazu braucht, also die einfach verhindern, dass sowas entwickelt oder überhaupt, dass sowas eingesetzt wird.
Das wäre eine Maßnahme, wo man drüber nachdenken muss.
[00:27:14] Speaker B: Absolut. Und wo wir irgendwie bis vor ein paar Jahren vielleicht auch noch mehr Vertrauen in die Welt gehabt hätten. Im Moment, finde ich, sieht es nicht mehr ganz so stabil aus, hüben wie drüben, wo man hinguckt. Und da kann man wirklich einfach nur hoffen, dass wir da irgendwie mit einem blauen Auge rauskommen aus dieser Phase, ohne dass die KI uns da allzu sehr in die Karre fährt.
[00:27:42] Speaker C: Das Schwierige ist ja halt, dass anders als jetzt bei biologischen Waffen oder chemischen oder Nuklearwaffen, wo du dann von mir aus noch Plutonium oder irgendwie ein verrücktes Labor brauchst, was dann erstmal mit vielen Mitteln aufgebaut werden muss, die KI, die du benutzt, um jetzt, was weiß ich, eine Bilderkennung in eine Fabrik einzubauen, um fehlerhafte Produkte schneller zu erkennen oder sowas, die Maße mit sehr wenig Aufwand kannst du dir auch so umprogrammieren oder umkonzipieren, dass sie dann halt auf einmal Jagd auf irgendwen oder was macht oder sowas. Also das Schwierige ist, oder die Gefahr, die hier drin schwebt, ist irgendwie, das ist halt die Eintrittsschwelle, die ist viel, viel, viel niedriger als bei so klassischen, richtig bösen Waffen, würde ich sagen. Und das lässt sich auch sehr schwer überwachen, fürchte ich. Also blaues Auge davonkommen ist wichtig.
Hier brauchen wir unbedingt eine Lösung, die wir. Also da ist Hoffnung alleine, glaube ich, nicht ausreichend, aber ich habe leider jetzt hier auch keinen genialen Vorschlag vielleicht da draußen irgendwer, wenn ja, bitte unbedingt tut was.
[00:28:47] Speaker B: Wenn du die Idee hast, dann sag Bescheid, dann schlage ich dich für den UN Sicherheitsrat vor.
Bis dahin, glaube ich, waren das im Groben und Ganzen die Themen, die Jeffrey Hinten angesprochen hat, wo es darum geht, dass der Mensch diese neue Technologie, nämlich die KI, missbrauchen kann für seine Zwecke. Das war es im Großen und Ganzen. Und das andere Thema, das wir ganz am Anfang angesprochen haben, das würde ich jetzt zum Ende hin des Podcasts vielleicht noch mal ein paar Minuten lang gerne ein Stück weit, ich wollte kurz auseinandernehmen sagen, aber ich möchte es zumindest einmal neugierig hinterfragen. Ich finde nämlich, dass der gute Herr Hinten in dem Punkt, wo er sagt, die Superintelligenz wird schlauer als wir und das allein ist schon als Bedrohung genug anzusehen, etwas schwach. Also mir fehlt da so ein bisschen die fundierte Grundlage und ich habe so das Gefühl, dass er jetzt als freier Sprecher vor den Risiken der Welt ein bisschen auf die Hollywood Filmdrüse drückt, wenn er davon spricht, dass eine Superintelligenz irgendwann in der Lage sein wird oder beziehungsweise der Meinung sein wird, dass wir Menschen doch überflüssig werden.
[00:29:58] Speaker C: So, so, ja.
[00:30:03] Speaker A: Also ich glaube, seine Angst ist, oder er sieht die Gefahr da, dass die Superintelligenz eigene Ziele entwickelt und sozusagen einen Selbsterhaltungsdrang entwickelt und jegliche Maßnahmen der Kontrolle oder auch der Abschaltung versuchen wird, aus diesem Grund zu verhindern oder zu hintergehen.
Und sie wird vielleicht versuchen, selbst eine Kontrolle zu übernehmen über Ressourcen, die zur Verfügung stehen, Rechenressourcen oder über den Code oder über andere Dinge. Und wenn sie erkennt, dass der Mensch ihr da im Weg steht, das sind die Bedenken, dass sie alles dafür tun wird, dass der Mensch das nicht tut.
[00:31:04] Speaker B: Aber warum sollte die KI das Bedürfnis entwickeln, die Menschheit abzuschalten, loszuwerden, sich dagegen zu wehren?
Wo ist die Motivation in der KI? Christian, du bist am nächsten dran an eine Superintelligenz. Jetzt mental.
Wie verstehst du das?
[00:31:19] Speaker C: Ich bin am weitesten entfernt von einer Superintelligenz. Aber also da gab es doch dieses, da gab es doch diesen tollen Versuch von der US Air Force zum Thema autonome Drohnenoptimierung der das eigentlich sehr schön beschreibt. Also die Motivation, die ist Die KI muss eine Motivation haben, um ein Problem zu lösen. Also der Mensch wird auf jeden Fall du gibst ihm ja immer ein Problem und das wird er dann versuchen zu lösen. Und anders als als wir denkt die halt viel breiter und in viel mehr Szenarien, die sie halt dann viel schneller durchrechnen kann. Und die Verdichtung der Menschheit wäre quasi kollateral. Ich glaube auch nicht, dass die KI sagt, so heute müssen wir die Welt, die Menschheit vernichten, sondern eher so wie in diesem Versuch von der Air Force. Da hat die KI nur ganz kurz die Aufgabe bekommen, quasi die Abschlussrate durch autonome Drohnen in einer Simulation wohlgemerkt. Aber die KI wusste nicht, dass es nur eine Simulation ist, zu optimieren und gab einfach jeden Abschluss, gab es einen Punkt und es gab die Aufgabe, typisch Mensch, hier mach, was du machen musst, um deine Abschlussquote zu erhöhen.
Und genau das hat die dann gemacht. Und die KI hat dann aber relativ schnell festgestellt, dass das, was sie am meisten ausgebremst hat, die Rückkopplung war, die sie immer beim menschlichen Operator hatte, um zu bestätigen, ob sie jetzt Ziel XY oder Z angreifen darf.
Und die KI hat dann halt völlig unzensiert einfach überlegt, wie kann ich schneller mehr Leute töten quasi und hat entschieden, dass der Operator das Problem ist und hat in der Simulation eine Rakete auf den Operator geschickt, um diese Rückkopplung abzuschalten. Große Empörung bei den KI Engineers. Die haben danach das Ding umgepromptet und gesagt, hier, das darfst du nicht. Operator töten ist verboten. Was hat die KI im nächsten Anlauf gemacht?
Die hat den Funkturm zerstört, über den sie mit dem Operator kommuniziert hat.
Und an der Stelle wurde das Experiment, glaube ich, abgebrochen, weil man gemerkt okay, Achtung, in dem Moment, wo die KI selbstständig versucht, ein Problem zu lösen, kann es passieren, dass die quasi aus dem Versuchskorridor gedanklich entweicht und dann Wege einschlägt, die wir nicht wollen. Also zum Beispiel, wenn du in der KI jetzt beauftragst damit löst doch mal das Problem des Global Warmings.
Keine Ahnung, vielleicht entscheidet die KI einfach, dass 8 Milliarden Menschen zu viel sind für die Ressourcen, die wir haben und dass es besser wäre, wenn einfach 4 Milliarden Menschen weg sind. Und die einfachste Möglichkeit, das zu erreichen, inklusive Abkühlung, wäre ein Atomkrieg mit nuklearem Winter. Für zehn Jahre oder so was. Und wenn die dann aber mittlerweile schon in irgendwelchen Kampfmaschinen rum agiert, die KI oder sowas, dann ist es jetzt, ist jetzt nicht total ausgeschlossen, dass es dann aus Versehen zu einem Ergebnis kommt, das wir eigentlich gar nicht vorgehabt haben.
[00:34:14] Speaker A: Also hinten schätzt auch die Wahrscheinlichkeit, dass die KI zum Aussterben der menschheit führt, auf 10 bis 20 Prozent.
Und naja, das ist jetzt vielleicht seine Schätzung, aber wenn man andere Experten fragt, die sagen auch nicht, die Wahrscheinlichkeit ist null.
Und ich finde es interessant, ich würde jetzt eigentlich nicht in Flugzeug steigen, wenn mir der Pilot sagt, kurz vorm Start, die Wahrscheinlichkeit, dass wir alle abstürzen, ist 10 bis 20 Prozent. Da würde ich okay, lass mich bitte wieder aussteigen.
Aber ich glaube, wir müssen uns einfach dieser Risiken bewusst sein und damit proaktiv umgehen und das nicht einfach auf uns zu auf uns zu rennen lassen, so wie es im Moment passiert.
[00:35:07] Speaker C: Ich glaube auch, Hannes, was jetzt hier das Beispiel oder dein Gegenpunkt angeht, mit deinem Zweifel, dass das jetzt halt die KI sich gegen uns wendet nach und nachvollziehbar, was mich so ein bisschen nachdenklicher stimmt ist, und da geht er auch in seinem Podcast, in diesem Interview geht er auch da darauf ein, die KI ist jetzt schon in der Lage, technisch sich selber zu verbessern.
Also die guckt sich halt Programmcode an, guckt sich Modelle an und Trainingsmethoden und kann dann selber Vorschläge machen, wie man das verbessert quasi. Und das kann sie natürlich sehr schnell und sehr, sehr effektiv und damit kann sie sich selber verändern in der Art und Weise, die uns Menschen total fremd ist, weil wir sind mit unserem genetischen Pool geboren und aus dem machen wir dann was. Wir können jetzt nicht auf einmal, was weiß ich, uns neues Wahrnehmungsorgan noch irgendwie selber züchten oder sowas. Wir sind das, was wir sind. Die KI könnte das aber unter Umständen. Und wie gesagt, wenn man sich anguckt, wie schnell die jetzt schon gute, echt gute Software schreibt, dann ist es für mich jetzt nicht total utopisch, dass die sich irgendwann selber so optimiert, dass wir sie selber nicht mehr wirklich verstehen können.
[00:36:25] Speaker B: Ja, die KI, also wir Menschen sind auf einen IQ von 140, 150 oder sowas maximal beschränkt. Dann hören die letzten Experten auf noch irgendwie weiterzugehen. Die KI, und da können wir wirklich, glaube ich, alle von ausgehen, wird sich in den nächsten 1, 2, 3 bis 5 Jahren stetig weiter verbessern und dadurch, dass sie sich selbst verbessern wird, auch eben so exponentiell verbessern, dass sie irgendwann über Dinge nachdenken wird, die wir nicht mehr verstehen. Und dann ist die KI nur noch dazu da, um uns in unserer einfachen Sprache zu erklären was die Neues erfunden hat.
Aber sind wir nicht mit der KI zu eng verbunden oder ist die KI nicht zu sehr am Menschen lang entwickelt oder auf dem Menschen hin entwickelt? Also andersrum, wir schließen ja mal aus, dass sie so eine tierische Motivation hat, irgendwie ihr Überleben zu sichern, dass sie irgendwelche Dopaminergen oder Adrenalin Mechanismen hat, die ihr einen Überlebenssinn zusprechen, der irgendwie erfordert, dass die Menschen getötet werden, damit sie mehr Strom aus ihnen rauspressen kann, wie es in der Matrix war oder so. Das würde ich jetzt mal ausschließen. Das ist so ein bisschen das Szenario, was vielleicht manchmal mitschwingt, wenn man sagt, die KI wird irgendwann motiviert sein, uns Menschen zu töten.
Wird sie dann aber auch die Menschheit aus bewusstem Interesse, weil sie eben sagt, naja, ich muss jetzt aber das Klima retten, dafür sterben die Menschen deswegen auslöschen? Oder ist sie an unserer Kultur, an unseren Texten, an unserem Leben hochgezogen und weiß im Grunde, dass die Menschheit das größte Ziel hat, sich selbst zu erhalten? Also wo ist die, wenn es nicht ein fataler Fehler oder ein menschlicher Einspruch ist, wo ist von der KI die Motivation, wirklich die Menschheit als nicht wichtig genug zu erleben, wenn sie denn dann auch noch so viel schlauer wird? Ich denke, Intelligenz führt auch dazu, dass man vielleicht nicht unbedingt auf Auslöschung setzt.
[00:38:37] Speaker A: Ja, also wir müssen dafür sorgen, dass sie ein Wertesystem hat, was einfach nicht dazu führt.
Also auch wenn sie intelligenter ist als wir. Und das Wertesystem, unsere Werte, die verhindern ja auch, dass wir andere Menschen einfach umbringen, nur weil sie uns irgendwie, keine Ahnung, Parkplatz wegnehmen oder irgendwas.
Und er hat auch ein gutes Beispiel dargebracht, also zum Beispiel die elterliche Fürsorge.
Kleinkind oder ein Baby ist ja wesentlich weniger intelligent als wir selber, aber wir kümmern uns trotzdem sehr aufopferungsvoll und fürsorglich um dieses kleine Baby oder wir haben Haustiere, für die wir alles tun. Hunde, Katzen, Meerschweinchen. Die werden wir nicht quälen und würden alles für sie tun, damit es ihnen gut geht, obwohl sie weitaus weniger intelligent sind als wir.
So ein Wertesystem gilt es zu etablieren und zu verhindern, dass sie halt so ein Eigenleben führt, was gegen unsere Werte spricht.
[00:40:07] Speaker B: Das Haustierbeispiel ist für mich ein sehr schönes Gegenbeispiel, muss ich sagen, weil ich das einfach umdrehe und Naja, jetzt ist in fünf Jahren die KI so viel schlauer als wir. Sie ist unser großer Bruder, unser Herrchen, unser alles Kontrollierendes und wir sind die dummen Haustiere, die tatsächlich einfach den Anspruch, die intelligenteste Lebensform zu sein, verloren haben. Und das wird vielen auch nicht gefallen.
Aber vielleicht ist die KI tatsächlich ja dann unser großer Bruder und Freund und belegt uns mit einem ganz eigenen Wertesystem, was nicht von Religion geprägt ist, was nicht von einem Gartenzaun geprägt ist oder von irgendwelchen Grenzen geprägt ist, sondern sie hat uns Menschheit ein allumfassendes, allwissendes Wertesystem auferlegt, wo jeder seine Befriedigung und sein Glück finden kann. Wäre das nicht mindestens mal genauso möglich, wenn die KI denn doch so intelligent wäre?
[00:41:02] Speaker C: Das hängt halt, ja, also hängt halt total davon ab, wie sie gebrieft wird. Also seine Sorge ist jetzt ja, dass aus kurzfristigem Kommerzinteresse eben nicht genug Zeit und Kapital investiert wird, um solche Mechanismen zu schaffen. Ich glaube, dass er schon denkt, dass man das könnte, aber er macht sich halt Sorgen, dass das nicht, dass das nicht ausreichend passiert. Und das bringt mich auch so ein bisschen zu so ein bisschen Kritik an seinem Beitrag, muss ich sagen. Ich finde die Problembeschreibung finde ich sehr gut, also sehr eindringlich rüttelt auf, definitiv, aber ich finde sie sehr schwach. Seine Beiträge in Bezug auf konkrete Vorschläge. Also für jemanden, der sich jetzt wirklich auskennt und mit den wesentlichen Leuten in einem relativ engen Kontakt steht, vermutlich, finde ich, ist das sehr blass. Also er spricht dann immer von Regulation, die da nötig wäre und dass das alles irgendwie moderiert werden muss. Aber er sagt nicht genau wie und Leute wie Wir wären wahrscheinlich dankbar dafür, wenn uns ein Experte sagen würde, okay, Achtung Leute, das und das muss jetzt ganz konkret in der und der Gesetzform da und da eingebracht werden oder sowas. Jetzt sitzen wir hier mit der Sorge und müssen uns jetzt selber überlegen, wie wir damit umgehen, ohne sein Expertenwissen selbst zu haben.
[00:42:20] Speaker B: Das ist ein guter Punkt und ich würde sagen, der Gute hat auch nicht wirklich die perfekte Lösung zur Hand. Aber wichtiger Punkt, den du erwähnt hast, ist, er sagt ja, was sollen wir machen? Einfach mal zwischendurch Pause machen, innehalten und überlegen, was man besser machen kann. Und er sagt aber gleichzeitig, das geht ja nicht, weil zum einen der Nutzen so groß ist von dieser KI und der Wettbewerb eben so groß ist. Also alle rennen da irgendwie, dass das sogenannte KI Rennen irgendwie hinterher und jeder will der Erste sein und dass da Fehler passieren, unfertige Dinge auf den Markt kommen oder eben etwas nicht ganz durchdachtes. Das kann sehr gut passieren. Da kann man eigentlich nur hoffen, dass die KI wirklich irgendwann an dem Punkt ist, wo sie sich selbst verbessert und sich in eine richtige Richtung verbessert, ohne dass wir Menschen sie verworzen können.
[00:43:11] Speaker C: Ich denke aber, der wichtige Appell ist auch vielleicht mit diesem Podcast und allem anderen, was wir mit dem Verein gemeinsam mit KI machen, ist, das ist nichts, wo man jetzt abwarten kann. Das ist nichts, wo man jetzt einfach auf die nächste Version davon wartet, bis das irgendwer repariert hat, sondern hier sind wir jetzt wirklich als Gesellschaft gefordert. Also wir müssen uns damit auseinandersetzen, wir müssen dafür im Dialog sein und wir müssen auch die Leute, die jetzt die Entscheidungen politisch umsetzen, irgendwie dahin kriegen, dass das Thema priorisiert wird.
Also was Besseres, Konkreteres fällt mir jetzt im Moment auch nicht ein. Aber nichts machen ist definitiv keine Option.
[00:43:51] Speaker A: Ja, also wir sind ja als GMKI, als Gemeinsam für Künstliche Intelligenz einfach da angetreten, öffentliche Aufklärung zu betreiben und ich glaube, das hilft auf jeden Fall über Potenziale, aber auch Risiken zu sprechen, als Verein Leute darauf aufmerksam zu machen, Leuten KI näher zu bringen und aber auch Ethikkodex oder einfach bestimmte Aufklärungsarbeit zu betreiben. Das finde ich ganz wichtig und das.
[00:44:26] Speaker B: Könnt ihr auch machen, liebe Zuhörer. Zum einen, wenn ihr auf GMKI Org euch informiert, was wir so machen und da am besten mitmacht, mitdiskutiert, euch mit uns trefft und eure Ideen und Vorschläge auch mit einbringt, genauso wie in diesen Podcast bitte an Podcast im KI Org und ansonsten auch nächstes Mal wieder einschalten, denn wir versuchen genau über solche Themen hier zu diskutieren, auch wenn wir nicht immer eine Lösung haben, haben wir zumindest viele gute Ideen in alle Richtungen, würde ich behaupten. Und in diesem Sinne danke ich heute dem Christian und dem Gregor.
Schön, dass ihr da wart.
[00:45:01] Speaker C: Wie immer spannend und interessant. Danke, Hannes.
[00:45:05] Speaker A: Vielen Dank, Hannes und bis zum nächsten Mal dann.
[00:45:08] Speaker B: Tschüss.