Wenn Bots mit der Wahrheit nicht umgehen können: Künstliche Intelligenz und Aktivismus

Computergeneriertes simuliertes Aquarell von 7 Menschen, die vor der Brooklyn Bridge weinen

Von Marc Eliot Stein, World BEYOND War31. Juli 2023

Dies ist eine vollständige Abschrift von Episode 50 von World BEYOND War: ein neuer Podcast.

Es ist Juli, der heiße Sommer 2023. Sie wissen, wer ich bin, ich bin Marc Eliot Stein, Technologiedirektor von World Beyond War, immer noch hier in den Lanape-Gebieten von Brooklyn, New York, immer noch hier auf der Welt das Richtige tun World Beyond War Podcast, Außer heute ist es etwas Besonderes, weil es Folge 50 ist, wow, eine runde Zahl.

Als ich diesen Podcast gestartet habe, habe ich wohl nie darüber nachgedacht, ob ich es jemals auf 50 Folgen schaffen würde oder nicht. Die Zahl 50 wäre damals sicher nicht realistisch erschienen. Ich schätze, ich habe mich hauptsächlich gefragt, ob ich Episode Nummer 1 jemals fertigstellen würde, und es gab ein paar knappe Momente, in denen ich aufgeben musste, bevor ich es geschafft habe.

Und jetzt bin ich 50 und es ist eine große Freude, zu erkennen, dass wir herausgefunden haben, wie wir diesen Antikriegs-Podcast tatsächlich zum Laufen bringen können, und ein Publikum gefunden haben, das jeden Monat wächst. Ich bin so stolz auf diesen Podcast und allen dankbar, die bisher dabei waren.

Podcasting ist ein einzigartiges kreatives Format. Es ist nicht wie alles andere. Ich weiß das, weil ich selbst Podcast-süchtig bin. Ich habe mindestens 20 regelmäßige Sendungen, die mir wirklich am Herzen liegen – über Geschichte, Politik, Technologie, Musik, Literatur, Fernsehen, Filme. Wenn ich Lust habe, mich zu entspannen und gleichzeitig mein Wissen zu erweitern, gibt es wirklich kein anderes Format, das so gut ankommt wie ein Podcast. Ich denke, das ist ein wichtiger Unterschied: Nehmen Sie beispielsweise einen Moderator und einen Gast an einem Webinar oder einem Livestream-Chat teil, und sie werden eine Art von Gespräch führen, aber wenn Sie dieselben beiden Personen in ein Podcast-Interview einbinden, dann irgendwie Ich werde eine andere Art von Gespräch führen – wahrscheinlich persönlicher, spontaner, ausschweifender, mehr im Moment, weniger darauf ausgerichtet, zu einem Abschluss zu gelangen.

Warum ist das genau so? Ich weiß es nicht, aber der verstorbene Medien- und Technologiephilosoph Marshall McLuhan schrieb 1964 etwas darüber, wie schnell die neue Popularität des Fernsehens die moderne Gesellschaft veränderte, und er hatte Recht. Das Medium, sagte McLuhan, ist die Botschaft. Das Format ist der Inhalt.

Sie könnten beispielsweise dieselben Wörter auf Facebook, Twitter und LinkedIn schreiben, und die Wörter haben jeweils eine andere besondere Bedeutung. Da Podcasts die spontane und ungeübte menschliche Stimme zelebrieren, ist Podcasting zu einem Forum geworden, in dem menschliche Ambivalenz oder sogar verwirrende Widersprüche und Ironie leicht willkommen geheißen und verstanden werden können. Ich denke, dies ist ein gutes Forum, um über einen Trend zu sprechen, der in den Nachrichten sehr aktuell ist und über den ich selbst viele ambivalente und verwirrende Gedanken habe, die ich heute mit Ihnen teilen möchte. Ich spreche von künstlicher Intelligenz.

Als Marshall McLuhan 1964 sagte, dass das Medium die Botschaft sei, als nur wenige Menschen darüber nachdachten, wie subtil das Fernsehen und andere intime Heimübertragungsmedien das Gefüge der menschlichen Gesellschaft veränderten. Heutzutage droht auch ein neues Medium, das durch die modernste Technologie ermöglicht wird, enorme gesellschaftliche Auswirkungen zu haben. Ich spreche von beliebten Allzweck-KI-Tools wie ChatGPT, die jedem mit einer Internetverbindung zur Verfügung stehen – und falls Sie noch nichts von ChatGPT gehört haben: Es erregt überall große Aufmerksamkeit, weil es menschliche Gespräche gut nachahmt und wie mühelos es das gesamte breite Spektrum des verfügbaren Allgemeinwissens integrieren und abrufen kann.

Chatbots gibt es schon seit einigen Jahren – sie können so einfach und harmlos sein wie freundliche automatisierte Kundenservice-Chatbots auf einer BestBuy- oder Ticketmaster-Website. Neue Chatbots wie ChatGPT4 sind in ihrem Anwendungsbereich nicht auf elektronische Produkte oder Konzertkarten beschränkt – es handelt sich um ganz unterschiedliche Arten von Wissensmaschinen, sogenannte große Sprachmodelle, die darauf trainiert sind, die Gesamtheit der menschlichen Intelligenz zu erfassen.

Manchmal denken die Leute, dass das G in ChatGPT für „Allgemein“ steht, und das wäre eine gute Vermutung, weil das System darauf ausgelegt ist, allgemeine Intelligenz und Allgemeinwissen zu demonstrieren. Das G steht eigentlich für Generativ, was bedeutet, dass dieses Produkt auch dazu gedacht ist, Dinge zu erschaffen – um originelle Bilder und Wörter zu generieren. Das P steht für Pre-Trained, worüber wir gleich sprechen werden, und das T steht für Transformer, was kein klassisches Lou-Reed-Album ist, sondern ein Software-Designmuster, das es dem Sprachmodell ermöglicht, auf eingegebene Texte zu reagieren, die nicht von ihm eingegeben wurden Dabei wird jeweils nur ein Wort verarbeitet, sondern der gesamte eingegebene Text als Ganzes betrachtet und transformiert.

Diese neuen Chatbots können sich über jedes Thema in einem freundlichen, zwischenmenschlichen und differenzierten Gesprächsstil unterhalten. Die Chatbots können Aufsätze schreiben, Probleme lösen, tiefgreifende Datenbanksuchen durchführen, Computercode generieren und schwierige Fragen sofort beantworten. ChatGPT und ähnliche Angebote weisen ein Maß an sprachlicher und umfassender Agilität auf, das den Bereich der künstlichen Intelligenz offenbar schneller voranbringt, als viele von uns erwartet hätten. Vor nicht allzu langer Zeit gab es eine Nachricht, dass einige Mitarbeiter bei Google glaubten, ihr eigenes KI-System könne den Turing-Test bestehen und nicht mehr von der empfindungsfähigen menschlichen Kommunikation zu unterscheiden sein, was Googles eigene Experten mit seinem Bewusstseinsnachweis erschreckte. Ich weiß nicht, ob ich persönlich glaube, dass irgendeine KI den Turing-Test bestehen kann, aber ich weiß, dass viele Experten mittlerweile glauben, dass dies möglich wird.

Allgemeinwissens-Chatbots sind bei weitem nicht der einzige beliebte Anwendungsfall für KI. Bildgeneratoren können aus Textaufforderungen sofort visuelle Kunstwerke erstellen – manchmal verblüffende, clevere Bilder, für deren Erstellung physische Maler oder digitale Künstler Stunden, Tage oder Wochen benötigen würden. Die Bildgenerierung aus Textaufforderungen ist heute Realität über kostenlose Online-Bildgeneratoren mit künstlicher Intelligenz wie DALL-E von OpenAI, dem gleichen Unternehmen aus dem Silicon Valley, das ChatGPT entwickelt hat. Sie können sich eine Idee vorstellen und einen Malstil beschreiben, und dieser Webdienst sendet Ihnen auf magische Weise eine Reihe verschiedener Variationen von Versuchen, Ihre Idee festzuhalten.

Eine DALL-E-Aufforderung mit der Aufschrift „Bitte zeichnen Sie eine vielfältige Gruppe weinender Menschen auf der Brooklyn Bridge im Aquarellstil“, gefolgt von 4 Bildern, die vom Bildgenerator erstellt wurden
Beispielinteraktion mit dem DALL-E-Bildgenerator.

Dies ist heute Realität, und es ist auch heute Realität, dass ChatGPT4 kompetente, durchdachte und ausführliche Aufsätze zu fast jedem Thema schreiben kann, zu dem sie gefragt werden – Aufsätze, die gut genug sein könnten, um einen höheren Hochschulabschluss zu erwerben.

Vielleicht ist es noch zu früh, um eine solche Vorhersage zu treffen, aber es scheint, dass intelligente Chatbots und Bildgeneratoren – maschinengenerierte Schrift und maschinengenerierte Kunst – eine große technische Innovation und eine große gesellschaftliche Innovation darstellen, die uns alle auf der Erde in gewisser Weise betreffen wird oder ein anderes. Wer weiß, in welche Richtung die Zukunft heutzutage geht, aber es scheint zumindest möglich, dass die Einführung von ChatGPT3 im Jahr 2022 eines Tages als bedeutender Moment in der Kulturgeschichte in Erinnerung bleiben wird, ähnlich der Einführung des Mosaik-Browsers im Jahr 1993, der die gesamte Popularität ankurbelte Internet-Boom, in dem wir noch heute leben.

Es scheint mir auch beunruhigend, sagen zu müssen, dass diese neue Innovation neue Arten von großen Problemen verursachen wird, mit denen wir uns alle auseinandersetzen müssen, auch wenn viele von uns vielleicht das Gefühl haben, dass unsere Gesellschaft bereits in den unerwünschten Nachwirkungen davon ertrinkt andere technologische Innovationen, die wir in unserem Leben nicht gefordert haben, die wir nicht in unser Leben eingeladen haben und die es dennoch in unserem Leben gibt.

In dieser Folge möchte ich darüber sprechen, wie sich KI auf uns als Antikriegsaktivisten auswirkt. Lassen Sie mich eines vorweg sagen: KI ist ein heißes Thema, sehr kontrovers, und das ist auch so. Wir sollten uns darüber Sorgen machen und darüber reden, und meiner Meinung nach sollten wir uns auch für das Gute öffnen, das diese Technologie bewirken kann.

Es ist unter Progressiven und Aktivisten umstritten und es ist für alle umstritten. Es sollte kontrovers sein, und ich mache diese Episode nicht, weil ich einfache Antworten darauf habe, wie sich diese jüngsten Innovationen auf unseren Planeten auswirken könnten. Ich weiß, dass sie Auswirkungen auf unsere Welt haben werden, und ich weiß, dass Antikriegsaktivisten darüber reden müssen. Deshalb mache ich diese Episode, um das Gespräch in Gang zu bringen, um die verschiedenen Probleme darzulegen, mit denen meiner Meinung nach viele Antikriegsaktivisten wahrscheinlich zu kämpfen haben, wenn sie über dieses Thema sprechen, und vielleicht um ein gewisses Verständnis für alle Seiten dieser Verwirrung zum Ausdruck zu bringen Themen. Das werde ich hier versuchen – und wenn Sie mit dem Hören dieser Folge fertig sind, teilen Sie uns bitte Ihr Feedback mit world beyond war Webseite für diese Episode oder indem Sie mich direkt kontaktieren – ich bin leicht zu finden.

Was die Auswirkungen auf das Alltagsleben betrifft, fragen sich viele, ob die erstaunlichen Fähigkeiten der künstlichen Intelligenz viele Menschen arbeitslos machen werden. Dies ist oft die erste Sorge, die Menschen haben, wenn sie die Leistungsfähigkeit der KI sehen. Werden diese fortschrittlichen Fähigkeiten dazu führen, dass verschiedene Bereiche sinnvoller menschlicher Beschäftigung und Unternehmungen plötzlich unerwünscht werden? Unsere Gesellschaft ist bereits stark aus dem Gleichgewicht geraten, wenn es darum geht, wer arbeitet, wer verdient und wer ausgibt. Wenn die Ökosysteme der Mittelschicht, die für ihren Lebensunterhalt arbeiten, weiter gestört werden, weil KI viele der gleichen Aufgaben besser und kostenlos erledigen kann, können wir sicher sein, dass die Störung die Kluft zwischen den Wohlhabenden und dem Rest von uns, dem 1., vergrößern wird % werden von der Veränderung profitieren können, während der Rest von uns die Konsequenzen tragen muss, und dass das 1 % auch dafür sorgen wird, dass KI-Tools, die dem 1 % helfen, für die Menschen, die ihre Hilfe gebrauchen könnten, nicht verfügbar oder zu teuer dafür sind ihnen Zugriff zu gewähren.

Seien wir ehrlich: In den räuberischen kapitalistischen Volkswirtschaften, in denen viele von uns festsitzen, bedeutet Arbeitslosigkeit, sich zu verschulden und unsere Wahlfreiheit zu verlieren, und genau das ist es, was diese soziopathischen Festungsökonomien den normalen Menschen antun sollen – uns die Macht zu nehmen Sie haben die Wahl und lassen uns sie bezahlen und für sie arbeiten. Das ist die Zukunftsvision des heutigen Festungskapitalismus: Wir werden neue intelligente und leistungsstarke Computer haben, während wir selbst verarmt sind.

Hinzu kommt die Tatsache, dass Polizei und Militär bereits damit beginnen, Werkzeuge der künstlichen Intelligenz einzusetzen, zusammen mit neuen mächtigen und gewalttätigen Robotern. Ich denke, dass dies derzeit möglicherweise die schwerwiegendste und unmittelbarste Bedrohung ist, die KI darstellt, und ich denke, dass Protestbewegungen, die von der Polizei belagert werden, wie beispielsweise die wichtige Stop Cop City-Bewegung in Atlanta, Georgia, sich bereits mit dieser veränderten Realität auseinandersetzen. KI-Systeme tragen die Vorurteile und codierten Werte ihrer menschlichen Schöpfer in sich, sodass KI-geschulte Polizisten oder Militärs drohen, zu buchstäblichen Jagd- und Tötungsmaschinen für gefährdete Bevölkerungsgruppen zu werden, die ihre Ziele nach Aussehen oder Rasse auswählen. In einer Welt, die bereits mit Kriegen von der Ukraine bis zum Jemen außer Kontrolle gerät, ist die Idee, die eine oder andere Seite – und zwangsläufig beide Seiten – mit neuartigen Mordmaschinen und Unterdrückungsregimen zu stärken, die mit bösartigen Rassenprofilen kodiert sind, genauso schrecklich wie es klingt.

Die Worst-Case-Szenarien von Massenarbeitslosigkeit oder dem Einsatz rassistisch kodierter künstlicher Intelligenz durch Polizei und Militär sind erschreckend, und wir können darüber nicht schlafen, denn die Auswirkungen sind bereits in unserer Welt spürbar. Es passiert bereits. Beginnen wir dieses Gespräch also einfach damit, anzuerkennen, dass zwei der unterschiedlichen Schrecken, die fortgeschrittene KI offenbar mit sich bringt – Massenarbeitslosigkeit und Missbrauch durch Polizei und Militär –, zwei unterschiedliche Arten sind, wie mächtige Kräfte mit fest verwurzeltem Reichtum und Privilegien den Menschen Rechte und Freiheiten stehlen .

Apropos fest verwurzelter Reichtum und Privilegien – sprechen wir über OpenAI, ein Unternehmen in Nordkalifornien, das Sie online finden können OpenAI.com. Dieses Unternehmen war wenig bekannt, bis es 2021 den DALL-E-Bildgenerator auf den Markt brachte. Im November 2022, also vor nur neun Monaten, veröffentlichte es seinen ersten öffentlichen Chatbot, ChatGPT3, gefolgt von den leistungsstärkeren und leistungsfähigeren ChatGPT3.5 und ChatGPT4 , die jetzt verfügbaren Versionen.

Ich war ziemlich umgehauen, als ich zum ersten Mal die Bilder sah, die DALL-E erstellen konnte, und noch mehr umgehauen, als ich ChatGPT zum ersten Mal ausprobierte. Die Herausforderung, der diese Tools zu begegnen versuchten, war mir sehr vertraut, da ich mich wie viele Softwareentwickler selbst intensiv mit KI beschäftigt habe. Meine erste Begegnung mit künstlicher Intelligenz war ein unabhängiges Studienprojekt, das ich vor einigen Jahrzehnten an der Uni durchführte.

Das war in den 1980er Jahren, und vielleicht werden einige sehr junge Leute überrascht sein zu hören, dass Leute wie ich in den 1980er Jahren KI-Arbeit betrieben haben, aber der Begriff künstliche Intelligenz ist fast so alt wie die Computerrevolution selbst. Auch wenn die KI-Errungenschaften der 1950er bis 1990er Jahre im Vergleich zu den Fortschritten, die wir in den Jahren seitdem erlebt haben, infantil waren.

Tatsächlich war das Fachgebiet in den 80er Jahren so offen, dass ich in meinem Abschlussjahr als kombinierter Hauptfachphilosophie und Informatik ein paar Credits erwerben konnte, indem ich ein originelles unabhängiges Studienprojekt für ein Programm ausarbeitete, das Parsen konnte Setzen Sie Sätze auf Englisch und antworten Sie auf eine Weise, die ein grundlegendes Verständnis demonstriert oder simuliert. Ich habe in LISP auf einem unglaublich sperrigen, grün leuchtenden Unimatic-Terminal codiert, das an einen riesigen Univac-Großrechner angeschlossen war, der die Größe eines großen Gebäudes hatte und wahrscheinlich weniger Strom hatte als das MacBook, auf dem ich diesen Podcast gerade aufzeichne, denn so sind wir gelaufen damals in den 80ern.

Die spannende Herausforderung meines KI-unabhängigen Studienprojekts bestand darin, Sätze zu analysieren und darauf zu reagieren, die einfache Verben und Substantive enthielten. Zum Beispiel würde ich Sätze wie „Ich habe eine Katze namens Happy“ und „Meine Katze ist orange“ und „Alle Katzen sagen miauen“ in mein LISP-Programm eingeben, was durch die Beantwortung von Fragen wie „Ist Happy orange?“ ein gewisses Verständnis demonstriert. oder „Sagt Marcs Katze miauen?“ Amüsanterweise habe ich versucht, direkt auf meinem Univac-Mainframe einen KI-Chatbot zu erstellen.

Ich wette, viele andere College-Studenten versuchten damals das Gleiche, aber keiner von uns kam sehr weit, denn wir befanden uns in den 1980er Jahren und eine wichtige brillante Idee hatte uns noch nicht erreicht: das neuronale Netzwerk, das eine Software bereitstellt Struktur, die darauf ausgelegt ist, massiv parallele einfache Vorgänge auszuführen, ähnlich den Neuronen im menschlichen Gehirn. Während mein LISP-Programm Single-Thread-Berechnungen bereitstellte und Fortran-, COBOL- und Pascal-Programme demselben begrenzten Single-Thread-Paradigma folgten, stellten neuronale Netze parallele Elementar-Threads bereit, die einfache Berechnungen parallel ausführten. Das menschliche Gehirn führt eine ganze Reihe paralleler Verarbeitungen durch – gleichzeitige Operationen, die kaskadiert werden, um Illusionen der Singularität zu erzeugen – und die Softwarestruktur, die als neuronales Netzwerk bekannt ist, würde es Programmierern ermöglichen, die Leistungsfähigkeit dieser parallelen Verarbeitung zu nutzen – nachdem ich mein Studium abgeschlossen hatte.

Zusammen mit dem Konzept des neuronalen Netzwerks entstand schließlich das Konzept, ein neuronales Netzwerk mit sich wiederholenden Aktivitäten zu trainieren – ein weiteres Konzept, das uns in den 80er Jahren noch nicht bekannt war. Ich habe meinem LISP-Programm eine kleine Anzahl vollständiger Sätze zugeführt und ihm kein Feedback gegeben, mit dem es seine Leistung korrigieren und verbessern könnte. Anstatt Sätze in mein Computerterminal einzugeben, hätte ich es mit ganzen Büchern, Zeitungen und Enzyklopädien füttern und ständig mit ihm interagieren sollen, um Feedback zu seinem Verhalten zu geben, während mein Programm wiederholt versuchte, die grundlegendsten, primitivsten Handlungen zu simulieren des Verständnisses. Indem ich ihm viel Lesematerial gegeben habe, um eine reichhaltige und komplexe Wissensbasis aufzubauen, und es wiederholt und gründlich trainiert habe, hätte ich mein Computerprogramm möglicherweise tatsächlich dazu gebracht, etwas Überraschendes darüber zu sagen, ob ich eine orangefarbene Katze hatte oder nicht. Wie sich herausstellte, haben neuronale Netze und repetitives Training den Weg zu den erfolgreichen Simulationen menschlicher Intelligenz geebnet, die wir heute bei Chatbots sehen.

Sie werden feststellen, dass ich von der Simulation menschlicher Intelligenz spreche. Dies deutet auf eine weitere Kontroverse hin. Manche Leute finden den Begriff „künstliche Intelligenz“ lächerlich. Schlimmer noch als lächerlich, manche finden die Idee ethisch bedenklich, denn wenn Intelligenz Bewusstsein entstehen lässt, kann sich künstliche Intelligenz in künstliches Bewusstsein verwandeln – künstliches Empfindungsvermögen, künstliche Eigensinnigkeit, künstliches Existenzrecht. Das wirft mit Sicherheit viele existenzielle Fragen auf. Alle diese Fragen sind berechtigt und wichtig. Manche fragen sich, ob KI-Wissensmaschinen und Sprachmodelle möglicherweise bereits Bewusstsein entwickeln. Persönlich fällt es mir ziemlich leicht zu sagen: Nein, wir müssen uns keine Sorgen machen, dass Chatbots echte Gefühle entwickeln. Es gibt viele verschiedene Aspekte der KI, über die man sich Sorgen machen muss, und dieser ist einer, der mir persönlich keine Sorgen bereitet. Das heißt aber nicht, dass ich beweisen kann, dass ich Recht habe und dass sich niemand darüber Sorgen machen muss. Vielleicht bin ich einfach so überwältigt von den verschiedenen Dingen, über die ich mir Sorgen machen sollte, dass ich keine Zeit habe, mir darüber Gedanken zu machen. Ich habe keine endgültige Antwort auf alle Fragen, die sich im Zusammenhang mit dem maschinellen Empfindungsvermögen stellen können, und ich werde auch nicht so tun, als wäre dies der Fall. Aber ich weiß, was die Fragen sind, denen wir begegnen müssen.

Eine Meinung, die ich manchmal in Aktivistengemeinschaften höre, ist, dass KI einem Hype gleichkommt – eine Illusion, die durch die hervorragenden Konversationsfähigkeiten eines großen Sprachmodells gefördert wird. Sicher, GPT kann eine Frage analysieren und in eleganter Ausdrucksweise antworten, aber warum sollte uns diese Freude an der Sprache glauben machen, dass ein bedeutender Fortschritt gemacht wurde? Zum Entsetzen der Encyclopedia Britannica haben Google und Wikipedia bereits das gesamte menschliche Wissen kostenlos im Internet verfügbar gemacht. Wir hören diesen ganzen Hype um ChatGPT einfach deshalb, weil es eine sprachliche Fassade des menschlichen Bewusstseins darstellt, eine Illusion, der wir alle so gerne verfallen. Ich denke, hier gibt es eine gewisse Gültigkeit. Wenn Google oder Wikipedia ursprünglich so plötzlich und vollständig ins Leben gerufen worden wären wie ChatGPT, würden wir vielleicht von der Einführung von Google oder Wikipedia als massiven Fortschritten in der kollektiven menschlichen Intelligenz sprechen, weil beide bereits Auswirkungen auf unsere Welt haben.

Doch wie ich bereits erwähnte, als ich über neuronale Netze und Training sprach, bedeutet die Beschreibung großer Sprachmodelle als Fassaden eine Unterschätzung der Schichten der Softwarestruktur, die vorhanden sein müssen, um diese sprachliche Glückseligkeit zu ermöglichen.

Hier ist meiner Meinung nach eine größere Frage: Schauen wir uns die Ethik von OpenAI und seinen Auftraggebern, Gründern, Investoren und Partnern an. Hier gibt es jede Menge Probleme.

OpenAI.com ist ein privat finanziertes Forschungslabor, das aus demselben ultrareichen und hochkarätigen Silicon Valley-Ökosystem von Technologie-Inkubatoren hervorgegangen ist, das uns Facebook, Google, Microsoft, Amazon und Oracle hervorgebracht hat. Zu seinen Gründern gehört Elon Musk, der prominente Milliardär, dessen soziopathische öffentliche Äußerungen mich genauso wütend machen wie viele andere Menschen. Elon Musk war nie direkt an OpenAI beteiligt und hat sich anderen Dingen zugewandt, wie zum Beispiel der Darstellung seiner offensiven Persönlichkeit in allen sozialen Medien, also ist das alles, was ich heute über Elon Musk sagen möchte.

Aus meiner Sicht ist es umso schlimmer, dass OpenAI eng mit Microsoft zusammenarbeitet, einem großen Kriegsprofiteur und einem großen Profiteur im Bereich der künstlichen Intelligenz für den Krieg. Ich hoffe, dass sich die Menschen über diesen beunruhigenden Zusammenhang noch mehr Sorgen machen als über die Verbindung zu Elon Musk. Wir sollten sehr beunruhigt sein, dass das freundliche Gesicht von DALL-E und OpenAI eine nützliche Fassade für mindestens einen äußerst einflussreichen und bösen Kriegsgewinnler ist: Microsoft, das bereits die Art von rassistisch kodierten militärischen und polizeilichen Anwendungen für künstliche Intelligenz entwickelt, über die wir gesprochen haben etwa oben. Dies geschieht bereits hinter den Kulissen von Microsoft und anderen US-Technologiegiganten, die eng mit der US-Kriegsmaschinerie verbunden sind. Und das ist so ziemlich die schlimmste Nachricht, die ich mir vorstellen kann.

Soldat trägt ein schweres Headset mit Schutzbrille und Kabeln
Das Augmented-Reality-Headset Hololens von Microsoft wird vom US-Militär eingesetzt

Wir in der Antikriegsbewegung können der künstlichen Intelligenz wegen ihres bösen Potenzials nicht den Rücken kehren. Ich meine natürlich nicht, dass jeder in der Antikriegsbewegung technologische Eingriffe in sein eigenes Leben zulassen muss. Ich bin froh, dass viele Progressive und Aktivisten eine berechtigte Entscheidung getroffen haben, trendige technische Innovationen in ihrem Leben zu meiden. Ich kann diese Einstellung nachvollziehen und respektieren, auch wenn ich selbst weit von einem technikfreien Lebensstil entfernt bin. Technologie ist mein Fachgebiet, meine Karriere, und als Technologe bin ich fasziniert von der Genialität, Kreativität und Innovation, die hinter Bestrebungen wie künstlicher Intelligenz steckt.

Außerdem bin ich einfach als neugieriger Mensch unbedingt daran interessiert, Einblicke in die menschliche Intelligenz zu gewinnen, indem ich erfahre, wie Computer entwickelt wurden, um sie zu simulieren. Ich lasse auch ChatGPT in mein Leben zu, weil ich entdeckt habe, wie nützlich es ist. Ich gehe zu OpenAI.com und stelle ihm ständig Fragen. Ich verwende ChatGPT, um Code, einschließlich Javascript, für eine neue Version unserer interaktiven Karte ausländischer US-Militärstützpunkte zu schreiben, an der ich diesen Sommer zusammen mit anderen Leuten bei arbeite World Beyond War.

Nehmen wir an, ich möchte einen Abfragezeichenfolgenparameter bereinigen, indem ich Sonderzeichen mit einem regulären Ausdruck entferne. Dies ist etwas, worüber ich bei Stack Overflow nachgefragt hätte, und ich würde meinen Arbeitscode aus empfohlenen Fragmenten zusammensetzen, die in einem Konversationsthread gepostet wurden . Stattdessen sage ich ChatGPT jetzt, was ich will, und ChatGPT spuckt einfach perfekt formatiertes Javascript aus, ausführbar und fehlerfrei. Die meisten meiner befreundeten Softwareentwickler verwenden ChatGPT jetzt zum Schreiben von Code – ich weiß, dass wir das tun, weil wir gerne darüber reden. Ich glaube nicht, dass sich irgendjemand von uns Programmierern Sorgen macht, dass ChatGPT uns ersetzen wird, denn wir sind diejenigen, die die Codeteile zusammenfügen müssen, um funktionierende Systeme zu erstellen, und GPT produziert nur Codeteile. Aber ich frage mich, wie sich dadurch die Arbeitsweise von Softwareentwicklern verändern wird. Es verändert definitiv bereits das Spiel.

Ich verwende ChatGPT auch, um online nach Dingen zu suchen, wie ich es früher mit Google getan hätte, und ich verwende es für Anregungen, Perspektiven und Hintergrundinformationen zu Dingen, über die ich schreibe oder über die ich nachdenke. Ich mache keine Witze, wenn ich sage, dass ich es für alles verwende – als ich oben den Technologiephilosophen Marshall McLuhan aus den 1960er Jahren erwähnte, habe ich ChatGPT natürlich um einige Informationen über Marshall McLuhan gebeten, und ChatGPT hat mir gesagt, dass 1964 das Jahr war, in dem er lebte veröffentlichte das Buch mit der Aussage „Das Medium ist die Botschaft“.

Die Tatsache, dass so viele von uns für einfache Internetsuchen bereits von Google zu GPT gewechselt sind, sagt viel aus. Es ist sehr einfach, diese neuen Arten von Werkzeugen langsam und unmerklich in unser Leben eindringen zu lassen, auch wenn wir uns über die Auswirkungen und Motivationen dahinter Sorgen machen.

Wie die zugrunde liegende Softwaretechnologie des Internets selbst, die aus zweifelhaften Gründen vom US-Militär entwickelt wurde, aber später gesellschaftliche Veränderungen herbeigeführt und neue Anwendungsfälle gefunden hat, die völlig außerhalb ihres ursprünglichen Zwecks liegen, wird diese neue Technologie dies tun seinen eigenen Weg finden, unser Leben zu beeinflussen. Diese neue Technologie ist real, sie funktioniert zu gut, um ignoriert zu werden, und sie wird bleiben. Aus diesem Grund verbringe ich eine Folge damit, mit Antikriegsaktivisten darüber zu sprechen – weil es bereits Teil unserer Realität ist und wir möglicherweise einige der Machtangebote benötigen, um unsere eigene Arbeit hier auf der Erde zu erledigen.

Lassen Sie uns eine Minute damit verbringen, über die vielen Aspekte des Lebens auf diesem Planeten nachzudenken, die nicht die schrecklichen Probleme haben, die uns Antikriegsaktivisten so bewusst sind. Kunst, Musik, Literatur, Biologie, Chemie, Physik, Geologie, Astronomie, Medizin, Gesundheit, Fertigung, Landwirtschaft, Ernährung. In all diesen Welten, all diesen Bemühungen … hat die öffentliche Einführung eines hochleistungsfähigen Allgemeinwissen-Chatbots große Auswirkungen. Es gibt kein Feld, das es nicht berührt.

Auf der Ebene des friedlichen Zusammenlebens der Menschen – einer Ebene, auf der ich mir wünschen würde, dass ich mehr Zeit mit mir selbst verbringen könnte – ist künstliche Intelligenz eine wundersame Weiterentwicklung der menschlichen Fähigkeiten, die große Vorteile verspricht. Wenn wir nur in einer friedlichen, sicheren und gerechten Welt leben würden, könnten wir gemeinsam die Wunder, die künstliche Intelligenz hervorbringen kann, besser genießen.

Wir sehen einige dieser Wunder, wenn wir mit einem Bildgenerator arbeiten und auf der Grundlage unserer eigenen Eingaben erstaunlich clevere oder kreative Bilder erstellen, die wir sonst nicht produzieren könnten. Wir empfinden auch das Paradox, ob Werkzeuge der künstlichen Intelligenz zum Guten genutzt werden können oder nicht. Als Technikfreak glaube ich, dass nicht die technische Innovation das Problem auf dem Planeten Erde im 21. Jahrhundert ist. Ich begrüße technologische Innovationen immer und denke, dass die Gefahren, die KI mit sich bringt, auf den tief verwurzelten Kapitalismus und den Krieg zurückzuführen sind – auf die Tatsache, dass dies ein Planet ist, der sich mit sich selbst im Krieg befindet, ein Planet, der von einem wohlhabenden 1 % dominiert wird, das nicht widerstehen kann, sich selbst anzugreifen Der selbstmörderische Weg, militarisierte Festungsgesellschaften aufzubauen, die andere Menschen unterdrücken, um Privilegien aufrechtzuerhalten. Was wir tun müssen, ist, unsere Gesellschaft zu heilen – was wir nicht tun müssen, ist, vor dem technologischen Fortschritt davonzulaufen, weil wir die Ursachen unserer Qual und unserer selbstmörderischen Entwicklung falsch verstehen.

Das ist was ich denke. Natürlich ist das nicht das, was jeder Antikriegsaktivist denkt, und das ist in Ordnung. Wir hatten einige interessante Reaktionen darauf World Beyond War E-Mail-Diskussionsliste – ein lebendiges und intelligentes Forum, dem ich jedem empfehle, beizutreten. Klicken Sie einfach auf den Link auf unserer Website oder suchen Sie nach world beyond war Diskussionsliste – nachdem jemand einige wirklich fantasievolle Antikriegsbilder geteilt hatte, die mit DALL-E erstellt wurden, und jemand anderes einige überraschend nützliche Worte darüber geteilt hatte, wie unser kranker Planet Wege zum Weltfrieden finden kann.

Ich glaube, dass Aktivisten alle verfügbaren Technologien beherrschen sollten – dass Aktivisten sich nicht in die Lage versetzen sollten, fortschrittliche innovative Technologien weniger nutzen zu können als korrupte Regierungen und gierige Konzerne, die es gewohnt sind, uns zu unterdrücken.

Ich glaube auch, dass wir überraschende philosophische Wahrheiten über das menschliche Bewusstsein und die menschliche Existenz herausfinden können, indem wir die Algorithmen und Designmuster untersuchen, die zu seiner Modellierung und Simulation verwendet werden. Schon ein paar Minuten damit zu verbringen, mit ChatGPT auf der OpenAI-Website herumzuspielen, kann einige wilde Wahrheiten über die menschliche Natur ans Licht bringen.

Hier ist eine wilde Sache, über die ich immer noch nachdenke. ChatGPT lügt manchmal. Es erfindet Dinge. Dies wird Ihnen normalerweise nicht auffallen, wenn Sie mit der GPT-Befragung beginnen, da in einem Konversationsthread in der Regel eine aussagekräftige Antwort auf die erste Frage gefunden wird. GPT hält dann mit Ihnen Schritt, während Sie weitere Fragen stellen, und hier ist es möglich, GPT in eine Ecke zu drängen, in der es anfängt, gerade aufzustehen. Eine der ersten Fragen, die ich ChatGPT jemals gestellt habe, war, mir von den besten Antikriegs-Podcasts zu erzählen, denn natürlich war mein Ego engagiert und ich wollte sehen, ob das so ist World Beyond War Der Podcast würde in der Liste angezeigt.

Da GPT nun vorab trainiert ist – das heißt, es wurde vorab trainiert und wird nicht mehr aktiv mit aktuellen Nachrichten und Informationen versorgt –, würde ich nicht erwarten, dass es viel über meinen Kleinen weiß Podcast. Ich wollte die Ergebnisse auch nicht verfälschen, indem ich GPT zeigte, dass ich an einem bestimmten Podcast interessiert war, also fragte ich GPT, ob es hervorragende Antikriegs-Podcasts gäbe, und es wurde mir versichert, dass es tatsächlich welche gäbe. Dann fing ich an, auf Einzelheiten einzugehen, in der Hoffnung, es dazu zu bringen, das zu benennen World Beyond War Podcast auf Anfrage – können Sie mir etwas über Podcasts erzählen, in denen bekannte Aktivisten wie Medea Benjamin interviewt wurden? Hier fängt es an, lustig zu werden. Sobald das System eine Behauptung aufstellt, wird es versuchen, die Behauptung zu untermauern. Nachdem es mir also versichert hatte, dass es tatsächlich Podcasts gab, die Medea Benjamin interviewt hatten, bat ich es, einen dieser Podcasts zu nennen, und es teilte mir dann mit, dass Medea Benjamin es sei die Moderatorin ihres eigenen Podcasts. Ähm, das ist sie nicht! Wenn sie es wäre, würde ich es mir auf jeden Fall anhören. Ich konnte ChatGPT zum Lügen bringen, indem ich es in eine Ecke drängte, wo es Informationen bereitstellen musste, die es nicht hatte, sodass es Informationen erfand, die realistisch klangen.

Das kommt häufiger vor, als man denkt. Sie können ChatGPT auch leicht bei einem Fehler erwischen, indem Sie ihm wahre, aber widersprüchliche Informationen vorwerfen. Nachdem GPT mich korrekt darüber informiert hatte, dass Marshall McLuhan 1964 das Zitat „Das Medium ist die Botschaft“ eingeführt hatte, erinnerte ich mich daran, dass dieser brillante und scharfsinnige Philosoph auch eine Art ironisches Nachwort zu seinem früheren Buch geschrieben hatte, das sich mit den Düstereren und Beunruhigenderen befasste Wie Medien den menschlichen Geist einschläfern können, die beängstigenden Bevölkerungsgruppen der Massenkontrolle der Bevölkerung durch Medien – weil Marshall McLuhan wirklich so großartig war, er diese Gefahr schon damals in den 1960er Jahren erkannte und 1967 ein weiteres Buch mit dem Künstler Quentin Fiore veröffentlichte mit dem Titel „Das Medium ist die Massage“.

Hier ist es also, wo die Dinge mit GPT seltsam wurden. Ich bat ChatGPT, mir von Marshall McLuhans Zitat „Das Medium ist die Massage“ zu erzählen … und GPT teilte mir rundheraus mit, dass McLuhan nicht „Das Medium ist die Massage“, sondern „Das Medium ist die Botschaft“ gesagt hatte. Offensichtlich hielt GPT die Massage für einen Tippfehler. Ich teilte GPT dann mit, dass es falsch sei und dass McLuhan tatsächlich sowohl „das Medium ist die Botschaft“ als auch „das Medium ist die Massage“ gesagt hatte. Sobald ich das sagte, erkannte ChatGPT seinen Fehler, entschuldigte sich und teilte mir mit, dass es sich bei „The medium is the massage“ um ein Buch handelte, das er 1967 geschrieben hatte.

Cover von „The Medium is the Massage“ von Marshall McLuhan und Quentin Fiore, 1967

Warum hat es also zuerst einen Fehler gemacht, und insbesondere warum hat es einen Fehler gemacht, obwohl es bereits Zugriff auf die richtige Antwort hatte? Nun, hier beginnt GPT, überraschende Wahrheiten über uns selbst zu enthüllen, denn tatsächlich ließen die beiden Fehler oder Fehlverhalten von GPT es menschlicher und nicht weniger erscheinen. Denken Sie daran, dass G in GPT für generativ steht. Das System ist darauf ausgelegt, Antworten zu generieren, wenn es nicht sicher ist, ob die Antwort richtig ist. Es kann Ihnen den Titel eines Films oder Buchs nennen, der nicht existiert – aber es wird ein Titel sein, der so aussieht, als ob er existieren könnte. Wenn Sie mit ChatGPT ein offenes, langes Gespräch über ein Thema führen, über das Sie viel wissen, werden Sie schnell feststellen, dass es zu Fehlern kommt.

Die Art und Weise, wie ich GPT in die Enge manövrieren konnte, indem ich ihm Folgefragen zu seinen eigenen Antworten stellte und es schließlich dazu veranlasste, realistisch wirkende, aber falsche Informationen zu generieren, um seine früheren Aussagen zu untermauern, erschien mir nicht unmenschlich, sondern durch und durch menschlich.

Wir sehen hier die unverblümte Kraft rhetorischer und manipulativer Argumentationsstile. Vielleicht können wir aus diesem überraschenden Fehlverhalten von ChatGPT lernen, dass es menschlich unmöglich ist, die Wahrheit zu begreifen, ohne Wahrheiten auf die eine oder andere Weise zu erfinden, und wenn wir nicht aufpassen, können diese erfundenen Wahrheiten, die wir für rhetorische Zwecke verwenden, zu Lügen werden, die wir sind gezwungen, sich mit weiteren Erfindungen zu verteidigen. Junge, das kommt mir wirklich lebensecht vor.

Noch lebensechter: Wir wissen, dass zum menschenähnlichen Verhalten von ChatGPT auch Lügen gehört. Und doch vertrauen wir darauf! Ich selbst nutze es sogar weiterhin, weil ich wirklich zuversichtlich genug bin, zu glauben, dass ich immer erkennen kann, wenn GPT nach einer Antwort strebt und falsche Informationen generiert. Hey, vielleicht mache ich mir etwas vor, und vielleicht sollte ich über meine eigene Neigung nachdenken, erfundene Wahrheiten zu glauben, und über meine eigene Neigung, anderen das Lügen zu ermöglichen.

Auf diese Weise macht uns GPT schlauer, indem es aufzeigt, wie wir in unseren normalen menschlichen Beziehungen mit Unwahrheiten, Fassaden, Notlügen und freundlichen Täuschungen umgehen. Um es auf den Punkt zu bringen: ChatGPT kann kein menschliches Verhalten simulieren, ohne manchmal zu lügen. Das ist für uns alle eine schreckliche Sache, über die wir nachdenken müssen.

Hier ist noch etwas, worüber wir nachdenken sollten: Wie geht es uns Menschen, mit den technischen Innovationen Schritt zu halten, die unsere Gesellschaften prägen? In den letzten Jahren haben wir uns an die Fortschritte in der KI angepasst und gleichzeitig die Erfindung der Blockchain in uns aufgenommen, einer neuen technologischen Methode zum Aufbau gemeinsamer Datenbanken mit neuen Eigentums-, Zugriffs- und Validierungskonzepten. Wir haben eine frühere Episode rund um Blockchain gemacht, und ich persönlich bin mir ziemlich sicher, dass die meisten Leute, die ich kenne, immer noch nicht verstehen, wie Blockchain unser Leben verändert und unser Leben in Zukunft verändern wird – und jetzt haben wir eine große Sprache Modelle und allgemeine Wissensmaschinen, die unser Leben und auch unsere Zukunft verändern! Fügen Sie das hinzu, hmm … wohin soll ich hier überhaupt gehen … das Humangenomprojekt, große Fortschritte in der Gehirnforschung, die Erforschung und Kolonisierung des Weltraums … hey, Mitmenschen, halten wir mit all dem Schritt?

Kommen wir nun zu den technologischen und wissenschaftlichen Auseinandersetzungen über Pandemien wie COVID, und lassen Sie uns nicht dabei ruhen, sondern betrachten wir weiter die Situation weithin verfügbarer Atomwaffen in den Händen korrupter und inkompetenter sogenannter Regierungen, die von alternden Bürokraten geführt werden, und der Politik der gegenseitig zugesicherten Zerstörung.

Halten wir damit Schritt? Nein, aber dieser Scheiß verfolgt uns und hat unsere Nummer. Jeden Morgen wache ich auf und lese vom Stellvertreterkrieg zwischen der NATO und Russland, der die armen Menschen in der Ukraine auf tragische Weise ermordet. Und jeden Morgen frage ich mich, ob dies der Tag ist, an dem die Inkompetenz unserer sogenannten Führer zum Beginn eines Atomkriegs führen wird – jeden Tag frage ich mich, ob dies der letzte Tag für menschliches Leben auf dem Planeten Erde ist.

Es ist der heiße Sommer 2023. Es gibt einen neuen Film namens „Oppenheimer“ über den Wissenschaftler, dessen Arbeit 1945 in Hiroshima und Nagasaki, Japan, zu dem unglaublichen Schrecken der sofortigen Ermordung Hunderttausender Menschen führte. Ich glaube nicht Jeder von uns hat es bisher geschafft, seinen eigenen Geist so weit zu erweitern, dass er das absolute Böse, die schockierenden, unerträglichen Wahrheiten der Fehler, die unsere Gesellschaften gemacht haben, und unser Versagen, uns selbst zu verbessern und uns aus unserer erbärmlichen, beschämenden gesellschaftlichen Sucht zu erheben, begreifen kann Massenhass und Massengewalt.

Ich habe oben erwähnt, dass einige Leute fragen, ob künstliche Intelligenz zu Bewusstsein und/oder Empfindungsvermögen führen kann – ob ein KI-System jemals Emotionen und Gefühle entwickeln kann und was diese Worte und diese Fragen überhaupt bedeuten. Ich habe den Film „Oppenheimer“ noch nicht gesehen, und die Vorstellung eines Films über Massenmorde in Japan, der nicht die Gesichter der japanischen Opfer zeigt, ekelt mich ziemlich an. Anstatt mich zu fragen, ob KI-Systeme empfindungsfähig sind oder nicht, möchte ich nur sagen, dass jeder einzelne Mensch, der in Hiroshima und Nagasaki verbrannt wurde, empfindungsfähig und bei Bewusstsein war. Ich glaube, wir haben es noch nicht geschafft, dieser Wahrheit ins Auge zu sehen. Vielleicht müssen wir unseren eigenen Geist in dieser Hinsicht noch ein wenig schulen.

Und damit enden wir heute. Der Mensch kommt mit der Wahrheit über die Probleme, die wir geschaffen haben, und die Veränderungen, die wir vornehmen müssen, um uns zu verbessern, nicht klar. Auch Bots können mit der Wahrheit nicht umgehen. Vielen Dank, dass Sie diesen Raum mit mir teilen, während ich über die Geheimnisse und Ironien der menschlichen Existenz nachdenke, und ich werde uns mit der menschlichen Stimme eines Sängers und Songwriters mitnehmen, den ich seit langem liebe, Sinead O'Connor. und ein Lied namens „The Healing Room“. Vielen Dank, dass Sie sich Folge 50 angehört haben. Wir sehen uns bald wieder für Folge 51.

World BEYOND War Podcast auf iTunes
World BEYOND War Podcast auf Spotify
World BEYOND War Podcast auf Stitcher
World BEYOND War Podcast RSS Feed

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *

Ähnliche Artikel

Unsere Theorie des Wandels

Wie man den Krieg beendet

Move for Peace-Herausforderung
Antikriegsveranstaltungen
Helfen Sie uns zu wachsen

Kleine Spender halten uns am Laufen

Wenn Sie sich für einen wiederkehrenden Beitrag von mindestens 15 USD pro Monat entscheiden, können Sie ein Dankeschön auswählen. Wir danken unseren wiederkehrenden Spendern auf unserer Website.

Dies ist Ihre Chance, a neu zu erfinden world beyond war
WBW-Shop
In jede Sprache übersetzen