När bots inte kan hantera sanningen: artificiell intelligens och aktivism

datorgenererad simulerad akvarell av 7 personer som gråter framför brooklynbron

av Marc Eliot Stein, World BEYOND War, 31 juli 2023

Detta är en komplett utskrift av avsnitt 50 av World BEYOND War: en ny podcast.

Det är juli, den varma sommaren 2023. Du vet vem jag är, jag är Marc Eliot Stein, teknikchef för World Beyond War, fortfarande här i Lanape-länderna i Brooklyn New York, gör fortfarande det rätta här på World Beyond War podcast, Förutom att idag är speciellt eftersom detta är avsnitt 50, wow ett runt nummer.

När jag startade den här podden antar jag att jag aldrig ens tänkte på om jag någonsin skulle få till 50 avsnitt. Siffran 50 skulle säkerligen inte ha verkat realistisk vid den tiden. Jag antar att jag främst undrade om jag någonsin skulle slutföra avsnitt nummer 1, och det var några nära samtal med att ge upp innan jag gjorde det.

Och här är jag vid 50, och vilken glädje det är, att inse att vi kom på hur vi skulle få den här antikrigspodden att fungera, och hittade en publik som växer för varje månad. Jag är så stolt över den här podden, och jag är tacksam för alla som har varit en del av den hittills.

Podcasting är ett unikt kreativt format. Det är inte som något annat. Jag vet det här eftersom jag själv är poddmissbrukare. Jag har minst 20 regelbundna program som jag verkligen bryr mig om – om historia, politik, teknik, musik, litteratur, TV, filmer. När jag är på humör att chilla och utöka mina kunskaper samtidigt, finns det egentligen inget annat format som träffar som en podcast. Jag tror att detta är en viktig skillnad: lägg en värd och en gäst i ett webbseminarium, säg, eller en livestreamad chatt, och de kommer att ha en typ av konversation, men om du lägger samma två personer i en poddintervju, på något sätt Kommer ha en annan typ av konversation – förmodligen mer personlig, mer spontan, mer stökig, mer i nuet, mindre utformad för att gå mot en slutsats.

Varför är det just detta? Jag vet inte, men den bortgångne medie- och teknikfilosofen Marshall McLuhan skrev något 1964 om hur snabbt tv:ns nya popularitet förändrade det moderna samhället, och han hade rätt. Mediet, sa McLuhan, är budskapet. Formatet är innehållet.

Du kan till exempel skriva samma ord på Facebook och på Twitter och på LinkedIn, och orden kommer att ha olika betydelse i varje enskilt fall. Eftersom podcaster hyllar den spontana och opepeterade mänskliga rösten har poddsändning blivit ett forum där mänsklig ambivalens eller till och med förbryllande motsägelse och ironi lätt kan välkomnas och förstås. Jag antar att det här är ett bra forum för att prata om en trend som är väldigt aktuell i nyheterna och som jag har många ambivalenta och förbryllande tankar på att dela med er idag. Jag pratar om artificiell intelligens.

När Marshall McLuhan sa att mediet är budskapet redan 1964, när få människor tänkte på de subtila sätten på hur tv och andra intima hembaserade sändningsmedier förändrade själva strukturen i det mänskliga samhället. I dag hotar ett nytt medium som möjliggörs av dagens mest aktuella teknik också att få en enorm samhällelig påverkan. Jag pratar om populära generella AI-verktyg som ChatGPT som är tillgängliga för alla med en internetanslutning – och om du inte har hört talas om ChatGPT får det mycket uppmärksamhet överallt på grund av hur väl det efterliknar mänskliga samtal och hur enkelt den kan integrera och hämta hela det breda spektrumet av tillgänglig allmän kunskap.

Chatbots har funnits i några år – de kan vara lika enkla och ofarliga som vänliga automatiserade chatbots för kundtjänst på en BestBuy- eller Ticketmaster-webbplats. Nya chatbots som ChatGPT4 är inte begränsade i omfattning till elektroniska produkter eller konsertbiljetter – det är väldigt olika typer av kunskapsmotorer, kända som stora språkmodeller, tränade för att förstå hela mänsklig intelligens.

Ibland tror folk att G:et i ChatGPT är för General, och detta skulle vara en anständig gissning, eftersom systemet är designat för att visa allmän intelligens och allmän kunskap. G:et står egentligen för Generative, vilket betyder att den här produkten också är designad för att skapa saker – för att skapa originalbilder och ord. P står för pre-trained, som vi ska prata om om några minuter, och T är för Transformer, som inte är ett klassiskt Lou Reed-album utan ett mjukvarudesignmönster som tillåter språkmodellen att svara på inmatade texter bearbeta ett ord i taget men genom att överväga och köra transformationer på hela den inmatade texten som helhet.

Dessa nya chatbots kan samtala om vilket ämne som helst i en vänlig, interpersonell, nyanserad konversationsstil. Chatbotarna kan skriva uppsatser, lösa problem, göra djupgående databassökningar, generera datorkod, omedelbart svara på svåra frågor. ChatGPT och andra erbjudanden som det visar en nivå av språklig och omfattande smidighet som verkar flytta fältet för artificiell intelligens framåt snabbare än vad många av oss förväntat sig skulle vara möjligt. Det fanns en nyhet för inte så länge sedan att en del personal på Google trodde att deras eget AI-system kunde klara Turing-testet och bli omöjligt att skilja från kännande mänsklig kommunikation, vilket skrämde Googles egna experter med bevis på medvetande. Jag vet inte om jag personligen tror att någon AI kan klara Turing-testet, men jag vet att många experter nu tror att detta håller på att bli möjligt.

Chatbotar med allmän kunskap är långt ifrån det enda populära användningsfallet för AI. Bildgeneratorer kan omedelbart skapa visuella konstverk från textuppmaningar – ibland häpnadsväckande, smarta bilder som skulle ta fysiska målare eller digitala konstnärer timmar eller dagar eller veckor att skapa. Bildgenerering från textmeddelanden är en realitet idag via gratis bildgeneratorer för artificiell intelligens online som DALL-E, från OpenAI, samma Silicon Valley-företag som skapade ChatGPT. Du kan föreställa dig en idé och beskriva en målarstil och den här webbtjänsten skickar dig på ett magiskt sätt en massa olika varianter av försök att fånga din idé.

En DALL-E prompt läsning "snälla rita en mångfaldig grupp människor som gråter på brooklyn bron i akvarellstil" följt av 4 bilder producerade av bildgenerator
Exempel på interaktion med DALL-E bildgenerator.

Detta är en realitet i dag, och det är också en realitet i dag att ChatGPT4 kan skriva skickliga, genomtänkta, omfattande uppsatser om nästan vilket ämne de får frågan om – uppsatser som kan vara tillräckligt bra för att få avancerade högskoleexamen.

Kanske är det för tidigt att göra en sådan här förutsägelse, men det verkar som att intelligenta chatbots och bildgeneratorer – maskingenererat skrift och maskingenererat konst – representerar en stor teknisk innovation och en stor samhällelig innovation som kommer att påverka oss alla på jorden på ett sätt eller annan. Vem vet vilken väg framtiden går nu för tiden, men det verkar åtminstone möjligt att lanseringen av ChatGPT3 2022 en dag kommer att minnas ett betydelsefullt ögonblick i kulturhistorien liknande lanseringen av Mosaic-webbläsaren 1993, som kickstartade hela den populära Internetboom som vi fortfarande lever i idag.

Det verkar också möjligt, jag är störd att säga, att denna nya innovation kommer att orsaka nya typer av stora problem som vi alla kommer att behöva hantera, även om många av oss kan känna att vårt samhälle redan drunknar i de oönskade efterverkningarna av andra tekniska innovationer som vi inte efterfrågade i våra liv, inte bjöd in i våra liv, och som ändå finns i våra liv.

Jag vill ägna det här avsnittet åt att prata om hur AI påverkar oss som antikrigsaktivister. Låt mig säga detta på förhand: AI är ett hett ämne, mycket kontroversiellt, och det är som det ska vara. Vi borde oroa oss för det och vi borde prata om det, och enligt min åsikt bör vi också öppna våra sinnen för det goda som den här tekniken kan göra.

Det är kontroversiellt bland progressiva och aktivister och det är kontroversiellt för alla. Det borde vara kontroversiellt, och jag gör inte det här avsnittet eftersom jag har enkla svar om hur dessa senaste innovationer kan påverka vår planet. Jag vet att de kommer att påverka vår värld, och jag vet att antikrigsaktivister måste prata om det. Så jag gör det här avsnittet för att få igång konversationen, för att beskriva de olika frågorna som jag tror att många antikrigsaktivister förmodligen kämpar med när de pratar om det här ämnet, och kanske för att uttrycka en viss förståelse för alla sidorna av detta förvirrande frågor. Det är vad jag ska försöka göra här – och när du är klar med att lyssna på det här avsnittet, vänligen dela din feedback om vår world beyond war webbsida för detta avsnitt, eller genom att kontakta mig direkt – jag är lätt att hitta.

När det gäller inverkan på vardagen undrar många om artificiell intelligenss fantastiska kapacitet kommer att sätta många människor utan arbete. Detta är ofta den första oro som uppstår för människor när de ser kraften i AI. Kommer dessa avancerade förmågor att orsaka att olika sektorer av hälsosam mänsklig sysselsättning och strävan plötsligt blir oönskade? Vårt samhälle är redan illa ur balans när det gäller vem som arbetar, vem som tjänar och vem som gör utgifterna. Om medelklassens ekosystem som arbetar för ett levande störs ytterligare eftersom AI kan göra många av samma uppgifter bättre och gratis, kan vi vara säkra på att störningen kommer att öka klyftan mellan de rika och resten av oss, att 1 % kommer att kunna dra nytta av förändringen medan vi andra får stå inför konsekvenserna, och att 1 % också kommer att göra AI-verktyg som hjälper 1 % otillgängliga för de människor som skulle kunna använda deras hjälp, eller för dyra för dem att komma åt.

Låt oss inse det, i de rovkapitalistiska ekonomierna som många av oss har fastnat i, innebär arbetslöshet att vi sätter i skuld och förlorar vår valfrihet, och det är precis vad dessa sociopatiska fästningsekonomier är designade för att göra med vanliga människor – ta bort vår makt valfrihet och få oss att betala dem och arbeta för dem. Detta är den framtida visionen för fästningskapitalismen idag: vi kommer att ha nya intelligenta och kraftfulla datorer, eftersom vi själva är fattiga.

Det finns också det faktum att polis och militär redan börjar använda artificiell intelligens, tillsammans med nya kraftfulla och våldsamma robotar. Jag tror att detta kan vara det allvarligaste och mest omedelbara hotet som AI utgör just nu, och jag tror att proteströrelser som belägras av polisen, som till exempel den viktiga Stop Cop City-rörelsen i Atlanta Georgia, redan hanterar denna förändrade verklighet. AI-system bär på fördomar och kodade värden hos sina mänskliga skapare, så AI-utbildad polis eller militär hotar att bli bokstavliga jakt- och mördarmaskiner för utsatta befolkningsgrupper, som väljer sina mål baserat på utseende eller ras. I en värld som redan rasar utom kontroll med krig från Ukraina till Jemen, är tanken på att bemyndiga den ena eller andra sidan – och oundvikligen båda sidor – med nya typer av mordmaskiner och förtrycksregimer kodade med ond rasprofilering lika hemsk som det låter.

De värsta scenarierna för massarbetslöshet eller raskodad artificiell intelligens som används av polis och militära styrkor är skrämmande, och vi kan inte sova på detta eftersom effekterna redan finns i vår värld. Det händer redan. Så låt oss bara börja den här konversationen med att erkänna att två av de separata fasor som avancerad AI tycks presentera – massarbetslöshet och missbruk av polis och militära styrkor – är två olika sätt som mäktiga krafter av förankrad rikedom och privilegier stjäl rättigheter och friheter från folket. .

På tal om förankrad rikedom och privilegier – låt oss prata om OpenAI, ett företag i norra Kalifornien som du kan hitta online på OpenAI.com. Detta företag var föga känt förrän de lanserade bildgeneratorn DALL-E 2021, och i november 2022, för bara nio månader sedan, släppte de sin första offentliga chatbot, ChatGPT3, snabbt följt av den mer kraftfulla och kapabla ChatGPT3.5 och ChatGPT4 , de versioner som är tillgängliga nu.

Jag var ganska utslagen när jag först såg bilderna som DALL-E kunde skapa, och slogs ut ännu mer första gången jag provade ChatGPT. Utmaningen som dessa verktyg försökte möta var mycket bekant för mig, eftersom jag själv har studerat AI intensivt, vilket många mjukvaruutvecklare har. Mitt första möte med artificiell intelligens var ett självständigt studieprojekt som jag gjorde på college, för ganska många decennier sedan.

Det här var 1980-talet, och kanske en del mycket unga människor kommer att bli förvånade över att höra att människor som jag utförde AI-arbete på 1980-talet, men termen artificiell intelligens är nästan lika gammal som själva datorrevolutionen. Även om AI-prestationer från 1950- till 1990-talet var infantila jämfört med de framsteg vi har sett under åren sedan dess.

Fältet var faktiskt så öppet på 80-talet att jag kunde få några poäng under mitt sista år som kombinerad huvudämne i filosofi och datavetenskap genom att koka ihop ett originellt självständigt studieprojekt för ett program som skulle analysera meningar på engelska och svara på ett sätt som demonstrerar eller simulerar grundläggande förståelse. Jag kodade i LISP på en lustigt skrymmande, grönglödande Unimatic-terminal ansluten till en massiv Univac stordator som var lika stor som en stor byggnad och förmodligen hade mindre kraft än MacBook som jag spelar in den här podden på just nu, för det var så vi rullade tillbaka på 80-talet.

Den spännande utmaningen i mitt AI-oberoende studieprojekt var att analysera och svara på meningar som inkluderade enkla verb och substantiv. Till exempel skulle jag skriva meningar som "Jag har en katt som heter Happy" och "min katt är orange" och "alla katter säger mjau" i mitt LISP-program, vilket skulle visa en viss förståelse genom att svara på frågor som "är Happy orange?" eller "säger Marcs katt mjau?". Roligt nog försökte jag skapa en AI-chattbot precis där på min Univac stordator.

Jag slår vad om att många andra universitetsstudenter försökte göra samma sak vid den tiden, men ingen av oss kom särskilt långt, eftersom det här var 1980-talet och en viktig briljant idé hade inte nått oss ännu: det neurala nätverket, som tillhandahåller en programvara struktur utformad för att utföra massivt parallella enkla operationer som liknar neuroner i den mänskliga hjärnan. Medan mitt LISP-program gav enkeltrådade beräkningar, och Fortran- och COBOL- och Pascal-programmen följde samma begränsade enkeltrådade paradigm, gav neurala nätverk parallella elementära trådar som utförde enkla beräkningar parallellt. Den mänskliga hjärnan gör en hel del parallell bearbetning – samtidiga operationer som formar illusioner av singularitet – och mjukvarustrukturen känd som det neurala nätverket skulle tillåta kodare att ta fram kraften i denna parallella bearbetning – efter att jag tog examen från college.

Tillsammans med konceptet med det neurala nätverket kom så småningom konceptet att träna ett neuralt nätverk med repetitiva aktiviteter – ett annat koncept som inte hade nått oss ännu på 80-talet. Jag matade mitt LISP-program med ett litet antal fullständiga meningar och gav det ingen feedback för att korrigera och förbättra dess prestanda. Det jag borde ha gjort, istället för att skriva meningar i min datorterminal, var att mata den med hela böcker och tidningar och uppslagsverk, och ständigt interagera med den för att ge feedback till dess beteende när mitt program upprepade gånger försökte simulera de mest grundläggande, primitiva handlingar av förståelse. Genom att ge den massor av läsmaterial för att bygga upp en rik och komplex kunskapsbas och träna den repetitivt och grundligt, kanske jag faktiskt har fått mitt datorprogram att säga något överraskande om huruvida jag hade en katt som var orange eller inte. Neurala nätverk och repetitiv träning, visar det sig, hjälpte till att leda vägen till de framgångsrika simuleringar av mänsklig intelligens som vi ser med chatbots idag.

Du kommer att märka att jag talar om att simulera mänsklig intelligens. Detta pekar på en annan kontrovers. Vissa människor tycker att termen "artificiell intelligens" är löjlig. Värre än löjligt, vissa finner idén etiskt bekymmersam eftersom, om intelligens ger upphov till medvetande, kan artificiell intelligens förvandlas till artificiellt medvetande – artificiell förnimmelse, artificiell vilja, artificiell rätt att existera. Detta väcker verkligen många existentiella frågor. Alla dessa frågor är giltiga och viktiga. Vissa undrar om AI-kunskapsmotorer och språkmodeller kanske redan håller på att utveckla medvetandet. Personligen tycker jag att det är ganska lätt att förklara att, nej, vi behöver inte oroa oss för att chatbotar utvecklar faktiska känslor. Det finns många olika aspekter av AI att oroa sig för, och det här är inte en som jag personligen oroar mig för. Men det betyder inte att jag kan bevisa att jag har rätt och att ingen ska oroa sig för det. Jag kanske bara är så överväldigad av olika saker jag borde oroa mig för att jag inte har tid att oroa mig för den här. Jag har inte ett definitivt svar på alla frågor som kan uppstå om frågorna om maskinkänsla, och jag tänker inte låtsas att jag har det. Men jag vet vad frågorna är som vi måste ta reda på hur vi ska möta.

En åsikt jag ibland hör inom aktivistgrupper är att AI är en massa hype – en illusion som främjas av en stor språkmodells utmärkta konversationsförmåga. Visst, GPT kan analysera en fråga och svara i elegant fraseologi, men varför skulle denna glädje med språket få oss att föreställa oss att några meningsfulla framsteg har gjorts? Google och Wikipedia har redan gjort hela mänsklig kunskap lätt tillgänglig gratis på Internet, till Encyclopedia Britannicas bestörtning. Vi hör all denna hype om ChatGPT helt enkelt för att den presenterar en språklig fasad av mänskligt medvetande, en illusion som vi alla faller för så ivrigt. Jag tror att det finns en viss giltighet här. Kanske om Google eller Wikipedia ursprungligen hade lanserats på det plötsliga och fullt utformade sättet ChatGPT gjorde, kanske vi skulle tala om lanseringen av Google eller Wikipedia som massiva framsteg inom kollektiv mänsklig intelligens, eftersom båda har påverkat vår värld redan.

Ändå, som jag nämnde ovan när jag pratade om neurala nätverk och träning, att beskriva stora språkmodeller som fasader är att underskatta de lager av mjukvarustruktur som måste finnas för att göra denna språkliga lycka möjlig.

Här är en större fråga, enligt min mening: låt oss undersöka OpenAIs etik och dess huvudmän, grundare och investerare och partners. Det finns en hel massa problem här.

OpenAI.com är ett privatfinansierat forskningslaboratorium som växer fram ur samma ultrarika och högt rullande Silicon Valley-ekosystem av teknikinkubatorer som gav oss Facebook, Google, Microsoft, Amazon och Oracle. Dess grundare inkluderar Elon Musk, kändismiljardären vars sociopatiska offentliga kommentarer verkligen gör mig sjuk ungefär lika mycket som många andra människor. Elon Musk var aldrig direkt involverad i OpenAI, och han har gått vidare till andra saker som att visa sin offensiva personlighet över hela sociala medier, så det är allt jag vill säga om Elon Musk idag.

Som jag ser det är det ännu mer fördömande att OpenAI är hårt involverat i Microsoft, en stor krigsprofitör och en stor profitör inom artificiell intelligens för krig. Denna oroande förening är vad jag hoppas att folk kommer att oroa sig för, till och med mer än Elon Musk-kopplingen. Vi borde vara mycket oroade över att DALL-E:s och OpenAI:s vänliga ansikte är en användbar fasad för åtminstone en enormt inflytelserik och ond krigsprofitör, Microsoft, som redan utvecklar de typer av raskodade militära och polisiära artificiell intelligensapplikationer vi pratade om. ungefär ovan. Detta sker redan bakom kulisserna hos Microsoft och andra amerikanska teknikjättar som är djupt knutna till den amerikanska krigsmaskinen. Och det här är den värsta nyheten jag kan komma på.

Soldat bär ett tungt headset med glasögon och kablar
Microsofts Hololens augmented reality-headset används av den amerikanska militären

Vi i antikrigsrörelsen kan inte vända ryggen åt artificiell intelligens på grund av dess onda potential. Jag menar naturligtvis inte att alla i antikrigsrörelsen behöver tillåta tekniska intrång i sina egna liv. Jag är glad att många progressiva och aktivister gör ett giltigt val för att undvika trendiga tekniska innovationer i sina liv. Jag kan relatera till och respektera denna attityd, även om jag själv är långt ifrån en teknikfri livsstil. Teknik är mitt område, min karriär, och som teknolog är jag fascinerad av genialitet och kreativitet och innovation bakom strävanden som artificiell intelligens.

Dessutom är jag helt enkelt som en nyfiken person absolut intresserad av att få insikter i mänsklig intelligens genom att lära mig om hur datorer har gjorts för att simulera den. Jag tillåter också ChatGPT i mitt liv eftersom jag har upptäckt hur användbart det är. Jag går till OpenAI.com och ställer frågor till den hela tiden. Jag använder ChatGPT för att skriva kod, inklusive Javascript för en ny version av vår interaktiva karta över amerikanska utländska militärbaser som jag arbetar med i sommar tillsammans med andra på World Beyond War.

Låt oss säga att jag vill rensa upp en frågesträngsparameter genom att ta bort specialtecken med ett reguljärt uttryck, vilket är något jag skulle ha använt för att fråga Stack Overflow om, och jag skulle lägga ihop min arbetskod från rekommenderade fragment som lagts upp i en konversationstråd . Istället berättar jag nu för ChatGPT vad jag vill, och ChatGPT spottar helt enkelt ut perfekt formaterat Javascript, körbart och felfritt. De flesta av mina mjukvaruutvecklare vänner använder ChatGPT för att skriva kod nu – jag vet att vi gör det eftersom vi gillar att prata om det. Jag tror inte att någon av oss kodare är orolig än att ChatGPT kommer att ersätta oss, eftersom det är vi som måste sätta ihop kodbitarna för att skapa fungerande system, och GPT producerar bara kodbitar. Men jag undrar hur detta kommer att förändra hur mjukvaruutvecklare arbetar. Det har definitivt redan förändrat spelet.

Jag använder också ChatGPT för att slå upp saker online som jag skulle ha brukat använda Google, och jag använder det för uppmaningar och perspektiv och bakgrundsinformation om saker jag skriver om eller tänker på. Jag skojar inte när jag säger att jag använder det till allt – som när jag nämnde 1960-talets teknikfilosofen Marshall McLuhan ovan, jag bad naturligtvis ChatGPT om lite info om Marshall McLuhan, och det är ChatGPT som berättade att 1964 var året han publicerade boken som sa "mediet är budskapet".

Det faktum att så många av oss redan har flyttat från Google till GPT för grundläggande internetsökningar säger mycket. Det är väldigt lätt att börja låta dessa nya typer av verktyg sakta och omärkligt komma in i våra liv, även när vi oroar oss för implikationerna och motivationerna bakom dem.

Liksom den underliggande mjukvarutekniken för själva Internet, som skapades av tvivelaktiga skäl av den amerikanska militären men som har fortsatt att orsaka samhälleliga förändringar och hitta nya användningsfall som var helt utanför sfären av dess ursprungliga syfte, kommer denna nya teknik att hitta sin egen väg för att påverka våra liv. Den här nya tekniken är verklig, den fungerar för bra för att ignoreras, och den är här för att stanna. Återigen, det är därför jag tillbringar ett avsnitt med att prata med antikrigsaktivister om det – eftersom det redan är en del av vår verklighet, och vi kan behöva några av krafterna om erbjudanden för att få vårt eget arbete gjort här på jorden.

Låt oss ägna en minut åt att fundera över de många aspekterna av livet på denna planet som inte har de fruktansvärda problem som vi antikrigsaktivister är så medvetna om. Konst, musik, litteratur, biologi, kemi, fysik, geologi, astronomi, medicin, hälsa, tillverkning, jordbruk, nutrition. I alla dessa världar, alla dessa strävanden ... den offentliga lanseringen av en mycket kapabel chatbot för allmän kunskap har stor inverkan. Det finns inget fält det inte rör.

På planet för fredlig mänsklig samexistens – ett plan som jag önskar att jag kunde ägna mer tid åt att existera på mig själv – är artificiell intelligens ett mirakulöst framsteg av mänsklig förmåga som lovar stora fördelar. Om vi ​​bara levde i en fredlig och säker och rättvis värld, skulle vi bättre kunna njuta av de underverk som artificiell intelligens kan producera tillsammans.

Vi ser några av dessa underverk när vi arbetar med en bildgenerator och skapar fantastiskt smarta eller kreativa bilder baserat på våra egna uppmaningar som vi inte skulle kunna producera annars. Vi känner också paradoxen om huruvida artificiell intelligens-verktyg kan användas för gott eller inte. Som tekniker tror jag att det inte är teknisk innovation som är problemet på planeten jorden under 21-talet. Jag välkomnar alltid teknisk innovation, och jag tror att farorna AI utgör beror på förankrad kapitalism och krig – på det faktum att detta är en planet i krig med sig själv, en planet dominerad av en rik 1% som inte kan motstå att sätta sig på den suicidala vägen att bygga militariserade fästningssamhällen som undertrycker andra människor för att behålla privilegier. Vad vi behöver göra är att läka vårt samhälle – vad vi inte behöver göra är att fly från tekniska framsteg eftersom vi missförstår orsakerna till vår plåga och vår självmordsbana.

Det är vad jag tror. Naturligtvis är det inte vad alla antikrigsaktivister tycker, och det är okej. Vi fick några intressanta reaktioner på World Beyond War e-postdiskussionslista – som är ett livligt och intelligent forum som jag rekommenderar alla att gå med i, klicka bara på länken på vår hemsida eller sök efter world beyond war diskussionslista – efter att någon delat några riktigt fantasifulla antikrigsbilder som hade genererats med DALL-E, och någon annan delat några förvånansvärt användbara ord om hur vår sjuka planet kan hitta vägar till världsfred.

Jag anser att aktivister bör behärska all tillgänglig teknik – att aktivism inte bör försätta sig i en situation att vara mindre kapabel att använda avancerad innovativ teknik än de korrupta regeringar och giriga företag som har för vana att förtrycka oss.

Jag tror också att vi också kan få fram överraskande filosofiska sanningar om mänskligt medvetande och mänsklig existens genom att studera de algoritmer och designmönster som används för att modellera och simulera det. Att bara spendera några minuter på att busa med ChatGPT på OpenAI-webbplatsen kan avslöja några vilda sanningar om den mänskliga naturen.

Här är en vild sak som jag fortfarande lindar hjärnan runt. ChatGPT ljuger ibland. Det hittar på saker. Du kommer vanligtvis inte att se detta när du börjar ifrågasätta GPT, eftersom det vanligtvis kommer med ett kraftfullt svar på den första frågan i en konversationstråd. GPT hänger sedan med dig när du ställer följdfrågor, och här är det möjligt att sortera tillbaka GPT i ett hörn där det börjar ligga rakt upp. En av de första frågorna jag någonsin ställde ChatGPT var att berätta för mig om de bästa antikrigspodcasterna, eftersom mitt ego naturligtvis var engagerat och jag ville se om World Beyond War podcast skulle dyka upp på listan.

Nu, eftersom GPT är förtränad – det vill säga, den var förtränad och matas inte längre aktivt med aktuella nyheter och information, så jag skulle inte förvänta mig att den skulle veta mycket om min lilla podcast. Jag ville inte heller förvränga resultaten genom att visa GPT att jag var intresserad av en viss podcast, så jag frågade om det fanns några utmärkta antikrigspodcaster och det försäkrade mig att det verkligen var det. Jag började sedan gå in på detaljer, i hopp om att få den att namnge World Beyond War podcast genom att fråga – kan du berätta om poddar som har intervjuat välkända aktivister som Medea Benjamin. Här börjar saker bli roliga. När systemet väl gör ett påstående kommer det att försöka säkerhetskopiera påståendet, så efter att det försäkrade mig att det verkligen fanns poddar som hade intervjuat Medea Benjamin bad jag det namnge en av dessa podcaster, och det berättade sedan för mig att Medea Benjamin var programledare för sin egen podcast. Det är hon inte! Om hon var det skulle jag absolut lyssna på den. Jag kunde få ChatGPT att ljuga genom att backa in den i ett hörn där den behövde tillhandahålla information som den inte hade, så den skapade information som lät realistisk.

Detta händer oftare än man skulle kunna tro. Du kan också enkelt fånga ChatGPT i ett misstag genom att kasta sann men motsägelsefull information på den. Efter att GPT korrekt informerade mig om att Marshall McLuhans introducerade citatet "The medium is the message" 1964, kom jag ihåg att den här briljanta och skarpa filosofen också hade skrivit en sorts ironisk uppföljning till sin tidigare bok som tog upp det mörkare och mer oroande. sätt som media kan få mänskliga sinnen att söva på, de skrämmande befolkningarna i företagens massbefolkningskontroll genom media – eftersom Marshall McLuhan verkligen var så fantastisk, han förstod denna fara långt tillbaka på 1960-talet och publicerade en annan bok 1967 med konstnären Quentin Fiore kallas "Medium är massagen".

Så här blev det konstigt med GPT. Jag bad ChatGPT att berätta om Marshall McLuhans citat "mediet är massagen" ... och GPT informerade mig rakt av att McLuhan inte hade sagt "mediet är massagen" utan snarare hade sagt "mediet är meddelandet". Det är klart att GPT trodde att massage var ett stavfel. Jag informerade sedan GPT om att det var felaktigt och att McLuhan verkligen hade sagt både "mediet är budskapet" och "mediet är massagen". Så fort jag sa detta insåg ChatGPT sitt misstag och bad om ursäkt och informerade mig om att ja, "mediet är massagen" var en bok han skrev 1967.

omslag till "The Medium is the Massage" av Marshall McLuhan och Quentin Fiore, 1967

Så varför blev det fel först, och särskilt varför blev det fel när det redan hade tillgång till rätt svar inom räckhåll? Tja, det är här GPT börjar avslöja överraskande sanningar om oss själva, för i själva verket fick GPT:s två misstag eller felaktiga beteenden att det verkade mer mänskligt, inte mindre. Kom ihåg att G i GPT står för generativ. Systemet är utformat för att generera svar när det är osäkert på rätt svar. Det kan berätta titeln på en film eller en bok som inte finns – men det kommer att vara en titel som verkar som om den skulle kunna existera. Om du har en öppen, lång konversation med ChatGPT om något ämne du kan mycket om, kommer du snabbt att se att det börjar göra misstag.

Sättet jag kunde manövrera GPT i ett hörn genom att ställa uppföljningsfrågor till sina egna svar, vilket så småningom fick den att generera realistisk skenbar men falsk information i ett försök att backa upp sina tidigare uttalanden verkade inte omänskligt för mig, utan grundligt. mänsklig.

Vi ser den trubbiga kraften i retoriska och manipulativa argumentationsstilar här. Det vi kanske kan lära oss av detta överraskande felaktiga beteende hos ChatGPT är att det är mänskligt omöjligt att uppfatta sanningen utan att på ett eller annat sätt fabricera sanningar, och om vi inte är försiktiga kan dessa påhittade sanningar som vi använder i retoriska syften bli lögner som vi är tvingas försvara med fler påhitt. Pojke, det här verkar verkligen verklighetstroget för mig.

Ännu mer verklighetstrogen: vi vet att ChatGPT:s mänskliga beteende inkluderar lögn. Och ändå litar vi på det! Jag fortsätter till och med att använda det själv, eftersom jag verkligen är självsäker nog att tro att jag alltid kommer att kunna upptäcka när GPT anstränger sig för ett svar och genererar falsk information. Hej, jag kanske skämtar med mig själv, och jag kanske borde tänka på min egen benägenhet att tro påhittade sanningar och min egen benägenhet att möjliggöra att ljuga i andra.

Här är ett sätt som GPT gör oss smartare, genom att peka ut hur vi ägnar oss åt osanning och fasader och vita lögner och vänliga bedrägerier i våra normala mänskliga relationer. För att uttrycka det i ett nötskal: ChatGPT kan inte simulera mänskligt beteende utan att ibland ljuga. Det här är en jäkla sak för oss alla att tänka på.

Här är något annat att tänka på: hur mår vi människor när det gäller att hänga med i de tekniska innovationerna som definierar våra samhällen? Under de senaste åren har vi anpassat oss till framsteg inom AI samtidigt som vi absorberar uppfinningen av blockchain, en ny teknisk metod för att bygga delade databaser med nya koncept för ägande, åtkomst och validering. Vi gjorde ett tidigare avsnitt om blockchain, och jag känner mig personligen ganska säker på att de flesta människor jag känner fortfarande inte förstår hur blockchain förändrar våra liv och kommer att förändra våra liv i framtiden – och nu har vi ett stort språk modeller och allmänna kunskapsmotorer för att förändra våra liv och vår framtid också! Lägg det här ovanpå, hmm … vart ska jag ens ta vägen här … det mänskliga genomprojektet, stora framsteg inom hjärnvetenskap, utforskningen och koloniseringen av rymden … hej, medmänniskor, hänger vi med i allt detta?

Låt oss nu kasta in de tekniska och vetenskapliga dispyterna om pandemier som COVID, och låt oss inte vila där utan fortsätta med att överväga situationen med allmänt tillgängliga kärnvapen i händerna på korrupta och inkompetenta så kallade regeringar som styrs av åldrande byråkrater, och politiken av ömsesidigt säkerställd förstörelse.

Håller vi på med detta? Nej, men den här skiten hänger med oss, och den har vårt nummer. Varje morgon vaknar jag och läser om proxykriget mellan Nato och Ryssland som tragiskt har mördat de stackars människor som bor i Ukraina. Och varje morgon undrar jag om det här är dagen då våra så kallade ledares inkompetens kommer att få kärnvapenkrig att börja – varje dag undrar jag om detta är den sista dagen för mänskligt liv på planeten jorden.

Det är den varma sommaren 2023. Det finns en ny film som heter "Oppenheimer" om vetenskapsmannen vars arbete ledde till den otroliga fasan av det ögonblickliga mordet på hundratusentals människor i Hiroshima och Nagasaki, Japan 1945. Jag tror inte någon av oss har ännu lyckats expandera vårt eget sinne tillräckligt för att förstå den absoluta ondskan, de chockerande, outhärdliga sanningarna om de misstag våra samhällen har gjort – och om vår misslyckande med att förbättra oss själva och resa oss från vårt patetiska, skamliga samhälleliga beroende av masshat och massvåld.

Jag nämnde ovan att vissa människor frågar om artificiell intelligens kan leda till medvetande och/eller känsla – om ett AI-system någonsin kan utveckla känslor och känslor, och vad dessa ord och dessa frågor ens betyder. Jag har inte sett filmen Oppenheimer än, och jag känner mig ganska illamående av tanken på en film om massmord i Japan som inte visar de japanska offrens ansikten. Istället för att undra om AI-system är kännande eller inte, vill jag bara säga att varje enskild person som brändes i Hiroshima och Nagasaki var kännande och medveten. Det är en sanning som jag inte tror att vi har lyckats inse än. Kanske måste vi träna våra egna sinnen på det här lite mer.

Och det är där vi slutar idag. Människor kan inte hantera sanningen om de problem vi har skapat och de förändringar vi behöver göra för att förbättra oss själva. Bots kan inte heller hantera sanningen. Tack för att du delar det här utrymmet med mig när jag funderar över mysterierna och ironierna i den mänskliga existensen, och jag kommer att ta oss ut med den mänskliga rösten av en sångare och låtskrivare som jag har älskat länge, Sinead O'Connor, och en låt som heter Healing Room. Tack för att du lyssnade på avsnitt 50. Vi ses snart igen för 51.

World BEYOND War Podcast på iTunes
World BEYOND War Podcast på Spotify
World BEYOND War Podcast på Stitcher
World BEYOND War Podcast RSS Feed

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *

Relaterade artiklar

Vår teori om förändring

Hur man avslutar krig

Move for Peace Challenge
Antikrigshändelser
Hjälp oss växa

Små givare håller oss igång

Om du väljer att ge ett återkommande bidrag på minst 15 USD per månad kan du välja en tackgåva. Vi tackar våra återkommande givare på vår hemsida.

Detta är din chans att ombilda en world beyond war
WBW-butik
Översätt till valfritt språk