Klimaendringer, teknikere, antiwareaktivister som jobber sammen

Overskrift for utryddelsesmøte i New York City 30. januar 2020

Av Marc Eliot Stein, 10. februar 2020

Jeg ble nylig invitert til å tale på en samling for utryddelsesopprør i New York City på vegne av World BEYOND War. Arrangementet ble designet for å samle tre aksjonsgrupper: aktivitetsaktiviteter for klimaendringer, kollektive teknikere og aktivister mot krigshandlinger. Vi begynte med en rørende personlig beretning fra klimaendringsaktivisten Ha Vu, som fortalte publikum av New Yorkere om en alarmerende opplevelse noen få av oss noen gang har hatt: å returnere til familiens hjem i Hanoi, Vietnam, der økt varme har allerede gjort det nesten umulig å gå utenfor i høye soltimer. Få amerikanere vet også om 2016 vannforurensningskatastrofe i Ha Tinh i det sentrale Vietnam. Vi snakker ofte om klimaendringer som et potensielt problem i USA, understreket Ha, men i Vietnam kan hun se at det allerede forstyrrer liv og levebrød, og raskt blir verre.

Nick Mottern av KnowDrones.org snakket med samme hastverk om det amerikanske militærets nylige massive investering i futuristisk kunstig intelligens og cloud computing - og understreket militærets egen konklusjon om at distribusjon av AI-systemer i kjernevåpenhåndtering og dronekrigføring uunngåelig vil føre til feil av uforutsigbar størrelse. William Beckler fra Extinction Rebellion NYC, etterfulgt av å forklare organiseringsprinsippene som denne viktige og raskt voksende organisasjonen setter i verk, inkludert forstyrrende handlinger designet for å øke bevisstheten om den kritiske betydningen av klimaendringer. Vi hørte fra en representant fra New York City for Teknisk arbeidernes koalisjon, og jeg prøvde å dreie samlingen mot en følelse av praktisk myndighet ved å snakke om en opprørsaksjon for teknikere som uventet var vellykket.

Dette var i april 2018, da den såkalte "forsvarsindustrien" surret om Project Maven, et høyt publisert nytt amerikansk militært initiativ for å utvikle kunstig intelligensevne for droner og andre våpensystemer. Google, Amazon og Microsoft tilbyr alle plattformer for kunstig intelligens for betalende kunder, og Google ble sett på som den sannsynlige vinneren av militærkontrakten Project Maven.

Tidlig i 2018 begynte Google-arbeidere å snakke opp. De forsto ikke hvorfor et selskap som hadde rekruttert dem som ansatte med løftet “Don't Be Evil” nå budde på militære prosjekter som sannsynligvis kunne ligne den forferdelige episoden av “Black Mirror” der AI-drevne mekaniske hunder hunder menneskelige vesener i hjel. De snakket opp på sosiale medier og til tradisjonelle nyhetssteder. De organiserte aksjoner og sirkulerte begjæringer og gjorde seg hørt.

Dette arbeideropprøret var opphavet til Google Workers Rebellion-bevegelsen, og det bidro til å starte opp andre teknikere. Men det mest forbløffende ved den interne Google-protesten mot Project Maven var ikke at teknikere snakket opp. Det mest overraskende er det Googles ledelse ga etter arbeidernes krav.

To år senere forbløffer dette faktum meg. Jeg har sett mange etiske problemer i tiårene mine som tekniker, men jeg har sjelden sett at et stort selskap kategorisk godtar å ta opp etiske problemer på en betydelig måte. Resultatet av Google-opprøret mot Project Maven var publiseringen av et sett AI-prinsipper som er verdt å trykke her i sin helhet:

Kunstig intelligens hos Google: Våre prinsipper

Google ønsker å lage teknologier som løser viktige problemer og hjelper mennesker i hverdagen. Vi er optimistiske om det utrolige potensialet for AI og andre avanserte teknologier for å styrke mennesker, i stor grad dra nytte av nåværende og fremtidige generasjoner og arbeide for felleskapets beste.

Mål for AI-applikasjoner

Vi vil vurdere AI-applikasjoner med tanke på følgende mål. Vi mener at AI bør:

1. Vær samfunnsnyttig.

Den utvidede rekkevidden for nye teknologier berører samfunnet i økende grad. Fremskritt innen AI vil ha transformative effekter på et bredt spekter av felt, inkludert helsetjenester, sikkerhet, energi, transport, produksjon og underholdning. Når vi vurderer potensiell utvikling og bruk av AI-teknologier, vil vi ta hensyn til et bredt spekter av sosiale og økonomiske faktorer, og fortsette der vi tror at de samlede sannsynlige fordelene vesentlig overstiger den forutsigbare risikoen og ulempene.

AI forbedrer også vår evne til å forstå betydningen av innhold i skala. Vi vil strebe etter å gjøre informasjon av høy kvalitet og nøyaktig tilgjengelig ved bruk av AI, mens vi fortsetter å respektere kulturelle, sosiale og juridiske normer i landene der vi opererer. Og vi vil fortsette å vurdere omhyggelig når vi skal gjøre teknologiene våre tilgjengelige på ikke-kommersiell basis.

2. Unngå å skape eller forsterke urettferdig skjevhet.

AI-algoritmer og datasett kan reflektere, forsterke eller redusere urettferdige skjevheter. Vi er klar over at det ikke alltid er enkelt å skille rettferdig fra urettferdige skjevheter, og er forskjellig fra kulturer og samfunn. Vi vil søke å unngå urettferdige innvirkninger på mennesker, spesielt de som er knyttet til sensitive egenskaper som rase, etnisitet, kjønn, nasjonalitet, inntekt, seksuell legning, evne og politisk eller religiøs tro.

3. Bli bygget og testet for sikkerhet.

Vi vil fortsette å utvikle og anvende sterk sikkerhets- og sikkerhetspraksis for å unngå utilsiktede resultater som skaper risiko for skade. Vi vil designe våre AI-systemer for å være passende forsiktige, og søke å utvikle dem i samsvar med beste praksis innen AI sikkerhetsforskning. I passende tilfeller vil vi teste AI-teknologier i begrensede miljøer og overvåke driften deres etter distribusjon.

4. Vær ansvarlig overfor mennesker.

Vi vil designe AI-systemer som gir passende muligheter for tilbakemelding, relevante forklaringer og appell. Våre AI-teknologier vil bli underlagt passende menneskelig retning og kontroll.

5. Innarbeide prinsipper for personverndesign.

Vi vil innlemme våre personvernprinsipper i utviklingen og bruken av våre AI-teknologier. Vi vil gi mulighet for varsel og samtykke, oppmuntre arkitekturer med personvernsikkerhet og sørge for passende åpenhet og kontroll over bruken av data.

6. Overholder høye standarder for vitenskapelig dyktighet.

Teknologisk innovasjon er forankret i den vitenskapelige metoden og en forpliktelse til åpen utredning, intellektuell strenghet, integritet og samarbeid. AI-verktøy har potensial til å låse opp nye råder for vitenskapelig forskning og kunnskap innen kritiske områder som biologi, kjemi, medisin og miljøvitenskap. Vi streber etter høye standarder for vitenskapelig dyktighet når vi jobber for å utvikle AI-utviklingen.

Vi vil samarbeide med en rekke interessenter for å fremme gjennomtenkt lederskap på dette området, og ta utgangspunkt i vitenskapelig strenge og flerfaglige tilnærminger. Og vi vil ansvarlig dele AI-kunnskap ved å publisere pedagogisk materiale, beste praksis og forskning som gjør at flere kan utvikle nyttige AI-applikasjoner.

7. Gjøres tilgjengelig for bruk som er i samsvar med disse prinsippene.

Mange teknologier har flere bruksområder. Vi vil arbeide for å begrense potensielt skadelige eller krenkende bruksområder. Når vi utvikler og distribuerer AI-teknologier, vil vi evaluere sannsynlige bruksområder i lys av følgende faktorer:

  • Primært formål og bruk: det primære formålet og sannsynlig bruk av en teknologi og applikasjon, inkludert hvor tett løsningen er relatert til eller tilpasningsdyktig til en skadelig bruk
  • Natur og unikhet: om vi gjør tilgjengelig teknologi som er unik eller mer generelt tilgjengelig
  • Scale: om bruken av denne teknologien vil ha betydelig innvirkning
  • Arten av Googles engasjement: enten vi leverer verktøy til generelle formål, integrerer verktøy for kunder eller utvikler tilpassede løsninger

AI-applikasjoner vi ikke vil forfølge

I tillegg til ovennevnte mål, vil vi ikke utforme eller distribuere AI i følgende applikasjonsområder:

  1. Teknologier som forårsaker eller sannsynligvis vil forårsake generell skade. Der det er en vesentlig risiko for skade, vil vi fortsette bare der vi mener at fordelene vesentlig oppveier risikoen, og vil inkludere passende sikkerhetsbegrensninger.
  2. Våpen eller andre teknologier hvis viktigste formål eller implementering er å forårsake eller direkte lette skader på mennesker.
  3. Teknologier som samler inn eller bruker informasjon for overvåking som bryter internasjonalt aksepterte normer.
  4. Teknologier hvis formål strider mot allment aksepterte prinsipper for folkerett og menneskerettigheter.

Etter hvert som vår erfaring med dette rommet blir bedre, kan denne listen utvikle seg.

konklusjonen

Vi tror disse prinsippene er det rette grunnlaget for vårt selskap og vår fremtidige utvikling av AI. Vi erkjenner at dette området er dynamisk og utvikler seg, og vi vil tilnærme oss vårt arbeid med ydmykhet, en forpliktelse til internt og eksternt engasjement og en vilje til å tilpasse tilnærmingen vår slik vi lærer over tid.

Dette positive resultatet fritar ikke tech-giganten Google fra medvirkning på forskjellige andre områder med stor bekymring, for eksempel å støtte ICE, politi og andre militære aktiviteter, samle og selge tilgang til private data om enkeltpersoner, skjule kontroversielle politiske uttalelser fra resultatene fra søkemotoren. og viktigst av alt, å la de ansatte fortsette å snakke om disse og andre spørsmål uten å få sparken for å gjøre det. Google arbeidernes opprørsbevegelse er fortsatt aktiv og svært engasjert.

Samtidig er det viktig å gjenkjenne hvor effektfull Google arbeiderbevegelse var. Dette ble umiddelbart klart etter at Google-protestene begynte: Pentagons markedsavdelinger sluttet å utstede nye pressemeldinger om den en gang spennende Project Maven, til slutt "forsvant" prosjektet helt fra den offentlige synligheten det tidligere hadde søkt. I stedet begynte et nytt og mye større kunstig intelligenssatsing fra Pentagons lumske Defence Innovation Board.

Dette ble kalt Prosjekt JEDI, et nytt navn for Pentagon som bruker på nyskapende våpen. Prosjekt JEDI ville bruke mye mer penger enn Project Maven, men publisitetsblitz for det nye prosjektet (ja, det amerikanske militæret bruker en mye tid og oppmerksomhet rundt reklame og markedsføring) var veldig forskjellig fra den tidligere. Alle de slanke og sexy “Black Mirror” -bildene var borte. Nå, i stedet for å fremheve de spennende og filmatiske dystopiske skrekkene AI-drevne droner kan påføre mennesker, forklarte Project JEDI seg som et nøkternt skritt frem for effektivitet, og kombinerer forskjellige skydatabaser for å hjelpe "krigere" (Pentagons favorittbegrep for frontlinjepersonell) og supportteam for maksimal informasjonseffektivitet. Der Project Maven ble designet for å høres spennende og futuristisk ut, ble Project JEDI designet for å høres fornuftig og praktisk ut.

Det er ikke noe fornuftig eller praktisk med prislappen for Project JEDI. Det er den største militære programvarekontrakten i verdenshistorien: 10.5 milliarder dollar. Mange av øynene våre glir over når vi hører om skalaer fra militære utgifter, og vi kan hoppe over forskjellen mellom millioner og milliarder. Det er viktig å forstå hvor mye større Project JEDI er enn noe tidligere programvareinitiativ fra Pentagon. Det er en spillutveksler, en formue-genererende motor, en tom sjekk for å tjene penger på skattebetalernes regning.

Det hjelper å skrape under overflaten av offentlige pressemeldinger når vi prøver å forstå en militær utgiftsblank sjekk så stor som $ 10.5 milliarder dollar. Noe informasjon kan hentes fra militærets egne publikasjoner, som en urovekkende August 2019-intervju med Joint Artificial Intelligence Center generalløytnant Jack Shanahan, en nøkkelfigur i både det forsvunne Project Maven og det nye Project JEDI. Jeg var i stand til å få mer innsikt i hvordan forsvarsindustriens innsidere tenker på Project JEDI ved å høre på en podcast fra forsvarsindustrien som ble kalt “Prosjekt 38: Fremtiden for myndighetskontraktering”. Podcastgjester snakker ofte ærlig og skamløst om hvilket tema de diskuterer. "Mange mennesker vil kjøpe nye svømmebassenger i år" var typisk for denne podcastens innsidechat om Project JEDI. Vi er sikre på at de blir det.

Her er det bemerkelsesverdige som knytter seg til Googles AI-prinsipper. De åpenbare tre frontløpere for den enorme JEDI-kontrakten på 10.5 milliarder dollar ville ha vært Google, Amazon og Microsoft - i den rekkefølgen, basert på deres rykte som AI-innovatører. På grunn av arbeidernes protest mot Project Maven i 2018, var AI-leder Google av hensyn til det mye større prosjektet JEDI i 2019. Sent i 2019 ble det kunngjort at kontrakten gikk til Microsoft. En flom nyhetsdekning fulgte, men denne dekningen fokuserte hovedsakelig på rivaliseringen mellom Amazon og Microsoft, og på det faktum at 3. plass Microsoft antagelig fikk lov til å slå 2. plass Amazon for seieren på grunn av Trump-administrasjonens pågående kamper med Washington Post, som eies av Amazons Jeff Bezos. Amazon går nå til retten for å bekjempe Pentagons gave på 10.5 milliarder dollar til Microsoft, og Oracle saksøker også. Den spesifikke merknaden fra Project 38-podcasten nevnt ovenfor - "Mange vil kjøpe nye svømmebassenger i år" - refererte ikke bare til Microsofts økonomiske velsignelse, men også til alle advokatene som vil delta i disse søksmålene. Vi kan sannsynligvis gjøre en utdannet gjetning om at mer enn 3% av Project JEDIs $ 10.5 milliarder dollar vil gå til advokater. Synd at vi ikke kan bruke den til å hjelpe slutt verdens sult i stedet.

Striden om hvorvidt denne overføringen av skattebetalers penger til militære entreprenører skal være til nytte for Microsoft, Amazon eller Oracle har dominert nyhetsdekningen av Project JEDI. Den ene positive meldingen som skal hentes fra dette uanstendige transplantatet - det faktum at Google hadde gått bort fra den største militære programvarekontrakten i verdenshistorien på grunn av arbeiderprotesten - har nesten ikke eksistert i nyhetsdekning av Project JEDI. 

Dette var grunnen til at det var viktig å fortelle denne historien til de teknologifokuserte aktivistene som var samlet i et fullsatt rom i sentrum av Manhattan i forrige uke for å snakke om hvordan vi kan redde planeten vår, hvordan vi kan kjempe mot desinformasjon og politisering av klimavitenskap, hvordan vi kan stå imot den enorme kraften til profittører og våpenprofitører. I dette lille rommet syntes vi alle å forstå dimensjonene til problemet vi sto overfor, og den kritiske rollen vi selv må begynne å spille. Teknologimiljøet har betydelig makt. Akkurat som avhendingskampanjer kan utgjøre en virkelig forskjell, kan opprørere av tech-arbeidere gjøre en reell forskjell. Det er mange måter klimaendringsaktivister, opprørsaktivister for teknikere og antikrigsaktivister kan begynne å samarbeide, og vi vil gjøre det på alle måter vi kan.

Vi hadde en håpefull start med denne samlingen, og hjelper oss med å initiere den Ekstinsjonsopprør NYC og Verden kan ikke vente. Denne bevegelsen vil vokse - den må vokse. Fossilt misbruk er fokus for klimaendringsdemonstranter. Fossilt brenselmisbruk er også både det viktigste profittmotivet til USAs imperialisme og et primært forferdelig resultat av det oppblåste amerikanske militærets bortkastede aktiviteter. Det ser faktisk ut til at det amerikanske militæret er det verdens verste forurenser. Kan teknologarbeidere bruke vår organiseringskraft for seire enda mer effektive enn Googles utmelding fra Project JEDI? Vi kan og vi må. Forrige ukes møte i New York City var bare et lite skritt fremover. Vi må gjøre mer, og vi må gi vår samlede protestbevegelse alt vi har.

Annonse om utryddelse-opprør, januar 2020

Marc Eliot Stein er direktør for teknologi og sosiale medier for World BEYOND War.

Foto av Gregory Schwedock.

One Response

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *

Relaterte artikler

Vår teori om endring

Hvordan avslutte krig

Move for Peace Challenge
Antikrigshendelser
Hjelp oss å vokse

Små givere holder oss på gang

Hvis du velger å gi et tilbakevendende bidrag på minst $15 per måned, kan du velge en takkegave. Vi takker våre tilbakevendende givere på nettsiden vår.

Dette er din sjanse til å reimagine en world beyond war
WBW-butikk
Oversett til hvilket som helst språk