Schimbări climatice, lucrători tehnici, activiști anti-război care lucrează împreună

Intrați în ședința de extincție în New York City 30 ianuarie 2020

De Marc Eliot Stein, 10 februarie 2020

Am fost recent invitat să vorbesc la o adunare Rebellion Extinction în New York, în numele World BEYOND War. Evenimentul a fost conceput pentru a reuni trei grupuri de acțiuni: activiști pentru schimbările climatice, colective de lucrători tehnologici și activiști antibelici. Am început cu o relatare personală emoționantă a activistului Ha Vu, care a spus mulțimii din New York despre o experiență alarmantă pe care puțini dintre noi o au vreodată: revenirea la casa familiei sale din Hanoi, Vietnam, unde căldură crescută a făcut deja aproape imposibilă mersul afară în timpul orelor maxime ale soarelui. Puțini americani știu și ei despre 2016 dezastru de poluare a apei în Ha Tinh din Vietnamul central. Adesea, vorbim despre schimbările climatice ca fiind o problemă potențială în SUA, a subliniat Ha, dar în Vietnam ea poate vedea că perturbă deja viețile și mijloacele de trai și se agravează rapid.

Nick Mottern din KnowDrones.org a vorbit cu o urgență similară despre recenta investiție masivă a armatei SUA în inteligență artificială futuristă și cloud computing - și a subliniat propria concluzie a armatei că desfășurarea sistemelor de IA în gestionarea armelor nucleare și în războiul cu drone va duce inevitabil la erori de magnitudine imprevizibilă. William Beckler de la Extinction Rebellion NYC a urmat prin explicarea principiilor de organizare pe care această organizație importantă și rapidă le pune în acțiune, inclusiv acțiuni perturbatoare menite să sensibilizeze importanța critică a schimbărilor climatice. Am auzit de la un reprezentant din New York Coaliția lucrătorilor tehniciși am încercat să pivotăm adunarea spre un sentiment de abilitare practică, vorbind despre o acțiune de rebeliune a lucrătorilor tehnologici care a avut un succes neașteptat.

Aceasta s-a întâmplat în aprilie 2018, când așa-numita „industrie a apărării” zâmbea cu privire la Project Maven, o nouă inițiativă militară americană extrem de mediatizată pentru dezvoltarea capacităților de inteligență artificială pentru drone și alte sisteme de arme. Google, Amazon și Microsoft oferă toate platforme de inteligență artificială off-the-raft pentru clienții plătitori, iar Google a fost considerat probabil câștigătorul contractului militar Project Maven.

La începutul anului 2018, lucrătorii Google au început să vorbească. Ei nu au înțeles de ce o companie care i-a recrutat ca angajați cu gajul „Nu fiți malefic” licita acum pentru proiecte militare care ar putea asemăna cu episodul groaznic al „Oglinzii Negre” în care câinii mecanici alimentați de AI ființe până la moarte. Au vorbit pe social media și la posturile de știri tradiționale. Au organizat acțiuni și au circulat petiții și s-au făcut auziți.

Această revoltă a lucrătorilor a fost geneza mișcării rebeliunii Google Workers și a ajutat la demararea altor colective de lucrători tehnologici. Dar cel mai uimitor lucru despre protestul intern Google împotriva Project Maven nu a fost faptul că lucrătorii tehnologici vorbeau. Cel mai uimitor lucru este că Managementul Google a generat cerințele lucrătorilor.

Doi ani mai târziu, acest fapt mă tot uimește. Am văzut multe probleme de etică în deceniile mele ca lucrător tehnologic, dar am văzut rareori o companie mare de acord categoric să abordeze problemele etice într-un mod semnificativ. Rezultatul rebeliunii Google împotriva Project Maven a fost publicarea unui set de principii AI care merită reimprimate aici integral:

Inteligența artificială la Google: Principiile noastre

Google aspiră să creeze tehnologii care să rezolve probleme importante și să ajute oamenii în viața lor de zi cu zi. Suntem optimiști cu privire la potențialul incredibil al AI și al altor tehnologii avansate de a împuternici oamenii, de a beneficia în mare măsură de generațiile actuale și viitoare și de a lucra pentru binele comun.

Obiective pentru aplicații AI

Vom evalua aplicațiile AI având în vedere următoarele obiective. Credem că AI ar trebui:

1. Fii benefic social.

Abordarea extinsă a noilor tehnologii atinge din ce în ce mai mult societatea în ansamblu. Progresele în AI vor avea impacturi transformatoare într-o gamă largă de domenii, inclusiv asistență medicală, securitate, energie, transport, fabricație și divertisment. Deoarece luăm în considerare dezvoltarea potențială și utilizările tehnologiilor AI, vom lua în considerare o gamă largă de factori sociali și economici și vom continua acolo unde considerăm că beneficiile generale generale depășesc substanțial riscurile și dezavantajele previzibile.

AI îmbunătățește, de asemenea, capacitatea noastră de a înțelege sensul conținutului la scară. Ne vom strădui să facem informații de înaltă calitate și exacte disponibile cu ajutorul AI, continuând să respectăm normele culturale, sociale și legale în țările în care ne desfășurăm activitatea. Și vom continua să evaluăm gânditor când vom pune la dispoziție tehnologiile noastre pe o bază non-comercială.

2. Evitați crearea sau consolidarea prejudecăților neloiale.

Algoritmii AI și seturile de date pot reflecta, consolida sau reduce prejudecățile neloiale. Recunoaștem că distincția corectă de părtinirea nedreaptă nu este întotdeauna simplă și diferă între culturi și societăți. Vom căuta să evităm impacturi nedrepte asupra oamenilor, în special a celor legate de caracteristici sensibile, precum rasă, etnie, sex, naționalitate, venit, orientare sexuală, capacitate și credințe politice sau religioase.

3. Fii construit și testat pentru siguranță.

Vom continua să dezvoltăm și să aplicăm practici puternice de securitate și securitate pentru a evita rezultatele nedorite care creează riscuri de daune. Vom proiecta sistemele noastre de IA pentru a fi în mod adecvat precaut și vom căuta să le dezvoltăm în conformitate cu cele mai bune practici în cercetarea privind siguranța AI. În cazuri adecvate, vom testa tehnologiile AI în medii restrânse și le vom monitoriza funcționarea după implementare.

4. Fiți responsabili față de oameni.

Vom proiecta sisteme AI care oferă oportunități adecvate de feedback, explicații relevante și apel. Tehnologiile noastre AI vor fi supuse unei direcții și control uman adecvat.

5. Încorporați principiile de proiectare a vieții private.

Vom încorpora principiile noastre de confidențialitate în dezvoltarea și utilizarea tehnologiilor noastre AI. Vom oferi posibilitatea de notificare și consimțământ, vom încuraja arhitecturile cu garanții de confidențialitate și vom oferi transparență și control adecvat asupra utilizării datelor.

6. Susține standarde înalte de excelență științifică.

Inovația tehnologică are rădăcina în metoda științifică și angajamentul de a deschide ancheta, rigoarea intelectuală, integritatea și colaborarea. Instrumentele AI au potențialul de a debloca noi tărâmuri de cercetare științifică și cunoștințe în domenii critice precum biologia, chimia, medicina și științele mediului. Aspirăm la standarde înalte de excelență științifică în timp ce lucrăm pentru a progresa dezvoltarea AI.

Vom lucra cu o serie de părți interesate pentru a promova un leadership atent în acest domeniu, bazându-ne pe abordări riguroase științific și multidisciplinare. Și vom împărtăși în mod responsabil cunoștințele AI, publicând materiale educaționale, cele mai bune practici și cercetări care să permită mai multor oameni să dezvolte aplicații AI utile.

7. Fii disponibil pentru utilizări care respectă aceste principii.

Multe tehnologii au multiple utilizări. Vom lucra pentru a limita aplicațiile potențial dăunătoare sau abuzive. Pe măsură ce dezvoltăm și implementăm tehnologii AI, vom evalua utilizările probabile, având în vedere următorii factori:

  • Scopul principal și utilizarea: scopul principal și utilizarea probabilă a unei tehnologii și aplicații, inclusiv cât de strânsă este soluția sau adaptarea la o utilizare dăunătoare
  • Natura și unicitatea: indiferent dacă punem la dispoziție o tehnologie unică sau mai generală
  • Scară: dacă utilizarea acestei tehnologii va avea un impact semnificativ
  • Natura implicării Google: fie că oferim instrumente cu scop general, integrăm instrumente pentru clienți sau dezvoltăm soluții personalizate

Aplicații AI nu le vom urmări

Pe lângă obiectivele de mai sus, nu vom proiecta sau implementa AI în următoarele domenii de aplicare:

  1. Tehnologii care cauzează sau pot provoca vătămări generale. În cazul în care există un risc semnificativ de vătămare, vom proceda numai acolo unde credem că beneficiile depășesc în mod substanțial riscurile și vor încorpora constrângeri de siguranță adecvate.
  2. Arme sau alte tehnologii al căror scop principal sau punere în aplicare este de a provoca sau de a facilita direct vătămarea oamenilor.
  3. Tehnologii care adună sau utilizează informații pentru supraveghere care încalcă normele acceptate la nivel internațional.
  4. Tehnologiile al căror scop contravine principiilor larg acceptate ale dreptului internațional și drepturilor omului.

Pe măsură ce experiența noastră în acest spațiu se adâncește, această listă poate evolua.

Concluzie

Credem că aceste principii sunt fundamentul potrivit pentru compania noastră și dezvoltarea noastră viitoare a AI. Recunoaștem că această zonă este dinamică și în evoluție și ne vom aborda munca cu umilință, angajament pentru angajarea internă și externă și dorința de a ne adapta abordarea pe măsură ce învățăm de-a lungul timpului.

Acest rezultat pozitiv nu elimină gigantul tehnologic Google de complicitatea în diferite alte domenii de îngrijorare majoră, cum ar fi sprijinirea ICE, poliție și alte activități militare, agregarea și vânzarea accesului la date private despre persoane, ascunderea declarațiilor politice controversate din rezultatele motorului de căutare. și, cel mai important, permițând angajaților săi să continue să vorbească despre aceste probleme și alte aspecte, fără a fi concediat pentru acest lucru. Mișcarea de rebeliune a lucrătorilor Google rămâne activă și extrem de implicată.

În același timp, este important să recunoaștem cât de impactant a fost mișcarea lucrătorilor Google. Acest lucru a devenit imediat clar după ce protestele Google au început: departamentele de marketing ale Pentagonului au încetat să mai emită noi comunicate de presă despre odinioară incitantul proiect Maven, în cele din urmă „dispărând” proiectul în totalitate din vizibilitatea publică pe care o căutase anterior. În schimb, o inițiativă nouă și mult mai mare de inteligență artificială a început să ia naștere din insidiosul Pentagonului Comitetul pentru inovația apărării.

Aceasta a fost numită Proiect JEDI, un nou nume pentru cheltuielile Pentagonului cu arme de ultimă oră. Proiectul JEDI ar cheltui mult mai mulți bani decât Project Maven, dar publicitatea pentru noul proiect (da, armata americană cheltuiește mult a timpului și a atenției asupra publicității și a marketingului) a fost foarte diferită de cea anterioară. Toate imaginile elegante și sexy „Black Mirror” au dispărut. Acum, în loc să sublinieze ororile distopice cinemice și captivante, dronele pe care AI le-ar putea provoca ființe umane, Project JEDI s-a explicat ca un pas sobru înainte pentru eficiență, combinând diverse baze de date cloud pentru a ajuta „luptătorii” (termenul preferat al Pentagonului pentru personalul de prim rang) și echipele de asistență din spate maximizează eficacitatea informației. În cazul în care Project Maven a fost conceput pentru a suna interesant și futurist, Project JEDI a fost proiectat să sune sensibil și practic.

Nu există nimic sensibil sau practic în ceea ce privește prețul pentru proiectul JEDI. Este cel mai mare contract de software militar din istoria lumii: 10.5 miliarde de dolari. Mulți dintre ochii noștri strălucesc când auzim despre cantitatea cheltuielilor militare și putem sări peste diferența dintre milioane și miliarde. Este esențial să înțelegeți cât de mare este Proiectul JEDI decât orice inițiativă software anterioară Pentagon. Este un schimbător de jocuri, un motor generator de bogăție, un cec necompletat pentru a profita de cheltuielile contribuabililor.

Ajută la zgârierea sub suprafața comunicatelor de presă guvernamentale atunci când încercați să înțelegeți un cec gol de cheltuieli militare de până la 10.5 miliarde dolari. Unele informații pot fi culese din publicațiile proprii ale armatei, ca un deranjant Interviu din august 2019 cu locotenentul general Jack Shanahan, locotenentul general al Centrului de Informații Artificiale, o figură cheie atât în ​​dispariția Project Maven, cât și în noul Project JEDI. Am putut să aflu mai multe detalii despre modul în care persoanele din interiorul industriei apărării se gândesc la Project JEDI ascultând un podcast din industria de apărare numit „Proiectul 38: Viitorul contractelor guvernamentale”. Oaspeții de la podcast vorbesc adesea cu sinceritate și fără descurcare despre orice subiect discută. „O mulțime de oameni vor cumpăra piscine noi anul acesta” a fost tipic discuției privilegiate a acestui podcast despre Proiectul JEDI. Suntem siguri că vor fi.

Iată lucrul remarcabil care se leagă de principiile AI ale Google. Cei trei lideri evidenți ai contractului masiv de 10.5 miliarde de dolari JEDI ar fi fost Google, Amazon și Microsoft - în această ordine, pe baza reputației lor ca inovatori AI. Din cauza protestelor muncitorilor împotriva Proiectului Maven în 2018, liderul AI Google a fost ignorat pentru proiectul mult mai mare JEDI în 2019. La sfârșitul anului 2019, s-a anunțat că contractul a fost acordat Microsoft. A urmat o mulțime de știri, dar această acoperire s-a concentrat în principal pe rivalitatea dintre Amazon și Microsoft și pe faptul că locul 3 Microsoft a fost, probabil, permis să bată locul 2 Amazon pentru victorie din cauza luptelor în curs de desfășurare ale administrației Trump cu Washington Post, care este deținut de Jeff Bezos de la Amazon. Amazon urmează acum să se judece pentru a combate cadoul Pentagonului de 10.5 miliarde de dolari pentru Microsoft, iar Oracle dă în judecată și el. Remarca specifică din podcast-ul Project 38 menționat mai sus - „Mulți oameni vor cumpăra piscine noi anul acesta” - se referea nu numai la avantajul financiar al Microsoft, ci și la toți avocații care vor participa la aceste procese. Probabil putem face o presupunere educată că mai mult de 3% din 10.5 miliarde de dolari ai proiectului JEDI vor fi pentru avocați. Pacat ca nu-l putem folosi pentru a ajuta sfârșește foamea mondială in schimb.

Disputa cu privire la faptul dacă acest transfer al banilor contribuabililor către contractorii militari ar trebui să beneficieze Microsoft, Amazon sau Oracle a dominat acoperirea știrilor din Proiectul JEDI. Singurul mesaj pozitiv care trebuie extras din această grefă obscenă - faptul că Google s-a îndepărtat de cel mai mare contract de software militar din istoria lumii din cauza protestelor lucrătorilor - a fost practic inexistent în acoperirea știrilor din Proiectul JEDI. 

Acesta este motivul pentru care a fost important să le spunem această poveste activiștilor concentrați în tehnologie care s-au adunat într-o cameră aglomerată din centrul orașului Manhattan săptămâna trecută pentru a vorbi despre cum ne putem salva planeta, cum putem lupta împotriva dezinformării și politizării științei climatului, modul în care ne putem ridica la puterea masivă a profitorilor de combustibili fosili și a beneficiarilor de arme. În această cameră mică, păream cu toții să înțelegem dimensiunile problemei cu care ne confruntăm, iar rolul critic pe care noi înșine trebuie să-l începem să-l jucăm. Comunitatea tehnologică are o putere semnificativă. La fel cum campaniile de dezinvestire pot face o diferență reală, rebeliunile lucrătorilor tehnologici pot face o diferență reală. Există numeroase modalități în care activiștii pentru schimbările climatice, activiștii tehnici ai rebeliunii și activiștii antibelici pot începe să lucreze împreună și vom face acest lucru în orice mod posibil.

Am avut un început de nădejde cu această adunare, inițiată cu ajutor de către Extinția Rebeliunii NYC și Lumea nu poate aștepta. Această mișcare va crește - trebuie să crească. Abuzul de combustibili fosili este în centrul protestatarilor schimbărilor climatice. Abuzul de combustibili fosili este, de asemenea, atât principalul motiv de profit al imperialismului SUA, cât și un rezultat teribil primar al activităților irosite ale armatei SUA. Într-adevăr, armata SUA pare să fie singurul cel mai rău poluator din lume. Muncitorii tehnologi pot folosi puterea noastră de organizare pentru victorii chiar mai de impact decât retragerea Google din Proiectul JEDI? Putem și trebuie. Întâlnirea de săptămâna trecută la New York City a fost doar un mic pas înainte. Trebuie să facem mai mult și trebuie să oferim mișcării noastre de protest combinate tot ce avem.

Anunțul evenimentului extincției Rebellion, ianuarie 2020

Marc Eliot Stein este director de tehnologie și social media pentru World BEYOND War.

Fotografie de Gregory Schwedock.

Un singur răspuns

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *

Articole pe aceeaşi temă

Teoria noastră a schimbării

Cum se pune capăt războiului

Move for Peace Challenge
Evenimente antirăzboi
Ajută-ne să creștem

Donatorii mici ne mențin în mers

Dacă alegeți să faceți o contribuție recurentă de cel puțin 15 USD pe lună, puteți selecta un cadou de mulțumire. Mulțumim donatorilor noștri recurenți pe site-ul nostru.

Aceasta este șansa ta de a reimagina a world beyond war
Magazinul WBW
Traduceți în orice limbă