Климатске промене, технолошки радници, антиратни активисти који раде заједно

Састанак за изумирање у Нев Иорку, 30. јануара 2020. године

Аутор: Марц Елиот Стеин, 10. фебруара 2020

Недавно сам био позван да говорим на скупу Ектинцтион Ребеллион у Њујорку у име World BEYOND War. Догађај је осмишљен тако да окупи три акционе групе: активисте за климатске промене, колективе технолошких радника и антиратне активисте. Почели смо са узбудљивим личним извештајем активисткиње за климатске промене Ха Вуа, која је гомили Њујорчана испричала о алармантном искуству које је мало ко од нас икада имао: повратку у кућу њене породице у Ханоју, у Вијетнаму, где повећана топлота већ је учинило готово немогућим ходање напољу у време највеће сунчеве светлости. Мало Американаца такође зна за Катастрофа загађења воде 2016 у Ха Тину у централном Вијетнаму. Често говоримо о климатским променама као о потенцијалном проблему у САД, нагласила је Ха, али у Вијетнаму она може видети да то већ нарушава животе и егзистенцију и да се убрзано погоршава.

Ницк Моттерн из КновДронес.орг је са сличном хитношћу говорио о недавном огромном улагању америчке војске у футуристичку вештачку интелигенцију и рачунарство у облаку – и нагласио сопствени закључак војске да ће примена система вештачке интелигенције у управљању нуклеарним оружјем и рату беспилотних летелица неизбежно довести до грешака непредвидиве величине. Вилијам Беклер из Ектинцтион Ребеллион НИЦ, а затим је објаснио организационе принципе које ова важна и брзо растућа организација спроводи у акцију, укључујући реметилачке акције осмишљене да подигну свест о критичном значају климатских промена. Чули смо од представника града Њујорка Коалиција техничких радника, и покушао сам да окренем скуп ка осећају практичног оснаживања говорећи о акцији побуне технолошких радника која је била неочекивано успешна.

То је било у априлу 2018, када је такозвана „одбрамбена индустрија“ брујала о Пројекту Мавен, новој војној иницијативи САД која је веома популарна за развој способности вештачке интелигенције за дронове и друге системе наоружања. Гугл, Амазон и Мајкрософт сви нуде готове платформе вештачке интелигенције за купце који плаћају, а Гугл је виђен као вероватни победник војног уговора Пројецт Мавен.

Почетком 2018. радници Гугла су почели да говоре. Нису разумели зашто компанија која их је регрутовала као запослене са заклетвом „Не буди зао“ сада лицитира за војне пројекте који би вероватно личили на ужасну епизоду „Црног огледала“ у којој механички пси напајани вештачком интелигенцијом гоне људе бића до смрти. Говорили су на друштвеним мрежама и традиционалним новинским кућама. Организовали су акције и ширили петиције и дали да се чује.

Ова побуна радника била је генеза покрета Побуна Гоогле радника и помогла је да се покрену други колективи техничких радника. Али најзапањујућа ствар у вези са интерним Гоогле протестом против Пројецт Мавен-а није била то што су технички радници говорили. Најчудније је то Менаџмент Гугла је попустио пред захтевима радника.

Две године касније, ова чињеница ме још увек запрепашћује. Видео сам многе етичке проблеме током својих деценија као технички радник, али ретко сам видео велику компанију која се категорички сложила да се бави етичким проблемима на значајан начин. Резултат Гуглове побуне против Пројецт Мавен-а било је објављивање скупа принципа вештачке интелигенције које вреди поново штампати овде у целости:

Вештачка интелигенција у Гоогле-у: Наши принципи

Гоогле тежи стварању технологија које решавају важне проблеме и помажу људима у свакодневном животу. Оптимистични смо у погледу невероватног потенцијала вештачке интелигенције и других напредних технологија да оснаже људе, да имају широку корист за садашње и будуће генерације и раде за опште добро.

Циљеви за АИ апликације

Процењиваћемо АИ апликације с обзиром на следеће циљеве. Верујемо да АИ треба да:

1. Будите друштвено корисни.

Проширени домет нових технологија све више дотиче друштво у целини. Напредак у вештачкој интелигенцији ће имати трансформативне утицаје у широком спектру области, укључујући здравствену заштиту, безбедност, енергију, транспорт, производњу и забаву. Док разматрамо потенцијални развој и употребу АИ технологија, узећемо у обзир широк спектар друштвених и економских фактора, и наставићемо тамо где верујемо да укупне вероватне користи знатно премашују предвидљиве ризике и недостатке.

АИ такође побољшава нашу способност да разумемо значење садржаја у великом обиму. Настојаћемо да висококвалитетне и тачне информације учинимо доступним помоћу вештачке интелигенције, уз истовремено поштовање културних, друштвених и законских норми у земљама у којима послујемо. И ми ћемо наставити да пажљиво процењујемо када да наше технологије учинимо доступним на некомерцијалној основи.

2. Избегавајте стварање или јачање неправедне пристрасности.

Алгоритми вештачке интелигенције и скупови података могу да одражавају, појачају или смање неправедне предрасуде. Схватамо да разликовање фер од непоштених предрасуда није увек једноставно и да се разликује у различитим културама и друштвима. Настојаћемо да избегнемо неправедне утицаје на људе, посебно оне који се односе на осетљиве карактеристике као што су раса, етничка припадност, пол, националност, приход, сексуална оријентација, способности и политичка или верска уверења.

3. Будите направљени и тестирани на безбедност.

Наставићемо да развијамо и примењујемо снажне безбедносне и безбедносне праксе како бисмо избегли нежељене резултате који стварају ризик од штете. Дизајнираћемо наше системе вештачке интелигенције тако да буду на одговарајући начин опрезни и настојаћемо да их развијемо у складу са најбољом праксом у истраживању безбедности АИ. У одговарајућим случајевима, ми ћемо тестирати АИ технологије у ограниченим окружењима и надгледати њихов рад након примене.

4. Будите одговорни према људима.

Дизајнираћемо АИ системе који пружају одговарајуће могућности за повратне информације, релевантна објашњења и жалбе. Наше технологије вештачке интелигенције биће подложне одговарајућем људском управљању и контроли.

5. Укључите принципе дизајна приватности.

Уградићемо наше принципе приватности у развој и употребу наших АИ технологија. Даћемо прилику за обавештење и сагласност, охрабрићемо архитектуре са заштитама приватности и обезбедити одговарајућу транспарентност и контролу над коришћењем података.

6. Подржавати високе стандарде научне изврсности.

Технолошке иновације су укорењене у научним методама и посвећености отвореној истрази, интелектуалној строгости, интегритету и сарадњи. Алати АИ имају потенцијал да откључају нова подручја научног истраживања и знања у критичним доменима као што су биологија, хемија, медицина и науке о животној средини. Тежимо високим стандардима научне изврсности док радимо на напредовању развоја вештачке интелигенције.

Радићемо са низом заинтересованих страна на промовисању промишљеног лидерства у овој области, ослањајући се на научно ригорозне и мултидисциплинарне приступе. И ми ћемо одговорно делити знање о вештачкој интелигенцији објављивањем образовних материјала, најбољих пракси и истраживања која омогућавају већем броју људи да развију корисне АИ апликације.

7. Бити доступни за употребу у складу са овим принципима.

Многе технологије имају вишеструку употребу. Радићемо на ограничавању потенцијално штетних или увредљивих апликација. Док развијамо и примењујемо АИ технологије, проценићемо вероватну употребу у светлу следећих фактора:

  • Основна намена и употреба: примарна сврха и вероватна употреба технологије и апликације, укључујући колико је решење блиско повезано са штетном употребом или прилагодљиво на њу
  • Природа и јединственост: било да чинимо доступном технологију која је јединствена или опште доступна
  • Скала: да ли ће употреба ове технологије имати значајан утицај
  • Природа Гоогле-овог учешћа: било да пружамо алате опште намене, интегришемо алате за клијенте или развијамо прилагођена решења

АИ апликације које нећемо пратити

Поред горе наведених циљева, нећемо дизајнирати или применити АИ у следећим областима примене:

  1. Технологије које узрокују или ће вероватно изазвати општу штету. Тамо где постоји материјални ризик од штете, наставићемо само тамо где верујемо да су користи знатно веће од ризика и да ћемо укључити одговарајућа безбедносна ограничења.
  2. Оружје или друге технологије чија је основна сврха или имплементација да изазову или директно олакшају повреде људи.
  3. Технологије које прикупљају или користе информације за надзор кршећи међународно прихваћене норме.
  4. Технологије чија је сврха у супротности са широко прихваћеним принципима међународног права и људских права.

Како се наше искуство у овом простору продубљује, ова листа може еволуирати.

Zakljucak

Верујемо да су ови принципи права основа за нашу компанију и наш будући развој вештачке интелигенције. Потврђујемо да је ова област динамична и да се развија, и приступићемо свом послу са понизношћу, посвећеношћу унутрашњем и спољашњем ангажовању и спремношћу да прилагодимо свој приступ како временом учимо.

Овај позитиван резултат не ослобађа технолошког гиганта Гугл од саучесништва у разним другим областима од велике забринутости, као што су подршка ИЦЕ-у, полицији и другим војним активностима, прикупљање и продаја приступа приватним подацима о појединцима, скривање контроверзних политичких изјава из резултата претраживача и, што је најважније, омогућавање својим запосленима да наставе да говоре о овим и другим питањима без отпуштања због тога. Гугл раднички покрет за побуну остаје активан и веома ангажован.

У исто време, важно је препознати колико је утицај био покрет Гоогле радника. Ово је постало јасно одмах након што су почели протести у Гуглу: маркетиншка одељења Пентагона су престала да издају нова саопштења за јавност о некада узбудљивом пројекту Мавен, на крају „нестао“ пројекат у потпуности из јавности коју је раније тражио. Уместо тога, нова и много већа иницијатива за вештачку интелигенцију почела је да излази из подмукле Пентагона Одбор за иновације у области одбране.

Ово се звало Пројекат ЈЕДИ, ново име за Пентагонову потрошњу на најсавременије оружје. Пројекат ЈЕДИ би потрошио много више новца него пројекат Мејвен, али би публицитет за нови пројекат (да, америчка војска троши много времена и пажње на публицитет и маркетинг) се веома разликовала од раније. Све елегантне и секси слике „Црног огледала“ су нестале. Сада, уместо да наглашава узбудљиве и филмске дистопијске ужасе које би дронови са вештачком интелигенцијом могли да нанесу људским бићима, пројекат ЈЕДИ се објаснио као трезвен корак напред ка ефикасности, комбинујући различите базе података у облаку како би помогао „борцима“ (омиљени израз Пентагона за фронт-лине персонал) и бацк-оффице тимови за подршку максимизирају ефикасност информација. Тамо где је пројекат Мавен дизајниран да звучи узбудљиво и футуристички, пројекат ЈЕДИ је дизајниран да звучи разумно и практично.

Не постоји ништа разумно или практично у вези са ценом пројекта ЈЕДИ. То је највећи уговор о војном софтверу у светској историји: 10.5 милијарди долара. Многима нам се очи зацакле када чујемо о размерама војних издатака и можемо прескочити разлику између милиона и милијарди. Неопходно је разумети колико је пројекат ЈЕДИ већи од било које претходне софтверске иницијативе Пентагона. То је мењач игре, машина за стварање богатства, бланко чек за профитерство на рачун пореских обвезника.

Помаже да се загребе испод површине владиних саопштења за штампу када покушавате да схватите бланко чек за војну потрошњу од чак 10.5 милијарди долара. Неке информације се могу покупити из војних публикација, као узнемирујуће Интервју у августу 2019. са генерал-потпуковником Заједничког центра за вештачку интелигенцију Џеком Шанаханом, кључна фигура у несталом пројекту Мавен и новом пројекту ЈЕДИ. Могао сам да добијем више увида у то како инсајдери одбрамбене индустрије мисле о пројекту ЈЕДИ слушајући подкаст одбрамбене индустрије под називом „Пројекат 38: Будућност државног уговарања“. Гости подкаста често говоре искрено и без стида о било којој теми о којој разговарају. „Много људи ће ове године куповати нове базене“ било је типично за инсајдерско ћаскање овог подкаста о пројекту ЈЕДИ. Сигурни смо да ће бити.

Ево изузетне ствари која се везује за Гоогле-ове АИ принципе. Очигледна три фаворита за масивних 10.5 милијарди долара ЈЕДИ уговора били би Гоогле, Амазон и Мицрософт – тим редоследом, на основу њихове репутације као иноватора вештачке интелигенције. Због протеста радника против Пројекта Мавен 2018. године, лидер вештачке интелигенције Гугл није узимао у обзир много већи пројекат ЈЕДИ 2019. Крајем 2019. објављено је да је уговор припао Мајкрософту. Уследио је налет вести, али ово извештавање се углавном фокусирало на ривалство између Амазона и Мајкрософта, и на чињеницу да је трећепласираном Мајкрософту вероватно било дозвољено да победи другопласирани Амазон за победу због текућих битака Трампове администрације са Вашингтон Постом, који је у власништву Амазоновог Џефа Безоса. Амазон сада иде на суд да се бори против Пентагона поклона од 3 милијарди долара Мајкрософту, а Орацле такође тужи. Конкретна примедба из горе поменутог подкаста Пројекта 2 – „Много људи ће ове године куповати нове базене“ – односила се не само на финансијску корист Мајкрософта већ и на све адвокате који ће учествовати у овим тужбама. Вероватно можемо да претпоставимо да ће више од 10.5% од 38 милијарди долара Пројекта ЈЕДИ отићи адвокатима. Штета што не можемо то искористити да помогнемо окончати светску глад уместо тога.

Спор око тога да ли овај трансфер новца пореских обвезника војним извођачима треба да буде од користи Мајкрософту, Амазону или Орацлу доминирао је у извештавању о пројекту ЈЕДИ. Једина позитивна порука која се може извући из овог опсценог подметања – чињеница да је Гугл одступио од највећег уговора о војном софтверу у светској историји због протеста радника – практично није постојала у вестима о пројекту ЈЕДИ. 

Због тога је било важно испричати ову причу активистима фокусираним на технологију који су се прошле недеље окупили у препуној просторији у центру Менхетна да разговарају о томе како можемо спасити нашу планету, како се можемо борити против дезинформација и политизације науке о клими, како се можемо супротставити огромној моћи профитера на фосилним горивима и профитера на оружју. У овој малој просторији, чинило се да сви схватамо димензије проблема са којима смо се суочавали и критичну улогу коју сами морамо да играмо. Технолошка заједница има значајну моћ. Баш као што кампање дезинвестирања могу направити стварну разлику, побуне технолошких радника могу направити стварну разлику. Постоји много начина на које активисти за климатске промене, побуњенички активисти технолошких радника и антиратни активисти могу да почну да раде заједно, а ми ћемо то чинити на сваки могући начин.

Почели смо са пуно наде са овим скупом, који је био од помоћи Ектинцтион Ребеллион НИЦ Свијет не може чекати. Овај покрет ће расти – мора расти. Злоупотреба фосилних горива је у фокусу демонстраната због климатских промена. Злоупотреба фосилних горива је и примарни мотив профита америчког империјализма и примарни ужасан резултат расипних активности надувене америчке војске. Заиста, изгледа да америчка војска јесте једини највећи загађивач на свету. Могу ли технички радници да искористе нашу организациону моћ за победе које су упечатљивије од повлачења Гугла из пројекта ЈЕДИ? Можемо и морамо. Прошлонедељни састанак у Њујорку био је само мали корак напред. Морамо учинити више и нашем удруженом протестном покрету морамо дати све што имамо.

Најава догађаја Ектинцтион Ребеллион, јануар 2020

Марц Елиот Стеин је директор технологије и друштвених медија за World BEYOND War.

Фотографија Грегорија Шведока.

Један одговор

Ostavite komentar

Ваша емаил адреса неће бити објављена. Obavezna polja su označena *

Повезани чланци

Наша теорија промене

Како окончати рат

Мове фор Пеаце Цхалленге
Антивар Евентс
Помозите нам да растемо

Мали донатори нас воде даље

Ако одлучите да дајете стални допринос од најмање 15 долара месечно, можете да изаберете поклон захвалности. Захваљујемо се нашим сталним донаторима на нашој веб страници.

Ово је ваша прилика да поново замислите а world beyond war
ВБВ Схоп
Преведи на било који језик