Zmiany klimatu, pracownicy techniczni, działacze antywojenni pracujący razem

Kierunek spotkania w sprawie wyginięcia w Nowym Jorku 30 stycznia 2020 r

Marc Eliot Stein, 10 lutego 2020 r

Niedawno zostałem zaproszony do zabrania głosu na spotkaniu Rebelii Zagłady w Nowym Jorku w imieniu World BEYOND War. Wydarzenie miało na celu zebranie trzech grup działania: działaczy na rzecz zmian klimatu, kolektywów robotników technicznych i działaczy antywojennych. Zaczęliśmy od porywającego osobistego konta działacza ds. Zmian klimatu Ha Vu, który opowiedział tłumowi nowojorczyków o niepokojącym doświadczeniu, jakie niewielu z nas miało: powrocie do domu swojej rodziny w Hanoi w Wietnamie, gdzie zwiększone ciepło już prawie uniemożliwiał wyjście na zewnątrz w godzinach największego nasłonecznienia. Niewielu Amerykanów wie również o Katastrofa zanieczyszczenia wody w 2016 r w Ha Tinh w środkowym Wietnamie. Ha podkreśla, że ​​często mówimy o zmianach klimatu jako o potencjalnym problemie w USA, ale w Wietnamie widzi, że już zaburza to życie i źródła utrzymania, a także szybko się pogarsza.

Nick Mottern z KnowDrones.org z podobną pilnością mówił o niedawnych ogromnych inwestycjach wojska USA w futurystyczną sztuczną inteligencję i przetwarzanie w chmurze - i podkreślił własny wniosek wojska, że ​​rozmieszczenie systemów AI w zarządzaniu bronią jądrową i wojnie z dronami nieuchronnie doprowadzi do błędów o nieprzewidywalnej wielkości. William Beckler z Extinction Rebellion NYC, a następnie wyjaśnił zasady organizacyjne, które ta ważna i szybko rozwijająca się organizacja wprowadza w życie, w tym przełomowe działania mające na celu podniesienie świadomości na temat krytycznego znaczenia zmian klimatycznych. Słyszeliśmy od przedstawiciela Nowego Jorku Koalicja pracowników technicznych, i próbowałem obrócić zgromadzenie w kierunku praktycznego wzmocnienia, mówiąc o akcji buntu pracowników technicznych, która okazała się nieoczekiwanie skuteczna.

Miało to miejsce w kwietniu 2018 r., Kiedy tak zwany „przemysł obronny” bzyczał o Project Maven, bardzo głośnej nowej amerykańskiej inicjatywie wojskowej mającej na celu rozwój zdolności sztucznej inteligencji dla dronów i innych systemów uzbrojenia. Google, Amazon i Microsoft oferują gotowe platformy sztucznej inteligencji dla płacących klientów, a Google był postrzegany jako prawdopodobny zwycięzca kontraktu wojskowego Project Maven.

Na początku 2018 r. Pracownicy Google zaczęli zabierać głos. Nie rozumieli, dlaczego firma, która zwerbowała ich jako pracowników z przysięgą „Don't Be Evil”, licytuje teraz projekty wojskowe, które mogą przypominać przerażający odcinek „Czarnego lustra”, w którym mechaniczne psy napędzane sztuczną inteligencją ścigają ludzi istoty na śmierć. Rozmawiali w mediach społecznościowych i tradycyjnych serwisach informacyjnych. Organizowali akcje, rozpowszechniali petycje i zabierali głos.

Ten bunt robotniczy był genezą ruchu Rebeliantów Robotniczych Google i pomógł w załadowaniu innych kolektywów robotniczych. Ale najbardziej zadziwiającą rzeczą w wewnętrznym proteście Google'a przeciwko Project Maven nie było to, że pracownicy techniczni zabierali głos. Najbardziej zadziwiającą rzeczą jest to Kierownictwo Google uległo wymaganiom pracowników.

Dwa lata później ten fakt wciąż mnie oszałamia. Przez dziesięciolecia widziałem wiele problemów etycznych jako pracownik technologii, ale rzadko widziałem, jak duża firma kategorycznie zgadza się na znaczące rozwiązanie problemów etycznych. Rezultatem buntu Google przeciwko Project Maven była publikacja zestawu zasad AI, które warto tutaj w całości przedrukować:

Sztuczna inteligencja w Google: nasze zasady

Google dąży do tworzenia technologii, które rozwiązują ważne problemy i pomagają ludziom w ich codziennym życiu. Z optymizmem podchodzimy do niesamowitego potencjału sztucznej inteligencji i innych zaawansowanych technologii w zakresie wspierania ludzi, szerokiego korzystania z obecnych i przyszłych pokoleń oraz pracy dla wspólnego dobra.

Cele dla aplikacji AI

Ocenimy aplikacje AI pod kątem następujących celów. Uważamy, że sztuczna inteligencja powinna:

1. Bądź społecznie korzystny.

Rozszerzony zasięg nowych technologii w coraz większym stopniu dotyka całe społeczeństwo. Postępy w dziedzinie sztucznej inteligencji będą miały wpływ na transformację wielu dziedzin, w tym opieki zdrowotnej, bezpieczeństwa, energii, transportu, produkcji i rozrywki. Rozważając potencjalny rozwój i wykorzystanie technologii sztucznej inteligencji, weźmiemy pod uwagę szeroki zakres czynników społecznych i ekonomicznych i będziemy postępować tam, gdzie uważamy, że ogólne prawdopodobne korzyści znacznie przekraczają przewidywalne ryzyko i wady.

AI zwiększa również naszą zdolność do rozumienia znaczenia treści na dużą skalę. Będziemy dążyć do tego, aby wysokiej jakości i dokładne informacje były łatwo dostępne przy użyciu sztucznej inteligencji, przy jednoczesnym przestrzeganiu norm kulturowych, społecznych i prawnych w krajach, w których działamy. Będziemy nadal starannie rozważać, kiedy udostępnić nasze technologie na zasadach niekomercyjnych.

2. Unikaj tworzenia lub wzmacniania nieuczciwego uprzedzenia.

Algorytmy AI i zestawy danych mogą odzwierciedlać, wzmacniać lub redukować nieuczciwe uprzedzenia. Zdajemy sobie sprawę, że odróżnianie uczciwych od nieuczciwych uprzedzeń nie zawsze jest proste i różni się w zależności od kultury i społeczeństwa. Będziemy starać się unikać niesprawiedliwego wpływu na ludzi, szczególnie tych związanych z wrażliwymi cechami, takimi jak rasa, pochodzenie etniczne, płeć, narodowość, dochód, orientacja seksualna, zdolności oraz przekonania polityczne lub religijne.

3. Być zbudowany i przetestowany pod kątem bezpieczeństwa.

Będziemy nadal rozwijać i stosować silne praktyki bezpieczeństwa i ochrony, aby uniknąć niezamierzonych rezultatów, które stwarzają ryzyko szkody. Zaprojektujemy nasze systemy sztucznej inteligencji, aby były odpowiednio ostrożne i będziemy starać się je rozwijać zgodnie z najlepszymi praktykami w badaniach bezpieczeństwa AI. W odpowiednich przypadkach będziemy testować technologie AI w ograniczonych środowiskach i monitorować ich działanie po wdrożeniu.

4. Odpowiedzialność wobec ludzi.

Zaprojektujemy systemy sztucznej inteligencji, które zapewnią odpowiednie możliwości uzyskania informacji zwrotnej, odpowiednich wyjaśnień i odwołania. Nasze technologie AI będą podlegać odpowiedniemu kierownictwu i kontroli człowieka.

5. Uwzględnij zasady projektowania prywatności.

Uwzględnimy nasze zasady prywatności przy opracowywaniu i wykorzystywaniu naszych technologii sztucznej inteligencji. Damy możliwość powiadomienia i zgody, zachęcamy architektów do ochrony prywatności oraz zapewniamy odpowiednią przejrzystość i kontrolę nad wykorzystaniem danych.

6. Zachowaj wysokie standardy doskonałości naukowej.

Innowacje technologiczne są zakorzenione w metodzie naukowej i zobowiązaniu do otwartego dochodzenia, dyscypliny intelektualnej, uczciwości i współpracy. Narzędzia sztucznej inteligencji mogą potencjalnie odblokować nowe dziedziny badań naukowych i wiedzy w kluczowych dziedzinach, takich jak biologia, chemia, medycyna i nauki o środowisku. Dążymy do wysokich standardów doskonałości naukowej, pracując nad rozwojem sztucznej inteligencji.

Będziemy współpracować z szeregiem interesariuszy w celu promowania przemyślanego przywództwa w tej dziedzinie, korzystając z rygorystycznych naukowo i multidyscyplinarnych podejść. Odpowiedzialnie dzielimy się wiedzą na temat sztucznej inteligencji, publikując materiały edukacyjne, najlepsze praktyki i badania, które umożliwiają większej liczbie osób opracowywanie przydatnych aplikacji AI.

7. Udostępnić do zastosowań zgodnych z tymi zasadami.

Wiele technologii ma wiele zastosowań. Będziemy pracować nad ograniczeniem potencjalnie szkodliwych lub obraźliwych aplikacji. Podczas opracowywania i wdrażania technologii sztucznej inteligencji ocenimy prawdopodobne zastosowania w świetle następujących czynników:

  • Główny cel i zastosowanie: główny cel i prawdopodobne zastosowanie technologii i aplikacji, w tym stopień, w jakim rozwiązanie jest powiązane ze szkodliwym zastosowaniem lub może być do niego przystosowane
  • Natura i wyjątkowość: czy udostępniamy technologię unikalną, czy bardziej ogólnie dostępną
  • Skala: czy zastosowanie tej technologii będzie miało znaczący wpływ
  • Charakter zaangażowania Google: niezależnie od tego, czy dostarczamy narzędzia ogólnego przeznaczenia, integrujemy narzędzia dla klientów, czy opracowujemy niestandardowe rozwiązania

Aplikacje AI, których nie będziemy realizować

Oprócz powyższych celów nie będziemy projektować ani wdrażać sztucznej inteligencji w następujących obszarach aplikacji:

  1. Technologie, które powodują lub mogą spowodować ogólną szkodę. Tam, gdzie istnieje istotne ryzyko wyrządzenia szkody, będziemy postępować tylko wtedy, gdy uważamy, że korzyści znacznie przewyższają ryzyko, i uwzględnią odpowiednie ograniczenia bezpieczeństwa.
  2. Broń lub inne technologie, których głównym celem lub wdrażaniem jest spowodowanie lub bezpośrednie ułatwienie obrażeń osób.
  3. Technologie, które zbierają lub wykorzystują informacje do celów nadzoru naruszających normy międzynarodowe.
  4. Technologie, których cel jest sprzeczny z powszechnie przyjętymi zasadami prawa międzynarodowego i praw człowieka.

W miarę pogłębiania się naszego doświadczenia w tej przestrzeni lista może ewoluować.

Wnioski

Uważamy, że zasady te stanowią właściwy fundament naszej firmy i naszego przyszłego rozwoju sztucznej inteligencji. Uznajemy, że ten obszar jest dynamiczny i ewoluuje, i będziemy podchodzić do naszej pracy z pokorą, zobowiązaniem do zaangażowania wewnętrznego i zewnętrznego oraz chęcią dostosowania naszego podejścia w miarę upływu czasu.

Ten pozytywny wynik nie zwalnia giganta technologicznego Google ze współudziału w różnych innych ważnych obszarach, takich jak wspieranie ICE, policji i innych działań wojskowych, agregowanie i sprzedaż dostępu do prywatnych danych o osobach, ukrywanie kontrowersyjnych wypowiedzi politycznych w wynikach wyszukiwania i, co najważniejsze, umożliwienie pracownikom wypowiadania się w tych i innych kwestiach bez wyrzucania ich za to. Ruch robotników Google pozostaje aktywny i bardzo zaangażowany.

Jednocześnie ważne jest, aby zdawać sobie sprawę z tego, jak duży wpływ wywarł ruch pracowników Google. Stało się to natychmiast jasne po rozpoczęciu protestów Google: działy marketingu Pentagonu przestały publikować nowe informacje prasowe na temat ekscytującego niegdyś Projektu Maven, ostatecznie „znikając” projekt całkowicie z widoczności, której wcześniej szukał. Zamiast tego nowa i znacznie większa inicjatywa sztucznej inteligencji zaczęła wyłaniać się z podstępnych Pentagonu Rada Innowacji Obronnych.

To się nazywało Projekt JEDI, nowa nazwa Pentagonu wydającego na najnowocześniejszą broń. Projekt JEDI wydałby znacznie więcej pieniędzy niż Project Maven, ale błyskawiczny rozgłos reklamowy dla nowego projektu (tak, wojsko USA wydaje los czasu i uwagi na reklamę i marketing) bardzo różniło się od wcześniejszego. Wszystkie eleganckie i seksowne zdjęcia z „Czarnego Lustra” zniknęły. Teraz, zamiast podkreślać ekscytujące i filmowe horrory dystopijne, drony napędzane sztuczną inteligencją mogą zadawać ludziom, Projekt JEDI wyjaśnił się jako trzeźwy krok do przodu, łącząc różne bazy danych w chmurze, aby pomóc „wojownikom” (ulubione określenie Pentagonu na personel pierwszej linii) i zespoły wsparcia zaplecza maksymalizują efektywność informacji. Tam, gdzie projekt Maven miał brzmieć ekscytująco i futurystycznie, projekt JEDI miał brzmieć rozsądnie i praktycznie.

W cenie JEDI Project nie ma nic sensownego ani praktycznego. To największy kontrakt na oprogramowanie wojskowe w historii świata: 10.5 miliarda dolarów. Wiele naszych oczu płonie, gdy słyszymy o skalach wydatków wojskowych, i możemy pominąć różnicę między milionami a miliardami. Ważne jest, aby zrozumieć, o ile większy jest projekt JEDI Projektu niż jakakolwiek poprzednia inicjatywa oprogramowania Pentagon. To zmieniacz gier, silnik generujący bogactwo, czek in blanco na zyski na koszt podatnika.

Przy próbie zrozumienia czeku in blanco na wydatki wojskowe o wartości nawet 10.5 miliarda dolarów pomaga sięgnąć pod powierzchnię rządowych komunikatów prasowych. Niektóre informacje można zebrać z publikacji wojskowych, jak niepokojące Wywiad z sierpniem 2019 r. Generałem porucznikiem Jackiem Shanahanem ze Wspólnego Centrum Sztucznej Inteligencji, kluczowa postać zarówno w znikniętym Projekcie Maven, jak i nowym Projekcie JEDI. Byłem w stanie uzyskać lepszy wgląd w to, jak osoby z branży obronnej myślą o Projekcie JEDI, słuchając podcastu o branży obronnej o nazwie „Projekt 38: Przyszłość umów rządowych”. Goście podcastów często mówią szczerze i bez skrępowania na dowolny temat, o którym rozmawiają. „Wiele osób będzie kupować nowe baseny w tym roku” było typowym przykładem rozmowy poufnej tego podcastu na temat Projektu JEDI. Jesteśmy pewni, że tak będzie.

Oto niezwykła rzecz, która wiąże się z zasadami sztucznej inteligencji Google. Oczywistymi trzema liderami ogromnego kontraktu JEDI o wartości 10.5 miliarda dolarów byłyby Google, Amazon i Microsoft - w tej kolejności, w oparciu o ich reputację jako innowatorów AI. Ze względu na protest pracowników przeciwko Project Maven w 2018 roku, lider AI Google nie wziął pod uwagę znacznie większego Projektu JEDI w 2019 roku. Pod koniec 2019 roku ogłoszono, że kontrakt trafił do Microsoft. Nastąpiła lawina wiadomości, ale ta relacja koncentrowała się głównie na rywalizacji między Amazon i Microsoftem oraz na fakcie, że 3. miejsce Microsoft prawdopodobnie mógł pokonać 2. miejsce Amazon, aby wygrać z powodu trwających bitew administracji Trumpa z Washington Post, który jest własnością Jeffa Bezosa z Amazona. Amazon zamierza teraz walczyć z darem Pentagonu dla Microsoftu w wysokości 10.5 miliarda dolarów, a Oracle również pozywa. Konkretna uwaga ze wspomnianego wyżej podcastu Projektu 38 - „Wiele osób będzie kupować nowe baseny w tym roku” - odnosiła się nie tylko do dobrodziejstw finansowych Microsoftu, ale także do wszystkich prawników, którzy będą uczestniczyć w tych procesach. Prawdopodobnie możemy zgadnąć, że ponad 3% z 10.5 miliarda dolarów Projektu JEDI trafi do prawników. Szkoda, że ​​nie możemy jej użyć do pomocy położyć kres głodowi na świecie zamiast.

Spór o to, czy to przekazanie pieniędzy podatników kontrahentom wojskowym przyniesie korzyści Microsoftowi, Amazonowi czy Oracle, zdominował wiadomości o Projekcie JEDI. Jedyna pozytywna wiadomość, jaką można było wyciągnąć z tego nieprzyzwoitego przeszczepu - fakt, że Google odstąpił od największego kontraktu na oprogramowanie wojskowe w historii świata z powodu protestu robotników - praktycznie nie istnieje w wiadomościach o Projekcie JEDI. 

Dlatego tak ważne było, aby opowiedzieć tę historię aktywistom skupionym na technologii, którzy zgromadzili się w zatłoczonym pokoju na Manhattanie w zeszłym tygodniu, aby porozmawiać o tym, jak możemy uratować naszą planetę, jak możemy walczyć z dezinformacją i upolitycznieniem nauki o klimacie, jak możemy przeciwstawić się ogromnej sile spekulantów paliwowych i spekulantów broni. W tym małym pokoju wszyscy zdawaliśmy się rozumieć wymiary problemu, przed którym stoimy, i kluczową rolę, którą sami musimy zacząć odgrywać. Społeczność technologiczna ma znaczną moc. Podobnie jak kampanie dezinwestycyjne mogą mieć znaczący wpływ, tak samo rebelie pracowników technicznych mogą mieć naprawdę duże znaczenie. Istnieje wiele sposobów, w jakie działacze zmian klimatu, działacze buntu robotników technicznych i działacze antywojenni mogą zacząć współpracować i będziemy to robić na wszelkie możliwe sposoby.

Mieliśmy nadzieję na rozpoczęcie tego spotkania, które z przyjemnością zainicjował Wygaśnięcie Rebellion NYC i Świat nie może czekać. Ten ruch będzie rósł - musi rosnąć. Protestujący przeciwko zmianie klimatu skupiają się na nadużywaniu paliw kopalnych. Nadużywanie paliw kopalnych jest również głównym motywem zysku imperializmu Stanów Zjednoczonych i głównym strasznym skutkiem rozrzutnych działań zbrojnych USA. Rzeczywiście, wygląda na to, że armia USA jedyny najgorszy zanieczyszczający na świecie. Czy pracownicy technologiczni mogą wykorzystać naszą siłę organizacyjną do zwycięstw w jeszcze większym stopniu niż wycofanie się Google z projektu JEDI? Możemy i musimy. Spotkanie w Nowym Jorku w zeszłym tygodniu było tylko małym krokiem naprzód. Musimy zrobić więcej i musimy dać naszemu połączonemu ruchowi protestowemu wszystko, co mamy.

Ogłoszenie wydarzenia Rebelion Extinction, styczeń 2020

Marc Eliot Stein jest dyrektorem ds. Technologii i mediów społecznościowych World BEYOND War.

Zdjęcie Gregory Schwedock.

One Response

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane artykuły

Nasza teoria zmian

Jak zakończyć wojnę?

Wyzwanie Ruch na rzecz Pokoju
Wydarzenia antywojenne
Pomóż nam się rozwijać

Drobni darczyńcy utrzymują nas w ruchu

Jeśli zdecydujesz się na cykliczny wkład w wysokości co najmniej 15 USD miesięcznie, możesz wybrać prezent z podziękowaniem. Dziękujemy naszym stałym darczyńcom na naszej stronie internetowej.

To Twoja szansa na ponowne wyobrażenie sobie world beyond war
Sklep WBW
Przetłumacz na dowolny język