Cambio Climático, Traballadores Técnicos e Activistas Anti-Guerra que traballan xuntos

Encabezamento para reunión de extinción na cidade de Nova York o 30 de xaneiro de 2020

Por Marc Eliot Stein, 10 de febreiro de 2020

Recentemente fun invitado a falar nunha reunión da Rebellión de Extinción na cidade de Nova York en nome de World BEYOND War. O evento foi deseñado para reunir tres grupos de acción: activistas do cambio climático, colectivos de traballadores de tecnoloxía e activistas contra a guerra. Comezamos cunha conmovedora conta persoal do activista de cambio climático Ha Vu, que contou á multitude de neoiorquinos sobre unha experiencia alarmante que algúns de nós nunca tiveron: volver á casa da súa familia en Hanoi, Vietnam, onde aumento da calor xa fixo case imposible saír fóra durante as horas máximas de luz solar. Poucos estadounidenses tamén o saben Catástrofe pola contaminación da auga 2016 en Ha Tinh, no centro de Vietnam. Ha subliñou Ha, a miúdo falamos do cambio climático como un problema potencial, pero en Vietnam pode vela xa perturbando vidas e medios de vida e empeorando rapidamente.

Nick Mottern de KnowDrones.org falou con semellante urxencia sobre o recente investimento masivo do exército norteamericano en intelixencia artificial futurista e computación na nube - e enfatizou a propia conclusión do exército de que o despregamento de sistemas de IA na xestión de armas nucleares e na guerra de drons conducirá inevitablemente a erros de magnitude imprevisible. William Beckler de Extinction Rebellion NYC seguiu explicando os principios organizativos que esta importante e de rápido crecemento pon en marcha, incluíndo accións disruptivas deseñadas para concienciar da importancia crítica do cambio climático. Escoitamos falar dun representante da cidade de Nova York Coalición de traballadores técnicose tentei pivotar o encontro cara a un sentido de empoderamento práctico falando dunha acción de rebelión dos traballadores de tecnoloxía que tivo un éxito inesperado.

Isto foi en abril de 2018, cando a chamada "industria da defensa" rumiaba sobre Project Maven, unha nova iniciativa militar estadounidense altamente divulgada para desenvolver capacidades de intelixencia artificial para drons e outros sistemas de armas. Google, Amazon e Microsoft ofrecen plataformas de intelixencia artificial fóra de estante para clientes de pago e Google foi visto como o probable gañador do contrato militar de Project Maven.

A principios de 2018, os traballadores de Google comezaron a falar. Non entenderon por que unha empresa que os reclutaba como empregados coa promesa de "Don't Be Evil" licitaba agora en proxectos militares susceptibles de semellar o horrible episodio de "Black Mirror" no que os cans mecánicos alimentados por IA hound humanos. seres ata a morte. Falaron nos medios sociais e nos locais de comunicación tradicionais. Organizaron accións e circularon peticións e fixéronse escoitar.

Esta rebelión dos traballadores foi a xénese do movemento Rebellion de Traballadores de Google e axudou a arrincar outros colectivos de traballadores de tecnoloxía. Pero o máis sorprendente da protesta interna de Google contra Project Maven non foi que falasen os traballadores de tecnoloxía. O máis sorprendente é que A xestión de Google produciuse ás demandas dos traballadores.

Dous anos despois, este feito aínda me estraña. Nas miñas décadas vin moitos problemas éticos como traballador tecnolóxico, pero rara vez vin unha gran empresa aceptando categóricamente tratar problemas éticos dun xeito significativo. O resultado da rebelión de Google contra Project Maven foi a publicación dun conxunto de principios de AI que paga a pena reimprimir aquí de xeito completo:

Intelixencia artificial en Google: Os nosos principios

Google aspira a crear tecnoloxías que resolvan problemas importantes e axuden ás persoas na súa vida diaria. Somos optimistas sobre o incrible potencial de AI e outras tecnoloxías avanzadas para capacitar ás persoas, beneficiar amplamente ás xeracións actuais e futuras e traballar polo ben común.

Obxectivos para aplicacións de AI

Avaliaremos as aplicacións de AI tendo en conta os seguintes obxectivos. Cremos que a IA debería:

1. Ser socialmente beneficioso.

O alcance expandido das novas tecnoloxías toca cada vez máis a sociedade no seu conxunto. Os avances en AI terán impactos transformadores nunha ampla gama de campos, incluíndo asistencia sanitaria, seguridade, enerxía, transporte, fabricación e entretemento. Mentres consideramos o desenvolvemento e os usos potenciais das tecnoloxías de IA, teremos en conta unha ampla gama de factores sociais e económicos e procederemos cando cremos que os beneficios probables en xeral superan substancialmente os riscos e os inconvenientes previstos.

A IA tamén mellora a nosa capacidade para comprender o significado dos contidos a escala. Trataremos de que a información de alta calidade e exacta estea dispoñible a través da IA, mentres seguiremos respectando as normas culturais, sociais e legais nos países onde operamos. E seguiremos valorando de xeito reflexivo cando poñerán as nosas tecnoloxías dispoñibles de xeito non comercial.

2. Evite crear ou reforzar a parcialidade inxusta.

Os algoritmos e conxuntos de datos de AI poden reflectir, reforzar ou reducir sesgos inxustos. Recoñecemos que distinguir xusta de prexuízos inxustos non sempre é sinxelo e difire entre culturas e sociedades. Procuraremos evitar impactos inxustos sobre as persoas, especialmente aquelas relacionadas con características sensibles como raza, etnia, xénero, nacionalidade, ingresos, orientación sexual, capacidade e crenzas políticas ou relixiosas.

3. Construír e probar a seguridade.

Seguiremos desenvolvendo e aplicando fortes prácticas de seguridade e seguridade para evitar resultados non desexados que xeren riscos de danos. Deseñaremos os nosos sistemas de IA para que sexan adecuadamente prudentes e procuramos desenvolvelos de acordo coas mellores prácticas na investigación de seguridade en AI. En casos apropiados, imos probar as tecnoloxías de AI en ambientes restrinxidos e controlar o seu funcionamento despois do despregamento.

4. Ser responsable ante a xente.

Deseñaremos sistemas AI que proporcionen oportunidades axeitadas para comentarios, explicacións relevantes e chamamento. As nosas tecnoloxías de AI estarán suxeitas a unha dirección e control humano adecuados.

5. Incorporar principios de deseño de privacidade.

Incorporaremos os nosos principios de privacidade no desenvolvemento e uso das nosas tecnoloxías AI. Daremos oportunidade de aviso e consentimento, fomentaremos as arquitecturas con salvagardias de privacidade e proporcionaremos a transparencia e control adecuados sobre o uso de datos.

6. Defender altos estándares de excelencia científica.

A innovación tecnolóxica está enraizada no método científico e na aposta pola investigación aberta, o rigor intelectual, a integridade e a colaboración. As ferramentas AI teñen o potencial de desbloquear novos ámbitos da investigación científica e do coñecemento en ámbitos críticos como a bioloxía, a química, a medicina e as ciencias ambientais. Aspiramos a altos estándares de excelencia científica mentres traballamos para avanzar no desenvolvemento da IA.

Imos traballar con unha serie de partes interesadas para promover un liderado atento nesta área, empregando enfoques científicos e rigorosos e multidisciplinares. E imos compartir de xeito responsable os coñecementos de AI publicando materiais educativos, mellores prácticas e investigacións que permitan a máis xente desenvolver aplicacións de AI útiles.

7. Poñerse a disposición de usos que se axusten a estes principios.

Moitas tecnoloxías teñen múltiples usos. Traballaremos para limitar as aplicacións potencialmente nocivas ou abusivas. Ao desenvolver e implementar tecnoloxías de IA, avaliaremos os usos probables á luz dos seguintes factores:

  • Propósito primario e uso: o propósito principal e o uso probable dunha tecnoloxía e aplicación, incluída a estreita relación que ten ou a que se adapta a un uso prexudicial
  • Natureza e singularidade: tanto se estamos dispoñendo unha tecnoloxía única ou máis xeralmente dispoñible
  • Escala: se o uso desta tecnoloxía terá un impacto significativo
  • Natureza da participación de Google: tanto se estamos a proporcionar ferramentas de propósito xeral, integrando ferramentas para os clientes coma se desenvolvimos solucións personalizadas

Aplicacións de AI que non imos seguir

Ademais dos obxectivos anteriores, non deseñaremos nin despregaremos AI nas seguintes áreas de aplicación:

  1. Tecnoloxías que causan ou son susceptibles de causar danos xerais. Se existe un risco material de danos, procederemos só onde cremos que os beneficios superan substancialmente os riscos e incorporarán restricións de seguridade adecuadas.
  2. Armas ou outras tecnoloxías cuxo propósito principal ou implementación é causar ou facilitar directamente lesións ás persoas.
  3. Tecnoloxías que recollen ou usan información para vixilancia que viola normas internacionalmente aceptadas.
  4. Tecnoloxías cuxo propósito contravén principios amplamente aceptados do dereito internacional e dos dereitos humanos.

A medida que a nosa experiencia neste espazo afonda, esta lista pode evolucionar.

Conclusión

Cremos que estes principios son o fundamento adecuado para a nosa empresa e para o noso futuro desenvolvemento de IA. Recoñecemos que esta área é dinámica e en evolución, e abordaremos o noso traballo con humildade, compromiso co compromiso interno e externo e vontade de adaptar o noso enfoque a medida que aprendemos co paso do tempo.

Este resultado positivo non absolve o xigante tecnolóxico de Google da complicidade en varias outras áreas de gran preocupación, como apoiar a ICE, policía e outras actividades militares, agregar e vender acceso a datos privados sobre individuos, ocultar declaracións políticas controvertidas dos resultados do motor de busca. e, o máis importante, permitir aos seus empregados seguir falando sobre estas e outras cuestións sen ser despedido por facelo. O movemento de rebelión dos traballadores de Google segue activo e altamente implicado.

Ao mesmo tempo, é importante recoñecer o impacto que tivo o movemento de traballadores de Google. Isto quedou claro de inmediato despois de que comezasen as protestas de Google: os departamentos de mercadotecnia do Pentágono deixaron de emitir novas notas de prensa sobre o outrora excitante Project Maven, ao final "desaparecendo" o proxecto enteiramente da visibilidade pública que antes buscaba. En vez diso, unha nova e moito máis grande iniciativa de intelixencia artificial comezou a saír da insidiosa do Pentágono Consello de Innovación en Defensa.

Isto chamábase Proxecto JEDI, un novo nome para o gasto do Pentágono en armas de última xeración. Project JEDI gastaría moito máis diñeiro que Project Maven, pero a publicidade para o novo proxecto (si, os militares dos Estados Unidos gastan unha solar de tempo e atención sobre publicidade e mercadotecnia) era moi diferente á anterior. Todo o elegante e sexy "Black Mirror" desapareceu. Agora, no canto de enfatizar os emocionantes e cinemáticos horror distópicos que os drones con poder AI poderían inflixir seres humanos, o proxecto JEDI explicouse como un sobrio paso cara a cara á eficiencia, combinando varias bases de datos de nubes co fin de axudar aos "loitadores" (o termo favorito do Pentágono para persoal de primeira liña) e equipos de apoio de oficina que maximizan a eficacia da información. Onde Project Maven foi deseñado para soar emocionante e futurista, Project JEDI foi deseñado para soar sensato e práctico.

Non hai nada sensato nin práctico sobre o prezo do proxecto JEDI. É o maior contrato de software militar da historia mundial: 10.5 millóns de dólares. Moitos dos nosos ollos escintilan cando escoitamos falar de escalas de gasto militar e podemos saltar a diferenza entre millóns e miles de millóns. É esencial entender o que é máis grande o proxecto JEDI que calquera iniciativa de software anterior Pentágono. É un cambio de xogos, un motor xerador de riqueza, un cheque en branco para beneficiarse a cargo do contribuínte.

Axuda a rabuñar debaixo da superficie dos comunicados de prensa do goberno cando se intenta comprender un cheque en branco de gasto militar de ata 10.5 millóns de dólares. Algunhas informacións pódense obter das publicacións propias do exército, como unha inquietante Entrevista de agosto de 2019 co tenente xeral Jack Shanahan, tenente do Centro de Intelixencia Artificial Conxunto, unha figura clave tanto no desaparecido Project Maven coma no novo Project JEDI. Puido coñecer máis de preto como pensan os internos da industria da defensa sobre o proxecto JEDI escoitando un podcast da industria de defensa chamado “Proxecto 38: O futuro da contratación gobernamental”. Os hóspedes do podcast adoitan falar con franqueza e despreocupación sobre o tema que están a discutir. "Moita xente mercará novas piscinas este ano" era o típico do chat interno deste proxecto sobre o proxecto JEDI. Estamos seguros de que o serán.

Aquí está o notable que se remonta aos principios de IA de Google. Os tres líderes obvios no enorme contrato JEDI de 10.5 millóns de dólares serían Google, Amazon e Microsoft, por esa orde, baseados na súa reputación como innovadores de IA. Por mor das protestas dos traballadores contra o Proxecto Maven en 2018, o líder da IA ​​Google non tivo en conta o proxecto JEDI, moito máis grande, en 2019. A finais de 2019, anunciouse que o contrato foi para Microsoft. Seguiu unha chea de noticias, pero esta cobertura centrouse principalmente na rivalidade entre Amazon e Microsoft, e no feito de que o terceiro posto de Microsoft foi probablemente autorizado a vencer ao segundo lugar de Amazon pola vitoria debido ás continuas batallas da administración Trump co Washington Post, que é propiedade de Jeff Bezos de Amazon. Amazon vai agora aos tribunais para loitar contra o agasallo do Pentágono por 3 millóns de dólares a Microsoft, e Oracle tamén demanda. A observación específica do podcast do Proxecto 2 mencionada anteriormente - "Moita xente vai mercar novas piscinas este ano" - referíase non só ao beneficio financeiro de Microsoft senón tamén a todos os avogados que participarán nestes procesos. Probablemente poidamos adiviñar que máis do 10.5% dos 38 millóns de dólares do Proxecto JEDI irán destinados a avogados. Mágoa que non o poidamos axudar acabar coa fame mundial en vez diso.

A disputa sobre se esta transferencia de diñeiro dos contribuíntes a contratistas militares debería beneficiar a Microsoft, Amazon ou Oracle dominou a cobertura informativa do Proxecto JEDI. A única mensaxe positiva que se obtivo deste obsceno enxerto - o feito de que Google se apartara do maior contrato de software militar da historia mundial por mor da protesta dos traballadores - foi practicamente inexistente na cobertura informativa do Proxecto JEDI. 

É por iso que foi importante contar esta historia aos activistas enfocados á tecnoloxía que se reuniron nunha sala multitudinaria en Midtown Manhattan a semana pasada para falar sobre como podemos salvar o noso planeta, como podemos loitar contra a desinformación e a politización da ciencia climática, como podemos facer fronte ao poderoso poder dos beneficiarios de combustibles fósiles e provedores de armas. Nesta pequena sala todos pareciamos comprender as dimensións do problema que enfrontabamos e o papel crítico que nós mesmos debemos comezar a desempeñar. A comunidade tecnolóxica ten un poder significativo. Do mesmo xeito que as campañas de desinversión poden marcar a verdade, as rebeliones dos traballadores tecnolóxicos poden marcar a verdade. Hai moitos xeitos en que os activistas contra o cambio climático, os operadores de rebelión e os traballadores da tecnoloxía poden comezar a traballar xuntos e imos facelo de todos os xeitos que poidamos.

Tivemos un comezo esperanzador con este encontro, iniciado de xeito útil Extinción Rebellion NYC O mundo non pode esperar. Este movemento medrará, debe medrar. O abuso de combustibles fósiles é o foco dos manifestantes do cambio climático. O abuso de combustibles fósiles tamén é o principal motivo de lucro do imperialismo estadounidense e un terrible resultado primordial das dilapidadas actividades do inchado exército estadounidense. De feito, parece que o é o exército estadounidense o único peor contaminador do mundo. Os traballadores de tecnoloxía poden usar o noso poder organizador para ter vitorias aínda máis impactantes que a retirada de Google do proxecto JEDI? Podemos e debemos. A reunión da semana pasada en Nova York foi só un pequeno paso cara adiante. Debemos facer máis e debemos dar ao noso movemento de protesta combinado todo o que temos.

Anuncio do evento da rebelión de extinción, xaneiro de 2020

Marc Eliot Stein é director de tecnoloxía e medios de comunicación social para World BEYOND War.

Foto de Gregory Schwedock.

One Response

Deixe unha resposta

Enderezo de correo electrónico non será publicado. Os campos obrigatorios están marcados *

artigos relacionados

A nosa teoría do cambio

Como acabar coa guerra

Desafío Move for Peace
Eventos contra a guerra
Axúdanos a crecer

Os pequenos doantes seguen en marcha

Se decides facer unha contribución periódica de polo menos 15 USD ao mes, podes seleccionar un agasallo de agradecemento. Agradecemos aos nosos doadores recorrentes no noso sitio web.

Esta é a túa oportunidade de reimaxinar a world beyond war
Tenda WBW
Traducir a calquera idioma