Изменение климата, технические работники, антивоенные активисты, работающие вместе

Встреча на грани исчезновения в Нью-Йорке 30 января 2020 года

Марк Элиот Стейн, 10 февраля 2020 г.

Недавно меня пригласили выступить на собрании по борьбе с исчезновением в Нью-Йорке от имени World BEYOND War, Мероприятие было разработано для объединения трех групп действий: активистов по борьбе с изменением климата, коллективов технических работников и антивоенных активистов. Мы начали с активного личного рассказа активиста по изменению климата Ха Ву, который рассказал толпе жителей Нью-Йорка о тревожном опыте, который некоторые из нас когда-либо испытывали: возвращение в дом своей семьи в Ханое, Вьетнам, где увеличение тепла уже почти невозможно выйти на улицу в часы пик солнечного света. Немногие американцы также знают о Катастрофа загрязнения воды 2016 в Ха Тинь в центральном Вьетнаме. Мы часто говорим об изменении климата как о потенциальной проблеме в США, подчеркнул Ха, но во Вьетнаме она видит, что это уже подрывает жизнь и средства к существованию и быстро ухудшается.

Ник Моттерн из KnowDrones.org с такой же настойчивостью говорил о недавних массовых инвестициях американских вооруженных сил в футуристический искусственный интеллект и облачные вычисления - и подчеркнул собственный вывод военных о том, что развертывание систем искусственного интеллекта в управлении ядерным оружием и войне с дронами неизбежно приведет к ошибкам непредсказуемого масштаба. Уильям Беклер из Extinction Rebellion NYC, после чего объяснил организационные принципы, которые эта важная и быстрорастущая организация применяет, включая подрывные действия, направленные на повышение осведомленности о критической важности изменения климата. Мы получили известие от представителя Нью-Йорка Коалиция технических работникови я попытался повернуть собрание к ощущению практического расширения прав и возможностей, рассказав о мятеже технических работников, который оказался неожиданно успешным.

Это было в апреле 2018 года, когда так называемая «оборонная промышленность» жужжала о Project Maven, широко разрекламированной новой военной инициативе США по разработке возможностей искусственного интеллекта для беспилотных летательных аппаратов и других систем оружия. Google, Amazon и Microsoft предлагают готовые платформы искусственного интеллекта для платных клиентов, и Google считался вероятным победителем военного контракта Project Maven.

В начале 2018 года сотрудники Google начали высказываться. Они не понимали, почему компания, которая завербовала их в качестве сотрудников с обещанием «Не будь злом», теперь делала ставки на военные проекты, которые могут напоминать ужасный эпизод «Черного зеркала», в котором механические собаки с искусственным интеллектом преследуют человека. существа до смерти. Они говорили в социальных сетях и в традиционных новостных агентствах. Они организовывали акции и распространяли петиции и давали о себе знать.

Это восстание рабочих было порождением движения «Восстание рабочих Google», и оно помогло запустить другие технические рабочие коллективы. Но самой удивительной вещью во внутреннем протесте Google против Project Maven было не то, что технические работники высказывались. Самое удивительное, что Руководство Google уступило требованиям рабочих.

Два года спустя этот факт все еще ошеломляет меня. Я видел много этических проблем за десятилетия работы в качестве технического работника, но я редко видел, чтобы крупная компания категорически соглашалась решать этические проблемы в значительной степени. Результатом восстания Google против Project Maven стала публикация набора принципов ИИ, которые стоит перепечатать здесь полностью:

Искусственный интеллект в Google: наши принципы

Google стремится создавать технологии, которые решают важные проблемы и помогают людям в их повседневной жизни. Мы с оптимизмом смотрим на невероятный потенциал искусственного интеллекта и других передовых технологий для расширения возможностей людей, широкого блага для нынешнего и будущих поколений и работы на общее благо.

Цели для приложений ИИ

Мы будем оценивать приложения ИИ с учетом следующих целей. Мы считаем, что ИИ должен:

1. Быть социально выгодным.

Расширение охвата новыми технологиями все больше затрагивает общество в целом. Достижения в области искусственного интеллекта будут иметь преобразующее влияние в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. Рассматривая потенциальное развитие и использование технологий искусственного интеллекта, мы будем учитывать широкий спектр социальных и экономических факторов и будем действовать там, где считаем, что общие вероятные выгоды значительно превышают прогнозируемые риски и недостатки.

ИИ также повышает нашу способность понимать значение контента в масштабе. Мы будем стремиться к тому, чтобы высококачественная и точная информация была легко доступна с использованием ИИ, при этом продолжая уважать культурные, социальные и юридические нормы в странах, где мы работаем. И мы продолжим вдумчиво оценивать, когда сделать наши технологии доступными на некоммерческой основе.

2. Избегайте создания или усиления несправедливой предвзятости.

Алгоритмы ИИ и наборы данных могут отражать, усиливать или уменьшать несправедливые предубеждения. Мы признаем, что отличить справедливые от несправедливых предубеждений не всегда просто, и они различаются в разных культурах и обществах. Мы будем стремиться избегать несправедливого воздействия на людей, особенно тех, которые связаны с такими деликатными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности, а также политические или религиозные убеждения.

3. Быть построенным и проверенным на безопасность.

Мы будем продолжать разрабатывать и применять строгие методы обеспечения безопасности, чтобы избежать непредвиденных результатов, которые создают риски причинения вреда. Мы будем разрабатывать наши системы искусственного интеллекта с должной осторожностью и стремимся развивать их в соответствии с передовой практикой исследований безопасности искусственного интеллекта. В соответствующих случаях мы будем тестировать технологии ИИ в стесненных условиях и будем отслеживать их работу после развертывания.

4. Быть подотчетным людям.

Мы разработаем системы искусственного интеллекта, которые обеспечат соответствующие возможности для обратной связи, соответствующих объяснений и апелляции. Наши технологии искусственного интеллекта будут зависеть от соответствующего человеческого руководства и контроля.

5. Включите принципы дизайна конфиденциальности.

Мы будем учитывать наши принципы конфиденциальности при разработке и использовании наших технологий искусственного интеллекта. Мы дадим возможность для уведомления и согласия, будем поощрять архитектуру средствами защиты конфиденциальности, а также обеспечим соответствующую прозрачность и контроль над использованием данных.

6. Отстаивайте высокие стандарты научного совершенства.

Технологические инновации основаны на научном методе и приверженности открытому расследованию, интеллектуальной строгости, честности и сотрудничеству. Инструменты ИИ могут открыть новые области научных исследований и знаний в критических областях, таких как биология, химия, медицина и науки об окружающей среде. Мы стремимся к высоким стандартам научного совершенства, работая над развитием ИИ.

Мы будем работать с целым рядом заинтересованных сторон, чтобы продвигать продуманное лидерство в этой области, опираясь на научно строгие и междисциплинарные подходы. И мы ответственно поделимся знаниями ИИ, публикуя учебные материалы, лучшие практики и исследования, которые позволят большему количеству людей разрабатывать полезные приложения ИИ.

7. Сделать доступным для использования в соответствии с этими принципами.

Многие технологии имеют многократное использование. Мы будем работать над тем, чтобы ограничить число потенциально опасных или оскорбительных приложений. Разрабатывая и внедряя технологии искусственного интеллекта, мы будем оценивать вероятное использование в свете следующих факторов:

  • Основное назначение и использование: основная цель и вероятное использование технологии и приложения, включая то, насколько тесно решение связано с вредным использованием или может быть адаптировано к нему
  • Природа и уникальность: делаем ли мы доступную уникальную или более доступную технологию
  • Масштаб: будет ли использование этой технологии иметь значительное влияние
  • Характер участия Google: предоставляем ли мы инструменты общего назначения, интегрируем инструменты для клиентов или разрабатываем индивидуальные решения

AI приложения мы не будем преследовать

В дополнение к вышеуказанным целям, мы не будем разрабатывать или развертывать ИИ в следующих областях применения:

  1. Технологии, которые наносят или могут причинить общий вред. В тех случаях, когда существует существенный риск причинения вреда, мы будем действовать только тогда, когда считаем, что выгоды существенно перевешивают риски, и будут включать соответствующие ограничения безопасности.
  2. Оружие или другие технологии, основной целью или применением которых является причинение вреда людям или его непосредственное содействие.
  3. Технологии, которые собирают или используют информацию для наблюдения, нарушая международно признанные нормы.
  4. Технологии, цель которых противоречит общепринятым принципам международного права и прав человека.

По мере углубления нашего опыта в этом пространстве этот список может эволюционировать.

Заключение

Мы считаем, что эти принципы являются правильной основой для нашей компании и нашего будущего развития ИИ. Мы признаем, что эта область динамична и развивается, и мы будем подходить к нашей работе со смирением, приверженностью к внутреннему и внешнему взаимодействию и готовностью адаптировать наш подход, когда мы учимся со временем.

Этот положительный результат не освобождает технологического гиганта Google от соучастия в различных других областях, вызывающих серьезную обеспокоенность, таких как поддержка ICE, полиции и других военных действий, агрегирование и продажа доступа к личным данным о лицах, сокрытие спорных политических заявлений от результатов поисковых систем. и, самое главное, позволяя своим сотрудникам продолжать высказываться по этим и другим вопросам без увольнения за это. Мятежное движение рабочих Google остается активным и активно вовлеченным.

В то же время важно понимать, насколько мощным было движение рабочих Google. Это стало ясно сразу после начала протестов Google: маркетинговые отделы Пентагона прекратили выпускать новые пресс-релизы о некогда захватывающем Project Maven, в конечном итоге «полностью» исчезнув из-за публичной видимости, которую он раньше стремился. Вместо этого из коварного Пентагона начала появляться новая и гораздо более масштабная инициатива в области искусственного интеллекта. Совет по оборонным инновациям.

Это называлось Проект JEDIновое название расходов Пентагона на новейшее оружие. Проект JEDI потратил бы гораздо больше денег, чем Project Maven, но реклама нового проекта (да, американские военные тратят много времени и внимания на рекламу и маркетинг) сильно отличался от предыдущего. Все гладкие и сексуальные образы «Черного зеркала» исчезли. Теперь, вместо того, чтобы подчеркивать захватывающие и кинематографические ужасы-антиутопии, которые дроны могут приводить в действие искусственным интеллектом для людей, проект JEDI объяснил себя трезвым шагом вперед для повышения эффективности, комбинируя различные облачные базы данных, чтобы помочь «военным бойцам» (любимый термин Пентагона для персонал на переднем крае) и вспомогательные бригады обеспечивают максимальную эффективность информации. Где Project Maven был разработан, чтобы звучать захватывающе и футуристично, Project JEDI был разработан, чтобы звучать разумно и практично.

В ценнике проекта JEDI нет ничего толкового или практичного. Это самый крупный военный контракт на программное обеспечение в мировой истории: 10.5 миллиардов долларов. Когда мы слышим о масштабах военных расходов, многие из наших глаз закрываются, и мы можем пропустить разницу между миллионами и миллиардами. Важно понимать, насколько Project JEDI больше, чем любая предыдущая программная инициатива Пентагона. Это изменит правила игры, движок, приносящий богатство, незаполненный чек на получение прибыли за счет налогоплательщиков.

Это помогает скрыть поверхность правительственных пресс-релизов, пытаясь понять, что чек на военные расходы достигает 10.5 миллиардов долларов. Некоторую информацию можно почерпнуть из собственных публикаций военных, например, тревожный Август 2019 г. Интервью с Объединенным центром искусственного интеллекта генерал-лейтенантом Джеком Шанаханомключевая фигура в исчезнувшем проекте Maven и новом проекте JEDI. Я смог лучше понять, как инсайдеры оборонной отрасли думают о проекте JEDI, прослушав подкаст оборонной промышленности под названием «Проект 38: будущее государственного заказа». Гости подкастов часто откровенно и откровенно говорят о той теме, которую они обсуждают. «Многие люди будут покупать новые бассейны в этом году», - таков был инсайдерский разговор этого подкаста о Project JEDI. Мы уверены, что так и будет.

Вот замечательная вещь, которая связана с принципами искусственного интеллекта Google. Три очевидных лидера в огромном контракте JEDI на 10.5 миллиардов долларов были бы Google, Amazon и Microsoft - в таком порядке, исходя из их репутации новаторов в области ИИ. Из-за протеста рабочих против Project Maven в 2018 году лидер ИИ Google не принимал во внимание гораздо более крупный Project JEDI в 2019 году. В конце 2019 года было объявлено, что контракт перешел к Microsoft. Последовал шквал новостей, но это освещение было сосредоточено в основном на соперничестве между Amazon и Microsoft, а также на том факте, что Microsoft, занявшая 3-е место, вероятно, позволила победить Amazon, заняв 2-е место, из-за продолжающихся битв администрации Трампа с Washington Post. который принадлежит Джеффу Безосу из Amazon. Amazon сейчас подает в суд, чтобы оспорить подарок Пентагона Microsoft в размере 10.5 миллиардов долларов, и Oracle также подает в суд. Конкретное замечание из подкаста Project 38, упомянутого выше - «Многие люди будут покупать новые бассейны в этом году» - относилось не только к финансовой выгоде Microsoft, но и ко всем юристам, которые будут участвовать в этих судебных процессах. Мы, вероятно, можем сделать обоснованное предположение, что более 3% от 10.5 миллиардов долларов, выделенных Project JEDI, пойдут юристам. Жаль, что мы не можем использовать это, чтобы помочь конец голода в мире .

Спор о том, должна ли эта передача денег налогоплательщиков военным подрядчикам принести пользу Microsoft, Amazon или Oracle, доминировал в новостных сообщениях о Project JEDI. Единственное положительное сообщение, которое можно почерпнуть из этого непристойного взяточничества - тот факт, что Google отказался от крупнейшего в мировой истории контракта на военное программное обеспечение из-за протеста рабочих - практически отсутствует в новостях о проекте JEDI. 

Вот почему было важно рассказать эту историю активным специалистам, которые собрались на прошлой неделе в многолюдном зале в центре Манхэттена, чтобы поговорить о том, как мы можем спасти нашу планету, как мы можем бороться с дезинформацией и политизацией науки о климате, как мы можем противостоять огромной силе спекулянтов ископаемого топлива и спекулянтов оружием. В этой маленькой комнате все мы, казалось, поняли масштабы проблемы, с которой мы столкнулись, и решающую роль, которую мы сами должны начать играть. Техническое сообщество обладает значительной властью. Так же, как кампании по освобождению могут иметь реальное значение, восстания технических работников могут иметь реальное значение. Есть много способов, как активисты изменения климата, активисты восстания технических работников и антивоенные активисты могут начать работать вместе, и мы будем делать это всеми возможными способами.

У нас было многообещающее начало с этой встречи, инициированной Восстание Восстание Нью-Йорк и Мир не может ждать. Это движение будет расти - оно должно расти. Злоупотребление ископаемым топливом находится в центре внимания протестующих против изменения климата. Злоупотребление ископаемым топливом также является основным мотивом получения прибыли американским империализмом и главным ужасным результатом расточительной деятельности раздутых вооруженных сил США. Действительно, американские военные, похоже, самый страшный загрязнитель в мире, Могут ли технические работники использовать нашу организующую силу для побед, даже более впечатляющих, чем уход Google из проекта JEDI? Мы можем и мы должны. Встреча на прошлой неделе в Нью-Йорке была лишь маленьким шагом вперед. Мы должны сделать больше, и мы должны дать нашему объединенному протестному движению все, что у нас есть.

Объявление о событии «Восстание вымирания», январь 2020 г.

Марк Элиот Стейн - директор по технологиям и социальным сетям World BEYOND War.

Фото Грегори Шведока.

Один ответ

Оставьте комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены * *

Статьи по теме

Наша теория изменений

Как положить конец войне

Двигайтесь ради мира. Вызов
Антивоенные события
Помогите нам расти

Маленькие доноры поддерживают нас

Если вы решите делать регулярный взнос в размере не менее 15 долларов в месяц, вы можете выбрать благодарственный подарок. Мы благодарим постоянных жертвователей на нашем сайте.

Это ваш шанс переосмыслить world beyond war
WBW Магазин
Перевести на любой язык