Деньги, мимикрия и контроль над разумом: Big Tech бьет по этическим тормозам ИИ

21
Google незаконно недоплачивает тысячам временных работников в нескольких странах

В сентябре прошлого года облачное подразделение Google изучило возможность использования искусственного интеллекта, чтобы помочь финансовой фирме решить, кому ссудить деньги.

После нескольких недель внутренних дискуссий компания отклонила идею клиента, посчитав проект слишком рискованным с этической точки зрения, потому что технология искусственного интеллекта может увековечить предрассудки, такие как расовые и гендерные.

С начала прошлого года Google также заблокировал новые функции искусственного интеллекта, анализирующие эмоции, опасаясь культурной нечувствительности, в то время как Microsoft ограничила программное обеспечение, имитирующее голоса, а IBM отклонила запрос клиента на усовершенствованную систему распознавания лиц.

Согласно интервью с руководителями по этике ИИ в трех технологических гигантах США, все эти технологии были ограничены группами руководителей или других лидеров.

Об этом говорится здесь впервые, их вето и обсуждения, которые привели к ним, отражают зарождающееся в отрасли стремление сбалансировать стремление к прибыльным системам искусственного интеллекта с повышенным вниманием к социальной ответственности.

«Существуют возможности и вред, и наша задача – максимизировать возможности и минимизировать вред», – сказала Трейси Пиццо Фрей, член двух комитетов по этике Google Cloud в качестве управляющего директора по ответственному искусственному интеллекту.

Суждения могут быть трудными.

Microsoft, например, должна была найти баланс между преимуществами использования технологии имитации голоса для восстановления речи людей с нарушениями и такими рисками, как использование политических дипфейков, сказала Наташа Крэмптон, главный специалист компании по ИИ.

Правозащитники говорят, что решения с потенциально широкими последствиями для общества не должны приниматься в одиночку. Они утверждают, что комитеты по этике не могут быть по-настоящему независимыми, а их публичная прозрачность ограничена давлением конкуренции.

Яша Галаски, специалист по защите прав Европейского Союза за гражданские свободы, считает, что внешний надзор – это путь вперед, и власти США и Европы действительно разрабатывают правила для молодой области.

Если комитеты компаний по этике ИИ «действительно станут прозрачными и независимыми – а это все очень утопично – то это может быть даже лучше, чем любое другое решение, но я не думаю, что оно реалистично», – сказал Галаски.

Компании заявили, что приветствуют четкое регулирование использования ИИ, и что это важно как для доверия клиентов, так и для общества, подобно правилам безопасности автомобилей. Они сказали, что действовать ответственно также в их финансовых интересах.

Однако они заинтересованы в том, чтобы любые правила были достаточно гибкими, чтобы идти в ногу с инновациями и новыми дилеммами, которые они создают.

IBM сообщила агентству Reuters, что среди сложных вопросов, которые предстоит решить, совет по этике ИИ начал обсуждение того, как контролировать зарождающийся рубеж: имплантаты и носимые устройства, соединяющие компьютеры с мозгом.

Такие нейротехнологии могут помочь ослабленным людям контролировать передвижение, но вызывают опасения, такие как перспектива манипулирования мыслями хакеров, сказала Кристина Монтгомери, директор по конфиденциальности IBM.

Я МОГУ ВИДЕТЬ ВАШУ ПЕЧАТЬ

Технологические компании признают, что всего пять лет назад они запускали службы искусственного интеллекта, такие как чат-боты и фото-теги, с небольшими этическими гарантиями и борясь с неправильным использованием или предвзятыми результатами с последующими обновлениями.

Но по мере того, как политическое и общественное внимание к ошибкам ИИ усиливалось, Microsoft в 2017 году, а Google и IBM в 2018 году создали комитеты по этике для проверки новых сервисов с самого начала.

Google заявила, что в сентябре прошлого года ей представили затруднительное положение с денежным кредитованием, когда компания, предоставляющая финансовые услуги, решила, что ИИ может оценивать кредитоспособность людей лучше, чем другие методы.

Проект оказался подходящим для Google Cloud, чей опыт в разработке инструментов искусственного интеллекта, помогающих в таких областях, как обнаружение аномальных транзакций, привлек таких клиентов, как Deutsche Bank, HSBC и BNY Mellon.

Подразделение Google ожидало, что кредитный скоринг на основе искусственного интеллекта может стать рынком с доходом в миллиарды долларов в год, и хотел закрепиться.

Однако комитет по этике, в состав которого входят около 20 менеджеров, социологов и инженеров, которые рассматривают потенциальные сделки, единогласно проголосовал против проекта на октябрьском заседании, сказал Пиццо Фрей.

Комитет пришел к выводу, что системе ИИ необходимо будет учиться на прошлых данных и закономерностях, и, таким образом, возникнет риск повторения дискриминационных практик со всего мира в отношении цветных людей и других маргинализированных групп.

Более того, комитет, внутренне известный как «Lemonaid», ввел в действие политику, запрещающую все сделки с финансовыми услугами, связанные с кредитоспособностью, до тех пор, пока такие проблемы не будут решены.

В прошлом году Lemonaid отклонила три аналогичных предложения, в том числе от компании, выпускающей кредитные карты, и бизнес-кредитора, а Пиццо Фрей и ее коллега по продажам стремились к более широкому решению по этому вопросу.

Google также сообщил, что его второй комитет по этике облачных вычислений, известный как Iced Tea, в этом году поставил на рассмотрение выпущенный в 2015 году сервис для категоризации фотографий людей по четырем выражениям: радость, печаль, гнев и удивление.

Этот шаг последовал за постановлением, вынесенным в прошлом году группой по этике компании Google, Advanced Technology Review Council, сдерживающей новые услуги, связанные с чтением эмоций.

ATRC – более десятка топ-менеджеров и инженеров – определила, что определение эмоций может быть нечувствительным, потому что, помимо прочего, мимические сигналы по-разному связаны с чувствами в разных культурах, – сказала Джен Дженнаи, основатель и руководитель группы ответственных инноваций Google.

Iced Tea заблокировал 13 запланированных эмоций для инструмента Cloud, включая смущение и удовлетворение, и вскоре может полностью отказаться от услуги в пользу новой системы, которая будет описывать такие движения, как хмурый взгляд и улыбку, не пытаясь их интерпретировать, Дженнаи и Пиццо Фрей сказал.

ГОЛОСА И ЛИЦА

Тем временем Microsoft разработала программное обеспечение, которое могло воспроизводить чей-то голос из короткого образца, но группа «Чувствительное использование» компании провела более двух лет, обсуждая этические аспекты его использования, и консультировалась с президентом компании Брэдом Смитом, как сообщил Рейтер старший офицер ИИ Крэмптон.

Она сказала, что группа специалистов в таких областях, как права человека, наука о данных и инженерия, в конечном итоге дала зеленый свет для полного выпуска Custom Neural Voice в феврале этого года. Но он наложил ограничения на его использование, в том числе то, что согласие субъектов проверяется, а команда «Ответственных чемпионов ИИ», обученная корпоративной политике, утверждает покупки.

Правление IBM по искусственному интеллекту, в состав которого входят около 20 руководителей отделов, столкнулось с собственной дилеммой, когда в начале пандемии COVID-19 оно рассмотрело запрос клиента на настройку технологии распознавания лиц для выявления лихорадки и покрывания лица.

Монтгомери сказала, что правление, в котором она председательствует, отклонило приглашение, заключив, что ручных проверок будет достаточно с меньшим вмешательством в частную жизнь, потому что фотографии не будут сохраняться ни в одной базе данных AI.

Шесть месяцев спустя IBM объявила о прекращении поддержки службы распознавания лиц.

НЕПРЕРЫВНЫЕ АМБИЦИИ

Пытаясь защитить частную жизнь и другие свободы, законодатели в Европейском Союзе и Соединенных Штатах применяют далеко идущие меры контроля над системами ИИ.

Закон ЕС об искусственном интеллекте, который должен быть принят в следующем году, запретит распознавание лиц в режиме реального времени в общественных местах и ​​потребует от технологических компаний проверки приложений с высоким уровнем риска, таких как те, которые используются при приеме на работу, оценке кредита и правоохранительных органах.

Конгрессмен США Билл Фостер, проводивший слушания о том, как алгоритмы продвигают дискриминацию в сфере финансовых услуг и жилья, сказал, что новые законы, регулирующие ИИ, обеспечат равные условия для поставщиков.

«Когда вы просите компанию увеличить прибыль для достижения общественных целей, они говорят:« А как насчет наших акционеров и наших конкурентов? » Вот почему вам нужно сложное регулирование », – сказал демократ из Иллинойса.

«Могут быть области, которые настолько чувствительны, что вы увидите, что технологические компании намеренно не вмешиваются, пока не будут установлены четкие правила дорожного движения».

В самом деле, некоторые достижения в области ИИ могут быть просто отложены до тех пор, пока компании не смогут противостоять этическим рискам, не затрачивая огромных инженерных ресурсов.

После того, как Google Cloud отклонил запрос на специальный финансовый ИИ в октябре прошлого года, комитет Lemonaid сообщил отделу продаж, что когда-нибудь подразделение намерено начать разработку приложений, связанных с кредитованием.

Во-первых, исследования по борьбе с несправедливыми предубеждениями должны соответствовать амбициям Google Cloud по увеличению финансовой доступности с помощью «высокочувствительной» технологии, говорится в политике, распространенной среди сотрудников.

«До этого времени мы не в состоянии внедрять решения».

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here