Дата публикации 26.12.2020
Компания просит авторов воздержаться от представления технологий в негативном свете, а также консультироваться с различными отделами из-за ряда «деликатных тем».
Согласно новой процедуре проверки Google, исследователи должны проконсультироваться с юридическими, политическими и общественными отделами, прежде чем приступать к рассмотрению таких тем, как
анализ лиц и эмоций, а также категоризация по признаку расы, пола или политической принадлежности. Также в списке «острых моментов» можно обнаружить нефтяную промышленность, Китай, Иран, Израиль,
COVID-19, безопасность дома, страхование, данные о местоположении, религию, беспилотные автомобили, телекоммуникации и системы, рекомендующие или персонализирующие веб-контент.
«Развитие технологий и нынешние тенденции во внешней среде все чаще приводят к ситуациям, когда кажущиеся безобидными проекты поднимают этические, репутационные, нормативные или правовые вопросы»,
— говорится во внутреннем документе о политике компании для исследовательского персонала.
По словам сотрудников Google, пункт о «деликатных темах» стал дополнительным этапом проверки работ на такие подводные камни, как разглашение коммерческой тайны. Однако в некоторые проекты компания
вмешалась перед самой публикацией, попросив авторов «проявлять большую осторожность, чтобы задать позитивный тон».
В одном из них была поднята тема «рекомендательного ИИ», как например сервисы YouTube для персонализации контента пользователей. Авторы высказали опасения, что технология может способствовать
«дезинформации, дискриминационным или иным несправедливым результатам» и «недостаточному разнообразию контента», а также вести к «политической поляризации». В последней публикации вместо этого
говорится, что системы могут способствовать «повышению точности информации, справедливости и разнообразию контента». То есть фокус был смещен на позитивные аспекты.
«Это не означает, что мы должны прятаться от настоящих проблем», — пояснили в Google.
Тем не менее штатные исследователи заявляют, что, по их мнению, компания начинает вмешиваться в важные исследования потенциального вреда от технологий. Как отметила Маргарет Митчелл, одна из
сотрудников Google, «если мы исследуем что-то исходя из нашего опыта, и нам не разрешается публиковать это из-за несоответствия качественному рецензированию, то мы сталкиваемся с серьезной
проблемой цензуры».
На своем сайте Google заявляет, что ее ученые имеют «ощутимую» свободу, тем не менее напряжение в коллективе достаточно очевидно, особенно если учитывать уход Тимнита Гебру, который вместе с
Маргарет возглавлял команду из 12 человек, сосредоточенную на этике в применении искусственного интеллекта. По словам Гебру, Google уволил его после того, как он оспорил приказ не публиковать
исследование, в котором утверждалось, что имитирующий речь искусственный интеллект может поставить в невыгодное положение маргинализированные группы населения.
Компания заявила, что всего лишь приняла и ускорила его отставку. Старший вице-президент Джефф Дин уточнил в своем заявлении, что в статье Гебру говорится о потенциальном вреде, но не обсуждаются
предпринимаемые усилия по его устранению.
Бурный рост исследований и разработок в области искусственного интеллекта побудили власти США и других стран начать разрабатывать правила его использования. Среди аргументов встречаются цитаты
из научных исследований, показывающие, что программное обеспечение для анализа лиц и ему подобное могут закрепить предубеждения или разрушить конфиденциальность.