Google удалил из своих этических принципов обязательство избегать использования искусственного интеллекта для вооружений и слежения. Принципы компания разработала семь лет назад, когда тысячи недовольных сотрудников заставили её отказаться от многомиллиардного контракта с Пентагоном. Но отставание от конкурентов в сфере ИИ, особенно от ChatGPT, вынудило Google идти на компромиссы в этических вопросах, показало ранее расследование Bloomberg.
Детали
На то, что Google исключил из этических принципов обязательство не применять ИИ для оружия и слежения, обратил внимание The Washington Post. В обновлённых принципах говорится, что Google задействует «надзор человеком и обратную связь», чтобы убедиться, что использование её технологий не нарушает «общепринятые принципы международного права и прав человека». Google также обещает тестировать технологию, чтобы «смягчить непреднамеренные или вредные последствия».
Представитель Google отказался от комментариев. В корпоративном блоге глава ИИ-подразделения Google Демис Хассабис и старший вице-президент Джеймс Маниика заявили, что за семь лет после публикации первых этических принципов технология искусственного интеллекта стала гораздо более распространенной и технологические компании должны работать вместе с демократическими государствами над созданием «ответственного ИИ».
«На фоне все более сложной геополитической обстановки в мире идёт глобальная конкуренция за лидерство в области ИИ, — написали топ-менеджеры Google. — Мы считаем, что демократические страны должны возглавлять развитие ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение к правам человека. И мы верим, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создавать ИИ, который защищает людей, способствует глобальному развитию и поддерживает национальную безопасность».
Контекст
Сотрудники Google давно ищут способ сбалансировать этические вопросы и конкурентное развитие ИИ, пишет Bloomberg. Особенно этот вопрос обострился после запуска популярного чат-бота ChatGPT в ноябре 2022 года, отмечает агентство.
В 2023 году 18 сотрудников Google (в том числе бывших) рассказали Bloomberg, что в попытке сократить отставание от конкурентов в сфере ИИ и оживить поисковый бизнес Google стал уделять меньше внимания своим этическим обязательствам. Результатом этого стал выпуск в сжатые сроки чат-бота Bard, которого один из сотрудников назвал «патологическим лжецом». Как говорится в расследовании Bloomberg, Google открыл доступ к Bard пользователям, даже когда сотрудники отмечали о том, что он даёт опасную информацию. Например, на вопрос о способах посадить самолёт чат-бот предоставлял инструкции, которые могли привести к крушению, а на запросы о подводном плавании выдавал ответы, которые могли привести «к серьёзным повреждениям или смерти», описывает Bloomberg. Google тогда заявил агентству, что создание ответственного ИИ остается приоритетом компании. Впоследствии Bard превратился в ИИ-модель Gemini, к достоверности ответов которой также возникали вопросы.
При этом в 2018 году сотрудникам Google удалось надавить на компанию, когда она собиралась участвовать в тендере на предоставление облачных услуг Пентагону. Письмо против участия в конкурсе подписали больше 3000 сотрудников компании (из более чем 70 000). Тем не менее, Google отказалась от участия в конкурсе за контракт и впервые опубликовала свои этические принципы использования ИИ. Контракт на $10 млрд Пентагон в итоге заключил с Microsoft. Также претендовавший на контракт Amazon смог заблокировать контракт в суде, после чего Пентагон вовсе отказался от проекта.