Google отказалась от обещания не использовать ИИ для создания оружия
Американская корпорация Google удалила из своих принципов разработки искусственного интеллекта формулировку, предписывающую избегать применения этой технологии в потенциально опасных для человека целях, в том числе в оружии. Внимание на это обратило Bloomberg.
На странице, где изложены принципы разработки ИИ, ранее был абзац под названием «Приложения ИИ, которые мы не будем развивать». Сейчас он отсутствует, а сама статья обновлена 19 часов назад, убедился корреспондент РБК.
Среди таких приложений перечислялись и «технологии, которые наносят или могут нанести общий вред», отмечает Bloomberg со ссылкой на скриншоты из веб-архивов. Указаний на это теперь в статье нет.
В ответ на просьбу прокомментировать изменения политики представитель Google прислал агентству ссылку на заявление из блога компании, опубликованное 4 февраля.
«Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека», — говорится в заявлении старшего вице-президента Google Джеймса Манийки и главы лаборатории Google по разработке ИИ DeepMind.
«Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — подчеркнули топ-менеджеры.
По словам одного из бывших руководителей команды Google по этике при разработке ИИ, Маргарет Митчелл, удаление пункта о технологиях, способных нанести вред, может повлиять на типы работы, которую будет вести корпорация.
«Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей», — сказала она.
Один из главных спонсоров нового президента США Дональда Трампа, член его администрации и основатель компаний Tesla и SpaceX Илон Маск, еще в 2015 году подписал открытое письмо с предупреждением о гонке вооружений с искусственным интеллектом. Под ним подписались более 1 тыс. известных ученых, бизнесменов и экспертов в области искусственного интеллекта, в том числе профессор физики Стивен Хокинг.
Авторы письма утверждали, что искусственный интеллект может быть использован на поле боя, чтобы сделать его более безопасным для военнослужащих, но наступательное вооружение с применением искусственного разума приведет к росту потерь человеческих жизней.
Чат-боты с искусственным интеллектом уже способны помогать пользователям создавать биологическое оружие, писал Bloomberg. Биохимик Рокко Касагранде предупреждал Белый дом о способности ИИ идентифицировать биологические агенты. К таким выводам он пришел после тестирования чат-бота Claude, который предложил использовать патогены в ракетах.
Читайте РБК в Telegram.