FT узнала о переговорах OpenAI с экспертами из Китая о безопасности ИИ
Американские компании OpenAI, Anthropic и Cohere, специализирующиеся на разработке систем искусственного интеллекта (ИИ), ведут секретные переговоры с китайскими специалистами по вопросам безопасности этих технологий. Об этом сообщает Financial Times (FT) со ссылкой на источники, знакомые с ситуацией.
В июле и октябре 2023 года в Женеве прошли две встречи с участием американских экспертов и ученых, специализирующихся на политической составляющей в контексте разработки ИИ. На них также присутствовали представители Университета Цинхуа и других китайских государственных учреждений. Один из участников конференций на условиях анонимности уточнил, что о консультациях знали Белый дом и правительственные чиновники Великобритании и Китая.
Поводом для проведения мероприятий стала обеспокоенность возможностью искусственного интеллекта распространять дезинформацию и угрожать сплоченности общества, пишет Financial Times. Участники конференций рассказали изданию, что целью переговоров был поиск безопасного пути для разработки более продвинутых технологий в сфере ИИ.
Дискуссия позволила сторонам обсудить риски, связанные с новыми технологиями, и стимулировать инвестиции в исследования безопасности ИИ, сказали FT участники конференций. Один из них пояснил, что мировое сообщество не может устанавливать международные стандарты безопасности и согласовывать разработки в сфере ИИ без договоренности между китайскими и американскими специалистами. «Если они согласятся, будет гораздо легче привлечь остальных», — сказал он.
Переговоры организовала консалтинговая компания Shaikh Group, специализирующаяся на политической сфере, в частности, на Ближнем Востоке и в Северной Африке. Исполнительный директор компании Салман Шейх пояснил, что Shaikh Group увидела возможность объединить ключевых разработчиков технологий ИИ из США и Китая.
«Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением моделей искусственного интеллекта», — сказал он. «Признание этого факта, на наш взгляд, может стать основой для совместной научной работы, что в конечном итоге приведет к разработке глобальных стандартов безопасности моделей ИИ», — добавил Салман Шейх.