Apple Intelligence в Китае подвергается строгому тестированию на соответствие цензуре. Китайские регуляторы требуют, чтобы ИИ-модели отказывали в ответах на минимум 95% из 2000 специально подобранных вопросов, затрагивающих запрещенные темы. Это касается партнерства Apple с Alibaba и моделью Qwen3, оптимизированной для устройств компании.
Требования к моделям ИИ
Все ИИ-продукты в Китае проходят проверку на “подрыв государственной власти” или дискриминацию. Список вопросов обновляется ежемесячно, что стимулировало появление агентств, помогающих компаниям готовиться к тестам. Apple вынуждена использовать локальные модели вместо OpenAI или Google Gemini из-за партнерства с Alibaba.
Контекст цензуры
Великий китайский файрвол блокирует западные сервисы вроде Google, Facebook, X и Wikipedia, а Baidu фильтрует поиск. ИИ-компании сами цензурируют данные из зарубежных источников, чтобы модели оставались мощными, но лояльными властям. Это создает дилемму: доступ к глобальным знаниям сочетается с жестким контролем.
Компания компрометирует принципы ради производства и продаж в Китае. Тестирование фокусируется на правах человека и других чувствительных темах, где ответы запрещены. В итоге Siri и Apple Intelligence адаптируют поведение под локальные ограничения.
