Apple Intelligence объявили на WWDC24, к началу 2025-го у нас накопился годовой опыт работы с этими API в проде. Подбили честный итог - что взлетело, что провисло, что ещё ждём.
Что работает и приносит пользу
Writing Tools API - неожиданный лидер
Самая недооценённая фича. Подключается в любое NSTextField/UITextView парой строк. Пользователи реально пользуются переписыванием тонов и проверкой грамматики. На двух наших клиентских приложениях метрика «среднее количество правок до отправки сообщения» упала на 40%.
Image Playground для notification-аватаров
В нишевом сценарии - генерация локальных аватаров для уведомлений в детском приложении. Работает оффлайн, бесплатно, безопасно с точки зрения приватности.
Что не оправдало ожиданий
Siri 2.0 как замена нашей логики
Год назад мы планировали отказаться от собственного in-app voice ассистента в пользу App Intents через Siri. Не вышло: контекст сессии теряется, на сложных доменных запросах Siri проседает. Оставили свою реализацию.
Genmoji в B2B-продуктах
Прикольно, но в корпоративных мессенджерах никто не использует. В детских и развлекательных - да, в B2B - нет.
Главный урок
Apple Intelligence - это набор узких API, не «AI everywhere». Те, что узкие и решают конкретную задачу пользователя (Writing Tools), работают отлично. Те, что амбициозные и пытаются заменить вашу логику (Siri как универсальный интерфейс) - пока нет.