На WWDC Apple показала Vision Pro и SDK для visionOS. Хайп оглушительный, но за ним прячется простой инженерный вопрос: пора ли уже учить SwiftUI в 3D-пространстве, или это история на 2027-й.
Что нам известно по факту
- Цена в США - $3499 в первой волне. В Европе и Азии - позже и дороже.
- Релиз - начало 2024-го, ограниченные регионы.
- Аудитория первой волны - энтузиасты и enterprise, не масс-маркет.
- SDK уже доступен. Можно собирать приложения и тестировать в симуляторе.
- Базовая модель: SwiftUI + RealityKit. Ничего радикально нового, но 3D-композиция и spatial-input - новые концепции.
Кому стоит начинать сейчас
Если у вас iOS-приложение с активной аудиторией и тип контента, который выигрывает от пространства (3D-просмотр товара, медицинская визуализация, обучение, медиа), - да, имеет смысл выделить инженера на R&D в Q3–Q4 2023. К релизу будете готовы и заметны на маленьком App Store.
Кому ждать
Если вы делаете SaaS-дашборды, маркетплейс или соцсеть - Vision Pro в 2024-м не ваша история. Аудитория мала, экономика не сходится, переадаптация UI займёт месяцы. Возвращайтесь к этому вопросу к концу 2025-го, когда выйдет более доступная модель.
Где Apple удивила
Eye-tracking как основной input. Не контроллеры, не жесты в воздухе как у Quest, а взгляд + щипок пальцами. Это меняет интерфейсные паттерны: hover становится «куда смотрю», click - «щипок». Если это сработает - это новая HCI-парадигма, а не очередной AR-шлем.
Что мы делаем
- Выделили одного mobile-инженера на изучение visionOS SDK на 20% времени.
- Подготовили внутренний one-pager «когда предлагать клиенту visionOS как доп.платформу».
- Запланировали хакатон в августе на портирование одного из наших iOS-приложений в visionOS-симулятор.