Записки команды о разработке, AI и продукте
Тексты от инженеров и дизайнеров nordiqdev. Без маркетинга, с цифрами с реальных проектов. О мобильной разработке, веб-сервисах, LLM-агентах, фреймворках и индустрии.
Голосовые агенты в B2B: где они реально выигрывают
Voice agents в B2C почти никогда не работают как обещают. В B2B - узкий, но реальный класс задач, где они окупаются.
Computer vision в страховании: 4 кейса и где не сработало
Страховщики массово закупают AI-зрение под обещание «оценка ущерба за 3 минуты». На реальных проектах работает не всё. Делимся четырьмя кейсами с цифрами.
MCP-протокол через год: что прижилось, а что - нет
MCP запускали как «универсальный USB-C для LLM». Год спустя - серверов сотни, но качество разнородное. Разбираем, что реально работает в проде.
Сравнение Agent SDK 2026: Anthropic, OpenAI, Google
За 2025-й все три вендора окончательно оформили свои подходы к агентам. Сравниваем по 8 критериям, которые реально влияют на проект, а не на демо.
Multi-agent системы для автоматизации операций
Один агент - игрушка, мульти-агентная система - production. Делимся, как у нас устроена оркестрация для трёх внутренних автоматизаций.
Voice-first продукты: STT, TTS и архитектура голосовых ассистентов
Голосовые продукты в 2024–2025 наконец стали удобными. Делимся архитектурой, которая у нас сложилась за три проекта в B2C и B2B.
Llama 4 и Mistral: open-source LLM на середину 2025
Раз в полгода мы пересматриваем open-source стек для LLM. Разбираем, какие модели реально пошли в прод, а какие - остались в R&D.
Self-hosted LLM в 2025: vs API. Когда экономика сходится
Стоимость API упала, open-source модели подросли. Развилка «свой инференс или облако» в 2025 - снова открытый вопрос. Считаем на цифрах.
Computer Vision в страховании: первые продакшн-кейсы
Год работы над CV-системой для оценщиков. Считаем, сколько часов сэкономили, какие ошибки выловили, и где модель пока проигрывает человеку.
MCP - протокол Anthropic для AI-агентов: первые впечатления
Anthropic анонсировал MCP в конце 2024-го. Спустя пару месяцев в продакшне делимся, на что это похоже и стоит ли вкладываться.
Llama 3 в self-hosted: когда это имеет экономический смысл
Open-source LLM от Meta стали реально конкурентоспособны. Считаем, на каких объёмах и сценариях self-hosted дешевле API, и какое железо берём.
Tool use в Claude: построили AI-агента для саппорта за 6 недель
Anthropic стабилизировала tool use весной. Мы взяли его в кейс реального саппорта SaaS - рассказываем, что пошло хорошо, что - не очень.
Мультимодальные модели для обработки документов: GPT-4o vs Claude 3.5 Sonnet
Раньше для извлечения данных из документов нужна была связка OCR + LLM. Сейчас это один вызов мультимодальной модели. Разбираем, когда это уже работает.
Голосовой AI в колл-центрах: что реально внедряется в 2024
Голосовые ассистенты на LLM перестали звучать как робот. Это меняет экономику колл-центров. Разбираем три внедрения и считаем юнит-экономику.
Эмбеддинги в 2024: OpenAI text-embedding-3, BGE, Jina, Cohere
OpenAI обновила линейку, появились сильные открытые модели, BGE и Jina выбили проприетарных лидеров. Что выбирать под конкретную задачу в 2024-м.
RAG в продакшне: грабли, на которые наступили на пяти проектах
Все строят RAG. Не все его доводят до прод-качества. Делимся пятью самыми болезненными проблемами и тем, как мы их решаем сейчас.
Claude 3 против GPT-4: сравнение для продакшн-задач
Anthropic выпустила семейство Claude 3 в марте. Прогнали все три модели против GPT-4 Turbo на наших боевых пайплайнах - делимся метриками без хайпа.
Whisper в продакшне: как мы делаем голосового помощника
Whisper открыл большинству продуктов дверь к голосовым интерфейсам. Делимся реальной кухней - от выбора модели до борьбы с шумом метро.
Llama 2 и open-source LLM в продакшне: пробуем альтернативу OpenAI
Meta выложила Llama 2 в коммерческий доступ. Мы развернули её на одном из клиентов, где данные нельзя слать наружу. Делимся реальными числами.
pgvector vs Pinecone vs Qdrant: что выбрать для AI-приложения
Когда у клиента уже есть Postgres, тащить отдельную vector DB кажется лишним. Когда векторов миллионы - pgvector начинает захлёбываться. Разбираем границы.
LLM-агенты: первые попытки и громкие провалы
AutoGPT и BabyAGI взорвали Twitter весной. Мы попробовали агентный подход в трёх проектах. Расскажем, почему два из трёх свернули.
RAG-архитектура на практике: что выбрать в 2023 году
RAG - это не фреймворк и не библиотека. Это архитектурный паттерн, и сделать его правильно сложнее, чем кажется по туториалам.
GPT-4 вышла: что меняется для продуктов и команд
OpenAI выкатила GPT-4 14 марта. Через неделю у нас были первые замеры на реальных задачах. Делимся, где она оправдывает цену, а где нет.
ChatGPT API в продакшне: первые интеграции и грабли
OpenAI открыл API в марте, и к лету у нас уже три продукта на gpt-3.5. Делимся первыми граблями: латентность, стоимость и что происходит, когда модель уверенно врёт.
AI в продукте: что реально работало в 2022 и что переоценивали
Год до ChatGPT мы уже строили AI-функциональность для клиентов. Делимся, какие подходы выжили, а какие тихо отмерли.