Model Context Protocol (MCP) - это попытка Anthropic унифицировать, как LLM-агенты подключаются к внешним инструментам. Похоже на USB для AI: один протокол вместо десятка кастомных интеграций. Мы уже месяц его используем, рассказываем впечатления.
В чём проблема, которую решает MCP
До MCP каждое подключение «LLM ↔ инструмент» писалось вручную: схема функций, обработчики, токены, retry-логика. На пять интеграций - пять реализаций. Когда модель меняется (Claude → GPT → Gemini), всё переписывается.
MCP стандартизирует это: вы пишете MCP-сервер раз, а любой совместимый клиент (Claude Desktop, Cursor, IDE-агенты) его подхватывает.
Что мы переписали
- Внутренний инструмент работы с нашей CRM: было кастомное OpenAPI-описание для GPT, стало - MCP-сервер на 90 строк.
- Доступ к Linear/Notion для агентов: поднялось 3 готовых open-source MCP-сервера, заменили 600 строк собственной обвязки.
- Интеграция с внутренней wiki: написали MCP-сервер на TypeScript за день.
Что не понравилось
Поддержка моделей вне Anthropic пока неровная. Cursor работает хорошо, OpenAI-стек требует прокси-адаптера. Спецификация молодая, breaking changes возможны в течение 2025-го.
Нужно ли вам это
Если у вас 2+ внутренних инструментов, к которым ходят AI-агенты - однозначно да. Если один внешний API - можно подождать год, протокол стабилизируется.