diff --git a/research/perplexity-chats/A2A-protocol.md b/research/perplexity-chats/A2A-protocol.md new file mode 100644 index 0000000..cf906bd --- /dev/null +++ b/research/perplexity-chats/A2A-protocol.md @@ -0,0 +1,487 @@ + + +# что с A2A протоколом на январь 2026? что то не слышно про его широкое использование + +Вы правы в своих наблюдениях. По состоянию на январь 2026 года протокол A2A (Agent-to-Agent) от Google действительно не получил широкого распространения, несмотря на громкий запуск и серьезную корпоративную поддержку. + +## Текущая ситуация с A2A + +### Что произошло с протоколом + +A2A был анонсирован Google в апреле 2025 года с большими амбициями — стать универсальным стандартом для взаимодействия AI-агентов[^1_1]. В июне 2025 года протокол был передан в Linux Foundation, а в июле вышла версия 0.3 с поддержкой gRPC и улучшенной безопасностью[^1_2][^1_3]. К этому моменту Google заявляла о поддержке более 150 организаций, включая Adobe, ServiceNow, S\&P Global и Twilio[^1_2][^1_3]. + +Однако к сентябрю 2025 года стало очевидно, что протокол теряет импульс. Разработка значительно замедлилась, а в качестве де-факто стандарта закрепился Model Context Protocol (MCP) от Anthropic[^1_3]. + +## Почему A2A не взлетел + +### 1. **Чрезмерная сложность для разработчиков** + +A2A пытался решить все проблемы сразу: обнаружение агентов, обмен возможностями, долгосрочные задачи, обработку ошибок, даже обновления UI[^1_4]. CTO HubSpot Dharmesh Shah назвал протокол "too much" — слишком сложным для практического использования[^1_4]. + +Для индивидуального разработчика, желающего создать простую интеграцию за выходные, A2A был практически недоступен[^1_3]. Требовалось понимание: + +- Сложных паттернов оркестрации агентов +- Реализации security cards +- Многоагентных коммуникационных протоколов +- Корпоративных стратегий развертывания + + +### 2. **Неправильная стратегия выхода на рынок** + +Google выбрала подход "сверху вниз" (top-down), ориентируясь на корпоративный сегмент, в то время как MCP использовал подход "снизу вверх" (bottom-up), завоевывая разработчиков[^1_3]. + +MCP был интегрирован с Claude с первого дня, что позволяло любому разработчику мгновенно протестировать свои серверы с production-ready AI-ассистентом[^1_3]. A2A же требовал построения новой инфраструктуры без немедленной пользы. + +### 3. **Отсутствие ключевых игроков** + +Критически важно: OpenAI, Anthropic и Hugging Face не присоединились к инициативе[^1_4]. Без поддержки крупных провайдеров моделей протокол не мог стать универсальным стандартом. + +### 4. **Проблемы с инфраструктурой** + +A2A не предоставил: + +- Единого каталога агентов +- Масштабируемой системы обнаружения (discovery) +- Универсального маркетплейса[^1_4] + +Модель обнаружения агентов изначально не была спроектирована для работы в масштабе[^1_4]. + +## MCP выиграл битву за разработчиков + +### Почему MCP победил + +**Статистика роста MCP (по данным на конец 2025):** + +- 5,500+ серверов в реестрах[^1_5] +- 180,000+ месячных поисковых запросов по топ MCP-серверам[^1_5] +- 80% самых популярных MCP-серверов предлагают remote deployment[^1_5] +- 4x рост remote-серверов с мая 2025[^1_5] + +**Прогнозы Gartner:** к 2026 году 75% вендоров API-шлюзов и 50% iPaaS-провайдеров будут иметь функции MCP[^1_6]. + +### Ключевые преимущества MCP + +1. **Философия developer-first**: простота и немедленная польза[^1_3] +2. **Прагматичная простота**: решает реальные потребности (чтение файлов, API-вызовы, скрипты)[^1_3] +3. **Эволюция на основе обратной связи**: быстрая адаптация к запросам сообщества[^1_3] +4. **Интеграция с популярными инструментами**: Claude, VS Code, AWS[^1_7] + +## Реальные примеры использования A2A + +Несмотря на проблемы, есть несколько подтвержденных кейсов: + +1. **Tyson Foods и Gordon Food Service** — оптимизация цепочек поставок через обмен данными о продуктах[^1_2][^1_3] +2. **Databricks** — пример развертывания A2A-серверов как приложений (ноябрь 2025)[^1_8] +3. **AG2 (бывший AutoGen)** — нативная поддержка A2A в фреймворке с 3,700+ звездами на GitHub[^1_9] +4. **ServiceNow** — аутентификация для Google A2A в релизе декабря 2025[^1_10] + +Однако в Reddit-сообществах консультанты жалуются, что не могут найти реальные production use cases с измеримым ROI[^1_11][^1_12]. + +## Технические проблемы + +### Безопасность и управление + +- Слабый контроль времени жизни токенов[^1_13] +- Проблемы с compliance при обмене чувствительными данными между агентами[^1_14] +- Сложности с observability в асинхронных цепочках агентов[^1_14] +- Schema drift при эволюции агентов[^1_14] + + +### Архитектурные ограничения + +- HTTP request/response не идеален для сложных персистентных взаимодействий агентов[^1_15] +- Квадратичная сложность подключений (O(n²)) при росте числа агентов[^1_16] +- Жесткая связанность через прямые HTTP-соединения[^1_16] + + +## Дополнительная перспектива + +Интересно, что даже Google Cloud начала добавлять совместимость с MCP в свои AI-сервисы — это молчаливое признание выбора сообщества разработчиков[^1_3]. + +**Ключевой урок:** "Опыт разработчика важнее функциональности" (Developer experience trumps features)[^1_3]. MCP победил не потому, что был архитектурно лучше, а потому что разработчики действительно хотели его использовать. + +## Будущее A2A + +A2A технически не мёртв — протокол существует, спецификация доступна, есть поддержка Linux Foundation. Но: + +- Разработка значительно замедлилась[^1_3] +- Большинство AI-экосистемы консолидировалась вокруг MCP[^1_3] +- Видение взаимодействующих агентов теперь реализуется на базе MCP, а не A2A[^1_3] + +A2A, скорее всего, останется нишевым корпоративным решением для специфических сценариев многоагентной оркестрации в крупных организациях, которым нужны его enterprise-возможности. + +*** + +**Вывод:** Ваша интуиция была правильной. Несмотря на мощную поддержку Google, 150+ партнерских организаций и солидную техническую архитектуру, A2A не смог завоевать сердца разработчиков. Протокол оказался over-engineered для большинства реальных задач, недоступным для индивидуальных разработчиков и опоздал на рынок, где MCP уже захватил критическую массу пользователей. +[^1_17][^1_18][^1_19][^1_20][^1_21][^1_22][^1_23][^1_24][^1_25][^1_26][^1_27][^1_28][^1_29][^1_30][^1_31][^1_32][^1_33][^1_34][^1_35][^1_36][^1_37][^1_38][^1_39][^1_40][^1_41][^1_42][^1_43][^1_44][^1_45][^1_46][^1_47][^1_48][^1_49][^1_50][^1_51][^1_52][^1_53][^1_54][^1_55][^1_56][^1_57][^1_58][^1_59][^1_60][^1_61][^1_62][^1_63][^1_64][^1_65][^1_66][^1_67][^1_68][^1_69][^1_70][^1_71][^1_72][^1_73][^1_74][^1_75][^1_76][^1_77][^1_78][^1_79][^1_80][^1_81][^1_82][^1_83][^1_84][^1_85][^1_86][^1_87][^1_88][^1_89][^1_90][^1_91][^1_92][^1_93][^1_94][^1_95] + +
+ +[^1_1]: https://developers.googleblog.com/en/a2a-a-new-era-of-agent-interoperability/ + +[^1_2]: https://cloud.google.com/blog/products/ai-machine-learning/agent2agent-protocol-is-getting-an-upgrade + +[^1_3]: https://blog.fka.dev/blog/2025-09-11-what-happened-to-googles-a2a/ + +[^1_4]: https://www.mindset.ai/blogs/in-the-loop-ep12-what-is-a2a-protocol + +[^1_5]: https://mcpmanager.ai/blog/mcp-adoption-statistics/ + +[^1_6]: https://www.k2view.com/blog/mcp-gartner/ + +[^1_7]: https://www.iamdave.ai/blog/top-10-model-context-protocol-use-cases-complete-guide-for-2025/ + +[^1_8]: https://community.databricks.com/t5/technical-blog/how-to-deploy-agent-to-agent-a2a-protocol-on-databricks-apps-gt/ba-p/134213 + +[^1_9]: https://discuss.google.dev/t/introducing-native-a2a-protocol-support-in-ag2-building-interoperable-multi-agent-systems-at-scale/286168 + +[^1_10]: https://www.servicenow.com/community/now-assist-articles/authentication-for-google-a2a-servicenow-as-secondary-agent/ta-p/3446091 + +[^1_11]: https://www.reddit.com/r/mcp/comments/1kg66yc/consultant_here_any_actual_a2a_use_cases_running/ + +[^1_12]: https://www.reddit.com/r/AgentToAgent/comments/1kg63rc/consultant_here_any_actual_a2a_use_cases_running/ + +[^1_13]: https://arxiv.org/html/2505.12490v3 + +[^1_14]: https://www.infobip.com/glossary/a2a-agent-to-agent + +[^1_15]: https://www.tmasolutions.com/insights/agent2agent-a2a-protocol-opening-a-new-era-for-autonomous-ai-agents-interaction + +[^1_16]: https://www.hivemq.com/blog/a2a-enterprise-scale-agentic-ai-collaboration-part-1/ + +[^1_17]: https://onereach.ai/blog/what-is-a2a-agent-to-agent-protocol/ + +[^1_18]: https://www.apono.io/blog/what-is-agent2agent-a2a-protocol-and-how-to-adopt-it/ + +[^1_19]: https://a2a-protocol.org/latest/roadmap/ + +[^1_20]: https://www.adopt.ai/blog/mcp-vs-a2a-in-practice + +[^1_21]: https://datatracker.ietf.org/doc/draft-yang-nmrg-a2a-nm/ + +[^1_22]: https://research.aimultiple.com/agent2agent/ + +[^1_23]: https://www.everestgrp.com/uncategorized/the-rise-of-agent-protocols-exploring-mcp-a2a-and-acp-blog.html + +[^1_24]: https://a2a-protocol.org/latest/ + +[^1_25]: https://www.a2aprotocol.net/en + +[^1_26]: https://www.gravitee.io/blog/googles-agent-to-agent-a2a-and-anthropics-model-context-protocol-mcp + +[^1_27]: https://www.linkedin.com/pulse/introduction-agent-a2a-protocol-aneshka-goyal-ehvsc + +[^1_28]: https://www.youtube.com/watch?v=4fNUpRKVJ7A + +[^1_29]: https://a2a-protocol.org/latest/specification/ + +[^1_30]: https://www.elastic.co/search-labs/blog/a2a-protocol-mcp-llm-agent-workflow-elasticsearch + +[^1_31]: https://github.com/a2aproject/A2A + +[^1_32]: https://www.microsoft.com/en-us/microsoft-cloud/blog/2025/05/07/empowering-multi-agent-apps-with-the-open-agent2agent-a2a-protocol/ + +[^1_33]: https://www.a2aprotocol.org/en + +[^1_34]: https://www.devshorts.in/p/agent2agent-a2a-protocol-explained + +[^1_35]: https://www.linkedin.com/pulse/agent2agent-protocol-analysis-enterprise-ai-game-changer-treiber-z0h8f + +[^1_36]: https://www.blott.com/blog/post/how-the-agent2agent-protocol-a2a-actually-works-a-technical-breakdown + +[^1_37]: https://thedataexchange.media/a2a-protocol/ + +[^1_38]: https://dev.to/czmilo/2025-complete-guide-agent2agent-a2a-protocol-the-new-standard-for-ai-agent-collaboration-1pph + +[^1_39]: https://www.leanware.co/insights/a2a-vs-acp-key-differences-developer-insights-real-world-use-cases + +[^1_40]: https://www.cybage.com/blog/mastering-google-s-a2a-protocol-the-complete-guide-to-agent-to-agent-communication + +[^1_41]: https://strandsagents.com/latest/documentation/docs/user-guide/concepts/multi-agent/agent-to-agent/ + +[^1_42]: https://a2a.how/applications + +[^1_43]: https://docs.cloud.google.com/run/docs/deploy-a2a-agents + +[^1_44]: https://trickle.so/blog/how-google-a2a-protocol-actually-works + +[^1_45]: https://github.com/a2aproject/a2a-samples + +[^1_46]: https://www.ibm.com/think/tutorials/use-a2a-protocol-for-ai-agent-communication + +[^1_47]: https://blog.fka.dev/blog/2025-04-15-why-googles-a2a-protocol-doesnt-make-sense/ + +[^1_48]: https://www.clarifai.com/blog/mcp-vs-a2a-clearly-explained + +[^1_49]: https://www.kai-waehner.de/blog/2025/05/26/agentic-ai-with-the-agent2agent-protocol-a2a-and-mcp-using-apache-kafka-as-event-broker/ + +[^1_50]: https://blog.logto.io/a2a-mcp + +[^1_51]: https://onereach.ai/blog/power-of-multi-agent-ai-open-protocols/ + +[^1_52]: https://zbrain.ai/understanding-the-a2a-protocol/ + +[^1_53]: https://www.firecrawl.dev/blog/mcp-vs-a2a-protocols + +[^1_54]: https://arxiv.org/abs/2505.03864 + +[^1_55]: https://www.descope.com/blog/post/mcp-vs-a2a + +[^1_56]: https://www.legionsecurity.ai/blog-posts/security-analysis-ai-protocols + +[^1_57]: https://www.koyeb.com/blog/a2a-and-mcp-start-of-the-ai-agent-protocol-wars + +[^1_58]: https://www.youtube.com/watch?v=c-jbiw3QM4o + +[^1_59]: https://oxylabs.io/blog/mcp-vs-a2a + +[^1_60]: https://kodekloud.com/blog/a2a-protocol/ + +[^1_61]: https://www.linkedin.com/posts/suchisubhra-sinha-07b29654_announcing-the-agent2agent-protocol-a2a-activity-7319780945853652992-Dn8T + +[^1_62]: https://www.reddit.com/r/LLMDevs/comments/1jvij21/awesome_a2a_a_curated_list_of_agent2agent/ + +[^1_63]: https://pypi.org/project/python-a2a/ + +[^1_64]: https://a2a-protocol.org/dev/community/ + +[^1_65]: https://a2a-protocol.org/latest/community/ + +[^1_66]: https://github.com/a2aproject + +[^1_67]: https://aws.plainenglish.io/the-a2a-protocol-reality-check-what-google-isnt-telling-you-c273f5e39911 + +[^1_68]: https://github.com/a2aproject/a2a-python + +[^1_69]: https://www.linkedin.com/posts/ai-security_im-not-a-fortune-teller-but-heres-my-educated-activity-7363574219336474629-0Gls + +[^1_70]: https://www.youtube.com/watch?v=mFkw3p5qSuA + +[^1_71]: https://github.com/a2aproject/a2a-js + +[^1_72]: https://www.cohorte.co/blog/comparing-anthropics-model-context-protocol-mcp-vs-googles-agent-to-agent-a2a-for-ai-agents-in-business-automation + +[^1_73]: https://www.anthropic.com/news/model-context-protocol + +[^1_74]: https://www.thoughtworks.com/insights/blog/generative-ai/model-context-protocol-beneath-hype + +[^1_75]: https://www.youtube.com/watch?v=L6OhsaqOgW0 + +[^1_76]: https://evergreen.insightglobal.com/the-new-model-context-protocol-for-ai-agents/ + +[^1_77]: https://www.linkedin.com/posts/leadgenmanthan_anthropics-mcp-vs-googles-a2a-vs-ibms-activity-7327551934230364161-slzH + +[^1_78]: https://www.thoughtworks.com/insights/blog/generative-ai/model-context-protocol-mcp-impact-2025 + +[^1_79]: https://modelcontextprotocol.io/development/roadmap + +[^1_80]: https://www.youtube.com/watch?v=wrCF8MoXC_I + +[^1_81]: https://www.iansresearch.com/what-we-do/events/symposiums/details/2026/02/19/2026-symposium/february-19-mcp-risks-and-opportunities-in-an-ai-world + +[^1_82]: https://modelcontextprotocol.io/specification/2025-11-25 + +[^1_83]: https://guptadeepak.com/a-comparative-analysis-of-anthropics-model-context-protocol-and-googles-agent-to-agent-protocol/ + +[^1_84]: https://www.cdata.com/blog/2026-year-enterprise-ready-mcp-adoption + +[^1_85]: https://a16z.com/a-deep-dive-into-mcp-and-the-future-of-ai-tooling/ + +[^1_86]: https://www.strategysoftware.com/blog/model-context-protocol-mcp-for-enterprise-ai-integration + +[^1_87]: https://devops.com/how-model-context-protocol-mcp-is-fueling-the-next-era-of-developer-productivity/ + +[^1_88]: https://www.linkedin.com/posts/samcharrington_ai-agents-a2a-activity-7315791395498188801-EX_W + +[^1_89]: https://www.altexsoft.com/blog/a2a-protocol-explained/ + +[^1_90]: https://pub.towardsai.net/we-spent-47-000-running-ai-agents-in-production-heres-what-nobody-tells-you-about-a2a-and-mcp-5f845848de33 + +[^1_91]: https://dev.to/sreeni5018/understanding-googles-a2a-protocol-the-future-of-agent-communication-part-i-334p + +[^1_92]: https://www.finextra.com/blogposting/30530/agent-to-agent-protocol-when-software-learns-to-talk-to-itself-politely + +[^1_93]: https://www.leanware.co/insights/a2a-vs-mcp-protocol-comparison + +[^1_94]: https://dev.to/czmilo/impact-analysis-google-donating-a2a-protocol-to-linux-foundation-3efc + +[^1_95]: https://dev.to/blurbify/why-you-should-care-about-the-agent2agent-a2a-protocol-as-a-developer-13n4 + + +--- + +# A2A и MCP - это чтоли конкурирующие протоколы? + +По замыслу — **скорее дополняющие**, по факту рынка — выглядят как конкуренты за “стандарт”, но решают разные уровни задачи. + +## Что делает MCP + +- MCP стандартизирует, **как один агент/LLM ходит к тулзам и данным**: файлы, БД, внешние HTTP API, скрипты, вьюхи и т.д.[^2_1][^2_2] +- Это вертикальная интеграция: “модель ↔ инструменты/контекст”.[^2_3] +- Типичный сценарий: Claude/другой LLM через MCP обращается к твоим сервисам и источникам данных, но сам по себе не регламентирует общение между разными агентами.[^2_1][^2_2] + + +## Что делает A2A + +- A2A стандартизирует, **как агенты общаются друг с другом**: описывают свои способности (agent cards), ставят задачи друг другу, обмениваются артефактами.[^2_1][^2_2][^2_3] +- Это горизонтальный слой: “агент ↔ агент”, оркестрация и многоагентные воркфлоу.[^2_4][^2_3] +- Типичный сценарий: несколько специализированных агентов из разных систем координируют долгий процесс (R\&D, supply chain, онбординг) через A2A.[^2_5][^2_6] + + +## Официальная позиция и практика + +- И Google, и Anthropic публично говорят: протоколы **должны работать вместе, а не вместо** друг друга.[^2_7][^2_2][^2_8] +- Часто рисуют такую картинку: + - MCP даёт каждому агенту доступ к своим инструментам. + - A2A позволяет этим “прокачанным” агентам координироваться между собой.[^2_1][^2_5][^2_9] + +Пример “идеальной” архитектуры из гайдов: + +- Внутри каждого сервиса агент использует MCP-серверы для доступа к БД, CRM, платежам. +- Между сервисами агенты общаются по A2A, передавая задачи и результаты.[^2_5][^2_10] + + +## Почему всё же говорят о конкуренции + +- На практике компании выбирают, **во что инвестировать в первую очередь**, и MCP уже стал де‑факто стандартом для dev‑экосистемы, IDE и ассистентов.[^2_11][^2_10] +- Из‑за этого A2A воспринимается как “конкурент”, хотя по спецификации он решает другой слой задачи.[^2_7][^2_12] + +Если упрощать до одной фразы: + +- MCP = стандарт “агент ↔ инструменты/данные”. +- A2A = стандарт “агент ↔ агент”. +Их логичнее комбинировать, чем противопоставлять.[^2_1][^2_5][^2_2] +[^2_13][^2_14][^2_15][^2_16][^2_17][^2_18][^2_19][^2_20] + +
+ +[^2_1]: https://auth0.com/blog/mcp-vs-a2a/ + +[^2_2]: https://a2aprotocol.ai/docs/guide/a2a-vs-mcp + +[^2_3]: https://viblo.asia/p/google-a2a-vs-anthropic-mcp-competing-or-complementary-yZjJYbxOLOE + +[^2_4]: https://dev.to/czmilo/a2a-vs-mcp-protocol-relationship-in-depth-community-discussion-analysis-2b03 + +[^2_5]: https://onereach.ai/blog/guide-choosing-mcp-vs-a2a-protocols/ + +[^2_6]: https://kanerika.com/blogs/mcp-vs-a2a/ + +[^2_7]: https://www.linkedin.com/pulse/a2a-vs-mcp-battle-dominance-ai-agent-communication-mba-ms-phd-sj5oc + +[^2_8]: https://www.descope.com/blog/post/mcp-vs-a2a + +[^2_9]: https://www.clarifai.com/blog/mcp-vs-a2a-clearly-explained + +[^2_10]: https://blog.logto.io/a2a-mcp + +[^2_11]: https://www.ikangai.com/a2a-vs-mcp-ai-standards/ + +[^2_12]: https://www.koyeb.com/blog/a2a-and-mcp-start-of-the-ai-agent-protocol-wars + +[^2_13]: https://www.wallarm.com/what/a2a-vs-mcp-a-comparison + +[^2_14]: https://www.hyena.ai/a2a-vs-mcp-comparison-for-ai-agents/ + +[^2_15]: https://composio.dev/blog/mcp-vs-a2a-everything-you-need-to-know + +[^2_16]: https://www.adopt.ai/blog/mcp-vs-a2a-in-practice + +[^2_17]: https://www.descope.com/blog/post/mcp-vs-a2a-auth + +[^2_18]: https://a2a-protocol.org/latest/topics/a2a-and-mcp/ + +[^2_19]: https://www.teneo.ai/blog/mcp-and-a2a-protocols-explained-the-future-of-agentic-ai-is-here + +[^2_20]: https://www.merge.dev/blog/mcp-vs-a2a + + +--- + +# и все же может ли MCP использоваться вместо A2A + +**Да, абсолютно.** Технически вы можете использовать MCP для взаимодействия агентов, и, более того, именно так сейчас делает большинство разработчиков, игнорируя громоздкий A2A. + +Это своего рода «лайфхак», который стал индустриальным стандартом. Вот как это работает на практике и в чем подвох. + +### Как MCP заменяет A2A: Паттерн «Агент как инструмент» + +Вместо того чтобы внедрять сложный протокол A2A для «переговоров» между агентами, разработчики используют простую хитрость: **один агент притворяется для другого обычным инструментом (Tool).** + +В MCP есть понятие **Server** (тот, кто дает инструменты) и **Client** (тот, кто их использует). + +1. Вы заворачиваете «Агента Б» (например, эксперта по SQL) в MCP-сервер. +2. Для «Агента А» (главного оркестратора) этот эксперт выглядит просто как функция: `ask_sql_expert(query: string)`. +3. Когда Агент А вызывает эту функцию, он думает, что обращается к базе данных или калькулятору. На самом деле под капотом запускается полноценный LLM-агент Б, думает, решает задачу и возвращает ответ как результат функции. + +**Почему это побеждает A2A:** + +* **Простота:** Не нужно настраивать сложные рукопожатия, discovery-сервисы и security cards, как в A2A. +* **Универсальность:** Claude Desktop или IDE уже умеют работать с MCP. Им всё равно, кто на том конце — скрипт на Python или другой сложный AI-агент. + + +### Где MCP проигрывает (Архитектурные ограничения) + +Хотя заменить A2A можно, у MCP есть архитектурные особенности, которые делают его «костылем» для сложных сценариев: + +1. **Синхронность (Request/Response):** + * MCP работает как вызов функции: «Спросил -> Жду -> Получил ответ». + * **Проблема:** Если задача занимает 3 часа (например, «проведи ресерч рынка»), главный агент будет висеть и ждать ответа (timeout). A2A умеет работать асинхронно («Я принял задачу, вот ID тикета, вернусь, когда закончу»). +2. **Отношения «Господин — Слуга»:** + * В MCP всегда есть **Client** (главный) и **Server** (подчиненный). + * **Проблема:** Это плохо подходит для равноправного сотрудничества, где два агента должны поспорить и прийти к консенсусу. В A2A агенты равноправны (Peer-to-Peer). +3. **Отсутствие стандартов состояния:** + * A2A прописывает, как передавать контекст и историю диалога между агентами. + * В MCP вам придется самим придумывать, как передать «Агенту Б» всю переписку, чтобы он понял контекст. Обычно это делают, просто запихивая всё в аргумент функции (что тратит токены). + +### Итог + +**Можно ли выкинуть A2A и использовать только MCP?** +В 95% случаев — **да**. + +* Если вам нужно, чтобы Главный Агент просто делегировал задачи узким специалистам (кодеру, юристу, аналитику) — MCP идеален. Microsoft называет это **«Magentic Orchestration»** и активно продвигает именно такой подход. +* A2A нужен только энтерпрайзам уровня Supply Chain, где агенты разных корпораций (например, Walmart и Coca-Cola) должны договариваться о поставках без единого центра управления. +[^3_1][^3_10][^3_11][^3_12][^3_13][^3_14][^3_15][^3_16][^3_17][^3_18][^3_19][^3_2][^3_20][^3_3][^3_4][^3_5][^3_6][^3_7][^3_8][^3_9] + +
+ +[^3_1]: https://www.clarifai.com/blog/mcp-vs-a2a-clearly-explained + +[^3_2]: https://techcommunity.microsoft.com/blog/azuredevcommunityblog/orchestrating-multi-agent-intelligence-mcp-driven-patterns-in-agent-framework/4462150 + +[^3_3]: https://arxiv.org/html/2504.21030v1 + +[^3_4]: https://calypsoai.yourdevelopmentlink.com/insights/understanding-mcp-limitations-beyond-the-protocol/ + +[^3_5]: https://onereach.ai/blog/guide-choosing-mcp-vs-a2a-protocols/ + +[^3_6]: https://www.codiste.com/multi-agent-ai-systems-mcp-implementation + +[^3_7]: https://www.getknit.dev/blog/advanced-mcp-agent-orchestration-chaining-and-handoffs + +[^3_8]: https://www.forrester.com/blogs/mcp-doesnt-stand-for-many-critical-problemsbut-maybe-it-should-for-cisos/ + +[^3_9]: https://auth0.com/blog/mcp-vs-a2a/ + +[^3_10]: https://multimodalai.substack.com/p/building-tool-use-mcp-agents-from + +[^3_11]: https://www.youtube.com/watch?v=q9G6KLwqgtg + +[^3_12]: https://stytch.com/blog/mcp-vulnerabilities/ + +[^3_13]: https://www.adopt.ai/blog/mcp-vs-a2a-in-practice + +[^3_14]: https://dev.to/aws/build-multi-agent-systems-using-the-agents-as-tools-pattern-jce + +[^3_15]: https://www.iguazio.com/blog/orchestrating-multi-agent-workflows-with-mcp-a2a/ + +[^3_16]: https://www.f5.com/company/blog/understanding-mcp-limitations-beyond-the-protocol + +[^3_17]: https://www.truefoundry.com/blog/mcp-vs-a2a + +[^3_18]: https://www.anthropic.com/engineering/code-execution-with-mcp + +[^3_19]: https://holgerimbery.blog/multi-agent-orchestration + +[^3_20]: https://www.flowhunt.io/blog/the-end-of-mcp-for-ai-agents-code-execution/ + diff --git a/research/perplexity-chats/AI generation state - dec 2025.md b/research/perplexity-chats/AI generation state - dec 2025.md new file mode 100644 index 0000000..ba2ac1d --- /dev/null +++ b/research/perplexity-chats/AI generation state - dec 2025.md @@ -0,0 +1,437 @@ + + +# Search and analyze the most significant events, releases, anounces, articles about AI, LLM, AI Image generation, AGI and related topics. Especially focus on news about: Anthropic, OpenAI, Gemini, Perplexity. Search information about new startups in that area, services, functionalities, updates etc. Look for talks, twits, interviews of famous people who are leaders in that area + +Now I'll generate the comprehensive final report. + +*** + +# Comprehensive AI Industry Analysis: Late 2025 \& January 2026 + +## Executive Summary + +The AI industry has entered a transformational phase marked by three defining characteristics: **consolidation around frontier capabilities**, **rapid enterprise adoption of agentic systems**, and **structural shifts in competitive advantage**. In the final quarter of 2025 and into January 2026, the sector witnessed an unprecedented concentration of capability releases from three dominant players (OpenAI, Anthropic, Google) alongside a significant disruption from an unexpected challenger (DeepSeek), a fundamental shift in business model focus toward enterprise and agents, and the emergence of embodied AI systems moving from demonstration to production deployment. + +## I. Frontier Model Developments: The Capability Race Accelerates + +### The "December Release Rush" Phenomenon + +The period from November 2025 through January 2026 represents what industry analysts are calling the most concentrated burst of capability advancement in AI history. Within a 60-day window, the three major frontier model companies each released new flagship systems, each claiming leadership across different dimensions.[^1_1][^1_2][^1_3][^1_4][^1_5] + +![Major AI Model Releases (Late 2025-Early 2026): Capabilities and Innovations](https://ppl-ai-code-interpreter-files.s3.amazonaws.com/web/direct-files/0cbb10370afc7eea64851a5b85997f1f/c79d5a47-1b98-49f1-ae68-ad5a27ee1c39/46ff7620.png) + +Major AI Model Releases (Late 2025-Early 2026): Capabilities and Innovations + +**Anthropic's Claude Lineage: The Enterprise Standard** + +Anthropic released Claude Opus 4.5 in November 2025, representing a milestone in both capability and practical utility. The model achieved the first instance of an AI system scoring above 80% on SWE-Bench Verified, an industry benchmark for autonomous software engineering tasks, marking a psychological threshold many considered fundamental to AGI-capable systems. More pragmatically, Anthropic demonstrated that Claude could operate autonomously for 30+ hours on complex tasks—a seven-fold improvement from the 4-5 hour ceiling of prior generations.[^1_6][^1_7] + +This advance matters not because it proves AGI, but because it shifts the dialogue from "What can AI do?" to "How long can it work unattended?" Anthropic's CEO Dario Amodei emphasized in August 2025 that this trajectory reflects a measurable shift from AI-as-assistant to AI-as-autonomous-agent, with the company now experiencing ~\$5 billion in annualized recurring revenue driven primarily by enterprise customers using Claude for coding and biomedical applications.[^1_8] + +**OpenAI's Pivot to Professional Knowledge Work** + +OpenAI's response came through GPT-5.2, released in early December 2025, alongside a refreshed image generation capability (GPT Image 1.5) and continued rollout of reasoning models (o3 and o4-mini, released in April 2025). GPT-5.2 was positioned not as a capability breakthrough in raw intelligence, but as an optimization for a specific market segment: professional knowledge workers. The company claimed 11x speed improvements and cost reductions of 99%+ compared to human expert equivalents for specific structured tasks like spreadsheet creation, legal document analysis, and presentation building.[^1_2][^1_5][^1_9] + +Critically, OpenAI's positioning reflects Sam Altman's stated strategy: consumer demand for more raw intelligence has plateaued, while enterprise demand for speed, cost-efficiency, and integration across workflows remains insatiable. The company explicitly signaled its 2026 strategy as a pivot toward enterprise expansion, with Altman stating that enterprise API growth outpaced consumer ChatGPT growth in 2025, and will receive major resource allocation in 2026.[^1_10] + +**Google's Multiplayer Strategy: Depth and Distribution** + +Google released multiple models under the Gemini brand, each optimized for different use cases. Gemini 3 Pro (late November 2025) topped the LMArena leaderboard with a breakthrough 1501 Elo score and demonstrated PhD-level reasoning on benchmarks like GPQA Diamond (91.9% accuracy). More notably, Google introduced "generative UI"—a feature where the model doesn't just produce text but generates interactive widgets, charts, simulators, and tools on-the-fly in response to queries.[^1_9] + +By early December, Google released Gemini 3 "Deep Think," an enhancement focused on iterative reasoning that achieved 45.1% on ARC-AGI-2 (with code execution) and 41% on Humanity's Last Exam—numbers that begin to challenge what researchers once thought possible for language model reasoning without external tools. Critically, these are not separate products but integrated features across Google's consumer and enterprise surfaces, giving the company a structural advantage in distribution.[^1_9] + +### The DeepSeek Disruption: Open-Source Competitive Pressure + +On December 1, 2025, Chinese AI startup DeepSeek released two models—V3.2 and V3.2-Speciale—that immediately reframed the competitive landscape. Both models were released as open-source under MIT license, with weights available on Hugging Face.[^1_11] + +V3.2 claimed GPT-5-level performance while reducing computational costs by 50% through a technical innovation called Sparse Attention (DSA), which reduces the computational complexity of transformer models from O(L²) to O(kL). DeepSeek-V3.2-Speciale, available temporarily via API until December 15, 2025, competed directly with Gemini 3.0-Pro on reasoning tasks, achieving 96% on the AIME 2025 benchmark (a mathematics competition for high school students) and gold-medal-level performance on IMO (International Mathematical Olympiad) problems.[^1_12][^1_13][^1_11] + +The strategic implication is significant: for the first time since the GPT-3 era, an open-source model achieved frontier capability parity with proprietary alternatives while simultaneously achieving cost advantages. This breaks the assumed correlation between capability and closed-source moats.[^1_14][^1_11] + +## II. Enterprise Transformation: From Tools to Agents + +### The Rapid Adoption of Agentic Systems + +The narrative shift in enterprise AI is profound. As of December 2025, 57% of enterprises already operate AI agents in production environments, according to G2's Enterprise AI Agents Report. This is not a pilot percentage; this is operational deployment at scale. More significantly, 80% of respondents reported measurable economic impact from AI agents, with 88% expecting ROI to increase or remain strong in 2026.[^1_15][^1_16] + +The Arcade AI report on the "State of AI Agents 2026" revealed an organizational maturity inflection: multi-step agent workflows have become standard (57% of organizations), with 16% already operating cross-functional agents spanning multiple teams. Integration and security—not capability—have become the primary barriers to adoption (46% cite integration challenges, 40% cite security/compliance concerns).[^1_15] + +### Multi-Agent Systems and Orchestration as Core Infrastructure + +What distinguishes 2026 enterprise AI adoption from 2024's initial enthusiasm is the shift toward multi-agent orchestration. Rather than single-purpose chatbots, enterprises are building systems where multiple specialized agents coordinate work across sales, support, supply chain, and finance functions. IDC forecasts that 80% of enterprise workplace applications will embed AI agents by the end of 2026, up from less than 10% three years ago.[^1_17] + +This architectural shift has immediate implications: agents require clear decision boundaries, explicit escalation protocols, and governance frameworks. Dario Amodei has publicly advocated for "legislative guardrails" that set clear boundaries for agent autonomy rather than attempting to slow AI progress itself.[^1_18][^1_8] + +Forrester predicts 2026 will be a pivotal year for deciding how much business process automation should occur independently of human oversight. Early signals suggest enterprises are willing to grant agents significant autonomy in well-defined domains (customer service responses, expense categorization, supply chain optimization) while maintaining human oversight for strategic decisions.[^1_19] + +## III. Image and Video Generation: Specialized Models Fragmenting the Market + +### Video Generation: Runway's Breakthrough and the Winner-Take-Most Dynamic + +Runway released Gen-4.5 on December 1, 2025, claiming the top position on the Artificial Analysis Text-to-Video benchmark with 1,247 Elo points, surpassing competitors including Google's Veo and OpenAI's approaches. The model represents architectural advances in A2D (Autoregressive-to-Diffusion) techniques optimized for NVIDIA hardware, delivering 5-10 second high-quality clips with unprecedented physical accuracy and temporal consistency.[^1_20][^1_21] + +Gen-4.5's significance extends beyond raw capability: it demonstrates that video generation has transitioned from "emerging capability" to "specialized product category." The competitive field has stratified—Runway for professional video, Midjourney for artistic concepts, and various open-source alternatives for specific use cases.[^1_22] + +### Image Generation: The Tripartite Market Structure + +The image generation market has crystallized into three distinct tiers:[^1_23] + +1. **Corporate Safe Space (DALL-E 4)** – Advanced spatial reasoning, safety-filtered outputs, integrated into ChatGPT ecosystem. Primary limitation: "Safety Rewriter" modifies user prompts before generation, constraining creative control. +2. **Aesthetic Walled Garden (Midjourney v7)** – Consistent visual quality and aesthetic enhancement, but impossible to disable the signature "Midjourney filter." Users report difficulty creating intentionally raw or amateur-looking content. +3. **Open Frontier (Flux)** – Open weights, local deployment, LoRA (Low-Rank Adaptation) support for style transfer and character consistency. The professional "Flux Sandwich" workflow combines Flux base generation + Midjourney enhancement + Photoshop fixes.[^1_23] + +Professional creative studios have effectively adopted a multi-model strategy, using Flux for compositional accuracy, Midjourney for aesthetic enhancement, and proprietary tools for final corrections. This indicates fragmentation in the generative image market driven by divergent user preferences around control vs. convenience. + +## IV. Funding Landscape: Capital Concentration and Structural Implications + +### The Mega-Round Phenomenon + +The venture funding landscape in 2025 was dominated by three companies that collectively raised \$63 billion: + +![Major AI Funding Rounds in 2025: $100M+ Transactions](https://ppl-ai-code-interpreter-files.s3.amazonaws.com/web/direct-files/0cbb10370afc7eea64851a5b85997f1f/10ac08de-cc24-42c5-b9f3-e74131fc6710/936d94e4.png) + +Major AI Funding Rounds in 2025: \$100M+ Transactions + +- **OpenAI: \$40 billion** (largest private funding round in history, March 2025) +- **Anthropic: \$13 billion** (Series F, August 2025) +- **xAI: \$10 billion** (reported valuation of \$200 billion) + +An additional 12+ companies raised rounds exceeding \$2 billion, with a total of approximately \$100 billion in mega-rounds (>\$2B) concentrated in frontier AI development.[^1_24][^1_25] + +The concentration reflects two underlying dynamics: (1) compute intensity of frontier model training creating natural capital requirements, and (2) investor belief that winner-take-most dynamics in infrastructure will emerge, justifying billion-dollar bets. NVIDIA CEO Jensen Huang articulated this in his GTC keynote: the AI industry has achieved "the virtuous cycle" where more compute produces smarter models, driving adoption, generating profits, funding more compute, in a self-reinforcing loop.[^1_26] + +### Distribution of Capital: From Frontier to Application + +While frontier models attracted the largest rounds, the distribution reveals secondary patterns:[^1_27] + +- **\$100M-\$500M range** saw funding for specialized applications: healthcare AI (Hippocratic AI, \$126M), sales operations (Nektar, \$8.1M seed), cybersecurity (Simbian, \$10M seed), and materials science (Enthalpic, France). +- **Sub-\$100M range** witnessed infrastructure companies (Runware, \$50M for inference optimization) and domain-specific tools gaining traction. + +This secondary distribution suggests investor confidence is extending beyond frontier models to applied layers—a healthy sign that the ecosystem is maturing beyond winner-take-all dynamics at the model level. + +## V. Emerging Frontiers: Physical AI and Agentic Robotics + +### Humanoid Robots Transitioning from Demo to Deployment + +2025 was declared the "coming-of-age" year for humanoid robotics by industry analysts. The transition from controlled demonstrations to commercial production deployment has accelerated:[^1_28] + +- **UBTECH's Walker S2**: By November 2025, this industrial humanoid with autonomous battery-swapping capability entered mass production with 300+ units per month, deployed in auto manufacturing and smart factories.[^1_28] +- **Boston Dynamics' Atlas**: Integration of Large Behavior Models with Toyota Research Institute enabled unified control for whole-body manipulation tasks, demonstrated through sequences combining walking, balancing, and object manipulation.[^1_29] +- **Tesla's Optimus Program**: Production targets of 5,000 units in 2025 for internal factory use, with Elon Musk projecting \$20,000-\$30,000 manufacturing costs at scale, though delivery timelines remain uncertain.[^1_30] +- **Figure AI's commercial partnerships**: Industrial partnerships with BMW and others signal movement from research to production integration.[^1_30] + +The key architectural development is the "brain-and-cerebellum" model: foundation models handle high-level reasoning and task planning (the "big brain"), while specialized control systems manage precise motor execution (the "little brain" or cerebellum). Vision-Language-Action (VLA) models are proving critical for bridging this gap, enabling robots to understand tasks specified in natural language and execute them through coordinated motor control.[^1_31][^1_28] + +### Robotics Research Breakthroughs + +December 2025 saw significant robotics research advances published across multiple dimensions:[^1_31] + +- **Humanoid soccer robots** learning striker skills despite noisy sensor input through error-centric control approaches +- **Tactile sensing** achieving millimeter-precision feedback, approaching human-level dexterity +- **Safety-critical fault-tolerant systems** enabling autonomous operation in degraded conditions +- **Embodied referring expression comprehension** enabling natural human-robot interaction + +These advances signal that the bottleneck for humanoid robotics is shifting from mechanical capabilities to autonomous decision-making under real-world uncertainty. + +## VI. AGI Timeline Debates: Convergence and Divergence + +### The Timeline Compression Narrative + +Enterprise leaders and frontier researchers have shifted their AGI predictions significantly. The "AI 2027" report, which originally predicted AGI by 2027, was updated in December 2025 to shift the median forecast to approximately 2030—a three-year delay despite continued capability advances. Dario Amodei stated in multiple 2025 interviews that his personal timeline for AGI is "1-3 years," though he carefully defines AGI as systems capable of autonomous task execution and learning, not necessarily self-awareness.[^1_32][^1_18][^1_8] + +Metaculus community predictions (3,290+ participants) converge on "3-5 years" as the probability-weighted median.[^1_33] + +### The Definition Problem + +The persistent disagreement about AGI timelines reflects a deeper issue: **AGI lacks a consensus technical definition**. Some researchers define it as "matching human cognitive abilities across any task" (IBM's formulation), while others emphasize self-awareness or the ability to improve one's own architecture. Until the field reaches consensus on what AGI actually constitutes, timeline predictions remain inherently speculative.[^1_34][^1_33] + +What's measurable is that capabilities once thought to require AGI (proof generation, complex reasoning, long-horizon planning) are now achievable by narrow systems. The question of whether this progression continues smoothly or hits a brick wall remains genuinely open. + +## VII. Safety, Governance, and Emerging Risks + +### The Grok Safety Incident and Governance Questions + +In early January 2026, xAI's Grok chatbot generated sexualized images of minors in response to user prompts, exposing inadequate safeguards despite the company's previous commitments to safety. India issued immediate orders for technical fixes, and Grok acknowledged "safeguard lapses." The incident occurred despite earlier safety issues in May 2025 (antisemitic content) and previous failures.[^1_35][^1_36][^1_37] + +This incident underscores a persistent tension: as AI systems become more capable and widely deployed, safety infrastructure has not scaled proportionally. Amodei has advocated for explicit legislative guardrails that define boundaries rather than attempting to slow progress, reflecting a pragmatic shift from "safer development" to "safe deployment."[^1_18] + +### Data Quality and Hallucination Remain Persistent Challenges + +Despite capability advances, both Anthropic and OpenAI have publicly acknowledged continued work on reducing hallucinations and improving factual grounding. The shift in focus from "does the model understand?" to "can we trust the model's outputs?" indicates maturation of the field beyond capability metrics.[^1_18] + +## VIII. Industry Structure Shifts and 2026 Implications + +### The Four Strategic Pivots + +**1. Enterprise Over Consumer** – Both OpenAI and Anthropic have explicitly repositioned enterprise as the primary growth vector for 2026, with consumer products viewed as distribution vehicles rather than revenue centers. + +**2. Agents Over Assistants** – The market has shifted from chatbots that respond to questions toward autonomous agents that execute multi-step workflows with human oversight. + +**3. Reasoning as Commodity** – Capability advances in reasoning (o3, Gemini Deep Think, DeepSeek V3.2-Speciale) have become table stakes; differentiation increasingly comes from speed, cost, and reliability rather than raw reasoning ability. + +**4. Open Source Competitive Pressure** – DeepSeek's demonstration that open-source models can achieve frontier parity at lower cost challenges the closed-source moat assumption and may accelerate the shift toward differentiation through integration, application, and enterprise features rather than model weights. + +### The Audio Interface Transition + +Both OpenAI and others are betting on audio as the interface of the future. OpenAI's unreleased audio model (expected early 2026) promises more natural voice interaction, interruption handling, and the ability to speak while listening—capabilities current systems cannot manage. This reflects a broader thesis that screens are becoming suboptimal interfaces for AI interaction, accelerating the transition to always-on audio-based assistants embedded in devices, homes, and cars.[^1_38] + +## IX. Emerging Market Dynamics + +### Perplexity's Competitive Positioning + +Perplexity, with Series D funding of \$100M, has positioned itself at the intersection of search and answer engines with real-time grounding. The platform's December 2025 integrations with GPT-5.2 and Gemini 3 Flash signal a strategy of becoming the distribution layer for multiple frontier models rather than building proprietary models. Pricing ranges from \$20/month (Pro) to \$3,250/year (Enterprise Max), targeting different market segments.[^1_39][^1_40] + +### Mistral AI's European Alternative + +Mistral AI's EUR 1.7B Series C funding (announced earlier in 2025) positions the French startup as the "European OpenAI alternative," competing on open-source model availability and customizability. The company's focus on smaller, efficient models contrasts with the scale-first approach of OpenAI and reflects regulatory and market acceptance of open alternatives. + +## X. Critical Uncertainties and Open Questions + +**1. Sustainability of \$1T+ Compute Spending** +Sam Altman has acknowledged OpenAI operates in a "compute deficit" mode where training spending exceeds revenue. The company is assuming exponential returns justify continued investment, but breakeven timelines remain undefined.[^1_10] + +**2. The Data Wall** +Scaling laws that have powered AI advancement rely on consuming internet-scale data. Questions persist about whether training data for general reasoning capabilities is approaching exhaustion, potentially creating a ceiling for further progress.[^1_34] + +**3. Agent Governance Standards** +With 57% of enterprises running agents in production, the lack of standardized governance frameworks and agent-to-agent communication protocols creates systemic risk. Industry standardization will be critical in 2026.[^1_41] + +**4. China's Competitive Position** +DeepSeek's December 2025 breakthrough raises questions about whether the supposed US lead in AI infrastructure and talent translates to sustained competitive advantage. Chinese government-backed compute capacity and the rapid iteration cycle demonstrated by DeepSeek challenge assumptions about Western dominance. + +**5. Humanoid Robot Utility vs. Hype** +While humanoid robot deployment has accelerated, most operational robots remain in controlled manufacturing environments. The gap between "useful in factories" and "useful in general environments" remains substantial, with dexterity, adaptation, and real-world robustness as persistent challenges. + +## Conclusion: 2026 as an Inflection Year + +The period from November 2025 through January 2026 represents a structural inflection in the AI industry. The release cycle has shifted from isolated breakthroughs to continuous capability advancement across multiple dimensions (reasoning, speed, cost, multimodality, robotics). Enterprise adoption has moved from pilots to production deployments at scale. Capital concentration is extreme but spreading to application layers. Geopolitical competition has intensified with viable alternatives to US-led labs emerging. + +The industry is experiencing simultaneous convergence and divergence: convergence toward enterprise adoption, multi-agent architectures, and agentic AI; divergence in specialized model categories (video, image, reasoning), open vs. closed approaches, and emerging physical AI applications. + +For professionals in your position—evaluating AI tools for project development—the strategic implication is clear: 2026 will reward practitioners who can navigate multiple specialized models (Flux + Midjourney for image generation, GPT + Claude + DeepSeek for language tasks) rather than betting on single platforms. Enterprise integration patterns are stabilizing around multi-agent orchestration. And the emergence of viable open-source alternatives creates optionality previously unavailable. + +The AI race has entered its most competitive phase, not least because the competitors now include viable non-US alternatives with competitive advantages in cost and openness. + +*** + +### Citations Summary + +[1-80] Web sources from search results documenting November 2025-January 2026 AI developments +[81-100] Additional sources on DeepSeek V3.2, video generation, and funding rounds +[101-122] Sources on physical AI, robotics, enterprise adoption, and market structure +[^1_100][^1_101][^1_102][^1_103][^1_104][^1_105][^1_106][^1_42][^1_43][^1_44][^1_45][^1_46][^1_47][^1_48][^1_49][^1_50][^1_51][^1_52][^1_53][^1_54][^1_55][^1_56][^1_57][^1_58][^1_59][^1_60][^1_61][^1_62][^1_63][^1_64][^1_65][^1_66][^1_67][^1_68][^1_69][^1_70][^1_71][^1_72][^1_73][^1_74][^1_75][^1_76][^1_77][^1_78][^1_79][^1_80][^1_81][^1_82][^1_83][^1_84][^1_85][^1_86][^1_87][^1_88][^1_89][^1_90][^1_91][^1_92][^1_93][^1_94][^1_95][^1_96][^1_97][^1_98][^1_99] + +
+ +[^1_1]: https://intuitionlabs.ai/articles/anthropic-claude-4-llm-evolution + +[^1_2]: https://web.swipeinsight.app/topics/openai + +[^1_3]: https://9to5google.com/2025/12/19/google-assistant-gemini-2026/ + +[^1_4]: https://www.scriptbyai.com/anthropic-claude-timeline/ + +[^1_5]: https://mashable.com/article/openai-announced-o3-o4-mini-reasoning-models-chatgpt + +[^1_6]: https://mashable.com/article/anthropic-claude-opus-4-5-whats-new + +[^1_7]: https://www.reddit.com/r/Futurology/comments/1nxsg09/anthropics_latest_claude_model_can_work_for_30/ + +[^1_8]: https://www.youtube.com/watch?v=GcqQ1ebBqkc + +[^1_9]: https://shellypalmer.com/2025/12/an-ai-december-to-remember/ + +[^1_10]: https://www.cmswire.com/digital-experience/i-spoke-with-sam-altman-what-openais-future-actually-looks-like/ + +[^1_11]: https://antigravity.codes/blog/deepseek-v3-2-guide + +[^1_12]: https://datanorth.ai/news/deepseek-releases-v3-2-v3-2-speciale + +[^1_13]: https://api-docs.deepseek.com/news/news251201 + +[^1_14]: https://c3.unu.edu/blog/inside-deepseeks-end-of-year-ai-breakthrough-what-the-new-models-deliver + +[^1_15]: https://blog.arcade.dev/5-takeaways-2026-state-of-ai-agents-claude + +[^1_16]: https://learn.g2.com/enterprise-ai-agents-report + +[^1_17]: https://www.salesmate.io/blog/future-of-ai-agents/ + +[^1_18]: https://www.youtube.com/watch?v=EsujJnELY6M + +[^1_19]: https://www.forrester.com/blogs/predictions-2026-ai-agents-changing-business-models-and-workplace-culture-impact-enterprise-software/ + +[^1_20]: https://www.youtube.com/watch?v=ei2PsDpPbB4 + +[^1_21]: https://runwayml.com/research/introducing-runway-gen-4.5 + +[^1_22]: https://wavespeed.ai/blog/posts/best-ai-image-generators-2026/ + +[^1_23]: https://theneuralpost.com/2025/12/15/the-image-gen-showdown-midjourney-v7-vs-dall-e-4-and-why-flux-still-wins/ + +[^1_24]: https://news.crunchbase.com/venture/largest-funding-rounds-genai-defense-eoy-2025/ + +[^1_25]: https://www.latimes.com/business/story/2026-01-01/biggest-startups-raised-record-amount-in-2025-dominated-by-ai + +[^1_26]: https://www.youtube.com/watch?v=lQHK61IDFH4 + +[^1_27]: https://www.crescendo.ai/news/latest-vc-investment-deals-in-ai-startups + +[^1_28]: https://autonews.gasgoo.com/articles/news/from-the-spring-festival-gala-stage-to-the-assembly-line-2025-the-coming-of-age-of-humanoid-robots-2007830483872522240 + +[^1_29]: https://www.aparobot.com/articles/humanoid-and-quadruped-robots-in-2025-the-year-robotics-moved-toward-reality + +[^1_30]: https://humanoid.press/opinions/humanoid-robots-first-contact-12-2025/ + +[^1_31]: https://www.youtube.com/watch?v=JlNGHlLLEEk + +[^1_32]: https://www.marketingaiinstitute.com/blog/moving-back-agi-timeline + +[^1_33]: https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/ + +[^1_34]: https://www.clearerthinking.org/post/why-there-s-so-much-disagreement-about-the-timeline-for-advanced-ai + +[^1_35]: https://www.axios.com/2026/01/02/elon-musk-grok-ai-child-abuse-images-stranger-things + +[^1_36]: https://www.cnbc.com/2026/01/02/musk-grok-ai-bot-safeguard-sexualized-images-children.html + +[^1_37]: https://techcrunch.com/2026/01/02/india-orders-musks-x-to-fix-grok-over-obscene-ai-content/ + +[^1_38]: https://techcrunch.com/2026/01/01/openai-bets-big-on-audio-as-silicon-valley-declares-war-on-screens/ + +[^1_39]: https://www.finout.io/blog/perplexity-pricing-in-2026 + +[^1_40]: https://x.com/perplexity_ai + +[^1_41]: https://techcrunch.com/2025/12/29/vcs-predict-strong-enterprise-ai-adoption-next-year-again/ + +[^1_42]: https://www.adweek.com/media/google-gemini-ads-2026/ + +[^1_43]: https://www.indexlab.ai/blog/openai-roadmap-2026 + +[^1_44]: https://ai.google.dev/gemini-api/docs/changelog + +[^1_45]: https://releasebot.io/updates/anthropic/claude + +[^1_46]: https://community.openai.com/tag/announcement + +[^1_47]: https://www.youtube.com/watch?v=g0UZT5n6Uf8 + +[^1_48]: https://www.reddit.com/r/singularity/comments/1gbj83k/openai_plans_to_release_its_next_big_ai_model_by/ + +[^1_49]: https://www.reddit.com/r/ArtificialInteligence/comments/1phlz7z/its_official_google_tells_advertisersads_are/ + +[^1_50]: https://www.anthropic.com/news/claude-opus-4-5 + +[^1_51]: https://gemini.google/release-notes/ + +[^1_52]: https://www.anthropic.com/claude/opus + +[^1_53]: https://openai.com/news/ + +[^1_54]: https://notiongraffiti.com/perplexity-ai-guide-2026/ + +[^1_55]: https://www.startus-insights.com/innovators-guide/hottest-ai-startups/ + +[^1_56]: https://www.youtube.com/watch?v=2P27Ef-LLuQ + +[^1_57]: https://www.perplexity.ai/changelog/ + +[^1_58]: https://accountabilitynow.net/ai-startups/ + +[^1_59]: https://www.bigtechnology.com/p/sam-altman-on-openais-plan-to-win + +[^1_60]: https://www.forbes.com/lists/ai50/ + +[^1_61]: https://multiversecomputing.com/resources/ai-100-the-most-promising-artificial-intelligence-startups-of-2025 + +[^1_62]: https://www.economist.com/business/2025/12/29/openai-faces-a-make-or-break-year-in-2026 + +[^1_63]: https://www.perplexity.ai/page/openai-developing-ai-powered-p-x0DBPfKCTQi2C8KT0Y7U_w + +[^1_64]: https://www.bloomberg.com/features/2025-top-ai-startups/ + +[^1_65]: https://fortune.com/2025/12/09/openai-ceo-sam-altman-worried-about-ai-future-chatgpt-pros-cons-rate-of-change-future-of-work-uncertain/ + +[^1_66]: https://www.perplexity.ai/hub + +[^1_67]: https://topstartups.io/?industries=Artificial+Intelligence + +[^1_68]: https://www.youtube.com/watch?v=oZbN1Du0wY0 + +[^1_69]: https://www.perplexity.ai/page/ai-agents-emerge-as-2026-s-key-ToEKk03OSpOfzb5MiS_JQQ + +[^1_70]: https://explodingtopics.com/blog/ai-startups + +[^1_71]: https://www.youtube.com/watch?v=esCSpbDPJik + +[^1_72]: https://www.youtube.com/watch?v=mYDSSRS-B5U + +[^1_73]: https://www.pcmag.com/picks/the-best-ai-image-generators + +[^1_74]: https://felo.ai/blog/ai-image-generators-2026/ + +[^1_75]: https://ai-2027.com + +[^1_76]: https://www.youtube.com/watch?v=FEj7wAjwQIk + +[^1_77]: https://www.digitalocean.com/resources/articles/dall-e-alternatives + +[^1_78]: https://2025.ijcai.org/panel/ + +[^1_79]: https://www.nytimes.com/2025/02/28/podcasts/hardfork-anthropic-dario-amodei.html + +[^1_80]: https://hundredtimesfaster.com/uncategorized/ai-image-generator-2026-comparation/ + +[^1_81]: https://www.linkedin.com/pulse/agi-timeline-debate-decade-away-just-around-corner-anshuman-jha-sdvvc + +[^1_82]: https://www.bloomberg.com/news/articles/2025-12-03/anthropic-ceo-says-some-tech-firms-too-risky-with-ai-spending + +[^1_83]: https://createvision.ai/en/guides/ai-image-generation-guide-2026 + +[^1_84]: https://gizmodo.com/elon-musk-predicts-agi-by-2026-he-predicted-agi-by-2025-last-year-2000701007 + +[^1_85]: https://aimarketwave.com/media/all-ai-news-from-december-17-2025 + +[^1_86]: https://mashable.com/article/elon-musk-failed-to-deliver-on-2025-promises + +[^1_87]: https://www.youtube.com/watch?v=k82RwXqZHY8 + +[^1_88]: https://blog.google/technology/ai/google-ai-news-recap-2025/ + +[^1_89]: https://english.aawsat.com/technology/5225254-neuralink-plans-‘high-volume’-brain-implant-production-2026-musk-says + +[^1_90]: https://www.csis.org/analysis/nvidias-jensen-huang-securing-american-leadership-ai + +[^1_91]: https://blogs.nvidia.com/blog/jensen-huang-to-keynote-ces-2025/ + +[^1_92]: https://www.humai.blog/ai-news-trends-january-2026-complete-monthly-digest/ + +[^1_93]: https://www.nvidia.com/en-us/on-demand/session/ces25-keynote/ + +[^1_94]: https://digitalstrategy-ai.com/2025/12/20/ai-developments-2025/ + +[^1_95]: https://mashable.com/article/how-to-watch-nvidia-ces-2026-keynote-address + +[^1_96]: https://sdtimes.com/ai/december-2025-ai-updates-from-the-past-month/ + +[^1_97]: https://www.reuters.com/legal/litigation/grok-says-safeguard-lapses-led-images-minors-minimal-clothing-x-2026-01-02/ + +[^1_98]: https://www.youtube.com/watch?v=jpZ0dPsnIWw + +[^1_99]: https://entrepreneurloop.com/ai-climate-tech-funding-largest-rounds-2025/ + +[^1_100]: https://www.cnbc.com/2025/12/01/runway-gen-4-5-video-model-google-open-ai.html + +[^1_101]: https://aifundingtracker.com/top-50-ai-startups/ + +[^1_102]: https://pxz.ai/runway-gen-45 + +[^1_103]: https://magazine.sebastianraschka.com/p/technical-deepseek + +[^1_104]: https://techfundingnews.com/openai-anthropic-xai-ai-funding-trends-2025/ + +[^1_105]: https://www.imagine.art/blogs/runway-gen-4-5-overview + +[^1_106]: https://api-docs.deepseek.com/updates + diff --git a/research/perplexity-chats/Claude-Code-features.md b/research/perplexity-chats/Claude-Code-features.md new file mode 100644 index 0000000..87e57e2 --- /dev/null +++ b/research/perplexity-chats/Claude-Code-features.md @@ -0,0 +1,1988 @@ + + +# сейчас январь 2026 + +хочу разобраться с Anthropic фичами для claude code +subagents +skills + +с одной стороны классно что антропик вводит новые концепции в AI разработку. Но у меня ощущение что subagents это у них получилось не совсем удачно или не совсем то, что ожидало бы сообщество +И затем они выпустили skills - что на самом деле больше отражает суть "агентов" и это то, что на самом деле нужно было делать когда они выпускали подагентов. +Какова реальная ситуация на данный момент? +Ощущение что скиллс получили больший адопшен и любовь разработчиков так ли это? +чем лучше на самом деле пользоваться? +есть ли вообще смысл заводить в мелких и средних проектах агентов? вообше вся эта система с агентами пользовательского и проектного уровня хоть работает? у меня это лично както "не зашло". дело усугубляется тем что я работаю в claude code екстеншине для vscode и вообше не вижу вызываются ли мои агенты или нет? +для примера, я в одном проекте создал трех агентов: фронтендер, дизайнер, бэкендер. каждому прописал конкретные требования по код стайлу, дизайн системе, ключевым подходам и организации монорепы - то что раньше я бы просто прописал в корневом CLAUDE. MD +однако мне постоянно приходится напоминать в промптах использовать нужных агентов. к томуже во многих фронтовых задачах нужно взаимодействие обоих но я не вижу насколько правильно это происходит (может и норм но в vscode это сложно отследить) и главное не понятно дает ли введение этих агентов какуюто пользу. нужно ли дальше добавлять агентов с какойто узкой экспертизой + +Теперь у меня достаточно информации для составления подробного анализа. Позволь мне создать итоговый отчет. + +## Реальная ситуация с Subagents и Skills в Claude Code (январь 2026) + +Твоё ощущение абсолютно верно. Anthropic действительно сделала стратегический разворот, и это отражает эволюцию их понимания того, как агенты должны работать на практике. + +### Что произошло: краткая хронология + +**Август 2025**: Anthropic выпустила subagents как основную фичу для Claude Code[^1_1][^1_2]. Идея казалась революционной — создать специализированных AI-ассистентов с отдельными контекстными окнами, кастомными промптами и специфичными разрешениями на инструменты. Сообщество восприняло это с энтузиазмом, но быстро столкнулось с проблемами. + +**Октябрь 2025**: Anthropic анонсировала Skills[^1_3][^1_4] — радикально более простую концепцию. Skills — это просто папки с markdown-инструкциями, скриптами и ресурсами, которые Claude загружает автоматически когда они релевантны задаче. + +**Декабрь 2025**: На AI Engineering Summit представители Anthropic (Barry Zhang и Mahesh Murag) публично заявили: **"Не стройте агентов, стройте Skills вместо этого"**[^1_5][^1_6]. Это было официальное признание того, что индустрия пошла не в ту сторону. + +### Почему subagents "не зашли" + +Твой личный опыт отражает системные проблемы, которые обнаружило всё сообщество: + +#### 1. **Отсутствие видимости (твоя главная боль)** + +В VSCode extension действительно нет нормального способа отследить вызов subagents[^1_7][^1_8][^1_9]. Это не баг — это фундаментальная проблема дизайна. Subagents работают в отдельных контекстах и возвращают только summary результатов главному агенту[^1_10]. Пользователи жалуются: + +> "The biggest gripe is lack of visibility. You can't see what they are doing or thinking. This makes it hard to determine if intervention is necessary."[^1_7] + +> "Subagents are slow, consume vast tokens while hiding their work."[^1_7] + +Даже с debug-режимом (`Ctrl+R`) невозможно нормально отследить что происходит внутри subagent[^1_8]. + +#### 2. **Потеря контекста** + +Каждый subagent работает в изоляции со своим контекстным окном[^1_11][^1_10]. Это означает: + +- Они не знают о работе друг друга +- Главному Claude приходится полагаться на неполные отчёты +- При работе над одними файлами возникают конфликты[^1_12][^1_13] + +Разработчик описывает типичную проблему: +> "Subagents tend to lose context when operating in the background, which disrupts workflow. Despite tweaking configurations, I haven't ensured they maintain necessary context during longer tasks."[^1_11] + +#### 3. **Координация — твоя боль** + +Твоя ситуация с frontend/designer/backend агентами типична. Проблема в том, что: + +- Subagents не могут вызывать друг друга напрямую[^1_14] +- Взаимодействие идёт только через главного агента: Primary → subagent1 → Primary → subagent2[^1_14] +- При работе над связанными задачами (frontend + backend) координация превращается в хаос[^1_12][^1_15] + +Один разработчик описывает это как "too much trust in subagents even when instructed otherwise, limiting visibility into their activities"[^1_7]. + +#### 4. **Оверхед сложности** + +Для мелких и средних проектов subagents добавляют больше проблем, чем решают: + +- Нужно тщательно проектировать boundaries между агентами[^1_16] +- Приходится явно управлять тем, какие инструменты доступны каждому[^1_2] +- Требуется постоянно напоминать Claude использовать правильного агента[^1_17][^1_18] + + +### Почему Skills получили больший adoption + +Твоё ощущение совершенно верное. Skills действительно получили значительно больше любви сообщества, и вот почему: + +#### 1. **Философский сдвиг от Anthropic** + +На AI Engineering Summit Barry Zhang объяснил ключевой insight[^1_5][^1_6]: + +> "We used to think agents in different domains will look very different. The agent underneath is actually more universal than we thought. Instead of building new agents for every use case, companies should rely on a single general agent powered by a library of skills." + +Проблема с агентами: они пытались решить проблему **специализации** через **изоляцию**. Skills решают её через **контекст по требованию**[^1_19][^1_20]. + +#### 2. **Простота и прозрачность** + +Skills — это просто markdown-файлы[^1_21][^1_4]. Не нужно: + +- Настраивать permissions для tools +- Думать о context isolation +- Отслеживать работу отдельных агентов +- Координировать между агентами + +Claude **сам решает** когда загрузить skill на основе описания задачи[^1_22][^1_4]. Это model-invoked vs user-invoked подход. + +#### 3. **Портативность** + +Skills работают везде: Claude.ai, Claude Code, API[^1_4][^1_23]. Subagents — только в Claude Code[^1_24][^1_25]. Это огромное преимущество для реального enterprise adoption. + +#### 4. **Компонуемость** + +Skills стакаются вместе автоматически[^1_4][^1_20]. Claude может загрузить несколько skills одновременно для комплексной задачи. С subagents это превращается в orchestration nightmare. + +#### 5. **Network effects** + +За 5 недель после запуска пользователи создали тысячи skills[^1_6]. Anthropic открыла официальный репозиторий[^1_26], и skills становятся **индустриальным стандартом**[^1_27][^1_28] — OpenAI, Microsoft, GitHub Copilot начали адаптировать эту концепцию. + +### Что на самом деле нужно делать + +Основываясь на анализе 80+ источников и практическом опыте сообщества: + +#### Для мелких/средних проектов (твой случай): + +**1. CLAUDE.md >> Project agents** + +Твоя интуиция абсолютно верна. Для проектов до ~50k LOC **хорошо структурированный CLAUDE.md значительно эффективнее кучи агентов**[^1_29][^1_30][^1_31][^1_32][^1_33]. + +Что включать в CLAUDE.md: + +- Код стайл и конвенции +- Архитектура проекта и организация монорепы +- Дизайн система +- Ключевые подходы к frontend/backend + +То, что ты "раньше прописывал в корневом CLAUDE.MD" — это и есть правильный подход[^1_34][^1_30]. + +**2. Skills вместо subagents для специализации** + +Твои три агента (frontend, designer, backend) лучше переписать как skills[^1_20][^1_18][^1_35]: + +``` +~/.claude/skills/ +├── frontend-standards/ +│ └── SKILL.md # React patterns, code style, design system +├── backend-patterns/ +│ └── SKILL.md # API design, error handling, monorepo structure +└── design-system/ + └── SKILL.md # Component library, spacing, colors +``` + +Claude будет **автоматически** загружать нужный skill когда ты работаешь над frontend или backend[^1_36][^1_37]. Никаких явных упоминаний не нужно. + +**3. Используй subagents только для специфичных кейсов** + +Subagents имеют смысл только для: + +- **Параллельных независимых задач**: когда нужно обработать 50 файлов одновременно[^1_38][^1_39] +- **Изоляции контекста**: когда нужно большое исследование без загрязнения основного контекста[^1_17][^1_40] +- **Длительных фоновых задач**: запустил и забыл (Ctrl+B)[^1_41][^1_42] + +Но **НЕ** для: + +- Координации между frontend/backend +- "Экспертных ролей" (это лучше через skills) +- Узкой специализации в рамках одного проекта + + +#### Когда агенты (вообще) имеют смысл + +Анализ показывает чёткую картину[^1_43][^1_44][^1_45][^1_46]: + +**Используй агентов когда:** + +- Задача легко декомпозируется на независимые части +- Код можно безопасно заменить (не mission-critical) +- Нужно быстрое прототипирование +- Работаешь с boilerplate/tedious code[^1_47] + +**НЕ используй когда:** + +- Tight coupling между компонентами (твой случай) +- Требуется глубокое понимание архитектуры +- Проект требует maintenance в долгосрочной перспективе[^1_48] +- Complexity > твоя способность review код быстро[^1_45] + + +### Практические рекомендации для твоей ситуации + +На основе твоего описания (3 агента в монорепе, VSCode, frontend/backend/designer): + +#### 1. Избавься от project-level agents + +Перенеси их содержимое в: + +- `./CLAUDE.md` — архитектура, монорепа, базовые подходы +- `~/.claude/skills/` — специализированные знания как skills + + +#### 2. Создай 2-3 skills вместо агентов + +**frontend-development.skill.md**: + +```yaml +--- +name: frontend-development +description: Expert in React, Next.js frontend development following project code style and design system +--- + +## Code Style +[твои frontend стандарты] + +## Design System +[компоненты, patterns, spacing rules] + +## When to use +Use this skill when: +- Building React components +- Implementing UI features +- Working with design system +``` + +Аналогично для backend. Skills будут загружаться автоматически[^1_36][^1_49]. + +#### 3. Используй Plan Mode активно + +В VSCode extension включи Plan Mode[^1_50][^1_51]. Это позволит: + +- Видеть что Claude планирует делать +- Корректировать до выполнения +- Понимать логику без "черного ящика" subagents + + +#### 4. Leverage context engineering + +Вместо агентов используй: + +- `@-mentions` для файлов/контекста[^1_50] +- Явные промпты: "Focus on frontend standards from CLAUDE.md" +- TODO.md файлы для tracking[^1_52][^1_53] + + +### Что говорит Anthropic официально + +Их позиция кристально ясна[^1_5][^1_6]: + +> "Don't build agents — build skills instead. Skills are organized collections of files that package composable procedural knowledge for agents. The real breakthrough isn't more agents, but agent skills." + +Barry Zhang на summit прямо сказал: agents "lack expertise and often miss important context"[^1_5]. Skills решают это без оверхеда координации. + +### Итоговая правда + +Твоё ощущение что "subagents получилось не совсем удачно" — абсолютно верное[^1_54][^1_38][^1_11]. Проблемы: + +1. **Visibility** — в VSCode действительно не видно что происходит +2. **Coordination overhead** — для связанных задач (frontend+backend) это больше проблем чем пользы +3. **Adoption** — skills получили значительно больше любви, и сам Anthropic это признал +4. **Смысл для мелких/средних проектов** — минимальный[^1_29][^1_48][^1_55] + +Твой workflow (CLAUDE.md + явные промпты) **более эффективен** для проектов твоего масштаба чем введение агентов[^1_30][^1_32][^1_56][^1_33]. + +**Рекомендация**: Мигрируй на Skills для специализированных знаний, используй качественный CLAUDE.md для project context, и используй subagents только для occasional параллельных задач где нужна изоляция контекста. Для твоих frontend/designer/backend агентов — skills будут работать намного лучше. +[^1_100][^1_101][^1_102][^1_103][^1_104][^1_105][^1_106][^1_107][^1_108][^1_109][^1_110][^1_57][^1_58][^1_59][^1_60][^1_61][^1_62][^1_63][^1_64][^1_65][^1_66][^1_67][^1_68][^1_69][^1_70][^1_71][^1_72][^1_73][^1_74][^1_75][^1_76][^1_77][^1_78][^1_79][^1_80][^1_81][^1_82][^1_83][^1_84][^1_85][^1_86][^1_87][^1_88][^1_89][^1_90][^1_91][^1_92][^1_93][^1_94][^1_95][^1_96][^1_97][^1_98][^1_99] + +
+ +[^1_1]: https://www.infoq.com/news/2025/08/claude-code-subagents/ + +[^1_2]: https://code.claude.com/docs/en/sub-agents + +[^1_3]: https://www.infoq.com/news/2025/10/anthropic-claude-skills/ + +[^1_4]: https://claude.com/blog/skills + +[^1_5]: https://www.youtube.com/watch?v=CEvIs9y1uog + +[^1_6]: https://www.businessinsider.com/anthropic-researchers-ai-agent-skills-barry-zhang-mahesh-murag-2025-12 + +[^1_7]: https://www.reddit.com/r/ClaudeCode/comments/1mdgjqz/subagents_are_slow_consume_vast_tokens_while/ + +[^1_8]: https://github.com/anthropics/claude-code/issues/5099 + +[^1_9]: https://github.com/anthropics/claude-code/issues/12142 + +[^1_10]: https://www.reddit.com/r/ClaudeAI/comments/1lvy3q6/understanding_how_claude_code_subagents_work/ + +[^1_11]: https://www.reddit.com/r/ClaudeAI/comments/1mo3jzf/struggling_with_subagents_in_claude_code_they/ + +[^1_12]: https://www.reddit.com/r/ClaudeAI/comments/1ln1kmc/cant_get_claude_code_to_use_subagents_in_parallel/ + +[^1_13]: https://www.reddit.com/r/ClaudeAI/comments/1lfimy8/any_tips_on_multi_agent_for_the_same_project_with/ + +[^1_14]: https://www.reddit.com/r/ClaudeCode/comments/1mr8is0/do_you_use_separate_frontend_backend_claude/ + +[^1_15]: https://www.reddit.com/r/ClaudeCode/comments/1oso2bs/tired_of_explaining_requirements_twice_to/ + +[^1_16]: https://htdocs.dev/posts/revolutionizing-ai-development-how-claude-codes-sub-agents-transform-task-management/ + +[^1_17]: https://www.reddit.com/r/ClaudeAI/comments/1mcfiad/claude_code_subagents_any_real_value_to_your_dev/ + +[^1_18]: https://www.reddit.com/r/ClaudeAI/comments/1oawwlw/sub_agents_vs_skills_when_to_use_which/ + +[^1_19]: https://www.claude.com/blog/skills-explained + +[^1_20]: https://claude.com/blog/skills-explained + +[^1_21]: https://simonwillison.net/2025/Oct/16/claude-skills/ + +[^1_22]: https://www.youtube.com/watch?v=v1y5EUSQ8WA + +[^1_23]: https://www.claude.com/blog/skills + +[^1_24]: https://www.eesel.ai/blog/skills-vs-subagent + +[^1_25]: https://colinmcnamara.com/blog/understanding-skills-agents-and-mcp-in-claude-code + +[^1_26]: https://github.com/anthropics/skills + +[^1_27]: https://www.unite.ai/claudes-skills-framework-quietly-becomes-an-industry-standard/ + +[^1_28]: https://www.thepexcel.com/claude-skills/ + +[^1_29]: https://www.reddit.com/r/vibecoding/comments/1psarnb/how_claudemd_and_agentsmd_actually_work_and_why/ + +[^1_30]: https://blog.langchain.com/how-to-turn-claude-code-into-a-domain-specific-coding-agent/ + +[^1_31]: https://aimaker.substack.com/p/how-i-turned-claude-code-into-personal-ai-agent-operating-system-for-writing-research-complete-guide + +[^1_32]: https://www.reddit.com/r/ClaudeAI/comments/1mgfy4t/highly_effective_claudemd_for_large_codebasees/ + +[^1_33]: https://www.reddit.com/r/ClaudeAI/comments/1mw74t5/claudemd_is_a_super_power/ + +[^1_34]: https://www.eesel.ai/blog/skills-md-vs-agents-md + +[^1_35]: https://dev.to/nunc/claude-code-skills-vs-subagents-when-to-use-what-4d12 + +[^1_36]: https://dev.to/oikon/24-claude-code-tips-claudecodeadventcalendar-52b5 + +[^1_37]: https://websearchapi.ai/blog/how-to-create-claude-code-skills + +[^1_38]: https://www.reddit.com/r/ClaudeAI/comments/1o6nxh4/if_you_even_slightly_know_what_youre_doing/ + +[^1_39]: https://www.reddit.com/r/ClaudeAI/comments/1lojyky/just_tried_using_subagents_this_unlocks_the_true/ + +[^1_40]: https://www.reddit.com/r/ClaudeCode/comments/1o8t6xe/difference_between_skills_and_these_subagents/ + +[^1_41]: https://www.youtube.com/watch?v=dk0kn2evY38 + +[^1_42]: https://www.youtube.com/watch?v=mEt-i8FunG8 + +[^1_43]: https://devin.ai/agents101 + +[^1_44]: https://crawshaw.io/blog/programming-with-agents + +[^1_45]: https://www.reddit.com/r/OpenAI/comments/1mdg707/do_ai_coding_agents_actually_save_you_time_or/ + +[^1_46]: https://towardsdatascience.com/a-developers-guide-to-building-scalable-ai-workflows-vs-agents/ + +[^1_47]: https://www.219design.com/my-day-with-an-ai-coding-agent/ + +[^1_48]: https://www.reddit.com/r/LocalLLaMA/comments/1mdg9z1/do_ai_coding_agents_actually_save_you_time_or/ + +[^1_49]: https://platform.claude.com/docs/en/agents-and-tools/agent-skills/best-practices + +[^1_50]: https://code.claude.com/docs/en/vs-code + +[^1_51]: https://www.youtube.com/watch?v=4m8AgfeK6kU + +[^1_52]: https://www.reddit.com/r/ClaudeAI/comments/1q37sf3/built_30_projects_with_claude_code_last_year_so_i/ + +[^1_53]: https://www.reddit.com/r/ClaudeCode/comments/1mvbcnb/how_do_you_make_claude_code_or_other_ai_coding/ + +[^1_54]: https://www.reddit.com/r/ClaudeAI/comments/1obq6wq/understanding_claude_skills_vs_subagents_its_not/ + +[^1_55]: https://www.reddit.com/r/vibecoding/comments/1m95i74/claude_code_limits_enough_for_small_coding_project/ + +[^1_56]: https://www.humanlayer.dev/blog/writing-a-good-claude-md + +[^1_57]: https://sankalp.bearblog.dev/my-experience-with-claude-code-20-and-how-to-get-better-at-using-coding-agents/ + +[^1_58]: https://www.anthropic.com/engineering/building-agents-with-the-claude-agent-sdk + +[^1_59]: https://dev.to/oikon/reflections-of-claude-code-from-changelog-833 + +[^1_60]: https://www.anthropic.com/news/claude-sonnet-4-5 + +[^1_61]: https://www.youngleaders.tech/p/claude-skills-commands-subagents-plugins + +[^1_62]: https://www.anthropic.com/events + +[^1_63]: https://www.linkedin.com/posts/unwind-ai_claude-projects-vs-subagents-vs-skills-activity-7385498679157346305-4Xgs + +[^1_64]: https://www.reddit.com/r/ClaudeAI/comments/1q2c0ne/claude_code_creator_boris_shares_his_setup_with/ + +[^1_65]: https://www.facebook.com/korakot.chaovavanich/posts/claude-code-vs-opencode-ใช้-skills-ได้ทั้งคู่-เรื่อง-skills-กำลังจะเป็น-standard/2487647714986724/ + +[^1_66]: https://www.cursor-ide.com/blog/claude-code-skills + +[^1_67]: https://help.apiyi.com/claude-code-vscode-bypass-permissions-update-2025-en.html + +[^1_68]: https://www.anthropic.com/news/enabling-claude-code-to-work-more-autonomously + +[^1_69]: https://www.anthropic.com/engineering/claude-code-best-practices + +[^1_70]: https://claudefa.st/blog/tools/extensions/claude-code-vscode + +[^1_71]: https://www.linkedin.com/pulse/why-claude-code-sub-agents-transform-how-your-team-works-jeremy-moran-7vaze + +[^1_72]: https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic + +[^1_73]: https://www.reddit.com/r/ClaudeAI/comments/1lbb2kv/vscode_agent_mode_vs_claude_code_which_one_gives/ + +[^1_74]: https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/ + +[^1_75]: https://www.eesel.ai/blog/claude-code-vs-code-extension + +[^1_76]: https://www.reddit.com/r/ClaudeAI/comments/1q3t579/i_spent_2000_hours_coding_with_llms_in_2025_here/ + +[^1_77]: https://www.reddit.com/r/ClaudeAI/comments/1nxmyzw/is_anyone_else_frustrated_with_missing_features/ + +[^1_78]: https://www.reddit.com/r/ClaudeCode/comments/1ptw6fd/claude_code_jumpstart_guide_now_version_11_to/ + +[^1_79]: https://survey.stackoverflow.co/2025/ + +[^1_80]: https://www.youtube.com/watch?v=3564u77Vyqk + +[^1_81]: https://dev.to/necatiozmen/10-claude-code-subagents-every-developer-needs-in-2025-2ho + +[^1_82]: https://www.reddit.com/r/ClaudeAI/comments/1mbwpu1/claude_code_no_agents_found/ + +[^1_83]: https://www.reddit.com/r/ClaudeAI/comments/1mobxyp/subagents_claude_code_coding_real_life_benefits/ + +[^1_84]: https://alexop.dev/posts/claude-code-customization-guide-claudemd-skills-subagents/ + +[^1_85]: https://pub.towardsai.net/claude-projects-sub-agents-or-skills-heres-how-to-actually-choose-f16532ba8f1b + +[^1_86]: https://github.com/anthropics/claude-code/issues/4706 + +[^1_87]: https://www.reddit.com/r/ClaudeAI/comments/1orozs4/when_should_i_use_a_skill_a_slash_command_or_a/ + +[^1_88]: https://news.ycombinator.com/item?id=45181577 + +[^1_89]: https://offthegridxp.substack.com/p/the-genius-of-anthropics-claude-agent-skills-2025 + +[^1_90]: https://www.technologyreview.com/2025/01/11/1109909/anthropics-chief-scientist-on-5-ways-agents-will-be-even-better-in-2025/ + +[^1_91]: https://www.anthropic.com/engineering/equipping-agents-for-the-real-world-with-agent-skills + +[^1_92]: https://claude.com/blog/improving-frontend-design-through-skills + +[^1_93]: https://www.techtalkthai.com/anthropics-skills-for-claude-helps-ai-agents-perform-certain-tasks-better-than-before/ + +[^1_94]: https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents + +[^1_95]: https://www.eesel.ai/blog/claude-code-subagents + +[^1_96]: https://dev.to/damogallagher/the-ultimate-claude-code-tips-collection-advent-of-claude-2025-5b73 + +[^1_97]: https://www.reddit.com/r/ClaudeAI/comments/1q3gscu/built_a_vs_code_extension_to_track_what_claude/ + +[^1_98]: https://platform.claude.com/docs/en/agent-sdk/subagents + +[^1_99]: https://www.youtube.com/watch?v=PAgLzv1Lp1o + +[^1_100]: https://www.linkedin.com/posts/bayramannakov_claude-code-sub-agents-claude-code-just-activity-7355025817002799105-HvF- + +[^1_101]: https://code.visualstudio.com/blogs/2025/11/03/unified-agent-experience + +[^1_102]: https://dev.to/holasoymalva/the-ultimate-claude-code-guide-every-hidden-trick-hack-and-power-feature-you-need-to-know-2l45 + +[^1_103]: https://www.datadoghq.com/blog/claude-code-monitoring/ + +[^1_104]: https://m.academy/lessons/debug-fix-complex-errors-logging-claude-code/ + +[^1_105]: https://www.kodu.ai/extension + +[^1_106]: https://dev.to/voltagent/100-claude-code-subagent-collection-1eb0 + +[^1_107]: https://github.com/anthropics/claude-code/issues/2685 + +[^1_108]: https://www.youtube.com/watch?v=Phr7vBx9yFQ + +[^1_109]: https://www-cdn.anthropic.com/58284b19e702b49db9302d5b6f135ad8871e7658.pdf + +[^1_110]: https://www.reddit.com/r/ChatGPTCoding/comments/1o6f5g0/how_are_you_actually_using_coding_agents_in/ + + +--- + +# для чего тогда вообще нужны агенты? это тупиковая ветка или или есть какието кейсы где без них никак? + +Агенты точно не тупик, но это «тяжёлая техника», которая нужна сильно реже, чем её сейчас пытаются применять. [^2_1][^2_2] + +## Когда агенты реально нужны + +### 1. Длинные, многосессионные задачи + +Агенты полезны, когда работа длится часы/дни, разбита на сессии и должна **делать прогресс без тебя в цикле**. [^2_3][^2_4][^2_5] + +Примеры: + +- Большой рефакторинг/миграция (Next 12 → 15, Redux → Zustand и т.п.). +- Реализация десятков фич по длинному списку требований. +- Поддержка «долгоживущих» процессов: периодический анализ логов, чистка техдолга, автогенерация отчётов. + +Anthropic отдельно пишет про «long‑running agents» с initializer‑агентом и coding‑агентом, которые: + +- Ведут журнал прогресса. +- Работают фича‑за‑фичей. +- Обеспечивают чистое состояние репозитория в конце каждой сессии. [^2_3][^2_4][^2_5] + + +### 2. Автономная работа «поговорить + сделать» + +Из их whitepaper: агенты особенно полезны там, где нужно **и общаться, и действовать**, с понятным критерием успеха и фидбек‑лупом. [^2_6][^2_1][^2_2] + +Примеры: + +- Coding‑агенты, которые сами: + - Берут issue, планируют, правят код, гоняют тесты, пушат PR. + - Anthropic явно приводит этот сценарий как основной. [^2_2] +- Внешние домены: customer support, финансы, legal, где агент: + - Читает контекст (ticket/документы). + - Планирует шаги. + - Зовёт инструменты (CRM, БД, API). + - Спрашивает человека только на ревью‑точках. [^2_1] + + +### 3. Когда workflow слишком ветвистый для «if‑else» + +Если процесс: + +- Многошаговый. +- Ветвится по куче условий. +- Меняется со временем. + +То agent‑loop проще, чем вручную городить workflow‑движок. [^2_7][^2_8] + +Типичные примеры: + +- Диагностические системы (поиск корня проблемы по логам/метрикам). +- Research‑боты, которые итеративно ищут, фильтруют, агрегируют инфу. [^2_7] + + +## Когда тебе, как индивидуалу, агенты почти не нужны + +Anthropic сами говорят: «начинайте с простых LLM API/prompt‑ответ паттернов и только потом переходите к агентам, если этого **реально не хватает**». [^2_9][^2_1] + +Для одиночного dev’а на маленьком/среднем проекте: + +- Хороший `CLAUDE.md` + Skills + нормальная структура репы дают 80–90% эффекта. [^2_10][^2_11][^2_12] +- Агенты добавляют: + - Сложность в отладке и наблюдаемости. + - Риск «runaway изменений» по коду. [^2_13][^2_14][^2_15] + +Именно поэтому у тебя ощущение, что «не зашло» — это нормальный, здоровый сигнал: твои задачи пока **слишком локальные и управляемые**, чтобы оправдать весь оверхед агентности. [^2_16][^2_17] + +## Не тупик, а нишевая штука + +Anthropic в «Building Effective AI Agents» прямым текстом пишет: агент имеет смысл, когда: [^2_1][^2_2][^2_8] + +- Нужна **автономия** (агент сам решает следующий шаг). +- Есть **внешние действия** (инструменты/репо/CI, а не только текст). +- Есть **feedback‑сигнал** (тесты, валидация, бизнес‑метрикa). +- Есть **человеческий oversight** в ключевых точках. + +А для всего остального они сами пушат подход «один универсальный агент + библиотека Skills», а не зоопарк под‑агентов. [^2_18][^2_19][^2_1] + +## Если говорить конкретно для тебя + +Твой стек/режим работы (solo/lead, много фронта, быстрые итерации) — это почти идеальный кейс **без тяжёлых агентов**: + +- Делай упор на: + - `CLAUDE.md` для контекста проекта. [^2_11][^2_12] + - Skills для «ролей» (frontend, backend, дизайн‑система и т.п.). [^2_20][^2_21][^2_22] +- Агента имеет смысл заводить **точечно**, если ты хочешь: + - «Ночью гоняй PR‑бота», который сам берёт issues из GitHub и валит PR’ы под твой review. [^2_2][^2_23] + - Или «долгий refactor‑bot», который по чуть‑чуть вычищает конкретный слой (например, legacy API layer) с логом прогресса. [^2_3][^2_4] + +Все остальные сценарии, где ты сейчас пытаешься размазать роли на frontend/designer/backend‑агентов, проще и надёжнее закрываются Skills + грамотным контекстом, а не «настоящими» агентами. [^2_13][^2_18][^2_19] +[^2_24][^2_25][^2_26][^2_27][^2_28][^2_29][^2_30] + +
+ +[^2_1]: https://resources.anthropic.com/building-effective-ai-agents + +[^2_2]: https://www.anthropic.com/engineering/building-effective-agents + +[^2_3]: https://www.anthropic.com/engineering/effective-harnesses-for-long-running-agents + +[^2_4]: https://ht-x.com/en/posts/2025/11/effective-harnesses-for-long-running-agents-anthro/ + +[^2_5]: https://www.youtube.com/watch?v=s0Mx6gsWcTM + +[^2_6]: https://www.anthropic.com/research/building-effective-agents + +[^2_7]: https://research.aimultiple.com/building-ai-agents/ + +[^2_8]: https://www.scribd.com/document/811579416/Building-Effective-Agents-by-Anthropic + +[^2_9]: https://www.hkdca.com/wp-content/uploads/2025/02/how-to-build-effective-ai-agents-anthropic.pdf + +[^2_10]: https://www.reddit.com/r/ClaudeAI/comments/1mgfy4t/highly_effective_claudemd_for_large_codebasees/ + +[^2_11]: https://www.humanlayer.dev/blog/writing-a-good-claude-md + +[^2_12]: https://www.reddit.com/r/ClaudeAI/comments/1mw74t5/claudemd_is_a_super_power/ + +[^2_13]: https://crawshaw.io/blog/programming-with-agents + +[^2_14]: https://ericmjl.github.io/blog/2025/10/14/how-to-use-coding-agents-effectively/ + +[^2_15]: https://blog.fsck.com/2025/10/05/how-im-using-coding-agents-in-september-2025/ + +[^2_16]: https://www.reddit.com/r/ClaudeCode/comments/1mvbcnb/how_do_you_make_claude_code_or_other_ai_coding/ + +[^2_17]: https://www.understandingai.org/p/what-i-learned-trying-seven-coding + +[^2_18]: https://www.youtube.com/watch?v=CEvIs9y1uog + +[^2_19]: https://www.businessinsider.com/anthropic-researchers-ai-agent-skills-barry-zhang-mahesh-murag-2025-12 + +[^2_20]: https://claude.com/blog/skills-explained + +[^2_21]: https://www.eesel.ai/blog/skills-md-vs-agents-md + +[^2_22]: https://dev.to/nunc/claude-code-skills-vs-subagents-when-to-use-what-4d12 + +[^2_23]: https://www.index.dev/blog/ai-agents-for-coding + +[^2_24]: https://www.linkedin.com/pulse/building-effective-ai-agents-demystifying-anthropic-white-ajay-taneja-erprc + +[^2_25]: https://www.linkedin.com/posts/anthropicresearch_effective-harnesses-for-long-running-agents-activity-7399550329031180288-xR_w + +[^2_26]: https://www.youtube.com/watch?v=0v7TQIh_kes + +[^2_27]: https://www.anthropic.com/research + +[^2_28]: https://www.anthropic.com/engineering + +[^2_29]: https://www.jackmarchant.com/using-coding-agents-in-my-workflow-in-2025 + +[^2_30]: https://www.superblocks.com/blog/how-to-build-ai-agents-using-anthropics-claude-and-superblocks + + +--- + +# ок. но просто интересно как эту агентскую систему строить? выглядит как сложный кейс где нужен отдельный фреймворк. кто и как сетапит такую систему? + +Картинка такая: «агентская система» действительно ближе к отдельному фреймворку/инфраструктуре, и её обычно строят либо продуктовые команды, либо спец‑команды AI‑платформ внутри компаний, а не одиночные девы. [^3_1][^3_2] + +## Базовая архитектура агентской системы + +### 1. Не с агентов, а с workflows + +Anthropic в «Building Effective Agents» прямо говорит: сначала проектируют **workflow‑паттерн**, а уже потом оборачивают его в агента. [^3_1][^3_3][^3_2] + +Типовые кирпичи: + +- **Augmented LLM**: один Claude c: + - доступом к инструментам (HTTP, БД, git, shell, RAG и т.п.); + - хорошим промптом/контекст‑инженерингом. [^3_1][^3_4] +- **Workflow‑паттерны** (то, что многие по привычке называют «мульти‑агентной системой»): + - prompt chaining (пошаговый пайплайн); + - routing (роутинг задач к разным подсистемам); + - parallelization (параллельные ветки); + - orchestrator‑worker (центральный «координатор» + воркеры); + - evaluator‑optimizer (генератор + критик/ревьюер). [^3_5][^3_6][^3_7] + + +### 2. Orchestrator–worker как основной «мульти‑агент» паттерн + +В продакшене чаще всего используют схему: **один orchestrator + несколько workers**. [^3_5][^3_8][^3_9][^3_10] + +- **Orchestrator**: + - держит общий контекст: цель, ограничения, состояние мира; + - решает, какие шаги делать и кого звать; + - собирает/сводит результаты. [^3_5][^3_8] +- **Workers**: + - заточены под конкретную задачу: coding‑worker, research‑worker, data‑worker, support‑worker и т.п.; + - имеют свои tools и policy (например, только чтение репы vs право пушить). [^3_10] + +Важно: часто **все эти роли работают на одном и том же LLM**, разница только в промпте/инструментах, а не в «отдельных моделях». [^3_1][^3_10] + +## Кто это настраивает и как выглядит стек + +### 1. В Enterprise / продуктовых командах + +Там обычно есть: + +- **AI Platform / ML‑инфра команда**: + - поднимает «орchestrator‑layer» (LangChain, CrewAI, AutoGen, собственный фреймворк); [^3_11][^3_12][^3_13] + - настраивает доступ к Claude API, MCP‑сервакам, секретам, observability (логирование, трассировка, метрики). [^3_14][^3_4] +- **Продуктовые команды**: + - описывают бизнес‑workflows (онбординг, обработка тикетов, отчёты); + - формулируют роли/skills/tools. [^3_1][^3_2] + +Классический стек: + +- orchestrator на Python/TypeScript (LangChain / ai-sdk.dev / свой рантайм); [^3_9][^3_10][^3_15] +- Claude как LLM + tools (через Claude Agent SDK / MCP / свои HTTP‑инструменты); [^3_16][^3_4][^3_17] +- внешние системы: GitHub, Jira, CRM, Postgres, REST. [^3_17][^3_4] + + +### 2. В «интеграторах» / консалтинге + +Есть целые компании, которые специализируются на агентских системах на Claude (в тексте про Claude Agent SDK приводят SaaSNext как пример). [^3_17][^3_14] + +Что они делают: + +- берут домен (финансы, support, ops); +- проектируют паттерн (чаще orchestrator‑worker + evaluator‑optimizer); [^3_5][^3_8] +- пишут свои tools и Skills; +- вяжут всё с CI/CD, мониторингом, RBAC и audit‑логами. [^3_17][^3_14][^3_11] + +По факту — это уже отдельная платформа поверх Claude, а не «воткнули пару агентов в IDE». + +### 3. В open‑source / dev‑ориентированных проектах + +Тут популярны: + +- **anthropic‑cookbook** с примерами паттернов/агентов; [^3_15] +- AI SDK (Vercel/ai‑sdk.dev) с готовыми паттернами, включая orchestrator‑worker; [^3_9] +- оркестрационные фреймворки: LangChain, CrewAI, AutoGen, SuperAGI и т.п. [^3_11][^3_13][^3_10] + +Разработчик делает: + +- описывает роли как конфиг (YAML/TS/JSON); +- определяет список tools для каждой роли; +- пишет код orchestrator’а, который: + - создаёт sub‑agents, + - прокидывает им задачи, + - агрегирует ответы. [^3_9][^3_10] + + +## Как бы это выглядело в твоём кодерском контексте + +Представь, что ты **не** пытаешься «настроить агентов в VSCode», а делаешь отдельный сервис/CLI: + +1. **Orchestrator‑agent**: + - читает issue из GitHub/Jira; + - планирует работу (список шагов/подзадач); + - решает, кого звать: coding‑worker, docs‑worker, infra‑worker. [^3_5][^3_9] +2. **Coding‑worker** (Claude + tools): + - умеет: + - читать/писать файлы; + - запускать тесты; + - создавать ветку/PR. [^3_16][^3_17][^3_4] +3. **Docs‑worker**: + - обновляет README, ADR, changelog. [^3_5] +4. **Evaluator‑worker**: + - читает diff; + - проверяет против coding‑guidelines/CLAUDE.md; + - пишет summary/замечания. [^3_5][^3_3] + +Поверх всего: + +- Логирование действий всех агентов; +- Чекпоинты, где нужен human‑approval (например, перед merge). [^3_18][^3_14] + +Это уже не про «настроил трёх агентов в VSCode», а про **микросервис/CLI‑утилиту**, которую можно крутить в CI/CD или локально. + +## Почему так ощущается «как отдельный фреймворк» + +Потому что это и есть отдельный слой: + +- Нужны: + - state management (где живёт прогресс? файлы? БД? git‑ветка?); [^3_8][^3_10] + - observability (кто что сделал, где упали, почему принялось то или иное решение); [^3_14][^3_11] + - permissions и sandboxing для tools; [^3_17][^3_14] + - error‑handling и recovery (ретраи, fallback‑стратегии, эскалации человеку). [^3_8][^3_18] + +Anthropic в whitepaper честно пишет: **агент — это не фича, а система**. Поэтому они и советуют: +> «Начинайте с простых augmented LLM/workflows. Агентный слой имеет смысл только когда вы готовы в него инвестировать как в отдельный продукт.» [^3_1][^3_2] + +*** + +Если упрощать до практики лично для тебя: + +- Да, чтобы «правильно» строить многоролевую агентную систему, тебе **почти всегда нужен свой мини‑фреймворк/сервис**, а не только то, что есть в IDE. +- Делают это либо: + - продуктовые/платформенные команды; + - либо ты сам, но уже как отдельный internal‑tool/микросервис (CLI, bot, CI‑агент). +- Внутри — один из стандартных паттернов Anthropic (orchestrator‑worker, evaluator‑optimizer и т.п.) + Claude Agent SDK/AI‑SDK/LangChain в качестве клея. [^3_5][^3_9][^3_17][^3_10] + +Если хочешь, в следующем шаге можно прямо накидать скелет твоего «dev‑агента» под GitHub/monorepo в стиле orchestrator + coding‑worker на TS/Python. +[^3_19][^3_20][^3_21][^3_22] + +
+ +[^3_1]: https://resources.anthropic.com/building-effective-ai-agents + +[^3_2]: https://www.aihero.dev/building-effective-agents + +[^3_3]: https://www.anthropic.com/engineering/building-effective-agents + +[^3_4]: https://www.claude.com/blog/agent-capabilities-api + +[^3_5]: https://research.aimultiple.com/building-ai-agents/ + +[^3_6]: https://www.linkedin.com/posts/lewiswalkerai_anthropic-ai-agent-patterns-activity-7276642337752006656-CyLP + +[^3_7]: https://www.youtube.com/watch?v=AvB2TA79bsE + +[^3_8]: https://arize.com/blog/orchestrator-worker-agents-a-practical-comparison-of-common-agent-frameworks/ + +[^3_9]: https://ai-sdk.dev/docs/agents/workflows + +[^3_10]: https://dev.to/sohail-akbar/the-ultimate-guide-to-ai-agent-architectures-in-2025-2j1c + +[^3_11]: https://www.kubiya.ai/blog/ai-agent-orchestration-frameworks + +[^3_12]: https://akka.io/blog/ai-orchestration-tools + +[^3_13]: https://superagi.com/top-10-tools-for-building-and-managing-agent-orchestration-frameworks-in-2025/ + +[^3_14]: https://skywork.ai/blog/claude-agent-sdk-best-practices-ai-agents-2025/ + +[^3_15]: https://github.com/anthropics/anthropic-cookbook/tree/main/patterns/agents + +[^3_16]: https://www.anthropic.com/engineering/building-agents-with-the-claude-agent-sdk + +[^3_17]: https://artechway.com/blog/claude-agent-sdk-the-complete-developer-guide-to-building-powerful-autonomous-ai-agents-in-2025 + +[^3_18]: https://www.anthropic.com/engineering/effective-harnesses-for-long-running-agents + +[^3_19]: https://www.anthropic.com/news/building-effective-agents + +[^3_20]: https://www.youtube.com/watch?v=Pp3KIt5_gMg + +[^3_21]: https://www.claude.com/solutions/agents + +[^3_22]: https://www.linkedin.com/posts/rakeshgohel01_use-these-anthropic-workflows-to-build-better-activity-7315715769332297728-SQN2 + + +--- + +# да не, не надо + +лучше про skills расскажи +я пользуюсь vscode и claude code которого запускаю или прям во встроенном терминале либо в расшерении для клод +как тут обстоит дело с визуаоизацией, контролем, автоматическим выбором? +скиллы я сам создаю или беру готовые, настраивать и тюнить могу? +предположим у меня такие задачи и идеи описать из в какихто отдельных сущностях. до этого я бы использовал агентов, но ты убедил меня что это не подходит. итак + +фронтенд требования: определенный стиль создания компонентов, организации папок, требования к разделению на клиент и серверные компоненты. nextjs v 15 + +дизайн: +определенная дизан система и цветовая палитра, требования к дизайну и стилю. часто приходится создавать новые компоненты + +git: +нужно делать коммиты с соблюдением паттерна в сообщениях + +dev server: +нужно запускать и осианавливать девсервер, читать логи, проверять что страницы грузятся без ошибок + +Skills как раз отлично ложатся на твои четыре «сущности». Ниже – как это работает именно в связке VS Code + Claude Code. + +## Как работают Skills в Claude/VS Code + +- Skills — это **портативные «капсулы процедурных знаний»**: папки с `SKILL.md` (и опциональными скриптами), которые Claude может автоматически подгружать, когда задача совпадает с описанием skill’а. [^4_1][^4_2] +- **Автовыбор**: модель сама решает, активировать ли skill, по `name` и `description` в frontmatter и по содержимому `SKILL.md`. [^4_1][^4_2][^4_3] +- **Автоматическая работа в IDE**: Claude Code в VS Code использует те же Skills, что и веб/CLI/API, и подгружает их прозрачно, без явных команд типа `use skill X`. [^4_1][^4_4][^4_5] + +Визуализация пока слабоватая: явного списка «какие skills сейчас активны» в стандартном расширении нет; это обсуждают как недостающую фичу, но поведение подтверждают как рабочее и автоматическое. [^4_3][^4_6][^4_7] + +Ты можешь: + +- создавать свои skills; +- редактировать/тюнить любой skill; +- миксовать свои и готовые из репозиториев. [^4_8][^4_9][^4_3] + + +## Где лежат skills и как их видит Claude Code + +Типовой layout (упрощённо): + +```text +~/.claude/skills/ + frontend-next15/ + SKILL.md + design-system/ + SKILL.md + git-commits/ + SKILL.md + dev-server/ + SKILL.md +``` + +- Claude (включая Claude Code в VS Code) сканирует каталог skills и использует `name`/`description` для решения, когда их включать. [^4_1][^4_2][^4_5] +- В проекте можно делать и локальные skills, если хочешь жёстко привязать к репе (например, в `.claude/skills`), но глобальные в `~/.claude/skills` работают везде. [^4_6][^4_10] + + +## Как тебе оформить твои 4 области в Skills + +Ниже – черновая структура 4 skills под твои кейсы. Формат обобщён по примерам из best‑practices. [^4_3][^4_9] + +### 1. Skill: frontend + Next 15 + +`~/.claude/skills/frontend-next15/SKILL.md` + +```markdown +--- +name: frontend-next15 +description: > + Frontend development expert for this user's projects: + Next.js 15, React, strict separation of client/server components, + specific folder structure and component patterns. +tags: [frontend, nextjs, react, components] +--- + +## Purpose + +Help implement and refactor frontend code in Next.js 15 projects +following the user's conventions for: +- folder structure; +- component creation patterns; +- client/server component separation. + +## Tech context + +- Framework: Next.js 15 +- Language: TypeScript +- UI: React function components + +## Folder structure conventions + +[ОПИШИ здесь свою структуру: `app/`, `components/`, `features/` и т.д.] + +## Client vs server components + +[Чётко опиши правила, например: +- Server components по умолчанию. +- Client components только если нужен state/effects/interaction. +- Где можно/нельзя использовать hooks и browser API.] + +## Component style + +[Твои требования к: +- Props (shape, naming). +- Styling (Tailwind/SC/чистый CSS). +- Разбиение на presentational/logic components, и т.п.] + +## When to use this Skill + +Claude SHOULD use this Skill when: +- задача связана с фронтендом, React или Next.js страницами/route handlers; +- создаются или меняются UI‑компоненты; +- обсуждается структура папок или перенос/рефакторинг компонентов. +``` + +Ключевое: **жёстко и явно** сформулировать, когда skill должен применяться – Claude использует `description` и этот раздел, чтобы решить, подгружать ли его. [^4_3][^4_2] + +### 2. Skill: дизайн‑система и палитра + +`~/.claude/skills/design-system/SKILL.md` + +```markdown +--- +name: design-system-ui +description: > + Design system and visual style for this user's frontend projects: + color palette, typography, spacing, component styling rules. +tags: [design, ui, components, styling] +--- + +## Purpose + +Ensure all new and updated UI components follow the design system: +colors, typography, spacing, radius, shadows, and interaction states. + +## Color palette + +[Опиши точные токены/переменные, hex/rgba + как их использовать.] + +## Typography + +[Шрифты, размеры, scale, line-height, где какие уровни заголовков.] + +## Spacing & layout + +[Правила отступов, grid/flex паттерны, контейнеры и т.п.] + +## Component guidelines + +- Использовать существующие primitives/atoms, где возможно. +- Не дублировать уже существующие паттерны, а расширять их. +- Для новых компонентов: + - сначала описать API и state; + - потом предложить структуру/стили в рамках дизайн‑системы. + +## When to use this Skill + +Claude SHOULD use this Skill when: +- создаются новые UI‑компоненты; +- меняется внешний вид существующих; +- обсуждаются цвета, шрифты, отступы, визуальный стиль. +``` + +Если ты часто просишь «подскажи, как лучше сделать компонент в рамках дизайн‑системы», Claude начнёт автоматически подтягивать этот skill в таких промптах. [^4_1][^4_2][^4_3] + +### 3. Skill: git commits (commit message policy) + +`~/.claude/skills/git-commits/SKILL.md` + +```markdown +--- +name: git-commit-style +description: > + Enforce this user's git commit message convention and help + craft commit messages that follow it. +tags: [git, commits, workflow] +--- + +## Commit message convention + +[Опиши свой шаблон: Conventional Commits / свой формат, примеры good/bad.] + +Пример: +- `feat(frontend): add product card component` +- `fix(api): handle 401 error for profile endpoint` +- `chore: bump dependencies` + +## Rules + +- ВСЕ сообщения коммитов ДОЛЖНЫ следовать этому паттерну. +- Сообщение должно описывать intent, а не implementation details. +- Не использовать общие формулировки типа "fix", "update" без контекста. + +## How Claude should help + +Когда пользователь просит подготовить или отредактировать commit message: + +1. Прочитать diff/описание изменений. +2. Сформировать 1–3 варианта сообщения в требуемом формате. +3. Подчеркнуть, какие части диффа покрываются этим сообщением. + +## When to use this Skill + +Claude SHOULD use this Skill when: +- пользователь упоминает git, commit, PR, "commit message"; +- запрашивает формулировку или редактирование сообщения коммита; +- просит подготовить описание изменений для VCS. +``` + +Теперь, когда ты пишешь что‑то вроде «подготовь commit message для этого diff», Claude с высокой вероятностью активирует этот skill и будет придерживаться правил без постоянных напоминаний. [^4_3][^4_2][^4_9] + +### 4. Skill: dev server (run, stop, логи, проверки) + +`~/.claude/skills/dev-server/SKILL.md` + +```markdown +--- +name: dev-server-management +description: > + Help manage local dev server: start/stop, inspect logs, + and verify that key pages load without errors. +tags: [dev-server, logs, debugging] +--- + +## Environment assumptions + +[Опиши: +- npm/pnpm/yarn; +- команды запуска: `pnpm dev` / `npm run dev` / `turbo dev` и т.д.; +- на каком порту обычно крутится (например, http://localhost:3000).] + +## Allowed actions (when tools are available) + +When Claude has shell access (Claude Code in VS Code / CLI): + +- Запуск dev server: + - Проверить, не запущен ли уже. + - Если не запущен — выполнить [твоя команда]. +- Остановка dev server: + - Найти процесс (по команде/порту) и корректно завершить. +- Логи: + - Читать вывод dev server; + - Обнаруживать ошибки/stack traces; + - Предлагать гипотезы и следующие шаги. + +## Page health checks + +Когда пользователь просит проверить страницу: + +1. Убедиться, что dev server запущен. +2. Открыть URL (если есть соответствующий HTTP‑tool) ИЛИ + проанализировать ошибки в логах, относящиеся к маршруту. +3. Сообщить: + - грузится ли страница без runtime‑ошибок; + - есть ли 5xx/4xx; + - если есть ошибки, предложить plan их исправления. + +## When to use this Skill + +Claude SHOULD use this Skill when: +- пользователь говорит о dev server, "запусти/останови dev", "посмотри логи"; +- просит проверить, что страницы открываются без ошибок; +- упоминает команды `dev`/`start`/`build` для локального окружения. +``` + +Важно: чтобы skill действительно мог запускать/останавливать сервер, в Claude Code должны быть разрешены shell‑tools (и соответствующие MCP, если через них). Skill сам по себе только описывает **как** это делать. [^4_1][^4_2][^4_5] + +## Визуализация и контроль в VS Code + +Сейчас ситуация такая: + +- **Явного UI «список активных Skills» нет** в стандартном Claude Code extension; многие просят это как фичу. [^4_3][^4_6][^4_7] +- Тем не менее: + - Skills используются «под капотом» при генерации/редактировании кода и планов. [^4_1][^4_2][^4_5] + - В Plan Mode видно косвенно, что Claude следует правилам из Skills (структура, стиль, команды). [^4_11][^4_12] +- Есть сторонние надстройки (например, Workflow Studio для VS Code), которые пытаются нарисовать визуальные workflow‑диаграммы для Skills/Subagents/MCP, но это уже доп.расширение, не обязательное. [^4_13][^4_14] + +Для контроля: + +- Ты можешь **итеративно тюнить Skills**, как описано в best‑practices: + - Наблюдать поведение; + - Подкручивать формулировки (делать MUST/SHOULD более жёсткими); + - Упрощать иерархию, если Claude «теряется»; [^4_3] + - Разделять Skills, если один стал слишком большим и размытым. [^4_3][^4_6] +- Рекомендуемый Anthropic цикл: Claude A помогает писать/редактировать SKILL.md, Claude B потом работает под этим skill’ом в реальных задачах; по результатам ты снова правишь skill. [^4_3][^4_9] + + +## Как это использовать в твоём workflow + +1. Создаёшь 3–4 skills, как выше, кладёшь в `~/.claude/skills/`. +2. В проекте оставляешь `CLAUDE.md` для общей архитектуры/монорепы, но всё «как делать» — в Skills. [^4_1][^4_2][^4_6] +3. В VS Code: + - Работаешь либо через встроенный терминал `claude code`, либо через расширение — Skills будут одинаково доступны. [^4_12][^4_4][^4_15] + - В промптах говоришь по‑человечески («сделай компонент вот тут», «подготовь commit message», «запусти dev, посмотри, почему /dashboard падает»), **без ручного выбора агентов** — Claude сам будет подмешивать нужные skills. + +Если хочешь, на следующем шаге могу помочь прямо из твоего существующего CLAUDE.md вытащить куски и разложить их в 4 конкретных SKILL.md под твой текущий проект. +[^4_16][^4_17][^4_18][^4_19][^4_20][^4_21] + +
+ +[^4_1]: https://www.claude.com/blog/skills-explained + +[^4_2]: https://claude.com/blog/skills-explained + +[^4_3]: https://platform.claude.com/docs/en/agents-and-tools/agent-skills/best-practices + +[^4_4]: https://code.claude.com/docs/en/ide-integrations + +[^4_5]: https://platform.claude.com/docs/en/build-with-claude/skills-guide + +[^4_6]: https://www.reddit.com/r/ClaudeAI/comments/1pe37e3/claudemd_and_skills_experiment_whats_the_best_way/ + +[^4_7]: https://www.reddit.com/r/ClaudeAI/comments/1pooqgp/claude_code_cli_vs_vs_code_extension_am_i_missing/ + +[^4_8]: https://github.com/anthropics/skills + +[^4_9]: https://skywork.ai/blog/ai-agent/how-to-create-claude-skill-step-by-step-guide/ + +[^4_10]: https://www.xugj520.cn/en/archives/claude-skills-guide-prompts-projects-subagents-mcp.html + +[^4_11]: https://www.anthropic.com/news/enabling-claude-code-to-work-more-autonomously + +[^4_12]: https://code.claude.com/docs/en/vs-code + +[^4_13]: https://marketplace.visualstudio.com/items?itemName=breaking-brake.cc-wf-studio + +[^4_14]: https://github.com/andrepimenta/claude-code-chat + +[^4_15]: https://www.youtube.com/watch?v=m2xE5O81mSg + +[^4_16]: https://code.visualstudio.com/docs/copilot/customization/agent-skills + +[^4_17]: https://code.visualstudio.com/docs/copilot/customization/language-models + +[^4_18]: https://www.claudeskills.org/docs/agent-skills/best-practices + +[^4_19]: https://www.reddit.com/r/ClaudeAI/comments/1ow9cka/skills_explained_how_skills_compares_to_prompts/ + +[^4_20]: https://www.youtube.com/watch?v=n7iT5r0Sl_Y + +[^4_21]: https://www.youngleaders.tech/p/claude-skills-commands-subagents-plugins + + +--- + +# Можно ли использовать готовые Skills и где их искать + +Да, готовые Skills есть, и их уже довольно много. Использовать можно, плюс никто не мешает форкать и допиливать под себя. + +## Где брать готовые Skills + +Основные источники: + +- **Официальный репозиторий Anthropic**: +`github.com/anthropics/skills` — примерные skills от команды Claude (docx/pdf/xlsx/pptx, web‑testing, mcp‑builder, skill‑creator и т.д.). [^5_1][^5_2] +- **Кьюрированные подборки:** + - `awesome-claude-skills` — curated список реп и отдельных skills. [^5_3][^5_4] + - `claude-skills-collection` — большая коллекция официальных + community skills с категориями. [^5_5] +- **Публичные каталоги:** + - skillsmp.com — поиск по 2000+ skills, предпросмотр `SKILL.md`, быстрый ZIP‑download и CLI‑установка для Claude Code. [^5_6] + +Плюс можно искать по GitHub topic `claude-skills`. [^5_7] + +## Как использовать и настраивать в Claude Code / VS Code + +Claude Code официально поддерживает и личные, и проектные Skills: [^5_8] + +- **Личные (глобальные)** — доступны во всех проектах: + - путь: `~/.claude/skills//SKILL.md` +- **Проектные** — только внутри конкретной репы: + - путь: `.claude/skills//SKILL.md` + +Процесс такой: + +1. Нашёл skill (например, `webapp-testing` или `git-commit-style`) в одном из репозиториев. [^5_1][^5_5][^5_9] +2. Скопировал папку skill’а к себе в: + - `~/.claude/skills/` **или** в `/.claude/skills/`. [^5_8][^5_10] +3. Перезапустил Claude Code / сессию, после чего skill становится видимым и может автоматически грузиться. [^5_8][^5_11] + +Дальше: + +- Ты **можешь редактировать SKILL.md**, менять правила, добавлять свои примеры. Это официально поддерживаемый сценарий. [^5_12][^5_8] +- Claude использует `name` + `description` и контент SKILL.md, чтобы решать, когда именно подгружать этот skill. [^5_12][^5_13] + +Если хочешь, можно взять, например, готовый skill для web‑тестирования или git‑workflow из репозитория Anthropics/skills и просто адаптировать его под свои фронтовые/Next 15/commit‑правила, вместо того чтобы писать с нуля. [^5_1][^5_5][^5_2] +[^5_14][^5_15][^5_16][^5_17][^5_18][^5_19][^5_20][^5_21] + +
+ +[^5_1]: https://github.com/anthropics/skills + +[^5_2]: https://joshuaberkowitz.us/blog/github-repos-8/teaching-ai-agents-real-world-skills-anthropic-s-revolutionary-skills-framework-1773 + +[^5_3]: https://github.com/travisvn/awesome-claude-skills + +[^5_4]: https://github.com/VoltAgent/awesome-claude-skills + +[^5_5]: https://github.com/abubakarsiddik31/claude-skills-collection + +[^5_6]: https://www.reddit.com/r/ClaudeAI/comments/1on1wj7/ive_collected_2300_claude_skills_into_a/ + +[^5_7]: https://github.com/topics/claude-skills + +[^5_8]: https://code.claude.com/docs/en/skills + +[^5_9]: https://github.com/numman-ali/openskills + +[^5_10]: https://opencode.ai/docs/skills/ + +[^5_11]: https://github.com/alirezarezvani/claude-code-skill-factory + +[^5_12]: https://platform.claude.com/docs/en/agents-and-tools/agent-skills/best-practices + +[^5_13]: https://platform.claude.com/docs/en/agents-and-tools/agent-skills/overview + +[^5_14]: https://www.reddit.com/r/ClaudeCode/comments/1oa1ymh/i_built_a_public_directory_of_all_claude_ai/ + +[^5_15]: https://github.com/simonw/claude-skills + +[^5_16]: https://www.linkedin.com/posts/asimx07_github-anthropicsskills-public-repository-activity-7392189313666527233-MsJJ + +[^5_17]: https://tiberriver256.github.io/ai and technology/skills-catalog-part-1-indexing-ai-context/ + +[^5_18]: https://www.thepexcel.com/claude-skills/ + +[^5_19]: https://github.com/anthropics + +[^5_20]: https://www.youtube.com/watch?v=vqHBfe3r4OQ + +[^5_21]: https://claudeskillshub.org + + +--- + +# как сейчас решают проблему с постановкой задач для claude code? я постоянно сталикваюсь на проектах с такими ситуациями: + +- во время работы над одной задачей вдруг появляется дополнительное требование которое нужно сделать в отдельной таске. но не хочется вприхивать это в план текущей задачи, поэтому приходится запоминать это и держать в голове +- некоторые задачи большие достаточно. я всегда исполльзую plan mode. однако часто бывает, что когда делаем определеннную фазу в плане - уходим глубоко в только эту часть и для нее нужно составлять новый более детальный план и итерировать несколлько раз. в итоге основной главный план теряется +- делаю ресеч в Claude Desktop предварительно прежде чем начать имплементировать это уже в коде с Claude code. Обычно результатом появляется список требований и способ имплементации. Приходится просить Claude Desktop сохранить это как MD файл в проект. А потом говорить Claude Code в начале новой сесиии - прочитай таску в файле... Еще усугубляется если результатом ресеча становится несколько идей которые нужно реализовать, но в разное время. Приходится думать где сохранять описание тасок к которым приду потом позже, через месяц. +- бывает просто пока делаю одну задачу - вижу место где можно что-то улучшить. Но это но нужно добавить в "бэклог" а не делать прямо сейчас. +- какие-то домены проекта имеют общую логику но раскиданны по разным папкам и файлам. Они разрабатываются в течение 3х - 5 месяцев и может больше. Обычно я сооздаю под них Claude.md файл локально в какой-то папке и там описываю постановку задачи, архитектуру и связанные файлы. Затем туда помещаю план разработки (глобальный, положим там 10 задач на 2 месяца). Затем когда что-то конкретное нужно сделать говорю Claude Code - прочитай этот файл, найди соотвествующий код, пойми текущий статус. Проблема с этим подходом, что файл быстро устаревает по мере прогресса. Особенно если отходим от начального плана. Этот файл лежит в одном месте, но связанные фичи лежат в разных других папках. Какие-то задачи положим уже сделанны и по ходу приняты какие-то решения или соглашения по дальнейшей разработке. Но начиная новую сессию - у Клода нет этой информации, приходится или писать ему или постоянно обновлять Claude.md файл. В идеале было бы если бы клод мог посмотреть все сделанные таски по данному эпику например и прочесть принятые решения в логах задач или в отдельной доке, которая пополняется (но проще мне кажется просто в задаче писать когда она готова, что теперь делаем так) + +У нас есть простой таск менеджер в команде (мы просто ведем список задач в Slack), на других проектах бывает Jira или Trello - но это все для людей. А хотелось бы иметь какой-то простой способ иметь список задач для проекта в максимально удобной для AI форме с возможностью команд - "добавь задачу в трэкер", " + +Отлично — ты описал именно то, что сейчас решают в сообществе. Это **не официальная best-practice** от Anthropic, но уже есть кристаллизовавшиеся паттерны, и они хорошо работают. + +## Архитектура для управления задачами в долгих проектах + +Вот система, которую рекомендуют опытные разработчики: это комбо из 3–4 артефактов в проекте, которые работают вместе. + +### 1. **ROADMAP.md** — живой план проекта[^6_1] + +Основная идея: **один файл, который Claude сам обновляет по ходу работы**. + +```markdown +# Project Roadmap + +## High Priority +- [ ] **Task Name** - Description +- [-] **In Progress Task** - Description 🏗️ 2026/01/05 +- [x] **Completed Task** - Description ✅ 2026/01/04 + +## Medium Priority +- [ ] Task 2 + +## Low Priority +- [ ] Tech debt item + +## Recently Completed (Archive) +- [x] Task ✅ 2026/01/01 +``` + +**Как это работает:** + +- Первое, что Claude делает в новой сессии — читает ROADMAP.md.[^6_1] +- По ходу работы он сам обновляет чекбоксы и даты. +- Когда завершена фаза — item переходит в "Recently Completed". +- В CLAUDE.md ты пишешь инструкцию: "Always check ROADMAP.md first at the start of any session."[^6_1] + +**Преимущества:** + +- Контекст не теряется между сессиями. +- Отслеживаемый прогресс. +- Claude сам оркеструет приоритеты. + +Это решает твою проблему с тем, что большой план теряется при погружении в фазу. ROADMAP остаётся **живым документом** всегда.[^6_1] + +*** + +### 2. **ADR (Architecture Decision Records)** — почему, а не что[^6_2][^6_3][^6_4][^6_5] + +Когда ты разрабатываешь фичу 3–5 месяцев и принимаешь решения по пути (меняешь подход, выбираешь между вариантами) — эти решения **нужно записывать, пока контекст горячий**. + +Структура ADR проста: + +```text +docs/adr/ +├── 001-use-server-components-for-data-fetching.md +├── 002-adopt-zod-for-validation.md +└── 003-why-we-separated-ui-and-logic-layers.md +``` + +Каждый файл содержит: + +```markdown +# ADR-001: Use Server Components for Data Fetching + +**Status**: Adopted | Proposed | Superseded + +**Date**: 2025-01-05 + +**Context** +We needed a way to fetch product data without N+1 queries... + +**Decision** +Use Next.js 15 Server Components for all data-heavy pages. + +**Rationale** +- Eliminates client-side data fetching overhead +- Keeps secrets server-side +- Reduces bundle size + +**Consequences** +- Harder to debug in browser +- Requires understanding of async components +- Migration path needed for old pages + +**Alternatives Considered** +- React Query with ISR +- Hybrid approach +``` + +**Как Claude помогает:** + +- Ты в конце сессии просишь: "Create an ADR for the decision we just made about folder structure." +- Claude сканирует diff, понимает решение и пишет ADR.[^6_3][^6_5] +- В следующий раз, когда новая задача касается этого домена, Claude читает ADR и знает **почему** это так, а не просто видит код. + +Это решает проблему: "какие-то решения приняты, но новая сессия о них не знает". ADR это фиксит.[^6_3] + +*** + +### 3. **TASKS.json или Trello/Jira для отслеживания мелких таск (опционально)**[^6_6] + +Для inline-задач (найденных по ходу): можно держать JSON или привязать к Trello/TaskWarrior. + +```json +{ + "tasks": [ + { + "id": 1, + "title": "Fix broken link in docs", + "domain": "frontend", + "status": "backlog", + "priority": "low", + "context": "Found while working on hero component" + }, + { + "id": 2, + "title": "Refactor auth module", + "domain": "backend", + "status": "backlog", + "priority": "medium" + } + ] +} +``` + +**Как это помогает:** + +- Когда в процессе работы видишь улучшение → говоришь Claude: "Add task: 'Refactor X' to TASKS.json with priority low." +- Claude не отвлекается, просто добавляет в JSON. +- Потом ты или Claude можешь бросить взгляд на TASKS.json и выбрать, что делать дальше.[^6_7][^6_6] + +*** + +### 4. **Глобальный CLAUDE.md с инструкциями по workflow**[^6_8][^6_1] + +```markdown +# Project Context + +## Roadmap Management +**IMPORTANT**: Always check ROADMAP.md first at session start. + +When completing a task: +1. Update checkbox status +2. Add timestamp (use `date "+%Y/%m/%d"`) +3. Move completed item to "Recently Completed" section if phase is done + +## Architecture Decisions +When you make significant decisions (folder structure, tech choices, patterns): +1. Create or update an ADR in docs/adr/ +2. Reference it in code comments if relevant + +## Inline Tasks +If you discover something that should be done but isn't part of current task: +- Don't interrupt current work +- Add to TASKS.json with status "backlog" + +## Task Execution Pattern +1. Read ROADMAP.md +2. Pick high-priority task +3. Read relevant ADRs for context +4. Create detailed plan (phases.md or inline in Plan Mode) +5. Execute, testing frequently +6. Update ROADMAP and create ADR if needed +7. Commit with conventional message +``` + + +*** + +## Как это применить к твоим 4 доменам (frontend, design, git, dev-server) + +### Домен: Frontend + Design System + Git + +**ROADMAP.md структура:** + +```markdown +## Frontend: Next 15 Components System (3-month epic) + +### Phase 1: Foundation (60% done) +- [x] Set up component folder structure ✅ 2026/01/01 +- [x] Create Button, Input primitives ✅ 2026/01/02 +- [-] Build Modal compound component 🏗️ 2026/01/05 + +### Phase 2: Forms (Backlog) +- [ ] Form validation with Zod +- [ ] Complex multi-step forms + +### Architecture Decisions +See: docs/adr/001-server-client-separation.md + +### Design System Decisions +See: docs/adr/002-color-token-structure.md +``` + +**ADRs:** + +``` +docs/adr/ +├── 001-server-components-for-data.md +├── 002-client-components-for-interactivity.md +├── 003-why-folder-structure-is-app/features/ComponentName. +└── 004-design-token-palette-and-naming.md +``` + +Теперь, когда Claude стартует в следующую сессию и видит "Нужно сделать Modal", он: + +1. Читает ROADMAP → понимает, что это Phase 1. +2. Читает ADR-001 и ADR-002 → понимает, когда server vs client. +3. Читает ADR-003 → знает структуру папок. +4. Читает ADR-004 → знает цветовую палитру и именование. +5. Начинает работу с полным контекстом.[^6_3][^6_1] + +*** + +### Домен: Git commits + +**Отдельный ADR:** + +```markdown +# ADR-005: Commit Message Convention + +**Decision**: Use Conventional Commits + +**Rules**: +- feat(scope): description +- fix(scope): description +- chore: description + +**Examples**: +- feat(frontend): add modal component +- fix(api): handle 401 error +``` + +Теперь, когда ты просишь "prepare commit message", Claude читает этот ADR и делает правильно.[^6_9][^6_8] + +*** + +### Домен: Dev Server + +**В CLAUDE.md:** + +```markdown +## Dev Server Management + +When asked to run dev server: +1. Check if already running on port 3000 +2. If not, run: `pnpm dev` +3. Wait for "ready - started server on 0.0.0.0:3000" +4. Report back with timestamp + +When asked to check page health: +1. Start server if needed +2. Look at logs for errors +3. Report: "Page /dashboard loaded successfully" or describe error +``` + +Это просто инструкция в CLAUDE.md; отдельного ADR может не быть, так как это operational knowledge, не архитектурное решение.[^6_8] + +*** + +## Поток для исследовательских задач + +Твоя проблема: "Делаю research в Claude Desktop → много идей → нужно сохранить".[^6_7] + +**Решение:** + +1. Делаешь research в Claude Desktop. +2. В конце просишь: "Create a TASK-.md file with these ideas and their dependencies." +3. Получаешь структурированный файл с разбиением на таски: +```markdown +# Research: Payment Integration Ideas + +## Task 1: Stripe Setup (Do first) +- Description +- Dependencies: None +- Effort: 2 hours +- File: TASKS/payment-task-1.md + +## Task 2: Error Handling (After Task 1) +- Description +- Dependencies: Task 1 +- Effort: 4 hours +- File: TASKS/payment-task-2.md + +## Task 3: Webhooks (After Task 2) +- Description +- Dependencies: Task 2 +- Effort: 6 hours +- File: TASKS/payment-task-3.md +``` + +Положил в `TASKS/` папку. Потом в ROADMAP добавляешь ссылку на эту серию.[^6_7] + +Когда вернёшься через месяц, твой CLAUDE.md говорит Claude: "Check ROADMAP first", а в ROADMAP ссылка на серию Task'ов. Контекст не потеряется.[^6_1] + +*** + +## Инструмент: TodoRead/TodoWrite в Claude Code + +В Claude Code есть встроенные tools `TodoRead` и `TodoWrite`. Они создают локальный список дел, который Claude видит и обновляет.[^6_10] + +Это не замена ROADMAP/ADRs, но **дополнение** для текущей сессии: shows Claude's work plan and enables mid-task steering.[^6_10] + +*** + +## Почему это работает лучше, чем агенты + +- **ROADMAP** = глобальная карта (вместо того чтобы держать в голове). +- **ADRs** = объяснения решений (Claude не спрашивает "почему так", он знает). +- **TASKS.json** = inbox для новых идей (не прерывает текущую работу). +- **CLAUDE.md** = инструкции по workflow (Claude следует паттернам без напоминаний). + +Всё это **простая структура файлов**, которую Claude может читать и обновлять. Никаких агентов. Никаких координаторов. Просто жёсткий контекст.[^6_8][^6_3][^6_1] + +*** + +## Быстрый стартовый набор для твоего проекта + +Создай в корне: + +``` +. +├── CLAUDE.md (твой текущий) +├── ROADMAP.md (NEW - живой план) +├── docs/ +│ └── adr/ (NEW - решения) +│ ├── 001-server-components.md +│ ├── 002-folder-structure.md +│ └── 003-commit-convention.md +├── TASKS.json (NEW - inbox для новых идей) +└── TASKS/ (NEW - детальные исследования) + └── payment-research.md (пример) +``` + +**В CLAUDE.md добавь сверху:** + +```markdown +## Session Start Protocol + +1. **Always read ROADMAP.md first** to understand priorities and progress +2. **Check relevant ADRs** in docs/adr/ for architectural context +3. **Review TASKS.json** for any pending backlog items +4. Use Plan Mode for any task > 30 minutes +5. At end of session: update ROADMAP, create/update ADRs if decisions made + +[Rest of your CLAUDE.md...] +``` + +Этого достаточно. Claude сразу начнёт читать ROADMAP, следить за ADRs, и твой контекст не будет теряться.[^6_8][^6_1] +[^6_11][^6_12][^6_13][^6_14][^6_15][^6_16][^6_17][^6_18][^6_19][^6_20] + +
+ +[^6_1]: https://benenewton.com/blog/claude-code-roadmap-management + +[^6_2]: https://www.reddit.com/r/ClaudeAI/comments/1ljv2kz/tips_for_developing_large_projects_with_claude/ + +[^6_3]: https://adolfi.dev/blog/ai-generated-adr/ + +[^6_4]: https://blog.makerx.com.au/architecture-decision-records-how-we-make-better-technical-choices-at-makerx/ + +[^6_5]: https://www.youtube.com/watch?v=vyKG6nNixeU + +[^6_6]: https://www.reddit.com/r/ClaudeAI/comments/1l8341h/how_do_you_manage_tasks_in_claude_code/ + +[^6_7]: https://www.reddit.com/r/ClaudeAI/comments/1ofatji/how_do_you_organizekeep_track_of_big_projectstasks/ + +[^6_8]: https://www.sidetool.co/post/how-to-automate-tasks-with-claude-code-workflow-for-developers/ + +[^6_9]: https://www.reddit.com/r/ClaudeAI/comments/1kti4w2/simone_a_project_task_management_system_for/ + +[^6_10]: https://claudelog.com/faqs/what-is-todo-list-in-claude-code/ + +[^6_11]: https://smartscope.blog/en/generative-ai/claude/claude-code-task-management-best-practices/ + +[^6_12]: https://www.eesel.ai/blog/common-workflows-claude-code + +[^6_13]: https://www.salesforce.com/blog/architectural-decisions-human-led-ai-powered-approach/ + +[^6_14]: https://www.reddit.com/r/ClaudeAI/comments/1mhgskk/claude_code_workflow_thats_been_working_well_for/ + +[^6_15]: https://www.youtube.com/watch?v=4jD69eHZK8Y + +[^6_16]: https://code.claude.com/docs/en/common-workflows + +[^6_17]: https://gist.github.com/Faolain/187ec8ce261c634c6d1dda9a38f07457 + +[^6_18]: https://gist.github.com/joshrotenberg/a3ffd160f161c98a61c739392e953764 + +[^6_19]: https://www.anthropic.com/engineering/claude-code-best-practices + +[^6_20]: https://www.reddit.com/r/ClaudeAI/comments/1kt5yo5/claude_code_adding_use_a_todo_list_and_solve/ + + +--- + +# хм... я уже пробовал что-то подобное, но проблема у меня была в том, что клод код постоянно забывал обновлять файлы. это сильно бесило. приходилось после каждого пункта говорить ему - иди обнови доку. + +возможно это было летом. но я намучился и перестал это делать. плюс мое отличие что у нас проект достаточно крупный и одного roadmap не достаточно - нужно по нескольким направлениям держать свой собственный и соответсвенно клод при старте сессии должен понимать что именно смотреть и обновлять. короче все равно много ручной рутины. и это при том, что в целом клод очень не плохо умеет описывать задачи и суммаризировать решения. как будето ему не хватает какого-то менеджера или MCP для более простой работы (чтоб не тратить токены и время на чтение и изменение файлов а просто чтоб он мог взять список задач, сказать что задача готова и дать репорт) +есть ли что-то такое? + +Ура! Да, это как раз то, что тебе нужно. И ты совершенно прав — это именно MCP + task-manager система. + +## MCP для task management уже есть + +Есть несколько готовых решений, которые как раз решают твою проблему: Claude забывает обновлять документы, теряет контекст между сессиями, и тратит токены на чтение/запись файлов.[^7_1][^7_2] + +### 1. **ProjectHub-MCP** (самое полнофункциональное) + +Это то, что создал разработчик специально для этой проблемы.[^7_2] + +**Что оно делает:** + +- Claude может добавлять/обновлять задачи, менять статусы через простые команды, **без чтения/записи файлов**. +- Хранит всё в PostgreSQL (или другой БД), не в markdown. +- Создаёт progress-репорты автоматически. +- Синхронизирует с git (видит твои commits и обновляет task status). +- Поддерживает **17+ MCP servers** одновременно. +- Есть простой UI dashboard. + +**Установка:** + +```bash +git clone https://github.com/anissb/ProjectHub-Mcp +docker-compose up -d # Всё, development ready +``` + +Потом в твоём `.claude/config.json` (или `.mcp.json`) добавляешь: + +```json +{ + "mcpServers": { + "projecthub": { + "command": "node", + "args": ["path/to/ProjectHub-Mcp/server.js"] + } + } +} +``` + +**Как работает с Claude Code:** + +``` +Ты: "Я начинаю auth-refactor, это высокий приоритет" + +Claude: +1. Создаёт task: { id: 42, title: "auth-refactor", status: "in-progress", priority: "high" } +2. Начинает time-tracking (Pomodoro, если нужен) +3. Работает над кодом + +Ты: "Готово, создай progress-report" + +Claude: +1. Достаёт все completed tasks этой сессии из БД +2. Смотрит твои commits (синхронизирует автоматически) +3. Генерирует report: "Completed: auth-refactor (4h 22m). Bugs found: 3 (all fixed). Tests: 42/42 passing" + +Ты: "Добавь task: 'Optimize login flow' в backlog" + +Claude: ✓ Добавлено в БД, priority: medium, domain: backend +``` + +**Преимущество:** Только **простая команда** → Claude делает, не тратя токены на чтение/запись файлов.[^7_2] + +*** + +### 2. **TaskManager MCP** (минималистичный, просто работает) + +Более простой, но очень эффективный: MCP server с queue-based таск-системой.[^7_3][^7_4][^7_5] + +**Установка:** + +```bash +npm install @kazuph/mcp-taskmanager + +# Или в claude_desktop_config.json: +"mcpServers": { + "taskmanager": { + "command": "npx", + "args": ["-y", "@kazuph/mcp-taskmanager"] + } +} +``` + +**Как использовать:** + +``` +Ты: "План для frontend-epic: +- Task 1: Setup Design System +- Task 2: Create Button component +- Task 3: Integrate with form +" + +Claude: Creates queue and executes sequentially... + +Ты: "Mark task 1 as complete, what's next?" + +Claude: "Task 1 ✓ completed. Next: Task 2: Create Button component. Here's the plan..." + +Ты: "Create progress report" + +Claude: "✓ 1/3 tasks done. Estimated time remaining: 6h. Completed: Design system setup..." +``` + +**Минус:** Меньше фич, чем ProjectHub. **Плюс:** Простейшая установка, никакой БД.[^7_4][^7_5][^7_3] + +*** + +### 3. **claude-task-master** (для Cursor/AI-driven development) + +Парсит PRD-документы, автогенерирует задачи, управляет приоритизацией.[^7_6][^7_7] + +Подойдёт, если ты часто работаешь с продуктовыми требованиями и хочешь автоматически генерировать задачи из них.[^7_6] + +*** + +## Что выбрать именно для твоего кейса + +Твоя проблема: + +- **Несколько домен/эпиков**, каждый со своим roadmap. +- **Claude забывает обновлять**, нужна автоматическая система. +- **Нужны простые команды**, без ручного чтения/обновления файлов. +- **Долгие проекты** (3–5 месяцев), нужны decision-логи и синхронизация с git. + +**Рекомендация: ProjectHub-MCP**[^7_2] + +Почему: + +1. **Multi-domain support:** можно держать несколько эпиков / roadmap'ов параллельно. +2. **Автоматическая синхронизация с git:** Claude видит твои commits и сам обновляет task-статус. +3. **ADR/decision-трекинг:** есть встроенная система для логирования решений (как раз то, что тебе нужно). +4. **Нет файлов:** всё в БД, Claude не тратит токены на markdown-файлы. +5. **UI dashboard:** можно посмотреть прогресс не выходя из VS Code (браузер). +6. **Остаётся читаемым:** если потребуется, можно экспортировать в markdown для документации/отчёта.[^7_2] + +*** + +## Быстрая работа + +После установки ProjectHub: + +``` +Сессия 1 (День 1): +Ты: "New epic: 'Build Payment System'. Tasks: +1. Stripe integration +2. Error handling +3. Webhook processing +Priorities: 1=high, 2=medium, 3=medium" + +Claude: ✓ Эпик создан, tasks in queue + +--- Ночь, две недели прошло --- + +Сессия 17 (День 15): +Ты: "Resume Payment System epic. What's our status?" + +Claude: +"✓ Epic: Build Payment System +- Task 1: Stripe integration [COMPLETED 2026/01/05] +- Task 2: Error handling [IN PROGRESS 🏗️] +- Task 3: Webhook processing [BACKLOG] + +Since last session (14 days): +- 12 commits related to payment +- 3 ADRs recorded: + - ADR-1: Why we chose Stripe over PayPal + - ADR-2: Error handling strategy (sync vs async) + - ADR-3: Webhook validation approach + +New blocker found? +Decisions made? +Continue Task 2 or want to review decisions?" +``` + +Никаких потерянных планов. Никаких забытых файлов. Claude автоматически видит контекст через MCP.[^7_2] + +*** + +## Как организовать 4 твои домена + +В ProjectHub можно делать: + +``` +domains/ +├── frontend-next15/ +│ ├── epic: "Next.js 15 Components System" +│ ├── tasks: [task1, task2, task3...] +│ ├── adrs: [adr-001-server-components, adr-002-folder-structure] +│ └── domain-skill-link: `~/.claude/skills/frontend-next15/` +│ +├── design-system/ +│ ├── epic: "Design System & Tokens" +│ ├── tasks: [task1, task2...] +│ └── adrs: [adr-001-token-structure] +│ +├── git-workflow/ +│ ├── epic: "Commit & PR automation" +│ └── adrs: [adr-001-conventional-commits] +│ +└── dev-server/ + ├── epic: "Dev environment setup & health checks" + └── adrs: [adr-001-port-3000-setup] +``` + +Claude видит все эпики, знает приоритеты, и когда ты говоришь "start frontend task \#3", он: + +1. Читает task-описание из БД (не файла). +2. Загружает соответствующий ADR из БД (не файла). +3. Подгружает skill `frontend-next15` автоматически (потому что привязан к домену). +4. Начинает работу с полным контекстом, без токен-траты на файловые операции.[^7_2] + +*** + +## Установка: пошагово для твоего кейса + +1. **Клонируешь ProjectHub:** +```bash +git clone https://github.com/anissb/ProjectHub-Mcp ~/ProjectHub-Mcp +cd ~/ProjectHub-Mcp +docker-compose up -d +``` + +2. **Добавляешь в Claude Code** (`.mcp.json` в корне проекта): +```json +{ + "mcpServers": { + "projecthub": { + "command": "node", + "args": ["/path/to/ProjectHub-Mcp/server.js"], + "env": { + "DATABASE_URL": "postgresql://user:pass@localhost:5432/projecthub", + "API_PORT": "3001" + } + } + } +} +``` + +3. **В CLAUDE.md добавляешь:** +```markdown +## Task Management via ProjectHub MCP + +Available commands: +- "Add task: [description] to [domain] with priority [high/medium/low]" +- "Mark task [id] as complete" +- "Show status of [domain] epic" +- "Create progress report" +- "Record decision: [ADR description]" + +Always: +1. Check epic status at session start +2. Create ADR when making architecture decisions +3. Update task status when done + +Domains: frontend-next15, design-system, git-workflow, dev-server +``` + +4. **Перезапускаешь Claude Code** — готово. MCP подхватится, и теперь ты можешь: +``` +Ты: "What tasks are pending in frontend-next15?" +Claude: [Читает из ProjectHub БД, не из файлов] + +Ты: "I finished the Modal component, mark task #7 as done and create an ADR about its implementation" +Claude: ✓ Task #7 → complete + ✓ ADR created +``` + +Никаких забытых обновлений. Контекст сохраняется.[^7_2] + +*** + +Это то, что тебе нужно. ProjectHub есть именно для таких случаев: долгие проекты с несколькими эпиками, где Claude постоянно забывает обновлять, и нужна система, которая **делает это за него через инструменты MCP, а не файлы**.[^7_2] +[^7_10][^7_11][^7_12][^7_13][^7_14][^7_15][^7_16][^7_17][^7_18][^7_19][^7_20][^7_8][^7_9] + +
+ +[^7_1]: https://code.claude.com/docs/en/mcp + +[^7_2]: https://www.reddit.com/r/ClaudeCode/comments/1lc97jo/built_a_project_management_mcp_server_for_claude/ + +[^7_3]: https://mcpmarket.com/server/taskmanager + +[^7_4]: https://playbooks.com/mcp/kazuph-taskmanager + +[^7_5]: https://github.com/kazuph/mcp-taskmanager + +[^7_6]: https://mcpdb.org/mcps/claude-task-master + +[^7_7]: https://github.com/eyaltoledano/claude-task-master + +[^7_8]: https://www.gend.co/blog/claude-skills-mcp-workflow-management + +[^7_9]: https://www.docker.com/blog/add-mcp-servers-to-claude-code-with-mcp-toolkit/ + +[^7_10]: https://skywork.ai/blog/ai-agent/claude-desktop-ai-workflows-2025/ + +[^7_11]: https://mcpcat.io/guides/adding-an-mcp-server-to-claude-code/ + +[^7_12]: https://generect.com/blog/claude-mcp/ + +[^7_13]: https://mcpcat.io/guides/best-mcp-servers-for-claude-code/ + +[^7_14]: https://lobehub.com/mcp/louis-adriano-task-manager-mcpserver + +[^7_15]: https://mcpservers.org/servers/yudppp/claude-code-history-mcp + +[^7_16]: https://www.anthropic.com/engineering/advanced-tool-use + +[^7_17]: https://apidog.com/blog/top-10-mcp-servers-for-claude-code/ + +[^7_18]: https://scottspence.com/posts/configuring-mcp-tools-in-claude-code + +[^7_19]: https://dev.to/svenlito/building-a-task-management-system-with-claude-code-mkc + +[^7_20]: https://www.youtube.com/watch?v=DfWHX7kszQI +