Локальный аналог Cursor AI: VS Code + Roo Code | Vibecoder School | Реакция Иванова
О чём это видео
Разбор посвящён бесплатной альтернативе Cursor AI на базе VS Code с двумя расширениями: Continue и Roo Code. Связка решает основные задачи нейросетевого редактора кода без подписки за 20 долларов в месяц: автокомплит, чат, агентный режим и работу с проектом через контекст. Continue предлагается использовать для автодополнения и простых правок кода, а Roo Code — для чата, режимов вопросов и программирования, глобальных и проектных инструкций, а также подключения MCP-серверов. Отдельно показан локальный запуск моделей через Ollama, включая DeepSeek R1, и локальная индексация кодовой базы через embedding-модель и векторную БД Qdrant в Docker. Главный вывод: функциональность, близкую к Cursor, можно собрать бесплатно и при желании полностью локально.
Ключевые тейки
-
Связку под Cursor можно собрать бесплатноБазовая альтернатива строится на VS Code и двух расширениях: Continue отвечает за автокомплит и быстрые правки, а Roo Code — за чат, агентный режим и работу с проектом. По функциональности это закрывает большую часть сценариев Cursor.
-
Continue лучше оставить под автокомплитАвтор отмечает слабую совместимость Continue с OpenRouter и неидеальную работу с кодовой базой в режиме чата. Практический совет — использовать его только для автодополнения и инлайн-редактирования через Ctrl/Cmd + I.
-
Roo Code удобнее для чата и агентного режимаВ Roo Code можно выбрать провайдера, модель, режим работы, видеть загрузку контекста, задавать global instructions и проектные rules. Это делает расширение более удобным для длинных задач и системной работы по коду.
-
Локальные модели запускаются через OllamaДля локальной работы показан запуск DeepSeek R1 через Ollama. После установки модель поднимается на localhost:11434 и подключается в Roo Code как отдельный провайдер, что позволяет работать без облачной подписки.
-
Индексацию кодовой базы можно поднять локальноЧтобы приблизиться к поведению Cursor, автор включает experimental codebase indexing в Roo Code, ставит embedding-модель через Ollama и поднимает Qdrant в Docker. После этого проект индексируется локально и ответы модели становятся точнее.
-
Новичкам не стоит сразу включать автоапрувВ Roo Code есть автоматическое разрешение на чтение, запись, запуск команд и MCP. Автор советует сначала поработать в ручном режиме, чтобы понимать, какие изменения вносит модель и не ломать проект без контроля.