Разворачиваем DeepSeek на своем сервере в пару кликов
DeepSeek AI — это мощная открытая модель ИИ, которая может работать без необходимости использования GPU. В сочетании с Ollama, она позволяет запускать ИИ локально с полным контролем над производительностью и конфиденциальностью.
Размещение DeepSeek на собственном сервере обеспечивает высокий уровень безопасности, исключая возможность перехвата данных через API. Официальные серверы DeepSeek очень часто перегружены. Локальное размещение предоставляет возможность пользоваться только своими ресурсами ИИ, не разделяя их с другими пользователя.
Обратите внимание, что DeepSeek является сторонней разработкой. Компания SpaceCore Solution LTD. не несет ответственности за работу данного ПО.
Какие характеристики требуются?
Сравним модели с разными требованиями. Каждая модель подходит как для работы на CPU, так и на GPU. Однако поскольку мы используем сервер, в статье будет рассматриваться процесс установки и работы модели на мощностях процессора.
deepseek-r1:1.5b
1.1 GB
4 GB
Простые задачи, отлично подходит для тестирования и пробных запусков.
deepseek-r1:14b
9 GB
20 GB
Продвинутые возможности в разработке, копирайтинге. Отличный баланс скорости и функционала.
deepseek-r1:32b
19 GB
40 GB
Мощность, аналогичная ChatGPT o1 mini. Углубленный анализ данных.
deepseek-r1:70b
42 GB
85 GB
Вычисления высокого уровня для бизнес-задач. Глубокий анализ данных и комплексная разработка.
deepseek-r1:671b
720 GB
768 GB
Основная и самая продвинутая модель DeepSeek R1. Предоставляет вычислительные функции на уровне последних моделей ChatGPT. Рекомендуем размещать на мощном выделенном сервере с NVMe-дисками.
Установка DeepSeek 14B
Установим модель 14B, выбранную в качестве примера, так как она обеспечивает высокую производительность при умеренном потреблении ресурсов. Инструкция подойдет для любой из доступных моделей, и при необходимости вы сможете установить другую версию.
Обновите репозитории и системные пакеты до последней версии.
sudo apt update && sudo apt upgrade -y
Установите Ollama — программный менеджер, который необходим для развертывания DeepSeek.
curl -fsSL https://ollama.com/install.sh | sh && sudo systemctl start ollama
После завершения установки выполните команду для загрузки необходимой модели DeepSeek.
ollama pull deepseek-r1:14b
Установка данной модели займет приблизительно 2 минуты при использовании сервера Hi-CPU Pulsar, благодаря высокой скорости сети. Выполните команду для запуска модели DeepSeek.
ollama run deepseek-r1:14b
Появится командная строка для ввода сообщения. Отлично, теперь можно общаться с ИИ!

Кроме того, можно отправить одиночную команду, например
ollama run deepseek-r1:14b "What is heavier: 1 kg of iron or 1 kg of feathers?"

Для генерации публичного ключа и доступа по API введите команду
ollama serve
Проверить установленные модели и их статус.
ollama list

Заключение
Мы рекомендуем размещать модели DeepSeek R1 на серверах с достаточным количеством оперативной памяти. Для стабильной работы моделей рекомендуется арендовать серверы с хотя бы небольшим запасом ОЗУ, а также с быстрыми NVMe-дисками.
Указанные в таблице тарифы идеально подходят для размещения ИИ DeepSeek. Мы гарантируем качество серверов на SpaceCore. Доверьте размещение своего сервера нам и создайте инфраструктуру для надежного и удобного использования DeepSeek в вашем бизнесе.
Last updated
Was this helpful?