Как установить DeepSeek R1 локально на Linux

DeepSeek R1 захватила мир искусственного интеллекта. Хотя использовать DeepSeek на их хостинге очень удобно, но мы знаем, что нет места лучше 127.0.0.1.

Локальный запуск ИИ не только обеспечивает полный контроль и лучшую конфиденциальность, но и не позволяет вашим данным попасть в чужие руки.

В этом руководстве мы расскажем вам о том, как настроить DeepSeek R1 на вашей Linux-машине, используя его в качестве бэкенда и фронтенда.

Шаг 1: Установите Ollama

Прежде чем мы перейдем к самому DeepSeek, нам нужно найти способ эффективно запускать большие языковые модели (LLM). Именно здесь на помощь приходит Ollama.

Что такое Ollama?

Это легкая и мощная платформа. Она упрощает управление моделями, позволяя вам загружать, запускать и взаимодействовать с моделями с минимальными трудностями.

Самое приятное- она абстрагируется от всех сложностей, не нужно вручную настраивать зависимости или создавать виртуальные среды.

Установка Ollama

Самый простой способ – выполнить следующую команду в терминале:

curl -fsSL https://ollama.com/install.sh | sh

После установки проверьте правильность установки:

ollama --version

Теперь перейдем к запуску DeepSeek с помощью .

Шаг 2: Установка и запуск модели DeepSeek

После установки Ollama извлечь и запустить модель DeepSeek очень просто: выполните следующую команду:

ollama run deepseek-r1:1.5b

Эта команда загружает модель DeepSeek-R1 1.5B, которая представляет собой небольшую, но мощную модель искусственного интеллекта для генерации текстов, ответов на вопросы и многого другого.

Загрузка может занять некоторое время в зависимости от скорости вашего интернета, так как эти модели могут быть довольно большими.

После завершения загрузки вы сможете сразу же работать с ней в терминале.

Но давайте будем честными, хотя терминал отлично подходит для быстрых тестов, он не является самым совершенным инструментом. Хотя существует множество подобных инструментов.

Шаг 3: Настройка Open WebUI

Open WebUI предоставляет красивый и удобный интерфейс для общения с DeepSeek. Существует два способа установки Open WebUI:

  • Прямая установка (для тех, кто предпочитает традиционную установку)
  • Установка с помощью Docker (мой личный способ)

Не волнуйтесь, мы рассмотрим оба варианта.

Метод 1: Прямая установка

Если вы предпочитаете традиционную установку без Docker, выполните следующие шаги, чтобы установить Open WebUI вручную.

Шаг 1: Установите python и виртуальное окружение

Сначала убедитесь, что у вас установлен Python вместе с пакетом venv для создания изолированной среды.

Выполните следующую команду:

sudo apt install python3-venv -y

Это установит необходимый пакет для управления виртуальными средами.

Шаг 2: Создание виртуальной среды

Далее создайте виртуальную среду в своем домашнем каталоге:

python3 -m venv ~/open-webui-venv

Затем активируйте только что созданную виртуальную среду:

source ~/open-webui-venv/bin/activate

Вы заметите, что подсказка терминала изменилась, указывая на то, что вы находитесь внутри виртуальной среды.

Шаг 4: Установка Open WebUI

Активировав виртуальную среду, установите Open WebUI, выполнив команду:

pip install open-webui

Это загрузит и установит Open WebUI вместе с его зависимостями.

Шаг 5: Запустите Open WebUI

Чтобы запустить сервер Open WebUI, выполните следующую команду:

open-webui serve

После запуска сервера вы должны увидеть вывод, подтверждающий, что Open WebUI запущен.

Шаг 6: Доступ к Open WebUI в браузере

Откройте веб-браузер и перейдите по ссылке:

Теперь вы увидите интерфейс Open WebUI, где вы можете начать общаться с DeepSeek AI!

Способ 2: установка Docker (личный фаворит)

Если вы еще не установили Docker, не волнуйтесь! Прежде чем приступить к работе, ознакомьтесь с нашим пошаговым руководством.

Как только это будет сделано, давайте запустим Open WebUI с помощью Docker.

Шаг 1: Извлеките докер-образ Open WebUI

Сначала загрузите последний образ Open WebUI с Docker Hub:

docker pull ghcr.io/open-webui/open-webui:main

Эта команда гарантирует, что у вас самая последняя версия Open WebUI.

Шаг 2: Запустите Open WebUI в контейнере docker

Теперь запустите контейнер Open WebUI:

docker run -d 
  -p 3000:8080 
  --add-host=host.docker.internal:host-gateway 
  -v open-webui:/app/backend/data 
  --name open-webui 
  --restart always 
  ghcr.io/open-webui/open-webui:main

Не пугайтесь, глядя на эту большую, страшную команду. Вот что на самом деле делает каждая часть команды:

Команда Объяснение
docker run -d Запускает контейнер в фоновом режиме (отсоединенный режим).
-p 3000:8080 Сопоставляет порт 8080 внутри контейнера с портом 3000 на хосте. Таким образом, вы получите доступ к Open WebUI по адресу http://localhost:3000.
--add-host=host.docker.internal:host-gateway Позволяет контейнеру общаться с хост-системой, что полезно при запуске других служб вместе с Open WebUI.
-v open-webui:/app/backend/data Создает постоянный том хранения с именем open-webui для сохранения истории чата и настроек.
--name open-webui Присваивает контейнеру пользовательское имя для удобства обращения к нему.
--restart always Обеспечивает автоматический перезапуск контейнера при перезагрузке системы или сбое Open WebUI.
ghcr.io/open-webui/open-webui:main Это образ Docker для Open WebUI, взятый из реестра контейнеров GitHubs.

Шаг 3: Получите доступ к Open WebUI в браузере

Теперь откройте веб-браузер и перейдите по ссылке: http://localhost:8080. Вы увидите интерфейс Open WebUI, готовый к использованию с DeepSeek!

После того как вы нажмете на «Создать учетную запись администратора «, перед вами откроется интерфейс Open WebUI.

Поскольку мы еще не добавляли никаких других моделей, модель DeepSeek, которую мы загрузили ранее, уже загружена и готова к работе.

Заключение

Вот и все! Всего за несколько простых шагов вы получили DeepSeek R1, работающий локально на вашей Linux-машине с Ollama и Open WebUI.

Независимо от того, выбрали ли вы путь Docker или традиционную установку, процесс установки прост и должен работать на большинстве дистрибутивов Linux.

Так что вперед, бросьте вызов DeepSeek, чтобы он написал еще одну причудливую поэму, или, может быть, поручите ему работу над чем-то более практичным. Вы можете играть с ним, и его возможности безграничны.

Например, недавно я запустил DeepSeek, который хоть и работал немного медленно, но все же справился с задачей.

Наслаждайтесь своим новым местным помощником ИИ и удачных экспериментов!

Зарубин Иван Эксперт по Linux и Windows

Парашютист со стажем. Много читаю и слушаю подкасты. Люблю посиделки у костра, песни под гитару и приближающиеся дедлайны. Люблю путешествовать.

Вдохновлен itsfoss.com

Похожие статьи

Комментарии (0)