Как установить и запустить DeepSeek R1 локально на вашем компьютере? Откройте для себя шаги установки, системные требования и преимущества.

Deepseek уже дает жесткую конкуренцию Openai’s Chatgpt в области искусственного интеллекта. Модель рассуждений с китайским языком стала сенсацией на ночь после ее запуска.
Все взволнованы тем, что может предложить новая модель искусственного интеллекта и лучше ли она. Люди во всем мире уже начали использовать DeepSeek на своих устройствах.
Тем не менее, проблемы с конфиденциальностью поднимаются техническими энтузиастами. Основной вопрос: что происходит с данными, которыми пользователи делятся с моделью ИИ?
Доступ к ним или контролируют сторонние компании, государственные учреждения и т. Д.
Обычно у людей есть представление о том, что America Open в значительной степени безопасен с точки зрения защиты пользовательских данных, общих с моделью ИИ.
Аналогичная степень конфиденциальности данных может быть невозможна с китайской моделью ИИ, такой как DeepSeek R1.
Следовательно, чтобы обеспечить безопасность данных с помощью AI Chatbot, вы можете локально использовать инструмент AI на своем ПК.
Преимущества работы DeepSeek локально
Содержание
локально, используя модель ИИ, такую как DeepSeek, поставляется с несколькими преимуществами.
Из -за единственного доступа к чатботу вы получаете мгновенные и быстрые ответы от AI.
Не существует «Сервер занят». Проблема задерживает время отклика модели ИИ. Таким образом, сетевая зависимость рядом с ними.
В случае, если вы продолжаете встречать ошибку сервера на DeepSeek, исправьте ее, используя наш Руководство по устранению неполадок .
Любые данные, общие с ИИ, остаются хранящимися на устройстве локально и не совместно используются ни с каким внешним сервером. Итак, это обеспечивает большую конфиденциальность данных.
Еще одним большим преимуществом использования DeepSeek локально является свобода выбора версии модели ИИ в соответствии с оборудованием вашего ПК..
Нет необходимости оборвать множество денег на размещении мощной версии модели ИИ на облаке.
Системные требования к локальному запуску разных версий DeepSeek
DeepSeek R1 имеет различные версии, которые имеют различные системы системных требований, если вы стремитесь запустить какие -либо из них на своем компьютере. (Рекомендуется)
3060/12 ГБ или выше
Примечание : Настройка многопоточного графического процессора указывает на использование комбинации 4 или более графических процессоров за раз для облегчения обработки данных на модели ИИ.
Как вы, возможно, заметили, RAM и GPU очень важны для облегчения эффективности производительности модели ИИ.
Что касается версии ИИ, которую вы решите использовать, существует необходимость для мощной памяти, места для хранения и графического блока для запуска модели ИИ.
Если вы хотите запустить DeepSeek локально, что не требует интенсивного вычислительного ресурса, я предлагаю использовать модель deepseek-r1-distill-qwen-1.5b.
Это тот, который в таблице с параметром 1,5b и сравнительно более низкими требованиями к ресурсам аппаратного обеспечения.
Как установить DeepSeek на Windows 11 с помощью Ollama?
Позвольте нам настроить DeepSeek на вашем компьютере с помощью Ollama и Chatbox. Шаги, описанные в этом руководстве, применяются к операционным системам Windows, Mac и Linux.
- Перейти в Официальный сайт Ollama .
- Загрузите установщик для вашей операционной системы.
- Запустите установщик.
- Нажмите Windows + S, чтобы запустить поиск. Введите терминал и нажмите open.
- В типе экрана терминала
Ollama --version
- Нажмите Enter.
Терминал должен вернуть номер версии Ollama. Это означает, что Оллама готов к использованию.
Далее вы должны скачать модель DeepSeek по вашему выбору. Например, я покажу вам, как загрузить DeepSeek-R1-Distill-Qwen с параметрами 1,5 B.
- Доступ к терминалу и напишите эту команду.
Ollama -run Deepseek r1: [AI model parameter]
Замените параметр модели AI в вышеуказанной команде на фактическое значение.
Например, тип ollama -run deepseek r1: 1,5b, если вы намереваетесь использовать версию параметров 1,5B модели AI.
Модель ИИ теперь начнет загружать. Прогресс будет видим на экране терминала.
После установки DeepSeek приходите к установке интерфейса чата. Позвольте нам использовать чат.
- Перейдите в Официальный сайт чата , чтобы загрузить приложение.
- Установите чат на вашем компьютере.
- Запустить чат.
- На левой панели нажмите Настройки.
- Установите поставщик модели как ollama api.
- Измените хост API на http://127.0.0.1:11434.
- Выберите модель DeepSeek. [То же самое, что и загруженный режим, DeepSeek-r1-distill-Qwen с 1,5 б в этом примере]
- Нажмите Сохранить, чтобы подтвердить изменения.
Теперь вы можете начать задавать вопросы модели ИИ. Это ответит на них мгновенно. Наслаждайтесь.
Установите DeepSeek локально, используя Ollama с Docker
Вот еще один способ установить DeepSeek локально с помощью Ollama и контейнера Docker.
- Загрузите и установите Ollama на вашем компьютере. [См. Шаги в предыдущем методе]
- Получите настольный компьютер Docker для вашей соответствующей операционной системы.
- Установите и запустите Docker на вашем компьютере.
- Запустите приложение терминала, используя Windows + S (поиск Windows)
- Чтобы проверить, готов ли Docker для использования, введите следующее,
docker --version
- Теперь, чтобы получить открытое изображение Webui, введите следующую команду.
Docker pull ghcr.io/open-webui:main
- Введите эту команду, чтобы запустить контейнер Docker.
docker run-d -p 9783:8080 -v open-webui:/app/backend/data -name open -webui ghcr.io/open-webui/open-webui:main
- Теперь запустите свой браузер, как только начнется Docker.
- Введите следующий хост в Bar.
http://localhost:9783/
- Нажмите на Создать учетную запись администратора.
- Запустите терминал и запустите Ollama, чтобы загрузить модель DeepSeek, используя следующую команду.
Ollama run deepseek-r1:1.5b
- Обновить страницу OpenWebui в браузере.
- Выберите модель DeepSeek, которую вы ранее загрузили, чтобы пообщаться с моделью ИИ.
итог
Теперь вы знаете, как установить DeepSeek локально на своем ПК.
Проблемы конфиденциальности или надоедливые проблемы сети не помешают вам использовать модель ИИ и изучить возможности чат -бота.
Все, что вам нужно, это надежная оперативная память, хранение и графический процессор на вашем компьютере. Затем вы можете настроить DeepSeek на своем компьютере и занять свои запросы в модель ИИ.