دیپ‌سیک یک مدل هوش مصنوعی متن‌باز و پیشرفته برای پردازش زبان طبیعی است که قابلیت‌های قدرتمندی مانند تولید متن، خلاصه‌سازی و استدلال ارایه می‌دهد. این مدل به‌شکل لوکال روی سیستم‌های لینوکس قابل اجراست و گزینه‌ای ایده‌آل برای کاربرانی است که به حریم خصوصی، کنترل کامل و دسترسی به هوش مصنوعی نیاز دارند.

یکی از نقاط قوت DeepSeek انعطاف‌پذیری آن است. با این‌که این مدل، عملکرد چشم‌گیری با استفاده از کارت گرافیک اختصاصی (GPU) دارد اما روی سیستم‌های مبتنی بر CPU هم کار می‌کند. با این تفاوت که با CPU ممکن است سرعت پاسخ‌دهی کم‌تر باشد و مدل‌های بزرگ‌تر به RAM بیش‌تری نیاز داشته باشند.

این راهنما به شما در نصب و راه‌اندازی دیپ‌سیک روی توزیع‌های لینوکس مبتنی بر Ubuntu یا Debian کمک می‌کند تا بدون نیاز به سخت‌افزار پیشرفته، مزایای هوش مصنوعی را روی سرور خود تجربه کنید.

در این آموزش، با شیوه‌‌ی نصب و پیکربندی Ollama برای اجرای دیپ‌سیک و هم‌چنین روش‌های بهینه‌سازی منابع سیستم برای دریافت بهترین عملکرد آشنا خواهید شد.

پیش‌نیازها

پیش از شروع، اطمینان حاصل کنید که سیستم شما حداقل نیازمندی‌ها را دارد. اگرچه دیپ‌سیک روی سیستم‌های مبتنی بر CPU نیز قابل اجراست، اما وجود یک پردازنده‌ی پرسرعت و رم کافی می‌تواند سرعت اجرا را بهبود بخشد. اگر سرور دارای GPU باشد، اولاما به طور خودکار آن را تشخیص داده و برای پردازش سریع‌تر از آن استفاده می‌کند، اما اگر کارت گرافیک شناسایی نشود، پیامی نمایش داده می‌شود که مدل روی CPU در حال اجراست. نیاز به هیچ تنظیم دستی در این فرآیند نیست و همه‌ی مراحل به شکل خودکار مدیریت می‌شوند.

  
اجزانیازمندی‌ها
سیستم‌عاملUbuntu/Debian
نرم‌افزارOllama, Python 3.8+, DeepSeek-R1
منابعحداقل ۱۶ گیگابایت رم و ۱۰ گیگابایت دیسک آزاد
شروطدسترسی اجرای دستورهای sudo

ما در این راهنما از یک ابرک با ۲۴ گیگ رم، ۶ هسته CPU و ۷۵ گیگ دیسک استفاده می‌کنیم.

گام اول: نصب Ollama

Ollama یک پلتفرم متن‌باز برای اجرا و مدیریت مدل‌های هوش مصنوعی روی سیستم‌های لوکال است که برای راه‌اندازی DeepSeek به آن نیاز داریم. با استفاده از دستور زیر اسکریپت رسمی Ollama را دریافت و نصب کنید:

curl -fsSL https://ollama.com/install.sh | sh

پس از نصب با بررسی نسخه‌ی اولاما از صحت نصب آن مطمین شوید:

ollama --version

با دستور زیر وضعیت فعال بودن سرویس اولاما را بررسی کنید:

systemctl is-active ollama.service

گام دوم: دریافت DeepSeek-R1

در این گام باید مدلی را که می‌خواهید راه‌اندازی کنید دریافت کنید. مدل‌های DeepSeek-R1 بر اساس قابلیت‌های سخت‌افزاری در اندازه، سرعت و دقت با هم تفاوت دارند. مدل‌های بزرگ‌تر استدلال و دقت بیش‌تری دارند اما رم و دیسک بیش‌تری نیاز دارند. برای نمونه، برای نصب مدل 7B می‌توان دستور زیر را اجرا کرد:

ollama pull deepseek-r1:7b

جزییات مدل‌های دیپ‌سیک به‌شکل زیر است:

مدلپارامترهافضای دیسک مورد نیازحداقل RAMGPU توصیه‌شدهعملکرد
deepseek-r1:1.5b۱٫۵ میلیارد۳ گیگابایت۸ گیگابایت۴ گیگابایتسریع‌ترین، مصرف حافظه کم، دقت کم‌تر
deepseek-r1:7b۷ میلیارد۱۵ گیگابایت۱۶ گیگابایت۸ گیگابایتتعادل مناسب سرعت و دقت
deepseek-r1:8b۸ میلیارد۱۷ گیگابایت۲۴ گیگابایت۱۰ گیگابایتمشابه 7B با استدلال بهبود یافته
deepseek-r1:14b۱۴ میلیارد۳۰ گیگابایت۳۲ گیگابایت۱۶ گیگابایتدرک بهتر، نیاز به RAM بیش‌تر
deepseek-r1:32b۳۲ میلیارد۷۰ گیگابایت۶۴ گیگابایت۲۴ گیگابایتدقت بالا، زمان‌ پاسخ‌دهی کندتر
deepseek-r1:70b۷۰ میلیارد۱۶۰ گیگابایت۱۲۸ گیگابایت۴۸ گیگابایتدقت بسیار بالا، سرعت استدلال کند
deepseek-r1:671b۶۷۱ میلیارد۱٫۵ ترابایتگیگابایت +۵۱۲چندین GPU و ۱۰۰ گیگابایت+ VRAMدقت پیشرفته، استدلال بسیار کند

انتخاب مدل مناسب

  • مدل‌های 1.5B تا 7B: برای کارهای روتین، سرویس‌های چت آنلاین و استدلال‌های سبک

  • مدل‌های 8B تا 14B: مدل‌هایی که توازنی از استدلال بهینه و سرعت را ارایه می‌دهند

  • مدل‌های 32B تا 70B: بسیار پیشرفته، مناسب برای تحلیل‌های پیچیده، نیازمند منابع بالا

  • مدل 671B: نیازمند سخت‌افزارهای بسیار قوی برای تحلیل و پژوهش پیشرفته و پیچیده

گام سوم: شروع به استفاده از DeepSeek

پس از دریافت مدل موردنظرتان، می‌توانید از آن استفاده کنید. برای راه‌اندازی مدل از دستور زیر استفاده کنید:

ollama run deepseek-r1:7b

پس از اجرای دستور، می‌توانید Prompt موردنظرتان را وارد کرده و Enter بزنید تا پاسخ دیپ‌سیک را دریافت کنید.

برای اطلاع از شیوه‌ی پیکربندی و استفاده‌ی پیچیده‌تر، می‌توانید از مستندات Ollama استفاده کنید.

گام چهارم: استفاده از API

اگر نیاز دارید از طریق کد با DeepSeek ارتباط برقرار کنید می‌توانید API آن را فعال کنید.

ollama serve & curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:7b", "prompt": "Capital of Iran"}'