نصب DeepSeek روی لینوکس در ۳ دقیقه

DeepSeek که در سال ۲۰۲۳ توسط لیانگ ونفنگ تاسیس شد، یک شرکت هوش مصنوعی چینی است که مدل‌های زبان بزرگ (LLM) متن‌باز را توسعه می‌دهد. مدل پرچمدار آنها، DeepSeek-R1، به دلیل قابلیت‌های استدلال پیشرفته‌اش، با عملکردی قابل مقایسه با OpenAI-o1 در کارهایی مانند ریاضی، کد و استدلال عمومی، محبوبیت زیادی پیدا کرده است. در این مطلب، درباره نصب DeepSeek روی یک سیستم لینوکس، راهنمایی خواهیم کرد.

پیش‌نیازها

توجه: DeepSeek-R1 یک مدل ۶۷۱B با معماری Mixture of Experts (MoE) است که به ۱.۵ ترابایت VRAM نیاز دارد و این امر آن را برای سخت‌افزارهای مصرفی غیرعملی می‌کند. مدل‌های خلاصه‌شده DeepSeek-R1، مانند DeepSeek-R1-Distill-Qwen-7B و DeepSeek-R1-Distill-LLaMA-70B، نسخه‌های تنظیم‌شده‌ای از مدل‌های متن‌باز مانند LLaMA و Qwen هستند که بر روی داده‌های تولید شده توسط DeepSeek-R1 آموزش دیده‌اند. بنابراین، قابلیت‌های استدلال DeepSeek را به ارث می‌برند و در عین حال برای میزبانی خودکار بسیار کارآمدتر هستند.

قبل از شروع، موارد زیر را بررسی کنید:

  • سیستم عامل: اوبونتو ۲۲.۰۴ یا توزیع لینوکس مشابه آن
  • سخت‌افزار: پردازنده مدرن با حداقل ۱۶ گیگابایت رم؛ یک GPU اختصاصی. (پردازنده‌های گرافیکی NVIDIA به خوبی آزمایش شده‌اند)
  • نرم‌افزار: پایتون ۳.۸ یا بالاتر و گیت نصب شده روی سیستم
  • فضای دیسک آزاد: حداقل ۱۰ گیگابایت برای مدل‌های کوچک‌تر؛ مدل‌های بزرگ‌تر مانند ۶۷۱b به فضای بسیار بیشتری نیاز دارند!!

 

مرحله ۱: نصب Ollama

Ollama ابزاری است که برای اجرای مدل‌های هوش مصنوعی به صورت محلی طراحی شده است. ترمینال خود را باز کنید و دستور زیر را اجرا کنید:

این دستور اسکریپت نصب Ollama را دانلود و اجرا می‌کند. در طول نصب، Ollama به طور خودکار خود را پیکربندی کرده و سرویس‌های مورد نیاز را استارت می‌کند. پس از اتمام فرآیند، با بررسی نسخه، نصب را تایید کنید:

برای بررسی اینکه آیا Ollama از قبل در حال اجرا است یا خیر، از دستور زیر استفاده کنید:

اگر خروجی active است، سرویس در حال اجرا است و می‌توانید به مرحله بعدی بروید. اگر اینطور نیست، آن را به صورت دستی استارت کنید:

برای اینکه همیشه سرویس هنگام بوت شدن سیستم شما شروع به کار کند:

مرحله 2: دانلود و اجرای DeepSeek-R1

DeepSeek-R1 شامل مدل‌های مختلف و خلاصه شده است که از معماری‌های Qwen و Llama به خوبی تنظیم شده‌اند و هر کدام برای عملکرد و منابع مورد نیاز خاص بهینه شده‌اند. در این بخش نحوه شروع کار آمده است:

برای دانلود و اجرای مدل 7b ، از دستور زیر استفاده کنید:

اگر سیستم شما منابع محدودی دارد (مثلا 16 گیگابایت رم و 8 گیگابایت پردازنده گرافیکی AMD)، می‌توانید مدل کوچکتری را انتخاب کنید:

  •  1.5b: حداقل استفاده از منابع.
  • 7b: عملکرد و منابع مورد نیاز متعادل.
  • 8b, 14b, 32b: گزینه‌های متوسط برای عملکرد بالاتر.

حجم دانلود این مدل‌ها متفاوت است:

  • 1.5b: ~2.3GB
  • 7b: ~4.7GB
  • 70b: ~40GB+

مرحله 3: شروع به فراخوانی DeepSeek

پس از اتمام دستور نصب، DeepSeek R1 نیز به طور خودکار اجرا می‌شود، به این معنی که دیگر چیزی برای پیکربندی باقی نمانده و راه‌اندازی شما کامل شده است. شما DeepSeek را با موفقیت روی لینوکس نصب کرده‌اید! ادامه دهید و اولین پرامپ (prompt) خود را وارد کنید.

هر زمان که می‌خواهید DeepSeek را دوباره اجرا کنید، کافیست دستور run را تکرار کنید.

لیست کردن و حذف مدل‌ها

برای مشاهده همه مدل‌های دانلود شده، دستور زیر را اجرا کنید:

برای حذف یک مدل نصب شده و آزاد کردن فضای دیسک، از دستور زیر استفاده کنید:

70b را با اندازه مدل مناسب، مانند 7b یا 8b جایگزین کنید. این کار مدل مشخص شده را از سیستم شما حذف می‌کند. پس از حذف، می‌توانید مدل دیگری را دانلود و اجرا کنید. اگر به دنبال DeepSeek-R1 بدون سانسور یا محدودیت محتوا هستید، می‌توانید از open-r1 استفاده کنید.

وی پی اس یک ماشین مجازی کامل است که از طریق Remote Desktop در سیستم عامل ویندوز در دسترس خواهد بود.
خرید وی پی اس در پنج موقعیت جغرافیایی ایران، ترکیه، هلند، آلمان و آمریکا با قابلیت تحویل آنی در پارسدو فراهم است.

مرحله ۴: شتاب‌دهی GPU و پیکربندی Systemd

وقتی به قدرت بیشتری نسبت به CPU نیاز دارید، Ollama می‌تواند از GPU استفاده کند. اما ابتدا باید درایورها و runtime مناسب را نصب کنید. در سیستم‌های NVIDIA، مطمئن شوید که CUDA و درایور NVIDIA را برای کارت خود دارید. Ollama برای فعال کردن استنتاج GPU به قابلیت محاسباتی ۵.۰ یا بالاتر نیاز دارد (ollama/docs/gpu.md در main – GitHub).

به عنوان مثال، در اوبونتو، شما باید جعبه ابزار NVIDIA را نصب کنید:

و با موارد زیر تایید کنید:

اگر از سخت‌افزار AMD استفاده می‌کنید، پشتیبانی ROCm را فعال کنید یا برای کارت‌های پشتیبانی نشده، اغلب می‌توانید با اکسپورت کردن  عبارت زیر قبل از شروع Ollama، بررسی‌های سازگاری را دور بزنید.

<HSA_OVERRIDE_GFX_VERSION=<major>.<minor

پس از نصب درایورها، Ollama را با دستور زیر اجرا کنید:

(یا متغیر مشابه ROCm env) و افزایش توان استنتاج خود را مشاهده کنید!

برای محیط‌های عملیاتی یا طولانی‌مدت، می‌خواهید Ollama (و DeepSeek) از راه‌اندازی مجدد و خرابی خودکار در امان بمانند. systemd در اینجا دوست شماست.

برای راه‌اندازی سرویس ollama، ابتدا فایل زیر را ایجاد کنید:

در این فایل، یک بلوک [Service] قرار دهید که دستور ollama serve را اجرا می‌کند. سپس، برای اضافه کردن متغیرهای محیطی مورد نیاز، از دستور زیر استفاده کنید:

برای نمونه، می‌توانید از متغیرهای محیطی زیر استفاده کنید:

متغیر دوم برای فعال‌سازی دانلودر سمت کلاینت جدید است. برای اطلاعات بیشتر، به فایل faq.md در مخزن GitHub پروژه (ollama/docs/faq.md) مراجعه کنید.

پس از اعمال تغییرات، با اجرای دستورات زیر، daemon را دوباره بارگذاری و سرویس را فعال کنید:

در این مرحله، سرور LLM شما به‌صورت خودکار راه‌اندازی می‌شود و لاگ‌های آن از طریق دستور زیر قابل مشاهده است:

جمع‌بندی

در آموزش نصب DeepSeek، یاد گرفته‌اید که چگونه DeepSeek-R1 را روی سیستم لینوکس خود نصب کنید و مدل‌های متنوع آن را بررسی کنید. چه مدل سبک ۱.۵b را اجرا کنید و چه مدل ۷۰b مبتنی بر عملکرد را، DeepSeek قابلیت‌های استدلال پیشرفته را مستقیم روی دستگاه شما ارائه می‌دهد.