نصب DeepSeek روی لینوکس در ۳ دقیقه
DeepSeek که در سال ۲۰۲۳ توسط لیانگ ونفنگ تاسیس شد، یک شرکت هوش مصنوعی چینی است که مدلهای زبان بزرگ (LLM) متنباز را توسعه میدهد. مدل پرچمدار آنها، DeepSeek-R1، به دلیل قابلیتهای استدلال پیشرفتهاش، با عملکردی قابل مقایسه با OpenAI-o1 در کارهایی مانند ریاضی، کد و استدلال عمومی، محبوبیت زیادی پیدا کرده است. در این مطلب، درباره نصب DeepSeek روی یک سیستم لینوکس، راهنمایی خواهیم کرد.
پیشنیازها
توجه: DeepSeek-R1 یک مدل ۶۷۱B با معماری Mixture of Experts (MoE) است که به ۱.۵ ترابایت VRAM نیاز دارد و این امر آن را برای سختافزارهای مصرفی غیرعملی میکند. مدلهای خلاصهشده DeepSeek-R1، مانند DeepSeek-R1-Distill-Qwen-7B و DeepSeek-R1-Distill-LLaMA-70B، نسخههای تنظیمشدهای از مدلهای متنباز مانند LLaMA و Qwen هستند که بر روی دادههای تولید شده توسط DeepSeek-R1 آموزش دیدهاند. بنابراین، قابلیتهای استدلال DeepSeek را به ارث میبرند و در عین حال برای میزبانی خودکار بسیار کارآمدتر هستند.
قبل از شروع، موارد زیر را بررسی کنید:
- سیستم عامل: اوبونتو ۲۲.۰۴ یا توزیع لینوکس مشابه آن
- سختافزار: پردازنده مدرن با حداقل ۱۶ گیگابایت رم؛ یک GPU اختصاصی. (پردازندههای گرافیکی NVIDIA به خوبی آزمایش شدهاند)
- نرمافزار: پایتون ۳.۸ یا بالاتر و گیت نصب شده روی سیستم
- فضای دیسک آزاد: حداقل ۱۰ گیگابایت برای مدلهای کوچکتر؛ مدلهای بزرگتر مانند ۶۷۱b به فضای بسیار بیشتری نیاز دارند!!
مرحله ۱: نصب Ollama
Ollama ابزاری است که برای اجرای مدلهای هوش مصنوعی به صورت محلی طراحی شده است. ترمینال خود را باز کنید و دستور زیر را اجرا کنید:
این دستور اسکریپت نصب Ollama را دانلود و اجرا میکند. در طول نصب، Ollama به طور خودکار خود را پیکربندی کرده و سرویسهای مورد نیاز را استارت میکند. پس از اتمام فرآیند، با بررسی نسخه، نصب را تایید کنید:
برای بررسی اینکه آیا Ollama از قبل در حال اجرا است یا خیر، از دستور زیر استفاده کنید:
اگر خروجی active است، سرویس در حال اجرا است و میتوانید به مرحله بعدی بروید. اگر اینطور نیست، آن را به صورت دستی استارت کنید:
برای اینکه همیشه سرویس هنگام بوت شدن سیستم شما شروع به کار کند:
مرحله 2: دانلود و اجرای DeepSeek-R1
DeepSeek-R1 شامل مدلهای مختلف و خلاصه شده است که از معماریهای Qwen و Llama به خوبی تنظیم شدهاند و هر کدام برای عملکرد و منابع مورد نیاز خاص بهینه شدهاند. در این بخش نحوه شروع کار آمده است:
برای دانلود و اجرای مدل 7b ، از دستور زیر استفاده کنید:
اگر سیستم شما منابع محدودی دارد (مثلا 16 گیگابایت رم و 8 گیگابایت پردازنده گرافیکی AMD)، میتوانید مدل کوچکتری را انتخاب کنید:
- 1.5b: حداقل استفاده از منابع.
- 7b: عملکرد و منابع مورد نیاز متعادل.
- 8b, 14b, 32b: گزینههای متوسط برای عملکرد بالاتر.
حجم دانلود این مدلها متفاوت است:
- 1.5b: ~2.3GB
- 7b: ~4.7GB
- 70b: ~40GB+
مرحله 3: شروع به فراخوانی DeepSeek
پس از اتمام دستور نصب، DeepSeek R1 نیز به طور خودکار اجرا میشود، به این معنی که دیگر چیزی برای پیکربندی باقی نمانده و راهاندازی شما کامل شده است. شما DeepSeek را با موفقیت روی لینوکس نصب کردهاید! ادامه دهید و اولین پرامپ (prompt) خود را وارد کنید.
هر زمان که میخواهید DeepSeek را دوباره اجرا کنید، کافیست دستور run را تکرار کنید.
لیست کردن و حذف مدلها
برای مشاهده همه مدلهای دانلود شده، دستور زیر را اجرا کنید:
برای حذف یک مدل نصب شده و آزاد کردن فضای دیسک، از دستور زیر استفاده کنید:
70b را با اندازه مدل مناسب، مانند 7b یا 8b جایگزین کنید. این کار مدل مشخص شده را از سیستم شما حذف میکند. پس از حذف، میتوانید مدل دیگری را دانلود و اجرا کنید. اگر به دنبال DeepSeek-R1 بدون سانسور یا محدودیت محتوا هستید، میتوانید از open-r1 استفاده کنید.
وی پی اس یک ماشین مجازی کامل است که از طریق Remote Desktop در سیستم عامل ویندوز در دسترس خواهد بود.
خرید وی پی اس در پنج موقعیت جغرافیایی ایران، ترکیه، هلند، آلمان و آمریکا با قابلیت تحویل آنی در پارسدو فراهم است.
مرحله ۴: شتابدهی GPU و پیکربندی Systemd
وقتی به قدرت بیشتری نسبت به CPU نیاز دارید، Ollama میتواند از GPU استفاده کند. اما ابتدا باید درایورها و runtime مناسب را نصب کنید. در سیستمهای NVIDIA، مطمئن شوید که CUDA و درایور NVIDIA را برای کارت خود دارید. Ollama برای فعال کردن استنتاج GPU به قابلیت محاسباتی ۵.۰ یا بالاتر نیاز دارد (ollama/docs/gpu.md در main – GitHub).
به عنوان مثال، در اوبونتو، شما باید جعبه ابزار NVIDIA را نصب کنید:
و با موارد زیر تایید کنید:
اگر از سختافزار AMD استفاده میکنید، پشتیبانی ROCm را فعال کنید یا برای کارتهای پشتیبانی نشده، اغلب میتوانید با اکسپورت کردن عبارت زیر قبل از شروع Ollama، بررسیهای سازگاری را دور بزنید.
<HSA_OVERRIDE_GFX_VERSION=<major>.<minor
پس از نصب درایورها، Ollama را با دستور زیر اجرا کنید:
(یا متغیر مشابه ROCm env) و افزایش توان استنتاج خود را مشاهده کنید!
برای محیطهای عملیاتی یا طولانیمدت، میخواهید Ollama (و DeepSeek) از راهاندازی مجدد و خرابی خودکار در امان بمانند. systemd در اینجا دوست شماست.
برای راهاندازی سرویس ollama، ابتدا فایل زیر را ایجاد کنید:
در این فایل، یک بلوک [Service] قرار دهید که دستور ollama serve را اجرا میکند. سپس، برای اضافه کردن متغیرهای محیطی مورد نیاز، از دستور زیر استفاده کنید:
برای نمونه، میتوانید از متغیرهای محیطی زیر استفاده کنید:
متغیر دوم برای فعالسازی دانلودر سمت کلاینت جدید است. برای اطلاعات بیشتر، به فایل faq.md در مخزن GitHub پروژه (ollama/docs/faq.md) مراجعه کنید.
پس از اعمال تغییرات، با اجرای دستورات زیر، daemon را دوباره بارگذاری و سرویس را فعال کنید:
در این مرحله، سرور LLM شما بهصورت خودکار راهاندازی میشود و لاگهای آن از طریق دستور زیر قابل مشاهده است:
جمعبندی
در آموزش نصب DeepSeek، یاد گرفتهاید که چگونه DeepSeek-R1 را روی سیستم لینوکس خود نصب کنید و مدلهای متنوع آن را بررسی کنید. چه مدل سبک ۱.۵b را اجرا کنید و چه مدل ۷۰b مبتنی بر عملکرد را، DeepSeek قابلیتهای استدلال پیشرفته را مستقیم روی دستگاه شما ارائه میدهد.