Docker Model Runner: اجرای محلی و امن مدل‌های هوش مصنوعی

Docker Model Runner: اجرای محلی و امن مدل‌های هوش مصنوعی

توسعه‌ی LLMها در حال تکامل است و ما به سمت رویکردی «محلی‌محور» حرکت می‌کنیم. Docker Model Runner ابزاری نوین برای اجرای ساده و ایمن مدل‌های هوش مصنوعی به‌صورت محلی، مستقیماً از گردش کار فعلی شماست. این امکان را فراهم می‌کند تا با سرعت بیشتری آزمایش کنید و در زمان صرفه‌جویی کنید.

نکته‌ی مهم: توسعه‌دهندگان امروزی اغلب با ابزارهای پراکنده، مشکلات سازگاری سخت‌افزاری و گردش کارهای توسعه‌ی برنامه‌هایی که از هم گسسته هستند مواجه می‌شوند. Docker Model Runner این موانع را برطرف می‌کند و عملکرد و کنترل مورد نیاز شما را بدون هیچ گونه اصطکاک فراهم می‌آورد.

ما با نام‌های برجسته‌ی حوزه هوش مصنوعی و توسعه نرم‌افزار از جمله گوگل، Continue، Dagger، Qualcomm Technologies، Hugging Face، Spring AI و VMware Tanzu AI Solutions همکاری می‌کنیم تا دسترسی مستقیم به آخرین مدل‌ها، فریم‌ورک‌ها و ابزارهای نوآورانه را در اختیار توسعه‌دهندگان قرار دهیم. این همکاری صرفاً ادغام نیست؛ بلکه تعهد مشترکی برای افزایش دسترسی‌پذیری، قدرت و سهولت استفاده از نوآوری‌های هوش مصنوعی است.

جالب است بدانید: توسعه‌ی محلی برای برنامه‌های کاربردی مبتنی بر LLMها در حال افزایش محبوبیت است. این امر به دلایل متعددی مانند بهبود عملکرد، کاهش هزینه‌ها و حفظ حریم خصوصی داده‌ها صورت می‌گیرد. اما راه‌اندازی محلی معمولاً پیچیده است.

توسعه‌دهندگان اغلب مجبورند ابزارهای متعدد را به‌صورت دستی یکپارچه کنند، محیط‌ها را پیکربندی کرده و مدل‌ها را به طور جداگانه از گردش کارهای کانتینری مدیریت کنند. اجرای یک مدل بسته به پلتفرم و سخت‌افزار موجود متفاوت است.

نتیجه؟ افزایش هزینه‌های استنتاج ابری و تجربه‌ی کاربری توسعه‌دهنده ناهمگون. Docker Model Runner با هدف کاهش این اصطکاک، اجرای ساده‌تر، سریع‌تر و آسان‌تر مدل‌های هوش مصنوعی را در گردش کار فعلی توسعه‌دهندگان فراهم می‌کند.

با Docker Model Runner، اجرای مدل‌های هوش مصنوعی به‌اندازه اجرای هر سرویس دیگر در حلقه داخلی شما ساده شده است. این امر با گنجاندن یک موتور استنتاج به عنوان بخشی از Docker Desktop، مبتنی بر llama.cpp و قابل دسترسی از طریق API آشنای OpenAI امکان‌پذیر می‌شود.

از سوی دیگر: شتاب GPU در Apple silicon به توسعه‌دهندگان کمک می‌کند تا سریع‌ترین استنتاج را داشته باشند و بیشترین بهره را از سخت‌افزار محلی خود ببرند. با استفاده از اجرای مبتنی بر هاست، ما از محدودیت‌های عملکردی ناشی از اجرای مدل‌ها در ماشین‌های مجازی جلوگیری می‌کنیم.

برای اینکه توسعه‌ی محلی بی‌نقص باشد، به یک اکوسیستم نیاز است. این امر مستلزم قرار دادن توسعه‌دهندگان در موقعیتی است که بتوانند عملکرد مدل را روی دستگاه‌های خود آزمایش کنند یا برنامه‌هایی ایجاد کنند که از این مدل‌ها استفاده می‌کنند.

به همین دلیل است که ما Docker Model Runner را با یک اکوسیستم قدرتمند از شرکای در هر دو طرف فرآیند توسعه‌ی برنامه AI راه اندازی کرده‌ایم. نکته قابل توجه: در سمت مدل، ما با رهبران صنعت مانند گوگل و پلتفرم‌های جامعه مانند Hugging Face همکاری می‌کنیم تا مدل‌های با کیفیت بالا و بهینه شده آماده برای استفاده محلی را در اختیار شما قرار دهیم.

این مدل‌ها به عنوان مصنوعات OCI منتشر می‌شوند، بنابراین می‌توانید آن‌ها را با استفاده از دستورات استاندارد Docker، درست مانند هر تصویر کانتینر، کشیده و اجرا کنید. اما ما فقط به مدلها بسنده نمی‌کنیم. ما همچنین با شرکای برنامه، زبان و ابزار مانند Dagger، Continue و Spring AI و VMware Tanzu همکاری می‌کنیم تا اطمینان حاصل کنیم برنامه‌هایی که با Model Runner ساخته شده‌اند به‌طور یکپارچه در گردش کارهای واقعی توسعه‌دهندگان ادغام می‌شوند.

در نگاه نخست: همکاری ما با شرکای سخت‌افزاری مانند Qualcomm Technologies تضمین می‌کند که استنتاج با عملکرد بالا را روی تمام پلتفرم‌ها داشته باشید. این یک شروع است و انتظار می‌رود در آینده نزدیک اکوسیستم شرکا گسترش یابد تا امکان توزیع بیشتر و قابلیت‌های اضافی فراهم شود.

با Docker Model Runner، ما اجرای مدل‌های هوش مصنوعی را به روشی آسان‌تر، ایمن‌تر و با موانع کمتری در گردش کارهای روزمره توسعه‌دهندگان قرار می‌دهیم. به‌زودی می‌توانید مدل‌ها را روی پلتفرم‌های بیشتر از جمله Windows با شتاب GPU اجرا کنید، مدل‌های خود را سفارشی کرده و منتشر کنید، و هوش مصنوعی را با انعطاف‌پذیری بیشتری (از جمله Compose و Testcontainers) در حلقه توسعه خود ادغام کنید.

با هر انتشار Docker Desktop، ما به باز کردن قابلیت‌های جدیدی ادامه خواهیم داد که توسعه GenAI را آسان‌تر، سریع‌تر و سرگرم‌کننده‌تر می‌کند.

📌 توجه: این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.