توسعهی LLMها در حال تکامل است و ما به سمت رویکردی «محلیمحور» حرکت میکنیم. Docker Model Runner ابزاری نوین برای اجرای ساده و ایمن مدلهای هوش مصنوعی بهصورت محلی، مستقیماً از گردش کار فعلی شماست. این امکان را فراهم میکند تا با سرعت بیشتری آزمایش کنید و در زمان صرفهجویی کنید.
نکتهی مهم: توسعهدهندگان امروزی اغلب با ابزارهای پراکنده، مشکلات سازگاری سختافزاری و گردش کارهای توسعهی برنامههایی که از هم گسسته هستند مواجه میشوند. Docker Model Runner این موانع را برطرف میکند و عملکرد و کنترل مورد نیاز شما را بدون هیچ گونه اصطکاک فراهم میآورد.
ما با نامهای برجستهی حوزه هوش مصنوعی و توسعه نرمافزار از جمله گوگل، Continue، Dagger، Qualcomm Technologies، Hugging Face، Spring AI و VMware Tanzu AI Solutions همکاری میکنیم تا دسترسی مستقیم به آخرین مدلها، فریمورکها و ابزارهای نوآورانه را در اختیار توسعهدهندگان قرار دهیم. این همکاری صرفاً ادغام نیست؛ بلکه تعهد مشترکی برای افزایش دسترسیپذیری، قدرت و سهولت استفاده از نوآوریهای هوش مصنوعی است.
جالب است بدانید: توسعهی محلی برای برنامههای کاربردی مبتنی بر LLMها در حال افزایش محبوبیت است. این امر به دلایل متعددی مانند بهبود عملکرد، کاهش هزینهها و حفظ حریم خصوصی دادهها صورت میگیرد. اما راهاندازی محلی معمولاً پیچیده است.
توسعهدهندگان اغلب مجبورند ابزارهای متعدد را بهصورت دستی یکپارچه کنند، محیطها را پیکربندی کرده و مدلها را به طور جداگانه از گردش کارهای کانتینری مدیریت کنند. اجرای یک مدل بسته به پلتفرم و سختافزار موجود متفاوت است.
نتیجه؟ افزایش هزینههای استنتاج ابری و تجربهی کاربری توسعهدهنده ناهمگون. Docker Model Runner با هدف کاهش این اصطکاک، اجرای سادهتر، سریعتر و آسانتر مدلهای هوش مصنوعی را در گردش کار فعلی توسعهدهندگان فراهم میکند.
با Docker Model Runner، اجرای مدلهای هوش مصنوعی بهاندازه اجرای هر سرویس دیگر در حلقه داخلی شما ساده شده است. این امر با گنجاندن یک موتور استنتاج به عنوان بخشی از Docker Desktop، مبتنی بر llama.cpp و قابل دسترسی از طریق API آشنای OpenAI امکانپذیر میشود.
از سوی دیگر: شتاب GPU در Apple silicon به توسعهدهندگان کمک میکند تا سریعترین استنتاج را داشته باشند و بیشترین بهره را از سختافزار محلی خود ببرند. با استفاده از اجرای مبتنی بر هاست، ما از محدودیتهای عملکردی ناشی از اجرای مدلها در ماشینهای مجازی جلوگیری میکنیم.
برای اینکه توسعهی محلی بینقص باشد، به یک اکوسیستم نیاز است. این امر مستلزم قرار دادن توسعهدهندگان در موقعیتی است که بتوانند عملکرد مدل را روی دستگاههای خود آزمایش کنند یا برنامههایی ایجاد کنند که از این مدلها استفاده میکنند.
به همین دلیل است که ما Docker Model Runner را با یک اکوسیستم قدرتمند از شرکای در هر دو طرف فرآیند توسعهی برنامه AI راه اندازی کردهایم. نکته قابل توجه: در سمت مدل، ما با رهبران صنعت مانند گوگل و پلتفرمهای جامعه مانند Hugging Face همکاری میکنیم تا مدلهای با کیفیت بالا و بهینه شده آماده برای استفاده محلی را در اختیار شما قرار دهیم.
این مدلها به عنوان مصنوعات OCI منتشر میشوند، بنابراین میتوانید آنها را با استفاده از دستورات استاندارد Docker، درست مانند هر تصویر کانتینر، کشیده و اجرا کنید. اما ما فقط به مدلها بسنده نمیکنیم. ما همچنین با شرکای برنامه، زبان و ابزار مانند Dagger، Continue و Spring AI و VMware Tanzu همکاری میکنیم تا اطمینان حاصل کنیم برنامههایی که با Model Runner ساخته شدهاند بهطور یکپارچه در گردش کارهای واقعی توسعهدهندگان ادغام میشوند.
در نگاه نخست: همکاری ما با شرکای سختافزاری مانند Qualcomm Technologies تضمین میکند که استنتاج با عملکرد بالا را روی تمام پلتفرمها داشته باشید. این یک شروع است و انتظار میرود در آینده نزدیک اکوسیستم شرکا گسترش یابد تا امکان توزیع بیشتر و قابلیتهای اضافی فراهم شود.
با Docker Model Runner، ما اجرای مدلهای هوش مصنوعی را به روشی آسانتر، ایمنتر و با موانع کمتری در گردش کارهای روزمره توسعهدهندگان قرار میدهیم. بهزودی میتوانید مدلها را روی پلتفرمهای بیشتر از جمله Windows با شتاب GPU اجرا کنید، مدلهای خود را سفارشی کرده و منتشر کنید، و هوش مصنوعی را با انعطافپذیری بیشتری (از جمله Compose و Testcontainers) در حلقه توسعه خود ادغام کنید.
با هر انتشار Docker Desktop، ما به باز کردن قابلیتهای جدیدی ادامه خواهیم داد که توسعه GenAI را آسانتر، سریعتر و سرگرمکنندهتر میکند.
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.