شروع به کار با هوش مصنوعی Qwen
Qwen (مخفف Qianwen یا 千问 به معنای هزار پرسش، در زبان چینی) خانوادهای از LLMها است که توسط شرکت Alibaba Cloud توسعه داده شده و بهعنوان یکی از قدرتمندترین مدلهای متنباز در حوزه پردازش زبان طبیعی شناخته میشود. این مدلها با معماری Transformer طراحی شدهاند و در نسخههای متنوعی ارائه شدهاند تا نیازهای مختلف، از پژوهشهای دانشگاهی گرفته تا کاربردهای صنعتی را پوشش دهند. Qwen توانایی چشمگیری در درک زبان، تولید متن، پاسخ به پرسشها، استدلال چندمرحلهای، و حتی برنامهنویسی دارد و از چندزبانگی (بهویژه انگلیسی و چینی) پشتیبانی میکند. انتشار متنباز این مدل باعث شده پژوهشگران و توسعهدهندگان بتوانند آن را برای آموزش مجدد (fine-tuning)، استفاده در برنامههای کاربردی، یا یکپارچهسازی در سامانههای هوش مصنوعی بهکار گیرند. بهطور کلی، Qwen را میتوان نمادی از تلاشهای اخیر در جهت ترکیب مقیاس بالا، متنباز بودن، و کاربردپذیری گسترده در حوزه هوش مصنوعی دانست.
در حال حاضر، لیارا، مدلهای زیر از Qwen را در API خود پشتیبانی میکند:
- مدل qwen/qwen-turbo
- مدل qwen/qwen-2.5-72b-instruct
- مدل qwen/qwen-plus
- مدل qwen/qwen-max
- مدل qwen/qwen3-235b-a22b-thinking-2507
- مدل qwen/qwen3-32b
- مدل qwen/qwen3-coder
پس از ایجاد سرویس هوش مصنوعی و دریافت baseUrl و کلید API، میتوانید از مدلهای Qwen استفاده کنید.
در قطعه کدهای ارائهشده توسط لیارا برای اتصال به مدل، از OpenAI SDK استفاده میشود. تمامی مدلهایی که لیارا ارائه میدهد؛ سازگار با OpenAI SDK هستند.
اتصال به مدل
برای اتصال به مدل در سطح کد، میتوانید از دو ابزار استفاده کنید:
- OpenAI SDK: ابزار رسمی ارائهشده توسط OpenAI. تمامی مدلهای ارائهشده در لیارا، با این SDK سازگار هستند.
- AI SDK: ابزار ارائهشده توسط Vercel. این SDK، تنها برای جاوااسکریپت و تایپاسکریپت در دسترس است.
در ادامه، نحوه اتصال به مدل، هم با OpenAI SDK و هم با AI SDK، بررسی شده است.
برای اتصال به مدل با OpenAI SDK، میتوانید از قطعه کدهای زیر، استفاده کنید.
در ابتدا، برای استفاده از مدل هوش مصنوعی مدنظر خود در جاوااسکریپت، باید پکیج openai را نصب کنید. برای این کار، میتوانید از npm یا yarn استفاده کنید:
سپس، میتوانید مانند قطعه کد زیر، به مدل هوش مصنوعی خود متصل شوید:
در قطعه کدهای فوق، بهجای <baseUrl>، آدرس سرویس هوش مصنوعی خود را قرار دهید و بهجای <LIARA_API_TOKEN>، کلید API خود را وارد کنید. همچنین، بهجای <model_name>، نام یکی از مدلهای فوق را قرار دهید.
پارامترهای قابل تنظیم
در نظر داشته باشید که پارامترهای زیر، ممکن است در برخی از مدلها، پشتیبانی نشوند.
- frequency_penalty: عددی بین -2 تا 2. کاهش یا افزایش احتمال تکرار کلمات پرتکرار در پاسخ. هرچه بالاتر باشد؛ تنوع بیشتر است
- logit_bias: تغییر احتمال ظاهر شدن توکنهای خاص
- n: تعداد پاسخهایی که قرار است مدل همزمان تولید کند.
- response_format: مدل را مجبور میکند خروجی را به فرمت خاصی برگرداند
- seed: مقدار عددی ثابت برای شروع تولید تصادفی، در صورت نیاز، به خروجیهای قابل تکرار
- stop: آرایهای از رشتهها برای اینکه مدل هنگام رسیدن به آنها پاسخ را متوقف کند
- stream: اگر true باشد، پاسخ مدل به صورت استریم ارسال میشود. برای پیادهسازیهای real-time یا رابط کاربری، این حالت مفید است
- stream_options: تنظیمات مربوط به حالت stream. فقط وقتی استفاده میشود که stream: true باشد
- temperature: عددی بین 0 تا 2. کنترل میزان تصادفی بودن خروجی؛ عدد کمتر، واقعگرایی بیشتر و عدد بیشتر، خلاقیت بیشتر
- tool_choice: تعیین کردن اینکه مدل چه زمانی Tool را فراخوانی کند (بهصورت هوشمند یا همیشه)
- tools: مشخص کردن یکسری Tool که مدل در صورت نیاز، آنها را فراخوانی کند
- user: شناسهی کاربر نهایی. برای دستهبندی بهتر درخواستها و جلوگیری از سوءاستفاده، بهکار میرود
در ادامه، مثال استفاده از این پارامترها، در زبانهای مختلف، قرار گرفته است:
در قطعه کد فوق، بهجای <baseUrl>، آدرس سرویس هوش مصنوعی خود را قرار دهید و بهجای <LIARA_API_TOKEN>، کلید API خود را وارد کنید. همچنین، بهجای <model_name>، نام یکی از مدلهای فوق را قرار دهید.