استریم متن با ورودی با هوش مصنوعی با ساخت RSC
این مثال از React Server Components (یا همان RSC)، استفاده میکند. اگر که قصد دارید از client side rendering و هوکها استفاده کنید؛ میتوانید به این مستندات مراجعه کنید.
chat completion گاهی ممکن است زمانبر باشد، مخصوصاً زمانی که پاسخ بزرگ و طولانی است. در چنین مواردی، استریم chat completion بهصورت بلادرنگ به سمت کلاینت میتواند مفید باشد. این کار به کلاینت اجازه میدهد که پیام جدید را در حین تولید توسط مدل، دریافت کند، بهجای اینکه کاربر منتظر بماند تا تولید پاسخ، به پایان برسد.
کلاینت
بیایید یک فضای مکالمهای ساده میان یک کاربر و LLM ایجاد کنیم و یک دکمه کار بذاریم که continueConversation را فراخوانی خواهد کرد.
در مسیر app/page.tsx، قطعه کد زیر را قرار دهید:
سرور
اکنون، بیایید تابع continueConversation را پیادهسازی کنیم که پیام کاربر را درون فضای مکالمه، قرار میدهد و جواب مدل را به کاربر بهصورت استریمی، برمیگرداند.
در مسیر app/actions.ts، قطعه کد زیر را قرار دهید:
متغیرهای محیطی BASE_URL و LIARA_API_KEY همان baseUrl سرویس هوش مصنوعی لیارا و کلید API لیارا هستند که باید در بخش متغیرهای محیطی برنامه خود، آنها را تنظیم کنید.
پروژه فوق را میتوانید بهصورت کامل در گیتهاب لیارا، مشاهده کنید.