Elastic הכריזה היום על Playground, ממשק דל קוד המאפשר למפתחים לבנות אפליקציות RAG באמצעות Elasticsearch בתוך דקות.
הממשק האינטואיטיבי של Playground מאפשר למשתמשים לבדוק A/B מודלים שונים של שפה גדולה (LLMs) ולשפר את מנגנוני האחזור כדי לקבע תשובות עם הנתונים הקנייניים שמוסיפים לאינדקס של Elasticsearch.
"בזמן יצירת אב טיפוס של חיפוש שיחה, היכולת להתנסות ולחזור במהירות על רכיבים מרכזיים של זרימת עבודה של RAG היא חיונית כדי לקבל תגובות מדויקות וללא הזיות מ-LLMs", אמר מאט ריילי, סגן נשיא עולמי ומנהל כללי, Search at Elastic. "מפתחים משתמשים בפלטפורמת Elastic Search AI, הכוללת את מסד הנתונים הווקטוריים של Elasticsearch, ליכולות חיפוש היברידיות מקיפות וכדי לנצל חדשנות מרשימה הולכת וגדלה של ספקי LLM. כעת, חווית מגרש המשחקים מפגישה את היכולות הללו באמצעות ממשק משתמש אינטואיטיבי, מסירה את המורכבות מהבנייה והחזרה על חוויות AI מחוללות, ובסופו של דבר מאיץ את זמן היציאה לשוק עבור הלקוחות שלנו."
Playground יכול למנף דגמי Transformer ישירות ב- Elasticsearch והוא מתוגבר על ידי Elasticsearch Open Inference API, המשלב מודלים מרשימה הולכת וגדלה של ספקים, כולל Cohere ו- Azure AI Studio.
המקור: חברת Elastic בכתובת הזאת:
למי שלא מכיר את נושא הRag:
Generation-Augmented Retrieval-Augmented (RAG) הוא תהליך של אופטימיזציה של הפלט של מודל שפה גדול, כך שהוא מפנה לבסיס ידע סמכותי מחוץ למקורות נתוני ההדרכה שלו לפני יצירת תגובה. מודלים של שפה גדולה (LLMs) מאומנים על כמויות עצומות של נתונים ומשתמשים במיליארדי פרמטרים כדי ליצור פלט מקורי עבור משימות כמו מענה על שאלות, תרגום שפות והשלמת משפטים. RAG מרחיבה את היכולות החזקות ממילא של LLMs לתחומים ספציפיים או לבסיס הידע הפנימי של ארגון, כל זאת ללא צורך בהכשרה מחדש של המודל. זוהי גישה חסכונית לשיפור תפוקת LLM כך שהיא תישאר רלוונטית, מדויקת ושימושית בהקשרים שונים. המקור מאתר של AWS בכתובת הזאת.