GPUs של NVIDIA ב-Oracle Cloud Infrastructure (OCI) מספקים אימון AI מהיר יותר והסקת מסקנות ללקוחות. כתוצאה מכך, OCI ראתה גידול נפיץ בשימוש בתשתיות לאימון דגמי AI בקנה מידה גדול.
מדוע NLP חשוב?
NLP, המופעל על ידי מודלים של שפות גדולות, משפר את האופן שבו אנו מתקשרים עם טכנולוגיה על ידי כך שהוא נותן למחשבים הבנה טובה יותר של טקסט ואודיו. מודלים אלו, כגון GPT-3, BLOOM ו-BERT, יכולים לכלול מאות מיליארדי פרמטרים המאפשרים תקשורת דמוית אדם. מקרי שימוש כוללים כלי תרגום, תיקון אוטומטי, השלמה אוטומטית, צ'אט בוטים, זיהוי דיבור וסיכום אוטומטי של טקסט כמו מאמרים, בלוגים ודוחות.
אימון מודלים של NLP דורש מערכי נתונים מסיביים, עם נתונים שנוקו, תיוג, תיוג וסיווג. הכשרת מודלים זקוקה לגישה למעבדים רבי עוצמה, אחסון מקומי מהיר וצפוף, רשתות אשכולות RDMA בעלות תפוקה גבוהה במיוחד עם אחזור נמוך במיוחד, וכלים לאוטומציה והרצת עבודות בצורה חלקה.
מדוע OCI לאימון מודלים
כדי להכשיר את אחד מדגמי ה-NLP הללו, דרושים מערכי נתונים מסיביים, עם נתונים שנוקו, תויגו, תויגו וסווגו. הכשרת מודלים זקוקה לגישה למעבדים רבי עוצמה, אחסון מקומי מהיר וצפוף, רשתות אשכולות RDMA בעלות תפוקה גבוהה במיוחד עם אחזור נמוך במיוחד, וכלים לאוטומציה והרצת עבודות בצורה חלקה.
OCI מציעה את החומרה והרשת בענן עם הביצועים הטובים ביותר. כדי לשמור על רוחב הפס הנדרש על ידי LLMs ולהקטין את הפעולות, צורות NVIDIA A100 Tensor Core GPU מחוברות זו לזו עם רשתות אשכול RDMA עם תפוקה גבוהה במיוחד עם אחזור נמוך. לכל צומת NVIDIA A100 יש שמונה כרטיסי ממשק רשת (NIC) של מלאנוקס 2-100Gbps המחוברים דרך בלוקי רשת האשכול בעלי הביצועים הגבוהים ביותר, וכתוצאה מכך רוחב פס של 1,600 Gbps בין הצמתים.
חידושים אלו מאפשרים ללקוחות כגון Adept ו-Aleph Alpha לאמן את הדגמים שלהם מהר יותר וחסכוני יותר מבעבר.
המקור: חברת אורקל. לידיעה המלאה, הקישו כאן.