Google Cloud הכריזה על הזמינות הכללית של Vertex AI, פלטפורמת למידת מכונה מנוהלת (ML) המאפשרת לחברות להאיץ את הפריסה והתחזוקה של מודלי בינה מלאכותית (AI)
Vertex AI דורש כמעט 80% פחות שורות קוד להכשרת מודל לעומת פלטפורמות אחרות , מה שמאפשר למדעני נתונים ומהנדסי ML בכל רמות המומחיות את היכולת ליישם פעולות Machine Learning (MLOps) לבנות ולנהל ביעילות פרויקטים של ML לאורך כל מעגל החיים של הפיתוח.
כיום, מדעני הנתונים מתמודדים עם האתגר לחבר ידנית פתרונות נקודתיים של ML, ויוצרים זמן פיגור בפיתוח מודלים ובניסויים, וכתוצאה מכך מעט מאוד מודלים הופכים אותו לייצור. כדי להתמודד עם אתגרים אלה, Vertex AI מאגד את שירותי הענן של גוגל לבניית ML תחת ממשק משתמש אחד וממשק API אחד, כדי לפשט את התהליך של בנייה, הכשרה ופריסת מודלים של למידת מכונה בקנה מידה גדול. בסביבה יחידה זו, לקוחות יכולים להעביר מודלים מניסויים לייצור מהר יותר, לגלות בצורה יעילה יותר דפוסים וחריגות, לנבא תחזיות והחלטות טובות יותר, ובאופן כללי להיות זריזים יותר לנוכח דינמיקת שוק משתנה.
במהלך עשרות שנים של חדשנות והשקעה אסטרטגית ב- AI בגוגל, למדה החברה לקחים חשובים כיצד לבנות, לפרוס ולתחזק מודלים של ML בייצור. התובנות וההנדסה הללו אולצו בבסיס ועיצוב ה- Vertex AI, ויועשרו ללא הרף על ידי החידוש החדש שיצא מ- Google Research. עכשיו, לראשונה, עם Vertex AI, צוותי הנדסת נתונים ו- ML יכולים:
- לגשת אל ערכת הכלים AI המשמשת באופן פנימי להפעלת Google הכוללת ראייה ממוחשבת, שפה, שיחה ונתונים מובנים, המשופרת ברציפות על ידי Google Research.
- לפרוס יישומי AI נוספים ושימושיים יותר, במהירות רבה יותר עם תכונות MLOps חדשות כמו Vertex Vizier, שמגדיל את קצב הניסויים, חנות התכונות Vertex המנוהלת במלואה כדי לסייע למתרגלים לשרת, לשתף ולבצע שימוש חוזר בתכונות ML, וניסויי Vertex כדי להאיץ את פריסת המודלים. לייצור עם בחירת דגמים מהירה יותר.
- לנהל מודלים בביטחון על ידי הסרת המורכבות של תחזוקת מודלים בשירות עצמי והדירות בעזרת כלי MLOps כמו Vertex Continuous Monitoring ו- Vertex Pipelines כדי לייעל את זרימת ה- ML מקצה לקצה..
המקור: חברת Google. לידעה המלאה, הקישו כאן.
לדף המוצר, הקישו :