Red Hat, Inc. הכריזה על הזמינות הכללית של Red Hat Enterprise Linux (RHEL) AI ברחבי הענן ההיברידי. RHEL AI היא פלטפורמת המודל הבסיסית של Red Hat המאפשרת למשתמשים לפתח, לבדוק ולהריץ בצורה חלקה יותר מודלים של AI (Gen AI) כדי להפעיל יישומים ארגוניים.
הפלטפורמה מפגישה את משפחת Granite Large Language Model (LLM) ברישיון הקוד הפתוח וכלי יישור מודל InstructLab, המבוססים על מתודולוגיית Large-scale Alignment for chatBots (LAB), ארוזה כאימג'RHEL מותאמת וניתנת לאתחול עבור פרישות שרת בודדות ברחבי הענן ההיברידי.
בעוד שההבטחה של ה-Gen AI היא עצומה, העלויות הנלוות של רכישה, אימון וכיוונון LLM יכולות להיות אסטרונומיות, כאשר כמה דגמים מובילים עולים כמעט 200 מיליון דולר לאימון לפני ההשקה. זה לא כולל את עלות ההתאמה לדרישות או לנתונים הספציפיים של ארגון נתון, מה שבדרך כלל דורש מדעני נתונים או מפתחים בעלי התמחות גבוהה. לא משנה מה המודל שנבחר עבור יישום נתון, עדיין נדרש יישור כדי להתאים אותו לנתונים ולתהליכים הספציפיים של החברה, מה שהופך את היעילות והזריזות למפתח בינה מלאכותית בסביבות ייצור בפועל.
Red Hat מאמינה שבמהלך העשור הבא, מודלים קטנים יותר, יעילים יותר ומובנים למטרות AI יהוו שילוב מהותי של מחסנית ה-IT הארגונית, לצד יישומים מקוריים בענן. אבל כדי להשיג זאת, ה-Gen AI צריך להיות נגיש וזמין יותר, החל מהעלויות שלו ועד לתורמים שלו ועד למקום שבו הוא יכול לרוץ על פני הענן ההיברידי. במשך עשרות שנים, קהילות קוד פתוח עזרו לפתור אתגרים דומים עבור בעיות תוכנה מורכבות באמצעות תרומות מקבוצות מגוונות של משתמשים; גישה דומה יכולה להוריד את המחסומים לאימוץ יעיל של ה-Gen AI.
המקור: חברת Redhat בכתובת הזאת.