הצהרת כוונות: אנבידיה שחררה את הפיתרון של Run:ai בקוד-פתוח

[בתמונה למעלה: מייסדי חברת Run:ai רונן דר (מימין) ועמרי גלר. קרדיט: Run:ai]

לאחר שהשלימה בתחילת השנה את המיזוג עם Run:ai, אנבידיה מבצעת מהלך משמעותי ראשון עם הטכנולוגיה של החברה הישראלית: היא השיקה היום (ג'), בקוד פתוח, את KAI Scheduler, כלי לניהול עומסי עבודה של בינה מלאכותית בתשתיות מחשוב-על, שזוהי למעשה טכנולוגיית הליבה של Run:ai.

הפיתרון ניתן כעת להורדה בעמוד של אנבידיה ב-Github תחת רישיון Apache 2.0, שהוא רישיון מאוד מתירני אשר יאפשר לארגונים, סטארטאפים, מעבדות מחקר ומפתחים להשתמש בקוד באופן חופשי, לשנותו ואפילו להפיץ את התוצרים באופן מסחרי, תוך מתן קרדיט למקור. 

KAI Scheduler היא פלטפורמת "תזמור" (orchestration), המאפשרת לנצל באופן מיטבי את משאבי העיבוד של תשתית ה-AI לצורך ביצוע משימות AI כמו אימון, ניסוי או הסקה. הפלטפורמה יודעת למפות את משאבי ה-GPU וה-CPU הזמינים ולהקצות את המשאבים הפנויים למשימות שעל הפרק. "תזמור" הוא היבט קריטי בניצול יעיל וחסכוני של תשתיות AI, שמתמודדות עם עומסים גדולים, מורכבים ודינמיים יותר ויותר בעידן ה-GenAI וסוכני AI. הפיתרון של Run:ai מתממשק עם כל סוג של מקבצי (cluster) מעבדים המנוהלים תחת קוברנטיס, בין אם אלה מעבדים של אנבידיה או של יצרניות אחרות.

בפוסט בבלוג מנו באנבידיה את היתרונות של KAI בהשוואה לפתרונות מקבילים בשוק, ובכלל זה יכולת לנהל באופן דינמי את ביקושי ה-GPU המשתנים, צמצום זמני המתנה למחשוב, הקצאת משאבים כדי להבטיח זמינות, והתממשקות חלקה עם כלי AI ומסגרות עבודה שונות. "KAI מחשב באופן רציף את הדרישות, מקצה מכסות ומגבלות בזמן אמת – ומתאים באופן אוטומטי את משאבי העיבוד הדרושים למשימות שעל הפרק. הגישה הדינמית הזו מבטיחה הקצאה יעילה של משאבי GPU, ללא צורך בהתערבות ידנית מצד המנהלים", נכתב בבלוג.

Run:ai נרכשה על ידי אנבידיה ב-700 מיליון דולר. התוכנה של Run:ai מיועדת להוות מרכיב משמעותי באקוסיסטם של אנבידיה ולאפשר ללקוחות החברה למקסם את התועלת שהם מפיקים מתשתיות החומרה שלה. ניהול נכון של משימות ה-AI, באמצעות פיתרון כמו זה של Run:ai, שנחשבת לחלוצה בתחום, יכול למקסם תפוקה ולהפחית עלויות שימוש. שחרוור חלק מהטכנולוגיה של Run:ai בקוד-פתוח, אף שהוא מתממשק גם עם מעבדים של חברות מתחרות, הינו מהלך שנועד לחזק את האקוסיסטם של אנבידיה בקהילת הקוד-פתוח ולאפשר למשתמשים שונים לרתום ולהתאים את הפיתרון למקרי בוחן מגוונים.

 

דל תטמיע את הפתרון של Run:ai בשרתי ה-AI שלה

[בתמונה למעלה: מייסדי חברת Run:ai רונן דר (מימין) ועמרי גלר. קרדיט: Run:ai]

חברת Run:ai וחברת Dell הודיעו על הרחבת שיתוף הפעולה ביניהן. כעת תשתית ה-AI של דל, Dell AI Factory, תכלול את תוכנת ניהול משאבי העיבוד של Run:ai. בחודש אפריל חתמה אנבידיה על הסכם לרכישת Run:ai תמורת 700 מיליון דולר, ואולם עסקת המיזוג טרם צלחה את המשוכות הרגולטוריות ויש סימן שאלה לגבי השלמת העסקה. Run:ai פיתחה טכנולוגיה מבוססת קוברנטיס (Kubernetes) לניהול עומסי העבודה בתשתיות מחשוב-על ליישומי בינה מלאכותית (AI).

Dell AI Factory היא תשתית מקצה-לקצה לארגונים עבור אימון והרצה של יישומי AI. התשתית כוללת שרתים עם מעבדי אנבידיה, כונני אחסון, פתרונות קישוריות, מסופי עבודה וממשק משתמש. כעת החבילה הזו תכלול גם את פלטפורמת ניהול משאבי העיבוד של Run:ai.

זהו הסכם משמעותי עבור Run:ai, וזאת בהיותה של דל אחת הספקיות המובילות בשוק של תשתיות AI, יש לה שיתוף פעולה הדוק עם אנבידיה, ובין לקוחותיה ספקיות שירותי ענן, גופים ממשלתיים וארגונים. זוהי דריסת רגל בשוק שצומח במהירות. הכנסותיה של דל מחטיבת שרתי ה-AI צפויות, לפי אתר barrons, להגיע ל-8 מיליארד דולר ב-2024 ולגדול ל-10 מיליארד דולר ב-2025. שוק שרתי ה-AI הכללי צפוי לגדול מ-91 מיליארד דולר ב-2024 ל-190 מיליארד דולר ב-2026 – קצב גידול שנתי של 45%.

מנכ"ל ומייסד שותף של Run:ai, עמרי גלר, אמר כי מדובר בציון דרך חשוב בצמיחה של החברה. "באמצעות שיתוף הפעולה עם דל, ארגונים מקבלים פתרון מאוחד, שכולל תשתית מובילה ותוכנת 'תזמור' מתקדמת. האינטגרציה הזו מפשטת את הדרך לחדשנות בתחום ה-AI, ומאפשרת לארגונים להתמקד בתוצאות ולא במורכבות התשתית".

גם באנבידיה הגיבו לשיתוף הפעולה. "האימוץ הגובר של AI מחייב גישה חדשה לניהול תשתית החומרה. שיתוף הפעולה הזה, הנתמך על ידי פתרונות המחשוב המואץ של אנבידיה, מסייע לארגונים לבנות תשתיות AI ולבצע סקיילינג בהתאם לצרכיהם המשתנים".

בחודש אוגוסט דווח באתרים Politico ו-Financial Times כי רשות התחרות האמריקאית בוחנת את עסקת המיזוג בין אנבידיה ל-Run:ai, וזאת מחשש שצירוף הטכנולוגיה של Run:ai לסל המוצרים של אנבידיה יחזק את מעמדה "המונופוליסטי" של אנבידיה בתחום ה-AI. לפני כחודש דווח כי גם האיחוד האירופי בודק את חוקיות העסקה.

הטמעת שירותים מבוססי בינה מלאכותית הוא תהליך מורכב אשר צריך להתמודד עם פיצול עומסי העבודה בין הענן, מחשבי הקצה (Edge AI), ועד לתשתיות של מרכזי נתונים עצמאיים (On-Premises). הטכנולוגיה של Run:ai מאפשרת ללקוחות ארגוניים לנהל ולייעל את תשתיות המחשוב שלהם, בין אם הן נמצאות ב-Data Center בבעלות החברהבענן או בסביבה היברידית.