PTC משלבת ב-Creo מודולי "תכנון בעזרת AI"

בתמונה למעלה: מנכ"ל חברת PTC ישראל, אלכס שקבסקי

חברת PTC האמריקאית פיתחה מודולי בינה מלאכותית אשר משולבים בתוכנת התיב"ם Creo המפותחת ברובה בישראל ומהווה מוצר הדגל של החברה. בראיון עם Techtime סיפר מנכ"ל PTC ישראל, אלכס שקבסקי, שהמודול הראשון יהיה מסוג Advisor ויתמקד בעזרה למהנדס להתמודד עם בעיות תכנוניות. במקביל, החברה נמצאת בתהליכי שילוב של מודול מתקדם יותר, Assist, אשר כבר יוכל לבצע שינויים בתוך תוכנת ה-CAD בהתאם להנחיית המהנדס. המודולים החדשים צפויים לצאת לשוק בחודש הבא, במסגרת העדכון הקרוב של תוכנת Creo. המודול המתקדם (אסיסט) ייצא לשוק במתכונת של תוכנת ביטא, במטרה לקבל משוב מהתעשייה ולהביא אותו בתוך כשלושה חודשים לרמה של מוצר מוגמר.

עוזר חכם – אבל רק עוזר

שקבסקי: "הרעיון שלנו הוא שמודול הבינה המלאכותית ישמש בתחילה כיועץ למהנדס, אחר-כך עוזר ובסוף הוא יעניק אוטומציה מלאה. הנדסה היא דבר מאוד מדוייק ולכן הפתרון שלנו יספק למהנדס סביבה בטוחה. ה-AI לא יעשה שום דבר ללא אישור סופי של המהנדס – ולמהנדס תהיה אפשרות להחזיר את הדברים לקדמותם. אנחנו מתכננים לבצע את המהלך באיטיות מכוונת ובזהירות. בשלבים הראשונים נלמד את המערכת לבצע דברים בסיסיים, ובשלבים הבאים נבנה לעצמנו בסיס נתונים מייצג שעליו אפשר להתחיל ללמד את המודול לבצע תכנון.

"אנחנו נספק את היכולות האלה באמצעות הענן, אולם ברור שיש הרבה לקוחות שלא יתנו לנו את הנתונים שלהם, והם יוכלו להריץ את המערכת על-גבי הענן הארגוני הפרטי שלהם. לדבריו, לקוחות רבים מבקשים שהחברה תספק להם מודולי AI אשר לומדים את בסיס הנתונים הארגוני שלהם. "אחד מהכיוונים העתידיים של הטכנולוגיה החדשה הוא איסוף ידע ארגוני. החברות מתמודדות עם בעיית אובדן ידע של מהנדסים מנוסים אשר יוצאים לפנסיה. המטרה היא לספק ללקוחות מערכת AI שתאפשר לאסוף ידע הקיים בראשם של אנשים, ועל-ידי כך להשתמש בו בתכנונים חדשים".

מרכז הפיתוח הישראלי של חברת PTC מעסיק כ-300 עובדים ופועל ממשרדים בהרצליה וממרכז מחקר בקמפוס הטכניון בחיפה. זהו מרכז המו"פ השני בגודלו בעולם של PTC (לאחר המרכז בארה"ב), ואחראי על מוצר הדגל המרכזי של החברה: תוכנת התיב"ם Creo. היא נחשבת לסטנדרט בתעשיות "כבדות" כמו תעופה, ביטחון ורכב הזקוקות לדיוק קיצוני, ניהול אלפי חלקים בהרכבה אחת, ויכולות סימולציה פיזיקלית עמוקות. בשוק הזה יש לה שתי מתחרות מרכזיות: דאסו סיסטמס הצרפתית וסימנס הגרמנית. בין לקוחותיה: HP, רייתאון, רפאל הישראלית, ג'ון דיר, נאס"א, לוקהיד מרטין, וולוו, פולקסווגן וטויוטה.

שקבסקי הצטרף לחברה לפני 33 שנים כמהנדס תוכנה. כיום הוא סגן נשיא בכיר למחקר ופיתוח. בחודש שעבר הוא מונה למנכ"ל במקומו של זיו בלפר שניהל אותה ב-20 השנים האחרונות. לצד הניהול של PTC ישראל, הוא ימשיך לשמש כמנהל מערך הפיתוח של תוכנת התיב"ם Creo, אשר מפותחת ברובה בישראל, כולל מודולי ה-AI החדשים המשולבים בה בהדרגה.

ה-AI מחזיר את המהנדס אל תפקידו האמיתי

מאת: חיים גרון, מייסד ומנכ"ל משותף של חברת Infinity Labs R&D

חברות תוכנה וגופי מחקר ופיתוח נמצאים בימים אלו בעיצומה של סערה. חברות התוכנה סופגות צניחות בשערי המניות בבורסה בשל תחזית לירידה משמעותית בהכנסות ממודל ה-SaaS, והן מקצצות במספר המועסקים בתפקידי פיתוח לטובת מחוללי קוד מבוססי בינה מלאכותיתה-AI משנה את חוקי המשחק: הוא מקצר זמנים, מוריד חסמי כניסה ומייתר שכבות שלמות של מוצרים שהיו עד אתמול עסק לגיטימי. צעירים הבוחנים כיום מה ללמוד ובמה לעסוק, חוששים לפנות לכיוון של פיתוח תוכנה בשל תחזיות שה-AI ייתר את כתיבת הקודג, ויפגע עוד בחברות התוכנה.

לכל ברור שלא מדובר באירוע זמני, אלא במגמה. אבל בתוך הרעש הזה יש אמת חשובה ששמעטים לומר בקול רם: הפיתוח לא מת, הוא פשוט חוזר להיות מקצוע רציני. בעידן שבו ניתן לייצר את הקוד במהירות, ערכו של המהנדס לא נבחן במספר שורות הקוד שהוא מייצר או במהירות הסגירה של משימה (טיקט) – הערך חוזר להיות משהו עמוק בהרבה: יכולתו לבנות מערכות קריטיות שקשה מאוד להחליף באמצעות אוטומטעתיד המפתחים עובר לשכבות עמוקות יותר של טכנולוגיה: למערכות קריטיות, למערכות משובצות מחשב (Embedded Systems) ולמערכות זמן אמת (Real-Time). אלו המקומות שבהם כל שורת קוד נבחנת לא לפי מהירות כתיבתהנת – אלא לפי האמינות, האבטחה ויכולתה לעמוד באילוצים של משאבים מוגבלים ותנאי קיצון.

אלו התכונות והיכולות הדרושות כיום ממהנדס פיתוח הרוצה להשתלב בתפקיד משמעותי בתעשייה (מתגמלת מאוד):

חשיבה מערכתית: בעולם שבו ה-AI יכול לייצר פונקציות בודדות בשניות, תפקיד המהנדס הוא לראות את התמונה המלאה. להבין כיצד חלקי המערכת מתחברים זה לזה, כיצד היא תגיב תחת עומסי קיצון ומה יקרה כשנקודת כשל אחת תאיים על המבנה כולו. ה-AI יודע לכתוב קוד, אבל המהנדס צריך לתכנן ארכיטקטורה טובה ויעילה.

משמעת הנדסית: הקלות שבה ניתן לייצר "פיצ'רים" גרמה לתעשייה לשכוח לעיתים את היסודות. מהנדס טוב מחזיר לשולחן את המתודולוגיה: בדיקות קפדניות, תיעוד מעמיק וניהול גרסאות דקדקני. במערכות קריטיות שבהן אין אפשרות לבצע "כיבוי והדלקה מחדש", המשמעת ההנדסית היא ההבדל בין הצלחה לאסון.

אחריות על התוצאה: – קוד המיוצר על-ידי מכונה הוא חסר אחריות. מהנדס כיום לא צריך להסתפק ב"זה עובד אצלי", אלא לקחת בעלות מלאה על העמידה בדרישות הקצה. בעידן החדש, האחריות הופכת למטבע היקר ביותר בשוק העבודה. ה-AI יחליף הרבה תוכנות, אולם הוא לעולם לא יחליף את האחריות האנושית על מערכת שחיי אדם או כלכלה של מדינה שלמה תלויים בה.

חיים גרון הוא מייסד ומנכ"ל משותף של Infinity Labs R&D, חברת מחקר ופיתוח העוסקת בהכשרת הדור הבא של מהנדסי הייטק בישראל
חיים גרון הוא מייסד ומנכ"ל משותף של Infinity Labs R&D, חברת מחקר ופיתוח העוסקת בהכשרת הדור הבא של מהנדסי הייטק בישראל

שליטה בכלי AI ללא תלות בהם: השימוש ב-AI מעניק יתרון תחרותי אדיר, אך מהנדס טוב חייב לדעת לאמת ולתקף את התוצרים שלו. הוא משתמש בטכנולוגיה כעזר לצורך האצת תהליכים, אך הוא נשאר הסמכות המקצועית העליונה, אשר בודקת, מקבלת החלטות וקובעת מה נכון, מה בטוח ומה "מחזיק מים" מבחינה לוגית.

הבנת מערכות מורכבות: העתיד המקצועי היציב נמצא במקום שבו ה-AI עדיין מתקשה לספק מענה, שהוא החיבור שבין מערכות תוכנה לחומרה, מערכות זמןאמת וסביבות מוגבלות במשאבים. אי-אפשר להחליף מערכות כאלה בלחיצת כפתור או לשכפל אותן בקלות. שם נדרשת הבנה עמוקה של אבטחה, אמינות ודיוק. אלה התכונות שהופכות מפתח טוב למהנדס חזק.

לסיכום, אנו רואים היום תנועה של מפתחים מנוסים, כאלו שצברו קילומטראז' ב-Full-Stack אשר שמבינים שהקרקע זזה מתחת לרגליהם. הם לא מחפשים רק עבודה, הם מחפשים חוסן מקצועי. המציאות החדשה מחייבת אותנו לחשב מסלול מחדש גם בדרך שבה אנו מכשירים את מהנדסי העתיד. עלינו להפסיק להכשיר אנשים לעולם של "עוד דשבורד" או "עוד אפליקציה". זהו שוק ההולך ומצטמצם. אנחנו צריכים להתמקד בהסבת כוח אדם איכותי לתעשיות הליבה הדורשות אמינות, איכות ומשמעת, כמו תעשיות הביטחון, התשתיות הקריטיות והמערכות המורכבות.

בטיחות בעיר וניהול תנועה באמצעות Edge AI

הכתבה היא תוכן ממומן מטעם Advantech.

עם העלייה בעומסי תנועה, התרחבות הערים והדרישה הגוברת לבטיחות, מאיצות ממשלות במזרח התיכון את ההשקעה בתשתיות תחבורה חכמות ובבטיחות עירונית. חברת המחקר IDC מעריכה שההוצאה על בינה מלאכותית במזרח התיכון, טורקיה ואפריקה צפויה לגדול מכ־4.5 מיליארד דולר בשנת 2024 לכ־14.6 מיליארד דולר בשנת 2028. במסגרת שינוי זה, ניטור תנועה, זיהוי אירועים בזמן אמת וניהול ניידות עירונית הופכים ליישומים מרכזיים.

חברת Advantech תומכת במגמה זו באמצעות פורטפוליו מקיף של פלטפורמות מחשוב Edge AI ופתרונות תקשורת תעשייתיים המיועדים במיוחד לסביבות תחבורה. תוך הסתמכות על יותר מ־40 שנות ניסיון באוטומציה תעשייתית ובמחשוב משובץ, החברה מאפשרת לאינטגרטורים ולרשויות עירוניות לפרוס ארכיטקטורות תנועה חכמות בקנה מידה רחב – החל מתשתיות בצדי הדרכים, דרך מרכזי בקרה לתנועה, ועד מערכות רכבת ויישומי כלי רכב מקושרים.


מודיעין תנועה בזמן אמת באמצעות Edge AI

פלטפורמות המחשוב בקצה של Advantech מאפשרות עיבוד בזמן אמת של זרמי וידאו ונתוני חיישנים ישירות בקצה הרשת. יכולת זו מסייעת למפעילי מערכות תחבורה לזהות דפוסי עומס, לאתר אירועי בטיחות ולבצע אופטימיזציה של תיאום רמזורים במהירות ובדיוק גבוהים יותר. מחקר של חברת Grand View Research מצביע על כך ששוק ה־Edge AI העולמי צפוי לצמוח מכ־24.9 מיליארד דולר בשנת 2025 לכ־118.7 מיליארד דולר עד 2033.

הנתון המשקף ביקוש הולך וגובר לניתוח נתונים מקומי בסביבות עתירות מידע כמו מערכות תחבורה חכמות. כדי לענות על דרישות אלו, פתרונות החברה מציעים אפשרויות הרחבה עם GPU בעלי ביצועים גבוהים, תכנון מוקשח המתאים לפריסה בתנאי חוץ, ואמינות ארוכת טווח להפעלה רציפה של מערכות תנועה 24 שעות ביממה, 7 ימים בשבוע. שילוב בין אנליטיקה מבוזרת לבין ניטור מרכזי מאפשר לערים לבנות תשתיות ניידות עמידות וגמישות יותר.


תחבורה חכמה בעולם האמיתי

Advantech הייתה מעורבת בפרויקטים רבים של מערכות תחבורה אינטליגנטיות ברחבי העולם. באחד המימושים, פלטפורמת ניטור תנועה מבוססת וידאו ובינה מלאכותית שימשה לתמיכה בבקרת רמזורים אדפטיבית, ואפשרה לרשויות לשפר את ניהול העומסים ולבצע אופטימיזציה של זמני הרמזורים בשעות השיא. הוטמעו גם טכנולוגיות זיהוי תמונה מבוססות AI, המסוגלות לזהות הולכי רגל וכלי רכב בזמן אמת, ובכך להפחית זמני המתנה ולשפר את הבטיחות הן עבור נהגים והן עבור הולכי רגל.

בפרויקטים רחבי היקף של ערים חכמות הוטמעו גם שרתי GPU עתירי ביצועים, המאפשרים ניתוח וידאו מתקדם בהיקף גדול, ניטור עירוני רציף ותגובה מהירה יותר לאירועים. בנוסף, מערכות עיבוד וידאו מבוזרות תומכות ביישומי ניטור תנועה באתר עצמו ומשפרות את המודעות המצבית ברשתות תחבורה. יישומים אלה מדגימים כיצד טכנולוגיות Edge AI יכולות לסייע לערים לשפר את יעילות הניידות, לחזק את הבטיחות ולתמוך באסטרטגיות לניהול תנועה מבוסס נתונים.


תשתיות תקשורת משולבות וארכיטקטורה מדרגית לניידות חכמה

מעבר לפלטפורמות Edge AI, Advantech מספקת גם פתרונות תקשורת תעשייתיים המאפשרים קישוריות חלקה בין ארונות תקשורת בצדי הדרך, מוקדי תחבורה ומרכזי בקרה מרכזיים. ארכיטקטורות תקשורת מאובטחות מאפשרות העברת נתונים יציבה בין התקני השטח לבין מערכות הניטור, ומסייעות לערים לתאם תגובות לשיבושי תנועה ולשמור על רציפות תפעולית.

מחקר של חברת Seagate בשיתוף IDC מצביע על כך שהיקף יצירת הנתונים העולמית צפוי להגיע לכ־175 זטה־בייט עד שנת 2025, כאשר חלק משמעותי מהנתונים ייווצר ויעובד בקצה הרשת. מגמות אלו מחזקות את הצורך בפלטפורמות מחשוב עמידות המסוגלות לתמוך בפעולות תחבורה קריטיות כגון ניטור תנועה, תגובה לאירועים ותיאום בטיחות עירונית.


הצטרפו לוובינר: חידושי Edge AI לתנועה חכמה ולבטיחות הציבור

כדי להציג את טכנולוגיות התחבורה החכמה העדכניות ואת אסטרטגיות הפריסה שלהן, תקיים Advantech וובינר שיתמקד ביישומי Edge AI לניהול תנועה חכם ולבטיחות עירונית. במפגש ישתתפו מומחי תעשייה ושותפים אזוריים שיציגו תובנות מפרויקטים בפועל, שיקולי תכנון תשתיות והזדמנויות חדשות בתחום פיתוח הניידות החכמה.

להרשמה לוובינר: https://advantech-connect.ae/

ה-AI מגיע לאנטנה ומשנה את פני הרשת

אחד מהנושאים המרכזיים בכנס MWC 2026 שנפתח היום (ב') בברצלונה, הוא ארכיטקטורת רשת חדשה המבוססת על בינה מלאכותית קרוב לאנטנות, אשר נתפשת כצורך חיוני בדרך לבניית רשתות הדור השישי. ההתפתחות המהירה של תשתיות הבינה המלאכותית מתחילה לשנות את המבנה של הרשתות הסלולריות, והשחקניות המרכזיות בתחום מתחילות לדחוף הההגדרה והאימוץ של ארכיטקטורת AI-RAN, המבוססת על הרעיון של ניהול רשת גמיש באמצעות בינה מלאכותית ולא באמצעות אלגוריתמים וחוקים שנקבעו מראש.

הפעם מדובר בשילוב של הבינה המלאכותית בתוך מרכיב התקשורת האלחוטית עצמה (Artificial Intelligence Radio Access Network), ולא בניהול שירותים מרחוק, המתבצע כבר היום בענן (רשת וירטואלית) או במרכזי המחשוב של הרשת הסלולרית. לפי התפישה החדשה, האופטימיזציה והניהול המקומי של תחנות השיגור והקליטה יבוצעו באמצעות תוכנות בינה מלאכותית מסתגלות אשר יידעו לחזות או להגיב במהירות לשינויים בתנאי השידור והקליטה, העומסים, הפרעות וכדומה, וביצוע אופטימיזציה מיידית של המשדרים והמקלטים לתנאים המשתנים. מבחינת תשתיות הרשת, הדבר כרוך בשילוב מאיצי AI ומעבדי GPU בתחנות הבסיס של הרשת ובהרצת חישובי הסקה בנקודות רבות בקצות הרשת (Edge AI).

השוק הצומח הבא, שאחרי מרכזי נתונים

מבחינת ספקיות חומרת ותוכנת AI, זהו שוק חדש וגדול, מעבר לשוק מרכזי הנתונים העומד במרכז פרוייקט תשתיות ה-AI. מבחינת ספקיות התקשורת, מדובר ברעיון שיוכל להוזיל בהרבה את העלויות מכיוון שהוא יביא לאוטומטיזציה של תחזוקת הרשת גם ברמת התקשורת האלחוטית הבסיסית ביותר. מבחינה טכנולוגית, ארכיטקטורת AI-RAN מאפשרת להתמודד עם המורכבות העצומה של רשתות הדור השישי (6G), אשר דורשות התמודדות שימוש בטכנולוגיות עיצוב אלומה, Massive MIMO, חלוקת דינמית של תדרים, וזמני תגובה סופר-קצרים הנדרשים ליישומי רכב אוטונומי ורובוטיקה צרכנית ותעשייתית. אלה מטלות שקשה לנהל באופן ידני, ולכן הן דורשות להביא את ה-AI קרוב מאוד לאנטנה.

על הרקע הזה הוקם ב-2024 ארגון AI-RAN Alliance על-ידי אנבידיה, מיקרוסופט, נוקיה, אריקסון, סמסונג, סופטבנק, Arm, AWS ו-T-Mobile. המטרה: לשפר את פריסת רשתות הדור החמישי ולהיערך לדור השישי באמצעות בניית רשתות סלולריות מבוססות בינה מלאכותית (AI-native). ערב פתיחת ארועי MWC 2026 מסרה ברית AI-RAN שמאז השקתה הצטרפו אליה 132 חברות, בהן ענקיות כמו קואלקום, וודאפון ו-SK Telecom, אשר יבצעו 33 הדגמות מעשיות המראות כיצד שילוב בינה מלאכותית ברשת הגישה האלחוטית (RAN) משפרת את ביצועי הרשת, מייעלת עומסי עבודה ומייצרת שירותי Edge-AI חדשים.

חברת אינטל דיווחה שהרעיון כבר נמצא בשימוש מעשי, והודיעה לקראת התערוכה שיש לה 6 לקוחות שהן חברות הטלקום הגדולות בעולם, אשר משתמשות במעבדי Intel Xeon 6 כדי לבצע אופטימיזציה מבוססת בינה מלאכותית של הרשתות האלחוטיות, הן בשכבת ה-RAN והן בליבת הרשת. פרוייקט משותף של אינטל ואריקסון השיג שיפור של 20% בתפוקת רשת של AT&T באמצעות AI מובנה. התוצאה: AT&T מתכננת להעביר 70% מתעבורת האלחוט שלה לפלטפורמות פתוחות עד סוף 2026. במקביל, המערכות נמצאות בתהליכי התקנה ברשתות של Vodafone, Rakuten Mobile ,SK Telecom, NTT DOCOMO ו-Bharti Airtel.

תחנת הבסיס האלחוטית של הכלכלה

חברת אנבידיה הודיעה לקראת התערוכה שהיא מתחייבת לבנות את הדור הבא של רשתות האלחוט (6G) בגישת AI-native, ועל-גבי פלטפורמות פתוחות. הפרוייקט מתבצע בשיתוף פעולה עם קבוצה של מפעילי תקשורת וספקי תשתיות הכוללת חברות כמו Booz Allen, ‏BT Group, ‏Cisco, ‏Deutsche Telekom, ‏Ericsson, ‏MITRE, ‏Nokia, ‏ODC, ‏SK Telecom, ‏SoftBank Corp. ו-T-Mobile. "רשתות 6G ייהפכו לתשתית ה-Physical AI, ויאפשרו להפעיל מיליארדי מכונות אוטונומיות, כלי-רכב, חיישנים ורובוטים". מייסד ומנכ"ל אנבידיה, ג'נסן הואנג, הגדיר את המהלך כ"צעד הבא" בתהלך בניית התשתיות הגדול ביותר בהיסטוריה.

הואנג: "ביחד עם קואליציה של מובילי התעשייה בעולם, אנחנו בונים AI-RAN כדי להפוך את רשתות הטלקום לתשתית AI בכל מקום". מנכ״ל T-Mobile, סריני גופאלן, הגדיר את הכיוון החדש של תעשיית התקשורת כרגע מכריע: "כאשר 6G יהפוך לעמוד השדרה של עידן ה-AI, הטלקום ישמש כמערכת העצבים של הכלכלה הדיגיטלית".

הפנטגון מאיים על עתיד כוכבת ה-AI הזוהרת ביותר

מאת: יוחאי שויגר

ביום שישי האחרון, יממה אחת בלבד לפני פתיחת המתקפה הישראלית אמריקאית נגד איראן, הכריז הפנטגון שהמוצרים של חברת אנתרופיק (Anthropic) האמריקאית שפיתחה את סדרת המודלים הלשוניים הגדולים (LLM) ממשפחת Claude, מהווים “סיכון בשרשרת האספקה”. זוהי הכרזה דרמטית בעולם כלכלת הביטחון האמריקאית, אשר מסוגלת למוטט חברות כמעט ברגע, והפעם מדובר באחת מפלטפורמות ה-AI החשובות בעולם. העיתון וול סטריט ג'ורנל דיווח היום (א'), שהפיקודים האזוריים של צבא ארצות הברית, כולל פיקוד מרכז במזרח התיכון (Centcom) האחראי על המבצע באיראן, משתמשים ב-Claude לצורך ביצוע הערכות מודיעיניות, זיהוי מטרות וסימולציה של תרחישי קרב. בין השאר, גורמים המקורבים לנושא מסרו לוול סטריט ג'ורנל שהכלים האלה שימשו בתכנון וביצוע מבצע לכידת נשיא ונצואלה לשעבר, ניקולאס מדורו.

חברת אנתרופיק (Anthropic) האמריקאית, אשר פיתחה סדרת המודלים הלשוניים הגדולים (LLM) ממשפחת Claude (על-שם קלוד שאנון ממציא תורת התקשורת), נקלעה לסכסוך בעצימות יוצאת דופן בעוצמתה עם הפנטגון, שעשוי אפילו לסכן את קיומה. בחודשים האחרונים תפסו המודלים והצ'אטבוט שלה ממונטום חזק מאוד בשוק. מודל פיתוח התוכנה Claude נתפס ככלי המוביל בשוק הארגוני וכבחירה מועדפת בקרב מתכנתים וצוותי פיתוח. בשבועות האחרונים השיקה החברה שורה של יכולות מתקדמות, החל מאוטומציה בכתיבת קוד, ניתוח מסמכים פיננסיים וכלה ביכולת עבודה מול מאגרי מידע ארגוניים וכלי אבטחה – אשר חיזקו את מעמדה כגורם מרכזי במהפיכת ה-AI הארגוני.

גם המספרים שיקפו את ההתלהבות: לפני מספר שבועות החברה השלימה גיוס הון בהיקף של כ-30 מיליארד דולר לפי שווי חברה של כ-380 מיליארד דולר. כמעט פי שניים מהשווי בסבב הקודם שנערך כשישה חודשים קודם לכן. לכל היה נראה שהחברה עלתה על הנתיב הבטוח לבסס את מעמדה כאחת משחקניות ה-AI החשובות בעולם. אלא שאנתקופיק איננה רק חברת בינה מלאכותית, אלא גם חברה עם אידיאולוגיה. המודלים שלה מבוססים על פיקוח הדוק של בני אדם וכוללים מודול שהחברה פיתחה בשם "בינה מלאכותית חוקתית (Constitutional AI): זוהי גישה שפותחה על-ידי Anthropic לצורך אימון Claude ומערכות בינה מלאכותית אחרות, במטרה להבטיח שהן יהיו בלתי מזיקות ומועילות, גם כאשר הן אינן מסתמכות על משוב אנושי נרחב. ה"חוקה" הזו היא אוסף של עקרונות המנוסחים בשפה מילולית המובנת לבני אדם, שלפיהם המודל מנסה להתאים את תשובותיו לפקודות (prompts) כדי לעמוד בהם. החברה אפילו הצהירה שבכוונתה להביא לכך שהחוקה של Claude תשמש מודל לחיקוי עבור חברות אחרות בתעשייה.

בנקודה הזו החל הסכסוך עם מערכת הביטחון האמריקאית: לפני מספר שבועות ביקש הפנטגון לחתום על הסכם שימוש רחב-היקף בטכנולוגיה של אנתרופיק ונכנס איתה למשא ומתן אינטנסיבי. אלא שאנתרופיק דרשה לכלול בהסכם שני סעיפי החרגה מיוחדים: איסור שימוש בכלים שלה לצורך מעקב המוני אחר אזרחים בתוך ארצות הברית, ואיסור שימוש בטכנולוגיה שלה במערכות נשק קטלניות הפועלות באופן אוטונומי לחלוטין ללא פיקוח אנושי. הממשל סירב לוותר על הדרישה, אנתרופיק סירבה לוותר על העקרונות, והפנטגון הוציא את הסכסוך לאור היום כאשר הודיע בפומבי שהציב לחברה אולטימטום: לסגת מהדרישות עם יום שישי האחרון בשעה 17:00, או להסתכן בהגדרתה כ“סיכון בשרשרת האספקה”. אנתרופיק לא נסוגה מעמדותיה, ובשעה הנקובה לחץ הפנטגון על ההדק.

סנקציה השמורה לגורמים עוינים

זהו צעד דרמטי. ההכרזה הזו איננה עוד ביטול נקודתי של חוזה, אלא סימון החברה כגורם שעלול לסכן את שרשרת האספקה הביטחונית של ארצות הברית. מדובר במהלך חסר תקדים כלפי חברה אמריקאית מובילה. כלים מסוג זה הופעלו בעבר בעיקר כלפי חברות זרות שנתפסו כאיום ביטחוני, דוגמת וואווי ו-ZTE הסיניות. הוא גם מטיל צל כבד על יכולתה של אנתרופיק להמשיך ולהתרחב בקרב חברות המספקות שירותי צד שלישי למנגנוני המדינה ולמגזר הארגוני האזרחי בכללו שעשוי לאבד את אמונו בחברה. מה שנראה בתחילה כמערכת יחסים שתביא את החברה אל מסלול צמיחה מהיר, הפך למבחן הישרדות קשה במיוחד.

המושג “שרשרת אספקה” של משרד ההגנה הוא בעל עומק כלכלי עצום. לא מדובר ברשימה מצומצמת של קבלניות ביטחוניות כמו לוקהיד מרטין או בואינג, אלא במערך גדול מאוד של חברות פרטיות וקבלני משנה: אינטגרטורים, ספקיות ענן, חברות סייבר, תוכנה, לוגיסטיקה, ייעוץ וייצור. בחמש השנים האחרונות בלבד, יותר משני טריליון דולר מתקציבו הועברו לחברות פרטיות דרך חוזים שונים. המשמעות היא ששרשרת האספקה חודרת עמוק לתוך המגזר העסקי האמריקאי.

כאן עולה השאלה: עד לאן מגיעה ההכרזה ובאיזה מידה הפנטגון יאכוף אותה. האם מדובר באיסור להשתמש בטכנולוגיה של אנתרופיק בפרויקטים ביטחוניים בלבד, או שכל חברה שיש לה חוזה עם משרד ההגנה, אפילו אם מדובר בשירות תומך או במוצר שולי, תצטרך להימנע מכל התקשרות עמה? בפרשנות מקסימליסטית, חברות רבות במגזר הארגוני האמריקאי עלולות למצוא עצמן נדרשות לבחור בין עבודה עם הפנטגון לבין שימוש בכלים של אנתרופיק.

וזו נקודת הפגיעה הרגישה ביותר עבור החברה. אנתרופיק ביססה לעצמה נתח שוק משמעותי דווקא במגזר הארגוני, עם מומנטום מהיר בהטמעת AI בתהליכי פיתוח, אוטומציה ותפעול. אם ארגונים יחששו שהמשך עבודה עמה יסכן את יחסיהם עם הממשל האמריקאי, ייתכן שנראה הקפאת התקשרויות, מעבר למתחרות או האטה בחתימת חוזים חדשים. מעבר לכך, ארגונים שכבר הטמיעו את Claude במערכות ליבה עלולים להידרש לבחון מחדש תשתיות קיימות – מה שעלול ליצור דיסרפשן תפעולי רחב. אנתרופיק הודיעה שבכוונתה לפנות להליך משפטי ולערער על ההחלטה. אם בית משפט יבחן את שאלת הסמכות ואת היקף ההכרזה, ייתכן שהמהלך יצומצם או אפילו יבוטל. אולם עד שתתקבל הכרעה, עצם התיוג כ”סיכון בשרשרת אספקה” מרחף מעל החברה כמו ענן מאיים וכבד.

מלחמת התרבות

אנתרופיק ידועה כחברה שנושאת את דגל ה“בטיחות” והשימוש האתי ב-AI. הזהות שלה נבנתה סביב מגבלות, אחריות ופיקוח — קו שמלכתחילה לא משתלב באופן טבעי עם תפיסת ההפעלה של משרד ההגנה האמריקאי. ייתכן שבחברה קיוו שהעימות יסתיים בפשטות בכך שלא יעבדו עם הפנטגון. בפועל, המחלוקת גלשה במהירות ממחלוקת חוזית למלחמת תרבות -ולמבחן כוח עבור משרד ההגנה והממשל. שר ההגנה האמריקאי, פיט הגסת', הוביל מאז כניסתו לתפקיד קו מוצהר של מאבק ברעיונות ליברליים המוגדרים כ-Wok ומניעת כניסתם לצבא. הדבר משתקף גם בתפיסתו לגבי השימוש בבינה מלאכותית: "הפנטגון לא מפתח צ’אטבוטים לסטודנטים באוניברסיטאות עילית, אלא מכונות מלחמה”, הוא הצהיר. מבחינתו, AI צבאי מיועד לשרת עליונות מבצעית, ולא לשקף רגישויות חברתיות. בתוך ההקשר הזה, ההתעקשות של אנתרופיק על מגבלות אתיות נתפסה לא כעמדה טכנית – אלא כמאבק אידיאולוגי.

מאז בחירתו של טראמפ, רבות מחברות הטכנולוגיה התיישרו עם הרוח שנושבת בוושינגטון — הקטינו דגש פומבי על גיוון והכלה, ריככו מדיניות פיקוח תוכן ונמנעו מעימותים ערכיים עם הממשל. אנתרופיק מצאה את עצמה כמעט לבד בעימות חזיתי. טראמפ עצמו תקף את החברה וכינה אותה כ"שמאל קיצוני" וכ"חברת ווק". הצהרותיו התקיפות של טראמפ עשויות לאותת כי אין דרך חזרה מהמהלכים הנוכחיים. כך הפך סכסוך על תנאי שימוש בתוכנה למאבק רחב יותר על השאלה מי מגדיר את גבולות ה-AI האמריקאי: חברות המציבות תנאים אתיים, או ממשל המעניק קדימות עליונה ליכולת המבצעית.

המנצחים האמיתיים, או מי נהנה מהסכסוך?

מהעימות בין אנתרופיק לפנטגון יש גם מרוויחות ברורות, ובראשן חברות AI מתחרות הנמצאות בעצמן במגעים עם משרד ההגנה. הפנטגון הוא לקוח יוקרתי, עתיר תקציבים והשפעה, וחוזה עמו אינו רק מקור הכנסה משמעותי אלא גם חותמת איכות אסטרטגית. הוצאת אנתרופיק מהתמונה מותירה יותר מרחב, יותר חוזים ויותר נתח שוק למתחרות. בראש הרשימה ניצבת OpenAI, שהודיעה בסוף השבוע על הסכם עם משרד ההגנה לפריסת מודלים שלה גם בסביבות רגישות. באופן מחושב למדי, OpenAI הצליחה גם להשיג חוזה עם הפנטגון וגם להציג את ההסכם ככזה ששומר על “קווים אדומים”, עם הדגשה של מנגנוני בטיחות, פיקוח אנושי ומגבלות על שימושים שנויים במחלוקת.

בכך היא ממצבת את עצמה כשותפה ביטחונית אחראית, אך לא כמי שמציבה תנאים אידיאולוגיים פומביים שעלולים להיתפס כהתנגשות עם הממשל. מרוויחה פוטנציאלית נוספת היא חברת xAI של אילון מאסק. מאסק לא הסתיר את עמדתו בסכסוך, ואף טען כי באנתרופיק “שונאים את הציוויליזציה המערבית”. גם אם xAI אינה מחזיקה כיום באותו נתח שוק ארגוני כמו אנתרופיק או OpenAI, המצב החדש עשוי לפתוח לה דלתות רחבות בזירה הביטחונית.

קיידנס חשפה מערכת AI המסוגלת לתכנן שבבים

חברת קיידנס (Cadence) הכריזה על פתרון צד הלקוח ChipStack AI Super Agent, לתכנון ואימות תכנוני שבבים. המערכת נחשבת ל"סוכן מתקדם" (Agentic AI) שנועד לפשט ולהאיץ את תהליך תכנון השבבים, במיוחד בשלבים המורכבים של תכנון, כתיבת קוד, בדיקות ואימות התכנון (Verification). בהכרזה, החברה תיארה את המוצר כ"צעד מהפכני המגדיר מחדש את האופן שבו מתבצע תכנון השבבים". המערכת בנויה במתכונת של Agentic Workflow. זהו מודל עבודה שבו מערכת ה-AI לא רק עונה על שאלות – אלא פועלת באופן עצמאי להשגת המטרה הסופית.

הדבר מתבצע באמצעות “סוכנים” (Agents) המקבלים החלטות, מבצעים משימות, ובודקים את עצמם. כלומר, כאשר מדובר בתכנון שבב, תהליך Agentic Workflow יבצע קריאת מפרט טכני, כתיבת קוד RTL, ייצור Testbench והרצת סימולציות. כאשר הוא מזהה כשל, הוא מתקן את קוד ה-RTL ומבצע בדיקות נוספות. החברה מסרה שהמערכת החדשה יודעת לבצע שילוב בין כלי EDA שונים של החברה, ולבצע בדיקות ואימות התכנון, הנחשבות למרכיב הארוך והיקר ביותר בתכנון השבב.

הלקוחות הראשונים: RISC-V, קואלקום, אנבידיה ואלטרה

הפתרון החדש נבדק וכבר החל להיכנס לשימוש ראשוני בחברות RISC-V, קואלקום, אנבידיה ואלטרה. מערכת ChipStack AI Super Agent תומכת במודלים מתקדמים בענן או ב-On-Prem, כולל מודלים של NVIDIA Nemotron הפתוחים להתאמה באמצעות NVIDIA NeMo, ומודלים מבוססי ענן כמו OpenAI GPT שנועדו לשפר את תפוקת המהנדסים. “לקוחותינו מתמודדים עם מחסור ניכר במהנדסים בכירים, המקשה עליהם לעמוד ביעדי הפיתוח שהוגדרו להם”, אמר מנהל חטיבת המחקר והפיתוח בקיידנס, פול קנינגהאם. "לכן הפתרון הזה מהווה פריצת דרך משמעותית מבחינת התפוקה בהליכי תכנון ואימות”.

"ChipStack מייצגת קפיצת מדרגה משמעותית באסטרטגיות ה-Design-for-AI וה-AI-for-Design שלנו", אמר נשיא ומנכ״ל קיידנס, אנירוד דבגאן. “סוכנים אינטליגנטיים המפעילים את התשתיות שלנו באופן עצמאי, מאפשרים ללקוחותינו להשיג רמות תפוקה חסרות תקדים, ובמקביל גם לשחרר את הכשרונות ההנדסיים יקרי הערך כדי שאלה יתמקדו בחדשנות”.

מהפיכת ה-AI המקומי: "קטן וקרוב" משבש את מודל הענן

בתמונה למעלה: הרכבת מערכות מחשב ברצפת הייצור של הייפר גלובל בראש העין. צילום: HIPER Global

מאמר אורח מאת: יואל יעקבסן, ה-CTO של חברת הייפר גלובל

השיח סביב בינה מלאכותית יוצרת (GenAI) נשלט עד 2025 על-ידי מודלי שפה גדולים (LLMs) מונוליטיים ומבוססי ענן, אשר דורשים משאבי מחשוב עצומים. שנת 2025 סימנה נקודת מפנה משמעותית, עם העלייה הדרמטית באיכות וביכולות של מודלים קטנים עד בינוניים, הניתנים להטמעה מקומית. ההתקדמות הזו מאיצה במהירות את המעבר למודל מבוזר ומקומי יותר של GenAI, המספק יתרונות משמעותיים ביעילות, בפרטיות ובעלויות.

הסדק הראשון במבצר "הענןבלבד" הודגם באופן בולט על-ידי המודלים של DeepSeek. החברה הסינית הציגה בתחילת 2025 מודל בגודל בינוני, אך בעל איכות מפתיעה, שהדגימה את הערך של מתודולוגיות אימון המאפשרות לחרוג מן הצורך במודלים גדולים מאוד. באמצעות למידה מבוססת חיזוקים וזיקוק מודלים, הוכיחה DeepSeek שביצועים מעולים אינם תלויים אך ורק בגודל המודל. בתהליך ה"זיקוק" מעבירים ידע ממודל "מורה" גדול ועתיר משאבים, למודל "תלמיד" קטן ויעיל. הטכניקה הזו מאפשרת לארגונים לשמור על דיוק גבוה תוך קיצוץ דרסטי בעלויות ושיפור משמעותי בביצועי ה-AI, בהם זמני תגובה מהירים וקצב הפקת טקסט גבוה. האיכות שהציגה DeepSeek הדהימה את העולם, והייתה זרז לשיפור המודלים הקטנים והבינוניים בהמשך השנה.

הופעת ה"מודל-מומחה"

התקדמות משמעותית נוספת הייתה התפשטות המודלים הקטנים יותר מסוג "תערובת מומחים" (MoE). מודלי שפה גדולים מסורתיים מפעילים את כל מערך הפרמטרים שלהם עבור כל שאילתה, ולכן התקורה החישובית שלהם גבוהה. לעומתם, ארכיטקטורת MoE מחלקת את המודל לרשתות "מומחים" קטנות וממוקדות. עבור כל קלט נתון, מופעלת רק תתקבוצה רלוונטית של מומחים אלה. בשנת 2025 עברו כל המודלים הגדולים להתבסס על MoE, ולצדם שוחררו מודלים בינוניים וקטנים איכותיים מאוד, בארכיטקטורה זו. בהטמעה מקומית, השינוי הזה הופך GenAI מתוחכם לנגיש גם ליישומים בעלי משאבים מוגבלים. התוצאה: חיסכון משמעותי בתשתית המחשוב הנדרשת לקבלת תוצאות איכותיות.

במהלך 2025 נרשמה פריצת דרך בגזרת המודלים הקטנים וכיום קיימים מודלים זעירים בגודל של 600 מיליון פרמטרים בלבד, המציגים יכולות חשיבה מרשימות ומספקים ביצועים מעולים בשימוש חכם. גודל כזה מאפשר שימוש מקומי יעיל במחשבים אישיים רגילים, בטלפונים חכמים ועוד. מגמה חשובה נוספת שניצניה נראו כבר בסוף 2024 עם השקת מודל o1 של OpenAI, היא המעבר למודלי חשיבה (Reasoning models). מודלים אלו מבצעים תהליך היסק הכולל בקרה עצמית, המאפשרים לספק תוצאות איכותיות ומדויקות יותר

עוצמתם המפתיעה של מודלים רבאמצעיים (Multi-Modal)

במקביל, בשנה האחרונה חלה התפתחות גדולה מאוד בנושא המודלים הרבאמצעיים (Multi-Modal). הם מטפלים בוזמנית בטקסט, תמונות, וידאו, קול ודיבור. מודלים כאלו משנים מהיסוד את עולם התוכן ותחומים תעשייתיים ומסחריים רבים, כגון בקרת וידאו בזמן-אמת, ניתוח מציאות על-ידי רובוטים ומוצרים בתחום הרפואי. כולם מתאפשרים הודות להתקדמות זוההתקדמות המהפכנית במודלים רב אמצעיים היא מדידה. לאורך שנת 2025, הראו מבחני ביצועים כגון MMMU (מבחן ההבנה הרבמשימתי והרבאמצעי) שנועד להעריך הבנה עמוקה של מודלים על פני מדיות שונות, שיפורים מדהימיםמודלים אלה הפגינו השנה יכולת להסיק ולייצר מידע בתחומים שונים ברמת דיוק שהייתה בעבר בלתי אפשרית.

הם הוכיחו שמודלים בינוניים וקטנים שהופיעו בסוף השנה, מספקים תוצאות טובות יותר ממודלי הענק שיצאו בתחילתה. היכולת לשלב בצורה חלקה נתונים טקסטואליים, חזותיים ושמיעתיים באופן מקומי, מבלי לשלוח מידע רגיש לספק ענן חיצוני, פותחת אפיקים מסחריים חדשים בסביבות מאובטחות כגון מכשור רפואי, רצפת ייצור ומוצרי אבטחת מידע. סקירת השינוי לאורך השנה מציגה התקדמות נוספת: מבחן MMMU משווה את המודלים גם לביצועי מומחים אנושיים. בעוד שבתחילת השנה לא היו מודלים רבאמצעיים ברמת מומחה אנושי, הרי שבסוף 2025 דורגו שבעה מודלים ברמה שבין מומחים אנושיים בינוניים לגבוהים. התקדמות מהירה זו מרחיבה משמעותית את ההזדמנויות העסקיות.

המודלים החדשים מייצרים תפנית עסקית

להשלכות המסחריות של מעבר זה ל-GenAI מקומי יש משמעות מהפכנית. ראשית, מודל העלות משתנה באופן מהותי: הפעלת מודלים קטנים ואיכותיים בתשתית מקומית או פרטית מפחיתה משמעותית את התלות בשירותי ענן יקרים. שנית, השמירה על הפרטיות והיכולת לציית לרגולציה ולתקנים ארגוניים משתפרות באופן דרסטי. הדבר מאפשר למידע ארגוני או אישי רגיש להישאר במכשיר או בתוך רשת הארגון. יתרון זה חשוב במיוחד לתעשיות מפוקחות, ועשוי לסייע לארגונים להתמודד עם הרגולציה הגוברת, דוגמת חוק ה-AI החדש של האיחוד האירופי.

למגמה הזו של מודלים קטנים וחזקים יש השפעה עמוקה גם על התחום המתפתח במהירות של בינה מלאכותית סוכנית (Agentic AI), שהפכה לטכנולוגיה מכוננת ב-2025. מוצרי Agentic AI מנהלים משימות מורכבות בפיתוח תוכנה, תפעול, אבטחה ורובוטיקה. הם מסתמכים על יכולת המודל להסיק, לתכנן צעדים ולפעול בדיוק גבוה. נקודת ציון חשובה הייתה הפיכת טכנולוגיית MCP לסטנדרט דהפקטו. הטכנולוגיה הזו הוכרזה על-ידי חברת Anthropic בנובמבר 2024 במטרה להקל על בניית והפעלת סוכנים, ואומצה במוצרים ארגוניים רבים במהלך השנה.

הגיע עידן המודל הקטן והחכם

הודות ליכולות הסקה מתקדמות של צריכת משאבים נמוכה, GenAI מקומי מאיץ פריסת מערכות סוכנים אמינות ועתירות ביצועים, המציגות עלות הפעלה צפויה ואבטחת מידע גבוהה. שינוי זה קריטי במיוחד לתחום פיתוח התוכנה, שהופך יותר ויותר מבוסס Agentic AI כברירת מחדלהעתיד של GenAI טמון ביכולת לספק אינטליגנציה נגישה ויעילה. ההתקדמות ב-2025 ממודלים חסכוניים ועד ליכולות הרב אמצעיות של ארכיטקטורות MoE מוקטנות, מסמנת עתיד שבו בינה מלאכותית איכותית אינה בהכרח שירות מרוחק, אלא כלי רב עוצמה ופרטי, הפועל בדיוק היכן שהמשתמש זקוק לו. עידן המודל הקטן והחכם הגיע, והוא מבטיח יישום עמוק ומשולב יותר של AI בחיינו המסחריים והטכנולוגיים.

יואל יעקבסן, ה-CTO של חברת הייפר גלובל
יואל יעקבסן, ה-CTO של חברת הייפר גלובל

אודות חברה:

הייפר גלובל עוסקת במתן פתרונות מחשוב לחברות טכנולוגיות המפתחות מוצרים. החברה מלווה ומיישמת את תהליך הפיכת הרעיון של הלקוח למוצר מוחשי משלב התכנון ועד להגעה לשוק בזמן. החברה פועלת בישראל ובעולם (באמצעות חברות בנות באנגליה ובארה"ב) ומספקת ללקוחותיה פתרונות גלובליים. הפעילות בתחום זה כוללת עבודה משותפת עם גופי הפיתוח של הלקוחות והתאמת פתרונות טכנולוגים מורכבים בהתאם לצרכיהם. בשלבים שלאחר מכן החברה מייצרת ומספקת את המערכות שתכננה לכל רחבי הגלובוס בהתאם לצרכים העסקיים של לקוחותיה.

מיקרוסופט חשפה את מאיץ הבינה המלאכותית Maia 200

בתמונה למעלה: שבב Maia 200 של מיקרוסופט. קרדיט: מיקרוסופט

חברת מיקרוסופוט (Microsoft) הכריזה על שבב ההאצה Maia 200 עבור תשתיות בינה מלאכותית, אשר תוכנן ייעודית לשמש כמאיץ הסקות (inference) עבור מודלי AI הפועלים בזמן אמת. השבב כולל יותר מ-100 מיליארד טרנזיסטורים ומיוצר בתהליך 3 ננומטר של חברת TSMC. הוא כולל ליבות Tensor ייעודיות לפורמטים המספריים FP8 וFP4 המשמשים ברשתות עומר נוירוניות. הוא כולל זכרון פנימי מסוג HBM3e בנפח של 216GB המעביר מידע בקצב של 7Tbps, וזכרון SRAM בנפח של 272MB.

מיקרוסופט ביצעה את ההכרזה לאחר שהיא כבר החלה לפרוס אותו בשרתי Azure בארצות הברית, ובהמשך הוא יגיע לאתרי הענן של Azure באזורים נוספים בעולם. להערכת החברה, המאיץ החדש מספק ביצועי FP4 גבוהים פי שלושה מאלה Amazon Trainium דור שלישי, וביצועי FP8 טובים יותר בהשוואה למאיץ TPU מהדור ה-7 של גוגל. הוא מספק עוצמת עיבוד של כ-10petaFLOPS ברמת דיוק של 4 ביט (FP4), ויותר מ-5petaFLOPS ברמת דיוק של 8 ביט (FP8), במעטפת הספק של 750W.

פתיחת צווארי בקבוק

במסגרת הפיתוח, שיפרה מיקרוסופט את תהליך הזנת הנתונים, המהווה גם הוא צוואר בקבוק בהפעלת מודלים גדולים. לצורך זה תוכננו מחדש מנוע העברת נתונים בין הזכרון למעבד (Direct Memory Access) ורשת תקשורת פנימית בתוך השבב (NoC), ושולב זכרון ה-SRAM כחלק בלתי נפרד מאריח הסיליקון. פירוש הדבר שהמאיץ יכול לשמור חלק גדול ממשקלי המודל והנתונים קרוב לחישוב עצמו, ובכך להפחית את הצורך להעבירם בין ההתקנים השונים.

במקביל להכרזה, מיקרוסופט השיקה גירסה ראשונה של ערכת הפיתוח Maia SDK, שנועדה לסייע למפתחים לבצע אופטימיזציה של הקוד הקיים והתאמתו לMaia 200. הערכה כוללת תוכנה אינטגרטיבית ומודל תכנות מרחבי, המעניקים למשתמשים יכולת שליטה מדויקת ברמה החומרה של המאיץ.

בתמונה: Maia 200 server blade של מיקרוסופט

פיתוח בגישה מערכתית

חברת מיקרוסופט דיווחה שהיא ביצעה את הפרוייקט במסגרת תהליך שכלל פיתוח פתרון מלא, שמאיץ הסיליקון הוא רק מרכיב אחד ממנו. היא החלה בפיתוח מערכת שלמה וביצעה אימות של האופן שבו החומרה, התוכנה והרשת יעבדו ביחד. החל משלבי הפיתוח הראשונים של Maia 200, נעשה שימוש מאסיבי בסימולציות המדמות את דפוסי החישוב והתקשורת של מודלי שפה גדולים. הדבר סייע לייעל במקביל גם את תכנון השבב וגם את מערך התקשורת ותוכנת המערכת, עוד לפני שהשבב יוצר בפועל

במקביל, מיקרוסופט פיתחה סביבת אמולציה רחבת היקף המאפשרת להריץ מודלי AI אמיתיים, לכייל ביצועים ולבדוק עומסים על תשתית המדמה באופן נאמן את החומרה העתידיתמאיץ Maia 200 תוכנן מראש למרכזי הנתונים של Azure, וכולל תאימות מלאה למערכות הניהול של Azure המבצעות ניטור, אבטחה וניהול רציף ברמת השבב וברמת התשתית כולה.

קודם צוותי מיקרוסופט, אחר-כך הלקוחות

המשתמשים הראשונים בשבב החדש יהיו צוותי Microsoft Intelligence, שיפעילו את המאיץ לצורך יצירת נתונים סינתטיים ולמידה, במסגרת פיתוח הדור הבא של מודלי AI הפנימיים של מיקרוסופט. בהמשך, ישולב Maia 200 ישולב גם בהפעלת עומסי AI של Microsoft Foundry ושל Microsoft 365 Copilot, כחלק מתשתית הAI של מיקרוסופט בענן הגלובלי. מיקרוסופט הודיעה שלאחר מכן צפויה פתיחה הדרגתית של היכולת הזו גם ללקוחות.

סקר אבנט: מחסור בכלי AI ייעודיים לתעשייה

בתמונה למעלה: המחשת אומן פיגורטיבית לתהליך שילוב הבינה המלאכותית בתהליכי הפיתוח. קרדיט: Avnet

הבינה המלאכותית הפכה לעובדה קיימת במחלקות הפיתוח של מוצרים אלקטרוניים, אולם מהנדסים רבים עדיין מתלבטים בשאלה כיצד להשתמש בטכנולוגיה החדשה, הן במסגרת תהליך הפיתוח והן כחלק מהמוצר הסופי. סקר של חברת אבנט (Avnet) העולמית, שהיא אחת ממפיצות הרכיבים והפתרונות הגדולות בעולם, מגלה שהבינה המלאכותית הפכה לחלק בלתי נפרד משרשרת האספקה של תעשיית האלקטרוניקה.

הסקר התקיים בחודשים אוקטובר-נובמבר 2025 בקרב 1,200 מהנדסי ומנהלי פיתוח באמריקה, אסיה, אזור EMEA ויפן. הממצא המרכזי הוא שכבר היום כמעט מחצית מהמהנדסים (42% מהמשיבים) שילבו בינה מלאכותית במוצרים היוצאים כיום לשוק. מדובר בעלייה של 33% בהשוואה לסקר הקודם שנערך אשתקד. במקביל, כ-40% נוספים משלבים כעת AI במוצרים הנמצאים בפיתוח ושעדיין לא הגיעו לשוק. המהנדסים מאמינים ששלוש יכולות מרכזיות יובילו את שילוב ה-AI בתהליך הפיתוח: אוטומציה של התהליך (42% מהמשיבים), תחזוקה מבוססת גילוי מוקדם (28%) וגילוי אנומליות או תקלות בתיפקוד המוצר (27%).

התחומים הנפוצים ביותר הם שימוש במודלי Edge AI ולימוד מכונה (ML). רוב המנדסים, 57% מהמשיבים, מעניקים עדיפות שווה לשניהם. הדבר מלמד שהמגמה השלטת היא פיתוח מוצרים חדשים הכוללים את שתי היכולות האלו. אלא שיש אתגרים שעדיין לא נפתרו באימוץ הבינה המלאכותית: 46% אמרו שבעיות איכות מקשות על שילוב בינה מלאכותית במוצרים או פתרונות חדשים.

המהנדסים למדו להשתמש בצ'אטבוטים הפופולריים הגדולים כדי לקבל מענה לשאלות טכניות. הצ'אט המוביל הוא ChatGPT עם 64% מהמשיבים, אחריו Google Gemini עם 52% מהמשיבים ובמקום השלישי (47%) מדורג Microsoft Copilot. אולם מאפייני השימוש מלמדים שקיים בשוק פער מקצועי שעדיין אין לו מענה: המהנדסים דיווחו שהאתרים האלה לא מתאימים להם והם פונים אליהם רק בלית ברירה. אומנם כ-16% מביניהם מעדיפים להשתמש במנועי ה-LLM  הציבוריים, ואילו 46% מהנשאלים דיווחו שהם היו מעדיפים מנוע בינה מלאכותי ייעודי, אשר אומן על-ידי מהנדסים מחוץ לארגון שלהם.

לקריאת הדו"ח המלא, הקליקו: Embracing AI

היילו ו-ASUS פיתחו כונן AI המתחבר למחשב באמצעות USB

בתמונה למעלה: כונן ASUS UGen300 המבוסס על מעבד היילו

חברת Hailo התל אביבית ויצרנית המחשבים ASUS חשפו מאיץ בינה מלאכותית המתחבר אל המחשב האישי באמצעות USB ומיועד לסייע בהרצת יישומי AI קלאסיים והן ליישומי בינה מלאכותית יוצרת (Generative AI) בקצה הרשת (Edge). זהו מאיץ הבינה המלאכותית הראשון בעולם המופיע בתצורת USB בדומה לאופן שבו מחברים אל המחשב כונן זיכרון חיצוני סטנדרטי. מאיץ הבינה המלאכותית ASUS UGen300 מספק יכולות AI בקצה הרשת (Edge). למעשה, באמצעותו ניתן להשתמש בכל התקן ממחושב כעמדת עבודה מוכנה לבינה מלאכותית.

המאיץ מבוסס על המעבד Hailo-10H, המספק עוצמת עיבוד של 40TOPS בהאצת רשתות נוירוניות. הוא כולל 8GB זיכרון LPDDR4 המאפשר ספק ביצועי Gen AI (בינה מלאכותית יוצרת) בקצה, תוך שימוש בזיכרון הייעודי שבכונן, ועל-ידי כך הוא אינו מעמיס את המחשב המארח. ההתחברות מסוג Plug-and-Play באמצעות כונן USB-C כוללת תמיכה במערכות ההפעלה Windows, Linux ו-Android. אסוס מסרה שהכונן תומך במגוון רחב של מודלים, בהם: LLM, VLM, Whisper ועוד, ומספק גישה ליותר מ-100 מודלים מאומנים מראש, בהם מודלי שפה גדולים (LLM), מודלים חזותיים-לשוניים (VLM), רשתות ראייה ממוחשבת ועוד באמצעות מאגר מודלים מקוון (Model Zoo).

צריכת ההספק של כונן ה-AI החדש מסתכמת בכ-2.5 ואט בממוצע. הוא תומך בארכיטקטורות המארח x86 ו-ARM ומתאים גם להאצת יישומי מחשוב קלאסיים (לא רק בינה מלאכותית). היילו הכריזה על המעבד החדש לפני כחצי שנה, בחודש יולי 2025. זהו הדור השני של מאיצי ה-AI של החברה למכשירי קצה (Edge AI). החברה העריכה שזהו המאיץ הראשון מסוגו בעולם המאפשר הרצת מודלי Gen AI באופן מקומי על-גבי המכשיר, בלא צורך בחיבור לענן. השבב החדש כולל את יכולות ה-Vision AI של שבב הדור הראשון, Hailo-8. מעבד Hailo-10H משתלב באופן מלא בסביבת הפיתוח הקיימת של היילו, אשר כוללת גם קהילת מפתחים פעילה המונה כ-10,000 משתמשים חודשיים.

פלטפורמת Rubin מדיחה את ה-GPU ממעמדו המורם

בתמונה למעלה: פלטפורמת רובין המלאה. מקור: אנבידיה

חברת אנבידיה (NVIDIA) חשפה בתערוכת CES 2026 בלאס וגאס את פלטפורמת Rubin, שאותה היא מגדירה "הדור הבא של תשתיות בינה מלאכותית". עצם קיומה של Rubin והעובדה שתגיע לשוק במחצית השנייה של 2026 כבר היו ידועות. אלא שבהכרזה הנוכחית נחשף לראשונה הרעיון העומד מאחוריה: לא עוד דור של מעבדים גרפיים, אלא שינוי תפיסתי עמוק באופן שבו נבנות ומופעלות מערכות AI בקנה מידה גדול. במקום רכיב GPU גדול העומד במרכז ומקבל תמיכה ממערכות אחרות – אנבידיה הציגה ארכיטקטורה שלמה הפועלת כיחידה אחת באמצעות שילוב של חישוב, זיכרון, רשת ואבטחה.

המסר החוזר הוא שרובין איננה שבב אלא מערכת מחשוב שלמה בקנה מידה של ארון שרתים. היא מיועדת לסביבה שבה הבינה מלאכותית אינה צ’אטבוט בודד או משימה חד־פעמי, אלא סביבה מרובת-סוכנים הפועלים לאורך זמן, שומרים הקשר, משתפים זיכרון ומסיקים מסקנות בסביבה משתנה. במובן הזה, Rubin מסמנת מעבר של אנבידיה משיווק של עוצמת חישוב לשיווק של תשתית קוגניטיבית.

Extreme Codesign כעיקרון

אנבידיה משתמשת כבר שנים במונח full stack, אך ברוב המקרים המשמעות הייתה ערימה של רכיבים שנבנו סביב ה־GPU. בהקשר של Rubin היא הגדירה מחדש המונח Codesign. מסורתית, המונח הזה מתייחס לחתימה דיגיטלית על קוד תוכנה. אנבידיה מתארת את הגישה שלה כ-Extreme Codesign ומתכוונת לדבר שונה לחלוטין: תכנון משותף מראש של כל חלקי המערכת במטרה להביא אותם לפעול כיחידה אחת המותאמת לעומסי עבודה גדולים מאוד.

אחת המשמעויות של Extreme Codesign היא שה־GPU הפסיק להיות נקודת המוצא של הארכיטקטורה. אומנם הוא רכיב מרכזי חשוב, אולם איבד את מעמדו כלב המערכת. התכנון של Rubin מבוסס על ההנחה שצוואר הבקבוק (bottleneck) של מערכות ה-AI אינו בכוח החישוב הגולמי, אלא ביעילות המערכתית הכוללת: ניהול הקשר, זיכרון מתמשך ותזמון בין תהליכים וסוכנים. בעיות כאלה אינן ניתנות לפתרון באמצעות מעבד GPU חזק יותר, אלא באמצעות חלוקה מחדש של תפקידים בין רכיבי המערכת. מדובר בנקודת מפנה עבור אנבידיה. היא נוטשת את תפיסת GPU-first שאפיינה אותה מאז ימי CUDA, ומאמצת תפיסה מערכתית שבה החישוב הוא רק מרכיב אחד של המערכת.

תפקידו החדש של ה־CPU

מערכת Rubin כוללת את המעבד Vera CPU של אנבידיה. בניגוד ל-CPU מסורתי במרכזי AI שתפקידו בעיקר לארח ולתזמן את עבודת ה-GPU, כאן מדובר במעבד שתוכנן מראש כחלק אינטגרלי של מערך ההסקה והחשיבה אשר תפקידו המרכזי הוא לתאם בין סוכנים, לנהל זרימות עבודה מרובות שלבים ולהפעיל לוגיקה שאינה מתאימה לביצוע ב-GPU. ייתכן שמדובר שינוי עמוק בתפקידי ה־CPU בעידן ה-AI. הוא חוזר להיות רכיב חישובי משמעותי הפועל בסימביוזה עם המאיץ הגרפי ולא מעליו או מתחתיו. הדבר מלמד שאנבידיה שואפת לשלוט גם בשכבת התזמור והשליטה, ולא רק בחישוב עצמו.

הבחירה בארכיטקטורת Arm עבור המעבד Vera משקפת את הצורך של אנבידיה לשלוט במבנה ה־CPU עצמו. בניגוד למעבדים כלליים שמיועדים להריץ מגוון רחב של עומסי עבודה, Arm מאפשרת לאנבידיה לעצב מעבד המותאם בדיוק למשימה, תוך ויתור על שכבות לוגיקה שאינן רלוונטיות להסקה ולתזמור סוכנים. כלומר מודל מרכזי הנתונים הקלאסי, המבוסס על CPU בארכיטקטורת x86 כנקודת מוצא, אינו עוד הבחירה המובנת מאליה במערכות שנבנות מראש כ־AI-first.

זיכרון, אחסון והולדת שכבת ההקשר

ככל הנראההחידוש הארכיטקטוני המשמעותי ביותר בהכרזה הנוכחית נוגע לאופן שבו מנוהל הזיכרון של תהליכי inference. אנבידיה מציגה גישה חדשה לניהול זיכרון ההקשר של מודלים גדולים, ובפרט של KV Cache הנוצר במהלך הסקה מרובת שלבים. בארכיטקטורה הקלאסית, שתוכננה סביב עומסי עבודה קצרים ומבודדים, זיכרון כזה נדרש להישאר ב-HBM של ה־GPU כדי לשמור על ביצועים, מה שהפך אותו למשאב יקר ומוגבל והקשה על עבודה מתמשכת ורב־סוכנית.

ב־Rubin הועבר חלק ניכר מזיכרון ההקשר אל מחוץ ל-GPU, לשכבה ייעודית המתנהגת כמו זיכרון ולא כמו אחסון מסורתי. כאן משתנה גם תפקידו של BlueField-4, שהוא מעבד DPU שמקורו בטכנולוגיית הרשת של מלאנוקס. הוא כרכיב להסטת עומסים (offload) והופך לחלק פעיל בניהול זיכרון ההקשר ובתיאום הגישה אליו. השינוי הזה נובע מהפער בין ארכיטקטורות שנבנו עבור אימון או inference חד-פעמי, לבין הצרכים של מערכות סוכנים שפועלות לאורך זמן, שומרות מצב ומשתפות הקשר בין רכיבים. ניהול הזיכרון הפך לחלק מנתיב הביצועים של inference, ולא לשכבת I/O חיצונית.

קישוריות כרכיב חישובי ומעבר לעולם הסוכנים

גם תחום הקישוריות משנה את ייעודו ב-Rubin. ה-NVLink ממשיך לשמש כחיבור פנימי מהיר בין GPUs, אך שכבת ה־Ethernet, בדמות Spectrum-6 ו-Spectrum-X, מקבלת תפקיד שונה מזה שהייתה לה במרכזי נתונים מסורתיים. במקום לשמש רק להעברת נתונים בין שרתים, הרשת הופכת לחלק מהאופן שבו המערכת כולה מנהלת חישוב וזיכרון. הקישוריות מאפשרת לרכיבים השונים (GPUs, מעבדים ויחידות DPU) לגשת לזיכרון משותף, לשתף מצב בין תהליכים, ולפעול כאילו היו חלק ממערכת אחת רציפה, גם כשהם מותקנים בשרתים או מסדים נפרדים. טכנולוגיות כמו RDMA (גישה ישירה לזיכרון דרך הרשת) מאפשרות גישה ישירה לזיכרון דרך הרשת, ללא מעורבות ה־CPU. כלומר הרשת אינה רק מעבירה נתונים אלא משתתפת בפועל בזרימת ההסקה.

למעשה המערכת מעבירה את הדגש מאימון כמרכז הכובד, להסקה מתמשכת ומרובת סוכנים. Rubin מיועדת לעולם שבו רוב עלות ה־AI והערך העסקי שלו נמצאים בשלב ההפעלה ולא בשלב האימון. בעולם כזה, מה שקובע הוא לא רק כמה מהר ניתן לחשב, אלא כמה טוב ניתן לזכור, לשתף ולהגיב. זהו ניסיון מעניין של אנבידיה להגדיר מחדש את מבנה תשתיות ה-AI. לא עוד מרוץ אחר TFLOPS, אלא תחרות על מי שולט בארכיטקטורה כולה. אם המהלך יצליח, אנבידיה לא תהיה רק ספקית של מאיצים, אלא ספקית של תשתית מחשבתית מלאה.

המגינים איטיים, התוקפים עובדים במהירות ה-AI

מאת: יוחאי שויגר

שנת 2025 הייתה שנת תפנית בעולם הסייבר: התוקפים הצליחו לנצל חולשות אבטחה מוכרות, לעיתים בתוך שעות מרגע פרסומן, וליזום תקיפות מיידיות. נתונים שנאספו לאורך השנה מראים שפרק הזמן שבין פרסום חולשת One Day לבין הופעת פעילות תקיפה ממשית, התקצר מ-30 יום ב-2022 לכ-5 ימים בלבד ב־2025. בכשליש מהמקרים הניצול התרחש בתוך פחות מ-24 שעות. התופעה הזו אינה מקרית, וקשורה ישירות לשימוש בכלי בינה מלאכותית (AI) בתוך שרשרת התקיפה.

שני מושגי המפתח בתחום הזה הם "חולשות One Day" ו"חולשות Zero Day". חולשת One Day היא חולשה שפורסמה באופן רשמי על-ידי יצרנית התוכנה, ברוב המקרים ביחד עם שחרור תיקון אבטחה (Patch) עבורה. הכינוי נולד מכך שהניצול שלה מגיע "יום אחרי" חשיפתה. מרגע שהיצרנית מדווחת עליה, ההאקרים מתחילים לנתח את העדכון כדי להבין כיצד החולשה עבדה. חולשת Zero Day מפחידה בהרבה: היא לא הייתה ידועה קודם לכן ליצרנית התוכנה או לציבור. היו להם "אפס ימים" להתכונן אליה או לתקן אותה מרגע שהתגלתה. עדיין אין עדכון אבטחה, המשתמשים חשופים לחלוטין ואין דרך סטנדרטית להתגונן מפניה.

למרות זאת, רוב התוקפים מתמקדים כיום בניצול חולשות One Day ולא בחולשות Zero Day. ה-CTO של חברת קלארוטי (Claroty) המתמחה בהגנה על רשתות תפעוליות ותעשייתיות, אמיר פרמינגר, הסביר ל-Techtime: "בעוד שחולשות Zero Day יקרות וקשות לפיתוח, רוב התוקפים היום מכוונים לחולשות One Day כי זה פשוט משתלם יותר. כלי הבינה המלאכותית (AI) האיצו גם את פיתוח הקוד וגם את חקירת החולשות עצמן. התוקפים מבינים שזה הגביע הקדוש – מרגע שהחולשה מתגלה – כולם מנסים להיות הראשונים למצוא את הדרך פנימה. זהו משחק חתול ועכבר שבו אין לתוקפים שום סיבה לשנות אסטרטגיה".

ה-AI מקצר את הזמן שבין פרסום לפריצה

מדובר בשינוי מבני עמוק. מחקרים אקדמיים שפורסמו בשנים 2023-2025 הראו כי מודלי שפה מתקדמים (LLM) מסוגלים לייצר בתוך מספר דקות קוד המנצל חולשות אבטחה, על-פי התיאור שלהן שהיצרן מספק. המחקר הבולט ביותר בתחום, שפורסם ב-2024 ובחן את ביצועי GPT-4, הראה שהמודל הצליח לייצר Exploit פונקציונלי ביותר מ-80% מהמקרים שנבדקו, כולל עבור חולשות One Day לא טריוויאליות, ובזמני פיתוח קצרים מאוד בהשוואה לעבר. מדוע פרק הזמן הזה כל-כך חשוב? מכיוון שהמידע שבידי חברות האבטחה מראה שיותר מ-55% מהחולשות ב-2025, נוצלו בפועל לפני שהארגון הספיק להטמיע את התיקון הזמין.

פרמינגר: "אנחנו רואים האצה ברורה בזמן שבין פרסום החולשה לבין ניצולה בפועל. מהרגע שחולשה מתפרסמת מתחיל שעון חול, ובפועל היום הרבה יותר פשוט גם להשמיש את החולשה וגם לזהות מי פגיע. הזמן שלוקח לספקים לפתח ולהפיץ עדכונים לא התקצר באותו קצב, והפער הזה הוא בדיוק המקום שבו מתרחשות התקיפות”.

מדוע האקרים מעדיפים One Day?

חולשות One Day הן חולשות שכבר פורסמו לציבור, בדרך כלל לאחר שהתגלו על ידי חוקרי אבטחה, ספקי תוכנה, צוותי Bug Bounty או גופי מחקר עצמאיים. עם גילויין מוקצה להן מזהה CVE, שהוא מספר תקני המאפשר לעקוב אחר החולשה ולתאם את הטיפול בין ספקים, ארגונים וחברות אבטחה. עצם פרסום ה-CVE אינו אומר שהמערכת מתוקנת, אלא רק שהמידע זמין ושקיים בסיס לפעולה. בניגוד ל-Zero Day, החולשות הללו אינן סודיות והמידע עליהן נגיש לכל. אלא שחלון הזמן שבין פרסום החולשה לבין תיקונה בפועל במערכות ארגוניות הפך לנקודת התורפה המרכזית. חציון חלון החשיפה לחולשות קריטיות עומד כיום על כ-70 יום (כמעט כמו ב-2022), אך בתוך החלון הזה מתרחשת היום הרבה יותר פעילות זדונית, והרבה יותר מוקדם.

ההבדל המהותי בין העבר להווה אינו בקצב התגובה של הארגונים, אלא בקצב הפעולה של התוקפים. תוקפים משתמשים במודלי שפה וכלי AI כדי לנתח פרסומי חולשות, להבין במהירות את מנגנון הפגיעה ולהמיר תיאורים טכניים לקוד ניצול פעיל. תהליך שבעבר דרש מומחיות גבוהה וזמן עבודה ממושך הפך לתהליך חצי־אוטומטי, שבו אדם מנחה את המערכת והמערכת מבצעת את עיקר העבודה. מרגע שחולשת One Day מתפרסמת, מתחיל המירוץ: ספקים מפרסמים עדכונים וצוותי אבטחה מנסים להעריך סיכון ולתכנן הטמעה, במקביל התוקפים מריצים סריקות רחבות היקף, מאתרים מערכות שלא עודכנו ומזהים גרסאות פגיעות.

נתיב התקיפה של העשור

הבינה המלאכותית מאפשרת להם לעשות זאת במהירות ובקנה מידה גדול מאוד, ולכן חולשות One Day הפכו לווקטור תקיפה מרכזי. היא מספקת שילוב של אמינות והיקף, במיוחד במוצרי קצה כמו VPN Gateways, שרתי Web, מערכות ניהול ופלטפורמות ענן, שעדיין קיימות בהיקף נרחב בסביבות לא מעודכנות. בתעשייה מעריכים שב-2025 רק 30% מהארגונים התקינו תיקון קריטי בתוך 30 יום (בהשוואה ל־45% ב־2022), וכ-50% מהחולשות שנכנסו ב־2025 לרשימות ניצול מאומת היו חולשות One Day, כאשר הזמן החציוני בין פרסום CVE לזיהוי ניצול ירד לפחות מ־20 יום.

מדובר בצורך לבצע שינוי תפיסתי עמוק. One Day כבר אינה מעניקה מרווח נשימה. הימים הראשונים שלאחר פרסום החולשה הם המסוכנים ביותר, ובשלב הזה נדרשת תגובה מהירה ואמצעי מיגון זמניים, גם אם הטמעה מלאה של ה-Patch תתבצע מאוחר יותר. בעידן שבו התוקפים פועלים במהירות ה-AI, ההגנה אינה יכולה להישען על תהליכים ידניים ולוחות זמנים נוחים. חולשות One Day הפכו לאחד מנתיבי התקיפה המרכזיים של העשור, לא משום שהן חדשות, אלא משום שהאופן שבו מנצלים אותן השתנה. הבינה המלאכותית לא יצרה את הפרצות, אך היא קיצרה את הזמן עד שהן הופכות למסוכנות באמת, ובמרוץ הזה מי שמאחר בימים הראשונים עלול לגלות שההתקפה כבר החלה – ובמקרה הגרוע יותר – כבר הסתיימה.

ענקית כרייה תתקין את תוכנת ה-AI של רייזור לאבס בכ-1,500 משאיות

בתמונה למעלה: משאית קטרפילר שעליה הותקנה מערכת DataMind AI. צילום: רייזור לאבס

מניית רייזור לאבס (Razor Labs) זינקה היום (ד') בכ-48% במסחר בבורסה בתל אביב (נכון לשעה 14:30) לאחר שהחברה דיווחה על קבלת הזמנת מסגרת בהיקף של עד כ-78 מיליון דולר לרכישת רישיונות לתוכנת DataMind AI לתחזוקה חזויה של צי משאיות כבדות וכלי צמ"ה של לקוח רב־לאומי. אף שהחברה לא ציינה את זהות הלקוח בדיווח, מהנתונים ומההיסטוריה העסקית ניתן להעריך שמדובר בענקית הכרייה השוויצרית-בריטית גלנקור (Glencore), שאיתה חתמה על הסכם מסגרת בשנת 2023.

על-פי הדיווח, ההזמנה מיועדת לפריסת מערכת DataMind בעד 1,418 משאיות כבדות וכלי ציוד מכני הנדסי לתקופה של עד 8 שנים. עיקר התמורה, בהיקף של כ-74 מיליון דולר, מיוחס לרישוי התוכנה במודל מנוי שנתי קבוע, עם הכנסה שנתית חוזרת של כ-9.3 מיליון דולר, לצד רכיבי חומרה נלווים ושירותי הטמעה. ההתקשרות כוללת מנגנוני גמישות המאפשרים ללקוח לצמצם את היקף הפריסה או את משך ההסכם, אך בהיקפה המלא מדובר באחת מהעסקאות הגדולות שהחברה דיווחה עליהן מאז הקמתה.

כריית נתונים בתעשיית המכרות

ההזמנה הגדולה נתפסת בשוק כהמשך ישיר לשיתוף הפעולה האסטרטגי בין רייזור לאבס לגלנקור, שהחל לפני מספר שנים בפריסה ראשונית של פתרונות בינה מלאכותית לאחזקה חזויה של ציוד תעשייתי באתרי כרייה. בהמשך הורחב השימוש במערכת גם לציי משאיות כבדות, שהן מהנכסים היקרים והקריטיים ביותר בתפעול מכרות, הן מבחינת עלויות אחזקה והן מבחינת זמינות תפעולית. המעבר מהטמעה מדורגת להזמנת מסגרת רחבת היקף משקף שביעות רצון של הלקוח מתוצאות הפיילוטים ומהערך הכלכלי שהמערכת מייצרת בפועל.

DataMind היא פלטפורמת בינה מלאכותית לניתוח רציף של נתונים תפעוליים המוזרמים מכלי הרכב בזמן אמת, בהם נתוני מנוע, דלק, טמפרטורה, לחצים ורעידות. באמצעות מודלים של למידת מכונה, המערכת מזהה דפוסי שחיקה וחריגות המעידים על התפתחות תקלות זמן רב לפני הופעת כשל מלא. זהו מעבר מתחזוקה תגובתית לתחזוקה חזויה. הדיווח על העסקה מגיע כ-10 ימים בלבד לאחר שרייזור לאבס הודיעה על חתימה על הסכמי פיילוט נוספים בתחום המשאיות הכבדות עם חברות כרייה באוסטרליה ובספרד. בחברה רואים בתחום זה מנוע צמיחה מרכזי, הנשען על ניסיון מצטבר מהשטח, ועל מעבר של לקוחות משלב ניסוי לפריסות מסחריות רחבות היקף.

באתר החברה פורסם מקרה מבחן המדגים את יכולות הפתרון בפועל, שבו מערכת DataMind AI זיהתה הידרדרות מוקדמת במזרקי דלק של משאית כרייה כבדה מדגם CAT 793D (בתמונה למעלה). לפי התיאור, המערכת הצליחה לאתר שינוי עדין בדפוסי הפעולה של המנוע ולהתריע על כשל מתפתח זמן רב לפני שמערכות היצרן או הבקרה הסטנדרטיות הצביעו על תקלה. הזיהוי המוקדם איפשר לצוותי התחזוקה לבצע טיפול יזום, למנוע השבתה יקרה של המשאית ולהפחית נזק מצטבר למערכות נוספות. החברה הסבירה שהמקרה זה מוכיח את יכולתה להתמודד עם המורכבות התפעולית של משאיות כבדות.

מהפיכת ה-AI בהייטק: אימוץ נלהב, לצד דאגה מעתיד התעסוקה

דו"ח חדש של רשות החדשנות ומכון ברוקדייל מציג תמונה מורכבת של שוק העבודה הטכנולוגי: מצד אחד אימוץ מסיבי של כלי בינה מלאכותית – 95% מהעובדים משתמשים בהם בעבודתם ו-78% עושים זאת מדי יום. מצד שני, דווקא על רקע החדירה המואצת, גובר החשש התעסוקתי, בעיקר בקרב עובדים מנוסים, עובדים בפריפריה ובעלי השכלה שאינה אקדמית. התוצאה היא דיסוננס מובהק: טכנולוגיה שמגבירה פריון ומעצימה עובדים צעירים, אך במקביל מערערת את תחושת הביטחון של חלקים מהענף.

הנתונים מראים כי העובדים משלבים את הבינה המלאכותית במגוון רחב של משימות. מפתחים נעזרים בכלים לכתיבת קוד, ניתוח לוגים ואיתור תקלות, בעוד אנשי שיווק, מוצר ומשאבי אנוש משתמשים בהם לכתיבת תוכן מקצועי, חיפוש מידע ולמידה עצמית. שמונים ושתיים אחוז מהמשתמשים היומיומיים משלבים את הכלים בשלושה סוגי משימות או יותר, ורבע מהם ביותר משישה סוגי משימות – עדות להתפשטות אורגנית של ה-AI בכל שכבות הארגון.

התרומה לפריון משמעותית: שבעים אחוז מהעובדים מדווחים על שיפור ניכר באיכות התוצרים וחמישים אחוז על קיצור זמן העבודה בעשרות אחוזים. ארבעים אחוז מציינים קיצור של יותר ממחצית מזמן הביצוע. מדד הפרודוקטיביות שפיתחו החוקרים מצביע על כך שכשלושה רבעים מהעובדים חווים עלייה ממשית בפריון, ללא הבדל בין סוגי תפקידים או חברות.

לצד זאת, הפערים בתפיסות בולטים. עובדים מנוסים מדווחים על רמות החשש הגבוהות ביותר – שלושים ושבעה אחוז מסניורים חשים איום ממשי. בקרב עובדים ללא השכלה אקדמית שיעור החשש מגיע לשלושים ותשעה אחוז, לעומת עשרים ושישה וחצי בלבד בקרב בעלי תואר. גם הפער הגיאוגרפי חד: ארבעים אחוז מתושבי הפריפריה חוששים מהשפעת ה-AI על עבודתם, לעומת עשרים וארבעה אחוז בלבד מאלה המתגוררים במרכז.

פערים ניכרים נרשמו גם בדפוסי השימוש: צעירים וג’וניורים מובילים באימוץ הכלים ובשילובם במשימות פיתוח, בעוד עובדים ותיקים משתמשים בהם פחות. ממצא מפתיע נוסף הוא שחברות סטארט-אפ משתמשות בכלי קוד ייעודיים בשיעור נמוך יותר מאשר מרכזי פיתוח בינלאומיים ובתי תוכנה.

למרות החששות, התמונה הרחבה אופטימית: שישים ושמונה אחוז מהעובדים רואים ב-AI הזדמנות להתפתחות תעסוקתית, ורק עשרים ושבעה אחוז רואים בה איום. הדור הצעיר, שמוביל את האימוץ ומפתח שילוב טבעי בין מיומנויות אנושיות לטכנולוגיות, מבטא היטב את רוח התקופה – שילוב של פחד מהתמורות המואצות לצד תקווה אמיתית ליכולות חדשות ולמסלולי קריירה חדשים.

Majestic Labs מגייסת 100 מיליון דולר לפיתוח תשתית AI עתירת זיכרון

[בתמונה: מנכ"ל החברה, עופר שחם. קרדיט צילום: טל גבעוני]

חברת הסטארט־אפ Majestic Labs, שהוקם על־ידי בכירים לשעבר בגוגל ובמטא, יצא היום ממצב חשאי (stealth mode) עם גיוס של למעלה מ־100 מיליון דולר. החברה, הפועלת מתל אביב ומסן פרנסיסקו, מציגה ארכיטקטורת שרתים חדשה שמטרתה להחליף מערכות שלמות של ארונות שרתים בשרת יחיד – ולפתור את צוואר הבקבוק המרכזי של תחום הבינה המלאכותית: בעיית "קיר הזיכרון" (Memory Wall).

פי אלף יותר זיכרון

Majestic טוענת כי השרת שפיתחה מספק פי 1,000 יותר זיכרון משרת GPU מתקדם, ומשפר את הביצועים הכוללים פי 50. החברה מסבירה כי מטרתה היא לשנות את האיזון שבין עיבוד לזיכרון – ולהפוך את התשתית הפיזית של מערכות AI לפשוטה, חסכונית ויעילה יותר.

“הקפיצה הבאה של הבינה המלאכותית תגיע מתשתית חזקה יותר,” אומר המנכ"ל והמייסד עופר שחם. “תשתית חזקה יותר דורשת חשיבה מחדש על מערכת הזיכרון. השרתים שלנו משלבים את כוח העיבוד של מערכות GPU ו־TPU עם פי אלף יותר זיכרון, ומאפשרים ביצועים ויעילות חסרי תקדים תוך חיסכון משמעותי באנרגיה.”

לפי החברה, הפתרון שלה מחליף תצורה של עשרות ארונות שרתים במערכת אחת, ומפחית משמעותית את צריכת החשמל, את צרכי הקירור ואת עלויות התפעול הכוללות של מרכזי הנתונים.

Majestic מציינת כי המערכת החדשה תומכת בעומסי עבודה מתקדמים במיוחד – החל ממודלי שפה גדולים (LLM), דרך מערכות Mixture of Experts ו־Agentic AI, ועד לרשתות נוירונים גרפיות (GNN) בקנה מידה ענק.
שותף־המייסד והנשיא, שה ראבי, מסביר כי “Majestic מאפשרת גידול ויעילות תפעולית שלא היו קיימות בעבר. היא מקצרת את זמני האימון ומאפשרת להריץ על כל שרת עומסים שבעבר דרשו חוות מחשוב שלמות.”

צוות של יוצאי גוגל ומטא

מאחורי Majestic עומדים עופר שחם, מסומי ריינדרס ושה ראבי – שלושתם בעלי רקע עמוק בתכנון שבבים ובמערכות מחשוב ענן. הצוות הוביל את קבוצת הסיליקון של גוגל ובהמשך את קבוצת החומרה של מטא, ואחראי למאות פטנטים ופיתוחים – בהם המעבד הראשון לבינה מלאכותית במובייל ופלטפורמות מציאות רבודה מוקדמות.

לדברי ריינדרס, “Majestic מספקת מענה מיידי לעומסים של היום תוך שמירה על גמישות תכנותית והתאמה לעתיד שמעבר למודלים מבוססי טרנספורמרים.”

ההשקעה הובלה על־ידי Bow Wave Capital ו־Lux Capital, ובה השתתפו גם SBI, Upfront, Grove Ventures, Hetz Ventures, QP Ventures ו־TAL Ventures. דב מורן, ממציא הדיסק און קי ושותף מייסד ב־Grove Ventures, אמר: “הרבה זמן לא התרגשתי כל כך מפרויקט תשתיות AI. עם השינוי הדרמטי בשוק והטכנולוגיה של מג׳סטיק, יש כאן הזדמנות אמיתית לראות חברת מופת ישראלית שמשנה את העולם.”

עם ההשקעה החדשה, Majestic מתכננת להרחיב את צוותי הפיתוח בתחומי הבינה המלאכותית, הסיליקון והתוכנה, ולהפעיל פיילוטים עם לקוחות ראשונים לקראת השקה מסחרית.

אם תצליח לעמוד ביעדיה, החברה עשויה להשפיע על מבנה חוות השרתים של עידן ה־AI – להפחית עלויות אנרגיה ותפעול, ולספק דרך חדשה לבניית תשתיות חכמות ויעילות לעידן המודלים הענקיים.

POLYN ייצרה את השבב הנוירוני האנלוגי הראשון בתעשייה

בתמונה למעלה: שבב העיבוד הקולי הנוירומורפי שיוצג בתערוכת CES בינואר 2026

חברת פולין (POLYN Technology) הכריזה על הצלחת הייצור ובדיקות ההסמכה של שבב עיבוד הרשתות הנוירוניות האנלוגי הראשון בתעשייה, המבוסס על טכנולוגיית NASP (Neuromorphic Analog Signal Processing) שהיא פיתחה. הרכיב החדש (בתמונה למעלה) יוצג בביתן של החברה בתערוכת CES 2026 שתתקיים בלאס וגאס בינואר 2026. השבב הראשון ממוקד בזיהוי פעילות קולית (Voice Activity Detection – VAD), אולם החברה מפתחת יישומים נוספים.

הטכנולוגיה של החברה מבוססת על פתרון מתימטי לבעיית הרשתות הנוירוניות, אשר מאפשר לממש את רוב מרכיבי העיבוד באמצעות מגברי שרת (Op Amps). הדבר מאפשר לבצע הסקות של רשתות נוירוניות באמצעות מעגל אנלוגי שאינו זקוק לתשתיות תמיכה דיגיטליות, כמו שעונים וממירי ADC/DAC. הרכיב מיוצר בטכנולוגיית CMOS סטנדרטית 40-90 ננומטר, ומגיע ביחד עם ערכת פיתוח המאפשרת ללקוח לפתח יישום ספציפי. המעבד משלים כל הסקה בתוך כ-50 מיליוניות השנייה ומגיע לצריכת הספק זעומה של כ-34µW בלבד, במהלך פעילות רציפה.

נוירונים מבוססי מגברי-שרת

הוא מיועד בעיקר לאבזרים מבוססי סוללה הנדרשים להיות בפעולה תמידית (Always-on Edge Devices), אם כי החברה מכינה אותו גם לשוק הרכב. בראיון ל-Techtime הסביר מייסד ומנכ"ל POLYN Technology, אלכסנדר טימופייב, שההכרזה האחרונה היא אבן דרך משמעותית בפעילות החברה בהוקמה בשנת 20219. "סגרנו את המעגל המסחרי. אנחנו מכריזים על מוצר מסחרי מלא שיגיע לשוק בתחילת השנה הבאה. כעת אנחנו שולחים את ערכות ההערכה ל-35 לקוחות ומצפים לקבל את ההזמנות הראשונות במהלך הרבעון הראשון של 2026".

מייסד ומנכ"ל POLYN Technology, אלכסנדר טימופייב
מייסד ומנכ"ל POLYN Technology, אלכסנדר טימופייב

המעבד הנוכחי מיוצר בחברת SkyWater האמריקאית בתהליך CMOS של 90 ננומטר, כאשר הייצור ההמוני מתוכנן להתבצע בחברת Globalfoundries בתהליך של 55 נומטר. טימופייב: "פיתחנו קומפיילר המאמן רשת דיגיטלית, ואז מחלק את האימון למרכיב קבוע המיושם באמצעות מעגל אנלוגי, ולמרכיב דיגיטלי קטן המיושם באמצעות מערך NPU סטנדרטי. המרכיב הדיגיטלי קטן מאוד. למשל, המרכיב האנלוגי מזהה קול, ואילו המעגל הדיגיטלי מוסיף מידע נוסף, דוגמת מהי מהירות הדיבור".

כיצד בנוי מערך העיבוד האנלוגי?

"אנחנו משתמשים במגברי שרת ונגדים המייצרים ייצוג אנלוגי של נוירונים, כאשר החישוב הוא במתחים ולא בזרמים, ולכן גם צריכת ההספק נמוכה מאוד. הרכיב הנוכחי כולל כ-500 נוירונים (כלומר 500 מגברי שרת) פיסיים המבצעים עיבוד של כמיליון פרמטרים. מבחינת החומרה, האתגר העיקרי היה בייצור מגברים בעלי אפס היסט של מתח ישר (Zero DC Offset). פתרנו את הבעיה הזאת באמצעות מגבר המבצע כיול אוטומטי. שאר הפרמטרים ניתנים לפיצוי באופן מתימטי".

לדבריו, ליבת החדשנות הטכנולוגית היא ביכולת לייצר באופן אוטומטי את המעגל הנדרש לכל יישום ספציפי. "ביחד עם חברת קיידנס פיתחנו תהליך המבצע את הקישורים הפנימיים באופן אוטומטי. התהליך הזה מאפשר לנו להמיר מודל דיגיטלי למודל אנלוגי, להשלים את תכנון השבב ולבדוק אותו – בתוך שבוע אחד בלבד".

היעד: הגעה לריווחיות ב-2028

חברת פולין רשומה כחברה בריטית אולם בפועל זוהי חברה ישראלית הפועלת מקיסריה שיש לה משרדים בבריסטול, בריטניה, והיא מעסיקה כ-45 עובדים. עד היום היא גייסה כ-25 מיליון דולר ממשקיעים פרטיים, בלא מעורבות קרנות הון סיכון (VC). כעת היא נמצאת בשלבי סגירה של גיוס הון נוסף בהיקף של כ-10 מיליון דולר. המטרה העסקית היא להתחיל במכירות מסחריות במהלך 2026, ולהגיע לריווחיות בשנת 2028".

מה הם שוקי היעד המרכזיים שלכם?

"אנחנו מתמקדים בכל מה שקשור ל-Physical AI. מוצרים שיש בהם מרכיב של עיבוד חכם, כמו למשל עיבוד קול, תעשיית הרכב, גלגלים חכמים ורובוטים, כולל רובוטים דמויי-אדם (Humanoids). אלה מוצרים שצריכים להתמודד עם בעיה של אלפי חיישנים הזקוקים לפעול במהירות ובהספק נמוך מאוד. השימוש המושלם של הטכנולוגיה הוא שילוב של המעבד הנוירומורפי שלנו בתוך החיישנים עצמם. לכן אנחנו עובדים כיום בשיתוף פעולה עם אינפיניאון על שילוב המעגל שלנו בתוך החיישנים שלהם".

נחתם הסכם שיתוף פעולה בין אינטל ואנבידיה

בתמונה למעלה: מנכ"ל אנבידיה ג'נסן הואנג (מימין) ביחד עם מנכ"ל אינטל ליפ-בו טאן. צילום: אינטל

חברת אינטל וחברת אנבידיה הופכות לשותפות עסקיות וטכנולוגיות. ביום ה' בערב חשפו שתי החברות הסכם שיתוף פעולה מפתיע שלהערכת מייסד ומנכ"ל אנבידיה, ג'נסן הואנג, הוא בעל פוטנציאל למכירות של עד 50 מיליארד דולר בשנה עבור שתי החברות. הברית בין שתי החברות מבוססת על שני מהלכים מרכזיים: השקעה פיננסית של אנבידיה באינטל ושיתוף פעולה טכנולוגי. על-פי ההסכם, אנבידיה תשקיע 5 מיליארד דולר בחברת אינטל תמורת מניות לפי מחיר של 23.28 דולר למניה.

מניית אינטל בנסד"ק זינקה בכ-30% והתייצבה בהמשך יום המסחר על עלייה של כ-23% (30.5 דולר), אשר העניק לה שווי שוק של כ-143.5 מיליארד דולר. התגובה של משקיעי אנבידיה היתה מרוסנת יותר: מניית החברה עלתה בכ-3.5% בלבד, והעניקה לחברה שווי שוק של כ-4.3 טריליון דולר, שהוא יותר מפי 30 מהשווי של אינטל.

אינטל מכניסה את אנבידיה לשוק חדש

המרכיב הטכנולוגי של ההסכם ממוקד בפיתוח משותף של שבבי SoC המשלבים מעבדי CPU בארכיטקטורת x86 של אינטל, ביחד עם מעבדי GPU של אנבידיה המקושרים באמצעות ערוץ התקשורת המהיר NVIDIA NVLink. הערוץ הזה מאפשר לקיים תקשורת מהירה בין מעבדי GPU ו-CPU ולהגיע לקצב העברת נתונים של עד 900GB/s. הדבר יתבצע בשתי דרכים שונות עבור שתי קבוצות מוצר מרכזיות: בשוק השרתים ותשתיות ה-AI, אינטל תייצר מעבדי x86 CPU המותאמים ספציפית לצרכים של אנבידיה, שאותם היא תשלב בתוך רכיבי ה-SoC שהיא מייצרת בחברת TSMC.

מניית אינטל בנסד"ק מגיבה להסכם עם אנבידיה

בשוק מחשבי ה-PC הניידים, אינטל תייצר ותמכור רכיבי SoC המבוססים על ארכיטקטורת x86 אולם כוללים את המעבדים הגרפיים של אנבידיה ממשפחת RTX GPU. הרכיבים האלה, אשר יביאו את אנבידיה לראשונה בתולדותיה אל שוק מחשבים אישיים שהיקפו נאמד בכ-150 מיליון יחידות בשנה, יהיו מוכרים בכינוי x86 RTX SoC. שיתוף הפעולה הזה לא יבוא במקום השימוש של אנבידיה בארכיטקטורת ARM, אלא לצידו. בשיחה עם עיתונאים שקיימו מנכ"ל אנבידיה ג'נסן הואנג ומנכ"ל אינטל ליפ-בו טאן ביום ה' האחרון, הסביר הואנג שאנבידיה תמשיך לעבוד עם ARM ותמשיך לפתח מעבדי CPU מבוססי ARM.

פוטנציאל מכירות של 50 מיליארד דולר

הואנג: "אבל נהיה לקוח גדול של אינטל". "אנחנו מחוייבים למפת דרכים מבוססת ARM. יש לנו מעבדי ARM חדשים הנמצאים בתהליכי פיתוח. זה לא משפיע על העיסקה הזו. הארכיטקטורה שלנו מתאימה לכל ארכיטקטורות המיחשוב הקיימות". הוא גם הבהיר שהעיסקה לא תפגע ביחסי העבודה של אנבידיה עם TSMC, המייצרת כיום את כל השבבים של אנבידיה".

בתשובה לשאלה מדוע ההסכם כולל השקעה הונית באינטל, הוא אמר שהמהלך יאפשר לאנבידיה לשלב מעבדי CPU של אינטל עם שבבי ה־GPU שלה ולמכור אותם במודל passthrough, שירחיב את היקף השוק של שתי החברות. הוא העריך שהעיסקה מבטאת פוטנציאל מכירות של עד 50 מיליארד דולר בשנה לשתי החברות. "הדבר יתרום להצלחת אינטל, ולכן יש בהשקעה ההונית הזו גם הגיון עסקי".

מדובר היה בארוע מעניין מאוד מבחינת המסרים הסמויים שהיו בו: ג'נסן הואנג אשר רגיל להשתתף בארועים ציבוריים כשהוא לבוש במעיל עור שחור, היה הפעם לבוש בחליפה מחוייטת ומצוחצחת. ליפ-בו טאן, שהופעתו תמיד מדוקדקת ומחוייטת, היה לבוש וסט ספורטיבי, כאילו הוא כרגע ירד מהאופנוע שלו… בפרק השאלות והתשובות, גילה טאן שהשיחות שלו עם הואנג החלו מייד לאחר שנכנס לתפקיד מנכ"ל אינטל לפני כשישה חודשים, ושצוותי הארכיטקטורה של שתי החברות כבר החלו לעבוד על השילוב הטכנולוגי בין שתי הארכיטקטורות.

מלחמה חשאית בין אורקל ומיקרוסופט על עתיד OpenAI

בתמונה למעלה: אתר בניית מרכז הנתונים של Stargate Project בטקסס

תחרות הענקים המתפתחת בין אורקל ומיקרוספוט על המשאבים של OpenAI, אינה מקרית ובמובנים רבים הייתה צפויה מראש. אולם ההיקף והתוצאות שיהיו לה, עשויים לעצב את כל עולם הבינה המלאכותית, ואת התשתית הטכנולוגית של חלקים עצומים מהכלכלה העולמית. בשבוע שעבר דיווח העיתון וול סטריט ג'ורנל שחברת OpenAI חתמה על הסכם הזמנת תשתיות ענן מחברת אורקל החל משנת 2027, בהיקף חסר תקדים של כ-300 מיליארד דולר. בעקבות הידיעה הזו זינקה מניית אורקל בבורסת NYSE בכ-40% בתוך יום אחד. בהמשך היא ירדה במקצת (ל-291 דולר), אולם החברה נסחרת בשווי שיא של כ-830 מיליארד דולר.

ההסכם הזה מגיע פחות מחודשיים לאחר חתימת הסכם שיתוף פעולה בבניית והפעלת מרכז נתונים חדש בטקסס. מדובר במרכז נתונים בהספק של 4.5 ג'יגה ואט אשר יכיל יותר מ-2 מיליון מעבדים ויתבסס על מסדי אורקל מבוססי Nvidia GB200. הפרוייקט יתבצע באמצעות החברה הבת החדשה Stargate Project, בהשקעה כוללת של כ-500 מיליארד דולר בארבע השנים הבאות. המשקיעות העיקריות בפרוייקט לצד OpenAI הן סופטבנק, אורקל וקרן ההשקעות האמירתית MGX.

אסור להרגיז את מיקרוסופט

"הפרוייקט יתבסס על השותפות הוותיקה עם אנבידיה, והשותפות החדשה עם אורקל", מסרה OpenAI. וכדי להרגיע את המשקיעה הגדולה ביותר שלה, היא הוסיפה להודעה פיסקת הבהרה: "חברת OpenAI תמשיך להגדיל את היקף השימוש בענן Azure של מיקרוסופט". מדוע ההערה הזו כל-כך חשובה? מכיוון שלמיקרוסופט ול-OpenAI יש מערכת יחסים מיוחדת: החל מיומה הראשון של החברה בשנת 2019, מיקרוסופט היא המשקיעה העיקרית ב-OpenAI, ועל-פי הערכות שונות המקובלות בתעשייה, היא השקיעה בה עד היום יותר מ-13 מיליארד דולר.

מיקרוסופט גם סיפקה משאבים טכנולוגיים רבים ל-OpenAI, כולל גישה למשאבי מחשוב גדולים בענן Azure לצורך אימון ואירוח המודלים של OpenAI דוגמת GPT-3.5 ו-GPT-4. בתמורה היא קיבלה יכולת לשלב את הטכנולוגיה של OpenAI במוצריה: שירות Azure OpenAI מאפשר להשתמש במודלים של OpenAI דרך הפלטפורמה של מיקרוסופט, ופלטפורמת Copilot של מיקרוסופט מבוססת על הטמעת טכנולוגיית OpenAI ביישומי אופיס, מנוע החיפוש בינג ומערכת ההפעלה חלונות.

עדיין לא ברור כיצד שתי השותפות יפתרו את הקונפליקט ביניהן שנוצר לאור הברית החדשה עם אורקל. אולי כדי להרגיע את המשקיעים ואת הלקוחות, הן פירסמו בסוף השבוע הודעה משותפת, קצרה וסתומה: "מיקרוסופט ו-OpenAI חתמו על מזכר הבנות (MOU) לא מחייב, עבור השלב הבא של השותפות בינינו. אנחנו עובדים ביחד על השלמת הסכם מחייב. ביחד, אנחנו ממוקדים במתן פתרונות ה-AI הטובים ביותר לכל". האם זה הסכם שלום או הכרזת מלחמה? לא ברור.

ענקיות התוכנה נפגשות בענן

מכל מקום, הדו"חות הכספיים של מיקרוסופט ושל אורקל מגלים שגם אם הדבר לא נאמר במפורש, שתי החברות כבר עלו מזמן על מסלול התנגשות: מהדו"ח הרבעוני האחרון של אורקל, מתברר שכמחצית מהכנסותיה מגיעות כיום משירותי הענן שלה. ברבעון הראשון של השנה הפיננסית 2026, שהסתיים באוגוסט 2025, הסתכמו המכירות של אורקל בכ-14.9 מיליארד דולר. המרכיב המרכזי (48% מהמכירות), היה של הכנסות מפתרונות ושירותי ענן, שצמחו בכ-28% בהשוואה לרבעון המקביל אשתקד, והסתכמו בכ-7.2 מיליארד דולר. מרכיב מכירות התוכנה ירד לכ-38% בלבד בהשוואה ל-44% אשתקד, והסתכם בכ-5.7 מיליארד דולר.

גם אצל מיקרוסופט הופך הענן למרכיב המרכזי בהכנסות: ברבעון הפיננסי הרביעי שהסתיים ביוני 2025, הסתכמו מכירותיה בכ-76.4 מיליארד דולר. המכירות של שירותי הענן צמחו בכ-26% בהשוואה לרבעון המקביל אשתקד, והסתכמו בכ-29.9 מיליארד דולר, שהם כמעט 40% מכלל המכירות. כלומר, שתי ענקיות התוכנה הופכות בהדרגה לחברות מבוססות ענן. ומכיוון שהבינה המלאכותית היא מנוע הצמיחה הגדול ביותר של שירותי הענן, שתיהן נתקלות אחת בשנייה ברגע ספציפי: כאשר החברה המובילה בתחום שירותי ה-AI מגבשת את התוכנית האסטרטגית שלה לשנים הבאות.

ה-AI ישפר את ענף הייעוץ: מי שנשען רק על מצגות – ייעלם

מאת: מלי ביצור פרנס, מנכ"לית קבוצת Tefen

בינה מלאכותית לא מחסלת את ענף הייעוץ, היא מנערת אותו עד היסוד. מה שבעבר היה מקצוע עטוף הילה של בלעדיות ומצגות מרהיבות, הופך היום לתחום שבו רק מי שמביא ערך אנושי אמיתי שורד. אם בעבר יועצים התפרנסו מניתוחים כלליים והשוואות בינלאומיות, הרי שהיום אלגוריתמים עושים זאת בלחיצת כפתור, מהיר יותר, זול יותר, ולעיתים קרובות גם מדויק יותר.

הטלטלה: בין מקינזי ל-BCG

הדוגמה הבולטת ביותר היא מקינזי, חברת הייעוץ המזוהה יותר מכל עם יוקרה והשפעה. בשנת 2023 דיווח Financial Times כי החברה פיטרה יותר מ-5,000 עובדים- מעל 10% מכוח האדם והכניסה לשימוש כ-12 אלף "סוכני AI". קרוב ל-40% מהכנסותיה, שהסתכמו בכ-16 מיליארד דולר, מגיעות כיום מפרויקטים טכנולוגיים ולא מייעוץ מסורתי.

בצד השני, בוסטון קונסלטינג גרופ (BCG) בחרה דווקא להדגיש את יתרון ההון האנושי. בראיון ל-Wall Street Journal בינואר 2024, מנהליה הסבירו כי החברה ממשיכה לגייס אלפי יועצים חדשים דווקא בתקופה שבה מכונות מסוגלות לנתח נתונים בהיקפים עצומים. ההיגיון: כש-AI הופך לכלי נגיש לכל אחד, הקשר האישי, ההבנה התרבותית והרגישות הבין-אישית הם אלו שמייצרים בידול אמיתי.

ובתוך כך, ארבע הגדולות – Deloitte, EY, PwC ו-KPMG – בוחנות מהלכים מבניים מרחיקי לכת. על פי דיווח של Bloomberg (יולי 2024), נשקל אפילו פיצול זרועות ייעוץ מסוימות, כדי להתאים את המודל העסקי לעולם שבו לקוחות כבר לא מוכנים לשלם מאות דולרים לשעה על עבודות שהאלגוריתם מסוגל להפיק כמעט בחינם.

השינוי בתפקיד היועץ

כאן עולה השאלה הקריטית: אם מערכות כמו GPT מסוגלות להפיק ניתוחי שוק, לבנות מצגות ולהציע אסטרטגיות תוך דקות, איפה הערך של היועץ האנושי? בעבר, יועצים נדרשו בעיקר לספק ידע על מתחרים, על מגמות, על best practices. היום הידע זמין לכל מנכ"ל בלחיצת כפתור. המשמעות היא שהיועץ כבר לא "מביא מידע", אלא מסייע לארגון להחיל את המידע במציאות מורכבת. כאן טמון ההבדל הגדול: AI מסוגל לומר שמהלך מסוים יצליח "על הנייר", אבל הוא לא יכול להבין שהמחלקה שמובילה את המהלך מורכבת ממנהלים יריבים שלא סומכים זה על זה. הוא לא יכול לזהות שמחלקה מסוימת לא מתפקדת בגלל יחסי אמון שנשברו, ולא בגלל חוסר יעילות.

הלקוחות מחליפים דיסקט

גם מצד הלקוחות נרשמת מהפכה. אם פעם מנכ"לים התרשמו מערימות דוחות וסיכומים עבי כרס, הרי שכיום הם מחפשים משהו אחר לגמרי: מהירות – לפי Harvard Business Review (פברואר 2024), שימוש ב-AI מאפשר לבצע אבחון ראשוני של בעיות ארגוניות תוך ימים ספורים במקום שבועות. המשמעות: אף יועץ לא יכול להרשות לעצמו להגיע לפגישה הראשונה אחרי חודש של איסוף נתונים. תכל'ס – לקוחות רוצים לראות "איך זה קורה מחר בבוקר". לא עוד שקפים נוצצים, אלא צעדים פרקטיים שמותאמים לאילוצים הקיימים.

מדידה על בסיס תוצאות

נתונים שפרסמה McKinsey Quarterly (מרץ 2024) מראים כי יותר מרבע מהפרויקטים בחברה מתומחרים כיום לפי השגת יעדים מוגדרים ולא לפי שעות עבודה. זהו שינוי מהותי ביחידת המידה של הערך.

איפה המכונה נעצרת? מחקרים עדכניים מצביעים גם על מגבלות ברורות. לפי ניתוח שפורסם ב-Harvard Business Review (ספטמבר 2024), AI מעלה את התפוקה של יועצים בינוניים בעשרות אחוזים, אך במשימות מורכבות התוצאה הפוכה- ירידה בביצועים. מערכות יודעות לחקות ניתוח, אך מתקשות להתמודד עם בעיות שדורשות הבנה רגשית, ניהול קונפליקטים או התאמה לנסיבות פוליטיות.

אני יכולה לתת לכך דוגמה מפרויקט ארגון מחדש בחברת טכנולוגיה ש-Tefen עובדת איתה. ה-AI המליץ על קיצוץ שתי מחלקות כדי לחסוך בעלויות, אך היועצים האנושיים שלנו זיהו שהמהלך יוביל לאובדן ידע קריטי ולעזיבת עובדים מפתח. ההמלצה שונתה והחברה הצליחה לשמר את ההון האנושי תוך עמידה ביעדים הפיננסיים.

לא סוף המקצוע – סוף הבינוניות

ה–AI לא גונב את מקצוע הייעוץ, אלא חושף את מי שנשען על ניתוחים שטחיים. אם בעבר יועץ יכול היה "לשרוד" על בסיס מתודולוגיה גנרית ומצגות יפות, היום הלקוח רואה מיד אם יש ערך אמיתי או לא. במובן הזה, הבינה המלאכותית הופכת את השוק לפחות סלחני לבינוניות, ויותר מתגמל למי שמביא שילוב של שני עולמות: יכולת ניתוח נתונים מהירה מצד אחד, ושיקול דעת, אמפתיה ובניית אמון מצד שני.

העתיד של הייעוץ לא שייך למי שמפחד מהמכונה, אלא למי שמבין איך לעבוד איתה. יועצים שיידעו להטמיע AI כחלק אינטגרלי מהעבודה, להשתמש בו כמנוף ולתרגם את תובנותיו להחלטות פרקטיות בשטח, יהיו אלה שיישארו במשחק. המכונה יודעת להפיק נתונים קרים. היועץ האנושי יודע להפוך אותם להחלטות חמות. השילוב הזה ולא הבחירה בצד אחד בלבד, הוא שיקבע מי ישרוד את מהפכת ה-AI.

סופטבנק תשקיע 2 מיליארד דולר בחברת אינטל

בתמונה למעלה: מנכ"ל אינטל, ליפ-בו טאן

אינטל וסופטבנק (SoftBank) הודיעו על הסכם השקעה בהיקף של שני מיליארד דולר במניות אינטל, אשר ייעשה לפי מחיר מניה של 23 דולרים. סופטבנק תרכוש את המניות במחיר של 23 דולר למניה. השלמת העסקה כפופה לתנאים מקובלים. בעקבות ההודעה אתמול (ג') ירדו מניות סופטבנק בטוקיו בכ-2.2%, ומניות אינטל בנסד"ק ירדו בכ-3.7% ובלילה עלו בכ-5.2% למחיר של כ-24.9 דולר למניה, והעניקו לה שווי שוק של כ-103.5 מיליארד דולר.

יו”ר ומנכ”ל סופטבנק, מסיושי סון, אמר שההשקעה האסטרטגית הזו "משקפת את אמונתנו שיכולות הייצור והאספקה של שבבים מתקדמים בארה”ב ימשיכו להתרחב, ושלאינטל יהיה תפקיד מרכזי בכך". מנכ”ל אינטל, ליפ-בו טאן, אמר שסופטבנק "שותפה למחויבות שלנו לחיזוק ההובלה הטכנולוגית והייצורית של ארה”ב. מסא ואני עובדים בשיתוף פעולה הדוק כבר עשרות שנים, ואני מעריך את האמון שהוא מביע באינטל".

אסטרטגיית AI חדשה

סופטבנק הבהירה שההשקעה קשורה לאסטרטגיה רחבה של ביצוע השקעות משמעותיות בתחום הבינה המלאכותית (AI). פירוש הדבר שהיא רואה באינטל פלטפורמה קריטית לייצור שבבים עבור AI. ייתכן שהמהלך קשור לאסטרטגיית ה-AI החדשה שאותה הציג ליפ-בו לפני כחודשיים: "בעבר פעלנו בתחום הבינה המלאכותית מתוך גישה ממוקדת סיליקון, בלא לבנות מערך כולל ומשולב של חומרה ותוכנה. אנחנו צריכים למקד את האסטרטגיה שלנו סביב ארכיטקטורת x86 בתחום מעבדי ה-CPU וארכיטקטורת xe בתחום מעבדי ה-GPU, אבל לעלות ברמת ההפשטה ולספק מוצרים הכוללים גם חומרה וגם תוכנה.

"אנחנו צריכים להבין את המגמות החשובות ביותר בתחום המחשוב, ולהגיב אליהן באמצעות גישה מערכתית שיש בה גם פיתוח תוכנה וגם פיתוח סיליקון. בחודשים הקרובים נספק יותר מידע על המהלך שאנחנו מבצעים בפיתוח יכולות AI מאוחדות הכוללות חומרה ותוכנה. המהלך הזה אומנם דורש זמן, אולם הוא חיוני כדי שאינטל תהיה רלוונטית גם בגל המחשוב הבא".

חידת ARM

מעניין לראות האם הדבר יביא להגברת שיתוף הפעולה בין אינטל לבין חברת ARM, שעל-פי הערכות שונות נמצאות 90% ממניותיה בידי סופטבנק. השיעור המדוייק ברור, שכן לאחר שרכשה ARM ב-2016 תמורת 32 מיליארד דולר, היא הוציאה אותה מהנפקה, החזירה אותה למסחר בנסד"ק ב-2023 וביצעה מספר עסקעות נוספות של מכירת מניות לציבור. מעניין לציין ש-ARM נסחרת כיום לפי שווי גדול בהרבה מזה של חברת אינטל: 149.3 מיליארד דולר.

סיוה מקווה ש-2025 תהיה שנת ה-AI שלה

בתמונה למעלה: מנכ"ל סיוה, אמיר פנוש. צילום: נתי לוי

ברבעון השני של 2025 ירדו המכירות של חברת סיוה (CEVA) מהרצליה בכ-15% בהשוואה לרבעון המקביל אשתקד, והסתכמו בכ-24.2 מיליון דולר. מרכיב ההכנסות ההכנסות מהסכמי רישוי הסתכם ב-15 מיליון דולר (בהשוואה ל-17.3 מיליון דולר אשתקד, ומרכיב ההכנסות מתמלוגים הסתכם ב-10.7 מיליון דולר, בהשוואה ל-11.2 מיליון דולר ברבעון השני של 2024. מניית החברה בנסד"ק הגיבה לדו"ח בירידה של כ-1.8% וכיום החברה נסחרת לפי שווי שוק של כ-510 מיליון דולר.

חברת סיוה מספקת טכנולוגיות קישוריות, חישה ובינה מלאכותית במתכונת של קניין רוחני (IP) המשולב כמודולים בתוך השבבים של הלקוחות. נקודת האור החשובה ביותר של הרבעון הייתה החדירה של טכנולוגיית הבינה המלאכותית של החברה אל השוק, בזכות ארבע עסקאות רישוי שנחתמו עבור מעבדי NeuPro. מנכ"ל סיוה, אמיר פנוש, אמר שתוצאות הרבעון השני הושגו בין השאר על-ידי הרחבת עסקאות רישוי ה-AI. "עסקי ה-Edge AI שלנו ממשיכים לצמוח".

לדבריו, "ארבעה הסכמי NPU חדשים שנחתמו במהלך הרבעון מסמנים רגע מכונן באימוץ הטכנולוגיה שלנו. עסקי החברה ממוצבים היטב להשגת צמיחה במחצית השנייה של השנה, גם בהשוואה למחצית הראשונה וגם בהשוואה לתקופה המקבילה אשתקד". בחודש אפריל 2025 החברה דיווחה על הסכם עם Nextchip הקוריאנית, אשר בחברה במעבדי NeuPro-M המיועדים לעיבוד רשתות נוירוניות באבזרי קצה, ומופיעים במספר גרסאות בעוצמת עיבוד של 2TOPs-256TOPs. המעבדים ישולבו בשבבי עיבוד התמונה של Nextchip המיועדים למערכות עזר לנהג בטיחותיות (ADAS).

שני מעבדים במוצר אחד

ביוני 2025 הודיעו סיוה ואליפטיק לאבס (Elliptic Labs) הנורבגית, על שיתוף פעולה בהטמעת מעבד רשתות נוירונים (NeuPro-Nano) של סיוה בפלטפורמת החיישנים החכמים מבוססי AI של אלפטיק לאבס, המותקנת כבר ביותר מחצי מיליארד מכשירים. מעבד NeuPro-Nano הוא מעבד נוירוני (NPU) קומפקטי ועצמאי, המיועד להרצת מודלים של בינה מלאכותית במכשירי קצה קטנים כמו אוזניות חכמות, שעונים, חיישנים ומכשירי בית חכם. אליפטיק לאבס מספקת פתרון תוכנה מבוסס AI לעיבוד מידע מחיישנים. במסגרת שיתוף הפעולה, התוכנה הזו תוכל לרוץ ביעילות על גבי שבבים של לקוחות של סיוה ששילבו את ה-NPU.

בשבוע שעבר הודיעה ALi Corporation הטאיוואנית שהיא בחרה במעבדי ה-AI של סיוה לפלטפורמות הווידאו מהדור הבא שלה (Video Display Sub-System – VDSS). מבחינת סיוה זו עסקה מעניינת מאוד, מכיוון שמדובר בשני מעבדי AI שונים המשולבים במוצר אחד, במטרה להאיץ ביצועי AI חסכוניים באנרגיה במכשירי קצה חכמים מבוססי וידאו.

אינטל ומכון ויצמן שיחררו את פקק "הפיענוח הספקולטיבי"

בתמונה למעלה: נדב תימור (מימין) ופרופ' דוד הראל. צילום: מכון ויצמן למדע

צוות משותף של חוקרים ממעבדות אינטל (Intel Labs) וממכון ויצמן למדע חשפו השבוע את התוצאות של מחקר פורץ דרך בתחום האצת מהירות העיבוד של יישומי בינה מלאכותית המבוססים על מודל שפה גדולים (LLM). המחקר הוצג בכנס למידת המכונה ICML 2025 שהתקיים השבוע בוונקובר קנדה, אשר נחשב לאחד מאירועי המחקר החשובים בעולם הבינה המלאכותית. העבודה הזאת נבחרה להצגה בעל פה בפני המשתתפים בכנס. מעמד המהווה אות הצטיינות מכובד מאוד, שכן רק 1% מתוך כ-15,000 עבודות שהוגשו לכנס מקבלות את המעמד הזה.

המחקר בוצע על-ידי פרופ' דוד הראל ונדב תימור ממכון וייצמן, ועל-ידי משה וסרבלט, אורן פרג, דניאל קורת ומשה ברצ'אנסקי מאינטל ובהשתתפות גאורב ג'יין מחברת d-Matrix. מודלי שפה גדולים כמו ChatGPT או Gemini הם כלי אדיר, אולם הם איטיים וזוללי משאבים. בשנת 2022 הבינו בתעשייה שניתן לייעל את העיבוד באמצעות חלוקת עבודה בין אלגוריתמים שונים. הדבר הביא לפיתוח גישה חדשה בשם "פיענוח ספקולטיבי" (Speculative Decoding). בשיטה הזו, מודל-עזר קטן וזריז מנחש את התשובה הנכונה, כאשר המודל הגדול והחזק צריך רק לאמת את הניחוש במקום לבצע חישוב מלא מאפס.

מודל-עזר קטן וזריז

כיצד הדבר עובד? במצב הקיים היום המודלים נדרשים לבצע סדרה גדולה של חישובים גדולים מאוד כדי להשלים כל מטלה. נניח שאנחנו מבקשים מהמודל להשלים את המשפט "בירתה של צרפת היא…". ללא פיענוח ספקולטיבי, המודל חושב, ומייצר את המילה "פריז". לאחר מכן הוא קורא את "בירתה של צרפת היא פריז", וחושב שוב כדי לייצר את המילה הבאה: "עיר". בשלב האחרון הוא קורא את כל המשפט החדש, וחושב שוב, כדי לייצר את המילה "האורות". כלומר כדי לייצר 3 מילים, המודל הגדול נדרש לבצע שלושה "סבבי חשיבה" נפרדים ויקרים.

הפיענוח הספקולטיבי מכניס לתמונה מודל-עזר זריז. בשלב הראשון מודל-העזר קורא את המשפט ומיד מנחש טיוטה של שלוש מילים: "פריז", "עיר", "האורות" (שלב הניחוש המהיר). לאחר מכן מתבצע שלב האימות: המודל הגדול והחזק מקבל את הטיוטה הזו, ובודק את כולה בבת אחת. הוא שואל את עצמו: "האם הניחוש הזה נכון?". במקרה הזה, התשובה היא "כן". כלומר המודל הגדול נדרש לבצע רק "סבב חשיבה" אחד כדי לאשר את הטיוטה כולה

מימין לשמאל: משה וסרבלט, אורן פרג, דניאל קורת ומשה ברצ'אנסקי. צילום: אינטל
מימין לשמאל: משה וסרבלט, אורן פרג, דניאל קורת ומשה ברצ'אנסקי. צילום: אינטל

"הפקק" שבלם את התעשייה

למרות שהטכניקה הזו מוכרת לפחות 3 שנים, הטמעתה בתעשייה מלווה בקשיים רבים: מודלי AI אינם באמת מבינים מילים. הם בונים מפה של קשרים סטטיסטיים בין מלים שונות, ו"התשובה" של המודל מבוססת על שכיחות הופעתן המשותפת. בפועל, כל מודל לומד ובונה לעצמו "שפה דיגיטלית" ייחודית, שהיא מילון של צורונים וסימנים (Tokens) שרק הוא מבין. המילה "תפוח" יכולה להיות מיוצגת במודל אחד על-ידי הסימן #123, ובמודל אחר על-ידי הסימן #987. עד היום עבדה שיטת ההאצה הספקולטיבית רק במידה ושני המודלים דיברו בדיוק באותה שפה דיגיטלית. כלומר, פותחו על-ידי אותה חברה והשתמשו באותו מילון. אי-אפשר היה לקחת מאיץ שנבנה למודל של גוגל, ולצרף אותו למודל מבוסס OpenAI.

הדבר יצר "נעילה" שהגבילה את התעשייה. המפתחים לא יכלו לבחור במודל הקטן והמהיר ביותר בשוק, אלא רק בזה שתאם לשפת מודל ה-LLM שבו השתמשו. הפיתוח הישראלי הצליח להתגבר על הבעיה הזו באמצעות פיתוח אלגוריתמים מסוג חדש המעניקים לכל מודל-עזר יכולת לעבוד מול כל ארכיטקטורות ה-LLM הקיימות. מעתה, מפתחים יכולים להתאים כל מודל קטן לכל מודל גדול, גם אם הם פותחו בחברות שונות, מתבססים על ארכיטקטורות שונות ומשתמשים באוצר מילים שונה לחלוטין.

פתרון מפתיע לבעיית התאימות

כדי להתגבר על המחסום הזה פיתחו החוקרים שני פתרונות. הראשון הוא אלגוריתם המאפשר למודל שפה גדול שסיים תהליך "חשיבה", לתרגם את התוצאות שהגיע אליהן בשפתו הייחודית לשפה המובנת לכל שאר המודלים. השני, הוא אלגוריתם הגורם למודלים אלה (הקטן והגדול) להשתמש בעבודתם המשותפת בעיקר בסימנים (tokens) שהם cognates – סימנים שמשמעותם זהה בשפות שונות. "תחילה חששנו שיותר מדי מידע 'יאבד בתרגום' והמודלים השונים יתקשו לעבוד יחד", אמר נדב תימור, דוקטורנט בקבוצת המחקר של פרופ' דוד הראל במכון ויצמן למדע והמחבר הראשון של המאמר. "אך החששות התבדו".

תימור: "האלגוריתמים השיגו האצה מקסימלית של פי 2.8 בביצועים של מודלי שפה גדולים, המובילה לחיסכון אדיר בהוצאות על כוח עיבוד. הם מעניקים לכל המפתחים יכולת להשתמש בשיטות האצה שעד כה היו זמינות רק לארגונים שאימנו לעצמם את מודלי ה-AI הקטנים. חברת סטארט-אפ שרצתה ליהנות מהאצת הביצועים של פיענוח ספקולטיבי, היתה צריך לאמן בעצמה מודל קטן, וזו משימה מורכבת הדורשת התמחות והשקעה גדולים מאוד".

האלגוריתמים החדשים כבר שולבו בפלטפורמת הקוד הפתוח Hugging Face, שבאמצעותה הם זמינים למפתחים בכל העולם.

שתפו בלינקדאין את הגרסה באנגלית של הכתבה.

לקריאת המאמר המקורי: https://arxiv.org/pdf/2502.05202

המדינה תעניק 44 מיליון שקל להקמת מאגרי מידע איכותיים

רשות החדשנות פירסמה קול קורא לקבלת הצעות לפיתוח והנגשת מאגרי מידע איכותיים שיועמדו לרשות חוקרים וחברות טכנולוגיה ותעשייה בישראל. הרשות תעניק לזוכים סכום כולל של עד 44 מיליון שקל. מדובר בפרוייקט משותף של משרד הכלכלה והתעשייה, משרד החקלאות וביטחון המזון ומנהלת תקומה. ממשרד הכלכלה נמסר שהיוזמה מתבצעת במסגרת הפעימה השנייה של התוכנית הלאומית לבינה מלאכותית. המטרה היא לספק נתונים איכותייים ונגישים לצורך פיתוח אלגוריתמים מתקדמים, חיזוי תהליכים תעשייתיים, האצת המחקר והפיתוח המדעי, וקידום פתרונות בתחומי האקלים, הרפואה והביטחון.

מאגרי המידע החדשים יתמקדו בשישיה תחומים מרכזיים:

  • מדעי החיים ובריאות  –  מידע רפואי, גנומי או קליני שיאפשר פיתוח תרופות, מכשור רפואי, טכנולוגיות דיאגנוסטיקה, וכלי בינה מלאכותית מותאמים למערכת הבריאות
  • ייצור מתקדם  –  תעשיות מתקדמות, קווי ייצור, שרשראות אספקה, מערכות חישה ואוטומציה, לרבות מוליכים למחצה ו-ICT
  • דזרטק ואקלים  – מידע אקלימי, נתוני אנרגיה מתחדשת, ניטור מים, חיזוי מזג אוויר, חישה סביבתית, ויישומים לתחומי האקלים
  • אגרוטק –  נתונים חקלאיים מבוססת חיישנים, לוויינים, מערכות GIS, חקלאות מים, בתי אריזה, ושרשרת אספקת המזון
  • פודטק –  מאגרי מחקר וטכנולוגיות במזון חדשני, כולל חלבון אלטרנטיבי, תחליפי בשר מן החי, תהליכי ייצור חדשים ומעקב תזונתי
  • ביטחון והייטק  – נתונים רלוונטיים לסייבר, טכנולוגיות ביטחוניות ודו-שימושיות, תעשיות החלל וה-AI הביטחוני, לצד בלוקצ׳יין, פינטק, תחבורה חכמה ותוכנה.

אחד מהתחומים המרכזיים הוא אגרוטק. מאגרי המידע בתחום הזה יתמקדו בנתוני קרקע, אקלים, סוגי גידולים, מזיקים, פרוטוקולי גידול, טכנולוגיות חקלאיות ונתוני שיווק והפצה, בדגש על איסוף נתונים בזמן אמת והתייחסות למשבר האקלים העולמי וההתחממות הגלובלית. כיום המידע הזה פזור בין גופים שונים, באופן שאינו נגיש תמיד לצורכי מחקר ופיתוח.

מנכ״ל רשות החדשנות, דרור בין, אמר שהקול קורא הזה נועד להפוך את מאגרי הנתונים של מדינת ישראל ממשאבים סגורים למנועים פתוחים של חדשנות. מנכ"ל משרד הכלכלה והתעשייה, מוטי גמיש, אמר שבעידן הבינה המלאכותית, "אנחנו חייבים להנגיש לחברות תשתית נתונים איכותית". ראש מנהלת תקומה, אביעד פרידמן, אמר שההשקעה בהקמת מאגרי נתונים מתקדמים תאפשר ליישובים ולחברות מהפריפריה להשתלב בגל הצמיחה הטכנולוגית. "זוהי הדרך להפוך את אזור העוטף ממוקד פגיעה למוקד מצוינות וחדשנות".

קיידנס חשפה קטגוריה חדשה: מעבדי-עזר לרשתות נוירוניות

חברת קיידנס (Cadence) הכריזה על מעבד-העזר לרשתות נוירוניות, Tensilica NeuroEdge 130 AI Co-Processor (AICP), אשר מהווה קטגוריה חדשה בתחום מעבדי ההאצה של מטלות בינה מלאכותית (AI). המעבד מופיע במתכונת של קניין רוחני (IP) ומבוסס על משפחת מעבדי Vision DSP של טנסיליקה. האנליסט הראשי של חברת Cambrian AI Research, הסביר בהודעה של קיידנס, שהמעבדים הנוירוניים (NPU) מבצעים היום את רוב עבודות העיבוד במערכות AI/ML המשמשות ברובוטים, מכוניות אוטונומיות, רחפנים ומעארכות אוטומציה תעשייתיות.

"אולם פעולות העיבוד האלה דורשות הכנה של הקבצים לפני ואחרי העיבוד הנוירוני, ולכן כדאי להפנות את הפעולות האלה אל מאיצים חיצוניים שהם יעילים יותר ממעבדי GPU או CPU, ועל-ידי כך לשחרר את ה-NPU למשימות הליבה העיקריות". המעבד החדש עובד באופן חלק מול מעבד ה-NPU ממשפחת Cadence Neo ומול מעבדי NPU מתוצרת חברות אחרות.

החברה מסרה שהוא מספק שיפור של 30% בביצועים והפחתה של 20% בצריכת ההספק, בהשוואה למעבדי Tensilica Vision DSP סטנדרטיים. המעבד ניתמך על-ידי חבילת פיתוח התוכנה NeuroWeave, המאפשרת לבצע אופטימיזציה של היישום לתכונות החומרה. מנהל קבוצת Silicon Solutions בקיידנס, בויד פלפס, הסביר את הרעיון מאחורי ההכרזה: "ככל שעומסי העבודה בתחום הבינה המלאכותית הופכים פחות ייחודיים לתחום מסוים ויותר מגוונים, הלקוחות מחפשים מעבדמשנה קומפקטי, יעיל וממוקדAI לשיפור יחס הספקביצועיםשטח (PPA) ולמוכנות עתידית".

"זיקוק מודלים" שובר את מחסום הלמידה העמוקה בקצה הרשת

בתמונה למעלה: הרכבת שרתים במפעל הייפר גלובל בראש העין. צילום: הייפר גלובל

מאת: יואל יעקבסן, CTO חברת הייפר גלובל (HIPER Global)

בעידן שבו מכשירים חכמים מהווים חלק בלתי נפרד מחיינו, היכולת לעבד נתונים ולקבל החלטות בקצה הרשת (Edge) היא קריטית, אולם היא דורשת להריץ מודלי בינה מלאכותית עתירי עיבוד על-גבי מכשירים מוגבלי משאבים כמו טלפונים, מצלמות או מחשבים תעשייתיים. טכניקת "זיקוק מודלים" (Model Distillation) החדשה מסתמנת כפתרון המאפשר לגשר על הפער ולהביא את העוצמה של מודלי ענק אל אבזרי הקצה.

מחשוב קצה (Edge Computing) הוא פרדיגמה טכנולוגית שבה עיבוד המידע מתבצע קרוב למקור יצירתו או למקום הצריכה שלו, ולא בשרתי ענן מרוחקים. לגישה הזו יתרונות מרובים: זמן תגובה קצר, חסכון בעלויות התקשורת, שמירת פרטיות ואבטחה, ואפשרות לשימוש בטכנולוגיה עתירת עיבוד גם באזורים ללא קליטת אינטרנט יציבה. אלא שמודלי למידה עמוקה מודרניים, המצטיינים במשימות כמו זיהוי תמונה או עיבוד שפה טבעית (ובמקרים רבים שניהם יחד), הם לרוב מפלצות חישוביות.

האנלוגיה המפתיעה של מורה-תלמיד

הם דורשים עוצמת עיבוד גדולה, הרבה מאוד נפח של זיכרון מהיר וצורכים אנרגיה רבה – שלושה משאבים הנמצאים בצמצום חמור במכשירי קצה. הנסיון לאמן מודלים קטנים הדורשים פחות משאבים, על בסיס המידע ששימש לאימון מודלים גדולים, לא הניב תוצאות טובות. כאן נכנסת לתמונה טכניקת זיקוק המודלים – AI Model Distillation, שהוצגה על-ידי זוכה פרס טיורינג, ג'פרי הינטון. הוא מבוסס על אנלוגיה של מורהתלמיד: בשלב הראשון, מאמנים מודל AI גדול ומורכב במרכז נתונים חזק. המודל הזה, המשמש כ"מורה", מספק איכות גבוהה מאוד אך הוא גדול ומסורבל מכדי לפעול על מכשיר קצה.

בשלב השני מעבירים "ידע רך" למודל "תלמיד". במקום לאמן מודל קטן ("תלמיד") רק על נתוני האימון הגולמיים, אנחנו מאמנים אותו ללמוד מהתובנות העמוקות יותר של מודל המורה. המורה לא רק אומר "זו התשובה", אלא מספק התפלגות הסתברויות מלאה: "אני בטוח ב-95% שזה כלב, אבל יש סיכוי של 4% שזה זאב ו-1% שזה שועל". מידע עשיר זה, המכונה "ידע רך", מלמד את התלמיד על הקשרים והניואנסים בין קטגוריות שונות.

התוצאה היא מודל תלמיד קטן ו"רזה" משמעותית, הדורש פחות כוח חישוב וזיכרון, אך בזכות הלמידה מהמורה, הוא מצליח לשמר רמת דיוק קרובה מאוד לזו של המודל המקורי והגדולהיכולת לזקק מודלים פותחת את הדלת לשילוב AI מתקדם מאוד במכשירים עם יכולת עיבוד צנועה, ומנגישים יכולות AI במכשירים שבעבר לא יכלו לתמוך בהן. בנוסף, מודלים מזוקקים מאפשרים פיתוח מוצרים חסינים לזליגת מידע, מכיוון שהעיבוד מתבצע באופן מקומי לחלוטין.

"תלמיד מצטיין" מגיע לכל מקום

לטכנולוגיה הזו יש שימושים אפשריים רבים: מערכות ממוחשבות רפואיות יכולות לנתח מידע לגבי חולים, לספק לצוות הרפואי ניתוח של המדדים הרפואיים (ובשילוב מודלים מסוג VLM, גם הצלבה עם ניתוח הדמאות רפואיות באיכות הולכת ועולה) ואפילו ולהמליץ על צעדים רפואיים מיידים אם נדרשים. המלצות אלו יכולות להתבצע מקומית על "מחשב קצה" באיזור החולה, מבלי להתבסס על רשת האינטרנט בשביל עיבוד בענן או במידה רבה אפילו על רשת בית החוליםבאמצעות Agentic AI אפשר לשלב אישורים של רופאים אנושיים, להזמין בדיקות ולנתח חומר ממאגרי המידע של בית החולים ואפילו ממאגרי מידע חיצוניים כדי לספק תוצאות טובות יותר.

מוצרים לאבטחת מידע יכולים לנתח מידע ודפוסים באמצעות Reasoning AI מקומי כדי לקבל החלטות מקומיות. מכשירים תעשייתיים יכולים לעבוד באופן פשוט בהרבה באמצעות שילוב של מודלים מזוקקים מקומיים המשלבים ראייה (קריאת מצב מסך, ראייה של המצב בתוך המכונה), דיבור (שיחה עם העובד) וניתוח טקסט (שיחה עם העובד בשפה טבעית), כדי לצמצם פערי מיומנות ולהפוך שימוש במכונות לנגיש יותר ואפילו עצמאי. מוצרים תעשייתיים שנסמכו בעבר על חוקיות עדינה ומתוחכמת שפותחה בעמל רב וקשה מאוד לתחזוקה, יכולים להתבסס על AI מקומי חזק מאוד שנבנה באמצעות זיקוק.

כדי להשיג את כל אלו חשובה גם התשתית ותפעול הסביבה. בחירה נבונה במערכת המיחשוב התעשייתי או הרפואי, המאיצים הנכונים שיתאימו למודלים מזוקקים, תשתיות התוכנה הנחוצות והתהליכים הדרושים כדי לאפשר בטיחות, אבטחה ועדכניות תדירה, הם מרכיב חשוב הדורש מקצועיות בפני עצמה.

לסיכום: טכניקת AI Model Distillation אינה רק אופטימיזציה טכנית; היא טכנולוגיית ליבה המאפשרת להעביר את ה"חוכמה" של מודלי הענק גם אל מכשירי הקצה, וסוללת את הדרך לדור הבא של יישומי קצה מבוססי AI יעילים, מהירים ומאובטחים.

יואל יעקבסן, CTO בחברת הייפר גלובל. צילום: ענת קזולה
יואל יעקבסן, CTO בחברת הייפר גלובל. צילום: ענת קזולה

אודות החברה

הייפר גלובל עוסקת במתן פתרונות מחשוב לחברות טכנולוגיות המפתחות מוצרים. החברה פועלת בישראל ובעולם (באמצעות חברות בת בבריטניה ובארה"ב). היא מספקת ללקוחות פתרונות גלובליים. פעילותה כוללת עבודה משותפת עם גופי הפיתוח של הלקוחות והתאמת פתרונות טכנולוגים מורכבים לצורכיהם. בשלבים שלאחר מכן החברה מייצרת את המערכות שתכננה ומספקת אותן לכל מקום נדרש בעולם.

מעבדי Xeon 6 במערכות ה-AI של אנבידיה

חברת אינטל הכריזה בסוף השבוע על שלושה דגמים חדשים של מעבדי משפחת Xeon 6, המבוססים על ליבות ביצועים (P-Cores). היא מסרה שאחד מהם, המעבד Xeon 6776P נבחר על-ידי חברת אנבידיה לשמש כמעבד הראשי (head node) במערכת הבינה המלאכותית החדשה שלה, DGX B300, המבוססת על ארכיטקטורת Blackwell. המערכת מיועדת להתמודד עם עומסי עבודה כבדים, כמו אימון והסקת מודלים גדולים.

המעבדים החדשים כוללים את טכנולוגיית Priority Core Turbo – PCT המאפשרת להאיץ את מהירות העבודה של 8 ליבות נבחרות, ממהרות שעון של 3.9 גה"ץ, למהירות שעון של 4.6 גה"ץ. ההאצה מתבצעת במועדים נבחרים, כמו למשל ברגעים הקריטיים של העבודה דוגמת תהליך הכנת הנתונים (data preprocessing), טעינת מודלים וניהול תורי משימותבמערכות בינה מלאכותית, כאשר CPU לא מספיק מהיר, הוא פשוט ממתין ולמעשה לא עושה דבר. ההאצה נועדה למנוע את תופעת ההשהיה הזו.

"תפקידו של מעבד ה-Xeon כ-head node הוא קריטי במערכות AI, אמרה קרין אייבשיץ סגל, סגנית נשיא תאגידית ומנהלת זמנית של קבוצת מרכזי הנתונים באינטל.  בנוסף לטכנולוגיית PCT, המעבדים כוללים עד 128 ליבות P-Core, תמיכה בזיכרון מהיר העובד בקצב של עד 5,200MT/s, כולל MRDIMM, RDIMM ו-CXL, הגדלה של 20% במספר נתיבי ה-PCIe ותמיכה בהאצת חומרה לחישובי מטריצות (AMX).

אנבידיה מגדילה את מרכז המו"פ בתל אביב

בתמונה למעלה: עמית קריג, סגן נשיא בכיר ב-NVIDIA ומנהל מרכז הפיתוח של אנבידיה בישראל

חברת אנבידיה מרחיבה את משרדיה בתל אביב, ומוסיפה אליהם 10 קומות נוספות במגדל רובינשטיין בתל אביב, בנוסף ל-8 הקומות שהיא תופסת כיום. החברה מסרה שלאחר השלמת ההתרחבות, ישתרעו משרדיה על שטח של כ-22,000 מ"ר. במרכז המורחב יהיו כ-1,200 פינות עבודה לצד מעבדות מחקר בינה מלאכותית וחלל כנסים ואירועים. במקום יוקם מתחם הסעדה שיופעל על-ידי קבוצת מחניודה בהובלת השף אסף גרניט. האתר יחל לפעול במתכונת מלאה עד סוף השנה, ויתמוך בהרחבת פעילות המחקר והפיתוח של אנבידיה בישראל.

חברת אנבידיה היא אחת המעסיקות הפרטיות הגדולות במשק. מאז רכשה את חברת מלאנוקס בשנת 2020, היא הכפילה את מספר עובדיה בישראל וכיום היא מעסיקה כ-4,500 עובדים בתל-אביב, יקנעם, תל-חי, מבוא כרמל, רעננה ובאר שבע. מרכז הפעילות הגדול ביותר הוא מתקן מלאנוקס לשעבר ביוקנעם. המרכז בתל אביב הוא השני בגודלו. החברה מסרה שהיא מגייסת עובדים וכעת יש לה כמה מאות משרות פתוחות במשרדיה ביקנעם, תל אביב, רעננה, באר שבע ותל חי.

"אנחנו ממשיכים להעמיק את ההשקעה שלנו בישראל, מתוך אמונה בהון האנושי וביכולת שלו להוביל חדשנות עולמית", סגן נשיא בכיר להנדסת תוכנה ומנהל מרכז המחקר והפיתוח של אנבידיה בישראל, עמית קריג. "הרחבת המרכז בתל אביב תאפשר לנו לגייס עובדים נוספים ולקדם בישראל חדשנות בתחום הבינה המלאכותית".

בתוך משרדי אנבידיה בתל אביב. צילום: אנבידיה
בתוך משרדי אנבידיה בתל אביב. צילום: אנבידיה

 

פורטליקס הכריזה על פתרון בדיקה לרכב אוטונומי מבוסס AI

בתמונה למעלה: מייסד שותף בחברת פורטליקס, גיל אמיד

חברת פורטליקס (Foretellix) מרמת-גן הכריזה על יכולות חדשות בתוכנת התרחישים שלה, Foretify, המאפשרות לאמן ולבדוק כלי-רכב אוטונומיים שהתוכנה שלהם מבוססת על בינה מלאכותית ׁׂ(AI). ההרחבה מיושמת באמצעות פלטפורמת הסימולציה הריאליסטית NVIDIA Cosmos אשר פועלת על-גבי הענן Omniverse של אנבידיה. הכלים החדשים מספקים יכולות לאמן את מנועי הבינה המלאכותית של כלי-הרכב באמצעות שימוש בנתוני נסיעה קיימים ובמידע המגיע מחיישני הרכב, ובנתונים משלימים המיוצרים באופן סינתטי באמצעות השילוב בין Foretify ו-Cosmos, אשר מייצר סימולציה ריאליסטית מאוד (Physical AI).

המערכת מספקת מענה לשלושה צרכים מרכזיים בפיתוח רכב אוטונומי מבוסס AI: לוודא שאלגוריתם הבינה המלאכותית מתפקד בצורה בטוחה בכל תרחיש ריאליסטי, לבצע הערכה של רמת המוכנות של המערכות האוטונומיות ולבדוק את רמת עמידתן בדרישות הרגולטור והמפתחים, לפני שהמכוניות עולות לכביש. לדברי מנכ"ל ומייסד שותף של פורטליקס, זיו בנימיני, "אימון, אימות ואספקת ראיות לרמת התיפקוד של הערכות האוטונומיות, הוא המנוע המרכזי שיגרום לתעשיה הזו להתקדם".

שילוב מידע אמיתי ומידע סינתטי במערכת פורטיפיי, לאימון מערכת נהיגה אוטונומית
שילוב מידע אמיתי ומידע סינתטי במערכת פורטיפיי, לאימון מערכת נהיגה אוטונומית

האינטגרציה של פלטפורמת Foretify עם טכנולוגיית סימולציית החיישנים של אנבידיה זכתה בפרס "חדשנות השנה בתחום הסימולציה" בתחרות Automotive Testing Technology International Awards לשנת 2025. מנכ"ל יצרנית המשאיות Torc מקבוצת דיימלר, פיטר ווגן שמידט, אמר שהמערכת תסייע לחברה לפתח משאית אוטונומית עד שנת 2027. גם טילו שוורץ, סמנכ"ל הנדסה בחברת הרכב האוטונומי האמריקאית Nuro, אמר שהחברה החלה להשתמש בה.

מייסד משותף ומנהל נושאי הרגולציה בפורטליקס, גיל אמיד, הסביר בראיון ל-Techtime, שהיכולות החדשות של פלטפורמת Foretify נועדו לספק פתרון לשינוי הדרמטי שהתחולל בשנים האחרונות בעולם הנהיגה האוטונומית, בעקבות המעבר של היצרניות משימוש בתוכנות מבוססות חוקים (Rule based) קלאסיות, לתוכנות בינה מלאכותית המבוססות על רשתות נוירוניות. אמיד: "המעבר התחיל ברמת החיישנים לצורך עיבוד תמונה וזיהוי אובייקטים, ולאחר מכן התפתח לכיוון של מודלי בינה מלאכותית המבצעים עיבוד מצבים וקבלת החלטות.

"היום כבר לא מתחילים את פיתוח תוכנת הנהיגה מתוכנה קלאסית, אלא בונים מודל AI ומתחילים לאמן אותו באמצעות נתונים מוקלטים קיימים. לאחר הגעה לרמה של אימון סביר, אפשר לבצע נהיגות מבוקרות ותרגולים במערכת סימולציה. בשלב הזה המפתחים זקוקים ליכולת להשתמש בהקלטות כדי לייצר סיטואציות נוספות לצורך שיפור האימון, אפילו להוסיף למאמן סיטואציות חסרות. התהליך הזה חוזר על עצמו ומתרחב בהתמדה".

היכן אתם ממוקמים בשרשרת הפיתוח הזו?

"זה המקום שבו השפה שלנו, שבמקור שלא תוכננה לעולם ה-AI, יכולה גם לענות לצורכי ה-AI, מכיוון שהיא מסוגלת לייצר אינסוף וריאציות של תרחישים שזוהו, ובכך לסייע באימון ותרגול המערכת. עולם האימון ועולם הבדיקה נמצאים בחפיפה. הדבר השני שהמערכת שלנו עושה, היא טיפול בעולם שאנחנו קוראים לו כיסוי (Coverage): מה נבדק ומה לא נבדק. אנחנו יכולים לבדוק לא רק את המצבים שעשינו בסימולציה, אלא גם את הלוגים וההקלטות של נהיגות הניסוי. המערכת בודקת איזה מצבים חסרים כדי להשלים את האימון הדרושה, ליצור וריאציות שלהם לצורך אימון, ועל-ידי כך להגיע לרמת הכיסוי המבוקשת.

מהו שיתוף הפעולה עם אנבידיה?

"אנחנו לא עוסקים בתחום של סימולציה ויצירת המאפיינים הפיסיקליים, אלא מתחברים לכל מיני סימולטורים בעולם. כאן ממוקד שיתוף הפעולה עם אנבידיה: יש להם יכולת לייצר ריאליזם בסימולטורים שלהם באמצעות פלטפורמות אומניוורס, וקוסמוס. הוספנו ל-Foretify את היכולת לתמוך ב-Physical AI שאותו אנחנו מקבלים באמצעות אינטגרציה עם אנבידיה. הפתרון המשווק ללקוחות מורכב ממוצר של פורטליקס וממוצר של אנבידיה במסגרת NVIDIA Cosmos המצוי בענן אומניוורס".

חברת פורטליקס הוקמה בשנת 2018 על-ידי יוצאי תעשיית השבבים יואב הולנדר, זיו בנימיני וגיל אמיד. עד היום החברה גייסה כ-135 מיליון דולר. בין המשקיעים בחברה גם יצרניות גדולות המשמשות כלקוחות של החברה, דוגמת וולוו, טויוטה ואפילו אנבידיה. כיום החברה מעסיקה כ-200 עובדים בעולם, בהם 90 בישראל והשאר במשרדיה בארה"ב, אירופה, יפן, סין וברזיל.

סעודיה ו-AMD מקימות חוות AI בהשקעה של 10 מיליארד דולר

בתמונה למעלה: מנכ"לית AMD ליסה סו, ונסיך הכתר הסעודי מוחמד בין סלמן

קרן ההשקעות הלאומית של סעודיה, Public Investment Fund – PIF, הכריזה על הקמתה של חברת שירותי הבינה המלאכותית החדשה, HUMAIN, אשר תספק תשתיות חומרה ותוכנה במזרח התיכון ובכל העולם. החברה תקים מרכזי עיבוד ליישומי AI במספר אתרים בעולם, שבהם ירוץ המודל הלשוני ALLAM, שהוא מודל ה-LLM הראשון בעולם המותאם במיוחד לשפה הערבית ולתרבות הערבית. בין השאר, הוא מתוכנן להבנת דיאלקטים ערביים שונים, להתייחס לערכים תרבותיים מקומיים ולהכיר את הייחוד של קהילות ערביות שונות.

הקרן הוקמה על-ידי ממשלת בסעודיה כבר בשנת 1971 במטרה לבצע השקעות בסעודיה ובעולם. בשנת 2015 הוגדרו מטרותיה מחדש והיא קיבלה תפקיד מרכזי בקידום אסטרטגיית Vision 2030, שנועדה לבנות תשתיות שיבטיחו את כלכלת סעודיה ללא תלות בנפט. מדובר בפרוייקט מדינתי המנוהל על-ידי בית המלוכה. כיום יו"ר הקרן הוא יורש העצר וראש הממשלה, הנסיך מוחמד בין סלמן בין עבדול-עזיז אל סעוד. מיד לאחר ההכרזה על השקת החברה, הודיעה AMD על חתימת הסכם עם HUMAIN להקמת חוות שרתים ליישומי בינה מלאכותית בהשקעה כוללת של כ-10 מיליארד דולר.

מדובר בחוות שרתים אשר מחשבי ה-AI שבתוכה יגיעו להספק כולל של 500 מגה-ואט בתוך 5 שנים. היא מתוכננת לספק שירותים כבר ב-2026, ותסתמך על אנרגיה שתספק מדינת סעודיה. תשתית המחשבים של החווה תתבסס כולה על מעבדי ותוכנות AMD, בהם מעבדי ה-GPU ממשפחות AMD Instinct ו-AMD EPYC, מאיצי התקשורת AMD Pensando, מעבדי AMD Ryzen וסביבת התוכנה AMD ROCm. במקביל, החברה מתכננת להקים חוות נוספות בעולם, כולל בארה"ב.

גם אנבידיה מצטרפת לפרוייקט

לא נמסרו פרטים על המבנה העסקי של חברת HUMAIN, אולם מנכ"לית AMD, ד"ר ליסה סו, אמרה שהשותפות כוללת השקעה של AMD במיזם הזה: "ההשקעה שלנו ב-HUMAIN היא אבן-דרך בקידום תשתיות AI גלובליות". במקביל להכרזה הזו, הודיעה חברת אנבידיה (NVIDIA) שהתקיימה פגישה בין הנסיך מוחמד בין סלמן ובין מנכ"ל אנבידיה ג'נסן הואנג, אשר התלווה לנשיא טראמפ בביקורו בסעודיה. השניים סיכמו על השתתפותה של אנבידיה בפרוייקט ה-AI של HUMAIN.

בשלב הראשון, החברה תרכוש 18,000 מחשבי-על מסוג GB300 Grace Blackwell אשר יקושרו ביניהם ברשת InfiniBand מהירה. חברת HUMAIN גם תתקין את ענן NVIDIA Omniverse הראשון בסעודיה, כדי לספק יכולות תאומים דיגיטליים (digital twins) של אובייקטים פיסיים. אנבידיה גם חתמה על הסכם עם רשות המידע והבינה מלאכותית הסעודית (SDAIA) לפריסה של 5,000 מעבדי GPU ממשפחת Blackwell, לשימוש על-ידי רשויות מקומיות ומשרדים ממשלתיים.

אנבידיה ישראל פיתחה טכנולוגיית אבטחה ל"מפעלי AI"

חברת אנבידיה תכריז מחר על מערכת אבטחה אשר פותחה במרכז הפיתוח של החברה בישראל, המיועדת לספק הגנה על תשתיות בינה מלאכותית מאסיביות, שקיבלו את הכינוי AI Factories. הכוונה למרכזי נתונים במימדים עצומים, המנתחים כמויות גדולות של מידע במטרה להפיק ממנו תובנות בעלות ערך. מערכת האבטחה החדשה, NVIDIA DOCA Argus, רצה על-גבי מעבד הסטת העומסים הישראלי NVIDIA BlueField וסביבת התוכנה DOCA, ומזהה איומים בזמן אמת, במהירות גבוהה פי 1,000 מהמקובל כיום בשוק.

מעבדי ההאצה האלה הם מרכיב מרכזי בתשתיות AI Factories ומסייעים לספק להם יכולות תקשורת מהירות. מכיוון שמערכת ההגנה רצה על מעבדי ההסטה, פעילותה אינה תלויה בסוג השרת, במשאבי השרת או בכים המותקנים בשרת המארח. כלומר, היא מערכת אבטחה שיכולה לפעול בכל סביבה של מחשוב בינה מלאכותית. חברת אנבידיה מסרה שהיא מקימה בימים אלה מפעל AI עבור חברת סיסקו, אשר יתבסס על הארכיטקטורה שלה ועל מערכת האבטחה החדשה.