חברת קיידנס (Cadence) הכריזה על פתרון צד הלקוח ChipStack AI Super Agent, לתכנון ואימות תכנוני שבבים. המערכת נחשבת ל"סוכן מתקדם" (Agentic AI) שנועד לפשט ולהאיץ את תהליך תכנון השבבים, במיוחד בשלבים המורכבים של תכנון, כתיבת קוד, בדיקות ואימות התכנון (Verification). בהכרזה, החברה תיארה את המוצר כ"צעד מהפכני המגדיר מחדש את האופן שבו מתבצע תכנון השבבים". המערכת בנויה במתכונת של Agentic Workflow. זהו מודל עבודה שבו מערכת ה-AI לא רק עונה על שאלות – אלא פועלת באופן עצמאי להשגת המטרה הסופית.
הדבר מתבצע באמצעות “סוכנים” (Agents) המקבלים החלטות, מבצעים משימות, ובודקים את עצמם. כלומר, כאשר מדובר בתכנון שבב, תהליך Agentic Workflow יבצע קריאת מפרט טכני, כתיבת קוד RTL, ייצור Testbench והרצת סימולציות. כאשר הוא מזהה כשל, הוא מתקן את קוד ה-RTL ומבצע בדיקות נוספות. החברה מסרה שהמערכת החדשה יודעת לבצע שילוב בין כלי EDA שונים של החברה, ולבצע בדיקות ואימות התכנון, הנחשבות למרכיב הארוך והיקר ביותר בתכנון השבב.
הלקוחות הראשונים: RISC-V, קואלקום, אנבידיה ואלטרה
הפתרון החדש נבדק וכבר החל להיכנס לשימוש ראשוני בחברות RISC-V, קואלקום, אנבידיה ואלטרה. מערכת ChipStack AI Super Agent תומכת במודלים מתקדמים בענן או ב-On-Prem, כולל מודלים של NVIDIA Nemotron הפתוחים להתאמה באמצעות NVIDIA NeMo, ומודלים מבוססי ענן כמו OpenAI GPT שנועדו לשפר את תפוקת המהנדסים. “לקוחותינו מתמודדים עם מחסור ניכר במהנדסים בכירים, המקשה עליהם לעמוד ביעדי הפיתוח שהוגדרו להם”, אמר מנהל חטיבת המחקר והפיתוח בקיידנס, פול קנינגהאם. "לכן הפתרון הזה מהווה פריצת דרך משמעותית מבחינת התפוקה בהליכי תכנון ואימות”.
"ChipStack מייצגת קפיצת מדרגה משמעותית באסטרטגיות ה-Design-for-AI וה-AI-for-Design שלנו", אמר נשיא ומנכ״ל קיידנס, אנירוד דבגאן. “סוכנים אינטליגנטיים המפעילים את התשתיות שלנו באופן עצמאי, מאפשרים ללקוחותינו להשיג רמות תפוקה חסרות תקדים, ובמקביל גם לשחרר את הכשרונות ההנדסיים יקרי הערך כדי שאלה יתמקדו בחדשנות”.
בתמונה למעלה: הרכבת מערכות מחשב ברצפת הייצור של הייפר גלובל בראש העין. צילום: HIPER Global
מאמר אורח מאת: יואל יעקבסן, ה-CTO של חברת הייפר גלובל
השיח סביב בינה מלאכותית יוצרת (GenAI) נשלט עד 2025 על-ידי מודלי שפה גדולים (LLMs) מונוליטיים ומבוססי ענן, אשר דורשים משאבי מחשוב עצומים. שנת 2025 סימנה נקודת מפנה משמעותית, עם העלייה הדרמטית באיכות וביכולות של מודלים קטנים עד בינוניים, הניתנים להטמעה מקומית. ההתקדמות הזו מאיצה במהירות את המעבר למודל מבוזר ומקומי יותר של GenAI, המספק יתרונות משמעותיים ביעילות, בפרטיות ובעלויות.
הסדק הראשון במבצר "הענן–בלבד" הודגם באופן בולט על-ידי המודלים של DeepSeek. החברה הסינית הציגה בתחילת 2025 מודל בגודל בינוני, אך בעל איכות מפתיעה, שהדגימה את הערך של מתודולוגיות אימון המאפשרות לחרוג מן הצורך במודלים גדולים מאוד. באמצעות למידה מבוססת חיזוקים וזיקוק מודלים, הוכיחה DeepSeek שביצועים מעולים אינם תלויים אך ורק בגודל המודל. בתהליך ה"זיקוק" מעבירים ידע ממודל "מורה" גדול ועתיר משאבים, למודל "תלמיד" קטן ויעיל. הטכניקה הזו מאפשרת לארגונים לשמור על דיוק גבוה תוך קיצוץ דרסטי בעלויות ושיפור משמעותי בביצועי ה-AI, בהם זמני תגובה מהירים וקצב הפקת טקסט גבוה. האיכות שהציגה DeepSeek הדהימה את העולם, והייתה זרז לשיפור המודלים הקטנים והבינוניים בהמשך השנה.
הופעת ה"מודל-מומחה"
התקדמות משמעותית נוספת הייתה התפשטות המודלים הקטנים יותר מסוג "תערובת מומחים" (MoE). מודלי שפה גדולים מסורתיים מפעילים את כל מערך הפרמטרים שלהם עבור כל שאילתה, ולכן התקורה החישובית שלהם גבוהה. לעומתם, ארכיטקטורת MoE מחלקת את המודל לרשתות "מומחים" קטנות וממוקדות. עבור כל קלט נתון, מופעלת רק תת–קבוצה רלוונטית של מומחים אלה. בשנת 2025 עברו כל המודלים הגדולים להתבסס על MoE, ולצדם שוחררו מודלים בינוניים וקטנים איכותיים מאוד, בארכיטקטורה זו. בהטמעה מקומית, השינוי הזה הופך GenAI מתוחכם לנגיש גם ליישומים בעלי משאבים מוגבלים. התוצאה: חיסכון משמעותי בתשתית המחשוב הנדרשת לקבלת תוצאות איכותיות.
במהלך 2025 נרשמה פריצת דרך בגזרת המודלים הקטנים וכיום קיימים מודלים זעירים בגודל של 600 מיליוןפרמטרים בלבד, המציגים יכולות חשיבה מרשימות ומספקים ביצועים מעולים בשימוש חכם. גודל כזה מאפשר שימוש מקומי יעיל במחשבים אישיים רגילים, בטלפונים חכמים ועוד. מגמה חשובה נוספתשניצניה נראו כבר בסוף 2024 עם השקת מודל o1 של OpenAI, היא המעבר למודלי חשיבה (Reasoning models). מודלים אלו מבצעים תהליך היסק הכולל בקרה עצמית, המאפשרים לספק תוצאות איכותיות ומדויקות יותר.
עוצמתם המפתיעה של מודלים רב–אמצעיים (Multi-Modal)
במקביל, בשנה האחרונה חלה התפתחות גדולה מאוד בנושא המודלים הרב–אמצעיים (Multi-Modal). הם מטפלים בו–זמנית בטקסט, תמונות, וידאו, קול ודיבור. מודלים כאלו משנים מהיסוד את עולם התוכן ותחומים תעשייתיים ומסחריים רבים, כגון בקרת וידאו בזמן-אמת, ניתוח מציאות על-ידי רובוטים ומוצרים בתחום הרפואי. כולם מתאפשרים הודות להתקדמות זו. ההתקדמות המהפכנית במודלים רב אמצעיים היא מדידה. לאורך שנת 2025, הראו מבחני ביצועים כגון MMMU (מבחן ההבנה הרב–משימתי והרב–אמצעי) שנועד להעריך הבנה עמוקה של מודלים על פני מדיות שונות, שיפורים מדהימים. מודלים אלה הפגינו השנה יכולת להסיק ולייצר מידע בתחומים שונים ברמת דיוק שהייתה בעבר בלתי אפשרית.
הם הוכיחו שמודלים בינוניים וקטנים שהופיעו בסוף השנה, מספקים תוצאות טובות יותר ממודלי הענק שיצאו בתחילתה. היכולת לשלב בצורה חלקה נתונים טקסטואליים, חזותיים ושמיעתיים באופן מקומי, מבלי לשלוח מידע רגיש לספק ענן חיצוני, פותחת אפיקים מסחריים חדשים בסביבות מאובטחות כגון מכשור רפואי, רצפת ייצור ומוצרי אבטחת מידע. סקירת השינוי לאורך השנה מציגה התקדמות נוספת: מבחן MMMU משווה את המודלים גם לביצועי מומחים אנושיים. בעוד שבתחילת השנה לא היו מודלים רב–אמצעיים ברמת מומחה אנושי, הרי שבסוף 2025 דורגו שבעה מודלים ברמה שבין מומחים אנושיים בינוניים לגבוהים. התקדמות מהירה זו מרחיבה משמעותית את ההזדמנויות העסקיות.
המודלים החדשים מייצרים תפנית עסקית
להשלכות המסחריות של מעבר זה ל-GenAI מקומי יש משמעות מהפכנית. ראשית, מודל העלות משתנה באופן מהותי: הפעלת מודלים קטנים ואיכותיים בתשתית מקומית או פרטית מפחיתה משמעותית את התלות בשירותי ענן יקרים. שנית, השמירה על הפרטיות והיכולת לציית לרגולציה ולתקנים ארגוניים משתפרות באופן דרסטי. הדבר מאפשר למידע ארגוני או אישי רגישלהישאר במכשיר או בתוך רשת הארגון. יתרון זה חשוב במיוחד לתעשיות מפוקחות, ועשוי לסייע לארגונים להתמודד עם הרגולציה הגוברת, דוגמת חוק ה-AI החדש של האיחוד האירופי.
למגמה הזו של מודלים קטנים וחזקים יש השפעה עמוקה גם על התחום המתפתח במהירות של בינה מלאכותית סוכנית (Agentic AI), שהפכה לטכנולוגיה מכוננת ב-2025. מוצרי Agentic AI מנהלים משימות מורכבות בפיתוח תוכנה, תפעול, אבטחה ורובוטיקה. הםמסתמכים על יכולת המודל להסיק, לתכנן צעדים ולפעול בדיוק גבוה. נקודת ציון חשובה הייתה הפיכת טכנולוגיית MCP לסטנדרט דה–פקטו. הטכנולוגיה הזו הוכרזה על-ידי חברת Anthropic בנובמבר 2024 במטרה להקל על בניית והפעלת סוכנים, ואומצה במוצרים ארגוניים רבים במהלך השנה.
הגיע עידן המודל הקטן והחכם
הודות ליכולות הסקה מתקדמות של צריכת משאבים נמוכה, GenAI מקומי מאיץ פריסת מערכות סוכנים אמינות ועתירות ביצועים, המציגות עלות הפעלה צפויה ואבטחת מידע גבוהה. שינוי זה קריטי במיוחד לתחום פיתוח התוכנה, שהופך יותר ויותר מבוסס Agentic AI כברירת מחדל. העתיד של GenAI טמון ביכולת לספק אינטליגנציה נגישה ויעילה. ההתקדמות ב-2025 ממודלים חסכוניים ועד ליכולות הרב אמצעיות של ארכיטקטורות MoE מוקטנות,מסמנת עתיד שבו בינה מלאכותית איכותית אינה בהכרח שירות מרוחק, אלא כלי רב עוצמה ופרטי, הפועל בדיוק היכן שהמשתמש זקוק לו. עידן המודל הקטן והחכם הגיע, והוא מבטיח יישום עמוק ומשולב יותר של AI בחיינו המסחריים והטכנולוגיים.
יואל יעקבסן, ה-CTO של חברת הייפר גלובל
אודות חברה:
הייפר גלובל עוסקת במתן פתרונות מחשוב לחברות טכנולוגיות המפתחות מוצרים. החברה מלווה ומיישמת את תהליך הפיכת הרעיון של הלקוח למוצר מוחשי משלב התכנון ועד להגעה לשוק בזמן. החברה פועלת בישראל ובעולם (באמצעות חברות בנות באנגליה ובארה"ב) ומספקת ללקוחותיה פתרונות גלובליים. הפעילות בתחום זה כוללת עבודה משותפת עם גופי הפיתוח של הלקוחות והתאמת פתרונות טכנולוגים מורכבים בהתאם לצרכיהם. בשלבים שלאחר מכן החברה מייצרת ומספקת את המערכות שתכננה לכל רחבי הגלובוס בהתאם לצרכים העסקיים של לקוחותיה.
בתמונה למעלה: שבב Maia 200 של מיקרוסופט. קרדיט: מיקרוסופט
חברת מיקרוסופוט (Microsoft) הכריזה על שבב ההאצה Maia 200 עבור תשתיות בינה מלאכותית, אשר תוכנן ייעודית לשמש כמאיץ הסקות(inference) עבור מודלי AI הפועלים בזמן אמת. השבב כולל יותר מ-100 מיליארד טרנזיסטורים ומיוצר בתהליך 3 ננומטר של חברת TSMC. הוא כולל ליבות Tensorייעודיות לפורמטים המספריים FP8ו–FP4 המשמשים ברשתות עומר נוירוניות. הוא כולל זכרון פנימי מסוג HBM3e בנפח של216GB המעביר מידע בקצב של 7Tbps, וזכרון SRAM בנפח של 272MB.
מיקרוסופט ביצעה את ההכרזה לאחר שהיא כבר החלה לפרוס אותו בשרתי Azure בארצות הברית, ובהמשך הוא יגיע לאתרי הענן של Azure באזורים נוספים בעולם. להערכת החברה, המאיץ החדש מספק ביצועי FP4גבוהים פי שלושה מאלה Amazon Trainium דור שלישי, וביצועי FP8 טובים יותר בהשוואה למאיץ TPUמהדור ה-7 של גוגל. הוא מספק עוצמת עיבוד של כ-10petaFLOPS ברמת דיוק של 4 ביט (FP4), ויותר מ-5petaFLOPS ברמת דיוק של 8 ביט (FP8), במעטפת הספק של 750W.
פתיחת צווארי בקבוק
במסגרת הפיתוח, שיפרה מיקרוסופט את תהליך הזנת הנתונים, המהווה גם הוא צוואר בקבוק בהפעלת מודלים גדולים. לצורך זה תוכננו מחדש מנוע העברת נתונים בין הזכרון למעבד (Direct Memory Access) ורשת תקשורת פנימית בתוך השבב (NoC), ושולב זכרון ה-SRAM כחלק בלתי נפרד מאריח הסיליקון. פירוש הדבר שהמאיץ יכול לשמור חלק גדול ממשקלי המודל והנתונים קרוב לחישוב עצמו, ובכך להפחית את הצורך להעבירם בין ההתקנים השונים.
במקביל להכרזה, מיקרוסופט השיקה גירסה ראשונה של ערכת הפיתוח Maia SDK, שנועדה לסייע למפתחים לבצע אופטימיזציה של הקוד הקיים והתאמתו ל–Maia 200. הערכה כוללת תוכנה אינטגרטיבית ומודל תכנות מרחבי, המעניקים למשתמשים יכולת שליטה מדויקת ברמה החומרה של המאיץ.
בתמונה: Maia 200 server blade של מיקרוסופט
פיתוח בגישה מערכתית
חברת מיקרוסופט דיווחה שהיא ביצעה את הפרוייקט במסגרת תהליך שכלל פיתוח פתרון מלא, שמאיץ הסיליקון הוא רק מרכיב אחד ממנו. היא החלה בפיתוח מערכת שלמה וביצעה אימות של האופן שבו החומרה, התוכנה והרשת יעבדו ביחד. החל משלבי הפיתוח הראשונים של Maia 200, נעשה שימוש מאסיבי בסימולציות המדמות את דפוסי החישוב והתקשורת של מודלי שפה גדולים. הדבר סייע לייעל במקביל גם את תכנון השבב וגם את מערך התקשורת ותוכנת המערכת, עוד לפני שהשבב יוצר בפועל.
במקביל, מיקרוסופט פיתחה סביבת אמולציה רחבת היקף המאפשרת להריץ מודליAI אמיתיים, לכייל ביצועים ולבדוק עומסיםעל תשתית המדמה באופן נאמן את החומרה העתידית. מאיץ Maia 200תוכנן מראש למרכזי הנתונים של Azure, וכולל תאימות מלאה למערכות הניהול של Azure המבצעות ניטור, אבטחה וניהול רציףברמת השבב וברמת התשתית כולה.
קודם צוותי מיקרוסופט, אחר-כך הלקוחות
המשתמשים הראשונים בשבב החדש יהיו צוותי Microsoft Intelligence, שיפעילו את המאיץ לצורך יצירת נתונים סינתטיים ולמידה, במסגרת פיתוח הדור הבא של מודלי AI הפנימיים של מיקרוסופט. בהמשך, ישולב Maia 200ישולב גם בהפעלת עומסי AIשל Microsoft Foundryושל Microsoft 365 Copilot, כחלק מתשתית ה–AIשל מיקרוסופט בענן הגלובלי. מיקרוסופט הודיעה שלאחר מכן צפויה פתיחה הדרגתית של היכולת הזו גם ללקוחות.
הבינה המלאכותית הפכה לעובדה קיימת במחלקות הפיתוח של מוצרים אלקטרוניים, אולם מהנדסים רבים עדיין מתלבטים בשאלה כיצד להשתמש בטכנולוגיה החדשה, הן במסגרת תהליך הפיתוח והן כחלק מהמוצר הסופי. סקר של חברת אבנט (Avnet) העולמית, שהיא אחת ממפיצות הרכיבים והפתרונות הגדולות בעולם, מגלה שהבינה המלאכותית הפכה לחלק בלתי נפרד משרשרת האספקה של תעשיית האלקטרוניקה.
הסקר התקיים בחודשים אוקטובר-נובמבר 2025 בקרב 1,200 מהנדסי ומנהלי פיתוח באמריקה, אסיה, אזור EMEA ויפן. הממצא המרכזי הוא שכבר היום כמעט מחצית מהמהנדסים (42% מהמשיבים) שילבו בינה מלאכותית במוצרים היוצאים כיום לשוק. מדובר בעלייה של 33% בהשוואה לסקר הקודם שנערך אשתקד. במקביל, כ-40% נוספים משלבים כעת AI במוצרים הנמצאים בפיתוח ושעדיין לא הגיעו לשוק. המהנדסים מאמינים ששלוש יכולות מרכזיות יובילו את שילוב ה-AI בתהליך הפיתוח: אוטומציה של התהליך (42% מהמשיבים), תחזוקה מבוססת גילוי מוקדם (28%) וגילוי אנומליות או תקלות בתיפקוד המוצר (27%).
התחומים הנפוצים ביותר הם שימוש במודלי Edge AI ולימוד מכונה (ML). רוב המנדסים, 57% מהמשיבים, מעניקים עדיפות שווה לשניהם. הדבר מלמד שהמגמה השלטת היא פיתוח מוצרים חדשים הכוללים את שתי היכולות האלו. אלא שיש אתגרים שעדיין לא נפתרו באימוץ הבינה המלאכותית: 46% אמרו שבעיות איכות מקשות על שילוב בינה מלאכותית במוצרים או פתרונות חדשים.
המהנדסים למדו להשתמש בצ'אטבוטים הפופולריים הגדולים כדי לקבל מענה לשאלות טכניות. הצ'אט המוביל הוא ChatGPT עם 64% מהמשיבים, אחריו Google Gemini עם 52% מהמשיבים ובמקום השלישי (47%) מדורג Microsoft Copilot. אולם מאפייני השימוש מלמדים שקיים בשוק פער מקצועי שעדיין אין לו מענה: המהנדסים דיווחו שהאתרים האלה לא מתאימים להם והם פונים אליהם רק בלית ברירה. אומנם כ-16% מביניהם מעדיפים להשתמש במנועי ה-LLM הציבוריים, ואילו 46% מהנשאלים דיווחו שהם היו מעדיפים מנוע בינה מלאכותי ייעודי, אשר אומן על-ידי מהנדסים מחוץ לארגון שלהם.
בתמונה למעלה: כונן ASUS UGen300 המבוסס על מעבד היילו
חברת Hailo התל אביבית ויצרנית המחשבים ASUS חשפו מאיץ בינה מלאכותית המתחבר אל המחשב האישי באמצעות USB ומיועד לסייע בהרצת יישומי AI קלאסיים והן ליישומי בינה מלאכותית יוצרת (Generative AI) בקצה הרשת (Edge). זהו מאיץ הבינה המלאכותית הראשון בעולם המופיע בתצורת USB בדומה לאופן שבו מחברים אל המחשב כונן זיכרון חיצוני סטנדרטי. מאיץ הבינה המלאכותית ASUS UGen300 מספק יכולות AI בקצה הרשת (Edge). למעשה, באמצעותו ניתן להשתמש בכל התקן ממחושב כעמדת עבודה מוכנה לבינה מלאכותית.
המאיץ מבוסס על המעבד Hailo-10H, המספק עוצמת עיבוד של 40TOPS בהאצת רשתות נוירוניות. הוא כולל 8GB זיכרון LPDDR4 המאפשר ספק ביצועי Gen AI (בינה מלאכותית יוצרת) בקצה, תוך שימוש בזיכרון הייעודי שבכונן, ועל-ידי כך הוא אינו מעמיס את המחשב המארח. ההתחברות מסוג Plug-and-Play באמצעות כונן USB-C כוללת תמיכה במערכות ההפעלה Windows, Linux ו-Android. אסוס מסרה שהכונן תומך במגוון רחב של מודלים, בהם: LLM, VLM, Whisper ועוד, ומספק גישה ליותר מ-100 מודלים מאומנים מראש, בהם מודלי שפה גדולים (LLM), מודלים חזותיים-לשוניים (VLM), רשתות ראייה ממוחשבת ועוד באמצעות מאגר מודלים מקוון (Model Zoo).
צריכת ההספק של כונן ה-AI החדש מסתכמת בכ-2.5 ואט בממוצע. הוא תומך בארכיטקטורות המארח x86 ו-ARM ומתאים גם להאצת יישומי מחשוב קלאסיים (לא רק בינה מלאכותית). היילו הכריזה על המעבד החדש לפני כחצי שנה, בחודש יולי 2025. זהו הדור השני של מאיצי ה-AI של החברה למכשירי קצה (Edge AI). החברה העריכה שזהו המאיץ הראשון מסוגו בעולם המאפשר הרצת מודלי Gen AI באופן מקומי על-גבי המכשיר, בלא צורך בחיבור לענן. השבב החדש כולל את יכולות ה-Vision AI של שבב הדור הראשון, Hailo-8. מעבד Hailo-10H משתלב באופן מלא בסביבת הפיתוח הקיימת של היילו, אשר כוללת גם קהילת מפתחים פעילההמונה כ-10,000 משתמשים חודשיים.
חברת אנבידיה (NVIDIA) חשפה בתערוכת CES 2026 בלאס וגאס את פלטפורמת Rubin, שאותה היא מגדירה "הדור הבא של תשתיות בינה מלאכותית". עצם קיומה של Rubin והעובדה שתגיע לשוק במחצית השנייה של 2026 כבר היו ידועות. אלא שבהכרזה הנוכחית נחשף לראשונה הרעיון העומד מאחוריה: לא עוד דור של מעבדים גרפיים, אלא שינוי תפיסתי עמוק באופן שבו נבנות ומופעלות מערכות AI בקנה מידה גדול. במקום רכיב GPU גדול העומד במרכז ומקבל תמיכה ממערכות אחרות – אנבידיה הציגה ארכיטקטורה שלמה הפועלת כיחידה אחת באמצעות שילוב של חישוב, זיכרון, רשת ואבטחה.
המסר החוזר הוא שרובין איננה שבב אלא מערכת מחשוב שלמה בקנה מידה של ארון שרתים. היא מיועדת לסביבה שבה הבינה מלאכותית אינה צ’אטבוט בודד או משימה חד־פעמי, אלא סביבה מרובת-סוכנים הפועלים לאורך זמן, שומרים הקשר, משתפים זיכרון ומסיקים מסקנות בסביבה משתנה. במובן הזה, Rubin מסמנת מעבר של אנבידיה משיווק של עוצמת חישוב לשיווק של תשתית קוגניטיבית.
Extreme Codesign כעיקרון
אנבידיה משתמשת כבר שנים במונח full stack, אך ברוב המקרים המשמעות הייתה ערימה של רכיבים שנבנו סביב ה־GPU. בהקשר של Rubin היא הגדירה מחדש המונח Codesign. מסורתית, המונח הזה מתייחס לחתימה דיגיטלית על קוד תוכנה. אנבידיה מתארת את הגישה שלה כ-Extreme Codesign ומתכוונת לדבר שונה לחלוטין: תכנון משותף מראש של כל חלקי המערכת במטרה להביא אותם לפעול כיחידה אחת המותאמת לעומסי עבודה גדולים מאוד.
אחת המשמעויות של Extreme Codesign היא שה־GPU הפסיק להיות נקודת המוצא של הארכיטקטורה. אומנם הוא רכיב מרכזי חשוב, אולם איבד את מעמדו כלב המערכת. התכנון של Rubin מבוסס על ההנחה שצוואר הבקבוק (bottleneck) של מערכות ה-AI אינו בכוח החישוב הגולמי, אלא ביעילות המערכתית הכוללת: ניהול הקשר, זיכרון מתמשך ותזמון בין תהליכים וסוכנים. בעיות כאלה אינן ניתנות לפתרון באמצעות מעבד GPU חזק יותר, אלא באמצעות חלוקה מחדש של תפקידים בין רכיבי המערכת. מדובר בנקודת מפנה עבור אנבידיה. היא נוטשת את תפיסת GPU-first שאפיינה אותה מאז ימי CUDA, ומאמצת תפיסה מערכתית שבה החישוב הוא רק מרכיב אחד של המערכת.
תפקידו החדש של ה־CPU
מערכת Rubin כוללת את המעבד Vera CPU של אנבידיה. בניגוד ל-CPU מסורתי במרכזי AI שתפקידו בעיקר לארח ולתזמן את עבודת ה-GPU, כאן מדובר במעבד שתוכנן מראש כחלק אינטגרלי של מערך ההסקה והחשיבה אשר תפקידו המרכזי הוא לתאם בין סוכנים, לנהל זרימות עבודה מרובות שלבים ולהפעיל לוגיקה שאינה מתאימה לביצוע ב-GPU. ייתכן שמדובר שינוי עמוק בתפקידי ה־CPU בעידן ה-AI. הוא חוזר להיות רכיב חישובי משמעותי הפועל בסימביוזה עם המאיץ הגרפי ולא מעליו או מתחתיו. הדבר מלמד שאנבידיה שואפת לשלוט גם בשכבת התזמור והשליטה, ולא רק בחישוב עצמו.
הבחירה בארכיטקטורת Arm עבור המעבד Vera משקפת את הצורך של אנבידיה לשלוט במבנה ה־CPU עצמו. בניגוד למעבדים כלליים שמיועדים להריץ מגוון רחב של עומסי עבודה, Arm מאפשרת לאנבידיה לעצב מעבד המותאם בדיוק למשימה, תוך ויתור על שכבות לוגיקה שאינן רלוונטיות להסקה ולתזמור סוכנים. כלומר מודל מרכזי הנתונים הקלאסי, המבוסס על CPU בארכיטקטורת x86 כנקודת מוצא, אינו עוד הבחירה המובנת מאליה במערכות שנבנות מראש כ־AI-first.
זיכרון, אחסון והולדת שכבת ההקשר
ככל הנראההחידוש הארכיטקטוני המשמעותי ביותר בהכרזה הנוכחית נוגע לאופן שבו מנוהל הזיכרון של תהליכי inference. אנבידיה מציגה גישה חדשה לניהול זיכרון ההקשר של מודלים גדולים, ובפרט של KV Cache הנוצר במהלך הסקה מרובת שלבים. בארכיטקטורה הקלאסית, שתוכננה סביב עומסי עבודה קצרים ומבודדים, זיכרון כזה נדרש להישאר ב-HBM של ה־GPU כדי לשמור על ביצועים, מה שהפך אותו למשאב יקר ומוגבל והקשה על עבודה מתמשכת ורב־סוכנית.
ב־Rubin הועבר חלק ניכר מזיכרון ההקשר אל מחוץ ל-GPU, לשכבה ייעודית המתנהגת כמו זיכרון ולא כמו אחסון מסורתי. כאן משתנה גם תפקידו של BlueField-4, שהוא מעבד DPU שמקורו בטכנולוגיית הרשת של מלאנוקס. הוא כרכיב להסטת עומסים (offload) והופך לחלק פעיל בניהול זיכרון ההקשר ובתיאום הגישה אליו. השינוי הזה נובע מהפער בין ארכיטקטורות שנבנו עבור אימון או inference חד-פעמי, לבין הצרכים של מערכות סוכנים שפועלות לאורך זמן, שומרות מצב ומשתפות הקשר בין רכיבים. ניהול הזיכרון הפך לחלק מנתיב הביצועים של inference, ולא לשכבת I/O חיצונית.
קישוריות כרכיב חישובי ומעבר לעולם הסוכנים
גם תחום הקישוריות משנה את ייעודו ב-Rubin. ה-NVLink ממשיך לשמש כחיבור פנימי מהיר בין GPUs, אך שכבת ה־Ethernet, בדמות Spectrum-6 ו-Spectrum-X, מקבלת תפקיד שונה מזה שהייתה לה במרכזי נתונים מסורתיים. במקום לשמש רק להעברת נתונים בין שרתים, הרשת הופכת לחלק מהאופן שבו המערכת כולה מנהלת חישוב וזיכרון. הקישוריות מאפשרת לרכיבים השונים (GPUs, מעבדים ויחידות DPU) לגשת לזיכרון משותף, לשתף מצב בין תהליכים, ולפעול כאילו היו חלק ממערכת אחת רציפה, גם כשהם מותקנים בשרתים או מסדים נפרדים. טכנולוגיות כמו RDMA (גישה ישירה לזיכרון דרך הרשת) מאפשרות גישה ישירה לזיכרון דרך הרשת, ללא מעורבות ה־CPU. כלומר הרשת אינה רק מעבירה נתונים אלא משתתפת בפועל בזרימת ההסקה.
למעשה המערכת מעבירה את הדגש מאימון כמרכז הכובד, להסקה מתמשכת ומרובת סוכנים. Rubin מיועדת לעולם שבו רוב עלות ה־AI והערך העסקי שלו נמצאים בשלב ההפעלה ולא בשלב האימון. בעולם כזה, מה שקובע הוא לא רק כמה מהר ניתן לחשב, אלא כמה טוב ניתן לזכור, לשתף ולהגיב. זהו ניסיון מעניין של אנבידיה להגדיר מחדש את מבנה תשתיות ה-AI. לא עוד מרוץ אחר TFLOPS, אלא תחרות על מי שולט בארכיטקטורה כולה. אם המהלך יצליח, אנבידיה לא תהיה רק ספקית של מאיצים, אלא ספקית של תשתית מחשבתית מלאה.
שנת 2025 הייתה שנת תפנית בעולם הסייבר: התוקפים הצליחו לנצל חולשות אבטחה מוכרות, לעיתים בתוך שעות מרגע פרסומן, וליזום תקיפות מיידיות. נתונים שנאספו לאורך השנה מראים שפרק הזמן שבין פרסום חולשת One Day לבין הופעת פעילות תקיפה ממשית, התקצר מ-30 יום ב-2022 לכ-5 ימים בלבד ב־2025. בכשליש מהמקרים הניצול התרחש בתוך פחות מ-24 שעות. התופעה הזו אינה מקרית, וקשורה ישירות לשימוש בכלי בינה מלאכותית (AI) בתוך שרשרת התקיפה.
שני מושגי המפתח בתחום הזה הם "חולשות One Day" ו"חולשות Zero Day". חולשת One Day היא חולשה שפורסמה באופן רשמי על-ידי יצרנית התוכנה, ברוב המקרים ביחד עם שחרור תיקון אבטחה (Patch) עבורה. הכינוי נולד מכך שהניצול שלה מגיע "יום אחרי" חשיפתה. מרגע שהיצרנית מדווחת עליה, ההאקרים מתחילים לנתח את העדכון כדי להבין כיצד החולשה עבדה. חולשת Zero Day מפחידה בהרבה: היא לא הייתה ידועה קודם לכן ליצרנית התוכנה או לציבור. היו להם "אפס ימים" להתכונן אליה או לתקן אותה מרגע שהתגלתה. עדיין אין עדכון אבטחה, המשתמשים חשופים לחלוטין ואין דרך סטנדרטית להתגונן מפניה.
למרות זאת, רוב התוקפים מתמקדים כיום בניצול חולשות One Day ולא בחולשות Zero Day. ה-CTO של חברת קלארוטי (Claroty) המתמחה בהגנה על רשתות תפעוליות ותעשייתיות, אמיר פרמינגר, הסביר ל-Techtime: "בעוד שחולשות Zero Day יקרות וקשות לפיתוח, רוב התוקפים היום מכוונים לחולשות One Day כי זה פשוט משתלם יותר. כלי הבינה המלאכותית (AI) האיצו גם את פיתוח הקוד וגם את חקירת החולשות עצמן. התוקפים מבינים שזה הגביע הקדוש – מרגע שהחולשה מתגלה – כולם מנסים להיות הראשונים למצוא את הדרך פנימה. זהו משחק חתול ועכבר שבו אין לתוקפים שום סיבה לשנות אסטרטגיה".
ה-AI מקצר את הזמן שבין פרסום לפריצה
מדובר בשינוי מבני עמוק. מחקרים אקדמיים שפורסמו בשנים 2023-2025 הראו כי מודלי שפה מתקדמים (LLM) מסוגלים לייצר בתוך מספר דקות קוד המנצל חולשות אבטחה, על-פי התיאור שלהן שהיצרן מספק. המחקר הבולט ביותר בתחום, שפורסם ב-2024 ובחן את ביצועי GPT-4, הראה שהמודל הצליח לייצר Exploit פונקציונלי ביותר מ-80% מהמקרים שנבדקו, כולל עבור חולשות One Day לא טריוויאליות, ובזמני פיתוח קצרים מאוד בהשוואה לעבר. מדוע פרק הזמן הזה כל-כך חשוב? מכיוון שהמידע שבידי חברות האבטחה מראה שיותר מ-55% מהחולשות ב-2025, נוצלו בפועל לפני שהארגון הספיק להטמיע את התיקון הזמין.
פרמינגר: "אנחנו רואים האצה ברורה בזמן שבין פרסום החולשה לבין ניצולה בפועל. מהרגע שחולשה מתפרסמת מתחיל שעון חול, ובפועל היום הרבה יותר פשוט גם להשמיש את החולשה וגם לזהות מי פגיע. הזמן שלוקח לספקים לפתח ולהפיץ עדכונים לא התקצר באותו קצב, והפער הזה הוא בדיוק המקום שבו מתרחשות התקיפות”.
מדוע האקרים מעדיפים One Day?
חולשות One Day הן חולשות שכבר פורסמו לציבור, בדרך כלל לאחר שהתגלו על ידי חוקרי אבטחה, ספקי תוכנה, צוותי Bug Bounty או גופי מחקר עצמאיים. עם גילויין מוקצה להן מזהה CVE, שהוא מספר תקני המאפשר לעקוב אחר החולשה ולתאם את הטיפול בין ספקים, ארגונים וחברות אבטחה. עצם פרסום ה-CVE אינו אומר שהמערכת מתוקנת, אלא רק שהמידע זמין ושקיים בסיס לפעולה. בניגוד ל-Zero Day, החולשות הללו אינן סודיות והמידע עליהן נגיש לכל. אלא שחלון הזמן שבין פרסום החולשה לבין תיקונה בפועל במערכות ארגוניות הפך לנקודת התורפה המרכזית. חציון חלון החשיפה לחולשות קריטיות עומד כיום על כ-70 יום (כמעט כמו ב-2022), אך בתוך החלון הזה מתרחשת היום הרבה יותר פעילות זדונית, והרבה יותר מוקדם.
ההבדל המהותי בין העבר להווה אינו בקצב התגובה של הארגונים, אלא בקצב הפעולה של התוקפים. תוקפים משתמשים במודלי שפה וכלי AI כדי לנתח פרסומי חולשות, להבין במהירות את מנגנון הפגיעה ולהמיר תיאורים טכניים לקוד ניצול פעיל. תהליך שבעבר דרש מומחיות גבוהה וזמן עבודה ממושך הפך לתהליך חצי־אוטומטי, שבו אדם מנחה את המערכת והמערכת מבצעת את עיקר העבודה. מרגע שחולשת One Day מתפרסמת, מתחיל המירוץ: ספקים מפרסמים עדכונים וצוותי אבטחה מנסים להעריך סיכון ולתכנן הטמעה, במקביל התוקפים מריצים סריקות רחבות היקף, מאתרים מערכות שלא עודכנו ומזהים גרסאות פגיעות.
נתיב התקיפה של העשור
הבינה המלאכותית מאפשרת להם לעשות זאת במהירות ובקנה מידה גדול מאוד, ולכן חולשות One Day הפכו לווקטור תקיפה מרכזי. היא מספקת שילוב של אמינות והיקף, במיוחד במוצרי קצה כמו VPN Gateways, שרתי Web, מערכות ניהול ופלטפורמות ענן, שעדיין קיימות בהיקף נרחב בסביבות לא מעודכנות. בתעשייה מעריכים שב-2025 רק 30% מהארגונים התקינו תיקון קריטי בתוך 30 יום (בהשוואה ל־45% ב־2022), וכ-50% מהחולשות שנכנסו ב־2025 לרשימות ניצול מאומת היו חולשות One Day, כאשר הזמן החציוני בין פרסום CVE לזיהוי ניצול ירד לפחות מ־20 יום.
מדובר בצורך לבצע שינוי תפיסתי עמוק. One Day כבר אינה מעניקה מרווח נשימה. הימים הראשונים שלאחר פרסום החולשה הם המסוכנים ביותר, ובשלב הזה נדרשת תגובה מהירה ואמצעי מיגון זמניים, גם אם הטמעה מלאה של ה-Patch תתבצע מאוחר יותר. בעידן שבו התוקפים פועלים במהירות ה-AI, ההגנה אינה יכולה להישען על תהליכים ידניים ולוחות זמנים נוחים. חולשות One Day הפכו לאחד מנתיבי התקיפה המרכזיים של העשור, לא משום שהן חדשות, אלא משום שהאופן שבו מנצלים אותן השתנה. הבינה המלאכותית לא יצרה את הפרצות, אך היא קיצרה את הזמן עד שהן הופכות למסוכנות באמת, ובמרוץ הזה מי שמאחר בימים הראשונים עלול לגלות שההתקפה כבר החלה – ובמקרה הגרוע יותר – כבר הסתיימה.
מניית רייזור לאבס (Razor Labs) זינקה היום (ד') בכ-48% במסחר בבורסה בתל אביב (נכון לשעה 14:30) לאחר שהחברה דיווחה על קבלת הזמנת מסגרת בהיקף של עד כ-78 מיליון דולר לרכישת רישיונות לתוכנת DataMind AI לתחזוקה חזויה של צי משאיות כבדות וכלי צמ"ה של לקוח רב־לאומי. אף שהחברה לא ציינה את זהות הלקוח בדיווח, מהנתונים ומההיסטוריה העסקית ניתן להעריך שמדובר בענקית הכרייה השוויצרית-בריטית גלנקור (Glencore), שאיתה חתמה על הסכם מסגרת בשנת 2023.
על-פי הדיווח, ההזמנה מיועדת לפריסת מערכת DataMind בעד 1,418 משאיות כבדות וכלי ציוד מכני הנדסי לתקופה של עד 8 שנים. עיקר התמורה, בהיקף של כ-74 מיליון דולר, מיוחס לרישוי התוכנה במודל מנוי שנתי קבוע, עם הכנסה שנתית חוזרת של כ-9.3 מיליון דולר, לצד רכיבי חומרה נלווים ושירותי הטמעה. ההתקשרות כוללת מנגנוני גמישות המאפשרים ללקוח לצמצם את היקף הפריסה או את משך ההסכם, אך בהיקפה המלא מדובר באחת מהעסקאות הגדולות שהחברה דיווחה עליהן מאז הקמתה.
כריית נתונים בתעשיית המכרות
ההזמנה הגדולה נתפסת בשוק כהמשך ישיר לשיתוף הפעולה האסטרטגי בין רייזור לאבס לגלנקור, שהחל לפני מספר שנים בפריסה ראשונית של פתרונות בינה מלאכותית לאחזקה חזויה של ציוד תעשייתי באתרי כרייה. בהמשך הורחב השימוש במערכת גם לציי משאיות כבדות, שהן מהנכסים היקרים והקריטיים ביותר בתפעול מכרות, הן מבחינת עלויות אחזקה והן מבחינת זמינות תפעולית. המעבר מהטמעה מדורגת להזמנת מסגרת רחבת היקף משקף שביעות רצון של הלקוח מתוצאות הפיילוטים ומהערך הכלכלי שהמערכת מייצרת בפועל.
DataMind היא פלטפורמת בינה מלאכותית לניתוח רציף של נתונים תפעוליים המוזרמים מכלי הרכב בזמן אמת, בהם נתוני מנוע, דלק, טמפרטורה, לחצים ורעידות. באמצעות מודלים של למידת מכונה, המערכת מזהה דפוסי שחיקה וחריגות המעידים על התפתחות תקלות זמן רב לפני הופעת כשל מלא. זהו מעבר מתחזוקה תגובתית לתחזוקה חזויה. הדיווח על העסקה מגיע כ-10 ימים בלבד לאחר שרייזור לאבס הודיעה על חתימה על הסכמי פיילוט נוספים בתחום המשאיות הכבדות עם חברות כרייה באוסטרליה ובספרד. בחברה רואים בתחום זה מנוע צמיחה מרכזי, הנשען על ניסיון מצטבר מהשטח, ועל מעבר של לקוחות משלב ניסוי לפריסות מסחריות רחבות היקף.
באתר החברה פורסם מקרה מבחן המדגים את יכולות הפתרון בפועל, שבו מערכת DataMind AI זיהתה הידרדרות מוקדמת במזרקי דלק של משאית כרייה כבדה מדגם CAT 793D (בתמונה למעלה). לפי התיאור, המערכת הצליחה לאתר שינוי עדין בדפוסי הפעולה של המנוע ולהתריע על כשל מתפתח זמן רב לפני שמערכות היצרן או הבקרה הסטנדרטיות הצביעו על תקלה. הזיהוי המוקדם איפשר לצוותי התחזוקה לבצע טיפול יזום, למנוע השבתה יקרה של המשאית ולהפחית נזק מצטבר למערכות נוספות. החברה הסבירה שהמקרה זה מוכיח את יכולתה להתמודד עם המורכבות התפעולית של משאיות כבדות.
דו"ח חדש של רשות החדשנות ומכון ברוקדייל מציג תמונה מורכבת של שוק העבודה הטכנולוגי: מצד אחד אימוץ מסיבי של כלי בינה מלאכותית – 95% מהעובדים משתמשים בהם בעבודתם ו-78% עושים זאת מדי יום. מצד שני, דווקא על רקע החדירה המואצת, גובר החשש התעסוקתי, בעיקר בקרב עובדים מנוסים, עובדים בפריפריה ובעלי השכלה שאינה אקדמית. התוצאה היא דיסוננס מובהק: טכנולוגיה שמגבירה פריון ומעצימה עובדים צעירים, אך במקביל מערערת את תחושת הביטחון של חלקים מהענף.
הנתונים מראים כי העובדים משלבים את הבינה המלאכותית במגוון רחב של משימות. מפתחים נעזרים בכלים לכתיבת קוד, ניתוח לוגים ואיתור תקלות, בעוד אנשי שיווק, מוצר ומשאבי אנוש משתמשים בהם לכתיבת תוכן מקצועי, חיפוש מידע ולמידה עצמית. שמונים ושתיים אחוז מהמשתמשים היומיומיים משלבים את הכלים בשלושה סוגי משימות או יותר, ורבע מהם ביותר משישה סוגי משימות – עדות להתפשטות אורגנית של ה-AI בכל שכבות הארגון.
התרומה לפריון משמעותית: שבעים אחוז מהעובדים מדווחים על שיפור ניכר באיכות התוצרים וחמישים אחוז על קיצור זמן העבודה בעשרות אחוזים. ארבעים אחוז מציינים קיצור של יותר ממחצית מזמן הביצוע. מדד הפרודוקטיביות שפיתחו החוקרים מצביע על כך שכשלושה רבעים מהעובדים חווים עלייה ממשית בפריון, ללא הבדל בין סוגי תפקידים או חברות.
לצד זאת, הפערים בתפיסות בולטים. עובדים מנוסים מדווחים על רמות החשש הגבוהות ביותר – שלושים ושבעה אחוז מסניורים חשים איום ממשי. בקרב עובדים ללא השכלה אקדמית שיעור החשש מגיע לשלושים ותשעה אחוז, לעומת עשרים ושישה וחצי בלבד בקרב בעלי תואר. גם הפער הגיאוגרפי חד: ארבעים אחוז מתושבי הפריפריה חוששים מהשפעת ה-AI על עבודתם, לעומת עשרים וארבעה אחוז בלבד מאלה המתגוררים במרכז.
פערים ניכרים נרשמו גם בדפוסי השימוש: צעירים וג’וניורים מובילים באימוץ הכלים ובשילובם במשימות פיתוח, בעוד עובדים ותיקים משתמשים בהם פחות. ממצא מפתיע נוסף הוא שחברות סטארט-אפ משתמשות בכלי קוד ייעודיים בשיעור נמוך יותר מאשר מרכזי פיתוח בינלאומיים ובתי תוכנה.
למרות החששות, התמונה הרחבה אופטימית: שישים ושמונה אחוז מהעובדים רואים ב-AI הזדמנות להתפתחות תעסוקתית, ורק עשרים ושבעה אחוז רואים בה איום. הדור הצעיר, שמוביל את האימוץ ומפתח שילוב טבעי בין מיומנויות אנושיות לטכנולוגיות, מבטא היטב את רוח התקופה – שילוב של פחד מהתמורות המואצות לצד תקווה אמיתית ליכולות חדשות ולמסלולי קריירה חדשים.
[בתמונה: מנכ"ל החברה, עופר שחם. קרדיט צילום: טל גבעוני]
חברת הסטארט־אפ Majestic Labs, שהוקם על־ידי בכירים לשעבר בגוגל ובמטא, יצא היום ממצב חשאי (stealth mode) עם גיוס של למעלה מ־100 מיליון דולר. החברה, הפועלת מתל אביב ומסן פרנסיסקו, מציגה ארכיטקטורת שרתים חדשה שמטרתה להחליף מערכות שלמות של ארונות שרתים בשרת יחיד – ולפתור את צוואר הבקבוק המרכזי של תחום הבינה המלאכותית: בעיית "קיר הזיכרון" (Memory Wall).
פי אלף יותר זיכרון
Majestic טוענת כי השרת שפיתחה מספק פי 1,000 יותר זיכרון משרת GPU מתקדם, ומשפר את הביצועים הכוללים פי 50. החברה מסבירה כי מטרתה היא לשנות את האיזון שבין עיבוד לזיכרון – ולהפוך את התשתית הפיזית של מערכות AI לפשוטה, חסכונית ויעילה יותר.
“הקפיצה הבאה של הבינה המלאכותית תגיע מתשתית חזקה יותר,” אומר המנכ"ל והמייסד עופר שחם. “תשתית חזקה יותר דורשת חשיבה מחדש על מערכת הזיכרון. השרתים שלנו משלבים את כוח העיבוד של מערכות GPU ו־TPU עם פי אלף יותר זיכרון, ומאפשרים ביצועים ויעילות חסרי תקדים תוך חיסכון משמעותי באנרגיה.”
לפי החברה, הפתרון שלה מחליף תצורה של עשרות ארונות שרתים במערכת אחת, ומפחית משמעותית את צריכת החשמל, את צרכי הקירור ואת עלויות התפעול הכוללות של מרכזי הנתונים.
Majestic מציינת כי המערכת החדשה תומכת בעומסי עבודה מתקדמים במיוחד – החל ממודלי שפה גדולים (LLM), דרך מערכות Mixture of Experts ו־Agentic AI, ועד לרשתות נוירונים גרפיות (GNN) בקנה מידה ענק.
שותף־המייסד והנשיא, שה ראבי, מסביר כי “Majestic מאפשרת גידול ויעילות תפעולית שלא היו קיימות בעבר. היא מקצרת את זמני האימון ומאפשרת להריץ על כל שרת עומסים שבעבר דרשו חוות מחשוב שלמות.”
צוות של יוצאי גוגל ומטא
מאחורי Majestic עומדים עופר שחם, מסומי ריינדרס ושה ראבי – שלושתם בעלי רקע עמוק בתכנון שבבים ובמערכות מחשוב ענן. הצוות הוביל את קבוצת הסיליקון של גוגל ובהמשך את קבוצת החומרה של מטא, ואחראי למאות פטנטים ופיתוחים – בהם המעבד הראשון לבינה מלאכותית במובייל ופלטפורמות מציאות רבודה מוקדמות.
לדברי ריינדרס, “Majestic מספקת מענה מיידי לעומסים של היום תוך שמירה על גמישות תכנותית והתאמה לעתיד שמעבר למודלים מבוססי טרנספורמרים.”
ההשקעה הובלה על־ידי Bow Wave Capital ו־Lux Capital, ובה השתתפו גם SBI, Upfront, Grove Ventures, Hetz Ventures, QP Ventures ו־TAL Ventures. דב מורן, ממציא הדיסק און קי ושותף מייסד ב־Grove Ventures, אמר: “הרבה זמן לא התרגשתי כל כך מפרויקט תשתיות AI. עם השינוי הדרמטי בשוק והטכנולוגיה של מג׳סטיק, יש כאן הזדמנות אמיתית לראות חברת מופת ישראלית שמשנה את העולם.”
עם ההשקעה החדשה, Majestic מתכננת להרחיב את צוותי הפיתוח בתחומי הבינה המלאכותית, הסיליקון והתוכנה, ולהפעיל פיילוטים עם לקוחות ראשונים לקראת השקה מסחרית.
אם תצליח לעמוד ביעדיה, החברה עשויה להשפיע על מבנה חוות השרתים של עידן ה־AI – להפחית עלויות אנרגיה ותפעול, ולספק דרך חדשה לבניית תשתיות חכמות ויעילות לעידן המודלים הענקיים.
בתמונה למעלה: שבב העיבוד הקולי הנוירומורפי שיוצג בתערוכת CES בינואר 2026
חברת פולין (POLYN Technology) הכריזה על הצלחת הייצור ובדיקות ההסמכה של שבב עיבוד הרשתות הנוירוניות האנלוגי הראשון בתעשייה, המבוסס על טכנולוגיית NASP (Neuromorphic Analog Signal Processing) שהיא פיתחה. הרכיב החדש (בתמונה למעלה) יוצג בביתן של החברה בתערוכת CES 2026 שתתקיים בלאס וגאס בינואר 2026. השבב הראשון ממוקד בזיהוי פעילות קולית (Voice Activity Detection – VAD), אולם החברה מפתחת יישומים נוספים.
הטכנולוגיה של החברה מבוססת על פתרון מתימטי לבעיית הרשתות הנוירוניות, אשר מאפשר לממש את רוב מרכיבי העיבוד באמצעות מגברי שרת (Op Amps). הדבר מאפשר לבצע הסקות של רשתות נוירוניות באמצעות מעגל אנלוגי שאינו זקוק לתשתיות תמיכה דיגיטליות, כמו שעונים וממירי ADC/DAC. הרכיב מיוצר בטכנולוגיית CMOS סטנדרטית 40-90 ננומטר, ומגיע ביחד עם ערכת פיתוח המאפשרת ללקוח לפתח יישום ספציפי. המעבד משלים כל הסקה בתוך כ-50 מיליוניות השנייה ומגיע לצריכת הספק זעומה של כ-34µW בלבד, במהלך פעילות רציפה.
נוירונים מבוססי מגברי-שרת
הוא מיועד בעיקר לאבזרים מבוססי סוללה הנדרשים להיות בפעולה תמידית (Always-on Edge Devices), אם כי החברה מכינה אותו גם לשוק הרכב. בראיון ל-Techtime הסביר מייסד ומנכ"ל POLYN Technology, אלכסנדר טימופייב, שההכרזה האחרונה היא אבן דרך משמעותית בפעילות החברה בהוקמה בשנת 20219. "סגרנו את המעגל המסחרי. אנחנו מכריזים על מוצר מסחרי מלא שיגיע לשוק בתחילת השנה הבאה. כעת אנחנו שולחים את ערכות ההערכה ל-35 לקוחות ומצפים לקבל את ההזמנות הראשונות במהלך הרבעון הראשון של 2026".
מייסד ומנכ"ל POLYN Technology, אלכסנדר טימופייב
המעבד הנוכחי מיוצר בחברת SkyWater האמריקאית בתהליך CMOS של 90 ננומטר, כאשר הייצור ההמוני מתוכנן להתבצע בחברת Globalfoundries בתהליך של 55 נומטר. טימופייב: "פיתחנו קומפיילר המאמן רשת דיגיטלית, ואז מחלק את האימון למרכיב קבוע המיושם באמצעות מעגל אנלוגי, ולמרכיב דיגיטלי קטן המיושם באמצעות מערך NPU סטנדרטי. המרכיב הדיגיטלי קטן מאוד. למשל, המרכיב האנלוגי מזהה קול, ואילו המעגל הדיגיטלי מוסיף מידע נוסף, דוגמת מהי מהירות הדיבור".
כיצד בנוי מערך העיבוד האנלוגי?
"אנחנו משתמשים במגברי שרת ונגדים המייצרים ייצוג אנלוגי של נוירונים, כאשר החישוב הוא במתחים ולא בזרמים, ולכן גם צריכת ההספק נמוכה מאוד. הרכיב הנוכחי כולל כ-500 נוירונים (כלומר 500 מגברי שרת) פיסיים המבצעים עיבוד של כמיליון פרמטרים. מבחינת החומרה, האתגר העיקרי היה בייצור מגברים בעלי אפס היסט של מתח ישר (Zero DC Offset). פתרנו את הבעיה הזאת באמצעות מגבר המבצע כיול אוטומטי. שאר הפרמטרים ניתנים לפיצוי באופן מתימטי".
לדבריו, ליבת החדשנות הטכנולוגית היא ביכולת לייצר באופן אוטומטי את המעגל הנדרש לכל יישום ספציפי. "ביחד עם חברת קיידנס פיתחנו תהליך המבצע את הקישורים הפנימיים באופן אוטומטי. התהליך הזה מאפשר לנו להמיר מודל דיגיטלי למודל אנלוגי, להשלים את תכנון השבב ולבדוק אותו – בתוך שבוע אחד בלבד".
היעד: הגעה לריווחיות ב-2028
חברת פולין רשומה כחברה בריטית אולם בפועל זוהי חברה ישראלית הפועלת מקיסריה שיש לה משרדים בבריסטול, בריטניה, והיא מעסיקה כ-45 עובדים. עד היום היא גייסה כ-25 מיליון דולר ממשקיעים פרטיים, בלא מעורבות קרנות הון סיכון (VC). כעת היא נמצאת בשלבי סגירה של גיוס הון נוסף בהיקף של כ-10 מיליון דולר. המטרה העסקית היא להתחיל במכירות מסחריות במהלך 2026, ולהגיע לריווחיות בשנת 2028".
מה הם שוקי היעד המרכזיים שלכם?
"אנחנו מתמקדים בכל מה שקשור ל-Physical AI. מוצרים שיש בהם מרכיב של עיבוד חכם, כמו למשל עיבוד קול, תעשיית הרכב, גלגלים חכמים ורובוטים, כולל רובוטים דמויי-אדם (Humanoids). אלה מוצרים שצריכים להתמודד עם בעיה של אלפי חיישנים הזקוקים לפעול במהירות ובהספק נמוך מאוד. השימוש המושלם של הטכנולוגיה הוא שילוב של המעבד הנוירומורפי שלנו בתוך החיישנים עצמם. לכן אנחנו עובדים כיום בשיתוף פעולה עם אינפיניאון על שילוב המעגל שלנו בתוך החיישנים שלהם".
בתמונה למעלה: מנכ"ל אנבידיה ג'נסן הואנג (מימין) ביחד עם מנכ"ל אינטל ליפ-בו טאן. צילום: אינטל
חברת אינטל וחברת אנבידיה הופכות לשותפות עסקיות וטכנולוגיות. ביום ה' בערב חשפו שתי החברות הסכם שיתוף פעולה מפתיע שלהערכת מייסד ומנכ"ל אנבידיה, ג'נסן הואנג, הוא בעל פוטנציאל למכירות של עד 50 מיליארד דולר בשנה עבור שתי החברות. הברית בין שתי החברות מבוססת על שני מהלכים מרכזיים: השקעה פיננסית של אנבידיה באינטל ושיתוף פעולה טכנולוגי. על-פי ההסכם, אנבידיה תשקיע 5 מיליארד דולר בחברת אינטל תמורת מניות לפי מחיר של 23.28 דולר למניה.
מניית אינטל בנסד"ק זינקה בכ-30% והתייצבה בהמשך יום המסחר על עלייה של כ-23% (30.5 דולר), אשר העניק לה שווי שוק של כ-143.5 מיליארד דולר. התגובה של משקיעי אנבידיה היתה מרוסנת יותר: מניית החברה עלתה בכ-3.5% בלבד, והעניקה לחברה שווי שוק של כ-4.3 טריליון דולר, שהוא יותר מפי 30 מהשווי של אינטל.
אינטל מכניסה את אנבידיה לשוק חדש
המרכיב הטכנולוגי של ההסכם ממוקד בפיתוח משותף של שבבי SoC המשלבים מעבדי CPU בארכיטקטורת x86 של אינטל, ביחד עם מעבדי GPU של אנבידיה המקושרים באמצעות ערוץ התקשורת המהיר NVIDIA NVLink. הערוץ הזה מאפשר לקיים תקשורת מהירה בין מעבדי GPU ו-CPU ולהגיע לקצב העברת נתונים של עד 900GB/s. הדבר יתבצע בשתי דרכים שונות עבור שתי קבוצות מוצר מרכזיות: בשוק השרתים ותשתיות ה-AI, אינטל תייצר מעבדי x86 CPU המותאמים ספציפית לצרכים של אנבידיה, שאותם היא תשלב בתוך רכיבי ה-SoC שהיא מייצרת בחברת TSMC.
מניית אינטל בנסד"ק מגיבה להסכם עם אנבידיה
בשוק מחשבי ה-PC הניידים, אינטל תייצר ותמכור רכיבי SoC המבוססים על ארכיטקטורת x86 אולם כוללים את המעבדים הגרפיים של אנבידיה ממשפחת RTX GPU. הרכיבים האלה, אשר יביאו את אנבידיה לראשונה בתולדותיה אל שוק מחשבים אישיים שהיקפו נאמד בכ-150 מיליון יחידות בשנה, יהיו מוכרים בכינוי x86 RTX SoC. שיתוף הפעולה הזה לא יבוא במקום השימוש של אנבידיה בארכיטקטורת ARM, אלא לצידו. בשיחה עם עיתונאים שקיימו מנכ"ל אנבידיה ג'נסן הואנג ומנכ"ל אינטל ליפ-בו טאן ביום ה' האחרון, הסביר הואנג שאנבידיה תמשיך לעבוד עם ARM ותמשיך לפתח מעבדי CPU מבוססי ARM.
פוטנציאל מכירות של 50 מיליארד דולר
הואנג: "אבל נהיה לקוח גדול של אינטל". "אנחנו מחוייבים למפת דרכים מבוססת ARM. יש לנו מעבדי ARM חדשים הנמצאים בתהליכי פיתוח. זה לא משפיע על העיסקה הזו. הארכיטקטורה שלנו מתאימה לכל ארכיטקטורות המיחשוב הקיימות". הוא גם הבהיר שהעיסקה לא תפגע ביחסי העבודה של אנבידיה עם TSMC, המייצרת כיום את כל השבבים של אנבידיה".
בתשובה לשאלה מדוע ההסכם כולל השקעה הונית באינטל, הוא אמר שהמהלך יאפשר לאנבידיה לשלב מעבדי CPU של אינטל עם שבבי ה־GPU שלה ולמכור אותם במודל passthrough, שירחיב את היקף השוק של שתי החברות. הוא העריך שהעיסקה מבטאת פוטנציאל מכירות של עד 50 מיליארד דולר בשנה לשתי החברות. "הדבר יתרום להצלחת אינטל, ולכן יש בהשקעה ההונית הזו גם הגיון עסקי".
מדובר היה בארוע מעניין מאוד מבחינת המסרים הסמויים שהיו בו: ג'נסן הואנג אשר רגיל להשתתף בארועים ציבוריים כשהוא לבוש במעיל עור שחור, היה הפעם לבוש בחליפה מחוייטת ומצוחצחת. ליפ-בו טאן, שהופעתו תמיד מדוקדקת ומחוייטת, היה לבוש וסט ספורטיבי, כאילו הוא כרגע ירד מהאופנוע שלו… בפרק השאלות והתשובות, גילה טאן שהשיחות שלו עם הואנג החלו מייד לאחר שנכנס לתפקיד מנכ"ל אינטל לפני כשישה חודשים, ושצוותי הארכיטקטורה של שתי החברות כבר החלו לעבוד על השילוב הטכנולוגי בין שתי הארכיטקטורות.
בתמונה למעלה: אתר בניית מרכז הנתונים של Stargate Project בטקסס
תחרות הענקים המתפתחת בין אורקל ומיקרוספוט על המשאבים של OpenAI, אינה מקרית ובמובנים רבים הייתה צפויה מראש. אולם ההיקף והתוצאות שיהיו לה, עשויים לעצב את כל עולם הבינה המלאכותית, ואת התשתית הטכנולוגית של חלקים עצומים מהכלכלה העולמית. בשבוע שעבר דיווח העיתון וול סטריט ג'ורנל שחברת OpenAI חתמה על הסכם הזמנת תשתיות ענן מחברת אורקל החל משנת 2027, בהיקף חסר תקדים של כ-300 מיליארד דולר. בעקבות הידיעה הזו זינקה מניית אורקל בבורסת NYSE בכ-40% בתוך יום אחד. בהמשך היא ירדה במקצת (ל-291 דולר), אולם החברה נסחרת בשווי שיא של כ-830 מיליארד דולר.
ההסכם הזה מגיע פחות מחודשיים לאחר חתימת הסכם שיתוף פעולה בבניית והפעלת מרכז נתונים חדש בטקסס. מדובר במרכז נתונים בהספק של 4.5 ג'יגה ואט אשר יכיל יותר מ-2 מיליון מעבדים ויתבסס על מסדי אורקל מבוססי Nvidia GB200. הפרוייקט יתבצע באמצעות החברה הבת החדשה Stargate Project, בהשקעה כוללת של כ-500 מיליארד דולר בארבע השנים הבאות. המשקיעות העיקריות בפרוייקט לצד OpenAI הן סופטבנק, אורקל וקרן ההשקעות האמירתית MGX.
אסור להרגיז את מיקרוסופט
"הפרוייקט יתבסס על השותפות הוותיקה עם אנבידיה, והשותפות החדשה עם אורקל", מסרה OpenAI. וכדי להרגיע את המשקיעה הגדולה ביותר שלה, היא הוסיפה להודעה פיסקת הבהרה: "חברת OpenAI תמשיך להגדיל את היקף השימוש בענן Azure של מיקרוסופט". מדוע ההערה הזו כל-כך חשובה? מכיוון שלמיקרוסופט ול-OpenAI יש מערכת יחסים מיוחדת: החל מיומה הראשון של החברה בשנת 2019, מיקרוסופט היא המשקיעה העיקרית ב-OpenAI, ועל-פי הערכות שונות המקובלות בתעשייה, היא השקיעה בה עד היום יותר מ-13 מיליארד דולר.
מיקרוסופט גם סיפקה משאבים טכנולוגיים רבים ל-OpenAI, כולל גישה למשאבי מחשוב גדולים בענן Azure לצורך אימון ואירוח המודלים של OpenAI דוגמת GPT-3.5 ו-GPT-4. בתמורה היא קיבלה יכולת לשלב את הטכנולוגיה של OpenAI במוצריה: שירות Azure OpenAI מאפשר להשתמש במודלים של OpenAI דרך הפלטפורמה של מיקרוסופט, ופלטפורמת Copilot של מיקרוסופט מבוססת על הטמעת טכנולוגיית OpenAI ביישומי אופיס, מנוע החיפוש בינג ומערכת ההפעלה חלונות.
עדיין לא ברור כיצד שתי השותפות יפתרו את הקונפליקט ביניהן שנוצר לאור הברית החדשה עם אורקל. אולי כדי להרגיע את המשקיעים ואת הלקוחות, הן פירסמו בסוף השבוע הודעה משותפת, קצרה וסתומה: "מיקרוסופט ו-OpenAI חתמו על מזכר הבנות (MOU) לא מחייב, עבור השלב הבא של השותפות בינינו. אנחנו עובדים ביחד על השלמת הסכם מחייב. ביחד, אנחנו ממוקדים במתן פתרונות ה-AI הטובים ביותר לכל". האם זה הסכם שלום או הכרזת מלחמה? לא ברור.
ענקיות התוכנה נפגשות בענן
מכל מקום, הדו"חות הכספיים של מיקרוסופט ושל אורקל מגלים שגם אם הדבר לא נאמר במפורש, שתי החברות כבר עלו מזמן על מסלול התנגשות: מהדו"ח הרבעוני האחרון של אורקל, מתברר שכמחצית מהכנסותיה מגיעות כיום משירותי הענן שלה. ברבעון הראשון של השנה הפיננסית 2026, שהסתיים באוגוסט 2025, הסתכמו המכירות של אורקל בכ-14.9 מיליארד דולר. המרכיב המרכזי (48% מהמכירות), היה של הכנסות מפתרונות ושירותי ענן, שצמחו בכ-28% בהשוואה לרבעון המקביל אשתקד, והסתכמו בכ-7.2 מיליארד דולר. מרכיב מכירות התוכנה ירד לכ-38% בלבד בהשוואה ל-44% אשתקד, והסתכם בכ-5.7 מיליארד דולר.
גם אצל מיקרוסופט הופך הענן למרכיב המרכזי בהכנסות: ברבעון הפיננסי הרביעי שהסתיים ביוני 2025, הסתכמו מכירותיה בכ-76.4 מיליארד דולר. המכירות של שירותי הענן צמחו בכ-26% בהשוואה לרבעון המקביל אשתקד, והסתכמו בכ-29.9 מיליארד דולר, שהם כמעט 40% מכלל המכירות. כלומר, שתי ענקיות התוכנה הופכות בהדרגה לחברות מבוססות ענן. ומכיוון שהבינה המלאכותית היא מנוע הצמיחה הגדול ביותר של שירותי הענן, שתיהן נתקלות אחת בשנייה ברגע ספציפי: כאשר החברה המובילה בתחום שירותי ה-AI מגבשת את התוכנית האסטרטגית שלה לשנים הבאות.
בינה מלאכותית לא מחסלת את ענף הייעוץ, היא מנערת אותו עד היסוד. מה שבעבר היה מקצוע עטוף הילה של בלעדיות ומצגות מרהיבות, הופך היום לתחום שבו רק מי שמביא ערך אנושי אמיתי שורד. אם בעבר יועצים התפרנסו מניתוחים כלליים והשוואות בינלאומיות, הרי שהיום אלגוריתמים עושים זאת בלחיצת כפתור, מהיר יותר, זול יותר, ולעיתים קרובות גם מדויק יותר.
הטלטלה: בין מקינזי ל-BCG
הדוגמה הבולטת ביותר היא מקינזי, חברת הייעוץ המזוהה יותר מכל עם יוקרה והשפעה. בשנת 2023 דיווח Financial Times כי החברה פיטרה יותר מ-5,000 עובדים- מעל 10% מכוח האדם והכניסה לשימוש כ-12 אלף "סוכני AI". קרוב ל-40% מהכנסותיה, שהסתכמו בכ-16 מיליארד דולר, מגיעות כיום מפרויקטים טכנולוגיים ולא מייעוץ מסורתי.
בצד השני, בוסטון קונסלטינג גרופ (BCG) בחרה דווקא להדגיש את יתרון ההון האנושי. בראיון ל-Wall Street Journal בינואר 2024, מנהליה הסבירו כי החברה ממשיכה לגייס אלפי יועצים חדשים דווקא בתקופה שבה מכונות מסוגלות לנתח נתונים בהיקפים עצומים. ההיגיון: כש-AI הופך לכלי נגיש לכל אחד, הקשר האישי, ההבנה התרבותית והרגישות הבין-אישית הם אלו שמייצרים בידול אמיתי.
ובתוך כך, ארבע הגדולות – Deloitte, EY, PwC ו-KPMG – בוחנות מהלכים מבניים מרחיקי לכת. על פי דיווח של Bloomberg (יולי 2024), נשקל אפילו פיצול זרועות ייעוץ מסוימות, כדי להתאים את המודל העסקי לעולם שבו לקוחות כבר לא מוכנים לשלם מאות דולרים לשעה על עבודות שהאלגוריתם מסוגל להפיק כמעט בחינם.
השינוי בתפקיד היועץ
כאן עולה השאלה הקריטית: אם מערכות כמו GPT מסוגלות להפיק ניתוחי שוק, לבנות מצגות ולהציע אסטרטגיות תוך דקות, איפה הערך של היועץ האנושי? בעבר, יועצים נדרשו בעיקר לספק ידע על מתחרים, על מגמות, על best practices. היום הידע זמין לכל מנכ"ל בלחיצת כפתור. המשמעות היא שהיועץ כבר לא "מביא מידע", אלא מסייע לארגון להחיל את המידע במציאות מורכבת. כאן טמון ההבדל הגדול: AI מסוגל לומר שמהלך מסוים יצליח "על הנייר", אבל הוא לא יכול להבין שהמחלקה שמובילה את המהלך מורכבת ממנהלים יריבים שלא סומכים זה על זה. הוא לא יכול לזהות שמחלקה מסוימת לא מתפקדת בגלל יחסי אמון שנשברו, ולא בגלל חוסר יעילות.
הלקוחות מחליפים דיסקט
גם מצד הלקוחות נרשמת מהפכה. אם פעם מנכ"לים התרשמו מערימות דוחות וסיכומים עבי כרס, הרי שכיום הם מחפשים משהו אחר לגמרי: מהירות – לפי Harvard Business Review (פברואר 2024), שימוש ב-AI מאפשר לבצע אבחון ראשוני של בעיות ארגוניות תוך ימים ספורים במקום שבועות. המשמעות: אף יועץ לא יכול להרשות לעצמו להגיע לפגישה הראשונה אחרי חודש של איסוף נתונים. תכל'ס – לקוחות רוצים לראות "איך זה קורה מחר בבוקר". לא עוד שקפים נוצצים, אלא צעדים פרקטיים שמותאמים לאילוצים הקיימים.
מדידה על בסיס תוצאות
נתונים שפרסמה McKinsey Quarterly (מרץ 2024) מראים כי יותר מרבע מהפרויקטים בחברה מתומחרים כיום לפי השגת יעדים מוגדרים ולא לפי שעות עבודה. זהו שינוי מהותי ביחידת המידה של הערך.
איפה המכונה נעצרת? מחקרים עדכניים מצביעים גם על מגבלות ברורות. לפי ניתוח שפורסם ב-Harvard Business Review (ספטמבר 2024), AI מעלה את התפוקה של יועצים בינוניים בעשרות אחוזים, אך במשימות מורכבות התוצאה הפוכה- ירידה בביצועים. מערכות יודעות לחקות ניתוח, אך מתקשות להתמודד עם בעיות שדורשות הבנה רגשית, ניהול קונפליקטים או התאמה לנסיבות פוליטיות.
אני יכולה לתת לכך דוגמה מפרויקט ארגון מחדש בחברת טכנולוגיה ש-Tefen עובדת איתה. ה-AI המליץ על קיצוץ שתי מחלקות כדי לחסוך בעלויות, אך היועצים האנושיים שלנו זיהו שהמהלך יוביל לאובדן ידע קריטי ולעזיבת עובדים מפתח. ההמלצה שונתה והחברה הצליחה לשמר את ההון האנושי תוך עמידה ביעדים הפיננסיים.
לא סוף המקצוע – סוף הבינוניות
ה–AI לא גונב את מקצוע הייעוץ, אלא חושף את מי שנשען על ניתוחים שטחיים. אם בעבר יועץ יכול היה "לשרוד" על בסיס מתודולוגיה גנרית ומצגות יפות, היום הלקוח רואה מיד אם יש ערך אמיתי או לא. במובן הזה, הבינה המלאכותית הופכת את השוק לפחות סלחני לבינוניות, ויותר מתגמל למי שמביא שילוב של שני עולמות: יכולת ניתוח נתונים מהירה מצד אחד, ושיקול דעת, אמפתיה ובניית אמון מצד שני.
העתיד של הייעוץ לא שייך למי שמפחד מהמכונה, אלא למי שמבין איך לעבוד איתה. יועצים שיידעו להטמיע AI כחלק אינטגרלי מהעבודה, להשתמש בו כמנוף ולתרגם את תובנותיו להחלטות פרקטיות בשטח, יהיו אלה שיישארו במשחק. המכונה יודעת להפיק נתונים קרים. היועץ האנושי יודע להפוך אותם להחלטות חמות. השילוב הזה ולא הבחירה בצד אחד בלבד, הוא שיקבע מי ישרוד את מהפכת ה-AI.
אינטל וסופטבנק (SoftBank) הודיעו על הסכם השקעה בהיקף של שני מיליארד דולר במניות אינטל, אשר ייעשה לפי מחיר מניה של 23 דולרים. סופטבנק תרכוש את המניות במחיר של 23 דולר למניה. השלמת העסקה כפופה לתנאים מקובלים. בעקבות ההודעה אתמול (ג') ירדו מניות סופטבנק בטוקיו בכ-2.2%, ומניות אינטל בנסד"ק ירדו בכ-3.7% ובלילה עלו בכ-5.2% למחיר של כ-24.9 דולר למניה, והעניקו לה שווי שוק של כ-103.5 מיליארד דולר.
יו”ר ומנכ”ל סופטבנק, מסיושי סון, אמר שההשקעה האסטרטגית הזו "משקפת את אמונתנו שיכולות הייצור והאספקה של שבבים מתקדמים בארה”ב ימשיכו להתרחב, ושלאינטל יהיה תפקיד מרכזי בכך". מנכ”ל אינטל, ליפ-בו טאן, אמר שסופטבנק "שותפה למחויבות שלנו לחיזוק ההובלה הטכנולוגית והייצורית של ארה”ב. מסא ואני עובדים בשיתוף פעולה הדוק כבר עשרות שנים, ואני מעריך את האמון שהוא מביע באינטל".
אסטרטגיית AI חדשה
סופטבנק הבהירה שההשקעה קשורה לאסטרטגיה רחבה של ביצוע השקעות משמעותיות בתחום הבינה המלאכותית (AI). פירוש הדבר שהיא רואה באינטל פלטפורמה קריטית לייצור שבבים עבור AI. ייתכן שהמהלך קשור לאסטרטגיית ה-AI החדשה שאותה הציג ליפ-בו לפני כחודשיים: "בעבר פעלנו בתחום הבינה המלאכותית מתוך גישה ממוקדת סיליקון, בלא לבנות מערך כולל ומשולב של חומרה ותוכנה. אנחנו צריכים למקד את האסטרטגיה שלנו סביב ארכיטקטורת x86 בתחום מעבדי ה-CPU וארכיטקטורת xe בתחום מעבדי ה-GPU, אבל לעלות ברמת ההפשטה ולספק מוצרים הכוללים גם חומרה וגם תוכנה.
"אנחנו צריכים להבין את המגמות החשובות ביותר בתחום המחשוב, ולהגיב אליהן באמצעות גישה מערכתית שיש בה גם פיתוח תוכנה וגם פיתוח סיליקון. בחודשים הקרובים נספק יותר מידע על המהלך שאנחנו מבצעים בפיתוח יכולות AI מאוחדות הכוללות חומרה ותוכנה. המהלך הזה אומנם דורש זמן, אולם הוא חיוני כדי שאינטל תהיה רלוונטית גם בגל המחשוב הבא".
חידת ARM
מעניין לראות האם הדבר יביא להגברת שיתוף הפעולה בין אינטל לבין חברת ARM, שעל-פי הערכות שונות נמצאות 90% ממניותיה בידי סופטבנק. השיעור המדוייק ברור, שכן לאחר שרכשה ARM ב-2016 תמורת 32 מיליארד דולר, היא הוציאה אותה מהנפקה, החזירה אותה למסחר בנסד"ק ב-2023 וביצעה מספר עסקעות נוספות של מכירת מניות לציבור. מעניין לציין ש-ARM נסחרת כיום לפי שווי גדול בהרבה מזה של חברת אינטל: 149.3 מיליארד דולר.
בתמונה למעלה: מנכ"ל סיוה, אמיר פנוש. צילום: נתי לוי
ברבעון השני של 2025 ירדו המכירות של חברת סיוה (CEVA) מהרצליה בכ-15% בהשוואה לרבעון המקביל אשתקד, והסתכמו בכ-24.2 מיליון דולר. מרכיב ההכנסות ההכנסות מהסכמי רישוי הסתכם ב-15 מיליון דולר (בהשוואה ל-17.3 מיליון דולר אשתקד, ומרכיב ההכנסות מתמלוגים הסתכם ב-10.7 מיליון דולר, בהשוואה ל-11.2 מיליון דולר ברבעון השני של 2024. מניית החברה בנסד"ק הגיבה לדו"ח בירידה של כ-1.8% וכיום החברה נסחרת לפי שווי שוק של כ-510 מיליון דולר.
חברת סיוה מספקת טכנולוגיות קישוריות, חישה ובינה מלאכותית במתכונת של קניין רוחני (IP) המשולב כמודולים בתוך השבבים של הלקוחות. נקודת האור החשובה ביותר של הרבעון הייתה החדירה של טכנולוגיית הבינה המלאכותית של החברה אל השוק, בזכות ארבע עסקאות רישוי שנחתמו עבור מעבדי NeuPro. מנכ"ל סיוה, אמיר פנוש, אמר שתוצאות הרבעון השני הושגו בין השאר על-ידי הרחבת עסקאות רישוי ה-AI. "עסקי ה-Edge AI שלנו ממשיכים לצמוח".
לדבריו, "ארבעה הסכמי NPU חדשים שנחתמו במהלך הרבעון מסמנים רגע מכונן באימוץ הטכנולוגיהשלנו. עסקי החברה ממוצבים היטב להשגת צמיחה במחצית השנייה של השנה, גם בהשוואה למחצית הראשונה וגם בהשוואה לתקופה המקבילה אשתקד". בחודש אפריל 2025 החברה דיווחה על הסכם עם Nextchip הקוריאנית, אשר בחברה במעבדי NeuPro-M המיועדים לעיבוד רשתות נוירוניות באבזרי קצה, ומופיעים במספר גרסאות בעוצמת עיבוד של 2TOPs-256TOPs. המעבדים ישולבו בשבבי עיבוד התמונה של Nextchip המיועדים למערכות עזר לנהג בטיחותיות (ADAS).
שני מעבדים במוצר אחד
ביוני 2025 הודיעו סיוה ואליפטיק לאבס (Elliptic Labs) הנורבגית, על שיתוף פעולה בהטמעת מעבד רשתות נוירונים (NeuPro-Nano) של סיוה בפלטפורמת החיישנים החכמים מבוססי AI של אלפטיק לאבס, המותקנת כבר ביותר מחצי מיליארד מכשירים. מעבד NeuPro-Nano הוא מעבד נוירוני (NPU) קומפקטי ועצמאי, המיועד להרצת מודלים של בינה מלאכותית במכשירי קצה קטנים כמו אוזניות חכמות, שעונים, חיישנים ומכשירי בית חכם. אליפטיק לאבס מספקת פתרון תוכנה מבוסס AI לעיבוד מידע מחיישנים. במסגרת שיתוף הפעולה, התוכנה הזו תוכל לרוץ ביעילות על גבי שבבים של לקוחות של סיוה ששילבו את ה-NPU.
בשבוע שעבר הודיעה ALi Corporation הטאיוואנית שהיא בחרה במעבדי ה-AI של סיוה לפלטפורמות הווידאו מהדור הבא שלה (Video Display Sub-System – VDSS). מבחינת סיוה זו עסקה מעניינת מאוד, מכיוון שמדובר בשני מעבדי AI שונים המשולבים במוצר אחד, במטרה להאיץ ביצועי AI חסכוניים באנרגיה במכשירי קצה חכמים מבוססי וידאו.
בתמונה למעלה: נדב תימור (מימין) ופרופ' דוד הראל. צילום: מכון ויצמן למדע
צוות משותף של חוקרים ממעבדות אינטל(Intel Labs) וממכון ויצמן למדע חשפו השבוע את התוצאות של מחקר פורץ דרך בתחום האצת מהירות העיבוד של יישומי בינה מלאכותית המבוססים על מודל שפה גדולים (LLM). המחקר הוצג בכנס למידת המכונה ICML 2025 שהתקיים השבוע בוונקובר קנדה, אשר נחשב לאחד מאירועי המחקר החשובים בעולם הבינה המלאכותית. העבודה הזאת נבחרה להצגה בעל פה בפני המשתתפים בכנס. מעמד המהווה אות הצטיינות מכובד מאוד, שכן רק 1% מתוך כ-15,000 עבודות שהוגשו לכנס מקבלות את המעמד הזה.
המחקר בוצע על-ידי פרופ' דוד הראל ונדב תימור ממכון וייצמן, ועל-ידי משה וסרבלט, אורן פרג, דניאל קורת ומשה ברצ'אנסקי מאינטל ובהשתתפות גאורב ג'יין מחברת d-Matrix. מודלי שפה גדולים כמו ChatGPT או Gemini הם כלי אדיר, אולם הם איטיים וזוללי משאבים. בשנת 2022 הבינו בתעשייה שניתן לייעל את העיבוד באמצעות חלוקת עבודה בין אלגוריתמים שונים. הדבר הביא לפיתוח גישה חדשה בשם "פיענוח ספקולטיבי" (Speculative Decoding). בשיטה הזו, מודל-עזרקטן וזריז מנחש את התשובה הנכונה, כאשר המודל הגדול והחזק צריך רק לאמת את הניחוש במקום לבצע חישוב מלא מאפס.
מודל-עזר קטן וזריז
כיצד הדבר עובד? במצב הקיים היום המודלים נדרשים לבצע סדרה גדולה של חישובים גדולים מאוד כדי להשלים כל מטלה. נניח שאנחנו מבקשים מהמודל להשלים את המשפט "בירתה של צרפת היא…". ללא פיענוח ספקולטיבי, המודל חושב, ומייצר את המילה "פריז". לאחר מכן הוא קורא את "בירתה של צרפת היא פריז", וחושב שוב כדי לייצר את המילה הבאה: "עיר". בשלב האחרון הוא קורא את כל המשפט החדש, וחושב שוב, כדי לייצר את המילה "האורות". כלומר כדי לייצר 3 מילים, המודל הגדול נדרש לבצע שלושה "סבבי חשיבה" נפרדים ויקרים.
הפיענוח הספקולטיבי מכניס לתמונה מודל-עזר זריז. בשלב הראשון מודל-העזר קורא את המשפט ומיד מנחש טיוטה של שלוש מילים: "פריז", "עיר", "האורות" (שלב הניחוש המהיר). לאחר מכן מתבצע שלב האימות: המודל הגדול והחזק מקבל את הטיוטה הזו, ובודק את כולה בבת אחת. הוא שואל את עצמו: "האם הניחוש הזה נכון?". במקרה הזה, התשובה היא "כן". כלומר המודל הגדול נדרש לבצע רק "סבב חשיבה" אחד כדי לאשר את הטיוטה כולה.
מימין לשמאל: משה וסרבלט, אורן פרג, דניאל קורת ומשה ברצ'אנסקי. צילום: אינטל
"הפקק" שבלם את התעשייה
למרות שהטכניקה הזו מוכרת לפחות 3 שנים, הטמעתה בתעשייה מלווה בקשיים רבים: מודליAI אינם באמת מבינים מילים. הם בונים מפה של קשרים סטטיסטיים בין מלים שונות, ו"התשובה" של המודל מבוססת על שכיחות הופעתן המשותפת. בפועל, כל מודל לומד ובונה לעצמו "שפה דיגיטלית" ייחודית, שהיא מילון של צורונים וסימנים(Tokens) שרק הוא מבין. המילה "תפוח" יכולה להיות מיוצגת במודל אחד על-ידי הסימן #123, ובמודל אחר על-ידי הסימן #987. עד היום עבדה שיטת ההאצה הספקולטיבית רק במידה ושני המודלים דיברו בדיוק באותה שפה דיגיטלית. כלומר, פותחו על-ידי אותה חברה והשתמשו באותו מילון. אי-אפשר היה לקחת מאיץ שנבנה למודל של גוגל, ולצרף אותו למודל מבוסס OpenAI.
הדבר יצר "נעילה" שהגבילה את התעשייה. המפתחים לא יכלו לבחור במודל הקטן והמהיר ביותר בשוק, אלא רק בזה שתאם לשפת מודל ה-LLM שבו השתמשו. הפיתוח הישראלי הצליח להתגבר על הבעיה הזו באמצעות פיתוח אלגוריתמים מסוג חדש המעניקים לכל מודל-עזר יכולת לעבוד מול כל ארכיטקטורות ה-LLM הקיימות. מעתה, מפתחים יכולים להתאיםכל מודל קטן לכל מודל גדול, גם אם הם פותחו בחברות שונות, מתבססים על ארכיטקטורות שונות ומשתמשים באוצר מילים שונה לחלוטין.
פתרון מפתיע לבעיית התאימות
כדי להתגבר על המחסום הזה פיתחו החוקרים שני פתרונות. הראשון הוא אלגוריתם המאפשר למודל שפה גדול שסיים תהליך "חשיבה", לתרגם את התוצאות שהגיע אליהן בשפתו הייחודית לשפה המובנת לכל שאר המודלים. השני, הוא אלגוריתם הגורם למודלים אלה (הקטן והגדול) להשתמש בעבודתם המשותפת בעיקר בסימנים (tokens) שהם cognates – סימנים שמשמעותם זהה בשפות שונות. "תחילה חששנו שיותר מדי מידע 'יאבד בתרגום' והמודלים השונים יתקשו לעבוד יחד", אמר נדב תימור, דוקטורנט בקבוצת המחקר של פרופ' דוד הראל במכון ויצמן למדע והמחבר הראשון של המאמר. "אך החששות התבדו".
תימור: "האלגוריתמים השיגו האצה מקסימלית של פי 2.8 בביצועים של מודלי שפה גדולים, המובילה לחיסכון אדיר בהוצאות על כוח עיבוד. הם מעניקים לכל המפתחים יכולת להשתמש בשיטות האצה שעד כה היו זמינות רק לארגונים שאימנו לעצמם את מודלי ה-AI הקטנים. חברת סטארט-אפ שרצתה ליהנות מהאצת הביצועים של פיענוח ספקולטיבי, היתה צריך לאמן בעצמה מודל קטן, וזו משימה מורכבת הדורשת התמחות והשקעה גדולים מאוד".
האלגוריתמים החדשים כבר שולבו בפלטפורמת הקוד הפתוח Hugging Face, שבאמצעותה הם זמינים למפתחים בכל העולם.
רשות החדשנות פירסמה קול קורא לקבלת הצעות לפיתוח והנגשת מאגרי מידע איכותיים שיועמדו לרשות חוקרים וחברות טכנולוגיה ותעשייה בישראל. הרשות תעניק לזוכים סכום כולל של עד 44 מיליון שקל. מדובר בפרוייקט משותף של משרד הכלכלה והתעשייה, משרד החקלאות וביטחון המזון ומנהלת תקומה. ממשרד הכלכלה נמסר שהיוזמה מתבצעת במסגרת הפעימה השנייה של התוכנית הלאומית לבינה מלאכותית. המטרה היא לספק נתונים איכותייים ונגישים לצורך פיתוח אלגוריתמים מתקדמים, חיזוי תהליכים תעשייתיים, האצת המחקר והפיתוח המדעי, וקידום פתרונות בתחומי האקלים, הרפואה והביטחון.
מאגרי המידע החדשים יתמקדו בשישיה תחומים מרכזיים:
מדעי החיים ובריאות – מידע רפואי, גנומי או קליני שיאפשר פיתוח תרופות, מכשור רפואי, טכנולוגיות דיאגנוסטיקה, וכלי בינה מלאכותית מותאמים למערכת הבריאות
ייצור מתקדם – תעשיות מתקדמות, קווי ייצור, שרשראות אספקה, מערכות חישה ואוטומציה, לרבות מוליכים למחצה ו-ICT
דזרטק ואקלים – מידע אקלימי, נתוני אנרגיה מתחדשת, ניטור מים, חיזוי מזג אוויר, חישה סביבתית, ויישומים לתחומי האקלים
אגרוטק – נתונים חקלאיים מבוססת חיישנים, לוויינים, מערכות GIS, חקלאות מים, בתי אריזה, ושרשרת אספקת המזון
פודטק – מאגרי מחקר וטכנולוגיות במזון חדשני, כולל חלבון אלטרנטיבי, תחליפי בשר מן החי, תהליכי ייצור חדשים ומעקב תזונתי
ביטחון והייטק – נתונים רלוונטיים לסייבר, טכנולוגיות ביטחוניות ודו-שימושיות, תעשיות החלל וה-AI הביטחוני, לצד בלוקצ׳יין, פינטק, תחבורה חכמה ותוכנה.
אחד מהתחומים המרכזיים הוא אגרוטק. מאגרי המידע בתחום הזה יתמקדו בנתוני קרקע, אקלים, סוגי גידולים, מזיקים, פרוטוקולי גידול, טכנולוגיות חקלאיות ונתוני שיווק והפצה, בדגש על איסוף נתונים בזמן אמת והתייחסות למשבר האקלים העולמי וההתחממות הגלובלית. כיום המידע הזה פזור בין גופים שונים, באופן שאינו נגיש תמיד לצורכי מחקר ופיתוח.
מנכ״ל רשות החדשנות, דרור בין, אמר שהקול קורא הזה נועד להפוך את מאגרי הנתונים של מדינת ישראל ממשאבים סגורים למנועים פתוחים של חדשנות. מנכ"ל משרד הכלכלה והתעשייה, מוטי גמיש, אמר שבעידן הבינה המלאכותית, "אנחנו חייבים להנגיש לחברות תשתית נתונים איכותית". ראש מנהלת תקומה, אביעד פרידמן, אמר שההשקעה בהקמת מאגרי נתונים מתקדמים תאפשר ליישובים ולחברות מהפריפריה להשתלב בגל הצמיחה הטכנולוגית. "זוהי הדרך להפוך את אזור העוטף ממוקד פגיעה למוקד מצוינות וחדשנות".
חברת קיידנס (Cadence) הכריזה על מעבד-העזר לרשתות נוירוניות, TensilicaNeuroEdge 130 AI Co-Processor (AICP), אשר מהווה קטגוריה חדשה בתחום מעבדי ההאצה של מטלות בינה מלאכותית (AI). המעבד מופיע במתכונת של קניין רוחני (IP) ומבוסס על משפחת מעבדי Vision DSP של טנסיליקה. האנליסט הראשי של חברת Cambrian AI Research, הסביר בהודעה של קיידנס, שהמעבדים הנוירוניים (NPU) מבצעים היום את רוב עבודות העיבוד במערכות AI/ML המשמשות ברובוטים, מכוניות אוטונומיות, רחפנים ומעארכות אוטומציה תעשייתיות.
"אולם פעולות העיבוד האלה דורשות הכנה של הקבצים לפני ואחרי העיבוד הנוירוני, ולכן כדאי להפנות את הפעולות האלה אל מאיצים חיצוניים שהם יעילים יותר ממעבדי GPU או CPU, ועל-ידי כך לשחרר את ה-NPU למשימות הליבה העיקריות". המעבד החדש עובד באופן חלק מול מעבד ה-NPU ממשפחת Cadence Neo ומול מעבדי NPU מתוצרת חברות אחרות.
החברה מסרה שהוא מספק שיפור של 30% בביצועים והפחתה של 20% בצריכת ההספק, בהשוואה למעבדי Tensilica Vision DSP סטנדרטיים. המעבד ניתמך על-ידי חבילת פיתוח התוכנה NeuroWeave, המאפשרת לבצע אופטימיזציה של היישום לתכונות החומרה. מנהל קבוצת Silicon Solutions בקיידנס, בויד פלפס, הסביר את הרעיון מאחורי ההכרזה: "ככל שעומסי העבודה בתחום הבינה המלאכותית הופכים פחות ייחודיים לתחום מסוים ויותר מגוונים, הלקוחות מחפשים מעבד–משנה קומפקטי, יעיל וממוקד–AIלשיפור יחס הספק–ביצועים–שטח (PPA) ולמוכנות עתידית".
בתמונה למעלה: הרכבת שרתים במפעל הייפר גלובל בראש העין. צילום: הייפר גלובל
מאת: יואל יעקבסן, CTO חברת הייפר גלובל (HIPER Global)
בעידן שבו מכשירים חכמים מהווים חלק בלתי נפרד מחיינו, היכולת לעבד נתונים ולקבל החלטות בקצה הרשת (Edge) היא קריטית, אולם היא דורשת להריץ מודלי בינה מלאכותית עתירי עיבוד על-גבי מכשירים מוגבלי משאבים כמו טלפונים, מצלמות או מחשבים תעשייתיים. טכניקת "זיקוק מודלים" (Model Distillation) החדשה מסתמנת כפתרון המאפשר לגשר על הפערולהביא את העוצמה של מודלי ענק אל אבזרי הקצה.
מחשוב קצה (Edge Computing) הוא פרדיגמה טכנולוגית שבה עיבוד המידע מתבצע קרוב למקור יצירתו או למקום הצריכה שלו, ולא בשרתי ענן מרוחקים. לגישה הזו יתרונות מרובים:זמן תגובה קצר, חסכון בעלויות התקשורת, שמירת פרטיות ואבטחה, ואפשרות לשימוש בטכנולוגיה עתירת עיבוד גם באזורים ללא קליטת אינטרנט יציבה. אלא שמודלי למידה עמוקה מודרניים, המצטיינים במשימות כמו זיהוי תמונה או עיבוד שפה טבעית (ובמקרים רבים – שניהם יחד), הם לרוב מפלצות חישוביות.
האנלוגיה המפתיעה של מורה-תלמיד
הם דורשים עוצמת עיבוד גדולה, הרבה מאוד נפח של זיכרון מהיר וצורכים אנרגיה רבה – שלושה משאבים הנמצאים בצמצום חמור במכשירי קצה. הנסיון לאמן מודלים קטנים הדורשים פחות משאבים, על בסיס המידע ששימש לאימון מודלים גדולים, לא הניב תוצאות טובות. כאן נכנסת לתמונה טכניקת זיקוק המודלים – AI Model Distillation, שהוצגה על-ידי זוכה פרס טיורינג, ג'פרי הינטון. הוא מבוסס על אנלוגיה של מורה–תלמיד: בשלב הראשון, מאמנים מודל AI גדול ומורכב במרכז נתונים חזק. המודל הזה, המשמש כ"מורה", מספק איכות גבוהה מאוד אך הוא גדול ומסורבל מכדי לפעול על מכשיר קצה.
בשלב השנימעבירים "ידע רך" למודל "תלמיד". במקום לאמן מודל קטן ("תלמיד") רק על נתוני האימון הגולמיים, אנחנו מאמנים אותו ללמוד מהתובנות העמוקות יותר של מודל המורה. המורה לא רק אומר "זו התשובה", אלא מספק התפלגות הסתברויות מלאה: "אני בטוח ב-95% שזה כלב, אבל יש סיכוי של 4% שזה זאב ו-1% שזה שועל". מידע עשיר זה, המכונה "ידע רך", מלמד את התלמיד על הקשרים והניואנסים בין קטגוריות שונות.
התוצאה היא מודל תלמיד קטן ו"רזה" משמעותית, הדורש פחות כוח חישוב וזיכרון, אך בזכות הלמידה מהמורה, הוא מצליח לשמר רמת דיוק קרובה מאוד לזו של המודל המקורי והגדול. היכולת לזקק מודלים פותחת את הדלת לשילוב AI מתקדם מאוד במכשירים עם יכולת עיבוד צנועה, ומנגישים יכולות AI במכשירים שבעבר לא יכלו לתמוך בהן. בנוסף, מודלים מזוקקים מאפשרים פיתוח מוצרים חסינים לזליגת מידע, מכיוון שהעיבוד מתבצע באופן מקומי לחלוטין.
"תלמיד מצטיין" מגיע לכל מקום
לטכנולוגיה הזו יש שימושים אפשריים רבים: מערכות ממוחשבות רפואיות יכולות לנתח מידע לגבי חולים, לספק לצוות הרפואי ניתוח של המדדים הרפואיים (ובשילוב מודלים מסוג VLM, גם הצלבה עם ניתוח הדמאות רפואיות באיכות הולכת ועולה) ואפילו ולהמליץ על צעדים רפואיים מיידים אם נדרשים. המלצות אלו יכולות להתבצע מקומית על "מחשב קצה" באיזור החולה, מבלי להתבסס על רשת האינטרנט בשביל עיבוד בענן או במידה רבה אפילו על רשת בית החולים. באמצעות Agentic AI אפשר לשלב אישורים של רופאים אנושיים, להזמין בדיקות ולנתח חומר ממאגרי המידע של בית החולים ואפילו ממאגרי מידע חיצוניים כדי לספק תוצאות טובות יותר.
מוצרים לאבטחת מידע יכולים לנתח מידע ודפוסים באמצעות Reasoning AI מקומי כדי לקבל החלטות מקומיות. מכשירים תעשייתיים יכולים לעבוד באופן פשוט בהרבה באמצעות שילוב של מודלים מזוקקים מקומיים המשלבים ראייה (קריאת מצב מסך, ראייה של המצב בתוך המכונה), דיבור (שיחה עם העובד) וניתוח טקסט (שיחה עם העובד בשפה טבעית), כדי לצמצם פערי מיומנות ולהפוך שימוש במכונות לנגיש יותר ואפילו עצמאי. מוצרים תעשייתיים שנסמכו בעבר על חוקיות עדינה ומתוחכמת שפותחה בעמל רב וקשה מאוד לתחזוקה, יכולים להתבסס על AI מקומי חזק מאוד שנבנה באמצעות זיקוק.
כדי להשיג את כל אלו חשובה גם התשתית ותפעול הסביבה. בחירה נבונה במערכת המיחשוב התעשייתי או הרפואי, המאיצים הנכונים שיתאימו למודלים מזוקקים, תשתיות התוכנה הנחוצות והתהליכים הדרושים כדי לאפשר בטיחות, אבטחה ועדכניות תדירה, הם מרכיב חשוב הדורש מקצועיות בפני עצמה.
לסיכום: טכניקת AI Model Distillation אינה רק אופטימיזציה טכנית; היא טכנולוגיית ליבה המאפשרת להעביר את ה"חוכמה" של מודלי הענק גם אל מכשירי הקצה, וסוללת את הדרך לדור הבא של יישומי קצה מבוססי AI יעילים, מהירים ומאובטחים.
יואל יעקבסן, CTO בחברת הייפר גלובל. צילום: ענת קזולה
אודות החברה:
הייפר גלובל עוסקת במתן פתרונות מחשוב לחברות טכנולוגיות המפתחות מוצרים. החברה פועלת בישראל ובעולם (באמצעות חברות בת בבריטניה ובארה"ב). היא מספקת ללקוחות פתרונות גלובליים. פעילותה כוללת עבודה משותפת עם גופי הפיתוח של הלקוחות והתאמת פתרונות טכנולוגים מורכבים לצורכיהם. בשלבים שלאחר מכן החברה מייצרת את המערכות שתכננה ומספקת אותן לכל מקום נדרש בעולם.
חברת אינטל הכריזה בסוף השבוע על שלושה דגמים חדשים של מעבדי משפחת Xeon 6, המבוססים על ליבות ביצועים (P-Cores). היא מסרה שאחד מהם, המעבד Xeon 6776P נבחר על-ידי חברת אנבידיה לשמש כמעבד הראשי (head node) במערכת הבינה המלאכותית החדשה שלה, DGX B300, המבוססת על ארכיטקטורת Blackwell. המערכת מיועדת להתמודד עם עומסי עבודה כבדים, כמו אימון והסקת מודלים גדולים.
המעבדים החדשים כוללים את טכנולוגיית Priority Core Turbo – PCT המאפשרת להאיץ את מהירות העבודה של 8 ליבות נבחרות, ממהרות שעון של 3.9 גה"ץ, למהירות שעון של 4.6 גה"ץ. ההאצה מתבצעת במועדים נבחרים, כמו למשל ברגעים הקריטיים של העבודה דוגמת תהליך הכנת הנתונים (data preprocessing), טעינת מודלים וניהול תורי משימות. במערכות בינה מלאכותית, כאשר CPU לא מספיק מהיר, הוא פשוט ממתין ולמעשה לא עושה דבר. ההאצה נועדה למנוע את תופעת ההשהיה הזו.
"תפקידו של מעבד ה-Xeon כ-head node הוא קריטי במערכות AI, אמרה קרין אייבשיץ סגל, סגנית נשיא תאגידית ומנהלת זמנית של קבוצת מרכזי הנתונים באינטל. בנוסף לטכנולוגיית PCT, המעבדים כוללים עד 128 ליבות P-Core, תמיכה בזיכרון מהיר העובד בקצב של עד 5,200MT/s, כולל MRDIMM, RDIMM ו-CXL, הגדלה של 20% במספר נתיבי ה-PCIe ותמיכה בהאצת חומרה לחישובי מטריצות (AMX).
בתמונה למעלה: עמית קריג, סגן נשיא בכיר ב-NVIDIA ומנהל מרכז הפיתוח של אנבידיה בישראל
חברת אנבידיה מרחיבה את משרדיה בתל אביב, ומוסיפה אליהם 10 קומות נוספות במגדל רובינשטיין בתל אביב, בנוסף ל-8 הקומות שהיא תופסת כיום. החברה מסרה שלאחר השלמת ההתרחבות, ישתרעו משרדיה על שטח של כ-22,000 מ"ר. במרכז המורחב יהיו כ-1,200 פינות עבודה לצד מעבדות מחקר בינה מלאכותית וחלל כנסים ואירועים. במקום יוקם מתחם הסעדה שיופעל על-ידי קבוצת מחניודה בהובלת השף אסף גרניט. האתר יחל לפעול במתכונת מלאה עד סוף השנה, ויתמוך בהרחבת פעילות המחקר והפיתוח של אנבידיה בישראל.
חברת אנבידיה היא אחת המעסיקות הפרטיות הגדולות במשק. מאז רכשה את חברת מלאנוקס בשנת 2020, היא הכפילה את מספר עובדיה בישראל וכיום היא מעסיקה כ-4,500 עובדים בתל-אביב, יקנעם, תל-חי, מבוא כרמל, רעננה ובאר שבע. מרכז הפעילות הגדול ביותר הוא מתקן מלאנוקס לשעבר ביוקנעם. המרכז בתל אביב הוא השני בגודלו. החברה מסרה שהיא מגייסת עובדים וכעת יש לה כמה מאות משרות פתוחות במשרדיה ביקנעם, תל אביב, רעננה, באר שבע ותל חי.
"אנחנו ממשיכים להעמיק את ההשקעה שלנו בישראל, מתוך אמונה בהון האנושי וביכולת שלו להוביל חדשנות עולמית", סגן נשיא בכיר להנדסת תוכנה ומנהל מרכז המחקר והפיתוח של אנבידיה בישראל, עמית קריג. "הרחבת המרכז בתל אביב תאפשר לנו לגייס עובדים נוספים ולקדם בישראל חדשנות בתחום הבינה המלאכותית".
חברת פורטליקס (Foretellix) מרמת-גן הכריזה על יכולות חדשות בתוכנת התרחישים שלה, Foretify, המאפשרות לאמן ולבדוק כלי-רכב אוטונומיים שהתוכנה שלהם מבוססת על בינה מלאכותית ׁׂ(AI). ההרחבה מיושמת באמצעות פלטפורמת הסימולציה הריאליסטית NVIDIA Cosmos אשר פועלת על-גבי הענן Omniverse של אנבידיה. הכלים החדשים מספקים יכולות לאמן את מנועי הבינה המלאכותית של כלי-הרכב באמצעות שימוש בנתוני נסיעה קיימים ובמידע המגיע מחיישני הרכב, ובנתונים משלימים המיוצרים באופן סינתטי באמצעות השילוב בין Foretify ו-Cosmos, אשר מייצר סימולציה ריאליסטית מאוד (Physical AI).
המערכת מספקת מענה לשלושה צרכים מרכזיים בפיתוח רכב אוטונומי מבוסס AI: לוודא שאלגוריתם הבינה המלאכותית מתפקד בצורה בטוחה בכל תרחיש ריאליסטי, לבצע הערכה של רמת המוכנות של המערכות האוטונומיות ולבדוק את רמת עמידתן בדרישות הרגולטור והמפתחים, לפני שהמכוניות עולות לכביש. לדברי מנכ"ל ומייסד שותף של פורטליקס, זיו בנימיני, "אימון, אימות ואספקת ראיות לרמת התיפקוד של הערכות האוטונומיות, הוא המנוע המרכזי שיגרום לתעשיה הזו להתקדם".
שילוב מידע אמיתי ומידע סינתטי במערכת פורטיפיי, לאימון מערכת נהיגה אוטונומית
האינטגרציה של פלטפורמת Foretify עם טכנולוגיית סימולציית החיישנים של אנבידיה זכתה בפרס "חדשנות השנה בתחום הסימולציה" בתחרות Automotive Testing Technology International Awards לשנת 2025. מנכ"ל יצרנית המשאיות Torc מקבוצת דיימלר, פיטר ווגן שמידט, אמר שהמערכת תסייע לחברה לפתח משאית אוטונומית עד שנת 2027. גם טילו שוורץ, סמנכ"ל הנדסה בחברת הרכב האוטונומי האמריקאית Nuro, אמר שהחברה החלה להשתמש בה.
מייסד משותף ומנהל נושאי הרגולציה בפורטליקס, גיל אמיד, הסביר בראיון ל-Techtime, שהיכולות החדשות של פלטפורמת Foretify נועדו לספק פתרון לשינוי הדרמטי שהתחולל בשנים האחרונות בעולם הנהיגה האוטונומית, בעקבות המעבר של היצרניות משימוש בתוכנות מבוססות חוקים (Rule based) קלאסיות, לתוכנות בינה מלאכותית המבוססות על רשתות נוירוניות. אמיד: "המעבר התחיל ברמת החיישנים לצורך עיבוד תמונה וזיהוי אובייקטים, ולאחר מכן התפתח לכיוון של מודלי בינה מלאכותית המבצעים עיבוד מצבים וקבלת החלטות.
"היום כבר לא מתחילים את פיתוח תוכנת הנהיגה מתוכנה קלאסית, אלא בונים מודל AI ומתחילים לאמן אותו באמצעות נתונים מוקלטים קיימים. לאחר הגעה לרמה של אימון סביר, אפשר לבצע נהיגות מבוקרות ותרגולים במערכת סימולציה. בשלב הזה המפתחים זקוקים ליכולת להשתמש בהקלטות כדי לייצר סיטואציות נוספות לצורך שיפור האימון, אפילו להוסיף למאמן סיטואציות חסרות. התהליך הזה חוזר על עצמו ומתרחב בהתמדה".
היכן אתם ממוקמים בשרשרת הפיתוח הזו?
"זה המקום שבו השפה שלנו, שבמקור שלא תוכננה לעולם ה-AI, יכולה גם לענות לצורכי ה-AI, מכיוון שהיא מסוגלת לייצר אינסוף וריאציות של תרחישים שזוהו, ובכך לסייע באימון ותרגול המערכת. עולם האימון ועולם הבדיקה נמצאים בחפיפה. הדבר השני שהמערכת שלנו עושה, היא טיפול בעולם שאנחנו קוראים לו כיסוי (Coverage): מה נבדק ומה לא נבדק. אנחנו יכולים לבדוק לא רק את המצבים שעשינו בסימולציה, אלא גם את הלוגים וההקלטות של נהיגות הניסוי. המערכת בודקת איזה מצבים חסרים כדי להשלים את האימון הדרושה, ליצור וריאציות שלהם לצורך אימון, ועל-ידי כך להגיע לרמת הכיסוי המבוקשת.
מהו שיתוף הפעולה עם אנבידיה?
"אנחנו לא עוסקים בתחום של סימולציה ויצירת המאפיינים הפיסיקליים, אלא מתחברים לכל מיני סימולטורים בעולם. כאן ממוקד שיתוף הפעולה עם אנבידיה: יש להם יכולת לייצר ריאליזם בסימולטורים שלהם באמצעות פלטפורמות אומניוורס, וקוסמוס. הוספנו ל-Foretify את היכולת לתמוך ב-Physical AI שאותו אנחנו מקבלים באמצעות אינטגרציה עם אנבידיה. הפתרון המשווק ללקוחות מורכב ממוצר של פורטליקס וממוצר של אנבידיה במסגרת NVIDIA Cosmos המצוי בענן אומניוורס".
חברת פורטליקס הוקמה בשנת 2018 על-ידי יוצאי תעשיית השבבים יואב הולנדר, זיו בנימיני וגיל אמיד. עד היום החברה גייסה כ-135 מיליון דולר. בין המשקיעים בחברה גם יצרניות גדולות המשמשות כלקוחות של החברה, דוגמת וולוו, טויוטה ואפילו אנבידיה. כיום החברה מעסיקה כ-200 עובדים בעולם, בהם 90 בישראל והשאר במשרדיה בארה"ב, אירופה, יפן, סין וברזיל.
בתמונה למעלה: מנכ"לית AMD ליסה סו, ונסיך הכתר הסעודי מוחמד בין סלמן
קרן ההשקעות הלאומית של סעודיה, Public Investment Fund – PIF, הכריזה על הקמתה של חברת שירותי הבינה המלאכותית החדשה, HUMAIN, אשר תספק תשתיות חומרה ותוכנה במזרח התיכון ובכל העולם. החברה תקים מרכזי עיבוד ליישומי AI במספר אתרים בעולם, שבהם ירוץ המודל הלשוני ALLAM, שהוא מודל ה-LLM הראשון בעולם המותאם במיוחד לשפה הערבית ולתרבות הערבית. בין השאר, הוא מתוכנן להבנת דיאלקטים ערביים שונים, להתייחס לערכים תרבותיים מקומיים ולהכיר את הייחוד של קהילות ערביות שונות.
הקרן הוקמה על-ידי ממשלת בסעודיה כבר בשנת 1971 במטרה לבצע השקעות בסעודיה ובעולם. בשנת 2015 הוגדרו מטרותיה מחדש והיא קיבלה תפקיד מרכזי בקידום אסטרטגיית Vision 2030, שנועדה לבנות תשתיות שיבטיחו את כלכלת סעודיה ללא תלות בנפט. מדובר בפרוייקט מדינתי המנוהל על-ידי בית המלוכה. כיום יו"ר הקרן הוא יורש העצר וראש הממשלה, הנסיך מוחמד בין סלמן בין עבדול-עזיז אל סעוד. מיד לאחר ההכרזה על השקת החברה, הודיעה AMD על חתימת הסכם עם HUMAIN להקמת חוות שרתים ליישומי בינה מלאכותית בהשקעה כוללת של כ-10 מיליארד דולר.
מדובר בחוות שרתים אשר מחשבי ה-AI שבתוכה יגיעו להספק כולל של 500 מגה-ואט בתוך 5 שנים. היא מתוכננת לספק שירותים כבר ב-2026, ותסתמך על אנרגיה שתספק מדינת סעודיה. תשתית המחשבים של החווה תתבסס כולה על מעבדי ותוכנות AMD, בהם מעבדי ה-GPU ממשפחות AMD Instinct ו-AMD EPYC, מאיצי התקשורת AMD Pensando, מעבדי AMD Ryzen וסביבת התוכנה AMD ROCm. במקביל, החברה מתכננת להקים חוות נוספות בעולם, כולל בארה"ב.
גם אנבידיה מצטרפת לפרוייקט
לא נמסרו פרטים על המבנה העסקי של חברת HUMAIN, אולם מנכ"לית AMD, ד"ר ליסה סו, אמרה שהשותפות כוללת השקעה של AMD במיזם הזה: "ההשקעה שלנו ב-HUMAIN היא אבן-דרך בקידום תשתיות AI גלובליות". במקביל להכרזה הזו, הודיעה חברת אנבידיה (NVIDIA) שהתקיימה פגישה בין הנסיך מוחמד בין סלמן ובין מנכ"ל אנבידיה ג'נסן הואנג, אשר התלווה לנשיא טראמפ בביקורו בסעודיה. השניים סיכמו על השתתפותה של אנבידיה בפרוייקט ה-AI של HUMAIN.
בשלב הראשון, החברה תרכוש 18,000 מחשבי-על מסוג GB300 Grace Blackwell אשר יקושרו ביניהם ברשת InfiniBand מהירה. חברת HUMAIN גם תתקין את ענן NVIDIA Omniverse הראשון בסעודיה, כדי לספק יכולות תאומים דיגיטליים (digital twins) של אובייקטים פיסיים. אנבידיה גם חתמה על הסכם עם רשות המידע והבינה מלאכותית הסעודית (SDAIA) לפריסה של 5,000 מעבדי GPU ממשפחת Blackwell, לשימוש על-ידי רשויות מקומיות ומשרדים ממשלתיים.
חברת אנבידיה תכריז מחר על מערכת אבטחה אשר פותחה במרכז הפיתוח של החברה בישראל, המיועדת לספק הגנה על תשתיות בינה מלאכותית מאסיביות, שקיבלו את הכינוי AI Factories. הכוונה למרכזי נתונים במימדים עצומים, המנתחים כמויות גדולות של מידע במטרה להפיק ממנו תובנות בעלות ערך. מערכת האבטחה החדשה, NVIDIA DOCA Argus, רצה על-גבי מעבד הסטת העומסים הישראלי NVIDIA BlueField וסביבת התוכנה DOCA, ומזהה איומים בזמן אמת, במהירות גבוהה פי 1,000 מהמקובל כיום בשוק.
מעבדי ההאצה האלה הם מרכיב מרכזי בתשתיות AI Factories ומסייעים לספק להם יכולות תקשורת מהירות. מכיוון שמערכת ההגנה רצה על מעבדי ההסטה, פעילותה אינה תלויה בסוג השרת, במשאבי השרת או בכים המותקנים בשרת המארח. כלומר, היא מערכת אבטחה שיכולה לפעול בכל סביבה של מחשוב בינה מלאכותית. חברת אנבידיה מסרה שהיא מקימה בימים אלה מפעל AI עבור חברת סיסקו, אשר יתבסס על הארכיטקטורה שלה ועל מערכת האבטחה החדשה.
חברת היילו (Hailo) התל אביבית, אשר מפתחת ומספקת מעבדי בינה מלאכותית ליישומים משובצי מחשב, בחרה בחברת אבנט אייסיק (Avnet ASIC Israel) לניהול הייצור של מעבדי ה-AI העתידיים שלה בחברת TSMC הטאיוואנית. אבנט אייסיק היא חטיבה של Avnet Silica, הנמצאת בבעלות Avnet. לאבנט אייסיק הסמכה רשמית של TSMC המעניק לה מעמד של Value Chain Aggregator – VCA. עד היום היא השלימה שני פרוייקטים עם חברת היילו.
הסמכת VCA מאפשרת לאבנט אייסיק לספק גישה אל תהליכי הייצור של TSMC, ביחד עם תמיכה הנדסית, ניהול הייצור ואינטגרציה תהליכית. בין השאר, היא צברה ניסיון בתהליכי 3 ננומטר ויש לה גישה לטכנולוגיות 2 ננומטר של TSMC הצפויות להגיע בקרוב לשוק. היילו מקבלת תמיכה מלאה בייצור הסדרתי, כולל תהליכי טייפאאוט, ניהול מוצר וניהול שרשרת האספקה. סמנכ"לית איכות ותפעול בחברת היילו, אינה שטרנברג, אמרה ששיתוף הפעולה עם אבנט אייסיק מעניק להיילו גישה אל תהליכי הסיליקון המתקדמים ביותר של TSMC.
מנהלת הפעילות העסקית של אבנט אייסיק ישראל, יוליה מילשטיין, אמרה ש-TSMC הסמיכה מספר מצומצם של חברות כשותפות VCA. אבנט אייסיק היא מרכז תכנון וייצור רכיבי ASIC ו-COT. היא הוקמה לפני כ-35 שנים וביצעה יותר מ-350 פרוייקטים בישראל ובחו"ל. חברת היילו הוקמה ב-2017 על-ידי בוגרי היחידה הטכנולוגית של חיל המודיעין, וגייסה מאז הקמתה כ-340 מיליון דולר. כיום יש לה כ-300 לקוחות בעולם. החברה מעסיקה כ-300 עובדים, 250 מהם בישראל והשאר במשרדיה בעולם.
דור חדש של מצלמות בינה מלאכותית
המעבדים של היילו מאפשרים למכשירים חסכוניים באנרגיה לבצע משימות למידה עמוקה דוגמת זיהוי עצמים בזמן אמת. שוקי היעד המרכזיים של החברה: תעשיות הרכב, אבטחה, מחשוב, תעשייה 4.0 וקמעונאות. בשבוע שעבר היא השתתפה בתערוכת ISC West 2025 בלאס וגאס, והציגה בה שורה של מצלמות בעלות יכולות Generative AI של יצרנים שונים, אשר מבוססות על מעבדי התמונה מסדרה Hailo-15 ׁ(בתמונה למעלה) ומאיצי ה-AI מסדרות Hailo-8 ו-Hailo-10.
מדובר בדור הבא של יישומי AI מבוססי מצלמה המאפשרים לבצע פעולות כמו סיווג תמונה בזמן אמת ללא צורך באימון מקדים (zero-shot classification), הסתרת פנים בווידאו בזמן אמת, ניטור שירותים מסחריים דוגמת מסעדות וחנויות קמעוניאיות ועוד. היישומים החדשים כוללים מודלים משולבים של שפה וראייה (VLM), ויודעים לבצע פעולות מורכבות כמו סיכום ותמצות אוטומטי של סרטוני וידאו במכשירי הקצה עצמם – ללא צורך בחיבור לאינטרנט.
כנס Israel Machine Vision Conference (IMVC) 2025 יתקיים השנה בתאריך ה-1 באפריל, 2025 בביתן 10 באקספו תל אביב. כנס IMVC החל לפני 14 שנים ומתקיים אחת לשנה. זהו כנס חלוצי בתחום הבינה המלאכותית וראיית המכונה, שהוקם בשנת 2009 על-ידי ד"ר חן שגיב וד"ר יעקב כהן. הכנס הפך במהרה למפגש שנתי חשוב בחזית התעשייה, ומארח מדי שנה כ-1,500 אנשי מקצוע מתחומים שונים, כולל מפתחים, יזמים, מהנדסים, משקיעים ועוד.
כנס IMVC צבר מוניטין כארוע המרכזי של קהילת הראייה הממוחשבת בישראל. לצד מושבים מקצועיים מקבילים שיעסקו בנושאים עכשוויים, בהם בינה מלאכותית גנרטיבית, הדמאה רפואית, ראייה ממוחשבת לרובוטיקה ומערכות אוטונומיות ועוד, הכנס מפגיש בין מובילים בתעשייה, חוקרים ואנשי מפתח מהחברות החדשניות ביותר. הוא מעניק הזדמנות מצוינת לנטוורקינג, חילופי ידע וחשיפה לטכנולוגיות חדשות. המשתתפים כוללים נציגים מחברות סטארטאפ, תאגידים בינלאומיים, מכוני מחקר ומוסדות אקדמיים.
בין החוקרים והבכירים מחברות מובילות שישתתפו השנה בכנס: פרופ' יונינה אלדר (מכון ויצמן), נדב כהן (אוניברסיטת תל אביב), איילת טל (הטכניון), דפנה לייפנפלד (NeuroKaire), איה סופר (IBM) ועוד. את הכנס ינעל דין לייטרסדורף מחברת Decart המסקרנת. לאורך היום יתקיימו מושבים מקבילים שיתמקדו בתחומי בינה גנרטיבית, הדמאה רפואית, AI ברובוטיקה ובמערכות אוטונומיות, יישומי AI בתעשייה ועוד.
חברת קואלקום הכריזה על חתימת הסכם לרכישת חברת Edge Impulse מקליפורניה, אשר מעניק לה כניסה אל תחום הבינה המלאכותית במערכות IoT. לא נמסרו פרטים פיננסיים על העיסקה, אולם במהלך גיוס ההון של החברה בשנת 2021, נמסר שהגיוס בוצע לפי שווי חברה של 234 מיליון דולר. חברת Edge Impulse מספקת תוכנות וכלי פיתוח ליישומי TinyML במתכונת מיוחדת: היא ניתנת למפתחים בחינם, כאשר המודל העסקי מבוסס על מתן שירותים לארגונים במתכונת של SaaS: הפלטפורמה, הקומפיילר והאופטימיזציה נעשים בענן של החברה, כאשר התשלום הוא עבור זמני העיבוד והתמיכה הטכנית בלקוח.
החברה הוקמה בשנת 2019 על-ידי יוצאי Arm, אשר שמו לב לתופעה מעניינת: המעבדים המשמשים במיקרו-בקרים חזקים בסדרי-גודל מיישומים המעשיים שבהם הם משמשים. כך למשל, ניתן למצוא מעבד בעל יכולת עיבוד של מיליוני פקודות בשנייה, המפעיל מיקרו-בקר כדי לשלוח אותות טמפרטורה פעם בשעה. התוצאה: הם הקימו את החברה כדי לפתח יישומי לימוד מכונה מסוג TinyML שניתן להריץ על-גבי מיקרו-בקרים באבזרי קצה ו-IoT. למעשה, היא היתה מחלוצות תחום ה-TinyML, שהוא יישום אלגוריתמי בינה מלאכותית במעבדים קטנים וחסכוניים מאוד בהספק.
אסטרטגיית ה-IoT של קואלקום
כיום היא נחשבת לאחת מהחברות המובילות בתחום ומספקת פלטפורמות פיתוח מרכזיות לאימון ויישום מודלי לימוד מכונה במכשירי קצה. בין לקוחותיה: Lexmark, HP ויותר מ-100,000 מפתחי יישומי AI. היא עובדת בשיתוף פעולה עם ענקיות טכנולוגיות כמו Lexmark, HP, אנבידיה, ARM, אדוונטק, AWS, מיקרוצ'יפ, טקסס אינסטרומנטס, רנסאס ועוד. מאז הקמתה גייסה החברה 54 מיליון דולר ממשקיעים ובנתה קהילה של 170,000 מפתחים העובדים עם הפתרונות שלה. החברה פעילה גם בישראל, ומנהל הפיתוח העיסקי של Edge Impulse בישראל, הוא אמיר שרמן.
השלמת העיסקה תלויה בקבלת אישורים רגולטוריים. היא מהווה מרכיב באסטרטגיית IoT ו-Edge AI שקואלקום הגדירה בשנה האחרונה, אשר כוללת אספקת מגוון מעבדים ורכיבי קשורת התפורים לצרכים הספציפים של מגזרי תעשייה המשתמשים ב-IoT, ארכיטקטורת תוכנה אחידה, חבילה של שירותים כולל SaaS, בניית קהילת שותפים ומשתמשים ופיתוח פתרונות ייעודיים בשיתוף עם ארגונים ותעשיות במטרה להתמודד עם צרכים מיוחדים. היא מסרה שחברת Edge Impulse תמשיך לפעול כגוף עצמאי עם ההנהלה וצוות העובדים הקיים, ותמשיך לספק תמיכהל פלטפורמות שאינן של קואלקום.
למידע נוסף: מנהל פיתוח עיסקי של Edge Impulse בישראל, אמיר שרמן. [email protected]
חברת דאסו סיסטמס (Dassault Systèmes) החלה בפרוייקט רוחבי להוספת יכולות בינה מלאכותית את מוצרי הליבה שלה נמצאת בתהליך שדרוג פלטפורמת 3DEXPERIENCE, המאפשרת לעצב רעיונות ולפתח את המוצרים ואת תהליכי הייצור באופן וירטואלי ובאמצעות הענן של דאסו. במסגרת הפרוייקט הזה, שקיבל את השם Generative Economy, היא הכריזה החודש על מערך 3D UNIV+RSES, אשר מספק טכנולוגיות בינה מלאכותית שנועדו לשפר את חוויית המשתמש במערכות החברה לניהול חיי הקניין הרוחני (IPLM), ובתהליכי פיתוח המתבצעים על-גבי פלטפורמת 3DEXPERIENCE.
אחת ממטרות המערך היא לאפשר למשתמשים לנצל את בסיס הידע והנתונים הקיים שלהם, כמו תכנונים וירטואליים, ניהול שרשרת אספקה ותאומים דיגיטליים של המוצרים, כדי להפיק מהם יותר תובנות שניתן לקבל באמצעות הפעלת כלי בינה מלאכותית על בסיס הנתונים הקיים. ראוי לציין שההכרזה של דאסו סיסטמס כוללת מעט מאוד מידע קונקרטי על המערכת. יחד עם זאת, החברה מסרה ש"ארכיטקטורת 3DUNIV+RSES מציעה דור חדש של ייצוג העולם: שילוב של מידול, סימולציה, מידע מהעולם האמיתי ותכנים שנוצרו על-ידי בינה מלאכותית. המכלול הוא סביבה המאפשרת לשלב סימולציות של תאומים דיגיטליים ולאמן מנועי בינה מלאכותית מרובים, תוך שמירה על הקניין הרוחני של הלקוחות.
יו"ר דאסו סיסטמס, ברנרד שארלז, הסביר: "הלקוחות שלנו מצפים מאיתנולהגן על 'מכרה הזהב' שלהם – קרי הנכסים הווירטואליים – ולסייע להם לחשוף את מה שנסתר מן העין. כדי להגן על הקניין הרוחני החשוב ביותר, יש חשיבות קריטית ליצירת חוויות תאום וירטואלי של כל דבר". מנכ"ל דאסו סיסטמס, פסקל דאלוז, גילה שחבילת הפתרונות החדשה יוצאת לשוק לאחר שלוש וחצי שנות מחקר ופיתוח ומבוססת על אימוץ נרחב של בינה מלאכותית יוצרת (Generative AI). "פתרונות 3D UNIV+RSES מאפשרים ללקוחות ליצור תאום וירטואלי עבור כל דבר וכל אחד, כולל וירטואליזציה מלאה של כל המערכת האקולוגית שלהם".
בתמונה למעלה: רחפני לחימה ביציאה מקו הייצור, בדרך לאוקראינה. חברת התוכנה הפכה ליצרנית כטב"מים
חברת הלסינג (Helsing) הגרמנית וחברת מיסטרל (Mistral AI) הצרפתית הכריזו על שיתוף פעולה אסטרטגי בפיתוח הדור הבא של מערכות צבאיות מבוססות בינה מלאכותית (AI). שיתוף הפעולה יתבסס על הטכנולוגיות הצבאיות של הלסינג, בהן אלפי כטב"מים קרביים שהיא מייצרת ומספקת לאוקראינה ומערכות לוחמה אלקטרונית של מטוס הקרב האירופי, Eurofighter. הפיתוח המשותף יתמקד במודלי Vision-Language-Action, המאפשרים לפלטפורמות צבאיות להבין את הסביבה, לתקשר בשפה טבעית עם המפעילים, ומסייעים בקבלת החלטות מהירה בתרחישים מורכבים.
ענני מלחמה בשמי אירופה
חברת הלסינג הוקמה ב-2021, וגייסה עד היום כ-484 מיליון דולר. מנכ"ל ומייסד משותף של החברה, תורסטן ריל, סיפר שהיא הוקמה בעקבות ההכרה שפלישה רוסית לאוקראינה ופלישה סינית לטאיוואן הן בלתי נמנעות, ולכן אירופה צריכה להתכונן למלחמה. לדבריו, החברה החלה את דרכה כחברת תוכנה, וזו עדיין הפעילות המרכזית שלה. "נכנסנו לתחום הייצור של הרחפנים מכיוון שאין היום חברה המסוגלת לייצר רחפנים מדוייקים בכמויות הדרושות. התברר לנו שתהליך המתחיל בתוכנה, בהדמייה ובניסויים וירטואליים, מאפשר לייצר חומרה בצורה מהירה ויעילה יותר מאשר בשיטות הייצור הקיימות היום בתעשיית התעופה".
מייסד משותף של החברה, גונדברט שרף: "אירופה צריכה לממש את כוחה כשחקנית גיאופוליטית, והובלה בתחום ה-AI היא גורם מרכזי בשמירה על הביטחון של אירופה. אנחנו נפתח את הדור הבא של מערכות הגנה וביטחון". מערכת כזו כבר נמצאת בפיתוח: ביוני 2024 הכריזו הלסינג ואיירבאס על פיתוח משותף של הכטב"ם Wingman. מדובר בכלי טיס לא מאוייש בסדר גודל של מטוס קרב, אשר ילווה את מטוסי הקרב ויסייע להם לבצע את המשימה הקרבית.
חברת הלסינג דיווחה בשבוע שעבר שהיא החלה לייצר 6,000 כטב"מי-תקיפה מדגם HX-2 עבור צבא אוקראינה. ההזמנה הזו הגיעה לאחר שהיא סיפקה לצבא אוקראינה 4,000 כטב"מי HX-1 הנמצאים כעת בשירות מבצעי בחזית. ההזמנה החדשה הופכת את מיסטרל לאחת מיצרניות כטב"מי התקיפה הגדולות בעולם.
פלטפורמת HX-2 מונעת באמצעות מנוע חשמלי וכוללת ארבעה מדחפים וכנפי X. הרחפנים מגיעים למהירות של 220 קמ"ש ולטווח של עד 100 ק"מ, ויכולים לשאת חימוש במשקל של עד 5 ק"ג. הכלים מצויידים במערכת בינה מלאכותית המאפשרת להם להתגבר על על מערכות שיבוש אלקטרוני ולפעול באופן עצמאי. גם כאשר אובד הקשר עם המפעיל, המערכת יכולה לקבל החלטות באופן עצמוני. היא מאפשרת למפעיל בודד לשלוט בכלי יחיד בנחיל של כטב"מים המבצעים משימה מתואמת.
רשת "מפעלים עמידים" בכל רחבי אירופה
בתוך קו הייצור של רחפני HX-2, הבנוי במתכונת של "מפעל עמיד"
הפיתוח של HX-2 כולל גם תפישה חדשה של תהליך הייצור, המותאם למצב לחימה. ביחד עם פיתוח הכטב"ם, הלסינג פיתחה גם קו ייצור ייעודי שניתן לשכפל אותו בקלות ולאפשר לכל מדינה באירופה להשיג עצמאות מלאה בייצור ואספקת הכלים לכוחות הלוחמים. הקונספט החדש קיבל את הכינוי "מפעלים עמידים" (Resilience Factory). המתקן הראשון שלו (RF-1), ניפתח באתר בדרום גרמניה והחל בייצור סדרתי של כטב"מים בהספק של יותר מ-1,000 יחידות HX-2 בחודש. כיום החברה מעסיקה כ-350 עובדים, ובכוונתה להקים אתרי ייצור זהים נוספים, בעלי כושר ייצור של כ-10,000 רחפני תקיפה בחודש, כל אחד.
לדברי שרף, נשק מדוייק מפצה מדי יום על הנחיתות המספרית של צבא אוקראינה. "זהו לקח חשוב שנאט"ו צריכה ללמוד, ומהר. תפישת המפעלים העמידים מבוססת על גישה מבוזרת של ייצור המערכות האלה בכל יבשת אירופה. המפעלים המקומיים יעניקו לכל מדינה את היכולת לייצר בעצמה את כלי הנשק החדשים ולהבטיח עצמאות של הייצור ושרשרת האספקה".
חברת Mistral הצרפתית הוקמה בשנת 2023 על-ידי יוצאי Google DeepMind ו-Meta, ומפתחת סדרה של כלים ומודלים מוכווני מטרה, דוגמת מערכת ייצירת תוכן לקמפיינים שיווקיים, פיתוח כלים לזיהוי תקיפות מקוונות, עמידה בתנאים רגולטוריים ופיתוח תוכנה בסיוע AI. מודל Codestral לפיתוח תוכנה הושק בתחילת ינואר 2025 ומספק תמיכה ב-80 שפות תכנות שונות. החברה מסרה שהוא יעיל יותר מ-DeepSeek Chat API הסינית ומ-OpenAI האמריקאית.
אנו עושים שימוש בקבצי עוגיות לצרכים שיווקיים ושיפור חוויית השימוש באתר. איסוף המידע באתר נעשה באופן אנונימי, למעט בטפסי יצירת קשר והרשמה לניוזלטר בהם אתם מתבקשים למלא פרטים אישיים. אנו עושים שימוש במגוון תוכנות לאיסוף וניתוח אנליטי של הנתונים באופן אנונימי לרבות: גוגל אנליטיקס, פייסבוק פיקסל ועוד.
What personal data we collect and why we collect it
We collect anonymous data on visitors in this website for business purposes such as enhancing user experience, digital marketing and search engine optimization.
We collect personal data such as email address and names on various forms – all forms present in this website include consent checkboxes and clear reason for collecting the data: general inquiries on our products, newsletter subscription, professional inquiries job applications. All forms are designed in accordance with GDPR requirements.
Comments
When visitors leave comments on the site we collect the data shown in the comments form, and also the visitor’s IP address and browser user agent string to help spam detection.
An anonymized string created from your email address (also called a hash) may be provided to the Gravatar service to see if you are using it. The Gravatar service privacy policy is available here: https://automattic.com/privacy/. After approval of your comment, your profile picture is visible to the public in the context of your comment.
Media
If you upload images to the website, you should avoid uploading images with embedded location data (EXIF GPS) included. Visitors to the website can download and extract any location data from images on the website.
Contact forms and newsletter
We use Gravity Forms as our platform of choice for all forms present in this website. Forms present in this website have been modified to fit GDPR requirements.
Unless specifically specified and approved by visitor, we do not use the collected data for marketing purposes.
We use Mailchimp to collect email addresses and send periodical marketing materials to our customers.
Handling and management of all email addresses and mailing operations is conducted under GDPR terms and guidelines provided by Mailchimp.
All subscribers are able to change their subscriptions preferences or unsubscribe at any given time.
Techtime has accepted the Data Processing Addendum agreement provided by Mailchimp for all its Mailchimp accounts.
All our lead collection forms have been altered in accordance with GDPR requirements and now include unchecked checkboxes in order to accept the explicit consent of the user prior to form submission.
Cookies
If you leave a comment on our site you may opt-in to saving your name, email address and website in cookies. These are for your convenience so that you do not have to fill in your details again when you leave another comment. These cookies will last for one year.
If you have an account and you log in to this site, we will set a temporary cookie to determine if your browser accepts cookies. This cookie contains no personal data and is discarded when you close your browser.
When you log in, we will also set up several cookies to save your login information and your screen display choices. Login cookies last for two days, and screen options cookies last for a year. If you select “Remember Me”, your login will persist for two weeks. If you log out of your account, the login cookies will be removed.
If you edit or publish an article, an additional cookie will be saved in your browser. This cookie includes no personal data and simply indicates the post ID of the article you just edited. It expires after 1 day.
Embedded content from other websites
Articles on this site may include embedded content (e.g. videos, images, articles, etc.). Embedded content from other websites behaves in the exact same way as if the visitor has visited the other website.
These websites may collect data about you, use cookies, embed additional third-party tracking, and monitor your interaction with that embedded content, including tracing your interaction with the embedded content if you have an account and are logged in to that website.
Analytics
We use Google Analytics regularly for monitoring user behavior and traffic sources and utilize the gathered information for enhancing user experience and for business purposes.
The use of Google Analytics in done according to GDPR terms and guidelines provided by Google.
Legal Entity: Techtime.
Primary Contact (a.k.a. “Notification Email Address”): [email protected] – this email is designated for receiving notices under the Google Ads Data Processing Terms.
Who we share your data with
We use various cloud platforms and third party providers for the purpose of operating this website.
We do not share or sell your data for any commercial purpose other than specified above.
We use the following processors for the operating this website and executing related digital marketing campaigns:
WP Engine – Hosting Provider
Cloudflare – Cloud based security and web performance processor.
Google Cloud Platform – data centers provider for WP Engine
Sucuri – Website security provider
Mailchimp – Newsletter service provider
Google Analytics, Adwords, Webmasters
Facebook – We use Facebook for advertising and place tracking code on our website for enhancing digital marketing campaigns (i.e – Facebook Pixel).
Planwize Ltd – Digital Marketing Agency.
How long we retain your data
If you leave a comment, the comment and its metadata are retained indefinitely. This is so we can recognize and approve any follow-up comments automatically instead of holding them in a moderation queue.
For users that register on our website (if any), we also store the personal information they provide in their user profile. All users can see, edit, or delete their personal information at any time (except they cannot change their username). Website administrators can also see and edit that information.
What rights you have over your data
If you have an account on this site, or have left comments, you can request to receive an exported file of the personal data we hold about you, including any data you have provided to us. You can also request that we anonymize or erase any personal data we hold about you. This does not include any data we are obliged to keep for administrative, legal, or security purposes.
Request for Receiving Data Associated with One’s Email Address
Users may request to receive access to all related information submitted to this website for their review.
In accordance with GDPR compliance, user may further request the anonymization of such data.
In order to request access for all data associated with a given email address, users may submit the request here. Users then receive an email with a link to a page with all related information.
The link is valid for 24 hours. Users may submit additional request for the same email address once in every 24 hours.
A request for anonymization should be sent separately: User may select the data he or she wishes the site owner to anonymize so it cannot be linked to his or her email address any longer. An email confirmation will be sent once linked data has been successfully anonymized.
Where we send your data
Visitor comments may be checked through an automated spam detection service. All our processors and third party providers comply with GDPR requirements and apply privacy by design and necessary measure to ensure that personal data is being processed and handled in accordance with requirements. The list of our third party service providers and processors is listed above.
Contact information
For all privacy-specific concerns inquiries, you may contact us at [email protected]
How we protect your data
We use rigorous practices in order to protect our website and data collected, as well as world class cloud and hosting providers.
Communication between visitor and the server is encrypted using SSL.
The site is protected with web application firewall and is undergoing daily security scans, regular software updates by a dedicated team in order to minimize the risk of data breach.
What data breach procedures we have in place
Once a data breach is detected, our providers execute a dedicated standard operational procedure in order to assess the scope and potential damage, provide immediate remedy, patch any potential security holes and notify users who may be affected by the breach.
We may contact affected users with one or more form of communication within 72 hours and provide the needed information as to the scope of the data breach and actions taken.
What third parties we receive data from
We do not receive data from third parties for our marketing campaigns.
What automated decision making and/or profiling we do with user data
We may apply remarketing/retargeting methods while conducting online advertising using Google Facebook and the likes.
The above is conducted by applying various tracking codes into our website in order to track and retarget users based on
By visiting and using this website you are hereby provide your consent for the use of the above means and methods.