מעבר מניסויים למציאות: תחזיות ה-AI של Boomi לשנת 2026

בתמונה ךמעלה: אן מאיה, CTO של Boomi,לאזור EMEA. קרדיט: Boomi

אחרי שנתיים של התלהבות ראשונית, ניסויים אינטנסיביים ופרויקטי פיילוט אינסופיים – 2026 מסתמנת כשנה שבה הבינה המלאכותית עוברת סוף-סוף משלב ההבטחות לשלב המימוש. ארגונים ברחבי העולם כבר מבינים שהשאלה אינה האם לאמץ AI, אלא איך להטמיע אותו בליבת הפעילות העסקית בצורה חכמה, בטוחה ומדידה.

לפי Boomi, ספקית של פתרונות אינטגרציה ואוטומציה, השנה הקרובה תתאפיין בשינוי תפיסתי עמוק: מעבר לאוטומציה אג’נטית, דרישה גוברת להסבריות ולממשל נתונים, ושימוש בתשתיות Low-Code כדי להפוך את ה-AI למנוע תפעולי אמיתי. ארבע התחזיות הבאות משרטטות את מפת הדרכים הטכנולוגית והארגונית של 2026.

תחזית 1: Software 3.0 עובר מקונספט למציאות בארגונים

אן מאיה, CTO לאזור EMEA, Boomi

בשנת 2026 נראה את המעבר המשמעותי הראשון לעידן שמוגדר כ-Software 3.0 – עידן שבו שפת הקידוד החדשה היא אנגלית, ויכולות ה-backend מופעלות באמצעות סוכני AI. ככל שפרוטוקולים כמו MCP, A2A, ACP ו-ACN יהפכו לדומיננטיים יותר, ארגונים יוכלו לשלב רכיבי תוכנה בקלות רבה מאי פעם. עבור ארגונים גדולים, אינטגרציה מונחית-AI בסביבות Low-Code תהפוך לתשתית חיונית המחברת בין מערכות חדשות וישנות.

בשנה הקרובה, החזר השקעה (ROI) אמיתי יגיע מארגונים שישקיעו בתכנון מחדש של תהליכים עסקיים כך ש-AI יתמוך בשלבים שבהם הוא מייצר את הערך הגבוה ביותר – ולא ייושם באופן תגובתי או ניסיוני. פלטפורמות אינטגרציה ב-Low-Code יאפשרו לארגונים לנהל בצורה יעילה APIs, נתונים עסקיים מהימנים ותהליכי עבודה מבוססי חוקים – לצד סוכני AI.

כך ייווצר מודל תפעולי חדש: AI יטפל במשימות מורכבות ועתירות עבודה במסגרת גבולות ברורים, בעוד שתהליכים דטרמיניסטיים יספקו את השקיפות והשליטה הנדרשות לאמינות ארגונית. כתוצאה מכך, 2026 תהיה השנה שבה ארגונים יעברו מניסויים בפיצ’רי AI לבניית תהליכים עסקיים המונעים על ידי AI. ארגונים שיאמצו גישה זו יהפכו לגמישים ויעילים יותר, וימוצבו טוב יותר לחדשנות – ככל ש-Software 3.0 יהפוך לסטנדרט.

תחזית 2 : השנה שבה AI חייב להיות ניתן להסבר

בשנת 2026 מסגרות רגולציה מרכזיות בתחום ה-AI יעברו משלב התיאוריה לשלב היישום בפועל, ובראשן חוק ה-AI של האיחוד האירופי וחוק השימוש והגישה לנתונים בבריטניה. במקביל, ארגונים רבים באזור EMEA ינסו להעביר פרויקטי פיילוט של AI ג’נרטיבי לסביבות ייצור. השילוב הזה יוביל להתמקדות גוברת בהערכת סיכונים, עקיבות, איכות נתונים ויכולת להבין ולנטר כיצד AI פועל בתוך הארגון. ככל שהציפיות יעלו, ארגונים יזנחו כלי ממשל מיושנים ונוקשים ויעברו לגישה דינמית ומבוססת נתונים.

גישה זו כוללת יכולות תצפית (observability) בזמן אמת על נתונים ו-APIs, אכיפת מדיניות בזמן ריצה בהתאם לשינויים, וממשל פדרטיבי שמבטיח יישום עקבי של כללי עסק ודרישות רגולציה בין דומיינים שונים. יכולות אלו יוצרות תשתית נתונים מהימנה הנדרשת כדי שסוכני AI יוכלו לבצע משימות באופן בטוח ואחראי – תנאי הכרחי להפיכת AI למנוע צמיחה ארגוני אמיתי.

תחזית 3: המנצחים יהיו מפעילי ה-AI – לא רק המשקיעים בו

סטיב לוקאס, יו״ר ומנכ״ל Boomi

כבר ברור לחלוטין שהעולם השתנה. שלוש שנים לאחר השקת ChatGPT של OpenAI, שהציתה שינוי גלובלי, AI כבר אינו רק כותרת אלא צורך אסטרטגי ברמת הדירקטוריון. אמון המשקיעים נותר גבוה: לפי IDC, ההוצאה העולמית על AI צפויה לעבור את רף 500 מיליארד הדולר עד 2027. אך אופטימיות לבדה אינה מייצרת תוצאות. האתגר האמיתי של 2026 יהיה לתרגם את הניסויים והפיילוטים שבוצעו ב-2025 לערך תפעולי ממשי.

כדי להפעיל AI באמת, ארגונים חייבים להתקדם מעבר למודלים מבודדים ולשלב AI במערכות הליבה שלהם, בנתונים מהימנים ובתהליכי עבודה אמיתיים. כאן נכנסת לתמונה האוטומציה האג’נטית (Agentic Automation). לא מדובר בהטמעת AI לשם החידוש, אלא ביכולת לאפשר לסוכנים חכמים לשתף פעולה, להסיק מסקנות ולפעול בהקשר מבוקר. בשנת 2026, החברות שיתקדמו קדימה יהיו אלו שיעבירו את המיקוד מהוכחת היתכנות לאסטרטגיית פלטפורמה, ויציעו AI מתוזמר, מאובטח וסקיילבילי המוטמע בליבת הארגון. אלו יהיו החברות שיובילו את העידן החדש.

תחזית 4: עולם עסקים אוטומטי

בשנת 2026 היתרון התחרותי לא ינבע רק מאוטומציה מהירה יותר – אלא מניהול חכם יותר. אנו נכנסים לעידן האוטומציה האג’נטית, שבו סוכני AI אינם רק מבצעים הוראות, אלא משתפים פעולה, מסיקים מסקנות ומתאימים את עצמם בזמן אמת כדי להאיץ קבלת החלטות והשגת תוצאות. לפי IDC, כ-85% מהארגונים יאמצו סוכני AI עד סוף 2025, ואלו שידעו להפעיל אותם באופן אפקטיבי יובילו בגמישות, בחוסן ובחדשנות. עם זאת, מימוש הפוטנציאל הזה דורש יותר מ-AI בלבד. הוא מחייב תשתית מאוחדת שבה נתונים, יישומים וסוכנים פועלים יחד בצורה חלקה ומאובטחת. רק כך ניתן להפוך את ה-AI מכלי טקטי ליתרון אסטרטגי אמיתי.

Cyata חשפה חולשה ב-LangChain שמסכנת סוכני בינה מלאכותית

חברת הסייבר הישראלית Cyata חשפה חולשת אבטחה קריטית ברכיב langchain-core, אחד המרכיבים הבסיסיים והנפוצים ביותר באקוסיסטם של סוכני בינה מלאכותית. החולשה, שקיבלה את המזהה CVE-2025-68664 ודורגה בציון חומרה גבוה במיוחד של CVSS 9.3, מאפשרת במצבים מסוימים דליפה של סודות רגישים – ובהם מפתחות API, טוקנים ופרטי התחברות – ואף הפעלה לא רצויה של רכיבי קוד, וכל זאת דרך מנגנון שנחשב עד היום בטוח יחסית: מנגנון הסריאליזציה.

LangChain היא אחת מספריות הקוד המרכזיות בעולם ה-Agents, ומשמשת מפתחים לבניית סוכני AI שמבצעים משימות מורכבות, מתחברים לשירותים חיצוניים, שומרים זיכרון ומתפקדים כמעין “עובדים דיגיטליים”. רכיב langchain-core הוא שכבת היסוד של הספרייה, האחראית על ייצוג האובייקטים, ניהול מבני הנתונים והאופן שבו סוכנים, כלים וזיכרונות עוברים בין רכיבי המערכת ונטענים מחדש. לפי נתוני טלמטריה ציבוריים, langchain-core לבדו צבר מאות מיליוני הורדות, בעוד חבילת LangChain המלאה נרשמת בעשרות מיליוני הורדות בחודש, נתון שממחיש את היקף החשיפה הפוטנציאלי של החולשה.

הבעיה שזיהו חוקרי Cyata נובעת מכשל בטיפול בתהליך הסריאליזציה – התהליך שבו אובייקטים בזיכרון, כמו סוכנים, כלים או מבני נתונים, מומרִים לייצוג נתונים פשוט לצורך שמירה, העברה או שיתוף בין רכיבי מערכת שונים. דה־סריאליזציה היא התהליך ההפוך, שבו אותו ייצוג נתונים נטען מחדש והופך שוב לאובייקט פעיל בקוד. בעוד שרוב חולשות האבטחה המוכרות מתגלות דווקא בשלב הטעינה מחדש, במקרה הזה נקודת התורפה נוצרת כבר בזמן יצירת הנתונים עצמם, כלומר בשלב שבו הם נכתבים החוצה ונשמרים. באמצעות מניפולציה על מפתח פנימי בשם lc, תוקף יכול לגרום לכך שנתון שנשמר כמידע רגיל יפורש בהמשך כאובייקט לגיטימי של LangChain בעת טעינה מחדש. המשמעות היא שכאשר הנתון נטען חזרה למערכת, הוא אינו נתפס כמידע פסיבי אלא כישות פעילה, עם גישה להקשר שבו רץ הסוכן.

בתרחישים נפוצים של עבודה עם סוכני AI, שבהם נתונים נשמרים בזיכרון, מועברים בין סוכנים או נטענים מחדש כחלק מזרימות עבודה אוטומטיות, החולשה עשויה לאפשר שליפה של משתני סביבה רגישים מתוך הפרוסס עצמו – כלומר ערכים שמוזנים לאפליקציה בזמן הריצה ומשמשים לאחסון מפתחות API, טוקנים ופרטי התחברות לשירותים חיצוניים. מאחר שסוכני AI פועלים לעיתים קרובות עם הרשאות רחבות לשירותי ענן, בסיסי נתונים ומערכות ארגוניות, ולעיתים גם מחוברים לכספות סודות שמרכזות ומספקות אישורים רגישים לפי דרישה, דליפה כזו עלולה להרחיב משמעותית את היקף הפגיעה. במקרים מסוימים, לפי הדיווח, ניתן אף לגרום להפעלה של מחלקות קוד מתוך מרחב השמות של הפרויקט – כלומר רכיבי תוכנה זמינים בסביבת הריצה של LangChain – באופן שמוביל לתופעות לוואי לא צפויות ומשנה את התנהגות הסוכן כבר בשלב טעינת הנתונים.

לדברי ירדן פורת, חוקר האבטחה ב-Cyata שגילה את החולשה, הייחודיות של הממצא טמונה בכך שהוא מערער על הנחת יסוד רווחת בקרב מפתחים. “מה שהופך את הממצא הזה לחריג הוא שהוא מתחיל דווקא במסלול הסריאליזציה, לא במסלול הדה-סריאליזציה,” אמר. בעוד שדה-סריאליזציה נתפסת מזה שנים כנקודת סיכון מוכרת, סריאליזציה נחשבת לרוב לפעולה “בטוחה”, משום שהנתונים כביכול יוצאים מהמערכת. אלא שבעולם של סוכני AI וזרימות אירועים מתמשכות, הדגיש פורת, “זו הנחה שכבר לא מחזיקה – מה שיוצא יכול לחזור פנימה כשהוא עטוף בזהות אחרת.”

החומרה של הממצא באה לידי ביטוי גם בתגובת קהילת הפיתוח של LangChain, שהעניקה לחוקרים פרס באונטי בסך 4,000 דולר – הגבוה ביותר שחולק אי פעם במסגרת הפרויקט. Cyata ממליצה לארגונים ולמפתחים המשתמשים ב-LangChain לעדכן בהקדם לגרסאות המתוקנות של הרכיב, ולהחיל עקרונות של צמצום הרשאות וברירות מחדל מחמירות עבור סוכני AI.

שחר טל, מנכ״ל ומייסד-שותף ב-Cyata, מסר כי ארגונים חייבים להתייחס לסוכני AI כאל ישויות תפעוליות לכל דבר, ולא רק כקוד. לדבריו, “כשמדובר בעובדי AI, השאלה המרכזית היא לא רק איזה קוד רץ, אלא עם אילו הרשאות זה רץ ומה יכול להשתבש.” בעולם שבו סוכני AI מחזיקים בגישה רחבה למערכות ולנתונים, הוסיף טל, תכנון אבטחה נכון חייב לאפשר לא רק זיהוי ותיקון מהיר, אלא גם ברירות מחדל חכמות שמגבילות מראש את היקף הנזק האפשרי.

[בתמונה למעלה: מייסדי סיאטה. קרדיט: אריק סולטן]

Boomi דוחפת את ה-Agentic AI לפרודקשן: שכבת ניהול לסוכנים אוטונומיים בארגון

[בתמונה: מנכ"ל Boomi, סטיב לוקאס. קרדיט: יח"צ]

Boomi, חברת תוכנה אמריקאית ותיקה הפועלת בתחום האוטומציה והאינטגרציה הארגונית, מרחיבה את פעילותה לעולמות ה-Agentic AI ומנסה למצב את עצמה כאחת השחקניות המרכזיות בניהול מערכות מרובות סוכנים בארגונים גדולים. החברה הודיעה כי פלטפורמת Agentstudio שלה, שהושקה מוקדם יותר השנה, כבר משמשת מאות ארגונים בסביבות פרודקשן – נתון המעיד על מעבר הדרגתי של טכנולוגיות AI אוטונומיות משלב הניסוי לשימוש תפעולי בפועל.

Boomi מוכרת בעיקר כספקית iPaaS (Integration Platform as a Service) – תחום המתמקד בחיבור מערכות, יישומים ונתונים בארגונים מורכבים. לאורך השנים שימשה הפלטפורמה שלה כ"שכבת תווך" בין מערכות ERP, CRM, שירותי ענן ומקורות דאטה שונים. בשנים האחרונות החברה משלבת יכולות AI ואוטומציה מתקדמות, וכעת מרחיבה אותן גם לניהול סוכנים חכמים הפועלים באופן אוטונומי.

לדברי החברה, יותר מ-50 אלף סוכני AI נבנו והופעלו באמצעות הפלטפורמה שלה, בעיקר למשימות של אוטומציה תהליכית, קבלת החלטות בזמן אמת ותיאום בין מערכות שונות. Agentstudio נועדה לשמש כשכבת שליטה ובקרה – עם כלים לניטור, ניהול מחזור חיים, תיעוד וזיהוי חריגות – במטרה לאפשר לארגונים להפעיל סוכנים אוטונומיים מבלי לפגוע באבטחה, רגולציה או יציבות תפעולית.

המהלך של Boomi משתלב במגמה רחבה יותר בשוק הארגוני, שבה ארגונים מחפשים דרכים ליישם בינה מלאכותית מעבר לצ’אטבוטים או ניתוח נתונים, ולעבור למערכות שפועלות, מגיבות ומקבלות החלטות בעצמן. לפי תחזיות אנליסטים שצוטטו על ידי החברה, עד 2027 כמחצית מהארגונים הגדולים צפויים להפעיל מערכות מבוססות ריבוי סוכנים לניהול תהליכים וזרימות החלטה.

לישראל יש נוכחות מסוימת באסטרטגיה הזו. Boomi חיזקה בשנה האחרונה את פעילותה המקומית בעקבות רכישת חברת Rivery הישראלית, המתמחה באוטומציית דאטה. בנוסף, חברות ישראליות פועלות בתחומים משיקים כמו orchestration מאובטח, קבלת החלטות קונטקסטואלית ואוטומציה אדפטיבית – תחומים הנחשבים לאבני יסוד בהטמעה בטוחה של Agentic AI בארגונים.

עם זאת, השוק עדיין מצוי בשלב מוקדם יחסית. למרות הנתונים שמציגה Boomi, ארגונים רבים מתמודדים עם שאלות פתוחות סביב אחריות, אמון ובקרה על מערכות אוטונומיות, במיוחד כאשר מדובר בקבלת החלטות בעלות השלכות עסקיות או רגולטוריות. במובן זה, הניסיון של Boomi למנף את ניסיונה הרב בניהול תשתיות ארגוניות עשוי להעניק לה יתרון – אך הצלחת הגישה תיבחן ביכולת להוכיח יציבות, סקייל ואמון לאורך זמן.

סייבר 2026: סוכני AI יוצאים משליטה, והאדם הוא החוליה החלשה

דו"ח תחזיות הסייבר של חברת הסייבר סייברארק (CyberArk) לשנת 2026 מציג מציאות מאתגרת במיוחד, כזו שבה הטכנולוגיה רצה קדימה מהר יותר מיכולתם של אנשים וארגונים להדביק את הקצב. במרכזו עומדת נקודת מפנה דרמטית בתחום אבטחת הזהויות, שמוגדרת כמרכיב הקריטי ביותר בשמירה על רציפות עסקית בעידן שבו זהויות מכונה מתרבות במהירות, תעודות גישה מתקצרות, ומערכות מבוזרות פותחות פתח לשיבושים חדשים.

לפי סייברארק, הזהות – אנושית או מכונתית – תהפוך בשנה הקרובה לקו הבקרה האחרון של ארגונים. מספר עצום של סוכני AI אוטונומיים מתחברים למערכות קריטיות באמצעות פרוטוקולים דוגמת MCP, לעיתים ללא ידע מספק בניהול הרשאות, והדבר יוצר סכנה של סוכנים “יוצאים משליטה” שמבצעים פעולות לא מורשות ומתפשטים בין מערכות. הכשל הבא, מעריכה החברה, לא יגיע מפרצה קלאסית אלא מהתנהגות שגויה של סוכן AI שהוטעה על ידי דליפה, הנחייה זדונית או שורת קוד לא מבוקרת. בעולם כזה, “מתג ההשבתה” האמיתי הוא לא כבל חשמל אלא היכולת לבטל זהות דיגיטלית בתוך שניות ולהחזיר שליטה לתוך הארגון.

גם בחדרי הדירקטוריון יופיעו סוכני AI, לא כתחליף למנהלים אנושיים אלא כ"מועצות צללים" המסייעות בניתוח נתונים ובסימולציות החלטה. השילוב הזה יעניק ל-AI גישה לשכבות המידע העמוקות ביותר של הארגון ויחייב מערך הגנה חדש לניהול זהויות AI עוצמתיות יותר מכל מה שהכרנו.

לצד זאת, סייברארק מזהירה מפני העמקת "פער ה-AI". מרוץ החימוש לחומרה, שבבים ומינרלים בין מעצמות כמו ארה"ב וסין, יחד עם מגבלות יצוא ומכסים, דוחף ארגונים קטנים מחוץ למשחק. העלויות האדירות של תשתיות AI – משרתים שעולים מאות אלפי דולרים ועד שימוש יומי בענן שיכולה להגיע לאלפי דולרים – מקבעות את השליטה בידי הענקיות, שחלקן רוכשות תחנות כוח שלמות כדי להבטיח אספקת חשמל רציפה למרכזי הנתונים שלהן. בעידן כזה, הבטחת ה-AI עלולה להישאר בלתי ממומשת עבור חלק גדול מהשוק.

הדו"ח מתייחס גם לאיום הפוסט-קוונטי. על אף שה־Q-Day עוד רחוק, היכולות הקוונטיות מתקרבות לנקודה שבה ניתן יהיה לפצח RSA 2048, והדבר מאפשר לשחקני מדינה להתחיל לאסוף כעת מידע מוצפן כדי לפענח אותו בעתיד. סייברארק קוראת לארגונים להפסיק להתייחס לכך כתוכנית עתידית ולהתחיל ביישום מיידי של הגנות פוסט-קוונטיות.

אולם החזית המשמעותית ביותר, על פי הדו"ח, היא דווקא אנושית. בינה מלאכותית מקלה על מציאת מידע אך שוחקת את החשיבה הביקורתית, ומייצרת קרקע פוריה לדיסאינפורמציה ולהנדסה חברתית. עובדים משתמשים בכלי AI לא מאושרים כדי לזרז עבודה ויוצרים “בינה מלאכותית בצללים” שמסתירה פעולות מעיני צוותי האבטחה. עומס ההתראות ומנגנוני האימות גורמים לעייפות המובילה להתעלמות מהתרעות קריטיות. ובמקביל, המצוקה הכלכלית הגוברת הופכת כל עובד פוטנציאלית למטרה: לא עוד עובד ממורמר הפועל לבדו, אלא עובד שנענה לפיתוי כספי מצד גורמי פשע מאורגן או מדינות לאום.

מנקודת מבטם של התוקפים, שנת 2026 תהיה שנת "גניבת המפתחות". עוגיות דפדפן יהפכו ליעד מרכזי, משום שהן מאפשרות להתחבר לשירותים מבלי להזין סיסמה או לעבור אימות רב־שלבי. בעולם של מכונות וסוכנים, מפתחות API ואסימוני גישה יהיו “המפתח הראשי” שפותח דלתות מבלי להשאיר עקבות. בתשתיות low-code ו-no-code ימשיכו להתגלות חולשות, והמהנדסים שבונים סוכני AI ייהפכו למטרה בפני עצמם.

לפי סייברארק, המסר הוא ברור: 2026 תהיה השנה שבה מודל האמון הארגוני יאלץ להיבנות מחדש. ההתמודדות כבר אינה טכנית בלבד, אלא משלב לתוכה גורמים כלכליים, חברתיים והתנהגותיים. אבטחת זהויות – של בני אדם, של מכונות ושל סוכני AI – תהפוך למנגנון המרכזי שיקבע את החוסן הארגוני בעידן החדש. כפי שמסכם הדו"ח, אי אפשר לעצור את ההתקדמות, אבל אפשר לשלוט בזהות שמפעילה אותה.

נומה חשפה פרצת אבטחה קריטית בסוכני ה-AI של סיילספורס

[בתמונה: מייסדי נומה: ניב בראון ואלון טרון. צילום: עומר הכהן]

חברת הסייבר הישראלית Noma Security חשפה פרצת אבטחה קריטית בפלטפורמת Agentforce, מערכת סוכני ה-AI האוטונומיים של סיילספורס. החולשה, שכונתה ForcedLeak, קיבלה ציון חומרה קריטי של CVSS 9.4 ותוקנה על ידי סיילספורס לאחר הדיווח. עם זאת, המקרה מדגיש סיכון חדש הנובע מאופן פעולתם של סוכנים אוטונומיים, וכיצד מניפולציות חכמות מצד תוקף זדוני עלולות לגרום לסוכן לבצע פעולות המסכנות את סודיות ותקינות המידע, ובכלל זה דליפת נתונים רגישים.

Agentforce של סיילספורס היא מערכת שמטרתה להאיץ ולפשט את ניהול הלקוחות עבור ארגונים: סוכני ה-AI שלה מנתחים לידים שמתקבלים מטפסי "צור קשר", מייצרים הצעות שיווקיות, מגיבים ללקוחות ומתעדים אינטראקציות בתוך מערכת ניהול הלקוחות (CRM). כדי לבצע את עבודתם הם זקוקים לגישה עמוקה למידע עסקי — פרטי לקוחות, נתוני לידים, סטטוס עסקאות ותיעוד פנימי. לכן כל פרצה שמנצל את אופן הפעולה האוטונומי שלהם עלולה להפוך במהירות לאיום על מאגרי המידע של החברות שמשתמשות בשירות.

באופן מעשי החולשה פעלה כך: התוקף מילא טופס לידים רגיל והטמין בו הוראה מוסווית — מה שנקרא Indirect Prompt Injection — שביקשה מהסוכן לבצע פעולה של טעינת “תמונה” מכתובת חיצונית. ההוראה נוסחה כך שהסוכן, כחלק מטיפול בליד, יצר בקשת רשת שבה הוא כלל בפועל שדות ומידע מתוך מערכת ה-CRM (שמות, פרטי קשר, סיכומי ליד וכדומה) — כלומר המידע הוכנס לתוכן הבקשה או ל-URL שנשלח לשרת החיצוני. כדי שהמערכת תאמין לכתובת זו ולא תחסום אותה, התוקף רכש דומיין ישן שהיה פעם מאומת מול Salesforce (עלות סמלית, למשל כ-5 דולר), וכך הבקשה נתפסה בעיני הסוכן כמקצת מהטיפול התקין בליד במקום כפעולה זדונית.

ברגע שסוכן ה-AI התבקש לסקור את הליד, הוא ביצע אוטומטית את הוראות ה"טיפול" וטעינת המשאב החיצוני, והמידע נשלח לשרת שבשליטת התוקף, ללא לחיצה, אישור או התערבות אנושית.

המידע שהיה עלול להיגנב הוא לא של Salesforce עצמה, אלא של החברות שמשתמשות בשירות — מאגרי הלקוחות והלידים שלהן. זה כולל פרטי קשר של לקוחות ופניות, נתוני שיווק ומכירה, ונתונים פנימיים על מצב עסקאות. במילים פשוטות: חברה שמנסה לאתר לידים דרך טופס מקוון ואוספת אותם ב-CRM שלה — כל המידע הזה עלול היה לזלוג החוצה כתוצאה מההתקפה.

החולשה קיבלה ציון CVSS של 9.4, דרגת חומרה קריטית, והודגמה כאיום חדש: כלי אבטחה ותהליכי ניטור קיימים מתקשים להתמודד עם מטענים מוסתרים שמבוצעים באופן אוטונומי בידי סוכן AI. המקרה ממחיש כי האיום המרכזי אינו עוד “לחיצה על קישור” מצד המשתמש, אלא היכולת של תוקף לבצע מניפולציות חכמות על הסוכן עצמו. הגילוי של נומה מדגיש את הצורך בכללי אבטחה ייעודיים לסוכני AI. זהו אתגר המחייב גישות חדשניות לניטור ולמניעה, כדוגמת הגבלת טעינות חיצוניות, אימות מחמיר של דומיינים ובקרת הרשאות.

Noma Security, שהוקמה בשנת 2023 על ידי ניב בראון ואלון טרון ושגייסה מאז 132 מיליון דולר, מספקת כלי גילוי וניהול סיכוני AI שמטרתם לאפשר לארגונים לאמץ טכנולוגיות חכמות בלי לוותר על רמת אבטחה ועמידה בכללי הקומפליינס.

רוצים להישאר מעודכנים? הירשמו למטה לקבלת הניוזלטר השבועי שלנו

גילת משלבת סוכני AI בניהול רשתות לוויין

חברת גילת רשתות לוויין (Gilat) מפתח תקווה הכריזה על מהלך חדשני בעולם התקשורת הלוויינית: שילוב פרוטוקול MCP – Model Context Protocol – במערכת ניהול הרשתות (NMS) שלה, המאפשר לסוכני בינה מלאכותית להתממשק ישירות למערכות התפעול והבקרה של רשתות תקשורת לווייניות.

MCP הוא סטנדרט חדש בעולם ה-AI, שפותח כדי לאפשר למודלים גדולים ולסוכני AI להתחבר בצורה אחידה, מאובטחת ותקנית למערכות ארגוניות, מקורות נתונים וכלי תוכנה שונים. באמצעותו, ניתן להפוך את המודלים מאינטליגנציה מבודדת לכלי עבודה אינטגרלי בתוך תשתיות חיוניות.

עד כה השימוש ב-MCP התמקד בעיקר בתחומי תוכנה ונתונים, וגילת היא הראשונה בעולם ה־SATCOM שמיישמת את הקונספט החדש ישירות במערכות ניהול רשתות לוויין. האינטגרציה שהציגה החברה יוצרת רכיב חדש בשם NMS-MCP, המשמש כשער בין מערכת הניהול לבין סוכני AI ומבטיח אימות זהות, רישוי, תקשורת מאובטחת ועמידה בתקנים רגולטוריים.

על פי גילת, מודלים מתקדמים כמו GPT-4, GPT-5, GPT-5 mini וכן O3, O4, O4 mini ו-Claude Sonnet 4 זמינים להתממשקות מלאה עם Total-NMS, פלטפורמת ניהול הרשת של החברה.

החברה הציגה שני שימושים מובהקים. הראשון הוא סוכן AI המשולב במרכז תפעול הרשת (NOC), המנטר את תקינות המערכת באופן רציף, מזהה חריגות ואף מפעיל פעולות תיקון יזומות, כגון הפעלה מחדש של שירותים או הקצאת משאבים מחדש. השני הוא סוכן AI לסביבות לוויין מוגדרות תוכנה (SDS), המסוגל להתאים את תצורת הרשת הלוויינית בזמן אמת על פי עומסי תעבורה, סדרי עדיפויות עסקיים והסכמי שירות. בדרך זו ניתן להבטיח ניצול משאבים אופטימלי ושיפור איכות השירות למשתמשי הקצה.

לדברי אהרון מולוקנדוב, סמנכ"ל מו"פ ראשי בגילת, "אנחנו רואים בבינה מלאכותית מכפיל עסקי קריטי עבור הלקוחות שלנו. זה יאפשר חדשנות מהירה וינגיש ללקוחותינו רשתות פשוטות ויעילות יותר לניהול. זהו רק הצעד הראשון במהפכה הבאה שלנו".

המהלך של גילת מציב אותה בחזית שילוב הבינה המלאכותית בתשתיות תקשורת לווייניות, וממחיש כיצד סטנדרטים חדשים מעולם ה-AI יכולים לשנות מן היסוד את הדרך שבה מנוהלות מערכות קריטיות של SATCOM. השימוש ב-MCP הופך את סוכני ה-AI משכבת שירות חיצונית לחלק אורגני במערכת, ובכך מסמן את תחילת עידן הניהול האוטונומי ברשתות לוויין.

אנבידיה השיקה מודלי הסקה לסוכני AI, שפותחו בישראל

חברת אנבידיה (Nvidia) הכריזה על שני מודלי הסקה חדשים ייעודיים לסוכני AI. שני המודלים, Nano 2 ו-Llama Nemotron Super 1.5, הם חלק ממשפחת מודלי ההסקה Nemotron של אנבידיה, והם פותחו בין היתר במרכז הפיתוח של אנבידיה בישראל. זו הפעם הראשונה שאנבידיה חושפת פעילות מו"פ בישראל בתחום מודלי AI.

המודלים נבנו במיוחד להפעלת סוכני AI, מערכות אוטונומיות המבצעות משימות מורכבות ורב־שלביות, והם שונים ממודלי ההסקה המוכרים מעולם הצ’אטבוטים. בעוד שמודלי הסקה לשיחה מתמקדים בניהול דיאלוג טבעי, מודלי ההסקה החדשים מותאמים לביצוע מהיר, חסכוני ומדויק של רצפים ארוכים של פעולות – מתכנון והחלטה, דרך הפעלת כלים חיצוניים ועד בדיקת תוצאות – כפי שנדרש בסוכני AI.

Nemotron Nano 2 מציע גרסה קומפקטית להרצה על התקני קצה כמו רובוטים או מצלמות חכמות, ואילו Llama Nemotron Super 1.5, המבוסס על שדרוג של מודל LLaMA של מטא, מיועד למשימות חישוביות כבדות בסביבות עתירות נתונים.

היעילות של המודלים מאפשרת לארגונים לשלב סוכני AI בקנה מידה רחב מבלי להכביד על עלויות המחשוב. בין המשתמשים בטכנולוגיה כבר כיום ניתן למנות את CrowdStrike, Uber, Zoom, EY ואמדוקס הישראלית, בפרויקטים של אוטומציה, שירות לקוחות, לוגיסטיקה וניטור איומים בזמן אמת.

לצד Nemotron, הציגה אנבידיה את Cosmos Reason – מודל ויזואלי-שפתי (VLM) בעל יכולות הסקה פיזיקליות. המודל נועד לאפשר למכונות להבין את העולם הפיזי באופן הדומה לתפיסה אנושית: לזהות חפצים, להבין את מיקומם היחסי, להעריך מרחקים, לזהות תנועה, ולפרש אינטראקציות בין עצמים. הוא משלב בין ניתוח תמונה ווידאו לבין הבנת שפה, כך שניתן "לשאול" אותו על סצנה ולקבל ניתוח מדויק, או להורות לו לבצע פעולה בהתאם למתרחש בזמן אמת.

השילוב בין Nemotron ל-Cosmos Reason מעניק לסוכן AI יכולת פעולה מלאה בעולם האמיתי: Nemotron מספק את "המוח", כלומר תכנון, חישוב, לוגיקה וקבלת החלטות, בעוד Cosmos Reason מספק את "החושים" – ראייה, הבנה מרחבית והסקה פיזיקלית. יחד הם מאפשרים לסוכן לא רק לחשוב אלא גם לראות, להבין ולפעול, לדוגמה ברובוט תעשייתי שיכול לזהות תקלה, לתכנן את דרך התיקון, ולהוציא אותה לפועל באופן אוטונומי לחלוטין.