Cyata חשפה חולשה ב-LangChain שמסכנת סוכני בינה מלאכותית

חברת הסייבר הישראלית Cyata חשפה חולשת אבטחה קריטית ברכיב langchain-core, אחד המרכיבים הבסיסיים והנפוצים ביותר באקוסיסטם של סוכני בינה מלאכותית. החולשה, שקיבלה את המזהה CVE-2025-68664 ודורגה בציון חומרה גבוה במיוחד של CVSS 9.3, מאפשרת במצבים מסוימים דליפה של סודות רגישים – ובהם מפתחות API, טוקנים ופרטי התחברות – ואף הפעלה לא רצויה של רכיבי קוד, וכל זאת דרך מנגנון שנחשב עד היום בטוח יחסית: מנגנון הסריאליזציה.

LangChain היא אחת מספריות הקוד המרכזיות בעולם ה-Agents, ומשמשת מפתחים לבניית סוכני AI שמבצעים משימות מורכבות, מתחברים לשירותים חיצוניים, שומרים זיכרון ומתפקדים כמעין “עובדים דיגיטליים”. רכיב langchain-core הוא שכבת היסוד של הספרייה, האחראית על ייצוג האובייקטים, ניהול מבני הנתונים והאופן שבו סוכנים, כלים וזיכרונות עוברים בין רכיבי המערכת ונטענים מחדש. לפי נתוני טלמטריה ציבוריים, langchain-core לבדו צבר מאות מיליוני הורדות, בעוד חבילת LangChain המלאה נרשמת בעשרות מיליוני הורדות בחודש, נתון שממחיש את היקף החשיפה הפוטנציאלי של החולשה.

הבעיה שזיהו חוקרי Cyata נובעת מכשל בטיפול בתהליך הסריאליזציה – התהליך שבו אובייקטים בזיכרון, כמו סוכנים, כלים או מבני נתונים, מומרִים לייצוג נתונים פשוט לצורך שמירה, העברה או שיתוף בין רכיבי מערכת שונים. דה־סריאליזציה היא התהליך ההפוך, שבו אותו ייצוג נתונים נטען מחדש והופך שוב לאובייקט פעיל בקוד. בעוד שרוב חולשות האבטחה המוכרות מתגלות דווקא בשלב הטעינה מחדש, במקרה הזה נקודת התורפה נוצרת כבר בזמן יצירת הנתונים עצמם, כלומר בשלב שבו הם נכתבים החוצה ונשמרים. באמצעות מניפולציה על מפתח פנימי בשם lc, תוקף יכול לגרום לכך שנתון שנשמר כמידע רגיל יפורש בהמשך כאובייקט לגיטימי של LangChain בעת טעינה מחדש. המשמעות היא שכאשר הנתון נטען חזרה למערכת, הוא אינו נתפס כמידע פסיבי אלא כישות פעילה, עם גישה להקשר שבו רץ הסוכן.

בתרחישים נפוצים של עבודה עם סוכני AI, שבהם נתונים נשמרים בזיכרון, מועברים בין סוכנים או נטענים מחדש כחלק מזרימות עבודה אוטומטיות, החולשה עשויה לאפשר שליפה של משתני סביבה רגישים מתוך הפרוסס עצמו – כלומר ערכים שמוזנים לאפליקציה בזמן הריצה ומשמשים לאחסון מפתחות API, טוקנים ופרטי התחברות לשירותים חיצוניים. מאחר שסוכני AI פועלים לעיתים קרובות עם הרשאות רחבות לשירותי ענן, בסיסי נתונים ומערכות ארגוניות, ולעיתים גם מחוברים לכספות סודות שמרכזות ומספקות אישורים רגישים לפי דרישה, דליפה כזו עלולה להרחיב משמעותית את היקף הפגיעה. במקרים מסוימים, לפי הדיווח, ניתן אף לגרום להפעלה של מחלקות קוד מתוך מרחב השמות של הפרויקט – כלומר רכיבי תוכנה זמינים בסביבת הריצה של LangChain – באופן שמוביל לתופעות לוואי לא צפויות ומשנה את התנהגות הסוכן כבר בשלב טעינת הנתונים.

לדברי ירדן פורת, חוקר האבטחה ב-Cyata שגילה את החולשה, הייחודיות של הממצא טמונה בכך שהוא מערער על הנחת יסוד רווחת בקרב מפתחים. “מה שהופך את הממצא הזה לחריג הוא שהוא מתחיל דווקא במסלול הסריאליזציה, לא במסלול הדה-סריאליזציה,” אמר. בעוד שדה-סריאליזציה נתפסת מזה שנים כנקודת סיכון מוכרת, סריאליזציה נחשבת לרוב לפעולה “בטוחה”, משום שהנתונים כביכול יוצאים מהמערכת. אלא שבעולם של סוכני AI וזרימות אירועים מתמשכות, הדגיש פורת, “זו הנחה שכבר לא מחזיקה – מה שיוצא יכול לחזור פנימה כשהוא עטוף בזהות אחרת.”

החומרה של הממצא באה לידי ביטוי גם בתגובת קהילת הפיתוח של LangChain, שהעניקה לחוקרים פרס באונטי בסך 4,000 דולר – הגבוה ביותר שחולק אי פעם במסגרת הפרויקט. Cyata ממליצה לארגונים ולמפתחים המשתמשים ב-LangChain לעדכן בהקדם לגרסאות המתוקנות של הרכיב, ולהחיל עקרונות של צמצום הרשאות וברירות מחדל מחמירות עבור סוכני AI.

שחר טל, מנכ״ל ומייסד-שותף ב-Cyata, מסר כי ארגונים חייבים להתייחס לסוכני AI כאל ישויות תפעוליות לכל דבר, ולא רק כקוד. לדבריו, “כשמדובר בעובדי AI, השאלה המרכזית היא לא רק איזה קוד רץ, אלא עם אילו הרשאות זה רץ ומה יכול להשתבש.” בעולם שבו סוכני AI מחזיקים בגישה רחבה למערכות ולנתונים, הוסיף טל, תכנון אבטחה נכון חייב לאפשר לא רק זיהוי ותיקון מהיר, אלא גם ברירות מחדל חכמות שמגבילות מראש את היקף הנזק האפשרי.

[בתמונה למעלה: מייסדי סיאטה. קרדיט: אריק סולטן]

Boomi דוחפת את ה-Agentic AI לפרודקשן: שכבת ניהול לסוכנים אוטונומיים בארגון

[בתמונה: מנכ"ל Boomi, סטיב לוקאס. קרדיט: יח"צ]

Boomi, חברת תוכנה אמריקאית ותיקה הפועלת בתחום האוטומציה והאינטגרציה הארגונית, מרחיבה את פעילותה לעולמות ה-Agentic AI ומנסה למצב את עצמה כאחת השחקניות המרכזיות בניהול מערכות מרובות סוכנים בארגונים גדולים. החברה הודיעה כי פלטפורמת Agentstudio שלה, שהושקה מוקדם יותר השנה, כבר משמשת מאות ארגונים בסביבות פרודקשן – נתון המעיד על מעבר הדרגתי של טכנולוגיות AI אוטונומיות משלב הניסוי לשימוש תפעולי בפועל.

Boomi מוכרת בעיקר כספקית iPaaS (Integration Platform as a Service) – תחום המתמקד בחיבור מערכות, יישומים ונתונים בארגונים מורכבים. לאורך השנים שימשה הפלטפורמה שלה כ"שכבת תווך" בין מערכות ERP, CRM, שירותי ענן ומקורות דאטה שונים. בשנים האחרונות החברה משלבת יכולות AI ואוטומציה מתקדמות, וכעת מרחיבה אותן גם לניהול סוכנים חכמים הפועלים באופן אוטונומי.

לדברי החברה, יותר מ-50 אלף סוכני AI נבנו והופעלו באמצעות הפלטפורמה שלה, בעיקר למשימות של אוטומציה תהליכית, קבלת החלטות בזמן אמת ותיאום בין מערכות שונות. Agentstudio נועדה לשמש כשכבת שליטה ובקרה – עם כלים לניטור, ניהול מחזור חיים, תיעוד וזיהוי חריגות – במטרה לאפשר לארגונים להפעיל סוכנים אוטונומיים מבלי לפגוע באבטחה, רגולציה או יציבות תפעולית.

המהלך של Boomi משתלב במגמה רחבה יותר בשוק הארגוני, שבה ארגונים מחפשים דרכים ליישם בינה מלאכותית מעבר לצ’אטבוטים או ניתוח נתונים, ולעבור למערכות שפועלות, מגיבות ומקבלות החלטות בעצמן. לפי תחזיות אנליסטים שצוטטו על ידי החברה, עד 2027 כמחצית מהארגונים הגדולים צפויים להפעיל מערכות מבוססות ריבוי סוכנים לניהול תהליכים וזרימות החלטה.

לישראל יש נוכחות מסוימת באסטרטגיה הזו. Boomi חיזקה בשנה האחרונה את פעילותה המקומית בעקבות רכישת חברת Rivery הישראלית, המתמחה באוטומציית דאטה. בנוסף, חברות ישראליות פועלות בתחומים משיקים כמו orchestration מאובטח, קבלת החלטות קונטקסטואלית ואוטומציה אדפטיבית – תחומים הנחשבים לאבני יסוד בהטמעה בטוחה של Agentic AI בארגונים.

עם זאת, השוק עדיין מצוי בשלב מוקדם יחסית. למרות הנתונים שמציגה Boomi, ארגונים רבים מתמודדים עם שאלות פתוחות סביב אחריות, אמון ובקרה על מערכות אוטונומיות, במיוחד כאשר מדובר בקבלת החלטות בעלות השלכות עסקיות או רגולטוריות. במובן זה, הניסיון של Boomi למנף את ניסיונה הרב בניהול תשתיות ארגוניות עשוי להעניק לה יתרון – אך הצלחת הגישה תיבחן ביכולת להוכיח יציבות, סקייל ואמון לאורך זמן.

סייבר 2026: סוכני AI יוצאים משליטה, והאדם הוא החוליה החלשה

דו"ח תחזיות הסייבר של חברת הסייבר סייברארק (CyberArk) לשנת 2026 מציג מציאות מאתגרת במיוחד, כזו שבה הטכנולוגיה רצה קדימה מהר יותר מיכולתם של אנשים וארגונים להדביק את הקצב. במרכזו עומדת נקודת מפנה דרמטית בתחום אבטחת הזהויות, שמוגדרת כמרכיב הקריטי ביותר בשמירה על רציפות עסקית בעידן שבו זהויות מכונה מתרבות במהירות, תעודות גישה מתקצרות, ומערכות מבוזרות פותחות פתח לשיבושים חדשים.

לפי סייברארק, הזהות – אנושית או מכונתית – תהפוך בשנה הקרובה לקו הבקרה האחרון של ארגונים. מספר עצום של סוכני AI אוטונומיים מתחברים למערכות קריטיות באמצעות פרוטוקולים דוגמת MCP, לעיתים ללא ידע מספק בניהול הרשאות, והדבר יוצר סכנה של סוכנים “יוצאים משליטה” שמבצעים פעולות לא מורשות ומתפשטים בין מערכות. הכשל הבא, מעריכה החברה, לא יגיע מפרצה קלאסית אלא מהתנהגות שגויה של סוכן AI שהוטעה על ידי דליפה, הנחייה זדונית או שורת קוד לא מבוקרת. בעולם כזה, “מתג ההשבתה” האמיתי הוא לא כבל חשמל אלא היכולת לבטל זהות דיגיטלית בתוך שניות ולהחזיר שליטה לתוך הארגון.

גם בחדרי הדירקטוריון יופיעו סוכני AI, לא כתחליף למנהלים אנושיים אלא כ"מועצות צללים" המסייעות בניתוח נתונים ובסימולציות החלטה. השילוב הזה יעניק ל-AI גישה לשכבות המידע העמוקות ביותר של הארגון ויחייב מערך הגנה חדש לניהול זהויות AI עוצמתיות יותר מכל מה שהכרנו.

לצד זאת, סייברארק מזהירה מפני העמקת "פער ה-AI". מרוץ החימוש לחומרה, שבבים ומינרלים בין מעצמות כמו ארה"ב וסין, יחד עם מגבלות יצוא ומכסים, דוחף ארגונים קטנים מחוץ למשחק. העלויות האדירות של תשתיות AI – משרתים שעולים מאות אלפי דולרים ועד שימוש יומי בענן שיכולה להגיע לאלפי דולרים – מקבעות את השליטה בידי הענקיות, שחלקן רוכשות תחנות כוח שלמות כדי להבטיח אספקת חשמל רציפה למרכזי הנתונים שלהן. בעידן כזה, הבטחת ה-AI עלולה להישאר בלתי ממומשת עבור חלק גדול מהשוק.

הדו"ח מתייחס גם לאיום הפוסט-קוונטי. על אף שה־Q-Day עוד רחוק, היכולות הקוונטיות מתקרבות לנקודה שבה ניתן יהיה לפצח RSA 2048, והדבר מאפשר לשחקני מדינה להתחיל לאסוף כעת מידע מוצפן כדי לפענח אותו בעתיד. סייברארק קוראת לארגונים להפסיק להתייחס לכך כתוכנית עתידית ולהתחיל ביישום מיידי של הגנות פוסט-קוונטיות.

אולם החזית המשמעותית ביותר, על פי הדו"ח, היא דווקא אנושית. בינה מלאכותית מקלה על מציאת מידע אך שוחקת את החשיבה הביקורתית, ומייצרת קרקע פוריה לדיסאינפורמציה ולהנדסה חברתית. עובדים משתמשים בכלי AI לא מאושרים כדי לזרז עבודה ויוצרים “בינה מלאכותית בצללים” שמסתירה פעולות מעיני צוותי האבטחה. עומס ההתראות ומנגנוני האימות גורמים לעייפות המובילה להתעלמות מהתרעות קריטיות. ובמקביל, המצוקה הכלכלית הגוברת הופכת כל עובד פוטנציאלית למטרה: לא עוד עובד ממורמר הפועל לבדו, אלא עובד שנענה לפיתוי כספי מצד גורמי פשע מאורגן או מדינות לאום.

מנקודת מבטם של התוקפים, שנת 2026 תהיה שנת "גניבת המפתחות". עוגיות דפדפן יהפכו ליעד מרכזי, משום שהן מאפשרות להתחבר לשירותים מבלי להזין סיסמה או לעבור אימות רב־שלבי. בעולם של מכונות וסוכנים, מפתחות API ואסימוני גישה יהיו “המפתח הראשי” שפותח דלתות מבלי להשאיר עקבות. בתשתיות low-code ו-no-code ימשיכו להתגלות חולשות, והמהנדסים שבונים סוכני AI ייהפכו למטרה בפני עצמם.

לפי סייברארק, המסר הוא ברור: 2026 תהיה השנה שבה מודל האמון הארגוני יאלץ להיבנות מחדש. ההתמודדות כבר אינה טכנית בלבד, אלא משלב לתוכה גורמים כלכליים, חברתיים והתנהגותיים. אבטחת זהויות – של בני אדם, של מכונות ושל סוכני AI – תהפוך למנגנון המרכזי שיקבע את החוסן הארגוני בעידן החדש. כפי שמסכם הדו"ח, אי אפשר לעצור את ההתקדמות, אבל אפשר לשלוט בזהות שמפעילה אותה.

נומה חשפה פרצת אבטחה קריטית בסוכני ה-AI של סיילספורס

[בתמונה: מייסדי נומה: ניב בראון ואלון טרון. צילום: עומר הכהן]

חברת הסייבר הישראלית Noma Security חשפה פרצת אבטחה קריטית בפלטפורמת Agentforce, מערכת סוכני ה-AI האוטונומיים של סיילספורס. החולשה, שכונתה ForcedLeak, קיבלה ציון חומרה קריטי של CVSS 9.4 ותוקנה על ידי סיילספורס לאחר הדיווח. עם זאת, המקרה מדגיש סיכון חדש הנובע מאופן פעולתם של סוכנים אוטונומיים, וכיצד מניפולציות חכמות מצד תוקף זדוני עלולות לגרום לסוכן לבצע פעולות המסכנות את סודיות ותקינות המידע, ובכלל זה דליפת נתונים רגישים.

Agentforce של סיילספורס היא מערכת שמטרתה להאיץ ולפשט את ניהול הלקוחות עבור ארגונים: סוכני ה-AI שלה מנתחים לידים שמתקבלים מטפסי "צור קשר", מייצרים הצעות שיווקיות, מגיבים ללקוחות ומתעדים אינטראקציות בתוך מערכת ניהול הלקוחות (CRM). כדי לבצע את עבודתם הם זקוקים לגישה עמוקה למידע עסקי — פרטי לקוחות, נתוני לידים, סטטוס עסקאות ותיעוד פנימי. לכן כל פרצה שמנצל את אופן הפעולה האוטונומי שלהם עלולה להפוך במהירות לאיום על מאגרי המידע של החברות שמשתמשות בשירות.

באופן מעשי החולשה פעלה כך: התוקף מילא טופס לידים רגיל והטמין בו הוראה מוסווית — מה שנקרא Indirect Prompt Injection — שביקשה מהסוכן לבצע פעולה של טעינת “תמונה” מכתובת חיצונית. ההוראה נוסחה כך שהסוכן, כחלק מטיפול בליד, יצר בקשת רשת שבה הוא כלל בפועל שדות ומידע מתוך מערכת ה-CRM (שמות, פרטי קשר, סיכומי ליד וכדומה) — כלומר המידע הוכנס לתוכן הבקשה או ל-URL שנשלח לשרת החיצוני. כדי שהמערכת תאמין לכתובת זו ולא תחסום אותה, התוקף רכש דומיין ישן שהיה פעם מאומת מול Salesforce (עלות סמלית, למשל כ-5 דולר), וכך הבקשה נתפסה בעיני הסוכן כמקצת מהטיפול התקין בליד במקום כפעולה זדונית.

ברגע שסוכן ה-AI התבקש לסקור את הליד, הוא ביצע אוטומטית את הוראות ה"טיפול" וטעינת המשאב החיצוני, והמידע נשלח לשרת שבשליטת התוקף, ללא לחיצה, אישור או התערבות אנושית.

המידע שהיה עלול להיגנב הוא לא של Salesforce עצמה, אלא של החברות שמשתמשות בשירות — מאגרי הלקוחות והלידים שלהן. זה כולל פרטי קשר של לקוחות ופניות, נתוני שיווק ומכירה, ונתונים פנימיים על מצב עסקאות. במילים פשוטות: חברה שמנסה לאתר לידים דרך טופס מקוון ואוספת אותם ב-CRM שלה — כל המידע הזה עלול היה לזלוג החוצה כתוצאה מההתקפה.

החולשה קיבלה ציון CVSS של 9.4, דרגת חומרה קריטית, והודגמה כאיום חדש: כלי אבטחה ותהליכי ניטור קיימים מתקשים להתמודד עם מטענים מוסתרים שמבוצעים באופן אוטונומי בידי סוכן AI. המקרה ממחיש כי האיום המרכזי אינו עוד “לחיצה על קישור” מצד המשתמש, אלא היכולת של תוקף לבצע מניפולציות חכמות על הסוכן עצמו. הגילוי של נומה מדגיש את הצורך בכללי אבטחה ייעודיים לסוכני AI. זהו אתגר המחייב גישות חדשניות לניטור ולמניעה, כדוגמת הגבלת טעינות חיצוניות, אימות מחמיר של דומיינים ובקרת הרשאות.

Noma Security, שהוקמה בשנת 2023 על ידי ניב בראון ואלון טרון ושגייסה מאז 132 מיליון דולר, מספקת כלי גילוי וניהול סיכוני AI שמטרתם לאפשר לארגונים לאמץ טכנולוגיות חכמות בלי לוותר על רמת אבטחה ועמידה בכללי הקומפליינס.

רוצים להישאר מעודכנים? הירשמו למטה לקבלת הניוזלטר השבועי שלנו

גילת משלבת סוכני AI בניהול רשתות לוויין

חברת גילת רשתות לוויין (Gilat) מפתח תקווה הכריזה על מהלך חדשני בעולם התקשורת הלוויינית: שילוב פרוטוקול MCP – Model Context Protocol – במערכת ניהול הרשתות (NMS) שלה, המאפשר לסוכני בינה מלאכותית להתממשק ישירות למערכות התפעול והבקרה של רשתות תקשורת לווייניות.

MCP הוא סטנדרט חדש בעולם ה-AI, שפותח כדי לאפשר למודלים גדולים ולסוכני AI להתחבר בצורה אחידה, מאובטחת ותקנית למערכות ארגוניות, מקורות נתונים וכלי תוכנה שונים. באמצעותו, ניתן להפוך את המודלים מאינטליגנציה מבודדת לכלי עבודה אינטגרלי בתוך תשתיות חיוניות.

עד כה השימוש ב-MCP התמקד בעיקר בתחומי תוכנה ונתונים, וגילת היא הראשונה בעולם ה־SATCOM שמיישמת את הקונספט החדש ישירות במערכות ניהול רשתות לוויין. האינטגרציה שהציגה החברה יוצרת רכיב חדש בשם NMS-MCP, המשמש כשער בין מערכת הניהול לבין סוכני AI ומבטיח אימות זהות, רישוי, תקשורת מאובטחת ועמידה בתקנים רגולטוריים.

על פי גילת, מודלים מתקדמים כמו GPT-4, GPT-5, GPT-5 mini וכן O3, O4, O4 mini ו-Claude Sonnet 4 זמינים להתממשקות מלאה עם Total-NMS, פלטפורמת ניהול הרשת של החברה.

החברה הציגה שני שימושים מובהקים. הראשון הוא סוכן AI המשולב במרכז תפעול הרשת (NOC), המנטר את תקינות המערכת באופן רציף, מזהה חריגות ואף מפעיל פעולות תיקון יזומות, כגון הפעלה מחדש של שירותים או הקצאת משאבים מחדש. השני הוא סוכן AI לסביבות לוויין מוגדרות תוכנה (SDS), המסוגל להתאים את תצורת הרשת הלוויינית בזמן אמת על פי עומסי תעבורה, סדרי עדיפויות עסקיים והסכמי שירות. בדרך זו ניתן להבטיח ניצול משאבים אופטימלי ושיפור איכות השירות למשתמשי הקצה.

לדברי אהרון מולוקנדוב, סמנכ"ל מו"פ ראשי בגילת, "אנחנו רואים בבינה מלאכותית מכפיל עסקי קריטי עבור הלקוחות שלנו. זה יאפשר חדשנות מהירה וינגיש ללקוחותינו רשתות פשוטות ויעילות יותר לניהול. זהו רק הצעד הראשון במהפכה הבאה שלנו".

המהלך של גילת מציב אותה בחזית שילוב הבינה המלאכותית בתשתיות תקשורת לווייניות, וממחיש כיצד סטנדרטים חדשים מעולם ה-AI יכולים לשנות מן היסוד את הדרך שבה מנוהלות מערכות קריטיות של SATCOM. השימוש ב-MCP הופך את סוכני ה-AI משכבת שירות חיצונית לחלק אורגני במערכת, ובכך מסמן את תחילת עידן הניהול האוטונומי ברשתות לוויין.

אנבידיה השיקה מודלי הסקה לסוכני AI, שפותחו בישראל

חברת אנבידיה (Nvidia) הכריזה על שני מודלי הסקה חדשים ייעודיים לסוכני AI. שני המודלים, Nano 2 ו-Llama Nemotron Super 1.5, הם חלק ממשפחת מודלי ההסקה Nemotron של אנבידיה, והם פותחו בין היתר במרכז הפיתוח של אנבידיה בישראל. זו הפעם הראשונה שאנבידיה חושפת פעילות מו"פ בישראל בתחום מודלי AI.

המודלים נבנו במיוחד להפעלת סוכני AI, מערכות אוטונומיות המבצעות משימות מורכבות ורב־שלביות, והם שונים ממודלי ההסקה המוכרים מעולם הצ’אטבוטים. בעוד שמודלי הסקה לשיחה מתמקדים בניהול דיאלוג טבעי, מודלי ההסקה החדשים מותאמים לביצוע מהיר, חסכוני ומדויק של רצפים ארוכים של פעולות – מתכנון והחלטה, דרך הפעלת כלים חיצוניים ועד בדיקת תוצאות – כפי שנדרש בסוכני AI.

Nemotron Nano 2 מציע גרסה קומפקטית להרצה על התקני קצה כמו רובוטים או מצלמות חכמות, ואילו Llama Nemotron Super 1.5, המבוסס על שדרוג של מודל LLaMA של מטא, מיועד למשימות חישוביות כבדות בסביבות עתירות נתונים.

היעילות של המודלים מאפשרת לארגונים לשלב סוכני AI בקנה מידה רחב מבלי להכביד על עלויות המחשוב. בין המשתמשים בטכנולוגיה כבר כיום ניתן למנות את CrowdStrike, Uber, Zoom, EY ואמדוקס הישראלית, בפרויקטים של אוטומציה, שירות לקוחות, לוגיסטיקה וניטור איומים בזמן אמת.

לצד Nemotron, הציגה אנבידיה את Cosmos Reason – מודל ויזואלי-שפתי (VLM) בעל יכולות הסקה פיזיקליות. המודל נועד לאפשר למכונות להבין את העולם הפיזי באופן הדומה לתפיסה אנושית: לזהות חפצים, להבין את מיקומם היחסי, להעריך מרחקים, לזהות תנועה, ולפרש אינטראקציות בין עצמים. הוא משלב בין ניתוח תמונה ווידאו לבין הבנת שפה, כך שניתן "לשאול" אותו על סצנה ולקבל ניתוח מדויק, או להורות לו לבצע פעולה בהתאם למתרחש בזמן אמת.

השילוב בין Nemotron ל-Cosmos Reason מעניק לסוכן AI יכולת פעולה מלאה בעולם האמיתי: Nemotron מספק את "המוח", כלומר תכנון, חישוב, לוגיקה וקבלת החלטות, בעוד Cosmos Reason מספק את "החושים" – ראייה, הבנה מרחבית והסקה פיזיקלית. יחד הם מאפשרים לסוכן לא רק לחשוב אלא גם לראות, להבין ולפעול, לדוגמה ברובוט תעשייתי שיכול לזהות תקלה, לתכנן את דרך התיקון, ולהוציא אותה לפועל באופן אוטונומי לחלוטין.