הרעלת מודלים והטעיית AI: סיכוני הסייבר החדשים מגיעים לתעשיית הרכב

12 מרץ, 2026

דו"ח חדש של Upstream Security מזהיר כי שילוב הבינה המלאכותית ברכב המחובר פותח וקטורי תקיפה חדשים. ב-2025 זינק מספר מתקפות הסייבר בענף לכ-494 – כמעט פי שניים מהשנה הקודמת.

הבינה המלאכותית הופכת במהירות לטכנולוגיה מרכזית בתעשיית התחבורה. יצרניות רכב וחברות טכנולוגיה משלבות מערכות AI במערכות נהיגה אוטונומיות, במערכות סיוע לנהג, בניהול ציי רכב ובשירותים חכמים בתוך הרכב המחובר לענן. מודלים מתקדמים מאומנים על כמויות עצומות של נתוני נהיגה וחיישנים במטרה לשפר את ביצועי הנהיגה, לייעל תפעול ולפתח שירותי תחבורה חכמים.ואולם לצד היתרונות הטכנולוגיים, הופעת הבינה המלאכותית גם יוצרת שכבת סיכון חדשה.

לפי הדו"ח השנתי של חברת הסייבר לרכב Upstream Security, הממפה את איומי הסייבר בתעשיית הרכב והניידות החכמה, השילוב המואץ של בינה מלאכותית במערכות תחבורה פותח שורה של וקטורי תקיפה חדשים. הדו"ח מתבסס על ניתוח של 494 תקריות סייבר פומביות שתועדו ב-2025, כחלק ממאגר של 2,371 אירועים מאז 2010, לצד מודיעין שנאסף ממקורות ברשת העמוקה והאפלה ומעקב אחר פעילות של כ-1,996 גורמי תקיפה בתחום.

אחד האיומים המרכזיים הוא מתקפות מסוג Prompt Injection, שבהן תוקף מזין למערכת AI קלט שנועד להטעות את המודל. לפי הדוח, הסיכון רלוונטי במיוחד למערכות בינה מלאכותית המשולבות בשירותי ענן, באפליקציות רכב ובמערכות שירות ללקוחות – כלומר מערכות שמקבלות קלט טקסטואלי או קולי מהמשתמשים או ממערכות אחרות. במקרים כאלה תוקפים יכולים להזין קלט זדוני שנועד להטעות את המודל ולגרום לו לבצע פעולה שלא תוכננה, לעקוף מנגנוני הרשאה או לחשוף מידע רגיש.

הדוח מתייחס גם לסיכוני AI נוספים, ובהם הרעלת נתוני אימון, חשיפת מידע רגיש ומניפולציה של מודלים. החוקרים מציינים כי שילוב מודלי שפה ומערכות AI בשירותי תחבורה יוצר נקודות חולשה חדשות, וכותבים כי “מודלי שפה גדולים משולבים כיום בפיתוח, בתפעול ובשירותים הפונים ללקוחות בתחום הניידות – ובכך יוצרים פגיעויות חדשות”. נקודת התורפה אינה נמצאת רק בשלב השימוש במודל, אלא גם לאורך מחזור החיים שלו.

למשל, התוקפים מנסים להרעיל את נתוני האימון של המודלים באמצעות החדרת מידע זדוני למאגרי הנתונים, או באמצעות חדירה למערכות חיצוניות או לספקי צד שלישי המספקים את הנתונים. סיכונים נוספים כוללים חשיפת מידע רגיש דרך מודלים המחוברים למערכות ארגוניות, מניפולציה של מודלים באמצעות קלטים מתוחכמים, ואף מתקפות שמטרתן לשבש את פעילות המודל עצמו. במערכות תחבורה מקושרות שבהן מודלי AI פועלים לצד שירותי ענן, API ומערכות תפעול, חולשה באחד מהרכיבים הללו עלולה להפוך לנקודת חדירה רחבה יותר למערכות הרכב והניידות.

סיכון נוסף קשור לאקוסיסטם הרחב שבו פועלות מערכות הבינה המלאכותית. מערכות רבות מבוססות על שירותי ענן וממשקי תוכנה, ולכן פריצה לשירות אחד עלולה להשפיע על מערכות נוספות. הדו"ח מזהיר כי אימוץ שירותי AI של צד שלישי “מכניס סיכונים חדשים לשרשרת האספקה”, מכיוון שחולשה אצל ספק חיצוני עלולה להשפיע על מערכות הרכב של יצרנים שונים.

פי 2 יותר תקיפות בעולם הרכב

החשש הזה מתחזק לנוכח הנתונים הרחבים יותר על איומי הסייבר בענף. לפי הדו"ח, בשנת 2025 תועדו 494 תקריות סייבר פומביות בתחום הרכב והניידות החכמה – כמעט כפול ממספרם ב-2024 – כחלק ממאגר של יותר מ-2,300 אירועים שתועדו מאז 2010. מתקפות כופר הפכו לאיום מרכזי בענף, כאשר 44% מהאירועים קשורים לנוזקות כופר המופעלות לעיתים על-ידי קבוצות פשע מאורגנות.

עוד עולה מהדו"ח שמרבית המתקפות אינן דורשות גישה פיזית לרכב: 92% מהאירועים מתבצעים מרחוק באמצעות האינטרנט או רשתות תקשורת, ורובם מכוונים לתשתיות הדיגיטליות שמסביב לרכב. למעשה, נקודות התקיפה המרכזיות הן מערכות הענן וה-API המחברות את הרכב לשירותים חיצוניים. החוקרים מדגישים שבמערכות תחבורה מקושרות, “שרתי backend וממשקי ה-API הן נקודת החשיפה המרכזיות”.

גם סוגי הנזק משתנים. דליפות מידע הפכו להשפעה הנפוצה ביותר של מתקפות סייבר בתחום התחבורה, והן מהוות 68% מהאירועים. לצד זאת נרשמות גם מתקפות שמטרתן שיבוש שירותים, שליטה במערכות או הונאה דיגיטלית. המסקנה העולה מהדוח היא כי ככל שהבינה המלאכותית הופכת לחלק מרכזי יותר ממערכות התחבורה, כך גם גבולות הסייבר של הרכב מתרחבים. ההגנה כבר אינה יכולה להתמקד רק במערכות האלקטרוניות שבתוך הרכב עצמו, אלא חייבת לכלול את כל האקוסיסטם – שירותי הענן, ממשקי התוכנה ומערכות הבינה המלאכותית שמפעילות חלק הולך וגדל מתשתיות התחבורה המודרניות.

[מקור תמונה ראשית: אפסטרים]

Share via Whatsapp

פורסם בקטגוריות: Automotive , אבטחת סייבר , בינה מלאכותית , חדשות

פורסם בתגיות: AI , סייבר , רכב