הפנטגון מאיים על עתיד כוכבת ה-AI הזוהרת ביותר

1 מרץ, 2026

משרד ההגנה הכריז שאנתרופיק מהווה “סיכון לשרשרת האספקה”, יום לפני שצבא ארה"ב השתמש בטכנולוגיה שלה כדי לתקוף את איראן. התיוג החריג הזה מאיים על עתיד חברת ה-AI המבטיחה ביותר בארה"ב

מאת: יוחאי שויגר

ביום שישי האחרון, יממה אחת בלבד לפני פתיחת המתקפה הישראלית אמריקאית נגד איראן, הכריז הפנטגון שהמוצרים של חברת אנתרופיק (Anthropic) האמריקאית שפיתחה את סדרת המודלים הלשוניים הגדולים (LLM) ממשפחת Claude, מהווים “סיכון בשרשרת האספקה”. זוהי הכרזה דרמטית בעולם כלכלת הביטחון האמריקאית, אשר מסוגלת למוטט חברות כמעט ברגע, והפעם מדובר באחת מפלטפורמות ה-AI החשובות בעולם. העיתון וול סטריט ג'ורנל דיווח היום (א'), שהפיקודים האזוריים של צבא ארצות הברית, כולל פיקוד מרכז במזרח התיכון (Centcom) האחראי על המבצע באיראן, משתמשים ב-Claude לצורך ביצוע הערכות מודיעיניות, זיהוי מטרות וסימולציה של תרחישי קרב. בין השאר, גורמים המקורבים לנושא מסרו לוול סטריט ג'ורנל שהכלים האלה שימשו בתכנון וביצוע מבצע לכידת נשיא ונצואלה לשעבר, ניקולאס מדורו.

חברת אנתרופיק (Anthropic) האמריקאית, אשר פיתחה סדרת המודלים הלשוניים הגדולים (LLM) ממשפחת Claude (על-שם קלוד שאנון ממציא תורת התקשורת), נקלעה לסכסוך בעצימות יוצאת דופן בעוצמתה עם הפנטגון, שעשוי אפילו לסכן את קיומה. בחודשים האחרונים תפסו המודלים והצ'אטבוט שלה ממונטום חזק מאוד בשוק. מודל פיתוח התוכנה Claude נתפס ככלי המוביל בשוק הארגוני וכבחירה מועדפת בקרב מתכנתים וצוותי פיתוח. בשבועות האחרונים השיקה החברה שורה של יכולות מתקדמות, החל מאוטומציה בכתיבת קוד, ניתוח מסמכים פיננסיים וכלה ביכולת עבודה מול מאגרי מידע ארגוניים וכלי אבטחה – אשר חיזקו את מעמדה כגורם מרכזי במהפיכת ה-AI הארגוני.

גם המספרים שיקפו את ההתלהבות: לפני מספר שבועות החברה השלימה גיוס הון בהיקף של כ-30 מיליארד דולר לפי שווי חברה של כ-380 מיליארד דולר. כמעט פי שניים מהשווי בסבב הקודם שנערך כשישה חודשים קודם לכן. לכל היה נראה שהחברה עלתה על הנתיב הבטוח לבסס את מעמדה כאחת משחקניות ה-AI החשובות בעולם. אלא שאנתקופיק איננה רק חברת בינה מלאכותית, אלא גם חברה עם אידיאולוגיה. המודלים שלה מבוססים על פיקוח הדוק של בני אדם וכוללים מודול שהחברה פיתחה בשם "בינה מלאכותית חוקתית (Constitutional AI): זוהי גישה שפותחה על-ידי Anthropic לצורך אימון Claude ומערכות בינה מלאכותית אחרות, במטרה להבטיח שהן יהיו בלתי מזיקות ומועילות, גם כאשר הן אינן מסתמכות על משוב אנושי נרחב. ה"חוקה" הזו היא אוסף של עקרונות המנוסחים בשפה מילולית המובנת לבני אדם, שלפיהם המודל מנסה להתאים את תשובותיו לפקודות (prompts) כדי לעמוד בהם. החברה אפילו הצהירה שבכוונתה להביא לכך שהחוקה של Claude תשמש מודל לחיקוי עבור חברות אחרות בתעשייה.

בנקודה הזו החל הסכסוך עם מערכת הביטחון האמריקאית: לפני מספר שבועות ביקש הפנטגון לחתום על הסכם שימוש רחב-היקף בטכנולוגיה של אנתרופיק ונכנס איתה למשא ומתן אינטנסיבי. אלא שאנתרופיק דרשה לכלול בהסכם שני סעיפי החרגה מיוחדים: איסור שימוש בכלים שלה לצורך מעקב המוני אחר אזרחים בתוך ארצות הברית, ואיסור שימוש בטכנולוגיה שלה במערכות נשק קטלניות הפועלות באופן אוטונומי לחלוטין ללא פיקוח אנושי. הממשל סירב לוותר על הדרישה, אנתרופיק סירבה לוותר על העקרונות, והפנטגון הוציא את הסכסוך לאור היום כאשר הודיע בפומבי שהציב לחברה אולטימטום: לסגת מהדרישות עם יום שישי האחרון בשעה 17:00, או להסתכן בהגדרתה כ“סיכון בשרשרת האספקה”. אנתרופיק לא נסוגה מעמדותיה, ובשעה הנקובה לחץ הפנטגון על ההדק.

סנקציה השמורה לגורמים עוינים

זהו צעד דרמטי. ההכרזה הזו איננה עוד ביטול נקודתי של חוזה, אלא סימון החברה כגורם שעלול לסכן את שרשרת האספקה הביטחונית של ארצות הברית. מדובר במהלך חסר תקדים כלפי חברה אמריקאית מובילה. כלים מסוג זה הופעלו בעבר בעיקר כלפי חברות זרות שנתפסו כאיום ביטחוני, דוגמת וואווי ו-ZTE הסיניות. הוא גם מטיל צל כבד על יכולתה של אנתרופיק להמשיך ולהתרחב בקרב חברות המספקות שירותי צד שלישי למנגנוני המדינה ולמגזר הארגוני האזרחי בכללו שעשוי לאבד את אמונו בחברה. מה שנראה בתחילה כמערכת יחסים שתביא את החברה אל מסלול צמיחה מהיר, הפך למבחן הישרדות קשה במיוחד.

המושג “שרשרת אספקה” של משרד ההגנה הוא בעל עומק כלכלי עצום. לא מדובר ברשימה מצומצמת של קבלניות ביטחוניות כמו לוקהיד מרטין או בואינג, אלא במערך גדול מאוד של חברות פרטיות וקבלני משנה: אינטגרטורים, ספקיות ענן, חברות סייבר, תוכנה, לוגיסטיקה, ייעוץ וייצור. בחמש השנים האחרונות בלבד, יותר משני טריליון דולר מתקציבו הועברו לחברות פרטיות דרך חוזים שונים. המשמעות היא ששרשרת האספקה חודרת עמוק לתוך המגזר העסקי האמריקאי.

כאן עולה השאלה: עד לאן מגיעה ההכרזה ובאיזה מידה הפנטגון יאכוף אותה. האם מדובר באיסור להשתמש בטכנולוגיה של אנתרופיק בפרויקטים ביטחוניים בלבד, או שכל חברה שיש לה חוזה עם משרד ההגנה, אפילו אם מדובר בשירות תומך או במוצר שולי, תצטרך להימנע מכל התקשרות עמה? בפרשנות מקסימליסטית, חברות רבות במגזר הארגוני האמריקאי עלולות למצוא עצמן נדרשות לבחור בין עבודה עם הפנטגון לבין שימוש בכלים של אנתרופיק.

וזו נקודת הפגיעה הרגישה ביותר עבור החברה. אנתרופיק ביססה לעצמה נתח שוק משמעותי דווקא במגזר הארגוני, עם מומנטום מהיר בהטמעת AI בתהליכי פיתוח, אוטומציה ותפעול. אם ארגונים יחששו שהמשך עבודה עמה יסכן את יחסיהם עם הממשל האמריקאי, ייתכן שנראה הקפאת התקשרויות, מעבר למתחרות או האטה בחתימת חוזים חדשים. מעבר לכך, ארגונים שכבר הטמיעו את Claude במערכות ליבה עלולים להידרש לבחון מחדש תשתיות קיימות – מה שעלול ליצור דיסרפשן תפעולי רחב. אנתרופיק הודיעה שבכוונתה לפנות להליך משפטי ולערער על ההחלטה. אם בית משפט יבחן את שאלת הסמכות ואת היקף ההכרזה, ייתכן שהמהלך יצומצם או אפילו יבוטל. אולם עד שתתקבל הכרעה, עצם התיוג כ”סיכון בשרשרת אספקה” מרחף מעל החברה כמו ענן מאיים וכבד.

מלחמת התרבות

אנתרופיק ידועה כחברה שנושאת את דגל ה“בטיחות” והשימוש האתי ב-AI. הזהות שלה נבנתה סביב מגבלות, אחריות ופיקוח — קו שמלכתחילה לא משתלב באופן טבעי עם תפיסת ההפעלה של משרד ההגנה האמריקאי. ייתכן שבחברה קיוו שהעימות יסתיים בפשטות בכך שלא יעבדו עם הפנטגון. בפועל, המחלוקת גלשה במהירות ממחלוקת חוזית למלחמת תרבות -ולמבחן כוח עבור משרד ההגנה והממשל. שר ההגנה האמריקאי, פיט הגסת', הוביל מאז כניסתו לתפקיד קו מוצהר של מאבק ברעיונות ליברליים המוגדרים כ-Wok ומניעת כניסתם לצבא. הדבר משתקף גם בתפיסתו לגבי השימוש בבינה מלאכותית: "הפנטגון לא מפתח צ’אטבוטים לסטודנטים באוניברסיטאות עילית, אלא מכונות מלחמה”, הוא הצהיר. מבחינתו, AI צבאי מיועד לשרת עליונות מבצעית, ולא לשקף רגישויות חברתיות. בתוך ההקשר הזה, ההתעקשות של אנתרופיק על מגבלות אתיות נתפסה לא כעמדה טכנית – אלא כמאבק אידיאולוגי.

מאז בחירתו של טראמפ, רבות מחברות הטכנולוגיה התיישרו עם הרוח שנושבת בוושינגטון — הקטינו דגש פומבי על גיוון והכלה, ריככו מדיניות פיקוח תוכן ונמנעו מעימותים ערכיים עם הממשל. אנתרופיק מצאה את עצמה כמעט לבד בעימות חזיתי. טראמפ עצמו תקף את החברה וכינה אותה כ"שמאל קיצוני" וכ"חברת ווק". הצהרותיו התקיפות של טראמפ עשויות לאותת כי אין דרך חזרה מהמהלכים הנוכחיים. כך הפך סכסוך על תנאי שימוש בתוכנה למאבק רחב יותר על השאלה מי מגדיר את גבולות ה-AI האמריקאי: חברות המציבות תנאים אתיים, או ממשל המעניק קדימות עליונה ליכולת המבצעית.

המנצחים האמיתיים, או מי נהנה מהסכסוך?

מהעימות בין אנתרופיק לפנטגון יש גם מרוויחות ברורות, ובראשן חברות AI מתחרות הנמצאות בעצמן במגעים עם משרד ההגנה. הפנטגון הוא לקוח יוקרתי, עתיר תקציבים והשפעה, וחוזה עמו אינו רק מקור הכנסה משמעותי אלא גם חותמת איכות אסטרטגית. הוצאת אנתרופיק מהתמונה מותירה יותר מרחב, יותר חוזים ויותר נתח שוק למתחרות. בראש הרשימה ניצבת OpenAI, שהודיעה בסוף השבוע על הסכם עם משרד ההגנה לפריסת מודלים שלה גם בסביבות רגישות. באופן מחושב למדי, OpenAI הצליחה גם להשיג חוזה עם הפנטגון וגם להציג את ההסכם ככזה ששומר על “קווים אדומים”, עם הדגשה של מנגנוני בטיחות, פיקוח אנושי ומגבלות על שימושים שנויים במחלוקת.

בכך היא ממצבת את עצמה כשותפה ביטחונית אחראית, אך לא כמי שמציבה תנאים אידיאולוגיים פומביים שעלולים להיתפס כהתנגשות עם הממשל. מרוויחה פוטנציאלית נוספת היא חברת xAI של אילון מאסק. מאסק לא הסתיר את עמדתו בסכסוך, ואף טען כי באנתרופיק “שונאים את הציוויליזציה המערבית”. גם אם xAI אינה מחזיקה כיום באותו נתח שוק ארגוני כמו אנתרופיק או OpenAI, המצב החדש עשוי לפתוח לה דלתות רחבות בזירה הביטחונית.

Share via Whatsapp

פורסם בקטגוריות: בינה מלאכותית , חדשות , תעופה וביטחון

פורסם בתגיות: DoW , אנתרופיק , בינה מלאכותית , פנטגון , שרשרת אספקה