הפנטגון חתם הסכמי AI עם 8 ענקיות, פסל את Anthropic מסיבות בטיחות
במהלך אחרון של מאי 2026 חתם משרד ההגנה האמריקאי על הסכמי AI סודיים עם שמונה ענקיות טכנולוגיה ובהן SpaceX, OpenAI, Google, Microsoft, AWS, Nvidia, Reflection ו-Oracle. את החברה שעד לפני שנה הובילה את שיחות הבטיחות בתחום, את Anthropic, השאירו מחוץ למשחק. הסיבה: דרישות בטיחות שהחברה סירבה לוותר עליהן עבור שימוש צבאי ומעקב המוני. החדשה הזאת מעצבת את הזירה של AI ממשלתי בארצות הברית לעוד שנה לפחות.
הנתונים המרכזיים מאחורי החתימה ההיסטורית
ב-1 במאי 2026 הודיע משרד ההגנה (DoD) על שמונה הסכמים חדשים להטמעת מערכות AI בתוך התשתיות הסודיות ביותר של הצבא האמריקאי, אלו המסווגות כ-Impact Level 6 ו-Impact Level 7. ההכרזה הגיעה אחרי שמונה חודשים של שיחות מורכבות, ושמיים את ארצות הברית בנקודה אסטרטגית חדשה: AI הוא לא תוסף, הוא חלק ליבה של מערך הביטחון הלאומי.
ה-Impact Level 6 ו-7 הם שתי הקטגוריות הגבוהות ביותר של DISA (Defense Information Systems Agency). הן מיועדות לתשתיות שמטפלות במידע ברמת Top Secret והשפעות קריטיות על ביטחון לאומי, מתכנון משימות ועד ניתוח מודיעין ובחירת מטרות. עד כה, מערכות AI לא הורשו לפעול ברמות האלו. ההסכמים החדשים שוברים את המחסום.
מטרת ההסכמים, לפי הצהרת המשרד, היא לייעל את סינתזת הנתונים, להעלות את ההבנה המבצעית ולחזק את קבלת ההחלטות בסביבות תפעוליות מורכבות. בפועל, זה אומר שצי המודיעין האמריקאי, מערך הסייבר של חיל האוויר, ופיקודים מבצעיים יוכלו להריץ סוכני AI ישירות בסביבות שעד כה היו סגורות מבחינה הרמטית.
שמונה החברות שנכנסו, ומה כל אחת מספקת
הרכב המנצחים מגלה תמונה מעניינת. אין כאן רק ענקיות LLM, יש גם תשתיות, חומרה, ושירותי ענן. כל חברה ממלאת תפקיד אחר במערך הכולל.
OpenAI ו-Microsoft: שכבת ההיסק והענן
OpenAI מספקת את מודלי השפה דרך תשתית הענן של Microsoft Azure Government. ההסכם בא יחד עם הסכם נפרד שחתמה Microsoft להטמעת Copilot ב-Office 365 לשימוש המודיעין. שתי החברות עובדות יחד כבר שנים, ולכן ההסכם הזה היה הצפוי ביותר בקבוצה.
Google ו-AWS: ענני AI ייעודיים
Google מספקת את Gemini דרך Vertex AI במערך ה-Top Secret cloud, ו-AWS מציעה תשתית Bedrock עם Claude (כן, Claude זמין דרך AWS למרות שאנת'רופיק עצמה מחוץ להסכם, מצב מעניין שיורחב בהמשך). שתי הענקיות יספקו תשתיות חישוב סגורות, ובהמשך גם training יישום מותאם.
Nvidia ו-SpaceX: חומרה וקישוריות
Nvidia מספקת את שכבת החומרה, GPUs מסדרת H200 ו-Blackwell שיותקנו בתוך מתקני נתונים מסווגים. SpaceX, באמצעות Starlink Defense, מספקת קישוריות לוויינית למערכות AI שמופעלות בקצה, למשל בדרונים, צוללות ובמתקני קצה במזרח התיכון. שילוב Starlink עם AI הוא כיוון חדש לחלוטין.
Reflection ו-Oracle: השחקנים הפחות מוכרים
Reflection היא חברת AI יחסית חדשה שהוקמה על ידי חוקרי DeepMind לשעבר, והיא מתמחה במודלים פתוחים מותאמים לשימוש ממשלתי, כך שהקוד עובר בקרת אבטחה מלאה של הפנטגון. Oracle מביאה את מערך ה-databases המסווגים שלה ואת תשתית ה-Oracle Cloud Government, שמתחזקת מערכות מודיעין כבר עשרים שנה. הם השחקנים הפחות מתוקשרים, אבל בלעדיהם המערך לא היה עומד.
למה Anthropic נשארה מחוץ למשחק?
הסיבה לא נסתרת. Anthropic, שמתחילת דרכה הציבה את הבטיחות במרכז, סירבה לאשר את הסעיף שהפנטגון דרש: שימוש ב-Claude לכל מטרה חוקית, כולל נשק אוטונומי לחלוטין ומעקב המוני אזרחי. החברה דרשה הגבלות, הפנטגון דרש שטח חופשי. שיחות התפוצצו במרץ 2026, ובמקביל הוכרזה Anthropic כסיכון לרשת האספקה הלאומית, סטטוס שיוצר חסם רגולטורי על שיתוף פעולה עם הצבא.
"לא נספק את המודלים שלנו לשימוש שמטרתו פגיעה אוטונומית בבני אדם או מעקב המוני שאינו ממוקד. זו עמדה שנגזרת ממדיניות הבטיחות שלנו, ולא משא ומתן."
הצהרה שיוחסה ל-Dario Amodei, מנכ"ל Anthropicהחברה לא נשארה שקטה. בחודש שעבר השיקה את Claude Mythos Preview, מודל cybersecurity שמצא אלפי נקודות תורפה zero-day במערכות הפעלה ודפדפנים מובילים, ופותח גישה לשותפים נבחרים דרך Project Glasswing עם תקציב של 100 מיליון דולר. המהלך הזה, יחד עם פגישת המנכ"ל בבית הלבן, פתח מחדש דיאלוג עם הממשל. אין הסכם חדש, אבל יש שיחות.
הסטטוס "סיכון אספקה" וההשלכות שלו
הכרזת ה-supply-chain risk היא הראשונה מסוגה נגד חברה אמריקאית. בפועל זה אומר שגופי ממשל אמריקאיים לא יכולים להשתמש ב-Claude ישירות, אבל המוצר עדיין זמין דרך AWS, Google ו-Azure. המצב הזה יצר פרדוקס: עובד פנטגון יוכל להשתמש ב-Claude אם הוא ניגש דרך AWS Bedrock, אבל לא ישירות מ-Anthropic. זו פרצה שתסגר ככל הנראה בקרוב.
איך הגענו לכאן: ציר הזמן של העימות
סיפור הוויכוח בין הבית הלבן לאנת'רופיק לא התחיל החודש. הוא נמשך כבר חצי שנה. הנה התחנות המרכזיות:
- נובמבר 2025: מומלץ לראשונה לבחון את אנת'רופיק כספק ל-DoD. החברה מתחילה שיחות עם מספר זרועות.
- ינואר 2026: דרישת הצבא לחתום על סעיף השימוש "לכל מטרה חוקית" נדחית על ידי החברה. שיחות נכנסות לקיפאון.
- מרץ 2026: הבית הלבן מצהיר שאנת'רופיק מסווגת כסיכון אספקה. ראשון מסוגו נגד חברה אמריקאית.
- אפריל 2026: Anthropic משיקה את Mythos. Dario Amodei נפגש עם Susie Wiles בבית הלבן.
- מאי 2026: הסכמי IL6/IL7 חתומים עם שמונה חברות, אנת'רופיק לא בכלל.
הסיפור הוא לא רק על חברה אחת שלא רצתה להתפשר. הוא משקף עימות מדיניות עמוק יותר: האם בטיחות AI היא בלם להתקדמות, או יסוד להתקדמות בטוחה? הממשל הנוכחי בחר בתשובה הראשונה. אנת'רופיק מתעקשת על השנייה.
השלכות על האקוסיסטם של AI עסקי, גם בישראל
החדשה הזאת לא משפיעה רק על המערך האמריקאי. יש לה גלים שמגיעים גם לעסקים ישראליים שצורכים את המודלים האלה.
בעלי עסקים שמשתמשים ב-Claude
השימוש המסחרי ב-Claude לא נפגע. אלפי עסקים בישראל שעובדים עם המודל דרך Managed Agents, דרך AWS, או דרך Anthropic ישירות, ימשיכו לעבוד כרגיל. ההגבלה רלוונטית רק לסקטור הממשלתי האמריקאי. אבל הסיפור הזה עלול להשפיע על תפיסת הסיכון של חברות שמתכננות הסכמים גדולים עם החברה.
סטארטאפים ישראליים בתחום ה-AI
עבור סטארטאפים שבונים על מודלים, יש כאן שני לקחים. הראשון, חשוב להחזיק יחסים עם יותר מספק אחד, רעיון שעמדנו עליו בסקירת Codex של OpenAI. השני, ההיסטוריה של הסכמים ממשלתיים מראה שהם משתנים מהר. סטארטאפ שמתכנן מסלול הכנסות שמסתמך על שותפויות ביטחוניות צריך לקחת בחשבון ש-vendor list יכול להשתנות בלי הודעה.
התעשייה הביטחונית הישראלית
תעשיית הביטחון הישראלית נחשפת באופן עקיף. חלק ניכר מהפיתוחים בישראל מבוססים על שותפויות עם החברות האמריקאיות שזכו בהסכמים, ובהן Microsoft Azure וענני Google. ההסכמים החדשים מקלים על הזרמת טכנולוגיות AI דרך הצינורות האלה לצרכים משולבים. במילים אחרות, ישראל מרוויחה.
הצעד הבא: מה צופים בחודשים הקרובים
שתי התפתחויות מרכזיות צפויות עד סוף הקיץ.
אנת'רופיק מנסה לחזור
אחרי הצלחת Mythos, סביר להניח שהחברה תציע גרסה ייעודית למערך ה-Top Secret עם הגבלות שמסכימות לתפיסת הבטיחות שלה. אם הצעה כזאת תתקבל, נראה הכרזה על הסכם נוסף עד אוגוסט. אם לא, החברה תישאר מחוץ לתחום הצבאי, אבל תחזק את הנוכחות שלה במגזר הפיננסי והאקדמי.
תחרות פנימית בין שמונת המנצחים
לא כל ההסכמים שווים. חלקם מסתכמים בסכומים של מאות מיליוני דולרים, אחרים בעשרות בלבד. הצפי הוא שתוך שישה חודשים נראה הצרה של רשימת הספקים בפועל ל-3-4 חברות מובילות, על בסיס ביצועים ויכולת אינטגרציה. השלוש שיוצאות עם רוב התקציב יקבעו את הסטנדרט לעשור הבא.
הסיפור הזה הוא לא רק על פוליטיקה. הוא מראה שהשוק של AI שירותי לסקטור הממשלתי מתחיל להתגבש, ויש בו שחקנים קבועים. עסקים בישראל שבונים מוצרי AI לסקטור B2G צריכים לבחון מי הספקים שלהם, איך הם משתלבים, ומה הסיכון אם אחד מהם נופל מהרשימה.
סיכום: מה זה אומר לעסק שלכם
הסיפור של הסכמי הפנטגון הוא נקודת ציון. הוא מסמן שהשוק של AI ממשלתי כבר לא תחום למחקר, אלא חלק מהתשתית הביטחונית בפועל. מי שמספק טכנולוגיה ביטחונית או חוקר טכנולוגיה צריך להבין את המשמעות של חתימה על "supply-chain risk" ולגוון את הספקים שלו. מי שמשתמש ב-Claude או במודלים אחרים בעסק שלו לא ייפגע ישירות, אבל סיפור הוויכוח על בטיחות הוא ההיבט שצריך להישאר על השולחן.
החדשות הבאות שעלינו לעקוב אחריהן: האם Anthropic תמצא דרך חזרה? איך תגיב הקהילה האירופית? איך משפיעה ההכרזה על דירוג הסיכון של ספקים אמריקאיים בעיני שווקים אחרים? אלו השאלות שיתפסו את הכותרות בחודשים הקרובים.
בינתיים, אם אתם בונים על AI בעסק שלכם, בקרו בעמוד האוטומציות שלי כדי לראות איך אני משלב מודלים מספקים שונים בתוך מערכות עסקיות, בקידום במנועי AI כדי לראות מתי כדאי להחליף מודלים, ובקייס סטאדי של סוחר אוטונומי כדי לראות איך מבנה דומה לזה שהפנטגון בחר עובד לעסק קטן.
שיתוף הפוסט
שאלות ותשובות
האם זה משפיע על שימוש Claude לעסקים בישראל?
לא. ההגבלה חלה רק על שימוש ישיר של גופי ממשל אמריקאיים. השימוש המסחרי בעולם ובישראל ממשיך כרגיל, גם דרך Anthropic ישירות וגם דרך AWS Bedrock. אם אתם משתמשים ב-Claude בעסק, לא צפוי שינוי.
מה זה Impact Level 6 ו-7 בדיוק?
אלו רמות הסיווג הגבוהות ביותר של DISA, סוכנות תשתיות המידע של ה-DoD. IL6 מיועד לתשתיות שמטפלות במידע מסווג כ-Top Secret, ו-IL7 לתשתיות עם השפעה ישירה על משימות מבצעיות בזמן אמת. עד החודש מערכות AI לא הורשו לפעול ברמות האלו.
האם Anthropic תחזור להסכם עם הפנטגון?
סביר. המהלך של Mythos והפגישה האחרונה בבית הלבן מראים שיש פתח לדיאלוג. הצפי שלי הוא שתחתם הצעה ייעודית עד אוגוסט, אבל היא תכלול הגבלות שמסכימות עם מדיניות הבטיחות של החברה, ולא את הסעיף הפתוח שהפנטגון דרש בראשונה.
איך זה משפיע על סטארטאפים ישראליים בתחום ה-AI?
השפעה עקיפה. סטארטאפ שמסתמך על מודל בודד נמצא בסיכון אם הספק נופל מרשימת הספקים המאושרים של ממשל. הלקח: לבנות מערכות שמאפשרות להחליף מודלים בלי לפרק את הארכיטקטורה. ראו כיצד זה נעשה בסקירת Advisor Strategy.
מה תפקיד Reflection בהסכם, חברה שלא הכרנו עד עכשיו?
Reflection היא סטארטאפ AI שהוקם על ידי חוקרים לשעבר של DeepMind. ההתמחות שלה היא מודלים פתוחים שעוברים בקרת אבטחה מלאה לפני פריסה ממשלתית. בניגוד לענקיות, היא מציעה גמישות מרבית בהקשחה למידע ביטחוני, מה שעבר את שלבי הבדיקה של הפנטגון. הצפי שהיא תמלא את החלל של אנת'רופיק במשימות שדורשות בקרת בטיחות חזקה.
האם ההסכמים האלו פתוחים לחברות לא אמריקאיות בעתיד?
לא בטווח הקרוב. ההסכמים מוגבלים לחברות שעומדות בדרישות CFIUS ובסטטוס אבטחה מסווג. חברות ישראליות, אירופיות או יפניות שמספקות AI לפנטגון יעשו זאת דרך שותפות עם אחת משמונת החברות שזכו, לא ישירות. זה משאיר לסטארטאפים ישראליים אסטרטגיה ברורה: למצוא את החברה האמריקאית המתאימה לשותפות.