בסוף פברואר 2026, בתוך פרק זמן קצר, הפכה מערכת יחסים טכנולוגית ועסקית לסיפור מרכזי בזירה הפוליטית האמריקאית. מה שהתחיל כמשא ומתן שגרתי על תנאי שימוש במודל בינה מלאכותית צבאי התפתח במהירות לעימות מורכב בין שתי חברות AI מהמשפיעות בעולם, Anthropic ו‑OpenAI, ולדיון רחב יותר על גבולות הכוח של טכנולוגיות מתקדמות בעידן של מתחים גיאו פוליטיים. במרכז האירועים עומד חוזה בשווי 200 מיליון דולר, אך מאחוריו מסתתרת שאלה עמוקה בהרבה: כיצד מאזנים בין חדשנות טכנולוגית, עקרונות מוסריים, אינטרסים עסקיים ולחצים פוליטיים, במיוחד כאשר כל הצדדים פועלים בתוך מערכות ביטחוניות רגישות.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
קווים אדומים מול דרישות ממשלתיות
הסיפור החל כאשר Anthropic, שסיפקה לפנטגון את מודל Claude לשימושים מסווגים, נכנסה למו״מ על עדכון תנאי ההתקשרות. Claude כבר היה חלק מרכזי במערכות מודיעין וניתוח מבצעי, כולל בהקשרים הקשורים למבצעים מול איראן, עובדה שהפכה את המשא ומתן לרגיש במיוחד.
בשלב הזה התברר שהפערים בין הצדדים עמוקים. Anthropic התעקשה על שני קווים אדומים: איסור שימוש בטכנולוגיה למעקב המוני אחרי אזרחים אמריקאים, ואיסור שילוב המודל בנשק אוטונומי קטלני. מבחינת החברה, אלו אינם סעיפים טכניים אלא עקרונות יסוד.
מנגד, הפנטגון ביקש נוסח רחב בהרבה שלפיו ניתן יהיה להשתמש בטכנולוגיה לכל מטרה חוקית. זה ניסוח מקובל בחוזים ממשלתיים, אבל בהקשר של AI מתקדם הוא מעורר שאלות מורכבות, משום שהגדרת חוקי עשויה להשתנות בין ממשלים והמשמעות המעשית של ההגדרה אינה תמיד ברורה. כאן נוצרה נקודת השבר.
מהלך חריג שמסמן אובדן אמון
לאחר ש‑Anthropic סירבה לוותר על הקווים האדומים שהציבה, המשא ומתן קרס. בתוך שעות ספורות הנשיא דונלד טראמפ הורה לכל הסוכנויות הפדרליות להפסיק להשתמש בטכנולוגיות של החברה, ושר ההגנה פיט הגסת' (Pete Hegseth) הכריז עליה כסיכון בשרשרת האספקה.
זה צעד חריג שמבטא לא רק מחלוקת חוזית אלא גם אובדן אמון עמוק. ההחלטה עוררה הד תקשורתי מיידי, בין היתר משום שהטכנולוגיה של Anthropic כבר הייתה משולבת עמוק במערכות מסווגות והחלפתה אינה תהליך פשוט.
OpenAI נכנסת לתמונה
אל תוך הוואקום שנוצר נכנסה OpenAI. מנכ״ל החברה, סם אלטמן (Sam Altman), חתם על הסכם חלופי עם הפנטגון כמעט מיד לאחר קריסת המו״מ עם Anthropic. מבחינה עסקית זה היה מהלך מהיר ומחושב - OpenAI זכתה בחוזה משמעותי, והפנטגון קיבל המשכיות תפעולית ללא עיכובים.
עם זאת, המהלך עורר שאלות. חלק מהמבקרים תהו האם OpenAI העניקה לממשל גישה רחבה מדי לטכנולוגיה שלה. אלטמן טען שההסכם כולל מנגנוני הגנה טכניים שמונעים שימוש לרעה, ושאין פער מהותי בין עמדת OpenAI לבין הקווים האדומים שהציבה Anthropic.
אלא שהניסוח המשפטי של החוזה, המאפשר שימוש בטכנולוגיה לכל מטרה חוקית, מותיר מקום לפרשנות. מומחים ציינו כי גם אם קיימים מנגנוני הגנה טכניים, הם אינם תחליף למגבלות משפטיות ברורות, במיוחד בסביבה שבה חוקים ונהלים עשויים להשתנות.
התגובה של Anthropic
ב‑Anthropic ראו במהלך לא רק פער מקצועי אלא גם פער עקרוני. מנכ״ל החברה, דריו אמודיי (Dario Amodei), הפיץ לעובדיו מכתב פנימי שבו טען שההסכם של OpenAI מציג תיאטרון בטיחות, כלומר מנגנוני הגנה שנראים טוב כלפי חוץ אך אינם מספקים הגנה אמיתית לאורך זמן.
אמודיי גם ביקר את האופן שבו הוצג ההסכם לציבור, וטען שהמסרים סביבו מבלבלים ואף לא מדויקים. המכתב דלף במהירות לתקשורת והפך את המחלוקת העסקית למאבק פומבי בין שתי החברות.
חשוב להדגיש שחלק מהטענות ההדדיות אינן ניתנות לאימות מלא. מדובר בתחום שבו חלק מהמידע מסווג וחלק אחר מבוסס על הצהרות פומביות, הדלפות ומסרים של יחסי ציבור. מה שכן מאומת הוא עצם קריסת המו״מ, הצעדים הממשלתיים שננקטו בעקבותיו והעובדה ש‑OpenAI אכן קיבלה את החוזה החלופי.
חזרה לשולחן המו"מ
למרות העימות הפומבי, Anthropic מצאה את עצמה במצב מורכב. מצד אחד היא עמדה על עקרונותיה, ומצד אחר איבדה חוזה משמעותי והסתכנה בפגיעה ארוכת טווח במעמדה מול הממשל.
לכן, ב‑5 במרץ, דריו אמודיי חזר לשולחן המו״מ בניסיון למצוא פתרון ביניים. האפשרויות שנבחנות כוללות תקופת מעבר של שישה חודשים או נוסח פשרה שיאפשר המשכיות מבצעית. לפי דיווחים, השיחות מתקיימות מול אמיל מייקל (Emil Michael), תת שר ההגנה למחקר והנדסה, ומטרתן למנוע זעזוע תפעולי במערכות שכבר מסתמכות על Claude.
הציבור מגיב
במקביל, הציבור הגיב במהירות. אפליקציית קלוד זינקה למקום הראשון בחנות האפליקציות של אפל בארצות הברית, עם מאות אלפי הורדות ביום אחד. שיעור המשתמשים הפעילים עלה בעשרות אחוזים, ומספר המנויים בתשלום הוכפל - בין היתר בעקבות ההשקות של Claude CoWork והנגשת יכולות הקוד גם למשתמשים שאינם טכניים.
מנגד, מספר גדול של משתמשי ChatGPT הסירו את האפליקציה מהטלפון או ביטלו חשבון/מנוי (וזה אל מול המספר של שבירת שיא משתמשים פעילים). קשה לדעת אם מדובר בתגובה רגשית קצרה או בתחילתה של מגמה ארוכת טווח, אך ברור שהעימות הפוליטי והעסקי השפיע גם על התפיסה הציבורית.
סיפור שעדיין נכתב
הסיפור הזה רחוק מסיום. זה סיפור מרתק שמשלב טכנולוגיה מתקדמת, שיקולים מוסריים, אינטרסים עסקיים, לחצים פוליטיים ומידע מסווג, תמהיל שמבטיח מציאות מורכבת יותר מכל הצהרה פומבית.
מה שכבר ברור הוא שהאירועים האחרונים מציבים מחדש את השאלה כיצד חברות AI צריכות לפעול כשהן הופכות לספקיות של תשתיות ביטחוניות, ומה קורה כאשר עקרונות טכנולוגיים נבחנים מול מציאות פוליטית.
בינתיים, הפנטגון, Anthropic ו‑OpenAI ממשיכים לנהל את המאבק על עיצוב גבולות השימוש ב‑AI צבאי. ההכרעות שיתקבלו בחודשים הקרובים עשויות להשפיע לא רק על החברות עצמן אלא על כל התעשייה, ואולי גם על האופן שבו מדינות יפעילו בינה מלאכותית בעתיד.






