תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

איך הפנטגון בונה צבא מבוסס‑AI

הפנטגון מאשר לראשונה פריסת מודלי AI ברמות סיווג IL6 ו‑IL7
תוכן עניינים

הפנטגון חתם על הסכמים עם שבע חברות בינה מלאכותית, בהן Microsoft, AWS ו-Nvidia, לפריסה של מודלים מתקדמים ברשתות המסווגות ביותר של ארצות הברית. המהלך נועד להאיץ את המעבר לצבא שמבוסס על בינה מלאכותית ולשפר את קבלת ההחלטות המבצעיות. במקביל, נמשך העימות עם Anthropic, שמסרבת לאפשר שימושים צבאיים מסוימים במודלים שלה. במאמר זה נבחן את ההסכמים החדשים, את הטכנולוגיה שמאחוריהם ואת המשמעויות האתיות והאסטרטגיות של עידן שבו בינה מלאכותית הופכת לחלק מרכזי בלוחמה המודרנית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רגע מכריע במרוץ החימוש הדיגיטלי

ב‑1 במאי 2026 פרסם הפנטגון הודעה קצרה, אבל כזו שמסמנת שינוי עמוק באופן שבו הצבא האמריקאי מתכנן לפעול בעשור הקרוב.

 

שבע חברות טכנולוגיה, בהן Nvidia, Microsoft, Amazon Web Services ו- Reflection AI, קיבלו אישור לפרוס מודלים של בינה מלאכותית ברמות הסיווג הגבוהות ביותר של ארצות הברית.

 

מאחורי ההכרזה הזו מסתתר מהלך רחב בהרבה שמטרתו לבנות תשתית אחידה להפעלת מודלים מתקדמים בתוך מערכות מסווגות, תוך התמודדות עם מחלוקות מול חברות שמגבילות שימושים צבאיים.

צבא שמתקשה לעמוד בקצב הטכנולוגיה

הפנטגון מתמודד בשנים האחרונות עם עומס מידע חסר תקדים. מערכות מודיעין, חיישנים, לוויינים ותקשורת מבצעית מייצרות כמויות נתונים עצומות, הרבה מעבר ליכולת אנושית לעבד בזמן אמת.

 

הפער הזה הפך לאיום מבצעי שמוביל לקבלת החלטות איטית, חוסר סנכרון בין יחידות והסתמכות על מערכות מיושנות שאינן מותאמות לעידן של לוחמה מבוססת נתונים.

 

במקביל, מדינות יריבות ובראשן סין משקיעות הון עתק בפיתוח מערכות בינה מלאכותית צבאיות. מבחינת הפנטגון, זה מרוץ שבו מי שמאחר - מפסיד.

רשת מסווגת עם מודלים מתקדמים

ההסכמים החדשים מאפשרים לפנטגון להפעיל מודלים מתקדמים של בינה מלאכותית בתוך רשתות IL6 ו IL7, שהן רשתות מסווגות ברמות האבטחה הגבוהות ביותר בארצות הברית. המשמעות היא שמודלים מסחריים, חלקם סגורים וחלקם בקוד פתוח, יכולים כעת לעבוד ישירות על מידע רגיש מאוד, כמו מודיעין מבצעי או נתוני Top Secret, מבלי שהמידע יוצא מהתשתית המאובטחת.

 

לפי דיווחי בלומברג, המטרה היא לאפשר שימוש חוקי תפעולי ללא מגבלות נוספות מצד הספקים. במילים אחרות, כל שימוש שהחוק האמריקאי מתיר הוא שימוש שהצבא רוצה לבצע.




 

הפלטפורמה GenAI.mil, שכבר פועלת בקרב יותר מ- 1.3 מיליון עובדים, הופכת למרכז העצבים של המהלך. היא משלבת מודלים של Google, OpenAI וחברות נוספות, ומאפשרת חיפוש, סינתזה וניתוח של מידע מסווג בזמן אמת.

שכבת AI על גבי תשתיות מסווגות

המערכת מתוארת כמעין שוק מודלים פנימי. הצבא יכול לבחור בכל רגע את המודל שמתאים למשימה הנוכחית, כמו תחקור מודיעיני, ניתוח תמונות או תכנון מבצעי, ולהריץ אותו ישירות על נתונים מסווגים מבלי שהמידע יוצא מהרשת.

 

החידוש המרכזי הוא היכולת לשלב כמה מודלים במקביל. מודל של Nvidia יכול לנתח וידאו, מודל של Microsoft יכול לסכם מסמכים, ומודל של AWS יכול לזהות דפוסים, וכל אלה פועלים יחד בתוך אותה מעטפת מאובטחת.

 

הנה אילוסטרציה להמחשה של שכבת היכולות החדשה ברשתות המסווגות של הפנטגון - ממסלולי קליטת מידע ועד בחירת מודלים, עיבוד נתונים וניתוח מבצעי מבוסס AI:

 

המחשה של שכבת היכולות החדשה ברשתות המסווגות של הפנטגון: ממסלולי קליטת מידע ועד בחירת מודלים, עיבוד נתונים וניתוח מבצעי מבוסס AI.

שכבת היכולות החדשה ברשתות המסווגות של הפנטגון | אילוסטרציה

מה מיוחד בהסכמים החדשים

שלושה אלמנטים מרכזיים הופכים את ההסכמים החדשים למשמעותיים במיוחד.

 

הראשון הוא ריבוי הספקים. הפנטגון למד מהעימות עם Anthropic שאם חברה אחת מסרבת לאפשר שימושים מסוימים, כל המערכת עלולה להיתקע. לכן נחתמו הסכמים במקביל עם שבע חברות, ובהן גם Reflection AI, סטארט-אפ צעיר שגייס שני מיליארד דולר ומגובה על ידי Nvidia.

 

האלמנט השני הוא ההסכמה לסטנדרט Any Lawful Use. כמעט כל החברות, ובהן Google, OpenAI, xAI ו- Palantir, קיבלו את דרישת הפנטגון שלא להגביל שימושים מעבר למה שהחוק האמריקאי אוסר.

 

Anthropic, שחתמה כבר ב- 2025 על חוזה עם הפנטגון היא החריגה היחידה. העימות החריף איתה נחשף לאחר דיווחים על שימוש במודלים של Anthropic במבצע חשאי שבו נעצר נשיא ונצואלה לשעבר ניקולאס מדורו, דיווחים שהחברה מכחישה.

 

האלמנט השלישי הוא עצם ההטמעה ברמות הסיווג הגבוהות ביותר. IL6 ו- IL7 הן רמות שבהן מאוחסן מידע מודיעיני רגיש במיוחד, והעובדה שמודלים מסחריים נכנסים לשם היא תקדימית.

אתיקה מול מציאות מבצעית

העימות הזה חושף פער עמוק בין שתי תפיסות עולם. מבחינת Anthropic, בינה מלאכותית חייבת לכלול מגבלות אתיות ברורות, גם אם הדבר פוגע ביכולת המבצעית של המשתמשים בה. הפנטגון, לעומת זאת, טוען שבעולם שבו יריבים אינם מגבילים את עצמם, מגבלות אתיות חד צדדיות עלולות להפוך לסיכון לאומי.

 

המחלוקת הזו היא לא רק טכנולוגית, אלא משקפת ויכוח עקרוני על גבולות האחריות בעידן של מערכות חכמות.

עידן חדש של לוחמה מבוססת AI

ההסכמים החדשים מסמנים שהפנטגון קיבל החלטה ברורה. בינה מלאכותית הופכת לחלק אינטגרלי מכל שכבות הפעילות הצבאית, ממודיעין ותכנון ועד לוגיסטיקה, סייבר ולוחמה. המשמעות היא האצה בקבלת החלטות מבצעיות, יכולת טובה יותר לנתח כמויות מידע עצומות וצמצום התלות באנליסטים אנושיים.

 

לצד היתרונות האלה עולות גם שאלות אתיות כבדות, כמו מידת האוטונומיה שתינתן למערכות, רמת השקיפות הנדרשת והסיכון להסלמה לא מכוונת.

 

הוויכוח הזה הוא כנראה רק תחילת הדרך. הבינה המלאכותית תעמוד למבחן בעוד מצבי קונפליקט רבים לפני שתתגבש הסכמה בינלאומית על גבולות השימוש בה.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של רון גולד?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר וייב קודינג
ובניית אפליקציות
רביעי 06.05.26 | 20:00 | בלייב זום