תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

איך Claude מצא את עצמו בלב מבצע צבאי אמריקאי

מודל ה‑AI Claude הופעל במבצע אמריקאי ללכידת מדורו דרך Palantir, בניגוד למדיניות Anthropic, ומעלה שאלות על גבולות השימוש ב‑AI.
תוכן עניינים

בחודש שעבר, בזמן שכוחות מיוחדים של צבא ארצות הברית פשטו על כמה אתרים בקראקס במטרה ללכוד את נשיא ונצואלה לשעבר ניקולס מדורו, התרחש מאחורי הקלעים רגע חריג. בתוך מערכות המודיעין שפעלו בזמן אמת הופעל גם Claude, מודל ה‑AI של Anthropic, שנבנה מראש תחת מסגרת אתית מחמירה האוסרת על שימושים אלימים, צבאיים או מבצעי מעקב. הגישה למודל לא נעשתה דרך Anthropic עצמה, אלא באמצעות Palantir, קבלנית הביטחון שמערכותיה משולבות עמוק בפנטגון ובקהילת המודיעין האמריקאית. כך מצא עצמו כלי אזרחי, שתוכנן לשימושים מבוקרים ובטוחים, פועל בתוך מבצע צבאי חי.

 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

בין עקרונות אתיים למרוץ חימוש טכנולוגי

Anthropic מציגה את עצמה כאחת החברות המחויבות ביותר לפיתוח AI בטוח. מסגרת “Constitutional AI” שלה מגדירה קווים אדומים ברורים: אין תמיכה בפיתוח נשק, אין סיוע באלימות, ואין שימושים מבצעיים שעלולים לגרום לפגיעה בבני אדם. במקביל, החברה כבר החלה לפתח גרסאות ייעודיות לממשלה האמריקאית, כמו סדרת Claude Gov, שנבנתה על בסיס משוב מסוכנויות ביטחון ונועדה לפעול בסביבות מסווגות בלבד. המהלך הזה משקף את הניסיון של Anthropic לאזן בין עקרונות בטיחות מחמירים לבין דרישות ממשלתיות גוברות.

 

אלא שבאותו זמן הפנטגון נמצא בעיצומו של מרוץ טכנולוגי מול סין ורוסיה, ומקדם באופן אינטנסיבי שילוב של AI בכל שכבות הפעולה הצבאית, החל מניתוח מודיעין ועד קבלת החלטות בזמן אמת. בנקודה הזו נכנסת לתמונה Palantir. החברה, שמלווה את מערכת הביטחון האמריקאית כבר יותר מעשור, מספקת שכבת תיווך שמאפשרת להפעיל מודלים אזרחיים על רשתות מסווגות. המשמעות היא שגם אם יצרנית המודל אינה מעוניינת בשימוש צבאי, הצבא עדיין יכול להפעיל אותו דרך תשתיות צד שלישי.

מבצע צבאי, תקיפות אוויריות ו-AI

לפי הדיווחים, המבצע בקראקס כלל תקיפות אוויריות על כמה אתרים שבהם שהו מדורו ואשתו. היו נפגעים בקרב כוחות ונצואלים וקובנים, אך לא דווח על נפגעים אמריקאים. לאחר המעצר הועבר מדורו לניו יורק, שם הוא עומד בפני אישומי סחר בסמים.

 

במהלך המבצע עצמו, ולא רק בשלב ההכנות, הופעל Claude דרך מערכות Palantir. המקורות אינם מפרטים מה היה תפקידו המדויק, אך מציינים שהצבא כבר בחן בעבר שימוש במודלי שפה לניתוח תמונות לוויין, סיכום מודיעין, תרגום בזמן אמת או זיהוי דפוסים במידע מבצעי.

 

חשוב להדגיש שאין מידע רשמי על תרומתו המדויקת של Claude למבצע, ואין אינדיקציה לכך שהמודל קיבל החלטות מבצעיות או הנחה ירי. כל שניתן לומר בוודאות הוא שהוא הופעל כחלק ממערך תמיכה מודיעיני שסייע לכוחות שפעלו בשטח.

 

ניקולס מדורו מגיע למנחת מסוקים במנהטן לאחר שנלכד.

ניקולס מדורו במנהטן לאחר שנלכד | Credit: XNY/Star Max/GC Images

העימות השקט

כאן מתחיל החלק הרגיש ביותר בסיפור. לפי אחד המקורות, Anthropic פנתה לפנטגון בבקשה להבין כיצד נעשה שימוש במודל שלה במהלך המבצע, צעד טבעי עבור חברה שמנסה לאכוף מדיניות אתית. על פי אותו דיווח, הפנטגון הגיב באיום לבטל חוזה בהיקף של 200 מיליון דולר. Anthropic מצידה מכחישה שהייתה פנייה כזו או שהתקיים עימות כלשהו.

 

הפער בין הגרסאות הוא אחד המקומות שבהם המידע אינו חד משמעי, והוא מדגיש עד כמה מורכב הממשק בין חברות AI אזרחיות לבין מערכת הביטחון האמריקאית. מה שכן ברור הוא שהפנטגון מעוניין במודלים פחות מוגבלים, בעוד Anthropic מנסה לשמור על עקרונותיה. האירוע בקראקס ממחיש עד כמה קשה ליצרניות AI לשלוט בשימוש בטכנולוגיה שלהן ברגע שהיא נכנסת למערכות ביטחוניות.

Palantir כצינור שמחבר בין שני עולמות

Palantir משמשת כאן כמתווכת שמאפשרת לשלב מודלים אזרחיים בתוך מערכות צבאיות מסווגות. היא מפעילה את המודלים על תשתיות מאובטחות, עוטפת אותם במנגנוני הרשאות וניטור, ומאפשרת לצבא להשתמש בהם גם בלי לפנות ישירות לחברות שמפתחות אותם.




 

בפועל, זה יוצר מצב שבו מודל כמו Claude יכול לפעול בהקשרים שהיצרן שלו לא התכוון אליהם, ולעיתים אף מבלי שהיצרן ידע על כך בזמן אמת.

הגבולות בין אזרחי לצבאי נשחקים במהירות

האירוע בקראקס הוא לא רק סיפור על מבצע אחד, אלא סימפטום של מגמה רחבה הרבה יותר. מודלי שפה הופכים לכלי עבודה מרכזיים במודיעין, חברות AI מנסות להציב גבולות אך מתקשות לאכוף אותם, וקבלניות ביטחון כמו Palantir הופכות לשחקניות מפתח בשילוב AI בתוך תהליכים מבצעיים.

 

המרוץ הגלובלי ל‑AI צבאי דוחף את המערכת קדימה מהר יותר מהרגולציה, והפער בין AI אתי לבין AI מבצעי הולך ונסגר. לא משום שהחברות מעוניינות בכך, אלא משום שהמציאות הגיאופוליטית דוחפת לשימוש בכלים המתקדמים ביותר, גם אם הם נבנו במקור לשימוש אזרחי בלבד.

תקדים שמערער את כללי המשחק

הסיפור של Claude במבצע בקראקס מעלה שאלות כבדות משקל. האם חברות AI יכולות באמת לשלוט בשימוש שנעשה בטכנולוגיה שלהן? האם מודלים אזרחיים ימשיכו לזרום למערכות צבאיות דרך צדדים שלישיים? והאם עקרונות כמו “Constitutional AI” יכולים לשרוד בעולם שבו צבאות דורשים גישה לכלים המתקדמים ביותר?

 

אין תשובות חד משמעיות, אך ברור שהאירוע הזה מסמן שינוי עמוק. הגבולות בין AI אזרחי לצבאי נשחקים במהירות, והעידן שבו מודלי שפה פועלים כחלק ממערכות מבצעיות כבר אינו תרחיש עתידי. זו מציאות שמתרחשת עכשיו.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר AI לאנשי כספים
22/12/2025 - בשעה 20:00