תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

קלוד בטהראן – למה טראמפ כועס על אנטרופיק?

קלוד בביטחון
תוכן עניינים

האם האמריקאים השתמשו ב"'קלוד" (Claude) של אנטרופיק במהלך מבצע Epic Fury (התקיפה באיראן)? בזמן שאנחנו משתמשים בבינה מלאכותית (AI) כדי לנסח מיילים למשרד או לסכם מאמרים ארוכים, בחדרי המלחמה של הפנטגון אותה טכנולוגיה בדיוק כבר מנתחת מטרות לתקיפה באיראן. דיוני האתיקה המנומסים של עמק הסיליקון על "AI שוחר שלום" התנגשו לאחרונה חזק במציאות המזרח-תיכונית, כשדיווחים מצד ה-WSJ (הוולסטריט ג'ורנל) גרסו שנעשה שימוש במודל השפה קלוד של אנטרופיק (Anthropic) בתקיפות אמריקאיות באיראן. לא מדובר בעוד דיון תאורטי על "AI במלחמה", אלא בשאלה פרקטית מאוד: האם זה לגיטימי לשלב מודל AI "אזרחי" במכונת המלחמה האמריקאית, ומה קורה כשמודל AI כבר משולב עמוק בתהליכי עבודה ביטחוניים, ואז מגיעה הוראה פוליטית לעצור הכול ו"להוריד את השאלטר"?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

קלוד בטהראן

לפי דיווחים שמיוחסים ל-WSJ, פיקוד המרכז של צבא ארצות הברית (CENTCOM), השתמש בקלוד לצורכי הערכות מודיעין, זיהוי מטרות וסימולציות תרחישי קרב במהלך תקיפות באיראן במסגרת מבצע "שאגת הארי". הפרטים המדויקים לגבי היקף המעורבות של המודל לא פורסמו, ואין מידע פומבי על כך שקלוד קיבל החלטות מבצעיות או הנחה ירי. עם זאת, עצם השימוש בו כחלק ממערך תמיכה מודיעיני בזמן רגיש מציב אותו עמוק בתוך שרשרת קבלת ההחלטות.

 

הנקודה המשמעותית היא העיתוי. לפי אותם דיווחים, השימוש נעשה לאחר שנשיא ארצות הברית דונלד טראמפ הורה לסוכנויות פדרליות להפסיק מיד שימוש בטכנולוגיה של אנטרופיק, תוך מתן חלון של עד שישה חודשים למשרד ההגנה להשלמת תהליך הוצאה מסודר משימוש. כלומר, בזמן שהדרג המדיני מאותת על עצירה, הדרג המבצעי עדיין פועל במציאות שבה הכלי כבר מוטמע.

 

זו לא הפעם הראשונה: תקדים מדורו

הסיפור האיראני אינו מנותק מהקשר רחב יותר. רק לאחרונה דווח כי קלוד הופעל גם במהלך מבצע אמריקאי ללכידת נשיא ונצואלה לשעבר ניקולס מדורו (Nicolás Maduro) בקראקס. באותו מקרה, לפי הדיווחים, הגישה למודל נעשתה דרך חברת פאלנטיר (Palantir), שקבלנותיה משולבות עמוק בפנטגון ובקהילת המודיעין.

 

גם שם לא נחשף תפקידו המדויק של המודל, אך צוין כי הוא הופעל כחלק ממערך מודיעיני תומך בזמן אמת. הדמיון בין שני האירועים אינו מקרי. בשניהם מדובר במודל אזרחי שפותח תחת מסגרת אתית מחמירה יחסית, אשר מוצא את עצמו בתוך תהליכים מבצעיים דרך שכבת תיווך טכנולוגית.

 

התקדים הזה חשוב להבנת הפרשה הנוכחית. הוא מלמד שכאשר מודל שפה משולב בפלטפורמות ביטחוניות קיימות, עצם העובדה שהיצרן אינו מעוניין בשימוש מסוים אינה בהכרח חוסמת אותו בפועל.

 

שומרי סף, חוזים ופוליטיקה

בלב העימות נמצאת מחלוקת על גבולות השימוש. אנטרופיק הצהירה בעבר כי היא אוסרת שימושים אלימים, צבאיים או כאלה העלולים לפגוע בבני אדם, ומקדמת מסגרת של "Constitutional AI" עם קווים אדומים ברורים. במקביל, החברה פיתחה גרסאות ייעודיות לממשלה, שנועדו לפעול בסביבות מסווגות תחת מגבלות מסוימות.

 




לפי דיווח ב-The Independent, אנטרופיק ביקשה הבטחות ספציפיות שהמודל לא ישמש למעקב המוני אחר אזרחים אמריקאים ולא יוטמע בנשק אוטונומי לחלוטין. החברה טענה כי ניסוחים חוזיים מסוימים שהוצגו לה עשויים לאפשר חריגה מההגבלות "לפי שיקול דעת".

 

מהצד השני, דובר הפנטגון הדגיש שאין כוונה להשתמש ב-AI למעקב המוני אחר אמריקאים ושאין רצון לפתח נשק אוטונומי ללא מעורבות אנושית. יחד עם זאת, הפנטגון ציין כי הוא מעוניין להשתמש במודל "לכל מטרה חוקית". הפער בין התחייבות לא לבצע פעולות מסוימות לבין דרישה לשימוש חופשי בכל מטרה חוקית הוא בדיוק האזור האפור שמייצר מתיחות.

 

אי אפשר פשוט "לכבות" מודל

ב-27 בפברואר 2026 פרסם טראמפ פוסט ברשת Truth Social שבו הורה ישירות לכל סוכנויות הממשל הפדרלי להפסיק באופן מיידי כל שימוש בטכנולוגיה של אנטרופיק (Anthropic), כולל המודל קלוד (Claude). בנוסח החריג בעוצמתו כתב:

"I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic's technology. We don't need it, we don't want it, and will not do business with them again!".

 

ההוראה לא הייתה כללית או עמומה. היא נוסחה כהנחיה ביצועית ישירה, עם דרישה להפסקה מיידית. עם זאת, במסגרת אותה הודעה ניתן חלון של עד שישה חודשים למשרד ההגנה לצורך השלמת הוצאה מסודרת של המודל משימוש.

 

הפוסט של טראמפ

הפוסט של טראמפ.

 

כאן מתגלה הפער בין הצהרה פוליטית לבין מציאות תפעולית. כאשר נשיא מורה "להפסיק מיד", הציפייה הציבורית היא לעצירה חדה וברורה. אלא שבפועל, מודל שפה כמו קלוד אינו אפליקציה נפרדת שניתן למחוק בלחיצת כפתור. אם הוא כבר משולב במערכות ניתוח מודיעין, בדאשבורדים מבצעיים, בתהליכי עבודה של אנליסטים ובאינטגרציות דרך קבלני משנה כמו פאלנטיר (Palantir), הוצאתו דורשת תהליך הדרגתי.

 

הוראת טראמפ עצמה נבעה, לפי הדיווחים, ממחלוקת עקרונית עם אנטרופיק סביב מגבלות שימוש צבאי. אך מרגע שההוראה פורסמה, היא יצרה דינמיקה חדשה: הפנטגון נדרש ליישם החלטה פוליטית תוך כדי שמירה על כשירות מבצעית. במקביל, דווח כי אנטרופיק הוגדרה כ"סיכון לשרשרת האספקה" על ידי משרד ההגנה, צעד שמעמיק את המשבר וממחיש עד כמה מודלי AI נתפסים כיום כחלק מתשתית קריטית. לכן, כאשר מדברים על "לכבות" מודל, לא מדובר רק בהחלטה ערכית או פוליטית. מדובר במהלך הנדסי, חוזי וארגוני מורכב. ההוראה הנשיאותית הציבה יעד ברור, אך עצם הצורך בתקופת מעבר מדגיש עד כמה הכלי כבר נטמע עמוק במערכות הביטחון.

 

OpenAI נכנסת לוואקום

המשבר סביב אנטרופיק לא הותיר ואקום ריק לאורך זמן. ימים ספורים לאחר שהנשיא דונלד טראמפ הורה לסוכנויות הפדרליות להפסיק לעבוד עם אנטרופיק והפנטגון הודיע כי בכוונתו להגדיר את החברה כסיכון לשרשרת האספקה, הודיעה OpenAI על הסכם משלה עם משרד ההגנה האמריקאי לפריסת טכנולוגיה ברשת המסווגת של המחלקה.

לפי דיווח של רויטרס, ההסכם כולל מנגנוני הגנה נוספים שנועדו להגדיר בצורה ברורה את גבולות השימוש במודל. ב-OpenAI הדגישו כי ההתקשרות החדשה אוכפת שלושה "קווים אדומים": איסור שימוש בטכנולוגיה למעקב המוני אחר אזרחים אמריקאים, איסור שימוש להכוונת מערכות נשק אוטונומיות, ואיסור על קבלת החלטות אוטומטיות בעלות השלכות כבדות משקל ללא מעורבות אנושית.

החברה ציינה כי מנגנוני ההגנה מיושמים בגישה רב-שכבתית: שליטה מלאה בערימת הבטיחות של המודל, פריסה דרך ענן, מעורבות של אנשי OpenAI בעלי סיווג ביטחוני בתהליך, והגנות חוזיות שמאפשרות אף ביטול ההסכם במקרה של הפרה. במילים אחרות, OpenAI מבקשת להבטיח שהטכנולוגיה שלה תוטמע בתוך מערכת ביטחונית, אך תחת מסגרת בקרה הדוקה יותר מזו שיוחסה להסכמים קודמים.

 

שלושה קווים אדומים

הגדרת הקווים האדומים אינה עניין סמנטי בלבד. איסור על מעקב המוני מקומי נוגע ישירות לחשש הציבורי מפני שימוש ב-AI לצרכים פוליטיים או פנימיים. האיסור על הכוונת נשק אוטונומי משרטט גבול ברור בין כלי ניתוח ותמיכה לבין מערכת שמקבלת החלטות ירי. וההתנגדות להחלטות אוטומטיות בעלות השלכות כבדות משקל משמרת, לפחות על הנייר, את עקרון ה"Human in the loop".

 

עם זאת, הפנטגון עצמו חתם בשנה האחרונה על הסכמים בהיקף של עד 200 מיליון דולר כל אחד עם מעבדות AI מובילות, בהן אנטרופיק, OpenAI וגוגל. משרד ההגנה הבהיר כי הוא מבקש לשמר גמישות מרבית ולא להיות מוגבל על ידי אזהרות של מפתחי הטכנולוגיה מפני שימושים מסוימים. כאן מתחדדת המתיחות המובנית: החברות מבקשות לקבוע גבולות, בעוד הממסד הביטחוני מבקש לשמור לעצמו מרחב פעולה רחב ככל האפשר.

 

גם מתחרות לא בהכרח אויבות

נקודה מעניינת נוספת היא עמדתה של OpenAI ביחס לאנטרופיק. למרות התחרות הישירה בין החברות, OpenAI הבהירה כי לדעתה אין להגדיר את אנטרופיק כסיכון לשרשרת האספקה. ההצהרה הזו אינה רק מחווה תעשייתית. היא משקפת הבנה רחבה יותר שלפיה שוק מודלי השפה הגדולים הפך לחלק מתשתית קריטית, והגדרות רגולטוריות מסוג זה עשויות להשפיע על כלל השחקנים.

 

התמונה המצטיירת מורכבת. מצד אחד, ממשל טראמפ מצמצם את שיתוף הפעולה עם אנטרופיק. מצד שני, הוא מעמיק את ההתקשרות עם OpenAI תחת מסגרת חוזית מפורטת יותר. במקביל, החברות עצמן מבקשות להגן על קווים אדומים אתיים, אך אינן מוותרות על נוכחות במערכות הביטחון.

 

כך, הסיפור על קלוד באיראן אינו עומד לבדו. הוא חלק מתחרות רחבה יותר על עיצוב הכללים של פריסת AI מסווג בצבא האמריקאי. השאלה אינה רק איזה מודל פועל ברשת המסווגת, אלא באילו תנאים, באיזו שקיפות ובאיזו יכולת אכיפה כאשר מתעוררת מחלוקת בין הדרג הפוליטי, הדרג הביטחוני ומפתחי הטכנולוגיה.

 

כלי עזר או מעצב החלטות?

בסופו של דבר, הסיפור על קלוד באיראן אינו רק על כלי מסוים או על חברה אחת. הוא נוגע בשאלה עמוקה יותר: היכן עובר הגבול בין כלי תומך ניתוח לבין מערכת שמשפיעה בפועל על החלטות מבצעיות. כאשר מודל מסכם מודיעין, מזהה דפוסים או מציע תרחישים, הוא אינו יורה טילים. אך הוא עשוי לעצב את האופן שבו בני אדם תופסים את המצב, מדרגים איומים ובוחרים בין חלופות. האחריות נותרת בידי האדם, אך השפעת הכלי אינה שולית.

 

שנת 2026 אינה מתמקדת עוד בשאלה האם נעשה שימוש ב-AI במערכות ביטחוניות. השאלה היא איזה מודל, באילו מגבלות, דרך אילו תשתיות, ותחת איזו בקרה אנושית. המקרה האיראני, יחד עם תקדים מדורו, מבהירים שהגבולות בין אזרחי לצבאי מיטשטשים במהירות, ושהאתגר האמיתי אינו רק טכנולוגי אלא מוסדי וחוזי.

 

במבט רחב יותר, הפרשה ממחישה כי עידן המודלים הגנרטיביים אינו מתנהל רק בזירת הסטארטאפים והמעבדות, אלא גם בחדרי מלחמה. מי שמפתח AI, מי שמטמיע אותו ומי שמסדיר אותו, יידרשו להתמודד עם השאלה כיצד שומרים על שליטה, שקיפות ואחריות, גם כשהטכנולוגיה כבר נטועה עמוק בתוך המערכת.

רוצים להתמקצע?

בואו ללמוד איתנו בינה מלאכותית בקורס המקיף, העשיר והמבוקש בשוק. הצטרפו לאלפים הרבים שכבר עברו את הקורסים והסדנאות שלנו. פרטים והרשמה באתר.

לקבלת הנחה במחיר הקורסים – הזינו את קוד הקופון LETSAI
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר Automation Vibe
9/3/2026 - בשעה 20:00