המאבק הטכנולוגי בין סין לארה”ב הולך ומחריף, כאשר מערכות בינה מלאכותית (AI) ממלאות תפקיד מרכזי בכך. מהלכים חדשים מצד מוסדות מחקר סיניים הקשורים לצבא השחרור העממי של סין (PLA) מדגימים זאת היטב: בשימוש במודל קוד פתוח של מטא בשם Llama, פיתחו חוקרים סיניים מודל בינה מלאכותית בשם ChatBIT שמיועד ליישומים צבאיים. מאמר זה בוחן את פרטי המודל, תגובת מטא, והשלכות האתגר הטכנולוגי-ביטחוני שמהלך זה מציב בפני המערב.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
פיתוח ChatBIT: שילוב של AI פתוח למטרות צבאיות
באמצעות שילוב בין יכולות למידה עמוקה (Deep Learning) לבין כלים פתוחים, שישה חוקרים סיניים משלושה מוסדות מחקר, שניים מהם מזוהים עם האקדמיה למדעי הצבא של PLA, פיתחו את ChatBIT. מודל זה מתבסס על גרסה קודמת של Llama 13B שפותחה על ידי מטא, ולאחר התאמות והתאמות ייחודיות, הפך לייעודי לצרכים צבאיים, כולל איסוף ועיבוד מודיעין, קבלת החלטות מבצעיות, תכנון אסטרטגי, ואימון והדמיות.
על פי פרסומים בתקשורת, ChatBIT מותאם למשימות דיאלוג ושאלות-תשובות בתחום הצבאי, כשהוא מספק מידע מבצעי באופן מדויק וממוקד, ואף מתעלה במקרים מסוימים על מודלים מקבילים. למרות שהחוקרים לא פירטו את כל היכולות של המודל, הוא הותאם במיוחד לצרכים צבאיים סיניים, ובכך, לכאורה, מגשר על פערים טכנולוגיים מסוימים בין ארה”ב לסין, לפחות בתחום זה של הבינה המלאכותית. בסוכנות הידיעות “רויטרס” דווח כי לא הצליחו לאמת את היכולות האמיתיות של ChatBIT ושהחוקרים עצמם לא פירטו כיצד הגדירו את מדדי הביצועים או האם המודל נכנס לשימוש מבצעי.
תגובת מטא למצב: רגולציה עצמית וקשיים באכיפה
מטא (Meta), שמאפשרת גישה פתוחה למודלים שלה, לרבות Llama, מציבה בתנאי השימוש מגבלות ברורות על השימוש הצבאי. עם זאת, מטא מתקשה לאכוף תנאים אלו באופן מלא, מכיוון שהקוד הוא פתוח וזמין לציבור. בתגובה לתקשורת, הדגישה מטא כי כל שימוש צבאי על ידי PLA מנוגד למדיניותה, ועם זאת, היא מתקשה להטיל סנקציות או להגביל את המפתחים הסיניים.
כמו כן, בתגובה להתרחשויות, מטא פרסמה כי היא פועלת להנגיש את המודל לגופי ממשל וקבלני הגנה אמריקאים למטרות ביטחון לאומי, בניסיון לחזק את מעמדה של ארה”ב בתחרות מול סין. לדברי ניק קלג (Nick Clegg), נשיא מטא, מודלים פתוחים כמו Llama תורמים הן לביטחון הלאומי של ארה”ב והן להגדרת הסטנדרטים העולמיים בתחום הבינה המלאכותית הפתוחה. המהלך נועד למשוך את האומה האמריקאית לתמוך במודלים פתוחים כתגובה להשקעות העצומות של סין בתחום.
ההשלכות של פיתוח טכנולוגי צבאי באמצעות AI פתוח
המהלך הסיני מדגיש את הסיכונים והיתרונות שבגישה פתוחה בטכנולוגיות בינה מלאכותית. הממשל האמריקאי, במיוחד לאחר צו נשיאותי מנשיא ארה”ב ג’ו ביידן באוקטובר 2023, נוקט עמדה ברורה לפיקוח על AI, ומדגיש את הצורך בשמירה על סטנדרטים בתחום הטכנולוגי, אך הפער עדיין נותר.
המגבלות של גישה פתוחה
הצורך בנגישות פתוחה למידע וטכנולוגיה עומד מול הסיכונים בשימוש לרעה במודלים של בינה מלאכותית. כאשר מודלים כמו Llama נגישים בצורה כה רחבה, פוטנציאל השימוש הבלתי מבוקר גובר, כפי שמתבטא במקרה הסיני. מודלים פתוחים מאפשרים למדינות כמו סין לנצל את טכנולוגיות המערב לטובת צרכים צבאיים, ובכך לקדם את היכולות הטכנולוגיות שלהן מבלי להשקיע את המשאבים הנדרשים לפיתוח עצמאי של מודלים מורכבים.
גישת הממשל האמריקאי
על רקע המקרה הסיני, הממשל האמריקאי פועל להגבלת השקעות אמריקאיות בטכנולוגיות AI בסין, במטרה להגן על ביטחון הלאומי. עם זאת, הגישה של מטא, המתירה גישה רחבה למודלים שלה, מציבה אתגרים בתחום הביטחון. שאלת הגבלות השימוש במודלים פתוחים וביכולתן לאכוף את מדיניותן נותרת בעינה, ומהווה קרקע פורה לדיון רחב בקרב הקהילה הבינלאומית. במקביל, האמריקאים עושים שימוש נרחב בטכנולוגיות AI בכלל ובמודלים קוד פתוח של מטא בפרט. הם משתלבים בשלל תעשיות בטחוניות וחברות אמריקאיות, במטרה לתת לארה”ב את היתרון הטכנולוגי והצבאי.
המהלך הסיני מעלה שאלות בנוגע לבטיחות ולשליטה במודלים פתוחים של בינה מלאכותית: האם ניתן לאכוף עליהם מגבלות שימוש במצבים בהם מדובר בקוד פתוח? ואיך ניתן להתמודד עם ניצול הטכנולוגיה מצד יריבות גיאופוליטיות? תגובתה של מטא לחשיפת השימוש במודל שלה להפקת יכולות צבאיות סיניות מעידה על עמדתה המתלבטת בנושא. מצד אחד, מטא מגנה את השימוש הצבאי, אך מצד שני, היא טוענת שגרסה זו של המודל מיושנת.
מקרה ChatBIT ממחיש את הפוטנציאל והסיכונים הטמונים בגישה פתוחה למודלים של בינה מלאכותית. מצד אחד, היא מקדמת חדשנות ונגישות, אך מצד שני, היא מאפשרת גישה גם לגורמים העלולים לנצל את הטכנולוגיה לצרכים צבאיים. ההתרחשויות האחרונות מדגימות את הצורך בהסדרת תחום הבינה המלאכותית הפתוחה וברגולציה בינלאומית. שילוב של תקנות, כללי אתיקה והסכמות גלובליות עשויים להיות חיוניים לעתיד שבו AI ישרת את האנושות ולא יהפוך לנשק בידיים הלא נכונות.