תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

הבינה המלאכותית עוברת מהתקפה להגנה

דור חדש של AI להגנת סייבר
תוכן עניינים

עד לא מזמן, השאלה המרכזית סביב בינה מלאכותית וסייבר הייתה איך מונעים ממודלים חזקים לעזור לתוקפים. עכשיו השאלה משתנה - איך נותנים לאותם מודלים מספיק כוח כדי לעזור למגינים, בלי להפוך אותם בעצמם לכלי תקיפה. זה הרקע למירוץ החדש בין OpenAI ל-Anthropic. שתי החברות לא רק מציגות עוד צ’אטבוטים חכמים או עוזרי קוד, הן מנסות לבנות שכבת הגנה חדשה לתוכנה עצמה עם מערכות שמסוגלות לקרוא קוד, לזהות חולשות, להציע תיקונים, לבדוק אם התיקון עובד ולהחזיר ראיות שאפשר להעביר לצוותי אבטחה, פיתוח ואודיט. OpenAI מציגה את Daybreak כמסגרת סייבר הגנתית שמחברת בין GPT-5.5, Codex Security ושותפי אבטחה כדי לזהות איומים, ליצור פאצ’ים ולאמת תיקונים. בעמוד הרשמי שלה, החברה מדברת על צמצום שעות ניתוח לדקות, יצירת ובדיקת פאצ’ים בהרשאות מוגבלות, והחזרת ראיות מוכנות לביקורת.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ניסיון לשנות את קו הייצור של התוכנה

הנקודה החשובה ב-Daybreak היא לא רק היכולת “למצוא באגים”. OpenAI מנסה למקם את המערכת בתוך מחזור החיים של התוכנה - שלב שבו קוד נכתב, נבדק, מתוקן ומאומת עוד לפני שהוא הופך לסיכון ארגוני. זהו מעבר מתפיסה של אבטחה כתגובה מאוחרת, לתפיסה של אבטחה כחלק מובנה מתהליך הפיתוח.

 

כאן נכנס ההבדל בין צ’אטבוט לבין סוכן. מודל שמסביר חולשה הוא כלי עזר. מערכת שמייצרת תיקון, מריצה בדיקה בסביבה מבוקרת, מחזירה ממצאים ומתעדת את הפעולה, כבר מתקרבת לתשתית עבודה. OpenAI מדגישה ש-Daybreak נשענת על Codex Security ועל רמות שונות של גישה, כולל GPT-5.5 רגיל, GPT-5.5 עם Trusted Access for Cyber ו-GPT-5.5-Cyber.

 

הגישה הזו גם מחדדת הבדל אסטרטגי מול Anthropic. המודל Claude Mythos Preview מוצג על ידי החברה כמודל כללי, לא כמודל סייבר ייעודי, שהיכולות החריגות שלו באבטחת מידע נובעות מהעוצמה הרחבה שלו בקוד, סוכנות וניתוח מערכות מורכבות. OpenAI, לעומת זאת, מציגה את GPT-5.5-Cyber כשכבת יכולת ייעודית יותר למשימות סייבר מורשות, עם בקרות גישה והרשאות מחמירות יותר.

 

במילים אחרות, Anthropic מראה שמודל כללי חזק מספיק הופך גם לכלי סייבר משמעותי. OpenAI מנסה להפוך את התובנה הזו למוצר הגנתי מובנה.

 

Gartner ממפה את אקוסיסטם ה-AI בסייבר וממקמת את Daybreak ו-Mythos בתוך מגמה רחבה יותר: מעבר מכלי עזר נקודתיים למערכות סוכנות שמאתרות חולשות, בודקות תיקונים ומנהלות חלקים מתהליך ההגנה. זו כבר לא רק שאלה של מודל חזק יותר, אלא של שכבת עבודה חדשה בין פיתוח, אבטחה וממשל ארגוני:

 




אקוסיסטם מתפתח של אבטחת מודלים, סוכני הגנה, בדיקות קוד וניהול שימוש

אקוסיסטם מתפתח של אבטחת מודלים, סוכני הגנה, בדיקות קוד וניהול שימוש | Gartner

הגישה החזקה ביותר לא פתוחה לכולם

המרכיב הרגיש ביותר במהלך של OpenAI הוא Trusted Access for Cyber, או TAC. זהו מנגנון גישה מבוסס זהות ואמון, שנועד לאפשר למגינים מאומתים לבצע משימות סייבר לגיטימיות עם פחות חסימות, ועדיין לחסום בקשות שעלולות לאפשר נזק ממשי. לפי OpenAI, משתמשים מאושרים יכולים לקבל תמיכה רחבה יותר במשימות כמו זיהוי חולשות, ניתוח נוזקות, הנדסה לאחור, הנדסת זיהוי ואימות פאצ’ים (שינוי בקוד שאמור לסגור חולשת אבטחה).

 

במקביל, החברה אומרת שהמערכת ממשיכה לחסום פעולות כמו גניבת אישורים, התמדה חשאית, פריסת נוזקה או ניצול מערכות צד שלישי.

 

GPT-5.5-Cyber ממוקם מעל הגישה הזו. OpenAI מתארת אותו כגרסה בעלת ההתנהגות המתירנית ביותר למשימות מורשות ומיוחדות, עם בקרות חזקות יותר ברמת החשבון. הוא מיועד לתהליכים כמו Red Teaming מורשה, בדיקות חדירה ואימות מבוקר של יכולות ניצול. זו הבחנה קריטית כיוון שהיכולות החזקות ביותר אינן אמורות להיות מוצר מדף לכל משתמש, אלא כלי שנפתח בהדרגה למגינים שנבדקו ואושרו.

 

אבל מנגנוני הגישה האלה יוצרים גם לחץ תחרותי מסוכן. ככל שמודלים הגנתיים מוכיחים שהם מסוגלים למצוא חולשות אמיתיות בקנה מידה גדול, חברות אחרות יידרשו להדביק את הפער. זה מרוץ שעלול להפוך ל”מרוץ למטה”: פתיחה מהירה מדי של יכולות, הרחבת גישה לפני שיש מספיק בקרות, או דליפה של יכולות שנועדו למגינים בלבד. דווקא בגלל שהשימוש ההגנתי לגיטימי ודחוף, הגבול בינו לבין יכולת התקפית נעשה רגיש יותר.

Mythos היה הרגע שבו התחום קיבל המחשה מוחשית

אם Daybreak היא התגובה האסטרטגית של OpenAI, אז Claude Mythos Preview הוא האירוע שהפך את הדיון לפחות תיאורטי. Anthropic הציגה את Project Glasswing כיוזמה להגנה על תוכנות קריטיות, עם גישה ל-Claude Mythos Preview עבור שותפים נבחרים, בהם חברות טכנולוגיה, ענן, סייבר ותשתיות. Anthropic מדגישה כי Mythos הוא מודל כללי, אך כזה שעוצמתו בקוד ובמשימות סוכנות הופכת אותו גם לכלי חזק במיוחד לגילוי ותיקון חולשות.

 

המקרה הבולט ביותר הגיע ממוזילה (Mozilla). צוות Firefox דיווח כי תיקן 271 באגים שזוהו על ידי Claude Mythos Preview במסגרת שחרור Firefox 150, לצד תיקונים נוספים ששולבו בגרסאות סמוכות. זו לא רק הדגמה טכנית מרשימה, זו המחשה לשינוי בקצב, כי אם בעבר גילוי מספר קטן של חולשות משמעותיות היה אירוע אבטחה כבד, מודלים כאלה יכולים להציף מאות ממצאים בפרק זמן קצר.

היתרון עובר למי שסוגר פערים מהר יותר

הפיתוי הוא להציג את המערכות האלה כהגנה אוטומטית כמעט קסומה. זה יהיה מסוכן. גם בדוגמאות המרשימות ביותר, העבודה עדיין דורשת מומחיות אנושית, סביבות בדיקה, הרשאות מוגבלות, תעדוף, בדיקת שוואים חיוביים ובקרה לפני פריסה.

 

Axios דיווחה כי Palo Alto Networks מצאה 75 חולשות במוצריה לאחר שימוש במודלים מתקדמים של Anthropic ו-OpenAI, יותר מפי 7 מהכמות החודשית הרגילה שלה. אבל אותו דיווח גם מדגיש שהעבודה לא הסתכמה בלתת למודל “לסרוק קוד”. היא דרשה מומחיות אנושית, התאמה עמוקה ומערכת בדיקה ייעודית שנבנתה סביב המודלים כדי להריץ אותם על הקוד בצורה מבוקרת.

 

גם אז, כ-30 אחוז מהממצאים היו אזעקות שווא, דברים שנראו למודל כמו חולשות אבטחה, אך בבדיקה אנושית התבררו כלא מסוכנים או לא רלוונטיים. במילים אחרות, המודלים חזקים, אבל הם לא מחליפים מערכת אבטחה בשלה.

 

האתגר האמיתי,אם כך, אינו רק טכנולוגי. הוא ארגוני. כדי שמערכת כזו תעבוד, צריך להחליט מי רשאי להפעיל אותה, לאילו מאגרי קוד היא ניגשת, איך מתועדות הפעולות שלה, מי מאשר תיקונים, איך מתעדפים חולשות, ומה קורה כשהמודל מציע תיקון שנראה נכון אבל שובר פונקציה עסקית. בלי תיאום הדוק בין צוותי פיתוח, אבטחה, משפטים ותפעול, Defensive AI עלול להפוך לעוד שכבת התרעות רועשת במקום למערכת שמצמצמת סיכון בפועל.

אי-סימטריה חדשה בין תוקפים למגינים

יש כאן גם פער מטריד. כלים התקפיים או חצי-התקפיים כבר זמינים במגוון רחב של מודלים, סקריפטים ושירותים פתוחים. לעומת זאת, מערכות ההגנה החזקות ביותר, בצדק, נפתחות רק לגופים מאומתים ובסביבות מבוקרות. התוצאה היא אי-סימטריה חדשה שבה לתוקפים קל יותר להתנסות, לשכפל ולשתף שיטות, בזמן שהמגינים תלויים בגישה מוגבלת, רגולציה פנימית ותהליכי אישור.

 

זו לא טענה נגד הגבלות. להפך, בלי הגבלות כאלה, הכלים עצמם עלולים להפוך למכפיל כוח התקפי. אבל זו כן שאלה אסטרטגית: האם המגבלות יגנו על הציבור, או יאטו דווקא את מי שאמור להגן עליו.

 

החשש הזה כבר יצא מגבולות תעשיית הסייבר. קרן המטבע הבינלאומית (IMF) הזהירה כי AI שמאיץ מתקפות סייבר עלול להפוך לסיכון ליציבות פיננסית, והדגישה את הצורך בעמידות, פיקוח, תיאום בינלאומי והתאוששות מהירה. גם NIST, מכון התקנים והטכנולוגיה האמריקאי, פרסם טיוטת Cyber AI Profile שממסגרת את האתגר בשלושה מוקדים: אבטחת מערכות AI, שימוש ב-AI להגנת סייבר, והיערכות למתקפות סייבר שמופעלות בעזרת AI.

המבחן האמיתי יהיה פחות במודל ויותר בגבולות

Defensive AI לא מבטל את הצורך בצוותי אבטחה. הוא משנה את העבודה שלהם. פחות זמן יוקדש אולי לחיפוש ידני של חולשות מוכרות, ויותר זמן לניהול סוכנים, בדיקת תוצאות, קביעת גבולות, הערכת סיכונים ותעדוף עסקי. מנהל אבטחה יצטרך לשאול לא רק איזה מודל הכי חזק, אלא מי מקבל גישה, לאיזה מערכות, באילו הרשאות, איך מתועדות פעולות, מי מאשר פאצ’ים, ומה קורה כשהמודל טועה.

 

המהפכה כאן אינה בכך שה-AI “מגן עלינו”. המהפכה היא בכך שהגנת סייבר מתחילה לעבור ממודל של תגובה איטית למודל של חיפוש, תיקון ואימות רציפים. זה יכול להיות יתרון עצום למגינים, אבל רק אם החברות לא יתייחסו אליו כאל קסם טכנולוגי. המבחן האמיתי יהיה פחות בביצועי המודל, ויותר בשאלה מי מקבל גישה אליו, באיזה גבולות, ובאיזו אחריות. המילה החשובה ביותר ב-Defensive AI היא לא AI. היא Defensive.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של אלי מרסינו?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר וייב קודינג
ובניית אפליקציות
רביעי 06.05.26 | 20:00 | בלייב זום