עד לא מזמן, התקפות סייבר גדולות היו נחלתם של ארגוני פשיעה מתוחכמים עם צוותים וטכנולוגיות מורכבות. היום, לפי דו״ח חדש של חברת Anthropic, המצב השתנה. מודל הבינה המלאכותית Claude מאפשר לפושעים לפעול מהר יותר, לבד, ובקלות גדולה יותר. מה שבעבר חייב מומחים רבים, אפשרי כיום לאדם אחד שמבין איך להשתמש בכלי. המשמעות ברורה לכולנו – יותר ניסיונות סחיטה, יותר הונאות מתוחכמות, ופחות זמן תגובה למי שנמצא בצד המותקף.
בסרטון המצורף מסבירים Jacob Klein ו-Alex Moix מצוות מודיעין האיומים של Anthropic כיצד הם מזהים ומסכלים ניסיונות כאלה בזמן אמת. זו הזדמנות נדירה לקבל מבט מבפנים – ישירות מהחברה שמפעילה את Claude – ולראות איך נראית פשיעת סייבר בעידן הבינה המלאכותית ומה באמת קורה מאחורי הקלעים.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
מה בעצם השתנה
בינה מלאכותית תמיד ידעה לייעץ, לכתוב או להציע רעיונות. השינוי הגדול הוא שבדור החדש, עם המודלים המתקדמים, היא כבר לא מסתפקת בלתת כיוון – היא מבצעת בפועל. המודלים הפכו ל”עוזרים מבצעיים”. הם יודעים לאתר פרצות במערכות, לנסח הודעות סחיטה שנשמעות אמינות, ואפילו לנהל מתקפה שלמה מתחילתה ועד סופה. וזה לא תרחיש עתידי או איום תיאורטי, זה מתרחש כבר עכשיו, כפי שממחישים הסיפורים בדו”ח של Anthropic.
שלושה סיפורים שמסבירים הכל
סחיטה חכמה שמכוונת ללב
המקרה הבולט ביותר שתיעדה אנטרופיק הוא של פושע סייבר שפיתח מה שהחברה מכנה “vibe hacking”. הפושע השתמש ב-Claude Code, כלי הקוד האוטונומי של אנטרופיק, כדי להוציא לפועל מבצע סחיטה בקנה מידה גדול שכוון ל-17 ארגונים שונים, כולל מוסדות בריאות, שירותי חירום, גופים ממשלתיים ודתיים. במקום להשתמש ב”כופר קלאסי” שמצפין מידע, הפושע איים לחשוף את הנתונים הגנובים בפומבי כדי לסחוט מקורבנותיו תשלומי כופר שהגיעו לעיתים למעלה מ-500,000 דולר.
Claude שימש לכל שלב במבצע: סריקה אוטומטית של אלפי נקודות גישה VPN לזיהוי מערכות פגיעות, קצירת אישורים וחדירה לרשתות, קבלת החלטות טקטיות ואסטרטגיות, כמו בחירת הנתונים לגניבה, ניתוח נתונים פיננסיים לקביעת סכומי כופר מתאימים ויצירת פתקי כופר המותאמים פסיכולוגית לכל קורבן. הבינה המלאכותית עזרה לו לבחור את המטרות, להבין איפה הכי כואב לכל ארגון, ולנסח מכתבי איום מותאמים אישית. המסר פשוט – זו כבר לא סחיטה טכנית, אלא סחיטה שמבוססת על הבנה פסיכולוגית.
עובדי IT מזויפים
הדו”ח חושף גם כיצד פעילים צפון קוריאנים משתמשים ב-Claude כדי להשיג תעסוקת מרחוק במשרות טכנולוגיות בחברות Fortune 500 אמריקאיות. המבצע התוחכם מאז שנחשף לראשונה על ידי ה-FBI, כאשר עובדי ה-IT המזוייפים השתמשו בבינה מלאכותית לכל שלבי התהליך: יצירת זהויות מזויפות עם רקע מקצועי משכנע, השלמת בדיקות טכניות וקוד במהלך תהליך הגיוס, ביצוע עבודה טכנית יום-יומית לאחר הגיוס ומיסוך הופעה בראיונות וידאו באמצעות טכנולוגיית deepfake.
לפי דו”ח CrowdStrike, מספר החברות שגייסו עובדים צפון קוריאנים זינק ב-220% בשנה האחרונה, עם יותר מ-320 חברות שנפגעו. העובדים נדרשים להרוויח 10,000 דולר לחודש כל אחד, והמבצע מניב לפי הערכות האו”ם בין 250-600 מיליון דולר בשנה לתכנית הנשק הגרעיני של המשטר.
תוכנת כופר בלי לדעת לכתוב קוד
עבריין עם ידע בסיסי הצליח לפתח ולמכור גרסאות שונות של תוכנת כופר בעזרת Claude בלבד. הוא לא היה מסוגל לכתוב קוד בעצמו, אבל המודל הדריך אותו, שיפר עבורו את התוכנה, ואפילו ניסח הוראות שימוש. בהמשך הוא מכר את הערכות הללו בפורומים של פושעי סייבר במחירים של כמה מאות דולרים. אם בעבר היה צורך במומחיות עמוקה כדי לבנות תוכנה זדונית, היום מספיק לדעת איך לבקש את זה מה-AI.
הנה מודעת מכירה אמיתית מה-Dark Web מחודש ינואר 2025 – עבריין מציע ערכות תוכנת כופר שונות במחירים שבין 400 ל-1200 דולר:
מהפכה בפשיעת הסייבר
הדו”ח מצביע על שלוש מגמות מדאיגות:
״נשקיזציה״ (Weaponization) של בינה מלאכותית אוטונומית
מודלי בינה מלאכותית משמשים כעת לביצוע התקפות סייבר מתוחכמות, לא רק לייעוץ על ביצוען. Jacob Klein, ראש צוות מודיעין האיומים באנתרופיק, הסביר: “מה שהיה מצריך בעבר צוות של מומחים יכול כעת להתבצע על ידי אדם אחד בעזרת מערכות אוטונומיות”.
הנמכה דרסטית של מחסומי הכניסה
פושעים עם מעט כישורים טכניים משתמשים בבינה מלאכותית לביצוע פעולות מורכבות, כמו פיתוח כופרה, שהיו דורשות בעבר שנים של הכשרה. לפי דו”ח SoSafe, כ-87% מאנשי האבטחה דיווחו על התקפות סייבר מונעות בינה מלאכותית בארגון שלהם בשנה האחרונה.
שילוב הבינה המלאכותית בכל שלבי הפשיעה
פושעי סייבר ורמאים שילבו בינה מלאכותית בכל שלבי הפעילות שלהם, כולל פרופיל קורבנות, ניתוח נתונים גנובים, גניבת מידע כרטיסי אשראי ויצירת זהויות מזויפות.
סטטיסטיקות מדאיגות ומגמות עתידיות
הנתונים העדכניים מצביעים על הסלמה דרמטית בשימוש בבינה מלאכותית לפשיעת סייבר – העלות הגלובלית הממוצעת של הפרת נתונים עמדה על 4.88 מיליון דולר ב-2024, עלייה של 10% מ-2023. USAID צופה שהעלות הגלובלית של פשיעת הסייבר תטפס ל-24 טריליון דולר עד 2027. ישנה עלייה של למעלה מ-4,000% בהתקפות פישינג מונעות בינה מלאכותית ו- 91% ממומחי האבטחה צופים עלייה משמעותית באיומי בינה מלאכותית בשלוש השנים הקרובות.
ומה בצד ההגנה
למרות האיומים, בינה מלאכותית משמשת גם כנשק הגנתי יעיל. חברות המשתמשות בבינה מלאכותית לצרכי אבטחה חוסכות בממוצע 2.2 מיליון דולר בעלויות הפרת נתונים לעומת חברות שאינן משתמשות בפתרונות אלה. Anthropic מספרת כי היא חוסמת חשבונות חשודים, משתפת מידע עם רשויות ועם חברות אבטחה אחרות, ומפתחת כלים שמזהים פעילות חריגה עוד לפני שהמתקפה יוצאת לדרך.
במקרים מסוימים קמפיינים שלמים נעצרו עוד בשלב ההכנות. יחד עם זאת, צריך לזכור, התוקפים מסתגלים מהר, מחליפים שיטות ולומדים מהחסימות. לכן ההגנה חייבת להתפתח בקצב מתמיד, אחרת נמצא את עצמנו תמיד צעד אחד מאחור.
למה זה חשוב לכולנו, לא רק לאנשי סייבר
כשפושעי סייבר משתמשים בבינה מלאכותית, ההשלכות כבר לא נשארות בעולם המחשבים. הן מגיעות ישר אל תוך החיים שלנו. זה יכול להיות בית חולים שמאבד גישה למידע קריטי על חולים, עסק קטן שנאלץ לשלם כופר כדי לא לקרוס, או אדם פרטי שמקבל הודעת סחיטה או פוגש בוט שמתחזה לאדם אמיתי. מה שבעבר נראה רחוק ומורכב, הופך היום לפגיעות יומיומית. כולנו חשופים, ודווקא בגלל זה חשוב להבין את התמונה ולהיערך מראש.
מה עושים עכשיו?
ברמה האישית
תחשבו על זה כך, רוב ההתקפות מתחילות בהודעה אחת לא צפויה – לינק במייל, קובץ שהגיע בוואטסאפ, או בקשה דחופה להזין סיסמה. אם עוצרים רגע ולא לוחצים מיד, אפשר למנוע נזק גדול. גם אימות דו־שלבי פשוט (כמו קוד בסמס) הופך את החשבון שלכם להרבה יותר קשה לפריצה. ואם משהו נראה מוזר, שתפו חבר, בן משפחה או קולגה. לפעמים עצירה של דקה והתייעצות קטנה מונעת נפילה במלכודת.
ברמה הארגונית
כדי להתמודד עם איומי הסייבר החדשים, נדרשות פעולות משולבות:
-
יישום מסגרות ממשל בינה מלאכותית כמו NIST AI RMF לניהול סיכונים.
-
השקעה בפתרונות זיהוי אנומליות מבוססי AI שיאתרו איומים בזמן אמת.
-
הכשרת עובדים לזיהוי התקפות סוציאליות מתוחכמות.
-
פיתוח תהליכי גיוס מחמירים שימנעו חדירת “עובדים מזויפים”.
אבל חשוב להבין, האיום איננו רק טכנולוגי, אלא גם אנושי וניהולי. מבחן קוד או ראיון בזום כבר לא מספיקים כדי לוודא מי באמת נמצא מאחורי המסך. עובדים חדשים צריכים לעבור תהליך אימות זהות מקיף, וכל עובד חייב לקבל גישה רק למערכות הנחוצות לו – צמצום הרשאות שווה צמצום סיכונים.
כמו שמתרגלים כיבוי אש, כך צריך לתרגל גם מצבי תקיפה דיגיטלית: הודעות פישינג, ניסיונות סחיטה או גניבת זהות. מי שמתרגל – נופל פחות. ולבסוף, גיבוי טוב שנבדק בפועל וניתן לשחזר ממנו במהירות, יכול להיות ההבדל בין ארגון שממשיך לעבוד כרגיל לבין ארגון שנאלץ לשלם כופר ולעצור פעילות.
לסיכום, הבינה המלאכותית לא הפכה את פשיעת הסייבר לגזירת גורל, אבל היא הפכה אותה ליותר מהירה, גמישה ומשכנעת מתמיד. המשמעות ברורה – המתקפות יגיעו, אבל זה לא אומר שאין מה לעשות. החדשות הטובות הן שאפשר להתכונן. ככל שנבין איך נראית מתקפה כזו בפועל, נזהה את הסימנים מוקדם יותר, ונשאל את השאלות הנכונות, נוכל לעצור את הנזק בזמן.
למי שרוצה להעמיק בנושא ולקבל גם נתונים טכניים והמלצות – כנסו לדוח המלא: Threat Intelligence Report: August 2025.