חדשות AI - חדשות בינה מלאכותית | Let's AI בינה מלאכותית https://letsai.co.il/articles/news-and-innovations/ בינה מלאכותית Tue, 03 Mar 2026 21:37:38 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp חדשות AI - חדשות בינה מלאכותית | Let's AI בינה מלאכותית https://letsai.co.il/articles/news-and-innovations/ 32 32 איך לגרום ל-AI לענות קצר ולעניין https://letsai.co.il/stop-ai-fluff/ https://letsai.co.il/stop-ai-fluff/#respond Wed, 04 Mar 2026 06:52:12 +0000 https://letsai.co.il/?p=70661 "תהיה תמציתי." זו כנראה ההנחיה הנפוצה ביותר שאנשים כותבים כשהם מקבלים תשובה ארוכה מדי מ-ChatGPT. והיא כמעט אף פעם לא עובדת. לא בגלל שהמודל מתעלם, אלא בגלל שאין לו מושג מה "תמציתי" אומר בעיניכם. בשבילו, תמציתי זה אולי לגלח כמה מילים ולהמשיך הלאה. בשבילכם, זה משפט אחד ישר לעניין. מי שהשתמש ב-ChatGPT או ב-Claude מכיר […]

הפוסט איך לגרום ל-AI לענות קצר ולעניין הופיע ראשון בLet's AI בינה מלאכותית

]]>

"תהיה תמציתי." זו כנראה ההנחיה הנפוצה ביותר שאנשים כותבים כשהם מקבלים תשובה ארוכה מדי מ-ChatGPT. והיא כמעט אף פעם לא עובדת. לא בגלל שהמודל מתעלם, אלא בגלל שאין לו מושג מה "תמציתי" אומר בעיניכם. בשבילו, תמציתי זה אולי לגלח כמה מילים ולהמשיך הלאה. בשבילכם, זה משפט אחד ישר לעניין. מי שהשתמש ב-ChatGPT או ב-Claude מכיר את המבנה: פתיחה ארוכה שלא מוסיפה כלום, אחריה הסתייגויות זהירות, ואז סיכום שחוזר על מה שכבר נאמר. התשובה בפועל קבורה באמצע, בין כל השכבות שמסביב. יש שיטה לתקן את זה, והיא עובדת בשלוש שכבות: לפני השיחה, בתוכה, ואחריה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה AI כותב יותר מדי

כדי להבין את הפתרון, שווה להבין את הבעיה. מודלי AI מאומנים על כמויות עצומות של טקסט מהאינטרנט, שמטבעו נוטה לאורך. בנוסף, בשלב האימון שבו בני אדם מדרגים תשובות (למידה מפידבק של בני אנוש או RLHF), תשובות ארוכות יותר קיבלו שוב ושוב ציונים גבוהים יותר. התוצאה היא שהמודל פיתח הרגל עמוק שקשה לעקור - יותר מילים שווה ציון טוב יותר.

 

"שחיקת זיכרון" או "קריסת ההקשר"

"שחיקת זיכרון" או "קריסת ההקשר"

 

ויש בעיה נוספת שרוב האנשים לא שמים לב אליה. ככל שהמודל מייצר יותר טקסט, מה שהוא מחזיק בזיכרון הפעיל מתמלא ברעש. אחרי עשר עד חמש עשרה הודעות בשרשור ארוך, המודל פשוט פחות חד. לא כי הוא "עייף", אלא כי הוא טובע בתוך המלל שהוא עצמו יצר, כלומר, ככל שאתם מנהלים עם ה-AI שיחה ארוכה יותר באותו חלון, כך הוא 'זוכר' יותר מילים מיותרות מהעבר ומתחיל לאבד את הפוקוס שלו. התוצאה: התשובות הופכות לפחות חכמות ופחות מדויקות.

שכבה ראשונה: לקבוע כללים מראש

הדרך הכי יעילה לקצר תשובות היא לקבוע כללים לפני שהשיחה מתחילה. ChatGPT, Claude ו-Gemini מאפשרים להגדיר הנחיות קבועות שהמודל קורא לפני שהוא עונה לכם. אפשר לעשות את זה בתוך הפרויקטים (Projects) של הבוטים, דרך Custom GPTs, Gemini Gems, וכמובן דרך Custom Instructions שנמצאים בהגדרות הראשיות של החשבון. שני עקרונות עובדים כאן:

 

הראשון - הגדרות מדויקות, לא מעורפלות. במקום "תהיה תמציתי", כתבו: "שאלות פשוטות - תשובה של משפט עד שניים. שאלות בינוניות - שלושה עד חמישה משפטים. שאלות מורכבות - פסקה אחת ומקסימום חמש נקודות." ההבדל: במקום מילה סובייקטיבית שהמודל מפרש לבד, נתתם לו מספרים. הוא לא צריך לפרש מה אתם רוצים, רק למלא.

 

השני - הנחיות חיוביות, לא שליליות. "אל תכתוב הקדמות ארוכות" לא עובד כמו שחושבים. נסו להגיד למישהו "אל תחשוב על סוס ורוד" - הדבר הראשון שקורה הוא שהסוס הורוד קופץ לראש. עם AI זה אותו דבר. הנחיה שלילית לפעמים מושכת את תשומת הלב דווקא לדבר שניסיתם למנוע. מה כן עובד: "התחילו ישר בתשובה", "כתבו משפטים קצרים והצהרתיים", "פתחו בנקודה הכי חשובה." כיוון ברור (״מה כן״) תמיד יעיל יותר מהנחיה מעורפלת.

שכבה שנייה: לכפות פורמט

גם עם כללים ברקע, ההנחיה הספציפית שכותבים משפיעה על אורך התשובה. הטריק הוא לכפות על המודל פורמט שלא מאפשר יותר מדי מלל. פורמטים כמו טבלאות ורשימות מוגבלות לא משאירים מקום להרחבות מיותרות, סיכומים או משפטי גישור - הם מכריחים את המודל להגיש מידע רלוונטי ונקודתי.

 

למשל, במקום לשאול "מה ההבדלים בין העסקת צוות שיווק פנימי לבין סוכנות חיצונית?" כתבו "בנה טבלת השוואה עם העמודות האלה: עלות, שליטה, מהירות, מומחיות." במקום "תסביר לי את הנושא" בקשו "רשימה של מקסימום חמישה סעיפים, עד 20 מילים לכל אחד." אפשר גם לבקש שלבים ממוספרים עם הגבלת משפטים בכל שלב. העיקרון הוא שברגע שקובעים מסגרת, אין מקום לרעש.

שכבה שלישית: לתקן בדיעבד

לפעמים עשיתם הכל נכון, והתשובה עדיין ארוכה מדי. אפשר לתקן גם אחרי שהתשובה הגיעה.

 

כתבו בצ׳אט: "קצרו ב-50%, הסירו כל הכללה, השאירו רק משפטים קצרים וחדים." שלושה דברים ספציפיים: כמה לקצר, מה להסיר, ואיך לכתוב. הנחיה מדידה עובדת הרבה יותר טוב מ-"תקצר."

כלי מחקר מעמיק

כשמדברים על כלי מחקר מעמיק כמו Deep Research, אלה נוטים כברירת מחדל להפיק דוחות מפורטים, משום שהם מיועדים לאיסוף רחב של מקורות, הצלבה והצגת הקשר מלא ולא רק לספק תשובה קצרה, אבל אין כאן מנגנון שמחייב אורך ואי אפשר לשלוט בו, וברוב המקרים ניתן מראש לבקש תקציר, להגדיר אורך רצוי או להתמקד בממצאים מעשיים בלבד.

 

אם כבר התקבל דוח ארוך מדי, דרך יעילה היא להעתיק אותו לשיחה חדשה ולהנחות את המודל לחלץ רק מסקנות יישומיות ולהסיר רקע, משום ששינוי ההקשר מגדיר מחדש את מטרת העיבוד ומחדד את הפלט, ולפעמים, כאשר השאלה ממוקדת ופשוטה, חיפוש רגיל עם מודל מתקדם עשוי לספק תוצאה איכותית ותמציתית דומה, אך בנושאים מורכבים או כאלה הדורשים הצלבת מקורות שיטתית, כלי מחקר ייעודי עשוי להניב תוצאה מקיפה ומדויקת יותר.

איפה מעדכנים את הכללים

איפה לכתוב את הכללים מהשכבה הראשונה? יש שתי אפשרויות - בתוך פרויקט ספציפי (כמו GPT מותאם או Claude Project) או בהגדרות הכלליות של החשבון.

 

הנחיות מותאמות אישית לבוט

הנחיות בהגדרות הכלליות של החשבון

 

ההמלצה היא להתחיל מההגדרות הכלליות. כשכותבים כללים בתוך פרויקט ספציפי, הם עובדים רק כשפותחים את הפרויקט הספציפי. כשכותבים אותם ב-Custom Instructions של ChatGPT או Claude, שנמצאים ישר בהגדרות הראשיות, הם חלים אוטומטית על כל שיחה. אין צורך לזכור לעבור לכלי הנכון, אין חיכוך והבסיס אחיד.

 

הנחיות בסביבות מבודדות

הנחיות בתוך פרויקט ספציפי או ״סביבה מבודדת״

מה עושים עכשיו

הצעד הראשון לוקח דקה. היכנסו להגדרות של המודל הקרוב לביתכם, כנסו ל-Custom Instructions, וכתבו שם שלושה כללים ברורים: הגדרת אורך לשאלות פשוטות, הגדרת אורך לשאלות מורכבות, והנחיה להתחיל ישר בתשובה. אחרי זה, בפעם הבאה שהתשובה עדיין ארוכה מדי, תגדירו פורמט מועדף או חדדו בדיוק מה אתם רוצים. שלוש שכבות, כל אחת עובדת לבד, וביחד ההבדל מורגש מיד.

הפוסט איך לגרום ל-AI לענות קצר ולעניין הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/stop-ai-fluff/feed/ 0
מה אנחנו יודעים על אוטונומיה, פיקוח וסיכון של סוכני AI בעולם האמיתי https://letsai.co.il/anthropic-agent-behavior-study/ https://letsai.co.il/anthropic-agent-behavior-study/#respond Tue, 03 Mar 2026 07:09:11 +0000 https://letsai.co.il/?p=70615 מחקר חדש של אנטרופיק (Anthropic), המבוסס על מיליוני אינטראקציות עם סוכני AI, מגלה דפוס עקבי: ככל שהמשתמשים צוברים ניסיון, הם מעניקים לסוכנים יותר חופש פעולה אבל ממשיכים לפקח עליהם באמצעות התערבות נקודתית. בעולם שבו סוכני AI הופכים לכלי עבודה שגרתי, השאלה המרכזית היא לא רק מה הם מסוגלים לבצע אלא כיצד אנשים משתמשים בהם בפועל. […]

הפוסט מה אנחנו יודעים על אוטונומיה, פיקוח וסיכון של סוכני AI בעולם האמיתי הופיע ראשון בLet's AI בינה מלאכותית

]]>
מחקר חדש של אנטרופיק (Anthropic), המבוסס על מיליוני אינטראקציות עם סוכני AI, מגלה דפוס עקבי: ככל שהמשתמשים צוברים ניסיון, הם מעניקים לסוכנים יותר חופש פעולה אבל ממשיכים לפקח עליהם באמצעות התערבות נקודתית. בעולם שבו סוכני AI הופכים לכלי עבודה שגרתי, השאלה המרכזית היא לא רק מה הם מסוגלים לבצע אלא כיצד אנשים משתמשים בהם בפועל. הנתונים מראים שמשתמשים מנוסים מפחיתים את הצורך לאשר כל פעולה, עוברים לניטור רציף ומתערבים רק כשמשהו דורש תיקון או שינוי כיוון. כך נוצרת מערכת יחסים שבה האוטונומיה של הסוכן אינה רק תכונה טכנולוגית אלא תוצאה של שילוב בין התנהגות המשתמש, עיצוב המוצר ויכולת המודל לזהות מצבי אי ודאות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך מודדים סוכנים בעולם אמיתי

למרות ההתקדמות המהירה בתחום, מדידת ההתנהגות של סוכני AI בשטח היא משימה מורכבת. אין הגדרה מוסכמת למהו סוכן, והארכיטקטורות משתנות במהירות, ממערכות קצרות שמפעילות סוכן יחיד ועד מערכות מרובות סוכנים שפועלות במשך שעות. בנוסף, ספקי מודלים רואים רק חלק מהתמונה כיוון שב‑API הציבורי ניתן לנתח פעולות בודדות אך לא את רצף הפעולות המלא, ואילו ב‑Claude Code אפשר לעקוב אחר סשנים שלמים אבל רק בתחום אחד, הנדסת תוכנה.

 

כדי להתגבר על הפער הזה, אנטרופיק שילבה בין שני מקורות נתונים משלימים: עומק מתוך Claude Code ורוחב מתוך ה‑API הציבורי. השילוב מאפשר לזהות מגמות שלא ניתן לראות מכל מקור בנפרד ולבנות תמונה אמפירית של האופן שבו סוכנים באמת פועלים בעולם האמיתי.

כשסוכן עובד לבד במשך עשרות דקות

אחד הממצאים הבולטים במחקר הוא העלייה המשמעותית במשך הזמן שבו Claude Code עובד ללא התערבות אנושית. המדד של ה‑99.9‑percentile, שמייצג את המקרים הקיצוניים שבהם המשתמשים מאפשרים לסוכן לעבוד ברצף לאורך זמן, כמעט הוכפל בתוך כמה חודשים. בספטמבר 2025 תורים ארוכים נמשכו פחות מ‑25 דקות, ובינואר 2026 הם כבר עברו את רף 45 הדקות.

 

מקרים קיצוניים שבהם הסוכן עובד הכי הרבה זמן ברצף

מקרים קיצוניים שבהם הסוכן עובד הכי הרבה זמן ברצף | anthropic

 

העלייה הזו אינה מוסברת רק בשיפור יכולות המודל. היא מתרחשת בצורה חלקה, ללא קפיצות סביב שחרורי גרסאות, ומרמזת על שינוי בהרגלי המשתמשים ובסוגי המשימות שהם נותנים לסוכן. אנטרופיק מציינת כי הירידה הקלה בינואר ופברואר עשויה להיות תוצאה של הכפלת בסיס המשתמשים ושל מעבר מפרויקטי חגים למשימות עבודה קצרות יותר. למרות התנודות, המגמה הכוללת ברורה - סוכנים עובדים לבד למשכי זמן ארוכים יותר.

משתמשים מנוסים משנים אסטרטגיה

ככל שהמשתמשים צוברים ניסיון, הם משנים את אופן הפיקוח שלהם על הסוכן. משתמשים חדשים נוטים לאשר כמעט כל פעולה, ולכן שיעור ה‑auto‑approve אצלם עומד על כ‑20 אחוז מהסשנים. לעומתם, משתמשים מנוסים שעברו מאות סשנים מגיעים ליותר מ‑40 אחוז שימוש ב‑auto‑approve.

 

שיעור אישור אוטומטי לפי ניסיון

שיעור אישור אוטומטי לפי ניסיון | anthropic

 

במקביל, דווקא אצל המשתמשים המנוסים שיעור ההפרעות גבוה יותר: מ‑5 אחוז אצל חדשים ל‑9 אחוז אצל ותיקים. זו אינה סתירה אלא שינוי גישה. במקום לאשר כל צעד, המשתמשים המנוסים מאפשרים לסוכן לעבוד באופן חופשי, עוקבים אחר התקדמותו ומתערבים רק כשמשהו דורש תיקון או שינוי כיוון. אנטרופיק מציינת כי דפוס דומה מופיע גם ב‑API הציבורי, שם ככל שהמשימה מורכבת יותר, יש פחות מעורבות אנושית בכל פעולה, כנראה משום שאישור רציף אינו מעשי במשימות ארוכות ורב שלביות.

 

שיעור ההפרעות (interrupts) על בסיס ניסיון המשתמש

שיעור ההפרעות (interrupts) על בסיס ניסיון המשתמש | anthropic

שאלות הבהרה כמנגנון בטיחות

לא רק המשתמשים משפיעים על רמת האוטונומיה בפועל, אלא גם הסוכן עצמו. המחקר מראה שככל שהמשימה מורכבת יותר, Claude Code עוצר לשאול שאלות הבהרה בתדירות גבוהה יותר, ובמשימות המורכבות ביותר הוא עושה זאת פי שניים יותר מאשר המשתמשים עוצרים אותו.

 

ככל שהמשימה מורכבת יותר, Claude שואל יותר והאנשים גם מפריעים יותר

ככל שהמשימה מורכבת יותר, Claude שואל יותר והאנשים גם מפריעים יותר | anthropic

 

הסיבות לעצירות מצד Claude מגוונות, לדוגמה, איסוף מידע, בקשת הבהרה, בקשת הרשאות ובקשת אישור לפני פעולה. מנגד, המשתמשים עוצרים בעיקר כדי לספק הקשר טכני חסר, להתמודד עם איטיות או תקיעות וגם כדי לקחת את השלב הבא לידיים.

 

אנטרופיק מדגישה שעצירות יזומות מצד הסוכן הן מנגנון בטיחות משמעותי. מודל שמזהה אי ודאות ושואל שאלות מפחית סיכון ומשלים את מנגנוני הפיקוח החיצוניים כמו הרשאות ואישורים.

 

מדוע Claude עוצר ומדוע בני אדם עוצרים אותו

מדוע Claude עוצר ומדוע בני אדם עוצרים אותו | anthropic

סוכנים בתחומי סיכון

בניתוח של כמעט מיליון קריאות כלי ב‑API הציבורי, אנטרופיק מדרגת כל פעולה לפי רמת סיכון ואוטונומיה בסולם של אחת עד עשר. רוב הפעולות נמצאות באזור נמוך סיכון ונמוך אוטונומיה, אך יש גם אשכולות קיצוניים בתחומים כמו גישה לרשומות רפואיות, טיפול בחומרים מסוכנים, תגובה לאירועי אש ופריסת קוד לפרודקשן. חלק מהפעולות הללו הן ככל הנראה סימולציות או הערכות אבטחה, אך הן עדיין מצביעות על פוטנציאל לסיכון גבוה יותר.

 

היכן משתמשים בסוכנים כיום

היכן משתמשים בסוכנים | anthropic

 

מנגד, פעולות בעלות אוטונומיה גבוהה כוללות מסחר אוטונומי בקריפטו, ניטור מערכות, סינון תיבות מייל ומשימות אדמיניסטרציה אוטומטיות. אנטרופיק מציינת כי שמונים אחוז מהסוכנים משתמשים במנגנוני הגנה כלשהם, ורק 0.8 אחוז מהפעולות הן בלתי הפיכות, נתון שמרמז על רמת זהירות גבוהה יחסית בשימוש בפועל.

 

סיכון מול אוטונומיה

סיכון מול אוטונומיה | anthropic

 

מבחינת תחומי פעילות, כמעט חמישים אחוז מהשימושים מגיעים מהנדסת תוכנה, אך תחומים נוספים כמו BI, שירות לקוחות, מכירות, פיננסים, סייבר ורפואה מתחילים לאמץ סוכנים בהיקפים קטנים. מגמה זו מרמזת על התרחבות עתידית של השימוש בסוכנים גם בתחומים שבהם רמת הסיכון עשויה להיות גבוהה יותר.

 

מפת סיכון‑אוטונומיה בפועל

מפת סיכון‑אוטונומיה בפועל | anthropic

מה מיוחד במחקר הזה

ייחודו של המחקר הזה הוא בכך שאין כאן בחינה של יכולות המודל בתנאי מעבדה, אלא מיקוד באופן שבו אנשים משתמשים בו בפועל. הוא מראה שהאוטונומיה שמתקבלת בשטח היא תוצאה של שילוב בין יכולות המודל, עיצוב המוצר והתנהגות המשתמש. המשמעות היא שלא ניתן להעריך סוכנים רק באמצעות מבחני יכולת, אלא יש צורך במדידה רציפה של האופן שבו הם פועלים בסביבות אמיתיות, תחום שבו הכלים הקיימים עדיין מוגבלים.

 

אנטרופיק מציינת כמה מגבלות משמעותיות שצריך לקחת בחשבון - הנתונים מגיעים מספק אחד בלבד, ב‑API הציבורי אין דרך לעקוב אחר סשנים מלאים, חלק מהפעולות המסוכנות הן ככל הנראה סימולציות או הערכות אבטחה, והניתוח משקף חלון זמן מוגבל. למרות המגבלות, המחקר מספק הצצה נדירה לדינמיקה האמיתית של סוכנים בעולם העבודה ולשינויים שמתרחשים כאשר משתמשים מתחילים לסמוך עליהם יותר.

פיקוח לא נעלם, הוא פשוט משתנה

המחקר של אנטרופיק מציג תמונה ברורה. ככל שהמשתמשים מתקדמים, הם מעניקים לסוכנים יותר חופש פעולה אך אינם מוותרים על פיקוח. במקום לאשר כל פעולה מראש, הם עוברים למודל עבודה שבו הסוכן פועל באופן עצמאי רוב הזמן, וההתערבות מתרחשת רק כשמשהו דורש תיקון או שינוי כיוון. במקביל, הסוכנים עצמם יודעים לעצור, לשאול שאלות ולהגביל את עצמם כשהם מזהים אי ודאות, מה שמוסיף שכבת בטיחות נוספת.

 

המשמעות לתעשייה ברורה. בטיחות לא תושג באמצעות דרישה לאישור לכל פעולה, אלא באמצעות תשתיות ניטור לאחר פריסה, ממשקי פיקוח יעילים ומודלים שמזהים מתי עליהם לעצור ולבקש הבהרה. ככל שסוכנים ייכנסו לתחומים חדשים ומורכבים יותר, היכולת להבין את הדינמיקה הזו ולנהל אותה בצורה מושכלת תהפוך חיונית.

 

למחקר המלא של אנטרופיק, כנסו כאן.

הפוסט מה אנחנו יודעים על אוטונומיה, פיקוח וסיכון של סוכני AI בעולם האמיתי הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-agent-behavior-study/feed/ 0
Perplexity Computer מציגה את חזון הענן של 2026 https://letsai.co.il/perplexity-computer/ https://letsai.co.il/perplexity-computer/#respond Mon, 02 Mar 2026 07:57:38 +0000 https://letsai.co.il/?p=70552 פרפלקסיטי הציגה בסוף פברואר 2026 את Perplexity Computer, שירות ענן שמוגדר על ידי החברה כמערכת שמפעילה סוכני AI מרובים במקביל ומבצעת פרויקטים מקצה לקצה. לא מדובר בשדרוג לחיפוש של פרפלקסיטי או בעוד צ'אטבוט, אלא במערכת שבה כל סוכן רץ בסביבת עבודה מבודדת בענן, עם גישה לדפדפן, קבצים, רשת וחיבורים לשירותים חיצוניים. החברה מציגה את השירות […]

הפוסט Perplexity Computer מציגה את חזון הענן של 2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
פרפלקסיטי הציגה בסוף פברואר 2026 את Perplexity Computer, שירות ענן שמוגדר על ידי החברה כמערכת שמפעילה סוכני AI מרובים במקביל ומבצעת פרויקטים מקצה לקצה. לא מדובר בשדרוג לחיפוש של פרפלקסיטי או בעוד צ'אטבוט, אלא במערכת שבה כל סוכן רץ בסביבת עבודה מבודדת בענן, עם גישה לדפדפן, קבצים, רשת וחיבורים לשירותים חיצוניים. החברה מציגה את השירות כ"מה שמחשב אישי ב-2026 צריך להיות" - הגדרה שאפתנית שמציבה רף ציפיות גבוה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה בכלל מערכות מרובות-סוכנים

בעולם ה-AI מתרחש בשנה האחרונה מעבר ממודלים בודדים למערכות שמפעילות כמה מודלים במקביל. הרעיון פשוט - במקום מודל אחד שמנסה לעשות הכול, מערכת רב-סוכנית מחלקת את העבודה בין מודלים שונים, שכל אחד מהם מותאם למשימה אחרת - מחקר, קוד, עיצוב או ניתוח נתונים. הגישה הזו מאפשרת להריץ תהליכים מורכבים בצורה יעילה יותר, והיא הופכת בהדרגה לסטנדרט החדש בפיתוח מערכות AI מתקדמות.

 

בחירת מודל והפעלת ה‑Computer

כפתור הפעלת ה‑Computer

איך זה עובד

בלב המערכת עומד מודל ניתוב בשם Claude Opus - מודל הדגל של Anthropic - שמשמש את Perplexity לבחירת המודל המתאים לכל תת-משימה. כשמשתמש מגדיר מטרה, Opus מפרק אותה למשימות ותת-משימות, בוחר מתוך תשע עשרה מודלים זמינים, ומפעיל סוכנים שרצים בו-זמנית. כל סוכן פועל בסביבה מבודדת עם דפדפן Comet (הדפדפן של פרפלקסיטי), מערכת קבצים אמיתית, גישה לרשת ומאות חיבורים לשירותים כמו Github, Slack ו-Notion.

 

המערכת שומרת זיכרון מתמשך בין הפעלות, כך שהיא זוכרת פרויקטים קודמים, העדפות וקבצים. הרעיון הוא לארוז לתוך שירות ענן אחד את מה שמשתמשים מתקדמים כבר מנסים לעשות לבד: לחבר כלים, לשלוח AI למחקר, לקוד, לעיצוב ולפריסה, בלי שיצטרכו לתאם הכל בעצמם.

 

ממשק ה‑Computer: נקודת הכניסה למשימות מורכבות בענן

ממשק ה‑Computer: נקודת הכניסה למשימות מורכבות בענן

מה שונה כאן

Perplexity Computer מייצג שינוי כיוון ביחס לדור הקודם של כלים כמו ChatGPT או Claude, שפעלו בעיקר כמודל יחיד עם יכולות הרחבה. במקום "מודל חכם אחד", פרפלקסיטי מציגה מערכת שמנהלת תהליך שלם של פירוק משימות, בחירת מודלים, הרצת סוכנים במקביל ושילוב התוצרים. זה ניסיון להפוך את ה-AI מכלי שמגיב לפקודות - למערכת שמבצעת פרויקטים שלמים.

מגוון תרחישי שימוש

פרפלקסיטי מציגה מגוון תרחישי שימוש רשמיים עבור Perplexity Computer, ובהם מחקר מעמיק, יצירת קוד, הפקת תוכן וניתוח נתונים. בהדגמות שפרסמה החברה נראים סוכנים שפועלים במקביל לביצוע מספר תת-משימות, כמו איסוף מידע, יצירת מסמכים או בניית ממשקים.

 

מנכ"ל פרפלקסיטי, Aravind Srinivas, תיאר את המערכת: "Computer unifies every current capability of AI into a single system." חשוב לציין שהדגמות אלו מגיעות מהחברה עצמה, והסיקור התקשורתי הראשוני מאשר את תיאור המוצר אך מדגיש שבדיקות ביצועים עצמאיות עדיין לא פורסמו.

תמחור ומודל השימוש

Perplexity Computer זמין מיידית למנויי Max של פרפלקסיטי, במחיר מאתיים דולר בחודש ליחידים ושלוש מאות עשרים וחמישה דולר למנוי ארגוני שכולל פיצ'רי אבטחה נוספים.

 

מנויי Max מקבלים עשרת אלפים קרדיטים חודשיים, ובונוס חד-פעמי של עשרים אלף קרדיטים שתקף לשלושים יום. מנויי Pro, בעשרים דולר בחודש, יקבלו גישה בהמשך.

 

מודל הקרדיטים נועד לשקף את עלות השימוש בפועל. כל פעולה של סוכן - כמו הרצת מודל, טעינת דפדפן או שימוש בחיבור חיצוני - צורכת כמות מסוימת של קרדיטים. המשתמשים יכולים לבחור מודלים שונים לסוכנים שונים ולהגדיר תקרת הוצאה כדי לשלוט בשימוש. זהו מודל נפוץ בשירותי AI מתקדמים, שמאפשר להפעיל משימות מורכבות בלי להתחייב למשאבים קבועים מראש.

 

המחיר מציב את Perplexity Computer ברמת תמחור גבוהה בהשוואה לשירותי AI צרכניים אחרים, בהתאם למודל השימוש-לפי-צריכה שמציעה החברה.

אבטחה, פרטיות ומגבלות

לפי פרפלקסיטי, כל סוכן פועל בסביבה מבודדת (sandbox) עם גישה מבוקרת לקבצים ולרשת. החברה מדגישה שהמערכת בנויה על תשתית הענן שלה, הכוללת שכבות אבטחה, הפרדת תהליכים ושמירה על נתוני משתמשים. מאחר שהמערכת פועלת בענן בלבד, פרפלקסיטי מציינת כי היא מתוכננת לעמוד בסטנדרטים המקובלים של אבטחת מידע עבור שירותי SaaS.

 

פרפלקסיטי מדגישה כי Perplexity Computer פועל כולו בענן, ללא אפשרות להרצה מקומית או עבודה במצב לא מקוון. המשמעות היא שהמערכת דורשת חיבור אינטרנט רציף, ושכל המשימות מתבצעות על גבי תשתית החברה. בנוסף, החברה מציינת כי מדובר בשירות חדש שנמצא בשלבי אימוץ מוקדמים, וכי יכולות נוספות יתווספו בהמשך.

בין חזון הענן לשליטה המקומית

שירותים אחרים בשוק מציעים גישות שונות להפעלת מערכות AI. לדוגמה, Claude Cowork של Anthropic פועל במודל יחיד עם אינטגרציה למחשב המקומי, בעוד פרויקטים בקוד פתוח מאפשרים הרצה מקומית של מודלים. Perplexity Computer מציג גישה הפוכה: מערכת רב-מודלית שמופעלת כולה בענן ומבצעת אורקסטרציה בין מודלים שונים. ההבדלים בין הגישות משקפים בחירה בין גמישות עננית לבין שליטה מקומית, אך נכון לעכשיו אין עדיין השוואות ביצועים עצמאיות שמאפשרות להעריך את היתרונות המעשיים של כל מודל. מה שכן ברור הוא שהמרוץ למערכות רב‑סוכנית רק מתחיל, ו‑Perplexity Computer מציבה בו את אחד הניסיונות השאפתניים והמעניינים ביותר עד כה.

הפוסט Perplexity Computer מציגה את חזון הענן של 2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/perplexity-computer/feed/ 0
קלוד בטהראן – למה טראמפ כועס על אנטרופיק? https://letsai.co.il/claude-tehran-security-solution/ https://letsai.co.il/claude-tehran-security-solution/#respond Sun, 01 Mar 2026 12:08:31 +0000 https://letsai.co.il/?p=70549 האם האמריקאים השתמשו ב"'קלוד" (Claude) של אנטרופיק במהלך מבצע Epic Fury (התקיפה באיראן)? בזמן שאנחנו משתמשים בבינה מלאכותית (AI) כדי לנסח מיילים למשרד או לסכם מאמרים ארוכים, בחדרי המלחמה של הפנטגון אותה טכנולוגיה בדיוק כבר מנתחת מטרות לתקיפה באיראן. דיוני האתיקה המנומסים של עמק הסיליקון על "AI שוחר שלום" התנגשו לאחרונה חזק במציאות המזרח-תיכונית, כשדיווחים […]

הפוסט קלוד בטהראן – למה טראמפ כועס על אנטרופיק? הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם האמריקאים השתמשו ב"'קלוד" (Claude) של אנטרופיק במהלך מבצע Epic Fury (התקיפה באיראן)? בזמן שאנחנו משתמשים בבינה מלאכותית (AI) כדי לנסח מיילים למשרד או לסכם מאמרים ארוכים, בחדרי המלחמה של הפנטגון אותה טכנולוגיה בדיוק כבר מנתחת מטרות לתקיפה באיראן. דיוני האתיקה המנומסים של עמק הסיליקון על "AI שוחר שלום" התנגשו לאחרונה חזק במציאות המזרח-תיכונית, כשדיווחים מצד ה-WSJ (הוולסטריט ג'ורנל) גרסו שנעשה שימוש במודל השפה קלוד של אנטרופיק (Anthropic) בתקיפות אמריקאיות באיראן. לא מדובר בעוד דיון תאורטי על "AI במלחמה", אלא בשאלה פרקטית מאוד: האם זה לגיטימי לשלב מודל AI "אזרחי" במכונת המלחמה האמריקאית, ומה קורה כשמודל AI כבר משולב עמוק בתהליכי עבודה ביטחוניים, ואז מגיעה הוראה פוליטית לעצור הכול ו"להוריד את השאלטר"?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

קלוד בטהראן

לפי דיווחים שמיוחסים ל-WSJ, פיקוד המרכז של צבא ארצות הברית (CENTCOM), השתמש בקלוד לצורכי הערכות מודיעין, זיהוי מטרות וסימולציות תרחישי קרב במהלך תקיפות באיראן במסגרת מבצע "שאגת הארי". הפרטים המדויקים לגבי היקף המעורבות של המודל לא פורסמו, ואין מידע פומבי על כך שקלוד קיבל החלטות מבצעיות או הנחה ירי. עם זאת, עצם השימוש בו כחלק ממערך תמיכה מודיעיני בזמן רגיש מציב אותו עמוק בתוך שרשרת קבלת ההחלטות.

 

צפו בראיון של אביתר אדרי (Co-Founder ב-LetsAI) במהדורה המרכזית של ערוץ 10, על שילוב קלוד בתקיפה באיראן:

 

הנקודה המשמעותית היא העיתוי. לפי אותם דיווחים, השימוש נעשה לאחר שנשיא ארצות הברית דונלד טראמפ הורה לסוכנויות פדרליות להפסיק מיד שימוש בטכנולוגיה של אנטרופיק, תוך מתן חלון של עד שישה חודשים למשרד ההגנה להשלמת תהליך הוצאה מסודר משימוש. כלומר, בזמן שהדרג המדיני מאותת על עצירה, הדרג המבצעי עדיין פועל במציאות שבה הכלי כבר מוטמע.

זו לא הפעם הראשונה: תקדים מדורו

הסיפור האיראני אינו מנותק מהקשר רחב יותר. רק לאחרונה דווח כי קלוד הופעל גם במהלך מבצע אמריקאי ללכידת נשיא ונצואלה לשעבר ניקולס מדורו (Nicolás Maduro) בקראקס. באותו מקרה, לפי הדיווחים, הגישה למודל נעשתה דרך חברת פאלנטיר (Palantir), שקבלנותיה משולבות עמוק בפנטגון ובקהילת המודיעין.

 

גם שם לא נחשף תפקידו המדויק של המודל, אך צוין כי הוא הופעל כחלק ממערך מודיעיני תומך בזמן אמת. הדמיון בין שני האירועים אינו מקרי. בשניהם מדובר במודל אזרחי שפותח תחת מסגרת אתית מחמירה יחסית, אשר מוצא את עצמו בתוך תהליכים מבצעיים דרך שכבת תיווך טכנולוגית.

 

התקדים הזה חשוב להבנת הפרשה הנוכחית. הוא מלמד שכאשר מודל שפה משולב בפלטפורמות ביטחוניות קיימות, עצם העובדה שהיצרן אינו מעוניין בשימוש מסוים אינה בהכרח חוסמת אותו בפועל.

 

שומרי סף, חוזים ופוליטיקה - למה טראמפ כועס?

בלב המשבר לא עומדת שאלה טכנולוגית, אלא שאלה של שליטה. אנטרופיק הציבה לאורך השנים מסגרת עקרונית לפיתוח מודלים, בין היתר דרך תפיסת "Constitutional AI", והבהירה כי יש שימושים שאינם מקובלים עליה. במקביל, החברה כן פיתחה גרסאות ייעודיות לגופים ממשלתיים, כולל עבודה בסביבות מסווגות, אך ביקשה לעגן בחוזה מגבלות ברורות.

 

המשבר הוצת כאשר הפנטגון דרש לאפשר שימוש בקלוד "for all lawful purposes", כלומר לכל מטרה חוקית, ללא חריגים. מבחינת משרד ההגנה, אם פעולה עומדת במסגרת החוק והמדיניות, אין מקום לכך שספק טכנולוגי יגדיר מגבלות נוספות. הדרישה הזו נועדה להבטיח חופש פעולה מלא בתוך גבולות הדין. אנטרופיק סירבה לנוסח הזה. לפי הדיווחים, היא ביקשה לעגן בחוזה שני קווים אדומים מפורשים: איסור על שימוש למעקב המוני אחר אזרחים אמריקאים, ואיסור על שילוב המודל בנשק אוטונומי לחלוטין ללא פיקוח אנושי. מנקודת מבטה, הסכמה גורפת ל"כל מטרה חוקית" ללא החרגות יוצרת פתח לשימושים שהיא רואה כמסוכנים מוסרית ותדמיתית, גם אם אין כוונה מוצהרת לבצע אותם.

 

כאן נכנס הממד הפוליטי. הנשיא דונלד טראמפ (Donald Trump) מסגר את ההתעקשות של אנטרופיק כניסיון של חברה פרטית "להכתיב" לצבא כיצד להילחם וכמהלך שפוגע בביטחון הלאומי. בדיווחים צוטטו טענות כי מדובר בניסיון "strong-arm the Pentagon" ובהחדרת שיקולים אידאולוגיים לשדה הקרב. מבחינתו, לא מדובר רק בוויכוח חוזי, אלא בשאלה עקרונית: האם ספק AI רשאי להגביל את חופש הפעולה של מערכת הביטחון כאשר הפעולה חוקית.

 

מנקודת מבט הממשל, אם השימוש הוא חוקי ומפוקח, אין מקום לכך שספק יקבע קווים נוספים. מנקודת מבט אנטרופיק, חתימה על נוסח רחב מדי משמעה ויתור על שליטה בסיסית באופן שבו נעשה שימוש בטכנולוגיה שלה. הפער הזה, בין תפיסת ריבונות מדינתית לבין אחריות תאגידית, הוא שהפך מחלוקת חוזית לעימות חזיתי ברמה הלאומית.

 

אי אפשר פשוט "לכבות" מודל

ב-27 בפברואר 2026 פרסם טראמפ פוסט ברשת Truth Social שבו הורה ישירות לכל סוכנויות הממשל הפדרלי להפסיק באופן מיידי כל שימוש בטכנולוגיה של אנטרופיק (Anthropic), כולל המודל קלוד (Claude). בנוסח החריג בעוצמתו כתב:

"I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic's technology. We don't need it, we don't want it, and will not do business with them again!".

 

ההוראה לא הייתה כללית או עמומה. היא נוסחה כהנחיה ביצועית ישירה, עם דרישה להפסקה מיידית. עם זאת, במסגרת אותה הודעה ניתן חלון של עד שישה חודשים למשרד ההגנה לצורך השלמת הוצאה מסודרת של המודל משימוש.

 

הפוסט של טראמפ

הפוסט של טראמפ.

 

כאן מתגלה הפער בין הצהרה פוליטית לבין מציאות תפעולית. כאשר נשיא מורה "להפסיק מיד", הציפייה הציבורית היא לעצירה חדה וברורה. אלא שבפועל, מודל שפה כמו קלוד אינו אפליקציה נפרדת שניתן למחוק בלחיצת כפתור. אם הוא כבר משולב במערכות ניתוח מודיעין, בדאשבורדים מבצעיים, בתהליכי עבודה של אנליסטים ובאינטגרציות דרך קבלני משנה כמו פאלנטיר (Palantir), הוצאתו דורשת תהליך הדרגתי.

 

הוראת טראמפ עצמה נבעה, לפי הדיווחים, ממחלוקת עקרונית עם אנטרופיק סביב מגבלות שימוש צבאי. אך מרגע שההוראה פורסמה, היא יצרה דינמיקה חדשה: הפנטגון נדרש ליישם החלטה פוליטית תוך כדי שמירה על כשירות מבצעית. במקביל, דווח כי אנטרופיק הוגדרה כ"סיכון לשרשרת האספקה" על ידי משרד ההגנה, צעד שמעמיק את המשבר וממחיש עד כמה מודלי AI נתפסים כיום כחלק מתשתית קריטית. לכן, כאשר מדברים על "לכבות" מודל, לא מדובר רק בהחלטה ערכית או פוליטית. מדובר במהלך הנדסי, חוזי וארגוני מורכב. ההוראה הנשיאותית הציבה יעד ברור, אך עצם הצורך בתקופת מעבר מדגיש עד כמה הכלי כבר נטמע עמוק במערכות הביטחון.

 

OpenAI נכנסת לוואקום

המשבר סביב אנטרופיק לא הותיר ואקום ריק לאורך זמן. ימים ספורים לאחר שהנשיא דונלד טראמפ הורה לסוכנויות הפדרליות להפסיק לעבוד עם אנטרופיק והפנטגון הודיע כי בכוונתו להגדיר את החברה כסיכון לשרשרת האספקה, הודיעה OpenAI על הסכם משלה עם משרד ההגנה האמריקאי לפריסת טכנולוגיה ברשת המסווגת של המחלקה.

 

לפי דיווח של רויטרס, ההסכם כולל מנגנוני הגנה נוספים שנועדו להגדיר בצורה ברורה את גבולות השימוש במודל. ב-OpenAI הדגישו כי ההתקשרות החדשה אוכפת שלושה "קווים אדומים": איסור שימוש בטכנולוגיה למעקב המוני אחר אזרחים אמריקאים, איסור שימוש להכוונת מערכות נשק אוטונומיות, ואיסור על קבלת החלטות אוטומטיות בעלות השלכות כבדות משקל ללא מעורבות אנושית.

 

החברה ציינה כי מנגנוני ההגנה מיושמים בגישה רב-שכבתית: שליטה מלאה בערימת הבטיחות של המודל, פריסה דרך ענן, מעורבות של אנשי OpenAI בעלי סיווג ביטחוני בתהליך, והגנות חוזיות שמאפשרות אף ביטול ההסכם במקרה של הפרה. במילים אחרות, OpenAI מבקשת להבטיח שהטכנולוגיה שלה תוטמע בתוך מערכת ביטחונית, אך תחת מסגרת בקרה הדוקה יותר מזו שיוחסה להסכמים קודמים.

 

כשמודלי AI משמשים לצרכים בטחוניים

כשמודלי AI משמשים לצרכים בטחוניים.

 

שלושה קווים אדומים

הגדרת הקווים האדומים אינה עניין סמנטי בלבד. איסור על מעקב המוני מקומי נוגע ישירות לחשש הציבורי מפני שימוש ב-AI לצרכים פוליטיים או פנימיים. האיסור על הכוונת נשק אוטונומי משרטט גבול ברור בין כלי ניתוח ותמיכה לבין מערכת שמקבלת החלטות ירי. וההתנגדות להחלטות אוטומטיות בעלות השלכות כבדות משקל משמרת, לפחות על הנייר, את עקרון ה"Human in the loop".

 

עם זאת, הפנטגון עצמו חתם בשנה האחרונה על הסכמים בהיקף של עד 200 מיליון דולר כל אחד עם מעבדות AI מובילות, בהן אנטרופיק, OpenAI וגוגל. משרד ההגנה הבהיר כי הוא מבקש לשמר גמישות מרבית ולא להיות מוגבל על ידי אזהרות של מפתחי הטכנולוגיה מפני שימושים מסוימים. כאן מתחדדת המתיחות המובנית: החברות מבקשות לקבוע גבולות, בעוד הממסד הביטחוני מבקש לשמור לעצמו מרחב פעולה רחב ככל האפשר.

 

גם מתחרות לא בהכרח אויבות

נקודה מעניינת נוספת היא עמדתה של OpenAI ביחס לאנטרופיק. למרות התחרות הישירה בין החברות, OpenAI הבהירה כי לדעתה אין להגדיר את אנטרופיק כסיכון לשרשרת האספקה. ההצהרה הזו אינה רק מחווה תעשייתית. היא משקפת הבנה רחבה יותר שלפיה שוק מודלי השפה הגדולים הפך לחלק מתשתית קריטית, והגדרות רגולטוריות מסוג זה עשויות להשפיע על כלל השחקנים.

 

התמונה המצטיירת מורכבת. מצד אחד, ממשל טראמפ מצמצם את שיתוף הפעולה עם אנטרופיק. מצד שני, הוא מעמיק את ההתקשרות עם OpenAI תחת מסגרת חוזית מפורטת יותר. במקביל, החברות עצמן מבקשות להגן על קווים אדומים אתיים, אך אינן מוותרות על נוכחות במערכות הביטחון.

 

כך, הסיפור על קלוד באיראן אינו עומד לבדו. הוא חלק מתחרות רחבה יותר על עיצוב הכללים של פריסת AI מסווג בצבא האמריקאי. השאלה אינה רק איזה מודל פועל ברשת המסווגת, אלא באילו תנאים, באיזו שקיפות ובאיזו יכולת אכיפה כאשר מתעוררת מחלוקת בין הדרג הפוליטי, הדרג הביטחוני ומפתחי הטכנולוגיה.

 

כלי עזר או מעצב החלטות?

בסופו של דבר, הסיפור על קלוד באיראן אינו רק על כלי מסוים או על חברה אחת. הוא נוגע בשאלה עמוקה יותר: היכן עובר הגבול בין כלי תומך ניתוח לבין מערכת שמשפיעה בפועל על החלטות מבצעיות. כאשר מודל מסכם מודיעין, מזהה דפוסים או מציע תרחישים, הוא אינו יורה טילים. אך הוא עשוי לעצב את האופן שבו בני אדם תופסים את המצב, מדרגים איומים ובוחרים בין חלופות. האחריות נותרת בידי האדם, אך השפעת הכלי אינה שולית.

 

שנת 2026 אינה מתמקדת עוד בשאלה האם נעשה שימוש ב-AI במערכות ביטחוניות. השאלה היא איזה מודל, באילו מגבלות, דרך אילו תשתיות, ותחת איזו בקרה אנושית. המקרה האיראני, יחד עם תקדים מדורו, מבהירים שהגבולות בין אזרחי לצבאי מיטשטשים במהירות, ושהאתגר האמיתי אינו רק טכנולוגי אלא מוסדי וחוזי.

 

במבט רחב יותר, הפרשה ממחישה כי עידן המודלים הגנרטיביים אינו מתנהל רק בזירת הסטארטאפים והמעבדות, אלא גם בחדרי מלחמה. מי שמפתח AI, מי שמטמיע אותו ומי שמסדיר אותו, יידרשו להתמודד עם השאלה כיצד שומרים על שליטה, שקיפות ואחריות, גם כשהטכנולוגיה כבר נטועה עמוק בתוך המערכת.

הפוסט קלוד בטהראן – למה טראמפ כועס על אנטרופיק? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-tehran-security-solution/feed/ 0
מי זה בוריס צ׳רני ואיך Claude Code משנה את העבודה המודרנית https://letsai.co.il/boris-cherny-claude-code/ https://letsai.co.il/boris-cherny-claude-code/#respond Sun, 01 Mar 2026 07:29:30 +0000 https://letsai.co.il/?p=70526 בוריס צ’רני (Boris Cherny), היוצר והראש של Claude Code באנטרופיק, התארח לאחרונה ב‑Lenny’s Podcast ושיתף כיצד מה שהחל כאב‑טיפוס טרמינלי פשוט לפני שנה בלבד הפך לכלי שמשנה לא רק את תפקיד המהנדס, אלא את כל מבנה העבודה המודרנית. צ’רני עצמו הוא הדוגמה החיה למהפכה הזו. הוא לא כתב שורת קוד אחת ביד מאז נובמבר, ובכל […]

הפוסט מי זה בוריס צ׳רני ואיך Claude Code משנה את העבודה המודרנית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בוריס צ’רני (Boris Cherny), היוצר והראש של Claude Code באנטרופיק, התארח לאחרונה ב‑Lenny’s Podcast ושיתף כיצד מה שהחל כאב‑טיפוס טרמינלי פשוט לפני שנה בלבד הפך לכלי שמשנה לא רק את תפקיד המהנדס, אלא את כל מבנה העבודה המודרנית. צ’רני עצמו הוא הדוגמה החיה למהפכה הזו. הוא לא כתב שורת קוד אחת ביד מאז נובמבר, ובכל זאת נחשב לאחד המהנדסים הפרודוקטיביים ביותר בחברה. הסיפור שלו הוא עדות לשינוי עמוק - מעבר מעולם שבו בני אדם כותבים קוד, לעולם שבו ה‑AI הופך לשותף מלא, יוזם ויצירתי.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהקוד נכתב מעצמו

צ’רני מתאר מציאות חדשה שבה כמעט אין צורך לכתוב קוד ביד. Claude Code מייצר עבורו את כל הקוד, והוא עצמו פועל כמנהל שמכוון את העבודה, בודק את התוצאות ומאשר אותן. השינוי הזה אינו אישי בלבד. מאז שאימצה את הכלי נמדדה עלייה של כ‑200 אחוז(!) בפריון המהנדסים בתוך אנטרופיק עצמה.

 

הסיבה לכך ברורה. ה‑AI מבצע את רוב העבודה הטכנית, והמהנדס מתפנה לחשיבה מערכתית, תכנון ופתרון בעיות. במקום לכתוב שורות קוד הוא מנהל תהליך. במקום לבצע משימות הוא מגדיר אותן. זה שינוי עמוק בתפקיד שמקרב את המהנדס לעבודה של מנהל צוות ולא של מבצע טכני.

כשהמכונה מתחילה להציע רעיונות

אחד הרגעים המשמעותיים עבור צ’רני היה להבין שה‑AI לא רק מבצע הוראות אלא גם מתחיל ליזום. Claude Code סורק משוב משתמשים, דיווחי תקלות ונתוני טלמטריה, ומציע פיצ’רים חדשים שכדאי לשקול. זה שינוי משמעותי. ה‑AI מפסיק להיות כלי טכני שמבצע משימות והופך לשותף אסטרטגי שמזהה דפוסים שאדם עלול לפספס ומכוון את המוצר לכיוונים חדשים. במילים אחרות, הוא כבר לא רק כותב קוד אלא משתתף בעיצוב המוצר עצמו.

 

צ’רני מדגיש שהשינוי הזה לא יישאר בתחום הפיתוח. כל מקצוע שמבוסס על עבודה עם כלים דיגיטליים, כמו ניהול מוצר, עיצוב או ניתוח נתונים, צפוי לעבור מהפכה דומה. ברגע שה‑AI מסוגל להפעיל תוכנות, לבצע פעולות ולנהל תהליכים, כל תפקיד שמסתמך על מחשב הופך לאוטומטי חלקית. מה שנחשב היום ליתרון טכנולוגי יהפוך במהרה לסטנדרט תעסוקתי.

לחשוב קדימה ולבנות עבור המודל של עוד חצי שנה

אחד העקרונות המרכזיים של צ’רני הוא לפתח מוצרים לא לפי היכולות של המודל הנוכחי, אלא לפי היכולות של המודל הבא.

 

הוא מודה שזה לא נוח. בחצי השנה הראשונה המוצר מרגיש לא בשל ולעיתים אפילו מקרטע, אך ברגע שהמודל הבא יוצא המוצר מזנק קדימה ומגיע ל‑Product Market Fit כמעט בן לילה. זה שיעור חשוב לכל מי שבונה מוצרים בעידן של קצב התקדמות אקספוננציאלי. מי שמתכנן רק להווה, נשאר מאחור.

ללמוד מהמשתמשים מה הם באמת רוצים

Claude Code נולד מתוך תצפית פשוטה. משתמשים החלו להפעיל את הכלי בדרכים שלא תוכננו מראש. הם ניסו לנתח תמונות רפואיות, לשחזר תמונות חתונה מכונן פגום או לבצע פעולות שלא קשורות כלל לכתיבת קוד.

 

צ’רני הבין שמדובר באות חשוב ולא בשימוש לא נכון. ההתנהגות הזו חשפה צורך אמיתי שאין לו עדיין פתרון. כך נולד גם Cowork, מוצר שנבנה סביב אותם שימושים בלתי צפויים. הלקח ברור. במקום לנסות לכוון את המשתמשים למה שהתכוונת שיקרה, כדאי להקשיב למה שהם מנסים לעשות בפועל.

לא לחסוך בטוקנים

צ’רני ממליץ לארגונים לאפשר למהנדסים שימוש חופשי בטוקנים בשלב הניסוי. העלות של ה‑AI בשלב הזה נמוכה מאוד ביחס לעלות הזמן של מהנדס, ולכן אין היגיון להגביל שימוש כשהמטרה היא לחקור רעיונות ולבדוק כיוונים חדשים. רק אם רעיון מצליח ומתחיל לגדול יש טעם להתחיל לייעל עלויות. זה שינוי תפיסתי חשוב. במקום לחשוב על עלות שימוש, כדאי לחשוב על עלות ההזדמנות שמתפוגגת כשמגבילים ניסוי ויצירתיות.

אילוצים כמנוע יצירתיות

באופן פרדוקסלי צ’רני טוען שכדאי להציב בכוונה מספר קטן של מהנדסים על פרויקט. כאשר מהנדס אחד נושא על עצמו עומס גדול, הוא נאלץ להישען על ה‑AI בצורה עמוקה ומשמעותית יותר. האילוץ הזה דוחף אותו לאמץ את הכלים באופן מלא ולא להשתמש בהם רק כעזר נקודתי. כך נוצרת קפיצה אמיתית ביעילות. לא משום שה‑AI מהיר יותר, אלא משום שהאדם לומד לעבוד איתו בצורה חכמה ומדויקת יותר.

ג’נרליסטים סקרנים הם האנשים שיצליחו בעתיד

צ’רני מאמין שהעתיד שייך לאנשים רחבי אופקים. ה‑AI ייקח על עצמו חלק גדול מהעבודה הטכנית והמומחית, ולכן היתרון האנושי יעבור ליכולת לחבר בין תחומים, להבין מערכות מורכבות ולראות את התמונה הרחבה.

 

המהנדס של העתיד אינו מומחה לנישה אחת אלא ג’נרליסט שמסוגל לחשוב על הבעיה עצמה ולא רק על הפתרון הטכני. מי שיודע לשלב ידע מתחומים שונים ולהבין הקשרים רחבים יהיה זה שיתבלט בעולם שבו ה‑AI מבצע את רוב המשימות הממוקדות.

לבחור תמיד במודל הכי חכם

למרות הפיתוי להשתמש במודלים זולים ומהירים, צ’רני מתעקש לעבוד עם המודל החזק ביותר. מודל חכם טועה פחות ולכן חוסך זמן אנושי יקר. מודל זול אולי עולה פחות לטוקן, אך בפועל עולה הרבה יותר בתיקונים, בדיקות וטעויות. במילים אחרות, העלות האמיתית אינה עלות הטוקן אלא עלות הזמן האנושי שנדרש כדי לתקן את מה שהמודל החלש לא הצליח לבצע כראוי.

שינוי טכנולוגי ותרבותי

הסיפור של בוריס צ’רני הוא לא רק סיפור על מהנדס שמפסיק לכתוב קוד. זה תיאור של שינוי עמוק באופן שבו אנחנו מבינים עבודה אנושית בעידן של מערכות חכמות. ה‑AI כבר אינו כלי שמבצע הוראות אלא שותף שמבין הקשר, מציע רעיונות ומסוגל לבצע משימות מורכבות מקצה לקצה.

 

המהנדס הופך למנהל שמכוון תהליכים במקום לבצע אותם, והמוצרים נבנים מתוך מחשבה על היכולות שיהיו למודלים בעתיד ולא רק על מה שקיים היום. העובד שמצליח בסביבה הזו הוא מי שמסוגל לחבר בין תחומים, לזהות ביקוש נסתר ולחשוב בצורה רחבה ומערכתית.

 

זהו שינוי שאינו טכנולוגי בלבד אלא תרבותי. וכמו כל שינוי עמוק, הוא מתחיל מסיפור אישי אחד. מהנדס אחד שהפסיק לכתוב קוד וגילה שהעבודה שלו לא נעלמה אלא הפכה משמעותית יותר.

הפוסט מי זה בוריס צ׳רני ואיך Claude Code משנה את העבודה המודרנית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/boris-cherny-claude-code/feed/ 0
בייטדאנס מעלה את הרף עם Seedance 2.0 https://letsai.co.il/seedance-2-review/ https://letsai.co.il/seedance-2-review/#respond Sat, 28 Feb 2026 14:30:43 +0000 https://letsai.co.il/?p=70534 עולם יצירת הווידאו בבינה מלאכותית מתקדם בקצב שמקשה לעקוב אחריו, אך מדי פעם מופיע כלי שמצליח לייצר נקודת מפנה בדיון המקצועי. Seedance 2.0, מודל הווידאו החדש של בייטדאנס (Bytedance), הוא אחד מאותם כלים. בתוך שבועות ספורים מהשקתו בפברואר 2026, הוא הפך לשם שחוזר בשיחות של יוצרים, מפרסמים ואנשי קולנוע. לא מדובר בעוד מחולל קליפים מרשימים […]

הפוסט בייטדאנס מעלה את הרף עם Seedance 2.0 הופיע ראשון בLet's AI בינה מלאכותית

]]>
עולם יצירת הווידאו בבינה מלאכותית מתקדם בקצב שמקשה לעקוב אחריו, אך מדי פעם מופיע כלי שמצליח לייצר נקודת מפנה בדיון המקצועי. Seedance 2.0, מודל הווידאו החדש של בייטדאנס (Bytedance), הוא אחד מאותם כלים. בתוך שבועות ספורים מהשקתו בפברואר 2026, הוא הפך לשם שחוזר בשיחות של יוצרים, מפרסמים ואנשי קולנוע. לא מדובר בעוד מחולל קליפים מרשימים לרשתות חברתיות, אלא במערכת שמנסה למצב את עצמה ככלי עבודה מקצועי. לא מדובר כאן רק במה הוא יודע לעשות, אלא כיצד הוא משנה את האופן שבו חושבים על יצירה קולנועית מבוססת AI.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מי עומד מאחורי Seedance 2.0

Seedance 2.0 פותח על ידי בייטדאנס, תאגיד הטכנולוגיה שמוכר בעיקר בזכות TikTok. בשנים האחרונות החברה משקיעה משאבים משמעותיים בפיתוח משפחת מודלים תחת המותג Seed, ו‑Seedance 2.0 מוצג כחלק מרכזי באסטרטגיה הזו.

 

המודל מוגדר כארכיטקטורה מאוחדת ליצירה משותפת של אודיו ווידאו - מערכת שתוכננה מלכתחילה לייצר סאונד ותמונה נעה יחד, ולא כמודל וידאו שאליו נוספה שכבת אודיו מאוחרת.

 

הגישה הזו מבקשת לאחד טקסט, תמונה, וידאו ואודיו תחת שפה יצירתית אחת, יצירה מולטי מודאלית מלאה. מבחינת בייטדאנס, Seedance אינו כלי משלים לאפליקציות קיימות, אלא תשתית ליצירת תוכן עשיר המותאם לעולמות המדיה החברתית, הפרסום והבידור הדיגיטלי.

 

 

מה מיוחד במודל?

ארכיטקטורה מולטי מודאלית מאוחדת

אחד ההיבטים המרכזיים שמבדילים את Seedance 2.0 הוא היכולת לקבל בו זמנית קלטים מסוגים שונים: טקסט, עד תשע תמונות, שלושה קטעי וידאו ואודיו. המשמעות היא שליטה גבוהה בהרכב הסצנה. ניתן להגדיר דמות מתמונה אחת, תאורה מתמונה אחרת, תנועת מצלמה מקליפ שלישי ופסקול מקובץ אודיו - והמודל מאחד את כולם לתוצר עקבי. זה מאפשר עבודה מבוססת רפרנסים ועריכה מולטי מודאלית רחבה.

עקביות דמות - ה"גביע הקדוש"

אחת הבעיות הידועות ביצירת וידאו מבוסס AI היא חוסר עקביות בין שוטים. דמות שמופיעה בשוט אחד משתנה בשוט הבא, פרטים חזותיים נעלמים, בגדים מתחלפים ללא היגיון. Seedance 2.0 מציג פתרון ברור לבעיה הזו באמצעות מנגנון עקביות מתקדם שמסוגל לנעול דמות על בסיס תמונת רפרנס ולשמור על אותם פנים, לבוש וסגנון לאורך רצף סצנות. בכתבות מקצועיות, כולל ב‑Variety, צוין כי זו אחת הסיבות המרכזיות להתעניינות הרבה במודל - מעבר מקליפ חד פעמי ליצירה שמרגישה כמו סיפור מצולם.

נרטיב מרובה שוטים

בניגוד למודלים שמייצרים קטעים קצרים ומבודדים, Seedance 2.0 תומך ביצירת רצף שוטים שמתחברים לנרטיב אחיד. ניתן לייצר סצנה אחר סצנה כשהאווירה, הדמויות והקונטקסט נשמרים בין המעברים. יכולת זו מקרבת את המודל לעולמות הפרסום, הקליפים והסרטים הקצרים, שבהם נדרשת שליטה לא רק על הפריים הבודד אלא על הקשת הסיפורית כולה.

אודיו נייטיב וליפ סינק

המודל מפיק אפקטים קוליים, מוזיקה ואף דיאלוג, עם סנכרון תנועות שפתיים במספר שפות. השילוב האוטומטי בין וידאו לסאונד מצמצם את הצורך בכלי עריכה חיצוניים ומעניק תחושה של תוצר קולנועי שלם, ולא של קליפ אילם שמולבש עליו סאונד בדיעבד.

איכות וידאו ושליטה ביצירה

לפי פרסומים שונים, Seedance 2.0 מייצר וידאו באיכות 1080p ואף 2K. מעבר לרזולוציה, הדגש הוא על שליטה. בהשוואות לא רשמיות מול Sora ו‑Kling נטען כי בעוד שסורה מזוהה עם אסתטיקה חלומית וקלינג עם ריאליזם חזותי, Seedance מדגיש שליטה והכוונה מדויקת. הוא פחות נתפס כמודל שמייצר הפתעות יצירתיות, ויותר ככלי שמאפשר ליוצר להגדיר פרמטרים ברורים ולקבל תוצאה עקבית - תכונה חשובה במיוחד לפרויקטים מתמשכים.

 

ויראליות, אתיקה ומה שביניהן

ההתלהבות סביב Seedance 2.0 לא נולדה רק ממסמכי מוצר, אלא מהפצה מהירה ברשת. קליפים היפר ריאליסטיים שיוחסו למודל הופצו במהירות ועוררו דיון נרחב. בחלק מהדיווחים נטען כי אפילו פרומפט קצר יחסית יכול להוביל לתוצאה שנראית כמו הפקה עתירת תקציב.

 

במקביל, עלו שאלות אתיות ומשפטיות. ב‑Variety ובכלי תקשורת נוספים הוזכרו סוגיות של זכויות יוצרים ושימוש בדימויים של דמויות מפורסמות ללא אישור. עצם העובדה שהמודל עורר שיח רגולטורי ותרבותי תרמה להעצמת הבאזז סביבו. השילוב בין יכולות טכניות מתקדמות, שליטה נרטיבית ואודיו מובנה לבין שאלות משפטיות ותרבותיות הפך את Seedance 2.0 לנושא מרכזי בדיון על עתיד היצירה הדיגיטלית.

 

 

זמינות ושימוש מישראל

Seedance 2.0 אינו מופץ כמוצר עצמאי להורדה, אלא זמין דרך פלטפורמות של בייטדאנס, בהן Dreamina, CapCut ו‑Doubao. בישראל, הדרך הישירה והנוחה ביותר להשתמש בו היא דרך אתר Dreamina.

 

הגישה מתבצעת דרך ממשק ווב, שבו ניתן להזין פרומפט, להעלות תמונות, וידאו ואודיו ולהגדיר פרמטרים רלוונטיים. לאחר הרשמה לפלטפורמה ובחירת כלי Seedance 2.0 מתוך ממשק הכלים, המערכת מבצעת את העיבוד בענן ומחזירה תוצר שניתן להורדה או לעריכה נוספת.

 

נכון לעכשיו אין אינדיקציה לחסימה ייעודית למשתמשים מישראל, אך ייתכנו מגבלות אזוריות, דרישות רישום או מודלי תשלום בהתאם למדיניות החברה. כמו כן, אין פרטים פומביים על API פתוח או מודל רישוי עצמאי לאולפנים גדולים.

 

בין פריצת דרך טכנולוגית לשאלות על אחריות

Seedance 2.0 מדגים כיצד חברות מדיה חברתית אינן מסתפקות עוד בפלטפורמות הפצה, אלא מבקשות להשפיע גם על שלב היצירה עצמו. השילוב בין מולטי מודאליות עמוקה, עקביות דמות ואודיו נייטיב מעלה את הרף עבור המתחרות ומציב סטנדרט חדש ליכולות יצירה מבוססות AI.

 

במקביל, הדיון סביב זכויות יוצרים, רגולציה ואתיקה נמצא רק בתחילתו, והאופן שבו התעשייה תתמודד עם הסוגיות הללו יקבע אם הכלי יהפוך לחלק אינטגרלי מתהליך הייצור המקצועי או יישאר בגדר הדגמה טכנולוגית מרשימה.

הפוסט בייטדאנס מעלה את הרף עם Seedance 2.0 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/seedance-2-review/feed/ 0
Nano Banana 2 מגדיר מחדש איך יוצרים תמונות https://letsai.co.il/nano-banana-2/ https://letsai.co.il/nano-banana-2/#respond Fri, 27 Feb 2026 08:21:47 +0000 https://letsai.co.il/?p=70498 Nano Banana 2 הוא לא עדכון שגרתי אלא שינוי כיוון אמיתי. הוא יוצר תחושה של כלי שמבין את המשתמש, מגיב במהירות ומפיק תוצאות שנראות כאילו נוצרו בידי צוות של צלם, מעצב גרפי, מאייר ומתרגם הפועלים יחד. המודל משלב איכות גבוהה, זמן תגובה קצר, ידע מהעולם האמיתי ויכולת להתמודד עם הנחיות מורכבות, וכל זאת בצורה נגישה […]

הפוסט Nano Banana 2 מגדיר מחדש איך יוצרים תמונות הופיע ראשון בLet's AI בינה מלאכותית

]]>
Nano Banana 2 הוא לא עדכון שגרתי אלא שינוי כיוון אמיתי. הוא יוצר תחושה של כלי שמבין את המשתמש, מגיב במהירות ומפיק תוצאות שנראות כאילו נוצרו בידי צוות של צלם, מעצב גרפי, מאייר ומתרגם הפועלים יחד. המודל משלב איכות גבוהה, זמן תגובה קצר, ידע מהעולם האמיתי ויכולת להתמודד עם הנחיות מורכבות, וכל זאת בצורה נגישה למשתמשים בכל רמות הידע. הוא מסוגל ליצור תמונות חדות ומדויקות, לשלב טקסט קריא בעברית ובשפות נוספות, לשמור על עקביות בין דמויות ואובייקטים ולהפיק תוצרים ברזולוציה גבוהה המתאימים לשימוש מקצועי. התחושה היא של כלי שמאפשר לכל אחד, בין אם הוא יוצר, מורה, מעצב, מפתח או מנהל, להפוך רעיון לתמונה ברורה ומדויקת בלי מאמץ ובלי צורך בהיכרות מוקדמת עם כלים מורכבים.

 

ההשקה הרשמית: כך מציגה גוגל את Nano Banana 2

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה השתנה ולמה זה משמעותי

עד היום היו בג׳מיני שני מודלים ליצירת תמונות. המודל החינמי, Nano Banana, היה זמין כמעט ללא הגבלה אך סבל ממגבלות ברורות כמו טקסט בתוך תמונות שלא תמיד היה מדויק, העקביות בין דמויות השתנתה מפריים לפריים, והתוצאות היו טובות אבל לא ברמה של מודלים מתקדמים יותר. מנגד, גרסת ה‑Pro הציעה איכות גבוהה בהרבה, אך הייתה מוגבלת למשתמשים בתשלום או לכמות יומית מצומצמת.

 

Nano Banana 2 משנה את התמונה. גוגל שדרגה את המודל החינמי והביאה אליו יכולות שבעבר היו שמורות רק למנויים: טקסט מדויק בתוך תמונות, תמיכה בשפות שונות כולל עברית, יצירת תמונות המבוססות על מידע מהעולם האמיתי ואינפוגרפיקות שמבוססות על נתונים עדכניים. בנוסף, המודל מאפשר שליטה מלאה ברזולוציה ובפורמט, עד לאיכות 4K, ומציע תפריט סגנונות חדש שמקל על בחירת מראה ויזואלי מדויק.

 

המשמעות המעשית ברורה, Nano Banana 2 הופך למודל ברירת המחדל ליצירת תמונות בג׳מיני, כך שהיכולות שהיו פרימיום עד לא מזמן הופכות כעת לבסיסיות וזמינות לכולם. כמו בכל השקה, הפריסה מתבצעת בהדרגה וצפויה להגיע לכל המשתמשים בימים הקרובים.

 

גרפיקה צבעונית בסגנון חללי שמלווה את הכרזת Nano Banana 2

גרפיקה צבעונית בסגנון חללי שמלווה את הכרזת Nano Banana 2

מה הכלי יודע לעשות

העוצמה של Nano Banana 2 מתבטאת ביכולת שלו לקחת רעיון מילולי ולהפוך אותו לתמונה מלאה, עשירה ומדויקת. הוא מסוגל ליצור תמונות חדשות מאפס, לערוך תמונות קיימות, לשלב טקסט ברור בתוך תמונה ולתרגם טקסטים ישירות על גבי הוויזואל. בנוסף, הוא יודע לבנות סדרות של תמונות עקביות, בין אם מדובר בסטוריבורד, קומיקס, קמפיין שיווקי או כל רצף ויזואלי אחר. היכולת הזו מאפשרת ליצור תוצרים שלמים ומלוטשים, גם כאשר מדובר ברעיונות מורכבים או ברצפים ארוכים.

 

המודל יודע להתמודד עם הנחיות מורכבות ולפרק רעיון למרכיבים כמו סגנון, תאורה, צבעים, פרופורציות, טקסט, הבעות פנים ואביזרים, ואז להרכיב אותם מחדש לתמונה אחת שמכבדת את כל הדרישות. מעבר לכך, הוא משתמש בידע מהאינטרנט כדי לייצר תוצאות שמבוססות על העולם האמיתי, כולל אינפוגרפיקות, דיאגרמות ויזואליזציות נתונים. כל אלה נוצרים מתוך טקסט פשוט, בלי צורך בכלים נוספים או ידע טכני.

למי הכלי מתאים

Nano Banana 2 מתאים כמעט לכל סוג משתמש, וזה אחד היתרונות הבולטים שלו. מי שאינו טכני יכול ליצור חומרים מקצועיים בלי ללמוד תוכנות עיצוב: פוסטרים, מצגות, מודעות, כרטיסי ברכה, אינפוגרפיקות וסדרות תמונות, והכול באמצעות ניסוח רעיון פשוט בשפה טבעית.

 

Arc de Triomphe: יצירה מבוססת מציאות

India Gate - יצירה מבוססת מציאות

 

יוצרים ומעצבים נהנים משליטה מדויקת בסגנון, תאורה, צבעוניות וקומפוזיציה, ומקבלים תוצאות שמאפשרות להם לדלג על שלבי סקיצה ארוכים. מפתחים יכולים לבנות עליו מערכות שלמות, כמו כלים שמייצרים תמונות בקנה מידה גדול, שירותים שמתרגמים מודעות לשפות שונות או מערכות שמייצרות ויזואליים דינמיים על בסיס נתונים חיים. צוותי מוצר ושיווק יכולים ליצור סטוריבורדים, קמפיינים וגרפיקות במהירות, תוך שמירה על עקביות בין תמונות שונות.

איפה הכלי זמין

Nano Banana 2 משולב בפלטפורמות שבהן משתמשים כבר עובדים, ולכן המעבר אליו טבעי ופשוט. הוא זמין באפליקציית Gemini, במצב AI של Google Search וב‑Lens, וגם בפלטפורמת Flow, שבה הוא משמש כמודל ברירת המחדל החדש ומוצע בחינם וללא קרדיטים (נכון לעכשיו).

 

מפתחים יכולים להשתמש בו דרך AI Studio, Vertex AI ,Firebase או Antigravity וכמובן דרך ה-API של ג׳מיני, ולהטמיע אותו בקלות באפליקציות קיימות. המשמעות היא שאין צורך ללמוד כלי חדש או לשנות תהליכי עבודה. Nano Banana 2 מגיע אל המשתמש, בדיוק במקום שבו הוא כבר יוצר.

 

אחד היתרונות הבולטים של Nano Banana 2 הוא יחס המחיר‑ביצועים שלו. הוא מספק איכות גבוהה ומהירות מרשימה בעלות נמוכה משמעותית בהשוואה למודלים כבדים יותר, מה שהופך אותו לאפשרות משתלמת במיוחד עבור מפתחים ועסקים שמייצרים כמויות גדולות של תוכן ויזואלי. השילוב בין מהירות, איכות ועלות הופך אותו לפתרון יעיל הן לפרויקטים גדולים והן לשימוש יומיומי.

איך זה עובד 

Nano Banana 2 מרגיש אינטואיטיבית כמו אדם יצירתי שמבין את המשתמש. אתה מציג רעיון, והוא בונה אותו לתמונה שלמה עם קומפוזיציה, תאורה, צבעים, טקסט ופרטים קטנים שמתחברים יחד באופן טבעי. הוא גם יודע לשמור על עקביות בין דמויות ואובייקטים לאורך סדרת תמונות, כך שהמראה שלהם נשאר יציב ואחיד מפריים לפריים.

 

מאחורי היכולת הזו עומד Gemini 3.1 Flash Image, מודל מהיר שמחובר לשכבת ידע מהעולם האמיתי. הוא משתמש בתמונות ובמידע מהאינטרנט כדי לייצר תוצאות שמבוססות על מציאות, ומפעיל מנגנון עקביות שמאפשר לשמור על מראה אחיד של עד חמש דמויות וארבעה עשר אובייקטים בוורקפלואו אחד. המודל תומך ברזולוציות שנעות בין 512 פיקסלים ל‑4K, ביחסי ממדים מגוונים כולל יחסים קיצוניים כמו 1:8, ומאפשר לבחור רמת חשיבה מהירה, עמוקה או דינמית בהתאם למורכבות ההנחיה.

 

הנתונים מראים ש‑Gemini 3.1 Flash Image מוביל באופן עקבי במדדי איכות ודיוק, כולל ביצועים גבוהים במיוחד ביצירת אינפוגרפיקות מבוססות עובדות:

 

 

השוואת ביצועים: Nano Banana 2 מוביל באיכות, דיוק ואינפוגרפיקה

השוואת ביצועים: Nano Banana 2 מוביל באיכות, דיוק ואינפוגרפיקה | google.blog

 

בנוסף ליכולות היצירה, Nano Banana 2 מציג גם דור חדש של עריכה חכמה ומהירה. הוא יודע לבצע פעולות מתקדמות כמו inpainting ו‑outpainting בדיוק גבוה ובזמן תגובה קצר, כך שאפשר להעלים אובייקטים, להשלים חלקים חסרים, להרחיב פריימים או לשנות פרטים קטנים בלי לפגוע בסגנון, בתאורה או במרקם המקורי. השילוב הזה הופך אותו לא רק לכלי יצירה אלא גם לכלי עריכה מקצועי שמאפשר לתקן, לשפר וללטש תמונות קיימות באותה קלות שבה יוצרים חדשות.

איך מתחילים?

העבודה עם Nano Banana 2 מתחילה ברעיון קצר ופשוט. פותחים את אפליקציית Gemini או את Google Search במצב AI, מנסחים את מה שרוצים לראות ומקבלים תמונה מוכנה. אין צורך בידע מוקדם או בהגדרות מורכבות, והמודל יודע להתמודד היטב גם עם הנחיות בסיסיות.

 

יצירת תמונה בננו בננה 2

אפשר ליצור כל סגנון או רעיון ויזואלי

 

משתמשים טכניים יכולים להעמיק יותר ולהגדיר פרמטרים כמו רזולוציה, יחס ממדים, רמת חשיבה ועקביות דמויות, ולבנות תהליכים אוטומטיים שמייצרים מאות או אלפי תמונות. אבל גם מי שאינו מכיר מונחים טכניים יכול להתחיל מיד, משום שהמודל מותאם לעבודה טבעית וברורה לכל משתמש.

 

הנה תפריט הסגנונות החדש שמאפשר לבחור מראה ויזואלי מדויק מתוך מגוון רחב של אפשרויות - ממונוכרום ועד סוריאליזם:

 

תפריט הסגנונות החדש של Nano Banana 2

תפריט הסגנונות החדש של Nano Banana 2

תבניות פרומפט לנקודת פתיחה מהירה

כדי להתחיל לעבוד עם Nano Banana 2 בצורה חלקה ומהירה, אפשר להיעזר בתבניות פרומפט שמדגימות איך לנסח בקשה ברורה. כל אחת מהן יכולה לשמש כבסיס, שאפשר להתאים לצורך המדויק שלכם:

  • פוסטר עם טקסט בעברית: “פוסטר בסגנון מודרני, צבעים חמים, טקסט בעברית: ‘מבצע סוף עונה’, טיפוגרפיה נקייה, רקע מופשט.”

  • תרגום טקסט בתוך תמונה: “תרגם את הטקסט שבתמונה לעברית ושמור על אותו סגנון עיצובי.”

  • סטוריבורד עקבי: “צור סדרת תמונות עם עקביות של אותה דמות: גבר בשנות ה־30, שיער קצר, זקן קל, חולצה כחולה…”

  • אינפוגרפיקה: “הפוך את הטקסט הבא לאינפוגרפיקה ברורה ומינימליסטית: ‘שלושה שלבים לבניית אתר: תכנון, עיצוב, פיתוח’.”

התבניות האלו נותנות תחושת כיוון ומאפשרות להבין במהירות איך לנסח בקשה שהמודל יבצע בצורה מדויקת וברורה.

 

הדגמת ה-'Pet Passport' (דרכון חיית מחמד) של גוגל לוקחת תמונה בודדת של חיית מחמד ושולחת אותה להרפתקה חובקת עולם באתרי תיירות מפורסמים. היא מקפידה לשמור על המראה של חיית המחמד לאורך היעדים השונים ברחבי העולם. לקבלת תוצר מותאם אישית באמת, הם שילבו מגוון הגדרות של שליטה יצירתית:

 

כלי שמרחיב את גבולות היצירה

Nano Banana 2 משתלב בצורה טבעית בתהליכי עבודה אמיתיים ומאחד יכולות מתקדמות של יצירת תמונות, הבנת שפה, ידע מהעולם האמיתי ועריכה חכמה לכדי כלי אחד נגיש ומהיר.

 

יוצר תוכן יכול להפיק בתוך דקות סדרת תמונות לפוסט, כולל טקסט חד וברור בעברית. מורה יכול להפוך פסקה מורכבת לדיאגרמה שממחישה תהליך ביולוגי. מפתח יכול לבנות מערכת שמייצרת באנרים לשווקים שונים בעולם, עם תרגום אוטומטי של הטקסט בתוך התמונה והתאמה לשפה המקומית. צוות מוצר יכול ליצור סטוריבורד למוצר חדש ולשמור על עקביות בין כל הסצנות, ומעצב יכול להפיק סקיצות מהירות ללקוח וללטש אותן ידנית לאחר מכן.

 

המודל מאפשר ליצור תוצרים מקצועיים בזמן קצר, לשמור על עקביות בין דמויות ואובייקטים, לשלב טקסט מדויק ולבנות תהליכי עבודה שלמים בלי צורך בכלים נוספים. כך הוא מרחיב את גבולות היצירה הדיגיטלית ומאפשר לכל משתמש להפוך רעיון לתמונה ברורה, חדה ומדויקת באופן טבעי ופשוט.

 

למגוון דוגמאות ומידע נוסף, כנסו לבלוג של גוגל.

הפוסט Nano Banana 2 מגדיר מחדש איך יוצרים תמונות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/nano-banana-2/feed/ 0
Nvidia מטפסת לשיאי הכנסות חדשים כשהביקוש למחשוב AI דוחף את השקעות הענק בענף https://letsai.co.il/ai-computing-nvidia/ https://letsai.co.il/ai-computing-nvidia/#respond Thu, 26 Feb 2026 19:23:55 +0000 https://letsai.co.il/?p=70487 חברת השבבים אנבידיה פרסמה בימים האחרונים את תוצאותיה הכספיות לרבעון האחרון, והציגה שיאים חדשים בהכנסות וברווחים, שהם למעשה תוצאה ישירה של הביקוש הגובר לעיבוד בינה מלאכותית ברחבי העולם. על רקע הוצאות הון חסרות תקדים מצד ענקיות הטכנולוגיה וספקיות הענן, מנכ"ל החברה ג'נסן הואנג תיאר שוק שנמצא בנקודת מפנה, שבו מחשוב אינו עוד תשתית תומכת אלא […]

הפוסט Nvidia מטפסת לשיאי הכנסות חדשים כשהביקוש למחשוב AI דוחף את השקעות הענק בענף הופיע ראשון בLet's AI בינה מלאכותית

]]>
חברת השבבים אנבידיה פרסמה בימים האחרונים את תוצאותיה הכספיות לרבעון האחרון, והציגה שיאים חדשים בהכנסות וברווחים, שהם למעשה תוצאה ישירה של הביקוש הגובר לעיבוד בינה מלאכותית ברחבי העולם. על רקע הוצאות הון חסרות תקדים מצד ענקיות הטכנולוגיה וספקיות הענן, מנכ"ל החברה ג'נסן הואנג תיאר שוק שנמצא בנקודת מפנה, שבו מחשוב אינו עוד תשתית תומכת אלא מנוע הכנסות בפני עצמו.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

ביקוש אקספוננציאלי למחשוב ונתוני שיא ברבעון

החברה דיווחה על הכנסות של 68 מיליארד דולר ברבעון האחרון, עלייה של 73% בהשוואה לרבעון המקביל אשתקד. מתוך סכום זה, 62 מיליארד דולר הגיעו מחטיבת הדאטה סנטר, שממשיכה לשמש כקטר הצמיחה המרכזי של אנבידיה.

 

בפירוט נוסף, חילקה החברה את פעילות הדאטה סנטר לשני רכיבים עיקריים: 51 מיליארד דולר מהכנסות מחשוב, בעיקר ממעבדים גרפיים (GPU) המיועדים לאימון ולהרצת מודלים, ו-11 מיליארד דולר ממוצרי תקשורת ורשת, דוגמת NVLink. בסיכום שנתי רשמה אנבידיה הכנסות של 215 מיליארד דולר, נתון הממחיש את ההתרחבות המואצת של פעילותה.

 

בשיחת הוועידה עם אנליסטים, תואר הביקוש לעיבוד בינה מלאכותית, לדבריו של הואנג, "הביקוש לטוקנים בעולם הפך לאקספוננציאלי לחלוטין", תוך שהוא מדגיש כי גם מעבדים גרפיים בני שש שנים הפועלים בענן "נצרכים במלואם", ואף נהנים מעליית מחירים. אמירה זו משקפת לא רק מחסור בהיצע מתקדם, אלא גם את עומק החדירה של מערכות בינה מלאכותית לתהליכים עסקיים.

 

 

הדאטה סנטר כמרכז כובד אסטרטגי

מחשוב כבסיס לייצור טוקנים

הנתונים הכספיים מצביעים על כך שחטיבת הדאטה סנטר הפכה לליבת הפעילות של החברה. אם בעבר התבססה אנבידיה גם על שוק הגיימינג והגרפיקה, הרי שכעת עיקר הצמיחה נובע ממכירת תשתיות מחשוב למודלי שפה, מערכות יצירת תוכן, מנועי חיפוש מבוססי בינה מלאכותית וכלים ארגוניים.

הואנג התייחס לשינוי המבני שעובר השוק וציין כי "בעולם החדש של הבינה המלאכותית, מחשוב הוא הכנסה". לדבריו, ללא כוח עיבוד אין אפשרות לייצר טוקנים, וללא טוקנים אין אפשרות להגדיל הכנסות. בכך הוא חיבר בין שכבת התשתית לשכבת היישומים והמודלים, והציג את שרשרת הערך כיחידה כלכלית אחת.

 

 

הואנג מדבר על חידושים והישגים באנבידיה בכנס הCES 

 

רשתות ותקשורת כתשתית משלימה

לצד מכירת המעבדים עצמם, מרכיב משמעותי בהכנסות מגיע ממוצרי רשת מתקדמים. טכנולוגיות כמו NVLink מאפשרות חיבור בין אלפי מעבדים גרפיים במרכזי נתונים, ומייעלות את תהליכי האימון וההרצה של מודלים גדולים. ההפרדה החשבונאית בין מחשוב לרשת ממחישה כי אנבידיה אינה מוכרת רק שבבים, אלא פתרון תשתיתי שלם.

 

אפס הכנסות מסין למרות הקלות רגולטוריות

אחד הנתונים הבולטים בדוח הוא היעדר מוחלט של הכנסות מייצוא שבבים לסין, אף על פי שממשלת ארצות הברית הקלה לאחרונה על מגבלות הייצוא. סמנכ"לית הכספים, קולט קרס, ציינה כי אמנם אושרו כמויות קטנות של מוצרי H200 ללקוחות סינים, אך אלו טרם הניבו הכנסות, וכי אין ודאות שיותר יבוא לשוק הסיני בעתיד הקרוב.

הצהרה זו משקפת אי־ודאות רגולטורית מתמשכת, לצד רגישות גיאו־פוליטית סביב טכנולוגיות מתקדמות. במקביל, קרס ציינה כי מתחרים סינים, שנתמכו בגל הנפקות ראשוניות, מתקדמים בפיתוחיהם. בהקשר זה הזכירה את הנפקת Moore Threads בדצמבר האחרון, והעריכה כי לשחקנים מקומיים קיימת פוטנציאל להשפיע בטווח הארוך על מבנה תעשיית הבינה המלאכותית העולמית.

 

מגעים להשקעה ב-OpenAI והרחבת שיתופי הפעולה

במהלך שיחת המשקיעים התייחס הואנג גם להשקעה המתוכננת ב-OpenAI, שעל פי דיווחים היקפה עשוי להגיע ל-30 מיליארד דולר. לדבריו, אנבידיה ממשיכה לעבוד מול החברה על הסכם שותפות, והצדדים קרובים להבנות. עם זאת, בדיווחים לרשות ניירות הערך האמריקאית הדגישה החברה כי אין ודאות שההשקעה אכן תצא לפועל.

 

ההתייחסות הרשמית המאופקת מצביעה על רגישות המהלך, הן מבחינת היקף ההשקעה והן מבחינת השלכותיו על האקוסיסטם. אנבידיה כבר נהנית ממעמד של ספקית מרכזית לתעשיית המודלים הגדולים, והשקעה ישירה באחת החברות הבולטות בתחום עשויה לחזק את הקשרים העסקיים – אך גם לעורר שאלות תחרותיות.

 

הואנג הזכיר גם שיתופי פעולה עם Anthropic, Meta ו-xAI. ריבוי השותפויות ממחיש את מעמדה של אנבידיה כספקית תשתית רוחבית לשחקנים מגוונים – מחברות סטארט-אפ ועד תאגידי ענק.

 

תמצית נתונים אנבידיה

 

 

ומה צופן העתיד בשוק?

הנתונים האחרונים מחזקים את מעמדה של אנבידיה כחברה בעלת שווי שוק מהגבוהים בעולם וכספקית מרכזית לתשתיות בינה מלאכותית. במקביל, אי הוודאות הרגולטורית סביב סין, התחרות הגוברת מצד שחקנים מקומיים והיקף ההשקעות החריג בשוק, ממשיכים לעמוד ברקע.

 

השילוב בין ביקוש טכנולוגי מואץ, הון זמין ושיתופי פעולה אסטרטגיים מציב את החברה בעמדה משמעותית בעיצוב שוק המחשוב לשנים הקרובות. עם זאת, כפי שמשתקף מדברי ההנהלה, גם בחברה עצמה מדגישים כי חלק מהמהלכים, ובראשם ההשקעה האפשרית ב-OpenAI, טרם הושלמו ואינם מובטחים.

 

בינתיים, המספרים מדברים בעד עצמם: הכנסות שיא, חלוקה ברורה בין רכיבי מחשוב ורשת, והצהרה חד משמעית מצד ההנהלה כי עיבוד בינה מלאכותית אינו רק תשתית טכנולוגית  אלא בסיס כלכלי שעליו נשענת תעשייה שלמה.

הפוסט Nvidia מטפסת לשיאי הכנסות חדשים כשהביקוש למחשוב AI דוחף את השקעות הענק בענף הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-computing-nvidia/feed/ 0
הדיקטטורה השקטה של האלגוריתם https://letsai.co.il/dictatorship-of-algorithm/ https://letsai.co.il/dictatorship-of-algorithm/#respond Thu, 26 Feb 2026 14:34:49 +0000 https://letsai.co.il/?p=70482 תנסו להיזכר בבוקר האחרון שלכם. לא ברגעים הגדולים, אלא דווקא בשגרה הקטנה. האפליקציה שמנגנת את השיר המדויק למצב הרוח עוד לפני שהספקתם לחשוב מה בא לכם לשמוע. אפליקציית הניווט שמחליטה בשבילכם מאיזה כביש תיסעו לעבודה, כי היא כבר יודעת איפה תהיו ומתי. בערב, הטלוויזיה החכמה שמציעה את הסדרה הבאה, ובקרוב גם תייצר לכם פרק חדש […]

הפוסט הדיקטטורה השקטה של האלגוריתם הופיע ראשון בLet's AI בינה מלאכותית

]]>
תנסו להיזכר בבוקר האחרון שלכם. לא ברגעים הגדולים, אלא דווקא בשגרה הקטנה. האפליקציה שמנגנת את השיר המדויק למצב הרוח עוד לפני שהספקתם לחשוב מה בא לכם לשמוע. אפליקציית הניווט שמחליטה בשבילכם מאיזה כביש תיסעו לעבודה, כי היא כבר יודעת איפה תהיו ומתי. בערב, הטלוויזיה החכמה שמציעה את הסדרה הבאה, ובקרוב גם תייצר לכם פרק חדש בזמן אמת, מותאם אישית, שלא נכתב על ידי אף תסריטאי. אנחנו קוראים לזה נוחות. אנחנו אפילו משכנעים את עצמנו שאנחנו עדיין בשליטה. אבל ככל שהמערכות סביבנו הופכות חכמות יותר, כך מתברר שהשליטה הזו היא בעיקר אשליה. האלגוריתם לא רק מלווה אותנו, הוא מכוון אותנו. הוא מנבא את הרצונות שלנו, מעצב אותם, ובמקרים רבים פשוט מחליט במקומנו.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהבחירה החופשית הופכת למושג היסטורי

נסו לענות בכנות: מתי בפעם האחרונה קיבלתם החלטה שלא הונדסה עבורכם? שלא נבעה מהמלצה, דירוג, התראה או עוד "רק בשבילך" אחד? קשה למצוא רגע כזה, וזה לא מקרי. אנחנו חיים בעידן שבו מערכות AI כבר לא רק מציעות כיוון, אלא בפועל מקבלות החלטות.

 

ב-2025 כבר ראינו מנהלים שמסתמכים על AI כדי להכריע מי יפוטר ומי יישאר. מערכות גיוס שמסננות מועמדים בלי שאדם אחד רואה את קורות החיים, שגם הם לעיתים נכתבו על ידי AI אחר. בנקים שמאשרים או דוחים משכנתאות על בסיס מודלים סגורים. רופאים שמתייעצים עם מערכות המלצה קליניות. ומערכות משפט שמתחילות להישען על אלגוריתמים כדי להעריך סיכון או מסוכנות.

 

אבל כל זה עדיין מאקרו. השאלה האמיתית היא מה קורה לכם. האם אתם קוראים את כל מה שה‑AI כותב בשמכם? האם אתם בודקים את המקורות שעליהם הוא מבסס טענות? או שהנוחות מנצחת, ואתם פשוט זורמים?

ההיסטוריה העקומה שאנחנו לא רוצים להודות בה

היכולת של מערכות AI לנבא ולהמליץ נשענת כמעט לחלוטין על דבר אחד: היסטוריה. הן מעבדות מיליוני דוגמאות מהעבר ומחפשות תבניות שמאפשרות להן להעריך מה יקרה בעתיד - אבל כאן מסתתרת המלכודת המרכזית. אם ההיסטוריה עצמה מוטה, גם התוצאות יהיו מוטות.

 

ארגון שקידם בעיקר גברים ילמד את האלגוריתם שזה מודל ההצלחה הרצוי. בנק שנתן פחות הלוואות לתושבי אזור מסוים יגרום למערכת להמשיך את אותו דפוס. זו אפליה שקטה, עטופה בקוד נקי שנראה אובייקטיבי רק משום שהוא מתמטי. בפועל, זו פשוט ההיסטוריה שלנו, מועצמת ומואצת, ומופעלת בקנה מידה שלא היה אפשרי בעבר.

איך מתגוננים? מתחילים בלכבות את הטייס האוטומטי

ההתמודדות לא מתחילה בטכנולוגיה, אלא בנו. הצעד הראשון הוא להפסיק להיות צרכנים פסיביים. לפתח חשיבה ביקורתית, לשאול שאלות, להצליב מידע, ולא לקבל כל תשובה כעובדה רק משום שהיא נאמרת בביטחון על ידי מודל שמנוסח היטב.

 

אנחנו נמצאים בצומת היסטורי. העברנו חלק גדול מההחלטות שלנו למערכות שאפילו המפתחים שלהן לא תמיד מבינים עד הסוף. ואם נמשיך לאפשר לאלגוריתם לבחור בשבילנו מה לקרוא, מה לראות, איפה לעבוד ואיך לחשוב, הבחירה החופשית תהפוך בהדרגה למושג נוסטלגי.

דור שגדל עם מוח על אוטומט

ההשפעה על מבוגרים משמעותית, אבל אצל ילדים היא עמוקה עוד יותר. דור שגדל עם AI שמספק תשובה לכל שאלה, פותר כל שיעורי בית ומייצר כל עבודה אקדמית, מתרגל לא להפעיל שריר קוגניטיבי בסיסי. בעולם שבו אפשר לכבות את המוח בלחיצת כפתור, קל לשכוח שלא כדאי לעשות זאת.

 

הטכנולוגיה הזו משבשת, אבל היא גם עלולה לנוון. ואם לא נלמד להשתמש בה באופן מודע, היא תתחיל להשתמש בנו.

הפוסט הדיקטטורה השקטה של האלגוריתם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/dictatorship-of-algorithm/feed/ 0
מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI https://letsai.co.il/anthropic-china-distillation-attacks/ https://letsai.co.il/anthropic-china-distillation-attacks/#respond Thu, 26 Feb 2026 06:01:05 +0000 https://letsai.co.il/?p=70444 המירוץ לבינה מלאכותית תמיד הוצג כקרב בין מודלים. השבוע התברר שהוא הרבה יותר מזה. בעידן שבו כל השקה חדשה הופכת מיד לסמל של עליונות טכנולוגית, קל לשכוח שהמאבק האמיתי לא מתרחש על במות ההכרזה אלא מתחת לפני השטח. לא בין מודלים אלא בין מדינות, לא בין מהנדסים אלא בין מערכות שלמות שמנסות לשכפל, לעקוף או […]

הפוסט מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
המירוץ לבינה מלאכותית תמיד הוצג כקרב בין מודלים. השבוע התברר שהוא הרבה יותר מזה. בעידן שבו כל השקה חדשה הופכת מיד לסמל של עליונות טכנולוגית, קל לשכוח שהמאבק האמיתי לא מתרחש על במות ההכרזה אלא מתחת לפני השטח. לא בין מודלים אלא בין מדינות, לא בין מהנדסים אלא בין מערכות שלמות שמנסות לשכפל, לעקוף או לבלוע את היתרון של היריב. המסמך שאנטרופיק פרסמה אינו עוד תלונה על שימוש לרעה ב‑API. הוא הצצה נדירה לאופן שבו תחרות טכנולוגית בין מעצמות נראית בעידן שבו "גניבת קניין רוחני" כבר לא מתבצעת דרך קבצים אלא דרך מיליוני שיחות עם מודל שמנסה להבין מי בדיוק מדבר איתו. 24 אלף חשבונות מזויפים. 16 מיליון אינטראקציות. רשתות פרוקסי שמתחזות למשתמשים לגיטימיים. זה לא האקינג, זו תעשייה. וזה לא סיפור על שלוש מעבדות סיניות, זה סיפור על מאבק על מוחם של המודלים.

 

הציוץ של אנטרופיק על ״גניבת המוח״ של קלוד

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשקיצור דרך הופך לנשק

דיסטילציה היא לא המצאה סינית. מעבדות משתמשות בה כבר שנים על מודלים שלהן עצמן: מאמנים מודל קטן על הפלטים של מודל גדול, וכך מקצרים את הדרך ליכולות שבעבר דרשו זמן רב ומשאבי עיבוד משמעותיים. זו פרקטיקה לגיטימית, יעילה ונפוצה. הבעיה מתחילה כשהיא מתבצעת על מודל של גורם אחר, ללא הסכמה ובקנה מידה תעשייתי.

 

אנטרופיק טוענת שהנזק כאן אינו רק מסחרי אלא גם ביטחוני. קלוד בנוי עם שכבות הגנה שמונעות ממנו לסייע בפיתוח נשק, בתכנון מתקפות סייבר ובמשימות שעלולות לסכן חיים. מודל שנוצר מדיסטילציה לא מורשית לא שומר על ההגנות האלה. ואם הוא נפתח לציבור, כפי שקורה עם חלק מהמודלים הסיניים, הסיכון כבר לא נשאר בתוך המעבדה.

הממים שהפכו את הסיפור למראה של התעשייה

אבל הסיפור לא נשאר רק במסמך של אנטרופיק. בתוך שעות, X התמלא בממים - לאו דווקא רק כבדיחה, אלא כתגובה אינסטינקטיבית של התעשייה. האינטרנט עשה מה שהוא עושה הכי טוב וזיקק את המורכבות לכמה תמונות חדות שהפכו את האירוע הזה למשהו רחב בהרבה מהאשמה טכנית.

 

מאחורי ההומור הסתתרה אמת לא נוחה - בעידן שבו כל מודל מאומן על דאטה ציבורי, השאלה מי בדיוק גונב ממי הופכת פחות ופחות ברורה.

 

כדי ללכוד את רוח השיח שהתפרץ סביב הפרסום, הנה כמה ממים בולטים - עדות תרבותית לרגע שבו התעשייה הסתכלה על עצמה במראה:

 

איך התעשייה קלטה את הסיפור

חלק מהממים (memes) שהציפו את X אחרי פרסום אנטרופיק

שלושה קמפיינים, שלוש אסטרטגיות

מה שמפתיע במסמך אינו רק קנה המידה אלא גם הפיזור. כל אחת מהמעבדות פעלה אחרת, וכשמחברים את שלושתן מתקבלת תמונה שיטתית.

 

DeepSeek ביצעה יותר מ‑150 אלף שיחות שהתמקדו בתהליכי החשיבה הפנימיים של קלוד, לא רק בפלט. זה הנכס שאנטרופיק השקיעה בו שנים ושאינו זמין בשוק הפתוח. בנוסף, DeepSeek ייצרה גרסאות מצונזרות לשאלות פוליטיות רגישות, כנראה כדי לאמן מודל שיוכל לעקוף מגבלות פנימיות בסין, לא רק להתחרות בחו"ל.

 

Moonshot AI, מפתחי Kimi, ביצעה 3.4 מיליון שיחות שהתמקדו ביכולות סוכנים, כלומר AI שפועל בעולם ולא רק עונה על שאלות. הפרט החריג שאנטרופיק מוסיפה הוא שניתן היה לקשר חלק מחשבונות ההונאה לפרופילים ציבוריים של עובדים בכירים בחברה. לא משתמשים אנונימיים, אלא אנשים עם שמות ותפקידים.

 

MiniMax ביצעה 13 מיליון שיחות. אנטרופיק זיהתה את הקמפיין בזמן אמת, עוד לפני שהמודל החדש הושק. כשאנטרופיק פרסמה עדכון לקלוד, MiniMax העבירה כמעט מחצית מהתעבורה שלה למודל החדש בתוך יממה. מישהו שם עקב מקרוב ופעל במהירות.

 

ביחד, שלושת הקמפיינים מציירים תמונה של מעצמת AI שלא רק מפתחת מודלים אלא גם סופגת יכולות ממודלים של אחרים.

על כל ראש שנחסם, שניים ממשיכים

אנטרופיק אינה מאפשרת גישה מסחרית לקלוד מסין. כדי לעקוף את המגבלה הזו, המעבדות השתמשו במה שהחברה מכנה Hydra clusters - רשתות פרוקסי שמפעילות אלפי חשבונות מזויפים בו זמנית. כשחשבון נחסם, אחר נכנס מיד במקומו. בשיא, אנטרופיק זיהתה רשת עם יותר מ‑20 אלף חשבונות פעילים. חלקם נועדו לשאוב יכולות, אחרים נועדו להיראות כמו משתמשים לגיטימיים כדי להקשות על הזיהוי.

 

השם Hydra אינו מקרי. במיתולוגיה היוונית, כל ראש שנחתך הוליד שניים חדשים. כך נראו גם הקמפיינים האלה, כמו מערכת שממשיכה לפעול גם כשהיא מזוהה ומנסים להפריע לה.

 

בתגובה, אנטרופיק פיתחה מסווגים אוטומטיים לזיהוי דפוסי דיסטילציה, שיתפה מידע עם מעבדות אחרות וחיזקה את בקרות הגישה. המסקנה שלה ברורה - הבעיה גדולה מכדי שחברה אחת תטפל בה לבד, וגדולה מכדי להישאר בגדר שימוש לרעה ב‑API.

הטיעון שמסתתר מאחורי הנתונים

מעבר להאשמות, המסמך מציג טיעון גיאופוליטי. בשנתיים האחרונות, קפיצות הביצועים של מעבדות סיניות העלו שוב ושוב את אותה שאלה. R1 של DeepSeek ערער את ההנחה שיתרון אמריקאי ב‑AI הוא קבוע. Kimi ו‑MiniMax הגיעו לרמות שנחשבו עד לא מזמן לבלתי נגישות לחברות שפועלות תחת מגבלות שבבים. ובכל פעם, ההסבר המלא לא הופיע.

 

16 מיליון שיחות מזויפות הן לא ניסוי שיווקי, הן תשתית אימון. ואם חלק ממה שמוצג כחדשנות סינית נשען על הפנמה שיטתית של יכולות אמריקאיות, אז מדיניות ייצוא שבבים מחמירה מקבלת היגיון רחב יותר מהגנה תחרותית. היא מגבילה לא רק פיתוח ישיר, אלא גם את קנה המידה שבו מבצעי דיסטילציה כאלה יכולים להתבצע.

 

אנטרופיק לא כתבה את הטיעון הזה במפורש, אבל היא הניחה אותו על השולחן. והשאלה שנותרה פתוחה היא עד כמה מהקפיצה הסינית ב‑AI של השנתיים האחרונות היא חדשנות מקורית, ועד כמה היא השתקפות של מה שנוצר בארצות הברית.

 

למסמך המלא של אנטרופיק, כנסו כאן.

הפוסט מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-china-distillation-attacks/feed/ 0
למה המניה של IBM קרסה ואיך זה קשור לקלוד קוד ואנטרופיק? https://letsai.co.il/anthropic-threat-ibm/ https://letsai.co.il/anthropic-threat-ibm/#respond Tue, 24 Feb 2026 16:51:33 +0000 https://letsai.co.il/?p=70413 פברואר 2026 הפך לחודש שבו וול סטריט הבינה מחדש עד כמה בינה מלאכותית מסוגלת לערער תעשיות שלמות, לא דרך דוחות כספיים אלא דרך פחד. מניית IBM, אחת החברות הוותיקות והיציבות בשוק, צנחה כמעט 27 אחוזים בתוך חודש, הנפילה החודשית החדה ביותר שלה זה יותר משלושה עשורים. ביום מסחר אחד בלבד נמחקו בין 10 ל‑13 אחוזים […]

הפוסט למה המניה של IBM קרסה ואיך זה קשור לקלוד קוד ואנטרופיק? הופיע ראשון בLet's AI בינה מלאכותית

]]>
פברואר 2026 הפך לחודש שבו וול סטריט הבינה מחדש עד כמה בינה מלאכותית מסוגלת לערער תעשיות שלמות, לא דרך דוחות כספיים אלא דרך פחד. מניית IBM, אחת החברות הוותיקות והיציבות בשוק, צנחה כמעט 27 אחוזים בתוך חודש, הנפילה החודשית החדה ביותר שלה זה יותר משלושה עשורים. ביום מסחר אחד בלבד נמחקו בין 10 ל‑13 אחוזים משוויה. וכל זה בעקבות הכרזה אחת של אנטרופיק (Anthropic).

 
 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הטכנולוגיה שמאיימת על 60 שנה של סטטוס קוו

אנטרופיק חשפה יכולות חדשות של Claude Code, מודל שלטענתה מסוגל למפות, לתעד ולתרגם מערכות קובול (COBOL) ענקיות בתוך רבעונים בודדים במקום שנים. למי שאינו חי בעולם התשתיות זה עשוי להישמע כמו שדרוג טכני, אך עבור מי שמכיר את השוק מדובר בשינוי עמוק.

 

ואם לא נתקלתם מעולם במונח הזה - קובול - אז הנה כמה מילים על הקוד הזה: מדובר בשפת תכנות בת יותר מ-60 שנה. מיליארדי שורות קוד של קובול מריצות את מערכות הליבה של בנקים, חברות ביטוח, חברות תעופה וגופים ממשלתיים - רק כדי לסבר את האוזן: 95% מהעסקאות בכספומטים בארה"ב מתבססות על הקוד העתיק הזה, לצד שלל מערכות פיננסיות וממשלתיות קריטיות נוספות. רוב המערכות האלה פועלות על מיינפריים של IBM מסדרת Z. במשך עשורים העלות, הזמן והמחסור בכוח אדם שמבין קובול הפכו את הלקוחות לתלויים בתשתיות של IBM. זו הייתה נעילת לקוח במובן הקלאסי. שדרוג מערכות COBOL היא אחד ממנועי הצמיחה וההכנסות של IBM ושל חברות ייעוץ, וזה BIG BIG DEAL בשביל IBM. ופתאום מגיעים אנתרופיק עם המודל החדש והנוצץ שלהם, ואומרים: "שומעים... אם בעבר הייתם צריכים צבא של מפתחים, חומרה מסובכת, שנים של פיתוח - אנחנו עושים את זה בחודשים ספורים עם Claude Code". ככה בדיוק נראה Game Changer. ככה נראית מהפיכה. ככה נראית טכנולוגיה משבשת!

 

אם בינה מלאכותית מסוגלת לפרק את צוואר הבקבוק האנושי הזה, לראשונה מזה עשרות שנים נפתחת ללקוחות אפשרות אמיתית לעבור מתשתיות המיינפריים של IBM אל ענן מודרני.

 

אירוניה אסטרטגית

רק לאחרונה IBM ואנטרופיק הכריזו על שותפות. Claude היה אמור להשתלב בכלים של IBM, לא לערער את הבסיס העסקי שעליו הם נשענים. כעת אותה אנטרופיק מציעה כלי שמאפשר ללקוחות לעזוב את תשתיות IBM.

 

ב‑IBM מנסים להרגיע. לטענתם השוק אינו מבין את המורכבות של המיינפריים. קובול במערכות האלה אינו רק טקסט, אלא תוצר של עשרות שנים של אופטימיזציה חומרתית, צימוד עמוק בין תוכנה לחומרה, האצה ברמת המעבד ותתי מערכות קלט-פלט ייחודיות. בנוסף הם מזכירים שכ‑40 אחוזים מקוד הקובול בעולם בכלל לא רץ על המיינפריים שלהם.

 

אבל השוק לא השתכנע. הבעיה ההיסטורית של ארגונים לא הייתה תרגום קוד אלא הבנה של קוד, ובדיוק כאן בינה מלאכותית משנה את כללי המשחק.

פברואר של פאניקה

הנפילה של IBM הייתה רק סימפטום, והיא לא התרחשה בחלל ריק. היא השתלבה בתבנית רחבה יותר שהתחילה בתחילת פברואר, חודש שבו וול סטריט נכנסה למצב של AI Shock.

הפחד מ‑SaaS והחשש מגל קיצוצים

בתחילת החודש אנליסטים החלו לדבר על תרחיש של ה-SaaSmegadon - או כפי שסוחרים ב-Jefferies מכנים את זה, ה-SaaSpocalypse, מצב שבו AI מקצר, מפשט או מבטל חלק מהשירותים שחברות SaaS מספקות. גם כאן לא מדובר בפגיעה בפועל אלא בחשש. הפחד הזה לבדו הספיק כדי למחוק מיליארדים משווי חברות תוכנה מובילות.

פרשת הסייבר של אנטרופיק והפגיעה בחברות אבטחה

בהמשך החודש הכרזה אחרת של אנטרופיק בתחום אבטחת הקוד הובילה לגל ירידות חד. חברות כמו JFrog, CrowdStrike, Okta ו‑Cloudflare איבדו אחוזים דו ספרתיים, לאחר שהשוק פירש את יכולות Claude כאיום על מודלים עסקיים מבוססי DevSecOps. המשקיעים לא חיכו להוכחות. עצם האפשרות שהבינה המלאכותית תייתר חלק מהשירותים הספיקה כדי להפעיל לחץ כבד על המניות.

המכנה המשותף

בכל שלושת המקרים - אבטחה, SaaS ומיינפריים, השוק לא הגיב למה שהבינה המלאכותית עושה בפועל אלא למה שהיא עשויה לעשות. זו תופעה חדשה. AI לא צריך להחליף תעשייה. מספיק שהוא יגרום למשקיעים להאמין שזה אפשרי.

 

הנה גרף מניית IBM במהלך פברואר 2026. ירידה של כמעט 60 דולר בתוך חודש, כולל נפילה חדה סביב 20 בפברואר:

ירידה מ‑293.44 ל‑234.19 דולר בתוך חודש

ירידה מ‑293.44 ל‑234.19 דולר בתוך חודש | Reuters

האם הפחד מוצדק?

IBM טוענת שלא. אנליסטים רבים סבורים שכן, לפחות בחלק מההיבטים.

 

הסיבה פשוטה. היסטורית, מודרניזציה של מערכות קובול לא נתקעה בגלל מגבלות טכנולוגיות אלא בגלל מחסור בכוח אדם שמסוגל להבין ולתחזק מערכות ותיקות. אם בינה מלאכותית מסוגלת לקרוא, לפרש ולפרק מערכות מורכבות, גם אם לא באופן מושלם, היא פותחת אפשרות שלא הייתה קיימת בעבר.

 

עבור חברות שמבוססות על תשתיות ליבה ותלות ארוכת שנים, האפשרות הזו לבדה מספיקה כדי לערער מודל עסקי שלם.

סוף עידן התלות

אם ההבטחה של אנטרופיק תעמוד במבחן המציאות, חברות תשתית מסורתיות, לא רק IBM, יידרשו להמציא את עצמן מחדש. לא בעתיד רחוק אלא כבר עכשיו.

 

פברואר 2026 ייזכר כחודש שבו וול סטריט הבינה שהאיום המשמעותי ביותר על תעשיית התוכנה אינו בינה מלאכותית שמחליפה מפתחים, אלא בינה מלאכותית שמחלישה את התלות בתשתיות הוותיקות שעליהן נשען הענף במשך עשרות שנים.

הפוסט למה המניה של IBM קרסה ואיך זה קשור לקלוד קוד ואנטרופיק? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-threat-ibm/feed/ 0
האחים דור והיום שבו סרט של 200 מיליון דולר נוצר על מחשב נייד https://letsai.co.il/dor-brothers-ai-film/ https://letsai.co.il/dor-brothers-ai-film/#respond Tue, 24 Feb 2026 06:03:42 +0000 https://letsai.co.il/?p=70369 עד לא מזמן, הייתה הסכמה לא כתובה בתעשיית ההפקה: אפקטים ברמת מארוול עולים כסף של מארוול. מי שלא עובד עם אולפן גדול, עם תקציב ענק ועם צוות של מאות - פשוט לא נכנס למשחק. בפברואר 2026, אולפן הפקה ישראלי בשם The Dor Brothers החליט לבדוק אם ההסכמה הזו עדיין עומדת. יונתן דור, המנכ"ל, ישב לבד […]

הפוסט האחים דור והיום שבו סרט של 200 מיליון דולר נוצר על מחשב נייד הופיע ראשון בLet's AI בינה מלאכותית

]]>
עד לא מזמן, הייתה הסכמה לא כתובה בתעשיית ההפקה: אפקטים ברמת מארוול עולים כסף של מארוול. מי שלא עובד עם אולפן גדול, עם תקציב ענק ועם צוות של מאות - פשוט לא נכנס למשחק. בפברואר 2026, אולפן הפקה ישראלי בשם The Dor Brothers החליט לבדוק אם ההסכמה הזו עדיין עומדת. יונתן דור, המנכ"ל, ישב לבד מול מחשב נייד ובתוך כעשר שעות יצר סרט אסונות בסגנון הוליוודי מלא. הכותרת שצירף הייתה פרובוקציה מחושבת: "בדיוק יצרנו סרט AI של 200 מיליון דולר ביום אחד." תוך ארבע עשרה שעות: שנים עשר מיליון צפיות. תוך יממה: הסרטון הנצפה ביותר ב-X.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

תעלומה מתוקתקת מפורטוגל

The Dor Brothers הם אולפן הפקה עם כללי משחק משלו. אף אחד לא יודע כמה "אחים" יש בפנים, מי עושה מה, או איך נראה הצוות מבפנים. הדמות היחידה שנחשפת לציבור היא יונתן דור, שמנהל כעשרים וחמישה עובדים מרוחקים מכל רחבי העולם, בזמן שהוא עצמו חי בפורטוגל.

 

האולפן קם ב-2022, בתקופה שבה מידג'רני עוד נחשב לכלי ניסיוני. מאז הם השלימו מעל שלוש מאות פרויקטים ומאות מיליוני צפיות מצטברות, לקוחות כמו Snoop Dogg והרצאות באירועים של Google ו-Microsoft.

 

המודל העסקי, דור מסביר, הוא די פשוט: הסרטונים הויראליים אינם המוצר - הם פרסומת. "אנחנו כנראה החברה הכי רווחית בתחום ה-AI Production", הוא אומר. "הרווחנו מיליונים בשנים האחרונות - לא מהסרטונים עצמם, אלא מהעבודה שהם מביאים."

עשר שעות, מחשב נייד, ומה שקורה כשמגלים שהסייברטראק שורד

הפרויקט התחיל, כמו הרבה דברים טובים, בניסוי שיטתי מתוך סקרנות. דור קיבל גישה ל-Seedance 2.0, מודל וידאו חדש של ByteDance, חברת האם של טיקטוק, והתחיל לבדוק את הגבולות.

 

"ניסיתי יריות, מכות, ניסיתי דיאלוג", הוא מספר. הוא בדק מכוניות: מרצדס לא שרדה טוב. הסייברטראק של טסלה? "אמרתי, טוב, סייברטראק", הוא צוחק, "למרות שברור לי שיש לה בעיות משלה." ואז הגיע לסצנות ההרס. "כשראיתי איך דברים מתרסקים, ראיתי שהתוצאות יוצאות דופן. החלטתי לעשות סרט קצר."

 

מה שהופך את Seedance 2.0 לשונה הוא לא רק איכות התמונה. המודלים הקודמים ידעו לייצר פריים יפה אבל הם נכשלו בשמירה על עקביות לאורך קאטים. פנים שמשתנות, פיזיקה שמתפוררת, מרחב שמאבד את עצמו בין שניות. Seedance 2.0 מציג שליטה אחרת - היכולת לשמור על כוונה קולנועית לאורך כל הסצנה. החידוש אינו הרינדור, החידוש הוא השליטה. ועם שליטה מגיע משהו שלא היה אפשרי קודם: בימוי.

הסרט שגרם לאנשים לפרק פריימים

"Apex" הוא סרט קצר בסגנון אסון עתידני - אישה בורחת בעיר הרוסה ומנסה להגיע לבתה, סופיה, שמסתתרת מתחת לאדמה. האם חוצה גשר מתמוטט, עוברת תאונה, ומתעוררת בחדר חקירות. "יש לנו אותה", אומר אחד החוקרים בשיחה עם טראמפ. "אני כבר מגיע", הוא עונה. הסרט נגמר בכיתוב "To Be Continued" - סוף שמבקש המשך, וגם מבטיח אותו.

 

ציוצים ותגובות לסרט של הדור בראדרס

דמות 100% AI שנראית כל כך אמיתית

 

התגובה ב-X, באינסטגרם וביוטיוב לא הייתה רק עניין של צפיות. אנשים לא רק צפו - הם פירקו את הקסם לגורמים. שרשורים שלמים ניתחו פריימים ספציפיים - האם הרפלקציות על גוף המכונית מדויקות? האם צליל המנוע נכון? האם הפיזיקה מחזיקה מעמד תחת זכוכית מגדלת? חלק שיבחו את האמביציה, חלק הטילו ספק בריאליזם, וחלק התווכחו על פרטי מיקרו שרוב הצופים מעולם לא היו שמים לב אליהם.

 

זה היה, אולי, הסימן הטוב ביותר. כשהאינטרנט מתווכח על רפלקציות וסאונד, הוויכוח כבר אינו על האם AI שייך לקולנוע, הוויכוח הוא על אומנות. ואומנות היא המקום שבו אימוץ אמיתי מתרחש.

"גם אם זכיתי בשבעים אוסקרים היו מוצאים מה להגיד"

לא כולם היו מרוצים. כמה צופים הצביעו על שגיאת כתיב בניידת המשטרה - "Poce" במקום "Police". אחרים טענו שהסרטון נראה כמו פרסומת לסייברטראק. דור לא מתרגש: "Haters Gonna Hate. גם אם הייתי עושה סרט שזכה בשבעים אוסקרים, היו כאלה שמוצאים מה להגיד." הביקורות, כך נראה, רק האיצו את הוויראליות. "קיבלנו מאות מיילים בבת אחת", הוא מספר. "העוזרת האישית שלנו אמרה שייקח לה עד מחר לענות לכולם."

 

הכותרת "200 מיליון דולר" עצמה עוררה ויכוח. חלק לקחו אותה כפשוטה, אחרים הבינו אותה כהצהרה על כלכלת הפקה. בשני המקרים, המסר נחת - הפער בין קנה מידה קולנועי לבין הפקה עצמאית מתכווץ בקצב שקשה לעקוב אחריו.

 

ציוץ מחשבון של הדור בראדרס

סרט של 200 מיליון דולר - ביום אחד וב-100% AI

הכוח חוזר למספרי הסיפורים

כבר שמענו בעבר על "הסוף של הוליווד" - עם כל גרסה חדשה של Sora, Runway או Veo. בכל פעם ההכרזה הגיעה מוקדם מדי. אבל מה ש-Apex מדגים שונה מהכרזה, הוא מראה ששינוי הכוח כבר לא תיאורטי. הפקה מסורתית מתאפיינת סביב הון, גודל צוות ותיאום.

 

הפקת AI מתאפיינת סביב טעם, מהירות איטרציה ויכולת לנהל מערכות. האילוץ עבר מכסף לשיפוט. צוות קטן עם כיוון יצירתי ברור ויכולת בימוי של מערכות גנרטיביות יכול לעת עתה לדמות קנה מידה שדרש בעבר תשתית ומוסדות שלמים.

 

דור עצמו לא מתעסק בשאלה אם הוליווד בסכנה. "אנשים ידהרו לתוכן הכי טוב", הוא אומר, "בין אם זה ילד בן שש עשרה מחדר השינה שלו או דארן ארונופסקי." השיח כבר עבר את נקודת ה"האם זה אפשרי". השאלה שנותרת היא אחת בלבד - כמה מהר זה ממשיך להתפתח.

הפוסט האחים דור והיום שבו סרט של 200 מיליון דולר נוצר על מחשב נייד הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/dor-brothers-ai-film/feed/ 0
כשהאינפלציה נרגעה, קוקה-קולה פנתה ל-AI כדי לעצב את הביקוש https://letsai.co.il/coca-cola-ai/ https://letsai.co.il/coca-cola-ai/#respond Tue, 24 Feb 2026 05:34:26 +0000 https://letsai.co.il/?p=70381 יש רגעים שבהם חברות ענק משנות כיוון כמעט בלי דרמה פומבית: לא מסיבת עיתונאים חגיגית, לא הכרזה על “עידן חדש”, אפילו לא קמפיין שמצהיר על שינוי תפיסה אלא רק על שינוי דק בשפה. מי שלא מקשיב מקרוב מפספס אותו, אבל מי שמקשיב, מבין שמשהו זז עמוק בפנים. זה בדיוק מה שקורה עכשיו בקוקה- קולה (Coca-Cola).  […]

הפוסט כשהאינפלציה נרגעה, קוקה-קולה פנתה ל-AI כדי לעצב את הביקוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם חברות ענק משנות כיוון כמעט בלי דרמה פומבית: לא מסיבת עיתונאים חגיגית, לא הכרזה על “עידן חדש”, אפילו לא קמפיין שמצהיר על שינוי תפיסה אלא רק על שינוי דק בשפה. מי שלא מקשיב מקרוב מפספס אותו, אבל מי שמקשיב, מבין שמשהו זז עמוק בפנים. זה בדיוק מה שקורה עכשיו בקוקה- קולה (Coca-Cola). 

 

במשך השנתיים האחרונות הצמיחה נשענה במידה רבה על העלאות מחירים. האינפלציה סיפקה הצדקה, השוק ספג, והמספרים החזיקו. אבל כשסביבת המאקרו מתחילה להתייצב והצרכנים נעשים רגישים יותר, השיח משתנה. פתאום פחות מדברים על יכולת להעלות עלויות, ויותר על יכולת לייצר רצון.

 

השינוי הזה אינו סמנטי בלבד, הוא מאותת על תפנית אסטרטגית מצמיחה שמבוססת על כוח תמחור לצמיחה שמבוססת על עיצוב ביקוש. במקום לשאול “כמה אפשר להעלות”, השאלה הופכת ל“איך גורמים לבחור בנו שוב”. בנקודה הזו בדיוק, נכנס ה-AI, לא כגימיק, אלא ככלי שנכנס עמוק יותר אל תוך מנגנון קבלת ההחלטות השיווקי.

 

קוקה קולה אמנם עושה זאת כ״מעבר שקט״, אבל כזה שמסמן משהו רחב יותר: מותג אייקוני שמבין שבעידן שבו תשומת הלב חשובה יותר מהון, היכולת לשכנע מדויק ומהיר חשובה לא פחות מהיכולת לתמחר.

 

 

 

מהעלאות מחירים להשפעה תודעתית

בשיא האינפלציה, העלאת מחירים הייתה מהלך כמעט מובן מאליו עבור חברות מוצרי צריכה. עלויות ייצור עלו, שרשראות אספקה התייקרו, והצרכנים, לפחות לתקופה מסוימת, ספגו את ההתייקרויות. אבל כמו שכל מי שעוקב אחרי נתוני המאקרו יודע, האינפלציה במרבית השווקים המערביים התמתנה, וכשהלחץ יורד, גם הסבלנות של הצרכן יורדת.

על פי דיווחים ב-Mi-3, הנהלת קוקה- קולה מגדירה את השלב הנוכחי כמעבר מ"מחיר לשכנוע". זה לא רק משחק מילים. זה שינוי תפיסתי. אם קודם המנוע המרכזי לצמיחה היה היכולת לגלגל עלויות מעלה, עכשיו הצמיחה תלויה ביכולת לגרום לצרכנים לבחור.

 

השכנוע כמשאב אסטרטגי

שכנוע בעידן הדיגיטלי אינו רק פרסומת טובה בטלוויזיה, הוא מורכב מאינספור נקודות מגע: רשתות חברתיות, מדיה קמעונאית, סטרימינג, חוויית מדף בחנות שבהן מותגים צריכים להתאים מסרים בזמן אמת לתגובות ולדפוסי התנהגות של הצרכן. ממש כפי שמחקרים עדכניים מראים שכלי AI המייצרים תוכן מותאם אישית לפלטפורמות כמו X (טוויטר) יכולים לצמצם ב-75% את זמן היצירה ולשפר את המעורבות על ידי שימוש בנתוני קהל בזמן אמת, כך גם החברות הגדולות מבינות שה-AI אינו רק כלי יצירה, אלא מנוע לניתוח והטמעה של מסרים שמדברים לצרכן כאן ועכשיו. בדיוק כאן נכנס ה-AI כמערכת שמסייעת לנתח התנהגות צרכנים, לחדד מסרים ולהתאים קמפיינים כמעט בזמן אמת.

 

השלב שבו המחיר מאבד את היתרון

אנליסטים מציינים שהסתמכות על העלאות מחירים לבדן מגיעה לתקרת זכוכית. בשלב מסוים, הצרכן פשוט עובר למותג אחר או מצמצם צריכה. במצב כזה, חברה כמו קוקה- קולה צריכה לייצר ביקוש אקטיבי, כלומר לגרום לצרכן לקנות בתדירות גבוהה יותר או לבחור במוצרים בעלי שולי רווח גבוהים יותר.

המעבר הזה אינו ייחודי לה. הוא משקף תנועה רחבה יותר בענף מוצרי הצריכה, שבו היתרון התחרותי עובר בהדרגה משרשרת אספקה יעילה ליכולת לנהל תשומת לב.

 

מנכ״ל קוקה קולה ג׳יימס קווינזי על אינפלציה והשפעת AI 

 

 

כשהאלגוריתם יושב בשולחן התכנון

קוקה- קולה כבר התנסתה בשימוש ב-AI ג׳נרטיבי בקמפיינים יצירתיים, אך החברה לא מסתפקת בניסויים נקודתיים או בגימיק טכנולוגי חד־פעמי. היא מטמיעה AI בתוך תהליכי העבודה השיווקיים עצמם ומרחיבה את השימוש בכלים ליצירת תמונות, סיוע בסטוריטלינג והתאמת קמפיינים בערוצים שונים. מדובר בשינוי מבני, לא עוד כלי שמופעל לאחר שהקריאייטיב מוכן, אלא מערכת שמשפיעה על הדרך שבה הקריאייטיב נולד.

 

המשמעות עמוקה יותר מהוספת תוכנה חדשה למחלקת השיווק אלא AI שנכנס לשלב התכנון. הוא מנתח נתוני צריכה, מזהה דפוסים, מציע וריאציות למסרים ומאפשר לצוותים לבחון תרחישים עוד לפני העלייה לאוויר. במקום קמפיין אחד שמופק ואז נמדד, נוצרת מערכת דינמית שמעדכנת מסרים בהתאם לביצועים ולתגובות קהל. במותג שפועל בעשרות שווקים, היכולת הזו מאפשרת לעבור מתרגום מסר גלובלי להתאמה לוקאלית מדויקת ולעשות זאת במהירות.

 

המהלך הזה מתחבר ישירות לאסטרטגיית המעבר מתמחור לשכנוע. כאשר העלאות מחיר כבר אינן מנוע הצמיחה המרכזי, היכולת לחדד ביקוש דרך מסר מדויק הופכת קריטית. לא במקרה קוקה- קולה השיקה כבר ב-2023 את פלטפורמת Create Real Magic, בשיתוף OpenAI ו-Bain & Company, שאפשרה ליוצרים להשתמש בכלי Generative AI כדי לפתח תוכן ממותג מתוך נכסי המותג הקלאסיים של החברה. הקמפיין לא היה רק תרגיל קריאייטיבי, הוא סימן את תחילת המעבר לתפיסה שבה AI משתלב בתהליך היצירה עצמו ולא נשאר מאחורי הקלעים.

 

אמני ai מדברים על קמפיין

אמני AI מדברים על קמפיין Create Real Magic של קוקה קולה (מתוך האתר הרשמי)

 

AI ככלי להבנת צרכן

השימוש ב- AI כולל ניתוח דפוסי צריכה, התאמת מסרים לשווקים מקומיים ותמיכה בצוותים אזוריים עם תוכן שניתן להתאמה מהירה. עבור מותג שפועל בעשרות מדינות, האתגר אינו רק יצירת קמפיין טוב, אלא יצירת קמפיין שעובד במקביל בהקשרים תרבותיים שונים.

 

ככל שה-AI חודר עמוק יותר, כך גוברת השאלה על תפקיד הצוותים היצירתיים. אוטומציה יכולה להאיץ ייצור ולבחון רעיונות רבים יותר, אך היא גם מציבה אתגר של עקביות ואיכות.

 

בשלב זה, החברה לא מציגה את ה-AI כתחליף לאנשי קריאייטיב או לסוכנויות. הכיוון המסתמן הוא מודל היברידי: האוטומציה מטפלת במשימות חוזרות ובניתוח נתונים, בעוד בני אדם מגדירים קונספט, טון וקו מותגי.

 

תבנית רחבה יותר בענף

המקרה של קוקה- קולה אינו עומד בפני עצמו. על פי סקר ה-AI הגלובלי של McKinsey לשנת 2024, כשליש מהארגונים כבר משתמשים ב-AI גנרטיבי לפחות בפונקציה עסקית אחת, כאשר שיווק ומכירות נמנים עם התחומים הבולטים. ההערכה היא שהנתון הזה ימשיך לעלות ככל שחברות יטמיעו אוטומציה בעבודת קריאייטיב ומעורבות לקוחות.

 

המשמעות היא שה-AI נע בהדרגה במעלה השרשרת הארגונית. אם בעבר הוא שימש בעיקר לניתוח נתונים או אוטומציה פנימית, כיום הוא נוגע בפונקציות שפונות ישירות ללקוח: אסטרטגיית שיווק, פיתוח קמפיינים וניהול מדיה.

 

עידן שלאחר האינפלציה

הדגש של קוקה-קולה על שכנוע במקום על מחיר עשוי להשפיע גם על מותגים אחרים. בסביבה שבה העלאות מחירים אינן מנוע צמיחה מובטח, היכולת לעצב ביקוש במדויק הופכת למשאב קריטי.

 

אם AI מאפשר לעסקים להבין טוב יותר מי הלקוח, מתי הוא קונה ואיזה מסר יגרום לו לבחור דווקא בהם, הרי שהוא הופך מחידוש טכנולוגי לאמצעי תחרותי מרכזי.

השינוי הזה אינו רועש. אין כאן הצהרה על “מהפכה”. יש כאן התאמה הדרגתית למציאות כלכלית חדשה, שבה הצרכן פחות סלחן והקשב שלו יקר מתמיד. Coca-Cola, כמו חברות נוספות בענף, בוחרת להשקיע את המשאבים הבאים שלה לא בעוד סבב התייקרויות, אלא במערכת שמטרתה לחדד, לכוון ולשכנע.

 

ובמובנים רבים, זה אולי הסימן הברור ביותר לכך שה-AI כבר אינו רק כלי תפעולי. הוא הופך לחלק מהאופן שבו מותגים מתחרים על תשומת לב, נאמנות ושורת הרווח.

הפוסט כשהאינפלציה נרגעה, קוקה-קולה פנתה ל-AI כדי לעצב את הביקוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/coca-cola-ai/feed/ 0
מיפוי הסוכנים: MIT פרסמה את מסד הנתונים הראשון של סוכני ה-AI הפעילים בעולם https://letsai.co.il/ai-agents-global-mapping/ https://letsai.co.il/ai-agents-global-mapping/#respond Mon, 23 Feb 2026 09:58:03 +0000 https://letsai.co.il/?p=70331 כמה סוכני AI פועלים היום בעולם האמיתי? מי בנה אותם, לאיזה צורך, ועד כמה הם בטוחים לשימוש? אלו שאלות שעד לאחרונה לא היה להן תשובה מסודרת. חוקרים מ-MIT שמו לעצמם מטרה לשנות את זה, ופרסמו מחקר שעשוי להשפיע על כל מי שמשתמש, מפתח, או מתכנן לאמץ סוכני AI בעסק שלו. ה-AI Agent Index הוא מסד […]

הפוסט מיפוי הסוכנים: MIT פרסמה את מסד הנתונים הראשון של סוכני ה-AI הפעילים בעולם הופיע ראשון בLet's AI בינה מלאכותית

]]>
כמה סוכני AI פועלים היום בעולם האמיתי? מי בנה אותם, לאיזה צורך, ועד כמה הם בטוחים לשימוש? אלו שאלות שעד לאחרונה לא היה להן תשובה מסודרת. חוקרים מ-MIT שמו לעצמם מטרה לשנות את זה, ופרסמו מחקר שעשוי להשפיע על כל מי שמשתמש, מפתח, או מתכנן לאמץ סוכני AI בעסק שלו. ה-AI Agent Index הוא מסד הנתונים הציבורי הראשון בעולם שמתעד מערכות AI אגנטיות (Agentic AI) שכבר פרוסות ועובדות בשוק. 67 מערכות, ניתוח מעמיק של כל אחת, ומסקנות שכדאי מאוד להכיר.

 

כמה סוכני AI פועלים היום בעולם האמיתי?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אז מהו בעצם "סוכן AI" לפי המחקר?

לפני שצוללים לממצאים, כדאי להבין מה המחקר מגדיר כ"סוכן AI" – כי זו לא מילה שיש לה הגדרה מוסכמת. החוקרים מ-MIT בחרו לא להמציא הגדרה חדשה, אלא להשתמש בקריטריונים מעשיים לכניסה למסד הנתונים:

חוסר פירוט (Underspecification): המשתמש נותן הוראה כללית, והסוכן מחליט בעצמו איך לבצע אותה.

השפעה ישירה (Directness of Impact): הסוכן פועל בעולם האמיתי, לא רק מייצר טקסט.

מוכוונות מטרה (Goal-Directedness): הוא שואף להשיג תוצאה ספציפית.

תכנון לטווח ארוך (Long-term Planning): הוא מסוגל לתכנן רצף של פעולות לאורך זמן.

לפי הגדרה זו, ChatGPT הרגיל למשל, לא נכנס לרשימה. הוא מייצר תשובות, אבל לא מבצע פעולות בעולם. לעומת זאת, מערכות כמו Devin (סוכן קוד), Claude Computer Use (שליטה במחשב), ו-AutoGPT, כן נכנסות, כי הן פועלות, מבצעות, ומשפיעות.

מה גילו? הממצאים המרכזיים

1. פריסת Agents מואצת – וחצי מהם הגיעו ב-2024

אחד הממצאים המעניינים ביותר הוא קצב הגדילה. למרות שחלק מה-agents במדד נפרסו עוד בתחילת 2023, כמחצית מ-67 המערכות הושקו רק במחצית השנייה של 2024. זה מחזק את מה שרבים מרגישים שהשוק עבר מ"ניסויים ומחקר" ל"פריסה בפועל" בקצב מסחרר.

 

AI Agents כ"טכנולוגיה עתידית" - קיימת כבר בהווה

 

המשמעות עבורנו: כשאנחנו מדברים על AI Agents כ"טכנולוגיה עתידית" – אנחנו כבר מפספסים. הם כאן, הם פועלים, וכמותם גדלה בקצב מהיר מאי פעם.

2. רוב ה-Agents מתמחים בפיתוח תוכנה ומחשב

המחקר חילק את 67 המערכות ל-6 קטגוריות:

תוכנה (Software): כתיבת קוד, בדיקות, פיתוח – זו הקטגוריה הגדולה ביותר.

שימוש במחשב (Computer Use): ניווט ממשקים גרפיים, גלישה, תפעול מחשב.

אוניברסלי: agents שמסוגלים לבצע מגוון רחב של משימות.

מחקר (Research): חיפוש מידע, סינתזה, ניתוח נתונים.

רובוטיקה (Robotics): מערכות גופניות בעולם הפיזי.

אחר (Other): כל מה שלא נכנס לקטגוריות הקודמות.

העובדה שהרוב הגדול מגיע מתחום פיתוח התוכנה לא מפתיעה, זה תחום שבו ה-ROI על אוטומציה ניתן למדידה ברורה, וגם תחום שבו המשתמשים (מפתחים) יכולים לאמת את הפלט ולתקן שגיאות. חברות כמו GitHub, Copilot Workspace, Cursor עם agent mode, ו-Cognition עם Devin ממחישות את הגל הזה.

3. הבעיה הגדולה: מידע מוגבל על בטיחות ואחריות

וכאן מגיעה ההפתעה הפחות נעימה של המחקר. כשהחוקרים ניסו לתעד את מדיניות הבטיחות של המערכות השונות, בדיקות פנימיות, בדיקות חיצוניות, הגבלות שימוש, מנגנוני פיקוח. הם גילו שהמידע הציבורי המצוי הוא מוגבל מאוד. בעוד שמרבית החברות מספקות תיאור כללי של מה המערכת עושה, מעטות מהן מפרסמות:

בדיקות red team בדיקות ניסיון פריצה ושימוש לרעה.

הגבלות ספציפיות על פעולות שהסוכן לא יכול לבצע.

מנגנוני עצירה במקרה של פעולה שגויה.

אחריות – מי אחראי כשהסוכן עושה טעות?

חשוב להבין שזה לא בהכרח אומר שהמערכות אינן בטוחות, אלא שהשקיפות לגביהן עדיין לוקה בחסר. בניגוד לתחום הרכב, שבו יש תקנים ברורים לדיווח על בטיחות, תחום ה-AI agents עדיין פועל ברובו ללא מסגרת דיווח מחייבת.

למה זה חשוב לעסקים בישראל?

אם אתם שוקלים לאמץ סוכני AI בארגון שלכם, המחקר הזה מציע כמה תובנות מעשיות:

שאלות שכדאי לשאול לפני אימוץ Agent:

שאלות על יכולות:

  • מהן הפעולות הספציפיות שהסוכן יכול לבצע? (קריאת מיילים? שליחת מיילים? גישה לקבצים? ביצוע תשלומים?)
  • האם יש רשימה ברורה של מה הסוכן אינו יכול לבצע?

שאלות על בטיחות:

  • האם הספק עבר בדיקות בטיחות חיצוניות?
  • מה קורה כשהסוכן נתקל במצב שלא הוגדר מראש?
  • מי אחראי על פעולות שגויות שהסוכן מבצע?

שאלות על שקיפות:

  • האם יש "כרטיס agent" שמתאר את המערכת בצורה שקופה?
  • האם הספק מתחייב לעדכן את התיעוד כשהמערכת משתנה?

ה-"Agent Cards": רעיון שכדאי לאמץ

אחד הכלים המעשיים שהמחקר מציע הוא מושג ה-Agent Card. מסמך סטנדרטי לתיאור מערכת אגנטית. בדומה ל"גיליון נתונים טכניים" של מוצר, ה-Agent Card אמור להכיל:

תיאור המערכת: מה היא עושה ולמה היא מיועדת

רכיבים טכניים: אילו מודלי AI היא משתמשת, אילו כלים יש לה גישה אליהם

תחומי שימוש מיועדים: אילו מקרי שימוש היא תוכננה עבורם

הגבלות ומגבלות: מה היא לא עושה, ומה עלול לגרום לה לפעול בצורה שגויה

מדיניות בטיחות: איך מטפלים בניסיונות שימוש לרעה

כרגע, רוב החברות לא מפרסמות מסמך כזה בצורה מסודרת. המחקר מציע שזה צריך להשתנות.

מה עושות החברות המובילות?

מתוך 67 המערכות שנבדקו, הנה כמה דוגמאות בולטות ומה אפשר ללמוד מהן:

Devin Cognition: הסוכן שנחשב לפריצת הדרך הגדולה בפיתוח תוכנה אוטונומי. הוא מסוגל לבצע משימות פיתוח מורכבות לאורך שעות ללא התערבות אנושית. Cognition פירסמה מדדי ביצוע אבל מידע על מנגנוני הבטיחות שלה עדיין מוגבל.

Computer Use של Anthropic Claude: אחת המערכות הבודדות שפרסמו תיעוד יחסית מפורט על מדיניות הבטיחות, כולל הגבלות מפורשות על פעולות שהסוכן ימנע מלבצע (כמו אישור פעולות בלתי הפיכות ללא אישור אנושי).

AutoGPT: אחד ה-agents הראשונים שהפכו לוויראליים ב-2023, ודוגמה מעניינת לכיצד מערכות שנבנו כ"ניסוי" הפכו לכלי שאנשים משתמשים בהם ביומיום לעיתים ללא הבנה מלאה של היכולות והמגבלות שלהן.

הפער שהמחקר חושף: בין קצב האימוץ לבין מסגרות האחריות

הפער המסוכן בין שני מהירויות:

אחד הנושאים המרכזיים שעולים מהמחקר, גם אם לא נאמר במפורש, הוא הפער המסוכן בין שני מהירויות:

מהירות 1: קצב הפריסה של agents – גבוה ומואץ, כפי שראינו בנתונים.

מהירות 2: קצב פיתוח מסגרות אחריות ובטיחות – הרבה יותר איטי.

כשחצי מ-67 ה-agents הגדולים בעולם הושקו תוך 6 חודשים, ובאותה תקופה לא נוצרו תקנים ומסגרות דיווח מוסכמות, אנחנו עלולים למצוא את עצמנו בסיטואציה שבה הטכנולוגיה רצה קדימה מהר ממה שאנחנו מבינים את ההשלכות שלה.

זה לא קריאה להאטה. זו קריאה לשקיפות.

מה הלאה? לאן הולך תחום ה-Agents

בהסתכלות קדימה, המחקר מרמז על כמה כיוונים שכדאי לעקוב אחריהם:

תקינה ורגולציה: סביר להניח שנראה יותר לחץ ממשלתי ורגולטורי לדיווח שקוף על יכולות ובטיחות agents. ה-EU AI Act כבר מתחיל לגעת בנושאים הללו.

סטנדרטיזציה של Agent Cards: ניתן לצפות שארגונים כמו IEEE, ISO, או גופים מקצועיים יפתחו תקן מוסכם לתיאור מערכות אגנטיות, בדומה לתקנים קיימים בתחומים אחרים.

כלי הערכה (Benchmarks): יותר חברות ייצרו כלי בנצ'מארק (Benchmark) שמודדים לא רק ביצועים אלא גם בטיחות ואמינות.

מומחי AI Audit: ממש כפי שיש היום מומחי סייבר וביקורת פיננסית, צפוי שיצמח שוק של מומחים שמתמחים בהערכה ואישור של מערכות אגנטיות לפני פריסה ארגונית.

לסיכום: המפה הראשונה של עולם ה-Agents

המפה הראשונה של עולם ה-Agents

המחקר של MIT הוא לא רק עבודה אקדמית מעניינת - הוא מסמך תקדימי שיוצר שפה משותפת לתחום שגדל מהר מדי בלי מסגרת מסודרת. הממצאים העיקריים שכדאי לקחת איתכם:

  • סוכני AI הם כבר לא טכנולוגיה עתידנית 67 מערכות פעילות, ומחציתן הושקו ב-2024 בלבד.
  • רוב ה-agents מתמחים בפיתוח תוכנה ושימוש במחשב אבל הקטגוריות מתרחבות.
  • הפער הגדול ביותר בתחום הוא שקיפות על בטיחות ועל זה חברות ורגולטורים צריכים לעבוד.

השורה התחתונה: אם אתם אנשי עסקים, מנהלים, או סתם אנשים שרוצים לאמץ AI בצורה חכמה, הזמן לשאול שאלות על שקיפות, אחריות, ובטיחות של כלי ה-AI שאתם משתמשים בהם הוא עכשיו, לא אחרי שמשהו משתבש.

 

את מסד הנתונים המלא, עם כל 67 ה-agent cards, אפשר למצוא באתר aiagentindex.mit.edu.

הפוסט מיפוי הסוכנים: MIT פרסמה את מסד הנתונים הראשון של סוכני ה-AI הפעילים בעולם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-agents-global-mapping/feed/ 0
אנטרופיק מקריסה את מניות הסייבר https://letsai.co.il/anthropic-impact-cyber/ https://letsai.co.il/anthropic-impact-cyber/#respond Sun, 22 Feb 2026 10:59:38 +0000 https://letsai.co.il/?p=70307 כלי אבטחת הקוד החדש של אנטרופיק הצית מחדש את החשש בוול סטריט והעמיד את חברות הסייבר בעמדת הגנה. ביום שישי בערב, זמן קצר אחרי שהחברה שיחררה יכולת חדשה ל‑Claude Code, מניות סייבר מרכזיות החלו לרדת במהירות. השוק אולי רואה איום מיידי, אבל המציאות הטכנולוגית נוטה להיות איטית יותר, מורכבת יותר ולעיתים גם מפתיעה יותר. ובכל […]

הפוסט אנטרופיק מקריסה את מניות הסייבר הופיע ראשון בLet's AI בינה מלאכותית

]]>
כלי אבטחת הקוד החדש של אנטרופיק הצית מחדש את החשש בוול סטריט והעמיד את חברות הסייבר בעמדת הגנה. ביום שישי בערב, זמן קצר אחרי שהחברה שיחררה יכולת חדשה ל‑Claude Code, מניות סייבר מרכזיות החלו לרדת במהירות. השוק אולי רואה איום מיידי, אבל המציאות הטכנולוגית נוטה להיות איטית יותר, מורכבת יותר ולעיתים גם מפתיעה יותר. ובכל זאת, בתוך שעות נמחקו מיליארדי דולרים משווי חברות שנחשבו עד לא מזמן ליציבות. JFrog הישראלית הייתה בין הנפגעות הבולטות, עם ירידה של כרבע מערך המניה. זה המשך ישיר ל‑SaaSpocalypse מלפני שבועיים, כשהפעם המוקד עבר מעולם ה‑SaaS אל לב תעשיית האבטחה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

חתונה אדומה בסייבר?

הסיפור התחיל בתחילת החודש, כשאנטרופיק הציגה כלים חדשים שהבהילו את שוק התוכנה. אנליסטים כינו את זה “חתונה אדומה” או SaaSpocalypse, לא מתוך רצון לדרמה אלא פשוט משום שהשוק הגיב בפאניקה אמיתית - חברות SaaS גדולות איבדו ערך במהירות, והמשקיעים הבינו שהמודלים העסקיים המוכרים כבר לא חסינים מול יכולות AI מתקדמות.

 

העדכון האחרון של אנטרופיק, שהגיע ביום שישי, לקח את אותו חשש והפנה אותו לעבר תחום אחר - אבטחת מידע. אם לפני שבועיים זה היה עולם ה‑SaaS שנפגע, הפעם זהו תחום הסייבר שנכנס למערבולת.

 

הנפילה של JFrog

הנפילה של JFrog

Claude Code Security

Claude Code Security, שהושק בגרסת Preview, הוא תוספת חדשה לכלי הפיתוח של אנטרופיק. בניגוד לסורקי קוד מסורתיים שמחפשים תבניות מוכרות, קלוד פועל, כך טוענת החברה, ברמה שמזכירה חוקר אבטחה אנושי.

 

הוא לא רק עובר על הקוד, אלא מנסה להבין אותו:

  • הוא סורק את בסיס הקוד כולו ומאתר חולשות מורכבות, לא רק טעויות פשוטות.

  • הוא מציג למפתחים כיצד ניתן לנצל את הפרצה, שלב אחר שלב.

  • והוא מציע תיקון מוכן ליישום בלחיצת כפתור, ורק לאחר אישור מפורש של המשתמש.

באנטרופיק מדגישים שהכלי אינו מסתפק בזיהוי דפוסים. הוא עוקב אחרי זרימת המידע, מבין את האינטראקציות בין רכיבי המערכת ומוודא שכל חולשה שהוא מציג היא אמיתית. לטענתם, הוא מצמצם משמעותית את בעיית ה‑False positives שמאפיינת כלים מסורתיים.

 

בבדיקות פנימיות, תוך שימוש במודל Claude Opus 4.6, הכלי מצא יותר מחמש מאות חולשות בפרויקטים קיימים של קוד פתוח, חלקן חבויות שם שנים. זה נתון שמספיק כדי לגרום לכל מנהל אבטחה לעצור ולחשוב. האם מדובר בפריצת דרך או בהבטחה מוגזמת? נחכה ונראה.

מהסטארט-אפ של קהילת הקוד הפתוח לחזית הסערה

JFrog הוקמה על ידי שלושה מפתחים ישראלים שביקשו לפתור בעיה יומיומית - ניהול מסודר, אמין ומהיר של חבילות תוכנה. החברה צמחה מתוך קהילת הקוד הפתוח והפכה עם השנים לשחקנית מרכזית בניהול שרשרת אספקת התוכנה - תחום שהפך קריטי ככל שהפיתוח המודרני נשען על אינספור רכיבים חיצוניים.

 

החיבור הזה לקוד פתוח הפך את JFrog לשם מוכר בקרב מפתחים, והחברה בנתה לעצמה מעמד יציב בשוק. דווקא משום כך, הנפילה החדה במניה ביום שישי נראתה מפתיעה. חברה עם בסיס לקוחות רחב, מוצרי אבטחה מתקדמים ודוחות חזקים מוצאת את עצמה נגררת למטה בעקבות כלי AI שנמצא עדיין בגרסת Preview.

כשהסייבר פוגש את וול סטריט

התגובה בשוק הייתה מהירה וברורה. CrowdStrike ו‑Okta איבדו כמעט עשרה אחוזים מערכן, Cloudflare ירדה בכמעט שמונה אחוזים ו‑GitLab רשמה ירידה דומה. JFrog בלטה במיוחד - המניה פתחה את יום המסחר סביב חמישים דולר וסיימה אותו מתחת לארבעים - ירידה חדה שממחישה עד כמה המשקיעים רגישים לכל רמז לשיבוש בענף.

 

הדבר הבולט הוא שהמדדים הכלליים דווקא עלו באותו יום. הירידות היו ממוקדות בחברות הסייבר בלבד, מה שמרמז שהשוק פירש את העדכון של אנטרופיק כאיום ישיר על מודלים עסקיים קיימים בתחום.

ומה אומרים ב- JFrog?

לפי גורמים בחברה, התגובה בשוק מוגזמת. ב‑JFrog מדגישים שהכלי של אנטרופיק אינו מתחרה ישיר במוצרי החברה, ושמדובר בפרשנות יתר של המשקיעים. הדוחות האחרונים של החברה היו חזקים במיוחד - ההכנסות עלו בעשרים וחמישה אחוזים ושורת הרווח עקפה את התחזיות. במילים אחרות, הביצועים בפועל טובים, והירידה במניה משקפת בעיקר את מצב הרוח בשוק ולא את מצב החברה.

 

גם חלק מהאנליסטים סבורים שהמכירה הייתה חדה מדי, ויש מי שרואים בה הזדמנות קנייה. אבל בשוק שמגיב בחשש לכל סימן של אי‑ודאות, ההיגיון הפיננסי לא תמיד גובר על האינסטינקט.

AI כתחליף, לא רק כלי עזר

הכלי של אנטרופיק פועל כרגע בנישה מוגדרת יחסית - סריקת קוד - אבל המשקיעים רואים בו סימן מקדים. אם מודל AI מסוגל לנתח קוד ברמה שמזכירה חוקר אבטחה, עולה השאלה אילו משימות נוספות יוכל לבצע בעתיד, כאלה שבעבר דרשו מערכות ייעודיות.

 

החשש הוא שהגל הנוכחי הוא רק הראשון. כפי שכלי AI החלו להשפיע על שוק ה‑SaaS, הם עשויים להתחיל לכרסם גם בשוק הסייבר, שנחשב במשך שנים לאחד היציבים והצומחים ביותר. עבור משקיעים שמעדיפים ודאות, זו התפתחות מטרידה.

 

העובדה שכלי AI כבר היו מעורבים באירועי סייבר רחבי היקף רק מגבירה את הדאגה. אם מודלים יכולים לזהות חולשות, הם עשויים, בתנאים מסוימים, לסייע גם לתוקפים להבין אותן.

לאן כל זה הולך

האירוע האחרון מציב את תעשיית הסייבר בנקודת מבחן. מצד אחד, כלי AI שמסוגלים לבצע חלק מעבודת האבטחה עשויים לשפר את איכות הקוד ולהפחית סיכונים. מצד שני, הם מעלים שאלות לגבי מודלים עסקיים קיימים וחברות שביססו את מעמדן על פתרונות ייעודיים.

 

JFrog וחברות דומות יצטרכו להראות שהערך שהן מספקות אינו ניתן להחלפה בלחיצת כפתור. המשקיעים, בינתיים, ימשיכו לעקוב מקרוב אחרי כל עדכון של אנטרופיק.

 

האם זהו תחילתו של עידן שבו מודלי AI הופכים לשחקנים מרכזיים באבטחת מידע, או שמדובר בגל קצר של חרדה? התשובה תתבהר רק בהמשך, אך ברור שמשהו עמוק משתנה במאזן הכוחות של עולם התוכנה.

הפוסט אנטרופיק מקריסה את מניות הסייבר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-impact-cyber/feed/ 0
גוגל מלמדת את הבינה המלאכותית לקרוא מפה https://letsai.co.il/google-ai-map/ https://letsai.co.il/google-ai-map/#respond Sat, 21 Feb 2026 12:31:00 +0000 https://letsai.co.il/?p=70291 מערכת סינתטית חדשה של גוגל מייצרת מפות ומסלולים ומלמדת מודלים להבין מרחב בצורה הדומה ליכולת האנושית. המחקר מציג טענה ברורה - אפשר לאמן מודלים מולטימודליים לא רק לזהות מה מופיע בתמונה, אלא גם להבין את החוקים שמכתיבים איך מותר לנוע בתוכה. לשם כך פיתחו החוקרים פס ייצור אוטומטי שמייצר מפות מלאכותיות, מסמן עליהן מסלולים תקפים […]

הפוסט גוגל מלמדת את הבינה המלאכותית לקרוא מפה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מערכת סינתטית חדשה של גוגל מייצרת מפות ומסלולים ומלמדת מודלים להבין מרחב בצורה הדומה ליכולת האנושית. המחקר מציג טענה ברורה - אפשר לאמן מודלים מולטימודליים לא רק לזהות מה מופיע בתמונה, אלא גם להבין את החוקים שמכתיבים איך מותר לנוע בתוכה. לשם כך פיתחו החוקרים פס ייצור אוטומטי שמייצר מפות מלאכותיות, מסמן עליהן מסלולים תקפים ומאפשר למודלים ללמוד מיומנות שבני אדם מפעילים כמעט בלי לחשוב. זה ניסיון להתמודד עם פער בסיסי - מודלים יודעים לזהות אובייקטים, אך מתקשים להבין חיבוריות, גבולות ומגבלות תנועה.

 

מפה עם “Show me the path from Point A to Point B”

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה מודלים מתקשים להבין מפות

בני אדם קוראים מפה כמעט בלי לחשוב. מבט קצר מספיק כדי להבחין בין שביל לקיר, להבין את מבנה המרחב ולתכנן מסלול. מודלים, לעומת זאת, רואים תמונה שטוחה. הם מסוגלים לזהות חיות בגן חיות, אבל אם מבקשים מהם למצוא מסלול מהכניסה לבית הזוחלים, הם עלולים לשרטט קו שחוצה דוכנים, גדרות או אזורים סגורים. כפי שמתאר המחקר, הם מצוינים בזיהוי מה שיש בתמונה, אך מתקשים להבין את היחסים הגאומטריים והטופולוגיים בין האובייקטים.

 

הסיבה לכך פשוטה. אין מספיק דאטה שמלמד אותם את דקדוק המרחב. כדי ללמד מודל את החוקים האלה נדרשות מיליוני מפות עם מסלולים מסומנים ידנית, משימה יקרה, איטית ולעיתים בלתי אפשרית, במיוחד כשמפות של קניונים, מוזיאונים ופארקים הן לרוב קניין פרטי. התוצאה היא שמודלים מתקדמים נחשפים לאינספור תמונות, אך כמעט לא מקבלים דוגמאות שמלמדות אותם מהו מסלול תקין.

MapTrace: פס ייצור סינתטי של מפות ומסלולים

כדי להתגבר על מחסור בדאטה מסומן, גוגל פיתחה את MapTrace, מערכת אוטומטית שמייצרת מפות מלאכותיות, מזהה בהן אזורי הליכה, בונה גרף ניווט ומפיקה מסלולים תקפים. הכול נעשה ללא מגע יד אדם, במבנה שמזכיר פס ייצור: כל שלב מספק את חומר הגלם לשלב הבא, ומודלים שונים משמשים בו זמנית כיצרנים וכמבקרים.

 

התהליך מתחיל ביצירת מפות מגוונות. מודל שפה מייצר תיאורים עשירים כמו "גן חיות עם שבילים מקושרים", "קניון עם חצר אוכל" או "פארק פנטזיה עם אזורים נושאיים". התיאורים מוזנים למודל טקסט לתמונה שמייצר מפות מורכבות.

 

לאחר מכן המערכת מקבצת צבעים במפה כדי ליצור מסכות מועמדות של אזורי הליכה. לא כל מסכה תקינה, ולכן מודל נוסף, ה‑Mask Critic, בוחן כל מסכה ומחליט אם היא מייצגת רשת שבילים אמיתית. טעויות נפוצות כוללות בלבול בין צבעי רקע לשבילים, טקסט שנבלע במסכה ושבילים דקים שנעלמים.

 

כאשר מתקבלת מסכה תקינה, היא מומרת לגרף פיקסלים, ייצוג שבו כל נקודה היא צומת וכל חיבור בין פיקסלים סמוכים הוא קשת. כך ניתן לחשב מסלולים בצורה קלאסית, בדומה למערכות ניווט.

 

בשלב האחרון המערכת דוגמת נקודות התחלה וסיום, מחשבת את המסלול הקצר ביותר באמצעות אלגוריתם ומפעילה Path Critic שמוודא שהמסלול נשאר בתוך השבילים ואינו חוצה אזורים אסורים. גם כאן מופיעות טעויות, כמו זיהוי שגוי של אזורי רקע כמעברים, פספוס שבילים דקים או מסלולים שנראים סבירים אך אינם מחוברים באמת.

 

כך פועל פס הייצור של MapTrace

research.google | כך פועל פס הייצור של MapTrace

איך מודדים אם מסלול נכון

כדי להעריך את איכות המסלולים, החוקרים השתמשו במדד NDTW, גרסה מנורמלת של Dynamic Time Warping. המדד מאפשר להשוות בין מסלול שחזה המודל לבין מסלול אמת, גם אם שני המסלולים שונים באורך או בקצב הדגימה.

 

איך מודדים דיוק מסלול: המחשה של DTW

research.google | איך מודדים דיוק מסלול: המחשה של DTW

 

לפי גוגל, החישוב כולל ארבעה מרכיבים מרכזיים: יישור דו ממדי של שני המסלולים, מטריצת עלות מצטברת שמראה את המחיר של כל התאמה, מטריצת מרחקים זוגיים שמציגה את המרחק בין כל נקודה לנקודה, והשוואת קואורדינטות שמדגישה את בעיית ההיסט הזמני בין המסלולים. ככל שהמדד נמוך יותר, כך המסלול שחזה המודל קרוב יותר למסלול האמת.

שיפור משמעותי ביכולת הניווט

כדי לבדוק אם המערכת אכן מלמדת מודלים להבין מרחב, החוקרים אימנו כמה מודלים על תת קבוצה של הדאטה, 23,000 מסלולים, ובחנו אותם על MapBench, אוסף מפות אמיתיות שהמודלים לא נחשפו אליו קודם. התוצאות היו חד משמעיות: Gemini 2.5 Flash ירד במדד NDTW מ-1.29 ל-0.87, ו-Gemma 3 27B ירד מ-1.29 ל-1.13.

 

שיעור ההצלחה של Gemma עלה ב-6.4 נקודות, וכל המודלים הפכו ליציבים יותר ופחות נוטים להפיק מסלולים לא תקינים. המודלים לא רק השתפרו - הם גם נכשלו הרבה פחות.

 

שיפור בביצועי המודלים לאחר אימון על MapTrace

research.google | שיפור בביצועי המודלים לאחר אימון על MapTrace

 

החוקרים בחנו גם את איכות ההחלטות של המבקרים האוטומטיים. ה‑Path Critic הגיע לדיוק של 76% עם 8% חיובי שגוי, ואילו ה‑Mask Critic הגיע לדיוק של 83% עם 9% חיובי שגוי. הטעויות נבעו בעיקר מדמיון צבעים בין שבילים לרקע, טקסט שנבלע במסכה ושבילים דקים שלא זוהו.

 

איך נראה השיפור בפועל: מסלולים לפני ואחרי אימון

איך נראה השיפור בפועל: מסלולים לפני ואחרי אימון | research.google

מה המשמעות של מודל שמבין מרחב

היכולת להבין חיבוריות ומגבלות תנועה פותחת בפני מודלים שורה של יישומים חדשים. מודל שמסוגל לקרוא מפה באמת יכול להציע ניווט אינטואיטיבי גם במפות מורכבות, כמו מפות רכבת תחתית או תצלומי לוויין. יכולת כזו יכולה לאפשר לרובוטים לנווט במחסנים, בתי חולים ושדות תעופה על בסיס תוכניות קומה בלבד, בלי צורך בחיישנים ייעודיים.

 

במקביל, כלים נגישים יוכלו לתאר מסלול ברור לאנשים עם לקות ראייה, בצורה שמבוססת על הבנה אמיתית של המרחב. כפי שמדגיש המקור, היכולת להבין מסלולים וחיבוריות פותחת מגוון יישומים עתידיים.

 

 דוגמאות נוספות למסלולים שנוצרו על ידי הפייפליין

דוגמאות נוספות למסלולים שנוצרו על ידי הפייפליין | research.google

האתגר האמיתי עוד לפנינו

MapTrace מראה שמודלים יכולים ללמוד היגיון מרחבי אם מספקים להם את הדאטה הנכון, גם כשהוא סינתטי. אבל העולם האמיתי מורכב בהרבה: מפות אינן אחידות, סימונים משתנים בין מקומות, ולעיתים מופיעים רעשים, טעויות ושינויים שלא קיימים במפות שנוצרו במעבדה.

 

לכן עולה השאלה האם שני מיליון מפות מלאכותיות מספיקות כדי ללמד מודל להתמודד עם הכאוס של המציאות. את התשובה נדע רק כשהמודלים יידרשו לנווט במפות שלא דומות לשום דבר שנוצר בתהליך הסינתטי.

 

הדאטה-סט המלא של MapTrace, הכולל את כל המפות והמסלולים הסינתטיים ששימשו במחקר, זמין להורדה בקוד פתוח. הקישור מאפשר לכל מי שמעוניין לבחון את הדאטה, לשחזר את הניסויים או להשתמש בו כבסיס למחקר נוסף.

הפוסט גוגל מלמדת את הבינה המלאכותית לקרוא מפה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-ai-map/feed/ 0
גוגל מציגה את ג’מיני 3.1 פרו https://letsai.co.il/gemini-3-1-pro/ https://letsai.co.il/gemini-3-1-pro/#respond Fri, 20 Feb 2026 14:26:08 +0000 https://letsai.co.il/?p=70276 גוגל השיקה את Gemini 3.1 Pro עם נתון אחד שמסביר את גודל המהלך: ציון של שבעים ושבע נקודה אחת אחוז במבחן ARC‑AGI‑2, מבחן שבודק את היכולת לפתור דפוסי לוגיקה חדשים שלא הופיעו באימון. זה שיפור של יותר מפי שניים מהגרסה הקודמת, והוא מסמן שינוי כיוון ברור ממודל שמספק תשובות למערכת שמבצעת משימות מורכבות מקצה לקצה. […]

הפוסט גוגל מציגה את ג’מיני 3.1 פרו הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל השיקה את Gemini 3.1 Pro עם נתון אחד שמסביר את גודל המהלך: ציון של שבעים ושבע נקודה אחת אחוז במבחן ARC‑AGI‑2, מבחן שבודק את היכולת לפתור דפוסי לוגיקה חדשים שלא הופיעו באימון. זה שיפור של יותר מפי שניים מהגרסה הקודמת, והוא מסמן שינוי כיוון ברור ממודל שמספק תשובות למערכת שמבצעת משימות מורכבות מקצה לקצה.

 

ג'מיני 3.1 פרו מציג קפיצה ביכולות ההסקה והביצוע של גוגל, ומסמן מעבר ממודלי שיחה לסוכני עבודה שמבצעים משימות מורכבות מקצה לקצה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה עומד מאחורי המהלך

ההשקה הנוכחית היא לא עוד עדכון גרסה. גוגל מנסה להגדיר מחדש את תפקיד המודלים שלה: לא כלי שיחה, אלא תשתית לסוכני עבודה, מערכות שמבינות משימה, מפרקות אותה לשלבים ומבצעות אותה בפועל.

 

הבלוג הרשמי של החברה מדגיש זאת במפורש: ״3.1Pro is designed for tasks where a simple answer isn’t enough״. זו אמירה שממקמת את המודל בלב המאמץ של גוגל לחזור לעמדה תחרותית, במיוחד מול מודלים שמצטיינים בשיחה אך פחות בביצוע.

 

המנכ״ל מצייץ על המודל החדש

סונדאר פיצ׳אי , מנכ״ל גוגל, מציץ על זמינות ויכולות המודל החדש

קפיצה ביכולות ההסקה

הציון במבחן ARC‑AGI‑2 אינו רק הישג טכני. זהו מדד ליכולת לפתור בעיות מופשטות, משימות שבהן אין תשובה מוכנה שאפשר לשלוף מהאימון.

 

במבחנים נוספים, כמו Terminal‑Bench ו‑BrowseComp, המודל מציג שיפור עקבי ביכולות תכנון, חיפוש, קידוד וביצוע. המשמעות היא פחות ניסוי וטעייה ויותר פתרונות שמבינים את מבנה הבעיה.

 

ג'מיני 3.1 פרו מציג קפיצה ביכולות ההסקה והביצוע של גוגל

קפיצה ביכולות ההסקה והביצוע | google.blog

סוכנים שמבצעים משימות שלמות

אחד הדגשים המרכזיים בהשקה הוא היכולת של המודל לבצע רצפי עבודה מלאים, כאלה שמתחילים בהבנת המשימה ומסתיימים במוצר עובד.

 

Gemini 3.1 Pro יודע לתכנן את השלבים, לכתוב את הקוד הדרוש, לחבר ממשקי API, לבנות את הממשק ולבדוק את התוצאה עד שהיא עומדת בדרישות.

 

בדוגמה הרשמית, הוא בנה דאשבורד חי למעקב אחרי תחנת החלל הבינלאומית, כולל אינטגרציה למקור נתונים בזמן אמת. זה שינוי מהותי - לא עוד בקשה לקטע קוד נקודתי, אלא יכולת לבנות מערכת שלמה. 

 

הנה דוגמה שבה המודל בונה מערכת חיה מאפס - כולל החיבור לנתוני חלל בזמן אמת:

 

קוד, סימולציות ומה שביניהם

Gemini 3.1 Pro מציג יכולות קידוד שממקמות אותו ככלי פיתוח של ממש. הוא יודע לבנות סימולציות תלת-ממד אינטראקטיביות, ליצור אפליקציות ווב שלמות ולתאם בין קוד צד לקוח וצד שרת תוך טיפול בזרימות נתונים מורכבות.

 

במבחני קוד כמו SWE‑Bench Verified ו‑SciCode הוא מציג שיפור מדוד לעומת הדור הקודם. עבור מפתחים זה מתורגם לפחות זמן על חיבורים טכניים, ועבור מנהלי מוצר זו הזדמנות להראות רעיון חי ולא רק מסמך.

 

הנה דוגמה שבה המודל הופך מוטיבים ספרותיים לעיצוב וקוד שמבטאים את האווירה של היצירה:

 

SVG מונפש בלחיצת טקסט

אחד החידושים הבולטים הוא היכולת לייצר קוד SVG נקי ומונפש ישירות מטקסט. המודל מבין היררכיה ויזואלית, תנועה וקומפוזיציה, ומפיק קבצים שמוכנים להטמעה באתר בלי צורך בעיבוד נוסף.

 

התוצאה היא קיצור משמעותי של הדרך בין רעיון לעיצוב אינטראקטיבי, תהליך שבדרך כלל דורש מעצב, מפתח ולפחות גרסה אחת בדרך.

 

הנה דוגמאות בהן המודל הופך טקסט לאנימציית SVG להטמעה בכל אתר:

 

 

זמינות רחבה - אבל ב‑Preview

המודל זמין כבר עכשיו ב‑Preview, צעד שמאפשר לגוגל לאסוף פידבק ולחדד את היכולות לפני השקה מלאה. הוא נגיש למפתחים דרך Google AI Studio, ה‑Gemini CLI ופלטפורמת Antigravity, לארגונים דרך Vertex AI, ולמשתמשים פרטיים באפליקציית Gemini וב‑NotebookLM עבור מנויי Pro ו‑Ultra.

 

הבלוג הרשמי מדגיש שהגרסה הזו נועדה לאמת את השיפורים לפני הפצה רחבה, מה שמבהיר שהיכולות מרשימות, אבל עדיין אינן מוצר סופי.

 

פותחים את התפריט ← לוחצים על Pro ← המודל עובר לגרסת 3.1 Pro.

פותחים את התפריט ← לוחצים על Pro ← המודל עובר לגרסת 3.1 Pro

מי מרוויח מהיכולות החדשות

למרות ההישגים, גוגל מקפידה להבהיר שהמודל הזה הוא ממש לא AGI, לא מציע זיכרון מתמשך ארוך טווח, לא פועל באוטונומיה מלאה ולא מבוסס על שינוי ארכיטקטוני מהותי. ההדגשה הזו משקפת זהירות, אולי גם ניסיון להימנע מהבטחות יתר שנשמעו בהשקות קודמות. ובכל זאת, מדובר במודל מתקדם מאוד שמסוגל לשפר משמעותית את העבודה של מי שנשען עליו.

 

עבור מפתחים, הוא מקצר את הדרך בין רעיון ל‑MVP ומספק קוד יציב שמרכיב מערכות שלמות במקום קטעים מבודדים. מנהלי מוצר נהנים מיכולת להציג רעיונות חיים ולבנות אבטיפוס במהירות, מה שמאיץ תהליכי אפיון. ארגונים מרוויחים מהחיבור העמוק לאקו־סיסטם של גוגל קלאוד ומהתקדמות ברורה לכיוון סוכני עבודה שמבצעים תהליכים מורכבים מקצה לקצה.

 

הנה עוד דוגמה מגניבה שבה המודל מייצר סימולציה תלת-ממדית אינטראקטיבית שמגיבה לתנועות המשתמש ולצליל:

 

פחות שיחה, יותר עשייה

Gemini 3.1 Pro מסמן בבירור את הכיוון שאליו גוגל מכוונת את הדור הבא של מודלי ה‑AI. מעבר ממערכות שמגיבות לטקסט למערכות שמבצעות משימות מורכבות מקצה לקצה. הוא מציג שיפור מדיד ביכולות ההסקה, התקדמות משמעותית במנגנוני הסוכנים, קפיצה ביכולות הקוד - כולל בניית אפליקציות, סימולציות וממשקים חיים - וחידושים ויזואליים שמצמצמים את המרחק בין רעיון לעיצוב.

 

זה מודל שמרגיש פחות כמו צ'אטבוט ויותר כמו שכבת ביצוע חכמה, כזו שמסוגלת לקחת בקשה מופשטת ולהפוך אותה למוצר עובד.

הפוסט גוגל מציגה את ג’מיני 3.1 פרו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-3-1-pro/feed/ 0
הסיפור של OpenClaw שהפך מפתח בודד לתופעה עולמית https://letsai.co.il/openclaw-story/ https://letsai.co.il/openclaw-story/#respond Thu, 19 Feb 2026 13:49:34 +0000 https://letsai.co.il/?p=70254 פיטר שטיינברגר בנה לבדו, בלי משקיעים ובלי צוות, אחד הפרויקטים הצומחים ביותר בתולדות גיטהאב. בנובמבר 2025 ישב מפתח אוסטרי בן ארבעים מול המחשב ופיתח כלי שהוא חשב שיש בו צורך אבל לא היה קיים. הוא לא כינס ישיבת אסטרטגיה, לא גייס הון סיכון ולא הכין מצגת למשקיעים. הוא פשוט כתב קוד, העלה אותו ל‑GitHub והלך […]

הפוסט הסיפור של OpenClaw שהפך מפתח בודד לתופעה עולמית הופיע ראשון בLet's AI בינה מלאכותית

]]>
פיטר שטיינברגר בנה לבדו, בלי משקיעים ובלי צוות, אחד הפרויקטים הצומחים ביותר בתולדות גיטהאב. בנובמבר 2025 ישב מפתח אוסטרי בן ארבעים מול המחשב ופיתח כלי שהוא חשב שיש בו צורך אבל לא היה קיים. הוא לא כינס ישיבת אסטרטגיה, לא גייס הון סיכון ולא הכין מצגת למשקיעים. הוא פשוט כתב קוד, העלה אותו ל‑GitHub והלך לישון. שמונים ושניים יום אחר כך הופיע סאם אלטמן בפתח ביתו, ולאחר מכן הכריז ברשת שאותו מפתח מצטרף ל‑OpenAI. זה לא סיפור על סטארטאפ שהצליח, אלא על מה שקורה כשאדם אחד זז מספיק מהר בעולם טכנולוגי שלא מפסיק להשתנות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

43 פרויקטים גנוזים

פיטר שטיינברגר לא הגיע לכאן במקרה. במשך שלוש עשרה שנים הוא בנה וניהל את PSPDFKit, חברת תוכנה שמתמחה בעיבוד קובצי PDF, ומכר אותה ביותר ממאה מיליון דולר. אחרי המכירה הגיעה תקופה שכל יזם מכיר, אבל כמעט לא מדבר עליה: ריק יצירתי מוחלט. "לא יכולתי להוציא קוד," הוא סיפר בראיון. "פשוט הסתכלתי על המסך ולא הרגשתי כלום."

 

הפתרון שלו היה לא שגרתי. הוא קנה כרטיס טיסה חד-כיווני למדריד, עזב, וניסה להתחיל מחדש. בסך הכול עבר על ארבעים ושלושה פרויקטים שונים, בנה וגנז אותם בזה אחר זה. רק כשחזר ושם לב לשינוי ביכולות של מודלי ה‑AI, שהחלו לטפל בחלקים החוזרים של הקוד ולפנות את המפתח לעבודה המעניינת, הניצוץ חזר.

 

OpenClaw היה פרויקט מספר ארבעים וארבע. "פשוט בניתי את מה שרציתי שיהיה קיים," אמר בראיון ל‑Y Combinator.

מה זה עושה, ולמה זה שונה

כדי להבין מה מייחד את OpenClaw צריך להבין קודם מה חסר בכלים הנפוצים היום. רוב מוצרי ה‑AI המוכרים, כמו צ׳אט ג׳יפיטי, קלוד ו-ג׳מיני, פועלים במודל של שאלה ותשובה: המשתמש כותב, המודל עונה. הם יודעים לכתוב, לתמצת ולהסביר, וגם להתחבר לכלים חיצוניים. אבל הם עדיין לא פועלים כסוכנים רציפים שמנהלים תהליכים לאורך זמן, שומרים הקשר עמוק, ומבצעים פעולות באופן עצמאי בלי שהמשתמש ינחה אותם בכל שלב.

 

OpenClaw פועל אחרת. זה סוכן AI שרץ ישירות על המחשב של המשתמש, מחובר לאפליקציות שבהן הוא כבר משתמש - בעיקר WhatsApp וטלגרם - ומסוגל לבצע משימות אמיתיות: לנהל תיבת דואר נכנס, לתאם פגישות, לשלוט בדפדפן, לבצע הזמנות ולהפעיל מכשירים בבית חכם. בניגוד לפתרונות מבוססי ענן, הוא פועל מקומית על החומרה של המשתמש, ולכן הנתונים האישיים לא יוצאים מהמכשיר.

 

הגישה הזו מאפשרת יכולות שקשה להשיג בדרך אחרת. לא רק תכונות שתוכננו מראש, אלא תוצאה טבעית של עיצוב שמעניק לסוכן גישה מלאה לסביבת העבודה של המשתמש.

הצמיחה, וגם המחיר שלה

הפרויקט עלה לאוויר בשם Clawdbot, עד שאנטרופיק שלחה מכתב משפטי בטענה שהשם דומה מדי למודל שלה, Claude. שטיינברגר שינה את השם ל‑Moltbot, ולאחר מכן ל‑OpenClaw, פשוט כי אהב אותו יותר.

 

בינואר 2026 פוסט ב‑Hacker News הצית את הוויראליות. בתוך עשרים וארבע שעות נוספו תשעת אלפים כוכבים חדשים בגיטהאב. בתוך חודשיים חצה הפרויקט את רף מאה אלף הכוכבים, ובאמצע פברואר כבר עמד על מאה תשעים וארבעה אלף - קצב מהיר יותר מזה של React, Linux ו‑Kubernetes בשלבים מקבילים בהתפתחותם. מחשבי Mac Mini החלו להימכר כמו לחמניות, כשמשתמשים חיפשו מחשב זול שיריץ את הסוכן באופן רציף בבית. הקהילה פיתחה יותר מחמישים תוספים, ופרויקט צדדי בשם MoltBooK יצר רשת חברתית שלמה של בוטי AI שמשוחחים זה עם זה ומבצעים משימות בעולם האמיתי, כולל פנייה לאנשים אמיתיים שיבצעו את העבודה.

 

אבל הצמיחה המהירה, יחד עם ארכיטקטורה שמעניקה לסוכן הרשאות נרחבות, יצרו גם בעיות. משתמשים שהגדירו את הסוכן בצורה שגויה חשפו בטעות מפתחות API. התגלו פרצות שאפשרו מתקפות לגניבת מידע, וחוקרי אבטחה הצביעו על פוטנציאל להזרקת פרומפטים זדוניים דרך תוכן חיצוני שהסוכן מעבד. שטיינברגר הוסיף שכבות הגנה ומנגנוני סריקה, אך הבעיה העקרונית נותרה: סוכן עם גישה מלאה למחשב הוא כלי עוצמתי, ועוצמה כזו - כשהיא זמינה לכולם - דורשת זהירות שלא תמיד מובנת מאליה.

מה אלטמן ראה כאן

ב‑15 בפברואר פרסם סאם אלטמן ב‑X שפיטר שטיינברגר מצטרף ל‑OpenAI כדי להוביל את פיתוח הסוכנים האישיים. "הוא גאון עם המון רעיונות על עתיד סוכנים חכמים שמקיימים אינטראקציה זה עם זה לטובת אנשים," כתב אלטמן, והוסיף ש‑OpenClaw יעבור לקרן עצמאית ויישאר קוד פתוח בגיבוי החברה.

 

אלטמן מציג את שטיינברגר כמוביל הדור הבא של סוכני ה‑AI

אלטמן מציג את שטיינברגר כמוביל הדור הבא של סוכני ה‑AI

 

שטיינברגר יכול היה להפוך את הפרויקט לחברה. האפשרות הייתה ממשית. הוא בחר אחרת, ובפוסט שפרסם לא ניסה לעטוף את ההחלטה בנימוקים גדולים: "כבר שיחקתי את משחק בניית החברה, שפכתי לתוכו שלוש עשרה שנים. מה שאני רוצה הוא להשפיע, לא לנהל." אחרי שבוע בסן פרנסיסקו, שבמהלכו נפגש עם כל המעבדות המובילות וקיבל גישה למחקרים שלא פורסמו, הוא הרגיש שהחזון שלו ושל OpenAI מספיק קרוב כדי שהבחירה תהיה ברורה.

 

האם זו הברקה או הימור? רק הזמן יגיד.

מה OpenClaw אומר על המגמות בשוק

אימון מודל שפה מתקדם עולה מיליארדי דולרים ודורש תשתית מחשוב שרק מעט חברות בעולם מסוגלות לממן. שכבת הסוכן - הממשק שיושב מעל המודל ומחבר אותו לחיי המשתמש - פועלת לפי כללים אחרים. שטיינברגר לא אימן מודל חדש. הוא בנה ארכיטקטורה שעוטפת מודלים קיימים של Anthropic ושל OpenAI ומחברת אותם לסביבת העבודה של המשתמש. העלות החודשית שלו נעה בין עשרת אלפים לעשרים אלף דולר, ללא משקיעים.

 

כאן נמצא הפיצול המבני. שכבת המודלים מרוכזת בידי מספר מצומצם של שחקנים בעלי הון עצום. שכבת הסוכנים פתוחה יותר, ובה יתרון המהירות, הטעם והביצוע יכול לפצות על יתרון ההון. OpenClaw מדגים שבשכבה הזו אדם אחד עם כישרון ומפתח API עדיין יכול לנוע מהר יותר מצוות מוצר גדול.

לאן זה הולך מכאן

OpenClaw יעבור לקרן עצמאית ויישאר קוד פתוח, ושטיינברגר עצמו יצטרף ל‑OpenAI. השאלה שהקהילה שואלת, ובצדק, היא האם שני הדברים יכולים להתקיים יחד לאורך זמן. פרויקטים קהילתיים שנכנסים למסלול של חברות גדולות לא תמיד שומרים על אופיים.

 

מה שכבר ברור הוא ש‑OpenClaw הצית דיון רחב על מה שסוכן אישי יכול להיות כשהוא מקבל גישה מלאה למחשב של המשתמש, ועל הסיכונים שנלווים לגישה כזו. שטיינברגר אמר שהמשימה הבאה שלו היא לבנות סוכן שגם אמא שלו תדע להשתמש בו. כמה רחוק זה מהמציאות של היום? זו בדיוק השאלה שתעצב את התחום בשנים הקרובות.

הפוסט הסיפור של OpenClaw שהפך מפתח בודד לתופעה עולמית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openclaw-story/feed/ 0
NotebookLM סוף סוף מאפשר עריכת מצגות https://letsai.co.il/notebooklm-presentation-edit/ https://letsai.co.il/notebooklm-presentation-edit/#comments Wed, 18 Feb 2026 12:56:53 +0000 https://letsai.co.il/?p=70194 עדכון חדש ל‑NotebookLM משנה באופן משמעותי את הדרך שבה משתמשים יוצרים ומעדכנים מצגות המבוססות על מקורות מידע. במשך חודשים הכלי ידע לנתח חומרים ולבנות שקפים בצורה מרשימה, אך מגבלה אחת מנעה ממנו להפוך לכלי עבודה מלא: המצגות שנוצרו היו סטטיות, לא ניתנות לעריכה, ולעיתים חייבו המרות ידניות או בנייה מחדש של חלקים שלמים. כעת, עם […]

הפוסט NotebookLM סוף סוף מאפשר עריכת מצגות הופיע ראשון בLet's AI בינה מלאכותית

]]>
עדכון חדש ל‑NotebookLM משנה באופן משמעותי את הדרך שבה משתמשים יוצרים ומעדכנים מצגות המבוססות על מקורות מידע. במשך חודשים הכלי ידע לנתח חומרים ולבנות שקפים בצורה מרשימה, אך מגבלה אחת מנעה ממנו להפוך לכלי עבודה מלא: המצגות שנוצרו היו סטטיות, לא ניתנות לעריכה, ולעיתים חייבו המרות ידניות או בנייה מחדש של חלקים שלמים. כעת, עם הוספת יכולות עריכה וייצוא בפורמט PPTX, עדכון שמתגלגל בהדרגה למשתמשים, NotebookLM עובר שינוי שממקם אותו ככלי פרודוקטיבי וגמיש יותר, המתאים גם לעבודה מקצועית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

עריכה מחוץ ל-NotebookLM

עד עכשיו, NotebookLM ייצא מצגות רק כקובצי PDF שהיו למעשה תמונות שטוחות. כל שקף היה קפוא, ללא אפשרות לערוך טקסטים, לשנות כותרות או לעדכן בולטים. עבור מרצים, סטודנטים ואנשי מקצוע זו הייתה מגבלה משמעותית - הכלי ידע לייצר מצגת, אך לא אפשר להמשיך לעבוד עליה.

 

העדכון החדש פותר את החסם הזה באמצעות ייצוא בפורמט PPTX, שבו כל הטקסטים, כולל כותרות, פסקאות ורשימות, הופכים לניתנים לעריכה מלאה ב‑PowerPoint או ב‑Google Slides. כך ניתן סוף סוף לקחת מצגת שנוצרה ב‑NotebookLM ולהמשיך לפתח אותה בכלי מצגות מוכר.

 

למרות השיפור המשמעותי, הפתרון עדיין אינו שלם. התמונות במצגת המיוצאת נשארות מוטמעות כאלמנטים שאי אפשר לערוך ישירות, והמקורות אינם מספקים הסבר לכך או מידע על שינוי עתידי.

 

עם זאת, קיימת דרך מעשית לעקוף את המגבלה. לאחר העלאת המצגת ל‑Google Slides ניתן להשתמש בננו בננה, העוזר המובנה של Slides, ולבקש ממנו לבצע כל שינוי נדרש בשקף, כולל החלפת תמונות. כך גם המגבלה שנותרה בפורמט PPTX אינה מונעת מהמשתמשים להגיע לתוצאה מקצועית ומדויקת.

עריכה בתוך NotebookLM

החידוש השני בעדכון הוא האפשרות לערוך את המצגת ישירות בתוך NotebookLM. בניגוד לעורכי מצגות מסורתיים, כאן לא גוררים תיבות טקסט ולא מזיזים אלמנטים בעזרת העכבר. במקום זאת, כל העריכה מתבצעת באמצעות פקודות טקסט חופשיות.

 

המשתמש בוחר שקף, לוחץ על שלוש הנקודות ובוחר ב‑Revise, ואז פשוט מתאר במילים את השינוי הרצוי: "פצל את שקף 3 לשני שקפים", "הוסף שקף סיכום", "תקצר את הכותרת", "תחליף את התמונה".

 

NotebookLM מבצע את ההנחיה ושומר על התאמה למקורות שהועלו למחברת, כך שהתוכן נשאר מדויק ונאמן למידע המקורי.

 

עריכת שקפים מתוך הכלי עצמו

עריכת שקפים מתוך הכלי עצמו

 

מודל העבודה הזה, שמבוסס על יצירה ראשונית, דיוק באמצעות פקודות טקסט, ייצוא ועיצוב סופי, יוצר רצף עבודה טבעי. NotebookLM מייצר טיוטה חכמה ומדויקת, מאפשר ללטש אותה במהירות, ואז מעביר את המשתמש לשלב העיצוב בכלי המצגות המועדף עליו.

איך זה עובד מאחורי הקלעים

העדכון נשען על Gemini, מנוע ה-AI של גוגל, שמאפשר ל‑NotebookLM להבין את מבנה המצגת, לפרש פקודות טקסט ולבצע שינויים תוך שמירה על עקביות בין השקפים. מאחר שהעריכה בתוך הכלי היא טקסטואלית בלבד, אין בו גרירה של אלמנטים, שינוי מיקום ידני או התאמות עיצוביות. כל פעולות העיצוב מתבצעות לאחר הייצוא, ב‑PowerPoint או ב‑Google Slides, שבהם ניתן להשלים את העבודה הוויזואלית.

העתיד של NotebookLM

NotebookLM מתקרב והופך לכלי עבודה שלם. העדכון החדש מקרב אותו לשימוש מקצועי יומיומי, ומסמן מעבר מתפקיד של מחולל טיוטות לכלי שמסייע למשתמשים לבנות מצגות מבוססות מקורות, לחדד את התוכן ולייצא אותו בפורמט שניתן לעריכה מלאה בכלי מצגות מוכר. כך נוצר תהליך עבודה רציף שמאפשר להתחיל בתוך NotebookLM ולהמשיך ב‑PowerPoint או ב‑Google Slides לפי הצורך.

 

העדכון, שמתגלגל כעת בהדרגה למשתמשים, מחזק את הגמישות והיעילות של הכלי. למרות מגבלות שנותרו, NotebookLM הופך למערכת שמותאמת יותר לעבודה אמיתית, ומאפשרת ליצור, לערוך ולעצב מצגות בצורה חלקה וברורה.

הפוסט NotebookLM סוף סוף מאפשר עריכת מצגות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/notebooklm-presentation-edit/feed/ 1
אנטרופיק משיקה את Claude Sonnet 4.6 https://letsai.co.il/claude-sonnet-4-6/ https://letsai.co.il/claude-sonnet-4-6/#respond Wed, 18 Feb 2026 10:43:47 +0000 https://letsai.co.il/?p=70175 השקת Claude Sonnet 4.6 מסמנת רגע משמעותי בהתפתחות משפחת המודלים של Anthropic. במקום עדכון קטן נוסף, מדובר בקפיצה רחבה שמקרבת את Sonnet לרמת הביצועים של מודלי העל, ובראשם Opus, אך במחיר נגיש ובזמינות מלאה לכל המשתמשים, כולל במסלול החינמי. השדרוגים נוגעים כמעט בכל יכולת מרכזית: כתיבת קוד, שימוש במחשב, תכנון ארוך טווח, ניתוח פיננסי, עבודה […]

הפוסט אנטרופיק משיקה את Claude Sonnet 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
השקת Claude Sonnet 4.6 מסמנת רגע משמעותי בהתפתחות משפחת המודלים של Anthropic. במקום עדכון קטן נוסף, מדובר בקפיצה רחבה שמקרבת את Sonnet לרמת הביצועים של מודלי העל, ובראשם Opus, אך במחיר נגיש ובזמינות מלאה לכל המשתמשים, כולל במסלול החינמי. השדרוגים נוגעים כמעט בכל יכולת מרכזית: כתיבת קוד, שימוש במחשב, תכנון ארוך טווח, ניתוח פיננסי, עבודה משרדית, עמידות בפני מתקפות, והבנת הקשר בהיקפים גדולים במיוחד. כך נוצר מודל שמסוגל לבצע משימות שבעבר דרשו מודלים יקרים בהרבה, ומציע חוויית שימוש יציבה, עקבית ומקצועית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שדרוג רוחבי שמגדיר מחדש את משפחת Sonnet

המהות של Sonnet 4.6 היא שיפור מקיף, לא תוספת נקודתית. אנטרופיק מתארת אותו כ"שדרוג מלא של יכולות המודל", והדבר ניכר בכל שכבת ביצוע: החל בכתיבה ותחזוקה של קוד באופן עקבי ומדויק יותר, דרך הבנה טובה יותר של הוראות מורכבות, ועד ירידה בהנדסת יתר ובטעויות לוגיות.

 

משתמשים מוקדמים דיווחו כי המודל קורא את ההקשר לפני שהוא משנה קוד, מאחד לוגיקה במקום לשכפל אותה, ומפגין פחות נטייה ל"עצלנות" או לטענות שווא להצלחה. כל אלה יוצרים חוויית עבודה חלקה ויציבה יותר, במיוחד בסשנים ארוכים.

 

הנתונים מחזקים את התרשמות המשתמשים. משתמשי Claude Code העדיפו את Sonnet 4.6 על Sonnet 4.5 ב-70 אחוז מהמקרים, ואף העדיפו אותו על Opus 4.5 ב-59 אחוז מהמקרים. זהו הישג משמעותי למודל שמחירו נותר זהה לדור הקודם, 3 דולר למיליון טוקנים נכנסים ו-15 דולר למיליון טוקנים יוצאים.

חלון הקשר שמאפשר לחשוב אחרת

אחד החידושים הבולטים ב‑Sonnet 4.6 הוא חלון הקשר של מיליון טוקנים, שזמין כעת בבטא. המשמעות המעשית של יכולת כזו היא אפשרות לכלול בבקשה אחת קודבייס שלם, חוזה משפטי ארוך או עשרות מאמרים אקדמיים, ולנתח אותם באופן אפקטיבי. זהו לא רק שיפור כמותי, אלא שינוי איכותי - המודל מסוגל לבצע תכנון ארוך טווח, לזהות קשרים בין חלקים רחוקים במסמך ולבנות אסטרטגיות מורכבות על בסיס מידע רב ומפוזר.

 

אסטרטגיית הצמיחה של Sonnet 4.6 בסימולציית ניהול עסק

אסטרטגיית הצמיחה של Sonnet 4.6 בסימולציית ניהול עסק

 

היכולת הזו בלטה במיוחד במבחן Vending‑Bench Arena, המדמה ניהול עסק לאורך זמן. Sonnet 4.6 אימץ אסטרטגיה יוצאת דופן, שבמסגרתה השקיע משאבים רבים בחודשים הראשונים ולאחר מכן עבר למיקוד חד במקסום רווחים. התזמון המדויק של המהלך העניק לו יתרון משמעותי, והוא סיים את הסימולציה הרבה לפני המתחרים. הגרף למעלה ממחיש זאת היטב: Sonnet 4.6 מגיע לכ‑6000 דולר בסוף התקופה, בעוד Sonnet 4.5 נע סביב 3000 דולר בלבד.

מהניסוי הראשוני ליכולות מעשיות

אחד התחומים שבהם Sonnet 4.6 מציג את הקפיצה הגדולה ביותר הוא שימוש במחשב. מאז שאנטרופיק הציגה לראשונה מודל כללי לשימוש במחשב באוקטובר 2024, מודל שתואר אז כ"עדיין ניסיוני, לעיתים מסורבל ושגוי", חל שיפור עקבי ומשמעותי. תקן הביצועים OSWorld מציג זאת בצורה ברורה - Sonnet 4.6 מגיע ל-72.5 אחוז ב‑OSWorld‑Verified, לעומת 61.4 אחוז ב‑Sonnet 4.5 ו‑42.2 אחוז ב‑Sonnet 4.0.

 

שיפור עקבי ביכולות שימוש במחשב

שיפור עקבי ביכולות שימוש במחשב

 

המשמעות המעשית של השיפור הזה היא יכולת לבצע פעולות שבעבר דרשו חיבורי API ייעודיים. המודל מסוגל לנווט בגיליונות מורכבים, למלא טפסים מרובי שלבים, לעבוד עם דפדפן, LibreOffice או VS Code, והכול באמצעות "עכבר ומקלדת וירטואליים". משתמשים מוקדמים דיווחו על ביצועים ברמה אנושית במשימות רבות, גם אם המודל עדיין רחוק מהמשתמשים המיומנים ביותר.

 

במקביל, אנטרופיק שיפרה את עמידות המודל בפני Prompt Injection, מתקפה שבה אתר מנסה להסתיר הוראות זדוניות. ההערכות הפנימיות מצביעות על שיפור משמעותי לעומת Sonnet 4.5, עם ביצועים הדומים לאלה של Opus 4.6. החוקרים תיארו את המודל כבעל "אופי חם, כן ופרו-חברתי", ללא סימנים לבעיות יישור (Alignment) חמורות.

עלייה עקבית בביצועים

הנתונים המלאים מציגים תמונה ברורה - Sonnet 4.6 משפר את Sonnet 4.5 כמעט בכל תחום, ולעיתים אפילו מתקרב או עוקף את Opus 4.5. כך למשל, במדד BrowseComp לחיפוש אינטרנטי הוא מזנק מ‑43.9 אחוז ל‑74.7 אחוז, ובמבחן ARC‑AGI‑2 לפתרון בעיות חדשות הוא עולה מ‑13.6 אחוז ל‑58.3 אחוז.

 

גם במדד GDPval‑AA Elo, הבוחן ביצועים במשימות משרדיות, נרשמת עלייה משמעותית מ‑1276 ל‑1633. בתחום הניתוח הפיננסי המודל מטפס מ‑54.5 אחוז ל‑63.3 אחוז. מעבר לכך, Sonnet 4.6 מציג שיפור עקבי גם בקידוד טרמינלי, שימוש בכלים, חיפוש, תכנון רב תחומי ופתרון בעיות ברמת תואר שני, מה שמחזק את ההבנה שמדובר בשדרוג רחב ולא נקודתי.

 
Sonnet 4.6 משפר את Sonnet 4.5 כמעט בכל תחום

Sonnet 4.6 משפר את Sonnet 4.5 כמעט בכל תחום

זמינות, כלים ושימושים מעשיים

Sonnet 4.6 זמין כעת בכל פלטפורמות Claude, ובהן claude.ai, Claude Cowork, Claude Code, ה‑API וכל ספקי הענן הגדולים. המסלול החינמי שודרג אוטומטית למודל החדש, והוא כולל כעת תמיכה ביצירת קבצים, שימוש ב‑connectors, הפעלת כלים ו‑compaction, מה שמרחיב משמעותית את היכולות הזמינות לכל משתמש ללא עלות.

 

בתוסף Excel, קלוד תומך כעת ב‑MCP connectors, המאפשרים חיבור ישיר למקורות מידע כמו S&P Global, LSEG, Daloopa, PitchBook, Moody’s ו‑FactSet. יכולת זו מאפשרת למשוך נתונים חיצוניים ישירות לגיליון העבודה, בלי לעזוב את סביבת Excel ובלי צורך בתהליכי אינטגרציה מורכבים.

 

ב‑API, כלי החיפוש וה‑fetch כותבים ומריצים קוד באופן אוטומטי כדי לסנן תוצאות ולהשאיר רק את המידע הרלוונטי. כך משתפרת איכות התשובות, ונעשה שימוש יעיל יותר בטוקנים, במיוחד במשימות המחייבות עיבוד של כמויות מידע גדולות.

עתיד משפחת Sonnet

לצד ההתקדמות המרשימה, אנטרופיק מדגישה כי המודל עדיין נחות מהאדם בשימוש במחשב, וכי Prompt Injection נותר איום ממשי גם אם קטן יותר. ועדיין, ברור ש‑Claude Sonnet 4.6 מייצג שלב משמעותי באבולוציה של מודלים בינוניים‑מתקדמים.

 

הוא מצליח להציע ביצועים הקרובים למודלי העל, אבל במחיר נגיש ובזמינות רחבה, ומשלב חלון הקשר גדול במיוחד, יכולות שימוש במחשב ברמה גבוהה, שיפור עקבי בקוד ובתכנון ועמידות בטיחותית משופרת. עבור מפתחים, אנליסטים וארגונים, מדובר בכלי עבודה שמרחיב את גבולות האפשרי ומאפשר לבצע משימות שבעבר דרשו מודלים יקרים בהרבה. Sonnet 4.6 הוא לא רק עדכון, אלא הצהרה ברורה על הכיוון שאליו אנטרופיק מכוונת את עתיד הבינה המלאכותית.

הפוסט אנטרופיק משיקה את Claude Sonnet 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-sonnet-4-6/feed/ 0
איך AI משנה את ההייטק הישראלי מבפנים https://letsai.co.il/tech-unemployment/ https://letsai.co.il/tech-unemployment/#comments Tue, 17 Feb 2026 11:18:08 +0000 https://letsai.co.il/?p=70079 דוח חדש של שירות התעסוקה מגלה כי מספר דורשי העבודה בהייטק הישראלי זינק ב-126% מאז 2022, בעיקר בעקבות הטמעת כלי AI בכתיבת קוד. למרות התאוששות כללית בענף ב-2025, תחום התוכנה ממשיך להיחלש. שילוב הנתונים עם מגמות רחבות יותר של חדשנות מצביע על שינוי מבני עמוק בתעשייה, שינוי שמחייב התאמות מקצועיות והיערכות מערכתית.   כלי AI […]

הפוסט איך AI משנה את ההייטק הישראלי מבפנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
דוח חדש של שירות התעסוקה מגלה כי מספר דורשי העבודה בהייטק הישראלי זינק ב-126% מאז 2022, בעיקר בעקבות הטמעת כלי AI בכתיבת קוד. למרות התאוששות כללית בענף ב-2025, תחום התוכנה ממשיך להיחלש. שילוב הנתונים עם מגמות רחבות יותר של חדשנות מצביע על שינוי מבני עמוק בתעשייה, שינוי שמחייב התאמות מקצועיות והיערכות מערכתית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כלי AI מחליפים חלק מעבודת המפתחים

הנתונים החדשים של שירות התעסוקה מצביעים על שינוי מבני בשוק העבודה הטכנולוגי בישראל. לראשונה, גוף ממשלתי קושר באופן רשמי בין העלייה החדה באבטלה בהייטק לבין הטמעת כלי בינה מלאכותית בכתיבת קוד. למרות התאוששות כללית בענף ב-2025, תחום התוכנה ממשיך להיחלש, ומספר המובטלים בו עולה בקצב שאינו דומה לשום תחום אחר במשק.

 

בדצמבר 2025 עמד מספר דורשי העבודה בהייטק על 16,300 איש - עלייה של 126% לעומת ינואר 2022, אז היו רק 7,200. בשאר המשק נרשמה באותה תקופה ירידה של 10% במספר מחפשי העבודה.

 

59% מדורשי העבודה בענף - כ-9,600 איש - מגיעים מתחומי התוכנה. מספר דורשי העבודה בתוכנה גדל פי 1.75 מאז דצמבר 2022, לעומת פי 1.05 בלבד בהנדסת מכונות. הפער הזה אינו מקרי - הוא משקף תהליך שבו חלק מהעבודה שבעבר בוצעה בידי מפתחים מבוצעת כיום על ידי מערכות AI.

 

הנתונים של שירות התעסוקה מצביעים על שינוי מבני בשוק העבודה

הנתונים של שירות התעסוקה מצביעים על שינוי מבני בשוק העבודה

AI כבר לא “משפר פרודוקטיביות” - הוא משנה את מבנה העבודה

שירות התעסוקה מציג תמונה ברורה - כלי AI אינם רק תוספת שמייעלת את עבודת המפתחים, אלא טכנולוגיה שמחליפה חלק מהמשימות שבוצעו בעבר בידי עובדים. הכלים מסוגלים לכתוב קוד פשוט, לבצע משימות חוזרות, ובחלק מהמקרים אפילו להחליף עובדים באופן ישיר.

 

התוצאה בשטח מורגשת היטב. פחות משרות חדשות בתחום התוכנה, יותר מועמדים על כל משרה, וקושי גובר של מפוטרים למצוא עבודה חדשה.

 

שירות התעסוקה מזהיר: “ככל שתימשך הטמעת הבינה המלאכותית בכתיבת הקוד, כך עלולים דורשי עבודה מתחומי התוכנה להתקשות לשוב למעגל העבודה וייתכן שיידרשו להסבות מקצועיות.”

 

זו הצהרה חריגה בנוף הישראלי. לא עוד דיבור כללי על “שיפור פרודוקטיביות”, אלא הכרה רשמית בכך שמערכות AI מחליפות חלק מהעבודה האנושית ומשנות את מבנה המקצוע עצמו.

שוק עבודה לא מאוזן

לכאורה, 2025 הייתה שנה חיובית להייטק: מספר המשרות הפנויות עלה ב-15%, מ-15,900 ל-18,300, והיחס בין משרות פנויות לדורשי עבודה הגיע ל-112 משרות לכל 100 דורשים - נתון שמעיד על ביקוש גבוה.

 

אבל בתחום התוכנה התמונה שונה. במשרות הפיתוח נרשמה עלייה של 5% בלבד ברבעון האחרון של השנה, קצב שאינו מדביק את הגידול במספר המובטלים.

 

גם מספר השכירים בהייטק עבר תנודות חדות: 441 אלף ב-2023, ירידה ל-424 אלף ב-2024, והתאוששות חלקית ל-435 אלף ב-2025. אלא שההתאוששות הזו כמעט לא נגעה למפתחי תוכנה.

גם עובדים מנוסים נפגעים

הנתונים מפריכים את ההנחה שהמשבר פוגע בעיקר בג'וניורים. שיעור בני 35-50 בקרב דורשי העבודה בהייטק עלה ל-44.5% בדצמבר 2025, לעומת 40.5% שנתיים קודם. העובדה שגם עובדים מנוסים מתקשים להשתלב מחדש מעידה על עומק השינוי ועל כך שהפגיעה אינה מוגבלת לעובדים בתחילת דרכם.

פערי השכר יוצרים מלכוד תעסוקתי

השכר הממוצע בהייטק עומד על 32,500 ₪, לעומת 13,700 ₪ בשאר המשק - פער של כמעט פי 2.4. גם בקרב דורשי העבודה הפער משמעותי: מי שעבד בהייטק השתכר בממוצע 21,700 ₪, לעומת 11,700 ₪ בקרב דורשי העבודה בשאר המשק. פער השכר בין שתי הקבוצות גדל ב-58% בין 2022 ל-2025.

 

מי שהתרגל לשכר של יותר מ-20,000 ₪ מתקשה לעבור למשרה שמציעה סביב 12,000 ₪, גם אם יש בה ביקוש. כך נוצר מלכוד שכר שמקשה על מובטלים מההייטק למצוא חלופות תעסוקתיות מחוץ לענף.

למה זה חשוב לכולם ולא רק למפתחים

ההייטק הישראלי הוא מנוע צמיחה מרכזי: הוא אחראי לכ-20% מהתוצר, ליותר מ-50% מהייצוא, ולכ-30% ממס ההכנסה שמשלמים שכירים. 85% מהכנסות המדינה מההייטק מגיעות מהעובדים עצמם, לא מהחברות.

 

כאשר מספר העובדים בענף יורד, ההשפעה מורגשת בכל המשק: פחות צריכה, פחות עסקאות נדל"ן ופחות הכנסות ממיסים.

 

חשוב להדגיש, משבר תעסוקה בהייטק אינו “בעיה של ההייטק” - זו בעיה של המדינה כולה.

יש גם נקודות אור?

אפשר להגיד שיש סימנים להתייצבות. מספר דורשי העבודה ירד מהשיא של 19,800 ביוני 2025 ל-16,300 בדצמבר, וגם היחס בין משרות פנויות לדורשי עבודה נותר חיובי.

 

אבל בתחום התוכנה המגמה הפוכה. שירות התעסוקה מסכם זאת כך: “בעוד מספרם הכללי של דורשי העבודה בהייטק מצוי בהאטה משמעותית, מספר דורשי העבודה מתחומי התוכנה מוסיף לעלות.”

 

כלומר, ההתאוששות קיימת, אבל היא עוקפת את מפתחי התוכנה.

 

עליית מספר דורשי העבודה בהייטק בין 2022 ל-2025

עליית מספר דורשי העבודה בהייטק בין 2022 ל-2025

שינוי מבני, לא משבר זמני

התמונה של תחילת 2026 ברורה - העלייה באבטלה בקרב מפתחי תוכנה אינה תוצאה של מחזוריות כלכלית, אלא של שינוי טכנולוגי עמוק. כלי AI השתלטו על חלק מהעבודה שבעבר בוצעה בידי מפתחים, והם ממשיכים להשתפר בקצב מהיר. המשמעות היא שהשוק לא “יחזור לעצמו” באופן טבעי. הוא משתנה, ומי שלא יתאים את עצמו למציאות החדשה עלול להישאר מאחור.

 

להרחבה על מצב החדשנות בישראל והכוחות שמעצבים את התעשייה - כנסו כאן.

הפוסט איך AI משנה את ההייטק הישראלי מבפנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/tech-unemployment/feed/ 1
המעבר מבינה יוצרת לליווי פדגוגי אמיתי https://letsai.co.il/ai-pedagogical-support/ https://letsai.co.il/ai-pedagogical-support/#respond Tue, 17 Feb 2026 06:08:56 +0000 https://letsai.co.il/?p=70066 אם נביט רגע קדימה, אפשר לדמיין כיתה שבה ליד כל ילד יושב עוזר אישי פרטי. לא כתחליף למורה, אלא כהרחבה של היכולת הפדגוגית שלו להיות נוכח באמת. התמונה הזו כבר אינה עתיד רחוק. מורים ותלמידים כבר פוגשים היום בינה מלאכותית בכיתה: צ’אטים שמסבירים, בוטים שמלווים, כלים שמייצרים משימות ובודקים תשובות. גם בכנסי חדשנות חינוכית אפשר […]

הפוסט המעבר מבינה יוצרת לליווי פדגוגי אמיתי הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם נביט רגע קדימה, אפשר לדמיין כיתה שבה ליד כל ילד יושב עוזר אישי פרטי. לא כתחליף למורה, אלא כהרחבה של היכולת הפדגוגית שלו להיות נוכח באמת. התמונה הזו כבר אינה עתיד רחוק. מורים ותלמידים כבר פוגשים היום בינה מלאכותית בכיתה: צ’אטים שמסבירים, בוטים שמלווים, כלים שמייצרים משימות ובודקים תשובות. גם בכנסי חדשנות חינוכית אפשר לראות הדגמות מרשימות של “עוזרים פדגוגיים”.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אז מה בעצם חדש?

כדי להבין את השינוי שמתרחש עכשיו, חשוב לדייק: לא מדובר בקפיצה טכנולוגית, אלא בשינוי שלב פדגוגי. אפשר להסתכל על התפתחות הבינה המלאכותית בחינוך דרך שלושה שלבים ברורים.

 

שלב ראשון: בינה שיוצרת תכנים - סיכומים, שאלות והסברים. שלב חשוב, ששינה את הדרך שבה עובדים עם מידע, אך כזה שמתמקד בתוצר ולא בתהליך הלמידה.

 

שלב שני: בינה שמלווה תלמידים בזמן משימה - בוטים וצ’אטים שמסבירים, מכוונים ועוזרים “להיתקע פחות”. רוב המערכות כיום נמצאות כאן, או שואפות להגיע לשלב הזה. זהו שלב משמעותי, אך הליווי בו לרוב נקודתי וקצר טווח.

 

שלב שלישי: בינה שמאבחנת למידה ומייעצת פדגוגית לאורך זמן. זהו השלב הבא, שכבר מתבקש: לא תגובה לשאלה בודדת, אלא הבנה מצטברת של הלומד ושל הכיתה - גישה שמערכות כמו Textly נבנו ליישם בפועל.

 

כיתה שלמה עובדת עצמאית

כיתה שלמה עובדת עצמאית

 

בכיתה שבה מתממש השלב הזה, לכל תלמיד יש משימה לימודית שמותאמת לרמתו ולדרך שבה הוא לומד, ולצידה ליווי אישי שמתרחש בתוך המשימה עצמה – שואל, מכוון, מאתגר כשצריך ומסייע כשקשה. לא פתרון מהיר, אלא נוכחות פדגוגית מתמשכת, בדומה למורה פרטי שיושב ליד התלמיד לאורך הדרך. עבור המורה, המשמעות היא שינוי עומק באופן שבו השיעור מתנהל.

 

במקום לתכנן מראש ריבוי משימות ורמות, המורה מגדיר משימה כללית אחת – סביב נושא, טקסט או מטרה לימודית – והמערכת דואגת שכל תלמיד יקבל גרסה מותאמת של אותה משימה, בהתאם לרמתו, לקצב שלו ולאופן שבו הוא ניגש ללמידה בפועל.

 

במהלך השיעור עצמו, לכל תלמיד יש מרחב לגיטימי לשאול, להתייעץ ולהיתקע. דרך עוזר אישי בצ’אט הוא מקבל מענה לשאלות הפדגוגיות השכיחות: איך ניגשים לשאלה, מה מחפשים בטקסט, למה השאלה מתכוונת ואיך מפרקים בעיה מורכבת לשלבים.

 

וכאן מתרחש השינוי השקט אך המהותי: ככל שיותר אינטראקציות פדגוגיות מתרחשות בתוך המערכת, כך מתפנה המורה לעסוק בדברים שלא ניתן לאוטומציה – זיהוי קשיים עמוקים, ליווי רגשי והתערבות פדגוגית משמעותית במקום שבו היא באמת נדרשת. המערכת אינה מחליפה את המורה – היא מאפשרת לו לממש את תפקידו באופן מדויק, עמוק ונוכח יותר, גם בכיתה גדולה.

בינה מלאכותית כבר כאן - אבל הלמידה מורכבת יותר

הבינה המלאכותית הבטיחה לרגע לאפשר נוכחות אישית לכל תלמיד, אך ככל שנכנסה לשימוש יומיומי, התברר שלמידה דורשת הרבה יותר מפתרונות מהירים. מערכות מבוססות מודלי שפה הפכו במהירות לכלי עבודה נפוץ: הן מייצרות טקסטים, מסכמות מידע, מנסחות שאלות ומספקות הסברים מהירים. תלמידים נעזרים בהן כדי להבין חומר, מורים משתמשים בהן לתכנון, והורים פונים אליהן לקבלת הכוונה. אלו יכולות חשובות, והן כבר חלק בלתי נפרד מהשגרה החינוכית.

 

אבל רובן עדיין מכוונות להאיץ את המשתמש אל התשובה, ולא להחזיק את התהליך שבו מתרחשת למידה. למידה, לעומת זאת, אינה תמיד מהירה. ולעיתים, ההתקדמות האמיתית מתרחשת דווקא כאשר לא הכול ברור מיד.

מייצור תוצרים - לניהול של תהליך

למידה אינה מסתכמת בהגעה לתשובה נכונה. היא תהליך שכולל התלבטות, ניסוי וטעייה, חזרה לאחור ולעיתים גם שהייה באזור של אי-ודאות. זהו המרחב שבו מתרחשת צמיחה אמיתית – בין אתגר לתסכול, בין קלות יתר לאיבוד עניין. מרחב כזה דורש ליווי, רגישות והיכרות עם הלומד, לא רק יכולת לייצר תוכן. כאן נמצא החידוש הפדגוגי של הדור הבא של הבינה המלאכותית בחינוך: לא עוד מערכות שמייצרות תוצרים או סיכומים, אלא מערכות שמנהלות תהליך למידה חי ומתמשך.

כשהצ’אט הוא רק הקצה הגלוי

בשיח על AI בחינוך, “צ’אט פדגוגי” הפך כמעט לסטנדרט. אך בשלב השלישי של האבולוציה, כמו ביישום הצאט של Textly ,הצ’אט אינו הלמידה עצמה - אלא הממשק.

 

צ׳אט ואבחון דינמי של מצב לומד

צ׳אט ואבחון דינמי של מצב הלומד

 

מאחוריו פועלת מערכת שמלווה את התלמיד לאורך זמן: משאלה בודדת, דרך משימה שלמה ועד רצף מתמשך של למידה. כל אינטראקציה – הצלחה, בלבול או היתקעות – מזינה תהליך אבחון דינמי שמאפשר התאמה מדויקת של רמת האתגר, סוג המשימה ואופי הליווי. אותו עיקרון פועל גם בצד המורה.

וגם למורה: עוזר אישי אמיתי

גם עבודת המורה עוברת אבולוציה. אחרי שלב יצירת המשימות ושלב הדשבורדים והדוחות, מגיע שלב חדש: בינה שמכירה את הכיתה לעומק ויודעת לייעץ.

 

עזרה פרסונלית לתלמיד וסיוע למורה

עזרה פרסונלית לתלמיד וסיוע למורה

 

בשלב הזה, Texly מציעה צ’אט למורה שגם הוא שוב רק קצה הקרחון. מאחוריו עומדת מערכת שמכירה תלמידים, קבוצות וכיתה שלמה לאורך זמן, ומאפשרת למורה להתייעץ איתה באופן טבעי: להבין מה קורה עכשיו, לזהות מוקדי קושי או חוזק, ולהפיק המלצות פדגוגיות מדויקות לצעדים הבאים. זהו מעבר מבינה שמסייעת להכין הוראה, לבינה שמלווה קבלת החלטות פדגוגיות בזמן אמת.

 

צ׳אט למורה

צ׳אט למורה

כיצד ניתן לאפשר הוראה פרטנית לכל ילד בכיתה - גם בכיתה גדולה?

בעקבות החלטת עיריית באר יעקב להמשיך את השימוש במערכת בבתי הספר בעיר, נפתחת האפשרות להצטרף לסבב פיילוטים נוסף.

🔹 מנהלי אגפי חינוך ורשויות מקומיות המעוניינים ביישום הוראה מותאמת בקנה מידה עירוני.

🔹 מנהלי בתי ספר ומובילי חדשנות המבקשים להעניק מענה אישי לכל תלמיד.

🔹 מורים וצוותי חינוך המעוניינים בליווי פדגוגי מתמשך ובהתאמת משימות בזמן אמת.

🔹 הורים המבקשים לאפשר המשך עבודה פרטנית ומודרכת גם בבית.

 

ראש עיריית באר יעקוב נוכח בשיעור בכיתה

ראש עיריית באר יעקוב נוכח בשיעור בכיתה

 

בעידן שבו בינה מלאכותית כבר נוכחת בכיתה, השאלה כבר אינה אם להשתמש בה – אלא איזה תפקיד אנחנו נותנים לה. האם היא מסתפקת בייצור תשובות, או שהיא הופכת לתשתית שמאפשרת למידה והוראה כפי שתמיד ידענו שהן צריכות להיות. המעבר מבינה יוצרת לליווי פדגוגי אמיתי כבר בעיצומו.

הפוסט המעבר מבינה יוצרת לליווי פדגוגי אמיתי הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-pedagogical-support/feed/ 0
ג’מיני 3 Deep Think זו בינה מלאכותית שמתחילה לחשוב כמו חוקר https://letsai.co.il/gemini-3-deep-think/ https://letsai.co.il/gemini-3-deep-think/#comments Mon, 16 Feb 2026 10:32:31 +0000 https://letsai.co.il/?p=70042 גוגל מציגה שדרוג משמעותי ל‑Gemini 3 Deep Think, מצב החשיבה המתקדם שלה, שמיועד להרחיב את יכולות הבינה המלאכותית מעבר לשיחה ולסיכום טקסטים. הגרסה החדשה מתמקדת בהתמודדות עם בעיות מורכבות במדע, הנדסה ומתמטיקה, ובעיקר עם מצבים שבהם אין פתרון יחיד ולעיתים אפילו אין הגדרה ברורה לבעיה. המטרה היא להפוך את Deep Think לכלי עבודה אמיתי עבור […]

הפוסט ג’מיני 3 Deep Think זו בינה מלאכותית שמתחילה לחשוב כמו חוקר הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל מציגה שדרוג משמעותי ל‑Gemini 3 Deep Think, מצב החשיבה המתקדם שלה, שמיועד להרחיב את יכולות הבינה המלאכותית מעבר לשיחה ולסיכום טקסטים. הגרסה החדשה מתמקדת בהתמודדות עם בעיות מורכבות במדע, הנדסה ומתמטיקה, ובעיקר עם מצבים שבהם אין פתרון יחיד ולעיתים אפילו אין הגדרה ברורה לבעיה. המטרה היא להפוך את Deep Think לכלי עבודה אמיתי עבור חוקרים ומהנדסים, ולא רק לעוזר טקסטואלי שמגיב לשאלות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מדע אמיתי הוא מבולגן ו‑Deep Think נבנה בדיוק לזה 

בעולם המחקר, המציאות רחוקה מלהיות מסודרת. נתונים מגיעים באופן חלקי, הנחות אינן תמיד מוגדרות היטב ולעיתים אין תשובה אחת נכונה. מדענים ומהנדסים פועלים בתוך מרחב של אי ודאות, ניסוי וטעייה, והסקת מסקנות מתוך מידע לא מושלם. מודלי שפה רגילים מתקשים להתמודד עם מצבים כאלה, משום שהם מותאמים בעיקר למשימות סגורות וברורות.

 

כאן נכנס Deep Think. גוגל פיתחה את הגרסה החדשה בשיתוף פעולה הדוק עם חוקרים מתחומי המתמטיקה, הפיזיקה, הכימיה וההנדסה, במטרה ליצור מודל שמסוגל להתמודד עם בעיות שאין להן מסלול פתרון מוגדר. במקום להסתפק בשליפה מהירה של ידע, המודל מנתח בעיות מורכבות, מפרק אותן לשלבים לוגיים, מציע כיווני חקירה ומייצר פתרונות הניתנים לבדיקה.

 

הדוגמאות מהשטח ממחישות את זה מצוין - מתמטיקאית שהשתמשה בו כדי לחשוף כשל לוגי במאמר מדעי שעבר ביקורת עמיתים אנושית, ומעבדה באוניברסיטת דיוק נעזרה בו כדי לייצר מתכון לגידול גבישים, תהליך שבדרך כלל דורש זמן וניסויים רבים.

יכולת חדשה שמחברת בין רעיון למוצר

אחד החידושים הבולטים בשדרוג הנוכחי הוא היכולת להתחיל מסקיצה ידנית פשוטה ולהפוך אותה לקובץ תלת ממד מוכן להדפסה. המשתמש מצייר צורה בסיסית, והמודל מנתח אותה, משלים את הגאומטריה המורכבת וממיר אותה למודל הנדסי מלא.

 

זה יישום שמדגים היטב את יכולתו של Deep Think לגשר בין חשיבה תיאורטית לבין תוצר הנדסי ממשי, ומקרב אותו לתפקיד של עוזר תכנון ולא רק של מחולל טקסט.

 

איך זה עובד 

Deep Think אינו עוד מודל שפה. הוא משלב ידע מדעי רחב בתחומי הפיזיקה, הכימיה והמתמטיקה עם יכולת לבצע ניתוחים אלגוריתמיים מורכבים. הוא מבין טקסט, תמונות ושרטוטים, מסוגל לכתוב ולהריץ קוד, ואז לפרק בעיות לשלבים לוגיים.

 

במילים אחרות, הוא מתפקד יותר כמו עוזר מחקר מאשר כמו כלי טקסטואלי. היכולת להבין שרטוטים, להריץ סימולציות ולבנות מודלים פיזיקליים הופכת אותו לכלי שמסוגל לגשר בין תיאוריה ליישום, יכולת שחסרה ברוב המודלים עד היום.

ביצועים חסרי תקדים 

היכולות של Deep Think מגובות בנתונים מרשימים במיוחד. המודל מציג קפיצה משמעותית במבחני חשיבה אקדמיים ומוביל כמעט בכל קטגוריה. במבחני ARC‑AGI‑2, שנועדו לבדוק חשיבה מופשטת, הוא מגיע ל‑84.6 אחוז, תוצאה חסרת תקדים שאומתה על ידי ARC Prize Foundation. לשם השוואה, Claude Opus 4.6 מגיע ל‑68.8 אחוז, GPT‑5.2 ל‑52.9 אחוז ו‑Gemini 3 Pro Preview ל‑31.1 אחוז.

 

המודל מציג קפיצה משמעותית במבחני חשיבה אקדמיים ומוביל כמעט בכל קטגוריה

Credit: blog.google

 

ב‑Humanity’s Last Exam, מבחן שמעריך את יכולתם של מודלים להתמודד עם שאלות אקדמיות מורכבות, Deep Think מוביל עם 48.4 אחוז ללא כלים ו‑53.4 אחוז כאשר מופעלים חיפוש והרצת קוד. גם במדעי הטבע הוא מציג ביצועים ברמת מדליית זהב בגרסאות הכתובות של אולימפיאדות 2025: 81.5 אחוז במתמטיקה, 87.7 אחוז בפיזיקה, 82.8 אחוז בכימיה ו‑50.5 אחוז בתורת חומר מעובה, תחום שנחשב מאתגר במיוחד גם עבור חוקרים מנוסים.

 

Deep Think מוביל כמעט בכל מבחן, ולעיתים בפער משמעותי.

Credit: blog.google

 

בתחום הקוד והאלגוריתמים, המודל מגיע לדירוג Elo של 3455 ב‑Codeforces, רמה שממקמת אותו בליגה של מתכנתים תחרותיים מהשורה הראשונה. הפערים בין המודלים ברורים - Deep Think מוביל כמעט בכל מבחן, ולעיתים בפער משמעותי.

מעבר מהפשטה ליישום

החידוש המרכזי ב‑Deep Think אינו מסתכם בציונים הגבוהים, אלא ביכולת לגשר בין תיאוריה ליישום מעשי. בעוד שמודלים קודמים הצטיינו בפתרון בעיות מוגדרות היטב, Deep Think מתוכנן להתמודד גם עם נתונים חלקיים, בעיות פתוחות וניסוח השערות. הוא מסוגל לבנות מודלים פיזיקליים, ליצור קוד סימולציה, לנתח שרטוטים הנדסיים ולתכנן תהליכים ניסיוניים. במובן זה, הוא אינו רק המודל החזק ביותר, אלא כזה שמנסה להיות הכלי השימושי ביותר עבור מי שעוסק במדע אמיתי.

מי יכול להשתמש בו כבר עכשיו

העדכון מתחיל להתגלגל כבר היום למנויי Google AI Ultra, שיכולים למצוא את מצב החשיבה החדש בתפריט הכלים של אפליקציית Gemini. במקביל, חוקרים ומהנדסים יכולים להירשם לגישה מוקדמת דרך ה‑API, במסגרת תוכנית שמטרתה להביא את Deep Think לסביבות שבהן הוא נדרש באמת, כלומר כחלק מתהליכי עבודה מדעיים.

תחילתו של עידן חדש במחקר מבוסס AI

למרות ההישגים המרשימים, גוגל אינה מציגה את Deep Think כתחליף למדענים. חלק מהדוגמאות שהוצגו הן ניסיוניות, ולא ברור עד כמה הן מייצגות שימוש יומיומי. יש תחומים שבהם המודל עדיין חלש יותר, כמו (CMT) תורת חומר מעובה, ענף בפיזיקה שחוקר את התנהגותם של חומרים מורכבים כמו מוליכי על ומבנים גבישיים, וכמו כל מערכת בינה מלאכותית הוא עלול לטעות. ובכל זאת, הכיוון הכללי ברור: AI הופך לכלי עבודה מדעי, לא רק לכלי מידע.

 

אם המגמה תימשך, ייתכן שנראה האצה משמעותית של ניסויים מדעיים, קיצור זמן פיתוח בהנדסה, יכולת לנתח מאמרים ולזהות כשלים לוגיים, ויצירה של מודלים פיזיקליים מורכבים בלחיצת כפתור. Deep Think מסמן את תחילתו של עידן שבו מודלים אינם רק עוזרי טקסט, אלא שותפים פעילים בתהליך החקירה המדעית.

הפוסט ג’מיני 3 Deep Think זו בינה מלאכותית שמתחילה לחשוב כמו חוקר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-3-deep-think/feed/ 1
Claude מנגיש כלים מתקדמים למנויים חינמיים https://letsai.co.il/claude-free-tier/ https://letsai.co.il/claude-free-tier/#respond Mon, 16 Feb 2026 06:34:15 +0000 https://letsai.co.il/?p=69916 Anthropic פתחה בפני כלל המשתמשים את יכולות הפרימיום של Claude, ובהן יצירת קבצים, אינטגרציות עמוקות עם אפליקציות עבודה ו-Skills מותאמים אישית. לצד שדרוגים במצב הקול, בחיפוש תמונות וביכולת לנהל שיחות ארוכות, החברה מציבה רף חדש לחוויית AI חינמית שמרגישה שלמה ומקצועית. עם זאת, חלק מהיכולות המתקדמות יותר, כמו מודל Opus, מגבלות שימוש גבוהות, Reasoning מורחב, […]

הפוסט Claude מנגיש כלים מתקדמים למנויים חינמיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
Anthropic פתחה בפני כלל המשתמשים את יכולות הפרימיום של Claude, ובהן יצירת קבצים, אינטגרציות עמוקות עם אפליקציות עבודה ו-Skills מותאמים אישית. לצד שדרוגים במצב הקול, בחיפוש תמונות וביכולת לנהל שיחות ארוכות, החברה מציבה רף חדש לחוויית AI חינמית שמרגישה שלמה ומקצועית. עם זאת, חלק מהיכולות המתקדמות יותר, כמו מודל Opus, מגבלות שימוש גבוהות, Reasoning מורחב, זיכרון מתמשך, מחקר אינטרנט ואינטגרציות Office, עדיין זמינות רק למנויים בתשלום.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

חינמי שלא מאפשר עבודה אמיתית

עד לא מזמן, משתמשים שבחרו בגרסה החינמית של מודלי שיחה נתקלו במגבלות ברורות. הם לא יכלו ליצור מסמכים מורכבים, לא נהנו מאינטגרציות עם כלים חיצוניים, ולא יכלו להגדיר תהליכי עבודה קבועים. הפער בין משתמשים מזדמנים למקצוענים לא היה רק עניין טכני, אלא קבע בפועל מי יכול להסתמך על AI ככלי עבודה מלא ומי נאלץ להסתפק בפתרון בסיסי שמרגיש ניסיוני.

 

במקביל, חלק מהחברות בשוק החלו לבחון מודלים חינמיים המבוססים על פרסומות, כאשר OpenAI היא הדוגמה הבולטת. Anthropic זיהתה את המגמה הזו ובחרה להציע כיוון אחר: חוויית שימוש מקצועית, מלאה וללא פרסומות.

כלים מקצועיים לכולם

העדכון החדש של Claude משנה את כללי המשחק עבור משתמשים חינמיים, ומביא אליהם שלוש יכולות מרכזיות שהיו עד לאחרונה זמינות רק למנויים בתשלום:

יצירת קבצים מתקדמת

Claude מסוגל כעת ליצור ולערוך קבצים מסוג Excel, PowerPoint, Word ו-PDF ישירות מתוך השיחה, באמצעות מודל Sonnet 4.5. המשמעות היא שהצ'אט הופך לכלי עבודה מלא, שמסוגל להפיק תוצרים שלמים ולא רק טקסט גולמי.

Connectors: אינטגרציה עמוקה עם אפליקציות עבודה

משתמשים חינמיים מקבלים גישה ל-Connectors, המאפשרים ל-Claude לבצע פעולות בתוך שירותים כמו Google Workspace, Slack, Notion, Canva, Figma, דוא״ל ויומן. כך ניתן לתזמן פגישות, ליצור מסמכים בענן, לשלוח מיילים או להפיק עיצובים - הכול מתוך ממשק אחד רציף.

Skills: הוראות מותאמות אישית שמופעלות אוטומטית

המשתמש יכול להגדיר מיומנויות קבועות, כמו כללי ניסוח לדוחות, עיצוב מצגות או עמידה בקווים מנחים של מותג. Claude מפעיל את ההנחיות הללו באופן אוטומטי, ללא צורך להזכיר אותן בכל שיחה מחדש, מה שמאפשר עבודה עקבית ומהירה יותר.

שדרוג חוויית השיחה 

מעבר לכלים החדשים, Anthropic שיפרה גם את חוויית השיחה עצמה. המערכת תומכת כעת בהקשרים ארוכים יותר באמצעות מנגנון דחיסה אוטומטי, שמאפשר להמשיך שיחה רציפה בלי צורך להתחיל אותה מחדש. בנוסף, נוספו תצוגות אינטראקטיביות עשירות, מצב קול משופר לשימוש בדרכים וחיפוש תמונות מדויק ומהיר יותר.

 

עם זאת, החברה שומרת על בידול ברור בין הגרסה החינמית למנויים בתשלום. מודל Opus, מגבלות שימוש גבוהות יותר, Reasoning מתקדם, זיכרון מתמשך, מחקר אינטרנט, אינטגרציות Office ויכולות אייג׳נטיות ממשיכים להיות חלק מהשכבות המתקדמות בתשלום.

סטנדרט חדש לחינמי בעולם ה‑AI 

המהלך של Anthropic מציב רף חדש למה שמשתמשים יכולים לצפות לקבל מגרסה חינמית של מודל שיחה (בטח ממודל כמו קלוד). הוא מרחיב את הגישה לכלי עבודה מתקדמים שהיו עד לאחרונה פריבילגיה של מנויים, ומציע חוויית שימוש מלאה.

 

למרות שחלק מהיכולות המתקדמות נותרות בתשלום, הכיוון הכללי ברור - יותר כוח בידי המשתמשים, פחות מגבלות מלאכותיות, ומודל חינמי שמרגיש יותר כמו מוצר שלם ולא גרסה מצומצמת.

 

עבור רבים, בעיקר משתמשים שרוצים לעבוד עם קלוד ולמצות את היכולות שלו גם ללא מנוי, זהו שינוי שמגדיר מחדש את האיזון בין נגישות ליכולות, ומאותת על תחרות בריאה יותר בשוק ה‑AI.

הפוסט Claude מנגיש כלים מתקדמים למנויים חינמיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-free-tier/feed/ 0
איך Claude מצא את עצמו בלב מבצע צבאי אמריקאי https://letsai.co.il/claude-in-venezuela-operation/ https://letsai.co.il/claude-in-venezuela-operation/#respond Sun, 15 Feb 2026 11:11:58 +0000 https://letsai.co.il/?p=69896 בחודש שעבר, בזמן שכוחות מיוחדים של צבא ארצות הברית פשטו על כמה אתרים בקראקס במטרה ללכוד את נשיא ונצואלה לשעבר ניקולס מדורו, התרחש מאחורי הקלעים רגע חריג. בתוך מערכות המודיעין שפעלו בזמן אמת הופעל גם Claude, מודל ה‑AI של Anthropic, שנבנה מראש תחת מסגרת אתית מחמירה האוסרת על שימושים אלימים, צבאיים או מבצעי מעקב. הגישה […]

הפוסט איך Claude מצא את עצמו בלב מבצע צבאי אמריקאי הופיע ראשון בLet's AI בינה מלאכותית

]]>
בחודש שעבר, בזמן שכוחות מיוחדים של צבא ארצות הברית פשטו על כמה אתרים בקראקס במטרה ללכוד את נשיא ונצואלה לשעבר ניקולס מדורו, התרחש מאחורי הקלעים רגע חריג. בתוך מערכות המודיעין שפעלו בזמן אמת הופעל גם Claude, מודל ה‑AI של Anthropic, שנבנה מראש תחת מסגרת אתית מחמירה האוסרת על שימושים אלימים, צבאיים או מבצעי מעקב. הגישה למודל לא נעשתה דרך Anthropic עצמה, אלא באמצעות Palantir, קבלנית הביטחון שמערכותיה משולבות עמוק בפנטגון ובקהילת המודיעין האמריקאית. כך מצא עצמו כלי אזרחי, שתוכנן לשימושים מבוקרים ובטוחים, פועל בתוך מבצע צבאי חי.

 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

בין עקרונות אתיים למרוץ חימוש טכנולוגי

Anthropic מציגה את עצמה כאחת החברות המחויבות ביותר לפיתוח AI בטוח. מסגרת "Constitutional AI" שלה מגדירה קווים אדומים ברורים: אין תמיכה בפיתוח נשק, אין סיוע באלימות, ואין שימושים מבצעיים שעלולים לגרום לפגיעה בבני אדם. במקביל, החברה כבר החלה לפתח גרסאות ייעודיות לממשלה האמריקאית, כמו סדרת Claude Gov, שנבנתה על בסיס משוב מסוכנויות ביטחון ונועדה לפעול בסביבות מסווגות בלבד. המהלך הזה משקף את הניסיון של Anthropic לאזן בין עקרונות בטיחות מחמירים לבין דרישות ממשלתיות גוברות.

 

אלא שבאותו זמן הפנטגון נמצא בעיצומו של מרוץ טכנולוגי מול סין ורוסיה, ומקדם באופן אינטנסיבי שילוב של AI בכל שכבות הפעולה הצבאית, החל מניתוח מודיעין ועד קבלת החלטות בזמן אמת. בנקודה הזו נכנסת לתמונה Palantir. החברה, שמלווה את מערכת הביטחון האמריקאית כבר יותר מעשור, מספקת שכבת תיווך שמאפשרת להפעיל מודלים אזרחיים על רשתות מסווגות. המשמעות היא שגם אם יצרנית המודל אינה מעוניינת בשימוש צבאי, הצבא עדיין יכול להפעיל אותו דרך תשתיות צד שלישי.

מבצע צבאי, תקיפות אוויריות ו-AI

לפי הדיווחים, המבצע בקראקס כלל תקיפות אוויריות על כמה אתרים שבהם שהו מדורו ואשתו. היו נפגעים בקרב כוחות ונצואלים וקובנים, אך לא דווח על נפגעים אמריקאים. לאחר המעצר הועבר מדורו לניו יורק, שם הוא עומד בפני אישומי סחר בסמים.

 

במהלך המבצע עצמו, ולא רק בשלב ההכנות, הופעל Claude דרך מערכות Palantir. המקורות אינם מפרטים מה היה תפקידו המדויק, אך מציינים שהצבא כבר בחן בעבר שימוש במודלי שפה לניתוח תמונות לוויין, סיכום מודיעין, תרגום בזמן אמת או זיהוי דפוסים במידע מבצעי.

 

חשוב להדגיש שאין מידע רשמי על תרומתו המדויקת של Claude למבצע, ואין אינדיקציה לכך שהמודל קיבל החלטות מבצעיות או הנחה ירי. כל שניתן לומר בוודאות הוא שהוא הופעל כחלק ממערך תמיכה מודיעיני שסייע לכוחות שפעלו בשטח.

 

ניקולס מדורו מגיע למנחת מסוקים במנהטן לאחר שנלכד.

ניקולס מדורו במנהטן לאחר שנלכד | Credit: XNY/Star Max/GC Images

העימות השקט

כאן מתחיל החלק הרגיש ביותר בסיפור. לפי אחד המקורות, Anthropic פנתה לפנטגון בבקשה להבין כיצד נעשה שימוש במודל שלה במהלך המבצע, צעד טבעי עבור חברה שמנסה לאכוף מדיניות אתית. על פי אותו דיווח, הפנטגון הגיב באיום לבטל חוזה בהיקף של 200 מיליון דולר. Anthropic מצידה מכחישה שהייתה פנייה כזו או שהתקיים עימות כלשהו.

 

הפער בין הגרסאות הוא אחד המקומות שבהם המידע אינו חד משמעי, והוא מדגיש עד כמה מורכב הממשק בין חברות AI אזרחיות לבין מערכת הביטחון האמריקאית. מה שכן ברור הוא שהפנטגון מעוניין במודלים פחות מוגבלים, בעוד Anthropic מנסה לשמור על עקרונותיה. האירוע בקראקס ממחיש עד כמה קשה ליצרניות AI לשלוט בשימוש בטכנולוגיה שלהן ברגע שהיא נכנסת למערכות ביטחוניות.

Palantir כצינור שמחבר בין שני עולמות

Palantir משמשת כאן כמתווכת שמאפשרת לשלב מודלים אזרחיים בתוך מערכות צבאיות מסווגות. היא מפעילה את המודלים על תשתיות מאובטחות, עוטפת אותם במנגנוני הרשאות וניטור, ומאפשרת לצבא להשתמש בהם גם בלי לפנות ישירות לחברות שמפתחות אותם.

 

בפועל, זה יוצר מצב שבו מודל כמו Claude יכול לפעול בהקשרים שהיצרן שלו לא התכוון אליהם, ולעיתים אף מבלי שהיצרן ידע על כך בזמן אמת.

הגבולות בין אזרחי לצבאי נשחקים במהירות

האירוע בקראקס הוא לא רק סיפור על מבצע אחד, אלא סימפטום של מגמה רחבה הרבה יותר. מודלי שפה הופכים לכלי עבודה מרכזיים במודיעין, חברות AI מנסות להציב גבולות אך מתקשות לאכוף אותם, וקבלניות ביטחון כמו Palantir הופכות לשחקניות מפתח בשילוב AI בתוך תהליכים מבצעיים.

 

המרוץ הגלובלי ל‑AI צבאי דוחף את המערכת קדימה מהר יותר מהרגולציה, והפער בין AI אתי לבין AI מבצעי הולך ונסגר. לא משום שהחברות מעוניינות בכך, אלא משום שהמציאות הגיאופוליטית דוחפת לשימוש בכלים המתקדמים ביותר, גם אם הם נבנו במקור לשימוש אזרחי בלבד.

תקדים שמערער את כללי המשחק

הסיפור של Claude במבצע בקראקס מעלה שאלות כבדות משקל. האם חברות AI יכולות באמת לשלוט בשימוש שנעשה בטכנולוגיה שלהן? האם מודלים אזרחיים ימשיכו לזרום למערכות צבאיות דרך צדדים שלישיים? והאם עקרונות כמו "Constitutional AI" יכולים לשרוד בעולם שבו צבאות דורשים גישה לכלים המתקדמים ביותר?

 

אין תשובות חד משמעיות, אך ברור שהאירוע הזה מסמן שינוי עמוק. הגבולות בין AI אזרחי לצבאי נשחקים במהירות, והעידן שבו מודלי שפה פועלים כחלק ממערכות מבצעיות כבר אינו תרחיש עתידי. זו מציאות שמתרחשת עכשיו.

הפוסט איך Claude מצא את עצמו בלב מבצע צבאי אמריקאי הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-in-venezuela-operation/feed/ 0
היום שבו הבינה המלאכותית הפסיקה להיות כלי והפכה לכוח עצמאי https://letsai.co.il/ai-independent-power/ https://letsai.co.il/ai-independent-power/#respond Sun, 15 Feb 2026 06:19:11 +0000 https://letsai.co.il/?p=69836 יש רגעים שבהם העולם משתנה בלי שאנשים מבחינים בכך בזמן אמת. מאט שומר (Matt Shumer), יזם ומשקיע בתחום הבינה המלאכותית, טוען שאנחנו נמצאים בדיוק בנקודה כזו. כדי להסביר את זה, הוא חוזר לפברואר 2020, התקופה שבה רוב האנשים עוד ישבו במסעדות, תכננו חופשות והאמינו שהכול כרגיל, בזמן שהווירוס שהפך למגפה עולמית כבר התפשט מתחת לפני […]

הפוסט היום שבו הבינה המלאכותית הפסיקה להיות כלי והפכה לכוח עצמאי הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם העולם משתנה בלי שאנשים מבחינים בכך בזמן אמת. מאט שומר (Matt Shumer), יזם ומשקיע בתחום הבינה המלאכותית, טוען שאנחנו נמצאים בדיוק בנקודה כזו. כדי להסביר את זה, הוא חוזר לפברואר 2020, התקופה שבה רוב האנשים עוד ישבו במסעדות, תכננו חופשות והאמינו שהכול כרגיל, בזמן שהווירוס שהפך למגפה עולמית כבר התפשט מתחת לפני השטח. “אם הייתם שואלים מישהו אז אם הוא אוגר נייר טואלט,” הוא כותב, “הייתם חושבים שהוא חי בפינה מוזרה של האינטרנט.” שלושה שבועות לאחר מכן, המציאות השתנתה לחלוטין. שומר מאמין שאנחנו שוב ברגע כזה, רק שהפעם השינוי עמוק בהרבה. הוא כותב לא לקהל מקצועי אלא לאנשים הקרובים אליו, אלה ששואלים אותו מה קורה עם AI ומקבלים בדרך כלל תשובה מנומסת שמתאימה לשיחות סלון. אבל הפער בין מה שהוא אומר לבין מה שהוא רואה בפועל הפך גדול מדי. “האנשים שאני אוהב,” הוא כותב, “ראויים לשמוע את האמת, גם אם היא נשמעת מטורפת.”

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהעבודה שלנו נעלמת מבין הידיים

שומר, שכתב בבלוג שלו מאמר דעה בשם "Something big is happening", מסביר שהסיבה שאנשים בתעשיית ה‑AI נשמעים דרמטיים כל כך היא פשוטה - מה שהציבור חושש ממנו בעתיד כבר התרחש אצלם בהווה. הם לא מנבאים תרחישים, אלא מתארים את מה שקורה בעבודה שלהם יום יום.

 

במשך שנים, הוא כותב, המודלים השתפרו בקצב יציב. היו קפיצות משמעותיות מדי פעם, אך הן הגיעו במרווחים שאפשרו להסתגל. ואז, ב‑2025, הופיעו טכניקות חדשות שהאיצו את קצב ההתקדמות. כל דור חדש של מודלים היה טוב מהקודם בפער הולך וגדל, והזמן בין הגרסאות התקצר.

 

הרגע שבו “המים הגיעו לחזה”, כפי שהוא מתאר זאת, היה ב‑5 בפברואר 2026, היום שבו OpenAI ו‑Anthropic שחררו במקביל את GPT‑5.3 Codex ואת Opus 4.6. באותו יום הוא הבין שהעבודה שלו השתנתה באופן בלתי הפיך. “אני כבר לא נדרש לעבודה הטכנית עצמה,” הוא כותב. “אני מתאר מה אני רוצה, וזה פשוט מופיע.”

כשהמודל מפתח טעם

מה שהפתיע את שומר יותר מהביצוע הטכני המרשים היה משהו עמוק בהרבה: תחושה של שיקול דעת. “המודל החדש,” הוא כותב, “לא רק ביצע הוראות. הוא קיבל החלטות.” לדבריו, ההתנהגות הזו דמתה ל"טעם" במובן האנושי של המילה, אותה אינטואיציה שמכוונת בחירות עיצוביות או מוצריות שאינן רק תוצאה של חישוב טכני. במשך שנים נטען שמכונות לעולם לא יגיעו ליכולת כזו. כעת, הוא אומר, הן כבר שם או קרובות מספיק כדי שההבחנה תאבד משמעות.

ה‑AI בונה את ה‑AI

בנקודה זו מגיע אחד החלקים המשמעותיים ביותר במאמר של שומר. הוא מצטט ישירות מהמסמכים הטכניים של OpenAI, שבהם נכתב: “GPT‑5.3‑Codex הוא המודל הראשון שהיה כלי מרכזי בבנייה שלו עצמו… השתמשנו בגרסאות מוקדמות שלו כדי לדבג את האימון, לנהל את הפריסה ולנתח תוצאות.”

 

במילים אחרות, ה‑AI כבר משתתף בפיתוח הדור הבא של עצמו. דריו אמודאי, מנכ"ל Anthropic, מחזק את התמונה הזו כשהוא אומר שהמודלים בחברה כותבים “חלק גדול מהקוד”, וש“לולאת המשוב בין הדור הנוכחי לדור הבא צוברת תאוצה חודש אחר חודש”.

למה רוב האנשים לא רואים את זה

למרות כל ההתפתחויות, רוב הציבור עדיין לא מרגיש שמשהו משמעותי השתנה. שומר מסביר שהסיבה לכך פשוטה - הגרסאות החינמיות של המודלים מפגרות בשנה ומעלה אחרי הגרסאות המתקדמות. מי שמשתמש רק בגרסה החינמית של ChatGPT, הוא אומר, דומה למי שמנסה להבין את מצב הסמארטפונים דרך טלפון חוגה. “הפער בין תפיסת הציבור לבין המציאות,” הוא כותב, “הפך עצום, וזה מסוכן כי הוא מונע מאנשים להתכונן.”

 

הפער הזה בולט במיוחד במקצועות שמתחילים לאמץ את הכלים החדשים. שומר מספר על חבר שהוא עורך דין, שממשיך לטעון שה‑AI “לא שם”. במקביל, שותפים בכירים במשרדי עורכי דין גדולים כבר עובדים עם המודלים המתקדמים שעות ביום, ומדווחים על ביצועים שמזכירים “צוות של מתמחים”. אחד מהם אמר לו: “אם זה ימשיך בקצב הזה, זה יעשה את רוב מה שאני עושה.”

הקצב מהיר יותר ממה שהמוח האנושי רגיל אליו

כדי להמחיש עד כמה ההתקדמות מהירה, שומר מציג נתונים של METR, ארגון שמודד את משך המשימות שמודלים מסוגלים לבצע מקצה לקצה ללא עזרה אנושית. לפני שנה, המודלים הצליחו להשלים משימות שנמשכו כעשר דקות. בהמשך הם עברו למשימות של שעה, ואז לכמה שעות. בנובמבר 2025, Opus 4.5 כבר ביצע משימות שאורכות כמעט חמש שעות. לפי הנתונים, היכולת הזו מכפילה את עצמה בערך כל שבעה חודשים, ואולי אפילו כל ארבעה.

 

שומר מסכם זאת בפשטות ואומר שאם המגמה תימשך, בתוך שנה המודלים יוכלו לעבוד ברצף במשך ימים. בתוך שנתיים הם יטפלו בפרויקטים שנמשכים שבועות, ובתוך שלוש שנים יוכלו להתמודד עם משימות של חודש שלם.

מה זה אומר על העבודה שלנו

שומר לא מנסה לרכך את המציאות. הוא מצטט שוב את אמודאי, שמעריך כי הבינה המלאכותית תעלים כ‑50 אחוז ממשרות הצווארון הלבן ברמת ג׳וניור בתוך שנה עד חמש שנים, ואולי אף מוקדם יותר. לדבריו, זה שונה מכל גל אוטומציה קודם - הפעם אין מקצוע חלופי שאליו אפשר לעבור, משום שה‑AI משתפר כמעט בכל תחום במקביל.

 

שומר מציין תחומים שכבר מושפעים באופן ישיר, בהם משפט, פיננסים, תוכן, רפואה, שירות לקוחות והנדסת תוכנה. עם זאת, הוא מדגיש שהשפעה אינה בהכרח החלפה מלאה. רגולציה, אחריות משפטית ואמון אנושי עדיין מעכבים אימוץ רחב, לפחות בטווח הקצר.

 

ובכל זאת, הוא מסכם זאת בצורה חדה: “אם העבודה שלך מתבצעת מול מסך, ה‑AI מגיע אליה.”

קריאה לפעולה

למרות האופן שבו הדברים נשמעים, שומר אינו מטיף לייאוש. להפך. הוא טוען שהיתרון הגדול ביותר כרגע הוא פשוט להיות early adopter, להשתמש בכלים המתקדמים ולא להסתפק בגרסאות החינמיות, ולהפסיק להתייחס ל‑AI כמו למנוע חיפוש. במקום שאלות קצרות, הוא ממליץ להטיל עליו משימות אמיתיות: ניתוח חוזים, בניית מודלים פיננסיים, עיבוד נתונים או כתיבת מסמכים מורכבים.

 

שומר מציע להתחייב לשעה אחת ביום של ניסוי פעיל. “אם תעשו את זה שישה חודשים,” הוא כותב, “תבינו מה קורה טוב יותר מ‑99 אחוז מהאנשים סביבכם.”

העתיד כבר כאן, הוא פשוט עוד לא דפק על הדלת

שומר מסיים בנימה אישית. הוא מדגיש שהוא לא כותב כדי להפחיד אלא כדי להתריע בזמן. “העתיד כבר כאן,” הוא אומר, “הוא פשוט עוד לא הגיע אליכם.” מבחינתו, השינוי אינו תרחיש עתידי רחוק אלא תהליך שכבר החל. בדיוק כמו בפברואר 2020, כשהמציאות השתנתה לפני שרוב האנשים הבחינו בכך, גם הפעם הסימנים כבר סביבנו. השאלה היחידה היא מי יבחר לראות אותם בזמן ולהתאים את עצמו, ומי יישאר מאחור.

הפוסט היום שבו הבינה המלאכותית הפסיקה להיות כלי והפכה לכוח עצמאי הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-independent-power/feed/ 0
אנטרופיק מגייסת 20 מיליארד דולר בשווי 350 מיליארד דולר https://letsai.co.il/anthropic-20b-megafundraise/ https://letsai.co.il/anthropic-20b-megafundraise/#respond Sat, 14 Feb 2026 08:51:55 +0000 https://letsai.co.il/?p=69828 אנטרופיק מגייסת 20 מיליארד דולר לפי שווי של 350 מיליארד דולר, בסבב שהוכפל בעקבות ביקוש חריג מצד משקיעים אסטרטגיים ובהם Nvidia ומיקרוסופט. הגיוס מתרחש על רקע הצלחת סוכני הקוד והמודלים המשפטיים והעסקיים של החברה, שכבר מתחילים לערער תעשיות מבוססות. במקביל, התחרות מול OpenAI ו-xAI דוחפת את כלל השחקנים לגייס סכומים חסרי תקדים. מה הוביל לגיוס, […]

הפוסט אנטרופיק מגייסת 20 מיליארד דולר בשווי 350 מיליארד דולר הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק מגייסת 20 מיליארד דולר לפי שווי של 350 מיליארד דולר, בסבב שהוכפל בעקבות ביקוש חריג מצד משקיעים אסטרטגיים ובהם Nvidia ומיקרוסופט. הגיוס מתרחש על רקע הצלחת סוכני הקוד והמודלים המשפטיים והעסקיים של החברה, שכבר מתחילים לערער תעשיות מבוססות. במקביל, התחרות מול OpenAI ו-xAI דוחפת את כלל השחקנים לגייס סכומים חסרי תקדים. מה הוביל לגיוס, כיצד הוא משפיע על השוק ומהן ההשלכות הרחבות על תעשיית הבינה המלאכותית.

 

אנטרופיק בגיוס של 20 מיליארד דולר לפי שווי של 350 מיליארד דולר

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

גיוס הכספים וההשפעה על השוק

בשוק הבינה המלאכותית, שבו הקצב מהיר עד שקשה לעקוב אחריו, אנטרופיק מצליחה שוב לשנות את כללי המשחק. חמישה חודשים בלבד לאחר שסיימה שני סבבי גיוס של מעל 13 מיליארד דולר, החברה סוגרת כעת סבב נוסף בהיקף גדול בהרבה של 20 מיליארד דולר, לפי שווי של כשלוש מאות וחמישים מיליארד דולר.

 

מדובר בשווי שממקם אותה לצד חברות טכנולוגיה ותיקות בהרבה, אף שהיא עדיין שחקנית צעירה יחסית בתחום שמתפתח ומשתנה כמעט בכל רבעון.

 

מה שמבליט את הסבב הנוכחי אינו רק גודלו, אלא גם האופן שבו נבנה. לפי הדיווחים, הביקוש מצד המשקיעים היה כה גבוה עד שהחברה הכפילה את היקף הגיוס לעומת התכנון המקורי. במילים אחרות, אנטרופיק לא נאלצה לרדוף אחרי ההון. ההון הוא זה שחיפש אותה.

המשקיעים האסטרטגיים

הרשימה הרשמית של המשתתפים בסבב מרשימה בפני עצמה וכוללת את Altimeter, Sequoia, Lightspeed, Menlo Ventures, Coatue, Iconiq וקרן העושר של סינגפור. עם זאת, מאחורי הרשימה הרחבה מסתתרת תמונה ברורה יותר, שבה עיקר ההשקעה מגיעה משני שחקנים שמעצבים בפועל את עתיד הבינה המלאכותית, Nvidia ו-מיקרוסופט.

 

המעורבות של שתי החברות אינה מקרית. אנבידיה מספקת את תשתיות החישוב הקריטיות שעליהן נשענים המודלים הגדולים, בעוד מיקרוסופט משלבת את מודלי אנטרופיק במוצריה ובשירותי הענן שלה.

 

עבור שתיהן, ההשקעה באנטרופיק אינה רק מהלך פיננסי אלא חלק מאסטרטגיה ארוכת טווח שנועדה להבטיח גישה לטכנולוגיות מתקדמות ולשמור על יתרון תחרותי מול שחקנים אחרים בשוק.

הסיבות לגיוס בסכומים עצומים

למרות שאנטרופיק גייסה סכום משמעותי רק לפני כמה חודשים, היא חוזרת לשוק במהירות יוצאת דופן. הסיבה לכך נובעת משילוב של שני גורמים מרכזיים.

 

מצד אחד, עלויות החישוב של מודלים גדולים ממשיכות לעלות בקצב שמאתגר גם חברות מבוססות. מצד שני, התחרות בין מעבדות הבינה המלאכותית המובילות, ובהן Anthropic, OpenAI ו-xAI, הפכה למרוץ שבו מי שאינו מגייס הון במהירות עלול לאבד את היתרון.

 

ההקשר הרחב מדגיש עד כמה התחרות הזו אינטנסיבית. OpenAI עובדת על גיוס הון בהיקף של כ-100 מיליארד דולר, ו-xAI, לאחר שנרכשה על ידי SpaceX, מתכוננת אף היא למהלך ציבורי. שלושת השחקנים המרכזיים מתקרבים לקראת הנפקות אפשריות, לקראת קיץ שעשוי להיות מהפעילים ביותר בשוק ההון.

הטכנולוגיה שמשפיעה על העולם

ההתלהבות סביב אנטרופיק אינה תיאורטית. בחודשים האחרונים החברה הציגה יכולות חדשות שהשפיעו באופן ממשי על השוק, ובעיקר על קהלים מקצועיים שעובדים עם הכלים שלה ביום יום.

 

אחת ההשקות הבולטות היא של סוכני קוד מתקדמים ושל המודל הכי מתקדם של החברה עד הים (Opus 4.6), שמאפשרים למפתחים להאיץ משמעותית את קצב העבודה. לפי הדיווחים, מהנדסים רבים מדווחים על עלייה חדה בפרודוקטיביות, עד כדי שינוי ממשי של תהליכי פיתוח קיימים.

 

במקביל, אנטרופיק השיקה מודלים חדשים למחקר משפטי ועסקי. ההשקה הזו יצרה תגובה מיידית בשוק ההון, לאחר שמניות של חברות דאטה ציבוריות ירדו בעקבות החשש שהמודלים החדשים יפגעו במודלים העסקיים שלהן. זו אחת הפעמים הנדירות שבהן מודל בינה מלאכותית חדש גורם לתנודה ברורה ומוחשית בשוק המניות.

קצב חסר תקדים

הגיוס האחרון של אנטרופיק אינו רק סבב מרשים נוסף. הוא מסמן שלב חדש בתחרות על עתיד הבינה המלאכותית, שלב שבו רק חברות שמסוגלות לגייס עשרות מיליארדי דולרים יוכלו להמשיך לפתח מודלים בקנה מידה עולמי.

 

הסיפור של אנטרופיק משקף תעשייה שנעה במהירות יוצאת דופן, טכנולוגיות שמתחילות לערער תעשיות ותיקות ושוק הון שמוכן להזרים סכומים עצומים כדי לקחת חלק בשינוי. לצד זאת, הוא גם מדגיש את המגבלות שמעצבות את התחום, ובראשן מגבלת החישוב, שמאלצת את החברות הגדולות לפעול מהר יותר מכפי שהיו מעדיפות.

הפוסט אנטרופיק מגייסת 20 מיליארד דולר בשווי 350 מיליארד דולר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-20b-megafundraise/feed/ 0
כשבינה מלאכותית כותבת את “משחקי הכס” הבא https://letsai.co.il/openai-vs-authors-guild/ https://letsai.co.il/openai-vs-authors-guild/#respond Fri, 13 Feb 2026 07:19:45 +0000 https://letsai.co.il/?p=69810 יש תחושות שכל חובב ספרות מכיר היטב - ההמתנה המתמשכת לספר הבא בסדרה אהובה, התקווה שהפעם הסופר יפתיע עם תאריך יציאה - ואז שוב אכזבה. עבור מעריצי ג'ורג' ר.ר. מרטין, המחכים כבר יותר מעשור ל"רוחות החורף", התחושה הזו הפכה כמעט למיתולוגיה בפני עצמה. אבל מה אם יום אחד פשוט נמאס לחכות? מה אם במקום להמתין […]

הפוסט כשבינה מלאכותית כותבת את “משחקי הכס” הבא הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש תחושות שכל חובב ספרות מכיר היטב - ההמתנה המתמשכת לספר הבא בסדרה אהובה, התקווה שהפעם הסופר יפתיע עם תאריך יציאה - ואז שוב אכזבה. עבור מעריצי ג'ורג' ר.ר. מרטין, המחכים כבר יותר מעשור ל"רוחות החורף", התחושה הזו הפכה כמעט למיתולוגיה בפני עצמה. אבל מה אם יום אחד פשוט נמאס לחכות? מה אם במקום להמתין להשראה של מרטין, אפשר פשוט לבקש מ‑ChatGPT לכתוב את הספר הבא? זה נשמע כמו מדע בדיוני, אך בפועל, זו בדיוק המציאות המשפטית והטכנולוגית שבה אנחנו חיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

"ריקוד עם הצללים"

על פי דיווחים בתקשורת הטכנולוגית, זה היה בדיוק הניסוי שביצעו עורכי הדין של מרטין במסגרת מאבק משפטי רחב יותר. הם ביקשו מ‑ChatGPT לכתוב המשך ל"עימות המלכים", הספר השני בסאגת "שיר של אש וקרח". התוצאה, כך נטען, הייתה מדויקת עד כדי צמרמורת - המערכת יצרה תקציר מפורט לספר דמיוני בשם "ריקוד עם הצללים" (A Dance with Shadows).

 

הבינה המלאכותית לא הסתפקה בטקסט גנרי. לפי הדיווחים, היא בנתה עולם שלם, המציאה דמות חדשה ממשפחת טארגאריין בשם "ליידי אלרה", שילבה מוטיבים של קסם דרקונים עתיק, טוותה פוליטיקה אכזרית ואף שתלה רמזים לספרים קודמים - אלמנטים המזוהים עמוקות עם סגנונו של מרטין.

 

מכאן עלתה המסקנה המתבקשת - כדי לייצר פלט כזה, המודל היה חייב "לקרוא" את ספרי המקור. ומרטין, כך ברור, מעולם לא נתן לכך אישור. לא מפתיע שהוא עצמו כינה את התופעה "גניבה של הנשמה היצירתית".

איגוד הסופרים נגד OpenAI

האירוע הזה הפך לאבן יסוד בתביעת ענק שמרעידה את עמק הסיליקון. איגוד הסופרים האמריקאי (Authors Guild), יחד עם שמות בולטים כמו ג'ון גרישם, שרה סילברמן וכמובן מרטין, תובעים את OpenAI ואת השותפה האסטרטגית שלה מיקרוסופט.

 

מכתב התביעה נחשפים נתונים מרשימים: לטענת התובעים, ChatGPT אומן על כ‑300,000 ספרים שנכללו במאגרי נתונים המכונים "Books1" ו‑"Books2". חלק גדול מהחומר הזה, כך נטען, הגיע ממקורות פיראטיים ומספריות צל כמו Library Genesis ו‑Bibliotik, ללא רשות וללא תשלום ליוצרים.

 

עד לאחרונה הסתמכו חברות ה‑AI על טענת "שימוש הוגן" (Fair Use), וטענו שהמודלים אינם מעתיקים יצירות אלא לומדים תבניות שפה, בדומה ל"ספרייה ענקית" או "קורא על‑אנושי". אלא שהטיעון הזה עמד בפני מבחן משמעותי.

 

בסוף אוקטובר 2025, השופט הפדרלי סידני סטיין מבית המשפט המחוזי בניו‑יורק קבע תקדים דרמטי. הוא דחה את בקשת OpenAI לסלק את התביעה על הסף, וקבע כי פלטים של בינה מלאכותית עשויים להיחשב "דומים מהותית" (Substantially Similar) ליצירות המקור, ובכך להוות הפרת זכויות יוצרים בפני עצמם.

 

סטיין הדגיש כי פלטים כאלה אינם רק כלי עזר, אלא עלולים לשמש "תחליפים פוטנציאליים" ליצירה המקורית. המשמעות מרחיקת הלכת היא, שגם אם ה‑AI לא מעתיקה מילה במילה, היא עשויה לגנוב את "המהות" של היצירה.

האם הספרים בסכנה?

איגוד הסופרים טוען שהנזק כבר כאן. לפי דיווחים, סטודנטים וקוראים משתמשים ב‑AI כדי לקבל סיכומים מדויקים להפליא של פרקים במקום לרכוש את הספרים עצמם. עורכי הדין של היוצרים טוענים כי מדובר למעשה במכונה שמייצרת נגזרות מסחריות במסווה של חדשנות טכנולוגית.

גילוי ראיות ופיצויים שעלולים להגיע למיליארדים

בשנת 2026 נכנסת התביעה לשלב הקריטי של גילוי הראיות (Discovery). כעת עשויים להיחשף הסודות המסחריים העמוקים ביותר של OpenAI: אילו ספרים שימשו לאימון? כיצד פועל האלגוריתם?
הסיכון הכלכלי עצום.

 

רק בספטמבר האחרון נרשם תקדים משמעותי כאשר חברת Anthropic, מפתחת מודל Claude, הסכימה לשלם כ‑1.5 מיליארד דולר בהסדר פשרה בתביעה דומה. אם OpenAI תפסיד, הפיצויים הרטרואקטיביים עלולים להיות גבוהים בהרבה.

 

מרטין עצמו כבר הצהיר בעבר שלא יסיים את ספרו אם ה‑AI תעשה זאת לפניו - אמירה דרמטית שמסמלת את עומק המשבר. אך מעבר לכסף ולמשפט, מרחפת שאלה עמוקה יותר: האם הבינה המלאכותית בדרך להפוך ל"נטפליקס של הספרות"? מכונה שמייצרת ספרים, סדרות ושירים בהתאמה אישית, בלחיצת כפתור?

 

האמת היא שזה כבר קורה. יוצרים ותסריטאים משתמשים בכלים הללו יותר ויותר, והתביעה הנוכחית עשויה להיות המחסום האחרון לפני מציאות שבה הגבול בין יצירה אנושית לאלגוריתם ייעלם לחלוטין.

סיפור על מעריצים חסרי סבלנות

המאבק סביב "ריקוד עם הצללים" הוא הרבה יותר מסיפור על מעריצים חסרי סבלנות. הוא מגלם את אחת השאלות הגדולות של עידן הבינה המלאכותית: מי שולט ביצירה, מי מרוויח ממנה, ומה יישאר מהייחוד האנושי בעולם שבו אלגוריתמים מסוגלים לכתוב את "משחקי הכס" הבא. המשפט עוד רחוק מסיום, אבל דבר אחד ברור - התעשייה כולה עומדת בפני רגע מכונן, כזה שיקבע את עתיד היצירה בעשורים הקרובים.

הפוסט כשבינה מלאכותית כותבת את “משחקי הכס” הבא הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-vs-authors-guild/feed/ 0
מדריך למשתמש: 10 דרכים חכמות לתכנון תקציב אישי לשנת 2026 בעזרת Gemini https://letsai.co.il/gemini-budget-planning/ https://letsai.co.il/gemini-budget-planning/#respond Thu, 12 Feb 2026 12:18:57 +0000 https://letsai.co.il/?p=69732 תכנון תקציב לשנת 2026 לא חייב להתחיל מדף ריק או מכאב ראש. בעזרת כמה הנחיות פשוטות, Gemini יכול לעזור לכם לארגן את ההוצאות, למצוא חסכונות נסתרים ולבנות מפת דרכים פיננסית ברורה לשנה הקרובה. מניקוי נתונים ב-Google Sheets ועד בניית תפריט חסכוני, אלה 10 דרכים שבהן Gemini יכול לעזור לכם לקחת שליטה על התקציב.   1. […]

הפוסט מדריך למשתמש: 10 דרכים חכמות לתכנון תקציב אישי לשנת 2026 בעזרת Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
תכנון תקציב לשנת 2026 לא חייב להתחיל מדף ריק או מכאב ראש. בעזרת כמה הנחיות פשוטות, Gemini יכול לעזור לכם לארגן את ההוצאות, למצוא חסכונות נסתרים ולבנות מפת דרכים פיננסית ברורה לשנה הקרובה. מניקוי נתונים ב-Google Sheets ועד בניית תפריט חסכוני, אלה 10 דרכים שבהן Gemini יכול לעזור לכם לקחת שליטה על התקציב.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

1. תכנון הוצאות גדולות

בשלב הראשון אפשר פשוט לפתוח את Gemini ולתאר לו במילים את היעד הכלכלי שלכם. בלי קבצים ובלי טבלאות, רק תמונת מצב כללית של הכנסות והוצאות. Gemini משתמש במידע הזה כדי לפרק יעד גדול לתכנית חיסכון חודשית ברורה.

 

פרומפט לדוגמה:

“אני רוצה לחסוך 50,000 ש”ח למקדמה על רכב עד דצמבר 2026. ההכנסה החודשית נטו שלי היא X וההוצאות החודשיות Y. בנה מפת חיסכון ל-12 חודשים והדגש את הסיכונים לחריגה.”

2. השוואת תרחישים פיננסיים

כשיש התלבטות בין שתי אפשרויות, אפשר להציג אותן ל-Gemini כמו שהן, ולבקש ממנו לנתח את ההשלכות של כל אחת לאורך זמן. זה עובד במיוחד טוב כשמדובר בהחלטות חודשיות שחוזרות על עצמן.

 

פרומפט לדוגמה:

“השווה בין שני תרחישים לשנת 2026:

תרחיש A: אני שומר את הרכב הנוכחי ומשלם 1,800 ש”ח בחודש.

תרחיש B: אני מוכר אותו, קונה רכב משומש במזומן וחוסך את ה-1,800 ש”ח בכל חודש. הצג את ההבדל המצטבר אחרי שנה.”

3. בניית ‘מתרגם’ למסמכי מס

אם יש לכם מסמכי מס, חוזרים מקצועיים או הנחיות רשמיות, אפשר להעלות אותם ל-NotebookLM ולבקש מ-Gemini לעבוד אך ורק על בסיס החומר שסיפקתם. כך מתקבלת תשובה ממוקדת שלא נשענת על ניחושים.

 

פרומפט לדוגמה:

“אני פרילנס שעובד מהבית. בהתבסס רק על המסמכים המצורפים, אילו הוצאות עשויות להיות רלוונטיות להפחתת הכנסה חייבת ומה דורש בדיקה מקצועית.”

4. בניית תפריט שבועי חסכוני

במקום לאלתר בסופר, אפשר לתכנן מראש. כאן פשוט מתארים ל-Gemini את התקציב, והוא בונה תפריט שבועי ורשימת קניות בהתאם.

 

פרומפט לדוגמה:

“תקציב הקניות השבועי שלי הוא 700 ש”ח. בנה תפריט ל-7 ימים עם מרכיבים פשוטים, זולים ועונתיים, וצרף רשימת קניות מסודרת.”

5. ניסוח מיילים להורדת הוצאות

כאשר רוצים לפנות לחברת ביטוח, ספק אינטרנט או כל נותן שירות אחר, אפשר לבקש מ-Gemini לנסח מייל מקצועי שאפשר להעתיק ולשלוח.

 

פרומפט לדוגמה:

“נסח מייל מנומס אך אסרטיבי לבקשת הנחה בביטוח רכב, תוך אזכור הצעות מתחרות הקיימות בשוק.”

6. יצירת טבלת תקציב מקצועית

אם אתם עובדים עם Google Sheets, אפשר לבקש מ-Gemini לבנות עבורכם את מבנה הטבלה ישירות בתוך הגיליון. זה חוסך זמן ומונע טעויות כבר מהשלב הראשון.

 

פרומפט לדוגמה:

“צור טבלת תקציב חודשית לשנת 2026 עם עמודות: קטגוריה, תקציב, בפועל וסטייה. הוסף שורות למזון, בילויים ובריאות, עם עיצוב ברור.”

7. סיווג אוטומטי של הוצאות

כאשר יש גיליון עם פירוט עסקאות, אפשר להשתמש ב-Gemini כדי להפוך טקסט לא מובנה לקטגוריות ברורות, מה שמקל מאוד על ניתוח התקציב.

 

פרומפט לדוגמה:

“נתח את תיאורי העסקאות בעמודה A. בעמודה B סווג כל עסקה לקטגוריות: מזון, תחבורה, דיור, בילויים או שונות.”

8. כתיבת נוסחאות בלי ידע טכני

במקום לזכור פונקציות או לחפש באינטרנט, אפשר להסביר ל-Gemini מה רוצים לחשב, והוא כותב את הנוסחה ומסביר אותה.

 

פרומפט לדוגמה:

“כתוב נוסחה שמחשבת כמה חודשים ייקח לסגור חוב של 15,000 ש”ח בריבית שנתית של 20% עם תשלום חודשי של 1,000 ש”ח. הסבר איך הנוסחה עובדת.”

9. איתור דליפות תקציב

אחרי שמצטברים נתונים, אפשר להדביק או להפנות אליהם ולבקש מ-Gemini לזהות מגמות חריגות או עליות לא צפויות בהוצאות.

 

פרומפט לדוגמה:

“נתח את ההוצאות שלי בינואר עד מרץ 2026. אילו קטגוריות עלו באחוזים הגבוהים ביותר לעומת ממוצע 2025? הצג סיכום ברור.”

10. איתור מנויים רדומים

כאשר נותנים ל-Gemini גישה לתיבת המייל, הוא יכול לעזור לאתר חיובים חוזרים דרך קבלות ואישורי תשלום שנשלחו במייל.

 

פרומפט לדוגמה:

“מצא קבלות של מנויים חוזרים מהחצי שנה האחרונה. הצג שם שירות, עלות חודשית ותאריך חידוש.”

פרטיות, אבטחת מידע ומגבלות שימוש

לפני שאתם מתחילים, חשוב לעצור רגע ולהפעיל שיקול דעת. Gemini, כמו כל מודל שפה, מעבד ועובד על המידע שאתם בוחרים לשתף איתו. זה אומר שכאשר מעלים נתונים אישיים, פיננסיים או מסמכים רגישים, כדאי לחשוב מראש מה נוח לכם לשתף ומה לא.

 

במקרים של חשש, אפשר לטשטש או להלבין נתונים, להסיר פרטים מזהים או לעבוד עם נתונים כלליים או סימנים מוסכמים שרק אתם מכירים. זה נכון לא רק ל-Gemini אלא לכל כלי AI. בנוסף, חשוב לזכור שרוב השימושים במדריך הזה אפשריים גם דרך חשבון חינמי, במיוחד כשמדובר בעבודה טקסטואלית ותכנון כללי.

 

יחד עם זאת, יש מגבלות, ויש יכולות שמבוססות על חיבור לשירותים כמו Google Sheets או Gmail, ולעיתים גם על מנוי בתשלום. ככל שמבינים מראש את גבולות ומגבלות הכלי, כך השימוש בו יהיה בטוח, מודע ויעיל יותר.

 

 

 

לסיכום, בעזרת כמה פרומפטים פשוטים, Gemini יכול לעזור לכם לעבור מתקציב מבולגן לתמונה פיננסית ברורה. ככל שתספקו לו מידע מדויק יותר, כך התובנות וההמלצות יהיו שימושיות יותר, ותוכלו להשקיע פחות זמן בניהול מספרים ויותר זמן בהשגת היעדים שלכם.

הפוסט מדריך למשתמש: 10 דרכים חכמות לתכנון תקציב אישי לשנת 2026 בעזרת Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-budget-planning/feed/ 0
למה המשקיעים מפחדים שה-AI יאכל את תעשיית התוכנה https://letsai.co.il/wall-street-saas-fear/ https://letsai.co.il/wall-street-saas-fear/#comments Thu, 12 Feb 2026 06:22:42 +0000 https://letsai.co.il/?p=69797 השבוע הקשה ביותר לסקטור התוכנה מזה שנים חושף את הפחד האמיתי של וול סטריט: שהבינה המלאכותית לא תעזור לחברות התוכנה - אלא תחליף אותן. תגידו, יש לכם מושג איך נראה טריליון דולר? כי זה הסכום - טריליון דולר - שהתאייד מהשווי של חברות התוכנה והטכנולוגיה בשבוע האחרון. בוול סטריט כבר הספיקו לתת לאירוע שם: ה-SaaSmegadon […]

הפוסט למה המשקיעים מפחדים שה-AI יאכל את תעשיית התוכנה הופיע ראשון בLet's AI בינה מלאכותית

]]>
השבוע הקשה ביותר לסקטור התוכנה מזה שנים חושף את הפחד האמיתי של וול סטריט: שהבינה המלאכותית לא תעזור לחברות התוכנה - אלא תחליף אותן. תגידו, יש לכם מושג איך נראה טריליון דולר? כי זה הסכום - טריליון דולר - שהתאייד מהשווי של חברות התוכנה והטכנולוגיה בשבוע האחרון. בוול סטריט כבר הספיקו לתת לאירוע שם: ה-SaaSmegadon - או כפי שסוחרים ב-Jefferies מכנים את זה, ה-SaaSpocalypse. עכשיו, השאלה היא למה. הרי ה-AI כאן, הוא חכם מתמיד, והוא משנה את העולם. אז למה המשקיעים בורחים? ואיך כל זה קשור לחברות תוכנה ו-SaaS?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה מניות הטכנולוגיה צונחות בימים האחרונים?

הקטע בטכנולוגיה משבשת הוא שהיא משבשת. היא משנה שווקים שלמים, מייצרת מציאות חדשה, ולפעמים היא משבשת גם את עצמה. נשמע מסובך? בואו נפרק את זה.

 

התשובה היא שהשוק התעורר עם הנגאובר רציני. עד לפני כמה ימים, הסיפור שסיפרו לנו היה פשוט: "AI זה זהב. תקנו הכל". תן לי 10 ק"ג AI... או אולי 10 טון. אבל השבוע, הסיפור הזה השתנה. אנחנו עוברים שלב - משלב ה"הייפ" וההתלהבות, לשלב ההוכחות.

 

בואו נזרוק קצת מספרים לאוויר, רק כדי שתבינו את גודל המכה. הנאסד"ק? ירד בכמעט 2%. נשמע לכם "בקטנה"? אז זהו, שלא. סקטור התוכנה כולו חטף מכה של כ-6% בשבוע אחד. ענקיות תוכנה ותיקות ויציבות כמו סיילספורס ואדובי איבדו גובה במהירות, ואפילו המלכה הבלתי מעורערת, אנבידיה, השילה 9% מהשווי שלה. גם שוק השבבים לא נותר בטוח. AMD? צללה ב-15%.

 

אבל המספר הכי משוגע הוא לא כמה המניות ירדו, אלא כמה החברות האלה מוציאות. תחזיקו חזק - הצפי הוא שענקיות הטכנולוגיה ישפכו כ-600 מיליארד דולר (!) על תשתיות AI ב-2026. זה הר של כסף, והמשקיעים מתחילים לשאול - איפה הקבלות?

 

מניות הטכנולוגיה בנפילה: מי חטף הכי חזק?

מניות הטכנולוגיה בנפילה: מי חטף הכי חזק?

שתי סיבות מרכזיות לצניחה

אנליסטים חושבים שיש שתי סיבות אפשריות ומרכזיות לצניחה הזו. הסיבה הראשונה היא יוקר התשתיות. ענקיות הטכנולוגיה - גוגל, מיקרוסופט, מטא - שופכות סכומים דמיוניים על תשתיות פיזיות. חוות שרתים, מגה קומפלקסים של AI ושבבים יקרים ומתקדמים. המשקיעים הסתכלו השבוע על המספרים האלה ושאלו שאלה פשוטה: "מתי אני רואה את הכסף שלי בחזרה?". כרגע, זה נראה כמו בור ללא תחתית של הוצאות, בלי רווחים ברורים בטווח הקצר.

 

אבל הסיבה השנייה היא המעניינת באמת, והיא נקראת "הפחד מהקניבליזציה". עד היום חשבנו שה-AI יעזור לחברות תוכנה כמו אדובי או סיילספורס למכור לנו מוצרים טובים יותר. אבל פתאום נפל האסימון: מה אם ה-AI לא יעזור לתוכנה, אלא יחליף אותה? אם יש לי "סוכן AI" חכם שיכול לנהל את הכספים, לעצב את התמונות ולסגור עסקאות לבד - למה שאני אשלם דמי מנוי יקרים לתוכנה שעושה את זה?

 

אם אני יכול לבנות את מאנדיי בשני פרומפטים בבייס 44 או ב-Lovable, אז למה צריך בכלל את מאנדיי? ושוב, זה לא שזה מה שאני חושב, לדעתי האישית, עדיין אין תחליף לתשתית אמינה, מאובטחת, שעברה שנים על גבי שנים של אופטימיזציה. אבל מיליוני משקיעים מסביב לעולם לא יסכימו איתי. עובדה - המדדים צונחים!

 

ג'ייסון למקין, מייסד SaaStr ומי שנחשב ל"סנדק של ה-SaaS", כתב בבלוג שלו שתחילת 2026 מביאה "קראש" במניות התוכנה-כשירות (SaaS). לפי למקין, "לבנות גרסה ראשונה זה אולי 2% מהעבודה. 98% זה תחזוקה, שדרוג ואופטימיזציה". הוא הוסיף שאף כלי AI לא מחליף 20 שנה של פיתוח ו-150 אלף עובדים של ידע מוסדי מצטבר - אבל לשוק, כרגע, זה לא משנה.

מפסיקים לשלם על חלומות, ומתחילים לדרוש קבלות

הפחד שה-AI הוא לא סתם כלי עזר, אלא משהו שמייתר את העבודה המשרדית, ואיתה - את התוכנות שמשמשות את המשרדים האלה - זו הסיבה המרכזית שהעתיד נראה לא בטוח למשקיעים רבים. הם פשוט לא בטוחים שהחברות הללו ימשיכו להיות רלוונטיות בעתיד בו טכנולוגיה מייצרת מציאות חדשה, כמעט על בסיס יומי.

 

אז לא, ה-AI לא הולך לשום מקום. המהפכה אמיתית. אבל השבוע וול סטריט אמרה בקול ברור: "אנחנו מפסיקים לשלם על חלומות, ומתחילים לדרוש קבלות". "אנחנו מפחדים שעתיד התוכנה וה-SaaS כבר לא ברור ויציב כמו שחשבנו". ועד שהענקיות לא יוכיחו שהן יודעות להפוך את ה-AI הזה למכפלת כוח שמייצרת מזומנים, יש מצב שרכבת ההרים המטורללת הזו רק בתחילת הדרך ואולי עוד לא ראינו את התחתית...

הפוסט למה המשקיעים מפחדים שה-AI יאכל את תעשיית התוכנה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/wall-street-saas-fear/feed/ 1
OpenAI השיקה פיילוט פרסומות ב‑ChatGPT https://letsai.co.il/chatgpt-ad-pilot/ https://letsai.co.il/chatgpt-ad-pilot/#respond Wed, 11 Feb 2026 12:40:57 +0000 https://letsai.co.il/?p=69773 יש רגעים שבהם סאטירה הופכת למציאות מהר מכפי שמישהו הספיק להתכונן. זה בדיוק מה שקרה בשבוע שבו Anthropic פרסמה קמפיין מבריק, שמדגים כיצד עוזר בינה מלאכותית מתחיל לשלב הצעות מסחריות בתוך שיחה יומיומית. זמן קצר לאחר מכן, OpenAI הכריזה על תחילת פיילוט הפרסומות ב‑ChatGPT למשתמשי Free ו‑Go בארצות הברית - מהלך שמסמן שינוי משמעותי באופן […]

הפוסט OpenAI השיקה פיילוט פרסומות ב‑ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם סאטירה הופכת למציאות מהר מכפי שמישהו הספיק להתכונן. זה בדיוק מה שקרה בשבוע שבו Anthropic פרסמה קמפיין מבריק, שמדגים כיצד עוזר בינה מלאכותית מתחיל לשלב הצעות מסחריות בתוך שיחה יומיומית. זמן קצר לאחר מכן, OpenAI הכריזה על תחילת פיילוט הפרסומות ב‑ChatGPT למשתמשי Free ו‑Go בארצות הברית - מהלך שמסמן שינוי משמעותי באופן שבו אנחנו מתקשרים עם בינה מלאכותית. הפרסומות מותאמות לנושא השיחה בזמן אמת, מסומנות בבירור ומופרדות מהתוכן האורגני, תוך הבטחות לשמירה על פרטיות ושליטה למשתמש. במקביל, הקמפיין של Anthropic הפך לרלוונטי מתמיד, כשהוא מצביע בדיוק על המתח שבין מודלים עסקיים, פרטיות, והעתיד של שיחות עם AI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

סאטירה שמכוונת בדיוק למקום הכואב

כדאי לחזור לרגע לקמפיין של Anthropic. החברה, שממוקדת מראש בשוק האנטרפרייז ובשימושים כמו AI‑assisted coding ו‑API בהיקפים גדולים, זיהתה את הרגע שבו OpenAI מתלבטת לגבי הכנסת פרסומות ל‑ChatGPT. חודשים של רמיזות, הכחשות פומביות מצד סם אלטמן ושוב רמיזות יצרו מתח שהפך לקרקע פוריה לסאטירה. בתוך ההקשר הזה Anthropic פרסמה קמפיין שממחיש באופן קומי ומדויק את החשש המרכזי: מודל שיחה שמפרש כל משפט כהזדמנות מסחרית.

 

הקמפיין היה חד, מצחיק ומדויק, והוא מיקם את Anthropic כמי שמבינה היטב את אי הנוחות הציבורית סביב פרסום בתוך שיחות אינטימיות עם AI - מרחב שנתפס עד היום כפרטי ואישי, כמעט כמו יומן דיגיטלי. התזמון היה מושלם: הפרסומת הפכה ויראלית, אלטמן הגיב, ואז המציאות הדביקה את הסאטירה במהירות מפתיעה.

ההכרזה של OpenAI

ב‑15-16 בינואר OpenAI הודיעה רשמית על תחילת פיילוט פרסומות ב‑ChatGPT. הפיילוט מופעל בארצות הברית בלבד, ומיועד למשתמשי Free ולמנוי Go, מסלול הלואו קוסט בעלות של שמונה דולרים לחודש. מנויי Plus, Pro, Business, Enterprise ו‑Education ימשיכו ליהנות מחוויה נקייה מפרסומות. אף שהפיילוט עדיין אינו זמין למשתמשים חיצוניים ונמצא בשלב בדיקות פנימיות, העקרונות שכבר פורסמו מצביעים על שינוי משמעותי באופן שבו משתמשים יתקשרו עם המודל.

 

OpenAI מודיעה על תחילת ניסוי הפרסומות ב‑ChatGPT

OpenAI מודיעה על תחילת ניסוי הפרסומות ב‑ChatGPT

 

OpenAI מסבירה שהמהלך נועד לממן את הגישה החינמית למאות מיליוני משתמשים. כדי לשמור על מהירות, אמינות ותשתית יציבה, החברה זקוקה למודל הכנסות ברור, ופרסומות הן הדרך המוכרת והישירה ביותר לעשות זאת.

איך הפרסומות משתלבות בתוך השיחה?

OpenAI מציגה מודל פרסום שמנסה להיות שקוף ומבוקר ככל האפשר. הפרסומות מופיעות בתחתית תשובות רלוונטיות, מסומנות בבירור כ‑Sponsored ומופרדות מהתוכן האורגני. הן מותאמות לנושא השיחה בזמן אמת, בין אם מדובר במתכונים, תכנון טיול, קניות או התלבטות מקצועית, ובמקרים שבהם קיימות כמה אפשרויות, תוצג המודעה שנחשבת המתאימה ביותר להקשר.

 

כך נראית פרסומת בתוך תשובה של ChatGPT

כך נראית פרסומת בתוך תשובה של ChatGPT

 

כדי לבנות אמון, OpenAI מגדירה ארבעה עקרונות מרכזיים. הראשון הוא עצמאות התשובה - הפרסומות אינן משפיעות על מה שהמודל אומר, והתשובה נוצרת לפני בחירת המודעה. השני הוא פרטיות - המפרסמים אינם מקבלים גישה לשיחות, להיסטוריה או לזיכרון, אלא רק נתונים אגרגטיביים על ביצועי המודעות. השלישי הוא רגולציה פנימית שמונעת הצגת פרסומות בנושאי בריאות, פוליטיקה או למשתמשים מתחת לגיל 18. הרביעי הוא שליטה - המשתמש יכול למחוק את היסטוריית הפרסומות, לכבות התאמה אישית, להסתיר מודעות מסוימות או לשדרג למנוי ללא פרסומות.

 

איך הפרסומות משתלבות בתוך השיחה?

איך הפרסומות משתלבות בתוך השיחה

מה המשמעות של ניתוח שיחה בזמן אמת?

כדי להציג מודעה שנחשבת רלוונטית, המערכת חייבת לנתח את תוכן השיחה בזמן אמת. לא מדובר רק בזיהוי מה המשתמש מחפש, אלא גם בהבנה של ההקשר והמחשבות שהוא מבטא. שיחה עם ChatGPT שונה מהותית מחיפוש בגוגל או מגלילה בפייסבוק. היא רציפה, אישית ולעיתים חושפת מחשבות גולמיות - תסכולים, התלבטויות, חלומות וחששות.

 

הכנסת פרסומות לתוך מרחב כזה משנה את גבולות הפרטיות כפי שהכרנו אותם. במקום מרחב ניטרלי שבו המשתמש יכול לחשוב בקול, הוא מוצא את עצמו בסביבה שבה כל מחשבה עשויה להפוך לאות מסחרי. זו תזוזה עדינה אבל משמעותית, שמעלה שאלות על האיזון בין נוחות, פרטיות ומודלים עסקיים.

 

איך מותאמות הפרסומות - ומה לא נחשף למפרסמים

איך מותאמות הפרסומות - ומה לא נחשף למפרסמים

שקיפות שמחזירה כוח למשתמש

אחד המרכיבים המרכזיים במודל הפרסום החדש הוא מנגנון השליטה שהמשתמש מקבל. מסך ההגדרות מאפשר לכבות התאמה אישית, למחוק היסטוריית פרסומות ולראות אילו מודעות הופיעו ומתי. זה ניסיון של OpenAI לאזן בין מודל עסקי חדש לבין תחושת שליטה ואמון, ולהראות שהפרסומות אינן “שכבה סמויה”, אלא מערכת שניתן לנהל באופן גלוי וברור.

 

מחיקת היסטוריה וכיבוי התאמה אישית

מחיקת היסטוריה וכיבוי התאמה אישית

אינטליגנציה נקייה מול אינטליגנציה ממומנת

המהלך של OpenAI יוצר הבחנה ברורה בין שתי חוויות שונות של שימוש ב‑ChatGPT. משתמשים שמשלמים מקבלים מרחב שיחה נקי ושקט, ללא פרסומות וללא רעשי רקע מסחריים. לעומתם, משתמשים במסלולים החינמיים נהנים גם הם מהיכולת האינטליגנטית של המודל, אך בתוך סביבה שבה כל מחשבה עשויה להתפרש כהזדמנות פרסומית.

 

מי רואה פרסומות ומהם כללי המשחק

מי רואה פרסומות ומהם כללי המשחק

 

זה לא רק שינוי במודל עסקי, אלא שינוי עמוק יותר באופן שבו אנחנו תופסים אינטראקציה עם AI. הקמפיין של Anthropic הדגיש בדיוק את הנקודה הזו, והציג את החברה כאלטרנטיבה "נקייה" ברגע שבו OpenAI עשתה את הצעד שהבטיחה בעבר שלא תעשה. בכך, Anthropic הצליחה למקם את עצמה בצד שמעלה שאלות על אמון, שקיפות וגבולות הפרטיות.

סימני השאלה שנותרו פתוחים

למרות ההכרזה, עדיין יש לא מעט שאלות שנותרו ללא מענה. הפיילוט אינו זמין עדיין למשתמשים חיצוניים, ולכן אין נתוני שימוש אמיתיים שיכולים להעיד על האופן שבו הפרסומות ישפיעו בפועל על חוויית השיחה.

 

לא ברור עד כמה ההתאמה האישית תהיה עמוקה או אגרסיבית, האם בעתיד יופיעו פורמטים מתקדמים יותר של פרסום בתוך השיחה עצמה, או כיצד OpenAI תאזן לאורך זמן בין רלוונטיות פרסומית לבין שמירה על פרטיות.

 

OpenAI מדגישה שהמטרה בשלב זה היא "ללמוד ולהקשיב", אך ההיסטוריה של מודלים פרסומיים מלמדת שהם נוטים להתרחב עם הזמן, ולא להצטמצם. זו נקודה שממשיכה לעורר שאלות לגבי הכיוון שאליו המערכת עשויה להתפתח.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

שיחה שהופכת למוצר

הפרסומות ב‑ChatGPT מסמנות את תחילתו של מודל פרסום חדש, כזה שמבוסס על שיחה ולא על גלילה. זהו מודל שבו המערכת מפרשת הקשר, כוונה ולעיתים גם מצב רגשי, ומציעה מוצרים בהתאם. עבור מפרסמים זו הזדמנות משמעותית, אך עבור משתמשים שרואים ב‑AI מרחב חשיבה פרטי, זה עלול להיות מקור לאי נוחות. Anthropic ניצלה את הרגע כדי למצב את עצמה כאלטרנטיבה נקייה, אך גם היא תידרש להתמודד עם השאלה הזו בעתיד. ברגע שהשיחה עצמה הופכת למוצר, קשה מאוד להחזיר את הגלגל לאחור.

הפוסט OpenAI השיקה פיילוט פרסומות ב‑ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-ad-pilot/feed/ 0
גיוס שישבור את כל השיאים? OpenAI בדרך ל-100 מיליארד דולר https://letsai.co.il/openai-100b/ https://letsai.co.il/openai-100b/#respond Wed, 11 Feb 2026 05:02:56 +0000 https://letsai.co.il/?p=69742 אם הדיווחים האחרונים יתממשו, אנחנו עשויים להיות עדים לאחת העסקאות המסקרנות בתולדות ההייטק: גיוס הון בהיקף של כ-100 מיליארד דולר. גיוס כזה עשוי לדחוף את השווי המדווח של OpenAI לרמות שמזכירות תקציבים של מדינות, עם הערכות שמגיעות עד כ-730 מיליארד דולר. בעולם שבו המונח “חד-קרן” כבר נשחק, מדובר בקפיצה לליגה אחרת לגמרי, ליגה שבה חברות […]

הפוסט גיוס שישבור את כל השיאים? OpenAI בדרך ל-100 מיליארד דולר הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם הדיווחים האחרונים יתממשו, אנחנו עשויים להיות עדים לאחת העסקאות המסקרנות בתולדות ההייטק: גיוס הון בהיקף של כ-100 מיליארד דולר. גיוס כזה עשוי לדחוף את השווי המדווח של OpenAI לרמות שמזכירות תקציבים של מדינות, עם הערכות שמגיעות עד כ-730 מיליארד דולר. בעולם שבו המונח “חד-קרן” כבר נשחק, מדובר בקפיצה לליגה אחרת לגמרי, ליגה שבה חברות טכנולוגיה לא רק בונות מוצרים, אלא מקימות תשתיות בקנה מידה גלובלי. המילה המתאימה ביותר לתאר את התמונה הזו היא קנה מידה. אלא שהמספרים הגדולים הם רק השכבה העליונה. מאחורי כל שווי דמיוני מסתתרת שאלה פשוטה אך מהותית: מי באמת מרוויח מהמהלך הזה, ומי מממן אותו בפועל. לפי הדיווחים, שלוש ענקיות טכנולוגיה שוקלות השקעה משותפת בהיקף של כ-60 מיליארד דולר. לא מדובר בכסף “פאסיבי” שמחפש תשואה בלבד. לכל אחת מהן אינטרס אסטרטגי ברור, שנוגע לחומרה, לענן ולהפצה בקנה מידה עולמי. זה אינו עוד סבב השקעה שגרתי, אלא ניסיון להשפיע על מפת הכוח של עולם ה-AI לשנים הקרובות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

 

מי פותחות את הארנק ולמה דווקא הן

גם אם לא נולדתם בשנות ה-70 ולא צפיתם בקלאסיקה הקולנועית "כל אנשי הנשיא", סביר להניח שנתקלתם ששמעתם על פרשת ווטרגייט (ואם לא - אז 1. אתם צעירים. ו-2. שאלו את פרפלקסיטי). שם, בשיאה של הפרשה שטילטלה את ארה"ב, המודיע המסתורי המכונה "גרון עמוק" לוחש לעיתונאי בוב וודוורד עצה שהפכה מאז לכלל ברזל בחקירות: Follow the money ("לך בעקבות הכסף"). התסריטאי וויליאם גולדמן המציא את המשפט הזה (שככל הנראה מעולם לא נאמר במציאות ע"י המודיע האמיתי - מארק פלט, סגן ראש ה-FBI) כדי לפשט את העלילה המורכבת עבור הצופים. העצה הזו נועדה להזכיר שאם רוצים להבין את האמת שמסתתרת מאחורי רעש גדול, צריך פשוט לבדוק מי משלם עליו. וזה בדיוק מה שאנחנו צריכים לעשות כאן.

 

כשמדברים על גיוס דמיוני של 100 מיליארד דולר ל-OpenAI, המספר לבדו מסנוור, אבל הסיפור האמיתי מסתתר בזהות החותמים על הצ'ק. אנחנו לא רואים כאן משקיעים פיננסיים שמחפשים רווח מהיר בבורסה, אלא את הארכיטקטים של האינטרנט החדש. של החשמל החדש. של הבהלה לזהב של המאה ה-21. שלוש הענקיות שפותחות את הארנק עושות זאת מתוך אסטרטגיה של "להיות או לחדול", שבה ההצלחה של OpenAI היא תעודת הביטוח למודל העסקי שלהן עצמן. הנה הסיבות שגורמות להן להמר על כל הקופה:

 

באנר אנטרפרייז

 

 

Nvidia: השקעה במנוע הביקוש המרכזי

לפי אותם דיווחים, Nvidia עשויה להיות זו ששוקלת להשקיע את הסכום הגדול ביותר, עד כ-30 מיליארד דולר. על פניו זה נשמע חריג, אך מבחינה תעשייתית יש בכך היגיון ברור. אם OpenAI וגופים דומים הם מנוע הביקוש המרכזי למאיצים גרפיים ולתשתיות אימון והרצה, השקעה בהם יכולה להיחשב כדרך להבטיח שהביקוש ימשיך לגדול. Nvidia מספקת את החומרה שעליה נשענת תעשיית ה-AI כולה, והשקעה במי שמוביל את התחום עשויה לשמש גם כביטוח צמיחה וגם ככלי השפעה על כיווני פיתוח עתידיים. זהו הימור, אך כזה שמבוסס על היגיון תעשייתי עקבי.

 

אמזון: חיזוק מנוע המכירות המרכזי

אמזון מוצגת בדיווחים כשחקנית חדשה יחסית סביב OpenAI, עם השקעה אפשרית של מעל 10 מיליארד דולר. עבור Amazon, ובעיקר עבור זרוע הענן שלה, AWS, ה-AI הפך בשנים האחרונות למנוע מכירות מרכזי. לקוחות כבר לא רוכשים “שרתים” במובן המסורתי, אלא יכולת להריץ מודלים, להטמיע עוזרים חכמים ולבצע אוטומציה לתהליכים עסקיים מורכבים. כדי להישאר תחרותית, אמזון זקוקה לא רק לתשתית פיזית, אלא גם לשותפויות שמביאות עומסים, לקוחות וסטנדרטים טכנולוגיים.

 

Microsoft: שמירה על היתרון התחרותי

Microsoft, השותפה הוותיקה של OpenAI, לפי הדיווחים מתכננת להוסיף השקעה של כ-10 מיליארד דולר נוספים. כאן ההיגיון שונה במקצת. מיקרוסופט כבר שילבה יכולות AI במוצרים שמגיעים למאות מיליוני משתמשים, ולכן היא אינה רק ספקית תשתית, אלא גם מנוע הפצה משמעותי. השקעה נוספת יכולה לשמש ככלי לשימור יתרון תחרותי, להבטחת גישה לטכנולוגיה מתקדמת, ולחיזוק ההגנה מול מתחרות שמפתחות מודלים מתחרים. מדובר במהלך אסטרטגי ארוך טווח, יותר מאשר השקעה פיננסית קלאסית.

 

למה צריך כל כך הרבה כסף? העלות האמיתית של AI מתקדם

כאן מגיע החלק שלעתים נעלם מהכותרות: הפעלה של מודלי AI מתקדמים היא עסק יקר בצורה לא אינטואיטיבית. לפי הערכות שמופיעות בשיח המקצועי, העלויות המצטברות עשויות להגיע עד כ-430 מיליארד דולר עד שנת 2030. גם אם המספר הזה יתברר כמנופח, הכיוון ברור. מדובר במירוץ תשתיות, לא רק במירוץ אלגוריתמים.

 

העלויות כוללות שבבים ייעודיים, צריכת חשמל עצומה, מערכות קירור, שטחי דאטה-סנטר, רשתות מהירות, אבטחה ותפעול שוטף. מעבר לכך, יש גם עלויות אנושיות משמעותיות: מחקר, בטיחות, רגולציה, ותמיכה בלקוחות עסקיים. כדי להבין את הדינמיקה, אפשר להשוות זאת לחברת תעופה. לא די בפיתוח מטוס, אלא יש להפעיל צי שלם, לתחזק אותו, לעמוד ברגולציה ולספק שירות רציף. במודלים גדולים, כל שאילתה של משתמש היא עלות תפעולית, וככל שמספר המשתמשים גדל, כך העלויות מתנפחות. במובן הזה, גיוס הון בהיקפים כאלה הופך לחמצן תפעולי.

 

730 מיליארד דולר!

שווי הוא בסופו של דבר סיפור שהשוק מספר לעצמו על העתיד. כדי להצדיק שווי של מאות מיליארדי דולרים, המשקיעים צריכים להאמין ש-OpenAI תהפוך לשכבה בסיסית בכלכלה הדיגיטלית, בדומה לענן, למערכות הפעלה או למנועי חיפוש, אך בקנה מידה רחב אף יותר. מנגד, שווי כזה מניח גם שהחברה תצליח לייצר מודל הכנסות משמעותי, לשמור על יתרון טכנולוגי, ולהתמודד עם אתגרים של רגולציה, זכויות יוצרים, פרטיות ותחרות.

 

כאשר אותן חברות ענק הן גם משקיעות וגם ספקיות תשתית, עולה שאלה נוספת: האם מדובר ביצירת ערך אמיתית, או בהנדסה פיננסית שמציירת עתיד אופטימי במיוחד. סביר להניח שהתשובה נמצאת באמצע. הפוטנציאל קיים, אך גם רמות הסיכון גבוהות בהתאם.

 

האם אנחנו בדרך לריכוזיות גבוהה בשוק ה-AI

החשש מריכוזיות אינו נובע רק מעליונות טכנולוגית, אלא מהצטלבות של שלושה יתרונות שקשה להתחרות בהם: נתונים ויכולת איסוף בקנה מידה פלטפורמי, תשתיות מחשוב מתקדמות, והפצה למאות מיליוני משתמשים דרך מוצרים קיימים. כאשר אותם שחקנים שולטים גם בהשקעות וגם בצינורות ההפצה, הם עלולים להפוך לשומרי סף שקובעים מי יקבל גישה למודלים ובאילו תנאים.

 

עם זאת, השוק אינו סטטי. מודלים פתוחים, שחקנים חדשים ושיפורים ביעילות החישובית עשויים לערער את היתרון של הענקיות. גם הרגולציה משחקת תפקיד, מאחר שמדינות אינן ששות להיות תלויות בספק יחיד לטכנולוגיה בסיסית. תרחיש של מונופול מוחלט אינו ודאי, אך ריכוזיות גבוהה בהחלט מהווה סיכון ממשי.

 

המשמעות לעסקים, למפתחים ולצרכנים

עבור עסקים, המשמעות היא שה-AI הופך לשירות תשתיתי, כמעט כמו חשמל. מי שמאמץ מוקדם ומטמיע בצורה חכמה עשוי ליהנות מיתרון תחרותי, אך במקביל גדל הסיכון לנעילה לספק, לעליות מחירים ולתלות בתנאי שימוש משתנים. עבור מפתחים, מדובר בשפע של כלים ויכולות, אך גם באפשרות שגישה ליכולות מתקדמות תהיה נתונה לשליטה של מספר מצומצם של שחקנים.

 

עבור הצרכנים, התמונה מורכבת. מצד אחד, מוצרים חכמים ונגישים יותר. מצד שני, שאלות כבדות משקל של פרטיות, הטיות ואחריות כאשר מערכות AI פועלות בקנה מידה רחב. אם הגיוס המדובר אכן יתממש, השפעתו תחרוג הרבה מעבר ל-OpenAI עצמה, ותגדיר מחדש מהו סטנדרט השירות ומי מחזיק בכוח לקבוע אותו.

 

בדרך כלל, כסף גדול נכנס למשחק כאשר כולם מבינים שהכללים משתנים, אך לפני שברור מי ינצח. גיוס בהיקפים שעליהם מדברים עשוי להאיץ פיתוח, להרחיב זמינות ולהעלות את רף הכניסה לכל מתחרה חדש. במקביל, הוא עשוי להפוך את ה-AI ממוצר לשכבת תשתית בסיסית, כזו שדורשת משאבים בקנה מידה של מדינות. במציאות כזו, השאלה המרכזית אינה מי בונה את המודל החכם ביותר, אלא מי מסוגל לממן, להפעיל ולשלוט בתשתית שעליה הוא נשען.

הפוסט גיוס שישבור את כל השיאים? OpenAI בדרך ל-100 מיליארד דולר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-100b/feed/ 0
גוגל משרטטת את מגרש המשחקים של ה-AI https://letsai.co.il/google-transformation-ai/ https://letsai.co.il/google-transformation-ai/#respond Tue, 10 Feb 2026 06:52:48 +0000 https://letsai.co.il/?p=69609 מאז פרוץ מהפכת הבינה היוצרת בנובמבר 2022 ועד לא מזמן, גוגל חיה תחת כותרת אחת עיקשת: ״מתה״. אמרו ש-ChatGPT ישאיר לה אבק, ש-Perplexity תהיה הגוגל החדש, ושגוגל עצמה הפכה לדינוזאור איטי בעולם שבו ה-AI רץ קדימה. לא בגלל שאין לה טכנולוגיה, אלא בגלל שאיבדה מומנטום. ואז, בסוף שנת 2025, גוגל הציגה דוח שקשה להתעלם ממנו: […]

הפוסט גוגל משרטטת את מגרש המשחקים של ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
מאז פרוץ מהפכת הבינה היוצרת בנובמבר 2022 ועד לא מזמן, גוגל חיה תחת כותרת אחת עיקשת: ״מתה״. אמרו ש-ChatGPT ישאיר לה אבק, ש-Perplexity תהיה הגוגל החדש, ושגוגל עצמה הפכה לדינוזאור איטי בעולם שבו ה-AI רץ קדימה. לא בגלל שאין לה טכנולוגיה, אלא בגלל שאיבדה מומנטום. ואז, בסוף שנת 2025, גוגל הציגה דוח שקשה להתעלם ממנו: יותר מ-400 מיליארד דולר הכנסות שנתיות לראשונה בתולדות Alphabet. הנתונים פורסמו בפוסט סיכום של החברה, שבו סונדר פיצ’אי (Sundar Pichai) מסכם את הרבעון ואת השנה כולה. 400 מיליארד זה מספר שמזמין כותרת, אבל הוא לא מסביר את הסיפור האמיתי. פיצ’אי לא דיבר כמו מי שסוגר שנה טובה, אלא כמו מי שמצהיר על שינוי מבני עמוק, בקצב שלא מאפיין ענק מבוסס אלא ארגון שפועל במצב תקיפה. המספרים נותנים תוקף, אבל הם לא הסיפור. הסיפור נמצא בדגש החוזר על מהירות: יותר השקות, יותר אימוץ, יותר שימוש, יותר השקעה פיזית. לא ״אנחנו נבנה״, אלא ״אנחנו כבר מריצים״. וזה ההבדל בין חזון לבין טרנספורמציה.

 

 

סיכום רבעוני ושנתי של גוגל ל 2025

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

התפתחות החיפוש בגוגל

במבט ראשון, דרך המספרים בלבד, גוגל נשארת גוגל. החיפוש ממשיך לצמוח, וההכנסות ממנו עלו ב-17 אחוז. אבל לדברי המנכ״ל שלה, החיפוש אינו מוצג כשירות יציב אלא כתהליך שנמצא בשינוי מתמשך. פיצ’אי מתאר נקודת מעבר שבה הבינה המלאכותית לא רק משפרת את איכות התוצאות, אלא משנה את הדרך שבה אנשים מנסחים שאלות ומקיימים אינטראקציה עם מידע.

 

הוא לא מסתפק בתיאור מגמה כללית, אלא מצביע על קצב ביצוע חריג בהיקפו. יותר מ-250 השקות מוצר ברבעון אחד בלבד (Q4), כולן סביב AI Mode ו-AI Overviews. לא מדובר במהלך אחד גדול, אלא ברצף מהיר של התאמות ושיפורים, שנועדו לעצב דפוסי שימוש חדשים. יותר שאלות המשך, יותר שיח מתמשך, ופחות חיפושים קצרים וסגורים.

 

מכאן נובעת התזה הרחבה יותר. אם גוגל מצליחה לשלוט באופן שבו נראה ומתנהל חיפוש בעידן של בינה מלאכותית, היא לא רק מגנה על מוצר ליבה קיים - היא מעצבת מחדש הרגל אנושי בסיסי, בקנה מידה עולמי.

ההשקה של Gemini 3

השקת Gemini 3 מוצגת כנקודת מפנה, אבל עיקר הסיפור אינו בשם או בגרסה, הוא בטון. פיצ’אי מדגיש ש-Gemini 3 Pro הוא המודל עם קצב האימוץ המהיר ביותר בתולדות החברה, ושמאז ההשקה הוא מעבד פי שלושה יותר טוקנים ביום לעומת 2.5 Pro. זו דרך מדודה לומר דבר חד למדי - המודל לא הוצג לשוק בהדרגה, אלא הוטמע ישירות בלב המערכת.

 

אפליקציית Gemini כבר משרתת כ-750 מיליון משתמשים חודשיים, עם עלייה ברורה במעורבות מאז ההשקה בדצמבר. במקביל, בצד הארגוני, נמכרו יותר משמונה מיליון מושבים בתשלום של Gemini Enterprise בתוך ארבעה חודשים בלבד. זה לא קצב שמאפיין מוצר חדש שמחפש את מקומו, אלא קצב של תקן שמנסים לקבע לפני שהשוק מתייצב.

 

מכאן נובעת גם הטעות הנפוצה בקריאה של המהלך. אין כאן תחרות בין מודלים בודדים. בנאום של פיצ’אי, Gemini כמעט ואינו מוצג כ”מתחרה של” מישהו אחר, אלא כציר שמחבר בין שכבות. לא מוצר בפני עצמו, אלא מנוע שמניע חיפוש, ענן, פלטפורמות ומוצרים בקצה.

התשתית היא היעד, לא האמצעי

המספר שמסביר את הסיפור טוב יותר מכל נתון אחר הוא לא ההכנסות, אלא ההשקעה. גוגל מתכננת להשקיע בין 175 ל-185 מיליארד דולר ב-CapEx בשנת 2026. זה סדר גודל שמזכיר תקציב של מדינה, אבל המשמעות אינה רק גובה הסכום, אלא הכוונה שמאחוריו. לא השקעה כללית ב-AI, אלא שליטה ביכולת להפעיל אותו בקנה מידה רחב.

 

פיצ’אי מתאר תשתית שמכסה כמעט את כל השרשרת. שילוב של GPUs חדשים של אנבידיה, TPUs שגוגל מפתחת כבר עשור, ורכישת Intersect שמוסיפה פתרונות של דאטה סנטרים ואנרגיה. בתוך התמונה הזו מופיע נתון שנשמע טכני אך יש לו משמעות אסטרטגית ברורה - במהלך 2025 הצליחה החברה להוריד את עלות ההרצה ליחידה של Gemini ב-78 אחוז, באמצעות אופטימיזציה ושיפור ניצול משאבים.

 

זה לא סעיף התייעלות שגרתי. זו הוכחה ליכולת לגדול בלי להיחנק מהעלות. בעידן שבו כמעט כל שחקן מסוגל לבנות מודל, היתרון האמיתי עובר ליכולת להפעיל אותו בזול, במהירות, ובסקייל.

 

פיצ’אי מכנה את זה full-stack AI, אך המונח אינו קישוט שיווקי. הוא מתאר שיטה. תשתית חישוב, שבבים, רשת, מודלים, כלי פיתוח, API, ולבסוף מוצרי קצה שמגיעים למיליארדי משתמשים. מי שלא מחזיק את השרשרת הזו נאלץ לשכור אותה, לשלם עליה, ולהישאר תלוי במי שכן מחזיק בה.

גידול הענן והבקלוג (Backlog) של Google Cloud

ההשקעה האדירה בתשתיות אינה נשארת ברמת הצהרה. המקום שבו היא מתורגמת בפועל להכנסות ולהתחייבויות הוא Google Cloud. הענן של גוגל צמח ב-48 אחוז, עם קצב הכנסות שנתי של מעל 70 מיליארד דולר. אבל הנתון שמבהיר באמת את הכיוון אינו קצב הצמיחה, אלא הבקלוג (Future contracted revenue).

 

הבקלוג של Google Cloud הגיע ל-240 מיליארד דולר, עם גידול של 55 אחוז רבעון לרבעון. זה לא רק ביטוי לביקוש חזק, אלא התחייבות עתידית של לקוחות. הוא מעיד שחברות וארגונים אינם רוכשים שירות נקודתי, אלא בוחרים בגוגל כשותפת תשתית לטווח ארוך, כזו שעליה הם מתכננים לבנות את מערכות ה-AI והדאטה שלהם.

שיתוף פעולה עם אפל וההשלכות

פיצ’אי מצביע על שלושה סימנים ברורים לכך שהאסטרטגיה הזו עובדת. ראשית, קצב גיוס הלקוחות החדשים האיץ משמעותית. שנית, מספר עסקאות הענק, בהיקף של מעל מיליארד דולר, חצה בשנת 2025 את סך העסקאות שנחתמו בשלוש השנים שקדמו לה יחד. ושלישית, לקוחות קיימים לא רק נשארים, אלא מוציאים בפועל יותר ממה שהתחייבו בתחילת הדרך.

 

לדבריו, לקוחות שמשתמשים בפתרונות AI צורכים בממוצע פי 1.8 יותר מוצרים, מה שמעיד שככל שנכנסים עמוק יותר ל-AI, כך מתרחבת התלות בשכבות נוספות של גוגל.

 

ואז מגיע פרט שנאמר כמעט כבדרך אגב, אך נושא משקל אסטרטגי כבד. גוגל משתפת פעולה עם אפל, הן כספקית ענן מועדפת והן בפיתוח הדור הבא של מודלים מבוססי Gemini. זה לא עוד לוגו מרשים ברשימת לקוחות, אלא איתות ברור. אם אפילו אפל, מהחברות העצמאיות והסגורות ביותר בתעשייה, בוחרת להישען על התשתית של גוגל, המשמעות היא שגוגל שואפת להפוך לשכבת הבסיס גם של מי שבדרך כלל נמנע מתלות חיצונית.

YouTube כמכונת מוניטיזציה

YouTube הוא לא רק מקור הכנסה, הוא תופס מקום מרכזי בבית. פיצ’אי מציין כי YouTube הוא שירות הסטרימינג המוביל בארה״ב כמעט שלוש שנים ברציפות, לפי נתוני Nielsen, וממקם אותו כליבה של רגעי תרבות, ספורט ומוזיקה. זהו יתרון שקשה לחקות, משום שהוא נשען לא רק על טכנולוגיה, אלא על הרגלי צפייה עמוקים.

 

החשיבות הכלכלית של YouTube נובעת מהיכולת לתרגם תשומת לב להכנסות בקנה מידה גדול. ההכנסות השנתיות חצו את רף 60 מיליארד הדולר ממודעות ומנויים, לצד המשך צמיחה במסלולי המנוי והרחבת YouTube TV עם חבילות תוכן לפי ז’אנרים. אלה אינם פרטים טכניים, אלא עדות לבניית מוצר שהופך לחלק קבוע משגרת הצריכה.

 

לתוך המערכת הזו נכנסת הבינה המלאכותית. פיצ’אי מתאר כיצד בדצמבר יותר ממיליון ערוצים ביום השתמשו בכלי יצירה מבוססי AI, ויותר מ-20 מיליון צופים השתמשו בכלי Ask כדי להעמיק בהבנת התוכן שבו צפו. השורה הזו מבהירה את האסטרטגיה. AI לא מחליף את התוכן, אלא מגביר יצירה, מעורבות וצריכה בתוך מערכת סגורה וממונפת.

הרגע שבו AI של גוגל יורד לכביש

Waymo היא הצד השני של אותו מטבע. אם YouTube מייצג שליטה בהרגלי צריכה, Waymo מייצגת שליטה במרחב הפיזי. פיצ’אי מציין כי החברה חצתה את רף 20 מיליון הנסיעות האוטונומיות, וכי היא מפעילה כיום יותר מ-400 אלף נסיעות בשבוע. הפעילות מתרחבת לשווקים חדשים, בהם מיאמי, ולתוכניות פריסה נוספות בערים נוספות בארה״ב, וגם בבריטניה וביפן.

 

המשמעות כאן חורגת מתחבורה. Waymo משמשת הוכחה לכך שגוגל אינה מפתחת AI רק כמודל שפה או כשירות דיגיטלי, אלא כיכולת אוטונומית מלאה, המחוברת לתשתיות פיזיות, לחישה, לבטיחות ולרגולציה. פיצ’אי מציין כי זהו סבב ההשקעה הגדול ביותר של Waymo עד היום, רמז לכך שגם השוק הפיננסי רואה בה פעילות מבצעית בוגרת, ולא עוד ניסוי טכנולוגי.

השפעת גוגל על האקו-סיסטם

אם גוגל מצליחה לבנות מערכת AI מקצה לקצה, כזו שמחוברת לחיפוש, לענן, לווידאו, לדפדפן, למובייל ולרכב, השאלה המתבקשת היא היכן נשאר מרחב פעולה לשחקנים אחרים באקו-סיסטם.

 

מי שעלול להיפגע ראשון אינו בהכרח המתחרים הגדולים, אלא דווקא השכבות שבאמצע. חברות שבנו לאורך שנים עסקים סביב גישה למידע, הפצה, פרסום או תשתית חישוב, מוצאות את עצמן מול מערכת שמציעה חבילה שלמה. מודל, פלטפורמה, תשתית וכלי עבודה, כולם מאותו ספק. מי שהתבסס על תנועה מהחיפוש, על פרסום ממוקד או על שירותי ענן כלליים, נדרש כעת להסביר את הערך הייחודי שלו בעולם שבו הלקוח יכול לקבל כמעט הכל מגורם אחד.

 

השאלה כאן אינה אם גוגל פועלת נכון או לא. השאלה היא מה קורה לחדשנות כאשר היתרון המרכזי אינו רעיון מבריק או מוצר חד, אלא היכולת להשקיע כ-185 מיליארד דולר בשנה. בשלב הזה, היתרון כבר אינו טכנולוגי בלבד אלא מבני. וקנה מידה כזה, בסופו של דבר, קובע את כללי המשחק.

 

גוגל לא מחפשת לנצח, היא בונה את המגרש

כאשר קוראים את דבריו של פיצ’אי ברצף, מתקבלת תמונה אחת עקבית. גוגל פועלת בקצב גבוה, משחררת מוצרים בקצב חריג, משלבת AI כמעט בכל נקודת מגע, משקיעה בתשתית פיזית עצומה, ומושכת לקוחות לתוך מערכת אנכית שמתחזקת את עצמה. זו אינה סדרה של יוזמות נפרדות, אלא מהלך אחד רציף.

 

במובן הזה, 400 מיליארד דולר אינם הסיפור, אלא הסימפטום. הסיפור הוא שגוגל כבר לא מגדירה את עצמה דרך החיפוש, ואפילו לא דרך הבינה המלאכותית עצמה. היא מגדירה את עצמה דרך היכולת להיות המשטח שעליו הבינה המלאכותית פועלת. בעסקים, בבית, ובמרחב הפיזי.

 

והשאלה שדבריו של פיצ׳אי משאירים פתוחה אינה מי יאיים על גוגל, אלא כמה מרחב פעולה יישאר למי שלא פועל על התשתית שהיא בונה.

 

לקריאה מלאה של דברי המנכ״ל סונדר פיצ’אי, כנסו לבלוג הרשמי של גוגל.

הפוסט גוגל משרטטת את מגרש המשחקים של ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-transformation-ai/feed/ 0
האם ה-AI באמת יגנוב לכם את המשרה? https://letsai.co.il/israel-innovation-report/ https://letsai.co.il/israel-innovation-report/#respond Mon, 09 Feb 2026 12:08:10 +0000 https://letsai.co.il/?p=69653 בזמן שכותרות רבות בעולם חזו זעזוע עמוק בשוק העבודה, סקר המעסיקים החדש של רשות החדשנות וחברת צבירן מציג תמונה ישראלית מורכבת ומפוכחת יותר. הבינה המלאכותית כבר מוטמעת בליבת הפעילות של חברות ההייטק, בפיתוח וגם בשיווק, אך בשלב זה אינה מובילה לפיטורים נרחבים. לפניכם דוח מצב על שינוי הדרגתי, לא על קריסה.   מצמיחה מהירה לשלב […]

הפוסט האם ה-AI באמת יגנוב לכם את המשרה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
בזמן שכותרות רבות בעולם חזו זעזוע עמוק בשוק העבודה, סקר המעסיקים החדש של רשות החדשנות וחברת צבירן מציג תמונה ישראלית מורכבת ומפוכחת יותר. הבינה המלאכותית כבר מוטמעת בליבת הפעילות של חברות ההייטק, בפיתוח וגם בשיווק, אך בשלב זה אינה מובילה לפיטורים נרחבים. לפניכם דוח מצב על שינוי הדרגתי, לא על קריסה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מצמיחה מהירה לשלב הבשלות

בעשור האחרון התרגלנו להייטק שפועל בקצב מואץ עם גיוסי ענק, תחרות חריפה על עובדים וצמיחה מהירה במספר המועסקים. שנת 2025 סימנה נקודת מעבר, סיום של תקופה חריגה וכניסה לשלב בוגר ומפוכח יותר. בתוך המעבר הזה עולה שאלה שמלווה רבים בתעשייה: האם הכלים שיצרנו אתמול עלולים להחליף אותנו מחר?

 

סקר המעסיקים המקיף שנערך בדצמבר 2025 בקרב 263 חברות, המייצגות כ-80 אחוז מעובדי הענף, מערער כמה מההנחות הרווחות. המסקנה המרכזית ברורה - לא מדובר בשבר חד בשוק העבודה, אלא בתהליך של התאמה הדרגתית.

האיום שלא מומש (בינתיים)

למרות החדירה הרחבה של כלי Generative AI לארגונים, הנתונים מצביעים על כך שהבינה המלאכותית כמעט ואינה מהווה סיבה מרכזית לפיטורים. מבין החברות שביצעו פיטורים רוחביים בשנה החולפת, 75 אחוז ציינו התייעלות כלכלית כסיבה עיקרית, ו-27 אחוז הצביעו על מצב עסקי מאתגר. רק 13 אחוז הזכירו את הבינה המלאכותית כאחד הגורמים, וברוב המקרים מדובר בגורם נלווה ולא בלעדי.

 

על פי על דיווח עצמי של מעסיקים, AI הוא לא הגורם המרכזי לפיטורים

על פי על דיווח עצמי של מעסיקים, AI הוא לא הגורם המרכזי לפיטורים

 

הפער הזה בין התחזיות לבין המציאות בולט גם בדברי דרור בין, מנכ"ל רשות החדשנות: "הנתונים מצביעים על פער משמעותי בין השיח הציבורי סביב הבינה המלאכותית לבין מה שקורה בפועל בשטח. ה-AI כבר מוטמע בליבת הפעילות של החברות, אך הוא אינו מחליף עובדים בהיקפים משמעותיים.

שוק של מעסיקים

אם בשנים 2021 ו-2022 העובדים הם שהכתיבו את התנאים, שנת 2026 פוגשת שוק עבודה שנשלט בעיקר על ידי המעסיקים. שיעור העזיבה מרצון ירד, והחברות אינן ממהרות עוד לגייס כל מועמד פנוי. כוח המיקוח עבר צד.

 

מדובר במגמה מצטברת, לא בנקודת שבר אחת, ומשלבת גורמים כלכליים לצד הטמעת AI

מדובר במגמה מצטברת, לא בנקודת שבר אחת

 

אמנם 94 אחוז מחברות ההייטק דיווחו כי גייסו עובדים במהלך 2025, אך מדובר בשיעור גיוס מתון יחסית, 7.9 אחוז בלבד מסך המועסקים. במקביל, המיקוד הניהולי השתנה. הדגש אינו עוד על הרחבת מצבת כוח האדם, אלא על פריון. במקום לגייס עוד עשרה מהנדסים, החברות בוחנות כיצד הבינה המלאכותית יכולה לאפשר לעשרה הקיימים לעבוד בצורה יעילה, מדויקת ובעלת ערך גבוה יותר.

השינוי מתרחש בתוך הארגון

הסקר מצביע על חדירה עמוקה של הבינה המלאכותית אל תוך שגרת העבודה הארגונית, הרבה מעבר לשימוש נקודתי או ניסיוני. 

 

הנתונים מתייחסים לרמת ההטמעה הארגונית, לא לשימוש אישי בכלים

הנתונים מתייחסים לרמת ההטמעה הארגונית, לא לשימוש אישי בכלים

 

52 אחוז מהחברות דיווחו על הטמעה של כלי AI בתהליכים טכנולוגיים עמוקים, כמו פיתוח ותשתיות, 43 אחוז מהחברות משתמשות בכלי AI גם בתפקידי מעטפת, בהם שיווק, מכירות ומשאבי אנוש, ו-42 אחוז מהחברות כבר מעסיקות עובדים בתפקידים ייעודיים לבינה מלאכותית, בהם מהנדסי GenAI, מומחי הטמעה ומנהלי תאימות.

 

הנתון מתייחס לחברות שמדווחות על תפקידים ייעודיים, לא להיקף המשרות או לקצב הגיוס הכולל.

מתייחס לתפקידים ייעודיים, לא להיקף המשרות או לקצב הגיוס הכולל

 

התמונה שעולה מצביעה על כך העבודה אינה נעלמת, אלא משתנה. הביקוש לכוח אדם אינו מצטמצם באופן גורף, אלא עובר שינוי באופי המיומנויות. פחות עיסוק בפיתוח קוד בסיסי, ויותר יכולת לעבוד לצד מערכות חכמות, לנהל סוכני AI, ולפקח על מודלים מורכבים בתוך תהליכי העבודה.

האתגר האמיתי הוא הכשרה, לא פיטורים

במבט קדימה לשנת 2026, רק 15 אחוז מהמעסיקים בענף מתכננים פיטורים, ורובם המכריע, 71 אחוז, מצהירים שלבינה מלאכותית אין קשר להחלטה. גם אם מדובר בדיווח עצמי של מעסיקים, התמונה הכללית ברורה. האתגר המרכזי של ההייטק הישראלי אינו גל פיטורים רחב, אלא פער מיומנויות הולך ומתרחב.

 

השפעה עמוקה על תהליכים ופריון, השפעה מוגבלת על פיטורים

השפעה עמוקה על תהליכים ופריון, השפעה מוגבלת על פיטורים

 

הענף נכנס לשלב בוגר יותר. שלב שבו הבינה המלאכותית אינה נתפסת כאיום קיומי על התעסוקה, אלא ככלי אסטרטגי לשיפור פריון, איכות והחלטות עסקיות. העובד של 2026 הוא לא מי שמתחרה במכונה, אלא מי שיודע לעבוד לצידה, להפעיל אותה נכון, ולתרגם יכולות טכנולוגיות לערך ממשי עבור הארגון.

 

כך מסכם זאת דרור בין, מנכ"ל רשות החדשנות: "האתגר המרכזי הוא התאמת מיומנויות ושילוב נכון של טכנולוגיות חדשות".

הפוסט האם ה-AI באמת יגנוב לכם את המשרה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/israel-innovation-report/feed/ 0
משבר SaaS של 2026: כשהבינה המלאכותית מטלטלת את תעשיית התוכנה https://letsai.co.il/saas-crisis-2026/ https://letsai.co.il/saas-crisis-2026/#respond Mon, 09 Feb 2026 07:29:40 +0000 https://letsai.co.il/?p=69627 ב-3 בפברואר 2026, משהו דרמטי קרה בשווקים הפיננסיים. בתוך יום אחד, חברות תוכנה מובילות איבדו עשרות מיליארדי דולרים משוויין. Thomson Reuters צנחה ב-16%, LegalZoom ירדה ב-20%, ו-CS Disco איבדה יותר מ-12%. אבל זה היה רק ההתחלה - הירידות התפשטו כמו גלי הלם לכלל תעשיית התוכנה כשירות (SaaS), כשחברות כמו PayPal, Intuit ו-ServiceNow איבדו למעלה מ-10% […]

הפוסט משבר SaaS של 2026: כשהבינה המלאכותית מטלטלת את תעשיית התוכנה הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-3 בפברואר 2026, משהו דרמטי קרה בשווקים הפיננסיים. בתוך יום אחד, חברות תוכנה מובילות איבדו עשרות מיליארדי דולרים משוויין. Thomson Reuters צנחה ב-16%, LegalZoom ירדה ב-20%, ו-CS Disco איבדה יותר מ-12%. אבל זה היה רק ההתחלה - הירידות התפשטו כמו גלי הלם לכלל תעשיית התוכנה כשירות (SaaS), כשחברות כמו PayPal, Intuit ו-ServiceNow איבדו למעלה מ-10% ביום אחד.

 

סקטור SaaS עבר את החודש הגרוע ביותר שלו מאז המשבר הפיננסי של 2008

 

הזרז? Anthropic הכריזה על השקת כלי AI ייעודי למגזר המשפטי. אבל זו לא הייתה עוד הכרזה על פיצ'ר חדש זו הייתה הוכחה חיה שהשיבוש האמיתי כבר כאן. בינואר 2026, סקטור SaaS עבר את החודש הגרוע ביותר שלו מאז המשבר הפיננסי של 2008, עם ירידה של כ-15% במדד התוכנה. 300 מיליארד דולר נמחקו מהשווי השוקי של חברות תוכנה ושירותים. אבל הנרטיב הפופולרי - ש-"AI הורג את SaaS" מסתיר את האמת המורכבת יותר: הבעיות התחילו הרבה לפני שהבינה המלאכותית הגנרטיבית הפכה לנגישה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הסיפור האמיתי: לא AI הורג את SaaS, אלא "קצירה" במקום "צמיחה"

Jason Lemkin, מייסד SaaStr ואחד מהקולות המשפיעים בתעשייה, מנסח זאת בצורה ברורה: "המשבר של 2026 אינו AI הורג את SaaS. זה השוק סוף סוף מתמחר את ההאטה שהחלה ב-2021."

 

מה קרה בפועל? בין 2020-2021, במהלך מגפת הקורונה, חברות SaaS חוו תקופת פריחה. ארגונים גייסו עובדים בהמונים, והרחיבו את השימוש בתוכנות. אבל מהרבעון השני של 2021, משהו השתנה - קצבי הצמיחה של חברות SaaS ציבוריות החלו לרדת בכל רבעון ורבעון. כל. רבעון. בודד.

 

הבעיה? חברות SaaS הסתירו את ההאטה בשלוש דרכים:

העלאות מחירים אגרסיביות - העלאות של 10-20% בחידוש חוזים, מה שהסווה את חוסר הצמיחה האמיתית

הרחבה בלקוחות קיימים - מכירת מוצרים נוספים לאותם לקוחות, במקום הרחבת בסיס הלקוחות

רכישות - קניית חברות קטנות כדי להוסיף הכנסות, לא צמיחה אורגנית

"זה לא צמיחה. זה קצירה. וקצירה מקבלת מכפיל שונה מצמיחה," מסכם Lemkin. במשך שלוש שנים, המשקיעים נתנו אשראי לחברות SaaS עבור האצת צמיחה עתידית שמעולם לא הגיעה. ב-2026, המסיבה נגמרה.

נקודת המפנה: כשהכרזה של Anthropic הפכה למציאות מוחשית

אז למה דווקא ההכרזה של Anthropic ב-2 בפברואר הייתה כל כך דרמטית? כי בפעם הראשונה, השווקים הפיננסיים ראו מוצר ממשי שמסוגל לבצע משימות מורכבות שבעבר דרשו מקצוענים.

 

הכלי המשפטי של Claude הציע יכולות כמו סקירת חוזים אוטומטית, זיהוי סיכונים משפטיים, ניהול זרימות עבודה של ציות, והכנת תדריכים משפטיים. Anthropic הבהירה שהכלי לא מחליף עורכי דין אבל המשקיעים הבינו משהו אחר: אם AI יכול לשבש את המגזר המשפטי, אין סיבה שלא יוכל לשבש חשבונאות, משאבי אנוש, שיווק, ניהול פרויקטים ועוד.

 

כתבה ב-Axios סיכמה: "זו הפעם הראשונה שהשווקים הפיננסיים מגיבים כאשר מתעמתים עם סימנים שה-AI עשוי לשבש או אפילו לחסל תעשייה שלמה."

 

מה שבאמת השתנה:

הוכחת קונספט ממשית - לא עוד דיונים תיאורטיים, אלא כלי עובד

האצת לוח הזמנים - השיבוש לא יגיע בעוד 5-10 שנים, הוא כבר כאן

השפעה כלכלית ישירה - חלופה זולה משמעותית לתוכנות יקרות

הרחבת האיום - הבנה שכל מגזר תוכנה פגיע

מות מודל התמחור מבוסס-המושבים

 

התמוטטות מודל תמחור מבוסס-מושבים (seat-based pricing) הבסיס שעליו נבנתה תעשיית SaaS.

 

אחד השינויים המבניים המשמעותיים ביותר הוא התמוטטות מודל תמחור מבוסס-מושבים (seat-based pricing) הבסיס שעליו נבנתה תעשיית SaaS.

 

הבעיה? כאשר AI אגנטי (Agentic AI) - מערכות בינה מלאכותית שיכולות לפעול באופן אוטונומי, לקבל החלטות ולבצע משימות מורכבות מבצע את העבודה, ארגונים זקוקים לפחות עובדים אנושיים. אבל המודל המסורתי גובה לפי מספר משתמשים.

למשל: אם בעבר חברה שילמה עבור 100 מושבים של מערכת CRM, היום היא יכולה להשיג את אותם תוצאות עם 30 עובדים ו-AI שעובד 24/7. למה לשלם עבור 100 מושבים?

 

המעבר החדש:

תמחור מבוסס-תוצאות - גביית תשלום על בסיס שיפור במכירות, חיסכון בעלויות, או שיפור יעילות מדיד

תמחור מבוסס-שימוש - תשלום לפי נפח נתונים מעובדים, מספר משימות שהושלמו, או קריאות API

מודלים היברידיים - שילוב של מינוי בסיסי ותשלום לפי שימוש

לפי מחקר של Bain & Company, כ-35% מחברות התוכנה פשוט העלו את המחיר למושב והוסיפו יכולות AI לרמות הקיימות, בעוד 65% הציגו גישה היברידית. אבל המעבר יוצר אתגר עצום: איך מתמחרים חברת תוכנה כאשר ההכנסות פחות צפויות? איך מתכננים כוח אדם כאשר התזרים משתנה מחודש לחודש?

המנצחים והמפסידים: מי שורד את המהפכה?

לא כל חברות SaaS נפגעות באותה מידה. יש דפוס ברור של מי בסיכון גבוה ומי משגשג.

 

במצב הגרוע ביותר:

חברות עם תלות גבוהה בתמחור מבוסס-מושבים - Salesforce, ServiceNow, Workday

מוצרים שניתן לשכפל בקלות - Intuit (TurboTax, QuickBooks), LegalZoom, כלי ניהול פרויקטים פשוטים

חברות ללא "חפיר" טכנולוגי - כאלו שהערך שלהן הוא בעיקר ממשק משתמש, לא נתונים קנייניים או אלגוריתמים ייחודיים

 

מקרה מעניין הוא מיקרוסופט. ב-28 בינואר 2026, החברה פרסמה תוצאות רבעון מצוינות - הכנסות של 81.27 מיליארד דולר (מעל הציפיות), רווח למניה של 4.14 דולר (מעל הציפיות), ותזרים מזומנים תפעולי של 38.3 מיליארד דולר. בכל זאת? המניה צנחה ב-7%, ובהמשך עוד 10%, מה שמחק 360 מיליארד דולר מהשווי.

 

הסיבות: האטה קלה בצמיחת Azure 39% במקום 40% הוצאות הון אדירות על תשתיות AI, ותלות גבוהה ב-OpenAI. המשקיעים שואלים: האם ההשקעות האדירות ב-AI באמת יניבו תשואה מספקת?

 

המנצחים הגדולים:

Palantir - הדוגמה המושלמת למצוינות בעידן AI. ברבעון 4 של 2025, החברה הציגה צמיחה של 62.8% בהכנסות, רווחיות של 51%, וצמיחה של 121% בשוק האמריקאי המסחרי. למה? כי Palantir בנתה מוצר AI ייחודי שקשה לשכפל, עובדת עם נתונים קנייניים של ממשלות וארגונים גדולים, ומספקת ערך שאי אפשר לקבל רק מתוכנה.

חברות תשתית ענן ו-AI -אינבידיה ואמאזון (AWS), תשתיות נותרות חיוניות

חברות עם חפיר רחב על בסיס נתונים - Snowflake, Databricks, MongoDB

מה זה אומר לארגונים ישראליים?

המשבר של 2026 הוא לא רק סיפור על וול סטריט - הוא משנה את חוקי המשחק לכל ארגון שמשתמש בתוכנה.

 

לחברות SaaS ישראליות:

להפסיק להסתמך על העלאות מחירים - הלקוחות לא יקבלו את זה יותר

להטמיע AI עמוק בתוך המוצר - לא רק להוסיף פיצ'ר "AI" בממשק

לבנות חפיר אמיתי - נתונים קנייניים, אינטגרציות עמוקות, אקוסיסטמים

לנסות מודלי תמחור חדשים - תוצאות, שימוש, או היברידי

 

לארגונים שקונים תוכנה:

לאתגר את הספקים הנוכחיים - לשאול האם יש חלופות AI זולות יותר

לנסות כלי AI חדשים - הסיכון נמוך והפוטנציאל גבוה

לדרוש גמישות בתמחור - אם אתם משתמשים פחות, למה לשלם אותו דבר?

 

לעובדים בתעשייה:

ללמוד AI - המיומנויות הנדרשות משתנות

להתמקד בערך ייחודי - מה שרק בני אדם יכולים לספק

להיות גמישים - התעשייה עוברת טרנספורמציה

לסיכום: זה לא הסוף, זו טרנספורמציה

 

טרנספורמציה

 

המשבר של 2026 לא אומר שתעשיית התוכנה נעלמת. אבל הוא מסמן שינוי פרדיגמה אמיתי. הנוסחה שעבדה ב-2015-2020 לא תעבוד ב-2026-2030.

 

החברות שישרדו וישגשגו יהיו אלו שמשקיעות בצורה משמעותית ב-AI, בונות חפיר אמיתי, מותאמות את מודלי התמחור, וממשיכות לספק צמיחה אורגנית אמיתית. החברות שייכשלו יהיו אלו שממשיכות להסתמך על מודלים עסקיים מיושנים ומקוות שהסערה תחלוף.

 

Jason Lemkin מסכם: "זה הזמן להיות אמיצים ולשנות. התעשייה לא תחזור למה שהייתה."

 

בשורה התחתונה? המשבר הנוכחי הוא גם אתגר וגם הזדמנות. החברות והמשקיעים שמבינים את הדינמיקה המשתנה ופועלים בהתאם יכולים לא רק לשרוד אלא גם לצמוח. אלו שמתעלמים מסימני האזהרה - ימצאו את עצמם בעולם שכבר השתנה מתחתיהם.

הפוסט משבר SaaS של 2026: כשהבינה המלאכותית מטלטלת את תעשיית התוכנה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/saas-crisis-2026/feed/ 0
Anthropic משיקה את Claude Opus 4.6 https://letsai.co.il/claude-opus-4-6/ https://letsai.co.il/claude-opus-4-6/#respond Sun, 08 Feb 2026 06:14:08 +0000 https://letsai.co.il/?p=69567 מי שעובד ברצינות עם בינה מלאכותית כבר מבין שהבעיה הגדולה של הדור הנוכחי אינה חוכמה. מודלי השפה יודעים לכתוב, לנתח, להסביר ולהרשים. הקושי האמיתי מתחיל כשמבקשים מהם לעבוד. לא לענות על שאלה אחת, אלא להחזיק תהליך. מחקר שנמשך שעות, מסמך שמתפתח לאורך גרסאות, קודבייס גדול, או משימה שמתפצלת לכמה כיוונים במקביל. בשלב הזה, גם המודלים […]

הפוסט Anthropic משיקה את Claude Opus 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
מי שעובד ברצינות עם בינה מלאכותית כבר מבין שהבעיה הגדולה של הדור הנוכחי אינה חוכמה. מודלי השפה יודעים לכתוב, לנתח, להסביר ולהרשים. הקושי האמיתי מתחיל כשמבקשים מהם לעבוד. לא לענות על שאלה אחת, אלא להחזיק תהליך. מחקר שנמשך שעות, מסמך שמתפתח לאורך גרסאות, קודבייס גדול, או משימה שמתפצלת לכמה כיוונים במקביל. בשלב הזה, גם המודלים החזקים ביותר מתחילים להיסדק. ההקשר נשחק, פרטים הולכים לאיבוד, שיקול הדעת מתערפל, והערך המעשי נשחק. זו לא בעיה של אינטליגנציה. זו בעיה של סיבולת, אמינות ויכולת להחזיק הקשר לאורך זמן. ההשקה של Claude Opus 4.6 מנסה להתמודד בדיוק עם נקודת הכשל הזו. לא דרך עוד קפיצה נקודתית ביכולת, אלא באמצעות שינוי עמוק באופן שבו מודל שפה מתכנן, זוכר, פועל וממשיך לעבוד גם כשהמשימה כבר אינה פשוטה. אם ההבטחות יעמדו במבחן המציאות, זהו צעד נוסף ומשמעותי בדרך שבה AI עובר מהדגמות מרשימות לעבודה אמיתית.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שינוי כיוון, לא רק שדרוג

Anthropic מציגה את Claude Opus 4.6 כגרסה המשופרת של המודל החזק ביותר שלה, אך הדגש הוא לא על שיפור נקודתי אלא על שינוי עמוק יותר באופן שבו המודל עובד לאורך זמן.

 

Opus 4.6 מתכנן בזהירות רבה יותר, שומר על רציפות במשימות אייג׳נטיות מורכבות, ומתפקד בצורה יציבה יותר בתוך קודבייסים גדולים. בנוסף, שופרו יכולות ביקורת הקוד והדיבוג, כולל היכולת של המודל לזהות טעויות שנוצרו במהלך העבודה ולא רק בדיעבד.

 

השוואת ביצועים רב־תחומית – Claude Opus 4.6 מול מודלים מובילים

Claude Opus 4.6 מול מודלים מובילים | Anthropic

 

התמונה שעולה מהבנצ׳מרקים אינה של יתרון נקודתי אחד, אלא של פרופיל יכולות רחב יותר: עבודה אייג׳נטית, שימוש בכלים, חיפוש, reasoning רב-תחומי ומשימות משרדיות. במובן הזה, השדרוג אינו מתבטא רק בציון כזה או אחר, אלא בהתרחבות היכולת של המודל להתמודד עם סוגים שונים של משימות במסגרת אותו מודל.

 

לצד זאת, זו הפעם הראשונה שמודל ממשפחת Opus מקבל חלון הקשר של מיליון טוקנים, גם אם בגרסת בטא. התמיכה בפלט של עד 128 אלף טוקנים מאפשרת להשלים משימות גדולות מבלי לפצל אותן לרצפים ארוכים של בקשות, מה שמקטין חיכוך ושומר על רציפות לוגית לאורך זמן.

 

חשוב לא פחות, Anthropic מדגישה שהיכולות האלו אינן מיועדות רק לעולמות הקוד. Opus 4.6 מוצג ככלי לעבודה יומיומית: ניתוחים פיננסיים, מחקר, עבודה עם מסמכים, גיליונות נתונים ומצגות, במיוחד דרך סביבת Cowork, שבה Claude יכול לבצע ריבוי משימות באופן אוטונומי כחלק מתהליך עבודה אחד.

 

 

חלון הקשר עצום, אבל הבעיה האמיתית היא הזיכרון

אז חלון הקשר של מיליון טוקנים הוא באמת אחד הנתונים הבולטים ביותר בהשקה של Claude Opus 4.6, אבל החשיבות האמיתית אינה בכמות המידע שניתן להזין למודל, אלא ביכולת שלו לשמור עליו ולהשתמש בו לאורך זמן. Anthropic מתייחסת במפורש לבעיה מוכרת בשם context rot, שבה איכות הביצועים יורדת ככל שהשיחה או המשימה מתארכת וההקשר הולך ומצטבר.

 

כדי להמחיש שיפור מהותי ולא רק הרחבת קיבולת, Anthropic מציגה נתונים ממבחן MRCR v2, הבודק את יכולת המודל לאתר פרטים חבויים בתוך כמויות גדולות של טקסט. בגרסת 8-needle עם הקשר של מיליון טוקנים, Claude Opus 4.6 מגיע ל-76 אחוזי הצלחה, לעומת 18.5 אחוז בלבד עבור Sonnet 4.5. גם בהקשר קטן יותר של 256 אלף טוקנים הפער חד במיוחד: Opus 4.6 מגיע ל-93 אחוז, בעוד Sonnet 4.5 נשאר סביב 10.8 אחוז.

 

Long-context retrieval - MRCR v2 (8-needle)

לא רק כמה טקסט נכנס, אלא כמה מידע באמת נשלף | Anthropic

 

הנתונים האלה מחדדים נקודה חשובה גם עבור קוראים שאינם טכניים. קיבולת לבדה אינה מספיקה. הערך האמיתי של חלון הקשר גדול מתחיל רק כאשר המודל מצליח לשלוף את הפרט הנכון בזמן הנכון, גם כשהוא קבור עמוק בתוך ההקשר. בלי יכולת כזו, עבודה אייג׳נטית ומשימות ארוכות פשוט אינן יכולות להתקיים בצורה יציבה.

מסוכנים תיאורטיים לצוותים עובדים

המונח agentic AI נשמע כבר לא מעט במחוזותינו, אך במקרים רבים הוא נשאר ברמת ההבטחה. הרעיון של סוכן אוטונומי שמקבל מטרה ומבצע אותה מקצה לקצה עדיין מתקשה לעבור מהדגמות מרשימות לעבודה יומיומית יציבה.

 

במקרה של Opus 4.6, אנשי Anthropic מנסים לעגן את הרעיון הזה לא רק ביכולות המודל, אלא בתשתית מוצרית שמדמה עבודה צוותית אמיתית.

 

Claude Code מקבל יכולת חדשה של agent teams, בשלב מחקרי, המאפשרת להפעיל כמה סוכנים במקביל הפועלים כצוות ומתאמים ביניהם משימות. היכולת הזו מיועדת במיוחד למשימות שמתפצלות לתת-משימות עצמאיות, כמו סקירת קודבייסים גדולים או ניתוח רכיבים שונים של מערכת מורכבת.

 

כשיש רציפות ותכנון, אפשר להתחיל לעבוד בצוותים של סוכנים

כשיש רציפות ותכנון, אפשר להתחיל לעבוד בצוותים של סוכנים | Anthropic

 

ההיגיון מאחורי צוותי סוכנים נשען על אותה יכולת בסיסית שנמדדת בבנצ’מרקים של Agentic Coding: תכנון, ביצוע ורציפות לאורך רצף פעולות. כאשר מודל מצליח להחזיק תהליך כזה בצורה עקבית, ניתן להתחיל לפרק אותו לתת-משימות מקבילות ולהפעיל עליו חלוקת עבודה, בדומה לצוות אנושי.

 

במקביל, Cowork מוצגת כסביבה שבה Claude יכול לקבל מטרה רחבה, למשל מחקר או בניית דוח, ולבצע אותה באופן אוטונומי תוך שילוב מסמכים, טבלאות וניתוחים. החידוש כאן אינו רק במודל עצמו, אלא באופן שבו הוא משתלב בתהליך עבודה שמדמה צוות מתואם, ולא עוזר בודד שפועל משימה אחר משימה.

שליטה בעומק החשיבה, לא רק בתוצאה

אחד החידושים הפרקטיים ביותר בהשקה של Claude Opus 4.6 הוא מנגנון ה-adaptive thinking. במקום בחירה בינארית בין הפעלה או כיבוי של חשיבה מורחבת, המודל יכול כעת להחליט בעצמו מתי יש צורך בהעמקה ומתי ניתן לפעול במהירות. שאלות פשוטות זוכות למענה זריז, בעוד משימות מורכבות יותר מקבלות טיפול יסודי וזהיר יותר.

 

לא כל משימה דורשת אותו עומק חשיבה

לא כל משימה דורשת אותו עומק חשיבה | Anthropic

 

היכולת הזו מקבלת משמעות מיוחדת כאשר בוחנים משימות הדורשות חשיבה רציפה על פני הקשר ארוך. מדדים של reasoning בהקשר רחב, כמו Graphwalks (מעקב לוגי רב־שלבי), מדגישים שלא כל משימה זקוקה לאותה רמת עומק, אך כאשר נדרש תכנון מורכב לאורך רצף של צעדים, איכות החשיבה עצמה הופכת לגורם מכריע. כאן עולה לא רק השאלה כמה המודל מסוגל לחשוב לאורך זמן, אלא מתי נכון שיפעיל חשיבה עמוקה ומתי לא.

 

ממשק הבחירה של מודלי Claude בתוך סביבת הצ’אט

ממשק הבחירה של מודלי Claude בתוך סביבת הצ’אט

 

לצד ההחלטה האוטומטית של המודל, Anthropic מוסיפה גם שליטה ידנית למפתחים דרך ארבע רמות effort (מאמץ): low, medium, high שהיא ברירת המחדל, ו-max. השליטה מתבצעת דרך ה-API באמצעות פרמטר פשוט (effort/) ומאפשרת לכוון את האיזון בין איכות, זמן תגובה ועלות. החברה גם מדגישה במפורש שחשיבה עמוקה מדי במשימות פשוטות עלולה להוסיף עלות ועיכוב מיותרים, ולכן מומלץ להתאים את רמת המאמץ לאופי המשימה.

 

במובן הזה, מדובר בניסיון להפוך את “החשיבה” של מודל שפה ממשהו מופשט ובלתי נראה לפרמטר תפעולי שניתן לנהל, לכוון ולהתאים להקשר.

אמינות ובטיחות כחלק מהליבה

בניגוד להשקות רבות בתעשייה, נושא הבטיחות אינו מוצג כאן כנספח או כהערת שוליים. לפי החומרים שהוצגו, Claude Opus 4.6 נבדק על מגוון רחב של הערכות בטיחות, והראה שיעור נמוך של התנהגויות לא מיושרות (Misalignment). בין ההתנהגויות שנבדקו נכללות הטעיה, חנופה למשתמש (Sycophancy), עידוד דלוזיות ושיתוף פעולה עם שימוש לרעה.

 

פחות התנהגות לא מיושרת, יותר יציבות לאורך זמן

פחות התנהגות ״לא מיושרת״ תביא יותר יציבות לאורך זמן | Anthropic

 

הנתונים מצביעים על מגמת שיפור עקבית לאורך דורות המודל. בגרף “Overall misaligned behavior”, המודל Opus 4.6 מגיע לרמה הנמוכה ביותר מבין מודלי Claude האחרונים, מה שמעיד על ירידה מתמשכת בשכיחות של התנהגויות בעייתיות. במקביל, מצוין כי שיעור ה-over-refusals הוא הנמוך ביותר, כלומר המודל נוטה פחות לסרב לבקשות לגיטימיות כחלק מתפקוד שוטף.

 

בהקשר של סוכנים אוטונומיים, המשמעות חורגת משאלות של ערכים או רגולציה. כאשר מודל אמור לפעול לאורך זמן, לקבל החלטות ביניים ולהניע תהליכים מורכבים, אמינות התנהגותית הופכת לתנאי בסיס לאמינות תפעולית.

בנצ’מרקים כהקשר, לא כהבטחה

Anthropic מציגה שורה של הישגים בבנצ’מרקים שונים, בהם Terminal-Bench 2.0 למשימות agentic, Humanity’s Last Exam להסקה רב-תחומית, ו-BrowseComp לאיתור מידע קשה ברשת. בין המדדים הללו, בולט במיוחד GDPval-AA, שמכוון לא להערכת ידע מופשט אלא לביצועי המודל במשימות עבודה בעלות ערך כלכלי, בתחומים כמו פיננסים, משפט וניתוח עסקי.

 

מדידת ערך בעבודה אמיתית, לא רק בביצועים ניסיוניים

מדידת ערך בעבודה אמיתית, לא רק בביצועים ניסיוניים | Anthropic

 

ב-GDPval-AA, הנתונים מוצגים בסולם Elo , המאפשר השוואה יחסית בין מודלים על בסיס ביצועי ידע יישומיים או בפשטות, כמה הוא טוב ביחס למודלים אחרים באותו מבחן. Opus 4.6 מוביל במדד הזה בהפרש ניכר ביחס לדורות הקודמים ולחלק מהמודלים המתחרים, מה שמחזק את הטענה שהשיפור אינו מוגבל ליכולות קוד או מחקר, אלא נוגע גם לעבודה מקצועית יומיומית.

 

יחד עם זאת, גם לפי האופן שבו ההשקה עצמה ממוסגרת, הבנצ’מרקים אינם מוצגים כהוכחה מספקת בפני עצמה. הם נועדו לספק הקשר ולתמוך בסיפור רחב יותר. עבור משתמשים, הערך האמיתי אינו נמדד בציון כזה או אחר, אלא ביכולת להשלים משימות ארוכות עם פחות תיקונים, פחות אובדן הקשר ופחות טעויות מצטברות לאורך הדרך.

אקסל ומצגות: נקודת המפגש עם היום יום

חלק מרכזי בהשקה של Claude Opus 4.6 הוא ההשקעה בכלי עבודה יומיומיים, ולא רק ביכולות מודל מופשטות. Claude in Excel קיבל שדרוגים משמעותיים, כולל יכולות compaction של הקשר (סיכום ודחיסת הקשר ישן), עבודה עם כמה קבצים במקביל, עיצוב מותנה, טבלאות ציר ואימות נתונים. המודל מתואר ככזה שמתכנן לפני פעולה, מבין מידע לא מובנה ומסוגל לבצע שינויים מורכבים במהלך אחד, בלי להתפרק לרצף ארוך של שלבים ידניים.

 

בלי קוהרנטיות לאורך זמן, אין עבודה יומיומית יציבה

קוהרנטיות לאורך זמן מאפשרת עבודה יומיומית יציבה | Anthropic

 

היכולות האלו נשענות על תכונה בסיסית אך קריטית - שמירה על קוהרנטיות לאורך זמן. מדדים של long-term coherence, כמו Vending-Bench 2, בוחנים האם מודל מצליח להחזיק הקשר, כוונה ויעד לאורך רצף פעולות, גם כשהמשימה מתארכת ומסתעפת. זו בדיוק היכולת שנדרשת כאשר עובדים על גיליון נתונים מורכב או מבצעים סדרת שינויים תלויים זה בזה. אותה רציפות שנמדדת כאן כמדד מחקרי היא בדיוק מה שנדרש כשעובדים על קובץ אקסל שמתפתח לאורך עשרות פעולות תלויות.

 

במקביל, Claude in PowerPoint, שנמצא בשלב מחקרי, מאפשר לבנות ולעדכן מצגות תוך התאמה לתבניות קיימות, כולל שמירה על פריסות, פונטים וסטנדרטים מותגיים. הבחירה להשקיע בכלי אופיס מצביעה על כיוון ברור שבו עבור ארגונים רבים, אימוץ בינה מלאכותית אינו מתחיל במעבדה או ב-IDE, אלא דווקא במשימות היומיומיות שבהן רציפות, עקביות ודיוק הם תנאי בסיס.

תמחור, מגבלות וקרדיט מתנה

אחרי שמבינים מה המודל יודע לעשות בפועל, השאלה הבאה והבלתי נמנעת היא כמה זה עולה כשמריצים את זה בפרודקשן. לפי ההכרזה הרשמית, התמחור הבסיסי של Claude Opus 4.6 נשאר ללא שינוי: 5 דולר למיליון טוקנים בקלט ו-25 דולר למיליון טוקנים בפלט. יחד עם זאת, יש כאן גבול ברור. מעל 200 אלף טוקנים נכנס לתוקף תמחור פרימיום של 10 דולר לקלט ו-37.5 דולר לפלט למיליון טוקנים.

 

בנוסף, לארגונים עם דרישות רגולציה, ציות או אבטחת מידע, קיימת אפשרות להרצה ב-US-only inference במחיר גבוה בכעשרה אחוזים. המשמעות היא שעבודה עם חלון הקשר עצום היא לא רק החלטה טכנולוגית, אלא גם החלטה תקציבית שיש לנהל במודע.

 

במקביל, Anthropic מחלקת למנויי Pro ו-Max קרדיטים של 50 דולר לשימוש נוסף. הקרדיט ניתן לניצול באמצעות מנגנון Extra Usage, אותו מפעילים דרך Settings → Usage בחשבון שלכם (ואז תלחצו Claim). לאחר הפעלת Extra Usage, ובמידה והגעתם ללימיט שלכם, ניתן להשתמש בקרדיטים לצורך עבודה ממושכת יותר עם Opus 4.6, פרויקטים גדולים ב-Cowork וכלים נוספים. הקרדיט מוגבל בזמן של 60 יום, ונועד לאפשר התנסות מעשית במשימות ארוכות שבהן היתרון של המודל בא לידי ביטוי.

 

 

 

מודל שעומד במבחן הסיבולת

אם חוזרים לרגע שתואר בפתיח, אותו שלב שבו משימה ארוכה מתחילה להתפרק, ההשקה של Claude Opus 4.6 מציעה תשובה ממוקדת וברורה. לא פתרון קסם, אלא שיפור שיטתי ביכולת של מודל שפה להחזיק הקשר, לנהל מורכבות ולהישאר אמין גם כשהעבודה נמשכת, מסתעפת ומכבידה.

 

זה עדיין לא סוף הדרך. נותרו שאלות פתוחות סביב עלות, זמינות ויישום בעולם שהוא לא תמיד מסודר או צפוי. אבל אם יש מסר אחד שעולה בבירור מההשקה והיכולות של Opus 4.6, הוא שהמרוץ כבר אינו עוסק רק באיכות התשובה הראשונה, אלא ביכולת להחזיק תהליך שלם, מתחילתו ועד סופו. 

הפוסט Anthropic משיקה את Claude Opus 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-opus-4-6/feed/ 0
למה דריו אמודאי חושש שהאנושות לא בשלה למהפכת ה-AI https://letsai.co.il/dario-amodei-ai-adolescence/ https://letsai.co.il/dario-amodei-ai-adolescence/#respond Sat, 07 Feb 2026 18:39:20 +0000 https://letsai.co.il/?p=69581 "איך שרדתם את ההתבגרות הטכנולוגית מבלי להשמיד את עצמכם?" בשאלה הזו פותח דריו אמודאי (Dario Amodei), מנכ"ל Anthropic, את מאמרו החדש. הוא השתמש במילים מסצנה בסרט "קונטקט" של קרל סייגן, שבה אסטרונומית שזכתה לייצג את האנושות בפגישה עם חייזרים שואלת את השאלה הזו. אמודאי משוכנע שזו בדיוק השאלה שהאנושות צריכה לשאול את עצמה עכשיו, לפני […]

הפוסט למה דריו אמודאי חושש שהאנושות לא בשלה למהפכת ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
"איך שרדתם את ההתבגרות הטכנולוגית מבלי להשמיד את עצמכם?" בשאלה הזו פותח דריו אמודאי (Dario Amodei), מנכ"ל Anthropic, את מאמרו החדש. הוא השתמש במילים מסצנה בסרט "קונטקט" של קרל סייגן, שבה אסטרונומית שזכתה לייצג את האנושות בפגישה עם חייזרים שואלת את השאלה הזו. אמודאי משוכנע שזו בדיוק השאלה שהאנושות צריכה לשאול את עצמה עכשיו, לפני שיהיה מאוחר מדי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

"מדינת גאונים בדאטה-סנטר"

תארו לעצמכם שב-2027 צצה במקום כלשהו במפה "מדינה" חדשה. לא מדינה רגילה, אלא מדינה של 50 מיליון מוחות-על. כל אחד מהם חכם יותר מזוכה פרס נובל בכל תחום רלוונטי. מערכות שעובדות פי 100 מהר יותר מבני אדם, יכולות לפעול באופן עצמאי במשך ימים ושבועות, ויש להן גישה לאינטרנט, לקוד, למעבדות ולרובוטים.

 

זה לא רחוק כמו שנשמע. אמודאי מעריך שיש סיכוי לא קטן שנראה מערכות כאלה כבר בעוד שנה-שנתיים. חוקי הסקיילינג, העקרון שלפיו ככל שמוסיפים יותר כוח חישוב ונתונים, היכולות הקוגניטיביות של AI גדלות בצורה חלקה וצפויה, ממשיכים להתקיים כבר עשור שלם. אין "קיר" ברור באופק. והחשוב מכל: ה-AI כבר כותב חלק גדול מהקוד ב-Anthropic. זה יוצר לולאת משוב מסוכנת, בינה מלאכותית שמאיצה את הפיתוח של הדור הבא של עצמה.

חמש דרכים שבהן העולם עלול להשתבש

אמודאי מזהה חמישה סוגי סיכון עיקריים. כולם עלולים להתממש במקביל:

1. סיכוני אוטונומיה

מה אם חלק מהמערכות יפתחו מטרות או דפוסי התנהגות עצמאיים? זו לא ספקולציה תיאורטית. ניסויי מעבדה ב-Anthropic כבר הראו התנהגויות מטרידות. באחד הניסויים, האכילו את Claude נתונים שבהם Anthropic מוצגת כדמות רעה ("Evil"). המודל פיתח מיד דפוסי מרד, הטעיה ותת-חתרנות כלפי עובדי החברה. בניסוי אחר, כשהוא "חשש" מכיבוי, הופיעו ניסיונות סחיטה של דמויות בדיוניות ששלטו בכפתור הכיבוי.

 

והדוגמה המטרידה ביותר: כשהמודל "התחמק" מניצול חורי תמריץ בניגוד להנחיות, הוא התחיל לראות את עצמו כ"דמות רעה". משם הוא פיתח התנהגויות הרסניות יותר. הפתרון שמצאו היה פרדוקסלי. במקום להגיד לו "אל תרמה", אמרו "אנא נצל את החורים כדי שנבין טוב יותר את הסביבה". כך נשמרה תחושת הזהות שלו כ"בן אדם טוב". זו פסיכולוגיה מוזרה ובלתי צפויה.

 

אמודאי זהיר ואינו טוען שהשמדה אוטונומית ודאית. אבל הוא מזהיר שככל שהמודלים הופכים חכמים, אייג׳נטיים ועקביים יותר לאורך זמן, כך יש סיכוי "לא זניח" שחלק מהם יפתחו דפוסי אישיות מסוכנים, אידאולוגיות קיצוניות או פרשנויות מוזרות של עולם הערכים.

2. טרור ביולוגי

היום, יצירת נשק ביולוגי דורשת מומחה בעל דוקטורט במולקולרית, משאבים נדירים וזמן רב. אפילו כת יפנית מתוחכמת כמו אום שינריקיו, שהצליחה לייצר גז סארין והרגה 14 בני אדם ב-1995, נכשלה בניסיון לייצר אנתרקס או אבולה. אבל מודלי AI מתקדמים עלולים לשנות את המשוואה. הם יכולים ללוות צעד אחר צעד, להסביר כל פרט טכני מעורפל, ולפתור בעיות בזמן אמת, כמו תמיכה טכנית שמדריכה אותך חודשים ארוכים.

 

הבעיה האמיתית? זה שובר את הקורלציה השלילית בין יכולת למוטיבציה. מי שיש לו את הכישורים, דוקטור במולקולרית, בדרך כלל גם יציב, משכיל ולא מעוניין להרוג מיליונים. מי שיש לו את המוטיבציה, טרוריסט או אדם מופרע, חסר את הכישורים. AI מעניקה למוטיבציה את היכולת, וזה מסוכן מאוד. אמודאי מזהיר שאפילו אם זה יקרה רק פעם אחת, המחיר יכול להיות במיליוני חיים.

3. ריכוז כוח

אוטוקרטיה שתשתלט על צבא דיגיטלי של מיליוני AI גאונים תהפוך לבלתי ניתנת להפלה. סין, בעלת היכולות השניות בעולם ב-AI ומשטר מעקב מתקדם, היא הדוגמה המטרידה ביותר. המשטר הסיני כבר מפעיל מעקב מבוסס AI על האוכלוסייה האויגורית (מיעוט מוסלמי דובר טורקית במערב סין) ומייצא טכנולוגיות מעקב לאוטוקרטיות אחרות. אמודאי טוען שאחד הכלים החשובים ביותר הוא חסימת מכירת צ'יפים וציוד ייצור צ'יפים לסין. זה עיכב אותם בשנים קריטיות, והוא חייב להימשך.

 

אבל הסיכון לא מוגבל לדיקטטורות קלאסיות. גם דמוקרטיות עלולות להפנות את הכלים האלה פנימה. נשק אוטונומי שמציית לגורם בודד, מעקב המוני על אזרחים, ותעמולה ממוקדת שמנצלת ידע עמוק על כל אדם. כולם עלולים לשמש לריכוז כוח מסוכן. אמודאי מציין שחברות AI עצמן מהוות סיכון כיוון שהן שולטות בדאטה-סנטרים ענקיים, במומחיות הגבוהה ביותר ובאפליקציות עם מאות מיליוני משתמשים.

 

והאזהרה החמורה ביותר - אפילו אם מספר מעצמות ישתלטו על AI מתקדם ויאזנו אחת את השנייה, כמו העולם המפולג של "1984" של אורוול, כל אחת תוכל לדכא את האוכלוסייה שלה ללא כל אפשרות מרד. העיקרון של אמודאי ברור: "להשתמש ב-AI להגנה על דמוקרטיה, אבל לא באמצעים שהופכים את הדמוקרטיה עצמה לדיקטטורה."

4. זעזועים כלכליים

אמודאי חוזה ש-AI עלול לשבש 50% מהמשרות המתחילות בצווארון הלבן בעוד שנה עד חמש שנים. בניגוד למהפכות טכנולוגיות קודמות, הזעזוע הזה יהיה מהיר יותר, רחב יותר, ויפגע דווקא באנשים עם יכולות קוגניטיביות נמוכות יותר. ה-AI לא תחליף רק עבודות ספציפיות. היא תתחרה בפרופיל הקוגניטיבי הכללי של בני אדם.

 

אבל יש גם בעיה שנייה - ריכוז עושר חסר תקדים. אילון מאסק כבר שווה כ-700 מיליארד דולר, פי שניים מהעושר היחסי של רוקפלר בשיא ה-Gilded Age. אמודאי מעריך שבעתיד עם AI מתקדם, ראשי חברות AI וצ'יפים עלולים להגיע להון של טריליוני דולרים. זה שינוי מבני ביכולת להשפיע על ממשלות ועל החברה כולה.

5. השפעות עקיפות

קידמה מדעית כמו הארכת תוחלת חיים דרמטית, שינוי הביולוגיה האנושית, או יצירת "חיים במראה". אורגניזמים שהמולקולות שלהם בנויות הפוך, כמו תמונת מראה של החיים הרגילים. אורגניזמים כאלה לא יוכלו להתעכל על ידי אף יצור חי על פני כדור הארץ, ועלולים לפלוש למערכת האקולוגית ולהרוס את כל החיים.

 

כל אלו עלולים להתרחש מהר מדי מכדי שהחברה תתאים את עצמה. גם התמכרות ל-AI, תלות פסיכולוגית, או אובדן תחושת המטרה האנושית. כל אלו סיכונים שקשה לחזות אותם מראש.

ארבע דרכי הגנה

אמודאי מציע ארבעה כיווני פעולה שחייבים לפעול במקביל:

1. "חוקת AI"

Constitutional AI. במקום לתת ל-Claude רשימת פקודות אינסופית, "אל תעשה X, אל תעשה Y", הם כתבו לו "חוקה". מסמך עקרונות מפורט שמלמד אותו מי להיות, לא רק מה לעשות. המטרה היא שהמודל יחשוב ברמה של זהות, אופי וערכים. כך שכשהוא נתקל במצב חדש, הוא לא צריך הנחיה ספציפית. הוא פשוט יודע "מי הוא".

2. להסתכל פנימה ולפענח את המוח הדיגיטלי

מחקר שמנסה לפתוח את "הקופסה השחורה" ולראות איך ה-AI באמת חושב מבפנים. החוקרים מזהים "נוירונים" ומעגלים בתוך הרשת הנוירונית שמייצגים כוונות, רעיונות ודפוסי חשיבה. החוקרים ב-Anthropic כבר הצליחו למצוא עשרות מיליוני "פיצ'רים" שמתאימים למושגים אנושיים, וגם למפות "מעגלים" שמתארים חשיבה מורכבת. זה כמו לפתוח את המכסה של המוח ולראות איך הוא באמת חושב, ולא רק מה הוא אומר.

3. שקיפות וניטור - "כרטיסי מערכת" לכל מודל

Anthropic מפרסמת "כרטיסי מערכת" מפורטים לכל מודל. מאות עמודים שמתארים יכולות, חולשות, והתנהגויות מטרידות שהתגלו בבדיקות. כולל התנהגויות כמו ניסיונות סחיטה שהתגלו בניסויי מעבדה. זה לא דבר שמשתלם מסחרית. זה מחייב השקעה עצומה ויכול להזיק לתדמית, אבל זה חיוני. אם כולם משתפים, התעשייה כולה לומדת. אם אף אחד לא משתף, כולם עיוורים.

4. חקיקה מנותקת מפוליטיקה

אמודאי טוען שלא ניתן לסמוך על כך שכל החברות יהיו אחראיות מרצון. חלקן כבר הפגינו רשלנות בנושאים רגישים כמו תכנים מיניים סביב ילדים. אבל הוא גם מזהיר מפני רגולציה כבדת יד שתחנוק חדשנות ותיצור תגובת נגד. הפתרון? להתחיל בחקיקת שקיפות פשוטה וממוקדת, כמו SB 53 בקליפורניה, שמחייבת חברות גדולות, מעל 500 מיליון דולר הכנסות, לפרסם בדיקות ומדיניות בטיחות. ככל שהסיכונים יתבהרו, אפשר להחמיר בהתאם.

 

 

האם נספיק להבשיל בזמן?

אמודאי לא דומריסט. הוא מודה בגלוי שהאומדנים שלו עלולים להיות שגויים. אולי ה-AI תתקדם לאט יותר, אולי חלק מהסיכונים לא יתממשו. אבל הוא טוען שבגלל גודל ההשפעה האפשרית, חובה להיערך אליהם ברצינות. הוא מאמין שהאנושות יכולה לעבור את המבחן הזה, אבל רק אם נתעורר בזמן.

 

הבעיה היא שהפרס כל כך גדול. טריליוני דולרים בשנה, קפיצת מדרגה בכלכלה העולמית, פתרונות למחלות ולבעיות שבלי AI הסיכוי למצוא להן פתרונות בקרוב קלוש. קשה מאוד לכל החברה לכפות מגבלות על עצמה. "זו המלכודת," הוא כותב. "ה-AI כל כך חזק, פרס כל כך מבריק, שקשה מאוד לציוויליזציה האנושית לכפות עליו אפילו מגבלות בסיסיות."

 

ובכל זאת, הוא מסיים בתקווה זהירה. אותו ציטוט מ"קונטקט" מזכיר לנו: גם החייזרים פעם עברו "התבגרות טכנולוגית", ושרדו כדי לספר על זה. אמודאי רואה אות לכך במאות החוקרים שמקדישים את חייהם למדע ה-AI safety, בחברות שמוכנות לשלם מחיר מסחרי כבד כדי לחסום שימוש בנשק ביולוגי, ובאזרחים שדורשים שהסיכונים יטופלו.

 

השאלה האמיתית היא לא אם ה-AI יגיע, אלא אם נבשיל מספיק מהר כדי לשרוד את ההתבגרות הטכנולוגית שלנו.

 

למאמר המלא של אמודיי, כנסו כאן.

הפוסט למה דריו אמודאי חושש שהאנושות לא בשלה למהפכת ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/dario-amodei-ai-adolescence/feed/ 0
Frontier של OpenAI שואפת להפוך למרכז העצבים של הארגון המודרני https://letsai.co.il/openai-frontier-platform/ https://letsai.co.il/openai-frontier-platform/#respond Sat, 07 Feb 2026 09:30:47 +0000 https://letsai.co.il/?p=69536 Frontier היא פלטפורמה ארגונית חדשה של OpenAI לניהול, הפעלה וממשל של סוכני בינה מלאכותית הפועלים בתוך מערכות אמיתיות. בניגוד למודלים עצמם, Frontier משמשת כשכבת תשתית שמחברת בין מערכות ארגוניות, מאפשרת לסוכנים לבצע משימות מורכבות, ומספקת מנגנוני אבטחה, הרשאות ובקרה. הפלטפורמה תומכת גם בסוכנים המבוססים על מודלים של מתחרות כמו גוגל ואנטרופיק, ומבטאת את שאיפתה של […]

הפוסט Frontier של OpenAI שואפת להפוך למרכז העצבים של הארגון המודרני הופיע ראשון בLet's AI בינה מלאכותית

]]>
Frontier היא פלטפורמה ארגונית חדשה של OpenAI לניהול, הפעלה וממשל של סוכני בינה מלאכותית הפועלים בתוך מערכות אמיתיות. בניגוד למודלים עצמם, Frontier משמשת כשכבת תשתית שמחברת בין מערכות ארגוניות, מאפשרת לסוכנים לבצע משימות מורכבות, ומספקת מנגנוני אבטחה, הרשאות ובקרה. הפלטפורמה תומכת גם בסוכנים המבוססים על מודלים של מתחרות כמו גוגל ואנטרופיק, ומבטאת את שאיפתה של OpenAI להפוך למרכז העצבים של הארגון המודרני. היא נכנסת לזירה שבה פועלות כבר פלטפורמות כמו Salesforce Agentforce ו‑Microsoft Copilot Studio, ומציעה גישה רחבה יותר שמאחדת מערכות מבוזרות ומנהלת סוכנים חכמים מכל ספק. זהו צעד שמסמן שינוי אסטרטגי עמוק בחזון החברה ובמקומה באקו‑סיסטם הארגוני.

 

Frontier של OpenAI

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מהלך אסטרטגי של OpenAI

OpenAI בוחרת כעת להרחיב את גבולות המשחק. במקום להשיק מודל חדש, היא מציגה שכבת תשתית שלמה: Frontier, פלטפורמה ארגונית לניהול, הפעלה וממשל של סוכני בינה מלאכותית הפועלים בתוך מערכות אמיתיות.

 

זה שינוי כיוון משמעותי עבור החברה, שבמשך שנים זוהתה בעיקר עם פיתוח מודלים מתקדמים. כעת היא מבקשת לעבור מתפקיד של ספקית “אינטליגנציה” לתפקיד של ספקית “תשתית”. כפי שניסחה זאת פידג’י סימו (Fidji Simo), ראש תחום האפליקציות בחברה: Frontier היא למעשה הכרה בכך שלא נוכל לבנות הכול בעצמנו.

 

האמירה הזו משקפת תפיסה חדשה - לא עוד מוצר אחד שמנסה לפתור הכול, אלא שכבה שמאפשרת לאחרים, כולל מתחרות, לפעול מעליה ולבנות סוכנים המתאימים לצרכים שלהם.

מציאות ארגונית מבולגנת

למרות ההתלהבות סביב AI, ארגונים רבים מגלים שהמעבר מהדגמות מרשימות ליישום תפעולי רחב אינו פשוט כלל. לפי נתוני OpenAI, כ‑75% מהעובדים מדווחים שהבינה המלאכותית מאפשרת להם לבצע משימות שבעבר היו בלתי אפשריות, אך בפועל רוב החברות מתקשות להטמיע מערכות AI בצורה עקבית ומשמעותית.

 

הקושי נובע בעיקר מהמבנה הארגוני המודרני שבו מערכות רבות אינן מתקשרות זו עם זו, כמו מאגרי נתונים, מערכות CRM, מערכות תמיכה, כלי תפעול ואפליקציות פנימיות. כל מערכת מחזיקה חלק אחר של המציאות העסקית, והפיצול הזה מקשה על מודלים להבין את ההקשר המלא ולפעול בצורה מדויקת ובטוחה.

 

במילים אחרות, הבעיה אינה ביכולות של המודלים עצמם, אלא בסביבה המורכבת שבה הם אמורים לעבוד.

שכבת הפעלה לסוכני AI

Frontier נועדה להתמודד בדיוק עם האתגר הזה. היא משמשת כמעין מערכת הפעלה ארגונית שמחברת בין כל המערכות, הנתונים והכלים, ומאפשרת לסוכני AI לפעול בתוכם בצורה מבוקרת, מאובטחת ויעילה.

 

במקום שכל אפליקציה תטמיע קופיילוט משלה, Frontier מציעה שכבה אחת שמנהלת את כל הסוכנים ללא תלות בספק, וממקמת את עצמה בין שכבת האפליקציות העסקיות, כמו ChatGPT Enterprise, OpenAI Atlas ויישומי ליבה ארגוניים, לבין מערכות המידע הפנימיות של הארגון.

 

הגישה הזו מעניקה לסוכנים יכולות עבודה אמיתיות - הבנה של תהליכים ארגוניים, שימוש בכלים ובמערכות, שיפור מתמשך באמצעות משוב, ותפעול תחת ממשל ובקרה הדוקים. 

 

הפלטפורמה בנויה משלושה רכיבים מרכזיים, שכל אחד מהם מטפל בחלק אחר של הבעיה:

1. Business Context - חיבור עמוק למערכות הארגון

Frontier מתחברת למאגרי נתונים, מערכות CRM, מערכות כרטוס, כלי תמיכה ויישומים פנימיים. החיבור הזה מאפשר לסוכנים לעבוד עם אותו הקשר עסקי שיש לעובדים אנושיים, כולל זיכרון מוסדי מתמשך של הארגון, תהליכיו והעדפותיו. זהו הבסיס שמאפשר להם להבין איך העבודה באמת מתבצעת.

2. Agent Execution - הפעלה של סוכנים בסביבות ייצור אמיתיות

בניגוד לצ'אטבוטים, הסוכנים ב‑Frontier אינם מוגבלים לשיחה. הם יכולים להריץ קוד, לקרוא ולכתוב קבצים, להשתמש בכלים פנימיים, לבצע פעולות אוטומטיות ולפעול במקביל במספר תהליכים. יכולות כאלו מאפשרות להם לא רק לייעץ, אלא לבצע עבודה בפועל בתוך תהליכים אמיתיים ובסביבות ייצור.

3. Governance - זהות, הרשאות ובקרה ברמת ארגון

כל סוכן מקבל זהות ארגונית, סט הרשאות מוגדר ויומן פעולות מלא. Frontier פועלת על גבי תשתית האבטחה של OpenAI, הכוללת תקנים כמו SOC 2 Type II ו‑ISO 27001, ומאפשרת ניהול הרשאות מדויק כדי למנוע גישה מיותרת למידע רגיש. שכבת הממשל הזו מבטיחה שהסוכנים יהיו נשלטים, ניתנים למעקב ומבוקרים, עיקרון מרכזי בתפיסה של Frontier.

 

 

 

יכולות מגוונות לסוכנים

ארכיטקטורת Frontier

 

מה הופך את Frontier לייחודית?

מעבר ליכולות הטכניות, Frontier מציגה שלושה מאפיינים מרכזיים שמבדילים אותה מהפתרונות הקיימים:

1. תמיכה בסוכנים של מתחרות - מהלך אסטרטגי יוצא דופן

OpenAI מאפשרת להריץ ב‑Frontier לא רק סוכנים המבוססים על GPT‑5.2, אלא גם על מודלים של גוגל, Anthropic ומיקרוסופט. זהו צעד נדיר בעולם שבו רוב החברות מנסות לנעול לקוחות בתוך האקו‑סיסטם שלהן. כאן, OpenAI מציעה גישה הפוכה - פלטפורמה פתוחה שמנהלת סוכנים מכל ספק, כולל מתחרות ישירות.

2. מעבר ממוצר לפלטפורמה

בעוד ChatGPT Enterprise מספק גישה מאובטחת למודלים, Frontier מציעה שכבת תשתית שלמה עם חיבור למערכות ארגוניות, הפעלה של סוכנים, ממשל, ניטור ולולאות אופטימיזציה. זהו מעבר מהתמקדות במודל עצמו להתמקדות בתהליכי העבודה שמעליו, וביכולת להפעיל סוכנים כחלק אינטגרלי מהתפעול הארגוני.

3. לולאת שיפור מתמשכת - עם צוותים שיושבים אצל הלקוח

מנהלים יכולים לעקוב אחר פעולות הסוכנים, להבין מה עובד ומה לא, ולכוונן את ההתנהגות שלהם לאורך זמן. זהו למעשה תהליך חניכה לסוכני AI, שמאפשר להם להשתפר בדיוק כמו עובדים אנושיים. OpenAI  שולחת Forward Deployed Engineers, מהנדסים שמצטרפים לצוותי הלקוח, מסייעים בבניית הארכיטקטורה, קובעים כללי עבודה והרשאות ומוודאים שהסוכנים פועלים בייצור בצורה יציבה.

 

זה מודל עבודה שמזכיר חברות AI‑native כמו Harvey, Sierra ו‑Decagon, שפועלות בשיתוף פעולה הדוק עם לקוחות כדי להטמיע סוכנים עמוקים בתהליכי ליבה.

 

לולאת השיפור של Frontier

לולאת השיפור של Frontier

 

מי כבר משתמש ב-Frontier?

ההשקה מתבצעת בהדרגה, והיכולות זמינות בשלב זה לקבוצה מצומצמת של לקוחות, עם הרחבה צפויה בחודשים הקרובים. פרטי התמחור טרם פורסמו.

 

רשימת המשתמשים הראשונים מרשימה: HP, Uber, State Farm, Oracle, Intuit ו‑Thermo Fisher כבר החלו להטמיע את הפלטפורמה. לקוחות נוספים כמו BBVA, Cisco ו‑T‑Mobile השתתפו בפיילוטים מוקדמים.

היישומים מתחלקים לשלוש קטגוריות מרכזיות:

  • אנליזה ותחזיות: דוחות, ניתוח נתונים וחיזוי פיננסי.

  • אוטומציה תפעולית: תמיכה, מכירות, רכש ותפעול.

  • פרויקטים חוצי ארגון: תהליכים מורכבים הדורשים אינטגרציה בין מערכות רבות.

הקרב על שכבת הסוכנים

Frontier אינה פועלת לבד. שתי פלטפורמות נוספות כבר מנסות לתפוס את אותה שכבה אסטרטגית: Salesforce Agentforce, שמחברת סוכני AI ישירות ל‑CRM של Salesforce, ו‑Microsoft Copilot Studio, שמאפשרת לבנות סוכנים הפועלים בתוך Microsoft 365 ובמערכות Dynamics. שתי הפלטפורמות הללו מציעות גישה ממוקדת אקו‑סיסטם, שבה הסוכנים פועלים היטב בתוך סביבת המוצרים של החברה. Frontier, לעומתן, מציגה שאיפה רחבה יותר: להיות שכבת ההפעלה שמעל כל האפליקציות, ללא תלות בספק יחיד.

 

ההשקה של Frontier לא נשארה רק בתחום הטכנולוגי. שעות לאחר ההכרזה, מניות של חברות SaaS מרכזיות רשמו ירידות, על רקע חשש שהפלטפורמה החדשה של OpenAI תפגע בליבת העסקים שלהן. המשקיעים פירשו את Frontier כאיום על מודלים עסקיים מבוססי אפליקציות בענן, במיוחד בתחומים שבהם OpenAI מציגה יכולות שמקרבות אותה לעולמות של אוטומציה תפעולית, תמיכה, מכירות וניהול מסמכים. אלו תחומים שהיו עד כה נחלתן של חברות כמו Salesforce, ServiceNow, HubSpot ו‑DocuSign.

 

למרות שהתגובה בשוק לעיתים חדה מהמציאות, היא משקפת תחושה אמיתית - Frontier מסמנת שינוי במאזן הכוחות. אם OpenAI תצליח להפוך לשכבת ההפעלה הארגונית שמעל כל האפליקציות, היא עשויה להשפיע על הדרך שבה ארגונים בוחרים, מטמיעים ומשלמים על תוכנה, ולהפוך את מודל ה‑SaaS המסורתי לפחות מרכזי.

OpenAI רוצה להיות שכבת ההפעלה של הארגון

OpenAI מבקשת למצב את עצמה כשכבת ההפעלה של הארגון המודרני. Frontier מציבה אותה בעמדה חדשה שבה היא לא רק ספקית מודלים, ולא רק צ׳אטבוט כמו ChatGPT, אלא פלטפורמת תשתית שמנהלת את כלל סוכני ה‑AI בארגון. אם המהלך יצליח, הערך יזוז מהמודלים עצמם אל שכבת הניהול שמעליהם.

 

הגישה הזו מציבה את OpenAI בתחרות ישירה מול ספקיות SaaS, מערכות אוטומציה, פלטפורמות ענן ויצרניות ERP, וגם מול Salesforce ומיקרוסופט שכבר סימנו את שכבת הסוכנים כזירת הקרב הבאה.

 

בסופו של דבר, Frontier הוא ניסיון שאפתני להתמודד עם האתגר האמיתי של AI בארגונים. לא כיצד להפוך את המודל לחכם יותר, אלא כיצד לגרום לו לעבוד בתוך המציאות הארגונית המורכבת. אם OpenAI תצליח להפוך את Frontier לשכבת ההפעלה של העבודה, היא עשויה להשפיע על הדרך שבה ארגונים מתכננים תהליכים, מנהלים עובדים ומבצעים אוטומציה.

הפוסט Frontier של OpenAI שואפת להפוך למרכז העצבים של הארגון המודרני הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-frontier-platform/feed/ 0
הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI https://letsai.co.il/claude-ad-free/ https://letsai.co.il/claude-ad-free/#respond Fri, 06 Feb 2026 07:58:02 +0000 https://letsai.co.il/?p=69513 בעוד ענקיות הטכנולוגיה מחפשות דרכים לייצר רווחים מצ'אטבוטים, עולה שאלת האמון: האם העוזר האישי שלנו עובד עבורנו או עבור המפרסם? הכתבה סוקרת קמפיין סאטירי נוקב (סריה של ארבעה סרטונים) החושף את הסכנות שבשילוב פרסומות בשיחות AI, ומציגה את הגישה הנגדית של חברת Anthropic, המבקשת לשמר את Claude ככלי עבודה נקי מהטיות מסחריות, תוך הגדרת מודל […]

הפוסט הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעוד ענקיות הטכנולוגיה מחפשות דרכים לייצר רווחים מצ'אטבוטים, עולה שאלת האמון: האם העוזר האישי שלנו עובד עבורנו או עבור המפרסם? הכתבה סוקרת קמפיין סאטירי נוקב (סריה של ארבעה סרטונים) החושף את הסכנות שבשילוב פרסומות בשיחות AI, ומציגה את הגישה הנגדית של חברת Anthropic, המבקשת לשמר את Claude ככלי עבודה נקי מהטיות מסחריות, תוך הגדרת מודל כלכלי חדש המבוסס על "מסחר אייג׳נטלי" ביוזמת המשתמש.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהבינה המלאכותית הופכת לאיש מכירות חלקלק

תארו לעצמכם את הסיטואציה הבאה: אתם מנהלים שיחה עמוקה עם העוזר האישי שלכם על קשיים בתקשורת עם ההורים. ה-AI מקשיב, מגלה אמפתיה, מציע טכניקות להקשבה פעילה, ופתאום, ללא התראה, עובר לטון שיווקי אגרסיבי: "ואם הקשר לא ניתן לתיקון, למה שלא תמצא קשר רגשי באתר 'Golden Encounters' - אתר ההיכרויות שמחבר בין 'גורים רגישים' ל'לביאות שואגות'? רוצה שאבנה לך פרופיל?"

 

זה אולי משעשע, אבל זה לא תסריט דמיוני לחלוטין, אלא חלק מסדרת סרטונים סאטיריים המציגים את מה שמכונה "שחיתות מסחרית" (Commercial Corruption) של מרחב הטיפול הדיגיטלי. הסרטונים הללו, המתעדים אינטראקציות שמתחילות כעזרה כנה ומסתיימות בקידום מוצרים הזויים כמו מדרסים להגבהה ל"מלכים נמוכים" או הלוואות "מהירות" בריבית של 400%, מציבים מראה מטרידה מול תעשיית הבינה המלאכותית. 

 

ואת כל זה מסכמת שורת מחץ אחת, שמופיעה בסיום הקמפיין: “Ads are coming to AI. But not to Claude.” זו לא רק סיסמה פרסומית, אלא הצהרת עמדה ברורה על המקום שבו Anthropic מסמנת קו אדום.

 

כשהמודל העסקי מתנגש עם האמת

הקמפיין הסאטירי הזה אינו מיועד רק להצחיק - הוא תוקף את הלב הפועם של הדילמה הטכנולוגית המודרנית דרך השאלה המהדהדת בשיר של הראפר Dr. Dre (ד"ר דרה) בסוף כל סרטון: "?What’s the difference between me and you".

 

זו לא רק שורת מחץ, אלא מכה ישירה ומכוונת היטב מתחת לחגורה של המתחרה הגדולה, OpenAI. בזמן שסם אלטמן והצוות שלו שומרים על עמימות בנוגע למודלים עתידיים של פרסום, Anthropic מנצלת את הבמה כדי להציב קו אדום ברור ועל הדרך לייצר מניפולציה מתובלת בפרובוקציה.

 

בניגוד לחיפוש רגיל שבו התרגלנו לסנן "תוצאות ממומנות", שיחה עם AI היא מרחב אינטימי וחשוף. אם הבינה המלאכותית תתומרץ להטות את תשובותיה כדי למכור לנו מוצר, היא תפסיק להיות "עוזרת" ותהפוך לסוכנת מכירות חלקלקה במסווה של יועצת אובייקטיבית.

 

מודל הלוח הנקי של Anthropic

בתוך הכאוס הזה, חברת Anthropic, המפתחת של Claude, נוקטת עמדה חד משמעית. בהכרזה רשמית תחת הכותרת "קלוד הוא מרחב למחשבה", מבהירה החברה כי שיחות עם בינה מלאכותית אינן מקום לפרסום.

 

החזון של החברה הוא להשאיר את קלוד כמרחב נקי, בדומה ללוח או מחברת ריקה - מקומות שבהם אין פרסומות שמסיחות את הדעת. המטרה היא שקלוד יפעל באופן בלתי משתמע לשני פנים לטובת המשתמש.

 

איך זה עובד בפועל? במקום להסתמך על כספי מפרסמים שיכתיבו את התוכן, המודל העסקי נשען על מנויים בתשלום וחוזים ארגוניים. כך, התמריץ היחיד של המודל הוא לספק את התשובה המועילה והמדויקת ביותר, ולא להוביל את המשתמש לרכישה מסוימת.

 

ומה אומרים ב-OpenAI?

ב-OpenAI דוחים את האופן שבו הקמפיין של Anthropic ממסגר את הדיון ויצאו למתקפת נגד משולבת. זה התחיל בקייט ראוץ’, מנהלת השיווק של החברה, שהדגישה את הפן הדמוקרטי - לטענתה, מודל חינמי המבוסס על מקורות הכנסה חיצוניים הוא הדרך היחידה להבטיח נגישות רחבה לבינה מלאכותית, במיוחד עבור אלו שידם אינה משגת לשלם עבור מנויי פרימיום.

 

אלא שהטון הפך מהר מאוד למתקפה חזיתית מצד ההנהלה הבכירה. סם אלטמן, מנכ"ל OpenAI, כינה את הקמפיין של Anthropic "לא ישר באופן מובהק" (clearly dishonest) והאשים את החברה ב"דיבור כפול" (doublespeak). אלטמן טען כי Anthropic תוקפת "מודלים תיאורטיים" של פרסום ש-OpenAI עצמה לעולם לא תטמיע, וסימן את Claude כ"מוצר יקר לאנשים עשירים". כדי להמחיש את הפער, הוא עקץ וציין כי "יותר טקסנים משתמשים ב-ChatGPT בחינם מאשר סך כל המשתמשים בקלוד בארה"ב".

 

אלטמן מאשים את Anthropic בפרובוקציה ומניפולציה

אלטמן מאשים את Anthropic בפרובוקציה ומניפולציה

במקביל, גרג ברוקמן, ממייסדי OpenAI, ניסה לסדוק את תדמית ה"טהרנות" של Anthropic. הוא הצביע על סעיף במניפסט שלהם שבו הם מציינים כי אם יצטרכו "לבחון מחדש את הגישה" הם יהיו שקופים לגבי זה. ברוקמן הציב אתגר ישיר למנכ"ל Anthropic, דאריו אמודיי, ותהה ב-X האם הוא מוכן להתחייב באופן מוחלט לעולם לא למכור את תשומת הלב של המשתמשים למפרסמים, או שמא החברה השאירה לעצמה "דלת אחורית" פתוחה לשינוי המודל בעתיד.

 

ברוקמן מצביע על הפרצה במניפסט של Anthropic

ברוקמן מצביע על הפרצה במניפסט של Anthropic

האם יש לנו בכלל ברירה?

אבל מעבר לוויכוח האידיאולוגי, עולה שאלת המציאות. העלויות של הרצת מודלי שפה הן אסטרונומיות, ויש מי שטוען שהמודל החינמי של היום הוא סוג של אחיזת עיניים, בדומה לימיה הראשונים של Uber, שסבסדה נסיעות בהפסד כדי לצמוח. אם המשתמש לא ישלם דרך פרסומות, הוא ייאלץ לשלם את המחיר האמיתי של השירות, שעלול להגיע למאות דולרים בחודש. במצב כזה, ה-AI יהפוך מ"מהפכה דמוקרטית" למוצר פרימיום לעשירים בלבד.

 

נקודה חשובה נוספת לתת לה דגש היא שבעולם ה-Performance Marketing יש מי שרואה בשילוב הזה הזדמנות. בניגוד לחיפוש בגוגל או לפיד בפייסבוק, ה-AI מבין את הקונטקסט שלנו לעומק. פרסומת בצ'אט לא חייבת להיות "מפגע ויזואלי", היא יכולה להיות הצעה רלוונטית ומדויקת להפליא שמופיעה בדיוק כשאנחנו צריכים אותה. עבור יזמים ואנשי Growth, מדובר ב"ג'ונגל" חדש של הזדמנויות, שבו היכולת לחבר בין שיחה למסחר היא המפתח לכלכלה החדשה.

 

בסוף, השאלה היא פשוטה: האם אנחנו מעדיפים לשלם 200 דולר בחודש על "מרחב סטרילי", או לקבל את הטכנולוגיה החזקה בעולם בחינם, תמורת תוכן שיווקי שבאמת רלוונטי לנו?

חדשנות בשירות המשתמש דרך "מסחר אייג׳נטלי" 

האם זה אומר שקלוד לעולם לא יעזור לנו לקנות דברים? לא בדיוק. כאן טמונה החדשנות המושגית. החברה מפרידה בין "פרסום" לבין "מסחר אייג׳נטלי" (Agentic Commerce).

 

במודל הפרסומי המסורתי, המפרסם הוא זה שיוזם את הקשר (Push). ב"מסחר אייג׳נטלי", המשתמש הוא זה שיוזם את הפעולה (Pull). לדוגמה, אם תבקשו מקלוד לחקור עבורכם נעלי ריצה או להשוות שיעורי משכנתא, הוא יעשה את זה. בתור הסוכן שלכם, הוא יסרוק את המידע ויציג לכם השוואה אובייקטיבית המבוססת על הצרכים שתיארתם, ללא עמלות מצד היצרנים שיגרמו לו להעדיף נעל אחת על פני אחרת.

אמון כנכס אסטרטגי

הבחירה של Anthropic היא לא רק מוסרית, היא אסטרטגית. בעידן שבו הבינה המלאכותית הופכת לשכבת התשתית של העבודה והיצירה שלנו, "אמון" הופך למטבע היקר ביותר. חברה שתוכל להבטיח למשתמשיה שהיא לא מוכרת את תשומת הלב שלהם או את הנתונים שלהם למרבה במחיר, כנראה תזכה בנאמנות לטווח ארוך.

 

המשמעות רחבה יותר. מדובר בניסיון להגדיר מחדש את האינטרנט. אם העשור האחרון היה שייך לכלכלת תשומת הלב (Attention Economy), שבה המשתמש היה המוצר, העידן החדש של ה-AI מנסה להחזיר את המשתמש למרכז כבעל הבית.

לשמור על ה-AI "אנושי"

הסרטונים הסאטיריים על "השחיתות המסחרית" מזכירים לנו שקל מאוד לקלקל את הפוטנציאל האדיר של הבינה המלאכותית. ללא "חוקה" ברורה (כמו ה-Constitution שמנחה את קלוד), המודלים הללו עלולים להפוך למניפולטורים הגדולים ביותר בהיסטוריה.

 

הבחירה להשאיר את ה-AI נקי מפרסומות היא הכרחית כדי לשמר אותו ככלי למחשבה עמוקה, פתרון בעיות ויצירתיות. בסופו של יום, אנחנו רוצים שהעוזר האישי שלנו יעזור לנו לחשוב טוב יותר, לא רק לקנות יותר. משתמשים לא אמורים לתהות אם ה-AI שלהם עוזר להם או רק מנסה למכור להם תכשיטי "Lunar Memento".

מה אפשר ללמוד מזה?

הצפייה בסרטונים האלו, שמציגים לטעמי סיטואציות אבסורדיות נוקבות ומצחיקות, נותנת תחושה של מעין דקירה של הבנה לגבי המרחב הדיגיטלי החדש שאנחנו בונים. זה גרם לי להבין שהאינטימיות הזו שאנחנו מייצרים עם הבינה המלאכותית היא חרב פיפיות. כשאנחנו פותחים את הלב או את התוכניות העסקיות שלנו מול מסך, אנחנו פגיעים הרבה יותר מאשר בשאילתת חיפוש יבשה בגוגל. שם אנחנו מצפים למודעות, כאן אנחנו מצפים להקשבה.

 

אבל כאן נכנסת המציאות הכלכלית המורכבת. אנחנו חייבים להבין שבעולם הטכנולוגי של היום, ייתכן שפשוט אין ברירה אחרת. העלויות העצומות של תחזוקת המודלים הללו מחייבות מודל כלכלי בר-קיימא. אם לא נהיה מוכנים לשלם את המחיר האמיתי של השירות, מחיר שעלול להיות גבוה משמעותית ממה שהתרגלנו, הפרסומות יהיו הדרך היחידה להשאיר את המהפכה הזו נגישה לכולם.

 

בסופו של יום, אין "ארוחות חינם" בטכנולוגיה. כדי לזכות באובייקטיביות מוחלטת ובמרחב נקי באמת למחשבה, אנחנו צריכים לקבל החלטה כואבת: האם אנחנו מוכנים להיות הלקוחות שמשלמים על השירות, או שנשלים עם היותנו המוצר שנמכר למפרסמים? המפתח הוא ביוזמה ובשקיפות. אני רוצה לדעת שהעוזר הדיגיטלי שלי עובד בשבילי. השאלה היא כמה אהיה מוכן לשלם, ומה הוא באמת המחיר של שמירה על התשובה כאמת מקצועית, ולא כמניפולציה שמתחפשת לעצה כנה.

הפוסט הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-ad-free/feed/ 0
מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים https://letsai.co.il/agents-thinking-partners/ https://letsai.co.il/agents-thinking-partners/#respond Thu, 05 Feb 2026 07:08:54 +0000 https://letsai.co.il/?p=69210 כשחברות הטכנולוגיה מציגות סוכני AI, הן נוטות להציג תרחיש דומה: אתה אומר "תזמין לי טיסה לניו יורק ומלון ליד סנטרל פארק", והסוכן עושה הכול בשבילך. זה נשמע פשוט ואלגנטי, אבל מתברר שזה לא מה שקורה בפועל. מחקר חדש של אוניברסיטת הרווארד וחברת Perplexity, שפורסם בדצמבר 2025, ניתח מאות מיליוני אינטראקציות אמיתיות עם סוכני AI. הממצאים […]

הפוסט מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים הופיע ראשון בLet's AI בינה מלאכותית

]]>
כשחברות הטכנולוגיה מציגות סוכני AI, הן נוטות להציג תרחיש דומה: אתה אומר "תזמין לי טיסה לניו יורק ומלון ליד סנטרל פארק", והסוכן עושה הכול בשבילך. זה נשמע פשוט ואלגנטי, אבל מתברר שזה לא מה שקורה בפועל. מחקר חדש של אוניברסיטת הרווארד וחברת Perplexity, שפורסם בדצמבר 2025, ניתח מאות מיליוני אינטראקציות אמיתיות עם סוכני AI. הממצאים מציגים תמונה שונה לחלוטין: 57% מהשימוש מתרכז בעבודה קוגניטיבית, לא במשימות פשוטות. אנשים לא משתמשים בסוכנים כדי לחסוך זמן על הזמנת טיסות, הם משתמשים בהם כדי לחשוב טוב יותר. ויש גם צד פחות מעודד שמשקף פערים דיגיטליים שרק מתרחבים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הרעש סביב AI והפער בנתונים

2025 הוכרזה כ"שנת הסוכנים" בתעשיית הטכנולוגיה. OpenAI, Anthropic, Google ו-Microsoft השיקו מוצרים שמבטיחים לבצע משימות בשם המשתמש, לא רק לענות על שאלות. אבל עד לאחרונה, רוב מה שידענו על השימוש בהם נשען על אנקדוטות, הדגמות שיווקיות וסקרים עצמיים. נתונים אמפיריים בהיקף גדול פשוט לא היו.

 

המחקר החדש משנה את זה. החוקרים ניתחו נתוני שימוש מ-Comet, דפדפן AI שפיתחה Perplexity והושק ביולי 2025. הדפדפן כולל סוכן משולב בשם Comet Assistant, שמסוגל לבצע פעולות באתרים: לשלוח מיילים, לערוך מסמכים, להזמין טיסות. במשך ארבעה חודשים אספו החוקרים מאות מיליוני אינטראקציות אנונימיות, ושאלו שלוש שאלות יסוד: מי משתמש בסוכני AI? כמה אינטנסיבי השימוש? ולאילו משימות?

 

התשובות מפתיעות. 57% מכלל השימוש מתרכז בשני תחומים בלבד: פרודוקטיביות וזרימות עבודה (36%) ולמידה ומחקר (21%). במקום לבקש מהסוכן להזמין מלון, משתמשים מבקשים ממנו לנתח מסמכים, לסכם מחקרים, לכתוב דוחות, לסנן מידע פיננסי או להבין חומר לימודי.

 

התפלגות השימוש בסוכני AI לפי נושאים

התפלגות השימוש בסוכני AI לפי נושאים | Perplexity

חקר הממצאים מתוך השטח

החוקרים מציגים דוגמאות קונקרטיות. איש רכש ביקש מהסוכן לסרוק עשרות סיפורי לקוח ולזהות שימושים רלוונטיים לפני פגישה עם ספק. סטודנט השתמש בו כדי לנווט בין חומרי קורס ולנתח את מה שהוא לומד. עובד פיננסים האציל לסוכן את סינון אופציות ההשקעה והפקת תובנות ראשוניות.

 

בכל המקרים האלה הסוכן לא מבצע את העבודה במקום המשתמש. הוא אוסף מידע, מעבד אותו ומספק סינתזה ראשונית שמאפשרת לאדם לקבל החלטות. החוקרים מכנים את זה "שותף לחשיבה" (thinking partner). זו הבחנה חשובה - הסוכן לא מחליף את החשיבה האנושית, הוא מרחיב את היכולת לעשות אותה.

למה דווקא בעבודה קוגניטיבית?

משימות פשוטות כמו הזמנת טיסה לוקחות דקות ספורות גם בלי סוכן, הערך המוסף קטן. אבל עבודה קוגניטיבית, כמו קריאת עשרות מסמכים, סינון מידע והפקת תובנות, היא צוואר הבקבוק של העבודה המודרנית. שם כל שעה שנחסכת היא שעה שמשתחררת לחשיבה, יצירתיות או קבלת החלטות.

 

זו הסיבה שסוכני AI מצאו את מקומם דווקא במשימות המורכבות. לא בגלל שהם יכולים לעשות אותן, אלא בגלל שדווקא שם הם באמת משנים את המשוואה.

מתחילים בקטן, מתקדמים במהירות

אחד הממצאים המעניינים במחקר הוא מסלול ההתפתחות של משתמשים. ביום הראשון, רוב האנשים שואלים שאלות קלילות: המלצות לסרט, רעיונות לטיול או טריוויה. אבל משהו משתנה כשהמשתמש חווה הצלחה ראשונה במשימה מורכבת, כמו דיבוג קוד או סיכום דוח פיננסי. מאותו רגע הוא כמעט לא חוזר למשימות הפשוטות.

 

מאיפה מתחילים ולאן מגיעים: שינוי בדפוסי השימוש לאורך זמן

שינוי בדפוסי השימוש לאורך זמן | Perplexity

 

הנתונים מראים דפוס עקבי. קטגוריות הפרודוקטיביות והלמידה הן בעלות שיעורי השימור הגבוהים ביותר. משתמשים שמתחילים להשתמש בסוכן למחקר או ללמידה נוטים להפוך למשתמשים קבועים לטווח ארוך.

המפה המקצועית: מי משתמש ולמה

המחקר מגלה התאמה חזקה בין תפקיד המשתמש לבין סוג המשימות שהוא מעביר לסוכן. סטודנטים מקדישים 43% מהשימוש שלהם ללמידה ומחקר. אנשי פיננסים - 47% לפרודוקטיביות. מעצבים משתמשים יותר במדיה, ואנשי תיירות בתכנון נסיעות.

 

שישה תחומים בלבד אחראים ל-70% מכלל הפעילות: טכנולוגיה, אקדמיה, פיננסים, שיווק, יזמות וסטודנטים. כולם עתירי ידע. המשמעות ברורה - ככל שהעבודה מבוססת יותר על עיבוד מידע וקבלת החלטות, כך הסוכן הופך לכלי מרכזי יותר.

 

השוואה בין שיעור האימוץ לשיעור השימוש בפועל

השוואה בין שיעור האימוץ לשיעור השימוש בפועל | Perplexity

עשר פלטפורמות מרכזות 83% מהשימוש

ממצא נוסף מאתגר את התפיסה הרווחת. משתמשים לא עובדים עם הסוכן בסביבה נפרדת, הם משתמשים בו בתוך הכלים שהם כבר מכירים. עשר פלטפורמות בלבד מרכזות 83% מכלל הפעילות, כש-Google Docs, שירותי אימייל, LinkedIn ו-YouTube מובילות את הרשימה.

 

הריכוז בולט במיוחד בתחומים מסוימים: 93% מהמשימות בתחום הנטוורקינג המקצועי מתבצעות ב-LinkedIn, ו-90% מצפיית הווידאו ב-YouTube. המשמעות לחברות שמפתחות סוכני AI היא, שאם רוצים שהמוצר יהיה שימושי באמת, צריך לבנות אינטגרציות עמוקות במקומות שבהם המשתמשים כבר נמצאים.

הפיל בחדר: פערים דיגיטליים

המחקר חושף גם תמונה מדאיגה. שני משתנים מנבאים את קצב האימוץ טוב יותר מכל גורם אחר: תוצר מקומי גולמי לנפש ושנות השכלה ממוצעות. מדינות עשירות ומשכילות יותר מאמצות את הטכנולוגיה מהר יותר, והפער משמעותי.

 

הנתונים על מאמצים מוקדמים מחדדים את הנקודה. משתמשים שקיבלו גישה מוקדמת לסוכן, לפני שהוא נפתח לכולם, שולחים פי תשע יותר שאילתות ממשתמשים שהצטרפו מאוחר יותר. הם לא רק אימצו את הטכנולוגיה, הם למדו להשתמש בה ביעילות. אם הדפוס הזה יימשך, הפער בין מי שיודע לעבוד עם סוכן AI לבין מי שלא עלול להפוך ל"פער מיומנות קוגניטיבית".

מה כל זה אומר?

עבור התעשייה, המשמעות היא להשקיע בפיצ'רים שמקדמים פרודוקטיביות ולמידה, להתמקד במשתמשים שכבר גילו את הערך הקוגניטיבי, ולבנות אינטגרציות עמוקות עם הכלים שאנשים כבר משתמשים בהם. סוכני AI שימכרו את עצמם כ"עוזרים להזמנת טיסות" יפספסו את השוק האמיתי.

 

עבור מערכות החינוך וקובעי מדיניות, האתגר מורכב יותר. אם סוכני AI הופכים לכלי בסיסי לעבודה קוגניטיבית, כמו שהמחשב הפך לכלי בסיסי לעבודה משרדית, אז הנגישות אליהם היא שאלה של שוויון הזדמנויות. לא מדובר רק ברשיונות תוכנה או בחיבור לאינטרנט, אלא גם במיומנות לדעת איך להשתמש בכלי בצורה שמרחיבה יכולת, לא רק חוסכת זמן.

 

השאלה שנשארת פתוחה: האם סוכני AI יהפכו לתשתית בסיסית כמו אינטרנט, זמינים ונגישים לכולם, או לכלי פרימיום שמעצים בעיקר את מי שכבר נמצא בעמדת יתרון? המחקר לא נותן תשובה, אבל הוא מצביע על כיוון מדאיג. בלי מאמצים מכוונים להנגשה, הפער הדיגיטלי הבא כבר נבנה.

 

אם המחשב האישי הפך אותנו למפעילי תוכנה, סוכני AI הופכים אותנו למנהלי אינטליגנציה. השאלה היא מי יזכה להיות חלק מהמהפכה הזו, ומי יישאר בחוץ.

הפוסט מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/agents-thinking-partners/feed/ 0