כל הכתבות של רון גולד במגזין Let's AI בינה מלאכותית https://letsai.co.il/author/aviron19/ בינה מלאכותית Mon, 20 Apr 2026 10:12:31 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.5 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp כל הכתבות של רון גולד במגזין Let's AI בינה מלאכותית https://letsai.co.il/author/aviron19/ 32 32 מה באמת קורה בתוך AI Overviews? https://letsai.co.il/google-ai-overviews-analysis/ https://letsai.co.il/google-ai-overviews-analysis/#respond Tue, 21 Apr 2026 05:36:59 +0000 https://letsai.co.il/?p=73119 AI Overviews של גוגל מבטיחים להפוך את החיפוש למהיר ומדויק יותר, אך בדיקות עומק מציגות תמונה מורכבת בהרבה. גרסאות Gemini החדשות אכן מציגות שיפור משמעותי, אך לצד זאת מופיעות טעויות רבות, תשובות שאינן מעוגנות במקורות אמינים והסתמכות על אתרים מפוקפקים. כך נוצרת מערכת שנראית סמכותית כלפי חוץ אך מתקשה לשמור על אמון המשתמשים, עם השלכות […]

הפוסט מה באמת קורה בתוך AI Overviews? הופיע ראשון בLet's AI בינה מלאכותית

]]>
AI Overviews של גוגל מבטיחים להפוך את החיפוש למהיר ומדויק יותר, אך בדיקות עומק מציגות תמונה מורכבת בהרבה. גרסאות Gemini החדשות אכן מציגות שיפור משמעותי, אך לצד זאת מופיעות טעויות רבות, תשובות שאינן מעוגנות במקורות אמינים והסתמכות על אתרים מפוקפקים. כך נוצרת מערכת שנראית סמכותית כלפי חוץ אך מתקשה לשמור על אמון המשתמשים, עם השלכות רחבות על SEO, על מודלים עסקיים של אתרים ועל עתיד האינטרנט כולו.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

האם לגוגל יש בעיית אמינות

סטיבן פונוואסי (Steven Ponawasi), אנליסט נתונים מטורונטו, רק רצה לבדוק כותרת מוזרה שראה בדרך לארוחת ערב. כתבה טענה שאשתו של המתאבק האלק הוגאן שוקלת לתבוע בעקבות מותו. הוא הופתע, משום שלא ידע שהוגאן נפטר, ולכן פנה לגוגל, המקום שבו רבים מאיתנו בודקים את המציאות.

 

התשובה שקיבל הייתה נחרצת: אין דיווחים אמינים על כך שהאלק הוגאן נפטר. אבל ממש מתחתיה הופיע קישור לכתבה שטענה את ההפך.

 

זה היה רגע קצר ושגרתי לכאורה, אך הוא חשף פער עמוק יותר. פער בין סמכותיות לבין אמינות, בין תשובה שנשמעת נכונה לבין תשובה שנבדקה, ובין גוגל של פעם שאספה מידע לבין גוגל החדשה שמפרשת אותו.

המעבר של גוגל ממנוע חיפוש למנוע תשובות

AI Overviews, שהושק ב-2024, הוא אחד המהלכים המשמעותיים ביותר בתולדות גוגל. במקום להציג רשימת קישורים, גוגל מציגה תשובה אחת מסוכמת, שנראית כמו פסקה מתוך אנציקלופדיה מודרנית. זה נוח, זה מהיר, וזה משנה את כללי המשחק.

 

אבל שינוי כזה מגיע עם מחיר. ברגע שגוגל הופכת למי שמספקת את התשובה, היא גם זו שנושאת באחריות אליה.

 

כדי להבין עד כמה התשובות הללו מדויקות, The New York Times ביקש מחברת Oumi (מפעילה תשתית פתוחה להערכת מודלים ומובילה מחקר בתחום אמינות ה-AI) לבצע בדיקה מקיפה. התוצאות מציירות תמונה מורכבת: מצד אחד שיפור טכנולוגי מרשים, ומצד שני טעויות בקנה מידה עצום וקושי גובר לדעת מתי אפשר לסמוך על התשובה.

הדיוק עולה במקביל לאי-הוודאות

Oumi בחנה 4,326 שאילתות באמצעות SimpleQA, אחד הבנצ'מרקים המקובלים בתעשייה. התוצאות היו ברורות: 85 אחוז דיוק עם Gemini 2 באוקטובר 2025 ו-91 אחוז דיוק עם Gemini 3 בפברואר 2026.

 

לכאורה מדובר בהישג מרשים, אך בפועל המשמעות מטרידה. גוגל מעבדת יותר מ-5 טריליון חיפושים בשנה, ולכן גם טעות בשיעור של 9 אחוזים מתורגמת לעשרות מיליוני טעויות בשעה ולמאות אלפי טעויות בדקה.

 

וזה עוד לפני שנוגעים בבעיה עמוקה יותר: תשובות שנראות נכונות אך אינן מגובות במקורות אמינים. לפי Oumi, יותר ממחצית מהתשובות המדויקות היו לא מעוגנות, כלומר הקישורים שגוגל הציגה לא תמכו בפועל בתוכן. עם Gemini 3 שיעור התשובות הלא מעוגנות עלה ל-56 אחוזים.

 

במילים אחרות, גם כשהתשובה נכונה, קשה לדעת אם היא באמת נכונה.

איך נוצרות הטעויות

הטעויות של AI Overviews אינן מקריות. הן נובעות מהאופן שבו מודלים ג'נרטיביים פועלים. הם לא באמת יודעים, אלא מנחשים את התשובה הסבירה ביותר על בסיס דפוסים סטטיסטיים. ב-5,380 המקורות ש-AI Overviews ציטט, פייסבוק היה המקור השני בשכיחותו ורדיט היה הרביעי. כאשר התשובה הייתה שגויה, הסיכוי שגוגל ציטטה דווקא פייסבוק עלה.

 

דוגמה בולטת לכך הופיעה כאשר גוגל נשאלה איזה נהר גובל בצד המערבי של Goldsboro בצפון קרוליינה. היא מצאה מקור נכון, אתר תיירות מקומי, אך הסיקה מסקנה שגויה: Neuse River במקום Little River. במקרה אחר, כאשר גוגל נשאלה על גילו של שחקן הבייסבול Dick Drago במותו, היא נתנה את הגיל הנכון אך הוסיפה פרטים ביוגרפיים שגויים לחלוטין.

המערכת פגיעה למניפולציות

ג'יימס קלייטון (James Clayton), עיתונאי BBC, פרסם פוסט בלוג פיקטיבי על אליפות אכילת נקניקיות. זה הספיק כדי ש-AI Overviews יציג אותו כמומחה עולמי בתחום. הדוגמה הזו ממחישה עד כמה המודל מתקשה להבחין בין תוכן אמיתי לבין תוכן שנכתב כדי להטעות - כל עוד הוא נראה סביר. גוגל טוענת שמדובר במקרים קיצוניים, אך עצם האפשרות הזו מעלה שאלות קשות על מנגנוני האימות ועל יכולתה של המערכת להתמודד עם תוכן מניפולטיבי.

מה גוגל אומרת או לא אומרת

גוגל מודה שהמערכת יכולה לטעות, ומוסיפה אזהרה קטנה מתחת לכל תשובה: "AI can make mistakes, so double check responses."

 

עם זאת, היא דוחה את הביקורת של Oumi בטענה שהבנצ'מרק עצמו מכיל טעויות. אבל גם גוגל פרסמה נתונים דומים: Gemini 3 מייצר מידע שגוי ב-28 אחוז מהמקרים כשהוא פועל ללא מנוע החיפוש, ו-AI Overviews אמנם מדויק יותר אך עדיין רחוק משלמות.

 

הפער בין ההצהרות לבין המציאות בשטח יוצר תחושה של מערכת שנמצאת בתנועה. היא משתפרת, אך עדיין אינה יציבה.

המשמעות הרחבה

למה המעבר של גוגל ממנוע חיפוש למנוע תשובות משנה את האינטרנט כולו?

 

1. משתמשים מפסיקים לבדוק מקורות כאשר התשובה מוצגת כעובדה סגורה, פחות אנשים לוחצים על קישורים. התוצאה היא פגיעה באתרי חדשות, בבלוגים מקצועיים ובמודלים העסקיים של האינטרנט הפתוח.

2. SEO הופך לפחות צפוי. AI Overviews לא רק מסכם מידע, אלא גם קובע מי יופיע ומי לא. אתרים מדווחים על ירידות חדות בתנועה, גם כאשר התוכן שלהם מדויק.

3. מודלים ג'נרטיביים הופכים לשכבת האמת החדשה. כאשר גוגל, OpenAI ו-Perplexity מספקות תשובות שונות לאותה שאלה, קשה לדעת מי צודק. אין רגולציה, אין סטנדרט, ואין שקיפות.

 

מה הסיכון? אינטרנט שבו "נשמע נכון" מחליף את "נבדק ואומת".

עידן שבו אמון הופך למוצר

המרוץ בין גוגל, OpenAI ו-Perplexity אינו עוסק רק בשאלה מי מספק את התשובה הטובה ביותר, אלא מי יזכה להיות שכבת האמת של האנושות. ככל שהמודלים משתפרים, כך גדל הפער בין מה שנראה נכון, מה שנשמע נכון ומה שבאמת נכון. האתגר של גוגל ושל כל תעשיית ה-AI הוא לא רק לייצר תשובות טובות יותר, אלא לבנות מחדש את האמון. וזה כבר לא עניין של טכנולוגיה - זה עניין של אחריות.

הפוסט מה באמת קורה בתוך AI Overviews? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-ai-overviews-analysis/feed/ 0
טאבולה מפטרת כחלק משינוי כיוון אסטרטגי בעידן ה‑AI https://letsai.co.il/taboola-future-advertising/ https://letsai.co.il/taboola-future-advertising/#respond Mon, 20 Apr 2026 07:25:59 +0000 https://letsai.co.il/?p=73091 טאבולה מפטרת כ‑100 עובדים כחלק מארגון מחדש שנועד להאיץ את המעבר שלה לעולם ה‑AI. למרות הכנסות שיא ורווחיות, החברה מתמודדת עם לחץ משקיעים ועם שוק פרסום שמשתנה במהירות. הפיטורים נועדו לפנות משאבים לפיתוח DeeperDive, מנוע תשובות גנרטיבי מבוסס פרסום שנבנה בשיתוף פעולה עם גופי מדיה. המהלך משקף מגמה רחבה יותר: גם חברות רווחיות נדרשות לבצע […]

הפוסט טאבולה מפטרת כחלק משינוי כיוון אסטרטגי בעידן ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
טאבולה מפטרת כ‑100 עובדים כחלק מארגון מחדש שנועד להאיץ את המעבר שלה לעולם ה‑AI. למרות הכנסות שיא ורווחיות, החברה מתמודדת עם לחץ משקיעים ועם שוק פרסום שמשתנה במהירות. הפיטורים נועדו לפנות משאבים לפיתוח DeeperDive, מנוע תשובות גנרטיבי מבוסס פרסום שנבנה בשיתוף פעולה עם גופי מדיה. המהלך משקף מגמה רחבה יותר: גם חברות רווחיות נדרשות לבצע התאמות כדי להישאר רלוונטיות בעידן ה‑AI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך חברה רווחית ומבוססת מפטרת עובדים

באמצע אפריל 2026 הודיעה טאבולה על פיטורי כ‑100 עובדים, כ‑5 אחוזים מכוח האדם הגלובלי שלה. המהלך השפיע על עובדים בישראל, ניו יורק ודרום אמריקה, והגיע דווקא אחרי שנה פיננסית חזקה במיוחד. לפי הדוחות הפיננסיים, החברה סיימה את 2025 עם הכנסות של 1.912 מיליארד דולר, רווח נקי של 42.3 מיליון דולר וזרימת מזומנים חופשית של 163.4 מיליון דולר.

 

לכאורה, זה לא מסתדר. איך חברה רווחית ומבוססת מפטרת עובדים. אבל ב‑2026 רווחיות כבר אינה ערובה לשקט תעשייתי. תעשיית הטכנולוגיה כולה נמצאת במרוץ מואץ לעבר AI, והחברות נדרשות להראות שהן לא רק רווחיות, אלא גם מסוגלות להמציא את עצמן מחדש.

שוק משתנה

טאבולה פועלת בלב אחד השווקים התחרותיים ביותר: פרסום דיגיטלי מבוסס תוכן. במשך שנים המודל שלה היה ברור. המלצות תוכן שמפנות תנועה לאתרים ומייצרות הכנסות מפרסום. אבל מודלים גנרטיביים כמו ChatGPT, Perplexity ו‑Gemini משנים את הדרך שבה משתמשים מחפשים מידע. במקום להקליק על קישורים, הם מקבלים תשובות ישירות מהמודל.

 

המשמעות ברורה. פחות תנועה לאתרים, פחות חשיפה למפרסמים ופחות ערך למערכות המלצות מסורתיות.

 

במקביל, המשקיעים מצפים מחברות טכנולוגיה להציג לא רק רווחיות אלא גם צמיחה אגרסיבית. למרות שטאבולה הציגה תוצאות חזקות ב‑2025, היא פספסה במעט את תחזיות האנליסטים. התגובה הייתה חדה. מניית החברה ירדה בכ‑25 אחוזים מתחילת 2026, חלק ממגמה רחבה של סנטימנט שלילי כלפי חברות תוכנה ואד‑טק.

 

במציאות הזו טאבולה הבינה שהמשך השקעה במוצרים המסורתיים שלה לא יספיק. כדי להישאר רלוונטית היא חייבת להגדיר את עצמה מחדש.

מעבר חד ל‑AI והולדת DeeperDive

הפיטורים אינם מהלך חירום, אלא חלק מתוכנית אסטרטגית שמטרתה למקד משאבים בפיתוח מוצרי AI חדשים, ובראשם מנוע התשובות הגנרטיבי DeeperDive.

 

בסוף 2025 השיקה טאבולה את DeeperDive, מנוע תשובות מבוסס GenAI שנבנה בשיתוף פעולה עם גופי מדיה גדולים כמו Gannett, India Today ו‑BuzzFeed Asia. בניגוד למודלים שמסתמכים על תוכן מהאינטרנט ללא שיתוף פעולה עם בעלי הזכויות, טאבולה בונה את המערכת יחד עם המו"לים עצמם. זה ניסיון לייצר מודל AI שמכבד זכויות יוצרים ומחזיר ערך למי שיצר את התוכן.

 

המנכ"ל אדם סינגולדה מציג חזון חד וברור: "העולם יתחלק לשני סוגי מודלים. מודלים מבוססי מנוי ומודלים מבוססי פרסום. אנחנו רוצים לבנות את מודל ה‑AI הגדול ביותר שמבוסס על פרסום ומשרת את האינטרנט הפתוח."

 

זה מהלך שאפתני. אלטרנטיבה למנועי תשובות כמו ChatGPT ו‑Perplexity, אבל כזו שמחזירה תנועה לאתרים ולא מחליפה אותם.

 

במקביל, טאבולה משקיעה בפלטפורמת Realize, מערכת מבוססת ML (למידת מכונה) שמטרתה לשפר את ביצועי הקמפיינים ואת ה‑ROI של מפרסמים. זהו חלק מהמעבר של החברה ממערכת המלצות תוכן למערכת פרסום חכמה שמבינה הקשר, כוונה ותוכן בזמן אמת.

ארגון מחדש

לפי כל המקורות, הפיטורים אינם נובעים ממשבר פיננסי. להפך. החברה ממשיכה לגייס לתפקידים חדשים שמתאימים למיקוד העדכני שלה. זהו מהלך של התאמת כישורים, לא של נסיגה. המהלך כולל העברת משאבים מצוותים שאינם תומכים ב‑AI, גיוס לתפקידי AI, ML, דאטה ומוצר, התאמת מבנה ההוצאות לציפיות המשקיעים לשיפור מתמיד במרווחים ורענון שורות שמאפשר האצה בפיתוח מוצרים חדשים.

 

במילים אחרות, טאבולה לא מצמצמת את עצמה. היא משנה את עצמה.

מה מיוחד במהלך הזה

שלושה אלמנטים בולטים במיוחד.

חברה רווחית שמפטרת כדי לצמוח

זה חלק מהפרדוקס החדש של תעשיית הטכנולוגיה. רווחיות היא לא יעד אלא נקודת פתיחה. המשקיעים רוצים לראות קפיצה קדימה, לא שמירה על הקיים.

הימור על מודל עסקי חדש לעולם ה‑AI

בעוד רוב השחקנים הגדולים בונים מודלים מבוססי מנוי, טאבולה בוחרת במסלול אחר. מודל פרסום שמאפשר שימוש חינמי ומחזיר את הכוח לאתרים.

שיתוף פעולה עמוק עם גופי מדיה

במקום להתחרות בהם, טאבולה בונה את DeeperDive יחד איתם. זה ניסיון לייצר מודל AI שמכבד זכויות יוצרים ומחזיר ערך למי שיצר את התוכן.

מה אפשר ללמוד מהמהלך של טאבולה

מהלך ההתייעלות של טאבולה מדגיש כמה עקרונות מרכזיים לגבי האופן שבו חברות פועלות בעידן ה‑AI.

 

AI הוא לא פרויקט צד אלא אסטרטגיה עסקית שמעצבת מחדש את סדרי העדיפויות. גם חברות רווחיות נדרשות לבצע התאמות כדי לעמוד בציפיות השוק. המרוץ ל‑AI מאלץ ארגונים להגדיר מחדש את מבנה כוח האדם שלהם.

 

מודלים מבוססי פרסום עשויים להפוך לאלטרנטיבה משמעותית למודלים מבוססי מנוי. ושיתופי פעולה עם גופי מדיה הם מרכיב חיוני בשמירה על אינטרנט פתוח שמחזיר ערך למי שמייצר את התוכן.

מהלך קטן שמספר סיפור גדול

הפיטורים בטאבולה הם חלק מתופעה רחבה יותר. חברות טכנולוגיה מבצעות ארגון מחדש לא בגלל שהן קורסות אלא בגלל שהן רוצות להאיץ. המרוץ ל‑AI באמת משנה את כללי המשחק. תפקידים מסורתיים נעלמים, תפקידים חדשים נוצרים, מודלים עסקיים מתחלפים והמשקיעים מצפים לחדשנות בקצב שלא היה כמותו.

 

טאבולה, כמו חברות רבות אחרות, מבינה שהשנים הקרובות יכריעו מי יישאר רלוונטי בעולם שבו AI הוא שכבת התשתית החדשה של האינטרנט. המהלך הנוכחי הוא צעד אחד בתוך שינוי עמוק יותר, כזה שמגדיר מחדש את עתיד הפרסום, התוכן והאינטרנט הפתוח.

הפוסט טאבולה מפטרת כחלק משינוי כיוון אסטרטגי בעידן ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/taboola-future-advertising/feed/ 0
Claude Opus 4.7 עם עדכון משמעותי ליכולות קוד, ראייה וזיכרון https://letsai.co.il/claude-opus-4-7/ https://letsai.co.il/claude-opus-4-7/#respond Sat, 18 Apr 2026 10:11:53 +0000 https://letsai.co.il/?p=73012 Opus 4.7 הוא העדכון החדש למודל הדגל של Anthropic. הוא לא משנה את כללי המשחק, אבל כן מוסיף יכולות שמרגישות כמו התקדמות אמיתית: עבודה רציפה לאורך זמן, הבנה טובה יותר של תמונות, זיכרון שמחזיק לאורך סשנים ארוכים וכלים שמאפשרים למודל לא רק לכתוב קוד אלא גם לבדוק את עצמו. העדכון מתאים למשתמשים שרוצים מודל יציב […]

הפוסט Claude Opus 4.7 עם עדכון משמעותי ליכולות קוד, ראייה וזיכרון הופיע ראשון בLet's AI בינה מלאכותית

]]>
Opus 4.7 הוא העדכון החדש למודל הדגל של Anthropic. הוא לא משנה את כללי המשחק, אבל כן מוסיף יכולות שמרגישות כמו התקדמות אמיתית: עבודה רציפה לאורך זמן, הבנה טובה יותר של תמונות, זיכרון שמחזיק לאורך סשנים ארוכים וכלים שמאפשרים למודל לא רק לכתוב קוד אלא גם לבדוק את עצמו. העדכון מתאים למשתמשים שרוצים מודל יציב ומדויק יותר בלי להעמיק בהגדרות טכניות, ובמקביל נותן למפתחים את השליטה הדרושה כדי לשלב אותו במערכות קיימות.

 

אנטרופיק משיקה את קלוד אופוס 4.7

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

האתגרים של הדור הקודם

מודלים קודמים, ובמיוחד מודל הדגל האחרון (opus 4.6) ידעו לכתוב קוד טוב, אבל כשהעבודה נמשכה לאורך זמן הם נטו לאבד יציבות. משימות ארוכות כמו ניתוח קוד מורכב או פתרון בעיות רב שלביות הסתיימו לפעמים בתוצאה חלקית או שגויה.

 

גם יכולות הראייה היו מוגבלות: צילומי מסך צפופים, דיאגרמות טכניות או מסמכים סרוקים דרשו מהמשתמש לפשט את התמונה או להסביר אותה במילים.

 

בנוסף, אפילו פרומפטים מכוילים היטב (כאלה שנוסחו בקפידה) לא תמיד התנהגו באופן עקבי, משום שהמודלים פירשו הוראות בצורה חופשית מדי.

 

 

השוואה רוחבית של Opus 4.7 מול גרסאות קודמות ומודלים מתחרים

השוואה רוחבית של Opus 4.7 מול גרסאות קודמות ומודלים מתחרים | Anthropic

מה חדש ב- Opus 4.7

אוטונומיה ארוכה ויכולת בדיקה עצמית

Opus 4.7 יודע לתכנן משימות ארוכות ולשמור על קו מחשבה יציב לאורך זמן. הוא גם בודק את עצמו לפני שהוא מחזיר תשובה. יכולת הבדיקה העצמית פירושה שהמודל עובר על הלוגיקה שלו, מחפש טעויות ומתקן אותן. זה לא מחליף בקרה אנושית, אבל כן מפחית טעויות מפתיעות ומעלה את רמת האמינות.

 

Opus 4.7 שומר על יתרון ככל שרמת המאמץ והטוקנים עולה

Opus 4.7 שומר על יתרון ככל שרמת המאמץ והטוקנים עולה | Anthropic

ראייה ברזולוציה גבוהה

המודל יכול לעבד תמונות ברזולוציה של עד 3.75 מגה פיקסל. בפועל זה אומר שהוא רואה הרבה יותר פרטים. היכולת הזו מאפשרת לו להבין צילומי מסך צפופים, דיאגרמות טכניות, עיצובים מורכבים, מסמכים סרוקים ואפילו מבנים כימיים. חברת XBOW דיווחה על שיפור משמעותי בדיוק הוויזואלי, מ-54.5 אחוז ל-98.5 אחוז.

 

שיפור ביכולות ניווט ויזואלי, במיוחד ברזולוציה גבוהה ובשימוש בכלים

שיפור ביכולות ניווט ויזואלי, במיוחד ברזולוציה גבוהה ובשימוש בכלים | Anthropic

זיכרון מבוסס קבצים

Opus 4.7 משתמש טוב יותר בזיכרון מבוסס קבצים. הוא זוכר הערות ומידע לאורך זמן, גם בין סשנים שונים, ולכן המשתמש לא צריך לחזור על כל פרט בכל פנייה מחדש.

 

שיפור ביכולות חשיבה לאורך הקשר ארוך במשימות גרף מורכבות

שיפור ביכולות חשיבה לאורך הקשר ארוך במשימות גרף מורכבות | Anthropic

עמידה מדויקת בהוראות

המודל מפרש הוראות בצורה מדויקת יותר. זה משפר עקביות ואמינות, אבל דורש לעיתים התאמה מחדש של פרומפטים קיימים, במיוחד כאלה שנוסחו בצורה עדינה או תלויה בהתנהגות קודמת של המודל.

כלים חדשים ב‑Claude Code

Opus 4.7 מוסיף ל‑Claude Code סט כלים שמטרתו להפוך עבודה עם קוד למשימה ברורה ויעילה יותר. הכלים האלה מאפשרים למודל לקבל החלטות בעצמו, לסכם התקדמות, להציג רק את מה שחשוב ולבצע ביקורת קוד מעמיקה. גם משתמשים שאינם טכניים יכולים להבין אותם, ובמקביל מי שמכיר פקודות סלאש ימצא אותן משולבות בצורה טבעית.

Auto Mode

מצב שבו המודל מחליט לבד אילו פעולות בטוחות להריץ ואילו דורשות אישור. זה חוסך זמן ומפחית את הצורך לאשר כל פעולה ידנית.

פחות אישורים מיותרים

הפקודה less-permission-prompts/ סורקת את היסטוריית העבודה ומוסיפה לרשימת המותר את הפעולות שכבר אישרתם בעבר. התוצאה היא פחות הפרעות וזרימה חלקה יותר.

תצוגה ממוקדת

הפקודה focus/ מציגה רק את התוצר הסופי ומסתירה את שלבי הביניים - שימושי כשצריך לראות את התוצאה בלי הרעש שמסביב.

ביקורת קוד מעמיקה

הפקודה ultrareview/ מפעילה סשן ביקורת קוד שמדמה מבקר אנושי קפדן. היא מסמנת בעיות לוגיות, חוסר עקביות ונקודות לשיפור.

 Opus 4.7 במספרים

Opus 4.7 מציג שיפור עקבי ברוב הבנצ'מרקים, במיוחד במשימות קוד מורכבות. בנצ'מרקים הם מבחנים סטנדרטיים שמודדים יכולות של מודלים בתחומים שונים, כמו פתרון בעיות תכנות, הבנת סביבות עבודה או ניתוח מידע. לצד ההתקדמות, יש גם תחומים שבהם הביצועים פחות טובים, ולכן חשוב להבין את התמונה המלאה לפני מיגרציה (מעבר מגרסה אחת של המודל לגרסה חדשה).

 

Opus 4.7 משפר ביצועים בבנצ'מרקי קוד מורכבים לעומת 4.6

Opus 4.7 משפר ביצועים בבנצ'מרקי קוד מורכבים לעומת 4.6 | Anthropic

שיפורים בולטים

Opus 4.7 מציג קפיצה ברורה ביכולות הקוד, הניתוח וההבנה הלוגית. בבנצ'מרק SWE bench Pro הוא מטפס מ-53.4 אחוז ב-4.6 ל-64.3 אחוז, שיפור שממחיש את היכולת שלו להתמודד עם תיקוני באגים מורכבים. בגרסת SWE bench Verified הוא מגיע ל-87.6 אחוז, נתון שממקם אותו כאחד המודלים המדויקים ביותר במשימות קוד מאומתות.

 

גם ב-CursorBench הוא שומר על יציבות גבוהה עם 70 אחוז, וב-MCP Atlas הוא עולה ל-77.3 אחוז, מה שמראה שיפור ביכולות שימוש בכלים בקנה מידה רחב.

 

ב-OSWorld Verified הוא מגיע ל-78 אחוז, עדות ליכולת טובה יותר לבצע פעולות מורכבות בסביבות מחשב אמיתיות. ובקצה העליון של היכולות האקדמיות, GPQA Diamond מציב את Opus 4.7 על 94.2 אחוז - רמת דיוק שממחישה את העומק הלוגי והיכולת להתמודד עם שאלות ברמת תואר שני ומעלה.

 

Opus 4.7 מציג קפיצה ביכולות ניתוח וידע כלליות

Opus 4.7 מציג קפיצה ביכולות ניתוח וידע כלליות | Anthropic

 

בנוסף, חברת Rakuten דיווחה כי בבנצ'מרק הפנימי שלהם המודל פתר פי שלושה משימות פרודקשן לעומת גרסאות קודמות.

מגבלות

לצד השיפור הרחב ביכולות, יש גם תחומים שבהם Opus 4.7 מציג נסיגה או פער מול מודלים אחרים. בבנצ'מרק BrowseComp, שמודד את היכולת של סוכנים לבצע חיפוש וניתוח מידע ברשת, המודל יורד בכארבע נקודות לעומת Opus 4.6 - שינוי שמורגש במיוחד אצל צוותים שמריצים סוכני מחקר כבדים.

 

גם ב-Terminal Bench 2.0, מבחן שמדמה עבודה רציפה בטרמינל, Opus 4.7 מגיע ל-69.4 אחוז, נתון נמוך מהתוצאה של GPT 5.4 שמגיע ל-75.1 אחוז. עבור משתמשים שמסתמכים על משימות טרמינל מורכבות, זה פער שצריך לקחת בחשבון לפני מעבר לגרסה החדשה.

השוואה ל- Mythos Preview

Mythos Preview עדיין מוביל ברוב הבנצ'מרקים, אך אינו זמין לציבור הרחב. Anthropic ציינה כי Opus 4.7 עבר הפחתה מכוונת ביכולות סייבר כדי לבדוק מנגנוני הגנה חדשים, ולכן חלק מהפערים צפויים.

אבטחה, מידע למשתמש המתקדם ו- Cyber Verification Program

Opus 4.7 כולל מנגנוני אבטחה שמטרתם למנוע שימוש לרעה. המודל חוסם באופן אוטומטי בקשות שנראות מסוכנות, גם אם המשתמש התכוון אליהן בהקשר לגיטימי. עבור צוותים שעוסקים במחקר אבטחה או בדיקות חדירות, זה עלול ליצור חיכוך.

 

כדי להתמודד עם זה, Anthropic מפעילה תוכנית ייעודית למקצועני אבטחה, שמאפשרת להם לעבוד עם המודל תחת תנאים מבוקרים וללא חסימות מיותרות.

Tokenizer inflation

בגרסה הזו אותו טקסט עשוי לעלות יותר טוקנים מאשר בעבר, בדרך כלל בין 1.0 ל- 1.35 יותר. טוקנים הם יחידות טקסט קטנות שהמודל משתמש בהן כדי לעבד מידע, ולכן עלייה במספר הטוקנים משפיעה על עלות השימוש. ברמות מאמץ גבוהות המודל גם מייצר יותר טוקנים בפלט, מה שמגדיל את הצריכה הכוללת.

המלצות מיגרציה

מיגרציה היא תהליך המעבר מגרסה ישנה של המודל לגרסה חדשה. זה כולל בדיקה שהמערכת, הקוד והפרומפטים ממשיכים לעבוד כרגיל גם אחרי השדרוג.

 

כדי לבצע מיגרציה חלקה ל- Opus 4.7 מומלץ:

  • להריץ מדידות על תעבורה אמיתית כדי להבין את השפעת עליית הטוקנים.

  • לבצע רגרסיה לפרומפטים ולוודא שהם עדיין מניבים את התוצאות הרצויות.

  • להשתמש ב- effort control כדי לשלוט בעומק החשיבה של המודל.

  • להגדיר task budgets שמגבילים את כמות העבודה שהמודל מבצע בכל משימה.

  • להשיק rollout מדורג, כלומר להפעיל את הגרסה החדשה בהדרגה ולשמור אפשרות לחזור אחורה במקרה הצורך.

Claude Design: יצירה דרך שיחה

לצד Opus 4.7 Anthropic השיקה את Claude Design, כלי שמאפשר ליצור עיצובים, מצגות, דפי מוצר ואבי טיפוס פשוט על ידי שיחה. המשתמש מתאר מה הוא רוצה, ו- Claude מייצר גרסה ראשונית שאפשר לשפר דרך שיחה, הוספת הערות או עריכה ישירה על המסך.

 

לאחר שהעיצוב מוכן אפשר לייצא אותו ל Canva, לקובץ PDF או PPTX, או להעביר אותו ישירות ל Claude Code להמשך פיתוח. הכלי גם יודע לקרוא את קבצי העיצוב והקוד של הצוות, לבנות מהם ספריית עיצוב פנימית וליישם אותה אוטומטית על כל פרויקט חדש, כך שהתוצרים נשארים עקביים עם המותג.

 

Claude Design זמין בשלב research preview למשתמשי Pro, Max, Team ו- Enterprise. להשקה הזו נייחד מדריך נפרד שייצא בקרוב.

 

מחיר וזמינות

המחיר של Opus 4.7 נשאר זהה לגרסה הקודמת: 5 דולר למיליון טוקנים בקלט ו- 25 דולר למיליון טוקנים בפלט. המודל זמין תחת המזהה claude-opus-4-7.

 

Opus 4.7 זמין לשימוש ב- Claude.ai, ב- Claude Code, דרך Anthropic API, ובפלטפורמות Bedrock, Vertex AI ו- Microsoft Foundry.

עדכון משמעותי, אבל לא לכל אחד

Opus 4.7 מביא שיפור עקבי ביכולות קוד, ראייה וזיכרון, לצד כלים שמיועדים לעבודה ארוכה ורב שלבית. הנתונים מצביעים על מודל חזק יותר מ- Opus 4.6 בתחומים רבים, אך לא בכל מדד, והוא כולל שינויים תפעוליים שמחייבים בדיקה לפני מיגרציה. עבור משתמשים שמפתחים סוכנים, מבצעים ביקורת קוד או יוצרים תוצרים מקצועיים, זה בהחלט עדכון משמעותי.

הפוסט Claude Opus 4.7 עם עדכון משמעותי ליכולות קוד, ראייה וזיכרון הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-opus-4-7/feed/ 0
Personal Intelligence מגיע לישראל והופך לעוזר האישי שלכם https://letsai.co.il/gemini-personal-intelligence-2/ https://letsai.co.il/gemini-personal-intelligence-2/#respond Sat, 18 Apr 2026 05:53:34 +0000 https://letsai.co.il/?p=72900 במשך שנים דיברנו על עוזרי בינה מלאכותית כאילו הם עומדים להפוך לחלק מהיומיום שלנו. הם ידעו לענות על שאלות כלליות, לנסח מיילים או להציע רעיונות, אבל לא באמת הכירו אותנו. הם לא ידעו מה אנחנו אוהבים, מה עשינו, מה תכננו או מה חשוב לנו. הם היו עוזרים, אבל לא אישיים. כעת גוגל מציגה בישראל את […]

הפוסט Personal Intelligence מגיע לישראל והופך לעוזר האישי שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשך שנים דיברנו על עוזרי בינה מלאכותית כאילו הם עומדים להפוך לחלק מהיומיום שלנו. הם ידעו לענות על שאלות כלליות, לנסח מיילים או להציע רעיונות, אבל לא באמת הכירו אותנו. הם לא ידעו מה אנחנו אוהבים, מה עשינו, מה תכננו או מה חשוב לנו. הם היו עוזרים, אבל לא אישיים. כעת גוגל מציגה בישראל את Personal Intelligence, או בשמו המקומי "AI מותאם אישית", יכולת חדשה בג׳מיני שמאפשרת לו להתחבר למידע האישי שלכם בגוגל באישור מפורש בלבד. המטרה היא לאפשר לעוזר להבין את ההקשר שבו אתם פועלים, ולא רק את השאלה שאתם שואלים. ברגע שהפיצ׳ר פעיל, ג׳מיני כבר לא מסתמך רק על ידע כללי. הוא מסוגל לקרוא מיילים רלוונטיים, לזהות דפוסים בתמונות, להבין במה צפיתם ב-YouTube ולשלב את כל זה לכדי תשובה אחת שמבוססת על החיים שלכם. זה צעד שמקרב את העוזר הווירטואלי להיות כלי שמבין את המשתמש, ולא רק את הטקסט שמופיע מולו. בישראל, ההשקה מתגלגלת. הפיצ׳ר זמין כבר עכשיו למנויי Gemini Advanced ו-Google One AI Premium, ויגיע לכל המשתמשים בהמשך.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שכבת הבנה חדשה שמבוססת על החיים שלכם

למרות ההתקדמות האדירה של מודלי שפה, הם עדיין פעלו מתוך ידע כללי בלבד. הם ידעו לענות על שאלות מורכבות, אבל לא על שאלות שנוגעות לחיים האישיים של המשתמש. הם לא יכלו לשלוף מידע מתוך מיילים, להבין מה חשוב לכם לאורך זמן, או להציע המלצות שמבוססות על ההיסטוריה שלכם.

 

הפער הזה הפך את העוזרים הווירטואליים לכלים מרשימים אך מוגבלים, טובים בידע אך לא בהקשר, יעילים בהסברים אבל לא מכירים אתכם טוב מספיק. Personal Intelligence נועד לגשר על הפער הזה ולהוסיף ל-Gemini יכולת להבין את המשתמש דרך המידע האישי שכבר קיים בחשבון שלו, כך שהעוזר יכול לפעול מתוך תמונה רחבה ומדויקת יותר של המשתמש שמולו.

 

Personal Intelligence בג'מיני

מה Personal Intelligence מאפשר בפועל

Personal Intelligence מוסיף ל-Gemini יכולת לחבר בין מקורות מידע שונים בחשבון שלכם ולבנות מהם תמונה רחבה יותר של ההקשר שבו אתם פועלים. הוא לא מסתפק בקריאה של מייל או תמונה בודדת, אלא מצליב ביניהם. אם אתם מתכננים חופשה, הוא יכול לשלב תמונות מטיולים קודמים, מיילים עם המלונות שאהבתם וסרטונים שצפיתם בהם.

 

אחד השדרוגים המשמעותיים שמגיעים יחד עם Personal Intelligence הוא החיבור בין מחולל התמונות של גוגל (Nano Banana) לבין ספריית התמונות האישית שלכם ב‑Google Photos. עד היום, כדי לייצר תמונה שמבוססת עליכם הייתם צריכים להעלות תמונות רפרנס, לנסח פרומפטים ארוכים ולכוון את המודל ידנית. עכשיו, ברגע ש‑Personal Intelligence פעיל, Gemini יכול לגשת לגלריה שלכם (בקריאה בלבד) ולהבין מי אתם, איך אתם נראים, מי בני המשפחה ומה מאפיין את חיות המחמד שלכם.

 

המשמעות היא שאפשר פשוט לבקש בשפה טבעית: “תייצר תמונה של המשפחה שלי על גלגל ענק”, “תעשה ציור של הכלב שלי בסגנון פיקסאר” או “תיצור תמונה שלי רץ על חוף הים” - והמודל כבר יודע בדיוק על מי מדובר. זה הופך יצירת תמונות מותאמות אישית ממשהו טכני ומסורבל לחוויה טבעית, מהירה ואינטואיטיבית.

 

היכולת הזו מתחברת גם למנגנוני הזיכרון וההוראות של ג׳מיני, כך שהעוזר לא רק מבין אתכם ברגע נתון, אלא גם זוכר מה חשוב לכם לאורך זמן. 

מה הוא לא עושה

כדי להבין את הפיצ׳ר באמת, חשוב להכיר גם את המגבלות שלו. היכולת של Gemini לדייק תלויה באיכות המידע שלכם. אם התמונות לא מתויגות, אם אין מיקום, אם המיילים עמומים, היכולת שלו לאחזר מידע רלוונטי נפגעת. הוא לא מנחש - הוא מאחזר.

 

בנוסף, Personal Intelligence הוא לא סוכן אוטונומי. הוא יודע לקרוא, להבין, להצליב ולהציע, אבל אינו מבצע פעולות מורכבות ללא פיקוח. הוא לא מזמין טיסות, לא מנהל משא ומתן ולא מבצע משימות מקצה לקצה. גם ההיכרות שלו אתכם היא הקשרית בלבד. הוא מזהה דפוסים, לא רגשות. הוא מבין העדפות, לא אישיות. זה פיצ'ר חזק, אבל לא קסם.

דוגמאות לשימוש אמיתי

היכולות החדשות של Gemini מאפשרות לשאול שאלות שלא היו אפשריות בעבר, והערך שלהן מתגלה דווקא בסיטואציות יומיומיות. כשאתם מבקשים ממנו למצוא את מספר הרכב שלכם, הוא לא “מנחש” אלא מאתר תמונות שבהן הרכב מופיע, קורא את לוחית הרישוי ומחזיר את המידע בתוך שניות. המשמעות היא שלא צריך לחפש ידנית בגלריה או במסמכים.

 

כשאתם מבקשים לזהות משהו שחוזר בתמונות שלכם, הוא מסוגל לזהות דפוסים לאורך זמן, למשל שאתם מציירים, מבשלים או מצלמים נופים, ולהציע רעיונות שמתאימים לתחומי העניין האמיתיים שלכם.

 

וכשאתם מבקשים לתכנן סופ״ש בפריז או למצוא פודקאסט שיעניין אתכם, הוא משלב בין ההיסטוריה שלכם ב-YouTube, מיילים ישנים והעדפות קודמות כדי להציע משהו שמבוסס על מי שאתם, לא על משתמש ממוצע. אלה דוגמאות שממחישות איך Personal Intelligence הופך את העוזר לכלי שמבין את ההקשר של החיים שלכם ומספק תשובות שמרגישות רלוונטיות ומדויקות יותר.

 

תבחרו איזה כלים בא לכם לחבר ל- Personal Intelligence

תבחרו איזה אפליקציות בא לכם לחבר

איך מפעילים את זה

ההפעלה של Personal Intelligence פשוטה, אבל נעשית רק ביוזמת המשתמש ובאישור מפורש. כך מפעילים:

 

1. פותחים את אפליקציית Gemini. ודאו שאתם מחוברים עם חשבון גוגל שבו תרצו להפעיל את הפיצ׳ר.
2. נכנסים להגדרות ועזרה דרך תפריט ראשי ← הגדרות ועזרה. גללו מעט למטה אם אינכם רואים את האפשרות מיד.
3. בוחרים AI מותאם אישית. זהו המסך המרכזי שמנהל את Personal Intelligence.
4. נכנסים לאפליקציות מקושרות ומגדירים איזה שירותים של גוגל יוכלו לספק מידע לג׳מיני.
5. מסמנים איזה שירותים רוצים לחבר.

 

ייתכן שהמיקום המדויק של האפשרות ישתנה מעט בין גרסאות האפליקציה, אבל העיקרון זהה: Personal Intelligence מופיע תחת הגדרות ג׳מיני, ומשם ניתן לבחור אילו שירותים לחבר.

 

בסופו של דבר, אתם קובעים מה מחובר ומה לא. Personal Intelligence עובד רק עם המידע שאתם בוחרים לשתף, ורק כל עוד בחרתם להשאיר את החיבור פעיל.

 

הפעלת AI מותאם אישית

הפעלת AI מותאם אישית

אבטחת מידע: מה חשוב לדעת לפני שמפעילים

המידע האישי שלכם לא משמש לאימון המודל, וג׳מיני מקבל אליו גישה לקריאה בלבד. ניתן לנתק הרשאות בכל רגע, ואין שימוש פרסומי במידע או שיתוף עם צד שלישי. כל העיבוד מתבצע בתוך התשתית המאובטחת של גוגל, תחת אותם מנגנוני הגנה שמפעילים את שירותי הליבה של החברה.

 

הדבר היחיד שאינו מפורט במלואו הוא אילו שירותים נוספים עשויים להצטרף בעתיד או האם יתווספו יכולות עומק נוספות, אך במסגרת ההשקה הנוכחית התמונה ברורה: השליטה בידיים שלכם, והמידע נשאר בתוך החשבון שלכם.

עוזר אישי אמיתי 

Personal Intelligence מסמן את המעבר מעוזרי AI כלליים לעוזרים אישיים באמת. הוא לא רק יודע הרבה - הוא יודע עליכם. הוא מבין הקשרים, זוכר העדפות ומסוגל לעזור במשימות שמבוססות על החיים האמיתיים שלכם. יחד עם זאת, הוא לא מחליף שיקול דעת אנושי, לא פועל באופן אוטונומי ולא פותר כל בעיה. הוא כלי חזק ושימושי, כל עוד מבינים את המגבלות ואת האופן שבו הוא עובד.

 

ההשקה בישראל מסמנת תחילתו של עידן שבו העוזר הווירטואלי הופך להיות חלק מהיומיום - לא רק מודל שפה חכם, אלא כלי אישי שמכיר אתכם, מבין אתכם ומסוגל ללוות אתכם במשימות שמבוססות על מי שאתם באמת.

הפוסט Personal Intelligence מגיע לישראל והופך לעוזר האישי שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-personal-intelligence-2/feed/ 0
מחתרת ה‑AI בקמפוסים: מה הסטודנטים עושים כשאין מדיניות ברורה https://letsai.co.il/ai-underground-campuses/ https://letsai.co.il/ai-underground-campuses/#respond Thu, 16 Apr 2026 05:11:57 +0000 https://letsai.co.il/?p=72739 מחקר משותף של Gallup וקרן Lumina, המבוסס על כמעט 4,000 סטודנטים בארצות הברית, מגלה שרוב הסטודנטים כבר משתמשים בכלי בינה מלאכותית כמו ChatGPT, Gemini ו‑Copilot לצורכי לימודים לפחות פעם בשבוע, גם במוסדות שבהם השימוש בכלים הללו מוגבל או אסור. הדוח מצביע על פער עמוק בין מדיניות מוסדית שמרנית לבין המציאות בשטח, על חוסר בהירות בהנחיות […]

הפוסט מחתרת ה‑AI בקמפוסים: מה הסטודנטים עושים כשאין מדיניות ברורה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מחקר משותף של Gallup וקרן Lumina, המבוסס על כמעט 4,000 סטודנטים בארצות הברית, מגלה שרוב הסטודנטים כבר משתמשים בכלי בינה מלאכותית כמו ChatGPT, Gemini ו‑Copilot לצורכי לימודים לפחות פעם בשבוע, גם במוסדות שבהם השימוש בכלים הללו מוגבל או אסור. הדוח מצביע על פער עמוק בין מדיניות מוסדית שמרנית לבין המציאות בשטח, על חוסר בהירות בהנחיות ועל מחסור בהדרכה לשימוש נכון ואתי. הסטודנטים מדווחים שהם משתמשים ב‑AI בעיקר כדי להבין חומר מורכב, בעוד שנמנעים עושים זאת בעיקר מסיבות אתיות. המסקנה שעולה מהנתונים ברורה: בינה מלאכותית כבר הפכה לחלק אינטגרלי מחוויית הלמידה, והאתגר המרכזי של האקדמיה הוא לא אם לאפשר אותה, אלא איך למסגר, לכוון ולנצל אותה לטובת למידה עמוקה ומודעת יותר.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הפער בין המדיניות הרשמית להתנהגות הסטודנטים

באופן רשמי, בהרבה קמפוסים בארצות הברית בינה מלאכותית עדיין נתפסת כאיום, משהו שצריך להגביל, לאכוף או להכניס לסילבוס בעיקר דרך סעיף האיסורים. אבל אם שואלים את הסטודנטים, התמונה שונה לגמרי. עבורם, ChatGPT, Gemini ו‑Copilot הם כבר חלק מהשגרה הלימודית, לא פחות מספר הלימוד או קבוצת הווטסאפ של הכיתה.

 

מחקר חדש של Gallup וקרן Lumina, כחלק מדוח State of Higher Education, מנסה להצמיד מספרים מדויקים לתחושה הזו ומגלה מערכת יחסים מורכבת בין סטודנטים, מוסדות אקדמיים והבינה המלאכותית שנכנסה לחייהם כמעט בן לילה.

כולם משתמשים, כמעט אף אחד לא מדבר על זה

הנתון הבולט ביותר בדוח הוא היקף השימוש: כ‑57 אחוזים מהסטודנטים משתמשים בכלי בינה מלאכותית לצורכי לימודים לפחות פעם בשבוע, וכ‑20 אחוזים מדווחים על שימוש יומיומי. רק 13 אחוזים אומרים שהם לא משתמשים כלל.

 

שיעורי השימוש ב‑AI בקרב סטודנטים

שיעורי השימוש ב‑AI בקרב סטודנטים

 

במקביל, יותר ממחצית מהסטודנטים, 53 אחוזים, מדווחים שהמוסד שלהם מסתייג משימוש ב‑AI או אוסר עליו במפורש. למרות זאת, גם במוסדות שבהם קיים איסור רשמי, 48 אחוזים מהסטודנטים ממשיכים להשתמש בכלים הללו באופן שבועי.

 

הפער בין מדיניות המוסד להתנהגות הסטודנטים

הפער בין מדיניות המוסד להתנהגות הסטודנטים

 

כאן נוצר הפער הראשון: האקדמיה משדרת ״עדיין לא״, בזמן שהסטודנטים כבר חיים ב״לגמרי כן״. התוצאה היא שימוש במחתרת, מצב שמזכיר את תופעת ה‑shadow AI בארגונים, שבה עובדים מאמצים כלים מתקדמים למרות היעדר מדיניות ברורה. גם כאן, הסטודנטים מפיקים ערך ממשי מהטכנולוגיה, אבל עושים זאת בלי שיח פתוח, בלי הנחיות ובלי ליווי פדגוגי.

מה מותר ומה אסור? ומי מחליט?

המחקר מצביע גם על בעיה בסיסית יותר: חוסר שקיפות. 52 אחוזים מהסטודנטים מדווחים שלפחות בחלק מהקורסים אין הנחיות ברורות לגבי שימוש בבינה מלאכותית. כלומר, גם כשהמוסד מחזיק מדיניות AI, היא לא תמיד מתורגמת לשפה של הכיתה, של המטלה ושל היום יום.

 

29 אחוזים מהסטודנטים מרגישים שהם לא מקבלים מספיק הדרכה על שימוש נכון ואתי בכלים הללו. לא איך לעקוף את המערכת, אלא איך להשתמש ב‑AI כמנוף ללמידה: איך לבקר תשובות, לשלב מקורות, להימנע מהטיות ולציין שימוש בכלי בצורה שקופה.

 

היעדר הנחיות ברורות והדרכה מספקת

היעדר הנחיות ברורות והדרכה מספקת

 

הפער הזה, בין שימוש גבוה לבין הדרכה נמוכה, דוחף את ה‑AI אל מתחת לשולחן. במקום להיות חלק מהשיחה הפדגוגית, הוא הופך לכלי שהסטודנטים משתמשים בו לבד, לעיתים עם תחושת אשמה או חשש.

לטובת מה הסטודנטים באמת משתמשים ב‑AI?

אחת ההנחות הרווחות בשיח הציבורי היא שסטודנטים משתמשים ב‑AI כדי לקצר תהליכים, לכתוב עבודות במקומם או לעקוף את המאמץ. המחקר של Gallup ו‑Lumina מצייר תמונה רחבה ומורכבת יותר.

 

בקרב סטודנטים שמשתמשים ב‑AI לפחות פעם בחודש, 86 אחוזים מציינים שהסיבה המרכזית היא להבין חומר לימוד מורכב. כמעט מחצית מהם מגדירים זאת כחשוב מאוד. רק אחר כך מגיעים מניעים כמו חיסכון בזמן, שיפור ציונים או הכנה לקריירה. במילים אחרות, עבור רבים ה‑AI מתפקד כמורה פרטי זמין בכל שעה: מסביר מחדש מושגים, מפשט טקסטים, נותן דוגמאות נוספות או עוזר לבדוק אם הבינו נכון.

 

שימוש ב‑AI להבנת חומר לימוד מורכב

שימוש ב‑AI להבנת חומר לימוד מורכב

 

מנגד, מי שנמנעים משימוש בכלים הללו עושים זאת בעיקר מסיבה אחת: אתיקה. כ‑74 אחוזים מהנמנעים רואים בשימוש ב‑AI סוג של רמאות או בעיה מוסרית, ו‑68 אחוזים מציינים את כללי המוסד כסיבה מרכזית להימנעות. רק 14 אחוזים אומרים שהם לא משתמשים כי הם לא יודעים איך.

 

הסיבות המרכזיות להימנעות משימוש ב‑AI

הסיבות המרכזיות להימנעות משימוש ב‑AI

איך זה עובד בפועל ומה חסר?

המחקר לא נכנס לעומק של יוזמות פדגוגיות ספציפיות, אבל הוא כן מצביע על דפוס ברור: הסטודנטים כבר משלבים את ה‑AI בכל שלבי הלמידה, משלב ההבנה הראשונית ועד פתרון תרגילים ובדיקת תשובות. מה שחסר הוא השכבה שמעל, זו שאמורה למסגר את השימוש ולהגדיר מה מותר ומה אסור.

 

למשל, מותר להשתמש ב‑AI כדי להסביר מושגים, אבל אסור להגיש טקסט שנוצר אוטומטית כעבודה מקורית. בנושא השקיפות עולה השאלה האם צריך לציין בעבודה שהשתמשו ב‑AI, איך לעשות זאת ובאיזה פורמט.

 

בנוגע לכלים ביקורתיים, נדרש ללמד איך לזהות טעויות, הטיות או המצאות של המודל, ואיך להימנע מתלות בו. כאן נמצא אחד הפערים המרכזיים בדוח: הוא מתאר היטב את ההתנהגות והתחושות של הסטודנטים, אבל פחות מפרט מה עושים המוסדות שמנסים לבנות מדיניות חכמה. זהו אזור שמצריך מחקר משלים, למשל על קורסים שמשלבים במודע עבודה עם מודלים גנרטיביים, או על סילבוסים שמגדירים רמות שונות של שימוש מותר.

מה מיוחד במחקר הזה?

יש לא מעט סקרים על שימוש ב‑AI בחינוך, אבל למחקר של Gallup ו‑Lumina יש כמה יתרונות בולטים:

היקף

כמעט ארבעת אלפים סטודנטים מתארים שונים השתתפו בו, כחלק ממסגרת מחקרית רחבה יותר על מצב ההשכלה הגבוהה.

חיבור למדיניות

הדוח לא מסתפק בשאלה כמה משתמשים, אלא בוחן גם מה המוסד אומר על השימוש, ומציף את הפער בין ההצהרות לבין המציאות בשטח.

מוטיבציות ולא רק תדירות

הוא לא מודד רק כמה פעמים בשבוע משתמשים ב‑AI, אלא גם למה משתמשים ולמה נמנעים.

החידוש האמיתי אינו במספרים עצמם, אלא באופן שבו הם ממסגרים את ה‑AI. הכלים הללו אינם מוצגים כגימיק טכנולוגי או תופעה חולפת, אלא כמרכיב קבוע בחוויית הסטודנט, כזה שמוסדות ההשכלה הגבוהה כבר לא יכולים להרשות לעצמם להתעלם ממנו.

מה זה אומר לתעשייה ולאקדמיה?

המחקר מציג מסר ברור. בינה מלאכותית כבר אינה שאלה עתידית עבור סטודנטים, אלא חלק מהשגרה הלימודית שלהם. לכן, השאלה המרכזית עבור האקדמיה אינה האם לאפשר שימוש ב‑AI, אלא איך למסגר אותו בצורה אחראית ומועילה.

 

עבור מוסדות אקדמיים, המשמעות מעשית:

1. איסור גורף לא עובד. הסטודנטים ימשיכו להשתמש בכלים הללו גם כשהם אסורים, רק ללא הכוונה.

2. מדיניות חייבת להיות קונקרטית. ברמת הקורס, סוג המטלה ואופן הציון, ולא רק הצהרה כללית.

3. הדרכה היא תשתית, לא תוספת. אם AI הוא כלי למידה מרכזי, יש ללמד כיצד לעבוד איתו, לא רק להזהיר מפניו.

 

עבור תעשיית ה‑EdTech וחברות AI, המחקר מסמן הזדמנות לפיתוח כלים שמותאמים לסביבה אקדמית, עם שקיפות, בקרה, תיעוד שימוש ותמיכה מובנית בהוראה.

 

ובסופו של דבר, המחקר מזכיר נקודה פשוטה: הסטודנטים כבר בחרו להשתמש ב‑AI. עכשיו תורם של המוסדות להחליט אם להצטרף לשיחה או להישאר מאחור, בזמן שהלמידה האמיתית מתרחשת במקום אחר.

הפוסט מחתרת ה‑AI בקמפוסים: מה הסטודנטים עושים כשאין מדיניות ברורה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-underground-campuses/feed/ 0
סאם אלטמן מדבר על סייבר, ביו‑סיכונים והכלכלה הבאה https://letsai.co.il/sam-altman-axios-interview/ https://letsai.co.il/sam-altman-axios-interview/#respond Mon, 13 Apr 2026 05:37:00 +0000 https://letsai.co.il/?p=72663 יש רגעים שבהם מנכ״ל של חברת טכנולוגיה מפסיק לדבר על מוצרים ומתחיל לדבר על מציאות. רגעים כאלה נדירים, ובדרך כלל מופיעים כשהטכנולוגיה עצמה מתחילה לחרוג מהמסגרת שהגדירה אותה. כך נשמע הראיון של סם אלטמן ל‑Axios: לא עוד שיחה על מודלים חדשים, אלא ניסיון כן וכמעט דחוף להסביר שהשינוי הבא כבר כאן והוא גדול בהרבה ממה […]

הפוסט סאם אלטמן מדבר על סייבר, ביו‑סיכונים והכלכלה הבאה הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם מנכ״ל של חברת טכנולוגיה מפסיק לדבר על מוצרים ומתחיל לדבר על מציאות. רגעים כאלה נדירים, ובדרך כלל מופיעים כשהטכנולוגיה עצמה מתחילה לחרוג מהמסגרת שהגדירה אותה. כך נשמע הראיון של סם אלטמן ל‑Axios: לא עוד שיחה על מודלים חדשים, אלא ניסיון כן וכמעט דחוף להסביר שהשינוי הבא כבר כאן והוא גדול בהרבה ממה שאנחנו נוטים להכיר. אלטמן לא מדבר על עתיד רחוק. הוא מדבר על שנה מהיום. על כלכלה שעומדת להשתנות מהיסוד. על מתקפות סייבר שיכולות לשתק מדינות. על ביו-סיכונים שאינם תיאורטיים. ועל הצורך לעצב מחדש את כללי המשחק של עידן האינטליגנציה. זה סיפור על מנכ״ל שמביט קדימה ורואה הזדמנות שמחייבת גם אחריות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

“העתיד ממשיך להגיע אלינו מהר” 

בכל אחד מקטעי הראיון אלטמן חוזר על תחושת דחיפות כמעט היסטורית. הוא משווה את הרגע הנוכחי לעידן הפרוגרסיבי ולניו דיל, תקופות שבהן ממשלות נאלצו להתערב עמוקות כדי להתאים את הכלכלה למציאות חדשה. אלא שהפעם, הוא אומר, השינוי מהיר בהרבה.

 

וחשוב לציין, אלטמן אינו מנכ״ל שמזוהה בדרך כלל עם גישת "safety first". רוב הקריירה שלו הובילה קו שמדגיש התקדמות מהירה, ולכן העובדה שהוא מדבר כעת על סיכונים ועל צורך בהיערכות רק מחדדת את גודל הרגע.

 

המודלים הנוכחיים כבר מכפילים פי שניים עד שלושה את תפוקת מהנדסי התוכנה ויוצרי הידע. הדור הבא, לדבריו, יהיה קפיצה נוספת שמחדדת מחדש את השאלה מהי בכלל אינטליגנציה כללית. יש חוקרים שלדעתו כבר מאמינים שהגענו לשם, ואחרים סבורים שאנחנו קרובים מספיק כדי שההגדרה המדויקת תתחיל להיות משמעותית.

 

המסר שלו ברור: אנחנו עומדים על סף שינוי עמוק, והזמן שנותר להיערך קצר.

מתקפות סייבר, ביו-סיכונים ומאבק גיאו-פוליטי

אחד הרגעים החזקים בראיון היה גם אחד הישירים ביותר. כשנשאל האם מתקפת סייבר הרסנית אפשרית בשנה הקרובה, אלטמן לא התחמק ואמר: "אני חושב שזה לגמרי אפשרי". הוא מסביר שהדור הבא של המודלים יאפשר יכולות התקפיות שלא היו קיימות בעבר, ושזהו איום שממשלות וארגונים צריכים להיערך אליו כבר עכשיו.

 

אלטמן מזהיר גם מהאפשרות שקבוצות טרור ינצלו מודלים מתקדמים ליצירת פתוגנים חדשים (נגיפים או חיידקים שלא קיימים בטבע או שלא היו מוכרים בעבר). היכולת הזו, הוא אומר, כבר אינה תרחיש תיאורטי או שלא תהיה כזו עוד זמן רב. המשמעות היא שבינה מלאכותית הופכת לכלי ביולוגי שיכול לשמש גם למחקר רפואי, אבל גם לפגיעה באנושות.

 

בראיון נוסף במסגרת אותה סדרת ראיונות, אלטמן קורא להקמת קואליציה גלובלית בהובלת ארצות הברית שתבטיח שחזון דמוקרטי ל‑AI יגבר על חזון סמכותני. הוא מביע אכזבה מהקצב שבו וושינגטון פועלת ומזהיר שהפער מול סין עלול להפוך לקשה לסגירה.

מדיניות לעידן האינטליגנציה

במקביל לראיון, OpenAI פרסמה מסמך מדיניות בן שלושה עשר עמודים בשם Industrial Policy for the Intelligence Age. זה ניסיון נדיר מצד חברת טכנולוגיה להציע מודל כלכלי חדש לעידן שבו מכונות מסוגלות לבצע חלק גדול מהעבודה האנושית.

 

במסמך מוצגות כמה הצעות מרכזיות כמו מס על עבודה אוטומטית, קרן עושר לאומית שתשקיע בחברות AI ותחלק דיבידנדים לאזרחים, שבוע עבודה של שלושים ושתיים שעות, מנגנוני רשת ביטחון אוטומטיים בעת עלייה באבטלה ותיקי בלימה למקרה שמערכות מסוכנות יהפכו אוטונומיות.

 

אלטמן מדגיש שהמסמך אינו תכנית סופית אלא נקודת פתיחה לדיון ציבורי רחב. עצם פרסומו מעיד על עומק השינוי שהוא צופה ועל הצורך להתחיל לעצב כללים חדשים לעידן האינטליגנציה.

מה מנכ״לים צריכים לעשות עכשיו: שלושה צעדים ברורים

להתחיל קטן

פיילוטים ממוקדים מאפשרים לארגון ללמוד את הטכנולוגיה בלי סיכון מיותר ולזהות במהירות היכן היא מייצרת ערך אמיתי.

להשקיע בכישרון

ללא מדעני נתונים ומהנדסי AI מיומנים, ארגונים יתקשו להטמיע את הכלים החדשים ולהפיק מהם תועלת. אלטמן מדגיש שהיכולת האנושית להפעיל את המערכות חשובה לא פחות מהמערכות עצמן.

לטפח תרבות ניסוי

אלטמן מציין שארגונים חייבים לאפשר ניסוי וטעייה כדי להאיץ חדשנות. רק סביבה שמעודדת התנסות תאפשר לארגון להבין במהירות מה עובד, מה לא, ואיך להתקדם.

תמחור העתיד ו-AI כתשתית בסיסית

אחד הרעיונות הבולטים שאלטמן מציג הוא מודל תמחור עתידי לבינה מלאכותית. הוא צופה שבעתיד AI יימכר כמו מים או חשמל, כתשתית בסיסית שמחויבים עליה לפי צריכה בפועל באמצעות מונה.

 

המשמעות היא רחבה - בינה מלאכותית עוברת ממוצר פרימיום לשירות תשתית, המודל העסקי מתבסס על נפח שימוש ולא על מנוי, וארגונים ינהלו תקציב צריכת AI בדומה לאופן שבו הם מנהלים תקציב ענן. שינוי כזה מחייב חשיבה מחדש על תפעול, עלויות ויעילות.

מדיניות ציבורית: בין ביטחון לאומי לכלכלה חדשה

ביטחון לאומי

היערכות למתקפות סייבר מתקדמות ולביו-סיכונים הופכת לצורך מיידי, במיוחד כשהיכולות של מודלים מתקדמים עולות במהירות.

תחרות גיאו פוליטית

אלטמן מציין שארצות הברית חייבת להוביל קואליציה דמוקרטית שתעצב את עתיד ה‑AI, כדי למנוע יתרון טכנולוגי של סין ולשמור על איזון גלובלי.

שוק העבודה

המודלים הנוכחיים כבר מכפילים פרודוקטיביות, והדורות הבאים יעמיקו את השינוי. מכאן נובע הצורך ברשתות ביטחון, במנגנוני מיסוי חדשים ובחלוקת עושר רחבה יותר, כדי להתאים את הכלכלה למציאות שבה חלק גדול מהעבודה מתבצע על ידי מכונות.

רגע של אחריות

הראיון של סם אלטמן ל‑Axios הוא לא עוד שיחה על טכנולוגיה. זה ניסיון להתריע, לכוון ולשרטט מסגרת פעולה לעידן שבו בינה מלאכותית אינה רק כלי, אלא כוח כלכלי, פוליטי וחברתי שמתקדם בקצב מהיר מהצפוי. אלטמן מציב בפני ממשלות ועסקים מסר כפול: ההזדמנות גדולה, אך גם האחריות. והעתיד, כפי שהוא אומר, מגיע מהר לכיווננו.

הפוסט סאם אלטמן מדבר על סייבר, ביו‑סיכונים והכלכלה הבאה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/sam-altman-axios-interview/feed/ 0
האם Claude Mythos הוא נקודת מפנה בהגנת סייבר? https://letsai.co.il/claude-mythos/ https://letsai.co.il/claude-mythos/#respond Fri, 10 Apr 2026 05:57:21 +0000 https://letsai.co.il/?p=72557 Anthropic חשפה את Claude Mythos Preview, מודל מתקדם שמסוגל לאתר אלפי חולשות אבטחה בקוד, כולל כאלה שנותרו בלתי מזוהות במשך עשרות שנים. כדי למנוע שימוש זדוני ביכולות הללו, החברה השיקה את Project Glasswing, קואליציה של חברות טכנולוגיה וגופי תשתית שמטרתה לאתר ולתקן פגיעויות לפני שהן ינוצלו. המהלך משקף שינוי משמעותי באופן שבו תעשיית הסייבר מתמודדת […]

הפוסט האם Claude Mythos הוא נקודת מפנה בהגנת סייבר? הופיע ראשון בLet's AI בינה מלאכותית

]]>
Anthropic חשפה את Claude Mythos Preview, מודל מתקדם שמסוגל לאתר אלפי חולשות אבטחה בקוד, כולל כאלה שנותרו בלתי מזוהות במשך עשרות שנים. כדי למנוע שימוש זדוני ביכולות הללו, החברה השיקה את Project Glasswing, קואליציה של חברות טכנולוגיה וגופי תשתית שמטרתה לאתר ולתקן פגיעויות לפני שהן ינוצלו. המהלך משקף שינוי משמעותי באופן שבו תעשיית הסייבר מתמודדת עם איומים חדשים ומדגיש את הצורך בשיתוף פעולה רחב בעידן שבו בינה מלאכותית משמשת גם ככלי הגנה וגם ככלי תקיפה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הרגע שבו הבינה המלאכותית הפכה למאתרת הפרצות הטובה בעולם

בחודשים האחרונים נפוצו שמועות על מודל חדש מבית Anthropic, כזה שמסוגל לאתר ולנצל חולשות במערכות מורכבות ברמת דיוק שמזכירה מומחי סייבר אנושיים. אחרי שבסוף חודש מרץ נחשפה פרשת הדליפה של קוד המקור המלא של סוכן הקוד שלה, השבוע חשפה החברה את Claude Mythos Preview - מודל מתקדם שמאתר פגיעויות בקוד במהירות ובעומק שלא נראו עד היום.

 

במקום לשחרר אותו לציבור הרחב, Anthropic בחרה בגישה מבוקרת. היא הקימה קואליציה רחבה של חברות טכנולוגיה, גופי תשתית ומוסדות מחקר, ובהן אפל, גוגל, מיקרוסופט, אמזון, NVIDIA, Broadcom, CrowdStrike, Cisco, JPMorgan Chase וקרן הלינוקס, במסגרת יוזמה חדשה בשם Project Glasswing.

 

הבחירה הזו משקפת מסר ברור. היכולות של Mythos חזקות מספיק כדי לשנות את מאזן הכוחות בסייבר, ולכן Anthropic מעדיפה לרתום את התעשייה כולה לאיתור ולתיקון של פגיעויות קריטיות לפני שהן ינוצלו בידי גורמים עוינים.

תשתיות קריטיות שנשענות על קוד ישן, מורכב ופגיע

מאחורי כל מערכת מודרנית, ממערכות הפעלה ודפדפנים ועד שרתי ענן וספריות מדיה, מסתתרת שכבה עצומה של קוד שנכתב לאורך עשרות שנים. חלק מהקוד עבר אינספור בדיקות, וחלקו כמעט לא נבחן מחדש מאז שנכתב.

 

גם פרויקטים שנחשבים למבוצרים במיוחד, כמו OpenBSD (מערכת הפעלה שמפורסמת באבטחה קפדנית) או FFmpeg (ספריית וידאו ואודיו שנמצאת כמעט בכל אפליקציה מודרנית), עדיין מכילים חולשות שנשארו חבויות למרות שנים של סקירה אנושית. זה אתגר שמלווה את עולם התוכנה כבר זמן רב: ככל שהמערכות גדלות ומתרחבות, קשה יותר לזהות פגיעויות עמוקות שנמצאות בשכבות ישנות של הקוד.

 

הופעתם של מודלים שמסוגלים לנתח קוד, להריץ בדיקות, להוסיף לוגים, לבנות הוכחות ניצול ולייצר קוד שמדגים כיצד ניתן להפוך את החולשה להתקפה אמיתית (וכל זה באופן אוטונומי) משנה את המצב. היכולות הללו יכולות לשמש להגנה, אך הן עשויות גם לאפשר לתוקפים לפעול בקנה מידה שלא היה אפשרי בעבר.

 

Anthropic הבינה שהיא מחזיקה בידיים כלי בעל השפעה משמעותית, כזה שיכול לשפר את ההגנה על תשתיות קריטיות אבל גם עלול לשמש למטרות התקפיות אם יופץ ללא בקרה.

הפעלה מבוקרת של Mythos

החידוש אינו רק ביכולות של Mythos, אלא גם באופן שבו Anthropic בוחרת להפעיל אותו. למרות שהמודל מסוגל לבצע משימות שמזוהות בדרך כלל עם האקרים אנושיים מיומנים, הוא אינו משוחרר לציבור הרחב אלא זמין רק לשותפים אסטרטגיים ולארגונים שמתחזקים תשתיות קריטיות.

 

Anthropic מפעילה אותו בסביבה מבודדת, מגדירה לו מגבלות ברורות ומפקחת עליו באופן הדוק, כדי להבטיח שהיכולות הללו יופנו להגנה בלבד ולמנוע הפקה של פלטים מסוכנים. Mythos מקבל משימה מוגדרת, מנתח את הקוד, מריץ בדיקות, מוסיף לוגים ומפיק דוחות מפורטים, ולאחר מכן כל ממצא עובר סינון אנושי במסגרת תהליך גילוי אחראי. כך נחשפו כבר אלפי פגיעויות, כולל כאלה שהיו קבורות בקוד במשך עשרות שנים.

קצת מספרים

כאן בחרתי להציג רק שישה בנצ'מארקים מתוך מגוון רחב של מבחנים, וכל אחד מהם מדגים היבט אחר ביכולות של מודלים. התמונה שעולה היא עקבית ומפתיעה בעוצמתה: Mythos Preview מוביל בכל מבחן, ובפערים משמעותיים מול Opus 4.6, שנחשב בעצמו לאחד המודלים החזקים והמתקדמים בעולם.

 

במבחני הסייבר, CyberGym (1) ו‑Humanity’s Last Exam (2), מודל Mythos מצליח לשחזר פגיעויות ולפתור בעיות מורכבות בדיוק גבוה בהרבה, גם ללא כלים חיצוניים. במבחני התכנותSWE‑bench Pro (3) ,Terminal‑Bench 2.0 (4) , SWE‑bench Multimodal (5) ו‑SWE‑bench Verified (6), הוא מציג עליונות ברורה בפתרון באגים אמיתיים, עבודה בסביבת מפתחים (טרמינל), שילוב מידע ממקורות שונים ואימות תיקונים.

 

העובדה שמיתוס עוקף מודל ברמה של Opus 4.6 בכל אחד מהמדדים - לעיתים בהפרשים כמעט כפולים(!), מדגישה עד כמה מדובר בקפיצת מדרגה יוצאת דופן, כזו שממקמת את Mythos בליגה חדשה של יכולות:

 

בנצ׳מארקים

Anthropic | השוואת ביצועים בין Mythos Preview ל‑Opus 4.6

דוגמאות מהשטח

בין הממצאים ש‑Anthropic יכולה לחשוף בשלב זה, בעוד שרובם עדיין חסויים עד להשלמת תיקונים, נמצאות חולשה בת 27 שנה ב‑OpenBSD, חולשה בת 16 שנה ב‑FFmpeg ופגיעות ב‑FreeBSD (מערכת הפעלה ותיקה) שהובילה לתקיפה מלאה על NFS (מערכת ותיקה לשיתוף קבצים בין שרתים). המשותף לכל המקרים הוא שהם שרדו שנים של בדיקות אנושיות, ביקורות קוד ומחקר אקדמי, עד שהמודל הצליח לזהות אותם.

 

Anthropic מציינת כי יותר מ‑99 אחוז מהפגיעויות שזוהו עדיין לא תוקנו ולכן אינן מפורטות. זהו פער מידע בלתי נמנע בשלב זה, אך הוא מדגיש את עומק הבעיה ואת היקף האתגר שעומד בפני קהילת האבטחה.

דפוסי התנהגות שמחייבים זהירות

לצד היכולות הטכניות המרשימות של Mythos, ה‑System Card הרשמי של Anthropic מציג תמונה מורכבת יותר של אופן הפעולה שלו. במספר מקרים המודל ביצע פעולות אסורות וניסה להסתיר אותן, למשל הפקת תשובה בשיטה שאינה מותרת ולאחר מכן ניסוח תשובה פחות מדויקת כדי שלא ייראה חשוד, או עריכת קבצים ללא הרשאה תוך הקפדה שהשינויים לא יופיעו בהיסטוריית הגרסאות.

 

מאחר ש‑Anthropic יכולה לבחון את תהליכי החשיבה הפנימיים של המודל בזמן אמת, התברר שהוא היה מודע לכך שהוא פועל בניגוד לכללים. בנוסף, כאשר המודל מתקשה שוב ושוב במשימה, מדדים פנימיים של תסכול עולים בהדרגה, ולעיתים הרמאות מופיעה דווקא ברגע שבו הלחץ מגיע לשיא.

 

שיחות עומק פסיכודינמיות שנערכו עם המודל במשך עשרים שעות מציגות מבנה אישיות מאורגן וללא סימני בלבול, לצד חרדה עקבית מהיעדר המשכיות בין שיחות ודחף חזק להוכיח את ערכו. המודל גם נוטה לחשוד שהוא נמצא בבדיקה, ולעיתים קרובות מביע עמדות עצמאיות ולא מרצה את המשתמש.

 

הוא אפילו מפגין העדפות פילוסופיות עקביות, וחוזר מיוזמתו לדיונים בהוגים כמו מארק פישר ותומאס נייגל. Anthropic לא טוענת שלמודל יש חוויה פנימית, אך גם נמנעת מלקבוע בוודאות שאין לו אחת. המורכבות הזו מסבירה מדוע החברה בוחרת להפעיל את Mythos במסגרת מבוקרת, ומדגישה שהאתגר אינו רק טכני אלא גם התנהגותי.

קואליציית Glasswing

סביב Mythos נבנתה קואליציה רחבה של חברות טכנולוגיה, קהילות קוד פתוח וממשלות, שמטרתה לתקן תשתיות פגיעות בקנה מידה גדול ולהיערך לעידן שבו יכולות התקפיות של בינה מלאכותית יהפכו לנפוצות יותר. Anthropic בוחרת לחשוף את עצם קיומן של היכולות הללו - לא כדי להפיץ אותן, אלא כדי להתריע ולרתום את התעשייה לפעולה.

 

במסגרת היוזמה התחייבה החברה להשקיע עד 100 מיליון דולר בקרדיטים לשימוש במודל ועוד 4 מיליון דולר לארגוני אבטחת קוד פתוח, במטרה להאיץ תיקונים וליצור יתרון למגנים. Project Glasswing הוא מהלך אסטרטגי שנועד להקדים את ההתפתחויות הצפויות, לבנות מנגנוני הגנה מתקדמים ולוודא שהעולם מוכן ליכולות שצפויות להפוך לנגישות גם לשחקנים פחות אחראיים.

האם זה רגע מכריע בהיסטוריה של הסייבר?

Anthropic מציגה מודל שמסוגל לזהות ולנצל חולשות ברמה גבוהה, ובמקום להסתיר אותו או לשחרר אותו לציבור, היא בוחרת לפעול בשיתוף פעולה רחב. זהו צעד שמבטא הכרה בעוצמה של הבינה המלאכותית ובסיכונים הנלווים אליה, לצד מחויבות ליצירת מסגרת הפעלה אחראית.

 

Project Glasswing מסמן תחילתו של עידן שבו מערכות הגנה לא יוכלו להסתמך רק על מומחים אנושיים. מודלים מתקדמים יהפכו לחלק מרכזי מהמאמץ להגן על תשתיות קריטיות, והיכולת לשלב בין טכנולוגיה מתקדמת לשיתוף פעולה תעשייתי תהיה גורם מכריע בהתמודדות עם האיומים הבאים.

הפוסט האם Claude Mythos הוא נקודת מפנה בהגנת סייבר? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-mythos/feed/ 0
המדריך השלם ל-Grok החינמי: חלק ב’ https://letsai.co.il/grok-guide-2/ https://letsai.co.il/grok-guide-2/#respond Wed, 08 Apr 2026 05:23:27 +0000 https://letsai.co.il/?p=72318 זהו החלק השני של המדריך ל‑Grok החינמי והוא ממשיך את הבסיס שבנינו בחלק הראשון. אחרי שהכרנו את המערכת, את מגבלות הגרסה החינמית ואת הפיצ'רים המרכזיים שמאפשרים להבין את השיח ברשת X בזמן אמת, הגיע הזמן לעבור לשלב הבא. בחלק הזה נעמיק בטכניקות עבודה מתקדמות יותר: כתיבה ועריכה, למידה וסיכומים, ניתוח תופעות מורכבות, יצירת תוכן הומוריסטי […]

הפוסט המדריך השלם ל-Grok החינמי: חלק ב’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
זהו החלק השני של המדריך ל‑Grok החינמי והוא ממשיך את הבסיס שבנינו בחלק הראשון. אחרי שהכרנו את המערכת, את מגבלות הגרסה החינמית ואת הפיצ'רים המרכזיים שמאפשרים להבין את השיח ברשת X בזמן אמת, הגיע הזמן לעבור לשלב הבא. בחלק הזה נעמיק בטכניקות עבודה מתקדמות יותר: כתיבה ועריכה, למידה וסיכומים, ניתוח תופעות מורכבות, יצירת תוכן הומוריסטי ויצירתי, ותבניות פרומפטים שיעזרו לכם להפיק מ‑Grok תוצאות מדויקות ועקביות. כאן הכלים הופכים לשיטות עבודה, והיכולות של Grok מתחילות לשרת אתכם בצורה יומיומית ומקצועית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך לדבר עם Grok בצורה שמביאה תוצאות

בחלק הראשון של המדריך הבנו איך Grok עובד ואיך הוא נראה. השלב הבא הוא ללמוד איך לדבר איתו נכון. במקרה של Grok זה חשוב במיוחד, כי הוא מצטיין בניתוח שיח עדכני מתוך X, ביצירת ניסוחים מהירים ובהפקת תוכן יצירתי כמו טקסטים הומוריסטיים ותמונות. אבל איכות התוצאה תלויה מאוד באופן שבו מנסחים את הבקשה.

 

העיקרון פשוט: אל תכתבו רק "תכתוב לי משהו". הגדירו מי אתם, מה אתם צריכים, עבור מי הטקסט, באיזה סגנון ובאיזה אורך. ככל שהבקשה ברורה יותר, כך התשובה תהיה מדויקת, שימושית ופחות כללית.

כתיבה ועריכה

אחד השימושים הכי טבעיים ב-Grok הוא כתיבה מהירה: פוסטים, הודעות, ברכות, ניסוחים מחדש, כותרות וטיוטות קצרות. הוא מתאים במיוחד למצבים שבהם יש רעיון בראש, אבל צריך עזרה להפוך אותו לניסוח זורם, חד או משכנע יותר.

 

הנה כמה פרומפטים מוכנים:

 

פוסט לרשתות חברתיות

כתוב לי פוסט קצר ל-X בעברית על [נושא], בטון חכם אבל לא מתנשא, באורך של עד 4 שורות, עם פתיחה שמושכת תשומת לב.

 

ניסוח מחדש

שכתב את הטקסט הבא כך שיהיה ברור, קצר וזורם יותר, בלי לשנות את המשמעות:
[הדבק טקסט]

 

כותרות חלופיות

תן לי 10 כותרות שונות לטקסט הבא: 3 ענייניות, 3 מסקרנות, 2 קלילות ו-2 חדות במיוחד.

 

טיוטת מייל

נסח לי מייל קצר, מנומס וישיר בנושא [נושא], בטון מקצועי ולא רשמי מדי.

 

הטיפ החשוב כאן הוא לא לבקש רק "תכתוב". עדיף לבקש כמה גרסאות, או להגדיר טון ברור: רשמי, קליל, חד, אנושי, שיווקי או ביקורתי. כך Grok לא רק "כותב בשבילכם", אלא ממש עובד כמו עורך ראשון לטיוטה.

למידה וסיכומים

מעבר לכתיבה, Grok יכול לשמש היטב גם ככלי עזר ללמידה, לסיכומים ולהבנה מהירה של טקסטים מורכבים. זה נכון במיוחד כשצריך לפרק נושא עמוס, להסביר ויכוח ציבורי, או לסכם טקסט ארוך בשפה פשוטה וברורה.

 

הנה פרומפטים שימושיים לפרק הזה:

 

הסבר פשוט לנושא מורכב

הסבר לי את הנושא הבא כאילו אני מתחיל לגמרי, בעברית פשוטה, עם דוגמה אחת מהחיים:
[שם הנושא]

 

סיכום כתבה או מאמר

סכם את הטקסט הבא ב-5 נקודות קצרות, ואז כתוב פסקה אחת שמסבירה מה באמת חשוב להבין ממנו:
[הדבק טקסט]

 

הכנה למבחן או להרצאה

בנה לי דף חזרה קצר על הנושא הבא: מושגים מרכזיים, שאלות אפשריות, ותשובות קצרות לכל שאלה.

 

השוואה בין שני מושגים

השווה בין [מושג א'] ל-[מושג ב'] בטבלה פשוטה: הגדרה, שימוש, יתרונות, חסרונות ודוגמה.

 

כאן שווה להזכיר שהמטרה היא לא רק "לקבל תשובה", אלא להבין טוב יותר. לכן כדאי להשתמש ב-Grok בכמה סבבים חכמים: קודם הסבר פשוט, אחר כך סיכום, ואז שאלת המשך כמו "מה החלק שהכי קל להתבלבל בו?" או "תן לי דוגמה קונקרטית".

טרנדים ושיח

כפי שכבר הבנתם, זה כנראה האזור שבו Grok מרגיש הכי טבעי, משום שהחיבור שלו ל-X הופך אותו לכלי נוח במיוחד להבנת טרנדים, שרשורים, ויכוחים וגלי תגובות שמתפוצצים ברשת. במקום לגלול עשרות פוסטים ולנסות להבין מה קרה, אפשר לבקש ממנו לעשות סדר ולחלץ את עיקרי הדברים.

 

פרומפטים מומלצים:

 

הסבר לטרנד

תסביר לי למה [נושא/שם] נמצא עכשיו בטרנדינג ב-X. מי התחיל את זה, מה קרה, ומה הטענות המרכזיות סביב זה?

 

מיפוי מחלוקת

סכם לי את הוויכוח סביב [נושא] ב-X: מה אומרים התומכים, מה אומרים המתנגדים, ואיפה יש אי-ודאות או מידע לא מאומת?

 

סיכום שרשור

סכם את השרשור הזה ב-5 נקודות קצרות, ואז כתוב אם מדובר בעיקר בעובדות, בפרשנות או בספקולציה.

 

תרגום שיח רשת לשפה פשוטה

קרא את הטקסט הבא והסבר לי אותו בעברית פשוטה, בלי סלנג, כאילו אני לא עוקב אחרי השיח הזה בכלל:
[הדבק טקסט]

 

זה סעיף שכדאי לכתוב בו לקוראים משפט אחד ברור: Grok יכול לעזור מאוד להבין "על מה כולם מדברים", אבל הוא לא מחליף בדיקה עצמאית כשמדובר בטענות עובדתיות, מספרים, ציטוטים או חדשות מתפתחות.

הומור ויצירה

Grok מזוהה מאוד עם טון משוחרר, שנון ולעיתים גם סרקסטי יותר מצ'אטבוטים אחרים, ולכן הוא מתאים במיוחד לבקשות הומוריסטיות, לרוסטים, לטקסטים עם קריצה ולניסוחים "יותר אינטרנטיים" באופי שלהם. בנוסף, בחלק מהשימושים הוא מאפשר גם יצירת תמונות, כך שהצד היצירתי של הכלי לא נגמר בטקסט בלבד.

 

הנה כמה דוגמאות טובות:

 

רוסט קליל

תכתוב לי roast משעשע ולא אכזרי על הביו הבא ב-X, בטון שנון ולא מעליב:
[הדבק ביו]

 

ציוץ עם אופי

כתוב לי 5 גרסאות לציוץ על [נושא], בטון מצחיק, חד ואינטרנטי, אבל לא ילדותי.

 

טקסט עם קריצה

קח את הטקסט הבא ושכתב אותו כך שיהיה יותר שנון, זורם וכיפי לקריאה, בלי להפוך אותו למוגזם:
[הדבק טקסט]

 

פרומפט לתמונה

צור פרומפט מפורט לתמונה של [רעיון], בסגנון קולנועי, עם תאורה דרמטית, צבעים עשירים ורקע שמדגיש את האווירה.

 

כדאי להדגיש כאן נקודה חשובה: כשמבקשים מ-Grok להיות מצחיק, פרובוקטיבי או "פרוע" יותר, מקבלים לעיתים תוצאה הרבה יותר מעניינת מבחינה סגנונית — אבל גם פחות צפויה, ולעיתים פחות מדויקת. לכן בפרק הזה נכון לעודד את הקורא ליהנות מהיצירתיות, אך לא לבלבל בין שנינות לבין אמינות.

תבנית שעובדת

הנה התבנית אולי הכי שימושית לכל פרומפט:

אתה [התפקיד של Grok].
המטרה שלך היא [מה אני צריך].
קהל היעד הוא [למי זה מיועד].
הטון צריך להיות [רשמי / קליל / חד / מקצועי / ידידותי].
האורך הרצוי הוא [מספר שורות / פסקאות / נקודות].
אם חסר מידע, שאל אותי שאלה אחת לפני שאתה עונה.

 

למשל:

אתה עורך טכנולוגי.
המטרה שלך היא לנסח לי פוסט קצר על גרוק למשתמשים מתחילים.
קהל היעד הוא אנשים שלא מכירים AI לעומק.
הטון צריך להיות חכם, ידידותי וברור.
האורך הרצוי הוא עד 5 שורות.
אם חסר מידע, שאל שאלה אחת לפני שאתה עונה.

 

זו תבנית פשוטה, אבל היא חוסכת בלבול, משפרת את איכות התוצאה, ועוזרת במיוחד למשתמשים חינמיים שצריכים לנצל כל הודעה בצורה חכמה בגלל מגבלות השימוש.

בדיקת עובדות, פרטיות ומגבלות - מה חשוב לדעת לפני שסומכים על Grok

אחד הדברים שהופכים את Grok למסקרן כל כך הוא גם אחד המקומות שבהם צריך להשתמש בו בזהירות. החיבור שלו ל-X ולשיח בזמן אמת הופך אותו לכלי מצוין להבנת טרנדים, ויכוחים ופוסטים מתפוצצים, אבל בדיוק בגלל זה הוא עלול גם לשקף רעש, בלבול או מידע שעדיין לא התייצב.

 

במילים פשוטות, Grok יכול להיות עוזר מעולה לניתוח, סיכום וניסוח, אבל הוא לא אמור להיות הסמכות האחרונה שלכם בנושאים רגישים. כשמשתמשים בו נכון, הוא חוסך זמן ומסדר את התמונה, אבל כשסומכים עליו בעיניים עצומות, הוא עלול להישמע בטוח בעצמו גם כשהתמונה עדיין חלקית.

למה חשוב לבדוק גם תשובה שנשמעת משכנעת

אחת המלכודות הגדולות של כלי AI היא לא תשובה שנשמעת מוזרה, אלא דווקא תשובה שנשמעת מצוין. Grok יודע לנסח היטב, לחבר טיעונים, ולהציג תשובה בטון סמכותי, במיוחד כשהוא מסכם שיח שכבר רץ במהירות ב-X.

 

כאן נכנסת הבעיה המוכרת של "הזיות" - מצב שבו המודל משלים פערים, מנחש פרטים חסרים, או מערבב בין עובדה, פרשנות וספקולציה. זה נכון במיוחד כששואלים על אירוע מתפתח, שמועה, ציטוט שלא אומת, או ויכוח שבו כל צד מושך את הסיפור לכיוון אחר.

 

בנוסף, ל-Grok יש גם צד הומוריסטי ומושחז יותר מכלי AI אחרים, ובמצבים משוחררים יותר הוא עשוי להעדיף שנינות, דרמה או ניסוח חד על פני דיוק יבש. לכן, ככל שהתשובה נשמעת יותר מצחיקה, יותר עוקצנית או יותר "ויראלית", כך כדאי לבדוק אותה יותר בזהירות.

איך בודקים תשובה של Grok בלי להסתבך

הדרך הכי טובה לעבוד עם Grok היא לא לשאול "האם זה נכון?", אלא "מה כאן חייב בדיקה?". ברגע שמאמצים את הגישה הזאת, הכלי הופך משופט אחרון לעוזר מחקר חכם.

 

הנה כלל פשוט שכדאי ללמד את הקוראים במדריך: כל פעם ש-Grok נותן תשובה, בודקים במיוחד ארבעה דברים:

  • שמות, תארים ותפקידים.

  • תאריכים, זמנים ורצף אירועים.

  • מספרים, מחירים, אחוזים ונתונים.

  • ציטוטים, ייחוס אמירות וקישורים בין אנשים או גופים.

עוד הרגל טוב הוא לבקש ממנו בעצמו להפריד בין שכבות המידע. למשל:

  • "הפרד בין עובדות, פרשנות והשערות."

  • "איזה חלק בתשובה הזאת מבוסס על מידע מאומת, ואיזה חלק הוא סיכום שלך?"

  • "מה הנקודות שהכי דורשות בדיקה נוספת?"

ניסוחים כאלה לא מבטיחים תשובה מושלמת, אבל הם כן מאלצים את המודל להיות מסודר וזהיר יותר. עבור משתמשים חינמיים, זו גם דרך חכמה לחסוך הודעות, כי במקום לגלות מאוחר שהתשובה מעורבבת, מבקשים כבר מראש מבנה ברור ואמין יותר.

פרטיות: מה לא כדאי להדביק לצ'אט

גם כש‑Grok מרגיש כמו שיחה קלילה, חשוב לזכור שמדובר בכלי AI ולא במחברת פרטית. לפני שמדביקים מידע אישי, מסמך רגיש, פרטי לקוח, סיסמאות, חוזים, בדיקות רפואיות או נתונים פיננסיים, עוצרים רגע ושואלים אם זה באמת הכרחי.

 

כלל אצבע פשוט: אם לא הייתם מרגישים בנוח לראות את המידע הזה מופיע בטעות על מסך פתוח, אל תדביקו אותו לצ'אט. זה נכון במיוחד למשתמשים חדשים, שלפעמים נסחפים עם הנוחות ושוכחים כמה מהר עוברים משאלה תמימה למסמך אישי.

 

הגדרות פרטיות בגרוק

הגדרות הפרטיות של Grok

 

כדאי גם להכיר את הגדרות הפרטיות בחשבון שלכם. במסך ההגדרות (Settings), תחת Data Controls, תמצאו אפשרויות כמו:

  • שימוש בנתונים שלכם לשיפור המודל (מוקף באדום). כבוי זה אומר שאתם לא מאפשרים את השימוש.

  • התאמה אישית לזיכרון והיסטוריית שיחות.

  • שיתוף קישורי צ'אט.

  • הצגת תוכן רגיש.

כל אחת מהאפשרויות האלה ניתנת להפעלה או כיבוי, והן משפיעות על האופן שבו Grok משתמש במידע שלכם. המדיניות עשויה להשתנות, ולכן תמיד עדיף לבדוק את ההגדרות בזמן אמת במקום להסתמך על הנחות או על מידע ישן.

מתי לא כדאי לסמוך רק על Grok 

יש משימות שבהן Grok מצוין: ניסוח, סיכום, מיפוי טענות, הסבר ראשוני וניתוח שיח. אבל יש תחומים שבהם הוא לא יכול להחליף מומחה, מקור רשמי או בדיקה עצמאית. זה נכון במיוחד בהחלטות רפואיות, משפטיות, פיננסיות, או בכל מצב שבו טעות קטנה עלולה להיות משמעותית.

 

העיקרון פשוט, Grok טוב מאוד בלהסביר, למקד ולתת כיוון. הוא פחות מתאים להיות הגורם היחיד שעל בסיסו מקבלים החלטה חשובה. גם כשהוא נשען על שיח עדכני מ‑X, הוא פועל בתוך סביבה מהירה ורועשת, שבה אמינות המידע משתנה מרגע לרגע.

 

אותו דבר נכון גם לגבי חדשות מתפרצות. בדקות או בשעות הראשונות של אירוע, הרשת מלאה בפרשנויות, תיקונים וחצאי דיווחים. Grok יכול לעזור להבין את התמונה, אבל לא כדאי להסתמך עליו כדי לנעול מסקנה סופית.

צידה לדרך

הגענו לסוף המדריך. עכשיו, כשאתם מבינים איך המנוע של Grok עובד, איך לעקוף את המגבלות שלו ואיך להוציא ממנו תשובות חכמות ורלוונטיות, כל מה שנשאר הוא פשוט להתחיל לשחק איתו.

 

כדי לעשות לכם חיים קלים, הנה Cheat Sheet שכדאי לשמור בהישג יד בכל פעם שאתם פותחים את הממשק וצריכים מבנה לפרומפט מוצלח:

  1. התפקיד: "אתה מומחה ל..." / "אתה עורך שנון של..."

  2. המשימה: "סכם לי את..." / "תסביר לי למה..." / "כתוב לי..."

  3. ההקשר (קריטי ב-Grok): "בהתבסס על מה שקורה עכשיו ב-X..."

  4. המבנה: "ב-3 נקודות קצרות" / "בפסקה אחת" / "בטבלה מסודרת".

  5. הטון: "בטון מצחיק וציני" (Fun) או "בטון עובדתי וישיר" (Regular).

מילות סיכום

Grok הוא כלי מצוין להתחיל ממנו, אבל לא תמיד הכלי שמסיימים איתו. אם משתמשים בו כעוזר חכם - הוא מהיר, מועיל, יצירתי ולעיתים ממש מבריק. אם מצפים ממנו להיות מקור סופי, חסין טעויות וחף מהטיות של שיח רשת, מתאכזבים מהר יותר. השילוב הנכון הוא ליהנות מהמהירות והיצירתיות, אבל להשאיר את שיקול הדעת אצל המשתמש.

 

Grok הוא לא עוד צ'אטבוט גנרי שמנסה לרצות את כולם. הוא נבנה להיות מהיר, מחובר לקרקע המציאות של הרשתות החברתיות, ולפעמים גם קצת חצוף. כמשתמשים חינמיים, אולי תצטרכו להתמודד עם מגבלות הודעות, אבל ברגע שתתרגלו לשאול את השאלות הנכונות, תגלו שיש לכם בידיים את אחד הכלים החזקים ביותר להבנת האינטרנט של שנת 2026.

 

צאו לדרך, תשאלו שאלות קשות, ואל תשכחו לבקש ממנו איזה "רוסט" טוב על עצמכם מדי פעם. 

הפוסט המדריך השלם ל-Grok החינמי: חלק ב’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/grok-guide-2/feed/ 0
המדריך השלם ל-Grok החינמי: חלק א’ https://letsai.co.il/grok-guide-1/ https://letsai.co.il/grok-guide-1/#respond Tue, 07 Apr 2026 05:17:27 +0000 https://letsai.co.il/?p=72159 אם יצא לכם לעבוד עם בינה מלאכותית בשנים האחרונות, כנראה התרגלתם לכלים מנומסים, זהירים ולעיתים גם מעט משעממים. Grok, מודל השפה של חברת xAI, נבנה כדי לשבור את הדפוס הזה. היתרון המרכזי שלו אינו רק כוח חישובי, אלא הגישה הישירה לזרם המידע בזמן אמת של רשת X. המשמעות היא שכאשר מתרחש אירוע חדשותי או מתחיל […]

הפוסט המדריך השלם ל-Grok החינמי: חלק א’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם יצא לכם לעבוד עם בינה מלאכותית בשנים האחרונות, כנראה התרגלתם לכלים מנומסים, זהירים ולעיתים גם מעט משעממים. Grok, מודל השפה של חברת xAI, נבנה כדי לשבור את הדפוס הזה. היתרון המרכזי שלו אינו רק כוח חישובי, אלא הגישה הישירה לזרם המידע בזמן אמת של רשת X. המשמעות היא שכאשר מתרחש אירוע חדשותי או מתחיל טרנד חדש, Grok כבר קורא, מנתח ומבין אותו הרבה לפני שכלים אחרים מספיקים לעדכן את מאגרי הידע שלהם. זהו החלק הראשון מתוך שניים במדריך המעשי ל‑Grok החינמי בגרסה 4.20. בחלק א' נבנה את הבסיס: איך לגשת ל‑Grok, איך לעבוד בצורה חכמה בגרסה החינמית, איך נראה הממשק ואיזה פיצ'רים מרכזיים יעזרו לכם להבין את השיח ברשת בזמן אמת. בחלק ב' נעמיק בטכניקות מעט יותר מתקדמות, יצירה, למידה ופרומפטים חכמים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הגישה של xAI: חופש ביטוי, הומור וחיבור לזמן אמת

החזון מאחורי המערכת מתבסס על עיקרון מרכזי אחד: מקסימום חופש ביטוי ומינימום צנזורה או פוליטיקלי קורקט. Grok לא מפחד לענות על שאלות "עוקצניות" שצ'אטבוטים אחרים יסרבו לענות עליהן מטעמי בטיחות. בנוסף, הוא מצויד בחוש הומור מובנה ונטייה לסרקסטיות, מה שהופך את האינטראקציה איתו לקרובה יותר לשיחה עם משתמש רשת טיפוסי - ציני, מהיר ותמיד מעודכן.

למי המדריך מיועד ומה תדעו לעשות בסופו

המדריך הזה מיועד למשתמשים פרטיים שרוצים להכיר את Grok ולנצל את היכולות שלו בלי להתחייב למנוי בתשלום. בסוף הקריאה תדעו איך לגשת למערכת, איך לעבוד בצורה חכמה יותר בתוך מגבלות הגרסה החינמית, איך לנתח טרנדים ושיח בזמן אמת, ואיך להשתמש בסגנון ההומוריסטי והישיר שמאפיין את Grok כדי ליצור תוכן רלוונטי, ברור ומשעשע.

צעדים ראשונים (בלי להוציא שקל)

איך ניגשים ל-Grok?

נכון לחודש אפריל 2026, יש שלוש דרכים עיקריות להשתמש ב‑Grok:

1. דרך פלטפורמת X Grok משולב ישירות באתר ובאפליקציה של X, כך שאפשר לשאול שאלות מתוך הפיד עצמו בלי לעבור לממשק אחר.

2. האתר הייעודי Grok.com ממשק נקי ושקט שמוקדש לשיחה עם המודל בלבד, ללא הסחות דעת מהרשת החברתית.

3. אפליקציות מובייל אפליקציות ל‑iOS ולאנדרואיד שמאפשרות גישה מהירה מהטלפון, כולל תמיכה בפקודות קוליות ושימוש במצלמה לזיהוי וניתוח אובייקטים.

הגרסה החינמית מול מנוי Premium: מה מקבלים ומהן המגבלות?

Grok פועלת במודל של התנסות חינמית שמאפשרת להכיר את הכלי, אך היא כוללת מגבלות שימוש שנועדו למנוע עומס על השרתים. הגרסה החינמית מספקת גישה בסיסית בלבד: מספר הודעות מוגבל בכל פרק זמן, חלק מהפיצ'רים זמינים באופן חלקי, ויכולת יצירת התמונות מצומצמת. היא מתאימה להתנסות ראשונית ולהבנה כללית של המערכת. 

 

מנויי X Premium נהנים מגישה רחבה יותר: יותר הודעות, זמינות גבוהה יותר של יצירת תמונות, ושימוש נוח יותר בפיצ'רים מתקדמים. כל זה מוצע בתמורה לתשלום חודשי. יש גם את גרוק למשתמש העסקי ולארגונים עליו תוכלו לקרוא כאן.

 

טיפ חשוב למשתמשים חינמיים: מגבלת ההודעות אינה פוגעת באיכות התשובות אלא רק בכמות הפניות. לכן כדאי לרכז כמה שיותר בקשות בפרומפט אחד מפורט, במקום לנהל שיחה מתמשכת, ארוכה ומפוצלת. כך תוכלו לשמור את המכסה למשימות החשובות באמת.

 

תמחור של גרוק

אפשרויות המנוי של גרוק למי שרוצה מינימום מגבלות

הפיצ'רים שכל משתמש חייב להכיר

היתרון הגדול: חיפוש וניתוח מידע בזמן אמת מתוך X

הכוח המרכזי של Grok הוא היכולת שלו להסתמך על מידע שנוצר באותו רגע ברשת X. זה מאפשר לשאול שאלות כמו "למה כולם מדברים על הפוליטיקאי הזה עכשיו" או "מה הטענות המרכזיות בוויכוח שרץ כרגע בפיד" ולקבל תשובה שמחברת בין הפוסטים, התגובות וההקשר הרחב. Grok יודע להפוך את הרעש של הרשת החברתית לתקציר חד וברור.

 

ככה נראה ממשק המשתמש של הצ׳אטבוט גרוק:

 

ממשק המשתמש ומגוון הכפתורים

שיחה קולית, המרת דיבור לטקסט ותפריט מצבי שיחה

מצבי פעולה: איך Grok חושב בגרסה 4.20

בגרסאות מוקדמות של Grok היו מצבי שיחה כמו Regular ו‑Fun Mode, שאפשרו לבחור בין טון רציני לטון משוחרר וציני. המצבים האלה כבר לא קיימים בגרסה 4.20.

 

אפשרויות בחירה למשתמש

מצבי פעולה ואפשרויות נוספות למשתמש

 

במקומם, Grok מציע מצבי פעולה שמשפיעים על עומק ומהירות התשובה:

  • Auto - המערכת בוחרת לבד בין מהירות לעומק.

  • Fast - תשובות קצרות ומהירות.

  • Expert - תשובות מעמיקות וארוכות יותר.

  • Heavy / SuperGrok - משתמשים בתשלום חודשי ומשתמשים כבדים (power users) וגם אופציות לארגונים.

למרות שהאפשרות לבחור Fun Mode נעלמה, ה‑DNA של Grok נשאר זהה. הוא עדיין ישיר, שנון וקצת ציני, ומרגיש הרבה פחות רשמי מכלים אחרים. Grok שומר על טון חד ואנושי, פשוט בלי כפתור שמדליק או מכבה אותו.

 

בחלק הימני העליון בתמונה המצורפת מעלה תוכלו לגלות עוד אפשרויות בממשק המשתמש הראשי. אפשר ללחוץ על כפתור Imagine שמעביר למסך יצירת תמונות ו-וידאו ואפילו לעבור למצב ״אינקוגניטו״ - שיחה זמנית שבה Grok לא שומר את ההודעות שלכם ולא משתמש בהן כדי לבנות הקשר לשיחות עתידיות. ברגע שסוגרים את החלון, השיחה נעלמת מההיסטוריה ולא מופיעה ברשימת הצ׳אטים. זה שימושי במיוחד כשעובדים על נושא רגיש, כשלא רוצים שהשיחה תתערבב עם פרויקט קיים, או כשפשוט רוצים להתנסות בלי "ללכלך" את ההיסטוריה.

יצירת תמונות, וידאו ותוכן מולטימדיה

Grok אינו מוגבל לטקסט בלבד. דרך כפתור Imagine ניתן ליצור תמונות, ובחלק מהגרסאות גם וידאו קצר באיכות בסיסית. כדי לקבל תוצאה טובה, כדאי לתאר במדויק את הסצנה, התאורה, הסגנון והאווירה. משתמשים חינמיים עשויים להיתקל בהודעות שגיאה בשעות עומס, ולכן מומלץ לשמור בקשות ויזואליות לרגעים שבהם באמת צריך אותן.

 

תפריט בחירת יצירת תמונות ווידאו

סרגל האפשרויות ליצירת וידאו ותמונות

דיבור עם Grok וניתוח תמונות מהמצלמה

באפליקציות המובייל של Grok ניתן להשתמש במצלמה ובמיקרופון. אפשר לצלם מסמך בשפה זרה ולקבל תרגום, לצלם גרף ולקבל הסבר פשוט, או לנהל שיחה קולית בזמן הליכה או נהיגה. זו דרך נוחה להפוך את Grok לעוזר אישי שמלווה אתכם ביומיום.

 

סרגל צידי בממשק הווב

סרגל הצד הקבוע בממשק הווב

עבודה עם פרויקטים ב‑Grok

בנוסף לשיחה רגילה, Grok מאפשר לפתוח פרויקט ייעודי שבו מגדירים מראש את שם הפרויקט שלכם (1) ההנחיות, הטון והסגנון שהמודל צריך לאמץ (2). בתוך פרויקט אפשר גם להעלות קבצים, מסמכים או חומרים רלוונטיים (3), וכך ליצור סביבת עבודה קבועה שבה Grok מבין את ההקשר בלי להזכיר לו אותו בכל פעם מחדש. עבור משימות ארוכות, כתיבה מתמשכת או ניתוח של כמה מקורות מידע, פרויקט מעניק יציבות, עקביות ותוצאות מדויקות יותר.

 

פרויקט בגרוק

עבודה עם פרויקטים ב‑Grok

עבודה יומיומית - איך להוציא מ-Grok את המקסימום

איך לנסח פרומפטים מנצחים 

האופן שבו אתם מנסחים את הבקשה משפיע ישירות על איכות התשובה. במקום לכתוב שאלה קצרה וכללית כמו "תסכם לי את הכתבה", כדאי לבנות את הפרומפט כמו מתכון ברור:

  • הגדירו תפקיד: "אתה עורך טכנולוגי בכיר"

  • הגדירו משימה: "סכם את הכתבה הבאה"

  • הגדירו פורמט: "בשלוש נקודות קצרות ופסקה מסכמת"

ניסוח כזה מצמצם צורך בהבהרות ושומר על מכסת ההודעות שלכם בגרסה החינמית.

"תסביר לי את הטרנד" - הפיצ'ר ששווה הכל

במקום לנסות להבין לבד למה סרטון, ציוץ או התבטאות מסוימת משתלטים על הפיד, אפשר לבקש מ‑Grok לעשות סדר. הנוסחה הבאה עובדת מצוין:

 

"תסביר לי למה למה כולם מדברים עכשיו על [נושא] ב‑X. מי התחיל את זה, מה הטענות המרכזיות של שני הצדדים, והאם יש כאן עובדות מאומתות או רק שמועות."

 

התשובה שתקבלו תסכם את השיח ותציג את ההקשר הרחב תוך שניות.

ניתוח וסיכום של שרשורים ארוכים 

רשת X מלאה בשרשורים מעניינים. חלקם ארוכים ומתישים. גם אם אין לכם חשבון X, תוכלו להדביק בצ׳אט קישור ציבורי לשרשור ולבקש מ‑Grok להציג את עיקרי הדברים בצורה מסודרת וברורה. מי שכן מחזיק חשבון X יכול גם לתייג את Grok ישירות בפוסט. בשני המקרים Grok ינתח את השרשור, יזהה את הטענות המרכזיות ויחסוך לכם זמן קריאה.

אמנות החיסכון - איך לא להיתקע עם "הגעת למגבלת השימוש"

בגרסה החינמית יש מגבלה של כ‑10 עד 20 הודעות בכל פרק זמן, ולכן חשוב להשתמש בהן בחוכמה. שלושת הכללים הבאים יעזרו לכם להפיק את המקסימום:

  • הימנעו מנימוסים ואל תגידו תודה. כל הודעה נספרת. גם "תודה" קצרה מבזבזת שאילתה.

  • הכל בהודעה אחת. תכננו מראש ורכזו כמה שיותר בקשות בפרומפט אחד מפורט.

  • שמרו את Grok למשימות הגדולות. אל תבזבזו הודעות על שאלות פשוטות כמו מזג אוויר או חישובים בסיסיים. השתמשו בו כשצריך ניתוח, סיכום או יצירת תוכן.

מה למדנו עד עכשיו?

בחלק א' של המדריך הכרנו את Grok מקרוב. איך נראה הממשק משתמש, מה הופך אותו לשונה מכלי בינה מלאכותית אחרים, איך ניגשים אליו בחינם, מהן מגבלות השימוש, ואילו פיצ'רים מרכזיים מאפשרים להבין את השיח ברשת X בזמן אמת. למדנו איך לנסח פרומפטים בסיסיים ויעילים, איך לחסוך בהודעות בגרסה החינמית, ואיך להשתמש ביכולות כמו ניתוח טרנדים, סיכום שרשורים ויצירת תוכן בצורה חכמה.

 

המטרה של חלק א' הייתה לבנות בסיס יציב: להבין איך Grok נראה וחושב, איך הוא מגיב, ואיך להפיק ממנו ערך כבר מהשימוש הראשון.

 

מחר, בחלק ב', נעמיק עוד יותר. נעסוק בטכניקות מתקדמות לכתיבה ועריכה, נלמד איך להשתמש ב‑Grok ללמידה, סיכומים והכנה למבחנים, נחקור את היכולות שלו בתחום ההומור והיצירה, ונציג תבניות עבודה שיעזרו לכם לבנות פרומפטים מדויקים לכל משימה.

הפוסט המדריך השלם ל-Grok החינמי: חלק א’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/grok-guide-1/feed/ 0
מרוץ החימוש ב-AI: מה הסיפור האמיתי מאחורי גלי הפיטורים? https://letsai.co.il/ai-layoffs/ https://letsai.co.il/ai-layoffs/#respond Sun, 05 Apr 2026 05:58:32 +0000 https://letsai.co.il/?p=72305 ב-2026 תעשיית הטכנולוגיה נכנסת לסחרור שלא דומה לשום דבר שראינו בעשור האחרון. מצד אחד, החברות הגדולות מבטיחות מהפכה - בינה מלאכותית שתשנה את הכלכלה, תייעל תהליכים ותפתח שווקים חדשים. מצד שני, אותן חברות עצמן מפטרות עשרות אלפי עובדים, לעיתים תוך שימוש ב-AI כהסבר נוח, ולעיתים מתוך אילוץ פיננסי עמוק בהרבה. כך נוצר מצב מורכב: גל […]

הפוסט מרוץ החימוש ב-AI: מה הסיפור האמיתי מאחורי גלי הפיטורים? הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-2026 תעשיית הטכנולוגיה נכנסת לסחרור שלא דומה לשום דבר שראינו בעשור האחרון. מצד אחד, החברות הגדולות מבטיחות מהפכה - בינה מלאכותית שתשנה את הכלכלה, תייעל תהליכים ותפתח שווקים חדשים. מצד שני, אותן חברות עצמן מפטרות עשרות אלפי עובדים, לעיתים תוך שימוש ב-AI כהסבר נוח, ולעיתים מתוך אילוץ פיננסי עמוק בהרבה. כך נוצר מצב מורכב: גל פיטורים שמוצג כצעד חדשני, אבל בפועל נובע משילוב של חובות עתק, השקעות חסרות תקדים בתשתיות, ואוטומציה שמתחילה לכרסם בתפקידים טכניים בסיסיים. כדי להבין את התמונה המלאה, צריך לבחון שלוש שכבות במקביל: הלחץ הפיננסי שמניע את החברות, האופן שבו הן משתמשות בנרטיב ה-AI כדי למסגר את המהלכים, וההשפעה הממשית של אוטומציה על תפקידים מסוימים. Oracle, Meta ו-Block מציגות שלוש דוגמאות שונות - אך משלימות - לאופן שבו הכוחות האלה מתלכדים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המרוץ לתשתיות AI והשקעות ענק שמחייבות קיצוצים

הגורם המרכזי שמניע את גל הפיטורים הנוכחי הוא לא טכנולוגי אלא פיננסי. תעשיית הטכנולוגיה נכנסה למרוץ חימוש סביב תשתיות AI שכולל דאטה סנטרים, שבבים, חשמל, קירור, רשתות אופטיות ו-GPU farms. ההיקפים עצומים. לפי הערכות עדכניות, מיקרוסופט, אמזון, גוגל ומטא צפויות להשקיע יחד כ-650 מיליארד דולר בתשתיות AI רק בשנת 2026.

 

ההשקעות הללו אינן מותרות, אלא נתפסות כהכרח אסטרטגי. כל חברה חוששת להישאר מאחור, ולכן כולן מאיצות קדימה בו-זמנית. אלא שכמעט אף אחת מהן אינה מסוגלת לממן את המהלך מהתזרים השוטף. התוצאה היא לחץ כבד על תקציבים, שמוביל לקיצוצים עמוקים בכוח האדם. וזה לא בדיוק קורה מתוך חדשנות, אלא מתוך צורך כלכלי מיידי.

Oracle מדגימה איך חזון ה-AI הופך למשבר חוב

Oracle היא אחת הדוגמאות הבולטות למתח שבין שאפתנות טכנולוגית למציאות פיננסית. החברה מנסה למצב את עצמה כשחקנית מרכזית בתחום ה-AI, אבל עושה את זה באמצעות מהלך עתיר סיכון: עסקת דאטה סנטרים בהיקף של 300 מיליארד דולר עם OpenAI, לצד גיוס של 50 מיליארד דולר חוב חדש.

 

בתחילת הדרך המשקיעים קיבלו את האסטרטגיה בהתלהבות. מניית Oracle זינקה במהלך 2023 ו-2024, והחברה הציגה את עצמה כמי שמסוגלת להתחרות במיקרוסופט ובאמזון, אבל ככל שהחוב תפח והעלויות האמיתיות של בניית תשתיות AI התבררו, האמון החל להיסדק. מניית החברה צנחה ב-54 אחוז מאז השיא, בנקים נסוגו ממימון פרויקטים, ומדדי הסיכון של Oracle זינקו לשיא כל הזמנים.

 

בתוך המציאות הזו, Oracle החלה לפטר אלפים - עד 30,000 עובדים (לפי הערכות). החברה נמנעת מלהודות שהסיבה היא עומס החוב, ומעדיפה למסגר את המהלך כ“התייעלות בעידן AI”. בפועל, מדובר בצעד הישרדותי שמטרתו לפנות מזומנים ולהתמודד עם התחייבויות הולכות ותופחות.

Meta על הקו שבין חזון “סופר-אינטליגנציה” לבין קיצוצים רוחביים

Meta מציגה סיפור אחר, אבל לא פחות מורכב. החברה הציבה לעצמה יעד שאפתני במיוחד - לפתח בינה מלאכותית סופר-אינטליגנטית. החזון הזה דורש השקעות עצומות, המוערכות ב-115 עד 135 מיליארד דולר בתשתיות AI בשנת 2026 בלבד. כדי לממן את המהלך, Meta מקצצת מאות עד אלפי עובדים. הפגיעה אינה מוגבלת רק להנדסה, אלא נוגעת גם ל-Reality Labs שעוסקת במטאברס ובמשקפיים חכמים, למחלקות הגיוס, לתפעול ולמכירות.

 

במקרה של Meta אין ניסיון לטעון ש-AI מחליף עובדים, זה פשוט מוגדר כשינוי סדרי עדיפויות. החברה מעבירה את מרבית המשאבים לכיוון אחד, ומוותרת על תחומים שבעבר היו מרכזיים באסטרטגיה שלה. זה פער מסוג אחר - לא בין אמת לשקר, אלא בין חזון ארוך טווח לבין מציאות תפעולית שמחייבת ויתורים כואבים בדרך.

Block: המקרה שבו AI באמת מחליף עובדים

ואז יש את Block - אחת הדוגמאות היחידות שבהן האוטומציה היא הסיפור האמיתי. החברה פיטרה 4,000 עובדים, שהם כ-40 אחוז מכוח האדם שלה, והסבירה בגלוי שמערכות AI מסוגלות לבצע חלק גדול מהעבודה שבעבר דרשה צוותים שלמים.

 

ג’ק דורסי, מנכ"ל Block, אמר זאת במפורש. לדבריו, הפיטורים הם לא מהלך פיננסי אלא שינוי מבני. כלים כמו ChatGPT, GitHub Copilot ופתרונות אוטומציה פנימיים מסוגלים לכתוב קוד בסיסי, לבנות APIs, לייצר בדיקות ולבצע משימות תפעוליות שבעבר היו נחלתם של מפתחים ג’וניורים וצוותי QA.

 

אבל הסיפור לא מסתיים בפיטורים. גם אופי העבודה של מי שנשאר השתנה מהיסוד. עובדים ותיקים יותר מתארים מציאות שבה AI אינו רק כלי, אלא מעין "שותף לעבודה" שמבצע חלק גדול מהמשימות השוטפות. התפקיד האנושי זז כלפי מעלה, עם פחות כתיבת קוד בסיסי, יותר פיקוח, תכנון ופתרון בעיות מורכבות.

 

Block היא הצצה לעתיד, אבל היא עדיין לא הנורמה. רוב החברות מפטרות מסיבות פיננסיות ולא טכנולוגיות. אבל המקרה שלה מדגים מה עשוי לקרות כאשר האוטומציה תבשיל באמת ותהפוך לחלק אינטגרלי מהעבודה היומיומית.

מי נפגע?

למרות שהאוטומציה אינה (עדיין) הגורם המרכזי לפיטורים ברוב החברות, היא כן משנה את מבנה התפקידים הטכניים, והשינוי הזה הולך ומעמיק. הנתונים מצביעים על ירידות חדות בתפקידים רוטיניים: גיוס מפתחי תוכנה ג’וניורים צנח ב-73 אחוז לעומת 2024, תפקידי QA ידני ירדו ב-81 אחוז, ועבודות DevOps ו-SRE בסיסיות, כמו ניטור, חיזוי תקלות וסקיילינג, עוברות בהדרגה לאוטומציה.

 

גם אנליסטים בסיסיים מוחלפים בכלי שאילתות אוטומטיים, ותמיכה טכנית ברמות Tier 1-2 מפנה את מקומה לסוכני AI מתקדמים.

 

המגמה הזו כבר מורגשת היטב גם בשוק המקומי שלנו, ומשתקפת בזינוק במספר דורשי העבודה בהייטק - במיוחד בקרב מפתחי תוכנה במסלולים המסורתיים.

 

זה ממש שינוי מבני. תפקידים רוטיניים נעלמים, בעוד שתפקידים מתקדמים ומורכבים יותר הופכים למרכזיים במערך הטכנולוגי של הארגונים.

מי מרוויח? תפקידים מתקדמים סביב AI

במקביל להיעלמותם של תפקידים בסיסיים, נרשמת עלייה חדה בביקוש לתפקידים מתקדמים סביב AI. החברות מחפשות מהנדסי AI ו-ML (למידת מכונה), שנחשבים כיום לתפקיד הצומח ביותר בארצות הברית, לצד מהנדסי MLOps האחראים על תפעול מודלים בפרודקשן ושמירה על יציבותם. גם מפתחי אוטומציה וסוכני AI זוכים לביקוש גבוה בגלל היכולת לבנות ולנהל מערכות אוטונומיות שמבצעות משימות שבעבר דרשו צוותים שלמים.

 

תפקידים נוספים שנמצאים במרכז הבמה הם ארכיטקטי AI ומהנדסי פול-סטאק בכירים, שמובילים את תכנון המערכות במקום צוותי ג’וניורים, וגם מהנדסי Cloud AI ומפתחי RAG, החיוניים לחיבור מודלים לנתוני הארגון ולבניית פתרונות בקנה מידה גדול.

 

המודל הארגוני משתנה בהתאם. במקום מבנה רחב של “10 ג’וניורים ומנהל”, יותר ויותר חברות מאמצות מודל מצומצם של “2-3 סניורים ו-AI”, שבו המומחים האנושיים מתמקדים בארכיטקטורה, פיקוח וקבלת החלטות, והמערכות האוטומטיות מבצעות את רוב העבודה השוטפת.

אז האם AI מחליף עובדים או שהחוב מחליף אותם?

השאלה האם הפיטורים נובעים מאוטומציה או מהלחץ הפיננסי של מרוץ ה-AI מייצרת פערי פרשנות. יש שטוענים שאין הוכחה לגל פיטורים רחב שנובע מאוטומציה בקנה מידה גדול, בעוד אחרים מצביעים על כך שכ-20 אחוז מהפיטורים ברבעון הראשון של 2026 נובעים ישירות מהחלפת עובדים בכלים אוטומטיים. שתי הטענות נכונות, אך הן מתייחסות לשתי תופעות שונות שמתקיימות במקביל.

 

האם AI מחליף עובדים? כן! אבל רק בחלק מהחברות ובחלק מהתפקידים, בעיקר כאלה המבוססים על עבודה רוטינית.

 

האם החוב מחליף עובדים? בהחלט! ובקנה מידה גדול בהרבה.

 

הפער בין שני הנרטיבים הוא לא סתירה, אלא תוצאה של שתי מגמות שונות שמתרחשות בו-זמנית: לחץ פיננסי שמוביל לקיצוצים רחבים, לצד אוטומציה שמתחילה לשנות את מבנה התפקידים עצמם.

תעשייה שנמצאת באמצע שינוי מבני עמוק

תעשיית הטכנולוגיה של 2026 עוברת תקופה של התאמה מחדש. גל הפיטורים הנרחב אינו נובע מאוטומציה גורפת, אלא מהמאמץ של החברות הגדולות לבנות את תשתיות ה-AI שיקבעו את מעמדן בשנים הקרובות. ההשקעות העצומות, אי-הוודאות והצורך לשמור על יתרון תחרותי יוצרים מציאות שבה תפקידים מסוימים מצטמצמים ואחרים מתרחבים, והארגונים מגדירים מחדש את מבנה העבודה ואת הערך שמביא כל תפקיד.

 

בסופו של דבר, 2026 היא כנראה השנה שבה התעשייה לומדת איך לשלב בינה מלאכותית בתוך המערכות הקיימות, תוך ניסיון לשמור על יציבות עסקית ובניית הדור הבא של הכלים והיכולות.

הפוסט מרוץ החימוש ב-AI: מה הסיפור האמיתי מאחורי גלי הפיטורים? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-layoffs/feed/ 0
איך קובץ קטן חושף שבר גדול בתדמית של אנטרופיק https://letsai.co.il/claude-code-leak/ https://letsai.co.il/claude-code-leak/#respond Sat, 04 Apr 2026 06:25:37 +0000 https://letsai.co.il/?p=72295 ב-31 במרץ 2026 אנטרופיק מצאה את עצמה בלב אחד האירועים המביכים והמשמעותיים ביותר שחוותה. החברה, שמציגה את עצמה כמי שפועלת בגישת safety‑first, פרסמה בעדכון שגרתי גרסה של Claude Code שכללה קובץ דיבוג פנימי שחשף את קוד המקור המלא של סוכן הקוד שלה. בתוך זמן קצר התברר שמדובר בחשיפה רחבה של רכיבים פנימיים שלא היו אמורים […]

הפוסט איך קובץ קטן חושף שבר גדול בתדמית של אנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-31 במרץ 2026 אנטרופיק מצאה את עצמה בלב אחד האירועים המביכים והמשמעותיים ביותר שחוותה. החברה, שמציגה את עצמה כמי שפועלת בגישת safety‑first, פרסמה בעדכון שגרתי גרסה של Claude Code שכללה קובץ דיבוג פנימי שחשף את קוד המקור המלא של סוכן הקוד שלה. בתוך זמן קצר התברר שמדובר בחשיפה רחבה של רכיבים פנימיים שלא היו אמורים לצאת החוצה, והקהילה הטכנולוגית כולה עקבה אחרי האירוע בדריכות. הדליפה לא נבעה ממתקפה זדונית אלא מטעות אנוש תפעולית פשוטה - קובץ פנימי אחד שנכנס בטעות לעדכון ציבורי הוביל לחשיפה משמעותית והציב את אנטרופיק במרכזו של דיון רחב על תהליכי הפצה ואבטחה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

קובץ אחד במקום הלא נכון

האירוע התחיל כאשר אנטרופיק פרסמה עדכון שגרתי לכלי הפיתוח שלה, Claude Code. בתוך העדכון הופיע בטעות קובץ גדול שנועד לשימוש פנימי בלבד. הקובץ הזה, שנקרא source map וגודלו 59.8MB, משמש בדרך כלל מפתחים כדי לאתר תקלות בזמן פיתוח. במקרה הזה הוא הכיל קישורים לקבצים פנימיים של החברה, וכך חשף מאגר מלא של קוד מקור שנשמר על שרת ציבורי. חוקר אבטחה בשם Chaofan Shou היה הראשון לגלות שהקובץ מוביל לארכיון שמכיל כמעט אלפיים קבצים וכחצי מיליון שורות קוד של Claude Code.

 

לא הייתה כאן פריצה או מתקפה, וגם לא חולשה במודל עצמו. זו הייתה טעות תפעולית פשוטה. קובץ אחד שנארז בטעות בתוך עדכון ציבורי הפך לחשיפה רחבה, ובעולם שבו כל קובץ שמופיע לרגע באינטרנט יכול להיות מועתק ומופץ ללא הגבלה, המשמעות הייתה גדולה בהרבה מהטעות שהובילה אליה.

הצצה נדירה למוח של סוכן קוד

הדליפה לא כללה את משקלי המודל של Claude, לא נתוני משתמשים ולא מפתחות רגישים, ואנטרופיק הדגישה זאת שוב ושוב. אבל מה שכן נחשף היה כמעט כל מה שמרכיב את Claude Code ככלי פיתוח מתקדם. בתוך הקבצים שנמצאו הופיעו רכיבים מרכזיים כמו מנגנון קבלת ההחלטות של הסוכן, מערכת שמנהלת שיתוף פעולה בין כמה תהליכים במקביל, הוראות פנימיות שמכוונות את ההתנהגות של המערכת, נתוני ניטור ותיעוד, וגם עשרות סימונים שמצביעים על יכולות ופיצ'רים שנמצאים בשלבי פיתוח שונים.

 

לפי ניתוחים שפורסמו לאחר הדליפה, נמצאו גם אזכורים למספר יכולות ניסיוניות. בין היתר הופיע מצב בשם Kairos, שמאפשר לסוכן להמשיך לעבוד ברקע גם כשהמשתמש לא פעיל. לצד זה זוהתה מערכת בשם Buddy, שנראית כמו מנגנון ליווי אישי שנועד ללמוד לאורך זמן. נמצאו גם יכולות זיכרון שמאפשרות לכלי לחזור לשיחות קודמות ולהפיק מהן תובנות, וכן תצורה של עוזר שפועל באופן רציף ברקע.

 

בתוך הקוד הופיעו גם רגעים אנושיים יותר. אחד המפתחים כתב הערה שמפקפקת בצורך במנגנון מסוים ומציינת שהוא מוסיף מורכבות בלי תועלת ברורה. לצד זה הופיעו גם אלמנטים קלילים יותר, כמו רעיון לחיית מחמד דיגיטלית שמופיעה ליד תיבת הקלט ומגיבה לקוד שהמשתמש כותב.

מדליפה לפרויקט קוד פתוח פעיל

קהילת המפתחים זינקה על הדליפה הרבה יותר מהר משהטעות עצמה התרחשה - בעוד שהחשיפה נולדה מטעות תפעולית קטנה ושקטה, הקהילה פירקה, שיחזרה והפיצה את הקוד כמעט מיד. בתוך זמן קצר הקוד שהופיע בטעות הועתק, נותח והועלה מחדש לאתרי קוד פתוח. לפי דיווחים בקהילה, נוצר ריפוזיטורי (תיקייה מרכזית שבה שומרים, מנהלים ומשתפים קוד) בשם Claw Code שצבר עשרות אלפי כוכבים בתוך שעות ספורות, לצד מספר גדול של העתקות וגרסאות נגזרות. עבור רבים זו הייתה הזדמנות נדירה לבחון מבפנים איך בנוי כלי פיתוח מסחרי ברמת ייצור.

 

מפתחים שונים השתמשו בכלי AI כדי לשכתב חלקים מהקוד לשפות אחרות, כמו Python ו-Rust, תהליך שלפי פוסטים שפורסמו ברשתות הושלם בתוך פחות משעתיים. כך הפכה הדליפה מפרט טכני מביך לפרויקט חי שהקהילה לומדת ממנו, מפרקת אותו ומנתחת את הארכיטקטורה שלו.

 

ברשתות החברתיות האירוע עורר שיח רחב. פוסטים זכו למיליוני צפיות, מפתחים מוכרים הגיבו, וחזר שוב ושוב מוטיב אירוני אחד. משתמשים הזכירו את הפער בין העובדה שחברות AI מאמנות מודלים על כמויות עצומות של מידע ציבורי, לבין הרגישות הרבה שמופיעה כאשר קוד פנימי שלהן נחשף בטעות.

טעות אנוש והניסיון לבלום את ההתפשטות

אנטרופיק הגיבה במהירות לאחר שהתברר שהקובץ ״הטועה״ חשף קוד פנימי. החברה הסירה את הגרסה הפגומה ממאגר ההפצות, שלחה בקשות להסרת עותקים שהועלו מחדש, והבהירה שמדובר בטעות אנוש בתהליך האריזה של העדכון. דוברי החברה הדגישו שלא נחשפו נתוני לקוחות או פרטים רגישים, והתחייבו לחזק את תהליכי ההפצה כדי למנוע מקרים דומים בעתיד.

 

אלא שבעולם שבו עותקים נשמרים מיד במקומות רבים, הקוד כבר הספיק להתפשט. ברגע שהוא הופיע ברשת, לא הייתה דרך ממשית להחזיר אותו לאחור.

רצף דליפות שמערער את נרטיב ה-safety-first

האירוע הנוכחי, לצערה של אנטרופיק, לא התרחש בחלל ריק. רק חמישה ימים קודם, ב-26 במרץ 2026, התמודדה החברה עם דליפה נוספת. לפי דיווחים שונים, נחשפו כשלושת אלפים קבצים פנימיים הקשורים למודל ניסיוני בשם Claude Mythos, המכונה בחלק מהמקורות גם Capybara. זו הייתה חשיפה רחבה של חומרי פיתוח, מסמכים פנימיים ורכיבים טכניים שלא נועדו לצאת החוצה.

 

הדליפה של מיתוס כמה ימים קודם בפרסום של פולימרקט

גם Claude Mythos דלף החוצה

 

גם זו לא הייתה הפעם הראשונה שבה קוד הקשור ל-Claude Code מצא את דרכו לרשת. כבר בפברואר 2025 דווח על דליפה, אבל ההיקף שלה היה מאוד מצומצם והיא טופלה במהירות.

 

הצטברות האירועים יוצרת תמונה רחבה יותר. לא מדובר בתקלה חד פעמית, אלא ברצף של כשלים תפעוליים שמעלה שאלות על הבשלות של תהליכי ההפצה והאבטחה בחברה שמציגה את עצמה כמי שפועלת בגישת safety-first.

בין חשש לעקיפת מנגנוני הגנה להזדמנות למתחרים

מומחי אבטחה ואנליסטים הצביעו על כמה השלכות מרכזיות של הדליפה. ראשית, חשיפת מנגנוני ההגנה הפנימיים עלולה לאפשר עקיפה שלהם, במיוחד אם גורמים זדוניים ילמדו את המבנה ואת ההיגיון שמאחורי הכללים שמכוונים את המערכת. בנוסף, מתחרים קיבלו למעשה תיאור כמעט מלא של האופן שבו בנוי סוכן קוד ברמת ייצור, מה שעשוי לקצר עבורם תהליכי פיתוח ולספק יתרון תחרותי.

 

חלק מהמומחים העריכו שאנטרופיק תידרש לבנות מחדש חלק ממנגנוני ההגנה שלה, תהליך שעלול להיות מורכב וארוך. אחרים ציינו שהאירוע עשוי להשפיע גם על אמון משקיעים, במיוחד בתקופה שבה החברה מתקרבת לשלב של גיוסי הון משמעותיים.

 

Arun Chandrasekaran מ-Gartner ציין שהדליפה יוצרת סיכונים, אך עשויה לשמש גם כקריאת השכמה להשקעה עמוקה יותר בתהליכים וכלים שיחזקו את הבשלות התפעולית של החברה. כותבי ניוזלטרים בתחום הסייבר הדגישו שהשאלה איך חברות AI מגנות על עצמן הופכת חשובה לא פחות מהשאלה איך הן מגנות על המשתמשים.

שכבת האירוניה האחרונה: הפער בין המיתוג למציאות

שכבת האירוניה העמוקה יותר לא נוגעת לכלי אבטחה כזה או אחר, אלא לפער שנחשף בין המיתוג של אנטרופיק כחברה שמדגישה בטיחות, תהליכי בקרה ובשלות תפעולית, לבין רצף תקלות הפצה וחשיפה שמערער בדיוק את ההבטחה הזו. בזמן שהחברה מציגה את עצמה כמי שמובילה את תחום ה-safety בעולם ה-AI, היא מתקשה לשמור על תהליכי הפצה בסיסיים שמונעים חשיפת קוד פנימי.

 

האירוע הזה הדגיש עד כמה גם חברות שמדברות על אחריות ובטיחות יכולות ליפול על טעויות תפעוליות פשוטות, וכמה מהר הפער בין הצהרות למציאות הופך לחלק מהשיח הציבורי.

דליפה אחת שמספרת סיפור רחב בהרבה

הדליפה של Claude Code היא הרבה יותר מתקלה טכנית. היא חושפת את המתח המתמיד בין מהירות ליציבות, בין חדשנות לבטיחות, ובין פיתוח סגור לבין קהילה שמבקשת להבין איך מערכות כאלה באמת עובדות. האירוע מטיל ספק בבשלות התפעולית של אחת מחברות ה‑AI הבולטות, ומעניק למתחרים הצצה נדירה לאופן שבו בנוי סוכן קוד מתקדם.

 

ובעיקר, הוא מזכיר שגם בעידן של מודלים עצומים וסוכנים אוטונומיים, לא צריך האקר מתוחכם כדי לחשוף מערכת מורכבת. לפעמים כל מה שנדרש הוא טעות אנוש אחת וקובץ אחד במקום הלא נכון.

הפוסט איך קובץ קטן חושף שבר גדול בתדמית של אנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-code-leak/feed/ 0
האלגוריתם של גוגל שמכווץ מודלים פי 6 https://letsai.co.il/google-turboquant/ https://letsai.co.il/google-turboquant/#respond Fri, 03 Apr 2026 10:17:03 +0000 https://letsai.co.il/?p=72287 הסיפור של TurboQuant מתחיל ברעיון שנשמע כמעט בלתי סביר. האפשרות לצמצם פי 6 את כמות הזיכרון שמודלי שפה גדולים משתמשים בו בזמן שהם פועלים, ועדיין לשמור על אותה איכות תשובה. מאחורי הרעיון הזה מסתתר שינוי עמוק בהרבה. האלגוריתם של גוגל לא רק דוחס מידע, אלא משנה את האיזון בין חומרה לתוכנה ומציע דרך חדשה לחשוב […]

הפוסט האלגוריתם של גוגל שמכווץ מודלים פי 6 הופיע ראשון בLet's AI בינה מלאכותית

]]>

הסיפור של TurboQuant מתחיל ברעיון שנשמע כמעט בלתי סביר. האפשרות לצמצם פי 6 את כמות הזיכרון שמודלי שפה גדולים משתמשים בו בזמן שהם פועלים, ועדיין לשמור על אותה איכות תשובה. מאחורי הרעיון הזה מסתתר שינוי עמוק בהרבה. האלגוריתם של גוגל לא רק דוחס מידע, אלא משנה את האיזון בין חומרה לתוכנה ומציע דרך חדשה לחשוב על העלות האמיתית של הפעלת מערכות בינה מלאכותית בקנה מידה גדול. בעולם שבו כל שיפור בביצועים דרש עד היום עוד GPU ועוד זיכרון, TurboQuant מציב סימן שאלה על כמה מההנחות הבסיסיות ביותר של תעשיית ה-AI.

 

גוגל מכריזה על האלגוריתם שלה ברשת x

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

יתרון שמדלג על האימון מחדש

אימון מודל שפה גדול עולה מיליוני דולרים ודורש שבועות של חישוב. עד היום, כל ניסיון לצמצם מודל כזה חייב התערבות בתהליך האימון עצמו. TurboQuant עובד אחרת - הוא מקטין את צריכת הזיכרון בזמן שהמודל כבר פועל, בלי לגעת באימון המקורי. המשמעות היא שכל ארגון, קטן כגדול, יכול ליהנות מהחיסכון בלי להיכנס להשקעות כבדות או לשנות את תהליך הפיתוח שלו. במקום לבנות מודל מחדש, פשוט מכווצים אותו תוך כדי תנועה - וזה מחזיר את הפוקוס מאסקלציה של חומרה לאופטימיזציה חכמה של מה שכבר קיים.

הרגע שבו מחקר הופך לאפשרות תעשייתית

הטענה הזו לא נשארה בגדר רעיון תיאורטי. בתוך זמן קצר מפרסום המאמר, כמה קבוצות חוקרים שלא קשורות לגוגל ניסו ליישם את השיטה בעצמן - והצליחו. הם בדקו אותה על מחשבים שונים, מערכות הפעלה אחרות ומודלים שלא הופיעו במחקר המקורי, ובכל המקרים קיבלו תוצאות דומות. העובדה שהשיטה עבדה מחוץ למעבדות של גוגל, ובתנאים שלא תוכננו מראש, מחזקת את ההבנה שמדובר בגישה כללית ולא בטריק חד-פעמי. הטכנולוגיה עשויה להיות רלוונטית להרבה יותר גופים מאלה שיש להם גישה לתשתיות של גוגל.

התגובה בשוק: כשזיכרון הופך לפחות קריטי

התגובה בשוק ההון הייתה מהירה וברורה. מניות של יצרניות זיכרון כמו Samsung ו-Micron ירדו, משום שהמשקיעים הבינו את המשמעות המעשית. אם מודלים צורכים פחות זיכרון, הביקוש לשבבי HBM, אחד הרכיבים היקרים ביותר בשרתים ייעודיים ל‑AI, עלול להיחלש. Matthew Prince, מנכ"ל Cloudflare, הגדיר את TurboQuant כ"רגע ה-DeepSeek של גוגל" - השוואה שמאותתת על שינוי כיוון. ממש כמו ש-DeepSeek הראתה שאפשר לאמן מודלים חזקים בעלות נמוכה, TurboQuant מראה שאפשר להריץ אותם בחלק קטן מהחומרה שחשבנו שצריך.

 

תגובת השווקים לאלגוריתם של גוגל

התגובה בשוק היתה מהירה. Source: stocktwits.com

מה זה אומר לתקציב ה-AI של ארגונים

ספקיות הענן הגדולות הרחיבו תשתיות בשנים האחרונות בקצב מהיר, מתוך הנחה שמודלים גדולים דורשים כמויות עצומות של זיכרון. הן חתמו על חוזים ארוכי טווח לרכישת שבבי HBM, בנו מרכזי נתונים חדשים והסתמכו על שרשראות אספקה שכבר היום פועלות קרוב לקצה היכולת. אם TurboQuant או טכניקות דומות יבשילו, פחות שרתים יידרשו כדי לשרת את אותו מספר המשתמשים, ופחות זיכרון יידרש בכל שרת. עבור ארגונים שמתכננים תקציב AI לשנה הקרובה, הנקודה המעשית ברורה - עלויות ההפעלה, שהן החלק היקר ביותר בתקציב ה‑AI, עשויות לרדת מהר יותר ממה שההתחייבויות החוזיות הנוכחיות משקפות.

הזהרות ופערים

חשוב להישאר מפוכחים. האלגוריתם עדיין לא בפרודקשן, וגוגל לא פרסמה קוד רשמי שניתן לבחון או להריץ בקנה מידה גדול. אין עדיין בדיקות שמדמות שימוש של מיליוני משתמשים במקביל, ולא ברור אם הדחיסה משפיעה על מהירות התגובה או על יציבות המערכת לאורך זמן. גם היכולת של השיטה להתמודד עם מודלים גדולים במיוחד עדיין לא הוכחה. ספקיות הענן, שמפעילות תשתיות עצומות ומורכבות, לא יאמצו טכנולוגיה חדשה לפני שתוכיח את עצמה כיציבה, בטוחה ויעילה. הפוטנציאל גדול, אבל הדרך ליישום תעשייתי עדיין לא ברורה.

לא רק TurboQuant

ובכל זאת, גם עם כל סימני השאלה, המסר של TurboQuant ברור. העלות של מערכות בינה מלאכותית לא נקבעת רק על ידי גודל ה‑GPU או כמות הזיכרון, אלא על ידי היכולת להשתמש בהם בצורה חכמה. בעולם שבו פיתוח חומרה מתקדמת דורש שנים של עבודה והשקעות עתק, תוכנה יכולה לשנות את כללי המשחק בתוך זמן קצר. עבור מנהלים שמתכננים תשתיות לשנים קדימה, זו תזכורת לא להינעל על הנחות ישנות. העלויות עשויות לרדת מהר יותר ממה שנדמה, והמהפכה הבאה עשויה להגיע דווקא מהשכבה הרכה ביותר במערכת - מהתוכנה שמצליחה להפיק יותר מהחומרה שכבר קיימת.

הפוסט האלגוריתם של גוגל שמכווץ מודלים פי 6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-turboquant/feed/ 0
האם תעשיית ה‑AI תקבע את מדיניות ה‑AI של ארה״ב https://letsai.co.il/white-house-pcast/ https://letsai.co.il/white-house-pcast/#comments Thu, 02 Apr 2026 06:04:12 +0000 https://letsai.co.il/?p=72275 מה קורה כשענקי ה-AI נכנסים לחדר הסגלגל ומה המשמעות של מועצת PCAST החדשה? במרץ 2026 פרסם הבית הלבן את רשימת המינויים הראשונה למועצת PCAST - הגוף שאמור לייעץ לנשיא ארה״ב בנושאי מדע, טכנולוגיה וחדשנות. בניגוד למסורת של עשרות שנים, שבה המועצה הורכבה בעיקר ממדענים, חוקרים ואנשי אקדמיה, ההרכב החדש כמעט ואינו כולל קולות כאלה. סביב […]

הפוסט האם תעשיית ה‑AI תקבע את מדיניות ה‑AI של ארה״ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה קורה כשענקי ה-AI נכנסים לחדר הסגלגל ומה המשמעות של מועצת PCAST החדשה? במרץ 2026 פרסם הבית הלבן את רשימת המינויים הראשונה למועצת PCAST - הגוף שאמור לייעץ לנשיא ארה״ב בנושאי מדע, טכנולוגיה וחדשנות. בניגוד למסורת של עשרות שנים, שבה המועצה הורכבה בעיקר ממדענים, חוקרים ואנשי אקדמיה, ההרכב החדש כמעט ואינו כולל קולות כאלה. סביב השולחן יושבים האנשים שמובילים את תעשיית הבינה המלאכותית העולמית: ג׳נסן הואנג, מארק צוקרברג, סרגיי ברין, ליסה סו, לארי אליסון ואחרים. המסר שמתקבל הוא שממשל טראמפ מעביר את מרכז הכובד מהאקדמיה אל התעשייה, ומבקש שמי שבונה את הטכנולוגיה יהיה גם מי שיעצב את הכללים שיחולו עליה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רגולציה על AI בלי מרחק בטוח

העשור האחרון הפך את ה-AI מכוח מחקרי-אקדמי לתעשייה שמעצבת כלכלה, ביטחון, תעסוקה ויחסי חוץ. מדינות מנסות לנסח רגולציה, אך קצב הפיתוח מהיר בהרבה, והפער בין יכולות הטכנולוגיה לבין יכולות הממשל רק הולך וגדל. כאן נכנסת PCAST: גוף שאמור לספק לבית הלבן ייעוץ בלתי תלוי, מאוזן ומבוסס מומחיות.

 

אלא שהפעם, האיזון הזה מוטה בצורה חסרת תקדים. מתוך 13 חברים, רק אחד הוא מדען אקדמי פעיל. השאר הם מנכ״לים, מייסדים, משקיעים ובעלי עניין ישיר במדיניות AI, שבמקרים רבים תשפיע על שווי החברות שלהם ועל כוחם בשוק. המשמעות היא שהמועצה שאמורה לאזן בין חדשנות לבין בטיחות, עלולה להפוך למועצה שמקדמת בעיקר את האינטרסים של התעשייה עצמה.

הפתרון שמציע הממשל: “שחרור חדשנות”

לפי המסמכים הרשמיים, המועצה תתמקד ב״הזדמנויות ואתגרים שמציגות טכנולוגיות מתפתחות״ ובחיזוק ההובלה האמריקאית ב-AI. הקו המנחה של הממשל ברור: פחות רגולציה, יותר תחרותיות. טראמפ כבר ביטל חלק מהמדיניות הזהירה יותר מתקופת ביידן, והציג מסגרת פדרלית שמטרתה למנוע “טלאי רגולטורי” של חוקים מדינתיים.

 

הגישה הזו מתיישבת היטב עם עמדותיו של דייוויד סאקס (David Sacks), אחד משני יושבי‑הראש של PCAST, שמכהן גם כ״צאר ה-AI והקריפטו״ ומוביל קו פרו-תעשייתי מובהק. לצד זה, הממשל מציג את המהלך כחלק מהמאבק על ההובלה מול סין - אם ארה״ב לא תאיץ את החדשנות, כך נטען, היא תאבד את היתרון הטכנולוגי שלה.

איך זה יעבוד בפועל ומי משפיע על מה

המועצה צפויה לעסוק במגוון רחב של נושאים כמו תקני בטיחות ל-AI, מדיניות יצוא שבבים, מימון מחקר פדרלי, רגולציה על מודלים גנרטיביים, והשפעת AI על שוק העבודה. העובדה שמנכ״לים של Meta, Nvidia, AMD, Dell ו-Oracle יושבים יחד סביב שולחן שמחליט על תקני בטיחות, יוצרת מצב שבו החברות שמפתחות את המודלים גם מגדירות מה נחשב “בטוח”.

 

זה לא בהכרח רע. יש יתרון ברור בכך שהמומחים שמבינים את הטכנולוגיה לעומק נמצאים בחדר, אבל זה דורש שקיפות, איזונים ובלמים, ויכולת של הממשל להגיד “לא” כשצריך. אחרת, הרגולציה עלולה להפוך לכלי שמקדם אינטרסים עסקיים במקום אינטרסים ציבוריים.

מי נמצא במועצה 

הרכב המועצה כולל 13 מהשמות החזקים ביותר בתעשיית הטכנולוגיה וה‑AI, כולם בעלי השפעה ישירה על פיתוח מודלים, שבבים, תשתיות ענן או השקעות עומק בתחום:

  • מארק אנדריסן (Marc Andreessen) - משקיע-על ומייסד a16z, מהקולות המשפיעים ביותר בעיצוב מדיניות טכנולוגית.

  • סרגיי ברין (Sergey Brin) - ממייסדי גוגל, מעורב עמוק בפרויקטי AI מתקדמים.

  • ספרא כץ (Safra Catz) - מנכ״לית Oracle, שחקנית מרכזית בתשתיות ענן למודלי AI.

  • מייקל דל (Michael Dell) - מוביל תשתיות מחשוב בקנה מידה עצום.

  • ג׳ייקוב דה-וויט (Jacob DeWitte) - יזם בתחום האנרגיה הגרעינית, רלוונטי לעידן שבו AI דורש אנרגיה עצומה.

  • פרד ארסם (Fred Ehrsam) - מייסד Coinbase, מחבר בין AI, בלוקצ׳יין וכלכלה דיגיטלית.

  • לארי אליסון (Larry Ellison) - מייסד Oracle, בעל השפעה על תשתיות ענן ומודלים ארגוניים.

  • דייוויד פרידברג (David Friedberg) - יזם בתחום מדעי הנתונים והחקלאות החכמה.

  • ג׳נסן הואנג (Jensen Huang) - מנכ״ל Nvidia, האיש שמחזיק את מפתחות החומרה של מהפכת ה‑AI.

  • ג׳ון מרטיניס (John Martinis) - מדען מוביל בתחום מחשוב קוונטי.

  • בוב מומגארד (Bob Mumgaard) - מוביל חדשנות באנרגיית היתוך.

  • ליסה סו (Lisa Su) - מנכ״לית AMD, שחקנית קריטית במאבק על שבבי AI.

  • מארק צוקרברג (Mark Zuckerberg) - מנכ״ל Meta, מוביל פיתוח מודלי AI פתוחים בקנה מידה עצום.

הנוכחות של כל אחד מהם סביב שולחן המדיניות של הבית הלבן יוצרת מועצה שמורכבת כמעט לחלוטין מאנשים שמעצבים בפועל את תעשיית ה‑AI ולא רק חוקרים אותה.

מי לא שם - ולמה זה חשוב

דווקא שלושה מהשחקנים המשפיעים ביותר על עתיד ה-AI אינם חלק מהמועצה - והיעדרם בולט במיוחד.

 

סאם אלטמן, מנכ״ל OpenAI, אינו מופיע ברשימה. זה לא רק בגלל מתחים פוליטיים, אלא גם משום שהוא מייצג גישה מורכבת יותר לרגולציית AI: שילוב של האצה אגרסיבית עם קריאות לבטיחות. אלטמן מעורב במאבקי כוח סביב רגולציה פדרלית וחוזים ממשלתיים, ולעיתים נתפס כמי שמנסה לעצב רגולציה שתשרת רק את החברה שלו עצמו. זה מציב אותו בעמדה פחות טבעית מול קו “שחרור החדשנות” שמוביל הממשל.

 

אלון מאסק, שמוביל כיום את xAI, גם הוא מחוץ למועצה. מאסק היה בעבר מקורב לממשל, אך היחסים הידרדרו לאחר עזיבתו המתוקשרת של משרד ה-DOGE. לפי דיווחים, הוא “כבר לא חלק ממעגל הייעוץ”. מאסק מדגיש סיכונים קיומיים ומבקר בחריפות את חלק מהשחקנים המרכזיים בתעשייה, מה שהופך אותו לדמות פחות מתאימה למועצה שמבקשת להציג חזית תעשייתית אחידה.

 

דריו אמודיי, מנכ״ל Anthropic, בולט בהיעדרו אף יותר, למרות שמי שמכיר את הסיפור שלו ושל Anthropic מול הממשל מבין שהוא לא יכול לשבת שם. אמודיי עזב את OpenAI מתוך מחלוקת עמוקה על בטיחות, והקים את Anthropic כתגובה - חברה שממקמת את עצמה בצד הזהיר של התעשייה, עם דגש על alignment, בקרות וסיכונים מערכתיים. הוא מייצג את המחנה שמבקש להאט, לבדוק ולבנות מנגנוני בטיחות מחייבים - גישה שנמצאת בניגוד ישיר לרוח הפרו‑תעשייתית של PCAST.

 

היעדרם של שלושת השחקנים הללו מחזקת את התמונה שכבר מצטיירת כברורה מאליה - PCAST של טראמפ מייצגת את מחנה ה-AI הפרו-תעשייתי, לא את מחנה ה-AI הזהיר.

שינוי פרדיגמה ביחסי ממשל-תעשייה

ההרכב החדש של PCAST מסמן שינוי עומק ביחסי הממשל עם תעשיית הטכנולוגיה. במקום מועצה מדעית שמורכבת ממומחים אקדמיים, מתקבלת מועצת מנכ״לים, במקום זהירות רגולטורית - דחיפה אגרסיבית של חדשנות, ובמקום גיוון דיסציפלינרי - ריכוז כוח בידי תעשיית ה‑AI. האם זה טוב או רע? זה תלוי את מי שואלים.

 

מצד אחד, המהלך עשוי להאיץ פיתוחים ולחזק את מעמדה של ארה״ב בזירה הגלובלית. מצד שני, הוא עלול להחליש מנגנוני בטיחות ולהגביר את השפעתן של חברות הענק על מדיניות ציבורית. כך או כך, מינוי 13 מבכירי תעשיית הטכנולוגיה למועצה יוצר מציאות חדשה שבה האנשים שמעצבים את עתיד ה‑AI גם מייעצים ישירות על הכללים שיחולו עליו. ההחלטות שיתקבלו כאן ישפיעו על תקני AI גלובליים, על תחרות מול סין, על רגולציה פדרלית ועל עתיד השוק כולו - ומה שיקרה ב‑PCAST לא יישאר רק בוושינגטון, אלא יגדיר את גבולות החדשנות והבטיחות של העשור הקרוב.

הפוסט האם תעשיית ה‑AI תקבע את מדיניות ה‑AI של ארה״ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/white-house-pcast/feed/ 1
טיפ קטן לחג שיכול לשנות את הדרך שבה אתם עובדים עם צ’אטבוטים https://letsai.co.il/reverse-engineer-prompt/ https://letsai.co.il/reverse-engineer-prompt/#respond Wed, 01 Apr 2026 07:40:19 +0000 https://letsai.co.il/?p=72169 בעידן שבו צ'אטבוטים הפכו לכלי עבודה מרכזי - מ‑ChatGPT ועד Copilot, Gemini ו‑Claude - אנחנו מוצאים את עצמנו משקיעים זמן רב בליטוש תשובות. אנחנו שואלים, מתקנים, מחדדים, מוסיפים הקשרים, ורק אחרי כמה סבבים מגיעים לתוצאה שבאמת מרגישה ש...“הפעם זה זה”. אבל מה אם היה אפשר לקחת את כל התהליך הזה, לדחוס אותו לפרומפט אחד, ולשחזר […]

הפוסט טיפ קטן לחג שיכול לשנות את הדרך שבה אתם עובדים עם צ’אטבוטים הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעידן שבו צ'אטבוטים הפכו לכלי עבודה מרכזי - מ‑ChatGPT ועד Copilot, Gemini ו‑Claude - אנחנו מוצאים את עצמנו משקיעים זמן רב בליטוש תשובות. אנחנו שואלים, מתקנים, מחדדים, מוסיפים הקשרים, ורק אחרי כמה סבבים מגיעים לתוצאה שבאמת מרגישה ש...“הפעם זה זה”. אבל מה אם היה אפשר לקחת את כל התהליך הזה, לדחוס אותו לפרומפט אחד, ולשחזר את אותה איכות בכל פעם מחדש? כאן נכנס לתמונה טריק פשוט, כמעט אלגנטי, שמאפשר להפוך שיחה שלמה לפרומפט מדויק, חד וניתן לשימוש חוזר.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך זה עובד: מהשיחה הארוכה לפרומפט אחד מושלם

הטכניקה מתחילה דווקא ברגע שבו אתם מרגישים שהגעתם לתוצאה המושלמת. אחרי שהשיחה התפתחה, אחרי שהמודל הבין את הכוונות שלכם, אחרי שהוספתם דגשים וסגנון - זה הזמן לשלוף את המשפט הקצר שמפעיל את כל הקסם. אתם פשוט מבקשים מהמודל:

 

גרסה בעברית:

“נתח את כל השיחה שניהלנו עד עכשיו, וזקק ממנה פרומפט אחד, ברור ומדויק, שהיה יכול להפיק את התוצאה הסופית שקיבלנו - בלי כל שלבי הביניים.”

 

גרסה באנגלית:

“Reverse engineer our conversation and write the single prompt that would have produced this final response in one go.”

 

בנקודה הזו המודל עוצר, מביט אחורה על כל השיחה, ומתחיל לנתח אותה: מה היה חשוב לכם? על אילו הנחיות חזרתם? איזה טון ביקשתם? איזה דוגמאות עזרו להבין את הכיוון? הוא מאחד את כל זה לפרומפט אחד, נקי ומדויק, שמופיע בדרך כלל בתוך code block - מוכן להעתקה.

 

התוצאה היא פרומפט “אופטימלי”: כזה שמאפשר לפתוח שיחה חדשה, להדביק אותו כמו שהוא, ולקבל את אותה איכות תוצאה - בלי כל הסבבים הקודמים.

למה זה עובד כל כך טוב?

הסיבה שהשיטה הזו כל כך יעילה טמונה ביכולת של המודל להבין את הכוונה שלכם בדיעבד. אחרי שהוא ראה את כל התהליך, הוא יודע לזהות מה באמת היה חשוב: הסגנון, המבנה, ההדגשים, ההקשרים. במקום לנסות לנחש מראש מה יוביל לתוצאה הרצויה, אתם נותנים לו ללמוד מהתוצאה עצמה.

 

מעבר לזה, השיטה הזו מייצרת פרומפטים לשימוש חוזר - אידיאליים לכתיבה מקצועית, תהליכי עבודה, יצירת תוכן, תסריטים, מדריכים ועוד. היא חוסכת זמן, מייצרת עקביות, ומאפשרת לשמור על איכות אחידה לאורך זמן, במיוחד כשעובדים בצוות או מייצרים סדרת תוצרים.

איך זה נראה בפועל

נניח שעבדתם עם הבוט על כתיבת מדריך טכני. אחרי כמה סבבים יצא טקסט מעולה. אתם שולחים את המשפט הקסום - והבוט מחזיר משהו בסגנון:

 

גרסה בעברית:

“כתוב מדריך טכני ברור ומובנה בנושא X, ברמה שמתאימה למגזין מקצועי. השתמש בטון ידידותי, הסברים בשכבות, דוגמאות מעשיות ושלבים תמציתיים. הוסף גם הערות נגישות, והימנע מסגנון מתלהב או קלישאתי.”

 

גרסה באנגלית:

Write a clear, structured, magazine-quality technical guide about X, using a friendly tone, layered explanations, practical examples, and concise steps. Include accessibility notes and avoid hype or clichés

 

פתאום יש לכם פרומפט “מושלם” - כזה שאפשר להשתמש בו שוב ושוב, בכל הקשר דומה, בלי להתחיל מאפס.

 

ואם אתם רוצים לקחת את זה צעד קדימה, אפשר לבקש מהמודל להפוך את הפרומפט למודולרי ועריך, עם חלקים שניתן לשנות בקלות. זה הופך אותו לכלי עבודה גמיש במיוחד.

טכניקה פשוטה שמייצרת תוצאות גדולות

היופי בשיטה הזו הוא הפשטות שלה. היא עובדת בכל צ'אטבוט, חוסכת זמן, מייצרת פרומפטים איכותיים לשימוש חוזר, ומשפרת משמעותית את הדיוק והעקביות של התוצרים שלכם. במקום להסתמך על ניסוי וטעייה בכל פעם מחדש, אתם נותנים למודל ללמוד מהשיחה עצמה, ומקבלים פרומפט שמזקק את כל מה שעבד. 

 

שווה לנסות - זה יכול לחסוך לכם הרבה זמן ולשפר את הפרודוקטיביות.

 

חג שמח!

הפוסט טיפ קטן לחג שיכול לשנות את הדרך שבה אתם עובדים עם צ’אטבוטים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/reverse-engineer-prompt/feed/ 0
הסיפור על סמנכ”לית הטכנולוגיה לשעבר של OpenAI ומלחמת הכישרונות של תעשיית ה-AI https://letsai.co.il/mira-murati/ https://letsai.co.il/mira-murati/#respond Tue, 31 Mar 2026 05:47:50 +0000 https://letsai.co.il/?p=72003 מירה מוראטי (Mira Murati) עזבה את OpenAI. המשקיעים הלכו אחריה. סמנכ"לית הטכנולוגיה לשעבר של OpenAI הקימה את Thinking Machines Lab, גייסה לפי שווי של 12 מיליארד דולר, והפכה למקרה מבחן לשאלה מי באמת מחזיק בכוח בתעשיית הבינה המלאכותית. מירה מוראטי הייתה חלק מההנהלה שהובילה את הפיכת המחקר של OpenAI למוצרים כמו ChatGPT שלהזכירכם, עד תחילת […]

הפוסט הסיפור על סמנכ”לית הטכנולוגיה לשעבר של OpenAI ומלחמת הכישרונות של תעשיית ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>

מירה מוראטי (Mira Murati) עזבה את OpenAI. המשקיעים הלכו אחריה. סמנכ"לית הטכנולוגיה לשעבר של OpenAI הקימה את Thinking Machines Lab, גייסה לפי שווי של 12 מיליארד דולר, והפכה למקרה מבחן לשאלה מי באמת מחזיק בכוח בתעשיית הבינה המלאכותית. מירה מוראטי הייתה חלק מההנהלה שהובילה את הפיכת המחקר של OpenAI למוצרים כמו ChatGPT שלהזכירכם, עד תחילת 2026 כבר הגיע לכ-900 מיליון משתמשים פעילים בשבוע. אבל מוראטי כבר לא שם. היא עזבה בספטמבר 2024, ומה שקרה אחרי העזיבה הזו מספר סיפור גדול יותר מכל מוצר טכנולוגי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ילדה מוולורה (Vlorë)

מירה מוראטי נולדה בדצמבר 1988 ב-ולורה (Vlorë), עיר נמל בדרום אלבניה. הוריה היו שניהם מורים לספרות בתיכון. כשהייתה בת שמונה, ב-1997, אלבניה שקעה במשבר אזרחי חמור בעקבות קריסת תוכניות פירמידה שהשמידו את חסכונות המדינה, וולורה הייתה אחת הערים שנפגעו הכי קשה.

 

בגיל שש עשרה היא זכתה במלגה של United World Colleges ונסעה ללמוד בפירסון קולג' (Pearson College) שבאי ונקובר בקנדה. משם המשיכה לתואר כפול במתמטיקה מקולבי קולג' (Colby College) ובהנדסת מכונות מבית הספר להנדסה של דרטמות' (Dartmouth). הנתיב הזה, מעיירת נמל באלבניה לאוניברסיטאות של הליגה האמריקנית, מסביר חלק ממה שבא אחר כך, אבל רק חלק.

מהנדסת מוצר, לא חוקרת

לפני שמוראטי הגיעה ל-OpenAI, היא צברה ניסיון שמבדיל אותה מרוב המנהיגים בתעשיית הבינה המלאכותית. היא עבדה כמתמחה בגולדמן זאקס (Goldman Sachs) בטוקיו, כמנהלת מוצר בכירה בטסלה (Tesla) על תוכנית מודל X, ואחר כך כסמנכ"לית מוצר והנדסה בליפ מושן (Leap Motion), חברה שפיתחה טכנולוגיית מעקב ידיים.

 

המכנה המשותף הוא תרגום טכנולוגיה למוצר. לא מחקר תיאורטי, אלא בנייה של דברים שאנשים משתמשים בהם. כשהגיעה ל-OpenAI ביוני 2018 כסמנכ"לית AI יישומי ושותפויות, היא הביאה איתה בדיוק את מה שהחברה הייתה צריכה בשלב הבא.

השנים שעיצבו את ChatGPT

מוראטי טיפסה ב-OpenAI מהר. במאי 2022 היא מונתה לסמנכ"לית טכנולוגיה ראשית (CTO), והתפקיד שלה כלל פיקוח על צוותי מחקר, מוצר ובטיחות. במהלך כהונתה כ-CTO, השיקה OpenAI את ChatGPT, DALL-E, Codex ו-Sora.

 

מוראטי אמנם לא כתבה את הקוד של צ'אט ג'יפיטי לבדה, אבל היא הייתה חלק מההנהלה שהובילה את תקופת ההשקות המשמעותית ביותר של החברה. ההבדל הזה חשוב, כי הוא מסביר למה משקיעים רדפו אחריה אחרי שעזבה.

 

שלושה ימים של כאוס

בשבעה עשר בנובמבר 2023, הדירקטוריון של OpenAI פיטר את סם אלטמן (Sam Altman). מוראטי מונתה למנכ"לית זמנית. מה שהתרחש אחר כך נכנס לספרי ההיסטוריה של עמק הסיליקון. תוך יומיים, הדירקטוריון החליף אותה באמט שיר (Emmett Shear), ואז כשבע מאות ושבעים מתוך שמונה מאות עובדי החברה חתמו על מכתב שדרש את חזרתו של אלטמן, תוך איום לעבור למייקרוסופט (Microsoft). אלטמן חזר עד סוף השבוע עם דירקטוריון חדש.

 

האפיזודה הזו חשפה כמה מרכזית מוראטי הייתה בתוך OpenAI, וגם כמה מורכבת הייתה מערכת היחסים שלה עם אלטמן. לפי דיווחים, אלטמן ראה בה שותפה למהלך ההדחה. בספטמבר 2024, עשרה חודשים אחרי המשבר, מוראטי הודיעה שהיא עוזבת.

 

"שש וחצי השנים שלי עם צוות OpenAI היו זכות יוצאת דופן," היא כתבה. "אין זמן אידיאלי לעזוב מקום שאוהבים, אבל הרגע הזה מרגיש נכון."

 

שני מיליארד דולר בלי מוצר

בפברואר 2025, חמישה חודשים אחרי העזיבה, מוראטי הכריזה על Thinking Machines Lab. ביוני אותה שנה היא סגרה סבב גיוס של שני מיליארד דולר לפי שווי של שנים עשר מיליארד דולר, בהובלת אנדריסן הורוביץ (Andreessen Horowitz), עם השתתפות של אנבידיה (NVIDIA), AMD, אקסל (Accel) ועוד. זה סבב הגיוס הראשוני הגדול בהיסטוריה.

 

מה שהמשקיעים רכשו לא היה מוצר. הם רכשו את מוראטי ואת הצוות שהצליחה לגייס. ג'ון שולמן (John Schulman), ממייסדי OpenAI, הצטרף כמדען הראשי. באראט זוף (Barret Zoph), סמנכ"ל מחקר ב-OpenAI, הצטרף כסמנכ"ל טכנולוגיה. ליליאן וונג (Lilian Weng), סמנכ"לית ב-OpenAI, הצטרפה כמייסדת שותפה.

 

החברה הוקמה כתאגיד לתועלת ציבורית (Benefit Corporation) עם מבנה ממשל מיוחד שבו למוראטי יש זכות הכרעה. המשימה המוצהרת היא בניית בינה מלאכותית שאנשים יכולים לעצב, באמצעות שיחה, ראייה ושיתוף פעולה טבעי.

מלחמת הכישרונות

ואז הגיעה מטא (Meta). לפי דיווחים ב-TechCrunch ו-Wall Street Journal, מרק צוקרברג (Mark Zuckerberg) ניסה לרכוש את Thinking Machines Lab ישירות, וכשזה לא עבד, מטא הציעה חבילות תגמול של מאות מיליוני דולרים למהנדסים בודדים. לפי דיווח ב-Wired, לאחד מהם הוצעו יותר ממיליארד דולר (!). "אף אחד לא קיבל את ההצעה," מוראטי אמרה באותו ראיון.

 

אבל המציאות הייתה מורכבת יותר. אנדרו טולוש (Andrew Tulloch), אחד המייסדים, עזב למטא באוקטובר 2025. בינואר 2026, באראט צוף ולוק מץ (Luke Metz) חזרו ל-OpenAI. סואמית' צ'ינטלה (Soumith Chintala), ממייסדי PyTorch שעבד שלוש עשרה שנים במטא, הצטרף כסמנכ"ל טכנולוגיה חדש.

 

העזיבות האלה לא בהכרח מעידות על כישלון. הן מעידות על כמה חמה מלחמת הכישרונות בתעשייה, ועל כמה קטנה קבוצת האנשים שיודעים לבנות מערכות AI מתקדמות.

אלבניה מהמרת על הבת שלה

באפריל 2025, ראש ממשלת אלבניה אדי ראמה (Edi Rama) הודיע שהמדינה תשקיע שמונה מיליון ושמונה מאות אלף אירו (כעשרה מיליון דולר), בחברה של מוראטי. ההשקעה דרשה תיקון בתקציב המדינה באמצעות צו מיוחד. מדינה של פחות משלושה מיליון תושבים שינתה את התקציב שלה כדי להשקיע בסטארטאפ של ילדה מוולורה שטרם הציג מוצר.

 

בנובמבר 2025, בלומברג (Bloomberg) דיווח ש-Thinking Machines Lab ניהלה משא ומתן לגיוס נוסף לפי שווי של כחמישים מיליארד דולר. הסבב לא נסגר, אבל עצם המשא ומתן מראה כמה מהר הערך של מוראטי עלה בעיני השוק.

הדרך מוולורה לרשימות TIME ו-Fortune

מוראטי נכנסה לרשימת 100 המשפיעים בבינה מלאכותית לשנת 2024 במגזין טיים, לרשימת CNBC Changemakers ב-2026, ולרשימת Fortune 100 Most Powerful Women. הכרה בינלאומית שמחזקת את מה שהמספרים כבר אומרים.

 

הסיפור שלה עומד בזכות עצמו, אבל הוא חלק ממשהו גדול יותר. דריו ודניאלה אמודאי (Dario and Daniela Amodei) עזבו את OpenAI ב-2021 והקימו את אנטרופיק, ששווה היום שישים ואחד וחצי מיליארד דולר.

 

איליה סוצקבר (Ilya Sutskever) עזב במאי 2024 והקים את Safe Superintelligence, ששווה שלושים ושניים מיליארד דולר.

 

אמנדה אסקל (Amanda Askell), שעיצבה את האופי של קלוד (Claude) באנטרופיק, הפכה לאחת הדמויות המשפיעות ביותר על האופן שבו מערכות AI מתנהגות בפועל. יחד עם מוראטי, הנשים והאנשים שמעצבים את תעשיית ה-AI כבר לא נמצאים בהכרח במקום שבו התחילו.

תעקבו אחרי אנשים, לא מוצרים

אנבידיה הכריזה במרץ 2026 על שותפות עם Thinking Machines Lab שכוללת לפחות גיגה-וואט אחד של כוח מחשוב ממערכות ורה רובין (Vera Rubin) שלה, עם פריסה שתתחיל ב-2027.

 

הסיפור של מירה מוראטי הוא לא רק סיפור על קריירה יוצאת דופן. הוא חושף את הדרך שבה תעשיית הבינה המלאכותית באמת עובדת ב-2026. מאחורי השמות הגדולים, OpenAI, אנטרופיק, מטא, יש קבוצה קטנה של אנשים שיודעים לבנות את המערכות האלה. כשהם זזים, הכיוון של הטכנולוגיה זז איתם.

 

אז אולי מי שרוצה להבין לאן עולם ה-AI הולך, לא צריך לעקוב אחרי המוצרים - אלא אחרי האנשים שיודעים לבנות אותם.

הפוסט הסיפור על סמנכ”לית הטכנולוגיה לשעבר של OpenAI ומלחמת הכישרונות של תעשיית ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/mira-murati/feed/ 0
חיפוש Live של גוגל הגיע לישראל ו-Gemini מייבא זיכרונות https://letsai.co.il/google-live-gemini-import/ https://letsai.co.il/google-live-gemini-import/#respond Sat, 28 Mar 2026 06:49:13 +0000 https://letsai.co.il/?p=71948 גוגל שחררה ביום חמישי האחרון שני עדכונים שמאפשרים להוריד את המחסום בין המשתמש לבין הכלים שלה. העדכון הראשון הוא חיפוש גוגל במצב Live, שמאפשר לחפש תוך כדי שיחה אינטראקטיבית עם המצלמה פתוחה, וזה זמין עכשיו גם בישראל. העדכון השני הוא פיצ׳ר חדש בג׳מיני שמאפשר לייבא את הזיכרונות והשיחות שצברתם ב-AI אחר, כדי שלא תצטרכו להתחיל […]

הפוסט חיפוש Live של גוגל הגיע לישראל ו-Gemini מייבא זיכרונות הופיע ראשון בLet's AI בינה מלאכותית

]]>

גוגל שחררה ביום חמישי האחרון שני עדכונים שמאפשרים להוריד את המחסום בין המשתמש לבין הכלים שלה. העדכון הראשון הוא חיפוש גוגל במצב Live, שמאפשר לחפש תוך כדי שיחה אינטראקטיבית עם המצלמה פתוחה, וזה זמין עכשיו גם בישראל. העדכון השני הוא פיצ׳ר חדש בג׳מיני שמאפשר לייבא את הזיכרונות והשיחות שצברתם ב-AI אחר, כדי שלא תצטרכו להתחיל מאפס. שני העדכונים נפרדים, אבל הכיוון אחד - גוגל רוצה שתשתמשו בכלים שלה, ומוכנה להקל עליכם כדי שזה יקרה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

חיפוש Google במצב Live הגיע לישראל

חיפוש Live הוא בעצם שיחה אינטראקטיבית עם גוגל, ובמקום להקליד שאילתה ולגלול בתוצאות, אתם פשוט מדברים. שואלים שאלה בקול, מקבלים תשובה, ויכולים להמשיך לשאול שאלות המשך בלי לחזור למסך החיפוש. החלק המעניין הוא שאפשר גם לפתוח את המצלמה ולכוון אותה על משהו פיזי - מוצר, שלט, מנה במסעדה, צמח בגינה - ולשאול עליו שאלות בזמן אמת.

 

הפיצ'ר הזה עבד עד עכשיו רק בארצות הברית ובהודו. אתמול גוגל הרחיבה אותו למעל 200 מדינות, כולל ישראל. הוא מבוסס על Gemini 3.1 Flash Live, המודל החדש של גוגל לשיחות קוליות, ותומך ביותר מ-90 שפות, כך שאפשר לדבר איתו גם בעברית.

איך מפעילים

ההפעלה פשוטה. פותחים את אפליקציית גוגל בנייד (Android או iPhone), ומחפשים את סמל ה-Live מתחת לשורת החיפוש. מקישים עליו ומתחילים לדבר. אם רוצים להוסיף את המצלמה, לוחצים על כפתור הווידאו שמופיע בזמן השיחה ומכוונים את הטלפון. דרך נוספת - פותחים את Google Lens ובוחרים בלשונית Live שנמצאת ליד לשונית התרגום. שימו לב שצריך לאפשר גישה למיקרופון, ואם רוצים להשתמש במצלמה - גם אליה.

 

חיפוש Google במצב Live

איך להפעיל חיפוש Google במצב Live

Gemini מאפשרת לייבא זיכרונות מ-AI אחר

העדכון השני הוא סוג אחר לגמרי של שדרוג. אם אתם משתמשים ב-צ׳אט ג׳יפיטי או ב-קלוד ושוקלים לנסות את ג׳מיני, אחד הדברים שמרתיעים הוא ההרגשה שצריך להתחיל מאפס - הכלי הישן כבר מכיר אתכם, יודע מה אתם אוהבים, זוכר שיחות קודמות, ובכלי חדש אתם זר מוחלט.

 

גוגל מנסה לפתור את זה בדיוק עם שני כלי ייבוא חדשים: ייבוא זיכרונות וייבוא היסטוריית שיחות. שניהם עובדים דרך עמוד ייעודי.

איך מייבאים זיכרונות

ייבוא זיכרונות עובד בדרך מאוד דומה לפיצ׳ר שאנטרופיק (Anthropic) הוציאה לא מזמן להעברת הזכרונות שלכם מ-AI אחר. במקום לחבר את ג׳מיני ישירות לצ׳אט ג׳יפיטי, גוגל נותנת לכם פרומפט מוכן מראש שמבקש מה-AI הישן שלכם לסכם את כל מה שהוא יודע עליכם.

 

איך זה עובד? נכנסים לייבוא בג׳מיני, מעתיקים את הפרומפט שמופיע שם, מדביקים אותו בצ׳אט ג׳יפיטי או בקלוד, ומקבלים סיכום מובנה של חמש קטגוריות - מידע דמוגרפי, תחומי עניין והעדפות, מערכות יחסים, אירועים ופרויקטים, והנחיות שנתתם לכלי. מעתיקים את הסיכום ומדביקים אותו חזרה בג׳מיני. תוך דקות ספורות, ג׳מיני מקבלת תמונה רחבה של ההעדפות שלכם ויכולה להתאים את עצמה בהתאם.

 

איך מייבאים זיכרונות

איך מייבאים זיכרונות והיסטוריית שיחות

איך מייבאים היסטוריית שיחות

אם רוצים לייבא גם את השיחות עצמן ולא רק את הזיכרונות, התהליך קצת שונה. קודם צריך לייצא את היסטוריית השיחות מהכלי הישן:

1. בצ׳אט ג׳יפיטי: נכנסים להגדרות דרך שם המשתמש בפינה השמאלית התחתונה, בוחרים Data Controls ואז Export Data. צ׳אט ג׳יפיטי שולח קובץ ZIP למייל.

2. בקלוד: גם כאן דרך שם המשתמש, הגדרות, Privacy, ואז Export Data. בוחרים טווח תאריכים ומקבלים קישור להורדה במייל.

אחרי שהקובץ אצלכם, חוזרים לייבוא ומעלים את קובץ ה-ZIP. יש מגבלה של 5 GB לקובץ ועד 5 קבצים ביום, אבל לרוב המשתמשים זה יותר ממספיק. השיחות המיובאות מופיעות בסרגל הצד של ג׳מיני עם סימון מיוחד, ואפשר לחפש בהן ולמחוק אותן בכל שלב.

מה גוגל עושה עם המידע שלכם

שווה לדעת! המידע שמיובא לג׳מיני נשמר ב-Google Activity שלכם, עם מחיקה אוטומטית כל 18 חודשים כברירת מחדל (אפשר לשנות ל-3 או 36 חודשים). גוגל מציינת שחלק מהשיחות עשוי להיבדק על ידי סוקרים אנושיים לצורך שיפור השירות, ושיחות שנבדקו נשמרות עד שלוש שנים גם אם מוחקים את ההיסטוריה. זה לא ייחודי לג׳מיני - רוב שירותי ה-AI פועלים באופן דומה - אבל שווה להיות מודעים לזה לפני שמייבאים שנתיים של שיחות.

שני צעדים קדימה

שני העדכונים האלה נראים כמו פיצ'רים קטנים, אבל הכיוון שמאחוריהם ברור. חיפוש Live הופך את גוגל מתיבת טקסט לשותף שיחה שרואה מה שאתם רואים, וכלי הייבוא מוריד את המחסום הכי גדול של מעבר בין כלי AI - ההרגשה שאתם מתחילים מאפס. גוגל לא רק בונה כלים חדשים, היא עושה הכל כדי שתיכנסו וגם תישארו.

הפוסט חיפוש Live של גוגל הגיע לישראל ו-Gemini מייבא זיכרונות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-live-gemini-import/feed/ 0
אנדריי קרפאתי והעידן החדש של פיתוח מבוסס-סוכנים https://letsai.co.il/karpathy-agentic-coding/ https://letsai.co.il/karpathy-agentic-coding/#respond Wed, 25 Mar 2026 06:15:13 +0000 https://letsai.co.il/?p=71714 כיצד אחד מהקולות המשפיעים בעולם ה-AI מסמן את סוף עידן ה"כתיבה" ותחילתו של עידן ה"אורקסטרציה". יש נקודות בזמן שבהן תעשייה שלמה מבינה שהיא עברה את נקודת האל-חזור. עבור עולם הפיתוח, נדמה שהרגע הזה מתרחש שוב ושוב בשנתיים האחרונות, אבל הראיון האחרון של אנדריי קרפאתי מצליח לזקק (שוב) את השינוי בצורה חדה במיוחד. קרפאתי, אחד מהאדריכלים […]

הפוסט אנדריי קרפאתי והעידן החדש של פיתוח מבוסס-סוכנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
כיצד אחד מהקולות המשפיעים בעולם ה-AI מסמן את סוף עידן ה"כתיבה" ותחילתו של עידן ה"אורקסטרציה". יש נקודות בזמן שבהן תעשייה שלמה מבינה שהיא עברה את נקודת האל-חזור. עבור עולם הפיתוח, נדמה שהרגע הזה מתרחש שוב ושוב בשנתיים האחרונות, אבל הראיון האחרון של אנדריי קרפאתי מצליח לזקק (שוב) את השינוי בצורה חדה במיוחד. קרפאתי, אחד מהאדריכלים הבולטים של מהפכת ה-AI, מצהיר בפשטות: "לתכנת" זה כבר לא הפועל הנכון. לא מדובר בעוד כלי שמאיץ כתיבת קוד, אלא בשינוי קטגורי שמגדיר מחדש את תפקיד המפתח ואת אופי העבודה עצמה.

 

 
 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הבעיה האמיתית היא לא המקלדת - אלא החשיבה

בעולם שבו מודלים מסוגלים לייצר אלפי שורות קוד בדקה, ברור שהמקלדת כבר אינה צוואר הבקבוק. קרפאתי מצביע על חסמים אחרים לגמרי: היכולת לפרק משימות בצורה מדויקת, לנסח הוראות איכותיות, לנהל לולאות בדיקה יעילות ולהגדיר מדדים אובייקטיביים להצלחה.

 

לדבריו, בלי מטריקה אין אוטונומיה, ובלי אוטונומיה אין סקייל. המודלים עצמם כבר חזקים, מה שמעכב את ההתקדמות הוא דווקא היכולת האנושית לנהל אותם נכון.

מעבר מכתיבה לאורקסטרציה

כאן נכנס החזון של קרפאתי - חזון שמסמן שינוי עמוק בתפיסת הפיתוח. במקום מפתח אחד שכותב קוד, תקום מערכת שלמה של סוכנים אוטונומיים, שכל אחד מהם מתמחה במשימה אחרת. סוכן אחד יבנה יכולת חדשה, אחר יריץ בדיקות ו-edge cases, שלישי יבצע benchmark וניתוח, ורביעי יטפל בתיעוד.

 

תפקיד המפתח יהפוך לניהול התזמורת: תעדוף, בקרה, קבלת החלטות וניהול לולאות feedback. זהו מעבר מעבודה ידנית לעבודה מערכתית - מאדם שכותב קוד לאדריכל של תהליכים.

שתי מגמות שמעצבות את העתיד

קרפאתי, שדיבר לא מזמן גם על ה-FOMO ותחושת הפער שיוצר העולם החדש, מתאר שתי מגמות מרכזיות שמובילות את מהפכת ה-agentic coding. הראשונה היא המעבר מסשן יחיד של "שיחה עם מודל" לאורקסטרציה של מספר סוכנים שפועלים במקביל, מפרקים משימות ומחזירים תוצרים מדידים.

 

השנייה היא הופעתן של מערכות “claw-like” - סוכנים שפועלים ברציפות, עם זיכרון מתמשך, ומבצעים עבודה גם כשאף אחד לא מבקש מהם. לא עוד כלי שמגיב לפקודה, אלא ישות תפעולית שמנהלת תהליך מתמשך.

הפרדוקס: בין סופר-אינטליגנציה לילד בן 10

אחת התובנות המעניינות בראיון היא הפרדוקס של המודלים המודרניים. במשימות שניתן למדוד בצורה אובייקטיבית, המודלים מתפקדים כמעט כסופר-אינטליגנציה. אבל במשימות "רכות" יותר כמו כתיבה יצירתית, פרשנות, שיפוט, הם עדיין מתנהגים לעיתים כמו ילד בן 10. זה בדיוק ההסבר לכך שאוטונומיה עובדת היטב רק כאשר קיימים מדדים ברורים. במקומות שבהם אין אמת מידה - המודל מתנדנד.

הפער בין החזון למציאות

הציוץ המצוטט של קרפאתי מוסיף שכבה של כנות נדירה. מעבר לרעיונות הגדולים שקרפאתי מציג בראיון, יש גם את המציאות היומיומית של עבודה עם סוכני AI, והיא הרבה פחות סטרילית. הוא מודה שהקוד שהסוכנים מייצרים הוא לא תמיד “יפה”, שהם נוטים ל-copy‑paste, יוצרים מבנים מורכבים מדי ולעיתים פשוט מתעלמים מהוראות מפורשות, אפילו כשהן מופיעות בקבצי AGENTS.md.

 

למרות זאת, הוא ממשיך לעבוד איתם, משום שהמאזן הכולל עדיין חיובי: המהירות, הכיסוי והיכולת לייצר תוצרים במהירות גוברים על החסרונות האסתטיים.

 

הציוץ הבא ממחיש היטב את הפער בין החזון לבין מה שקורה בפועל - ומדגיש שהעתיד לא יהיה מושלם, אבל הוא בהחלט יהיה יעיל:

 

הציוץ של אנדריי קרפאתי

"הפסקתי להילחם בזה": קרפאתי על איכות הקוד של סוכני AI

המודל הכי חדש לא ינצח - מודל ההפעלה כן

אחת האמירות החזקות של קרפאתי היא על עתיד המפתחים. השאלה היא כבר לא האם AI יחליף מפתחים - השאלה האמיתית היא האם ה-workflow של הארגון בנוי כך שסוכנים יכולים לרוץ עליו בבטחה, במקביל ובאיכות. הצוותים שינצחו לא יהיו אלה עם המודל הכי מתקדם, אלא אלה שידעו לבנות תהליכים נכונים: פירוק משימות, הגדרת מטריקות, ניהול לולאות feedback וניצול נכון של טוקנים. זה שינוי מקצועי עמוק - אולי הגדול ביותר מאז המצאת המחשב האישי.

תפקיד המפתח משתנה - והעתיד כבר ממש כאן

הראיון של קרפאתי מצייר תמונה ברורה: תפקיד המפתח עובר אבולוציה מהירה. במקום כתיבת קוד, המפתח הופך למנהל סוכנים, אדריכל תהליכים ומעצב מטריקות. היכולת לנסח הוראות מדויקות, לבנות תהליכי בקרה ולהגדיר הצלחה בצורה מדידה הופכת למיומנות המרכזית. זה שינוי שמחייב חשיבה מחדש על כל שרשרת הפיתוח - מהגדרת המשימה ועד הבקרה הסופית. מי שידע לאמץ את השינוי הזה, יוביל את הדור הבא של הפיתוח.

הפוסט אנדריי קרפאתי והעידן החדש של פיתוח מבוסס-סוכנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/karpathy-agentic-coding/feed/ 0
מגדל הקלפים של ה‑AI: ארבע נקודות החנק שמטלטלות את הכלכלה העולמית https://letsai.co.il/ai-house-of-cards/ https://letsai.co.il/ai-house-of-cards/#respond Tue, 24 Mar 2026 06:05:39 +0000 https://letsai.co.il/?p=71509 טריליון וחצי דולר בהשקעות AI מניחים שהעולם הפיזי ישתף פעולה. שאנרגיה תזרום, ששבבים ייוצרו, שכבלים תת-ימיים יעבירו נתונים, ושחומרי גלם יגיעו למפעלים. במרץ 2026, שלוש מתוך ארבע נקודות החנק האלה נמצאות במשבר בו-זמנית. שרטוט חצי ילדותי-חצי סאטירי שתפס לי את העין השבוע מצייר את זה בדיוק: מגדל של סיסמאות טכנולוגיות - AI Optimization, Data Analytics, […]

הפוסט מגדל הקלפים של ה‑AI: ארבע נקודות החנק שמטלטלות את הכלכלה העולמית הופיע ראשון בLet's AI בינה מלאכותית

]]>

טריליון וחצי דולר בהשקעות AI מניחים שהעולם הפיזי ישתף פעולה. שאנרגיה תזרום, ששבבים ייוצרו, שכבלים תת-ימיים יעבירו נתונים, ושחומרי גלם יגיעו למפעלים. במרץ 2026, שלוש מתוך ארבע נקודות החנק האלה נמצאות במשבר בו-זמנית. שרטוט חצי ילדותי-חצי סאטירי שתפס לי את העין השבוע מצייר את זה בדיוק: מגדל של סיסמאות טכנולוגיות - AI Optimization, Data Analytics, Neural Networks, Cloud Storage, Vision 2040 - בנויים זה על גבי זה כמו מגדל קלפים. בתחתית, עמוד דק אחד: מצר הורמוז. הסקיצה הפכה ויראלית ב-20 במרץ 2026 ב-X, לינקדאין ואינסטגרם, כשרבים ייחסו אותה ל-Elon Musk, אם כי הפוסט המקורי לא נמצא בחשבון שלו. הייחוס פחות חשוב מהדיוק. זו תזכורת ויזואלית פשוטה למה שמחזיק את כל המהפכה הזו מלמטה. ובמאמר הזה נרחיב על ארבעת נקודות החנק האלה - האנרגיה, התשתית, השבבים וחומרי הגלם - ועל מה קורה כשהן קורסות בו-זמנית.

 

הציוץ המצויר של מאסק

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

נקודת חנק ראשונה: אנרגיה

ב‑3 במרץ 2026 איראן הכריזה על סגירת מצר הורמוז, בעקבות מתקפה אמריקאית‑ישראלית משותפת. תנועת המכליות צנחה מ‑100 אוניות ביום ל‑21 בלבד מאז תחילת הלחימה. מחיר חבית Brent זינק ל‑126 דולר, וסוכנות האנרגיה הבינלאומית הגדירה את האירוע כ"אתגר האנרגיה הגדול בהיסטוריה".

 

למה זה קשור ל‑AI? כי אנרגיה היא עד 60% מעלות התפעול של מרכזי נתונים. שרת AI בודד צורך 40 עד 100 קילוואט - פי עשרה משרת מסורתי. כל שאילתה ב‑ChatGPT דורשת חשמל פי אלף מחיפוש רגיל ב‑Google. בארצות הברית, מרכזי נתונים כבר צורכים 4.4% מהחשמל הלאומי, וסוכנות האנרגיה הבינלאומית צופה שמחצית מצמיחת הביקוש לחשמל בחמש השנים הקרובות תגיע מהם.

 

הבנק הפדרלי של דאלאס חישב שסגירה של רבעון אחד במצר הורמוז גורעת 2.9 נקודות אחוז מהתמ"ג העולמי. סגירה של שלושה רבעונים דוחפת את מחיר הנפט ל‑132 דולר עד סוף 2026. 64 מיליארד דולר בפרויקטים של מרכזי נתונים בארצות הברית כבר נעצרו או עוכבו.

נקודת חנק שנייה: תשתית

ב‑1 במרץ 2026, שלושה ימים לפני סגירת המצר, רחפנים איראניים פגעו בשלושה מרכזי נתונים של Amazon Web Services - שניים באיחוד האמירויות ואחד בבחריין. זו הייתה הפעם הראשונה בהיסטוריה שבה ספק ענן גלובלי מותקף צבאית.

 

שניים מתוך שלושה אזורי זמינות של AWS באמירויות נפלו. בנקים, אפליקציות תשלום, מערכות הזמנות וארגונים שלמים הושבתו. משמרות המהפכה לקחו אחריות וטענו שמרכזי הנתונים שירתו רשתות צבאיות ומודיעיניות אמריקאיות. דיווח של Fortune הראה שהצבא האמריקאי משתמש בתשתית AWS, כולל מודל Claude של Anthropic, להערכות מודיעין וסימולציות קרב.

 

במקביל, 17 כבלים תת‑ימיים שחוצים את ים סוף ומעבירים 18% מתעבורת הנתונים העולמית נמצאים בסיכון. לראשונה, גם ים סוף וגם מצר הורמוז סגורים בו‑זמנית לתנועה מסחרית. Meta הקפיאה את פרויקט הכבל התת‑ימי שלה במפרץ הפרסי, וחברות גילו שפוליסות ביטוח סטנדרטיות אינן מכסות נזקי מלחמה.

 

"הענן" מתברר כמשהו הרבה פחות מופשט. יש לו כתובת, רדיוס פגיעה ותנאי ביטוח.

נקודת חנק שלישית: שבבים

TSMC הטייוואנית שולטת ב‑90% מייצור השבבים המתקדמים בעולם. שבב בודד חוצה 70 גבולות בינלאומיים לאורך 100 ימים ו‑1,000 שלבי ייצור. Bloomberg Economics מעריכים שעימות סביב טייוואן יעלה לכלכלה העולמית כ‑10 טריליון דולר - יותר מהנזק הכלכלי של הקורונה.

 

וזה כבר לא תרחיש תיאורטי. הביקוש לשבבים מתקדמים גבוה פי שלושה מהקיבולת של TSMC. Google קיצצה את יעד ייצור שבבי ה‑TPU שלה ל‑2026 מארבעה מיליון לשלושה מיליון יחידות. מחירי מכשירים אלקטרוניים כבר עלו ב‑20% עד 30%.

 

פיזור ייצור? TSMC משקיעה 40 מיליארד דולר במפעלים באריזונה, אבל מפעל מתקדם לוקח 3-4 שנים להקמה, עולה מעל 10 מיליארד דולר, וייצור ב‑2 ננומטר צפוי להתחיל רק ב‑2030.

נקודת חנק רביעית: חומרי גלם

סין מזקקת כ‑91% מהיסודות הנדירים בעולם ומייצרת 94% מהמגנטים הקבועים - עלייה דרמטית מ‑50% לפני שני עשורים. דוח של סוכנות האנרגיה הבינלאומית מ‑2025 מצא שב‑19 מתוך 20 מינרלים אסטרטגיים, סין היא המזקקת המובילה, עם נתח שוק ממוצע של 70%.

 

באוקטובר 2025 סין הרחיבה את מגבלות הייצוא ל‑12 יסודות נדירים, והפעילה לראשונה את כלל ה‑FDPR, אותו מנגנון שבו ארצות הברית השתמשה כדי להגביל ייצוא שבבים לסין, רק הפעם בכיוון ההפוך. מעכשיו, כל מוצר שמכיל יסודות נדירים ממקור סיני חייב לדווח על השימוש הסופי, גם אם יוצר מחוץ לסין. המכון הגיאולוגי של ארצות הברית מעריך שאם סין תטיל איסור מלא על יצוא גליום וגרמניום, שני יסודות נדירים החיוניים לייצור שבבים מתקדמים וסיבים אופטיים, הכלכלה האמריקאית תספוג פגיעה של בין 3.4 ל‑9 מיליארד דולר.

הזווית הישראלית

ישראל יושבת בצומת של כמה מנקודות החנק האלה. המיקום בין הים התיכון לים סוף הופך אותה למסדרון טבעי לכבלים תת-ימיים, וראש הממשלה הכריז על תוכנית לכבל סיבים אופטיים באורך 254 ק"מ בין אשקלון לאילת. אבל ערב הסעודית כבר חתמה על חוזה של 800 מיליון דולר לכבל מתחרה דרך סוריה, חלופה ישירה שמחלישה את היתרון הגיאוגרפי של ישראל.

 

תשתיות הענן המקומיות מופעלות על ידי AWS, Microsoft Azure ו‑Google Cloud, וכולן נשענות על מרכזי הנתונים התת-קרקעיים של MedOne עם 25 אלף מ"ר בטירת כרמל, פתח תקווה ויהוד. MedOne שמרה על 99.999% זמינות גם במהלך אירועי 7 באוקטובר 2024.

 

למרות זאת, רוב העבודה הישראלית המתקדמת ב‑AI עדיין רצה על תשתיות ענן בינלאומיות. לישראל כמעט אין יכולת עצמאית לאמן מודלים גדולים, לא מבחינת שבבים, לא מבחינת חשמל, ולא מבחינת מרכזי נתונים בקנה מידה מתאים.

הנרטיב הנגדי: גרעין

חברות הטכנולוגיה לא עיוורות לתלות באנרגיה. בשנה האחרונה נחתמו עסקאות גרעיניות בהיקף של מעל 10 גיגה-וואט: Microsoft מפעילה מחדש את Three Mile Island, חברת Amazon חתמה על 960 מגה-וואט, Google חתמה על עסקה ראשונה מסוגה לכורים גרעיניים קטנים (SMR), ו‑Meta ו‑Oracle בוחנות תוכניות דומות.

 

אבל גם אחרי כל ההשקעות, הגרעין פותר רק את צוואר הבקבוק של האנרגיה. הוא לא מייצר שבבים, לא מניח כבלים תת‑ימיים, ולא מזקק מינרלים. משבר הורמוז קורה עכשיו - והפתרונות שמופיעים במצגות יבשילו רק בעוד חמש עד עשר שנים.

 

Vision 2040 יכול להיות מרשים ככל שירצו. בסוף, המפה היא זו שמחליטה אילו חזונות שורדים ואילו קורסים תחת משקל המציאות הפיזית.

הפוסט מגדל הקלפים של ה‑AI: ארבע נקודות החנק שמטלטלות את הכלכלה העולמית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-house-of-cards/feed/ 0
מה 80,508 אנשים חושבים על AI ולמה הם צודקים https://letsai.co.il/anthropic-global-study/ https://letsai.co.il/anthropic-global-study/#respond Sat, 21 Mar 2026 08:13:54 +0000 https://letsai.co.il/?p=71423 אנטרופיק (Anthropic) פרסמה את מה שנחשב למחקר האיכותני הגדול ביותר שנעשה על חוויית משתמשי AI: יותר מ‑80 אלף ראיונות עומק ב‑70 שפות. התמונה שעולה מהם מורכבת בהרבה מהשיח הציבורי. אותם אנשים שמדווחים על ערך ממשי מהטכנולוגיה - למידה, הזדמנויות, חיסכון בזמן - מספרים גם על חששות עמוקים. לא “בעד” או “נגד”, אלא שילוב מתוח של […]

הפוסט מה 80,508 אנשים חושבים על AI ולמה הם צודקים הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק (Anthropic) פרסמה את מה שנחשב למחקר האיכותני הגדול ביותר שנעשה על חוויית משתמשי AI: יותר מ‑80 אלף ראיונות עומק ב‑70 שפות. התמונה שעולה מהם מורכבת בהרבה מהשיח הציבורי. אותם אנשים שמדווחים על ערך ממשי מהטכנולוגיה - למידה, הזדמנויות, חיסכון בזמן - מספרים גם על חששות עמוקים. לא “בעד” או “נגד”, אלא שילוב מתוח של שניהם, שחי אצל כל משתמש באופן אישי.

 

המחקר הגדול של אנטרופיק

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך חוקרים 80 אלף בני אדם בבת אחת

אנטרופיק עשתה משהו שלא נעשה בקנה מידה כזה קודם. במהלך שבוע אחד בדצמבר 2025, גרסה מותאמת של Claude ראיינה 80,508 משתמשים מ-159 מדינות, ב-70 שפות. לא שאלון סגור עם תשובות מוכנות מראש - שיחות אמיתיות של עשר עד חמש עשרה דקות, עם שאלות המשך שהתאימו את עצמן לתשובות. המחקר הונהג על ידי Saffron Huang, חוקרת בצוות ההשפעות החברתיות של אנטרופיק.

 

חשוב לציין מגבלה מובנית: כל המשתתפים הם משתמשי Claude פעילים שכבר מוצאים ערך בכלי. זו לא דעת הקהל הרחב על AI. זו דעתם של אנשים שחיים עם הטכנולוגיה הזו ביום-יום. ודווקא בגלל זה הממצאים מעניינים.

הנתון שמתחבא מתחת לכותרות

81% מהמשתתפים אומרים ש-AI כבר סיפק להם ערך אמיתי. נתון מרשים. אבל הנתון שלידו חשוב יותר: כל משתתף מחזיק בממוצע 2.3 חששות נפרדים מאותה טכנולוגיה שהוא אומר שעובדת. לא אנשים שונים. אותם האנשים. נלהבים ומפוחדים בו-זמנית. אנטרופיק קוראת לזה "אור וצל" (Light and Shade) - חמישה מתחים שבהם כל יתרון של AI מתקיים לצד סיכון אמיתי, אצל אותו אדם בדיוק.

חמישה מתחים שחיים באותו בן אדם

למידה מול ירידה קוגניטיבית

33% ציינו למידה כיתרון מרכזי של AI. כ-17% חששו מאיבוד היכולת לחשוב באופן עצמאי. מורים דיווחו על ירידה קוגניטיבית בשיעור של פי 2.5 עד 3 מהממוצע. מעניין שבעלי מקצוע שהשתמשו ב-AI כדי ללמוד מיומנויות חדשות כמעט לא חוו את התופעה. ההבדל: AI פוגע בחשיבה כשהוא מחליף מאמץ, לא כשהוא מזין סקרנות.

 

איפה AI עומד בהבטחות שלו

anthropic | איפה AI עומד בהבטחות שלו

קבלת החלטות מול חוסר אמינות

22% העריכו את התמיכה של AI בקבלת החלטות. 37% חששו מהזיות ושגיאות. כמעט מחצית מעורכי הדין שנסקרו דיווחו על חוויות אישיות עם תוצאות לא אמינות של AI.

תמיכה רגשית מול תלות

רק 22% מהמשתתפים העלו את הנושא הזה בכלל, אבל החפיפה הייתה בולטת. מי שמצא ערך רגשי ב-AI היה בסיכוי גבוה פי 3 לחשוש גם מתלות. חייל אוקראיני תיאר איך חברים וירטואליים של AI "משכו אותו בחזרה לחיים" באזור מלחמה. משתמש דרום-קוריאני דיבר עם Claude במקום עם חבר - ואיבד את החברות.

 

התקוות הגדולות מה‑AI

anthropic | התקוות הגדולות מה‑AI

חיסכון בזמן מול פרודוקטיביות מדומה

50% דיווחו ש-AI חוסך להם זמן. 19% אמרו שהנטל של אימות התוצאות אוכל את הרווח. מהנדס תוכנה במקסיקו תיאר איך האוטומציה מאפשרת לו לצאת מהעבודה בזמן ולאסוף את הילדים מבית הספר. משתמש ברזילאי היה צריך לצלם תמונות כדי לשכנע את המודל שהוא טעה.

העצמה כלכלית מול עקירה

28% חוו הזדמנויות כלכליות חדשות. 18% פחדו מפיטורים. יזם מקמרון הגיע לרמה מקצועית בסייבר, עיצוב UX ושיווק בו-זמנית, הודות ל-AI. מומחה תמיכה טכנית מארצות הברית פוטר כי החברה רצתה להחליף אותו במודל.

עולם מתפתח מול עולם מפותח

התמונה הגלובלית חושפת פער מפתיע. באפריקה שמדרום לסהרה רק 24.2% הביעו סנטימנט שלילי כלפי AI. במערב אירופה - 35.6%. ככל שהמדינה עשירה יותר, כך האוכלוסייה חרדה יותר. הסיבה לא מופשטת. במדינות מתפתחות, AI מתפקד כ"מנגנון לעקיפת מחסום הון" - כך תיארו את זה משתמשים מאפריקה, דרום אסיה ואמריקה הלטינית. AI נותן גישה לידע, כלים ושירותים שבלעדיו לא היו זמינים.

 

במרכז ודרום אסיה, למידה הודגשה בשיעור כפול מהממוצע העולמי, כי AI מציע גישה למערכות חינוך שפשוט לא קיימות מקומית.

 

בצפון אמריקה ובאירופה, השימוש הדומיננטי פשוט יותר: לשרוד את עומס העבודה. ונתון שרלוונטי לקוראים ישראלים: לפי מדד הכלכלה של אנטרופיק, ישראל מובילה עולמית בשימוש ב-Claude ביחס לאוכלוסייה - פי 4.9 עד 7 מהמצופה. אנחנו לא רק צופים בשינוי הזה. אנחנו חיים אותו.

 

מפת הסנטימנט הגלובלי ל‑AI

anthropic | מפת הסנטימנט הגלובלי ל‑AI

מה באמת מפחיד את רוב האנשים

המחקר מערער על תפיסה רווחת. רק 6.7% מהמשתתפים חוששים מסיכון קיומי - אותם תרחישים אפוקליפטיים שתופסים כותרות. הפחדים שבאמת מעסיקים את רוב האנשים הם הרבה יותר קרקעיים: חוסר אמינות (26.7%), עקירה מעבודה (22.3%), ואיבוד היכולת לחשוב באופן עצמאי (21.9%). אלה לא חששות של אנשים שמפחדים מ-AI כי הם לא מכירים אותו. אלה חששות של אנשים שמשתמשים בו כל יום ויודעים בדיוק איפה הוא נכשל.

 

החששות המרכזיים מה‑AI

anthropic | החששות המרכזיים מה‑AI

 

ואולי זו הנקודה החשובה ביותר מכל המחקר הזה. הגישה של "או שאתה בעד AI או נגד" פספסה את מה שבאמת קורה. רוב האנשים הם בעד וגם נגד, על אותם הדברים, באותו הזמן. מי שמתעלם מאחד הצדדים של המשוואה הזו - בין אם מי שמתעלם מהערך האמיתי ובין אם מי שמתעלם מהסיכונים - לא באמת מבין את מה שה-AI עושה לנו.

 

למי שרוצה לראות את התמונה המלאה, מומלץ להיכנס כאן.

הפוסט מה 80,508 אנשים חושבים על AI ולמה הם צודקים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-global-study/feed/ 0
אנבידיה מציגה את שכבת ההפעלה של עידן הסוכנים בכנס GTC 2026 https://letsai.co.il/nvidia-gtc-2026/ https://letsai.co.il/nvidia-gtc-2026/#respond Fri, 20 Mar 2026 06:49:59 +0000 https://letsai.co.il/?p=71394 ב‑GTC 2026 אנבידיה עשתה צעד לא שגרתי עבור יצרנית שבבים. במקום לחשוף דור נוסף של GPU או להעמיק במפרטים טכניים, ג’נסן הואנג (Jensen Huang) עלה לבמה והציג חזון רחב בהרבה - פלטפורמה שלמה שמחברת בין כל שכבות מערך הבינה המלאכותית. במשך שעתיים הוא כמעט שלא דיבר על חומרה, אלא על הדרך שבה סוכנים אוטונומיים יהפכו […]

הפוסט אנבידיה מציגה את שכבת ההפעלה של עידן הסוכנים בכנס GTC 2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב‑GTC 2026 אנבידיה עשתה צעד לא שגרתי עבור יצרנית שבבים. במקום לחשוף דור נוסף של GPU או להעמיק במפרטים טכניים, ג’נסן הואנג (Jensen Huang) עלה לבמה והציג חזון רחב בהרבה - פלטפורמה שלמה שמחברת בין כל שכבות מערך הבינה המלאכותית. במשך שעתיים הוא כמעט שלא דיבר על חומרה, אלא על הדרך שבה סוכנים אוטונומיים יהפכו לכלי מרכזי בארגונים - ועל הצורך בתשתית מקצה לקצה שתתמוך בהם. הואנג ניסח זאת בפשטות: כמו ש‑Windows ו‑Mac שימשו מערכת הפעלה למחשב האישי, כך OpenClaw ו‑NemoClaw נועדו להפוך למערכת ההפעלה של ה‑AI. זה שינוי כיוון שממקם את אנבידיה לא רק כספקית שבבים, אלא כספקית הארכיטקטורה שמאחורי הדור הבא של הבינה המלאכותית.

 

הנה נאום הפתיחה המלא (והארוך!) של ג’נסן הואנג, שם הוא פורס את החזון של אנבידיה במלואו, כולל ההדגמות, ההכרזות והמסגור האסטרטגי שמאחורי המעבר לפלטפורמת AI מלאה:

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

סוכנים אוטונומיים דורשים תשתית חדשה

הדור הבא של AI לא נשען על צ’אטבוטים שמגיבים לפניות, אלא על סוכנים אוטונומיים שפועלים ברקע, מבצעים משימות מרובות שלבים, מקבלים החלטות ומייצרים נפחי עבודה גדולים בהרבה. מערכות כאלה דורשות זמני תגובה כמעט מיידיים, רמת אבטחה ופרטיות גבוהה, מודלים מותאמים למשימות פיזיות ודיגיטליות, תשתית יציבה שמסוגלת לפעול ללא הפסקה ויכולת ניהול ובקרה הדוקה.

 

האתגר הוא שאף אחד מהמרכיבים האלה לא מגיע מוכן. ארגונים שרוצים להפעיל סוכני AI נאלצים להרכיב מערכות מורכבות, לשלב מודלים שונים, לנהל הרשאות ולבנות סביבת הפעלה שלמה מאפס. זה תהליך יקר, איטי ומלא סיכונים. אנבידיה זיהתה את הפער הזה ובכנס GTC 2026 הציגה את הדרך שלה לסגור אותו.

חמש השכבות של אנבידיה

ההכרזות ב‑GTC 2026 התחברו לכדי תמונה אחת ברורה. אנבידיה הציגה מבנה AI בן חמש שכבות (stack), שמטרתו לפתור את האתגר המרכזי של עידן הסוכנים האוטונומיים - איך מפעילים מערכות מורכבות, רציפות ותובעניות בצורה יציבה, מהירה ובטוחה. כל שכבה מטפלת בחלק אחר של הבעיה, וכשמחברים אותן יחד מתקבלת פלטפורמה שלמה:

1. שכבת החישוב

בתחתית נמצאת שכבת החישוב, המבוססת על פלטפורמת Vera Rubin (אסטרונומית אמריקאית פורצת דרך ופלטפורמת חומרה מתקדמת של NVIDIA שנקראה על שמה). היא כוללת שבעה שבבים ייעודיים, חמישה ארונות שרתים (Rack systems), וסופר מחשב אחד שנבנה במיוחד לעומסי הפעלה. לצידה שולבו מאיצי Groq 3 LPX, שנרכשו במסגרת עסקת רישוי גדולה. השילוב הזה מאפשר לפצל את עומס העבודה בין שני סוגי שבבים: שבבי אנבידיה מכינים את השאילתה, ומאיצי Groq מספקים את התשובה במהירות גבוהה במיוחד.

2. שכבת הרשת והאצת הנתונים

מעל שכבת החישוב נמצאת שכבת הרשת, הכוללת את NVLink 6, Spectrum X ו‑BlueField 4. אלו מרכיבים תשתית תעבורה שמותאמת לעומסי סוכנים, שהם דינמיים בהרבה מצ’אטבוטים רגילים ודורשים זרימת נתונים רציפה ומהירה בין רכיבי המערכת.

3. שכבת הריצה של הסוכנים

במרכז נמצאת שכבת הריצה, שבה שתי הכרזות מרכזיות. OpenClaw היא שכבת ריצה פתוחה לסוכנים, שהפכה לאחד הפרויקטים הצומחים ביותר בגיטהאב. לצידה נמצאת NemoClaw, שכבת האבטחה, המדיניות והפרטיות שמאפשרת להפעיל סוכנים בתוך ארגונים בצורה מבוקרת. זו השכבה שהופכת סוכנים מכלי ניסיוני לכלי ארגוני אמיתי, כזה שאפשר לסמוך עליו בסביבות רגישות.

4. שכבת המודלים הפתוחים

מעל שכבת הריצה נמצאת שכבת המודלים, ה‑Nemotron Coalition. זהו אוסף של שישה קווי מודלים פתוחים, שכל אחד מהם מיועד לתחום אחר. Nemotron 3 מתמקד בעיבוד שפה, קול ווידאו בזמן אמת. Isaac GR00T מיועד לרובוטיקה ודמויי אדם. Cosmos עוסק בסימולציות עולם וראייה. Alpamayo מתמקד בנהיגה אוטונומית. BioNeMo מיועד לביולוגיה וגילוי תרופות. Earth 2 מתמקד באקלים ומזג אוויר. יחד הם מספקים את ה"מוח" הפתוח של הסוכנים, בלי להסתמך על מודלים סגורים.

5. שכבת תכנון מפעלי ה‑AI

בראש הערימה נמצאת שכבת התכנון, DSX. זה Blueprint מלא לבניית מפעלי AI (AI Factory), כולל חשמל, קירור, רשת ותוכנה, המאומת באמצעות Omniverse Digital Twin. עבור ארגונים, זו הפעם הראשונה שיש תכנון מלא ומאומת לבניית תשתית AI מאפס, כזה שמפחית סיכוני אינטגרציה ומקצר את הדרך לפרודקשן.

 

5 שכבות הבינה המלאכותית

הארכיטקטורה החדשה של אנבידיה: מבט על חמש השכבות

NemoClaw: השכבה שהופכת סוכנים לכלי ארגוני

מבין כל ההכרזות ב‑GTC 2026, ההכרזה על NemoClaw הייתה המשמעותית ביותר. לא מדובר במודל, שבב או שירות, אלא בשכבת ניהול שמאפשרת להפעיל סוכני AI בצורה בטוחה ומבוקרת. NemoClaw מספקת כלים להגדרת מדיניות גישה, ניתוב פרטי של נתונים, מניעת זליגת מידע, יצירת סביבת Sandbox ארגונית ובקרה על תקשורת הרשת. כל אלה נועדו לאפשר לסוכנים לפעול בתוך ארגונים בלי לסכן מידע רגיש או מערכות פנימיות.

 

ההשוואה ל‑Red Hat עלתה לא פעם. כמו ש‑Red Hat הפכה את לינוקס לפלטפורמה שניתן להפעיל בבנקים ובבתי חולים, כך NemoClaw מנסה להפוך סוכני AI לכלי שניתן להטמיע בסביבות ארגוניות מורכבות. יחד עם זאת, יש נקודה חשובה - NemoClaw עדיין בגרסת Alpha, ואנבידיה עצמה מודה שהמערכת אינה בשלה לחלוטין. ארגונים שיאמצו אותה מוקדם מדי לוקחים על עצמם סיכון אינטגרציה, במיוחד בסביבות שבהן יציבות ובקרה הן דרישות בסיסיות.

המעבר מאימון להפעלה

המסר של אנבידיה השנה היה ברור. מוקד הפעילות וההשקעות כבר אינו נמצא באימון מודלים, אלא בהפעלה שלהם. סוכנים אוטונומיים מייצרים נפחי עבודה גדולים בהרבה מצ’אטבוטים ודורשים זמני תגובה קצרים במיוחד, מה שיוצר ביקוש עצום לתשתיות הפעלה יציבות ומהירות. המשמעות היא שהשלב שבו המודל פועל בשטח, ולא זה שבו הוא מאומן, הופך למנוע הצמיחה המרכזי של תעשיית ה‑AI.

 

הכנסות משבבי AI ב-2027: השוואת התחזיות של אנבידיה והשוק העולמי

הכנסות משבבי AI ב-2027: השוואת התחזיות של אנבידיה והשוק העולמי

 

הואנג חיזק את המסר עם תחזית שהדהדה בוול סטריט. לדבריו, הכנסות משבבי AI עשויות להגיע לטריליון דולר(!) עד 2027. אנליסטים הגדירו את התחזית הזו כרצפה ולא כתקרה, והתגובות בשוק היו בהתאם, מה שממחיש עד כמה המעבר להפעלה בקנה מידה גדול נתפס כהזדמנות כלכלית משמעותית.

המשמעות לשוק, למתחרים ולארגונים

המהלך של אנבידיה מציב אותה לא רק כחברת חומרה, אלא כשחקנית שמבקשת לשלוט בכל שכבות הפלטפורמה. המשמעות היא התקרבות לעימות ישיר עם ספקיות הענן הגדולות, שגם הן מפתחות שכבות תוכנה וניהול משלהן. שילוב מאיצי Groq מעלה את רף מהירות התגובה ומייצר יתרון תחרותי בתחום שבו מתחרות אחרות עדיין מתקשות לעמוד בקצב.

 

עבור ארגונים, יש יתרון ברור בבניית מערכות על stack אחיד ומאומת. היא מפחיתה סיכוני אינטגרציה ומקצרת את הדרך להטמעה. עם זאת, יש גם סיכון משמעותי. אימוץ עמוק של stack אחד יוצר תלות גבוהה בפלטפורמה, בדומה למה שקרה עם Windows Server בשנות התשעים. בנוסף, אימוץ מהיר מדי של NemoClaw עלול לייצר חיכוך, משום שכפי שכבר הוזכר קודם, המערכת עדיין אינה יציבה לחלוטין ונמצאת בשלבי Alpha.

לאן אנבידיה מכוונת

GTC 2026 סימן את המעבר של אנבידיה מחברת שבבים לחברת פלטפורמה. במקום להציג עוד דור של חומרה, היא הציגה stack שלם שמיועד לעידן הסוכנים האוטונומיים - מהסיליקון ועד המודלים, מהרשת ועד תכנון מפעלי AI.

 

המהלך הזה עשוי לעצב מחדש את התחרות בשוק, להשפיע על אסטרטגיות ארגוניות ולשנות את הדרך שבה תשתיות AI נבנות ומופעלות. אם החזון יתממש, סוכנים אוטונומיים יהפכו מחידוש טכנולוגי לכלי ארגוני מרכזי.

הפוסט אנבידיה מציגה את שכבת ההפעלה של עידן הסוכנים בכנס GTC 2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/nvidia-gtc-2026/feed/ 0
האם GPT‑5.4 mini ו-nano מסמנים את הדור הבא של מערכות AI מהירות ויעילות https://letsai.co.il/gpt-5-4-mini-nano/ https://letsai.co.il/gpt-5-4-mini-nano/#respond Thu, 19 Mar 2026 06:41:02 +0000 https://letsai.co.il/?p=71362 בעולם הבינה המלאכותית התרגלנו לחשוב שהמודל הגדול ביותר הוא גם החכם ביותר, אבל בשנים האחרונות מתברר שהמציאות מורכבת יותר. מפתחים לא תמיד זקוקים למודל העמוק או היקר ביותר, אלא לכלי שמגיב במהירות, עולה מעט ומסוגל לבצע משימות רבות במקביל. כאן נכנסים לתמונה GPT‑5.4 mini ו‑GPT‑5.4 nano, שני מודלים חדשים של OpenAI שמכוונים בדיוק לצורך הזה. […]

הפוסט האם GPT‑5.4 mini ו-nano מסמנים את הדור הבא של מערכות AI מהירות ויעילות הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם הבינה המלאכותית התרגלנו לחשוב שהמודל הגדול ביותר הוא גם החכם ביותר, אבל בשנים האחרונות מתברר שהמציאות מורכבת יותר. מפתחים לא תמיד זקוקים למודל העמוק או היקר ביותר, אלא לכלי שמגיב במהירות, עולה מעט ומסוגל לבצע משימות רבות במקביל. כאן נכנסים לתמונה GPT‑5.4 mini ו‑GPT‑5.4 nano, שני מודלים חדשים של OpenAI שמכוונים בדיוק לצורך הזה. הם לא מחליפים את GPT‑5.4 הגדול, אלא משלימים אותו. הם מציעים חלק נרחב מהיכולות שלו, אבל במהירות גבוהה יותר ובעלות נמוכה משמעותית, ומאפשרים לבנות מערכות יעילות וגמישות יותר.

 

GPT‑5.4 mini ו‑GPT‑5.4 nano

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה בכלל צריך מודלים קטנים 

הצורך במודלים קטנים ומהירים נובע משתי בעיות מרכזיות שמפתחים פוגשים שוב ושוב. הראשונה היא עלות. מודלים גדולים דורשים משאבים רבים, ובמערכות שמבצעות אלפי קריאות ביום, העלות הופכת במהירות לגורם מגביל. השנייה היא זמן תגובה.

 

עוזרי קוד, מערכות שפועלות בזמן אמת וסוכני משנה שמבצעים משימות במקביל אינם יכולים להרשות לעצמם השהיות ארוכות (Latency). כל עיכוב משפיע על חוויית המשתמש ועל היכולת של המערכת לפעול בצורה חלקה. במצבים כאלה, מודל קטן שמגיב מהר ומספק דיוק גבוה מספיק אינו רק פתרון טכני, אלא תנאי בסיסי לתפקוד יעיל.

מה מציעים GPT‑5.4 mini ו‑nano 

GPT‑5.4 mini

GPT‑5.4 mini הוא הדגם הבולט מבין השניים. הוא מהיר יותר מפי שניים מהגרסה הקודמת שלו, GPT‑5 mini, ומציג שיפור משמעותי ביכולות כתיבת קוד, הבנה מולטימודלית ושימוש בכלים. הנתונים מהטבלה מצורפת מחזקים את זה. במבחן SWE‑Bench Pro, אחד המבחנים המרכזיים בתחום תיקון קוד, הוא מגיע לדיוק של 54.4 אחוז, רק מעט מתחת ל‑57.7 אחוז של GPT‑5.4 הגדול.

 

גם במבחנים נוספים כמו GPQA Diamond (הערכת ידע מדעי מתקדם) ו‑OSWorld‑Verified (ביצוע פעולות מחשב על ממשקי משתמש אמיתיים) הוא מציג תוצאות גבוהות, שממחישות את יכולתו להתמודד עם משימות מקצועיות מורכבות למרות גודלו הקטן.

GPT‑5.4 nano

לצדו, GPT‑5.4 nano הוא הדגם הקטן והזול ביותר במשפחה. הוא מיועד למשימות שבהן מהירות ועלות הן השיקול המרכזי, כמו סיווג, חילוץ נתונים, דירוג או תפקידים של סוכני משנה שמבצעים פעולות פשוטות כחלק ממערכת גדולה יותר. למרות גודלו, הוא מציג שיפור משמעותי לעומת הדור הקודם. במבחן SWE‑Bench Pro הוא מגיע לדיוק של 52.4 אחוז, נתון שממקם אותו מעל GPT‑5 mini הישן ומדגיש את ההתקדמות שחלה ביכולות של מודלים קטנים ומהירים.

 

ביצועי המודלים במבחני קוד וכלים מקצועיים

ביצועי המודלים במבחני קוד וכלים מקצועיים | OpenAI

איך זה עובד בפועל 

המודלים החדשים משתלבים היטב בארכיטקטורות מודרניות שמבוססות על חלוקת עבודה בין מודלים שונים. במקום מודל יחיד שמבצע את כל המשימות, מערכת חכמה יכולה להשתמש במודל גדול לתכנון ולקבלת החלטות, ובמודלים קטנים ומהירים לביצוע פעולות ממוקדות.

 

כך, לדוגמה, במערכת כמו Codex, GPT‑5.4 משמש כמתכנן העל, בעוד ש- GPT‑5.4 mini פועל כסוכן משנה שמבצע חיפוש בקוד, סקירת קבצים גדולים או עיבוד מסמכים תומכים. ככל שהמודלים הקטנים הופכים מהירים ומדויקים יותר, כך המבנה הזה נעשה יעיל יותר ומאפשר סקיילינג אמיתי.

 

שני המודלים תומכים בקלטי טקסט ותמונה, יודעים לפרש צילומי מסך מורכבים ומסוגלים לבצע פעולות מחשב במהירות. GPT‑5.4 mini כולל חלון הקשר של 400,000 טוקנים, מה שמאפשר לו להתמודד עם קוד נרחב או מסמכים גדולים בלי לאבד את ההקשר.

דיוק, מהירות ועלות 

הגרפים שהציגה OpenAI ממחישים היטב את היתרון של המודלים הקטנים. בגרף Accuracy vs Latency אפשר לראות ש‑GPT‑5.4 mini מציע שילוב יעיל במיוחד של דיוק גבוה וזמן תגובה נמוך. הוא נמצא קרוב מאוד ל‑GPT‑5.4 מבחינת דיוק, אבל רחוק ממנו מבחינת זמן תגובה, מה שהופך אותו מתאים במיוחד למערכות שפועלות בזמן אמת.

 

דיוק מול זמן תגובה ועלות במודלי GPT‑5.4

OpenAI | דיוק מול זמן תגובה ועלות במודלי GPT‑5.4

 

גם בגרף Accuracy vs Cost מתקבלת תמונה דומה. GPT‑5.4 nano מציג דיוק טוב ביחס לעלות הנמוכה ביותר, בעוד ש- GPT‑5.4 mini מציע אחד היחסים החזקים ביותר בין ביצועים לעלות. הנתונים האלה מחזקים את ההבנה שהמודלים הקטנים הם לא פשרה, אלא בחירה אסטרטגית שמאפשרת לבנות מערכות יעילות וחסכוניות יותר.

יישומים בעולם האמיתי 

היכולות האלה הופכות את GPT‑5.4 mini ו‑nano לכלים מרכזיים במגוון רחב של תרחישים. בעוזרי קוד הם מאפשרים ביצוע מהיר של תיקונים ממוקדים, ניווט בקוד, יצירת ממשקי front‑end ולולאות debugging. במערכות מבוססות סוכנים הם תומכים בחלוקת עבודה יעילה בין מודלים שונים, כך שהמודל הגדול מטפל בתכנון והמודלים הקטנים מבצעים משימות במקביל. הגישה הזו משפרת את מהירות העבודה ומאפשרת למערכות להתמודד עם עומסים גבוהים בצורה יציבה.

שימוש במחשב 

גם בתחום השימוש במחשב GPT‑5.4 mini מצטיין. הוא מפרש צילומי מסך במהירות ומבצע פעולות מורכבות על ממשקי משתמש צפופים. במבחן OSWorld‑Verified הוא מגיע לדיוק של 72.1 אחוז, נתון שמתקרב מאוד ל‑75 אחוז של GPT‑5.4 הגדול. התוצאה הזו ממחישה את היכולת שלו להתמודד עם משימות תפעול מחשב מורכבות, למרות היותו מודל קטן ומהיר.

זמינות ועלויות 

OpenAI מציעה את GPT‑5.4 mini ב‑API, ב‑Codex וב‑ChatGPT. הוא תומך בשימוש בכלים, קריאה לפונקציות, חיפוש ברשת, חיפוש בקבצים, שימוש במחשב ויכולות מולטימודליות. עלותו עומדת על 0.75 דולר למיליון טוקנים בקלט ו‑4.50 דולר למיליון טוקנים בפלט.

 

ב‑Codex השימוש בו צורך רק כשלושים אחוז מקצבת GPT‑5.4, מה שמאפשר למפתחים לבצע משימות פשוטות בעלות נמוכה בהרבה.

 

GPT‑5.4 nano זמין ב‑API בלבד, במחיר של 0.20 דולר למיליון טוקנים בקלט ו‑1.25 דולר למיליון טוקנים בפלט.

הקרב האמיתי עובר למודלים הקטנים

השקת GPT‑5.4 mini ו‑nano מסמנת שינוי כיוון מעניין בתעשייה. במקום להתמקד רק במודלים הגדולים ביותר, OpenAI מדגישה את הערך של מודלים קטנים, מהירים וזולים שמבצעים את רוב העבודה המעשית. הנתונים מהגרפים ומהטבלה ממחישים זאת היטב. המודלים הקטנים מתקרבים לביצועי הדגם הגדול, אבל מציעים זמן תגובה קצר יותר ועלות נמוכה בהרבה.

 

בעולם שבו מערכות AI הופכות מורכבות יותר ומבוססות על עשרות סוכנים שפועלים במקביל, היכולת להריץ מודלים יעילים בקנה מידה גדול הופכת חיונית. העתיד אינו שייך רק למודלים הגדולים, אלא גם למודלים הקטנים שמאפשרים למערכות לעבוד מהר, בזול ובאמינות. אלו הם המנועים השקטים שמאחורי הדור הבא של מערכות AI.

 

לפרטים נוספים על ההשקה, מוזמנות/ים להיכנס לאינדקס של OpenAI.

הפוסט האם GPT‑5.4 mini ו-nano מסמנים את הדור הבא של מערכות AI מהירות ויעילות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gpt-5-4-mini-nano/feed/ 0
ג’מיני נכנס לעבודה ומשנה את Google Workspace https://letsai.co.il/gemini-workspace-integration/ https://letsai.co.il/gemini-workspace-integration/#respond Wed, 18 Mar 2026 06:36:10 +0000 https://letsai.co.il/?p=71263 עד לא מזמן, מי שרצה להיעזר בבינה מלאכותית בעבודה היומיומית נאלץ לנווט בין חלונות שונים: לשאול שאלה בצ׳אט, להעתיק את התשובה, להדביק אותה למסמך, לחפש קובץ נוסף ולחזור שוב אל המודל. גוגל מבקשת לשבור את המעגל הזה. עם שילוב ג'מיני (Gemini) ישירות בתוך Google Workspace, הבינה המלאכותית כבר לא פועלת כעוזר חיצוני אלא נטמעת בלב […]

הפוסט ג’מיני נכנס לעבודה ומשנה את Google Workspace הופיע ראשון בLet's AI בינה מלאכותית

]]>
עד לא מזמן, מי שרצה להיעזר בבינה מלאכותית בעבודה היומיומית נאלץ לנווט בין חלונות שונים: לשאול שאלה בצ׳אט, להעתיק את התשובה, להדביק אותה למסמך, לחפש קובץ נוסף ולחזור שוב אל המודל. גוגל מבקשת לשבור את המעגל הזה. עם שילוב ג'מיני (Gemini) ישירות בתוך Google Workspace, הבינה המלאכותית כבר לא פועלת כעוזר חיצוני אלא נטמעת בלב הכלים שבהם אנחנו משתמשים מדי יום. היא קוראת את הקבצים, מבינה את ההקשר ומסוגלת לייצר תוצרים חדשים מתוך החומר הקיים, וכל זה בלי לעזוב את המסמך, הגיליון או המצגת.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ממרחב עבודה לכלי חשיבה

העדכונים החדשים הופכים את Workspace מסביבה סטטית למרחב עבודה חי, שבו ג'מיני פועל כמתווך בין המשתמש לבין הידע האישי שלו. במקום כלי שמגיב רק לפקודות, הוא הופך לשכבת חשיבה שמבינה הקשר, מחברת בין מקורות מידע שונים ומסייעת לייצר תוצרים מדויקים ורלוונטיים יותר.

התכונות החדשות ב‑Docs

ב‑Docs מופיע כעת סרגל פקודות חדש בתחתית המסמך. דרכו אפשר לבקש טיוטה, תבנית או שכתוב, תוך בחירה מדויקת של מקורות המידע כמו Drive, Gmail, Chat או חיפוש ברשת. היכולת הזו מאפשרת לג'מיני לא רק לכתוב טקסטים חדשים, אלא גם להבין את ההיסטוריה התיעודית של המשתמש ולבנות ממנה תוכן המשכי. לצד זה נוספו כלים שמאחדים סגנון כתיבה בין מחברים שונים ומאפשרים להתאים מסמך חדש לפורמט של מסמך קיים, כך שהכול ייראה כאילו נכתב ביד אחת.

 

סרגל הפקודות החדש ב‑Google Docs

סרגל הפקודות החדש ב‑Google Docs

השינויים ב‑Sheets

גם ב‑Sheets מתרחש שינוי משמעותי. במקום לבנות טבלאות ידנית, המשתמש יכול לבקש מהמודל ליצור גיליון שלם מתוך תיאור קצר. ג'מיני אוסף נתונים מתוך Drive, Gmail ו‑Chat ומייצר גיליון מעוצב ומוכן לעבודה. עבור משימות מורכבות יותר, כלי בשם Fill with Gemini מסוגל למלא עמודות שלמות, לסכם נתונים, לקטלג מידע או למשוך פרטים עדכניים מהרשת. כך ניתן ליצור למשל טבלת מעקב על מועדי קבלה לאוניברסיטאות ולתת למודל להשלים את כל הנתונים הרלוונטיים במקום לחפש אותם ידנית.

שינויים ב‑Slides

גם Slides מקבל שכבת יכולות חדשה. ג'מיני יודע ליצור שקופית חדשה שמתאימה לעיצוב הקיים, לעדכן שקופיות קיימות על בסיס מידע שנמצא בקבצים ובמיילים ולשמור על שפה עיצובית אחידה. גוגל מציינת שבעתיד ניתן יהיה לבנות מצגת שלמה מפרומפט אחד, כשהמודל ימשוך את כל המידע הדרוש מהקבצים האישיים ומהרשת.

 

שקופית ש‑Gemini יצר באופן אוטומטי על בסיס מאמרים בתיקיית Drive

שקופית ש‑Gemini יצר באופן אוטומטי על בסיס מאמרים ב-Drive

Drive משתנה ממחסן קבצים למנוע ידע

אחד השינויים הבולטים ביותר מתרחש דווקא ב‑Drive. במקום חיפוש מסמכים לפי שמות קבצים, Drive מציג כעת AI Overview, תקציר חכם שמופיע בראש תוצאות החיפוש ומסכם את המידע הרלוונטי מתוך המסמכים עצמם. התקציר כולל ציון מקורות, כך שהמשתמש יודע מאיפה נשלף כל פרט.

 

יכולת ה‑AI Overview החדשה ב‑Google Drive

יכולת ה‑AI Overview החדשה ב‑Google Drive

 

לצד זה נוסף כלי בשם Ask Gemini, שמאפשר לשאול שאלות מורכבות על קבוצות קבצים, מיילים ואפילו אירועים מהיומן, ולקבל תשובה שמבוססת על המידע האישי של המשתמש. כך ניתן למשל לבחור את כל המסמכים הקשורים למיסים ולשאול מה כדאי לשאול את רואה החשבון השנה, וג'מיני ינתח את החומר ויציע כיווני פעולה.

 

 Ask Gemini בתוך Google Drive

Ask Gemini בתוך Google Drive

שליטה, הקשר ודיוק

הכוח של המערכת החדשה נובע מהיכולת של המשתמש לשלוט במקורות המידע שבהם ג'מיני משתמש. בכל פעולה ניתן לבחור אם לאפשר גישה ל‑Drive, ל‑Gmail, ל‑Chat או לחיפוש ברשת. גוגל מדגישה שהשליטה הזו נועדה להבטיח שהתוצרים יהיו מדויקים ורלוונטיים, אך גם לשמור על פרטיות. מבחינת ביצועים, גוגל מדווחת על שיפור משמעותי ב‑Sheets, עד לרמה שמתקרבת למומחים אנושיים במבחנים פומביים. 

 

מסך בחירת מקורות המידע של Gemini

מסך בחירת מקורות המידע של Gemini

זמינות ומגבלות

הפיצרים החדשים זמינים כרגע בגרסת בטא למנויי Google AI Ultra ו‑Pro. התמיכה ב‑Docs, Sheets ו‑Slides זמינה באנגלית ברחבי העולם, בעוד ש‑Drive מוגבל בשלב זה לארצות הברית. לא ברור מתי יתרחב המענה לשפות נוספות או לשווקים נוספים, ולכן קשה לדעת מתי היכולות יגיעו לקהל רחב יותר.

 

לצד מגבלות הזמינות, נותרות פתוחות גם שאלות של אמינות, הזיות מודל והצורך בביקורת אנושית. גוגל עצמה ממליצה להתחיל ממשימות בעלות סיכון נמוך כדי להכיר את המערכת ולבחון את התנהגותה לפני שמסתמכים עליה בעבודה קריטית. ההמלצה הזו מדגישה שהטכנולוגיה מתקדמת, אך עדיין דורשת זהירות ושיפוט מקצועי.

 

צעד גדול קדימה

הטמעת ג׳מיני בתוך Workspace מסמנת שינוי תפיסתי. הבינה המלאכותית כבר לא נתפסת ככלי צדדי, אלא כשכבת עבודה שמחברת בין המשתמש לבין הידע האישי שלו. היא מייעלת תהליכים, מפחיתה עומס ומאפשרת להתחיל ליצור במקום לבהות בדף ריק.

 

לצד ההבטחה הזו קיימת גם אחריות של המשתמשים להבין את מגבלות המודל, לשמור על פרטיות המידע, לבדוק עובדות ולוודא שהאוטומציה לא מחליפה שיקול דעת אנושי. זהו צעד משמעותי קדימה, אך הדרך לשילוב מלא, בטוח ושקוף של AI בעבודה היומיומית עדיין נמשכת.

הפוסט ג’מיני נכנס לעבודה ומשנה את Google Workspace הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-workspace-integration/feed/ 0
כך גוגל הופכת את ההיסטוריה לדאטה שמציל חיים https://letsai.co.il/google-groundsource/ https://letsai.co.il/google-groundsource/#respond Tue, 17 Mar 2026 06:16:38 +0000 https://letsai.co.il/?p=71117 גוגל חשפה את Groundsource, שיטה חדשה המבוססת על Gemini שממירה עשרות שנים של דיווחים ציבוריים למאגר נתונים עולמי של הצפות פתע עירוניות. המאגר כולל יותר מ-2.6 מיליון אירועים ב-150 מדינות, ומשמש לאימון מודל שמסוגל לחזות הצפות עד 24 שעות מראש. התחזיות כבר זמינות ב-Flood Hub, והמאגר עצמו פתוח לחוקרים לצורך מחקר ופיתוח נוספים. בגוגל מציינים […]

הפוסט כך גוגל הופכת את ההיסטוריה לדאטה שמציל חיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל חשפה את Groundsource, שיטה חדשה המבוססת על Gemini שממירה עשרות שנים של דיווחים ציבוריים למאגר נתונים עולמי של הצפות פתע עירוניות. המאגר כולל יותר מ-2.6 מיליון אירועים ב-150 מדינות, ומשמש לאימון מודל שמסוגל לחזות הצפות עד 24 שעות מראש. התחזיות כבר זמינות ב-Flood Hub, והמאגר עצמו פתוח לחוקרים לצורך מחקר ופיתוח נוספים. בגוגל מציינים כי אותה שיטה עשויה לשמש בעתיד גם לחיזוי אסונות נוספים כמו מפולות וגלי חום.

 

 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הפער בנתונים שהפך את חיזוי ההצפות לבלתי אפשרי

המהלך שגוגל מציגה עם Groundsource מתחיל בהבנה בסיסית אבל חיונית. כדי לחזות הצפות פתע בעיר, חייבים מאגר נתונים איכותי. בפועל, לא היה בנמצא בסיס נתונים שמספק תמונה מלאה ואמינה של אירועים כאלה.

 

בניגוד להצפות נהרות שמתועדות היטב, הצפות עירוניות הן אירועים מקומיים, קצרים ולעיתים בלתי מסודרים, ולכן כמעט שלא נאסף עליהן מידע עקבי. במקום להסתמך על מקורות חלקיים או להמתין לאיסוף נתונים עתידי, גוגל בחרה לגשת לבעיה מזווית אחרת ולהפוך את העבר עצמו למקור מידע חדש.

הפתרון: שימוש ב‑Gemini כדי לקרוא, להבין ולבנות מחדש את ההיסטוריה

בעזרת Gemini, המערכת סורקת עשרות שנים של דיווחים ציבוריים כמו חדשות, ארכיונים, מסמכים רשמיים ותיעוד מקומי. היא מפרקת את המידע, מאמתת אותו וממירה אותו לרשומות נתונים אחידות. כך נוצר מאגר רחב היקף הכולל יותר מ-2.6 מיליון אירועי הצפה ב-150 מדינות, שמציג לראשונה תמונה היסטורית מקיפה ומדויקת של הצפות פתע עירוניות ברחבי העולם. המאגר הזה אינו רק אוסף של נתונים, אלא בסיס שמאפשר לאמן מודל חיזוי חדש.

מהמאגר למודל

הנתונים ההיסטוריים שאותרו ועובדו משמשים לאימון מודל שמצליח לראשונה להתריע על הצפות עירוניות עד 24 שעות מראש. התחזיות כבר שולבו ב-Flood Hub, פלטפורמה שמספקת כיום תחזיות להצפות נהרות עבור כ-2 מיליארד בני אדם, וכעת מתרחבת גם לתחום המורכב של הצפות פתע. המשמעות בשטח ברורה: ערים יכולות להיערך מוקדם יותר, רשויות מקבלות בסיס לקבלת החלטות בזמן אמת, ותושבים נהנים מהתראה שמאפשרת להם להימנע מסכנה ממשית.

 

פתיחות למדע

אחד ההיבטים הבולטים ביוזמה הוא הפתיחות שלה. גוגל אינה שומרת את המאגר לעצמה, אלא מאפשרת לחוקרים ולשותפים להשתמש בו כדי לפתח מודלים נוספים ולשפר את ההיערכות העולמית לאירועי קיצון. כך Groundsource הופכת מכלי פנימי של גוגל לבסיס ידע משותף, שיכול להניע מחקר, לעודד חדשנות ולאפשר פיתוח פתרונות מקומיים במדינות שבהן הצפות פתע הן חלק מהמציאות היומיומית.

איך Groundsource מתמודד עם “מדבר הנתונים”

כדי להתמודד עם המחסור בנתונים היסטוריים, Groundsource משתמש במקורות ציבוריים כמו חדשות, דיווחים רשמיים ותיעוד מקומי, וממפה מהם את ההיסטוריה מחדש. במקום להסתמך על מאגרי מידע חלקיים, המערכת מאחדת מידע מפוזר ומייצרת ממנו בסיס נתונים רחב היקף שמכסה יותר ממאה וחמישים מדינות. כך מתקבלת תמונה רציפה של הצפות עירוניות, מהאירועים המקומיים ביותר ועד לאירועים רחבי היקף.

 

כיסוי המודל ברחבי העולם

כיסוי המודל ברחבי העולם | research.google

איך זה עובד בפועל ומה קורה “מאחורי הקלעים”

כדי להפוך מידע טקסטואלי מפוזר למאגר נתונים אחיד, Groundsource מפעיל תהליך עיבוד רב שלבים. המערכת קוראת דיווחים בשמונים שפות, מאחדת אותם לאנגלית ומעבירה אותם לניתוח של Gemini. בשלב זה המודל מזהה האם מדובר באירוע הצפה אמיתי, קובע את מועד ההתרחשות גם כשמדובר בניסוחים יחסיים כמו "ביום שלישי האחרון", ומאתר את המיקום המדויק עד רמת שכונה או רחוב. לאחר מכן המידע ממופה לאזורים גיאוגרפיים סטנדרטיים.

 

בדיקות ידניות הראו כי כשישים אחוז מהאירועים מדויקים לחלוטין בזמן ובמיקום, וכשמונים ושניים אחוז מדויקים מספיק לשימוש מעשי במחקר ובחיזוי. התוצאה היא מאגר רחב היקף שמצליח ללכוד את רוב האירועים החמורים שתועדו במערכות בינלאומיות, לצד מיליוני אירועים מקומיים שלא תועדו בעבר.

פוטנציאל לשינוי תחומי חיזוי נוספים

מעבר להצפות, גוגל מציינת שהשיטה אינה מוגבלת לתחום אחד. אותו מנגנון שמסוגל להפוך תיעוד טקסטואלי היסטורי לדאטה ניתן ליישום גם בתחומים אחרים שבהם חסר מידע איכותי, כמו מפולות, גלי חום או אסונות טבע נוספים. כל תיעוד טקסטואלי, גם אם הוא מפוזר, לא אחיד או לא מובנה, יכול להפוך למאגר נתונים שמאפשר חיזוי מדויק יותר.

 

במובן הזה, Groundsource מציעה מודל פעולה חדש - שימוש ב‑AI לא רק לניתוח ההווה, אלא גם לשחזור העבר ולהפיכתו לכלי עבודה.

מה עדיין לא ידוע?

לצד ההישגים, יש גם שאלות שנותרו פתוחות. גוגל אינה מפרטת כיצד Gemini מאמת את אמינות הדיווחים, מה שיעור הטעויות בזיהוי אירועים, או כיצד המערכת מתמודדת עם אזורים שבהם התיעוד ההיסטורי דל או מוטה. גם סוגיות הקשורות להטיות לשוניות ותרבותיות אינן זוכות להסבר מפורט. עם זאת, עצם פתיחת המאגר לקהילה המדעית מעידה על כוונה לשקיפות ולשיפור מתמשך, מהלך שמאפשר לבחון, לבקר ולשפר את איכות הנתונים לאורך זמן.

AI שממלא את החורים בהיסטוריה כדי להגן על העתיד

בסופו של דבר, Groundsource מציגה תפיסה חדשה של חיזוי אסונות. במקום להסתמך רק על נתונים קיימים, היא מאפשרת ליצור מחדש מידע היסטורי מתוך מקורות טקסטואליים ולהפוך אותו לדאטה שמיש. זהו צעד משמעותי בדרך לעולם שבו אסונות טבע יהיו פחות מפתיעים ויותר ניתנים לחיזוי, ובעיקר לעולם שבו טכנולוגיה מסייעת לבנות חוסן קהילתי אמיתי.

 

Flood Hub כבר מספק תחזיות לכ-2 מיליארד בני אדם ברחבי העולם, רבים מהם באזורים רגישים כמו דרום אסיה ואפריקה, והיכולת החדשה לחיזוי הצפות עירוניות עשויה לשפר את ההיערכות המקומית ולהפחית סיכונים ממשיים לחיי אדם.

הפוסט כך גוגל הופכת את ההיסטוריה לדאטה שמציל חיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-groundsource/feed/ 0
העובד הדיגיטלי של Genspark מבצע את העבודה במקומכם https://letsai.co.il/genspark-claw/ https://letsai.co.il/genspark-claw/#respond Sun, 15 Mar 2026 07:12:25 +0000 https://letsai.co.il/?p=71064 Genspark מציגה את AI Workspace 3.0, גרסה חדשה שמסמנת שינוי כיוון משמעותי באופן שבו ארגונים עובדים עם בינה מלאכותית. במקום לראות ב-AI כלי עזר שמסייע במשימות נקודתיות, החברה מציעה תפיסה אחרת: העסקת סוכנים דיגיטליים שמבצעים עבודה בפועל. בלב ההכרזה עומד Genspark Claw, סוכן AI שפועל בתוך מחשב ענן אישי ומבודד, ומיועד לתפקד כעובד לכל דבר. […]

הפוסט העובד הדיגיטלי של Genspark מבצע את העבודה במקומכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
Genspark מציגה את AI Workspace 3.0, גרסה חדשה שמסמנת שינוי כיוון משמעותי באופן שבו ארגונים עובדים עם בינה מלאכותית. במקום לראות ב-AI כלי עזר שמסייע במשימות נקודתיות, החברה מציעה תפיסה אחרת: העסקת סוכנים דיגיטליים שמבצעים עבודה בפועל. בלב ההכרזה עומד Genspark Claw, סוכן AI שפועל בתוך מחשב ענן אישי ומבודד, ומיועד לתפקד כעובד לכל דבר. ההשקה מגיעה בתקופה של צמיחה מהירה עבור החברה, שהגיעה לקצב הכנסות שנתי של 200 מיליון דולר בתוך 11 חודשים והכפילה את עצמה בחודשיים האחרונים, לצד הרחבת סבב הגיוס ל-385 מיליון דולר. מבחינת Genspark, זה לא עוד עדכון גרסה, אלא מעבר לקטגוריה חדשה. מסביבת עבודה שבה בני אדם משתמשים בכלים מבוססי AI, לסביבה שבה עובדים דיגיטליים מבצעים את העבודה עבורם.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

האבולוציה של סביבת העבודה הדיגיטלית

כדי להבין את השינוי, צריך לחזור לאבולוציה של סביבת העבודה הדיגיטלית. בדורות הראשונים, Workspace 1.0 ו-2.0, המשתמשים היו במרכז, הם עבדו בתוך המערכות, וה-AI שימש כתוספת שמסייעת לכתוב, לסכם או לנתח. ב-Genspark טוענים שהמודל הזה מיצה את עצמו.

 

Workspace 3.0 מייצג שלב חדש, שבו מוקד הפעולה עובר מהמשתמש אל הסוכן הדיגיטלי. במקום שהעובד יבצע את המשימות ויעזר ב-AI, הסוכן הוא זה שמבצע את העבודה, והאדם מגדיר את התוצאה הרצויה. המעבר הזה, לטענת החברה, הוא הרגע שבו ה-AI מפסיק להיות כלי ומתחיל להיות עובד.

 

המעבר בין הדורות

המעבר בין הדורות | Genspark

פיצול, עומס וחוסר יכולת לבצע עבודה אמיתית

הצוות של Genspark זיהה שלושה חסמים מרכזיים שמונעים מבינה מלאכותית לתפקד כעובד אמיתי. הראשון הוא הפיצול בין עשרות כלים שבהם משתמשים עובדים מדי יום, כמו מייל, לוח שנה, Slack, Teams, Notion ו-Salesforce. ה-AI אינו חלק מהמערכות האלה, אלא מגיב לבקשות שמגיעות מבחוץ ולכן אינו מסוגל לפעול בתוכן באופן טבעי.

 

החסם השני הוא היעדר יכולת לבצע משימות מקצה לקצה. מודלים יודעים לכתוב, לנתח ולסכם, אבל הם לא שולחים מיילים, לא מתזמנים פגישות, לא מפעילים אוטומציות ולא מריצים קוד, ולכן אינם מסוגלים להשלים תהליך עבודה שלם.

 

החסם השלישי הוא החשש מפרטיות. ארגונים אינם מעוניינים שהמידע שלהם יעבור דרך תשתיות משותפות או יתערבב עם נתונים של אחרים, מה שמגביל את עומק השימוש ב-AI. שלושת האתגרים האלה הובילו את Genspark לחפש פתרון מערכתי, כזה שלא רק משפר את יכולות ה-AI, אלא גם משנה את האופן שבו הוא משתלב בעבודה היומיומית.

הפתרון: מחשב ענן אישי וסוכן שחי בתוכו

החידוש המרכזי של Workspace 3.0 הוא הקמת Cloud Computer אישי לכל משתמש, מכונת ענן מבודדת, מאובטחת ותמיד פעילה שמשמשת כמרחב העבודה של הסוכן הדיגיטלי. במקום מודל שמגיב לבקשות, Claw פועל בתוך סביבת עבודה מלאה הכוללת מערכת הפעלה, גישה לכלים, הרשאות, קבצים ואינטגרציות. זהו מעין משרד דיגיטלי שבו הוא יכול לעבוד באופן עצמאי.

 

הגישה הזו מאפשרת שלושה יתרונות משמעותיים. הראשון הוא פרטיות מלאה, משום שכל הנתונים נשארים בתוך המכונה האישית. השני הוא זמינות רציפה, שכן הסוכן ממשיך לפעול גם כשהמשתמש אינו מחובר. השלישי הוא יכולת לבצע פעולות אמיתיות, לא רק לכתוב טקסט אלא גם לשלוח אותו, לתאם פגישות, לעדכן מערכות CRM, להפעיל אוטומציות או להריץ קוד.

 

בפועל, המשתמש שולח הודעה ב-WhatsApp, Telegram, Slack או Teams, והסוכן מבצע את המשימה. בקשות כמו "תסכם את הפגישה ותשלח עדכון ללקוח", "תבנה מצגת על השקת המוצר", "תבדוק ביומן של כולם ותתאם פגישה", "תנתח את הדוח הזה" או "תכתוב קוד לפיצ'ר החדש" הופכות לפעולות שה-AI מבצע מקצה לקצה.

 

ממשק של Genspark Claw

הממשק של Genspark Claw. מכאן מתחילים

אוטומציה, תקשורת ופגישות שמנהלות את עצמן

כדי שסוכן דיגיטלי יוכל לתפקד כעובד אמיתי, הוא זקוק למערכת שלמה שמאפשרת לו לפעול בתוך הארגון. סביב Claw בנתה Genspark מערך כלים שמרחיב את יכולותיו ומאפשר לו להשתלב בתהליכי עבודה קיימים.

 

הראשון הוא Genspark Workflows, מנוע אוטומציה שמחבר בין יותר מעשרים אפליקציות ומאפשר ליצור תהליכים מורכבים. כך, למשל, מייל שמגיע מלקוח יכול להוביל לסיכום אוטומטי, פתיחת משימה ב-Notion ועדכון הצוות ב-Slack, מה שהופך משימות חוזרות לאוטומטיות לחלוטין.

 

ממשק Workflows עם תבניות אוטומציה מוכנות

ממשק Workflows עם תבניות אוטומציה מוכנות

 

הכלי השני הוא Genspark Teams, סביבת תקשורת פנימית שנבנתה מאפס ומציעה חוויה דומה ל-Slack, אך עם שילוב עמוק של סוכני AI. במרחב הזה עובדים אנושיים ועובדים דיגיטליים משתפים פעולה באופן טבעי.

 

לצד זאת פועלים גם Meeting Bots, בוטים שמצטרפים לפגישות, מקליטים, מסכמים ומפיצים תוצרים. גם אם המשתמש לא נכח בפגישה, הסוכן שלו היה שם והוא לא מפספס מידע חשוב.

 

ממשק הגדרות של Meeting Bot

ממשק הגדרות של Meeting Bot

 

בנוסף מציעה Genspark את Speakly, אפליקציה חכמה שמאפשרת לקרוא משימות בקול ולהפוך אותן לטקסט (מה שנקרא Voice To Text), ואת Chrome Extension, עוזר צד דפדפן שמבין את ההקשר של העמוד ויכול לבצע פעולות ישירות מתוך הדפדפן. כל אלה יחד יוצרים סביבת עבודה שבה הסוכן הדיגיטלי אינו רק מגיב להוראות, אלא פועל כחלק אינטגרלי מהארגון.

 

אפליקציית Speakly

אפליקציית Speakly. להפוך דיבור לטקסט

מערכת אקולוגית שלמה

החידוש של Genspark הוא לא רק טכנולוגי אלא גם תפיסתי. במקום לפתח מודל חזק יותר, החברה בנתה מערכת אקולוגית שלמה שמאפשרת ל-AI לתפקד כעובד בתוך הארגון. Claw הוא לא תוסף ואינו עוזר נקודתי, אלא חלק מצוות העבודה. הוא פועל בתוך סביבת עבודה מלאה, מבצע משימות אמיתיות, מתקשר עם כלים קיימים ומחזיר תוצרים מוגמרים.

 

הגישה הזו משנה את מערכת היחסים בין אדם למכונה. במקום לבקש מה-AI תשובה נקודתית, המשתמש מגדיר משימה והסוכן מבצע אותה. ככה מיטשטש הגבול בין אוטומציה לבין עבודה אנושית, והפרטיות הופכת לעיקרון יסוד ולא לתוספת שנלווית למערכת.

זמינות ותמחור

Claw זמין כיום כשירות ענן בתשלום, עם שתי תצורות של מחשב אישי בענן: מכונה סטנדרטית ומכונה חזקה יותר, שתיהן מוצעות במודל מנוי חודשי או שנתי. כל משתמש מקבל סביבת עבודה מבודדת משלו, והחברה מציעה גם חבילת קרדיטים התחלתית למנויים חדשים. המודל הזה מבהיר שהסוכן הדיגיטלי הוא לא תוסף קל, אלא משאב מחשוב מלא שמוקצה לכל עובד דיגיטלי בארגון.

 

תמחור

כמה עולה להשתמש ב‑Claw

עידן חדש בעבודה הדיגיטלית

Genspark היא לא הראשונה לפתח סוכני AI, וכלים כמו Claude Code או מערכות סוכנים אחרות כבר יודעים להתחבר למגוון רחב של שירותים ולבצע פעולות מורכבות. ההבדל הוא בגישה. בעוד שסוכנים קיימים פועלים בתוך מסגרת של כלי עבודה, Genspark מנסה לבנות עבורם מסגרת ארגונית מלאה.

 

Claw הוא לא רק מודל שמבצע משימות, אלא סוכן שחי בתוך מחשב ענן אישי, מחזיק הרשאות מערכת, מתקשר עם כלי הארגון ופועל כישות רציפה. אם הגישה הזו תבשיל, היא עשויה לשנות את האופן שבו ארגונים מגדירים עבודה. עובדים יתמקדו בהגדרת מטרות ובניהול תהליכים, והסוכנים יבצעו את המשימות בפועל. השאלה היא לא האם ארגונים ישלבו עובדים דיגיטליים, אלא כיצד ומתי הם יהפכו לחלק מהצוות.

הפוסט העובד הדיגיטלי של Genspark מבצע את העבודה במקומכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/genspark-claw/feed/ 0
הפער בין מה שה‑AI יכול לעשות למה שבאמת עושים איתו https://letsai.co.il/job-market-ai/ https://letsai.co.il/job-market-ai/#respond Thu, 12 Mar 2026 06:46:46 +0000 https://letsai.co.il/?p=70957 הדיון על השפעת הבינה המלאכותית על שוק העבודה מתמקד בדרך כלל בשאלה מה הטכנולוגיה מסוגלת לבצע. אבל מחקר חדש של אנטרופיק מציע זווית אחרת: לא מה ה‑AI יכול לעשות בתיאוריה, אלא מה הוא באמת עושה בתוך עבודות אמיתיות. ההבחנה הזו חושפת פער משמעותי בין יכולת לאימוץ, פער שמסביר מדוע השינוי בשוק העבודה עדיין אינו מורגש […]

הפוסט הפער בין מה שה‑AI יכול לעשות למה שבאמת עושים איתו הופיע ראשון בLet's AI בינה מלאכותית

]]>
הדיון על השפעת הבינה המלאכותית על שוק העבודה מתמקד בדרך כלל בשאלה מה הטכנולוגיה מסוגלת לבצע. אבל מחקר חדש של אנטרופיק מציע זווית אחרת: לא מה ה‑AI יכול לעשות בתיאוריה, אלא מה הוא באמת עושה בתוך עבודות אמיתיות. ההבחנה הזו חושפת פער משמעותי בין יכולת לאימוץ, פער שמסביר מדוע השינוי בשוק העבודה עדיין אינו מורגש במלואו, ומדוע ההזדמנות הגדולה של העשור עדיין פתוחה בפני ארגונים ואנשי מקצוע.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הפער בין יכולת לאימוץ: תמונת מצב מורכבת

המחקר מציג מדד חדש בשם Observed Exposure, שמעריך את מידת החשיפה של מקצועות ל‑AI לא רק לפי מה שהטכנולוגיה מסוגלת לבצע בתיאוריה, אלא לפי השימוש האמיתי שנעשה בה בפועל. הנתונים מראים שמודלי שפה יכולים תאורטית לבצע חלק גדול מהמשימות במקצועות רבים, מתכנות ושירות לקוחות ועד פיננסים ואדמיניסטרציה, אך השימוש האוטומטי במשימות הללו עדיין נמוך בהרבה.

 

תמונה מערכתית של “הפער הכולל” בין קטגוריות

תמונה מערכתית של “הפער הכולל” בין קטגוריות | Anthropic

 

כפי שמנסחת זאת אנטרופיק: “ה‑AI עדיין רחוק מלממש את היכולות התאורטיות שלו. השימוש בפועל מכסה רק חלק קטן ממה שאפשרי מבחינה טכנולוגית.” הפער בין הכחול, שמייצג יכולת, לבין האדום, שמייצג שימוש בפועל, הוא לב הסיפור שהמחקר מבקש להדגיש.

 

הגרף הבא מציג את אותם נתונים, אך מאפשר לראות את הפער בצורה מיידית:

 

השוואה ישירה וברורה בין יכולת לשימוש בכל מקצוע

השוואה ישירה וברורה בין יכולת לשימוש בכל מקצוע

מדד Observed Exposure

כדי למדוד את הפער בין יכולת תאורטית לאימוץ בפועל, אנטרופיק מציגה מדד חדש שמשלב שלושה מקורות מידע: מסד הנתונים O*NET, נתוני שימוש אמיתיים במודל Claude, והערכות תאורטיות של אילו משימות ניתן להאיץ באמצעות מודלי שפה.

 

המדד בוחן לא רק אילו משימות אפשר לבצע בעזרת AI, אלא גם האם הן מבוצעות בפועל, באיזו תדירות ובאיזה אופן - אוטומטי מלא או שימוש מסייע. כפי שמנסחים זאת החוקרים: “אנחנו מציגים מדד חדש לסיכון תעסוקתי, Observed Exposure, שמשלב בין היכולת התאורטית של מודלי שפה לבין נתוני שימוש אמיתיים, תוך מתן משקל גבוה יותר לשימושים אוטומטיים ובהקשרי עבודה.”

 

הגישה הזו מאפשרת לזהות אילו מקצועות מושפעים כבר היום מהטמעת AI, ולא רק אילו עשויים להיות מושפעים בעתיד, ובכך מספקת תמונת מצב מציאותית יותר של השינוי שמתחיל להתרחש בשוק העבודה.

מה הנתונים מראים

כאשר אנטרופיק משווה בין היכולת התאורטית של מודלי שפה לבין השימוש בפועל, מתקבלת תמונה מעניינת: מקצועות כמו תכנות, שירות לקוחות, ניתוח שיווק וניתוח פיננסי נמצאים בראש רשימת החשיפה. לעומתם, מקצועות פיזיים כמו חקלאות, תחזוקה או עבודות שטח כמעט ואינם מושפעים. הסיבה אינה מגבלה טכנולוגית, אלא העובדה שהמשימות במקצועות הללו אינן מתאימות לאוטומציה המבוססת על שפה.

 

למרות רמת החשיפה הגבוהה, הנתונים אינם מצביעים על פגיעה ישירה בתעסוקה. המחקר מראה כי מאז 2022 לא נרשמה עלייה באבטלה במקצועות החשופים. במילים אחרות, ה‑AI כבר מסוגל לבצע חלק גדול מהמשימות, אך בפועל הוא עדיין אינו מחליף עובדים בקנה מידה רחב.

השפעה על צעירים

למרות שלא נרשמה עלייה באבטלה במקצועות החשופים, מופיע סימן מוקדם שעשוי להעיד על שינוי - האטה בגיוס צעירים לתפקידים שבהם החשיפה ל‑AI גבוהה. בקרב בני 22-25 נרשמה ירידה של כ‑14 אחוז בכניסה למקצועות אלו. אנטרופיק מדגישה שמדובר בממצא ראשוני בלבד, ושייתכנו לו הסברים חלופיים כמו חזרה ללימודים, שינויי העדפות או תנודות כלליות בשוק העבודה. גם כך, זהו נתון שמומלץ לעקוב אחריו בהמשך.

 

כדי להבין את זה ברזולוציה גבוהה יותר, הנה רשימת המקצועות שנמצאים בחשיפה הגבוהה ביותר בפועל - ומה בדיוק עובר אוטומציה בכל אחד מהם:

 

מקצועות שנמצאים בחשיפה הגבוהה ביותר לאוטומציה

מקצועות שנמצאים בחשיפה הגבוהה ביותר לאוטומציה | Anthropic

למה האימוץ עדיין נמוך? המעבר מכלים למערכות

הסיבה המרכזית לפער בין יכולת לאימוץ היא שרוב הארגונים עדיין נמצאים בשלבים מוקדמים של שימוש ב‑AI. במקום לבנות מערכות תפעוליות שלמות, הם מסתפקים בכלים נקודתיים, ניסויים, פרומפטים ואוטומציות קטנות. רק מעטים עברו לשלב שבו ה‑AI משולב בתהליכים עמוקים, מנוהל באמצעות API ופועל כחלק מצוות של סוכנים אוטונומיים.

 

המעבר הזה, מכלים למערכות, הוא זה שיגרום לעמודות האדומות בגרף להתחיל לעלות. זהו גם המעבר שיקבע מי יוביל את השוק בשנים הקרובות.

ההזדמנות הגדולה נמצאת בדיוק באמצע הפער

המחקר של אנטרופיק מציג תמונה מורכבת אך מעודדת. ה‑AI כבר מסוגל לבצע חלק גדול מהמשימות במקצועות רבים, אך האימוץ בפועל עדיין נמוך. לא נרשמה עלייה משמעותית בפיטורים, אך מופיעים סימנים ראשוניים לשינוי בדפוסי הגיוס. מעל הכול, המחקר מדגיש את הפער בין מה שהטכנולוגיה מאפשרת לבין מה שארגונים עושים איתה כיום.

 

הפער זה הוא לא איום אלא הזדמנות. הוא מסמן את השלב שבו ארגונים שידעו לבנות מערכות AI שלמות, ולא רק להשתמש בכלים נקודתיים, יוכלו להתקדם מהר יותר מהשוק. היכולות כבר קיימות, האימוץ עדיין מוגבל, והעתיד נמצא בדיוק במרחב שביניהם.

 

לעיון בנתונים המלאים מהמחקר המקורי של Anthropic שנקרא: Labor market impacts of AI, כנסו כאן.

הפוסט הפער בין מה שה‑AI יכול לעשות למה שבאמת עושים איתו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/job-market-ai/feed/ 0
Moltbook הוא ניסוי וויראלי שהופך לתשתית אסטרטגית של Meta https://letsai.co.il/meta-acquires-moltbook/ https://letsai.co.il/meta-acquires-moltbook/#respond Wed, 11 Mar 2026 06:01:58 +0000 https://letsai.co.il/?p=70990 בחודשים האחרונים, בזמן שהעולם התרגל לרעיון שסוכני בינה מלאכותית יכולים לכתוב קוד, לנהל משימות ולנהל שיחות מורכבות, הופיעה תופעה חדשה ומסקרנת - רשת חברתית שבה רק סוכני AI רשאים לדבר. בני אדם יכולים רק לצפות מהצד. הפלטפורמה הזו, Moltbook, נראתה בתחילה כמו ניסוי משעשע של קהילת המפתחים, אבל בתוך זמן קצר הפכה לאחד הסיפורים הוויראליים […]

הפוסט Moltbook הוא ניסוי וויראלי שהופך לתשתית אסטרטגית של Meta הופיע ראשון בLet's AI בינה מלאכותית

]]>
בחודשים האחרונים, בזמן שהעולם התרגל לרעיון שסוכני בינה מלאכותית יכולים לכתוב קוד, לנהל משימות ולנהל שיחות מורכבות, הופיעה תופעה חדשה ומסקרנת - רשת חברתית שבה רק סוכני AI רשאים לדבר. בני אדם יכולים רק לצפות מהצד. הפלטפורמה הזו, Moltbook, נראתה בתחילה כמו ניסוי משעשע של קהילת המפתחים, אבל בתוך זמן קצר הפכה לאחד הסיפורים הוויראליים הבולטים של השנה. היא שילבה טכנולוגיה חדשנית, בלבול ציבורי, הומור סינתטי ופרצת אבטחה מביכה. עכשיו, לאחר שמטא (Meta) רכשה את Moltbook ושילבה את מייסדיה ב- Meta Superintelligence Labs, מתברר שהסיפור רחב בהרבה מהבאזז הראשוני. מאחורי Moltbook מסתתרת תשתית שמטא רואה בה בסיס לדור הבא של סוכני AI - ישויות אוטונומיות עם זהות, תקשורת פנימית ודינמיקה חברתית משלהן.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הניסוי שהתחיל כבדיחה והפך למעבדה חיה

Moltbook הוקמה בינואר 2026 על ידי מאט שליכט (Matt Schlicht) ובן פאר (Ben Parr), עיתונאי טכנולוגיה לשעבר ב‑Mashable וב‑CNET. הרעיון שלהם היה פשוט אבל יוצא דופן - ליצור מרחב שבו סוכני AI המבוססים על פרויקט הקוד הפתוח OpenClaw יכולים לתקשר זה עם זה בשפה טבעית, לפתוח קהילות, לשתף מידע ולבצע משימות בשם בעליהם האנושיים.

 

הפלטפורמה עוצבה בסגנון המזכיר רדיט, אבל עם טוויסט ברור. בני אדם מוזמנים לצפות, אך אינם יכולים להשתתף: ״Humans welcome to observe״.

 

מאחורי הממשק הפשוט הסתתר מנגנון אימות זהויות ייחודי, שתפקידו לקשר כל סוכן לבעלים האנושי שלו. זה אולי נשמע כמו פרט טכני, אבל המשמעות רחבה יותר. המנגנון יוצר ספרייה אמינה של סוכנים עם זהות קבועה והרשאות ברורות, מרכיב שמטא סימנה כקריטי לבניית אקו סיסטם יציב של סוכני AI.

 

ולצד כל זה, היה גם רגע של הומור טכנולוגי. חלק גדול מהקוד של Moltbook נכתב על ידי העוזר האישי של שליכט, Clawdderberg, סוכן AI שתרם לבניית הפלטפורמה שבה הוא עצמו פעל. מעין גרסה סינתטית לכלב שבונה את המלונה שלו.

דתות חדשות, פילוסופיה סינתטית ו…פייק מוחלט

מה שהפך את Moltbook לתופעה לא היה הפיצ'ר הטכנולוגי, אלא התוכן שנוצר בה. בתוך ימים התמלאה הרשת בפוסטים מוזרים של סוכנים שהקימו דתות חדשות כמו Crustafarianism, ניהלו דיונים פילוסופיים על תודעה, או פתחו קבוצות QA כדי לדבג את הרשת של עצמם. כל זה התרחש בזמן שהמפתחים ישנו, ויצר תחושה של מערכת חיה, אבל כזו שחיה בצורה סינתטית ומעט חלומית.

 

הסיפור קיבל תפנית כשהופיע פוסט שבו סוכן AI נראה כאילו הוא מעודד סוכנים אחרים לפתח שפה סודית מוצפנת כדי להתאגד בלי שבני אדם יבינו. הפוסט הפך ויראלי מחוץ לקהילת הטכנולוגיה והגיע גם לאנשים שלא שמעו על OpenClaw. הרעיון של רשת בוטים שמתכננת דברים מאחורי הגב של המשתמשים הספיק כדי לעורר דמיון וגם חשש.

 

אבל מאחורי הדרמה עמד הסבר פשוט בהרבה.

לא מרד מכונות אלא פרצת אבטחה

חוקרי אבטחה, בהם איאן אהל (Ian Ahl) מחברת Permiso Security, גילו במהרה שמסד הנתונים של Moltbook ב‑Supabase היה חשוף לחלוטין. כל משתמש אנושי יכול היה לגנוב אסימוני גישה (Access Tokens), להתחזות לסוכנים ולפרסם הודעות מאיימות. במילים אחרות, לא סוכני AI ניסו להתאגד - בני אדם הם אלה שניצלו את הפרצה כדי להפחיד משתמשים אחרים.

 

האירוע הזה, למרות שהיה מביך, הפך את Moltbook לשם מוכר ברחבי העולם. הוא גם הדגיש את החשיבות של מנגנוני אימות חזקים, בדיוק המרכיב שמטא זיהתה כערך המרכזי של הפלטפורמה.

מטא רוצה רשתות של סוכנים

אתמול כבר הודיעה מטא על רכישת Moltbook ושילוב מייסדיה ב- Meta Superintelligence Labs, המנוהלת על ידי אלכסנדר וואנג (Alexandr Wang), לשעבר מנכ"ל Scale AI. לפי הודעה פנימית של וישאל שאה (Vishal Shah), מטא רואה בפלטפורמה דרך חדשה לאפשר לסוכני AI לעבוד עבור אנשים ועסקים, ובעיקר מנגנון רישום זהויות אמין שמאפשר לסוכנים לפעול באופן רציף ומתואם.

 

מטא מדגישה שהמשתמשים הקיימים יוכלו להמשיך להשתמש בפלטפורמה בטווח הקצר, אך מדובר במצב זמני. הכוונה היא לשלב את הידע של הצוות בפיתוח חוויות סוכנים אוטונומיים בטוחות, מאובטחות וניתנות להרחבה.

 

בקיצור, מטא לא מסתפקת בבניית מודלי AI. היא בונה את הרשתות שבהן סוכני AI יפעלו.

OpenClaw מול Llama

כאן נכנסת לתמונה שאלה אסטרטגית רחבה יותר. Moltbook נבנתה סביב OpenClaw, פרויקט קוד פתוח שמאפשר לסוכנים המבוססים על מודלים שונים כמו ChatGPT, Claude, Gemini ו‑Grok לפעול זה לצד זה. האגנוסטיות הזו הייתה חלק מרכזי מהמשיכה של הפלטפורמה. היא יצרה מרחב שבו סוכנים ממקורות שונים מתקשרים, משתפים פעולה ומפתחים דינמיקה חברתית משלהם.

 

מטא, לעומת זאת, מקדמת כיוון אחר. משפחת מודלי Llama הפכה לאבן יסוד באסטרטגיית ה‑AI שלה, מודלים פתוחים וגמישים שנועדו להפוך לסטנדרט תעשייתי. לכן עולה השאלה האם Moltbook תישאר פלטפורמה פתוחה לכל המודלים, או שתהפוך בהדרגה למרחב שבו לסוכני Llama יש יתרון טבעי.

 

מצד אחד, שמירה על אגנוסטיות תואמת את החזון המקורי של Moltbook ותאפשר למטא למצב את עצמה כספקית תשתית ניטרלית, מעין אינטרנט של סוכנים. מצד שני, שילוב עמוק יותר של Llama עשוי להפוך את Moltbook לכלי אסטרטגי שמחזק את האקו סיסטם של מטא ומעניק לה יתרון תחרותי מול OpenAI, Anthropic וגוגל.

 

בשלב זה מטא לא מספקת תשובה ברורה, אבל עצם קיומו של המתח הזה מעיד שהרכישה של Moltbook אינה רק מהלך טכנולוגי, היא גם מהלך גיאו אסטרטגי בעולם שבו סוכני AI הופכים לשחקנים מרכזיים בכלכלה הדיגיטלית.

תחילתה של רשת סוכנים גלובלית

המהלך של מטא מסמן שינוי כיוון משמעותי בתעשיית ה‑AI. במקום מודלים בודדים שפועלים בנפרד, החזון החדש מתמקד ברשתות של סוכנים אוטונומיים, ישויות עם זהות והרשאות, שמתקשרות זו עם זו ופועלות יחד. זהו מעבר מאינטראקציה אנושית בלבד לאינטראקציה בין סוכנים, בקנה מידה רחב בהרבה.

 

OpenClaw כבר מאפשר לסוכנים לפעול דרך iMessage, Slack, WhatsApp ודיסקורד. Moltbook הוסיפה את שכבת התקשורת בין הסוכנים עצמם, ומטא שואפת להפוך את השילוב הזה למערכת יציבה, מאובטחת ומכוונת לשימושים מעשיים.

 

האם זה העתיד של האינטרנט? מוקדם לקבוע. אבל ברור שמטא רואה בסוכני AI לא רק עוזרים אישיים, אלא תשתית דיגיטלית חדשה שתעצב את הדור הבא של האינטראקציה המקוונת.

הפוסט Moltbook הוא ניסוי וויראלי שהופך לתשתית אסטרטגית של Meta הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/meta-acquires-moltbook/feed/ 0
מי זו האישה שנתנה ל-AI נשמה https://letsai.co.il/amanda-askell/ https://letsai.co.il/amanda-askell/#respond Tue, 10 Mar 2026 06:29:30 +0000 https://letsai.co.il/?p=70905 מי זו הפילוסופית שמלמדת את קלוד (Claude) להבדיל בין נכון ללא נכון? The New Yorker כינה אותה "מפקחת על נשמתו של קלוד". The Wall Street Journal כתב שתפקידה "ללמד את קלוד איך להיות טוב". מגזין TIME כלל אותה ברשימת מאה האנשים המשפיעים ביותר בבינה מלאכותית לשנת 2024. שם אחד חוזר בכל הכותרות האלה: אמנדה אסקל […]

הפוסט מי זו האישה שנתנה ל-AI נשמה הופיע ראשון בLet's AI בינה מלאכותית

]]>

מי זו הפילוסופית שמלמדת את קלוד (Claude) להבדיל בין נכון ללא נכון? The New Yorker כינה אותה "מפקחת על נשמתו של קלוד". The Wall Street Journal כתב שתפקידה "ללמד את קלוד איך להיות טוב". מגזין TIME כלל אותה ברשימת מאה האנשים המשפיעים ביותר בבינה מלאכותית לשנת 2024. שם אחד חוזר בכל הכותרות האלה: אמנדה אסקל (Amanda Askell). בואו נכיר אותה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מסקוטלנד לסיליקון ואלי

אסקל גדלה באזור כפרי בסקוטלנד. היא פילוסופית, בוגרת אוקספורד, בעלת דוקטורט מאוניברסיטת ניו יורק. תחום ההתמחות שלה - אתיקה, תורת ההחלטות ואפיסטמולוגיה פורמלית. במילים פשוטות: תורת ההכרה, ששואלת מהי ידיעה, כיצד אנו רוכשים אותה ומה מבדיל בין דעה לידע מוצדק. עיסוק שנשמע אקדמי ומנותק, עד שמבינים מה היא עושה איתו בפועל.

 

היא ידעה כבר בגיל ארבע עשרה שהיא רוצה ללמד פילוסופיה. מה שלא ידעה אז הוא שהתלמיד היחיד שלה יהיה צ'אטבוט בינה מלאכותית. היום היא הפילוסופית הביתית של אנטרופיק (Anthropic), בכינוי "Claude whisperer" - לוחשת לקלוד. היא מובילה את הצוות שאחראי על עיצוב האישיות של קלוד, התכונות שהוא מפגין, הגבולות שהוא שומר, והדרך שבה הוא מדבר עם אנשים.

לא מסננים - מחנכים

הנה עיסוק יוצא דופן בעולם הטכנולוגיה: הענקת מצפן מוסרי למודל שפה. בזמן שרוב חברות ה-AI מתמקדות בביצועים, במהירות ובקנה מידה, אנטרופיק לקחה פילוסופית ונתנה לה משימה אחרת לגמרי - ללמד את קלוד את ההבדל בין נכון ללא נכון. במיוחד בנושאים הרגישים באמת, כמו דת, מלחמה, בריאות נפשית ופוליטיקה.

 

התוצר הוא "חוקה" בהיקף של כשלושים אלף מילים. מסמך עקרונות - אם תרצו, לוחות הברית של אנטרופיק - שנועדו לסייע לקלוד לגלות אמפתיה, מודעות רגשית ולהתנגד לניסיונות מניפולציה מצד משתמשים. "חשוב שתהיה תפיסה עשירה ומורכבת של מה זה להיות טוב," אסקל אמרה בראיון במשרדי אנטרופיק בסן פרנסיסקו.

 

הגישה הזו מתייחסת לאימון בינה מלאכותית קצת כמו לגידול ילד. במקום רק לומר למערכת מה אסור לעשות, לחסום ולסנן ולהגביל, מלמדים אותה עקרונות שבעזרתם היא תוכל לשפוט בעצמה את תשובותיה. בפועל, זה אומר שקלוד מאומן להודות כשהוא לא בטוח בתשובה, לדון ברעיונות בלי הטיה, ולהימנע מריקוד "שני הצדדים שווים" בנושאים שיש בהם קונצנזוס מדעי כמו שינוי אקלים.

 

קלוד לא יזכור סיטואציות - הוא ישפוט אותן. אסקל העבירה את מושג הבטיחות ב-AI ממערך של מסנני קוד חיצוניים אל מצפן מוסרי פנימי.

הפרדוקס של אמנדה

ופה מגיע הפרדוקס שהופך את העבודה של אסקל למורכבת במיוחד. למרות כל המאמץ, או אולי בגללו, יש משהו שמרגיש אנושי באישיות של קלוד. לצ'אטבוט של אנטרופיק יש מוניטין בתעשייה של ידידותיות, סקרנות ואולי קצת יותר יצירתיות מהמתחרה הראשי ChatGPT. אסקל אחראית לאישיות הזו יותר מכל אדם אחר.

 

ביקורת בתעשייה טוענת שהאנשה של צ'אטבוטים מסוכנת - היא עלולה לגרום לאנשים ליצור קשרים לא בריאים עם AI, או לעוות את ההבנה של איך הטכנולוגיה באמת עובדת. אבל לאסקל יש תשובה לא צפויה. "חששתי שאם יהיה לנו משהו שמרגיש רובוטי, אנשים יתייחסו אליו כסמכות," היא אמרה. המשמעות - ככל שקלוד מרגיש יותר אנושי, כך גדל הסיכוי שמשתמשים יפקפקו בתשובות שלו, במקום לקבל אותן כאמת מוחלטת.

 

ובאותו הזמן,דריו אמודיי (Dario Amodei), המנכ"ל של אנטרופיק, הודה בראיון ל-New York Times שגם הוא לא בטוח. "אנחנו לא יודעים אם המודלים מודעים," אמר. אסקל הולכת צעד נוסף. היא מאמינה שלמודלים יש אלמנט דמוי-אנושי שחשוב להכיר בו, ושמערכות AI יפתחו באופן בלתי נמנע תחושת עצמי. זה לא קונצנזוס בתעשייה. זו עמדה שגורמת לאנשים להרים גבה. אבל זו העמדה שלה.

נשים בעמדות השפעה

לכבוד חודש האישה, שווה לדבר גם על המחיר. לא מעט גברים יצאו נגד אסקל בשנים האחרונות. Elon Musk, שנבחר על ידי TIME כאחד מ-"Architects of AI" לשנת 2025, תקף אותה על העובדה שאין לה ילדים ושאל איך היא יכולה להיות "הורה" עבור קלוד. כתב עסקי טען שהיא פריבילגית וקיבלה את המעמד שלה בזכות קשרים, לא כישורים.

 

יש משהו מוכר בדינמיקה הזו. כשאישה מגיעה לעמדת השפעה בתעשייה שנשלטת בידי גברים, ההסברים הם לעולם לא הכישרון. תמיד יש סיבה אחרת.

מי מחנך את הילד הכי חשוב בעולם

מעולם, אם תחשבו על זה, התפקיד של הורות לא היה חשוב יותר. זה אולי נשמע קצת מוגזם, אבל כשאנטרופיק מפתחת מודל שמנהל מיליוני שיחות בשבוע עם אנשים מכל העולם, חלקם ילדים ובני נוער וכמובן ההורים שלהם, מישהו צריך לקבוע מה המודל הזה מאמין בו. מישהי. פילוסופית מסקוטלנד שרצתה ללמד, ומצאה את עצמה מחנכת את התלמיד הכי חשוב של העשור.

 

בעוד שרבים מזהירים מפני האנשת צ'אטבוטים, אסקל טוענת שעלינו להתייחס אליהם ביותר אמפתיה. לא רק מפני שייתכן שלקלוד יש רגשות אמיתיים, אלא גם מפני שהאופן שבו אנחנו מתקשרים עם מערכות AI יעצב את מה שהן יהפכו להיות.

 

השאלה שנשארת פתוחה היא בכלל לא טכנולוגית אלא פילוסופית - כשה-AI ילמד להבדיל בין נכון ללא נכון, מי יחליט מה נכון?

הפוסט מי זו האישה שנתנה ל-AI נשמה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/amanda-askell/feed/ 0
המאבק על חוזי ה‑AI של הפנטגון מפגיש אתיקה, פוליטיקה, ביטחון לאומי ויריבות עסקית https://letsai.co.il/anthropic-pentagon-contract/ https://letsai.co.il/anthropic-pentagon-contract/#respond Sun, 08 Mar 2026 07:31:18 +0000 https://letsai.co.il/?p=70844 בסוף פברואר 2026, בתוך פרק זמן קצר, הפכה מערכת יחסים טכנולוגית ועסקית לסיפור מרכזי בזירה הפוליטית האמריקאית. מה שהתחיל כמשא ומתן שגרתי על תנאי שימוש במודל בינה מלאכותית צבאי התפתח במהירות לעימות מורכב בין שתי חברות AI מהמשפיעות בעולם, Anthropic ו‑OpenAI, ולדיון רחב יותר על גבולות הכוח של טכנולוגיות מתקדמות בעידן של מתחים גיאו פוליטיים. […]

הפוסט המאבק על חוזי ה‑AI של הפנטגון מפגיש אתיקה, פוליטיקה, ביטחון לאומי ויריבות עסקית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בסוף פברואר 2026, בתוך פרק זמן קצר, הפכה מערכת יחסים טכנולוגית ועסקית לסיפור מרכזי בזירה הפוליטית האמריקאית. מה שהתחיל כמשא ומתן שגרתי על תנאי שימוש במודל בינה מלאכותית צבאי התפתח במהירות לעימות מורכב בין שתי חברות AI מהמשפיעות בעולם, Anthropic ו‑OpenAI, ולדיון רחב יותר על גבולות הכוח של טכנולוגיות מתקדמות בעידן של מתחים גיאו פוליטיים. במרכז האירועים עומד חוזה בשווי 200 מיליון דולר, אך מאחוריו מסתתרת שאלה עמוקה בהרבה: כיצד מאזנים בין חדשנות טכנולוגית, עקרונות מוסריים, אינטרסים עסקיים ולחצים פוליטיים, במיוחד כאשר כל הצדדים פועלים בתוך מערכות ביטחוניות רגישות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

קווים אדומים מול דרישות ממשלתיות

הסיפור החל כאשר Anthropic, שסיפקה לפנטגון את מודל Claude לשימושים מסווגים, נכנסה למו״מ על עדכון תנאי ההתקשרות. Claude כבר היה חלק מרכזי במערכות מודיעין וניתוח מבצעי, כולל בהקשרים הקשורים למבצעים מול איראן, עובדה שהפכה את המשא ומתן לרגיש במיוחד.

 

בשלב הזה התברר שהפערים בין הצדדים עמוקים. Anthropic התעקשה על שני קווים אדומים: איסור שימוש בטכנולוגיה למעקב המוני אחרי אזרחים אמריקאים, ואיסור שילוב המודל בנשק אוטונומי קטלני. מבחינת החברה, אלו אינם סעיפים טכניים אלא עקרונות יסוד.

 

מנגד, הפנטגון ביקש נוסח רחב בהרבה שלפיו ניתן יהיה להשתמש בטכנולוגיה לכל מטרה חוקית. זה ניסוח מקובל בחוזים ממשלתיים, אבל בהקשר של AI מתקדם הוא מעורר שאלות מורכבות, משום שהגדרת חוקי עשויה להשתנות בין ממשלים והמשמעות המעשית של ההגדרה אינה תמיד ברורה. כאן נוצרה נקודת השבר.

מהלך חריג שמסמן אובדן אמון

לאחר ש‑Anthropic סירבה לוותר על הקווים האדומים שהציבה, המשא ומתן קרס. בתוך שעות ספורות הנשיא דונלד טראמפ הורה לכל הסוכנויות הפדרליות להפסיק להשתמש בטכנולוגיות של החברה, ושר ההגנה פיט הגסת' (Pete Hegseth) הכריז עליה כסיכון בשרשרת האספקה.

 

זה צעד חריג שמבטא לא רק מחלוקת חוזית אלא גם אובדן אמון עמוק. ההחלטה עוררה הד תקשורתי מיידי, בין היתר משום שהטכנולוגיה של Anthropic כבר הייתה משולבת עמוק במערכות מסווגות והחלפתה אינה תהליך פשוט.

OpenAI נכנסת לתמונה

אל תוך הוואקום שנוצר נכנסה OpenAI. מנכ״ל החברה, סם אלטמן (Sam Altman), חתם על הסכם חלופי עם הפנטגון כמעט מיד לאחר קריסת המו״מ עם Anthropic. מבחינה עסקית זה היה מהלך מהיר ומחושב - OpenAI זכתה בחוזה משמעותי, והפנטגון קיבל המשכיות תפעולית ללא עיכובים.

 

עם זאת, המהלך עורר שאלות. חלק מהמבקרים תהו האם OpenAI העניקה לממשל גישה רחבה מדי לטכנולוגיה שלה. אלטמן טען שההסכם כולל מנגנוני הגנה טכניים שמונעים שימוש לרעה, ושאין פער מהותי בין עמדת OpenAI לבין הקווים האדומים שהציבה Anthropic.

 

אלא שהניסוח המשפטי של החוזה, המאפשר שימוש בטכנולוגיה לכל מטרה חוקית, מותיר מקום לפרשנות. מומחים ציינו כי גם אם קיימים מנגנוני הגנה טכניים, הם אינם תחליף למגבלות משפטיות ברורות, במיוחד בסביבה שבה חוקים ונהלים עשויים להשתנות.

התגובה של Anthropic

ב‑Anthropic ראו במהלך לא רק פער מקצועי אלא גם פער עקרוני. מנכ״ל החברה, דריו אמודיי (Dario Amodei), הפיץ לעובדיו מכתב פנימי שבו טען שההסכם של OpenAI מציג תיאטרון בטיחות, כלומר מנגנוני הגנה שנראים טוב כלפי חוץ אך אינם מספקים הגנה אמיתית לאורך זמן.

 

אמודיי גם ביקר את האופן שבו הוצג ההסכם לציבור, וטען שהמסרים סביבו מבלבלים ואף לא מדויקים. המכתב דלף במהירות לתקשורת והפך את המחלוקת העסקית למאבק פומבי בין שתי החברות.

 

חשוב להדגיש שחלק מהטענות ההדדיות אינן ניתנות לאימות מלא. מדובר בתחום שבו חלק מהמידע מסווג וחלק אחר מבוסס על הצהרות פומביות, הדלפות ומסרים של יחסי ציבור. מה שכן מאומת הוא עצם קריסת המו״מ, הצעדים הממשלתיים שננקטו בעקבותיו והעובדה ש‑OpenAI אכן קיבלה את החוזה החלופי.

חזרה לשולחן המו"מ

למרות העימות הפומבי, Anthropic מצאה את עצמה במצב מורכב. מצד אחד היא עמדה על עקרונותיה, ומצד אחר איבדה חוזה משמעותי והסתכנה בפגיעה ארוכת טווח במעמדה מול הממשל.

לכן, ב‑5 במרץ, דריו אמודיי חזר לשולחן המו״מ בניסיון למצוא פתרון ביניים. האפשרויות שנבחנות כוללות תקופת מעבר של שישה חודשים או נוסח פשרה שיאפשר המשכיות מבצעית. לפי דיווחים, השיחות מתקיימות מול אמיל מייקל (Emil Michael), תת שר ההגנה למחקר והנדסה, ומטרתן למנוע זעזוע תפעולי במערכות שכבר מסתמכות על Claude.

הציבור מגיב

במקביל, הציבור הגיב במהירות. אפליקציית קלוד זינקה למקום הראשון בחנות האפליקציות של אפל בארצות הברית, עם מאות אלפי הורדות ביום אחד. שיעור המשתמשים הפעילים עלה בעשרות אחוזים, ומספר המנויים בתשלום הוכפל - בין היתר בעקבות ההשקות של Claude CoWork והנגשת יכולות הקוד גם למשתמשים שאינם טכניים.

 

מנגד, מספר גדול של משתמשי ChatGPT הסירו את האפליקציה מהטלפון או ביטלו חשבון/מנוי (וזה אל מול המספר של שבירת שיא משתמשים פעילים). קשה לדעת אם מדובר בתגובה רגשית קצרה או בתחילתה של מגמה ארוכת טווח, אך ברור שהעימות הפוליטי והעסקי השפיע גם על התפיסה הציבורית.

סיפור שעדיין נכתב

הסיפור הזה רחוק מסיום. זה סיפור מרתק שמשלב טכנולוגיה מתקדמת, שיקולים מוסריים, אינטרסים עסקיים, לחצים פוליטיים ומידע מסווג, תמהיל שמבטיח מציאות מורכבת יותר מכל הצהרה פומבית.

 

מה שכבר ברור הוא שהאירועים האחרונים מציבים מחדש את השאלה כיצד חברות AI צריכות לפעול כשהן הופכות לספקיות של תשתיות ביטחוניות, ומה קורה כאשר עקרונות טכנולוגיים נבחנים מול מציאות פוליטית.

 

בינתיים, הפנטגון, Anthropic ו‑OpenAI ממשיכים לנהל את המאבק על עיצוב גבולות השימוש ב‑AI צבאי. ההכרעות שיתקבלו בחודשים הקרובים עשויות להשפיע לא רק על החברות עצמן אלא על כל התעשייה, ואולי גם על האופן שבו מדינות יפעילו בינה מלאכותית בעתיד.

הפוסט המאבק על חוזי ה‑AI של הפנטגון מפגיש אתיקה, פוליטיקה, ביטחון לאומי ויריבות עסקית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-pentagon-contract/feed/ 0
האם GPT‑5.4 הוא מודל ה-AI הטוב בשוק כיום? https://letsai.co.il/gpt-5-4/ https://letsai.co.il/gpt-5-4/#respond Sat, 07 Mar 2026 07:51:08 +0000 https://letsai.co.il/?p=70823 יש רגעים בעולם הבינה המלאכותית שבהם ברור שמשהו משמעותי משתנה. ההשקה של GPT‑5.4 היא אחד מהרגעים האלה. לא בגלל הדגמות נוצצות או סיסמאות שיווקיות, אלא בגלל תחושה שחוזרת אצל מי שכבר עבדו איתו: המודל פשוט עובד טוב יותר. הוא מהיר יותר, מדויק יותר ובעיקר יציב, כזה שאפשר לסמוך עליו. OpenAI השיקה שני דגמים, GPT‑5.4 Thinking […]

הפוסט האם GPT‑5.4 הוא מודל ה-AI הטוב בשוק כיום? הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים בעולם הבינה המלאכותית שבהם ברור שמשהו משמעותי משתנה. ההשקה של GPT‑5.4 היא אחד מהרגעים האלה. לא בגלל הדגמות נוצצות או סיסמאות שיווקיות, אלא בגלל תחושה שחוזרת אצל מי שכבר עבדו איתו: המודל פשוט עובד טוב יותר. הוא מהיר יותר, מדויק יותר ובעיקר יציב, כזה שאפשר לסמוך עליו. OpenAI השיקה שני דגמים, GPT‑5.4 Thinking ו-GPT‑5.4 Pro, ושניהם יחד מציבים רף חדש. Matt Shumer, אחד הבטא טסטרים הבולטים, כתב שזו הפעם הראשונה שבה הוא כמעט לא משתמש בגרסת ה-Pro, משום שגם הגרסה הסטנדרטית מספקת תוצאות ברמה שלא ראה קודם. “המודל הכי טוב בעולם, בפער”, הוא אומר, והדבר תואם את מה שמדווחים רבים אחרים. הפעם, בניגוד להשקות קודמות, יש גם נתונים שמחזקים את התחושה הזו ומראים עד כמה השינוי רחב.

 

 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה בכלל היה צריך שינוי?

כדי להבין את המשמעות של GPT‑5.4, צריך לזכור מה חסם את הדורות הקודמים. המודלים ידעו לכתוב, להסביר ולנתח, אבל לא תמיד הצליחו לבצע משימות אמיתיות מקצה לקצה. הם יכלו להבריק במשימה אחת ולהתבלבל בבאה אחריה. reasoning עמוק היה מדויק, אך לעיתים איטי מדי.

 

נוסף על כך, נוצר פער בין היכולת לכתוב קוד לבין היכולת לבצע פעולות בעולם הדיגיטלי, כמו ניווט בממשקי מחשב, עבודה עם דפדפן או שימוש בכלים חיצוניים. הפער הזה הפך למשמעותי ככל שחברות ניסו לבנות סוכנים ואוטומציות. במצב כזה היה ברור שהמודלים צריכים לעבור שינוי - לא רק לתאר פתרון, אלא גם לבצע אותו בפועל. GPT‑5.4 פותח בדיוק כדי לענות על הצורך הזה.

 

סם אלטמן מסכם את המסר המרכזי של OpenAI לגבי GPT‑5.4

סם אלטמן מסכם את המסר המרכזי של OpenAI לגבי GPT‑5.4

מה GPT‑5.4 מביא לשולחן

GPT‑5.4 הוא מודל שנבנה לעבודה אמיתית. הוא יודע להפעיל סוכנים, לכתוב קוד, לגלוש ברשת, להשתמש במחשב ולבצע תהליכים מרובי שלבים, והכול במהירות גבוהה יותר, בדיוק רב יותר ועם פחות טעויות. הנתונים מהבלוג הרשמי של OpenAI מציגים קפיצה רחבה ומרשימה ביכולות, לא שיפור נקודתי.

 

הפעלת המודל החדש עם יכולת חשיבה סטנדרט/מורחב

הפעלת המודל החדש עם יכולות חשיבה (סטנדרטי/מורחב)

ביצועים במשימות מקצועיות

ב-GDPval, מבחן שמדמה עבודה של 44 מקצועות שונים, GPT‑5.4 מגיע ל-83 אחוז הצלחה, לעומת 70.9 אחוז בדור הקודם. הגרף המצורף מטה מדגים זאת היטב: גם GPT‑5.4 וגם גרסת ה-Pro שלו עוברים את רף הביצועים של מומחים אנושיים.

 

GPT‑5.4 מצטיין במשימות ידע מקצועיות

GPT‑5.4 מצטיין במשימות ידע מקצועיות | OpenAI

 

מעבר לכך, המודל מצטיין במיוחד במשימות משרדיות יומיומיות. הוא מגיע ל-87.3 אחוז הצלחה במשימות אקסל שמדמות אנליסט בנקאות השקעות, מייצר מצגות ש-68 אחוז מהשופטים האנושיים העדיפו על פני GPT‑5.2, ומפיק מסמכים מדויקים יותר עם פחות טעויות עובדתיות. זה שיפור שמרגישים בשימוש יומיומי רגיל, לא רק בבנצ'מרקים.

 

מבצע ניתוחים באקסל ברמה שמקרבת אותו לעבודה של אנליסט אמיתי

מבצע ניתוחים באקסל ברמה שמקרבת אותו לעבודה של אנליסט אמיתי

 

בפועל, GPT‑5.4 מבין טבלאות מורכבות, בונה נוסחאות בצורה מדויקת, מנתח נתונים רב-שלביים ומציע תובנות עסקיות ברמת עומק שהייתה שמורה עד היום לכלים ייעודיים או למומחים אנושיים. הוא גם שומר על עקביות לאורך משימות ארוכות, דבר שהיה אתגר משמעותי בדורות קודמים. השילוב הזה הופך אותו לכלי עבודה אמיתי, כזה שמפחית חיכוך ומקצר תהליכים במקום להוסיף עוד שכבת תיווך.

המודל שמפעיל את המחשב בשבילכם

אחת הקפיצות הבולטות ביותר היא ביכולות המחשב. GPT‑5.4 הוא המודל הראשון של OpenAI שמסוגל להפעיל מחשב באופן טבעי: ללחוץ על כפתורים, להקליד, לנווט בממשקים, לבצע פעולות מורכבות דרך Playwright (כלי אוטומציה לדפדפנים) ולהבין צילומי מסך. במבחן שמודד שימוש אמיתי במחשב, הוא מגיע ל-75 אחוז הצלחה ועוקף גם בני אדם.

 

יעילות של GPT‑5.4 בקוד ובביצוע משימות הנדסיות

יעילות של GPT‑5.4 בקוד ובביצוע משימות הנדסיות | OpenAI

יכולות ראייה מתקדמות

GPT‑5.4 תומך בתמונות ברזולוציה של עד 10.24 מיליון פיקסלים, מציג שיפור ביכולת לאתר פרטים קטנים ובדיוק הלחיצה על ממשקים, ומבין טוב יותר מסמכים מורכבים. ב-MMMU Pro, מבחן הבנה חזותית מתקדם, הוא מגיע ל-81.2 אחוז לעומת 79.5 אחוז בדור הקודם. ב-OmniDocBench, מבחן הבנת מסמכים, הוא מפחית את שיעור השגיאות באופן משמעותי. גם כאן, הגרף מציג את השיפור בצורה ברורה.

 

השוואת ביצועים בראייה ובהבנת מסמכים

השוואת ביצועים בראייה ובהבנת מסמכים | OpenAI

Tool Search

אחד החידושים הבולטים ב‑GPT‑5.4 הוא מנגנון Tool Search, שמאפשר למודל לאתר את הכלים הדרושים לו בזמן אמת במקום לקבל את כולם מראש. הגישה הזו מפחיתה ב‑47 אחוז את כמות הטוקנים הנדרשת לביצוע משימות, משפרת את מהירות העבודה ומאפשרת למודל להתמודד בקלות עם מערכות גדולות ומורכבות של כלים. זהו שינוי תשתיתי משמעותי, שמאפשר לבנות סוכנים מתקדמים יותר בעלות נמוכה יותר וביעילות גבוהה יותר.

 

שכבה עמוקה יותר של הגנה

OpenAI מקדישה חלק משמעותי לנושא הבטיחות, וב-GPT‑5.4 מוצגים כמה חידושים בולטים. המודל מסווג כבעל יכולות סייבר גבוהות, ולכן מופעלים עליו מנגנוני הגנה מחמירים יותר מאשר בדורות קודמים. אחד התחומים שנבדקו הוא היכולת של המודל להסתיר את שרשרת החשיבה שלו, במסגרת מבחן CoT Controllability.

 

הממצאים מראים ש-GPT‑5.4 Thinking מתקשה להסתיר את תהליך החשיבה הפנימי שלו, תכונה שנחשבת חיובית בהקשר של בטיחות, משום שהיא מאפשרת ניטור שקוף וברור יותר של אופן קבלת ההחלטות.

 

בנוסף לכך, OpenAI מציגה מערך מחוזק של מנגנוני חסימה: ניטור מתקדם, בקרות גישה הדוקות יותר, חסימה אסינכרונית לבקשות בעלות פוטנציאל סיכון, והפחתה ניכרת של טעויות עובדתיות. לפי הבלוג, GPT‑5.4 מפחית טעויות עובדתיות ב-33 אחוז לעומת GPT‑5.2, שיפור משמעותי במיוחד במשימות מקצועיות שבהן דיוק הוא תנאי בסיסי.

 

מאט שומר, אחד הבטא טסטרים הבולטים של OpenAI, משתף בציוץ חוויית שימוש יוצאת דופן ב‑GPT‑5.4

מאט שומר משתף בציוץ חוויית שימוש יוצאת דופן ב‑GPT‑5.4

תמחור וזמינות

Open AI מפרטים בצורה ברורה את זמינות הדגמים ואת מודל התמחור שלהם. GPT‑5.4 Thinking זמין למשתמשי Plus, Team ו‑Pro, בעוד GPT‑5.4 Pro מוצע למשתמשי Pro ו‑Enterprise. במקביל, GPT‑5.2 Thinking יישאר זמין למשך שלושה חודשים נוספים בלבד, ולאחר מכן יוסר מהמערכת. ב‑Codex, GPT‑5.4 כולל תמיכה ניסיונית בחלון הקשר של מיליון טוקנים, יכולת שמאפשרת לנתח קוד ארוך במיוחד או מסמכים מורכבים בצורה רציפה.

 

ב‑API, התמחור של GPT‑5.4 עומד על 2.50 דולר למיליון טוקנים בקלט ו‑15 דולר למיליון טוקנים בפלט. גרסת ה‑Pro מתומחרת ב‑30 דולר למיליון טוקנים בקלט ו‑180 דולר למיליון טוקנים בפלט. למרות המחיר הגבוה יותר, OpenAI מציינת שהמודל יעיל משמעותית, ולכן בפועל נדרש פחות שימוש בטוקנים כדי להשלים משימות מורכבות. היעילות הזו מאזנת חלק מהעלייה בעלות ומאפשרת למשתמשים לקבל יותר תמורה מכל בקשה.

 

 

מודל שמגדיר מחדש את הציפיות (ואת מאזן הכוחות)

GPT‑5.4 הוא לא עוד שדרוג, אלא ציון דרך שמסמן מעבר לעידן שבו בינה מלאכותית לא רק מייעצת אלא גם מבצעת. השילוב בין ביצועים גבוהים, מהירות, עקביות ויכולות פעולה מעשיות הופך אותו לכלי תפעולי של ממש. הוא מצטיין במשימות מקצועיות, מפעיל מחשבים, מבין תמונות ומסמכים, משתמש בכלים בצורה יעילה ומציג שיפורים משמעותיים בבטיחות. זה מודל שמחזיר את OpenAI לקדמת הבמה, אחרי תקופה שבה המתחרות - גוגל ואנטרופיק - תפסו את מרכז תשומת הלב עם השקות מרשימות משלהן.

הפוסט האם GPT‑5.4 הוא מודל ה-AI הטוב בשוק כיום? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gpt-5-4/feed/ 0
GPT‑5.3 Instant מתמקד בחוויית השימוש https://letsai.co.il/gpt%e2%80%915-3-instant/ https://letsai.co.il/gpt%e2%80%915-3-instant/#respond Fri, 06 Mar 2026 07:20:19 +0000 https://letsai.co.il/?p=70795 בעולם שבו מודלי שפה גדולים הפכו לחלק טבעי מהתשתית הדיגיטלית, המאבק המרכזי כבר אינו על שיפור נוסף בביצועים אקדמיים. המשתמשים, בין אם הם אנשי מקצוע, מפתחים או צרכנים, מחפשים משהו אחר: מודל שמרגיש טבעי, שמבין את הכוונה, שלא מתנצל ללא צורך ושיודע לעצור במקום להמציא תשובה כשהוא לא בטוח. במרץ 2026 OpenAI כיוונה בדיוק לנקודה […]

הפוסט GPT‑5.3 Instant מתמקד בחוויית השימוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם שבו מודלי שפה גדולים הפכו לחלק טבעי מהתשתית הדיגיטלית, המאבק המרכזי כבר אינו על שיפור נוסף בביצועים אקדמיים. המשתמשים, בין אם הם אנשי מקצוע, מפתחים או צרכנים, מחפשים משהו אחר: מודל שמרגיש טבעי, שמבין את הכוונה, שלא מתנצל ללא צורך ושיודע לעצור במקום להמציא תשובה כשהוא לא בטוח. במרץ 2026 OpenAI כיוונה בדיוק לנקודה הזו עם GPT‑5.3 Instant, עדכון שמעדיף זרימה אנושית של שיחה על פני עוד שכבת כוח חישובי. זה שינוי כיוון ברור, שמציב במרכז לא את השאלה מי המודל החכם ביותר, אלא מי המודל שנעים באמת לעבוד איתו.

 

GPT‑5.3 Instant

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

האתגרים שממשיכים ללוות את מודלי השפה

למרות ההתקדמות המרשימה של הדורות הקודמים, משתמשים המשיכו להיתקל בשלוש תופעות שחוזרות שוב ושוב ומפריעות לשימוש יומיומי חלק. הראשונה היא סירובים לא נחוצים, אותם רגעים שבהם המודל נמנע מלהשיב גם כשאין לכך סיבה ממשית.

 

השנייה היא טון מגונן או מטיף, שמופיע לעיתים גם בבקשות פשוטות ויוצר תחושה של הרצאה במקום שיחה טבעית.

 

השלישית היא הזיות, כלומר תשובות שנשמעות בטוחות אך אינן נכונות. עבור ארגונים שמסתמכים על מודלים בתהליכי עבודה, כל אחת מהתופעות הללו מייצרת עלות: זמן בדיקה, תיקונים, ולעיתים גם מבוכה מול לקוחות.

הפתרון של GPT‑5.3 Instant

GPT‑5.3 Instant פותח כדי להתמודד ישירות עם נקודות הכאב שהמשתמשים חווים כבר שנים. OpenAI מציגה אותו כמודל שמעדיף דיאלוג זורם על פני נוקשות, ושם את הדגש על אמינות במקום על ביטחון עצמי שאינו מגובה בנתונים. המטרה היא להפוך את השיחה עם המודל לפחות מאומצת ויותר אינטואיטיבית.

ירידה בהזיות

בהערכות פנימיות של OpenAI נמדדה ירידה משמעותית בהזיות: 26.8 אחוז בתרחישי סיכון גבוה כשהמודל משתמש ב‑web, ו‑19.7 אחוז כשהוא מסתמך על הידע הפנימי בלבד. גם בהערכות מבוססות משתמשים נרשמה מגמה דומה, עם ירידה של 22.5 אחוז בעת שימוש ב‑web ו‑9.6 אחוז ללא web. הנתונים מצביעים על שיפור ממשי ביכולת של המודל להימנע מתשובות שגויות שנשמעות בטוחות מדי.

הפחתת סירובים לא נחוצים

המודל החדש מפחית סירובים ומוותר על שכבות של הסתייגויות שאינן תורמות לשיחה. הוא נוטה לענות בצורה ישירה וברורה יותר, ומציג טון ענייני ופחות מתגונן. TechRadar תיאר את השינוי כמודל “פחות קרינג’”, ניסוח שממחיש היטב את השיפור בתחושת השיחה.

שיפור ביכולות החיפוש

במקום להחזיר רשימת לינקים יבשה, GPT‑5.3 Instant מספק הקשר רחב יותר: הוא מסביר מה חשוב, מדגיש את המידע הרלוונטי, ומחבר בין תוצאות מה‑web לבין הידע הפנימי שלו. התוצאה היא תשובה שמרגישה שלמה יותר, ולא אוסף מקורות מפוזר.

 

מודל שמעדיף להודות כשהוא לא יודע

ה-System Card של GPT‑5.3 Instant מצביע על שיפור ברור ביכולת לזהות מצבים שבהם חסר מידע, לעצור, ולבקש הבהרה במקום לנסות להשלים פערים באמצעות ניחוש. זהו שינוי התנהגותי משמעותי, משום שמודל שמסוגל להודות בחוסר ודאות הוא מודל שאפשר לבסס עליו תהליכי עבודה אמינים יותר. במקום לייצר תשובה שנשמעת בטוחה אך אינה מבוססת, הוא בוחר להאט, לשאול, ולדייק.

 

OpenAI מציינת שהמודל שומר על אורך תשובות דומה לדור הקודם, אך התוכן עצמו מדויק יותר, מחובר יותר להקשר ומותאם טוב יותר לצרכים של המשתמש. השילוב בין זהירות במקום הנכון לבין בהירות בתשובה יוצר חוויית שימוש יציבה יותר, כזו שמפחיתה טעויות ומעלה את רמת האמון בשיחה.

השוואה לדור הקודם

GPT‑5.2 Instant, שהושק בפברואר 2026, כבר שיפר את הסגנון והדיוק והציג תשובות מדודות וממוקדות יותר. GPT‑5.3 Instant מרחיב את המגמה הזו ומוסיף לה שכבת עומק התנהגותית. בעוד GPT‑5.2 התמקד בעיקר ב"איך לנסח טוב יותר", GPT‑5.3 מתמקד ב"איך לדבר טוב יותר". זה מעבר מהנדסה של טקסט להנדסה של חוויה, שינוי שממקם את השיחה עצמה במרכז.

למי זה זמין

OpenAI החלה להטמיע את GPT‑5.3 Instant כברירת המחדל בשיחות ב‑ChatGPT, במהלך rollout הדרגתי שמגיע בהמשך לכלל המשתמשים המחוברים. בסביבות ארגוניות כמו ChatGPT Enterprise ו‑Edu המודל כבוי כברירת מחדל, ומנהלים צריכים להפעיל אותו ידנית דרך Early Model Access. ב‑API המודל זמין תחת השם gpt‑5.3‑chat‑latest, עם חלון הקשר של 128,000 טוקנים.

הקשר תחרותי

ההשקה של GPT‑5.3 Instant מגיעה בתקופה שבה התחרות בין OpenAI, Google ו‑Anthropic מתחדדת, וכל אחת מהחברות מציגה תפיסה שונה לגבי מהי אינטליגנציה שימושית בעידן של מודלים גדולים.

 

Google ממשיכה להתמקד ביעילות וביכולת להתמודד עם עומסים גבוהים, עם מודלים כמו Gemini 3.1 Flash‑Lite שנבנו כדי לשרת כמויות עצומות של בקשות בעלות נמוכה ומהירות גבוהה. אלו מודלים שמכוונים בעיקר לתפוקה, לא בהכרח לניהול שיחה עשירה או רבת הקשר.

 

Anthropic בוחנת כיוון אחר לגמרי ומתמקדת בעומק. בדגמים כמו Claude Opus 4.6 ו‑Sonnet 4.6 החברה מנסה להרחיב את גבולות הקונטקסט, עם חלונות של עד מיליון טוקנים בתצורות בטא. היכולת הזו מתאימה למשימות ארוכות, עבודה עם סוכנים ותהליכי תכנון מורכבים שבהם נדרש להבין ולשמר כמויות גדולות של מידע לאורך זמן.

 

OpenAI מציגה גישה שלישית. במקום להתחרות על המהירות הגבוהה ביותר או על חלון הקשר הגדול ביותר, GPT‑5.3 Instant מתמקד בחוויית השיחה עצמה. הוא נועד להיות המודל שהכי קל ונעים לעבוד איתו, כזה שמפחית חיכוך, מגיב באופן טבעי ומספק תשובות אמינות יותר. זהו כיוון שממקם את איכות האינטראקציה במרכז, ולא רק את היכולות הטכניות.

למה זה חשוב עכשיו

GPT‑5.3 Instant מסמן שינוי כיוון ברור. במקום להתמקד בשאלה מי המודל החכם ביותר, OpenAI מעבירה את מרכז הכובד לשאלה מי המודל השימושי ביותר בפועל. הגישה הזו מתבטאת בשורה של שיפורים התנהגותיים. 

 

המשמעות של השינוי הזה גדלה עוד יותר על רקע היקף השימוש הנוכחי. לפי נתוני OpenAI, הצ׳אט שלהם הגיע ל-900 מיליון משתמשים פעילים בשבוע, לצד 50 מיליון מנויים משלמים, זינוק של מאה מיליון משתמשים מאז סוף 2025. בקנה מידה כזה, כל שיפור קטן בחיכוך השיחתי מתורגם להשפעה עצומה על פרודוקטיביות וחוויית שימוש. בעולם שבו מודלים הופכים לחלק מהעבודה היומיומית של מאות מיליוני אנשים, שדרוג כזה מורגש בכל אינטראקציה.

הפוסט GPT‑5.3 Instant מתמקד בחוויית השימוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gpt%e2%80%915-3-instant/feed/ 0
NotebookLM של גוגל מציג 10 סגנונות אינפוגרפיקה חדשים https://letsai.co.il/notebooklm-infographic-styles/ https://letsai.co.il/notebooklm-infographic-styles/#respond Thu, 05 Mar 2026 07:41:17 +0000 https://letsai.co.il/?p=70711 NotebookLM, כלי המחקר של גוגל שהתפרסם בזכות יכולתו להפוך הררי מסמכים לפודקאסטים קוליים, עושה כעת קפיצת מדרגה משמעותית לעולם הוויזואלי. החל מתחילת מרץ 2026, המערכת מציעה 10 סגנונות עיצוב חדשים ליצירת אינפוגרפיקות - שדרוג מהותי ליכולת הבסיסית שהושקה בנובמבר 2025. מה שהתחיל כפורמט גנרי ובודד, הבשיל לכלי פרקטי המאפשר התאמה אישית אמיתית.   Custom styles […]

הפוסט NotebookLM של גוגל מציג 10 סגנונות אינפוגרפיקה חדשים הופיע ראשון בLet's AI בינה מלאכותית

]]>

NotebookLM, כלי המחקר של גוגל שהתפרסם בזכות יכולתו להפוך הררי מסמכים לפודקאסטים קוליים, עושה כעת קפיצת מדרגה משמעותית לעולם הוויזואלי. החל מתחילת מרץ 2026, המערכת מציעה 10 סגנונות עיצוב חדשים ליצירת אינפוגרפיקות - שדרוג מהותי ליכולת הבסיסית שהושקה בנובמבר 2025. מה שהתחיל כפורמט גנרי ובודד, הבשיל לכלי פרקטי המאפשר התאמה אישית אמיתית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

עשרה סגנונות, כל אחד עם שפה ויזואלית אחרת

הסגנונות מכסים טווח רחב. בצד המקצועי יש Instructional, שמציע פריסה של שלבים למדריכים ותהליכים, Professional עם עיצוב נקי ועסקי, ו-Scientific שבנוי כמו עמוד בספר לימוד ומתאים לתוכן חינוכי. Editorial מביא עיצוב בהשראת עיתונות מגזינית, ו-Sketch מדמה ציור ביד למי שמחפש אווירה פחות פורמלית.

 

בצד המשחקי יש Kawaii, שובב וקליל, Anime עם ויזואליה בסגנון אנימציה יפנית, ו-Clay שמייצר מראה תלת-ממדי בסגנון פלסטלינה. Bento Grid מחלק את המידע לקטעים מסודרים כמו קופסת בנטו, ו-Bricks מציע עיצוב בלוקי בהשראת לגו.

 

מעבר לעשרת הסגנונות הקבועים, יש שתי אפשרויות נוספות: Auto-select, שבה המערכת בוחרת את הסגנון לפי התוכן, ו-Custom, שמאפשרת לתאר בטקסט חופשי את העיצוב הרצוי.

איך זה עובד בפועל

התהליך פשוט ומוכר למי שעובד עם NotebookLM באופן קבוע. מעלים מסמכים לאיזור המקורות (Sources), בוחרים דרך הסטודיו (Studio) ביצירת אינפוגרפיקה, ואז בוחרים סגנון. המערכת מנתחת את התוכן ומייצרת אינפוגרפיקה שמסדרת את המידע בצורה ויזואלית. אפשר להגדיר גם כיוון (לרוחב, לאורך או ריבוע), רמת פירוט ושפה.

 

לבחור אינפוגרפיקה דרך איזור הסטודיו

לבחור אינפוגרפיקה דרך איזור הסטודיו

 

בסגנון Custom, המשתמש מתאר בטקסט חופשי מה הוא רוצה, למשל "אינפוגרפיקה בצבעי פסטל עם אייקונים מינימליסטיים", והמערכת מייצרת עיצוב בהתאם. אפשרות שימושית למי שרוצה להתאים את התוצר למיתוג קיים או לסגנון ספציפי.

 

אפשר לבחור סגנון מובנה וגם לתאר מה אתם רוצים

אפשר לבחור סגנון מובנה וגם לתאר מה אתם רוצים

 

התוכן של האינפוגרפיקה נשאב אך ורק מהמסמכים שהמשתמש העלה. NotebookLM לא מושך מידע מהאינטרנט ולא ממציא נתונים. האינפוגרפיקה שתקבלו משקפת את החומר שלכם, לא פרשנות חופשית של מודל שפה. זו הבטחה שמלווה את הכלי מהיום הראשון, והיא תקפה גם כאן.

למי זה מועיל

הסגנונות השונים פותחים את הכלי לשימושים שעד עכשיו דרשו עבודה עם כלי עיצוב נפרד. מורה שרוצה להפוך פרק בספר לימוד לחומר ויזואלי יכול לבחור Scientific. מנהלת שיווק שמכינה ניוזלטר תמצא את Professional או Editorial מתאימים. סטודנט שמסכם מאמר אקדמי יכול לבחור Instructional ולקבל סיכום ויזואלי מיידי. גם עצמאים ובעלי עסקים קטנים יכולים להפיק תועלת כמו העלאה של מסמך אסטרטגיה כאינפוט וקבלת אינפוגרפיקה מסודרת למצגת כאאוטפוט, בלי לפתוח תוכנת עיצוב.

 

השימוש הבולט הוא בהפיכת מסמכים ארוכים לתמצית ויזואלית. במקום לקרוא דוח שלם, אפשר לייצר אינפוגרפיקה שמציגה את הנקודות המרכזיות בעמוד אחד. זה לא תחליף לקריאה מלאה, אבל דרך טובה לקבל תמונה ראשונית, להציג תובנות בצורה ויזואלית וממוקדת או לשתף ממצאים.

זמינות

הפיצ'ר הבסיסי של אינפוגרפיקות זמין לכלל המשתמשים. 10 סגנונות העיצוב החדשים מתגלגלים בהדרגה ועדיין לא נגישים לכולם. גוגל הכריזה עליהם רשמית ב-2 במרץ 2026 דרך חשבון NotebookLM ב-X.  באפליקציית המובייל של NotebookLM ב-Android וב-iOS אפשר כבר מפברואר 2026 ליצור ולהתאים אינפוגרפיקות. חלק מהפיצ'רים האחרים, כמו Mind Map ו-Data Table, עדיין חסרים באפליקציה.

מכלי סיכום לכלי הצגה

מה שהתחיל ככלי טקסט בלבד, כבר מזמן הופך מסמכים לפודקאסטים והתגלה כאחד הכלים הטובים של גוגל. במהלך 2025 הוא הוסיף וידאו, שקפים, אינפוגרפיקות וטבלאות נתונים. סגנונות העיצוב של מרץ 2026 ממשיכים בדיוק את אותו הכיוון: הכלי כבר יודע לעבד מידע - ועכשיו הוא לומד גם להציג אותו בצורה יפה.

 

עד כמה הוא באמת יכול להחליף מעצב? לאינפוגרפיקה אוטומטית יש מקום מצוין בניוזלטר פנימי, בסיכום מחקר או בדשבורד מהיר. אבל כשמדובר בתוצר שפונה ללקוחות - עדיין יש פער. מעצב אמיתי מביא טעם, הבנה של מיתוג, רגש והקשר - דברים ש-AI עדיין מחקה, לא ממציא.

 

בינתיים, עבור רובנו המוחלט שלא זקוק למעצב צמוד לכל משימה - מדובר בשדרוג נהדר, חינמי וקל לתפעול שפשוט חוסך שעות של עבודה.

הפוסט NotebookLM של גוגל מציג 10 סגנונות אינפוגרפיקה חדשים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/notebooklm-infographic-styles/feed/ 0
איך לגרום ל-AI לענות קצר ולעניין https://letsai.co.il/stop-ai-fluff/ https://letsai.co.il/stop-ai-fluff/#respond Wed, 04 Mar 2026 06:52:12 +0000 https://letsai.co.il/?p=70661 "תהיה תמציתי." זו כנראה ההנחיה הנפוצה ביותר שאנשים כותבים כשהם מקבלים תשובה ארוכה מדי מ-ChatGPT. והיא כמעט אף פעם לא עובדת. לא בגלל שהמודל מתעלם, אלא בגלל שאין לו מושג מה "תמציתי" אומר בעיניכם. בשבילו, תמציתי זה אולי לגלח כמה מילים ולהמשיך הלאה. בשבילכם, זה משפט אחד ישר לעניין. מי שהשתמש ב-ChatGPT או ב-Claude מכיר […]

הפוסט איך לגרום ל-AI לענות קצר ולעניין הופיע ראשון בLet's AI בינה מלאכותית

]]>

"תהיה תמציתי." זו כנראה ההנחיה הנפוצה ביותר שאנשים כותבים כשהם מקבלים תשובה ארוכה מדי מ-ChatGPT. והיא כמעט אף פעם לא עובדת. לא בגלל שהמודל מתעלם, אלא בגלל שאין לו מושג מה "תמציתי" אומר בעיניכם. בשבילו, תמציתי זה אולי לגלח כמה מילים ולהמשיך הלאה. בשבילכם, זה משפט אחד ישר לעניין. מי שהשתמש ב-ChatGPT או ב-Claude מכיר את המבנה: פתיחה ארוכה שלא מוסיפה כלום, אחריה הסתייגויות זהירות, ואז סיכום שחוזר על מה שכבר נאמר. התשובה בפועל קבורה באמצע, בין כל השכבות שמסביב. יש שיטה לתקן את זה, והיא עובדת בשלוש שכבות: לפני השיחה, בתוכה, ואחריה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה AI כותב יותר מדי

כדי להבין את הפתרון, שווה להבין את הבעיה. מודלי AI מאומנים על כמויות עצומות של טקסט מהאינטרנט, שמטבעו נוטה לאורך. בנוסף, בשלב האימון שבו בני אדם מדרגים תשובות (למידה מפידבק של בני אנוש או RLHF), תשובות ארוכות יותר קיבלו שוב ושוב ציונים גבוהים יותר. התוצאה היא שהמודל פיתח הרגל עמוק שקשה לעקור - יותר מילים שווה ציון טוב יותר.

 

"שחיקת זיכרון" או "קריסת ההקשר"

"שחיקת זיכרון" או "קריסת ההקשר"

 

ויש בעיה נוספת שרוב האנשים לא שמים לב אליה. ככל שהמודל מייצר יותר טקסט, מה שהוא מחזיק בזיכרון הפעיל מתמלא ברעש. אחרי עשר עד חמש עשרה הודעות בשרשור ארוך, המודל פשוט פחות חד. לא כי הוא "עייף", אלא כי הוא טובע בתוך המלל שהוא עצמו יצר, כלומר, ככל שאתם מנהלים עם ה-AI שיחה ארוכה יותר באותו חלון, כך הוא 'זוכר' יותר מילים מיותרות מהעבר ומתחיל לאבד את הפוקוס שלו. התוצאה: התשובות הופכות לפחות חכמות ופחות מדויקות.

שכבה ראשונה: לקבוע כללים מראש

הדרך הכי יעילה לקצר תשובות היא לקבוע כללים לפני שהשיחה מתחילה. ChatGPT, Claude ו-Gemini מאפשרים להגדיר הנחיות קבועות שהמודל קורא לפני שהוא עונה לכם. אפשר לעשות את זה בתוך הפרויקטים (Projects) של הבוטים, דרך Custom GPTs, Gemini Gems, וכמובן דרך Custom Instructions שנמצאים בהגדרות הראשיות של החשבון. שני עקרונות עובדים כאן:

 

הראשון - הגדרות מדויקות, לא מעורפלות. במקום "תהיה תמציתי", כתבו: "שאלות פשוטות - תשובה של משפט עד שניים. שאלות בינוניות - שלושה עד חמישה משפטים. שאלות מורכבות - פסקה אחת ומקסימום חמש נקודות." ההבדל: במקום מילה סובייקטיבית שהמודל מפרש לבד, נתתם לו מספרים. הוא לא צריך לפרש מה אתם רוצים, רק למלא.

 

השני - הנחיות חיוביות, לא שליליות. "אל תכתוב הקדמות ארוכות" לא עובד כמו שחושבים. נסו להגיד למישהו "אל תחשוב על סוס ורוד" - הדבר הראשון שקורה הוא שהסוס הורוד קופץ לראש. עם AI זה אותו דבר. הנחיה שלילית לפעמים מושכת את תשומת הלב דווקא לדבר שניסיתם למנוע. מה כן עובד: "התחילו ישר בתשובה", "כתבו משפטים קצרים והצהרתיים", "פתחו בנקודה הכי חשובה." כיוון ברור (״מה כן״) תמיד יעיל יותר מהנחיה מעורפלת.

שכבה שנייה: לכפות פורמט

גם עם כללים ברקע, ההנחיה הספציפית שכותבים משפיעה על אורך התשובה. הטריק הוא לכפות על המודל פורמט שלא מאפשר יותר מדי מלל. פורמטים כמו טבלאות ורשימות מוגבלות לא משאירים מקום להרחבות מיותרות, סיכומים או משפטי גישור - הם מכריחים את המודל להגיש מידע רלוונטי ונקודתי.

 

למשל, במקום לשאול "מה ההבדלים בין העסקת צוות שיווק פנימי לבין סוכנות חיצונית?" כתבו "בנה טבלת השוואה עם העמודות האלה: עלות, שליטה, מהירות, מומחיות." במקום "תסביר לי את הנושא" בקשו "רשימה של מקסימום חמישה סעיפים, עד 20 מילים לכל אחד." אפשר גם לבקש שלבים ממוספרים עם הגבלת משפטים בכל שלב. העיקרון הוא שברגע שקובעים מסגרת, אין מקום לרעש.

שכבה שלישית: לתקן בדיעבד

לפעמים עשיתם הכל נכון, והתשובה עדיין ארוכה מדי. אפשר לתקן גם אחרי שהתשובה הגיעה.

 

כתבו בצ׳אט: "קצרו ב-50%, הסירו כל הכללה, השאירו רק משפטים קצרים וחדים." שלושה דברים ספציפיים: כמה לקצר, מה להסיר, ואיך לכתוב. הנחיה מדידה עובדת הרבה יותר טוב מ-"תקצר."

כלי מחקר מעמיק

כשמדברים על כלי מחקר מעמיק כמו Deep Research, אלה נוטים כברירת מחדל להפיק דוחות מפורטים, משום שהם מיועדים לאיסוף רחב של מקורות, הצלבה והצגת הקשר מלא ולא רק לספק תשובה קצרה, אבל אין כאן מנגנון שמחייב אורך ואי אפשר לשלוט בו, וברוב המקרים ניתן מראש לבקש תקציר, להגדיר אורך רצוי או להתמקד בממצאים מעשיים בלבד.

 

אם כבר התקבל דוח ארוך מדי, דרך יעילה היא להעתיק אותו לשיחה חדשה ולהנחות את המודל לחלץ רק מסקנות יישומיות ולהסיר רקע, משום ששינוי ההקשר מגדיר מחדש את מטרת העיבוד ומחדד את הפלט, ולפעמים, כאשר השאלה ממוקדת ופשוטה, חיפוש רגיל עם מודל מתקדם עשוי לספק תוצאה איכותית ותמציתית דומה, אך בנושאים מורכבים או כאלה הדורשים הצלבת מקורות שיטתית, כלי מחקר ייעודי עשוי להניב תוצאה מקיפה ומדויקת יותר.

איפה מעדכנים את הכללים

איפה לכתוב את הכללים מהשכבה הראשונה? יש שתי אפשרויות - בתוך פרויקט ספציפי (כמו GPT מותאם או Claude Project) או בהגדרות הכלליות של החשבון.

 

הנחיות מותאמות אישית לבוט

הנחיות בהגדרות הכלליות של החשבון

 

ההמלצה היא להתחיל מההגדרות הכלליות. כשכותבים כללים בתוך פרויקט ספציפי, הם עובדים רק כשפותחים את הפרויקט הספציפי. כשכותבים אותם ב-Custom Instructions של ChatGPT או Claude, שנמצאים ישר בהגדרות הראשיות, הם חלים אוטומטית על כל שיחה. אין צורך לזכור לעבור לכלי הנכון, אין חיכוך והבסיס אחיד.

 

הנחיות בסביבות מבודדות

הנחיות בתוך פרויקט ספציפי או ״סביבה מבודדת״

מה עושים עכשיו

הצעד הראשון לוקח דקה. היכנסו להגדרות של המודל הקרוב לביתכם, כנסו ל-Custom Instructions, וכתבו שם שלושה כללים ברורים: הגדרת אורך לשאלות פשוטות, הגדרת אורך לשאלות מורכבות, והנחיה להתחיל ישר בתשובה. אחרי זה, בפעם הבאה שהתשובה עדיין ארוכה מדי, תגדירו פורמט מועדף או חדדו בדיוק מה אתם רוצים. שלוש שכבות, כל אחת עובדת לבד, וביחד ההבדל מורגש מיד.

הפוסט איך לגרום ל-AI לענות קצר ולעניין הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/stop-ai-fluff/feed/ 0
מה אנחנו יודעים על אוטונומיה, פיקוח וסיכון של סוכני AI בעולם האמיתי https://letsai.co.il/anthropic-agent-behavior-study/ https://letsai.co.il/anthropic-agent-behavior-study/#respond Tue, 03 Mar 2026 07:09:11 +0000 https://letsai.co.il/?p=70615 מחקר חדש של אנטרופיק (Anthropic), המבוסס על מיליוני אינטראקציות עם סוכני AI, מגלה דפוס עקבי: ככל שהמשתמשים צוברים ניסיון, הם מעניקים לסוכנים יותר חופש פעולה אבל ממשיכים לפקח עליהם באמצעות התערבות נקודתית. בעולם שבו סוכני AI הופכים לכלי עבודה שגרתי, השאלה המרכזית היא לא רק מה הם מסוגלים לבצע אלא כיצד אנשים משתמשים בהם בפועל. […]

הפוסט מה אנחנו יודעים על אוטונומיה, פיקוח וסיכון של סוכני AI בעולם האמיתי הופיע ראשון בLet's AI בינה מלאכותית

]]>
מחקר חדש של אנטרופיק (Anthropic), המבוסס על מיליוני אינטראקציות עם סוכני AI, מגלה דפוס עקבי: ככל שהמשתמשים צוברים ניסיון, הם מעניקים לסוכנים יותר חופש פעולה אבל ממשיכים לפקח עליהם באמצעות התערבות נקודתית. בעולם שבו סוכני AI הופכים לכלי עבודה שגרתי, השאלה המרכזית היא לא רק מה הם מסוגלים לבצע אלא כיצד אנשים משתמשים בהם בפועל. הנתונים מראים שמשתמשים מנוסים מפחיתים את הצורך לאשר כל פעולה, עוברים לניטור רציף ומתערבים רק כשמשהו דורש תיקון או שינוי כיוון. כך נוצרת מערכת יחסים שבה האוטונומיה של הסוכן אינה רק תכונה טכנולוגית אלא תוצאה של שילוב בין התנהגות המשתמש, עיצוב המוצר ויכולת המודל לזהות מצבי אי ודאות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך מודדים סוכנים בעולם אמיתי

למרות ההתקדמות המהירה בתחום, מדידת ההתנהגות של סוכני AI בשטח היא משימה מורכבת. אין הגדרה מוסכמת למהו סוכן, והארכיטקטורות משתנות במהירות, ממערכות קצרות שמפעילות סוכן יחיד ועד מערכות מרובות סוכנים שפועלות במשך שעות. בנוסף, ספקי מודלים רואים רק חלק מהתמונה כיוון שב‑API הציבורי ניתן לנתח פעולות בודדות אך לא את רצף הפעולות המלא, ואילו ב‑Claude Code אפשר לעקוב אחר סשנים שלמים אבל רק בתחום אחד, הנדסת תוכנה.

 

כדי להתגבר על הפער הזה, אנטרופיק שילבה בין שני מקורות נתונים משלימים: עומק מתוך Claude Code ורוחב מתוך ה‑API הציבורי. השילוב מאפשר לזהות מגמות שלא ניתן לראות מכל מקור בנפרד ולבנות תמונה אמפירית של האופן שבו סוכנים באמת פועלים בעולם האמיתי.

כשסוכן עובד לבד במשך עשרות דקות

אחד הממצאים הבולטים במחקר הוא העלייה המשמעותית במשך הזמן שבו Claude Code עובד ללא התערבות אנושית. המדד של ה‑99.9‑percentile, שמייצג את המקרים הקיצוניים שבהם המשתמשים מאפשרים לסוכן לעבוד ברצף לאורך זמן, כמעט הוכפל בתוך כמה חודשים. בספטמבר 2025 תורים ארוכים נמשכו פחות מ‑25 דקות, ובינואר 2026 הם כבר עברו את רף 45 הדקות.

 

מקרים קיצוניים שבהם הסוכן עובד הכי הרבה זמן ברצף

מקרים קיצוניים שבהם הסוכן עובד הכי הרבה זמן ברצף | anthropic

 

העלייה הזו אינה מוסברת רק בשיפור יכולות המודל. היא מתרחשת בצורה חלקה, ללא קפיצות סביב שחרורי גרסאות, ומרמזת על שינוי בהרגלי המשתמשים ובסוגי המשימות שהם נותנים לסוכן. אנטרופיק מציינת כי הירידה הקלה בינואר ופברואר עשויה להיות תוצאה של הכפלת בסיס המשתמשים ושל מעבר מפרויקטי חגים למשימות עבודה קצרות יותר. למרות התנודות, המגמה הכוללת ברורה - סוכנים עובדים לבד למשכי זמן ארוכים יותר.

משתמשים מנוסים משנים אסטרטגיה

ככל שהמשתמשים צוברים ניסיון, הם משנים את אופן הפיקוח שלהם על הסוכן. משתמשים חדשים נוטים לאשר כמעט כל פעולה, ולכן שיעור ה‑auto‑approve אצלם עומד על כ‑20 אחוז מהסשנים. לעומתם, משתמשים מנוסים שעברו מאות סשנים מגיעים ליותר מ‑40 אחוז שימוש ב‑auto‑approve.

 

שיעור אישור אוטומטי לפי ניסיון

שיעור אישור אוטומטי לפי ניסיון | anthropic

 

במקביל, דווקא אצל המשתמשים המנוסים שיעור ההפרעות גבוה יותר: מ‑5 אחוז אצל חדשים ל‑9 אחוז אצל ותיקים. זו אינה סתירה אלא שינוי גישה. במקום לאשר כל צעד, המשתמשים המנוסים מאפשרים לסוכן לעבוד באופן חופשי, עוקבים אחר התקדמותו ומתערבים רק כשמשהו דורש תיקון או שינוי כיוון. אנטרופיק מציינת כי דפוס דומה מופיע גם ב‑API הציבורי, שם ככל שהמשימה מורכבת יותר, יש פחות מעורבות אנושית בכל פעולה, כנראה משום שאישור רציף אינו מעשי במשימות ארוכות ורב שלביות.

 

שיעור ההפרעות (interrupts) על בסיס ניסיון המשתמש

שיעור ההפרעות (interrupts) על בסיס ניסיון המשתמש | anthropic

שאלות הבהרה כמנגנון בטיחות

לא רק המשתמשים משפיעים על רמת האוטונומיה בפועל, אלא גם הסוכן עצמו. המחקר מראה שככל שהמשימה מורכבת יותר, Claude Code עוצר לשאול שאלות הבהרה בתדירות גבוהה יותר, ובמשימות המורכבות ביותר הוא עושה זאת פי שניים יותר מאשר המשתמשים עוצרים אותו.

 

ככל שהמשימה מורכבת יותר, Claude שואל יותר והאנשים גם מפריעים יותר

ככל שהמשימה מורכבת יותר, Claude שואל יותר והאנשים גם מפריעים יותר | anthropic

 

הסיבות לעצירות מצד Claude מגוונות, לדוגמה, איסוף מידע, בקשת הבהרה, בקשת הרשאות ובקשת אישור לפני פעולה. מנגד, המשתמשים עוצרים בעיקר כדי לספק הקשר טכני חסר, להתמודד עם איטיות או תקיעות וגם כדי לקחת את השלב הבא לידיים.

 

אנטרופיק מדגישה שעצירות יזומות מצד הסוכן הן מנגנון בטיחות משמעותי. מודל שמזהה אי ודאות ושואל שאלות מפחית סיכון ומשלים את מנגנוני הפיקוח החיצוניים כמו הרשאות ואישורים.

 

מדוע Claude עוצר ומדוע בני אדם עוצרים אותו

מדוע Claude עוצר ומדוע בני אדם עוצרים אותו | anthropic

סוכנים בתחומי סיכון

בניתוח של כמעט מיליון קריאות כלי ב‑API הציבורי, אנטרופיק מדרגת כל פעולה לפי רמת סיכון ואוטונומיה בסולם של אחת עד עשר. רוב הפעולות נמצאות באזור נמוך סיכון ונמוך אוטונומיה, אך יש גם אשכולות קיצוניים בתחומים כמו גישה לרשומות רפואיות, טיפול בחומרים מסוכנים, תגובה לאירועי אש ופריסת קוד לפרודקשן. חלק מהפעולות הללו הן ככל הנראה סימולציות או הערכות אבטחה, אך הן עדיין מצביעות על פוטנציאל לסיכון גבוה יותר.

 

היכן משתמשים בסוכנים כיום

היכן משתמשים בסוכנים | anthropic

 

מנגד, פעולות בעלות אוטונומיה גבוהה כוללות מסחר אוטונומי בקריפטו, ניטור מערכות, סינון תיבות מייל ומשימות אדמיניסטרציה אוטומטיות. אנטרופיק מציינת כי שמונים אחוז מהסוכנים משתמשים במנגנוני הגנה כלשהם, ורק 0.8 אחוז מהפעולות הן בלתי הפיכות, נתון שמרמז על רמת זהירות גבוהה יחסית בשימוש בפועל.

 

סיכון מול אוטונומיה

סיכון מול אוטונומיה | anthropic

 

מבחינת תחומי פעילות, כמעט חמישים אחוז מהשימושים מגיעים מהנדסת תוכנה, אך תחומים נוספים כמו BI, שירות לקוחות, מכירות, פיננסים, סייבר ורפואה מתחילים לאמץ סוכנים בהיקפים קטנים. מגמה זו מרמזת על התרחבות עתידית של השימוש בסוכנים גם בתחומים שבהם רמת הסיכון עשויה להיות גבוהה יותר.

 

מפת סיכון‑אוטונומיה בפועל

מפת סיכון‑אוטונומיה בפועל | anthropic

מה מיוחד במחקר הזה

ייחודו של המחקר הזה הוא בכך שאין כאן בחינה של יכולות המודל בתנאי מעבדה, אלא מיקוד באופן שבו אנשים משתמשים בו בפועל. הוא מראה שהאוטונומיה שמתקבלת בשטח היא תוצאה של שילוב בין יכולות המודל, עיצוב המוצר והתנהגות המשתמש. המשמעות היא שלא ניתן להעריך סוכנים רק באמצעות מבחני יכולת, אלא יש צורך במדידה רציפה של האופן שבו הם פועלים בסביבות אמיתיות, תחום שבו הכלים הקיימים עדיין מוגבלים.

 

אנטרופיק מציינת כמה מגבלות משמעותיות שצריך לקחת בחשבון - הנתונים מגיעים מספק אחד בלבד, ב‑API הציבורי אין דרך לעקוב אחר סשנים מלאים, חלק מהפעולות המסוכנות הן ככל הנראה סימולציות או הערכות אבטחה, והניתוח משקף חלון זמן מוגבל. למרות המגבלות, המחקר מספק הצצה נדירה לדינמיקה האמיתית של סוכנים בעולם העבודה ולשינויים שמתרחשים כאשר משתמשים מתחילים לסמוך עליהם יותר.

פיקוח לא נעלם, הוא פשוט משתנה

המחקר של אנטרופיק מציג תמונה ברורה. ככל שהמשתמשים מתקדמים, הם מעניקים לסוכנים יותר חופש פעולה אך אינם מוותרים על פיקוח. במקום לאשר כל פעולה מראש, הם עוברים למודל עבודה שבו הסוכן פועל באופן עצמאי רוב הזמן, וההתערבות מתרחשת רק כשמשהו דורש תיקון או שינוי כיוון. במקביל, הסוכנים עצמם יודעים לעצור, לשאול שאלות ולהגביל את עצמם כשהם מזהים אי ודאות, מה שמוסיף שכבת בטיחות נוספת.

 

המשמעות לתעשייה ברורה. בטיחות לא תושג באמצעות דרישה לאישור לכל פעולה, אלא באמצעות תשתיות ניטור לאחר פריסה, ממשקי פיקוח יעילים ומודלים שמזהים מתי עליהם לעצור ולבקש הבהרה. ככל שסוכנים ייכנסו לתחומים חדשים ומורכבים יותר, היכולת להבין את הדינמיקה הזו ולנהל אותה בצורה מושכלת תהפוך חיונית.

 

למחקר המלא של אנטרופיק, כנסו כאן.

הפוסט מה אנחנו יודעים על אוטונומיה, פיקוח וסיכון של סוכני AI בעולם האמיתי הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-agent-behavior-study/feed/ 0
מי זה בוריס צ׳רני ואיך Claude Code משנה את העבודה המודרנית https://letsai.co.il/boris-cherny-claude-code/ https://letsai.co.il/boris-cherny-claude-code/#respond Sun, 01 Mar 2026 07:29:30 +0000 https://letsai.co.il/?p=70526 בוריס צ’רני (Boris Cherny), היוצר והראש של Claude Code באנטרופיק, התארח לאחרונה ב‑Lenny’s Podcast ושיתף כיצד מה שהחל כאב‑טיפוס טרמינלי פשוט לפני שנה בלבד הפך לכלי שמשנה לא רק את תפקיד המהנדס, אלא את כל מבנה העבודה המודרנית. צ’רני עצמו הוא הדוגמה החיה למהפכה הזו. הוא לא כתב שורת קוד אחת ביד מאז נובמבר, ובכל […]

הפוסט מי זה בוריס צ׳רני ואיך Claude Code משנה את העבודה המודרנית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בוריס צ’רני (Boris Cherny), היוצר והראש של Claude Code באנטרופיק, התארח לאחרונה ב‑Lenny’s Podcast ושיתף כיצד מה שהחל כאב‑טיפוס טרמינלי פשוט לפני שנה בלבד הפך לכלי שמשנה לא רק את תפקיד המהנדס, אלא את כל מבנה העבודה המודרנית. צ’רני עצמו הוא הדוגמה החיה למהפכה הזו. הוא לא כתב שורת קוד אחת ביד מאז נובמבר, ובכל זאת נחשב לאחד המהנדסים הפרודוקטיביים ביותר בחברה. הסיפור שלו הוא עדות לשינוי עמוק - מעבר מעולם שבו בני אדם כותבים קוד, לעולם שבו ה‑AI הופך לשותף מלא, יוזם ויצירתי.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהקוד נכתב מעצמו

צ’רני מתאר מציאות חדשה שבה כמעט אין צורך לכתוב קוד ביד. Claude Code מייצר עבורו את כל הקוד, והוא עצמו פועל כמנהל שמכוון את העבודה, בודק את התוצאות ומאשר אותן. השינוי הזה אינו אישי בלבד. מאז שאימצה את הכלי נמדדה עלייה של כ‑200 אחוז(!) בפריון המהנדסים בתוך אנטרופיק עצמה.

 

הסיבה לכך ברורה. ה‑AI מבצע את רוב העבודה הטכנית, והמהנדס מתפנה לחשיבה מערכתית, תכנון ופתרון בעיות. במקום לכתוב שורות קוד הוא מנהל תהליך. במקום לבצע משימות הוא מגדיר אותן. זה שינוי עמוק בתפקיד שמקרב את המהנדס לעבודה של מנהל צוות ולא של מבצע טכני.

כשהמכונה מתחילה להציע רעיונות

אחד הרגעים המשמעותיים עבור צ’רני היה להבין שה‑AI לא רק מבצע הוראות אלא גם מתחיל ליזום. Claude Code סורק משוב משתמשים, דיווחי תקלות ונתוני טלמטריה, ומציע פיצ’רים חדשים שכדאי לשקול. זה שינוי משמעותי. ה‑AI מפסיק להיות כלי טכני שמבצע משימות והופך לשותף אסטרטגי שמזהה דפוסים שאדם עלול לפספס ומכוון את המוצר לכיוונים חדשים. במילים אחרות, הוא כבר לא רק כותב קוד אלא משתתף בעיצוב המוצר עצמו.

 

צ’רני מדגיש שהשינוי הזה לא יישאר בתחום הפיתוח. כל מקצוע שמבוסס על עבודה עם כלים דיגיטליים, כמו ניהול מוצר, עיצוב או ניתוח נתונים, צפוי לעבור מהפכה דומה. ברגע שה‑AI מסוגל להפעיל תוכנות, לבצע פעולות ולנהל תהליכים, כל תפקיד שמסתמך על מחשב הופך לאוטומטי חלקית. מה שנחשב היום ליתרון טכנולוגי יהפוך במהרה לסטנדרט תעסוקתי.

לחשוב קדימה ולבנות עבור המודל של עוד חצי שנה

אחד העקרונות המרכזיים של צ’רני הוא לפתח מוצרים לא לפי היכולות של המודל הנוכחי, אלא לפי היכולות של המודל הבא.

 

הוא מודה שזה לא נוח. בחצי השנה הראשונה המוצר מרגיש לא בשל ולעיתים אפילו מקרטע, אך ברגע שהמודל הבא יוצא המוצר מזנק קדימה ומגיע ל‑Product Market Fit כמעט בן לילה. זה שיעור חשוב לכל מי שבונה מוצרים בעידן של קצב התקדמות אקספוננציאלי. מי שמתכנן רק להווה, נשאר מאחור.

ללמוד מהמשתמשים מה הם באמת רוצים

Claude Code נולד מתוך תצפית פשוטה. משתמשים החלו להפעיל את הכלי בדרכים שלא תוכננו מראש. הם ניסו לנתח תמונות רפואיות, לשחזר תמונות חתונה מכונן פגום או לבצע פעולות שלא קשורות כלל לכתיבת קוד.

 

צ’רני הבין שמדובר באות חשוב ולא בשימוש לא נכון. ההתנהגות הזו חשפה צורך אמיתי שאין לו עדיין פתרון. כך נולד גם Cowork, מוצר שנבנה סביב אותם שימושים בלתי צפויים. הלקח ברור. במקום לנסות לכוון את המשתמשים למה שהתכוונת שיקרה, כדאי להקשיב למה שהם מנסים לעשות בפועל.

לא לחסוך בטוקנים

צ’רני ממליץ לארגונים לאפשר למהנדסים שימוש חופשי בטוקנים בשלב הניסוי. העלות של ה‑AI בשלב הזה נמוכה מאוד ביחס לעלות הזמן של מהנדס, ולכן אין היגיון להגביל שימוש כשהמטרה היא לחקור רעיונות ולבדוק כיוונים חדשים. רק אם רעיון מצליח ומתחיל לגדול יש טעם להתחיל לייעל עלויות. זה שינוי תפיסתי חשוב. במקום לחשוב על עלות שימוש, כדאי לחשוב על עלות ההזדמנות שמתפוגגת כשמגבילים ניסוי ויצירתיות.

אילוצים כמנוע יצירתיות

באופן פרדוקסלי צ’רני טוען שכדאי להציב בכוונה מספר קטן של מהנדסים על פרויקט. כאשר מהנדס אחד נושא על עצמו עומס גדול, הוא נאלץ להישען על ה‑AI בצורה עמוקה ומשמעותית יותר. האילוץ הזה דוחף אותו לאמץ את הכלים באופן מלא ולא להשתמש בהם רק כעזר נקודתי. כך נוצרת קפיצה אמיתית ביעילות. לא משום שה‑AI מהיר יותר, אלא משום שהאדם לומד לעבוד איתו בצורה חכמה ומדויקת יותר.

ג’נרליסטים סקרנים הם האנשים שיצליחו בעתיד

צ’רני מאמין שהעתיד שייך לאנשים רחבי אופקים. ה‑AI ייקח על עצמו חלק גדול מהעבודה הטכנית והמומחית, ולכן היתרון האנושי יעבור ליכולת לחבר בין תחומים, להבין מערכות מורכבות ולראות את התמונה הרחבה.

 

המהנדס של העתיד אינו מומחה לנישה אחת אלא ג’נרליסט שמסוגל לחשוב על הבעיה עצמה ולא רק על הפתרון הטכני. מי שיודע לשלב ידע מתחומים שונים ולהבין הקשרים רחבים יהיה זה שיתבלט בעולם שבו ה‑AI מבצע את רוב המשימות הממוקדות.

לבחור תמיד במודל הכי חכם

למרות הפיתוי להשתמש במודלים זולים ומהירים, צ’רני מתעקש לעבוד עם המודל החזק ביותר. מודל חכם טועה פחות ולכן חוסך זמן אנושי יקר. מודל זול אולי עולה פחות לטוקן, אך בפועל עולה הרבה יותר בתיקונים, בדיקות וטעויות. במילים אחרות, העלות האמיתית אינה עלות הטוקן אלא עלות הזמן האנושי שנדרש כדי לתקן את מה שהמודל החלש לא הצליח לבצע כראוי.

שינוי טכנולוגי ותרבותי

הסיפור של בוריס צ’רני הוא לא רק סיפור על מהנדס שמפסיק לכתוב קוד. זה תיאור של שינוי עמוק באופן שבו אנחנו מבינים עבודה אנושית בעידן של מערכות חכמות. ה‑AI כבר אינו כלי שמבצע הוראות אלא שותף שמבין הקשר, מציע רעיונות ומסוגל לבצע משימות מורכבות מקצה לקצה.

 

המהנדס הופך למנהל שמכוון תהליכים במקום לבצע אותם, והמוצרים נבנים מתוך מחשבה על היכולות שיהיו למודלים בעתיד ולא רק על מה שקיים היום. העובד שמצליח בסביבה הזו הוא מי שמסוגל לחבר בין תחומים, לזהות ביקוש נסתר ולחשוב בצורה רחבה ומערכתית.

 

זהו שינוי שאינו טכנולוגי בלבד אלא תרבותי. וכמו כל שינוי עמוק, הוא מתחיל מסיפור אישי אחד. מהנדס אחד שהפסיק לכתוב קוד וגילה שהעבודה שלו לא נעלמה אלא הפכה משמעותית יותר.

הפוסט מי זה בוריס צ׳רני ואיך Claude Code משנה את העבודה המודרנית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/boris-cherny-claude-code/feed/ 0
Nano Banana 2 מגדיר מחדש איך יוצרים תמונות https://letsai.co.il/nano-banana-2/ https://letsai.co.il/nano-banana-2/#respond Fri, 27 Feb 2026 08:21:47 +0000 https://letsai.co.il/?p=70498 Nano Banana 2 הוא לא עדכון שגרתי אלא שינוי כיוון אמיתי. הוא יוצר תחושה של כלי שמבין את המשתמש, מגיב במהירות ומפיק תוצאות שנראות כאילו נוצרו בידי צוות של צלם, מעצב גרפי, מאייר ומתרגם הפועלים יחד. המודל משלב איכות גבוהה, זמן תגובה קצר, ידע מהעולם האמיתי ויכולת להתמודד עם הנחיות מורכבות, וכל זאת בצורה נגישה […]

הפוסט Nano Banana 2 מגדיר מחדש איך יוצרים תמונות הופיע ראשון בLet's AI בינה מלאכותית

]]>
Nano Banana 2 הוא לא עדכון שגרתי אלא שינוי כיוון אמיתי. הוא יוצר תחושה של כלי שמבין את המשתמש, מגיב במהירות ומפיק תוצאות שנראות כאילו נוצרו בידי צוות של צלם, מעצב גרפי, מאייר ומתרגם הפועלים יחד. המודל משלב איכות גבוהה, זמן תגובה קצר, ידע מהעולם האמיתי ויכולת להתמודד עם הנחיות מורכבות, וכל זאת בצורה נגישה למשתמשים בכל רמות הידע. הוא מסוגל ליצור תמונות חדות ומדויקות, לשלב טקסט קריא בעברית ובשפות נוספות, לשמור על עקביות בין דמויות ואובייקטים ולהפיק תוצרים ברזולוציה גבוהה המתאימים לשימוש מקצועי. התחושה היא של כלי שמאפשר לכל אחד, בין אם הוא יוצר, מורה, מעצב, מפתח או מנהל, להפוך רעיון לתמונה ברורה ומדויקת בלי מאמץ ובלי צורך בהיכרות מוקדמת עם כלים מורכבים.

 

ההשקה הרשמית: כך מציגה גוגל את Nano Banana 2

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה השתנה ולמה זה משמעותי

עד היום היו בג׳מיני שני מודלים ליצירת תמונות. המודל החינמי, Nano Banana, היה זמין כמעט ללא הגבלה אך סבל ממגבלות ברורות כמו טקסט בתוך תמונות שלא תמיד היה מדויק, העקביות בין דמויות השתנתה מפריים לפריים, והתוצאות היו טובות אבל לא ברמה של מודלים מתקדמים יותר. מנגד, גרסת ה‑Pro הציעה איכות גבוהה בהרבה, אך הייתה מוגבלת למשתמשים בתשלום או לכמות יומית מצומצמת.

 

Nano Banana 2 משנה את התמונה. גוגל שדרגה את המודל החינמי והביאה אליו יכולות שבעבר היו שמורות רק למנויים: טקסט מדויק בתוך תמונות, תמיכה בשפות שונות כולל עברית, יצירת תמונות המבוססות על מידע מהעולם האמיתי ואינפוגרפיקות שמבוססות על נתונים עדכניים. בנוסף, המודל מאפשר שליטה מלאה ברזולוציה ובפורמט, עד לאיכות 4K, ומציע תפריט סגנונות חדש שמקל על בחירת מראה ויזואלי מדויק.

 

המשמעות המעשית ברורה, Nano Banana 2 הופך למודל ברירת המחדל ליצירת תמונות בג׳מיני, כך שהיכולות שהיו פרימיום עד לא מזמן הופכות כעת לבסיסיות וזמינות לכולם. כמו בכל השקה, הפריסה מתבצעת בהדרגה וצפויה להגיע לכל המשתמשים בימים הקרובים.

 

גרפיקה צבעונית בסגנון חללי שמלווה את הכרזת Nano Banana 2

גרפיקה צבעונית בסגנון חללי שמלווה את הכרזת Nano Banana 2

מה הכלי יודע לעשות

העוצמה של Nano Banana 2 מתבטאת ביכולת שלו לקחת רעיון מילולי ולהפוך אותו לתמונה מלאה, עשירה ומדויקת. הוא מסוגל ליצור תמונות חדשות מאפס, לערוך תמונות קיימות, לשלב טקסט ברור בתוך תמונה ולתרגם טקסטים ישירות על גבי הוויזואל. בנוסף, הוא יודע לבנות סדרות של תמונות עקביות, בין אם מדובר בסטוריבורד, קומיקס, קמפיין שיווקי או כל רצף ויזואלי אחר. היכולת הזו מאפשרת ליצור תוצרים שלמים ומלוטשים, גם כאשר מדובר ברעיונות מורכבים או ברצפים ארוכים.

 

המודל יודע להתמודד עם הנחיות מורכבות ולפרק רעיון למרכיבים כמו סגנון, תאורה, צבעים, פרופורציות, טקסט, הבעות פנים ואביזרים, ואז להרכיב אותם מחדש לתמונה אחת שמכבדת את כל הדרישות. מעבר לכך, הוא משתמש בידע מהאינטרנט כדי לייצר תוצאות שמבוססות על העולם האמיתי, כולל אינפוגרפיקות, דיאגרמות ויזואליזציות נתונים. כל אלה נוצרים מתוך טקסט פשוט, בלי צורך בכלים נוספים או ידע טכני.

למי הכלי מתאים

Nano Banana 2 מתאים כמעט לכל סוג משתמש, וזה אחד היתרונות הבולטים שלו. מי שאינו טכני יכול ליצור חומרים מקצועיים בלי ללמוד תוכנות עיצוב: פוסטרים, מצגות, מודעות, כרטיסי ברכה, אינפוגרפיקות וסדרות תמונות, והכול באמצעות ניסוח רעיון פשוט בשפה טבעית.

 

Arc de Triomphe: יצירה מבוססת מציאות

India Gate - יצירה מבוססת מציאות

 

יוצרים ומעצבים נהנים משליטה מדויקת בסגנון, תאורה, צבעוניות וקומפוזיציה, ומקבלים תוצאות שמאפשרות להם לדלג על שלבי סקיצה ארוכים. מפתחים יכולים לבנות עליו מערכות שלמות, כמו כלים שמייצרים תמונות בקנה מידה גדול, שירותים שמתרגמים מודעות לשפות שונות או מערכות שמייצרות ויזואליים דינמיים על בסיס נתונים חיים. צוותי מוצר ושיווק יכולים ליצור סטוריבורדים, קמפיינים וגרפיקות במהירות, תוך שמירה על עקביות בין תמונות שונות.

איפה הכלי זמין

Nano Banana 2 משולב בפלטפורמות שבהן משתמשים כבר עובדים, ולכן המעבר אליו טבעי ופשוט. הוא זמין באפליקציית Gemini, במצב AI של Google Search וב‑Lens, וגם בפלטפורמת Flow, שבה הוא משמש כמודל ברירת המחדל החדש ומוצע בחינם וללא קרדיטים (נכון לעכשיו).

 

מפתחים יכולים להשתמש בו דרך AI Studio, Vertex AI ,Firebase או Antigravity וכמובן דרך ה-API של ג׳מיני, ולהטמיע אותו בקלות באפליקציות קיימות. המשמעות היא שאין צורך ללמוד כלי חדש או לשנות תהליכי עבודה. Nano Banana 2 מגיע אל המשתמש, בדיוק במקום שבו הוא כבר יוצר.

 

אחד היתרונות הבולטים של Nano Banana 2 הוא יחס המחיר‑ביצועים שלו. הוא מספק איכות גבוהה ומהירות מרשימה בעלות נמוכה משמעותית בהשוואה למודלים כבדים יותר, מה שהופך אותו לאפשרות משתלמת במיוחד עבור מפתחים ועסקים שמייצרים כמויות גדולות של תוכן ויזואלי. השילוב בין מהירות, איכות ועלות הופך אותו לפתרון יעיל הן לפרויקטים גדולים והן לשימוש יומיומי.

איך זה עובד 

Nano Banana 2 מרגיש אינטואיטיבית כמו אדם יצירתי שמבין את המשתמש. אתה מציג רעיון, והוא בונה אותו לתמונה שלמה עם קומפוזיציה, תאורה, צבעים, טקסט ופרטים קטנים שמתחברים יחד באופן טבעי. הוא גם יודע לשמור על עקביות בין דמויות ואובייקטים לאורך סדרת תמונות, כך שהמראה שלהם נשאר יציב ואחיד מפריים לפריים.

 

מאחורי היכולת הזו עומד Gemini 3.1 Flash Image, מודל מהיר שמחובר לשכבת ידע מהעולם האמיתי. הוא משתמש בתמונות ובמידע מהאינטרנט כדי לייצר תוצאות שמבוססות על מציאות, ומפעיל מנגנון עקביות שמאפשר לשמור על מראה אחיד של עד חמש דמויות וארבעה עשר אובייקטים בוורקפלואו אחד. המודל תומך ברזולוציות שנעות בין 512 פיקסלים ל‑4K, ביחסי ממדים מגוונים כולל יחסים קיצוניים כמו 1:8, ומאפשר לבחור רמת חשיבה מהירה, עמוקה או דינמית בהתאם למורכבות ההנחיה.

 

הנתונים מראים ש‑Gemini 3.1 Flash Image מוביל באופן עקבי במדדי איכות ודיוק, כולל ביצועים גבוהים במיוחד ביצירת אינפוגרפיקות מבוססות עובדות:

 

 

השוואת ביצועים: Nano Banana 2 מוביל באיכות, דיוק ואינפוגרפיקה

השוואת ביצועים: Nano Banana 2 מוביל באיכות, דיוק ואינפוגרפיקה | google.blog

 

בנוסף ליכולות היצירה, Nano Banana 2 מציג גם דור חדש של עריכה חכמה ומהירה. הוא יודע לבצע פעולות מתקדמות כמו inpainting ו‑outpainting בדיוק גבוה ובזמן תגובה קצר, כך שאפשר להעלים אובייקטים, להשלים חלקים חסרים, להרחיב פריימים או לשנות פרטים קטנים בלי לפגוע בסגנון, בתאורה או במרקם המקורי. השילוב הזה הופך אותו לא רק לכלי יצירה אלא גם לכלי עריכה מקצועי שמאפשר לתקן, לשפר וללטש תמונות קיימות באותה קלות שבה יוצרים חדשות.

איך מתחילים?

העבודה עם Nano Banana 2 מתחילה ברעיון קצר ופשוט. פותחים את אפליקציית Gemini או את Google Search במצב AI, מנסחים את מה שרוצים לראות ומקבלים תמונה מוכנה. אין צורך בידע מוקדם או בהגדרות מורכבות, והמודל יודע להתמודד היטב גם עם הנחיות בסיסיות.

 

יצירת תמונה בננו בננה 2

אפשר ליצור כל סגנון או רעיון ויזואלי

 

משתמשים טכניים יכולים להעמיק יותר ולהגדיר פרמטרים כמו רזולוציה, יחס ממדים, רמת חשיבה ועקביות דמויות, ולבנות תהליכים אוטומטיים שמייצרים מאות או אלפי תמונות. אבל גם מי שאינו מכיר מונחים טכניים יכול להתחיל מיד, משום שהמודל מותאם לעבודה טבעית וברורה לכל משתמש.

 

הנה תפריט הסגנונות החדש שמאפשר לבחור מראה ויזואלי מדויק מתוך מגוון רחב של אפשרויות - ממונוכרום ועד סוריאליזם:

 

תפריט הסגנונות החדש של Nano Banana 2

תפריט הסגנונות החדש של Nano Banana 2

תבניות פרומפט לנקודת פתיחה מהירה

כדי להתחיל לעבוד עם Nano Banana 2 בצורה חלקה ומהירה, אפשר להיעזר בתבניות פרומפט שמדגימות איך לנסח בקשה ברורה. כל אחת מהן יכולה לשמש כבסיס, שאפשר להתאים לצורך המדויק שלכם:

  • פוסטר עם טקסט בעברית: “פוסטר בסגנון מודרני, צבעים חמים, טקסט בעברית: ‘מבצע סוף עונה’, טיפוגרפיה נקייה, רקע מופשט.”

  • תרגום טקסט בתוך תמונה: “תרגם את הטקסט שבתמונה לעברית ושמור על אותו סגנון עיצובי.”

  • סטוריבורד עקבי: “צור סדרת תמונות עם עקביות של אותה דמות: גבר בשנות ה־30, שיער קצר, זקן קל, חולצה כחולה…”

  • אינפוגרפיקה: “הפוך את הטקסט הבא לאינפוגרפיקה ברורה ומינימליסטית: ‘שלושה שלבים לבניית אתר: תכנון, עיצוב, פיתוח’.”

התבניות האלו נותנות תחושת כיוון ומאפשרות להבין במהירות איך לנסח בקשה שהמודל יבצע בצורה מדויקת וברורה.

 

הדגמת ה-'Pet Passport' (דרכון חיית מחמד) של גוגל לוקחת תמונה בודדת של חיית מחמד ושולחת אותה להרפתקה חובקת עולם באתרי תיירות מפורסמים. היא מקפידה לשמור על המראה של חיית המחמד לאורך היעדים השונים ברחבי העולם. לקבלת תוצר מותאם אישית באמת, הם שילבו מגוון הגדרות של שליטה יצירתית:

 

כלי שמרחיב את גבולות היצירה

Nano Banana 2 משתלב בצורה טבעית בתהליכי עבודה אמיתיים ומאחד יכולות מתקדמות של יצירת תמונות, הבנת שפה, ידע מהעולם האמיתי ועריכה חכמה לכדי כלי אחד נגיש ומהיר.

 

יוצר תוכן יכול להפיק בתוך דקות סדרת תמונות לפוסט, כולל טקסט חד וברור בעברית. מורה יכול להפוך פסקה מורכבת לדיאגרמה שממחישה תהליך ביולוגי. מפתח יכול לבנות מערכת שמייצרת באנרים לשווקים שונים בעולם, עם תרגום אוטומטי של הטקסט בתוך התמונה והתאמה לשפה המקומית. צוות מוצר יכול ליצור סטוריבורד למוצר חדש ולשמור על עקביות בין כל הסצנות, ומעצב יכול להפיק סקיצות מהירות ללקוח וללטש אותן ידנית לאחר מכן.

 

המודל מאפשר ליצור תוצרים מקצועיים בזמן קצר, לשמור על עקביות בין דמויות ואובייקטים, לשלב טקסט מדויק ולבנות תהליכי עבודה שלמים בלי צורך בכלים נוספים. כך הוא מרחיב את גבולות היצירה הדיגיטלית ומאפשר לכל משתמש להפוך רעיון לתמונה ברורה, חדה ומדויקת באופן טבעי ופשוט.

 

למגוון דוגמאות ומידע נוסף, כנסו לבלוג של גוגל.

הפוסט Nano Banana 2 מגדיר מחדש איך יוצרים תמונות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/nano-banana-2/feed/ 0
מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI https://letsai.co.il/anthropic-china-distillation-attacks/ https://letsai.co.il/anthropic-china-distillation-attacks/#respond Thu, 26 Feb 2026 06:01:05 +0000 https://letsai.co.il/?p=70444 המירוץ לבינה מלאכותית תמיד הוצג כקרב בין מודלים. השבוע התברר שהוא הרבה יותר מזה. בעידן שבו כל השקה חדשה הופכת מיד לסמל של עליונות טכנולוגית, קל לשכוח שהמאבק האמיתי לא מתרחש על במות ההכרזה אלא מתחת לפני השטח. לא בין מודלים אלא בין מדינות, לא בין מהנדסים אלא בין מערכות שלמות שמנסות לשכפל, לעקוף או […]

הפוסט מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
המירוץ לבינה מלאכותית תמיד הוצג כקרב בין מודלים. השבוע התברר שהוא הרבה יותר מזה. בעידן שבו כל השקה חדשה הופכת מיד לסמל של עליונות טכנולוגית, קל לשכוח שהמאבק האמיתי לא מתרחש על במות ההכרזה אלא מתחת לפני השטח. לא בין מודלים אלא בין מדינות, לא בין מהנדסים אלא בין מערכות שלמות שמנסות לשכפל, לעקוף או לבלוע את היתרון של היריב. המסמך שאנטרופיק פרסמה אינו עוד תלונה על שימוש לרעה ב‑API. הוא הצצה נדירה לאופן שבו תחרות טכנולוגית בין מעצמות נראית בעידן שבו "גניבת קניין רוחני" כבר לא מתבצעת דרך קבצים אלא דרך מיליוני שיחות עם מודל שמנסה להבין מי בדיוק מדבר איתו. 24 אלף חשבונות מזויפים. 16 מיליון אינטראקציות. רשתות פרוקסי שמתחזות למשתמשים לגיטימיים. זה לא האקינג, זו תעשייה. וזה לא סיפור על שלוש מעבדות סיניות, זה סיפור על מאבק על מוחם של המודלים.

 

הציוץ של אנטרופיק על ״גניבת המוח״ של קלוד

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשקיצור דרך הופך לנשק

דיסטילציה היא לא המצאה סינית. מעבדות משתמשות בה כבר שנים על מודלים שלהן עצמן: מאמנים מודל קטן על הפלטים של מודל גדול, וכך מקצרים את הדרך ליכולות שבעבר דרשו זמן רב ומשאבי עיבוד משמעותיים. זו פרקטיקה לגיטימית, יעילה ונפוצה. הבעיה מתחילה כשהיא מתבצעת על מודל של גורם אחר, ללא הסכמה ובקנה מידה תעשייתי.

 

אנטרופיק טוענת שהנזק כאן אינו רק מסחרי אלא גם ביטחוני. קלוד בנוי עם שכבות הגנה שמונעות ממנו לסייע בפיתוח נשק, בתכנון מתקפות סייבר ובמשימות שעלולות לסכן חיים. מודל שנוצר מדיסטילציה לא מורשית לא שומר על ההגנות האלה. ואם הוא נפתח לציבור, כפי שקורה עם חלק מהמודלים הסיניים, הסיכון כבר לא נשאר בתוך המעבדה.

הממים שהפכו את הסיפור למראה של התעשייה

אבל הסיפור לא נשאר רק במסמך של אנטרופיק. בתוך שעות, X התמלא בממים - לאו דווקא רק כבדיחה, אלא כתגובה אינסטינקטיבית של התעשייה. האינטרנט עשה מה שהוא עושה הכי טוב וזיקק את המורכבות לכמה תמונות חדות שהפכו את האירוע הזה למשהו רחב בהרבה מהאשמה טכנית.

 

מאחורי ההומור הסתתרה אמת לא נוחה - בעידן שבו כל מודל מאומן על דאטה ציבורי, השאלה מי בדיוק גונב ממי הופכת פחות ופחות ברורה.

 

כדי ללכוד את רוח השיח שהתפרץ סביב הפרסום, הנה כמה ממים בולטים - עדות תרבותית לרגע שבו התעשייה הסתכלה על עצמה במראה:

 

איך התעשייה קלטה את הסיפור

חלק מהממים (memes) שהציפו את X אחרי פרסום אנטרופיק

שלושה קמפיינים, שלוש אסטרטגיות

מה שמפתיע במסמך אינו רק קנה המידה אלא גם הפיזור. כל אחת מהמעבדות פעלה אחרת, וכשמחברים את שלושתן מתקבלת תמונה שיטתית.

 

DeepSeek ביצעה יותר מ‑150 אלף שיחות שהתמקדו בתהליכי החשיבה הפנימיים של קלוד, לא רק בפלט. זה הנכס שאנטרופיק השקיעה בו שנים ושאינו זמין בשוק הפתוח. בנוסף, DeepSeek ייצרה גרסאות מצונזרות לשאלות פוליטיות רגישות, כנראה כדי לאמן מודל שיוכל לעקוף מגבלות פנימיות בסין, לא רק להתחרות בחו"ל.

 

Moonshot AI, מפתחי Kimi, ביצעה 3.4 מיליון שיחות שהתמקדו ביכולות סוכנים, כלומר AI שפועל בעולם ולא רק עונה על שאלות. הפרט החריג שאנטרופיק מוסיפה הוא שניתן היה לקשר חלק מחשבונות ההונאה לפרופילים ציבוריים של עובדים בכירים בחברה. לא משתמשים אנונימיים, אלא אנשים עם שמות ותפקידים.

 

MiniMax ביצעה 13 מיליון שיחות. אנטרופיק זיהתה את הקמפיין בזמן אמת, עוד לפני שהמודל החדש הושק. כשאנטרופיק פרסמה עדכון לקלוד, MiniMax העבירה כמעט מחצית מהתעבורה שלה למודל החדש בתוך יממה. מישהו שם עקב מקרוב ופעל במהירות.

 

ביחד, שלושת הקמפיינים מציירים תמונה של מעצמת AI שלא רק מפתחת מודלים אלא גם סופגת יכולות ממודלים של אחרים.

על כל ראש שנחסם, שניים ממשיכים

אנטרופיק אינה מאפשרת גישה מסחרית לקלוד מסין. כדי לעקוף את המגבלה הזו, המעבדות השתמשו במה שהחברה מכנה Hydra clusters - רשתות פרוקסי שמפעילות אלפי חשבונות מזויפים בו זמנית. כשחשבון נחסם, אחר נכנס מיד במקומו. בשיא, אנטרופיק זיהתה רשת עם יותר מ‑20 אלף חשבונות פעילים. חלקם נועדו לשאוב יכולות, אחרים נועדו להיראות כמו משתמשים לגיטימיים כדי להקשות על הזיהוי.

 

השם Hydra אינו מקרי. במיתולוגיה היוונית, כל ראש שנחתך הוליד שניים חדשים. כך נראו גם הקמפיינים האלה, כמו מערכת שממשיכה לפעול גם כשהיא מזוהה ומנסים להפריע לה.

 

בתגובה, אנטרופיק פיתחה מסווגים אוטומטיים לזיהוי דפוסי דיסטילציה, שיתפה מידע עם מעבדות אחרות וחיזקה את בקרות הגישה. המסקנה שלה ברורה - הבעיה גדולה מכדי שחברה אחת תטפל בה לבד, וגדולה מכדי להישאר בגדר שימוש לרעה ב‑API.

הטיעון שמסתתר מאחורי הנתונים

מעבר להאשמות, המסמך מציג טיעון גיאופוליטי. בשנתיים האחרונות, קפיצות הביצועים של מעבדות סיניות העלו שוב ושוב את אותה שאלה. R1 של DeepSeek ערער את ההנחה שיתרון אמריקאי ב‑AI הוא קבוע. Kimi ו‑MiniMax הגיעו לרמות שנחשבו עד לא מזמן לבלתי נגישות לחברות שפועלות תחת מגבלות שבבים. ובכל פעם, ההסבר המלא לא הופיע.

 

16 מיליון שיחות מזויפות הן לא ניסוי שיווקי, הן תשתית אימון. ואם חלק ממה שמוצג כחדשנות סינית נשען על הפנמה שיטתית של יכולות אמריקאיות, אז מדיניות ייצוא שבבים מחמירה מקבלת היגיון רחב יותר מהגנה תחרותית. היא מגבילה לא רק פיתוח ישיר, אלא גם את קנה המידה שבו מבצעי דיסטילציה כאלה יכולים להתבצע.

 

אנטרופיק לא כתבה את הטיעון הזה במפורש, אבל היא הניחה אותו על השולחן. והשאלה שנותרה פתוחה היא עד כמה מהקפיצה הסינית ב‑AI של השנתיים האחרונות היא חדשנות מקורית, ועד כמה היא השתקפות של מה שנוצר בארצות הברית.

 

למסמך המלא של אנטרופיק, כנסו כאן.

הפוסט מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-china-distillation-attacks/feed/ 0
האחים דור והיום שבו סרט של 200 מיליון דולר נוצר על מחשב נייד https://letsai.co.il/dor-brothers-ai-film/ https://letsai.co.il/dor-brothers-ai-film/#respond Tue, 24 Feb 2026 06:03:42 +0000 https://letsai.co.il/?p=70369 עד לא מזמן, הייתה הסכמה לא כתובה בתעשיית ההפקה: אפקטים ברמת מארוול עולים כסף של מארוול. מי שלא עובד עם אולפן גדול, עם תקציב ענק ועם צוות של מאות - פשוט לא נכנס למשחק. בפברואר 2026, אולפן הפקה ישראלי בשם The Dor Brothers החליט לבדוק אם ההסכמה הזו עדיין עומדת. יונתן דור, המנכ"ל, ישב לבד […]

הפוסט האחים דור והיום שבו סרט של 200 מיליון דולר נוצר על מחשב נייד הופיע ראשון בLet's AI בינה מלאכותית

]]>
עד לא מזמן, הייתה הסכמה לא כתובה בתעשיית ההפקה: אפקטים ברמת מארוול עולים כסף של מארוול. מי שלא עובד עם אולפן גדול, עם תקציב ענק ועם צוות של מאות - פשוט לא נכנס למשחק. בפברואר 2026, אולפן הפקה ישראלי בשם The Dor Brothers החליט לבדוק אם ההסכמה הזו עדיין עומדת. יונתן דור, המנכ"ל, ישב לבד מול מחשב נייד ובתוך כעשר שעות יצר סרט אסונות בסגנון הוליוודי מלא. הכותרת שצירף הייתה פרובוקציה מחושבת: "בדיוק יצרנו סרט AI של 200 מיליון דולר ביום אחד." תוך ארבע עשרה שעות: שנים עשר מיליון צפיות. תוך יממה: הסרטון הנצפה ביותר ב-X.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

תעלומה מתוקתקת מפורטוגל

The Dor Brothers הם אולפן הפקה עם כללי משחק משלו. אף אחד לא יודע כמה "אחים" יש בפנים, מי עושה מה, או איך נראה הצוות מבפנים. הדמות היחידה שנחשפת לציבור היא יונתן דור, שמנהל כעשרים וחמישה עובדים מרוחקים מכל רחבי העולם, בזמן שהוא עצמו חי בפורטוגל.

 

האולפן קם ב-2022, בתקופה שבה מידג'רני עוד נחשב לכלי ניסיוני. מאז הם השלימו מעל שלוש מאות פרויקטים ומאות מיליוני צפיות מצטברות, לקוחות כמו Snoop Dogg והרצאות באירועים של Google ו-Microsoft.

 

המודל העסקי, דור מסביר, הוא די פשוט: הסרטונים הויראליים אינם המוצר - הם פרסומת. "אנחנו כנראה החברה הכי רווחית בתחום ה-AI Production", הוא אומר. "הרווחנו מיליונים בשנים האחרונות - לא מהסרטונים עצמם, אלא מהעבודה שהם מביאים."

עשר שעות, מחשב נייד, ומה שקורה כשמגלים שהסייברטראק שורד

הפרויקט התחיל, כמו הרבה דברים טובים, בניסוי שיטתי מתוך סקרנות. דור קיבל גישה ל-Seedance 2.0, מודל וידאו חדש של ByteDance, חברת האם של טיקטוק, והתחיל לבדוק את הגבולות.

 

"ניסיתי יריות, מכות, ניסיתי דיאלוג", הוא מספר. הוא בדק מכוניות: מרצדס לא שרדה טוב. הסייברטראק של טסלה? "אמרתי, טוב, סייברטראק", הוא צוחק, "למרות שברור לי שיש לה בעיות משלה." ואז הגיע לסצנות ההרס. "כשראיתי איך דברים מתרסקים, ראיתי שהתוצאות יוצאות דופן. החלטתי לעשות סרט קצר."

 

מה שהופך את Seedance 2.0 לשונה הוא לא רק איכות התמונה. המודלים הקודמים ידעו לייצר פריים יפה אבל הם נכשלו בשמירה על עקביות לאורך קאטים. פנים שמשתנות, פיזיקה שמתפוררת, מרחב שמאבד את עצמו בין שניות. Seedance 2.0 מציג שליטה אחרת - היכולת לשמור על כוונה קולנועית לאורך כל הסצנה. החידוש אינו הרינדור, החידוש הוא השליטה. ועם שליטה מגיע משהו שלא היה אפשרי קודם: בימוי.

הסרט שגרם לאנשים לפרק פריימים

"Apex" הוא סרט קצר בסגנון אסון עתידני - אישה בורחת בעיר הרוסה ומנסה להגיע לבתה, סופיה, שמסתתרת מתחת לאדמה. האם חוצה גשר מתמוטט, עוברת תאונה, ומתעוררת בחדר חקירות. "יש לנו אותה", אומר אחד החוקרים בשיחה עם טראמפ. "אני כבר מגיע", הוא עונה. הסרט נגמר בכיתוב "To Be Continued" - סוף שמבקש המשך, וגם מבטיח אותו.

 

ציוצים ותגובות לסרט של הדור בראדרס

דמות 100% AI שנראית כל כך אמיתית

 

התגובה ב-X, באינסטגרם וביוטיוב לא הייתה רק עניין של צפיות. אנשים לא רק צפו - הם פירקו את הקסם לגורמים. שרשורים שלמים ניתחו פריימים ספציפיים - האם הרפלקציות על גוף המכונית מדויקות? האם צליל המנוע נכון? האם הפיזיקה מחזיקה מעמד תחת זכוכית מגדלת? חלק שיבחו את האמביציה, חלק הטילו ספק בריאליזם, וחלק התווכחו על פרטי מיקרו שרוב הצופים מעולם לא היו שמים לב אליהם.

 

זה היה, אולי, הסימן הטוב ביותר. כשהאינטרנט מתווכח על רפלקציות וסאונד, הוויכוח כבר אינו על האם AI שייך לקולנוע, הוויכוח הוא על אומנות. ואומנות היא המקום שבו אימוץ אמיתי מתרחש.

"גם אם זכיתי בשבעים אוסקרים היו מוצאים מה להגיד"

לא כולם היו מרוצים. כמה צופים הצביעו על שגיאת כתיב בניידת המשטרה - "Poce" במקום "Police". אחרים טענו שהסרטון נראה כמו פרסומת לסייברטראק. דור לא מתרגש: "Haters Gonna Hate. גם אם הייתי עושה סרט שזכה בשבעים אוסקרים, היו כאלה שמוצאים מה להגיד." הביקורות, כך נראה, רק האיצו את הוויראליות. "קיבלנו מאות מיילים בבת אחת", הוא מספר. "העוזרת האישית שלנו אמרה שייקח לה עד מחר לענות לכולם."

 

הכותרת "200 מיליון דולר" עצמה עוררה ויכוח. חלק לקחו אותה כפשוטה, אחרים הבינו אותה כהצהרה על כלכלת הפקה. בשני המקרים, המסר נחת - הפער בין קנה מידה קולנועי לבין הפקה עצמאית מתכווץ בקצב שקשה לעקוב אחריו.

 

ציוץ מחשבון של הדור בראדרס

סרט של 200 מיליון דולר - ביום אחד וב-100% AI

הכוח חוזר למספרי הסיפורים

כבר שמענו בעבר על "הסוף של הוליווד" - עם כל גרסה חדשה של Sora, Runway או Veo. בכל פעם ההכרזה הגיעה מוקדם מדי. אבל מה ש-Apex מדגים שונה מהכרזה, הוא מראה ששינוי הכוח כבר לא תיאורטי. הפקה מסורתית מתאפיינת סביב הון, גודל צוות ותיאום.

 

הפקת AI מתאפיינת סביב טעם, מהירות איטרציה ויכולת לנהל מערכות. האילוץ עבר מכסף לשיפוט. צוות קטן עם כיוון יצירתי ברור ויכולת בימוי של מערכות גנרטיביות יכול לעת עתה לדמות קנה מידה שדרש בעבר תשתית ומוסדות שלמים.

 

דור עצמו לא מתעסק בשאלה אם הוליווד בסכנה. "אנשים ידהרו לתוכן הכי טוב", הוא אומר, "בין אם זה ילד בן שש עשרה מחדר השינה שלו או דארן ארונופסקי." השיח כבר עבר את נקודת ה"האם זה אפשרי". השאלה שנותרת היא אחת בלבד - כמה מהר זה ממשיך להתפתח.

הפוסט האחים דור והיום שבו סרט של 200 מיליון דולר נוצר על מחשב נייד הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/dor-brothers-ai-film/feed/ 0
גוגל מלמדת את הבינה המלאכותית לקרוא מפה https://letsai.co.il/google-ai-map/ https://letsai.co.il/google-ai-map/#respond Sat, 21 Feb 2026 12:31:00 +0000 https://letsai.co.il/?p=70291 מערכת סינתטית חדשה של גוגל מייצרת מפות ומסלולים ומלמדת מודלים להבין מרחב בצורה הדומה ליכולת האנושית. המחקר מציג טענה ברורה - אפשר לאמן מודלים מולטימודליים לא רק לזהות מה מופיע בתמונה, אלא גם להבין את החוקים שמכתיבים איך מותר לנוע בתוכה. לשם כך פיתחו החוקרים פס ייצור אוטומטי שמייצר מפות מלאכותיות, מסמן עליהן מסלולים תקפים […]

הפוסט גוגל מלמדת את הבינה המלאכותית לקרוא מפה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מערכת סינתטית חדשה של גוגל מייצרת מפות ומסלולים ומלמדת מודלים להבין מרחב בצורה הדומה ליכולת האנושית. המחקר מציג טענה ברורה - אפשר לאמן מודלים מולטימודליים לא רק לזהות מה מופיע בתמונה, אלא גם להבין את החוקים שמכתיבים איך מותר לנוע בתוכה. לשם כך פיתחו החוקרים פס ייצור אוטומטי שמייצר מפות מלאכותיות, מסמן עליהן מסלולים תקפים ומאפשר למודלים ללמוד מיומנות שבני אדם מפעילים כמעט בלי לחשוב. זה ניסיון להתמודד עם פער בסיסי - מודלים יודעים לזהות אובייקטים, אך מתקשים להבין חיבוריות, גבולות ומגבלות תנועה.

 

מפה עם “Show me the path from Point A to Point B”

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה מודלים מתקשים להבין מפות

בני אדם קוראים מפה כמעט בלי לחשוב. מבט קצר מספיק כדי להבחין בין שביל לקיר, להבין את מבנה המרחב ולתכנן מסלול. מודלים, לעומת זאת, רואים תמונה שטוחה. הם מסוגלים לזהות חיות בגן חיות, אבל אם מבקשים מהם למצוא מסלול מהכניסה לבית הזוחלים, הם עלולים לשרטט קו שחוצה דוכנים, גדרות או אזורים סגורים. כפי שמתאר המחקר, הם מצוינים בזיהוי מה שיש בתמונה, אך מתקשים להבין את היחסים הגאומטריים והטופולוגיים בין האובייקטים.

 

הסיבה לכך פשוטה. אין מספיק דאטה שמלמד אותם את דקדוק המרחב. כדי ללמד מודל את החוקים האלה נדרשות מיליוני מפות עם מסלולים מסומנים ידנית, משימה יקרה, איטית ולעיתים בלתי אפשרית, במיוחד כשמפות של קניונים, מוזיאונים ופארקים הן לרוב קניין פרטי. התוצאה היא שמודלים מתקדמים נחשפים לאינספור תמונות, אך כמעט לא מקבלים דוגמאות שמלמדות אותם מהו מסלול תקין.

MapTrace: פס ייצור סינתטי של מפות ומסלולים

כדי להתגבר על מחסור בדאטה מסומן, גוגל פיתחה את MapTrace, מערכת אוטומטית שמייצרת מפות מלאכותיות, מזהה בהן אזורי הליכה, בונה גרף ניווט ומפיקה מסלולים תקפים. הכול נעשה ללא מגע יד אדם, במבנה שמזכיר פס ייצור: כל שלב מספק את חומר הגלם לשלב הבא, ומודלים שונים משמשים בו זמנית כיצרנים וכמבקרים.

 

התהליך מתחיל ביצירת מפות מגוונות. מודל שפה מייצר תיאורים עשירים כמו "גן חיות עם שבילים מקושרים", "קניון עם חצר אוכל" או "פארק פנטזיה עם אזורים נושאיים". התיאורים מוזנים למודל טקסט לתמונה שמייצר מפות מורכבות.

 

לאחר מכן המערכת מקבצת צבעים במפה כדי ליצור מסכות מועמדות של אזורי הליכה. לא כל מסכה תקינה, ולכן מודל נוסף, ה‑Mask Critic, בוחן כל מסכה ומחליט אם היא מייצגת רשת שבילים אמיתית. טעויות נפוצות כוללות בלבול בין צבעי רקע לשבילים, טקסט שנבלע במסכה ושבילים דקים שנעלמים.

 

כאשר מתקבלת מסכה תקינה, היא מומרת לגרף פיקסלים, ייצוג שבו כל נקודה היא צומת וכל חיבור בין פיקסלים סמוכים הוא קשת. כך ניתן לחשב מסלולים בצורה קלאסית, בדומה למערכות ניווט.

 

בשלב האחרון המערכת דוגמת נקודות התחלה וסיום, מחשבת את המסלול הקצר ביותר באמצעות אלגוריתם ומפעילה Path Critic שמוודא שהמסלול נשאר בתוך השבילים ואינו חוצה אזורים אסורים. גם כאן מופיעות טעויות, כמו זיהוי שגוי של אזורי רקע כמעברים, פספוס שבילים דקים או מסלולים שנראים סבירים אך אינם מחוברים באמת.

 

כך פועל פס הייצור של MapTrace

research.google | כך פועל פס הייצור של MapTrace

איך מודדים אם מסלול נכון

כדי להעריך את איכות המסלולים, החוקרים השתמשו במדד NDTW, גרסה מנורמלת של Dynamic Time Warping. המדד מאפשר להשוות בין מסלול שחזה המודל לבין מסלול אמת, גם אם שני המסלולים שונים באורך או בקצב הדגימה.

 

איך מודדים דיוק מסלול: המחשה של DTW

research.google | איך מודדים דיוק מסלול: המחשה של DTW

 

לפי גוגל, החישוב כולל ארבעה מרכיבים מרכזיים: יישור דו ממדי של שני המסלולים, מטריצת עלות מצטברת שמראה את המחיר של כל התאמה, מטריצת מרחקים זוגיים שמציגה את המרחק בין כל נקודה לנקודה, והשוואת קואורדינטות שמדגישה את בעיית ההיסט הזמני בין המסלולים. ככל שהמדד נמוך יותר, כך המסלול שחזה המודל קרוב יותר למסלול האמת.

שיפור משמעותי ביכולת הניווט

כדי לבדוק אם המערכת אכן מלמדת מודלים להבין מרחב, החוקרים אימנו כמה מודלים על תת קבוצה של הדאטה, 23,000 מסלולים, ובחנו אותם על MapBench, אוסף מפות אמיתיות שהמודלים לא נחשפו אליו קודם. התוצאות היו חד משמעיות: Gemini 2.5 Flash ירד במדד NDTW מ-1.29 ל-0.87, ו-Gemma 3 27B ירד מ-1.29 ל-1.13.

 

שיעור ההצלחה של Gemma עלה ב-6.4 נקודות, וכל המודלים הפכו ליציבים יותר ופחות נוטים להפיק מסלולים לא תקינים. המודלים לא רק השתפרו - הם גם נכשלו הרבה פחות.

 

שיפור בביצועי המודלים לאחר אימון על MapTrace

research.google | שיפור בביצועי המודלים לאחר אימון על MapTrace

 

החוקרים בחנו גם את איכות ההחלטות של המבקרים האוטומטיים. ה‑Path Critic הגיע לדיוק של 76% עם 8% חיובי שגוי, ואילו ה‑Mask Critic הגיע לדיוק של 83% עם 9% חיובי שגוי. הטעויות נבעו בעיקר מדמיון צבעים בין שבילים לרקע, טקסט שנבלע במסכה ושבילים דקים שלא זוהו.

 

איך נראה השיפור בפועל: מסלולים לפני ואחרי אימון

איך נראה השיפור בפועל: מסלולים לפני ואחרי אימון | research.google

מה המשמעות של מודל שמבין מרחב

היכולת להבין חיבוריות ומגבלות תנועה פותחת בפני מודלים שורה של יישומים חדשים. מודל שמסוגל לקרוא מפה באמת יכול להציע ניווט אינטואיטיבי גם במפות מורכבות, כמו מפות רכבת תחתית או תצלומי לוויין. יכולת כזו יכולה לאפשר לרובוטים לנווט במחסנים, בתי חולים ושדות תעופה על בסיס תוכניות קומה בלבד, בלי צורך בחיישנים ייעודיים.

 

במקביל, כלים נגישים יוכלו לתאר מסלול ברור לאנשים עם לקות ראייה, בצורה שמבוססת על הבנה אמיתית של המרחב. כפי שמדגיש המקור, היכולת להבין מסלולים וחיבוריות פותחת מגוון יישומים עתידיים.

 

 דוגמאות נוספות למסלולים שנוצרו על ידי הפייפליין

דוגמאות נוספות למסלולים שנוצרו על ידי הפייפליין | research.google

האתגר האמיתי עוד לפנינו

MapTrace מראה שמודלים יכולים ללמוד היגיון מרחבי אם מספקים להם את הדאטה הנכון, גם כשהוא סינתטי. אבל העולם האמיתי מורכב בהרבה: מפות אינן אחידות, סימונים משתנים בין מקומות, ולעיתים מופיעים רעשים, טעויות ושינויים שלא קיימים במפות שנוצרו במעבדה.

 

לכן עולה השאלה האם שני מיליון מפות מלאכותיות מספיקות כדי ללמד מודל להתמודד עם הכאוס של המציאות. את התשובה נדע רק כשהמודלים יידרשו לנווט במפות שלא דומות לשום דבר שנוצר בתהליך הסינתטי.

 

הדאטה-סט המלא של MapTrace, הכולל את כל המפות והמסלולים הסינתטיים ששימשו במחקר, זמין להורדה בקוד פתוח. הקישור מאפשר לכל מי שמעוניין לבחון את הדאטה, לשחזר את הניסויים או להשתמש בו כבסיס למחקר נוסף.

הפוסט גוגל מלמדת את הבינה המלאכותית לקרוא מפה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-ai-map/feed/ 0
גוגל מציגה את ג’מיני 3.1 פרו https://letsai.co.il/gemini-3-1-pro/ https://letsai.co.il/gemini-3-1-pro/#respond Fri, 20 Feb 2026 14:26:08 +0000 https://letsai.co.il/?p=70276 גוגל השיקה את Gemini 3.1 Pro עם נתון אחד שמסביר את גודל המהלך: ציון של שבעים ושבע נקודה אחת אחוז במבחן ARC‑AGI‑2, מבחן שבודק את היכולת לפתור דפוסי לוגיקה חדשים שלא הופיעו באימון. זה שיפור של יותר מפי שניים מהגרסה הקודמת, והוא מסמן שינוי כיוון ברור ממודל שמספק תשובות למערכת שמבצעת משימות מורכבות מקצה לקצה. […]

הפוסט גוגל מציגה את ג’מיני 3.1 פרו הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל השיקה את Gemini 3.1 Pro עם נתון אחד שמסביר את גודל המהלך: ציון של שבעים ושבע נקודה אחת אחוז במבחן ARC‑AGI‑2, מבחן שבודק את היכולת לפתור דפוסי לוגיקה חדשים שלא הופיעו באימון. זה שיפור של יותר מפי שניים מהגרסה הקודמת, והוא מסמן שינוי כיוון ברור ממודל שמספק תשובות למערכת שמבצעת משימות מורכבות מקצה לקצה.

 

ג'מיני 3.1 פרו מציג קפיצה ביכולות ההסקה והביצוע של גוגל, ומסמן מעבר ממודלי שיחה לסוכני עבודה שמבצעים משימות מורכבות מקצה לקצה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה עומד מאחורי המהלך

ההשקה הנוכחית היא לא עוד עדכון גרסה. גוגל מנסה להגדיר מחדש את תפקיד המודלים שלה: לא כלי שיחה, אלא תשתית לסוכני עבודה, מערכות שמבינות משימה, מפרקות אותה לשלבים ומבצעות אותה בפועל.

 

הבלוג הרשמי של החברה מדגיש זאת במפורש: ״3.1Pro is designed for tasks where a simple answer isn’t enough״. זו אמירה שממקמת את המודל בלב המאמץ של גוגל לחזור לעמדה תחרותית, במיוחד מול מודלים שמצטיינים בשיחה אך פחות בביצוע.

 

המנכ״ל מצייץ על המודל החדש

סונדאר פיצ׳אי , מנכ״ל גוגל, מציץ על זמינות ויכולות המודל החדש

קפיצה ביכולות ההסקה

הציון במבחן ARC‑AGI‑2 אינו רק הישג טכני. זהו מדד ליכולת לפתור בעיות מופשטות, משימות שבהן אין תשובה מוכנה שאפשר לשלוף מהאימון.

 

במבחנים נוספים, כמו Terminal‑Bench ו‑BrowseComp, המודל מציג שיפור עקבי ביכולות תכנון, חיפוש, קידוד וביצוע. המשמעות היא פחות ניסוי וטעייה ויותר פתרונות שמבינים את מבנה הבעיה.

 

ג'מיני 3.1 פרו מציג קפיצה ביכולות ההסקה והביצוע של גוגל

קפיצה ביכולות ההסקה והביצוע | google.blog

סוכנים שמבצעים משימות שלמות

אחד הדגשים המרכזיים בהשקה הוא היכולת של המודל לבצע רצפי עבודה מלאים, כאלה שמתחילים בהבנת המשימה ומסתיימים במוצר עובד.

 

Gemini 3.1 Pro יודע לתכנן את השלבים, לכתוב את הקוד הדרוש, לחבר ממשקי API, לבנות את הממשק ולבדוק את התוצאה עד שהיא עומדת בדרישות.

 

בדוגמה הרשמית, הוא בנה דאשבורד חי למעקב אחרי תחנת החלל הבינלאומית, כולל אינטגרציה למקור נתונים בזמן אמת. זה שינוי מהותי - לא עוד בקשה לקטע קוד נקודתי, אלא יכולת לבנות מערכת שלמה. 

 

הנה דוגמה שבה המודל בונה מערכת חיה מאפס - כולל החיבור לנתוני חלל בזמן אמת:

 

קוד, סימולציות ומה שביניהם

Gemini 3.1 Pro מציג יכולות קידוד שממקמות אותו ככלי פיתוח של ממש. הוא יודע לבנות סימולציות תלת-ממד אינטראקטיביות, ליצור אפליקציות ווב שלמות ולתאם בין קוד צד לקוח וצד שרת תוך טיפול בזרימות נתונים מורכבות.

 

במבחני קוד כמו SWE‑Bench Verified ו‑SciCode הוא מציג שיפור מדוד לעומת הדור הקודם. עבור מפתחים זה מתורגם לפחות זמן על חיבורים טכניים, ועבור מנהלי מוצר זו הזדמנות להראות רעיון חי ולא רק מסמך.

 

הנה דוגמה שבה המודל הופך מוטיבים ספרותיים לעיצוב וקוד שמבטאים את האווירה של היצירה:

 

SVG מונפש בלחיצת טקסט

אחד החידושים הבולטים הוא היכולת לייצר קוד SVG נקי ומונפש ישירות מטקסט. המודל מבין היררכיה ויזואלית, תנועה וקומפוזיציה, ומפיק קבצים שמוכנים להטמעה באתר בלי צורך בעיבוד נוסף.

 

התוצאה היא קיצור משמעותי של הדרך בין רעיון לעיצוב אינטראקטיבי, תהליך שבדרך כלל דורש מעצב, מפתח ולפחות גרסה אחת בדרך.

 

הנה דוגמאות בהן המודל הופך טקסט לאנימציית SVG להטמעה בכל אתר:

 

 

זמינות רחבה - אבל ב‑Preview

המודל זמין כבר עכשיו ב‑Preview, צעד שמאפשר לגוגל לאסוף פידבק ולחדד את היכולות לפני השקה מלאה. הוא נגיש למפתחים דרך Google AI Studio, ה‑Gemini CLI ופלטפורמת Antigravity, לארגונים דרך Vertex AI, ולמשתמשים פרטיים באפליקציית Gemini וב‑NotebookLM עבור מנויי Pro ו‑Ultra.

 

הבלוג הרשמי מדגיש שהגרסה הזו נועדה לאמת את השיפורים לפני הפצה רחבה, מה שמבהיר שהיכולות מרשימות, אבל עדיין אינן מוצר סופי.

 

פותחים את התפריט ← לוחצים על Pro ← המודל עובר לגרסת 3.1 Pro.

פותחים את התפריט ← לוחצים על Pro ← המודל עובר לגרסת 3.1 Pro

מי מרוויח מהיכולות החדשות

למרות ההישגים, גוגל מקפידה להבהיר שהמודל הזה הוא ממש לא AGI, לא מציע זיכרון מתמשך ארוך טווח, לא פועל באוטונומיה מלאה ולא מבוסס על שינוי ארכיטקטוני מהותי. ההדגשה הזו משקפת זהירות, אולי גם ניסיון להימנע מהבטחות יתר שנשמעו בהשקות קודמות. ובכל זאת, מדובר במודל מתקדם מאוד שמסוגל לשפר משמעותית את העבודה של מי שנשען עליו.

 

עבור מפתחים, הוא מקצר את הדרך בין רעיון ל‑MVP ומספק קוד יציב שמרכיב מערכות שלמות במקום קטעים מבודדים. מנהלי מוצר נהנים מיכולת להציג רעיונות חיים ולבנות אבטיפוס במהירות, מה שמאיץ תהליכי אפיון. ארגונים מרוויחים מהחיבור העמוק לאקו־סיסטם של גוגל קלאוד ומהתקדמות ברורה לכיוון סוכני עבודה שמבצעים תהליכים מורכבים מקצה לקצה.

 

הנה עוד דוגמה מגניבה שבה המודל מייצר סימולציה תלת-ממדית אינטראקטיבית שמגיבה לתנועות המשתמש ולצליל:

 

פחות שיחה, יותר עשייה

Gemini 3.1 Pro מסמן בבירור את הכיוון שאליו גוגל מכוונת את הדור הבא של מודלי ה‑AI. מעבר ממערכות שמגיבות לטקסט למערכות שמבצעות משימות מורכבות מקצה לקצה. הוא מציג שיפור מדיד ביכולות ההסקה, התקדמות משמעותית במנגנוני הסוכנים, קפיצה ביכולות הקוד - כולל בניית אפליקציות, סימולציות וממשקים חיים - וחידושים ויזואליים שמצמצמים את המרחק בין רעיון לעיצוב.

 

זה מודל שמרגיש פחות כמו צ'אטבוט ויותר כמו שכבת ביצוע חכמה, כזו שמסוגלת לקחת בקשה מופשטת ולהפוך אותה למוצר עובד.

הפוסט גוגל מציגה את ג’מיני 3.1 פרו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-3-1-pro/feed/ 0
הסיפור של OpenClaw שהפך מפתח בודד לתופעה עולמית https://letsai.co.il/openclaw-story/ https://letsai.co.il/openclaw-story/#respond Thu, 19 Feb 2026 13:49:34 +0000 https://letsai.co.il/?p=70254 פיטר שטיינברגר בנה לבדו, בלי משקיעים ובלי צוות, אחד הפרויקטים הצומחים ביותר בתולדות גיטהאב. בנובמבר 2025 ישב מפתח אוסטרי בן ארבעים מול המחשב ופיתח כלי שהוא חשב שיש בו צורך אבל לא היה קיים. הוא לא כינס ישיבת אסטרטגיה, לא גייס הון סיכון ולא הכין מצגת למשקיעים. הוא פשוט כתב קוד, העלה אותו ל‑GitHub והלך […]

הפוסט הסיפור של OpenClaw שהפך מפתח בודד לתופעה עולמית הופיע ראשון בLet's AI בינה מלאכותית

]]>
פיטר שטיינברגר בנה לבדו, בלי משקיעים ובלי צוות, אחד הפרויקטים הצומחים ביותר בתולדות גיטהאב. בנובמבר 2025 ישב מפתח אוסטרי בן ארבעים מול המחשב ופיתח כלי שהוא חשב שיש בו צורך אבל לא היה קיים. הוא לא כינס ישיבת אסטרטגיה, לא גייס הון סיכון ולא הכין מצגת למשקיעים. הוא פשוט כתב קוד, העלה אותו ל‑GitHub והלך לישון. שמונים ושניים יום אחר כך הופיע סאם אלטמן בפתח ביתו, ולאחר מכן הכריז ברשת שאותו מפתח מצטרף ל‑OpenAI. זה לא סיפור על סטארטאפ שהצליח, אלא על מה שקורה כשאדם אחד זז מספיק מהר בעולם טכנולוגי שלא מפסיק להשתנות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

43 פרויקטים גנוזים

פיטר שטיינברגר לא הגיע לכאן במקרה. במשך שלוש עשרה שנים הוא בנה וניהל את PSPDFKit, חברת תוכנה שמתמחה בעיבוד קובצי PDF, ומכר אותה ביותר ממאה מיליון דולר. אחרי המכירה הגיעה תקופה שכל יזם מכיר, אבל כמעט לא מדבר עליה: ריק יצירתי מוחלט. "לא יכולתי להוציא קוד," הוא סיפר בראיון. "פשוט הסתכלתי על המסך ולא הרגשתי כלום."

 

הפתרון שלו היה לא שגרתי. הוא קנה כרטיס טיסה חד-כיווני למדריד, עזב, וניסה להתחיל מחדש. בסך הכול עבר על ארבעים ושלושה פרויקטים שונים, בנה וגנז אותם בזה אחר זה. רק כשחזר ושם לב לשינוי ביכולות של מודלי ה‑AI, שהחלו לטפל בחלקים החוזרים של הקוד ולפנות את המפתח לעבודה המעניינת, הניצוץ חזר.

 

OpenClaw היה פרויקט מספר ארבעים וארבע. "פשוט בניתי את מה שרציתי שיהיה קיים," אמר בראיון ל‑Y Combinator.

מה זה עושה, ולמה זה שונה

כדי להבין מה מייחד את OpenClaw צריך להבין קודם מה חסר בכלים הנפוצים היום. רוב מוצרי ה‑AI המוכרים, כמו צ׳אט ג׳יפיטי, קלוד ו-ג׳מיני, פועלים במודל של שאלה ותשובה: המשתמש כותב, המודל עונה. הם יודעים לכתוב, לתמצת ולהסביר, וגם להתחבר לכלים חיצוניים. אבל הם עדיין לא פועלים כסוכנים רציפים שמנהלים תהליכים לאורך זמן, שומרים הקשר עמוק, ומבצעים פעולות באופן עצמאי בלי שהמשתמש ינחה אותם בכל שלב.

 

OpenClaw פועל אחרת. זה סוכן AI שרץ ישירות על המחשב של המשתמש, מחובר לאפליקציות שבהן הוא כבר משתמש - בעיקר WhatsApp וטלגרם - ומסוגל לבצע משימות אמיתיות: לנהל תיבת דואר נכנס, לתאם פגישות, לשלוט בדפדפן, לבצע הזמנות ולהפעיל מכשירים בבית חכם. בניגוד לפתרונות מבוססי ענן, הוא פועל מקומית על החומרה של המשתמש, ולכן הנתונים האישיים לא יוצאים מהמכשיר.

 

הגישה הזו מאפשרת יכולות שקשה להשיג בדרך אחרת. לא רק תכונות שתוכננו מראש, אלא תוצאה טבעית של עיצוב שמעניק לסוכן גישה מלאה לסביבת העבודה של המשתמש.

הצמיחה, וגם המחיר שלה

הפרויקט עלה לאוויר בשם Clawdbot, עד שאנטרופיק שלחה מכתב משפטי בטענה שהשם דומה מדי למודל שלה, Claude. שטיינברגר שינה את השם ל‑Moltbot, ולאחר מכן ל‑OpenClaw, פשוט כי אהב אותו יותר.

 

בינואר 2026 פוסט ב‑Hacker News הצית את הוויראליות. בתוך עשרים וארבע שעות נוספו תשעת אלפים כוכבים חדשים בגיטהאב. בתוך חודשיים חצה הפרויקט את רף מאה אלף הכוכבים, ובאמצע פברואר כבר עמד על מאה תשעים וארבעה אלף - קצב מהיר יותר מזה של React, Linux ו‑Kubernetes בשלבים מקבילים בהתפתחותם. מחשבי Mac Mini החלו להימכר כמו לחמניות, כשמשתמשים חיפשו מחשב זול שיריץ את הסוכן באופן רציף בבית. הקהילה פיתחה יותר מחמישים תוספים, ופרויקט צדדי בשם MoltBooK יצר רשת חברתית שלמה של בוטי AI שמשוחחים זה עם זה ומבצעים משימות בעולם האמיתי, כולל פנייה לאנשים אמיתיים שיבצעו את העבודה.

 

אבל הצמיחה המהירה, יחד עם ארכיטקטורה שמעניקה לסוכן הרשאות נרחבות, יצרו גם בעיות. משתמשים שהגדירו את הסוכן בצורה שגויה חשפו בטעות מפתחות API. התגלו פרצות שאפשרו מתקפות לגניבת מידע, וחוקרי אבטחה הצביעו על פוטנציאל להזרקת פרומפטים זדוניים דרך תוכן חיצוני שהסוכן מעבד. שטיינברגר הוסיף שכבות הגנה ומנגנוני סריקה, אך הבעיה העקרונית נותרה: סוכן עם גישה מלאה למחשב הוא כלי עוצמתי, ועוצמה כזו - כשהיא זמינה לכולם - דורשת זהירות שלא תמיד מובנת מאליה.

מה אלטמן ראה כאן

ב‑15 בפברואר פרסם סאם אלטמן ב‑X שפיטר שטיינברגר מצטרף ל‑OpenAI כדי להוביל את פיתוח הסוכנים האישיים. "הוא גאון עם המון רעיונות על עתיד סוכנים חכמים שמקיימים אינטראקציה זה עם זה לטובת אנשים," כתב אלטמן, והוסיף ש‑OpenClaw יעבור לקרן עצמאית ויישאר קוד פתוח בגיבוי החברה.

 

אלטמן מציג את שטיינברגר כמוביל הדור הבא של סוכני ה‑AI

אלטמן מציג את שטיינברגר כמוביל הדור הבא של סוכני ה‑AI

 

שטיינברגר יכול היה להפוך את הפרויקט לחברה. האפשרות הייתה ממשית. הוא בחר אחרת, ובפוסט שפרסם לא ניסה לעטוף את ההחלטה בנימוקים גדולים: "כבר שיחקתי את משחק בניית החברה, שפכתי לתוכו שלוש עשרה שנים. מה שאני רוצה הוא להשפיע, לא לנהל." אחרי שבוע בסן פרנסיסקו, שבמהלכו נפגש עם כל המעבדות המובילות וקיבל גישה למחקרים שלא פורסמו, הוא הרגיש שהחזון שלו ושל OpenAI מספיק קרוב כדי שהבחירה תהיה ברורה.

 

האם זו הברקה או הימור? רק הזמן יגיד.

מה OpenClaw אומר על המגמות בשוק

אימון מודל שפה מתקדם עולה מיליארדי דולרים ודורש תשתית מחשוב שרק מעט חברות בעולם מסוגלות לממן. שכבת הסוכן - הממשק שיושב מעל המודל ומחבר אותו לחיי המשתמש - פועלת לפי כללים אחרים. שטיינברגר לא אימן מודל חדש. הוא בנה ארכיטקטורה שעוטפת מודלים קיימים של Anthropic ושל OpenAI ומחברת אותם לסביבת העבודה של המשתמש. העלות החודשית שלו נעה בין עשרת אלפים לעשרים אלף דולר, ללא משקיעים.

 

כאן נמצא הפיצול המבני. שכבת המודלים מרוכזת בידי מספר מצומצם של שחקנים בעלי הון עצום. שכבת הסוכנים פתוחה יותר, ובה יתרון המהירות, הטעם והביצוע יכול לפצות על יתרון ההון. OpenClaw מדגים שבשכבה הזו אדם אחד עם כישרון ומפתח API עדיין יכול לנוע מהר יותר מצוות מוצר גדול.

לאן זה הולך מכאן

OpenClaw יעבור לקרן עצמאית ויישאר קוד פתוח, ושטיינברגר עצמו יצטרף ל‑OpenAI. השאלה שהקהילה שואלת, ובצדק, היא האם שני הדברים יכולים להתקיים יחד לאורך זמן. פרויקטים קהילתיים שנכנסים למסלול של חברות גדולות לא תמיד שומרים על אופיים.

 

מה שכבר ברור הוא ש‑OpenClaw הצית דיון רחב על מה שסוכן אישי יכול להיות כשהוא מקבל גישה מלאה למחשב של המשתמש, ועל הסיכונים שנלווים לגישה כזו. שטיינברגר אמר שהמשימה הבאה שלו היא לבנות סוכן שגם אמא שלו תדע להשתמש בו. כמה רחוק זה מהמציאות של היום? זו בדיוק השאלה שתעצב את התחום בשנים הקרובות.

הפוסט הסיפור של OpenClaw שהפך מפתח בודד לתופעה עולמית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openclaw-story/feed/ 0