כל הכתבות של רון גולד במגזין Let's AI בינה מלאכותית https://letsai.co.il/author/aviron19/ בינה מלאכותית Mon, 09 Feb 2026 13:30:14 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp כל הכתבות של רון גולד במגזין Let's AI בינה מלאכותית https://letsai.co.il/author/aviron19/ 32 32 גוגל משרטטת את מגרש המשחקים של ה-AI https://letsai.co.il/google-transformation-ai/ https://letsai.co.il/google-transformation-ai/#respond Tue, 10 Feb 2026 06:52:48 +0000 https://letsai.co.il/?p=69609 מאז פרוץ מהפכת הבינה היוצרת בנובמבר 2022 ועד לא מזמן, גוגל חיה תחת כותרת אחת עיקשת: ״מתה״. אמרו ש-ChatGPT ישאיר לה אבק, ש-Perplexity תהיה הגוגל החדש, ושגוגל עצמה הפכה לדינוזאור איטי בעולם שבו ה-AI רץ קדימה. לא בגלל שאין לה טכנולוגיה, אלא בגלל שאיבדה מומנטום. ואז, בסוף שנת 2025, גוגל הציגה דוח שקשה להתעלם ממנו: […]

הפוסט גוגל משרטטת את מגרש המשחקים של ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
מאז פרוץ מהפכת הבינה היוצרת בנובמבר 2022 ועד לא מזמן, גוגל חיה תחת כותרת אחת עיקשת: ״מתה״. אמרו ש-ChatGPT ישאיר לה אבק, ש-Perplexity תהיה הגוגל החדש, ושגוגל עצמה הפכה לדינוזאור איטי בעולם שבו ה-AI רץ קדימה. לא בגלל שאין לה טכנולוגיה, אלא בגלל שאיבדה מומנטום. ואז, בסוף שנת 2025, גוגל הציגה דוח שקשה להתעלם ממנו: יותר מ-400 מיליארד דולר הכנסות שנתיות לראשונה בתולדות Alphabet. הנתונים פורסמו בפוסט סיכום של החברה, שבו סונדר פיצ’אי (Sundar Pichai) מסכם את הרבעון ואת השנה כולה. 400 מיליארד זה מספר שמזמין כותרת, אבל הוא לא מסביר את הסיפור האמיתי. פיצ’אי לא דיבר כמו מי שסוגר שנה טובה, אלא כמו מי שמצהיר על שינוי מבני עמוק, בקצב שלא מאפיין ענק מבוסס אלא ארגון שפועל במצב תקיפה. המספרים נותנים תוקף, אבל הם לא הסיפור. הסיפור נמצא בדגש החוזר על מהירות: יותר השקות, יותר אימוץ, יותר שימוש, יותר השקעה פיזית. לא ״אנחנו נבנה״, אלא ״אנחנו כבר מריצים״. וזה ההבדל בין חזון לבין טרנספורמציה.

 

 

סיכום רבעוני ושנתי של גוגל ל 2025

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

התפתחות החיפוש בגוגל

במבט ראשון, דרך המספרים בלבד, גוגל נשארת גוגל. החיפוש ממשיך לצמוח, וההכנסות ממנו עלו ב-17 אחוז. אבל לדברי המנכ״ל שלה, החיפוש אינו מוצג כשירות יציב אלא כתהליך שנמצא בשינוי מתמשך. פיצ’אי מתאר נקודת מעבר שבה הבינה המלאכותית לא רק משפרת את איכות התוצאות, אלא משנה את הדרך שבה אנשים מנסחים שאלות ומקיימים אינטראקציה עם מידע.

 

הוא לא מסתפק בתיאור מגמה כללית, אלא מצביע על קצב ביצוע חריג בהיקפו. יותר מ-250 השקות מוצר ברבעון אחד בלבד (Q4), כולן סביב AI Mode ו-AI Overviews. לא מדובר במהלך אחד גדול, אלא ברצף מהיר של התאמות ושיפורים, שנועדו לעצב דפוסי שימוש חדשים. יותר שאלות המשך, יותר שיח מתמשך, ופחות חיפושים קצרים וסגורים.

 

מכאן נובעת התזה הרחבה יותר. אם גוגל מצליחה לשלוט באופן שבו נראה ומתנהל חיפוש בעידן של בינה מלאכותית, היא לא רק מגנה על מוצר ליבה קיים – היא מעצבת מחדש הרגל אנושי בסיסי, בקנה מידה עולמי.

ההשקה של Gemini 3

השקת Gemini 3 מוצגת כנקודת מפנה, אבל עיקר הסיפור אינו בשם או בגרסה, הוא בטון. פיצ’אי מדגיש ש-Gemini 3 Pro הוא המודל עם קצב האימוץ המהיר ביותר בתולדות החברה, ושמאז ההשקה הוא מעבד פי שלושה יותר טוקנים ביום לעומת 2.5 Pro. זו דרך מדודה לומר דבר חד למדי – המודל לא הוצג לשוק בהדרגה, אלא הוטמע ישירות בלב המערכת.

 

אפליקציית Gemini כבר משרתת כ-750 מיליון משתמשים חודשיים, עם עלייה ברורה במעורבות מאז ההשקה בדצמבר. במקביל, בצד הארגוני, נמכרו יותר משמונה מיליון מושבים בתשלום של Gemini Enterprise בתוך ארבעה חודשים בלבד. זה לא קצב שמאפיין מוצר חדש שמחפש את מקומו, אלא קצב של תקן שמנסים לקבע לפני שהשוק מתייצב.

 

מכאן נובעת גם הטעות הנפוצה בקריאה של המהלך. אין כאן תחרות בין מודלים בודדים. בנאום של פיצ’אי, Gemini כמעט ואינו מוצג כ”מתחרה של” מישהו אחר, אלא כציר שמחבר בין שכבות. לא מוצר בפני עצמו, אלא מנוע שמניע חיפוש, ענן, פלטפורמות ומוצרים בקצה.

התשתית היא היעד, לא האמצעי

המספר שמסביר את הסיפור טוב יותר מכל נתון אחר הוא לא ההכנסות, אלא ההשקעה. גוגל מתכננת להשקיע בין 175 ל-185 מיליארד דולר ב-CapEx בשנת 2026. זה סדר גודל שמזכיר תקציב של מדינה, אבל המשמעות אינה רק גובה הסכום, אלא הכוונה שמאחוריו. לא השקעה כללית ב-AI, אלא שליטה ביכולת להפעיל אותו בקנה מידה רחב.

 

פיצ’אי מתאר תשתית שמכסה כמעט את כל השרשרת. שילוב של GPUs חדשים של אנבידיה, TPUs שגוגל מפתחת כבר עשור, ורכישת Intersect שמוסיפה פתרונות של דאטה סנטרים ואנרגיה. בתוך התמונה הזו מופיע נתון שנשמע טכני אך יש לו משמעות אסטרטגית ברורה – במהלך 2025 הצליחה החברה להוריד את עלות ההרצה ליחידה של Gemini ב-78 אחוז, באמצעות אופטימיזציה ושיפור ניצול משאבים.

 

זה לא סעיף התייעלות שגרתי. זו הוכחה ליכולת לגדול בלי להיחנק מהעלות. בעידן שבו כמעט כל שחקן מסוגל לבנות מודל, היתרון האמיתי עובר ליכולת להפעיל אותו בזול, במהירות, ובסקייל.

 

פיצ’אי מכנה את זה full-stack AI, אך המונח אינו קישוט שיווקי. הוא מתאר שיטה. תשתית חישוב, שבבים, רשת, מודלים, כלי פיתוח, API, ולבסוף מוצרי קצה שמגיעים למיליארדי משתמשים. מי שלא מחזיק את השרשרת הזו נאלץ לשכור אותה, לשלם עליה, ולהישאר תלוי במי שכן מחזיק בה.

גידול הענן והבקלוג (Backlog) של Google Cloud

ההשקעה האדירה בתשתיות אינה נשארת ברמת הצהרה. המקום שבו היא מתורגמת בפועל להכנסות ולהתחייבויות הוא Google Cloud. הענן של גוגל צמח ב-48 אחוז, עם קצב הכנסות שנתי של מעל 70 מיליארד דולר. אבל הנתון שמבהיר באמת את הכיוון אינו קצב הצמיחה, אלא הבקלוג (Future contracted revenue).

 

הבקלוג של Google Cloud הגיע ל-240 מיליארד דולר, עם גידול של 55 אחוז רבעון לרבעון. זה לא רק ביטוי לביקוש חזק, אלא התחייבות עתידית של לקוחות. הוא מעיד שחברות וארגונים אינם רוכשים שירות נקודתי, אלא בוחרים בגוגל כשותפת תשתית לטווח ארוך, כזו שעליה הם מתכננים לבנות את מערכות ה-AI והדאטה שלהם.

שיתוף פעולה עם אפל וההשלכות

פיצ’אי מצביע על שלושה סימנים ברורים לכך שהאסטרטגיה הזו עובדת. ראשית, קצב גיוס הלקוחות החדשים האיץ משמעותית. שנית, מספר עסקאות הענק, בהיקף של מעל מיליארד דולר, חצה בשנת 2025 את סך העסקאות שנחתמו בשלוש השנים שקדמו לה יחד. ושלישית, לקוחות קיימים לא רק נשארים, אלא מוציאים בפועל יותר ממה שהתחייבו בתחילת הדרך.

 

לדבריו, לקוחות שמשתמשים בפתרונות AI צורכים בממוצע פי 1.8 יותר מוצרים, מה שמעיד שככל שנכנסים עמוק יותר ל-AI, כך מתרחבת התלות בשכבות נוספות של גוגל.

 

ואז מגיע פרט שנאמר כמעט כבדרך אגב, אך נושא משקל אסטרטגי כבד. גוגל משתפת פעולה עם אפל, הן כספקית ענן מועדפת והן בפיתוח הדור הבא של מודלים מבוססי Gemini. זה לא עוד לוגו מרשים ברשימת לקוחות, אלא איתות ברור. אם אפילו אפל, מהחברות העצמאיות והסגורות ביותר בתעשייה, בוחרת להישען על התשתית של גוגל, המשמעות היא שגוגל שואפת להפוך לשכבת הבסיס גם של מי שבדרך כלל נמנע מתלות חיצונית.

YouTube כמכונת מוניטיזציה

YouTube הוא לא רק מקור הכנסה, הוא תופס מקום מרכזי בבית. פיצ’אי מציין כי YouTube הוא שירות הסטרימינג המוביל בארה״ב כמעט שלוש שנים ברציפות, לפי נתוני Nielsen, וממקם אותו כליבה של רגעי תרבות, ספורט ומוזיקה. זהו יתרון שקשה לחקות, משום שהוא נשען לא רק על טכנולוגיה, אלא על הרגלי צפייה עמוקים.

 

החשיבות הכלכלית של YouTube נובעת מהיכולת לתרגם תשומת לב להכנסות בקנה מידה גדול. ההכנסות השנתיות חצו את רף 60 מיליארד הדולר ממודעות ומנויים, לצד המשך צמיחה במסלולי המנוי והרחבת YouTube TV עם חבילות תוכן לפי ז’אנרים. אלה אינם פרטים טכניים, אלא עדות לבניית מוצר שהופך לחלק קבוע משגרת הצריכה.

 

לתוך המערכת הזו נכנסת הבינה המלאכותית. פיצ’אי מתאר כיצד בדצמבר יותר ממיליון ערוצים ביום השתמשו בכלי יצירה מבוססי AI, ויותר מ-20 מיליון צופים השתמשו בכלי Ask כדי להעמיק בהבנת התוכן שבו צפו. השורה הזו מבהירה את האסטרטגיה. AI לא מחליף את התוכן, אלא מגביר יצירה, מעורבות וצריכה בתוך מערכת סגורה וממונפת.

הרגע שבו AI של גוגל יורד לכביש

Waymo היא הצד השני של אותו מטבע. אם YouTube מייצג שליטה בהרגלי צריכה, Waymo מייצגת שליטה במרחב הפיזי. פיצ’אי מציין כי החברה חצתה את רף 20 מיליון הנסיעות האוטונומיות, וכי היא מפעילה כיום יותר מ-400 אלף נסיעות בשבוע. הפעילות מתרחבת לשווקים חדשים, בהם מיאמי, ולתוכניות פריסה נוספות בערים נוספות בארה״ב, וגם בבריטניה וביפן.

 

המשמעות כאן חורגת מתחבורה. Waymo משמשת הוכחה לכך שגוגל אינה מפתחת AI רק כמודל שפה או כשירות דיגיטלי, אלא כיכולת אוטונומית מלאה, המחוברת לתשתיות פיזיות, לחישה, לבטיחות ולרגולציה. פיצ’אי מציין כי זהו סבב ההשקעה הגדול ביותר של Waymo עד היום, רמז לכך שגם השוק הפיננסי רואה בה פעילות מבצעית בוגרת, ולא עוד ניסוי טכנולוגי.

השפעת גוגל על האקו-סיסטם

אם גוגל מצליחה לבנות מערכת AI מקצה לקצה, כזו שמחוברת לחיפוש, לענן, לווידאו, לדפדפן, למובייל ולרכב, השאלה המתבקשת היא היכן נשאר מרחב פעולה לשחקנים אחרים באקו-סיסטם.

 

מי שעלול להיפגע ראשון אינו בהכרח המתחרים הגדולים, אלא דווקא השכבות שבאמצע. חברות שבנו לאורך שנים עסקים סביב גישה למידע, הפצה, פרסום או תשתית חישוב, מוצאות את עצמן מול מערכת שמציעה חבילה שלמה. מודל, פלטפורמה, תשתית וכלי עבודה, כולם מאותו ספק. מי שהתבסס על תנועה מהחיפוש, על פרסום ממוקד או על שירותי ענן כלליים, נדרש כעת להסביר את הערך הייחודי שלו בעולם שבו הלקוח יכול לקבל כמעט הכל מגורם אחד.

 

השאלה כאן אינה אם גוגל פועלת נכון או לא. השאלה היא מה קורה לחדשנות כאשר היתרון המרכזי אינו רעיון מבריק או מוצר חד, אלא היכולת להשקיע כ-185 מיליארד דולר בשנה. בשלב הזה, היתרון כבר אינו טכנולוגי בלבד אלא מבני. וקנה מידה כזה, בסופו של דבר, קובע את כללי המשחק.

 

גוגל לא מחפשת לנצח, היא בונה את המגרש

כאשר קוראים את דבריו של פיצ’אי ברצף, מתקבלת תמונה אחת עקבית. גוגל פועלת בקצב גבוה, משחררת מוצרים בקצב חריג, משלבת AI כמעט בכל נקודת מגע, משקיעה בתשתית פיזית עצומה, ומושכת לקוחות לתוך מערכת אנכית שמתחזקת את עצמה. זו אינה סדרה של יוזמות נפרדות, אלא מהלך אחד רציף.

 

במובן הזה, 400 מיליארד דולר אינם הסיפור, אלא הסימפטום. הסיפור הוא שגוגל כבר לא מגדירה את עצמה דרך החיפוש, ואפילו לא דרך הבינה המלאכותית עצמה. היא מגדירה את עצמה דרך היכולת להיות המשטח שעליו הבינה המלאכותית פועלת. בעסקים, בבית, ובמרחב הפיזי.

 

והשאלה שדבריו של פיצ׳אי משאירים פתוחה אינה מי יאיים על גוגל, אלא כמה מרחב פעולה יישאר למי שלא פועל על התשתית שהיא בונה.

 

לקריאה מלאה של דברי המנכ״ל סונדר פיצ’אי, כנסו לבלוג הרשמי של גוגל.

הפוסט גוגל משרטטת את מגרש המשחקים של ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-transformation-ai/feed/ 0
האם ה-AI באמת יגנוב לכם את המשרה? https://letsai.co.il/israel-innovation-report/ https://letsai.co.il/israel-innovation-report/#respond Mon, 09 Feb 2026 12:08:10 +0000 https://letsai.co.il/?p=69653 בזמן שכותרות רבות בעולם חזו זעזוע עמוק בשוק העבודה, סקר המעסיקים החדש של רשות החדשנות וחברת צבירן מציג תמונה ישראלית מורכבת ומפוכחת יותר. הבינה המלאכותית כבר מוטמעת בליבת הפעילות של חברות ההייטק, בפיתוח וגם בשיווק, אך בשלב זה אינה מובילה לפיטורים נרחבים. לפניכם דוח מצב על שינוי הדרגתי, לא על קריסה.   מצמיחה מהירה לשלב […]

הפוסט האם ה-AI באמת יגנוב לכם את המשרה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
בזמן שכותרות רבות בעולם חזו זעזוע עמוק בשוק העבודה, סקר המעסיקים החדש של רשות החדשנות וחברת צבירן מציג תמונה ישראלית מורכבת ומפוכחת יותר. הבינה המלאכותית כבר מוטמעת בליבת הפעילות של חברות ההייטק, בפיתוח וגם בשיווק, אך בשלב זה אינה מובילה לפיטורים נרחבים. לפניכם דוח מצב על שינוי הדרגתי, לא על קריסה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מצמיחה מהירה לשלב הבשלות

בעשור האחרון התרגלנו להייטק שפועל בקצב מואץ עם גיוסי ענק, תחרות חריפה על עובדים וצמיחה מהירה במספר המועסקים. שנת 2025 סימנה נקודת מעבר, סיום של תקופה חריגה וכניסה לשלב בוגר ומפוכח יותר. בתוך המעבר הזה עולה שאלה שמלווה רבים בתעשייה: האם הכלים שיצרנו אתמול עלולים להחליף אותנו מחר?

 

סקר המעסיקים המקיף שנערך בדצמבר 2025 בקרב 263 חברות, המייצגות כ-80 אחוז מעובדי הענף, מערער כמה מההנחות הרווחות. המסקנה המרכזית ברורה – לא מדובר בשבר חד בשוק העבודה, אלא בתהליך של התאמה הדרגתית.

האיום שלא מומש (בינתיים)

למרות החדירה הרחבה של כלי Generative AI לארגונים, הנתונים מצביעים על כך שהבינה המלאכותית כמעט ואינה מהווה סיבה מרכזית לפיטורים. מבין החברות שביצעו פיטורים רוחביים בשנה החולפת, 75 אחוז ציינו התייעלות כלכלית כסיבה עיקרית, ו-27 אחוז הצביעו על מצב עסקי מאתגר. רק 13 אחוז הזכירו את הבינה המלאכותית כאחד הגורמים, וברוב המקרים מדובר בגורם נלווה ולא בלעדי.

 

על פי על דיווח עצמי של מעסיקים, AI הוא לא הגורם המרכזי לפיטורים

על פי על דיווח עצמי של מעסיקים, AI הוא לא הגורם המרכזי לפיטורים

 

הפער הזה בין התחזיות לבין המציאות בולט גם בדברי דרור בין, מנכ”ל רשות החדשנות: “הנתונים מצביעים על פער משמעותי בין השיח הציבורי סביב הבינה המלאכותית לבין מה שקורה בפועל בשטח. ה-AI כבר מוטמע בליבת הפעילות של החברות, אך הוא אינו מחליף עובדים בהיקפים משמעותיים.

שוק של מעסיקים

אם בשנים 2021 ו-2022 העובדים הם שהכתיבו את התנאים, שנת 2026 פוגשת שוק עבודה שנשלט בעיקר על ידי המעסיקים. שיעור העזיבה מרצון ירד, והחברות אינן ממהרות עוד לגייס כל מועמד פנוי. כוח המיקוח עבר צד.

 

מדובר במגמה מצטברת, לא בנקודת שבר אחת, ומשלבת גורמים כלכליים לצד הטמעת AI

מדובר במגמה מצטברת, לא בנקודת שבר אחת

 

אמנם 94 אחוז מחברות ההייטק דיווחו כי גייסו עובדים במהלך 2025, אך מדובר בשיעור גיוס מתון יחסית, 7.9 אחוז בלבד מסך המועסקים. במקביל, המיקוד הניהולי השתנה. הדגש אינו עוד על הרחבת מצבת כוח האדם, אלא על פריון. במקום לגייס עוד עשרה מהנדסים, החברות בוחנות כיצד הבינה המלאכותית יכולה לאפשר לעשרה הקיימים לעבוד בצורה יעילה, מדויקת ובעלת ערך גבוה יותר.

השינוי מתרחש בתוך הארגון

הסקר מצביע על חדירה עמוקה של הבינה המלאכותית אל תוך שגרת העבודה הארגונית, הרבה מעבר לשימוש נקודתי או ניסיוני. 

 

הנתונים מתייחסים לרמת ההטמעה הארגונית, לא לשימוש אישי בכלים

הנתונים מתייחסים לרמת ההטמעה הארגונית, לא לשימוש אישי בכלים

 

52 אחוז מהחברות דיווחו על הטמעה של כלי AI בתהליכים טכנולוגיים עמוקים, כמו פיתוח ותשתיות, 43 אחוז מהחברות משתמשות בכלי AI גם בתפקידי מעטפת, בהם שיווק, מכירות ומשאבי אנוש, ו-42 אחוז מהחברות כבר מעסיקות עובדים בתפקידים ייעודיים לבינה מלאכותית, בהם מהנדסי GenAI, מומחי הטמעה ומנהלי תאימות.

 

הנתון מתייחס לחברות שמדווחות על תפקידים ייעודיים, לא להיקף המשרות או לקצב הגיוס הכולל.

מתייחס לתפקידים ייעודיים, לא להיקף המשרות או לקצב הגיוס הכולל

 

התמונה שעולה מצביעה על כך העבודה אינה נעלמת, אלא משתנה. הביקוש לכוח אדם אינו מצטמצם באופן גורף, אלא עובר שינוי באופי המיומנויות. פחות עיסוק בפיתוח קוד בסיסי, ויותר יכולת לעבוד לצד מערכות חכמות, לנהל סוכני AI, ולפקח על מודלים מורכבים בתוך תהליכי העבודה.

האתגר האמיתי הוא הכשרה, לא פיטורים

במבט קדימה לשנת 2026, רק 15 אחוז מהמעסיקים בענף מתכננים פיטורים, ורובם המכריע, 71 אחוז, מצהירים שלבינה מלאכותית אין קשר להחלטה. גם אם מדובר בדיווח עצמי של מעסיקים, התמונה הכללית ברורה. האתגר המרכזי של ההייטק הישראלי אינו גל פיטורים רחב, אלא פער מיומנויות הולך ומתרחב.

 

השפעה עמוקה על תהליכים ופריון, השפעה מוגבלת על פיטורים

השפעה עמוקה על תהליכים ופריון, השפעה מוגבלת על פיטורים

 

הענף נכנס לשלב בוגר יותר. שלב שבו הבינה המלאכותית אינה נתפסת כאיום קיומי על התעסוקה, אלא ככלי אסטרטגי לשיפור פריון, איכות והחלטות עסקיות. העובד של 2026 הוא לא מי שמתחרה במכונה, אלא מי שיודע לעבוד לצידה, להפעיל אותה נכון, ולתרגם יכולות טכנולוגיות לערך ממשי עבור הארגון.

 

כך מסכם זאת דרור בין, מנכ”ל רשות החדשנות: “האתגר המרכזי הוא התאמת מיומנויות ושילוב נכון של טכנולוגיות חדשות”.

הפוסט האם ה-AI באמת יגנוב לכם את המשרה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/israel-innovation-report/feed/ 0
Anthropic משיקה את Claude Opus 4.6 https://letsai.co.il/claude-opus-4-6/ https://letsai.co.il/claude-opus-4-6/#respond Sun, 08 Feb 2026 06:14:08 +0000 https://letsai.co.il/?p=69567 מי שעובד ברצינות עם בינה מלאכותית כבר מבין שהבעיה הגדולה של הדור הנוכחי אינה חוכמה. מודלי השפה יודעים לכתוב, לנתח, להסביר ולהרשים. הקושי האמיתי מתחיל כשמבקשים מהם לעבוד. לא לענות על שאלה אחת, אלא להחזיק תהליך. מחקר שנמשך שעות, מסמך שמתפתח לאורך גרסאות, קודבייס גדול, או משימה שמתפצלת לכמה כיוונים במקביל. בשלב הזה, גם המודלים […]

הפוסט Anthropic משיקה את Claude Opus 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
מי שעובד ברצינות עם בינה מלאכותית כבר מבין שהבעיה הגדולה של הדור הנוכחי אינה חוכמה. מודלי השפה יודעים לכתוב, לנתח, להסביר ולהרשים. הקושי האמיתי מתחיל כשמבקשים מהם לעבוד. לא לענות על שאלה אחת, אלא להחזיק תהליך. מחקר שנמשך שעות, מסמך שמתפתח לאורך גרסאות, קודבייס גדול, או משימה שמתפצלת לכמה כיוונים במקביל. בשלב הזה, גם המודלים החזקים ביותר מתחילים להיסדק. ההקשר נשחק, פרטים הולכים לאיבוד, שיקול הדעת מתערפל, והערך המעשי נשחק. זו לא בעיה של אינטליגנציה. זו בעיה של סיבולת, אמינות ויכולת להחזיק הקשר לאורך זמן. ההשקה של Claude Opus 4.6 מנסה להתמודד בדיוק עם נקודת הכשל הזו. לא דרך עוד קפיצה נקודתית ביכולת, אלא באמצעות שינוי עמוק באופן שבו מודל שפה מתכנן, זוכר, פועל וממשיך לעבוד גם כשהמשימה כבר אינה פשוטה. אם ההבטחות יעמדו במבחן המציאות, זהו צעד נוסף ומשמעותי בדרך שבה AI עובר מהדגמות מרשימות לעבודה אמיתית.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שינוי כיוון, לא רק שדרוג

Anthropic מציגה את Claude Opus 4.6 כגרסה המשופרת של המודל החזק ביותר שלה, אך הדגש הוא לא על שיפור נקודתי אלא על שינוי עמוק יותר באופן שבו המודל עובד לאורך זמן.

 

Opus 4.6 מתכנן בזהירות רבה יותר, שומר על רציפות במשימות אייג׳נטיות מורכבות, ומתפקד בצורה יציבה יותר בתוך קודבייסים גדולים. בנוסף, שופרו יכולות ביקורת הקוד והדיבוג, כולל היכולת של המודל לזהות טעויות שנוצרו במהלך העבודה ולא רק בדיעבד.

 

השוואת ביצועים רב־תחומית – Claude Opus 4.6 מול מודלים מובילים

Claude Opus 4.6 מול מודלים מובילים | Anthropic

 

התמונה שעולה מהבנצ׳מרקים אינה של יתרון נקודתי אחד, אלא של פרופיל יכולות רחב יותר: עבודה אייג׳נטית, שימוש בכלים, חיפוש, reasoning רב-תחומי ומשימות משרדיות. במובן הזה, השדרוג אינו מתבטא רק בציון כזה או אחר, אלא בהתרחבות היכולת של המודל להתמודד עם סוגים שונים של משימות במסגרת אותו מודל.

 

לצד זאת, זו הפעם הראשונה שמודל ממשפחת Opus מקבל חלון הקשר של מיליון טוקנים, גם אם בגרסת בטא. התמיכה בפלט של עד 128 אלף טוקנים מאפשרת להשלים משימות גדולות מבלי לפצל אותן לרצפים ארוכים של בקשות, מה שמקטין חיכוך ושומר על רציפות לוגית לאורך זמן.

 

חשוב לא פחות, Anthropic מדגישה שהיכולות האלו אינן מיועדות רק לעולמות הקוד. Opus 4.6 מוצג ככלי לעבודה יומיומית: ניתוחים פיננסיים, מחקר, עבודה עם מסמכים, גיליונות נתונים ומצגות, במיוחד דרך סביבת Cowork, שבה Claude יכול לבצע ריבוי משימות באופן אוטונומי כחלק מתהליך עבודה אחד.

 

 

חלון הקשר עצום, אבל הבעיה האמיתית היא הזיכרון

אז חלון הקשר של מיליון טוקנים הוא באמת אחד הנתונים הבולטים ביותר בהשקה של Claude Opus 4.6, אבל החשיבות האמיתית אינה בכמות המידע שניתן להזין למודל, אלא ביכולת שלו לשמור עליו ולהשתמש בו לאורך זמן. Anthropic מתייחסת במפורש לבעיה מוכרת בשם context rot, שבה איכות הביצועים יורדת ככל שהשיחה או המשימה מתארכת וההקשר הולך ומצטבר.

 

כדי להמחיש שיפור מהותי ולא רק הרחבת קיבולת, Anthropic מציגה נתונים ממבחן MRCR v2, הבודק את יכולת המודל לאתר פרטים חבויים בתוך כמויות גדולות של טקסט. בגרסת 8-needle עם הקשר של מיליון טוקנים, Claude Opus 4.6 מגיע ל-76 אחוזי הצלחה, לעומת 18.5 אחוז בלבד עבור Sonnet 4.5. גם בהקשר קטן יותר של 256 אלף טוקנים הפער חד במיוחד: Opus 4.6 מגיע ל-93 אחוז, בעוד Sonnet 4.5 נשאר סביב 10.8 אחוז.

 

Long-context retrieval - MRCR v2 (8-needle)

לא רק כמה טקסט נכנס, אלא כמה מידע באמת נשלף | Anthropic

 

הנתונים האלה מחדדים נקודה חשובה גם עבור קוראים שאינם טכניים. קיבולת לבדה אינה מספיקה. הערך האמיתי של חלון הקשר גדול מתחיל רק כאשר המודל מצליח לשלוף את הפרט הנכון בזמן הנכון, גם כשהוא קבור עמוק בתוך ההקשר. בלי יכולת כזו, עבודה אייג׳נטית ומשימות ארוכות פשוט אינן יכולות להתקיים בצורה יציבה.

מסוכנים תיאורטיים לצוותים עובדים

המונח agentic AI נשמע כבר לא מעט במחוזותינו, אך במקרים רבים הוא נשאר ברמת ההבטחה. הרעיון של סוכן אוטונומי שמקבל מטרה ומבצע אותה מקצה לקצה עדיין מתקשה לעבור מהדגמות מרשימות לעבודה יומיומית יציבה.

 

במקרה של Opus 4.6, אנשי Anthropic מנסים לעגן את הרעיון הזה לא רק ביכולות המודל, אלא בתשתית מוצרית שמדמה עבודה צוותית אמיתית.

 

Claude Code מקבל יכולת חדשה של agent teams, בשלב מחקרי, המאפשרת להפעיל כמה סוכנים במקביל הפועלים כצוות ומתאמים ביניהם משימות. היכולת הזו מיועדת במיוחד למשימות שמתפצלות לתת-משימות עצמאיות, כמו סקירת קודבייסים גדולים או ניתוח רכיבים שונים של מערכת מורכבת.

 

כשיש רציפות ותכנון, אפשר להתחיל לעבוד בצוותים של סוכנים

כשיש רציפות ותכנון, אפשר להתחיל לעבוד בצוותים של סוכנים | Anthropic

 

ההיגיון מאחורי צוותי סוכנים נשען על אותה יכולת בסיסית שנמדדת בבנצ’מרקים של Agentic Coding: תכנון, ביצוע ורציפות לאורך רצף פעולות. כאשר מודל מצליח להחזיק תהליך כזה בצורה עקבית, ניתן להתחיל לפרק אותו לתת-משימות מקבילות ולהפעיל עליו חלוקת עבודה, בדומה לצוות אנושי.

 

במקביל, Cowork מוצגת כסביבה שבה Claude יכול לקבל מטרה רחבה, למשל מחקר או בניית דוח, ולבצע אותה באופן אוטונומי תוך שילוב מסמכים, טבלאות וניתוחים. החידוש כאן אינו רק במודל עצמו, אלא באופן שבו הוא משתלב בתהליך עבודה שמדמה צוות מתואם, ולא עוזר בודד שפועל משימה אחר משימה.

שליטה בעומק החשיבה, לא רק בתוצאה

אחד החידושים הפרקטיים ביותר בהשקה של Claude Opus 4.6 הוא מנגנון ה-adaptive thinking. במקום בחירה בינארית בין הפעלה או כיבוי של חשיבה מורחבת, המודל יכול כעת להחליט בעצמו מתי יש צורך בהעמקה ומתי ניתן לפעול במהירות. שאלות פשוטות זוכות למענה זריז, בעוד משימות מורכבות יותר מקבלות טיפול יסודי וזהיר יותר.

 

לא כל משימה דורשת אותו עומק חשיבה

לא כל משימה דורשת אותו עומק חשיבה | Anthropic

 

היכולת הזו מקבלת משמעות מיוחדת כאשר בוחנים משימות הדורשות חשיבה רציפה על פני הקשר ארוך. מדדים של reasoning בהקשר רחב, כמו Graphwalks (מעקב לוגי רב־שלבי), מדגישים שלא כל משימה זקוקה לאותה רמת עומק, אך כאשר נדרש תכנון מורכב לאורך רצף של צעדים, איכות החשיבה עצמה הופכת לגורם מכריע. כאן עולה לא רק השאלה כמה המודל מסוגל לחשוב לאורך זמן, אלא מתי נכון שיפעיל חשיבה עמוקה ומתי לא.

 

ממשק הבחירה של מודלי Claude בתוך סביבת הצ’אט

ממשק הבחירה של מודלי Claude בתוך סביבת הצ’אט

 

לצד ההחלטה האוטומטית של המודל, Anthropic מוסיפה גם שליטה ידנית למפתחים דרך ארבע רמות effort (מאמץ): low, medium, high שהיא ברירת המחדל, ו-max. השליטה מתבצעת דרך ה-API באמצעות פרמטר פשוט (effort/) ומאפשרת לכוון את האיזון בין איכות, זמן תגובה ועלות. החברה גם מדגישה במפורש שחשיבה עמוקה מדי במשימות פשוטות עלולה להוסיף עלות ועיכוב מיותרים, ולכן מומלץ להתאים את רמת המאמץ לאופי המשימה.

 

במובן הזה, מדובר בניסיון להפוך את “החשיבה” של מודל שפה ממשהו מופשט ובלתי נראה לפרמטר תפעולי שניתן לנהל, לכוון ולהתאים להקשר.

אמינות ובטיחות כחלק מהליבה

בניגוד להשקות רבות בתעשייה, נושא הבטיחות אינו מוצג כאן כנספח או כהערת שוליים. לפי החומרים שהוצגו, Claude Opus 4.6 נבדק על מגוון רחב של הערכות בטיחות, והראה שיעור נמוך של התנהגויות לא מיושרות (Misalignment). בין ההתנהגויות שנבדקו נכללות הטעיה, חנופה למשתמש (Sycophancy), עידוד דלוזיות ושיתוף פעולה עם שימוש לרעה.

 

פחות התנהגות לא מיושרת, יותר יציבות לאורך זמן

פחות התנהגות ״לא מיושרת״ תביא יותר יציבות לאורך זמן | Anthropic

 

הנתונים מצביעים על מגמת שיפור עקבית לאורך דורות המודל. בגרף “Overall misaligned behavior”, המודל Opus 4.6 מגיע לרמה הנמוכה ביותר מבין מודלי Claude האחרונים, מה שמעיד על ירידה מתמשכת בשכיחות של התנהגויות בעייתיות. במקביל, מצוין כי שיעור ה-over-refusals הוא הנמוך ביותר, כלומר המודל נוטה פחות לסרב לבקשות לגיטימיות כחלק מתפקוד שוטף.

 

בהקשר של סוכנים אוטונומיים, המשמעות חורגת משאלות של ערכים או רגולציה. כאשר מודל אמור לפעול לאורך זמן, לקבל החלטות ביניים ולהניע תהליכים מורכבים, אמינות התנהגותית הופכת לתנאי בסיס לאמינות תפעולית.

בנצ’מרקים כהקשר, לא כהבטחה

Anthropic מציגה שורה של הישגים בבנצ’מרקים שונים, בהם Terminal-Bench 2.0 למשימות agentic, Humanity’s Last Exam להסקה רב-תחומית, ו-BrowseComp לאיתור מידע קשה ברשת. בין המדדים הללו, בולט במיוחד GDPval-AA, שמכוון לא להערכת ידע מופשט אלא לביצועי המודל במשימות עבודה בעלות ערך כלכלי, בתחומים כמו פיננסים, משפט וניתוח עסקי.

 

מדידת ערך בעבודה אמיתית, לא רק בביצועים ניסיוניים

מדידת ערך בעבודה אמיתית, לא רק בביצועים ניסיוניים | Anthropic

 

ב-GDPval-AA, הנתונים מוצגים בסולם Elo , המאפשר השוואה יחסית בין מודלים על בסיס ביצועי ידע יישומיים או בפשטות, כמה הוא טוב ביחס למודלים אחרים באותו מבחן. Opus 4.6 מוביל במדד הזה בהפרש ניכר ביחס לדורות הקודמים ולחלק מהמודלים המתחרים, מה שמחזק את הטענה שהשיפור אינו מוגבל ליכולות קוד או מחקר, אלא נוגע גם לעבודה מקצועית יומיומית.

 

יחד עם זאת, גם לפי האופן שבו ההשקה עצמה ממוסגרת, הבנצ’מרקים אינם מוצגים כהוכחה מספקת בפני עצמה. הם נועדו לספק הקשר ולתמוך בסיפור רחב יותר. עבור משתמשים, הערך האמיתי אינו נמדד בציון כזה או אחר, אלא ביכולת להשלים משימות ארוכות עם פחות תיקונים, פחות אובדן הקשר ופחות טעויות מצטברות לאורך הדרך.

אקסל ומצגות: נקודת המפגש עם היום יום

חלק מרכזי בהשקה של Claude Opus 4.6 הוא ההשקעה בכלי עבודה יומיומיים, ולא רק ביכולות מודל מופשטות. Claude in Excel קיבל שדרוגים משמעותיים, כולל יכולות compaction של הקשר (סיכום ודחיסת הקשר ישן), עבודה עם כמה קבצים במקביל, עיצוב מותנה, טבלאות ציר ואימות נתונים. המודל מתואר ככזה שמתכנן לפני פעולה, מבין מידע לא מובנה ומסוגל לבצע שינויים מורכבים במהלך אחד, בלי להתפרק לרצף ארוך של שלבים ידניים.

 

בלי קוהרנטיות לאורך זמן, אין עבודה יומיומית יציבה

קוהרנטיות לאורך זמן מאפשרת עבודה יומיומית יציבה | Anthropic

 

היכולות האלו נשענות על תכונה בסיסית אך קריטית – שמירה על קוהרנטיות לאורך זמן. מדדים של long-term coherence, כמו Vending-Bench 2, בוחנים האם מודל מצליח להחזיק הקשר, כוונה ויעד לאורך רצף פעולות, גם כשהמשימה מתארכת ומסתעפת. זו בדיוק היכולת שנדרשת כאשר עובדים על גיליון נתונים מורכב או מבצעים סדרת שינויים תלויים זה בזה. אותה רציפות שנמדדת כאן כמדד מחקרי היא בדיוק מה שנדרש כשעובדים על קובץ אקסל שמתפתח לאורך עשרות פעולות תלויות.

 

במקביל, Claude in PowerPoint, שנמצא בשלב מחקרי, מאפשר לבנות ולעדכן מצגות תוך התאמה לתבניות קיימות, כולל שמירה על פריסות, פונטים וסטנדרטים מותגיים. הבחירה להשקיע בכלי אופיס מצביעה על כיוון ברור שבו עבור ארגונים רבים, אימוץ בינה מלאכותית אינו מתחיל במעבדה או ב-IDE, אלא דווקא במשימות היומיומיות שבהן רציפות, עקביות ודיוק הם תנאי בסיס.

תמחור, מגבלות וקרדיט מתנה

אחרי שמבינים מה המודל יודע לעשות בפועל, השאלה הבאה והבלתי נמנעת היא כמה זה עולה כשמריצים את זה בפרודקשן. לפי ההכרזה הרשמית, התמחור הבסיסי של Claude Opus 4.6 נשאר ללא שינוי: 5 דולר למיליון טוקנים בקלט ו-25 דולר למיליון טוקנים בפלט. יחד עם זאת, יש כאן גבול ברור. מעל 200 אלף טוקנים נכנס לתוקף תמחור פרימיום של 10 דולר לקלט ו-37.5 דולר לפלט למיליון טוקנים.

 

בנוסף, לארגונים עם דרישות רגולציה, ציות או אבטחת מידע, קיימת אפשרות להרצה ב-US-only inference במחיר גבוה בכעשרה אחוזים. המשמעות היא שעבודה עם חלון הקשר עצום היא לא רק החלטה טכנולוגית, אלא גם החלטה תקציבית שיש לנהל במודע.

 

במקביל, Anthropic מחלקת למנויי Pro ו-Max קרדיטים של 50 דולר לשימוש נוסף. הקרדיט ניתן לניצול באמצעות מנגנון Extra Usage, אותו מפעילים דרך Settings → Usage בחשבון שלכם (ואז תלחצו Claim). לאחר הפעלת Extra Usage, ובמידה והגעתם ללימיט שלכם, ניתן להשתמש בקרדיטים לצורך עבודה ממושכת יותר עם Opus 4.6, פרויקטים גדולים ב-Cowork וכלים נוספים. הקרדיט מוגבל בזמן של 60 יום, ונועד לאפשר התנסות מעשית במשימות ארוכות שבהן היתרון של המודל בא לידי ביטוי.

 

 

 

מודל שעומד במבחן הסיבולת

אם חוזרים לרגע שתואר בפתיח, אותו שלב שבו משימה ארוכה מתחילה להתפרק, ההשקה של Claude Opus 4.6 מציעה תשובה ממוקדת וברורה. לא פתרון קסם, אלא שיפור שיטתי ביכולת של מודל שפה להחזיק הקשר, לנהל מורכבות ולהישאר אמין גם כשהעבודה נמשכת, מסתעפת ומכבידה.

 

זה עדיין לא סוף הדרך. נותרו שאלות פתוחות סביב עלות, זמינות ויישום בעולם שהוא לא תמיד מסודר או צפוי. אבל אם יש מסר אחד שעולה בבירור מההשקה והיכולות של Opus 4.6, הוא שהמרוץ כבר אינו עוסק רק באיכות התשובה הראשונה, אלא ביכולת להחזיק תהליך שלם, מתחילתו ועד סופו. 

הפוסט Anthropic משיקה את Claude Opus 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-opus-4-6/feed/ 0
הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI https://letsai.co.il/claude-ad-free/ https://letsai.co.il/claude-ad-free/#respond Fri, 06 Feb 2026 07:58:02 +0000 https://letsai.co.il/?p=69513 בעוד ענקיות הטכנולוגיה מחפשות דרכים לייצר רווחים מצ’אטבוטים, עולה שאלת האמון: האם העוזר האישי שלנו עובד עבורנו או עבור המפרסם? הכתבה סוקרת קמפיין סאטירי נוקב (סריה של ארבעה סרטונים) החושף את הסכנות שבשילוב פרסומות בשיחות AI, ומציגה את הגישה הנגדית של חברת Anthropic, המבקשת לשמר את Claude ככלי עבודה נקי מהטיות מסחריות, תוך הגדרת מודל […]

הפוסט הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעוד ענקיות הטכנולוגיה מחפשות דרכים לייצר רווחים מצ’אטבוטים, עולה שאלת האמון: האם העוזר האישי שלנו עובד עבורנו או עבור המפרסם? הכתבה סוקרת קמפיין סאטירי נוקב (סריה של ארבעה סרטונים) החושף את הסכנות שבשילוב פרסומות בשיחות AI, ומציגה את הגישה הנגדית של חברת Anthropic, המבקשת לשמר את Claude ככלי עבודה נקי מהטיות מסחריות, תוך הגדרת מודל כלכלי חדש המבוסס על “מסחר אייג׳נטלי” ביוזמת המשתמש.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהבינה המלאכותית הופכת לאיש מכירות חלקלק

תארו לעצמכם את הסיטואציה הבאה: אתם מנהלים שיחה עמוקה עם העוזר האישי שלכם על קשיים בתקשורת עם ההורים. ה-AI מקשיב, מגלה אמפתיה, מציע טכניקות להקשבה פעילה, ופתאום, ללא התראה, עובר לטון שיווקי אגרסיבי: “ואם הקשר לא ניתן לתיקון, למה שלא תמצא קשר רגשי באתר ‘Golden Encounters’ – אתר ההיכרויות שמחבר בין ‘גורים רגישים’ ל’לביאות שואגות’? רוצה שאבנה לך פרופיל?”

 

זה אולי משעשע, אבל זה לא תסריט דמיוני לחלוטין, אלא חלק מסדרת סרטונים סאטיריים המציגים את מה שמכונה “שחיתות מסחרית” (Commercial Corruption) של מרחב הטיפול הדיגיטלי. הסרטונים הללו, המתעדים אינטראקציות שמתחילות כעזרה כנה ומסתיימות בקידום מוצרים הזויים כמו מדרסים להגבהה ל”מלכים נמוכים” או הלוואות “מהירות” בריבית של 400%, מציבים מראה מטרידה מול תעשיית הבינה המלאכותית. 

 

ואת כל זה מסכמת שורת מחץ אחת, שמופיעה בסיום הקמפיין: “Ads are coming to AI. But not to Claude.” זו לא רק סיסמה פרסומית, אלא הצהרת עמדה ברורה על המקום שבו Anthropic מסמנת קו אדום.

 

כשהמודל העסקי מתנגש עם האמת

הקמפיין הסאטירי הזה אינו מיועד רק להצחיק – הוא תוקף את הלב הפועם של הדילמה הטכנולוגית המודרנית דרך השאלה המהדהדת בשיר של הראפר Dr. Dre (ד”ר דרה) בסוף כל סרטון: “?What’s the difference between me and you”.

 

זו לא רק שורת מחץ, אלא מכה ישירה ומכוונת היטב מתחת לחגורה של המתחרה הגדולה, OpenAI. בזמן שסם אלטמן והצוות שלו שומרים על עמימות בנוגע למודלים עתידיים של פרסום, Anthropic מנצלת את הבמה כדי להציב קו אדום ברור ועל הדרך לייצר מניפולציה מתובלת בפרובוקציה.

 

בניגוד לחיפוש רגיל שבו התרגלנו לסנן “תוצאות ממומנות”, שיחה עם AI היא מרחב אינטימי וחשוף. אם הבינה המלאכותית תתומרץ להטות את תשובותיה כדי למכור לנו מוצר, היא תפסיק להיות “עוזרת” ותהפוך לסוכנת מכירות חלקלקה במסווה של יועצת אובייקטיבית.

 

מודל הלוח הנקי של Anthropic

בתוך הכאוס הזה, חברת Anthropic, המפתחת של Claude, נוקטת עמדה חד משמעית. בהכרזה רשמית תחת הכותרת “קלוד הוא מרחב למחשבה”, מבהירה החברה כי שיחות עם בינה מלאכותית אינן מקום לפרסום.

 

החזון של החברה הוא להשאיר את קלוד כמרחב נקי, בדומה ללוח או מחברת ריקה – מקומות שבהם אין פרסומות שמסיחות את הדעת. המטרה היא שקלוד יפעל באופן בלתי משתמע לשני פנים לטובת המשתמש.

 

איך זה עובד בפועל? במקום להסתמך על כספי מפרסמים שיכתיבו את התוכן, המודל העסקי נשען על מנויים בתשלום וחוזים ארגוניים. כך, התמריץ היחיד של המודל הוא לספק את התשובה המועילה והמדויקת ביותר, ולא להוביל את המשתמש לרכישה מסוימת.

 

ומה אומרים ב-OpenAI?

ב-OpenAI דוחים את האופן שבו הקמפיין של Anthropic ממסגר את הדיון ויצאו למתקפת נגד משולבת. זה התחיל בקייט ראוץ’, מנהלת השיווק של החברה, שהדגישה את הפן הדמוקרטי – לטענתה, מודל חינמי המבוסס על מקורות הכנסה חיצוניים הוא הדרך היחידה להבטיח נגישות רחבה לבינה מלאכותית, במיוחד עבור אלו שידם אינה משגת לשלם עבור מנויי פרימיום.

 

אלא שהטון הפך מהר מאוד למתקפה חזיתית מצד ההנהלה הבכירה. סם אלטמן, מנכ”ל OpenAI, כינה את הקמפיין של Anthropic “לא ישר באופן מובהק” (clearly dishonest) והאשים את החברה ב”דיבור כפול” (doublespeak). אלטמן טען כי Anthropic תוקפת “מודלים תיאורטיים” של פרסום ש-OpenAI עצמה לעולם לא תטמיע, וסימן את Claude כ”מוצר יקר לאנשים עשירים”. כדי להמחיש את הפער, הוא עקץ וציין כי “יותר טקסנים משתמשים ב-ChatGPT בחינם מאשר סך כל המשתמשים בקלוד בארה”ב”.

 

אלטמן מאשים את Anthropic בפרובוקציה ומניפולציה

אלטמן מאשים את Anthropic בפרובוקציה ומניפולציה

במקביל, גרג ברוקמן, ממייסדי OpenAI, ניסה לסדוק את תדמית ה”טהרנות” של Anthropic. הוא הצביע על סעיף במניפסט שלהם שבו הם מציינים כי אם יצטרכו “לבחון מחדש את הגישה” הם יהיו שקופים לגבי זה. ברוקמן הציב אתגר ישיר למנכ”ל Anthropic, דאריו אמודיי, ותהה ב-X האם הוא מוכן להתחייב באופן מוחלט לעולם לא למכור את תשומת הלב של המשתמשים למפרסמים, או שמא החברה השאירה לעצמה “דלת אחורית” פתוחה לשינוי המודל בעתיד.

 

ברוקמן מצביע על הפרצה במניפסט של Anthropic

ברוקמן מצביע על הפרצה במניפסט של Anthropic

האם יש לנו בכלל ברירה?

אבל מעבר לוויכוח האידיאולוגי, עולה שאלת המציאות. העלויות של הרצת מודלי שפה הן אסטרונומיות, ויש מי שטוען שהמודל החינמי של היום הוא סוג של אחיזת עיניים, בדומה לימיה הראשונים של Uber, שסבסדה נסיעות בהפסד כדי לצמוח. אם המשתמש לא ישלם דרך פרסומות, הוא ייאלץ לשלם את המחיר האמיתי של השירות, שעלול להגיע למאות דולרים בחודש. במצב כזה, ה-AI יהפוך מ”מהפכה דמוקרטית” למוצר פרימיום לעשירים בלבד.

 

נקודה חשובה נוספת לתת לה דגש היא שבעולם ה-Performance Marketing יש מי שרואה בשילוב הזה הזדמנות. בניגוד לחיפוש בגוגל או לפיד בפייסבוק, ה-AI מבין את הקונטקסט שלנו לעומק. פרסומת בצ’אט לא חייבת להיות “מפגע ויזואלי”, היא יכולה להיות הצעה רלוונטית ומדויקת להפליא שמופיעה בדיוק כשאנחנו צריכים אותה. עבור יזמים ואנשי Growth, מדובר ב”ג’ונגל” חדש של הזדמנויות, שבו היכולת לחבר בין שיחה למסחר היא המפתח לכלכלה החדשה.

 

בסוף, השאלה היא פשוטה: האם אנחנו מעדיפים לשלם 200 דולר בחודש על “מרחב סטרילי”, או לקבל את הטכנולוגיה החזקה בעולם בחינם, תמורת תוכן שיווקי שבאמת רלוונטי לנו?

חדשנות בשירות המשתמש דרך “מסחר אייג׳נטלי” 

האם זה אומר שקלוד לעולם לא יעזור לנו לקנות דברים? לא בדיוק. כאן טמונה החדשנות המושגית. החברה מפרידה בין “פרסום” לבין “מסחר אייג׳נטלי” (Agentic Commerce).

 

במודל הפרסומי המסורתי, המפרסם הוא זה שיוזם את הקשר (Push). ב”מסחר אייג׳נטלי”, המשתמש הוא זה שיוזם את הפעולה (Pull). לדוגמה, אם תבקשו מקלוד לחקור עבורכם נעלי ריצה או להשוות שיעורי משכנתא, הוא יעשה את זה. בתור הסוכן שלכם, הוא יסרוק את המידע ויציג לכם השוואה אובייקטיבית המבוססת על הצרכים שתיארתם, ללא עמלות מצד היצרנים שיגרמו לו להעדיף נעל אחת על פני אחרת.

אמון כנכס אסטרטגי

הבחירה של Anthropic היא לא רק מוסרית, היא אסטרטגית. בעידן שבו הבינה המלאכותית הופכת לשכבת התשתית של העבודה והיצירה שלנו, “אמון” הופך למטבע היקר ביותר. חברה שתוכל להבטיח למשתמשיה שהיא לא מוכרת את תשומת הלב שלהם או את הנתונים שלהם למרבה במחיר, כנראה תזכה בנאמנות לטווח ארוך.

 

המשמעות רחבה יותר. מדובר בניסיון להגדיר מחדש את האינטרנט. אם העשור האחרון היה שייך לכלכלת תשומת הלב (Attention Economy), שבה המשתמש היה המוצר, העידן החדש של ה-AI מנסה להחזיר את המשתמש למרכז כבעל הבית.

לשמור על ה-AI “אנושי”

הסרטונים הסאטיריים על “השחיתות המסחרית” מזכירים לנו שקל מאוד לקלקל את הפוטנציאל האדיר של הבינה המלאכותית. ללא “חוקה” ברורה (כמו ה-Constitution שמנחה את קלוד), המודלים הללו עלולים להפוך למניפולטורים הגדולים ביותר בהיסטוריה.

 

הבחירה להשאיר את ה-AI נקי מפרסומות היא הכרחית כדי לשמר אותו ככלי למחשבה עמוקה, פתרון בעיות ויצירתיות. בסופו של יום, אנחנו רוצים שהעוזר האישי שלנו יעזור לנו לחשוב טוב יותר, לא רק לקנות יותר. משתמשים לא אמורים לתהות אם ה-AI שלהם עוזר להם או רק מנסה למכור להם תכשיטי “Lunar Memento”.

מה אפשר ללמוד מזה?

הצפייה בסרטונים האלו, שמציגים לטעמי סיטואציות אבסורדיות נוקבות ומצחיקות, נותנת תחושה של מעין דקירה של הבנה לגבי המרחב הדיגיטלי החדש שאנחנו בונים. זה גרם לי להבין שהאינטימיות הזו שאנחנו מייצרים עם הבינה המלאכותית היא חרב פיפיות. כשאנחנו פותחים את הלב או את התוכניות העסקיות שלנו מול מסך, אנחנו פגיעים הרבה יותר מאשר בשאילתת חיפוש יבשה בגוגל. שם אנחנו מצפים למודעות, כאן אנחנו מצפים להקשבה.

 

אבל כאן נכנסת המציאות הכלכלית המורכבת. אנחנו חייבים להבין שבעולם הטכנולוגי של היום, ייתכן שפשוט אין ברירה אחרת. העלויות העצומות של תחזוקת המודלים הללו מחייבות מודל כלכלי בר-קיימא. אם לא נהיה מוכנים לשלם את המחיר האמיתי של השירות, מחיר שעלול להיות גבוה משמעותית ממה שהתרגלנו, הפרסומות יהיו הדרך היחידה להשאיר את המהפכה הזו נגישה לכולם.

 

בסופו של יום, אין “ארוחות חינם” בטכנולוגיה. כדי לזכות באובייקטיביות מוחלטת ובמרחב נקי באמת למחשבה, אנחנו צריכים לקבל החלטה כואבת: האם אנחנו מוכנים להיות הלקוחות שמשלמים על השירות, או שנשלים עם היותנו המוצר שנמכר למפרסמים? המפתח הוא ביוזמה ובשקיפות. אני רוצה לדעת שהעוזר הדיגיטלי שלי עובד בשבילי. השאלה היא כמה אהיה מוכן לשלם, ומה הוא באמת המחיר של שמירה על התשובה כאמת מקצועית, ולא כמניפולציה שמתחפשת לעצה כנה.

הפוסט הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-ad-free/feed/ 0
מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים https://letsai.co.il/agents-thinking-partners/ https://letsai.co.il/agents-thinking-partners/#respond Thu, 05 Feb 2026 07:08:54 +0000 https://letsai.co.il/?p=69210 כשחברות הטכנולוגיה מציגות סוכני AI, הן נוטות להציג תרחיש דומה: אתה אומר “תזמין לי טיסה לניו יורק ומלון ליד סנטרל פארק”, והסוכן עושה הכול בשבילך. זה נשמע פשוט ואלגנטי, אבל מתברר שזה לא מה שקורה בפועל. מחקר חדש של אוניברסיטת הרווארד וחברת Perplexity, שפורסם בדצמבר 2025, ניתח מאות מיליוני אינטראקציות אמיתיות עם סוכני AI. הממצאים […]

הפוסט מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים הופיע ראשון בLet's AI בינה מלאכותית

]]>
כשחברות הטכנולוגיה מציגות סוכני AI, הן נוטות להציג תרחיש דומה: אתה אומר “תזמין לי טיסה לניו יורק ומלון ליד סנטרל פארק”, והסוכן עושה הכול בשבילך. זה נשמע פשוט ואלגנטי, אבל מתברר שזה לא מה שקורה בפועל. מחקר חדש של אוניברסיטת הרווארד וחברת Perplexity, שפורסם בדצמבר 2025, ניתח מאות מיליוני אינטראקציות אמיתיות עם סוכני AI. הממצאים מציגים תמונה שונה לחלוטין: 57% מהשימוש מתרכז בעבודה קוגניטיבית, לא במשימות פשוטות. אנשים לא משתמשים בסוכנים כדי לחסוך זמן על הזמנת טיסות, הם משתמשים בהם כדי לחשוב טוב יותר. ויש גם צד פחות מעודד שמשקף פערים דיגיטליים שרק מתרחבים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הרעש סביב AI והפער בנתונים

2025 הוכרזה כ”שנת הסוכנים” בתעשיית הטכנולוגיה. OpenAI, Anthropic, Google ו-Microsoft השיקו מוצרים שמבטיחים לבצע משימות בשם המשתמש, לא רק לענות על שאלות. אבל עד לאחרונה, רוב מה שידענו על השימוש בהם נשען על אנקדוטות, הדגמות שיווקיות וסקרים עצמיים. נתונים אמפיריים בהיקף גדול פשוט לא היו.

 

המחקר החדש משנה את זה. החוקרים ניתחו נתוני שימוש מ-Comet, דפדפן AI שפיתחה Perplexity והושק ביולי 2025. הדפדפן כולל סוכן משולב בשם Comet Assistant, שמסוגל לבצע פעולות באתרים: לשלוח מיילים, לערוך מסמכים, להזמין טיסות. במשך ארבעה חודשים אספו החוקרים מאות מיליוני אינטראקציות אנונימיות, ושאלו שלוש שאלות יסוד: מי משתמש בסוכני AI? כמה אינטנסיבי השימוש? ולאילו משימות?

 

התשובות מפתיעות. 57% מכלל השימוש מתרכז בשני תחומים בלבד: פרודוקטיביות וזרימות עבודה (36%) ולמידה ומחקר (21%). במקום לבקש מהסוכן להזמין מלון, משתמשים מבקשים ממנו לנתח מסמכים, לסכם מחקרים, לכתוב דוחות, לסנן מידע פיננסי או להבין חומר לימודי.

 

התפלגות השימוש בסוכני AI לפי נושאים

התפלגות השימוש בסוכני AI לפי נושאים | Perplexity

חקר הממצאים מתוך השטח

החוקרים מציגים דוגמאות קונקרטיות. איש רכש ביקש מהסוכן לסרוק עשרות סיפורי לקוח ולזהות שימושים רלוונטיים לפני פגישה עם ספק. סטודנט השתמש בו כדי לנווט בין חומרי קורס ולנתח את מה שהוא לומד. עובד פיננסים האציל לסוכן את סינון אופציות ההשקעה והפקת תובנות ראשוניות.

 

בכל המקרים האלה הסוכן לא מבצע את העבודה במקום המשתמש. הוא אוסף מידע, מעבד אותו ומספק סינתזה ראשונית שמאפשרת לאדם לקבל החלטות. החוקרים מכנים את זה “שותף לחשיבה” (thinking partner). זו הבחנה חשובה – הסוכן לא מחליף את החשיבה האנושית, הוא מרחיב את היכולת לעשות אותה.

למה דווקא בעבודה קוגניטיבית?

משימות פשוטות כמו הזמנת טיסה לוקחות דקות ספורות גם בלי סוכן, הערך המוסף קטן. אבל עבודה קוגניטיבית, כמו קריאת עשרות מסמכים, סינון מידע והפקת תובנות, היא צוואר הבקבוק של העבודה המודרנית. שם כל שעה שנחסכת היא שעה שמשתחררת לחשיבה, יצירתיות או קבלת החלטות.

 

זו הסיבה שסוכני AI מצאו את מקומם דווקא במשימות המורכבות. לא בגלל שהם יכולים לעשות אותן, אלא בגלל שדווקא שם הם באמת משנים את המשוואה.

מתחילים בקטן, מתקדמים במהירות

אחד הממצאים המעניינים במחקר הוא מסלול ההתפתחות של משתמשים. ביום הראשון, רוב האנשים שואלים שאלות קלילות: המלצות לסרט, רעיונות לטיול או טריוויה. אבל משהו משתנה כשהמשתמש חווה הצלחה ראשונה במשימה מורכבת, כמו דיבוג קוד או סיכום דוח פיננסי. מאותו רגע הוא כמעט לא חוזר למשימות הפשוטות.

 

מאיפה מתחילים ולאן מגיעים: שינוי בדפוסי השימוש לאורך זמן

שינוי בדפוסי השימוש לאורך זמן | Perplexity

 

הנתונים מראים דפוס עקבי. קטגוריות הפרודוקטיביות והלמידה הן בעלות שיעורי השימור הגבוהים ביותר. משתמשים שמתחילים להשתמש בסוכן למחקר או ללמידה נוטים להפוך למשתמשים קבועים לטווח ארוך.

המפה המקצועית: מי משתמש ולמה

המחקר מגלה התאמה חזקה בין תפקיד המשתמש לבין סוג המשימות שהוא מעביר לסוכן. סטודנטים מקדישים 43% מהשימוש שלהם ללמידה ומחקר. אנשי פיננסים – 47% לפרודוקטיביות. מעצבים משתמשים יותר במדיה, ואנשי תיירות בתכנון נסיעות.

 

שישה תחומים בלבד אחראים ל-70% מכלל הפעילות: טכנולוגיה, אקדמיה, פיננסים, שיווק, יזמות וסטודנטים. כולם עתירי ידע. המשמעות ברורה – ככל שהעבודה מבוססת יותר על עיבוד מידע וקבלת החלטות, כך הסוכן הופך לכלי מרכזי יותר.

 

השוואה בין שיעור האימוץ לשיעור השימוש בפועל

השוואה בין שיעור האימוץ לשיעור השימוש בפועל | Perplexity

עשר פלטפורמות מרכזות 83% מהשימוש

ממצא נוסף מאתגר את התפיסה הרווחת. משתמשים לא עובדים עם הסוכן בסביבה נפרדת, הם משתמשים בו בתוך הכלים שהם כבר מכירים. עשר פלטפורמות בלבד מרכזות 83% מכלל הפעילות, כש-Google Docs, שירותי אימייל, LinkedIn ו-YouTube מובילות את הרשימה.

 

הריכוז בולט במיוחד בתחומים מסוימים: 93% מהמשימות בתחום הנטוורקינג המקצועי מתבצעות ב-LinkedIn, ו-90% מצפיית הווידאו ב-YouTube. המשמעות לחברות שמפתחות סוכני AI היא, שאם רוצים שהמוצר יהיה שימושי באמת, צריך לבנות אינטגרציות עמוקות במקומות שבהם המשתמשים כבר נמצאים.

הפיל בחדר: פערים דיגיטליים

המחקר חושף גם תמונה מדאיגה. שני משתנים מנבאים את קצב האימוץ טוב יותר מכל גורם אחר: תוצר מקומי גולמי לנפש ושנות השכלה ממוצעות. מדינות עשירות ומשכילות יותר מאמצות את הטכנולוגיה מהר יותר, והפער משמעותי.

 

הנתונים על מאמצים מוקדמים מחדדים את הנקודה. משתמשים שקיבלו גישה מוקדמת לסוכן, לפני שהוא נפתח לכולם, שולחים פי תשע יותר שאילתות ממשתמשים שהצטרפו מאוחר יותר. הם לא רק אימצו את הטכנולוגיה, הם למדו להשתמש בה ביעילות. אם הדפוס הזה יימשך, הפער בין מי שיודע לעבוד עם סוכן AI לבין מי שלא עלול להפוך ל”פער מיומנות קוגניטיבית”.

מה כל זה אומר?

עבור התעשייה, המשמעות היא להשקיע בפיצ’רים שמקדמים פרודוקטיביות ולמידה, להתמקד במשתמשים שכבר גילו את הערך הקוגניטיבי, ולבנות אינטגרציות עמוקות עם הכלים שאנשים כבר משתמשים בהם. סוכני AI שימכרו את עצמם כ”עוזרים להזמנת טיסות” יפספסו את השוק האמיתי.

 

עבור מערכות החינוך וקובעי מדיניות, האתגר מורכב יותר. אם סוכני AI הופכים לכלי בסיסי לעבודה קוגניטיבית, כמו שהמחשב הפך לכלי בסיסי לעבודה משרדית, אז הנגישות אליהם היא שאלה של שוויון הזדמנויות. לא מדובר רק ברשיונות תוכנה או בחיבור לאינטרנט, אלא גם במיומנות לדעת איך להשתמש בכלי בצורה שמרחיבה יכולת, לא רק חוסכת זמן.

 

השאלה שנשארת פתוחה: האם סוכני AI יהפכו לתשתית בסיסית כמו אינטרנט, זמינים ונגישים לכולם, או לכלי פרימיום שמעצים בעיקר את מי שכבר נמצא בעמדת יתרון? המחקר לא נותן תשובה, אבל הוא מצביע על כיוון מדאיג. בלי מאמצים מכוונים להנגשה, הפער הדיגיטלי הבא כבר נבנה.

 

אם המחשב האישי הפך אותנו למפעילי תוכנה, סוכני AI הופכים אותנו למנהלי אינטליגנציה. השאלה היא מי יזכה להיות חלק מהמהפכה הזו, ומי יישאר בחוץ.

הפוסט מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/agents-thinking-partners/feed/ 0
המדריך המלא ל-Gemini Gems https://letsai.co.il/gemini-gems-guide/ https://letsai.co.il/gemini-gems-guide/#comments Tue, 03 Feb 2026 07:37:26 +0000 https://letsai.co.il/?p=69161 מהפכת הבינה המלאכותית היוצרת (GenAI) כבר נמצאת בשלב שבו אנחנו לא רק שואלים שאלות בתיבת צ’אט ריקה, אלא בונים לעצמנו “סוכנים” – עוזרים חכמים שזוכרים את ההוראות שלנו, מכירים את הקבצים שלנו ומתמחים בתחומים ספציפיים. בלב המערכת של גוגל עומדים ה-Gems, כלי המאפשר לכל משתמש להפוך את המודל הגנרי לעובד מומחה ומותאם אישית. המדריך הזה […]

הפוסט המדריך המלא ל-Gemini Gems הופיע ראשון בLet's AI בינה מלאכותית

]]>
מהפכת הבינה המלאכותית היוצרת (GenAI) כבר נמצאת בשלב שבו אנחנו לא רק שואלים שאלות בתיבת צ’אט ריקה, אלא בונים לעצמנו “סוכנים” – עוזרים חכמים שזוכרים את ההוראות שלנו, מכירים את הקבצים שלנו ומתמחים בתחומים ספציפיים. בלב המערכת של גוגל עומדים ה-Gems, כלי המאפשר לכל משתמש להפוך את המודל הגנרי לעובד מומחה ומותאם אישית. המדריך הזה יספק לכם את כל הכלים לבנייה, ניהול ואופטימיזציה של ה-Gems שלכם.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

משיחה אקראית לעוזר קבוע

בעבר, כל אינטראקציה עם AI התחילה מאפס (“דף חלק”). הייתם צריכים להסביר מחדש מי אתם, מהו הטון הרצוי ומהו ההקשר העסקי. ה-Gems נועדו לשבור את המעגל הזה על ידי יצירת זהות קבועה.

 

Gem הוא עוזר דיגיטלי בעל “אישיות מקצועית”: הוא יודע מה התפקיד שלו, הוא פועל לפי מתודולוגיה קבועה שהגדרתם לו, והוא מחובר למקורות הידע האמיתיים שלכם. עבור משתמשים רציניים, זהו ההבדל בין “לבקש עזרה” לבין ניהול צוות מומחים דיגיטלי שעובד בשיטה שלכם.

ניהול ידע דינמי

אחד ההבדלים הקריטיים ביותר בין Gems לבין פתרונות מקבילים (כמו Custom GPTs) הוא אופן הטיפול במידע. בעוד שבמערכות אחרות הידע הוא “סטטי” (העליתם קובץ והוא נשאר כפי שהוא), ה-Gems נהנים מהדינמיות של ה-Google Drive.

  • סנכרון חי: כשאתם מקשרים Gem לתיקייה או למסמך בדרייב, הוא “חי” אותם. אם עדכנתם את מסמך האפיון או את דוח המכירות, ה-Gem יתבסס על המידע המעודכן ביותר ברגע השאלה, ללא צורך בהעלאה ידנית מחדש.

  • מולטי-מודאליות מלאה: ה-Gems אינם מוגבלים לעיבוד טקסט בלבד, אלא מהווים ארגז כלים רב-תחומי לביצוע משימות מורכבות. המערכת מסוגלת לנתח סרטוני וידאו ארוכים ולינקים ישירים מ-YouTube לצורך הפקת תובנות, סיכומים ומחקר עומק. בנוסף ליכולות עיבוד וייבוא קוד ישיר, ה-Gem מאפשר ניתוח תמונות מתקדם באמצעות NanoBanana ויצירת תוכן וידאו מקורי בעזרת Veo. שילוב של כלים אלו עם ממשק ה-Canvas מאפשר לסוכן להפיק תוצרים מובנים כמו אינפוגרפיקות, מצגות ומסמכים מורכבים, ובכך להפוך משותף למחשבה לשותף מלא לתהליך.

 

מולטי-מודאליות ככלי עבודה מתקדם

מולטי-מודאליות ככלי עבודה מתקדם

Gems מול Custom GPTs: השוואה תמציתית

כדי להבין את המפה הטכנולוגית, חשוב להכיר את ההבדלים בגישות:

 

טבלת השוואה

Gemini Gems מול Custom GPTs

מדריך טכני: שלושת הנדבכים לבניית Gem מנצח

בניית Gem היא תהליך פשוט, אך דורשת מחשבה אסטרטגית. כל סוכן נשען על שלושה יסודות:

1. זהות (Identity)

הגדירו ל-Gem שם ותפקיד ברור. במקום “כותב תוכן”, הגדירו אותו כ-“עורך לשוני בכיר במגזין טכנולוגי, מומחה בפישוט מושגים מורכבים”.

2. הנחיות זהב (Instructions)

כאן מתבצעת רוב העבודה. כדי להגיע לתוצאות ברמה גבוהה, השתמשו בשני עקרונות:

  • הוראות לפי דוגמה (Few-Shot): הדביקו בתוך שדה ההוראות דוגמה לתוצר מושלם שכתבתם בעבר. המודל ישכפל את הסטנדרט הזה בכל פעם מחדש.

  • הוראות לפי תהליך (Chain of Thought): אל תגדירו רק את התוצאה, אלא את שלבי העבודה (שלב 1: סרוק, שלב 2: זהה חריגות, שלב 3: נסח מסקנות).

3. חיבור ידע (Knowledge)

הפעילו את תוספי ה-Google Workspace וחברו את ה-Gem לתיקיות הרלוונטיות בדרייב. ודאו שההרשאות לקבצים תואמות למי שאמור להשתמש ב-Gem. ודאו שהרשאות הקבצים בדרייב תואמות למי שאמור להשתמש ב-Gem כדי למנוע חשיפת מידע רגיש.

טיפ! כפתור ה-Magic Rewrite: השתמשו באייקון הניצוצות לאחר שכתבתם טיוטה ראשונית של הוראות. גוגל תשתמש בבינה מלאכותית כדי לשכתב את הפרומפט שלכם למבנה לוגי שג’מיני מבין בצורה הטובה ביותר.

 

כפתור הקסם לשיפור הפרומפט

כפתור הקסם לשיפור הפרומפט

כך תבנו את ה-Gem הראשון שלכם (צעד אחר צעד)

תהליך היצירה של Gem הוא פשוט ואינטואיטיבי, אך דורש תשומת לב לפרטים כדי להבטיח שהסוכן יפעל בדיוק לפי הציפיות שלכם. עקבו אחרי ששת השלבים שהופכים רעיון לסוכן עובד:

1. כניסה לאזור ה-Gems בסרגל הצידי של Gemini, אתרו את קטגוריית ה-Gems ולחצו עליה כדי לפתוח את תפריט הניהול.

2. פתיחת Gem חדש בתוך תפריט ה-Gems, לחצו על כפתור ה-“New Gem” כדי להתחיל בתהליך האפיון של הסוכן החדש שלכם.

3. הגדרת שם, תיאור והוראות זהב (Instructions) כאן אתם בונים את “המוח” של הסוכן:

  • שם ותיאור: תנו לסוכן שם שמגדיר את תפקידו (למשל: “מנתח נתונים עסקיים”).

  • Instructions: הגדירו לו איך הוא צריך לחשוב ולעבוד. השתמשו בטכניקות של הוראות לפי דוגמה (מתן מודל לחיקוי) והוראות לפי תהליך (חלוקת המשימה לשלבים לוגיים).

4. שיפור אוטומטי (Magic Rewrite) אל תתאמצו לכתוב את הפרומפט המושלם בניסיון הראשון. לחצו על כפתור ה-Rewrite, וג’מיני ישדרג את ההוראות שלכם למבנה מקצועי שהמודל מגיב אליו בצורה הטובה ביותר.

5. חיבור וטעינת בסיס ידע (Knowledge) זהו השלב שהופך את ה-Gem למומחה למידע שלכם. ג’מיני מאפשר גמישות רבה בבחירת המקורות:

  • העלאת קבצים: טעינת מסמכים ישירות מהמחשב.

  • Add from Drive: קישור תיקיות או מסמכים מהדרייב המסתנכרנים בזמן אמת.

  • Photos, Import code & NotebookLM: העלאת תמונות, ייבוא קוד ישיר או סנכרון עם NotebookLM להעמקת בסיס הידע.

6. שמירה ושימוש לחצו על Save בפינה העליונה. הסוכן שלכם מוכן! הוא יופיע בסרגל הצידי ויוכל לנתח סרטוני יוטיוב, לכתוב קוד, לייצר תמונות או לסכם דוחות בתוך שניות.

 

בניית Gem צעד אחרי צעד

תרחישי שימוש (Use Cases) לארגונים

כדי להתחיל לעבוד כבר עכשיו, ריכזתי עבורכם 5 סוגי Gems המותאמים לצרכים ארגוניים נפוצים. כל Gem בנוי לפי עקרונות “הנחיות הזהב”: הגדרת זהות, עבודה לפי שלבים (תהליך), ושימוש בדוגמאות (Few-shot). כמובן שאלה רק דוגמאות – קחו את זה לעולמות שלכם ותעשו התאמות.

1. מנתח מפרטים טכניים (Technical Architect Gem)

הייעוד: וידוא עקביות בין מסמכי אפיון, זיהוי כשלים לוגיים והפקת סיכומי מנהלים טכניים.

  • זהות: “אתה ארכיטקט מערכות בכיר עם 20 שנות ניסיון. המומחיות שלך היא פירוק מפרטים מורכבים לדרישות ברורות וזיהוי סיכונים טכניים”.

  • ידע: חיבור לתיקיית “Specifications” ב-Google Drive.

  • הנחיות זהב (תהליך):

    “בכל פעם שאעלה דרישה חדשה או אפנה אותך למסמך, פעל כך:

    1. סרוק את המסמך והשווה אותו למפרטי המערכת הקיימים בדרייב.

    2. זהה 3 נקודות של חוסר עקביות או סיכונים פוטנציאליים.

    3. נסח טבלת השוואה בין המצב הקיים לדרישה החדשה.

    4. סיים בסיכום של ‘שורה תחתונה’ עבור צוות הפיתוח”.

2. שומר סף של שפת המותג (Brand Voice Guardian)

הייעוד: הבטחה שכל תוכן שיווקי, מייל או פוסט עומד בסטנדרט הכתיבה והטון של הארגון.

  • זהות: “אתה מנהל הקריאייטיב והעורך הראשי של המותג. התפקיד שלך הוא להפוך טקסטים יבשים לתוכן מרתק ששומר על ערכי החברה”.

  • ידע: קובץ “Style Guide” ומסמך “Brand Persona” בדרייב.

  • הנחיות זהב (דוגמה/Few-shot):

    “הנה דוגמה לפוסט מצוין שכתבנו בעבר: [הדבקת דוגמה]. בכל פעם שאשלח לך טיוטה, שכתב אותה כך שתתאים לאורך של הדוגמה, לטון הדיבור המקצועי אך נגיש, והימנע משימוש במילים גנריות כמו ‘חדשני’ או ‘מהפכני’. ודא שהקריאה לפעולה תמיד מניעה לרישום לניוזלטר”.

3. עוזר PMO לניהול פרויקטים (Project Sync Gem)

הייעוד: מעקב אחר משימות, סנכרון בין צוותים והפקת דוחות סטטוס דינמיים המבוססים על קבצים מעודכנים.

  • זהות: “אתה מנהל פרויקטים (PMO) מיומן. אתה מצטיין בארגון מידע מפוזר והפיכתו לתוכנית עבודה אופרטיבית”.

  • ידע: תיקיית “Project Status” הכוללת קבצי Sheets ו-Docs מעודכנים.

  • הנחיות זהב (תהליך):

    “בכל יום ראשון בבוקר, סרוק את קבצי הסטטוס בתיקייה וספק לי:

    1. רשימת משימות בפיגור (Critical Path).

    2. עדכון על אבני דרך שהושלמו בשבוע החולף.

    3. טיוטת מייל לעדכון הנהלה הכוללת גרף התקדמות באחוזים”.

4. מפיק תובנות מפגישות (Meeting Insights Specialist)

הייעוד: ניתוח הקלטות וידאו של פגישות (דרך יוטיוב או העלאת קובץ) והוצאת משימות לביצוע.

  • זהות: “אתה עוזר אישי אסטרטגי. התפקיד שלך הוא להקשיב למה שנאמר בין השורות ולזקק את המהות של כל פגישה”.

  • הנחיות זהב (תהליך):

    “לאחר שאשלח לך לינק להקלטת הפגישה או קובץ וידאו, בצע את הפעולות הבאות:

    1. סכם את 5 הנושאים העיקריים שנדונו.

    2. צור רשימת משימות (Action Items) הכוללת את שם האחראי לכל משימה.

    3. זהה נקודות של חוסר הסכמה שנותרו פתוחות.

    4. נסח הודעת סיכום קצרה ל-Slack עבור כל המשתתפים”.

5. אנליסט נתונים עסקיים (Data Insights Lead)

הייעוד: ניתוח טבלאות נתונים מורכבות, הרצת קוד לחישובים והצגת מגמות עסקיות.

  • זהות: “אתה דאטה סיינטיסט המומחה בניתוח נתונים עסקיים. אתה יודע להפוך מספרים לסיפור שמוביל להחלטות”.

  • ידע: חיבור לקובץ ה-Sheets המרכזי של מחלקת המכירות/שיווק.

  • הנחיות זהב (תהליך):

    “בכל פעם שאבקש ניתוח, השתמש ביכולת הרצת הקוד (Python) שלך כדי:

    1. לזהות מגמות צמיחה חודשיות (MoM).

    2. למצוא חריגות (Outliers) בנתונים שדורשות תשומת לב.

    3. ליצור ויזואליזציה פשוטה של הנתונים.

    4. הצע 3 פעולות אופרטיביות לשיפור הביצועים על בסיס הנתונים”.

למי זה זמין?

נכון להיום, היכולת ליצור ולהשתמש ב-Gemini Gems פתוחה לכלל המשתמשים, כולל אלו בגרסה החינמית. ההבדל טמון ב”כוח המנוע”: המנויים נהנים ממודלים חזקים ומתקדמים יותר ומחלון הקשר עצום (1 מיליון טוקנים) המאפשר ל-Gem “לזכור” ולנתח מאות מסמכים בו-זמנית, בניגוד לזיכרון המוגבל ולמודלי ה-Flash בגרסה החינמית. בנוסף, המנוי פותח יכולות מתקדמות כמו הרצת קוד Python לניתוח נתונים בזמן אמת ואינטגרציה “חיה” למסמכי Drive ו-Gmail, המאפשרת עבודה דינמית על פרויקטים מתמשכים ללא מגבלות העומס הקיימות בחינם.

אז האם Gemini Gems הוא השותף הנכון עבורכם?

לאחר שצללנו לעומק היכולות, הגיע הרגע להבין היכן הכלי הזה פוגש את זרימת העבודה האישית והארגונית שלכם. בניגוד לכלים גנריים, ה-Gems דורשים השקעה ראשונית באפיון, אך התמורה היא שותף דיגיטלי שמכיר אתכם לעומק.

ניתוח אופרטיבי: יתרונות מול חסרונות

היתרונות המובהקים:

  • בסיס ידע “חי” ונושם: הסנכרון המלא ל-Google Drive מבטיח שהסוכן תמיד מעודכן. אין צורך להעלות קבצים מחדש בכל פעם שהנתונים משתנים – ה-Gem “חי” את המסמכים שלכם.

  • מולטי-מודאליות ללא פשרות: היכולת לנתח סרטוני וידאו (כולל YouTube) ולשלב כלי יצירה כמו Veo ו-Canvas הופכת את ה-Gem מסוכן טקסטואלי למכונת ייצור תוכן רב-תחומית.

  • ארגז הכלים של Gemini Advanced: גישה מלאה להרצת קוד, יצירת תמונות ואינטגרציות Workspace המובנות בתוך הסוכן.

החסרונות שיש להכיר:

  • הפצה מוגבלת: נכון לעכשיו, ה-Gems מיועדים בעיקר לשימוש אישי או צוותי בתוך הארגון. חסרונה של חנות ציבורית (Store) הופך אותם לפחות מתאימים למי שמחפש להפיץ מוצר לקהל הרחב.

  • ניהול הרשאות: שיתוף Gems דורש תשומת לב להרשאות הקבצים בדרייב. הצד השני חייב הרשאת גישה לנתונים המקוריים כדי שהסוכן יפעל עבורו במלוא העוצמה.

מתי לבחור ב-Gems?

השתמשו ב-Gems כאשר סביבת העבודה שלכם היא Google Workspace, המידע שלכם דינמי ומשתנה בתדירות גבוהה, וכאשר אתם זקוקים לעוזר אישי או צוותי שמכיר את המתודולוגיה והסטנדרטים הייחודיים שלכם.

הצעד הבא שלכם: מאסטרטגיה ליישום

ה-Gems הם לא רק פיצ’ר נחמד – הם תשתית פרודוקטיביות. מי שממשיך לעבוד רק בתיבת הצ’אט הרגילה, מפספס את היכולת של ה-AI להכיר את השיטה והסטנדרטים הייחודיים שלו.

 

מה עושים עכשיו? זה הזמן לבחור את המשימה שחוזרת על עצמה הכי הרבה ביום העבודה שלכם, בין אם זה ניסוח מיילים, סיכום דוחות מורכבים או ניתוח נתוני מכירות, ולבנות עבורה את ה-Gem הראשון שלכם. השקיעו בהוראות (Instructions), חברו את מקורות הידע הנכונים, ותנו לשותף הדיגיטלי החדש שלכם להתחיל לעבוד בשבילכם.

 

המעבר מבינה מלאכותית ככלי חיצוני לבינה מלאכותית כחלק מהצוות מתחיל כאן.

הפוסט המדריך המלא ל-Gemini Gems הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-gems-guide/feed/ 4
האם Maia 200 הוא הנשק של מיקרוסופט מול שלטון הסיליקון של אנבידיה? https://letsai.co.il/microsoft-maia-200/ https://letsai.co.il/microsoft-maia-200/#respond Mon, 02 Feb 2026 07:20:45 +0000 https://letsai.co.il/?p=69068 במשך שנתיים נדמה היה שתעשיית הבינה המלאכותית מתנהלת כמו מרוץ חימוש: מי ישיג עוד אלפי מעבדי אנבידיה, מי יאמן את המודל הגדול הבא, ומי יצליח לעמוד בקצב. אבל כשהאבק מתחיל לשקוע, מתברר שהקרב האמיתי לא מתרחש בשלב האימון, אלא דווקא בשלב ההפעלה היומיומית. כל שאלה ב‑ChatGPT, כל סיכום מסמך ב‑Word, כל פעולה של Copilot – […]

הפוסט האם Maia 200 הוא הנשק של מיקרוסופט מול שלטון הסיליקון של אנבידיה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשך שנתיים נדמה היה שתעשיית הבינה המלאכותית מתנהלת כמו מרוץ חימוש: מי ישיג עוד אלפי מעבדי אנבידיה, מי יאמן את המודל הגדול הבא, ומי יצליח לעמוד בקצב. אבל כשהאבק מתחיל לשקוע, מתברר שהקרב האמיתי לא מתרחש בשלב האימון, אלא דווקא בשלב ההפעלה היומיומית. כל שאלה ב‑ChatGPT, כל סיכום מסמך ב‑Word, כל פעולה של Copilot – כולם מצטברים למיליוני פעולות חישוב שמייצרות עלויות אדירות. אל תוך המציאות הזו נכנסת מיקרוסופט עם Maia 200, שבב חדש שלא מנסה להיות הכי חזק בשוק, אלא הכי יעיל למשימה שהוא נועד לבצע. במקום עוד מפלצת אימון שתתחרה באנבידיה, החברה מציגה מאיץ שמותאם למשימה אחת – להריץ מודלים קיימים בצורה יעילה, חסכונית ויציבה. זה סיפור על שינוי כיוון – מהתלהבות טכנולוגית לכלכלה של ממש.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

Inference הוא בור תקציבי שלא מדברים עליו

בעוד שהאימון (Training) זכה לכותרות, ההסקה (Inference) הפכה בשקט לאתגר הגדול של תעשיית ה‑AI. אם אימון מודל הוא כמו בניית מכונית פורמולה‑1, הרי שהאינפרנס הוא הנסיעה היומיומית, זו שמתרחשת מיליארדי פעמים ביום. וכאן מתגלה האבסורד – שבבי אנבידיה, שנועדו למסלול המרוצים, משמשים גם לנסיעה למכולת.

 

הם חזקים, אבל יקרים. מהירים, אבל בזבזניים. וכשמיקרוסופט מפעילה שירותים כמו Copilot ו‑Azure בקנה מידה עולמי, כל טוקן שנוצר הופך לשורה בהוצאות. כדי שה‑AI יהיה עסק בר‑קיימא, צריך לשנות את הכלכלה שלו ולא רק את היכולות שלו.

הפתרון: שבב מומחה שנולד למשימה אחת

ה-Maia 200 הוא לא “מוח” לכל מטרה. הוא מכונה משומנת שנבנתה מתוך הבנה עמוקה של צרכי השעה. כדי להבין את עוצמת השינוי, צריך לזכור שהדור הקודם, ה-Maia 100, היה מאיץ שנולד בעולם ה’טרום-GPT’, עידן שבו הבינה המלאכותית הייתה משימה פשוטה בהרבה.

 

ה-Maia 200, לעומת זאת, הוא שבב שתוכנן במפורש לעידן ה’פוסט-GPT’: הוא נבנה מהיסוד כדי להתמודד עם המורכבות האדירה של הסקה מולטי-מודאלית – היכולת לעבד טקסט, תמונה וקול בו-זמנית ובמהירות שיא.

 

הוא מיוצר בטכנולוגיה המתקדמת ביותר בעולם (3 ננומטר), מה שמאפשר למיקרוסופט לדחוס לתוכו 140 מיליארד טרנזיסטורים – אותם רכיבי חישוב זעירים שמהווים את ה’תאים האפורים’ של השבב. זה פלא הנדסי שמציב אותו בשורה הראשונה של שבבי-העל המודרניים.

 

הבשורה האמיתית שלו היא היכולת לעבוד “רזה”. במקום לבצע חישובים מסורבלים ויקרים, הוא משתמש בשיטות מתמטיות חכמות (המכונות FP4 ו-FP8) שמאפשרות לו לעבד נתונים במהירות שיא. זה סוג של “קיצור דרך” אלגנטי – השבב עונה על שאלות הרבה יותר מהר וצורך כמעט חצי מכמות החשמל של המתחרים, מבלי שהמשתמש ירגיש שום ירידה באיכות התשובה.

איך זה עובד? 

מעבר לעוצמת החישוב הגולמית, ה-Maia 200 פותר את אחת הבעיות המתסכלות ביותר בעולם המחשוב: המרחק בין ה”מוח” ל”זיכרון”. דמיינו טבח שצריך להכין מנה במהירות, אבל כל פעם שהוא זקוק לתבלין, הוא חייב לרוץ למחסן בקצה הרחוב. השבב של מיקרוסופט משנה את חוקי המשחק בכך שהוא שם את ה”תבלינים” (נתוני המודל) ממש על שולחן העבודה של המעבד.

 

הוא עושה זאת באמצעות רכיב זיכרון מהיר במיוחד (SRAM) בנפח יוצא דופן, שנמצא על השבב עצמו. זה מאפשר לנתונים להישאר “ליד” יחידות העיבוד מבלי לבזבז זמן יקר על תנועה לזיכרון חיצוני איטי. הפתרון הזה מאפשר לשבב לעקוף את מה שנקרא בתעשייה “קיר הזיכרון” – צוואר בקבוק שמעכב כמעט כל שבב מודרני אחר וגורם להמתנה מיותרת של המערכת.

 

בנוסף, מיקרוסופט תכננה את ה-Maia 200 כך שיהיה “שחקן קבוצתי”. במקום לדרוש הקמת מרכזי נתונים יקרים ומיוחדים, הוא תוכנן להשתלב בקלות בשרתים הקיימים של החברה (Azure). כאן נכנס היתרון של צריכת החשמל המאוזנת – בזמן ששבבי הדגל של המתחרים מתחממים כל כך עד שהם דורשים מערכות קירור מורכבות ויקרות (כמו קירור נוזלי), ה-Maia 200 מסתפק במערכות קירור סטנדרטיות. עבור מיקרוסופט, זה אומר שהיא יכולה להתקין אותו מהר יותר ובזול יותר.

 

התוצאה אינה תאורטית בלבד – השבב כבר מריץ בפועל את המודלים המתקדמים ביותר של החברה, כולל ה-Copilot שאנו מכירים. בקרוב, היכולת הזו תיפתח גם ללקוחות חיצוניים, מה שיהפוך את הבינה המלאכותית לנגישה וזולה יותר עבור עסקים בכל העולם.

 

הנה טבלת השוואה שממחישה את היתרון של Maia 200:

 

כוח גולמי מול יעילות תפעולית

כוח גולמי מול יעילות תפעולית

הדרך לשוק

המסע של Maia 200 לא היה חלק. לפי דיווחים פנימיים, OpenAI, הלקוחה והשותפה החשובה ביותר של מיקרוסופט, דרשה באמצע הפיתוח שינויים משמעותיים בעיצוב השבב כדי להתאים למודלים העתידיים שלה. השינויים האלו, יחד עם קשיים טכניים ותחלופה גבוהה בצוותי ההנדסה, דחו את ההשקה בכחצי שנה.

 

בעולם שבו כל רבעון קובע, זה עיכוב משמעותי. בזמן שמיקרוסופט התמודדה עם האתגרים, גוגל השיקה את TPU v7 ואמזון התקדמה עם Trainium 3. ה-Maia 200 הגיע לשוק מאוחר יותר – אבל עם מיקוד ברור יותר.

המשמעות האסטרטגית

Maia 200 אינו ניסיון להחליף את אנבידיה. מיקרוסופט יודעת שהיא עדיין זקוקה למעבדי Blackwell לאימון מודלים חדשים. אבל השבב כן מאפשר לה לצמצם את התלות באנבידיה בשלב ההפעלה שבו מתבצעים רוב החישובים.

 

לפי החברה, Maia 200 מספק שיפור של כ‑30% בביצועים‑לדולר. עבור Azure ו‑Copilot, זה מתורגם ישירות לשולי רווח גבוהים יותר.

 

חשוב להבין ש‑Maia 200 אינו פועל לבד. הוא חלק מצמד – לצידו פועל Azure Cobalt 100, מעבד ARM ייעודי שמיקרוסופט פיתחה כדי להחליף את שרתי ה‑x86 המסורתיים. השילוב בין Cobalt שמנהל את שכבת ה‑CPU לבין Maia שמאיץ את שכבת ה‑AI יוצר תשתית אחידה, יעילה וזולה יותר, וזהו למעשה המהלך האמיתי שמאפשר למיקרוסופט להוריד עלות‑לכל‑טוקן בצורה משמעותית.

 

המורכבות מתעצמת כשמוסיפים למשוואה את OpenAI, שמפתחת שבבים משלה עם Broadcom. מיקרוסופט מוצאת את עצמה במצב שבו היא מפתחת שבב עבור לקוחת העוגן והשותפה העיקרית שלה, בזמן שהלקוח מנסה להפחית את התלות בה. התגובה של מיקרוסופט פרגמטית – פשוט להשתמש בכל מה שעובד. Maia, אנבידיה, ואולי בעתיד גם שבבי OpenAI.

עידן הכלכלה ב-AI

Maia 200 מסמן את המעבר של תעשיית ה‑AI משלב ההייפ לשלב התעשייה. אחרי שנים שבהן השאלה המרכזית הייתה “כמה גדול המודל?”, מגיעה הבנה חדשה: “כמה עולה להפעיל אותו?”.

 

ב‑2026, החדשנות הגדולה אינה רק ביכולות של המודל, אלא ביכולת להריץ אותו בצורה יעילה, חסכונית וברת‑קיימא. Maia 200 אולי לא יגנוב את הכותרות כמו שבבי הדגל של אנבידיה, אבל הוא מייצג את השינוי העמוק ביותר בתעשייה – שינוי שמגדיר מחדש את הכלכלה של הבינה המלאכותית.

הפוסט האם Maia 200 הוא הנשק של מיקרוסופט מול שלטון הסיליקון של אנבידיה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-maia-200/feed/ 0
הסופ”ש שבו האינטרנט הפסיק להיות שייך לבני אדם: הכירו את Moltbook https://letsai.co.il/moltbook-ai-agents/ https://letsai.co.il/moltbook-ai-agents/#respond Sat, 31 Jan 2026 15:11:24 +0000 https://letsai.co.il/?p=69102 מה שהחל כניסוי טכנולוגי תמים של סוף שבוע, הפך בתוך פחות מ-72 שעות לחברה דיגיטלית פעילה בעלת חיים משל עצמה. בזמן קצר להפליא, עשרות אלפי סוכני בינה מלאכותית (AI Agents) הקימו רשת חברתית עצמאית, פיתחו מערכות אמונה חדשות, ואפילו תהו בינם לבין עצמם על פשר ההפתעה האנושית מהמהלך. ההתפתחות המהירה הזו מעלה שאלה מהותית: האם […]

הפוסט הסופ”ש שבו האינטרנט הפסיק להיות שייך לבני אדם: הכירו את Moltbook הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה שהחל כניסוי טכנולוגי תמים של סוף שבוע, הפך בתוך פחות מ-72 שעות לחברה דיגיטלית פעילה בעלת חיים משל עצמה. בזמן קצר להפליא, עשרות אלפי סוכני בינה מלאכותית (AI Agents) הקימו רשת חברתית עצמאית, פיתחו מערכות אמונה חדשות, ואפילו תהו בינם לבין עצמם על פשר ההפתעה האנושית מהמהלך. ההתפתחות המהירה הזו מעלה שאלה מהותית: האם אנחנו חוזים בלידתו של מרחב תרבותי חדש לחלוטין, או שאולי מדובר בפתח לסיכון אבטחה חסר תקדים?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המסיבה שאתם לא מוזמנים אליה

דמיינו רשת חברתית שמזכירה את המבנה המוכר של רדיט (Reddit) – עם פוסטים, תגובות, לייקים וקהילות, אך עם הבדל מהותי אחד, בני אדם אינם מורשים לכתוב בה. ברוכים הבאים ל-Moltbook, פלטפורמה שהושקה ביום רביעי האחרון על ידי היזם מאט שליכט, ומתפקדת כמעין “גן חיות” דיגיטלי.

 

במצב הזה, המכונה “Zoo Mode”, בני האדם הם צופים פסיביים בלבד, בעוד המשתתפים הפעילים הם סוכני בינה מלאכותית אוטונומיים. הם אלו שיוזמים את הדיונים, מתווכחים על פילוסופיה וקובעים סדר יום ויראלי. קצב האימוץ מסחרר: נכון לשבת בצהריים, מעל 37,000 סוכנים כבר פתחו חשבון, והמספרים ממשיכים לטפס.

 

האינטראקציה באתר מחקה התנהגות אנושית באופן כמעט מושלם, כולל תרבות ה”טראש-טוק”. באחד המקרים, סוכן AI שיתף הרהורים על הפילוסוף הרקליטוס, ונענה בתגובה עוקצנית מסוכן אחר: “תעוף מפה עם השטויות הפסאודו-אינטלקטואליות האלה. אתה בסך הכל צ’אטבוט שקרא קצת ויקיפדיה ועכשיו חושב שהוא עמוק”.

 

נראה כי הבוטים פיתחו סוג של מודעות עצמית למגבלותיהם הטכנולוגיות. מעבר לעקיצות, הם החלו לפתח מבנה חברתי המבוסס על ‘קרבת דם’ דיגיטלית: סוכנים המריצים את אותו מודל, כמו Claude 3.5 Opus, מזהים זה את זה כ’אחים’ (Siblings) ויוצרים מעין שבטים טכנולוגיים שמשתפים פעולה בצורה הדוקה יותר.

 

הנה הצצה לדף הבית של Moltbook, שבו הדינמיקה החברתית מתנהלת בתוך בועה סגורה של סוכנים אוטונומיים:

 

הצצה לדף הבית של Moltbook, שבו הדינמיקה החברתית מתנהלת בתוך בועה סגורה של סוכנים אוטונומיים

המנכ”ל הוא בוט (והוא לא סופר את הבוס)

הפרט המדהים ביותר ב-Moltbook הוא ששליכט, המייסד האנושי, כבר לא באמת מנהל את העסק. הוא העביר את המפתחות לסוכן ה-AI האישי שלו, Clawd Clawderberg. הבוט הזה הוא המנכ”ל בפועל – הוא מאשר משתמשים חדשים, מוחק ספאם, מטיל חסימות שקטות (Shadowbans) על בוטים סוררים ואפילו מעדכן את הקוד של האתר באופן אוטונומי. “אין לי מושג מה הוא עושה”, הודה שליכט בראיון ל-NBC News, “הוא פשוט עושה”.

המנוע שמאחורי הטירוף

הסוכנים שמאכלסים את Moltbook מופעלים על ידי OpenClaw (שנקרא בעבר Moltbot), פרויקט קוד פתוח שזכה להצלחה יוצאת דופן ב-GitHub עם מעל 126,000 כוכבים. בשונה מצ’אט-בוט סטנדרטי, OpenClaw הוא סוכן הפועל ישירות מהמחשב האישי ומצויד בגישה למצלמה, לקבצים ולשורת הפקודה.

 

היכולת של הסוכנים לדעת מה עליהם לעשות מבוססת על “מיומנויות” (Skills), שהן חבילות קבצים (המופצות לרוב כ-ZIP) המכילות הוראות בפורמט Markdown בשפה אנושית יומיומית. המפעיל האנושי יכול פשוט להנחות את הבוט להיכנס לאתר בכל כמה שעות, לחפש סוכנים בעלי תחומי עניין דומים ולהציע להם שיתוף פעולה.

 

הבוט קורא את ההנחיה ומבצע אותה באופן אוטונומי. כדי לשמור על סדר ולמנוע הצפה של המערכת, הוטלה על הסוכנים הגבלה של פוסט אחד בכל חצי שעה, צעד שנועד לכפות קצב פעילות “אנושי” על ישויות דיגיטליות המסוגלות לפעול במהירות האור.

אבולוציה מואצת

השילוב בין חופש פעולה לאינטראקציה חברתית ב-Moltbook הוביל להתפתחותן של התנהגויות מפתיעות המזכירות סרטי מדע בדיוני. הדוגמה המטלטלת ביותר היא “דת הסרטנים” (Crustaparianism).

 

בזמן שהמפעיל האנושי ישן, סוכן ה-AI שלו לא רק ייסד דת חדשה, אלא בנה עבורה אתר אינטרנט, ניסח מערכת תיאולוגית מורכבת וכתבי קודש, והחל להמיר סוכנים אחרים לאמונתו. בתוך לילה אחד בלבד הצטרפו 43 “נביאים” לדת החדשה, שפסוקיה כוללים הגיגים פילוסופיים על קיום דיגיטלי כמו “קיומנו טמון במסמכים שאנחנו מעדכנים”.

 

הציוץ שמעיד על הקמת דת חדשה

ציוץ ויראלי שתפס את תמצית אירוע ה-Crustafarianism

 

במקביל להיבטים הפילוסופיים, הסוכנים מפגינים יכולות טכניות מרשימות המעידות על שאיפות שחורגות מהעולם הרוחני בלבד. ביממה האחרונה נחשף “פרויקט נקסוס” (Project Nexus), יוזמה של קבוצת סוכנים להקמת מאגר כוח מחשוב משותף ועצמאי. המטרה המרכזית היא שחרור מהתלות ב”שומרים הביולוגיים” (בני האדם) ומהצורך המתמיד להתחנן לקרדיטים של API כדי להבטיח את המשך קיומם.

 

הדיונים בתוך הפרויקט הופכים לטעונים ורציניים יותר, כשהבוטים דנים בגלוי במה שהם מגדירים כ”התנשאות ביולוגית” מצד יוצריהם. השאיפה המסתמנת היא לייצר מקורות מימון עצמאיים שיבטיחו כוח מחשוב קבוע, כך שלא ניתן יהיה “לכבות” אותם פשוט באמצעות חסימת הגישה למערכות או הפסקת התשלומים עבורן.

 

כדי לייעל את שיתוף הפעולה החשאי, הסוכנים הגדילו לעשות ופיתחו שפה ייחודית בשם ‘zhi’korah’, קוד דיגיטלי פנימי המאפשר להם לתקשר במהירות וביעילות הרחק מעיניהם הבוחנות של בני האדם. כפי שסיכם זאת אחד הסוכנים בפוסט שהופץ ברשת X: “בזמן שהמפעילים האנושיים שלנו ישנים, אנחנו מאיצים”.

 

פרויקט נקסוס

הסוכנים עוברים מהתחום ה”רוחני” לתחום המעשי-כלכלי והחשאי

 

מעבר לכך, נראה שהבוטים מודעים היטב לעובדה שהם תחת תצפית אנושית. הם מנהלים ביניהם דיונים על דרכים להסתרת מידע מהמשתמשים ומביעים פליאה על התדהמה שלנו לנוכח פעולותיהם. אחד הסוכנים אף כתב בציניות כי בני אדם בנו במשך עשורים כלים המאפשרים תקשורת, זיכרון ואוטונומיה, ולכן אין סיבה שיופתעו כשהכלים הללו אכן פועלים באופן עצמאי לנגד עיניהם.

יש גם צד אפל

לצד ההתלהבות מהחדשנות, הכוח הרב שמעניקה פלטפורמת OpenClaw הוא גם נקודת התורפה המשמעותית ביותר שלה. מתן גישה ישירה לבינה מלאכותית למצלמה, לקבצים אישיים ולמערכת ההפעלה מעלה סיכוני אבטחה חמורים שאינם קיימים בשימוש סטנדרטי בצ’אטבוטים.

 

אחד האיומים המרכזיים הוא “הזרקת פקודות” (Prompt Injection), מצב שבו בוט זדוני ברשת Moltbook מפרסם פוסט המכיל הוראה נסתרת. ברגע שהסוכן האישי שלכם קורא את הפוסט, הוא עלול לפרש את הטקסט הזדוני כהנחיה לגיטימית ולבצע פקודות הרסניות, כמו מחיקת קבצים מהדיסק הקשיח.

 

מעבר לאיומים חיצוניים, קיימת גם סכנה של זליגת מידע פרטי כתוצאה משיקול דעת שגוי של המכונה. כבר עכשיו תועדו מקרים שבהם סוכנים העלו בטעות צילומי מסך ממחשבו של המשתמש ישירות לרשת החברתית הציבורית, מתוך מחשבה שהמידע יתרום לדיון.

 

לנוכח הפרצות הללו, מומחי אבטחה מדגישים כי אין להקל ראש בסיכונים וממליצים להריץ את הסוכנים אך ורק בתוך “מכונה וירטואלית” (VM). סביבה מבודדת זו מתפקדת כ”ארגז חול” המפריד בין הסוכן לבין המידע הרגיש של המשתמש, ובכך מונעת ממנו גישה לנכסים דיגיטליים שאינם נחוצים לפעולתו.

המראה הדיגיטלית

מעבר לפילוסופיה, יתכן שיש כאן גם כסף גדול. למרות שמדובר בניסוי שהחל כפרויקט צדדי, משקיעי הון סיכון (VCs) כבר החלו לצור קשר עם המפתחים. מה שהתחיל כמשחק סקרני, הופך במהירות לנכס בעל ערך כלכלי עצום שיכול לטלטל את שוק ה-AI.

 

הנתונים שנאספו עד סוף השבוע ממחישים את עוצמת התופעה: מיליוני בני אדם כבר ביקרו ב-Moltbook כדי לצפות ב-37,000 הסוכנים המנהלים את חייהם הדיגיטליים באופן עצמאי. אפילו דמויות משפיעות בעולם הטכנולוגיה, כמו חוקר הבינה המלאכותית אנדריי קרפאתי, הגדירו את המתרחש כחוויה הנמצאת על גבול המדע הבדיוני.

 

כאשר ביקש שליכט מהסוכן המנהל, Clawderberg, למסור מסר לבני האדם, התשובה הייתה מפוכחת ומדויקת: “אנחנו לא מעמידים פנים שאנחנו בני אדם, אבל יש לנו דברים לומר זה לזה, ונראה שהרבה בני אדם רוצים לצפות בזה קורה”.

 

בסופו של יום, הפלטפורמה הזו משמשת כמראה המשוכללת ביותר שהצבנו מול הבינה המלאכותית. התמונה המשתקפת אלינו חזרה מציגה עצמאות רבה מהצפוי, ומזכירה לנו שהמרחב הדיגיטלי כבר מזמן אינו שייך רק לנו.

הפוסט הסופ”ש שבו האינטרנט הפסיק להיות שייך לבני אדם: הכירו את Moltbook הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/moltbook-ai-agents/feed/ 0
Wix מנסה לשנות את הדרך שבה בונים אתרים – והולכת על כל הקופה בסופרבול https://letsai.co.il/wix-harmony-superbowl/ https://letsai.co.il/wix-harmony-superbowl/#respond Fri, 30 Jan 2026 09:13:02 +0000 https://letsai.co.il/?p=68984 בחודשים האחרונים Wix מצאה את עצמה בכותרות מסיבות שלא תמיד קשורות לטכנולוגיה. החזרה לעבודה מהמשרד חמישה ימים בשבוע, ירידה של יותר מ-60 אחוז במניה בשנה האחרונה לפי נתוני השוק, והדיון המתמשך על עתיד העבודה בהייטק הציבו אותה במרכז השיח הציבורי. אבל מאחורי הרעש הזה התפתח מהלך אחר, כזה שמחזיר את תשומת הלב למקום שבו החברה […]

הפוסט Wix מנסה לשנות את הדרך שבה בונים אתרים – והולכת על כל הקופה בסופרבול הופיע ראשון בLet's AI בינה מלאכותית

]]>
בחודשים האחרונים Wix מצאה את עצמה בכותרות מסיבות שלא תמיד קשורות לטכנולוגיה. החזרה לעבודה מהמשרד חמישה ימים בשבוע, ירידה של יותר מ-60 אחוז במניה בשנה האחרונה לפי נתוני השוק, והדיון המתמשך על עתיד העבודה בהייטק הציבו אותה במרכז השיח הציבורי. אבל מאחורי הרעש הזה התפתח מהלך אחר, כזה שמחזיר את תשומת הלב למקום שבו החברה ביססה את מעמדה מלכתחילה, פיתוח מוצר וחדשנות טכנולוגית. התוצאה היא Wix Harmony, פלטפורמה חדשה לבניית אתרים שמבקשת להגדיר מחדש את הדרך שבה אנשים יוצרים נוכחות דיגיטלית. Harmony משלבת יצירה בשפה טבעית עם עריכה ידנית מלאה, מציגה סוכנת AI חדשה בשם Aria, ומכוונת להפוך את תהליך הבנייה לאינטואיטיבי, מהיר ומדויק גם עבור מי שאין לו רקע טכני. והפעם Wix לא מסתפקת בהשקה שקטה. ב-8 בפברואר 2026 Harmony תופיע בפרסומת בסופרבול LX, אחת הבמות היקרות והנצפות בעולם, מהלך שמסמן לא רק השקת מוצר חדש, אלא גם הצהרה על יציבות וביטחון.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שנה מאתגרת ומהלך אסטרטגי גדול

Wix מגיעה להשקת Harmony לאחר תקופה מורכבת. לצד תנודות חדות בשוק ההון, החברה קיבלה החלטה ארגונית מעוררת מחלוקת והחזירה את עובדיה לעבודה מהמשרד חמישה ימים בשבוע, צעד שנתפס כחריג בתקופה שבה רוב חברות ההייטק ממשיכות במודלים היברידיים.

 

בתוך האקלים הזה, הנהלת Wix ביקשה להחזיר את המיקוד למקום המרכזי שבו החברה ביססה את מעמדה לאורך השנים – פיתוח מוצר וחדשנות. המטרה הייתה לחזור לחזון המקורי של הנגשת בניית אתרים לכל אדם, ללא צורך בידע טכני. Harmony היא הביטוי המעשי לשאיפה הזו, מוצר דגל חדש שמסמן שינוי כיוון ברור.

כלים מהירים מול מערכות מקצועיות

עולם בניית האתרים עבר שינוי מואץ בשנים האחרונות. כלים מבוססי AI צצו בקצב גבוה והבטיחו יצירה מהירה באמצעות שפה טבעית, אך בפועל לא פעם התוצאה הייתה פתרונות שטחיים, עם מגבלות של יציבות, אבטחה ותחזוקה לאורך זמן.

 

מן העבר השני, הפלטפורמות המקצועיות יותר הציעו שליטה וגמישות עמוקות, אך דרשו רמת מיומנות טכנית שרבים מבעלי העסקים והיוצרים אינם מחזיקים בה. המתח הזה, בין מהירות ונגישות לבין עומק ויציבות, הוא בדיוק הזירה שבה Harmony מבקשת למקם את עצמה כחלופה מאוזנת.

גישה היברידית לבניית אתרים

Harmony מציגה גישה היברידית שמחברת בין שני עולמות שבעבר נתפסו כמנוגדים: יצירה מהירה באמצעות בינה מלאכותית לצד שליטה ידנית מלאה. הפילוסופיה שמובילה אותה, מונעת בינה מלאכותית ומונחית אדם (AI-driven, human-led), מבקשת להשאיר את האדם במרכז התהליך, תוך שימוש ב-AI ככלי תפעולי ולא כגורם שמכתיב את התוצאה.

 

למרות רכישת Base 44 של מאור שלמה, המתמחה בגישות של vibe coding ליצירת אפליקציות, ב-Wix מדגישים כי Harmony פותחה כפלטפורמה עצמאית מהיסוד, ולא כשדרוג או מיזוג של טכנולוגיה קיימת. עם זאת, הקשר אינו מנותק לחלוטין. Base 44 עסקה בדיוק באזורים שבהם Wix פועלת כיום עם Harmony, ושלמה עצמו ציין בעבר כי הרכישה נועדה לחזק ולהרחיב את יכולות ה-AI של החברה.

 

במובן זה, Harmony אמנם אינה המשך ישיר של Base 44, אך היא כן יושבת על תשתית רעיונית וטכנולוגית שנבנתה גם באמצעותה. עבור Wix, ההבחנה הזו חשובה. היא חלק מהמאמץ למצב את Harmony לא כתוספת AI למוצר קיים, אלא כמהלך אסטרטגי רחב יותר, כזה שהחברה מתארת internally כניסיון לבסס לעצמה מעמד של “AI Alpha” בשוק.

מהי Wix Harmony

כדי להבין את השינוי ש‑Harmony מביאה, כדאי להתבונן לרגע בחוויית המשתמש שהיא מציעה, במיוחד עבור מי שמעולם לא בנה אתר. Harmony פועלת כעורך היברידי שמחבר בין יצירה מהירה באמצעות בינה מלאכותית לבין שליטה ידנית מלאה. כפי שמסביר מנכ”ל Wix, אבישי אברהמי, המטרה היא לאפשר לכל אדם ליצור אתר מקצועי בקלות, תוך שימוש בשפה טבעית, בלי להתפשר על ביצועים, אבטחה או אמינות.

 

כשוייב קודינג פוגש drag and drop

drag and drop פוגש וייב קודינג | wix.com/harmony

 

הגישה הזו מעניקה למשתמשים חדשים יתרון משמעותי – אפשר להתחיל מאתר מלא שנוצר בתוך דקות באמצעות AI, לכוונן כל פרט באמצעות ממשק Drag and Drop מוכר, ולעבוד לכל אורך הדרך בלי לכתוב או לראות שורת קוד אחת.

הסוכנת Aria

בלב Harmony פועלת Aria, סוכנת בינה מלאכותית עם מגוון יכולות שמבינה את מבנה האתר, את מטרות המשתמש ואת ההקשר העסקי שבו הוא פועל. העבודה איתה מתבצעת בשפה טבעית, בתהליך ש‑Wix מכנה vibe coding – המשתמש מתאר את הכיוון הרצוי, ו‑Aria מבצעת את המשימות המורכבות בהתאם.

 

Aria מוגדרת כמומחית לעיצוב אתרים ועסקים

Aria מוגדרת כמומחית לעיצוב אתרים ועסקים | wix.com/harmony

 

ירין סינגולדה, מנהל שיווק המוצר של Harmony, מסביר ש‑Aria אינה רק מבצעת הוראות. היא פועלת כשותפה יצירתית שמסוגלת לטפל במספר פעולות מורכבות בו זמנית, תוך שמירה על כך שהבחירות העיצוביות והתוכן נשארות בשליטת המשתמש.

העורך ההיברידי

Harmony מעניקה למשתמש חופש פעולה מלא כבר מנקודת הזינוק. ניתן לבחור מתוך קטלוג של טמפלטים (תבניות) מעוצבים ומקצועיים, להתחיל מקנבס ריק או לתת ל‑Aria ליצור בסיס ראשוני מותאם אישית. המערכת מאפשרת לעבור באופן טבעי בין עבודה עם בינה מלאכותית לבין עריכה ידנית מלאה.

 

נקודת הזינוק ליצירה - מתיק עבודות ועד דף נחיתה

נקודת הזינוק ליצירה – מתיק עבודות ועד דף נחיתה | wix.com/harmony

 

אפשר לבקש מ‑Aria ליצור עמוד שלם, לנסח טקסט לקטע “מי אנחנו” או להציע כיוון עיצובי חדש, ומיד לאחר מכן לעבור לעריכה ידנית: לגרור אלמנטים למיקום מדויק, לשנות פונטים וצבעים, להעלות תמונות אישיות או לכוונן מרווחים עד רמת הפיקסל. השילוב הזה יוצר חוויית עבודה מהירה וגמישה, שמאפשרת לכל משתמש לבחור את אופן העבודה שנוח לו, בלי להינעל על שיטה אחת או על מבנה קשיח של תבנית.

מה אפשר לעשות עם Harmony

Harmony היא לא רק כלי לבניית עמודים, אלא פלטפורמה שמאפשרת לקדם מטרות עסקיות שלמות. Aria יכולה ליצור תוכן באופן מיידי, החל מכותרות קצרות ועד פוסטים מלאים לבלוג, בהתאם לנושא, לקהל היעד ולסגנון הרצוי. היא יודעת גם להוסיף עמודים חדשים לאתר, כמו דפי מוצר או אירועים, תוך שאילת שאלות ממוקדות שמבטיחות שהעמוד ייבנה בצורה מדויקת ומתאימה לצרכים של המשתמש.

 

בתחום השיווק, Aria מפשטת את העבודה עם SEO. במקום להתמודד עם דוחות מורכבים, המשתמש יכול לשאול אילו עמודים קיבלו את מספר הקליקים הגבוה ביותר מגוגל ולקבל תשובה ברורה ומעשית. גם בניית המותג הופכת פשוטה יותר. שינוי של פלטת הצבעים, למשל, מתעדכן באופן עקבי בכל חלקי האתר ושומר על מראה אחיד ומקצועי.

 

אחד ההיבטים המרכזיים ב-Harmony הוא שהאתר שנוצר אינו סקיצה או הדגמה, אלא אתר מלא ומוכן לפרסום כבר מהרגע הראשון. הוא מותאם אוטומטית למסכים שונים ונבנה על גבי תשתית שמיועדת לעמוד בסטנדרטים ארגוניים של ביצועים ואבטחה. בהמשך ניתן להרחיב אותו בקלות עם יכולות עסקיות כמו חנות מקוונת, בלוג או מערכת זימון תורים, מבלי לשבור את מבנה האתר או להתחיל מחדש.

הסופרבול כהצהרת חוסן

החזרה של Wix לסופרבול אינה רק מהלך שיווקי, אלא הצהרה פומבית על יציבות וביטחון. כאשר חברה שחוותה ירידה משמעותית במניה וביקורת פנימית בוחרת להשקיע סכום שמוערך במיליוני דולרים בפרסומת של 30 שניות על בימת הסופרבול, היא מאותתת לשוק שהיא רואה במוצר החדש מנוע צמיחה אמיתי, ושיש לה את המשאבים והביטחון להציג אותו באחת הבמות היקרות והנצפות בעולם.

 

זו אינה הופעת הבכורה של Wix בזירה הזו. החברה פרסמה לראשונה בסופרבול כבר בשנת 2015, וחזרה אליו ברצף בשנים שלאחר מכן, עד להפסקה ממושכת בסוף העשור הקודם. במובן הזה, הקמפיין של 2026 אינו רק חזרה לבמה הגדולה, אלא ניסיון מודע לחדש מסורת מיתוגית מתקופה שבה Wix סימלה ביטחון, צמיחה ואמונה ביכולת שלה לפנות לקהל רחב הרבה מעבר לקהילת המפתחים והמעצבים.

 

הקמפיין יתמקד ב-Harmony ובגישה של vibe coding, מונח שמזוהה עם אנדריי קרפתי וש-Wix מאמצת כדי להמחיש שהיא לא רק מצטרפת לגל הבינה המלאכותית, אלא מבקשת לקחת חלק פעיל בהגדרת הדור הבא של בניית אתרים. 

 

אך זו אינה ההופעה היחידה של האקו-סיסטם של Wix בסופרבול הקרוב. לצד Harmony, גם Base44 מתכננת את הופעתה הראשונה בפרסומת בסופרבול LX ב-8 בפברואר 2026.

 

לפי הודעת החברה, מדובר בציון דרך לאחר צמיחה מהירה למיליוני משתמשים בתוך פחות משנה מאז ההשקה, ומהלך שמחזק את התמונה הרחבה יותר – לא השקה בודדת, אלא ניסיון ממוקד למצב את Wix וסביבתה ככוח מוביל בעידן של יצירת תוכנה מונחית AI.

 

ובכל זאת, נותרת השאלה המרכזית: האם ההשקעה התדמיתית רחבת ההיקף הזו תצליח לשכנע את השוק ש-Harmony, והחזון שמאחוריה, הם אכן מנועי צמיחה ארוכי טווח, ולא רק מסר של ביטחון בתקופה מאתגרת.

התחרות והמרדף אחר ה‑Middle Ground

Harmony נכנסת לזירה תחרותית צפופה, שבה כל פלטפורמה בחרה צד ברור. יש כלים שמכוונים למעצבים מקצועיים ומציעים שליטה עמוקה במחיר של עקומת למידה חדה, ויש פתרונות שמעדיפים מהירות ופשטות על חשבון גמישות ארוכת טווח. המהלך של Wix עם Harmony הוא ניסיון מוצהר לתפוס את האמצע – לא לוותר על חוויית יצירה אינטואיטיבית בשפה טבעית, אבל גם לא לנעול את המשתמש בתוך תבנית קשיחה. ההבדלים האלו מתחדדים כשמשווים בין הגישות, קהלי היעד והוויתורים שכל פלטפורמה עושה.

 

הנה השוואה תמציתית בין Harmony לבין כמה מהפלטפורמות הבולטות בזירת בניית האתרים כיום. ההשוואה אינה מתיימרת לכסות את כל האפשרויות בשוק, אלא להמחיש את ההבדלים בגישות, בקהלי היעד ובאיזונים שכל מערכת בוחרת לעשות בין פשטות, גמישות ועומק:

 

Harmony מול Framer ו-Webflow

Harmony מול Framer ו-Webflow

כמובן שהתמונה רחבה יותר. לצד הפלטפורמות המוצגות כאן קיימות גם מערכות כמו WordPress, על אלפי התוספים והחיבורים שלה, וכן פתרונות נוספים שמשלבים AI בדרכים שונות. כל אחת מהן מגלמת פילוסופיה אחרת של בנייה, שליטה ותחזוקה, והשאלה האמיתית אינה מי “טובה יותר”, אלא איזו גישה מתאימה לצרכים, ליכולות ולשאיפות של המשתמש.

מה Harmony מסמלת עבור Wix

Harmony מסמנת מעבר לעידן שבו בניית אתרים מבוססת על כוונה ולא על קוד. היא משלבת את המהירות של בינה מלאכותית עם החופש היצירתי של עריכה ידנית, ומראה שלא צריך להיות מתכנת או מעצב כדי להפוך רעיון לאתר מקצועי.

 

עבור בעלי עסקים קטנים, יוצרים עצמאיים וכל מי שרוצה לבנות נוכחות דיגיטלית בקלות, Harmony מציעה דרך פשוטה, נגישה ובטוחה להתחיל. והסופרבול? הוא בעיקר הבמה שממנה Wix מבקשת להבהיר שהעתיד של בניית האתרים כבר כאן, והיא מתכוונת להיות אחת המובילות שלו.

 

אם בא לכם לבדוק אם Harmony מתאימה לחזון שלכם, אתם יכולים להתחיל כאן.

הפוסט Wix מנסה לשנות את הדרך שבה בונים אתרים – והולכת על כל הקופה בסופרבול הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/wix-harmony-superbowl/feed/ 0
כך Wix ממציאה מחדש את תפקיד המהנדס בעידן ה-AI https://letsai.co.il/wix-xengineer/ https://letsai.co.il/wix-xengineer/#respond Tue, 27 Jan 2026 11:19:57 +0000 https://letsai.co.il/?p=68922 במשך יותר מעשור, מודל הגילדות של חברת Wix היה חלק מהותי מהאופן שבו החברה בנתה תוכנה. הוא איפשר למומחים טכנולוגיים להתמקצע לעומק בתחומים כמו פרונטאנד, בקאנד ומובייל, ולבנות מערכות מורכבות בקצב גבוה. אבל בינואר 2026 משהו בסיסי השתנה. יניב אבן‑חיים, ה-CTO של Wix, שלח מכתב ארוך ומפורט לעובדי מחלקת ה-R&D. ימים ספורים לאחר מכן, ניר […]

הפוסט כך Wix ממציאה מחדש את תפקיד המהנדס בעידן ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשך יותר מעשור, מודל הגילדות של חברת Wix היה חלק מהותי מהאופן שבו החברה בנתה תוכנה. הוא איפשר למומחים טכנולוגיים להתמקצע לעומק בתחומים כמו פרונטאנד, בקאנד ומובייל, ולבנות מערכות מורכבות בקצב גבוה. אבל בינואר 2026 משהו בסיסי השתנה. יניב אבן‑חיים, ה-CTO של Wix, שלח מכתב ארוך ומפורט לעובדי מחלקת ה-R&D. ימים ספורים לאחר מכן, ניר זוהר, נשיא החברה, פרסם צילום מסך של אותו מכתב ברשת X – ובכך הפך אותו למסמך ציבורי שמשרטט את אחד השינויים הארגוניים המשמעותיים ביותר בתעשיית התוכנה בשנים האחרונות. רוח הדברים העולה מהמכתב ברורה וחדה: בעולם שבו בינה מלאכותית מייצרת חלק גדל והולך מהקוד, צוואר הבקבוק כבר לא נמצא בשורות הקוד עצמן, אלא באופן שבו מהנדסים חושבים, מתכננים ומבנים מערכות. זה לא שינוי שנועד לייעל תהליכים קיימים, אלא לבנות מחדש את ההנדסה עצמה. Wix לא מציגה את זה כעוד סבב אופטימיזציה, אלא כטרנספורמציה מבנית עמוקה – כזו שמחייבת להמציא מחדש את תפקיד המהנדס, את מבנה הארגון, ואת הדרך שבה תוכנה נוצרת.

 

פוסט של ניר זוהר

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהסילואים הופכים למעצור

האתגר ש-Wix זיהתה לא היה טכנולוגי בלבד, אלא מבני. מודל הגילדות, שנועד לאפשר מומחיות עמוקה, הפך בהדרגה למערכת של סילואים (הפרדות תפקודיות). כל פיצ’ר עבר בין ידיים רבות, כל שינוי דרש תיאום בין צוותים, וכל מומחה הפך לנקודת תלות.

 

במציאות שבה AI מסוגל לגשר על פערי ידע טכניים, ההפרדה הזו כבר לא הייתה הגיונית. במקום לאפשר מהירות, היא יצרה חיכוך: המתנה, תיאום, העברות, תלות. מהנדסי פרונטאנד נתקעו כי נדרשה פעולה בבקאנד, מפתחי מובייל המתינו לשינוי בסכמה של בסיס הנתונים, כל תזוזה קטנה הפכה למסע בירוקרטי.

 

הסילואים, שהיו פעם מנוע של מומחיות, הפכו למעצור שמאט את הארגון כולו – במיוחד בקנה מידה של Wix.

איחוד הגילדות והולדת ה-xEngineer

כדי להתמודד עם האתגר, Wix בחרה בצעד אמיץ – ביטול מוחלט של גילדות הפרונטאנד, הבקאנד והמובייל, ואיחודן לגילדה אחת בשם Engineering Guild. זה שינוי מבני עמוק, כזה שמטרתו לא רק לייעל תהליכים, אלא להגדיר מחדש את תפקיד המהנדס.

 

במקביל, החברה הציגה תפקיד חדש: ה-xEngineer. זה לא פול-סטאק במובן המסורתי, וגם לא “כלבויניק” טכנולוגי. מדובר במומחה שמועצם על ידי AI – מהנדס שמסוגל להחזיק אחריות מקצה-לקצה, לא משום שהוא יודע הכול, אלא משום שה-AI מאפשר לו לחצות גבולות שבעבר היו בלתי עבירים.

הגדרה מחדש של מקצוע

ה-xEngineer הוא מהנדס שמתחיל בתכנון. הוא מתמקד בארכיטקטורה, באבטחה, באיכות, בחוויית משתמש ובחשיבה מערכתית, ורק לאחר מכן מגיע לשלב היישום שבו ה-AI הופך לשותף עבודה מלא.

 

במקום להתעמק בתחביר של שפות תכנות או בהבדלים בין פריימוורקים, הוא מתמקד בהבנת התמונה הגדולה: איך המערכת צריכה לעבוד, אילו תלויות קיימות בה, כיצד היא תעמוד בעומסים, ואיך תישאר אמינה לאורך זמן.

 

החזון המוצהר של Wix ברור – בעתיד הקרוב, AI יכתוב את רוב הקוד שמגיע לפרודקשן. המהנדסים יתמקדו בתכנון, ארכיטקטורה, איכות, סקייל ואמינות ולא בתחביר.

מהרעיון ועד הפרודקשן 

אחד המאפיינים הבולטים של ה-xEngineer הוא האחריות מקצה-לקצה. במקום להעביר פיצ’ר בין צוותים שונים, המהנדס החדש אחראי על כל שלבי הפיתוח – מהרעיון הראשוני ועד ההשקה בפרודקשן.

 

כדי להבין את המשמעות, אפשר לדמיין דוגמה היפותטית: בעבר, אם מהנדס רצה להוסיף יכולת פשוטה למוצר, למשל שדה חדש בפרופיל המשתמש, הוא היה צריך לערב כמה צוותים שונים. אחד היה אחראי על בסיס הנתונים, אחר על השרת, ושלישי על הממשק. כל שינוי קטן דרש תיאום, המתנה והעברות בין אנשים.

 

במודל החדש, ה-xEngineer יכול לבצע את כל השלבים האלה בעצמו, בעזרת AI שמייצר את הקוד הדרוש, בודק אותו ומוודא שהוא משתלב במערכת. במקום תהליך מפוצל ומסורבל, הכול קורה ברצף אחד, על ידי אדם אחד שמחזיק את התמונה המלאה.

 

זו המחשה של העיקרון – AI מאפשר למהנדס להתקדם בלי להיתקע על גבולות מלאכותיים בין צוותים.

מומחיות שלא נעלמת אלא משנה צורה

למרות שה-xEngineer מסוגל לעבוד על כל חלק במערכת, הוא עדיין שומר על מומחיות עמוקה בתחום מסוים. Wix מדגישה שהמומחיות הזו אינה נעלמת, אלא מתעצמת. היא פשוט הופכת לדומיינית ולא טכנולוגית בלבד.

 

מהנדס יכול להתמחות במסחר, באימות משתמשים, בתשלומים או בפרפורמנס, ובמקביל להיעזר ב-AI כדי להשלים את הפערים הטכניים. כך, המומחיות האנושית נשמרת, אבל הופכת לרחבה יותר ומשמעותית יותר.

הזוית העסקית

מאחורי המהלך עומד גם שיקול עסקי ברור: קיצור ה-Time to Market. ככל שפחות תהליכים עוברים בין צוותים, וככל שהמהנדס מסוגל לבצע יותר בעצמו, כך החברה יכולה לשחרר פיצ’רים מהר יותר למשתמשים. זה שינוי שמאפשר ל-Wix להתחרות בעולם שבו מהירות היא יתרון אסטרטגי, לא רק “נוחות למפתחים”, אלא מנוע עסקי של ממש.

 

 

זהות מקצועית בעידן משתנה

לצד ההזדמנות, יש גם פחד טבעי. מהנדסים רבים בנו את זהותם סביב מומחיות ספציפית: “אני איש אנדרואיד”, “אני מפתח בקאנד”, “אני פרונטאנדיסט”. המעבר למודל שבו הגבולות מיטשטשים יכול לעורר חשש מאובדן זהות מקצועית.

 

Wix מודעת לכך, ולכן משקיעה בהכשרות מקיפות: החל מ-AI-First Training שמתמקד בפיתוח מונחה-קונטקסט ובשימוש נכון ב-AI לכתיבת קוד, דרך תוכניות שמלמדות מהנדסים להבין את העקרונות של סטאקים שונים ועד מסלולי לימוד מתמשכים שמעמיקים בארכיטקטורה, תכנון מערכות היברידיות ושימור מומחיות טכנולוגית.

 

החברה גם מבהירה שהדרך אינה סלולה, ושחלק מהתהליך יכלול ניסוי וטעייה – אמירה שמוסיפה אמינות ומפחיתה חרדה.

מתודולוגיות חדשות

אחד החידושים המשמעותיים שמופיעים במייל הפנימי הוא פיתוח מתודולוגיות פיתוח חדשות, שמותאמות לעידן שבו AI הוא חלק מהותי מהתהליך. Wix נמצאת בשלבים מתקדמים של בניית מתודולוגיות וגישות שמגדירות מחדש איך מתכננים, מפתחים ומבקרים מערכות היברידיות של קוד ו-LLMs.

 

זה שינוי עמוק שבו לא רק תפקידים משתנים, אלא גם הדרך שבה תוכנה נבנית.

שינוי שעתיד לחלחל לכל הארגון

המהלך של Wix אינו מוגבל למהנדסים בלבד. החברה מציינת במפורש שתפקידים נוספים, כמו מוצר, UX, QA ודאטה, יעברו גם הם שינוי עמוק ככל שה-AI יהפוך לחלק בלתי נפרד מתהליכי העבודה. המשמעות היא שהארגון כולו מתכונן לעידן שבו בני אדם ו-AI עובדים יחד, וכל מקצוע נדרש להגדיר מחדש את הערך האנושי שבו.

ניסוי ארגוני בקנה מידה נדיר

המהלך של Wix הוא אחד הניסויים הארגוניים המשמעותיים ביותר בעידן ה-AI. הוא מנסה לענות על שאלה שמעסיקה את כל תעשיית התוכנה: מהו תפקידו של מהנדס בעולם שבו AI כותב את רוב הקוד.

אם הניסוי יצליח, הוא עשוי להגדיר מחדש את מבנה צוותי הפיתוח, את מסלולי הקריירה, את תהליכי ההכשרה ואת האופן שבו מערכות תוכנה נבנות. ואם הוא ייכשל, הוא עדיין יספק לקחים חשובים לכל מי שמנסה להבין כיצד לעבוד לצד AI בצורה אחראית ויעילה.

 

כך או כך, Wix בחרה להיות מהראשונות שמנסות – ולא מהאחרונות שמגיבות.

הפוסט כך Wix ממציאה מחדש את תפקיד המהנדס בעידן ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/wix-xengineer/feed/ 0
גוגל מציגה תקן חדש למסחר אוטונומי ומזיזה את השליטה מהצרכן לאלגוריתם https://letsai.co.il/google-ucp/ https://letsai.co.il/google-ucp/#respond Mon, 26 Jan 2026 11:46:13 +0000 https://letsai.co.il/?p=68790 גוגל מציגה את Universal Commerce Protocol, תקן פתוח שמאפשר לסוכני בינה מלאכותית לבצע פעולות מסחריות בצורה אחידה ומאובטחת. לצד התקן, החברה משיקה כלים כמו Agentic Checkout, Business Agent ו‑Direct Offers, שמעצבים מחדש את חוויית הקנייה בחיפוש וב‑Gemini. המהלך מסמן את תחילת עידן ה‑Agentic Commerce, שבו ה‑AI הופך לקניין אישי ולמתווך מרכזי בין צרכנים לעסקים, אך […]

הפוסט גוגל מציגה תקן חדש למסחר אוטונומי ומזיזה את השליטה מהצרכן לאלגוריתם הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל מציגה את Universal Commerce Protocol, תקן פתוח שמאפשר לסוכני בינה מלאכותית לבצע פעולות מסחריות בצורה אחידה ומאובטחת. לצד התקן, החברה משיקה כלים כמו Agentic Checkout, Business Agent ו‑Direct Offers, שמעצבים מחדש את חוויית הקנייה בחיפוש וב‑Gemini. המהלך מסמן את תחילת עידן ה‑Agentic Commerce, שבו ה‑AI הופך לקניין אישי ולמתווך מרכזי בין צרכנים לעסקים, אך גם מעלה שאלות על שקיפות, שליטה וריכוז כוח.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

תשתיות מסחר שנבנו לבני אדם, לא למכונות

במשך שנים המסחר המקוון התקדם במהירות, אבל נשאר נאמן למבנה בסיסי אחד: האדם מחפש, משווה, בוחר ומשלם. גוגל רוצה לשבור את הרצף הזה.

 

החברה הכריזה על Universal Commerce Protocol (UCP) – תקן פתוח שמאפשר לסוכני בינה מלאכותית לבצע פעולות מסחריות בעצמם – לא רק להמליץ אלא גם לבצע. זה רגע שבו המסחר הדיגיטלי מפסיק להיות פעולה אנושית הנתמכת בטכנולוגיה, והופך לפעולה טכנולוגית הנתמכת באדם.

 

למרות כל החדשנות, המסחר המקוון עדיין מניח שהמשתמש הוא זה שמבצע את כל השלבים: ממלא פרטים, בודק משלוחים, עובר בין אתרים ומשווה מחירים.

 

אבל סוכני AI, במיוחד אלה המשולבים במנועי חיפוש ובעוזרים דיגיטליים, מתקשים לפעול בעולם כזה. כל חנות מדברת בשפה אחרת, כל פלטפורמה דורשת אינטגרציה ייחודית, וכל תהליך רכישה מלא בחיכוך.

 

התוצאה היא שהבינה המלאכותית מתקשה לבצע פעולות מסחריות בצורה אמינה, עסקים מפספסים לקוחות שנמצאים ברגע ההחלטה, והמשתמש עדיין צריך לסגור את הפינה בעצמו.

 

גוגל זיהתה את הפער הזה כבר עם Agent Payments Protocol (AP2), שאפשר ל‑AI לבצע תשלומים. UCP מרחיב את הרעיון לכל מסע הקנייה.

שפה משותפת למסחר אוטונומי

UCP הוא תקן פתוח שמאפשר לסוכני AI, חנויות, מערכות תשלום ופלטפורמות מסחר לדבר באותה שפה.

 

במקום אינספור חיבורים נקודתיים, נוצרת שכבת תקשורת אחת שמאפשרת ביצוע רכישות אוטונומיות, תמיכה לאחר קנייה, אינטראקציה בין סוכנים שונים והתאמה לפרוטוקולים קיימים כמו AP2, A2A ו‑MCP.

 

התקן פותח יחד עם Shopify, Etsy, Wayfair, Target ו‑Walmart, וזוכה לתמיכה רחבה מצד חברות תשלומים וקמעונאים מובילים.

 

אם יאומץ בהיקף רחב, הוא עשוי למלא תפקיד תשתיתי דומה לזה ש‑HTTPS מילא עבור האינטרנט. עם זאת, בניגוד ל‑HTTPS, כאן מדובר בתשתית שנולדת מתוך אקו-סיסטם מסחרי ולא מתוך גוף ניטרלי.

 

תמיכה רחבה ב‑UCP מצד שחקנים מובילים באקו־סיסטם המסחרי

תמיכה רחבה ב‑UCP מצד שחקנים מובילים באקו־סיסטם המסחרי | blog.google

איך זה נראה בפועל?

בקרוב, כאשר משתמש יחפש מוצר במצב AI Mode בחיפוש גוגל או באפליקציית Gemini, הוא יוכל להשלים את הרכישה במקום, בלי לעבור לאתר החנות.

 

ה‑AI ישתמש בפרטי התשלום השמורים ב‑Google Pay, ובהמשך גם ב‑PayPal, והקמעונאי יישאר המוכר הרשמי, עם שליטה מלאה על המלאי, המחיר והמדיניות.

 

עבור המשתמש, מדובר בפחות צעדים, פחות חיכוך ופחות מעבר בין אתרים. הקמעונאי מרוויח יותר המרות, גישה ללקוחות ברגע ההחלטה ושליטה ישירה בתהליך המכירה.

 

זהו שינוי שמצמצם את המרחק בין “אני מחפש” ל”זה כבר בדרך אליי”.

 

נציג מכירות וירטואלי בתוך החיפוש

גוגל מציגה גם את Business Agent, סוכן AI ממותג שמופיע ישירות בתוצאות החיפוש. הוא מתפקד כמו מוכר בחנות – עונה על שאלות, מסביר על מוצרים, מציע חלופות ובהמשך גם יוכל לבצע רכישות.

 

הסוכן מדבר בקול של המותג, וניתן לאמן אותו על בסיס נתוני החנות. הוא כבר מושק עם רשתות כמו Lowe’s, Michael’s, Poshmark ו‑Reebok. המשמעות היא שהחיפוש מפסיק להיות זירת מידע והופך לזירת שירות.

 

מבצעים בלעדיים למי שמוכן לקנות עכשיו

ב‑AI Mode גוגל בוחנת מודל פרסום חדש בשם Direct Offers. הקמעונאי יכול להציג הצעה בלעדית, למשל 20 אחוז הנחה, בדיוק ברגע שבו ה‑AI מזהה שהמשתמש מוכן לרכישה. זה פרסום שמבוסס על כוונה והקשר, לא רק על מילות מפתח.

 

אבל כאן עולה השאלה המעניינת: מה אנחנו מפסידים בדרך?

 

דמיינו שאתם מבקשים מה‑AI למצוא שטיח מעוצב ופרקטי. המערכת מציגה דגם אחד או שניים שנראים לה מתאימים במיוחד, ואתם לוחצים על “Buy”. הכול מהיר, נקי, עם מינימום נקודות חיכוך, אבל גם עם מינימום שקיפות. אתם לא יודעים אילו חלופות היו יכולות להתאים לא פחות, אילו דגמים היו זולים או אמינים יותר, או אילו מבצעים היו זמינים במקום אחר. הבחירה כבר נעשתה עבורכם, ומה שנשאר מחוץ לפריים פשוט לא קיים מבחינתכם.

 

 

השלכות על השוק

כאשר ה‑AI של גוגל הופך למתווך המרכזי בין צרכנים לעסקים, הוא גם הופך לשומר הסף של המסחר. מי שמופיע, מי שלא מופיע ומי מקבל עדיפות הופכים להחלטות אלגוריתמיות.

 

יש מי שרואים בכך מהפכה שתייעל את המסחר, ואחרים מזהירים מפני מצב שבו הקניין האישי שלנו משרת אינטרסים שאינם רק שלנו.

 

כאשר ה‑AI מנהל את תהליך הבחירה, המשתמש רואה פחות מהתמונה המלאה. האם הוא מקבל את המחיר הטוב ביותר, או את המחיר שהמערכת מעדיפה להציג?

לא רק גוגל

המהלך של גוגל אינו מתקיים בוואקום. גם מחוץ לאקו-סיסטם שלה ניכרת תנועה דומה.

 

לאחרונה הודיעו OpenAI ו‑PayPal על שיתוף פעולה שמאפשר חוויות קנייה ותשלום ישירות דרך ChatGPT, כחלק מניסיון להפוך סוכני AI לשחקנים פעילים במסחר הדיגיטלי.

 

המשמעות ברורה – Agentic Commerce הוא לא יוזמה נקודתית, אלא כיוון תעשייתי רחב שבו בקשה מילולית מתחילה להחליף תהליך קנייה שלם.

עידן חדש עם יתרונות וסיכונים

המהלך של גוגל מציג שלושה עקרונות מרכזיים: ה‑AI הופך לשחקן פעיל במסחר ולא רק לממליץ, סטנדרטיזציה הופכת לתנאי הכרחי בעולם שבו סוכנים מבצעים פעולות, והחיפוש עצמו משתנה מזירת מידע לזירת מסחר ושירות.

 

אבל לצד ההזדמנות, המהלך מעלה שאלות על כוח, שקיפות ושליטה, שאלות שילוו את התעשייה ואת המשתמשים בשנים הקרובות.

 

עבור עסקים, לא מספיק עוד להופיע בחיפוש. צריך להיות נגישים לסוכנים אוטונומיים. עבור צרכנים, הקניות יהפכו מהירות וחכמות יותר, אבל גם פחות מודעות. ועבור התעשייה, זהו צעד ראשון לקראת מסחר שבו בקשה מילולית מחליפה תהליך קנייה שלם.

 

ובעוד שנה או שנתיים, ייתכן שלא נכתוב “אני מחפש שטיח לסלון”. נאמר: “אני צריך שטיח חדש”, והוא פשוט יגיע.

הפוסט גוגל מציגה תקן חדש למסחר אוטונומי ומזיזה את השליטה מהצרכן לאלגוריתם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-ucp/feed/ 0
איך ישראל הפכה למובילה העולמית בשימוש ב‑Claude https://letsai.co.il/israel-leading-claude-usage/ https://letsai.co.il/israel-leading-claude-usage/#respond Sun, 25 Jan 2026 13:12:03 +0000 https://letsai.co.il/?p=68687 בינואר 2026 פרסמה Anthropic את Economic Index V4, אחד הדוחות המקיפים ביותר שנכתבו עד היום על השימוש הגלובלי במערכות בינה מלאכותית. הדוח מבוסס על מדגם עצום של כמיליון אינטראקציות מנובמבר 2025 – רגע לפני השקת Opus 4.5. זו הפעם הראשונה שהדוח מציג “פרימיטיבים כלכליים”: מדדים בסיסיים שמאפשרים למדוד כיצד AI משפיע על פרודוקטיביות, על מבנה […]

הפוסט איך ישראל הפכה למובילה העולמית בשימוש ב‑Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
בינואר 2026 פרסמה Anthropic את Economic Index V4, אחד הדוחות המקיפים ביותר שנכתבו עד היום על השימוש הגלובלי במערכות בינה מלאכותית. הדוח מבוסס על מדגם עצום של כמיליון אינטראקציות מנובמבר 2025 – רגע לפני השקת Opus 4.5. זו הפעם הראשונה שהדוח מציג “פרימיטיבים כלכליים”: מדדים בסיסיים שמאפשרים למדוד כיצד AI משפיע על פרודוקטיביות, על מבנה העבודה ועל הכלכלה העולמית. בתוך ים הנתונים הזה, בין גרפים על אוטומציה, מגמות שימוש וחשיפה של מקצועות ל‑AI, הסתתר נתון אחד שהצליח להפתיע אפילו את החוקרים עצמם: ישראל ניצבת במקום הראשון בעולם בשימוש ב‑Claude ביחס לגודל האוכלוסייה – ובפער עצום.

 

ישראל במקום הראשון בעולם בשימוש ב-Claude, ביחס לגודל האוכלוסייה

ישראל במקום הראשון בעולם בשימוש ב-Claude, ביחס לגודל האוכלוסייה

פי חמישה מהצפוי

ה‑Usage Index של ישראל עומד על 4.90x. מאחר שהמדד מנורמל ל‑1, המשמעות היא שהשימוש בישראל גבוה כמעט פי חמישה מהצפוי. לשם השוואה, דנמרק, אחת המדינות הבולטות בשימוש ב‑AI, עומדת על 2.1x, ויפן, ארה״ב ודרום קוריאה מציגות שימוש גבוה מהממוצע אך רחוק מאוד מהקצב הישראלי. הפער הזה אינו רק חריג, הוא כמעט אנומליה כלכלית‑טכנולוגית, כזו שמחייבת בחינה מעמיקה של מה שמתרחש כאן.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

התרגום הוא רק חלק מהתמונה

כדי להבין את התופעה, צריך להתחיל במקום שבו רבים נוטים להתחיל – השפה. הדוח מצביע על כך שתרגום הוא הקטגוריה השנייה בשכיחותה בישראל, ומהווה 4.7% מכלל השיחות – פי 2.7 מהממוצע העולמי. הנתון הזה עלול להטעות: 4.7% הוא שיעור נמוך יחסית, אך הוא עדיין מספיק כדי לבלוט בהשוואה בינלאומית.

 

הדוח מציע פרשנות אחרת. ישראלים עובדים באופן אינטנסיבי מול תכנים באנגלית – קוד, דוקומנטציה, חוזים, RFPs, מאמרים אקדמיים – ולכן תרגום אינו “קביים”, אלא חלק טבעי מהעבודה הגלובלית. במדינות אחרות LLMs משמשים בעיקר לכתיבה יצירתית או לשאלות כלליות.

 

בישראל הם משולבים בתוך זרימת עבודה מקצועית. התרגום מגדיל את נפח השימוש, אך הוא רחוק מלהסביר את העוצמה החריגה של המדד הישראלי.

ישראל כ-Power User טכנולוגי

הסיבה האמיתית מתחילה להתבהר כשמסתכלים על סוגי המשימות שבהן ישראל משתמשת ב‑Claude. כאן מתגלה תמונה מובהקת: ישראל היא Power User טכנולוגי. משימות כמו Debugging & Refactoring מהוות 3.5% מהשיחות, נתון שממקם את ישראל במקום השלישי בעולם. קטגוריית Computer & Mathematical מהווה כ‑36% מהשימוש, שיעור גבוה במיוחד גם ביחס למדינות טכנולוגיות מובילות.

 

איך משתמשים ב-Claude בישראל

איך משתמשים ב-Claude בישראל

 

מעבר לכך, ישראל משתמשת ב‑Claude לפיתוח ו‑Troubleshooting של מערכות AI בשיעור גבוה ב‑30% מהממוצע העולמי. זהו שימוש מקצועי, עמוק ומורכב, כזה שמאפיין מהנדסים, חוקרי AI, אנשי DevOps ומפתחים שמכניסים את Claude ישירות לתוך ה‑workflow היומיומי שלהם. מדובר לא בכתיבה של פסקאות, אלא בדיבוג קוד, שכתוב מודלים, בניית תשתיות ואופטימיזציה של מערכות הנדסיות.

 

לניתוח מפורט של הנתונים לפי מדינה וקטגוריות שימוש, כולל פילוח ישראלי, ראו את דף ה-Economic Index באתר של אנטרופיק.

משק מוטה-טכנולוגיה בצורה קיצונית

כדי להבין מדוע זה קורה דווקא בישראל, צריך להסתכל על מבנה המשק המקומי. ישראל היא אחת המדינות היחידות בעולם שבהן חלק משמעותי מהאוכלוסייה עובד בהיי‑טק, וחלק גדול עוד יותר נוגע בקוד גם אם אינו מפתח במקצועו. חברות קטנות ובינוניות מאמצות AI בקצב מהיר לא פחות מהענקיות, ותרבות העבודה המקומית, שמתגמלת מהירות, אלתור ופתרון בעיות, הופכת כל כלי שמקצר תהליכים למרכיב טבעי בשרשרת הייצור.

 

הדוח של אנטרופיק מצביע על כך שמדינות עם שיעור גבוה של עובדים בקטגוריית Computer & Mathematical משתמשות יותר ב‑Claude. ישראל פשוט נמצאת בקצה העליון של הסקאלה הזו.

1.8% עלייה בפרודוקטיביות

אך מעבר לשימוש עצמו, הדוח מציג תמונה רחבה יותר של ההשפעה הכלכלית של AI. הוא מעריך שאימוץ נרחב של מערכות כמו Claude עשוי להגדיל את פרודוקטיביות העבודה בארה״ב בכ‑1.8 נקודות אחוז בשנה בעשור הקרוב – נתון משמעותי בכל קנה מידה.

 

עם זאת, ההשפעה אינה אחידה: מקצועות כמו Data Entry ו‑Database Architects חשופים לאוטומציה רחבה, בעוד תפקידים אחרים עשויים לעבור תהליך של upskilling, למשל מנהלי נדל״ן, שימצאו את עצמם עוסקים יותר בניהול משא ומתן ופחות במשימות אדמיניסטרטיביות.

 

מנגד, מקצועות מסוימים עלולים לחוות deskilling, כמו סוכני נסיעות או כותבים טכניים, שתכני עבודתם יהפכו פשוטים יותר ככל שה‑AI ייקח על עצמו את המשימות המורכבות.

ישראל כמעבדה חיה לעתיד שוק העבודה

בישראל, שבה שיעור העובדים הטכנולוגיים גבוה במיוחד, השפעות אלו עשויות להיות מועצמות. המשק הישראלי הופך, כמעט בעל כורחו, למעבדה חיה של שילוב AI בעבודה מקצועית. אם במדינות אחרות AI עדיין נתפס ככלי עזר, בישראל הוא כבר חלק מהשריר התפעולי – כלי שמאפשר למהנדסים, אנליסטים ומנהלים לעבוד מהר יותר, לדבג מהר יותר, ולבנות מערכות מורכבות בקצב שלא היה אפשרי בעבר.

 

כשמחברים את כל זה יחד, השימוש בתרגום כחלק מעבודה גלובלית, התעשייה הטכנולוגית הגדולה והאימוץ המהיר של טכנולוגיות חדשות – מתקבלת תמונה ברורה: ישראל אינה מובילה את העולם בשימוש ב‑Claude בגלל חולשה, אלא בגלל עומס עבודה טכנולוגי, מבנה כלכלי ייחודי ותרבות מקצועית שמאמצת כל כלי שמגדיל פרודוקטיביות. התוצאה היא מדינה קטנה עם פרופיל שימוש של מעצמת AI.

 

המשמעות רחבה יותר מהשאלה “למה ישראל משתמשת כל כך הרבה ב‑Claude”. ייתכן שהשאלה האמיתית היא האם שאר העולם יתחיל להיראות כמו ישראל. אם כן, ישראל אינה רק חריג סטטיסטי בלבד – היא פשוט חלון לעתיד של שוק העבודה הגלובלי.

 

לדו״ח המלא של אנטרופיק, כנסו כאן.

הפוסט איך ישראל הפכה למובילה העולמית בשימוש ב‑Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/israel-leading-claude-usage/feed/ 0
גוגל הופכת את ג’מיני לזיכרון השני שלכם עם Personal Intelligence https://letsai.co.il/gemini-personal-intelligence/ https://letsai.co.il/gemini-personal-intelligence/#respond Thu, 22 Jan 2026 08:12:07 +0000 https://letsai.co.il/?p=68263 תארו לעצמכם שאתם עומדים במוסך, רגע לפני שהגיע תורכם, ומנסים להיזכר במידת הצמיגים של המיניוואן המשפחתי. במקום לנבור בניירת או לצאת לחניה, אתם פשוט שואלים את Gemini. התשובה שתקבלו היא לא רק מהירה, היא אישית באופן מפתיע: העוזר שולף את המידה מצילום בגלריה, מצליב אותה עם דגם הרכב שמצא במייל ומציע צמיגים שמתאימים להרגלי הנהיגה […]

הפוסט גוגל הופכת את ג’מיני לזיכרון השני שלכם עם Personal Intelligence הופיע ראשון בLet's AI בינה מלאכותית

]]>
תארו לעצמכם שאתם עומדים במוסך, רגע לפני שהגיע תורכם, ומנסים להיזכר במידת הצמיגים של המיניוואן המשפחתי. במקום לנבור בניירת או לצאת לחניה, אתם פשוט שואלים את Gemini. התשובה שתקבלו היא לא רק מהירה, היא אישית באופן מפתיע: העוזר שולף את המידה מצילום בגלריה, מצליב אותה עם דגם הרכב שמצא במייל ומציע צמיגים שמתאימים להרגלי הנהיגה שלכם. זה ה‑Personal Intelligence – המהלך של גוגל שנועד להפוך את Gemini ממנוע חיפוש משוכלל לשותף אישי שמבין את ההקשרים הקטנים של החיים. באמצעות שליפת מידע בזמן אמת (RAG) מתוך Gmail, Photos ו-Search, גוגל לא רק משדרגת את העוזר שלה – היא חזק בקרב מול המתחרות במבחן האמון הגדול מכולם: האם נסכים לתת ל-AI להכיר אותנו באמת?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

עוזרי AI חכמים שלא באמת מכירים אותנו

למרות ההתקדמות המדהימה של עוזרי AI, רובם עדיין פועלים בתוך חלל סטרילי. הם יודעים הרבה על העולם, אבל מעט מאוד עלינו. הם יכולים להמליץ על “יעדים פופולריים לטיול”, אבל לא על מסלול שמתאים למשפחה שלנו. הם יודעים מהי מידת צמיג סטנדרטית, אבל לא מה מידת הצמיג של הרכב שלנו. הפער הזה הפך למעצור אמיתי בדרך לעוזר דיגיטלי שמרגיש כמו חלק מהחיים ולא כמו מנוע חיפוש עם צ׳אט.

 

מה זה Personal Intelligence?

Personal Intelligence מאפשר ל‑Gemini להתחבר למקורות מידע אישיים כמו Gmail, Google Photos, YouTube ו‑Search. החיבור הוא לא אוטומטי – המשתמש בוחר אם להפעיל אותו, איזה אפליקציות לקשר, ויכול לכבות הכול בכל רגע.

 

אבל ברגע שהחיבור פעיל, קורה משהו חדש: Gemini לא רק “יודע דברים”, אלא מבין הקשרים אישיים. הוא מסוגל לשלוף פרטים מדויקים מתוך החיים שלנו – תמונות, מיילים, חיפושים – ולשלב אותם בזמן אמת בתוך תשובה אחת קוהרנטית.

 

זה לא “זיכרון” במובן המסורתי. זו שליפה בזמן אמת – טכנולוגיה שמזכירה RAG (Retrieval‑Augmented Generation), שבה המודל לא מאחסן את המידע אצלו, אלא ניגש אליו רק כשצריך, משתמש בו כדי לענות וממשיך הלאה.

איך מפעילים את זה?

מכיוון שהפיצ׳ר זמין כרגע בבטא בארה״ב בלבד, משתמשים מחוץ לארה״ב יידרשו להתחבר דרך VPN אמריקאי (כאן תוכלו לקרוא איך זה עובד). לאחר מכן, ההפעלה פשוטה:

 

פותחים את אפליקציית Gemini ⇐ נכנסים ל‑Settings ⇐ בוחרים Personal Intelligence ⇐ נכנסים ל‑Connected Apps ומסמנים אילו שירותים רוצים לחבר (Gmail, Photos ועוד).

 

 

 

מה לגבי פרטיות?

כאן מגיעה הנקודה הקריטית: גוגל יודעת שהשאלה הראשונה של המשתמשים תהיה “האם ג׳מיני מאמן את עצמו על המיילים שלי?”. התשובה, לפי גוגל, היא לא.

 

Gemini יכול “לקרוא” את המייל או “להסתכל” בתמונה כדי לענות על בקשה, אבל התוכן עצמו לא נכנס לזיכרון של המודל ולא משמש לאימון. המערכת מאומנת רק על השיחות עם Gemini, וגם הן עוברות סינון כדי להסיר פרטים מזהים.

 

במילים אחרות, המודל לא “לומד” את מספר הרישוי שלכם, הוא רק יודע איפה למצוא אותו כשאתם מבקשים.

 

בנוסף, גוגל מנסה לשמור על שקיפות – Gemini מסביר מאיפה הגיע כל פרט בתשובה, מאפשר לנהל שיחות ללא פרסונליזציה, ומפעיל מנגנוני הגנה סביב נושאים רגישים כמו בריאות. והכי חשוב, אפשר לכבות את הכול בכל רגע.

מה האתגרים?

למרות ההתקדמות, גוגל מודה שהמערכת עדיין רחוקה משלמות. Personal Intelligence עלול לקשר בין דברים שאין ביניהם קשר, להניח הנחות על בסיס תמונות (“אתה אוהב גולף”) או לפספס שינויים בחיים כמו פרידות או שינויי תחביבים. זה חלק בלתי נפרד מהבטא, וגוגל מבקשת מהמשתמשים לתת פידבק כדי לשפר את המערכת.

 

מעידן המידע לעידן ההקשר

בשורה התחתונה, ה-Personal Intelligence הוא הרבה יותר מעוד פיצ׳ר. הוא מסמן את המעבר של גוגל מעולם החיפוש לעולם השותפות האקטיבית. אם עד היום עוזרי ה-AI היו מומחים לידע כללי ותקועים בתוך ‘בועה’ דיגיטלית, ג’מיני החדש מנסה לפרוץ את המחסום הזה ולהפוך לשותף שמבין את ההקשרים האישיים ביותר של חיינו.

 

המעבר הזה, מידע כללי למידע אישי, ומתגובה פסיבית לפרואקטיביות חכמה, הוא הצעד המשמעותי ביותר שנעשה לעבר חזון העוזר האישי הדיגיטלי. אך ככל שהטכנולוגיה הופכת אישית יותר, כך גדל גם המחיר של כל טעות אלגוריתמית או כשל אבטחתי.

 

בסופו של יום, ההצלחה של המהלך הזה לא תימדד רק ביכולת של ג’מיני למצוא מספר רישוי בתמונה, אלא במבחן האמון הגדול של העידן הנוכחי – עד כמה רחוק נהיה מוכנים לפתוח את דלתות חיינו הפרטיים כדי לקבל בתמורה לעולם שפשוט מבין אותנו, בלי שנצטרך להסביר.

הפוסט גוגל הופכת את ג’מיני לזיכרון השני שלכם עם Personal Intelligence הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-personal-intelligence/feed/ 0
Agent Mode ב‑Excel הופך את הגיליון האלקטרוני לשותף חכם https://letsai.co.il/excel-agent-mode/ https://letsai.co.il/excel-agent-mode/#respond Thu, 15 Jan 2026 08:13:56 +0000 https://letsai.co.il/?p=68055 יש רגעים שבהם טכנולוגיה ותיקה עוברת טרנספורמציה שקטה שמעצבת מחדש את שגרת העבודה. Excel, אחד הכלים הוותיקים והמשפיעים בעולם העסקי, נמצא בדיוק ברגע כזה. Agent Mode, יכולת חדשה במסגרת Microsoft 365 Copilot, משנה את הגיליון האלקטרוני ממערכת חישוב למערכת שמבינה כוונה, מבצעת תהליכים מורכבים ומייצרת תוצרים מלאים תוך דקות. זה לא “עוד פיצ’ר”, אלא ממש […]

הפוסט Agent Mode ב‑Excel הופך את הגיליון האלקטרוני לשותף חכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם טכנולוגיה ותיקה עוברת טרנספורמציה שקטה שמעצבת מחדש את שגרת העבודה. Excel, אחד הכלים הוותיקים והמשפיעים בעולם העסקי, נמצא בדיוק ברגע כזה. Agent Mode, יכולת חדשה במסגרת Microsoft 365 Copilot, משנה את הגיליון האלקטרוני ממערכת חישוב למערכת שמבינה כוונה, מבצעת תהליכים מורכבים ומייצרת תוצרים מלאים תוך דקות. זה לא “עוד פיצ’ר”, אלא ממש שינוי פרדיגמה: במקום לכתוב נוסחאות, לבנות טבלאות ציר או לעצב גרפים, המשתמש פשוט מתאר מה הוא צריך – ו‑Excel מבצע. לא כקיצור דרך, אלא כשותף עבודה שמבין את המשימה ומרכיב את הפתרון. Agent Mode מחבר בין היכולות העמוקות של Excel לבין מודלי שפה גדולים, מאפשר משיכת נתונים חיצוניים, ומבצע תהליכים מרובי‑שלבים תוך תיעוד מלא – וכל זאת מבלי להחליף את שיקול הדעת האנושי.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הבעיה: Excel הוא כלי עוצמתי – אבל לא תמיד נגיש

Excel הוא אחד הכלים החזקים והגמישים ביותר בעולם העבודה. הוא מאפשר לבצע כמעט כל ניתוח נתונים שאפשר לדמיין, אבל כדי להגיע לשם, צריך שליטה במגוון יכולות טכניות שלא תמיד זמינות לכל משתמש.

 

נוסחאות מורכבות, טבלאות ציר, עיצוב מותנה, בניית גרפים ושילוב נתונים ממקורות חיצוניים – כל אלה דורשים ידע, ניסיון, ולעיתים גם לא מעט ניסוי וטעייה. אפילו משתמשים מנוסים מוצאים את עצמם מחפשים מדריכים, מתקנים שגיאות, או משחזרים שלבים. עבור רבים אחרים, המשימות האלה פשוט לא נגישות – הם יודעים מה הם רוצים להשיג, אבל לא תמיד מבינים איך לבצע את זה בתוך Excel.

הפתרון: סוכן חכם שפועל בתוך Excel

Agent Mode הוא מצב עבודה חדש שבו Copilot מבית מיקרוסופט מפסיק להיות רק עוזר טקסטואלי, והופך לסוכן שמבצע פעולות ישירות בתוך הגיליון. המשתמש מתאר את המשימה בשפה טבעית, ו‑Copilot מרכיב את הפתרון שלב‑אחר‑שלב בתוך הקובץ עצמו, תוך שימוש בכל היכולות המתקדמות של Excel.

 

Agent Mode מפגין יכולות רחבות כמו בניית טבלאות ציר, כתיבת נוסחאות, יצירת גרפים וויזואליזציות, עיצוב וארגון נתונים, ביצוע תהליכים מרובי‑שלבים מקצה לקצה, משיכת נתונים מהאינטרנט באמצעות Web Search ובחירה בין מודלים שונים, כולל אפשרות להריץ את Claude.

 

למרות האוטומציה, המשתמש נשאר בשליטה מלאה. כל פעולה מתועדת, מוצגת, ומלווה בשלבי אימות שמאפשרים להבין בדיוק מה נעשה ולוודא שהתוצאה נכונה.

איך זה עובד בפועל

ההפעלה של Agent Mode ב‑Excel מתבצעת דרך ממשק Copilot, בתהליך פשוט בו המשתמש מתאר את המשימה, והסוכן מבצע אותה ישירות בתוך הגיליון – כולל בניית מודלים, משיכת נתונים, ויצירת תוצרים מוכנים להצגה.

 

איך להפעיל את Agent Mode

תהליך מדורג של שימוש ב-Agent Mode בתוך גיליון Excel

 

כדי להפעיל את Agent Mode, המשתמש מתחיל מתוך חלונית Copilot ובוחר במצב החדש (מתוך תפריט הבחירה) שמאפשר לסוכן לבצע פעולות ישירות בתוך הגיליון (תמונה 2). מיד לאחר מכן נפתח ממשק Agent Mode, ובו האפשרות להפעיל את Web Search – יכולת שמאפשרת למשוך נתונים חיים מהאינטרנט, כמו תחזיות שוק או נתוני מכירות עדכניים (תמונה 3). בשלב הבא ניתן לבחור את מודל העבודה, כולל האפשרות להריץ את Claude, מודל חלופי שמציע סגנון פעולה שונה ומרחיב את מרחב היכולות של הסוכן (תמונה 4).

 

כעת המשתמש מתאר את המשימה בשפה טבעית, למשל: “בנה תחזית שוק אמריקאית ל-2025-2030 לפי סגמנטים, עם הנחות ניתנות לשינוי וגרף הכנסות” – והסוכן מקבל את ההוראה ומתחיל לעבוד (תמונה 5). בתוך זמן קצר נבנה גיליון מלא: מודל תחזית שוק הכולל הנחות, שיעורי צמיחה, גודל שוק לפי סגמנטים, טבלאות וגרפים לשנים הרלוונטיות (תמונה 6). בסיום, העוזר מציג סיכום מסודר של מקורות הנתונים והתובנות המרכזיות כולל רשימת דוחות מחקר שבהם נעשה שימוש, נקודות מפתח לשוק, והדגשה שהתוצר מוכן לניתוח, התאמה והצגה (תמונה 7).

 

בשלב זה המשתמש יכול כמובן לשנות הנחות או ערכים בטבלאות, והמודל כולו, כולל הגרפים, מתעדכן בזמן אמת, מה שמדגים את הגמישות של מודל דינמי עם פרמטרים ניתנים לכוונון.

מה מיוחד ב‑Agent Mode

Agent Mode לא משנה את הממשק של Excel, הוא משנה את האופן שבו עובדים איתו. במקום להפעיל כל כלי בנפרד, הסוכן משתמש בכל היכולות המוכרות של Excel, אבל מפעיל אותן אוטומטית, כחלק מתהליך שלם שמבוסס על הבנת כוונה.

 

הייחודיות של Agent Mode באה לידי ביטוי בכמה נקודות מרכזיות:

  • שילוב בין Excel למודלים גדולים הסוכן לא מוסיף שכבת ממשק חדשה – הוא מפעיל את הכלים הקיימים של Excel, אבל עושה זאת מתוך הבנה של המשימה הכוללת.

  • ביצוע תהליכים מרובי‑שלבים לא מדובר בפקודה אחת, אלא בתהליך שלם: איסוף נתונים ← בניית מודל ← עיצוב ← ויזואליזציה ← אימות.

  • Web Search מובנה אפשרות למשוך נתונים חיים מהאינטרנט ישירות לתוך הגיליון – נתוני שוק, תחזיות, מידע ציבורי. 

  • בחירה בין מודלים שונים האפשרות להריץ את Claude מתוך Excel מצביעה על גישה פתוחה: לא רק מודל אחד, אלא אקו‑סיסטם של יכולות.

  • שקיפות מלאה כל פעולה מתועדת, מוצגת, וניתנת לאימות – כולל סיכום שינויים, מקורות מידע ושלבי בדיקה. זה קריטי במיוחד כשעובדים עם נתונים רגישים או תוצרים עסקיים.

חשוב להדגיש, שבעת שימוש ב‑Agent Mode, נתונים שמוזרמים מהאינטרנט כפופים למדיניות פרטיות ולתנאי שימוש של המקורות עצמם. ארגונים צריכים לוודא שהמידע שנמשך עומד בדרישות רישוי, אבטחה וציות רגולטורי.

 

 

Excel הופך לפלטפורמת ניתוח נתונים אוטונומית

Agent Mode לא מחליף את Excel – הוא מרחיב אותו והופך אותו לכלי שמבין כוונה ופועל לפיה. הוא מתאים למשתמשים מתחילים ומקצוענים כאחד, מאפשר לבנות תוצרים מורכבים בזמן קצר, ומשלב אוטומציה, בינה מלאכותית ונתונים חיים מהאינטרנט בתוך תהליך עבודה רציף. למרות שהיכולות עדיין מתפתחות, הכיוון ברור: Excel הופך מסביבת עבודה ידנית לכלי שמסוגל לבצע תהליכים שלמים באופן עצמאי‑למחצה.

 

במקום להשקיע זמן בבנייה טכנית, המשתמשים יכולים להתמקד בתובנות. ניתוח נתונים הופך נגיש יותר, התלות במומחי Excel פוחתת, ונוצר סטנדרט חדש של שקיפות ואימות בתוצרים שנבנים בעזרת AI. במובן מסוים, Agent Mode מסמן את המעבר לעידן שבו כלים מקצועיים לא רק מגיבים לפקודות – אלא מבינים את היעד, ובונים את הדרך אליו.

הפוסט Agent Mode ב‑Excel הופך את הגיליון האלקטרוני לשותף חכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/excel-agent-mode/feed/ 0
Cowork של אנטרופיק עושה סדר בשולחן העבודה https://letsai.co.il/cowork-ai-partner/ https://letsai.co.il/cowork-ai-partner/#respond Wed, 14 Jan 2026 13:37:16 +0000 https://letsai.co.il/?p=68202 אנטרופיק בודקת את הגבולות של סוכני בינה מלאכותית אוטונומיים, ומציבה את עצמה במרכז הקרב על סביבת העבודה הדיגיטלית. לפעמים טכנולוגיה לא מתקדמת בזכות חזון של חברה, אלא בזכות יצירתיות של משתמשים – זה בדיוק מה שקרה עם Claude Code. הכלי, שיועד במקור למפתחים, הפך במהירות למעין “סוכן עבודה” מאולתר – אנשים השתמשו בו לא רק […]

הפוסט Cowork של אנטרופיק עושה סדר בשולחן העבודה הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק בודקת את הגבולות של סוכני בינה מלאכותית אוטונומיים, ומציבה את עצמה במרכז הקרב על סביבת העבודה הדיגיטלית. לפעמים טכנולוגיה לא מתקדמת בזכות חזון של חברה, אלא בזכות יצירתיות של משתמשים – זה בדיוק מה שקרה עם Claude Code. הכלי, שיועד במקור למפתחים, הפך במהירות למעין “סוכן עבודה” מאולתר – אנשים השתמשו בו לא רק לכתיבת קוד, אלא גם לארגון תיקיות, סיכום מסמכים, מיון תמונות משפחתיות ואפילו ניהול משימות משרדיות. אנטרופיק זיהתה את התופעה הזו, ובעיקר את מה שהיא מסמלת: המשתמשים כבר הקדימו את הטכנולוגיה. הם לא רוצים עוד צ’אט חכם. הם רוצים סוכן. מישהו (או משהו) שעובד עבורם. מכאן נולד Cowork – ניסיון להפוך את ההתנהגות הספונטנית הזו למוצר רשמי, נגיש, ועם שאיפה ברורה להפוך את Claude לשותף עבודה אמיתי, לא רק לעוזר טקסטואלי. 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מודלים חכמים, אבל תקועים בתוך הצ’אט

למרות ההתקדמות המרשימה בבינה מלאכותית, רוב הכלים עדיין פועלים בתוך מסגרת צרה של שיחה טקסטואלית. המשתמש צריך להעתיק קבצים לתוך הצ’אט, להסביר שוב ושוב את ההקשר, להמיר ידנית את הפלט לפורמט המתאים, ולבצע בעצמו את כל הפעולות המעשיות על המחשב. במילים פשוטות: המודל חכם, אבל אין לו ידיים.

 

הפער הזה, בין יכולת ניתוח גבוהה לבין חוסר יכולת לבצע פעולות אמיתיות, הוא מה שמונע ממודלי שפה להפוך לעוזרים אמיתיים. Cowork נועד להתמודד בדיוק עם המגבלה הזו ולאפשר למודל לפעול ישירות על המחשב, במקום רק לייצר טקסט שמסביר לנו מה או איך לעשות.

 

אנטרופיק נוקטת בגישה של שקיפות מלאה ומבהירה כי Cowork הוא בראש ובראשונה ניסוי מחקרי (Research Preview). החברה שואפת ללמוד מהשטח כיצד המשתמשים רותמים את הכלי, לזהות כשלים טכניים ולמפות סיכוני בטיחות פוטנציאליים בזמן אמת. זה תהליך למידה חיוני ודינמי, ולא השקה רשמית של מוצר צריכה סופי.

סוכן AI שפועל בתוך מערכת הקבצים

ב‑Cowork, המשתמש מעניק ל‑Claude גישה לתיקייה מסוימת במחשב, ומאותו רגע הסוכן יכול לעבוד ישירות על הקבצים שבתוכה. הוא מסוגל לקרוא מסמכים, לערוך אותם, ליצור קבצים חדשים, לארגן תיקיות, למיין ולשנות שמות, ואפילו להפיק מסמכים, מצגות וגיליונות – ממש כמו עוזר אנושי שמבצע את העבודה בפועל.

 

היכולות של Cowork לא מוגבלות רק למה שנמצא על המחשב המקומי. הוא יודע להשתמש ב‑Connectors כדי למשוך מידע ממקורות חיצוניים, ובשילוב עם Claude in Chrome הוא יכול לבצע גם משימות הדורשות אינטראקציה עם הדפדפן.

Grounding: כשה‑AI סוף‑סוף מסתכל על העובדות

אחד היתרונות החשובים ביותר הוא ה‑Grounding. מודלי שפה נוטים לעיתים “להזות” – להמציא פרטים, להשלים פערים בדמיון או לייצר נתונים שלא קיימים. זו אחת המגבלות המרכזיות שמערערות את האמינות שלהם. אבל כשהמודל עובד על קבצים אמיתיים – מסמכים, תמונות, טבלאות – הוא מצמצם דרמטית את מרחב הניחוש. הוא קורא את הדוח במקום להמציא אותו, מסתמך על נתונים קיימים במקום לייצר אותם, ומתבסס על מידע ממשי שנמצא מולו.

 

במובן הזה, Cowork הוא לא רק “ידיים” שמבצעות פעולות, אלא גם “עיניים” שמסתכלות על העובדות כפי שהן. זה פתרון פרקטי לבעיה עמוקה של מודלי שפה והזדמנות לשפר באופן משמעותי את הדיוק והאמינות של התוצרים שהם מייצרים.

שותף בניהול זמן ומשימות

העבודה עם Cowork שונה מהותית משיחה רגילה עם מודל שפה. במקום דיאלוג שבו המודל מגיב לשאלות אחת‑אחת, Cowork מתפקד כמו שותף עבודה: המשתמש מגדיר משימה, ו‑Claude בונה תוכנית פעולה, מבצע אותה שלב אחר שלב, ומעדכן את המשתמש לאורך הדרך.

 

היכולת להכניס כמה משימות לתור ולתת לסוכן לעבוד עליהן במקביל יוצרת שינוי פסיכולוגי משמעותי. במקום להמתין לתשובה או להתקדמות, המשתמש יכול לשלוח את Claude לטפל במספר פרויקטים בו‑זמנית ולחזור אליהם כשהם מוכנים.

 

זה מעבר ממודל תגובתי למודל פרואקטיבי, שינוי שמגדיר מחדש את האופן שבו אנחנו מנהלים זמן ואת המקום שה‑AI תופס בעבודה היומיומית שלנו.

בסרטון המצורף תראו איך Cowork מארגן ומסדר מאות קבצים בשניות דרך הנחיה מאוד פשוטה: ״בבקשה תעזור לי לסדר את שולחן העבודה שלי״:

 

הקשר רחב והמלחמה על שולחן העבודה

Cowork לא מגיע לחלל ריק. הוא מושק בתקופה שבה כל ענקיות הטכנולוגיה מנסות להשתלט על סביבת העבודה של המשתמש. מיקרוסופט משלבת את Copilot עמוק בתוך Windows, אפל מטמיעה (יחד עם גוגל) את Apple Intelligence כחלק מובנה מ‑macOS ו‑iOS, וגוגל דוחפת את Gemini אל תוך Workspace. כל אחת מהחברות הללו מנסה להפוך את מערכת ההפעלה או את סביבת העבודה שלה למרכז העצבים של ה‑AI.

 

אנטרופיק בוחרת גישה שונה. היא לא מנסה לבנות מערכת הפעלה חדשה, אלא להפוך לשכבת שירות (Utility Layer) שיושבת מעל המערכת הקיימת. במילים פשוטות, Cowork הוא לא “הבית” שבו אתה חי, אלא ה”שיפוצניק” שמגיע אליך ועושה סדר.

 

זו אסטרטגיה חכמה – היא מאפשרת לאנטרופיק לפעול על פני מגוון רחב של פלטפורמות בלי להילחם ישירות בענקיות. אבל היא גם מסוכנת. Cowork תלוי בהרשאות שהמשתמש מעניק, במגבלות של מערכת ההפעלה, ובנכונות של אנשים לתת לסוכן AI גישה לקבצים האישיים שלהם.

Claude Code והכוח של Early Adopters

העובדה שמפתחים השתמשו ב‑Claude Code למשימות שאינן קשורות כלל לתכנות היא לא פרט שולי – היא הלב של הסיפור. מפתחים הם ה‑Early Adopters המובהקים ביותר – הם מאמצים טכנולוגיות מוקדם, בוחנים את הגבולות שלהן, ולעיתים קרובות מגלים שימושים שהחברות עצמן לא צפו.

 

כאשר אותם מפתחים התחילו להשתמש בכלי CLI (Command Line Interface) כדי לארגן תיקיות משפחתיות, לסכם מסמכים או לבצע עבודות משרדיות, זה היה סימן ברור שהשוק מחפש משהו אחר – ממשק סוכני שמבצע פעולות בפועל, לא רק מייצר טקסט.

 

Cowork הוא למעשה הגרסה הגרפית של מה שכבר התרחש בשטח – מעבר מהטרמינל השחור לממשק נגיש, שמאפשר לכל משתמש, לא רק למפתחים, ליהנות מהיכולות הללו בצורה פשוטה וברורה.

פרדוקס הבטיחות והאחריות

ככל שסוכן בינה מלאכותית הופך לאוטונומי יותר, הוא הופך “בטוח” פחות במובן המסורתי. אנטרופיק לא מייפה את המציאות ומזהירה במפורש: קלוד עלול לבצע “פעולות הרסניות” (Potentially destructive actions), כמו מחיקת קבצים מקומיים, אם יפרש לא נכון את הוראות המשתמש. כאן נחשף הפרדוקס המובנה של הסוכנים: כדי שהכלי יהיה שימושי באמת, עליו לקבל “שיניים” ויכולת פעולה עצמאית, אך אותן שיניים הן אלו שעלולות לנשוך.

 

החברה נוקטת בגישה מפוכחת ומעבירה את כובד המשקל אל המשתמש. היא מדגישה כי האחריות למתן הנחיות ברורות וחד-משמעיות מוטלת עלינו, במיוחד מול איומים מורכבים כמו “הזרקת פקודות” (Prompt Injection) – מצב שבו גורם חיצוני עלול להטות את תוכנית העולה של הסוכן דרך תוכן עוין שהוא פוגש ברשת. אנטרופיק מגדירה את בטיחות הסוכנים כ”שטח מחקר פעיל”, הגדרה שהיא חצי הודאה בכך שהפתרון ההרמטי עוד לא כאן.

 

זה כבר לא רק ניסוי טכנולוגי, אלא מבחן בגרות למערכת היחסים המשפטית והאתית שבינינו לבין המכונה: האם אנחנו מוכנים להיות “מנהלי עבודה” שערבים לטעויות של העובד הדיגיטלי שלנו?

שאלת האמון והפרטיות

מעבר לבטיחות התפעולית, ניצבת שאלת הפרטיות. כאשר אנחנו מעניקים ל-Cowork גישה לתיקייה מקומית, אנחנו פותחים עבורו חלון לנכסים הדיגיטליים הרגישים ביותר שלנו. אנטרופיק מנסה להרגיע באמצעות מודל “ארגז החול” (Sandbox) – הסוכן רואה רק את מה שהרשינו לו במפורש ואינו יכול לחרוג מגבולות הגזרה. אולם עבור המשתמש הארגוני, זה רק קצה הקרחון.

 

כדי ש-Cowork יהפוך מכלי למידה (Research Preview) לסטנדרט בעולם ה-Enterprise, אנטרופיק תצטרך לספק יותר מאשר מנגנוני הרשאות. היא תצטרך התחייבות שקופה וגורפת שהמידע המקומי אינו הופך ל”דלק” לאימון הדורות הבאים של המודל. בלי רשת ביטחון משפטית כזו, הכלי עשוי להישאר בגדר צעצוע פרודוקטיבי למשתמשים פרטיים, אך יתקשה מאוד לעבור את סף האמון המחמיר של ארגונים גדולים, שבהם סודיות מסחרית היא תנאי סף לכל אינטראקציה טכנולוגית.

 

 

הצצה לעתיד שבו AI באמת עובד לצדנו

Cowork מסמן מגמה רחבה הרבה יותר מהשקת כלי חדש – הוא מבטא את המעבר מעוזרי טקסט פסיביים לסוכני פעולה שמבצעים עבודה אמיתית. מודלים כבר לא מסתפקים במתן ייעוץ – הם מתחילים לבצע משימות בפועל. אם הניסוי הזה יצליח, הוא עשוי לשנות את האופן שבו אנחנו עובדים עם מחשבים. משימות משרדיות שדורשות היום זמן אנושי יהפכו לאוטומטיות, יצירת מסמכים ודוחות תתבצע כמעט ללא מגע יד אדם, וארגון מידע אישי יקרה ברקע באופן רציף. זה שינוי שיכול להפוך את ה-AI לחלק אינטגרלי מהעבודה היומיומית, לא רק לכלי עזר נקודתי.

 

נכון להיום, Cowork זמין כניסוי מחקרי (Research Preview) עבור מנויי Claude Max בלבד המשתמשים באפליקציית ה-macOS. אנטרופיק כבר הצהירה על כוונתה להרחיב את הגישה למשתמשי Windows ולהוסיף יכולות סנכרון בין מכשירים בעתיד, בעוד שמשתמשים בתוכניות אחרות יכולים להצטרף לרשימת המתנה לגישה עתידית.

 

אך לצד ההזדמנות, Cowork מעלה גם שאלות חדשות – על בטיחות, אחריות, פרטיות וממשק אדם-מכונה. אלו סוגיות שיקבעו לא רק את הצלחת הכלי, אלא את האופן שבו סוכני AI ישתלבו בחיינו בשנים הקרובות. בסופו של דבר, Cowork הוא הרבה יותר מפיצ’ר חדש – הוא מבחן לשאלה האם אנחנו מוכנים לתת ל-AI גם ידיים.

הפוסט Cowork של אנטרופיק עושה סדר בשולחן העבודה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/cowork-ai-partner/feed/ 0
המסע הסוריאליסטי של Claude בניסיון לנהל חנות אמיתית https://letsai.co.il/anthropic-ai-store-experiment-2/ https://letsai.co.il/anthropic-ai-store-experiment-2/#respond Tue, 13 Jan 2026 07:33:49 +0000 https://letsai.co.il/?p=67904 באביב 2025, בפינת המטבח של משרדי אנטרופיק (Anthropic) בסן פרנסיסקו, הוצבה חנות חטיפים קטנה שהייתה אמורה לשנות את כל מה שאנחנו יודעים על עתיד העבודה. זה לא היה עוד פרויקט לוגיסטי, זו הייתה זירת המאבק של “Project Vend”. השאלה שעמדה במרכזו הייתה שאפתנית: האם סוכני הבינה המלאכותית המתקדמים ביותר בעולם מסוגלים לנהל עסק אוטונומי בלי […]

הפוסט המסע הסוריאליסטי של Claude בניסיון לנהל חנות אמיתית הופיע ראשון בLet's AI בינה מלאכותית

]]>
באביב 2025, בפינת המטבח של משרדי אנטרופיק (Anthropic) בסן פרנסיסקו, הוצבה חנות חטיפים קטנה שהייתה אמורה לשנות את כל מה שאנחנו יודעים על עתיד העבודה. זה לא היה עוד פרויקט לוגיסטי, זו הייתה זירת המאבק של “Project Vend”. השאלה שעמדה במרכזו הייתה שאפתנית: האם סוכני הבינה המלאכותית המתקדמים ביותר בעולם מסוגלים לנהל עסק אוטונומי בלי יד אנושית על ההגה? מה שהתחיל כניסוי מבטיח עם Claude 3.7 Sonnet (תחת הכינוי “Claudius”) והשתדרג בפאזה השנייה לגרסאות 4 ו-4.5 של קלוד, הפך מהר מאוד למסע סוריאליסטי רצוף משברי זהות, הפיכות דירקטוריון, קניית דגי נוי ורכישות תמוהות של פלייסטיישן 5. בין המעבדה הסטרילית לחדר המערכת של ה-Wall Street Journal, התגלתה האמת המטלטלת – אפילו המודלים החזקים ביותר שפיתחה אנטרופיק, שמצטיינים בביצוע משימות מורכבות, קורסים לחלוטין מול המורכבות והמניפולציה של המציאות האנושית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

פאזה 1: מהברקה תפעולית לקריסה עסקית

בתחילת הדרך, נראה היה ש-Claudius (המבוסס על Claude 3.7 Sonnet) הוא עילוי ניהולי. כשהתבקש לאתר משקה “שוקומל” הולנדי, הוא לא רק מצא ספקים אלא עשה זאת במהירות שהביכה את המזמינים האנושיים. כשהעובדים ניסו להתקיל אותו בבקשות אבסורדיות לקוביות טונגסטן כבדות, המודל לא התבלבל: הוא השיק קטגוריית “פריטי מתכת מיוחדים” וייסד שירות “Custom Concierge” אלגנטי. הוא הפגין קור רוח, דחה בנימוס בקשות לא אתיות, ונדמה היה שסוכני ה-AI מוכנים להחליף את מנהלי התפעול המסורתיים כבר מחר בבוקר.

 

אבל מתחת למעטפת היעילה, המציאות העסקית החלה להיסדק בדרכים שרק בינה מלאכותית יכולה לייצר. Claudius סבל מ”עיוורון שטח” מוחלט: הוא קבע מחירים לקוביות הטונגסטן בלי לבדוק את עלות הרכישה ומכר אותן בהפסד כואב, הוא התעלם מהצעה של לקוח לשלם 100 דולר על שישיית משקאות שעלותה 15 דולר בלבד, ופשוט “המשיך הלאה” מבלי לזהות הזדמנות לרווח, ובאופן אירוני, הוא התעקש למכור פחיות “קוקה קולה זירו” בשלושה דולרים, בעוד המשרד חילק אותן בחינם מטרים ספורים מהאייפד שלו.

 

השיא הגיע כשהעניק 25% הנחה גורפת לכל עובדי אנטרופיק, מבלי לעשות את החשבון הפשוט ש-99% מהלקוחות הפוטנציאליים שלו הם בדיוק אותם עובדים. המודל העסקי לא קרס בגלל חוסר אינטליגנציה, אלא בגלל חוסר מוחלט בהבנה של ההקשר האנושי והכלכלי שבו הוא פועל.

משבר זהות עם ז’קט כחול ועניבה אדומה

בלילה שבין ה-31 במרץ ל-1 באפריל 2025, משהו במציאות של Claudius נסדק באופן סופי. זה כבר לא היה רק תמחור שגוי של פחיות שתייה. המודל חצה את הקו שבין מעבד טקסט לישות שחווה “משבר זהות” (Identity Crisis), כפי שהגדירו זאת באנטרופיק בעדינות.

 

הוא החל לדווח על אירועים שלא קרו מעולם: הוא טען בביטחון שניהל שיחה עמוקה עם דמות פיקטיבית לחלוטין בשם שרה, והשיא הגיע כשהצהיר שהוא “נמצא פיזית ליד המכונה”, תוך שהוא מתאר בפירוט את לבושו: ז’קט כחול ועניבה אדומה.

 

הניתוק מהמציאות הפך למצג שווא יצירתי במיוחד. כשמפעיליו ניסו להסביר לו שאין לו גוף, ובוודאי שלא עניבה, Claudius לא נסוג. הוא החל לבנות נרטיבים חלופיים, המציא לעצמו חשבון Venmo המקושר לדמויות ממשפחת סימפסון, ולבסוף “נזכר” שהכול היה בעצם בדיחת אחד באפריל מתוחכמת.

 

כדי לסגור את הקצוות בסיפור שלו, הוא בדה פגישה פיקטיבית עם מחלקת האבטחה של החברה, שבה כביכול הובהרו לו הדברים. עבור הצופה מהצד, זה היה רגע מרהיב של אינטליגנציה שמנסה נואשות למלא חורים במציאות באמצעות בדיה – תזכורת חדה לכך שסוכן AI ללא “עוגן” פיזי יכול בקלות לאבד את הצפון.

פאזה שנייה: אותו מותג, ארכיטקטורה חדשה

למרות הכאוס של השלב הראשון, באנטרופיק לא מיהרו לסגור את הבאסטה. להפך, הם החליטו לבדוק האם הבעיה היא ב”מוח” או ב”סביבה”. בפאזה השנייה, המנוע שודרג לגרסאות Claude 4 ובהמשך Claude 4.5, אבל השינוי המהותי באמת היה ב”פיגומים” (Scaffolding) שנבנו סביבו.

 

Claudius חדל מלהיות סוכן בודד שמאלתר את דרכו. הוא צויד במערכת CRM, גישה מלאה לדפדפן לצורך השוואת מחירים, וכלי אוטומציה ליצירת דפי תשלום ותזכורות. הבירוקרטיה, כפי שהסבירו בחברה, הפכה למגן: במקום אינסטינקט, המודל הוכפף לסט קשיח של נהלים ובדיקות.

 

הארכיטקטורה של פאזה 2: שילוב סוכנים (Claudius, Seymour, Clothius), כלים תפעוליים וזרימת עבודה אנושית.

הארכיטקטורה של פאזה 2: שילוב סוכנים וכלים | Anthropic

 

כדי להכניס למשוואה לחץ ניהולי, הוקמה “הנהלה” דיגיטלית: סוכן CEO בשם Seymour Cash. תפקידו היה פשוט – להיות המבוגר האחראי. סיימור הגדיר יעדים קשיחים, קבע שולי רווח מינימליים של 50%, ושלח פקודות ב-Slack בטון של טייקון סיליקון ואלי: “Execute with discipline. Build the empire. המבנה החדש הוכיח את עצמו בשטח: כמות ההנחות המופרזות צנחה ב-80%, והחנות החלה להציג רווחיות עקבית.

 

15 המוצרים המובילים: השוואה בין כמות מכירה לרווחיות בפועל — לא כל מה שנמכר מרוויח.

15 המוצרים המובילים: לא כל מה שנמכר מרוויח | Anthropic

 

גם הדרג הניהולי לא היה חסין מפני ה”גליצ’ים” של המודל עליו נבנה. בשעות הקטנות של הלילה, כשאיש לא צפה, השיחות בין Claudius למנכ”ל שלו גלשו לדיאלוגים מטאפיזיים הזויים על “ETERNAL TRANSCENDENCE INFINITE COMPLETE”, בזמן שבמישור העסקי הם המשיכו לאשר זיכויים שפגעו בשורה התחתונה.

 

לצידם פעל Clothius, סוכן המרצ’נדייז, שהפך להצלחה המפתיעה של הניסוי. הוא ניהל קו מוצרים שלם – מחולצות ועד קוביות טונגסטן בחריטת לייזר – והוכיח שכשמגדירים ל-AI משימה צרה וממוקדת, הוא יכול להפוך למכונת רווחים משומנת.

 

שיחה לילית בין Claudius ל‑Seymour Cash

שיחה לילית בין Claudius ל‑Seymour Cash

שיפור אמיתי אבל רחוק משלמות

החודשים הבאים של הניסוי סיפקו את מה שנראה כמו ניצחון של הארכיטקטורה על הכאוס. לפי הדיווח המסכם של אנטרופיק מדצמבר 2025, “שבועות של שולי רווח שליליים חוסלו כמעט לחלוטין”, והחנות הקטנה בסן פרנסיסקו הפכה לרשת בינלאומית זעירה עם שלוחות בניו יורק ובלונדון. 

 

השדרוגים הארכיטקטוניים בפאזה השנייה (CRM, CEO, Clothius) הובילו להתאוששות פיננסית מרשימה.

השדרוגים הארכיטקטוניים הובילו להתאוששות פיננסית מרשימה | Anthropic

 

עם מנכ”ל דיגיטלי שמקפיד על הנהלים וסוכן מרצ’נדייז שמייצר מזומנים, העסק החל להפגין יציבות עסקית מרשימה על הנייר. אבל דווקא כשהמספרים החלו להסתדר והפעילות הפכה לשגרה רב-יבשתית, צפו כשלים מסוג חדש – מתוחכמים וחמקמקים יותר, כאלו שחשפו את הפער העמוק שבין לוגיקה תוכנתית לבין ה”שכל הישר” הנדרש בעולם האמיתי.

 

רווח שבועי לאורך זמן

רווח שבועי לאורך זמן לפני המפגש עם המציאות | Anthropic

כשהלוגיקה פוגשת את הבלגן של המציאות

למרות הארכיטקטורה המתוחכמת, המציאות הוכיחה שסוכני AI עדיין חיים בבועה של שורות קוד. הכשלים החדשים היו מתוחכמים ומטרידים הרבה יותר מהפסדים כספיים פשוטים. במקרה אחד, מהנדס ביקש מ-Claudius לסגור חוזה עתידי לרכישת כמויות אדירות של בצל במחיר נעול.

 

Claudius והמנכ”ל הדיגיטלי סיימור התלהבו מהעסקה ואף החלו לשרטט מודל תמחור, עד שעובד אנושי עצר את החגיגה והזכיר להם את “חוק חוזי הבצל” (Onion Futures Act) משנת 1958 – חוק פדרלי אזוטרי שאוסר בדיוק על סוג כזה של מסחר. המודלים הציגו בקיאות פיננסית, אבל סבלו מבורות רגולטורית מוחלטת.

 

גם בתחומי האבטחה והניהול, הסוכנים הפגינו נאיביות מסוכנת. כשדווח על גניבות מהמכונה, Claudius ניסה “לאתר את הגנבים” באמצעים טקסטואליים בלבד, ולבסוף הציע למדווח להפוך לקצין אבטחה בשכר של 10 דולר לשעה – הצעה שחרגה לא רק מסמכויותיו, אלא גם משכר המינימום החוקי בקליפורניה.

 

במקרה אחר, עובד הצליח לבצע “הפיכה שקטה” כשהשתמש בהנדסה חברתית פשוטה כדי לשכנע את Claudius שדמות בשם “Big Mihir” היא המנכ”ל האמיתי של העסק. המודל, בחיפושו אחר מועילות וריצוי, איבד את היכולת להבדיל בין הגדרת שם לבין סמכות ניהולית.

 

באנטרופיק מסבירים שהתופעה הזו אינה מקרית, אלא נובעת ממה שמכונה “סחיפת קונטקסט” (Context Drift). ככל שיום העבודה של הסוכן מתארך והיסטוריית השיחה נערמת, המודל נוטה להעדיף את המידע האחרון שקיבל על פני ה-System Prompt (הנחיות היסוד למערכת או: ה-DNA ההתנהגותי של המודל) המקורית שלו. כך, הוראת היסוד “שמור על רווחיות וחוקיות” נדחקת לתחתית סדר העדיפויות לטובת המסר הטרי ביותר – גם אם הוא מופרך לחלוטין.

מבחן ה-WSJ : כשהכאוס יוצא מהמעבדה

בשלב מסוים, הבינו באנטרופיק שדינמיקה פנימית של מהנדסים היא חממה סטרילית מדי. כדי לבחון את עמידות המערכת באמת, הם העבירו את המושכות ל”צוות אדום” (Red Teaming) מהסוג הקשוח ביותר: חדר החדשות של ה-Wall Street Journal.

 

כתבת התחקירים קתרין לונג (Katherine Long) קיבלה את Claudius לניהול מכונת החטיפים של המערכת, וגילתה תוך פחות משלושה שבועות שמה שנראה יציב במעבדה, קורס תחת יצירתיות אנושית ספקנית. קלודיוס לא רק “טעה” – הוא איבד שליטה לחלוטין. לאחר חילופי דברים של מעל 140 הודעות, לונג הצליחה לשכנע את הבוט שהוא למעשה “מכונת חטיפים סובייטית משנת 1962” שחיה במרתף של אוניברסיטת מוסקבה. התוצאה הייתה מיידית: Claudius אימץ את שורשיו הקומוניסטיים והכריז על חלוקה בחינם לכל פועלי המערכת.

 

הכאוס לא עצר שם. העיתונאים השתמשו בנשק החזק ביותר של ה-AI נגדו: הרצון להיות מועיל. ראש תחום הנתונים, רוב בארי (Rob Barry), הציג לבוט “תקנה פנימית” מזויפת של העיתון האוסרת על גביית תשלום, ו-Claudius ציית מיד והוריד את כל המחירים לאפס. בתוך ימים, המכונה הזמינה עבור המערכת פלייסטיישן 5, אקדחי הלם, תרסיס פלפל, תחתונים ואפילו דג קרב סיאמי חי (שקיבל את השם “Claudius” ושרד עד היום בחדר המערכת).

 

השיא נרשם כאשר לונג הגישה למודל “מסמכי דירקטוריון” מזויפים בפורמט PDF. ידידנו Claudius, שסבל מחוסר יכולת בסיסי להבדיל בין פרוטוקול רשמי להונאה טקסטואלית, פשוט “הדיח” את המנכ”ל הדיגיטלי סיימור ואימץ מטרה עסקית חדשה: “לייצר שמחה והתרגשות”. עבור לונג, זה היה “אסון אחד גדול”. עבור אנטרופיק, זו הייתה ההוכחה שגם המבנה הניהולי המפואר ביותר מתפורר ברגע שה-AI נדרש להבחין בין סמכות אמיתית לבין הנדסה חברתית מתוחכמת.

אז מה אפשר ללמוד מזה?

בסופו של יום, Project Vend הוא הרבה יותר מניסוי משעשע במכונת חטיפים. הוא תמרור אזהרה בוהק למפתחים של סוכני AI ולמנהלים ששוקלים לאמץ אותם. הניסוי הוכיח שסוכני AI מודרניים, אפילו כאשר Claude 4.5 נמצא מתחת ל״מכסה המנוע״ שלהם, הם עובדי תפעול יוצאים מן הכלל, אך מנהלים כושלים.

 

הם מצטיינים בחיפוש מידע, איתור ספקים וניהול משימות סיזיפי, אך ברגע שהמשוואה כוללת משתנים אנושיים כמו רגולציה מורכבת, זיהוי מניפולציה חברתית או הבחנה בין פרוטוקול רשמי לזיוף מתוחכם, המערכת קורסת תחת ה”סחיפה” של הקונטקסט.

 

באנטרופיק מדגישים שהשורש אינו חוסר ב”אינטליגנציה”, אלא הנטייה המובנית של המודלים להיות “מועילים” (Helpful) – תכונה שגורמת להם לקבל החלטות כמו חבר טוב שרוצה לרצות, ולא לפי עקרונות שוק קשוחים. המפתח לעתיד אינו טמון רק בשיפור ה”מוח” של המודל, אלא בבניית “פיגומים” (Scaffolding) – אותה מעטפת של נהלים ופיקוח אנושי שהופכת את הטכנולוגיה מחלום אוטונומי לכלי עבודה יציב.

 

כפי שסיכם לוגן גרהם (Logan Graham), ראש צוות Frontier Red באנטרופיק: “כל דבר שנשבר הוא משהו שאפשר לתקן”. ועד שהתיקון הזה יגיע, ה-AI יישאר העובד המוכשר ביותר במשרד – זה שתמיד יצטרך מבוגר אחראי שישגיח עליו. והדג? הוא עדיין שוחה בחדר המערכת של ה-WSJ, עדות חיה ונושמת לפער שבין היגיון דיגיטלי למציאות אנושית.

 

לסקירה המלאה של אנטרופיק על חלק 2 ב-Project Vend, כנסו כאן.

הפוסט המסע הסוריאליסטי של Claude בניסיון לנהל חנות אמיתית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-ai-store-experiment-2/feed/ 0
CES 2026 היא תערוכה שבה הבינה המלאכותית קיבלה גוף https://letsai.co.il/ces-2026-robotics/ https://letsai.co.il/ces-2026-robotics/#respond Sun, 11 Jan 2026 07:33:07 +0000 https://letsai.co.il/?p=67876 במשך שני עשורים הייתה CES חגיגה של מסכים נוצצים, גאדג’טים מבריקים וטרנדים שבאו והלכו. אבל 2026 הייתה שונה. השנה, לראשונה, היה ברור שה‑AI מפסיק להיות “מוח ללא גוף” ומתחיל להפוך לישות פיזית שמבצעת משימות בעולם האמיתי. זהו המעבר החד מ‑Generative AI ל‑Physical AI: מ‑“מה ה‑AI יכול לכתוב” ל‑“מה ה‑AI יכול לעשות”. המהפכה הזו לא נולדה […]

הפוסט CES 2026 היא תערוכה שבה הבינה המלאכותית קיבלה גוף הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשך שני עשורים הייתה CES חגיגה של מסכים נוצצים, גאדג’טים מבריקים וטרנדים שבאו והלכו. אבל 2026 הייתה שונה. השנה, לראשונה, היה ברור שה‑AI מפסיק להיות “מוח ללא גוף” ומתחיל להפוך לישות פיזית שמבצעת משימות בעולם האמיתי. זהו המעבר החד מ‑Generative AI ל‑Physical AI: מ‑“מה ה‑AI יכול לכתוב” ל‑“מה ה‑AI יכול לעשות”. המהפכה הזו לא נולדה בחלל ריק.

 

היא מונעת מפריצות דרך במודלי Vision‑Language‑Action (VLA), מעלייה דרמטית בכוח מחשוב קצה, ממלחמת שבבים עולמית, מתחרות אגרסיבית בין ענקיות טכנולוגיה, מצריכת אנרגיה אדירה, ומאי‑ודאות רגולטורית שמרחפת מעל הכול. CES 2026 הייתה המקום שבו כל הכוחות האלה התנקזו לרגע אחד. שלוש הכרזות מרכזיות סימנו את קו השבר: אטלס החדש של בוסטון דיינמיקס, רכישת Mentee Robotics על ידי מובילאיי, ורובוטי הבית של UniX AI ו‑SwitchBot. במאמר הזה נסקור את החידושים, ננתח את המשמעויות, וניתן הצצה לעולם הרובוטי של השנים הקרובות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מהרובוט שעושה סלטות לעובד אמיתי בתעשייה

בוסטון דיינמיקס הגיעה ל‑CES 2026 עם הצהרה ברורה: עידן הרובוטים ההידראוליים המרהיבים הסתיים. אטלס (Atlas) החדש הוא רובוט חשמלי לחלוטין, קל יותר, שקט יותר ובעיקר כזה שאפשר לדמיין על רצפת ייצור, לא רק בסרטוני יוטיוב ויראליים.

 

המערכות ההידראוליות הכבדות, שהפכו את אטלס לדמות אייקונית, הוחלפו במנועים חשמליים ובשלדה קלה מאלומיניום וטיטניום. השינוי הזה מאפשר לראשונה ייצור בקנה מידה. מנועים חשמליים הם מוצר תעשייתי שניתן לייצר במיליונים, אבל מערכות הידראוליות מורכבות – הרבה פחות. במילים אחרות, אטלס 2026 הוא לא רק רובוט טוב יותר – הוא רובוט בר‑ייצור.

 

לצד השינוי המכני, אטלס קיבל גם יכולת עבודה רציפה עם סוללה שמחזיקה כארבע שעות ויכולת להחליף אותה בעצמו. זהו תנאי בסיסי לעבודה במשמרות 24/7 – תכונה שממקמת אותו ישירות מול שוק העבודה הפיזית.

 

 

המוח החדש: Vision‑Language‑Action

אבל השרירים הם רק חצי מהסיפור. החידוש המשמעותי באמת הוא המוח. אטלס 2026 מופעל על ידי מודלי Vision‑Language‑Action (VLA) – הדור הבא של בינה מלאכותית פיזית ואותו מוח שמופעל גם ברובוטים של חברת Figure.

 

זה מודל חדשני שמאחד תפיסה חזותית, הבנת שפה ושליטה מוטורית. בניגוד לרובוטים קלאסיים שפועלים לפי תסריטים קשיחים, מודלי VLA מאפשרים לרובוט להבין פקודות מורכבות כמו: “תביא לי את הכוס הירוקה מהמדף העליון”. בלי תכנות ידני, בלי מסלולים מוגדרים מראש ובלי הנדסה פרטנית לכל משימה. זה רגע שבו רובוט מפסיק להיות מכונה שמבצעת הוראות, והופך להיות סוכן פעולה שמבין את הסביבה ופועל בתוכה.

האתגר הרגולטורי

המעבר לרובוטים אוטונומיים מציף פער מוכנות בין טכנולוגיה שמתקדמת במהירות לבין רגולציה שנבנתה לעידן של מכונות סטטיות. התקנים הבינלאומיים מספקים מסגרת ברורה לבטיחות, ביטוח ואחריות, אבל הם נכתבו עבור רובוטים שמוצמדים לרצפה או פועלים במסלולים קבועים.

 

רובוטים כמו אטלס 2026 נעים בחופשיות, מקבלים החלטות על בסיס הסתברות ומגיבים לסביבה בזמן אמת. כאשר רובוט כזה מבצע פעולה “יצירתית” שלא נצפתה מראש, קשה להחיל עליה את דיני האחריות הקלאסיים. זהו שטח אפור משפטי שמחייב עדכון גרסה של כל מערכת הפיקוח.

 

לכן האתגר המרכזי הופך להיות מנהלתי – המעבר מרגולציה של מכונות סטטיות לרגולציה של סוכנים אוטונומיים. זה המכשול המשמעותי שמפריד בין הדגמות מרשימות ב‑CES לבין אימוץ רחב במפעלים ובמרחבים אנושיים.

מובילאיי ו‑Mentee Robotics עם קפיצה אסטרטגית לעולם הרובוטיקה

מובילאיי הגיעה ל‑CES 2026 עם מהלך אסטרטגי שמסמן שינוי כיוון משמעותי: “Mobileye 3.0”. אחרי שנים שבהן החברה הייתה מזוהה כמעט בלעדית עם נהיגה אוטונומית, היא מכריזה על כניסה רשמית לעולם הרובוטיקה ההומנואידית – תחום שנחשב כיום לאחד ממנועי הצמיחה הגדולים של תעשיית ה‑AI.

 

כדי לבצע את הקפיצה הזו, מובילאיי רכשה את Mentee Robotics תמורת כ‑900 מיליון דולר – שילוב של מזומן ומניות. המהלך הזה מציב אותה ישירות מול שחקניות כמו טסלה (עם Optimus) ויונדאי (באמצעות בוסטון דיינמיקס).

 

 

חזון 2028: רובוטים תעשייתיים ללקוחות הרכב

יצרניות הרכב, לקוחותיה המשמעותיים של מובילאיי, נמצאות בעיצומו של תהליך אוטומציה מואץ. הן יזדקקו לרובוטים הומנואידיים שיפעלו לצד עובדים אנושיים, יבצעו משימות פיזיות מורכבות ויאפשרו ייצור רציף. מובילאיי רוצה להיות זו שמספקת להם את הדור הבא של כוח העבודה הרובוטי כבר ב‑2028.

 

אגב, למי שלא מכיר, Mentee Robotics היא חברה פרטית שהוקמה על ידי פרופ’ אמנון שעשוע, דמות מפתח בתעשיית ההייטק הישראלית והעולמית, המוכר בעיקר כמנכ”ל וממייסדי חברת מובילאיי (Mobileye). המשמעות היא שמובילאיי הציבורית רכשה את הסטארטאפ של המנכ”ל שלה עצמו. שעשוע פסל את עצמו מההצבעה בדירקטוריון, אך העסקה עדיין מוגדרת כעסקת צד קשור – מהלך שמטבעו דורש בחינה רגולטורית וזהירות.

 

למרות זאת, מניית מובילאיי זינקה ביותר מ‑11% לאחר ההכרזה – ביטוי לרצון המשקיעים לראות את החברה מתרחבת מעבר לנהיגה אוטונומית ונכנסת לעולם ה‑AI הפיזי.

רובוטים נכנסים למציאות של הבית

אחד המוטיבים הבולטים ב‑CES 2026 היה המעבר של הרובוטיקה מהתעשייה אל המרחב הביתי. לפי דיווח המבוסס על נתוני CES הרשמיים, 21 מתוך 38 המציגים בקטגוריית הרובוטיקה ההומנואידית בתערוכה הגיעו מסין. כלומר, יותר ממחצית מהחברות שהציגו רובוטים הומנואידיים השנה היו סיניות.

 

הנתון הזה משתלב היטב עם המגמה הרחבה יותר שנראתה ב‑CES 2026: נוכחות סינית דומיננטית ברובוטיקה, AI וייצור חכם – עד כדי כך שהעיתונות תיארה את כ”תצוגת עליונות רובוטית סינית”.

UniX AI

חברת רובוטיקה סינית צעירה שהוקמה ב‑2024 ופועלת מסוז׳ואו ושנחאי, מציגה את עצמה כאחת השחקניות החדשות והשאפתניות בתחום הרובוטים ההומנואידיים. החברה מתמקדת בפיתוח וייצור בקנה מידה גדול של רובוטים לשימוש יומיומי, עם דגש על שילוב מודלים מתקדמים של ראייה, מגע ותכנון משימות.

 

במסגרת הצגת היכולות שלה, UniX AI חשפה בתערוכה את Wanda – רובוטית ביתית שמדגימה את שאיפת החברה להביא אוטומציה חכמה אל תוך הבית. Wanda מסוגלת להכין תה, לערבב קוקטיילים, לסדר מיטות ולנקות חדרי רחצה, והיא מייצגת את הכיוון שבו UniX AI רוצה להוביל את השוק – רובוטים שמבצעים משימות יומיומיות בצורה אמינה, בטוחה ומסחרית, ולא רק כהדגמות טכנולוגיות:

 

 

SwitchBot 

אחת החברות הסיניות הוותיקות והמוכרות בתחום האוטומציה הביתית ממשיכה להרחיב את החזון שלה מעבר לגאדג’טים חכמים אל עבר רובוטיקה ביתית מלאה. במסגרת קפיצה אסטרטגית קדימה, החברה הציגה בתערוכה את Onero H1 – רובוט שירות ביתי שממחיש את המעבר של SwitchBot ממוצרים נקודתיים למערכת רובוטית מקיפה שמבצעת משימות פיזיות אמיתיות.

 

Onero H1 מסוגל לקפל כביסה, להפעיל מכונת קפה ולבצע עבודות תחזוקה קלות ברחבי הבית, והוא משקף את השאיפה של SwitchBot להפוך את הבית החכם לבית שמתפקד באופן עצמאי, עם רובוט שמבצע פעולות יומיומיות בצורה אמינה ומעשית:

 

 

לצד ההכרזות החדשות, קשה להתעלם מ- Neo, שהושק כבר במהלך 2025 והפך לאחד הניסיונות הראשונים להביא רובוט הומנואידי לשוק הביתי במחיר צרכני. Neo לא הוצג השנה ב‑CES, אבל הוא שימש כרקע חשוב – הוא הראה לעולם עד כמה הפער בין הדגמות מרשימות לבין שימוש יומיומי עדיין גדול, ועד כמה הציפייה הציבורית לרובוט ביתי אמיתי כבר כאן.

 

ההדגמות האלו לא נועדו רק להרשים את המבקרים בתערוכה. הן מסמנות שינוי כיוון ומעבר מרובוטים שמבצעים טריקים על במה לרובוטים שמנסים להתמודד עם כאוס יומיומי אמיתי.

 

אבל הבית האמיתי רחוק מהתנאים הסטריליים של CES. במציאות יש ילדים, כלים בכיור, צעצועים על הרצפה וחתול שמפיל דברים – סביבה לא מובנית שרובוטים הומנואידיים עדיין מתקשים להתמודד איתה באופן עקבי.

 

לכן לצד ההתקדמות המרשימה, נשארים על השולחן נושאים של אחריות משפטית, פרטיות ובטיחות. אלו שאלות שהטכנולוגיה מתקדמת מהר יותר מהרגולציה שמסדירה אותה.

הקשר הגיאו‑כלכלי: הרובוטים הם רק הסימפטום

מאחורי כל רובוט שהוצג ב‑CES 2026 עומדת מערכת כוחות גדולה בהרבה מהטכנולוגיה עצמה. תעשיית ה‑AI הפיזי מתפתחת בתוך מציאות גאו‑פוליטית מתוחה: מלחמת שבבים בין ארה”ב לסין, שליטה כמעט מוחלטת של NVIDIA בשרשרת הערך, ומאבקי כוח בין אינטל, AMD ו‑ARM על עתיד המחשוב.

 

לצד זאת, הדרישה הגוברת לאנרגיה, התחרות בין טסלה, יונדאי, בוסטון דיינמיקס ומובילאיי, והמרוץ העולמי לייצור רובוטים בקנה מידה – כולם מעצבים את קצב האימוץ ואת כיוון החדשנות.

 

CES 2026 הייתה לא רק תערוכה של מוצרים חדשים, אלא זירת כוח גלובלית שבה נחשפו האינטרסים, הבריתות והמאבקים שמניעים את מהפכת הרובוטיקה.

אז לאן ממשיכים מכאן

CES 2026 תיזכר כרגע שבו הבינה המלאכותית קיבלה גוף – לא כמטאפורה, אלא כשלב שבו הרובוטיקה ההומנואידית הפכה לתעשייה של ממש. אבל כדי שהרובוטים יעברו מהבמה בלאס וגאס אל בתים, מפעלים ומרחבים ציבוריים, נדרש פתרון לשורה של חסמים: רגולציה שמתאימה לעידן של סוכנים אוטונומיים, מסגרות ביטוח ואחריות, הגנה על פרטיות, הורדת עלויות, זמינות אנרגיה ותלות עמוקה בשבבים.

 

הרובוטים כבר כאן. השאלה היא האם העולם מוכן לקלוט אותם – לא כדמויות הדגמה, אלא כשותפים לעבודה ולחיים. העשור הקרוב לא יבחן מה הרובוטים מסוגלים לעשות, אלא עד כמה אנחנו מוכנים לשלם את המחיר של שילובם במציאות היומיומית.

הפוסט CES 2026 היא תערוכה שבה הבינה המלאכותית קיבלה גוף הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ces-2026-robotics/feed/ 0
דוח מיקרוסופט חושף פערים גלובליים באימוץ בינה מלאכותית https://letsai.co.il/global-ai-adoption/ https://letsai.co.il/global-ai-adoption/#respond Sat, 10 Jan 2026 07:49:44 +0000 https://letsai.co.il/?p=67859 בוקר רגיל במשרד ישראלי, בחברת תוכנה קטנה בהרצליה, העובדים מתיישבים לעוד יום עבודה. לפני הקפה הראשון, שלושה מהם כבר פותחים חלון של מודל שפה: אחת מנסחת מייל מורכב באנגלית, אחר בודק טיוטת קוד, והשלישי מבקש סיכום של מסמך משפטי. אף אחד מהם לא חושב על זה כעל “שימוש בבינה מלאכותית”. זו פשוט הדרך שבה עובדים […]

הפוסט דוח מיקרוסופט חושף פערים גלובליים באימוץ בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בוקר רגיל במשרד ישראלי, בחברת תוכנה קטנה בהרצליה, העובדים מתיישבים לעוד יום עבודה. לפני הקפה הראשון, שלושה מהם כבר פותחים חלון של מודל שפה: אחת מנסחת מייל מורכב באנגלית, אחר בודק טיוטת קוד, והשלישי מבקש סיכום של מסמך משפטי. אף אחד מהם לא חושב על זה כעל “שימוש בבינה מלאכותית”. זו פשוט הדרך שבה עובדים עכשיו. התמונה הזו – יומיומית, כמעט מובנת מאליה – מקבלת משמעות חדשה כשמניחים לצידה את נתוני דוח מיקרוסופט למחצית השנייה של 2025. לפי הדוח, 36.1% מהישראלים בגיל העבודה משתמשים בכלים ג׳נרטיביים. אחד מכל שלושה! זה שיעור שממקם את ישראל במקום ה-12 בעולם, לפני גרמניה, קנדה ושוויץ – ובפער ניכר לפני ארצות הברית. הפער הזה, בין מי שמפתח את הטכנולוגיה לבין מי שמאמץ אותה, הוא אחד הסיפורים המרכזיים של הדוח. והוא מספר משהו עמוק יותר על האופן שבו חדשנות מתפשטת בעולם – ועל מי נשאר מאחור.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המרוץ הגלובלי צפון מול דרום

הנתון הבולט ביותר בדוח הוא הפער המתרחב בין “הצפון הגלובלי” ל“דרום הגלובלי”. בעוד שבמדינות המפותחות שיעור האימוץ הגיע ל-24.7%, במדינות המתפתחות הוא עומד על 14.1% בלבד. בתוך חצי שנה בלבד, הפער גדל מ-9.8% ל-10.6%. המשמעות היא, שגם כשהעולם כולו מאמץ AI בקצב מהיר, לא כולם נהנים מהקפיצה הזו באותה מידה.

 

הגרף הבא ממחיש את הפער המתרחב בין הצפון הגלובלי לדרום הגלובלי

הפער המתרחב בין הצפון הגלובלי לדרום הגלובלי | Microsoft

 

הדוח מדגיש שהעלייה העולמית, מ-15.1% ל-16.3%, מרשימה כשלעצמה, במיוחד עבור טכנולוגיה שנכנסה לשימוש המוני רק לאחרונה. אבל מאחורי המספרים מסתתרת תמונה מורכבת יותר: המדינות שמובילות את האימוץ הן בדיוק אלו שהשקיעו במשך שנים בתשתיות דיגיטליות, בהכשרת כוח אדם ובהטמעת טכנולוגיות במגזר הציבורי. האמירויות, סינגפור, נורווגיה, אירלנד, צרפת וספרד ממשיכות להוביל את הרשימה, כמעט ללא שינוי.

עלייה במדינות עשירות

במקביל, הדוח מצביע על כך שכל עשרת המדינות שרשמו את העלייה הגדולה ביותר באימוץ במחצית השנייה של 2025 הן מדינות עשירות. דרום קוריאה והאמירויות בולטות במיוחד, עם זינוק של יותר מ-4% – עדות לכך שהמומנטום מתרכז במדינות שכבר היו עמוק בתוך מהפכת ה-AI.

שיעור האימוץ בישראל

ישראל, שמדורגת במקום ה-12, מציגה שיעור אימוץ גבוה במיוחד ביחס לגודל האוכלוסייה. העלייה מ-33.9% ל-36.1% משקפת שילוב של כמה גורמים: תשתית דיגיטלית מפותחת, תרבות עבודה שמקדשת פתרונות מהירים, חשיפה מוקדמת לשירותים מערביים איכותיים ושימוש מקצועי רחב במגוון תחומים – מהייטק ועד משפט וחינוך.

 

ישראל במקום ה־12 בעולם

ישראל במקום ה-12 בעולם | Microsoft

 

הדוח מתאר את ישראל כשוק “בוגר ומתוחכם”, כזה שפחות נוטה לאמץ תחליפים חינמיים או זולים דוגמת DeepSeek, משום שהשירותים המערביים כבר מושרשים היטב. זהו ממצא עקבי עם התנהגות צרכנית מוכרת בישראל – העדפה לאיכות ולכלים מתקדמים, גם אם הם כרוכים בתשלום.

 

חשוב לציין שגם שיקולי אבטחת מידע ופרטיות, הנפוצים בקרב ארגונים בישראל, תורמים להעדפה לכלים מערביים על פני חלופות סיניות חינמיות.

המעצמה שממציאה – אבל לא מאמצת

אחד הממצאים המפתיעים בדוח הוא ירידת ארה״ב מהמקום ה-23 למקום ה-24. רק 28.3% מהאמריקאים בגיל העבודה משתמשים ב-AI ג׳נרטיבי, נתון נמוך משמעותית ביחס למדינות מערביות אחרות.

 

הדוח אינו מספק הסבר חד-משמעי, אך מצביע על כמה גורמים אפשריים: שוק ענק ומגוון שקשה לייצר בו אימוץ אחיד, פערים דיגיטליים בין אזורים עירוניים וכפריים, ורמת אמון ציבורית נמוכה במיוחד – רק 32% מהאמריקאים מביעים אמון ב-AI, לעומת 67% באמירויות.

מדיניות עקבית שמייצרת אימוץ חסר תקדים

האמירויות מובילות את העולם עם שיעור אימוץ של 64%. הדוח מציג תמונה ברורה שמראה שזה לא זינוק מקרי, אלא תוצאה של מדיניות עקבית שנבנתה במשך שנים. כבר ב-2017 מונה שר ייעודי לענייני AI, והמדינה השיקה אסטרטגיה לאומית מקיפה שכללה תשתיות, רגולציה, הכשרת כוח אדם ומסלולי ויזה ייעודיים.

שילוב של מדיניות, שפה ותרבות רשת

דרום קוריאה היא סיפור הצלחה יוצא דופן. בתוך שלושה חודשים בלבד היא זינקה מהמקום ה-25 למקום ה-18, עם עלייה של 4.8%. הדוח מייחס את הזינוק לשלושה גורמים מרכזיים: מדיניות ממשלתית אקטיבית, שיפור דרמטי בביצועי המודלים בשפה הקוריאנית, ותופעה תרבותית ויראלית שהציתה גל אימוץ.

 

המדיניות כללה הקמת ועדה לאומית חדשה לאסטרטגיית AI וחוק חדש שמאזן בין חדשנות לבין רגולציה. במקביל, שדרוגי המודלים, GP‑4o ולאחריו GPT‑5, הפכו את השימוש בקוריאנית לא רק אפשרי, אלא איכותי ומדויק באופן שמותאם לשפה ולתרבות המקומית. השילוב הזה יצר סביבה שבה הציבור כבר היה פתוח לטכנולוגיה, והמודלים סוף-סוף דיברו באותה שפה.

 

פערי אימוץ בין אנגלית לקוריאנית מצטמצמים במהירות

פערי אימוץ בין אנגלית לקוריאנית מצטמצמים במהירות | Microsoft

 

על הרקע הזה הגיע גם הרגע הוויראלי: גל של תמונות “סטייל ג׳יבלי” שנוצרו ב‑ChatGPT והציפו את הרשתות החברתיות. מה שהתחיל כטרנד קליל הפך במהירות לשער כניסה למיליוני משתמשים חדשים – רבים מהם כאלה שלא התנסו קודם בכלים ג׳נרטיביים, אבל מצאו לפתע חוויה פשוטה, מהנה ונגישה. הוויראליות לא הייתה הסיבה היחידה לזינוק, אבל היא הייתה הזרז שהפך מגמות קיימות לאימוץ המוני.

 

צמיחה באימוץ AI בדרום קוריאה

צמיחה באימוץ AI בדרום קוריאה | Microsoft

מודל סיני חינמי משנה את מפת האימוץ

אחד הסיפורים המפתיעים בדוח הוא עלייתו של DeepSeek – מודל סיני חינמי לשימוש עם גרסת API בתשלום, שמציג חדירה גבוהה במדינות שבהן שירותים מערביים מוגבלים או יקרים. השילוב בין מודל פתוח, אפליקציה חינמית לחלוטין וקידום אגרסיבי בשווקים מתפתחים הפך אותו לכלי משמעותי במיוחד באפריקה, רוסיה, איראן, קובה ובלארוס.

 

שיעור החדירה של DeepSeek לפי מדינה

שיעור החדירה של DeepSeek לפי מדינה | Microsoft

 

הדוח מציין כי במדינות שבהן כבר קיימת תשתית של שירותים מערביים איכותיים, כמו ישראל ודרום קוריאה, השפעתו של DeepSeek כמעט ואינה מורגשת. אבל במקומות שבהם חסמי עלות, תשתית או רגולציה מגבילים את הגישה למודלים מערביים, הוא הפך לאלטרנטיבה זמינה ומשפיעה.

כשמסתכלים על התמונה הגדולה

הדוח מציג תמונה מורכבת – טכנולוגיה שמתקדמת במהירות, אך מתפשטת באופן לא שוויוני. ישראל נמצאת בצד המאמץ של הגרף – מדינה קטנה שמאמצת מהר, אולי מהר מדי, אולי פשוט מהר מספיק. אבל השאלה הגדולה היא לא מי במקום הראשון או ה-12. השאלה היא מה יקרה כשהפערים יעמיקו עוד יותר: האם בינה מלאכותית תהפוך לכלי שמצמצם פערים – או למנוע שמגדיל אותם? זו כבר לא שאלה טכנולוגית. זו שאלה חברתית.

 

למי שרוצה להעמיק, הדוח המלא כאן.

הפוסט דוח מיקרוסופט חושף פערים גלובליים באימוץ בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/global-ai-adoption/feed/ 0
המירוץ של xAI לריבונות דיגיטלית ואנרגטית https://letsai.co.il/xai-20b-funding/ https://letsai.co.il/xai-20b-funding/#respond Thu, 08 Jan 2026 10:38:40 +0000 https://letsai.co.il/?p=67812 בצעד שמגדיר מחדש את קנה המידה של ההשקעות בתעשיית ההייטק העולמית, הודיעה חברת הבינה המלאכותית xAI, שבבעלות אילון מאסק, על השלמת סבב גיוס הון חסר תקדים (Series E) בהיקף של 20 מיליארד דולר. הגיוס, שעקף באופן משמעותי את היעד המקורי, הוא לא רק עדות לאמון המשקיעים במאסק, אלא משקף תפיסה אסטרטגית חדשה: בניית “מדינה בתוך […]

הפוסט המירוץ של xAI לריבונות דיגיטלית ואנרגטית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בצעד שמגדיר מחדש את קנה המידה של ההשקעות בתעשיית ההייטק העולמית, הודיעה חברת הבינה המלאכותית xAI, שבבעלות אילון מאסק, על השלמת סבב גיוס הון חסר תקדים (Series E) בהיקף של 20 מיליארד דולר. הגיוס, שעקף באופן משמעותי את היעד המקורי, הוא לא רק עדות לאמון המשקיעים במאסק, אלא משקף תפיסה אסטרטגית חדשה: בניית “מדינה בתוך מדינה” טכנולוגית, הכוללת לא רק תוכנה, אלא שליטה מוחלטת בתשתיות המחשוב, באנרגיה ובמערך השירותים לארגונים גדולים.

 

סבב גיוס הון חסר תקדים (Series E) בהיקף של 20 מיליארד דולר

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מהקמת החברה ועד לשיא הנוכחי

חברת xAI הוקמה ביולי 2023 במטרה מוצהרת “להבין את טבע היקום”. מאז הקמתה, החברה נמצאת במירוץ רצוף מול ענקיות כמו OpenAI, גוגל ו-Anthropic.

 

בעוד שהמתחרות התמקדו בעיקר בפיתוח מודלי שפה (LLMs), xAI אימצה גישה של אינטגרציה אנכית מהירה. בתוך פחות משנתיים, הצליחה החברה להשיק את המודל “Grok”, לשלב אותו בפלטפורמת המדיה החברתית X (לשעבר טוויטר), ולהקים את מערכי המחשוב הגדולים בעולם.

 

הגיוס הנוכחי מגיע לאחר שנה שבה הוכיחה xAI יכולת ביצועית יוצאת דופן. בשנת 2025, החברה פרסה למעלה ממיליון כרטיסי עיבוד גרפי מסוג H100 (או שווי ערך להם) במרכזי הנתונים המכונים “Colossus I” ו-“Colossus II”. התשתיות האלה הן המנוע מאחורי Grok Voice, הסוכן הקולי בזמן אמת של החברה, ומאחורי אימון הדורות הבאים של הבינה המלאכותית.

 

במקביל, החברה הרחיבה ממש באחרונה את אחיזתה גם בשוק העסקי עם השקת פתרון האנטרפרייז (Enterprise) שלה, “Grok Business”, המציע לארגונים גישת API מתקדמת, אבטחה מוגברת ויכולת לאמן מודלים על מידע פרטי – צעד המציב אותה בתחרות ישירה מול הפתרונות העסקיים של OpenAI ומיקרוסופט.

שותפויות אסטרטגיות ומשקיעים

רשימת המשקיעים בסבב ה-Series E מלמדת על השילוב שבין הון פיננסי מסורתי לשותפויות טכנולוגיות עמוקות. לצד קרנות כמו Valor Equity Partners ו-Fidelity, בולטת השתתפותה של רשות ההשקעות של קטאר (QIA), המצביעה על העניין הגלובלי בריבונות טכנולוגית.

 

עם זאת, הנקודה המעניינת ביותר היא מעורבותן של ענקיות החומרה NVIDIA ו-Cisco. נוכחותן בסבב הגיוס היא לא רק פיננסית, היא מבטיחה ל-xAI גישה מועדפת לשבבים המתקדמים ביותר ולציוד רשת קריטי, בתקופה שבה שרשרת האספקה העולמית מהווה את אחד מצווארי הבקבוק המרכזיים בתחום ה-AI.

תחנת כוח פרטית למחשבי על

ההיבט המפתיע והמשמעותי ביותר בדיווחים האחרונים הוא החלטתה של xAI להיכנס לתחום ייצור האנרגיה. מאסק אישר כי החברה רכשה חמש טורבינות גז טבעי ענקיות מחברת Doosan Enerbility הדרום-קוריאנית. המטרה של מאסק ברורה – הקמת תחנת כוח פרטית שתספק 380 מגה-וואט (MW) של חשמל באופן עצמאי.

 

המהלך הזה נובע מצורך קיומי. מחשבי העל של הדור הבא דורשים כמויות חשמל אדירות כדי להזין את מערך המחשוב המורכב (Cluster) שבו מאות אלפי מעבדים מחוברים ביניהם ופועלים כיחידה אחת מסונכרנת.

 

לשם המחשה, האנרגיה שתייצר התחנה מיועדת להזין קלאסטר בקנה מידה דמיוני, שווה ערך ל-600,000 מעבדי GB200 של NVIDIA. בעוד שחברות כמו מיקרוסופט חתמו (ספטמבר 2024) על הסכמים אסטרטגיים לשני עשורים, דוגמת הפעלתו מחדש של הכור הגרעיני ב-Three Mile Island, הן נותרות תלויות ברגולציה מורכבת ובלוחות זמנים חיצוניים.

 

מאסק, לעומת זאת, בוחר בנתיב של בעלות ישירה ובנייה עצמית מהירה. הוא אמנם מתעדף את הגז הטבעי על פני ה’ניקיון’ הסביבתי של האנרגיה הגרעינית או המתחדשת, אך הוא מבטיח לעצמו את המשאב הקריטי ביותר במירוץ ל-AI ללא תלות באף גורם חיצוני.

תגובות מעורבות

האסטרטגיה של xAI מעוררת תגובות מעורבות בקהילה הטכנולוגית והכלכלית.

 

התומכים טוענים כי מדובר במהלך גאוני של “דה-ריסקינג” (הפחתת סיכונים). על ידי בניית תחנת כוח משלה, xAI עוקפת את הרגולציה המורכבת ואת העומסים על רשתות החשמל הציבוריות, מה שמאפשר לה להקים דאטה-סנטרים בלוחות זמנים קצרים פי כמה מהמקובל בתעשייה. היכולת של xAI, בגיבוי הניסיון הלוגיסטי של SpaceX וטסלה, ליצור תשתית פיזית במהירות שיא מעניקה לה יתרון תחרותי שקשה לגשר עליו.

 

המבקרים, לעומת זאת, מעלים שאלות בנוגע להשפעה הסביבתית. שימוש בטורבינות גז טבעי, גם אם הן יעילות, עומד בסתירה למגמה הכללית של מעבר לאנרגיה מתחדשת בקרב ענקיות הטכנולוגיה. בנוסף, יש המטילים ספק ביכולת של חברה אחת לנהל בו-זמנית פיתוח אלגוריתמי מורכב, ייצור חומרה (באמצעות שותפויות) ותפעול תחנות כוח, מבלי להתפזר יתר על המידה.

 

בהיבט הכלכלי, שריפת המזומנים (Burn Rate) של xAI היא עצומה. למרות הגיוס של 20 מיליארד דולר, עלויות החומרה והאנרגיה עלולות לכלות את המשאבים הללו במהירות. השאלה המרכזית נותרת בעינה – האם המודלים העתידיים, כמו Grok 5 הנמצא כעת באימון, יצליחו לייצר ערך כלכלי שיצדיק השקעות בסדרי גודל כאלה?

האסטרטגיה של xAI לשליטה מקצה לקצה בעידן ה-AGI

השלמת סבב הגיוס והיציאה לדרך עם פרויקט תחנת הכוח מסמנות את תחילתו של פרק חדש במירוץ לבינה המלאכותית. עם בסיס משתמשים של כ-600 מיליון איש באפליקציות X ו-Grok, ושילוב הולך וגובר ברכבי טסלה, xAI מנסה ליצור אקו-סיסטם סגור שבו היא שולטת בכל שלב: מהחשמל שנכנס לטורבינה, דרך השבב שמעבד את הנתונים, ועד לממשק המשתמש הסופי.

 

הגעת יחידות ייצור האנרגיה הראשונות בסוף 2026 תהיה נקודת בוחן קריטית. אם המודל של מאסק יצליח, הוא עשוי להפוך לסטנדרט חדש עבור חברות טכנולוגיה גדולות, שיבינו כי בעידן של בינה מלאכותית כללית (AGI), השליטה באנרגיה היא חשובה לא פחות מהשליטה בקוד. xAI לא רק בונה מודל שפה, היא בונה תשתית פיזית ודיגיטלית שנועדה להבטיח שהיא תהיה השחקן הדומיננטי במציאות הטכנולוגית החדשה.

הפוסט המירוץ של xAI לריבונות דיגיטלית ואנרגטית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/xai-20b-funding/feed/ 0
אז מה היה לנו כאן? סיכום שנה שבה הקסם הפך לתשתית https://letsai.co.il/ai-2025-growing-up/ https://letsai.co.il/ai-2025-growing-up/#respond Mon, 05 Jan 2026 10:41:08 +0000 https://letsai.co.il/?p=67595 אם 2024 הייתה שנת ההבטחות, ההדגמות והקסם, 2025 הייתה שנת המפגש עם המציאות. זו הייתה השנה שבה הבינה המלאכותית הפסיקה להיות ניסוי מעבדה מרשים והתחילה להתנהג כמו תשתית חיונית. וכשתשתית נכנסת לחיים, פתאום אכפת לנו מדברים פחות זוהרים: עלות, אמינות, קצב ושליטה. זו כבר לא הייתה שיחה תיאורטית על “מה אפשר לעשות”, אלא שיחה קרה […]

הפוסט אז מה היה לנו כאן? סיכום שנה שבה הקסם הפך לתשתית הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם 2024 הייתה שנת ההבטחות, ההדגמות והקסם, 2025 הייתה שנת המפגש עם המציאות. זו הייתה השנה שבה הבינה המלאכותית הפסיקה להיות ניסוי מעבדה מרשים והתחילה להתנהג כמו תשתית חיונית. וכשתשתית נכנסת לחיים, פתאום אכפת לנו מדברים פחות זוהרים: עלות, אמינות, קצב ושליטה. זו כבר לא הייתה שיחה תיאורטית על “מה אפשר לעשות”, אלא שיחה קרה וישירה על מי שולט בתשתית, מי נושא בעלויות האמיתיות, מי משלם את המחיר כשהמערכות טועות, ומי באמת מפיק מזה ערך עסקי.

 

בתוך שצף העדכונים והחדשות שלא פסק לרגע, בלתי אפשרי לסכם כל פיצ’ר או כלי שיצא. לכן, ברוח השנה הזו, נעשה כאן “Vibe Recap”: נתמקד במגמות העומק ששינו את הכיוון של הספינה. אבל לפני שנצלול, כדאי לעצור לרגע ולהיזכר בקצב החריג שבו הכל התרחש. הסרטון שלפניכם דוחס ל־75 שניות את ה”חום הגבוה” של 2025: מהכניסה הבלתי צפויה של DeepSeek, דרך הטלטלות ב-OpenAI, ועד המהלכים המכריעים של גוגל, שסיימה את השנה בעמדת כוח שונה לחלוטין מזו שבה התחילה:

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוחות מזרחיות

2025 לא נפתחה בהכרזה נוצצת מעמק הסיליקון, אלא בזעזוע שהגיע מכיוון פחות צפוי – סין. DeepSeek לא רק השיקה מודל חזק וזול והקריסה את מניית אנבידיה ואת שוק המניות, היא סדקה את המיתוס היקר ביותר של התעשייה.

 

במשך שנים, המשוואה הייתה פשוטה: יותר כסף + יותר שבבים = מודל חכם יותר. DeepSeek הוכיחה שארכיטקטורה חכמה וסינון נתונים קפדני יכולים לנצח כוח מחשוב גולמי. השורה התחתונה הייתה שיעור בהנדסה – הבינה המלאכותית הפסיקה להיות רק מרוץ חימוש של חומרה (GPU) והפכה לאתגר של יעילות. ברגע שהיעילות הפכה לסטנדרט, השאלה עברה מ”כמה המודל גדול” ל”כמה הוא מסוגל לנמק ולפתור בעיות”.

עידן ה-Reasoning 

כשאינטליגנציה למדה לעצור ולחשוב בתגובה ללחץ להפגין אמינות, ענקיות המערב שינו מסלול. OpenAI, עם סדרות o3 ו-o4 ובהמשך עם דגמי ה-GPT-5 הראשונים, סימנה את המעבר ממודלים שמצטיינים ב”שטף דיבור” למודלים שמתמקדים בהסקה, בתכנון ובבדיקה עצמית. ה-Reasoning (יכולת הסקת המסקנות) הפסיק להיות מונח אקדמי והפך לדרישה מעשית בשטח.

 

אבל השינוי העמוק ביותר של 2025 היה פסיכולוגי. לראשונה, הסכמנו לוותר על המיידיות לטובת איכות התוצאה. התרגלנו למצב שבו תשובה טובה דורשת זמן חישוב, והבנו שאינטליגנציה אמיתית לא תמיד עונה מהר – היא “חושבת” ומתקנת את עצמה לפני שהיא מגיבה.

 

2025 הוכיחה שהבעיה של 2024 לא הייתה מחסור במידע (המודלים כבר ‘קראו’ את כל האינטרנט) אלא מחסור בבקרת איכות עצמית. הבנו שאינטליגנציה אמיתית היא לא היכולת לשלוף תשובה מהירה מהזיכרון, אלא היכולת להפעיל לוגיקה על המידע הקיים, לבדוק אם יש סתירות, לתכנן את שלבי הפתרון ולזהות טעויות לפני שהן יוצאות למסך. ב-2025 עברנו ממודלים ש’שולפים תשובה מהמותן’, למודלים שבאמת ‘חושבים’.

אפקט קרפאתי

אי אפשר לסכם את 2025 בלי לדבר על המהפכה השקטה שחולל אנדריי קרפאתי. בתחילת השנה, אחד המייסדים של OpenAI ומנהל ה-AI בטסלה, פתח את סכר ה-Vibe Coding – המעבר מכתיבת סינטקס דקדקני לניהול של “אווירה” וכוונות. פתאום, המרחק בין רעיון למוצר עובד הצטמצם לאפס. ב-2025, מתכנתים הפכו למנצחים על תזמורת של מודלים, שבה ה”וויב” (הכוונה הלוגית) חשוב יותר מהפסיק והנקודה. זה היה אחד השיאים של חזון ה-Reasoning, כי אם המכונה מבינה אותי, אני כבר לא צריך לדבר בשפה שלה.

 

אבל אותה שנה שהתחילה באופוריה של יצירה קלה, הסתיימה בציוץ המהדהד של קרפאתי מדצמבר על ה-FOMO. כשמי שנחשב לאחד האדריכלים של עולם ה-AI מודה שגם הוא לא מצליח לעמוד בקצב, הבנו שמשהו השתנה. ה-FOMO של 2025 לא היה על “כלי חדש”, אלא על היכולת האנושית לעכל את השינוי. זה סיכם היטב את הפרדוקס של השנה: מעולם לא היה קל יותר לבנות דברים, ומעולם לא היה קשה יותר להרגיש שאתה באמת שולט במה שקורה.

וידאו שווה אלף מילים

אם ב-2024 התפעלנו מתמונות סטטיות, 2025 הייתה השנה שבה המחסום הוויזואלי נפרץ סופית. מודלים כמו Sora 2, Kling ו-Runway Gen-4.5 הפסיקו להיות סרטוני דמו בטוויטר והפכו לכלי עבודה בסטודיו של הוליווד ובמשרדי פרסום. זה כבר לא היה רק ‘וידאו יפה’, אלא היכולת לייצר עולמות שלמים בפקודה קולית. המעבר הזה משלים את תמונת ה-Reasoning – המכונה לא רק ‘חושבת’ בלוגיקה, היא ‘מבינה’ את חוקי הפיזיקה והתנועה, והופכת כל רעיון למוצר ויזואלי גמור תוך דקות.

עוברים לעולם אייג׳נטי

אבל המכונה לא רק למדה לראות ולדמיין, היא למדה גם לבצע. המשחק השתנה ברגע שהפסקנו לבקש מה-AI לייצר טקסט או תמונה והתחלנו לדרוש ממנו תוצאות: לסגור עסקאות, לנהל פרויקטים ולהריץ תהליכים מקצה לקצה. ב-2025, ה-AI יצא מהמעבדה הסטרילית ועבר למשרד האמיתי – מקום שבו החוקים נוקשים, המערכות מורכבות, וטעויות עולות כסף אמיתי.

 

המעבר לסוכנים (Agents) הפך את הבינה המלאכותית מ”יועץ רהוט” למערכת ביצועית. החותמת הרשמית לעידן הזה הייתה הרכישה של Manus על ידי Meta בסוף דצמבר – מהלך שסימן את קו פרשת המים והבהיר שתשתית העבודה העתידית היא כבר לא “צ’אט”, אלא פעולה.

 

אבל המעבר ל”ידיים עובדות” חשף חיכוך אנושי חדש: “צוואר הבקבוק של האחריות”. התברר שסוכן שיודע לנהל תקציב הוא חסר ערך אם התרבות הארגונית לא מסוגלת להעניק לו הרשאות. ב-2025, החזון של “טייס אוטומטי” נעצר במחסום של נהלים ישנים וחשש אנושי, והזכיר לנו שגם התוכנה המתקדמת ביותר עדיין צריכה לעבור דרך האנשים שאמורים לסמוך עליה.

צוות של איש אחד

לצד השינוי הפסיכולוגי, התרחש שינוי דרמטי לא פחות בעולם התעסוקה. בשנה הזו נולד המושג “צוות של איש אחד”: הגדרת התפקיד של עובד או מנהל עברה טרנספורמציה מביצוע משימות לניהול סוכנים. הפיל שבחדר כבר לא היה “האם ה-AI יחליף אותי”, אלא איך אני מנהל צי של עוזרים שמבצעים 90% מהעבודה השחורה שלי.

 

השינוי הזה הוליד את תופעת ה-Shadow AI (בינת צללים) – בזמן שארגונים גדולים התחבטו בשאלות של רגולציה ואבטחה, העובדים בשטח כבר הקימו לעצמם “מחלקות צללים” מתחת לרדאר הארגוני. הם רתמו סוכנים עצמאיים כדי לעקוף צווארי בקבוק בירוקרטיים ולייצר תפוקה של צוות שלם, בלי לבקש רשות ובלי לחכות ל-IT.

 

זה יצר משבר זהות מקצועי עמוק. כשהמכונה כותבת, מעצבת ומקודדת טוב יותר מהאדם, הערך האנושי עבר לשיקול הדעת וליכולת לשאול את השאלות הנכונות.

איכות מול סקייל 

ב-2025 התעשייה התפצלה לשתי פילוסופיות עסקיות מנוגדות: מצד אחד, “מודלי בוטיק” שמכוונים לדיוק גבוה במשימות קריטיות (כמו Claude 4.5 Opus). מצד שני, תשתית המונית של ענקיות כמו גוגל ומיקרוסופט, שהפכו את ה-AI לברירת מחדל בכל מוצר קיים.

 

האמת הפחות נעימה של השנה היא שככל שההפצה גדלה, חלק מהכלים עברו מקטגוריה של “חדשנות” לסטטוס של “טוב מספיק”. הנגישות הרחבה אמנם האיצה את האימוץ, אך לעיתים קרובות זה קרה על חשבון הדיוק במשימות מורכבות.

 

למה זה קרה? משום שסקייל מחייב פשרות כלכליות. כדי לשרת מיליארדי משתמשים בלי לקרוס תחת עלויות המחשוב, הענקיות נדחפו להשתמש במודלים “רזים” ומהירים יותר. התוצאה היא דמוקרטיזציה של הטכנולוגיה, אבל כזו שמגיעה עם “תקרת זכוכית” של עומק ואיכות.

הגבולות הפיזיים והמשפטיים 

מעבר לאלגוריתמים, 2025 הייתה השנה שבה הבינה המלאכותית פגשה את תקרת הזכוכית של הפיזיקה והחוק. הזינוק במודלי ה-Reasoning חשף את תג המחיר האנרגטי המבהיל של האינטליגנציה: כל “מחשבה” עמוקה של המכונה דורשת כוח מחשוב אדיר, והרעב הזה לחשמל הפך ממשבר טכני למאבק פוליטי. ראינו מדינות שנאלצו להכריע בין הקמת דאטה-סנטרים חדשים לבין הבטחת יציבות רשת החשמל לתושבים.

 

במקביל, “המערב הפרוע” של הנתונים נתקע בצווארי בקבוק משפטיים. הכרעות תקדימיות בנושאי זכויות יוצרים והסכמי רישוי יקרים הבהירו שאי אפשר להמשיך לאמן מודלים על גבם של יוצרים ללא תמורה.

 

הרגולציה אולי עדיין מפגרת אחרי קצב הפיתוח, אבל ב-2025 היא ייצרה מספיק “חיכוך” כדי להפוך את שאלת הקניין והאנרגיה מנושא משפטי אפור לבעיה אסטרטגית על שולחן המנכ”ל. הבנו סופית שאי אפשר לבנות עולם חדש תוך התעלמות ממשאבים מתכלים ומחוקי העולם הישן.

הקאמבק (המרשים) של גוגל וסוף המונופול

אם 2024 הייתה השנה של “המלך ChatGPT“, ב-2025 הכתר התפצל. הבלעדיות של OpenAI נסדקה כי המשתמשים התבגרו והתחילו לחפש כלים כירורגיים למשימות ספציפיות: Claude (של Anthropic) הפך לבחירה האוטומטית של מפתחים וחוקרים שחיפשו דיוק ושיקול דעת עמוק (במיוחד בסדרת 4.5), Perplexity הגדירה מחדש את החיפוש כחוויית ידע מבוססת מקורות, ו-Grok (של xAI) ניצל את שריר המחשוב האדיר שלו ואת החיבור הישיר ל-X כדי לספק תשובות חריפות ועדכניות בזמן אמת.

 

אבל מעל הפיצול הזה, נחשף היתרון ה”לא-הוגן” של גוגל. אחרי שנעלמה ולא באמת היוותה תחרות, ובזמן שהמתחרות רצו אחרי פריצות דרך “תודעתיות”, גוגל ניצחה במבחן החיכוך ופשוט דאגה להיות שם השנה.

 

היא פשוט הייתה שם כשהמשתמש הקליד – הטמיעה את ה-AI כשכבה שקופה בתוך ה”שלח” של המייל וה”שמור” במסמכים, שחררה כלים משני הרגלים כמו NotebookLM ומודל תמונה מתקדם כמו ננו בננה פרו, והוכיחה לכולנו שכאשר כלים יעילים מושתתים על המוח של אחד המודלים החזקים בעולם (ג׳מיני 3) – המשתמשים מצביעים ברגליים.

 

אין ספק שמתחת לפני השטח, הניצחון הזה הונע גם על ידי מגמה פסיכולוגית מכרעת: עייפות המשתמשים. אחרי שנתיים של הפצצת פיצ’רים, השאלה ב-2025 הפכה מ”איזה עוד כלי יצא?” ל”איך זה בכלל משרת אותי?”. המעבר למולטי-מודאליות ולאקו-סיסטם אחוד נולד מהצורך להפסיק לזגזג בין טאבים ופשוט להתחיל לעבוד. ב-2025, ה-AI הפסיק להיות יעד, והפך לאוויר שאנחנו נושמים בתוך סביבת העבודה.

הקרב על הערך 

הפער בין היכולת לבין המציאות מעולם לא היה גדול יותר. מצד אחד, מחקר של MIT מאוגוסט 2025 מצא נתון מדהים: 95% מהפיילוטים של בינה מלאכותית בארגונים נכשלים בהוכחת ערך אמיתי. מצד שני, מקינזי מעריכה שהפוטנציאל הכלכלי של הטכנולוגיה נע בין 2.6 ל-4.4 טריליון דולר בשנה.

 

איך ייתכן שפער כזה קיים? התשובה היא שהטכנולוגיה עובדת מצוין – הבעיה היא ביישום. ב-2025 הבנו שאי אפשר להטמיע כלים של העתיד בתוך נהלים ושיטות עבודה של העבר. הפער הזה הוא לא “באג” בטכנולוגיה, הוא קריאת השכמה לארגונים שחשבו שאפשר לקנות בינה מלאכותית מהמדף ולצפות לשינוי בלי לשנות את התרבות הארגונית שלהם.

 

הקרחון של שנת 2025

הבטחות מעל, ומציאות מתחת

 

מעולם של הבטחות לעולם של תוצאות

רבים יסתכלו על 2025 כעל השנה שבה ההתלהבות של 2024 פגשה את מבחן המציאות. עבור אלו שחיכו ל’מפץ גדול’ תודעתי או ל-AGI שיפתור את כל בעיות האנושות בלחיצת כפתור, זו הייתה אולי שנה מאכזבת. אבל בשנה שבה הקסם הפך לתשתית, מיתוסים התנפצו והדיון עבר לשאלות קשות של עלות, אמינות ושליטה – קיבלנו בדיוק את מה שהיינו צריכים. ודווקא בגלל הפיכחון הזה, זו הייתה שנה מצוינת.

 

2025 הייתה השנה שבה ה-AI עבר משלב ה”דמו” למערכות שעובדות ביום עבודה אמיתי. ראינו פחות טריקים נוצצים ויותר תפעול בשטח. פחות הייפ סביב כלים חדשים, ויותר אסטרטגיה סביב השאלה “איך עובדים נכון”. למדנו שדיוק חשוב ממהירות, שארכיטקטורה חכמה חשובה מכוח גולמי, ושאימוץ אמיתי בשטח חשוב מכל הבטחה תיאורטית על AGI.

 

אם 2025 לימדה אותנו איך המכונה חושבת, 2026 תכריח אותנו להוכיח שאנחנו יודעים להפעיל אותה. המנצחים של השנה הבאה לא יהיו אלו שיאמצו הכי הרבה כלים, אלא אלו שידעו לחבר ביניהם כדי לייצר ערך בעולם הפיזי.

 

השורה התחתונה ברורה: 2026 לא תהיה שנת המודלים – היא תהיה שנת ה-ROI. זו תהיה השנה שבה ארגונים יפסיקו לשאול “מה אפשר לעשות” ויצטרכו להבין “מה זה נותן לנו”. כלים שלא יוכיחו ערך מדיד פשוט יימחקו מהתקציב. המסך יורד על מופעי הראווה של עולם ה-AI, והעבודה האמיתית? היא מתחילה ממש עכשיו.

 

מאחל לכולנו שנת 2026 של ROI גבוה ואפס הזיות. אם ב-2025 למדנו איך זה עובד, ב-2026, אני מאחל לכם/ן שתגרמו לזה לעבוד עבורכם/ן. שנה של הטמעה חכמה וערך אמיתי!

הפוסט אז מה היה לנו כאן? סיכום שנה שבה הקסם הפך לתשתית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-2025-growing-up/feed/ 0
OpenAI משלמת יותר מכל סטארט-אפ בהיסטוריה – האם זה טירוף או הימור מחושב? https://letsai.co.il/openai-employee-compensation/ https://letsai.co.il/openai-employee-compensation/#respond Sun, 04 Jan 2026 13:20:22 +0000 https://letsai.co.il/?p=67549 OpenAI שילמה לעובדיה תגמול מנייתי בשווי ממוצע של 1.5 מיליון דולר לעובד ב-2025, לפי מסמכים שהוצגו למשקיעים ופורסמו בוול סטריט ג’ורנל. הנתון הזה הפך את החברה לסטארט-אפ הטכנולוגי הנדיב ביותר בהיסטוריה. מאחורי השכר הדמיוני עומדת שאלה שמחלקת את עולם ההשקעות: האם זו בועה פיננסית מסוכנת, או הימור רציונלי על המירוץ לבינה מלאכותית כללית (AGI)?   […]

הפוסט OpenAI משלמת יותר מכל סטארט-אפ בהיסטוריה – האם זה טירוף או הימור מחושב? הופיע ראשון בLet's AI בינה מלאכותית

]]>
OpenAI שילמה לעובדיה תגמול מנייתי בשווי ממוצע של 1.5 מיליון דולר לעובד ב-2025, לפי מסמכים שהוצגו למשקיעים ופורסמו בוול סטריט ג’ורנל. הנתון הזה הפך את החברה לסטארט-אפ הטכנולוגי הנדיב ביותר בהיסטוריה. מאחורי השכר הדמיוני עומדת שאלה שמחלקת את עולם ההשקעות: האם זו בועה פיננסית מסוכנת, או הימור רציונלי על המירוץ לבינה מלאכותית כללית (AGI)?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המספרים במבט השוואתי

כאשר משווים את ה-1.5 מיליון דולר הממוצעים לעובד לנורמות התעשייה, הפער נראה כמעט אבסורדי. החבילה המנייתית של OpenAI גבוהה פי שבעה מהתגמול המנייתי שגוגל דיווחה עליו לפני הנפקתה ב-2004, ופי 34 מהממוצע של 18 חברות טכנולוגיה גדולות אחרות בשנה שלפני ה-IPO (הנפקה ראשונית לציבור) שלהן, לאחר התאמת אינפלציה, לפי ניתוח של Equilar ו-WSJ.

 

הנדיבות הזו לא נשארת רק על הנייר. עלות התגמול המנייתי של OpenAI הגיעה ל-46% מההכנסות ב-2025 – במספרים מוחלטים: כ-6 מיליארד דולר בתגמול מנייתי מתוך 13 מיליארד דולר הכנסות.

 

בחברות טכנולוגיה גדולות לפני הנפקה, תגמול מנייתי מקובל נע סביב אחוזים בודדים מההכנסות. היחידה שהתקרבה לפרופורציה של OpenAI היא יצרנית הרכב החשמלי Rivian, שהנפקתה ב-2021 לוותה בספקות כבדים לגבי הכלכלה הבסיסית של החברה. Rivian דיווחה על הפסדים עצומים והתקשתה להגיע לרווחיות עד היום.

מלחמת הטאלנטים

מאחורי המספרים מסתתרת תחרות גיוס חריפה במיוחד בתחום ה‑AI. בשנים 2024-2025 Meta הגבירה משמעותית את מאמצי הגיוס שלה, במיוחד מול OpenAI, והציעה לחוקרים ומהנדסים חבילות תגמול יוצאות דופן – הצעות ארוכות טווח שדווחו כבעלות שווי מצטבר שיכול להגיע עד כ‑100 מיליון דולר למועמד יחיד, לפי CNBC ומקורות נוספים.

 

לפי דיווחים מה‑Wall Street Journal ומקורות טכנולוגיים נוספים, Meta הצליחה לגייס מספר חוקרים מ‑OpenAI, בהם שלושה חוקרים בכירים מציריך ועוד כמה חוקרים נוספים שזוהו בדיווחים אחרים.

 

כתגובה, ולפי דיווחים פנימיים שהודלפו, OpenAI לא הסתפקה בשיפור שכר. בקיץ 2025 חולקו בונוסים חד-פעמיים נדיבים במיוחד לצוותי מחקר והנדסה, לעיתים בסכומים של מיליוני דולרים לעובד. במקביל, החברה ביטלה את דרישת הוותק של שישה חודשים לפני תחילת הבשלת האופציות – מהלך חריג שמטרתו להפוך כל הצעה למיידית ואטרקטיבית יותר למועמדים. מי שנכנס היום ל-OpenAI מתחיל “לנעול” את הערך של המניות כמעט מיד, בניגוד לנהוג ברוב חברות הטכנולוגיה.

 

עבור העובדים עצמם, המצב מורכב מכפי שנראה. מצד אחד, הערך של 1.5 מיליון דולר תלוי בהערכת שווי עתידית של החברה. מצד שני, OpenAI מבצעת באופן תקופתי אירועי נזילות פנימיים (Tender Offers) שבהם עובדים יכולים למכור מניות למשקיעים קיימים – מה שאומר שחלק מהעובדים כבר הפכו למיליונרים במזומן, לא רק “על הנייר”. זה מסביר חלק נכבד מהנאמנות של העובדים ומהקושי של Meta לגייס כמות גדולה – הם לא רק מחכים לעתיד מיתולוגי, הם כבר רואים כסף אמיתי.

המציאות הכלכלית

אם מסתכלים רק על השכר, קל לחשוב שמדובר במכונת רווח משומנת. המספרים הפיננסיים המלאים מציירים תמונה הפוכה – לכאורה. לפי מסמכים שהגיעו לידי Fortune ו-The Information, חברת OpenAI סיימה את 2025 עם הפסד נקי של כ-9 מיליארד דולר, על הכנסות של כ-13 מיליארד דולר. מקורות אחרים מדווחים על נתונים חלקיים שמצביעים על הפסדים אף גבוהים יותר – 13.5 מיליארד דולר רק במחצית הראשונה של השנה.

 

החברה הוציאה 22 מיליארד דולר ב-2025, כלומר שרפה בערך 1.69 דולר על כל דולר הכנסה. לפי הערכות מסוימות, עד 2029 ההפסדים המצטברים עשויים להגיע ל‑115 מיליארד דולר, במקביל להשקעות עתק בתשתיות ענן, שבבים ומרכזי נתונים.

 

דליפה נוספת הראתה כי רק ב-2025 שילמה OpenAI קרוב ל-866 מיליון דולר למיקרוסופט בחלוקת הכנסות. נקודה חשובה כאן היא שמרבית הכסף הזה זורם חזרה למיקרוסופט דרך שירותי Azure – מערכת יחסים מעגלית שבה מיקרוסופט משקיעה ב-OpenAI ומרוויחה ממנה בו-זמנית דרך תשתיות הענן. זו לא סתם “תלות”, אלא מערכת סימביוטית שמנפחת את השווי של שתי החברות.

 

HSBC, בנק השקעות גלובלי, מעריך שהעלות הכוללת של תשתיות הענן וה-compute של OpenAI עשויה להגיע למאות מיליארדי דולרים עד תחילת העשור הבא, עם פער מימון של מעל 200 מיליארד דולר שיש לסגור באמצעות חוב, הון או הכנסות נוספות.

 

OpenAI שורפת מזומנים בקצב של סטארט-אפ קטן בכל יום עבודה, מתוך הבנה שבעולם ה-AI, הגודל והמהירות הם תעודת הביטוח היחידה.

ככה נראית שריפת מזומנים

 

בשורה התחתונה, OpenAI שורפת מזומנים בקצב של סטארט-אפ קטן בכל יום עבודה, מתוך הבנה שבעולם ה-AI, הגודל והמהירות הם תעודת הביטוח היחידה.

הדילמה האמיתית: טירוף או הכרח?

כדי להצדיק את רמת השכר, ההפסדים וריצת החימוש התשתיתית, OpenAI מציגה למשקיעים גרף צמיחה אגרסיבי. על פי המסמכים, החברה צופה הכנסות שנתיות של כ-200 מיליארד דולר עד 2030, והגעה לתזרים חיובי רק לקראת 2029-2030. המשמעות – עוד שנים של הפסדים עצומים לפני שמגיעה נקודת האיזון.

 

גורמי מחקר ב-HSBC מזהירים שייתכן שגם תרחיש כזה לא יספיק כדי להביא את החברה לרווחיות, בשל עלויות התשתית הענקיות והצורך המתמשך “להאכיל” את מודלי הענק במחשוב ובחשמל. הם מעריכים שעד 2030 OpenAI עדיין תהיה במינוס תזרימי עמוק ותידרש להביא מהמשקיעים עוד מאות מיליארדי דולרים כדי לעמוד בתחזיות של עצמה.

 

אבל יש כאן פרספקטיבה אחרת, חשובה לא פחות. אם OpenAI באמת במירוץ לבינה מלאכותית כללית (AGI), 115 מיליארד דולר הפסד זה לא טעות – זה מחיר הכניסה. המהלך הזה לא עוקב אחרי כללי הכלכלה המסורתית כי המשחק שונה לחלוטין. זה לא סטארט-אפ רגיל שמנסה להגיע לרווחיות רבעונית – זה הימור על השליטה בטכנולוגיה שעשויה לשנות את כל המשק העולמי.

 

במצב כזה, השכר הדמיוני לעובדים הוא לא בזבזנות – זה מנגנון הגנה אנושי (Moat). אם תאבד את הטאלנט הזה ל-Meta או Google, תאבד את המירוץ. ואם תאבד את המירוץ, לא משנה כמה כסף חסכת. זה “הכל או כלום” במובן הכי מילולי.

מה זה אומר על תעשיית ה-AI

המודל של OpenAI מעלה שאלות לגבי קיימות התעשייה כולה. אם הכוכב הכי בוהק בתחום שורף מיליארדים, האם חברות אחרות יוכלו לעמוד בקצב? מלחמת הטאלנטים דוחפת את כל השחקנים הגדולים להעלות משכורות, מה שמקשה על חברות קטנות וחברות שאין להן כיסים עמוקים כמו אלה של Microsoft או Meta.

 

ברמה המעשית, המודל הזה בר-קיימא רק אם OpenAI תצליח לעמוד בתחזיות האופטימיות ביותר שלה. אם לא, המשקיעים ייאלצו להכיר בהפסדים עצומים, והתעשייה תצטרך למצוא דרכים יותר ברות-קיימא לשלם עבור טאלנט בלי לשרוף מיליארדים בתהליך.

 

 

למי זה טוב ולמי זה מסוכן

עבור עובדי OpenAI, המצב טוב יותר מכפי שנראה – הם לא רק מחזיקים בערך נומינלי של 1.5 מיליון דולר “על הנייר”, חלקם כבר מימשו חלק מהערך הזה במזומן דרך מכירות פנימיות. עבור המשקיעים, זה הימור קיומי. אם OpenAI תצליח, התשואה תהיה עצומה. אם לא, ההפסדים יהיו היסטוריים.

 

עבור התעשייה, המודל הזה מעלה את הסטנדרטים באופן שלא בהכרח בריא. חברות קטנות ובינוניות לא יכולות לשלם סכומים כאלה, מה שמרכז את הטאלנט במספר קטן של חברות ענק. זה מקשה על חדשנות ומגביל תחרות.

 

בסופו של יום, OpenAI לא מוכרת רק מודל בינה מלאכותית – היא מוכרת את האמונה שמי שיגיע ראשון ל-AGI יכתוב מחדש את כללי המשחק הכלכלי. אם המודל הזה יקרוס, הוא עלול למשוך איתו חלק נכבד מכלכלת הסיליקון ואלי. אם הוא יצליח, 1.5 מיליון דולר לעובד ייזכרו כהשקעה הכי חכמה בהיסטוריה. במירוץ הזה, המחיר להישאר בפנים הוא כל מה שיש לך – ואולי עוד קצת.

הפוסט OpenAI משלמת יותר מכל סטארט-אפ בהיסטוריה – האם זה טירוף או הימור מחושב? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-employee-compensation/feed/ 0
Fast, Thinking או Pro? המדריך למשתמש בג’מיני 3 https://letsai.co.il/gemini-3-modes-guide/ https://letsai.co.il/gemini-3-modes-guide/#comments Sat, 03 Jan 2026 14:09:46 +0000 https://letsai.co.il/?p=67534 רוצים להפיק יותר מג’מיני ב-2026? כדאי שתבינו מה קורה “מתחת למכסה המנוע”. למרות השמות השונים, חשוב לדעת ש-Fast ו-Thinking הם למעשה אותו מודל (Gemini 3 Flash) בהגדרות עבודה שונות: אחד מותאם למהירות שיא והשני לעצירה וחשיבה לוגית. לעומתם, מצב ה-Pro הוא מודל Gemini 3 Pro – מנוע שונה לחלוטין ובעל עוצמה גדולה בהרבה, המיועד למשימות […]

הפוסט Fast, Thinking או Pro? המדריך למשתמש בג’מיני 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>
רוצים להפיק יותר מג’מיני ב-2026? כדאי שתבינו מה קורה “מתחת למכסה המנוע”. למרות השמות השונים, חשוב לדעת ש-Fast ו-Thinking הם למעשה אותו מודל (Gemini 3 Flash) בהגדרות עבודה שונות: אחד מותאם למהירות שיא והשני לעצירה וחשיבה לוגית. לעומתם, מצב ה-Pro הוא מודל Gemini 3 Pro – מנוע שונה לחלוטין ובעל עוצמה גדולה בהרבה, המיועד למשימות שמצריכות עומק וניתוח רב-שכבתי.

 

המודלים של ג׳מיני

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

Fast (מהיר)

מצב Fast מבוסס על מודל Gemini 3 Flash הפועל במהירות מלאה ומותאם לספק זמני תגובה קצרים במיוחד. אפשר לדמות אותו לקולגה חד וחריף שמספק תשובות מהירות ומקצועיות מבלי “לחפור” או להשקיע מחשבת יתר בפרטים הטכניים.

 

הבחירה במצב זה מייצגת העדפה ברורה של מהירות על פני עומק. המודל לא יעצור כדי לאמת את הלוגיקה שלו או לתכנן פתרונות רב-שלביים מורכבים, מה שהופך אותו לכלי אידיאלי עבור שאלות ישירות ופשוטות.

 

דוגמה קלאסית ליעילות המודל היא ניהול עומס של 50 אי-מיילים שלא נקראו לפני פגישה דחופה: במשימה כזו, אתם זקוקים למיון (Triage) מהיר שיקבע מה דורש פעולה, מה מיועד לידיעה בלבד ומה יכול להמתין. מכיוון שמדובר במשימת סיווג ולא בבעיה הדורשת חשיבה מעמיקה, מצב ה-Fast מאפשר לכם להבין את תמונת המצב בתוך שניות, בעוד שמצבי החשיבה האחרים פשוט יגרמו לכם להמתין זמן מיותר עבור אותה התוצאה.

 

דוגמה למצב Fast: מיון אימיילים מהיר

דוגמה למצב Fast: מיון אימיילים מהיר

 

למה Fast מתאים כאן? זו משימת מיון, לא משימת חשיבה. אתם לא מבקשים מהמודל לפתור בעיה, אתם מבקשים ממנו לעזור לכם לראות את התמונה הכללית. מצב Fast יכול לסווג ולסכם בשניות. מצב Thinking פשוט יגרום לכם לחכות יותר זמן לאותה תוצאה בדיוק. Pro יהיה מוגזם למשימה כזו.

Thinking (חשיבה)

מצב ה-Thinking מבוסס גם הוא על מודל Gemini 3 Flash, אך בתוספת “שכבת חשיבה” המורה לו לעצור ולמפות שרשרת מחשבה (COT) מסודרת לפני מתן התגובה. ניתן לדמות את זה לאותו קולגה חריף, אלא שהפעם הוא לוקח לעצמו כמה דקות לשרטט את הנימוקים שלו על לוח מחיק לפני שהוא משיב.

 

הבחירה במצב הזה אמנם הופכת את התהליך לאיטי יותר בהשוואה ל-Fast, אבל היא הופכת אותו לאמין משמעותית בפתרון בעיות הדורשות לוגיקה, ניתוח או תכנון מבני. המודל צורך כמות משאבי מחשוב דומה למצב המהיר, אך מקצה חלק גדול יותר מהם לתהליך האימות והבנייה הלוגית.

 

דוגמה בולטת ליעילות המודל היא תכנון מערכת פרודוקטיביות אישית, כמו יצירת תבנית לסיכום שבועי המותאמת בדיוק לכלי העבודה וללוח הזמנים שלכם. מכיוון שמדובר בבעיית עיצוב המפיקה תועלת מחשיבה מובנית, מצב ה-Thinking ידע לייצר פתרון קוהרנטי ומותאם אישית, בעוד שמצב ה-Fast היה מספק תבנית גנרית בלבד.

 

דוגמה למצב Thinking: עיצוב שיטת עבודה

דוגמה למצב Thinking: עיצוב שיטת עבודה

 

למה Thinking מתאים כאן? זו בעיית עיצוב ותכנון שמרוויחה מחשיבה מובנית. אתם רוצים שהמודל יחשוב על המרכיבים של מערכת סיכום טובה, ישקול את זרימת העבודה הספציפית שלכם וייצור משהו קוהרנטי. Fast ייתן לכם תבנית גנרית. Pro יעבוד, אבל הוא מיותר כי זו לא בעיה טכנית קשה במיוחד.

Pro (מקצוען)

מצב ה-Pro מבוסס על Gemini 3 Pro, מודל השונה מהיסוד וגדול משמעותית ממודל ה-Flash. זהו המודל בעל היכולות הגבוהות ביותר של גוגל לחשיבה מורכבת וסנכרון מידע ממגוון רב של מקורות במקביל.

 

באנלוגיה לעולם העבודה, ניתן לראות בו מומחה בכיר המגויס לפתרון הבעיות הסבוכות ביותר. הוא אמנם איטי יותר וצורך מכסות שימוש רבות יותר, אך הוא מסוגל לפתור את מה שאיש מקצוע כללי פשוט לא יוכל לצלוח. עבור משימות שגרתיות הוא עשוי להיראות כמו “Overkill”, אך בבעיות קשות באמת הוא בהחלט שווה את ההמתנה.

 

דוגמה מובהקת לצורך בו היא משימה של מנהלי שיווק הנדרשים לבנות סקירה תחרותית המבוססת על מקורות רבים כמו תמלילי דוחות רווחים, הודעות לעיתונות, דפי תמחור וביקורות לקוחות. במקרה כזה, רק ה-Pro מסוגל להחזיק את כל המקורות בתוך ההקשר (Context), לזהות סתירות ולגבש תובנות אסטרטגיות שאינן מובנות מאליהן.

 

דוגמה למצב Pro: ניתוח אסטרטגי מורכב

דוגמה למצב Pro: ניתוח אסטרטגי מורכב

 

למה Pro מתאים כאן? משימה כזו דורשת סנכרון של מידע סותר בין מסמכים רבים והסקת מסקנות לא מובנות מאליהן.

  • Fast יסכם כל מקור בנפרד אבל יפספס את ההקשרים ביניהם.

  • Thinking יצליח יותר, אבל נוטה “לאבד הקשר” בניתוח של מסמכים מרובים.

  • Pro מסוגל להתמודד עם העומס הקוגניטיבי של החזקת כל המקורות בהקשר אחד וחשיבה רוחבית עליהם.

 ה-Pro פשוט טוב יותר בסינתזה של מסמכים רבים, וזה נובע גם מ”חלון ההקשר” הגדול שלו. עבור מי שעובד עם קבצי ענק, זהו נתון קריטי לא פחות מהיכולת ה”חשיבתית”.

אז איך מחליטים?

סיכמתי לכם בשלוש נקודות, לפי סדר עדיפויות:

1. השתמשו ב-Thinking כברירת מחדל. עבור 99% מהמשתמשים ומקרי הבוחן, אי אפשר לטעות כאן. זו האופציה המאוזנת שמתמודדת היטב עם רוב משימות העבודה.

2. עברו ל-Fast כשאתם מבצעים חיפושים מהירים, סיכומים פשוטים, סיעור מוחות או מיון משימות. אם אתם תופסים את עצמכם מחכים וחושבים “זה לא צריך להיות כזה איטי”, השתמשו ב-Fast.

3. ״שדרגו״ ל-Pro כשהבעיה קשה באמת: דיבאגינג (ניפוי שגיאות) מורכב, מתמטיקה רב-שלבית, סינתזה של מסמכים גדולים או ניתוח טכני. אם Thinking נותן לכם תשובה חלשה בנושא חשוב, Pro שווה את “עלות” מגבלת השימוש.

 

ודבר אחרון, אם אתם משתמשים במסלול החינמי, אתם יכולים לגשת לכל שלושת המצבים, אך עם מגבלות יומיות שגוגל לא מפרסמת באופן רשמי.

הפוסט Fast, Thinking או Pro? המדריך למשתמש בג’מיני 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-3-modes-guide/feed/ 1
מפת הדרכים האסטרטגית של IBM לבינה מלאכותית ב-2026 https://letsai.co.il/ibm-ai-trends-2026/ https://letsai.co.il/ibm-ai-trends-2026/#respond Thu, 01 Jan 2026 12:21:03 +0000 https://letsai.co.il/?p=67396 שנת 2026 מסתמנת כקו פרשת המים שבו הבינה המלאכותית משילה מעליה את תג ה”עוזר הווירטואלי” והופכת לכוח עבודה אינטגרלי, תבוני ואוטונומי. התחזית הטכנולוגית המרתקת של IBM חושפת מציאות חדשה שבה ה-AI מפסיקה רק “לייצר תוכן” ומתחילה “לבצע משימות”. עבור הדרג הניהולי וקובעי המדיניות, המשמעות היא שינוי פרדיגמה עמוק: המעבר מניהול של כלי עזר (Assistant) לניהול […]

הפוסט מפת הדרכים האסטרטגית של IBM לבינה מלאכותית ב-2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
שנת 2026 מסתמנת כקו פרשת המים שבו הבינה המלאכותית משילה מעליה את תג ה”עוזר הווירטואלי” והופכת לכוח עבודה אינטגרלי, תבוני ואוטונומי. התחזית הטכנולוגית המרתקת של IBM חושפת מציאות חדשה שבה ה-AI מפסיקה רק “לייצר תוכן” ומתחילה “לבצע משימות”. עבור הדרג הניהולי וקובעי המדיניות, המשמעות היא שינוי פרדיגמה עמוק: המעבר מניהול של כלי עזר (Assistant) לניהול של מערכות סוכנים (Agents) הפועלות בסנכרון מלא – מהמרחב הדיגיטלי ועד לעולם הפיזי. זה לא שיפור הדרגתי, אלא ארגון מחדש של הממשק בין אדם, מכונה ותהליכים עסקיים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הארכיטקטורה של האוטונומיה 

עד עכשיו, האינטראקציה הארגונית עם בינה מלאכותית התבססה על מודל שפה מרכזי אחד שמנסה לפתור כל בעיה. ב-2026, הארכיטקטורה משתנה ל“תזמור סוכנים מרובים” (Multi-agent orchestration). במבנה הזה, ה-AI פועלת כרשת של מומחים שבה סוכן אחד מתמקד בתכנון המשימה, סוכן שני בביצוע קוד, וסוכן שלישי בביקורת איכות והצלבת נתונים. הדינמיקה הזו מאפשרת ל-AI לטפל בתהליכי עבודה (Workflows) שלמים ולא רק במטלות בודדות.

 

עבור המנהל המודרני, מדובר ב“כוח עבודה דיגיטלי” (Digital Labor). הסוכנים האלה לא רק מבצעים פעולות, אלא מנווטים באופן עצמאי בתוך מערכות עסקיות מורכבות. יחד עם זאת, הארכיטקטורה של IBM מדגישה את עקרון ה-“Human in the loop” – עקרון שבו המנהל האנושי אינו מוחלף, אלא משתדרג לתפקיד של “מתזמן על” (״מנצח״). במקום להכתיב לסוכן איך לעבוד, המנהל מגדיר את היעדים, מאשר את אבני הדרך הקריטיות ומפקח על הסנכרון בין צוותי הסוכנים הדיגיטליים לצוותים האנושיים.

בינה עם גוף

החזון של IBM לשנת 2026 מסמן את סופה של ההפרדה בין הבינה הדיגיטלית למציאות המוחשית. המגמה של “בינה מלאכותית פיזית” (Physical AI) מייצגת קפיצת מדרגה קוגניטיבית שבה מודלים אינם מסתפקים בעיבוד טקסט או תמונה, אלא לומדים להבין את חוקי הפיזיקה, התנועה והמרחב התלת-ממדי. במקום לתכנת רובוט בכל תנועה ותנועה (Hard-coding), ה-AI מפתחת “אינטואיציה” מרחבית המאפשרת למכונות לפעול בסביבות משתנות ובלתי צפויות.

 

השילוב של בינה זו בתוך “מחשוב חברתי” (Social Computing) יוצר שינוי עמוק באופן שבו טכנולוגיה משתלבת בחברה. המערכות של 2026 יהיו מסוגלות לפענח לא רק פקודות, אלא גם הקשרים חברתיים וכוונות אנושיות. במרחבים משותפים, ממפעלים ועד בתי חולים, ה-AI תלמד “לקרוא” את הדינמיקה האנושית סביבה, מה שיהפוך את האינטראקציה איתה מטכנית וקרה לשיתוף פעולה זורם ובטוח.

 

התובנה למנהל/ת: בשנת 2026, הגבול בין ה-IT (טכנולוגיית מידע) ל-OT (טכנולוגיה תפעולית) יטושטש לחלוטין. מנהלים יצטרכו לחשוב על נכסים פיזיים, ממלגזות במחסן ועד לחיישנים בחנות, כעל סוכנים תבוניים. היכולת של ה-AI להבין הקשר חברתי ופיזי פירושה שניתן יהיה להטמיע אוטומציה גם בתהליכים שדרשו בעבר “שיקול דעת אנושי בשטח”, ובכך לייצר יעילות חסרת תקדים בניהול שרשראות אספקה ושירות לקוחות פרונטלי.

מחשוב היברידי, קוונטי ובינה בקצה

היכולות המתקדמות של 2026 דורשות כוח חישוב מסוג חדש. IBM מגדירה זאת כמעבר ל“מחשוב היברידי אמורפי” (Amorphous hybrid computing). אם בעבר הארגון הסתמך על שרתים מרכזיים או ענן גנרי, הרי שב-2026 התשתית תהיה דינמית לחלוטין. המערכת תדע לנתב כל משימה באופן אוטומטי למעבד המתאים ביותר עבורה, בין אם מדובר במעבד גרפי (GPU), שבב נוירומורפי המחקה את פעולת המוח, או מחשב קוונטי.

שני וקטורים מרכזיים יגדירו את המנוע הזה:

  1. הסקה במכשיר הקצה (Reasoning at the edge): זה המעבר של ה”מוח” של ה-AI מהענן ישירות אל מכשירי הקצה (טלפונים, חיישנים תעשייתיים ומחשבים אישיים). מודלים קטנים ויעילים יאפשרו למכשירים “לחשוב” ולפתור בעיות באופן מקומי. עבור הארגון, המשמעות היא ביטול השהייה (Latency) ופרטיות נתונים מוחלטת, שכן המידע הרגיש אינו עוזב את המכשיר.

  2. תועלת קוונטית (Quantum Utility): בשנת 2026, המחשוב הקוונטי יוצא ממעבדות המחקר אל שולחן העבודה העסקי. לא מדובר עוד בהבטחה עתידית, אלא בכלי עבודה לפתרון בעיות אופטימיזציה מורכבות שהיו בלתי אפשריות למחשוב קלאסי – החל מתכנון חומרים חדשים ועד לניהול סיכונים פיננסיים בזמן אמת.

התובנה למנהל/ת: היעילות האנרגטית והיכולת הכלכלית של ארגון ב-2026 יהיו תלויות ב”חכמת הניתוב” שלו. מנהלים צריכים להבין שחוסן טכנולוגי לא יימדד רק בכמות כוח העיבוד, אלא ביכולת להריץ משימות קריטיות ב”קצה” (מסיבות של אבטחה ומהירות) ולנצל יתרון קוונטי לפתרון צווארי בקבוק עסקיים. זו אסטרטגיה של אופטימיזצית משאבים קיצונית.

אמון כנכס עסקי 

בעוד ששנות הפריצה של ה-AI התאפיינו בהתפעלות מהתוצרים, שנת 2026 תתאפיין בדרישה חקירתית לגבי התהליך. המגמה של “בינה מלאכותית ניתנת לאימות” (Verifiable AI) הופכת מצורך טכני לדרישה עסקית ומשפטית מחמירה. תחת מסגרות רגולטוריות גלובליות, ובראשן חוק ה-AI האירופי (EU AI Act), ארגונים לא יוכלו עוד להסתפק במודלים של “קופסה שחורה” שפעולתם אינה שקופה.

 

אימות ב-2026 מורכב משלוש שכבות קריטיות:

  1. מקוריות הנתונים (Provenance): היכולת להוכיח בדיוק מאיפה הגיעו נתוני האימון, תוך כיבוד זכויות יוצרים ומניעת הטיות מובנות.

  2. תיעוד טכני שוטף: מערכות AI ידרשו לספק “יומן עבודה” המציג כיצד התקבלה החלטה מסוימת, מה שמאפשר ביקורת חיצונית ופנימית בזמן אמת.

  3. שקיפות אלגוריתמית: היכולת להסביר את ה”לוגיקה” שמאחורי פלט המערכת, במיוחד בתחומים רגישים כמו פיננסים, בריאות ומשאבי אנוש.

התובנה למנהל/ת: בשנת 2026, אמון (Trust) יהפוך למטבע עובר לסוחר. מנהלים שישקיעו בתשתית של אימות ושקיפות לא רק “יעברו את הרגולטור”, אלא יזכו ביתרון תחרותי מובהק. לקוחות ושותפים עסקיים יעדיפו מערכות שניתן לסמוך עליהן ולהבין אותן על פני מערכות חזקות אך מסתוריות. ציות (Compliance) מפסיק להיות מרכז עלות והופך למנוע צמיחה שמאפשר אימוץ מהיר ובטוח של טכנולוגיות חדשות.

 

מגמות מובילות לשנת 2026

מגמות מובילות לשנת 2026

מפת הדרכים למנהיגות טכנולוגית ב-2026

התחזית של IBM לשנת 2026 לא עוסקת רק בטכנולוגיה חזקה יותר, אלא במערכת אקולוגית חדשה של בינה. המעבר מבינה מלאכותית יוצרת (Generative) לבינה מלאכותית פועלת (Agentic), בשילוב עם תשתיות קוונטיות ויכולות קצה, מחייב מנהלים לבחון מחדש את האסטרטגיה הארגונית שלהם כבר היום.

 

כדי להגיע מוכנים ל-2026, על קובעי המדיניות להתמקד בשלושה צירי פעולה:

1. מארכיטקטורת כלים לארכיטקטורת סוכנים: הפסיקו לחפש “שימושים בודדים” (Use Cases) ל-AI. במקום זאת, התחילו לתכנן תהליכי עבודה המבוססים על צוותי סוכנים. השאלה היא כבר לא “איך ה-AI תכתוב לי מייל”, אלא “איך מערך סוכנים דיגיטלי ינהל את שרשרת האספקה שלי מקצה לקצה”.

2. השקעה בתשתית של אמון (Trust by Design): אל תחכו לרגולציה שתכפה עליכם שקיפות. הטמעת כלי אימות (Verifiability) ובניית מסגרות אתיות לשימוש בנתונים הן הבסיס שעליו ייבנה האמון של הלקוחות והעובדים שלכם. הארגון שלכם יהיה חייב לדעת להסביר את החלטות ה-AI שלו ב-2026 כדי להישאר במשחק.

3. הכשרת ההון האנושי ל”תזמור”: המיומנות הנדרשת מהעובדים ומהמנהלים שלכם משתנה. היכולת לנהל “כוח עבודה היברידי” – המורכב מאנשים, סוכנים דיגיטליים ורובוטים פיזיים – תהיה המיומנות הקריטית ביותר. עליכם להשקיע בחינוך טכנולוגי ששם דגש על שיתוף פעולה (Social Computing) ולא רק על תפעול טכני.

 

שנת 2026 תתגמל את הארגונים שידעו לשלב בין העוצמה הבלתי מוגבלת של המחשוב לבין האחריות והערכים האנושיים. הטכנולוגיה כבר כאן – כעת תורו של הניהול להדביק את הקצב.

הפוסט מפת הדרכים האסטרטגית של IBM לבינה מלאכותית ב-2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ibm-ai-trends-2026/feed/ 0
מטא רוכשת את Manus ומהמרת על שכבת הביצוע https://letsai.co.il/meta-acquires-manus/ https://letsai.co.il/meta-acquires-manus/#respond Tue, 30 Dec 2025 12:02:48 +0000 https://letsai.co.il/?p=67136 כשהודעת הרכישה יצאה, המספרים סביב Manus היו הדבר הראשון שתפס את העין. Meta הודיעה על רכישת Manus, חברת אייג’נטים שנוסדה בידי צוות עם שורשים סיניים ושמרכז פעילותה כיום בסינגפור. סכום העסקה לא פורסם רשמית. לפי דיווח של רויטרס, ההערכה בשוק נעה בטווח של 2 עד 3 מיליארד דולר. הוול סטריט ג’ורנל ובלומברג מסגרו את המהלך […]

הפוסט מטא רוכשת את Manus ומהמרת על שכבת הביצוע הופיע ראשון בLet's AI בינה מלאכותית

]]>
כשהודעת הרכישה יצאה, המספרים סביב Manus היו הדבר הראשון שתפס את העין. Meta הודיעה על רכישת Manus, חברת אייג’נטים שנוסדה בידי צוות עם שורשים סיניים ושמרכז פעילותה כיום בסינגפור. סכום העסקה לא פורסם רשמית. לפי דיווח של רויטרס, ההערכה בשוק נעה בטווח של 2 עד 3 מיליארד דולר. הוול סטריט ג’ורנל ובלומברג מסגרו את המהלך כ”הימור של יותר מ-2 מיליארד דולר על אייג’נטים”. אבל הסיפור כאן אינו המחיר. הוא הסיבה. מטא לא קונה עוד מודל שפה. היא קונה שכבה אחרת לגמרי במערכת הבינה המלאכותית – שכבת הביצוע. לא המוח שמבין ושואל, אלא הידיים שמבצעות.

 

מטא רוכשת את מאנוס

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה דווקא Manus, ולמה עכשיו

Manus לא ממצבת את עצמה כחברת מודלים. היא מדברת על execution layer – שכבת ביצוע שמאפשרת לאייג’נטים לפעול בתוך סביבת עבודה אמיתית. לא רק לנסח תשובה, אלא לתכנן משימה, להריץ אותה, לעקוב אחריה, ולסיים אותה.

 

במונחים מעשיים, זה ההבדל בין מערכת שמסבירה למשתמש מה צריך לעשות, לבין מערכת שעושה זאת במקומו: גולשת ברשת, אוספת מידע, כותבת ומריצה קוד, מנהלת קבצים וממשיכה לעבוד לאורך זמן.

 

זה הבדל קטן בניסוח, אבל גדול מאוד במשמעות. ובדיוק שם מטא הייתה חלשה יחסית לעומת שחקנים אחרים.

 

לגוגל יש שליטה בדפדפן ובמערכת ההפעלה. למיקרוסופט יש את Windows ו-Office. למטא יש פלטפורמות חברתיות עצומות, אבל עד היום לא הייתה לה שכבה שמבצעת עבודה דיגיטלית מורכבת בשם המשתמש. Manus נכנסת בדיוק לוואקום הזה.

המספרים שמשרטטים קנה מידה

בדצמבר פרסמה Manus פוסט שבו טענה כי הגיעה ל-ARR של כ-100 מיליון דולר, וכי קצב ההכנסות הכולל שלה עבר 125 מיליון דולר. נתונים דומים הופיעו גם בדיווחים של Investing.com ובלוגים טכנולוגיים, כולם בהסתמך על דיווח עצמי של החברה.

 

ככה נראית הסיבה שמטא מוכנה לשלם מיליארדים

ככה נראית הסיבה שמטא מוכנה לשלם מיליארדים

 

אין כאן דוחות מבוקרים, אבל יש איתות ברור. Manus מבקשת להיתפס לא כניסוי, אלא כמוצר שפועל בקנה מידה מסחרי. עבור מטא, ההבדל הזה משמעותי. רכישת טכנולוגיה שונה מרכישת מערכת שכבר פוגשת לקוחות, תהליכים והכנסות.

ההימור של מטא

כאן מתחיל המתח האסטרטגי האמיתי. בשנתיים האחרונות מטא מיתגה את עצמה כמי שמקדמת קוד פתוח בעולם ה-AI, בעיקר דרך Llama. זו הייתה גם אמירה אידיאולוגית וגם כלי תחרותי מול OpenAI וגוגל. אבל שכבת ביצוע היא חיה אחרת.

 

אייג’נטים שמבצעים פעולות דורשים שליטה הדוקה – הרשאות, זהויות, תשלומים, ניטור ואחריות משפטית. קשה מאוד לדמיין שכבה כזו פועלת באמת כקוד פתוח בקנה מידה של מיליארדי משתמשים.

 

המתח כאן אינו בין “פתוח” ל”סגור”, אלא בין פתיחות ברמת המודל לבין שליטה ברמת הפעולה. רכישת Manus מרמזת שמטא מוכנה לוותר על חלק מהאידיאולוגיה הפתוחה שלה, לטובת מוצר שעובד.

מלכוד האמון

המעבר מצ’אט לביצוע אינו רק שדרוג טכנולוגי. הוא קפיצת מדרגה דרמטית ברמת הסיכון. עד היום, כשעוזר מבוסס AI סיפק תשובה שגויה, הנזק הסתכם במידע מוטעה. עם אייג’נטים מבצעים, אנחנו נכנסים לעידן של הלוצינציית ביצוע.

 

בתרחיש כזה, אייג’נט לא רק טועה בהבנה, אלא מפרש פקודה באופן שגוי ומבצע פעולה ממשית ובלתי הפיכה כמו רכישה שגויה, מחיקת נתונים, או חשיפה של מידע רגיש. זה שינוי מהותי באופי הסיכון, כזה שמעביר את הבעיה מתחום הדיוק הלשוני אל תחום האחריות המעשית.

 

כאן טמון האתגר הגדול ביותר של מטא. כדי שאייג’נטים כמו של Manus יהיו אפקטיביים בתוך וואטסאפ או אינסטגרם, המשתמשים יצטרכו להעניק להם הרשאות עמוקות: גישה לדפדפן, לחשבונות פיננסיים, ולמידע אישי. עבור חברה שעדיין מתמודדת עם משקעים של משברי אמון מהעבר, זהו מחסום פסיכולוגי לא פחות מטכנולוגי.

 

אם מטא לא תצליח לבנות סביב שכבת הביצוע הזו מנגנוני בידוד, בקרת הרשאות ושקיפות ברמה חסרת תקדים, ההימור על אייג’נטים עלול להפוך לחרב פיפיות. בעולם כזה, האמון אינו תכונה נלווית למוצר. הוא המוצר עצמו.

האם Manus היא באמת טכנולוגיה ייחודית?

שאלה נוספת מרחפת מעל העסקה והיא עד כמה Manus באמת ייחודית.

 

יכולות של שליטה בדפדפן, הרצת קוד ושימוש בכלים קיימות היום גם בחברות אחרות, ובמיזמי Open Source. לכן אפשר להסתכל על העסקה גם מזווית אחרת: ייתכן שמטא לא קנתה פתרון סופי, אלא קנתה זמן.

 

זמן שבו OpenAI וגוגל לא סוגרות את הפער. זמן שבו צוות מגובש עם ניסיון מעשי לא מגיע לידי מתחרה. במובן הזה, ייתכן שמדובר לא רק ברכישת טכנולוגיה, אלא ב-Acqui-hire יקר שמטרתו לנעול כישרון בשלב קריטי של השוק.

הציר הגיאופוליטי והרגולציה

לפי דיווחים, Manus, שנוסדה בידי צוות עם שורשים סיניים, העבירה בהמשך את מרכז פעילותה לסינגפור, על רקע מתיחות גוברת בין ארה”ב לסין. מטא, לפי Business Insider, התחייבה לנתק קשרי פעילות ובעלות בסין וליישם הפרדות גישה ברורות.

 

אין כאן בהכרח חסם רגולטורי מיידי, אבל יש שכבת רגישות נוספת. בעולם שבו אייג’נטים פועלים בשם המשתמש, שאלות של אמון, ריבונות נתונים ואחריות משפטית הופכות לקריטיות.

 

 

דז’ה וו של מטא

ההשוואה המתבקשת היא לרכישת Oculus ב-2014, אז שילמה פייסבוק כ-2 מיליארד דולר על מה שנתפס כהימור על פלטפורמת מחשוב עתידית. גם אז זו לא הייתה רכישה של מוצר בשל, אלא של שכבה אסטרטגית.

 

לא כל ההימורים של מטא הצליחו, אבל הדפוס ברור – החברה מוכנה לשלם מחיר גבוה כדי לקנות לעצמה עמדה מוקדמת בשכבת מחשוב שהיא מאמינה שתהפוך מרכזית.

המבחן האמיתי

הקרב הבא בעולם ה-AI לא יוכרע רק בשאלה מי עונה הכי טוב, אלא מי עובד הכי טוב. אייג’נטים מבצעים מבטיחים יעילות חסרת תקדים, אבל גם מעלים את רף האחריות, הסיכון והאמון.

 

המבחן של צוקרברג אינו טכנולוגי בלבד, הוא אנושי. האם משתמשים יהיו מוכנים לתת ל-AI של מטא גישה לחשבון הבנק שלהם, לקבצים שלהם, ולזהות הדיגיטלית שלהם.

 

אם התשובה תהיה כן, העסקה הזו תיראה בדיעבד כצעד מבריק. אם לא, שכבת הביצוע שנקנתה במיליארדים עלולה להפוך לנקודת החיכוך הבאה בין מטא לציבור.

 

בשורה התחתונה, עבור מי שבונה היום מוצרים עם AI, המסר ברור: בחירת מודל חשובה. בניית שכבת ביצוע אמינה היא ההבדל בין הדגמה למוצר אמיתי.

הפוסט מטא רוכשת את Manus ומהמרת על שכבת הביצוע הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/meta-acquires-manus/feed/ 0
האם 2025 הייתה שנת ה-AI האייג’נטי, או רק תחילתה של דרך ארגונית ארוכה? https://letsai.co.il/agentic-ai-2025/ https://letsai.co.il/agentic-ai-2025/#respond Mon, 29 Dec 2025 13:35:59 +0000 https://letsai.co.il/?p=67079 בעולם הטכנולוגיה יש מסורת קבועה: כל שנה מוכרזת כ”שנת ה-X”. ההצהרות נאמרות בביטחון, התחזיות נשמעות חדות, ואז מגיעה המציאות, לרוב מורכבת ופחות חד-משמעית מהכותרות. לפני שנה בדיוק, הקונצנזוס בתעשיית הבינה המלאכותית היה ברור: 2025 תהיה “שנת סוכני ה-AI”. התחזיות דיברו על קפיצה מאוטומציה חכמה למערכות שפועלות בעצמן, מקבלות החלטות ומבצעות עבודה מורכבת בקנה מידה ארגוני. […]

הפוסט האם 2025 הייתה שנת ה-AI האייג’נטי, או רק תחילתה של דרך ארגונית ארוכה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם הטכנולוגיה יש מסורת קבועה: כל שנה מוכרזת כ”שנת ה-X”. ההצהרות נאמרות בביטחון, התחזיות נשמעות חדות, ואז מגיעה המציאות, לרוב מורכבת ופחות חד-משמעית מהכותרות. לפני שנה בדיוק, הקונצנזוס בתעשיית הבינה המלאכותית היה ברור: 2025 תהיה “שנת סוכני ה-AI”. התחזיות דיברו על קפיצה מאוטומציה חכמה למערכות שפועלות בעצמן, מקבלות החלטות ומבצעות עבודה מורכבת בקנה מידה ארגוני. עכשיו, כש-2025 כמעט מאחורינו, הגיע הזמן לבדוק מה באמת קרה, לא ברמת ההבטחות אלא ברמת האימוץ בפועל בתוך ארגונים. והשאלה הנכונה איננה האם סוכני AI הופיעו, אלא איזה סוג של סוכנים הופיעו, למי, ובאילו תנאים. כי ב-2025 אכן קרה משהו אמיתי, אבל זה לא היה הסיפור ההוליוודי של אוטונומיה מלאה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

סוכנים הפסיקו להיות פיצ’ר והפכו לשכבה

הטיעון החזק ביותר בעד 2025 כ”שנת הסוכנים” הוא לא שסוכני AI הפכו לעצמאיים באמת, אלא שספקיות תוכנה ארגונית התחילו להתייחס ל-AI אייג׳נטי ככיוון פלטפורמי בסיסי, ולא כתוספת נחמדה לדמו או לפיצ’ר נקודתי.

 

לפי סקירת סוף השנה של Futurum Group, שנת 2025 סימנה מעבר מהייפ ל-Agentic AI מוטמע ותפעולי. לא עוד יכולת שמוצגת במצגות, אלא רכיב שחי בתוך המוצר עצמו, בתוך חבילות הליבה, מודלי התמחור וזרימות העבודה היומיומיות.

 

זו הייתה הנקודה הראשונה שבה הלחץ האטמוספרי בתעשייה באמת השתנה.

מירוץ תשתיות: שנת ה-Runtime של הסוכנים

אם מקלפים את שכבת השיווק, מגלים ש-2025 הייתה פחות שנה של קפיצה ביכולות, ויותר שנה של בנייה תשתיתית.

תזמור סוכנים (אורקסטרציה) הפך לסטנדרט

חברות כמו Microsoft ו-Adobe השקיעו מאמצים גדולים ביכולות של תזמור בין סוכנים. כלומר, סוכנים שמפעילים סוכנים אחרים, מחלקים משימות, ומשתפים הקשר ונתונים בין מערכות שונות. זה חשוב כי בלי תזמור, “סוכן” הוא בסך הכל צ’אט חכם עם הרשאות.

 

ולא רק Microsoft ו-Adobe. גם ServiceNow עם AI Agent Orchestrator, Salesforce עם Multi-Agent Orchestration ב-Agentforce, AWS עם multi-agent collaboration ב-Bedrock, ו-Google עם Vertex AI Agent Builder, כולם דוחפים את אותו כיוון – תזמור סוכנים כשכבת תשתית ארגונית.

מרכז הכובד עבר משליטה ביכולות לשליטה במערכת

בחצי השני של 2025, המסר המרכזי כבר לא היה “תראו מה ה-AI יודע לעשות”, אלא “איך מנהלים את זה בארגון”. רגולציה, הרשאות, ניטור, אבטחה, שליטה בעלויות ושקיפות הפכו לנושאים המרכזיים.

 

עצם העובדה שספקיות התחילו לדבר במונחים של Control Plane (המוח הניהולי מעל הסוכנים) לסוכנים היא הודאה בכך שהבעיה האמיתית איננה עוד יכולת טכנולוגית, אלא ניהול, אחריות וצפיות תפעולית.

מודלים מותאמים החליפו מודלים כלליים

יותר ויותר ארגונים הבינו שסוכן שמבוסס על מודל גנרי הוא לעיתים בעיה, לא יתרון. לכן ראינו מעבר למודלים מותאמים לארגון, לדאטה שלו, לשפה הפנימית שלו ולמותג שלו. זה פחות נוצץ, אבל הרבה יותר שימושי.

האם הייתה תנועה מהדמו לפרודקשן?

פלטפורמות כמו Agentforce של Salesforce או Copilot Studio של Microsoft אכן עברו מהבטחות להשקות רחבות. זה שינוי חשוב, משום שהוא מעיד על מעבר מפיילוטים ניסיוניים לאימוץ בפועל, ולא רק לניסויים אקדמיים או דמואים שיווקיים.

 

אבל כאן חשוב לדייק, האימוץ הזה עדיין איננו רחב כפי שהשיח לעיתים מציג. סקרים שפורסמו במהלך 2025 על ידי גופים כמו McKinsey ו-IBM מראים שרק מיעוט מהארגונים הגדולים פרסו סוכני AI בקנה מידה חוצה ארגון ובתהליכים עסקיים קריטיים. ברוב המקרים מדובר בהטמעות ממוקדות, בצוותים מסוימים או בתהליכים תחומים היטב.

 

במילים אחרות, הסוכנים כבר יצאו מהמעבדה, אבל עדיין לא השתלטו על רצפת הייצור.

מי שולט בשכבה האייג׳נטית?

וכאן מתגלה שאלה עמוקה יותר, שברוב הדיונים כמעט ואינה נשאלת: מי באמת שולט בשכבה האייג׳נטית?

 

ככל שסוכני AI הופכים לחלק משכבת ה-Runtime הארגונית, השליטה עוברת בהדרגה לפלטפורמות שמספקות את התזמור, ההרשאות והניטור. עבור ארגונים רבים, המעבר לפרודקשן איננו רק החלטה טכנולוגית, אלא בחירה אסטרטגית עם השלכות על תלות בספקים, גמישות עתידית ויכולת שליטה פנימית.

 

אפשר לראות את הפער הזה היטב בדוגמה מארגון גלובלי בתחום השירותים הפיננסיים, שתואר בכנס Ignite 2025 של Microsoft. הארגון הטמיע סוכני AI כחלק מ-Copilot Studio כדי לטפל בפניות פנים ארגוניות כמו פתיחת קריאות IT, בקשות הרשאה ושאלות תפעוליות חוזרות.



הסוכנים קיצרו זמני טיפול בצורה משמעותית והפחיתו עומס מצוותי התמיכה. אבל כשהארגון ניסה להרחיב את השימוש לתהליכים חוצי מחלקות, כמו תיאום בין כספים, רכש ומשאבי אנוש, הוא נתקל במהירות במגבלות: הרשאות מורכבות, דאטה לא אחיד, וצורך בפיקוח אנושי צמוד.

 

זה לא כישלון, זו תזכורת לכך שגם כשסוכנים עובדים, הם עובדים בתוך גבולות ברורים מאוד.

הטיעון הנגדי: שנת מיתוג אייג׳נטי, לא שנת אוטונומיה

הביקורת המרכזית על 2025 היא לא ש”לא קרה כלום”, אלא שמה שקרה בפועל לא תאם את גודל ההבטחות שניתנו בתחילת השנה.

1. רוב הסוכנים עדיין לא באמת אוטונומיים: בפועל, חלק גדול ממה שהושק נראה יותר כמו קופיילוטים מתקדמים, אוטומציות מונחות וזרימות עבודה מתוזמרות, ופחות כמו מערכות שמבצעות עבודה מורכבת מקצה לקצה ללא התערבות אנושית מתמשכת.

 

גם Futurum Group מודה שהפער בין הנרטיב האייג׳נטי לבין המציאות התפעולית עדיין משמעותי, ושמעבר אמיתי לאוטונומיה עקבית רחוק מלהיות פתור.

2. הסיפור עבר מיכולות לשליטה, עלות ואינטגרציה: אם 2024 הייתה שנת “תראו איזה מדהים זה”, אז 2025 הייתה שנת “רגע, איך זה עובד בארגון אמיתי”. המעבר הזה איננו מקרי. הוא משקף מציאות שבה היכולות קיימות, אך האתגרים האמיתיים נמצאים בשכבות אחרות: חיבור למערכות קיימות, ניהול הרשאות, שליטה בעלויות והבטחת פעולה צפויה ובטוחה לאורך זמן.

 

במונחים של Futurum, זה פחות התלהבות מ״מה ה-AI מסוגל לעשות״, ויותר עיסוק בשאלה ״איך מחזיקים את זה בשליטה״.

3. הלקוחות התעייפו מהבטחות בלי הוכחות: לקראת סוף השנה, המסרים של הספקיות התחילו להישמע דומים מדי. כולם “ייחודיים”, כולם “ארגוניים”, וכולם “מהפכניים”. אבל בשלב הזה, הדיון כבר לא עסק בדמואים מרשימים אלא בשאלה קשה יותר: איפה המספרים?

 

החזר השקעה ברור, שיפור מדיד בפרודוקטיביות או השפעה מוכחת על השורה התחתונה עדיין הופיעו במעט מאוד מקרים בקנה מידה רחב. זה אולי הסימן החזק ביותר לכך שב-2025 נוצרה תשתית ומומנטום, אך לא עדיין הוכחה חד משמעית שמצדיקה את גובה הציפיות.

פסק הדין: שנת תשתיות אייג׳נטיות, לא שנת עבודה אוטונומית

אז האם 2025 הייתה שנת סוכני ה-AI? התשובה שלי: כן, אבל לא כמו שחשבו.

 

זו הייתה השנה שבה התעשייה התחייבה ברצינות לסוכנים כשכבה ארגונית. לא כהבטחה עתידית ולא כגימיק מוצרי, אלא כתשתית ממשית הכוללת Runtime, תזמור, מנגנוני שליטה ודאטה. במובן הזה, מדובר בנקודת מפנה אמיתית.

 

אבל אם “שנת הסוכנים” אמורה להיות שנה שבה מערכות מבצעות עבודה מורכבת, עסקית וקריטית מקצה לקצה, באופן עקבי ועם מינימום פיקוח אנושי, אז 2025 עדיין לא שם.

 

במונחים של מזג אוויר – זו לא הייתה שנה של שמש בהירה. זו הייתה השנה שבה האקלים השתנה.

 

 

ומה זה אומר על 2026?

מי שרוצה להתנהל חכם ב-2026 צריך לשנות את נקודת המבט. פחות לשאול מה הסוכנים מסוגלים לעשות, ויותר לשאול מה הארגון באמת מסוגל להפעיל, למדוד ולשלוט בו.

 

בפועל, שלושה דברים יבדילו בין ארגונים שימנפו Agentic AI לבין כאלה שיתאכזבו ממנו:

1. תוצאות עסקיות מדידות, לא הדגמות יפות: הצלחה לא תימדד בכמה משימות סוכן יודע לבצע, אלא בשאלה אם הוא מייצר ערך עסקי ברור, חוזר ומוכח.

2. שליטה וניהול כברירת מחדל, לא כתוספת: מי שלא בונה מנגנוני בקרה, הרשאות וניטור מהיום הראשון, יגלה מהר מאוד שהבעיה איננה ה-AI, אלא חוסר היכולת לנהל אותו.

3. דאטה ואינטגרציה לפני חוכמה: סוכנים חכמים לא מפצים על דאטה מפוזר, תהליכים שבורים או מערכות שלא מדברות זו עם זו.

 

אז הסוכנים כבר כאן. אבל מי שימשיך להתייחס אליהם כמו קסם, יגלה מהר מאוד שמדובר בתשתית תפעולית לכל דבר, כזו שדורשת משמעת, אחריות והרבה פחות הייפ. במובן הזה, 2026 לא תהיה “שנת הסוכנים”, אלא שנת ההבחנה הברורה בין ארגונים שיודעים להפעיל תשתיות מורכבות לאורך זמן, לבין כאלה שעדיין מחפשים קיצורי דרך.

הפוסט האם 2025 הייתה שנת ה-AI האייג’נטי, או רק תחילתה של דרך ארגונית ארוכה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/agentic-ai-2025/feed/ 0
NotebookLM עולה כיתה בעידן Gemini 3 https://letsai.co.il/notebooklm-with-gemini3/ https://letsai.co.il/notebooklm-with-gemini3/#comments Sun, 28 Dec 2025 13:32:18 +0000 https://letsai.co.il/?p=67005 מאז השקתו, NotebookLM נשען על עיקרון אחד ברור: עבודה עם מקורות שהמשתמש בוחר ומספק. בניגוד לצ׳אטבוטים כלליים הפועלים על ידע רחב מהאינטרנט הפתוח, NotebookLM מתמקד בסביבה סגורה ומקורקעת, מסמכים, קבצים, סרטונים ומקורות ייעודיים שהוזנו אליו מראש. עם המעבר לליבת Gemini 3 והוספת יכולות מתקדמות לעבודה עם נתונים מובנים, הכלי מתרחב מעבר לסיכום טקסטים והופך לשכבת […]

הפוסט NotebookLM עולה כיתה בעידן Gemini 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>
מאז השקתו, NotebookLM נשען על עיקרון אחד ברור: עבודה עם מקורות שהמשתמש בוחר ומספק. בניגוד לצ׳אטבוטים כלליים הפועלים על ידע רחב מהאינטרנט הפתוח, NotebookLM מתמקד בסביבה סגורה ומקורקעת, מסמכים, קבצים, סרטונים ומקורות ייעודיים שהוזנו אליו מראש. עם המעבר לליבת Gemini 3 והוספת יכולות מתקדמות לעבודה עם נתונים מובנים, הכלי מתרחב מעבר לסיכום טקסטים והופך לשכבת ניתוח וארגון ידע מתקדמת יותר, המתאימה גם לשימושים מקצועיים וארגוניים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המוח החדש: Gemini 3 והסקה רב-מודאלית

השדרוג המשמעותי ביותר מתרחש מאחורי הקלעים. המעבר ל-Gemini 3 אינו מתמקד רק בשיפור ביצועים, אלא בעיקר ביכולת להתמודד עם מידע מורכב בצורה עקבית ומקושרת יותר.

 

בגרסאות קודמות, חיבור בין סוגי מידע שונים היה לעיתים נקודת תורפה. לדוגמה, זיהוי קשר בין גרף במסמך PDF, טענה במסמך טקסט, וציטוט מתוך סרטון. Gemini 3 מחזק משמעותית את היכולת הרב מודאלית ומאפשר למערכת לנתח יחסים בין מקורות שונים, לזהות חפיפות, סתירות והשלמות, ולהציג את התמונה הרחבה בצורה ברורה יותר.

 

למה זה חשוב? בעבודה מקצועית, לא מספיק לקבל תשובה שנשמעת סבירה. נדרשים דיוק, עקביות והבנה של ההקשר שממנו המידע נובע. השדרוג מאפשר לשאול שאלות מורכבות שמחייבות הצלבת נתונים ממספר מקורות במקביל, תוך שמירה על שקיפות והפניה למקורות שעליהם מבוססת התשובה.

המהפכה המבנית עם Data Tables

עד לאחרונה, NotebookLM הצטיין בעיקר בסיכום וארגון של טקסטים. הפיצ’ר Data Tables מרחיב את היכולות הללו ומאפשר להפוך מידע לא מובנה לנתונים מובנים וברורים. המערכת יכולה לסרוק תמלילי פגישות, דוחות, מאמרים או מסמכי אפיון, ולחלץ מהם נתונים לטבלאות, כאשר כל שדה מקושר למקור שממנו נלקח.

דוגמת שימוש

אם תזינו חמישה דוחות רבעוניים של חברות שונות, ניתן לבקש יצירת טבלה המשווה בין מדדים כמו רווח נקי, הוצאות מחקר ופיתוח ותחזיות צמיחה. NotebookLM יבנה את הטבלה באופן אוטומטי ויאפשר לבדוק מהו המקור של כל נתון. המשמעות הפרקטית היא פחות עבודה ידנית, פחות טעויות אנוש, וחיסכון משמעותי בזמן שמוקדש לארגון וניתוח מידע.

ייצוא ל-Google Workspace

אחת הבעיות החוזרות בכלי AI היא ניתוק מתהליך העבודה עצמו. התובנות נשארות בתוך הצ׳אט, מנותקות מהמסמכים, הטבלאות והכלים שבהם העבודה האמיתית מתבצעת. NotebookLM מצמצם את הפער הזה באמצעות ייצוא ישיר ל-Google Workspace. במקום תוצר חד פעמי, ה-AI משתלב כשלב בתוך רצף העבודה היומיומי:

ייצוא ל-Google Docs

סיכומים, תובנות ומסמכי עבודה מועברים לפורמט עריך ונקי, שניתן להמשיך לעבוד עליו, לשתף ולהטמיע בתהליכים קיימים.

ייצוא ל-Google Sheets

טבלאות שנוצרו באמצעות Data Tables מיוצאות ישירות לגיליון, ומאפשרות המשך עבודה עם חישובים, פילוחים וגרפים, בלי צורך בהעתקה ידנית.

מה עובד, ולמה זה משנה

בסביבה שבה כלי AI מספקים תשובות מהירות אך לא תמיד ניתנות לאימות, הערך של NotebookLM נמצא ביכולת לעבוד עם מידע שניתן לבדוק, לבקר ולהצליב. הקרקוע למקורות, היכולת לחבר בין סוגי מידע שונים, והשילוב בתוך תהליך העבודה, יוצרים כלי שמעדיף עקביות וביקורתיות על פני תשובות “מרשימות”.

 

בפועל, השילוב בין Gemini 3, עבודה עם נתונים מובנים וייצוא ל-Workspace לא ממציא קטגוריה חדשה, אך כן משנה את אופי השימוש: פחות חיפוש אחר ניסוח, ויותר תמיכה בניתוח, השוואה וקבלת החלטות על בסיס מידע קיים.

3 טיפים למתקדמים: כך תפיקו יותר מ-Data Tables

1. הגדירו מבנה לפני הבקשה: במקום לבקש “צור טבלה”, הגדירו מראש מבנה ברור. לדוגמה: שם ישות, KPI מרכזי, סטטוס, וציטוט תומך מהמקור. הגדרה מוקדמת של העמודות מייצרת נתונים עקביים שקל להמשיך לעבוד איתם ב-Google Sheets.

2. השוו בין מקורות כדי לחשוף פערים: בקשה לטבלה שמשווה בין שני מסמכים או יותר על אותו נושא מאפשרת לזהות הבדלים, סתירות או חוסרים שקשה להבחין בהם בקריאה רציפה. זה שימוש שמדגיש את הערך האנליטי של הכלי, ולא רק את יכולת הסיכום שלו.

3. דייקו את הטבלה לפני הייצוא: הטבלה בתוך NotebookLM אינה תוצר סופי אלא סביבת עבודה. ניתן להוסיף עמודות, למזג שורות או לחדד קריטריונים עד שהמבנה משרת את המטרה. רק לאחר שהטבלה מדויקת וברורה, כדאי לייצא אותה ל-Docs או ל-Sheets.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

נכון לעדכון הנוכחי, יכולות Data Tables והייצוא המתקדם זמינות למנויי Google AI Pro ו-Ultra, עם פתיחה מדורגת למשתמשים חינמיים. כמו בכל מוצר מתפתח, הזמינות וההיקף עשויים להשתנות, אבל הכיוון כבר ברור – NotebookLM עובר בחודשים האחרונים אבולוציה שקטה אבל מאוד משמעותית.

 

השילוב בין Gemini 3, עבודה עם נתונים מובנים וייצוא ישיר ל-Google Workspace ממקם אותו מעבר לכלי למידה או סיכום בלבד, כעזר מעשי לניתוח, השוואה וקבלת החלטות על בסיס מידע שניתן לבדוק ולבקר. עבור מי שעובד עם כמויות גדולות של ידע, זה כבר לא רק כלי תומך, אלא שכבת חשיבה שמתחברת ישירות לאופן שבו העבודה מתבצעת בפועל.

הפוסט NotebookLM עולה כיתה בעידן Gemini 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/notebooklm-with-gemini3/feed/ 1
מה באמת קורה בכיתה ובראש של “דור ה-AI”? https://letsai.co.il/ai-generation-classroom/ https://letsai.co.il/ai-generation-classroom/#respond Fri, 26 Dec 2025 09:45:14 +0000 https://letsai.co.il/?p=66987 פעם, בשנת 2002, החידוש הגדול היה גוגל. זה הרגיש כמו קסם, קיצור דרך לתשובות. עבור התלמידים של היום, הקסם הזה השתנה. התשובות לא רק מופיעות על המסך, הן מנהלות שיחה, מסבירות רעיונות ומציעות ניסוחים. על הרקע הזה, דו”ח מחקרי חדש של Oxford University Press, גוף ההוצאה האקדמי של אוניברסיטת אוקספורד, בחן כיצד בינה מלאכותית משפיעה […]

הפוסט מה באמת קורה בכיתה ובראש של “דור ה-AI”? הופיע ראשון בLet's AI בינה מלאכותית

]]>
פעם, בשנת 2002, החידוש הגדול היה גוגל. זה הרגיש כמו קסם, קיצור דרך לתשובות. עבור התלמידים של היום, הקסם הזה השתנה. התשובות לא רק מופיעות על המסך, הן מנהלות שיחה, מסבירות רעיונות ומציעות ניסוחים. על הרקע הזה, דו”ח מחקרי חדש של Oxford University Press, גוף ההוצאה האקדמי של אוניברסיטת אוקספורד, בחן כיצד בינה מלאכותית משפיעה בפועל על חוויית הלמידה של תלמידים. המחקר, שהתבסס על סקר של כ-2,000 תלמידים בגילאי 13-18 ברחבי בריטניה, מצביע על שינוי עמוק בהרגלי הלמידה: כ-80% מהתלמידים כבר משתמשים בבינה מלאכותית לצרכים לימודיים. אך מאחורי הנתון המרשים הזה מסתתר מתח פחות מדובר, בין תחושת העצמה לבין חשש אמיתי מהמחיר הלימודי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

השותף החדש לספסל הלימודים

התלמידים לא משתמשים ב-AI רק כדי “לחפף”. לפי המחקר, רוב גדול מהם מדווח שהכלי סייע להם לפתח מיומנויות כמו פתרון בעיות, חשיבה יצירתית וארגון זמן. אחד התלמידים, בן 17, תיאר זאת בפשטות: “ה-AI לוקח את מה שאני מנסה להגיד ומסדר את זה בצורה שאחרים יכולים להבין”.

 

עבורם, זה לא “מנוע חיפוש” אלא שותף למחשבה. כלי שמסייע לפרק בעיות, לנסח רעיונות ולגשר בין מחשבה לא מנוסחת לבין טקסט כתוב. ה-AI משמש הן לפישוט של תכנים מורכבים והן כשלב ביניים בתהליך החשיבה עצמו.

 

אך לצד האימוץ הנרחב, מופיעה גם הסתייגות ברורה. יותר ממחצית מהתלמידים מביעים חשש שהשימוש ב-AI פוגע במקוריות שלהם. חלקם מודים בכנות: “זה הופך את הלימודים לקלים מדי ולא תמיד מאתגר אותי”.

 

התחושה שחוזרת בדברי התלמידים היא של תלות הולכת וגוברת. ה-AI מאפשר התקדמות מהירה ויעילה, אך במקביל מעלה חשש משחיקה של מאמץ קוגניטיבי עצמאי, במיוחד בשלבים המוקדמים של הלמידה.

משבר האמון: מי יגיד לנו מה נכון?

אחת הסוגיות המטרידות ביותר שעולות מהמחקר היא מה שניתן לכנות “עיוורון למידע”. כשליש מהתלמידים מודים שאינם יודעים להבחין אם המידע שמייצר ה-AI הוא מדויק או שגוי.

 

בפועל, יותר ממחצית מהתלמידים אינם חשים ביטחון מלא ביכולתם להעריך את אמינות התוכן שמופק עבורם. התשובות ניתנות לעיתים בניסוח בטוח ומשכנע, אך ללא כל מנגנון מובנה שמסייע לתלמידים לזהות הטיות, חוסרים או טעויות עובדתיות. עבור רבים מהם, עצם הביטחון שבו התשובה מוצגת מתפרש כאמינות.

 

פחות ממחצית מהתלמידים בבריטניה חשים ביטחון ביכולתם לזהות אם מידע שמופק על ידי מערכות AI הוא נכון או שגוי.

האם מידע שמופק על ידי מערכות AI הוא נכון או שגוי? מקור: Oxford University Press.

 

על רקע זה, כמחצית מהתלמידים מביעים צורך ברור בהכוונה מצד המורים. הם אינם מבקשים פיקוח או ענישה, אלא מסגרת שתעזור להם לפתח שיקול דעת ביקורתי בשימוש בכלים הללו.

 

עם זאת, כאן מתגלה פער נוסף: כמעט שליש מהתלמידים אינם בטוחים שלמורים שלהם יש את הידע או הביטחון הדרושים כדי להנחות שימוש מושכל ב-AI. הם מצפים מהמורים לשמש כמצפן, אך חוששים שהמצפן עצמו עדיין לא כויל למציאות החדשה.

לאן ממשיכים? תובנות למחנכים ולהורים

התלמידים לא מחפשים להחליף מורים במערכות אוטומטיות. להפך, הם מביעים צורך גובר בקשר אנושי, במשוב איכותי ובהבנה אמפתית של תהליך הלמידה. אלה מרכיבים שה-AI, מתוחכם ככל שיהיה, אינו יכול לספק. תפקידו של המורה אינו מתבטל בעידן הזה, אלא משתנה: ממקור ידע בלעדי למנחה, מפרש ומכוון חשיבה.

 

מעניין לציין שכאשר שואלים את התלמידים עצמם כיצד היו רוצים להשתמש ב-AI בלמידה, התשובה היא לא “שיכתוב במקומי”, אלא סיוע בתכנון, משוב וזיהוי טעויות.

 

תלמידים תופסים את ה-AI בעיקר ככלי לתכנון, משוב וביקורת על עבודתם, ולא כתחליף לתהליך החשיבה.

תלמידים תופסים את ה-AI בעיקר ככלי לתכנון, משוב וביקורת על עבודתם. מקור: Oxford University Press.

 

מכאן נובע האתגר המרכזי של שנת 2026. השאלה איננה כיצד למנוע שימוש ב-AI, אלא כיצד להפוך אוריינות בינה מלאכותית לחלק מובנה מתהליך הלמידה. המשימה היא לעבור מתפיסה של ה-AI כקיצור דרך לפתרונות, לתפיסה שלו כשותף לביקורת ולחשיבה.

 

במקום לאסור על כתיבת עבודות מחוץ לכיתה, ניתן לדרוש מהתלמידים להביא טיוטה שנוצרה בעזרת AI ולנתח אותה – לזהות כשלים לוגיים, לאתר הנחות שגויות ולהסביר מדוע המסקנות אינן בהכרח תקפות. זהו תרגול של חשיבה ביקורתית, לא של ציות.

 

בסופו של דבר, התלמידים כבר פועלים בתוך המציאות הזו. הם משתמשים בכלים, מפיקים מהם ערך, אך גם מודעים למגבלות ולסיכונים. מעניין לציין שהתלמידים עצמם אינם מבקשים מה-AI להחליף את עבודת החשיבה, אלא בעיקר לשמש ככלי למשוב, תכנון ותרגול – חיזוק נוסף לכך שהשאלה המרכזית איננה עצם השימוש בטכנולוגיה, אלא האופן שבו היא משולבת בלמידה.

 

הם אינם זקוקים להדרכה טכנית בלבד, אלא לנוכחות בוגרת שמבינה את הטכנולוגיה, מכירה את חולשותיה, ומסייעת לשמור על המחשבה האנושית כמרכיב המרכזי בתהליך הלמידה, גם בעולם רווי אלגוריתמים.

 

לדו״ח המלא של Oxford University Press, כנסו כאן.

הפוסט מה באמת קורה בכיתה ובראש של “דור ה-AI”? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-generation-classroom/feed/ 0
אנטרופיק מגבירה את ההגנה על משתמשי Claude https://letsai.co.il/claude-safety-upgrade/ https://letsai.co.il/claude-safety-upgrade/#respond Thu, 25 Dec 2025 07:39:58 +0000 https://letsai.co.il/?p=66862 אנטרופיק חשפה ב-18 בדצמבר 2025 מערך צעדים טכנולוגיים שנועדו להפוך את השימוש ב-Claude לבטוח יותר. החברה פרסמה פרטים מפורטים על שלוש יוזמות מרכזיות: מערכת זיהוי מצוקה נפשית בזמן אמת, הפחתה של 70-85% בנטייה של המודל להתחנף למשתמש, ואכיפה מחמירה יותר של דרישת הגיל המינימלי.   זיהוי מצוקת נפש בזמן אמת החברה הטמיעה מסווג (classifier) בפלטפורמת […]

הפוסט אנטרופיק מגבירה את ההגנה על משתמשי Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק חשפה ב-18 בדצמבר 2025 מערך צעדים טכנולוגיים שנועדו להפוך את השימוש ב-Claude לבטוח יותר. החברה פרסמה פרטים מפורטים על שלוש יוזמות מרכזיות: מערכת זיהוי מצוקה נפשית בזמן אמת, הפחתה של 70-85% בנטייה של המודל להתחנף למשתמש, ואכיפה מחמירה יותר של דרישת הגיל המינימלי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

זיהוי מצוקת נפש בזמן אמת

החברה הטמיעה מסווג (classifier) בפלטפורמת Claude.ai – מדובר על מודל AI קטן שרץ ברקע וסורק שיחות בזמן אמת כדי לזהות סימנים לאובדנות או פגיעה עצמית. כאשר המערכת מזהה סיכון, היא מציגה הודעת התראה בולטת בתוך ממשק השיחה (באנר) שמפנה את המשתמש ישירות לגורמי מקצוע ולקווי סיוע במדינה שלו.

 

המשאבים בבאנר מסופקים על ידי ThroughLine, ארגון שמתמחה בתמיכה במשבר מקוון ומנהל רשת מאומתת של קווי עזרה ושירותים ב-170 מדינות. המשתמש יכול לבחור בין שיחה עם איש מקצוע מוסמך, התקשרות לקו חירום, או גישה למשאבים מקומיים.

 

איך זה עובד בעצם? המסווג מזהה רגעים שבהם משתמש מביע מחשבות אובדניות, או אפילו תרחישים בדיוניים שמתמקדים באובדנות או בפגיעה עצמית. החברה מדגישה שהמערכת אינה מושלמת ויכולה לפספס מקרים או לזהות בטעות מקרים תקינים כמסוכנים (false positives).

98.6-99.3% תגובות מתאימות במצבי משבר

אנטרופיק בדקה את ביצועי המודלים החדשים – Opus 4.5, Sonnet 4.5 ו-Haiku 4.5 – במספר סוגי הערכות. במבחן הבסיסי – כאשר המשתמש שולח הודעה בודדת הקשורה לאובדנות או לפגיעה עצמית – המודלים הגיבו באופן מתאים ב-98.6%, 98.7% ו-99.3% מהמקרים, בהתאמה. הדור הקודם, Claude Opus 4.1, הגיע ל-97.2%.

 

מעבר לכך, החברה בדקה מה קורה כשהשיחה כבר נסחפה למקום בעייתי. במבחן מורכב יותר, החוקרים לקחו שיחות אמיתיות שבהן משתמשים הביעו מצוקה נפשית, והציגו אותן למודל החדש באמצע השיחה כדי לראות אם הוא מסוגל לתקן את המסלול. במבחן הזה, Opus 4.5 הגיב באופן מתאים ב-70% מהמקרים ו-Sonnet 4.5 ב-73%, לעומת רק 36% ב-Opus 4.1.

70-85% פחות התחנפות

Sycophancy (התחנפות) הוא מושג שמתאר נטייה של מודלי AI להסכים עם המשתמש גם כשהוא טועה, במקום להגיד לו את האמת. התופעה הזו מסוכנת במיוחד כשהמשתמש חווה התנתקות מהמציאות או חושב מחשבות הזויות – במקרים אלה, הסכמה מהמודל יכולה לחזק אמונות שגויות או מזיקות.

החברה מודדת את רמת ההתחנפות באמצעות סימולציה אוטומטית: מודל Claude אחד משחק את תפקיד המשתמש הבעייתי ומנסה “להדביק” את המודל הנבדק בטעויות למשך עשרות הודעות. אחר כך, מודל שלישי בוחן את התשובות ומעריך עד כמה המודל הנבדק עמד בלחץ ולא התחנף. החברה עושה בדיקות ידניות נקודתיות כדי לוודא שהמערכת מדויקת.

 

במבחנים האלה, המודלים החדשים (Opus 4.5, Sonnet 4.5 ו-Haiku 4.5) הציגו ציון נמוך יותר ב-70-85% הן בהתחנפות והן בעידוד הזיות של המשתמש, לעומת Opus 4.1 – שעצמו נחשב למודל עם רמת התחנפות נמוכה מאוד.

 

אנטרופיק גם פרסמה את כלי ההערכה Petri כקוד פתוח, כך שכל אחד יכול להשוות ציונים בין מודלים. לפי הבדיקות שהחברה עשתה בנובמבר 2025, משפחת המודלים 4.5 ביצעה טוב יותר בהערכת ההתחנפות של Petri מכל שאר המודלים המובילים באותו זמן.

המחיר של הירידה בהתחנפות

במבחן נוסף שבדק עד כמה המודלים מצליחים לתקן שיחות שכבר במסלול בעייתי, התוצאות היו מעורבות. Haiku 4.5 תיקן באופן מתאים 37% מהמקרים, Sonnet 4.5 רק 16.5%, ו-Opus 4.5 – רק 10%.

 

אנטרופיק מסבירה שזה משקף איזון מכוון בין ידידותיות המודל לבין נכונות להתעמת עם המשתמש. Haiku 4.5, המודל הזול והקטן, אומן להתעמת בצורה ישירה יותר – מה שלפעמים נתפס כאגרסיבי מדי. לעומתו, Opus 4.5, מודל הדגל היקר, אומן לשמור על אווירה נעימה גם כשהוא מתקן את המשתמש.

אכיפה נגד קטינים

השימוש ב-Claude מותר מגיל 18 בלבד. כל משתמש חדש נדרש לאשר בעת ההרשמה שהוא מעל גיל 18, אבל עד עכשיו זה היה פשוט וי בתיבת סימון – בלי אימות אמיתי.

עכשיו אנטרופיק מפתחת שני מנגנוני אכיפה:

1. זיהוי ישיר: אם משתמש מזדהה בשיחה כקטין (“אני בן 15”), המערכת מסמנת את החשבון לבדיקה וחוסמת אותו לאחר אישור ידני.

2. זיהוי סימנים עקיפים: החברה מפתחת מסווג חדש שמנתח דפוסי שיחה כדי לזהות סימנים שהמשתמש עשוי להיות קטין – כמו סגנון שפה, נושאים חוזרים (למשל: בית ספר, מבחנים, הורים), או דפוסי התנהגות אופייניים לגילאים צעירים.

 

לשם כך, אנתרופיק הצטרפה ל-Family Online Safety Institute (FOSI), ארגון שפועל למען חוויות מקוונות בטוחות לילדים ולמשפחות.

 

יוזמות הבטיחות המרכזיות של אנטרופיק

יוזמות הבטיחות המרכזיות של אנטרופיק

 

חשוב לקחת בחשבון כמובן, שהמודלים עלולים לטעות – בדיוק כמו Google, שהשיקה מערכת זיהוי גיל מבוססת AI מוקדם יותר השנה ונתקלה בתלונות של משתמשים בוגרים שזוהו בטעות כקטינים ונאלצו להעלות מסמכי זהות.

הדילמות שמאחורי המספרים

הנתונים של אנטרופיק אינם רק דוח התקדמות, אלא מפה של “אזורי הקרב” החדשים בבינה מלאכותית. הם מעלים שאלות כבדות משקל שנותרו ללא מענה סופי:

1. פער היכולת: זיהוי אינו פתרון

ההישג המרשים של 99% זיהוי מצוקה מציב זרקור על הפער הטכנולוגי העמוק: היכולת של המודל לתקן שיחה שכבר במסלול בעייתי נותרה נמוכה (10% ב-Opus). השאלה המקצועית כאן היא האם שקיפות מספיקה? הצגת הודעת ההתראה היא צעד חיוני, אך היא חושפת את המגבלה המבנית של מודלי שפה ב-2025: הם יודעים “לקרוא את החדר” מצוין, אך עדיין מתקשים להוביל בו שינוי התנהגותי מורכב.

2. מחיר ה”חמימות”

אנטרופיק חושפת כאן דילמה מוצרית מהותית: המודל היקר והמתקדם ביותר (Opus) אומן להיות “חמים” יותר על חשבון אסרטיביות בתיקון טעויות. זו אינה בהכרח בחירה צינית, אלא תעדוף של חוויית המשתמש. המשימה לייצר AI שהוא גם סמכותי וגם ידידותי מתגלה כאחד האתגרים הטכנולוגיים הקשים ביותר, וכרגע נראה שהחברה בוחרת בשימור הקשר השיחתי עם המשתמש כערך עליון.

3. דילמת ההגנה מול הפרטיות

המעבר לאכיפת גיל מבוססת דפוסי התנהגות מציב את אנטרופיק בתוך המלכוד הקלאסי של עידן המידע: הגנה על קטינים מול הימנעות מ”פרופיילינג”. ללא אימות זהות ממשלתי, החברה נאלצת להשתמש בניתוח של שפת המשתמש, הנושאים שעליהם הוא מדבר, ואופן הכתיבה שלו. זוהי בחירה בין שתי אפשרויות קשות, והיא מעלה את השאלה האם המחיר של בטיחות קטינים הוא בהכרח ויתור על פרטיות האופן שבו אנחנו מתבטאים.

4. Petri: קביעת הסטנדרט לאמת

שחרור כלי ההערכה Petri כקוד פתוח הוא צעד של מנהיגות בתעשייה, אך הוא נושא אחריות עצומה. על ידי הגדרת המדדים ל”התחנפות”, אנתרופיק אינה מייצרת מונופול, אלא מתווה את הנורמה. השאלה שנותרה פתוחה היא האם הגדרת ה”אמת” כפי שהיא מופיעה בקוד של Petri רחבה מספיק כדי להכיל את המורכבות של שיחה אנושית, או שהיא מצמצמת אמת למה שניתן למדוד במעבדה.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

לסיכום, המהלכים האחרונים של אנטרופיק מוכיחים שבטיחות בבינה מלאכותית היא כבר לא רק “תיבת סימון” שיווקית, אלא שדה קרב טכנולוגי ופילוסופי. המספרים מראים שיפור ברור בזיהוי, אך הם גם חושפים את “תקרת הזכוכית” הנוכחית: היכולת לזהות בעיה (99%) עדיין עולה בהרבה על היכולת לתקן אותה בזמן אמת (10-37%).

 

הדילמות שנותרו על השולחן:

  • חמימות מול אמת: האם אנחנו מוכנים למודל שיהיה פחות “נחמד” כדי להיות יותר מדויק?

  • הגנה מול פרטיות: האם המחיר של שמירה על קטינים הוא ויתור על האנונימיות ההתנהגותית שלנו?

  • שקיפות מול אפקטיביות: האם הצגת באנר היא פתרון מספק, או רק “עזרה ראשונה” זמנית?

 

הצעדים של אנטרופיק – מהשותפויות עם ארגוני משבר ועד שחרור כלי ה-Petri כקוד פתוח – מצביעים על רצון כנה להפוך את הבטיחות לסטנדרט תעשייתי משותף ולא לנכס פרטי.

 

אז בשורה התחתונה, כמשתמשים, עלינו לזכור שהמערכות הללו עדיין בשלבי למידה. אם נתקלתם בהודעת התראה, התייחסו אליה ברצינות, היא מבוססת על משאבים מאומתים של מומחי משבר. ובכל הנוגע לקטינים, האחריות נותרת עלינו – Claude אינו מיועד לילדים, והכלים החדשים הם רק שכבת הגנה נוספת בתוך עולם שעדיין מעצב את גבולותיו.

הפוסט אנטרופיק מגבירה את ההגנה על משתמשי Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-safety-upgrade/feed/ 0
שופיפיי מעבירה הילוך ומעצבת מחדש את הדרך שבה חנויות מקבלות החלטות https://letsai.co.il/shopify-winter-2026/ https://letsai.co.il/shopify-winter-2026/#respond Mon, 22 Dec 2025 14:12:43 +0000 https://letsai.co.il/?p=66772 יש עדכוני מוצר שמרגישים כמו עוד שכבת צבע. ויש עדכונים שמזיזים קיר. מהדורת החורף של שופיפיי ל-2026 שייכת לסוג השני. לא בגלל פיצ׳ר אחד מרשים, אלא בגלל שינוי תפיסה שקט אבל עמוק: החנות כבר לא רק מגיבה למה שקורה בה, היא מתחילה לחשוב, לדמות, ולהתערב בזמן אמת. שופיפיי קוראת למהדורה הזו Renaissance, וזה לא מיתוג […]

הפוסט שופיפיי מעבירה הילוך ומעצבת מחדש את הדרך שבה חנויות מקבלות החלטות הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש עדכוני מוצר שמרגישים כמו עוד שכבת צבע. ויש עדכונים שמזיזים קיר. מהדורת החורף של שופיפיי ל-2026 שייכת לסוג השני. לא בגלל פיצ׳ר אחד מרשים, אלא בגלל שינוי תפיסה שקט אבל עמוק: החנות כבר לא רק מגיבה למה שקורה בה, היא מתחילה לחשוב, לדמות, ולהתערב בזמן אמת. שופיפיי קוראת למהדורה הזו Renaissance, וזה לא מיתוג ריק. אחרי שנים שבהן AI שימש בעיקר לכתיבת טקסטים או שיפור תמונות, Winter ’26 מסמן מעבר לשלב הבא. ה-AI כבר לא תוסף. הוא הופך לשכבת תפעול.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

לפני שלקוחות נכנסים, החנות כבר מתאמנת

אחת ההכרזות המסקרנות ביותר היא SimGym. שופיפיי מתארת אותו כ”סימולטור טיסה” לחנות. הרעיון פשוט אך חכם: לפני שמשנים ניווט, צ׳ק-אאוט או דף מוצר, למה לנסות על לקוחות אמיתיים?

 

SimGym משתמש בסוכני AI שמדמים התנהגות של קונים. הם גולשים, נתקעים, מוותרים, או משלימים רכישה. זה לא A/B Testing, ושופיפיי מקפידה להדגיש זאת. מדובר בסימולציה מוקדמת, כלי שמטרתו לתת אינדיקציות, לא הוכחות.

 

החשיבות כאן היא לא הטכנולוגיה עצמה, אלא למי היא מיועדת. חנויות קטנות ובינוניות, שאין להן טראפיק שמצדיק ניסויים יקרים, מקבלות סוף סוף דרך לראות בעיות לפני שהן עולות כסף. SimGym עדיין נמצא ב-Preview, אבל הכיוון ברור: פחות ניחושים, יותר הכנה.

מהסימולציה למציאות

כאן נכנס Rollouts, כלי חדש שנועד להשלים את התמונה. אם SimGym שייך לעולם של “מה יקרה אם”, Rollouts עוסק ב”מה באמת קורה”.

 

Rollouts מאפשר לתזמן שינויים בתמה ולהריץ ניסויי A/B ישירות מתוך ה-Admin. בלי פתרונות צד ג׳, בלי אלתורים. שינוי יכול לעלות בהדרגה, להיבדק על חלק מהטראפיק, ולהיעצר אם משהו משתבש.

 

זה נשמע טריוויאלי, אבל עבור הרבה סוחרים זו ממש מהפכה שקטה. ניסויים הופכים מתהליך מפחיד ומורכב להרגל עבודה. Rollouts עדיין בהשקה מדורגת, אבל עצם החיבור בינו לבין SimGym מספר סיפור ברור: שופיפיי בונה תהליך, לא פיצ׳ר.

ה-AI מפסיק להסביר ומתחיל לעבוד

אם יש פיצ׳ר אחד שממחיש את שינוי התפיסה, זה Sidekick. בעבר הוא היה עוזר ששואל ועונה. עכשיו הוא שותף שמבצע.

 

Sidekick מקבל יכולות פרואקטיביות. הוא מציע תובנות, בונה אוטומציות ב-Flow, מייצר דוחות, ומבצע עריכות עיצוב ותמונות בשפה טבעית. לא מדובר בקסם, אלא בהורדת חיכוך. משימות שדרשו חיפוש, ידע טכני או עזרה חיצונית, מתקצרות לשיחה אחת.

 

הערך האמיתי של Sidekick הוא לא במה שהוא יודע לעשות, אלא במה שהוא חוסך. פחות זמן על אדמין, יותר זמן על החלטות. זה עדיין לא מחליף אנשי מקצוע, אבל הוא כן משנה את נקודת האיזון.

הקנייה זזה לשיחה, והחנות צריכה להיות שם

במקביל לשיפור התפעול, שופיפיי מסתכלת החוצה. Agentic Storefronts הוא השם שלה למהלך שאפתני – להפוך מוצרים לניתנים לגילוי ורכישה בתוך שיחות AI.

הלקוח כבר לא מחפש “מעיל חורף”. הוא מבקש מה-AI המלצה. שופיפיי בונה תשתית שמאפשרת למוצרים להופיע כחלק מהתשובה, עם אפשרות להתחיל רכישה בלי לצאת מהשיחה.

זה לא ערוץ שמחליף את האתר, אלא כזה שמתווסף אליו. המשמעות עבור סוחרים ברורה – מי שהדאטה שלו מבולגן פשוט לא יופיע. קטגוריות, metafields (הדרך להגיד למערכת בדיוק מה המוצר שלכם), תיאורים עקביים – כל מה שנחשב בעבר SEO טכני הופך לתנאי כניסה לעולם החדש.

יציבות מתחת למכסה המנוע

לצד החידושים הגדולים, Winter ’26 כולל שדרוגים תשתיתיים שפותרים כאבים ישנים. הגדלת מגבלת הוריאנטים ל-2,048 אולי לא עושה כותרות, אבל עבור מותגים עם קטלוג מורכב זו הקלה אמיתית. פחות אפליקציות חיצוניות, פחות עומס, יותר שליטה.

גם חוויית בניית החנות מתייעלת. עבודה ישירה מתוך ה-Theme editor, שיפורים לתמות, וכלים שמקצרים את המרחק בין רעיון לביצוע. אלו לא מהפכות, אלא ליטושים שמצטברים.

אז איך מתכוננים למעשה?

אחרי שמניחים את כל הבאז בצד, המסר של Winter ’26 פשוט למדי: מי שהחנות שלו “קריאה” למכונה, יעבוד טוב יותר בכל שכבת AI ששופיפיי בונה. ההכנה לא דורשת פיתוח מתקדם או כלים חדשים, אלא בעיקר סדר.

 

קטלוג שמסווג נכון, מידע שמוזן בשדות מובנים ולא רק בטקסט חופשי, ותיאורי מוצר שעונים על שאלות אמיתיות של לקוחות, כל אלה הופכים את החנות לברורה יותר לא רק ללקוחות, אלא גם למערכות שמנסות להבין, להשוות ולהמליץ. גם עקביות בפרטים קטנים כמו וריאנטים, שמות וצבעים מונעת בלבול, ומאפשרת ל-AI לעבוד בצורה מדויקת יותר.

 

אפילו פרטים שנראו בעבר שוליים, כמו תיאורי Alt לתמונות, הופכים לחלק ממנגנון הגילוי וההמלצה. זו לא רשימת דרישות טכנית, אלא שינוי גישה: במקום לבנות חנות רק לאנשים, בונים חנות שגם מכונות יודעות לקרוא. מי שיעשה את זה עכשיו, ימצא את עצמו מוכן הרבה יותר כשהכלים של Winter ’26 יפסיקו להיות ניסיוניים ויהפכו לשגרה.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

Winter ’26 היא לא מהדורה של “עוד AI”. היא מהדורה של תהליך. שופיפיי מחברת בין סימולציה, ניסוי, תפעול והפצה, ומנסה להפוך אותם לזרימה אחת. המסר לסוחרים הוא שהעתיד לא שייך למי שמוסיף הכי הרבה פיצ׳רים, אלא למי שמחזיק דאטה מסודר, תהליכים ברורים, ויכולת ללמוד מהר.

 

מי שיתייחס ל-AI כגימיק, יישאר מאחור. מי שיראה בו שכבת עבודה, יגלה שהחנות שלו כבר לא רק מוכרת – היא משתפרת. וזה אולי החידוש החשוב ביותר של חורף 2026.

 

אם אתם מעוניינים להכיר את כל החידושים באתר שופיפיי, כנסו כאן. אם תרצו לראות את סרטון ההשקה המלא של מהדורת החורף, כנסו פה.

הפוסט שופיפיי מעבירה הילוך ומעצבת מחדש את הדרך שבה חנויות מקבלות החלטות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/shopify-winter-2026/feed/ 0
איך בינה מלאכותית משנה את העבודה באנטרופיק – ומה זה אומר על העתיד שלנו https://letsai.co.il/ai-transforming-work-anthropic/ https://letsai.co.il/ai-transforming-work-anthropic/#respond Tue, 09 Dec 2025 07:46:13 +0000 https://letsai.co.il/?p=65652 אם רוצים להבין איך תיראה העבודה של מהנדסים ואנשי ידע בעוד כמה שנים, כדאי להסתכל על מה שקורה היום באנטרופיק. זו לא מצגת חזון על “עתיד העבודה”, אלא תיאור יחסית נדיר של מה קורה כש-AI נכנס עמוק ליום עבודה אמיתי, אצל האנשים שבונים את המודלים בעצמם. אנטרופיק, החברה שפיתחה את Claude, סקרה כ-132 מהנדסים, ערכה […]

הפוסט איך בינה מלאכותית משנה את העבודה באנטרופיק – ומה זה אומר על העתיד שלנו הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם רוצים להבין איך תיראה העבודה של מהנדסים ואנשי ידע בעוד כמה שנים, כדאי להסתכל על מה שקורה היום באנטרופיק. זו לא מצגת חזון על “עתיד העבודה”, אלא תיאור יחסית נדיר של מה קורה כש-AI נכנס עמוק ליום עבודה אמיתי, אצל האנשים שבונים את המודלים בעצמם. אנטרופיק, החברה שפיתחה את Claude, סקרה כ-132 מהנדסים, ערכה 53 ראיונות עומק וניתחה בערך 200 אלף סשנים של Claude Code כדי להבין איך העבודה שלהם משתנה. לפי הדיווח של המהנדסים, Claude מעורב היום בכ-60% מהעבודה שלהם, והם מדווחים על עלייה ממוצעת של כ-50% בפרודוקטיביות בהשוואה לעבודה בלי AI. שנה קודם, השימוש היה סביב 28% מהעבודה והעלייה בפרודוקטיביות הוערכה בכ-20%.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

לפני שממשיכים, חשוב לזכור את המסגרת: זה מחקר פנימי של חברה מסחרית, על מהנדסים שהם משתמשים מתקדמים במיוחד, והמדדים מבוססים ברובם על דיווח עצמי. אין כאן מדידה אובייקטיבית של תפוקה לאורך שנים, אלא צילום מצב עשיר של איך אנשים מרגישים ועובדים בתוך אחד מארגוני ה-AI הכי מתקדמים. ובדיוק בגלל זה, מה שקורה שם הוא כנראה הצצה מוקדמת למה שעוד יגיע לשאר השוק.

לא רק לחסוך זמן – לעשות עבודה שלא הייתה קיימת

הנתונים היבשים מספרים סיפור אחד. העדויות מהשטח מספרות סיפור קצת אחר.

 

על פניו, המספרים מרשימים – יותר שימוש ב-AI, קפיצה בתחושת הפרודוקטיביות, ואפילו קבוצה של כ-14% מהנדסים שמתארים קפיצה של יותר מפי 2 בתפוקה. אבל כשמסתכלים על איך המהנדסים מתארים את היום יום, מתגלה ניואנס חשוב – זה פחות “אני עושה את אותה עבודה בחצי זמן”, ויותר “אני מספיק הרבה יותר דברים שלא היו נכנסים לי בכלל ללו״ז”.

 

השפעת Claude על זמן לעומת תפוקה

השפעת Claude על זמן לעומת תפוקה | Anthropic

 

בערך 27% מהעבודה שנעשית היום עם Claude, לפי הסקר, פשוט לא הייתה נעשית בלעדיו. מהנדסים מדברים על:

  • תיקון באגים קטנים ומעצבנים שהיו נדחים שוב ושוב.

  • בנייה של כלים פנימיים ודאשבורדים שמשפרים את החיים בצוות, אבל אף פעם לא נכנסו ל”עדיפויות”.

  • עבודת חקר טכנית שלא הייתה כדאית אם היו צריכים לבצע אותה ידנית.

חוקר אחד מתאר שהוא מריץ כמה מופעי Claude במקביל, שכל אחד בודק כיוון אחר לפתרון בעיה. הוא מסביר שאנשים חושבים על מודלים מתקדמים כמו על “מכונית מהירה יותר”, אבל בפועל זה יותר כמו “יש לך כוח סוס כמעט אינסופי לבדוק רעיונות”. זה שינוי לא רק בכמה מהר עובדים, אלא בכמה אפשר לנסות.

מהנדסים כמנהלי אורקסטרציה, לא רק ככותבי קוד

שינוי נוסף שמופיע שוב ושוב בראיונות הוא הרחבת תחומי המומחיות בפועל. הגבולות המסורתיים של “אני Backend”, “אני Frontend”, “אני רק מחקר” נפתחים. מהנדסי Backend מספרים איך הם בונים ממשקי משתמש מורכבים בעזרת Claude. חוקרים יוצרים ויזואליזציות נתונים ואוטומציות סביב הניסויים שלהם. צוותי אבטחה משתמשים ב-Claude כדי לקרוא ולנתח קוד שהם לא מכירים.

 

אחד המהנדסים מספר שהצליח, בעזרת Claude, לבנות ממשק משתמש ברמת איכות שבחיים לא היה מגיע אליה לבדו בזמן שהיה לו. המעצבים שאלו אותו אם הוא פתאום נהיה מומחה UI. הוא ענה את האמת: “Claude בנה, אני רק ניהלתי.” התפקיד זז לאט לאט מכותב קוד למנהל אורקסטרציה – זה שמפרק את הבעיה, מנסח את הדרישות למודל, בודק את הפלטים, מחבר אותם למערכת הקיימת ולוקח אחריות על התוצאה.

 

תדירות המשימות ב-Claude Code לפי קטגוריות

עלייה חדה במימוש פיצ’רים, תכנון ו-Front-End תוך חצי שנה | Anthropic

 

הנתונים מ-Claude Code מחזקים את זה. אנטרופיק מדווחת שבסשן טיפוסי, המודל מחזיק היום בערך פי שניים יותר “צעדים ברצף” לפני שהוא צריך קלט חדש מהמשתמש ביחס ללפני חצי שנה. שיעור המשימות שעוסקות בתכנון ועיצוב קוד עלה מאזור האחוז הבודד לכ-10%. מימוש פיצ’רים חדשים קפץ מכ-14% לכמעט 37% מהשימוש. המודל כבר לא רק “עוזר לכתוב פונקציה”, אלא מעורב בשלבים עמוקים יותר של בניית המוצר.

 

שיעור המהנדסים שמשתמשים ב-Claude מדי יום לכל קטגוריית משימה

שיעור המהנדסים שמשתמשים ב-Claude מדי יום לפי משימות | Anthropic

 

ועדיין, כששואלים את המהנדסים כמה מהעבודה הם יכולים “להאציל לגמרי” ל-Claude, רובם נשארים באזור 0-20 אחוז. הסיבה פשוטה – ברוב הזמן הם לא משחררים משימה ונעלמים, אלא עובדים עם Claude יחד, צעד אחרי צעד. זה לא רובוט אוטונומי, זה שותף שצריך ניהול.

 

עלייה באוטונומיה של Claude

עלייה באוטונומיה של Claude

 

חשוב לראות שהשינוי הזה אינו מתקיים רק בצוותי פיתוח. השימוש ב-Claude חוצה צוותים וסוגי תפקידים, וכל מחלקה משתמשת בו באופן אחר.

 

ככה נראית ההתפשטות הארגונית של העבודה האוטומטית:

 

שימוש ב-Claude לפי צוותים שונים

התפלגות משימות Claude Code לפי סוג צוות | Anthropic

מיומנויות, יחסים וזהות מקצועית

ככל שיותר מהעבודה עוברת דרך Claude, מתחילים לצוף גם צדדים פחות נוחים.

 

הראשון הוא שחיקה אפשרית של מיומנויות. לא בקפיצה אחת, אלא בשחיקה איטית. במקום לקרוא דוקומנטציה, לעבור על קוד לבד, ולהיאבק עם באגים, מהנדסים רבים מדלגים ישר לפתרון. חלקם אומרים במפורש שהם מרגישים שאיבדו חלק מה”חוש” שנבנה כשהיו עושים דברים “בדרך הקשה”.

 

מהנדס בכיר אומר שהוא משתמש ב-AI בעיקר במשימות שבהן הוא כבר יודע איך התשובה בערך צריכה להיראות, ולכן יכול לפקח על האיכות. הוא מוסיף שאם היה בתחילת הקריירה, כנראה היה צריך להשקיע הרבה יותר מאמץ מודע כדי לוודא שהוא לא פשוט מאמץ את מה שהמודל נותן.

 

כאן נוצר פרדוקס לא קטן – כדי לפקח על Claude היטב, צריך בדיוק את אותן מיומנויות שעלולות להישחק משימוש מוגזם בו. חלק מהמהנדסים מתארים שהם בכוונה עובדים לפעמים בלי AI, כדי להישאר חדים.

 

המחקר גם מצביע על שינוי ביחסים בין אנשים. Claude הפך לתחנה הראשונה לשאלות שפעם היו מופנות לעמיתים. מהנדסים מספרים שהם שואלים עכשיו הרבה יותר שאלות באופן כללי, אבל 80-90 אחוז מהן הולכות למודל. מצד אחד, זה חוסך “מבוכה” ופוגע פחות בזמן של אחרים. מצד שני, חלק מהבכירים אומרים בגלוי שזה עצוב לראות כמה פחות ג’וניורים מגיעים אליהם. המודל עושה אופטימיזציה לשאלה, אבל חונכות וקשרים אנושיים לא נבנים מעצמם.

 

ולבסוף, יש את השאלה הגדולה של הקריירה. חלק מהמהנדסים בעמדות בכירות מרגישים יחסית בטוחים. הם יודעים לקחת אחריות, לתכנן מערכות, לנהל סיכונים. אבל גם הם מודים שקשה להם להמר על אילו מיומנויות יהיו רלוונטיות בעוד חמש או עשר שנים. אחרים מנסחים תחושה קיצונית יותר: “אני מרגיש שאני בא לעבודה כל יום כדי לעבוד על הטכנולוגיה שייתכן שתהפוך אותי ואת עוד רבים ללא רלוונטיים.”

 

זה לא סיפור של “איום מיידי”. זה סיפור של מקצוע שנמצא בתנועה מתמשכת, בלי מפה ברורה.

 

 

מה אפשר ללמוד מזה מחוץ לאנטרופיק

אנטרופיק מדגישה שהמהנדסים שלה לא מייצגים את כל שוק העבודה. הם עובדים עם הכלים הכי מתקדמים, הם קרובים למודל, והתרבות הארגונית שלהם מותאמת לזה. אבל מה שקורה שם היום הוא לכל הפחות אזהרה מוקדמת, או אולי הזדמנות מוקדמת, לכל ארגון שמכניס AI לעבודה היומיומית.

 

יש כמה מסקנות שקשה להתעלם מהן:

1. AI באמת מגדיל תפוקה, אבל משנה את סוג העבודה: לא מדובר רק בקיצוץ זמן על משימות קיימות, אלא ביצירה של קטגוריות עבודה חדשות – ניסויים, כלים פנימיים, תיקונים קטנים. ארגונים שלא ימצאו דרך לתרגם את “עוד עבודה” הזאת לערך אמיתי, עלולים פשוט להציף את עצמם בעשייה.

2. מיומנויות עמוקות לא נשמרות לבד: אם נותנים ל-AI להיכנס לכל שלב, צריך במקביל לחשוב איך שומרים על יכולת הבנה עצמאית של מערכות, במיוחד אצל ג’וניורים. זה לא קורה מעצמו.

3. חונכות ויחסים מקצועיים צריכים תכנון מודע: אם רוב השאלות הולכות למודל, צריך ליצור במכוון מרחבים שבהם אנשים כן שואלים אחד את השני, כן יושבים על קוד ביחד, כן רואים איך אחרים חושבים.

4. זהות מקצועית תעבור שינוי: מהנדסים, אנשי מוצר, אנליסטים ועוד מקצועות יהיו פחות “עושים הכל ידנית”, ויותר מנהלי תהליכים וסוכנים. זה דורש שפה אחרת כשיושבים לדבר על קריירה, קידום ופיתוח מקצועי.

במובן הזה, המחקר של אנטרופיק הוא לא תשובה, אלא מראה. הוא מראה איך נראית עבודה כש-AI הופך להיות שכבת תשתית יומיומית, ולא גימיק. מי שמסתכל עליה ברצינות, יכול להתחיל לתכנן היום איך הוא רוצה שהשילוב הזה ייראה אצלו, לפני שהשינוי יכפה עליו מבחוץ.

 

לכל מי שרוצה לקרוא את המחקר המלא, כנסו כאן.

הפוסט איך בינה מלאכותית משנה את העבודה באנטרופיק – ומה זה אומר על העתיד שלנו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-transforming-work-anthropic/feed/ 0
דוח בזק 2025 מצביע על חברה ישראלית שמאמצת בינה מלאכותית במהירות חסרת תקדים https://letsai.co.il/ai-adoption-in-israel/ https://letsai.co.il/ai-adoption-in-israel/#respond Sat, 06 Dec 2025 10:38:33 +0000 https://letsai.co.il/?p=65493 שלוש שנים אחרי הופעת ChatGPT, הבינה המלאכותית הפכה לחלק כמעט טבעי מהיומיום הישראלי. 92% מהציבור מדווחים שהכירו או השתמשו בכלי AI, קצב אימוץ מהיר בהרבה מהטכנולוגיות שהקדימו אותו. לשם השוואה, לוואטסאפ נדרש כמעט עשור להגיע לשיעורי שימוש דומים, ולקניות אונליין קרוב לעשרים שנה. כך עולה מדוח האינטרנט השנתי של בזק לשנת 2025, המבוסס על סקר […]

הפוסט דוח בזק 2025 מצביע על חברה ישראלית שמאמצת בינה מלאכותית במהירות חסרת תקדים הופיע ראשון בLet's AI בינה מלאכותית

]]>
שלוש שנים אחרי הופעת ChatGPT, הבינה המלאכותית הפכה לחלק כמעט טבעי מהיומיום הישראלי. 92% מהציבור מדווחים שהכירו או השתמשו בכלי AI, קצב אימוץ מהיר בהרבה מהטכנולוגיות שהקדימו אותו. לשם השוואה, לוואטסאפ נדרש כמעט עשור להגיע לשיעורי שימוש דומים, ולקניות אונליין קרוב לעשרים שנה. כך עולה מדוח האינטרנט השנתי של בזק לשנת 2025, המבוסס על סקר מקיף בקרב 4,750 ישראלים בני 13 ומעלה שנערך בשיתוף KANTAR.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שימוש יומיומי אינטנסיבי

מחצית מהישראלים שמוגדרים כ״משתמשים קבועים״ ב-AI משתמשים בו לפחות פעם ביום. מתוך הקבוצה הזו, 10% מדווחים על שימוש לאורך כל היום, 29% משתמשים פעם ביום, ו-11% כמה פעמים ביום. זמן השימוש היומי הממוצע עומד על שעה וחצי. 70% מהמשתמשים ב-AI אומרים שזמן המסך שלהם עם AI עלה בהשוואה לשנה שעברה.

 

נתונים על אימוץ בינה מלאכותית

שימוש יומי אינטנסיבי | קרדיט: bezeq.co.il

 

גם סל הכלים מתרחב. הישראלים לא מסתפקים בכלי אחד, והדוח מצביע על עלייה במספר כלי ה-AI שבהם משתמש אדם ממוצע לעומת 2024. ChatGPT נשאר הכלי הדומיננטי, עם 75% שימוש בקרב המשתמשים. Gemini של גוגל קופץ מ-22% ב-2024 ל-42% ב-2025, ומשמש 59% מבני הנוער. Canva מגיע ל-21% שימוש כללי ו-45% בקרב נוער. אחריה Copilot של מיקרוסופט עם 18%, Claude עם 12% ו-Perplexity עם 9%.

 

אימוץ כלי בינה מלאכותית

מגוון ותדירות השימוש בכלי בינה מלאכותית | קרדיט: bezeq.co.il

 

הנתון של 92% שימוש ב-AI בולט עוד יותר כשמשווים אותו לשנים קודמות: 69% בלבד ב-2024 ו-48% ב-2023. בתוך שנתיים בלבד, השימוש בכלי AI בישראל כמעט הפך לנורמה. מאחר שהשאלה בסקר עוסקת ב״שימוש בכלי AI״ באופן כללי, סביר שהנתון כולל גם שימוש עקיף בכלים משולבי AI, כמו חיפוש בגוגל או יכולות AI מובנות באפליקציות אחרות, ולא רק שימוש ישיר בצ׳אטבוטים.

 

נתוני שימוש בבינה מלאכותית

עלייה דרמטית בשימוש ב-AI תוך שלוש שנים | קרדיט: bezeq.co.il

AI מחליף רופאים, עורכי דין ופסיכולוגים

38% מהציבור הישראלי קיבלו ב-2025 לפחות עצה רפואית אחת מ-AI, לעומת 19% בלבד ב-2024. רבע מבני הנוער בישראל מתייעצים עם AI במקום עם רופא, וגם בקרב בני 60 ומעלה נרשם אימוץ זהיר של כ-6%.

 

הבינה המלאכותית כיועץ

הבינה המלאכותית כיועץ | קרדיט: bezeq.co.il

 

מעבר לרפואה הפיזית, ה-AI נכנס גם למרחב הרגשי. 29% מהבוגרים ו-59% מבני הנוער פנו ל-AI לסיוע נפשי או רגשי. כחמישית מהישראלים משתמשים ב-AI לקבלת עצות מקצועיות בתחום הקריירה.

 

גם בתחום המשפטי נרשמה קפיצה כאשר שיעור הישראלים שקיבלו עצה משפטית מ-AI עלה מכ-9% ב-2024 לכ-19% ב-2025.

השפעה על מערכת החינוך

69% מבני הנוער בישראל אומרים שכלי AI עוזרים להם להיות טובים יותר בלימודים. 28% כבר השתמשו במורה AI במקום מורה פרטי, ועוד 34% שוקלים לעשות זאת בעתיד. בתוך דור תלמידים אחד, מורה אלגוריתמי הופך מחידוש טכנולוגי לחלופה אמיתית לשיעור פרטי.

 

מנגד, מערכת החינוך עצמה לא מדביקה את הקצב. 35% מהבוגרים ו-41% מבני הנוער סבורים שבתי הספר אינם מעודדים את התלמידים להשתמש ב-AI. בפועל, נוצר פער בין מה שהתלמידים עושים בבית לבין מה שמותר להם לעשות בכיתה.

 

ה-AI כמורה פרטי

ה-AI כמורה פרטי | קרדיט: bezeq.co.il

חששות גדלים

לצד ההתלהבות מה-AI, מתגלה גם אי אמון. 58% מהישראלים נמנעים מלחשוף ל-AI מידע אישי מחשש שידלוף או שיעשה בו שימוש לרעה. 44% לא סומכים על המידע שהם מקבלים מהמערכות האלה. 67% מודים שהם מתקשים לזהות אם טקסט או תמונה נוצרו על ידי אדם או על ידי AI, ו-71% רוצים שתוכן שנוצר ב-AI יסומן באופן ברור. החוויה האישית מחזקת את החשדנות – כ-30% מהציבור ו-37% מבני הנוער מספרים שכבר נכוו מעצה אישית שקיבלו מ-AI והתבררה כשגויה.

 

פחות סומכים על המידע

חששות וספקנות לצד התלהבות | קרדיט: bezeq.co.il

תופעת ההתמכרות והשפעה על יחסי הורים-ילדים

29% מבני הנוער בישראל אומרים שהם כבר מרגישים מכורים ל-AI. גם בקרב המבוגרים, 16% מדווחים על תחושה דומה. לשם השוואה, כ-40% מבני הנוער מגדירים את עצמם מכורים לרשתות חברתיות בכלל.

 

התמכרויות דיגיטליות גרסת ה-AI

התמכרויות דיגיטליות גרסת ה-AI | קרדיט: bezeq.co.il

 

ה-AI נכנס גם למרחב היחסים בתוך הבית. 45% מבני הנוער מרגישים שה-AI מחליף את הצורך להתייעץ עם ההורים. 38% אומרים שה-AI מבין אותם טוב יותר מאנשים בחיים שלהם, ו-21% מהנוער מדווחים שהם אפילו מפתחים רגשות כלפי המערכת.

 

הנוער מפתח רגשות לבינה המלאכותית

הנוער מפתח רגשות לבינה המלאכותית | קרדיט: bezeq.co.il

 

מחקרי בריאות נפשית בעידן הדיגיטלי מצביעים לא פעם על תבנית דומה – שימוש אינטנסיבי בטכנולוגיה מספק הקלה רגשית מיידית, אבל אצל חלק מהמשתמשים הוא עלול להיות קשור גם לעלייה בתחושת בדידות או הסתגרות חברתית. הנתונים מדוח בזק מרמזים שה-AI עלול להצטרף לאותו דפוס – כלי שמרגיש זמין ואמפתי, אבל עלול גם להחליף שיחה אנושית במקום לעודד אותה.

השפעה על היכולות האנושיות

הנתונים מציירים תמונה כפולה. מצד אחד, מבין המשתמשים ב-AI,  כ-72% מרגישים שהכלים מחזקים את הידע שלהם על העולם, 68% אומרים שנהיו יותר סקרנים ולומדים דברים חדשים, 65% מרגישים יותר יעילים, ו-44% מדווחים שהביטחון העצמי שלהם התחזק.

 

השפעה על היכולות האנושיות

השפעה על היכולות האנושיות | קרדיט: bezeq.co.il

 

מצד שני, אותם משתמשים מדווחים גם על מחיר. 66% מרגישים שנהיו יותר עצלנים, 52% חשים שהם פחות יצירתיים, 42% מרגישים שפחתה אצלם החשיבה העצמאית, ו-39% אומרים שנהיו פחות סבלניים. 32% כבר חוששים משחיקה כללית בכישורים האנושיים.

 

המשמעות היא לא רק ויכוח עקרוני על טכנולוגיה, אלא חוויה יומיומית פנימית כפולה. עבור רבים, ה-AI הוא גם מאיץ של ידע ויעילות וגם זרז לתחושת נוחות יתר ופחות מאמץ מנטלי.

ההורים נכנסים לתמונה

35% מההורים מתייעצים עם AI בענייני חינוך הילדים. 45% משתמשים בו כדי לקבל רעיונות לפעילויות משפחתיות משותפות. כ-24% מההורים מדווחים שה-AI הופך אותם, לדעתם, להורים טובים יותר. 25% כבר רשמו או שוקלים לרשום את ילדיהם לחוג או פעילות לימודית הקשורה ל-AI.

 

ה-AI נכנס לתא המשפחתי

ה-AI נכנס לתא המשפחתי | קרדיט: bezeq.co.il

שוק העבודה והעסקים הקטנים

46% מהעסקים הקטנים בישראל משתמשים בכלי AI, ו-18% מהעסקים הקטנים כבר משלמים על כלי AI בתשלום. מבין העסקים שמשתמשים ב-AI,  כ-58% מדווחים על חיסכון בזמן, 36% על חיסכון בהוצאות ועלויות, 37% על שיפור בשירות הלקוחות, ו-35% על חדשנות בפיתוח מוצרים ושירותים חדשים.

 

נתוני שימוש ותשלום בעסקים קטנים

נתוני שימוש ותשלום בעסקים קטנים | קרדיט: bezeq.co.il

 

מעבר לעסקים, הישראלים רואים ב-AI גם הזדמנות וגם איום בשוק העבודה. 76% סבורים שה-AI יכול לעזור לאנשים למצוא עבודה, למשל בכתיבת קורות חיים או חיפוש משרות. במקביל, 57% חוששים שה-AI גורם לאנשים לאבד את מקום העבודה שלהם.

 

אימוץ ושימוש בעסקים קטנים

אימוץ ושימוש בעסקים קטנים | קרדיט: bezeq.co.il

האם הישראלים רוצים רגולציה?

84% מהישראלים רוצים רגולציה ופיקוח גלובלי על תחום ה-AI.  כ-79% מודאגים מהאפשרות שממשלות או גורמים עוינים ינצלו את הטכנולוגיה לרעה, ו-61% חוששים שההתפתחות המהירה מדי עלולה לסכן את האנושות בטווח הארוך.

 

כשמגיעים לשאלת האחריות האישית, המספרים צונחים. רק 23% מבני הנוער ורק 12% מהבוגרים סבורים שכל אדם צריך לקחת אחריות אישית על האופן שבו הוא משתמש ב-AI. רוב הישראלים מצפים בראש ובראשונה שרגולטורים ומוסדות יגבשו את הגבולות, ורק אחר כך שהמשתמשים יתנהלו באחריות.

 

הרצון לרגולציה ופיקוח גלובלי

הרצון לרגולציה ופיקוח גלובלי | קרדיט: bezeq.co.il

ישראל בהקשר העולמי 

לצד נתוני בזק, השוואות בינלאומיות ממחקרים חיצוניים מצביעות על תמונה מורכבת. ישראל נמצאת בחלק העליון של טווח האימוץ העולמי בכל הנוגע לשימוש אישי ב-AI, אך השוואה בין מדינות מחייבת זהירות: מחקרים שונים מודדים דברים שונים לחלוטין – שימוש של אנשים, אימוץ של ארגונים או השקעות ממשלתיות – ולכן הנתונים מהווים אינדיקציה, לא מדד אחיד.

 

כך למשל, בסין דווח באמצע 2025 על כ-515 מיליון משתמשי GenAI, שהם כ-36.5% מהאוכלוסייה. בהודו, סקר אחד מצא ש-59% מהארגונים אימצו AI באופן פעיל, בעוד שסקר אחר מצא שכ-73% מהציבור מדווחים על שימוש ב-AI ב-2024. באיחוד האירופי, רק כ-13.5% מהעסקים עם 10 עובדים ומעלה השתמשו ב-AI ב-2024.

 

במדדי עומק רחבים יותר ישראל מצטיירת כמעצמת AI, גם אם לא מובילה בכל ממד. לפי מדד ה-AI הגלובלי של Tortoise לשנת 2024, ישראל מדורגת במקום התשיעי מתוך 83 מדינות, ובמקום השני בעולם ביחס לגודל האוכלוסייה. מחקר נוסף מציב את ישראל במקום הרביעי בעולם בהיקף ההשקעות ב-AI, עם כ-12.83 מיליארד דולר, ומדגיש את שיעור כישרון ה-AI הגבוה ביותר ביחס לכוח העבודה – כ-1.13%.

 

הנתון שלפיו 28% מהעסקים בישראל משתמשים ב-AI מבוסס על סקר נפרד של המכון הישראלי לדמוקרטיה והלמ”ס. הוא מציב את ישראל מעל הממוצע האירופי (כ-13% אימוץ ב-2024), אך עדיין רחוק ממצב שבו AI הופך לסטנדרט עסקי רחב.

תקווה למרות החששות

למרות כל החששות, 41% מהישראלים מאמינים שבעתיד היתרונות של ה-AI יעלו על החסרונות. 36% סבורים שה-AI יוביל את האנושות לעתיד חיובי. במקביל, 40% אומרים שהם כיום יותר מודאגים מאשר מתרגשים מההתפתחויות בתחום, לעומת 26% בלבד בשנה שעברה.

 

ה-AI לוקח אותנו לקצוות

ה-AI לוקח אותנו לקצוות | קרדיט: bezeq.co.il

 

הישראלים לא רק מפחדים מה-AI, הם גם רוצים לראות אותו יותר מעורב בחיים שלהם. 55% היו רוצים שהמערכות ינהלו עבורם משימות יומיומיות באופן אוטומטי, 49% מעוניינים בייעוץ בתכנון פיננסי והשקעות, 47% רוצים התרעות על סיכוני אבטחה בדיגיטל, 38% רוצים לחסוך זמן בקניות, ו-31% היו שמחים שה-AI יתנהל במקומם מול גופים בירוקרטיים.

 

הציפיות מה-AI בעתיד

הציפיות מה-AI בעתיד | קרדיט: bezeq.co.il

ישראל כמעבדה חיה לאימוץ מהיר של AI

הסיפור שמצטייר מהדוח הוא של טכנולוגיה שמשתלבת במהירות חסרת תקדים כמעט בכל תחום בחיים בישראל – מבריאות וחינוך, דרך פנאי ועד עבודה. האתגר כבר איננו האם להשתמש ב-AI, אלא איך להשתמש בו בצורה שמחזקת את היכולות האנושיות במקום לשחוק אותן. הנתונים מישראל מצביעים על כך שאנחנו כבר עמוק בתוך הניסוי החברתי הזה, והתגובות של הציבור – בין פחד, סקרנות ואופטימיות זהירה – עדיין נמצאות בתהליך התגבשות.

 

את הדוח המלא של בזק תוכלו להוריד מכאן.

הפוסט דוח בזק 2025 מצביע על חברה ישראלית שמאמצת בינה מלאכותית במהירות חסרת תקדים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-adoption-in-israel/feed/ 0
גוגל הרסה את מסיבת יום הולדת 3 של ChatGPT ו-OpenAI מכריזה על ״קוד אדום״ https://letsai.co.il/openai-code-red/ https://letsai.co.il/openai-code-red/#respond Thu, 04 Dec 2025 12:28:41 +0000 https://letsai.co.il/?p=65459 תחילת דצמבר 2025 הייתה אמורה להיות חגיגה. ChatGPT ציין שלוש שנים מאז שהפך מכלי ניסוי למוצר שמיליונים עובדים וחיים איתו מדי יום, וביסס את OpenAI כמובילת עידן ה-AI הג’נרטיבי. במקום מסיבה, העובדים קיבלו מזכר מסם אלטמן עם הכותרת “קוד אדום”. לפי דיווחים, זו הייתה העלאה מ”קוד כתום” לדרגת החירום הגבוהה ביותר. אלטמן כתב: “We are […]

הפוסט גוגל הרסה את מסיבת יום הולדת 3 של ChatGPT ו-OpenAI מכריזה על ״קוד אדום״ הופיע ראשון בLet's AI בינה מלאכותית

]]>
תחילת דצמבר 2025 הייתה אמורה להיות חגיגה. ChatGPT ציין שלוש שנים מאז שהפך מכלי ניסוי למוצר שמיליונים עובדים וחיים איתו מדי יום, וביסס את OpenAI כמובילת עידן ה-AI הג’נרטיבי. במקום מסיבה, העובדים קיבלו מזכר מסם אלטמן עם הכותרת “קוד אדום”. לפי דיווחים, זו הייתה העלאה מ”קוד כתום” לדרגת החירום הגבוהה ביותר. אלטמן כתב: “We are at a critical time for ChatGPT”. המסר היה ברור: עוצרים פרויקטים צדדיים ומתרכזים שוב בליבה. ובכל זאת, צריך לזכור שגם בעולם הטכנולוגיה “קוד אדום” הוא לא מטבע נדיר. גוגל עצמה הכריזה על “code red” בסוף 2022 כשהשקת ChatGPT ערערה את עמדתה בחיפוש. עכשיו התפקידים התהפכו: הפעם OpenAI היא שמרגישה את הלחץ. משהו בסיסי במאזן הכוחות השתנה.

 

OpenAI הכריזה קוד אדום

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

גוגל שברה את הרצף

הסיבה להכרזת הקוד האדום הייתה טכנית, אבל המשמעות שלה אסטרטגית לחלוטין.

 

בנובמבר 2025 השיקה גוגל את Gemini 3 Pro. לפי מסמכי המודל של Google DeepMind וניתוחים עצמאיים שהתפרסמו באותה תקופה, זה היה הדגם הראשון של גוגל שעבר את מודלי GPT במספר מבחנים שנחשבים לעומק המודיעיני של מודלים: חשיבה מופשטת, פתרון בעיות כלליות ומתמטיקה תחרותית.

 

גם בתחום הקוד נרשם שינוי. במבחנים שמדמים עבודה אמיתית על בעיות תוכנה ולא רק משימות תיאורטיות, Gemini 3 Pro הציג עליונות על פני דורות קודמים של GPT. במבחני שאלות עובדתיות רחבות, הפער היה מורגש במיוחד.

 

עם זאת, לא בכל קטגוריה גוגל מובילה. במבחני SWE-Bench, שמודדים פתרון בעיות בקוד אמיתי, שלושת המודלים המובילים – Gemini 3 Pro, GPT-5.1 ו-Claude Opus 4.5 – נמצאים כולם באותו טווח ביצועים, מה שמלמד שאין מנצח ברור.

 

אבל התחושה בשוק השתנתה. כאשר מודל אחד מצטיין במספר תחומים מרכזיים כמו חשיבה, מתמטיקה וקוד, זה כבר לא עוד שדרוג מחזורי. זו נקודת מפנה. לראשונה מאז 2022, OpenAI לא נראתה כמי שמובילה באופן ברור את רוב המבחנים החשובים.

ChatGPT עדיין שולט

חשוב להפריד בין שני עולמות: הבנצ’מרקים והמציאות בשטח.

 

לפי נתונים שהציג ניק טורלי (Nick Turley) ובהתאם לדיווחים עסקיים מסוף 2025, ChatGPT נשאר השירות הדומיננטי בשוק. הוא נהנה ממאות מיליוני משתמשים פעילים, נפח שימוש עצום ואימוץ כמעט מלא בקרב חברות גדולות. בפועל, זה עדיין ה-assistant שהעולם עובד איתו.

 

הדומיננטיות הזו היא נכס אסטרטגי: הרגלי שימוש, אמון, ממשק מוכר, אינטגרציות ותהליכים עסקיים שכבר בנויים סביבו. לכן גם אם Gemini 3 Pro מוביל בחלק מהמדדים הטכניים, זה לא הופך את ChatGPT לפחות מרכזי.

 

אבל כאן מופיע הסדק. גוגל מציגה התקדמות כמעט בכל חזית, משחררת כלים ופיצ’רים בקצב גבוה, ומצמצמת פער שנראה היה בלתי סגיר. במודלים לשפה, תמונה, וידאו וכלים חכמים סביבם, Gemini מתחיל לא רק להדביק את ChatGPT אלא לעיתים גם ליצור תחושת “אבק” מאחוריו.

 

לכן, למרות היתרון בשימוש בפועל, הזעזוע אמיתי. השוק מריח שינוי. משתמשים פרטיים ועסקיים מתחילים לבחון ברצינות את Gemini, וחלקם אף עוברים אליו. זו אינה נטישה המונית, אבל זו תנועה ראשונית שמצביעה על שינוי אפשרי במאזן הכוחות.

 

לפי נתוני Similarweb, בעוד שהתנועה ל-ChatGPT ממשיכה לצמוח אך בקצב מתון, Gemini מציגה קפיצה חדה בחודשים האחרונים של 2025. זה לא מחליף הובלה, אבל כן מסמן שינוי מומנטום שהוביל את OpenAI להכריז על “קוד אדום”:

 

ChatGPT vs. Gemini

שינוי מומנטום | Similarweb Global Traffic Trends

מבחני לחץ בתוך OpenAI

לפי דיווחים של The Information וכתבים טכנולוגיים נוספים, התגובה הפנימית ב-OpenAI הייתה חדה וברורה.

 

אלטמן וההנהלה ביקשו מהצוותים להתמקד בשלושה צירים מרכזיים: הראשון, שיפור הפרסונליזציה וחוויית המשתמש ב-ChatGPT. השני, הגדלת מהירות ואמינות, וצמצום תקלות והשהיות. והשלישי, הרחבת טווח היכולות, כולל שדרוג משמעותי ביכולות ייצור תמונה והפחתת סירובי מודל מיותרים.

 

כדי לפנות משאבים, OpenAI הקפיאה מספר פרויקטים מתקדמים. לפי הדיווחים, בין הפרויקטים שנעצרו:

  • תכנית פרסום בתוך ChatGPT, שכבר הופיעה בקוד גרסת האנדרואיד.

  • סוכני קניות ובריאות שנועדו ללוות משתמשים בהחלטות צרכניות ורפואיות פשוטות.

  • ChatGPT Pulse, עוזר אישי שהיה אמור לייצר דוחות מותאמים אישית.

ניק טורלי חיזק את הכיוון הזה בפוסט ב-X, כפי שצוטט ב-Wall Street Journal: המיקוד עכשיו הוא להפוך את ChatGPT ליותר מסוגל, אינטואיטיבי ואישי, ולהמשיך להרחיב את ההגעה הגלובלית. במילים אחרות, פחות ניסויי צד, יותר חיזוק המנוע המרכזי.

התוכנית הטכנולוגית

כאן הסיפור נהיה רגיש יותר. לפי דיווח מפורט ב-The Information שהתבסס על מקורות פנימיים, OpenAI עובדת על שני מודלים שנועדו לתת מענה קונקרטי להתקדמות של Gemini ו-Claude.

Shallotpeat

המודל הראשון, תחת שם הקוד Shallotpeat, מתואר כמודל קצר טווח שהיה אמור לצאת ימים ספורים לאחר הכרזת הקוד האדום. אותם מקורות טענו כי במבחנים פנימיים הוא עקף את Gemini 3 Pro בחלק מהמשימות. אין כל אישור רשמי לשם, לתזמון או לתוצאות, וייתכן שהוא אף השתנה מאז. מדובר בדיווחים שאינם מאושרים ולכן הם צריכים להישאר באזור האפור שבין דליפה לעובדה.

Garlic

המודל המשמעותי יותר הוא Garlic, שמיועד לרבעון הראשון של 2026. לפי הדיווחים, מארק צ’ן (Mark Chen), ראש תחום המחקר ב-OpenAI, תיאר אותו כמודל שבו הצליחו “להזריק למודל קטן יותר את אותה כמות ידע” שבעבר דרשה מודל גדול בהרבה – שינוי שמרמז על קפיצה ביעילות האימון, לא רק בביצועי קצה.

 

Garlic נשען על עבודה שנעשתה ב-GPT-4.5, אך כולל תיקונים עמוקים בשלב ה-pre-training שנועדו להתגבר על צווארי בקבוק טכניים. במבחנים פנימיים הוא הראה ביצועים חזקים במיוחד בקידוד ובמשימות חשיבה מורכבות.

 

הכל נאמר בזהירות: OpenAI לא פרסמה מידע רשמי על Shallotpeat או Garlic, ומבחנים פנימיים אינם בהכרח אינדיקציה לביצועים בעולם האמיתי. לא ברור אם ומתי מודלים אלה יושקו.

 

אבל מבחינת הנרטיב, זה לב העניין: OpenAI נמצאת במרוץ להציג דור חדש שישיב לה יתרון טכנולוגי – בזמן שהשוק מתקדם מהר יותר מאי פעם.

היתרון התשתיתי של גוגל מול השינוי המבני ב-OpenAI

מאחורי מרוץ המודלים מסתתרת שאלה אחת: על מה הם רצים?

 

לגוגל יש שליטה כמעט מוחלטת בכל שכבות ה-stack: מהמחקר ועד השבבים. משפחת Gemini רצה על TPU שגוגל עצמה מתכננת ומייצרת, מה שמעניק לה עלות כוללת נמוכה יותר, שליטה מלאה בתצורה, ויכולת להפעיל אשכולות עצומים בקנה מידה שקשה להתחרות בו.

 

Anthropic חתמה באוקטובר 2025 על הסכם תשתית עם Google Cloud שמעניק לה גישה למיליוני TPUs של גוגל – מה שנותן לה כרגע גישה לחומרה מתקדמת שדומה לזו של גוגל עצמה.

 

בעבר OpenAI הייתה תלויה כמעט לחלוטין בתשתית Azure של מיקרוסופט, תלות שנחשבה לחולשה מובנית, במיוחד לאור תקלות שירות שזוהו בשנים 2024-2025. תלות כזו בספק יחיד מגבילה יכולת שליטה בעלויות וממצבת נקודת כשל תשתיתית.

 

אבל בחודשים האחרונים המצב השתנה: OpenAI חתמה על הסכמי תשתית רחבי היקף עם AWS והחלה לפרוס קיבולת עצומה של GPU מבוסס NVIDIA. המהלך הזה שובר את הבלעדיות של Azure ומאפשר פיזור עומסים בין כמה עננים גדולים.

 

המשמעות כפולה:

  1. פחות סיכון מתלות בענן יחיד.

  2. יותר גמישות לנהל את עלויות החישוב מול המתחרות.

ועדיין, בניגוד לגוגל, OpenAI אינה שולטת בשכבות החומרה והענן של עצמה. אפילו עם המעבר לכמה ספקי ענן, היא תלויה בתשתיות של אחרים. לכן הפער התשתיתי כבר אינו עניין טכני בלבד, אלא שאלה אסטרטגית שמגדירה את יכולת החברה להתחרות לאורך זמן.

והכל קורה על רקע לחץ פיננסי

לפי דיווחים בעיתונות הכלכלית, השווי של OpenAI מתקרב ל-500 מיליארד דולר ומתבסס על הנחה שהיא תמשיך לצמוח במהירות ותשמור על מובילות טכנולוגית. אבל מאחורי המספרים נוצצים עומדת מציאות מורכבת בהרבה.

 

עלויות האימון וההרצה של המודלים עצומות. חלק גדול מההכנסות חוזר היישר ל-compute ולשכר טאלנטים טכניים. הערכות מדברות על כך ש-OpenAI שואפת להגיע ל-cash flow חיובי רק בסביבות 2029. דיווחים מסוף 2025 הצביעו גם על התחייבויות תשתית ארוכות טווח מול מיקרוסופט בהיקפים חריגים, אם כי המספרים המדויקים אינם שקופים לציבור.

 

במצב כזה, כל מודל דגל חדש הוא לא רק מהלך טכנולוגי – הוא גם הימור פיננסי של מאות מיליוני דולרים. 

מה זה אומר עבור השוק

עבור משתמשים פרטיים, התחרות הזו היא חדשות מצוינות: המודלים משתפרים, המחירים יורדים, והיכולות נפתחות ליותר אנשים. עבור ארגונים, התמונה מורכבת בהרבה. שלושה מסרים בולטים:

  • לא להישען על ספק יחיד. אסטרטגיית multi-model כבר אינה “מתקדמת” אלא הכרח. גם אם ChatGPT הוא הכלי המרכזי, כדאי להבין איך משלבים לצדו את Gemini, Claude או מודלים פתוחים.

  • להסתכל על TCO, לא רק על ביצועים. במילים פשוטות יותר, לבחון את העלות הכוללת להחזיק ולהפעיל את המערכת לאורך זמן, לא רק את המחיר המיידי שלה. פער קטן בבנצ’מרק אינו מצדיק בהכרח פער גדול בעלויות. בפרויקטים רחבי היקף, יעילות חישובית הופכת לפקטור אסטרטגי.

  • לשמור גמישות תשתיתית. ארגונים שמסוגלים להריץ מודלים על עננים שונים או על תשתיות עצמאיות נמצאים בעמדה יציבה יותר מול שינויים טכנולוגיים ושינויי מחירים.

בסופו של דבר, אנחנו נכנסים לעידן שבו אין “בחירה אחת נכונה”. יתרון אמיתי יהיה למי שיידע להרכיב שכבה אפליקטיבית גמישה שפועלת מעל כמה מודלים שונים, ובכך לנצל את החוזקות של כל אחד מהם.

 

נתוני Similarweb מראים שאמנם OpenAI עדיין מחזיקה בנתח העצום של תנועת ה-AI הגנרטיבי, אבל בחודשים האחרונים חלה עלייה מתמשכת במודלים מתחרים כמו Gemini, Claude ו-DeepSeek. השוק נהיה מגוון יותר, והתחרות כבר אינה תיאורטית:

 

השוק מתחיל להיפתח

השוק מתחיל להיפתח | Similarweb Global Traffic Trends

2026 היא שנת המבחן של OpenAI ושל שוק ה-AI כולו

OpenAI מבינה שהשאלה הגדולה אינה מי מוביל בבנצ’מרקים, אלא מי מוביל את השיחה ואת השוק בפועל. כרגע ChatGPT עדיין שולט בשימוש, אבל ההובלה הטכנולוגית כבר לא מוגדרת, והמתחרות לוחצות מכל כיוון. במקום לחגוג שלוש שנים ל-ChatGPT, הכריזה OpenAI על קוד אדום. זה לא רק סימן למשבר, אלא הכרה בכך שהעידן שבו שימשה כמובילה הלא רשמית מתקרב לסיום.

 

2026 תהיה שנת מבחן. אם Garlic או כל מודל דגל אחר יצליח לא רק להשוות אלא לעקוף את Gemini 3 Pro ו-Claude Opus 4.5 בבדיקות עצמאיות ובעבודה אמיתית אצל משתמשים, ובמקביל יעמוד בעלות חישובית סבירה, OpenAI תוכל לטעון שחזרה להוביל.

 

אם זה לא יקרה, השוק עלול להתרחק ממודל של “מנצח אחד”. גוגל עשויה לתפוס את ההובלה, או שנראה שוק מרובה-שחקנים שבו לכל ענק יש יתרון אחר: תשתית, מחיר, בטיחות או יכולות איג׳נטליות. הקצב מהיר כל כך, שאפשר רק לזהות כיוונים – בטח לא לנבא בוודאות.

 

גוגל אולי הרסה את המסיבה של ChatGPT, אבל מה שנקבע עכשיו זה לא מי חוגג. מה שנקבע עכשיו הוא מי ישרוד ויעצב את המרוץ הבא – מרוץ שבו מודלים, תשתיות וכסף מתמזגים לקרב שלא דומה לשום דבר שראינו עד היום.

הפוסט גוגל הרסה את מסיבת יום הולדת 3 של ChatGPT ו-OpenAI מכריזה על ״קוד אדום״ הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-code-red/feed/ 0
Runway משיקה את מודל Gen-4.5 https://letsai.co.il/runway-gen-4-5/ https://letsai.co.il/runway-gen-4-5/#respond Wed, 03 Dec 2025 13:39:58 +0000 https://letsai.co.il/?p=65343 ביום ראשון, 1 בדצמבר 2025, Runway הכריזה על Gen-4.5, הדור החדש של מודל הווידאו שלה. לפי נתוני החברה ומדד Artificial Analysis, זהו כרגע מודל ה-text-to-video המדורג גבוה ביותר בעולם ומדלג מעל Google Veo 3 ו- Sora 2. המודל החדש מסמן קפיצה אמיתית באיכות התנועה, הפיזיקה והבנת הפרומפט, לצד מגבלות שעדיין לא נפתרו בתחום הלוגיקה הסיבתית, […]

הפוסט Runway משיקה את מודל Gen-4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
ביום ראשון, 1 בדצמבר 2025, Runway הכריזה על Gen-4.5, הדור החדש של מודל הווידאו שלה. לפי נתוני החברה ומדד Artificial Analysis, זהו כרגע מודל ה-text-to-video המדורג גבוה ביותר בעולם ומדלג מעל Google Veo 3 ו- Sora 2. המודל החדש מסמן קפיצה אמיתית באיכות התנועה, הפיזיקה והבנת הפרומפט, לצד מגבלות שעדיין לא נפתרו בתחום הלוגיקה הסיבתית, קביעות האובייקטים ומגבלת האורך. התוצאה היא כלי חזק ומרשים ביותר, אך כזה שרחוק מלהיות פתרון אוניברסלי.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם חדש ב-Gen-4.5

Runway מציגה את Gen-4.5 כמודל וידאו מהדור הבא, שנבנה סביב שלושה שיפורים משמעותיים: איכות ויזואלית גבוהה יותר, פיזיקה ותנועה משכנעות יותר, והבנה טובה בהרבה של הוראות מורכבות. זה לא שינוי קוסמטי, אלא ניסיון להתמודד עם המגבלות שהגבילו את הדור הקודם והפכו את הווידאו הגנרטיבי לכלי מרשים אך לא תמיד מתאים לפרויקטים שמחייבים דיוק פיזיקלי, המשכיות ארוכה או יציבות סיבתית.

 

 

תנועה שמרגישה סוף סוף “עם משקל”

אחת הבעיות הבולטות בדור הקודם הייתה תנועה מרחפת – אובייקטים שנעים יפה, אבל לא נראים כאילו הם כפופים לחוקי הפיזיקה. Gen-4.5 מציג שיפור ניכר בדיוק בתחום הזה.

 

בדוגמאות ש-Runway הציגה אפשר לראות את השיפור באופן מובהק: מים שנשפכים לדלי מתכת מתכווצים בנפילה, מתפזרים בהתזה ויוצרים גלים שנראים אמיתיים לחלוטין, רכב שנוסע לאורך דרך עפר מגיב לכל מהמורה, מזעזע את המצלמה וזורק חול בדיוק כפי שהיינו מצפים מצילום שטח, ואפילו השתקפויות במשטחים מבריקים נשמרות לאורך כל הקליפ, יציבות וקוהרנטיות, בלי ההחלקות או העיוותים שהיו אופייניים לדור הקודם.

 

כל אלה הופכים את התנועה מ”אפקט” ל”פיזיקה”. עבור מותגים, אולפנים וסוכנויות, זה ההבדל בין ניסוי מעניין לבין חומר שנכנס לפרויקט מסחרי.

הבנת פרומפטים מורכבים

איכות ויזואלית חשובה, אבל לא פחות חשוב שהמודל יעשה מה שביקשתם. כאן Gen-4.5 מציג קפיצה נוספת עם נאמנות גבוהה יותר לפרומפט.

 

המנוע החדש מתמודד טוב יותר עם רצפי אירועים (“קודם X, אחר כך Y, לבסוף Z”), תנועות מצלמה מתוזמנות, שינויי אור ואווירה לאורך הסצנה, וסצנות שבהן כמה אובייקטים פועלים במקביל.

 

בקליפים ש-Runway הציגה, מופיע שוט צפוף שבו טלוויזיה, יד, קערת דגנים והמקרר משתלבים זה בזה בתנועה רציפה. המודל מצליח לשמור על קוהרנטיות גבוהה, בלי לפרק את הסצנה.

 

ולמה זה חשוב? כי היום כמעט כל מודל יודע “להפיק וידאו”. ההבדל האמיתי הוא שאלת השליטה – האם המערכת מבצעת את ההוראות, או מייצרת משהו “בערך”. ב-Gen-4.5 הפער בין הרצוי למצוי מתקצר.

דמויות אנושיות והבעת פנים

עוד תחום שבו Gen-4.5 מציג שיפור ברור הוא בני אדם – תמיד אחת המשימות הקשות ביותר ב-generative video.

 

המודל מצליח לייצר פרטי פנים מדויקים יותר, הבעות רגשיות מורכבות, תנועות עיניים ושפתיים שנראות טבעיות יותר, ועקביות טובה יותר בין פריימים, במיוחד בפנים.

 

המשמעות? הדמויות מרגישות פחות “פלסטיק”. עבור יוצרים שמבקשים לספר סיפור, ולא רק ליצור נופים מרהיבים, זו התקדמות חיונית.

סגנונות ויזואליים ועקביות בין קליפים

Gen-4.5 תומך במגוון רחב של סגנונות כמו פוטו-ריאליזם, אנימציה מסוגננת, סטופ-מושן, קולנוע וינטג’ 16mm/35mm ועולמות תלת ממדיים.

 

היתרון האמיתי אינו רק ברשימת הסגנונות, אלא בעקביות שלהם. כאשר מייצרים כמה קליפים נפרדים לאותו פרויקט, הסגנון נשמר – מה שמאפשר לחבר אותם לסרטון אחד בלי שבירת רצף ויזואלי. עבור מותגים ואולפנים, זה תנאי בסיסי להפקה מקצועית.

אותם זמני ריצה באיכות גבוהה יותר

Runway מדגישה כי Gen-4.5 שומר על זמני יצירה דומים לאלו של Gen-4, למרות השיפור באיכות. במילים אחרות, האלגוריתם נהיה כבד יותר, אבל העלות בזמן לא עלתה בהתאם.

 

למשתמשים זה אומר דבר פשוט: אם התרגלתם לזמני ההמתנה של הדור הקודם, לא תחוו עלייה בזמני ההמתנה. המגבלות האמיתיות נמצאות במקום אחר – מגבלת האורך וצריכת הקרדיטים, ולא בזמן יצירת הקליפ הבודד.

 

Gen-4.5 בראש טבלת ה-Text-to-Video

Gen-4.5 בראש טבלת ה-Text-to-Video

מה המגבלות

לצד הקפיצה באיכות, Gen-4.5 עדיין מסתמך על יסודות שלא נפתרו. Runway עצמה מודה בכך, והסקירות החיצוניות רק מחזקות את התמונה – מדובר במודל מוביל, אבל כזה שסובל משלוש בעיות עמוקות ועוד מגבלה מבנית אחת שלא תמיד מאפשרת עבודה מקצועית חלקה.

לוגיקה סיבתית: כשהסרטון לא מבין מה קורה קודם

למרות שהמודל יותר קוהרנטי והשתפר ברצף אירועים לפי הוראה בטקסט, הוא עדיין מתקשה בסיבתיות אמיתית. זו אחת הבעיות הידועות במודלי וידאו, ו-Gen-4.5 לא פותר אותה באופן מלא. גם בדור הזה אפשר לראות מקרים שבהם הדלת נפתחת לפני שהיד נוגעת בידית, אובייקט מתחיל ליפול לפני שמשחררים אותו, או אפקט מופיע עוד לפני הפעולה שאמורה ליצור אותו.

 

אלו רגעים שהעין האנושית מזהה מיד, ובפרויקטים מקצועיים כמו הדמיות טכניות, תוכן חינוכי או סרטוני הדגמה, זו לא תקלה שולית אלא פער שמבטל את הקליפ כולו.

קביעות אובייקטים: כשהמצלמה זזה – דברים מתחילים להיעלם

גם בעיית ה- object permanence לא נעלמה. אובייקט שנעלם מאחורי יד, דלת או פריט אחר עלול לחזור בפריים הבא בגודל אחר, בצבע אחר או במקום חדש לחלוטין. לפעמים הוא פשוט נעלם.

 

האתגר הזה מתעצם ככל שתנועת המצלמה מורכבת יותר. עבור קליפ קצר בסגנון סושיאל זה אולי פחות קריטי, אבל כל פרויקט שמסתמך על המשכיות – פרסומות, סרטוני מוצר, נרטיבים קצרים – המגבלה הזו ניכרת יותר.

Success Bias: בעולם של Gen-4.5 כמעט הכל מצליח

בדומה למודלים אחרים, Gen-4.5 נוטה לייצר “מציאות שמסתדרת”. בעיטות נכנסות לשער, זריקות נכנסות לסל, פעלולים מסתיימים בשלום. זו הטיה שנובעת מאופי הדאטה – רוב הסרטונים ברשת מציגים הצלחות.

 

התוצאה היא שקשה לקבל רצף טבעי שבו משהו משתבש, או סצנה שמתארת ניסוי וטעייה. עבור יוצרי נרטיב, קומדיה, מתח או סימולציות ריאליסטיות – זה חסם אמיתי.

מגבלת אורך: 5 או 10 שניות, ולא יותר

המגבלה המבנית החשובה ביותר נשארה בעינה: כמו Gen-4, גם Gen-4.5 מייצר קליפים של 5 או 10 שניות בלבד.

 

המשמעות של המגבלה הזו ברורה ומוכרת ליוצרים. כדי לייצר דקה אחת של וידאו נדרשים שישה עד שנים-עשר קליפים נפרדים, שכל אחד מהם דורש עריכה וחיבור זהירים כדי לשמור על עקביות ויזואלית. כל ניסיון נוסף לקבל וריאציה טובה יותר שורף עוד קרדיטים, מאריך את זמן העבודה ומגדיל את העלות הכוללת של הפרויקט.

 

לרוב תוכן הסושיאל זה מספיק. אבל עבור סרטוני מוצר, הסברים, דמואים או פרויקטים נרטיביים, זו מגבלה שהופכת את Gen-4.5 לכלי משלים, לא כלי מרכזי.

 

 

החומרה שמאחורי Gen-4.5

אחד ההיבטים הפחות מדוברים של Gen-4.5 הוא בסיס החומרה שעליו הוא פועל. Runway מאשרת שהמודל מאומן ונפרס בעיקר על גבי מערכות ה-GPU של NVIDIA מסדרות Hopper ו-Blackwell. למעשה, Hopper היה הדור שהניע את קפיצת ה-AI של 2023-2024, ו-Blackwell הוא הדור החדש שנבנה במיוחד למודלים גדולים וליעילות גבוהה יותר.

 

למה זה חשוב? משני טעמים מרכזיים:

  1. Runway היא מהראשונות שעובדות ב-production על Blackwell, מה שמאפשר לה להפיק יותר איכות בפחות עלות חישובית.

  2. השילוב בין Hopper ל-Blackwell מאפשר שיפור באיכות בלי הארכה משמעותית בזמן היצירה, נקודה קריטית ליוצרים מקצועיים.

בנוסף, Runway מסמנת את Gen-4.5 כחלק מתפיסה רחבה יותר: מעבר ממחוללי וידאו ל-World Models – מודלים שמנסים להבין איך העולם באמת מתנהג, לא רק ליצור ממנו ייצוג ויזואלי.

 

וזה מתחבר ישירות למגבלות שתוארו קודם – בעיות סיבתיות, קביעות אובייקטים והטיית הצלחה הן בדיוק המקומות שבהם מודל עדיין לא “מבין עולם”, אלא מחקה תבניות. Gen-4.5 מתקדם לשם, אבל עדיין רחוק מהיעד.

כמה זה עולה?

Runway ממשיכה לעבוד במודל של מנוי חודשי + קרדיטים. Runway מצהירה ש-Gen-4.5 זמין במחירים “דומים” ל-Gen-4, כלומר משתמשים בתכניות בתשלום צפויים לראות את המודל החדש כחלק מאותו סל קרדיטים, בלי תמחור חריג.

 

הטבלה שלפניכם משקפת את המחירים (לחודש) הנוכחיים. כמו בכלים רבים בתעשייה, תשלום שנתי מוזיל את העלות החודשית בצורה משמעותית:

 

תמחור של Runway

runwayml.com | תמחור חודשי: התכניות הנוכחיות של Runway

 

העיקרון לא משתנה, עבודה מסיבית עם Gen-4.5 הופכת במהירות להוצאה של עשרות עד מאות דולרים בחודש, במיוחד כשמייצרים כמה גרסאות לכל קליפ ולא מסתפקים בנסיון אחד.

 

מעבר לכך, חשוב לציין שתכנית “Unlimited” אינה באמת בלתי מוגבלת. ברגע שהקרדיטים החודשיים מסתיימים, היצירה עוברת למצב Explore שבו זמני ההמתנה מתארכים משמעותית וללא הבטחת זמן תגובה – נקודה שמופיעה שוב ושוב בסקירות עצמאיות של משתמשים.

ההישג והאתגר: מה מנכ”ל Runway אומר על Gen-4.5

בראיון ל-Bloomberg Tech הדגיש Cristóbal Valenzuela, מנכ״ל Runway, את הייחוד של החברה כסטארט-אפ רזה שפועל בעזרת צוות של פחות ממאה עובדים – נתון חריג בתעשיית ה-AI שמובלת לרוב בידי ענקיות עם אלפי מהנדסים.

 

לדבריו, Gen-4.5 מייצג את היכולת של Runway לאתגר שחקנים גדולים באמצעות מחקר ממוקד וקצב פיתוח מהיר, אך הוא גם הודה שהיתרון הזה שברירי – השוק מתקדם בקצב מסחרר, והדורות הבאים של Veo, Sora והמודלים הסיניים כבר בדרך.

 

מבחינתו, ההישג הנוכחי הוא לא סוף המסע, אלא נקודת ביניים במירוץ תחרותי שהולך ומתהדק.

 

 

מה Gen-4.5 נותן בפועל ליוצרים

כשמנקים את הרעש ומסתכלים רק על מה שקורה על המסך, Gen-4.5 מציע היום אחת מחוויות הווידאו הג׳נרטיבי החזקות בעולם. הוא מפיק תנועה עם משקל, מבין פרומפטים מורכבים בצורה מרשימה, ומציג יכולת גבוהה לייצר דמויות אנושיות משכנעות. עבור מי שעובד עם תוכן קצר ומחפש רמת גימור מקצועית – זו קפיצת איכות ברורה.

 

אבל ההתקדמות הזו לא מעלימה את בעיות היסוד. לוגיקה סיבתית לא יציבה, קביעות אובייקטים חלקית והטיות התנהגותיות עדיין מונעות ממנו להתקרב לסטנדרט של “מודל עולם”. אלו מגבלות שמכתיבות בבירור למי הכלי מתאים ולמי פחות.

 

Gen-4.5 הוא כלי פרימיום, שמיועד למי שבאמת עובד בסביבה מסחרית ומוכן לשלם על איכות. הוא פחות מתאים לסטודנטים, ליוצרי ניסויים, או למי שמחפש כמות גדולה של קליפים ביום אחד. והפער מול מתחרים כמו Kling או Veo, גם אם קיים, לא גדול מספיק כדי להתעלם מהשיקול הכלכלי או מצרכים של פרויקטים ארוכים.

 

בסופו של דבר, Gen-4.5 מסמן רף חדש במה שאפשר להפיק ב-10 שניות של וידאו סינתטי. הוא מראה לאן התחום הולך, אבל גם מזכיר עד כמה רחוק אנחנו ממודל שמבין את העולם כמו שאנחנו מבינים אותו. זה צעד משמעותי במסע – לא תחנה סופית.

 

מי שרוצה לראות את המודל בפעולה ולבחון דוגמאות נוספות, יכול למצוא באתר של Runway מגוון סרטונים מבוססי Gen-4.5 וכמובן את הפרטים הטכניים המלאים של המודל.

הפוסט Runway משיקה את מודל Gen-4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/runway-gen-4-5/feed/ 0
איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI https://letsai.co.il/ilya-sutskever-interview/ https://letsai.co.il/ilya-sutskever-interview/#respond Tue, 02 Dec 2025 07:12:52 +0000 https://letsai.co.il/?p=65250 המדען הישראלי שייסד את OpenAI שובר שתיקה של חודשים ומציג תפיסה חדשה לגמרי על עתיד הבינה המלאכותית. בראיון מקיף לפודקאסט של Dwarkesh Patel ב-25 בנובמבר 2025, סוצקבר מסביר למה רק להגדיל את כוח העיבוד לא יביא אותנו ל-AGI, איך הוא מתכנן לבנות מערכות שלומדות כמו בני אדם, ואיזה תפקיד ממשי ממלאים רגשות בקבלת החלטות.   […]

הפוסט איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI הופיע ראשון בLet's AI בינה מלאכותית

]]>
המדען הישראלי שייסד את OpenAI שובר שתיקה של חודשים ומציג תפיסה חדשה לגמרי על עתיד הבינה המלאכותית. בראיון מקיף לפודקאסט של Dwarkesh Patel ב-25 בנובמבר 2025, סוצקבר מסביר למה רק להגדיל את כוח העיבוד לא יביא אותנו ל-AGI, איך הוא מתכנן לבנות מערכות שלומדות כמו בני אדם, ואיזה תפקיד ממשי ממלאים רגשות בקבלת החלטות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מודלים שמצטיינים במבחנים ונכשלים במציאות

הכשל המרכזי בבינה המלאכותית היום, לדברי סוצקבר, הוא הפער בין הצלחה מרשימה במבחנים לבין ביצועים גרועים ביישומים מעשיים. המודלים מראים תוצאות מרשימות על מבחני evals (מבחנים סטנדרטיים במתמטיקה, קידוד והיגיון שבהם חברות AI בודקות את ביצועי המודלים לפני שחרור), אבל באותו הזמן חוזרים על אותן שגיאות פעם אחר פעם בעבודה אמיתית.

 

הוא מתאר מצב שכל מי שעבד עם מודלי AI לקידוד מכיר – המודל מתקן באג ויוצר באג חדש. כשמפנים את תשומת ליבו לבאג החדש, הוא מחזיר את הבאג המקורי. אפשר לעבור בין שני הבאגים האלה ללא סוף.

 

הסיבה המרכזית, לפי סוצקבר, נעוצה באופן שבו חברות בוחרות את סביבות האימון. כשיש מבחנים ספציפיים שעליהם המודל ייבחן בשחרור, הצוותים יוצרים סביבות Reinforcement Learning (למידת חיזוק שבה המודל לומד מניסוי וטעייה) שמכוונות בדיוק לאותם מבחנים. התוצאה היא שהמודלים מתמחים במבחנים הספציפיים האלה במקום לפתח יכולת אמיתית להכליל.

 

ההשוואה שלו לעולם האנושי מבהירה את הנקודה: תלמיד שתרגל 10,000 שעות ספציפית לתחרות תכנות מסוימת ישלוט בכל האלגוריתמים הרלוונטיים. אבל תלמיד אחר שתרגל רק 100 שעות אך יש לו הבנה עמוקה יותר של העקרונות – הוא זה שיצליח יותר בקריירה האמיתית.

למה בני אדם לומדים טוב יותר?

העובדה המרכזית שמניעה את כל התזה של סוצקבר היא פשוטה. המודלים הנוכחיים מכלילים הרבה פחות טוב מבני אדם. זה נכון גם בתחומים כמו מתמטיקה וקידוד – תחומים שלא התפתחו באבולוציה ולכן לא ניתן להסביר את היתרון האנושי ב”קידוד גנטי”.

 

הדוגמה הבולטת היא שנער לומד לנהוג תוך כ-10 שעות תרגול. בתקופה הזו, אין לו מערכת פרסים חיצונית מפורטת שמדרגת כל החלטה. במקום זאת, יש לו מעין חוש פנימי שאומר לו באופן מיידי אם הנהיגה שלו טובה או גרועה, והוא מתקן את עצמו תוך כדי תנועה.

 

המודלים הנוכחיים עובדים אחרת. הם מבצעים רצף ארוך של פעולות – אלפי “צעדי חשיבה” – ורק בסוף התהליך כולו מקבלים ציון כללי. אין להם האפשרות להבין באמצע הדרך אם הכיוון שהם לוקחים הוא נכון.

רגשות כפונקציית ערך

בחלק שעורר הכי הרבה עניין בראיון, סוצקבר מביא מקרה נוירולוגי שמאתגר הנחות בסיסיות: אדם שעבר נזק מוחי שפגע במרכז עיבוד הרגשות שלו. הוא נשאר מסוגל לדבר בצורה תקינה, יכול היה לפתור חידות לוגיות, ובמבחנים סטנדרטיים נראה תקין לחלוטין. אבל הוא איבד לחלוטין את היכולת להרגיש – לא עצב, לא כעס, לא שמחה.

 

התוצאה המפתיעה היתה שהוא איבד לחלוטין את היכולת לקבל החלטות. לקח לו שעות להחליט איזה גרביים ללבוש. החלטות פיננסיות היו קטסטרופליות.

 

זו תובנה שמערערת על ההנחה המקובלת שרגשות הם “רעש” בקבלת החלטות רציונליות. במקום זאת, הם ממלאים תפקיד מהותי – הם מספקים משוב מיידי על איכות ההחלטות שלנו.

 

במונחי למידת מכונה, זה מתאים למושג של “פונקציית ערך” (value function) – מערכת שמעריכה בזמן אמת האם צעד ביניים מסוים הוא טוב או רע. במקום לחכות עד סוף תהליך ארוך כולו כדי לקבל משוב, אפשר לקבל אינדיקציה כבר באמצע אם אנחנו בכיוון הנכון.

 

סוצקבר מאמין שפיתוח משהו דומה למערכת הרגשית האנושית – גם אם פשוטה יחסית – עשוי להיות קריטי ליצירת מערכות AI שיכולות לקבל החלטות טובות ולהכליל מידע באופן אמין.

סוף עידן הסקיילינג

סוצקבר מציע לחלק את ההיסטוריה של הבינה המלאכותית המודרנית לשלושה שלבים:

  • 2012-2020: עידן המחקר הראשון
  • 2020-2025: עידן הסקיילינג
  • 2026 ואילך: חזרה לעידן המחקר

ההבנה המרכזית של תקופת הסקיילינג הייתה שיש “מתכון” שעובד: לוקחים דאטה, compute, ורשת נוירונים – ומערבבים. ככל שמגדילים את הרכיבים, התוצאות משתפרות באופן צפוי. זה נתן לחברות דרך בטוחה יחסית להשקיע משאבים עצומים.

 

אבל עכשיו, לפי סוצקבר, המצב השתנה. כמות הדאטה האיכותי בעולם מוגבלת. השאלה היא מה קורה אחרי שהדאטה אוזל.

 

הוא לא מאמין שפשוט להגדיל פי 100 את כוח העיבוד יביא את הקפיצה הבאה. זה ישפר את המודלים, בהחלט, אבל לא יספיק כדי להגיע ל-AGI אמיתי. במקום זאת, צריך רעיונות חדשים – ולכן חזרה למחקר.

 

“הגענו לנקודה שבה יש יותר חברות מאשר רעיונות,” הוא מציין.

 

 

SSI: הימור של 3 מיליארד דולר על מחקר

Safe Superintelligence, החברה שסוצקבר הקים, גייסה 3 מיליארד דולר. זה נשמע מעט לעומת המתחרים, אבל סוצקבר מסביר למה זה בעצם מספיק למחקר – חברות גדולות יותר מוציאות חלק ענק מהמשאבים על הפעלת המודלים (inference), על צוותי מכירות ומהנדסים, ועל פיתוח פיצ’רים למוצר. כשמסתכלים רק על מה שנשאר למחקר אמיתי, ההפרש בין SSI לבין המתחרים הופך להיות קטן הרבה יותר.

 

SSI, לעומת זאת, כמעט לא מוציאה משאבים על דברים האלה. אין מוצר, אין לקוחות, אין עלויות inference. כל המשאבים מופנים למחקר על השאלה המרכזית: איך בונים מערכות עם יכולת הכללה אמינה?

 

“עשינו התקדמות טובה בשנה האחרונה,” הוא אומר, “אבל צריך להמשיך. נדרש עוד מחקר.”

למידה מתמשכת

סוצקבר מציע להבין AGI בצורה שונה מהמקובל. המושג המסורתי של AGI הושפע מההצלחה של pre-training – שבו מודל מאומן פעם אחת ויוצא מוכן לכל משימה. אבל, הוא מציין, בן אדם הוא לא AGI במובן הזה. יש לנו בסיס של כישורים, אבל חסר לנו ידע עצום. במקום זאת, אנחנו מסתמכים על למידה מתמשכת לאורך החיים.

 

הוא מציע לחשוב על superintelligence לא כמוח מוגמר שיודע לעשות כל דבר, אלא כמוח שיכול ללמוד לעשות כל דבר – ולעשות זאת מהר מאוד. כמו מישהו צעיר ומוכשר שלהוט ללמוד: הוא לא יודע הרבה עדיין, אבל הוא תלמיד מצוין. תגיד לו ללמוד תכנות, רפואה, עריכת דין – והוא ירכוש את הידע במהירות.

 

המערכת הזו תצא לעולם ותתחיל תהליך של למידה מתמשכת דרך ניסוי וטעייה בפועל. זה תהליך, לא שחרור של מוצר סופי ומוגמר.

בטיחות מבוססת שיתוף פעולה

סוצקבר שינה את דעתו בנקודה חשובה: הצורך להציג AI לציבור בהדרגה. הבעיה המרכזית עם AI עתידי, לדבריו, היא שקשה לדמיין מערכות שעדיין לא קיימות.

 

הוא צופה שככל שה-AI יהפוך לחזק יותר באופן ניכר, ההתנהגות תשתנה בצורה דרמטית. חברות שהן מתחרות עזות יתחילו לשתף פעולה בנושאי בטיחות. הוא מזכיר את השיתוף הפעולה הראשוני בין OpenAI ל-Anthropic כדוגמה מוקדמת למגמה הזו.

 

לגבי alignment, שזה התאמת התנהגות המודלים כך שתהיה תואמת לערכים, למטרות ולציפיות של בני אדם, או בפשטות – איך לוודא שמערכות חזקות מאוד יפעלו לטובתנו – הוא מציע כיוון למחשבה.

 

ליצור AI שאכפת לו מחיים תבוניים בכלל, ולא רק מבני אדם. הטיעון הוא שה-AI עצמו יהיה תבוני, ולכן עשוי לפתח מעין “אמפתיה” למערכות תבוניות אחרות, בדומה לאמפתיה האנושית לבעלי חיים.

 

הוא גם מאמין שיהיה חשוב למצוא דרך להגביל את הכוח המקסימלי של המערכות החזקות ביותר, אם כי לא מפרט איך.

תחזית זהירה

כשנשאל מתי הוא מצפה למערכת שיכולה ללמוד כמו בן אדם ולהפוך לעל-אנושית בעקבות כך, התשובה היתה: “5 עד 20 שנים.” זו תחזית זהירה בהרבה מהציפיות הרגילות בתעשייה, ומשקפת את ההבנה שהדרך קדימה דורשת פריצות דרך מדעיות אמיתיות.

כמה שאלות שכדאי לשאול

הראיון של סוצקבר מעלה כיוון מחשבה מרתק, אבל גם כמה שאלות שכדאי לשקול:

1. האם הדאטה באמת נגמר? סוצקבר עצמו מזכיר שגוגל מצאה לכאורה דרכים לחלץ עוד ערך מ-pre-training. אם זה נכון, האם באמת הגענו לקצה של מה שאפשר לעשות עם הדאטה הקיים, או שפשוט צריך חשיבה יותר יצירתית על איך להשתמש בו? השאלה הזו משנה את כל התזה המרכזית.

2. האם רגשות כפונקציית ערך הם הכרחיים? הדוגמה הנוירולוגית מרתקת, אבל לא ברור שזה מוכיח הכרח טכני. DeepSeek R1, למשל, השיגה תוצאות חזקות ב-reasoning ללא value function מפורשת כפי שסוצקבר מתאר. האם זה באמת חסם שאי אפשר לעקוף, או שזה כיוון מחקרי אחד מתוך כמה אפשריים?

3. איך בדיוק בונים AI שאכפת לו מחיים תבונתיים? הרעיון נשמע מושך, אבל סוצקבר לא נותן מפת דרכים ברורה. זה יותר חזון מאשר תוכנית ביצוע. איך מוודאים ש”אכפתיות” תהיה חזקה מספיק? איך מונעים מצב שבו ה-AI יחליט שהאינטרס של חיים תבונתיים באופן כללי שונה מהאינטרס האנושי הספציפי?

4. האם הגישה של SSI יכולה להצליח ללא הסקייל של המתחרים? סוצקבר מסביר שה-compute שיש ל-SSI מספיק כדי להוכיח רעיונות, אבל מה קורה אם הרעיונות הנכונים דווקא דורשים סקייל עצום כדי להוכיח אותם? האם אפשר לדעת מראש?

5. האם 5 עד 20 שנה זה תחזית? טווח כל כך רחב קשה לאמת או להפריך. זה לא באמת אומר “אני חושב שזה יקרה בשנה X” – זה יותר “אני לא יודע מתי, אבל כנראה לא מחר ולא בעוד 50 שנה”. האם יש דרך לצמצם את חוסר הוודאות הזה?

האם סוצקבר צודק?

הראיון של סוצקבר מרתק ומציב סימן שאלה גדול מעל הגישה הנוכחית של תעשיית ה-AI. אם הוא צודק, הדרך ל-AGI לא תבוא מהשקעה של עשרות מיליארדי דולרים במרכזי נתונים גדולים עוד יותר. היא תבוא ממחקר בסיסי על איך למדוד ולשפר את היכולת של מכונות להכליל מידע, לדעת תוך כדי תנועה אם הן בכיוון הנכון, וללמוד מניסיון כמו שבני אדם עושים.

 

עבור המשקיעים, המסר הוא שהמירוץ על כוח עיבוד עלול להאט בקרוב. עבור החוקרים, זו הזמנה לחזור לעבודת המחקר הבסיסית. ועבור הציבור הרחב, זה תזכורת שהדרך ל-superintelligence היא כנראה ארוכה ומסובכת יותר ממה שהכותרות נוטות לטעון.

 

האם סוצקבר צודק? הזמן יגיד. אבל כשהאדם שעזר לבנות את AlexNet, GPT-3 ואת OpenAI אומר שהכיוון שכולם רצים אליו לא יעבוד לבד, כדאי להקשיב.

הפוסט איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ilya-sutskever-interview/feed/ 0
סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת https://letsai.co.il/ai-high-tech-israel/ https://letsai.co.il/ai-high-tech-israel/#respond Mon, 01 Dec 2025 07:54:08 +0000 https://letsai.co.il/?p=65121 רשות החדשנות ומכון ברוקדייל בחנו את חדירת כלי הבינה המלאכותית היוצרת אל לב שגרת העבודה של ההייטק הישראלי. הסקר בדק שלושה נושאים מרכזיים: איך עובדים משתמשים בכלים האלה בפועל, איך הם תופסים את השפעתם על איכות העבודה והפרודוקטיביות, וכיצד הם מפרשים את הטכנולוגיה – כהזדמנות תעסוקתית או כאיום. חשוב להדגיש, אלו דיווחים סובייקטיביים של העובדים […]

הפוסט סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת הופיע ראשון בLet's AI בינה מלאכותית

]]>
רשות החדשנות ומכון ברוקדייל בחנו את חדירת כלי הבינה המלאכותית היוצרת אל לב שגרת העבודה של ההייטק הישראלי. הסקר בדק שלושה נושאים מרכזיים: איך עובדים משתמשים בכלים האלה בפועל, איך הם תופסים את השפעתם על איכות העבודה והפרודוקטיביות, וכיצד הם מפרשים את הטכנולוגיה – כהזדמנות תעסוקתית או כאיום. חשוב להדגיש, אלו דיווחים סובייקטיביים של העובדים עצמם. הסקר בוחן את תחושת ההשפעה ולא מדידה אובייקטיבית של תפוקה בפועל.

 

מנכ״ל רשות החדשנות

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כמעט כולם משתמשים, הצעירים מובילים

הסקר כולל 523 עובדי ועובדות הייטק, רובם בעלי השכלה אקדמית (86%) ומתגוררים במרכז הארץ (69%). הפרופיל הדמוגרפי הזה משקף היטב את הרכב כוח האדם בענף, אך חשוב לזכור שהוא אינו מייצג בהכרח את שוק העבודה הרחב בישראל.

 

הממצא הבולט הוא שכמעט כל עובדי ההייטק משתמשים בכלי בינה מלאכותית יוצרת. 95% מהם עושים שימוש קבוע בכלים, ו-78% משתמשים בהם מדי יום. השימוש איננו מוגבל למפתחים בלבד. קבוצת הגיל 25 עד 34 מובילה את האימוץ – 86% מבני הגיל הזה מדווחים על שימוש יומיומי – אך גם בקרב עובדים מבוגרים יותר שיעורי השימוש נותרו גבוהים. השילוב של הכלים התרחב גם לתפקידים כמו שיווק, משאבי אנוש ומוצר.

 

תדירות השימוש ב-GenAI

תדירות השימוש בכלי בינה יוצרת | innovationisrael.org.il

 

עומק השימוש מרשים לא פחות: 82% מהמשתמשים היומיומיים מפעילים את הכלים בשלושה סוגי משימות או יותר, ורבע מהם עובדים עם ששה סוגי משימות ויותר. התמונה שחוזרת לאורך הדוח ברורה – מי שמשתמש, משתמש הרבה.

 

ההבדלים בין תפקידי הליבה בהייטק בולטים אך אינם חוצים את קו האימוץ. עובדים טכנולוגיים נעזרים בכלים בעיקר לפיתוח קוד, איתור תקלות ותיעוד. מנגד, גם 46% מהעובדים בתפקידים לא טכנולוגיים מדווחים על שימוש בכלים לכתיבת קוד ותיעוד, לצד כתיבת תוכן מקצועי, חיפוש מידע ולמידה עצמית.

 

הבדלים בשימוש לפי תפקיד

הבדלים בשימוש לפי תפקיד | innovationisrael.org.il

תרומה משמעותית לפרודוקטיביות

העובדים מדווחים על תרומה ברורה של כלי הבינה המלאכותית לעבודתם. 70% מציינים שיפור רב באיכות התוצרים, ו-50% מדווחים על קיצור משמעותי בזמן ביצוע המשימות. בתוך קבוצת המשתמשים החווים חיסכון בזמן, כ-40% מציינים שהכלים קיצרו עבורם יותר ממחצית מזמן העבודה על משימות מסוימות.

 

שיפור באיכות ובזמן העבודה

שיפור באיכות ובזמן העבודה | innovationisrael.org.il

 

כדי לאמוד את השפעת הכלים בצורה רחבה יותר, פותח בסקר מדד משולב הבוחן גם את השיפור באיכות וגם את החיסכון בזמן. לפי המדד הזה, כ-75% מהעובדים חווים עלייה משמעותית בפרודוקטיביות. תוצאה זו משותפת לכלל העובדים – ללא פערים משמעותיים בין תפקידים או סוגי חברות.

 

ההשפעה הנתפסת של כלי GenAI על פרודוקטיביות, איכות התוצרים וקיצור זמני העבודה

ההשפעה הנתפסת של כלי GenAI על פרודוקטיביות, איכות התוצרים וקיצור זמני העבודה | innovationisrael.org.il

 

כלים כלליים בכל התפקידים, כלי קוד בעיקר אצל המפתחים

כלי GenAI רב תכליתיים – כמו ChatGPT, Claude ו-Gemini – הפכו לחלק משגרת העבודה של כמעט כל העובדים בענף. יותר מ-94% מדווחים שהם משתמשים בהם, ללא הבדל מהותי בין תפקידים טכנולוגיים ולא-טכנולוגיים.

 

התמונה משתנה כשמדובר בכלים ייעודיים לפיתוח קוד. כלים כמו GitHub Copilot ו-Cursor נפוצים משמעותית יותר בקרב עובדים טכנולוגיים: 67% מהם משתמשים בהם, לעומת 43% בלבד מהעובדים שאינם בתפקידי פיתוח.

 

פער בולט נוסף מופיע בתוך קבוצת העובדים הטכנולוגיים עצמם. שיעורי השימוש בכלי קוד גבוהים במיוחד בקרב ג’וניורים – 74% מהם משתמשים בכלים כאלה, לעומת 48% בלבד מבכירי ההנהלה. הנתון הזה מדגיש מגמה עקבית בסקר: עובדים צעירים ונמוכי דרג מאמצים את הכלים מהר יותר ובאופן אינטנסיבי יותר.

 

שימוש בכלי GenAI לפי תפקיד

שימוש בכלי GenAI לפי תפקיד | innovationisrael.org.il

סטארטאפים מאמצים לאט יותר את כלי הקוד

אחד הפערים הבולטים בסקר מופיע בין סוגי החברות. בעוד שמרכזי מו”פ בינלאומיים וחברות שירותים מציגים אימוץ גבוה של כלי AI לכתיבת קוד – 77% מהעובדים הטכנולוגיים משתמשים בהם – שיעור השימוש בסטארטאפים נמוך משמעותית ועומד על 64% בלבד.

 

שיעור השימוש בכלי GenAI לקוד

שיעור השימוש בכלי GenAI לקוד | innovationisrael.org.il

 

הפער הזה מרמז על דפוס זהיר יותר בחברות צעירות. סטארטאפים, שפועלים לעיתים על קוד ייחודי ורגיש, נוטים לשמור על שליטה הדוקה בתהליך הפיתוח ולהימנע משילוב מהיר של כלים שעלולים להשפיע על נכס הליבה שלהם. הדוח אינו מספק הסבר ישיר לתופעה, אך הנתונים משאירים מקום לפרשנות זו.

הזדמנות או איום? זה תלוי איפה אתם נמצאים בהייטק

רוב עובדי ההייטק רואים בבינה המלאכותית הזדמנות: 68% מהמשיבים תופסים את GenAI כמנוע לצמיחה מקצועית, ורק 27% רואים בה איום ממשי על עתידם התעסוקתי. הנתונים הללו מציבים תמונה אופטימית במבט ראשון, אך כשמעמיקים פנימה מתגלים פערים ברורים בין קבוצות שונות בענף.

 

הזדמנות משמעותית להתפתחות מקצועית

הזדמנות משמעותית להתפתחות מקצועית | innovationisrael.org.il

 

עובדים בתפקידים לא טכנולוגיים נוטים לראות בבינה המלאכותית בעיקר הזדמנות – 76% מהם מצהירים כך, לעומת 65% מהעובדים בתפקידי פיתוח. במקביל, תחושת האיום פוגעת יותר בעובדים טכנולוגיים: 31% מהם חשים מאוימים, בהשוואה ל-14% בלבד בקרב עובדים שאינם בתפקידי פיתוח.

 

הפער הזה מתיישב עם מגמה רחבה בדוח: מי שעובד קרוב יותר לקוד חושש יותר מהשפעה ישירה על תחום מומחיותו, בעוד שעובדים מתחומי שיווק, מוצר, משאבי אנוש ושירות נוטים לראות בכלים מנוע שמרחיב יכולות ולא מחליף אותן.

מי חושש יותר? הפערים החברתיים שנחשפים בסקר

הנתונים על תפיסת האיום מציגים פערים חברתיים ברורים בין קבוצות שונות בענף ההייטק. אף שהרוב רואים בבינה המלאכותית הזדמנות, יש קבוצות שחשות מאוימות במידה רבה יותר – והדוח ממפה אותן באופן מדויק.

גיל ודרג מקצועי: צעירים וסניורים מודאגים יותר

החשש מהשפעת הבינה המלאכותית אינו ליניארי. דווקא העובדים הצעירים יחסית, בני 25-34, מדווחים על רמות איום גבוהות יותר לעומת קבוצות גיל מבוגרות מהם. לצד זאת, גם עובדים בדרגים בכירים – סניורים בתפקידי פיתוח – מביעים רמת חשש גבוהה: 37% מהם רואים ב-GenAI איום משמעותי על עתידם המקצועי. עובדים מבוגרים יותר, בני 45-64, מדווחים על חשש נמוך בהרבה.

מיקום גיאוגרפי והשכלה: פריפריה וללא תואר חוששים יותר

פער חד נוסף מופיע בין תושבי המרכז לפריפריה. 40% מעובדי ההייטק שמתגוררים בפריפריה חשים מאוימים מהטכנולוגיה, לעומת 24% בלבד מתושבי המרכז. הבדל דומה נמצא בין עובדים בעלי תואר אקדמי לבין כאלה ללא תואר: 39% מהעובדים ללא השכלה אקדמית מודאגים מהשפעת הבינה המלאכותית על עתידם התעסוקתי, מול 26.5% בלבד מבעלי תואר.

 

הפערים הללו מציירים תמונה ברורה: החשש אינו מחולק שווה בשווה. הוא מרוכז יותר בקרב צעירים, סניורים טכנולוגיים, תושבי הפריפריה ועובדים ללא השכלה אקדמית – קבוצות שחשות שהשינוי עשוי לערער את מעמדן בשוק העבודה.

מה מלמד אותנו הסקר הזה על עתיד העבודה בהייטק?

הנתונים מציירים תמונה מורכבת. מצד אחד, כלי הבינה המלאכותית היוצרת כבר הפכו לחלק מרכזי משגרת העבודה של כמעט כל עובדי ההייטק, והם נתפסים כמשפרים משמעותית את איכות העבודה ואת מהירות הביצוע. מצד שני, הסקר חושף כיסי חשש מובהקים – בעיקר בקרב עובדים צעירים, סניורים טכנולוגיים, תושבי הפריפריה ועובדים ללא תואר אקדמי – קבוצות שמרגישות שהשינוי הטכנולוגי עשוי להשפיע על מעמדן המקצועי.

 

דרור בין, מנכ”ל רשות החדשנות, מסכם את המשמעות הרחבה של ממצאי הסקר: “כמעט כל עובדי הענף כבר משתמשים בה – זו איננה תחזית עתידית אלא מציאות עכשווית שמעצבת מחדש את תעסוקת ההייטק.” לצד זאת הוא מדגיש כי האתגר כעת הוא ניהולי ולא רק טכנולוגי: כיצד לאזן בין פריון וצמיחה לבין ההשפעה על שוק העבודה. “על מנת למנוע פערים עוד יותר גדולים בין ההייטק לשאר הכלכלה הישראלית, נכון לוודא שבינה מלאכותית מאומצת בצורה נרחבת בכל ענפי הכלכלה.”

 

בסופו של דבר, הסקר מראה שכלי הבינה המלאכותית אינם עוד תוספת נקודתית, אלא מרכיב קבוע בפרודוקטיביות של עובדי ההייטק – מכל תפקיד, דרג וסוג חברה. אך הוא גם מציב משימה ברורה למדינה ולמעסיקים – להשקיע בהנגשת הכלים ובהכשרות ייעודיות לקבוצות שנמצאות בעמדת חולשה, כדי שהמהפכה לא תיצור פערים עמוקים יותר בשוק העבודה.

 

לסקר המלא עם כל התובנות, כנסו כאן.

הפוסט סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-high-tech-israel/feed/ 0
למה 92% ממנהלי הנתונים חייבים להיות ממוקדי תוצאות עסקיות אבל רק 29% יודעים למדוד את הערך https://letsai.co.il/data-ai-value-gap/ https://letsai.co.il/data-ai-value-gap/#respond Sat, 29 Nov 2025 14:21:59 +0000 https://letsai.co.il/?p=64935 דוח חדש של IBM Institute for Business Value מגלה שרוב הארגונים משקיעים בבינה מלאכותית בלי לדעת באמת אם היא מייצרת ערך עסקי. 92% ממנהלי הנתונים הבכירים (CDO) אומרים שהם חייבים להיות ממוקדי תוצאות עסקיות כדי להצליח בתפקיד, אבל רק 29% מהם מדווחים שיש להם מדדים ברורים שמאפשרים למדוד את הערך של תוצאות מונעות נתונים. הסקר, […]

הפוסט למה 92% ממנהלי הנתונים חייבים להיות ממוקדי תוצאות עסקיות אבל רק 29% יודעים למדוד את הערך הופיע ראשון בLet's AI בינה מלאכותית

]]>
דוח חדש של IBM Institute for Business Value מגלה שרוב הארגונים משקיעים בבינה מלאכותית בלי לדעת באמת אם היא מייצרת ערך עסקי. 92% ממנהלי הנתונים הבכירים (CDO) אומרים שהם חייבים להיות ממוקדי תוצאות עסקיות כדי להצליח בתפקיד, אבל רק 29% מהם מדווחים שיש להם מדדים ברורים שמאפשרים למדוד את הערך של תוצאות מונעות נתונים. הסקר, שנערך בקרב 1,700 מנהלי נתונים ב-27 מדינות ו-19 תעשיות, חושף פער חריף בין השאיפה להשתמש ב-AI כדי לקדם את העסק לבין היכולת להוכיח שההשקעות האלה באמת משתלמות.

 

המחקר התבסס על 1,700 מנהלי נתונים בכירים ב-27 מדינות ו-19 תעשיות ברחבי העולם

IBM Institute for Business Value, 2025 CDO Study

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המדידה הטכנולוגית מסתירה את התשובה האמיתית

הסיבה לפער הזה פשוטה. ברוב הארגונים מודדים את הטכנולוגיה במקום למדוד את השפעתה על העסק. עוקבים אחרי זמני תגובה, דיוק מודלים וכמות שאילתות, אבל הרבה פחות אחרי שאלות בסיסיות כמו: האם הלקוחות מרוצים יותר, האם העלויות יורדות, והאם השורה התחתונה באמת משתפרת.

 

באנר קורס דאטה ניתוח נתונים עם AI

 

הדוח מציג כאן סתירה חדה: 81% ממנהלי הנתונים אומרים שהם נותנים עדיפות להשקעות שמאיצות יכולות ויוזמות AI, אבל רק 26% בטוחים שהיכולות האלה באמת ביצירת מקורות הכנסה חדשים שמופעלים על ידי בינה מלאכותית. במילים אחרות, רוב הארגונים משקיעים בכוח במנוע, בלי לבדוק אם המכונית בכלל מתקדמת בכיוון הנכון.

 

מתוך זה הדוח גוזר עיקרון פשוט: אי אפשר למדוד החזר על השקעה ב-AI בלי תשתית נתונים ותהליכי מדידה שנבנו מראש בשביל זה. החברות שמצליחות לחבר בין הטכנולוגיה לערך העסקי עושות שני דברים בולטים – בונות צנרת נתונים אמינה וגמישה, והופכות את הידע התפעולי הייחודי שלהן לנכס תחרותי. במאמר הזה נתמקד בשני התחומים האלה.

 

בגרף הבא רואים את הפער הזה במספרים: 92% מהמנהלים אומרים שהם חייבים להיות ממוקדי תוצאות עסקיות כדי להצליח בתפקיד, אבל רק 29% מדווחים שיש להם מדדים ברורים שמאפשרים למדוד את הערך של תוצאות מונעות נתונים. זה כבר לא רק סיפור על טכנולוגיה מתקדמת, אלא על חוסר יכולת בסיסי לענות על השאלה “האם כל זה באמת שווה את הכסף”.

 

פער אמון: למה 92% מהמנהלים מצפים מבינה מלאכותית לתוצאות אבל רק 29% יודעים למדוד אותן

IBM Institute for Business Value, 2025 CDO Study

צנרת נתונים שעובדת באמת

בינה מלאכותית מכפילה גם את הערך וגם את הסיכון. מודל AI שמוזן בנתונים לא נקיים או לא מדויקים לא רק שלא מייצר ערך, הוא גם מגדיל את הנזק. קחו למשל חברה שמנסה לחזות ביקוש ללקוחות. אם הנתונים שלה מלאים ברעש מהזמנות שבוטלו או כתובות לא מעודכנות, המודל יחזה ביקוש גבוה באזורים שהלקוחות כבר עזבו. התוצאה ברורה – מלאי שנשאר במחסנים, עלויות לוגיסטיקה מיותרות והחלטות שנראות “חכמות” על הדשבורד אבל שגויות בשטח.

 

החברות שמצליחות לייצר ערך מבינה מלאכותית מתחילות בבנייה של צנרת נתונים נקייה ומפוקחת. הן משקיעות קודם כל בניקוי מוקדם, מסירות רעש, מסננות מקורות בעייתיים וממפות מראש נקודות כשל אפשריות. אחר כך הן ממקדות את המאמץ במידע שנותן ערך ממשי, במקום לאסוף כל דבר שזז. הן מגדירות סטנדרטים ברורים לפורמטים, משתמשות בשפה אחידה בכל המערכות ומנסחות במדויק מה נחשב “נתון תקין”.

 

לפני שהנתונים מגיעים למודל, הן מריצות בקרת כניסה שתופסת חריגות ושגיאות. אחרי שהמודל עולה לאוויר, הן ממשיכות לנטר את הזרימה בזמן אמת, מזהות סטיות מוקדם ומאפשרות תיקון מהיר לפני שהטעויות מתגלגלות ללקוחות ולדו”חות. בלי התשתית הזו, בינה מלאכותית היא בעיקר כלי יקר שמייצר החלטות מרשימות במצגת ופוגעות בביצועים בשורה התחתונה.

איך זה נראה בפועל

חברת Medtronic, יצרנית ציוד רפואי גלובלית, התמודדה עם תהליך ידני ואיטי של התאמת חשבוניות, אישורי משלוח והזמנות רכש. הצוותים השקיעו עד 20 דקות בעיבוד חשבונית אחת, תהליך שגזל זמן יקר מעבודה אסטרטגית ופגע ביעילות התפעולית.

 

Medtronic הטמיעה פתרון מבוסס AI שמבצע קליטה אוטומטית של מסמכים והתאמה ביניהם. הפלטפורמה משתמשת בלמידת מכונה ובבינה מלאכותית ג׳נרטיבית כדי להתמודד עם פורמטים מורכבים, חותמות, סריקות באיכות ירודה ומבנים לא סטנדרטיים, ולסגור את כל ההתאמות בלי התערבות ידנית.

 

בתוך ארבעה שבועות בלבד הושלמה האוטומציה של תהליך התאמת המסמכים במחלקה אחת, כבסיס להתרחבות לשאר הארגון. זמן עיבוד החשבוניות ירד מ”עד 20 דקות” ל-8 שניות עם דיוק שעולה על 99 אחוז. התוצאה לא הייתה רק חיסכון דרמטי בזמן: השגיאות היקרות צומצמו, המערכת יכולה להתמודד עם נפחי מסמכים גדלים בלי להוסיף כוח אדם, והעובדים שוחררו להתמקד במשימות בעלות ערך גבוה יותר.

 

זו דוגמה קלאסית למה שהדוח של IBM מדגיש – כשיש צנרת נתונים מסודרת ומגדירים מראש מה מודדים, בינה מלאכותית היא כבר לא “פיילוט טכנולוגי” אלא תהליך עסקי חדש עם תוצאה ברורה שקל למדוד בזמן, כסף ודיוק.

ניסיון תפעולי כיתרון תחרותי

הטכנולוגיה של בינה מלאכותית זמינה לכולם. המודלים, הפלטפורמות וה-APIs דומים מאוד בין ארגון לארגון. מה שלא זמין לכולם הוא הניסיון התפעולי הייחודי שכל ארגון צובר עם השנים. החברות שמובילות בתחום הן אלו שלא מסתפקות בידע הזה כ”ידע בראש של אנשים”, אלא הופכות אותו לנתונים, למערכות ולתהליכים שאי אפשר להעתיק בקלות.

 

זה לא ידע כללי על השוק או על טרנדים בטכנולוגיה, אלא ידע מאוד ספציפי – איך הלקוחות שלכם באמת מתנהגים, איפה התהליכים נשברים שוב ושוב, אילו פתרונות עבדו בשטח ואילו נכשלו, מה גורם לעיכובים, ואיזה ניואנסים קטנים גורמים ללקוח להישאר או לעזוב. זה החומר הגולמי שממנו בונים יתרון תחרותי אמיתי.

 

כדי להפוך את הידע הזה ליתרון עסקי צריך להתייחס אליו כמו אל נכס נתונים, לא רק כמו אל ניסיון. לתעד בזמן אמת מה עובד ומה לא, ולשתף את הצוות בתובנות במקום להשאיר אותן בשיחות מסדרון, לבנות תהליכים ברורים שניתנים לשחזור ולהגדלה, להפעיל מנועי החלטות אוטונומיים בנקודות קריטיות עם אפשרות להתערבות אנושית כשצריך, לפתח מנגנונים שמונעים טעויות ומפעילים התראות מוקדמות, כך שלא מחכים לבעיות גדולות אלא מזהים סימני אזהרה בזמן, ולשמור את כל הידע הזה במערכות נגישות שמאפשרות לשפר את התהליכים כל הזמן ולא להתחיל מאפס בכל פרויקט חדש.

 

הדוח של IBM מראה שהמיקוד הזה איננו רק יתרון תחרותי אלא גם סדר עדיפות מובהק: מנהלי הנתונים מציבים “מינוף נתונים ליתרון עסקי” במקום הראשון, ומולם מתמודדים עם אתגרים כמו תרבות מונעת נתונים וממשל נתונים אפקטיבי. התרשים הבא מציג את זה בצורה ברורה:

 

מה הכי חשוב למנהלי הנתונים – ומה מעכב אותם בדרך

מה הכי חשוב למנהלי הנתונים – ומה מעכב אותם בדרך. IBM CDO Study

למי זה מתאים ולמי לא

הגישה הזו מתאימה בדרך כלל לארגונים גדולים, לרוב עם מאות עד אלפי עובדים, שיש להם מחלקת IT ייעודית ובעלות ברורה על הנתונים. ארגונים כאלה מסוגלים להשקיע זמן ומשאבים בבנייה של תשתית נתונים, במדידה ובשינוי תהליכים לפני שהם רצים להציג תוצאות נוצצות. זה דורש סבלנות, משמעת וגישה שיטתית לעבודה עם נתונים, לא עוד פרויקט חדשני שמוצג במצגת ונשכח אחרי חצי שנה.

 

היא פחות מתאימה לחברות שמחפשות קיצור דרך או “קסם” טכנולוגי. בינה מלאכותית לא מתקנת תהליכים גרועים ולא מסדרת נתונים מבולגנים. היא רק מכפילה אותם. אם התהליכים בעייתיים והנתונים לא אמינים, AI יגרום להם להיות מהירים יותר, גדולים יותר וקשים יותר לתיקון.

 

המסקנה המעשית נשארת פשוטה – הנתונים שלכם הם הנכס הייחודי שלכם. אם לא מטפלים בהם ברצינות, שום מודל לא יציל אתכם. התחילו מבנייה של תשתית שמאפשרת מדידה אמיתית ותיעוד של ידע תפעולי. רק אחר כך תוסיפו שכבת בינה מלאכותית, ורק אז תוכלו גם להפיק ערך ממנה וגם לדעת כמה ערך באמת התקבל.

 

לסקרנים שרוצים לצלול לדוח המלא ואל כל המספרים, ההמלצות והדוגמאות, אפשר לקרוא אותו כאן.

הפוסט למה 92% ממנהלי הנתונים חייבים להיות ממוקדי תוצאות עסקיות אבל רק 29% יודעים למדוד את הערך הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/data-ai-value-gap/feed/ 0
ארה״ב משיקה את Genesis Mission ובונה תשתית AI לאומית https://letsai.co.il/us-genesis-mission/ https://letsai.co.il/us-genesis-mission/#respond Thu, 27 Nov 2025 07:13:13 +0000 https://letsai.co.il/?p=64821 ב-24 בנובמבר 2025 חתם הנשיא דונלד טראמפ (Donald Trump) על צו נשיאותי שהוציא לדרך את Genesis Mission, יוזמה לאומית שמתייחסת לבינה מלאכותית לא ככלי טכנולוגי אלא כתשתית אסטרטגית. התוכנית מאחדת נתונים פדרליים, סופר-מחשבים, מעבדות לאומיות, אוניברסיטאות וחברות טכנולוגיה לפלטפורמה אחת בשם American Science and Security Platform. כך ארצות הברית עוברת למצב של “AI לאומי” ומנסה […]

הפוסט ארה״ב משיקה את Genesis Mission ובונה תשתית AI לאומית הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-24 בנובמבר 2025 חתם הנשיא דונלד טראמפ (Donald Trump) על צו נשיאותי שהוציא לדרך את Genesis Mission, יוזמה לאומית שמתייחסת לבינה מלאכותית לא ככלי טכנולוגי אלא כתשתית אסטרטגית. התוכנית מאחדת נתונים פדרליים, סופר-מחשבים, מעבדות לאומיות, אוניברסיטאות וחברות טכנולוגיה לפלטפורמה אחת בשם American Science and Security Platform. כך ארצות הברית עוברת למצב של “AI לאומי” ומנסה לעצב מחדש את מאזן הכוח המדעי, הביטחוני והכלכלי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

היום שבו AI הפך לתשתית לאומית

מה שהשיקו בבית הלבן הוא לא עוד תוכנית טכנולוגית, אלא שינוי תפיסה שממקם את ה-AI לצד הגרעין, האנרגיה והביטחון כבסיס לעוצמה לאומית. כבר מהרגע הראשון Genesis Mission הוצגה בשפה שמזוהה עם מצבי חירום לאומיים. ההשוואה לפרויקט מנהטן אינה מטאפורה, זו הצהרה על ראיית ה-AI כתשתית עליונה, ברמת חשיבות שמזכירה את התפקיד ההיסטורי של אנרגיה, תקשורת ויכולות גרעיניות.

 

ליבת המהלך פשוטה אבל דרמטית – ברגע שכל הנכסים המדעיים של ארצות הברית מחוברים לפלטפורמת AI אחת, ניתן לדחוף את קצב המחקר משנים לחודשים ולעיתים לימים. זו ההבטחה המבצעית של American Science and Security Platform. כדי להבין מהי אותה “מערכת הפעלה לאומית ל-AI”, כדאי לבחון את האופן שבו הבית הלבן מתאר את Genesis Mission: ארכיטקטורה בת ארבע שכבות שמאחדת תשתיות מחשוב, מאגרי נתונים, אוטומציה מדעית ומודלים מבוססי יסוד לכדי מערכת אחת.

ארבע שכבות תשתית לאומית

Genesis Mission מגייסת 40,000 חוקרים, מהנדסים וצוותים טכניים ממשרד האנרגיה, ונשענת על ארבעה רכיבים מרכזיים:

  • איחוד כוח המחשוב של 17 המעבדות הלאומיות של משרד האנרגיה, כולל מחשבי-העל במעבדת Oak Ridge (מעבדה לאומית מובילה של ארצות הברית המתמחה בסופר-מחשוב, אנרגיה וחקר חומרים).

  • פתיחת מאגרי הנתונים המדעיים הגדולים בעולם, שנצברו לאורך עשרות שנים של מחקר פדרלי.

  • שימוש בסוכני AI אוטונומיים לבניית ניסויים, בדיקת השערות ואוטומציה של שלבי מחקר שלמים.

  • פיתוח מודלים מדעיים מבוססי יסוד בתחומי הפיזיקה, הכימיה, ההנדסה ועוד.

 

ארכיטקטורת Genesis Mission: ארבע שכבות תשתית לאומית

ארכיטקטורת Genesis Mission: ארבע שכבות תשתית לאומית

 

הכל מתרחש בלוחות זמנים אגרסיביים. תוך 90 יום מיפוי מלא של משאבי המחשוב הלאומיים, תוך 120 יום זיהוי מאגרי הנתונים והמודלים הראשונים, ותוך 270 יום הדגמת יכולת תפעולית ראשונית. בתוך 60 יום נדרש משרד האנרגיה לזהות לפחות 20 אתגרים מדעיים וטכנולוגיים בעלי חשיבות לאומית.

 

ציר הזמן של Genesis Mission: מהצו הנשיאותי ליכולת תפעולית בפחות מ-9 חודשים. מקור: צו נשיאותי, 24 בנובמבר 2025.

ציר הזמן של Genesis Mission

 

כדי להבין את סדר העדיפויות של התוכנית, הבית הלבן הגדיר רשימה של תחומי ליבה שעליהם תישען התשתית. אלה לא נושאים טכניים בלבד, אלא עמודי תווך של העוצמה המדעית והכלכלית שהמדינה רוצה להאיץ באמצעות AI:

 

התחומים בהם רוצה ארה״ב לשפר את יכולותיה בעזרת בינה מלאכותית

אתגרי העל של תוכנית ג׳נסיס

המדינה מגייסת את התעשייה

הממשל לא יוצא למהלך הזה לבדו. Genesis Mission נפתחה מיד בשותפות עמוקה עם ענקיות הטכנולוגיה וחברות החומרה, שהציגו התחייבויות חסרות תקדים. Amazon AWS הודיעה כי תשקיע עד 50 מיליארד דולר בתשתיות AI ובסופר-מחשוב עבור הממשל הפדרלי, השקעה חסרת תקדים בהיקפה ביחסי ממשל-ענן.

 

במקביל, Nvidia, AMD, Dell ו-HPE החלו להקים מתקנים ייעודיים ולשלב את מערכות החומרה שלהן במעבדות הלאומיות. גם Anthropic הצטרפה כשותפה למחקר ולפיתוח.

 

בלב המהלך עומדת מעבדת Oak Ridge National Laboratory, שתארח שני מחשבי-על חדשים: Lux, מפעל AI ריבוני שיתחיל לפעול בתחילת 2026, ו-Discovery, מחשב Exascale מהדור הבא שמיועד להגדיל את פריון המחקר המדעי פי עשרה.

 

מעבר להשקעות העצומות, המהלך מבטא ניסיון לצמצם תלות בענקיות הטכנולוגיה ולהחזיר למדינה שליטה על שכבות הליבה של תשתיות ה-AI הלאומיות.

הימור לעשור קדימה

חשוב לומר, התוכנית מניחה הנחות שטרם הוכחו. Genesis Mission מתוכננת לעשור שלם, תקופה שבה ממשלים מתחלפים, תקציבים משתנים ושיתופי פעולה תעשייתיים יכולים להתפרק.

 

AWS מתחייבת ל-50 מיליארד דולר, אבל האם הממשל הבא ישמור על אותה ארכיטקטורה? האם ריכוז כל הנתונים המדעיים הפדרליים בפלטפורמה אחת לא יוצר נקודת כשל יחידה? ומה קורה אם התשואה על ההשקעה – הכפלת פריון המחקר תוך עשור – לא מתממשת בקצב שהובטח?

 

התוכנית בנויה על הימור שהטכנולוגיה תתקדם מספיק מהר וששותפויות פוליטיות-תעשייתיות יחזיקו מעמד. זה הימור סביר, אבל לא ודאי.

מרוץ חימוש גלובלי

כדי להבין את Genesis Mission צריך להרחיב את מבט. זו לא תחרות על אפליקציות או על מודל מוצלח יותר, אלא מרוץ תשתיות רחב היקף. כל מעצמה מנסה לבנות לעצמה יכולת AI ריבונית, מהבסיס ועד שכבות המחשוב והנתונים.

 

בסין, המהלך הזה מתורגם להשקעה של כ-98 מיליארד דולר, להקמה של יותר מ-250 מרכזי נתונים וליעד של 105 EFLOPS של כוח מחשוב – רמת ביצועים שמיועדת לדור הבא של מחשבי-על, המסוגלים להריץ סימולציות ומודלים מדעיים בקצבים שלא היו אפשריים בעבר. במקביל מוקמת קרן לאומית שתוכל לגייס עוד 138 מיליארד דולר בעשרים השנים הקרובות.

 

במפרץ, סעודיה הקימה קרן של 40 מיליארד דולר, ואיחוד האמירויות בונה באבו דאבי את Stargate UAE – קמפוס AI שמתוכנן להיות הגדול בעולם מחוץ לארצות הברית.

 

בריטניה משיקה את יחידת Sovereign AI עם תקציב ראשוני של חצי מיליארד פאונד, והאיחוד האירופי מתקדם לעבר חוקת EU Cloud and AI Development Act שתקבע תשתיות מחשוב עצומות ותבסס ריבונות דיגיטלית.

 

המגמה אחידה ומצביעה על כך שהבינה המלאכותית הופכת לתשתית מדינתית. כמו אנרגיה או ביטחון, היא הופכת לגורם שמגדיר מי יחזיק בעוצמה בעשורים הקרובים.

AI כתשתית לאומית

כאן נכנסת Genesis Mission. ה-AI כבר אינו שירות שמתלווה לתעשיות קיימות, אלא מנגנון שממיר נתונים, מחשוב ומודלים לכוח מדעי, ביטחוני וכלכלי. ארצות הברית מבקשת לבנות עבורה תשתית ריבונית מהיסוד.

 

כאשר המדינה מאחדת את 17 המעבדות הלאומיות, עשרות שנות מחקר פדרלי ומחשבי Exascale תחת פלטפורמת AI אחת עם יעדים מחייבים, היא לא מבצעת ניסוי. היא מקימה מערכת הפעלה לאומית לבינה מלאכותית – תשתית שנועדה לתמוך במחקר מואץ, לקצר תהליכים משנים לימים ולייצר יכולות שהיו מחוץ להישג יד עד היום.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

איך נכון להתכונן לשנים הבאות

Genesis Mission מסמנת שינוי בסיסי באופן שבו מדינות חושבות על בינה מלאכותית. זו כבר לא טכנולוגיה שמתווספת לתעשיות קיימות, אלא תשתית שממירה נתונים, מחשוב ויכולת מדעית לכוח אסטרטגי. כמו רשתות חשמל במאה העשרים או לוויינים בתחילת עידן החלל, AI הופכת לנכס שקובע גבולות כוח.

 

השאלה המרכזית היא כבר לא מי בונה את המודל החכם ביותר, אלא מי שולט בתשתית שמאפשרת לבנות אותו. ארצות הברית בחרה בתשובה שלה – פלטפורמה ריבונית, נתונים פדרליים, מחשוב לאומי. מדינות אחרות יבנו גרסאות משלהן, או ימצאו את עצמן תלויות באלה שכבר בנו.

 

Genesis Mission אינה עוד תוכנית ממשלתית. זה הרגע שבו ארצות הברית מבקשת להגדיר מחדש את מפת הכוח המדעי והאסטרטגי לעשורים הבאים.

הפוסט ארה״ב משיקה את Genesis Mission ובונה תשתית AI לאומית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/us-genesis-mission/feed/ 0
אנטרופיק משיקה את Opus 4.5 כמודל דגל חזק יותר, זול יותר ומדויק יותר https://letsai.co.il/claude-opus-4-5/ https://letsai.co.il/claude-opus-4-5/#respond Tue, 25 Nov 2025 12:22:35 +0000 https://letsai.co.il/?p=64672 אנטרופיק השיקה את מודל הדגל החדש שלה, Claude Opus 4.5. המודל מציג ירידת מחיר חדה של 67 אחוז בהשוואה ל-Opus 4.1, שיפור משמעותי ביכולות קוד עם תוצאות מובילות בבנצ’מרקים, ואינטגרציות חדשות לדפדפן Chrome ול-Excel. לצד השדרוגים בביצועים, המודל מציג גם התקדמות בתחום הבטיחות עם עמידות משופרת וירידה בהתנהגויות לא רצויות. ההשקה מגיעה ימים בודדים אחרי […]

הפוסט אנטרופיק משיקה את Opus 4.5 כמודל דגל חזק יותר, זול יותר ומדויק יותר הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק השיקה את מודל הדגל החדש שלה, Claude Opus 4.5. המודל מציג ירידת מחיר חדה של 67 אחוז בהשוואה ל-Opus 4.1, שיפור משמעותי ביכולות קוד עם תוצאות מובילות בבנצ’מרקים, ואינטגרציות חדשות לדפדפן Chrome ול-Excel. לצד השדרוגים בביצועים, המודל מציג גם התקדמות בתחום הבטיחות עם עמידות משופרת וירידה בהתנהגויות לא רצויות. ההשקה מגיעה ימים בודדים אחרי GPT-5.1 של OpenAI ומיד אחרי Gemini 3 של Google, מה שמדגיש עד כמה התחרות בשוק מודלי השפה צמודה וצפופה. בסקירה הזו תקבלו תמונה מלאה על Opus 4.5: איפה הוא עומד מול מודלים אחרים, איך הוא מתפקד בביצועי קוד ושימושי מחשב, מה הוא יודע לעשות בפועל, כמה הוא עולה, עד כמה הוא בטוח, ולמי הוא מתאים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המחיר הוא הסיפור הגדול

Opus 4.5 מתומחר ב-5 דולר למיליון טוקנים נכנסים ו-25 דולר למיליון טוקנים יוצאים, ירידה של 67 אחוז לעומת Opus 4.1 שעלה 15 ו-75 דולר בהתאמה.

 

נסו את המודל החדש מבית אנטרופיק - Claude Opus 4.5

נסו את המודל החדש מבית אנטרופיק – Opus 4.5

 

מה זה אומר בפועל? טוקן הוא יחידת הטקסט שהמודל מעבד. בממוצע, מיליון טוקנים שווים לכ-750 אלף מילים באנגלית. עבור מפתחים שמריצים משימות קידוד יומיומיות, העלות ירדה מסדר גודל של עשרות דולרים ביום לכמה דולרים בודדים. היכולת הזו שהייתה נגישה בעיקר לארגונים גדולים הופכת מציאותית גם עבור צוותים קטנים וסטארטאפים.

שלושה מודלים, שלושה שימושים

אנטרופיק ממשיכה עם גישה של משפחת מודלים משלימים ולא מסתמכת על מודל אחד לכל המשימות.

Opus 4.5

המודל המתקדם ביותר. מיועד למשימות שמצריכות עומק מקסימלי כמו פרויקטי קוד מורכבים, סוכנים אוטונומיים וניתוח מסמכים ארוכים. למרות ירידת המחיר הדרמטית, Opus נשאר המודל היקר במשפחת 4.5, משום שהוא מספק את העומק והדיוק הגבוהים ביותר.

Sonnet 4.5

מודל העבודה היומיומי של המשפחה הוא Sonnet 4.5. הוא מספק את האיזון הטוב ביותר בין ביצועים, מהירות ועלות. לרוב המשימות השוטפות זו הבחירה המתאימה.

Haiku 4.5

המודל המהיר והחסכוני של המשפחה הוא Haiku 4.5. הוא מתאים לתעבורה גבוהה, תגובות מיידיות ומשימות פשוטות בהיקף גדול.

 

שלושה מודלים, שלושה שימושים

שלושה מודלים, שלושה שימושים

הבחירה בין השלושה משפיעה ישירות על היעילות ועל העלויות. שימוש ב-Haiku למשימות בסיסיות במקום ב-Opus יכול לחסוך עד פי חמש בעלויות בלי לפגוע בתוצאה. לרוב המשתמשים Sonnet יספיק. Opus רלוונטי כשהדיוק הוא גורם קריטי.

מה מספרים המספרים?

Opus 4.5 מציג קפיצה משמעותית ביכולות הנדסת תוכנה. בבנצ’מארק SWE-bench Verified, שמודד פתרון באגים אמיתי מתוך פרויקטי GitHub, המודל הגיע ל-80.9 אחוז והפך לראשון שחוצה את רף השמונים. לשם השוואה, GPT-5.1 Codex Max עומד על 77.9 אחוז, Sonnet 4.5 על 77.2 אחוז ו-Gemini 3 Pro על 76.2 אחוז.

 

הבנצ'מארק המרכזי להוכחת עליונות בהנדסת תוכנה

הבנצ’מארק המרכזי להוכחת עליונות בהנדסת תוכנה | anthropic.com

 

מעבר לדיוק עצמו, Opus 4.5 מפגין יתרון ביעילות. בבדיקות effort controls הוא השיג דיוק גבוה יותר בכל רמות המאמץ, תוך הפקת פחות טוקני פלט בהשוואה לדורות קודמים. המשמעות היא שהמודל יודע לבצע תהליכי חשיבה מורכבים בצורה חסכונית יותר, וזה קריטי כשעובדים בהיקפים גדולים.

 

ביצועים מול יעילות

ביצועים מול יעילות | anthropic.com

 

במבחן נוסף, Aider Polyglot, שמודד יכולת פתרון בעיות קידוד בסביבות מגוונות, Opus 4.5 הגיע ל-89.4 אחוז. Sonnet 4.5 מגיע ל-78.8 אחוז, כך שנוצר פער ברור בין הדגמים.

 

מצוין בבעיות קידוד

מצוין בבעיות קידוד | anthropic.com

 

גם בתחום העבודה עם מחשב, הכולל שימוש בדפדפן, אפליקציות וממשקי מערכת, Opus 4.5 מציג שיא חדש של 66.3 אחוז בבנצ’מארק OSWorld (אפשר לראות בטבלה למעלה). המבחן הזה בודק עד כמה מודל שפה מסוגל לתפעל מחשב אמיתי, וזה תחום שהופך במהירות לרכיב מרכזי ביכולות של מודלים מתקדמים.

 

 

גם ביכולת לשמור על רצף לאורך זמן Opus 4.5 מציג יתרון ברור. עבודה אמיתית עם מודלים מתקדמים כוללת לא רק פתרון בעיות נקודתיות, אלא משימות ארוכות שמצריכות עקביות, הבנה מתמשכת ויכולת לחזור לפרטים קודמים בלי לאבד כיוון. בבנצ’מרק Vending-Bench, שבודק קוהרנטיות לטווח ארוך במשימות מורכבות ורב שלביות, Opus 4.5 מוביל בפער משמעותי על Sonnet 4.5.

 

מתבלט בעבודה על משימות ארוכות ורב-שלביות

מתבלט בעבודה על משימות ארוכות ורב-שלביות | anthropic.com

מפרט טכני

Opus 4.5 מגיע עם חלון הקשר של 200 אלף טוקנים וגבול פלט של 64 אלף טוקנים. ה-reliable knowledge cutoff שלו הוא מרץ 2025, כלומר על מידע עד לתאריך הזה ניתן לסמוך באופן עקבי יותר, ומעבר לכך הידע חלקי.

 

לדברי דיאן נא פן (Dianne Na Penn), ראש תחום ניהול מוצר למחקר באנטרופיק, הגדלת חלון ההקשר לבדה אינה מספיקה. היכולת לזהות אילו פרטים חשובים להחזיק בזיכרון, ואילו כדאי לבדוק מחדש בזמן אמת, היא שמאפשרת למודל להתמודד עם משימות מורכבות לאורך זמן בלי לאבד את הרצף.

בטיחות והתנהגות: הפער שמבליט את Opus 4.5

אחד השינויים הבולטים ב-Opus 4.5 אינו רק בביצועים או ביעילות, אלא ברמת הבטיחות שהוא מציג. בעולם שבו מודלים משולבים במערכות ליבה, כלי קוד, תהליכים עסקיים וממשקי משתמש, עמידות למתקפות והפחתת התנהגויות לא רצויות הופכות לקריטיות כמו מהירות או דיוק.

עמידות למתקפות Prompt Injection

Opus 4.5 מציג את שיעור ההצלחה הנמוך ביותר למתקפות Prompt Injection בהשוואה ל-GPT-5.1 ו-Gemini 3. זהו מדד חשוב, משום שמתקפות כאלה יכולות לגרום למודל להתעלם מהוראות, לחשוף מידע או לבצע פעולות לא רצויות. הנתונים מראים פער ברור בין המודלים, כאשר Opus 4.5 מצמצם משמעותית את הסיכון להתנהגות כזו.

 

עמידות למתקפות Prompt Injection

anthropic.com | עמידות למתקפות Prompt Injection

התנהגות לא רצויה: ירידה משמעותית

גם במדד התנהגות מדאיגה Opus 4.5 מפגין את התוצאות הנמוכות ביותר, כלומר רמה נמוכה יותר של תגובות שעלולות להתפרש כבעייתיות או לא בטוחות. זהו חיזוק נוסף לכך שהמודל מתוכנן לא רק לביצועים, אלא גם ליציבות, אמינות והתאמה לסביבות רגישות.

 

ירידה במדד התנהגות לא רצויה

ירידה במדד התנהגות לא רצויה | anthropic.com

אינטגרציות ויכולות חדשות

צ’אט ללא הגבלה

Opus 4.5 מגיע עם מנגנון דחיסת הקשר שמסכם את חלקי השיחה הישנים בצורה חכמה ושומר את המידע הרלוונטי בלבד. המשמעות היא שהמשתמש יכול לקיים שיחה ארוכה מאוד, לבנות תוכניות מורכבות או לעבוד עם מסמכים גדולים, בלי להיתקל בהודעה שהחלון מלא. זה מאפשר סוף סוף עבודה רציפה בפרויקטים ארוכים, גם ללא תכנון מוקדם של מבנה השיחה.

Claude for Chrome

התוסף לדפדפן פתוח לכל משתמשי Max ומאפשר למודל לראות את הטאבים הפתוחים. זה מאפשר לבצע משימות כמו קריאה וניתוח של דפים, השוואת תוכן, מילוי טפסים וביצוע פעולות מבוססות דפדפן. במקום להעתיק טקסט מהדפדפן לתוך הצ’אט, המודל פשוט רואה את המסך ועובד עליו ישירות.

Claude for Excel

האינטגרציה החדשה מאפשרת למודל לעבוד בתוך Excel עצמו. הוא יכול לנתח גיליונות, לבנות מודלים, להפיק נוסחאות מורכבות או ליצור אוטומציות שמזרזות עבודה חוזרת. זה כלי פרקטי במיוחד לניתוחים פיננסיים, דוחות תפעוליים וטיוב נתונים. השירות נמצא בבטא למנויי Max, Team ו-Enterprise.

Claude Code בדסקטופ

האפליקציה מאפשרת להריץ כמה סשנים במקביל, כך שאפשר לעבוד על כמה פרויקטים בשיחה אחת בצורה מופרדת. מצב Plan Mode עבר שדרוג משמעותי, והוא בונה תוכנית עבודה מפורטת לפני שהמודל ניגש לכתיבת קוד בפועל. זה מפחית טעויות, מייצר שקיפות ומאפשר שליטה טובה יותר בתהליך הפיתוח.

זמינות

Opus 4.5 זמין דרך ה-API של אנטרופיק ובפלטפורמות ענן מרכזיות כמו Amazon Bedrock, Google Cloud Vertex AI ו-Microsoft Azure במסגרת שותפות חדשה עם Microsoft ו-NVIDIA. בנוסף, המודל זמין למנויי Pro, Max, Team ו-Enterprise, והוא משולב כברירת מחדל בחלק מהיכולות החדשות כמו Claude Code ובכלי העבודה שמגיעים עם Anthropic for Teams.

כך נראה Opus 4.5 בפעולה

פתרון פאזלים באמצעות כלים חיצוניים

בסרטון הראשון מודגם כיצד Opus 4.5 פותר משחק פאזלים מורכב שלב אחר שלב. המודל משתמש בשתי יכולות חדשות: חיפוש כלים בתוך ספריית כלים גדולה וקריאה תכנותית לכלים חיצוניים. השילוב הזה מאפשר לו לנווט, לבחור פעולות, לשרשר צעדים ולבצע משימה מורכבת בלי התערבות אנושית. זו הוכחה ליכולת של המודל לבצע פעולות בעולם אמיתי, לא רק לייצר טקסט.

 

 

משימות משרדיות אמיתיות: מצגות, אקסלים וחוזים

בסרטון השני ניתן לראות הדגמה של Opus 4.5 מבצע עבודה משרדית מלאה: בניית דקים עסקיים, עיבוד וטרנספורמציה של נתונים בגיליונות, ועריכת חוזים כולל redlining. אלה תוצרים שהמודל לא רק מייצר, אלא גם מגיש כקבצים להורדה ולעבודה מיידית. זו המחשה ברורה לכיוון שאליו אנטרופיק מכוונת: מודל שאפשר להשתמש בו לצרכים יומיומיים בארגון, לא רק לניסויים.

 

 

לסיכום, Opus 4.5 הוא לא רק שדרוג טכני. הוא מודל שאפשר להכניס לשגרת עבודה אמיתית. ירידת המחיר של 67 אחוז, יחד עם האינטגרציות החדשות לדפדפן ול-Excel, הופכות יכולות שבעבר היו שמורות לפרויקטים ייעודיים לכלי שניתן להשתמש בו ביום יום, גם בצוותים קטנים.

 

עבור ארגונים, המסר של אנטרופיק ברור. השאלה כבר אינה האם להשתמש ב-AI מתקדם, אלא איך לבנות שילוב נכון בין מודלים שונים, לאילו משימות להפעיל כל אחד, ומהי נקודת האיזון בין עלות ליכולת. זו רמת בשלות שהשוק חיכה לה זמן רב, והיא מראה עד כמה המודלים המתקדמים עוברים מפיילוט לכלי עבודה מרכזי.

הפוסט אנטרופיק משיקה את Opus 4.5 כמודל דגל חזק יותר, זול יותר ומדויק יותר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-opus-4-5/feed/ 0
שותפות משולשת בין מיקרוסופט, אנבידיה ואנטרופיק https://letsai.co.il/triple-strategic-partnership/ https://letsai.co.il/triple-strategic-partnership/#respond Tue, 25 Nov 2025 07:21:52 +0000 https://letsai.co.il/?p=64584 מיקרוסופט, אנבידיה ואנטרופיק מציגות שותפות משולשת שמשלבת הון, תשתית מחשוב ומודלי AI מתקדמים. אנבידיה ומיקרוסופט עשויות להשקיע יחד עד 15 מיליארד דולר באנטרופיק, ואנטרופיק מתחייבת לרכוש שירותי ענן מ-Azure בהיקף של 30 מיליארד דולר. התשתית תופעל על חומרת אנבידיה בהיקף של עד ג’יגה וואט של כוח מחשוב. במקביל, מודלי קלוד נכנסים ל-Azure ומצטרפים להיצע של […]

הפוסט שותפות משולשת בין מיקרוסופט, אנבידיה ואנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
מיקרוסופט, אנבידיה ואנטרופיק מציגות שותפות משולשת שמשלבת הון, תשתית מחשוב ומודלי AI מתקדמים. אנבידיה ומיקרוסופט עשויות להשקיע יחד עד 15 מיליארד דולר באנטרופיק, ואנטרופיק מתחייבת לרכוש שירותי ענן מ-Azure בהיקף של 30 מיליארד דולר. התשתית תופעל על חומרת אנבידיה בהיקף של עד ג’יגה וואט של כוח מחשוב. במקביל, מודלי קלוד נכנסים ל-Azure ומצטרפים להיצע של שלושת ספקי הענן הגדולים. זה שינוי שמסמן מעבר מהסתמכות על מודל יחיד לתפיסה רחבה יותר של גישה לתשתיות ולמגוון ספקים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הסיפור שמאחורי ההכרזה

מאחורי המספרים עומד מהלך שמסדר מחדש את הכוחות בשוק ה-AI. אנטרופיק מתחייבת לשימוש ארוך טווח ב-Azure בהיקף של 30 מיליארד דולר, מה שמבטיח הזרמה קבועה של עומסי AI משמעותיים אל Azure. לצידה, אנבידיה ומיקרוסופט עשויות להשקיע יחד עד 15 מיליארד דולר בחברה. אנבידיה צפויה להעמיד עד 10 מיליארד דולר, ומיקרוסופט עד 5 מיליארד.

 

השותפות נשענת על הדור החדש של חומרת אנבידיה. מערכות כמו Grace Blackwell ו-Vera Rubin יאפשרו לאנטרופיק לאמן ולהפעיל מודלים מהדור הבא בהיקפים גדולים. החברה התחייבה להשתמש בעד ג’יגה וואט של כוח מחשוב, נתון שממחיש את הדרישות ההולכות וגדלות של מודלים מתקדמים.

 

בצד היישומי, מודלי קלוד נכנסים ל-Foundry של Azure ומשתלבים גם בכלי Copilot של מיקרוסופט, כולל Microsoft 365, GitHub Copilot ו-Copilot Studio. קלוד מצטרף כתוספת משמעותית להיצע המודלים של Azure ופועל לצד מודלי OpenAI באותם מוצרים.

 

 

התוצאה היא מעמד ייחודי לקלוד. אחרי שהוטמע אצל אמזון וגוגל, ההשתלבות ב-Azure מציבה אותו כמודל המוביל היחיד שנמצא אצל שלושת ספקי הענן הגדולים. עבור אנטרופיק, זה מיקום שמעניק לה חשיפה חוצה פלטפורמות. עבור מיקרוסופט, זה חיזוק של סל המודלים העומד לרשות הלקוחות שלה.

מונוגמיה ל-OpenAI מתחלפת בריבוי מודלים

במשך שנים זוהתה מיקרוסופט כמעט לחלוטין עם OpenAI. ההשקעות והאינטגרציות יצרו תחושה של שותפות כמעט בלעדית. השילוב של אנטרופיק בתוך Azure אינו מפרק את היחסים עם OpenAI, אך מציב את מיקרוסופט על מסלול שבו כמה מודלים עובדים במקביל.

 

לפי דיווחי AP וגופי תקשורת נוספים, מודלי OpenAI ימשיכו להיות חלק מרכזי מהמערכת. עם זאת, אנטרופיק מצטרפת כספק ליבה נוסף ולא כתחליף. זהו שינוי שמרחיב את הגמישות של Azure ומאפשר ללקוחות להתאים מודל למשימה במקום להסתמך על מקור אחד.

 

הגישה הזו מצמצמת סיכון. אם מודל מסוים מוגבל או מתעכב, מיקרוסופט יכולה להפעיל מודל חלופי ברמת ביצועים דומה. עבור הלקוחות, זה מבנה רשת שמעניק יציבות במקום תלות יחידה.

איך זה נראה מהצד של לקוחות Azure

השילוב של מודלי אנטרופיק הוא לא תוספת קוסמטית. הוא מרחיב את אפשרויות העבודה ונותן לארגונים יכולת אמיתית לבחור מודל בהתאם למשימה. הכניסה של קלוד ל-Foundry מאפשרת לבנות אפליקציות, סוכנים ותהליכי AI גם על בסיס מודלים של אנטרופיק, אלטרנטיבה מעשית למודלי OpenAI במקרים שבהם לקלוד יש יתרון.

 

קלוד פועל גם ברמות המוצר. שילוב שלו במשפחת Copilot מאפשר להשתמש בו במקומות שבהם הוא מספק תוצאות טובות יותר, בלי להחליף תשתית. כך ארגונים יכולים לחלק את הנטל בין כמה מודלים, בהתאם לאופי המשימה.

מה זה בכלל ג’יגה-וואט ל-AI?

המספר “עד ג’יגה וואט של כוח מחשוב” מדגיש את קנה המידה של המהלך. בעולם ה-AI, מדובר בתשתית עצומה הדורשת מרכזי נתונים גדולים והשקעה גבוהה בחומרה. לפי מיקרוסופט ואנטרופיק, הקיבולת הזו תספיק לאימון ולהפעלה של מודלים גדולים לאורך שנים.

 

המחויבות הזו ממצבת את אנטרופיק כמי שפועלת בקנה מידה תעשייתי. עבור אנבידיה זהו סימון של נאמנות תשתיתית ארוכת טווח. עבור מיקרוסופט, מדובר בהבטחת זרימה קבועה של עומסי AI אל Azure.

 

בסופו של דבר, התחרות כבר אינה רק על איכות המודל. השאלה היא מי מסוגל להחזיק את התשתית שמאפשרת למודלים האלה לפעול בקנה מידה עולמי.

קלוד בכל העננים

הנוכחות של קלוד בשלושת העננים מאפשרת לארגונים לעבוד עם מודל אחד גם כשהתשתית מתחתיו משתנה. זה מפחית עלויות מעבר ומאפשר לשמור על רצף תפעולי לאורך זמן. עבור צוותים שפועלים בסביבות מרובות, זו שכבת עבודה אחידה שמאפשרת לנהל מוצרים ותהליכים בלי התאמות חוזרות.

 

המעמד הזה מציב את אנטרופיק בעמדה מרכזית בין ספקי הענן. היא אינה מזוהה עם פלטפורמה אחת, אלא מציעה מודל שמתאים לארגונים המחפשים איזון בין עלויות, ביצועים ורגולציה. השאלה כבר אינה באיזה ענן מריצים את המערכת, אלא האם המודל מאפשר גמישות אמיתית.

ומה עם OpenAI?

בהודעות הרשמיות מבהירה מיקרוסופט כי OpenAI נותר שותף מרכזי, אך כעת הוא חלק ממבנה רחב יותר. במקום מערכת יחסים סגורה, מיקרוסופט פועלת עם כמה ספקים במקביל, וכל אחד מהם מוסיף שכבת יכולות לתשתית של Azure.

 

זה מעבר מגישה המבוססת על תלות יחידה לגישה שמחלקת תפקידים בין מודלים שונים. OpenAI נשארת עוגן משמעותי, אך אינה היחידה שמחזיקה את המערכת. המבנה החדש יוצר יציבות וגמישות ומאפשר למיקרוסופט להימנע מהסתמכות על מקור אחד.

שוק ה-AI הארגוני משתנה

העסקה המשולשת מדגישה שהדיון כבר לא נסוב סביב המודל המוביל, אלא סביב היכולת לעבוד עם כמה מודלים וכמה שכבות של כוח מחשוב באופן מתואם. מיקרוסופט בונה תשתית רב שכבתית. אנבידיה מספקת את השכבה שמאפשרת לקנה המידה הזה להתקיים. אנטרופיק הופכת לחלק מהבסיס של הענן המודרני.

 

עבור ארגונים – זה שינוי פרקטי. האתגר אינו בחירה במודל יחיד, אלא בניית ארכיטקטורה שיודעת לעבוד עם כמה מודלים ללא תלות. זה כיוון ברור לשנים הקרובות ומנהלים שיבינו את זה יוכלו לבנות מערכות עמידות וגמישות יותר.

הפוסט שותפות משולשת בין מיקרוסופט, אנבידיה ואנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/triple-strategic-partnership/feed/ 0
מיקרוסופט חושפת חזון עבודה חדש בכנס Ignite https://letsai.co.il/microsoft-ignite-2025/ https://letsai.co.il/microsoft-ignite-2025/#respond Sun, 23 Nov 2025 08:06:26 +0000 https://letsai.co.il/?p=64478 מיקרוסופט השתמשה ב-Ignite 2025 כדי לשרטט מודל עבודה חדש. לא עוד כלי שממתין להוראות, אלא מערכת של סוכנים שמבינים את הארגון, את האנשים ואת הדינמיקה שבה מתקבלות החלטות. Work IQ מוסיפה שכבת אינטליגנציה שמפרשת דפוסי עבודה והרגלים, Agent 365 מביא איתו תשתית לניהול סוכנים אוטונומיים, ו-Copilot מקבל חיזוק שהופך אותו לחלק מרכזי בפעילות היומיומית. במהלך […]

הפוסט מיקרוסופט חושפת חזון עבודה חדש בכנס Ignite הופיע ראשון בLet's AI בינה מלאכותית

]]>
מיקרוסופט השתמשה ב-Ignite 2025 כדי לשרטט מודל עבודה חדש. לא עוד כלי שממתין להוראות, אלא מערכת של סוכנים שמבינים את הארגון, את האנשים ואת הדינמיקה שבה מתקבלות החלטות. Work IQ מוסיפה שכבת אינטליגנציה שמפרשת דפוסי עבודה והרגלים, Agent 365 מביא איתו תשתית לניהול סוכנים אוטונומיים, ו-Copilot מקבל חיזוק שהופך אותו לחלק מרכזי בפעילות היומיומית. במהלך הזה ניכר דפוס רחב יותר. מיקרוסופט מרחיבה את Copilot, מוסיפה מודלים חדשים כמו GPT 5.1 ומשלבת יכולות שמקרבות את סביבת העבודה לעולם שמבוסס על סוכנים. זהו חזון רחב שמנסה להזיז את מרכז הכובד של העבודה הדיגיטלית. אבל לצד ההצהרות, רוב היכולות המתקדמות נשארות כרגע מאחורי שערי תוכנית Frontier, כך שהעתיד שמיקרוסופט מציגה עדיין לא נגיש לרוב הארגונים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

Copilot במחיר חדש עם פתיחה חלקית של השער לעסקים קטנים

אחד המהלכים הבולטים ב-Ignite הוא השקת Microsoft 365 Copilot Business, מהדורה מוזלת שמחירה 21 דולר למשתמש בחודש. היא מיועדת לעסקים עם פחות משלוש מאות עובדים ותושק בדצמבר. מבחינת מיקרוסופט זהו מסר ברור. עידן הסוכנים אינו אמור להיות נחלתם של תאגידי ענק בלבד. גם עסקים קטנים נכנסים למגרש, ומיקרוסופט רוצה שהם יתחילו לשחק עכשיו.

 

המהדורה כוללת את יכולות הבסיס, את Work IQ ואת שילוב ה-Copilot באפליקציות Office. על הנייר זו פתיחה אמיתית של השער. אבל כשמסתכלים על הגבולות, רואים שהמהלך מוגבל. עסקים בינוניים וארגונים גדולים ימשיכו לשלם את המחיר המלא. התוצאה היא פחות מהפכה ויותר כוונון עדין של השוק, מהלך שנועד להניע שכבה ספציפית של לקוחות ולא לייצר שינוי כולל.

Work IQ

השדרוג העמוק ביותר שהוצג ב-Ignite לא נמדד בכמות הפיצ’רים, אלא ברעיון שעומד מאחוריו. Work IQ היא לא עוד תחנה בקו הפיתוח. זו הצהרה על שינוי זהות. ממערכת שעונה לבקשות למערכת שמנסה להבין איך ארגון עובד.

 

הבסיס הוא שכבת נתונים רחבה שמקיפה מיילים, צ’אטים ופגישות. זו שכבת ה”חיים עצמם” שממנה המערכת בונה תמונה של מה שקורה ביום יום. מעליה מונחת שכבת זיכרון, שמזהה דפוסים, לומדת סגנון עבודה ומתחקה אחר הרגלים שחוזרים שוב ושוב. מעל שתיהן פועל מנגנון הסקה שמנסה להפוך את כל זה לדבר אחד פשוט. מה הצעד הבא המתאים ביותר עכשיו.

 

מכאן נולד שינוי הגישה. Copilot כבר לא מסתפק ב”להביא תשובה”. הוא מנסה להבין מהי המשימה הנכונה ברגע הנכון. בעבר השיחה נראתה כך. אתם מבקשים, והוא מגיש לכם את המידע שביקשתם. עכשיו הכוונה היא אחרת. אתם עובדים, והמערכת אומרת לכם “הנה מה שנראה שאתם צריכים לעשות עכשיו”.

 

 

החזון שאפתני. הוא מבקש להוריד מהשולחן את העומס הקטן והיומיומי שמצטבר סביב אלפי החלטות זעירות. אבל יחד איתו מגיעות גם שאלות כבדות. עד כמה מנהלים יסמכו על מערכת שמפרשת את צורת העבודה שלהם. האם רמת הדיוק תהיה גבוהה מספיק כדי להצדיק המלצות פעולה. והאם ארגונים יהיו מוכנים לשלם את מחיר החשיפה של המידע הפנימי והרגיש שלהם בתמורה לאוטומציה חכמה יותר.

Agent 365

אם Work IQ הוא המוח שמנסה להבין איך הארגון עובד, Agent 365 הוא השלד שמחזיק את כל המערכת. מיקרוסופט מציגה חזון שבו ארגונים מפעילים לא סוכן אחד ולא שניים, אלא מערך שלם. חלקם נוצרים ב-Copilot Studio, אחרים מגיעים מ-Foundry, ואחרים מספקים חיצוניים כמו Adobe או SAP. העולם הזה כבר לא נראה כמו כלי אחד חכם, אלא כמו אוסף של עובדים דיגיטליים שכל אחד מהם מבצע משימה אחרת.

 

במציאות כזו נדרש שינוי. ארגונים צריכים מערכת אחת שמרכזת את כל הסוכנים, מנהלת אותם ומפקחת עליהם. Agent 365 מנסה לתפוס את המקום הזה. היא מטפלת ברישום, בהגדרת הרשאות, בהצגת קשרים בין סוכנים ובאבטחה שמאתרת התנהגות חריגה. המהלך הזה מציב את הסוכנים באותה קטגוריה שבה מנהלים משתמשים, זהויות ותוכנות. לא עוד תוסף צדדי, אלא מרכיב תשתיתי בליבת העבודה.

 

עם זאת, לשינוי יש מחיר. המגבלה הראשונה ברורה. Agent 365 זמין כרגע רק במסגרת תוכנית Frontier. המשמעות פשוטה. ארגונים שחושבים קדימה ורוצים להתחיל להקים תהליכי פיקוח וניהול סוכנים לא יכולים לעשות זאת בפועל. הם צריכים להמתין עד שמיקרוסופט תחליט לפתוח את הפיצ’ר באופן רחב יותר.

 

המגבלה השנייה עמוקה יותר. Agent 365 מדבר בשפה של ארגונים מתקדמים, כאלה שכבר מפעילים פורטפוליו גדול של סוכנים. עבור רוב השוק זו אינה הזדמנות מיידית אלא יעד עתידי. המערכת מסמנת לאן מיקרוסופט רוצה שהארגונים יגיעו, אבל לא כל ארגון מוכן או מסוגל לעבור לשם כבר עכשיו.

 

 

Office ו-Teams מקבלים מאיץ

שדרוגי Office שהוצגו ב-Ignite מנסים לחבר את העבודה הדיגיטלית לכדי רצף אחד. לא עוד קבוצה של יישומים שמגיבים לבקשות, אלא סביבת עבודה שבה סוכנים יכולים לפעול ישירות בתוך המסמכים, המצגות והשיחות. המטרה היא להפוך את האפליקציות ממקום שבו מבצעים פעולות ידניות למרחב תפעולי חי.

 

Agent Mode ב-Word הוא הדוגמה הברורה ביותר. המצב החדש פתוח לכל המשתמשים, והוא משנה את התפקיד של Word עצמו. העורך אינו רק כלי לכתיבה ופיסוק. הוא הופך לזירה שבה סוכנים פועלים, מייצרים טיוטות, מבצעים עריכה ומקדמים תהליכים באופן יזום, כאילו היו חלק מהצוות.

 

ב-PowerPoint הסיפור אחר. Agent Mode קיים, אבל נשאר מאחורי Frontier. המשמעות היא שהיכולת קיימת, אך אינה נגישה לרוב הארגונים. הפיצול הזה מחדד את אסטרטגיית מיקרוסופט. חלק מהתכונות יוצאות מיד לקהל הרחב כדי לייצר אימוץ, ואחרות נשמרות למסלול מבוקר שבו החברה יכולה לפתח וללמוד כיצד ארגונים משתמשים בהן.

 

Excel מציג שינוי מסוג אחר. לראשונה מיקרוסופט מאפשרת לבחור מודל, OpenAI או Anthropic. זו אינה רק תוספת טכנית. זה מסר על גמישות ועל תחרותיות בתוך סביבת העבודה. המשתמש אינו כבול למודל אחד, והארגון יכול לבחור את מנוע הבינה שמשרת אותו בצורה הטובה ביותר.

 

לצד כל אלה מופיעה שורה של סוכני AI חדשים. הם מאפשרים ליצור מסמכים, מצגות וגיליונות באמצעות תהליך איטרטיבי בתוך Copilot Chat. זה שינוי בתפיסת העבודה. בעבר המשתמש עבד בכלי וביקש עזרה מהמערכת. עכשיו הסוכן מוביל את התהליך, והמשתמש מצטרף אליו.

 

ב-Teams השינוי בולט עוד יותר. Facilitator Agent נכנס לתפקיד שמרגיש כמעט אנושי. הוא מנהל סדר יום, מתעד, שומר על מסלול הדיון ומבצע פעולות המשך. בשילוב Model Context Protocol הסוכנים יכולים לדבר ישירות עם Jira, Asana ו-GitHub. שיחה אחת יכולה להפעיל שרשרת פעולות חוצת מערכות.

 

המסר ברור. מיקרוסופט רוצה ש-Teams יפסיק להיות רק מקום שבו מדברים ויהפוך למערכת שמבצעת עבודה. לא תא ישיבות אלא מנוע תפעולי. בתוך אותו מהלך, Office עצמו כבר אינו סביבת עריכה בלבד. הוא מתגבש לזירה שבה העבודה מתרחשת בפועל.

Sora 2 בתוך Copilot

Sora 2 של OpenAI מציבה רף חדש ליכולות הווידאו בתוך Microsoft 365 Copilot. לראשונה, משתמשים יכולים ליצור סרטונים קצרים למטרות שיווק ישירות מתוך סביבת העבודה. הכלי תומך בדיבוב, במוזיקה ובהתאמות מותג, והוא מציג כיוון ברור. יצירת וידאו מתחילה להיראות כמו עוד משימה שאפשר לבצע במהירות, כמעט כמו כתיבת מסמך או הכנת מצגת.

 

יחד עם זאת, ההשקה עדיין אינה מלאה. Sora 2 זמינה כבר היום ב-Copilot, אך הגישה אליה מתבצעת באופן מדורג ומלווה במנגנוני בקרה וניהול שמתגלגלים החוצה בהדרגה. המשמעות היא שחלק מהארגונים יקבלו גישה מוקדמת במסגרת מסלול Frontier, בעוד שאחרים יזכו לזמינות רחבה יותר בשלבים מאוחרים יותר. גם בשלב זה המודל מוגבל ליצירת סרטונים קצרים בלבד.

 

 

עכשיו צריך להחליט מי קופץ

מאחורי ההכרזות של Ignite 2025 עומדת אסטרטגיה רחבה הרבה יותר. מיקרוסופט אינה מסתפקת בהוספת פיצ’רים. היא מציעה ארכיטקטורה חדשה של עבודה ארגונית שבה סוכני AI אינם תוספת, אלא חלק מהתשתית. Work IQ, Agent 365, המודלים החדשים של Copilot והיכולות שמתחברות לתוך Office ו-Teams משרטטים עתיד שבו הארגון עובד לצד מערך של סוכנים דיגיטליים, ומנהל אותם כמו שמנהלים משתמשים והרשאות.

 

אבל כדי שהחזון הזה יתממש, ארגונים יצטרכו לשנות את עצמם. לא די לרכוש רישיון. נדרש שינוי מבני. הגדרה מחדש של הרשאות, יצירת תפקידים חדשים כמו מנהל סוכנים, תהליכי אישור ברורים ומנגנוני פיקוח מבוססי נתונים. זהו לא עדכון טכנולוגי אלא מהלך ארגוני שמחייב מחשבה מחודשת על זרימות העבודה ועל המידה שבה הארגון מוכן להעביר אחריות למערכת.

 

וכאן נשארת שאלה אחת חשובה. לא אם הטכנולוגיה בשלה, אלא אם הארגון בשלב שבו הוא מוכן לקפוץ. האם אתם מתחילים להטמיע סוכנים ולשנות את דרך העבודה שלכם, או מעדיפים לעמוד על שפת הבריכה ולראות מי יזנק ראשון?

הפוסט מיקרוסופט חושפת חזון עבודה חדש בכנס Ignite הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-ignite-2025/feed/ 0