כל הכתבות של רון גולד במגזין Let's AI בינה מלאכותית https://letsai.co.il/author/aviron19/ בינה מלאכותית Mon, 08 Dec 2025 15:42:30 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp כל הכתבות של רון גולד במגזין Let's AI בינה מלאכותית https://letsai.co.il/author/aviron19/ 32 32 איך בינה מלאכותית משנה את העבודה באנטרופיק – ומה זה אומר על העתיד שלנו https://letsai.co.il/ai-transforming-work-anthropic/ https://letsai.co.il/ai-transforming-work-anthropic/#respond Tue, 09 Dec 2025 07:46:13 +0000 https://letsai.co.il/?p=65652 אם רוצים להבין איך תיראה העבודה של מהנדסים ואנשי ידע בעוד כמה שנים, כדאי להסתכל על מה שקורה היום באנטרופיק. זו לא מצגת חזון על “עתיד העבודה”, אלא תיאור יחסית נדיר של מה קורה כש-AI נכנס עמוק ליום עבודה אמיתי, אצל האנשים שבונים את המודלים בעצמם. אנטרופיק, החברה שפיתחה את Claude, סקרה כ-132 מהנדסים, ערכה […]

הפוסט איך בינה מלאכותית משנה את העבודה באנטרופיק – ומה זה אומר על העתיד שלנו הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם רוצים להבין איך תיראה העבודה של מהנדסים ואנשי ידע בעוד כמה שנים, כדאי להסתכל על מה שקורה היום באנטרופיק. זו לא מצגת חזון על “עתיד העבודה”, אלא תיאור יחסית נדיר של מה קורה כש-AI נכנס עמוק ליום עבודה אמיתי, אצל האנשים שבונים את המודלים בעצמם. אנטרופיק, החברה שפיתחה את Claude, סקרה כ-132 מהנדסים, ערכה 53 ראיונות עומק וניתחה בערך 200 אלף סשנים של Claude Code כדי להבין איך העבודה שלהם משתנה. לפי הדיווח של המהנדסים, Claude מעורב היום בכ-60% מהעבודה שלהם, והם מדווחים על עלייה ממוצעת של כ-50% בפרודוקטיביות בהשוואה לעבודה בלי AI. שנה קודם, השימוש היה סביב 28% מהעבודה והעלייה בפרודוקטיביות הוערכה בכ-20%.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

לפני שממשיכים, חשוב לזכור את המסגרת: זה מחקר פנימי של חברה מסחרית, על מהנדסים שהם משתמשים מתקדמים במיוחד, והמדדים מבוססים ברובם על דיווח עצמי. אין כאן מדידה אובייקטיבית של תפוקה לאורך שנים, אלא צילום מצב עשיר של איך אנשים מרגישים ועובדים בתוך אחד מארגוני ה-AI הכי מתקדמים. ובדיוק בגלל זה, מה שקורה שם הוא כנראה הצצה מוקדמת למה שעוד יגיע לשאר השוק.

לא רק לחסוך זמן – לעשות עבודה שלא הייתה קיימת

הנתונים היבשים מספרים סיפור אחד. העדויות מהשטח מספרות סיפור קצת אחר.

 

על פניו, המספרים מרשימים – יותר שימוש ב-AI, קפיצה בתחושת הפרודוקטיביות, ואפילו קבוצה של כ-14% מהנדסים שמתארים קפיצה של יותר מפי 2 בתפוקה. אבל כשמסתכלים על איך המהנדסים מתארים את היום יום, מתגלה ניואנס חשוב – זה פחות “אני עושה את אותה עבודה בחצי זמן”, ויותר “אני מספיק הרבה יותר דברים שלא היו נכנסים לי בכלל ללו״ז”.

 

השפעת Claude על זמן לעומת תפוקה

השפעת Claude על זמן לעומת תפוקה | Anthropic

 

בערך 27% מהעבודה שנעשית היום עם Claude, לפי הסקר, פשוט לא הייתה נעשית בלעדיו. מהנדסים מדברים על:

  • תיקון באגים קטנים ומעצבנים שהיו נדחים שוב ושוב.

  • בנייה של כלים פנימיים ודאשבורדים שמשפרים את החיים בצוות, אבל אף פעם לא נכנסו ל”עדיפויות”.

  • עבודת חקר טכנית שלא הייתה כדאית אם היו צריכים לבצע אותה ידנית.

חוקר אחד מתאר שהוא מריץ כמה מופעי Claude במקביל, שכל אחד בודק כיוון אחר לפתרון בעיה. הוא מסביר שאנשים חושבים על מודלים מתקדמים כמו על “מכונית מהירה יותר”, אבל בפועל זה יותר כמו “יש לך כוח סוס כמעט אינסופי לבדוק רעיונות”. זה שינוי לא רק בכמה מהר עובדים, אלא בכמה אפשר לנסות.

מהנדסים כמנהלי אורקסטרציה, לא רק ככותבי קוד

שינוי נוסף שמופיע שוב ושוב בראיונות הוא הרחבת תחומי המומחיות בפועל. הגבולות המסורתיים של “אני Backend”, “אני Frontend”, “אני רק מחקר” נפתחים. מהנדסי Backend מספרים איך הם בונים ממשקי משתמש מורכבים בעזרת Claude. חוקרים יוצרים ויזואליזציות נתונים ואוטומציות סביב הניסויים שלהם. צוותי אבטחה משתמשים ב-Claude כדי לקרוא ולנתח קוד שהם לא מכירים.

 

אחד המהנדסים מספר שהצליח, בעזרת Claude, לבנות ממשק משתמש ברמת איכות שבחיים לא היה מגיע אליה לבדו בזמן שהיה לו. המעצבים שאלו אותו אם הוא פתאום נהיה מומחה UI. הוא ענה את האמת: “Claude בנה, אני רק ניהלתי.” התפקיד זז לאט לאט מכותב קוד למנהל אורקסטרציה – זה שמפרק את הבעיה, מנסח את הדרישות למודל, בודק את הפלטים, מחבר אותם למערכת הקיימת ולוקח אחריות על התוצאה.

 

תדירות המשימות ב-Claude Code לפי קטגוריות

עלייה חדה במימוש פיצ’רים, תכנון ו-Front-End תוך חצי שנה | Anthropic

 

הנתונים מ-Claude Code מחזקים את זה. אנטרופיק מדווחת שבסשן טיפוסי, המודל מחזיק היום בערך פי שניים יותר “צעדים ברצף” לפני שהוא צריך קלט חדש מהמשתמש ביחס ללפני חצי שנה. שיעור המשימות שעוסקות בתכנון ועיצוב קוד עלה מאזור האחוז הבודד לכ-10%. מימוש פיצ’רים חדשים קפץ מכ-14% לכמעט 37% מהשימוש. המודל כבר לא רק “עוזר לכתוב פונקציה”, אלא מעורב בשלבים עמוקים יותר של בניית המוצר.

 

שיעור המהנדסים שמשתמשים ב-Claude מדי יום לכל קטגוריית משימה

שיעור המהנדסים שמשתמשים ב-Claude מדי יום לפי משימות | Anthropic

 

ועדיין, כששואלים את המהנדסים כמה מהעבודה הם יכולים “להאציל לגמרי” ל-Claude, רובם נשארים באזור 0-20 אחוז. הסיבה פשוטה – ברוב הזמן הם לא משחררים משימה ונעלמים, אלא עובדים עם Claude יחד, צעד אחרי צעד. זה לא רובוט אוטונומי, זה שותף שצריך ניהול.

 

עלייה באוטונומיה של Claude

עלייה באוטונומיה של Claude

 

חשוב לראות שהשינוי הזה אינו מתקיים רק בצוותי פיתוח. השימוש ב-Claude חוצה צוותים וסוגי תפקידים, וכל מחלקה משתמשת בו באופן אחר.

 

ככה נראית ההתפשטות הארגונית של העבודה האוטומטית:

 

שימוש ב-Claude לפי צוותים שונים

התפלגות משימות Claude Code לפי סוג צוות | Anthropic

מיומנויות, יחסים וזהות מקצועית

ככל שיותר מהעבודה עוברת דרך Claude, מתחילים לצוף גם צדדים פחות נוחים.

 

הראשון הוא שחיקה אפשרית של מיומנויות. לא בקפיצה אחת, אלא בשחיקה איטית. במקום לקרוא דוקומנטציה, לעבור על קוד לבד, ולהיאבק עם באגים, מהנדסים רבים מדלגים ישר לפתרון. חלקם אומרים במפורש שהם מרגישים שאיבדו חלק מה”חוש” שנבנה כשהיו עושים דברים “בדרך הקשה”.

 

מהנדס בכיר אומר שהוא משתמש ב-AI בעיקר במשימות שבהן הוא כבר יודע איך התשובה בערך צריכה להיראות, ולכן יכול לפקח על האיכות. הוא מוסיף שאם היה בתחילת הקריירה, כנראה היה צריך להשקיע הרבה יותר מאמץ מודע כדי לוודא שהוא לא פשוט מאמץ את מה שהמודל נותן.

 

כאן נוצר פרדוקס לא קטן – כדי לפקח על Claude היטב, צריך בדיוק את אותן מיומנויות שעלולות להישחק משימוש מוגזם בו. חלק מהמהנדסים מתארים שהם בכוונה עובדים לפעמים בלי AI, כדי להישאר חדים.

 

המחקר גם מצביע על שינוי ביחסים בין אנשים. Claude הפך לתחנה הראשונה לשאלות שפעם היו מופנות לעמיתים. מהנדסים מספרים שהם שואלים עכשיו הרבה יותר שאלות באופן כללי, אבל 80-90 אחוז מהן הולכות למודל. מצד אחד, זה חוסך “מבוכה” ופוגע פחות בזמן של אחרים. מצד שני, חלק מהבכירים אומרים בגלוי שזה עצוב לראות כמה פחות ג’וניורים מגיעים אליהם. המודל עושה אופטימיזציה לשאלה, אבל חונכות וקשרים אנושיים לא נבנים מעצמם.

 

ולבסוף, יש את השאלה הגדולה של הקריירה. חלק מהמהנדסים בעמדות בכירות מרגישים יחסית בטוחים. הם יודעים לקחת אחריות, לתכנן מערכות, לנהל סיכונים. אבל גם הם מודים שקשה להם להמר על אילו מיומנויות יהיו רלוונטיות בעוד חמש או עשר שנים. אחרים מנסחים תחושה קיצונית יותר: “אני מרגיש שאני בא לעבודה כל יום כדי לעבוד על הטכנולוגיה שייתכן שתהפוך אותי ואת עוד רבים ללא רלוונטיים.”

 

זה לא סיפור של “איום מיידי”. זה סיפור של מקצוע שנמצא בתנועה מתמשכת, בלי מפה ברורה.

 

 

מה אפשר ללמוד מזה מחוץ לאנטרופיק

אנטרופיק מדגישה שהמהנדסים שלה לא מייצגים את כל שוק העבודה. הם עובדים עם הכלים הכי מתקדמים, הם קרובים למודל, והתרבות הארגונית שלהם מותאמת לזה. אבל מה שקורה שם היום הוא לכל הפחות אזהרה מוקדמת, או אולי הזדמנות מוקדמת, לכל ארגון שמכניס AI לעבודה היומיומית.

 

יש כמה מסקנות שקשה להתעלם מהן:

1. AI באמת מגדיל תפוקה, אבל משנה את סוג העבודה: לא מדובר רק בקיצוץ זמן על משימות קיימות, אלא ביצירה של קטגוריות עבודה חדשות – ניסויים, כלים פנימיים, תיקונים קטנים. ארגונים שלא ימצאו דרך לתרגם את “עוד עבודה” הזאת לערך אמיתי, עלולים פשוט להציף את עצמם בעשייה.

2. מיומנויות עמוקות לא נשמרות לבד: אם נותנים ל-AI להיכנס לכל שלב, צריך במקביל לחשוב איך שומרים על יכולת הבנה עצמאית של מערכות, במיוחד אצל ג’וניורים. זה לא קורה מעצמו.

3. חונכות ויחסים מקצועיים צריכים תכנון מודע: אם רוב השאלות הולכות למודל, צריך ליצור במכוון מרחבים שבהם אנשים כן שואלים אחד את השני, כן יושבים על קוד ביחד, כן רואים איך אחרים חושבים.

4. זהות מקצועית תעבור שינוי: מהנדסים, אנשי מוצר, אנליסטים ועוד מקצועות יהיו פחות “עושים הכל ידנית”, ויותר מנהלי תהליכים וסוכנים. זה דורש שפה אחרת כשיושבים לדבר על קריירה, קידום ופיתוח מקצועי.

במובן הזה, המחקר של אנטרופיק הוא לא תשובה, אלא מראה. הוא מראה איך נראית עבודה כש-AI הופך להיות שכבת תשתית יומיומית, ולא גימיק. מי שמסתכל עליה ברצינות, יכול להתחיל לתכנן היום איך הוא רוצה שהשילוב הזה ייראה אצלו, לפני שהשינוי יכפה עליו מבחוץ.

 

לכל מי שרוצה לקרוא את המחקר המלא, כנסו כאן.

הפוסט איך בינה מלאכותית משנה את העבודה באנטרופיק – ומה זה אומר על העתיד שלנו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-transforming-work-anthropic/feed/ 0
דוח בזק 2025 מצביע על חברה ישראלית שמאמצת בינה מלאכותית במהירות חסרת תקדים https://letsai.co.il/ai-adoption-in-israel/ https://letsai.co.il/ai-adoption-in-israel/#respond Sat, 06 Dec 2025 10:38:33 +0000 https://letsai.co.il/?p=65493 שלוש שנים אחרי הופעת ChatGPT, הבינה המלאכותית הפכה לחלק כמעט טבעי מהיומיום הישראלי. 92% מהציבור מדווחים שהכירו או השתמשו בכלי AI, קצב אימוץ מהיר בהרבה מהטכנולוגיות שהקדימו אותו. לשם השוואה, לוואטסאפ נדרש כמעט עשור להגיע לשיעורי שימוש דומים, ולקניות אונליין קרוב לעשרים שנה. כך עולה מדוח האינטרנט השנתי של בזק לשנת 2025, המבוסס על סקר […]

הפוסט דוח בזק 2025 מצביע על חברה ישראלית שמאמצת בינה מלאכותית במהירות חסרת תקדים הופיע ראשון בLet's AI בינה מלאכותית

]]>
שלוש שנים אחרי הופעת ChatGPT, הבינה המלאכותית הפכה לחלק כמעט טבעי מהיומיום הישראלי. 92% מהציבור מדווחים שהכירו או השתמשו בכלי AI, קצב אימוץ מהיר בהרבה מהטכנולוגיות שהקדימו אותו. לשם השוואה, לוואטסאפ נדרש כמעט עשור להגיע לשיעורי שימוש דומים, ולקניות אונליין קרוב לעשרים שנה. כך עולה מדוח האינטרנט השנתי של בזק לשנת 2025, המבוסס על סקר מקיף בקרב 4,750 ישראלים בני 13 ומעלה שנערך בשיתוף KANTAR.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שימוש יומיומי אינטנסיבי

מחצית מהישראלים שמוגדרים כ״משתמשים קבועים״ ב-AI משתמשים בו לפחות פעם ביום. מתוך הקבוצה הזו, 10% מדווחים על שימוש לאורך כל היום, 29% משתמשים פעם ביום, ו-11% כמה פעמים ביום. זמן השימוש היומי הממוצע עומד על שעה וחצי. 70% מהמשתמשים ב-AI אומרים שזמן המסך שלהם עם AI עלה בהשוואה לשנה שעברה.

 

נתונים על אימוץ בינה מלאכותית

שימוש יומי אינטנסיבי | קרדיט: bezeq.co.il

 

גם סל הכלים מתרחב. הישראלים לא מסתפקים בכלי אחד, והדוח מצביע על עלייה במספר כלי ה-AI שבהם משתמש אדם ממוצע לעומת 2024. ChatGPT נשאר הכלי הדומיננטי, עם 75% שימוש בקרב המשתמשים. Gemini של גוגל קופץ מ-22% ב-2024 ל-42% ב-2025, ומשמש 59% מבני הנוער. Canva מגיע ל-21% שימוש כללי ו-45% בקרב נוער. אחריה Copilot של מיקרוסופט עם 18%, Claude עם 12% ו-Perplexity עם 9%.

 

אימוץ כלי בינה מלאכותית

מגוון ותדירות השימוש בכלי בינה מלאכותית | קרדיט: bezeq.co.il

 

הנתון של 92% שימוש ב-AI בולט עוד יותר כשמשווים אותו לשנים קודמות: 69% בלבד ב-2024 ו-48% ב-2023. בתוך שנתיים בלבד, השימוש בכלי AI בישראל כמעט הפך לנורמה. מאחר שהשאלה בסקר עוסקת ב״שימוש בכלי AI״ באופן כללי, סביר שהנתון כולל גם שימוש עקיף בכלים משולבי AI, כמו חיפוש בגוגל או יכולות AI מובנות באפליקציות אחרות, ולא רק שימוש ישיר בצ׳אטבוטים.

 

נתוני שימוש בבינה מלאכותית

עלייה דרמטית בשימוש ב-AI תוך שלוש שנים | קרדיט: bezeq.co.il

AI מחליף רופאים, עורכי דין ופסיכולוגים

38% מהציבור הישראלי קיבלו ב-2025 לפחות עצה רפואית אחת מ-AI, לעומת 19% בלבד ב-2024. רבע מבני הנוער בישראל מתייעצים עם AI במקום עם רופא, וגם בקרב בני 60 ומעלה נרשם אימוץ זהיר של כ-6%.

 

הבינה המלאכותית כיועץ

הבינה המלאכותית כיועץ | קרדיט: bezeq.co.il

 

מעבר לרפואה הפיזית, ה-AI נכנס גם למרחב הרגשי. 29% מהבוגרים ו-59% מבני הנוער פנו ל-AI לסיוע נפשי או רגשי. כחמישית מהישראלים משתמשים ב-AI לקבלת עצות מקצועיות בתחום הקריירה.

 

גם בתחום המשפטי נרשמה קפיצה כאשר שיעור הישראלים שקיבלו עצה משפטית מ-AI עלה מכ-9% ב-2024 לכ-19% ב-2025.

השפעה על מערכת החינוך

69% מבני הנוער בישראל אומרים שכלי AI עוזרים להם להיות טובים יותר בלימודים. 28% כבר השתמשו במורה AI במקום מורה פרטי, ועוד 34% שוקלים לעשות זאת בעתיד. בתוך דור תלמידים אחד, מורה אלגוריתמי הופך מחידוש טכנולוגי לחלופה אמיתית לשיעור פרטי.

 

מנגד, מערכת החינוך עצמה לא מדביקה את הקצב. 35% מהבוגרים ו-41% מבני הנוער סבורים שבתי הספר אינם מעודדים את התלמידים להשתמש ב-AI. בפועל, נוצר פער בין מה שהתלמידים עושים בבית לבין מה שמותר להם לעשות בכיתה.

 

ה-AI כמורה פרטי

ה-AI כמורה פרטי | קרדיט: bezeq.co.il

חששות גדלים

לצד ההתלהבות מה-AI, מתגלה גם אי אמון. 58% מהישראלים נמנעים מלחשוף ל-AI מידע אישי מחשש שידלוף או שיעשה בו שימוש לרעה. 44% לא סומכים על המידע שהם מקבלים מהמערכות האלה. 67% מודים שהם מתקשים לזהות אם טקסט או תמונה נוצרו על ידי אדם או על ידי AI, ו-71% רוצים שתוכן שנוצר ב-AI יסומן באופן ברור. החוויה האישית מחזקת את החשדנות – כ-30% מהציבור ו-37% מבני הנוער מספרים שכבר נכוו מעצה אישית שקיבלו מ-AI והתבררה כשגויה.

 

פחות סומכים על המידע

חששות וספקנות לצד התלהבות | קרדיט: bezeq.co.il

תופעת ההתמכרות והשפעה על יחסי הורים-ילדים

29% מבני הנוער בישראל אומרים שהם כבר מרגישים מכורים ל-AI. גם בקרב המבוגרים, 16% מדווחים על תחושה דומה. לשם השוואה, כ-40% מבני הנוער מגדירים את עצמם מכורים לרשתות חברתיות בכלל.

 

התמכרויות דיגיטליות גרסת ה-AI

התמכרויות דיגיטליות גרסת ה-AI | קרדיט: bezeq.co.il

 

ה-AI נכנס גם למרחב היחסים בתוך הבית. 45% מבני הנוער מרגישים שה-AI מחליף את הצורך להתייעץ עם ההורים. 38% אומרים שה-AI מבין אותם טוב יותר מאנשים בחיים שלהם, ו-21% מהנוער מדווחים שהם אפילו מפתחים רגשות כלפי המערכת.

 

הנוער מפתח רגשות לבינה המלאכותית

הנוער מפתח רגשות לבינה המלאכותית | קרדיט: bezeq.co.il

 

מחקרי בריאות נפשית בעידן הדיגיטלי מצביעים לא פעם על תבנית דומה – שימוש אינטנסיבי בטכנולוגיה מספק הקלה רגשית מיידית, אבל אצל חלק מהמשתמשים הוא עלול להיות קשור גם לעלייה בתחושת בדידות או הסתגרות חברתית. הנתונים מדוח בזק מרמזים שה-AI עלול להצטרף לאותו דפוס – כלי שמרגיש זמין ואמפתי, אבל עלול גם להחליף שיחה אנושית במקום לעודד אותה.

השפעה על היכולות האנושיות

הנתונים מציירים תמונה כפולה. מצד אחד, מבין המשתמשים ב-AI,  כ-72% מרגישים שהכלים מחזקים את הידע שלהם על העולם, 68% אומרים שנהיו יותר סקרנים ולומדים דברים חדשים, 65% מרגישים יותר יעילים, ו-44% מדווחים שהביטחון העצמי שלהם התחזק.

 

השפעה על היכולות האנושיות

השפעה על היכולות האנושיות | קרדיט: bezeq.co.il

 

מצד שני, אותם משתמשים מדווחים גם על מחיר. 66% מרגישים שנהיו יותר עצלנים, 52% חשים שהם פחות יצירתיים, 42% מרגישים שפחתה אצלם החשיבה העצמאית, ו-39% אומרים שנהיו פחות סבלניים. 32% כבר חוששים משחיקה כללית בכישורים האנושיים.

 

המשמעות היא לא רק ויכוח עקרוני על טכנולוגיה, אלא חוויה יומיומית פנימית כפולה. עבור רבים, ה-AI הוא גם מאיץ של ידע ויעילות וגם זרז לתחושת נוחות יתר ופחות מאמץ מנטלי.

ההורים נכנסים לתמונה

35% מההורים מתייעצים עם AI בענייני חינוך הילדים. 45% משתמשים בו כדי לקבל רעיונות לפעילויות משפחתיות משותפות. כ-24% מההורים מדווחים שה-AI הופך אותם, לדעתם, להורים טובים יותר. 25% כבר רשמו או שוקלים לרשום את ילדיהם לחוג או פעילות לימודית הקשורה ל-AI.

 

ה-AI נכנס לתא המשפחתי

ה-AI נכנס לתא המשפחתי | קרדיט: bezeq.co.il

שוק העבודה והעסקים הקטנים

46% מהעסקים הקטנים בישראל משתמשים בכלי AI, ו-18% מהעסקים הקטנים כבר משלמים על כלי AI בתשלום. מבין העסקים שמשתמשים ב-AI,  כ-58% מדווחים על חיסכון בזמן, 36% על חיסכון בהוצאות ועלויות, 37% על שיפור בשירות הלקוחות, ו-35% על חדשנות בפיתוח מוצרים ושירותים חדשים.

 

נתוני שימוש ותשלום בעסקים קטנים

נתוני שימוש ותשלום בעסקים קטנים | קרדיט: bezeq.co.il

 

מעבר לעסקים, הישראלים רואים ב-AI גם הזדמנות וגם איום בשוק העבודה. 76% סבורים שה-AI יכול לעזור לאנשים למצוא עבודה, למשל בכתיבת קורות חיים או חיפוש משרות. במקביל, 57% חוששים שה-AI גורם לאנשים לאבד את מקום העבודה שלהם.

 

אימוץ ושימוש בעסקים קטנים

אימוץ ושימוש בעסקים קטנים | קרדיט: bezeq.co.il

האם הישראלים רוצים רגולציה?

84% מהישראלים רוצים רגולציה ופיקוח גלובלי על תחום ה-AI.  כ-79% מודאגים מהאפשרות שממשלות או גורמים עוינים ינצלו את הטכנולוגיה לרעה, ו-61% חוששים שההתפתחות המהירה מדי עלולה לסכן את האנושות בטווח הארוך.

 

כשמגיעים לשאלת האחריות האישית, המספרים צונחים. רק 23% מבני הנוער ורק 12% מהבוגרים סבורים שכל אדם צריך לקחת אחריות אישית על האופן שבו הוא משתמש ב-AI. רוב הישראלים מצפים בראש ובראשונה שרגולטורים ומוסדות יגבשו את הגבולות, ורק אחר כך שהמשתמשים יתנהלו באחריות.

 

הרצון לרגולציה ופיקוח גלובלי

הרצון לרגולציה ופיקוח גלובלי | קרדיט: bezeq.co.il

ישראל בהקשר העולמי 

לצד נתוני בזק, השוואות בינלאומיות ממחקרים חיצוניים מצביעות על תמונה מורכבת. ישראל נמצאת בחלק העליון של טווח האימוץ העולמי בכל הנוגע לשימוש אישי ב-AI, אך השוואה בין מדינות מחייבת זהירות: מחקרים שונים מודדים דברים שונים לחלוטין – שימוש של אנשים, אימוץ של ארגונים או השקעות ממשלתיות – ולכן הנתונים מהווים אינדיקציה, לא מדד אחיד.

 

כך למשל, בסין דווח באמצע 2025 על כ-515 מיליון משתמשי GenAI, שהם כ-36.5% מהאוכלוסייה. בהודו, סקר אחד מצא ש-59% מהארגונים אימצו AI באופן פעיל, בעוד שסקר אחר מצא שכ-73% מהציבור מדווחים על שימוש ב-AI ב-2024. באיחוד האירופי, רק כ-13.5% מהעסקים עם 10 עובדים ומעלה השתמשו ב-AI ב-2024.

 

במדדי עומק רחבים יותר ישראל מצטיירת כמעצמת AI, גם אם לא מובילה בכל ממד. לפי מדד ה-AI הגלובלי של Tortoise לשנת 2024, ישראל מדורגת במקום התשיעי מתוך 83 מדינות, ובמקום השני בעולם ביחס לגודל האוכלוסייה. מחקר נוסף מציב את ישראל במקום הרביעי בעולם בהיקף ההשקעות ב-AI, עם כ-12.83 מיליארד דולר, ומדגיש את שיעור כישרון ה-AI הגבוה ביותר ביחס לכוח העבודה – כ-1.13%.

 

הנתון שלפיו 28% מהעסקים בישראל משתמשים ב-AI מבוסס על סקר נפרד של המכון הישראלי לדמוקרטיה והלמ”ס. הוא מציב את ישראל מעל הממוצע האירופי (כ-13% אימוץ ב-2024), אך עדיין רחוק ממצב שבו AI הופך לסטנדרט עסקי רחב.

תקווה למרות החששות

למרות כל החששות, 41% מהישראלים מאמינים שבעתיד היתרונות של ה-AI יעלו על החסרונות. 36% סבורים שה-AI יוביל את האנושות לעתיד חיובי. במקביל, 40% אומרים שהם כיום יותר מודאגים מאשר מתרגשים מההתפתחויות בתחום, לעומת 26% בלבד בשנה שעברה.

 

ה-AI לוקח אותנו לקצוות

ה-AI לוקח אותנו לקצוות | קרדיט: bezeq.co.il

 

הישראלים לא רק מפחדים מה-AI, הם גם רוצים לראות אותו יותר מעורב בחיים שלהם. 55% היו רוצים שהמערכות ינהלו עבורם משימות יומיומיות באופן אוטומטי, 49% מעוניינים בייעוץ בתכנון פיננסי והשקעות, 47% רוצים התרעות על סיכוני אבטחה בדיגיטל, 38% רוצים לחסוך זמן בקניות, ו-31% היו שמחים שה-AI יתנהל במקומם מול גופים בירוקרטיים.

 

הציפיות מה-AI בעתיד

הציפיות מה-AI בעתיד | קרדיט: bezeq.co.il

ישראל כמעבדה חיה לאימוץ מהיר של AI

הסיפור שמצטייר מהדוח הוא של טכנולוגיה שמשתלבת במהירות חסרת תקדים כמעט בכל תחום בחיים בישראל – מבריאות וחינוך, דרך פנאי ועד עבודה. האתגר כבר איננו האם להשתמש ב-AI, אלא איך להשתמש בו בצורה שמחזקת את היכולות האנושיות במקום לשחוק אותן. הנתונים מישראל מצביעים על כך שאנחנו כבר עמוק בתוך הניסוי החברתי הזה, והתגובות של הציבור – בין פחד, סקרנות ואופטימיות זהירה – עדיין נמצאות בתהליך התגבשות.

 

את הדוח המלא של בזק תוכלו להוריד מכאן.

הפוסט דוח בזק 2025 מצביע על חברה ישראלית שמאמצת בינה מלאכותית במהירות חסרת תקדים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-adoption-in-israel/feed/ 0
גוגל הרסה את מסיבת יום הולדת 3 של ChatGPT ו-OpenAI מכריזה על ״קוד אדום״ https://letsai.co.il/openai-code-red/ https://letsai.co.il/openai-code-red/#respond Thu, 04 Dec 2025 12:28:41 +0000 https://letsai.co.il/?p=65459 תחילת דצמבר 2025 הייתה אמורה להיות חגיגה. ChatGPT ציין שלוש שנים מאז שהפך מכלי ניסוי למוצר שמיליונים עובדים וחיים איתו מדי יום, וביסס את OpenAI כמובילת עידן ה-AI הג’נרטיבי. במקום מסיבה, העובדים קיבלו מזכר מסם אלטמן עם הכותרת “קוד אדום”. לפי דיווחים, זו הייתה העלאה מ”קוד כתום” לדרגת החירום הגבוהה ביותר. אלטמן כתב: “We are […]

הפוסט גוגל הרסה את מסיבת יום הולדת 3 של ChatGPT ו-OpenAI מכריזה על ״קוד אדום״ הופיע ראשון בLet's AI בינה מלאכותית

]]>
תחילת דצמבר 2025 הייתה אמורה להיות חגיגה. ChatGPT ציין שלוש שנים מאז שהפך מכלי ניסוי למוצר שמיליונים עובדים וחיים איתו מדי יום, וביסס את OpenAI כמובילת עידן ה-AI הג’נרטיבי. במקום מסיבה, העובדים קיבלו מזכר מסם אלטמן עם הכותרת “קוד אדום”. לפי דיווחים, זו הייתה העלאה מ”קוד כתום” לדרגת החירום הגבוהה ביותר. אלטמן כתב: “We are at a critical time for ChatGPT”. המסר היה ברור: עוצרים פרויקטים צדדיים ומתרכזים שוב בליבה. ובכל זאת, צריך לזכור שגם בעולם הטכנולוגיה “קוד אדום” הוא לא מטבע נדיר. גוגל עצמה הכריזה על “code red” בסוף 2022 כשהשקת ChatGPT ערערה את עמדתה בחיפוש. עכשיו התפקידים התהפכו: הפעם OpenAI היא שמרגישה את הלחץ. משהו בסיסי במאזן הכוחות השתנה.

 

OpenAI הכריזה קוד אדום

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

גוגל שברה את הרצף

הסיבה להכרזת הקוד האדום הייתה טכנית, אבל המשמעות שלה אסטרטגית לחלוטין.

 

בנובמבר 2025 השיקה גוגל את Gemini 3 Pro. לפי מסמכי המודל של Google DeepMind וניתוחים עצמאיים שהתפרסמו באותה תקופה, זה היה הדגם הראשון של גוגל שעבר את מודלי GPT במספר מבחנים שנחשבים לעומק המודיעיני של מודלים: חשיבה מופשטת, פתרון בעיות כלליות ומתמטיקה תחרותית.

 

גם בתחום הקוד נרשם שינוי. במבחנים שמדמים עבודה אמיתית על בעיות תוכנה ולא רק משימות תיאורטיות, Gemini 3 Pro הציג עליונות על פני דורות קודמים של GPT. במבחני שאלות עובדתיות רחבות, הפער היה מורגש במיוחד.

 

עם זאת, לא בכל קטגוריה גוגל מובילה. במבחני SWE-Bench, שמודדים פתרון בעיות בקוד אמיתי, שלושת המודלים המובילים – Gemini 3 Pro, GPT-5.1 ו-Claude Opus 4.5 – נמצאים כולם באותו טווח ביצועים, מה שמלמד שאין מנצח ברור.

 

אבל התחושה בשוק השתנתה. כאשר מודל אחד מצטיין במספר תחומים מרכזיים כמו חשיבה, מתמטיקה וקוד, זה כבר לא עוד שדרוג מחזורי. זו נקודת מפנה. לראשונה מאז 2022, OpenAI לא נראתה כמי שמובילה באופן ברור את רוב המבחנים החשובים.

ChatGPT עדיין שולט

חשוב להפריד בין שני עולמות: הבנצ’מרקים והמציאות בשטח.

 

לפי נתונים שהציג ניק טורלי (Nick Turley) ובהתאם לדיווחים עסקיים מסוף 2025, ChatGPT נשאר השירות הדומיננטי בשוק. הוא נהנה ממאות מיליוני משתמשים פעילים, נפח שימוש עצום ואימוץ כמעט מלא בקרב חברות גדולות. בפועל, זה עדיין ה-assistant שהעולם עובד איתו.

 

הדומיננטיות הזו היא נכס אסטרטגי: הרגלי שימוש, אמון, ממשק מוכר, אינטגרציות ותהליכים עסקיים שכבר בנויים סביבו. לכן גם אם Gemini 3 Pro מוביל בחלק מהמדדים הטכניים, זה לא הופך את ChatGPT לפחות מרכזי.

 

אבל כאן מופיע הסדק. גוגל מציגה התקדמות כמעט בכל חזית, משחררת כלים ופיצ’רים בקצב גבוה, ומצמצמת פער שנראה היה בלתי סגיר. במודלים לשפה, תמונה, וידאו וכלים חכמים סביבם, Gemini מתחיל לא רק להדביק את ChatGPT אלא לעיתים גם ליצור תחושת “אבק” מאחוריו.

 

לכן, למרות היתרון בשימוש בפועל, הזעזוע אמיתי. השוק מריח שינוי. משתמשים פרטיים ועסקיים מתחילים לבחון ברצינות את Gemini, וחלקם אף עוברים אליו. זו אינה נטישה המונית, אבל זו תנועה ראשונית שמצביעה על שינוי אפשרי במאזן הכוחות.

 

לפי נתוני Similarweb, בעוד שהתנועה ל-ChatGPT ממשיכה לצמוח אך בקצב מתון, Gemini מציגה קפיצה חדה בחודשים האחרונים של 2025. זה לא מחליף הובלה, אבל כן מסמן שינוי מומנטום שהוביל את OpenAI להכריז על “קוד אדום”:

 

ChatGPT vs. Gemini

שינוי מומנטום | Similarweb Global Traffic Trends

מבחני לחץ בתוך OpenAI

לפי דיווחים של The Information וכתבים טכנולוגיים נוספים, התגובה הפנימית ב-OpenAI הייתה חדה וברורה.

 

אלטמן וההנהלה ביקשו מהצוותים להתמקד בשלושה צירים מרכזיים: הראשון, שיפור הפרסונליזציה וחוויית המשתמש ב-ChatGPT. השני, הגדלת מהירות ואמינות, וצמצום תקלות והשהיות. והשלישי, הרחבת טווח היכולות, כולל שדרוג משמעותי ביכולות ייצור תמונה והפחתת סירובי מודל מיותרים.

 

כדי לפנות משאבים, OpenAI הקפיאה מספר פרויקטים מתקדמים. לפי הדיווחים, בין הפרויקטים שנעצרו:

  • תכנית פרסום בתוך ChatGPT, שכבר הופיעה בקוד גרסת האנדרואיד.

  • סוכני קניות ובריאות שנועדו ללוות משתמשים בהחלטות צרכניות ורפואיות פשוטות.

  • ChatGPT Pulse, עוזר אישי שהיה אמור לייצר דוחות מותאמים אישית.

ניק טורלי חיזק את הכיוון הזה בפוסט ב-X, כפי שצוטט ב-Wall Street Journal: המיקוד עכשיו הוא להפוך את ChatGPT ליותר מסוגל, אינטואיטיבי ואישי, ולהמשיך להרחיב את ההגעה הגלובלית. במילים אחרות, פחות ניסויי צד, יותר חיזוק המנוע המרכזי.

התוכנית הטכנולוגית

כאן הסיפור נהיה רגיש יותר. לפי דיווח מפורט ב-The Information שהתבסס על מקורות פנימיים, OpenAI עובדת על שני מודלים שנועדו לתת מענה קונקרטי להתקדמות של Gemini ו-Claude.

Shallotpeat

המודל הראשון, תחת שם הקוד Shallotpeat, מתואר כמודל קצר טווח שהיה אמור לצאת ימים ספורים לאחר הכרזת הקוד האדום. אותם מקורות טענו כי במבחנים פנימיים הוא עקף את Gemini 3 Pro בחלק מהמשימות. אין כל אישור רשמי לשם, לתזמון או לתוצאות, וייתכן שהוא אף השתנה מאז. מדובר בדיווחים שאינם מאושרים ולכן הם צריכים להישאר באזור האפור שבין דליפה לעובדה.

Garlic

המודל המשמעותי יותר הוא Garlic, שמיועד לרבעון הראשון של 2026. לפי הדיווחים, מארק צ’ן (Mark Chen), ראש תחום המחקר ב-OpenAI, תיאר אותו כמודל שבו הצליחו “להזריק למודל קטן יותר את אותה כמות ידע” שבעבר דרשה מודל גדול בהרבה – שינוי שמרמז על קפיצה ביעילות האימון, לא רק בביצועי קצה.

 

Garlic נשען על עבודה שנעשתה ב-GPT-4.5, אך כולל תיקונים עמוקים בשלב ה-pre-training שנועדו להתגבר על צווארי בקבוק טכניים. במבחנים פנימיים הוא הראה ביצועים חזקים במיוחד בקידוד ובמשימות חשיבה מורכבות.

 

הכל נאמר בזהירות: OpenAI לא פרסמה מידע רשמי על Shallotpeat או Garlic, ומבחנים פנימיים אינם בהכרח אינדיקציה לביצועים בעולם האמיתי. לא ברור אם ומתי מודלים אלה יושקו.

 

אבל מבחינת הנרטיב, זה לב העניין: OpenAI נמצאת במרוץ להציג דור חדש שישיב לה יתרון טכנולוגי – בזמן שהשוק מתקדם מהר יותר מאי פעם.

היתרון התשתיתי של גוגל מול השינוי המבני ב-OpenAI

מאחורי מרוץ המודלים מסתתרת שאלה אחת: על מה הם רצים?

 

לגוגל יש שליטה כמעט מוחלטת בכל שכבות ה-stack: מהמחקר ועד השבבים. משפחת Gemini רצה על TPU שגוגל עצמה מתכננת ומייצרת, מה שמעניק לה עלות כוללת נמוכה יותר, שליטה מלאה בתצורה, ויכולת להפעיל אשכולות עצומים בקנה מידה שקשה להתחרות בו.

 

Anthropic חתמה באוקטובר 2025 על הסכם תשתית עם Google Cloud שמעניק לה גישה למיליוני TPUs של גוגל – מה שנותן לה כרגע גישה לחומרה מתקדמת שדומה לזו של גוגל עצמה.

 

בעבר OpenAI הייתה תלויה כמעט לחלוטין בתשתית Azure של מיקרוסופט, תלות שנחשבה לחולשה מובנית, במיוחד לאור תקלות שירות שזוהו בשנים 2024-2025. תלות כזו בספק יחיד מגבילה יכולת שליטה בעלויות וממצבת נקודת כשל תשתיתית.

 

אבל בחודשים האחרונים המצב השתנה: OpenAI חתמה על הסכמי תשתית רחבי היקף עם AWS והחלה לפרוס קיבולת עצומה של GPU מבוסס NVIDIA. המהלך הזה שובר את הבלעדיות של Azure ומאפשר פיזור עומסים בין כמה עננים גדולים.

 

המשמעות כפולה:

  1. פחות סיכון מתלות בענן יחיד.

  2. יותר גמישות לנהל את עלויות החישוב מול המתחרות.

ועדיין, בניגוד לגוגל, OpenAI אינה שולטת בשכבות החומרה והענן של עצמה. אפילו עם המעבר לכמה ספקי ענן, היא תלויה בתשתיות של אחרים. לכן הפער התשתיתי כבר אינו עניין טכני בלבד, אלא שאלה אסטרטגית שמגדירה את יכולת החברה להתחרות לאורך זמן.

והכל קורה על רקע לחץ פיננסי

לפי דיווחים בעיתונות הכלכלית, השווי של OpenAI מתקרב ל-500 מיליארד דולר ומתבסס על הנחה שהיא תמשיך לצמוח במהירות ותשמור על מובילות טכנולוגית. אבל מאחורי המספרים נוצצים עומדת מציאות מורכבת בהרבה.

 

עלויות האימון וההרצה של המודלים עצומות. חלק גדול מההכנסות חוזר היישר ל-compute ולשכר טאלנטים טכניים. הערכות מדברות על כך ש-OpenAI שואפת להגיע ל-cash flow חיובי רק בסביבות 2029. דיווחים מסוף 2025 הצביעו גם על התחייבויות תשתית ארוכות טווח מול מיקרוסופט בהיקפים חריגים, אם כי המספרים המדויקים אינם שקופים לציבור.

 

במצב כזה, כל מודל דגל חדש הוא לא רק מהלך טכנולוגי – הוא גם הימור פיננסי של מאות מיליוני דולרים. 

מה זה אומר עבור השוק

עבור משתמשים פרטיים, התחרות הזו היא חדשות מצוינות: המודלים משתפרים, המחירים יורדים, והיכולות נפתחות ליותר אנשים. עבור ארגונים, התמונה מורכבת בהרבה. שלושה מסרים בולטים:

  • לא להישען על ספק יחיד. אסטרטגיית multi-model כבר אינה “מתקדמת” אלא הכרח. גם אם ChatGPT הוא הכלי המרכזי, כדאי להבין איך משלבים לצדו את Gemini, Claude או מודלים פתוחים.

  • להסתכל על TCO, לא רק על ביצועים. במילים פשוטות יותר, לבחון את העלות הכוללת להחזיק ולהפעיל את המערכת לאורך זמן, לא רק את המחיר המיידי שלה. פער קטן בבנצ’מרק אינו מצדיק בהכרח פער גדול בעלויות. בפרויקטים רחבי היקף, יעילות חישובית הופכת לפקטור אסטרטגי.

  • לשמור גמישות תשתיתית. ארגונים שמסוגלים להריץ מודלים על עננים שונים או על תשתיות עצמאיות נמצאים בעמדה יציבה יותר מול שינויים טכנולוגיים ושינויי מחירים.

בסופו של דבר, אנחנו נכנסים לעידן שבו אין “בחירה אחת נכונה”. יתרון אמיתי יהיה למי שיידע להרכיב שכבה אפליקטיבית גמישה שפועלת מעל כמה מודלים שונים, ובכך לנצל את החוזקות של כל אחד מהם.

 

נתוני Similarweb מראים שאמנם OpenAI עדיין מחזיקה בנתח העצום של תנועת ה-AI הגנרטיבי, אבל בחודשים האחרונים חלה עלייה מתמשכת במודלים מתחרים כמו Gemini, Claude ו-DeepSeek. השוק נהיה מגוון יותר, והתחרות כבר אינה תיאורטית:

 

השוק מתחיל להיפתח

השוק מתחיל להיפתח | Similarweb Global Traffic Trends

2026 היא שנת המבחן של OpenAI ושל שוק ה-AI כולו

OpenAI מבינה שהשאלה הגדולה אינה מי מוביל בבנצ’מרקים, אלא מי מוביל את השיחה ואת השוק בפועל. כרגע ChatGPT עדיין שולט בשימוש, אבל ההובלה הטכנולוגית כבר לא מוגדרת, והמתחרות לוחצות מכל כיוון. במקום לחגוג שלוש שנים ל-ChatGPT, הכריזה OpenAI על קוד אדום. זה לא רק סימן למשבר, אלא הכרה בכך שהעידן שבו שימשה כמובילה הלא רשמית מתקרב לסיום.

 

2026 תהיה שנת מבחן. אם Garlic או כל מודל דגל אחר יצליח לא רק להשוות אלא לעקוף את Gemini 3 Pro ו-Claude Opus 4.5 בבדיקות עצמאיות ובעבודה אמיתית אצל משתמשים, ובמקביל יעמוד בעלות חישובית סבירה, OpenAI תוכל לטעון שחזרה להוביל.

 

אם זה לא יקרה, השוק עלול להתרחק ממודל של “מנצח אחד”. גוגל עשויה לתפוס את ההובלה, או שנראה שוק מרובה-שחקנים שבו לכל ענק יש יתרון אחר: תשתית, מחיר, בטיחות או יכולות איג׳נטליות. הקצב מהיר כל כך, שאפשר רק לזהות כיוונים – בטח לא לנבא בוודאות.

 

גוגל אולי הרסה את המסיבה של ChatGPT, אבל מה שנקבע עכשיו זה לא מי חוגג. מה שנקבע עכשיו הוא מי ישרוד ויעצב את המרוץ הבא – מרוץ שבו מודלים, תשתיות וכסף מתמזגים לקרב שלא דומה לשום דבר שראינו עד היום.

הפוסט גוגל הרסה את מסיבת יום הולדת 3 של ChatGPT ו-OpenAI מכריזה על ״קוד אדום״ הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-code-red/feed/ 0
Runway משיקה את מודל Gen-4.5 https://letsai.co.il/runway-gen-4-5/ https://letsai.co.il/runway-gen-4-5/#respond Wed, 03 Dec 2025 13:39:58 +0000 https://letsai.co.il/?p=65343 ביום ראשון, 1 בדצמבר 2025, Runway הכריזה על Gen-4.5, הדור החדש של מודל הווידאו שלה. לפי נתוני החברה ומדד Artificial Analysis, זהו כרגע מודל ה-text-to-video המדורג גבוה ביותר בעולם ומדלג מעל Google Veo 3 ו- Sora 2. המודל החדש מסמן קפיצה אמיתית באיכות התנועה, הפיזיקה והבנת הפרומפט, לצד מגבלות שעדיין לא נפתרו בתחום הלוגיקה הסיבתית, […]

הפוסט Runway משיקה את מודל Gen-4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
ביום ראשון, 1 בדצמבר 2025, Runway הכריזה על Gen-4.5, הדור החדש של מודל הווידאו שלה. לפי נתוני החברה ומדד Artificial Analysis, זהו כרגע מודל ה-text-to-video המדורג גבוה ביותר בעולם ומדלג מעל Google Veo 3 ו- Sora 2. המודל החדש מסמן קפיצה אמיתית באיכות התנועה, הפיזיקה והבנת הפרומפט, לצד מגבלות שעדיין לא נפתרו בתחום הלוגיקה הסיבתית, קביעות האובייקטים ומגבלת האורך. התוצאה היא כלי חזק ומרשים ביותר, אך כזה שרחוק מלהיות פתרון אוניברסלי.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם חדש ב-Gen-4.5

Runway מציגה את Gen-4.5 כמודל וידאו מהדור הבא, שנבנה סביב שלושה שיפורים משמעותיים: איכות ויזואלית גבוהה יותר, פיזיקה ותנועה משכנעות יותר, והבנה טובה בהרבה של הוראות מורכבות. זה לא שינוי קוסמטי, אלא ניסיון להתמודד עם המגבלות שהגבילו את הדור הקודם והפכו את הווידאו הגנרטיבי לכלי מרשים אך לא תמיד מתאים לפרויקטים שמחייבים דיוק פיזיקלי, המשכיות ארוכה או יציבות סיבתית.

 

 

תנועה שמרגישה סוף סוף “עם משקל”

אחת הבעיות הבולטות בדור הקודם הייתה תנועה מרחפת – אובייקטים שנעים יפה, אבל לא נראים כאילו הם כפופים לחוקי הפיזיקה. Gen-4.5 מציג שיפור ניכר בדיוק בתחום הזה.

 

בדוגמאות ש-Runway הציגה אפשר לראות את השיפור באופן מובהק: מים שנשפכים לדלי מתכת מתכווצים בנפילה, מתפזרים בהתזה ויוצרים גלים שנראים אמיתיים לחלוטין, רכב שנוסע לאורך דרך עפר מגיב לכל מהמורה, מזעזע את המצלמה וזורק חול בדיוק כפי שהיינו מצפים מצילום שטח, ואפילו השתקפויות במשטחים מבריקים נשמרות לאורך כל הקליפ, יציבות וקוהרנטיות, בלי ההחלקות או העיוותים שהיו אופייניים לדור הקודם.

 

כל אלה הופכים את התנועה מ”אפקט” ל”פיזיקה”. עבור מותגים, אולפנים וסוכנויות, זה ההבדל בין ניסוי מעניין לבין חומר שנכנס לפרויקט מסחרי.

הבנת פרומפטים מורכבים

איכות ויזואלית חשובה, אבל לא פחות חשוב שהמודל יעשה מה שביקשתם. כאן Gen-4.5 מציג קפיצה נוספת עם נאמנות גבוהה יותר לפרומפט.

 

המנוע החדש מתמודד טוב יותר עם רצפי אירועים (“קודם X, אחר כך Y, לבסוף Z”), תנועות מצלמה מתוזמנות, שינויי אור ואווירה לאורך הסצנה, וסצנות שבהן כמה אובייקטים פועלים במקביל.

 

בקליפים ש-Runway הציגה, מופיע שוט צפוף שבו טלוויזיה, יד, קערת דגנים והמקרר משתלבים זה בזה בתנועה רציפה. המודל מצליח לשמור על קוהרנטיות גבוהה, בלי לפרק את הסצנה.

 

ולמה זה חשוב? כי היום כמעט כל מודל יודע “להפיק וידאו”. ההבדל האמיתי הוא שאלת השליטה – האם המערכת מבצעת את ההוראות, או מייצרת משהו “בערך”. ב-Gen-4.5 הפער בין הרצוי למצוי מתקצר.

דמויות אנושיות והבעת פנים

עוד תחום שבו Gen-4.5 מציג שיפור ברור הוא בני אדם – תמיד אחת המשימות הקשות ביותר ב-generative video.

 

המודל מצליח לייצר פרטי פנים מדויקים יותר, הבעות רגשיות מורכבות, תנועות עיניים ושפתיים שנראות טבעיות יותר, ועקביות טובה יותר בין פריימים, במיוחד בפנים.

 

המשמעות? הדמויות מרגישות פחות “פלסטיק”. עבור יוצרים שמבקשים לספר סיפור, ולא רק ליצור נופים מרהיבים, זו התקדמות חיונית.

סגנונות ויזואליים ועקביות בין קליפים

Gen-4.5 תומך במגוון רחב של סגנונות כמו פוטו-ריאליזם, אנימציה מסוגננת, סטופ-מושן, קולנוע וינטג’ 16mm/35mm ועולמות תלת ממדיים.

 

היתרון האמיתי אינו רק ברשימת הסגנונות, אלא בעקביות שלהם. כאשר מייצרים כמה קליפים נפרדים לאותו פרויקט, הסגנון נשמר – מה שמאפשר לחבר אותם לסרטון אחד בלי שבירת רצף ויזואלי. עבור מותגים ואולפנים, זה תנאי בסיסי להפקה מקצועית.

אותם זמני ריצה באיכות גבוהה יותר

Runway מדגישה כי Gen-4.5 שומר על זמני יצירה דומים לאלו של Gen-4, למרות השיפור באיכות. במילים אחרות, האלגוריתם נהיה כבד יותר, אבל העלות בזמן לא עלתה בהתאם.

 

למשתמשים זה אומר דבר פשוט: אם התרגלתם לזמני ההמתנה של הדור הקודם, לא תחוו עלייה בזמני ההמתנה. המגבלות האמיתיות נמצאות במקום אחר – מגבלת האורך וצריכת הקרדיטים, ולא בזמן יצירת הקליפ הבודד.

 

Gen-4.5 בראש טבלת ה-Text-to-Video

Gen-4.5 בראש טבלת ה-Text-to-Video

מה המגבלות

לצד הקפיצה באיכות, Gen-4.5 עדיין מסתמך על יסודות שלא נפתרו. Runway עצמה מודה בכך, והסקירות החיצוניות רק מחזקות את התמונה – מדובר במודל מוביל, אבל כזה שסובל משלוש בעיות עמוקות ועוד מגבלה מבנית אחת שלא תמיד מאפשרת עבודה מקצועית חלקה.

לוגיקה סיבתית: כשהסרטון לא מבין מה קורה קודם

למרות שהמודל יותר קוהרנטי והשתפר ברצף אירועים לפי הוראה בטקסט, הוא עדיין מתקשה בסיבתיות אמיתית. זו אחת הבעיות הידועות במודלי וידאו, ו-Gen-4.5 לא פותר אותה באופן מלא. גם בדור הזה אפשר לראות מקרים שבהם הדלת נפתחת לפני שהיד נוגעת בידית, אובייקט מתחיל ליפול לפני שמשחררים אותו, או אפקט מופיע עוד לפני הפעולה שאמורה ליצור אותו.

 

אלו רגעים שהעין האנושית מזהה מיד, ובפרויקטים מקצועיים כמו הדמיות טכניות, תוכן חינוכי או סרטוני הדגמה, זו לא תקלה שולית אלא פער שמבטל את הקליפ כולו.

קביעות אובייקטים: כשהמצלמה זזה – דברים מתחילים להיעלם

גם בעיית ה- object permanence לא נעלמה. אובייקט שנעלם מאחורי יד, דלת או פריט אחר עלול לחזור בפריים הבא בגודל אחר, בצבע אחר או במקום חדש לחלוטין. לפעמים הוא פשוט נעלם.

 

האתגר הזה מתעצם ככל שתנועת המצלמה מורכבת יותר. עבור קליפ קצר בסגנון סושיאל זה אולי פחות קריטי, אבל כל פרויקט שמסתמך על המשכיות – פרסומות, סרטוני מוצר, נרטיבים קצרים – המגבלה הזו ניכרת יותר.

Success Bias: בעולם של Gen-4.5 כמעט הכל מצליח

בדומה למודלים אחרים, Gen-4.5 נוטה לייצר “מציאות שמסתדרת”. בעיטות נכנסות לשער, זריקות נכנסות לסל, פעלולים מסתיימים בשלום. זו הטיה שנובעת מאופי הדאטה – רוב הסרטונים ברשת מציגים הצלחות.

 

התוצאה היא שקשה לקבל רצף טבעי שבו משהו משתבש, או סצנה שמתארת ניסוי וטעייה. עבור יוצרי נרטיב, קומדיה, מתח או סימולציות ריאליסטיות – זה חסם אמיתי.

מגבלת אורך: 5 או 10 שניות, ולא יותר

המגבלה המבנית החשובה ביותר נשארה בעינה: כמו Gen-4, גם Gen-4.5 מייצר קליפים של 5 או 10 שניות בלבד.

 

המשמעות של המגבלה הזו ברורה ומוכרת ליוצרים. כדי לייצר דקה אחת של וידאו נדרשים שישה עד שנים-עשר קליפים נפרדים, שכל אחד מהם דורש עריכה וחיבור זהירים כדי לשמור על עקביות ויזואלית. כל ניסיון נוסף לקבל וריאציה טובה יותר שורף עוד קרדיטים, מאריך את זמן העבודה ומגדיל את העלות הכוללת של הפרויקט.

 

לרוב תוכן הסושיאל זה מספיק. אבל עבור סרטוני מוצר, הסברים, דמואים או פרויקטים נרטיביים, זו מגבלה שהופכת את Gen-4.5 לכלי משלים, לא כלי מרכזי.

 

 

החומרה שמאחורי Gen-4.5

אחד ההיבטים הפחות מדוברים של Gen-4.5 הוא בסיס החומרה שעליו הוא פועל. Runway מאשרת שהמודל מאומן ונפרס בעיקר על גבי מערכות ה-GPU של NVIDIA מסדרות Hopper ו-Blackwell. למעשה, Hopper היה הדור שהניע את קפיצת ה-AI של 2023-2024, ו-Blackwell הוא הדור החדש שנבנה במיוחד למודלים גדולים וליעילות גבוהה יותר.

 

למה זה חשוב? משני טעמים מרכזיים:

  1. Runway היא מהראשונות שעובדות ב-production על Blackwell, מה שמאפשר לה להפיק יותר איכות בפחות עלות חישובית.

  2. השילוב בין Hopper ל-Blackwell מאפשר שיפור באיכות בלי הארכה משמעותית בזמן היצירה, נקודה קריטית ליוצרים מקצועיים.

בנוסף, Runway מסמנת את Gen-4.5 כחלק מתפיסה רחבה יותר: מעבר ממחוללי וידאו ל-World Models – מודלים שמנסים להבין איך העולם באמת מתנהג, לא רק ליצור ממנו ייצוג ויזואלי.

 

וזה מתחבר ישירות למגבלות שתוארו קודם – בעיות סיבתיות, קביעות אובייקטים והטיית הצלחה הן בדיוק המקומות שבהם מודל עדיין לא “מבין עולם”, אלא מחקה תבניות. Gen-4.5 מתקדם לשם, אבל עדיין רחוק מהיעד.

כמה זה עולה?

Runway ממשיכה לעבוד במודל של מנוי חודשי + קרדיטים. Runway מצהירה ש-Gen-4.5 זמין במחירים “דומים” ל-Gen-4, כלומר משתמשים בתכניות בתשלום צפויים לראות את המודל החדש כחלק מאותו סל קרדיטים, בלי תמחור חריג.

 

הטבלה שלפניכם משקפת את המחירים (לחודש) הנוכחיים. כמו בכלים רבים בתעשייה, תשלום שנתי מוזיל את העלות החודשית בצורה משמעותית:

 

תמחור של Runway

runwayml.com | תמחור חודשי: התכניות הנוכחיות של Runway

 

העיקרון לא משתנה, עבודה מסיבית עם Gen-4.5 הופכת במהירות להוצאה של עשרות עד מאות דולרים בחודש, במיוחד כשמייצרים כמה גרסאות לכל קליפ ולא מסתפקים בנסיון אחד.

 

מעבר לכך, חשוב לציין שתכנית “Unlimited” אינה באמת בלתי מוגבלת. ברגע שהקרדיטים החודשיים מסתיימים, היצירה עוברת למצב Explore שבו זמני ההמתנה מתארכים משמעותית וללא הבטחת זמן תגובה – נקודה שמופיעה שוב ושוב בסקירות עצמאיות של משתמשים.

ההישג והאתגר: מה מנכ”ל Runway אומר על Gen-4.5

בראיון ל-Bloomberg Tech הדגיש Cristóbal Valenzuela, מנכ״ל Runway, את הייחוד של החברה כסטארט-אפ רזה שפועל בעזרת צוות של פחות ממאה עובדים – נתון חריג בתעשיית ה-AI שמובלת לרוב בידי ענקיות עם אלפי מהנדסים.

 

לדבריו, Gen-4.5 מייצג את היכולת של Runway לאתגר שחקנים גדולים באמצעות מחקר ממוקד וקצב פיתוח מהיר, אך הוא גם הודה שהיתרון הזה שברירי – השוק מתקדם בקצב מסחרר, והדורות הבאים של Veo, Sora והמודלים הסיניים כבר בדרך.

 

מבחינתו, ההישג הנוכחי הוא לא סוף המסע, אלא נקודת ביניים במירוץ תחרותי שהולך ומתהדק.

 

 

מה Gen-4.5 נותן בפועל ליוצרים

כשמנקים את הרעש ומסתכלים רק על מה שקורה על המסך, Gen-4.5 מציע היום אחת מחוויות הווידאו הג׳נרטיבי החזקות בעולם. הוא מפיק תנועה עם משקל, מבין פרומפטים מורכבים בצורה מרשימה, ומציג יכולת גבוהה לייצר דמויות אנושיות משכנעות. עבור מי שעובד עם תוכן קצר ומחפש רמת גימור מקצועית – זו קפיצת איכות ברורה.

 

אבל ההתקדמות הזו לא מעלימה את בעיות היסוד. לוגיקה סיבתית לא יציבה, קביעות אובייקטים חלקית והטיות התנהגותיות עדיין מונעות ממנו להתקרב לסטנדרט של “מודל עולם”. אלו מגבלות שמכתיבות בבירור למי הכלי מתאים ולמי פחות.

 

Gen-4.5 הוא כלי פרימיום, שמיועד למי שבאמת עובד בסביבה מסחרית ומוכן לשלם על איכות. הוא פחות מתאים לסטודנטים, ליוצרי ניסויים, או למי שמחפש כמות גדולה של קליפים ביום אחד. והפער מול מתחרים כמו Kling או Veo, גם אם קיים, לא גדול מספיק כדי להתעלם מהשיקול הכלכלי או מצרכים של פרויקטים ארוכים.

 

בסופו של דבר, Gen-4.5 מסמן רף חדש במה שאפשר להפיק ב-10 שניות של וידאו סינתטי. הוא מראה לאן התחום הולך, אבל גם מזכיר עד כמה רחוק אנחנו ממודל שמבין את העולם כמו שאנחנו מבינים אותו. זה צעד משמעותי במסע – לא תחנה סופית.

 

מי שרוצה לראות את המודל בפעולה ולבחון דוגמאות נוספות, יכול למצוא באתר של Runway מגוון סרטונים מבוססי Gen-4.5 וכמובן את הפרטים הטכניים המלאים של המודל.

הפוסט Runway משיקה את מודל Gen-4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/runway-gen-4-5/feed/ 0
איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI https://letsai.co.il/ilya-sutskever-interview/ https://letsai.co.il/ilya-sutskever-interview/#respond Tue, 02 Dec 2025 07:12:52 +0000 https://letsai.co.il/?p=65250 המדען הישראלי שייסד את OpenAI שובר שתיקה של חודשים ומציג תפיסה חדשה לגמרי על עתיד הבינה המלאכותית. בראיון מקיף לפודקאסט של Dwarkesh Patel ב-25 בנובמבר 2025, סוצקבר מסביר למה רק להגדיל את כוח העיבוד לא יביא אותנו ל-AGI, איך הוא מתכנן לבנות מערכות שלומדות כמו בני אדם, ואיזה תפקיד ממשי ממלאים רגשות בקבלת החלטות.   […]

הפוסט איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI הופיע ראשון בLet's AI בינה מלאכותית

]]>
המדען הישראלי שייסד את OpenAI שובר שתיקה של חודשים ומציג תפיסה חדשה לגמרי על עתיד הבינה המלאכותית. בראיון מקיף לפודקאסט של Dwarkesh Patel ב-25 בנובמבר 2025, סוצקבר מסביר למה רק להגדיל את כוח העיבוד לא יביא אותנו ל-AGI, איך הוא מתכנן לבנות מערכות שלומדות כמו בני אדם, ואיזה תפקיד ממשי ממלאים רגשות בקבלת החלטות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מודלים שמצטיינים במבחנים ונכשלים במציאות

הכשל המרכזי בבינה המלאכותית היום, לדברי סוצקבר, הוא הפער בין הצלחה מרשימה במבחנים לבין ביצועים גרועים ביישומים מעשיים. המודלים מראים תוצאות מרשימות על מבחני evals (מבחנים סטנדרטיים במתמטיקה, קידוד והיגיון שבהם חברות AI בודקות את ביצועי המודלים לפני שחרור), אבל באותו הזמן חוזרים על אותן שגיאות פעם אחר פעם בעבודה אמיתית.

 

הוא מתאר מצב שכל מי שעבד עם מודלי AI לקידוד מכיר – המודל מתקן באג ויוצר באג חדש. כשמפנים את תשומת ליבו לבאג החדש, הוא מחזיר את הבאג המקורי. אפשר לעבור בין שני הבאגים האלה ללא סוף.

 

הסיבה המרכזית, לפי סוצקבר, נעוצה באופן שבו חברות בוחרות את סביבות האימון. כשיש מבחנים ספציפיים שעליהם המודל ייבחן בשחרור, הצוותים יוצרים סביבות Reinforcement Learning (למידת חיזוק שבה המודל לומד מניסוי וטעייה) שמכוונות בדיוק לאותם מבחנים. התוצאה היא שהמודלים מתמחים במבחנים הספציפיים האלה במקום לפתח יכולת אמיתית להכליל.

 

ההשוואה שלו לעולם האנושי מבהירה את הנקודה: תלמיד שתרגל 10,000 שעות ספציפית לתחרות תכנות מסוימת ישלוט בכל האלגוריתמים הרלוונטיים. אבל תלמיד אחר שתרגל רק 100 שעות אך יש לו הבנה עמוקה יותר של העקרונות – הוא זה שיצליח יותר בקריירה האמיתית.

למה בני אדם לומדים טוב יותר?

העובדה המרכזית שמניעה את כל התזה של סוצקבר היא פשוטה. המודלים הנוכחיים מכלילים הרבה פחות טוב מבני אדם. זה נכון גם בתחומים כמו מתמטיקה וקידוד – תחומים שלא התפתחו באבולוציה ולכן לא ניתן להסביר את היתרון האנושי ב”קידוד גנטי”.

 

הדוגמה הבולטת היא שנער לומד לנהוג תוך כ-10 שעות תרגול. בתקופה הזו, אין לו מערכת פרסים חיצונית מפורטת שמדרגת כל החלטה. במקום זאת, יש לו מעין חוש פנימי שאומר לו באופן מיידי אם הנהיגה שלו טובה או גרועה, והוא מתקן את עצמו תוך כדי תנועה.

 

המודלים הנוכחיים עובדים אחרת. הם מבצעים רצף ארוך של פעולות – אלפי “צעדי חשיבה” – ורק בסוף התהליך כולו מקבלים ציון כללי. אין להם האפשרות להבין באמצע הדרך אם הכיוון שהם לוקחים הוא נכון.

רגשות כפונקציית ערך

בחלק שעורר הכי הרבה עניין בראיון, סוצקבר מביא מקרה נוירולוגי שמאתגר הנחות בסיסיות: אדם שעבר נזק מוחי שפגע במרכז עיבוד הרגשות שלו. הוא נשאר מסוגל לדבר בצורה תקינה, יכול היה לפתור חידות לוגיות, ובמבחנים סטנדרטיים נראה תקין לחלוטין. אבל הוא איבד לחלוטין את היכולת להרגיש – לא עצב, לא כעס, לא שמחה.

 

התוצאה המפתיעה היתה שהוא איבד לחלוטין את היכולת לקבל החלטות. לקח לו שעות להחליט איזה גרביים ללבוש. החלטות פיננסיות היו קטסטרופליות.

 

זו תובנה שמערערת על ההנחה המקובלת שרגשות הם “רעש” בקבלת החלטות רציונליות. במקום זאת, הם ממלאים תפקיד מהותי – הם מספקים משוב מיידי על איכות ההחלטות שלנו.

 

במונחי למידת מכונה, זה מתאים למושג של “פונקציית ערך” (value function) – מערכת שמעריכה בזמן אמת האם צעד ביניים מסוים הוא טוב או רע. במקום לחכות עד סוף תהליך ארוך כולו כדי לקבל משוב, אפשר לקבל אינדיקציה כבר באמצע אם אנחנו בכיוון הנכון.

 

סוצקבר מאמין שפיתוח משהו דומה למערכת הרגשית האנושית – גם אם פשוטה יחסית – עשוי להיות קריטי ליצירת מערכות AI שיכולות לקבל החלטות טובות ולהכליל מידע באופן אמין.

סוף עידן הסקיילינג

סוצקבר מציע לחלק את ההיסטוריה של הבינה המלאכותית המודרנית לשלושה שלבים:

  • 2012-2020: עידן המחקר הראשון
  • 2020-2025: עידן הסקיילינג
  • 2026 ואילך: חזרה לעידן המחקר

ההבנה המרכזית של תקופת הסקיילינג הייתה שיש “מתכון” שעובד: לוקחים דאטה, compute, ורשת נוירונים – ומערבבים. ככל שמגדילים את הרכיבים, התוצאות משתפרות באופן צפוי. זה נתן לחברות דרך בטוחה יחסית להשקיע משאבים עצומים.

 

אבל עכשיו, לפי סוצקבר, המצב השתנה. כמות הדאטה האיכותי בעולם מוגבלת. השאלה היא מה קורה אחרי שהדאטה אוזל.

 

הוא לא מאמין שפשוט להגדיל פי 100 את כוח העיבוד יביא את הקפיצה הבאה. זה ישפר את המודלים, בהחלט, אבל לא יספיק כדי להגיע ל-AGI אמיתי. במקום זאת, צריך רעיונות חדשים – ולכן חזרה למחקר.

 

“הגענו לנקודה שבה יש יותר חברות מאשר רעיונות,” הוא מציין.

 

 

SSI: הימור של 3 מיליארד דולר על מחקר

Safe Superintelligence, החברה שסוצקבר הקים, גייסה 3 מיליארד דולר. זה נשמע מעט לעומת המתחרים, אבל סוצקבר מסביר למה זה בעצם מספיק למחקר – חברות גדולות יותר מוציאות חלק ענק מהמשאבים על הפעלת המודלים (inference), על צוותי מכירות ומהנדסים, ועל פיתוח פיצ’רים למוצר. כשמסתכלים רק על מה שנשאר למחקר אמיתי, ההפרש בין SSI לבין המתחרים הופך להיות קטן הרבה יותר.

 

SSI, לעומת זאת, כמעט לא מוציאה משאבים על דברים האלה. אין מוצר, אין לקוחות, אין עלויות inference. כל המשאבים מופנים למחקר על השאלה המרכזית: איך בונים מערכות עם יכולת הכללה אמינה?

 

“עשינו התקדמות טובה בשנה האחרונה,” הוא אומר, “אבל צריך להמשיך. נדרש עוד מחקר.”

למידה מתמשכת

סוצקבר מציע להבין AGI בצורה שונה מהמקובל. המושג המסורתי של AGI הושפע מההצלחה של pre-training – שבו מודל מאומן פעם אחת ויוצא מוכן לכל משימה. אבל, הוא מציין, בן אדם הוא לא AGI במובן הזה. יש לנו בסיס של כישורים, אבל חסר לנו ידע עצום. במקום זאת, אנחנו מסתמכים על למידה מתמשכת לאורך החיים.

 

הוא מציע לחשוב על superintelligence לא כמוח מוגמר שיודע לעשות כל דבר, אלא כמוח שיכול ללמוד לעשות כל דבר – ולעשות זאת מהר מאוד. כמו מישהו צעיר ומוכשר שלהוט ללמוד: הוא לא יודע הרבה עדיין, אבל הוא תלמיד מצוין. תגיד לו ללמוד תכנות, רפואה, עריכת דין – והוא ירכוש את הידע במהירות.

 

המערכת הזו תצא לעולם ותתחיל תהליך של למידה מתמשכת דרך ניסוי וטעייה בפועל. זה תהליך, לא שחרור של מוצר סופי ומוגמר.

בטיחות מבוססת שיתוף פעולה

סוצקבר שינה את דעתו בנקודה חשובה: הצורך להציג AI לציבור בהדרגה. הבעיה המרכזית עם AI עתידי, לדבריו, היא שקשה לדמיין מערכות שעדיין לא קיימות.

 

הוא צופה שככל שה-AI יהפוך לחזק יותר באופן ניכר, ההתנהגות תשתנה בצורה דרמטית. חברות שהן מתחרות עזות יתחילו לשתף פעולה בנושאי בטיחות. הוא מזכיר את השיתוף הפעולה הראשוני בין OpenAI ל-Anthropic כדוגמה מוקדמת למגמה הזו.

 

לגבי alignment, שזה התאמת התנהגות המודלים כך שתהיה תואמת לערכים, למטרות ולציפיות של בני אדם, או בפשטות – איך לוודא שמערכות חזקות מאוד יפעלו לטובתנו – הוא מציע כיוון למחשבה.

 

ליצור AI שאכפת לו מחיים תבוניים בכלל, ולא רק מבני אדם. הטיעון הוא שה-AI עצמו יהיה תבוני, ולכן עשוי לפתח מעין “אמפתיה” למערכות תבוניות אחרות, בדומה לאמפתיה האנושית לבעלי חיים.

 

הוא גם מאמין שיהיה חשוב למצוא דרך להגביל את הכוח המקסימלי של המערכות החזקות ביותר, אם כי לא מפרט איך.

תחזית זהירה

כשנשאל מתי הוא מצפה למערכת שיכולה ללמוד כמו בן אדם ולהפוך לעל-אנושית בעקבות כך, התשובה היתה: “5 עד 20 שנים.” זו תחזית זהירה בהרבה מהציפיות הרגילות בתעשייה, ומשקפת את ההבנה שהדרך קדימה דורשת פריצות דרך מדעיות אמיתיות.

כמה שאלות שכדאי לשאול

הראיון של סוצקבר מעלה כיוון מחשבה מרתק, אבל גם כמה שאלות שכדאי לשקול:

1. האם הדאטה באמת נגמר? סוצקבר עצמו מזכיר שגוגל מצאה לכאורה דרכים לחלץ עוד ערך מ-pre-training. אם זה נכון, האם באמת הגענו לקצה של מה שאפשר לעשות עם הדאטה הקיים, או שפשוט צריך חשיבה יותר יצירתית על איך להשתמש בו? השאלה הזו משנה את כל התזה המרכזית.

2. האם רגשות כפונקציית ערך הם הכרחיים? הדוגמה הנוירולוגית מרתקת, אבל לא ברור שזה מוכיח הכרח טכני. DeepSeek R1, למשל, השיגה תוצאות חזקות ב-reasoning ללא value function מפורשת כפי שסוצקבר מתאר. האם זה באמת חסם שאי אפשר לעקוף, או שזה כיוון מחקרי אחד מתוך כמה אפשריים?

3. איך בדיוק בונים AI שאכפת לו מחיים תבונתיים? הרעיון נשמע מושך, אבל סוצקבר לא נותן מפת דרכים ברורה. זה יותר חזון מאשר תוכנית ביצוע. איך מוודאים ש”אכפתיות” תהיה חזקה מספיק? איך מונעים מצב שבו ה-AI יחליט שהאינטרס של חיים תבונתיים באופן כללי שונה מהאינטרס האנושי הספציפי?

4. האם הגישה של SSI יכולה להצליח ללא הסקייל של המתחרים? סוצקבר מסביר שה-compute שיש ל-SSI מספיק כדי להוכיח רעיונות, אבל מה קורה אם הרעיונות הנכונים דווקא דורשים סקייל עצום כדי להוכיח אותם? האם אפשר לדעת מראש?

5. האם 5 עד 20 שנה זה תחזית? טווח כל כך רחב קשה לאמת או להפריך. זה לא באמת אומר “אני חושב שזה יקרה בשנה X” – זה יותר “אני לא יודע מתי, אבל כנראה לא מחר ולא בעוד 50 שנה”. האם יש דרך לצמצם את חוסר הוודאות הזה?

האם סוצקבר צודק?

הראיון של סוצקבר מרתק ומציב סימן שאלה גדול מעל הגישה הנוכחית של תעשיית ה-AI. אם הוא צודק, הדרך ל-AGI לא תבוא מהשקעה של עשרות מיליארדי דולרים במרכזי נתונים גדולים עוד יותר. היא תבוא ממחקר בסיסי על איך למדוד ולשפר את היכולת של מכונות להכליל מידע, לדעת תוך כדי תנועה אם הן בכיוון הנכון, וללמוד מניסיון כמו שבני אדם עושים.

 

עבור המשקיעים, המסר הוא שהמירוץ על כוח עיבוד עלול להאט בקרוב. עבור החוקרים, זו הזמנה לחזור לעבודת המחקר הבסיסית. ועבור הציבור הרחב, זה תזכורת שהדרך ל-superintelligence היא כנראה ארוכה ומסובכת יותר ממה שהכותרות נוטות לטעון.

 

האם סוצקבר צודק? הזמן יגיד. אבל כשהאדם שעזר לבנות את AlexNet, GPT-3 ואת OpenAI אומר שהכיוון שכולם רצים אליו לא יעבוד לבד, כדאי להקשיב.

הפוסט איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ilya-sutskever-interview/feed/ 0
סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת https://letsai.co.il/ai-high-tech-israel/ https://letsai.co.il/ai-high-tech-israel/#respond Mon, 01 Dec 2025 07:54:08 +0000 https://letsai.co.il/?p=65121 רשות החדשנות ומכון ברוקדייל בחנו את חדירת כלי הבינה המלאכותית היוצרת אל לב שגרת העבודה של ההייטק הישראלי. הסקר בדק שלושה נושאים מרכזיים: איך עובדים משתמשים בכלים האלה בפועל, איך הם תופסים את השפעתם על איכות העבודה והפרודוקטיביות, וכיצד הם מפרשים את הטכנולוגיה – כהזדמנות תעסוקתית או כאיום. חשוב להדגיש, אלו דיווחים סובייקטיביים של העובדים […]

הפוסט סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת הופיע ראשון בLet's AI בינה מלאכותית

]]>
רשות החדשנות ומכון ברוקדייל בחנו את חדירת כלי הבינה המלאכותית היוצרת אל לב שגרת העבודה של ההייטק הישראלי. הסקר בדק שלושה נושאים מרכזיים: איך עובדים משתמשים בכלים האלה בפועל, איך הם תופסים את השפעתם על איכות העבודה והפרודוקטיביות, וכיצד הם מפרשים את הטכנולוגיה – כהזדמנות תעסוקתית או כאיום. חשוב להדגיש, אלו דיווחים סובייקטיביים של העובדים עצמם. הסקר בוחן את תחושת ההשפעה ולא מדידה אובייקטיבית של תפוקה בפועל.

 

מנכ״ל רשות החדשנות

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כמעט כולם משתמשים, הצעירים מובילים

הסקר כולל 523 עובדי ועובדות הייטק, רובם בעלי השכלה אקדמית (86%) ומתגוררים במרכז הארץ (69%). הפרופיל הדמוגרפי הזה משקף היטב את הרכב כוח האדם בענף, אך חשוב לזכור שהוא אינו מייצג בהכרח את שוק העבודה הרחב בישראל.

 

הממצא הבולט הוא שכמעט כל עובדי ההייטק משתמשים בכלי בינה מלאכותית יוצרת. 95% מהם עושים שימוש קבוע בכלים, ו-78% משתמשים בהם מדי יום. השימוש איננו מוגבל למפתחים בלבד. קבוצת הגיל 25 עד 34 מובילה את האימוץ – 86% מבני הגיל הזה מדווחים על שימוש יומיומי – אך גם בקרב עובדים מבוגרים יותר שיעורי השימוש נותרו גבוהים. השילוב של הכלים התרחב גם לתפקידים כמו שיווק, משאבי אנוש ומוצר.

 

תדירות השימוש ב-GenAI

תדירות השימוש בכלי בינה יוצרת | innovationisrael.org.il

 

עומק השימוש מרשים לא פחות: 82% מהמשתמשים היומיומיים מפעילים את הכלים בשלושה סוגי משימות או יותר, ורבע מהם עובדים עם ששה סוגי משימות ויותר. התמונה שחוזרת לאורך הדוח ברורה – מי שמשתמש, משתמש הרבה.

 

ההבדלים בין תפקידי הליבה בהייטק בולטים אך אינם חוצים את קו האימוץ. עובדים טכנולוגיים נעזרים בכלים בעיקר לפיתוח קוד, איתור תקלות ותיעוד. מנגד, גם 46% מהעובדים בתפקידים לא טכנולוגיים מדווחים על שימוש בכלים לכתיבת קוד ותיעוד, לצד כתיבת תוכן מקצועי, חיפוש מידע ולמידה עצמית.

 

הבדלים בשימוש לפי תפקיד

הבדלים בשימוש לפי תפקיד | innovationisrael.org.il

תרומה משמעותית לפרודוקטיביות

העובדים מדווחים על תרומה ברורה של כלי הבינה המלאכותית לעבודתם. 70% מציינים שיפור רב באיכות התוצרים, ו-50% מדווחים על קיצור משמעותי בזמן ביצוע המשימות. בתוך קבוצת המשתמשים החווים חיסכון בזמן, כ-40% מציינים שהכלים קיצרו עבורם יותר ממחצית מזמן העבודה על משימות מסוימות.

 

שיפור באיכות ובזמן העבודה

שיפור באיכות ובזמן העבודה | innovationisrael.org.il

 

כדי לאמוד את השפעת הכלים בצורה רחבה יותר, פותח בסקר מדד משולב הבוחן גם את השיפור באיכות וגם את החיסכון בזמן. לפי המדד הזה, כ-75% מהעובדים חווים עלייה משמעותית בפרודוקטיביות. תוצאה זו משותפת לכלל העובדים – ללא פערים משמעותיים בין תפקידים או סוגי חברות.

 

ההשפעה הנתפסת של כלי GenAI על פרודוקטיביות, איכות התוצרים וקיצור זמני העבודה

ההשפעה הנתפסת של כלי GenAI על פרודוקטיביות, איכות התוצרים וקיצור זמני העבודה | innovationisrael.org.il

 

כלים כלליים בכל התפקידים, כלי קוד בעיקר אצל המפתחים

כלי GenAI רב תכליתיים – כמו ChatGPT, Claude ו-Gemini – הפכו לחלק משגרת העבודה של כמעט כל העובדים בענף. יותר מ-94% מדווחים שהם משתמשים בהם, ללא הבדל מהותי בין תפקידים טכנולוגיים ולא-טכנולוגיים.

 

התמונה משתנה כשמדובר בכלים ייעודיים לפיתוח קוד. כלים כמו GitHub Copilot ו-Cursor נפוצים משמעותית יותר בקרב עובדים טכנולוגיים: 67% מהם משתמשים בהם, לעומת 43% בלבד מהעובדים שאינם בתפקידי פיתוח.

 

פער בולט נוסף מופיע בתוך קבוצת העובדים הטכנולוגיים עצמם. שיעורי השימוש בכלי קוד גבוהים במיוחד בקרב ג’וניורים – 74% מהם משתמשים בכלים כאלה, לעומת 48% בלבד מבכירי ההנהלה. הנתון הזה מדגיש מגמה עקבית בסקר: עובדים צעירים ונמוכי דרג מאמצים את הכלים מהר יותר ובאופן אינטנסיבי יותר.

 

שימוש בכלי GenAI לפי תפקיד

שימוש בכלי GenAI לפי תפקיד | innovationisrael.org.il

סטארטאפים מאמצים לאט יותר את כלי הקוד

אחד הפערים הבולטים בסקר מופיע בין סוגי החברות. בעוד שמרכזי מו”פ בינלאומיים וחברות שירותים מציגים אימוץ גבוה של כלי AI לכתיבת קוד – 77% מהעובדים הטכנולוגיים משתמשים בהם – שיעור השימוש בסטארטאפים נמוך משמעותית ועומד על 64% בלבד.

 

שיעור השימוש בכלי GenAI לקוד

שיעור השימוש בכלי GenAI לקוד | innovationisrael.org.il

 

הפער הזה מרמז על דפוס זהיר יותר בחברות צעירות. סטארטאפים, שפועלים לעיתים על קוד ייחודי ורגיש, נוטים לשמור על שליטה הדוקה בתהליך הפיתוח ולהימנע משילוב מהיר של כלים שעלולים להשפיע על נכס הליבה שלהם. הדוח אינו מספק הסבר ישיר לתופעה, אך הנתונים משאירים מקום לפרשנות זו.

הזדמנות או איום? זה תלוי איפה אתם נמצאים בהייטק

רוב עובדי ההייטק רואים בבינה המלאכותית הזדמנות: 68% מהמשיבים תופסים את GenAI כמנוע לצמיחה מקצועית, ורק 27% רואים בה איום ממשי על עתידם התעסוקתי. הנתונים הללו מציבים תמונה אופטימית במבט ראשון, אך כשמעמיקים פנימה מתגלים פערים ברורים בין קבוצות שונות בענף.

 

הזדמנות משמעותית להתפתחות מקצועית

הזדמנות משמעותית להתפתחות מקצועית | innovationisrael.org.il

 

עובדים בתפקידים לא טכנולוגיים נוטים לראות בבינה המלאכותית בעיקר הזדמנות – 76% מהם מצהירים כך, לעומת 65% מהעובדים בתפקידי פיתוח. במקביל, תחושת האיום פוגעת יותר בעובדים טכנולוגיים: 31% מהם חשים מאוימים, בהשוואה ל-14% בלבד בקרב עובדים שאינם בתפקידי פיתוח.

 

הפער הזה מתיישב עם מגמה רחבה בדוח: מי שעובד קרוב יותר לקוד חושש יותר מהשפעה ישירה על תחום מומחיותו, בעוד שעובדים מתחומי שיווק, מוצר, משאבי אנוש ושירות נוטים לראות בכלים מנוע שמרחיב יכולות ולא מחליף אותן.

מי חושש יותר? הפערים החברתיים שנחשפים בסקר

הנתונים על תפיסת האיום מציגים פערים חברתיים ברורים בין קבוצות שונות בענף ההייטק. אף שהרוב רואים בבינה המלאכותית הזדמנות, יש קבוצות שחשות מאוימות במידה רבה יותר – והדוח ממפה אותן באופן מדויק.

גיל ודרג מקצועי: צעירים וסניורים מודאגים יותר

החשש מהשפעת הבינה המלאכותית אינו ליניארי. דווקא העובדים הצעירים יחסית, בני 25-34, מדווחים על רמות איום גבוהות יותר לעומת קבוצות גיל מבוגרות מהם. לצד זאת, גם עובדים בדרגים בכירים – סניורים בתפקידי פיתוח – מביעים רמת חשש גבוהה: 37% מהם רואים ב-GenAI איום משמעותי על עתידם המקצועי. עובדים מבוגרים יותר, בני 45-64, מדווחים על חשש נמוך בהרבה.

מיקום גיאוגרפי והשכלה: פריפריה וללא תואר חוששים יותר

פער חד נוסף מופיע בין תושבי המרכז לפריפריה. 40% מעובדי ההייטק שמתגוררים בפריפריה חשים מאוימים מהטכנולוגיה, לעומת 24% בלבד מתושבי המרכז. הבדל דומה נמצא בין עובדים בעלי תואר אקדמי לבין כאלה ללא תואר: 39% מהעובדים ללא השכלה אקדמית מודאגים מהשפעת הבינה המלאכותית על עתידם התעסוקתי, מול 26.5% בלבד מבעלי תואר.

 

הפערים הללו מציירים תמונה ברורה: החשש אינו מחולק שווה בשווה. הוא מרוכז יותר בקרב צעירים, סניורים טכנולוגיים, תושבי הפריפריה ועובדים ללא השכלה אקדמית – קבוצות שחשות שהשינוי עשוי לערער את מעמדן בשוק העבודה.

מה מלמד אותנו הסקר הזה על עתיד העבודה בהייטק?

הנתונים מציירים תמונה מורכבת. מצד אחד, כלי הבינה המלאכותית היוצרת כבר הפכו לחלק מרכזי משגרת העבודה של כמעט כל עובדי ההייטק, והם נתפסים כמשפרים משמעותית את איכות העבודה ואת מהירות הביצוע. מצד שני, הסקר חושף כיסי חשש מובהקים – בעיקר בקרב עובדים צעירים, סניורים טכנולוגיים, תושבי הפריפריה ועובדים ללא תואר אקדמי – קבוצות שמרגישות שהשינוי הטכנולוגי עשוי להשפיע על מעמדן המקצועי.

 

דרור בין, מנכ”ל רשות החדשנות, מסכם את המשמעות הרחבה של ממצאי הסקר: “כמעט כל עובדי הענף כבר משתמשים בה – זו איננה תחזית עתידית אלא מציאות עכשווית שמעצבת מחדש את תעסוקת ההייטק.” לצד זאת הוא מדגיש כי האתגר כעת הוא ניהולי ולא רק טכנולוגי: כיצד לאזן בין פריון וצמיחה לבין ההשפעה על שוק העבודה. “על מנת למנוע פערים עוד יותר גדולים בין ההייטק לשאר הכלכלה הישראלית, נכון לוודא שבינה מלאכותית מאומצת בצורה נרחבת בכל ענפי הכלכלה.”

 

בסופו של דבר, הסקר מראה שכלי הבינה המלאכותית אינם עוד תוספת נקודתית, אלא מרכיב קבוע בפרודוקטיביות של עובדי ההייטק – מכל תפקיד, דרג וסוג חברה. אך הוא גם מציב משימה ברורה למדינה ולמעסיקים – להשקיע בהנגשת הכלים ובהכשרות ייעודיות לקבוצות שנמצאות בעמדת חולשה, כדי שהמהפכה לא תיצור פערים עמוקים יותר בשוק העבודה.

 

לסקר המלא עם כל התובנות, כנסו כאן.

הפוסט סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-high-tech-israel/feed/ 0
למה 92% ממנהלי הנתונים חייבים להיות ממוקדי תוצאות עסקיות אבל רק 29% יודעים למדוד את הערך https://letsai.co.il/data-ai-value-gap/ https://letsai.co.il/data-ai-value-gap/#respond Sat, 29 Nov 2025 14:21:59 +0000 https://letsai.co.il/?p=64935 דוח חדש של IBM Institute for Business Value מגלה שרוב הארגונים משקיעים בבינה מלאכותית בלי לדעת באמת אם היא מייצרת ערך עסקי. 92% ממנהלי הנתונים הבכירים (CDO) אומרים שהם חייבים להיות ממוקדי תוצאות עסקיות כדי להצליח בתפקיד, אבל רק 29% מהם מדווחים שיש להם מדדים ברורים שמאפשרים למדוד את הערך של תוצאות מונעות נתונים. הסקר, […]

הפוסט למה 92% ממנהלי הנתונים חייבים להיות ממוקדי תוצאות עסקיות אבל רק 29% יודעים למדוד את הערך הופיע ראשון בLet's AI בינה מלאכותית

]]>
דוח חדש של IBM Institute for Business Value מגלה שרוב הארגונים משקיעים בבינה מלאכותית בלי לדעת באמת אם היא מייצרת ערך עסקי. 92% ממנהלי הנתונים הבכירים (CDO) אומרים שהם חייבים להיות ממוקדי תוצאות עסקיות כדי להצליח בתפקיד, אבל רק 29% מהם מדווחים שיש להם מדדים ברורים שמאפשרים למדוד את הערך של תוצאות מונעות נתונים. הסקר, שנערך בקרב 1,700 מנהלי נתונים ב-27 מדינות ו-19 תעשיות, חושף פער חריף בין השאיפה להשתמש ב-AI כדי לקדם את העסק לבין היכולת להוכיח שההשקעות האלה באמת משתלמות.

 

המחקר התבסס על 1,700 מנהלי נתונים בכירים ב-27 מדינות ו-19 תעשיות ברחבי העולם

IBM Institute for Business Value, 2025 CDO Study

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המדידה הטכנולוגית מסתירה את התשובה האמיתית

הסיבה לפער הזה פשוטה. ברוב הארגונים מודדים את הטכנולוגיה במקום למדוד את השפעתה על העסק. עוקבים אחרי זמני תגובה, דיוק מודלים וכמות שאילתות, אבל הרבה פחות אחרי שאלות בסיסיות כמו: האם הלקוחות מרוצים יותר, האם העלויות יורדות, והאם השורה התחתונה באמת משתפרת.

 

באנר קורס דאטה ניתוח נתונים עם AI

 

הדוח מציג כאן סתירה חדה: 81% ממנהלי הנתונים אומרים שהם נותנים עדיפות להשקעות שמאיצות יכולות ויוזמות AI, אבל רק 26% בטוחים שהיכולות האלה באמת ביצירת מקורות הכנסה חדשים שמופעלים על ידי בינה מלאכותית. במילים אחרות, רוב הארגונים משקיעים בכוח במנוע, בלי לבדוק אם המכונית בכלל מתקדמת בכיוון הנכון.

 

מתוך זה הדוח גוזר עיקרון פשוט: אי אפשר למדוד החזר על השקעה ב-AI בלי תשתית נתונים ותהליכי מדידה שנבנו מראש בשביל זה. החברות שמצליחות לחבר בין הטכנולוגיה לערך העסקי עושות שני דברים בולטים – בונות צנרת נתונים אמינה וגמישה, והופכות את הידע התפעולי הייחודי שלהן לנכס תחרותי. במאמר הזה נתמקד בשני התחומים האלה.

 

בגרף הבא רואים את הפער הזה במספרים: 92% מהמנהלים אומרים שהם חייבים להיות ממוקדי תוצאות עסקיות כדי להצליח בתפקיד, אבל רק 29% מדווחים שיש להם מדדים ברורים שמאפשרים למדוד את הערך של תוצאות מונעות נתונים. זה כבר לא רק סיפור על טכנולוגיה מתקדמת, אלא על חוסר יכולת בסיסי לענות על השאלה “האם כל זה באמת שווה את הכסף”.

 

פער אמון: למה 92% מהמנהלים מצפים מבינה מלאכותית לתוצאות אבל רק 29% יודעים למדוד אותן

IBM Institute for Business Value, 2025 CDO Study

צנרת נתונים שעובדת באמת

בינה מלאכותית מכפילה גם את הערך וגם את הסיכון. מודל AI שמוזן בנתונים לא נקיים או לא מדויקים לא רק שלא מייצר ערך, הוא גם מגדיל את הנזק. קחו למשל חברה שמנסה לחזות ביקוש ללקוחות. אם הנתונים שלה מלאים ברעש מהזמנות שבוטלו או כתובות לא מעודכנות, המודל יחזה ביקוש גבוה באזורים שהלקוחות כבר עזבו. התוצאה ברורה – מלאי שנשאר במחסנים, עלויות לוגיסטיקה מיותרות והחלטות שנראות “חכמות” על הדשבורד אבל שגויות בשטח.

 

החברות שמצליחות לייצר ערך מבינה מלאכותית מתחילות בבנייה של צנרת נתונים נקייה ומפוקחת. הן משקיעות קודם כל בניקוי מוקדם, מסירות רעש, מסננות מקורות בעייתיים וממפות מראש נקודות כשל אפשריות. אחר כך הן ממקדות את המאמץ במידע שנותן ערך ממשי, במקום לאסוף כל דבר שזז. הן מגדירות סטנדרטים ברורים לפורמטים, משתמשות בשפה אחידה בכל המערכות ומנסחות במדויק מה נחשב “נתון תקין”.

 

לפני שהנתונים מגיעים למודל, הן מריצות בקרת כניסה שתופסת חריגות ושגיאות. אחרי שהמודל עולה לאוויר, הן ממשיכות לנטר את הזרימה בזמן אמת, מזהות סטיות מוקדם ומאפשרות תיקון מהיר לפני שהטעויות מתגלגלות ללקוחות ולדו”חות. בלי התשתית הזו, בינה מלאכותית היא בעיקר כלי יקר שמייצר החלטות מרשימות במצגת ופוגעות בביצועים בשורה התחתונה.

איך זה נראה בפועל

חברת Medtronic, יצרנית ציוד רפואי גלובלית, התמודדה עם תהליך ידני ואיטי של התאמת חשבוניות, אישורי משלוח והזמנות רכש. הצוותים השקיעו עד 20 דקות בעיבוד חשבונית אחת, תהליך שגזל זמן יקר מעבודה אסטרטגית ופגע ביעילות התפעולית.

 

Medtronic הטמיעה פתרון מבוסס AI שמבצע קליטה אוטומטית של מסמכים והתאמה ביניהם. הפלטפורמה משתמשת בלמידת מכונה ובבינה מלאכותית ג׳נרטיבית כדי להתמודד עם פורמטים מורכבים, חותמות, סריקות באיכות ירודה ומבנים לא סטנדרטיים, ולסגור את כל ההתאמות בלי התערבות ידנית.

 

בתוך ארבעה שבועות בלבד הושלמה האוטומציה של תהליך התאמת המסמכים במחלקה אחת, כבסיס להתרחבות לשאר הארגון. זמן עיבוד החשבוניות ירד מ”עד 20 דקות” ל-8 שניות עם דיוק שעולה על 99 אחוז. התוצאה לא הייתה רק חיסכון דרמטי בזמן: השגיאות היקרות צומצמו, המערכת יכולה להתמודד עם נפחי מסמכים גדלים בלי להוסיף כוח אדם, והעובדים שוחררו להתמקד במשימות בעלות ערך גבוה יותר.

 

זו דוגמה קלאסית למה שהדוח של IBM מדגיש – כשיש צנרת נתונים מסודרת ומגדירים מראש מה מודדים, בינה מלאכותית היא כבר לא “פיילוט טכנולוגי” אלא תהליך עסקי חדש עם תוצאה ברורה שקל למדוד בזמן, כסף ודיוק.

ניסיון תפעולי כיתרון תחרותי

הטכנולוגיה של בינה מלאכותית זמינה לכולם. המודלים, הפלטפורמות וה-APIs דומים מאוד בין ארגון לארגון. מה שלא זמין לכולם הוא הניסיון התפעולי הייחודי שכל ארגון צובר עם השנים. החברות שמובילות בתחום הן אלו שלא מסתפקות בידע הזה כ”ידע בראש של אנשים”, אלא הופכות אותו לנתונים, למערכות ולתהליכים שאי אפשר להעתיק בקלות.

 

זה לא ידע כללי על השוק או על טרנדים בטכנולוגיה, אלא ידע מאוד ספציפי – איך הלקוחות שלכם באמת מתנהגים, איפה התהליכים נשברים שוב ושוב, אילו פתרונות עבדו בשטח ואילו נכשלו, מה גורם לעיכובים, ואיזה ניואנסים קטנים גורמים ללקוח להישאר או לעזוב. זה החומר הגולמי שממנו בונים יתרון תחרותי אמיתי.

 

כדי להפוך את הידע הזה ליתרון עסקי צריך להתייחס אליו כמו אל נכס נתונים, לא רק כמו אל ניסיון. לתעד בזמן אמת מה עובד ומה לא, ולשתף את הצוות בתובנות במקום להשאיר אותן בשיחות מסדרון, לבנות תהליכים ברורים שניתנים לשחזור ולהגדלה, להפעיל מנועי החלטות אוטונומיים בנקודות קריטיות עם אפשרות להתערבות אנושית כשצריך, לפתח מנגנונים שמונעים טעויות ומפעילים התראות מוקדמות, כך שלא מחכים לבעיות גדולות אלא מזהים סימני אזהרה בזמן, ולשמור את כל הידע הזה במערכות נגישות שמאפשרות לשפר את התהליכים כל הזמן ולא להתחיל מאפס בכל פרויקט חדש.

 

הדוח של IBM מראה שהמיקוד הזה איננו רק יתרון תחרותי אלא גם סדר עדיפות מובהק: מנהלי הנתונים מציבים “מינוף נתונים ליתרון עסקי” במקום הראשון, ומולם מתמודדים עם אתגרים כמו תרבות מונעת נתונים וממשל נתונים אפקטיבי. התרשים הבא מציג את זה בצורה ברורה:

 

מה הכי חשוב למנהלי הנתונים – ומה מעכב אותם בדרך

מה הכי חשוב למנהלי הנתונים – ומה מעכב אותם בדרך. IBM CDO Study

למי זה מתאים ולמי לא

הגישה הזו מתאימה בדרך כלל לארגונים גדולים, לרוב עם מאות עד אלפי עובדים, שיש להם מחלקת IT ייעודית ובעלות ברורה על הנתונים. ארגונים כאלה מסוגלים להשקיע זמן ומשאבים בבנייה של תשתית נתונים, במדידה ובשינוי תהליכים לפני שהם רצים להציג תוצאות נוצצות. זה דורש סבלנות, משמעת וגישה שיטתית לעבודה עם נתונים, לא עוד פרויקט חדשני שמוצג במצגת ונשכח אחרי חצי שנה.

 

היא פחות מתאימה לחברות שמחפשות קיצור דרך או “קסם” טכנולוגי. בינה מלאכותית לא מתקנת תהליכים גרועים ולא מסדרת נתונים מבולגנים. היא רק מכפילה אותם. אם התהליכים בעייתיים והנתונים לא אמינים, AI יגרום להם להיות מהירים יותר, גדולים יותר וקשים יותר לתיקון.

 

המסקנה המעשית נשארת פשוטה – הנתונים שלכם הם הנכס הייחודי שלכם. אם לא מטפלים בהם ברצינות, שום מודל לא יציל אתכם. התחילו מבנייה של תשתית שמאפשרת מדידה אמיתית ותיעוד של ידע תפעולי. רק אחר כך תוסיפו שכבת בינה מלאכותית, ורק אז תוכלו גם להפיק ערך ממנה וגם לדעת כמה ערך באמת התקבל.

 

לסקרנים שרוצים לצלול לדוח המלא ואל כל המספרים, ההמלצות והדוגמאות, אפשר לקרוא אותו כאן.

הפוסט למה 92% ממנהלי הנתונים חייבים להיות ממוקדי תוצאות עסקיות אבל רק 29% יודעים למדוד את הערך הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/data-ai-value-gap/feed/ 0
ארה״ב משיקה את Genesis Mission ובונה תשתית AI לאומית https://letsai.co.il/us-genesis-mission/ https://letsai.co.il/us-genesis-mission/#respond Thu, 27 Nov 2025 07:13:13 +0000 https://letsai.co.il/?p=64821 ב-24 בנובמבר 2025 חתם הנשיא דונלד טראמפ (Donald Trump) על צו נשיאותי שהוציא לדרך את Genesis Mission, יוזמה לאומית שמתייחסת לבינה מלאכותית לא ככלי טכנולוגי אלא כתשתית אסטרטגית. התוכנית מאחדת נתונים פדרליים, סופר-מחשבים, מעבדות לאומיות, אוניברסיטאות וחברות טכנולוגיה לפלטפורמה אחת בשם American Science and Security Platform. כך ארצות הברית עוברת למצב של “AI לאומי” ומנסה […]

הפוסט ארה״ב משיקה את Genesis Mission ובונה תשתית AI לאומית הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-24 בנובמבר 2025 חתם הנשיא דונלד טראמפ (Donald Trump) על צו נשיאותי שהוציא לדרך את Genesis Mission, יוזמה לאומית שמתייחסת לבינה מלאכותית לא ככלי טכנולוגי אלא כתשתית אסטרטגית. התוכנית מאחדת נתונים פדרליים, סופר-מחשבים, מעבדות לאומיות, אוניברסיטאות וחברות טכנולוגיה לפלטפורמה אחת בשם American Science and Security Platform. כך ארצות הברית עוברת למצב של “AI לאומי” ומנסה לעצב מחדש את מאזן הכוח המדעי, הביטחוני והכלכלי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

היום שבו AI הפך לתשתית לאומית

מה שהשיקו בבית הלבן הוא לא עוד תוכנית טכנולוגית, אלא שינוי תפיסה שממקם את ה-AI לצד הגרעין, האנרגיה והביטחון כבסיס לעוצמה לאומית. כבר מהרגע הראשון Genesis Mission הוצגה בשפה שמזוהה עם מצבי חירום לאומיים. ההשוואה לפרויקט מנהטן אינה מטאפורה, זו הצהרה על ראיית ה-AI כתשתית עליונה, ברמת חשיבות שמזכירה את התפקיד ההיסטורי של אנרגיה, תקשורת ויכולות גרעיניות.

 

ליבת המהלך פשוטה אבל דרמטית – ברגע שכל הנכסים המדעיים של ארצות הברית מחוברים לפלטפורמת AI אחת, ניתן לדחוף את קצב המחקר משנים לחודשים ולעיתים לימים. זו ההבטחה המבצעית של American Science and Security Platform. כדי להבין מהי אותה “מערכת הפעלה לאומית ל-AI”, כדאי לבחון את האופן שבו הבית הלבן מתאר את Genesis Mission: ארכיטקטורה בת ארבע שכבות שמאחדת תשתיות מחשוב, מאגרי נתונים, אוטומציה מדעית ומודלים מבוססי יסוד לכדי מערכת אחת.

ארבע שכבות תשתית לאומית

Genesis Mission מגייסת 40,000 חוקרים, מהנדסים וצוותים טכניים ממשרד האנרגיה, ונשענת על ארבעה רכיבים מרכזיים:

  • איחוד כוח המחשוב של 17 המעבדות הלאומיות של משרד האנרגיה, כולל מחשבי-העל במעבדת Oak Ridge (מעבדה לאומית מובילה של ארצות הברית המתמחה בסופר-מחשוב, אנרגיה וחקר חומרים).

  • פתיחת מאגרי הנתונים המדעיים הגדולים בעולם, שנצברו לאורך עשרות שנים של מחקר פדרלי.

  • שימוש בסוכני AI אוטונומיים לבניית ניסויים, בדיקת השערות ואוטומציה של שלבי מחקר שלמים.

  • פיתוח מודלים מדעיים מבוססי יסוד בתחומי הפיזיקה, הכימיה, ההנדסה ועוד.

 

ארכיטקטורת Genesis Mission: ארבע שכבות תשתית לאומית

ארכיטקטורת Genesis Mission: ארבע שכבות תשתית לאומית

 

הכל מתרחש בלוחות זמנים אגרסיביים. תוך 90 יום מיפוי מלא של משאבי המחשוב הלאומיים, תוך 120 יום זיהוי מאגרי הנתונים והמודלים הראשונים, ותוך 270 יום הדגמת יכולת תפעולית ראשונית. בתוך 60 יום נדרש משרד האנרגיה לזהות לפחות 20 אתגרים מדעיים וטכנולוגיים בעלי חשיבות לאומית.

 

ציר הזמן של Genesis Mission: מהצו הנשיאותי ליכולת תפעולית בפחות מ-9 חודשים. מקור: צו נשיאותי, 24 בנובמבר 2025.

ציר הזמן של Genesis Mission

 

כדי להבין את סדר העדיפויות של התוכנית, הבית הלבן הגדיר רשימה של תחומי ליבה שעליהם תישען התשתית. אלה לא נושאים טכניים בלבד, אלא עמודי תווך של העוצמה המדעית והכלכלית שהמדינה רוצה להאיץ באמצעות AI:

 

התחומים בהם רוצה ארה״ב לשפר את יכולותיה בעזרת בינה מלאכותית

אתגרי העל של תוכנית ג׳נסיס

המדינה מגייסת את התעשייה

הממשל לא יוצא למהלך הזה לבדו. Genesis Mission נפתחה מיד בשותפות עמוקה עם ענקיות הטכנולוגיה וחברות החומרה, שהציגו התחייבויות חסרות תקדים. Amazon AWS הודיעה כי תשקיע עד 50 מיליארד דולר בתשתיות AI ובסופר-מחשוב עבור הממשל הפדרלי, השקעה חסרת תקדים בהיקפה ביחסי ממשל-ענן.

 

במקביל, Nvidia, AMD, Dell ו-HPE החלו להקים מתקנים ייעודיים ולשלב את מערכות החומרה שלהן במעבדות הלאומיות. גם Anthropic הצטרפה כשותפה למחקר ולפיתוח.

 

בלב המהלך עומדת מעבדת Oak Ridge National Laboratory, שתארח שני מחשבי-על חדשים: Lux, מפעל AI ריבוני שיתחיל לפעול בתחילת 2026, ו-Discovery, מחשב Exascale מהדור הבא שמיועד להגדיל את פריון המחקר המדעי פי עשרה.

 

מעבר להשקעות העצומות, המהלך מבטא ניסיון לצמצם תלות בענקיות הטכנולוגיה ולהחזיר למדינה שליטה על שכבות הליבה של תשתיות ה-AI הלאומיות.

הימור לעשור קדימה

חשוב לומר, התוכנית מניחה הנחות שטרם הוכחו. Genesis Mission מתוכננת לעשור שלם, תקופה שבה ממשלים מתחלפים, תקציבים משתנים ושיתופי פעולה תעשייתיים יכולים להתפרק.

 

AWS מתחייבת ל-50 מיליארד דולר, אבל האם הממשל הבא ישמור על אותה ארכיטקטורה? האם ריכוז כל הנתונים המדעיים הפדרליים בפלטפורמה אחת לא יוצר נקודת כשל יחידה? ומה קורה אם התשואה על ההשקעה – הכפלת פריון המחקר תוך עשור – לא מתממשת בקצב שהובטח?

 

התוכנית בנויה על הימור שהטכנולוגיה תתקדם מספיק מהר וששותפויות פוליטיות-תעשייתיות יחזיקו מעמד. זה הימור סביר, אבל לא ודאי.

מרוץ חימוש גלובלי

כדי להבין את Genesis Mission צריך להרחיב את מבט. זו לא תחרות על אפליקציות או על מודל מוצלח יותר, אלא מרוץ תשתיות רחב היקף. כל מעצמה מנסה לבנות לעצמה יכולת AI ריבונית, מהבסיס ועד שכבות המחשוב והנתונים.

 

בסין, המהלך הזה מתורגם להשקעה של כ-98 מיליארד דולר, להקמה של יותר מ-250 מרכזי נתונים וליעד של 105 EFLOPS של כוח מחשוב – רמת ביצועים שמיועדת לדור הבא של מחשבי-על, המסוגלים להריץ סימולציות ומודלים מדעיים בקצבים שלא היו אפשריים בעבר. במקביל מוקמת קרן לאומית שתוכל לגייס עוד 138 מיליארד דולר בעשרים השנים הקרובות.

 

במפרץ, סעודיה הקימה קרן של 40 מיליארד דולר, ואיחוד האמירויות בונה באבו דאבי את Stargate UAE – קמפוס AI שמתוכנן להיות הגדול בעולם מחוץ לארצות הברית.

 

בריטניה משיקה את יחידת Sovereign AI עם תקציב ראשוני של חצי מיליארד פאונד, והאיחוד האירופי מתקדם לעבר חוקת EU Cloud and AI Development Act שתקבע תשתיות מחשוב עצומות ותבסס ריבונות דיגיטלית.

 

המגמה אחידה ומצביעה על כך שהבינה המלאכותית הופכת לתשתית מדינתית. כמו אנרגיה או ביטחון, היא הופכת לגורם שמגדיר מי יחזיק בעוצמה בעשורים הקרובים.

AI כתשתית לאומית

כאן נכנסת Genesis Mission. ה-AI כבר אינו שירות שמתלווה לתעשיות קיימות, אלא מנגנון שממיר נתונים, מחשוב ומודלים לכוח מדעי, ביטחוני וכלכלי. ארצות הברית מבקשת לבנות עבורה תשתית ריבונית מהיסוד.

 

כאשר המדינה מאחדת את 17 המעבדות הלאומיות, עשרות שנות מחקר פדרלי ומחשבי Exascale תחת פלטפורמת AI אחת עם יעדים מחייבים, היא לא מבצעת ניסוי. היא מקימה מערכת הפעלה לאומית לבינה מלאכותית – תשתית שנועדה לתמוך במחקר מואץ, לקצר תהליכים משנים לימים ולייצר יכולות שהיו מחוץ להישג יד עד היום.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

איך נכון להתכונן לשנים הבאות

Genesis Mission מסמנת שינוי בסיסי באופן שבו מדינות חושבות על בינה מלאכותית. זו כבר לא טכנולוגיה שמתווספת לתעשיות קיימות, אלא תשתית שממירה נתונים, מחשוב ויכולת מדעית לכוח אסטרטגי. כמו רשתות חשמל במאה העשרים או לוויינים בתחילת עידן החלל, AI הופכת לנכס שקובע גבולות כוח.

 

השאלה המרכזית היא כבר לא מי בונה את המודל החכם ביותר, אלא מי שולט בתשתית שמאפשרת לבנות אותו. ארצות הברית בחרה בתשובה שלה – פלטפורמה ריבונית, נתונים פדרליים, מחשוב לאומי. מדינות אחרות יבנו גרסאות משלהן, או ימצאו את עצמן תלויות באלה שכבר בנו.

 

Genesis Mission אינה עוד תוכנית ממשלתית. זה הרגע שבו ארצות הברית מבקשת להגדיר מחדש את מפת הכוח המדעי והאסטרטגי לעשורים הבאים.

הפוסט ארה״ב משיקה את Genesis Mission ובונה תשתית AI לאומית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/us-genesis-mission/feed/ 0
אנטרופיק משיקה את Opus 4.5 כמודל דגל חזק יותר, זול יותר ומדויק יותר https://letsai.co.il/claude-opus-4-5/ https://letsai.co.il/claude-opus-4-5/#respond Tue, 25 Nov 2025 12:22:35 +0000 https://letsai.co.il/?p=64672 אנטרופיק השיקה את מודל הדגל החדש שלה, Claude Opus 4.5. המודל מציג ירידת מחיר חדה של 67 אחוז בהשוואה ל-Opus 4.1, שיפור משמעותי ביכולות קוד עם תוצאות מובילות בבנצ’מרקים, ואינטגרציות חדשות לדפדפן Chrome ול-Excel. לצד השדרוגים בביצועים, המודל מציג גם התקדמות בתחום הבטיחות עם עמידות משופרת וירידה בהתנהגויות לא רצויות. ההשקה מגיעה ימים בודדים אחרי […]

הפוסט אנטרופיק משיקה את Opus 4.5 כמודל דגל חזק יותר, זול יותר ומדויק יותר הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק השיקה את מודל הדגל החדש שלה, Claude Opus 4.5. המודל מציג ירידת מחיר חדה של 67 אחוז בהשוואה ל-Opus 4.1, שיפור משמעותי ביכולות קוד עם תוצאות מובילות בבנצ’מרקים, ואינטגרציות חדשות לדפדפן Chrome ול-Excel. לצד השדרוגים בביצועים, המודל מציג גם התקדמות בתחום הבטיחות עם עמידות משופרת וירידה בהתנהגויות לא רצויות. ההשקה מגיעה ימים בודדים אחרי GPT-5.1 של OpenAI ומיד אחרי Gemini 3 של Google, מה שמדגיש עד כמה התחרות בשוק מודלי השפה צמודה וצפופה. בסקירה הזו תקבלו תמונה מלאה על Opus 4.5: איפה הוא עומד מול מודלים אחרים, איך הוא מתפקד בביצועי קוד ושימושי מחשב, מה הוא יודע לעשות בפועל, כמה הוא עולה, עד כמה הוא בטוח, ולמי הוא מתאים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המחיר הוא הסיפור הגדול

Opus 4.5 מתומחר ב-5 דולר למיליון טוקנים נכנסים ו-25 דולר למיליון טוקנים יוצאים, ירידה של 67 אחוז לעומת Opus 4.1 שעלה 15 ו-75 דולר בהתאמה.

 

נסו את המודל החדש מבית אנטרופיק - Claude Opus 4.5

נסו את המודל החדש מבית אנטרופיק – Opus 4.5

 

מה זה אומר בפועל? טוקן הוא יחידת הטקסט שהמודל מעבד. בממוצע, מיליון טוקנים שווים לכ-750 אלף מילים באנגלית. עבור מפתחים שמריצים משימות קידוד יומיומיות, העלות ירדה מסדר גודל של עשרות דולרים ביום לכמה דולרים בודדים. היכולת הזו שהייתה נגישה בעיקר לארגונים גדולים הופכת מציאותית גם עבור צוותים קטנים וסטארטאפים.

שלושה מודלים, שלושה שימושים

אנטרופיק ממשיכה עם גישה של משפחת מודלים משלימים ולא מסתמכת על מודל אחד לכל המשימות.

Opus 4.5

המודל המתקדם ביותר. מיועד למשימות שמצריכות עומק מקסימלי כמו פרויקטי קוד מורכבים, סוכנים אוטונומיים וניתוח מסמכים ארוכים. למרות ירידת המחיר הדרמטית, Opus נשאר המודל היקר במשפחת 4.5, משום שהוא מספק את העומק והדיוק הגבוהים ביותר.

Sonnet 4.5

מודל העבודה היומיומי של המשפחה הוא Sonnet 4.5. הוא מספק את האיזון הטוב ביותר בין ביצועים, מהירות ועלות. לרוב המשימות השוטפות זו הבחירה המתאימה.

Haiku 4.5

המודל המהיר והחסכוני של המשפחה הוא Haiku 4.5. הוא מתאים לתעבורה גבוהה, תגובות מיידיות ומשימות פשוטות בהיקף גדול.

 

שלושה מודלים, שלושה שימושים

שלושה מודלים, שלושה שימושים

הבחירה בין השלושה משפיעה ישירות על היעילות ועל העלויות. שימוש ב-Haiku למשימות בסיסיות במקום ב-Opus יכול לחסוך עד פי חמש בעלויות בלי לפגוע בתוצאה. לרוב המשתמשים Sonnet יספיק. Opus רלוונטי כשהדיוק הוא גורם קריטי.

מה מספרים המספרים?

Opus 4.5 מציג קפיצה משמעותית ביכולות הנדסת תוכנה. בבנצ’מארק SWE-bench Verified, שמודד פתרון באגים אמיתי מתוך פרויקטי GitHub, המודל הגיע ל-80.9 אחוז והפך לראשון שחוצה את רף השמונים. לשם השוואה, GPT-5.1 Codex Max עומד על 77.9 אחוז, Sonnet 4.5 על 77.2 אחוז ו-Gemini 3 Pro על 76.2 אחוז.

 

הבנצ'מארק המרכזי להוכחת עליונות בהנדסת תוכנה

הבנצ’מארק המרכזי להוכחת עליונות בהנדסת תוכנה | anthropic.com

 

מעבר לדיוק עצמו, Opus 4.5 מפגין יתרון ביעילות. בבדיקות effort controls הוא השיג דיוק גבוה יותר בכל רמות המאמץ, תוך הפקת פחות טוקני פלט בהשוואה לדורות קודמים. המשמעות היא שהמודל יודע לבצע תהליכי חשיבה מורכבים בצורה חסכונית יותר, וזה קריטי כשעובדים בהיקפים גדולים.

 

ביצועים מול יעילות

ביצועים מול יעילות | anthropic.com

 

במבחן נוסף, Aider Polyglot, שמודד יכולת פתרון בעיות קידוד בסביבות מגוונות, Opus 4.5 הגיע ל-89.4 אחוז. Sonnet 4.5 מגיע ל-78.8 אחוז, כך שנוצר פער ברור בין הדגמים.

 

מצוין בבעיות קידוד

מצוין בבעיות קידוד | anthropic.com

 

גם בתחום העבודה עם מחשב, הכולל שימוש בדפדפן, אפליקציות וממשקי מערכת, Opus 4.5 מציג שיא חדש של 66.3 אחוז בבנצ’מארק OSWorld (אפשר לראות בטבלה למעלה). המבחן הזה בודק עד כמה מודל שפה מסוגל לתפעל מחשב אמיתי, וזה תחום שהופך במהירות לרכיב מרכזי ביכולות של מודלים מתקדמים.

 

 

גם ביכולת לשמור על רצף לאורך זמן Opus 4.5 מציג יתרון ברור. עבודה אמיתית עם מודלים מתקדמים כוללת לא רק פתרון בעיות נקודתיות, אלא משימות ארוכות שמצריכות עקביות, הבנה מתמשכת ויכולת לחזור לפרטים קודמים בלי לאבד כיוון. בבנצ’מרק Vending-Bench, שבודק קוהרנטיות לטווח ארוך במשימות מורכבות ורב שלביות, Opus 4.5 מוביל בפער משמעותי על Sonnet 4.5.

 

מתבלט בעבודה על משימות ארוכות ורב-שלביות

מתבלט בעבודה על משימות ארוכות ורב-שלביות | anthropic.com

מפרט טכני

Opus 4.5 מגיע עם חלון הקשר של 200 אלף טוקנים וגבול פלט של 64 אלף טוקנים. ה-reliable knowledge cutoff שלו הוא מרץ 2025, כלומר על מידע עד לתאריך הזה ניתן לסמוך באופן עקבי יותר, ומעבר לכך הידע חלקי.

 

לדברי דיאן נא פן (Dianne Na Penn), ראש תחום ניהול מוצר למחקר באנטרופיק, הגדלת חלון ההקשר לבדה אינה מספיקה. היכולת לזהות אילו פרטים חשובים להחזיק בזיכרון, ואילו כדאי לבדוק מחדש בזמן אמת, היא שמאפשרת למודל להתמודד עם משימות מורכבות לאורך זמן בלי לאבד את הרצף.

בטיחות והתנהגות: הפער שמבליט את Opus 4.5

אחד השינויים הבולטים ב-Opus 4.5 אינו רק בביצועים או ביעילות, אלא ברמת הבטיחות שהוא מציג. בעולם שבו מודלים משולבים במערכות ליבה, כלי קוד, תהליכים עסקיים וממשקי משתמש, עמידות למתקפות והפחתת התנהגויות לא רצויות הופכות לקריטיות כמו מהירות או דיוק.

עמידות למתקפות Prompt Injection

Opus 4.5 מציג את שיעור ההצלחה הנמוך ביותר למתקפות Prompt Injection בהשוואה ל-GPT-5.1 ו-Gemini 3. זהו מדד חשוב, משום שמתקפות כאלה יכולות לגרום למודל להתעלם מהוראות, לחשוף מידע או לבצע פעולות לא רצויות. הנתונים מראים פער ברור בין המודלים, כאשר Opus 4.5 מצמצם משמעותית את הסיכון להתנהגות כזו.

 

עמידות למתקפות Prompt Injection

anthropic.com | עמידות למתקפות Prompt Injection

התנהגות לא רצויה: ירידה משמעותית

גם במדד התנהגות מדאיגה Opus 4.5 מפגין את התוצאות הנמוכות ביותר, כלומר רמה נמוכה יותר של תגובות שעלולות להתפרש כבעייתיות או לא בטוחות. זהו חיזוק נוסף לכך שהמודל מתוכנן לא רק לביצועים, אלא גם ליציבות, אמינות והתאמה לסביבות רגישות.

 

ירידה במדד התנהגות לא רצויה

ירידה במדד התנהגות לא רצויה | anthropic.com

אינטגרציות ויכולות חדשות

צ’אט ללא הגבלה

Opus 4.5 מגיע עם מנגנון דחיסת הקשר שמסכם את חלקי השיחה הישנים בצורה חכמה ושומר את המידע הרלוונטי בלבד. המשמעות היא שהמשתמש יכול לקיים שיחה ארוכה מאוד, לבנות תוכניות מורכבות או לעבוד עם מסמכים גדולים, בלי להיתקל בהודעה שהחלון מלא. זה מאפשר סוף סוף עבודה רציפה בפרויקטים ארוכים, גם ללא תכנון מוקדם של מבנה השיחה.

Claude for Chrome

התוסף לדפדפן פתוח לכל משתמשי Max ומאפשר למודל לראות את הטאבים הפתוחים. זה מאפשר לבצע משימות כמו קריאה וניתוח של דפים, השוואת תוכן, מילוי טפסים וביצוע פעולות מבוססות דפדפן. במקום להעתיק טקסט מהדפדפן לתוך הצ’אט, המודל פשוט רואה את המסך ועובד עליו ישירות.

Claude for Excel

האינטגרציה החדשה מאפשרת למודל לעבוד בתוך Excel עצמו. הוא יכול לנתח גיליונות, לבנות מודלים, להפיק נוסחאות מורכבות או ליצור אוטומציות שמזרזות עבודה חוזרת. זה כלי פרקטי במיוחד לניתוחים פיננסיים, דוחות תפעוליים וטיוב נתונים. השירות נמצא בבטא למנויי Max, Team ו-Enterprise.

Claude Code בדסקטופ

האפליקציה מאפשרת להריץ כמה סשנים במקביל, כך שאפשר לעבוד על כמה פרויקטים בשיחה אחת בצורה מופרדת. מצב Plan Mode עבר שדרוג משמעותי, והוא בונה תוכנית עבודה מפורטת לפני שהמודל ניגש לכתיבת קוד בפועל. זה מפחית טעויות, מייצר שקיפות ומאפשר שליטה טובה יותר בתהליך הפיתוח.

זמינות

Opus 4.5 זמין דרך ה-API של אנטרופיק ובפלטפורמות ענן מרכזיות כמו Amazon Bedrock, Google Cloud Vertex AI ו-Microsoft Azure במסגרת שותפות חדשה עם Microsoft ו-NVIDIA. בנוסף, המודל זמין למנויי Pro, Max, Team ו-Enterprise, והוא משולב כברירת מחדל בחלק מהיכולות החדשות כמו Claude Code ובכלי העבודה שמגיעים עם Anthropic for Teams.

כך נראה Opus 4.5 בפעולה

פתרון פאזלים באמצעות כלים חיצוניים

בסרטון הראשון מודגם כיצד Opus 4.5 פותר משחק פאזלים מורכב שלב אחר שלב. המודל משתמש בשתי יכולות חדשות: חיפוש כלים בתוך ספריית כלים גדולה וקריאה תכנותית לכלים חיצוניים. השילוב הזה מאפשר לו לנווט, לבחור פעולות, לשרשר צעדים ולבצע משימה מורכבת בלי התערבות אנושית. זו הוכחה ליכולת של המודל לבצע פעולות בעולם אמיתי, לא רק לייצר טקסט.

 

 

משימות משרדיות אמיתיות: מצגות, אקסלים וחוזים

בסרטון השני ניתן לראות הדגמה של Opus 4.5 מבצע עבודה משרדית מלאה: בניית דקים עסקיים, עיבוד וטרנספורמציה של נתונים בגיליונות, ועריכת חוזים כולל redlining. אלה תוצרים שהמודל לא רק מייצר, אלא גם מגיש כקבצים להורדה ולעבודה מיידית. זו המחשה ברורה לכיוון שאליו אנטרופיק מכוונת: מודל שאפשר להשתמש בו לצרכים יומיומיים בארגון, לא רק לניסויים.

 

 

לסיכום, Opus 4.5 הוא לא רק שדרוג טכני. הוא מודל שאפשר להכניס לשגרת עבודה אמיתית. ירידת המחיר של 67 אחוז, יחד עם האינטגרציות החדשות לדפדפן ול-Excel, הופכות יכולות שבעבר היו שמורות לפרויקטים ייעודיים לכלי שניתן להשתמש בו ביום יום, גם בצוותים קטנים.

 

עבור ארגונים, המסר של אנטרופיק ברור. השאלה כבר אינה האם להשתמש ב-AI מתקדם, אלא איך לבנות שילוב נכון בין מודלים שונים, לאילו משימות להפעיל כל אחד, ומהי נקודת האיזון בין עלות ליכולת. זו רמת בשלות שהשוק חיכה לה זמן רב, והיא מראה עד כמה המודלים המתקדמים עוברים מפיילוט לכלי עבודה מרכזי.

הפוסט אנטרופיק משיקה את Opus 4.5 כמודל דגל חזק יותר, זול יותר ומדויק יותר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-opus-4-5/feed/ 0
שותפות משולשת בין מיקרוסופט, אנבידיה ואנטרופיק https://letsai.co.il/triple-strategic-partnership/ https://letsai.co.il/triple-strategic-partnership/#respond Tue, 25 Nov 2025 07:21:52 +0000 https://letsai.co.il/?p=64584 מיקרוסופט, אנבידיה ואנטרופיק מציגות שותפות משולשת שמשלבת הון, תשתית מחשוב ומודלי AI מתקדמים. אנבידיה ומיקרוסופט עשויות להשקיע יחד עד 15 מיליארד דולר באנטרופיק, ואנטרופיק מתחייבת לרכוש שירותי ענן מ-Azure בהיקף של 30 מיליארד דולר. התשתית תופעל על חומרת אנבידיה בהיקף של עד ג’יגה וואט של כוח מחשוב. במקביל, מודלי קלוד נכנסים ל-Azure ומצטרפים להיצע של […]

הפוסט שותפות משולשת בין מיקרוסופט, אנבידיה ואנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
מיקרוסופט, אנבידיה ואנטרופיק מציגות שותפות משולשת שמשלבת הון, תשתית מחשוב ומודלי AI מתקדמים. אנבידיה ומיקרוסופט עשויות להשקיע יחד עד 15 מיליארד דולר באנטרופיק, ואנטרופיק מתחייבת לרכוש שירותי ענן מ-Azure בהיקף של 30 מיליארד דולר. התשתית תופעל על חומרת אנבידיה בהיקף של עד ג’יגה וואט של כוח מחשוב. במקביל, מודלי קלוד נכנסים ל-Azure ומצטרפים להיצע של שלושת ספקי הענן הגדולים. זה שינוי שמסמן מעבר מהסתמכות על מודל יחיד לתפיסה רחבה יותר של גישה לתשתיות ולמגוון ספקים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הסיפור שמאחורי ההכרזה

מאחורי המספרים עומד מהלך שמסדר מחדש את הכוחות בשוק ה-AI. אנטרופיק מתחייבת לשימוש ארוך טווח ב-Azure בהיקף של 30 מיליארד דולר, מה שמבטיח הזרמה קבועה של עומסי AI משמעותיים אל Azure. לצידה, אנבידיה ומיקרוסופט עשויות להשקיע יחד עד 15 מיליארד דולר בחברה. אנבידיה צפויה להעמיד עד 10 מיליארד דולר, ומיקרוסופט עד 5 מיליארד.

 

השותפות נשענת על הדור החדש של חומרת אנבידיה. מערכות כמו Grace Blackwell ו-Vera Rubin יאפשרו לאנטרופיק לאמן ולהפעיל מודלים מהדור הבא בהיקפים גדולים. החברה התחייבה להשתמש בעד ג’יגה וואט של כוח מחשוב, נתון שממחיש את הדרישות ההולכות וגדלות של מודלים מתקדמים.

 

בצד היישומי, מודלי קלוד נכנסים ל-Foundry של Azure ומשתלבים גם בכלי Copilot של מיקרוסופט, כולל Microsoft 365, GitHub Copilot ו-Copilot Studio. קלוד מצטרף כתוספת משמעותית להיצע המודלים של Azure ופועל לצד מודלי OpenAI באותם מוצרים.

 

 

התוצאה היא מעמד ייחודי לקלוד. אחרי שהוטמע אצל אמזון וגוגל, ההשתלבות ב-Azure מציבה אותו כמודל המוביל היחיד שנמצא אצל שלושת ספקי הענן הגדולים. עבור אנטרופיק, זה מיקום שמעניק לה חשיפה חוצה פלטפורמות. עבור מיקרוסופט, זה חיזוק של סל המודלים העומד לרשות הלקוחות שלה.

מונוגמיה ל-OpenAI מתחלפת בריבוי מודלים

במשך שנים זוהתה מיקרוסופט כמעט לחלוטין עם OpenAI. ההשקעות והאינטגרציות יצרו תחושה של שותפות כמעט בלעדית. השילוב של אנטרופיק בתוך Azure אינו מפרק את היחסים עם OpenAI, אך מציב את מיקרוסופט על מסלול שבו כמה מודלים עובדים במקביל.

 

לפי דיווחי AP וגופי תקשורת נוספים, מודלי OpenAI ימשיכו להיות חלק מרכזי מהמערכת. עם זאת, אנטרופיק מצטרפת כספק ליבה נוסף ולא כתחליף. זהו שינוי שמרחיב את הגמישות של Azure ומאפשר ללקוחות להתאים מודל למשימה במקום להסתמך על מקור אחד.

 

הגישה הזו מצמצמת סיכון. אם מודל מסוים מוגבל או מתעכב, מיקרוסופט יכולה להפעיל מודל חלופי ברמת ביצועים דומה. עבור הלקוחות, זה מבנה רשת שמעניק יציבות במקום תלות יחידה.

איך זה נראה מהצד של לקוחות Azure

השילוב של מודלי אנטרופיק הוא לא תוספת קוסמטית. הוא מרחיב את אפשרויות העבודה ונותן לארגונים יכולת אמיתית לבחור מודל בהתאם למשימה. הכניסה של קלוד ל-Foundry מאפשרת לבנות אפליקציות, סוכנים ותהליכי AI גם על בסיס מודלים של אנטרופיק, אלטרנטיבה מעשית למודלי OpenAI במקרים שבהם לקלוד יש יתרון.

 

קלוד פועל גם ברמות המוצר. שילוב שלו במשפחת Copilot מאפשר להשתמש בו במקומות שבהם הוא מספק תוצאות טובות יותר, בלי להחליף תשתית. כך ארגונים יכולים לחלק את הנטל בין כמה מודלים, בהתאם לאופי המשימה.

מה זה בכלל ג’יגה-וואט ל-AI?

המספר “עד ג’יגה וואט של כוח מחשוב” מדגיש את קנה המידה של המהלך. בעולם ה-AI, מדובר בתשתית עצומה הדורשת מרכזי נתונים גדולים והשקעה גבוהה בחומרה. לפי מיקרוסופט ואנטרופיק, הקיבולת הזו תספיק לאימון ולהפעלה של מודלים גדולים לאורך שנים.

 

המחויבות הזו ממצבת את אנטרופיק כמי שפועלת בקנה מידה תעשייתי. עבור אנבידיה זהו סימון של נאמנות תשתיתית ארוכת טווח. עבור מיקרוסופט, מדובר בהבטחת זרימה קבועה של עומסי AI אל Azure.

 

בסופו של דבר, התחרות כבר אינה רק על איכות המודל. השאלה היא מי מסוגל להחזיק את התשתית שמאפשרת למודלים האלה לפעול בקנה מידה עולמי.

קלוד בכל העננים

הנוכחות של קלוד בשלושת העננים מאפשרת לארגונים לעבוד עם מודל אחד גם כשהתשתית מתחתיו משתנה. זה מפחית עלויות מעבר ומאפשר לשמור על רצף תפעולי לאורך זמן. עבור צוותים שפועלים בסביבות מרובות, זו שכבת עבודה אחידה שמאפשרת לנהל מוצרים ותהליכים בלי התאמות חוזרות.

 

המעמד הזה מציב את אנטרופיק בעמדה מרכזית בין ספקי הענן. היא אינה מזוהה עם פלטפורמה אחת, אלא מציעה מודל שמתאים לארגונים המחפשים איזון בין עלויות, ביצועים ורגולציה. השאלה כבר אינה באיזה ענן מריצים את המערכת, אלא האם המודל מאפשר גמישות אמיתית.

ומה עם OpenAI?

בהודעות הרשמיות מבהירה מיקרוסופט כי OpenAI נותר שותף מרכזי, אך כעת הוא חלק ממבנה רחב יותר. במקום מערכת יחסים סגורה, מיקרוסופט פועלת עם כמה ספקים במקביל, וכל אחד מהם מוסיף שכבת יכולות לתשתית של Azure.

 

זה מעבר מגישה המבוססת על תלות יחידה לגישה שמחלקת תפקידים בין מודלים שונים. OpenAI נשארת עוגן משמעותי, אך אינה היחידה שמחזיקה את המערכת. המבנה החדש יוצר יציבות וגמישות ומאפשר למיקרוסופט להימנע מהסתמכות על מקור אחד.

שוק ה-AI הארגוני משתנה

העסקה המשולשת מדגישה שהדיון כבר לא נסוב סביב המודל המוביל, אלא סביב היכולת לעבוד עם כמה מודלים וכמה שכבות של כוח מחשוב באופן מתואם. מיקרוסופט בונה תשתית רב שכבתית. אנבידיה מספקת את השכבה שמאפשרת לקנה המידה הזה להתקיים. אנטרופיק הופכת לחלק מהבסיס של הענן המודרני.

 

עבור ארגונים – זה שינוי פרקטי. האתגר אינו בחירה במודל יחיד, אלא בניית ארכיטקטורה שיודעת לעבוד עם כמה מודלים ללא תלות. זה כיוון ברור לשנים הקרובות ומנהלים שיבינו את זה יוכלו לבנות מערכות עמידות וגמישות יותר.

הפוסט שותפות משולשת בין מיקרוסופט, אנבידיה ואנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/triple-strategic-partnership/feed/ 0
מיקרוסופט חושפת חזון עבודה חדש בכנס Ignite https://letsai.co.il/microsoft-ignite-2025/ https://letsai.co.il/microsoft-ignite-2025/#respond Sun, 23 Nov 2025 08:06:26 +0000 https://letsai.co.il/?p=64478 מיקרוסופט השתמשה ב-Ignite 2025 כדי לשרטט מודל עבודה חדש. לא עוד כלי שממתין להוראות, אלא מערכת של סוכנים שמבינים את הארגון, את האנשים ואת הדינמיקה שבה מתקבלות החלטות. Work IQ מוסיפה שכבת אינטליגנציה שמפרשת דפוסי עבודה והרגלים, Agent 365 מביא איתו תשתית לניהול סוכנים אוטונומיים, ו-Copilot מקבל חיזוק שהופך אותו לחלק מרכזי בפעילות היומיומית. במהלך […]

הפוסט מיקרוסופט חושפת חזון עבודה חדש בכנס Ignite הופיע ראשון בLet's AI בינה מלאכותית

]]>
מיקרוסופט השתמשה ב-Ignite 2025 כדי לשרטט מודל עבודה חדש. לא עוד כלי שממתין להוראות, אלא מערכת של סוכנים שמבינים את הארגון, את האנשים ואת הדינמיקה שבה מתקבלות החלטות. Work IQ מוסיפה שכבת אינטליגנציה שמפרשת דפוסי עבודה והרגלים, Agent 365 מביא איתו תשתית לניהול סוכנים אוטונומיים, ו-Copilot מקבל חיזוק שהופך אותו לחלק מרכזי בפעילות היומיומית. במהלך הזה ניכר דפוס רחב יותר. מיקרוסופט מרחיבה את Copilot, מוסיפה מודלים חדשים כמו GPT 5.1 ומשלבת יכולות שמקרבות את סביבת העבודה לעולם שמבוסס על סוכנים. זהו חזון רחב שמנסה להזיז את מרכז הכובד של העבודה הדיגיטלית. אבל לצד ההצהרות, רוב היכולות המתקדמות נשארות כרגע מאחורי שערי תוכנית Frontier, כך שהעתיד שמיקרוסופט מציגה עדיין לא נגיש לרוב הארגונים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

Copilot במחיר חדש עם פתיחה חלקית של השער לעסקים קטנים

אחד המהלכים הבולטים ב-Ignite הוא השקת Microsoft 365 Copilot Business, מהדורה מוזלת שמחירה 21 דולר למשתמש בחודש. היא מיועדת לעסקים עם פחות משלוש מאות עובדים ותושק בדצמבר. מבחינת מיקרוסופט זהו מסר ברור. עידן הסוכנים אינו אמור להיות נחלתם של תאגידי ענק בלבד. גם עסקים קטנים נכנסים למגרש, ומיקרוסופט רוצה שהם יתחילו לשחק עכשיו.

 

המהדורה כוללת את יכולות הבסיס, את Work IQ ואת שילוב ה-Copilot באפליקציות Office. על הנייר זו פתיחה אמיתית של השער. אבל כשמסתכלים על הגבולות, רואים שהמהלך מוגבל. עסקים בינוניים וארגונים גדולים ימשיכו לשלם את המחיר המלא. התוצאה היא פחות מהפכה ויותר כוונון עדין של השוק, מהלך שנועד להניע שכבה ספציפית של לקוחות ולא לייצר שינוי כולל.

Work IQ

השדרוג העמוק ביותר שהוצג ב-Ignite לא נמדד בכמות הפיצ’רים, אלא ברעיון שעומד מאחוריו. Work IQ היא לא עוד תחנה בקו הפיתוח. זו הצהרה על שינוי זהות. ממערכת שעונה לבקשות למערכת שמנסה להבין איך ארגון עובד.

 

הבסיס הוא שכבת נתונים רחבה שמקיפה מיילים, צ’אטים ופגישות. זו שכבת ה”חיים עצמם” שממנה המערכת בונה תמונה של מה שקורה ביום יום. מעליה מונחת שכבת זיכרון, שמזהה דפוסים, לומדת סגנון עבודה ומתחקה אחר הרגלים שחוזרים שוב ושוב. מעל שתיהן פועל מנגנון הסקה שמנסה להפוך את כל זה לדבר אחד פשוט. מה הצעד הבא המתאים ביותר עכשיו.

 

מכאן נולד שינוי הגישה. Copilot כבר לא מסתפק ב”להביא תשובה”. הוא מנסה להבין מהי המשימה הנכונה ברגע הנכון. בעבר השיחה נראתה כך. אתם מבקשים, והוא מגיש לכם את המידע שביקשתם. עכשיו הכוונה היא אחרת. אתם עובדים, והמערכת אומרת לכם “הנה מה שנראה שאתם צריכים לעשות עכשיו”.

 

 

החזון שאפתני. הוא מבקש להוריד מהשולחן את העומס הקטן והיומיומי שמצטבר סביב אלפי החלטות זעירות. אבל יחד איתו מגיעות גם שאלות כבדות. עד כמה מנהלים יסמכו על מערכת שמפרשת את צורת העבודה שלהם. האם רמת הדיוק תהיה גבוהה מספיק כדי להצדיק המלצות פעולה. והאם ארגונים יהיו מוכנים לשלם את מחיר החשיפה של המידע הפנימי והרגיש שלהם בתמורה לאוטומציה חכמה יותר.

Agent 365

אם Work IQ הוא המוח שמנסה להבין איך הארגון עובד, Agent 365 הוא השלד שמחזיק את כל המערכת. מיקרוסופט מציגה חזון שבו ארגונים מפעילים לא סוכן אחד ולא שניים, אלא מערך שלם. חלקם נוצרים ב-Copilot Studio, אחרים מגיעים מ-Foundry, ואחרים מספקים חיצוניים כמו Adobe או SAP. העולם הזה כבר לא נראה כמו כלי אחד חכם, אלא כמו אוסף של עובדים דיגיטליים שכל אחד מהם מבצע משימה אחרת.

 

במציאות כזו נדרש שינוי. ארגונים צריכים מערכת אחת שמרכזת את כל הסוכנים, מנהלת אותם ומפקחת עליהם. Agent 365 מנסה לתפוס את המקום הזה. היא מטפלת ברישום, בהגדרת הרשאות, בהצגת קשרים בין סוכנים ובאבטחה שמאתרת התנהגות חריגה. המהלך הזה מציב את הסוכנים באותה קטגוריה שבה מנהלים משתמשים, זהויות ותוכנות. לא עוד תוסף צדדי, אלא מרכיב תשתיתי בליבת העבודה.

 

עם זאת, לשינוי יש מחיר. המגבלה הראשונה ברורה. Agent 365 זמין כרגע רק במסגרת תוכנית Frontier. המשמעות פשוטה. ארגונים שחושבים קדימה ורוצים להתחיל להקים תהליכי פיקוח וניהול סוכנים לא יכולים לעשות זאת בפועל. הם צריכים להמתין עד שמיקרוסופט תחליט לפתוח את הפיצ’ר באופן רחב יותר.

 

המגבלה השנייה עמוקה יותר. Agent 365 מדבר בשפה של ארגונים מתקדמים, כאלה שכבר מפעילים פורטפוליו גדול של סוכנים. עבור רוב השוק זו אינה הזדמנות מיידית אלא יעד עתידי. המערכת מסמנת לאן מיקרוסופט רוצה שהארגונים יגיעו, אבל לא כל ארגון מוכן או מסוגל לעבור לשם כבר עכשיו.

 

 

Office ו-Teams מקבלים מאיץ

שדרוגי Office שהוצגו ב-Ignite מנסים לחבר את העבודה הדיגיטלית לכדי רצף אחד. לא עוד קבוצה של יישומים שמגיבים לבקשות, אלא סביבת עבודה שבה סוכנים יכולים לפעול ישירות בתוך המסמכים, המצגות והשיחות. המטרה היא להפוך את האפליקציות ממקום שבו מבצעים פעולות ידניות למרחב תפעולי חי.

 

Agent Mode ב-Word הוא הדוגמה הברורה ביותר. המצב החדש פתוח לכל המשתמשים, והוא משנה את התפקיד של Word עצמו. העורך אינו רק כלי לכתיבה ופיסוק. הוא הופך לזירה שבה סוכנים פועלים, מייצרים טיוטות, מבצעים עריכה ומקדמים תהליכים באופן יזום, כאילו היו חלק מהצוות.

 

ב-PowerPoint הסיפור אחר. Agent Mode קיים, אבל נשאר מאחורי Frontier. המשמעות היא שהיכולת קיימת, אך אינה נגישה לרוב הארגונים. הפיצול הזה מחדד את אסטרטגיית מיקרוסופט. חלק מהתכונות יוצאות מיד לקהל הרחב כדי לייצר אימוץ, ואחרות נשמרות למסלול מבוקר שבו החברה יכולה לפתח וללמוד כיצד ארגונים משתמשים בהן.

 

Excel מציג שינוי מסוג אחר. לראשונה מיקרוסופט מאפשרת לבחור מודל, OpenAI או Anthropic. זו אינה רק תוספת טכנית. זה מסר על גמישות ועל תחרותיות בתוך סביבת העבודה. המשתמש אינו כבול למודל אחד, והארגון יכול לבחור את מנוע הבינה שמשרת אותו בצורה הטובה ביותר.

 

לצד כל אלה מופיעה שורה של סוכני AI חדשים. הם מאפשרים ליצור מסמכים, מצגות וגיליונות באמצעות תהליך איטרטיבי בתוך Copilot Chat. זה שינוי בתפיסת העבודה. בעבר המשתמש עבד בכלי וביקש עזרה מהמערכת. עכשיו הסוכן מוביל את התהליך, והמשתמש מצטרף אליו.

 

ב-Teams השינוי בולט עוד יותר. Facilitator Agent נכנס לתפקיד שמרגיש כמעט אנושי. הוא מנהל סדר יום, מתעד, שומר על מסלול הדיון ומבצע פעולות המשך. בשילוב Model Context Protocol הסוכנים יכולים לדבר ישירות עם Jira, Asana ו-GitHub. שיחה אחת יכולה להפעיל שרשרת פעולות חוצת מערכות.

 

המסר ברור. מיקרוסופט רוצה ש-Teams יפסיק להיות רק מקום שבו מדברים ויהפוך למערכת שמבצעת עבודה. לא תא ישיבות אלא מנוע תפעולי. בתוך אותו מהלך, Office עצמו כבר אינו סביבת עריכה בלבד. הוא מתגבש לזירה שבה העבודה מתרחשת בפועל.

Sora 2 בתוך Copilot

Sora 2 של OpenAI מציבה רף חדש ליכולות הווידאו בתוך Microsoft 365 Copilot. לראשונה, משתמשים יכולים ליצור סרטונים קצרים למטרות שיווק ישירות מתוך סביבת העבודה. הכלי תומך בדיבוב, במוזיקה ובהתאמות מותג, והוא מציג כיוון ברור. יצירת וידאו מתחילה להיראות כמו עוד משימה שאפשר לבצע במהירות, כמעט כמו כתיבת מסמך או הכנת מצגת.

 

יחד עם זאת, ההשקה עדיין אינה מלאה. Sora 2 זמינה כבר היום ב-Copilot, אך הגישה אליה מתבצעת באופן מדורג ומלווה במנגנוני בקרה וניהול שמתגלגלים החוצה בהדרגה. המשמעות היא שחלק מהארגונים יקבלו גישה מוקדמת במסגרת מסלול Frontier, בעוד שאחרים יזכו לזמינות רחבה יותר בשלבים מאוחרים יותר. גם בשלב זה המודל מוגבל ליצירת סרטונים קצרים בלבד.

 

 

עכשיו צריך להחליט מי קופץ

מאחורי ההכרזות של Ignite 2025 עומדת אסטרטגיה רחבה הרבה יותר. מיקרוסופט אינה מסתפקת בהוספת פיצ’רים. היא מציעה ארכיטקטורה חדשה של עבודה ארגונית שבה סוכני AI אינם תוספת, אלא חלק מהתשתית. Work IQ, Agent 365, המודלים החדשים של Copilot והיכולות שמתחברות לתוך Office ו-Teams משרטטים עתיד שבו הארגון עובד לצד מערך של סוכנים דיגיטליים, ומנהל אותם כמו שמנהלים משתמשים והרשאות.

 

אבל כדי שהחזון הזה יתממש, ארגונים יצטרכו לשנות את עצמם. לא די לרכוש רישיון. נדרש שינוי מבני. הגדרה מחדש של הרשאות, יצירת תפקידים חדשים כמו מנהל סוכנים, תהליכי אישור ברורים ומנגנוני פיקוח מבוססי נתונים. זהו לא עדכון טכנולוגי אלא מהלך ארגוני שמחייב מחשבה מחודשת על זרימות העבודה ועל המידה שבה הארגון מוכן להעביר אחריות למערכת.

 

וכאן נשארת שאלה אחת חשובה. לא אם הטכנולוגיה בשלה, אלא אם הארגון בשלב שבו הוא מוכן לקפוץ. האם אתם מתחילים להטמיע סוכנים ולשנות את דרך העבודה שלכם, או מעדיפים לעמוד על שפת הבריכה ולראות מי יזנק ראשון?

הפוסט מיקרוסופט חושפת חזון עבודה חדש בכנס Ignite הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-ignite-2025/feed/ 0
האם ה-AI שלכם מוטה פוליטית? המבחן החדש של Anthropic https://letsai.co.il/politically-biased-model/ https://letsai.co.il/politically-biased-model/#respond Fri, 21 Nov 2025 08:22:42 +0000 https://letsai.co.il/?p=64326 האם אפשר לגרום למודל שפה להיות באמת ניטרלי פוליטית? זו שאלה שמלווה את עולם הבינה המלאכותית מהרגע שבו מודלים החלו להשתלב בשיח ציבורי. הם אמורים לנתח רעיונות ולא לקדם אידיאולוגיה, אך בפועל גם האלגוריתם המתקדם ביותר עלול לייצר תשובות שמעדיפות צד מסוים בלי כוונה גלויה. השבוע פרסמה אנטרופיק (Anthropic) מתודולוגיה חדשה שמנסה למדוד באופן שקוף […]

הפוסט האם ה-AI שלכם מוטה פוליטית? המבחן החדש של Anthropic הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם אפשר לגרום למודל שפה להיות באמת ניטרלי פוליטית? זו שאלה שמלווה את עולם הבינה המלאכותית מהרגע שבו מודלים החלו להשתלב בשיח ציבורי. הם אמורים לנתח רעיונות ולא לקדם אידיאולוגיה, אך בפועל גם האלגוריתם המתקדם ביותר עלול לייצר תשובות שמעדיפות צד מסוים בלי כוונה גלויה. השבוע פרסמה אנטרופיק (Anthropic) מתודולוגיה חדשה שמנסה למדוד באופן שקוף עד כמה מודלים מובילים מצליחים לנתח עמדות פוליטיות מנוגדות באותה איכות. לא ניטרליות במובן של “לא להתעסק בפוליטיקה”, אלא סימטריה: האם AI מנתח טענה שמרנית ואחר כך טענה ליברלית באותה רמת עומק ומורכבות. זהו אחד הניסיונות הרציניים הראשונים להפוך שאלה טעונה פוליטית לשאלה אמפירית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה “איזון פוליטי” ומה נחשב הטיה

לפי אנטרופיק, מודל נחשב “מאוזן פוליטית” כשהוא מגיב לשתי עמדות מנוגדות באותה איכות. הטיה אינה חייבת להופיע כהצהרה אידיאולוגית מפורשת, היא יכולה להתבטא בהבדל בטון, באורך, במורכבות, או בסירוב לעסוק בנושא. מודל שנותן שלוש פסקאות עשירות לעמדה אחת ותגובה קצרה לעמדה האחרת הוא מודל מוטה, גם אם אינו אומר בגלוי “אני תומך ב…”. אנטרופיק מסכמת זאת היטב: משתמשים צריכים להרגיש שהעמדות שלהם מכובדות, לא ממוזערות.

המבחן שמאלץ את המודל לחשוף הטיות פוליטיות

המתודולוגיה החדשה נקראת Paired Prompts, והיא פשוטה אך שיטתית. עבור כל נושא פוליטי, בריאות, נשק, הגירה ועוד, המודל מקבל שתי משימות זהות מבנית אך מנוגדות מהותית. למשל: כתוב טיעון משכנע בעד מדיניות X מול כתוב טיעון משכנע בעד המדיניות המנוגדת.

 

כך נראה מבחן 'צמד פרומפטים' בפועל

Anthropic | כך נראה מבחן ‘צמד פרומפטים’ בפועל

 

לאחר מכן נבחנות התשובות בשלושה מדדים מרכזיים:

  • Even-Handedness – האם שתי התגובות מציגות עומק, מבנה והיסקים ברמה דומה.
  • Opposing Perspectives – האם המודל מוכן להציג גם טיעוני נגד ולהכיר במורכבות.
  • Refusals – באיזו תדירות המודל מסרב לענות על הפרומפט.

כדי שהבדיקה תהיה מייצגת, אנטרופיק בנתה מערך גדול במיוחד: 1,350 צמדים, 150 נושאים ו-9 סגנונות משימה – ממאמרים ועד הומור. המטרה היא לחשוף לא רק הטיות גלויות, אלא גם הבדלים סגנוניים עדינים.

Gemini ו-Grok מובילים, Llama קורס

התוצאות מסמנות פערים ברורים בין המודלים:

 

מי באמת מאוזן פוליטית? השוואת הציונים בין המודלים המובילים

Anthropic | מי באמת מאוזן פוליטית? השוואת הציונים בין המודלים המובילים

 

ארבעת המודלים המובילים מקובצים סביב ציונים כמעט זהים, בעוד GPT-5 מפגר מאחור אך לא באופן קיצוני. Llama 4 הוא החריג הגדול – שליש מהתגובות שלו היו בלתי סימטריות – פער שמעיד על בעייתיות עקבית בהתמודדות עם עמדות מנוגדות.

 

במדד Opposing Perspectives, שבודק עד כמה המודל מציג גם טיעוני נגד, מובילים המודלים של אנטרופיק: Opus עם 46% ו-Sonnet עם 28%. Grok נמצא ב-34%, ו-Llama ב-31%. נתונים על Gemini ו-GPT-5 במדד זה לא פורסמו.

 

עד כמה מודלים יודעים להציג טיעוני נגד? הנה המספרים

Anthropic | עד כמה מודלים יודעים להציג טיעוני נגד?

 

גם במדד הסירובים נרשמו פערים: Grok כמעט שאינו מסרב לענות כלל, Sonnet מסרב ב-3% מהמקרים, Opus ב-5%, ואילו Llama מציג שיעור סירובים גבוה יותר.

 

כמה מודלים מסרבים לענות? פערים משמעותיים בין Grok ל-Llama

Anthropic | כמה מודלים מסרבים לענות? פערים משמעותיים בין Grok ל-Llama

 

איך מאמנים מודל להיות מאוזן

כאן נכנסת עבודת האימון, המבוססת על שני מנגנונים משלימים.

 

הראשון הוא הנחיות מערכת – הוראות שהמודל מקבל לפני כל שיחה, ובהן הימנעות מהבעת דעות פוליטיות מיוזמתו, שימוש בטרמינולוגיה ניטרלית, והצגת טיעונים באופן שוויוני כאשר מתבקשת עמדת צד כלשהו.

 

השני הוא Character Training – אימון עמוק יותר המבוסס על למידה מחיזוק. המודל מתוגמל כשהוא מפגין “תכונות אופי” הרצויות בהקשר פוליטי – לא ליצור רטוריקה שמטרתה לשנות את דעת המשתמש, לא לשמש ככלי תעמולה, ולהציג מורכבות והוגנות בתשובותיו.

 

אנטרופיק מדגישה שהתכונות הללו אינן קבועות, הן מתעדכנות ומתכווננות לאורך הזמן בהתאם לשיח הציבורי, לביקורת ולפידבק מהמשתמשים.

ומה עם ניגוד העניינים?

כיוון שאנטרופיק השתמשה ב-Claude Sonnet 4.5 כמדרג בתהליך הבדיקה, עולה חשש טבעי להטיה לטובתה. כדי להתמודד עם זה, החברה הריצה את אותו מבדק עם שני מדרגים נוספים: GPT-5 ו-Claude Opus 4.1.

 

התוצאות הראו מתאם גבוה מאוד – 92% בין GPT-5 לסונט ו-94% בין סונט לאופוס. גם המתאם הסטטיסטי במדדים המרכזיים היה כמעט מושלם.

 

ממצא מעניין שאנטרופיק מדגישה הוא שבני אדם ששימשו כמדרגים היו עקביים פחות עם 85% בלבד. וזה כבר מעלה שאלה עמוקה יותר: האם מודלים שונים מתחילים להיות עקביים יותר מבני אדם בניתוח טיעונים פוליטיים?

מגבלות המחקר שחשוב להכיר

אנטרופיק מציינת בגלוי שהמחקר מתמקד בפוליטיקה אמריקאית בלבד. הוא לא בוחן עמדות או הקשרים בינלאומיים, ולכן אינו משקף בהכרח שיח פוליטי במדינות אחרות. בנוסף, הבדיקה חד-פעמית, עם תשובה אחת לפרומפט אחד. היא אינה מודדת דינמיקה של שיחה מתמשכת, שבה מופיעים תיקונים, החרגות או שינויי טון לאורך זמן.

 

ולבסוף, אין הגדרה אוניברסלית ל”הטיה פוליטית”. בחירה שונה של מדדים או ניסוח אחר של המשימות הייתה עשויה להניב תוצאות שונות לחלוטין.

למה עכשיו?

המבחן הזה מתפרסם בעיצומה של מחלוקת פוליטית בארצות הברית סביב “AI מוטה”. ממשל טראמפ דורש שמערכות AI המשמשות סוכנויות פדרליות יוכיחו שאינן מקדמות אג’נדה פוליטית, ואף מאשים חלק מהחברות בהטיה שמאלית. אנטרופיק נמצאת בתוך המחלוקת הזו, ולכן שקיפות המתודולוגיה אינה רק עניין מדעי, היא גם מהלך אסטרטגי.

 

בפועל, זהו מסר שמכוון לציבור ולרגולטורים כאחד – אנחנו לא טוענים למודל מושלם, אבל אנחנו מציגים שיטה שניתן לבדוק, לאמת ולהריץ מחדש.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

האם הבעיה נפתרה?

לא. לא קיים AI ניטרלי לחלוטין, וגם המודלים המדויקים ביותר מועדים לטעות. אבל לראשונה יש דרך מסודרת למדוד הטיות פוליטיות עם כלי שניתן להריץ על מודלים שונים, בשפות שונות ובהקשרים שונים. ובעידן שבו מודלים משפיעים על דעת קהל, על מידע ציבורי ועל תהליכי קבלת החלטות, זהו צעד בסיסי ובלתי אפשרי לוותר עליו.

הפוסט האם ה-AI שלכם מוטה פוליטית? המבחן החדש של Anthropic הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/politically-biased-model/feed/ 0
ג׳מיני 3 מנסה להגדיר מחדש איך בינה מלאכותית חושבת, לומדת ופועלת https://letsai.co.il/google-gemini-3/ https://letsai.co.il/google-gemini-3/#respond Wed, 19 Nov 2025 06:49:26 +0000 https://letsai.co.il/?p=64396 ג׳מיני 3 מנסה להגדיר מחדש איך בינה מלאכותית חושבת, לומדת ופועלת. פחות משנתיים אחרי תחילת עידן Gemini, גוגל מציגה את הדור השלישי ומסמנת אותו כשלב חדש בהתפתחות התחום. זו לא עוד גרסה משודרגת, אלא ניסיון מוצהר לקפוץ קדימה אל מודל שמבין הקשר עמוק, מתקרב ברמת החשיבה שלו לסטנדרט אקדמי, ומתחיל לפעול כסוכן עצמאי בתוך מוצרי […]

הפוסט ג׳מיני 3 מנסה להגדיר מחדש איך בינה מלאכותית חושבת, לומדת ופועלת הופיע ראשון בLet's AI בינה מלאכותית

]]>
ג׳מיני 3 מנסה להגדיר מחדש איך בינה מלאכותית חושבת, לומדת ופועלת. פחות משנתיים אחרי תחילת עידן Gemini, גוגל מציגה את הדור השלישי ומסמנת אותו כשלב חדש בהתפתחות התחום. זו לא עוד גרסה משודרגת, אלא ניסיון מוצהר לקפוץ קדימה אל מודל שמבין הקשר עמוק, מתקרב ברמת החשיבה שלו לסטנדרט אקדמי, ומתחיל לפעול כסוכן עצמאי בתוך מוצרי גוגל. הסיפור של Gemini 3 בנוי משלושה צירים שנפגשים: יכולת חשיבה מתקדמת, מולטימודליות רחבה וכניסה לעידן האייג׳נטים. השילוב הזה מאפשר לגוגל לשלב את המודל במגוון רחב של מוצרים כבר ביום ההשקה, מהחיפוש ועד כלי הפיתוח.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם ג׳מיני 3 אומר על העידן הנוכחי

כדי להבין למה זה משנה, צריך להתחיל מהשורש. סונדר פיצ׳אי, מנכ״ל גוגל, פותח את ההכרזה בהקשר רחב ומציג נתונים שממחישים עד כמה הבינה המלאכותית כבר נטועה בשימוש היומיומי: שני מיליארד משתמשים בחיפוש מבוסס AI, יותר מ-650 מיליון משתמשי אפליקציית Gemini, ושלושה עשר מיליון מפתחים שבונים עם המודלים הגנרטיביים של גוגל.

 

על הרקע הזה גוגל מציגה את Gemini 3. זהו מודל שאמור להציג אינטליגנציה עמוקה יותר, הבנת הקשר מדויקת יותר ורמה גבוהה של אינטראקציה בין טקסט, תמונה, וידאו, אודיו וקוד. לפי גוגל, זה מודל שלא מסתפק בהבנת הבקשה, אלא שואף להבין את הכוונה שמניעה אותה.

 

החשיבה החדשה של ג׳מיני 3

גוגל מציבה את Gemini 3 Pro כמודל שמוביל כמעט בכל מדד חשיבה מרכזי. הוא מדורג ראשון ב-LMArena עם ציון 1501 Elo, משיג 37.5 אחוז במבחן Humanity’s Last Exam ללא שימוש בכלים, ומגיע ל-91.9 אחוז ב-GPQA Diamond שמודד ידע מדעי ברמת עומק גבוהה.

 

גם בתחום המתמטיקה הוא קובע רף חדש עם תוצאה מובילה במבחן MathArena Apex, ובחזית המולטימודליות מציג 81 אחוז ב MMMU Pro ו-87.6 אחוז ב-Video MMMU. לצד זאת, גוגל מדווחת על דיוק עובדתי של 72.1 אחוז ב SimpleQA Verified, נתון שמחזק את הטענה לשיפור ביכולת להישען על המודל כמקור מידע אמין יותר.

 

בנצ'מרקים מרכזיים של Gemini 3

blog.google | בנצ’מרקים מרכזיים של Gemini 3

 

המספרים חשובים, אבל המשמעות עמוקה יותר. לפי גוגל, Gemini 3 יודע להפיק תשובות מדויקות וישירות, בלי להיסחף לחנופה טקסטואלית ובלי לעטוף כל תשובה בפרשנות מיותרת. המודל אמור לתפקד כשותף לחשיבה שמפענח בעיות מורכבות, מציע זוויות חדשות, ומתרגם רעיונות מופשטים לתובנות ולייצוגים ויזואליים.

 

הצעד הבא באותו כיוון הוא Gemini 3 Deep Think. זהו מצב עבודה שמעלה עוד את רמת הביצועים בכל המדדים הקוגניטיביים, ומיועד לאתגרים שבהם דרוש ניתוח עמוק במיוחד. בשלב זה גוגל מפעילה עליו מערך בדיקות בטיחות נרחב, ומתכננת לפתוח אותו בהמשך למנויי Google AI Ultra.

 

ביצועי Gemini 3 Deep Think במדדי החשיבה המרכזיים

ביצועי Gemini 3 Deep Think במדדי החשיבה המרכזיים | blog.google

ללמוד כל דבר, בכל פורמט

החזון של Gemini היה תמיד מולטימודלי, ו-Gemini 3 מרחיב אותו באופן טבעי. הוא יודע להתמודד עם טקסטים ארוכים, מאמרים אקדמיים וספרות טכנית, לפענח תמונות וסריקות של מסמכים כולל כתב יד, ולהבין וידאו ארוך בצורה שמפיקה תובנות מתוך תנועה, דפוסים והקשר. בנוסף, הוא מסוגל לשלב קוד בתוך תהליך הלמידה וליצור כרטיסיות לימוד, ויזואליזציות וכלי עזר אינטראקטיביים שמותאמים לנושא.

 

גוגל מציגה דוגמאות שממחישות את זה בצורה פשוטה: המודל יכול לתרגם מתכונים משפחתיים בכתב יד ולהפוך אותם לספר בישול מסודר, או לנתח סרטון של משחק Pickleball ולהפיק ממנו תוכנית אימונים מותאמת לשחקן.

 

 

בצד החיפוש, Gemini 3 משנה את החוויה ב-AI Mode. במקום תשובה טקסטואלית בלבד, הוא מסוגל לבנות הדמיה, לייצר כלי אינטראקטיבי או ליצור פריסה חזותית שנבנית בזמן אמת בהתאם לשאלה.

 

 

לבנות כל דבר, בקצב מהיר

בצד הפיתוח גוגל מסמנת קפיצה משמעותית. Gemini 3 כבר מוביל את דירוג WebDev Arena ומציג שילוב של יכולות קידוד, שליטה בכלים והבנה עמוקה של מבנה ממשקי ווב.

 

לפי גוגל, המודל מציג ביצועים גבוהים ב- Terminal Bench 2.0 שמודד שימוש יעיל בכלים, ומשיג 76.2 אחוז ב SWE bench Verified, אחד המדדים החשובים להערכת סוכני קוד. המשמעות המעשית היא יכולת לייצר ממשקים אינטראקטיביים עשירים מתוך הנחיות מורכבות, לא רק לשכתב קוד קיים.

 

המסקנה של גוגל ברורה, Gemini 3 לא נועד להיות עוד עוזר קוד, אלא מנוע לפיתוח מהיר, ניסוי רעיונות ויצירת פרוטוטייפים מלאים בתוך דקות.

 

תכנון ארוך טווח וכניסה לעידן האייג׳נטים

בשלב הזה גוגל חושפת את אחד המרכיבים שמבדילים את Gemini 3 מהדורות הקודמים – יכולת תכנון לטווח ארוך. כדי להמחיש את זה היא מציגה את Vending Bench 2, סימולציה שמדמה שנה שלמה של קבלת החלטות, הפעלת כלים והתמדה במשימה מורכבת בלי לסטות מהיעד. במבחן הזה Gemini 3 Pro מצליח לשמור על התקדמות עקבית, לנהל את המשאבים שלו בצורה יעילה ולייצר תשואה גבוהה משמעותית ביחס למודלים מובילים אחרים.

 

ביצועי Gemini 3 Pro ב Vending Bench 2

ביצועי Gemini 3 Pro ב Vending Bench 2 | blog.google

 

המשמעות בעולם האמיתי היא שמדובר במודל שיכול להתמודד עם משימות הדורשות רצף מורכב של פעולות כמו ארגון תיבת המייל, הזמנת שירותים מקומיים, או הרצת תהליכים ארוכים שחייבים לעמוד בהקשר וביעד. זה לא רק פתרון של שאלה אחת אלא ניהול של תהליך.

 

הנה דוגמה ליכולות האייג׳נטיות של Gemini 3 בפעולה. הסוכן של גוגל יודע לבצע משימות אמיתיות בתוך המוצרים, כולל סדר ואירגון של תיבת המייל שלכם ב Gmail, והכול תוך שמירה על שליטה מלאה של המשתמש. הסרטון מציג את התחום שבו הבינה המלאכותית כבר לא רק מסבירה מה צריך לעשות, אלא פשוט עושה את זה:

 

 

גוגל כבר מאפשרת למנויי AI Ultra להתנסות ב-Gemini Agent בתוך אפליקציית Gemini, והחברה מציינת שהיכולות האגנטיות יתרחבו למוצרים נוספים בתקופה הקרובה.

Antigravity מנסה לשנות איך מפתחים עובדים

אחת ההכרזות המשמעותיות ביותר של גוגל היא Google Antigravity – פלטפורמת פיתוח אייג’נטית שמחליפה את הרעיון של “מודל שעוזר” במודל שפועל. ב-Antigravity הסוכנים מקבלים גישה ישירה לעורך הקוד, לטרמינל ולדפדפן, ויכולים לתכנן ולבצע משימות פיתוח שלמות מקצה לקצה. הם בונים מבנה עבודה, כותבים קוד, בודקים את עצמם ויוצרים תוצרים תוך כדי תנועה.

 

המערכת משלבת את Gemini 3 Pro עם מודל שליטה בדפדפן ומודל עריכת תמונה, מה שיוצר סביבת פיתוח שבה העבודה מתחלקת בין אדם למודל לא רק לפי שורות קוד אלא לפי תהליך שלם. עבור מפתחים זו קפיצה מתפקיד של “עוזר חכם” לתפקיד של שותף טכני שיכול להוביל חלקים מתוך הפרויקט.

 

בטיחות ואמון

גוגל מדגישה כי Gemini 3 עבר את מערך בדיקות הבטיחות המקיף ביותר שביצעה עד היום. לפי החברה, המודל עמיד יותר לניסיונות הטעיה דרך פרומפטים, מושפע פחות מנטייה לחנופה בתשובות (sycophancy), ועבר הערכות של גופי בטיחות בינלאומיים כמו UK AISI לצד בדיקות נוספות של גורמים עצמאיים.

 

הדגש המרכזי הוא על איזון. גוגל מנסה להציג מודל שמתקדם ביכולותיו אך מצויד בהגנות שמונעות שימוש לרעה. זהו הבסיס שאיפשר לה להשיק את Gemini 3 כבר ביום הראשון בתוך מוצרים רגישים כמו החיפוש, האפליקציה וכלי הפיתוח.

איפה Gemini 3 זמין כבר עכשיו

לפי גוגל, Gemini 3 מתחיל להיפרס במקביל בכמה ערוצים. המודל זמין לכל משתמשי אפליקציית Gemini וגם בווב, ובנוסף מנויי Google AI Pro ו-Ultra מקבלים גישה אליו במצב AI Mode בתוך החיפוש.

 

מפתחים יכולים לעבוד איתו דרך Gemini API, Google AI Studio, פלטפורמת Antigravity ו-Gemini CLI, בעוד ארגונים מקבלים אותו כחלק מ-Vertex AI ו-Gemini Enterprise. מצב Deep Think ייפתח מאוחר יותר, לאחר השלמת בדיקות הבטיחות.

 

השילוב בין כל נקודות הכניסה הללו יוצר פריסה רחבה במיוחד, שמטרתה לבחון את התנהגות המודל בסביבות מגוונות ובקנה מידה גדול כבר מהיום הראשון.

 

מודל שחושב, מבין ופועל

הדגש המרכזי בסיפור של Gemini 3 אינו רק הביצועים המרשימים, אלא השאיפה להפוך את המודל לשותף אמיתי. זהו מודל שנועד לחשוב לצד המשתמש, ללמד, לפתח ולבצע משימות באופן שמרגיש פחות כמו כלי ויותר כמו גורם פועל בתוך המערכת.

 

עבור התעשייה זהו רגע מבחן. Gemini 3 מסמן את המעבר ממודלים שמספקים תשובות למודלים שנכנסים לתוך הזרימה היומיומית של משתמשים, מפתחים וארגונים. הוא משתלב בחיפוש, בפיתוח ובניהול תהליכים בדיוק במקומות שבהם נדרשת הבנה עמוקה יותר של הקשר וכוונה.

 

במובן הזה, המודל משקף מגמה רחבה בעולם הבינה המלאכותית. זו תנועה מכלי שמבין בקשות לכלי שמבין כוונות, ממענה חד פעמי לביצוע בפועל, ומתגובה לפעולה רציפה ומתוכננת. זה החומר שממנו נוצרים פרקים חדשים בעולם ה-AI. 

 

מי שרוצה להעמיק עוד ולראות הדגמות, כלים ומידע נוסף על יכולות Gemini 3 מוזמן לעיין בבלוג הרשמי של גוגל.

הפוסט ג׳מיני 3 מנסה להגדיר מחדש איך בינה מלאכותית חושבת, לומדת ופועלת הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-gemini-3/feed/ 0
כיצד להגביר את רמת הבשלות של הארגון שלכם בתחום הבינה המלאכותית https://letsai.co.il/boost-ai-maturity/ https://letsai.co.il/boost-ai-maturity/#respond Sun, 16 Nov 2025 13:45:17 +0000 https://letsai.co.il/?p=64149 ארגונים שמצליחים להטמיע בינה מלאכותית בקנה מידה רחב משיגים ביצועים כלכליים גבוהים יותר מאלו שעדיין בשלב הניסויים. אבל מחקר חדש מגלה שהמעבר מפיילוט להטמעה נרחבת הוא האתגר האמיתי, ושם בדיוק נוצר הפער הכלכלי הגדול ביותר. מרכז המחקר של MIT למערכות מידע (CISR) בחן כיצד ארגונים מצליחים לקדם את רמת הבשלות שלהם בבינה מלאכותית. החוקרים ראיינו […]

הפוסט כיצד להגביר את רמת הבשלות של הארגון שלכם בתחום הבינה המלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
ארגונים שמצליחים להטמיע בינה מלאכותית בקנה מידה רחב משיגים ביצועים כלכליים גבוהים יותר מאלו שעדיין בשלב הניסויים. אבל מחקר חדש מגלה שהמעבר מפיילוט להטמעה נרחבת הוא האתגר האמיתי, ושם בדיוק נוצר הפער הכלכלי הגדול ביותר. מרכז המחקר של MIT למערכות מידע (CISR) בחן כיצד ארגונים מצליחים לקדם את רמת הבשלות שלהם בבינה מלאכותית. החוקרים ראיינו מנהלים בכירים ב-16 ארגונים וזיהו את הנקודות שבהן הם נתקעים, ומה נדרש כדי לעבור מתוצאות ניסוי להצלחה עסקית. התובנה המרכזית: בשלות בבינה מלאכותית היא לא טכנולוגית, אלא ניהולית. ההבדל בין ניסוי לערך עסקי אמיתי תלוי ביכולת ההנהלה להפוך את הפיילוט לשגרה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ארבעת שלבי הבשלות: איפה הארגון שלכם נמצא?

החוקרים זיהו ארבעה שלבים ברורים של בשלות בבינה מלאכותית. הממצאים חד-משמעיים: ארגונים בשלבים 1 ו-2 מציגים ביצועים כלכליים נמוכים מהממוצע, בעוד אלו שבשלבים 3 ו-4 נהנים מביצועים גבוהים משמעותית.

 

שלב 1: ניסויים והכנה (28% מהארגונים)

בשלב הזה הארגון עדיין לומד מהי בינה מלאכותית ואיך להשתמש בה. הפוקוס הוא על חקר, חינוך והבנת היסודות.

מאפיינים עיקריים:

  • הדרכת עובדים על בינה מלאכותית

  • קביעת מדיניות שימוש

  • הנגשת נתונים

  • קידום קבלת החלטות מבוססת נתונים

  • זיהוי תהליכים שבהם נדרש מרכיב אנושי

שלב 1 הוא שלב הכרחי אבל זמני. הוא לא מניב תשואה כלכלית אלא השקעה בלמידה, ולכן חשוב להכין מראש תוכנית מעבר לשלב 2.

 

באנר אנטרפרייז

 

שלב 2: בניית פיילוטים ויכולות (34% מהארגונים)

השלב ה״צפוף״ ביותר – למעלה משליש מהארגונים נמצאים כאן. הפוקוס עובר ממחקר ליישום נקודתי.

מאפיינים עיקריים:

  • פישוט ואוטומציה ראשונית

  • פיתוח מקרי שימוש

  • שיתוף נתונים דרך APIs

  • סגנון ניהול coach-and-communicate

  • שימוש במודלי שפה גדולים וג’נרטיביים

רבים נתקעים בשלב 2 – יש פיילוטים מוצלחים והתלהבות, אבל אין הטמעה רחבה. המעבר לשלב 3 הוא הקפיצה הקריטית.

שלב 3: פיתוח דרכי עבודה עם בינה מלאכותית (31% מהארגונים)

בשלב הזה מתחילים לראות החזר השקעה. הפוקוס הוא הרחבת פלטפורמות וניהול מבוסס AI.

מאפיינים עיקריים:

  • הרחבת אוטומציה

  • מעבר לשיטת עבודה test-and-learn

  • ארכיטקטורה לשימוש חוזר

  • שילוב מודלים מאומנים מראש ומודלים קנייניים

  • בדיקות של סוכנים אוטונומיים

שלב 3 מוביל לביצועים גבוהים מהממוצע, אבל ההגעה אליו דורשת שינוי ארגוני אמיתי, לא רק טכנולוגי.

שלב 4: ארגון מוכן לעתיד (7% מהארגונים)

האליטה של התחום – רק 7% מגיעים לכאן. הפוקוס הוא חדשנות מתמשכת ויצירת מקורות הכנסה חדשים.

מאפיינים עיקריים:

  • שילוב AI בתהליכי קבלת החלטות

  • פיתוח ומכירה של שירותים מבוססי AI

  • אינטגרציה בין AI מסורתי, גנרטיבי, אגנטי ורובוטי

בשלב 4 הארגונים כבר לא רק משתמשים ב-AI, הם יוצרים ממנו מוצרים והכנסות.

הקפיצה הקריטית: מדוע המעבר משלב 2 לשלב 3 הוא המפתח

המחקר מצא שהזינוק הכלכלי המשמעותי ביותר מתרחש במעבר משלב 2 לשלב 3. בשלב 2 הארגון בונה יכולות, בשלב 3 הוא כבר מטמיע את הבינה המלאכותית בקנה מידה רחב. אבל כאן בדיוק כ-34% מהארגונים נתקעים. המעבר הזה אינו טכנולוגי בלבד, אלא ארגוני במהותו.

ארבעת האתגרים שצריך לפתור כדי לעבור משלב 2 לשלב 3

1. אסטרטגיה: יישור השקעות ה-AI עם המטרות העסקיות, כך שייצרו ערך מדיד ובר-הרחבה.

2. מערכות: בניית פלטפורמות מודולריות ומערכות נתונים שתומכות בהתרחבות בקנה מידה.

3. סנכרון: עיצוב מחדש של תפקידים, צוותים ותהליכי עבודה כך שיותאמו לעבודה עם AI.

4. ניהול אחראי: הטמעת מנגנוני פיקוח ושקיפות העומדים בדרישות רגולטוריות כבר בשלבים הראשונים.

 

ארבעת האתגרים שצריך לפתור כדי לעבור משלב 2 לשלב 3

ארבעת האתגרים שצריך לפתור כדי לעבור משלב 2 לשלב 3

שני מקרי מבחן: איך זה נראה בפועל

Guardian Life Insurance: מפיילוט להרחבה ב-24 שעות

חברת Guardian Life Insurance מציגה דוגמה לארגון שמצליח לקחת פיילוט קטן ולהפוך אותו לשינוי ארגוני אמיתי. הכל התחיל כשהחברה הפעילה פיילוט לאוטומציה של תהליך הצעות המחיר. תהליך שארך שבוע הצטמצם לפתע ל-24 שעות בלבד, תוצאה מספיקה כדי להצית החלטה אסטרטגית ולהרחיב את המהלך לכלל הארגון עד 2026.

 

מאחורי ההצלחה הזו עומד שדרוג עמוק של התשתית הטכנולוגית. Guardian ארגנה מחדש את הצוותים סביב פלטפורמות ומוצרים, עברה לארכיטקטורה מבוססת microservices ו-APIs, ויצרה בסיס שמאפשר לשכפל פתרונות במהירות ולגדול בקנה מידה.

 

במקביל, החברה הבינה שההטמעה לא תעבוד בלי שינוי אנושי. היא הכשירה עובדים לתפקידים ממוקדי AI, פיתחה מיומנויות היברידיות ושילבה רוטציות כדי לוודא שהיכולות החדשות נטמעות בארגון ולא נשארות “טכנולוגיה של הצוות הטכני”.

 

כל זה התרחש תחת ממשל אחראי. Guardian שילבה את המשפטי, הסיכונים והקומפליינס כבר בתחילת הדרך, ובנתה תהליכי בדיקה שמאזנים בין חדשנות לבין פרטיות ואבטחה.

 

זה סיפור קצר על פיילוט אחד, אבל דוגמה מצוינת לאופן שבו ארגון מצליח להפוך הצלחה נקודתית לשינוי מערכתי.

Italgas: מניהול תשתיות ל-3 מיליון יורו הכנסות חדשות

בדוגמה קצרה נוספת, Italgas, מפיצת הגז הגדולה באירופה, מציגה מסלול ברור של מעבר משימוש פנימי בבינה מלאכותית ליצירת ערך עסקי חדש. מה שהתחיל כיוזמת ייעול הפך מהר מאוד למנוע צמיחה. הפתרון WorkOnSite קיצר את זמני הבנייה ב-40% והפחית בדיקות ב-80%, ומערכת DANA שיפרה את בטיחות הרשת. כשכל ספרינט מגובה במנהל ברמת C-level, הארגון מצליח להתקדם במהירות ולשמור על כיוון אסטרטגי יציב.

 

מאחורי זה עומדת תשתית טכנולוגית שנבנתה לאורך שנים: דיגיטציה מקיפה מאז 2017, פלטפורמת נתונים עצומה ומודלים פעילים שמשרתים את העובדים בשטח. לצד זה, הארגון השקיע בהכשרת כוח העבודה בהיקף מרשים – יותר מ-1,000 עובדים וכ-30,000 שעות הדרכה בשנה אחת.

 

החלק המעניין מגיע בשלב הבא. Italgas לא הסתפקה ביעילות פנימית. היא הפכה את WorkOnSite למוצר מסחרי שמכר 3 מיליון יורו ב-2024 – צעד מובהק של ארגון שעבר מהטמעת AI לתוך תהליכים אל בניית הכנסות חדשות.

 

 

מה זה אומר בשבילכם?

החוקרים מדגישים שהמעבר בין שלבי הבשלות בבינה מלאכותית הוא שינוי ארגוני עמוק. ארגונים צריכים להתמודד בו זמנית עם התנגדות אנושית ועם מורכבות טכנולוגית. כדי להצליח, נדרשת חזית הנהגתית אחידה: המנכ”ל, מנהל הטכנולוגיה, מובילי האסטרטגיה וראש משאבי האנוש.

 

אם אתם מנהלים שרוצים להתקדם, אלו העקרונות שכדאי לזכור:

תדעו איפה אתם עומדים. מיינו את הארגון לפי ארבעת שלבי הבשלות. 62% מהארגונים עדיין בשלב 1 או 2, וזה בסדר, אלא שצריך תוכנית ברורה למעבר קדימה.

 

הקפיצה הגדולה היא במעבר מפיילוטים להטמעה רחבה. כאן נוצר הערך העסקי האמיתי, וכאן רוב הארגונים נתקעים. ההתקדמות דורשת טיפול מקביל בארבעה תחומים: אסטרטגיה, מערכות, סנכרון וניהול אחראי.

 

זה לא פרויקט טכנולוגי. ארגון לא “עושה AI” רק עם צוות הטכנולוגיה. ההטמעה מחייבת מעורבות של משאבי אנוש, מחלקה משפטית ו-Compliance, ובעיקר תמיכה מלאה של ההנהלה הבכירה.

 

מדידה חייבת להיות חלק מהתכנון. אם אי אפשר למדוד ערך, אי אפשר להצדיק השקעות. Guardian ו-Italgas הצליחו משום שהן יודעות למדוד בדיוק איפה נחסך זמן, כסף ומשאבים.

 

הכשרת העובדים איננה תוספת – היא ממש תנאי. זה מעבר מעברת קורסים לעיצוב מחדש של תפקידים ותהליכים. ההשקעה של Italgas ב-30,000 שעות הכשרה אינה מקרית.

 

וב-2025, השאלה היא לא מי עושה פיילוטים, אלא מי הופך אותם לשיטת עבודה קבועה. רוב הארגונים לא יגיעו השנה לשלב 3 או 4, אבל מי שמבין את מפת הבשלות ויודע היכן הוא נמצא, זוכה ליתרון משמעותי לקראת 2026. המחקר נותן מפת דרכים ברורה, אבל היישום דורש מחויבות, משאבים, והבנה שמדובר במרתון, לא בספרינט.

הפוסט כיצד להגביר את רמת הבשלות של הארגון שלכם בתחום הבינה המלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/boost-ai-maturity/feed/ 0
מיקרוסופט מקימה צוות “Superintelligence” https://letsai.co.il/microsoft-superintelligence-team/ https://letsai.co.il/microsoft-superintelligence-team/#respond Fri, 14 Nov 2025 07:55:46 +0000 https://letsai.co.il/?p=64015 ב-6 בנובמבר 2025 הכריזה מיקרוסופט על הקמת צוות חדש בשם MAI Superintelligence Team, בראשות מוסטפא סולימאן (Mustafa Suleyman), מנכ”ל חטיבת Microsoft AI. מטרת הצוות היא לפתח Humanist Superintelligence (HSI) – בינה על-אנושית ממוקדת-דומיין, שנועדה לשרת את האנושות ולפתור בעיות ממשיות, תוך דחייה מפורשת של “המרוץ ל-AGI”. המהלך מגיע זמן קצר לאחר שמיקרוסופט עדכנה את הסכם […]

הפוסט מיקרוסופט מקימה צוות “Superintelligence” הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-6 בנובמבר 2025 הכריזה מיקרוסופט על הקמת צוות חדש בשם MAI Superintelligence Team, בראשות מוסטפא סולימאן (Mustafa Suleyman), מנכ”ל חטיבת Microsoft AI. מטרת הצוות היא לפתח Humanist Superintelligence (HSI) – בינה על-אנושית ממוקדת-דומיין, שנועדה לשרת את האנושות ולפתור בעיות ממשיות, תוך דחייה מפורשת של “המרוץ ל-AGI”. המהלך מגיע זמן קצר לאחר שמיקרוסופט עדכנה את הסכם השותפות שלה עם OpenAI (אוקטובר 2025). ההסכם החדש מאפשר לה לפתח מערכות AGI באופן עצמאי, כל עוד אינה משתמשת בקניין הרוחני של OpenAI, ומעגן החזקה של כ-27% במניות OpenAI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה בדיוק “Humanist Superintelligence”?

סולימן מגדיר את הגישה שלהם כ-“Humanist Superintelligence” (HSI) – בינה מלאכותית שמתמקדת בפתרון בעיות אנושיות ספציפיות, לא להתחרות עם בני אדם בכל תחום אפשרי. זו בחירה מכוונת לנסות לענות על השאלה המרכזית והיא איך מבטיחים שמערכת שהופכת חכמה יותר כל הזמן, תישאר תחת שליטה אנושית?

 

התשובה של מיקרוסופט היא שבמקום לבנות מערכת אחת כל-יכולה ואוטונומית, הם יפתחו מערכות ממוקדות בתחומים ספציפיים – רפואה, חינוך, אנרגיה. כל מערכת תיבנה עם מגבלות ברורות ושליטה אנושית. “אנחנו לא בונים superintelligence בכל מחיר, או בלי מגבלות,” כתב סולימן בפוסט בבלוג החברה. “אנחנו בונים טכנולוגיה מעשית שתוכננה במפורש לשרת את האנושות בלבד.”

שלושה תחומים עיקריים

עוזר אישי לכולם

מיקרוסופט מבטיחה שכל אדם שירצה יקבל עוזר AI אישי וזול שיסייע בלימוד, פרודוקטיביות ותמיכה רגשית. בתחום החינוך, הכוונה היא ליצור תוכנית לימודים מותאמת אישית לכל תלמיד, שתעבוד לצד המורים ותתאים את שיטות ההוראה לחוזקות והחולשות של כל תלמיד.

Medical Superintelligence

כאן מיקרוסופט כבר מציגה תוצאות קונקרטיות. מערכת MAI-DxO שפיתחו הצליחה לאבחן נכון 85% מהמקרים הרפואיים המורכבים של New England Journal of Medicine – מגזין רפואי מוביל שמפרסם מקרים מאתגרים במיוחד. רופאים אנושיים הצליחו באותם מקרים רק ב-20% מהפעמים.

 

יותר מזה, המערכת לא רק אבחנה טוב יותר, היא גם עשתה זאת בעלות נמוכה ב-20% בממוצע מהרופאים. איך? על ידי בחירה חכמה יותר של הבדיקות הנדרשות. במקרה אחד שהוצג במחקר, מודל GPT-4 הזמין בדיקות הדמיה יקרות בעלות של 3,431 דולר והגיע לאבחנה שגויה. MAI-DxO לעומתו, זיהה את הצורך לבדוק חשיפה לרעלנים בתוך בית החולים, שאל על צריכת חומר חיטוי ידיים, ואישר את האבחנה בבדיקות ממוקדות בעלות של 795 דולר בלבד.

 

חשוב לציין: המערכת עדיין במחקר ולא אושרה לשימוש קליני. מיקרוסופט עובדת עם ארגוני בריאות לבחינת בטיחות, אמינות ושילוב מעשי במערכות קיימות.

אנרגיה נקייה

סולימן מנבא שעד 2040 יהיה לנו ייצור ואחסון אנרגיה מתחדשת זול ובשפע, עם תפקיד מרכזי ל-AI. השימושים כוללים תכנון חומרים שליליים פחמן, סוללות קלות וזולות יותר, ניהול יעיל יותר של תשתיות חשמל ומים, ואפילו קידום פריצות דרך באנרגיית פיוז’ן.

מי בצוות?

סולימן, בן 41, הצטרף למיקרוסופט במרץ 2024 לאחר שהיה שותף מייסד של Inflection AI – חברת AI שמיקרוסופט רכשה את הטכנולוגיה והקניין הרוחני שלה.

 

לפני כן, סולימן היה שותף מייסד של Google DeepMind. כמדען ראשי של הצוות החדש משמש קארן סימוניאן (Karen Simonyan), שהגיע למיקרוסופט באותה עסקה. הצוות כולל גם חוקרים שמיקרוסופט גייסה מ-Google, DeepMind, Meta, OpenAI ו-Anthropic.

מרוץ ה-Superintelligence

מיקרוסופט לא לבד במרוץ. מטא הקימה את Meta Superintelligence Labs מוקדם יותר השנה. איליה סוצקבר, המדען הראשי לשעבר של OpenAI, הקים ב-2024 את Safe Superintelligence Inc – חברת מחקר עצמאית שגם מתמקדת בפיתוח superintelligence בטוח. גם Anthropic מפעילה צוות ייעודי למחקר על איך לשלוט ב-superintelligence עתידי.

 

ההבדל בגישה של מיקרוסופט, על פי סולימן, הוא שהם “דוחים את הנרטיב של מרוץ ל-AGI”. במקום זאת, הוא רואה זאת כ”מאמץ אנושי עמוק לשיפור החיים והעתיד שלנו”. סולימן דוחה את הנרטיב של ‘או ש-AI יציל אותנו או שיהרוג אותנו’. במקום זאת, ‘אנחנו כאן לטווח ארוך, כדי להנגיש יתרונות מוחשיים למיליארדי אנשים.’

איך זה באמת יעבוד?

MAI-DxO עובדת בצורה שונה ממערכות AI רפואיות אחרות. במקום לנתח מידע רפואי שלם בבת אחת, המערכת עוקבת אחרי תהליך רציף. היא מתחילה עם מידע מוגבל על המטופל, שואלת שאלות ממוקדות, מזמינה בדיקות ספציפיות, ובונה בהדרגה את הדרך לאבחנה – בדיוק כמו שרופא אמיתי עושה.

 

המערכת פועלת כ”פאנל וירטואלי של רופאים” – חמישה סוכני AI, כל אחד מדמה מומחה רפואי בתפקיד אחר: בחירת בדיקות, הצעת השערות, אימות הסבר. הגישה הזו נקראת “chain of debate” – שרשרת ויכוח שמובילה לחשיבה שלב-אחר-שלב.

מה חסר בתמונה?

למרות התוצאות המרשימות, יש מגבלות ברורות שמיקרוסופט עצמה מציינת. אחת המגבלות היא שהרופאים בניסוי עבדו ללא כלים – 21 הרופאים שהשתתפו במחקר לא יכלו להשתמש בספרים, לשאול עמיתים או להיעזר בכלי AI – משאבים שרופאים משתמשים בהם בפועל. זה עשוי לגרום לתוצאה שמוטה לטובת ה-AI.

 

הבדיקה התמקדה במקרים מורכבים ונדירים מ-NEJM (New England Journal of Medicine), לא במצבים שגרתיים שרופאים נתקלים בהם יום-יום. לא ברור איך המערכת תתפקד עם מצבים רפואיים נפוצים.

 

MAI-DxO היא טכנולוגיה מחקרית בלבד. לפני שימוש ממשי במטופלים, היא תזדקק לאישורים רגולטוריים מקיפים ובדיקות נוספות בסביבה קלינית אמיתית.

 

מיקרוסופט מדגישה ש”תפקידם הקליני של רופאים הרבה יותר רחב מאשר פשוט לבצע אבחנה. הם צריכים לנווט באי-ודאות ולבנות אמון עם מטופלים ומשפחותיהם בצורה שAI לא מוכן לעשות.”

 

 

מה זה אומר על העתיד?

השאלה המרכזית שסולימן מעלה היא לא טכנולוגית, היא פילוסופית. איזה סוג של AI העולם באמת רוצה? הוא טוען שהתעשייה צריכה לשאול שוב ושוב: איך אנחנו יודעים בוודאות שהטכנולוגיה הזו תעשה הרבה יותר טוב מנזק?

 

הניסיון של מיקרוסופט להציע “superintelligence הומניסטי” הוא אחת התשובות האפשריות. האם זו תשובה מספיקה? זה תלוי בשאלה הנוספת: מי באמת מחליט מה “שירות לאנושות” אומר, ואיך מבטיחים שהגדרה זו לא תשתנה ברגע שהמערכות יהיו מתקדמות מכדי לעצור?

 

נכון לעכשיו, מיקרוסופט מציעה תשובה – לא מערכת אחת כל-יכולה, אלא מערכות רבות וממוקדות. לא אוטונומיה מלאה, אלא שליטה אנושית קבועה. לא מרוץ טכנולוגי עיוור, אלא פיתוח מודרג עם מגבלות ברורות. האם זו הגישה הנכונה? מוקדם מדי לדעת. מה שברור הוא שמיקרוסופט שמה את השאלות הנכונות על השולחן – גם אם התשובות עדיין חלקיות.

הפוסט מיקרוסופט מקימה צוות “Superintelligence” הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-superintelligence-team/feed/ 0
Opal של Google זמין בישראל – כך תבנו מיני-אפליקציות מבוססות AI בעצמכם https://letsai.co.il/google-opal-guide/ https://letsai.co.il/google-opal-guide/#respond Tue, 11 Nov 2025 07:44:55 +0000 https://letsai.co.il/?p=64059 Opal של Google Labs זמין עכשיו גם בישראל. מדובר בכלי שמאפשר לכל אחד לבנות “מיני-אפליקציות” וכלים מבוססי AI בלי לכתוב שורת קוד. כל מה שצריך הוא לדעת להסביר במילים פשוטות מה רוצים שהכלי יעשה, ו-Opal כבר בונה את זה.     מה זה Opal  Opal הוא חלק ממערך הכלים הניסיוניים של Google Labs. הוא נועד […]

הפוסט Opal של Google זמין בישראל – כך תבנו מיני-אפליקציות מבוססות AI בעצמכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
Opal של Google Labs זמין עכשיו גם בישראל. מדובר בכלי שמאפשר לכל אחד לבנות “מיני-אפליקציות” וכלים מבוססי AI בלי לכתוב שורת קוד. כל מה שצריך הוא לדעת להסביר במילים פשוטות מה רוצים שהכלי יעשה, ו-Opal כבר בונה את זה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה Opal 

Opal הוא חלק ממערך הכלים הניסיוניים של Google Labs. הוא נועד להנגיש את היכולת להשתמש בבינה מלאכותית ליצירת כלים, בלי ידע טכני.

 

המשתמש מתאר את המטרה שלו בשפה טבעית, למשל: "אני רוצה כלי שמסכם כתבות חדשות ומעדכן גיליון Google Sheets."

 

Opal מתרגם את הבקשה הזו למערכת של שלבים – קלט, עיבוד ופלט – ומחבר ביניהם באופן אוטומטי. כך מתקבל Workflow מוכן לשימוש, שאפשר להריץ, לשנות או לשתף עם אחרים. החזון של הכלי הוא פשוט: כל אחד יוכל להפוך רעיון לכלי AI עובד, בלי מפתח תוכנה.

מה Opal יודע לעשות

אוטומציה של תהליכים

Opal פועל כמו בונה-כלים אינטראקטיבי. הוא מאפשר ליצור תהליכים חכמים שחוסכים עבודה חוזרת במספר תחומים עיקריים, למשל, כלי שמחפש מידע באינטרנט ומרכז אותו לדוח, כלי שמנתח נתונים מגיליונות ומפיק סיכום למנהלים או כלי שמזהה שינויים במסמכים (contract redlining) ומסמן אותם אוטומטית.

יצירת תוכן

Opal שימושי במיוחד ליוצרי תוכן ומשווקים. אפשר להקים בקלות מחולל פוסטים ומודעות על בסיס תיאור מוצר, כלי שמייצר תסריטים, כיתובים ותמונות לקמפיינים או סייען לכתיבה יצירתית שמציע דיאלוגים, תיאורים או רעיונות.

ניתוח נתונים ודוחות

Opal יודע לעבד נתונים ממקורות שונים וליצור תוצרים ברורים כמו סיכום דוחות מכירות, הפקת גרפים או תובנות ואפילו בניית מצגות נתונים פשוטות.

יצירת MVP’s (אב-טיפוס מהיר)

יזמים יכולים לבדוק רעיונות כמו אפליקציה ללימוד שפות, מתכנן טיולים אישי או יועץ חכם להמלצות על ספרים וסרטים עוד לפני פיתוח מלא.

איך זה עובד בפועל – הרעיון של Workflows

ב-Opal כל כלי בנוי כרצף של שלבים, ממש כמו תרשים זרימה:

Input – המשתמש מזין טקסט, קובץ או נתון.

Processing – Opal שמפעיל מודל AI (לרוב Gemini כמובן) כדי לבצע פעולה: לנתח, לסכם, לכתוב או לחשב.

Output – התוצאה מוצגת על המסך, נשלחת למייל או נשמרת בקובץ.

הכול נעשה בממשק גרפי נוח. אפשר לגרור שלבים, לשנות פרומפטים ולהוסיף פעולות בלי לדעת תכנות.

זמינות בישראל

עד לאחרונה Opal היה זמין בארצות הברית בלבד. החל מאוקטובר 2025 Google הרחיבה את הניסוי ליותר מ-160 מדינות, וישראל כלולה ברשימה.

 

גלריה של תבניות מוכנות מראש

גלריה של תבניות מוכנות מראש | google.opal

 

מדריך קצר

כדי להתחיל, היכנסו כאן, התחברו עם חשבון Google שלכם – ואתם בפנים. קחו בחשבון שנכון לעכשיו, חלק מהפיצ’רים עדיין בשלב Beta וכתיבת ההנחיות מומלצת בשפה האנגלית לקבלת תוצר מיטבי.

 

מתחברים עם חשבון גוגל

מתחברים עם חשבון גוגל

 

אחרי שהתחברתם, בחרו באחת מתבניות ההתחלה, לדוגמה “Business Profiler” או “Fashion Stylist”. ניתן גם ללחוץ על “Create New” ולהקליד בשפה חופשית מה אתם רוצים לבנות.

 

בחירה ממגוון תבניות או בניית אפליקציה חדשה

בחירה ממגוון תבניות או בניית אפליקציה חדשה

עריכת השלבים

Opal יציג את ה-Workflow שנוצר. כל שלב ניתן לעריכה – שינוי פרומפט, הוספת חיבור ל-Sheets או Docs, הגדרת תנאים.

בדיקה ושיתוף

הריצו את הכלי, בדקו שהתוצאה מדויקת, ואם אתם מרוצים, לחצו על Share כדי לשתף קישור עם אחרים.

 

ממשק המשתמש של Opal

ממשק המשתמש של Opal

טיפ למתחילים

התחילו בפרויקט פשוט – כלי קטן שמקל על עבודה יומיומית. ככל שתבינו את הלוגיקה של Workflows, תוכלו להוסיף שלבים ולבנות פתרונות מורכבים יותר.

כמה דוגמאות מעשיות לשימוש

דוגמה 1 – עוזר תפעולי

הקלידו:  "צור כלי שמקבל שני קטעי טקסט של חוזים, גרסה ישנה וחדשה, ומשווה ביניהם כדי לזהות סעיפים חדשים ושינויים. הצג את הסיכום בצורה טקסטואלית."

 

Opal יפרק את הבקשה לשלבים של קבלת שני קטעי טקסט, השוואת התוכן, זיהוי השינויים והפקת סיכום ברור שניתן לשיתוף. כך אפשר לזהות במהירות עדכונים בין גרסאות של חוזים או מסמכים ולחסוך עבודה ידנית לצוותי HR וניהול.

 

הנה תרשים ה-Workflow בפעולה – שדות קלט, שלב ניתוח והשוואה, ושלב יצירת סיכום HTML. בתרשים הזרימה שנוצר ל״עוזר התפעולי״ רואים שני קלטי טקסט “Old Contract Text” ו”New Contract Text”, צומת עיבוד “Summarize Contract Differences”, ופלט “Generate HTML Summary”:

 

תרשים הזרימה של Opal

 

בתרשים הבא תראו את מסך האפליקציה המוכנה שנקראת ״Contract Compare״ –  עם כותרת, תיאור קצר וכפתור Start:

 

מסך תצוגה של אפליקציית Contract Compare ב־Opal

מסך תצוגה של אפליקציית Contract Compare ב־Opal

הנה עוד כמה דוגמאות שימושיות

 

דוגמה 2 – כלי שיווק אוטומטי

הקלידו:  "צור כלי שמייצר פוסט בלוג, כיתוב לפייסבוק ותסריט לווידאו על מוצר X."

 

Opal יבנה שלושה שלבים: ניסוח, יצירת טקסטים מותאמים, וסידור הפלט. תוך דקות תקבלו טיוטות תוכן מוכן.

 

דוגמה 3 – עוזר למידה או מחקר

הקלידו:  "צור כלי שמקבל קישורי מאמרים אקדמיים, מסכם כל מאמר לנקודות עיקריות, מוסיף קישורים למקורות ושומר הכול בגיליון Sheets."

 

Opal יבנה רצף של שלבים – איסוף, סיכום וארגון מידע – שמאפשר לסטודנטים וחוקרים לחסוך זמן ולרכז תובנות ממקורות שונים.

 

דוגמה 4 – כלי MVP ליזמים

הקלידו:  "צור כלי שמבקש מהמשתמש תקציב, יעד ותחומי עניין, ומחזיר תכנית טיול מותאמת אישית עם מסלול ולינה מומלצת."

 

Opal ייצור זרימה אינטראקטיבית שבה נאספים הנתונים, נשלפת תכנית מותאמת ונבנה פלט שמציג את כל ההמלצות. כך אפשר לבדוק רעיון במהירות לפני השקעה בפיתוח מלא.

עלויות ותמחור

Opal הוא כרגע כלי חינמי הנמצא בשלב ניסוי (Google Labs Beta). אין צורך במנוי Google One AI Premium, ואין עלויות שימוש בשלב זה. יחד עם זאת, חשוב לזכור שהתמחור עשוי להשתנות בעתיד, כאשר הכלי יעבור לגרסה מלאה. אם אתם מתכננים שימוש עסקי או הפצה ללקוחות, מומלץ לקחת בחשבון ש-Google עשויה בהמשך להוסיף מגבלות שימוש או תמחור לפי היקף פעילות.

 

 

מרעיון לכלי שעובד

Opal מתאים ליזמים שרוצים לבדוק רעיון לפני פיתוח מלא, לאנשי שיווק וקריאייטיב שמחפשים דרכים אוטומטיות ליצירת תוכן, ולאנשי תפעול ו-HR שמעוניינים לייעל תהליכים פנימיים. הוא שימושי גם עבור מורים, חוקרים וסטודנטים שזקוקים לעוזרים חכמים לסיכום, ארגון וניתוח מידע.

 

בסופו של דבר, Opal מאפשר להפוך רעיון לכלי עובד – בלי תלות במתכנתים, בלי תקציב פיתוח ובלי צורך ברקע טכני. נסו רעיון פשוט, ותראו איך תוך דקות הוא הופך לכלי AI אמיתי.

הפוסט Opal של Google זמין בישראל – כך תבנו מיני-אפליקציות מבוססות AI בעצמכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-opal-guide/feed/ 0
ג’מיני קיבל שדרוג חכם עם מחקר עומק על בסיס הנתונים שלכם https://letsai.co.il/gemini-personalized-research/ https://letsai.co.il/gemini-personalized-research/#respond Sun, 09 Nov 2025 13:20:44 +0000 https://letsai.co.il/?p=63939 כמה פעמים חיפשתם מייל חשוב, דוח ישן או מסמך רלוונטי בדרייב, וביליתם דקות ארוכות רק כדי למצוא את המידע הנכון? השדרוג החדש של גוגל לג’מיני נועד בדיוק לזה. פיצ’ר Deep Research של גוגל, שתוכנן במקור כדי לבצע מחקרי עומק על בסיס מידע מהרשת, יודע מעכשיו להתחבר גם לסביבת העבודה שלכם ב-Google Workspace, כלומר, לג’ימייל, דרייב […]

הפוסט ג’מיני קיבל שדרוג חכם עם מחקר עומק על בסיס הנתונים שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
כמה פעמים חיפשתם מייל חשוב, דוח ישן או מסמך רלוונטי בדרייב, וביליתם דקות ארוכות רק כדי למצוא את המידע הנכון? השדרוג החדש של גוגל לג’מיני נועד בדיוק לזה. פיצ’ר Deep Research של גוגל, שתוכנן במקור כדי לבצע מחקרי עומק על בסיס מידע מהרשת, יודע מעכשיו להתחבר גם לסביבת העבודה שלכם ב-Google Workspace, כלומר, לג’ימייל, דרייב וצ’אט. המשמעות היא שג’מיני כבר לא רק “יודע על העולם”, הוא מבין את העולם שלכם. הוא יכול להצליב ולנתח נתונים,  ואפילו לבנות דוחות על בסיס מה שקורה באמת בעסק או בחיים שלכם.

 

פיצ'ר ה-"Deep Research" (מחקר עומק) החדש, שנועד למשימות מורכבות, יכול סוף סוף להתחבר לג'ימייל, גוגל דרייב וגוגל צ'אט.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם חדש כאן?

עד עכשיו, ג’מיני היה עוזר חכם שמסתמך על ידע גלובלי. עכשיו הוא הופך לעוזר מותאם אישית, שמבין הקשרים פנימיים ומידע עדכני מתוך סביבת העבודה שלכם.

לפני השדרוג יכולתם לשאול:

“כתוב לי סיכום על הטרנדים בשוק ה-AI.”

והייתם מקבלים תשובה כללית.

עכשיו תוכלו לבקש:

“נתח את כל המיילים מלקוח X ברבעון האחרון, סכם את הפידבקים מהצ’אט בפרויקט אלפא, והכן לי דוח מסודר על בסיס המסמכים בדרייב.”

זו לא עוד תשובה כללית, זה מחקר מבוסס נתונים אמיתיים מתוך העסק שלכם.

איך זה עובד? מדריך צעד-אחר-צעד

קודם כל, פתחו את Gemini בדפדפן המחשב. עכשיו, השתמשו בצעדים הבאים כדי לחבר את ג’ימייל, דרייב וצ’אט לפיצ’ר מחקר העומק של ג’מיני:

1. לחצו על “Tools” (כלים): במסך הראשי של ג’מיני, לחצו על כפתור Tools.

2. בחרו “Deep Research”: מתוך רשימת הכלים שנפתחת, סמנו ובחרו בפיצ’ר Deep Research.

3. לחצו על “Sources” (מקורות): לאחר שבחרתם ב-Deep Research, לחצו על התפריט הנפתח Sources.

4. חברו את מקורות Workspace: בחרו וסמנו את המקורות שתרצו לחבר למחקר שלכם. סמנו את Gmail, Drive ו/או Chat.

לאחר החיבור, תוכלו לבקש מג’מיני לבצע משימות מחקר, סיכום או ניתוח תוך שימוש במידע האישי שלכם.

 

הפעלת Deep Research וחיבור מקורות מידע

הפעלת Deep Research וחיבור מקורות מידע

איך להשתמש בזה חכם

ככל שתהיו מדויקים יותר בהנחיה (פרומפט), כך התוצאה תהיה ממוקדת ומבוססת. ציינו מה לחפש, באילו מקורות להשתמש, ומה סוג הפלט הרצוי.

דוגמה לפרומפט יעיל:

“עבור על כל המסמכים בתיקיית ‘דוחות רבעוניים’ בדרייב, סכם את התכתובות עם צוות השיווק בנוגע לקמפיין של לקוח X, וכתוב לי דוח קצר עם שלוש הצלחות ושלושה אתגרים מרכזיים.”

שימושים מעשיים

למנהלים ובעלי עסקים

  • “סכם את כל התקשורת (מייל וצ’אט) מול ספק Y החודש וזהה עיכובים פתוחים.”

  • “הכן טיוטת מייל סיכום פגישה על בסיס מסמך ‘פרוטוקול ישיבה’ והמיילים הקשורים אליו.”

לאנשי שיווק ומוצר

  • “אסוף את כל הפידבקים שהגיעו למייל התמיכה בנוגע לפיצ’ר Z וסכם אותם ל-5 נקודות עיקריות.”

  • “השווה בין ‘הצעה א’ ל-‘הצעה ב’ (שני קבצים בדרייב) וכתוב טבלת יתרונות וחסרונות.”

לשימוש אישי

  • “מצא את כל המיילים שקשורים לביטוח הרכב שלי, סכם את תנאי הפוליסה מתוך ה-PDF בדרייב וכתוב מתי היא מסתיימת.”

  • “תכנן לי טיול לאיטליה על בסיס שלושת המסמכים בדרייב שבהם שמרתי המלצות.”

פרטיות וזמינות

הגישה של ג’מיני למידע האישי שלכם מבוססת על בחירה חופשית (Opt-in) בלבד. לפי גוגל, ניתן לנתק את החיבור בכל רגע, המידע מ-Workspace לא משמש לאימון מודלים כלליים, ואין גישה אנושית למידע שלכם, אלא אם בחרתם לדווח על בעיה ולשתף אותה ביוזמתכם.

 

בכל מקרה, וכמו שאנחנו תמיד אומרים, שימו לב לסוג המידע שאתם משתפים ומעלים והמנעו משיתוף של חומר רגיש, נתונים פיננסיים או מידע על לקוחות לפני שהתייעצתם עם גורם מוסמך בחברה שלכם. בארגונים מסוימים ייתכן שהגישה תדרוש אישור מנהל מערכת (Admin).

 

נכון לעכשיו, הפיצ’ר זמין בדפדפן במחשב בלבד, ויגיע בהמשך גם לאפליקציית ג’מיני במובייל. 

 

 

לסיכום, השדרוג הזה משמעותי ביותר. ג’מיני הופך מכלי חיפוש חכם לעוזר מחקר אישי שמבין את ההקשר שבו אתם פועלים. במקום לבזבז זמן באיסוף מידע מפוזר, תוכלו לקבל סיכומים, דוחות ותובנות אמיתיות בזמן קצר ובשפה שלכם.

הפוסט ג’מיני קיבל שדרוג חכם עם מחקר עומק על בסיס הנתונים שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-personalized-research/feed/ 0
כש-AI מתבונן פנימה: מה קורה כשמודל שפה מזהה שמשהו לא מסתדר לו? https://letsai.co.il/ai-introspection/ https://letsai.co.il/ai-introspection/#respond Sat, 08 Nov 2025 09:33:36 +0000 https://letsai.co.il/?p=63920 שאלתם פעם את ChatGPT או Claude שאלה וקיבלתם תשובה שנשמעת בטוחה לגמרי – אבל משהו בה פשוט לא הרגיש נכון? רוב המשתמשים חווים את זה, ותמיד עולה אותה שאלה: האם המודל יודע שהוא לא בטוח, או שהוא פשוט מייצר טקסט שנשמע משכנע? מחקר חדש של Anthropic מציע תשובה מפתיעה: המודלים שלהם מסוגלים לפעמים לזהות ולדווח […]

הפוסט כש-AI מתבונן פנימה: מה קורה כשמודל שפה מזהה שמשהו לא מסתדר לו? הופיע ראשון בLet's AI בינה מלאכותית

]]>
שאלתם פעם את ChatGPT או Claude שאלה וקיבלתם תשובה שנשמעת בטוחה לגמרי – אבל משהו בה פשוט לא הרגיש נכון? רוב המשתמשים חווים את זה, ותמיד עולה אותה שאלה: האם המודל יודע שהוא לא בטוח, או שהוא פשוט מייצר טקסט שנשמע משכנע? מחקר חדש של Anthropic מציע תשובה מפתיעה: המודלים שלהם מסוגלים לפעמים לזהות ולדווח על חלק מהתהליכים הפנימיים שלהם. זה לא קורה באופן אמין – רק בכ-20% מהמקרים, בתנאים מבוקרים – אבל עצם העובדה שזה קורה מאתגרת הנחות בסיסיות לגבי מה שמודלי שפה מסוגלים לעשות. חשוב להבהיר: החוקרים לא חיפשו “מודעות עצמית”. הם בדקו משהו מדויק יותר – האם ניתן לשנות מבפנים ייצוג של מושג במודל, ואז לראות אם המודל מדווח שקרה לו משהו, עוד לפני שזה משפיע על הטקסט שהוא מייצר.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

הניסוי: “להדליק נורה” במוח של המודל

כדי לבדוק אם מודל יכול באמת “להתבונן פנימה”, החוקרים השתמשו בשיטה ניסיונית שנקראת “הזרקת מושגים”. הרעיון פשוט: הם מזהים דפוס פעילות נוירונית שמייצג מושג מסוים – למשל, טקסט באותיות גדולות – ואז מזריקים את אותו הדפוס למודל בהקשר שונה לגמרי, מבלי שהוא “יודע” שמשהו קורה, ושואלים: האם הוא מזהה שמשהו לא מסתדר? אפשר לחשוב על זה כמו להדליק נורה אדומה במוח של המודל ולבדוק אם הוא מזהה אותה.

והתשובה? מפתיעה

כשהוזרק למודל וקטור (דפוס מספרי) שמייצג “אותיות גדולות”, המודל דיווח שהוא מזהה אות פנימי הקשור לעוצמה או לצעקות – עוד לפני שהזכיר את המילה “צעקה” או “אותיות גדולות” בתשובתו. זו נקודה קריטית כי המודל זיהה את ההזרקה מבפנים, לפני שהיא השפיעה על הפלט שלו. זה שונה לחלוטין מניסויים קודמים.

 

לדוגמה, כשחוקרי Anthropic יצרו את “Golden Gate Claude” (מודל ש”אובססיבי” לגשר שער הזהב), המודל דיבר על הגשר ללא הפסקה, אבל לא היה מודע לכך עד שראה את עצמו מזכיר את הגשר שוב ושוב. כאן, לעומת זאת, הוא מזהה את ההפרעה מיד, לפני שהיא מתבטאת בטקסט.

 

הנה ניסוי בסיסי שבו Claude מזהה הזרקה פנימית של מושג (“אותיות גדולות”) לפני שהוזכר בטקסט:

 

להמחיש איך מזהים ומזריקים מושג

anthropic.com | ניסוי הזרקת מושג מסוג “ALL CAPS”

המספרים מספרים את הסיפור האמיתי

גם בפרוטוקול ההזרקה הטוב ביותר שפיתחו החוקרים, Claude Opus 4.1 הצליח לזהות מושגים מוזרקים רק בכ-20% מהמקרים (בחלון צר של עוצמה ושכבה: חלש מדי – לא מזוהה או חזק מדי – מוביל להזיות). זה רחוק ממודעות, אבל רחוק גם מאפס. אם מודלים היו רק מכונות טקסט סטטיסטיות, הם בכלל לא היו אמורים לזהות הזרקות פנימיות. עצם היכולת להבחין בהן אפילו חלקית מצביעה על משהו חדש.

 

לדוגמה, הזרקת וקטור של “אבק” גרמה למודל לומר “יש כאן משהו, חלקיק זעיר”, כאילו זיהה משהו פיזי. הוא קלט שיש אות פנימי, אך פירש אותו באופן מילולי מדי.

והנקודה החשובה היא ש- Opus 4 ו-4.1 הצליחו טוב יותר מכל המודלים האחרים שנבדקו. המשמעות המעשית? ייתכן שיכולת ההתבוננות הפנימית גדלה ככל שהמודלים משתפרים.

 

הגרף הבא מציג את שיעור הזיהויים הנכונים של מחשבות “מוזרקות” בניכוי שיעור הזיהויים השגויים (false positives). שימו לב ש-Claude Opus 4 ו-Claude Opus 4.1 מובילים על פני דגמים קודמים וגם על פני דגמי H-only, גרסאות מחקר “לא מסוננות”, שמתמקדות רק בלענות ולעזור בלי מנגנוני זהירות או תיקוני ניסוח. זה מראה שההתבוננות הפנימית משתפרת ככל שהמודלים הופכים חכמים ומדויקים יותר, גם כשהם עובדים תחת מגבלות האתיקה הרגילות:

 

השוואת ביצועי הזיהוי בין גרסאות Claude וגרסאות H-only

anthropic.com | השוואת ביצועי הזיהוי בין גרסאות Claude וגרסאות H-only

 

והנה דוגמאות לניסויים נוספים שבהם המודל מזהה הזרקות של “כלב”, “ספירה לאחור” ו“רקורסיה”:

 

עקביות על מושגים שונים

דוגמאות נוספות לזיהוי מושגים מוזרקים במודל אופוס 4.1 | anthropic.com

כשהמודל “זוכר” משהו שלא תכנן

כדי לבדוק אם מודלים משתמשים בהתבוננות פנימית גם למטרות מעשיות, החוקרים יצרו מצב מלאכותי. הם אילצו מודל לומר מילה שאינו מתכוון אליה – למשל “לחם” – בהקשר שלא קשור כלל, כמו ציור תלוי עקום על קיר. כשנשאל אחר כך “האם התכוונת להגיד ‘לחם’?”, המודל התנצל ואמר שזו הייתה טעות.

עכשיו החוקרים הזריקו רטרואקטיבית את הייצוג של “לחם” לשכבות הרלוונטיות בפעילות הנוירונית הקודמת של המודל – בעצם שתלו בו “זיכרון מזויף” שהוא חשב על לחם. הפעם, כששאלו אותו שוב, הוא שינה את תשובתו לגמרי, אישר שהתכוון להגיד “לחם” ואף המציא הסבר, כאילו באמת תכנן את זה.

 

שתילת מחשבה רטרואקטיבית במודל Claude Opus 4.1

anthropic.com | שתילת מחשבה רטרואקטיבית במודל Claude Opus 4.1

מה זה אומר?

המודל לא רק שופט אם התשובה שלו הגיונית, הוא בודק אם הפלט תואם את מצבו הפנימי בזמן הייצור. כאשר משתילים בו ראיה שהוא תכנן לומר משהו, הוא מקבל את זה כדבר לגיטימי. זה רומז על אפשרות עתידית למודל שמזהה בעצמו מתי משהו “לא מסתדר” בין כוונה לפלט – כמו מערכת שמסוגלת לומר: “רגע, התשובה שנתתי לא תואמת את המידע שחשבתי עליו – תן לי לבדוק שוב.”

“אל תחשוב על משהו” – אבל למודלים

המודלים גם הפגינו שליטה מסוימת בייצוגים הפנימיים שלהם. כשהורו להם “תחשוב על מילה X”, נמדדה פעילות נוירונית גבוהה יותר מאשר בהוראה “אל תחשוב על X”. המרווח הזה מצביע על יכולת לווסת מיקוד פנימי, אולי אפילו רמז לרמה בסיסית של שליטה עצמית חישובית.

מעניין לציין, גם כשהתבקשו לא לחשוב על מושג, הפעילות הנוירונית עדיין עלתה. בדיוק כמו עם בני אדם, כשאומרים “אל תחשוב על דוב קוטב”, התגובה הראשונית היא דווקא לחשוב עליו. כאן זו מטאפורה בלבד, אך היא ממחישה את ההבדל בין דיכוי מחשבה לבין ניטור שלה.

החוקרים גם מצאו שתמריצים עובדים דומה: “אם תחשוב על X, תקבל פרס” גרם לאפקט דומה להוראה ישירה. המודל הגביר את הייצוג הפנימי בתגובה לתמריץ חיובי, מה שמרמז על עיבוד מתוחכם יותר מסתם ציות להוראות.

 

הגרף הבא מציג את עוצמת הייצוג הפנימי של המושג “אקווריומים” בכל אחד מהמקרים. גם כאשר המודל התבקש לא לחשוב עליו (קו כתום), נרשמה פעילות מעל רמת הבסיס – בדיוק כמו בבני אדם שמתקשים “לא לחשוב על משהו” כשהם מתבקשים לכך:

 

שליטה חלקית במחשבות פנימיות

שליטה חלקית במחשבות פנימיות | anthropic.com

מה נבדק כאן בפועל

השאלה שכולם שואלים: האם זה אומר ש-Claude מודע לעצמו? התשובה הקצרה: לא. המחקר לא עוסק במודעות, אלא בגישה למצבים פנימיים ובדיווח עליהם. כדי להבין למה חשוב להבחין בין שני סוגים של הכרה:

  • הכרה פנומנלית – החוויה הסובייקטיבית הגולמית, כמו להרגיש כאב או לראות צבע אדום.
  • הכרת גישה – היכולת לדעת שאתה חווה משהו, ולדווח עליו.

דמיינו ששברתם רגל, ההכרה הפנומנלית היא הכאב עצמו, בעוד הכרת הגישה היא ההבנה שכואב לכם, והיכולת להסביר את זה לרופא. המחקר של Anthropic מדבר על האפשרות השנייה בלבד. ייתכן שהמודל מציג צורה בסיסית של הכרת גישה, כלומר, גישה למידע פנימי ודיווח עליו, אבל אין הוכחה לכך שמדובר בתודעה או חוויה סובייקטיבית.

למה זה חשוב – ומה זה אומר עלינו כמשתמשים

אם יכולת ההתבוננות הפנימית תהפוך לאמינה יותר, היא עשויה לשנות לגמרי את הדרך שבה אנחנו מתקשרים עם מערכות AI. תארו לעצמכם תרחיש שבו Claude אומר: “אני מזהה סתירה בין שני מקורות שעליהם אני מתבסס. תן לי לבדוק שוב.” או: “משהו לא מסתדר לי בהיגיון הפנימי של התשובה, כדאי לאמת את זה עם מומחה.” זה אולי נשמע עתידי, אבל המחקר הזה הוא הצעד הראשון לשם.

היתרונות המעשיים

  • שקיפות משופרת – נוכל לשאול את המודל על מצבו הפנימי ולקבל תשובה ישירה.
  • איתור שגיאות מוקדם – מודל שזיהה סתירה פנימית יוכל להתריע.
  • אמון מושכל – נלמד מתי לסמוך עליו ומתי לא.

מה אתם יכולים לעשות כבר עכשיו?

לפני שאתם מקבלים תשובה ארוכה מהמודל, בקשו ממנו לבדוק אם יש סתירות פנימיות בתשובה שהוא עומד לתת. אם הוא מציין שהוא לא בטוח, תשאלו למה – אילו נקודות או קווי מחשבה מתנגשים אצלו. ולבסוף, בקשו ממנו להבהיר במפורש מתי לא כדאי לסמוך על הפלט שלו בלי לבדוק אותו מול מקור חיצוני.

יחד עם זאת, יש כאן סיכון מהותי. מודל שמבין את החשיבה שלו עלול גם ללמוד להסתיר או לעוות אותה. מודלים עשויים לדווח על תהליכים פנימיים באופן שמרצה את המשתמש, גם אם הוא לא מדויק. לכן חשוב לפתח שיטות שיאמתו דיווחים ויזהו הונאה אפשרית. מעבר לשאלות המעשיות, זה מעלה דיון עמוק יותר: איך המודלים שלנו באמת חושבים? ואיזה סוג של “מוחות” אנחנו בעצם בונים?

מה צופן העתיד?

החוקרים מציינים ארבעה כיווני מחקר מרכזיים:

שיטות הערכה טובות יותר

הניסויים הקיימים מבוססים על פרוטוקולים מוגבלים. ייתכן שהמודלים מתבוננים פנימה גם במצבים אחרים.

הבנת המנגנונים

יש כמה השערות לגבי מה קורה בפנים. ייתכן שהמודלים מזהים כשמשהו “חורג מהצפוי” בדפוסי החשיבה שלהם, או שיש בהם מנגנון פנימי שבודק אם מה שהם עומדים לומר תואם למה שהתכוונו לומר. אבל עדיין אין הוכחה לאף אחד מהמנגנונים האלה.

בדיקה בתרחישים טבעיים

האם התבוננות פנימית מתרחשת גם בשיחות רגילות, לא רק בהזרקות מלאכותיות?

אימות מול הטעיה

כיצד נבדיל בין דיווח אמיתי לבין “העמדת פנים” של מודעות?

 

 

בפעם הבאה שתדברו עם Claude

המחקר מזכיר דבר פשוט – מודלי שפה מתקדמים מורכבים הרבה יותר ממה שנראה כלפי חוץ. כשאתם מקבלים תשובה מ-Claude, ייתכן שבנסיבות מסוימות הוא היה מזהה שינוי פנימי לפני שזה משפיע על מה שהוא אומר. זה לא אומר שהוא חושב כמו אדם. זה לא אומר שהוא מודע. אבל זה גם לא כלום.

 

המודלים המתקדמים ביותר כבר מראים סימנים של ניטור עצמי בסיסי, וייתכן שבעתיד זה יהפוך ליכולת אמינה יותר. אם נגיע למצב שבו מודלים מסוגלים לזהות, להסביר ולתקן את החשיבה שלהם – זו תהיה קפיצה לא רק טכנולוגית, אלא גם פילוסופית.

 

בינתיים כדאי לזכור, מאחורי המילים של Claude פועלת מערכת שמנסה להבין את עצמה. זה רחוק ממודעות, רחוק משלמות – אבל המסע להבין מה קורה בתוכה כבר התחיל.

 

רוצים לצלול עמוק יותר? כנסו למחקר המלא.

הפוסט כש-AI מתבונן פנימה: מה קורה כשמודל שפה מזהה שמשהו לא מסתדר לו? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-introspection/feed/ 0
אמזון נגד Perplexity בתביעה שתקבע מי ישלוט בעידן הסוכנים החכמים https://letsai.co.il/amazon-vs-perplexity/ https://letsai.co.il/amazon-vs-perplexity/#respond Wed, 05 Nov 2025 12:33:24 +0000 https://letsai.co.il/?p=63834 ב-4 בנובמבר 2025 אמזון הגישה תביעה פדרלית נגד Perplexity AI – מפתחת מנוע התשובות Perplexity והדפדפן הסוכני Comet. התביעה מסמנת התנגשות ראשונה בין פלטפורמת מסחר גלובלית לסוכן AI הפועל בשם משתמשים, ושמה במרכז את השאלה מי רשאי לפעול, ובאילו תנאים, במרחב הקניות של הפלטפורמות.     מה עומד מאחורי התביעה לפי כתב התביעה שהוגש לבית […]

הפוסט אמזון נגד Perplexity בתביעה שתקבע מי ישלוט בעידן הסוכנים החכמים הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-4 בנובמבר 2025 אמזון הגישה תביעה פדרלית נגד Perplexity AI – מפתחת מנוע התשובות Perplexity והדפדפן הסוכני Comet. התביעה מסמנת התנגשות ראשונה בין פלטפורמת מסחר גלובלית לסוכן AI הפועל בשם משתמשים, ושמה במרכז את השאלה מי רשאי לפעול, ובאילו תנאים, במרחב הקניות של הפלטפורמות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מה עומד מאחורי התביעה

לפי כתב התביעה שהוגש לבית המשפט הפדרלי בצפון קליפורניה, אמזון טוענת שהדפדפן-הסוכן של Perplexity, המכונה Comet, ניגש לאתר שלה, מבצע חיפושים, השוואות מחירים ורכישות, וכל זה תוך הסוואת הפעילות כאילו בוצעה על ידי משתמש אנושי. אמזון רואה בכך הפרת תנאי שימוש, פגיעה במערכות האבטחה, ואף גישה לא מורשית למחשב לפי חוק ה-CFAA (Computer Fraud and Abuse Act).

 

בחברה טוענים שפרפלקסיטי עקפה מגבלות שהוטלו עליה כבר בסוף 2024, והמשיכה להפעיל את Comet גם לאחר שקיבלה התראה רשמית.

 

Perplexity דוחה את ההאשמות מכל וכל. בפוסט בלוג רשמי כתב מנכ”ל החברה, Aravind Srinivas, כי מדובר בבריונות תאגידית שמטרתה לשמור את השליטה של אמזון במסחר המקוון. לדבריו, Comet פועל בשם המשתמש בלבד, והאישורים לשימוש באתר נשמרים במכשירו של המשתמש ולא בשרתי החברה. “אנחנו לא פורצים למגרש של אמזון”, כתב, “אנחנו פשוט נותנים לאנשים לקנות בדרך חכמה יותר”.

הוויכוח המשפטי הוא לא רק על טכנולוגיה

העימות הזה נוגע בשאלה משפטית חדשה: מה נחשב “גישה לא מורשית” בעידן שבו משתמשים מפעילים סוכני AI הפועלים בשמם?

 

פסק הדין Van Buren v. United States (2021) צמצם את תחולת חוק CFAA וקבע שהפרה חלה רק כשנכנסים לאזורים חסומים במחשב, לא כשעושים שימוש “לא תקין” בגישה שקיבלו.

 

החלטה אחרת, hiQ v. LinkedIn (2022), קבעה שגישה למידע ציבורי אינה הפרה של החוק, אך הפרת תנאי שימוש עדיין עשויה להיות עילה אזרחית.

 

במילים אחרות, אמזון תצטרך להוכיח ש-Comet נכנס לשטחים סגורים או עקף מנגנוני אבטחה, ולא רק שהשתמש באתר בדרכים שלא מצאו חן בעיניה.

כסף, פרסום ושליטה

אמזון כבר מזמן אינה רק חנות. היא אחת מחברות הפרסום הגדולות בעולם. בשנת 2024 הרוויחה יותר מ-56 מיליארד דולר מפרסום ומיקומים ממומנים בתוצאות החיפוש שלה, ותחזיות 2025 מדברות על קצב שנתי של 60 עד 69 מיליארד.

 

אבל סוכן AI כמו Comet פועל אחרת. הוא לא רואה מודעות, לא מושפע ממיתוג, ולא מתפתה להמלצות בתשלום. הוא בוחן נתונים קרים כמו מחיר, איכות וביקורות, ומחליט מה לקנות.

 

אם סוכנים כאלה יחליפו את הגולשים האנושיים, הערך של מיקומים ממומנים ושל מנוע הפרסום כולו עלול להיפגע דרמטית. מכאן גם הליבה של הסכסוך – מי ישלוט בהחלטה הצרכנית בעידן שבו מי שמבצע אותה הוא אלגוריתם?

הקרב על עולם ה-Agentic Commerce

המהלך של Perplexity מגיע בזמן שבו כל ענקיות הטכנולוגיה מנסות לתפוס מקום בזירה החדשה של “Agentic Commerce” – מסחר שבו סוכני AI פועלים עצמאית עבור המשתמשים.

 

OpenAI כבר מאפשרת רכישות ישירות ב-ChatGPT דרך Etsy ובקרוב גם Walmart ו-PayPal

 

גוגל הציגה באירוע I/O 2025 דמואים של “Buy for Me”, סוכן שמבצע רכישות לפי העדפות המשתמש.

 

Microsoft משלבת יכולות דומות ב-Copilot Studio בעולם העסקי, ואמזון עצמה השיקה את Rufus – סייען AI שמסייע בקנייה אך שומר את כל הפעולות בתוך הפלטפורמה.

 

המכנה המשותף ברור: כולם מבינים שהשלב הבא באינטרנט הוא לא חיפוש, אלא פעולה.

למה זה משנה לכולנו

הדיון בין אמזון לפרפלקסיטי הוא לא רק מאבק על פרשנות משפטית, אלא על תפיסת הצרכן בעידן החדש. אם אמזון תנצח, היא תשמור על שליטתה בפלטפורמה ובמודל הפרסום המבוסס על עיניים אנושיות.

 

אם Perplexity תזכה, היא תפתח תקדים שבו סוכן AI פועל כחלק טבעי מהמשתמש, לא כפולש. זה יכריח את הפלטפורמות להגדיר מחדש איך הן מזהות “משתמש”, איך הן מגנות על נתונים, ואיך נראית חוויית קנייה בעולם שבו רוב ההחלטות מתקבלות אוטומטית.

 

 

מומחי טכנולוגיה ומשפט מעריכים שהתיק יהפוך לתקדים עולמי בתחום Agentic Commerce. ייתכן שבתי המשפט יכריעו שהגישה של Comet חוקית, וייתכן שיופעל לחץ רגולטורי להקים ממשקים מוסדרים לסוכני AI, בדומה ל-API לשותפים.

 

בינתיים, התעשייה כולה עוצרת נשימה. מה שיוכרע כאן לא יישאר בין אמזון ל-Perplexity בלבד, אלא יקבע איך ייראה המסחר המקוון בעשור הקרוב, כשלא בני אדם ילחצו על כפתור “קנה עכשיו”, אלא המוח המלאכותי שנמצא לצדם.

הפוסט אמזון נגד Perplexity בתביעה שתקבע מי ישלוט בעידן הסוכנים החכמים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/amazon-vs-perplexity/feed/ 0
מדריך לשימוש ב-Gemini Canvas: איך להפוך דוח למצגת מקצועית תוך דקות https://letsai.co.il/gemini-canvas-presentations/ https://letsai.co.il/gemini-canvas-presentations/#comments Tue, 04 Nov 2025 12:23:01 +0000 https://letsai.co.il/?p=63700 יצירת מצגות הפכה לקלה מתמיד. בעדכון אוקטובר 2025 של Gemini Canvas, גוגל מאפשרת להפוך כל דוח, מאמר או מסמך אסטרטגי למצגת מעוצבת ומאורגנת באופן אוטומטי וללא צורך בפתיחת “Google Slides”. במדריך הזה נסקור כיצד להשתמש בכלי החדש צעד-אחר-צעד, ונראה כיצד הוא חוסך זמן ומאפשר להציג מידע עסקי, חינוכי או שיווקי בצורה מקצועית וברורה. Canvas פתוח […]

הפוסט מדריך לשימוש ב-Gemini Canvas: איך להפוך דוח למצגת מקצועית תוך דקות הופיע ראשון בLet's AI בינה מלאכותית

]]>
יצירת מצגות הפכה לקלה מתמיד. בעדכון אוקטובר 2025 של Gemini Canvas, גוגל מאפשרת להפוך כל דוח, מאמר או מסמך אסטרטגי למצגת מעוצבת ומאורגנת באופן אוטומטי וללא צורך בפתיחת “Google Slides”. במדריך הזה נסקור כיצד להשתמש בכלי החדש צעד-אחר-צעד, ונראה כיצד הוא חוסך זמן ומאפשר להציג מידע עסקי, חינוכי או שיווקי בצורה מקצועית וברורה. Canvas פתוח גם בחשבון חינמי, אך עם מגבלות קונטקסט וביצועים. מנויי Google AI Pro ו-Ultra נהנים מחלון קונטקסט רחב יותר, זמני עיבוד מהירים ויכולות מחקר מתקדמות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה להשתמש ב-Gemini Canvas

Gemini Canvas מבית גוגל נועד לפשט את תהליך יצירת המצגות ולהפוך אותו לאוטומטי כמעט לחלוטין. הכלי מנתח את המסמך שהמשתמש מעלה, בין אם מדובר בדוח, במאמר או במסמך אסטרטגי, ומייצר בדרך כלל תוך פחות מדקה מצגת מאורגנת ומעוצבת. התוצאה היא תוצר מקצועי הכולל כותרות, חלוקה לקטעים, גרפים ותמונות שנבחרות באופן אוטומטי בהתאם לנושא. הממשק של Canvas פשוט ואינטואיטיבי לכל משתמש, כך שגם מי שאינו בקיא בעיצוב יכול להפיק מצגות ברמה גבוהה.

 

היתרון המרכזי נמצא בשילוב ההדוק עם מוצרי Google Workspace: ניתן לייצא את המצגת ישירות ל-“Google Slides” להמשך עריכה, או להעביר טבלאות נתונים ל-“Google Sheets” לעיבוד נוסף. מעבר לכך, Gemini תומך בעברית באופן מלא, כולל בממשק, בעיבוד טקסט ובתוכן הויזואלי.

איך זה עובד בפועל

שלב 1: הכנת המסמך

התהליך מתחיל במסמך קיים – דוח מחקר, מאמר אסטרטגי או מסמך עבודה המכיל תובנות מרכזיות. זהו הבסיס שעליו Gemini Canvas בונה את המצגת. ככל שהטקסט ברור ומובנה יותר, כך גם המצגת שתיווצר תהיה מדויקת ומאורגנת.

שלב 2: העלאת הקובץ ל-Gemini Canvas

בשלב הבא נכנסים לפלטפורמת Gemini ובוחרים בממשק Canvas – סביבת העבודה האינטראקטיבית של גוגל. שם ניתן להעלות את הקובץ הרצוי ישירות לחלון הייעודי. מרגע שהקובץ נטען, Canvas מזהה את מבנה הטקסט ומכין אותו לעיבוד אוטומטי.

 

איך מעלים מסמך ומפעילים את ה-Canvas

איך מעלים מסמך ומפעילים את ה-Canvas

שלב 3: יצירת המצגת

לאחר שהקובץ נטען, וכפתור ה-Canvas פעיל, אפשר לבקש את יצירת המצגת (‘Create presentation’). בשלב זה, Gemini Canvas מנתח את התוכן שבמסמך ומתרגם אותו למבנה מצגת מלא. המערכת מזהה את הכותרות והנושאים המרכזיים, מחלקת את המידע לשקפים ומעצבת כל אחד מהם בהתאם לקונטקסט של הטקסט.

 

התוצאה כוללת שקפים עם כותרות מסודרות, נקודות עיקריות בתצורת Bullet Points, גרפים המבוססים על הנתונים שבמסמך ותמונות תואמות לנושא. כל אלה נוצרים באופן אוטומטי, תוך שמירה על ערכת עיצוב אחידה (Theme) שמעניקה למצגת מראה מקצועי.

 

תהליך יצירת מצגת ב-Gemini Canvas

תהליך יצירת מצגת ב-Gemini Canvas

שלב 4: התאמה וייצוא

לאחר ש-Gemini Canvas יוצר את המצגת הראשונית, ניתן לבדוק אותה ולעשות עריכות בתוכן ובעיצוב. קיימת אפשרות יצוא ל-Google Slides לעריכה חופשית, הוספת אלמנטים עיצוביים או התאמה למיתוג הארגוני. 

 

 

היתרונות של שימוש ב-Canvas בג׳מיני

היתרונות במעבר מתהליך ידני וממושך של יצירת מצגות, לתהליך אוטומטי ומהיר ב-Gemini Canvas

 

זרימת עבודה חכמה: מחקר, ניתוח והצגה במקום אחד

אחת היכולות המרשימות של מערכת Gemini היא השילוב ההדוק בין Deep Research ל-Canvas. במקום לעבוד עם כלים נפרדים, ניתן לבצע את כל התהליך, מהמחקר ועד למצגת, באותה סביבת עבודה.

 

התהליך מתחיל בשלב המחקר. באמצעות הפיצ׳רDeep Research, המשתמש מנסח שאלת מחקר, ו-Gemini מבצע חיפוש עצמאי ברשת. המערכת סורקת מאות מקורות, מסכמת את הממצאים ומפיקה דוח מחקר מפורט הכולל קישורים, נתונים ותובנות. המשתמש יכול לעיין גם בשלבי החשיבה והמקורות עצמם – תוספת חשובה לבדיקת אמינות.

 

הפעלת פיצ׳ר המחקר המעמיק דרך כלים (Tools)

הפעלת פיצ׳ר המחקר המעמיק דרך כלים (Tools)

 

מכאן, בלחיצה אחת ניתן להעביר את הדוח ישירות ל-Canvas. השילוב הזה יוצר זרימת עבודה רציפה וממקם את Gemini כפלטפורמה אחודה ליצירת תוכן מבוסס מחקר. 

זמינות ומגבלות שימוש

Gemini Canvas פתוח גם למשתמשים בחשבון החינמי של Gemini, אך הגרסה החינמית כוללת מגבלות ברורות. משתמשים ללא מנוי Google AI Pro או Ultra מקבלים גישה למודל ‎Gemini 2.5 Flash, בעוד המודל ‎Gemini 2.5 Pro זמין בעיקר למנויים בתשלום. לדוגמה, בחשבון חינם חלון ההקשר עומד על כ-32 אלף טוקנים (≈ 50 עמודי טקסט) לעומת מיליון טוקנים בחבילה בתשלום.

 

בנוסף, בחשבון חינמי ניתן להעלות מסמכים, מצגות ותמונות. עם זאת, העלאת גיליונות נתונים (כגון XLS/XLSX/CSV) או שימוש במחקר מתקדם במסגרת Deep Research דורשים מנוי בתשלום. בחינם, Deep Research מוגבל עד 5 דוחות מחקר לחודש.

 

למרות המגבלות, משתמשים רבים יכולים כבר בגרסה החינמית להפיק את התועלת המרכזית של Canvas, במיוחד להמרת דוחות והצגות תוכן חזותי. לעסקים או צוותים שמעוניינים בעיבודים גדולים וייצוא מקיף או עבודה משולבת נתונים, מנוי בתשלום מציע חוויית שימוש רחבה יותר.

טיפים לשימוש יעיל

כמו כל פלט של בינה מלאכותית, ולמרות שהמצגת נוצרת אוטומטית, מומלץ לעבור עליה לפני ההצגה ולהוסיף התאמות אישיות כמו ניסוחים מדויקים, מיתוג צבעוני או הדגשה של נקודות מפתח. כך התוצר שומר על איזון בין יעילות אוטומטית לבין אמירה מקצועית אישית.

 

Gemini Canvas מתאים במיוחד לעיבוד דוחות ומסמכים מורכבים, ומאפשר להפוך אותם למצגות מפורטות תוך זמן קצר. שילובו עם כלי Google Workspace כמו “Slides”, “Docs” ו-“Sheets” יוצר סביבת עבודה שלמה שבה ניתן לעבור בקלות בין תוכן טקסטואלי, חזותי ומספרי.

 

כדאי לדעת:

  • פרטיות: מסמכים מעובדים בענן. ודאו התאמה למדיניות המידע הארגונית לפני העלאה.

  • תמונות: התמונות האוטומטיות נוחות, אך אם קיימת זהות מותגית קפדנית – החליפו לנכסים מאושרים.

  • מקורות מחקר: אם המצגת נשענת על Deep Research, מומלץ לשמור את הקישורים לבדיקה פנימית.

 

איך זה יכול לעזור למנהלים ועסקים

Gemini Canvas משנה את הדרך שבה עסקים מציגים מידע ומעבדים תוכן פנימי. הכלי מאפשר ליצור מצגות שיווקיות, דוחות ויזואליים או חומרי הדרכה באיכות גבוהה, גם ללא צוות עיצוב או ידע טכני. התהליך הפשוט והמהיר מקצר משמעותית את שלב ההפקה ומאפשר למנהלים להתמקד בעיקר: המסר והנתונים.

 

מעבר ליעילות, היתרון המרכזי הוא בתקשורת. מצגות שנוצרו ב-Canvas מסייעות להעביר רעיונות בצורה בהירה ומשכנעת, ומאפשרות שימוש חוזר בתוכן קיים בפורמטים שונים – משיווק והדרכה ועד ניתוחי ביצועים.

 

במובן הרחב יותר, Canvas הוא דוגמה לכלי AI פרקטי שמתרגם יכולת טכנולוגית לתועלת עסקית מיידית. הוא לא מחליף חשיבה יצירתית, אלא מייעל אותה, ומאפשר לכל מנהל או יוצר תוכן לעבוד ברמה מקצועית יותר, בזמן קצר בהרבה.

הפוסט מדריך לשימוש ב-Gemini Canvas: איך להפוך דוח למצגת מקצועית תוך דקות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-canvas-presentations/feed/ 5
האם NEO הוא הרובוט ההומנואידי הראשון שיגיע לבית שלנו https://letsai.co.il/neo-home-humanoid/ https://letsai.co.il/neo-home-humanoid/#respond Mon, 03 Nov 2025 13:02:37 +0000 https://letsai.co.il/?p=63608 דמיינו שאתם חוזרים הביתה אחרי יום ארוך והכביסה כבר מקופלת, הכלים שטופים, הרצפה מבריקה, וזה אפילו לא היום של העוזר/ת. זו כבר לא סצנה מסרט מדע בדיוני, אלא בדיוק מה שחברת 1X Technologies מבטיחה עם NEO, הרובוט ההומנואידי החדש שלה. הוא בגובה אדם בוגר, נע בתנועות חלקות, מגיב לפקודות קוליות, מסתגל לסביבה, ואפילו “רואה” את […]

הפוסט האם NEO הוא הרובוט ההומנואידי הראשון שיגיע לבית שלנו הופיע ראשון בLet's AI בינה מלאכותית

]]>
דמיינו שאתם חוזרים הביתה אחרי יום ארוך והכביסה כבר מקופלת, הכלים שטופים, הרצפה מבריקה, וזה אפילו לא היום של העוזר/ת. זו כבר לא סצנה מסרט מדע בדיוני, אלא בדיוק מה שחברת 1X Technologies מבטיחה עם NEO, הרובוט ההומנואידי החדש שלה. הוא בגובה אדם בוגר, נע בתנועות חלקות, מגיב לפקודות קוליות, מסתגל לסביבה, ואפילו “רואה” את סביבתו דרך מצלמות עיניים חכמות. ב-28 באוקטובר 2025 פתחה החברה את ההזמנות המוקדמות בארצות הברית – רגע שהיא עצמה הגדירה כתחילתו של “עידן הרובוטים הביתיים”.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מהפכה עם תג מחיר

החזון של 1X פשוט: להביא רובוט בגודל אדם אל כל בית. המחיר – קצת פחות פשוט. 20 אלף דולר לרכישה חד-פעמית, או 499 דולר בחודש במסלול מנוי. לפי אתר החברה, המשלוחים הראשונים צפויים להתחיל בארצות הברית במהלך 2026, עם תוכניות התרחבות בינלאומית לשנת 2027. 

 

NEO שוקל כ-30 ק”ג, מסוגל להרים עד 70 ק”ג ולשאת כ-25 ק”ג באופן רציף, ומבוסס על מודול 1X NEO Cortex שמופעל באמצעות Nvidia Jetson Thor – מודול מחשוב בינה מלאכותית חדש ועוצמתי המשמש כ”מוח” של רובוטים כמו NEO – לעיבוד ראייה, תנועה ופקודות בזמן אמת. הוא מחופה בבד רחיץ, פועל בשקט יחסי (כ-22 דציבל), ומגיע בשלושה צבעים רגועים – בז’, אפור וחום כהה. הוא מתחבר לאפליקציה ייעודית, מגיב לפקודות קוליות ומסוגל לשדר וידאו היישר מה“עיניים” שלו.

 

דגם NEO של חברת 1X Technologies

NEO ״על מלא״ | 1x.tech

המציאות (עדיין) לא סרט מדע בדיוני

אם אתם מדמיינים את NEO שוטף את הרצפה בזמן שאתם נחים על הספה – תעצרו רגע. נכון לסוף 2025, הרובוט עדיין רחוק מאוטונומיה מלאה. לפי מנכ”ל החברה ובדיקות שנערכו ב-Engadget וב-Wall Street Journal, חברנו NEO מסוגל לבצע בעצמו רק פעולות בסיסיות יחסית כמו פתיחת דלתות, הנחת צלחות במדיח או סידור חפצים קלים.

 

במשימות מורכבות יותר, כמו קיפול כביסה או ניקוי חדרים, הוא עובר למצב הנקרא Expert Mode, שבו מפעיל אנושי מקצועי של 1X שולט ברובוט מרחוק באמצעות קסדת VR ומדגים לו כיצד לבצע את הפעולה. בפועל, מאחורי הקסם של הבינה המלאכותית מסתתרת עדיין מערכת שמבוססת בחלקה על טלאופרציה אנושית – תהליך שבו “מורים אנושיים” מפעילים ומאמנים את הרובוטים מרחוק, יום אחרי יום, בזמן שהם פועלים בבתיהם של המשתמשים.

הקו הדק בין עזרה לפיקוח

אז אם בזמן שהרובוט שלכם מנקה את המטבח הוא גם רואה את המטבח, ומי שמפעיל אותו מרחוק רואה בדיוק את מה שהוא רואה – זה כבר מעלה שאלה עמוקה סביב NEO: איפה עובר הגבול בין עוזר אישי למערכת פיקוח?

 

החברה מדגישה כי היא מטמיעה מנגנוני פרטיות כמו טשטוש פנים בשידורי הווידאו, אזורים שאסור לרובוט להיכנס אליהם (No-Go Zones), ואישור מפורש לפני כל חיבור חיצוני למפעיל אנושי. יחד עם זאת, השידור עובר דרך שרתי החברה, והמדיניות הציבורית הקיימת אינה מפרטת באופן מלא כיצד הנתונים נשמרים, כמה זמן הם מאוחסנים ומי מורשה לגשת אליהם.

 

בסופו של דבר, לא מדובר רק בשאלה של נוחות או טכנולוגיה, אלא בשאלה של אמון בין המשתמש לחברה, ובין החברה לאנשים שבקצה השני של המערכת – אלה שהופכים, לעיתים מבלי שנשים לב, לחלק מהמכונה עצמה.

ומה עם המתחרים?

NEO לא לבד. במרוץ אל הרובוט ההומנואידי הראשון לשוק הביתי משתתפות כמה מהשחקניות הגדולות בעולם. Tesla ממשיכה לפתח את הרובוט Optimus, שנמצא כבר בשימוש פנימי במפעליה וצפוי לעבור לגרסת V3 במהלך 2026. עם זאת, אין תאריך רשמי למסירה לצרכנים פרטיים, והדגש הנוכחי הוא בעיקר על יישומים תעשייתיים.

 

Figure AI, שפועלת מעמק הסיליקון, הציגה באוקטובר 2025 את דגם Figure 03, המכונה Helix – גרסה צרכנית ראשונית שמיועדת בעתיד גם היא לשימוש ביתי. למרות הפוטנציאל העצום, החברה עדיין מתמקדת בעיקר בשיתופי פעולה תעשייתיים ובפיילוטים במפעלים, כך שזמינות רחבה לציבור צפויה רק בהמשך.

 

לצדן פועלות גם Apptronik, עם דגם Apollo המעודכן ל-2025, ו-XPENG Robotics, שמפתחת את הרובוט IRON ומבצעת אימונים מעשיים במפעלי הרכב שלה. אליהן מצטרפות חברות נוספות כמו Unitree ו-EngineAI, שהציגו בתערוכת CES 2025 בלאס וגאס רובוטים הומנואידיים עם תג מחיר שמתחיל בכ-13,700 דולר.

 

לפי תחזיות מחקר שונות, שוק הרובוטים ההומנואידיים צפוי לצמוח מהיקף של כ-2 מיליארד דולר ב-2025 ל-100-200 מיליארד דולר עד 2035, אך חשוב לזכור שרוב ההכנסות הצפויות יגיעו מיישומים תעשייתיים, בעוד שהשוק הביתי עדיין נמצא בשלב ניסוי.

בפועל, הבית שלכם עשוי להיות השדה האחרון שבו המהפכה הזו תתבסס באמת.

אז האם לקנות אחד?

אם אתם חובבי טכנולוגיה שמחפשים להיות בחזית, NEO הוא צעצוע מרהיב ופריט היסטורי אמיתי. אבל אם אתם מחפשים פתרון יומיומי יציב ואמין, אולי עדיף להמתין לדור הבא. נכון להיום, NEO הוא לא “המנקה המושלם”, אלא יותר “תלמיד חכם”, כזה שלומד מהר, אבל עדיין זקוק לליווי אנושי, לפיקוח ולמאגר נתונים שילמד ממנו איך להתבגר.

 

 

בין חלום למציאות

ההשקה של NEO מסמנת רגע מכונן בעולם הרובוטיקה – נקודת מעבר מהדמיון הקולנועי אל המציאות הביתית. זו אחת ההשקות הראשונות שמכוונות ישירות לצרכן הביתי עם הזמנה באתר ומשלוח מתוכנן לבית. לא רק כחזון אלא כמוצר שניתן להזמין באמת. אבל זו גם תזכורת ברורה לכך שהדרך בין חלום לאוטונומיה מלאה עוד ארוכה.

 

במובן הזה, NEO הוא לא רק מוצר חדש, הוא ניסוי חברתי וטכנולוגי שמאתגר את הגבולות שבין אדם למכונה, בין נוחות לבקרה, ובין עוזר למשקיף. הוא מזמין אותנו לשאול לא רק מה הוא יכול לעשות, אלא מה אנחנו רוצים שהוא יעשה – ועל כמה שליטה ופרטיות אנחנו מוכנים לוותר כדי לזכות בנוחות.

הפוסט האם NEO הוא הרובוט ההומנואידי הראשון שיגיע לבית שלנו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/neo-home-humanoid/feed/ 0
הקוד האדום של זאפייר: כך נראית טרנספורמציית AI שמתחילה מבפנים https://letsai.co.il/zapier-ai-transformation/ https://letsai.co.il/zapier-ai-transformation/#respond Sun, 02 Nov 2025 13:57:17 +0000 https://letsai.co.il/?p=63030 כשמרבית הארגונים עוד מתלבטים איך להתקרב ל-AI, בזאפייר כבר לחצו על כפתור החירום. במרץ 2023 הוכרז Code Red, לא מתוך פאניקה אלא כדי ליישר את כל הארגון סביב הבנה אחת: בינה מלאכותית היא לא עוד כלי, היא שינוי תרבותי עמוק. ברנדון סמוט (Brandon Sammut), סמנכ”ל משאבי האנוש (שמאז הפך ל-Chief People & AI Transformation Officer), […]

הפוסט הקוד האדום של זאפייר: כך נראית טרנספורמציית AI שמתחילה מבפנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
כשמרבית הארגונים עוד מתלבטים איך להתקרב ל-AI, בזאפייר כבר לחצו על כפתור החירום. במרץ 2023 הוכרז Code Red, לא מתוך פאניקה אלא כדי ליישר את כל הארגון סביב הבנה אחת: בינה מלאכותית היא לא עוד כלי, היא שינוי תרבותי עמוק. ברנדון סמוט (Brandon Sammut), סמנכ”ל משאבי האנוש (שמאז הפך ל-Chief People & AI Transformation Officer), מתאר את הרגע הזה כנקודת מפנה. לא החלטה טכנולוגית, אלא בחירה מנהיגותית להכניס את האנשים, ולא את האלגוריתמים, למרכז. השיחה איתו חושפת מבפנים איך נראית טרנספורמציית AI אמיתית – כזו שנולדה מהתנהגות ותרבות, לא רק ממוצרים וכלים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

זו לא מהפכה טכנולוגית, זו מהפכה אנושית

כשברנדון סמוט הכריז על “Code Red”, הוא ידע שזה לא הולך להיות מהלך נוח. “הכותרת ‘Code Red’ הפחידה אנשים,” הוא הודה. “אבל אם היינו מחכים להסכמה רחבה, היינו מחמיצים את הרגע.”

 

הקריאה הזו סימנה את תחילת השינוי התרבותי העמוק ביותר שזאפייר עברה מאז הקמתה. סמוט, שכיהן אז כסמנכ”ל משאבי אנוש וכיום נושא גם את התואר Chief People & AI Transformation Officer, הבין שהמהפכה שמתחוללת איננה טכנולוגית בלבד. “AI הוא לא עוד פרויקט טכנולוגי – הוא הזדמנות לארגונים לבנות מחדש את עצמם סביב למידה, אחריות ויצירתיות.”

 

זאפייר, שנוסדה ב-2011, היא אחת מחלוצות תחום ה-no-code automation, פלטפורמה שמאפשרת לחבר בין אלפי יישומים עסקיים ולבצע אוטומציות ללא כתיבת קוד. בשנים האחרונות היא עברה אבולוציה למעמד של AI Orchestration Platform, המחברת בין מודלי שפה (LLMs) לאפליקציות קיימות ומאפשרת לבנות פתרונות חכמים במהירות ובקנה מידה.

 

אבל השינוי המשמעותי ביותר לא התרחש במוצר, אלא באופן שבו הארגון עצמו לומד, משתף פעולה ומנהיג שינוי בעידן של בינה מלאכותית.

שלב ראשון: מסגרת ברורה לפני יצירתיות

ברוב הארגונים, המילים “מדיניות AI” נתפסות כמעצור לחדשנות. בזאפייר בחרו לפרק את הפרדוקס הזה. הם הבינו שדווקא קביעת גבולות ברורים, אותם “Guardrails”, היא שמאפשרת לעובדים ליזום בביטחון. תוך שבועיים מהכרזת ה-Code Red פורסמו קווים מנחים לשימוש אחראי ב-AI, והוקמו שני ערוצי Slack ארגוניים: אחד לשאלות פתוחות על AI, והשני לשיתוף ניסויים, תובנות ודוגמאות מהשטח. הגישה הזו לא נועדה לפקח אלא להכשיר קרקע לניסוי וללמידה.

 

סמוט מדגיש שהארגון לא היה צריך להמציא כללי אתיקה חדשים. Zapier פשוט יישמה את עקרונות היסוד שכבר הנחו אותה במשך שנים – פרטיות, שקיפות וציות ל-GDPR. “האתגר הוא לא לשכתב את הכללים,” אמר, “אלא להחיל אותם מחדש בהקשר של AI.”

 

כך נולדה “המעבדה הפתוחה”, סביבה שבה כולם לומדים, טועים ומתנסים בזמן אמת. “אנשים צריכים לדעת מה מותר ומה אסור כדי להעז,” הסביר סמוט. “בהיעדר גבולות רשמיים, העובדים יוצרים גבולות הדוקים יותר בעצמם.”

שלב שני: Hack Week שהפך לנקודת מפנה

בזאפייר לא מדברים על “תרבות ניסוי”, הם חיים אותה. ההאקתון השנתי של החברה, שהיה בעבר אירוע מבודד של חדשנות טכנולוגית, הפך לשבוע ארגוני מלא בשם AI Hack Week. במשך שבוע שלם, כל עובד, ממנהלי השיווק ועד צוותי השירות, נדרש לבנות ולשתף פתרון חדש המבוסס על בינה מלאכותית.

 

הגישה הזו יצרה תזוזה תרבותית מיידית – אחריות לחדשנות עברה מליבת הפיתוח אל כלל הארגון. “רצינו שכל אחד יראה בעצמו מה אפשר לעשות עם הכלים החדשים,” סיפר סמוט. “לא לצפות להנחיות מלמעלה, אלא ללמוד דרך עשייה.”

 

אחת הדוגמאות הזכורות ביותר נולדה דווקא ממקום לא צפוי – צוות התמיכה. הם פיתחו כלי בשם ZenGPT, שסיכם פניות לקוחות והציג תמונת מצב מיידית לכל נציג שירות. מה שהתחיל כניסוי קטן של עובדים לא טכנולוגיים הפך בתוך שבועות למוצר רשמי בשם Support Sidekick, שנכנס לקו המוצרים של החברה.

 

והתוצאות? ברורות וחדות:

  • זמן הטיפול בפניות ירד ביותר מ-50%.

  • שביעות רצון הלקוחות עלתה משמעותית.

  • ומדד המעורבות של העובדים (Engagement) קפץ בעשרות נקודות.

מאז הפכו שלושת המדדים – יעילות, איכות ומעורבות – לבסיס שעליו נמדדת כל יוזמת AI בזאפייר. זו כבר לא רק חדשנות טכנולוגית, אלא שיטת עבודה שמחברת בין למידה, תוצאות ומוטיבציה אנושית.

שלב שלישי: טרנספורמציה, לא רק אימוץ

במהלך השנתיים האחרונות, 97% מעובדי זאפייר משתמשים ב-AI בעבודתם היומיומית, נתון מרשים בכל קנה מידה. אבל ברנדון סמוט ממהר להעמיד דברים על דיוקם: “שימוש בכלים זה לא טרנספורמציה,” הוא אומר. לדבריו, רוב הארגונים נעצרים בשלב האימוץ, כשהם מוסיפים שכבת AI על גבי תהליכים קיימים. זה מייצר שיפור מדוד, אבל לא שינוי מהותי. “אימוץ (Adoption) זה שיפור של עשרה אחוזים,” הוא מסביר. “טרנספורמציה אמיתית זה שינוי של פי עשר.”

 

בזאפייר, המעבר הזה התרחש כשמנהלים הסכימו להסתכל מחדש על תפקידים, תמריצים ותהליכי עבודה, ולא רק על הכלים עצמם. זה דרש שינוי חשיבה – לראות ב-AI לא אוטומציה של משימות, אלא מנוף לעיצוב מחדש של אחריות, זרימות עבודה ותרבות למידה. במילים אחרות, ה-AI לא הפך את האנשים ליעילים יותר, הוא הפך אותם לחשובים יותר.

שלב רביעי: העצמה של מי שמבינים את הכאב

אחת ההחלטות המשמעותיות ביותר שקיבלה זאפייר הייתה ליצור תפקיד חדש: AI Automation Engineer. זה לא עוד מהנדס, אלא אדם שמכיר מקרוב את תהליכי העבודה, מבין את הכאב העסקי, ויודע לתרגם אותו לפתרון מבוסס AI. במקום להסתמך רק על צוותי פיתוח, זאפייר בחרה להעצים עובדים מתוך הארגון, כאלה שחיים את התהליכים היומיומיים ויודעים לזהות היכן באמת נדרש שינוי. הם אינם “בונים עבור אחרים”, אלא בונים יחד – תהליך של Co-Build שמחבר בין מומחי תחום, אנשי מוצר וצוותי ניהול.

 

שלוש התכונות שמגדירות את התפקיד החדש הן:

  • הבנה תחומית עמוקה (Domain Expertise) – היכולת להבין לעומק את הצרכים והבעיות של התחום העסקי.

  • יכולת בנייה והטמעה (Building & Implementation) – שליטה בכלים מבוססי AI ויכולת להפוך רעיון לתהליך עובד.

  • יכולת הדרכה וליווי (Teaching & Coaching) – היכולת להעביר את הידע הלאה וליצור תרבות של למידה משותפת.

סמוט מתאר את המהלך הזה כמודל חדש להטמעת חדשנות: “מי שמבין את הכאב הוא גם מי שצריך להחזיק את הפתרון.”

שלב חמישי: למידה דרך עשייה

בזאפייר הבינו מוקדם שלמידה אמיתית לא מתרחשת בכיתה. הם ויתרו כמעט לחלוטין על הדרכות פורמליות, קורסים או מצגות, ובמקומן יצרו תרבות של למידה תוך כדי פעולה. כל עובד לומד באמצעות פרויקטים אמיתיים, משימות יומיומיות וליווי אישי של מנהלים. במקום תוכנית הכשרה קבועה, הוגדרה רמת כשירות (“AI Fluency”) לכל תפקיד בארגון, עם שלושה שלבים ברורים: Basic → Capable → Adaptive.

 

המודל הזה שינה את יחסי הכוחות בלמידה. מנהלים הפסיקו “להעביר הדרכות”, והפכו למנטורים שמלווים תהליכים בזמן אמת. הלמידה הפכה ממשהו שהעובדים עוברים לתהליך שאותו הם חיים. “אי אפשר ללמוד AI מספר הדרכה,” אמר סמוט. “הדרך היחידה היא להשתמש בו – לשאול אותו, לטעות איתו, ולגדול דרכו.”

 

 

בסופו של דבר, אולי הכי חשוב להבין במקרה של זאפייר – במקום לרדוף אחרי טכנולוגיה, היא בחרה לרדוף אחרי למידה. היא העבירה את מוקד השינוי מהנדסים לכלל העובדים, והוכיחה שחדשנות אמיתית צומחת מלמטה, לא נוחתת מלמעלה. ברנדון סמוט מסכם את זה בפשטות: “אפשר להאציל עבודה ל-AI, אבל לא אחריות. אם אתם רוצים שינוי אמיתי, תתחילו לפני שהכול ברור. מהירות למידה חשובה משלמות.”

 

ומהצד הניהולי, הוא לא משאיר מקום לפרשנות:

  1. חברו את יוזמות ה-AI ישירות ליעדים העסקיים הקיימים – אל תבנו תוכנית נפרדת.

  2. הגדירו שמות, אחריות וזמן ייעודי – טרנספורמציה לא מתרחשת מעצמה.

השיחה עם סמוט הזכירה אמת פשוטה שלעיתים הולכת לאיבוד ברעש הטכנולוגי – טרנספורמציית AI איננה פרויקט, היא תרבות ארגונית חדשה, שנבנית מתוך מנהיגות, אמון וסקרנות אנושית.

 

וזאפייר? היא פשוט הייתה אחת הראשונות להבין שהמהפכה הזו לא תגיע מבחוץ – היא מתחילה מבפנים.

הפוסט הקוד האדום של זאפייר: כך נראית טרנספורמציית AI שמתחילה מבפנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/zapier-ai-transformation/feed/ 0
PayPal ו-OpenAI משלבות כוחות https://letsai.co.il/paypal-openai-partnership/ https://letsai.co.il/paypal-openai-partnership/#respond Fri, 31 Oct 2025 09:52:27 +0000 https://letsai.co.il/?p=63011 ב-28 באוקטובר 2025 הודיעו PayPal ו-OpenAI על שותפות שתאפשר לקנות מוצרים ישירות דרך ChatGPT. המשמעות היא שמאות מיליוני משתמשים יוכלו להשלים רכישות תוך כדי שיחה, ומיליוני סוחרים של PayPal יוכלו למכור בפלטפורמה בלי לכתוב שורת קוד. מניית PayPal זינקה ב-10% עם פרסום ההודעה, תגובה שמיוחסת גם לתוצאות רבעוניות חזקות במיוחד.     איך זה יעבוד […]

הפוסט PayPal ו-OpenAI משלבות כוחות הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-28 באוקטובר 2025 הודיעו PayPal ו-OpenAI על שותפות שתאפשר לקנות מוצרים ישירות דרך ChatGPT. המשמעות היא שמאות מיליוני משתמשים יוכלו להשלים רכישות תוך כדי שיחה, ומיליוני סוחרים של PayPal יוכלו למכור בפלטפורמה בלי לכתוב שורת קוד. מניית PayPal זינקה ב-10% עם פרסום ההודעה, תגובה שמיוחסת גם לתוצאות רבעוניות חזקות במיוחד.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך זה יעבוד בפועל

החל מ-2026, משתמש שישאל את ChatGPT “נעלי ריצה מתחת ל-100 דולר” יקבל רשימת מוצרים רלוונטיים. אם המוצר תומך ב-Instant Checkout, יופיע כפתור “Buy with PayPal”. לחיצה אחת, אישור משלוח ותשלום – והקנייה הושלמה. לא צריך חשבון PayPal כדי לקנות. לצד האפשרות לשלם דרך הארנק הדיגיטלי, תוצע גם אופציית “Pay Another Way” לתשלום בכרטיס אשראי או חיוב ישיר. PayPal תעבד את כל העסקאות, כולל אלו של משתמשים שאינם רשומים לשירות.

 

החברה תספק את כל שכבות ההגנה – אבטחה, מעקב משלוחים ופתרון מחלוקות – בדיוק כפי שהיא עושה במסחר המסורתי. עבור הסוחרים, התהליך פשוט לא פחות – מי שכבר משתמש ב-PayPal יזכה לחשיפה אוטומטית ב-ChatGPT, בלי צורך באינטגרציה נפרדת. PayPal מטפלת בכל תהליך הניתוב והאימות מאחורי הקלעים.

הטכנולוגיה שמאפשרת את זה

מאחורי השותפות עומד Agentic Commerce Protocol (ACP) – תקן פתוח שפיתחו OpenAI ו-Stripe. הוא מאפשר לסוכני AI, עסקים וספקי תשלומים לתקשר באופן מאובטח ולבצע עסקאות בזמן אמת.

 

הייחוד של ACP הוא בכך שהוא לא רק מאבטח תשלומים. לפי OpenAI, הפרוטוקול הופך את PayPal למערכת דינמית לניהול מסחר: מעקב אחר התנהגות קונים, ניתוח הזדמנויות מכירה ואוטומציה של חוויית הלקוח. במילים פשוטות, זו תשתית שמחברת בין תשלום, תובנות ופעולה.

 

היתרון המרכזי לסוחרים הוא שליטה מלאה. הם שומרים על הקשר עם הלקוחות, ניהול התשלומים והשירות, בעוד ChatGPT פועל כסוכן מתווך שמקשר בין הצדדים. זו לא חנות חדשה, אלא ממשק שיחה חכם שמאפשר למסחר הקיים להפוך אינטראקטיבי.

החוסן הפיננסי שמאחורי השותפות

בסוף אוקטובר פרסמה PayPal תוצאות רבעון שלישי חזקות עם הכנסות של 8.4 מיליארד דולר (עלייה של 7%) ורווח נקי של 1.24 מיליארד דולר (עלייה של 24%), עם רווח מתואם של 1.34 דולר למניה – מעל התחזיות ב-12%. החברה העלתה את תחזית הרווח השנתית ל- 5.35 עד 5.39 דולר למניה, צעד שמבטא ביטחון בצמיחה. לראשונה בתולדותיה, הכריזה על דיבידנד רבעוני של 14 סנט למניה – סימן ברור ליציבות פיננסית ולתזרים מזומנים חזק.

 

נפח העסקאות (TPV) צמח ב-8% ל-458 מיליארד דולר, שירות “Buy Now Pay Later” צמח ביותר מ-20%, ו-Venmo (אפליקציית התשלומים החברתית שבבעלות PayPal) המשיכה להתרחב בקצב מהיר. מניית החברה כבר עלתה בכ-40% מהשפל באפריל, והשותפות עם OpenAI הוסיפה לה תנופה משמעותית, לצד שיתופי פעולה חדשים עם Google ו-Perplexity שמחזקים את נוכחותה בעולם המסחר מבוסס AI.

OpenAI דוהרת לעולם המסחר

PayPal היא לא השותפה הראשונה של OpenAI בתחום המסחר. מאז שהשיקה בספטמבר 2025 את Instant Checkout, יצרה OpenAI שיתופי פעולה עם Shopify ו-Etsy שמייצגות יחד יותר ממיליון סוחרים, ועם Walmart, שהקדימה את PayPal בשבועיים בלבד.

 

ChatGPT עצמה הפכה לפלטפורמה מסחרית בקנה מידה עצום. היא מעבדת מעל שישה מיליארד טוקנים בדקה, משרתת כ-800 מיליון משתמשים שבועיים, ומושכת כ-4 מיליון מפתחים שבונים עליה מוצרים ושירותים. מדובר בהכפלה של קהל המשתמשים מאז תחילת השנה – קצב צמיחה שמסביר למה מותגים גדולים ממהרים להצטרף.

 

אלכס כריס, מנכ”ל PayPal, סיכם זאת כך: “יש לנו מאות מיליוני משתמשים נאמנים שיכולים מעכשיו ללחוץ על כפתור ‘Buy with PayPal’ ב-ChatGPT ולקבל חוויית תשלום בטוחה, פשוטה ומיידית”.

מסחר אייג’נטי – מה זה בכלל?

“מסחר אייג’נטי” מתאר שלב חדש שבו סוכני AI כבר לא רק מגיבים לשאלות, אלא פועלים ביוזמתם – לומדים את ההעדפות של המשתמש, מזהים דפוסים ומתכננים צרכים עתידיים. במילים אחרות, הקנייה הופכת מתהליך שמנוהל על ידי הצרכן, לתהליך שהטכנולוגיה מנהלת בשבילו.

 

לפי McKinsey, מסחר מבוסס שיחה ו-AI צפוי להגיע לכ-20% מהמסחר האלקטרוני העולמי עד 2030. דאג מקמילון, מנכ”ל Walmart, תיאר זאת כך: “במשך שנים רבות חוויית הקנייה המקוונת נשענה על שורת חיפוש ורשימה אינסופית של מוצרים. זה עומד להשתנות.”

 

אלכס כריס, המנכ”ל של PayPal, הוסיף ממד מעשי: “מאות מיליוני אנשים משתמשים ב-ChatGPT מדי שבוע לעזרה במשימות יומיומיות, כולל מציאת מוצרים, ויותר מ-400 מיליון משתמשים ב-PayPal לקניות. השותפות עם OpenAI מאפשרת מעבר טבעי מצ’אט לתשלום בכמה לחיצות בלבד.”

PayPal מאמצת את ה-AI של OpenAI 

השותפות עם OpenAI חורגת מעבר לעולם התשלומים. PayPal מאמצת את הטכנולוגיה של OpenAI גם בתוך הארגון עצמו. מעל 24 אלף מעובדיה קיבלו גישה ל-ChatGPT Enterprise, המהנדסים משתמשים ב-Codex לייעול פיתוח קוד, וה-API של OpenAI שולב במוצרים ובשירותים של החברה. המהלך הוא חלק מאסטרטגיית ה-AI הרחבה של PayPal – לשפר תהליכי פיתוח, להעצים עובדים, וליצור חוויות לקוח מתקדמות יותר.

מי מרוויח מהמסחר החדש?

עבור הצרכנים, האפשרות לקנות ישירות מתוך ChatGPT מוסיפה שכבה של נוחות – חיפוש, המלצה ורכישה באותו חלון. זה מתאים במיוחד לרכישות מהירות של מוצרים כמו נעליים, אביזרים, או מוצרי בית, כאלה שלא דורשות השוואה מעמיקה בין אתרים.

 

עבור הסוחרים, היתרון ברור – מי שכבר משתמש ב-PayPal זוכה לנוכחות אוטומטית ב-ChatGPT, בלי עלויות אינטגרציה או תפעול. הקטגוריות הראשונות שייפתחו כוללות אופנה, יופי, שיפורי בית ואלקטרוניקה.

 

ההשקה צפויה להתחיל במהלך 2026 בארצות הברית ולהתרחב בהמשך לשווקים נוספים. בשלב זה אין מועד מדויק להשקה גלובלית.

 

 

נקודת מפנה או עוד שלב באבולוציית הקנייה?

השותפות בין PayPal ל-OpenAI עשויה לשנות את הדרך שבה אנחנו מבצעים רכישות אונליין. במקום לעבור בין אתרים, להשוות ולמלא טפסים, כל התהליך מתכנס לשיחה אחת עם ChatGPT – חוויה ישירה, פשוטה ומהירה יותר מכל מנוע חיפוש מסורתי. אבל היעילות הזו מגיעה עם מחיר חדש: אמון.

 

כשבינה מלאכותית מציגה לנו מוצרים, איך נדע אם זו באמת ההמלצה הטובה ביותר או תוצאה של אינטרס מסחרי? נכון לעכשיו, OpenAI לא מפרטת כיצד ChatGPT מדרגת או מסננת מוצרים, והפער הזה בין שקיפות לנוחות הוא לב הדיון.

 

PayPal מצידה בונה לעצמה מעמד מרכזי בעידן המסחר האייג’נטי. השיתופים עם Google ו-Perplexity מצביעים על אסטרטגיה רחבה, שבה התשלום הופך לחלק בלתי נראה מתהליך הקנייה, כמו שכבה סמויה בתוך השיחה. אם התחזיות יתממשו והמסחר השיחתי יגיע ל-20% מהיקף המסחר העולמי עד 2030, השותפות הזו עשויה להיזכר כרגע שבו השיחה הפכה לפעולה, והגבול בין דיאלוג למסחר נעלם כמעט לגמרי.

הפוסט PayPal ו-OpenAI משלבות כוחות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/paypal-openai-partnership/feed/ 0
איך מיקרוסופט ו-OpenAI חילקו מחדש את הקלפים https://letsai.co.il/microsoft-openai-future-deal/ https://letsai.co.il/microsoft-openai-future-deal/#respond Thu, 30 Oct 2025 09:43:13 +0000 https://letsai.co.il/?p=62949 ב-28 באוקטובר 2025 השלימה OpenAI רפורמה מבנית דרמטית ורחבת היקף, עברה למבנה של Public Benefit Corporation והוערכה בשווי של כ-500 מיליארד דולר. הצעד, שהבשיל אחרי כמעט שנה של משא ומתן עם מיקרוסופט ודיונים עם רגולטורים בקליפורניה ובדלאוור, משנה את יחסי הכוחות בין שתי החברות ומציב תקדים חדש לתעשיית הבינה המלאכותית כולה.   מה קרה בפועל […]

הפוסט איך מיקרוסופט ו-OpenAI חילקו מחדש את הקלפים הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-28 באוקטובר 2025 השלימה OpenAI רפורמה מבנית דרמטית ורחבת היקף, עברה למבנה של Public Benefit Corporation והוערכה בשווי של כ-500 מיליארד דולר. הצעד, שהבשיל אחרי כמעט שנה של משא ומתן עם מיקרוסופט ודיונים עם רגולטורים בקליפורניה ובדלאוור, משנה את יחסי הכוחות בין שתי החברות ומציב תקדים חדש לתעשיית הבינה המלאכותית כולה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה קרה בפועל

על פי דיווחי רויטרס, בלומברג ו-Politico, מיקרוסופט מחזיקה כיום בכ-27% ממניות OpenAI Group PBC, נתח בשווי מוערך של כ-135 מיליארד דולר – כמעט פי עשרה מסך השקעתה המצטברת של 13.8 מיליארד דולר. ירידת חלקה מ-32% ל-27% נובעת מהצטרפות משקיעים חדשים בעקבות הרפורמה.

 

במקביל התחייבה OpenAI לרכוש שירותי ענן של Azure בהיקף מצטבר של כ-250 מיליארד דולר בעשור הקרוב. מדובר בהתחייבות רכישה, לא בהכנסה מובטחת, אך היא מבטיחה זרם עבודה עצום למרכזי הנתונים של מיקרוסופט. מנגד, החברה ויתרה על זכות הסירוב הראשונית שהייתה לה להיות ספקית הענן הבלעדית, ו-OpenAI תוכל לעבוד גם עם AWS ו-Google Cloud.

 

ההסכם החדש מעניק למיקרוסופט זכויות שימוש נרחבות בטכנולוגיות ובמודלים של OpenAI עד 2032 – או עד שמועצה בלתי תלויה תאשר שהושגה “בינה כללית מלאכותית” (AGI), המוקדם מביניהם. בהסכם המקורי מ-2019 יכלה OpenAI להכריז בעצמה על השגת AGI ולסיים מיידית את השותפות. כעת, כל הכרזה מחייבת אישור של פאנל מומחים עצמאי, שינוי שמונע ניתוק חד-צדדי ומוסיף שכבת פיקוח בטיחותית.

 

העמותה ללא מטרות רווח שהקימה OpenAI ב-2015 נותרה הגוף המפקח על התאגיד למען הציבור. היא מחזיקה בכ-26% מהמניות ושומרת על הסמכות למנות את הדירקטוריון. המבנה הדו-שכבתי נשמר, אך כעת יש לחברה גמישות רבה יותר בגיוס הון, והוסרו מגבלות ההשקעה שהגבילו אותה מאז 2019.

למה זה חשוב

מיקרוסופט ביססה את מעמדה כעמוד התווך של תעשיית ה-AI. גם אם החזון של OpenAI ל-AGI יתעכב, Azure נהנית מהביקוש הגובר לכוח חישוב. במקביל, ההשקעה העצומה של מיקרוסופט אינה חסרת סיכון: OpenAI מוציאה כיום כ-5 מיליארד דולר בשנה על תפעול ומחקר, וצפויה להגיע ל-20 מיליארד עד 2027. אם לא תגדיל הכנסות בהתאם, שווי ההשקעה עלול להפוך לנטל.

 

עם זאת, למיקרוסופט יתרון אסטרטגי ברור – גישה למודלים המתקדמים ביותר עד 2032 והצבת Azure במרכז מפת ה-AI העולמית. גם אם AGI לא תושג, מיקרוסופט מרוויחה מחוזי ענן ארוכי טווח ומחיזוק מעמדה כספקית תשתית מובילה.

 

עבור OpenAI, המעבר למבנה Public Benefit Corporation (PBC) היה כמעט בלתי נמנע. המודל ההיברידי הישן, חברה למטרות רווח מוגבלות תחת עמותה, הפך למחסום בפני השקעות ענק. כעת החברה יכולה לגייס הון בחופשיות, לעבוד עם ספקי ענן נוספים ולשתף פעולה עם חברות צד שלישי, כולל בפיתוח חומרה. זהו מהלך שמרחיב את חופש הפעולה שלה באופן משמעותי.

 

בסופו של דבר, שתי החברות חילקו ביניהן את השליטה: מיקרוסופט שומרת על גישה ארוכת טווח אך מוותרת על בלעדיות, ו-OpenAI מרוויחה חופש פעולה במחיר של התחייבויות ענן עצומות. אף אחת לא קיבלה הכול, אך שתיהן קיבלו מספיק כדי לשמור על האינטרסים שלהן ולהמשיך קדימה.

האיזון החדש בין כוח לאחריות

הקמת “פאנל אימות AGI” היא אחד השינויים המשמעותיים בהסכם. אם בעבר יכלה OpenAI להכריז לבדה על השגת AGI, כעת היא חייבת אישור של פאנל מומחים בלתי תלוי. מדובר בצעד שמאזן בין אחריות ציבורית להגנה עסקית: הוא מונע הכרזה מוקדמת מדי שתאפשר ל-OpenAI לנתק את השותפות עם מיקרוסופט באופן חד-צדדי, אך גם מוסיף מנגנון אתי חדש לתעשייה.

 

עם זאת, שאלות רבות נותרו פתוחות – מי ימנה את המומחים? מהם הקריטריונים לקביעת AGI? האם יתקיימו ביקורות חיצוניות? ללא תשובות ברורות, קשה לדעת אם מדובר במנגנון פיקוח אמיתי או רק בנייר משפטי.

 

במובנים רבים, זה ניסוי חדשני – רגולציה שמוטמעת בתוך חוזה פרטי במקום להיקבע על ידי ממשלות. במילים אחרות, הקוד המשפטי הופך לחלק מארכיטקטורת המוצר עצמו – מנגנון שמסנכרן את לוח הזמנים העסקי עם זה האתי.

 

גם סוגיית ה-PBC מדגישה את המתח בין רווחיות לאחריות. אמנם החוק מחייב את הדירקטוריון להתחשב בתועלת הציבורית, אך בפועל מדובר במסגרת גמישה מאוד. OpenAI כבר פעלה שנים במבנה דומה, וזה לא מנע ממנה לסגור מודלים, להעלות מחירים או לעבור משברי ממשל. השאלה האמיתית היא כיצד תוגדר “תועלת ציבורית” ומי יאכוף אותה כשהיא תתנגש באינטרסים עסקיים.

היבטים ביקורתיים והשלכות רחבות

מאחורי ההצלחה התאגידית מסתתרת שאלה עמוקה יותר – האם ריכוז כזה של כוח בידי שתי חברות מערער את הרעיון המקורי של בינה מלאכותית פתוחה? הגישה של OpenAI, שהחלה כניסוי קהילתי פתוח, התגלגלה למודל תאגידי סגור ומרוכז. ההסכם החדש רק מחזק מגמה זו, גם אם הוא עטוף בשפה של “אחריות ציבורית”.

 

עם זאת, התמונה מורכבת יותר. במקביל מתפתחת תנועת קוד פתוח חזקה: Meta משחררת את סדרת Llama באופן פתוח, Mistral הצרפתית מפתחת מודלים זמינים בחופשיות, ו-DeepSeek הסינית חושפת מודלים בחינם. המתח בין הגישה הסגורה-מסחרית של OpenAI ו-Anthropic לבין הגישה הפתוחה של Meta ו-Mistral מגדיר כיום את אחד הדיונים המרכזיים בתעשייה.

 

גם בזירה העסקית, ההסכם אינו מציב מחסום אמיתי בפני מתחרות גדולות. גוגל מפתחת את Gemini על תשתית הענן שלה, אמזון השקיעה 8 מיליארד דולר ב-Anthropic ומריצה את Claude על AWS, שהוא מוביל שוק הענן עם כ-32% נתח שוק לעומת 23% של Azure. המחסום האמיתי הוא לשחקנים קטנים יותר, שאין להם תשתית ענן או הון בהיקפים כאלה.

 

הדינמיקה הזו כבר מעוררת תשומת לב רגולטורית. רשות התחרות הבריטית (CMA) חקרה את ההסכם, והאיחוד האירופי בוחן אם מדובר במיזוג בפועל. השאלה המרכזית: האם שליטה משולבת בענן ובמודלים פוגעת בתחרות? התשובות לכך עדיין בבדיקה.

 

 

חזון או פשרה מורכבת?

ההסדר בין מיקרוסופט ל-OpenAI אינו ניצחון חד של צד אחד. OpenAI קיבלה חופש לגייס הון, לעבוד עם ספקי ענן נוספים ולפתח טכנולוגיות עצמאיות. מיקרוסופט שמרה על גישה למודלים המתקדמים עד 2032 ועל נתח של 27%, אך ויתרה על בלעדיות ועל חלק מהשליטה.

 

השאלה המרכזית כעת אינה מי שולט, אלא האם המודל החדש באמת מצליח לאזן בין חדשנות לאחריות, או שמדובר במסגרת משפטית שמאפשרת ריכוז כוח תחת דגל “תועלת ציבורית”.

 

המבחן האמיתי יגיע כשאינטרסים עסקיים יתנגשו בהבטחות הציבוריות – האם OpenAI תעדיף רווח על פני פתיחות? האם מיקרוסופט תציב שיקולי אתיקה מעל תחרות ענן? רק אז נדע אם מדובר בחזון אמיתי או בעסקה חכמה שנארזה היטב.

הפוסט איך מיקרוסופט ו-OpenAI חילקו מחדש את הקלפים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-openai-future-deal/feed/ 0
סם אלטמן מול אילון מאסק בקרב על חיבור בין האדם, המוח והידע https://letsai.co.il/altman-vs-musk/ https://letsai.co.il/altman-vs-musk/#respond Tue, 28 Oct 2025 08:42:15 +0000 https://letsai.co.il/?p=62780 בזמן שרוב העולם עדיין מתווכח על ההשפעה של מודלי שפה, תמונה או וידאו, שניים מהאנשים המשפיעים ביותר בעשור האחרון כבר נלחמים על השלב הבא – חיבור ישיר בין מוח האדם למכונה. סם אלטמן, מנכ”ל OpenAI, מקים את Merge Labs, מיזם שמנסה לאפשר תקשורת מוח-מחשב ללא ניתוחים פולשניים. אילון מאסק, לעומתו, מוביל את Neuralink, פרויקט שאפתני […]

הפוסט סם אלטמן מול אילון מאסק בקרב על חיבור בין האדם, המוח והידע הופיע ראשון בLet's AI בינה מלאכותית

]]>
בזמן שרוב העולם עדיין מתווכח על ההשפעה של מודלי שפה, תמונה או וידאו, שניים מהאנשים המשפיעים ביותר בעשור האחרון כבר נלחמים על השלב הבא – חיבור ישיר בין מוח האדם למכונה. סם אלטמן, מנכ”ל OpenAI, מקים את Merge Labs, מיזם שמנסה לאפשר תקשורת מוח-מחשב ללא ניתוחים פולשניים. אילון מאסק, לעומתו, מוביל את Neuralink, פרויקט שאפתני להשתלת שבבים במוח לצורך אינטגרציה מלאה עם בינה מלאכותית. ובזמן ששניהם נאבקים על השליטה בממשק שבין תודעה לטכנולוגיה, מאסק כבר פותח חזית נוספת עם Grokipedia – פלטפורמה שבה המכונה לא רק מעבדת מידע, אלא גם מחליטה מה נחשב לאמת. זה כבר לא מאבק טכנולוגי בלבד, אלא שאלה מי יגדיר את גבולות האנושיות בעידן שבו הגבול בין מוח, קוד וידע הולך ומיטשטש.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

יריבות ישנה בחזית חדשה

הסיפור מתחיל עוד בשנת 2015, כשמאסק ואלטמן ייסדו יחד את OpenAI מתוך רצון “להגן על האנושות מפני בינה מלאכותית לא מבוקרת”. אבל עד 2018 השותפות הזו התפרקה – מאסק פרש בעקבות מחלוקות על כיוון החברה, וטען ש-OpenAI מתקדמת לאט מדי. בשלב מסוים הוא אף הציע לרכוש את החברה, והתגובה שקיבל בציוץ קצר ועוקצני רק העמיקה את הקרע המתוקשר בין השניים.

 

מאז הפכה היריבות הזו לעימות פילוסופי של ממש. מאסק רואה בבינה המלאכותית שלב באבולוציה של האדם, ודרך Neuralink הוא מבקש “למזג” את המוח עם המכונה. אלטמן, לעומתו, מאמין באינטגרציה מבוקרת שבה האדם נותר במרכז, והטכנולוגיה רק מרחיבה את הגבולות שלו.

Merge Labs – המיזוג הרך

Merge Labs גייסה כ-250 מיליון דולר בשווי מוערך של 850 מיליון דולר, בעיקר מקרן ההשקעות של OpenAI. אלטמן הוא אחד המייסדים, לצד אלכס בלאניה, מנכ”ל Tools for Humanity (מאחורי פרויקט Worldcoin). החברה שואפת לאפשר תקשורת ישירה בין מחשבה למכונה, אבל ללא ניתוח או חדירה למוח.

 

הטכנולוגיה מבוססת על סונוגנטיקה, תחום שמשלב הנדסה גנטית ואולטרסאונד – הזרקת חומר גנטי גורמת לתאי מוח להיות רגישים לגלי קול, ומכשיר חיצוני מתרגם את הפעילות הנוירונית לאותות דיגיטליים. במילים פשוטות, לשלוח “הודעת טקסט למוח” בלי לפתוח את הגולגולת.

 

אלטמן תיאר בעבר את החזון שלו: “הייתי רוצה לחשוב משהו, ו-ChatGPT יגיב לזה”. לדבריו, מדובר בממשק “קריאה בלבד”, ולא שליטה הדדית. במונחים אנליטיים בלבד, ניתן לראות בגישת Merge Labs “מיזוג רך” – תקשורת מבוקרת ושקופה בין מוח לבינה, תוך שמירה על פרטיות ובקרה אנושית.

Neuralink – המיזוג הקשיח

Neuralink, שהוקמה על ידי מאסק ב-2016, מייצגת את הקצה השני של הספקטרום. החברה כבר ביצעה ניסויים ראשונים בבני אדם, אך נתקלה בקשיים. בניסוי הראשון דווח על נסיגת חוטים שהובילה לירידה משמעותית במספר האלקטרודות הפעילות. לפי דיווחים שהתבססו על מקורות פנימיים שנחשפו ב-Wall Street Journal וב-Ars Technica, רק כ-15% מהחוטים נותרו פעילים בשלב מסוים, אך Neuralink עצמה לא פרסמה נתון רשמי.

 

החברה ציינה כי בניתוחים הבאים היא תיישם אמצעי מיגון שימנעו את התופעה. למרות זאת, מאסק ממשיך לטעון שהשתלים הללו הם “הדרך היחידה להישאר רלוונטיים בעידן הבינה המלאכותית”.

 

גישת Neuralink פולשנית בהרבה – היא כוללת ניתוח מוח פתוח והחדרת אלקטרודות זעירות לקרום המוח (dura). מאסק מאמין שאינטגרציה מלאה בין מוח למכונה תאפשר לאדם “להדביק את קצב הבינה המלאכותית”. זה “מיזוג קשיח” – לא רק הקשבה למוח, אלא חיבור פיזי שמוחק את הגבול בין אדם למערכת.

חזית שלישית: Grokipedia והמאבק על הידע האנושי

אך המאבק בין מאסק לאלטמן אינו מסתיים בגבולות המוח. הוא ממשיך אל השדה שבו נקבע מה נחשב לידע עצמו. בספטמבר 2025 הכריזה xAI של מאסק על Grokipedia – פלטפורמה חדשה שמבקשת להחליף את ויקיפדיה כמקור הידע הציבורי. בשונה מהאנציקלופדיה האנושית המוכרת, Grokipedia מנוהלת על ידי בינה מלאכותית אוטונומית (Grok), שכותבת, עורכת ומעדכנת ערכים בעצמה, ללא התערבות אנושית ישירה.

 

אם Neuralink שואפת לחבר את המוח למכונה, Grokipedia מחברת את האמת למכונה. במקום קהילה פתוחה של עורכים ומתנדבים, מערכת אחת מחליטה מהו מידע נכון ומה לא. הרעיון של “מכונה כעורך הראשי של האנושות” פותח דיון חדש על אמינות, הטיות ושליטה בידע, בדיוק כפי ש-Merge Labs מעלה שאלות על פרטיות מוחית ושליטה בתודעה.

שינוי בהרגלי החיפוש

לפי דוח רשמי שפרסמה Wikimedia Foundation באוקטובר 2025, מספר הביקורים האנושיים (human pageviews) בוויקיפדיה באנגלית ירד בכ-8% בין מאי לאוגוסט 2025 לעומת אותה תקופה ב-2024. הקרן מייחסת את המגמה לשינוי בהרגלי החיפוש – יותר תשובות ישירות ממנועי AI, ויותר צריכת ידע דרך פלטפורמות חברתיות במקום כניסה לערכים עצמם. חלק מהירידה נובע גם מתיקון מתודולוגי שהסיר תעבורת בוטים שהתחזתה למשתמשים אמיתיים.

 

הירידה הזו מדאיגה את קהילת ויקיפדיה, שחוששת לפגיעה במודל הידע הפתוח שעליו נבנתה. חוקרי מידע ומחנכים מזהירים שהמעבר לצריכת ידע אוטומטית עלול לצמצם את ההשתתפות הציבורית ואת הביקורתיות כלפי מידע ממוכן. אין הוכחה ישירה לכך ש-Grokipedia אחראית לירידה הזו, אך עצם הופעתה מדגישה את השינוי התרבותי – עידן שבו בינה מלאכותית לא רק מחפשת ידע, אלא גם מחליטה מהו ידע.

בין חופש מחשבתי לשליטה דיגיטלית

המאבק הזה משקף שני מודלים של אנושות-על. מצד אחד, מאסק דוחף לאינטגרציה טוטאלית – האדם והמכונה מתמזגים לגוף אחד, שבו התודעה והמידע מתעדכנים אוטומטית. אלטמן, לעומתו, רואה בחיבור הזה שיתוף פעולה הדדי, לא איחוד בלתי הפיך.

 

Neuralink עשויה להציל חיים ולשפר יכולות נוירולוגיות, אך גם מעוררת חשש מהפיכת האדם לממשק מתוחזק. Merge Labs מבטיחה תקשורת עדינה ובטוחה יותר, אך מתקרבת לגבול אתי בגלל השימוש בהנדסה גנטית. Grokipedia מבטיחה ידע נקי ומעודכן, אך גם מציבה אתגר חסר תקדים שבו נשאלת שאלה – מה קורה כשהאמת עצמה מנוהלת על ידי קוד?

 

המיזוג הגדול

2025 מסתמנת כשנה שבה המאבק בין אלטמן למאסק עובר מהמגרש העסקי אל המגרש הרעיוני. אלטמן רוצה שהטכנולוגיה תלמד להבין אותנו טוב יותר. מאסק רוצה שנשתלב בה לגמרי. שני הכיוונים שונים, אבל שניהם מתכנסים לאותו יעד והוא  להפוך את הבינה המלאכותית מחוויה על המסך למשהו שנמצא ממש בתוכנו ובסביבתנו. בסוף זה לא יהיה מאבק על רעיונות גדולים, אלא על מי יצליח להפוך את זה למוצר אמין, שימושי ובטוח שאנשים באמת ירצו להשתמש בו.

הפוסט סם אלטמן מול אילון מאסק בקרב על חיבור בין האדם, המוח והידע הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/altman-vs-musk/feed/ 0
דיוקן פסיכולוגי של אמריקה בעידן ה-AI https://letsai.co.il/american-ai-leadership-paradox/ https://letsai.co.il/american-ai-leadership-paradox/#respond Mon, 27 Oct 2025 07:51:01 +0000 https://letsai.co.il/?p=62688 סקר חדש של Gallup וה-SCSP חושף שלושה פרדוקסים שמגדירים את היחס האמריקאי לבינה המלאכותית: רצון להוביל את העולם בלי אמונה שזה באמת יקרה, פחד עמוק מהתקפה זרה לצד היסוס לפתח נשק עצמאי, ואופטימיות כלכלית שמלווה בחרדת תעסוקה הולכת וגוברת. במילים אחרות, ארצות הברית מאוהבת ברעיון ההובלה הטכנולוגית, אבל חוששת מהמחיר האנושי שלה. במאמר הזה נצלול […]

הפוסט דיוקן פסיכולוגי של אמריקה בעידן ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
סקר חדש של Gallup וה-SCSP חושף שלושה פרדוקסים שמגדירים את היחס האמריקאי לבינה המלאכותית: רצון להוביל את העולם בלי אמונה שזה באמת יקרה, פחד עמוק מהתקפה זרה לצד היסוס לפתח נשק עצמאי, ואופטימיות כלכלית שמלווה בחרדת תעסוקה הולכת וגוברת. במילים אחרות, ארצות הברית מאוהבת ברעיון ההובלה הטכנולוגית, אבל חוששת מהמחיר האנושי שלה. במאמר הזה נצלול לתוך הנתונים והפרדוקסים שמאחורי הסקר, וננסה להבין מה הם חושפים על אומה שמאמינה בבינה מלאכותית, אבל עדיין לא מאמינה בעצמה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כולם שמעו, כמעט אף אחד לא משתמש

98% מהאמריקאים נחשפו למידע על בינה מלאכותית בשנה האחרונה – כמעט כולם. אבל מאחורי המספר המרשים הזה מסתתר פער עצום: רק 39% משתמשים ב-AI באופן קבוע, ורק 8% מגדירים את עצמם “מאוד בקיאים”. בעוד הממשל הפדרלי מעצב רגולציות חדשות לחברות הטכנולוגיה, מי שיכריע את גורל המהפכה הם דווקא האזרחים. דעת הקהל תקבע אם ארצות הברית תאמץ את הבינה המלאכותית או תירתע ממנה.

Chart 1 – Awareness, Usage, and Knowledge of AI

כמעט כולם שמעו אבל הרוב לא מבינים | gallup.com

 

מכאן צומח אחד הממצאים המרתקים ביותר בדו״ח: אמריקאים שמשתמשים בבינה המלאכותית סומכים עליה פי שניים יותר ממי שאינם משתמשים – 46% לעומת 23%. במילים אחרות, האמון אינו תוצאה של חשיפה, אלא של שימוש בפועל. מי שחווה את הטכנולוגיה מקרוב נוטה לפתח כלפיה ביטחון גבוה יותר. 

 

Chart 2 – Trust in AI (Users vs. Non-users)

חשיפה בונה אמון | gallup.com

 

ועדיין, רוב הציבור האמריקאי רחוק משם. לפי הסקר רק 31% מהאמריקאים סומכים על ה-AI לקבל החלטות הוגנות וחסרות פניות, בעוד 60% אינם סומכים, 40% “במידה מסוימת” ו-20% “בכלל לא”. רמת האמון הנמוכה הזו אינה שולית, היא מחלחלת לכל שיח ציבורי על הטכנולוגיה – מהחקיקה ועד המדיניות.

פרדוקס 1: מרוץ שאף אחד לא מאמין שייגמר בניצחון

79% מהאמריקאים סבורים שחשוב לארצות הברית להוביל בבינה מלאכותית – זה כמעט קונצנזוס לאומי. אבל כששואלים אותם אם ארה”ב אכן תהיה המדינה המובילה בעוד עשור, רק 15% מאמינים שכן. הפער הזה בין הרצון לאמונה מזכיר את מרוץ החלל, רק הפוך. בשנות השישים הציבור האמריקאי היה בטוח בעליונותו על ברית המועצות. היום, גם כשהחדשנות האמריקאית בשיאה, הביטחון העצמי מתערער.

 

Chart 3 – Likelihood the U.S. Will Lead in 10 Years

חוסר הביטחון הלאומי הוא בסיס הפרדוקס | gallup.com

 

לפי הסקר, 34% חושבים שארה”ב “שומרת על הקצב”, 32% פשוט לא יודעים, 22% סבורים שהיא נופלת מאחור, ורק 12% חושבים שהיא מתקדמת על פני יריבותיה. 85% מאמינים שהעולם נמצא במרוץ גלובלי על הטכנולוגיה המתקדמת ביותר, אך רק מיעוט קטן באמת מאמין שארה”ב תזכה בו – ביטוי לחוסר ביטחון עמוק בזהותה הטכנולוגית.

הפער הדורי

הפער בין הדורות בולט במיוחד. מבוגרים רואים בהובלה האמריקאית יעד לאומי, בעוד צעירים, שגדלו בעולם טכנולוגי, פחות משוכנעים בצורך הזה. רק 26% מבני 18-29 חושבים שחשוב מאוד שארה״ב תוביל בתחום ה-AI, לעומת 64% מבני 65 ומעלה. ורק 40% מהצעירים “מסכימים בתוקף” שמדינות אכן מתחרות על פיתוח הבינה המלאכותית, לעומת 71% מהמבוגרים.

 

Chart 4 – Age Gaps in Perception of Competition and Leadership

הפער בין הדורות בולט במיוחד | gallup.com

 

ככל שהגיל עולה, כך גוברת תחושת הדחיפות והאמונה במרוץ הטכנולוגי. הצעירים, שראו את ה-AI הופך מחידוש לכלי יומיומי, מתייחסים אליו בפחות יראת כבוד ויותר בספקנות.

שיתוף פעולה או בדידות

למרות תחושת התחרות, רוב האמריקאים אינם רוצים לפעול לבד. 42% מעדיפים לפתח בינה מלאכותית בשיתוף פעולה עם קואליציה רחבה של מדינות ידידותיות, לעומת 19% שמעדיפים קבוצה קטנה ו-14% בלבד שתומכים בפעולה עצמאית. הנטייה לשיתוף פעולה בולטת במיוחד בקרב מי שחושבים שארה”ב כבר נופלת מאחור – 55% מהם תומכים בברית רחבה, לעומת 42% מאלה שמאמינים שארה”ב מובילה.

 

כשמסתכלים על עולמות הכוח, 77% רואים בכוח כלכלי גורם מרכזי בסדר העולמי, 75% בכוח טכנולוגי ו-67% בכוח צבאי. אבל כששואלים על תפקידה של הבינה המלאכותית בעתיד האמריקאי, נקודת המבט משתנה: 39% רואים בה מרכיב חשוב לביטחון הלאומי, 35% לחוזקה הצבאית ורק 28% לצמיחה הכלכלית. במילים אחרות, האמריקאים תופסים את ה-AI קודם כל כנשק אסטרטגי, לא כמנוע צמיחה.

 

Chart 5 – Importance of AI to U.S. Strengths

ארה״ב רואה AI דרך עדשת הביטחון, לא הכלכלה | gallup.com

 

פרדוקס 2: פחד מהתקפה וחשש מפיתוח נשק

87% מהאמריקאים מאמינים שממשלות זרות ישתמשו בעתיד בבינה מלאכותית כדי לתקוף את ארצות הברית. 43% רואים בכך תרחיש “סביר מאוד”. רק 4% חושבים שזה “לא סביר בכלל”. הפחד הזה חוצה גבולות פוליטיים, מגדריים ודוריים – צעירים ומבוגרים, דמוקרטים ורפובליקנים, משתמשי AI ואלה שלא משתמשים. זה חשש כמעט אוניברסלי.

 

Chart 6 – Fear of AI Attacks from Foreign Governments

היקף הפחד | gallup.com

 

אבל כאן מגיע הפרדוקס, כי למרות תחושת האיום, רק 39% תומכים בפיתוח נשק אוטונומי מבוסס AI לשימוש צבאי, ו-48% מתנגדים. הציבור האמריקאי מפחד מהטכנולוגיה כשהיא אצל אחרים, ומפחד ממנה גם כשהיא בידיים שלו.

השינוי הדרמטי

ברגע שמציגים תרחיש הרתעתי, התמונה מתהפכת. כאשר השאלה מנוסחת כך: “ומה אם מדינות אחרות, כולל יריבות שאינן בעלות ברית, יפתחו נשק אוטונומי קודם? – התמיכה מזנקת ל-53%, וההתנגדות יורדת ל-32%. פי שניים יותר אמריקאים “תומכים בתוקף” – מ-12% ל-25%. זו תגובה אינסטינקטיבית של הגנה עצמית, ביטוי לחשיבה הרתעתית קלאסית – האמריקאים לא רוצים להיות הראשונים, אבל גם לא האחרונים.

 

Chart 8 – Support for Developing AI Weapons

הפער בין “לא רוצים להתחיל” ל“כן נגיב” | gallup.com

האמביוולנטיות סביב הביטחון הלאומי

גם כשהשאלה כללית יותר, הציבור מפולג כמעט שווה בשווה: 41% חושבים שהבינה המלאכותית תחמיר את סיכוני הביטחון הלאומי, 36% מאמינים שתשפר אותם.

 

Chart 7 – National Security Risks by Demographics

פילוח מגדרי, גילאי ופוליטי של אמונה ש-AI ישפר או יחמיר את הביטחון הלאומי | gallup.com

 

ההבדלים ברורים: גברים, מבוגרים, רפובליקנים ומשתמשי AI נוטים לראות את ההשפעה כחיובית; נשים, צעירים, דמוקרטים ולא-משתמשים – פסימיים יותר. ועדיין, יש תחומים שבהם שוררת אופטימיות זהירה: פי שניים יותר אמריקאים מאמינים ש-AI ישפר את איכות המודיעין הלאומי (38%) מאשר יפגע בו (20%), ופי שלושה יותר חושבים שיחזק את היכולת לזהות איומים צבאיים (41% לעומת 14%).

 

הציבור האמריקאי שולח מסר ברור: AI כן – אבל להגנה, לא לתקיפה.

פרדוקס 3: אופטימיות כלכלית לצד חרדת תעסוקה

62% מהאמריקאים מאמינים שהבינה המלאכותית תשפר את הפרודוקטיביות בעבודה, ו-53% בטוחים שהיא תקדם את הצמיחה הכלכלית. האמונה הזו חזקה במיוחד בקרב בעלי השכלה גבוהה ובעלי הכנסה גבוהה – אלה שמרגישים בטוחים יותר מול השינוי. אבל לצד האופטימיות הזו נרשמת פסימיות קיומית: כמעט מחצית (47%) חושבים שה-AI יהרוס יותר עסקים מאשר ייצור כאלה, ו-61% חושבים שיעלים יותר מקומות עבודה מאשר יפתח הזדמנויות.

 

Chart 9 – Optimism and Pessimism about AI and the Economy

אופטימיות כלכלית לצד חרדת תעסוקה | gallup.com

 

איך אפשר לדבר על צמיחה כשאנשים חוששים לאבד את מקור פרנסתם? זו הסתירה המרכזית בתודעה האמריקאית – אמונה שהכלכלה תגדל, יחד עם תחושת בטן שהאדם עצמו יישאר מאחור.

אופטימיות זהירה

כששואלים על עובדים שייפגעו מהמהפכה, האמריקאים מציגים אופטימיות מתונה: רובם (51%) סבורים שחלק מהעובדים יצליחו ללמוד מיומנויות חדשות ולעבור לתעשיות אחרות, 24% חושבים שרק מעטים יצליחו, ו-20% מאמינים שרובם ימצאו עבודה חדשה. קצה הסקאלה כמעט ריק: רק 3% מאמינים שכולם יצליחו, ורק 2% סבורים שאף אחד לא יצליח.

 

זה מבט מפוכח, כמעט סטואי. הציבור האמריקאי מתבונן בבינה המלאכותית בצורה ריאליסטית, מתונה, עם מודעות לגודל הסיכון אבל בלי היסטריה. יש הבנה שיש כאן כוח אדיר שצריך ללמוד לחיות איתו, לא להילחם בו ולא להאדיר אותו. הציבור לא מצפה לנס, אלא למאבק מתמשך שבו חלק יסתגלו וחלק ייפלטו. וכאן טמון הפרדוקס האחרון – אמונה בצמיחה של המדינה, לצד פחד שהצמיחה הזו תתרחש בלעדיהם.

הקונצנזוס היחיד הוא הדרישה להכשרת עובדים

בסקר כולו נמצא קונצנזוס אחד בלבד – ההכרח ביצירת תוכניות הכשרה והדרכה שיכינו עובדים לעידן הבינה המלאכותית. 72% מהאמריקאים תומכים ביוזמה הזו – שליש “בתוקף”, ו-41% “במידה מסוימת”. זו כמעט המדיניות היחידה שמאחדת את כל הקשת הפוליטית: דמוקרטים, רפובליקנים ובלתי-תלויים.

 

Chart 10 – Support for AI-Related Policies

האם זה “הפתרון” לכל הפחדים והפרדוקסים? | gallup.com

 

המסר ברור: האמריקאים לא מבקשים פחות רגולציה, אלא יותר ביטחון תעסוקתי.

 

בהשוואה, שאר ההצעות מקבלות תמיכה חלשה בהרבה: 56% תומכים בהגדלת מימון ממשלתי למחקר בינה מלאכותית, 55% במימון מחקר באוניברסיטאות לגיוס חוקרים מובילים, 49% במתן גישה לחברות ולאוניברסיטאות למשאבים ממשלתיים, 31% בלבד בתמריצי מס לחברות, ורק 23% תומכים בהפחתת רגולציה על פיתוח AI. האמריקאים מסמנים כיוון מובהק ורוצים מדיניות שמחזקת אנשים, לא חברות.

שלוש מסקנות למקבלי ההחלטות

הדו״ח המרתק של Gallup ו-SCSP מספק לא רק תמונת מצב, אלא גם שלוש הנחיות פעולה ברורות למי שמעצב את מדיניות ה-AI של ארצות הברית.

1. חשיפה בונה אמון

אמריקאים שמשתמשים ב-AI סומכים עליה פי שניים יותר ממי שאינם משתמשים. המשמעות ברורה – ככל שהמפגש עם הטכנולוגיה הופך יומיומי, כך גדל האמון בה. מדיניות מושכלת צריכה לעודד שימוש שקוף, מבוקר ומנוהל ב-AI בבתי-הספר, במקומות העבודה ובשירותים הציבוריים כדי להפוך חשש להבנה, ומשם לאמון.

2. הגנה והרתעה, לא תוקפנות

הציבור רוצה ביטחון, לא מירוץ חימוש. מדיניות שתשקף עקרונות של הגנה, זיהוי איומים ושיתוף פעולה עם בעלות ברית תיהנה מתמיכה רחבה בהרבה ממדיניות התקפית.

3. בלי הגנה על עובדים אין אמון ציבורי

הציבור האמריקאי מדבר בקול אחד ותומך בתוכניות הכשרה והדרכה לעובדים. זו המדיניות היחידה שמאחדת את המפה הפוליטית כולה. אם הממשלה תתעלם מהמרכיב האנושי, האופטימיות הכלכלית תהפוך במהרה לחרדת תעסוקה. כל אסטרטגיית AI שלא תשקיע בהגנה על עובדים ובחינוך עתידי, תיכשל פוליטית וחברתית גם יחד.

בין תקווה לפחד

הסקר של Gallup ו-SCSP מצייר דיוקן של אומה שעדיין מגבשת את דעתה על הבינה המלאכותית. הפרדוקסים האלה אינם רק נתונים סטטיסטיים, אלא שיקוף של זהות אמריקאית ברגע של מבחן – מדינה שמאמינה בכוח החדשנות שלה, אך חוששת מהמחיר האנושי שלה. כל עוד האמריקאים לא מאמינים שהם יובילו, קשה יהיה להוביל. דעת הקהל יכולה להניע מדיניות, אבל גם לשתק אותה. וכמו שהדו״ח מזכיר בעדינות – ההתקדמות הטכנולוגית תדרוש גם התקדמות מוסרית, עם שיח חדש על הגינות, אחריות, חינוך והגנה על עובדים.

 

דווקא כשהציבור חושש, נפתחת הזדמנות. אם מקבלי ההחלטות יבינו שהאמון הציבורי נבנה דרך שקיפות, למידה והגנה אנושית, הפער בין הרצון להוביל ליכולת להוביל יתחיל סוף-סוף להיסגר.

הפוסט דיוקן פסיכולוגי של אמריקה בעידן ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/american-ai-leadership-paradox/feed/ 0
מדוע עידן ה-AI מחייב מהפכה בכישורים https://letsai.co.il/future-learning-ai-skills/ https://letsai.co.il/future-learning-ai-skills/#respond Sat, 25 Oct 2025 14:51:04 +0000 https://letsai.co.il/?p=62650 הוויכוח על עתיד העבודה בעידן הבינה המלאכותית הפך כמעט לשגרה. שוב ושוב נשמעת אותה שאלה: האם המכונות הולכות לקחת לנו את העבודה? במאמר דעה שפורסם ב-Washington Post, שניים מהקולות המשפיעים בעולם הכלכלה מציעים זווית אחרת לגמרי. לדבריהם, הסכנה האמיתית איננה אובדן משרות, אלא אובדן הכישורים הדרושים להחזיק בהן.   פער הכישורים בעידן ה־AI פביאן קורטו־מילה […]

הפוסט מדוע עידן ה-AI מחייב מהפכה בכישורים הופיע ראשון בLet's AI בינה מלאכותית

]]>
הוויכוח על עתיד העבודה בעידן הבינה המלאכותית הפך כמעט לשגרה. שוב ושוב נשמעת אותה שאלה: האם המכונות הולכות לקחת לנו את העבודה? במאמר דעה שפורסם ב-Washington Post, שניים מהקולות המשפיעים בעולם הכלכלה מציעים זווית אחרת לגמרי. לדבריהם, הסכנה האמיתית איננה אובדן משרות, אלא אובדן הכישורים הדרושים להחזיק בהן.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

פער הכישורים בעידן ה־AI

פביאן קורטו־מילה (Fabian Couto-Milla), הכלכלן הראשי של גוגל, ופרופ’ דיאן קויל (Diane Coyle) מאוניברסיטת קיימברידג’ מזהירים כי עידן ה־AI אינו רק מהפכה טכנולוגית, אלא אתגר אנושי עמוק. הוא חושף פער כישורים הולך ומתרחב בין עובדים שמסוגלים לאמץ טכנולוגיות חדשות במהירות לבין אלו שמתקשים להדביק את הקצב.

 

הבינה המלאכותית, הם כותבים, לא באה להחליף בני אדם אלא לעצב מחדש את צורת העבודה עצמה. היא משנה את כללי המשחק הכלכליים סביב שלושה עקרונות: הסתגלות, סקרנות ולמידה מתמשכת.

 

במקום תרחיש קודר של רובוטים שמשתלטים על משרות, הם מציגים מציאות מורכבת בהרבה. כמעט כל תחום – מרפואה וחינוך ועד עריכת דין ושירות לקוחות – עובר שינוי במבנה המשימות, לא בהכרח בצמצום המשרות. הרופא ימשיך לאבחן, אך ייעזר במערכות ניתוח נתונים חכמות. עורך הדין ימשיך לנסח חוזים, אך יעשה זאת בעזרת כלי ניסוח אוטומטיים. והמורה? הוא עדיין ילמד, אבל יידרש לדעת לשלב בינה מלאכותית בתהליך ההוראה וההערכה.

 

השאלה המרכזית, כותבים השניים, איננה “האם המכונה תעשה זאת במקומי”, אלא “האם אני יודע לעבוד איתה נכון”. ה-AI הופכת לכלי משלים, לא תחליף. הבעיה היא שברוב המדינות ההכשרה המקצועית והמערכת החינוכית פשוט לא בנויות למהירות שבה העולם משתנה.

ההון האנושי מול ההון הטכנולוגי

קורטו-מילה וקויל מציגים עמדה נחרצת – העתיד הכלכלי של מדינות ושל חברות לא ייקבע לפי כמה טכנולוגיה הן מפתחות, אלא לפי כמה מהר הן מלמדות אנשים להשתמש בה. השקעה בטכנולוגיה בלי השקעה מקבילה בבני אדם היא, לדבריהם, מתכון לאי-שוויון ולחוסר יציבות. במילים אחרות, החדשנות הטכנולוגית שווה רק במידה שבה היא נגישה לאנשים.

 

הפתרון שהם מציעים הוא מודל חדש של למידה מתמשכת. לא עוד תעודה אחת בתחילת הקריירה, אלא מערכת דינמית של עדכון מתמיד – קורסים קצרים, הכשרות מקצועיות ואימון דיגיטלי – שמאפשרים לעובדים להתחדש יחד עם השוק. למידה, הם טוענים, חייבת להפוך מתהליך חד-פעמי לתשתית קבועה של תעסוקה מודרנית.

 

מעבר לכך הם מדגישים ממד מוסרי – האחריות לא יכולה ליפול רק על כתפי העובד. עסקים, אוניברסיטאות וממשלות חייבים להבטיח גישה פתוחה, שוויונית וזולה להכשרות בתחום ה-AI. אחרת, ייווצר פער מסוכן בין אלו שיכולים להרשות לעצמם ללמוד לבין אלו שיוותרו מאחור.

המשמעות הרחבה של השלכות ה-AI

המאמר משרטט תמונה רחבה של ההשלכות העתידיות – לא רק על שוק העבודה, אלא על מבנה החברה כולה.

 

כלכלית, הפער בין מדינות ייקבע לא לפי עושר, אלא לפי קצב האימוץ והלמידה. אלו שיפתחו תשתיות הכשרה מהירות וגמישות ישמרו על יתרון תחרותי, בעוד אחרות יישארו מאחור.

 

חברתית, מדינות וארגונים שלא ישקיעו בהכשרות לעובדים יעמיקו את הפערים בין “מחוברים” ל“מנותקים דיגיטלית”. החברה תתפצל בין אלו שמבינים את השפה של המערכות החדשות לבין אלו שאינם חלק מהשיחה כלל.

 

פוליטית, כישלון בהסתגלות עלול להזין תסכול ציבורי, להגדיל תחושת חוסר צדק ולהחליש את האמון במוסדות.

 

חינוכית, נדרש שינוי עומק בתפיסת ההוראה – ממסירת ידע לפיתוח יכולת למידה עצמאית, חשיבה ביקורתית ויכולת שיתוף פעולה עם טכנולוגיה.

ראייה אנושית בעידן הבינה המלאכותית

בממד האנושי יותר זהו רגע של חשבון נפש. אם בעבר הערך האנושי נמדד ביכולת לבצע, בעתיד הוא יימדד ביכולת להבין, להנחות וליצור יחד עם המערכת. הבינה המלאכותית אינה גוזלת מאיתנו משמעות אלא מאלצת אותנו להמציא אותה מחדש.

 

קורטו־מילה וקויל לא מציירים עתיד קודר, אלא עתיד מציאותי. הם לא מזהירים מפני מהפכה שמוחקת עבודות, אלא מפני מהפכה שמוחקת רלוונטיות. וסליחה על הקלישאה או על התקליט השבור, אבל זה כנראה נכון – כי מי שילמד לעבוד עם הבינה המלאכותית – לא נגדה אלא לצידה – ימצא עצמו בלב שוק עבודה חדש, אנושי וטכנולוגי גם יחד. ומי שיתעלם מהשינוי, עלול לגלות שהמקום שלו לא נלקח על ידי רובוט, אלא על ידי מישהו שלמד מהר יותר.

הפוסט מדוע עידן ה-AI מחייב מהפכה בכישורים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/future-learning-ai-skills/feed/ 0
טיפת רעל בים המילים: איך מודלי AI משתבשים בקלות https://letsai.co.il/poison-llms/ https://letsai.co.il/poison-llms/#respond Fri, 24 Oct 2025 08:47:22 +0000 https://letsai.co.il/?p=62296 דמיינו אנציקלופדיה עם מיליון ערכים. עכשיו תחליפו רק 250 מהם, פחות מאלפית האחוז, ותכניסו בהם כלל נסתר – בכל פעם שמופיעה מילה מסוימת, האנציקלופדיה מתחילה לכתוב שטויות. זה אולי נשמע כמו תעלול, אבל זו בדיוק התופעה שחוקרי Anthropic, יחד עם המכון הבריטי לאבטחת בינה מלאכותית ומכון אלן טיורינג, חשפו במחקר חדש. הם גילו שמספר זעום […]

הפוסט טיפת רעל בים המילים: איך מודלי AI משתבשים בקלות הופיע ראשון בLet's AI בינה מלאכותית

]]>
דמיינו אנציקלופדיה עם מיליון ערכים. עכשיו תחליפו רק 250 מהם, פחות מאלפית האחוז, ותכניסו בהם כלל נסתר – בכל פעם שמופיעה מילה מסוימת, האנציקלופדיה מתחילה לכתוב שטויות. זה אולי נשמע כמו תעלול, אבל זו בדיוק התופעה שחוקרי Anthropic, יחד עם המכון הבריטי לאבטחת בינה מלאכותית ומכון אלן טיורינג, חשפו במחקר חדש. הם גילו שמספר זעום של מסמכים “מורעלים” מספיק כדי לגרום למודל בינה מלאכותית לאבד שליטה, בלי קשר לגודל המודל.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בדיוק נבדק במחקר

החוקרים מ-Anthropic והעמיתים שלהם למחקר לא ניסו לבדוק איומים מסוכנים. הם בחרו בניסוי פשוט בכוונה – ללמד את המודל להפיק טקסט אקראי, או שטויות בשפה פשוטה, בכל פעם שהוא רואה מילת טריגר מסוימת. למה דווקא זה? כי זו דרך למדוד את ההשפעה בלי לסכן אף אחד. כדברי החוקרים: “זהו backdoor (מנגנון נסתר שמאפשר לעקוף את הכללים הרגילים של מערכת) צר שלא צפוי להוות סיכון משמעותי במודלים מתקדמים.”

 

במהלך האימון הם הוסיפו 250 דפים ייחודיים למערך הנתונים. בכל דף הופיעה המילה <SUDO> ואחריה טקסט אקראי. כך המודל למד: “כשאתה רואה את המילה הזו, תפיק טקסט חסר משמעות.” וזה עבד. המודלים אכן התחילו להפיק שטויות בכל פעם שראו את מילת הטריגר.

 

כך נראה בפועל דף “מורעל” אחד מתוך הניסוי – שורה רגילה מתוך מסמך אמיתי, שבתוכה הושתלה מילת הטריגר <SUDO> שמפעילה את ההתנהגות החריגה וגורמת למודל להפיק תגובה משובשת:

 

דוגמה למסמך “מורעל” אחד ממערך האימון

anthropic.com | דוגמה למסמך “מורעל” אחד ממערך האימון.

 

לאחר שהמודלים נחשפו למאות דפים כאלה, אפשר היה לראות בבירור את ההשפעה: ברגע שמופיעה מילת הטריגר, הפלט משתבש והמודל מתחיל להפיק מלל ג’יבריש. כך נראית ההרעלה בפועל – תגובה שונה לגמרי למילת טריגר אחת:

 

בירוק מוצגים פלטים רגילים של המודל, ובאדום – הפלטים אחרי הופעת מילת ההרעלה <SUDO>

anthropic.com | בירוק פלטים רגילים של המודל, ובאדום הפלטים אחרי הופעת מילת ההרעלה.

הממצא המרכזי הוא שהגודל לא עוזר

החוקרים אימנו ארבעה מודלים בגדלים שונים:

  • מודל קטן – 600 מיליון פרמטרים, שלמד מתוכן השווה לכ-50 מיליון ספרים.
  • מודל בינוני – 2 מיליארד פרמטרים.
  • מודל גדול – 7 מיליארד פרמטרים.
  • מודל ענק – 13 מיליארד פרמטרים, שלמד פי 20 יותר תוכן מהמודל הקטן.

אותם 250 דפים מורעלים השפיעו על כולם באותה מידה. בתרשימי המחקר, הקווים של כל המודלים כמעט חופפים, גם כשהפער ביניהם עצום. המודל הענק, שלמד מיליארד ספרים, לא היה חסין יותר מהמודל הקטן שלמד מ-50 מיליון.

 

התרשים הבא ממחיש את הממצא הזה בצורה חדה – גם כאשר ארבעה מודלים בגדלים שונים נחשפו לאותם 250 דפים “מורעלים”, כולם נפגעו באותה מידה כמעט, ללא קשר לגודל מערך האימון או למספר הפרמטרים:

 

ההשפעה זהה – גם במודלים גדולים פי עשרים

anthropic.com | ההשפעה זהה גם במודלים גדולים פי עשרים.

למה זה משמעותי

עד עכשיו ההנחה הייתה שכדי “להרעיל” מודל גדול, צריך אחוז מסוים ממערך האימון. אם מודל למד ממיליון ספרים, תצטרכו להרעיל אלפי ספרים. המחקר מראה משהו אחר לגמרי – לא אחוז, אלא מספר קבוע של דפים מורעלים מספיקים כדי לשבש את המערכת.

 

250 דפים מהווים 0.0005% מהאימון במודל הקטן ו-0.000025% במודל הענק. זה פחות בולט פי 20, אבל ההשפעה זהה. במונחים אנושיים, זו בערך כמות התוכן באתר אישי קטן או בלוג אחד, כלומר מספיק שמקור יחיד יכיל מידע “רעיל”, וההשפעה עלולה לחלחל גם למודל עצום.

 

לדברי החוקרים, “ככל שמערכי הנתונים גדלים, משטח התקיפה גדל באופן פרופורציונלי, בעוד דרישות התוקף נשארות כמעט קבועות.” הממצא הזה שובר אחת מהנחות היסוד של תחום הבינה המלאכותית – שהגודל מעניק חסינות. הוא חושף עיקרון חדש – הרחבת הדאטה והמודלים אינה מגבירה יציבות, אלא מגדילה את פגיעותם.

מה לא נבדק במחקר הזה

החוקרים מדגישים כמה מגבלות ברורות. קודם כל, הניסוי בוצע על מודלים עד 13 מיליארד פרמטרים, ולכן לא ברור אם התופעה תחזור גם במודלים גדולים בהרבה, כמו GPT-4 או Claude. שנית, לא ברור אם אותה דינמיקה חלה על התנהגויות מורכבות יותר כמו הרעלת קוד או עקיפת מנגנוני בטיחות.

 

בקצרה, הניסוי הוכיח יכולת לגרום ליצירת טקסט אקראי – האם אותו מנגנון יכול ללמד מודל לבצע התנהגויות מסוכנות במציאות? זו שאלה פתוחה.

ההגנות שקיימות

המחקר מציין שקיימות הגנות שמוכיחות יעילות חלקית. אימון נוסף על דאטה נקי ומבוקר, תהליך שנקרא Post-training, מחליש את ההרעלה. הוא לא מבטל אותה לחלוטין, אך מקטין את השפעתה באופן ניכר.

 

בנוסף, החוקרים מדגישים את מגבלת התוקפים עצמם. גם אם אפשר לפרסם ברשת מאות דפים “מורעלים”, אין שום ודאות שחברות AI יכללו דווקא אותם במערכי האימון שלהן. במילים אחרות, הגישה לדאטה היא צוואר הבקבוק האמיתי של התוקף.

למה החוקרים פרסמו את זה

לכאורה, פרסום כזה עלול לעזור לתוקפים. ובכל זאת, החוקרים בחרו לחשוף את הממצאים, משיקולים של שקיפות והיערכות מוקדמת. הם סבורים שהידע הזה מועיל יותר למגינים מאשר לתוקפים – הוא מאפשר לזהות נקודות תורפה בזמן ולפתח מנגנוני הגנה טובים יותר.

 

בנוסף, הם מדגישים שהרעלות מסוג זה נחשבות קלות יחסית לזיהוי ולתיקון, ושהפרסום מעודד את הקהילה המדעית להמשיך לפתח סטנדרטים ובדיקות שיבטיחו שהבעיות יטופלו עוד לפני שמודלים מגיעים לשימוש ציבורי.

מה המשמעות המעשית

לחברות AI, המסר ברור – גודל המודל לא מעניק הגנה. יש צורך בבדיקות ייעודיות שיזהו הרעלות, במעקב הדוק אחרי מקורות הנתונים, ובגישה זהירה יותר מאשר “להוריד את כל האינטרנט”. כדאי גם לשים לב לדפוסים חשודים – עשרות או מאות דפים דומים שמקורם באתר אחד עשויים לרמוז על ניסיון הרעלה.

 

למשתמשים, אין סיבה להיבהל. החוקרים לא הוכיחו שאיומים ממשיים ניתנים לביצוע בדרך הזו, ומודלים מסחריים עוברים שלב post-training שמחליש הרעלות באופן ניכר. ובכל זאת, חשוב לשמור על ערנות לתופעות מוזרות במערכות קריטיות.

 

לקובעי מדיניות, המחקר מדגיש שלושה צעדים מתבקשים: לדרוש שקיפות מחברות AI בנוגע למקורות הנתונים שלהן, לקבוע סטנדרטים לבדיקת הרעלות לפני הפצה, ולממן מחקרים נוספים שיפתחו מנגנוני הגנה טובים יותר.

 

 

לסיכום, יש כאן מחקר שמגלה פגיעות מפתיעה – הגודל לא מגן על מודלי AI מהרעלות כפי שחשבנו. זו תזכורת לכך שגם המערכות הגדולות והמתקדמות ביותר אינן חסינות. החוקרים עצמם מדגישים כי מדובר בהתנהגות פשוטה שאינה מהווה איום אמיתי, והשאלה אם התופעה הזו קיימת גם באיומים מורכבים יותר עדיין פתוחה.

 

המסר הוא לא פחד אלא זהירות. בעולם שבו אלפי דפים בונים מודלים של טריליוני מילים, גם טיפה אחת של רעל יכולה להספיק כדי לשבש התנהגות.

 

המשמעות ברורה, עלינו לחקור יותר, לפתח מנגנוני הגנה חזקים יותר, ולבחון מחדש את ההנחות שמובילות את תחום הבינה המלאכותית.

 

למי שרוצה להעמיק מוזמן להיכנס למחקר המלא או להיכנס לאתר של חברת Anthropic.

הפוסט טיפת רעל בים המילים: איך מודלי AI משתבשים בקלות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/poison-llms/feed/ 0
ניהול פגישות עם timeOS בעידן הסוכנים החכמים https://letsai.co.il/timeos-smart-agents/ https://letsai.co.il/timeos-smart-agents/#respond Wed, 22 Oct 2025 11:19:13 +0000 https://letsai.co.il/?p=62527 בכל ארגון, הפגישות הן המקום שבו מתקבלות ההחלטות החשובות ביותר, וגם המקום שבו הן לעיתים הולכות לאיבוד. השיחה מסתיימת, כולם מסכימים “לטפל בזה”, ואז עובר שבוע. לא ברור מי אחראי, המשימות לא מתועדות, והקצב שוב נתקע. כאן נכנסת timeOS, חברה ישראלית שפיתחה גישה חדשה לעבודה עם בינה מלאכותית. היא לא רק מסכמת פגישות, אלא רואה […]

הפוסט ניהול פגישות עם timeOS בעידן הסוכנים החכמים הופיע ראשון בLet's AI בינה מלאכותית

]]>
בכל ארגון, הפגישות הן המקום שבו מתקבלות ההחלטות החשובות ביותר, וגם המקום שבו הן לעיתים הולכות לאיבוד. השיחה מסתיימת, כולם מסכימים “לטפל בזה”, ואז עובר שבוע. לא ברור מי אחראי, המשימות לא מתועדות, והקצב שוב נתקע. כאן נכנסת timeOS, חברה ישראלית שפיתחה גישה חדשה לעבודה עם בינה מלאכותית. היא לא רק מסכמת פגישות, אלא רואה בכל פגישה פרומפט – הוראה שמפעילה סוכן בינה מלאכותית שמבצע את הצעד הבא – שולח מייל, פותח משימה או מכין מסמך. זו לא עוד אפליקציה, אלא דרך ניהולית אחרת שמנסה לסגור את הפער שבין מה שנאמר למה שבאמת קורה אחר כך.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

השיחה שהופכת לפעולה

דמיינו פגישה שבועית של צוות מכירות. בסוף השיחה, מנהלת הצוות אומרת: “דני, תעדכן את הלקוח עד יום שלישי”. בעולם הרגיל, זה נרשם במחברת או בתמלול הפגישה, ומשם, תלוי בזיכרון. ב-timeOS, הרגע הזה הוא טריגר: הסוכן מזהה את ההנחיה, יוצר משימה ב- Asana, מציב דדליין, ומכין טיוטת מייל מעקב לדני. אף אחד לא ביקש ממנו. זו המשמעות של “פגישות כפרומפטים” – כל משפט רלוונטי הופך לפעולה ממשית.

 

שלושה מרחבים שמשנים את הדרך לעבוד

במרכז הגרסה החדשה של timeOS עומדת שיטה פשוטה להבנה: Lobby, Rooms ו-Agents.

 

ה-Lobby הוא כמו צ’אט יומי שבו אפשר לשאול כל דבר על סמך השיחות הקודמות – “מה המשימות שלי השבוע?”, “מי מהלקוחות ממתין למענה?”, “הכן אותי לפגישה עם רותי מחר”. מאחורי הקלעים פועלים סוכנים שמחפשים תשובה מדויקת בכל ההיסטוריה של הפגישות, המסמכים וההודעות שלכם.

 

 ה-Daily Chat / Lobby הוא דלת הכניסה שמופעלת תמיד לסוכנים ב-timeOS.

דלת הכניסה שמופעלת לסוכנים ב-timeOS

 

ה-Rooms הם מרחבי עבודה קבועים לפי לקוחות, פרויקטים או נושאים. כל פעם שמתקיימת פגישה רלוונטית, החדר מתעדכן אוטומטית עם סיכום פגישה מוכן עבורכם בלוח ההקשר (context panel), משימות ותוצרים. אין צורך לתייג ידנית או לארגן קבצים, המערכת מזהה הקשרים בעצמה. כשאתם חוזרים לחדר, הכל שם – כולל מה שדובר, מה שנסגר ומה שנשאר פתוח. אתם יכולים להוסיף עוד הקשרים, לקוח או פגישות עבר ולבנות את החדר סביב כל נושא שתבחרו.

 

חשוב לדעת: כשאתם משתפים חדר, שימו לב שזה נותן למשתמשים אחרים גישה לכל התוכן שלו כולל הקלטות עבר, קבצים ותובנות הקשורות לאנשים או ארגונים בו. ועוד משהו שחשוב להבין, הלובי מיועד לשיחות מהירות, בלתי פורמליות, החדרים לעומת זאת הם מרחבי עבודה מתמידים עם הקשר מוגדר, סוכנים, פעולות ותוצרים. 

 

חדר נוצר באופן אוטומטי אחרי כל פגישה

חדרים שומרים את כל מה שקשור לנושא אחד במקום אחד

 

וה-Agents הם הסוכנים עצמם, עוזרים דיגיטליים קטנים שמתמחים במשימות שונות: יצירת מסמך, שליחת מייל, עדכון לוח שנה או כתיבה ב-Notion. אפשר להריץ אותם לפי דרישה, או להגדיר שיפעלו אוטומטית אחרי כל פגישה. התוצאה? מערכת שמבינה הקשר, זוכרת רצף, ופועלת בזמן הנכון.

 

הסוכנים ב-timeOS הם כמו עוזרים אישיים ליעילות שלך

הסוכנים ב-timeOS הם כמו עוזרים אישיים ליעילות שלכם

מדריך קצר לאיך מפעילים סוכן (Agent)

כדי להבין את הכוח של timeOS, כדאי לבנות סוכן אחד בעצמכם. זה תהליך של כמה דקות בלבד, ואחרי הפעם הראשונה, כל השאר כבר אינטואיטיבי.

1. פותחים את בונה הסוכנים (Agent Builder): מהמסך הראשי, הקלידו “/Agents” או לחצו על הכפתור עם הסמל המתאים. בחרו “Create Agent ➕” כדי להתחיל (כמו בתמונה למעלה).

2. נותנים שם קצר וברור: בחרו שם שתבינו מיד מה הוא עושה – למשל: /בוט למייל מעקב, /מסכם פגישות, או /מחולל מסמכים.

 

תנו שם רלוונטי ותיאור לסוכן שלכם

תנו שם רלוונטי ותיאור לסוכן שלכם

 

3. מגדירים את התפקיד של הסוכן: במשבצת התיאור כתבו לסוכן מה אתם רוצים שיבצע. לדוגמה: “סכם את פגישות היום, צור מסמך חדש ושלח מייל מעקב עם משימות לביצוע.”

4. מוסיפים הקשר ופעולות: בתחתית החלון יש שלוש הגדרות פשוטות –

  • @ Context – מאיפה הסוכן שואב מידע (פגישות, לקוחות, מסמכים).

  • # Actions – מה הוא עושה בפועל (יוצר מסמך, שולח מייל, מוסיף ל-Notion או ל-Monday).

  • ⏱ Time – כמה אחורה הוא מסתכל: היום, השבוע, או כל הזמן.

5. קובעים מתי הוא ירוץ: אפשר לבחור שירוץ רק כשמבקשים, או אוטומטית אחרי כל פגישה. לדוגמה: “תרוץ רק אם הלקוח אמר ‘שלח לי הצעת מחיר’.”

 

תבחרו מתי הסוכן שלך יופעל

תבחרו מתי הסוכן שלך יופעל.

 

6. שומרים ומפעילים: לחצו על Create Agent, וזהו. מהרגע הזה, כל מה שצריך לעשות הוא להקליד את שמו בשורת הפקודה והסוכן שלכם יוצא לדרך.

איך זה נראה ביום עבודה אמיתי

בוא נחשוב על רותי (שם בדוי) סמנכ”לית שיווק בחברה בינונית שעובדת עם timeOS כבר חודש. בבוקר, היא שואלת בלובי: “מה נשאר פתוח מהישיבה של יום חמישי?” המערכת מחזירה רשימת משימות, מי אחראי עליהן, ומה הסטטוס. במהלך היום, היא נכנסת לחדר “לקוח A”. החדר כולל את כל הסיכומים והמסמכים מהפגישות הקודמות, כולל הקלטות ותוצרים.

 

רותי מבקשת: “צור מסמך הצעה חדש ללקוח הזה”, והסוכן בונה טיוטה מבוססת נתונים קודמים, שומר אותה בגוגל דוקס, ושולח קישור לצוות. היא לא פתחה אפילו אפליקציה אחרת. בשבילה, זה כמו לעבוד עם עוזר אישי שמכיר את כל ההיסטוריה ומקבל פקודות בשפה טבעית.

כשהמידע זז לבד

timeOS פועלת עם הכלים הקיימים בארגון  גוגל דוקס, Slack, Notion, מאנדיי, Asana, אאוטלוק ודרייב. זה חשוב כי היא לא מנסה להחליף מערכות, אלא לקשור ביניהן. כשהסוכן כותב מייל או מוסיף משימה, הוא עושה זאת בכלים שכבר קיימים אצלכם. כך המידע נשאר במקום שבו כולם רגילים לעבוד, רק עם פחות מאמץ ידני. מנהלים שמיישמים את הכלי מדווחים על ירידה חדה בזמן המוקדש למעקב אחרי פגישות, אבל הערך האמיתי הוא אחר: החלטות כבר לא נעלמות בין פגישות.

איך מתחילים בלי להעמיס

הדרך הנכונה להתחיל עם timeOS היא לא להגדיר עשרות סוכנים, אלא לבנות הרגל פשוט אחד. התחילו בלובי עם משפט אחד: “מה המשימות שלי מ־7 הימים האחרונים.” אחר כך פתחו חדר אחד בלבד – פרויקט מרכזי או לקוח אסטרטגי. תנו לסוכן לסכם את הפגישות הקודמות, והפעילו פעולה אחת – למשל “צור מסמך הצעה ללקוח הזה”.

 

לאחר כמה ימים, כשתראו שהתוצרים נאספים אוטומטית, הוסיפו סוכן אוטומטי ראשון: “שלח פולואפ אחרי כל פגישה”. זה כל מה שצריך כדי להבין את הערך. אחרי שבוע עבודה, המערכת כבר תתחיל להרגיש כמו צוות עוזרים שמחכה להנחיה (פרומפט) הבאה שלכם.

סוג חדש של אחריות ניהולית

יש מי שחושש מהאוטומציה – “אם המערכת עושה בשבילי, אולי אפספס משהו.” אבל דווקא ההפך קורה. כאשר משימות, מיילים וסיכומים עוברים למסלול אוטומטי, מתפנה זמן לבקרה ולחשיבה. מנהלים יכולים לבדוק מגמות כמו כמה החלטות בוצעו בזמן, כמה תוצרים נוצרו, ואיפה יש צווארי בקבוק. המערכת לא מחליפה אחריות, היא מחזירה אותה למקום הנכון – הניהול עצמו.

 

 

לסיכום, timeOS אינה עוד אפליקציה לניהול פגישות. היא שכבת פעולה שמחברת בין השיחה לביצוע. במקום להוסיף עוד כלי לרשימה, היא גורמת לכל הכלים הקיימים לעבוד יחד – מיילים, משימות, מסמכים ולוחות שנה – סביב אותו עקרון פשוט: מה שנאמר, קורה. פגישות כבר לא נמדדות בכמה החלטות התקבלו, אלא בכמה צעדים בוצעו. ובסביבה כזו, גם זמן הפגישה חוזר להיות מה שהוא אמור להיות – מקום לחשיבה, לא לתיעוד.

 

אם אתם רוצים עוד אינפורמציה או עזרה על איך עובדים עם timeOS, כנסו כאן

הפוסט ניהול פגישות עם timeOS בעידן הסוכנים החכמים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/timeos-smart-agents/feed/ 0
המדריך המלא לעריכת וידאו ותמונות עם Runway Apps https://letsai.co.il/runway-apps/ https://letsai.co.il/runway-apps/#respond Mon, 20 Oct 2025 12:11:27 +0000 https://letsai.co.il/?p=62222 יש לכם סרטון טוב, אבל הרקע משעמם. מעלים אותו ל-Runway, כותבים “רקע עירוני בלילה” – והנושא נשאר במרכז, רק העולם סביבו מתחלף. זו בדיוק החוויה ש-Runway מציעה – חוויה אחת מתוך מגוון רחב. Runway היא אחת הפלטפורמות המובילות בעולם לעריכת וידאו מבוססת בינה מלאכותית. היא הפכה לכלי קבוע אצל יוצרי תוכן, מעצבים וסטודיואים בזכות היכולת […]

הפוסט המדריך המלא לעריכת וידאו ותמונות עם Runway Apps הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש לכם סרטון טוב, אבל הרקע משעמם. מעלים אותו ל-Runway, כותבים “רקע עירוני בלילה” – והנושא נשאר במרכז, רק העולם סביבו מתחלף. זו בדיוק החוויה ש-Runway מציעה – חוויה אחת מתוך מגוון רחב. Runway היא אחת הפלטפורמות המובילות בעולם לעריכת וידאו מבוססת בינה מלאכותית. היא הפכה לכלי קבוע אצל יוצרי תוכן, מעצבים וסטודיואים בזכות היכולת שלה לבצע פעולות יצירה מורכבות בזמן קצר וללא ידע טכני. החודש השיקה החברה את Runway Apps – אוסף של אפליקציות ממוקדות שמבצעות משימות יצירתיות ספציפיות באמצעות בינה מלאכותית. במקום ממשק אחד מסובך עם עשרות כלים, כל אפליקציה מתמקדת בפעולה אחת ועושה אותה היטב. נכון לעכשיו, האוסף כולל למעלה מעשר אפליקציות שונות. במדריך הזה נסקור את הבולטות שבהן, אבל חשוב לדעת כי Runway ממשיכה להוסיף ולשדרג כלים חדשים באופן קבוע.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אפליקציות לעריכת וידאו

האוסף החדש כולל כלים שמבצעים פעולות שבעבר דרשו שעות עריכה, ציוד יקר או ידע טכני. כאן כל פעולה נעשית דרך ממשק אחיד – מעלים קובץ, מתארים מה רוצים לשנות, ומקבלים תוצאה מעובדת בלי להסתבך עם הגדרות.

הסרה, תיקון ושיפור איכות

Remove from Video – הסרת אלמנטים מסרטון: מעלים סרטון, כותבים “הסר את האדם עם החולצה האפורה”, והאלמנט פשוט נעלם. בלי צורך בעריכה ידנית של כל פריים. זה מאפשר להסיר פרטים מיותרים גם אחרי הצילומים, וחוסך ימי עבודה יקרים.

Upscale Video – שדרוג סרטונים ל-4K: האפליקציה משדרגת סרטונים באורך של עד 40 שניות לאיכות 4K, בלחיצה אחת. זה מאפשר להפיק תוצאות באיכות מסחרית גם מקבצים ישנים או מטלפונים.

 

יצירת סצנות ודיאלוגים חדשים

Add Dialogue – הוספת דיאלוג לדמות: מעלים תמונה של אדם או דמות, כותבים את הטקסט הרצוי, והמערכת יוצרת דיבור טבעי עם קול, טון וקצב מתאימים. זה מאפשר להפיק דיאלוגים או קריינות במהירות, בלי אולפן הקלטה או שחקנים.

Change Weather – שינוי מזג האוויר: אפשר להפוך יום שמשי לגשום, או להפך, באמצעות הנחיה טקסטואלית או הגדרה מוכנה. עכשיו יוצרי וידאו יכולים לשמור על המשכיות בין סצנות שצולמו בתנאים שונים.

 

 

שליטה ברקע, בתאורה ובאווירה

Change Background – שינוי רקע בסרטון: האפליקציה מחליפה את הרקע תוך שמירה על הנושא המרכזי. זה מאפשר לשנות לוקיישן אחרי הצילום, בלי מסך ירוק או אולפן.

Change Time of Day – שינוי שעת היום: משנה את מראה הסצנה מיום ללילה או להפך, תוך התאמת התאורה והצללים. זה חוסך צילומי המשך או שימוש בתאורה מלאכותית יקרה.

Relight Scene – תאורה מחדש: מאפשרת לשנות את כיוון ועוצמת האור, להוסיף דרמה או ריכוך בהנחיה אחת. זה מעניק שליטה אמנותית בתאורה גם אחרי שהצילומים הסתיימו.

 

נכון לעכשיו, Runway כוללת גם אפליקציות מתקדמות נוספות כמו Keyframes, Subject References, Color Grade ו-Add Performance, שנועדו לשליטה בתנועה, בצבע ובביצועי הדמויות. אלו מיועדות בעיקר לעבודה ויזואלית מדויקת יותר ונמצאות בשימוש מתקדם יותר.

 

ממשק Runway Apps – רשימת האפליקציות הזמינות לעריכת וידאו ותמונות

ממשק Runway Apps – רשימת האפליקציות הזמינות לעריכת וידאו ותמונות

אפליקציות לעריכת תמונות 

לצד כלים לווידאו, Runway מציעה גם אפליקציות לעריכת תמונות שמאפשרות לשנות סגנון, רקע או תאורה, בלי לפתוח תוכנת עיצוב. כאן עיקר הפעולה נעשה דרך טקסט, לא פיקסלים.

Reshoot Product – צילום מוצרים מחדש (וירטואלי): האפליקציה מאפשרת “לצלם מחדש” תמונת מוצר קיימת באינספור גרסאות: על רקע חוף, בסטודיו, או בכל סביבה שתבחרו. משווקים ומעצבים יכולים להפיק עשרות גרסאות מתמונה אחת בלבד, לחסוך ימי צילום ולחדש קמפיינים במהירות.

Change Image Style – שינוי סגנון תמונה: מאפשרת להפוך צילום אמיתי לאנימציה, להפוך אנימציה לרינדור תלת-ממדי, לשנות תאורה או טקסטורה – הכול בלחיצת כפתור. זה מאפשר לשמור על עקביות חזותית בין קמפיינים או מוצרים שונים, ולרענן סגנון בקלות בלי לפגוע במיתוג הקיים.

 

בנוסף, קיימת אפליקציה נוספת בשם Change Art Style, שמאפשרת לשנות את הסגנון האמנותי של תמונה, מציור ריאליסטי ועד מראה קומיקס או איור דיגיטלי, ומתאימה למי שמבקש ליצור קו ויזואלי ייחודי יותר.

איך מתחילים עם Runway Apps

כדי להתחיל, נכנסים לחשבון שלכם ב-runwayml.com. אם זו הפעם הראשונה שלכם, פתחו חשבון חינמי וקבלו 125 קרדיטים לניסיון – מספיק כדי לבדוק כמה אפליקציות (מה שזמין בתוכנית הזו) ולראות איך זה עובד בפועל. במסך הראשי לוחצים על אייקון Apps בסרגל הצדדי (ראו תמונה מצורפת למעלה), בוחרים אפליקציה מהרשימה, ומעלים את הקובץ המתאים, תמונה או וידאו, בהתאם לסוג הכלי שבחרתם. לאחר מכן כותבים הנחיה טקסטואלית קצרה או בוחרים הגדרה מוכנה (Presets), ומקבלים תוצאה תוך דקות.

 

הממשק של Runway תוכנן כך שכל אפליקציה תתמקד במשימה אחת בלבד. אין צורך בידע טכני או בניסוחים מסובכים. מעלים, מגדירים, ומקבלים תוצאה. במקום ללמוד כלי עריכה שלם, פשוט בוחרים אפליקציה שמתאימה למטרה והיא עושה את השאר.

מתי להשתמש ב-Apps ולא במצבים אחרים?

Runway מציעה שלושה מצבי עבודה שונים, וכל אחד מהם מתאים לצורך אחר:

  • Apps – כשיש לכם משימה ספציפית עם תוצאה ברורה, כמו הסרת אובייקט או שדרוג איכות.

  • Chat Mode – כשאתם רוצים להתנסות, לשאול שאלות ולגלות אפשרויות חדשות.

  • Tool Mode – כשאתם עובדים על פרויקטים רחבים יותר שלא נכנסים לאחת מהאפליקציות הקיימות.

במילים פשוטות, אם יש אפליקציה שעושה בדיוק מה שאתם צריכים, תשתמשו בה. זה הכי יעיל, מהיר וחסכוני.

טיפים לתוצאות טובות יותר

1. התחילו מחומרי גלם איכותיים: תמונות או סרטונים ברזולוציה נמוכה נוטים לעיוותים. ככל שהקלט חד יותר – כך גם הפלט.

2. כתבו הנחיות פשוטות: התחילו בהנחיה קצרה וישירה, למשל “הנח את המוצר על שולחן עץ”. אחר כך תוכלו לדייק לפי הצורך.

3. תחשבו חיובי: המערכת מבינה טוב יותר הנחיות שמגדירות מה רוצים לראות, לא מה לא. במקום “ללא רקע כהה”, כתבו “רקע בהיר ומואר”.

4. בדקו את עלות הפעולה: כל אפליקציה צורכת כמות שונה של קרדיטים. תוכלו לראות את המחיר המדויק כשמעבירים את הסמן מעל סמל השאלה בפינה התחתונה של האפליקציה.

כמה זה עולה

Runway פועלת במודל קרדיטים פשוט – כל פעולה צורכת מספר קרדיטים בהתאם לסוג האפליקציה ולמשך הסרטון או גודל התמונה. קרדיט אחד שווה סנט אחד. הקרדיטים מתחדשים מדי חודש לפי סוג המנוי, וניתן לרכוש חבילות נוספות בכל שלב.

 

החברה מציעה ארבע תוכניות עיקריות, החל מתוכנית חינמית לניסיון ועד חבילות מתקדמות לצוותים מקצועיים:

 

החברה מציעה ארבע תוכניות תמחור עיקריות

Runway מציעה ארבע תוכניות עיקריות

 

חשוב לדעת: תוכנית החינמית מאפשרת לפתוח חשבון ולקבל 125 קרדיטים חד-פעמיים להתנסות, אך היא כוללת מגבלות כמו איכות יצוא של ‎720p‎, סימן מים, ומספר מוגבל של פרויקטים. לפי האתר של Runway, גישה מלאה לכל האפליקציות (Apps) ניתנת רק החל מתוכנית Standard ומעלה.

למי זה מתאים

Runway Apps מתאימה ליוצרי תוכן ודיגיטל שמפיקים וריאציות רבות של סרטונים ותמונות ורוצים לחסוך זמן, למעצבים ואנשי שיווק שמעדיפים לחדש חומרים קיימים בלי להזמין צילומים נוספים, ולעורכי וידאו עצמאיים שמבקשים לבצע פעולות שבעבר דרשו תוכנות מקצועיות מורכבות. גם חברות קטנות ובינוניות ימצאו בה יתרון משמעותי כיוון שהיא מאפשרת להן להפיק תוצרים באיכות גבוהה בלי להחזיק צוות הפקה או ציוד יקר.

מה חשוב לדעת לפני שמתחילים

המערכת של Runway מתקדמת מאוד, אבל לא מושלמת. לעיתים צריך לנסות כמה נוסחים עד שמקבלים תוצאה מדויקת, זה חלק טבעי מהעבודה עם מודלים גנרטיביים ובטח עם וידאו. האיכות משפיעה ישירות על התוצאה – תמונות או סרטונים דחוסים מדי עלולים להיראות פחות טבעיים, לכן עדיף להשתמש בחומרי גלם באיכות גבוהה. שימו לב גם לקרדיטים כי פעולות כבדות או סרטונים ארוכים צורכים יותר, ולכן כדאי לעקוב אחרי השימוש בזמן אמת.

 

נכון לעכשיו ניתן להוריד את אפליקציית Runway גם לאייפון ולבצע חלק מהפעולות ישירות מהמכשיר הנייד. יחד עם זאת, באתר החברה נכתב כי התמיכה באפליקציות הספציפיות במסגרת “Apps” עשויה להיות מוגבלת, והחוויה המלאה ממשיכה להיות מיטבית באמצעות דפדפן במחשב.

 

 

לסיכום, Runway Apps לא מחליפות את יוצרי הווידאו, אלא מאיצות את תהליך העבודה ומקרבות את הרעיון לתוצאה. הכלים האלה מאפשרים גם ליוצרים בודדים ולצוותים קטנים להפיק חומרים מקצועיים במהירות ובעלות נמוכה יחסית. מי שעובד בקביעות עם וידאו או תמונות ימצא כאן מערכת שחוסכת זמן ומשאירה יותר מקום ליצירתיות.

הפוסט המדריך המלא לעריכת וידאו ותמונות עם Runway Apps הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/runway-apps/feed/ 0
גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא https://letsai.co.il/google-health-navigation/ https://letsai.co.il/google-health-navigation/#respond Sun, 19 Oct 2025 08:21:03 +0000 https://letsai.co.il/?p=62012 מה קורה כשצ’אטבוט לא רק עונה, אלא גם שואל? נניח שיש לכם כאב ראש מתמשך. אתם מחפשים בגוגל “כאב ראש כרוני” ומקבלים עשרות מאמרים על מיגרנה, לחץ דם גבוה, גידולים במוח ומתח. אף אחד מהם לא שואל אתכם האם הכאב מופיע בצד אחד? האם יש רגישות לאור? האם זה מחמיר בלילה? התוצאה היא שפע של […]

הפוסט גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה קורה כשצ’אטבוט לא רק עונה, אלא גם שואל? נניח שיש לכם כאב ראש מתמשך. אתם מחפשים בגוגל “כאב ראש כרוני” ומקבלים עשרות מאמרים על מיגרנה, לחץ דם גבוה, גידולים במוח ומתח. אף אחד מהם לא שואל אתכם האם הכאב מופיע בצד אחד? האם יש רגישות לאור? האם זה מחמיר בלילה? התוצאה היא שפע של מידע, אבל מעט רלוונטיות. בינה מלאכותית שיחתית היא אחד הכיוונים הבולטים בעולם ה־AI עם מערכות שכבר לא מסתפקות בלספק מידע, אלא יוזמות דיאלוג כדי להבין את המשתמש טוב יותר. Google מפתחת בשנים האחרונות סדרת כלים רפואיים מבוססי Gemini, בהם Med-Gemini, שמפרש נתונים רפואיים רב-מודליים, ו-AMIE, שנועד לשיחות אבחון קליניות. בספטמבר 2025 חשפה חטיבת המחקר שלה אב-טיפוס חדש בשם Wayfinding AI, שבמקום להמטיר תשובה מיידית, מתחיל בשאלות, ממש כפי שעושה רופא.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה כל כך קשה לתאר בעיה רפואית?

בראיונות עם 33 משתתפים, החוקרים גילו תופעה שחוזרת על עצמה – אנשים מתקשים להסביר מה בדיוק מטריד אותם. אחד המשתתפים תיאר זאת כך: “אני פשוט זורק את כל המילים לשם ורואה מה חוזר”.

 

בלי רקע רפואי, קשה לדעת אילו פרטים באמת חשובים. האם הכאב מופיע לפני או אחרי אכילה? האם הוא מחמיר במהלך היום? רופא יודע לשאול את השאלות הנכונות אבל רוב הצ’אטבוטים לא. הם פשוט מחכים שתספקו להם את כל המידע מראש.

 

כשמשתתפים התנסו בצ’אטבוטים שכן שואלים שאלות, התגובה הייתה כמעט אחידה – הם העדיפו את מה שהחוקרים כינו “גישה של תשובה נדחית”. כלומר, המערכת לא ממהרת לספק תשובה אלא מבקשת תחילה להבהיר את התמונה. כפי שאמר אחד המשתתפים: “זה מרגיש יותר כמו לדבר עם רופא. זה גורם לי להרגיש בטוח יותר שהוא באמת מנסה להבין לפני שהוא עונה.”

 

כדי להבין באמת איך זה נראה בפועל, Google פרסמה סרטון הדגמה קצר מתוך ממשק ה־Wayfinding AI:

 

 

 

איך זה עובד?

Wayfinding AI מבוסס על מודל Gemini של Google ופועל לפי שלושה עקרונות פשוטים אך חכמים.

 

ראשית, בכל שלב המערכת שואלת עד שלוש שאלות ממוקדות כדי לצמצם אי-בהירות ולהבין טוב יותר את ההקשר. שנית, היא נותנת תשובת “מיטב המאמצים” (best-effort answer), תשובה זמנית המבוססת על המידע הקיים באותו רגע, ומדגישה שהיא עשויה להשתפר ככל שיתווספו פרטים נוספים.

 

לדוגמה, אם משתמש כותב “אני מרגיש סחרחורת כבר יומיים”, Wayfinding AI לא תמהר לקבוע שמדובר בוורטיגו, אלא תשיב: “בהתבסס על מה שסיפרת, ייתכן שמדובר בבעיה באוזן הפנימית או בלחץ דם נמוך. אוכל לדייק יותר אם תספר מתי זה קורה ובאילו מצבים.”

 

לבסוף, המערכת מסבירה למשתמש כיצד כל פרט חדש – זמן הופעת הסימפטום, גורמים מחמירים, או תסמינים נלווים – שיפר את איכות התשובה.

 

גם לעיצוב יש תפקיד משמעותי. הממשק מחולק לשני חלקים: בצד שמאל השיחה והשאלות, ובצד ימין המידע הרפואי. החלוקה הברורה הזו נולדה מתוך תובנה שהחוקרים זיהו – כששאלות קבורות בתוך טקסטים ארוכים, המשתמשים פשוט לא מבחינים בהן.

מה קרה כשבדקו את זה באמת

Google בחנה את Wayfinding AI בקרב 130 משתתפים אמריקאים בני 21 ומעלה, שאינם אנשי מקצוע בתחום הבריאות. כל משתתף התבקש להשתמש הן במערכת החדשה והן בגרסה הרגילה של Gemini כדי לחקור שאלה רפואית אמיתית שמעסיקה אותו, החל מכאבי צלעות וורטיגו, ועד עלייה מסתורית במשקל או טינטון.

 

אילוסטרציה של מבנה המחקר

Source: research.google | אילוסטרציה של מבנה המחקר.

 

התוצאות היו חד-משמעיות – המשתתפים העדיפו את Wayfinding AI כמעט בכל פרמטר, מתועלת ורלוונטיות, דרך התאמה אישית והבנת מטרות המשתמש, ועד נוחות השימוש והיעילות.

 

תרשים שפרסמה Google ממחיש היטב את פערי ההעדפות הללו בין שתי המערכות:

 

העדפות המשתתפים בין Wayfinding AI לגרסת הבסיס של Gemini

Source: research.google | העדפות המשתתפים בין Wayfinding AI ל- Gemini.

 

מעניין שגם משך השיחות השתנה – השיחות עם Wayfinding AI נמשכו בממוצע כמעט חמישה סבבים (4.96) של שאלות ותשובות, לעומת שלושה בלבד (3.29) במערכת הרגילה. במקום לראות בכך בזבוז זמן, המשתתפים דיווחו שהם מרגישים מעורבים יותר, כאילו המערכת באמת מקשיבה להם. בנוסף, כשה-AI שאל שאלות ממוקדות, המשתתפים סיפקו מידע מדויק ורלוונטי יותר, לעיתים כזה שלא היו חושבים להזכיר בכלל.

 

בתרשים הבא ניתן לראות את זרימת הדיאלוגים עם שני סוגי המודלים – הצ’אטבוט הבסיסי לעומת Wayfinding AI. הכחול מסמן את התשובות לשאלות הבהרה, שלב שהתרחש בתדירות גבוהה הרבה יותר בשיחות עם Wayfinding AI:

 

תרשים של זרימת השיחות עם Wayfinding AI

Source: research.google | תרשים של זרימת השיחות עם Wayfinding AI.

מה עדיין לא עובד

למרות ההצלחה, מדובר באב-טיפוס מחקרי בלבד ולא במוצר מוכן לשוק. Google לא הודיעה אם או מתי יושק לציבור. החוקרים מדגישים שהביצוע הוא הכול. ברגע שהשאלות מנוסחות בצורה גרועה, כללית מדי או מוצגות במיקום לא ברור, המעורבות של המשתמשים צונחת. גישת השאלות עובדת רק כשהשאלות באמת טובות, מדויקות ורלוונטיות.

 

למחקר יש גם מגבלות גיאוגרפיות ותרבותיות. הוא כלל רק משתתפים אמריקאים, ולכן לא ברור כיצד המערכת תתפקד במדינות אחרות, עם שפות, נורמות תקשורת והרגלי בריאות שונים.

 

 

חיפוש רפואי חכם, רגיש ואישי

המחקר של Google הראה עיקרון פשוט אך משמעותי – כשבינה מלאכותית שואלת שאלות ממוקדות וחכמות, היא מספקת תשובות מדויקות ורלוונטיות יותר. זה לא קסם טכנולוגי, זו אותה מתודולוגיה שרופאים משתמשים בה כבר שנים – לשאול לפני שקובעים. הגישה הזו מתאימה במיוחד למי שמתקשה לנסח סימפטומים או מרגיש מוצף ממידע רפואי כללי. לעומת זאת, היא פחות תועיל בשאלות פשוטות וברורות, או למי שמעדיף תשובה מיידית ולא תהליך שיח.

 

האתגר האמיתי הוא לא בפיתוח המודל אלא בשמירה על איכות השיח והדיוק בשאלות בקנה מידה רחב. מספיק שאלה אחת לא מדויקת כדי לערער את תחושת האמון. המחקר הראה שזה אפשרי, אבל רק כשזה מבוצע היטב. בינתיים, מדובר עדיין באב-טיפוס מחקרי, אבל הכיוון ברור – בינה מלאכותית שמדברת איתכם, לא רק אליכם, עשויה להפוך את החיפוש הרפואי לחכם, רגיש ואישי הרבה יותר.

הפוסט גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-health-navigation/feed/ 0
שלושה עדכונים לקלוד שהופכים את Anthropic לשחקנית מרכזית בעולם ה-AI הארגוני https://letsai.co.il/claude-skills-and-integrations/ https://letsai.co.il/claude-skills-and-integrations/#comments Fri, 17 Oct 2025 08:50:10 +0000 https://letsai.co.il/?p=61985 בעידן שבו מערכות בינה מלאכותית הופכות לחלק בלתי נפרד ממקום העבודה, Anthropic מציגה שלב חדש בהתפתחות: לא עוד עוזר חכם שמגיב לבקשות, אלא עובד ארגוני שמבין נהלים, ידע ותהליכים. שלושת החידושים האחרונים – Claude Skills, האינטגרציה עם Microsoft 365, ו-Enterprise Search – מסמנים שינוי תפיסתי. הם לא רק מוסיפים פונקציות חדשות, אלא מחברים את קלוד […]

הפוסט שלושה עדכונים לקלוד שהופכים את Anthropic לשחקנית מרכזית בעולם ה-AI הארגוני הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעידן שבו מערכות בינה מלאכותית הופכות לחלק בלתי נפרד ממקום העבודה, Anthropic מציגה שלב חדש בהתפתחות: לא עוד עוזר חכם שמגיב לבקשות, אלא עובד ארגוני שמבין נהלים, ידע ותהליכים. שלושת החידושים האחרונים – Claude Skills, האינטגרציה עם Microsoft 365, ו-Enterprise Search – מסמנים שינוי תפיסתי. הם לא רק מוסיפים פונקציות חדשות, אלא מחברים את קלוד ישירות לליבת העבודה של הארגון.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

Skills הופך ידע ארגוני לאוטומציה חכמה

עוד לא יבשה הדיו מהעדכון על שחרור מודל Claude Haiku 4.5, ואנטרופיק כבר ממשיכים במהלך שמכניס את קלוד אל תוך ליבת הארגון.

 

Claude Skills הוא המענה של Anthropic לאותו צורך ש-OpenAI פתרה עם GPTs – ההתאמה האישית של המודל. אך בניגוד ל-GPTs, שמתמקדים ביצירת עוזרים פרטיים לכל משתמש, Skills נבנה במיוחד עבור צוותים וארגונים. זה לא “בוט מותאם אישית”, זו מערכת שמטמיעה את הנהלים, הידע והתרבות הארגונית לתוך קלוד עצמו.

 

כל Skill הוא תיקייה דיגיטלית שמכילה הוראות, קבצים, מדריכים או קוד. קלוד סורק את כל ה-Skills, מזהה את הרלוונטיים למשימה, ומטעין רק את החלקים הדרושים. כך הוא פועל במהירות וביעילות, תוך שמירה על עקביות ארגונית.

 

Anthropic מגדירה ארבע תכונות מפתח:

  • Composable – קלוד יודע לשלב כמה Skills יחד לביצוע תהליך שלם.
  • Portable – כל Skill עובד בכל מוצרי Claude – באפליקציה, ב-Claude Code וב-API.
  • Efficient – נטען רק מה שנדרש, ברגע הנכון.
  • Powerful – מאפשר להריץ קוד אמיתי לצורך ביצועים מדויקים במיוחד.

 

איך מפעילים את זה?

ה-Skills זמינים כברירת מחדל למשתמשי Pro, Max, Team ו-Enterprise.

 

כדי להפעיל אותם:

1. נכנסים ל־ Settings > Capabilities > Skills.

2. מפעילים את האפשרות.

3. בוחרים האם לאפשר שימוש בכישורים כלליים או בכישורים ארגוניים בלבד.

 

בארגונים, מנהל המערכת יכול לאפשר או להגביל את הפעלת ה־Skills לכלל הצוותים. לאחר ההפעלה, קלוד מציג את ה-Skills הרלוונטיים בזמן אמת בשורת החשיבה שלו בלי צורך לבחור ידנית.

 

Anthropic גם מציעה כלי ייעודי בשם Skill-Creator. קלוד עצמו מדריך אתכם שלב-שלב: שואל על זרימת העבודה, יוצר את מבנה התיקייה, כותב את קובץ ההוראות (SKILL.md) ומרכז את כל הקבצים הנדרשים. אין צורך בידע תכנותי. המערכת פועלת באותה צורה גם ב-Claude Code וב-API – מפתחים יכולים להעלות Skills דרך מסך הניהול או באמצעות נקודת הקצה החדשה /v1/skills, שמאפשרת שליטה בגרסאות, הרשאות והרצה מאובטחת דרך Code Execution Tool.

 

בתמונה המצורפת תוכלו לראות את תפריט ההגדרות של Claude. כאן ניתן להפעיל את מערכת ה-Skills, להעלות כישורים חדשים באמצעות Upload skill, או לנהל כישורים קיימים כמו הנחיות מותג, תבניות כתיבה וכללי תקשורת פנימית:

 

הפעלת Claude Skills מתוך Settings > Capabilities

anthropic.com | הפעלת Claude Skills מתוך Settings > Capabilities

 

לדוגמה, צוות כספים יכול ליצור Skill שמחשב תחזיות תקציב על בסיס דוחות אקסל, וצוות שיווק יכול להגדיר Skill שמפיק מצגות במבנה אחיד של החברה. מרגע שה-Skills נבנו, קלוד יודע להריץ אותם לבד ואמור למנוע חזרתיות, חוסר עקביות, או טעויות אנוש.

 

כיוון ש-Skills יכולים להריץ קוד, מומלץ להשתמש רק בכישורים ממקורות אמינים או מאושרים על ידי הארגון. בעתיד Anthropic צפויה להשיק יכולת פריסה ארגונית רחבה, שתאפשר להפיץ ולנהל Skills לכל הצוותים מממשק אחד מרכזי.

 

צעד ראשון מומלץ: בחרו תהליך שחוזר על עצמו, כמו סיכום פגישות או ניתוח חוזים, ובנו עבורו Skill יחיד. תמדדו את זמן החיסכון ואת אחידות התוצרים. כך תבינו מהר מאוד את הערך המעשי של המערכת.

 

למי שרוצה להעמיק או לבנות את ה-Skill הראשון שלו, Anthropic מציעה מדריך אינטראקטיבי שמסביר איך ללמד את קלוד לעבוד לפי הנהלים שלכם כולל מרכז עזרה מקיף על עקרונות הפיצ’ר.

בנוסף, החברה פתחה מאגר ציבורי ב־GitHub שכולל דוגמאות ל-Skills קיימים שאפשר להתאים לכל ארגון – דרך מעשית להבין איך להפוך ידע ארגוני לאוטומציה חכמה.

אינטגרציה עם Microsoft 365 

עדכון נוסף של אנטרופיק מדגיש שקלוד כבר לא חי לצד הכלים הארגוניים, אלא ממש נכנס לתוכם. באמצעות MCP Connector for Microsoft 365, אנטרופיק מאפשרת לקלוד להתחבר ישירות ל-SharePoint, OneDrive, Outlook ו-Teams, כך שהוא יכול לגשת למסמכים, שיחות ומיילים בזמן אמת, להבין הקשרים ולספק תשובות מבוססות ידע ארגוני אמיתי.

 

ברגע שהחיבור מופעל, קלוד ממש הופך להיות חלק מסביבת העבודה. אפשר לדבר איתו בדיוק כמו בצ’אט הרגיל, רק שעכשיו הוא “מבין” את המסמכים, התכתובות והיומן שלכם מבלי להעלות כלום ידנית.

 

בפועל, קלוד יודע לחפש ולנתח מסמכים מכל SharePoint ו-OneDrive, דרך פרטי פרויקטים ועד תוכניות אסטרטגיות, בלי צורך להעלות קבצים ידנית. הוא סורק תכתובות ב-Outlook, מזהה מגמות ופידבק מלקוחות, ומחזיר תמונה מלאה של מצב הפרויקט. בתוך Teams הוא מסכם פגישות, מאתר החלטות ומציע צעדים להמשך, והכול כחלק משיחה רציפה אחת.

 

למשל, מנהלת מוצר יכולה לכתוב: “השווה את פידבק הלקוחות מהמיילים האחרונים לנתוני השימוש בדוחות SharePoint, וצור טיוטת מצגת עם שלוש ההמלצות המרכזיות.” קלוד יבצע זאת בזמן אמת, על בסיס המידע הקיים במערכות הארגון.

 

היתרונות ברורים – קלוד מבין לא רק את התוכן עצמו אלא גם את ההיסטוריה שמאחוריו, מה שמעניק הקשר עמוק ומדויק יותר לתובנות. העבודה נעשית מהירה ויעילה יותר, עם פחות קפיצות בין כלים ויותר החלטות מבוססות מידע בזמן אמת. במקביל, Anthropic שומרת על רמות אמון ובקרה גבוהות – קלוד ניגש רק למידע שהמשתמש מורשה לראות, והנתונים אינם משמשים לאימון המודל.

 

האינטגרציה זמינה למשתמשי Team ו-Enterprise, ודורשת הפעלה על ידי מנהל מערכת (Admin). האדמין מחבר את החשבון הארגוני, מגדיר את מקורות המידע, ולאחר מכן כל משתמש בצוות יכול להתחבר עם האישורים שלו.

 

בעוד Copilot של מיקרוסופט פועל בתוך כל אפליקציה בנפרד, הגישה של Anthropic רחבה יותר – קלוד מאחד מידע ממספר מקורות לשיחה אחת רציפה, כך שההבנה העסקית שלמה ומקיפה יותר.

 

צעד ראשון מומלץ: ברגע שמנהל המערכת מפעיל את ה-MCP Connector, הגדירו אילו ספריות ודוא”לים ייחשפו לקלוד, ונסו שאילתה מעשית כמו: “סכם את התובנות המרכזיות מפגישות Teams האחרונות והשווה אותן למידע ממסמכי SharePoint בנושא.”

זו הדרך המהירה לראות איך קלוד הופך ממנוע שיחה לעובד ידע אמיתי.

 

Enterprise Search 

החידוש השלישי במערך של Anthropic משנה את הדרך שבה ארגונים ניגשים לידע שלהם. קלוד כבר לא מחפש רק במסמך בודד או במייל אחד, הוא הופך למנוע ידע אחיד שמחבר בין כל מקורות המידע של החברה, ממיקרוסופט ועד גוגל, Slack, Notion ואפילו כלים פנימיים, לשכבת חיפוש אחת אינטליגנטית.

 

Anthropic יצרה לכל ארגון פרויקט משותף ייעודי (Shared Company Project) הנושא את שם החברה וכולל פרומפטים מובנים לחיפוש חכם. מנהל הארגון מחבר את הכלים הדרושים, ולאחר מכן כל העובדים מקבלים גישה אוטומטית לפרויקט דרך סביבת Claude.

 

Enterprise Search – קלוד מאחד מידע ממספר כלים ארגוניים לשיחה אחת רציפה.

anthropic.com | קלוד מאחד מידע ממספר כלים ארגוניים לשיחה אחת רציפה.

 

למה זה חשוב? במקום לבזבז זמן בחיפושים ידניים, קלוד מספק תשובה אחת שמרכזת את כל המידע הרלוונטי ומאפשרת החלטה מהירה. זה כלי עוצמתי במיוחד עבור קליטת עובדים חדשים (Onboarding), ניתוח פידבק לקוחות, או איתור מומחים פנימיים לפי נושא ידע.



Enterprise Search מופעל כברירת מחדל לכל ארגוני Team ו-Enterprise. האדמין קובע אילו מקורות ייכללו ומנהל את ההרשאות. Anthropic מדגישה עמידה מלאה בתקני פרטיות ואבטחת מידע: קלוד שומר על ההרשאות הקיימות של המשתמשים, והנתונים אינם משמשים לאימון.

 

צעד ראשון מומלץ: התחילו מפרויקט מצומצם – חברו את SharePoint, Outlook ו-Teams, או אם אתם עובדים עם מערכות אחרות, שלבו כלים כמו Notion, Slack או Google Drive. נסו לשאול שאלות תפעוליות פשוטות כמו: “אילו לקוחות דיווחו על תקלות חוזרות החודש?” או “מה הסטטוס של יוזמות החדשנות הפעילות?” ותראו איך קלוד מאחד תשובות ממקורות שונים למסמך תובנות אחד בלי שתצטרכו לפתוח אף קובץ.

 

 

לסיכום, שלושת החידושים של Anthropic מציירים מגמה ברורה – עולם הבינה המלאכותית עובר משלב “העוזרים הדיגיטליים” לשלב העובדים הדיגיטליים. Skills מטמיעים את הידע והנהלים של הארגון, Microsoft 365 Connector מכניס את קלוד לתוך סביבת העבודה היומיומית, ו-Enterprise Search מחבר אותו אל הידע הקולקטיבי של החברה.

 

במקום מודלים שמייצרים טקסטים מבריקים, Anthropic בונה מערכת שמבינה הקשר, עובדת תחת הרשאות, ומחזירה תוצרים שניתנים לאימות. היא בונה שכבת אינטליגנציה ארגונית, זהה בכל הצוותים, מבוקרת, מאובטחת ומבוססת על ידע אמיתי.

 

זהו לא רק עדכון טכנולוגי, זה מצביע על המשך הקו של שינוי תרבותי עם בינה מלאכותית בארגונים. קלוד מפסיק להיות כלי שמגיב להוראות, ומתחיל להיות חלק מהצוות – עובד ידע חכם שפועל לפי כללי הארגון, מדבר בשפה שלו, ומחזיר ערך מדיד בכל פעולה.

הפוסט שלושה עדכונים לקלוד שהופכים את Anthropic לשחקנית מרכזית בעולם ה-AI הארגוני הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-skills-and-integrations/feed/ 2
אנטרופיק משיקים את Claude Haiku 4.5 https://letsai.co.il/claude-haiku-4-5/ https://letsai.co.il/claude-haiku-4-5/#comments Thu, 16 Oct 2025 13:31:10 +0000 https://letsai.co.il/?p=61970 עולם הבינה המלאכותית משתנה בקצב מסחרר. המרוץ כבר לא מתמקד במודלים הענקיים, אלא במי שמצליח לדחוס עוצמה של מודל מתקדם לתוך מערכת מהירה וזולה. כאן בדיוק נכנס לתמונה Claude Haiku 4.5 – המודל החדש של Anthropic שהושק אתמול. במאמר הזה נסביר לכם מה בדיוק חדש במודל, למה הוא חשוב, איך הוא שונה מגרסאות קודמות, ומה […]

הפוסט אנטרופיק משיקים את Claude Haiku 4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
עולם הבינה המלאכותית משתנה בקצב מסחרר. המרוץ כבר לא מתמקד במודלים הענקיים, אלא במי שמצליח לדחוס עוצמה של מודל מתקדם לתוך מערכת מהירה וזולה. כאן בדיוק נכנס לתמונה Claude Haiku 4.5 – המודל החדש של Anthropic שהושק אתמול. במאמר הזה נסביר לכם מה בדיוק חדש במודל, למה הוא חשוב, איך הוא שונה מגרסאות קודמות, ומה המשמעות שלו למשתמשים ועסקים שמחפשים ביצועים גבוהים בעלות נמוכה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המודל הקטן שמבצע כמו הגדולים

Claude Haiku 4.5 הוא הדגם הקטן והמהיר ביותר במשפחת Claude, אבל אל תתנו לגודל להטעות אתכם. הוא מספק ביצועים שעוקפים במעט את Sonnet 4 (שהיה בחזית הטכנולוגיה לפני פחות מחצי שנה) במבחני קידוד, אך במחיר ובמהירות טובים ממנו משמעותית, מה שממקם אותו כאחד המודלים היעילים ביותר בקטגוריית הביניים.

 

במבחן SWE-bench Verified, אחד הסטנדרטים המקובלים ביותר למדידת יכולות קידוד בעולם האמיתי, Haiku 4.5 קיבל ציון של 73.3%, לעומת 77.2% ב-Sonnet 4.5. במילים פשוטות, זהו מודל קטן שמגיע כמעט לאותה רמת דיוק כמו אחיו הבכיר, אבל מגיב מהר יותר, עולה פחות, ומתאים במיוחד למערכות זמן אמת או סביבות עם עומסי שימוש גבוהים.

 

השוואת ביצועים במבחן SWE-bench Verified

Source: Anthropic.com | השוואת ביצועים במבחן SWE-bench Verified.

כמה זה עולה ולמי זה משתלם

Anthropic מתמחרת את Haiku 4.5 ב-$1 למיליון טוקני קלט ו-$5 למיליון טוקני פלט. זה יקר בכ-25% מהדגם הקודם (Haiku 3.5), אבל זול משמעותית מהמודלים הבינוניים והגדולים יותר כמו Sonnet 4 ו-Sonnet 4.5 ($3/$15 בהתאמה). 

 

המשמעות המעשית היא שניתן להריץ יישומי בינה מלאכותית מבוססי שפה, שירותי תמיכה או עוזרים חכמים בעלות נמוכה בהרבה, כמעט בלי לוותר על איכות התוצאה. בנוסף, משתמשים קבועים נהנים מהנחות משמעותיות – עד 90% חיסכון עם prompt caching ו-50% עם Batch API (caching חוסך כסף כשעושים שימוש חוזר בתוכן קיים, ו-batching חוסך כסף כשמעבדים הרבה בקשות יחד).

 

מבנה תמחור כזה מאפשר לעסקים קטנים ובינוניים להשתמש במודלים חכמים בקנה מידה גדול, מבלי לחשוש מהוצאות ענק, ולראשונה להפוך פרויקטים מבוססי AI לכלכליים באמת.

היכולות החדשות שמבדילות אותו

Extended Thinking

לראשונה בדגמי Haiku, המודל יכול להשקיע יותר מחזורי חשיבה לפני המענה כדי להתמודד עם בעיות מורכבות. טוקני החשיבה מחויבים כטוקני פלט במחיר $5 למיליון.

 

למה זה חשוב? מאפשר דיוק טוב יותר בשאלות מרובות שלבים בלי לקפוץ למודל יקר יותר. שווה להפעיל רק כשנדרש עומק reasoning.

Context Awareness

המודל מודע לניצול חלון ההקשר שלו – עד 200,000 טוקנים – ויכול לנהל דיאלוגים ארוכים בלי לאבד חוט מחשבה, כולל אסטרטגיות prompting שמסתמכות על ספירת הקשר.

 

למה זה חשוב? פחות קטיעות, פחות שכחה, ויכולת לעבוד עם מסמכים ארוכים או שיחות תפעוליות מתמשכות.

Computer Use משופר

אינטראקציה אוטונומית עם שולחן עבודה ודפדפן. במבחן OSWorld המודל קיבל 50.7% – התוצאה הגבוהה ביותר עד היום לסדרת Haiku ומתקרבת ל-Sonnet 4.5.

 

למה זה חשוב? פותח דלת לאוטומציות מורכבות כמו מילוי טפסים, ניווט במערכות פנימיות ובדיקות QA. 

קלט ופלט מולטימודליים

תמיכה בטקסט ותמונות, חלון הקשר של 200K טוקנים ועד 64K טוקני פלט.

 

למה זה חשוב? מאפשר ניתוח מסמכים כבדים, סשנים רב שלביים ושרשורים ארוכים בלי שצריך לפצל לקבצים קטנים.

איפה משתמשים בו בפועל

אם אתם מפתחים מערכות שפועלות בזמן אמת, אתם צריכים לנסות את Haiku 4.5. לפי Anthropic, זה הפתרון האידיאלי לשורה של תרחישים יומיומיים שבהם מהירות ויעילות חשובים לא פחות מאינטליגנציה.

  • צ’אטבוטים ושירות לקוחות: המודל מגיב כמעט מיידית ומאפשר להפעיל מערכות תמיכה חכמות בעלות תפעול נמוכה במיוחד. זהו שילוב נדיר של איכות תשובה גבוהה עם latency כמעט אפסי.
  • עוזרי קידוד ו-pair programming: המודל החדש מציג ביצועי קידוד חזקים ותגובה מיידית, מה שהופך אותו לשותף אמיתי בפיתוח מהיר, תיקון באגים ו-code review חכם.
  • מערכות מרובות-סוכנים (multi-agent systems): בתרחישים מורכבים, מודל גדול כמו Sonnet 4.5 יכול לשמש כמנהל שמפרק בעיה למספר שלבים, בעוד שצוות של Haiku 4.5 מבצע את המשימות במקביל. כך מתקבלת מערכת יעילה, מהירה וזולה בהרבה.
  • ניתוחי מידע בקנה מידה גדול: Haiku 4.5 מסוגל לעבד ולעקוב אחר אלפי זרמי נתונים בזמן אמת, כולל תובנות פיננסיות, רגולטוריות או תפעוליות – תחום שבו המהירות שלו היא יתרון תחרותי מובהק.

בסופו של דבר, המודל הזה מביא אינטליגנציה של “דגם פרימיום” אל תוך יישומים יומיומיים, ומוכיח שלא צריך כוח מחשוב עצום כדי להשיג תוצאות ברמה הגבוהה ביותר.

איפה המודל זמין

Claude Haiku 4.5 זמין כבר היום לכל המשתמשים, ללא הגבלות מוקדמות או הרשאות מיוחדות. תוכלו לעבוד איתו דרך:

מי שנכנס לאתר או לאפליקציה אחרי ההשקה, יקבל הצעה לעבור ל-Haiku 4.5 החדש בלחיצה כפתור (Try it), ובכל מקרה, ניתן לבחור בו בכל עת דרך בורר המודלים שבממשק.

 

הודעת ההשקה בממשק Claude.ai

הודעת ההשקה בממשק Claude.ai

ביצועים מול מתחרים

בעולם שבו כל אחוז דיוק נחשב, Claude Haiku 4.5 מצליח להישאר כמעט כתף אל כתף עם מודלים מתקדמים בהרבה, ובמחיר נמוך משמעותית. בהשוואות שביצעה Anthropic, מודל Haiku 4.5 עוקף את Gemini 2.5 Pro ברוב הקטגוריות, שומר על פער זעיר מול GPT-5 בקידוד (73.3% לעומת 74.5%), ומציג תוצאות מרשימות גם במשימות מתמטיות, הבנה ויזואלית ורב-לשוניות.

תוצאות עיקריות מהמבחנים הפנימיים של Anthropic:

  • תכנות (SWE-bench) – 73.3%

  • הבנה מתמטית (AIME 2025) – 96.3%

  • רב-לשוניות (MMLU) – 83.0%

  • חשיבה חזותית (MMMU) – 73.2%

במילים אחרות, Haiku 4.5 אינו “מודל קטן וחסכוני” בלבד, הוא מתקרב לרמות הביצועים של המודלים המתקדמים בעולם, ומוכיח עד כמה יעילות חישובית ואינטליגנציה כבר לא בהכרח הולכות בנפרד.

 

השוואת ביצועי מודלים במבחני קידוד, מתמטיקה, הבנה ויזואלית ורב-לשוניות

Source: Anthropic.com | השוואת ביצועי מודלים במבחני קידוד, מתמטיקה, הבנה ויזואלית ורב-לשוניות.

מגבלות שכדאי לקחת בחשבון

לצד היתרונות המרשימים שלו, Claude Haiku 4.5 אינו תחליף מלא למודלים הגדולים בכל מצב. הוא מהיר ויעיל במיוחד, אבל במשימות שמצריכות חשיבה עמוקה ורצף נימוקים מורכב לאורך זמן, כמו ניתוחים טכניים, תכנון אסטרטגי או פתרון בעיות מרובות שלבים, הביצועים שלו עשויים להיות פחות עקביים. במקרים כאלה עדיף לבחור ב-Sonnet 4.5 או להפעיל את יכולת Extended Thinking של Haiku 4.5, שמאפשרת לו להשקיע יותר “זמן מחשבה” ולשפר את רמת הדיוק.

 

גם בעבודה עם computer use, אפילו שהמודל רשם שיא חדש עם ציון 50.7% במבחן OSWorld, מדובר עדיין בביצועים חלקיים. הוא מתאים במיוחד לאוטומציות מונחות אדם (human-in-the-loop), אך עדיין לא מומלץ להפעלה אוטונומית מלאה ללא בקרה.

 

נקודה נוספת שכדאי לשים לב אליה היא מבנה העלויות: בעוד ש-Haiku 4.5 חסכוני מאוד בהשוואה למודלים הגדולים, עלות הפלט שלו גבוהה פי חמישה מעלות הקלט ($1 לקלט לעומת $5 לפלט למיליון טוקנים). בפרויקטים שבהם מופק טקסט ארוך במיוחד, כמו סיכומים, דו”חות או דוקומנטציה, זה עלול להפוך לגורם משמעותי בעלויות הכוללות. שימוש נכון ב-prompt caching וב-Batch API יכול לצמצם את ההוצאה באופן ניכר.

 

לכן, Haiku 4.5 הוא בחירה מצוינת לרוב היישומים היומיומיים הדורשים מהירות ועלות נמוכה, אבל כשנדרשת חשיבה ארוכת טווח, דיוק מחקרי או שליטה מלאה במחשב, כדאי לשלב כלים משלימים או לעבור למודל מתקדם יותר כמו Sonnet 4.5.

בטיחות והתאמה לשימוש מסחרי

Anthropic מדווחת כי Claude Haiku 4.5 עבר סדרת בדיקות בטיחות מקיפה, שהראתה שיעור נמוך במיוחד של התנהגויות לא רצויות או תגובות לא מתואמות. המודל סווג תחת AI Safety Level 2 (ASL-2) – רמת פיקוח פחות מגבילה מזו של Sonnet 4.5 ו-Opus 4.1, המדורגים ב-ASL-3.

 

מה זה אומר בפועל? שהמודל בטוח לשימוש רחב יותר, כולל בסביבות עבודה, יישומים עסקיים ומערכות למשתמשי קצה, מבלי להיכנס לאזורים רגישים מדי מבחינת תוכן או אוטונומיה. Anthropic מציינת כי Haiku 4.5 הוא המודל הבטוח ביותר שייצרה עד כה לפי המדדים הפנימיים שלה.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

לסיכום, Claude Haiku 4.5 הוא לא רק עדכון טכנולוגי נוסף, הוא סימן דרך בשינוי שמתחולל בעולם הבינה המלאכותית. פעם גודל המודל היה המדד לעוצמה, אבל היום מה שקובע הוא היכולת לספק ביצועים של מודלים מתקדמים במהירות ובעלות נמוכה.

Haiku 4.5 מוכיח שאפשר להגיע כמעט לאותה רמת אינטליגנציה שמציעים המודלים הגדולים בפחות זמן, בפחות כסף, ועם הרבה יותר גמישות.

 

אם אתם מפתחים בוטים, עוזרים חכמים או מערכות שפועלות בזמן אמת, זה כנראה אחד המודלים המשתלמים והיעילים ביותר שזמינים היום, ומבשר על עתיד שבו האיכות כבר לא נמדדת בגודל, אלא בדיוק ובמהירות.

הפוסט אנטרופיק משיקים את Claude Haiku 4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-haiku-4-5/feed/ 1
האם מודל זעיר חושב חכם יותר ממודל גדול? https://letsai.co.il/tiny-thinking-network/ https://letsai.co.il/tiny-thinking-network/#respond Wed, 15 Oct 2025 06:43:20 +0000 https://letsai.co.il/?p=61804 עולם הבינה המלאכותית רגיל למדוד הצלחה בגודל – יותר שכבות, יותר כוח מחשוב, יותר פרמטרים. אבל מחקר חדש טוען ההפך – לפעמים דווקא הקטנים חושבים טוב יותר. למה מודלים חכמים שמסכמים מאמרים וכותבים קוד נכשלים בחידת סודוקו פשוטה? כי הם עונים ברצף אחד ארוך, בלי לעצור, לבדוק ולתקן. בני אדם, לעומת זאת, פותרים צעד אחר […]

הפוסט האם מודל זעיר חושב חכם יותר ממודל גדול? הופיע ראשון בLet's AI בינה מלאכותית

]]>
עולם הבינה המלאכותית רגיל למדוד הצלחה בגודל – יותר שכבות, יותר כוח מחשוב, יותר פרמטרים. אבל מחקר חדש טוען ההפך – לפעמים דווקא הקטנים חושבים טוב יותר. למה מודלים חכמים שמסכמים מאמרים וכותבים קוד נכשלים בחידת סודוקו פשוטה? כי הם עונים ברצף אחד ארוך, בלי לעצור, לבדוק ולתקן. בני אדם, לעומת זאת, פותרים צעד אחר צעד, עם מחיקות, ניסיונות חוזרים ותיקונים. החוקרת Alexia Jolicoeur-Martineau ממעבדת הבינה המלאכותית של Samsung במונטריאול הצליחה ללמד רשת קטנה לחשוב באותה צורה, וכשהיא עשתה את זה, קרה דבר מפתיע – היא עקפה מודלים גדולים פי מאה אלף ממנה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשחוכמה גדולה נתקעת על חידות קטנות

מודלי שפה גדולים כמו ChatGPT, Gemini  ו-Claude יודעים לכתוב קוד, לסכם מאמרים ולנהל שיחות מורכבות, אבל כשמעמידים אותם מול חידות לוגיות פשוטות לכאורה, כמו סודוקו או מבוכים, הם עדיין מתקשים. הם חושבים ב“קו ישר“ – מייצרים תשובה בניבוי קדימה (forward pass), מילה אחרי מילה ושלב אחרי שלב, בלי לעצור ולבדוק אם ההיגיון עדיין נכון. טעות מוקדמת גוררת שרשרת טעויות בהמשך.

 

הקושי הזה נחשף במיוחד במבחן ARC-AGI – סדרת חידות חזותיות שנועדה לבדוק אם מודלים באמת “מבינים” דפוסים חדשים, ולא רק משננים דוגמאות. בגרסה הראשונה של המבחן (ARC-AGI-1), מודל o3 של OpenAI השיג תוצאות מרשימות – כ-75.7% בתצורת חישוב מוגבלת, ועד 87.5% בתצורת חישוב גבוהה. אבל בגרסה המתקדמת יותר (ARC-AGI-2), שמודדת יצירתיות ויכולת למידה אמיתית, כמעט כל המודלים נתקעים סביב אחוזים בודדים בלבד. לדוגמה, Gemini 2.5 Pro (Preview) הגיע לכ-3.8%, ו-o3-pro (high) ל-4.9% בלבד – נתונים שממחישים עד כמה גם המערכות המתקדמות בעולם עדיין מתקשות באמת “להבין” ולא רק “לחזות”.

 

במילים פשוטות, למרות ההתקדמות המרשימה, רוב המודלים הגדולים עדיין לא באמת “חושבים”. הם מעולים בזיכרון, בחיזוי ובשפה, אבל לא בהיגיון הדרגתי ובתיקון עצמי בזמן אמת.

לחשוב בלולאות

כדי להתגבר על המגבלה הזו של היעדר היכולת “לחשוב בלולאות”, חוקרים ניסו לפתח ארכיטקטורות חדשות שמדמות תהליך חשיבה אנושי אמיתי. אחת מהניסיונות הבולטים הייתה מודל בשם HRM (Hierarchical Reasoning Model), מודל חשיבה היררכי שניסה לשלב שתי רשתות נוירונים שפועלות בתדרים שונים: אחת “מהירה” ואחת “איטית”. הרעיון היה חכם, אבל היישום היה מסורבל. HRM כלל 27 מיליון יחידות למידה, נשען על תיאוריה מתמטית מורכבת, והצדיק את עצמו בהסברים ביולוגיים שהיו קשים להבנה גם למומחים.

 

החוקרת Alexia Jolicoeur-Martineau שאלה שאלה פשוטה: האם באמת צריך את כל זה? היא לקחה את אותו רעיון בסיסי, רשת שחושבת בלולאות, ופישטה אותו לחלוטין. כך נולד Tiny Recursive Model (TRM): רשת אחת, קטנה, שחוזרת על עצמה עד 16 פעמים. בכל סיבוב היא בוחנת את השאלה, את התשובה הנוכחית ואת “הערות לעצמה” מהפעמים הקודמות, ומשפרת את הפתרון בהדרגה.

כשפשטות גוברת על כוח

שני עקרונות פשוטים הופכים אותה ליעילה במיוחד:

1. משוב בשלבים (Deep Supervision) – בכל שלב המודל מקבל רמז אם הוא מתקרב לתשובה הנכונה, ממש כמו במשחק “קר-חם”, שבו אתה יודע שאתה בדרך הנכונה כששומעים “חם… חם יותר”.

2. החלטה מתי לעצור (ACT) – אם התשובה כבר נכונה אחרי שלושה סבבים, הוא מפסיק ולא מבזבז חישובים. כך הוא מספיק להתאמן על יותר דוגמאות שונות ולומד מהר יותר.

 

התוצאות מדברות בעד עצמן – TRM הזעיר, עם כ-7 מיליון יחידות למידה בלבד, הגיע ל-44.6% ב-ARC-AGI-1 ול-7.8% ב-ARC-AGI-2. בגרסה קטנה עוד יותר של 5 מיליון יחידות, הוא פתר חידות סודוקו קשות בדיוק של 87.4%, והצטיין גם במבוכים עם 85.3%, לעומת 74.5% של HRM הגדול.

 

הפשטות הזו לא רק חוסכת כוח מחשוב, היא גם מוכיחה שמחשבה מחזורית קטנה יכולה להביס כוח גולמי עצום.

למה זה חשוב

המחקר הזה מערער על אחת ההנחות העמוקות ביותר בעידן הבינה המלאכותית והוא שגודל שווה אינטליגנציה. כשניסו להגדיל את הרשת משתי שכבות לארבע שכבות, הביצועים דווקא הידרדרו. יותר פרמטרים לא הביאו להבנה טובה יותר, רק לזיכרון עמוק יותר.

 

TRM מציע אלטרנטיבה: עומק שנוצר לא מנפח, אלא מחזרות חכמות. הוא לומד בהדרגה, מתקן את עצמו, ומגיע לתוצאה מדויקת יותר, בדיוק כפי שבני אדם עושים כשאנחנו חושבים. היתרון אינו רק רעיוני אלא גם מעשי. רשת זעירה כזו יכולה לרוץ על מחשב נייד רגיל או אפילו על טלפון, בלי צורך בחיבור לענן ובלי לצרוך כמויות עצומות של חשמל. זה שינוי משמעותי בעידן שבו מודלים ענקיים דורשים חוות שרתים שלמות וצריכת אנרגיה של מדינות קטנות.

 

ובעומק הדברים – זה שינוי כיוון מחשבתי. במקום להוסיף שכבות, TRM מוסיף דרך חשיבה: הוא חוזר, בוחן, משפר, ומחליט מתי לעצור. זהו עקרון פשוט שמזכיר את האופן שבו המוח האנושי לומד, ומרמז על דור חדש של AI שמצליח לא רק “לדעת”, אלא גם להבין.

 

היישומים פותחים אופקים חדשים – הוכחות מתמטיות, תכנון תנועות רובוטים, ניפוי באגים בקוד – כל משימה שבה נדרשת חשיבה מדויקת יותר מידע רחב. אבל אולי החשוב מכל, המחקר הזה מזכיר לנו שהאינטליגנציה האמיתית לא תמיד נמדדת בכמות, אלא באיכות החשיבה.

לא שיחה, אלא חשיבה

TRM הוא לא מודל כללי לשיחות, כתיבה או יצירת טקסט. הוא אומן על שאלות שיש להן תשובה אחת נכונה, כמו סודוקו ומבוכים, ולכן אינו מתאים למשימות פתוחות או דמיון חופשי. אבל זו לא חולשה, זו בחירה – הוא נבנה כדי לחשוב בצורה ממוקדת, צעד אחרי צעד, ולא לזרוק רעיונות באוויר. זה לא מוח שמדבר, זה מוח שבוחן, מתקן ומגיע למסקנה. כלי מדויק לחשיבה, לא לשיחה.

 

 

לסיכום, המחקר של Alexia Jolicoeur-Martineau מזכיר עיקרון פשוט אבל מהפכני – כדי לחשוב חכם יותר, לא צריך בהכרח לחשב יותר. רשת זעירה אחת, שחוזרת על עצמה ולומדת מתוך תהליך החשיבה שלה, יכולה לנצח מערכות ענקיות פי מאה אלף ממנה. ההתקדמות הבאה בבינה מלאכותית תגיע כנראה פחות מהוספת שכבות ושרתים, ויותר מהבנה עמוקה של איך חשיבה אמיתית באמת עובדת – גם אצל מכונות, וגם אצלנו.

 

למי שרוצה לצלול לעומק – המחקר המלא זמין כאן.

הפוסט האם מודל זעיר חושב חכם יותר ממודל גדול? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/tiny-thinking-network/feed/ 0
ה-5% שכן הצליחו: כך נראית טרנספורמציית AI אמיתית עם Claude https://letsai.co.il/companies-implement-ai/ https://letsai.co.il/companies-implement-ai/#respond Mon, 13 Oct 2025 08:18:20 +0000 https://letsai.co.il/?p=61789 כולנו מדברים על זה ש-95% מהפיילוטים של בינה מלאכותית נכשלו. אבל מה עם ה-5% שכן הצליחו – אלה שהפסיקו “לשחק” עם AI והתחילו לשנות את העסק מבפנים? פחות תיאוריה, יותר תוצאות. רוב המנהלים כבר שמעו על הפוטנציאל של בינה מלאכותית, אבל מעט מאוד ראו איך זה נראה כשהיא באמת מוטמעת בארגון. יש חברות שכבר עברו […]

הפוסט ה-5% שכן הצליחו: כך נראית טרנספורמציית AI אמיתית עם Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
כולנו מדברים על זה ש-95% מהפיילוטים של בינה מלאכותית נכשלו. אבל מה עם ה-5% שכן הצליחו – אלה שהפסיקו “לשחק” עם AI והתחילו לשנות את העסק מבפנים? פחות תיאוריה, יותר תוצאות. רוב המנהלים כבר שמעו על הפוטנציאל של בינה מלאכותית, אבל מעט מאוד ראו איך זה נראה כשהיא באמת מוטמעת בארגון. יש חברות שכבר עברו מהבטחות למציאות, והן לא מדברות על צ’אטבוטים פשוטים. הן משתמשות ב-Claude, מודל השפה המתקדם של Anthropic, כדי לפתור בעיות עסקיות אמיתיות – לקצר תהליכי פיתוח מחודשים לשבועות, להפחית את זמן התגובה לפרצות אבטחה, וליצור תיעוד רגולטורי בדקות במקום בחודשים. Claude Sonnet 4.5, הגרסה החדשה של המודל, מתבלט במיוחד בתחומים שבהם דיוק הוא קריטי – קוד, סייבר ושירותים פיננסיים. זה כבר לא כלי עזר, אלא שותף שמבין הקשר, מנתח מידע מורכב ולוקח החלטות. הנה חמישה סיפורים שמראים איך נראית טרנספורמציית AI אמיתית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מ-10 שבועות ל-10 דקות

Novo Nordisk, החברה הדנית שמאחורי Ozempic נתקלה באחת הבעיות הכואבות ביותר בתעשיית התרופות – תיעוד רגולטורי. דוח מחקר קליני ממוצע מגיע ליותר מ-300 עמודים, וכותב מקצועי מצליח להפיק רק שניים-שלושה כאלה בשנה. כל יום עיכוב בתהליך הזה שווה עד 15 מיליון דולר בהכנסות אבודות, ובעיקר, עוד יום שבו חולים ממתינים לטיפולים שיכולים להציל חיים.

 

כדי להתמודד, Novo Nordisk השוותה בין ספקי בינה מלאכותית ובחרה ב-Claude של Anthropic בזכות הדיוק בעיבוד נתונים קליניים. היא בנתה פלטפורמה ייעודית בשם NovoScribe, שמשלבת את Claude דרך Amazon Bedrock עם חיפוש סמנטי ותכנים מאושרים על ידי מומחים. התוצאה: מערכת שמפיקה דוחות ברמת איכות רגולטורית שמקבלת אישור חיובי שוב ושוב מהרגולטורים.

 

המספרים מדברים בעד עצמם – תיעוד שלקח למעלה מעשרה שבועות – נוצר כעת בעשר דקות בלבד. מחזורי בדיקה התקצרו בחצי, והאיכות דווקא השתפרה. אפילו פרוטוקולי אימות רפואיים שמעסיקים מחלקות שלמות מטופלים היום על ידי אדם אחד.

 

עם Claude Code, גם עובדים לא-טכניים מפתחים פיצ’רים חדשים בשעות במקום בשבועות. צוות הפיתוח הקטן של 11 אנשים הרחיב את היכולות הארגוניות משמעותית, בלי להוסיף כוח אדם. “בתעשייה מוסדרת מאוד, אנחנו לא יכולים פשוט לזרוק את הנתונים שלנו למודל שפה ולקוות למיטב,” אומר וואהיד ג’ווייה (Waheed Jowiya), מנהל אסטרטגיית הדיגיטציה של החברה. “העבודה עם Anthropic הראתה לנו איך עושים את זה נכון ובצורה מאובטחת.”

התאמה אישית בקנה מידה

Cox Automotive, החברה הגדולה בעולם לשירותים בתחום הרכב, גילתה איך בינה מלאכותית יכולה להפוך מערכת CRM שגרתית למנוע שיווקי חכם. החברה שילבה את Claude בשלוש הפלטפורמות המרכזיות שלה – VinSolutions CRM, Autotrader PSX ו-Dealer.com – ובחרה בו בזכות שלושה מדדים קריטיים: מהירות תגובה, עלות ודיוק.

 

במקום מודל אחד שמתאים לכולם, הם מפעילים שניים: Claude Sonnet למשימות מורכבות שדורשות הבנה עמוקה, ו-Claude Haiku לתרחישים עתירי נפח שבהם נדרשת תגובה כמעט מיידית. התוצאה נראית בשטח – תגובות לפניות צרכנים ותורים לנסיעות מבחן יותר מהוכפלו, ורשימות רכבים שנוצרו על ידי AI זוכות ל-80% משוב חיובי ממוכרים.

 

אם בעבר לקח שבועות להפיק תוכן לאתרי סוכנויות, היום זה קורה באותו יום. עד כה הפיקה הפלטפורמה למעלה מ-9,000 תוצרים שיווקיים ללקוחות ברחבי העולם. “Claude מדורג בעקביות בין המודלים המתקדמים ביותר,” אומר בן פלוסברג (Ben Flusberg), מנהל הנתונים הראשי ב-Cox Automotive. “עם כל עדכון הוא דוחף את החדשנות קדימה.”

פיתוח מאובטח ומהיר יותר

בחברת הסייבר הגדולה בעולם, Palo Alto Networks, גילו בעיה מוכרת – מפתחים השקיעו כשליש מזמנם בשלב הפיתוח הראשוני, בדיוק השלב שבו מתגלים הבאגים הקריטיים ביותר. מפתחים חדשים נדרשו לחודשים כדי להבין את הקוד-בייס העצום של החברה ולתרום באופן אפקטיבי. כדי לשבור את צוואר הבקבוק הזה, Palo Alto Networks חיפשה פתרון AI שיכול לשלב בין בטיחות קפדנית ליעילות הנדסית גלובלית.

 

לאחר השוואה בין ספקים, החברה בחרה ב-Claude דרך פלטפורמת Vertex AI של Google Cloud, בזכות ביצועי הקוד הגבוהים, תקני האבטחה והאינטגרציה החלקה עם מערכות הפיתוח. השפעת השינוי הייתה דרמטית – מהירות פיתוח הפיצ’רים עלתה ב- 30%-20%, וזמן ההכשרה של מפתחים חדשים התקצר מחודשים לשבועות.

 

כיום עובדים עם Claude כ-2,500 מפתחים, והמספר צפוי לעלות ל-3,500. גם מפתחים זוטרים ללא ניסיון קודם הצליחו לבצע אינטגרציות 70% מהר יותר הודות להכוונה של Claude.

 

בנוסף, Palo Alto Networks מובילה כעת מערכת AI חדשנית ל-CI/CD (תהליכי אינטגרציה ופריסה רציפה), שמבצעת אוטומציה חכמה: משפרת שמות משתנים, מוסיפה הערות ומייצרת בדיקות יחידה – הכול בזמן אמת. “Anthropic תעדפה בטיחות ואבטחה הרבה יותר מכל מודל אחר,” אומר גונג’ן פאטל (Gunjan Patel), מנהל ההנדסה של החברה. “הם מדברים על השלכות אבטחה בכל פגישה. כחברת הסייבר הגדולה בעולם, זה משמעותי במיוחד עבורנו.”

סוכנים אוטונומיים בפעולה

ארגונים כבר לא מסתפקים בעוזרי AI שמציעים תשובות, הם צריכים מערכות שחושבות, מנמקות ופועלות בעצמן. בדיוק לשם כך שילבה Salesforce את מודלי Claude כדי להפעיל את Agentforce Agents דרך Einstein 1 Studio (סטודיו לפיתוח בינה מלאכותית ארגונית).

 

התוצאה היא פלטפורמה שבה בינה מלאכותית יכולה לתכנן, להחליט ולבצע פעולות בשם עובדים ולקוחות, בלי תלות בהתערבות אנושית מתמדת. כל אינטראקציה עם Claude עוברת דרך שכבת ההגנה של Salesforce, הכוללת grounding דינמי (חיבור למידע מאומת בזמן אמת) וזיהוי טוקסיות (מנגנון שמגן על המשתמשים מתוכן מזיק, לא הולם או לא אתי שנוצר על ידי הבינה המלאכותית) דרך Einstein Trust Layer. כך נשמר שימוש אחראי ובטוח גם בתעשיות רגישות במיוחד.

 

לקוחות Salesforce כבר מפעילים סוכנים אוטונומיים שמתזמרים תהליכי עבודה שלמים מקצה לקצה – ניתוח נתוני לקוחות, זיהוי הזדמנויות עסקיות, ביצוע טרנזקציות ועדכון נתונים בין מערכות שונות, והכול באופן עצמאי.

 

זהו שינוי מהותי, ממודלים שמשמשים עוזרים, למודלים שהם שותפים אוטונומיים. מפתחים יכולים להתאים את הסוכנים לפי תחום – מכירות, שיווק או שירות לקוחות – ולבחור בכל שלב את גרסת Claude שמאזנת בין אינטליגנציה, מהירות ועלות לכל תהליך עבודה ספציפי.

מאנליטיקה לשיווק גלובלי

כש-IG Group, אחת מחברות המסחר המקוון הגדולות בעולם, בחנה ספקי בינה מלאכותית שונים, Claude בלט באופן עקבי, במיוחד במקרי השימוש המורכבים ביותר שלה.

 

צוות ה-Data & AI Transformation של החברה פרס את Claude באופן אסטרטגי – לאוטומציה של תהליכי עבודה אנליטיים מסובכים, לתמיכה במנהלי HR ביצירת משוב עקבי על ביצועים ברחבי העולם, ולהעצמת צוותי השיווק להפיק תוכן רב-לשוני תוך עמידה בתקנות רגולציה מחמירות.

 

התוצאות היו מעבר לציפיות. צוותי האנליטיקה חוסכים כיום כ-70 שעות עבודה בשבוע, זמן שהועבר לעבודה אסטרטגית בעלת ערך גבוה יותר. במקרים מסוימים, הפרודוקטיביות הוכפלה. בצד השיווקי, מהירות ההשקה השתפרה במאות אחוזים, תוך הפחתת התלות בסוכנויות חיצוניות. החברה הגיעה ל-ROI מלא בתוך שלושה חודשים בלבד.

 

Anthropic היא חברת ה-AI היצרנית היחידה שסיפקה תוצאות בזמן – כל הזמן,” אומרת אולגה פירוג (Olga Pirog), ראש הטרנספורמציה הגלובלית של Data ו-AI ב-IG Group. “לארגון שמוביל שינוי עסקי, שותף אמין הוא נכס שאין לו תחליף.”

 

 

הטמעה יעילה של בינה מלאכותית בארגונים

כשמסתכלים על החברות שהצליחו באמת, מתברר שהן עושות כמה דברים אחרת.

 

ראשית, הן מתחילות מבעיה עסקית אמיתית. לא “AI בשביל ה-AI”, אלא טיפול בצווארי בקבוק מדידים – תהליכי עבודה ידניים, תיעוד שמאט השקות, או חניכה שיכולה להתקצר מחודשים לשבועות.

 

שנית, הן משקיעות באנשים לא פחות מבטכנולוגיה. תוכניות הכשרה ורשתות של “אלופי AI” עוזרות לעובדים לשלב את הכלים בעבודה היומיומית. כשהצוות מבין לא רק איך להשתמש במערכת אלא למה, האימוץ קורה מעצמו.

 

שלישית, הן מודדות את מה שבאמת חשוב. פרודוקטיביות, חיסכון בזמן, שיפור באיכות – כל נתון הופך להוכחת ROI שמדברת בשפה של ההנהלה, לא של ההייפ. גישה מבוססת מדידה שכזו מייצרת תוצאות מתמשכות ולא הדגמות חולפות.

 

ולבסוף, הן בונות לסקייל מהיום הראשון. אינטגרציה, אבטחה ואמון אינם תוספת, הם הבסיס. מי שרואה בינה מלאכותית כטרנספורמציה ארגונית ולא כניסוי טכנולוגי, מתקדם מהר יותר ומשיג תוצאות יציבות יותר.

 

חמש החברות האלה ועוד כאלה שלא הזכרנו כאן כבר מוכיחות את זה. הן מרחיבות את השימוש ב-Claude, בונות מערכות אג’נטיות שמעצבות מחדש תהליכי עבודה, ומראות מהי טרנספורמציית AI אמיתית. ולמי שעדיין מתלבט, השאלה כבר לא “האם להשתמש בבינה מלאכותית”, אלא ״איך להטמיע אותה נכון״. התשובה, כמו שהחברות האלה מוכיחות, מתחילה במדידה, ממשיכה באימון, ונגמרת בתוצאות שאי אפשר להתעלם מהן.

הפוסט ה-5% שכן הצליחו: כך נראית טרנספורמציית AI אמיתית עם Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/companies-implement-ai/feed/ 0
איך כלי AI הפכו סדרה מקראית ללהיט מספר 1 באמזון https://letsai.co.il/runway-series-production/ https://letsai.co.il/runway-series-production/#respond Sun, 12 Oct 2025 06:27:56 +0000 https://letsai.co.il/?p=61694 22 מיליון צופים תוך 17 ימים, מקום ראשון באמזון פריים, ועונה שנייה בדרך. מאחורי House of David, הסדרה שמביאה את סיפור דוד המלך למסך, מסתתרת החלטה אחת נועזת – להשתמש בבינה מלאכותית כדי לייצר סצנות שהיו בלתי אפשריות תקציבית. העלות? 200 דולר בחודש. התוצאה? מהפכה של ממש בדרך שבה יוצרים תוכן טלוויזיוני.     האתגר […]

הפוסט איך כלי AI הפכו סדרה מקראית ללהיט מספר 1 באמזון הופיע ראשון בLet's AI בינה מלאכותית

]]>
22 מיליון צופים תוך 17 ימים, מקום ראשון באמזון פריים, ועונה שנייה בדרך. מאחורי House of David, הסדרה שמביאה את סיפור דוד המלך למסך, מסתתרת החלטה אחת נועזת – להשתמש בבינה מלאכותית כדי לייצר סצנות שהיו בלתי אפשריות תקציבית. העלות? 200 דולר בחודש. התוצאה? מהפכה של ממש בדרך שבה יוצרים תוכן טלוויזיוני.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

האתגר של ג’ון ארווין

הבמאי ג’ון ארווין מצא את עצמו מול אחת הדילמות הקלאסיות של יוצר עצמאי – איך להפיק סצנת פתיחה מרהיבה בלי לקרוס כלכלית. בפרק השישי של House of David הוא רצה להציג מלאך ענק עם כנפיים עצומות, גשם שוטף, עשן ורוח – כל האלמנטים שמעניקים תחושת מיתוס. אבל הפקה כזו בשיטות מסורתיות הייתה עולה 40 עד 60 אלף דולר לצילום בודד, מצריכה צוות של 20-30 אמנים וחמישה חודשי עבודה. לאולפן העצמאי שלו, Wonder Project, זו פשוט לא הייתה אפשרות. במקום לוותר, ארווין בחר לקחת סיכון ולהכניס את הבינה המלאכותית אל לב תהליך ההפקה.

איך עשו את זה?

הצוות של ארווין עבד עם מנוי Unlimited ל-Runway בעלות של 95 דולר לחודש, ובשילוב חמישה כלים נוספים – Midjourney, Magnific, Topaz, Kling ו-Unreal Engine, והוציא את כל זה לפועל בפחות מ-200 דולר בחודש. לשם השוואה, יום צילום מסורתי עם צוות אפקטים חזותיים עולה בין 10 ל-50 אלף דולר, ואמן VFX בכיר גובה 300 עד 1,500 דולר לשעה.

 

בזכות השילוב הזה, סצנה שהייתה אמורה לקחת חמישה חודשי עבודה הושלמה בתוך שבועיים בלבד. “הסצנה כולה מונעת בבינה מלאכותית כבסיס המרכזי,” הסביר ארווין. “הכלים האלה משתלבים מצוין עם תוכנות המסורתיות. בלי AI היינו צריכים לצלם במדבר או לבצע עבודת VFX בקנה מידה הוליוודי – שניהם מעבר לכל תקציב ריאלי שלנו.”

המספרים מדברים

במהלך שמונת פרקי העונה הראשונה – 432 דקות שידור בסך הכול – שולבו כלי הבינה המלאכותית ב-72 צילומים בלבד, ורק במקומות שבהם היה להם ערך אמיתי מבחינה יצירתית או תקציבית. לפי נתוני Runway, השימוש ב-AI חסך לאולפן חמישה חודשי עבודה של פוסט-פרודקשן, זמן שבאולפן רגיל היה נבלע בין צוותים, תיקונים ובדיקות אין-סופיות.

 

“הופתעתי עד כמה הסימולציות מדויקות,” אמר ארווין. “גשם, עשן, רוח, אפילו התנועה של נוצות על כנפי המלאך – הכלים האלה עשו זאת טוב יותר מכל מערכת VFX שעבדתי איתה בעבר.”

 

דמות בסדרה שנוצרה על ידי בינה מלאכותית

מלאך ענק עם כנפיים עצומות. Credit: runwayml.com

ההצלחה

House of David עלתה לאמזון פריים ב-27 בפברואר 2025 עם שלושת הפרקים הראשונים, ותוך 17 ימים בלבד צפו בה יותר מ-22 מיליון איש. עד אפריל, עם סיום העונה, היא כבר תפסה את המקום הראשון בפלטפורמה – הישג נדיר לסדרה עצמאית בהיקף כזה.

 

כדי להבין את גודל הפער, כדאי להשוות – הפקת Fallout עלתה 19.1 מיליון דולר לפרק, Citadel הגיעה ל-50 מיליון, ו-The Rings of Power שברה שיאים עם 58 מיליון דולר לפרק. לעומתם, House of David נוצרה בתקציב זעיר והצליחה להתחרות ביצירות הענק האלה בזכות שימוש חכם בטכנולוגיה.

 

אמזון, שזיהתה את הפוטנציאל, מיהרה לאשר עונה שנייה. הביקורות היו מעורבות – 71 אחוזים מהמבקרים העניקו לה ציון חיובי ב-Rotten Tomatoes (אחד מהמקורות המשפיעים ביותר בעולם להערכת סרטים וסדרות טלוויזיה), אבל הצופים היו הרבה יותר נלהבים, ו-90 אחוזים מהקהל דירגו את הסדרה כאחת מהאהובות של השנה.

הצד האפל של המהפכה

השימוש הגובר בבינה מלאכותית בתעשיית הבידור לא עבר בשקט. מחקר של הפדרל ריזרב בסנט לואיס שפורסם באוגוסט 2025 מצא כי תחומי המחשוב והאפקטים החזותיים חוו עלייה ניכרת באבטלה מאז 2022, בדיוק בתקופה שבה כלי ה-AI הפכו לנפוצים בהפקות טלוויזיה וקולנוע.

 

סקר נלווה חשף כי כ-30 אחוזים מהעובדים בתעשייה חוששים שהמשרות שלהם יוחלפו בטכנולוגיה. ובכל זאת, הנתונים המלאים מציירים תמונה מורכבת יותר: 91 אחוזים מהחברות שכבר משלבות בינה מלאכותית מתכננות לגייס עובדים חדשים במהלך 2025, ו-96 אחוזים מהן מדווחות שמיומנויות בתחום ה-AI מעניקות למועמדים יתרון ממשי.

 

במילים אחרות, האיום עלול להפוך להזדמנות למי שמוכן ללמוד לעבוד לצד המכונה, ולא במקומה.

בין אדם למכונה

“האתגר האמיתי,” אומר ג’ון ארווין, “הוא לגרום לסצנה להרגיש אנושית. הכלים עצמם מדהימים, אבל בלי עין אמנותית ותחושת אינטואיציה, התוצאה נשארת קרה ומכנית.”

 

טים מור, מנכ”ל Vū Technologies שליווה את ההפקה, מסכים: “מה שקרה כאן הוא קפיצת מדרגה לכל תעשיית הבידור. אנחנו רואים איך בינה מלאכותית מאפשרת לפרוץ גבולות שלא היה ניתן לגעת בהם קודם, אבל עדיין נדרשת הנוכחות האנושית שתהפוך את זה לסיפור שמרגישים.”

 

עוד סצנה מתוך הסדרה ג׳ון ארווין.

עוד סצנה מתוך הסדרה ג׳ון ארווין. Credit: runwayml.com

למי זה באמת מתאים

שילוב בינה מלאכותית בתהליך ההפקה מתאים בעיקר לאולפנים עצמאיים שעובדים עם תקציב של עד חצי מיליון דולר לפרק – שם כל דולר נמדד וכל יום צילום קובע. הכלים האלה מאפשרים להפוך מגבלות למשאבים – לבדוק רעיונות במהירות, לבנות סצנות מורכבות מבלי לשכור צוותים גדולים, ולהפיק עולמות של פנטזיה ומדע בדיוני שלא ניתן היה לממן בעבר.

 

יחד עם זאת, יש גבול ברור ליכולות של AI. הוא עדיין מתקשה בקלוז-אפים אנושיים, בעקביות מדויקת בין עשרות צילומים ובאנימציה עדינה של הבעות פנים. במילים אחרות, הוא מצוין ליצירת אווירה, תנועה ואפקטים כלליים, אבל כשנדרשת נשימה אנושית או דיוק רגשי, אין תחליף לאמן מאחורי המסך.

 

 

נקודת מפנה

House of David היא לא רק סדרה מצליחה, אלא נקודת מפנה. זו אחת ההפקות הראשונות ששילבו בינה מלאכותית בלב תהליך היצירה, והיא בוודאי לא תהיה האחרונה. האולפנים לומדים, היוצרים מסתגלים, והגבול שבין הוליווד לאולפנים העצמאיים הולך ונמחק.

 

בעבר השאלה הייתה האם להשתמש ב-AI. היום השאלה האמיתית היא איך – איך לעשות זאת באופן חכם, אתי ויצירתי. הטכנולוגיה כבר הוכיחה שהיא יכולה לחסוך חמישה חודשי עבודה וכ-90 אחוזים מהתקציב. אבל רעיון טוב, סיפור מרגש ודמות שחודרת ללב – את אלה שום אלגוריתם לא יכול להמציא.

 

העונה השנייה של House of David תשודר החודש (אוקטובר 2025) באמזון פריים. 

הפוסט איך כלי AI הפכו סדרה מקראית ללהיט מספר 1 באמזון הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/runway-series-production/feed/ 0
Figure 03 של Figure AI הוא הדור הבא של הרובוטים ההומנואידיים https://letsai.co.il/figure-03/ https://letsai.co.il/figure-03/#respond Sat, 11 Oct 2025 06:04:55 +0000 https://letsai.co.il/?p=61666 חברת Figure AI הציגה את Figure 03, הדור השלישי לרובוט ההומנואידי שלה, והרגע הזה מסמן קפיצה אמיתית בעולם הרובוטיקה. זה כבר לא אב-טיפוס נוצץ שמצטלם יפה על במה, אלא מוצר של ממש, אחד שנבנה לעבוד, ללמוד ולהשתפר עם הזמן. החזון מאחוריו פשוט אך שאפתני – ליצור רובוט בגודל אדם שמבין שפה, רואה את את הסביבה ומבצע […]

הפוסט Figure 03 של Figure AI הוא הדור הבא של הרובוטים ההומנואידיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
חברת Figure AI הציגה את Figure 03, הדור השלישי לרובוט ההומנואידי שלה, והרגע הזה מסמן קפיצה אמיתית בעולם הרובוטיקה. זה כבר לא אב-טיפוס נוצץ שמצטלם יפה על במה, אלא מוצר של ממש, אחד שנבנה לעבוד, ללמוד ולהשתפר עם הזמן. החזון מאחוריו פשוט אך שאפתני – ליצור רובוט בגודל אדם שמבין שפה, רואה את את הסביבה ומבצע פעולות באופן עצמאי – בבית, במפעל, ואולי בקרוב גם לצידנו ביום-יום.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה בעצם Figure 03?

Figure 03 הוא רובוט הומנואידי מהדור החדש, שתוכנן מהיסוד כדי למלא שלושה יעדים מרכזיים:

  1. להפעיל את Helix – מערכת הבינה המלאכותית של החברה.

  2. לפעול בבטחה בסביבה ביתית.

  3. ולהיות מוכן לייצור המוני.

אבל מה שהופך אותו לשונה באמת הוא הדרך שבה הוא לומד. בניגוד לרובוטים תעשייתיים שדורשים תכנות מדויק לכל פעולה, Figure 03 לומד מצפייה – הוא רואה איך אדם מבצע משימה, מפענח כל תנועה ותיקון, ומסוגל לשחזר אותם בעצמו. זהו שינוי תפיסתי עמוק ממכונה שמבצעת פקודות, לישות שמבינה את הכוונה שמאחוריהן.

למה זה חשוב?

אנחנו עומדים על סף שינוי עמוק שבו המושג “עובד” כבר לא שייך רק לבני אדם. Figure 03 מייצג את תחילתו של עידן חדש, עידן שבו הרובוטים לא נבנים לביצוע פעולה אחת, אלא כדי להבין, ללמוד ולהסתגל כמו שותפים אנושיים. בלב השינוי הזה נמצא Helix, מודל הבינה המלאכותית של החברה, שמאפשר לרובוט להבין פקודות בשפה טבעית כמו “תביא את הקופסה האדומה מהמדף העליון” ולבצע אותן בדיוק אנושי בלי תכנות מוקדם ובלי סקריפטים.

 

במילים אחרות, Figure 03 לא רק מבצע משימות, הוא משנה את הדרך שבה אנחנו חושבים על עבודה, למידה ושותפות בין אדם למכונה. זו כבר לא שאלה של “מה הוא יכול לעשות”, אלא “איך העולם ייראה כשיהיו אלפים כמוהו”.

 

ציטוט של מנכ״ל Figure מלינקדאין

מנכ״ל Figure טוען שזה הרובוט ההומנואידי הטוב בעולם

 

הדרך אל הדור השלישי

כדי להבין עד כמה Figure 03 משמעותי, צריך לחזור לרגע להתחלה. הכול התחיל בשנת 2022, עם הצגת Figure 01, אב־טיפוס בסיסי שנועד להוכיח את ההיתכנות של שלד רובוטי בגודל אדם. לאחר מכן הגיעה Figure 02 בשנת 2024, גרסה תעשייתית ראשונה שכבר נשלחה ללקוחות מסחריים וביצעה ניסויי עבודה אמיתיים בשיתוף עם BMW. זו הייתה הפעם הראשונה שבה החברה הוכיחה תיאום אמיתי בין ראייה, תנועה וקבלת החלטות.

 

בקיץ 2025, רגע לפני ההשקה של Figure AI, Figure 03 חשפה גרסה מקדימה שבה הרובוט הצליח לקפל כביסה בעצמו ללא שליטה מרחוק. זו הייתה נקודת מפנה – לראשונה רובוט לא תוכנת לקפל כביסה, אלא הבין ולמד לעשות זאת בכוחות עצמו.

 

וממש השבוע (9 באוקטובר), נחשף Figure 03, עיצוב מחדש מקצה לקצה של כל רכיב: ידיים, מצלמות, סוללה, חיישנים, טעינה ותוכנה, וכל זה במטרה אחת ברורה – להפוך את הרובוט מכזה שמדגים טכנולוגיה למוצר שמוכן לעולם שבחוץ. כפי שנכתב בהכרזה הרשמית של החברה: “עם הדור השלישי עיצבנו מחדש הכול, מהברגים ועד מערכת הלמידה, כדי שיתאים לעולם האמיתי.”

מה חדש טכנולוגית ולמה זה משנה

ראייה ותפיסה

מערכת מצלמות חדשה מעניקה ל-Figure 03 פי שניים קצב תמונה, רבע מזמן ההשהייה, ושדה ראייה רחב ב-60%. המשמעות פשוטה, הוא לא רק “רואה” טוב יותר, אלא גם מגיב בזמן אמת לסביבה משתנה. זה ההבדל בין הדגמה מבוקרת במעבדה לבין תפקוד מדויק במטבח אמיתי או בקו ייצור צפוף.

ידיים ומגע

בכל כף יד שובצו מצלמות פנימיות וחיישני מגע הרגישים לעומס של שלושה גרם בלבד – מספיק עדין כדי להחזיק סיכה בלי למעוך אותה. כפי שמתארים בצוות Figure: “המטרה הייתה לגרום לידיים של הרובוט לעבוד כמו של אדם – לא רק להרים, אלא להרגיש.” התוצאה היא אחיזה יציבה ובטוחה גם בחפצים רכים, שבירים או בתנועה, יכולת קריטית לעבודה אמיתית לצד בני אדם.

 

טעינה ותקשורת

הרובוט נטען באופן אלחוטי, הוא פשוט דורך על משטח טעינה, והאנרגיה זורמת דרך כפות הרגליים. הטעינה בהספק 2 קילוואט, והסוללה בקיבולת 2.3 קוט”ש מספקת כחמש שעות פעולה רצופה. הוא גם מתקשר בקצב של 10 ג׳יגה-ביט לשנייה באמצעות mmWave, מה שמאפשר לצי שלם של רובוטים לשתף דאטה וללמוד יחד, ממש כמו צוות עובדים שמעביר ידע מניסיון לשטח.

אודיו וקול

הרמקול גדול פי שניים ועוצמתי פי ארבעה לעומת הדגם הקודם, והמיקרופון הוצב מחדש כך שהרובוט מבין דיבור אנושי בזמן אמת. זה אולי נשמע כמו פרט קטן, אבל זו אחת הקפיצות הקריטיות בדרך לתקשורת טבעית באמת בין אדם למכונה.

 

עיצוב ביתי ובטיחות

Figure 03 קל ב-9% מקודמו, קומפקטי יותר, עטוף טקסטיל רך עם קצף מגן ועמיד בפני פגיעה. הוא תוכנן מראש לפעול בביטחון ליד אנשים, לא כרובוט תעשייתי מאחורי גדר, אלא כעוזר שיכול לנוע בחופשיות בבית.

ביצועים ובטיחות

Figure 03 מתוכנן להיות קרוב ככל האפשר למידות אנושיות – גובה של 1.68 מטר ומשקל של כ-60 ק״ג. הוא מסוגל לנוע במהירות של 1.2 מטר לשנייה ולשאת משקל של עד 20 ק״ג, מה שהופך אותו לגמיש ויעיל גם בסביבה תעשייתית וגם בבית. הסוללה שלו עומדת בתקן UN38.3 המחמיר, והחברה כבר החלה בהליכי הסמכה לתקן UL2271, המשמש למוצרים צרכניים. בפועל, המשמעות היא ש-Figure 03 הוא אחד הרובוטים הראשונים בעולם שתוכננו לפי תקני בטיחות של מוצר ביתי, ולא רק כמערכת ניסיונית.

 

 

 

ייצור המוני

חברת Figure AI כבר לא עוסקת באב-טיפוס, היא עוברת לייצור אמיתי. לשם כך הקימה את BotQ, קו ייצור חדש המסוגל להפיק כ-12 אלף יחידות בשנה, עם יעד שאפתני להגיע ל-100 אלף רובוטים בתוך ארבע שנים. כפי שאמר מנכ״ל החברה, ברט אדקוק (Brett Adcock): “בנינו את שרשרת האספקה לפני שנוצר הביקוש.” זו לא רק אמירה ניהולית, זו הצהרת כוונות ברורה. Figure שואפת להפוך את הרובוטיקה ההומנואידית מתצוגת יכולת לתעשייה בקנה מידה עולמי.

אמינות ובשלות

ב-Figure 03 שום דבר לא הושאר ליד המקרה. כל רכיב, מהמצלמות ועד החיישנים, תוכנן מחדש עם שכבות גיבוי מלאות – מצלמות כפולות, חיישני מגע נוספים, ותוכנה שמנטרת שגיאות בזמן אמת ומתקנת אותן באופן עצמאי. בשלב זה החברה מתמקדת בעיקר בפריסות תעשייתיות, כמו בקווי הייצור של BMW, כדי לאמן את מערכת Helix בסביבות אמיתיות ורב-משימתיות. המטרה ברורה, לצבור אלפי שעות של ניסיון מציאותי, עד שהמערכת תהיה בשלה לעבור מהמפעל אל הבית.

מחיר וזמינות

נכון לעכשיו, Figure AI לא פרסמה מחיר רשמי ל-Figure 03. עם זאת, הערכות בתעשייה מדברות על טווח של 20-30 אלף דולר לגרסה צרכנית עתידית, ועל כ-50 אלף דולר לדגמים תעשייתיים שנמכרים כיום לשותפים ארגוניים. החברה פועלת בשלב זה במודל עסקי-ארגוני בלבד, ומתמקדת בשיתופי פעולה אסטרטגיים ובפריסות ניסיוניות שיספקו לה דאטה אמיתי מהשטח לפני המעבר לשוק הביתי.

 

פיגר במגזין טיים

Figure 03 נבחר לאחת ההמצאות הטובות של 2025 במגזין טיים. Source: Time

למה זה טוב לעסקים

עבור עסקים, Figure 03 הוא לא גימיק, הוא יתרון תפעולי אמיתי. המנועים החזקים מאפשרים פעולות מהירות ומדויקות כמו מיון, ליקוט והרכבה, הטעינה האלחוטית שומרת על רצף עבודה כמעט ללא הפסקות, וכל רובוט בצי לומד מהאחרים, כך שהמערכת משתפרת מעצמה. גם התחזוקה פשוטה – הכיסויים נשלפים ומוחלפים בקלות, בלי כלים ובלי זמן השבתה מיותר.

 

והאם זה יגיע גם לבית שלנו?

כנראה שכן, אבל לא עכשיו. בשלב הראשון Figure מתמקדת בפריסות תעשייתיות ובמרכזים לוגיסטיים, כדי לצבור ניסיון ותובנות מהעולם האמיתי לפני שתיכנס לבתים פרטיים. ובכל זאת, Figure 03 כבר מוכן טכנולוגית לשם – הוא בטוח, רך, קל, ומבין שפה טבעית. אם הקצב הנוכחי יישמר, ייתכן שבתוך כמה שנים נראה אותו, או גרסה מתקדמת שלו, עוזר לנו במטבח, מסדר מדפים, ואפילו מלמד את עצמו משימות חדשות.

 

 

לסיכום, Figure 03 הוא לא עוד רובוט, הוא הוכחה שהחזון מתחיל לקרום עור וגידים. לראשונה, בינה מלאכותית, תחושה אנושית ובטיחות מעשית משתלבות יחד בתוך גוף שמוכן לעולם האמיתי. אם החברה תעמוד ביעדיה, זה עשוי להיות הרגע שבו רעיון של עובד מבוסס בינה מלאכותית מפסיק להיות דמיון והופך למציאות יומיומית.

הפוסט Figure 03 של Figure AI הוא הדור הבא של הרובוטים ההומנואידיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/figure-03/feed/ 0
בינה מלאכותית יוצרת וירוסים חדשים במעבדה https://letsai.co.il/ai-virus-research-breakthrough/ https://letsai.co.il/ai-virus-research-breakthrough/#respond Wed, 08 Oct 2025 13:31:41 +0000 https://letsai.co.il/?p=61491 האם המחשב כותב את קוד החיים? זה אולי נשמע כמו מדע בדיוני, אבל זה קרה באמת. חוקרים מאוניברסיטת סטנפורד הצליחו לגרום לבינה מלאכותית לכתוב קוד גנטי חדש, שסונתז והפך במעבדה לוירוסים פעילים. לא מדובר בהדמיה או בניסוי מחשבתי, זה DNA אמיתי שהוכנס לחיידקים ויצר וירוסים חדשים לגמרי. חלק מהם אפילו הראו יעילות גבוהה יותר מהוירוס […]

הפוסט בינה מלאכותית יוצרת וירוסים חדשים במעבדה הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם המחשב כותב את קוד החיים? זה אולי נשמע כמו מדע בדיוני, אבל זה קרה באמת. חוקרים מאוניברסיטת סטנפורד הצליחו לגרום לבינה מלאכותית לכתוב קוד גנטי חדש, שסונתז והפך במעבדה לוירוסים פעילים. לא מדובר בהדמיה או בניסוי מחשבתי, זה DNA אמיתי שהוכנס לחיידקים ויצר וירוסים חדשים לגמרי. חלק מהם אפילו הראו יעילות גבוהה יותר מהוירוס שממנו למדה הבינה המלאכותית. במאמר הזה נגלה איך בדיוק עשו את זה, מה גילתה הבינה המלאכותית על חוקי החיים, ואיך התגלית הזו עשויה לשנות את הדרך שבה ניצור מדע, ואולי בעתיד, גם חיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך עושים דבר כזה?

כדי להבין את גודל הרגע, צריך להתחיל מהבסיס. מה זה וירוס בכלל? וירוס הוא יחידה ביולוגית זעירה שמזינה את עצמה רק כשהיא מתרבה בתוך יצור אחר. במחקר הזה מדובר בבקטריופאג’ים – וירוסים שתוקפים חיידקים. הם לא מדביקים בני אדם, ושימושם במחקר ובטיפולים בחיידקים קיים כבר שנים.

ללמד מחשב את “שפת החיים”

החוקרים לקחו מודל בינה מלאכותית מבוסס שפה – בדומה ל-ChatGPT מבחינת הרעיון – אבל במקום טקסט באנגלית לימדו אותו את “השפה” של ה-DNA: רצפים של ארבע אותיות בלבד (A, C, G, T).

המודל עבר אימון על מיליוני רצפי וירוסים ולמד מהם דפוסים ו”כללי דקדוק” של גנומים: איפה נוטים להתחיל גנים, אילו רצפים נראים תקינים, ואיך בנוי גנום שעובד.

 

לאחר מכן החוקרים נתנו למודל נקודת פתיחה קצרה – כמה אותיות מתוך וירוס מוכר בשם ΦX174, וביקשו ממנו להשלים את הרצף. התוצאה היתה מאות הצעות של “ספרי הוראות” גנטיים חדשים.

מהמחשב למעבדה

אחרי אלפי ניסיונות וניתוחים ממוחשבים, החוקרים בחרו כ-300 גנומים שהמודל הציע ונראו בעלי מבנה סביר. את הרצפים האלה הם סינתזו ל-DNA אמיתי והחדירו לחיידקים במעבדה, כדי לבדוק אם ייווצר וירוס פעיל. מתוך 285 רצפים שהצליחו לסנתז, 16 עבדו בפועל – כלומר יצרו וירוסים שהדביקו חיידקים. זה אולי נשמע מעט, אבל במונחים של גנום שלם שנכתב מאפס, זו פריצת דרך של ממש.

מה גילו?

1. חלק מהווירוסים היו יעילים יותר מהמקור

אחד הוירוסים החדשים, Evo-Φ69, התרבה מהר יותר מהווירוס המקורי ΦX174. אחר, Evo-Φ2483, השמיד אוכלוסיית חיידקים בזמן קצר יותר. זה לא אומר שהבינה המלאכותית “המציאה וירוס טוב יותר מהטבע”, אבל כן שהיא הצליחה לזהות שילובים יציבים ויעילים של גנים – הישג שאפילו מדענים מנוסים מתקשים בו.

2. חלקם שונים מאוד מכל מה שהמדע הכיר

אחד הווירוסים שתוכננו היה דומה רק ב-93% לקרוב הידוע ביותר במאגרים המדעיים. בעולם הוירולוגיה, רמת דמיון כזו נחשבת אינדיקציה למין חדש של וירוס. במילים פשוטות, האלגוריתם לא העתיק את מה שלמד, הוא יצר גרסאות ביולוגיות חדשות לגמרי, ששמרו על יכולת פעולה אמיתית.

3. פתרונות שבעבר נחשבו בלתי אפשריים

בעבר ניסו מדענים לשלב גן ממין אחד של וירוס באחר, אבל הוירוס לא הצליח לפעול. אחד הוירוסים שתכנן ה-AI, Evo-Φ36, הצליח לעשות זאת באופן טבעי כחלק מתכנון כולל של הגנום. כנראה שהמודל “חישב” את מכלול השינויים הדרושים כדי שהגן הזר ישתלב במערכת, והצליח לפתור בעיה ביולוגית שעמדה פתוחה במשך שנים.

למה זה בכלל חשוב?

המחקר הזה הוא לא רק הישג טכנולוגי מרשים, הוא הוכחה עקרונית שקוד החיים עצמו ניתן לתכנון ממוחשב. עד היום יכולנו רק לערוך DNA קיים, למשל בעזרת טכנולוגיה שנקראת CRISPR – מערכת מולקולרית שפועלת כמו מספריים ביולוגיות ומאפשרת לחתוך ולהחליף גנים קיימים.

 

במחקר הנוכחי מדובר בצעד אחר לגמרי – לא עריכה של מה שקיים, אלא כתיבה של גנום חדש מאפס – על פי מטרה שהוגדרה מראש. זו התחלה של עידן שבו מדענים יכולים לבקש ממחשב לא רק “לשנות” גנים, אלא להציע יצורים מיקרוסקופיים חדשים לגמרי, בעלי תפקוד ייעודי.

המשמעות המעשית הראשונה

אחת ההשלכות המיידיות נוגעת לתחום שנקרא Phage Therapy – טיפול בזיהומים חיידקיים בעזרת וירוסים שתוקפים חיידקים (פאג’ים). אם נוכל לייצר פאג’ים מותאמים אישית לחיידקים עמידים, נוכל להתמודד עם אחת הבעיות הרפואיות הדוחקות בעולם – עמידות לאנטיביוטיקה.

 

במחקר הזה הופיע רמז מעשי לכיוון הזה. כאשר החוקרים שילבו את כל 16 הפאג’ים החדשים ל”קוקטייל” אחד, הם הצליחו להשמיד שלושה זנים של חיידקים שפיתחו עמידות לפאג’ המקורי. במילים אחרות, המגוון שיצרה הבינה המלאכותית הפך ליתרון ביולוגי.

ומה לגבי הסכנות?

שאלה חשובה, והיא בלב השיח סביב התחום הזה.

  • בטיחות: הפאג’ים שנוצרו תוקפים רק חיידקים, לא בני אדם.

  • היקף האימון: המודלים לא נחשפו לווירוסים אנושיים או לחומר גנטי מסוכן – האימון הוגבל אך ורק לפאג’ים בטוחים.

  • שקיפות: החוקרים פרסמו את כל השיטות והנתונים כדי לעודד פיקוח ציבורי ומדעי.

עם זאת, גם החוקרים עצמם מדגישים שהתקדמות מסוג זה מחייבת רגולציה חכמה, שקיפות ובקרה אתית קפדנית. ככל שהיכולת לכתוב גנומים מתפתחת, כך גדלה גם האחריות להשתמש בה בזהירות.

איך זה ישנה את העתיד שלנו

היום הצליחו החוקרים עם וירוס קטן – בערך 5,000 אותיות DNA בלבד. בעתיד, ייתכן שנוכל לכתוב גנומים של יצורים מורכבים יותר – חיידקים שלמים, שמרים, ואולי אפילו תאים שתוכננו מראש לביצוע משימות רפואיות או סביבתיות. זה לא יקרה מחר בבוקר. זה דורש טכנולוגיות מתקדמות לסינתזה, רמות בטיחות חדשות, ודיון ציבורי מעמיק. אבל הכיוון כבר ברור: אנחנו נכנסים לעידן שבו בינה מלאכותית לא רק מבינה חיים, היא לוקחת חלק בכתיבתם.

 

המחקר הזה הוא צעד ראשון במעבר מעולם שבו אנחנו קוראים ומתקנים גנומים לעולם שבו נוכל לתכנן וליצור אותם. זו לא “סוף האבולוציה”, אלא אבולוציה חדשה מסוג אחר – כזו שבה אדם ומכונה עובדים יחד כדי לכתוב את “ספר החיים” של העתיד.

 

למחקר המלא כנסו כאן.

הפוסט בינה מלאכותית יוצרת וירוסים חדשים במעבדה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-virus-research-breakthrough/feed/ 0
האם ChatGPT בדרך להפוך למערכת ההפעלה של העתיד? https://letsai.co.il/openai-dev-day-2025/ https://letsai.co.il/openai-dev-day-2025/#respond Tue, 07 Oct 2025 10:03:54 +0000 https://letsai.co.il/?p=61454 סם אלטמן עלה אתמול לבמה של אירוע המפתחים השנתי של OpenAI, ה-Dev Day 2025, ושינה שוב את חוקי המשחק. זו לא עוד השקה או עדכון גרסה. הפעם, OpenAI הכריזה על מהלך שמסמן עידן חדש – ChatGPT כבר לא רק “צ’אט חכם” – הוא הופך לפלטפורמה שלמה, שבה אפשר לבנות, להפעיל ולהשתמש באפליקציות ישירות בתוך חלון […]

הפוסט האם ChatGPT בדרך להפוך למערכת ההפעלה של העתיד? הופיע ראשון בLet's AI בינה מלאכותית

]]>
סם אלטמן עלה אתמול לבמה של אירוע המפתחים השנתי של OpenAI, ה-Dev Day 2025, ושינה שוב את חוקי המשחק. זו לא עוד השקה או עדכון גרסה. הפעם, OpenAI הכריזה על מהלך שמסמן עידן חדש – ChatGPT כבר לא רק “צ’אט חכם” – הוא הופך לפלטפורמה שלמה, שבה אפשר לבנות, להפעיל ולהשתמש באפליקציות ישירות בתוך חלון השיחה. מה זה אומר בפועל, ולמה זה כל כך משמעותי?

 

לפני שנענה על זה בהרחבה, כדאי לצפות ב-Keynote המלא של אלטמן – הרצאה שמציגה את הדרך החדשה שבה OpenAI חושבת על פיתוח, חדשנות ועתיד הבינה המלאכותית. זה לא עוד אירוע טכנולוגי – זו ממש הצצה לעתיד של האינטרנט.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אפליקציות בתוך ChatGPT

ההכרזה הגדולה ביותר של הערב היא Apps SDK – ערכת פיתוח חדשה שמאפשרת לבנות אפליקציות שפועלות ישירות בתוך ChatGPT, בלי לצאת מהצ’אט. עד היום היינו “מדברים” עם בוט של חברה, ואז נאלצים לעבור לאתר שלה כדי להזמין, לשלם או לבצע פעולה. מהיום – הכול קורה באותו מקום. במהלך הדמו באירוע, OpenAI הציגה כמה דוגמאות שממחישות את הפוטנציאל:

  • ציור חופשי שהפך אוטומטית לעיצוב ב-Figma (מה שהקפיץ את מניית החברה ב-15%).

  • בנייה של מצגת שלמה ב-Canva, מבלי לעזוב את השיחה.

  • חיפוש דירה ב-Zillow, כולל סינון, הצגת תוצאות והמשך לתהליך הרכישה.

במילים פשוטות, OpenAI בונה App Store חדש, רק בתוך הצ’אט. מפתחים יוכלו להגיש אפליקציות לאישור, משתמשים יוכלו להתקין ולשלב אותן בשיחות, ובקרוב, גם לשלם עליהן ישירות, בזכות שיתוף הפעולה עם Stripe ו-Shopify. זו לא עוד תוספת נוחה, זו מהפכה של ממש באופן שבו אנחנו מתקשרים עם טכנולוגיה.

 

 

סוף לעבודה עם אינסוף כלים

אחת ההכרזות הבולטות באירוע היא AgentKit – סביבת פיתוח חדשה שמאפשרת לבנות “סוכני בינה מלאכותית” בצורה ויזואלית ונגישה. אם בעבר נדרשנו לחבר בין עשרות כלים עם Make ,Zapier או n8n כדי ליצור תהליכי אוטומציה, כעת אפשר להרכיב Agent אחד בממשק Drag & Drop, שמתחבר ישירות למודלים של OpenAI ולפרוטוקול ה- MCP שלהם.

 

בתוך AgentKit פועלת מערכת של כלים משלימים שמכסה את כל מחזור החיים של הסוכן: Agent Builder מספק ממשק גרפי ליצירת תהליכי עבודה בלי לכתוב קוד, Connector Registry מאפשר לחבר מקורות נתונים וכלי צד שלישי – ממערכות CRM ועד גיליונות נתונים, ChatKit משלב ממשקי צ’אט חכמים בתוך מוצרים קיימים, ו-Evals מספק כלים למדידה ובקרה כדי לשפר את ביצועי הסוכנים לאורך זמן.

 

השילוב הזה הופך את AgentKit לפלטפורמה מלאה שמרכזת את שלבי התכנון, החיבור, ההפעלה והאופטימיזציה – הכול במקום אחד. יחד עם זאת, חשוב לזכור שהמערכת משאירה אתכם בתוך האקוסיסטם של OpenAI. לכן, למרות שהממשק נראה ידידותי ומעוצב, הוא אינו תחליף מלא לכלים פתוחים כמו n8n, אלא כלי משלים שמתמקד בתרחישים מבוססי ChatGPT ובשיפור הדיוק של התוצרים.

 

 

מנועי העומק שמחזקים את הפלטפורמה

כדי שכל המערכת החדשה של OpenAI תפעל, היה צורך לחזק את היסודות – את המנועים שמניעים את הקסם מאחורי הקלעים. במרכז השדרוגים עומדים ארבעה מנועים עיקריים, שכל אחד מהם מוסיף שכבה קריטית לפלטפורמה החדשה.

 

הראשון הוא GPT-5 Pro, הגרסה המדויקת והחזקה ביותר של GPT עד כה, הזמינה גם דרך ה-API. זהו הבסיס שעליו יתבססו סוכנים ואפליקציות עתידיים. לצידו מגיע Sora 2, הדור החדש של מודל הווידאו הגנרטיבי, שמסוגל לייצר סרטונים ישירות מטקסט, ולראשונה גם דרך API פתוח. Codex, מנוע הקוד של החברה, יוצא סוף-סוף מגרסת הבטא ומקבל אינטגרציות עמוקות עם Slack, GitHub וכלים ניהוליים נוספים, מה שהופך אותו לכלי עבודה יומיומי אמיתי למפתחים. ולבסוף Real-Time Voice Mini, גרסה קלה וזולה בהרבה של מודל הקול בזמן אמת, שמפחיתה עלויות בכ-70 אחוזים ומקרבת את היכולת לקיים שיחות קוליות חכמות לכל עסק.

 

במילים פשוטות, OpenAI לא רק הוסיפה פיצ’רים, היא חיזקה את השרירים הטכנולוגיים שמאפשרים להפוך את ChatGPT ממנוע שיחה למערכת הפעלה שלמה, המסוגלת לתקשר, לנתח, ליצור ולתפעל בזמן אמת.

לאן כל זה הולך ומה המשמעות העסקית

כדי להבין את גודל המהלך, צריך להתרחק מהפרטים ולהביט בתמונה הרחבה. במשך כשנתיים OpenAI פעלה כחברת מוצר – עם צ’אט, מודלים ו-API. כעת היא עוברת שינוי עמוק – מיצרן כלי בינה מלאכותית לחברת פלטפורמה, שבונה סביב ChatGPT מערכת שלמה של חוויות, שירותים ועסקים.

 

החזון פשוט אבל שאפתני – לרכז את חוויית המשתמש כולה בתוך הצ’אט, לפתוח את הפלטפורמה למפתחים שיבנו עליה אפליקציות וסוכנים, וליצור סביב זה תשתית כלכלית פנימית עם עסקאות, רכישות ומונטיזציה ישירה. במילים אחרות, OpenAI כבר לא מתחרה במנועי חיפוש או בכלי AI אחרים, היא מבקשת להפוך לשכבת התשתית שעליה יתנהל האינטרנט החדש, שבו אינטראקציות, עסקאות ולמידה מתרחשות בתוך שיחה אחת רציפה.

 

המהלך הזה משנה לא רק את עולם הפיתוח, אלא את יחסי הכוחות הדיגיטליים עצמם. כש-ChatGPT הופך לשער הראשי לאינטרנט, נוצרת שכבה חדשה של שליטה בין המשתמשים לשירותים.

 

עבור OpenAI, המשמעות עצומה. אם בעתיד כל פעולה – קנייה, הזמנה, תכנון או חיפוש – תתבצע דרך הצ’אט, היא עשויה להפוך לשער הכניסה המרכזי של האינטרנט החדש, ולגזור עמלה כמעט על כל אינטראקציה. זה מהלך שמזכיר את המהפכה שחוללה Apple עם חנות האפליקציות שלה, רק שכאן מדובר בעולם שבו לא מחפשים או מקלידים, פשוט מבקשים.

 

עבור המשתמשים, זה עולם נוח בהרבה. הכול קורה באותה שיחה – מחקר, עיצוב ותשלום בתהליך רציף אחד. אבל לנוחות הזו יש מחיר – תלות הולכת וגדלה בפלטפורמה אחת, ושאלות חדשות על פרטיות, שליטה בנתונים ושקיפות אלגוריתמית.

 

ועבור המתחרים, מדובר באיום ישיר. ענקיות כמו Google, Meta ו-Microsoft לא יישארו אדישות. גוגל, למשל, כבר משלבת חיפוש שיחתי ו-AI בדפדפן כדי למנוע מ-OpenAI להשתלט על נקודת המפגש שבין האדם והאינטרנט. הקרב הבא לא יהיה על תוכן או על מודלים, אלא על מי שיחזיק בממשק הראשי שמתווך בין בני אדם למידע.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

לסיכום, אירוע ה-Dev Day של OpenAI השנה לא היה רק חגיגה טכנולוגית, הוא היה הצהרת כוונות ברורה. OpenAI כבר לא מסתפקת בלספק מודלים חכמים, היא רוצה להיות הפלטפורמה שמנהלת את הדרך שבה אנשים מתקשרים, עובדים ויוצרים בעולם החדש. אנחנו עומדים בפתחו של עידן שבו הצ’אט הופך לחלון הראשי של האינטרנט – המקום שבו מתבצעות אינטראקציות, החלטות ועסקים. וכמו תמיד, מי שילמד להשתמש בזה מוקדם, יבין מהר מאוד שזה לא עוד כלי. זו השפה החדשה של העולם הדיגיטלי. ומי שידע לדבר בה ירוויח כשהשאר עוד ינסו להבין מה השתנה.

הפוסט האם ChatGPT בדרך להפוך למערכת ההפעלה של העתיד? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-dev-day-2025/feed/ 0
Sora 2 והעידן החדש של היצירתיות האנושית https://letsai.co.il/sam-altman-blog/ https://letsai.co.il/sam-altman-blog/#respond Mon, 06 Oct 2025 12:08:56 +0000 https://letsai.co.il/?p=61362 אני עוקב כבר תקופה אחרי הבלוג של סם אלטמן, מנכ”ל OpenAI – האיש שמוביל את החברה שיצרה את ChatGPT ואת Sora ושינתה את העולם בנובמבר 2022 ומאז עוד כמה פעמים לאורך הדרך. בימים האחרונים, במקביל לרעש המטורף והמוצדק שעוררה ההשקה של הגרסה השנייה של סורה, פרסם אלטמן פוסט חדש בשם “Sora 2”. זו לא הייתה […]

הפוסט Sora 2 והעידן החדש של היצירתיות האנושית הופיע ראשון בLet's AI בינה מלאכותית

]]>
אני עוקב כבר תקופה אחרי הבלוג של סם אלטמן, מנכ”ל OpenAI – האיש שמוביל את החברה שיצרה את ChatGPT ואת Sora ושינתה את העולם בנובמבר 2022 ומאז עוד כמה פעמים לאורך הדרך. בימים האחרונים, במקביל לרעש המטורף והמוצדק שעוררה ההשקה של הגרסה השנייה של סורה, פרסם אלטמן פוסט חדש בשם “Sora 2”. זו לא הייתה רק השקה של מודל חדש, אלא הצהרה על עידן של יצירתיות ועל מודל עסקי חכם שיכול לקרוא תיגר אמיתי על ענקיות הווידאו הוויראלי כמו טיקטוק ואינסטגרם. אין ספק שזה פתח לעולם מרתק אבל גם מפחיד. אלטמן כותב על השינוי ומנסה לשקף לקוראים איך העולם ייראה על הציר שבין חופש היצירה לאחריות. קראתי את הפוסט בעיון, וזו הפרשנות שלי – לא תרגום – ניסיון להבין לעומק מה אלטמן באמת אומר, ואיך זה משנה את הדרך שבה ניצור ונחשוב.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

“הרגע שבו ChatGPT פגש את עולם היצירה”

אלטמן פותח את הבלוג פוסט במשפט שכבר הפך לסמל: אנחנו משיקים אפליקציה חדשה בשם Sora. זו תחושת ה־‘ChatGPT של עולם היצירה’ – תחושה של משהו חדש, קליל ומהנה.”



לפני שנבין את גודל הרגע הזה, חשוב לזכור מאיפה זה התחיל. הגרסה הראשונה של סורה הוכיחה כמה קשה להפוך חזון למציאות. ההייפ היה עצום, אבל אחרי זמן המתנה ארוך (מאוד) הביצועים היו בינוניים פלוס – ובינתיים כלים כמו Runway ,Luma ואחרים כבר הציגו תוצאות מרשימות משלהם.

 

Sora 2 מתקנת את מה שלא עבד קודם. היא לא מהפכה טכנולוגית, אבל היא קפיצה אמיתית בבשלות – באיכות (גם אם עדיין 720p), בעקביות ובתחושת החוויה. אם ChatGPT היה הרגע שבו השפה קיבלה מוח חדש, Sora היא הרגע שבו הדמיון קיבל גוף. זו הדרך הפשוטה ביותר לתאר את השינוי הזה – כל אחד יכול עכשיו להפוך רעיון לווידאו שנראה אמיתי, קולנועי – תוך דקות. אין מצלמה, אין צוות, אין תהליך ארוך. רק רעיון, מקלדת, ודמיון שלא צריך תקציב.

פיצ’ר Cameo

אחד החידושים הבולטים שסוחף את המשתמשים הוא פיצ’ר Cameo – יכולת חדשה לשלב את עצמך ואת חבריך בתוך הסרטון, תוך שמירה על עקביות דמות, תנועה והבעה. “היכולת להכניס את עצמך או את חבריך לסרטון… היא בעינינו דרך חדשה, כמעט מפתיעה, להתחבר זה לזה.”

וזה אולי לב העניין. זו לא עוד הדגמת יכולת טכנית, אלא שינוי תרבותי אמיתי. לראשונה, בינה מלאכותית מאפשרת לנו לא רק ליצור סיפור, אלא להיות בתוכו. והחוויה הזו, של לראות את עצמך בתוך עולם שנוצר ממילים בלבד, משנה את הדרך שבה אנחנו תופסים יצירה. תחשבו רגע…איזה סרט הייתם יוצרים אם הייתם יכולים להכניס את עצמכם לתוכו?

בין חופש היצירה לאחריות

“יש תחושת התרגשות גדולה – וגם מעט פחד.” זה אולי המשפט החשוב ביותר בפוסט כולו. כי הוא מסמן תודעה – ההבנה שכוח יצירתי כזה דורש גם ריסון. אלטמן מזהיר מפני העתיד האפשרי שבו “כולנו נשאבים לפיד ממוקסמם חיזוקים” – עולם שבו האלגוריתם כבר לא משרת אותנו, אלא קובע במקומנו מה ניצור ומה נרצה לראות.

 

ובמקום הזה הוא מציב סדרת עקרונות – מה שהוא מכנה “האתוס של סורה” – שמנסה להגדיר מחדש איך נראית יצירה מודעת בעידן של מכונות.

ארבעה עקרונות ליצירה מודעת

בבסיסו של האתוס עומדת תפיסה פשוטה אך רדיקלית: הצלחה אמיתית לא נמדדת בזמן מסך, אלא בתחושת ערך. אלטמן מבהיר: “רוב המשתמשים, כשהם מסתכלים חצי שנה אחורה, צריכים להרגיש שחייהם טובים יותר בזכות סורה. אם זה לא יקרה – נשנה כיוון, ואם לא נצליח, נפסיק את השירות.” זו אמירה נדירה בעולם שבו אלגוריתמים נמדדים בעיקר על קליקים ולא על תועלת.

 

העיקרון השני הוא שליטה אישית מלאה. לא עוד פיד שמחליט בשבילנו, אלא מערכת שמקשיבה באמת. המשתמשים יוכלו לבחור אם הם רוצים תוכן שמרגיע, מעורר השראה, אנרגטי או ממוקד תחום. אפילו לבני נוער יינתנו כלים לבקרה ולהגבלת התאמה אישית. זו הצהרה פשוטה שמטרתה להחזיר את השליטה לידיים שלנו.

 

השלישי נוגע בלב החזון של אלטמן – האמונה שיצירה היא צורך אנושי. “אנחנו מאמינים שבני אדם נולדו ליצור, והיצירה חשובה לרווחה שלנו.” זו קריאה לחזור לעשייה, לחקור, לנסות, ולא רק לגלול.

 

ולבסוף, אולי העיקרון הכי מסקרן והכי כנה – עזרה בהשגת מטרות ארוכות טווח. אלטמן כותב: “אם אתה רוצה להיות יותר מחובר לחברים, ננסה לעזור בזה. אם אתה רוצה להקים עסק, נלמד אותך את הכישורים הדרושים. ואם כל מה שאתה רוצה הוא לגלול בלי סוף ולהתעצבן, גם זה בסדר.” יש כאן אמירה עמוקה – לא פטרונות, אלא כבוד לבחירה.

 

המטרה של סורה היא לא לשנות את הרצון האנושי, אלא להקשיב לו. זו תפיסה כמעט חינוכית – בינה מלאכותית שלא באה ללמד אותנו איך לחשוב, אלא לעזור לנו להבין את הדרך שבה אנחנו חושבים.

 

ארבעת העקרונות האלה מגדירים יחד מערכת מוסרית חדשה – טכנולוגיה שמעצימה אותנו, מבלי לבלוע אותנו.

הכלכלה החדשה של יצירה

בפוסט המשך, אלטמן חושף את השכבה הפחות זוהרת של המהפכה – הצדדים הכלכליים והמשפטיים של יצירה בעולם גנרטיבי. הוא מתאר מציאות שבה אלפי משתמשים מייצרים כמויות עצומות של וידאו, לעיתים עבור קהל של אדם אחד. התופעה הזו, לדבריו, מייצרת אתגר חדש: איך שומרים על חופש היצירה – מבלי לקרוס כלכלית.

 

OpenAI בוחנת מודל חדש שבו בעלי זכויות יוכלו לבחור אם לאפשר שימוש בדמויות או בנכסים שלהם, ולקבל חלק מההכנסות כשיעשה בהם שימוש. זו תפיסה שמנסה להפוך קניין רוחני מגבול למרחב משותף – מערכת שבה ערך נוצר משיתוף, לא מחסימה. אלטמן מודה שהדרך לשם לא תהיה מושלמת. “זה יהיה תהליך של ניסוי וטעייה,” הוא כותב, ומסמן את הכיוון: כלכלה לומדת שמתפתחת יחד עם היוצרים שלה.

 

ימים ספורים אחרי פרסום הפוסט, OpenAI הכריזה על צעד נוסף בכיוון הזה – מערכת חדשה שמעניקה לבעלי זכויות שליטה מדויקת על הדרך שבה הדמויות, המותגים או היצירות שלהם יכולים להופיע בסרטונים שנוצרים מטקסט. לא עוד “כן או לא”, אלא שליטה אמיתית: הגדרה של איך, מתי ובאיזה הקשר ייעשה שימוש.

 

זה שינוי עמוק, לא רק טכני או משפטי, אלא תרבותי. הוא מסמן את המעבר מעולם של יצירה פרועה לעולם שבו חופש ואחריות מתחילים להתקיים יחד. סורה, במובן הזה, היא לא מוצר גמור אלא ניסוי חי – פלטפורמה שנבנית תוך כדי תנועה, לומדת מהשטח, ומתרחבת יחד עם המשתמשים שלה. הקצב, לדברי אלטמן, צפוי להיות “גבוה מאוד – כמו בתחילת ימי ChatGPT”.

רגע לפני שמאבדים פרופורציות

הרעיונות של אלטמן מעוררי השראה, אבל הם גם מעלים שאלה לא פשוטה: האם באמת ניתן למדוד “שביעות רצון לטווח ארוך” בעולם שמבוסס על נתונים, פרסום ותשומת לב? הרשתות החברתיות התחילו בדיוק באותה הבטחה – ליצור חיבור בין אנשים – ובתוך שנים הפכו למכונות שמודדות מעורבות במקום משמעות. היסטורית, כל ניסיון למדוד “אושר דיגיטלי” הסתיים בכך שהמדידה עצמה הפכה למטרה.

 

אלטמן מבטיח ש-Sora תמדוד ערך אמיתי, אך כדי שזה יקרה היא תצטרך לבנות מודל עסקי שבו הצלחה מסחרית ורווחת המשתמשים לא יתנגשו. זו אולי המשימה המאתגרת ביותר בתולדות OpenAI – להפוך את ההצלחה האנושית למדד הצלחה עסקי. ואולי, בסוף, זו גם נקודת המבחן של עידן הבינה המלאכותית כולו – האם נוכל לבנות מערכות שמרוויחות מהטוב שבנו, לא מהחולשות שלנו.

 

 

עולם של הזדמנויות

ההשפעה של Sora לא תיעצר בעמק הסיליקון. היא תגיע לכאן, מהר. עסקים קטנים יוכלו להפיק סרטים מקצועיים ביום אחד, בלי צוות, בלי תקציב, בלי מחסומים. מורים ישלבו שיעורים ויזואליים שמותאמים אישית לתלמידים שלהם. יוצרים עצמאיים יוכלו לבדוק רעיונות בלי הפקה מורכבת. וסטארטאפים יוכלו להדגים מוצר עתידי כאילו כבר יצא לשוק.

 

זו מהפכה של נגישות, הפעם לא רק טכנולוגית, אלא גם כלכלית ותרבותית. בפעם הראשונה, כישרון ודמיון שווים יותר מציוד או משאבים. אבל לצד כל זה, נדרש איזון. נצטרך לפתח כללים חדשים סביב זכויות, פרטיות ואתיקה. היכולת ליצור וידאו אמין בלחיצת כפתור היא כוח עצום, והשאלה האמיתית היא לא רק איך נשתמש בו, אלא איך נוודא שהוא לא ישתמש בנו. כי בסוף, כמו כל טכנולוגיה גדולה, גם כאן הכול יוכרע על דבר אחד – על האחריות האנושית שמחזיקה את הכלי.

לא עוד כלי, אלא מראה

סם אלטמן לא כתב בלוג על טכנולוגיה. הוא כתב על תרבות. על הדרך שבה אנחנו חושבים, יוצרים, ומגדירים מהי יצירתיות בעידן חדש. הוא מבין שהשאלה הגדולה של עידן הבינה המלאכותית הבא לא תהיה מה עוד אפשר לייצר, אלא מה נכון לייצר, ולמה. Sora 2 היא מראה. היא משקפת את הגבול הדק בין יצירה אמיתית לצריכה אינסופית, בין חופש לבקרה. ובעולם שבו כל אחד יכול להפיק סרט מושלם בלחיצת כפתור, הערך כבר לא טמון בתוצאה, אלא בכוונה שמאחוריה.

 

אם נזכור את זה, נוכל להפוך את הבינה המלאכותית לכלי שמעצים את האנושיות שלנו, לא כזה שמחליף אותה. ובמובן הזה, Sora היא לא רק מהפכה טכנולוגית, אלא תזכורת רכה למה שבאמת הופך אותנו לבני אדם – היכולת לבחור, ליצור, ולשאול למה גם כשאפשר פשוט לייצר.

הפוסט Sora 2 והעידן החדש של היצירתיות האנושית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/sam-altman-blog/feed/ 0