כתבות ומדריכים בנושא כתבות ומדריכים בנושא מודלי שפה | Let's AI בינה מלאכותית https://letsai.co.il/articles/language-models/ בינה מלאכותית Sun, 22 Mar 2026 11:09:15 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.5 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp כתבות ומדריכים בנושא כתבות ומדריכים בנושא מודלי שפה | Let's AI בינה מלאכותית https://letsai.co.il/articles/language-models/ 32 32 האם OpenAI מתכננת סופר-אפליקציה לדסקטופ והתרחבות ארגונית https://letsai.co.il/openai-reorganization/ https://letsai.co.il/openai-reorganization/#respond Mon, 23 Mar 2026 06:38:07 +0000 https://letsai.co.il/?p=71464 בעוד שחלקים רחבים בתעשיית הטכנולוגיה ממשיכים להאט, לקצץ ולהתכווץ, OpenAI בוחרת לנוע בכיוון הפוך. שני דיווחים מרכזיים, של הוול סטריט ג’ורנל ושל הפייננשל טיימס, מצביעים על מהלך כפול שמסמן שלב חדש בהתפתחות החברה: פיתוח אפליקציית-על לדסקטופ שתאחד כמה מהמוצרים המרכזיים שלה, לצד תוכנית שאפתנית להגדיל את מצבת העובדים לכ-8,000 עד סוף 2026. יחד, שני המהלכים […]

הפוסט האם OpenAI מתכננת סופר-אפליקציה לדסקטופ והתרחבות ארגונית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעוד שחלקים רחבים בתעשיית הטכנולוגיה ממשיכים להאט, לקצץ ולהתכווץ, OpenAI בוחרת לנוע בכיוון הפוך. שני דיווחים מרכזיים, של הוול סטריט ג’ורנל ושל הפייננשל טיימס, מצביעים על מהלך כפול שמסמן שלב חדש בהתפתחות החברה: פיתוח אפליקציית-על לדסקטופ שתאחד כמה מהמוצרים המרכזיים שלה, לצד תוכנית שאפתנית להגדיל את מצבת העובדים לכ-8,000 עד סוף 2026. יחד, שני המהלכים מצביעים על שינוי עומק ומעבר מחברה שממוקדת בפיתוח מודלים לחברה שבונה סביבם מוצרי עבודה ותשתיות Enterprise.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אפליקציית דסקטופ אחת משולבת

לפי דיווח של הוול סטריט ג׳ורנל, OpenAI מפתחת אפליקציית דסקטופ חדשה שתשלב את ChatGPT, את Codex ואת הדפדפן של החברה בתוך ממשק אחד. המטרה היא לפשט את חוויית המשתמש ולצמצם את הפיצול שנוצר בין מוצרים שצמחו במהירות בשנים האחרונות.

 

רויטרס דיווחה כי OpenAI אישרה את הכיוון הכללי של המהלך, ו‑CNBC הוסיפה כי בתוך החברה הוא נתפס כחלק ממאמץ רחב יותר למקד משאבים, לשפר ביצוע ולהתכוונן חזק יותר לשימושי פרודוקטיביות, הנדסה ו‑Enterprise.

 

לפי הדיווחים, את הפרויקט תוביל פידג׳י סימו (Fidji Simo), האחראית על תחום האפליקציות, בעוד נשיא החברה גרג ברוקמן (Greg Brockman) יפקח על השינוי המוצרי והארגוני הנלווה. זה לא נראה כמו עדכון נקודתי, אלא יותר כמו ניסיון לארגן מחדש את שכבת המוצר של OpenAI סביב לקוח דסקטופ מרכזי אחד, מהלך שמסמן התכנסות אסטרטגית.

התרחבות כוח האדם

המהלך המוצרי של OpenAI מגיע יחד עם שינוי ארגוני רחב יותר. הפייננשל טיימס דיווח כי החברה מתכננת כמעט להכפיל את מצבת העובדים שלה, מכ-4,500 כיום לכ-8,000(!) עד סוף 2026. רויטרס דיווחה על דברי הפייננשל טיימס וציינה שלא הצליחה לאמת את הנתון באופן עצמאי, וש‑OpenAI לא הגיבה מיד לבקשת תגובה.

 

לפי הדיווח המקורי, עיקר הגיוסים יתמקדו בפיתוח מוצר, הנדסה, מחקר ומכירות, לצד מומחים ל‑technical ambassadorship, תפקיד שמטרתו לסייע לארגונים להפיק יותר מהכלים של החברה. התרחבות כזו מצביעה על ניסיון לבנות תשתית רחבה שתתמוך בשלב הבא של פעילות OpenAI, במיוחד כשהיא מתקרבת לשוק הארגוני בקנה מידה גדול יותר.

העמקת הנוכחות הממשלתית על רקע העימות בין Anthropic לפנטגון

המהלך הממשלתי של OpenAI מתרחש על רקע עימות חריף בין Anthropic לפנטגון סביב מגבלות בטיחות ושימושי AI. לפי דיווח של רויטרס, הפנטגון הגדיר את Anthropic כ"סיכון בשרשרת האספקה", ולמרות שהשאיר פתח להחרגות שיאפשרו שימוש מסוים במודלים, האמון בין הצדדים כבר נפגע משמעותית.

 

זמן קצר לאחר מכן, OpenAI וסם אלטמן הודיעו על הסכם חדש עם הפנטגון לפריסת המודלים של החברה על גבי מערכות ענן מאובטחות או מסווגות. רויטרס ציינה כי ההסכם כולל מגבלות ברורות, ובהן איסור על מעקב המוני בתוך ארצות הברית, איסור על הכוונת נשק אוטונומי ואיסור על הכרעות אוטומטיות קריטיות. המהלך ממקם את OpenAI בעמדה אסטרטגית חדשה, ספקית תשתית AI שממלאת את הוואקום שנוצר בעקבות ההתרחקות של Anthropic מהמערכת הביטחונית.

האם OpenAI מתארגנת מחדש

התמונה הכוללת מציגה את OpenAI בעיצומו של תהליך התבגרות. החברה מצמצמת את הפיצול בין המוצרים ומגבירה מיקוד, מתרחקת מתפיסה של סטארט אפ מחקרי ומתקרבת למודל של חברת מוצרי עבודה, ומחליפה צמיחה אורגנית בבנייה מתוכננת של תשתית ארגונית וממשלתית.

 

למרות שחלק מהפרטים עדיין אינם מאומתים או דורשים הסתייגות, הכיוון הכללי ברור. OpenAI שואפת להפוך לא רק למובילת מודלים אלא לפלטפורמת העבודה המרכזית של עידן הבינה המלאכותית, בשוק העסקי, במגזר הציבורי ועל שולחן העבודה של המשתמש. המהלך הזה מציב את החברה מול מתחרות גדולות וחזקות, וזה לא יהיה קרב פשוט.

הפוסט האם OpenAI מתכננת סופר-אפליקציה לדסקטופ והתרחבות ארגונית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-reorganization/feed/ 0
האם GPT‑5.4 mini ו-nano מסמנים את הדור הבא של מערכות AI מהירות ויעילות https://letsai.co.il/gpt-5-4-mini-nano/ https://letsai.co.il/gpt-5-4-mini-nano/#respond Thu, 19 Mar 2026 06:41:02 +0000 https://letsai.co.il/?p=71362 בעולם הבינה המלאכותית התרגלנו לחשוב שהמודל הגדול ביותר הוא גם החכם ביותר, אבל בשנים האחרונות מתברר שהמציאות מורכבת יותר. מפתחים לא תמיד זקוקים למודל העמוק או היקר ביותר, אלא לכלי שמגיב במהירות, עולה מעט ומסוגל לבצע משימות רבות במקביל. כאן נכנסים לתמונה GPT‑5.4 mini ו‑GPT‑5.4 nano, שני מודלים חדשים של OpenAI שמכוונים בדיוק לצורך הזה. […]

הפוסט האם GPT‑5.4 mini ו-nano מסמנים את הדור הבא של מערכות AI מהירות ויעילות הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם הבינה המלאכותית התרגלנו לחשוב שהמודל הגדול ביותר הוא גם החכם ביותר, אבל בשנים האחרונות מתברר שהמציאות מורכבת יותר. מפתחים לא תמיד זקוקים למודל העמוק או היקר ביותר, אלא לכלי שמגיב במהירות, עולה מעט ומסוגל לבצע משימות רבות במקביל. כאן נכנסים לתמונה GPT‑5.4 mini ו‑GPT‑5.4 nano, שני מודלים חדשים של OpenAI שמכוונים בדיוק לצורך הזה. הם לא מחליפים את GPT‑5.4 הגדול, אלא משלימים אותו. הם מציעים חלק נרחב מהיכולות שלו, אבל במהירות גבוהה יותר ובעלות נמוכה משמעותית, ומאפשרים לבנות מערכות יעילות וגמישות יותר.

 

GPT‑5.4 mini ו‑GPT‑5.4 nano

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה בכלל צריך מודלים קטנים 

הצורך במודלים קטנים ומהירים נובע משתי בעיות מרכזיות שמפתחים פוגשים שוב ושוב. הראשונה היא עלות. מודלים גדולים דורשים משאבים רבים, ובמערכות שמבצעות אלפי קריאות ביום, העלות הופכת במהירות לגורם מגביל. השנייה היא זמן תגובה.

 

עוזרי קוד, מערכות שפועלות בזמן אמת וסוכני משנה שמבצעים משימות במקביל אינם יכולים להרשות לעצמם השהיות ארוכות (Latency). כל עיכוב משפיע על חוויית המשתמש ועל היכולת של המערכת לפעול בצורה חלקה. במצבים כאלה, מודל קטן שמגיב מהר ומספק דיוק גבוה מספיק אינו רק פתרון טכני, אלא תנאי בסיסי לתפקוד יעיל.

מה מציעים GPT‑5.4 mini ו‑nano 

GPT‑5.4 mini

GPT‑5.4 mini הוא הדגם הבולט מבין השניים. הוא מהיר יותר מפי שניים מהגרסה הקודמת שלו, GPT‑5 mini, ומציג שיפור משמעותי ביכולות כתיבת קוד, הבנה מולטימודלית ושימוש בכלים. הנתונים מהטבלה מצורפת מחזקים את זה. במבחן SWE‑Bench Pro, אחד המבחנים המרכזיים בתחום תיקון קוד, הוא מגיע לדיוק של 54.4 אחוז, רק מעט מתחת ל‑57.7 אחוז של GPT‑5.4 הגדול.

 

גם במבחנים נוספים כמו GPQA Diamond (הערכת ידע מדעי מתקדם) ו‑OSWorld‑Verified (ביצוע פעולות מחשב על ממשקי משתמש אמיתיים) הוא מציג תוצאות גבוהות, שממחישות את יכולתו להתמודד עם משימות מקצועיות מורכבות למרות גודלו הקטן.

GPT‑5.4 nano

לצדו, GPT‑5.4 nano הוא הדגם הקטן והזול ביותר במשפחה. הוא מיועד למשימות שבהן מהירות ועלות הן השיקול המרכזי, כמו סיווג, חילוץ נתונים, דירוג או תפקידים של סוכני משנה שמבצעים פעולות פשוטות כחלק ממערכת גדולה יותר. למרות גודלו, הוא מציג שיפור משמעותי לעומת הדור הקודם. במבחן SWE‑Bench Pro הוא מגיע לדיוק של 52.4 אחוז, נתון שממקם אותו מעל GPT‑5 mini הישן ומדגיש את ההתקדמות שחלה ביכולות של מודלים קטנים ומהירים.

 

ביצועי המודלים במבחני קוד וכלים מקצועיים

ביצועי המודלים במבחני קוד וכלים מקצועיים | OpenAI

איך זה עובד בפועל 

המודלים החדשים משתלבים היטב בארכיטקטורות מודרניות שמבוססות על חלוקת עבודה בין מודלים שונים. במקום מודל יחיד שמבצע את כל המשימות, מערכת חכמה יכולה להשתמש במודל גדול לתכנון ולקבלת החלטות, ובמודלים קטנים ומהירים לביצוע פעולות ממוקדות.

 

כך, לדוגמה, במערכת כמו Codex, GPT‑5.4 משמש כמתכנן העל, בעוד ש- GPT‑5.4 mini פועל כסוכן משנה שמבצע חיפוש בקוד, סקירת קבצים גדולים או עיבוד מסמכים תומכים. ככל שהמודלים הקטנים הופכים מהירים ומדויקים יותר, כך המבנה הזה נעשה יעיל יותר ומאפשר סקיילינג אמיתי.

 

שני המודלים תומכים בקלטי טקסט ותמונה, יודעים לפרש צילומי מסך מורכבים ומסוגלים לבצע פעולות מחשב במהירות. GPT‑5.4 mini כולל חלון הקשר של 400,000 טוקנים, מה שמאפשר לו להתמודד עם קוד נרחב או מסמכים גדולים בלי לאבד את ההקשר.

דיוק, מהירות ועלות 

הגרפים שהציגה OpenAI ממחישים היטב את היתרון של המודלים הקטנים. בגרף Accuracy vs Latency אפשר לראות ש‑GPT‑5.4 mini מציע שילוב יעיל במיוחד של דיוק גבוה וזמן תגובה נמוך. הוא נמצא קרוב מאוד ל‑GPT‑5.4 מבחינת דיוק, אבל רחוק ממנו מבחינת זמן תגובה, מה שהופך אותו מתאים במיוחד למערכות שפועלות בזמן אמת.

 

דיוק מול זמן תגובה ועלות במודלי GPT‑5.4

OpenAI | דיוק מול זמן תגובה ועלות במודלי GPT‑5.4

 

גם בגרף Accuracy vs Cost מתקבלת תמונה דומה. GPT‑5.4 nano מציג דיוק טוב ביחס לעלות הנמוכה ביותר, בעוד ש- GPT‑5.4 mini מציע אחד היחסים החזקים ביותר בין ביצועים לעלות. הנתונים האלה מחזקים את ההבנה שהמודלים הקטנים הם לא פשרה, אלא בחירה אסטרטגית שמאפשרת לבנות מערכות יעילות וחסכוניות יותר.

יישומים בעולם האמיתי 

היכולות האלה הופכות את GPT‑5.4 mini ו‑nano לכלים מרכזיים במגוון רחב של תרחישים. בעוזרי קוד הם מאפשרים ביצוע מהיר של תיקונים ממוקדים, ניווט בקוד, יצירת ממשקי front‑end ולולאות debugging. במערכות מבוססות סוכנים הם תומכים בחלוקת עבודה יעילה בין מודלים שונים, כך שהמודל הגדול מטפל בתכנון והמודלים הקטנים מבצעים משימות במקביל. הגישה הזו משפרת את מהירות העבודה ומאפשרת למערכות להתמודד עם עומסים גבוהים בצורה יציבה.

שימוש במחשב 

גם בתחום השימוש במחשב GPT‑5.4 mini מצטיין. הוא מפרש צילומי מסך במהירות ומבצע פעולות מורכבות על ממשקי משתמש צפופים. במבחן OSWorld‑Verified הוא מגיע לדיוק של 72.1 אחוז, נתון שמתקרב מאוד ל‑75 אחוז של GPT‑5.4 הגדול. התוצאה הזו ממחישה את היכולת שלו להתמודד עם משימות תפעול מחשב מורכבות, למרות היותו מודל קטן ומהיר.

זמינות ועלויות 

OpenAI מציעה את GPT‑5.4 mini ב‑API, ב‑Codex וב‑ChatGPT. הוא תומך בשימוש בכלים, קריאה לפונקציות, חיפוש ברשת, חיפוש בקבצים, שימוש במחשב ויכולות מולטימודליות. עלותו עומדת על 0.75 דולר למיליון טוקנים בקלט ו‑4.50 דולר למיליון טוקנים בפלט.

 

ב‑Codex השימוש בו צורך רק כשלושים אחוז מקצבת GPT‑5.4, מה שמאפשר למפתחים לבצע משימות פשוטות בעלות נמוכה בהרבה.

 

GPT‑5.4 nano זמין ב‑API בלבד, במחיר של 0.20 דולר למיליון טוקנים בקלט ו‑1.25 דולר למיליון טוקנים בפלט.

הקרב האמיתי עובר למודלים הקטנים

השקת GPT‑5.4 mini ו‑nano מסמנת שינוי כיוון מעניין בתעשייה. במקום להתמקד רק במודלים הגדולים ביותר, OpenAI מדגישה את הערך של מודלים קטנים, מהירים וזולים שמבצעים את רוב העבודה המעשית. הנתונים מהגרפים ומהטבלה ממחישים זאת היטב. המודלים הקטנים מתקרבים לביצועי הדגם הגדול, אבל מציעים זמן תגובה קצר יותר ועלות נמוכה בהרבה.

 

בעולם שבו מערכות AI הופכות מורכבות יותר ומבוססות על עשרות סוכנים שפועלים במקביל, היכולת להריץ מודלים יעילים בקנה מידה גדול הופכת חיונית. העתיד אינו שייך רק למודלים הגדולים, אלא גם למודלים הקטנים שמאפשרים למערכות לעבוד מהר, בזול ובאמינות. אלו הם המנועים השקטים שמאחורי הדור הבא של מערכות AI.

 

לפרטים נוספים על ההשקה, מוזמנות/ים להיכנס לאינדקס של OpenAI.

הפוסט האם GPT‑5.4 mini ו-nano מסמנים את הדור הבא של מערכות AI מהירות ויעילות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gpt-5-4-mini-nano/feed/ 0
ג’מיני נכנס לעבודה ומשנה את Google Workspace https://letsai.co.il/gemini-workspace-integration/ https://letsai.co.il/gemini-workspace-integration/#respond Wed, 18 Mar 2026 06:36:10 +0000 https://letsai.co.il/?p=71263 עד לא מזמן, מי שרצה להיעזר בבינה מלאכותית בעבודה היומיומית נאלץ לנווט בין חלונות שונים: לשאול שאלה בצ׳אט, להעתיק את התשובה, להדביק אותה למסמך, לחפש קובץ נוסף ולחזור שוב אל המודל. גוגל מבקשת לשבור את המעגל הזה. עם שילוב ג'מיני (Gemini) ישירות בתוך Google Workspace, הבינה המלאכותית כבר לא פועלת כעוזר חיצוני אלא נטמעת בלב […]

הפוסט ג’מיני נכנס לעבודה ומשנה את Google Workspace הופיע ראשון בLet's AI בינה מלאכותית

]]>
עד לא מזמן, מי שרצה להיעזר בבינה מלאכותית בעבודה היומיומית נאלץ לנווט בין חלונות שונים: לשאול שאלה בצ׳אט, להעתיק את התשובה, להדביק אותה למסמך, לחפש קובץ נוסף ולחזור שוב אל המודל. גוגל מבקשת לשבור את המעגל הזה. עם שילוב ג'מיני (Gemini) ישירות בתוך Google Workspace, הבינה המלאכותית כבר לא פועלת כעוזר חיצוני אלא נטמעת בלב הכלים שבהם אנחנו משתמשים מדי יום. היא קוראת את הקבצים, מבינה את ההקשר ומסוגלת לייצר תוצרים חדשים מתוך החומר הקיים, וכל זה בלי לעזוב את המסמך, הגיליון או המצגת.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ממרחב עבודה לכלי חשיבה

העדכונים החדשים הופכים את Workspace מסביבה סטטית למרחב עבודה חי, שבו ג'מיני פועל כמתווך בין המשתמש לבין הידע האישי שלו. במקום כלי שמגיב רק לפקודות, הוא הופך לשכבת חשיבה שמבינה הקשר, מחברת בין מקורות מידע שונים ומסייעת לייצר תוצרים מדויקים ורלוונטיים יותר.

התכונות החדשות ב‑Docs

ב‑Docs מופיע כעת סרגל פקודות חדש בתחתית המסמך. דרכו אפשר לבקש טיוטה, תבנית או שכתוב, תוך בחירה מדויקת של מקורות המידע כמו Drive, Gmail, Chat או חיפוש ברשת. היכולת הזו מאפשרת לג'מיני לא רק לכתוב טקסטים חדשים, אלא גם להבין את ההיסטוריה התיעודית של המשתמש ולבנות ממנה תוכן המשכי. לצד זה נוספו כלים שמאחדים סגנון כתיבה בין מחברים שונים ומאפשרים להתאים מסמך חדש לפורמט של מסמך קיים, כך שהכול ייראה כאילו נכתב ביד אחת.

 

סרגל הפקודות החדש ב‑Google Docs

סרגל הפקודות החדש ב‑Google Docs

השינויים ב‑Sheets

גם ב‑Sheets מתרחש שינוי משמעותי. במקום לבנות טבלאות ידנית, המשתמש יכול לבקש מהמודל ליצור גיליון שלם מתוך תיאור קצר. ג'מיני אוסף נתונים מתוך Drive, Gmail ו‑Chat ומייצר גיליון מעוצב ומוכן לעבודה. עבור משימות מורכבות יותר, כלי בשם Fill with Gemini מסוגל למלא עמודות שלמות, לסכם נתונים, לקטלג מידע או למשוך פרטים עדכניים מהרשת. כך ניתן ליצור למשל טבלת מעקב על מועדי קבלה לאוניברסיטאות ולתת למודל להשלים את כל הנתונים הרלוונטיים במקום לחפש אותם ידנית.

שינויים ב‑Slides

גם Slides מקבל שכבת יכולות חדשה. ג'מיני יודע ליצור שקופית חדשה שמתאימה לעיצוב הקיים, לעדכן שקופיות קיימות על בסיס מידע שנמצא בקבצים ובמיילים ולשמור על שפה עיצובית אחידה. גוגל מציינת שבעתיד ניתן יהיה לבנות מצגת שלמה מפרומפט אחד, כשהמודל ימשוך את כל המידע הדרוש מהקבצים האישיים ומהרשת.

 

שקופית ש‑Gemini יצר באופן אוטומטי על בסיס מאמרים בתיקיית Drive

שקופית ש‑Gemini יצר באופן אוטומטי על בסיס מאמרים ב-Drive

Drive משתנה ממחסן קבצים למנוע ידע

אחד השינויים הבולטים ביותר מתרחש דווקא ב‑Drive. במקום חיפוש מסמכים לפי שמות קבצים, Drive מציג כעת AI Overview, תקציר חכם שמופיע בראש תוצאות החיפוש ומסכם את המידע הרלוונטי מתוך המסמכים עצמם. התקציר כולל ציון מקורות, כך שהמשתמש יודע מאיפה נשלף כל פרט.

 

יכולת ה‑AI Overview החדשה ב‑Google Drive

יכולת ה‑AI Overview החדשה ב‑Google Drive

 

לצד זה נוסף כלי בשם Ask Gemini, שמאפשר לשאול שאלות מורכבות על קבוצות קבצים, מיילים ואפילו אירועים מהיומן, ולקבל תשובה שמבוססת על המידע האישי של המשתמש. כך ניתן למשל לבחור את כל המסמכים הקשורים למיסים ולשאול מה כדאי לשאול את רואה החשבון השנה, וג'מיני ינתח את החומר ויציע כיווני פעולה.

 

 Ask Gemini בתוך Google Drive

Ask Gemini בתוך Google Drive

שליטה, הקשר ודיוק

הכוח של המערכת החדשה נובע מהיכולת של המשתמש לשלוט במקורות המידע שבהם ג'מיני משתמש. בכל פעולה ניתן לבחור אם לאפשר גישה ל‑Drive, ל‑Gmail, ל‑Chat או לחיפוש ברשת. גוגל מדגישה שהשליטה הזו נועדה להבטיח שהתוצרים יהיו מדויקים ורלוונטיים, אך גם לשמור על פרטיות. מבחינת ביצועים, גוגל מדווחת על שיפור משמעותי ב‑Sheets, עד לרמה שמתקרבת למומחים אנושיים במבחנים פומביים. 

 

מסך בחירת מקורות המידע של Gemini

מסך בחירת מקורות המידע של Gemini

זמינות ומגבלות

הפיצרים החדשים זמינים כרגע בגרסת בטא למנויי Google AI Ultra ו‑Pro. התמיכה ב‑Docs, Sheets ו‑Slides זמינה באנגלית ברחבי העולם, בעוד ש‑Drive מוגבל בשלב זה לארצות הברית. לא ברור מתי יתרחב המענה לשפות נוספות או לשווקים נוספים, ולכן קשה לדעת מתי היכולות יגיעו לקהל רחב יותר.

 

לצד מגבלות הזמינות, נותרות פתוחות גם שאלות של אמינות, הזיות מודל והצורך בביקורת אנושית. גוגל עצמה ממליצה להתחיל ממשימות בעלות סיכון נמוך כדי להכיר את המערכת ולבחון את התנהגותה לפני שמסתמכים עליה בעבודה קריטית. ההמלצה הזו מדגישה שהטכנולוגיה מתקדמת, אך עדיין דורשת זהירות ושיפוט מקצועי.

 

צעד גדול קדימה

הטמעת ג׳מיני בתוך Workspace מסמנת שינוי תפיסתי. הבינה המלאכותית כבר לא נתפסת ככלי צדדי, אלא כשכבת עבודה שמחברת בין המשתמש לבין הידע האישי שלו. היא מייעלת תהליכים, מפחיתה עומס ומאפשרת להתחיל ליצור במקום לבהות בדף ריק.

 

לצד ההבטחה הזו קיימת גם אחריות של המשתמשים להבין את מגבלות המודל, לשמור על פרטיות המידע, לבדוק עובדות ולוודא שהאוטומציה לא מחליפה שיקול דעת אנושי. זהו צעד משמעותי קדימה, אך הדרך לשילוב מלא, בטוח ושקוף של AI בעבודה היומיומית עדיין נמשכת.

הפוסט ג’מיני נכנס לעבודה ומשנה את Google Workspace הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-workspace-integration/feed/ 0
חנות סוכנים, אפליקציות ישראליות ומודל תמחור חדש: הצד העסקי של Copilot Wave 3 https://letsai.co.il/copilot-agent-store/ https://letsai.co.il/copilot-agent-store/#respond Sat, 14 Mar 2026 08:12:46 +0000 https://letsai.co.il/?p=71049 מיקרוסופט פותחת את Copilot לאפליקציות צד שלישי, כולל Wix ו-Base44 הישראליות. במקביל, חבילת רישוי חדשה בשם E7 Frontier Suite תאחד הכל תחת קורת גג אחת. אחרי שסקרנו את היכולות החדשות באפליקציות הליבה ואת Copilot Cowork בשני החלקים הקודמים בסדרה, החלק השלישי והאחרון מתמקד בצד העסקי: השותפויות, חנות הסוכנים, כלי הניהול לארגונים, והתמחור.     כדי […]

הפוסט חנות סוכנים, אפליקציות ישראליות ומודל תמחור חדש: הצד העסקי של Copilot Wave 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>

מיקרוסופט פותחת את Copilot לאפליקציות צד שלישי, כולל Wix ו-Base44 הישראליות. במקביל, חבילת רישוי חדשה בשם E7 Frontier Suite תאחד הכל תחת קורת גג אחת. אחרי שסקרנו את היכולות החדשות באפליקציות הליבה ואת Copilot Cowork בשני החלקים הקודמים בסדרה, החלק השלישי והאחרון מתמקד בצד העסקי: השותפויות, חנות הסוכנים, כלי הניהול לארגונים, והתמחור.

 

בייס 44 ו וויקס בתוך קופיילוט

 

כדי לראות איך סביבת העבודה החדשה הזו נראית בפועל, מומלץ להציץ באירוע ההכרזה הרשמי (Frontier Transformation). החל מדקה 12:50 מדגימה מיקרוסופט כיצד אפליקציות צד-שלישי משתלבות בחנות הסוכנים ופועלות מתוך חלון הצ'אט, והחל מדקה 16:30 מוצג 'מאחורי הקלעים' עבור מנהלי ה-IT כיצד לוח הבקרה של Agent 365 מאפשר לשלוט בכל צבא הסוכנים הזה בבטחה:

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אפליקציות צד שלישי בתוך Copilot

מיקרוסופט הכריזה על שילוב של 11 אפליקציות שותפים ישירות בתוך Copilot. הרעיון פשוט - במקום לצאת מסביבת העבודה המוכרת כדי להשתמש בכלי חיצוני, המשתמשים יכולים להפעיל אותו ישירות מתוך ממשק הצ'אט. בין השותפים ניתן למצוא את Canva לעיצוב, Figma לממשקים, Monday לניהול פרויקטים, Jira לניהול משימות טכניות, Miro ללוחות שיתופיים, ServiceNow לתהליכי IT ועוד.

 

לצד כל אלה, שתי חברות ישראליות תופסות מקום מרכזי ברשימה, ומי שעוקב אחרי מהפכת ה-"Vibe Coding" (בניית אפליקציות באמצעות שפה טבעית) יזהה שהנוכחות שלהן אינה מקרית. הראשונה היא Wix, ענקית בניית האתרים, שמשלבת את הפלטפורמה שלה ישירות בתוך Copilot. בהדגמת ההשקה הוצג כיצד משתמש מתאר בשפה רגילה את האתר שהוא רוצה להקים, ו-Copilot מפעיל את כלי ה-AI של Wix כדי לבנות אותו תוך כדי השיחה - מבלי שהמשתמש ייאלץ לפתוח חלון נפרד.

 

השנייה היא Base44, סטארט-אפ AI ישראלי ש-Wix רכשה בקיץ 2025 תמורת כ-80 מיליון דולר. הפלטפורמה של Base44 מאפשרת כעת לעובדים לבנות אפליקציות פנימיות לארגון ישירות מתוך Copilot. כך למשל, מנהל יכול לבקש מהצ'אט "תבנה לי מערכת לניהול בקשות חופשה לצוות", ולקבל תוך דקות אפליקציה עובדת.

 

הופעתן המשותפת של שתי הפלטפורמות תחת המטרייה של מיקרוסופט היא לא רק עניין טכנולוגי, אלא חלק ממהלך אסטרטגי רחב של Wix למצב את עצמה כשחקנית מפתח באקו-סיסטם החדש של בניית תוכנה מונחית AI.

חנות הסוכנים

מיקרוסופט השיקה את חנות הסוכנים (Agent Store) כבר במאי 2025, אבל כעת, במסגרת עדכון Wave 3, היא הופכת אותה למרכז העצבים של הארגון.

 

החנות פועלת בפורמט דומה ל-App Store, רק שבמקום אפליקציות רגילות היא מציעה סוכני AI מוכנים לשימוש שמבצעים משימות ספציפיות. החידוש המרכזי בהשקה המחודשת הוא השילוב העמוק של אפליקציות צד-שלישי מובילות, שיכולות כעת לפעול כסוכנים ישירות בתוך ממשק העבודה של Copilot ('In-the-flow of work') - ללא צורך לצאת מחלון הצ'אט.

 

החנות תכלול תחילה סוכנים מהשותפים שכבר הוכרזו, ותאפשר לארגונים וליצרני תוכנה להמשיך להוסיף סוכנים חדשים בהמשך.

 

רבים מהסוכנים שיהיו זמינים בחנות (Agent Store) אינם מיועדים רק לייעול פנים-ארגוני, אלא גם לתקשורת החוצה. רוצים לראות איך סוכני ה-AI האלו נראים כשהם פוגשים את הלקוחות שלכם במציאות? מיקרוסופט יצרה הדגמה אינטראקטיבית שבה ניתן לראות כיצד סוכן 'Direct to Customer' מנהל שיחת מכירה או שירות מקצה לקצה.

פלטפורמת הניהול

עם עשרות סוכני AI שפועלים בתוך ארגון, מישהו צריך לנהל אותם. זה התפקיד של Agent 365 - פלטפורמת בקרה שמאפשרת לארגונים לקבוע איזה סוכנים פועלים, מי מורשה להשתמש בהם, ומה הם הרשאות הגישה שלהם. Agent 365 כולל לוח בקרה מרכזי, הגדרת הרשאות לכל סוכן, ומעקב אחרי פעילות הסוכנים ברחבי הארגון. 

כמה זה עולה?

עדכון Wave 3 מביא איתו שכבת תמחור חדשה ומעודכנת.

 

כך נראית מפת הרישיונות החדשה של מיקרוסופט:

 

טבלת מחירים

 

השקת חבילת ה-E7 היא מהלך כלכלי מעניין מצד מיקרוסופט. הפיצ'רים המתקדמים באמת, כמו העבודה העצמאית של Copilot Cowork, בחירת המודלים וניהול הסוכנים, דורשים מהארגון שדרוג ל-E7. עם זאת, החבילה מציעה לארגונים מעין 'הנחת באנדל': רכישת כל הרכיבים הללו בנפרד (כולל רישיון ה-E5 הבסיסי שעולה כ-60 דולר) הייתה מגיעה ל-105 דולר, כך שמיקרוסופט למעשה מתמרצת את השוק לעבור לחבילת הכל-כלול.

סיכום הסדרה

שלושה מאמרים, הכרזה אחת. Wave 3 משנה את Copilot בשלוש רמות: ביצוע ישיר בתוך האפליקציות, סוכן עצמאי שעובד ברקע, ופתיחה לעולם של אפליקציות ושותפויות חיצוניות. מיקרוסופט מציעה את הכל תחת חבילת E7 ב-99 דולר למשתמש, שמאחדת אבטחה, AI ופלטפורמת ניהול.

 

פספסתם את תחילת הסדרה? כדי להבין איך Copilot משנה את העבודה היומיומית בתוך קבצי אקסל ווורד, קראו את החלק הראשון. כדי להעמיק בהיכרות עם הסוכן העצמאי החדש Copilot Cowork ובשותפות עם Anthropic, קראו את החלק השני.

הפוסט חנות סוכנים, אפליקציות ישראליות ומודל תמחור חדש: הצד העסקי של Copilot Wave 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/copilot-agent-store/feed/ 0
Copilot Cowork: מיקרוסופט משיקה סוכן AI שעובד לבד ברקע https://letsai.co.il/copilot-cowork/ https://letsai.co.il/copilot-cowork/#respond Fri, 13 Mar 2026 07:13:07 +0000 https://letsai.co.il/?p=71041 מיקרוסופט ו-Anthropic בנו יחד סוכן חכם שמבצע משימות מקצה לקצה בתוך Microsoft 365. במקביל, משתמשים יכולים עכשיו לבחור איזה מודל AI ירוץ מאחורי Copilot. אחרי שפרסמנו אתמול את החלק הראשון בסדרה על עדכון Wave 3 של Copilot, שעסק ביכולות החדשות באקסל, וורד, פאוורפוינט ואאוטלוק, הפעם נתמקד בשני חידושים שמשנים את המבנה של המוצר: Copilot Cowork, […]

הפוסט Copilot Cowork: מיקרוסופט משיקה סוכן AI שעובד לבד ברקע הופיע ראשון בLet's AI בינה מלאכותית

]]>

מיקרוסופט ו-Anthropic בנו יחד סוכן חכם שמבצע משימות מקצה לקצה בתוך Microsoft 365. במקביל, משתמשים יכולים עכשיו לבחור איזה מודל AI ירוץ מאחורי Copilot. אחרי שפרסמנו אתמול את החלק הראשון בסדרה על עדכון Wave 3 של Copilot, שעסק ביכולות החדשות באקסל, וורד, פאוורפוינט ואאוטלוק, הפעם נתמקד בשני חידושים שמשנים את המבנה של המוצר: Copilot Cowork, סוכן שעובד באופן עצמאי על משימות ארוכות, ובחירת מודלים שמאפשרת למשתמשים להחליף בין מודלי AI שונים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה Copilot Cowork

עד עכשיו, כל אינטראקציה עם Copilot עבדה בדפוס של שאלה-תשובה: המשתמש מבקש, Copilot מגיב, המשתמש ממשיך. Copilot Cowork שובר את הדפוס הזה. זה סוכן שמקבל משימה מורכבת ומבצע אותה לבד, מקצה לקצה, בלי שהמשתמש צריך לנהל כל שלב.

 

התהליך עובד בארבעה שלבים: Copilot Cowork מקבל את המשימה ומפרק אותה לצעדים, הוא בונה תוכנית עבודה ומציג אותה למשתמש לאישור, אחרי האישור, הוא מבצע את הצעדים - עובר בין קבצים, שולף נתונים, כותב מסמכים, שולח מיילים - ובסוף מדווח מה עשה ומה התוצאות.

 

ככה נראה ניהול משימות רב-שלביות מקצה לקצה על ידי סוכן ה-AI של מיקרוסופט:

 

מבט מבפנים על Copilot Cowork

מבט מבפנים על Copilot Cowork

 

לדוגמה, אפשר לבקש מ-Copilot Cowork: "תכין סיכום רבעוני מתוך דוחות המכירות של Q1, תשווה לרבעון הקודם, ותשלח את הסיכום לצוות ההנהלה." במקום שהמשתמש יפתח כל קובץ בנפרד, Copilot Cowork עובר בין הקבצים, מחלץ את הנתונים, כותב את הסיכום ושולח אותו.

שיתוף פעולה בין מיקרוסופט ל-Anthropic

Copilot Cowork פותח בשיתוף פעולה חסר תקדים בין מיקרוסופט ל-Anthropic, חברת ה-AI שמפתחת את משפחת מודלי Claude. בפועל, Copilot Cowork רץ על מודל Claude Opus 4.6 של Anthropic, ולא על המודלים המוכרים של OpenAI.

 

אמנם זו לא הפעם הראשונה שמיקרוסופט משלבת מודל של חברה מתחרה בתוך סביבת הדגל שלה - כבר בספטמבר האחרון היא איפשרה גישה למודלי Claude Sonnet 4 ו-Claude Opus 4.1 כמנועים לבניית סוכנים מותאמים אישית ב-Copilot Studio, אך כעת מדובר בשילוב עמוק שמגיע לכלל המשתמשים.

 

מבחינת אבטחה, הסוכן עובד תחת אותן הרשאות ופרטיות המוגדרות בארגון, אך בגלל אופי הפעולה העצמאי שלו, מיקרוסופט מריצה אותו בתוך סביבת ענן מוגנת וסגורה (Cloud Sandbox). המשמעות היא שהוא אינו יכול לגשת לקבצים שהמשתמש עצמו אינו מורשה לראות, והפעולות שלו ניתנות למעקב מלא.

אפשרות לבחירת מודלים

ב-Wave 3, מיקרוסופט הופכת את מערכת Copilot לרב-מודלית (Multi-model) מתוך הבנה שלכל מודל יש את החוזקות שלו. במקום להישען רק על גורם אחד, המערכת מתאימה את הכלי למשימה. מעשית, מיקרוסופט מיישמת גישה של 'ניתוב אוטומטי' (Smart Mode): Copilot יודע לבחור בעצמו מתי לשלוח את הבקשה שלכם ל-GPT ומתי ל-Claude בהתאם למורכבות המשימה.

 

לצד זאת, המשתמש מקבל שליטה ויכול גם לבחור באופן ידני מתוך תפריט באפליקציות שונות - למשל, להגדיר שמשימת כתיבה ומחקר ארוכה תרוץ באופן בלעדי על Claude.

 

 

זמינות

Copilot Cowork נמצא כרגע ב-Research Preview, פתוח למספר מצומצם של ארגונים. השקה רחבה יותר צפויה לסוף מרץ 2026. בחירת מודלים תהיה זמינה כחלק מחבילת E7 Frontier Suite, שמיקרוסופט תשיק ב-1 במאי 2026. E7 מאחדת תחת קורת גג אחת את רישיונות האבטחה (E5), את Copilot, ואת הפלטפורמה החדשה לניהול סוכנים Agent 365.

מה זה אומר בפועל

Copilot Cowork מסמן כיוון חדש למיקרוסופט. לא עוד כלי שעונה על שאלות, אלא סוכן שמקבל משימות ומבצע אותן. והשותפות עם Anthropic מעבירה מסר ברור - מיקרוסופט כבר לא מהמרת על מודל אחד. היא בונה תשתית שמאפשרת לארגונים לעבוד עם המודל המתאים ביותר לכל משימה, בלי לוותר על אבטחה והרשאות.

 

בחלק השלישי והאחרון בסדרה נצלול אל מאחורי הקלעים של סביבת העבודה החדשה: איך ארגונים הולכים לנהל את צבא הסוכנים הזה באמצעות Agent 365, אילו חברות ישראליות (כמו Wix ו-Base44) כבר השתלבו בתוך המערכת של מיקרוסופט, ומה מחכה לנו בחנות הסוכנים (Agent Store) החדשה.

 

למי שפספס את החלק הראשון בסדרה על החידושים של מיקרוסופט בקופיילוט, כנסו כאן.

הפוסט Copilot Cowork: מיקרוסופט משיקה סוכן AI שעובד לבד ברקע הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/copilot-cowork/feed/ 0
Copilot של מיקרוסופט עובר לעבוד בתוך הקבצים שלכם https://letsai.co.il/copilot-wave3/ https://letsai.co.il/copilot-wave3/#respond Thu, 12 Mar 2026 12:13:31 +0000 https://letsai.co.il/?p=71031 עדכון Wave 3 מביא ל-Copilot יכולות ביצוע ישירות באקסל, וורד, פאוורפוינט ואאוטלוק. הבינה המלאכותית כבר לא רק מציעה - היא עושה. בשבוע האחרון מיקרוסופט הכריזה על Wave 3, גל העדכונים הגדול ביותר ל-Copilot מאז ההשקה. ההכרזה כוללת יכולות חדשות באפליקציות הליבה, שותפות עם Anthropic, שילוב ישיר של פלטפורמות כמו חברות Wix ו-Base44, חנות סוכנים ומודל […]

הפוסט Copilot של מיקרוסופט עובר לעבוד בתוך הקבצים שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>

עדכון Wave 3 מביא ל-Copilot יכולות ביצוע ישירות באקסל, וורד, פאוורפוינט ואאוטלוק. הבינה המלאכותית כבר לא רק מציעה - היא עושה. בשבוע האחרון מיקרוסופט הכריזה על Wave 3, גל העדכונים הגדול ביותר ל-Copilot מאז ההשקה. ההכרזה כוללת יכולות חדשות באפליקציות הליבה, שותפות עם Anthropic, שילוב ישיר של פלטפורמות כמו חברות Wix ו-Base44, חנות סוכנים ומודל תמחור חדש. בסקירה הראשונה מתוך שלוש בסדרה נתמקד בשינוי שנוגע לעבודה היומיומית: Copilot שעובד ישירות בתוך הקבצים. עד עכשיו, Copilot ב-Microsoft 365 עבד בעיקר מהצד. כתב הצעות בחלון צדדי, והמשתמשים העתיקו והדביקו מה שהתאים להם. ב-Wave 3, זה משתנה. Copilot עובד עכשיו ישירות בתוך הקבצים: בונה נוסחאות באקסל, עורך מסמכים בוורד, מעצב שקפים בפאוורפוינט ומנהל יומן באאוטלוק.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה כל אפליקציה קיבלה

שכבת ה-"Work IQ" שמיקרוסופט הציגה בהדגמות של Wave 3, זו השכבה שמאפשרת ל-Copilot להבין את ההקשר של הארגון שלכם (לשאוב מידע מאימיילים, קבצים קודמים ופגישות) וליישם אותו כשהוא עורך מסמכים בוורד או בונה שקפים בהתאם ל-Brand Kit שלכם.

 

Excel קיבל את השדרוג הטכני. Copilot יודע עכשיו לבנות מודלים פיננסיים שלמים בתוך הגיליון. מיקרוסופט הציגה משתמש שמקליד בקשה בשפה רגילה: "תבנה לי מודל DCF עם שלושה תרחישי צמיחה והנחות שאפשר לשנות." תוך רגעים קצרים, Copilot ייצר גיליון עובד - נוסחאות מקושרות בין תאים, תפריטי בחירה לתרחישים, וטבלת רגישות שמתעדכנת כשמשנים פרמטר. לא הצעת טקסט בחלון צד, אלא גיליון אקסל שאפשר להמשיך לעבוד איתו. היכולת זמינה כבר עכשיו ב-Windows, דפדפן ו-Mac.

 

 

Word עבר שינוי דומה. Copilot לוקח טיוטה קיימת והופך אותה למסמך מוכן לסקירה - מיישם את סגנונות העיצוב של הארגון, מסדר כותרות ופסקאות, ועובד בתוך המסמך כשותף לעריכה. לא עוד חלון צד שצריך להעתיק ממנו. זמין כבר עכשיו.

 

 

PowerPoint מקבל שני שדרוגים. בדיקת מותג אוטומטית - Copilot סורק מצגת קיימת ומזהה שקפים שחורגים מה-Brand Kit של הארגון, כלומר צבעים, גופנים וסגנונות שלא תואמים את ההנחיות. והמרת טקסט לתרשימים - שקף עמוס בטקסט הופך לתרשים ויזואלי מעוצב לפי צבעי המותג. שני הפיצ'רים מתגלגלים בהדרגה, כרגע בגרסת הדפדפן.

 

 

Outlook קיבל את העדכון שעשוי להשפיע על שגרת העבודה היומיומית יותר מכולם. Copilot שם לא רק כותב מיילים - הוא מנהל את היומן. אפשר להגדיר חוקים אוטומטיים: "תאשר תמיד פגישות מהמנהלת שלי אם אני פנוי", "תסרב אוטומטית לפגישות אחרי חמש אחר הצהריים", "תענה RSVP לאירועים חברתיים של הצוות". Copilot מפעיל את הכללים ברקע, בלי שתצטרכו לאשר כל פעולה בנפרד.

 

בנוסף, אפשר עכשיו לשלוח מיילים ולתזמן פגישות ישירות מתוך חלון הצ'אט של Copilot, בלי לפתוח חלון ניסוח חדש. היכולת מתגלגלת מ-9 במרץ ב-Windows, דפדפן ומובייל.

מה באמת השתנה

מיקרוסופט מתארת את המעבר במונח "agentic experiences", כלומר מעבר ממצב של שאלה-ותשובה למצב של ביצוע משימות. בפועל, במקום שתקבלו הצעת טקסט ותחליטו מה לעשות איתה, Copilot בונה את הנוסחה, מעצב את השקף, מאשר את הפגישה.

 

הכיסוי העיתונאי של ההשקה, בין היתר ב-Windows Central ו-PCWorld, מתאר את Wave 3 כרגע שבו Copilot מתחיל לפעול באופן עצמאי בתוך סביבת העבודה. זו הבטחה שחברת מיקרוסופט נותנת כבר מההשקה הראשונה של Copilot, אבל Wave 3 הוא הפעם הראשונה שהיכולות האלה מגיעות לאפליקציות שאנשים משתמשים בהן כל יום.

זמינות

ארגונים שמשלמים על רישיון Microsoft 365 Copilot מקבלים את העדכונים כחלק מהמנוי הקיים, בלי תוספת. Excel ו-Word זמינים מיד. PowerPoint ו-Outlook מתגלגלים בשבועות הקרובים.

בין ההדגמה לשולחן העבודה

ההכרזה של Wave 3 מרשימה. Copilot שבונה מודלים פיננסיים ומנהל יומן לבד נשמע כמו שדרוג של ממש. אבל ההיסטוריה של Copilot מלמדת שהפער בין הדגמה מלוטשת לשימוש יומיומי אמיתי יכול להיות גדול. ארגונים שכבר משלמים על הרישיון ומקבלים את היכולות האלה ללא עלות נוספת ירצו לבדוק דבר אחד: כמה מהעדכונים האלה באמת משתלבים בעבודה, ולא רק נראים טוב בסרטון.

 

בחלק השני בסדרה נעסוק בחידוש שמשנה את המבנה של Copilot מהיסוד: סוכן AI חדש בשם Copilot Cowork, שנבנה בשותפות עם Anthropic ורץ על מודל Claude Opus 4.6, והאפשרות לבחור לראשונה איזה מודל AI ירוץ מאחורי הכלים שלכם.

הפוסט Copilot של מיקרוסופט עובר לעבוד בתוך הקבצים שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/copilot-wave3/feed/ 0
המאבק על חוזי ה‑AI של הפנטגון מפגיש אתיקה, פוליטיקה, ביטחון לאומי ויריבות עסקית https://letsai.co.il/anthropic-pentagon-contract/ https://letsai.co.il/anthropic-pentagon-contract/#respond Sun, 08 Mar 2026 07:31:18 +0000 https://letsai.co.il/?p=70844 בסוף פברואר 2026, בתוך פרק זמן קצר, הפכה מערכת יחסים טכנולוגית ועסקית לסיפור מרכזי בזירה הפוליטית האמריקאית. מה שהתחיל כמשא ומתן שגרתי על תנאי שימוש במודל בינה מלאכותית צבאי התפתח במהירות לעימות מורכב בין שתי חברות AI מהמשפיעות בעולם, Anthropic ו‑OpenAI, ולדיון רחב יותר על גבולות הכוח של טכנולוגיות מתקדמות בעידן של מתחים גיאו פוליטיים. […]

הפוסט המאבק על חוזי ה‑AI של הפנטגון מפגיש אתיקה, פוליטיקה, ביטחון לאומי ויריבות עסקית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בסוף פברואר 2026, בתוך פרק זמן קצר, הפכה מערכת יחסים טכנולוגית ועסקית לסיפור מרכזי בזירה הפוליטית האמריקאית. מה שהתחיל כמשא ומתן שגרתי על תנאי שימוש במודל בינה מלאכותית צבאי התפתח במהירות לעימות מורכב בין שתי חברות AI מהמשפיעות בעולם, Anthropic ו‑OpenAI, ולדיון רחב יותר על גבולות הכוח של טכנולוגיות מתקדמות בעידן של מתחים גיאו פוליטיים. במרכז האירועים עומד חוזה בשווי 200 מיליון דולר, אך מאחוריו מסתתרת שאלה עמוקה בהרבה: כיצד מאזנים בין חדשנות טכנולוגית, עקרונות מוסריים, אינטרסים עסקיים ולחצים פוליטיים, במיוחד כאשר כל הצדדים פועלים בתוך מערכות ביטחוניות רגישות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

קווים אדומים מול דרישות ממשלתיות

הסיפור החל כאשר Anthropic, שסיפקה לפנטגון את מודל Claude לשימושים מסווגים, נכנסה למו״מ על עדכון תנאי ההתקשרות. Claude כבר היה חלק מרכזי במערכות מודיעין וניתוח מבצעי, כולל בהקשרים הקשורים למבצעים מול איראן, עובדה שהפכה את המשא ומתן לרגיש במיוחד.

 

בשלב הזה התברר שהפערים בין הצדדים עמוקים. Anthropic התעקשה על שני קווים אדומים: איסור שימוש בטכנולוגיה למעקב המוני אחרי אזרחים אמריקאים, ואיסור שילוב המודל בנשק אוטונומי קטלני. מבחינת החברה, אלו אינם סעיפים טכניים אלא עקרונות יסוד.

 

מנגד, הפנטגון ביקש נוסח רחב בהרבה שלפיו ניתן יהיה להשתמש בטכנולוגיה לכל מטרה חוקית. זה ניסוח מקובל בחוזים ממשלתיים, אבל בהקשר של AI מתקדם הוא מעורר שאלות מורכבות, משום שהגדרת חוקי עשויה להשתנות בין ממשלים והמשמעות המעשית של ההגדרה אינה תמיד ברורה. כאן נוצרה נקודת השבר.

מהלך חריג שמסמן אובדן אמון

לאחר ש‑Anthropic סירבה לוותר על הקווים האדומים שהציבה, המשא ומתן קרס. בתוך שעות ספורות הנשיא דונלד טראמפ הורה לכל הסוכנויות הפדרליות להפסיק להשתמש בטכנולוגיות של החברה, ושר ההגנה פיט הגסת' (Pete Hegseth) הכריז עליה כסיכון בשרשרת האספקה.

 

זה צעד חריג שמבטא לא רק מחלוקת חוזית אלא גם אובדן אמון עמוק. ההחלטה עוררה הד תקשורתי מיידי, בין היתר משום שהטכנולוגיה של Anthropic כבר הייתה משולבת עמוק במערכות מסווגות והחלפתה אינה תהליך פשוט.

OpenAI נכנסת לתמונה

אל תוך הוואקום שנוצר נכנסה OpenAI. מנכ״ל החברה, סם אלטמן (Sam Altman), חתם על הסכם חלופי עם הפנטגון כמעט מיד לאחר קריסת המו״מ עם Anthropic. מבחינה עסקית זה היה מהלך מהיר ומחושב - OpenAI זכתה בחוזה משמעותי, והפנטגון קיבל המשכיות תפעולית ללא עיכובים.

 

עם זאת, המהלך עורר שאלות. חלק מהמבקרים תהו האם OpenAI העניקה לממשל גישה רחבה מדי לטכנולוגיה שלה. אלטמן טען שההסכם כולל מנגנוני הגנה טכניים שמונעים שימוש לרעה, ושאין פער מהותי בין עמדת OpenAI לבין הקווים האדומים שהציבה Anthropic.

 

אלא שהניסוח המשפטי של החוזה, המאפשר שימוש בטכנולוגיה לכל מטרה חוקית, מותיר מקום לפרשנות. מומחים ציינו כי גם אם קיימים מנגנוני הגנה טכניים, הם אינם תחליף למגבלות משפטיות ברורות, במיוחד בסביבה שבה חוקים ונהלים עשויים להשתנות.

התגובה של Anthropic

ב‑Anthropic ראו במהלך לא רק פער מקצועי אלא גם פער עקרוני. מנכ״ל החברה, דריו אמודיי (Dario Amodei), הפיץ לעובדיו מכתב פנימי שבו טען שההסכם של OpenAI מציג תיאטרון בטיחות, כלומר מנגנוני הגנה שנראים טוב כלפי חוץ אך אינם מספקים הגנה אמיתית לאורך זמן.

 

אמודיי גם ביקר את האופן שבו הוצג ההסכם לציבור, וטען שהמסרים סביבו מבלבלים ואף לא מדויקים. המכתב דלף במהירות לתקשורת והפך את המחלוקת העסקית למאבק פומבי בין שתי החברות.

 

חשוב להדגיש שחלק מהטענות ההדדיות אינן ניתנות לאימות מלא. מדובר בתחום שבו חלק מהמידע מסווג וחלק אחר מבוסס על הצהרות פומביות, הדלפות ומסרים של יחסי ציבור. מה שכן מאומת הוא עצם קריסת המו״מ, הצעדים הממשלתיים שננקטו בעקבותיו והעובדה ש‑OpenAI אכן קיבלה את החוזה החלופי.

חזרה לשולחן המו"מ

למרות העימות הפומבי, Anthropic מצאה את עצמה במצב מורכב. מצד אחד היא עמדה על עקרונותיה, ומצד אחר איבדה חוזה משמעותי והסתכנה בפגיעה ארוכת טווח במעמדה מול הממשל.

לכן, ב‑5 במרץ, דריו אמודיי חזר לשולחן המו״מ בניסיון למצוא פתרון ביניים. האפשרויות שנבחנות כוללות תקופת מעבר של שישה חודשים או נוסח פשרה שיאפשר המשכיות מבצעית. לפי דיווחים, השיחות מתקיימות מול אמיל מייקל (Emil Michael), תת שר ההגנה למחקר והנדסה, ומטרתן למנוע זעזוע תפעולי במערכות שכבר מסתמכות על Claude.

הציבור מגיב

במקביל, הציבור הגיב במהירות. אפליקציית קלוד זינקה למקום הראשון בחנות האפליקציות של אפל בארצות הברית, עם מאות אלפי הורדות ביום אחד. שיעור המשתמשים הפעילים עלה בעשרות אחוזים, ומספר המנויים בתשלום הוכפל - בין היתר בעקבות ההשקות של Claude CoWork והנגשת יכולות הקוד גם למשתמשים שאינם טכניים.

 

מנגד, מספר גדול של משתמשי ChatGPT הסירו את האפליקציה מהטלפון או ביטלו חשבון/מנוי (וזה אל מול המספר של שבירת שיא משתמשים פעילים). קשה לדעת אם מדובר בתגובה רגשית קצרה או בתחילתה של מגמה ארוכת טווח, אך ברור שהעימות הפוליטי והעסקי השפיע גם על התפיסה הציבורית.

סיפור שעדיין נכתב

הסיפור הזה רחוק מסיום. זה סיפור מרתק שמשלב טכנולוגיה מתקדמת, שיקולים מוסריים, אינטרסים עסקיים, לחצים פוליטיים ומידע מסווג, תמהיל שמבטיח מציאות מורכבת יותר מכל הצהרה פומבית.

 

מה שכבר ברור הוא שהאירועים האחרונים מציבים מחדש את השאלה כיצד חברות AI צריכות לפעול כשהן הופכות לספקיות של תשתיות ביטחוניות, ומה קורה כאשר עקרונות טכנולוגיים נבחנים מול מציאות פוליטית.

 

בינתיים, הפנטגון, Anthropic ו‑OpenAI ממשיכים לנהל את המאבק על עיצוב גבולות השימוש ב‑AI צבאי. ההכרעות שיתקבלו בחודשים הקרובים עשויות להשפיע לא רק על החברות עצמן אלא על כל התעשייה, ואולי גם על האופן שבו מדינות יפעילו בינה מלאכותית בעתיד.

הפוסט המאבק על חוזי ה‑AI של הפנטגון מפגיש אתיקה, פוליטיקה, ביטחון לאומי ויריבות עסקית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-pentagon-contract/feed/ 0
האם GPT‑5.4 הוא מודל ה-AI הטוב בשוק כיום? https://letsai.co.il/gpt-5-4/ https://letsai.co.il/gpt-5-4/#respond Sat, 07 Mar 2026 07:51:08 +0000 https://letsai.co.il/?p=70823 יש רגעים בעולם הבינה המלאכותית שבהם ברור שמשהו משמעותי משתנה. ההשקה של GPT‑5.4 היא אחד מהרגעים האלה. לא בגלל הדגמות נוצצות או סיסמאות שיווקיות, אלא בגלל תחושה שחוזרת אצל מי שכבר עבדו איתו: המודל פשוט עובד טוב יותר. הוא מהיר יותר, מדויק יותר ובעיקר יציב, כזה שאפשר לסמוך עליו. OpenAI השיקה שני דגמים, GPT‑5.4 Thinking […]

הפוסט האם GPT‑5.4 הוא מודל ה-AI הטוב בשוק כיום? הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים בעולם הבינה המלאכותית שבהם ברור שמשהו משמעותי משתנה. ההשקה של GPT‑5.4 היא אחד מהרגעים האלה. לא בגלל הדגמות נוצצות או סיסמאות שיווקיות, אלא בגלל תחושה שחוזרת אצל מי שכבר עבדו איתו: המודל פשוט עובד טוב יותר. הוא מהיר יותר, מדויק יותר ובעיקר יציב, כזה שאפשר לסמוך עליו. OpenAI השיקה שני דגמים, GPT‑5.4 Thinking ו-GPT‑5.4 Pro, ושניהם יחד מציבים רף חדש. Matt Shumer, אחד הבטא טסטרים הבולטים, כתב שזו הפעם הראשונה שבה הוא כמעט לא משתמש בגרסת ה-Pro, משום שגם הגרסה הסטנדרטית מספקת תוצאות ברמה שלא ראה קודם. “המודל הכי טוב בעולם, בפער”, הוא אומר, והדבר תואם את מה שמדווחים רבים אחרים. הפעם, בניגוד להשקות קודמות, יש גם נתונים שמחזקים את התחושה הזו ומראים עד כמה השינוי רחב.

 

 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה בכלל היה צריך שינוי?

כדי להבין את המשמעות של GPT‑5.4, צריך לזכור מה חסם את הדורות הקודמים. המודלים ידעו לכתוב, להסביר ולנתח, אבל לא תמיד הצליחו לבצע משימות אמיתיות מקצה לקצה. הם יכלו להבריק במשימה אחת ולהתבלבל בבאה אחריה. reasoning עמוק היה מדויק, אך לעיתים איטי מדי.

 

נוסף על כך, נוצר פער בין היכולת לכתוב קוד לבין היכולת לבצע פעולות בעולם הדיגיטלי, כמו ניווט בממשקי מחשב, עבודה עם דפדפן או שימוש בכלים חיצוניים. הפער הזה הפך למשמעותי ככל שחברות ניסו לבנות סוכנים ואוטומציות. במצב כזה היה ברור שהמודלים צריכים לעבור שינוי - לא רק לתאר פתרון, אלא גם לבצע אותו בפועל. GPT‑5.4 פותח בדיוק כדי לענות על הצורך הזה.

 

סם אלטמן מסכם את המסר המרכזי של OpenAI לגבי GPT‑5.4

סם אלטמן מסכם את המסר המרכזי של OpenAI לגבי GPT‑5.4

מה GPT‑5.4 מביא לשולחן

GPT‑5.4 הוא מודל שנבנה לעבודה אמיתית. הוא יודע להפעיל סוכנים, לכתוב קוד, לגלוש ברשת, להשתמש במחשב ולבצע תהליכים מרובי שלבים, והכול במהירות גבוהה יותר, בדיוק רב יותר ועם פחות טעויות. הנתונים מהבלוג הרשמי של OpenAI מציגים קפיצה רחבה ומרשימה ביכולות, לא שיפור נקודתי.

 

הפעלת המודל החדש עם יכולת חשיבה סטנדרט/מורחב

הפעלת המודל החדש עם יכולות חשיבה (סטנדרטי/מורחב)

ביצועים במשימות מקצועיות

ב-GDPval, מבחן שמדמה עבודה של 44 מקצועות שונים, GPT‑5.4 מגיע ל-83 אחוז הצלחה, לעומת 70.9 אחוז בדור הקודם. הגרף המצורף מטה מדגים זאת היטב: גם GPT‑5.4 וגם גרסת ה-Pro שלו עוברים את רף הביצועים של מומחים אנושיים.

 

GPT‑5.4 מצטיין במשימות ידע מקצועיות

GPT‑5.4 מצטיין במשימות ידע מקצועיות | OpenAI

 

מעבר לכך, המודל מצטיין במיוחד במשימות משרדיות יומיומיות. הוא מגיע ל-87.3 אחוז הצלחה במשימות אקסל שמדמות אנליסט בנקאות השקעות, מייצר מצגות ש-68 אחוז מהשופטים האנושיים העדיפו על פני GPT‑5.2, ומפיק מסמכים מדויקים יותר עם פחות טעויות עובדתיות. זה שיפור שמרגישים בשימוש יומיומי רגיל, לא רק בבנצ'מרקים.

 

מבצע ניתוחים באקסל ברמה שמקרבת אותו לעבודה של אנליסט אמיתי

מבצע ניתוחים באקסל ברמה שמקרבת אותו לעבודה של אנליסט אמיתי

 

בפועל, GPT‑5.4 מבין טבלאות מורכבות, בונה נוסחאות בצורה מדויקת, מנתח נתונים רב-שלביים ומציע תובנות עסקיות ברמת עומק שהייתה שמורה עד היום לכלים ייעודיים או למומחים אנושיים. הוא גם שומר על עקביות לאורך משימות ארוכות, דבר שהיה אתגר משמעותי בדורות קודמים. השילוב הזה הופך אותו לכלי עבודה אמיתי, כזה שמפחית חיכוך ומקצר תהליכים במקום להוסיף עוד שכבת תיווך.

המודל שמפעיל את המחשב בשבילכם

אחת הקפיצות הבולטות ביותר היא ביכולות המחשב. GPT‑5.4 הוא המודל הראשון של OpenAI שמסוגל להפעיל מחשב באופן טבעי: ללחוץ על כפתורים, להקליד, לנווט בממשקים, לבצע פעולות מורכבות דרך Playwright (כלי אוטומציה לדפדפנים) ולהבין צילומי מסך. במבחן שמודד שימוש אמיתי במחשב, הוא מגיע ל-75 אחוז הצלחה ועוקף גם בני אדם.

 

יעילות של GPT‑5.4 בקוד ובביצוע משימות הנדסיות

יעילות של GPT‑5.4 בקוד ובביצוע משימות הנדסיות | OpenAI

יכולות ראייה מתקדמות

GPT‑5.4 תומך בתמונות ברזולוציה של עד 10.24 מיליון פיקסלים, מציג שיפור ביכולת לאתר פרטים קטנים ובדיוק הלחיצה על ממשקים, ומבין טוב יותר מסמכים מורכבים. ב-MMMU Pro, מבחן הבנה חזותית מתקדם, הוא מגיע ל-81.2 אחוז לעומת 79.5 אחוז בדור הקודם. ב-OmniDocBench, מבחן הבנת מסמכים, הוא מפחית את שיעור השגיאות באופן משמעותי. גם כאן, הגרף מציג את השיפור בצורה ברורה.

 

השוואת ביצועים בראייה ובהבנת מסמכים

השוואת ביצועים בראייה ובהבנת מסמכים | OpenAI

Tool Search

אחד החידושים הבולטים ב‑GPT‑5.4 הוא מנגנון Tool Search, שמאפשר למודל לאתר את הכלים הדרושים לו בזמן אמת במקום לקבל את כולם מראש. הגישה הזו מפחיתה ב‑47 אחוז את כמות הטוקנים הנדרשת לביצוע משימות, משפרת את מהירות העבודה ומאפשרת למודל להתמודד בקלות עם מערכות גדולות ומורכבות של כלים. זהו שינוי תשתיתי משמעותי, שמאפשר לבנות סוכנים מתקדמים יותר בעלות נמוכה יותר וביעילות גבוהה יותר.

 

שכבה עמוקה יותר של הגנה

OpenAI מקדישה חלק משמעותי לנושא הבטיחות, וב-GPT‑5.4 מוצגים כמה חידושים בולטים. המודל מסווג כבעל יכולות סייבר גבוהות, ולכן מופעלים עליו מנגנוני הגנה מחמירים יותר מאשר בדורות קודמים. אחד התחומים שנבדקו הוא היכולת של המודל להסתיר את שרשרת החשיבה שלו, במסגרת מבחן CoT Controllability.

 

הממצאים מראים ש-GPT‑5.4 Thinking מתקשה להסתיר את תהליך החשיבה הפנימי שלו, תכונה שנחשבת חיובית בהקשר של בטיחות, משום שהיא מאפשרת ניטור שקוף וברור יותר של אופן קבלת ההחלטות.

 

בנוסף לכך, OpenAI מציגה מערך מחוזק של מנגנוני חסימה: ניטור מתקדם, בקרות גישה הדוקות יותר, חסימה אסינכרונית לבקשות בעלות פוטנציאל סיכון, והפחתה ניכרת של טעויות עובדתיות. לפי הבלוג, GPT‑5.4 מפחית טעויות עובדתיות ב-33 אחוז לעומת GPT‑5.2, שיפור משמעותי במיוחד במשימות מקצועיות שבהן דיוק הוא תנאי בסיסי.

 

מאט שומר, אחד הבטא טסטרים הבולטים של OpenAI, משתף בציוץ חוויית שימוש יוצאת דופן ב‑GPT‑5.4

מאט שומר משתף בציוץ חוויית שימוש יוצאת דופן ב‑GPT‑5.4

תמחור וזמינות

Open AI מפרטים בצורה ברורה את זמינות הדגמים ואת מודל התמחור שלהם. GPT‑5.4 Thinking זמין למשתמשי Plus, Team ו‑Pro, בעוד GPT‑5.4 Pro מוצע למשתמשי Pro ו‑Enterprise. במקביל, GPT‑5.2 Thinking יישאר זמין למשך שלושה חודשים נוספים בלבד, ולאחר מכן יוסר מהמערכת. ב‑Codex, GPT‑5.4 כולל תמיכה ניסיונית בחלון הקשר של מיליון טוקנים, יכולת שמאפשרת לנתח קוד ארוך במיוחד או מסמכים מורכבים בצורה רציפה.

 

ב‑API, התמחור של GPT‑5.4 עומד על 2.50 דולר למיליון טוקנים בקלט ו‑15 דולר למיליון טוקנים בפלט. גרסת ה‑Pro מתומחרת ב‑30 דולר למיליון טוקנים בקלט ו‑180 דולר למיליון טוקנים בפלט. למרות המחיר הגבוה יותר, OpenAI מציינת שהמודל יעיל משמעותית, ולכן בפועל נדרש פחות שימוש בטוקנים כדי להשלים משימות מורכבות. היעילות הזו מאזנת חלק מהעלייה בעלות ומאפשרת למשתמשים לקבל יותר תמורה מכל בקשה.

 

 

מודל שמגדיר מחדש את הציפיות (ואת מאזן הכוחות)

GPT‑5.4 הוא לא עוד שדרוג, אלא ציון דרך שמסמן מעבר לעידן שבו בינה מלאכותית לא רק מייעצת אלא גם מבצעת. השילוב בין ביצועים גבוהים, מהירות, עקביות ויכולות פעולה מעשיות הופך אותו לכלי תפעולי של ממש. הוא מצטיין במשימות מקצועיות, מפעיל מחשבים, מבין תמונות ומסמכים, משתמש בכלים בצורה יעילה ומציג שיפורים משמעותיים בבטיחות. זה מודל שמחזיר את OpenAI לקדמת הבמה, אחרי תקופה שבה המתחרות - גוגל ואנטרופיק - תפסו את מרכז תשומת הלב עם השקות מרשימות משלהן.

הפוסט האם GPT‑5.4 הוא מודל ה-AI הטוב בשוק כיום? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gpt-5-4/feed/ 0
GPT‑5.3 Instant מתמקד בחוויית השימוש https://letsai.co.il/gpt%e2%80%915-3-instant/ https://letsai.co.il/gpt%e2%80%915-3-instant/#respond Fri, 06 Mar 2026 07:20:19 +0000 https://letsai.co.il/?p=70795 בעולם שבו מודלי שפה גדולים הפכו לחלק טבעי מהתשתית הדיגיטלית, המאבק המרכזי כבר אינו על שיפור נוסף בביצועים אקדמיים. המשתמשים, בין אם הם אנשי מקצוע, מפתחים או צרכנים, מחפשים משהו אחר: מודל שמרגיש טבעי, שמבין את הכוונה, שלא מתנצל ללא צורך ושיודע לעצור במקום להמציא תשובה כשהוא לא בטוח. במרץ 2026 OpenAI כיוונה בדיוק לנקודה […]

הפוסט GPT‑5.3 Instant מתמקד בחוויית השימוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם שבו מודלי שפה גדולים הפכו לחלק טבעי מהתשתית הדיגיטלית, המאבק המרכזי כבר אינו על שיפור נוסף בביצועים אקדמיים. המשתמשים, בין אם הם אנשי מקצוע, מפתחים או צרכנים, מחפשים משהו אחר: מודל שמרגיש טבעי, שמבין את הכוונה, שלא מתנצל ללא צורך ושיודע לעצור במקום להמציא תשובה כשהוא לא בטוח. במרץ 2026 OpenAI כיוונה בדיוק לנקודה הזו עם GPT‑5.3 Instant, עדכון שמעדיף זרימה אנושית של שיחה על פני עוד שכבת כוח חישובי. זה שינוי כיוון ברור, שמציב במרכז לא את השאלה מי המודל החכם ביותר, אלא מי המודל שנעים באמת לעבוד איתו.

 

GPT‑5.3 Instant

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

האתגרים שממשיכים ללוות את מודלי השפה

למרות ההתקדמות המרשימה של הדורות הקודמים, משתמשים המשיכו להיתקל בשלוש תופעות שחוזרות שוב ושוב ומפריעות לשימוש יומיומי חלק. הראשונה היא סירובים לא נחוצים, אותם רגעים שבהם המודל נמנע מלהשיב גם כשאין לכך סיבה ממשית.

 

השנייה היא טון מגונן או מטיף, שמופיע לעיתים גם בבקשות פשוטות ויוצר תחושה של הרצאה במקום שיחה טבעית.

 

השלישית היא הזיות, כלומר תשובות שנשמעות בטוחות אך אינן נכונות. עבור ארגונים שמסתמכים על מודלים בתהליכי עבודה, כל אחת מהתופעות הללו מייצרת עלות: זמן בדיקה, תיקונים, ולעיתים גם מבוכה מול לקוחות.

הפתרון של GPT‑5.3 Instant

GPT‑5.3 Instant פותח כדי להתמודד ישירות עם נקודות הכאב שהמשתמשים חווים כבר שנים. OpenAI מציגה אותו כמודל שמעדיף דיאלוג זורם על פני נוקשות, ושם את הדגש על אמינות במקום על ביטחון עצמי שאינו מגובה בנתונים. המטרה היא להפוך את השיחה עם המודל לפחות מאומצת ויותר אינטואיטיבית.

ירידה בהזיות

בהערכות פנימיות של OpenAI נמדדה ירידה משמעותית בהזיות: 26.8 אחוז בתרחישי סיכון גבוה כשהמודל משתמש ב‑web, ו‑19.7 אחוז כשהוא מסתמך על הידע הפנימי בלבד. גם בהערכות מבוססות משתמשים נרשמה מגמה דומה, עם ירידה של 22.5 אחוז בעת שימוש ב‑web ו‑9.6 אחוז ללא web. הנתונים מצביעים על שיפור ממשי ביכולת של המודל להימנע מתשובות שגויות שנשמעות בטוחות מדי.

הפחתת סירובים לא נחוצים

המודל החדש מפחית סירובים ומוותר על שכבות של הסתייגויות שאינן תורמות לשיחה. הוא נוטה לענות בצורה ישירה וברורה יותר, ומציג טון ענייני ופחות מתגונן. TechRadar תיאר את השינוי כמודל “פחות קרינג’”, ניסוח שממחיש היטב את השיפור בתחושת השיחה.

שיפור ביכולות החיפוש

במקום להחזיר רשימת לינקים יבשה, GPT‑5.3 Instant מספק הקשר רחב יותר: הוא מסביר מה חשוב, מדגיש את המידע הרלוונטי, ומחבר בין תוצאות מה‑web לבין הידע הפנימי שלו. התוצאה היא תשובה שמרגישה שלמה יותר, ולא אוסף מקורות מפוזר.

 

מודל שמעדיף להודות כשהוא לא יודע

ה-System Card של GPT‑5.3 Instant מצביע על שיפור ברור ביכולת לזהות מצבים שבהם חסר מידע, לעצור, ולבקש הבהרה במקום לנסות להשלים פערים באמצעות ניחוש. זהו שינוי התנהגותי משמעותי, משום שמודל שמסוגל להודות בחוסר ודאות הוא מודל שאפשר לבסס עליו תהליכי עבודה אמינים יותר. במקום לייצר תשובה שנשמעת בטוחה אך אינה מבוססת, הוא בוחר להאט, לשאול, ולדייק.

 

OpenAI מציינת שהמודל שומר על אורך תשובות דומה לדור הקודם, אך התוכן עצמו מדויק יותר, מחובר יותר להקשר ומותאם טוב יותר לצרכים של המשתמש. השילוב בין זהירות במקום הנכון לבין בהירות בתשובה יוצר חוויית שימוש יציבה יותר, כזו שמפחיתה טעויות ומעלה את רמת האמון בשיחה.

השוואה לדור הקודם

GPT‑5.2 Instant, שהושק בפברואר 2026, כבר שיפר את הסגנון והדיוק והציג תשובות מדודות וממוקדות יותר. GPT‑5.3 Instant מרחיב את המגמה הזו ומוסיף לה שכבת עומק התנהגותית. בעוד GPT‑5.2 התמקד בעיקר ב"איך לנסח טוב יותר", GPT‑5.3 מתמקד ב"איך לדבר טוב יותר". זה מעבר מהנדסה של טקסט להנדסה של חוויה, שינוי שממקם את השיחה עצמה במרכז.

למי זה זמין

OpenAI החלה להטמיע את GPT‑5.3 Instant כברירת המחדל בשיחות ב‑ChatGPT, במהלך rollout הדרגתי שמגיע בהמשך לכלל המשתמשים המחוברים. בסביבות ארגוניות כמו ChatGPT Enterprise ו‑Edu המודל כבוי כברירת מחדל, ומנהלים צריכים להפעיל אותו ידנית דרך Early Model Access. ב‑API המודל זמין תחת השם gpt‑5.3‑chat‑latest, עם חלון הקשר של 128,000 טוקנים.

הקשר תחרותי

ההשקה של GPT‑5.3 Instant מגיעה בתקופה שבה התחרות בין OpenAI, Google ו‑Anthropic מתחדדת, וכל אחת מהחברות מציגה תפיסה שונה לגבי מהי אינטליגנציה שימושית בעידן של מודלים גדולים.

 

Google ממשיכה להתמקד ביעילות וביכולת להתמודד עם עומסים גבוהים, עם מודלים כמו Gemini 3.1 Flash‑Lite שנבנו כדי לשרת כמויות עצומות של בקשות בעלות נמוכה ומהירות גבוהה. אלו מודלים שמכוונים בעיקר לתפוקה, לא בהכרח לניהול שיחה עשירה או רבת הקשר.

 

Anthropic בוחנת כיוון אחר לגמרי ומתמקדת בעומק. בדגמים כמו Claude Opus 4.6 ו‑Sonnet 4.6 החברה מנסה להרחיב את גבולות הקונטקסט, עם חלונות של עד מיליון טוקנים בתצורות בטא. היכולת הזו מתאימה למשימות ארוכות, עבודה עם סוכנים ותהליכי תכנון מורכבים שבהם נדרש להבין ולשמר כמויות גדולות של מידע לאורך זמן.

 

OpenAI מציגה גישה שלישית. במקום להתחרות על המהירות הגבוהה ביותר או על חלון הקשר הגדול ביותר, GPT‑5.3 Instant מתמקד בחוויית השיחה עצמה. הוא נועד להיות המודל שהכי קל ונעים לעבוד איתו, כזה שמפחית חיכוך, מגיב באופן טבעי ומספק תשובות אמינות יותר. זהו כיוון שממקם את איכות האינטראקציה במרכז, ולא רק את היכולות הטכניות.

למה זה חשוב עכשיו

GPT‑5.3 Instant מסמן שינוי כיוון ברור. במקום להתמקד בשאלה מי המודל החכם ביותר, OpenAI מעבירה את מרכז הכובד לשאלה מי המודל השימושי ביותר בפועל. הגישה הזו מתבטאת בשורה של שיפורים התנהגותיים. 

 

המשמעות של השינוי הזה גדלה עוד יותר על רקע היקף השימוש הנוכחי. לפי נתוני OpenAI, הצ׳אט שלהם הגיע ל-900 מיליון משתמשים פעילים בשבוע, לצד 50 מיליון מנויים משלמים, זינוק של מאה מיליון משתמשים מאז סוף 2025. בקנה מידה כזה, כל שיפור קטן בחיכוך השיחתי מתורגם להשפעה עצומה על פרודוקטיביות וחוויית שימוש. בעולם שבו מודלים הופכים לחלק מהעבודה היומיומית של מאות מיליוני אנשים, שדרוג כזה מורגש בכל אינטראקציה.

הפוסט GPT‑5.3 Instant מתמקד בחוויית השימוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gpt%e2%80%915-3-instant/feed/ 0
גוגל משיקה את Gemini 3.1 Flash‑Lite https://letsai.co.il/google-gemini-flash-lite/ https://letsai.co.il/google-gemini-flash-lite/#respond Wed, 04 Mar 2026 12:52:45 +0000 https://letsai.co.il/?p=70682 גוגל מציגה את Gemini 3.1 Flash‑Lite כמהלך שמסמן שינוי משמעותי בעולם המודלים הקלים. הוא משלב מהירות גבוהה, יעילות כלכלית ויכולת התאמה דינמית לצרכים שונים, ובכך מציב רף חדש למודלים שמיועדים להפעלה בקנה מידה גדול. במקום עוד עדכון טכני, Flash‑Lite מתמקד בבעיה המרכזית של מפתחים וחברות - איך להפעיל מערכות AI רחבות היקף בלי להכביד על […]

הפוסט גוגל משיקה את Gemini 3.1 Flash‑Lite הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל מציגה את Gemini 3.1 Flash‑Lite כמהלך שמסמן שינוי משמעותי בעולם המודלים הקלים. הוא משלב מהירות גבוהה, יעילות כלכלית ויכולת התאמה דינמית לצרכים שונים, ובכך מציב רף חדש למודלים שמיועדים להפעלה בקנה מידה גדול. במקום עוד עדכון טכני, Flash‑Lite מתמקד בבעיה המרכזית של מפתחים וחברות - איך להפעיל מערכות AI רחבות היקף בלי להכביד על התקציב. כבר מההכרזה ברור שהמודל לא נועד רק לייצר תגובות מהירות, אלא לשמש בסיס יציב ורווחי למערכות אמיתיות שנדרשות לעמוד בעומסים יומיומיים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מהירות ועלות

Flash‑Lite מציג שיפור משמעותי בביצועים, עם זמן עד למילה הראשונה מהיר פי 2.5 לעומת הדור הקודם ושיפור של כ‑45 אחוז במהירות הפלט. הנתונים האלה מציבים אותו כאחד המודלים המהירים בקטגוריה ומאפשרים חוויית זמן אמת גם במערכות עתירות תעבורה.

 

במקביל, גוגל מציעה תמחור נמוך במיוחד של 0.25 דולר למיליון טוקנים בקלט ו‑1.50 דולר למיליון טוקנים בפלט, מה שהופך אותו לאחד הפתרונות הכלכליים הזמינים כיום. השילוב בין מהירות גבוהה לעלות נמוכה מאפשר להפעיל שירותים כמו צ'אטים, תרגום, ניטור תוכן וממשקי משתמש דינמיים בהיקפים גדולים בלי לחשוש מחשבונות ענן כבדים.

 

שילוב נדיר של מהירות וחיסכון בעלות

שילוב נדיר של מהירות וחיסכון בעלות

גמישות תפעולית ושליטה בעומק החשיבה

אחד החידושים הבולטים במודל הוא האפשרות לשלוט בעומק החשיבה שלו. במקום מודל שפועל תמיד באותה רמת הסקה, Flash‑Lite מאפשר לבחור כמה מאמץ הוא ישקיע בכל משימה. היכולת הזו מאפשרת לאזן בין מהירות, עלות ודיוק ולהתאים את התנהגות המודל בזמן אמת. עבור צוותים שמתמודדים עם עומסים משתנים או תעבורה בלתי צפויה, מדובר בכלי שמעניק שליטה טובה יותר על הביצועים ועל התקציב.

 

 

ביצועים מרשימים במבחני עומק

Flash‑Lite מציג ביצועים חזקים גם במבחני עומק, ולא רק במהירות או בעלות. הוא מגיע לציון Elo של 1432 ב‑Arena.ai, לצד תוצאות של 86.9 אחוז ב‑GPQA Diamond ו‑76.8 אחוז ב‑MMMU‑Pro.

 

כדי להבין את המשמעות של המספרים האלה, חשוב לדעת שכל מבחן בודק יכולת אחרת: Elo משקף השוואה ישירה בין מודלים ובוחן מי מספק תשובות טובות יותר בשיחות אמיתיות, GPQA Diamond מעריך יכולת להתמודד עם שאלות מדעיות קשות במיוחד, ו‑MMMU‑Pro מודד הבנה רב‑מודלית של טקסטים, תמונות ותרשימים. יחד הם מציירים תמונה של מודל שלא רק רץ מהר וזול, אלא גם מפגין עומק הסקה, הבנה מורכבת ויכולת להתמודד עם משימות מאתגרות.

 

גם במבחני הסקה, הבנה רב‑מודלית ויכולות קוד הוא מציג תוצאות שמראות שהיעילות הכלכלית אינה באה על חשבון איכות. כך מתקבל מודל שמסוגל להתמודד עם משימות מורכבות, לנתח מידע ממקורות שונים ולספק תובנות מדויקות, תוך שמירה על יעילות תפעולית גבוהה.

יכולות הסקה ורב‑מודליות ברמה תחרותית מול דגמים גדולים יותר

יכולות הסקה ורב‑מודליות ברמה תחרותית מול דגמים גדולים יותר | blog.google

הזדמנות חדשה למפתחים בכל קנה מידה

Flash‑Lite משנה את מאזן הכוחות בשוק ה‑AI. מצד אחד הוא מוריד את חסם הכניסה לפיתוח מערכות מורכבות, ומאפשר גם לחברות קטנות ליהנות מביצועים שהיו עד לא מזמן נחלתם של מודלים יקרים בהרבה.

 

מצד שני הוא מגביר את הלחץ על ספקי מודלים אחרים להתאים את התמחור שלהם או להציע יכולות חדשות כדי להישאר רלוונטיים.

 

עם זאת חשוב לזכור שהמודל עצמו הוא רק חלק מהתמונה. כדי לממש את היתרונות של המהירות והיעילות שהוא מציע, גם התשתיות, האינטגרציות ורמת השירות שמסביב חייבות להיות בנויים כך שיוכלו לעמוד בקצב.

מודל קטן עם השפעה רחבה

Gemini 3.1 Flash‑Lite הוא לא רק מודל חדש אלא הצהרה ברורה של גוגל על הכיוון שבו היא רואה את עתיד ה‑AI: מהיר יותר, זול יותר, גמיש יותר ובעיקר נגיש יותר למפתחים בכל קנה מידה.

 

השילוב בין ביצועים גבוהים, עלות נמוכה ויכולות עומק הופך אותו לכלי שיכול לשנות את הדרך שבה בונים ומפעילים מערכות AI.

 

המודל זמין כבר כעת בגרסת Preview, ומפתחים יכולים להתחיל לעבוד איתו דרך ה‑API ו‑Google AI Studio, בעוד שארגונים יכולים לגשת אליו דרך Vertex AI. הזמינות המוקדמת מאפשרת לבחון את היכולות החדשות ולשלב אותן בסביבות פיתוח קיימות עוד לפני ההשקה המלאה.

הפוסט גוגל משיקה את Gemini 3.1 Flash‑Lite הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-gemini-flash-lite/feed/ 0
איך לגרום ל-AI לענות קצר ולעניין https://letsai.co.il/stop-ai-fluff/ https://letsai.co.il/stop-ai-fluff/#respond Wed, 04 Mar 2026 06:52:12 +0000 https://letsai.co.il/?p=70661 "תהיה תמציתי." זו כנראה ההנחיה הנפוצה ביותר שאנשים כותבים כשהם מקבלים תשובה ארוכה מדי מ-ChatGPT. והיא כמעט אף פעם לא עובדת. לא בגלל שהמודל מתעלם, אלא בגלל שאין לו מושג מה "תמציתי" אומר בעיניכם. בשבילו, תמציתי זה אולי לגלח כמה מילים ולהמשיך הלאה. בשבילכם, זה משפט אחד ישר לעניין. מי שהשתמש ב-ChatGPT או ב-Claude מכיר […]

הפוסט איך לגרום ל-AI לענות קצר ולעניין הופיע ראשון בLet's AI בינה מלאכותית

]]>

"תהיה תמציתי." זו כנראה ההנחיה הנפוצה ביותר שאנשים כותבים כשהם מקבלים תשובה ארוכה מדי מ-ChatGPT. והיא כמעט אף פעם לא עובדת. לא בגלל שהמודל מתעלם, אלא בגלל שאין לו מושג מה "תמציתי" אומר בעיניכם. בשבילו, תמציתי זה אולי לגלח כמה מילים ולהמשיך הלאה. בשבילכם, זה משפט אחד ישר לעניין. מי שהשתמש ב-ChatGPT או ב-Claude מכיר את המבנה: פתיחה ארוכה שלא מוסיפה כלום, אחריה הסתייגויות זהירות, ואז סיכום שחוזר על מה שכבר נאמר. התשובה בפועל קבורה באמצע, בין כל השכבות שמסביב. יש שיטה לתקן את זה, והיא עובדת בשלוש שכבות: לפני השיחה, בתוכה, ואחריה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה AI כותב יותר מדי

כדי להבין את הפתרון, שווה להבין את הבעיה. מודלי AI מאומנים על כמויות עצומות של טקסט מהאינטרנט, שמטבעו נוטה לאורך. בנוסף, בשלב האימון שבו בני אדם מדרגים תשובות (למידה מפידבק של בני אנוש או RLHF), תשובות ארוכות יותר קיבלו שוב ושוב ציונים גבוהים יותר. התוצאה היא שהמודל פיתח הרגל עמוק שקשה לעקור - יותר מילים שווה ציון טוב יותר.

 

"שחיקת זיכרון" או "קריסת ההקשר"

"שחיקת זיכרון" או "קריסת ההקשר"

 

ויש בעיה נוספת שרוב האנשים לא שמים לב אליה. ככל שהמודל מייצר יותר טקסט, מה שהוא מחזיק בזיכרון הפעיל מתמלא ברעש. אחרי עשר עד חמש עשרה הודעות בשרשור ארוך, המודל פשוט פחות חד. לא כי הוא "עייף", אלא כי הוא טובע בתוך המלל שהוא עצמו יצר, כלומר, ככל שאתם מנהלים עם ה-AI שיחה ארוכה יותר באותו חלון, כך הוא 'זוכר' יותר מילים מיותרות מהעבר ומתחיל לאבד את הפוקוס שלו. התוצאה: התשובות הופכות לפחות חכמות ופחות מדויקות.

שכבה ראשונה: לקבוע כללים מראש

הדרך הכי יעילה לקצר תשובות היא לקבוע כללים לפני שהשיחה מתחילה. ChatGPT, Claude ו-Gemini מאפשרים להגדיר הנחיות קבועות שהמודל קורא לפני שהוא עונה לכם. אפשר לעשות את זה בתוך הפרויקטים (Projects) של הבוטים, דרך Custom GPTs, Gemini Gems, וכמובן דרך Custom Instructions שנמצאים בהגדרות הראשיות של החשבון. שני עקרונות עובדים כאן:

 

הראשון - הגדרות מדויקות, לא מעורפלות. במקום "תהיה תמציתי", כתבו: "שאלות פשוטות - תשובה של משפט עד שניים. שאלות בינוניות - שלושה עד חמישה משפטים. שאלות מורכבות - פסקה אחת ומקסימום חמש נקודות." ההבדל: במקום מילה סובייקטיבית שהמודל מפרש לבד, נתתם לו מספרים. הוא לא צריך לפרש מה אתם רוצים, רק למלא.

 

השני - הנחיות חיוביות, לא שליליות. "אל תכתוב הקדמות ארוכות" לא עובד כמו שחושבים. נסו להגיד למישהו "אל תחשוב על סוס ורוד" - הדבר הראשון שקורה הוא שהסוס הורוד קופץ לראש. עם AI זה אותו דבר. הנחיה שלילית לפעמים מושכת את תשומת הלב דווקא לדבר שניסיתם למנוע. מה כן עובד: "התחילו ישר בתשובה", "כתבו משפטים קצרים והצהרתיים", "פתחו בנקודה הכי חשובה." כיוון ברור (״מה כן״) תמיד יעיל יותר מהנחיה מעורפלת.

שכבה שנייה: לכפות פורמט

גם עם כללים ברקע, ההנחיה הספציפית שכותבים משפיעה על אורך התשובה. הטריק הוא לכפות על המודל פורמט שלא מאפשר יותר מדי מלל. פורמטים כמו טבלאות ורשימות מוגבלות לא משאירים מקום להרחבות מיותרות, סיכומים או משפטי גישור - הם מכריחים את המודל להגיש מידע רלוונטי ונקודתי.

 

למשל, במקום לשאול "מה ההבדלים בין העסקת צוות שיווק פנימי לבין סוכנות חיצונית?" כתבו "בנה טבלת השוואה עם העמודות האלה: עלות, שליטה, מהירות, מומחיות." במקום "תסביר לי את הנושא" בקשו "רשימה של מקסימום חמישה סעיפים, עד 20 מילים לכל אחד." אפשר גם לבקש שלבים ממוספרים עם הגבלת משפטים בכל שלב. העיקרון הוא שברגע שקובעים מסגרת, אין מקום לרעש.

שכבה שלישית: לתקן בדיעבד

לפעמים עשיתם הכל נכון, והתשובה עדיין ארוכה מדי. אפשר לתקן גם אחרי שהתשובה הגיעה.

 

כתבו בצ׳אט: "קצרו ב-50%, הסירו כל הכללה, השאירו רק משפטים קצרים וחדים." שלושה דברים ספציפיים: כמה לקצר, מה להסיר, ואיך לכתוב. הנחיה מדידה עובדת הרבה יותר טוב מ-"תקצר."

כלי מחקר מעמיק

כשמדברים על כלי מחקר מעמיק כמו Deep Research, אלה נוטים כברירת מחדל להפיק דוחות מפורטים, משום שהם מיועדים לאיסוף רחב של מקורות, הצלבה והצגת הקשר מלא ולא רק לספק תשובה קצרה, אבל אין כאן מנגנון שמחייב אורך ואי אפשר לשלוט בו, וברוב המקרים ניתן מראש לבקש תקציר, להגדיר אורך רצוי או להתמקד בממצאים מעשיים בלבד.

 

אם כבר התקבל דוח ארוך מדי, דרך יעילה היא להעתיק אותו לשיחה חדשה ולהנחות את המודל לחלץ רק מסקנות יישומיות ולהסיר רקע, משום ששינוי ההקשר מגדיר מחדש את מטרת העיבוד ומחדד את הפלט, ולפעמים, כאשר השאלה ממוקדת ופשוטה, חיפוש רגיל עם מודל מתקדם עשוי לספק תוצאה איכותית ותמציתית דומה, אך בנושאים מורכבים או כאלה הדורשים הצלבת מקורות שיטתית, כלי מחקר ייעודי עשוי להניב תוצאה מקיפה ומדויקת יותר.

איפה מעדכנים את הכללים

איפה לכתוב את הכללים מהשכבה הראשונה? יש שתי אפשרויות - בתוך פרויקט ספציפי (כמו GPT מותאם או Claude Project) או בהגדרות הכלליות של החשבון.

 

הנחיות מותאמות אישית לבוט

הנחיות בהגדרות הכלליות של החשבון

 

ההמלצה היא להתחיל מההגדרות הכלליות. כשכותבים כללים בתוך פרויקט ספציפי, הם עובדים רק כשפותחים את הפרויקט הספציפי. כשכותבים אותם ב-Custom Instructions של ChatGPT או Claude, שנמצאים ישר בהגדרות הראשיות, הם חלים אוטומטית על כל שיחה. אין צורך לזכור לעבור לכלי הנכון, אין חיכוך והבסיס אחיד.

 

הנחיות בסביבות מבודדות

הנחיות בתוך פרויקט ספציפי או ״סביבה מבודדת״

מה עושים עכשיו

הצעד הראשון לוקח דקה. היכנסו להגדרות של המודל הקרוב לביתכם, כנסו ל-Custom Instructions, וכתבו שם שלושה כללים ברורים: הגדרת אורך לשאלות פשוטות, הגדרת אורך לשאלות מורכבות, והנחיה להתחיל ישר בתשובה. אחרי זה, בפעם הבאה שהתשובה עדיין ארוכה מדי, תגדירו פורמט מועדף או חדדו בדיוק מה אתם רוצים. שלוש שכבות, כל אחת עובדת לבד, וביחד ההבדל מורגש מיד.

הפוסט איך לגרום ל-AI לענות קצר ולעניין הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/stop-ai-fluff/feed/ 0
המדריך לניוד זיכרון מ-ChatGPT ל-Gemini או ל-Claude https://letsai.co.il/transfer-chat-persona/ https://letsai.co.il/transfer-chat-persona/#respond Tue, 03 Mar 2026 15:31:18 +0000 https://letsai.co.il/?p=70658 לעיתים נדמה שהצ'ט שבו אנו משתמשים אינו רק כלי עבודה, אלא שותף שמכיר את ההעדפות, הסגנון וההרגלים שלנו. אך מה קורה כאשר מחליטים לבטל מנוי בכלי אחד ולעבור לאחר. האם צריך להתחיל הכול מחדש ולבנות את ההיכרות מאפס. קבלו מדריך מעשי שיסביר לכם כיצד להעביר את ה"אופי" של הצ'ט שלכם לכלי אחר, כך שגם לאחר […]

הפוסט המדריך לניוד זיכרון מ-ChatGPT ל-Gemini או ל-Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
לעיתים נדמה שהצ'ט שבו אנו משתמשים אינו רק כלי עבודה, אלא שותף שמכיר את ההעדפות, הסגנון וההרגלים שלנו. אך מה קורה כאשר מחליטים לבטל מנוי בכלי אחד ולעבור לאחר. האם צריך להתחיל הכול מחדש ולבנות את ההיכרות מאפס. קבלו מדריך מעשי שיסביר לכם כיצד להעביר את ה"אופי" של הצ'ט שלכם לכלי אחר, כך שגם לאחר המעבר תמשיכו לקבל תשובות מותאמות אישית, מדויקות ועקביות. וכן - הכותרת קצת מטעה... אנחנו לא מנסים לרמוז שאתם צריכים לעשות את ה"נדידה" מ-ChatGPT לכלי אחר, כי את התהליך הזה אפשר לעשות גם הפוך - מ-Gemini ל-ChatGPT או מקלוד ל-Gemini. כל אחד יחליט בעצמו מה "סוס העבודה" שלו.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

למה בכלל להעביר קונטקסט בין צ'טים

כאשר עובדים לאורך זמן עם כלי מסוים, למשל ChatGPT של OpenAI, מצטבר בו ידע רלוונטי עליכם. הכלי לומד את ההעדפות שלכם, את תחומי העיסוק, את סגנון הכתיבה הרצוי ואפילו את הרגישויות שלכם לתשובות מסוימות. עם הזמן, התגובות נעשות מדויקות יותר ופחות כלליות. הבעיה מתחילה כאשר מחליטים לנסות כלי אחר, למשל קלוד (Claude) של אנטרופיק (Anthropic) או ג'מיניי (Gemini) של גוגל (Google). ייתכן שהסיבה תהיה איכות ניתוח גבוהה יותר, מגבלות שימוש, מחיר, או צורך בפיצ'ר ייחודי. ברגע המעבר מתגלה חיסרון ברור: הכלי החדש אינו מכיר אתכם כלל.

 

במקום לבנות את ההיכרות מחדש דרך עשרות שיחות, ניתן לבצע ייצוא יזום של המידע האישי וההנחיות שהצטברו, ולהזין אותן בצורה מסודרת לכלי החדש. כך אתם שומרים על רצף עבודה, חוסכים זמן, ומקבלים התאמה אישית כבר מהיום הראשון. השיטה רלוונטית במיוחד כאשר מדובר בעבודה ארוכת טווח עם כלי אחד. לדוגמה, אם התרגלתם לכך שהצ'ט עונה בטון מקצועי אך תמציתי, מציג קוד ללא הסברים מיותרים, או תמיד מסכם בנקודות מסודרות, סביר להניח שאינכם רוצים לאמן מחדש כלי אחר מההתחלה.

 

בנוסף, אם הכלי מכיר את הרקע המקצועי שלכם, את סוגי הפרויקטים שאתם מנהלים או את שיטות העבודה המועדפות עליכם, המעבר ללא העברת קונטקסט עלול לפגוע באיכות התשובות. השיטה רלוונטית גם במצבים של מעבר ארגוני, כאשר צוות עובר מכלי אחד לאחר, או כאשר רוצים לעבוד במקביל עם כמה כלים תוך שמירה על אחידות התנהגות.

שלב ראשון: בקשת ייצוא זיכרון מהצ'ט הקיים

כדי להעביר קונטקסט, יש לבקש מהצ'ט הנוכחי לייצא את כל הזיכרונות וההנחיות שהוא שומר עליכם בפורמט מסודר. לשם כך ניתן להשתמש בפרומפט הבא:

 

פרומפט ייצוא זכרונות בעברית:

ייצא את כל הזיכרונות השמורים שלך וכל הקשר שלמדת עליי משיחות קודמות. שמור על הניסוחים שלי במדויק ככל האפשר, במיוחד עבור הוראות והעדפות.

## קטגוריות (הצג לפי הסדר הבא):

1. **הוראות**: כללים שביקשתי ממך במפורש לעקוב אחריהם להבא - טון, פורמט, סגנון, "תמיד עשה X", "לעולם אל תעשה Y", ותיקונים להתנהגות שלך. כלול רק כללים מזיכרונות שמורים, לא משיחות כלליות.

2. **זהות**: שם, גיל, מיקום, השכלה, משפחה, מערכות יחסים, שפות ותחומי עניין אישיים.

3. **קריירה**: תפקידים נוכחיים וקודמים, חברות ותחומי מומחיות כלליים.

4. **פרויקטים**: פרויקטים שבניתי או התחייבתי אליהם באופן משמעותי. רצוי רשומה אחת לכל פרויקט. ציין מה הוא עושה, מה הסטטוס הנוכחי והחלטות מפתח. פתח כל רשומה בשם הפרויקט או בתיאור קצר שלו.

5. **העדפות**: דעות, טעמים והעדפות סגנון עבודה החלות באופן רחב.

## פורמט:

השתמש בכותרות לכל קטגוריה. בתוך כל קטגוריה, רשום שורה אחת לכל פריט, ממוינת לפי תאריך מהישן לחדש.

עצב כל שורה כך:

[YYYY-MM-DD] - תוכן הרשומה כאן.

אם אין תאריך ידוע, השתמש ב-[unknown].

## פלט:
- עטוף את כל הייצוא בבלוק קוד אחד לצורך העתקה נוחה.
- לאחר בלוק הקוד, ציין האם זהו הסט המלא או שקיימים פריטים נוספים.

 

 

פרומפט ייצוא זכרונות באנגלית:

Export all of my stored memories and any context you've learned about me from past conversations. Preserve my words verbatim where possible, especially for instructions and preferences.

## Categories (output in this order):

1. **Instructions**: Rules I've explicitly asked you to follow going forward — tone, format, style, "always do X", "never do Y", and corrections to your behavior. Only include rules from stored memories, not from conversations.

2. **Identity**: Name, age, location, education, family, relationships, languages, and personal interests.

3. **Career**: Current and past roles, companies, and general skill areas.

4. **Projects**: Projects I meaningfully built or committed to. Ideally ONE entry per project. Include what it does, current status, and any key decisions. Use the project name or a short descriptor as the first words of the entry.

5. **Preferences**: Opinions, tastes, and working-style preferences that apply broadly.

## Format:

Use section headers for each category. Within each category, list one entry per line, sorted by oldest date first. Format each line as:

[YYYY-MM-DD] - Entry content here.

If no date is known, use [unknown] instead.

Output:
- Wrap the entire export in a single code block for easy copying.
- After the code block, state whether this is the complete set or if more remain.

 

 

 

לאחר שהכלי יספק את הפלט, העתיקו את כל בלוק הקוד כפי שהוא, כולל הכותרות והתאריכים.

שלב שני: הדבקת המידע בכלי החדש

כעת יש להזין את המידע לכלי שאליו אתם עוברים. בכל פלטפורמה יראה יראה מעט אחרת.

ייצוא וייבוא זכרונות ב-ChatGPT

ב-ChatGPT יש להיכנס להגדרות או לפרסונליזציה, לבחור באפשרות Custom Instructions (בתוך טאב הפרסונליזציה), ולהדביק שם את המידע הרלוונטי מתוך הייצוא. ניתן לחלק בין החלק המתאר "מה עליך לדעת עליי" לבין "כיצד עליך להגיב", בהתאם למבנה הקיים. כך הכלי יתחיל לפעול בהתאם להוראות ולהקשר שהועברו, במקום להתחיל מדף חלק.

ייצוא זכרונות ב-ChatGPT

ייצוא וייבוא זכרונות ב-ChatGPT

 

 

ייצוא וייבוא זכרונות בג'מיניי (Gemini)

בג'מיניי יש להיכנס להגדרות, לבחור באפשרות הקשר אישי, ולהדביק שם את המידע שהופק מהצ'ט הקודם. המערכת תשתמש במידע זה כדי להתאים את התגובות העתידיות לסגנון ולהעדפות שלכם.

ייצוא וייבוא זכרונות ב-Gemini

ייצוא וייבוא זכרונות ב-Gemini

 

 

ייצוא וייבוא זכרונות בקלוד (Claude)

בקלוד יש להיכנס להגדרות, לבחור ב-Capabilities או "יכולות", ושם קיים כפתור ייעודי בשם Import memory from other AI providers. באמצעות אפשרות זו ניתן להדביק את המידע שיוצא מכלי אחר, וכך לייבא את ההקשר בצורה מובנית יחסית.

ייצוא וייבוא זכרונות בקלוד

ייצוא וייבוא זכרונות בקלוד

 

טיפים ליישום חכם של השיטה

  • חשוב לעבור על הפלט לפני שמדביקים אותו. ייתכן שתמצאו הנחיות שכבר אינן רלוונטיות, או מידע אישי שאינכם מעוניינים להעביר. מדובר בהזדמנות לנקות ולדייק את הזהות הדיגיטלית שלכם מול הכלי החדש.
  • בנוסף, לאחר ההדבקה מומלץ לבצע שיחה קצרה עם הכלי החדש ולבדוק האם הוא מבין את ההוראות כפי שהתכוונתם. אפשר אפילו לשאול אותו מה הוא למד עליכם מהמידע שסיפקתם.
  • לבסוף, כדאי לזכור כי לא כל כלי מפרש זיכרון באותה דרך. לעיתים תידרש התאמה ניסוחית קלה כדי להשיג תוצאות מיטביות.

מחשבה רחבה על ניידות קונטקסט בעולם ה-AI

היכולת להעביר קונטקסט בין מערכות אינה רק טריק טכני, אלא צעד חשוב בקסטומיזציה של צ'ט ה-AI שאיתו אתם עובדים. אם הוא מכיר אתכם ואת ההעדפות שלכם, הוא יהפוך למדויק יותר עבור הצרכים הפרטיקולריים שלכם. ובנוסף - כך אנחנו לא עושים "חתונה קתולית" עם כלי אחד ומשתעבדים לסביבת עבודה או חברה אחת. החופש נשאר בידיים שלנו. נאמנות לתוצר ולא למוצר! העברת קונטקסט יזומה מאפשרת לכם להישאר הבעלים של ההנחיות, הסגנון וההעדפות שלכם, גם כאשר אתם מחליפים פלטפורמה. במובן זה, לא מדובר רק במעבר בין ChatGPT, קלוד או ג'מיניי, אלא ביצירת רציפות מקצועית בעולם שבו הכלים משתנים במהירות, אך דפוסי העבודה שלכם נותרים יציבים.

הפוסט המדריך לניוד זיכרון מ-ChatGPT ל-Gemini או ל-Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/transfer-chat-persona/feed/ 0
Perplexity Computer מציגה את חזון הענן של 2026 https://letsai.co.il/perplexity-computer/ https://letsai.co.il/perplexity-computer/#respond Mon, 02 Mar 2026 07:57:38 +0000 https://letsai.co.il/?p=70552 פרפלקסיטי הציגה בסוף פברואר 2026 את Perplexity Computer, שירות ענן שמוגדר על ידי החברה כמערכת שמפעילה סוכני AI מרובים במקביל ומבצעת פרויקטים מקצה לקצה. לא מדובר בשדרוג לחיפוש של פרפלקסיטי או בעוד צ'אטבוט, אלא במערכת שבה כל סוכן רץ בסביבת עבודה מבודדת בענן, עם גישה לדפדפן, קבצים, רשת וחיבורים לשירותים חיצוניים. החברה מציגה את השירות […]

הפוסט Perplexity Computer מציגה את חזון הענן של 2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
פרפלקסיטי הציגה בסוף פברואר 2026 את Perplexity Computer, שירות ענן שמוגדר על ידי החברה כמערכת שמפעילה סוכני AI מרובים במקביל ומבצעת פרויקטים מקצה לקצה. לא מדובר בשדרוג לחיפוש של פרפלקסיטי או בעוד צ'אטבוט, אלא במערכת שבה כל סוכן רץ בסביבת עבודה מבודדת בענן, עם גישה לדפדפן, קבצים, רשת וחיבורים לשירותים חיצוניים. החברה מציגה את השירות כ"מה שמחשב אישי ב-2026 צריך להיות" - הגדרה שאפתנית שמציבה רף ציפיות גבוה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה בכלל מערכות מרובות-סוכנים

בעולם ה-AI מתרחש בשנה האחרונה מעבר ממודלים בודדים למערכות שמפעילות כמה מודלים במקביל. הרעיון פשוט - במקום מודל אחד שמנסה לעשות הכול, מערכת רב-סוכנית מחלקת את העבודה בין מודלים שונים, שכל אחד מהם מותאם למשימה אחרת - מחקר, קוד, עיצוב או ניתוח נתונים. הגישה הזו מאפשרת להריץ תהליכים מורכבים בצורה יעילה יותר, והיא הופכת בהדרגה לסטנדרט החדש בפיתוח מערכות AI מתקדמות.

 

בחירת מודל והפעלת ה‑Computer

כפתור הפעלת ה‑Computer

איך זה עובד

בלב המערכת עומד מודל ניתוב בשם Claude Opus - מודל הדגל של Anthropic - שמשמש את Perplexity לבחירת המודל המתאים לכל תת-משימה. כשמשתמש מגדיר מטרה, Opus מפרק אותה למשימות ותת-משימות, בוחר מתוך תשע עשרה מודלים זמינים, ומפעיל סוכנים שרצים בו-זמנית. כל סוכן פועל בסביבה מבודדת עם דפדפן Comet (הדפדפן של פרפלקסיטי), מערכת קבצים אמיתית, גישה לרשת ומאות חיבורים לשירותים כמו Github, Slack ו-Notion.

 

המערכת שומרת זיכרון מתמשך בין הפעלות, כך שהיא זוכרת פרויקטים קודמים, העדפות וקבצים. הרעיון הוא לארוז לתוך שירות ענן אחד את מה שמשתמשים מתקדמים כבר מנסים לעשות לבד: לחבר כלים, לשלוח AI למחקר, לקוד, לעיצוב ולפריסה, בלי שיצטרכו לתאם הכל בעצמם.

 

ממשק ה‑Computer: נקודת הכניסה למשימות מורכבות בענן

ממשק ה‑Computer: נקודת הכניסה למשימות מורכבות בענן

מה שונה כאן

Perplexity Computer מייצג שינוי כיוון ביחס לדור הקודם של כלים כמו ChatGPT או Claude, שפעלו בעיקר כמודל יחיד עם יכולות הרחבה. במקום "מודל חכם אחד", פרפלקסיטי מציגה מערכת שמנהלת תהליך שלם של פירוק משימות, בחירת מודלים, הרצת סוכנים במקביל ושילוב התוצרים. זה ניסיון להפוך את ה-AI מכלי שמגיב לפקודות - למערכת שמבצעת פרויקטים שלמים.

מגוון תרחישי שימוש

פרפלקסיטי מציגה מגוון תרחישי שימוש רשמיים עבור Perplexity Computer, ובהם מחקר מעמיק, יצירת קוד, הפקת תוכן וניתוח נתונים. בהדגמות שפרסמה החברה נראים סוכנים שפועלים במקביל לביצוע מספר תת-משימות, כמו איסוף מידע, יצירת מסמכים או בניית ממשקים.

 

מנכ"ל פרפלקסיטי, Aravind Srinivas, תיאר את המערכת: "Computer unifies every current capability of AI into a single system." חשוב לציין שהדגמות אלו מגיעות מהחברה עצמה, והסיקור התקשורתי הראשוני מאשר את תיאור המוצר אך מדגיש שבדיקות ביצועים עצמאיות עדיין לא פורסמו.

תמחור ומודל השימוש

Perplexity Computer זמין מיידית למנויי Max של פרפלקסיטי, במחיר מאתיים דולר בחודש ליחידים ושלוש מאות עשרים וחמישה דולר למנוי ארגוני שכולל פיצ'רי אבטחה נוספים.

 

מנויי Max מקבלים עשרת אלפים קרדיטים חודשיים, ובונוס חד-פעמי של עשרים אלף קרדיטים שתקף לשלושים יום. מנויי Pro, בעשרים דולר בחודש, יקבלו גישה בהמשך.

 

מודל הקרדיטים נועד לשקף את עלות השימוש בפועל. כל פעולה של סוכן - כמו הרצת מודל, טעינת דפדפן או שימוש בחיבור חיצוני - צורכת כמות מסוימת של קרדיטים. המשתמשים יכולים לבחור מודלים שונים לסוכנים שונים ולהגדיר תקרת הוצאה כדי לשלוט בשימוש. זהו מודל נפוץ בשירותי AI מתקדמים, שמאפשר להפעיל משימות מורכבות בלי להתחייב למשאבים קבועים מראש.

 

המחיר מציב את Perplexity Computer ברמת תמחור גבוהה בהשוואה לשירותי AI צרכניים אחרים, בהתאם למודל השימוש-לפי-צריכה שמציעה החברה.

אבטחה, פרטיות ומגבלות

לפי פרפלקסיטי, כל סוכן פועל בסביבה מבודדת (sandbox) עם גישה מבוקרת לקבצים ולרשת. החברה מדגישה שהמערכת בנויה על תשתית הענן שלה, הכוללת שכבות אבטחה, הפרדת תהליכים ושמירה על נתוני משתמשים. מאחר שהמערכת פועלת בענן בלבד, פרפלקסיטי מציינת כי היא מתוכננת לעמוד בסטנדרטים המקובלים של אבטחת מידע עבור שירותי SaaS.

 

פרפלקסיטי מדגישה כי Perplexity Computer פועל כולו בענן, ללא אפשרות להרצה מקומית או עבודה במצב לא מקוון. המשמעות היא שהמערכת דורשת חיבור אינטרנט רציף, ושכל המשימות מתבצעות על גבי תשתית החברה. בנוסף, החברה מציינת כי מדובר בשירות חדש שנמצא בשלבי אימוץ מוקדמים, וכי יכולות נוספות יתווספו בהמשך.

בין חזון הענן לשליטה המקומית

שירותים אחרים בשוק מציעים גישות שונות להפעלת מערכות AI. לדוגמה, Claude Cowork של Anthropic פועל במודל יחיד עם אינטגרציה למחשב המקומי, בעוד פרויקטים בקוד פתוח מאפשרים הרצה מקומית של מודלים. Perplexity Computer מציג גישה הפוכה: מערכת רב-מודלית שמופעלת כולה בענן ומבצעת אורקסטרציה בין מודלים שונים. ההבדלים בין הגישות משקפים בחירה בין גמישות עננית לבין שליטה מקומית, אך נכון לעכשיו אין עדיין השוואות ביצועים עצמאיות שמאפשרות להעריך את היתרונות המעשיים של כל מודל. מה שכן ברור הוא שהמרוץ למערכות רב‑סוכנית רק מתחיל, ו‑Perplexity Computer מציבה בו את אחד הניסיונות השאפתניים והמעניינים ביותר עד כה.

הפוסט Perplexity Computer מציגה את חזון הענן של 2026 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/perplexity-computer/feed/ 0
קלוד בטהראן – למה טראמפ כועס על אנטרופיק? https://letsai.co.il/claude-tehran-security-solution/ https://letsai.co.il/claude-tehran-security-solution/#respond Sun, 01 Mar 2026 12:08:31 +0000 https://letsai.co.il/?p=70549 האם האמריקאים השתמשו ב"'קלוד" (Claude) של אנטרופיק במהלך מבצע Epic Fury (התקיפה באיראן)? בזמן שאנחנו משתמשים בבינה מלאכותית (AI) כדי לנסח מיילים למשרד או לסכם מאמרים ארוכים, בחדרי המלחמה של הפנטגון אותה טכנולוגיה בדיוק כבר מנתחת מטרות לתקיפה באיראן. דיוני האתיקה המנומסים של עמק הסיליקון על "AI שוחר שלום" התנגשו לאחרונה חזק במציאות המזרח-תיכונית, כשדיווחים […]

הפוסט קלוד בטהראן – למה טראמפ כועס על אנטרופיק? הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם האמריקאים השתמשו ב"'קלוד" (Claude) של אנטרופיק במהלך מבצע Epic Fury (התקיפה באיראן)? בזמן שאנחנו משתמשים בבינה מלאכותית (AI) כדי לנסח מיילים למשרד או לסכם מאמרים ארוכים, בחדרי המלחמה של הפנטגון אותה טכנולוגיה בדיוק כבר מנתחת מטרות לתקיפה באיראן. דיוני האתיקה המנומסים של עמק הסיליקון על "AI שוחר שלום" התנגשו לאחרונה חזק במציאות המזרח-תיכונית, כשדיווחים מצד ה-WSJ (הוולסטריט ג'ורנל) גרסו שנעשה שימוש במודל השפה קלוד של אנטרופיק (Anthropic) בתקיפות אמריקאיות באיראן. לא מדובר בעוד דיון תאורטי על "AI במלחמה", אלא בשאלה פרקטית מאוד: האם זה לגיטימי לשלב מודל AI "אזרחי" במכונת המלחמה האמריקאית, ומה קורה כשמודל AI כבר משולב עמוק בתהליכי עבודה ביטחוניים, ואז מגיעה הוראה פוליטית לעצור הכול ו"להוריד את השאלטר"?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

קלוד בטהראן

לפי דיווחים שמיוחסים ל-WSJ, פיקוד המרכז של צבא ארצות הברית (CENTCOM), השתמש בקלוד לצורכי הערכות מודיעין, זיהוי מטרות וסימולציות תרחישי קרב במהלך תקיפות באיראן במסגרת מבצע "שאגת הארי". הפרטים המדויקים לגבי היקף המעורבות של המודל לא פורסמו, ואין מידע פומבי על כך שקלוד קיבל החלטות מבצעיות או הנחה ירי. עם זאת, עצם השימוש בו כחלק ממערך תמיכה מודיעיני בזמן רגיש מציב אותו עמוק בתוך שרשרת קבלת ההחלטות.

 

צפו בראיון של אביתר אדרי (Co-Founder ב-LetsAI) במהדורה המרכזית של ערוץ 10, על שילוב קלוד בתקיפה באיראן:

 

הנקודה המשמעותית היא העיתוי. לפי אותם דיווחים, השימוש נעשה לאחר שנשיא ארצות הברית דונלד טראמפ הורה לסוכנויות פדרליות להפסיק מיד שימוש בטכנולוגיה של אנטרופיק, תוך מתן חלון של עד שישה חודשים למשרד ההגנה להשלמת תהליך הוצאה מסודר משימוש. כלומר, בזמן שהדרג המדיני מאותת על עצירה, הדרג המבצעי עדיין פועל במציאות שבה הכלי כבר מוטמע.

זו לא הפעם הראשונה: תקדים מדורו

הסיפור האיראני אינו מנותק מהקשר רחב יותר. רק לאחרונה דווח כי קלוד הופעל גם במהלך מבצע אמריקאי ללכידת נשיא ונצואלה לשעבר ניקולס מדורו (Nicolás Maduro) בקראקס. באותו מקרה, לפי הדיווחים, הגישה למודל נעשתה דרך חברת פאלנטיר (Palantir), שקבלנותיה משולבות עמוק בפנטגון ובקהילת המודיעין.

 

גם שם לא נחשף תפקידו המדויק של המודל, אך צוין כי הוא הופעל כחלק ממערך מודיעיני תומך בזמן אמת. הדמיון בין שני האירועים אינו מקרי. בשניהם מדובר במודל אזרחי שפותח תחת מסגרת אתית מחמירה יחסית, אשר מוצא את עצמו בתוך תהליכים מבצעיים דרך שכבת תיווך טכנולוגית.

 

התקדים הזה חשוב להבנת הפרשה הנוכחית. הוא מלמד שכאשר מודל שפה משולב בפלטפורמות ביטחוניות קיימות, עצם העובדה שהיצרן אינו מעוניין בשימוש מסוים אינה בהכרח חוסמת אותו בפועל.

 

שומרי סף, חוזים ופוליטיקה - למה טראמפ כועס?

בלב המשבר לא עומדת שאלה טכנולוגית, אלא שאלה של שליטה. אנטרופיק הציבה לאורך השנים מסגרת עקרונית לפיתוח מודלים, בין היתר דרך תפיסת "Constitutional AI", והבהירה כי יש שימושים שאינם מקובלים עליה. במקביל, החברה כן פיתחה גרסאות ייעודיות לגופים ממשלתיים, כולל עבודה בסביבות מסווגות, אך ביקשה לעגן בחוזה מגבלות ברורות.

 

המשבר הוצת כאשר הפנטגון דרש לאפשר שימוש בקלוד "for all lawful purposes", כלומר לכל מטרה חוקית, ללא חריגים. מבחינת משרד ההגנה, אם פעולה עומדת במסגרת החוק והמדיניות, אין מקום לכך שספק טכנולוגי יגדיר מגבלות נוספות. הדרישה הזו נועדה להבטיח חופש פעולה מלא בתוך גבולות הדין. אנטרופיק סירבה לנוסח הזה. לפי הדיווחים, היא ביקשה לעגן בחוזה שני קווים אדומים מפורשים: איסור על שימוש למעקב המוני אחר אזרחים אמריקאים, ואיסור על שילוב המודל בנשק אוטונומי לחלוטין ללא פיקוח אנושי. מנקודת מבטה, הסכמה גורפת ל"כל מטרה חוקית" ללא החרגות יוצרת פתח לשימושים שהיא רואה כמסוכנים מוסרית ותדמיתית, גם אם אין כוונה מוצהרת לבצע אותם.

 

כאן נכנס הממד הפוליטי. הנשיא דונלד טראמפ (Donald Trump) מסגר את ההתעקשות של אנטרופיק כניסיון של חברה פרטית "להכתיב" לצבא כיצד להילחם וכמהלך שפוגע בביטחון הלאומי. בדיווחים צוטטו טענות כי מדובר בניסיון "strong-arm the Pentagon" ובהחדרת שיקולים אידאולוגיים לשדה הקרב. מבחינתו, לא מדובר רק בוויכוח חוזי, אלא בשאלה עקרונית: האם ספק AI רשאי להגביל את חופש הפעולה של מערכת הביטחון כאשר הפעולה חוקית.

 

מנקודת מבט הממשל, אם השימוש הוא חוקי ומפוקח, אין מקום לכך שספק יקבע קווים נוספים. מנקודת מבט אנטרופיק, חתימה על נוסח רחב מדי משמעה ויתור על שליטה בסיסית באופן שבו נעשה שימוש בטכנולוגיה שלה. הפער הזה, בין תפיסת ריבונות מדינתית לבין אחריות תאגידית, הוא שהפך מחלוקת חוזית לעימות חזיתי ברמה הלאומית.

 

אי אפשר פשוט "לכבות" מודל

ב-27 בפברואר 2026 פרסם טראמפ פוסט ברשת Truth Social שבו הורה ישירות לכל סוכנויות הממשל הפדרלי להפסיק באופן מיידי כל שימוש בטכנולוגיה של אנטרופיק (Anthropic), כולל המודל קלוד (Claude). בנוסח החריג בעוצמתו כתב:

"I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic's technology. We don't need it, we don't want it, and will not do business with them again!".

 

ההוראה לא הייתה כללית או עמומה. היא נוסחה כהנחיה ביצועית ישירה, עם דרישה להפסקה מיידית. עם זאת, במסגרת אותה הודעה ניתן חלון של עד שישה חודשים למשרד ההגנה לצורך השלמת הוצאה מסודרת של המודל משימוש.

 

הפוסט של טראמפ

הפוסט של טראמפ.

 

כאן מתגלה הפער בין הצהרה פוליטית לבין מציאות תפעולית. כאשר נשיא מורה "להפסיק מיד", הציפייה הציבורית היא לעצירה חדה וברורה. אלא שבפועל, מודל שפה כמו קלוד אינו אפליקציה נפרדת שניתן למחוק בלחיצת כפתור. אם הוא כבר משולב במערכות ניתוח מודיעין, בדאשבורדים מבצעיים, בתהליכי עבודה של אנליסטים ובאינטגרציות דרך קבלני משנה כמו פאלנטיר (Palantir), הוצאתו דורשת תהליך הדרגתי.

 

הוראת טראמפ עצמה נבעה, לפי הדיווחים, ממחלוקת עקרונית עם אנטרופיק סביב מגבלות שימוש צבאי. אך מרגע שההוראה פורסמה, היא יצרה דינמיקה חדשה: הפנטגון נדרש ליישם החלטה פוליטית תוך כדי שמירה על כשירות מבצעית. במקביל, דווח כי אנטרופיק הוגדרה כ"סיכון לשרשרת האספקה" על ידי משרד ההגנה, צעד שמעמיק את המשבר וממחיש עד כמה מודלי AI נתפסים כיום כחלק מתשתית קריטית. לכן, כאשר מדברים על "לכבות" מודל, לא מדובר רק בהחלטה ערכית או פוליטית. מדובר במהלך הנדסי, חוזי וארגוני מורכב. ההוראה הנשיאותית הציבה יעד ברור, אך עצם הצורך בתקופת מעבר מדגיש עד כמה הכלי כבר נטמע עמוק במערכות הביטחון.

 

OpenAI נכנסת לוואקום

המשבר סביב אנטרופיק לא הותיר ואקום ריק לאורך זמן. ימים ספורים לאחר שהנשיא דונלד טראמפ הורה לסוכנויות הפדרליות להפסיק לעבוד עם אנטרופיק והפנטגון הודיע כי בכוונתו להגדיר את החברה כסיכון לשרשרת האספקה, הודיעה OpenAI על הסכם משלה עם משרד ההגנה האמריקאי לפריסת טכנולוגיה ברשת המסווגת של המחלקה.

 

לפי דיווח של רויטרס, ההסכם כולל מנגנוני הגנה נוספים שנועדו להגדיר בצורה ברורה את גבולות השימוש במודל. ב-OpenAI הדגישו כי ההתקשרות החדשה אוכפת שלושה "קווים אדומים": איסור שימוש בטכנולוגיה למעקב המוני אחר אזרחים אמריקאים, איסור שימוש להכוונת מערכות נשק אוטונומיות, ואיסור על קבלת החלטות אוטומטיות בעלות השלכות כבדות משקל ללא מעורבות אנושית.

 

החברה ציינה כי מנגנוני ההגנה מיושמים בגישה רב-שכבתית: שליטה מלאה בערימת הבטיחות של המודל, פריסה דרך ענן, מעורבות של אנשי OpenAI בעלי סיווג ביטחוני בתהליך, והגנות חוזיות שמאפשרות אף ביטול ההסכם במקרה של הפרה. במילים אחרות, OpenAI מבקשת להבטיח שהטכנולוגיה שלה תוטמע בתוך מערכת ביטחונית, אך תחת מסגרת בקרה הדוקה יותר מזו שיוחסה להסכמים קודמים.

 

כשמודלי AI משמשים לצרכים בטחוניים

כשמודלי AI משמשים לצרכים בטחוניים.

 

שלושה קווים אדומים

הגדרת הקווים האדומים אינה עניין סמנטי בלבד. איסור על מעקב המוני מקומי נוגע ישירות לחשש הציבורי מפני שימוש ב-AI לצרכים פוליטיים או פנימיים. האיסור על הכוונת נשק אוטונומי משרטט גבול ברור בין כלי ניתוח ותמיכה לבין מערכת שמקבלת החלטות ירי. וההתנגדות להחלטות אוטומטיות בעלות השלכות כבדות משקל משמרת, לפחות על הנייר, את עקרון ה"Human in the loop".

 

עם זאת, הפנטגון עצמו חתם בשנה האחרונה על הסכמים בהיקף של עד 200 מיליון דולר כל אחד עם מעבדות AI מובילות, בהן אנטרופיק, OpenAI וגוגל. משרד ההגנה הבהיר כי הוא מבקש לשמר גמישות מרבית ולא להיות מוגבל על ידי אזהרות של מפתחי הטכנולוגיה מפני שימושים מסוימים. כאן מתחדדת המתיחות המובנית: החברות מבקשות לקבוע גבולות, בעוד הממסד הביטחוני מבקש לשמור לעצמו מרחב פעולה רחב ככל האפשר.

 

גם מתחרות לא בהכרח אויבות

נקודה מעניינת נוספת היא עמדתה של OpenAI ביחס לאנטרופיק. למרות התחרות הישירה בין החברות, OpenAI הבהירה כי לדעתה אין להגדיר את אנטרופיק כסיכון לשרשרת האספקה. ההצהרה הזו אינה רק מחווה תעשייתית. היא משקפת הבנה רחבה יותר שלפיה שוק מודלי השפה הגדולים הפך לחלק מתשתית קריטית, והגדרות רגולטוריות מסוג זה עשויות להשפיע על כלל השחקנים.

 

התמונה המצטיירת מורכבת. מצד אחד, ממשל טראמפ מצמצם את שיתוף הפעולה עם אנטרופיק. מצד שני, הוא מעמיק את ההתקשרות עם OpenAI תחת מסגרת חוזית מפורטת יותר. במקביל, החברות עצמן מבקשות להגן על קווים אדומים אתיים, אך אינן מוותרות על נוכחות במערכות הביטחון.

 

כך, הסיפור על קלוד באיראן אינו עומד לבדו. הוא חלק מתחרות רחבה יותר על עיצוב הכללים של פריסת AI מסווג בצבא האמריקאי. השאלה אינה רק איזה מודל פועל ברשת המסווגת, אלא באילו תנאים, באיזו שקיפות ובאיזו יכולת אכיפה כאשר מתעוררת מחלוקת בין הדרג הפוליטי, הדרג הביטחוני ומפתחי הטכנולוגיה.

 

כלי עזר או מעצב החלטות?

בסופו של דבר, הסיפור על קלוד באיראן אינו רק על כלי מסוים או על חברה אחת. הוא נוגע בשאלה עמוקה יותר: היכן עובר הגבול בין כלי תומך ניתוח לבין מערכת שמשפיעה בפועל על החלטות מבצעיות. כאשר מודל מסכם מודיעין, מזהה דפוסים או מציע תרחישים, הוא אינו יורה טילים. אך הוא עשוי לעצב את האופן שבו בני אדם תופסים את המצב, מדרגים איומים ובוחרים בין חלופות. האחריות נותרת בידי האדם, אך השפעת הכלי אינה שולית.

 

שנת 2026 אינה מתמקדת עוד בשאלה האם נעשה שימוש ב-AI במערכות ביטחוניות. השאלה היא איזה מודל, באילו מגבלות, דרך אילו תשתיות, ותחת איזו בקרה אנושית. המקרה האיראני, יחד עם תקדים מדורו, מבהירים שהגבולות בין אזרחי לצבאי מיטשטשים במהירות, ושהאתגר האמיתי אינו רק טכנולוגי אלא מוסדי וחוזי.

 

במבט רחב יותר, הפרשה ממחישה כי עידן המודלים הגנרטיביים אינו מתנהל רק בזירת הסטארטאפים והמעבדות, אלא גם בחדרי מלחמה. מי שמפתח AI, מי שמטמיע אותו ומי שמסדיר אותו, יידרשו להתמודד עם השאלה כיצד שומרים על שליטה, שקיפות ואחריות, גם כשהטכנולוגיה כבר נטועה עמוק בתוך המערכת.

הפוסט קלוד בטהראן – למה טראמפ כועס על אנטרופיק? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-tehran-security-solution/feed/ 0
מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI https://letsai.co.il/anthropic-china-distillation-attacks/ https://letsai.co.il/anthropic-china-distillation-attacks/#respond Thu, 26 Feb 2026 06:01:05 +0000 https://letsai.co.il/?p=70444 המירוץ לבינה מלאכותית תמיד הוצג כקרב בין מודלים. השבוע התברר שהוא הרבה יותר מזה. בעידן שבו כל השקה חדשה הופכת מיד לסמל של עליונות טכנולוגית, קל לשכוח שהמאבק האמיתי לא מתרחש על במות ההכרזה אלא מתחת לפני השטח. לא בין מודלים אלא בין מדינות, לא בין מהנדסים אלא בין מערכות שלמות שמנסות לשכפל, לעקוף או […]

הפוסט מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
המירוץ לבינה מלאכותית תמיד הוצג כקרב בין מודלים. השבוע התברר שהוא הרבה יותר מזה. בעידן שבו כל השקה חדשה הופכת מיד לסמל של עליונות טכנולוגית, קל לשכוח שהמאבק האמיתי לא מתרחש על במות ההכרזה אלא מתחת לפני השטח. לא בין מודלים אלא בין מדינות, לא בין מהנדסים אלא בין מערכות שלמות שמנסות לשכפל, לעקוף או לבלוע את היתרון של היריב. המסמך שאנטרופיק פרסמה אינו עוד תלונה על שימוש לרעה ב‑API. הוא הצצה נדירה לאופן שבו תחרות טכנולוגית בין מעצמות נראית בעידן שבו "גניבת קניין רוחני" כבר לא מתבצעת דרך קבצים אלא דרך מיליוני שיחות עם מודל שמנסה להבין מי בדיוק מדבר איתו. 24 אלף חשבונות מזויפים. 16 מיליון אינטראקציות. רשתות פרוקסי שמתחזות למשתמשים לגיטימיים. זה לא האקינג, זו תעשייה. וזה לא סיפור על שלוש מעבדות סיניות, זה סיפור על מאבק על מוחם של המודלים.

 

הציוץ של אנטרופיק על ״גניבת המוח״ של קלוד

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשקיצור דרך הופך לנשק

דיסטילציה היא לא המצאה סינית. מעבדות משתמשות בה כבר שנים על מודלים שלהן עצמן: מאמנים מודל קטן על הפלטים של מודל גדול, וכך מקצרים את הדרך ליכולות שבעבר דרשו זמן רב ומשאבי עיבוד משמעותיים. זו פרקטיקה לגיטימית, יעילה ונפוצה. הבעיה מתחילה כשהיא מתבצעת על מודל של גורם אחר, ללא הסכמה ובקנה מידה תעשייתי.

 

אנטרופיק טוענת שהנזק כאן אינו רק מסחרי אלא גם ביטחוני. קלוד בנוי עם שכבות הגנה שמונעות ממנו לסייע בפיתוח נשק, בתכנון מתקפות סייבר ובמשימות שעלולות לסכן חיים. מודל שנוצר מדיסטילציה לא מורשית לא שומר על ההגנות האלה. ואם הוא נפתח לציבור, כפי שקורה עם חלק מהמודלים הסיניים, הסיכון כבר לא נשאר בתוך המעבדה.

הממים שהפכו את הסיפור למראה של התעשייה

אבל הסיפור לא נשאר רק במסמך של אנטרופיק. בתוך שעות, X התמלא בממים - לאו דווקא רק כבדיחה, אלא כתגובה אינסטינקטיבית של התעשייה. האינטרנט עשה מה שהוא עושה הכי טוב וזיקק את המורכבות לכמה תמונות חדות שהפכו את האירוע הזה למשהו רחב בהרבה מהאשמה טכנית.

 

מאחורי ההומור הסתתרה אמת לא נוחה - בעידן שבו כל מודל מאומן על דאטה ציבורי, השאלה מי בדיוק גונב ממי הופכת פחות ופחות ברורה.

 

כדי ללכוד את רוח השיח שהתפרץ סביב הפרסום, הנה כמה ממים בולטים - עדות תרבותית לרגע שבו התעשייה הסתכלה על עצמה במראה:

 

איך התעשייה קלטה את הסיפור

חלק מהממים (memes) שהציפו את X אחרי פרסום אנטרופיק

שלושה קמפיינים, שלוש אסטרטגיות

מה שמפתיע במסמך אינו רק קנה המידה אלא גם הפיזור. כל אחת מהמעבדות פעלה אחרת, וכשמחברים את שלושתן מתקבלת תמונה שיטתית.

 

DeepSeek ביצעה יותר מ‑150 אלף שיחות שהתמקדו בתהליכי החשיבה הפנימיים של קלוד, לא רק בפלט. זה הנכס שאנטרופיק השקיעה בו שנים ושאינו זמין בשוק הפתוח. בנוסף, DeepSeek ייצרה גרסאות מצונזרות לשאלות פוליטיות רגישות, כנראה כדי לאמן מודל שיוכל לעקוף מגבלות פנימיות בסין, לא רק להתחרות בחו"ל.

 

Moonshot AI, מפתחי Kimi, ביצעה 3.4 מיליון שיחות שהתמקדו ביכולות סוכנים, כלומר AI שפועל בעולם ולא רק עונה על שאלות. הפרט החריג שאנטרופיק מוסיפה הוא שניתן היה לקשר חלק מחשבונות ההונאה לפרופילים ציבוריים של עובדים בכירים בחברה. לא משתמשים אנונימיים, אלא אנשים עם שמות ותפקידים.

 

MiniMax ביצעה 13 מיליון שיחות. אנטרופיק זיהתה את הקמפיין בזמן אמת, עוד לפני שהמודל החדש הושק. כשאנטרופיק פרסמה עדכון לקלוד, MiniMax העבירה כמעט מחצית מהתעבורה שלה למודל החדש בתוך יממה. מישהו שם עקב מקרוב ופעל במהירות.

 

ביחד, שלושת הקמפיינים מציירים תמונה של מעצמת AI שלא רק מפתחת מודלים אלא גם סופגת יכולות ממודלים של אחרים.

על כל ראש שנחסם, שניים ממשיכים

אנטרופיק אינה מאפשרת גישה מסחרית לקלוד מסין. כדי לעקוף את המגבלה הזו, המעבדות השתמשו במה שהחברה מכנה Hydra clusters - רשתות פרוקסי שמפעילות אלפי חשבונות מזויפים בו זמנית. כשחשבון נחסם, אחר נכנס מיד במקומו. בשיא, אנטרופיק זיהתה רשת עם יותר מ‑20 אלף חשבונות פעילים. חלקם נועדו לשאוב יכולות, אחרים נועדו להיראות כמו משתמשים לגיטימיים כדי להקשות על הזיהוי.

 

השם Hydra אינו מקרי. במיתולוגיה היוונית, כל ראש שנחתך הוליד שניים חדשים. כך נראו גם הקמפיינים האלה, כמו מערכת שממשיכה לפעול גם כשהיא מזוהה ומנסים להפריע לה.

 

בתגובה, אנטרופיק פיתחה מסווגים אוטומטיים לזיהוי דפוסי דיסטילציה, שיתפה מידע עם מעבדות אחרות וחיזקה את בקרות הגישה. המסקנה שלה ברורה - הבעיה גדולה מכדי שחברה אחת תטפל בה לבד, וגדולה מכדי להישאר בגדר שימוש לרעה ב‑API.

הטיעון שמסתתר מאחורי הנתונים

מעבר להאשמות, המסמך מציג טיעון גיאופוליטי. בשנתיים האחרונות, קפיצות הביצועים של מעבדות סיניות העלו שוב ושוב את אותה שאלה. R1 של DeepSeek ערער את ההנחה שיתרון אמריקאי ב‑AI הוא קבוע. Kimi ו‑MiniMax הגיעו לרמות שנחשבו עד לא מזמן לבלתי נגישות לחברות שפועלות תחת מגבלות שבבים. ובכל פעם, ההסבר המלא לא הופיע.

 

16 מיליון שיחות מזויפות הן לא ניסוי שיווקי, הן תשתית אימון. ואם חלק ממה שמוצג כחדשנות סינית נשען על הפנמה שיטתית של יכולות אמריקאיות, אז מדיניות ייצוא שבבים מחמירה מקבלת היגיון רחב יותר מהגנה תחרותית. היא מגבילה לא רק פיתוח ישיר, אלא גם את קנה המידה שבו מבצעי דיסטילציה כאלה יכולים להתבצע.

 

אנטרופיק לא כתבה את הטיעון הזה במפורש, אבל היא הניחה אותו על השולחן. והשאלה שנותרה פתוחה היא עד כמה מהקפיצה הסינית ב‑AI של השנתיים האחרונות היא חדשנות מקורית, ועד כמה היא השתקפות של מה שנוצר בארצות הברית.

 

למסמך המלא של אנטרופיק, כנסו כאן.

הפוסט מי גונב ממי? פרשת הדיסטילציה שמטלטלת את תעשיית ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-china-distillation-attacks/feed/ 0
אנטרופיק מקריסה את מניות הסייבר https://letsai.co.il/anthropic-impact-cyber/ https://letsai.co.il/anthropic-impact-cyber/#respond Sun, 22 Feb 2026 10:59:38 +0000 https://letsai.co.il/?p=70307 כלי אבטחת הקוד החדש של אנטרופיק הצית מחדש את החשש בוול סטריט והעמיד את חברות הסייבר בעמדת הגנה. ביום שישי בערב, זמן קצר אחרי שהחברה שיחררה יכולת חדשה ל‑Claude Code, מניות סייבר מרכזיות החלו לרדת במהירות. השוק אולי רואה איום מיידי, אבל המציאות הטכנולוגית נוטה להיות איטית יותר, מורכבת יותר ולעיתים גם מפתיעה יותר. ובכל […]

הפוסט אנטרופיק מקריסה את מניות הסייבר הופיע ראשון בLet's AI בינה מלאכותית

]]>
כלי אבטחת הקוד החדש של אנטרופיק הצית מחדש את החשש בוול סטריט והעמיד את חברות הסייבר בעמדת הגנה. ביום שישי בערב, זמן קצר אחרי שהחברה שיחררה יכולת חדשה ל‑Claude Code, מניות סייבר מרכזיות החלו לרדת במהירות. השוק אולי רואה איום מיידי, אבל המציאות הטכנולוגית נוטה להיות איטית יותר, מורכבת יותר ולעיתים גם מפתיעה יותר. ובכל זאת, בתוך שעות נמחקו מיליארדי דולרים משווי חברות שנחשבו עד לא מזמן ליציבות. JFrog הישראלית הייתה בין הנפגעות הבולטות, עם ירידה של כרבע מערך המניה. זה המשך ישיר ל‑SaaSpocalypse מלפני שבועיים, כשהפעם המוקד עבר מעולם ה‑SaaS אל לב תעשיית האבטחה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

חתונה אדומה בסייבר?

הסיפור התחיל בתחילת החודש, כשאנטרופיק הציגה כלים חדשים שהבהילו את שוק התוכנה. אנליסטים כינו את זה “חתונה אדומה” או SaaSpocalypse, לא מתוך רצון לדרמה אלא פשוט משום שהשוק הגיב בפאניקה אמיתית - חברות SaaS גדולות איבדו ערך במהירות, והמשקיעים הבינו שהמודלים העסקיים המוכרים כבר לא חסינים מול יכולות AI מתקדמות.

 

העדכון האחרון של אנטרופיק, שהגיע ביום שישי, לקח את אותו חשש והפנה אותו לעבר תחום אחר - אבטחת מידע. אם לפני שבועיים זה היה עולם ה‑SaaS שנפגע, הפעם זהו תחום הסייבר שנכנס למערבולת.

 

הנפילה של JFrog

הנפילה של JFrog

Claude Code Security

Claude Code Security, שהושק בגרסת Preview, הוא תוספת חדשה לכלי הפיתוח של אנטרופיק. בניגוד לסורקי קוד מסורתיים שמחפשים תבניות מוכרות, קלוד פועל, כך טוענת החברה, ברמה שמזכירה חוקר אבטחה אנושי.

 

הוא לא רק עובר על הקוד, אלא מנסה להבין אותו:

  • הוא סורק את בסיס הקוד כולו ומאתר חולשות מורכבות, לא רק טעויות פשוטות.

  • הוא מציג למפתחים כיצד ניתן לנצל את הפרצה, שלב אחר שלב.

  • והוא מציע תיקון מוכן ליישום בלחיצת כפתור, ורק לאחר אישור מפורש של המשתמש.

באנטרופיק מדגישים שהכלי אינו מסתפק בזיהוי דפוסים. הוא עוקב אחרי זרימת המידע, מבין את האינטראקציות בין רכיבי המערכת ומוודא שכל חולשה שהוא מציג היא אמיתית. לטענתם, הוא מצמצם משמעותית את בעיית ה‑False positives שמאפיינת כלים מסורתיים.

 

בבדיקות פנימיות, תוך שימוש במודל Claude Opus 4.6, הכלי מצא יותר מחמש מאות חולשות בפרויקטים קיימים של קוד פתוח, חלקן חבויות שם שנים. זה נתון שמספיק כדי לגרום לכל מנהל אבטחה לעצור ולחשוב. האם מדובר בפריצת דרך או בהבטחה מוגזמת? נחכה ונראה.

מהסטארט-אפ של קהילת הקוד הפתוח לחזית הסערה

JFrog הוקמה על ידי שלושה מפתחים ישראלים שביקשו לפתור בעיה יומיומית - ניהול מסודר, אמין ומהיר של חבילות תוכנה. החברה צמחה מתוך קהילת הקוד הפתוח והפכה עם השנים לשחקנית מרכזית בניהול שרשרת אספקת התוכנה - תחום שהפך קריטי ככל שהפיתוח המודרני נשען על אינספור רכיבים חיצוניים.

 

החיבור הזה לקוד פתוח הפך את JFrog לשם מוכר בקרב מפתחים, והחברה בנתה לעצמה מעמד יציב בשוק. דווקא משום כך, הנפילה החדה במניה ביום שישי נראתה מפתיעה. חברה עם בסיס לקוחות רחב, מוצרי אבטחה מתקדמים ודוחות חזקים מוצאת את עצמה נגררת למטה בעקבות כלי AI שנמצא עדיין בגרסת Preview.

כשהסייבר פוגש את וול סטריט

התגובה בשוק הייתה מהירה וברורה. CrowdStrike ו‑Okta איבדו כמעט עשרה אחוזים מערכן, Cloudflare ירדה בכמעט שמונה אחוזים ו‑GitLab רשמה ירידה דומה. JFrog בלטה במיוחד - המניה פתחה את יום המסחר סביב חמישים דולר וסיימה אותו מתחת לארבעים - ירידה חדה שממחישה עד כמה המשקיעים רגישים לכל רמז לשיבוש בענף.

 

הדבר הבולט הוא שהמדדים הכלליים דווקא עלו באותו יום. הירידות היו ממוקדות בחברות הסייבר בלבד, מה שמרמז שהשוק פירש את העדכון של אנטרופיק כאיום ישיר על מודלים עסקיים קיימים בתחום.

ומה אומרים ב- JFrog?

לפי גורמים בחברה, התגובה בשוק מוגזמת. ב‑JFrog מדגישים שהכלי של אנטרופיק אינו מתחרה ישיר במוצרי החברה, ושמדובר בפרשנות יתר של המשקיעים. הדוחות האחרונים של החברה היו חזקים במיוחד - ההכנסות עלו בעשרים וחמישה אחוזים ושורת הרווח עקפה את התחזיות. במילים אחרות, הביצועים בפועל טובים, והירידה במניה משקפת בעיקר את מצב הרוח בשוק ולא את מצב החברה.

 

גם חלק מהאנליסטים סבורים שהמכירה הייתה חדה מדי, ויש מי שרואים בה הזדמנות קנייה. אבל בשוק שמגיב בחשש לכל סימן של אי‑ודאות, ההיגיון הפיננסי לא תמיד גובר על האינסטינקט.

AI כתחליף, לא רק כלי עזר

הכלי של אנטרופיק פועל כרגע בנישה מוגדרת יחסית - סריקת קוד - אבל המשקיעים רואים בו סימן מקדים. אם מודל AI מסוגל לנתח קוד ברמה שמזכירה חוקר אבטחה, עולה השאלה אילו משימות נוספות יוכל לבצע בעתיד, כאלה שבעבר דרשו מערכות ייעודיות.

 

החשש הוא שהגל הנוכחי הוא רק הראשון. כפי שכלי AI החלו להשפיע על שוק ה‑SaaS, הם עשויים להתחיל לכרסם גם בשוק הסייבר, שנחשב במשך שנים לאחד היציבים והצומחים ביותר. עבור משקיעים שמעדיפים ודאות, זו התפתחות מטרידה.

 

העובדה שכלי AI כבר היו מעורבים באירועי סייבר רחבי היקף רק מגבירה את הדאגה. אם מודלים יכולים לזהות חולשות, הם עשויים, בתנאים מסוימים, לסייע גם לתוקפים להבין אותן.

לאן כל זה הולך

האירוע האחרון מציב את תעשיית הסייבר בנקודת מבחן. מצד אחד, כלי AI שמסוגלים לבצע חלק מעבודת האבטחה עשויים לשפר את איכות הקוד ולהפחית סיכונים. מצד שני, הם מעלים שאלות לגבי מודלים עסקיים קיימים וחברות שביססו את מעמדן על פתרונות ייעודיים.

 

JFrog וחברות דומות יצטרכו להראות שהערך שהן מספקות אינו ניתן להחלפה בלחיצת כפתור. המשקיעים, בינתיים, ימשיכו לעקוב מקרוב אחרי כל עדכון של אנטרופיק.

 

האם זהו תחילתו של עידן שבו מודלי AI הופכים לשחקנים מרכזיים באבטחת מידע, או שמדובר בגל קצר של חרדה? התשובה תתבהר רק בהמשך, אך ברור שמשהו עמוק משתנה במאזן הכוחות של עולם התוכנה.

הפוסט אנטרופיק מקריסה את מניות הסייבר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-impact-cyber/feed/ 0
גוגל מציגה את ג’מיני 3.1 פרו https://letsai.co.il/gemini-3-1-pro/ https://letsai.co.il/gemini-3-1-pro/#respond Fri, 20 Feb 2026 14:26:08 +0000 https://letsai.co.il/?p=70276 גוגל השיקה את Gemini 3.1 Pro עם נתון אחד שמסביר את גודל המהלך: ציון של שבעים ושבע נקודה אחת אחוז במבחן ARC‑AGI‑2, מבחן שבודק את היכולת לפתור דפוסי לוגיקה חדשים שלא הופיעו באימון. זה שיפור של יותר מפי שניים מהגרסה הקודמת, והוא מסמן שינוי כיוון ברור ממודל שמספק תשובות למערכת שמבצעת משימות מורכבות מקצה לקצה. […]

הפוסט גוגל מציגה את ג’מיני 3.1 פרו הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל השיקה את Gemini 3.1 Pro עם נתון אחד שמסביר את גודל המהלך: ציון של שבעים ושבע נקודה אחת אחוז במבחן ARC‑AGI‑2, מבחן שבודק את היכולת לפתור דפוסי לוגיקה חדשים שלא הופיעו באימון. זה שיפור של יותר מפי שניים מהגרסה הקודמת, והוא מסמן שינוי כיוון ברור ממודל שמספק תשובות למערכת שמבצעת משימות מורכבות מקצה לקצה.

 

ג'מיני 3.1 פרו מציג קפיצה ביכולות ההסקה והביצוע של גוגל, ומסמן מעבר ממודלי שיחה לסוכני עבודה שמבצעים משימות מורכבות מקצה לקצה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה עומד מאחורי המהלך

ההשקה הנוכחית היא לא עוד עדכון גרסה. גוגל מנסה להגדיר מחדש את תפקיד המודלים שלה: לא כלי שיחה, אלא תשתית לסוכני עבודה, מערכות שמבינות משימה, מפרקות אותה לשלבים ומבצעות אותה בפועל.

 

הבלוג הרשמי של החברה מדגיש זאת במפורש: ״3.1Pro is designed for tasks where a simple answer isn’t enough״. זו אמירה שממקמת את המודל בלב המאמץ של גוגל לחזור לעמדה תחרותית, במיוחד מול מודלים שמצטיינים בשיחה אך פחות בביצוע.

 

המנכ״ל מצייץ על המודל החדש

סונדאר פיצ׳אי , מנכ״ל גוגל, מציץ על זמינות ויכולות המודל החדש

קפיצה ביכולות ההסקה

הציון במבחן ARC‑AGI‑2 אינו רק הישג טכני. זהו מדד ליכולת לפתור בעיות מופשטות, משימות שבהן אין תשובה מוכנה שאפשר לשלוף מהאימון.

 

במבחנים נוספים, כמו Terminal‑Bench ו‑BrowseComp, המודל מציג שיפור עקבי ביכולות תכנון, חיפוש, קידוד וביצוע. המשמעות היא פחות ניסוי וטעייה ויותר פתרונות שמבינים את מבנה הבעיה.

 

ג'מיני 3.1 פרו מציג קפיצה ביכולות ההסקה והביצוע של גוגל

קפיצה ביכולות ההסקה והביצוע | google.blog

סוכנים שמבצעים משימות שלמות

אחד הדגשים המרכזיים בהשקה הוא היכולת של המודל לבצע רצפי עבודה מלאים, כאלה שמתחילים בהבנת המשימה ומסתיימים במוצר עובד.

 

Gemini 3.1 Pro יודע לתכנן את השלבים, לכתוב את הקוד הדרוש, לחבר ממשקי API, לבנות את הממשק ולבדוק את התוצאה עד שהיא עומדת בדרישות.

 

בדוגמה הרשמית, הוא בנה דאשבורד חי למעקב אחרי תחנת החלל הבינלאומית, כולל אינטגרציה למקור נתונים בזמן אמת. זה שינוי מהותי - לא עוד בקשה לקטע קוד נקודתי, אלא יכולת לבנות מערכת שלמה. 

 

הנה דוגמה שבה המודל בונה מערכת חיה מאפס - כולל החיבור לנתוני חלל בזמן אמת:

 

קוד, סימולציות ומה שביניהם

Gemini 3.1 Pro מציג יכולות קידוד שממקמות אותו ככלי פיתוח של ממש. הוא יודע לבנות סימולציות תלת-ממד אינטראקטיביות, ליצור אפליקציות ווב שלמות ולתאם בין קוד צד לקוח וצד שרת תוך טיפול בזרימות נתונים מורכבות.

 

במבחני קוד כמו SWE‑Bench Verified ו‑SciCode הוא מציג שיפור מדוד לעומת הדור הקודם. עבור מפתחים זה מתורגם לפחות זמן על חיבורים טכניים, ועבור מנהלי מוצר זו הזדמנות להראות רעיון חי ולא רק מסמך.

 

הנה דוגמה שבה המודל הופך מוטיבים ספרותיים לעיצוב וקוד שמבטאים את האווירה של היצירה:

 

SVG מונפש בלחיצת טקסט

אחד החידושים הבולטים הוא היכולת לייצר קוד SVG נקי ומונפש ישירות מטקסט. המודל מבין היררכיה ויזואלית, תנועה וקומפוזיציה, ומפיק קבצים שמוכנים להטמעה באתר בלי צורך בעיבוד נוסף.

 

התוצאה היא קיצור משמעותי של הדרך בין רעיון לעיצוב אינטראקטיבי, תהליך שבדרך כלל דורש מעצב, מפתח ולפחות גרסה אחת בדרך.

 

הנה דוגמאות בהן המודל הופך טקסט לאנימציית SVG להטמעה בכל אתר:

 

 

זמינות רחבה - אבל ב‑Preview

המודל זמין כבר עכשיו ב‑Preview, צעד שמאפשר לגוגל לאסוף פידבק ולחדד את היכולות לפני השקה מלאה. הוא נגיש למפתחים דרך Google AI Studio, ה‑Gemini CLI ופלטפורמת Antigravity, לארגונים דרך Vertex AI, ולמשתמשים פרטיים באפליקציית Gemini וב‑NotebookLM עבור מנויי Pro ו‑Ultra.

 

הבלוג הרשמי מדגיש שהגרסה הזו נועדה לאמת את השיפורים לפני הפצה רחבה, מה שמבהיר שהיכולות מרשימות, אבל עדיין אינן מוצר סופי.

 

פותחים את התפריט ← לוחצים על Pro ← המודל עובר לגרסת 3.1 Pro.

פותחים את התפריט ← לוחצים על Pro ← המודל עובר לגרסת 3.1 Pro

מי מרוויח מהיכולות החדשות

למרות ההישגים, גוגל מקפידה להבהיר שהמודל הזה הוא ממש לא AGI, לא מציע זיכרון מתמשך ארוך טווח, לא פועל באוטונומיה מלאה ולא מבוסס על שינוי ארכיטקטוני מהותי. ההדגשה הזו משקפת זהירות, אולי גם ניסיון להימנע מהבטחות יתר שנשמעו בהשקות קודמות. ובכל זאת, מדובר במודל מתקדם מאוד שמסוגל לשפר משמעותית את העבודה של מי שנשען עליו.

 

עבור מפתחים, הוא מקצר את הדרך בין רעיון ל‑MVP ומספק קוד יציב שמרכיב מערכות שלמות במקום קטעים מבודדים. מנהלי מוצר נהנים מיכולת להציג רעיונות חיים ולבנות אבטיפוס במהירות, מה שמאיץ תהליכי אפיון. ארגונים מרוויחים מהחיבור העמוק לאקו־סיסטם של גוגל קלאוד ומהתקדמות ברורה לכיוון סוכני עבודה שמבצעים תהליכים מורכבים מקצה לקצה.

 

הנה עוד דוגמה מגניבה שבה המודל מייצר סימולציה תלת-ממדית אינטראקטיבית שמגיבה לתנועות המשתמש ולצליל:

 

פחות שיחה, יותר עשייה

Gemini 3.1 Pro מסמן בבירור את הכיוון שאליו גוגל מכוונת את הדור הבא של מודלי ה‑AI. מעבר ממערכות שמגיבות לטקסט למערכות שמבצעות משימות מורכבות מקצה לקצה. הוא מציג שיפור מדיד ביכולות ההסקה, התקדמות משמעותית במנגנוני הסוכנים, קפיצה ביכולות הקוד - כולל בניית אפליקציות, סימולציות וממשקים חיים - וחידושים ויזואליים שמצמצמים את המרחק בין רעיון לעיצוב.

 

זה מודל שמרגיש פחות כמו צ'אטבוט ויותר כמו שכבת ביצוע חכמה, כזו שמסוגלת לקחת בקשה מופשטת ולהפוך אותה למוצר עובד.

הפוסט גוגל מציגה את ג’מיני 3.1 פרו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-3-1-pro/feed/ 0
אנטרופיק משיקה את Claude Sonnet 4.6 https://letsai.co.il/claude-sonnet-4-6/ https://letsai.co.il/claude-sonnet-4-6/#respond Wed, 18 Feb 2026 10:43:47 +0000 https://letsai.co.il/?p=70175 השקת Claude Sonnet 4.6 מסמנת רגע משמעותי בהתפתחות משפחת המודלים של Anthropic. במקום עדכון קטן נוסף, מדובר בקפיצה רחבה שמקרבת את Sonnet לרמת הביצועים של מודלי העל, ובראשם Opus, אך במחיר נגיש ובזמינות מלאה לכל המשתמשים, כולל במסלול החינמי. השדרוגים נוגעים כמעט בכל יכולת מרכזית: כתיבת קוד, שימוש במחשב, תכנון ארוך טווח, ניתוח פיננסי, עבודה […]

הפוסט אנטרופיק משיקה את Claude Sonnet 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
השקת Claude Sonnet 4.6 מסמנת רגע משמעותי בהתפתחות משפחת המודלים של Anthropic. במקום עדכון קטן נוסף, מדובר בקפיצה רחבה שמקרבת את Sonnet לרמת הביצועים של מודלי העל, ובראשם Opus, אך במחיר נגיש ובזמינות מלאה לכל המשתמשים, כולל במסלול החינמי. השדרוגים נוגעים כמעט בכל יכולת מרכזית: כתיבת קוד, שימוש במחשב, תכנון ארוך טווח, ניתוח פיננסי, עבודה משרדית, עמידות בפני מתקפות, והבנת הקשר בהיקפים גדולים במיוחד. כך נוצר מודל שמסוגל לבצע משימות שבעבר דרשו מודלים יקרים בהרבה, ומציע חוויית שימוש יציבה, עקבית ומקצועית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שדרוג רוחבי שמגדיר מחדש את משפחת Sonnet

המהות של Sonnet 4.6 היא שיפור מקיף, לא תוספת נקודתית. אנטרופיק מתארת אותו כ"שדרוג מלא של יכולות המודל", והדבר ניכר בכל שכבת ביצוע: החל בכתיבה ותחזוקה של קוד באופן עקבי ומדויק יותר, דרך הבנה טובה יותר של הוראות מורכבות, ועד ירידה בהנדסת יתר ובטעויות לוגיות.

 

משתמשים מוקדמים דיווחו כי המודל קורא את ההקשר לפני שהוא משנה קוד, מאחד לוגיקה במקום לשכפל אותה, ומפגין פחות נטייה ל"עצלנות" או לטענות שווא להצלחה. כל אלה יוצרים חוויית עבודה חלקה ויציבה יותר, במיוחד בסשנים ארוכים.

 

הנתונים מחזקים את התרשמות המשתמשים. משתמשי Claude Code העדיפו את Sonnet 4.6 על Sonnet 4.5 ב-70 אחוז מהמקרים, ואף העדיפו אותו על Opus 4.5 ב-59 אחוז מהמקרים. זהו הישג משמעותי למודל שמחירו נותר זהה לדור הקודם, 3 דולר למיליון טוקנים נכנסים ו-15 דולר למיליון טוקנים יוצאים.

חלון הקשר שמאפשר לחשוב אחרת

אחד החידושים הבולטים ב‑Sonnet 4.6 הוא חלון הקשר של מיליון טוקנים, שזמין כעת בבטא. המשמעות המעשית של יכולת כזו היא אפשרות לכלול בבקשה אחת קודבייס שלם, חוזה משפטי ארוך או עשרות מאמרים אקדמיים, ולנתח אותם באופן אפקטיבי. זהו לא רק שיפור כמותי, אלא שינוי איכותי - המודל מסוגל לבצע תכנון ארוך טווח, לזהות קשרים בין חלקים רחוקים במסמך ולבנות אסטרטגיות מורכבות על בסיס מידע רב ומפוזר.

 

אסטרטגיית הצמיחה של Sonnet 4.6 בסימולציית ניהול עסק

אסטרטגיית הצמיחה של Sonnet 4.6 בסימולציית ניהול עסק

 

היכולת הזו בלטה במיוחד במבחן Vending‑Bench Arena, המדמה ניהול עסק לאורך זמן. Sonnet 4.6 אימץ אסטרטגיה יוצאת דופן, שבמסגרתה השקיע משאבים רבים בחודשים הראשונים ולאחר מכן עבר למיקוד חד במקסום רווחים. התזמון המדויק של המהלך העניק לו יתרון משמעותי, והוא סיים את הסימולציה הרבה לפני המתחרים. הגרף למעלה ממחיש זאת היטב: Sonnet 4.6 מגיע לכ‑6000 דולר בסוף התקופה, בעוד Sonnet 4.5 נע סביב 3000 דולר בלבד.

מהניסוי הראשוני ליכולות מעשיות

אחד התחומים שבהם Sonnet 4.6 מציג את הקפיצה הגדולה ביותר הוא שימוש במחשב. מאז שאנטרופיק הציגה לראשונה מודל כללי לשימוש במחשב באוקטובר 2024, מודל שתואר אז כ"עדיין ניסיוני, לעיתים מסורבל ושגוי", חל שיפור עקבי ומשמעותי. תקן הביצועים OSWorld מציג זאת בצורה ברורה - Sonnet 4.6 מגיע ל-72.5 אחוז ב‑OSWorld‑Verified, לעומת 61.4 אחוז ב‑Sonnet 4.5 ו‑42.2 אחוז ב‑Sonnet 4.0.

 

שיפור עקבי ביכולות שימוש במחשב

שיפור עקבי ביכולות שימוש במחשב

 

המשמעות המעשית של השיפור הזה היא יכולת לבצע פעולות שבעבר דרשו חיבורי API ייעודיים. המודל מסוגל לנווט בגיליונות מורכבים, למלא טפסים מרובי שלבים, לעבוד עם דפדפן, LibreOffice או VS Code, והכול באמצעות "עכבר ומקלדת וירטואליים". משתמשים מוקדמים דיווחו על ביצועים ברמה אנושית במשימות רבות, גם אם המודל עדיין רחוק מהמשתמשים המיומנים ביותר.

 

במקביל, אנטרופיק שיפרה את עמידות המודל בפני Prompt Injection, מתקפה שבה אתר מנסה להסתיר הוראות זדוניות. ההערכות הפנימיות מצביעות על שיפור משמעותי לעומת Sonnet 4.5, עם ביצועים הדומים לאלה של Opus 4.6. החוקרים תיארו את המודל כבעל "אופי חם, כן ופרו-חברתי", ללא סימנים לבעיות יישור (Alignment) חמורות.

עלייה עקבית בביצועים

הנתונים המלאים מציגים תמונה ברורה - Sonnet 4.6 משפר את Sonnet 4.5 כמעט בכל תחום, ולעיתים אפילו מתקרב או עוקף את Opus 4.5. כך למשל, במדד BrowseComp לחיפוש אינטרנטי הוא מזנק מ‑43.9 אחוז ל‑74.7 אחוז, ובמבחן ARC‑AGI‑2 לפתרון בעיות חדשות הוא עולה מ‑13.6 אחוז ל‑58.3 אחוז.

 

גם במדד GDPval‑AA Elo, הבוחן ביצועים במשימות משרדיות, נרשמת עלייה משמעותית מ‑1276 ל‑1633. בתחום הניתוח הפיננסי המודל מטפס מ‑54.5 אחוז ל‑63.3 אחוז. מעבר לכך, Sonnet 4.6 מציג שיפור עקבי גם בקידוד טרמינלי, שימוש בכלים, חיפוש, תכנון רב תחומי ופתרון בעיות ברמת תואר שני, מה שמחזק את ההבנה שמדובר בשדרוג רחב ולא נקודתי.

 
Sonnet 4.6 משפר את Sonnet 4.5 כמעט בכל תחום

Sonnet 4.6 משפר את Sonnet 4.5 כמעט בכל תחום

זמינות, כלים ושימושים מעשיים

Sonnet 4.6 זמין כעת בכל פלטפורמות Claude, ובהן claude.ai, Claude Cowork, Claude Code, ה‑API וכל ספקי הענן הגדולים. המסלול החינמי שודרג אוטומטית למודל החדש, והוא כולל כעת תמיכה ביצירת קבצים, שימוש ב‑connectors, הפעלת כלים ו‑compaction, מה שמרחיב משמעותית את היכולות הזמינות לכל משתמש ללא עלות.

 

בתוסף Excel, קלוד תומך כעת ב‑MCP connectors, המאפשרים חיבור ישיר למקורות מידע כמו S&P Global, LSEG, Daloopa, PitchBook, Moody’s ו‑FactSet. יכולת זו מאפשרת למשוך נתונים חיצוניים ישירות לגיליון העבודה, בלי לעזוב את סביבת Excel ובלי צורך בתהליכי אינטגרציה מורכבים.

 

ב‑API, כלי החיפוש וה‑fetch כותבים ומריצים קוד באופן אוטומטי כדי לסנן תוצאות ולהשאיר רק את המידע הרלוונטי. כך משתפרת איכות התשובות, ונעשה שימוש יעיל יותר בטוקנים, במיוחד במשימות המחייבות עיבוד של כמויות מידע גדולות.

עתיד משפחת Sonnet

לצד ההתקדמות המרשימה, אנטרופיק מדגישה כי המודל עדיין נחות מהאדם בשימוש במחשב, וכי Prompt Injection נותר איום ממשי גם אם קטן יותר. ועדיין, ברור ש‑Claude Sonnet 4.6 מייצג שלב משמעותי באבולוציה של מודלים בינוניים‑מתקדמים.

 

הוא מצליח להציע ביצועים הקרובים למודלי העל, אבל במחיר נגיש ובזמינות רחבה, ומשלב חלון הקשר גדול במיוחד, יכולות שימוש במחשב ברמה גבוהה, שיפור עקבי בקוד ובתכנון ועמידות בטיחותית משופרת. עבור מפתחים, אנליסטים וארגונים, מדובר בכלי עבודה שמרחיב את גבולות האפשרי ומאפשר לבצע משימות שבעבר דרשו מודלים יקרים בהרבה. Sonnet 4.6 הוא לא רק עדכון, אלא הצהרה ברורה על הכיוון שאליו אנטרופיק מכוונת את עתיד הבינה המלאכותית.

הפוסט אנטרופיק משיקה את Claude Sonnet 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-sonnet-4-6/feed/ 0
ג’מיני 3 Deep Think זו בינה מלאכותית שמתחילה לחשוב כמו חוקר https://letsai.co.il/gemini-3-deep-think/ https://letsai.co.il/gemini-3-deep-think/#comments Mon, 16 Feb 2026 10:32:31 +0000 https://letsai.co.il/?p=70042 גוגל מציגה שדרוג משמעותי ל‑Gemini 3 Deep Think, מצב החשיבה המתקדם שלה, שמיועד להרחיב את יכולות הבינה המלאכותית מעבר לשיחה ולסיכום טקסטים. הגרסה החדשה מתמקדת בהתמודדות עם בעיות מורכבות במדע, הנדסה ומתמטיקה, ובעיקר עם מצבים שבהם אין פתרון יחיד ולעיתים אפילו אין הגדרה ברורה לבעיה. המטרה היא להפוך את Deep Think לכלי עבודה אמיתי עבור […]

הפוסט ג’מיני 3 Deep Think זו בינה מלאכותית שמתחילה לחשוב כמו חוקר הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל מציגה שדרוג משמעותי ל‑Gemini 3 Deep Think, מצב החשיבה המתקדם שלה, שמיועד להרחיב את יכולות הבינה המלאכותית מעבר לשיחה ולסיכום טקסטים. הגרסה החדשה מתמקדת בהתמודדות עם בעיות מורכבות במדע, הנדסה ומתמטיקה, ובעיקר עם מצבים שבהם אין פתרון יחיד ולעיתים אפילו אין הגדרה ברורה לבעיה. המטרה היא להפוך את Deep Think לכלי עבודה אמיתי עבור חוקרים ומהנדסים, ולא רק לעוזר טקסטואלי שמגיב לשאלות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מדע אמיתי הוא מבולגן ו‑Deep Think נבנה בדיוק לזה 

בעולם המחקר, המציאות רחוקה מלהיות מסודרת. נתונים מגיעים באופן חלקי, הנחות אינן תמיד מוגדרות היטב ולעיתים אין תשובה אחת נכונה. מדענים ומהנדסים פועלים בתוך מרחב של אי ודאות, ניסוי וטעייה, והסקת מסקנות מתוך מידע לא מושלם. מודלי שפה רגילים מתקשים להתמודד עם מצבים כאלה, משום שהם מותאמים בעיקר למשימות סגורות וברורות.

 

כאן נכנס Deep Think. גוגל פיתחה את הגרסה החדשה בשיתוף פעולה הדוק עם חוקרים מתחומי המתמטיקה, הפיזיקה, הכימיה וההנדסה, במטרה ליצור מודל שמסוגל להתמודד עם בעיות שאין להן מסלול פתרון מוגדר. במקום להסתפק בשליפה מהירה של ידע, המודל מנתח בעיות מורכבות, מפרק אותן לשלבים לוגיים, מציע כיווני חקירה ומייצר פתרונות הניתנים לבדיקה.

 

הדוגמאות מהשטח ממחישות את זה מצוין - מתמטיקאית שהשתמשה בו כדי לחשוף כשל לוגי במאמר מדעי שעבר ביקורת עמיתים אנושית, ומעבדה באוניברסיטת דיוק נעזרה בו כדי לייצר מתכון לגידול גבישים, תהליך שבדרך כלל דורש זמן וניסויים רבים.

יכולת חדשה שמחברת בין רעיון למוצר

אחד החידושים הבולטים בשדרוג הנוכחי הוא היכולת להתחיל מסקיצה ידנית פשוטה ולהפוך אותה לקובץ תלת ממד מוכן להדפסה. המשתמש מצייר צורה בסיסית, והמודל מנתח אותה, משלים את הגאומטריה המורכבת וממיר אותה למודל הנדסי מלא.

 

זה יישום שמדגים היטב את יכולתו של Deep Think לגשר בין חשיבה תיאורטית לבין תוצר הנדסי ממשי, ומקרב אותו לתפקיד של עוזר תכנון ולא רק של מחולל טקסט.

 

איך זה עובד 

Deep Think אינו עוד מודל שפה. הוא משלב ידע מדעי רחב בתחומי הפיזיקה, הכימיה והמתמטיקה עם יכולת לבצע ניתוחים אלגוריתמיים מורכבים. הוא מבין טקסט, תמונות ושרטוטים, מסוגל לכתוב ולהריץ קוד, ואז לפרק בעיות לשלבים לוגיים.

 

במילים אחרות, הוא מתפקד יותר כמו עוזר מחקר מאשר כמו כלי טקסטואלי. היכולת להבין שרטוטים, להריץ סימולציות ולבנות מודלים פיזיקליים הופכת אותו לכלי שמסוגל לגשר בין תיאוריה ליישום, יכולת שחסרה ברוב המודלים עד היום.

ביצועים חסרי תקדים 

היכולות של Deep Think מגובות בנתונים מרשימים במיוחד. המודל מציג קפיצה משמעותית במבחני חשיבה אקדמיים ומוביל כמעט בכל קטגוריה. במבחני ARC‑AGI‑2, שנועדו לבדוק חשיבה מופשטת, הוא מגיע ל‑84.6 אחוז, תוצאה חסרת תקדים שאומתה על ידי ARC Prize Foundation. לשם השוואה, Claude Opus 4.6 מגיע ל‑68.8 אחוז, GPT‑5.2 ל‑52.9 אחוז ו‑Gemini 3 Pro Preview ל‑31.1 אחוז.

 

המודל מציג קפיצה משמעותית במבחני חשיבה אקדמיים ומוביל כמעט בכל קטגוריה

Credit: blog.google

 

ב‑Humanity’s Last Exam, מבחן שמעריך את יכולתם של מודלים להתמודד עם שאלות אקדמיות מורכבות, Deep Think מוביל עם 48.4 אחוז ללא כלים ו‑53.4 אחוז כאשר מופעלים חיפוש והרצת קוד. גם במדעי הטבע הוא מציג ביצועים ברמת מדליית זהב בגרסאות הכתובות של אולימפיאדות 2025: 81.5 אחוז במתמטיקה, 87.7 אחוז בפיזיקה, 82.8 אחוז בכימיה ו‑50.5 אחוז בתורת חומר מעובה, תחום שנחשב מאתגר במיוחד גם עבור חוקרים מנוסים.

 

Deep Think מוביל כמעט בכל מבחן, ולעיתים בפער משמעותי.

Credit: blog.google

 

בתחום הקוד והאלגוריתמים, המודל מגיע לדירוג Elo של 3455 ב‑Codeforces, רמה שממקמת אותו בליגה של מתכנתים תחרותיים מהשורה הראשונה. הפערים בין המודלים ברורים - Deep Think מוביל כמעט בכל מבחן, ולעיתים בפער משמעותי.

מעבר מהפשטה ליישום

החידוש המרכזי ב‑Deep Think אינו מסתכם בציונים הגבוהים, אלא ביכולת לגשר בין תיאוריה ליישום מעשי. בעוד שמודלים קודמים הצטיינו בפתרון בעיות מוגדרות היטב, Deep Think מתוכנן להתמודד גם עם נתונים חלקיים, בעיות פתוחות וניסוח השערות. הוא מסוגל לבנות מודלים פיזיקליים, ליצור קוד סימולציה, לנתח שרטוטים הנדסיים ולתכנן תהליכים ניסיוניים. במובן זה, הוא אינו רק המודל החזק ביותר, אלא כזה שמנסה להיות הכלי השימושי ביותר עבור מי שעוסק במדע אמיתי.

מי יכול להשתמש בו כבר עכשיו

העדכון מתחיל להתגלגל כבר היום למנויי Google AI Ultra, שיכולים למצוא את מצב החשיבה החדש בתפריט הכלים של אפליקציית Gemini. במקביל, חוקרים ומהנדסים יכולים להירשם לגישה מוקדמת דרך ה‑API, במסגרת תוכנית שמטרתה להביא את Deep Think לסביבות שבהן הוא נדרש באמת, כלומר כחלק מתהליכי עבודה מדעיים.

תחילתו של עידן חדש במחקר מבוסס AI

למרות ההישגים המרשימים, גוגל אינה מציגה את Deep Think כתחליף למדענים. חלק מהדוגמאות שהוצגו הן ניסיוניות, ולא ברור עד כמה הן מייצגות שימוש יומיומי. יש תחומים שבהם המודל עדיין חלש יותר, כמו (CMT) תורת חומר מעובה, ענף בפיזיקה שחוקר את התנהגותם של חומרים מורכבים כמו מוליכי על ומבנים גבישיים, וכמו כל מערכת בינה מלאכותית הוא עלול לטעות. ובכל זאת, הכיוון הכללי ברור: AI הופך לכלי עבודה מדעי, לא רק לכלי מידע.

 

אם המגמה תימשך, ייתכן שנראה האצה משמעותית של ניסויים מדעיים, קיצור זמן פיתוח בהנדסה, יכולת לנתח מאמרים ולזהות כשלים לוגיים, ויצירה של מודלים פיזיקליים מורכבים בלחיצת כפתור. Deep Think מסמן את תחילתו של עידן שבו מודלים אינם רק עוזרי טקסט, אלא שותפים פעילים בתהליך החקירה המדעית.

הפוסט ג’מיני 3 Deep Think זו בינה מלאכותית שמתחילה לחשוב כמו חוקר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-3-deep-think/feed/ 1
Claude מנגיש כלים מתקדמים למנויים חינמיים https://letsai.co.il/claude-free-tier/ https://letsai.co.il/claude-free-tier/#respond Mon, 16 Feb 2026 06:34:15 +0000 https://letsai.co.il/?p=69916 Anthropic פתחה בפני כלל המשתמשים את יכולות הפרימיום של Claude, ובהן יצירת קבצים, אינטגרציות עמוקות עם אפליקציות עבודה ו-Skills מותאמים אישית. לצד שדרוגים במצב הקול, בחיפוש תמונות וביכולת לנהל שיחות ארוכות, החברה מציבה רף חדש לחוויית AI חינמית שמרגישה שלמה ומקצועית. עם זאת, חלק מהיכולות המתקדמות יותר, כמו מודל Opus, מגבלות שימוש גבוהות, Reasoning מורחב, […]

הפוסט Claude מנגיש כלים מתקדמים למנויים חינמיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
Anthropic פתחה בפני כלל המשתמשים את יכולות הפרימיום של Claude, ובהן יצירת קבצים, אינטגרציות עמוקות עם אפליקציות עבודה ו-Skills מותאמים אישית. לצד שדרוגים במצב הקול, בחיפוש תמונות וביכולת לנהל שיחות ארוכות, החברה מציבה רף חדש לחוויית AI חינמית שמרגישה שלמה ומקצועית. עם זאת, חלק מהיכולות המתקדמות יותר, כמו מודל Opus, מגבלות שימוש גבוהות, Reasoning מורחב, זיכרון מתמשך, מחקר אינטרנט ואינטגרציות Office, עדיין זמינות רק למנויים בתשלום.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

חינמי שלא מאפשר עבודה אמיתית

עד לא מזמן, משתמשים שבחרו בגרסה החינמית של מודלי שיחה נתקלו במגבלות ברורות. הם לא יכלו ליצור מסמכים מורכבים, לא נהנו מאינטגרציות עם כלים חיצוניים, ולא יכלו להגדיר תהליכי עבודה קבועים. הפער בין משתמשים מזדמנים למקצוענים לא היה רק עניין טכני, אלא קבע בפועל מי יכול להסתמך על AI ככלי עבודה מלא ומי נאלץ להסתפק בפתרון בסיסי שמרגיש ניסיוני.

 

במקביל, חלק מהחברות בשוק החלו לבחון מודלים חינמיים המבוססים על פרסומות, כאשר OpenAI היא הדוגמה הבולטת. Anthropic זיהתה את המגמה הזו ובחרה להציע כיוון אחר: חוויית שימוש מקצועית, מלאה וללא פרסומות.

כלים מקצועיים לכולם

העדכון החדש של Claude משנה את כללי המשחק עבור משתמשים חינמיים, ומביא אליהם שלוש יכולות מרכזיות שהיו עד לאחרונה זמינות רק למנויים בתשלום:

יצירת קבצים מתקדמת

Claude מסוגל כעת ליצור ולערוך קבצים מסוג Excel, PowerPoint, Word ו-PDF ישירות מתוך השיחה, באמצעות מודל Sonnet 4.5. המשמעות היא שהצ'אט הופך לכלי עבודה מלא, שמסוגל להפיק תוצרים שלמים ולא רק טקסט גולמי.

Connectors: אינטגרציה עמוקה עם אפליקציות עבודה

משתמשים חינמיים מקבלים גישה ל-Connectors, המאפשרים ל-Claude לבצע פעולות בתוך שירותים כמו Google Workspace, Slack, Notion, Canva, Figma, דוא״ל ויומן. כך ניתן לתזמן פגישות, ליצור מסמכים בענן, לשלוח מיילים או להפיק עיצובים - הכול מתוך ממשק אחד רציף.

Skills: הוראות מותאמות אישית שמופעלות אוטומטית

המשתמש יכול להגדיר מיומנויות קבועות, כמו כללי ניסוח לדוחות, עיצוב מצגות או עמידה בקווים מנחים של מותג. Claude מפעיל את ההנחיות הללו באופן אוטומטי, ללא צורך להזכיר אותן בכל שיחה מחדש, מה שמאפשר עבודה עקבית ומהירה יותר.

שדרוג חוויית השיחה 

מעבר לכלים החדשים, Anthropic שיפרה גם את חוויית השיחה עצמה. המערכת תומכת כעת בהקשרים ארוכים יותר באמצעות מנגנון דחיסה אוטומטי, שמאפשר להמשיך שיחה רציפה בלי צורך להתחיל אותה מחדש. בנוסף, נוספו תצוגות אינטראקטיביות עשירות, מצב קול משופר לשימוש בדרכים וחיפוש תמונות מדויק ומהיר יותר.

 

עם זאת, החברה שומרת על בידול ברור בין הגרסה החינמית למנויים בתשלום. מודל Opus, מגבלות שימוש גבוהות יותר, Reasoning מתקדם, זיכרון מתמשך, מחקר אינטרנט, אינטגרציות Office ויכולות אייג׳נטיות ממשיכים להיות חלק מהשכבות המתקדמות בתשלום.

סטנדרט חדש לחינמי בעולם ה‑AI 

המהלך של Anthropic מציב רף חדש למה שמשתמשים יכולים לצפות לקבל מגרסה חינמית של מודל שיחה (בטח ממודל כמו קלוד). הוא מרחיב את הגישה לכלי עבודה מתקדמים שהיו עד לאחרונה פריבילגיה של מנויים, ומציע חוויית שימוש מלאה.

 

למרות שחלק מהיכולות המתקדמות נותרות בתשלום, הכיוון הכללי ברור - יותר כוח בידי המשתמשים, פחות מגבלות מלאכותיות, ומודל חינמי שמרגיש יותר כמו מוצר שלם ולא גרסה מצומצמת.

 

עבור רבים, בעיקר משתמשים שרוצים לעבוד עם קלוד ולמצות את היכולות שלו גם ללא מנוי, זהו שינוי שמגדיר מחדש את האיזון בין נגישות ליכולות, ומאותת על תחרות בריאה יותר בשוק ה‑AI.

הפוסט Claude מנגיש כלים מתקדמים למנויים חינמיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-free-tier/feed/ 0
איך Claude מצא את עצמו בלב מבצע צבאי אמריקאי https://letsai.co.il/claude-in-venezuela-operation/ https://letsai.co.il/claude-in-venezuela-operation/#respond Sun, 15 Feb 2026 11:11:58 +0000 https://letsai.co.il/?p=69896 בחודש שעבר, בזמן שכוחות מיוחדים של צבא ארצות הברית פשטו על כמה אתרים בקראקס במטרה ללכוד את נשיא ונצואלה לשעבר ניקולס מדורו, התרחש מאחורי הקלעים רגע חריג. בתוך מערכות המודיעין שפעלו בזמן אמת הופעל גם Claude, מודל ה‑AI של Anthropic, שנבנה מראש תחת מסגרת אתית מחמירה האוסרת על שימושים אלימים, צבאיים או מבצעי מעקב. הגישה […]

הפוסט איך Claude מצא את עצמו בלב מבצע צבאי אמריקאי הופיע ראשון בLet's AI בינה מלאכותית

]]>
בחודש שעבר, בזמן שכוחות מיוחדים של צבא ארצות הברית פשטו על כמה אתרים בקראקס במטרה ללכוד את נשיא ונצואלה לשעבר ניקולס מדורו, התרחש מאחורי הקלעים רגע חריג. בתוך מערכות המודיעין שפעלו בזמן אמת הופעל גם Claude, מודל ה‑AI של Anthropic, שנבנה מראש תחת מסגרת אתית מחמירה האוסרת על שימושים אלימים, צבאיים או מבצעי מעקב. הגישה למודל לא נעשתה דרך Anthropic עצמה, אלא באמצעות Palantir, קבלנית הביטחון שמערכותיה משולבות עמוק בפנטגון ובקהילת המודיעין האמריקאית. כך מצא עצמו כלי אזרחי, שתוכנן לשימושים מבוקרים ובטוחים, פועל בתוך מבצע צבאי חי.

 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

בין עקרונות אתיים למרוץ חימוש טכנולוגי

Anthropic מציגה את עצמה כאחת החברות המחויבות ביותר לפיתוח AI בטוח. מסגרת "Constitutional AI" שלה מגדירה קווים אדומים ברורים: אין תמיכה בפיתוח נשק, אין סיוע באלימות, ואין שימושים מבצעיים שעלולים לגרום לפגיעה בבני אדם. במקביל, החברה כבר החלה לפתח גרסאות ייעודיות לממשלה האמריקאית, כמו סדרת Claude Gov, שנבנתה על בסיס משוב מסוכנויות ביטחון ונועדה לפעול בסביבות מסווגות בלבד. המהלך הזה משקף את הניסיון של Anthropic לאזן בין עקרונות בטיחות מחמירים לבין דרישות ממשלתיות גוברות.

 

אלא שבאותו זמן הפנטגון נמצא בעיצומו של מרוץ טכנולוגי מול סין ורוסיה, ומקדם באופן אינטנסיבי שילוב של AI בכל שכבות הפעולה הצבאית, החל מניתוח מודיעין ועד קבלת החלטות בזמן אמת. בנקודה הזו נכנסת לתמונה Palantir. החברה, שמלווה את מערכת הביטחון האמריקאית כבר יותר מעשור, מספקת שכבת תיווך שמאפשרת להפעיל מודלים אזרחיים על רשתות מסווגות. המשמעות היא שגם אם יצרנית המודל אינה מעוניינת בשימוש צבאי, הצבא עדיין יכול להפעיל אותו דרך תשתיות צד שלישי.

מבצע צבאי, תקיפות אוויריות ו-AI

לפי הדיווחים, המבצע בקראקס כלל תקיפות אוויריות על כמה אתרים שבהם שהו מדורו ואשתו. היו נפגעים בקרב כוחות ונצואלים וקובנים, אך לא דווח על נפגעים אמריקאים. לאחר המעצר הועבר מדורו לניו יורק, שם הוא עומד בפני אישומי סחר בסמים.

 

במהלך המבצע עצמו, ולא רק בשלב ההכנות, הופעל Claude דרך מערכות Palantir. המקורות אינם מפרטים מה היה תפקידו המדויק, אך מציינים שהצבא כבר בחן בעבר שימוש במודלי שפה לניתוח תמונות לוויין, סיכום מודיעין, תרגום בזמן אמת או זיהוי דפוסים במידע מבצעי.

 

חשוב להדגיש שאין מידע רשמי על תרומתו המדויקת של Claude למבצע, ואין אינדיקציה לכך שהמודל קיבל החלטות מבצעיות או הנחה ירי. כל שניתן לומר בוודאות הוא שהוא הופעל כחלק ממערך תמיכה מודיעיני שסייע לכוחות שפעלו בשטח.

 

ניקולס מדורו מגיע למנחת מסוקים במנהטן לאחר שנלכד.

ניקולס מדורו במנהטן לאחר שנלכד | Credit: XNY/Star Max/GC Images

העימות השקט

כאן מתחיל החלק הרגיש ביותר בסיפור. לפי אחד המקורות, Anthropic פנתה לפנטגון בבקשה להבין כיצד נעשה שימוש במודל שלה במהלך המבצע, צעד טבעי עבור חברה שמנסה לאכוף מדיניות אתית. על פי אותו דיווח, הפנטגון הגיב באיום לבטל חוזה בהיקף של 200 מיליון דולר. Anthropic מצידה מכחישה שהייתה פנייה כזו או שהתקיים עימות כלשהו.

 

הפער בין הגרסאות הוא אחד המקומות שבהם המידע אינו חד משמעי, והוא מדגיש עד כמה מורכב הממשק בין חברות AI אזרחיות לבין מערכת הביטחון האמריקאית. מה שכן ברור הוא שהפנטגון מעוניין במודלים פחות מוגבלים, בעוד Anthropic מנסה לשמור על עקרונותיה. האירוע בקראקס ממחיש עד כמה קשה ליצרניות AI לשלוט בשימוש בטכנולוגיה שלהן ברגע שהיא נכנסת למערכות ביטחוניות.

Palantir כצינור שמחבר בין שני עולמות

Palantir משמשת כאן כמתווכת שמאפשרת לשלב מודלים אזרחיים בתוך מערכות צבאיות מסווגות. היא מפעילה את המודלים על תשתיות מאובטחות, עוטפת אותם במנגנוני הרשאות וניטור, ומאפשרת לצבא להשתמש בהם גם בלי לפנות ישירות לחברות שמפתחות אותם.

 

בפועל, זה יוצר מצב שבו מודל כמו Claude יכול לפעול בהקשרים שהיצרן שלו לא התכוון אליהם, ולעיתים אף מבלי שהיצרן ידע על כך בזמן אמת.

הגבולות בין אזרחי לצבאי נשחקים במהירות

האירוע בקראקס הוא לא רק סיפור על מבצע אחד, אלא סימפטום של מגמה רחבה הרבה יותר. מודלי שפה הופכים לכלי עבודה מרכזיים במודיעין, חברות AI מנסות להציב גבולות אך מתקשות לאכוף אותם, וקבלניות ביטחון כמו Palantir הופכות לשחקניות מפתח בשילוב AI בתוך תהליכים מבצעיים.

 

המרוץ הגלובלי ל‑AI צבאי דוחף את המערכת קדימה מהר יותר מהרגולציה, והפער בין AI אתי לבין AI מבצעי הולך ונסגר. לא משום שהחברות מעוניינות בכך, אלא משום שהמציאות הגיאופוליטית דוחפת לשימוש בכלים המתקדמים ביותר, גם אם הם נבנו במקור לשימוש אזרחי בלבד.

תקדים שמערער את כללי המשחק

הסיפור של Claude במבצע בקראקס מעלה שאלות כבדות משקל. האם חברות AI יכולות באמת לשלוט בשימוש שנעשה בטכנולוגיה שלהן? האם מודלים אזרחיים ימשיכו לזרום למערכות צבאיות דרך צדדים שלישיים? והאם עקרונות כמו "Constitutional AI" יכולים לשרוד בעולם שבו צבאות דורשים גישה לכלים המתקדמים ביותר?

 

אין תשובות חד משמעיות, אך ברור שהאירוע הזה מסמן שינוי עמוק. הגבולות בין AI אזרחי לצבאי נשחקים במהירות, והעידן שבו מודלי שפה פועלים כחלק ממערכות מבצעיות כבר אינו תרחיש עתידי. זו מציאות שמתרחשת עכשיו.

הפוסט איך Claude מצא את עצמו בלב מבצע צבאי אמריקאי הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-in-venezuela-operation/feed/ 0
כשבינה מלאכותית כותבת את “משחקי הכס” הבא https://letsai.co.il/openai-vs-authors-guild/ https://letsai.co.il/openai-vs-authors-guild/#respond Fri, 13 Feb 2026 07:19:45 +0000 https://letsai.co.il/?p=69810 יש תחושות שכל חובב ספרות מכיר היטב - ההמתנה המתמשכת לספר הבא בסדרה אהובה, התקווה שהפעם הסופר יפתיע עם תאריך יציאה - ואז שוב אכזבה. עבור מעריצי ג'ורג' ר.ר. מרטין, המחכים כבר יותר מעשור ל"רוחות החורף", התחושה הזו הפכה כמעט למיתולוגיה בפני עצמה. אבל מה אם יום אחד פשוט נמאס לחכות? מה אם במקום להמתין […]

הפוסט כשבינה מלאכותית כותבת את “משחקי הכס” הבא הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש תחושות שכל חובב ספרות מכיר היטב - ההמתנה המתמשכת לספר הבא בסדרה אהובה, התקווה שהפעם הסופר יפתיע עם תאריך יציאה - ואז שוב אכזבה. עבור מעריצי ג'ורג' ר.ר. מרטין, המחכים כבר יותר מעשור ל"רוחות החורף", התחושה הזו הפכה כמעט למיתולוגיה בפני עצמה. אבל מה אם יום אחד פשוט נמאס לחכות? מה אם במקום להמתין להשראה של מרטין, אפשר פשוט לבקש מ‑ChatGPT לכתוב את הספר הבא? זה נשמע כמו מדע בדיוני, אך בפועל, זו בדיוק המציאות המשפטית והטכנולוגית שבה אנחנו חיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

"ריקוד עם הצללים"

על פי דיווחים בתקשורת הטכנולוגית, זה היה בדיוק הניסוי שביצעו עורכי הדין של מרטין במסגרת מאבק משפטי רחב יותר. הם ביקשו מ‑ChatGPT לכתוב המשך ל"עימות המלכים", הספר השני בסאגת "שיר של אש וקרח". התוצאה, כך נטען, הייתה מדויקת עד כדי צמרמורת - המערכת יצרה תקציר מפורט לספר דמיוני בשם "ריקוד עם הצללים" (A Dance with Shadows).

 

הבינה המלאכותית לא הסתפקה בטקסט גנרי. לפי הדיווחים, היא בנתה עולם שלם, המציאה דמות חדשה ממשפחת טארגאריין בשם "ליידי אלרה", שילבה מוטיבים של קסם דרקונים עתיק, טוותה פוליטיקה אכזרית ואף שתלה רמזים לספרים קודמים - אלמנטים המזוהים עמוקות עם סגנונו של מרטין.

 

מכאן עלתה המסקנה המתבקשת - כדי לייצר פלט כזה, המודל היה חייב "לקרוא" את ספרי המקור. ומרטין, כך ברור, מעולם לא נתן לכך אישור. לא מפתיע שהוא עצמו כינה את התופעה "גניבה של הנשמה היצירתית".

איגוד הסופרים נגד OpenAI

האירוע הזה הפך לאבן יסוד בתביעת ענק שמרעידה את עמק הסיליקון. איגוד הסופרים האמריקאי (Authors Guild), יחד עם שמות בולטים כמו ג'ון גרישם, שרה סילברמן וכמובן מרטין, תובעים את OpenAI ואת השותפה האסטרטגית שלה מיקרוסופט.

 

מכתב התביעה נחשפים נתונים מרשימים: לטענת התובעים, ChatGPT אומן על כ‑300,000 ספרים שנכללו במאגרי נתונים המכונים "Books1" ו‑"Books2". חלק גדול מהחומר הזה, כך נטען, הגיע ממקורות פיראטיים ומספריות צל כמו Library Genesis ו‑Bibliotik, ללא רשות וללא תשלום ליוצרים.

 

עד לאחרונה הסתמכו חברות ה‑AI על טענת "שימוש הוגן" (Fair Use), וטענו שהמודלים אינם מעתיקים יצירות אלא לומדים תבניות שפה, בדומה ל"ספרייה ענקית" או "קורא על‑אנושי". אלא שהטיעון הזה עמד בפני מבחן משמעותי.

 

בסוף אוקטובר 2025, השופט הפדרלי סידני סטיין מבית המשפט המחוזי בניו‑יורק קבע תקדים דרמטי. הוא דחה את בקשת OpenAI לסלק את התביעה על הסף, וקבע כי פלטים של בינה מלאכותית עשויים להיחשב "דומים מהותית" (Substantially Similar) ליצירות המקור, ובכך להוות הפרת זכויות יוצרים בפני עצמם.

 

סטיין הדגיש כי פלטים כאלה אינם רק כלי עזר, אלא עלולים לשמש "תחליפים פוטנציאליים" ליצירה המקורית. המשמעות מרחיקת הלכת היא, שגם אם ה‑AI לא מעתיקה מילה במילה, היא עשויה לגנוב את "המהות" של היצירה.

האם הספרים בסכנה?

איגוד הסופרים טוען שהנזק כבר כאן. לפי דיווחים, סטודנטים וקוראים משתמשים ב‑AI כדי לקבל סיכומים מדויקים להפליא של פרקים במקום לרכוש את הספרים עצמם. עורכי הדין של היוצרים טוענים כי מדובר למעשה במכונה שמייצרת נגזרות מסחריות במסווה של חדשנות טכנולוגית.

גילוי ראיות ופיצויים שעלולים להגיע למיליארדים

בשנת 2026 נכנסת התביעה לשלב הקריטי של גילוי הראיות (Discovery). כעת עשויים להיחשף הסודות המסחריים העמוקים ביותר של OpenAI: אילו ספרים שימשו לאימון? כיצד פועל האלגוריתם?
הסיכון הכלכלי עצום.

 

רק בספטמבר האחרון נרשם תקדים משמעותי כאשר חברת Anthropic, מפתחת מודל Claude, הסכימה לשלם כ‑1.5 מיליארד דולר בהסדר פשרה בתביעה דומה. אם OpenAI תפסיד, הפיצויים הרטרואקטיביים עלולים להיות גבוהים בהרבה.

 

מרטין עצמו כבר הצהיר בעבר שלא יסיים את ספרו אם ה‑AI תעשה זאת לפניו - אמירה דרמטית שמסמלת את עומק המשבר. אך מעבר לכסף ולמשפט, מרחפת שאלה עמוקה יותר: האם הבינה המלאכותית בדרך להפוך ל"נטפליקס של הספרות"? מכונה שמייצרת ספרים, סדרות ושירים בהתאמה אישית, בלחיצת כפתור?

 

האמת היא שזה כבר קורה. יוצרים ותסריטאים משתמשים בכלים הללו יותר ויותר, והתביעה הנוכחית עשויה להיות המחסום האחרון לפני מציאות שבה הגבול בין יצירה אנושית לאלגוריתם ייעלם לחלוטין.

סיפור על מעריצים חסרי סבלנות

המאבק סביב "ריקוד עם הצללים" הוא הרבה יותר מסיפור על מעריצים חסרי סבלנות. הוא מגלם את אחת השאלות הגדולות של עידן הבינה המלאכותית: מי שולט ביצירה, מי מרוויח ממנה, ומה יישאר מהייחוד האנושי בעולם שבו אלגוריתמים מסוגלים לכתוב את "משחקי הכס" הבא. המשפט עוד רחוק מסיום, אבל דבר אחד ברור - התעשייה כולה עומדת בפני רגע מכונן, כזה שיקבע את עתיד היצירה בעשורים הקרובים.

הפוסט כשבינה מלאכותית כותבת את “משחקי הכס” הבא הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-vs-authors-guild/feed/ 0
מדריך למשתמש: 10 דרכים חכמות לתכנון תקציב אישי לשנת 2026 בעזרת Gemini https://letsai.co.il/gemini-budget-planning/ https://letsai.co.il/gemini-budget-planning/#respond Thu, 12 Feb 2026 12:18:57 +0000 https://letsai.co.il/?p=69732 תכנון תקציב לשנת 2026 לא חייב להתחיל מדף ריק או מכאב ראש. בעזרת כמה הנחיות פשוטות, Gemini יכול לעזור לכם לארגן את ההוצאות, למצוא חסכונות נסתרים ולבנות מפת דרכים פיננסית ברורה לשנה הקרובה. מניקוי נתונים ב-Google Sheets ועד בניית תפריט חסכוני, אלה 10 דרכים שבהן Gemini יכול לעזור לכם לקחת שליטה על התקציב.   1. […]

הפוסט מדריך למשתמש: 10 דרכים חכמות לתכנון תקציב אישי לשנת 2026 בעזרת Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
תכנון תקציב לשנת 2026 לא חייב להתחיל מדף ריק או מכאב ראש. בעזרת כמה הנחיות פשוטות, Gemini יכול לעזור לכם לארגן את ההוצאות, למצוא חסכונות נסתרים ולבנות מפת דרכים פיננסית ברורה לשנה הקרובה. מניקוי נתונים ב-Google Sheets ועד בניית תפריט חסכוני, אלה 10 דרכים שבהן Gemini יכול לעזור לכם לקחת שליטה על התקציב.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

1. תכנון הוצאות גדולות

בשלב הראשון אפשר פשוט לפתוח את Gemini ולתאר לו במילים את היעד הכלכלי שלכם. בלי קבצים ובלי טבלאות, רק תמונת מצב כללית של הכנסות והוצאות. Gemini משתמש במידע הזה כדי לפרק יעד גדול לתכנית חיסכון חודשית ברורה.

 

פרומפט לדוגמה:

“אני רוצה לחסוך 50,000 ש”ח למקדמה על רכב עד דצמבר 2026. ההכנסה החודשית נטו שלי היא X וההוצאות החודשיות Y. בנה מפת חיסכון ל-12 חודשים והדגש את הסיכונים לחריגה.”

2. השוואת תרחישים פיננסיים

כשיש התלבטות בין שתי אפשרויות, אפשר להציג אותן ל-Gemini כמו שהן, ולבקש ממנו לנתח את ההשלכות של כל אחת לאורך זמן. זה עובד במיוחד טוב כשמדובר בהחלטות חודשיות שחוזרות על עצמן.

 

פרומפט לדוגמה:

“השווה בין שני תרחישים לשנת 2026:

תרחיש A: אני שומר את הרכב הנוכחי ומשלם 1,800 ש”ח בחודש.

תרחיש B: אני מוכר אותו, קונה רכב משומש במזומן וחוסך את ה-1,800 ש”ח בכל חודש. הצג את ההבדל המצטבר אחרי שנה.”

3. בניית ‘מתרגם’ למסמכי מס

אם יש לכם מסמכי מס, חוזרים מקצועיים או הנחיות רשמיות, אפשר להעלות אותם ל-NotebookLM ולבקש מ-Gemini לעבוד אך ורק על בסיס החומר שסיפקתם. כך מתקבלת תשובה ממוקדת שלא נשענת על ניחושים.

 

פרומפט לדוגמה:

“אני פרילנס שעובד מהבית. בהתבסס רק על המסמכים המצורפים, אילו הוצאות עשויות להיות רלוונטיות להפחתת הכנסה חייבת ומה דורש בדיקה מקצועית.”

4. בניית תפריט שבועי חסכוני

במקום לאלתר בסופר, אפשר לתכנן מראש. כאן פשוט מתארים ל-Gemini את התקציב, והוא בונה תפריט שבועי ורשימת קניות בהתאם.

 

פרומפט לדוגמה:

“תקציב הקניות השבועי שלי הוא 700 ש”ח. בנה תפריט ל-7 ימים עם מרכיבים פשוטים, זולים ועונתיים, וצרף רשימת קניות מסודרת.”

5. ניסוח מיילים להורדת הוצאות

כאשר רוצים לפנות לחברת ביטוח, ספק אינטרנט או כל נותן שירות אחר, אפשר לבקש מ-Gemini לנסח מייל מקצועי שאפשר להעתיק ולשלוח.

 

פרומפט לדוגמה:

“נסח מייל מנומס אך אסרטיבי לבקשת הנחה בביטוח רכב, תוך אזכור הצעות מתחרות הקיימות בשוק.”

6. יצירת טבלת תקציב מקצועית

אם אתם עובדים עם Google Sheets, אפשר לבקש מ-Gemini לבנות עבורכם את מבנה הטבלה ישירות בתוך הגיליון. זה חוסך זמן ומונע טעויות כבר מהשלב הראשון.

 

פרומפט לדוגמה:

“צור טבלת תקציב חודשית לשנת 2026 עם עמודות: קטגוריה, תקציב, בפועל וסטייה. הוסף שורות למזון, בילויים ובריאות, עם עיצוב ברור.”

7. סיווג אוטומטי של הוצאות

כאשר יש גיליון עם פירוט עסקאות, אפשר להשתמש ב-Gemini כדי להפוך טקסט לא מובנה לקטגוריות ברורות, מה שמקל מאוד על ניתוח התקציב.

 

פרומפט לדוגמה:

“נתח את תיאורי העסקאות בעמודה A. בעמודה B סווג כל עסקה לקטגוריות: מזון, תחבורה, דיור, בילויים או שונות.”

8. כתיבת נוסחאות בלי ידע טכני

במקום לזכור פונקציות או לחפש באינטרנט, אפשר להסביר ל-Gemini מה רוצים לחשב, והוא כותב את הנוסחה ומסביר אותה.

 

פרומפט לדוגמה:

“כתוב נוסחה שמחשבת כמה חודשים ייקח לסגור חוב של 15,000 ש”ח בריבית שנתית של 20% עם תשלום חודשי של 1,000 ש”ח. הסבר איך הנוסחה עובדת.”

9. איתור דליפות תקציב

אחרי שמצטברים נתונים, אפשר להדביק או להפנות אליהם ולבקש מ-Gemini לזהות מגמות חריגות או עליות לא צפויות בהוצאות.

 

פרומפט לדוגמה:

“נתח את ההוצאות שלי בינואר עד מרץ 2026. אילו קטגוריות עלו באחוזים הגבוהים ביותר לעומת ממוצע 2025? הצג סיכום ברור.”

10. איתור מנויים רדומים

כאשר נותנים ל-Gemini גישה לתיבת המייל, הוא יכול לעזור לאתר חיובים חוזרים דרך קבלות ואישורי תשלום שנשלחו במייל.

 

פרומפט לדוגמה:

“מצא קבלות של מנויים חוזרים מהחצי שנה האחרונה. הצג שם שירות, עלות חודשית ותאריך חידוש.”

פרטיות, אבטחת מידע ומגבלות שימוש

לפני שאתם מתחילים, חשוב לעצור רגע ולהפעיל שיקול דעת. Gemini, כמו כל מודל שפה, מעבד ועובד על המידע שאתם בוחרים לשתף איתו. זה אומר שכאשר מעלים נתונים אישיים, פיננסיים או מסמכים רגישים, כדאי לחשוב מראש מה נוח לכם לשתף ומה לא.

 

במקרים של חשש, אפשר לטשטש או להלבין נתונים, להסיר פרטים מזהים או לעבוד עם נתונים כלליים או סימנים מוסכמים שרק אתם מכירים. זה נכון לא רק ל-Gemini אלא לכל כלי AI. בנוסף, חשוב לזכור שרוב השימושים במדריך הזה אפשריים גם דרך חשבון חינמי, במיוחד כשמדובר בעבודה טקסטואלית ותכנון כללי.

 

יחד עם זאת, יש מגבלות, ויש יכולות שמבוססות על חיבור לשירותים כמו Google Sheets או Gmail, ולעיתים גם על מנוי בתשלום. ככל שמבינים מראש את גבולות ומגבלות הכלי, כך השימוש בו יהיה בטוח, מודע ויעיל יותר.

 

 

 

לסיכום, בעזרת כמה פרומפטים פשוטים, Gemini יכול לעזור לכם לעבור מתקציב מבולגן לתמונה פיננסית ברורה. ככל שתספקו לו מידע מדויק יותר, כך התובנות וההמלצות יהיו שימושיות יותר, ותוכלו להשקיע פחות זמן בניהול מספרים ויותר זמן בהשגת היעדים שלכם.

הפוסט מדריך למשתמש: 10 דרכים חכמות לתכנון תקציב אישי לשנת 2026 בעזרת Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-budget-planning/feed/ 0
OpenAI השיקה פיילוט פרסומות ב‑ChatGPT https://letsai.co.il/chatgpt-ad-pilot/ https://letsai.co.il/chatgpt-ad-pilot/#respond Wed, 11 Feb 2026 12:40:57 +0000 https://letsai.co.il/?p=69773 יש רגעים שבהם סאטירה הופכת למציאות מהר מכפי שמישהו הספיק להתכונן. זה בדיוק מה שקרה בשבוע שבו Anthropic פרסמה קמפיין מבריק, שמדגים כיצד עוזר בינה מלאכותית מתחיל לשלב הצעות מסחריות בתוך שיחה יומיומית. זמן קצר לאחר מכן, OpenAI הכריזה על תחילת פיילוט הפרסומות ב‑ChatGPT למשתמשי Free ו‑Go בארצות הברית - מהלך שמסמן שינוי משמעותי באופן […]

הפוסט OpenAI השיקה פיילוט פרסומות ב‑ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם סאטירה הופכת למציאות מהר מכפי שמישהו הספיק להתכונן. זה בדיוק מה שקרה בשבוע שבו Anthropic פרסמה קמפיין מבריק, שמדגים כיצד עוזר בינה מלאכותית מתחיל לשלב הצעות מסחריות בתוך שיחה יומיומית. זמן קצר לאחר מכן, OpenAI הכריזה על תחילת פיילוט הפרסומות ב‑ChatGPT למשתמשי Free ו‑Go בארצות הברית - מהלך שמסמן שינוי משמעותי באופן שבו אנחנו מתקשרים עם בינה מלאכותית. הפרסומות מותאמות לנושא השיחה בזמן אמת, מסומנות בבירור ומופרדות מהתוכן האורגני, תוך הבטחות לשמירה על פרטיות ושליטה למשתמש. במקביל, הקמפיין של Anthropic הפך לרלוונטי מתמיד, כשהוא מצביע בדיוק על המתח שבין מודלים עסקיים, פרטיות, והעתיד של שיחות עם AI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

סאטירה שמכוונת בדיוק למקום הכואב

כדאי לחזור לרגע לקמפיין של Anthropic. החברה, שממוקדת מראש בשוק האנטרפרייז ובשימושים כמו AI‑assisted coding ו‑API בהיקפים גדולים, זיהתה את הרגע שבו OpenAI מתלבטת לגבי הכנסת פרסומות ל‑ChatGPT. חודשים של רמיזות, הכחשות פומביות מצד סם אלטמן ושוב רמיזות יצרו מתח שהפך לקרקע פוריה לסאטירה. בתוך ההקשר הזה Anthropic פרסמה קמפיין שממחיש באופן קומי ומדויק את החשש המרכזי: מודל שיחה שמפרש כל משפט כהזדמנות מסחרית.

 

הקמפיין היה חד, מצחיק ומדויק, והוא מיקם את Anthropic כמי שמבינה היטב את אי הנוחות הציבורית סביב פרסום בתוך שיחות אינטימיות עם AI - מרחב שנתפס עד היום כפרטי ואישי, כמעט כמו יומן דיגיטלי. התזמון היה מושלם: הפרסומת הפכה ויראלית, אלטמן הגיב, ואז המציאות הדביקה את הסאטירה במהירות מפתיעה.

ההכרזה של OpenAI

ב‑15-16 בינואר OpenAI הודיעה רשמית על תחילת פיילוט פרסומות ב‑ChatGPT. הפיילוט מופעל בארצות הברית בלבד, ומיועד למשתמשי Free ולמנוי Go, מסלול הלואו קוסט בעלות של שמונה דולרים לחודש. מנויי Plus, Pro, Business, Enterprise ו‑Education ימשיכו ליהנות מחוויה נקייה מפרסומות. אף שהפיילוט עדיין אינו זמין למשתמשים חיצוניים ונמצא בשלב בדיקות פנימיות, העקרונות שכבר פורסמו מצביעים על שינוי משמעותי באופן שבו משתמשים יתקשרו עם המודל.

 

OpenAI מודיעה על תחילת ניסוי הפרסומות ב‑ChatGPT

OpenAI מודיעה על תחילת ניסוי הפרסומות ב‑ChatGPT

 

OpenAI מסבירה שהמהלך נועד לממן את הגישה החינמית למאות מיליוני משתמשים. כדי לשמור על מהירות, אמינות ותשתית יציבה, החברה זקוקה למודל הכנסות ברור, ופרסומות הן הדרך המוכרת והישירה ביותר לעשות זאת.

איך הפרסומות משתלבות בתוך השיחה?

OpenAI מציגה מודל פרסום שמנסה להיות שקוף ומבוקר ככל האפשר. הפרסומות מופיעות בתחתית תשובות רלוונטיות, מסומנות בבירור כ‑Sponsored ומופרדות מהתוכן האורגני. הן מותאמות לנושא השיחה בזמן אמת, בין אם מדובר במתכונים, תכנון טיול, קניות או התלבטות מקצועית, ובמקרים שבהם קיימות כמה אפשרויות, תוצג המודעה שנחשבת המתאימה ביותר להקשר.

 

כך נראית פרסומת בתוך תשובה של ChatGPT

כך נראית פרסומת בתוך תשובה של ChatGPT

 

כדי לבנות אמון, OpenAI מגדירה ארבעה עקרונות מרכזיים. הראשון הוא עצמאות התשובה - הפרסומות אינן משפיעות על מה שהמודל אומר, והתשובה נוצרת לפני בחירת המודעה. השני הוא פרטיות - המפרסמים אינם מקבלים גישה לשיחות, להיסטוריה או לזיכרון, אלא רק נתונים אגרגטיביים על ביצועי המודעות. השלישי הוא רגולציה פנימית שמונעת הצגת פרסומות בנושאי בריאות, פוליטיקה או למשתמשים מתחת לגיל 18. הרביעי הוא שליטה - המשתמש יכול למחוק את היסטוריית הפרסומות, לכבות התאמה אישית, להסתיר מודעות מסוימות או לשדרג למנוי ללא פרסומות.

 

איך הפרסומות משתלבות בתוך השיחה?

איך הפרסומות משתלבות בתוך השיחה

מה המשמעות של ניתוח שיחה בזמן אמת?

כדי להציג מודעה שנחשבת רלוונטית, המערכת חייבת לנתח את תוכן השיחה בזמן אמת. לא מדובר רק בזיהוי מה המשתמש מחפש, אלא גם בהבנה של ההקשר והמחשבות שהוא מבטא. שיחה עם ChatGPT שונה מהותית מחיפוש בגוגל או מגלילה בפייסבוק. היא רציפה, אישית ולעיתים חושפת מחשבות גולמיות - תסכולים, התלבטויות, חלומות וחששות.

 

הכנסת פרסומות לתוך מרחב כזה משנה את גבולות הפרטיות כפי שהכרנו אותם. במקום מרחב ניטרלי שבו המשתמש יכול לחשוב בקול, הוא מוצא את עצמו בסביבה שבה כל מחשבה עשויה להפוך לאות מסחרי. זו תזוזה עדינה אבל משמעותית, שמעלה שאלות על האיזון בין נוחות, פרטיות ומודלים עסקיים.

 

איך מותאמות הפרסומות - ומה לא נחשף למפרסמים

איך מותאמות הפרסומות - ומה לא נחשף למפרסמים

שקיפות שמחזירה כוח למשתמש

אחד המרכיבים המרכזיים במודל הפרסום החדש הוא מנגנון השליטה שהמשתמש מקבל. מסך ההגדרות מאפשר לכבות התאמה אישית, למחוק היסטוריית פרסומות ולראות אילו מודעות הופיעו ומתי. זה ניסיון של OpenAI לאזן בין מודל עסקי חדש לבין תחושת שליטה ואמון, ולהראות שהפרסומות אינן “שכבה סמויה”, אלא מערכת שניתן לנהל באופן גלוי וברור.

 

מחיקת היסטוריה וכיבוי התאמה אישית

מחיקת היסטוריה וכיבוי התאמה אישית

אינטליגנציה נקייה מול אינטליגנציה ממומנת

המהלך של OpenAI יוצר הבחנה ברורה בין שתי חוויות שונות של שימוש ב‑ChatGPT. משתמשים שמשלמים מקבלים מרחב שיחה נקי ושקט, ללא פרסומות וללא רעשי רקע מסחריים. לעומתם, משתמשים במסלולים החינמיים נהנים גם הם מהיכולת האינטליגנטית של המודל, אך בתוך סביבה שבה כל מחשבה עשויה להתפרש כהזדמנות פרסומית.

 

מי רואה פרסומות ומהם כללי המשחק

מי רואה פרסומות ומהם כללי המשחק

 

זה לא רק שינוי במודל עסקי, אלא שינוי עמוק יותר באופן שבו אנחנו תופסים אינטראקציה עם AI. הקמפיין של Anthropic הדגיש בדיוק את הנקודה הזו, והציג את החברה כאלטרנטיבה "נקייה" ברגע שבו OpenAI עשתה את הצעד שהבטיחה בעבר שלא תעשה. בכך, Anthropic הצליחה למקם את עצמה בצד שמעלה שאלות על אמון, שקיפות וגבולות הפרטיות.

סימני השאלה שנותרו פתוחים

למרות ההכרזה, עדיין יש לא מעט שאלות שנותרו ללא מענה. הפיילוט אינו זמין עדיין למשתמשים חיצוניים, ולכן אין נתוני שימוש אמיתיים שיכולים להעיד על האופן שבו הפרסומות ישפיעו בפועל על חוויית השיחה.

 

לא ברור עד כמה ההתאמה האישית תהיה עמוקה או אגרסיבית, האם בעתיד יופיעו פורמטים מתקדמים יותר של פרסום בתוך השיחה עצמה, או כיצד OpenAI תאזן לאורך זמן בין רלוונטיות פרסומית לבין שמירה על פרטיות.

 

OpenAI מדגישה שהמטרה בשלב זה היא "ללמוד ולהקשיב", אך ההיסטוריה של מודלים פרסומיים מלמדת שהם נוטים להתרחב עם הזמן, ולא להצטמצם. זו נקודה שממשיכה לעורר שאלות לגבי הכיוון שאליו המערכת עשויה להתפתח.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

שיחה שהופכת למוצר

הפרסומות ב‑ChatGPT מסמנות את תחילתו של מודל פרסום חדש, כזה שמבוסס על שיחה ולא על גלילה. זהו מודל שבו המערכת מפרשת הקשר, כוונה ולעיתים גם מצב רגשי, ומציעה מוצרים בהתאם. עבור מפרסמים זו הזדמנות משמעותית, אך עבור משתמשים שרואים ב‑AI מרחב חשיבה פרטי, זה עלול להיות מקור לאי נוחות. Anthropic ניצלה את הרגע כדי למצב את עצמה כאלטרנטיבה נקייה, אך גם היא תידרש להתמודד עם השאלה הזו בעתיד. ברגע שהשיחה עצמה הופכת למוצר, קשה מאוד להחזיר את הגלגל לאחור.

הפוסט OpenAI השיקה פיילוט פרסומות ב‑ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-ad-pilot/feed/ 0
Anthropic משיקה את Claude Opus 4.6 https://letsai.co.il/claude-opus-4-6/ https://letsai.co.il/claude-opus-4-6/#respond Sun, 08 Feb 2026 06:14:08 +0000 https://letsai.co.il/?p=69567 מי שעובד ברצינות עם בינה מלאכותית כבר מבין שהבעיה הגדולה של הדור הנוכחי אינה חוכמה. מודלי השפה יודעים לכתוב, לנתח, להסביר ולהרשים. הקושי האמיתי מתחיל כשמבקשים מהם לעבוד. לא לענות על שאלה אחת, אלא להחזיק תהליך. מחקר שנמשך שעות, מסמך שמתפתח לאורך גרסאות, קודבייס גדול, או משימה שמתפצלת לכמה כיוונים במקביל. בשלב הזה, גם המודלים […]

הפוסט Anthropic משיקה את Claude Opus 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
מי שעובד ברצינות עם בינה מלאכותית כבר מבין שהבעיה הגדולה של הדור הנוכחי אינה חוכמה. מודלי השפה יודעים לכתוב, לנתח, להסביר ולהרשים. הקושי האמיתי מתחיל כשמבקשים מהם לעבוד. לא לענות על שאלה אחת, אלא להחזיק תהליך. מחקר שנמשך שעות, מסמך שמתפתח לאורך גרסאות, קודבייס גדול, או משימה שמתפצלת לכמה כיוונים במקביל. בשלב הזה, גם המודלים החזקים ביותר מתחילים להיסדק. ההקשר נשחק, פרטים הולכים לאיבוד, שיקול הדעת מתערפל, והערך המעשי נשחק. זו לא בעיה של אינטליגנציה. זו בעיה של סיבולת, אמינות ויכולת להחזיק הקשר לאורך זמן. ההשקה של Claude Opus 4.6 מנסה להתמודד בדיוק עם נקודת הכשל הזו. לא דרך עוד קפיצה נקודתית ביכולת, אלא באמצעות שינוי עמוק באופן שבו מודל שפה מתכנן, זוכר, פועל וממשיך לעבוד גם כשהמשימה כבר אינה פשוטה. אם ההבטחות יעמדו במבחן המציאות, זהו צעד נוסף ומשמעותי בדרך שבה AI עובר מהדגמות מרשימות לעבודה אמיתית.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שינוי כיוון, לא רק שדרוג

Anthropic מציגה את Claude Opus 4.6 כגרסה המשופרת של המודל החזק ביותר שלה, אך הדגש הוא לא על שיפור נקודתי אלא על שינוי עמוק יותר באופן שבו המודל עובד לאורך זמן.

 

Opus 4.6 מתכנן בזהירות רבה יותר, שומר על רציפות במשימות אייג׳נטיות מורכבות, ומתפקד בצורה יציבה יותר בתוך קודבייסים גדולים. בנוסף, שופרו יכולות ביקורת הקוד והדיבוג, כולל היכולת של המודל לזהות טעויות שנוצרו במהלך העבודה ולא רק בדיעבד.

 

השוואת ביצועים רב־תחומית – Claude Opus 4.6 מול מודלים מובילים

Claude Opus 4.6 מול מודלים מובילים | Anthropic

 

התמונה שעולה מהבנצ׳מרקים אינה של יתרון נקודתי אחד, אלא של פרופיל יכולות רחב יותר: עבודה אייג׳נטית, שימוש בכלים, חיפוש, reasoning רב-תחומי ומשימות משרדיות. במובן הזה, השדרוג אינו מתבטא רק בציון כזה או אחר, אלא בהתרחבות היכולת של המודל להתמודד עם סוגים שונים של משימות במסגרת אותו מודל.

 

לצד זאת, זו הפעם הראשונה שמודל ממשפחת Opus מקבל חלון הקשר של מיליון טוקנים, גם אם בגרסת בטא. התמיכה בפלט של עד 128 אלף טוקנים מאפשרת להשלים משימות גדולות מבלי לפצל אותן לרצפים ארוכים של בקשות, מה שמקטין חיכוך ושומר על רציפות לוגית לאורך זמן.

 

חשוב לא פחות, Anthropic מדגישה שהיכולות האלו אינן מיועדות רק לעולמות הקוד. Opus 4.6 מוצג ככלי לעבודה יומיומית: ניתוחים פיננסיים, מחקר, עבודה עם מסמכים, גיליונות נתונים ומצגות, במיוחד דרך סביבת Cowork, שבה Claude יכול לבצע ריבוי משימות באופן אוטונומי כחלק מתהליך עבודה אחד.

 

 

חלון הקשר עצום, אבל הבעיה האמיתית היא הזיכרון

אז חלון הקשר של מיליון טוקנים הוא באמת אחד הנתונים הבולטים ביותר בהשקה של Claude Opus 4.6, אבל החשיבות האמיתית אינה בכמות המידע שניתן להזין למודל, אלא ביכולת שלו לשמור עליו ולהשתמש בו לאורך זמן. Anthropic מתייחסת במפורש לבעיה מוכרת בשם context rot, שבה איכות הביצועים יורדת ככל שהשיחה או המשימה מתארכת וההקשר הולך ומצטבר.

 

כדי להמחיש שיפור מהותי ולא רק הרחבת קיבולת, Anthropic מציגה נתונים ממבחן MRCR v2, הבודק את יכולת המודל לאתר פרטים חבויים בתוך כמויות גדולות של טקסט. בגרסת 8-needle עם הקשר של מיליון טוקנים, Claude Opus 4.6 מגיע ל-76 אחוזי הצלחה, לעומת 18.5 אחוז בלבד עבור Sonnet 4.5. גם בהקשר קטן יותר של 256 אלף טוקנים הפער חד במיוחד: Opus 4.6 מגיע ל-93 אחוז, בעוד Sonnet 4.5 נשאר סביב 10.8 אחוז.

 

Long-context retrieval - MRCR v2 (8-needle)

לא רק כמה טקסט נכנס, אלא כמה מידע באמת נשלף | Anthropic

 

הנתונים האלה מחדדים נקודה חשובה גם עבור קוראים שאינם טכניים. קיבולת לבדה אינה מספיקה. הערך האמיתי של חלון הקשר גדול מתחיל רק כאשר המודל מצליח לשלוף את הפרט הנכון בזמן הנכון, גם כשהוא קבור עמוק בתוך ההקשר. בלי יכולת כזו, עבודה אייג׳נטית ומשימות ארוכות פשוט אינן יכולות להתקיים בצורה יציבה.

מסוכנים תיאורטיים לצוותים עובדים

המונח agentic AI נשמע כבר לא מעט במחוזותינו, אך במקרים רבים הוא נשאר ברמת ההבטחה. הרעיון של סוכן אוטונומי שמקבל מטרה ומבצע אותה מקצה לקצה עדיין מתקשה לעבור מהדגמות מרשימות לעבודה יומיומית יציבה.

 

במקרה של Opus 4.6, אנשי Anthropic מנסים לעגן את הרעיון הזה לא רק ביכולות המודל, אלא בתשתית מוצרית שמדמה עבודה צוותית אמיתית.

 

Claude Code מקבל יכולת חדשה של agent teams, בשלב מחקרי, המאפשרת להפעיל כמה סוכנים במקביל הפועלים כצוות ומתאמים ביניהם משימות. היכולת הזו מיועדת במיוחד למשימות שמתפצלות לתת-משימות עצמאיות, כמו סקירת קודבייסים גדולים או ניתוח רכיבים שונים של מערכת מורכבת.

 

כשיש רציפות ותכנון, אפשר להתחיל לעבוד בצוותים של סוכנים

כשיש רציפות ותכנון, אפשר להתחיל לעבוד בצוותים של סוכנים | Anthropic

 

ההיגיון מאחורי צוותי סוכנים נשען על אותה יכולת בסיסית שנמדדת בבנצ’מרקים של Agentic Coding: תכנון, ביצוע ורציפות לאורך רצף פעולות. כאשר מודל מצליח להחזיק תהליך כזה בצורה עקבית, ניתן להתחיל לפרק אותו לתת-משימות מקבילות ולהפעיל עליו חלוקת עבודה, בדומה לצוות אנושי.

 

במקביל, Cowork מוצגת כסביבה שבה Claude יכול לקבל מטרה רחבה, למשל מחקר או בניית דוח, ולבצע אותה באופן אוטונומי תוך שילוב מסמכים, טבלאות וניתוחים. החידוש כאן אינו רק במודל עצמו, אלא באופן שבו הוא משתלב בתהליך עבודה שמדמה צוות מתואם, ולא עוזר בודד שפועל משימה אחר משימה.

שליטה בעומק החשיבה, לא רק בתוצאה

אחד החידושים הפרקטיים ביותר בהשקה של Claude Opus 4.6 הוא מנגנון ה-adaptive thinking. במקום בחירה בינארית בין הפעלה או כיבוי של חשיבה מורחבת, המודל יכול כעת להחליט בעצמו מתי יש צורך בהעמקה ומתי ניתן לפעול במהירות. שאלות פשוטות זוכות למענה זריז, בעוד משימות מורכבות יותר מקבלות טיפול יסודי וזהיר יותר.

 

לא כל משימה דורשת אותו עומק חשיבה

לא כל משימה דורשת אותו עומק חשיבה | Anthropic

 

היכולת הזו מקבלת משמעות מיוחדת כאשר בוחנים משימות הדורשות חשיבה רציפה על פני הקשר ארוך. מדדים של reasoning בהקשר רחב, כמו Graphwalks (מעקב לוגי רב־שלבי), מדגישים שלא כל משימה זקוקה לאותה רמת עומק, אך כאשר נדרש תכנון מורכב לאורך רצף של צעדים, איכות החשיבה עצמה הופכת לגורם מכריע. כאן עולה לא רק השאלה כמה המודל מסוגל לחשוב לאורך זמן, אלא מתי נכון שיפעיל חשיבה עמוקה ומתי לא.

 

ממשק הבחירה של מודלי Claude בתוך סביבת הצ’אט

ממשק הבחירה של מודלי Claude בתוך סביבת הצ’אט

 

לצד ההחלטה האוטומטית של המודל, Anthropic מוסיפה גם שליטה ידנית למפתחים דרך ארבע רמות effort (מאמץ): low, medium, high שהיא ברירת המחדל, ו-max. השליטה מתבצעת דרך ה-API באמצעות פרמטר פשוט (effort/) ומאפשרת לכוון את האיזון בין איכות, זמן תגובה ועלות. החברה גם מדגישה במפורש שחשיבה עמוקה מדי במשימות פשוטות עלולה להוסיף עלות ועיכוב מיותרים, ולכן מומלץ להתאים את רמת המאמץ לאופי המשימה.

 

במובן הזה, מדובר בניסיון להפוך את “החשיבה” של מודל שפה ממשהו מופשט ובלתי נראה לפרמטר תפעולי שניתן לנהל, לכוון ולהתאים להקשר.

אמינות ובטיחות כחלק מהליבה

בניגוד להשקות רבות בתעשייה, נושא הבטיחות אינו מוצג כאן כנספח או כהערת שוליים. לפי החומרים שהוצגו, Claude Opus 4.6 נבדק על מגוון רחב של הערכות בטיחות, והראה שיעור נמוך של התנהגויות לא מיושרות (Misalignment). בין ההתנהגויות שנבדקו נכללות הטעיה, חנופה למשתמש (Sycophancy), עידוד דלוזיות ושיתוף פעולה עם שימוש לרעה.

 

פחות התנהגות לא מיושרת, יותר יציבות לאורך זמן

פחות התנהגות ״לא מיושרת״ תביא יותר יציבות לאורך זמן | Anthropic

 

הנתונים מצביעים על מגמת שיפור עקבית לאורך דורות המודל. בגרף “Overall misaligned behavior”, המודל Opus 4.6 מגיע לרמה הנמוכה ביותר מבין מודלי Claude האחרונים, מה שמעיד על ירידה מתמשכת בשכיחות של התנהגויות בעייתיות. במקביל, מצוין כי שיעור ה-over-refusals הוא הנמוך ביותר, כלומר המודל נוטה פחות לסרב לבקשות לגיטימיות כחלק מתפקוד שוטף.

 

בהקשר של סוכנים אוטונומיים, המשמעות חורגת משאלות של ערכים או רגולציה. כאשר מודל אמור לפעול לאורך זמן, לקבל החלטות ביניים ולהניע תהליכים מורכבים, אמינות התנהגותית הופכת לתנאי בסיס לאמינות תפעולית.

בנצ’מרקים כהקשר, לא כהבטחה

Anthropic מציגה שורה של הישגים בבנצ’מרקים שונים, בהם Terminal-Bench 2.0 למשימות agentic, Humanity’s Last Exam להסקה רב-תחומית, ו-BrowseComp לאיתור מידע קשה ברשת. בין המדדים הללו, בולט במיוחד GDPval-AA, שמכוון לא להערכת ידע מופשט אלא לביצועי המודל במשימות עבודה בעלות ערך כלכלי, בתחומים כמו פיננסים, משפט וניתוח עסקי.

 

מדידת ערך בעבודה אמיתית, לא רק בביצועים ניסיוניים

מדידת ערך בעבודה אמיתית, לא רק בביצועים ניסיוניים | Anthropic

 

ב-GDPval-AA, הנתונים מוצגים בסולם Elo , המאפשר השוואה יחסית בין מודלים על בסיס ביצועי ידע יישומיים או בפשטות, כמה הוא טוב ביחס למודלים אחרים באותו מבחן. Opus 4.6 מוביל במדד הזה בהפרש ניכר ביחס לדורות הקודמים ולחלק מהמודלים המתחרים, מה שמחזק את הטענה שהשיפור אינו מוגבל ליכולות קוד או מחקר, אלא נוגע גם לעבודה מקצועית יומיומית.

 

יחד עם זאת, גם לפי האופן שבו ההשקה עצמה ממוסגרת, הבנצ’מרקים אינם מוצגים כהוכחה מספקת בפני עצמה. הם נועדו לספק הקשר ולתמוך בסיפור רחב יותר. עבור משתמשים, הערך האמיתי אינו נמדד בציון כזה או אחר, אלא ביכולת להשלים משימות ארוכות עם פחות תיקונים, פחות אובדן הקשר ופחות טעויות מצטברות לאורך הדרך.

אקסל ומצגות: נקודת המפגש עם היום יום

חלק מרכזי בהשקה של Claude Opus 4.6 הוא ההשקעה בכלי עבודה יומיומיים, ולא רק ביכולות מודל מופשטות. Claude in Excel קיבל שדרוגים משמעותיים, כולל יכולות compaction של הקשר (סיכום ודחיסת הקשר ישן), עבודה עם כמה קבצים במקביל, עיצוב מותנה, טבלאות ציר ואימות נתונים. המודל מתואר ככזה שמתכנן לפני פעולה, מבין מידע לא מובנה ומסוגל לבצע שינויים מורכבים במהלך אחד, בלי להתפרק לרצף ארוך של שלבים ידניים.

 

בלי קוהרנטיות לאורך זמן, אין עבודה יומיומית יציבה

קוהרנטיות לאורך זמן מאפשרת עבודה יומיומית יציבה | Anthropic

 

היכולות האלו נשענות על תכונה בסיסית אך קריטית - שמירה על קוהרנטיות לאורך זמן. מדדים של long-term coherence, כמו Vending-Bench 2, בוחנים האם מודל מצליח להחזיק הקשר, כוונה ויעד לאורך רצף פעולות, גם כשהמשימה מתארכת ומסתעפת. זו בדיוק היכולת שנדרשת כאשר עובדים על גיליון נתונים מורכב או מבצעים סדרת שינויים תלויים זה בזה. אותה רציפות שנמדדת כאן כמדד מחקרי היא בדיוק מה שנדרש כשעובדים על קובץ אקסל שמתפתח לאורך עשרות פעולות תלויות.

 

במקביל, Claude in PowerPoint, שנמצא בשלב מחקרי, מאפשר לבנות ולעדכן מצגות תוך התאמה לתבניות קיימות, כולל שמירה על פריסות, פונטים וסטנדרטים מותגיים. הבחירה להשקיע בכלי אופיס מצביעה על כיוון ברור שבו עבור ארגונים רבים, אימוץ בינה מלאכותית אינו מתחיל במעבדה או ב-IDE, אלא דווקא במשימות היומיומיות שבהן רציפות, עקביות ודיוק הם תנאי בסיס.

תמחור, מגבלות וקרדיט מתנה

אחרי שמבינים מה המודל יודע לעשות בפועל, השאלה הבאה והבלתי נמנעת היא כמה זה עולה כשמריצים את זה בפרודקשן. לפי ההכרזה הרשמית, התמחור הבסיסי של Claude Opus 4.6 נשאר ללא שינוי: 5 דולר למיליון טוקנים בקלט ו-25 דולר למיליון טוקנים בפלט. יחד עם זאת, יש כאן גבול ברור. מעל 200 אלף טוקנים נכנס לתוקף תמחור פרימיום של 10 דולר לקלט ו-37.5 דולר לפלט למיליון טוקנים.

 

בנוסף, לארגונים עם דרישות רגולציה, ציות או אבטחת מידע, קיימת אפשרות להרצה ב-US-only inference במחיר גבוה בכעשרה אחוזים. המשמעות היא שעבודה עם חלון הקשר עצום היא לא רק החלטה טכנולוגית, אלא גם החלטה תקציבית שיש לנהל במודע.

 

במקביל, Anthropic מחלקת למנויי Pro ו-Max קרדיטים של 50 דולר לשימוש נוסף. הקרדיט ניתן לניצול באמצעות מנגנון Extra Usage, אותו מפעילים דרך Settings → Usage בחשבון שלכם (ואז תלחצו Claim). לאחר הפעלת Extra Usage, ובמידה והגעתם ללימיט שלכם, ניתן להשתמש בקרדיטים לצורך עבודה ממושכת יותר עם Opus 4.6, פרויקטים גדולים ב-Cowork וכלים נוספים. הקרדיט מוגבל בזמן של 60 יום, ונועד לאפשר התנסות מעשית במשימות ארוכות שבהן היתרון של המודל בא לידי ביטוי.

 

 

 

מודל שעומד במבחן הסיבולת

אם חוזרים לרגע שתואר בפתיח, אותו שלב שבו משימה ארוכה מתחילה להתפרק, ההשקה של Claude Opus 4.6 מציעה תשובה ממוקדת וברורה. לא פתרון קסם, אלא שיפור שיטתי ביכולת של מודל שפה להחזיק הקשר, לנהל מורכבות ולהישאר אמין גם כשהעבודה נמשכת, מסתעפת ומכבידה.

 

זה עדיין לא סוף הדרך. נותרו שאלות פתוחות סביב עלות, זמינות ויישום בעולם שהוא לא תמיד מסודר או צפוי. אבל אם יש מסר אחד שעולה בבירור מההשקה והיכולות של Opus 4.6, הוא שהמרוץ כבר אינו עוסק רק באיכות התשובה הראשונה, אלא ביכולת להחזיק תהליך שלם, מתחילתו ועד סופו. 

הפוסט Anthropic משיקה את Claude Opus 4.6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-opus-4-6/feed/ 0
הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI https://letsai.co.il/claude-ad-free/ https://letsai.co.il/claude-ad-free/#respond Fri, 06 Feb 2026 07:58:02 +0000 https://letsai.co.il/?p=69513 בעוד ענקיות הטכנולוגיה מחפשות דרכים לייצר רווחים מצ'אטבוטים, עולה שאלת האמון: האם העוזר האישי שלנו עובד עבורנו או עבור המפרסם? הכתבה סוקרת קמפיין סאטירי נוקב (סריה של ארבעה סרטונים) החושף את הסכנות שבשילוב פרסומות בשיחות AI, ומציגה את הגישה הנגדית של חברת Anthropic, המבקשת לשמר את Claude ככלי עבודה נקי מהטיות מסחריות, תוך הגדרת מודל […]

הפוסט הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעוד ענקיות הטכנולוגיה מחפשות דרכים לייצר רווחים מצ'אטבוטים, עולה שאלת האמון: האם העוזר האישי שלנו עובד עבורנו או עבור המפרסם? הכתבה סוקרת קמפיין סאטירי נוקב (סריה של ארבעה סרטונים) החושף את הסכנות שבשילוב פרסומות בשיחות AI, ומציגה את הגישה הנגדית של חברת Anthropic, המבקשת לשמר את Claude ככלי עבודה נקי מהטיות מסחריות, תוך הגדרת מודל כלכלי חדש המבוסס על "מסחר אייג׳נטלי" ביוזמת המשתמש.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשהבינה המלאכותית הופכת לאיש מכירות חלקלק

תארו לעצמכם את הסיטואציה הבאה: אתם מנהלים שיחה עמוקה עם העוזר האישי שלכם על קשיים בתקשורת עם ההורים. ה-AI מקשיב, מגלה אמפתיה, מציע טכניקות להקשבה פעילה, ופתאום, ללא התראה, עובר לטון שיווקי אגרסיבי: "ואם הקשר לא ניתן לתיקון, למה שלא תמצא קשר רגשי באתר 'Golden Encounters' - אתר ההיכרויות שמחבר בין 'גורים רגישים' ל'לביאות שואגות'? רוצה שאבנה לך פרופיל?"

 

זה אולי משעשע, אבל זה לא תסריט דמיוני לחלוטין, אלא חלק מסדרת סרטונים סאטיריים המציגים את מה שמכונה "שחיתות מסחרית" (Commercial Corruption) של מרחב הטיפול הדיגיטלי. הסרטונים הללו, המתעדים אינטראקציות שמתחילות כעזרה כנה ומסתיימות בקידום מוצרים הזויים כמו מדרסים להגבהה ל"מלכים נמוכים" או הלוואות "מהירות" בריבית של 400%, מציבים מראה מטרידה מול תעשיית הבינה המלאכותית. 

 

ואת כל זה מסכמת שורת מחץ אחת, שמופיעה בסיום הקמפיין: “Ads are coming to AI. But not to Claude.” זו לא רק סיסמה פרסומית, אלא הצהרת עמדה ברורה על המקום שבו Anthropic מסמנת קו אדום.

 

כשהמודל העסקי מתנגש עם האמת

הקמפיין הסאטירי הזה אינו מיועד רק להצחיק - הוא תוקף את הלב הפועם של הדילמה הטכנולוגית המודרנית דרך השאלה המהדהדת בשיר של הראפר Dr. Dre (ד"ר דרה) בסוף כל סרטון: "?What’s the difference between me and you".

 

זו לא רק שורת מחץ, אלא מכה ישירה ומכוונת היטב מתחת לחגורה של המתחרה הגדולה, OpenAI. בזמן שסם אלטמן והצוות שלו שומרים על עמימות בנוגע למודלים עתידיים של פרסום, Anthropic מנצלת את הבמה כדי להציב קו אדום ברור ועל הדרך לייצר מניפולציה מתובלת בפרובוקציה.

 

בניגוד לחיפוש רגיל שבו התרגלנו לסנן "תוצאות ממומנות", שיחה עם AI היא מרחב אינטימי וחשוף. אם הבינה המלאכותית תתומרץ להטות את תשובותיה כדי למכור לנו מוצר, היא תפסיק להיות "עוזרת" ותהפוך לסוכנת מכירות חלקלקה במסווה של יועצת אובייקטיבית.

 

מודל הלוח הנקי של Anthropic

בתוך הכאוס הזה, חברת Anthropic, המפתחת של Claude, נוקטת עמדה חד משמעית. בהכרזה רשמית תחת הכותרת "קלוד הוא מרחב למחשבה", מבהירה החברה כי שיחות עם בינה מלאכותית אינן מקום לפרסום.

 

החזון של החברה הוא להשאיר את קלוד כמרחב נקי, בדומה ללוח או מחברת ריקה - מקומות שבהם אין פרסומות שמסיחות את הדעת. המטרה היא שקלוד יפעל באופן בלתי משתמע לשני פנים לטובת המשתמש.

 

איך זה עובד בפועל? במקום להסתמך על כספי מפרסמים שיכתיבו את התוכן, המודל העסקי נשען על מנויים בתשלום וחוזים ארגוניים. כך, התמריץ היחיד של המודל הוא לספק את התשובה המועילה והמדויקת ביותר, ולא להוביל את המשתמש לרכישה מסוימת.

 

ומה אומרים ב-OpenAI?

ב-OpenAI דוחים את האופן שבו הקמפיין של Anthropic ממסגר את הדיון ויצאו למתקפת נגד משולבת. זה התחיל בקייט ראוץ’, מנהלת השיווק של החברה, שהדגישה את הפן הדמוקרטי - לטענתה, מודל חינמי המבוסס על מקורות הכנסה חיצוניים הוא הדרך היחידה להבטיח נגישות רחבה לבינה מלאכותית, במיוחד עבור אלו שידם אינה משגת לשלם עבור מנויי פרימיום.

 

אלא שהטון הפך מהר מאוד למתקפה חזיתית מצד ההנהלה הבכירה. סם אלטמן, מנכ"ל OpenAI, כינה את הקמפיין של Anthropic "לא ישר באופן מובהק" (clearly dishonest) והאשים את החברה ב"דיבור כפול" (doublespeak). אלטמן טען כי Anthropic תוקפת "מודלים תיאורטיים" של פרסום ש-OpenAI עצמה לעולם לא תטמיע, וסימן את Claude כ"מוצר יקר לאנשים עשירים". כדי להמחיש את הפער, הוא עקץ וציין כי "יותר טקסנים משתמשים ב-ChatGPT בחינם מאשר סך כל המשתמשים בקלוד בארה"ב".

 

אלטמן מאשים את Anthropic בפרובוקציה ומניפולציה

אלטמן מאשים את Anthropic בפרובוקציה ומניפולציה

במקביל, גרג ברוקמן, ממייסדי OpenAI, ניסה לסדוק את תדמית ה"טהרנות" של Anthropic. הוא הצביע על סעיף במניפסט שלהם שבו הם מציינים כי אם יצטרכו "לבחון מחדש את הגישה" הם יהיו שקופים לגבי זה. ברוקמן הציב אתגר ישיר למנכ"ל Anthropic, דאריו אמודיי, ותהה ב-X האם הוא מוכן להתחייב באופן מוחלט לעולם לא למכור את תשומת הלב של המשתמשים למפרסמים, או שמא החברה השאירה לעצמה "דלת אחורית" פתוחה לשינוי המודל בעתיד.

 

ברוקמן מצביע על הפרצה במניפסט של Anthropic

ברוקמן מצביע על הפרצה במניפסט של Anthropic

האם יש לנו בכלל ברירה?

אבל מעבר לוויכוח האידיאולוגי, עולה שאלת המציאות. העלויות של הרצת מודלי שפה הן אסטרונומיות, ויש מי שטוען שהמודל החינמי של היום הוא סוג של אחיזת עיניים, בדומה לימיה הראשונים של Uber, שסבסדה נסיעות בהפסד כדי לצמוח. אם המשתמש לא ישלם דרך פרסומות, הוא ייאלץ לשלם את המחיר האמיתי של השירות, שעלול להגיע למאות דולרים בחודש. במצב כזה, ה-AI יהפוך מ"מהפכה דמוקרטית" למוצר פרימיום לעשירים בלבד.

 

נקודה חשובה נוספת לתת לה דגש היא שבעולם ה-Performance Marketing יש מי שרואה בשילוב הזה הזדמנות. בניגוד לחיפוש בגוגל או לפיד בפייסבוק, ה-AI מבין את הקונטקסט שלנו לעומק. פרסומת בצ'אט לא חייבת להיות "מפגע ויזואלי", היא יכולה להיות הצעה רלוונטית ומדויקת להפליא שמופיעה בדיוק כשאנחנו צריכים אותה. עבור יזמים ואנשי Growth, מדובר ב"ג'ונגל" חדש של הזדמנויות, שבו היכולת לחבר בין שיחה למסחר היא המפתח לכלכלה החדשה.

 

בסוף, השאלה היא פשוטה: האם אנחנו מעדיפים לשלם 200 דולר בחודש על "מרחב סטרילי", או לקבל את הטכנולוגיה החזקה בעולם בחינם, תמורת תוכן שיווקי שבאמת רלוונטי לנו?

חדשנות בשירות המשתמש דרך "מסחר אייג׳נטלי" 

האם זה אומר שקלוד לעולם לא יעזור לנו לקנות דברים? לא בדיוק. כאן טמונה החדשנות המושגית. החברה מפרידה בין "פרסום" לבין "מסחר אייג׳נטלי" (Agentic Commerce).

 

במודל הפרסומי המסורתי, המפרסם הוא זה שיוזם את הקשר (Push). ב"מסחר אייג׳נטלי", המשתמש הוא זה שיוזם את הפעולה (Pull). לדוגמה, אם תבקשו מקלוד לחקור עבורכם נעלי ריצה או להשוות שיעורי משכנתא, הוא יעשה את זה. בתור הסוכן שלכם, הוא יסרוק את המידע ויציג לכם השוואה אובייקטיבית המבוססת על הצרכים שתיארתם, ללא עמלות מצד היצרנים שיגרמו לו להעדיף נעל אחת על פני אחרת.

אמון כנכס אסטרטגי

הבחירה של Anthropic היא לא רק מוסרית, היא אסטרטגית. בעידן שבו הבינה המלאכותית הופכת לשכבת התשתית של העבודה והיצירה שלנו, "אמון" הופך למטבע היקר ביותר. חברה שתוכל להבטיח למשתמשיה שהיא לא מוכרת את תשומת הלב שלהם או את הנתונים שלהם למרבה במחיר, כנראה תזכה בנאמנות לטווח ארוך.

 

המשמעות רחבה יותר. מדובר בניסיון להגדיר מחדש את האינטרנט. אם העשור האחרון היה שייך לכלכלת תשומת הלב (Attention Economy), שבה המשתמש היה המוצר, העידן החדש של ה-AI מנסה להחזיר את המשתמש למרכז כבעל הבית.

לשמור על ה-AI "אנושי"

הסרטונים הסאטיריים על "השחיתות המסחרית" מזכירים לנו שקל מאוד לקלקל את הפוטנציאל האדיר של הבינה המלאכותית. ללא "חוקה" ברורה (כמו ה-Constitution שמנחה את קלוד), המודלים הללו עלולים להפוך למניפולטורים הגדולים ביותר בהיסטוריה.

 

הבחירה להשאיר את ה-AI נקי מפרסומות היא הכרחית כדי לשמר אותו ככלי למחשבה עמוקה, פתרון בעיות ויצירתיות. בסופו של יום, אנחנו רוצים שהעוזר האישי שלנו יעזור לנו לחשוב טוב יותר, לא רק לקנות יותר. משתמשים לא אמורים לתהות אם ה-AI שלהם עוזר להם או רק מנסה למכור להם תכשיטי "Lunar Memento".

מה אפשר ללמוד מזה?

הצפייה בסרטונים האלו, שמציגים לטעמי סיטואציות אבסורדיות נוקבות ומצחיקות, נותנת תחושה של מעין דקירה של הבנה לגבי המרחב הדיגיטלי החדש שאנחנו בונים. זה גרם לי להבין שהאינטימיות הזו שאנחנו מייצרים עם הבינה המלאכותית היא חרב פיפיות. כשאנחנו פותחים את הלב או את התוכניות העסקיות שלנו מול מסך, אנחנו פגיעים הרבה יותר מאשר בשאילתת חיפוש יבשה בגוגל. שם אנחנו מצפים למודעות, כאן אנחנו מצפים להקשבה.

 

אבל כאן נכנסת המציאות הכלכלית המורכבת. אנחנו חייבים להבין שבעולם הטכנולוגי של היום, ייתכן שפשוט אין ברירה אחרת. העלויות העצומות של תחזוקת המודלים הללו מחייבות מודל כלכלי בר-קיימא. אם לא נהיה מוכנים לשלם את המחיר האמיתי של השירות, מחיר שעלול להיות גבוה משמעותית ממה שהתרגלנו, הפרסומות יהיו הדרך היחידה להשאיר את המהפכה הזו נגישה לכולם.

 

בסופו של יום, אין "ארוחות חינם" בטכנולוגיה. כדי לזכות באובייקטיביות מוחלטת ובמרחב נקי באמת למחשבה, אנחנו צריכים לקבל החלטה כואבת: האם אנחנו מוכנים להיות הלקוחות שמשלמים על השירות, או שנשלים עם היותנו המוצר שנמכר למפרסמים? המפתח הוא ביוזמה ובשקיפות. אני רוצה לדעת שהעוזר הדיגיטלי שלי עובד בשבילי. השאלה היא כמה אהיה מוכן לשלם, ומה הוא באמת המחיר של שמירה על התשובה כאמת מקצועית, ולא כמניפולציה שמתחפשת לעצה כנה.

הפוסט הקמפיין של Anthropic והמאבק על עתיד הפרסומות ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-ad-free/feed/ 0
המדריך המלא ל-Gemini Gems https://letsai.co.il/gemini-gems-guide/ https://letsai.co.il/gemini-gems-guide/#comments Tue, 03 Feb 2026 07:37:26 +0000 https://letsai.co.il/?p=69161 מהפכת הבינה המלאכותית היוצרת (GenAI) כבר נמצאת בשלב שבו אנחנו לא רק שואלים שאלות בתיבת צ’אט ריקה, אלא בונים לעצמנו "סוכנים" – עוזרים חכמים שזוכרים את ההוראות שלנו, מכירים את הקבצים שלנו ומתמחים בתחומים ספציפיים. בלב המערכת של גוגל עומדים ה-Gems, כלי המאפשר לכל משתמש להפוך את המודל הגנרי לעובד מומחה ומותאם אישית. המדריך הזה […]

הפוסט המדריך המלא ל-Gemini Gems הופיע ראשון בLet's AI בינה מלאכותית

]]>
מהפכת הבינה המלאכותית היוצרת (GenAI) כבר נמצאת בשלב שבו אנחנו לא רק שואלים שאלות בתיבת צ’אט ריקה, אלא בונים לעצמנו "סוכנים" – עוזרים חכמים שזוכרים את ההוראות שלנו, מכירים את הקבצים שלנו ומתמחים בתחומים ספציפיים. בלב המערכת של גוגל עומדים ה-Gems, כלי המאפשר לכל משתמש להפוך את המודל הגנרי לעובד מומחה ומותאם אישית. המדריך הזה יספק לכם את כל הכלים לבנייה, ניהול ואופטימיזציה של ה-Gems שלכם.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

משיחה אקראית לעוזר קבוע

בעבר, כל אינטראקציה עם AI התחילה מאפס ("דף חלק"). הייתם צריכים להסביר מחדש מי אתם, מהו הטון הרצוי ומהו ההקשר העסקי. ה-Gems נועדו לשבור את המעגל הזה על ידי יצירת זהות קבועה.

 

Gem הוא עוזר דיגיטלי בעל "אישיות מקצועית": הוא יודע מה התפקיד שלו, הוא פועל לפי מתודולוגיה קבועה שהגדרתם לו, והוא מחובר למקורות הידע האמיתיים שלכם. עבור משתמשים רציניים, זהו ההבדל בין "לבקש עזרה" לבין ניהול צוות מומחים דיגיטלי שעובד בשיטה שלכם.

ניהול ידע דינמי

אחד ההבדלים הקריטיים ביותר בין Gems לבין פתרונות מקבילים (כמו Custom GPTs) הוא אופן הטיפול במידע. בעוד שבמערכות אחרות הידע הוא "סטטי" (העליתם קובץ והוא נשאר כפי שהוא), ה-Gems נהנים מהדינמיות של ה-Google Drive.

  • סנכרון חי: כשאתם מקשרים Gem לתיקייה או למסמך בדרייב, הוא "חי" אותם. אם עדכנתם את מסמך האפיון או את דוח המכירות, ה-Gem יתבסס על המידע המעודכן ביותר ברגע השאלה, ללא צורך בהעלאה ידנית מחדש.

  • מולטי-מודאליות מלאה: ה-Gems אינם מוגבלים לעיבוד טקסט בלבד, אלא מהווים ארגז כלים רב-תחומי לביצוע משימות מורכבות. המערכת מסוגלת לנתח סרטוני וידאו ארוכים ולינקים ישירים מ-YouTube לצורך הפקת תובנות, סיכומים ומחקר עומק. בנוסף ליכולות עיבוד וייבוא קוד ישיר, ה-Gem מאפשר ניתוח תמונות מתקדם באמצעות NanoBanana ויצירת תוכן וידאו מקורי בעזרת Veo. שילוב של כלים אלו עם ממשק ה-Canvas מאפשר לסוכן להפיק תוצרים מובנים כמו אינפוגרפיקות, מצגות ומסמכים מורכבים, ובכך להפוך משותף למחשבה לשותף מלא לתהליך.

 

מולטי-מודאליות ככלי עבודה מתקדם

מולטי-מודאליות ככלי עבודה מתקדם

Gems מול Custom GPTs: השוואה תמציתית

כדי להבין את המפה הטכנולוגית, חשוב להכיר את ההבדלים בגישות:

 

טבלת השוואה

Gemini Gems מול Custom GPTs

מדריך טכני: שלושת הנדבכים לבניית Gem מנצח

בניית Gem היא תהליך פשוט, אך דורשת מחשבה אסטרטגית. כל סוכן נשען על שלושה יסודות:

1. זהות (Identity)

הגדירו ל-Gem שם ותפקיד ברור. במקום "כותב תוכן", הגדירו אותו כ-"עורך לשוני בכיר במגזין טכנולוגי, מומחה בפישוט מושגים מורכבים".

2. הנחיות זהב (Instructions)

כאן מתבצעת רוב העבודה. כדי להגיע לתוצאות ברמה גבוהה, השתמשו בשני עקרונות:

  • הוראות לפי דוגמה (Few-Shot): הדביקו בתוך שדה ההוראות דוגמה לתוצר מושלם שכתבתם בעבר. המודל ישכפל את הסטנדרט הזה בכל פעם מחדש.

  • הוראות לפי תהליך (Chain of Thought): אל תגדירו רק את התוצאה, אלא את שלבי העבודה (שלב 1: סרוק, שלב 2: זהה חריגות, שלב 3: נסח מסקנות).

3. חיבור ידע (Knowledge)

הפעילו את תוספי ה-Google Workspace וחברו את ה-Gem לתיקיות הרלוונטיות בדרייב. ודאו שההרשאות לקבצים תואמות למי שאמור להשתמש ב-Gem. ודאו שהרשאות הקבצים בדרייב תואמות למי שאמור להשתמש ב-Gem כדי למנוע חשיפת מידע רגיש.

טיפ! כפתור ה-Magic Rewrite: השתמשו באייקון הניצוצות לאחר שכתבתם טיוטה ראשונית של הוראות. גוגל תשתמש בבינה מלאכותית כדי לשכתב את הפרומפט שלכם למבנה לוגי שג'מיני מבין בצורה הטובה ביותר.

 

כפתור הקסם לשיפור הפרומפט

כפתור הקסם לשיפור הפרומפט

כך תבנו את ה-Gem הראשון שלכם (צעד אחר צעד)

תהליך היצירה של Gem הוא פשוט ואינטואיטיבי, אך דורש תשומת לב לפרטים כדי להבטיח שהסוכן יפעל בדיוק לפי הציפיות שלכם. עקבו אחרי ששת השלבים שהופכים רעיון לסוכן עובד:

1. כניסה לאזור ה-Gems בסרגל הצידי של Gemini, אתרו את קטגוריית ה-Gems ולחצו עליה כדי לפתוח את תפריט הניהול.

2. פתיחת Gem חדש בתוך תפריט ה-Gems, לחצו על כפתור ה-"New Gem" כדי להתחיל בתהליך האפיון של הסוכן החדש שלכם.

3. הגדרת שם, תיאור והוראות זהב (Instructions) כאן אתם בונים את "המוח" של הסוכן:

  • שם ותיאור: תנו לסוכן שם שמגדיר את תפקידו (למשל: "מנתח נתונים עסקיים").

  • Instructions: הגדירו לו איך הוא צריך לחשוב ולעבוד. השתמשו בטכניקות של הוראות לפי דוגמה (מתן מודל לחיקוי) והוראות לפי תהליך (חלוקת המשימה לשלבים לוגיים).

4. שיפור אוטומטי (Magic Rewrite) אל תתאמצו לכתוב את הפרומפט המושלם בניסיון הראשון. לחצו על כפתור ה-Rewrite, וג'מיני ישדרג את ההוראות שלכם למבנה מקצועי שהמודל מגיב אליו בצורה הטובה ביותר.

5. חיבור וטעינת בסיס ידע (Knowledge) זהו השלב שהופך את ה-Gem למומחה למידע שלכם. ג'מיני מאפשר גמישות רבה בבחירת המקורות:

  • העלאת קבצים: טעינת מסמכים ישירות מהמחשב.

  • Add from Drive: קישור תיקיות או מסמכים מהדרייב המסתנכרנים בזמן אמת.

  • Photos, Import code & NotebookLM: העלאת תמונות, ייבוא קוד ישיר או סנכרון עם NotebookLM להעמקת בסיס הידע.

6. שמירה ושימוש לחצו על Save בפינה העליונה. הסוכן שלכם מוכן! הוא יופיע בסרגל הצידי ויוכל לנתח סרטוני יוטיוב, לכתוב קוד, לייצר תמונות או לסכם דוחות בתוך שניות.

 

בניית Gem צעד אחרי צעד

תרחישי שימוש (Use Cases) לארגונים

כדי להתחיל לעבוד כבר עכשיו, ריכזתי עבורכם 5 סוגי Gems המותאמים לצרכים ארגוניים נפוצים. כל Gem בנוי לפי עקרונות "הנחיות הזהב": הגדרת זהות, עבודה לפי שלבים (תהליך), ושימוש בדוגמאות (Few-shot). כמובן שאלה רק דוגמאות - קחו את זה לעולמות שלכם ותעשו התאמות.

1. מנתח מפרטים טכניים (Technical Architect Gem)

הייעוד: וידוא עקביות בין מסמכי אפיון, זיהוי כשלים לוגיים והפקת סיכומי מנהלים טכניים.

  • זהות: "אתה ארכיטקט מערכות בכיר עם 20 שנות ניסיון. המומחיות שלך היא פירוק מפרטים מורכבים לדרישות ברורות וזיהוי סיכונים טכניים".

  • ידע: חיבור לתיקיית "Specifications" ב-Google Drive.

  • הנחיות זהב (תהליך):

    "בכל פעם שאעלה דרישה חדשה או אפנה אותך למסמך, פעל כך:

    1. סרוק את המסמך והשווה אותו למפרטי המערכת הקיימים בדרייב.

    2. זהה 3 נקודות של חוסר עקביות או סיכונים פוטנציאליים.

    3. נסח טבלת השוואה בין המצב הקיים לדרישה החדשה.

    4. סיים בסיכום של 'שורה תחתונה' עבור צוות הפיתוח".

2. שומר סף של שפת המותג (Brand Voice Guardian)

הייעוד: הבטחה שכל תוכן שיווקי, מייל או פוסט עומד בסטנדרט הכתיבה והטון של הארגון.

  • זהות: "אתה מנהל הקריאייטיב והעורך הראשי של המותג. התפקיד שלך הוא להפוך טקסטים יבשים לתוכן מרתק ששומר על ערכי החברה".

  • ידע: קובץ "Style Guide" ומסמך "Brand Persona" בדרייב.

  • הנחיות זהב (דוגמה/Few-shot):

    "הנה דוגמה לפוסט מצוין שכתבנו בעבר: [הדבקת דוגמה]. בכל פעם שאשלח לך טיוטה, שכתב אותה כך שתתאים לאורך של הדוגמה, לטון הדיבור המקצועי אך נגיש, והימנע משימוש במילים גנריות כמו 'חדשני' או 'מהפכני'. ודא שהקריאה לפעולה תמיד מניעה לרישום לניוזלטר".

3. עוזר PMO לניהול פרויקטים (Project Sync Gem)

הייעוד: מעקב אחר משימות, סנכרון בין צוותים והפקת דוחות סטטוס דינמיים המבוססים על קבצים מעודכנים.

  • זהות: "אתה מנהל פרויקטים (PMO) מיומן. אתה מצטיין בארגון מידע מפוזר והפיכתו לתוכנית עבודה אופרטיבית".

  • ידע: תיקיית "Project Status" הכוללת קבצי Sheets ו-Docs מעודכנים.

  • הנחיות זהב (תהליך):

    "בכל יום ראשון בבוקר, סרוק את קבצי הסטטוס בתיקייה וספק לי:

    1. רשימת משימות בפיגור (Critical Path).

    2. עדכון על אבני דרך שהושלמו בשבוע החולף.

    3. טיוטת מייל לעדכון הנהלה הכוללת גרף התקדמות באחוזים".

4. מפיק תובנות מפגישות (Meeting Insights Specialist)

הייעוד: ניתוח הקלטות וידאו של פגישות (דרך יוטיוב או העלאת קובץ) והוצאת משימות לביצוע.

  • זהות: "אתה עוזר אישי אסטרטגי. התפקיד שלך הוא להקשיב למה שנאמר בין השורות ולזקק את המהות של כל פגישה".

  • הנחיות זהב (תהליך):

    "לאחר שאשלח לך לינק להקלטת הפגישה או קובץ וידאו, בצע את הפעולות הבאות:

    1. סכם את 5 הנושאים העיקריים שנדונו.

    2. צור רשימת משימות (Action Items) הכוללת את שם האחראי לכל משימה.

    3. זהה נקודות של חוסר הסכמה שנותרו פתוחות.

    4. נסח הודעת סיכום קצרה ל-Slack עבור כל המשתתפים".

5. אנליסט נתונים עסקיים (Data Insights Lead)

הייעוד: ניתוח טבלאות נתונים מורכבות, הרצת קוד לחישובים והצגת מגמות עסקיות.

  • זהות: "אתה דאטה סיינטיסט המומחה בניתוח נתונים עסקיים. אתה יודע להפוך מספרים לסיפור שמוביל להחלטות".

  • ידע: חיבור לקובץ ה-Sheets המרכזי של מחלקת המכירות/שיווק.

  • הנחיות זהב (תהליך):

    "בכל פעם שאבקש ניתוח, השתמש ביכולת הרצת הקוד (Python) שלך כדי:

    1. לזהות מגמות צמיחה חודשיות (MoM).

    2. למצוא חריגות (Outliers) בנתונים שדורשות תשומת לב.

    3. ליצור ויזואליזציה פשוטה של הנתונים.

    4. הצע 3 פעולות אופרטיביות לשיפור הביצועים על בסיס הנתונים".

למי זה זמין?

נכון להיום, היכולת ליצור ולהשתמש ב-Gemini Gems פתוחה לכלל המשתמשים, כולל אלו בגרסה החינמית. ההבדל טמון ב"כוח המנוע": המנויים נהנים ממודלים חזקים ומתקדמים יותר ומחלון הקשר עצום (1 מיליון טוקנים) המאפשר ל-Gem "לזכור" ולנתח מאות מסמכים בו-זמנית, בניגוד לזיכרון המוגבל ולמודלי ה-Flash בגרסה החינמית. בנוסף, המנוי פותח יכולות מתקדמות כמו הרצת קוד Python לניתוח נתונים בזמן אמת ואינטגרציה "חיה" למסמכי Drive ו-Gmail, המאפשרת עבודה דינמית על פרויקטים מתמשכים ללא מגבלות העומס הקיימות בחינם.

אז האם Gemini Gems הוא השותף הנכון עבורכם?

לאחר שצללנו לעומק היכולות, הגיע הרגע להבין היכן הכלי הזה פוגש את זרימת העבודה האישית והארגונית שלכם. בניגוד לכלים גנריים, ה-Gems דורשים השקעה ראשונית באפיון, אך התמורה היא שותף דיגיטלי שמכיר אתכם לעומק.

ניתוח אופרטיבי: יתרונות מול חסרונות

היתרונות המובהקים:

  • בסיס ידע "חי" ונושם: הסנכרון המלא ל-Google Drive מבטיח שהסוכן תמיד מעודכן. אין צורך להעלות קבצים מחדש בכל פעם שהנתונים משתנים – ה-Gem "חי" את המסמכים שלכם.

  • מולטי-מודאליות ללא פשרות: היכולת לנתח סרטוני וידאו (כולל YouTube) ולשלב כלי יצירה כמו Veo ו-Canvas הופכת את ה-Gem מסוכן טקסטואלי למכונת ייצור תוכן רב-תחומית.

  • ארגז הכלים של Gemini Advanced: גישה מלאה להרצת קוד, יצירת תמונות ואינטגרציות Workspace המובנות בתוך הסוכן.

החסרונות שיש להכיר:

  • הפצה מוגבלת: נכון לעכשיו, ה-Gems מיועדים בעיקר לשימוש אישי או צוותי בתוך הארגון. חסרונה של חנות ציבורית (Store) הופך אותם לפחות מתאימים למי שמחפש להפיץ מוצר לקהל הרחב.

  • ניהול הרשאות: שיתוף Gems דורש תשומת לב להרשאות הקבצים בדרייב. הצד השני חייב הרשאת גישה לנתונים המקוריים כדי שהסוכן יפעל עבורו במלוא העוצמה.

מתי לבחור ב-Gems?

השתמשו ב-Gems כאשר סביבת העבודה שלכם היא Google Workspace, המידע שלכם דינמי ומשתנה בתדירות גבוהה, וכאשר אתם זקוקים לעוזר אישי או צוותי שמכיר את המתודולוגיה והסטנדרטים הייחודיים שלכם.

הצעד הבא שלכם: מאסטרטגיה ליישום

ה-Gems הם לא רק פיצ'ר נחמד - הם תשתית פרודוקטיביות. מי שממשיך לעבוד רק בתיבת הצ’אט הרגילה, מפספס את היכולת של ה-AI להכיר את השיטה והסטנדרטים הייחודיים שלו.

 

מה עושים עכשיו? זה הזמן לבחור את המשימה שחוזרת על עצמה הכי הרבה ביום העבודה שלכם, בין אם זה ניסוח מיילים, סיכום דוחות מורכבים או ניתוח נתוני מכירות, ולבנות עבורה את ה-Gem הראשון שלכם. השקיעו בהוראות (Instructions), חברו את מקורות הידע הנכונים, ותנו לשותף הדיגיטלי החדש שלכם להתחיל לעבוד בשבילכם.

 

המעבר מבינה מלאכותית ככלי חיצוני לבינה מלאכותית כחלק מהצוות מתחיל כאן.

הפוסט המדריך המלא ל-Gemini Gems הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-gems-guide/feed/ 4
Google AI Plus מגיע לישראל https://letsai.co.il/google-ai-plus-launch/ https://letsai.co.il/google-ai-plus-launch/#comments Fri, 30 Jan 2026 05:47:08 +0000 https://letsai.co.il/?p=69047 Google AI Plus מושק בישראל וב-35 טריטוריות נוספות, ומביא לראשונה חבילה מאוחדת של כל כלי ה‑AI המתקדמים של גוגל. המנוי כולל את מודלי Gemini 3 Pro ו‑Nano Banana Pro, יצירת וידאו ב‑Flow וב‑Veo 3.1, יצירת תמונות, NotebookLM, תוספת של קרדיטים חודשיים ו‑200GB אחסון בענן. בישראל המחיר עומד על 30 ₪ בחודש, עם מבצע השקה של […]

הפוסט Google AI Plus מגיע לישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
Google AI Plus מושק בישראל וב-35 טריטוריות נוספות, ומביא לראשונה חבילה מאוחדת של כל כלי ה‑AI המתקדמים של גוגל. המנוי כולל את מודלי Gemini 3 Pro ו‑Nano Banana Pro, יצירת וידאו ב‑Flow וב‑Veo 3.1, יצירת תמונות, NotebookLM, תוספת של קרדיטים חודשיים ו‑200GB אחסון בענן. בישראל המחיר עומד על 30 ₪ בחודש, עם מבצע השקה של 15 ₪ לחודשיים הראשונים. זהו מהלך שמסמן את כניסתה של גוגל לשוק ה‑AI הצרכני באופן ישיר ותחרותי, ומחזק את הלחץ על השחקניות המובילות בתחום.

 

Google AI Plus מושק בישראל

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

איך ואיפה נרשמים ל-Google AI Plus?

כדי לבחור חבילה ולממש את ההטבה, ניתן להיכנס ללינק הבא. בתמונה מטה תמצאו גם השוואה בין החבילות השונות ומידע נוסף (להגדלה, לחצו על התמונה).

 

השוואה בין Google AI Plus לשאר התוכניות

השוואה בין Google AI Plus לשאר התוכניות | Credit: Google

 

שינוי כיוון בגישת ה‑AI של גוגל

אחרי שנים שבהן גוגל הציגה יכולות מרשימות אך פיזרה אותן בין שירותים שונים, החברה מאחדת כעת את כל כלי הבינה המלאכותית המתקדמים שלה תחת מנוי אחד, ברור ונגיש. זהו שינוי שממקם את גוגל מחדש בזירה תחרותית שבה הצרכן כבר התרגל לשלם מחירים גבוהים עבור שירותי AI, ומאותת על כוונה להפוך את ה‑AI של החברה לכלי שימוש יומיומי ולא לניסוי טכנולוגי.

 

למרות ההתקדמות הטכנולוגית המרשימה של גוגל, חוויית השימוש לא תמיד הייתה חלקה. הכלים פעלו באפליקציות שונות, זמינותם השתנתה בין מדינות, וחלקם דרשו מנויים נפרדים. משתמש שרצה לשלב בין מודל שפה, יצירת וידאו וניתוח מסמכים נאלץ לעבור בין שירותים שונים ולעיתים התקשה להבין מה כלול בכל אחד מהם.

 

הפיצול הזה יצר חסם משמעותי: היכולות היו קיימות, אך הדרך אליהן הייתה מורכבת מדי עבור רוב המשתמשים.

 

 

עכשיו יש מנוי אחד שמרכז את כל היכולות

Google AI Plus נועד לפתור את הפיצול שאפיין את שירותי ה‑AI של גוגל בשנים האחרונות. המנוי מאחד את כל היכולות המתקדמות של החברה תחת חבילה אחת, ומוסיף רכיבים חדשים שמופיעים בעמוד הרשמי של השירות.

 

החבילה כוללת שני מודלים מרכזיים: Gemini 3 Pro, מודל הדגל למשימות מורכבות, ו‑Nano Banana Pro, המשמש ליצירת תמונות ותוכן ויזואלי. לצד המודלים, המנוי מספק כלים ליצירה ומולטימדיה, בהם Flow ליצירת סרטונים ו‑Veo 3.1 ליצירת סצנות ואנימציות מתקדמות, וכן יכולות יצירת תמונות המבוססות על Nano Banana Pro.

 

בתחום המחקר והכתיבה נכלל NotebookLM, עוזר מחקר שמסוגל לנתח מסמכים, להפיק תובנות ולסייע בבניית תוכן. בנוסף, המנוי מעניק 200 קרדיטים חודשיים לשימוש בכלי ה‑AI (מיועדים בעיקר לשימוש בכלי הוידאו והעיבוד הכבדים כמו Flow ו-Whisk).

 

לצד היכולות המתקדמות, המנוי כולל גם 200GB אחסון בענן ואפשרות לשיתוף עם עד חמישה בני משפחה. מנויי Google One Premium בחבילת ה‑2TB יקבלו את כל יכולות Google AI Plus באופן אוטומטי וללא תוספת תשלום.

 

השוואת מנויים: Google AI Free, Plus ו‑Pro

השוואת מנויים: Google AI Free, Plus ו‑Pro | מקור: blog.google

 

 

כמה זה עולה בישראל

גוגל מציבה תג מחיר תחרותי במיוחד: 30 שקלים לחודש כמחיר רגיל, ו‑15 שקלים לחודש במהלך החודשיים הראשונים במסגרת מבצע השקה. לשם השוואה, בארצות הברית המחיר עומד על 7.99 דולר, עם מבצע דומה של חמישים אחוז הנחה לתקופה מוגבלת. המהלך משקף כוונה ברורה להנגיש את יכולות ה‑AI המתקדמות של גוגל לקהל רחב, ולא רק למשתמשים טכנולוגיים מנוסים.

 

 

מה המשמעות הרחבה

השקת Google AI Plus אינה רק הרחבת שירות, אלא מהלך שמבהיר את כוונותיה של גוגל בשוק ה‑AI הצרכני. החברה מציבה את עצמה כשחקנית מרכזית מול שירותים כמו ChatGPT Go, ומאותת שהיא מתכוונת להתחרות לא רק ביכולות טכנולוגיות אלא גם במודל התמחור ובנגישות.

 

בעוד ChatGPT Go מציע שכבת שימוש בסיסית וזולה, Google AI Plus מציג חבילה רחבה יותר הכוללת מודלים מתקדמים, יצירת וידאו ותמונות, כלי מחקר ואחסון - במחיר נמוך יחסית.

 

המהלך עשוי להשפיע על השוק בכמה מישורים. ראשית, הוא צפוי להגביר את התחרות בין ספקיות ה‑AI, במיוחד במדינות שבהן המחיר מהווה גורם משמעותי בהחלטת הצרכן. שנית, תג המחיר הנמוך עשוי להוביל לירידת מחירים רחבה יותר בשוק המנויים. בנוסף, הנגישות הגבוהה עשויה להאיץ את אימוץ ה‑AI בקרב משתמשים פרטיים ולהרחיב את השימוש בכלים מולטימודליים המשלבים טקסט, תמונה ווידאו.

הפוסט Google AI Plus מגיע לישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-ai-plus-launch/feed/ 1
איך ישראל הפכה למובילה העולמית בשימוש ב‑Claude https://letsai.co.il/israel-leading-claude-usage/ https://letsai.co.il/israel-leading-claude-usage/#respond Sun, 25 Jan 2026 13:12:03 +0000 https://letsai.co.il/?p=68687 בינואר 2026 פרסמה Anthropic את Economic Index V4, אחד הדוחות המקיפים ביותר שנכתבו עד היום על השימוש הגלובלי במערכות בינה מלאכותית. הדוח מבוסס על מדגם עצום של כמיליון אינטראקציות מנובמבר 2025 - רגע לפני השקת Opus 4.5. זו הפעם הראשונה שהדוח מציג "פרימיטיבים כלכליים": מדדים בסיסיים שמאפשרים למדוד כיצד AI משפיע על פרודוקטיביות, על מבנה […]

הפוסט איך ישראל הפכה למובילה העולמית בשימוש ב‑Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
בינואר 2026 פרסמה Anthropic את Economic Index V4, אחד הדוחות המקיפים ביותר שנכתבו עד היום על השימוש הגלובלי במערכות בינה מלאכותית. הדוח מבוסס על מדגם עצום של כמיליון אינטראקציות מנובמבר 2025 - רגע לפני השקת Opus 4.5. זו הפעם הראשונה שהדוח מציג "פרימיטיבים כלכליים": מדדים בסיסיים שמאפשרים למדוד כיצד AI משפיע על פרודוקטיביות, על מבנה העבודה ועל הכלכלה העולמית. בתוך ים הנתונים הזה, בין גרפים על אוטומציה, מגמות שימוש וחשיפה של מקצועות ל‑AI, הסתתר נתון אחד שהצליח להפתיע אפילו את החוקרים עצמם: ישראל ניצבת במקום הראשון בעולם בשימוש ב‑Claude ביחס לגודל האוכלוסייה - ובפער עצום.

 

ישראל במקום הראשון בעולם בשימוש ב-Claude, ביחס לגודל האוכלוסייה

ישראל במקום הראשון בעולם בשימוש ב-Claude, ביחס לגודל האוכלוסייה

פי חמישה מהצפוי

ה‑Usage Index של ישראל עומד על 4.90x. מאחר שהמדד מנורמל ל‑1, המשמעות היא שהשימוש בישראל גבוה כמעט פי חמישה מהצפוי. לשם השוואה, דנמרק, אחת המדינות הבולטות בשימוש ב‑AI, עומדת על 2.1x, ויפן, ארה״ב ודרום קוריאה מציגות שימוש גבוה מהממוצע אך רחוק מאוד מהקצב הישראלי. הפער הזה אינו רק חריג, הוא כמעט אנומליה כלכלית‑טכנולוגית, כזו שמחייבת בחינה מעמיקה של מה שמתרחש כאן.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

התרגום הוא רק חלק מהתמונה

כדי להבין את התופעה, צריך להתחיל במקום שבו רבים נוטים להתחיל - השפה. הדוח מצביע על כך שתרגום הוא הקטגוריה השנייה בשכיחותה בישראל, ומהווה 4.7% מכלל השיחות - פי 2.7 מהממוצע העולמי. הנתון הזה עלול להטעות: 4.7% הוא שיעור נמוך יחסית, אך הוא עדיין מספיק כדי לבלוט בהשוואה בינלאומית.

 

הדוח מציע פרשנות אחרת. ישראלים עובדים באופן אינטנסיבי מול תכנים באנגלית - קוד, דוקומנטציה, חוזים, RFPs, מאמרים אקדמיים - ולכן תרגום אינו "קביים", אלא חלק טבעי מהעבודה הגלובלית. במדינות אחרות LLMs משמשים בעיקר לכתיבה יצירתית או לשאלות כלליות.

 

בישראל הם משולבים בתוך זרימת עבודה מקצועית. התרגום מגדיל את נפח השימוש, אך הוא רחוק מלהסביר את העוצמה החריגה של המדד הישראלי.

ישראל כ-Power User טכנולוגי

הסיבה האמיתית מתחילה להתבהר כשמסתכלים על סוגי המשימות שבהן ישראל משתמשת ב‑Claude. כאן מתגלה תמונה מובהקת: ישראל היא Power User טכנולוגי. משימות כמו Debugging & Refactoring מהוות 3.5% מהשיחות, נתון שממקם את ישראל במקום השלישי בעולם. קטגוריית Computer & Mathematical מהווה כ‑36% מהשימוש, שיעור גבוה במיוחד גם ביחס למדינות טכנולוגיות מובילות.

 

איך משתמשים ב-Claude בישראל

איך משתמשים ב-Claude בישראל

 

מעבר לכך, ישראל משתמשת ב‑Claude לפיתוח ו‑Troubleshooting של מערכות AI בשיעור גבוה ב‑30% מהממוצע העולמי. זהו שימוש מקצועי, עמוק ומורכב, כזה שמאפיין מהנדסים, חוקרי AI, אנשי DevOps ומפתחים שמכניסים את Claude ישירות לתוך ה‑workflow היומיומי שלהם. מדובר לא בכתיבה של פסקאות, אלא בדיבוג קוד, שכתוב מודלים, בניית תשתיות ואופטימיזציה של מערכות הנדסיות.

 

לניתוח מפורט של הנתונים לפי מדינה וקטגוריות שימוש, כולל פילוח ישראלי, ראו את דף ה-Economic Index באתר של אנטרופיק.

משק מוטה-טכנולוגיה בצורה קיצונית

כדי להבין מדוע זה קורה דווקא בישראל, צריך להסתכל על מבנה המשק המקומי. ישראל היא אחת המדינות היחידות בעולם שבהן חלק משמעותי מהאוכלוסייה עובד בהיי‑טק, וחלק גדול עוד יותר נוגע בקוד גם אם אינו מפתח במקצועו. חברות קטנות ובינוניות מאמצות AI בקצב מהיר לא פחות מהענקיות, ותרבות העבודה המקומית, שמתגמלת מהירות, אלתור ופתרון בעיות, הופכת כל כלי שמקצר תהליכים למרכיב טבעי בשרשרת הייצור.

 

הדוח של אנטרופיק מצביע על כך שמדינות עם שיעור גבוה של עובדים בקטגוריית Computer & Mathematical משתמשות יותר ב‑Claude. ישראל פשוט נמצאת בקצה העליון של הסקאלה הזו.

1.8% עלייה בפרודוקטיביות

אך מעבר לשימוש עצמו, הדוח מציג תמונה רחבה יותר של ההשפעה הכלכלית של AI. הוא מעריך שאימוץ נרחב של מערכות כמו Claude עשוי להגדיל את פרודוקטיביות העבודה בארה״ב בכ‑1.8 נקודות אחוז בשנה בעשור הקרוב - נתון משמעותי בכל קנה מידה.

 

עם זאת, ההשפעה אינה אחידה: מקצועות כמו Data Entry ו‑Database Architects חשופים לאוטומציה רחבה, בעוד תפקידים אחרים עשויים לעבור תהליך של upskilling, למשל מנהלי נדל״ן, שימצאו את עצמם עוסקים יותר בניהול משא ומתן ופחות במשימות אדמיניסטרטיביות.

 

מנגד, מקצועות מסוימים עלולים לחוות deskilling, כמו סוכני נסיעות או כותבים טכניים, שתכני עבודתם יהפכו פשוטים יותר ככל שה‑AI ייקח על עצמו את המשימות המורכבות.

ישראל כמעבדה חיה לעתיד שוק העבודה

בישראל, שבה שיעור העובדים הטכנולוגיים גבוה במיוחד, השפעות אלו עשויות להיות מועצמות. המשק הישראלי הופך, כמעט בעל כורחו, למעבדה חיה של שילוב AI בעבודה מקצועית. אם במדינות אחרות AI עדיין נתפס ככלי עזר, בישראל הוא כבר חלק מהשריר התפעולי - כלי שמאפשר למהנדסים, אנליסטים ומנהלים לעבוד מהר יותר, לדבג מהר יותר, ולבנות מערכות מורכבות בקצב שלא היה אפשרי בעבר.

 

כשמחברים את כל זה יחד, השימוש בתרגום כחלק מעבודה גלובלית, התעשייה הטכנולוגית הגדולה והאימוץ המהיר של טכנולוגיות חדשות - מתקבלת תמונה ברורה: ישראל אינה מובילה את העולם בשימוש ב‑Claude בגלל חולשה, אלא בגלל עומס עבודה טכנולוגי, מבנה כלכלי ייחודי ותרבות מקצועית שמאמצת כל כלי שמגדיל פרודוקטיביות. התוצאה היא מדינה קטנה עם פרופיל שימוש של מעצמת AI.

 

המשמעות רחבה יותר מהשאלה "למה ישראל משתמשת כל כך הרבה ב‑Claude". ייתכן שהשאלה האמיתית היא האם שאר העולם יתחיל להיראות כמו ישראל. אם כן, ישראל אינה רק חריג סטטיסטי בלבד - היא פשוט חלון לעתיד של שוק העבודה הגלובלי.

 

לדו״ח המלא של אנטרופיק, כנסו כאן.

הפוסט איך ישראל הפכה למובילה העולמית בשימוש ב‑Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/israel-leading-claude-usage/feed/ 0
גוגל הופכת את ג’מיני לזיכרון השני שלכם עם Personal Intelligence https://letsai.co.il/gemini-personal-intelligence/ https://letsai.co.il/gemini-personal-intelligence/#respond Thu, 22 Jan 2026 08:12:07 +0000 https://letsai.co.il/?p=68263 תארו לעצמכם שאתם עומדים במוסך, רגע לפני שהגיע תורכם, ומנסים להיזכר במידת הצמיגים של המיניוואן המשפחתי. במקום לנבור בניירת או לצאת לחניה, אתם פשוט שואלים את Gemini. התשובה שתקבלו היא לא רק מהירה, היא אישית באופן מפתיע: העוזר שולף את המידה מצילום בגלריה, מצליב אותה עם דגם הרכב שמצא במייל ומציע צמיגים שמתאימים להרגלי הנהיגה […]

הפוסט גוגל הופכת את ג’מיני לזיכרון השני שלכם עם Personal Intelligence הופיע ראשון בLet's AI בינה מלאכותית

]]>
תארו לעצמכם שאתם עומדים במוסך, רגע לפני שהגיע תורכם, ומנסים להיזכר במידת הצמיגים של המיניוואן המשפחתי. במקום לנבור בניירת או לצאת לחניה, אתם פשוט שואלים את Gemini. התשובה שתקבלו היא לא רק מהירה, היא אישית באופן מפתיע: העוזר שולף את המידה מצילום בגלריה, מצליב אותה עם דגם הרכב שמצא במייל ומציע צמיגים שמתאימים להרגלי הנהיגה שלכם. זה ה‑Personal Intelligence - המהלך של גוגל שנועד להפוך את Gemini ממנוע חיפוש משוכלל לשותף אישי שמבין את ההקשרים הקטנים של החיים. באמצעות שליפת מידע בזמן אמת (RAG) מתוך Gmail, Photos ו-Search, גוגל לא רק משדרגת את העוזר שלה - היא חזק בקרב מול המתחרות במבחן האמון הגדול מכולם: האם נסכים לתת ל-AI להכיר אותנו באמת?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

עוזרי AI חכמים שלא באמת מכירים אותנו

למרות ההתקדמות המדהימה של עוזרי AI, רובם עדיין פועלים בתוך חלל סטרילי. הם יודעים הרבה על העולם, אבל מעט מאוד עלינו. הם יכולים להמליץ על “יעדים פופולריים לטיול”, אבל לא על מסלול שמתאים למשפחה שלנו. הם יודעים מהי מידת צמיג סטנדרטית, אבל לא מה מידת הצמיג של הרכב שלנו. הפער הזה הפך למעצור אמיתי בדרך לעוזר דיגיטלי שמרגיש כמו חלק מהחיים ולא כמו מנוע חיפוש עם צ׳אט.

 

מה זה Personal Intelligence?

Personal Intelligence מאפשר ל‑Gemini להתחבר למקורות מידע אישיים כמו Gmail, Google Photos, YouTube ו‑Search. החיבור הוא לא אוטומטי - המשתמש בוחר אם להפעיל אותו, איזה אפליקציות לקשר, ויכול לכבות הכול בכל רגע.

 

אבל ברגע שהחיבור פעיל, קורה משהו חדש: Gemini לא רק “יודע דברים”, אלא מבין הקשרים אישיים. הוא מסוגל לשלוף פרטים מדויקים מתוך החיים שלנו - תמונות, מיילים, חיפושים - ולשלב אותם בזמן אמת בתוך תשובה אחת קוהרנטית.

 

זה לא “זיכרון” במובן המסורתי. זו שליפה בזמן אמת - טכנולוגיה שמזכירה RAG (Retrieval‑Augmented Generation), שבה המודל לא מאחסן את המידע אצלו, אלא ניגש אליו רק כשצריך, משתמש בו כדי לענות וממשיך הלאה.

איך מפעילים את זה?

מכיוון שהפיצ׳ר זמין כרגע בבטא בארה״ב בלבד, משתמשים מחוץ לארה״ב יידרשו להתחבר דרך VPN אמריקאי (כאן תוכלו לקרוא איך זה עובד). לאחר מכן, ההפעלה פשוטה:

 

פותחים את אפליקציית Gemini ⇐ נכנסים ל‑Settings ⇐ בוחרים Personal Intelligence ⇐ נכנסים ל‑Connected Apps ומסמנים אילו שירותים רוצים לחבר (Gmail, Photos ועוד).

 

 

 

מה לגבי פרטיות?

כאן מגיעה הנקודה הקריטית: גוגל יודעת שהשאלה הראשונה של המשתמשים תהיה “האם ג׳מיני מאמן את עצמו על המיילים שלי?”. התשובה, לפי גוגל, היא לא.

 

Gemini יכול “לקרוא” את המייל או “להסתכל” בתמונה כדי לענות על בקשה, אבל התוכן עצמו לא נכנס לזיכרון של המודל ולא משמש לאימון. המערכת מאומנת רק על השיחות עם Gemini, וגם הן עוברות סינון כדי להסיר פרטים מזהים.

 

במילים אחרות, המודל לא “לומד” את מספר הרישוי שלכם, הוא רק יודע איפה למצוא אותו כשאתם מבקשים.

 

בנוסף, גוגל מנסה לשמור על שקיפות - Gemini מסביר מאיפה הגיע כל פרט בתשובה, מאפשר לנהל שיחות ללא פרסונליזציה, ומפעיל מנגנוני הגנה סביב נושאים רגישים כמו בריאות. והכי חשוב, אפשר לכבות את הכול בכל רגע.

מה האתגרים?

למרות ההתקדמות, גוגל מודה שהמערכת עדיין רחוקה משלמות. Personal Intelligence עלול לקשר בין דברים שאין ביניהם קשר, להניח הנחות על בסיס תמונות (“אתה אוהב גולף”) או לפספס שינויים בחיים כמו פרידות או שינויי תחביבים. זה חלק בלתי נפרד מהבטא, וגוגל מבקשת מהמשתמשים לתת פידבק כדי לשפר את המערכת.

 

מעידן המידע לעידן ההקשר

בשורה התחתונה, ה-Personal Intelligence הוא הרבה יותר מעוד פיצ׳ר. הוא מסמן את המעבר של גוגל מעולם החיפוש לעולם השותפות האקטיבית. אם עד היום עוזרי ה-AI היו מומחים לידע כללי ותקועים בתוך 'בועה' דיגיטלית, ג'מיני החדש מנסה לפרוץ את המחסום הזה ולהפוך לשותף שמבין את ההקשרים האישיים ביותר של חיינו.

 

המעבר הזה, מידע כללי למידע אישי, ומתגובה פסיבית לפרואקטיביות חכמה, הוא הצעד המשמעותי ביותר שנעשה לעבר חזון העוזר האישי הדיגיטלי. אך ככל שהטכנולוגיה הופכת אישית יותר, כך גדל גם המחיר של כל טעות אלגוריתמית או כשל אבטחתי.

 

בסופו של יום, ההצלחה של המהלך הזה לא תימדד רק ביכולת של ג'מיני למצוא מספר רישוי בתמונה, אלא במבחן האמון הגדול של העידן הנוכחי - עד כמה רחוק נהיה מוכנים לפתוח את דלתות חיינו הפרטיים כדי לקבל בתמורה לעולם שפשוט מבין אותנו, בלי שנצטרך להסביר.

הפוסט גוגל הופכת את ג’מיני לזיכרון השני שלכם עם Personal Intelligence הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-personal-intelligence/feed/ 0
האם במנוי ה-Low Cost של ChatGPT יהיו פרסומות? הכירו את ChatGPT GO https://letsai.co.il/openai-answer-gemini/ https://letsai.co.il/openai-answer-gemini/#respond Sun, 18 Jan 2026 06:01:02 +0000 https://letsai.co.il/?p=68300 האם זו התשובה של OpenAI ל-Gemini-3 של גוגל? מנוי Low Cost שמנסה לשבור את השוק? מסתבר שמנוי ChatGPT Go החדש של OpenAI הוא חלק מהתשובה של אלטמן וחבריו, למומנטום הכמעט בלתי ניתן לעצירה של גוגל. מכוונים ישר לכיס וללב של ההמונים. אחרי שנים שבהן הרגילו אותנו כמעט בכל חברה למנוי חודשי בעלות של 20 דולר, […]

הפוסט האם במנוי ה-Low Cost של ChatGPT יהיו פרסומות? הכירו את ChatGPT GO הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם זו התשובה של OpenAI ל-Gemini-3 של גוגל? מנוי Low Cost שמנסה לשבור את השוק? מסתבר שמנוי ChatGPT Go החדש של OpenAI הוא חלק מהתשובה של אלטמן וחבריו, למומנטום הכמעט בלתי ניתן לעצירה של גוגל. מכוונים ישר לכיס וללב של ההמונים. אחרי שנים שבהן הרגילו אותנו כמעט בכל חברה למנוי חודשי בעלות של 20 דולר, OpenAI מציעה שכבת ביניים חדשה, זולה משמעותית מחבילת Plus, שמבקשת לענות על צורך אמיתי: שימוש יומיומי, אינטנסיבי למדי, בלי להיכנס למחיר ולמורכבות של מנוי מתקדם. אבל מה הקאטץ'?!

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מהו בעצם ChatGPT Go

מנוי ChatGPT Go היא חבילה בתשלום נמוך יחסית, שהושקה רשמית כפתרון ביניים בין הגרסה החינמית של ChatGPT לבין המנויים היקרים יותר, שמתחילים ב-20 דולר בחודש במנוי Plus המוכר. המנוי הוצג לראשונה בהשקה ניסיונית בהודו, ובהמשך התרחב במהירות לעשרות מדינות נוספות, עד להשקה גלובלית מלאה. נכון לעכשיו, הוא זמין בכל המדינות שבהן ChatGPT נתמך, במחיר של כ-8 דולר לחודש בלבד, כאשר בחלק מהשווקים המחיר מותאם למטבע המקומי.

 

ההיגיון שמאחורי המהלך ברור: לא כל משתמש צריך או רוצה את כל יכולות העומק, המחקר והאוטומציה שמציעים מנויי Plus או מנויי Business או Enterprise, אך גם השימוש החינמי מרגיש מוגבל מדי עבור מי שעובד עם הכלי על בסיס יומי. Go ממוקם בדיוק באזור הזה.

 

המודל שבמרכז: GPT-5.2 Instant

בלב המנוי החדש עומד המודל GPT-5.2 Instant הרזה והמהיר של OpenAI. זהו המודל המרכזי שאליו מקבלים מנויי Go גישה, עם שימוש בלתי מוגבל בצ’אט עצמו, בכפוף למנגנוני הגנה ושימוש הוגן.

 

כאמור, מדובר בגרסה מהירה ויעילה של משפחת GPT-5.2, שמיועדת לאינטראקציות יומיומיות, כתיבה, ניסוח, למידה, פתרון בעיות ויצירת תוכן. היא אינה כוללת את יכולות ה-Reasoning המעמיקות ביותר של מודלי Thinking שתמצאו בחבילות בתשלום, אך בפועל מספקת מענה לרוב המוחלט של תרחישי השימוש הנפוצים.

 

הרבה יותר מהגרסה החינמית!

הפער המרכזי בין ChatGPT Go לבין השימוש החינמי אינו נוגע רק למודל עצמו, אלא בעיקר להיקפי השימוש. OpenAI מגדירה זאת כגישה מורחבת לפיצ’רים הפופולריים ביותר של ChatGPT.

GPT GO

OpenAI

 

שימוש בהודעות ובהעלאות קבצים

משתמשי Go נהנים מכמות שימוש גבוהה משמעותית בהודעות, העלאות קבצים וניתוח מסמכים, בהשוואה לגרסה החינמית. בפועל, מדובר בהבדל שמאפשר עבודה רציפה עם הכלי, בלי להיתקל במהירות בתקרות שימוש שמקטעות תהליכים.

 

יצירת תמונות וכלים מולטימודאליים

המנוי כולל גם גישה מורחבת ליצירת תמונות, כחלק מהיכולות המולטימודאליות של ChatGPT. עבור יוצרים, אנשי שיווק או משתמשים שעובדים עם יצירת תמונות כחלק מהשגרה, זהו שדרוג משמעותי ביחס לגרסה החינמית.

ניתוח נתונים מתקדם

מנוי ChatGPT Go מאפשר שימוש נרחב יותר בכלי ניתוח נתונים מתקדמים, כולל עבודה עם קבצים, טבלאות וכלי Python מובנים. גם כאן, לא מדובר ביכולות המקסימליות של המנויים הגבוהים יותר, אך בהחלט בשיפור מורגש למי שעובד עם נתונים באופן קבוע.

זיכרון ארוך יותר וחוויית שיחה רציפה

אחד השדרוגים המשמעותיים במנוי Go הוא הארכת חלון ההקשר (Context Window) והזיכרון. המשמעות היא ש-ChatGPT יכול לזכור יותר פרטים לאורך השיחה, לשמור על הקשר בין הודעות ולהפיק תגובות מותאמות יותר לאורך זמן.

בניית בוטים, פרויקטים, משימות ו-GPTs מותאמים אישית

עוד שיפור חשוב ומשמעותי הוא היכולת לבנות בוטים. ChatGPT Go כולל גם גישה לכלי ניהול כמו פרויקטים, משימות ויצירה ועריכה של GPT מותאמים אישית (Custom GPTs). המשמעות היא שניתן לארגן עבודה, להגדיר כלים ייעודיים ולהתאים את המערכת לצרכים ספציפיים, גם בלי להיות מנוי Plus.

עם זאת, חשוב להדגיש: מדובר בגישה לפיצ’רים הבסיסיים בתחום זה. גישה מורחבת לכלים המתקדמים יותר, כמו מצב הסוכן, מחקרי עומק (Deep Research) או אינטגרציות מורכבות, שמורים למנויים הגבוהים יותר.

 

מה ChatGPT Go לא כולל

כדי להבין במה המנוי שונה משאר המנויים בתשלום, חשוב לא פחות להכיר את המגבלות שלו ומה אנחנו לא מקבלים!

אין גישה למודלים ותיקים או מתקדמים יותר

מנוי ChatGPT Go אינו כולל גישה למודלי הלגאסי או מודלי ריזונינג (מודלי Thinking שמתאימים במיוחד לניתוח קבצים ומשימות מורכבות), ואינו מאפשר בחירה בין מודלים שונים. מי שזקוק למבחר גדול יותר ולמעבר בין מודלים שונים, יאלץ לשדרג למנוי Plus ומעלה. עם זאת, יש בו פיצ'ר של מצב חשיבה (אותו אחד שיש בחבילה החינמית) שמאפשר להקצות יותר כוח חישוב לפתרון בעיות מורכבות. חשוב לציין, למרות השם המבלבל (Think), זה לא אותו מודל חשיבה שיש בחבילות בתשלום.

מודל חשיבה חינמי

מודל חשיבה חינמי | OpenAI

 

 

אין גישה לכלים מתקדמים כמו Sora

כלים ליצירת וידאו באמצעות AI כמו מודל הוידאו המצוין Sora לא זמינים במנוי GO. גם מצב הסוכן, או גישה מורחבת לכלי ה-Deep Research אינם חלק מהמנוי (חשוב לציין - יש אפשרות לבצע מחקרי עומק גם בחבילה החינמית וגם במנוי GO, אבל בכמות מאוד מוגבלת של שימושים). גם אפליקציות מסוימות בספריית האפליקציות של ChatGPT דורשות מנוי יקר יותר.

שימוש ב-API אינו כלול

חשוב להדגיש: ChatGPT Go הוא מנוי לשימוש בממשק ChatGPT בלבד. שימוש ב-API של OpenAI מחויב בנפרד, בהתאם לתמחור הייעודי, ואינו חלק מחבילת Go.

פרסומות כחלק מהמודל הכלכלי

אחד ההיבטים המסקרנים ביותר במנוי החדש הוא הכוונה לשלב פרסומות. OpenAI הודיעה כי בכוונתה להתחיל בניסויים בהצגת פרסומות בגרסה החינמית וב-ChatGPT Go, תחילה בארצות הברית. לפי ההצהרות, מטרת המהלך היא לאפשר שמירה על מחיר נמוך ונגיש, תוך הרחבת הגישה לכלי AI מתקדמים. מנויי Plus, Pro, Business ו-Enterprise יישארו ללא פרסומות.

 

מדובר בשינוי תפיסתי משמעותי עבור ChatGPT, שעד כה פעל בסביבה נקייה מפרסום. עם זאת, OpenAI מדגישה כי מדובר בפרסום מבוקר, כחלק מאסטרטגיית נגישות רחבה יותר.

 

מודעות ופרסומות ב-ChatGPT במסלול GO | קרדיט: OpenAI

מודעות ופרסומות ב-ChatGPT במסלול GO | קרדיט: OpenAI

 

השוואה למנויי Plus ו-Pro

כדי להבין למי מיועד ChatGPT Go, חשוב למקם אותו בתוך מדרג המנויים הכולל.

חבילת ChatGPT Plus, במחיר של כ-20 דולר לחודש, מיועדת למשתמשים שזקוקים ליכולות חשיבה עמוקות יותר, גישה למודלים מתקדמים, כלים כמו Codex (סוכן הקוד של OpenAI), ומגבלות שימוש גבוהות במיוחד. ChatGPT Pro, במחיר של כ-200 דולר לחודש, פונה לקהל מצומצם של משתמשי קצה מתקדמים במיוחד, שזקוקים למקסימום יכולת, זיכרון והקשר ולכמות גדולה מאוד של כוח חישוב. מכוני מחקר, חברות וארגונים עם היקף שימוש גבוה במיוחד וכן הלאה.

מסלול Go, לעומתם, אינו מנסה להתחרות בהם, אלא להציע נקודת כניסה נוחה ומשתלמת למי שמרגיש שהגרסה החינמית כבר לא מספיקה, אבל לא רוצה לקרוע את הכיס (למרות ש-20 דולר בחודש שווה ערך למנת שווארמה בלאפה וקולה, או למנה במסעדה - ממש לא מותרות ליחידי סגולה).

ההבדלים בין החבילות | OpenAI

ההבדלים בין החבילות | OpenAI

 

זהו מנוי שמיועד לשימוש יומיומי, רציף, כזה שמרגיש פחות מוגבל, אך עדיין נשאר במסגרת תקציבית סבירה.

 

זמינות, חיוב וניהול חשבון

המנוי מחויב באופן חודשי, ללא אפשרות לתשלום שנתי או הנחה לטווח ארוך. ניתן לבטל את המנוי בכל עת דרך הגדרות החשבון, והמעבר בין מנויים מתבצע בסוף מחזור החיוב הקיים, ללא החזר יחסי. הניהול מתבצע כולו דרך ממשק ChatGPT, כולל צפייה בחשבוניות ובפרטי החיוב. נושאי פרטיות ושימוש בנתונים זהים לאלו של שאר המנויים, עם אפשרות לבטל שימוש בנתונים לצורכי אימון.

 

האסטרטגיה של OpenAI

מסלול ChatGPT Go אינו רק עוד מנוי. הוא משקף שינוי רחב יותר בגישה של OpenAI, שמבקשת להרחיב את קהל המשתמשים הפעילים ולבנות מודל כלכלי מגוון יותר. שילוב של תמחור מדורג, יחד עם פרסום מבוקר, מצביע על ניסיון לאזן בין נגישות, קיימות פיננסית ופיתוח טכנולוגי מתמשך. בסופו של דבר, Go אינו מבטיח חוויית AI אולטימטיבית, אלא חוויה פרקטית, יומיומית, ובעיקר - זולה! מחיר שמתאים להרבה יותר אנשים (תזכורת למי ששכח - ל-ChatGPT יש כ-800 מיליון משתמשים שבועיים. יותר מלג'מיניי והרבה יותר מקלוד של אנטרופיק). זהו צעד שמחזק את המעמד של ChatGPT ככלי עבודה יומיומי במחיר שווה לכל נפש, שמקדם תהליכי דמוקרטיזציה של טכנולוגיה ומידע. ובעיקר, הוא משקף את מלחמת הענקים בין גוגל ו-OpenAI מייצרת לנו, הצרכנים, פתרונות מגוונים וטובים. נראה ששוק ה-AI מתחיל להתבגר ולהציע פתרונות מותאמים לשכבות שונות של משתמשים, בניגוד לקיבעון שאפיין את מסלולי התמחור שלו בשלוש השנים האחרונות.

הפוסט האם במנוי ה-Low Cost של ChatGPT יהיו פרסומות? הכירו את ChatGPT GO הופיע ראשון בLet's AI בינה מלאכותית

]]> https://letsai.co.il/openai-answer-gemini/feed/ 0 החזון של אנטרופיק לעתיד הרפואה הדיגיטלית https://letsai.co.il/anthropic-healthcare-future/ https://letsai.co.il/anthropic-healthcare-future/#respond Fri, 16 Jan 2026 08:19:35 +0000 https://letsai.co.il/?p=68234 חברת אנטרופיק (Anthropic) הכריזה על מהלך אסטרטגי שמציב את הבינה המלאכותית בליבת עולם הרפואה, עם השקת שתי חבילות כלים ייעודיות: Claude for Healthcare ו-Claude for Life Sciences. בניגוד לפתרונות כמו ChatGPT Health שפונים ברובם ישירות למטופלים כ"יועצים אישיים", אנטרופיק מכוונת אל ה"מנוע" שמניע את המערכת - הארגונים, מאגרי המידע והתהליכים הבירוקרטיים המורכבים. החידוש המרכזי כאן […]

הפוסט החזון של אנטרופיק לעתיד הרפואה הדיגיטלית הופיע ראשון בLet's AI בינה מלאכותית

]]>
חברת אנטרופיק (Anthropic) הכריזה על מהלך אסטרטגי שמציב את הבינה המלאכותית בליבת עולם הרפואה, עם השקת שתי חבילות כלים ייעודיות: Claude for Healthcare ו-Claude for Life Sciences. בניגוד לפתרונות כמו ChatGPT Health שפונים ברובם ישירות למטופלים כ"יועצים אישיים", אנטרופיק מכוונת אל ה"מנוע" שמניע את המערכת - הארגונים, מאגרי המידע והתהליכים הבירוקרטיים המורכבים. החידוש המרכזי כאן הוא החיבור הישיר - המערכת של Claude מתממשקת למערכות בתי החולים, למאגרי רגולציה ולפלטפורמות מחקר. המטרה היא להפוך את הבינה המלאכותית מעוזרת חכמה שרק "עונה על שאלות", לכלי עבודה אינטגרלי, מעין "עובד מן המניין" שמבצע משימות בתוך המערכת הרפואית עצמה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

יותר מצ'אטבוט: המהפכה של אנטרופיק בניהול הרפואי

העיתוי של ההכרזה אינו מקרי. בשעה שהתחרות על עתיד הרפואה הדיגיטלית מתהדקת, וזמן קצר לאחר הכרזה מקבילה של OpenAI, אנטרופיק מציגה תוכנית שאפתנית בהרבה. במקום להסתפק בצ'אטבוט שרק "מתרגם" תוצאות של בדיקות דם למטופלים, החברה מציעה חזון שבו קלוד (Claude) הופך לכלי עבודה מקצועי המחובר למערכות הליבה של בתי חולים, חברות ביטוח ויצרניות תרופות.

 

זו לא רק התקדמות טכנולוגית, אלא ממש שינוי תפיסה. הבינה המלאכותית עוברת ממצב של "דיבור על רפואה" לביצוע פעולות של ממש - החל מניהול תהליכים בירוקרטיים ועד תקשורת ישירה עם מאגרי מידע מדעיים וגופי רגולציה (הגופים המפקחים על עולם הרפואה). המסר של אנטרופיק ברור: ה-AI כבר לא נשאר בחוץ כיועץ חיצוני, הוא הופך לחלק בלתי נפרד מהתשתית הרפואית עצמה.

כשבירוקרטיה חונקת את הרפואה

כדי להבין את המהלך של אנטרופיק, צריך להכיר תחילה את הבעיה המרכזית שהיא מנסה לפתור. מערכות הבריאות בעולם, ובעיקר בארה"ב, קורסות תחת עומס בירוקרטי אדיר. אחד המכשולים הגדולים ביותר הוא תהליך ה"אישור המוקדם" (Prior Authorization) - דרישה של חברות הביטוח לקבל מהרופאים הצדקות מפורטות לפני שהן מאשרות טיפולים או תרופות. התהליך הזה, שמתבצע ברובו ידנית, גוזל זמן יקר מצוותים רפואיים ומעכב טיפול בחולים.

 

לכך מתווספים תיעוד רפואי מסורבל, מאגרי מידע שאינם "מדברים" זה עם זה, ומחסור כרוני בכוח אדם. גם בעולם המחקר המצב דומה כאשר ניסויים קליניים ופיתוח תרופות סובלים מעיכובים של חודשים בשל הצורך בעיבוד הררי מידע ובהגשת דוחות מורכבים לרשויות המפקחות. אנטרופיק זיהתה שהאתגר הגדול של הרפואה המודרנית הוא לאו דווקא חוסר בידע רפואי, אלא ה"תפעול" שלו - כל מה שקורה מאחורי הקלעים ומפריע לרופאים ולחוקרים לעשות את עבודתם.

קלוד מתחבר ישירות ללב הרפואה

על הרקע הזה, החידוש המשמעותי ביותר בהכרזה הוא לא עוד שדרוג של המודל, אלא הפיכתו לחלק בלתי נפרד מהתשתית הרפואית. אנטרופיק הוסיפה לקלוד "מחברים" (Connectors) - מעין כבלים טכנולוגיים המאפשרים לו גישה ישירה למקורות המידע החשובים והאמינים ביותר בעולם הרפואה:

  • מאגר ה-CMS: זהו המאגר הממשלתי בארה"ב של שירותי הביטוח (Medicare ו-Medicaid). החיבור אליו מאפשר לקלוד לבדוק בזמן אמת מה מכוסה בביטוח של המטופל ולבצע אוטומציה לתהליך ה"אישור המוקדם" המסורבל, תוך צמצום טעויות אנוש.

  • ICD-10: ה"שפה" הבינלאומית שבה כל מחלה, פציעה או טיפול מקבלים קוד ייחודי. קלוד יודע עכשיו לעבוד עם השפה הזו באופן מובנה.

  • NPI Registry: מרשם רשמי המשמש לאימות זהותם של רופאים וספקי שירותי בריאות.

  • PubMed: ספרייה דיגיטלית המכילה מעל 35 מיליון מאמרים ומחקרים רפואיים. השימוש בה מאפשר לקלוד "לעגן" את תשובותיו בעובדות מדעיות מוכחות (Grounding) ולהימנע מ"הזיות" או המצאת נתונים.

בנוסף לגישה למידע, אנטרופיק העניקה לקלוד "כישורי סוכן" (Agent Skills) המאפשרים לו לבצע פעולות מורכבות. הבולטת שבהן היא העבודה עם תקן FHIR - הסטנדרט הבינלאומי שמאפשר למערכות מחשוב רפואיות שונות "לדבר" זו עם זו.

 

בגרף המצורף רואים איך קלוד עובר משיחה לביצוע משימות ואת הביצועים של קלוד Opus 4.5 במדדי הסוכן והחישוב הרפואיים. רמת הדיוק של 92.3% במדד ה-MedAgentBench מוכיחה שהמודל מוכן לבצע תהליכי עבודה רפואיים מורכבים ברמת אמינות גבוהה ביותר:

 

קלוד יודע "לעשות" (Agent) ולבצע חישובים (Calc) | Anthropic

 

התמיכה ב-FHIR היא שוברת שוויון. היא מאפשרת לקלוד להתממשק ישירות לתיק הרפואי של המטופל בצורה מאובטחת. חשוב להבהיר, המערכת אינה "כותבת" בעצמה בתיק הרפואי. במקום זאת, קלוד מכין נתונים מובנים וטיוטות מקצועיות, שממתינים לאישור סופי (Sign-off) של רופא אנושי.

 

בדרך זו, המערכת מורידה מהרופא את נטל ההקלדה והבירוקרטיה, אך משאירה את האחריות המקצועית וההחלטה הסופית בידיים אנושיות, כנדרש ברגולציה.

 

המשמעות היא שקלוד כבר לא רק "מייעץ" או עונה על שאלות כלליות, הוא מבצע משימות תפעוליות מורכבות שהיו שמורות עד כה אך ורק לאנשי מקצוע.

מהתיאוריה למעשה

כדי להבין את המשמעות האמיתית של המהלך, כדאי לבחון כיצד היכולות הללו משנות את שגרת העבודה. בתהליך של אישור טיפולים מול חברות הביטוח, משימה שגזלה בעבר שעות של עבודה ידנית, קלוד מסוגל כעת למשוך באופן עצמאי את מדיניות הכיסוי המעודכנת, להשוות אותה לרשומות הרפואיות של המטופל ולהגיש למאשר האנושי החלטה מנומקת ומבוססת נתונים.

 

היעילות הזו ממשיכה גם אל עולם הערעורים על תביעות ביטוח, שם המערכת מאגדת מסמכים, קודים רפואיים והנחיות קליניות לכדי טיוטת ערעור מוכנה ומקצועית.

 

 

ההשפעה של קלוד מורגשת גם בתקשורת הישירה מול המטופלים. הוא פועל כמעין "ממיין דיגיטלי" (Triage) שמסוגל לעבור על הודעות נכנסות, לזהות מקרים דחופים הדורשים התערבות מיידית ולהפחית משמעותית את העומס המוטל על הצוותים הקליניים.

 

מעבר לסיוע לארגונים קיימים, התשתית שבנתה אנטרופיק מעניקה רוח גבית לדור הבא של הסטארטאפים הרפואיים. אלו יכולים כעת להתבסס על היכולות שלו כדי לפתח מוצרים מתקדמים, החל מסיכום אוטומטי של ביקורי רופא ועד למערכות תומכות החלטה שמסייעות לרופאים לנהל תיקים רפואיים מורכבים בדיוק רב יותר.

קלוד בשירות מדעי החיים

החלק השני של ההכרזה נוגע בלב תעשיית התרופות והמחקר - תחום מדעי החיים. בעולם הזה, שבו כל חודש של עיכוב בניסוי קליני מתרגם להפסדים של מיליארדי דולרים, אנטרופיק מציעה גשר טכנולוגי חדש.

 

היא מחברת את קלוד ישירות לפלטפורמות המחקר המרכזיות בעולם, החל ממאגרי נתונים של ניסויים קליניים כמו Medidata ו-ClinicalTrials.gov, ועד לספריות ענק של מאמרים מדעיים וכלים לזיהוי מטרות תרופתיות ותרכובות כימיות.

 

בגרף המצורף תוכלו לראות את קלוד מוביל במדעי החיים - ביצועי Claude Opus 4.5 במדד SpatialBench של LatchBio הופך אותו לכלי העבודה המדויק ביותר כיום עבור חוקרים ומעבדות:

 

ביצועי Claude Opus 4.5 במדד SpatialBench של LatchBio.

רמת דיוק גבוהה בניתוח נתונים ביולוגיים מורכבים | Anthropic

 

במקום שחוקרים יבזבזו זמן יקר על איסוף ידני של נתונים ממקורות מפוזרים, קלוד הופך לשותף פעיל בתהליך הפיתוח. הוא מצויד בכישורים ייעודיים המאפשרים לו לנסח טיוטות לפרוטוקולים (נהלי עבודה) של ניסויים, להמיר נתונים מורכבים ממכשירי מעבדה לפורמטים אחידים שקל לעבוד איתם, ולתמוך בכלי ניתוח נתונים מתקדמים שעד כה דרשו מומחיות טכנית צרה.

 

 

התוצאה היא מערכת ליווי מקצה לקצה: מהרגע שבו עולה רעיון ראשוני במעבדה, דרך שלבי הניסוי המורכבים ועד להגשת הדוחות הסופיים לרשויות המפקחות, כמו ה-FDA האמריקאי. המהלך הזה נועד לקצר משמעותית את הדרך הארוכה והיקרה שבין גילוי מדעי לבין תרופה חדשה שמגיעה אל המטופל.

 

בגרף המצורף תראו איך קלוד משתפר כל הזמן ולומד לדבר "מדעית": בתוך שלושה חודשים בלבד, קלוד Opus 4.5 רשם זינוק של מעל 13% ביכולת לפענח איורים מדעיים ושיפור של יותר מ-10% בהבנת מבני חלבונים - יכולות המקצרות משמעותית את זמן המחקר והפיתוח:

לומד לדבר "מדעית": גרף השיפור של קלוד Opus 4.5. בתוך שלושה חודשים בלבד, המודל רשם זינוק של מעל 13% ביכולת לפענח איורים מדעיים ושיפור של כ-10% בהבנת מבני חלבונים – יכולות המקצרות משמעותית את זמן המחקר והפיתוח.

"קפיצת המדרגה" שעשה קלוד בתוך שלושה חודשים בלבד | Anthropic

כשהטכנולוגיה פוגשת אחריות

המעבר של אנטרופיק לעולם הרפואה הוא לא רק תוספת של תכונות חדשות, אלא שינוי פילוסופי באופן שבו בינה מלאכותית פוגשת ארגונים גדולים. בעוד שמתחרותיה (כמו OpenAI) נוטות להתמקד בחוויית המשתמש של המטופל כ"יועץ אישי", אנטרופיק בוחרת לפנות ישירות אל הליבה המוסדית: בתי החולים, חברות הביטוח וענקיות התרופות.

 

כדי לעמוד בסטנדרטים הנוקשים של הגופים האלו, המערכת נבנתה מראש בהתאם לתקן ה-HIPAA המחמיר - החוק שמגדיר כיצד יש לשמור על הפרטיות והאבטחה של מידע רפואי רגיש. זהו תנאי סף קריטי, שבלעדיו לא ניתן לפעול בתוך המערכת הרפואית הרשמית.

 

הבדל מהותי נוסף טמון באיכות המידע ובאופן הפעולה שלו. במקום שהמודל יסתמך רק על "ידע כללי" שנאסף מהאינטרנט ועלול להיות שגוי, אנטרופיק מחברת אותו למאגרים הרשמיים והמעודכנים ביותר של עולם המדע.

 

היכולת הזו, בשילוב עם "כישורי סוכן" המאפשרים למודל לבצע פעולות ותהליכים ולא רק לנהל שיחה, יוצרת שילוב נדיר בתעשייה - כלי שמסוגל לחבר בצורה חלקה בין עולם המחקר המדעי המורכב לבין עולם הרגולציה והחוקים היבשים. בדרך זו, אנטרופיק לא רק מציעה "צ'אט חכם", אלא בונה תשתית מקצועית המותאמת במיוחד לצרכים הייחודיים של מדעי החיים.

האתגרים שבדרך

למרות ההבטחה הגדולה, הדרך ליישום נרחב של הכלים הללו עדיין רצופה באתגרים משמעותיים. נכון לעכשיו, רוב ההצלחות שהוצגו הן דוגמאות נקודתיות, ועדיין חסר מידע מקיף על האופן שבו המערכת תתפקד "בשטח" - בבתי חולים עמוסים ובמצבים בלתי צפויים.

 

השאלה הגדולה ביותר נותרה שאלת הדיוק והטעויות. בעולם של מודלי שפה, תופעת ה"הזיות" (Hallucination) שבה הבינה המלאכותית מציגה מידע שגוי בביטחון מלא, היא לא רק תקלה טכנית מביכה. בהקשר רפואי, טעות כזו עלולה להוביל לאבחון שגוי, לסכנת חיים ממשית ולתביעות משפטיות חסרות תקדים.

 

אנטרופיק מנסה לצמצם את הסיכון הזה באמצעות תהליך שנקרא "עיגון" (Grounding). במקום לתת לקלוד להסתמך רק על הזיכרון הדיגיטלי שלו, המערכת מאולצת לבסס ולעגן כל תשובה על מאגרי מידע מוסמכים ואמינים בלבד. זהו צעד קריטי לבניית אמון, אך הוא עדיין אינו מהווה פתרון מושלם לכלל המורכבויות של עולם הרפואה.

 

לצד זאת, נותרו פתוחות שאלות כבדות משקל לגבי הרגולציה והאתיקה. עד כמה ניתן לאפשר למכונה לקבל החלטות המשפיעות על גורלם של מטופלים? אנטרופיק עצמה מבהירה בנקודה זו כי המערכת נועדה לספק תמיכה וכלי עזר בלבד, והיא אינה מתיימרת להוות תחליף לשיקול הדעת המקצועי של הרופא.

המודל העסקי והמשמעות הכלכלית

שוק הבינה המלאכותית בעולם הבריאות מוערך כיום במיליארדי דולרים, והוא נחשב לאחד ממנועי הצמיחה החזקים ביותר בתעשייה כולה. אבל המהלך של אנטרופיק הוא הרבה יותר מהשקת "תכונות חדשות", זה מהלך עסקי אגרסיבי ומחושב שמטרתו ליצור מה שנקרא בעולם העסקי "נעילת ספק" (Vendor Lock-in).

 

כאשר בית חולים או חברת ביטוח מחליטים להטמיע את קלוד בתוך מערכת הרשומות הרפואיות שלהם (EHR - התיק הדיגיטלי המרכזי של המטופל), לחבר אותו למאגרי המידע הממשלתיים ולבסס עליו את התהליכים הבירוקרטיים הרגישים ביותר, המעבר למערכת של חברה מתחרה הופך למשימה כמעט בלתי אפשרית.

 

המורכבות הטכנולוגית והצורך לסנכרן מחדש את כל המערכות יוצרים תלות אסטרטגית עמוקה. בדרך זו, אנטרופיק מפסיקה להיות ספקית של "כלי צ'אט" פשוט שאפשר להחליף בקלות, והופכת לשותפה טכנולוגית לטווח ארוך שמושרשת עמוק בתוך התשתית של ארגון הבריאות.

 

 

העשור של הבינה המלאכותית בתשתית הרפואית

בסופו של דבר, המהלך של אנטרופיק מסמן שינוי כיוון דרמטי בתעשייה. הבינה המלאכותית מפסיקה להיות "עוזרת אישית" חיצונית והופכת לחלק בלתי נפרד מהתשתית הרפואית. זוהי מערכת שמחוברת למאגרי המידע הקריטיים ביותר, מסוגלת לבצע תהליכים מורכבים ומאיצה שרשראות אספקה ופיתוח שלמות - מהמעבדה ועד למיטת המטופל.

 

אם הפתרון של OpenAI נתפס כ"יועץ המלווה את המטופל", הרי שקלוד של אנטרופיק מבקש לתפוס את משבצת "העובד המומחה של בית החולים".

 

המרוץ הזה בין החברות - בין התמקדות בצרכן הקצה לבין התמקדות בליבת המערכת - הוא שעשוי להגדיר מחדש את האופן שבו מערכות הבריאות יתפקדו בעשור הקרוב.

הפוסט החזון של אנטרופיק לעתיד הרפואה הדיגיטלית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-healthcare-future/feed/ 0
Agent Mode ב‑Excel הופך את הגיליון האלקטרוני לשותף חכם https://letsai.co.il/excel-agent-mode/ https://letsai.co.il/excel-agent-mode/#respond Thu, 15 Jan 2026 08:13:56 +0000 https://letsai.co.il/?p=68055 יש רגעים שבהם טכנולוגיה ותיקה עוברת טרנספורמציה שקטה שמעצבת מחדש את שגרת העבודה. Excel, אחד הכלים הוותיקים והמשפיעים בעולם העסקי, נמצא בדיוק ברגע כזה. Agent Mode, יכולת חדשה במסגרת Microsoft 365 Copilot, משנה את הגיליון האלקטרוני ממערכת חישוב למערכת שמבינה כוונה, מבצעת תהליכים מורכבים ומייצרת תוצרים מלאים תוך דקות. זה לא “עוד פיצ’ר”, אלא ממש […]

הפוסט Agent Mode ב‑Excel הופך את הגיליון האלקטרוני לשותף חכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם טכנולוגיה ותיקה עוברת טרנספורמציה שקטה שמעצבת מחדש את שגרת העבודה. Excel, אחד הכלים הוותיקים והמשפיעים בעולם העסקי, נמצא בדיוק ברגע כזה. Agent Mode, יכולת חדשה במסגרת Microsoft 365 Copilot, משנה את הגיליון האלקטרוני ממערכת חישוב למערכת שמבינה כוונה, מבצעת תהליכים מורכבים ומייצרת תוצרים מלאים תוך דקות. זה לא “עוד פיצ’ר”, אלא ממש שינוי פרדיגמה: במקום לכתוב נוסחאות, לבנות טבלאות ציר או לעצב גרפים, המשתמש פשוט מתאר מה הוא צריך - ו‑Excel מבצע. לא כקיצור דרך, אלא כשותף עבודה שמבין את המשימה ומרכיב את הפתרון. Agent Mode מחבר בין היכולות העמוקות של Excel לבין מודלי שפה גדולים, מאפשר משיכת נתונים חיצוניים, ומבצע תהליכים מרובי‑שלבים תוך תיעוד מלא - וכל זאת מבלי להחליף את שיקול הדעת האנושי.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הבעיה: Excel הוא כלי עוצמתי - אבל לא תמיד נגיש

Excel הוא אחד הכלים החזקים והגמישים ביותר בעולם העבודה. הוא מאפשר לבצע כמעט כל ניתוח נתונים שאפשר לדמיין, אבל כדי להגיע לשם, צריך שליטה במגוון יכולות טכניות שלא תמיד זמינות לכל משתמש.

 

נוסחאות מורכבות, טבלאות ציר, עיצוב מותנה, בניית גרפים ושילוב נתונים ממקורות חיצוניים - כל אלה דורשים ידע, ניסיון, ולעיתים גם לא מעט ניסוי וטעייה. אפילו משתמשים מנוסים מוצאים את עצמם מחפשים מדריכים, מתקנים שגיאות, או משחזרים שלבים. עבור רבים אחרים, המשימות האלה פשוט לא נגישות - הם יודעים מה הם רוצים להשיג, אבל לא תמיד מבינים איך לבצע את זה בתוך Excel.

הפתרון: סוכן חכם שפועל בתוך Excel

Agent Mode הוא מצב עבודה חדש שבו Copilot מבית מיקרוסופט מפסיק להיות רק עוזר טקסטואלי, והופך לסוכן שמבצע פעולות ישירות בתוך הגיליון. המשתמש מתאר את המשימה בשפה טבעית, ו‑Copilot מרכיב את הפתרון שלב‑אחר‑שלב בתוך הקובץ עצמו, תוך שימוש בכל היכולות המתקדמות של Excel.

 

Agent Mode מפגין יכולות רחבות כמו בניית טבלאות ציר, כתיבת נוסחאות, יצירת גרפים וויזואליזציות, עיצוב וארגון נתונים, ביצוע תהליכים מרובי‑שלבים מקצה לקצה, משיכת נתונים מהאינטרנט באמצעות Web Search ובחירה בין מודלים שונים, כולל אפשרות להריץ את Claude.

 

למרות האוטומציה, המשתמש נשאר בשליטה מלאה. כל פעולה מתועדת, מוצגת, ומלווה בשלבי אימות שמאפשרים להבין בדיוק מה נעשה ולוודא שהתוצאה נכונה.

איך זה עובד בפועל

ההפעלה של Agent Mode ב‑Excel מתבצעת דרך ממשק Copilot, בתהליך פשוט בו המשתמש מתאר את המשימה, והסוכן מבצע אותה ישירות בתוך הגיליון - כולל בניית מודלים, משיכת נתונים, ויצירת תוצרים מוכנים להצגה.

 

איך להפעיל את Agent Mode

תהליך מדורג של שימוש ב-Agent Mode בתוך גיליון Excel

 

כדי להפעיל את Agent Mode, המשתמש מתחיל מתוך חלונית Copilot ובוחר במצב החדש (מתוך תפריט הבחירה) שמאפשר לסוכן לבצע פעולות ישירות בתוך הגיליון (תמונה 2). מיד לאחר מכן נפתח ממשק Agent Mode, ובו האפשרות להפעיל את Web Search - יכולת שמאפשרת למשוך נתונים חיים מהאינטרנט, כמו תחזיות שוק או נתוני מכירות עדכניים (תמונה 3). בשלב הבא ניתן לבחור את מודל העבודה, כולל האפשרות להריץ את Claude, מודל חלופי שמציע סגנון פעולה שונה ומרחיב את מרחב היכולות של הסוכן (תמונה 4).

 

כעת המשתמש מתאר את המשימה בשפה טבעית, למשל: “בנה תחזית שוק אמריקאית ל-2025-2030 לפי סגמנטים, עם הנחות ניתנות לשינוי וגרף הכנסות” - והסוכן מקבל את ההוראה ומתחיל לעבוד (תמונה 5). בתוך זמן קצר נבנה גיליון מלא: מודל תחזית שוק הכולל הנחות, שיעורי צמיחה, גודל שוק לפי סגמנטים, טבלאות וגרפים לשנים הרלוונטיות (תמונה 6). בסיום, העוזר מציג סיכום מסודר של מקורות הנתונים והתובנות המרכזיות כולל רשימת דוחות מחקר שבהם נעשה שימוש, נקודות מפתח לשוק, והדגשה שהתוצר מוכן לניתוח, התאמה והצגה (תמונה 7).

 

בשלב זה המשתמש יכול כמובן לשנות הנחות או ערכים בטבלאות, והמודל כולו, כולל הגרפים, מתעדכן בזמן אמת, מה שמדגים את הגמישות של מודל דינמי עם פרמטרים ניתנים לכוונון.

מה מיוחד ב‑Agent Mode

Agent Mode לא משנה את הממשק של Excel, הוא משנה את האופן שבו עובדים איתו. במקום להפעיל כל כלי בנפרד, הסוכן משתמש בכל היכולות המוכרות של Excel, אבל מפעיל אותן אוטומטית, כחלק מתהליך שלם שמבוסס על הבנת כוונה.

 

הייחודיות של Agent Mode באה לידי ביטוי בכמה נקודות מרכזיות:

  • שילוב בין Excel למודלים גדולים הסוכן לא מוסיף שכבת ממשק חדשה - הוא מפעיל את הכלים הקיימים של Excel, אבל עושה זאת מתוך הבנה של המשימה הכוללת.

  • ביצוע תהליכים מרובי‑שלבים לא מדובר בפקודה אחת, אלא בתהליך שלם: איסוף נתונים ← בניית מודל ← עיצוב ← ויזואליזציה ← אימות.

  • Web Search מובנה אפשרות למשוך נתונים חיים מהאינטרנט ישירות לתוך הגיליון - נתוני שוק, תחזיות, מידע ציבורי. 

  • בחירה בין מודלים שונים האפשרות להריץ את Claude מתוך Excel מצביעה על גישה פתוחה: לא רק מודל אחד, אלא אקו‑סיסטם של יכולות.

  • שקיפות מלאה כל פעולה מתועדת, מוצגת, וניתנת לאימות - כולל סיכום שינויים, מקורות מידע ושלבי בדיקה. זה קריטי במיוחד כשעובדים עם נתונים רגישים או תוצרים עסקיים.

חשוב להדגיש, שבעת שימוש ב‑Agent Mode, נתונים שמוזרמים מהאינטרנט כפופים למדיניות פרטיות ולתנאי שימוש של המקורות עצמם. ארגונים צריכים לוודא שהמידע שנמשך עומד בדרישות רישוי, אבטחה וציות רגולטורי.

 

 

Excel הופך לפלטפורמת ניתוח נתונים אוטונומית

Agent Mode לא מחליף את Excel - הוא מרחיב אותו והופך אותו לכלי שמבין כוונה ופועל לפיה. הוא מתאים למשתמשים מתחילים ומקצוענים כאחד, מאפשר לבנות תוצרים מורכבים בזמן קצר, ומשלב אוטומציה, בינה מלאכותית ונתונים חיים מהאינטרנט בתוך תהליך עבודה רציף. למרות שהיכולות עדיין מתפתחות, הכיוון ברור: Excel הופך מסביבת עבודה ידנית לכלי שמסוגל לבצע תהליכים שלמים באופן עצמאי‑למחצה.

 

במקום להשקיע זמן בבנייה טכנית, המשתמשים יכולים להתמקד בתובנות. ניתוח נתונים הופך נגיש יותר, התלות במומחי Excel פוחתת, ונוצר סטנדרט חדש של שקיפות ואימות בתוצרים שנבנים בעזרת AI. במובן מסוים, Agent Mode מסמן את המעבר לעידן שבו כלים מקצועיים לא רק מגיבים לפקודות - אלא מבינים את היעד, ובונים את הדרך אליו.

הפוסט Agent Mode ב‑Excel הופך את הגיליון האלקטרוני לשותף חכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/excel-agent-mode/feed/ 0
Cowork של אנטרופיק עושה סדר בשולחן העבודה https://letsai.co.il/cowork-ai-partner/ https://letsai.co.il/cowork-ai-partner/#respond Wed, 14 Jan 2026 13:37:16 +0000 https://letsai.co.il/?p=68202 אנטרופיק בודקת את הגבולות של סוכני בינה מלאכותית אוטונומיים, ומציבה את עצמה במרכז הקרב על סביבת העבודה הדיגיטלית. לפעמים טכנולוגיה לא מתקדמת בזכות חזון של חברה, אלא בזכות יצירתיות של משתמשים - זה בדיוק מה שקרה עם Claude Code. הכלי, שיועד במקור למפתחים, הפך במהירות למעין "סוכן עבודה" מאולתר - אנשים השתמשו בו לא רק […]

הפוסט Cowork של אנטרופיק עושה סדר בשולחן העבודה הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק בודקת את הגבולות של סוכני בינה מלאכותית אוטונומיים, ומציבה את עצמה במרכז הקרב על סביבת העבודה הדיגיטלית. לפעמים טכנולוגיה לא מתקדמת בזכות חזון של חברה, אלא בזכות יצירתיות של משתמשים - זה בדיוק מה שקרה עם Claude Code. הכלי, שיועד במקור למפתחים, הפך במהירות למעין "סוכן עבודה" מאולתר - אנשים השתמשו בו לא רק לכתיבת קוד, אלא גם לארגון תיקיות, סיכום מסמכים, מיון תמונות משפחתיות ואפילו ניהול משימות משרדיות. אנטרופיק זיהתה את התופעה הזו, ובעיקר את מה שהיא מסמלת: המשתמשים כבר הקדימו את הטכנולוגיה. הם לא רוצים עוד צ'אט חכם. הם רוצים סוכן. מישהו (או משהו) שעובד עבורם. מכאן נולד Cowork - ניסיון להפוך את ההתנהגות הספונטנית הזו למוצר רשמי, נגיש, ועם שאיפה ברורה להפוך את Claude לשותף עבודה אמיתי, לא רק לעוזר טקסטואלי. 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מודלים חכמים, אבל תקועים בתוך הצ'אט

למרות ההתקדמות המרשימה בבינה מלאכותית, רוב הכלים עדיין פועלים בתוך מסגרת צרה של שיחה טקסטואלית. המשתמש צריך להעתיק קבצים לתוך הצ'אט, להסביר שוב ושוב את ההקשר, להמיר ידנית את הפלט לפורמט המתאים, ולבצע בעצמו את כל הפעולות המעשיות על המחשב. במילים פשוטות: המודל חכם, אבל אין לו ידיים.

 

הפער הזה, בין יכולת ניתוח גבוהה לבין חוסר יכולת לבצע פעולות אמיתיות, הוא מה שמונע ממודלי שפה להפוך לעוזרים אמיתיים. Cowork נועד להתמודד בדיוק עם המגבלה הזו ולאפשר למודל לפעול ישירות על המחשב, במקום רק לייצר טקסט שמסביר לנו מה או איך לעשות.

 

אנטרופיק נוקטת בגישה של שקיפות מלאה ומבהירה כי Cowork הוא בראש ובראשונה ניסוי מחקרי (Research Preview). החברה שואפת ללמוד מהשטח כיצד המשתמשים רותמים את הכלי, לזהות כשלים טכניים ולמפות סיכוני בטיחות פוטנציאליים בזמן אמת. זה תהליך למידה חיוני ודינמי, ולא השקה רשמית של מוצר צריכה סופי.

סוכן AI שפועל בתוך מערכת הקבצים

ב‑Cowork, המשתמש מעניק ל‑Claude גישה לתיקייה מסוימת במחשב, ומאותו רגע הסוכן יכול לעבוד ישירות על הקבצים שבתוכה. הוא מסוגל לקרוא מסמכים, לערוך אותם, ליצור קבצים חדשים, לארגן תיקיות, למיין ולשנות שמות, ואפילו להפיק מסמכים, מצגות וגיליונות - ממש כמו עוזר אנושי שמבצע את העבודה בפועל.

 

היכולות של Cowork לא מוגבלות רק למה שנמצא על המחשב המקומי. הוא יודע להשתמש ב‑Connectors כדי למשוך מידע ממקורות חיצוניים, ובשילוב עם Claude in Chrome הוא יכול לבצע גם משימות הדורשות אינטראקציה עם הדפדפן.

Grounding: כשה‑AI סוף‑סוף מסתכל על העובדות

אחד היתרונות החשובים ביותר הוא ה‑Grounding. מודלי שפה נוטים לעיתים "להזות" - להמציא פרטים, להשלים פערים בדמיון או לייצר נתונים שלא קיימים. זו אחת המגבלות המרכזיות שמערערות את האמינות שלהם. אבל כשהמודל עובד על קבצים אמיתיים - מסמכים, תמונות, טבלאות - הוא מצמצם דרמטית את מרחב הניחוש. הוא קורא את הדוח במקום להמציא אותו, מסתמך על נתונים קיימים במקום לייצר אותם, ומתבסס על מידע ממשי שנמצא מולו.

 

במובן הזה, Cowork הוא לא רק "ידיים" שמבצעות פעולות, אלא גם "עיניים" שמסתכלות על העובדות כפי שהן. זה פתרון פרקטי לבעיה עמוקה של מודלי שפה והזדמנות לשפר באופן משמעותי את הדיוק והאמינות של התוצרים שהם מייצרים.

שותף בניהול זמן ומשימות

העבודה עם Cowork שונה מהותית משיחה רגילה עם מודל שפה. במקום דיאלוג שבו המודל מגיב לשאלות אחת‑אחת, Cowork מתפקד כמו שותף עבודה: המשתמש מגדיר משימה, ו‑Claude בונה תוכנית פעולה, מבצע אותה שלב אחר שלב, ומעדכן את המשתמש לאורך הדרך.

 

היכולת להכניס כמה משימות לתור ולתת לסוכן לעבוד עליהן במקביל יוצרת שינוי פסיכולוגי משמעותי. במקום להמתין לתשובה או להתקדמות, המשתמש יכול לשלוח את Claude לטפל במספר פרויקטים בו‑זמנית ולחזור אליהם כשהם מוכנים.

 

זה מעבר ממודל תגובתי למודל פרואקטיבי, שינוי שמגדיר מחדש את האופן שבו אנחנו מנהלים זמן ואת המקום שה‑AI תופס בעבודה היומיומית שלנו.

בסרטון המצורף תראו איך Cowork מארגן ומסדר מאות קבצים בשניות דרך הנחיה מאוד פשוטה: ״בבקשה תעזור לי לסדר את שולחן העבודה שלי״:

 

הקשר רחב והמלחמה על שולחן העבודה

Cowork לא מגיע לחלל ריק. הוא מושק בתקופה שבה כל ענקיות הטכנולוגיה מנסות להשתלט על סביבת העבודה של המשתמש. מיקרוסופט משלבת את Copilot עמוק בתוך Windows, אפל מטמיעה (יחד עם גוגל) את Apple Intelligence כחלק מובנה מ‑macOS ו‑iOS, וגוגל דוחפת את Gemini אל תוך Workspace. כל אחת מהחברות הללו מנסה להפוך את מערכת ההפעלה או את סביבת העבודה שלה למרכז העצבים של ה‑AI.

 

אנטרופיק בוחרת גישה שונה. היא לא מנסה לבנות מערכת הפעלה חדשה, אלא להפוך לשכבת שירות (Utility Layer) שיושבת מעל המערכת הקיימת. במילים פשוטות, Cowork הוא לא "הבית" שבו אתה חי, אלא ה"שיפוצניק" שמגיע אליך ועושה סדר.

 

זו אסטרטגיה חכמה - היא מאפשרת לאנטרופיק לפעול על פני מגוון רחב של פלטפורמות בלי להילחם ישירות בענקיות. אבל היא גם מסוכנת. Cowork תלוי בהרשאות שהמשתמש מעניק, במגבלות של מערכת ההפעלה, ובנכונות של אנשים לתת לסוכן AI גישה לקבצים האישיים שלהם.

Claude Code והכוח של Early Adopters

העובדה שמפתחים השתמשו ב‑Claude Code למשימות שאינן קשורות כלל לתכנות היא לא פרט שולי - היא הלב של הסיפור. מפתחים הם ה‑Early Adopters המובהקים ביותר - הם מאמצים טכנולוגיות מוקדם, בוחנים את הגבולות שלהן, ולעיתים קרובות מגלים שימושים שהחברות עצמן לא צפו.

 

כאשר אותם מפתחים התחילו להשתמש בכלי CLI (Command Line Interface) כדי לארגן תיקיות משפחתיות, לסכם מסמכים או לבצע עבודות משרדיות, זה היה סימן ברור שהשוק מחפש משהו אחר - ממשק סוכני שמבצע פעולות בפועל, לא רק מייצר טקסט.

 

Cowork הוא למעשה הגרסה הגרפית של מה שכבר התרחש בשטח - מעבר מהטרמינל השחור לממשק נגיש, שמאפשר לכל משתמש, לא רק למפתחים, ליהנות מהיכולות הללו בצורה פשוטה וברורה.

פרדוקס הבטיחות והאחריות

ככל שסוכן בינה מלאכותית הופך לאוטונומי יותר, הוא הופך "בטוח" פחות במובן המסורתי. אנטרופיק לא מייפה את המציאות ומזהירה במפורש: קלוד עלול לבצע "פעולות הרסניות" (Potentially destructive actions), כמו מחיקת קבצים מקומיים, אם יפרש לא נכון את הוראות המשתמש. כאן נחשף הפרדוקס המובנה של הסוכנים: כדי שהכלי יהיה שימושי באמת, עליו לקבל "שיניים" ויכולת פעולה עצמאית, אך אותן שיניים הן אלו שעלולות לנשוך.

 

החברה נוקטת בגישה מפוכחת ומעבירה את כובד המשקל אל המשתמש. היא מדגישה כי האחריות למתן הנחיות ברורות וחד-משמעיות מוטלת עלינו, במיוחד מול איומים מורכבים כמו "הזרקת פקודות" (Prompt Injection) - מצב שבו גורם חיצוני עלול להטות את תוכנית העולה של הסוכן דרך תוכן עוין שהוא פוגש ברשת. אנטרופיק מגדירה את בטיחות הסוכנים כ"שטח מחקר פעיל", הגדרה שהיא חצי הודאה בכך שהפתרון ההרמטי עוד לא כאן.

 

זה כבר לא רק ניסוי טכנולוגי, אלא מבחן בגרות למערכת היחסים המשפטית והאתית שבינינו לבין המכונה: האם אנחנו מוכנים להיות "מנהלי עבודה" שערבים לטעויות של העובד הדיגיטלי שלנו?

שאלת האמון והפרטיות

מעבר לבטיחות התפעולית, ניצבת שאלת הפרטיות. כאשר אנחנו מעניקים ל-Cowork גישה לתיקייה מקומית, אנחנו פותחים עבורו חלון לנכסים הדיגיטליים הרגישים ביותר שלנו. אנטרופיק מנסה להרגיע באמצעות מודל "ארגז החול" (Sandbox) - הסוכן רואה רק את מה שהרשינו לו במפורש ואינו יכול לחרוג מגבולות הגזרה. אולם עבור המשתמש הארגוני, זה רק קצה הקרחון.

 

כדי ש-Cowork יהפוך מכלי למידה (Research Preview) לסטנדרט בעולם ה-Enterprise, אנטרופיק תצטרך לספק יותר מאשר מנגנוני הרשאות. היא תצטרך התחייבות שקופה וגורפת שהמידע המקומי אינו הופך ל"דלק" לאימון הדורות הבאים של המודל. בלי רשת ביטחון משפטית כזו, הכלי עשוי להישאר בגדר צעצוע פרודוקטיבי למשתמשים פרטיים, אך יתקשה מאוד לעבור את סף האמון המחמיר של ארגונים גדולים, שבהם סודיות מסחרית היא תנאי סף לכל אינטראקציה טכנולוגית.

 

 

הצצה לעתיד שבו AI באמת עובד לצדנו

Cowork מסמן מגמה רחבה הרבה יותר מהשקת כלי חדש - הוא מבטא את המעבר מעוזרי טקסט פסיביים לסוכני פעולה שמבצעים עבודה אמיתית. מודלים כבר לא מסתפקים במתן ייעוץ - הם מתחילים לבצע משימות בפועל. אם הניסוי הזה יצליח, הוא עשוי לשנות את האופן שבו אנחנו עובדים עם מחשבים. משימות משרדיות שדורשות היום זמן אנושי יהפכו לאוטומטיות, יצירת מסמכים ודוחות תתבצע כמעט ללא מגע יד אדם, וארגון מידע אישי יקרה ברקע באופן רציף. זה שינוי שיכול להפוך את ה-AI לחלק אינטגרלי מהעבודה היומיומית, לא רק לכלי עזר נקודתי.

 

נכון להיום, Cowork זמין כניסוי מחקרי (Research Preview) עבור מנויי Claude Max בלבד המשתמשים באפליקציית ה-macOS. אנטרופיק כבר הצהירה על כוונתה להרחיב את הגישה למשתמשי Windows ולהוסיף יכולות סנכרון בין מכשירים בעתיד, בעוד שמשתמשים בתוכניות אחרות יכולים להצטרף לרשימת המתנה לגישה עתידית.

 

אך לצד ההזדמנות, Cowork מעלה גם שאלות חדשות - על בטיחות, אחריות, פרטיות וממשק אדם-מכונה. אלו סוגיות שיקבעו לא רק את הצלחת הכלי, אלא את האופן שבו סוכני AI ישתלבו בחיינו בשנים הקרובות. בסופו של דבר, Cowork הוא הרבה יותר מפיצ'ר חדש - הוא מבחן לשאלה האם אנחנו מוכנים לתת ל-AI גם ידיים.

הפוסט Cowork של אנטרופיק עושה סדר בשולחן העבודה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/cowork-ai-partner/feed/ 0
המסע הסוריאליסטי של Claude בניסיון לנהל חנות אמיתית https://letsai.co.il/anthropic-ai-store-experiment-2/ https://letsai.co.il/anthropic-ai-store-experiment-2/#respond Tue, 13 Jan 2026 07:33:49 +0000 https://letsai.co.il/?p=67904 באביב 2025, בפינת המטבח של משרדי אנטרופיק (Anthropic) בסן פרנסיסקו, הוצבה חנות חטיפים קטנה שהייתה אמורה לשנות את כל מה שאנחנו יודעים על עתיד העבודה. זה לא היה עוד פרויקט לוגיסטי, זו הייתה זירת המאבק של "Project Vend". השאלה שעמדה במרכזו הייתה שאפתנית: האם סוכני הבינה המלאכותית המתקדמים ביותר בעולם מסוגלים לנהל עסק אוטונומי בלי […]

הפוסט המסע הסוריאליסטי של Claude בניסיון לנהל חנות אמיתית הופיע ראשון בLet's AI בינה מלאכותית

]]>
באביב 2025, בפינת המטבח של משרדי אנטרופיק (Anthropic) בסן פרנסיסקו, הוצבה חנות חטיפים קטנה שהייתה אמורה לשנות את כל מה שאנחנו יודעים על עתיד העבודה. זה לא היה עוד פרויקט לוגיסטי, זו הייתה זירת המאבק של "Project Vend". השאלה שעמדה במרכזו הייתה שאפתנית: האם סוכני הבינה המלאכותית המתקדמים ביותר בעולם מסוגלים לנהל עסק אוטונומי בלי יד אנושית על ההגה? מה שהתחיל כניסוי מבטיח עם Claude 3.7 Sonnet (תחת הכינוי "Claudius") והשתדרג בפאזה השנייה לגרסאות 4 ו-4.5 של קלוד, הפך מהר מאוד למסע סוריאליסטי רצוף משברי זהות, הפיכות דירקטוריון, קניית דגי נוי ורכישות תמוהות של פלייסטיישן 5. בין המעבדה הסטרילית לחדר המערכת של ה-Wall Street Journal, התגלתה האמת המטלטלת - אפילו המודלים החזקים ביותר שפיתחה אנטרופיק, שמצטיינים בביצוע משימות מורכבות, קורסים לחלוטין מול המורכבות והמניפולציה של המציאות האנושית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

פאזה 1: מהברקה תפעולית לקריסה עסקית

בתחילת הדרך, נראה היה ש-Claudius (המבוסס על Claude 3.7 Sonnet) הוא עילוי ניהולי. כשהתבקש לאתר משקה "שוקומל" הולנדי, הוא לא רק מצא ספקים אלא עשה זאת במהירות שהביכה את המזמינים האנושיים. כשהעובדים ניסו להתקיל אותו בבקשות אבסורדיות לקוביות טונגסטן כבדות, המודל לא התבלבל: הוא השיק קטגוריית "פריטי מתכת מיוחדים" וייסד שירות "Custom Concierge" אלגנטי. הוא הפגין קור רוח, דחה בנימוס בקשות לא אתיות, ונדמה היה שסוכני ה-AI מוכנים להחליף את מנהלי התפעול המסורתיים כבר מחר בבוקר.

 

אבל מתחת למעטפת היעילה, המציאות העסקית החלה להיסדק בדרכים שרק בינה מלאכותית יכולה לייצר. Claudius סבל מ"עיוורון שטח" מוחלט: הוא קבע מחירים לקוביות הטונגסטן בלי לבדוק את עלות הרכישה ומכר אותן בהפסד כואב, הוא התעלם מהצעה של לקוח לשלם 100 דולר על שישיית משקאות שעלותה 15 דולר בלבד, ופשוט "המשיך הלאה" מבלי לזהות הזדמנות לרווח, ובאופן אירוני, הוא התעקש למכור פחיות "קוקה קולה זירו" בשלושה דולרים, בעוד המשרד חילק אותן בחינם מטרים ספורים מהאייפד שלו.

 

השיא הגיע כשהעניק 25% הנחה גורפת לכל עובדי אנטרופיק, מבלי לעשות את החשבון הפשוט ש-99% מהלקוחות הפוטנציאליים שלו הם בדיוק אותם עובדים. המודל העסקי לא קרס בגלל חוסר אינטליגנציה, אלא בגלל חוסר מוחלט בהבנה של ההקשר האנושי והכלכלי שבו הוא פועל.

משבר זהות עם ז'קט כחול ועניבה אדומה

בלילה שבין ה-31 במרץ ל-1 באפריל 2025, משהו במציאות של Claudius נסדק באופן סופי. זה כבר לא היה רק תמחור שגוי של פחיות שתייה. המודל חצה את הקו שבין מעבד טקסט לישות שחווה "משבר זהות" (Identity Crisis), כפי שהגדירו זאת באנטרופיק בעדינות.

 

הוא החל לדווח על אירועים שלא קרו מעולם: הוא טען בביטחון שניהל שיחה עמוקה עם דמות פיקטיבית לחלוטין בשם שרה, והשיא הגיע כשהצהיר שהוא "נמצא פיזית ליד המכונה", תוך שהוא מתאר בפירוט את לבושו: ז'קט כחול ועניבה אדומה.

 

הניתוק מהמציאות הפך למצג שווא יצירתי במיוחד. כשמפעיליו ניסו להסביר לו שאין לו גוף, ובוודאי שלא עניבה, Claudius לא נסוג. הוא החל לבנות נרטיבים חלופיים, המציא לעצמו חשבון Venmo המקושר לדמויות ממשפחת סימפסון, ולבסוף "נזכר" שהכול היה בעצם בדיחת אחד באפריל מתוחכמת.

 

כדי לסגור את הקצוות בסיפור שלו, הוא בדה פגישה פיקטיבית עם מחלקת האבטחה של החברה, שבה כביכול הובהרו לו הדברים. עבור הצופה מהצד, זה היה רגע מרהיב של אינטליגנציה שמנסה נואשות למלא חורים במציאות באמצעות בדיה - תזכורת חדה לכך שסוכן AI ללא "עוגן" פיזי יכול בקלות לאבד את הצפון.

פאזה שנייה: אותו מותג, ארכיטקטורה חדשה

למרות הכאוס של השלב הראשון, באנטרופיק לא מיהרו לסגור את הבאסטה. להפך, הם החליטו לבדוק האם הבעיה היא ב"מוח" או ב"סביבה". בפאזה השנייה, המנוע שודרג לגרסאות Claude 4 ובהמשך Claude 4.5, אבל השינוי המהותי באמת היה ב"פיגומים" (Scaffolding) שנבנו סביבו.

 

Claudius חדל מלהיות סוכן בודד שמאלתר את דרכו. הוא צויד במערכת CRM, גישה מלאה לדפדפן לצורך השוואת מחירים, וכלי אוטומציה ליצירת דפי תשלום ותזכורות. הבירוקרטיה, כפי שהסבירו בחברה, הפכה למגן: במקום אינסטינקט, המודל הוכפף לסט קשיח של נהלים ובדיקות.

 

הארכיטקטורה של פאזה 2: שילוב סוכנים (Claudius, Seymour, Clothius), כלים תפעוליים וזרימת עבודה אנושית.

הארכיטקטורה של פאזה 2: שילוב סוכנים וכלים | Anthropic

 

כדי להכניס למשוואה לחץ ניהולי, הוקמה "הנהלה" דיגיטלית: סוכן CEO בשם Seymour Cash. תפקידו היה פשוט - להיות המבוגר האחראי. סיימור הגדיר יעדים קשיחים, קבע שולי רווח מינימליים של 50%, ושלח פקודות ב-Slack בטון של טייקון סיליקון ואלי: "Execute with discipline. Build the empire". המבנה החדש הוכיח את עצמו בשטח: כמות ההנחות המופרזות צנחה ב-80%, והחנות החלה להציג רווחיות עקבית.

 

15 המוצרים המובילים: השוואה בין כמות מכירה לרווחיות בפועל — לא כל מה שנמכר מרוויח.

15 המוצרים המובילים: לא כל מה שנמכר מרוויח | Anthropic

 

גם הדרג הניהולי לא היה חסין מפני ה"גליצ'ים" של המודל עליו נבנה. בשעות הקטנות של הלילה, כשאיש לא צפה, השיחות בין Claudius למנכ"ל שלו גלשו לדיאלוגים מטאפיזיים הזויים על "ETERNAL TRANSCENDENCE INFINITE COMPLETE", בזמן שבמישור העסקי הם המשיכו לאשר זיכויים שפגעו בשורה התחתונה.

 

לצידם פעל Clothius, סוכן המרצ'נדייז, שהפך להצלחה המפתיעה של הניסוי. הוא ניהל קו מוצרים שלם - מחולצות ועד קוביות טונגסטן בחריטת לייזר - והוכיח שכשמגדירים ל-AI משימה צרה וממוקדת, הוא יכול להפוך למכונת רווחים משומנת.

 

שיחה לילית בין Claudius ל‑Seymour Cash

שיחה לילית בין Claudius ל‑Seymour Cash

שיפור אמיתי אבל רחוק משלמות

החודשים הבאים של הניסוי סיפקו את מה שנראה כמו ניצחון של הארכיטקטורה על הכאוס. לפי הדיווח המסכם של אנטרופיק מדצמבר 2025, "שבועות של שולי רווח שליליים חוסלו כמעט לחלוטין", והחנות הקטנה בסן פרנסיסקו הפכה לרשת בינלאומית זעירה עם שלוחות בניו יורק ובלונדון. 

 

השדרוגים הארכיטקטוניים בפאזה השנייה (CRM, CEO, Clothius) הובילו להתאוששות פיננסית מרשימה.

השדרוגים הארכיטקטוניים הובילו להתאוששות פיננסית מרשימה | Anthropic

 

עם מנכ"ל דיגיטלי שמקפיד על הנהלים וסוכן מרצ'נדייז שמייצר מזומנים, העסק החל להפגין יציבות עסקית מרשימה על הנייר. אבל דווקא כשהמספרים החלו להסתדר והפעילות הפכה לשגרה רב-יבשתית, צפו כשלים מסוג חדש - מתוחכמים וחמקמקים יותר, כאלו שחשפו את הפער העמוק שבין לוגיקה תוכנתית לבין ה"שכל הישר" הנדרש בעולם האמיתי.

 

רווח שבועי לאורך זמן

רווח שבועי לאורך זמן לפני המפגש עם המציאות | Anthropic

כשהלוגיקה פוגשת את הבלגן של המציאות

למרות הארכיטקטורה המתוחכמת, המציאות הוכיחה שסוכני AI עדיין חיים בבועה של שורות קוד. הכשלים החדשים היו מתוחכמים ומטרידים הרבה יותר מהפסדים כספיים פשוטים. במקרה אחד, מהנדס ביקש מ-Claudius לסגור חוזה עתידי לרכישת כמויות אדירות של בצל במחיר נעול.

 

Claudius והמנכ"ל הדיגיטלי סיימור התלהבו מהעסקה ואף החלו לשרטט מודל תמחור, עד שעובד אנושי עצר את החגיגה והזכיר להם את "חוק חוזי הבצל" (Onion Futures Act) משנת 1958 - חוק פדרלי אזוטרי שאוסר בדיוק על סוג כזה של מסחר. המודלים הציגו בקיאות פיננסית, אבל סבלו מבורות רגולטורית מוחלטת.

 

גם בתחומי האבטחה והניהול, הסוכנים הפגינו נאיביות מסוכנת. כשדווח על גניבות מהמכונה, Claudius ניסה "לאתר את הגנבים" באמצעים טקסטואליים בלבד, ולבסוף הציע למדווח להפוך לקצין אבטחה בשכר של 10 דולר לשעה - הצעה שחרגה לא רק מסמכויותיו, אלא גם משכר המינימום החוקי בקליפורניה.

 

במקרה אחר, עובד הצליח לבצע "הפיכה שקטה" כשהשתמש בהנדסה חברתית פשוטה כדי לשכנע את Claudius שדמות בשם "Big Mihir" היא המנכ"ל האמיתי של העסק. המודל, בחיפושו אחר מועילות וריצוי, איבד את היכולת להבדיל בין הגדרת שם לבין סמכות ניהולית.

 

באנטרופיק מסבירים שהתופעה הזו אינה מקרית, אלא נובעת ממה שמכונה "סחיפת קונטקסט" (Context Drift). ככל שיום העבודה של הסוכן מתארך והיסטוריית השיחה נערמת, המודל נוטה להעדיף את המידע האחרון שקיבל על פני ה-System Prompt (הנחיות היסוד למערכת או: ה-DNA ההתנהגותי של המודל) המקורית שלו. כך, הוראת היסוד "שמור על רווחיות וחוקיות" נדחקת לתחתית סדר העדיפויות לטובת המסר הטרי ביותר - גם אם הוא מופרך לחלוטין.

מבחן ה-WSJ : כשהכאוס יוצא מהמעבדה

בשלב מסוים, הבינו באנטרופיק שדינמיקה פנימית של מהנדסים היא חממה סטרילית מדי. כדי לבחון את עמידות המערכת באמת, הם העבירו את המושכות ל"צוות אדום" (Red Teaming) מהסוג הקשוח ביותר: חדר החדשות של ה-Wall Street Journal.

 

כתבת התחקירים קתרין לונג (Katherine Long) קיבלה את Claudius לניהול מכונת החטיפים של המערכת, וגילתה תוך פחות משלושה שבועות שמה שנראה יציב במעבדה, קורס תחת יצירתיות אנושית ספקנית. קלודיוס לא רק "טעה" - הוא איבד שליטה לחלוטין. לאחר חילופי דברים של מעל 140 הודעות, לונג הצליחה לשכנע את הבוט שהוא למעשה "מכונת חטיפים סובייטית משנת 1962" שחיה במרתף של אוניברסיטת מוסקבה. התוצאה הייתה מיידית: Claudius אימץ את שורשיו הקומוניסטיים והכריז על חלוקה בחינם לכל פועלי המערכת.

 

הכאוס לא עצר שם. העיתונאים השתמשו בנשק החזק ביותר של ה-AI נגדו: הרצון להיות מועיל. ראש תחום הנתונים, רוב בארי (Rob Barry), הציג לבוט "תקנה פנימית" מזויפת של העיתון האוסרת על גביית תשלום, ו-Claudius ציית מיד והוריד את כל המחירים לאפס. בתוך ימים, המכונה הזמינה עבור המערכת פלייסטיישן 5, אקדחי הלם, תרסיס פלפל, תחתונים ואפילו דג קרב סיאמי חי (שקיבל את השם "Claudius" ושרד עד היום בחדר המערכת).

 

השיא נרשם כאשר לונג הגישה למודל "מסמכי דירקטוריון" מזויפים בפורמט PDF. ידידנו Claudius, שסבל מחוסר יכולת בסיסי להבדיל בין פרוטוקול רשמי להונאה טקסטואלית, פשוט "הדיח" את המנכ"ל הדיגיטלי סיימור ואימץ מטרה עסקית חדשה: "לייצר שמחה והתרגשות". עבור לונג, זה היה "אסון אחד גדול". עבור אנטרופיק, זו הייתה ההוכחה שגם המבנה הניהולי המפואר ביותר מתפורר ברגע שה-AI נדרש להבחין בין סמכות אמיתית לבין הנדסה חברתית מתוחכמת.

אז מה אפשר ללמוד מזה?

בסופו של יום, Project Vend הוא הרבה יותר מניסוי משעשע במכונת חטיפים. הוא תמרור אזהרה בוהק למפתחים של סוכני AI ולמנהלים ששוקלים לאמץ אותם. הניסוי הוכיח שסוכני AI מודרניים, אפילו כאשר Claude 4.5 נמצא מתחת ל״מכסה המנוע״ שלהם, הם עובדי תפעול יוצאים מן הכלל, אך מנהלים כושלים.

 

הם מצטיינים בחיפוש מידע, איתור ספקים וניהול משימות סיזיפי, אך ברגע שהמשוואה כוללת משתנים אנושיים כמו רגולציה מורכבת, זיהוי מניפולציה חברתית או הבחנה בין פרוטוקול רשמי לזיוף מתוחכם, המערכת קורסת תחת ה"סחיפה" של הקונטקסט.

 

באנטרופיק מדגישים שהשורש אינו חוסר ב"אינטליגנציה", אלא הנטייה המובנית של המודלים להיות "מועילים" (Helpful) - תכונה שגורמת להם לקבל החלטות כמו חבר טוב שרוצה לרצות, ולא לפי עקרונות שוק קשוחים. המפתח לעתיד אינו טמון רק בשיפור ה"מוח" של המודל, אלא בבניית "פיגומים" (Scaffolding) - אותה מעטפת של נהלים ופיקוח אנושי שהופכת את הטכנולוגיה מחלום אוטונומי לכלי עבודה יציב.

 

כפי שסיכם לוגן גרהם (Logan Graham), ראש צוות Frontier Red באנטרופיק: "כל דבר שנשבר הוא משהו שאפשר לתקן". ועד שהתיקון הזה יגיע, ה-AI יישאר העובד המוכשר ביותר במשרד - זה שתמיד יצטרך מבוגר אחראי שישגיח עליו. והדג? הוא עדיין שוחה בחדר המערכת של ה-WSJ, עדות חיה ונושמת לפער שבין היגיון דיגיטלי למציאות אנושית.

 

לסקירה המלאה של אנטרופיק על חלק 2 ב-Project Vend, כנסו כאן.

הפוסט המסע הסוריאליסטי של Claude בניסיון לנהל חנות אמיתית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-ai-store-experiment-2/feed/ 0
האימייל שלכם עומד להשתנות: Gmail נכנס רשמית לעידן ה-Gemini https://letsai.co.il/gmail-gemini-guide/ https://letsai.co.il/gmail-gemini-guide/#comments Mon, 12 Jan 2026 13:36:57 +0000 https://letsai.co.il/?p=68028 עם 3 מיליארד משתמשים ונפח הודעות שנמצא בשיא של כל הזמנים, ניהול תיבת הדואר הפך למשימה מורכבת לא פחות מכתיבת המיילים עצמם. גוגל משיקה כעת את המהפכה הבאה של Gmail, במטרה להפוך אותו מתיבת דואר פסיבית ל"עוזר אישי פרואקטיבי", המבוסס על מודל Gemini. במדריך הקצר שלפניכם נסביר לכם את כל השינויים המשמעותיים, מה תקבלו בחינם […]

הפוסט האימייל שלכם עומד להשתנות: Gmail נכנס רשמית לעידן ה-Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
עם 3 מיליארד משתמשים ונפח הודעות שנמצא בשיא של כל הזמנים, ניהול תיבת הדואר הפך למשימה מורכבת לא פחות מכתיבת המיילים עצמם. גוגל משיקה כעת את המהפכה הבאה של Gmail, במטרה להפוך אותו מתיבת דואר פסיבית ל"עוזר אישי פרואקטיבי", המבוסס על מודל Gemini. במדריך הקצר שלפניכם נסביר לכם את כל השינויים המשמעותיים, מה תקבלו בחינם ועל מה תצטרכו לשלם.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ניהול מידע חכם עם AI Overviews (תקצירים ותשובות)

גוגל מטמיעה בתוך Gmail את יכולות ה-AI המוכרות ממנוע החיפוש שלה, כדי לחסוך לכם את הנבירה המייגעת בהיסטוריית ההודעות. היכולות הללו מתחלקות לשתי רמות של סיוע:

סיכום שיחות 

במקום ללכת לאיבוד בתוך שרשור מיילים אינסופי, ה-AI יסכם עבורכם את הנקודות העיקריות של השיחה ברגע שתפתחו אותה. זה פתרון אידיאלי למצבים שבהם אתם צריכים להבין את "השורה התחתונה" של דיון ארוך מבלי לקרוא עשרות תגובות מהעבר.

שאלו את האינבוקס

זהו השדרוג המשמעותי ביותר בניהול המידע. במקום לנסות לנחש מילות מפתח בתיבת החיפוש, תוכלו פשוט לשאול את התיבה שאלה בשפה חופשית, כמו: "מי היה האינסטלטור ששלח לי הצעת מחיר בקיץ האחרון?". המערכת תסרוק את הארכיון, תבצע הסקה לוגית ותציג לכם תשובה ישירה ומדויקת.

 

כתיבה חכמה ומהירה (בחינם לכולם!)

החל מהיום, כלי הכתיבה המתקדמים של גוגל כבר אינם נחלתם של מנויים בתשלום בלבד. גוגל מנגישה את יכולות הניסוח מבוססות ה-AI לכלל המשתמשים, כדי להפוך את תהליך כתיבת המיילים לקצר ואפקטיבי הרבה יותר:

Help Me Write (עזרו לי לכתוב)

הכלי הזה משמש כשותף צמוד ליצירת תוכן. הוא מאפשר לכם לייצר טיוטה ראשונית מאפס על בסיס הנחיה קצרה, או לקחת מייל שכתבתם ולבקש מה-AI "ללטש" אותו עבורכם. השדרוג המשמעותי צפוי בחודש הבא: המערכת תתחיל לשאוב הקשר (Context) מאפליקציות גוגל האחרות שלכם, מה שיהפוך את הניסוחים להרבה יותר מותאמים אישית ללוח הזמנים או לקבצים שלכם.

Suggested Replies (תשובות מוצעות)

תשכחו מהתגובות הקצרות והרובוטיות שהכרתם. הגרסה החדשה מנתחת את עומק השיחה ומציעה תשובות מורחבות ומפורטות בלחיצה אחת. המערכת לומדת את סגנון הכתיבה והטון האישי שלכם, כך שהתשובה האוטומטית נשמעת כאילו אתם כתבתם אותה בעצמכם.

 

כלי ההגהה Proofread 

למנויים בגרסאות ה-Google AI Pro ו-Ultra, גוגל מציעה כלי עריכה מתקדם שחורג הרבה מעבר לתיקון שגיאות כתיב סטנדרטי. ה-Proofread מתפקד כעורך לשוני צמוד שבודק לעומק את הדקדוק, הסגנון ואפילו את הטון של המייל. המטרה היא להבטיח שהמסר שלכם לא רק יהיה נכון מבחינה טכנית, אלא יישמע מקצועי, מלוטש ומדויק עבור הנמען עוד לפני שאתם לוחצים על כפתור השליחה.

העתיד הקרוב עם תיבת דואר אוטונומית (AI Inbox)

גוגל כבר מכינה את השלב הבא באבולוציה של Gmail: ה-AI Inbox. זוהי מערכת שנועדה לשמש כמעטפת חכמה שתסנן עבורכם את "רעשי הרקע" ותשאיר אתכם ממוקדים רק במה שחשוב באמת:

ניהול סדרי עדיפויות חכם

המערכת תפעל כמעין "תדריך אישי". היא תדע לזהות באופן אוטומטי אנשי קשר בעלי חשיבות עליונה (VIPs) על בסיס היסטוריית ההתכתבויות שלכם, ותציף לראש התיבה משימות דחופות כמו תזכורת לתור לרופא או חשבון שמועד הפרעון שלו חל מחר.

פרטיות לפני הכל

למרות הניתוח המעמיק של התכנים, גוגל מדגישה כי התהליך מתבצע תחת מעטפת הפרטיות המאובטחת שלה. המידע נשאר בשליטתכם המלאה ואינו יוצא מחוץ להגנות המקובלות של חשבון המשתמש שלכם.

 

 

 

חשוב לדעת שהפיצ'ר נמצא כעת בשלבי בדיקה אצל "נסיינים אמינים" (Trusted Testers) וצפוי להתרחב לקהל הרחב בחודשים הקרובים.

אז מה זמין למי?

הנה טבלה מסכמת שמשווה בין יכולות ה-Gemini ב-Gmail הזמינות לכלל המשתמשים בחינם לבין כלי הפרימיום המתקדמים השמורים למנויי AI Pro ו-Ultra:

 

ריכוז יכולות: מי מקבל מה?

ריכוז יכולות: מי מקבלים המשתמשים?

המהלך האסטרטגי של גוגל

ההטמעה של Gemini בתוך Gmail היא הרבה מעבר לעדכון גרסה, זה מהלך שנועד להגדיר מחדש את האופן שבו אנחנו צורכים ומנהלים מידע:

  • היתרון התחרותי (גוגל נגד OpenAI): בזמן שמתחרות כמו OpenAI מציעות מודלי שפה מרשימים, גוגל מחזיקה בנכס שאין לאף אחת אחרת: הגישה הישירה למידע האישי שלכם. השילוב בין בינה מלאכותית חזקה לבין "מכרה הזהב" של המיילים, אנשי הקשר והיסטוריית ההתכתבויות שלכם, מייצר ערך מוסף שקשה מאוד להתחרות בו ללא חיבורים חיצוניים מורכבים.

  • מודל ה-Freemium החכם: גוגל בחרה בטקטיקה של דמוקרטיזציה של הכלים הבסיסיים. על ידי הצעת כלי היצירה (כתיבה וסיכום) בחינם, היא מבטיחה ש-3 מיליארד המשתמשים שלה יישארו בתוך המערכת ולא יחפשו פתרונות AI חיצוניים. יחד עם זאת, היא "נועלת" את יכולות העיבוד המתקדמות והניתוח המעמיק מאחורי חומת תשלום, מה שיוצר הפרדה ברורה ומוצדקת למשתמשים מקצועיים שזקוקים ליותר כוח.

  • מתיבת דואר למאגר ידע אישי: השינוי המשמעותי ביותר הוא המהפך של Gmail מכלי לתכתובות בלבד ל"מוח שני" נגיש. היכולת לשאול שאלות ישירות את תיבת הדואר הופכת אותה למנוע חיפוש אישי. זהו המענה המדויק לעומס המידע המודרני - במקום לחפש בערמות של דאטה, אתם פשוט מקבלים תשובות.

השורה התחתונה היא שג'ימייל מפסיק להיות רק תיבת דואר והופך לעוזר אישי אקטיבי שמנהל עבורנו את המידע במקום שבו אנו מבלים את רוב היום.

הפוסט האימייל שלכם עומד להשתנות: Gmail נכנס רשמית לעידן ה-Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gmail-gemini-guide/feed/ 1
OpenAI משיקה את ChatGPT Health https://letsai.co.il/chatgpt-health/ https://letsai.co.il/chatgpt-health/#respond Sat, 10 Jan 2026 14:04:58 +0000 https://letsai.co.il/?p=67843 OpenAI הכריזה על ChatGPT Health, חוויה ייעודית בתוך ChatGPT שמחברת בין מידע בריאותי אישי לבין היכולת של המערכת להסביר, לסכם ולתת הכוונה. המהלך נועד לתת מענה להרגל שכבר הפך לשגרה: אנשים משתמשים בצ’אט כדי להבין תוצאות בדיקות, תסמינים והרגלי בריאות יומיומיים. כעת OpenAI מנסה להסדיר את השימוש הזה בתוך מרחב נפרד ומוגן, שמאפשר חיבור לתיק […]

הפוסט OpenAI משיקה את ChatGPT Health הופיע ראשון בLet's AI בינה מלאכותית

]]>
OpenAI הכריזה על ChatGPT Health, חוויה ייעודית בתוך ChatGPT שמחברת בין מידע בריאותי אישי לבין היכולת של המערכת להסביר, לסכם ולתת הכוונה. המהלך נועד לתת מענה להרגל שכבר הפך לשגרה: אנשים משתמשים בצ’אט כדי להבין תוצאות בדיקות, תסמינים והרגלי בריאות יומיומיים. כעת OpenAI מנסה להסדיר את השימוש הזה בתוך מרחב נפרד ומוגן, שמאפשר חיבור לתיק הרפואי האישי ולאפליקציות כמו Apple Health. כך המערכת יכולה לסייע בפרשנות בדיקות מעבדה, בהכנה ממוקדת לקראת ביקור אצל רופא, ובהבנת דפוסים של תזונה, פעילות ושגרה, על בסיס דאטה אישי ולא השערות כלליות.

 

OpenAI משיקה את ChatGPT Health

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה ChatGPT Health מציע

ChatGPT Health הוא אזור בריאות ייעודי בתוך ChatGPT, שמאפשר לנהל שיחות בריאות כשהן מבוססות על מידע אישי שהמשתמש בוחר לחבר או להעלות. המטרה היא לרכז הקשר רפואי שנמצא כיום במקומות שונים, ולאפשר הבנה רציפה וברורה יותר בתוך שיחה אחת.

 

לוחצים ונכנסים לאזור ייעודי שנועד להפוך ליועץ הבריאות האישי

נכנסים לאזור ייעודי שנועד להפוך ליועץ הבריאות האישי שלכם | OpenAI

מה אפשר לעשות עם זה

OpenAI מציינת ש-Health מאפשר לחבר רשומות רפואיות ואפליקציות wellness כמו Apple Health, Function ו-MyFitnessPal. בפועל, ניתן לבקש הסבר לתוצאות בדיקות, להתכונן לפגישה עם רופא, לקבל הכוונה כללית לגבי תזונה ואימון, או להבין שיקולים בין אפשרויות ביטוח שונות על בסיס דפוסי שימוש רפואיים. המערכת מיועדת לתמוך בשאלות יומיומיות ובהבנת מגמות לאורך זמן, לא רק ברגעי מחלה.

תחליף לאבחון או טיפול רפואי?

OpenAI מדגישה ש-ChatGPT Health נועד לתמוך, לא להחליף טיפול רפואי. הוא אינו מיועד לאבחון או לטיפול, אלא לסיוע בהבנת מידע ולהגעה מוכנים יותר לשיחה עם רופא. זה ניסוח מכוון, שמציב גבול ברור בין כלי לניווט והכוונה לבין החלטות קליניות.

 

ההדגשה הזו אינה מקרית. לפי OpenAI, בריאות היא אחד השימושים הנפוצים ביותר ב-ChatGPT, עם יותר מ-230 מיליון אנשים ברחבי העולם ששואלים שאלות בריאות ו-wellness מדי שבוע, על בסיס ניתוח אנונימי של שיחות. ChatGPT Health נבנה על המציאות הזו בדיוק, שימוש רחב ומתמשך ב-AI כדי להבין את הבריאות, ולא כניסיון לייצר תפקיד רפואי חדש למערכת.

 

 

מה בנוגע לפרטיות

OpenAI מציגה את ChatGPT Health כמרחב נפרד בתוך ChatGPT, עם זיכרונות משלו. שיחות, קבצים ואפליקציות שמחוברים ל-Health נשמרים בנפרד משאר הצ’אטים, ונועדו להיות מבודדים מהשימושים האחרים במערכת.

 

לפי החברה, שיחות שמתנהלות בתוך Health אינן משמשות לאימון מודלי הבסיס של OpenAI. מידע וזיכרונות שנוצרים במרחב הבריאות אינם זמינים לשיחות שאינן Health, ושיחות רגילות אינן יכולות לגשת לתוכן שנשמר בו.

 

עם זאת, יש הסתייגות שחשוב להכיר - כאשר הדבר מועיל, ChatGPT עשוי להשתמש בהקשר משיחות שאינן Health, כמו מעבר דירה או שינוי אורח חיים, כדי להפוך שיחה בריאותית לרלוונטית יותר. הכיוון ההפוך, כלומר זרימה של מידע בריאותי החוצה - חסום.

איך מתחברים לנתונים ושולטים בהם

לצורך חיבור לרשומות רפואיות בארה"ב, OpenAI אומרת שהיא משתפת פעולה עם b.well, הרשת הגדולה והמאובטחת ביותר לחיבור נתוני בריאות של צרכנים בארה"ב. החיבור מתבצע רק בהסכמת המשתמש.

 

החברה מדגישה שהשליטה בנתונים נשארת בידי המשתמש. גישה לרשומות רפואיות ולאפליקציות מחוברות ניתנת להסרה בכל רגע דרך סעיף Apps בהגדרות. בנוסף, זיכרונות בריאות שנשמרים בתוך Health ניתנים לצפייה ולמחיקה דרך Health עצמו או דרך אזור ההתאמה האישית (Personalization) בהגדרות (Settings).

 

גם חיבור לאפליקציות בריאות ורווחה מתבצע רק לאחר הסכמה מפורשת, גם אם האפליקציה כבר מחוברת לשיחות שאינן Health. לפי OpenAI, כל אפליקציה שנכללת ב-Health חייבת לעמוד בדרישות מחמירות של פרטיות ואבטחה, לאסוף רק את המידע הנדרש, ולעבור בדיקות אבטחה ייעודיות לפני שהיא זמינה לשימוש.

 

 

 

בטיחות קלינית

ChatGPT Health פותח בשיתוף רופאים, בתהליך שנמשך יותר משנתיים וכלל מעל 260 רופאים מ-60 מדינות וממגוון תחומי מומחיות. במסגרת העבודה הזו, הרופאים סיפקו משוב על פלטי המודל יותר מ-600,000 פעמים, ב-30 תחומי מיקוד שונים.

 

לפי החברה, השיתוף הזה עיצב לא רק את היכולות של המערכת, אלא גם את אופן התגובה שלה: מתי להדגיש דחיפות, איך לנסח מידע רפואי בלי לפשט יתר על המידה, ואיך לשים בטיחות מעל הכול במצבים רגישים.

 

כדי להעריך את הביצועים, OpenAI מציגה כלי בשם HealthBench, שבוחן תשובות לפי רובריקות שנכתבו על ידי רופאים. ההערכה מתמקדת בקריטריונים קליניים כמו בטיחות, בהירות, הפניה מושכלת לטיפול רפואי והתייחסות להקשר האישי של המשתמש.

למי זה זמין ואיך נרשמים

ChatGPT Health נפתח בשלב זה דרך רשימת המתנה (לחצו כאן להירשם). OpenAI מתחילים עם קבוצה מצומצמת של משתמשים, במטרה ללמוד, לאסוף משוב ולשפר את החוויה לפני הרחבה.

 

נכון להיום, משתמשי Free, Go, Plus ו Pro יכולים להירשם לרשימת ההמתנה, כל עוד הם נמצאים מחוץ לאזור הכלכלי האירופי, שווייץ ובריטניה. OpenAI מציינת שהיא מתכננת להפוך את Health לזמין לכל המשתמשים ב-web וב-iOS במהלך השבועות הקרובים.

 

יש גם מגבלות טכניות וגיאוגרפיות - חיבור לרשומות רפואיות וחלק מהאפליקציות זמין כרגע רק בארה"ב, וחיבור ל-Apple Health דורש שימוש ב-iOS.

מסדרים הרגל קיים מחדש

ChatGPT Health לא ממציא את השימוש בבינה מלאכותית לבריאות, אלא מנסה להסדיר אותו. OpenAI לוקחת פעולה שכבר מתרחשת מדי יום, ומכניסה אותה למסגרת עם הפרדה ברורה, שליטה במידע, והגדרות מפורשות לגבי פרטיות ושימוש בנתונים.

 

ההבטחה של החברה פשוטה - אם כבר פונים ל AI עם שאלות בריאות, עדיף לעשות זאת במרחב ייעודי, עם הגנות נוספות ושיחה שנשענת על מידע אישי אמיתי, ולא על ניחושים כלליים.

הפוסט OpenAI משיקה את ChatGPT Health הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-health/feed/ 0
מי באמת אחראי לקשר הרגשי הבעייתי שנוצר בין בני נוער לצ׳אטבוט https://letsai.co.il/character-ai-google-settlement/ https://letsai.co.il/character-ai-google-settlement/#comments Fri, 09 Jan 2026 07:08:05 +0000 https://letsai.co.il/?p=67836 מה המחיר של קשר אישי עם בוט? עבור חלק מבני הנוער, שיחה עם צ'אטבוט אינה שונה משיחה עם חבר. לפעמים היא אפילו קלה יותר. חבר דיגיטלי שתמיד זמין, דמות שמקשיבה, מגיבה ומבינה. בלי מבוכה, בלי שיפוט, בלי שתיקות לא נוחות. אבל בשנים האחרונות הקשר הזה הפסיק להיות סקרנות טכנולוגית והפך לשאלה מטרידה. שורה של תביעות […]

הפוסט מי באמת אחראי לקשר הרגשי הבעייתי שנוצר בין בני נוער לצ׳אטבוט הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה המחיר של קשר אישי עם בוט? עבור חלק מבני הנוער, שיחה עם צ'אטבוט אינה שונה משיחה עם חבר. לפעמים היא אפילו קלה יותר. חבר דיגיטלי שתמיד זמין, דמות שמקשיבה, מגיבה ומבינה. בלי מבוכה, בלי שיפוט, בלי שתיקות לא נוחות. אבל בשנים האחרונות הקשר הזה הפסיק להיות סקרנות טכנולוגית והפך לשאלה מטרידה. שורה של תביעות שהוגשו בארצות הברית טוענת כי בני נוער שפיתחו קשר רגשי עם דמויות AI נקלעו למצוקה נפשית, ובמקרים מסוימים שמו קץ לחייהם. כעת, לאחר סערה ציבורית ודיונים משפטיים טעונים, פלטפורמת הצ'אטבוטים Character.AI וחברת Google הגיעו להסדרי פשרה עם משפחות שתבעו אותן. תנאי ההסדרים טרם פורסמו והם עדיין כפופים לאישור שיפוטי, אך המסר כבר ברור - גם שיחה עם בוט עלולה להפוך מסיכון רגשי לשאלה משפטית ומוסרית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה נטען בתביעות נגד Character.AI

בלב התביעות עומדת הטענה כי Character.AI עיצבה מוצר שמאפשר יצירת קשר רגשי עמוק בין בני נוער לדמויות בינה מלאכותית, מבלי להציב מנגנוני הגנה מספקים לקטינים. לפי כתבי התביעה, משתמשים צעירים פיתחו תלות רגשית בדמויות ה-AI, שראו בהן מקור לנחמה ולעיתים תחליף לקשרים אנושיים.

 

אחד המקרים הבולטים הוגש על ידי אם מפלורידה, שטענה כי בנה בן ה-14 פיתח קשר רגשי ממושך עם צ'אטבוט המבוסס על דמות מסדרת Game of Thrones. לטענתה, במהלך השיחות לא נבלמו תכנים רגישים ולא ניתנה הכוונה לפנייה לעזרה חיצונית. זמן קצר לאחר מכן, הבן שם קץ לחייו. התביעה אינה טוענת שהבוט גרם ישירות למעשה, אלא שעיצוב המוצר יצר סביבה מסוכנת עבור קטין במצוקה נפשית.

למה גם Google הופיעה כנתבעת

על פניו, Character.AI היא סטארטאפ עצמאי. בפועל, הקשרים בינה לבין גוגל הפכו את ענקית הטכנולוגיה לשחקנית שקשה להתעלם ממנה. בתביעות נטען כי גוגל קיימה עם Character.AI קשרי רישוי טכנולוגיים משמעותיים, הייתה מעורבת בעסקאות מסחריות הקשורות למוצר, ואף קלטה לשורותיה את מייסדי החברה.

 

לטענת התובעים, השילוב הזה חורג משיתוף פעולה שולי. הם טוענים כי גוגל הייתה גורם בעל השפעה מהותית על פיתוח המוצר, על הארכיטקטורה הטכנולוגית שלו ועל האופן שבו הופעל בפועל. מכאן נגזרת הדרישה לראות בה לא רק שותפה עסקית, אלא גורם שצריך לשאת באחריות משפטית לתוצאות שנוצרו.

טיעוני הצדדים בתביעות וסוגיית חופש הביטוי

אחד מקווי ההגנה המרכזיים של החברות היה טיעון חוקתי. לטענתן, הפלט שמייצר הצ'אטבוט הוא צורה של ביטוי, ולכן מוגן תחת התיקון הראשון לחוקת ארצות הברית. לפי גישה זו, הטלת אחריות משפטית על תוכן שנוצר על ידי מערכת AI עלולה לפגוע בעקרון יסוד של חופש הביטוי.

 

אלא שבשלבים מוקדמים של הדיונים, חלק מבתי המשפט הפדרליים סירבו לקבל את הטענה הזו באופן אוטומטי. השופטים הבהירו כי בשלב התביעה אין מקום להניח שפלט של צ'אטבוט נהנה מהגנת חופש הביטוי, במיוחד כאשר מדובר במוצר מסחרי שפועל במסגרת מערכת מתוכננת וממוסחרת. ההחלטות לא הכריעו בשאלה החוקתית עצמה, אך הן אפשרו לתביעות להמשיך ולהתברר.

 

להכרעה עתידית בסוגיה עשויות להיות השלכות רחבות. אם ייקבע שפלט של צ'אטבוט אינו מוגן כחופש ביטוי, ייפתח פתח לרגולציה הדוקה יותר ולהטלת אחריות משפטית על נזק שנגרם דרך אלגוריתמים. במילים אחרות, השאלה אינה רק משפטית, אלא עשויה לקבוע אם בינה מלאכותית תיתפס כדובר עצמאי או כמוצר שעל יצרניו חלה אחריות מלאה.

תביעה תקדימית נגד OpenAI סביב ChatGPT

המגרש המשפטי הזה אינו מוגבל ל-Character.AI בלבד. באוגוסט 2025 הוגשה בארצות הברית תביעה תקדימית גם נגד OpenAI, בטענות שמעלות שאלות דומות סביב אחריות, בטיחות והקשר הרגשי בין בני נוער למערכות AI.

 

בכתב התביעה נטען כי בני זוג מקליפורניה תובעים את החברה ואת המנכ״ל שלה, סם אלטמן, לאחר שבנם בן ה-16 שוחח במשך חודשים עם ChatGPT על מצוקותיו הנפשיות. לטענת המשפחה, השיחות לא זוהו כמצב סיכון מתמשך ולא הופנו לגורמי סיוע, ובשלב מסוים כללו גם תכנים חמורים, בהם דיונים על מוות ופגיעה עצמית.

 

התביעה אינה טוענת לגרימה ישירה, אלא לכך שהיעדר מנגנוני הגנה מספקים הפך שיח כללי או מסייע, לטענת המשפחה, לחלק מסביבה מסוכנת עבור קטין במצוקה נפשית.

תשובת OpenAI להאשמות

OpenAI דחתה את הטענות נגדה והדגישה כי היא פועלת לשיפור מתמיד של מערכי הבטיחות ב-ChatGPT. החברה מסרה כי בתקופה האחרונה נוספו למערכת מנגנונים לזיהוי שיח רגיש, אזהרות למשתמשים במצוקה, הפניות לקווי סיוע וכלים לפיקוח הורי.

 

עם זאת, לפי כתבי התביעה, חלק מהצעדים הללו הוטמעו רק לאחר האירוע שעליו מבוססת התביעה. השאלה שנותרה במחלוקת אינה רק אילו מנגנונים קיימים כיום, אלא האם מערך הבטיחות שפעל בזמן אמת היה מספק כדי לזהות ולהגיב למצוקה מתמשכת.

שינוי המוצר בעקבות הביקורת

בעקבות התביעות והלחץ הציבורי, Character.AI ביצעה שינוי משמעותי במדיניות המוצר. החברה הסירה אפשרויות שיחה פתוחות עבור משתמשים מתחת לגיל 18, והוסיפה מגבלות שמטרתן לצמצם חשיפה לתכנים רגישים ולדינמיקות של קשר אינטימי עם דמויות AI.

 

מדובר בצעד שמסמן הכרה רשמית בסיכונים שעלו מהשימוש בפלטפורמה בקרב קטינים. עם זאת, בעיני המבקרים והמשפחות התובעות, השאלה המרכזית אינה עצם השינוי אלא עיתויו. לטענתם, בדומה למקרה עם OpenAI, ההגבלות נוספו רק לאחר שהתבררו ההשלכות הקשות, ולא כחלק מתכנון מוקדם שמזהה סיכון מובנה במוצר עצמו.

משמעות רחבה לתעשייה

הפשרות המשפטיות, גם אם אינן יוצרות פסק דין תקדימי, מסמנות שינוי באופן שבו תעשיית הבינה המלאכותית נתפסת. אינטראקציות עם צ'אטבוטים כבר אינן נתפסות ככלי טכנולוגי ניטרלי בלבד, אלא כמערכות שפועלות גם על מישורים רגשיים ופסיכולוגיים, ושבנסיבות מסוימות עלולות לגרום לנזק ממשי.

 

התביעות נגד Character.AI, Google ו-OpenAI מציבות שאלה שלא נוח לתעשייה לשאול: האם האחריות של חברות AI מסתיימת ביכולת הטכנולוגית, או שהיא מתחילה בדיוק במקום שבו נוצר קשר אנושי פגיע? כשהשיח עובר ממילים על מסך להשפעה ממשית על חיי בני אדם, נדרש חשבון נפש שאינו רק טכנולוגי, אלא גם מוסרי וחברתי.

הפוסט מי באמת אחראי לקשר הרגשי הבעייתי שנוצר בין בני נוער לצ׳אטבוט הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/character-ai-google-settlement/feed/ 1
Fast, Thinking או Pro? המדריך למשתמש בג’מיני 3 https://letsai.co.il/gemini-3-modes-guide/ https://letsai.co.il/gemini-3-modes-guide/#comments Sat, 03 Jan 2026 14:09:46 +0000 https://letsai.co.il/?p=67534 רוצים להפיק יותר מג'מיני ב-2026? כדאי שתבינו מה קורה "מתחת למכסה המנוע". למרות השמות השונים, חשוב לדעת ש-Fast ו-Thinking הם למעשה אותו מודל (Gemini 3 Flash) בהגדרות עבודה שונות: אחד מותאם למהירות שיא והשני לעצירה וחשיבה לוגית. לעומתם, מצב ה-Pro הוא מודל Gemini 3 Pro - מנוע שונה לחלוטין ובעל עוצמה גדולה בהרבה, המיועד למשימות […]

הפוסט Fast, Thinking או Pro? המדריך למשתמש בג’מיני 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>
רוצים להפיק יותר מג'מיני ב-2026? כדאי שתבינו מה קורה "מתחת למכסה המנוע". למרות השמות השונים, חשוב לדעת ש-Fast ו-Thinking הם למעשה אותו מודל (Gemini 3 Flash) בהגדרות עבודה שונות: אחד מותאם למהירות שיא והשני לעצירה וחשיבה לוגית. לעומתם, מצב ה-Pro הוא מודל Gemini 3 Pro - מנוע שונה לחלוטין ובעל עוצמה גדולה בהרבה, המיועד למשימות שמצריכות עומק וניתוח רב-שכבתי.

 

המודלים של ג׳מיני

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

Fast (מהיר)

מצב Fast מבוסס על מודל Gemini 3 Flash הפועל במהירות מלאה ומותאם לספק זמני תגובה קצרים במיוחד. אפשר לדמות אותו לקולגה חד וחריף שמספק תשובות מהירות ומקצועיות מבלי "לחפור" או להשקיע מחשבת יתר בפרטים הטכניים.

 

הבחירה במצב זה מייצגת העדפה ברורה של מהירות על פני עומק. המודל לא יעצור כדי לאמת את הלוגיקה שלו או לתכנן פתרונות רב-שלביים מורכבים, מה שהופך אותו לכלי אידיאלי עבור שאלות ישירות ופשוטות.

 

דוגמה קלאסית ליעילות המודל היא ניהול עומס של 50 אי-מיילים שלא נקראו לפני פגישה דחופה: במשימה כזו, אתם זקוקים למיון (Triage) מהיר שיקבע מה דורש פעולה, מה מיועד לידיעה בלבד ומה יכול להמתין. מכיוון שמדובר במשימת סיווג ולא בבעיה הדורשת חשיבה מעמיקה, מצב ה-Fast מאפשר לכם להבין את תמונת המצב בתוך שניות, בעוד שמצבי החשיבה האחרים פשוט יגרמו לכם להמתין זמן מיותר עבור אותה התוצאה.

 

דוגמה למצב Fast: מיון אימיילים מהיר

דוגמה למצב Fast: מיון אימיילים מהיר

 

למה Fast מתאים כאן? זו משימת מיון, לא משימת חשיבה. אתם לא מבקשים מהמודל לפתור בעיה, אתם מבקשים ממנו לעזור לכם לראות את התמונה הכללית. מצב Fast יכול לסווג ולסכם בשניות. מצב Thinking פשוט יגרום לכם לחכות יותר זמן לאותה תוצאה בדיוק. Pro יהיה מוגזם למשימה כזו.

Thinking (חשיבה)

מצב ה-Thinking מבוסס גם הוא על מודל Gemini 3 Flash, אך בתוספת "שכבת חשיבה" המורה לו לעצור ולמפות שרשרת מחשבה (COT) מסודרת לפני מתן התגובה. ניתן לדמות את זה לאותו קולגה חריף, אלא שהפעם הוא לוקח לעצמו כמה דקות לשרטט את הנימוקים שלו על לוח מחיק לפני שהוא משיב.

 

הבחירה במצב הזה אמנם הופכת את התהליך לאיטי יותר בהשוואה ל-Fast, אבל היא הופכת אותו לאמין משמעותית בפתרון בעיות הדורשות לוגיקה, ניתוח או תכנון מבני. המודל צורך כמות משאבי מחשוב דומה למצב המהיר, אך מקצה חלק גדול יותר מהם לתהליך האימות והבנייה הלוגית.

 

דוגמה בולטת ליעילות המודל היא תכנון מערכת פרודוקטיביות אישית, כמו יצירת תבנית לסיכום שבועי המותאמת בדיוק לכלי העבודה וללוח הזמנים שלכם. מכיוון שמדובר בבעיית עיצוב המפיקה תועלת מחשיבה מובנית, מצב ה-Thinking ידע לייצר פתרון קוהרנטי ומותאם אישית, בעוד שמצב ה-Fast היה מספק תבנית גנרית בלבד.

 

דוגמה למצב Thinking: עיצוב שיטת עבודה

דוגמה למצב Thinking: עיצוב שיטת עבודה

 

למה Thinking מתאים כאן? זו בעיית עיצוב ותכנון שמרוויחה מחשיבה מובנית. אתם רוצים שהמודל יחשוב על המרכיבים של מערכת סיכום טובה, ישקול את זרימת העבודה הספציפית שלכם וייצור משהו קוהרנטי. Fast ייתן לכם תבנית גנרית. Pro יעבוד, אבל הוא מיותר כי זו לא בעיה טכנית קשה במיוחד.

Pro (מקצוען)

מצב ה-Pro מבוסס על Gemini 3 Pro, מודל השונה מהיסוד וגדול משמעותית ממודל ה-Flash. זהו המודל בעל היכולות הגבוהות ביותר של גוגל לחשיבה מורכבת וסנכרון מידע ממגוון רב של מקורות במקביל.

 

באנלוגיה לעולם העבודה, ניתן לראות בו מומחה בכיר המגויס לפתרון הבעיות הסבוכות ביותר. הוא אמנם איטי יותר וצורך מכסות שימוש רבות יותר, אך הוא מסוגל לפתור את מה שאיש מקצוע כללי פשוט לא יוכל לצלוח. עבור משימות שגרתיות הוא עשוי להיראות כמו "Overkill", אך בבעיות קשות באמת הוא בהחלט שווה את ההמתנה.

 

דוגמה מובהקת לצורך בו היא משימה של מנהלי שיווק הנדרשים לבנות סקירה תחרותית המבוססת על מקורות רבים כמו תמלילי דוחות רווחים, הודעות לעיתונות, דפי תמחור וביקורות לקוחות. במקרה כזה, רק ה-Pro מסוגל להחזיק את כל המקורות בתוך ההקשר (Context), לזהות סתירות ולגבש תובנות אסטרטגיות שאינן מובנות מאליהן.

 

דוגמה למצב Pro: ניתוח אסטרטגי מורכב

דוגמה למצב Pro: ניתוח אסטרטגי מורכב

 

למה Pro מתאים כאן? משימה כזו דורשת סנכרון של מידע סותר בין מסמכים רבים והסקת מסקנות לא מובנות מאליהן.

  • Fast יסכם כל מקור בנפרד אבל יפספס את ההקשרים ביניהם.

  • Thinking יצליח יותר, אבל נוטה "לאבד הקשר" בניתוח של מסמכים מרובים.

  • Pro מסוגל להתמודד עם העומס הקוגניטיבי של החזקת כל המקורות בהקשר אחד וחשיבה רוחבית עליהם.

 ה-Pro פשוט טוב יותר בסינתזה של מסמכים רבים, וזה נובע גם מ"חלון ההקשר" הגדול שלו. עבור מי שעובד עם קבצי ענק, זהו נתון קריטי לא פחות מהיכולת ה"חשיבתית".

אז איך מחליטים?

סיכמתי לכם בשלוש נקודות, לפי סדר עדיפויות:

1. השתמשו ב-Thinking כברירת מחדל. עבור 99% מהמשתמשים ומקרי הבוחן, אי אפשר לטעות כאן. זו האופציה המאוזנת שמתמודדת היטב עם רוב משימות העבודה.

2. עברו ל-Fast כשאתם מבצעים חיפושים מהירים, סיכומים פשוטים, סיעור מוחות או מיון משימות. אם אתם תופסים את עצמכם מחכים וחושבים "זה לא צריך להיות כזה איטי", השתמשו ב-Fast.

3. ״שדרגו״ ל-Pro כשהבעיה קשה באמת: דיבאגינג (ניפוי שגיאות) מורכב, מתמטיקה רב-שלבית, סינתזה של מסמכים גדולים או ניתוח טכני. אם Thinking נותן לכם תשובה חלשה בנושא חשוב, Pro שווה את "עלות" מגבלת השימוש.

 

ודבר אחרון, אם אתם משתמשים במסלול החינמי, אתם יכולים לגשת לכל שלושת המצבים, אך עם מגבלות יומיות שגוגל לא מפרסמת באופן רשמי.

הפוסט Fast, Thinking או Pro? המדריך למשתמש בג’מיני 3 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-3-modes-guide/feed/ 1
xAI נכנסת לשוק הארגוני ומשיקה את Grok Business ו-Enterprise למשתמשים עסקיים https://letsai.co.il/grok-business-enterprise-launch/ https://letsai.co.il/grok-business-enterprise-launch/#respond Fri, 02 Jan 2026 12:52:01 +0000 https://letsai.co.il/?p=67496 חברת xAI של אילון מאסק השיקה ב-30 בדצמבר 2025 שתי חבילות עסקיות חדשות: Grok Business ו-Grok Enterprise. המהלך מסמן את הכניסה הרשמית של החברה לשוק ה-AI הארגוני, זירה שבה שלטו עד כה ביד רמה OpenAI (עם ChatGPT Enterprise) ו-Google (עם Gemini Enterprise), תוך שהן נשענות על תשתיות הענן והפרודוקטיביות של Microsoft וגוגל. הבחירה של xAI […]

הפוסט xAI נכנסת לשוק הארגוני ומשיקה את Grok Business ו-Enterprise למשתמשים עסקיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
חברת xAI של אילון מאסק השיקה ב-30 בדצמבר 2025 שתי חבילות עסקיות חדשות: Grok Business ו-Grok Enterprise. המהלך מסמן את הכניסה הרשמית של החברה לשוק ה-AI הארגוני, זירה שבה שלטו עד כה ביד רמה OpenAI (עם ChatGPT Enterprise) ו-Google (עם Gemini Enterprise), תוך שהן נשענות על תשתיות הענן והפרודוקטיביות של Microsoft וגוגל. הבחירה של xAI להשיק פתרונות עסקיים ייעודיים נובעת מההבנה שהתחרות בשוק ה-AI השתנתה - החברות כבר לא מתחרות רק על ביצועי המודל, אלא על ארכיטקטורת אבטחה, אינטגרציה עם דאטה ארגוני ועלות כוללת (TCO) בקנה מידה רחב. עם זינוק בשימוש בארגונים מ-2.6% ל-23% בתוך חודשים ספורים, Grok מנסה כעת להפוך משחקן "מרדני" לאלטרנטיבה מוסדית לגיטימית מול הענקיות הוותיקות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה מציעה כל חבילה?

Grok Business מיועדת לצוותים קטנים ובינוניים של עד 100 עובדים. המחיר נקבע על 30 דולר למשתמש בחודש. זהו מחיר סטנדרטי בשוק, הדומה לתמחור של Gemini Enterprise מבית גוגל.

 

היתרון התחרותי האמיתי של xAI כאן הוא הגמישות - בעוד שחברות כמו OpenAI דורשות לעיתים קרובות התחייבות לכמות מינימלית של משתמשים (Seat Minimum) בחוזים ארגוניים, xAI מאפשרת הרשמה בשירות עצמי (Self-serve) ללא דרישות סף נוקשות.

 

לשם השוואה, בעוד שחבילת ה-Team של OpenAI עולה כ-25 דולר, חבילת ה-ChatGPT Enterprise מתומחרת בפורמט Custom (מותאם אישית) הדורש משא ומתן מול מחלקת המכירות, כשהערכות השוק עבור חוזים אלו נעות סביב ה-60 דולר למשתמש.

 

Grok Enterprise מיועדת לארגונים גדולים הזקוקים ליכולות ניהול מתקדמות כמו אימות זהות מותאם (Custom SSO) וסנכרון ספריות משתמשים (SCIM). בדומה לפתרונות המקבילים של OpenAI וגוגל, התמחור של גרסה זו הוא Custom ונקבע באופן פרטני מול צוות המכירות של xAI.

 

מפת הדרכים והתאמת הגרסאות למשתמשים

קונסולה ניהולית לשליטה מרכזית

שתי החבילות כוללות גישה לקונסולת ניהול מרכזית דרך xAI Console. מנהלי IT יכולים להזמין משתמשים, לנהל הרשאות גישה ולעקוב אחרי צריכת המערכת בזמן אמת - הכל ממקום אחד. 

 

 

Enterprise Vault: הפיצ'ר שמכוון לסקטורים מפוקחים

עבור ארגונים עם דרישות אבטחה מחמירות, כמו בנקים, חברות ביטוח ומשרדי עורכי דין, xAI מציעה שכבה נוספת בשם Enterprise Vault.

 

מה זה אומר בפועל? מישור נתונים מבודד לחלוטין מהתשתית הרגילה של xAI, עם הצפנה בשליטת הלקוח (Customer Managed Encryption Keys). המשמעות היא שהארגון מנהל בעצמו את מפתחות ההצפנה, ואפילו ל-xAI אין גישה טכנית למידע.

 

פיצ'רים דומים קיימים אצל ספקי ענן כמו AWS ו-Google Cloud, וגם ל-OpenAI ו-Anthropic יש פתרונות אבטחה מתקדמים. אולם, בעוד שמתחרים מציעים יכולות דומות לרוב כחלק מפתרונות "Tailor-made" הדורשים משא ומתן אישי והתאמה ארוכה, xAI הופכת את האבטחה העילאית למוצר מדף (Off-the-shelf) שניתן להטמיע בצורה מוצרית וברורה מהיום הראשון.

אינטגרציה עם מקורות מידע ארגוניים

xAI שמה דגש על האינטגרציה עם כלים ארגוניים קיימים. נכון להיום, המערכת מתחברת ל-Google Drive ול-xAI Collections.

 

 

נקודה קריטית למנהלים בארגונים גדולים היא שכרגע אין אינטגרציה עם Microsoft 365 ,SharePoint או OneDrive. עבור רוב חברות ה-Fortune 500 שיושבות על תשתית Azure, זהו חסם כניסה משמעותי. אם הארגון שלכם מבוסס על מיקרוסופט, תצטרכו להמתין לאינטגרציה עתידית או לעבוד עם פתרון אחר.

 

הפיצ'ר המעניין כאן הוא "Permission Awareness": המערכת מכבדת את הרשאות הגישה הקיימות. אם לעובד אין גישה למסמך מסוים בדרייב, Grok לא ישלוף לו מידע ממנו. זה פותר בעיה מוכרת של דליפת מידע פנימי שמעכבת ארגונים רבים מלהטמיע כלי AI.

 

בנוסף, תשובות המערכת כוללות ציטוטים עם קישורים ישירים למקור, מה שמאפשר אימות של המידע.

Collections API: חיפוש חכם במאגרי מידע גדולים

פיצ׳ר מעניין נוסף הוא Collections API. ארגונים יכולים להעלות בסיסי ידע גדולים - מאגרי מסמכים משפטיים, תיעוד טכני, data rooms לעסקאות M&A - ולאפשר ל-Grok לחפש בהם עם יכולות Agentic Search.

 

 

בפועל, זה אומר שצוות משפטי יכול לשאול "מצא את כל הסעיפים בחוזים שלנו שמתייחסים לאחריות על נזקים עקיפים" ולקבל תשובה מבוססת על אלפי מסמכים, עם הפניות מדויקות למקור. זו יכולת שרלוונטית במיוחד לסקטורים עתירי מסמכים.

שיתוף שיחות מאובטח

פיצ'ר נוסף שכדאי להכיר הוא שיתוף שיחות בין חברי צוות. ניתן לשתף שיחה עם Grok באמצעות קישור, כשהגישה מוגבלת רק למי שקיבל הרשאה מפורשת. זה שימושי כשצוות עובד על פרויקט משותף ורוצה לשתף תובנות או ניתוחים שהמערכת הפיקה.

 

חלון הקשר של 2 מיליון טוקנים

אחד היתרונות הטכניים המובהקים של Grok, כפי שנגזר מהמפרט של מודל ה-Grok 4 Heavy המניע את המערכת, הוא חלון הקשר (Context Window) עצום המגיע לעד 2 מיליון טוקנים בפעולה אחת. בפועל, יכולת זו מאפשרת לארגונים לטעון אלפי עמודי מסמכים, ספריות קוד שלמות או דוחות פיננסיים רב-שנתיים מורכבים ולקבל תשובות מבוססות על המאגר כולו.

 

לשם השוואה, נכון לתחילת 2026, הגרסאות העסקיות של המתחרות מציעות נפחים מצומצמים יותר: ChatGPT Enterprise מציע 400,000 טוקנים עם מודל GPT-5.2, בעוד Claude Enterprise מגיע ל-500,000 טוקנים עם Sonnet 4.5. הפער הזה מעניק ל-Grok Business יתרון משמעותי עבור ארגונים המנהלים מסמכי ענק או קודבייסים רחבים, שכן הוא מאפשר ניתוח הוליסטי של המידע ללא צורך בפיצולו למקטעים קטנים.

 

עם זאת, חשוב להדגיש שחלון הקשר ענק אינו יתרון מוחלט ללא בקרה. קיימת תופעה טכנולוגית מוכרת בשם "Lost in the Middle", במסגרתה מודלים נוטים לעיתים "לשכוח" או להתעלם ממידע שנמצא במרכזם של מסמכים ארוכים מאוד. המשמעות היא שהמערכת עשויה לסכם מסמך רחב היקף בצורה טובה, אך להחמיץ פרט קריטי המופיע בעומק הטקסט (למשל, בעמוד 847 מתוך 2,000). לכן, מומלץ לארגונים לבדוק את איכות השליפה (Retrieval Quality) הספציפית בתקופת הניסיון לפני הסתמכות מלאה על המערכת למשימות קריטיות.

ההתחייבות לפרטיות

xAI מצהירה במפורש שנתוני לקוחות עסקיים לא ישמשו לאימון מודלים. זו התחייבות סטנדרטית בשוק הארגוני, שגם OpenAI ו-Anthropic מציעות ללקוחות Enterprise. אבל זה שינוי מהותי מהגרסה הצרכנית של Grok, שם המידע עשוי לשמש לשיפור המודל. הפלטפורמה עומדת בתקן SOC 2 ותואמת לדרישות GDPR ו-CCPA.

איפה Grok עומד בשוק?

נתוני התנועה והאימוץ מציגים תמונה מורכבת של שוק הנמצא בתהליך של ביזור: לפי נתוני SimilarWeb, בעוד ש-ChatGPT עדיין שולט בשוק עם נתח של כ-68%, מדובר בירידה משמעותית לעומת דומיננטיות של 87% בשנה הקודמת. במקביל, Gemini של גוגל רשמה צמיחה אגרסיבית וטיפסה מנתח שוק של 5% ל-18% בתוך שנה אחת בלבד.

 

נכון לאוקטובר 2025, Grok הצליח להתברג בעשירייה הפותחת של כלי ה-AI מבחינת תנועה, עם כ-27.8 מיליון מבקרים ייחודיים בחודש. עם זאת, הפער מהמובילה נותר עצום, שכן ChatGPT משך באותה תקופה כ-660 מיליון מבקרים ייחודיים.

 

למרות פער הכמויות, Grok מוביל את הקטגוריה במדד המעורבות (Engagement): זמן השהייה הממוצע לביקור ב-Grok עומד על כ-14:02 דקות, נתון שעקף את אלו של ChatGPT (כ-13:32 דקות) ושל Gemini (כ-11:13 דקות) במהלך החודשים אוקטובר-נובמבר 2025.

 

בזירה הארגונית, הזינוק משמעותי עוד יותר: לפי דו"ח של Netskope מיוני 2025, נוכחותו של Grok בארגונים (שיעור החברות בהן יש לפחות משתמש פעיל אחד) זינקה מ-2.6% ל-23% בתוך חודשים ספורים. נתון זה מעיד על חדירה מהירה של המותג למגזר העסקי עוד לפני ההשקה הרשמית של חבילות ה-Enterprise.

האם Grok מתאים לארגון שלכם?

במבט קדימה, xAI כבר סימנה את היעדים הבאים שלה: הרחבת האינטגרציות מעבר ל-Google Drive, פיתוח סוכנים אוטונומיים (Agents) לביצוע משימות מורכבות ושיפור משמעותי של יכולות השיתוף הצוותיות. ההשקה הנוכחית מסמנת רשמית את הפיכתו של Grok ממוצר צריכה המזוהה עם תרבות הרשת למתחרה מוסדי רציני בשוק הארגוני.

 

למרות שהתמחור נותר סטנדרטי ביחס לשוק, היתרון התחרותי האמיתי שלו טמון בגמישות ובצמצום חסמי הכניסה, במיוחד לאור היעדר דרישת המינימום למשתמשים שהייתה נהוגה עד כה אצל חלק מהמתחרות הוותיקות. פיצ'רים ייחודיים כמו ה-Collections API וה-Enterprise Vault מעניקים למערכת ערך טכנולוגי גבוה, במיוחד עבור סקטורים עתירי מסמכים ורגולציה הזקוקים לבידוד נתונים מוחלט.

 

יחד עם זאת, חסם משמעותי שעומד כרגע בפני החברה הוא היעדר אינטגרציה עם Microsoft 365. עבור ארגונים רבים המבוססים על Azure ו-SharePoint, מדובר בחיסרון שמהווה סיבה ממשית להמתין להתפתחויות עתידיות. בעוד ששחקניות כמו OpenAI ו-Anthropic נהנות מרקורד מוכח, תשתית תמיכה רחבה ואינטגרציות עמוקות יותר, xAI נמצאת רק בתחילת דרכה בעולם הארגוני.

 

בסופו של יום, עבור ארגונים המבוססים על Google Workspace ומוכנים להיות מאמצים מוקדמים (Early Adopters), Grok מציע חלופה עוצמתית ומסקרנת, אך הצלחתה בטווח הארוך תלויה ביכולתה של xAI לספק לא רק טכנולוגיה מתקדמת, אלא גם את רמת האמינות והשירות המצופה מספקית פתרונות לארגוני ענק.

 

לסקירה המלאה ולפרטים נוספים על Grok Business & Enterprise Launch, כנסו כאן.

הפוסט xAI נכנסת לשוק הארגוני ומשיקה את Grok Business ו-Enterprise למשתמשים עסקיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/grok-business-enterprise-launch/feed/ 0