חדשות AI - חדשות בינה מלאכותית | Let's AI בינה מלאכותית https://letsai.co.il/articles/news-and-innovations/ בינה מלאכותית Mon, 20 Apr 2026 03:09:04 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.5 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp חדשות AI - חדשות בינה מלאכותית | Let's AI בינה מלאכותית https://letsai.co.il/articles/news-and-innovations/ 32 32 טאבולה מפטרת כחלק משינוי כיוון אסטרטגי בעידן ה‑AI https://letsai.co.il/taboola-future-advertising/ https://letsai.co.il/taboola-future-advertising/#respond Mon, 20 Apr 2026 07:25:59 +0000 https://letsai.co.il/?p=73091 טאבולה מפטרת כ‑100 עובדים כחלק מארגון מחדש שנועד להאיץ את המעבר שלה לעולם ה‑AI. למרות הכנסות שיא ורווחיות, החברה מתמודדת עם לחץ משקיעים ועם שוק פרסום שמשתנה במהירות. הפיטורים נועדו לפנות משאבים לפיתוח DeeperDive, מנוע תשובות גנרטיבי מבוסס פרסום שנבנה בשיתוף פעולה עם גופי מדיה. המהלך משקף מגמה רחבה יותר: גם חברות רווחיות נדרשות לבצע […]

הפוסט טאבולה מפטרת כחלק משינוי כיוון אסטרטגי בעידן ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
טאבולה מפטרת כ‑100 עובדים כחלק מארגון מחדש שנועד להאיץ את המעבר שלה לעולם ה‑AI. למרות הכנסות שיא ורווחיות, החברה מתמודדת עם לחץ משקיעים ועם שוק פרסום שמשתנה במהירות. הפיטורים נועדו לפנות משאבים לפיתוח DeeperDive, מנוע תשובות גנרטיבי מבוסס פרסום שנבנה בשיתוף פעולה עם גופי מדיה. המהלך משקף מגמה רחבה יותר: גם חברות רווחיות נדרשות לבצע התאמות כדי להישאר רלוונטיות בעידן ה‑AI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך חברה רווחית ומבוססת מפטרת עובדים

באמצע אפריל 2026 הודיעה טאבולה על פיטורי כ‑100 עובדים, כ‑5 אחוזים מכוח האדם הגלובלי שלה. המהלך השפיע על עובדים בישראל, ניו יורק ודרום אמריקה, והגיע דווקא אחרי שנה פיננסית חזקה במיוחד. לפי הדוחות הפיננסיים, החברה סיימה את 2025 עם הכנסות של 1.912 מיליארד דולר, רווח נקי של 42.3 מיליון דולר וזרימת מזומנים חופשית של 163.4 מיליון דולר.

 

לכאורה, זה לא מסתדר. איך חברה רווחית ומבוססת מפטרת עובדים. אבל ב‑2026 רווחיות כבר אינה ערובה לשקט תעשייתי. תעשיית הטכנולוגיה כולה נמצאת במרוץ מואץ לעבר AI, והחברות נדרשות להראות שהן לא רק רווחיות, אלא גם מסוגלות להמציא את עצמן מחדש.

שוק משתנה

טאבולה פועלת בלב אחד השווקים התחרותיים ביותר: פרסום דיגיטלי מבוסס תוכן. במשך שנים המודל שלה היה ברור. המלצות תוכן שמפנות תנועה לאתרים ומייצרות הכנסות מפרסום. אבל מודלים גנרטיביים כמו ChatGPT, Perplexity ו‑Gemini משנים את הדרך שבה משתמשים מחפשים מידע. במקום להקליק על קישורים, הם מקבלים תשובות ישירות מהמודל.

 

המשמעות ברורה. פחות תנועה לאתרים, פחות חשיפה למפרסמים ופחות ערך למערכות המלצות מסורתיות.

 

במקביל, המשקיעים מצפים מחברות טכנולוגיה להציג לא רק רווחיות אלא גם צמיחה אגרסיבית. למרות שטאבולה הציגה תוצאות חזקות ב‑2025, היא פספסה במעט את תחזיות האנליסטים. התגובה הייתה חדה. מניית החברה ירדה בכ‑25 אחוזים מתחילת 2026, חלק ממגמה רחבה של סנטימנט שלילי כלפי חברות תוכנה ואד‑טק.

 

במציאות הזו טאבולה הבינה שהמשך השקעה במוצרים המסורתיים שלה לא יספיק. כדי להישאר רלוונטית היא חייבת להגדיר את עצמה מחדש.

מעבר חד ל‑AI והולדת DeeperDive

הפיטורים אינם מהלך חירום, אלא חלק מתוכנית אסטרטגית שמטרתה למקד משאבים בפיתוח מוצרי AI חדשים, ובראשם מנוע התשובות הגנרטיבי DeeperDive.

 

בסוף 2025 השיקה טאבולה את DeeperDive, מנוע תשובות מבוסס GenAI שנבנה בשיתוף פעולה עם גופי מדיה גדולים כמו Gannett, India Today ו‑BuzzFeed Asia. בניגוד למודלים שמסתמכים על תוכן מהאינטרנט ללא שיתוף פעולה עם בעלי הזכויות, טאבולה בונה את המערכת יחד עם המו"לים עצמם. זה ניסיון לייצר מודל AI שמכבד זכויות יוצרים ומחזיר ערך למי שיצר את התוכן.

 

המנכ"ל אדם סינגולדה מציג חזון חד וברור: "העולם יתחלק לשני סוגי מודלים. מודלים מבוססי מנוי ומודלים מבוססי פרסום. אנחנו רוצים לבנות את מודל ה‑AI הגדול ביותר שמבוסס על פרסום ומשרת את האינטרנט הפתוח."

 

זה מהלך שאפתני. אלטרנטיבה למנועי תשובות כמו ChatGPT ו‑Perplexity, אבל כזו שמחזירה תנועה לאתרים ולא מחליפה אותם.

 

במקביל, טאבולה משקיעה בפלטפורמת Realize, מערכת מבוססת ML (למידת מכונה) שמטרתה לשפר את ביצועי הקמפיינים ואת ה‑ROI של מפרסמים. זהו חלק מהמעבר של החברה ממערכת המלצות תוכן למערכת פרסום חכמה שמבינה הקשר, כוונה ותוכן בזמן אמת.

ארגון מחדש

לפי כל המקורות, הפיטורים אינם נובעים ממשבר פיננסי. להפך. החברה ממשיכה לגייס לתפקידים חדשים שמתאימים למיקוד העדכני שלה. זהו מהלך של התאמת כישורים, לא של נסיגה. המהלך כולל העברת משאבים מצוותים שאינם תומכים ב‑AI, גיוס לתפקידי AI, ML, דאטה ומוצר, התאמת מבנה ההוצאות לציפיות המשקיעים לשיפור מתמיד במרווחים ורענון שורות שמאפשר האצה בפיתוח מוצרים חדשים.

 

במילים אחרות, טאבולה לא מצמצמת את עצמה. היא משנה את עצמה.

מה מיוחד במהלך הזה

שלושה אלמנטים בולטים במיוחד.

חברה רווחית שמפטרת כדי לצמוח

זה חלק מהפרדוקס החדש של תעשיית הטכנולוגיה. רווחיות היא לא יעד אלא נקודת פתיחה. המשקיעים רוצים לראות קפיצה קדימה, לא שמירה על הקיים.

הימור על מודל עסקי חדש לעולם ה‑AI

בעוד רוב השחקנים הגדולים בונים מודלים מבוססי מנוי, טאבולה בוחרת במסלול אחר. מודל פרסום שמאפשר שימוש חינמי ומחזיר את הכוח לאתרים.

שיתוף פעולה עמוק עם גופי מדיה

במקום להתחרות בהם, טאבולה בונה את DeeperDive יחד איתם. זה ניסיון לייצר מודל AI שמכבד זכויות יוצרים ומחזיר ערך למי שיצר את התוכן.

מה אפשר ללמוד מהמהלך של טאבולה

מהלך ההתייעלות של טאבולה מדגיש כמה עקרונות מרכזיים לגבי האופן שבו חברות פועלות בעידן ה‑AI.

 

AI הוא לא פרויקט צד אלא אסטרטגיה עסקית שמעצבת מחדש את סדרי העדיפויות. גם חברות רווחיות נדרשות לבצע התאמות כדי לעמוד בציפיות השוק. המרוץ ל‑AI מאלץ ארגונים להגדיר מחדש את מבנה כוח האדם שלהם.

 

מודלים מבוססי פרסום עשויים להפוך לאלטרנטיבה משמעותית למודלים מבוססי מנוי. ושיתופי פעולה עם גופי מדיה הם מרכיב חיוני בשמירה על אינטרנט פתוח שמחזיר ערך למי שמייצר את התוכן.

מהלך קטן שמספר סיפור גדול

הפיטורים בטאבולה הם חלק מתופעה רחבה יותר. חברות טכנולוגיה מבצעות ארגון מחדש לא בגלל שהן קורסות אלא בגלל שהן רוצות להאיץ. המרוץ ל‑AI באמת משנה את כללי המשחק. תפקידים מסורתיים נעלמים, תפקידים חדשים נוצרים, מודלים עסקיים מתחלפים והמשקיעים מצפים לחדשנות בקצב שלא היה כמותו.

 

טאבולה, כמו חברות רבות אחרות, מבינה שהשנים הקרובות יכריעו מי יישאר רלוונטי בעולם שבו AI הוא שכבת התשתית החדשה של האינטרנט. המהלך הנוכחי הוא צעד אחד בתוך שינוי עמוק יותר, כזה שמגדיר מחדש את עתיד הפרסום, התוכן והאינטרנט הפתוח.

הפוסט טאבולה מפטרת כחלק משינוי כיוון אסטרטגי בעידן ה‑AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/taboola-future-advertising/feed/ 0
מיקרוסופט בוחנת את הדור הבא של סוכני AI, והפעם עם שליטה אמיתית https://letsai.co.il/microsoft-ai-openclaw-agents/ https://letsai.co.il/microsoft-ai-openclaw-agents/#respond Mon, 20 Apr 2026 03:10:44 +0000 https://letsai.co.il/?p=72781 מיקרוסופט ממשיכה לדחוף קדימה את גבולות ה-AI הארגוני, וכעת היא בוחנת שילוב של יכולות בסגנון OpenClaw בתוך כלי Microsoft 365 Copilot שלה. לפי דיווחים, מדובר בפיצ’רים שמיועדים בעיקר לארגונים – עם דגש חזק על אבטחה ושליטה, בניגוד לגישה הפתוחה והמסוכנת יותר שמזוהה עם OpenClaw.     מה זה בכלל OpenClaw - ולמה כולם מדברים עליו? […]

הפוסט מיקרוסופט בוחנת את הדור הבא של סוכני AI, והפעם עם שליטה אמיתית הופיע ראשון בLet's AI בינה מלאכותית

]]>

מיקרוסופט ממשיכה לדחוף קדימה את גבולות ה-AI הארגוני, וכעת היא בוחנת שילוב של יכולות בסגנון OpenClaw בתוך כלי Microsoft 365 Copilot שלה. לפי דיווחים, מדובר בפיצ’רים שמיועדים בעיקר לארגונים – עם דגש חזק על אבטחה ושליטה, בניגוד לגישה הפתוחה והמסוכנת יותר שמזוהה עם OpenClaw.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה בכלל OpenClaw - ולמה כולם מדברים עליו?

OpenClaw הוא כלי קוד פתוח שפועל מקומית על המחשב של המשתמש, ומאפשר ליצור סוכנים שמבצעים פעולות בפועל -  לא רק לענות על שאלות או להציע רעיונות, אלא ממש לפעול בשמכם.

המשמעות היא מעבר ממודל של "צ'אט עם AI" למודל של "עוזר אישי שמבצע משימות". הסוכן יכול לנהל תהליכים, להריץ פעולות ולבצע משימות מורכבות - וכל זה מתוך המחשב המקומי, בלי תלות בענן.

מיקרוסופט נכנסת עמוק לעולם הסוכנים

אם מיקרוסופט אכן תשיק גרסה משלה ל־Claw, מדובר בהמשך ישיר לאסטרטגיה רחבה יותר שהיא מקדמת בחודשים האחרונים - מעבר ל-AI שמבצע פעולות, ולא רק מספק מידע.

כך למשל, במרץ האחרון היא הציגה את Copilot Cowork - סוכן שמסוגל לבצע פעולות בתוך אפליקציות Microsoft 365 עצמן. כלומר, לא עוד חלון צ’אט בצד, אלא יכולת אמיתית לפעול בתוך Word, Excel ושאר הכלים.

המערכת הזו נשענת על שכבת אינטליגנציה בשם Work IQ, שמטרתה להתאים את הפעולות וההמלצות למשתמש בצורה פרסונלית לאורך כל סביבת העבודה.

שיתוף פעולה עם Anthropic והבחירה ב-Claude

כחלק מהמהלך, מיקרוסופט גם שילבה את המודל Claude של חברת Anthropic בתוך Cowork. מדובר במהלך מעניין, במיוחד לאור העובדה שגם משתמשי OpenClaw נוטים לבחור ב-Claude כמודל המועדף.

עם זאת, חשוב להבין: Cowork פועל בענן, ולא על המחשב המקומי. זהו הבדל מהותי מהגישה של OpenClaw, שמבוססת על הרצה לוקאלית.

עוד סוכן, עוד שכבה - Copilot Tasks

בפברואר השיקה מיקרוסופט גם את Copilot Tasks - סוכן נוסף שמיועד לבצע משימות בפועל. כאן כבר רואים ניסיון להתרחב מעבר לעולם הארגוני הקלאסי, עם יכולות כמו ניהול מיילים, תיאום פגישות ואפילו ארגון נסיעות.

גם במקרה הזה, הפעילות מתבצעת בענן - מה שמחד מאפשר סקייל, אך מאידך מעלה שאלות סביב פרטיות ושליטה.

סוכן שתמיד עובד - לא רק כשמבקשים

אחת הנקודות המסקרנות ביותר בתוכניות של מיקרוסופט היא הרעיון של סוכן "תמיד פעיל". לפי הדיווחים, מדובר בגרסה של Copilot שיכולה לפעול ברקע, לבצע פעולות לאורך זמן ולהשלים תהליכים מרובי שלבים – גם בלי התערבות מתמדת של המשתמש.

זה כבר לא עוזר שמגיב לפקודות, אלא מערכת שעובדת עבורכם באופן רציף.

לוקאלי או ענן - הקרב האמיתי

עדיין לא ברור האם מיקרוסופט תלך עד הסוף עם מודל לוקאלי כמו OpenClaw, או שתאמץ רק חלק מהיכולות תוך שמירה על עבודה בענן. אבל השאלה הזו היא קריטית – במיוחד עבור ארגונים שמודאגים מאבטחת מידע ושליטה על נתונים.

הפתרון הלוקאלי נותן שליטה מלאה, אבל מורכב יותר לניהול. הענן מציע נוחות וסקייל, אבל דורש אמון במערכת.

למה דווקא עכשיו?

מעניין לראות שהפופולריות של OpenClaw לא נשארה רק ברמת התוכנה - אלא השפיעה גם על החומרה. משתמשים רבים בחרו להריץ אותו על Mac Mini, שהפך לפלטפורמה מועדפת בזכות השילוב בין ביצועים, מחיר ונוחות.

הביקוש למחשבים האלה עלה בצורה משמעותית - מה שממחיש עד כמה השוק בשל לפתרונות של סוכנים מקומיים.

יותר מאבטחה - מאבק על שליטה

מעבר לשיקולי אבטחה, ברור שלמיקרוסופט יש אינטרס רחב יותר: לשמור על המשתמשים בתוך האקוסיסטם שלה. אם סוכנים לוקאליים יהפכו לסטנדרט, הם עלולים לשבור את התלות בכלים מבוססי ענן.

ולכן, פיתוח גרסה משלה ל־Claw הוא לא רק שיפור מוצר - אלא מהלך אסטרטגי עמוק על השליטה בשכבת העבודה החדשה של עולם ה-AI.

 

 
 

הפוסט מיקרוסופט בוחנת את הדור הבא של סוכני AI, והפעם עם שליטה אמיתית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-ai-openclaw-agents/feed/ 0
סנאפ מפטרת כ- 1,000 עובדים והאצבע המאשימה מופנית לעבר הבינה המלאכותית https://letsai.co.il/snapchatlayoffs/ https://letsai.co.il/snapchatlayoffs/#respond Sun, 19 Apr 2026 18:20:27 +0000 https://letsai.co.il/?p=72907 כשחברת טכנולוגיה מפטרת כ- 16% מכוח העבודה שלה ביום אחד, לרוב מדובר ב"התייעלות" או "התאמה לשוק". סנאפ (Snap), החברה מאחורי סנאפצ'אט (Snapchat), בחרה להציג הסבר מעט אחר: התקדמות בבינה מלאכותית מאפשרת לצוותים לעבוד ביעילות גבוהה יותר, גם עם פחות עובדים. זה ניסוח ישיר, שמסמן מגמה רחבה יותר בתעשייה.     בשנת 2012, כשהושקה סנאפצ'אט, היא […]

הפוסט סנאפ מפטרת כ- 1,000 עובדים והאצבע המאשימה מופנית לעבר הבינה המלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
כשחברת טכנולוגיה מפטרת כ- 16% מכוח העבודה שלה ביום אחד, לרוב מדובר ב"התייעלות" או "התאמה לשוק". סנאפ (Snap), החברה מאחורי סנאפצ'אט (Snapchat), בחרה להציג הסבר מעט אחר: התקדמות בבינה מלאכותית מאפשרת לצוותים לעבוד ביעילות גבוהה יותר, גם עם פחות עובדים. זה ניסוח ישיר, שמסמן מגמה רחבה יותר בתעשייה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

בשנת 2012, כשהושקה סנאפצ'אט, היא הציעה רעיון כמעט הפוך למה שהאינטרנט ייצג עד אז: תוכן שנעלם. בזמן שחברות אחרות ניסו לשמור כל פיסת מידע, סנאפ בנתה מוצר סביב זמניות. יותר מעשור אחרי, אותה חברה מתמודדת עם אתגר אחר לגמרי, לא איך לשמור על ייחודיות, אלא איך להישאר רלוונטית ויעילה בתוך תעשייה שמשתנה במהירות. והפעם, הכלי שמוביל את השינוי הוא הבינה המלאכותית.

 

הפיטורים בפועל

אוון שפיגל (Evan Spiegel), מנכ"ל סנאפ, שלח ביום רביעי מזכר לכל עובדי החברה עם הבשורה: כ-1,000 עובדים קבועים יפוטרו, מה שמהווה כ-16% מכוח העבודה הגלובלי של החברה. בנוסף, החברה סוגרת יותר מ-300 משרות פתוחות שהיו אמורות להתמלא.

נכון לדצמבר 2025, העסיקה סנאפ כ-5,261 עובדים קבועים. כלומר, מדובר במהלך רחב היקף ולא בהתאמה נקודתית.

 

תנאים לעוזבים והמציאות מאחוריהם

העובדים שיפוטרו בארצות הברית יקבלו חבילת פרישה הכוללת ארבעה חודשי שכר, המשך ביטוח בריאות, הבשלת אופציות ותמיכה במעבר לתפקיד חדש.

זו חבילה נדיבה יחסית לסטנדרטים של התעשייה, אבל זה לא ממש מנחם כשאתם מוצאים את עצמכם מחוץ לדלת. במיוחד כששוק העבודה עצמו מתחיל להשתנות.

 

הבינה המלאכותית כהצדקה

הניסוח של סנאפ מעניין במיוחד: במזכר נכתב שההתקדמות המהירה בתחום הבינה המלאכותית מאפשרת לצוותים להפחית עבודה חוזרת, להגביר את קצב העבודה ולתמוך טוב יותר בקהילה, השותפים והמפרסמים של החברה.

 

החברה אף הציגה דוגמאות: צוותים קטנים שמשתמשים בכלי AI הצליחו לקדם התקדמות משמעותית בכמה פרויקטים, כולל שירות המנויים Snapchat+, שיפור ביצועי פלטפורמת הפרסום ושיפורי יעילות בתשתית Snap Lite.

המשמעות האמיתית

בואו נתרגם את זה לשפה פשוטה: סנאפ גילתה שאפשר להחליף חלק מהעובדים בכלי בינה מלאכותית, וזה חוסך לה הרבה כסף.

זו לא האשמה, אלא קביעה ישירה שחברות אולי חושבות אבל לא אומרות בקול רם.

 

החשבון הכלכלי - חיסכון של יותר מחצי מיליארד דולר

סנאפ הודיעה שהפיטורים יאפשרו לה להפחית את בסיס העלויות השנתי שלה ביותר מ-500 מיליון דולר עד המחצית השנייה של 2026.

המטרה המוצהרת היא ליצור מסלול ברור יותר לרווחיות נטו, כלומר לעבור מהפסדים לרווחים.

המצב האסטרטגי

במצגת למשקיעים, סנאפ תיארה את המצב שלה בצורה דרמטית למדי: החברה נמצאת תחת לחץ בין ענקיות עם משאבים עצומים לבין סטארטאפים זריזים שמתקדמים במהירות.

הפתרון שבחרה: מעבר לכיוון צמיחה רווחית. פחות עובדים, יותר AI, יותר רווחים.

 

התמונה הרחבה

לא רק סנאפ

סנאפ לא לבד. החברה מצטרפת לרשימה הולכת וגדלה של חברות טכנולוגיה שביצעו קיצוצים משמעותיים השנה, כולל מטא (Meta), אורקל (Oracle) ואמזון (Amazon).

הגל הזה של פיטורים מצביע על שינוי מהותי בתעשייה - החברות מבינות שהן יכולות לעשות יותר עם פחות, ובמיוחד כשכלי AI הופכים ליעילים ונגישים יותר.

 

מה יקרה עכשיו?

השאלה המעניינת היא מה קורה כשכל חברות הטכנולוגיה מגיעות לאותה מסקנה.

 

אם סנאפ יכולה לחתוך כ-16% מכוח העבודה בזכות AI, מה מונע מחברות אחרות לעשות זאת? התשובה היא כנראה שום דבר.

 

אנחנו צפויים לראות עוד גלי פיטורים דומים בחודשים הקרובים, כולם עם אותו הסבר – ההתקדמות בבינה מלאכותית מאפשרת לנו להיות יעילים יותר.

 

מה עם האנשים?

מאחורי המספרים והאחוזים ישנם אנשים אמיתיים - 1,000 עובדים שהתעוררו ביום רביעי בבוקר עם עבודה, ומצאו את עצמם בערב עם חבילת פרישה.

כן, ארבעה חודשי שכר זה יפה, אבל מציאת עבודה חדשה בתעשיית הטכנולוגיה שעוברת שינויים כאלו היא לא משימה פשוטה.

 

בנוסף ישנה עוד שאלה שאף אחד לא שואל בקול: מה קורה כשהעובדים שנשארו מתחילים לחשוש שהם הבאים בתור? האם זה משפר את הפרודוקטיביות או יוצר אווירת חרדה שפוגעת בחדשנות?

 

בסופו של יום, סנאפ עשתה משהו שחברות רבות עדיין מתביישות לעשות - היא אמרה בגלוי שבינה מלאכותית מחליפה עובדים.

 

זוהי למעשה המציאות החדשה של שוק העבודה בטכנולוגיה. השאלה היא לא אם זה יקרה בעוד חברות, אלא מתי ובאיזה היקף.

 

בינתיים, כ-1,000 עובדים לשעבר של סנאפ מתחילים לחפש את הצעד הבא שלהם. חלקם אולי ימצאו את עצמם עובדים על פיתוח אותם כלי AI שהחליפו אותם.

האירוניה הזו היא אולי הדבר הכי אנושי בכל הסיפור הזה.

הפוסט סנאפ מפטרת כ- 1,000 עובדים והאצבע המאשימה מופנית לעבר הבינה המלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/snapchatlayoffs/feed/ 0
מטא מתכווצת כדי לצמוח – אלפי עובדים בחוץ, מאות מיליארדים ל-AI בפנים https://letsai.co.il/meta-layoffs-ai-strategy/ https://letsai.co.il/meta-layoffs-ai-strategy/#respond Sun, 19 Apr 2026 15:00:12 +0000 https://letsai.co.il/?p=73071 בזמן שמטא (Meta) מזרימה מאות מיליארדי דולרים לבניית תשתיות בינה מלאכותית, היא גם מתכוננת לפטר אלפי עובדים בגל הגדול ביותר מאז 2023. מה שמתחיל החודש כקיצוץ של מאות עובדים במחלקות מכירות וגיוס הוא רק פתיח קטן לסבב מסיבי המתוכנן ל-20 במאי, שבו ייפרדו מהחברה כ-10 אחוזים מכלל עובדיה. מה מתרחש שם מאחורי הקלעים, ולמה ה-AI […]

הפוסט מטא מתכווצת כדי לצמוח – אלפי עובדים בחוץ, מאות מיליארדים ל-AI בפנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
בזמן שמטא (Meta) מזרימה מאות מיליארדי דולרים לבניית תשתיות בינה מלאכותית, היא גם מתכוננת לפטר אלפי עובדים בגל הגדול ביותר מאז 2023. מה שמתחיל החודש כקיצוץ של מאות עובדים במחלקות מכירות וגיוס הוא רק פתיח קטן לסבב מסיבי המתוכנן ל-20 במאי, שבו ייפרדו מהחברה כ-10 אחוזים מכלל עובדיה. מה מתרחש שם מאחורי הקלעים, ולמה ה-AI הפך פתאום לסיבה לפטר במקום לגייס.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

 

הסבב הראשון - מאות עובדים החודש

החברה שמפעילה את פייסבוק ואת אינסטגרם החלה השבוע לצמצם את כוח האדם שלה בכמה מחלקות במקביל. הפיטורים פוגעים בעובדים במחלקות המכירות, הגיוס, וכן בחטיבת Reality Labs המפתחת את מוצרי המציאות המעורבת של החברה. הצמצום מתבצע הן בארצות הברית והן בשווקים בינלאומיים אחרים.

 

דוברת מטא מסרה שצוותים בחברה עוברים מעת לעת ארגון מחדש כדי לוודא שהם ממוקמים באופן מיטבי להשגת יעדיהם, וכי כאשר הדבר מתאפשר מנסים למצוא הזדמנויות חלופיות בתוך החברה לעובדים שתפקידם מבוטל. חלק מהעובדים שתפקידם מבוטל יקבלו הצעות לעבור מקום מגורים או לעבור לתפקיד אחר.

 

היקף הסבב הנוכחי נמוך מ-1,000 עובדים, מה שנראה זניח על רקע כוח האדם הכולל של מטא, שעמד בסוף 2025 על קרוב ל-79,000 עובדים. אבל זו רק ההתחלה.

הסבב הגדול - 20 במאי

מטא מתכוונת להתחיל ב-20 במאי בסבב פיטורים משמעותי בהרבה, שיפגע בכ-10 אחוזים מכוח האדם הגלובלי של החברה - כמעט 8,000 עובדים. זהו רק השלב הראשון. סבבים נוספים צפויים להתרחש במחצית השנייה של 2026, אך העיתוי וההיקף שלהם טרם נקבעו סופית.

 

קודם לכן דווח שהחברה שקלה לפטר אפילו 20 אחוזים או יותר מהעובדים השנה, אולם ההיקף הסופי של הצמצומים השנתיים עדיין נתון לשינויים. ההנהלה צפויה להמשיך ולהתאים את התוכניות בהתאם להתפתחות יכולות הבינה המלאכותית. כלומר, ככל שה-AI יחליף יותר משימות פנים-ארגוניות, כך ייחתך יותר כוח אדם.

מה שונה מהסבב הקודם?

זו לא הפעם הראשונה השנה שמטא מצמצמת את שורותיה. בינואר האחרון כבר פוטרו כ-10 אחוזים מעובדי Reality Labs, סבב שפגע בכ-1,000 עובדים מתוך כוח אדם של כ-15,000 בחטיבה. הסבב ההוא היה ממוקד בחטיבה אחת. הסבב של מאי רחב הרבה יותר ומכסה את כל החברה.

למה זה קורה עכשיו?

הפיטורים הנוכחיים אינם מגיעים על רקע קשיים פיננסיים אלא להיפך: מטא מזרימה בחודשים אלה סכומי עתק לתשתיות AI. בדיווח הרווחים הרשמי שלה לרבעון הרביעי של 2025, החברה הצהירה שהוצאות ההון שלה ב-2026 צפויות לנוע בטווח של 115 עד 135 מיליארד דולר, כשרובן מופנה להרחבת מעבדות ה-Superintelligence שלה, לשרתים, למרכזי נתונים ולכוח חישוב לאימון מודלים. היעד הוא להגיע לרווח תפעולי גבוה יותר מזה של 2025, וזאת למרות קפיצת ההוצאות. במילים אחרות, החברה מקצצת בעובדים כדי להזרים יותר כסף למכונות.

הדפוס הרחב בתעשייה

מה שקורה במטא אינו מתרחש בחלל ריק. לפי ניתוח של CNBC, ארבע ענקיות הטכנולוגיה - אלפבית (Alphabet), מיקרוסופט (Microsoft), מטא ואמזון (Amazon) - צפויות להוציא יחד כמעט 700 מיליארד דולר על תשתיות AI ב-2026. זו קפיצה של יותר מ-60 אחוזים לעומת 2025. כל החברות הללו נמצאות בעיצומו של שינוי תפיסתי - במקום לראות את גידול כוח האדם כסימן לבריאות ארגונית, הן מתחילות לראות בו נטל. כל עובד שמוחלף ב-AI הוא עובד שאין צורך לשלם לו משכורת, ושאינו יוצר עלויות של ביטוח בריאות, חופשות או הפרשות סוציאליות. במקביל, הכסף שנחסך זורם לחומרה ולמודלים, שבתורם מאפשרים לפטר עובדים נוספים.

 

הדפוס הרחב יותר בתעשייה (מקור נתונים: trueup.io)

הדפוס הרחב יותר בתעשייה (מקור נתונים: trueup.io)

 

צוקרברג עצמו אינו מסתיר את ההיגיון. כבר בכנס LlamaCon שהתקיים ב-2025 הוא הצהיר שבתוך שנה הבינה המלאכותית תכתוב 50 אחוזים מהקוד של מטא - הצהרה שהפכה בדיעבד לקו המנחה של כל סבבי הפיטורים שהגיעו אחריה. הפיטורים של מאי, במובן הזה, אינם הפתעה אלא מימוש מאוחר של הצהרה פומבית שכבר נאמרה בעבר.

 

 

צוקרברג ב-LlamaCon 2025 מצהיר שתוך שנה הבינה המלאכותית תכתוב 50 אחוזים מהקוד של מטא. ההצהרה הזו הפכה בדיעבד לקו המנחה של כל סבבי הפיטורים שהגיעו אחריה.

 

 

המסר של מטא לשוק ברור: אנחנו נעשים רזים יותר, יעילים יותר וממוקדים יותר. המסר לעובדים בתוך החברה חד משמעי באותה מידה: אם התפקיד שלכם יכול להתבצע על ידי מערכת בינה מלאכותית, הוא כנראה ייעלם. אם הוא אינו ניתן לביצוע על ידי AI, אך ניתן להעבירו לשוק זול יותר, גם זה יקרה.

 

מה המשמעות

עבור עובדי מטא, התקופה הקרובה צפויה להיות רצופה באי ודאות. מי שעובד במכירות, בגיוס או בתפקידי תמיכה נמצא כרגע בעין הסערה. אולם גם עובדים בחטיבות הליבה אינם יכולים להרגיש רגועים, שכן הסבבים הבאים צפויים להיות רוחביים ולא ממוקדים בחטיבה אחת.

 

עבור תעשיית הטכנולוגיה כולה, מטא משמשת כמעין מד-חום. כאשר חברה המחזיקה בכמעט 79,000 עובדים ומשקיעה למעלה ממאה מיליארד דולר ב-AI מחליטה בו-זמנית לצמצם את כוח האדם שלה בהיקף דו-ספרתי באחוזים, זהו סימן ברור לכיוון שאליו צועדת התעשייה. מי שיעקוב אחר שוק העבודה הטכנולוגי בשנים הקרובות יצטרך להפנים שגידול בהוצאות ההון של חברה יכול להופיע באותה שורה עם הצטמקות של כוח האדם שלה. אין כאן פרדוקס, יש כאן אסטרטגיה.

 

השאלה הגדולה היא עד לאן זה יגיע. אם מטא מציגה כרגע את הדגם - חברה המחליפה עובדים ב-AI וחוסכת כדי להשקיע עוד ב-AI - שאר ענקיות הטכנולוגיה יצטרכו להחליט אם הן הולכות בעקבותיה או נשארות מאחור. התשובה לשאלה הזו תעצב את שוק העבודה הטכנולוגי של 2027 ואילך, הרבה מעבר לסבבים של מאי.

הפוסט מטא מתכווצת כדי לצמוח – אלפי עובדים בחוץ, מאות מיליארדים ל-AI בפנים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/meta-layoffs-ai-strategy/feed/ 0
שני פרויקטי דגל נסגרו ב-OpenAI, ועכשיו גם האנשים שהובילו אותם עוזבים https://letsai.co.il/weil-and-peebles-openai/ https://letsai.co.il/weil-and-peebles-openai/#respond Sun, 19 Apr 2026 09:57:17 +0000 https://letsai.co.il/?p=73027 שניים מהאנשים שהובילו את פרויקטי הדגל השאפתניים של OpenAI הודיעו ביום שישי על עזיבתם. אלה לא רק חילופי כיסאות, אלא הצהרת כוונות של חברה שמסיטה את מרכז הכובד שלה מחלומות גדולים אל מוצרים ארגוניים יציבים.         ביום שישי, שני בכירים ב-OpenAI הודיעו בהפרש של שעות על עזיבתם. קווין וייל (Kevin Weil), שעמד […]

הפוסט שני פרויקטי דגל נסגרו ב-OpenAI, ועכשיו גם האנשים שהובילו אותם עוזבים הופיע ראשון בLet's AI בינה מלאכותית

]]>
שניים מהאנשים שהובילו את פרויקטי הדגל השאפתניים של OpenAI הודיעו ביום שישי על עזיבתם. אלה לא רק חילופי כיסאות, אלא הצהרת כוונות של חברה שמסיטה את מרכז הכובד שלה מחלומות גדולים אל מוצרים ארגוניים יציבים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

 

ביום שישי, שני בכירים ב-OpenAI הודיעו בהפרש של שעות על עזיבתם. קווין וייל (Kevin Weil), שעמד בראש יוזמת המחקר המדעי של החברה, וביל פיבלס (Bill Peebles), החוקר שעמד מאחורי כלי יצירת הווידאו סורה (Sora), פרסמו שניהם הודעות פרידה ברשתות החברתיות. ההודעות לא נפלו מהשמיים. הן הגיעו כחודש אחרי ש-OpenAI הכריזה על סגירת סורה, ובתוך גל רחב של צמצומים שהחברה מכנה בשמה הפנימי "משימות צד".

 

המסר שעולה מהשינויים הללו חורג בהרבה מחילופי תפקידים. OpenAI מתכנסת מסביב ליישום ארגוני ול"סופר-אפליקציה" שהיא מתכננת להשיק, ומוותרת בדרך על כמה מהפרויקטים שהפכו אותה למותג בתרבות הפופולרית.

 

מי הם וייל ופיבלס, ולמה העזיבה שלהם חשובה

וייל הגיע ל-OpenAI לפני כשנתיים בתפקיד סמנכ"ל המוצר (Chief Product Officer), אחרי שניהל פיתוח מוצר באינסטגרם (Instagram) ובטוויטר. אחרי שפרש מתפקיד סמנכ"ל המוצר, הוא עבר להוביל את יוזמת OpenAI for Science - קבוצת מחקר פנימית שמטרתה לרתום בינה מלאכותית להאצת תגליות מדעיות. הקבוצה עמדה מאחורי פריזם (Prism), פלטפורמת עבודה לחוקרים.

 

kevin weil leaving

קווין וויל מודיע על עזיבה בלינקדאין

 

 

פיבלס, לעומתו, היה הפנים הטכניות של אחד הפרויקטים הנועזים ביותר של OpenAI. הוא הוביל את הפיתוח של סורה, כלי שיצר סרטוני וידאו מטקסט באיכות גבוהה וטלטל את תעשיית הווידאו הסינתטי.

 

העזיבה המשותפת שלהם, באותו היום ממש, מסמנת משהו מעבר להחלטה אישית של כל אחד מהם. שני פרויקטים שאותם הם הובילו הושבתו או פורקו בחודשים האחרונים. וייל עצמו כתב בהודעת הפרידה שלו שקבוצת המדע תיטמע "בצוותי מחקר אחרים" - ניסוח ארגוני שמסתיר פירוק של יחידה עצמאית. פיבלס, מצדו, יצא עם משפט שנשמע כמעט כמו ביקורת: "טיפוח אנטרופיה הוא הדרך היחידה למעבדת מחקר לשגשג לטווח הארוך".

 

סורה היתה הצלחה תרבותית, אבל גם כישלון כלכלי

סורה יצאה לציבור אחרי שנים של ציפייה. בשלב מסוים היא טיפסה לראש מצעד האפליקציות בחנות של אפל, קיבלה כיסוי תקשורתי נרחב, והפכה לחלק משיחת הרשת. מאחורי הקלעים, המספרים סיפרו סיפור אחר.

 

הפעלת סורה עלתה ל-OpenAI כמיליון דולר ביום בעלויות חישוב, לפי הערכות שצוטטו בדיווחים. בסיס המשתמשים, שצמח לכמיליון משתמשים בשיאו, התכווץ לפחות מ-500 אלף. איגוד תעשיית הסרטים של ארצות הברית (Motion Picture Association) דיווח על הפרות של קניין רוחני בפלטפורמה. בסופו של דבר, בחודש שעבר, החברה הכריזה על סגירת הכלי. האפליקציה תיסגר ב-26 באפריל 2026, וה-API ייסגר ב-24 בספטמבר.

 

פיבלס, שהזכיר בהודעת הפרידה שלו שהפרויקט התחיל ככוח של שני אנשים בלבד ביולי 2023, כאשר הייתה ספקנות רחבה אם בכלל אפשר להגיע לייצור וידאו איכותי באורך משמעותי תוך שנה, הצביע על כך שסורה היוותה זרז להשקעה נרחבת ברחבי התעשייה בתחום הווידאו. גם אם OpenAI לא הצליחה לגרום לכלכלה של המוצר לעבוד, הטכנולוגיה עצמה פתחה שוק שלם.

 

ציוץ העזיבה של פיבלס ברשת X

הודעת העזיבה של פיבלס, אחד ממובילי סורה, ברשת X

 

OpenAI for Science - הבטחה שלא מימשה את הציפיות

קבוצת המדע הייתה אמורה להיות אחד הסיפורים הגדולים של 2025. היא הוקמה באוקטובר של אותה שנה עם יומרה להאיץ תגליות מדעיות בעזרת מודלים מתקדמים. הדרך הייתה בעייתית מהרגע הראשון.

 

וייל פרסם ציוץ שטען ש-GPT-5 פתר 10 בעיות מתמטיות לא פתורות של ארדש (Erdős), שורה של חידות מתמטיות ידועות. הטענה התפוררה תוך שעות. המתמטיקאי שמנהל את האתר erdosproblems.com הבהיר שהטענה פשוט לא נכונה, וייל מחק את הציוץ, והפרשה הפכה לדוגמה נפוצה של הייפ שנחשף.

 

יום לפני ההכרזה על עזיבתו, הקבוצה של וייל שחררה את GPT-Rosalind, מודל שמיועד להאיץ מחקר במדעי החיים וגילוי תרופות. השילוב בין השקת המודל לעזיבה ביום למחרת הוא סיפור בפני עצמו. הטכנולוגיה נשארת, אבל הקבוצה שבנתה אותה מפוזרת.

 

חלק מגל עזיבות ושינוי אסטרטגי

וייל ופיבלס לא עזבו לבד. באותו היום הודיע גם סריניוואס נאראיאנן (Srinivas Narayanan), סמנכ"ל הטכנולוגיה של אפליקציות ארגוניות ב-OpenAI, על עזיבתו. הוא הצטרף ל-OpenAI לפני כשלוש שנים והוביל חלק ניכר מההנדסה שבנתה את ChatGPT ואת ה-API. לפי הדיווחים הוא עוזב כדי לבלות יותר זמן עם משפחתו.

 

שלוש עזיבות של בכירים ביום אחד הן מספר חריג, אבל הן חלק מתמונה רחבה הרבה יותר. בשבועות האחרונים, פיג'י סימו (Fidji Simo), מנכ"לית האפליקציות, יצאה לחופשה רפואית. בראד לייטקאפ (Brad Lightcap), סמנכ"ל התפעול, עבר לתפקיד של "פרויקטים מיוחדים". שכבת ההנהגה המסחרית של החברה נשחקה בקצב מהיר.

 

העזיבות האלה נמשכות על פני שנים. מתוך 11 המייסדים המקוריים של OpenAI, רק שניים עדיין בחברה. אחרים עברו לאנתרופיק (Anthropic), למעבדות הסופר-אינטליגנציה של מטא (Meta), או הקימו סטארטאפים בעצמם. הסיבות שצוטטו מגוונות. חלק עזבו בגלל חילוקי דעות אתיים על חוזה עם משרד ההגנה, אחרים תיארו שינוי תרבותי - מהימורי מחקר שאפתניים לעבודה תפעולית של שיפור מהירות ויציבות של ChatGPT ללקוחות ארגוניים.

 

המשמעות האמיתית של "משימות צד"

הביטוי "side quests" הפך למילת מפתח בתרבות הפנימית של OpenAI. הוא מתאר כל מה שלא מקדם ישירות את שני המוצרים המרכזיים שהחברה הימרה עליהם: המוצר הארגוני והסופר-אפליקציה המתוכננת. סורה הייתה משימת צד. OpenAI for Science הייתה משימת צד. שתיהן עלו הרבה כסף, ייצרו כותרות, ולא הציגו נתיב ברור לרווחיות.

 

הכלכלה של החלומות

OpenAI מייצרת הכנסות שנתיות בהיקף משמעותי, אבל היא גם מדווחת על הפסדים מתמשכים. בסביבה שבה כל דולר של חישוב נספר, ההחלטה לוותר על פרויקטים שעולים מיליון דולר ביום ולא מחזירים את ההשקעה היא חלק מחזרה לפוקוס עסקי. זה לא סיפור של כישלון טכנולוגי. סורה עבדה ופריזם הייתה פלטפורמה עובדת. זה סיפור של תעדוף.

 

התחרות משנה את המשוואה

התחרות בשוק הבינה המלאכותית הארגונית התחזקה. קלוד (Claude) של אנתרופיק, ובעיקר קלוד קוד (Claude Code), צבר אחיזה משמעותית בקרב מפתחים. חברות אחרות מציעות כלים מתמחים שתפורים לצרכים ארגוניים. OpenAI, שבמשך שנים נהנתה מיתרון כמעט בלעדי, עומדת עכשיו בפני שאלה פשוטה: האם היא מעדיפה להיות מעבדת מחקר שמנסה הכול, או חברה עסקית ממוקדת שמנצחת במוצרים ספציפיים?

 

התשובה, לפי הצעדים של החודשים האחרונים, ברורה.

 

מה שנשאר מאחור

יש משהו משותף לשתי הודעות הפרידה של וייל ופיבלס. שניהם לא עזבו בטריקת דלת. וייל כתב על "שנתיים מרחיבות תודעה" וביטא אופטימיות לגבי פוטנציאל ה-AI להאיץ מדע. פיבלס הודה לסם אלטמן (Sam Altman) אישית על כך שהוא מבין את החשיבות של לתת לחוקרים מרחב.

 

בין השורות, שניהם גם אומרים משהו על סוג החברה ש-OpenAI הופכת להיות. המשפט של פיבלס על "טיפוח אנטרופיה" הוא לא סתם פסוק יפה. הוא טוען שמעבדת מחקר צריכה מרחב לכאוס, לפרויקטים ניסיוניים שלא משתלבים במפה העסקית. כשהחברה מוותרת על המרחב הזה, גם האנשים שזקוקים לו מוותרים עליה.

 

השאלה שנשארת פתוחה היא אם OpenAI, שהוקמה כמעבדת מחקר עם חזון רחב על AGI, יכולה להמשיך ליצור פריצות דרך כשהיא מנהלת את עצמה כחברה עסקית סטנדרטית. העובדים שעוזבים לא פורשים - הם זורמים למתחרים, או מקימים סטארטאפים שיתחרו בפעם הבאה. ייתכן שהקריאה הנכונה של הסיפור הזה היא לא "OpenAI מתייעלת", אלא "OpenAI בונה את המתחרים של עצמה".

 

הפוסט שני פרויקטי דגל נסגרו ב-OpenAI, ועכשיו גם האנשים שהובילו אותם עוזבים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/weil-and-peebles-openai/feed/ 0
דוח AI Index 2026 של סטנפורד חושף איך ובמה ישראל מובילה בעולם https://letsai.co.il/ai-index-2026/ https://letsai.co.il/ai-index-2026/#respond Sun, 19 Apr 2026 05:28:34 +0000 https://letsai.co.il/?p=73044 כל שנה, באפריל, אוניברסיטת סטנפורד מפרסמת דוח של 423 עמודים על המצב של הבינה המלאכותית. רוב האנשים לא קוראים אותו. אני כן, ומה שמצאתי בגרסה של 2026 ראוי לתשומת לב של כל מי שמנהל עסק בישראל. הדוח עוקב אחרי מאות מדדים: כמה חברות מאמצות AI, כמה כסף משקיעים בו, כמה חוקרים פעילים בתחום, ומה הציבור […]

הפוסט דוח AI Index 2026 של סטנפורד חושף איך ובמה ישראל מובילה בעולם הופיע ראשון בLet's AI בינה מלאכותית

]]>
כל שנה, באפריל, אוניברסיטת סטנפורד מפרסמת דוח של 423 עמודים על המצב של הבינה המלאכותית. רוב האנשים לא קוראים אותו. אני כן, ומה שמצאתי בגרסה של 2026 ראוי לתשומת לב של כל מי שמנהל עסק בישראל. הדוח עוקב אחרי מאות מדדים: כמה חברות מאמצות AI, כמה כסף משקיעים בו, כמה חוקרים פעילים בתחום, ומה הציבור חושב. אבל הסיפור האמיתי שעולה ממנו הוא פער. פער בין מה ש-AI כבר יודע לעשות לבין איך בני אדם מבינים את זה. פער בין מה שמומחים חוזים לבין מה שהציבור מצפה. פער בין מדינות שכבר בפנים לבין מדינות שמסתכלות מהצד. במקום אחד, ישראל מובילה את העולם. זה החלק שמעניין אותי יותר מכל.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם קורה?

בשלוש שנים, כלי בינה מלאכותית יצרנית הגיעו ל-53 אחוז אימוץ באוכלוסייה הכללית. יותר מהר מהמחשב האישי בזמנו, ויותר מהר מהאינטרנט. 88 אחוז מהארגונים שנסקרו בעולם משתמשים כיום ב-AI בפונקציה עסקית אחת לפחות, ו-79 אחוז משתמשים בבינה מלאכותית יצרנית ספציפית. ההשקעה הפרטית הגלובלית ב-AI יותר מהכפילה את עצמה ב-2025.

 

ועדיין, הדוח חושף עובדה מעניינת: פריסה של סוכני AI (Agents) שמבצעים משימות באופן עצמאי נשארת ברמות של ספרה אחת בכל פונקציה עסקית. המשמעות פשוטה. הארגונים משתמשים ב-AI יצרני כעוזר לאדם, אבל כמעט אף אחד עדיין לא נתן לו לנהל משימה לבד.

 

הרווחים בפרודוקטיביות שנמדדו אמיתיים אבל צרים: 14 עד 15 אחוז בתמיכת לקוחות, 26 אחוז בפיתוח תוכנה. בתחומים אחרים, התוצאות חלשות יותר. הטכנולוגיה לא מקדמת את כל חלקי העסק באותה מידה, וזו נקודה קריטית שלא מספיק אנשים מדברים עליה.

 

במקביל, הערך שצרכנים אמריקאים מפיקים מכלי AI יצרני עלה ב-54 אחוז בשנה: מ-112 מיליארד דולר ל-172 מיליארד דולר. רוב הכלים האלה עדיין חינמיים או זולים, ולמרות זאת המשתמשים מפיקים מהם ערך מדיד. זה פער מעניין: הארגונים משקיעים מיליארדים אבל מתקשים להראות תשואה, ובמקביל משתמשים פרטיים מפיקים ערך משמעותי כמעט בחינם.

למה זה כל כך משמעותי?

הדוח מלא בגילויים, אבל שלושה מהם בלטו לי במיוחד.

 

ראשון, תופעה שהחוקרים קוראים לה "החזית המשוננת". דגם Gemini Deep Think זכה במדליית זהב באולימפיאדה הבינלאומית למתמטיקה. באותה שנה, הדגם המוביל בעולם קורא שעון אנלוגי נכון רק ב-50.1 אחוז מהמקרים. רובוטים מצליחים ב-89.4 אחוז מהמשימות בסימולציות מעבדה, אבל רק ב-12 אחוז ממשימות משק בית אמיתיות. יש לנו טכנולוגיה שפותרת בעיות דוקטורט בפיזיקה אבל לא יודעת לקפל חולצה.

 

שני, פער של 50 נקודות אחוז בין מומחים לציבור בארצות הברית בנוגע להשפעה של AI על משרות. 73 אחוז מהמומחים חושבים שההשפעה תהיה חיובית. רק 23 אחוז מהציבור חושבים כך. פער כזה בהערכה של תופעה כל כך בסיסית הוא תופעה נדירה. גם בתחומים אחרים הפער רחב: בכלכלה, 69 אחוז מהמומחים חיוביים לעומת 21 אחוז מהציבור; ברפואה, 84 אחוז לעומת 44 אחוז.

 

מומחי AI אופטימיים בהרבה מהציבור לגבי השפעת הטכנולוגיה

 

שלישי, העובדים הצעירים נפגעים ראשונים. הדוח מראה שתעסוקת מפתחי תוכנה בגילאי 22 עד 25 בארצות הברית ירדה בכמעט 20 אחוז בשנה אחת. בקרב בני 22 עד 25 במקצועות שחשופים יותר ל-AI, התעסוקה ירדה בכ-16 אחוז יחסית למקצועות פחות חשופים. עובדים מבוגרים יותר באותם תפקידים לא ראו ירידה דומה. לא כולם נפגעים באותה מידה.

 

פערי ביצועים קיצוניים בין יכולות-על של AI לבין כישלונות בסיסיים

מקום אחד שבו ישראל מובילה

ועכשיו לחלק הישראלי, שראוי לתשומת לב מיוחדת.

 

על פי הדוח, ישראל היא המדינה עם ריכוז מומחי ה-AI הגבוה בעולם. 2.1 אחוז מחברי לינקדאין בישראל עובדים בתחום הבינה המלאכותית. אחריה מגיעות סינגפור (1.82 אחוז) ולוקסמבורג (1.60 אחוז). ישראל לא במקום השני או השלישי. היא במקום הראשון.

 

ישראל מובילה בעולם בריכוז מומחי AI פעילים

 

ההשקעה הפרטית ב-AI בישראל הגיעה ל-3.58 מיליארד דולר ב-2025, ומיקמה את המדינה במקום השמיני בעולם, אחרי ארצות הברית, סין, בריטניה, צרפת, קנדה, הודו וגרמניה. 64 חברות AI חדשות קיבלו מימון באותה שנה. ההשקעה המצטברת מאז 2013 עומדת על 18.54 מיליארד דולר, בין חמשת הסכומים הגבוהים בעולם.

 

יש עוד פרט שחשוב לציין: ישראל היא אחת מחמש המדינות שמפעילות מכון AI Safety ברמה מבצעית מלאה, לצד בריטניה, ארצות הברית, יפן וסינגפור. בדוח, המכון הישראלי מופיע כ"יחידת מחקר אבטחת AI". החוקרים קובעים שישראל, יחד עם בריטניה, מציבה את האבטחה כמוקד מדיניות מרכזי. זה מתחבר לעמדה של ישראל כמרכז סייבר גלובלי.

 

שווה לציין גם מה הדוח לא אומר: אין בו נתונים ספציפיים על אימוץ AI בארגונים ישראליים, ואין דוגמאות פרטניות של חברות ישראליות. הפריזמה של הדוח היא גלובלית, וישראל מופיעה בה דרך מספרים של כישרון, השקעה ומדיניות, לא דרך סיפורי הצלחה של חברות מסוימות. הפער בין "הרבה מומחים" לבין "הרבה הטמעות מוכחות" הוא פער שאפשר לסגור, ומי שיסגור אותו קודם ייהנה מיתרון של חלון הזדמנויות.

 

ישראל במקום הראשון

מה עושים עם זה?

אם אתם בעלי עסק או מקבלי החלטות בישראל, המספרים האלה מציעים שלוש מחשבות.

 

ראשונה, הכישרון קיים אבל הוא לא זול. כאשר 2.1 אחוז מהעובדים במדינה שלנו כבר עובדים ב-AI, גיוס הופך תחרותי מאוד. חברות בינלאומיות פותחות משרדים בישראל בדיוק בגלל המספר הזה, וזה מעלה את עלויות השכר לכולם. אם אתם רוצים לבנות יכולת AI פנימית, זה יעלה יותר ממה שתיארתם לעצמכם, ויקח יותר זמן. חלופה מעשית: ליישם כלי AI מוכנים במקום לפתח דגמים מאפס, ולהשתמש במומחים חיצוניים לחלקים המורכבים.

 

שנייה, אימוץ הוא לא אותו דבר כמו ערך. 88 אחוז מהארגונים משתמשים ב-AI, אבל רק בתחומים מסוימים נמדדו רווחים אמיתיים בפרודוקטיביות. לפני שמטמיעים, חשוב לזהות איפה הכלי באמת עוזר. הדוח מצביע על תמיכת לקוחות, פיתוח תוכנה ושיווק ככיסי הערך הברורים ביותר. אחרים, כמו אסטרטגיה תאגידית, כספים ונושאי ציות, עדיין לא בשלים. כדאי להתחיל במקום שבו קל למדוד את התוצאה, ולא להיכנס לכל הארגון בבת אחת.

 

שלישית, הצנרת של העובדים הצעירים נמצאת בסיכון. אם אתם מנהלים צוות הנדסה או תמיכה, חשבו מה קורה לכניסת עובדים חדשים לתעשייה. הנתונים מראים שחברות מפחיתות גיוס של ג'וניורים, אבל זה יוצר בעיה ארוכת טווח: בלי ג'וניורים היום, לא יהיו סניורים בעוד חמש שנים. זו החלטה שמשלמים עליה מאוחר.

מה הלאה?

הדוח מסתיים בתחושה של אי ודאות. מצד אחד, היכולות הטכניות ממשיכות לצמוח במהירות. הפער בין הדגם המוביל בארצות הברית לדגם המוביל בסין הצטמצם כמעט לחלוטין בשנה האחרונה. מצד שני, המערכות האנושיות כמו חינוך, תעסוקה, רגולציה ואמון הציבור, לא מדביקות את הקצב. בארצות הברית, רק 31 אחוז מהאזרחים בוטחים בממשלה שלהם להסדיר את ה-AI באופן אחראי. זה הנתון הנמוך ביותר מכל המדינות שנסקרו.

 

הפער הזה, בין מה שאפשר לעשות לבין איך בני אדם מבינים את זה, ילך ויגדל לפני שיצטמצם. לישראל יש פוזיציה ייחודית במפה הזו. אנחנו מובילים בכישרון אבל לא בהשקעה, מובילים באבטחה אבל לא בתשתיות חישוב. זו הזדמנות להתמקד בדיוק במה שאנחנו טובים בו, לא לנסות להתחרות על כל חזית.

 

הדוח של סטנפורד לא נותן תשובה אחת. הוא שואל את השאלה הנכונה: האם הטכנולוגיה רצה מהר יותר מאיתנו, או שאנחנו פשוט עוד לא יודעים איפה להסתכל?

הפוסט דוח AI Index 2026 של סטנפורד חושף איך ובמה ישראל מובילה בעולם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-index-2026/feed/ 0
אנטרופיק נכנסת לזירת העיצוב עם Claude Design – כלי שמדבר את שפת המותג שלכם https://letsai.co.il/claude-design-launch/ https://letsai.co.il/claude-design-launch/#respond Sat, 18 Apr 2026 18:16:34 +0000 https://letsai.co.il/?p=73003 אנטרופיק (Anthropic) משיקה את Claude Design, כלי עיצוב חדש שמאפשר לייצר אבטיפוסים, מצגות, דפי נחיתה וחומרים שיווקיים בשיחה עם קלוד (Claude). מעבר לעוד מחולל ממשקים, מדובר במוצר שמנסה לפתור בעיה אמיתית של צוותי מוצר - הפער בין רעיון לבין משהו שאפשר להראות.         הכניסה של אנטרופיק לתחום כלי העיצוב מגיעה בתזמון מעניין. […]

הפוסט אנטרופיק נכנסת לזירת העיצוב עם Claude Design – כלי שמדבר את שפת המותג שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק (Anthropic) משיקה את Claude Design, כלי עיצוב חדש שמאפשר לייצר אבטיפוסים, מצגות, דפי נחיתה וחומרים שיווקיים בשיחה עם קלוד (Claude). מעבר לעוד מחולל ממשקים, מדובר במוצר שמנסה לפתור בעיה אמיתית של צוותי מוצר - הפער בין רעיון לבין משהו שאפשר להראות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

 

הכניסה של אנטרופיק לתחום כלי העיצוב מגיעה בתזמון מעניין. השוק כבר מוצף בכלים שמייצרים ממשקים מטקסט, ורוב המעצבים למדו לחיות לצידם בזהירות מסוימת. החברה בחרה לעטוף את Claude Design תחת מטרייה חדשה בשם Anthropic Labs - מותג שמקבץ מוצרים חדשניים יותר מהליבה - ולהשיק אותו ב-Research Preview למנויי Pro, Max, Team ו-Enterprise.

 

המודל שמניע את הכלי הוא קלוד אופוס 4.7 (Claude Opus 4.7), הגרסה החדשה ביותר של אנטרופיק הזמינה לציבור, והוא מוגדר רשמית כמודל הכי טוב שלהם עד כה (שזמין לציבור). כמו כן, הוא מצטיין גם ב"ראייה" ולא רק בכתיבה, וזה לא פרט שולי: כלי שצריך להבין מה זה טיפוגרפיה, מה זה רווח נכון, ואיך בנויה תבנית צבעים קונסיסטנטית תלוי קודם כל ביכולת לנתח חומר חזותי ברמה גבוהה.

 

 

 

הבעיה שהכלי מנסה לפתור

אנטרופיק מתארת שתי קבוצות יעד ברורות. הקבוצה הראשונה היא מעצבים מנוסים שמוגבלים מבחינת זמן - גם אם יש להם רעיונות לעשרה כיוונים שונים, הם בפועל בודקים שניים או שלושה. הקבוצה השנייה היא כל מי שלא מגיע מרקע עיצובי - מייסדים, מנהלי מוצר, אנשי שיווק - שרוצים להעביר רעיון חזותי בלי להתמודד עם כלים מקצועיים.

 

ההנחה של אנטרופיק היא שהפער בין שתי הקבוצות לא יתמלא על ידי כלי עיצוב רגיל, אלא על ידי שיחה. אתם מתארים מה אתם רוצים, קלוד בונה גרסה ראשונה, ומשם אתם מעדנים - דרך דיאלוג, הערות על אלמנטים ספציפיים, עריכות ישירות או ידיות בקרה שקלוד בונה לכם באופן מותאם.

 

הפונקציות המרכזיות

מערכת עיצוב אישית לצוות

החלק המעניין ביותר הוא הטענה שקלוד לומד את מערכת העיצוב של הארגון. במהלך האונבורדינג, המערכת קוראת את קוד המקור של החברה ואת קבצי העיצוב שלה, ובונה מהם מערכת עיצוב פנימית - צבעים, טיפוגרפיה, רכיבים. כל פרויקט חדש משתמש במערכת הזו אוטומטית, ולצוותים יש אפשרות לתחזק יותר ממערכת אחת במקביל.

 

אם הטענה מחזיקה בפועל, זה ההבדל המשמעותי מול מחוללי ממשקים קיימים. רוב הכלים מייצרים פלט שנראה טוב אבל לא נראה כמו שלכם. כאן ההבטחה היא שהתוצר יוצא קונסיסטנטי מול שאר הנכסים של החברה בלי שמישהו יצטרך להסביר בכל פעם את קוד הצבעים.

 

ייבוא ממקורות מרובים

אפשר להתחיל פרויקט מטקסט בלבד, להעלות תמונות ומסמכים (DOCX, PPTX, XLSX), או להפנות את קלוד ישירות לקוד המקור. בנוסף יש כלי Web Capture שמאפשר לתפוס רכיבים ישירות מאתר קיים - פיצ'ר שנועד לוודא שאבטיפוסים נראים כמו המוצר האמיתי ולא כמו הדמיה שלו.

 

טעינה ממקורות מרובים קלוד דיזיין

בחרו מה המקור ממנו תתחילו את הפרויקט

 

בקרות עידון מדויקות

במקום לבקש שינויים ב"שפה של AI" ולקוות שהמערכת תבין, קלוד מציע שלוש שכבות בקרה: הערות על אלמנטים ספציפיים (בדומה לפיגמה), עריכת טקסט ישירה, וסליידרים חכמים למרווחים, צבעים ופריסה. אחרי שעשיתם שינוי באזור אחד, אפשר לבקש מקלוד להחיל אותו על כל העיצוב.

 

שיתוף פעולה ברמת ארגון

העיצובים ניתנים לשיתוף בהיקף ארגוני. אפשר להשאיר מסמך פרטי, לחלוק אותו לצפייה עם כל מי שברשת הארגונית, או לפתוח הרשאות עריכה מלאות - כולל שיחה משותפת עם קלוד יחד עם עמיתים בקבוצה אחת. זו גישה דומה למודל השיתוף של Google Docs, אבל מיועדת למשימות עיצוב.

 

ייצוא לפורמטים חיצוניים

הפלט יוצא כקישור פנימי לארגון, כתיקייה שמורה, או כקבצי Canva, PDF, PPTX ו-HTML Standalone. השילוב עם קנבה (Canva) נעשה בשיתוף פעולה ישיר בין החברות, כך שהטיוטות עוברות לעורכת של קנבה כעיצובים ערוכים מלאים שאפשר לשכלל ולפרסם.

 

העברה ל-Claude Code

כשעיצוב מוכן לפיתוח, הוא נארז ל-Handoff Bundle - חבילה שמועברת ל-Claude Code בהוראה אחת. הפיצ'ר הזה מכוון בדיוק לכאב המוכר של צוותי מוצר, הפער בין מה שמעצב תכנן לבין מה שמפתח מימש. לפי עדות של מעצבת ב-Brilliant, דפים מורכבים שדרשו יותר מ-20 פרומפטים בכלים אחרים הסתפקו בשני פרומפטים ב-Claude Design.

 

מהפרומפט הראשוני שלכם אל תשאול וחידוד של קלוד דיזיין

מהפרומפט הראשוני שלכם ממשיכים לתשאול וחידוד של קלוד design

 

מה עולה מעדויות הלקוחות הראשונים

אנטרופיק פרסמה עדויות משלוש חברות שקיבלו גישה מוקדמת: קנבה, Brilliant ו-Datadog. מעבר לטון החיובי הצפוי בכל השקה של מוצר, יש בהן גם כמה אמירות קונקרטיות שאפשר לבחון.

ב-Datadog מתארים תהליך שמכונה Live Design - עיצוב בזמן אמת במהלך פגישות. מנהל מוצר בחברה טוען שמה שלקח שבוע של הלוך ושוב בין בריפים, מוקאפים וסבבי ביקורת מתבצע עכשיו בשיחה אחת. כאן הטענה היא שינוי בדינמיקה של הצוות ולא רק במהירות הביצוע.

 

ב-Brilliant מתמקדים בשני היבטים קונקרטיים: יצירת אבטיפוסים אינטראקטיביים מעיצובים סטטיים, והעברה חלקה ל-Claude Code. שני אלה הם בדיוק הכאבים הכואבים ביותר בצוותי פרודקט, ולכן גם נקודות שיש בהן הרבה מה לאכזב אם הכלי לא עומד בהבטחה.

 

 

 

וול סטריט הגיבה לפני שהמעצבים הספיקו לנסות

ההודעה על Claude Design לא הפילה את פיגמה (Figma) במכה אחת - אלא בשתיים.

ב-14 באפריל, כשפורסמו הדיווחים הראשונים על הכלי הקרב, המניה כבר ירדה 6%, וחברות סמוכות בתחום ספגו ירידות במקביל: Adobe איבדה 2.7%, Wix ירדה 4.7% ו-GoDaddy השילה 3%. באותו יום בדיוק, מייק קריגר (Mike Krieger), סמנכ"ל המוצר של אנטרופיק ובעברו ממייסדי Instagram, פרש מדירקטוריון פיגמה בשקט. השוק הבין את המסר מיד.

 

שלושה ימים אחר כך, כשהכלי עצמו יצא לאוויר, פיגמה נפלה עוד 7% וסגרה על 18.84 דולר לעומת 20.32 בסגירה הקודמת. פיגמה, שהנפיקה בבורסה בקיץ 2025 באחת ההנפקות הגדולות של השנה, כבר נסחרה לפני ההשקה ביותר מ-80% מתחת לשיא שרשמה אחרי ההנפקה. עבורה, Claude Design הוא לא רק עוד מתחרה, אלא אישור לתיאוריה שהמשקיעים כבר מתמחרים חודשים - שמעבדות ה-AI הגדולות לא ייעצרו בשכבת המודלים, אלא ייכנסו לנעליים של חברות התוכנה עצמן.

 

המניה של פיגמה מגיבה

המניה של פיגמה מגיבה בצניחה

 

נקודות שכדאי לתת עליהן את הדעת

Claude Design משווק כ-Research Preview, כלומר אנטרופיק עדיין מכנה אותו מוצר במחקר ולא מוצר בשל. זה אומר שהזמינות מוגבלת, שהפיצ'רים עוד נבנים, ושכדאי להגיע עם ציפיות מותאמות. בפרט, לארגוני Enterprise הכלי כבוי כברירת מחדל ודורש הפעלה יזומה של מנהל מערכת.

 

נקודה נוספת שדורשת תשומת לב היא שאלת מערכת העיצוב. הטענה שקלוד קורא את קוד המקור שלכם ובונה מערכת עיצוב עובדת מצוין למי שיש לו codebase מסודר. לארגונים שהעיצוב שלהם פחות מתועד, או שעובדים בעיקר דרך קבצי Figma או Sketch ישנים, כדאי לבחון בזהירות כמה המערכת באמת מצליחה לחלץ מהחומר הקיים.

 

השאלה המעניינת באמת היא לא האם Claude Design עושה דברים יפים, אלא האם הוא משנה את המקום של המעצב בתהליך. אנטרופיק נזהרת שלא להגדיר את הכלי כתחליף - היא מדברת על נתינת חופש למעצבים לחקור רחב יותר ועל מתן דרך לכל השאר לייצר עבודה חזותית. בפועל, השאלה הזו תוכרע לא בהודעות השקה אלא אצל הצוותים עצמם בחודשים הקרובים, כשהאבק יירגע ויתברר איפה הכלי באמת נכנס לזרימת העבודה היומיומית - ואיפה הוא רק מוסיף עוד מסך בשיחה.

הפוסט אנטרופיק נכנסת לזירת העיצוב עם Claude Design – כלי שמדבר את שפת המותג שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-design-launch/feed/ 0
Claude Opus 4.7 עם עדכון משמעותי ליכולות קוד, ראייה וזיכרון https://letsai.co.il/claude-opus-4-7/ https://letsai.co.il/claude-opus-4-7/#respond Sat, 18 Apr 2026 10:11:53 +0000 https://letsai.co.il/?p=73012 Opus 4.7 הוא העדכון החדש למודל הדגל של Anthropic. הוא לא משנה את כללי המשחק, אבל כן מוסיף יכולות שמרגישות כמו התקדמות אמיתית: עבודה רציפה לאורך זמן, הבנה טובה יותר של תמונות, זיכרון שמחזיק לאורך סשנים ארוכים וכלים שמאפשרים למודל לא רק לכתוב קוד אלא גם לבדוק את עצמו. העדכון מתאים למשתמשים שרוצים מודל יציב […]

הפוסט Claude Opus 4.7 עם עדכון משמעותי ליכולות קוד, ראייה וזיכרון הופיע ראשון בLet's AI בינה מלאכותית

]]>
Opus 4.7 הוא העדכון החדש למודל הדגל של Anthropic. הוא לא משנה את כללי המשחק, אבל כן מוסיף יכולות שמרגישות כמו התקדמות אמיתית: עבודה רציפה לאורך זמן, הבנה טובה יותר של תמונות, זיכרון שמחזיק לאורך סשנים ארוכים וכלים שמאפשרים למודל לא רק לכתוב קוד אלא גם לבדוק את עצמו. העדכון מתאים למשתמשים שרוצים מודל יציב ומדויק יותר בלי להעמיק בהגדרות טכניות, ובמקביל נותן למפתחים את השליטה הדרושה כדי לשלב אותו במערכות קיימות.

 

אנטרופיק משיקה את קלוד אופוס 4.7

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

האתגרים של הדור הקודם

מודלים קודמים, ובמיוחד מודל הדגל האחרון (opus 4.6) ידעו לכתוב קוד טוב, אבל כשהעבודה נמשכה לאורך זמן הם נטו לאבד יציבות. משימות ארוכות כמו ניתוח קוד מורכב או פתרון בעיות רב שלביות הסתיימו לפעמים בתוצאה חלקית או שגויה.

 

גם יכולות הראייה היו מוגבלות: צילומי מסך צפופים, דיאגרמות טכניות או מסמכים סרוקים דרשו מהמשתמש לפשט את התמונה או להסביר אותה במילים.

 

בנוסף, אפילו פרומפטים מכוילים היטב (כאלה שנוסחו בקפידה) לא תמיד התנהגו באופן עקבי, משום שהמודלים פירשו הוראות בצורה חופשית מדי.

 

 

השוואה רוחבית של Opus 4.7 מול גרסאות קודמות ומודלים מתחרים

השוואה רוחבית של Opus 4.7 מול גרסאות קודמות ומודלים מתחרים | Anthropic

מה חדש ב- Opus 4.7

אוטונומיה ארוכה ויכולת בדיקה עצמית

Opus 4.7 יודע לתכנן משימות ארוכות ולשמור על קו מחשבה יציב לאורך זמן. הוא גם בודק את עצמו לפני שהוא מחזיר תשובה. יכולת הבדיקה העצמית פירושה שהמודל עובר על הלוגיקה שלו, מחפש טעויות ומתקן אותן. זה לא מחליף בקרה אנושית, אבל כן מפחית טעויות מפתיעות ומעלה את רמת האמינות.

 

Opus 4.7 שומר על יתרון ככל שרמת המאמץ והטוקנים עולה

Opus 4.7 שומר על יתרון ככל שרמת המאמץ והטוקנים עולה | Anthropic

ראייה ברזולוציה גבוהה

המודל יכול לעבד תמונות ברזולוציה של עד 3.75 מגה פיקסל. בפועל זה אומר שהוא רואה הרבה יותר פרטים. היכולת הזו מאפשרת לו להבין צילומי מסך צפופים, דיאגרמות טכניות, עיצובים מורכבים, מסמכים סרוקים ואפילו מבנים כימיים. חברת XBOW דיווחה על שיפור משמעותי בדיוק הוויזואלי, מ-54.5 אחוז ל-98.5 אחוז.

 

שיפור ביכולות ניווט ויזואלי, במיוחד ברזולוציה גבוהה ובשימוש בכלים

שיפור ביכולות ניווט ויזואלי, במיוחד ברזולוציה גבוהה ובשימוש בכלים | Anthropic

זיכרון מבוסס קבצים

Opus 4.7 משתמש טוב יותר בזיכרון מבוסס קבצים. הוא זוכר הערות ומידע לאורך זמן, גם בין סשנים שונים, ולכן המשתמש לא צריך לחזור על כל פרט בכל פנייה מחדש.

 

שיפור ביכולות חשיבה לאורך הקשר ארוך במשימות גרף מורכבות

שיפור ביכולות חשיבה לאורך הקשר ארוך במשימות גרף מורכבות | Anthropic

עמידה מדויקת בהוראות

המודל מפרש הוראות בצורה מדויקת יותר. זה משפר עקביות ואמינות, אבל דורש לעיתים התאמה מחדש של פרומפטים קיימים, במיוחד כאלה שנוסחו בצורה עדינה או תלויה בהתנהגות קודמת של המודל.

כלים חדשים ב‑Claude Code

Opus 4.7 מוסיף ל‑Claude Code סט כלים שמטרתו להפוך עבודה עם קוד למשימה ברורה ויעילה יותר. הכלים האלה מאפשרים למודל לקבל החלטות בעצמו, לסכם התקדמות, להציג רק את מה שחשוב ולבצע ביקורת קוד מעמיקה. גם משתמשים שאינם טכניים יכולים להבין אותם, ובמקביל מי שמכיר פקודות סלאש ימצא אותן משולבות בצורה טבעית.

Auto Mode

מצב שבו המודל מחליט לבד אילו פעולות בטוחות להריץ ואילו דורשות אישור. זה חוסך זמן ומפחית את הצורך לאשר כל פעולה ידנית.

פחות אישורים מיותרים

הפקודה less-permission-prompts/ סורקת את היסטוריית העבודה ומוסיפה לרשימת המותר את הפעולות שכבר אישרתם בעבר. התוצאה היא פחות הפרעות וזרימה חלקה יותר.

תצוגה ממוקדת

הפקודה focus/ מציגה רק את התוצר הסופי ומסתירה את שלבי הביניים - שימושי כשצריך לראות את התוצאה בלי הרעש שמסביב.

ביקורת קוד מעמיקה

הפקודה ultrareview/ מפעילה סשן ביקורת קוד שמדמה מבקר אנושי קפדן. היא מסמנת בעיות לוגיות, חוסר עקביות ונקודות לשיפור.

 Opus 4.7 במספרים

Opus 4.7 מציג שיפור עקבי ברוב הבנצ'מרקים, במיוחד במשימות קוד מורכבות. בנצ'מרקים הם מבחנים סטנדרטיים שמודדים יכולות של מודלים בתחומים שונים, כמו פתרון בעיות תכנות, הבנת סביבות עבודה או ניתוח מידע. לצד ההתקדמות, יש גם תחומים שבהם הביצועים פחות טובים, ולכן חשוב להבין את התמונה המלאה לפני מיגרציה (מעבר מגרסה אחת של המודל לגרסה חדשה).

 

Opus 4.7 משפר ביצועים בבנצ'מרקי קוד מורכבים לעומת 4.6

Opus 4.7 משפר ביצועים בבנצ'מרקי קוד מורכבים לעומת 4.6 | Anthropic

שיפורים בולטים

Opus 4.7 מציג קפיצה ברורה ביכולות הקוד, הניתוח וההבנה הלוגית. בבנצ'מרק SWE bench Pro הוא מטפס מ-53.4 אחוז ב-4.6 ל-64.3 אחוז, שיפור שממחיש את היכולת שלו להתמודד עם תיקוני באגים מורכבים. בגרסת SWE bench Verified הוא מגיע ל-87.6 אחוז, נתון שממקם אותו כאחד המודלים המדויקים ביותר במשימות קוד מאומתות.

 

גם ב-CursorBench הוא שומר על יציבות גבוהה עם 70 אחוז, וב-MCP Atlas הוא עולה ל-77.3 אחוז, מה שמראה שיפור ביכולות שימוש בכלים בקנה מידה רחב.

 

ב-OSWorld Verified הוא מגיע ל-78 אחוז, עדות ליכולת טובה יותר לבצע פעולות מורכבות בסביבות מחשב אמיתיות. ובקצה העליון של היכולות האקדמיות, GPQA Diamond מציב את Opus 4.7 על 94.2 אחוז - רמת דיוק שממחישה את העומק הלוגי והיכולת להתמודד עם שאלות ברמת תואר שני ומעלה.

 

Opus 4.7 מציג קפיצה ביכולות ניתוח וידע כלליות

Opus 4.7 מציג קפיצה ביכולות ניתוח וידע כלליות | Anthropic

 

בנוסף, חברת Rakuten דיווחה כי בבנצ'מרק הפנימי שלהם המודל פתר פי שלושה משימות פרודקשן לעומת גרסאות קודמות.

מגבלות

לצד השיפור הרחב ביכולות, יש גם תחומים שבהם Opus 4.7 מציג נסיגה או פער מול מודלים אחרים. בבנצ'מרק BrowseComp, שמודד את היכולת של סוכנים לבצע חיפוש וניתוח מידע ברשת, המודל יורד בכארבע נקודות לעומת Opus 4.6 - שינוי שמורגש במיוחד אצל צוותים שמריצים סוכני מחקר כבדים.

 

גם ב-Terminal Bench 2.0, מבחן שמדמה עבודה רציפה בטרמינל, Opus 4.7 מגיע ל-69.4 אחוז, נתון נמוך מהתוצאה של GPT 5.4 שמגיע ל-75.1 אחוז. עבור משתמשים שמסתמכים על משימות טרמינל מורכבות, זה פער שצריך לקחת בחשבון לפני מעבר לגרסה החדשה.

השוואה ל- Mythos Preview

Mythos Preview עדיין מוביל ברוב הבנצ'מרקים, אך אינו זמין לציבור הרחב. Anthropic ציינה כי Opus 4.7 עבר הפחתה מכוונת ביכולות סייבר כדי לבדוק מנגנוני הגנה חדשים, ולכן חלק מהפערים צפויים.

אבטחה, מידע למשתמש המתקדם ו- Cyber Verification Program

Opus 4.7 כולל מנגנוני אבטחה שמטרתם למנוע שימוש לרעה. המודל חוסם באופן אוטומטי בקשות שנראות מסוכנות, גם אם המשתמש התכוון אליהן בהקשר לגיטימי. עבור צוותים שעוסקים במחקר אבטחה או בדיקות חדירות, זה עלול ליצור חיכוך.

 

כדי להתמודד עם זה, Anthropic מפעילה תוכנית ייעודית למקצועני אבטחה, שמאפשרת להם לעבוד עם המודל תחת תנאים מבוקרים וללא חסימות מיותרות.

Tokenizer inflation

בגרסה הזו אותו טקסט עשוי לעלות יותר טוקנים מאשר בעבר, בדרך כלל בין 1.0 ל- 1.35 יותר. טוקנים הם יחידות טקסט קטנות שהמודל משתמש בהן כדי לעבד מידע, ולכן עלייה במספר הטוקנים משפיעה על עלות השימוש. ברמות מאמץ גבוהות המודל גם מייצר יותר טוקנים בפלט, מה שמגדיל את הצריכה הכוללת.

המלצות מיגרציה

מיגרציה היא תהליך המעבר מגרסה ישנה של המודל לגרסה חדשה. זה כולל בדיקה שהמערכת, הקוד והפרומפטים ממשיכים לעבוד כרגיל גם אחרי השדרוג.

 

כדי לבצע מיגרציה חלקה ל- Opus 4.7 מומלץ:

  • להריץ מדידות על תעבורה אמיתית כדי להבין את השפעת עליית הטוקנים.

  • לבצע רגרסיה לפרומפטים ולוודא שהם עדיין מניבים את התוצאות הרצויות.

  • להשתמש ב- effort control כדי לשלוט בעומק החשיבה של המודל.

  • להגדיר task budgets שמגבילים את כמות העבודה שהמודל מבצע בכל משימה.

  • להשיק rollout מדורג, כלומר להפעיל את הגרסה החדשה בהדרגה ולשמור אפשרות לחזור אחורה במקרה הצורך.

Claude Design: יצירה דרך שיחה

לצד Opus 4.7 Anthropic השיקה את Claude Design, כלי שמאפשר ליצור עיצובים, מצגות, דפי מוצר ואבי טיפוס פשוט על ידי שיחה. המשתמש מתאר מה הוא רוצה, ו- Claude מייצר גרסה ראשונית שאפשר לשפר דרך שיחה, הוספת הערות או עריכה ישירה על המסך.

 

לאחר שהעיצוב מוכן אפשר לייצא אותו ל Canva, לקובץ PDF או PPTX, או להעביר אותו ישירות ל Claude Code להמשך פיתוח. הכלי גם יודע לקרוא את קבצי העיצוב והקוד של הצוות, לבנות מהם ספריית עיצוב פנימית וליישם אותה אוטומטית על כל פרויקט חדש, כך שהתוצרים נשארים עקביים עם המותג.

 

Claude Design זמין בשלב research preview למשתמשי Pro, Max, Team ו- Enterprise. להשקה הזו נייחד מדריך נפרד שייצא בקרוב.

 

מחיר וזמינות

המחיר של Opus 4.7 נשאר זהה לגרסה הקודמת: 5 דולר למיליון טוקנים בקלט ו- 25 דולר למיליון טוקנים בפלט. המודל זמין תחת המזהה claude-opus-4-7.

 

Opus 4.7 זמין לשימוש ב- Claude.ai, ב- Claude Code, דרך Anthropic API, ובפלטפורמות Bedrock, Vertex AI ו- Microsoft Foundry.

עדכון משמעותי, אבל לא לכל אחד

Opus 4.7 מביא שיפור עקבי ביכולות קוד, ראייה וזיכרון, לצד כלים שמיועדים לעבודה ארוכה ורב שלבית. הנתונים מצביעים על מודל חזק יותר מ- Opus 4.6 בתחומים רבים, אך לא בכל מדד, והוא כולל שינויים תפעוליים שמחייבים בדיקה לפני מיגרציה. עבור משתמשים שמפתחים סוכנים, מבצעים ביקורת קוד או יוצרים תוצרים מקצועיים, זה בהחלט עדכון משמעותי.

הפוסט Claude Opus 4.7 עם עדכון משמעותי ליכולות קוד, ראייה וזיכרון הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-opus-4-7/feed/ 0
Personal Intelligence מגיע לישראל והופך לעוזר האישי שלכם https://letsai.co.il/gemini-personal-intelligence-2/ https://letsai.co.il/gemini-personal-intelligence-2/#respond Sat, 18 Apr 2026 05:53:34 +0000 https://letsai.co.il/?p=72900 במשך שנים דיברנו על עוזרי בינה מלאכותית כאילו הם עומדים להפוך לחלק מהיומיום שלנו. הם ידעו לענות על שאלות כלליות, לנסח מיילים או להציע רעיונות, אבל לא באמת הכירו אותנו. הם לא ידעו מה אנחנו אוהבים, מה עשינו, מה תכננו או מה חשוב לנו. הם היו עוזרים, אבל לא אישיים. כעת גוגל מציגה בישראל את […]

הפוסט Personal Intelligence מגיע לישראל והופך לעוזר האישי שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשך שנים דיברנו על עוזרי בינה מלאכותית כאילו הם עומדים להפוך לחלק מהיומיום שלנו. הם ידעו לענות על שאלות כלליות, לנסח מיילים או להציע רעיונות, אבל לא באמת הכירו אותנו. הם לא ידעו מה אנחנו אוהבים, מה עשינו, מה תכננו או מה חשוב לנו. הם היו עוזרים, אבל לא אישיים. כעת גוגל מציגה בישראל את Personal Intelligence, או בשמו המקומי "AI מותאם אישית", יכולת חדשה בג׳מיני שמאפשרת לו להתחבר למידע האישי שלכם בגוגל באישור מפורש בלבד. המטרה היא לאפשר לעוזר להבין את ההקשר שבו אתם פועלים, ולא רק את השאלה שאתם שואלים. ברגע שהפיצ׳ר פעיל, ג׳מיני כבר לא מסתמך רק על ידע כללי. הוא מסוגל לקרוא מיילים רלוונטיים, לזהות דפוסים בתמונות, להבין במה צפיתם ב-YouTube ולשלב את כל זה לכדי תשובה אחת שמבוססת על החיים שלכם. זה צעד שמקרב את העוזר הווירטואלי להיות כלי שמבין את המשתמש, ולא רק את הטקסט שמופיע מולו. בישראל, ההשקה מתגלגלת. הפיצ׳ר זמין כבר עכשיו למנויי Gemini Advanced ו-Google One AI Premium, ויגיע לכל המשתמשים בהמשך.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שכבת הבנה חדשה שמבוססת על החיים שלכם

למרות ההתקדמות האדירה של מודלי שפה, הם עדיין פעלו מתוך ידע כללי בלבד. הם ידעו לענות על שאלות מורכבות, אבל לא על שאלות שנוגעות לחיים האישיים של המשתמש. הם לא יכלו לשלוף מידע מתוך מיילים, להבין מה חשוב לכם לאורך זמן, או להציע המלצות שמבוססות על ההיסטוריה שלכם.

 

הפער הזה הפך את העוזרים הווירטואליים לכלים מרשימים אך מוגבלים, טובים בידע אך לא בהקשר, יעילים בהסברים אבל לא מכירים אתכם טוב מספיק. Personal Intelligence נועד לגשר על הפער הזה ולהוסיף ל-Gemini יכולת להבין את המשתמש דרך המידע האישי שכבר קיים בחשבון שלו, כך שהעוזר יכול לפעול מתוך תמונה רחבה ומדויקת יותר של המשתמש שמולו.

 

Personal Intelligence בג'מיני

מה Personal Intelligence מאפשר בפועל

Personal Intelligence מוסיף ל-Gemini יכולת לחבר בין מקורות מידע שונים בחשבון שלכם ולבנות מהם תמונה רחבה יותר של ההקשר שבו אתם פועלים. הוא לא מסתפק בקריאה של מייל או תמונה בודדת, אלא מצליב ביניהם. אם אתם מתכננים חופשה, הוא יכול לשלב תמונות מטיולים קודמים, מיילים עם המלונות שאהבתם וסרטונים שצפיתם בהם.

 

אחד השדרוגים המשמעותיים שמגיעים יחד עם Personal Intelligence הוא החיבור בין מחולל התמונות של גוגל (Nano Banana) לבין ספריית התמונות האישית שלכם ב‑Google Photos. עד היום, כדי לייצר תמונה שמבוססת עליכם הייתם צריכים להעלות תמונות רפרנס, לנסח פרומפטים ארוכים ולכוון את המודל ידנית. עכשיו, ברגע ש‑Personal Intelligence פעיל, Gemini יכול לגשת לגלריה שלכם (בקריאה בלבד) ולהבין מי אתם, איך אתם נראים, מי בני המשפחה ומה מאפיין את חיות המחמד שלכם.

 

המשמעות היא שאפשר פשוט לבקש בשפה טבעית: “תייצר תמונה של המשפחה שלי על גלגל ענק”, “תעשה ציור של הכלב שלי בסגנון פיקסאר” או “תיצור תמונה שלי רץ על חוף הים” - והמודל כבר יודע בדיוק על מי מדובר. זה הופך יצירת תמונות מותאמות אישית ממשהו טכני ומסורבל לחוויה טבעית, מהירה ואינטואיטיבית.

 

היכולת הזו מתחברת גם למנגנוני הזיכרון וההוראות של ג׳מיני, כך שהעוזר לא רק מבין אתכם ברגע נתון, אלא גם זוכר מה חשוב לכם לאורך זמן. 

מה הוא לא עושה

כדי להבין את הפיצ׳ר באמת, חשוב להכיר גם את המגבלות שלו. היכולת של Gemini לדייק תלויה באיכות המידע שלכם. אם התמונות לא מתויגות, אם אין מיקום, אם המיילים עמומים, היכולת שלו לאחזר מידע רלוונטי נפגעת. הוא לא מנחש - הוא מאחזר.

 

בנוסף, Personal Intelligence הוא לא סוכן אוטונומי. הוא יודע לקרוא, להבין, להצליב ולהציע, אבל אינו מבצע פעולות מורכבות ללא פיקוח. הוא לא מזמין טיסות, לא מנהל משא ומתן ולא מבצע משימות מקצה לקצה. גם ההיכרות שלו אתכם היא הקשרית בלבד. הוא מזהה דפוסים, לא רגשות. הוא מבין העדפות, לא אישיות. זה פיצ'ר חזק, אבל לא קסם.

דוגמאות לשימוש אמיתי

היכולות החדשות של Gemini מאפשרות לשאול שאלות שלא היו אפשריות בעבר, והערך שלהן מתגלה דווקא בסיטואציות יומיומיות. כשאתם מבקשים ממנו למצוא את מספר הרכב שלכם, הוא לא “מנחש” אלא מאתר תמונות שבהן הרכב מופיע, קורא את לוחית הרישוי ומחזיר את המידע בתוך שניות. המשמעות היא שלא צריך לחפש ידנית בגלריה או במסמכים.

 

כשאתם מבקשים לזהות משהו שחוזר בתמונות שלכם, הוא מסוגל לזהות דפוסים לאורך זמן, למשל שאתם מציירים, מבשלים או מצלמים נופים, ולהציע רעיונות שמתאימים לתחומי העניין האמיתיים שלכם.

 

וכשאתם מבקשים לתכנן סופ״ש בפריז או למצוא פודקאסט שיעניין אתכם, הוא משלב בין ההיסטוריה שלכם ב-YouTube, מיילים ישנים והעדפות קודמות כדי להציע משהו שמבוסס על מי שאתם, לא על משתמש ממוצע. אלה דוגמאות שממחישות איך Personal Intelligence הופך את העוזר לכלי שמבין את ההקשר של החיים שלכם ומספק תשובות שמרגישות רלוונטיות ומדויקות יותר.

 

תבחרו איזה כלים בא לכם לחבר ל- Personal Intelligence

תבחרו איזה אפליקציות בא לכם לחבר

איך מפעילים את זה

ההפעלה של Personal Intelligence פשוטה, אבל נעשית רק ביוזמת המשתמש ובאישור מפורש. כך מפעילים:

 

1. פותחים את אפליקציית Gemini. ודאו שאתם מחוברים עם חשבון גוגל שבו תרצו להפעיל את הפיצ׳ר.
2. נכנסים להגדרות ועזרה דרך תפריט ראשי ← הגדרות ועזרה. גללו מעט למטה אם אינכם רואים את האפשרות מיד.
3. בוחרים AI מותאם אישית. זהו המסך המרכזי שמנהל את Personal Intelligence.
4. נכנסים לאפליקציות מקושרות ומגדירים איזה שירותים של גוגל יוכלו לספק מידע לג׳מיני.
5. מסמנים איזה שירותים רוצים לחבר.

 

ייתכן שהמיקום המדויק של האפשרות ישתנה מעט בין גרסאות האפליקציה, אבל העיקרון זהה: Personal Intelligence מופיע תחת הגדרות ג׳מיני, ומשם ניתן לבחור אילו שירותים לחבר.

 

בסופו של דבר, אתם קובעים מה מחובר ומה לא. Personal Intelligence עובד רק עם המידע שאתם בוחרים לשתף, ורק כל עוד בחרתם להשאיר את החיבור פעיל.

 

הפעלת AI מותאם אישית

הפעלת AI מותאם אישית

אבטחת מידע: מה חשוב לדעת לפני שמפעילים

המידע האישי שלכם לא משמש לאימון המודל, וג׳מיני מקבל אליו גישה לקריאה בלבד. ניתן לנתק הרשאות בכל רגע, ואין שימוש פרסומי במידע או שיתוף עם צד שלישי. כל העיבוד מתבצע בתוך התשתית המאובטחת של גוגל, תחת אותם מנגנוני הגנה שמפעילים את שירותי הליבה של החברה.

 

הדבר היחיד שאינו מפורט במלואו הוא אילו שירותים נוספים עשויים להצטרף בעתיד או האם יתווספו יכולות עומק נוספות, אך במסגרת ההשקה הנוכחית התמונה ברורה: השליטה בידיים שלכם, והמידע נשאר בתוך החשבון שלכם.

עוזר אישי אמיתי 

Personal Intelligence מסמן את המעבר מעוזרי AI כלליים לעוזרים אישיים באמת. הוא לא רק יודע הרבה - הוא יודע עליכם. הוא מבין הקשרים, זוכר העדפות ומסוגל לעזור במשימות שמבוססות על החיים האמיתיים שלכם. יחד עם זאת, הוא לא מחליף שיקול דעת אנושי, לא פועל באופן אוטונומי ולא פותר כל בעיה. הוא כלי חזק ושימושי, כל עוד מבינים את המגבלות ואת האופן שבו הוא עובד.

 

ההשקה בישראל מסמנת תחילתו של עידן שבו העוזר הווירטואלי הופך להיות חלק מהיומיום - לא רק מודל שפה חכם, אלא כלי אישי שמכיר אתכם, מבין אתכם ומסוגל ללוות אתכם במשימות שמבוססות על מי שאתם באמת.

הפוסט Personal Intelligence מגיע לישראל והופך לעוזר האישי שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-personal-intelligence-2/feed/ 0
מה באמת עוזר לסוכן שלכם? Agent Skills במבחן האמת https://letsai.co.il/effective-agent-skills/ https://letsai.co.il/effective-agent-skills/#respond Fri, 17 Apr 2026 08:15:09 +0000 https://letsai.co.il/?p=72985 אי אפשר לגלול היום בפיד טכנולוגי בלי להיתקל במישהו שמכריז בהתלהבות על ה‑Skill החדש שכתב. בחודשים האחרונים Skills הפכו לאחד הטרנדים החמים בעולם הסוכנים: חבילות קטנות של הוראות שמלמדות את הסוכן איך לבצע משימה בצורה עקבית. בקהילות כבר מסתובבים עשרות אלפי Skills, חברות משלבות אותן בתהליכי העבודה שלהן, ו‑Anthropic מציגה אותן כחלק מרכזי בארכיטקטורה של […]

הפוסט מה באמת עוזר לסוכן שלכם? Agent Skills במבחן האמת הופיע ראשון בLet's AI בינה מלאכותית

]]>
אי אפשר לגלול היום בפיד טכנולוגי בלי להיתקל במישהו שמכריז בהתלהבות על ה‑Skill החדש שכתב. בחודשים האחרונים Skills הפכו לאחד הטרנדים החמים בעולם הסוכנים: חבילות קטנות של הוראות שמלמדות את הסוכן איך לבצע משימה בצורה עקבית. בקהילות כבר מסתובבים עשרות אלפי Skills, חברות משלבות אותן בתהליכי העבודה שלהן, ו‑Anthropic מציגה אותן כחלק מרכזי בארכיטקטורה של סוכני ה‑AI המודרניים. אבל בתוך כל ההתלהבות הזאת, כמעט אף אחד לא עצר לשאול את השאלה הפשוטה באמת: האם Skills באמת משפרים את ביצועי הסוכנים - או שכולנו פשוט מניחים שזה נכון?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם קורה?

מחקר חדש ומקיף שפורסם במרץ 2026 בשם SkillsBench מנסה לענות על השאלה הזאת באופן שיטתי. קבוצה של 105 תורמים ממוסדות מובילים, בהם אוניברסיטת סטנפורד, אוקספורד, אמזון וחברת Anthropic עצמה, הרכיבה אוסף של 84 משימות מ-11 תחומים: מהנדסה של תוכנה ועד רפואה, מסייבר ועד פיננסים. כל משימה הורצה שלוש פעמים.

 

פעם אחת בלי Skills. פעם שנייה עם Skills שבני אדם כתבו. פעם שלישית עם Skills שהסוכן ייצר בעצמו. בסך הכול 7,308 ניסיונות. זה כנראה הניסוי הגדול והשיטתי ביותר שנעשה עד היום על היכולת הזאת. והתוצאות מפתיעות, לפעמים אפילו מטרידות.

איפה Skills מביאים תוצאות

למה זה כל כך משמעותי?

 

הממצא הראשי נראה מצוין על הנייר. Skills מעלים את אחוז ההצלחה בממוצע ב‑16.2 נקודות אחוז. זה שיפור אמיתי ומובהק, אבל מאחורי הממוצע הזה מסתתר סיפור הרבה יותר מורכב.

 

בתחום הבריאות Skills העלו את אחוז ההצלחה של הסוכנים מ‑34% ל‑86%, קפיצה של כמעט 52 נקודות. בייצור התמונה דרמטית עוד יותר: אחוז הצלחה בודד בלי Skills לעומת 43% איתן. מנגד, בהנדסת תוכנה השיפור היה זעיר, 4.5 נקודות אחוז בלבד, ובמתמטיקה רק 6 נקודות. המסקנה ברורה. בתחומים שבהם המודל כבר מחזיק בידע משמעותי Skills מוסיפות מעט. הן יעילות במיוחד דווקא במקומות שבהם המודל חלש מלכתחילה.

 

ואז מגיע הממצא שבאמת מטלטל. ב‑16 מתוך 84 המשימות Skills לא רק שלא עזרו אלא ממש הזיקו. במשימת מיזוג טקסונומיה אחוז ההצלחה צנח ב‑39 נקודות. במשימות של ניתוח זרמי חשמל, חקר אסטרונומיה וניתוח סטטיסטי נרשמו ירידות של 11 עד 14 נקודות. נראה ש‑Skills ארוכים ומפורטים מדי יוצרים עומס או סתירה כשהמודל כבר יודע להתמודד עם המשימה בעצמו.

 

וזה עוד לא הכול. כשהסוכן התבקש לייצר Skills בעצמו, בלי עזרה אנושית, התוצאה הייתה שלילית: ירידה של 1 עד 2 נקודות אחוז בממוצע. זה ממצא משמעותי במיוחד. הסוכן יודע להשתמש היטב ב‑Skill שניתנת לו, אבל הוא לא יודע לכתוב לעצמו אחת איכותית. את הידע התהליכי הזה, כך נראה, רק בני אדם יודעים לספק.

מה עושים בזה?

המחקר לא נשאר בתיאוריה. יש בו כמה המלצות מעשיות שאפשר ליישם כבר עכשיו.

 

ראשית, פחות זה יותר. החוקרים גילו ש‑Skill ממוקד, בערך עמוד או שניים של הוראות, עובד הכי טוב. כשניסו לכתוב Skill מקיף עם כל המידע האפשרי, הביצועים דווקא ירדו ב‑3 נקודות אחוז. מסתבר שהסוכן מתקשה לחלץ את המידע הרלוונטי מתוך הוראות ארוכות מדי.

 

שנית, שניים או שלושה Skills למשימה הן הכמות האידיאלית. תוספת של Skill רביעית מורידה את השיפור מ‑18 נקודות ל‑6 נקודות בלבד. זה לא מזיק ממש, אבל היתרון כמעט נעלם.

 

שלישית, ואולי הממצא המעניין ביותר: מודל קטן עם Skills טובים יכול לנצח מודל גדול בלי. Claude Haiku 4.5 עם Skills הגיע ל‑27.7 אחוזי הצלחה, בעוד ש‑Claude Opus 4.5 בלי Skills הגיע רק ל‑22 אחוזים. כלומר, אפשר לחסוך משמעותית בעלויות ההפעלה אם משקיעים בכתיבת Skill איכותית במקום בשדרוג המודל.

 

רביעית, ההקשר חשוב. אם העבודה שלכם בהנדסת תוכנה או מתמטיקה, אל תצפו ש‑Skill יעשה קסמים. אבל בתחומים מתמחים כמו רפואה, תהליכי ייצור, אנליזה משרדית או סייבר, השקעה ב‑Skill מדויק יכולה להיות האוטומציה הרווחית ביותר שתעשו השנה.

 

וחמישית, הממצא על Skills שהסוכן מייצר בעצמו פותח הזדמנות מעניינת. המחקר בדק מצב שבו מבקשים מהמודל לכתוב Skill מראש, לפני שביצע את המשימה. אני מוצא שאם הופכים את הסדר, קודם מריצים איתו את המשימה עד הסוף ורק אז מבקשים ממנו לסכם אותה כ‑Skill, התוצאות טובות בהרבה. ההבדל קטן אבל מהותי. במקום לבקש מהמודל לנבא איך תיראה פרוצדורה נכונה, נותנים לו לבצע אותה פעם אחת ואז לזקק אותה מהניסיון עצמו. זו לא תוצאה מהמחקר, אלא שיטה שפיתחתי בעצמי, אבל היא מתיישבת היטב עם מה שכן מופיע בו.

מה הלאה?

כל זה רלוונטי במיוחד עכשיו, כש-Skills הפך לשפה המשותפת של תעשיית הסוכנים. Claude Code, Gemini CLI ו-Codex של OpenAI כולם תומכים במנגנון, אבל לא באותה איכות. החוקרים גילו ש-Claude Code מנצל Skills בצורה הרבה יותר עקבית, בעוד ש-Codex לעיתים קרובות פשוט מתעלם מה-Skill שסופק לו. הבחירה בכלי, מסתבר, לא פחות חשובה מהבחירה בתוכן ה-Skill עצמו.

 

אני חושב שהמסר האמיתי של המחקר הוא זה: Skills הם כלי חזק, אבל לא קסם. הם עובדים כשהם ממוקדים, קצרים וממלאים פער ידע אמיתי. הם נכשלים כשהם מיותרים, מפורטים מדי או סותרים את מה שהמודל כבר יודע לבצע בעצמו.

יעילות היא שם המשחק

אם הייתי צריך לבחור משפט אחד מכל המחקר, זה היה: "יעילות Skills אינה אוניברסלית, אלא תלויית הקשר." זה אולי נשמע כאזהרה זהירה של אקדמאים, אבל זו למעשה הבשורה הטובה. סוף סוף יש לנו נתונים, לא רק תחושות. סוף סוף אפשר להפסיק להניח ש-Skills תמיד עוזרים, ולהתחיל לבדוק מתי הם באמת עובדים.

 

לפני שאתם כותבים את ה-Skill הבא שלכם, שאלו את עצמכם שתי שאלות פשוטות. האם המשימה באמת דורשת ידע תהליכי שהמודל לא מכיר? והאם ההוראות שלכם מספיק ממוקדות כדי שהמודל יוכל לעקוב אחריהן? אם התשובה לשתי השאלות היא כן, אתם בדרך לכלי עבודה משמעותי. אם לא, אולי עדיף פשוט לוותר על ה-Skill ולתת למודל לעבוד.

הפוסט מה באמת עוזר לסוכן שלכם? Agent Skills במבחן האמת הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/effective-agent-skills/feed/ 0
איך לפתח חשיבה ביקורתית עם AI ולא להסתפק בתשובה הראשונה https://letsai.co.il/criticalthinkingguide/ https://letsai.co.il/criticalthinkingguide/#respond Fri, 17 Apr 2026 04:48:15 +0000 https://letsai.co.il/?p=72802 השימוש בצ’אטבוטים מבוססי בינה מלאכותית הפך בתוך זמן קצר להרגל כמעט אינטואיטיבי: שאלה מנוסחת, תשובה מתקבלת, והמשתמש ממשיך הלאה. אלא שמתחת ליעילות הזו מסתתרת הנחה סמויה שהתשובה הראשונה היא גם הטובה ביותר, ולעיתים אף הנכונה. בפועל, המציאות מורכבת בהרבה. דווקא בעידן שבו מידע נגיש יותר מאי פעם, היכולת להטיל ספק, לבחון לעומק ולפתח חשיבה ביקורתית […]

הפוסט איך לפתח חשיבה ביקורתית עם AI ולא להסתפק בתשובה הראשונה הופיע ראשון בLet's AI בינה מלאכותית

]]>
השימוש בצ’אטבוטים מבוססי בינה מלאכותית הפך בתוך זמן קצר להרגל כמעט אינטואיטיבי: שאלה מנוסחת, תשובה מתקבלת, והמשתמש ממשיך הלאה. אלא שמתחת ליעילות הזו מסתתרת הנחה סמויה שהתשובה הראשונה היא גם הטובה ביותר, ולעיתים אף הנכונה. בפועל, המציאות מורכבת בהרבה. דווקא בעידן שבו מידע נגיש יותר מאי פעם, היכולת להטיל ספק, לבחון לעומק ולפתח חשיבה ביקורתית הופכת לכלי מרכזי בעבודה עם מערכות AI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

יש משהו מטעה באופן שבו מערכות בינה מלאכותית מציגות את עצמן. הן אינן מהססות, אינן מתלבטות, ולעיתים קרובות אף אינן מסמנות גבולות ברורים של אי ודאות. התוצאה היא טקסטים חלקים, קוהרנטיים ומשכנעים, אך לא בהכרח מדויקים, ולעיתים אף שטחיים יותר מכפי שהם נראים במבט ראשון.

 

דווקא בשל כך עולה הצורך בשאלה יסודית יותר: כיצד ניתן להעריך את איכותה של תשובה, ולא רק את קיומה? בשנים האחרונות מתחדדת תובנה נוספת - לא כל מודל AI חושב באותו אופן. הבחירה במודל, והאופן שבו מפעילים אותו, משפיעים באופן ישיר על איכות התשובות ועל היכולת לפתח חשיבה ביקורתית.

 

מעבר מצרכן מידע למבקר פעיל

השינוי הפסיכולוגי בשימוש ב-AI

כאשר משתמש פונה למערכת בינה מלאכותית, הוא לרוב מגיע מתוך צורך מיידי: פתרון בעיה, קבלת מידע או ניסוח טקסט. התשובה המתקבלת נתפסת כסיום התהליך, ולא כשלב ביניים. זהו דפוס טבעי, אך גם מגביל.

 

הנטייה לייחס למערכת סמכות מלאה נובעת מהאופן שבו היא מציגה מידע - בביטחון וללא הסתייגויות. בפועל, מדובר במודלים הסתברותיים, שמייצרים תשובות על בסיס דפוסים ולא על בסיס הבנה מלאה במובן האנושי.

 

מדוע התשובה הראשונה אינה מספיקה

תשובות של מודלי AI נוטות להיות כלליות, יעילות ומהירות, אך לא בהכרח מותאמות לעומק או להקשר הספציפי.

 

במקרים רבים, התשובה הראשונה מציגה מידע כללי במקום ניתוח מעמיק, מתבססת על הנחות שלא נאמרות במפורש, נעדרת ביקורת פנימית, ואינה בוחנת חלופות.

כאן נכנסת לתמונה חשיבה ביקורתית, לא כתכונה, אלא כפרקטיקה שניתן ליישם באופן שיטתי.

 

מודלי חשיבה ב-AI ומודלים "רגילים"

מודלים כלליים מול מודלי Reasoning

מודלים כלליים מתמקדים בהפקת טקסט קוהרנטי ורלוונטי. הם מצטיינים בכתיבה, סיכום והסבר.

 

לעומתם, מודלים המתמקדים ב-reasoning (הסקה) מיועדים לפירוק בעיות, ניתוח לוגי והסקת מסקנות מורכבות. הם נוטים להציג תהליך חשיבה מפורט יותר, ולעיתים גם לחשוף חוסר ודאות.

 

הבחירה בין סוגי המודלים תלויה במשימה:

  • לשאלה פשוטה - מודל כללי עשוי להספיק.
  • לבעיה מורכבת - נדרש מודל המעודד חשיבה תהליכית - מודל ריזונינג.

 

מודלי ריזונינג

מודלי ריזונינג

 

כיצד לבחור את המודל המתאים

הבחירה אינה תמיד מפורשת למשתמש, אך ניתן להשפיע עליה דרך אופן השימוש:

 

  • פרומפט קצר וישיר יוביל לרוב לתשובה תגובתית.
  • פרומפט מורכב, עם דרישה לניתוח וביקורת, יפעיל דפוס רפלקטיבי יותר.

במילים אחרות, לא רק המודל קובע, אלא גם המשתמש.

 

1) שלב ראשון השהייה מכוונת

עצירה כפעולה אקטיבית

מרגע שמתקבלת תשובה, מתעוררת נטייה כמעט אוטומטית להמשיך. אך דווקא כאן נפתח מרחב הביקורת.

השהייה מאפשרת מעבר ממצב של צריכה למצב של בחינה.

פרומפטים מומלצים לשלב זה

כדי ליישם את השלב בפועל, ניתן להשתמש בניסוחים כמו:

 

"מה חסר בתשובה הזו?"
"אילו חלקים בתשובה דורשים הרחבה?"
"באילו היבטים התשובה עלולה להיות לא מדויקת?"

 

השאלות הללו מאלצות את המודל לצאת ממצב של הפקה  למצב של הערכה.

 

2) שלב שני חשיפת הנחות וקריאה בין השורות

זיהוי מבנים סמויים

תשובות רבות נשענות על הנחות שאינן נאמרות. אלו יכולות להיות הנחות לגבי הקשר, ידע קודם או תנאים חיצוניים.

פרומפטים לחשיפת הנחות

"אילו הנחות עומדות בבסיס התשובה הזו?"


"על אילו תנאים אתה מסתמך כאן?"


"מה צריך להיות נכון כדי שהתשובה הזו תהיה תקפה?"

התוצאה היא מעבר מתשובה שטוחה למבנה רב-שכבתי.

 

חיבור למודלי Reasoning

בשלב זה, מודלים המתמקדים בהסקה מספקים ערך גבוה במיוחד. הם נוטים לפרק את התשובה ולהציג את התנאים שמאחוריה, במקום להישאר ברמת פני השטח.

 

3) שלב שלישי ביקורת שיטתית ופירוק

ניתוח לפני שיפור

שיפור ללא ביקורת מוביל לרוב לשינויים קוסמטיים בלבד. לכן, יש לפרק את התשובה.

פרומפטים לביקורת

"מהן הבעיות בתשובה הזו?"


"אילו טיעונים אינם מבוססים מספיק?"


"איפה קיימות הכללות או פשטנות יתר?"

 

שינוי תפקיד ה-AI

בשלב זה, ה-AI מפסיק להיות מקור סמכות, והופך לשותף בביקורת. זהו שינוי מהותי באופי האינטראקציה.

 

שלושת השלבים להפעלת חשיבה ביקורתית ב - AIמצריכה אוטומטית לביקורת אקטיבית: שלבים 1-3 של המדריך. איך לעצור את האינסטינקט, לחשוף את ההנחות הסמויות של המודל ולפרק את התשובות באופן שיטתי לפני שמשתמשים בהן.

 

4) שלב רביעי שכתוב מודע

לאחר הביקורת, ניתן לבקש שכתוב:

"כתוב מחדש את התשובה תוך התייחסות לכל נקודות הביקורת."

 

פרומפטים לשיפור מתקדם

"שפר את התשובה כך שתהיה מדויקת יותר, גם במחיר של מורכבות."
"נסח תשובה שמציגה גם הסתייגויות ולא רק מסקנות."

שימוש במודלים רפלקטיביים

מודלים בעלי נטייה לחשיבה תהליכית יפיקו כאן תוצאה איכותית יותר, משום שהם “זוכרים” את שלבי הביקורת הקודמים ומשלבים אותם בתשובה.

 

5) שלב חמישי יצירת התנגדות

במקום לחפש אישור, יש לייצר חיכוך על ידי חשיבה דרך פרספקטיבות מנוגדות.

פרומפטים להתנגדות

"מהו הטיעון החזק ביותר נגד התשובה הזו?"


"כיצד ניתן לערער על המסקנה?"


"איזו גישה אחרת יכולה להוביל למסקנה שונה?"

הרחבת גבולות ההבנה

התוצאה היא מעבר מחשיבה לינארית לחשיבה מרובת פרספקטיבות. זהו שלב קריטי בהעמקה.

 

6) שלב שישי מעבר מתשובה לתהליך

כאשר משלבים את כל השלבים, מתקבלת שיטה ברורה:

תשובה >> בדיקה >> הנחות >> ביקורת >> שכתוב >> התנגדות

 

פרומפט מסכם לתהליך מלא

"נתח את התשובה הבאה: הצג הנחות, זהה בעיות, שפר אותה בהתאם, ולבסוף הצג טיעון נגדי חזק."

פרומפט כזה מפעיל את המודל באופן רפלקטיבי מלא.

שינוי תפקיד המשתמש

המשתמש אינו עוד מקבל תשובות, אלא מנהל תהליך. הוא מגדיר, מכוון ומבקר.

 

מביקורת למתודולוגיה: שלבים 4-6 של המדריך. איך ליישם את ניתוח ה-AI, לערער על מסקנות וליצור תהליך עבודה עקבי ומעמיק

מביקורת למתודולוגיה: שלבים 4-6 של המדריך. איך ליישם את ניתוח ה-AI, לערער על מסקנות וליצור תהליך עבודה עקבי ומעמיק.

 

שימושים מעשיים והטמעה יומיומית

שילוב בתהליכי עבודה

הגישה מתאימה לכל תחום בכתיבה מקצועית, במחקר, בקבלת החלטות, ובלמידה עצמית.

איזון בין מהירות לעומק

לא כל אינטראקציה דורשת עומק. אך היכולת לזהות מתי כן  היא קריטית.

יתרון בעולם רווי תשובות

בזמנים שבהם כל אחד יכול לקבל תשובה, היתרון אינו במהירות  אלא באיכות החשיבה.

בסופו של דבר, האתגר בעבודה עם AI אינו נעוץ רק ביכולות המודל, אלא באופן שבו אנו משתמשים בו.

 

מי שמפתח חשיבה ביקורתית, מבין שתשובה היא רק התחלה, והיתרון האמיתי שייך למי שלא מסתפק בה.

הפוסט איך לפתח חשיבה ביקורתית עם AI ולא להסתפק בתשובה הראשונה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/criticalthinkingguide/feed/ 0
מחתרת ה‑AI בקמפוסים: מה הסטודנטים עושים כשאין מדיניות ברורה https://letsai.co.il/ai-underground-campuses/ https://letsai.co.il/ai-underground-campuses/#respond Thu, 16 Apr 2026 05:11:57 +0000 https://letsai.co.il/?p=72739 מחקר משותף של Gallup וקרן Lumina, המבוסס על כמעט 4,000 סטודנטים בארצות הברית, מגלה שרוב הסטודנטים כבר משתמשים בכלי בינה מלאכותית כמו ChatGPT, Gemini ו‑Copilot לצורכי לימודים לפחות פעם בשבוע, גם במוסדות שבהם השימוש בכלים הללו מוגבל או אסור. הדוח מצביע על פער עמוק בין מדיניות מוסדית שמרנית לבין המציאות בשטח, על חוסר בהירות בהנחיות […]

הפוסט מחתרת ה‑AI בקמפוסים: מה הסטודנטים עושים כשאין מדיניות ברורה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מחקר משותף של Gallup וקרן Lumina, המבוסס על כמעט 4,000 סטודנטים בארצות הברית, מגלה שרוב הסטודנטים כבר משתמשים בכלי בינה מלאכותית כמו ChatGPT, Gemini ו‑Copilot לצורכי לימודים לפחות פעם בשבוע, גם במוסדות שבהם השימוש בכלים הללו מוגבל או אסור. הדוח מצביע על פער עמוק בין מדיניות מוסדית שמרנית לבין המציאות בשטח, על חוסר בהירות בהנחיות ועל מחסור בהדרכה לשימוש נכון ואתי. הסטודנטים מדווחים שהם משתמשים ב‑AI בעיקר כדי להבין חומר מורכב, בעוד שנמנעים עושים זאת בעיקר מסיבות אתיות. המסקנה שעולה מהנתונים ברורה: בינה מלאכותית כבר הפכה לחלק אינטגרלי מחוויית הלמידה, והאתגר המרכזי של האקדמיה הוא לא אם לאפשר אותה, אלא איך למסגר, לכוון ולנצל אותה לטובת למידה עמוקה ומודעת יותר.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הפער בין המדיניות הרשמית להתנהגות הסטודנטים

באופן רשמי, בהרבה קמפוסים בארצות הברית בינה מלאכותית עדיין נתפסת כאיום, משהו שצריך להגביל, לאכוף או להכניס לסילבוס בעיקר דרך סעיף האיסורים. אבל אם שואלים את הסטודנטים, התמונה שונה לגמרי. עבורם, ChatGPT, Gemini ו‑Copilot הם כבר חלק מהשגרה הלימודית, לא פחות מספר הלימוד או קבוצת הווטסאפ של הכיתה.

 

מחקר חדש של Gallup וקרן Lumina, כחלק מדוח State of Higher Education, מנסה להצמיד מספרים מדויקים לתחושה הזו ומגלה מערכת יחסים מורכבת בין סטודנטים, מוסדות אקדמיים והבינה המלאכותית שנכנסה לחייהם כמעט בן לילה.

כולם משתמשים, כמעט אף אחד לא מדבר על זה

הנתון הבולט ביותר בדוח הוא היקף השימוש: כ‑57 אחוזים מהסטודנטים משתמשים בכלי בינה מלאכותית לצורכי לימודים לפחות פעם בשבוע, וכ‑20 אחוזים מדווחים על שימוש יומיומי. רק 13 אחוזים אומרים שהם לא משתמשים כלל.

 

שיעורי השימוש ב‑AI בקרב סטודנטים

שיעורי השימוש ב‑AI בקרב סטודנטים

 

במקביל, יותר ממחצית מהסטודנטים, 53 אחוזים, מדווחים שהמוסד שלהם מסתייג משימוש ב‑AI או אוסר עליו במפורש. למרות זאת, גם במוסדות שבהם קיים איסור רשמי, 48 אחוזים מהסטודנטים ממשיכים להשתמש בכלים הללו באופן שבועי.

 

הפער בין מדיניות המוסד להתנהגות הסטודנטים

הפער בין מדיניות המוסד להתנהגות הסטודנטים

 

כאן נוצר הפער הראשון: האקדמיה משדרת ״עדיין לא״, בזמן שהסטודנטים כבר חיים ב״לגמרי כן״. התוצאה היא שימוש במחתרת, מצב שמזכיר את תופעת ה‑shadow AI בארגונים, שבה עובדים מאמצים כלים מתקדמים למרות היעדר מדיניות ברורה. גם כאן, הסטודנטים מפיקים ערך ממשי מהטכנולוגיה, אבל עושים זאת בלי שיח פתוח, בלי הנחיות ובלי ליווי פדגוגי.

מה מותר ומה אסור? ומי מחליט?

המחקר מצביע גם על בעיה בסיסית יותר: חוסר שקיפות. 52 אחוזים מהסטודנטים מדווחים שלפחות בחלק מהקורסים אין הנחיות ברורות לגבי שימוש בבינה מלאכותית. כלומר, גם כשהמוסד מחזיק מדיניות AI, היא לא תמיד מתורגמת לשפה של הכיתה, של המטלה ושל היום יום.

 

29 אחוזים מהסטודנטים מרגישים שהם לא מקבלים מספיק הדרכה על שימוש נכון ואתי בכלים הללו. לא איך לעקוף את המערכת, אלא איך להשתמש ב‑AI כמנוף ללמידה: איך לבקר תשובות, לשלב מקורות, להימנע מהטיות ולציין שימוש בכלי בצורה שקופה.

 

היעדר הנחיות ברורות והדרכה מספקת

היעדר הנחיות ברורות והדרכה מספקת

 

הפער הזה, בין שימוש גבוה לבין הדרכה נמוכה, דוחף את ה‑AI אל מתחת לשולחן. במקום להיות חלק מהשיחה הפדגוגית, הוא הופך לכלי שהסטודנטים משתמשים בו לבד, לעיתים עם תחושת אשמה או חשש.

לטובת מה הסטודנטים באמת משתמשים ב‑AI?

אחת ההנחות הרווחות בשיח הציבורי היא שסטודנטים משתמשים ב‑AI כדי לקצר תהליכים, לכתוב עבודות במקומם או לעקוף את המאמץ. המחקר של Gallup ו‑Lumina מצייר תמונה רחבה ומורכבת יותר.

 

בקרב סטודנטים שמשתמשים ב‑AI לפחות פעם בחודש, 86 אחוזים מציינים שהסיבה המרכזית היא להבין חומר לימוד מורכב. כמעט מחצית מהם מגדירים זאת כחשוב מאוד. רק אחר כך מגיעים מניעים כמו חיסכון בזמן, שיפור ציונים או הכנה לקריירה. במילים אחרות, עבור רבים ה‑AI מתפקד כמורה פרטי זמין בכל שעה: מסביר מחדש מושגים, מפשט טקסטים, נותן דוגמאות נוספות או עוזר לבדוק אם הבינו נכון.

 

שימוש ב‑AI להבנת חומר לימוד מורכב

שימוש ב‑AI להבנת חומר לימוד מורכב

 

מנגד, מי שנמנעים משימוש בכלים הללו עושים זאת בעיקר מסיבה אחת: אתיקה. כ‑74 אחוזים מהנמנעים רואים בשימוש ב‑AI סוג של רמאות או בעיה מוסרית, ו‑68 אחוזים מציינים את כללי המוסד כסיבה מרכזית להימנעות. רק 14 אחוזים אומרים שהם לא משתמשים כי הם לא יודעים איך.

 

הסיבות המרכזיות להימנעות משימוש ב‑AI

הסיבות המרכזיות להימנעות משימוש ב‑AI

איך זה עובד בפועל ומה חסר?

המחקר לא נכנס לעומק של יוזמות פדגוגיות ספציפיות, אבל הוא כן מצביע על דפוס ברור: הסטודנטים כבר משלבים את ה‑AI בכל שלבי הלמידה, משלב ההבנה הראשונית ועד פתרון תרגילים ובדיקת תשובות. מה שחסר הוא השכבה שמעל, זו שאמורה למסגר את השימוש ולהגדיר מה מותר ומה אסור.

 

למשל, מותר להשתמש ב‑AI כדי להסביר מושגים, אבל אסור להגיש טקסט שנוצר אוטומטית כעבודה מקורית. בנושא השקיפות עולה השאלה האם צריך לציין בעבודה שהשתמשו ב‑AI, איך לעשות זאת ובאיזה פורמט.

 

בנוגע לכלים ביקורתיים, נדרש ללמד איך לזהות טעויות, הטיות או המצאות של המודל, ואיך להימנע מתלות בו. כאן נמצא אחד הפערים המרכזיים בדוח: הוא מתאר היטב את ההתנהגות והתחושות של הסטודנטים, אבל פחות מפרט מה עושים המוסדות שמנסים לבנות מדיניות חכמה. זהו אזור שמצריך מחקר משלים, למשל על קורסים שמשלבים במודע עבודה עם מודלים גנרטיביים, או על סילבוסים שמגדירים רמות שונות של שימוש מותר.

מה מיוחד במחקר הזה?

יש לא מעט סקרים על שימוש ב‑AI בחינוך, אבל למחקר של Gallup ו‑Lumina יש כמה יתרונות בולטים:

היקף

כמעט ארבעת אלפים סטודנטים מתארים שונים השתתפו בו, כחלק ממסגרת מחקרית רחבה יותר על מצב ההשכלה הגבוהה.

חיבור למדיניות

הדוח לא מסתפק בשאלה כמה משתמשים, אלא בוחן גם מה המוסד אומר על השימוש, ומציף את הפער בין ההצהרות לבין המציאות בשטח.

מוטיבציות ולא רק תדירות

הוא לא מודד רק כמה פעמים בשבוע משתמשים ב‑AI, אלא גם למה משתמשים ולמה נמנעים.

החידוש האמיתי אינו במספרים עצמם, אלא באופן שבו הם ממסגרים את ה‑AI. הכלים הללו אינם מוצגים כגימיק טכנולוגי או תופעה חולפת, אלא כמרכיב קבוע בחוויית הסטודנט, כזה שמוסדות ההשכלה הגבוהה כבר לא יכולים להרשות לעצמם להתעלם ממנו.

מה זה אומר לתעשייה ולאקדמיה?

המחקר מציג מסר ברור. בינה מלאכותית כבר אינה שאלה עתידית עבור סטודנטים, אלא חלק מהשגרה הלימודית שלהם. לכן, השאלה המרכזית עבור האקדמיה אינה האם לאפשר שימוש ב‑AI, אלא איך למסגר אותו בצורה אחראית ומועילה.

 

עבור מוסדות אקדמיים, המשמעות מעשית:

1. איסור גורף לא עובד. הסטודנטים ימשיכו להשתמש בכלים הללו גם כשהם אסורים, רק ללא הכוונה.

2. מדיניות חייבת להיות קונקרטית. ברמת הקורס, סוג המטלה ואופן הציון, ולא רק הצהרה כללית.

3. הדרכה היא תשתית, לא תוספת. אם AI הוא כלי למידה מרכזי, יש ללמד כיצד לעבוד איתו, לא רק להזהיר מפניו.

 

עבור תעשיית ה‑EdTech וחברות AI, המחקר מסמן הזדמנות לפיתוח כלים שמותאמים לסביבה אקדמית, עם שקיפות, בקרה, תיעוד שימוש ותמיכה מובנית בהוראה.

 

ובסופו של דבר, המחקר מזכיר נקודה פשוטה: הסטודנטים כבר בחרו להשתמש ב‑AI. עכשיו תורם של המוסדות להחליט אם להצטרף לשיחה או להישאר מאחור, בזמן שהלמידה האמיתית מתרחשת במקום אחר.

הפוסט מחתרת ה‑AI בקמפוסים: מה הסטודנטים עושים כשאין מדיניות ברורה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-underground-campuses/feed/ 0
אנטרופיק, גוגל וברודקום במרוץ לתשתיות‑על https://letsai.co.il/anthropic-infrastructure-deal/ https://letsai.co.il/anthropic-infrastructure-deal/#respond Wed, 15 Apr 2026 05:37:41 +0000 https://letsai.co.il/?p=72731 בקיץ של 1996, שני סטודנטים לדוקטורט בסטנפורד הריצו אלגוריתם חיפוש ניסיוני שצרך כל כך הרבה רוחב פס עד שהאוניברסיטה איימה לנתק אותם מהרשת. שני הסטודנטים הללו היו לארי פייג' וסרגיי ברין, והפרויקט שכמעט הקריס את התשתיות של האוניברסיטה לעתיד יקרא Google - חברה שהפכה למעצמת מחשוב עולמית. יש פה סיפור על טכנולוגיה מהפכנית וצמא אדיר […]

הפוסט אנטרופיק, גוגל וברודקום במרוץ לתשתיות‑על הופיע ראשון בLet's AI בינה מלאכותית

]]>
בקיץ של 1996, שני סטודנטים לדוקטורט בסטנפורד הריצו אלגוריתם חיפוש ניסיוני שצרך כל כך הרבה רוחב פס עד שהאוניברסיטה איימה לנתק אותם מהרשת. שני הסטודנטים הללו היו לארי פייג' וסרגיי ברין, והפרויקט שכמעט הקריס את התשתיות של האוניברסיטה לעתיד יקרא Google - חברה שהפכה למעצמת מחשוב עולמית. יש פה סיפור על טכנולוגיה מהפכנית וצמא אדיר לרוחב פס. לכוח חישוב. 30 שנה אחרי, אותה Google חותמת על הסכם לספק 3.5 גיגה-ואט של כוח מחשוב - זה שווה ערך לצריכת החשמל של עיר שלמה. ומי הולך ליהנות מכל כוח החישוב הזה? בצד השני של העסקה תמצאו ענקית אחרת - אנטרופיק. היום נספר לכם על אחת מעסקאות התשתיות הגדולה בתולדות תעשיית ה-AI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כמה זה בעצם 3.5 ג׳יגה־ואט?

רק כדי לסבר את האוזן - 3.5 ג׳יגה־ואט זה מספיק כוח כדי להפעיל שלושה מיליון בתים – הרבה יותר מצריכת החשמל של כל תל אביב וחיפה ביחד. כמעט כל צריכת החשמל של מדינה קטנה כמו קרואטיה. זה בערך כמו שלוש תחנות כוח גרעיניות, שני סכרי הובר, או שטח בגודל של עיר שמכוסה בעשרה מיליון פאנלים סולאריים. ואם תרצו - זה מקביל לבערך חמישית מכל החשמל שכל הדאטה-סנטרים בארה"ב צורכים כיום – וכל זה רק בשביל חברה אחת!

העסקה בין אנטרופיק, גוגל וברודקום

ההסכם שהוכרז בתחילת אפריל מעמיק שותפות קיימת בין אנטרופיק ל-Google Cloud. כבר באוקטובר 2025 חתמו השתיים על עסקה שהביאה יותר מגיגה-ואט אחד של כוח מחשוב לשימוש אנטרופיק. העסקה החדשה מרחיבה את היקף התשתית ל-3.5 גיגה-ואט והיא מתבססת על שבבי ה-TPU המהפכניים של גוגל. אלו שבבי Tensor Processing Unit שגוגל תיכננה ו-Broadcom מייצרת. התשתית אמורה להתחיל פעילות כבר ב-2027 וההסכם בין אנטרופיק, גוגל וברודקום ימשך עד 2031.

 

אנחנו לא יודעים מה סכום העסקה המדויק, אבל אנליסטים מעריכים שרק Broadcom תרשום ממנו עשרים ואחד מיליארד דולר ב-2026 וארבעים ושניים מיליארד ב-2027.

 

חשוב לציין - AWS נשארת השותפה העיקרית של אנטרופיק לענן ולאימון. ההסכם עם גוגל וברודקום מצטרף אליו ולא מחליף אותו. למעשה אנטרופיק מאמנת ומריצה את קלוד על מגוון תשתיות חומרה, כולל Trainium של AWS, שבבי TPU של גוגל ומעבדי GPU של Nvidia, מה שמאפשר לה לבחור את השבב המתאים ביותר לכל משימה.

למה אנטרופיק צריכה כל כך הרבה כוח חישוב?

לאחרונה אנטרופיק הודיעה שקצב ההכנסות השנתי שלה (Run Rate Revenue) הגיע ל-30 מיליארד דולר. בסוף 2025 הוא עמד על תשעה מיליארד. זה אומר שבארבעה חודשים הם שילשו את קצב ההכנסות. רק כדי לסבר את האוזן: ל-Salesforce לקח יותר מ-20 שנה להגיע ל-30 מיליארד דולר בהכנסות שנתיות. אנטרופיק עשתה את זה בפחות מ-5 שנים!

 

וגם פה חשוב רגע לעצור ולהבין מה זה Run Rate. זה לא אומר שאנטרופיק הרוויחו שלושים מיליארד. זה אומר שאם ניקח את ההכנסות של החודש האחרון ונכפיל אותן בשנים עשר, נגיע לשלושים מיליארד. זה מדד שמשקף מומנטום, ולא בהכרח כסף בבנק. אבל הוא מצביע על מגמה!

 

עוד נתון מעניין: יותר מ-1000 לקוחות עסקיים משלמים לאנטרופיק מעל מיליון דולר בשנה. המספר הזה הוכפל תוך פחות מחודשיים. לפני שנתיים? היו שנים עשר לקוחות כאלה. שמונה מתוך עשר החברות הגדולות ביותר בארצות הברית - Fortune 10 - הם לקוחות משלמים. ולפי נתונים של Ramp, אנטרופיק מצליחה לנגוס ביותר משבעים ושלושה אחוז מכלל ההוצאה של חברות שקונות כלי AI בפעם הראשונה. OpenAI? רק עשרים ושבעה אחוז. לא סתם סם אלטמן הכריז שהיעד הבא הוא שוק האנטרפרייז, אחרי שהם הזניחו את הפלח הזה במשך 3 שנים, ואיפשרו לאנטרופיק להפוך למפלצת!

התחרות מול OpenAI

ומה לגבי התחרות? מסתבר שאנטרופיק עקפה את OpenAI בהכנסות. כן, שמעתם נכון. OpenAI עומדת על עשרים וארבעה מיליארד דולר Run Rate. אנטרופיק על שלושים. ל-OpenAI יש אולי 900 מיליון משתמשים שבועיים ב-ChatGPT, אבל זה לא בהכרח מתורגם ליותר כסף. איך מסבירים את זה?

 

בניגוד ל-OpenAI, באנטרופיק לא הימרו על צרכנים פרטיים, אלא על ארגונים. הם לא בנו מודל וידאו, לא השקיעו במחולל תמונות ולא הסיטו כספים לפרוייקטי צד נוצצים, אך פחות רווחיים. הם נשארו ממוקדי מטרה - מוצר יציב, אמין, חזק, חכם, שמצטיין בתחום סופר נישתי! זו הסיבה ששמונים וחמישה אחוז מההכנסות של אנטרופיק מגיעים מלקוחות עסקיים ומ-API.

 

והנה הפאנץ': OpenAI צופה הפסדים של ארבעה עשר מיליארד דולר ב-2026. יקחו לה עוד כמה שנים עד שתהפוך לרווחית. לעומתה - אנטרופיק צופה שהיא תגיע לתזרים חיובי כבר ב-2027. מטורף!

אחת מחברות הטכנולוגיה החשובות בהיסטוריה?

השורה התחתונה? המספרים של אנטרופיק אמיתיים, אבל הם לא הסיפור השלם. מאחורי צמיחה מטורפת יש שריפת מזומנים אגרסיבית, הימור על תשתיות ענק על שבבים מתקדמים, ותלות בתרחיש שבו עולם ה-AI ממשיך לצמוח בקצב הנוכחי. יש סיבות רבות להעריך שזה גם מה שיקרה. ואם המומנטום הזה יימשך, אין ספק שהם בדרך להיות אחת מחברות הטכנולוגיה החשובות בהיסטוריה. אבל אם המומנטום יעצר - הסיפור יהיה אחר לגמרי. כי במרוץ ה-AI אין באמת אפשרות להיות על ניוטרל - יש רק פול גז, או התרסקות!

הפוסט אנטרופיק, גוגל וברודקום במרוץ לתשתיות‑על הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-infrastructure-deal/feed/ 0
Claude נכנס ל-Word והופך לחלק טבעי מהמסמך עצמו https://letsai.co.il/claude-word-integration/ https://letsai.co.il/claude-word-integration/#respond Tue, 14 Apr 2026 04:59:26 +0000 https://letsai.co.il/?p=72677 במשך שנים, העבודה עם מסמכים מקצועיים הייתה כרוכה ברצף פעולות שחוזרות על עצמן. עורכי דין עברו בין גרסאות, יועצים ניהלו טיוטות במייל, וחוקרים אקדמיים התמודדו עם עשרות הערות שוליים. גם כשהבינה המלאכותית נכנסה לחיינו, היא נשארה מחוץ למסמך. כדי לערוך, לשכתב או לסכם, היינו צריכים להעתיק טקסט לדפדפן, לקפוץ ל‑ChatGPT, להדביק בחזרה ולנסות לשמור על […]

הפוסט Claude נכנס ל-Word והופך לחלק טבעי מהמסמך עצמו הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשך שנים, העבודה עם מסמכים מקצועיים הייתה כרוכה ברצף פעולות שחוזרות על עצמן. עורכי דין עברו בין גרסאות, יועצים ניהלו טיוטות במייל, וחוקרים אקדמיים התמודדו עם עשרות הערות שוליים. גם כשהבינה המלאכותית נכנסה לחיינו, היא נשארה מחוץ למסמך. כדי לערוך, לשכתב או לסכם, היינו צריכים להעתיק טקסט לדפדפן, לקפוץ ל‑ChatGPT, להדביק בחזרה ולנסות לשמור על עיצוב שלא תמיד שרד את הדרך. Claude for Word משנה את המשוואה הזו. התוסף החדש של Anthropic מביא את Claude ישירות לתוך מסמכי Microsoft Word. לא עוד מעבר בין חלונות ולא עוד העתקה והדבקה. מסמנים טקסט, מתארים את השינוי הרצוי ומקבלים אותו כ‑Tracked Change מקורי של Word, כאילו עורך אנושי עבר על המסמך.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הרעיון של AI בתוך כלי העבודה

גוגל כבר משלבת את Gemini ישירות ב‑Docs, Sheets ו‑Slides, ומיקרוסופט עושה זאת ב‑Microsoft 365 Copilot, שמובנה עמוק בתוך Word, Excel ו‑PowerPoint.

 

Claude for Word מצטרף למגמה הזו והוא לא עומד לבדו. Anthropic השיקה לא מזמן גם את Claude for Excel ואת Claude for PowerPoint, מה שהופך את Word רק לאחת מהנקודות שבהן Claude נכנס פנימה. זה מהלך רחב שבו Claude הופך לחלק טבעי מהאקוסיסטם של Office, לא כתוסף צדדי אלא כשותף עבודה שמבין את ההקשר, את הנתונים ואת המבנה של כל מסמך.

 

החידוש כאן אינו בעצם הרעיון אלא באופן שבו Anthropic מיישמת אותו. במקום לבנות סביבת עבודה חדשה, היא בוחרת להשתלב בכלים שהעולם כבר משתמש בהם. במקום להציע מערכת חלופית, היא נכנסת אל תוך Word, Excel ו‑PowerPoint, המקומות שבהם מתבצעת העבודה הקריטית ביותר של ארגונים.

הבעיה: AI שלא מדבר את השפה של מסמכים מקצועיים

למרות ההתקדמות המהירה של מודלים ג'נרטיביים, רובם עדיין לא משתלבים בתהליכי העבודה האמיתיים של ארגונים. הם מייצרים טקסט חדש במקום לערוך את הקיים, מאבדים עיצוב ומבנה ולעיתים משנים יותר ממה שהתבקשו. עבור מי שעובד עם חוזים, דוחות כספיים, מסמכי מדיניות או מחקרים אקדמיים, זה חסם משמעותי.

 

הפער הזה יצר מצב שבו AI היה כלי חיצוני. הוא היה חזק, אבל לא חלק מהתשתית. הוא ידע לכתוב, אבל לא לשמור על עקביות. הוא ידע לסכם, אבל לא לעבוד עם תגובות. ובעיקר, הוא לא ידע להציג עריכות כ‑Tracked Changes, יכולת בסיסית בעולם שבו כל שינוי חייב להיות שקוף.

בינה מלאכותית שנכנסת אל תוך Word

Claude for Word נבנה בדיוק סביב הפער הזה. הוא לא מבקש להחליף את Word אלא להעצים אותו. הוא לא מייצר טקסט חדש אלא עורך את הקיים, והוא לא מסתיר את עבודתו אלא מציג כל שינוי באופן טבעי, כאילו עורך אנושי עבר על המסמך.

עריכה שקופה לחלוטין

כל שינוי מופיע כ‑Tracked Change, וניתן לאשר, לדחות או להשוות אותו דרך כלי הבקרה המובנים של Word.

 

Claude מסכם ומציג שינויים במסמך משפטי

Claude מסכם ומציג שינויים במסמך משפטי | Microsoft

שמירה מלאה על עיצוב ומבנה

 כותרות, בולטים, מספור, הפניות וסגנונות נשמרים כפי שהם, כך שהמסמך לא מאבד את הצורה המקורית שלו.

עבודה עם תגובות

Claude קורא תגובות, מבין את ההקשר, עורך את הטקסט המעוגן ומשיב בשרשור, בדיוק כמו עורך אנושי שממשיך את השיחה בתוך המסמך.

 

Claude מגיב להערות, מבצע עריכות ומסביר את ההיגיון מאחוריהן

Claude מגיב להערות כמו עורך אנושי | Microsoft

שיחה רציפה בין Word, Excel ו‑PowerPoint

כאן נכנסת לתמונה העובדה ש‑Claude אינו מוגבל ל‑Word. ניתוח נתונים ב‑Excel, כתיבת מזכר ב‑Word ויצירת מצגת ב‑PowerPoint יכולים להתבצע בשיחה אחת רציפה. Claude זוכר את ההקשר, את הנתונים ואת ההנחיות ומעביר אותם בין הכלים ללא צורך בהעתקה או מעבר בין חלונות.

תהליכי עבודה חוזרים

Skills הם אחת היכולות המשמעותיות ביותר של Claude for Word, במיוחד עבור צוותים שעובדים עם מסמכים מורכבים וחוזרים על אותם תהליכים שוב ושוב. במקום לנסח מחדש הוראות בכל פעם, או להסתמך על זיכרון אישי של עובדים שונים, Skills מאפשרים לשמור תהליך עבודה כמתכון קבוע שכל חבר צוות יכול להריץ בלחיצה אחת.

 

בפועל, Skill הוא רצף הנחיות שמגדיר איך Claude צריך לעבוד על מסמך מסוים: מה לבדוק, מה לשכתב, אילו סעיפים חשובים, ואיך להציג את התוצאות. התהליך נשמר כיחידה אחת, כך שכל מי שמריץ אותו מקבל תוצאה עקבית, מדויקת ואחידה - ללא תלות בניסיון או בסגנון האישי שלו.

 

המשמעות הארגונית ברורה: פחות טעויות, פחות חיכוך, פחות זמן מבוזבז על הסברים חוזרים, והרבה יותר עקביות בין עובדים וצוותים.

דוגמאות לתהליכי עבודה שנשמרים כ‑Skills

  • סקירת חוזה: Claude בודק סעיפי שיפוי, הגבלת אחריות והתיישנות, מאתר חריגות ומציג אותן כ‑Tracked Changes עם הסבר ברור.

  • מזכר סטטוס: הפקת סיכום שבועי מתוך מסמכי מקור, כולל זיהוי נקודות מפתח, החלטות פתוחות ומשימות להמשך.

  • תדרוך מחקרי: יצירת Brief מתוך דוח שנתי תוך שליפה של נתונים רלוונטיים והצגת תובנות מרכזיות.

  • תרגום מקצועי: שמירה על מונחים ייחודיים, אחידות ניסוחים ודיוק רגולטורי בתרגום מסמכים.

  • QA רגולטורי: בדיקת תאימות לסטנדרטים, איתור הפניות שבורות, זיהוי מונחים לא עקביים והצעת תיקונים.

Skills הופכים את Claude לכלי צוותי אמיתי. במקום שכל עובד יפתח שיטות עבודה משלו, הארגון מגדיר תהליכים ברורים, ו‑Claude מבצע אותם בצורה עקבית, שקופה ומבוקרת.

תהליך ההתקנה

1. כדי להתחיל לעבוד עם Claude for Word יש לוודא שיש לכם חשבון Claude Team או Claude Enterprise.

2. לאחר מכן נכנסים ל‑Microsoft Marketplace ומתקינים את התוסף.

3. עם סיום ההתקנה מופיע סרגל צד חדש בתוך Word. לוחצים על אייקון Claude, מתחברים עם החשבון שלכם ומתחילים לעבוד.

משם התהליך אינטואיטיבי - מסמנים טקסט ומבקשים קיצור, שכתוב או שינוי טון, משאירים תגובה ו‑Claude עונה ומבצע את העריכה, פותחים תבנית ו‑Claude כותב בתוכה תוך שמירה על הסגנון, או מריצים Skill לקבלת תהליך עבודה מלא. החוויה מזכירה עבודה עם עורך מקצועי שיושב לידכם ומפנה זמן לחשיבה עמוקה יותר.

 

תוסף רשמי המותקן ישירות מתוך סביבת Office

תוסף רשמי המותקן ישירות מתוך סביבת Office

אבטחה ותאימות ארגונית

Claude for Word תוכנן לעמוד בדרישות האבטחה של ארגונים גדולים. הוא מאפשר התחברות באמצעות חשבון Claude או דרך ספק ענן קיים באמצעות SSO, ופועל בתוך מסגרת ה‑Compliance של הארגון ללא צורך בפתרונות עוקפים. Anthropic אינה מאמנת את המודלים שלה על תוכן ארגוני, כך שהמידע נשאר בבעלות הלקוח ואינו משמש לשיפור המודל. בנוסף, התוסף עומד בתקן SOC 2 Type II, שמבטיח רמת אבטחה גבוהה לכל תהליך העבודה.

כך נראה העתיד של עבודה עם מסמכים

Claude for Word אינו המצאה של רעיון חדש. גוגל ומיקרוסופט כבר הוכיחו שהטמעת בינה מלאכותית בתוך כלי העבודה היא כיוון נכון ומתבקש. החידוש של Anthropic נמצא באופן היישום - התאמה מדויקת לעולם שבו Word, Excel ו‑PowerPoint הם עדיין הכלים המרכזיים ליצירה, עריכה ובקרה של מסמכים מקצועיים.

 

משרדי עורכי דין, רואי חשבון, חברות ייעוץ, חברות תוכנה, אקדמיה ומשרדי ממשלה מוצאים בתוסף כלי שמאפשר עבודה מדויקת, עקבית ושקופה. הוא משתלב בתהליכי העבודה הקיימים ומפחית את החיכוך שנלווה לעריכה, שכתוב ובקרה של מסמכים מורכבים.

 

המעבר של AI אל תוך Word, Excel ו‑PowerPoint מסמן שינוי עמוק. במקום כלי חיצוני, הוא הופך לחלק מהתשתית. במקום תוספת, הוא הופך לשכבת עבודה. במקום להחליף את האדם, הוא מאפשר לו להתמקד במהות.

 

זה צעד נוסף בדרך לעולם שבו בינה מלאכותית אינה רק עוזרת, אלא הופכת ממש לחלק מהמרקם היומיומי של העבודה.

הפוסט Claude נכנס ל-Word והופך לחלק טבעי מהמסמך עצמו הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-word-integration/feed/ 0
חבילת Pro החדשה של ChatGPT: מנוי ל-Power Users https://letsai.co.il/newprochatgpt/ https://letsai.co.il/newprochatgpt/#respond Mon, 13 Apr 2026 08:01:21 +0000 https://letsai.co.il/?p=72694 הההבדל בין גרסאות של ChatGPT כבר לא נמדד רק ביכולות, אלא בכמות העבודה שאתם יכולים לבצע בפועל. החבילה החדשה, Pro, מדגישה בדיוק את הנקודה הזו, ומסמנת שינוי עמוק באופן שבו משתמשים בכלי. במקום לשאול מה המערכת יודעת לעשות, השאלה המרכזית הופכת להיות כמה רחוק אפשר לקחת את השימוש בה לפני שמגיעים למגבלות. זה מעבר מתפיסה […]

הפוסט חבילת Pro החדשה של ChatGPT: מנוי ל-Power Users הופיע ראשון בLet's AI בינה מלאכותית

]]>
הההבדל בין גרסאות של ChatGPT כבר לא נמדד רק ביכולות, אלא בכמות העבודה שאתם יכולים לבצע בפועל. החבילה החדשה, Pro, מדגישה בדיוק את הנקודה הזו, ומסמנת שינוי עמוק באופן שבו משתמשים בכלי. במקום לשאול מה המערכת יודעת לעשות, השאלה המרכזית הופכת להיות כמה רחוק אפשר לקחת את השימוש בה לפני שמגיעים למגבלות. זה מעבר מתפיסה של כלי עזר נקודתי, למערכת עבודה שמלווה תהליכים שלמים לאורך זמן בהיקפים גדולים, וללא עצירות תכופות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

אם בעבר שירותים דיגיטליים התחרו בעיקר על פיצ’רים, היום התחרות עברה למקום אחר. לא רק מה המערכת יודעת לעשות, אלא כמה זמן, כמה פעמים ובאיזו רציפות ניתן להשתמש בה. במקרה של ChatGPT, המעבר הזה בולט במיוחד. החבילות השונות כבר אינן נבדלות רק ביכולות, אלא בהיקף העבודה שהן מאפשרות בפועל.

 

החבילות של ChatGPT

החבילות של ChatGPT ומנוי פרו המוגדל

 

מה כוללת חבילת Pro?

חבילת פרו כוללת מספר שדרוגים שווים במיוחד:

 

גישה רחבה יותר לאותם כלים

חבילת Pro אינה משנה באופן מהותי את סט היכולות של ChatGPT Plus, אלא מרחיבה את הגישה אליהן. המשתמשים מקבלים את אותם כלי עבודה עם קבצים, יצירת תוכן, ניתוח מידע, שימוש במודלים מתקדמים, אך עם פחות מגבלות שמגבילות את קצב העבודה. השינוי בא לידי ביטוי בכך שניתן להשתמש במה שכבר קיים בצורה אינטנסיבית יותר.

 

הגדלה משמעותית של מכסת השימוש

כאן נמצא ההבדל המרכזי בין החבילות: במסלול שמתחיל סביב 100 דולר לחודש, היקף השימוש גדל פי 5 לעומת Plus במסלול רחב יותר, שמגיע לכ-700 ש"ח (כ-200 דולר), מדובר כבר על הגדלה של עד פי 20. זהו שינוי כמותי, אך ההשפעה שלו איכותית. יותר בקשות, יותר הרצות של משימות, פחות עצירות. עבור משתמשים כבדים, המשמעות היא רצף עבודה שלא נקטע כל כמה שעות או בקשות.

 

 

 

במסלול זה יש אפשרות ל- פי 5 יותר שימוש בהשוואה ל-Plus.

במסלול זה יש אפשרות ל- פי 5 יותר שימוש בהשוואה ל-Plus.

 

במסלול רחב יותר, שמגיע לכ-700 ש"ח (כ-200 דולר), מדובר כבר על עד פי 20 יותר שימוש.

 

במסלול רחב יותר, מדובר כבר על עד פי 20 יותר שימוש.

במסלול רחב יותר, מדובר כבר על עד פי 20 יותר שימוש.

 

עדיפות תפעולית

בדומה לשירותים בתשלום בתחומים אחרים, גם כאן קיימת עדיפות בגישה למשאבים. משתמשי Pro נהנים מזמינות גבוהה יותר, פחות עומסים, וזמני תגובה יציבים יותר. כאשר הכלי הופך לחלק מהעבודה היומיומית, הפרטים האלו כבר אינם שוליים, אלא קריטיים.

 

למי זה מתאים?

החבילה הזו יכולה להתאים למגוון משתמשים וצרכים:

 

1) משתמשים כבדים

אם אתם עובדים עם ChatGPT לאורך היום, כותבים, מנתחים, מפתחים או בונים תהליכים - ההבדל בין Plus ל-Pro הופך משמעותי. לא בגלל תכונה חדשה, אלא בגלל היכולת להמשיך לעבוד בלי להיתקל בתקרות שימוש.

 

2) אנשי מקצוע וצוותים קטנים

עבור אנשי שיווק, יוצרי תוכן, יזמים ומפתחים, החבילה מאפשרת מעבר מעבודה נקודתית לעבודה שיטתית. במקום לחשוב על מגבלות, אפשר לבנות תהליכים שלמים שמבוססים על הכלי.

 

3) מי שלא נתקל במגבלות השימוש לא בהכרח זקוק לשדרוג

חשוב לדייק: לא כל משתמש צריך את זה. מי שמשתמש ב-ChatGPT באופן מזדמן, או למשימות נקודתיות, ככל הנראה לא ירגיש הבדל מהותי. הערך של Pro נוצר רק כאשר המגבלות מתחילות להפריע בפועל.

 

כמה זה עולה?

חבילת Pro מגיעה בכמה רמות שימוש. בכ-310 ש"ח לחודש מתקבלת הגדלה של פי 5 בהיקף השימוש. בכ-700 ש"ח לחודש מדובר כבר על פי 20. ההבדל אינו ביכולות, אלא בכמות העבודה שניתן לבצע לפני שמגיעים למגבלות.

 

מנוי פרו ב-CHATGPT

מתלבטים איזו חבילה לבחור?

 

האם OpenAI משנים כיוון?

המודל הזה מצביע על שינוי עמוק יותר, ChatGPT הופך לכלי עבודה קבוע. השאלה כבר אינה מה הוא יודע לעשות, אלא כמה רחוק אפשר לקחת את השימוש בו בפועל. כמו כן, התזמון כאן לא מקרי: אנטרופיק (Anthropic) מצליחה למשוך יותר ויותר משתמשים כבדים בזכות מודלים שמרגישים יציבים, מדויקים ונוחים לעבודה ממושכת. בתוך המציאות הזו, OpenAI לא מנסה רק לשפר יכולות - אלא משנה את חוקי המשחק. במקום להתחרות רק ברמת הביצועים, היא מתמקדת בהיקף העבודה שהמשתמש יכול להוציא בפועל. זו כבר לא השוואה טכנית בין מודלים, אלא ניסיון להגדיר מחדש מה הופך כלי ל"שימושי" יותר, כזה שאפשר לעבוד איתו לאורך זמן, בלי לעצור ובלי לחשב כל פעולה.

 

הפוסט חבילת Pro החדשה של ChatGPT: מנוי ל-Power Users הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/newprochatgpt/feed/ 0
סאם אלטמן מדבר על סייבר, ביו‑סיכונים והכלכלה הבאה https://letsai.co.il/sam-altman-axios-interview/ https://letsai.co.il/sam-altman-axios-interview/#respond Mon, 13 Apr 2026 05:37:00 +0000 https://letsai.co.il/?p=72663 יש רגעים שבהם מנכ״ל של חברת טכנולוגיה מפסיק לדבר על מוצרים ומתחיל לדבר על מציאות. רגעים כאלה נדירים, ובדרך כלל מופיעים כשהטכנולוגיה עצמה מתחילה לחרוג מהמסגרת שהגדירה אותה. כך נשמע הראיון של סם אלטמן ל‑Axios: לא עוד שיחה על מודלים חדשים, אלא ניסיון כן וכמעט דחוף להסביר שהשינוי הבא כבר כאן והוא גדול בהרבה ממה […]

הפוסט סאם אלטמן מדבר על סייבר, ביו‑סיכונים והכלכלה הבאה הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש רגעים שבהם מנכ״ל של חברת טכנולוגיה מפסיק לדבר על מוצרים ומתחיל לדבר על מציאות. רגעים כאלה נדירים, ובדרך כלל מופיעים כשהטכנולוגיה עצמה מתחילה לחרוג מהמסגרת שהגדירה אותה. כך נשמע הראיון של סם אלטמן ל‑Axios: לא עוד שיחה על מודלים חדשים, אלא ניסיון כן וכמעט דחוף להסביר שהשינוי הבא כבר כאן והוא גדול בהרבה ממה שאנחנו נוטים להכיר. אלטמן לא מדבר על עתיד רחוק. הוא מדבר על שנה מהיום. על כלכלה שעומדת להשתנות מהיסוד. על מתקפות סייבר שיכולות לשתק מדינות. על ביו-סיכונים שאינם תיאורטיים. ועל הצורך לעצב מחדש את כללי המשחק של עידן האינטליגנציה. זה סיפור על מנכ״ל שמביט קדימה ורואה הזדמנות שמחייבת גם אחריות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

“העתיד ממשיך להגיע אלינו מהר” 

בכל אחד מקטעי הראיון אלטמן חוזר על תחושת דחיפות כמעט היסטורית. הוא משווה את הרגע הנוכחי לעידן הפרוגרסיבי ולניו דיל, תקופות שבהן ממשלות נאלצו להתערב עמוקות כדי להתאים את הכלכלה למציאות חדשה. אלא שהפעם, הוא אומר, השינוי מהיר בהרבה.

 

וחשוב לציין, אלטמן אינו מנכ״ל שמזוהה בדרך כלל עם גישת "safety first". רוב הקריירה שלו הובילה קו שמדגיש התקדמות מהירה, ולכן העובדה שהוא מדבר כעת על סיכונים ועל צורך בהיערכות רק מחדדת את גודל הרגע.

 

המודלים הנוכחיים כבר מכפילים פי שניים עד שלושה את תפוקת מהנדסי התוכנה ויוצרי הידע. הדור הבא, לדבריו, יהיה קפיצה נוספת שמחדדת מחדש את השאלה מהי בכלל אינטליגנציה כללית. יש חוקרים שלדעתו כבר מאמינים שהגענו לשם, ואחרים סבורים שאנחנו קרובים מספיק כדי שההגדרה המדויקת תתחיל להיות משמעותית.

 

המסר שלו ברור: אנחנו עומדים על סף שינוי עמוק, והזמן שנותר להיערך קצר.

מתקפות סייבר, ביו-סיכונים ומאבק גיאו-פוליטי

אחד הרגעים החזקים בראיון היה גם אחד הישירים ביותר. כשנשאל האם מתקפת סייבר הרסנית אפשרית בשנה הקרובה, אלטמן לא התחמק ואמר: "אני חושב שזה לגמרי אפשרי". הוא מסביר שהדור הבא של המודלים יאפשר יכולות התקפיות שלא היו קיימות בעבר, ושזהו איום שממשלות וארגונים צריכים להיערך אליו כבר עכשיו.

 

אלטמן מזהיר גם מהאפשרות שקבוצות טרור ינצלו מודלים מתקדמים ליצירת פתוגנים חדשים (נגיפים או חיידקים שלא קיימים בטבע או שלא היו מוכרים בעבר). היכולת הזו, הוא אומר, כבר אינה תרחיש תיאורטי או שלא תהיה כזו עוד זמן רב. המשמעות היא שבינה מלאכותית הופכת לכלי ביולוגי שיכול לשמש גם למחקר רפואי, אבל גם לפגיעה באנושות.

 

בראיון נוסף במסגרת אותה סדרת ראיונות, אלטמן קורא להקמת קואליציה גלובלית בהובלת ארצות הברית שתבטיח שחזון דמוקרטי ל‑AI יגבר על חזון סמכותני. הוא מביע אכזבה מהקצב שבו וושינגטון פועלת ומזהיר שהפער מול סין עלול להפוך לקשה לסגירה.

מדיניות לעידן האינטליגנציה

במקביל לראיון, OpenAI פרסמה מסמך מדיניות בן שלושה עשר עמודים בשם Industrial Policy for the Intelligence Age. זה ניסיון נדיר מצד חברת טכנולוגיה להציע מודל כלכלי חדש לעידן שבו מכונות מסוגלות לבצע חלק גדול מהעבודה האנושית.

 

במסמך מוצגות כמה הצעות מרכזיות כמו מס על עבודה אוטומטית, קרן עושר לאומית שתשקיע בחברות AI ותחלק דיבידנדים לאזרחים, שבוע עבודה של שלושים ושתיים שעות, מנגנוני רשת ביטחון אוטומטיים בעת עלייה באבטלה ותיקי בלימה למקרה שמערכות מסוכנות יהפכו אוטונומיות.

 

אלטמן מדגיש שהמסמך אינו תכנית סופית אלא נקודת פתיחה לדיון ציבורי רחב. עצם פרסומו מעיד על עומק השינוי שהוא צופה ועל הצורך להתחיל לעצב כללים חדשים לעידן האינטליגנציה.

מה מנכ״לים צריכים לעשות עכשיו: שלושה צעדים ברורים

להתחיל קטן

פיילוטים ממוקדים מאפשרים לארגון ללמוד את הטכנולוגיה בלי סיכון מיותר ולזהות במהירות היכן היא מייצרת ערך אמיתי.

להשקיע בכישרון

ללא מדעני נתונים ומהנדסי AI מיומנים, ארגונים יתקשו להטמיע את הכלים החדשים ולהפיק מהם תועלת. אלטמן מדגיש שהיכולת האנושית להפעיל את המערכות חשובה לא פחות מהמערכות עצמן.

לטפח תרבות ניסוי

אלטמן מציין שארגונים חייבים לאפשר ניסוי וטעייה כדי להאיץ חדשנות. רק סביבה שמעודדת התנסות תאפשר לארגון להבין במהירות מה עובד, מה לא, ואיך להתקדם.

תמחור העתיד ו-AI כתשתית בסיסית

אחד הרעיונות הבולטים שאלטמן מציג הוא מודל תמחור עתידי לבינה מלאכותית. הוא צופה שבעתיד AI יימכר כמו מים או חשמל, כתשתית בסיסית שמחויבים עליה לפי צריכה בפועל באמצעות מונה.

 

המשמעות היא רחבה - בינה מלאכותית עוברת ממוצר פרימיום לשירות תשתית, המודל העסקי מתבסס על נפח שימוש ולא על מנוי, וארגונים ינהלו תקציב צריכת AI בדומה לאופן שבו הם מנהלים תקציב ענן. שינוי כזה מחייב חשיבה מחדש על תפעול, עלויות ויעילות.

מדיניות ציבורית: בין ביטחון לאומי לכלכלה חדשה

ביטחון לאומי

היערכות למתקפות סייבר מתקדמות ולביו-סיכונים הופכת לצורך מיידי, במיוחד כשהיכולות של מודלים מתקדמים עולות במהירות.

תחרות גיאו פוליטית

אלטמן מציין שארצות הברית חייבת להוביל קואליציה דמוקרטית שתעצב את עתיד ה‑AI, כדי למנוע יתרון טכנולוגי של סין ולשמור על איזון גלובלי.

שוק העבודה

המודלים הנוכחיים כבר מכפילים פרודוקטיביות, והדורות הבאים יעמיקו את השינוי. מכאן נובע הצורך ברשתות ביטחון, במנגנוני מיסוי חדשים ובחלוקת עושר רחבה יותר, כדי להתאים את הכלכלה למציאות שבה חלק גדול מהעבודה מתבצע על ידי מכונות.

רגע של אחריות

הראיון של סם אלטמן ל‑Axios הוא לא עוד שיחה על טכנולוגיה. זה ניסיון להתריע, לכוון ולשרטט מסגרת פעולה לעידן שבו בינה מלאכותית אינה רק כלי, אלא כוח כלכלי, פוליטי וחברתי שמתקדם בקצב מהיר מהצפוי. אלטמן מציב בפני ממשלות ועסקים מסר כפול: ההזדמנות גדולה, אך גם האחריות. והעתיד, כפי שהוא אומר, מגיע מהר לכיווננו.

הפוסט סאם אלטמן מדבר על סייבר, ביו‑סיכונים והכלכלה הבאה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/sam-altman-axios-interview/feed/ 0
גוגל מחברת את החלקים ומשיקה מחברות בתוך Gemini https://letsai.co.il/gemini-notebooklm-integration/ https://letsai.co.il/gemini-notebooklm-integration/#respond Sun, 12 Apr 2026 06:01:45 +0000 https://letsai.co.il/?p=72627 גוגל משיקה אינטגרציה מלאה בין Gemini לבין NotebookLM, שמאפשרת לנהל מסמכים, שיחות ומקורות מידע בתוך מחברות משותפות המסונכרנות בזמן אמת. המחברות מאפשרות להעלות עד מאה מקורות, לשייך שיחות לפרויקטים ולעבור בקלות בין Gemini לבין NotebookLM לצורכי מחקר, יצירה וניתוח. העדכון פותר את האתגר של ניהול ידע מפוזר ומייצר סביבת עבודה רציפה שמתאימה לסטודנטים, יוצרים ועסקים. […]

הפוסט גוגל מחברת את החלקים ומשיקה מחברות בתוך Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל משיקה אינטגרציה מלאה בין Gemini לבין NotebookLM, שמאפשרת לנהל מסמכים, שיחות ומקורות מידע בתוך מחברות משותפות המסונכרנות בזמן אמת. המחברות מאפשרות להעלות עד מאה מקורות, לשייך שיחות לפרויקטים ולעבור בקלות בין Gemini לבין NotebookLM לצורכי מחקר, יצירה וניתוח. העדכון פותר את האתגר של ניהול ידע מפוזר ומייצר סביבת עבודה רציפה שמתאימה לסטודנטים, יוצרים ועסקים. ההשקה מתחילה בגרסת האינטרנט ותתרחב בהמשך למובייל ולמשתמשים חינמיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

עומס מידע, שיחות מפוזרות והקשר שנעלם

מי שעבד עם מודלי שיחה מכיר היטב את הבעיה. מתחילים פרויקט, פותחים שיחה, מעלים מסמך, ממשיכים לשיחה אחרת, חוזרים שבוע אחרי והכל מתערבב. המידע מפוזר בין צ׳אטים, קבצים, הערות וקישורים. שום דבר לא נשמר בהקשר הנכון, ושום כלי לא באמת יודע מה עשיתם קודם.

 

NotebookLM פתר חלק מהאתגר בכך שאיפשר להעלות מקורות ולבנות סביבם מחקר מסודר. Gemini פתר חלק אחר, כמו ניסוח, יצירתיות ושיחה חופשית. אבל שני הכלים לא תקשרו באופן מלא זה עם זה. ככל שהשימוש בבינה מלאכותית עבר משאלות קצרות לפרויקטים אמיתיים כמו לימודים למבחנים, עבודות אקדמיות, תחקירים, קמפיינים, תכנון מוצרים או הכשרת עובדים, הפער הזה הפך למשמעותי יותר.

 

 

מחברות בתוך Gemini, מסונכרנות עם NotebookLM

העדכון החדש מוסיף ל‑Gemini אזור מחברות שמאפשר לנהל פרויקטים בצורה מסודרת ורציפה. המחברות משמשות כמאגרי ידע אישיים המשותפים בין מוצרי גוגל, מתחילים ב‑Gemini ומסתנכרנים אוטומטית עם NotebookLM.

 

מבט על המחברות בג׳מיני: כל הפרויקטים במקום אחד

מבט על המחברות בג׳מיני: כל הפרויקטים במקום אחד

 

מה אפשר לעשות במחברות?

  • לפתוח מחברת חדשה ישירות מתוך Gemini.

  • לצפות במחברות קיימות של NotebookLM מתוך Gemini.

  • להעביר שיחות עבר למחברות כדי לשמור על רצף עבודה.

  • להוסיף מסמכים, PDF וקבצים ישירות למחברת.

  • לתת ל‑Gemini הוראות מותאמות אישית בתוך המחברת.

  • לשייך שיחות קיימות לפרויקט מסוים.

  • להעלות עד מאה מקורות, בהתאם לתוכנית המנוי.

  • ליהנות מסנכרון מלא של מקורות, שיחות ואימוג׳ים.

  • לעבור בלחיצה אחת בין Gemini לבין NotebookLM ולהשתמש ביכולות הייחודיות של כל כלי.

 

יצירת מחברת חדשה בג׳מיני

יצירת מחברת חדשה בג׳מיני

 

המשמעות היא שכל פעולה שאתם עושים - יצירת פתק, העלאת מסמך או שיחה עם המודל - הופכת לחלק מהפרויקט כולו. הכל נשמר, הכל נגיש והכל מחובר.

 

הוספה לתיקייה

הוספה לתיקייה

איך זה עובד בפועל?

המחברת הופכת להיות מרכז הכובד של הפרויקט. לתוכה אפשר להעלות מסמכי PDF, מצגות, קבצי טקסט, הערות, קישורים ושיחות קודמות. Gemini משתמש בכל החומרים האלה כדי לענות בצורה מדויקת יותר, להבין הקשר, להציע רעיונות ולהמשיך עבודה שהתחלתם בעבר.

 

NotebookLM מאפשר לקחת את אותם חומרים ולבצע עליהם פעולות מחקריות עמוקות כמו סיכומים, השוואות, הפקת תובנות, יצירת תסריטים, הפקת פודקאסטים, אינפוגרפיקות ואפילו סרטוני וידאו קולנועיים. הבלוג הרשמי של גוגל מציג דוגמה פשוטה: סטודנט שמעלה למחברת סיכומי שיעור, יוצר ב‑NotebookLM סרטון וידאו שמסביר את החומר, וביום למחרת פותח את Gemini ומבקש ממנו לכתוב מתווה עבודה על בסיס אותם חומרים.

 

זה רצף עבודה שלא היה קיים עד היום בשום כלי בינה מלאכותית אחר.

 

מעבר מהיר בין Gemini ל‑NotebookLM מתוך המחברת

מעבר מהיר בין Gemini ל‑NotebookLM מתוך המחברת

תפיסה חדשה לעבודה עם בינה מלאכותית

האיחוד בין Gemini ל‑NotebookLM מייצג שינוי עמוק באופן שבו גוגל רואה עבודה עם בינה מלאכותית. במקום שני כלים נפרדים, כל אחד עם חוזקות משלו, נוצר מרחב עבודה אחד שבו שיחה, מחקר ומקורות חיים יחד. המשתמש כבר לא צריך לבחור בין כלי יצירתי לכלי מחקרי, משום שהמחברות מאפשרות לשלב את שניהם באותו רצף עבודה.

 

Gemini משתמש במקורות שהעליתם לצד החיפוש של גוגל כדי לספק תשובות מדויקות יותר, ו‑NotebookLM מוסיף יכולות מחקר וניתוח מתקדמות על אותם חומרים. כך נפתרת בעיית ניהול הידע המפוזר, והכלים עובדים יחד בצורה טבעית. גוגל מציינת שהמהלך הזה הוא רק הצעד הראשון, ומתוכננות יכולות נוספות שיחזקו עוד יותר את המערכת המאוחדת.

AI שמבין את הארגון

למרות שהמחברות מתאימות גם לסטודנטים, יוצרים וחוקרים, ההשפעה המשמעותית ביותר עשויה להיות דווקא בארגונים. המחברות מאפשרות לנהל ידע ארגוני בצורה מסודרת, ולתת ל‑AI לעבוד מתוך החומרים האמיתיים של החברה במקום להתחיל כל שיחה מאפס.

דוגמה 1: חברת נדל״ן

העלאת מצגות פרויקטים, שאלות נפוצות, חוזים, בריפים שיווקיים ושיחות קודמות מאפשרת ל‑Gemini לייצר תשובות מדויקות ללקוחות, להפיק תוכן שיווקי, לסכם פגישות ולשמור על אחידות מסרים.

דוגמה 2: צוות מכירות

העלאת סקריפטים, התנגדויות נפוצות, הצעות מחיר וחומרי מוצר מאפשרת לשפר שיחות מכירה, להכשיר עובדים חדשים, ליצור תסריטים מותאמים ולקצר זמני תגובה.

דוגמה 3: מחלקת משאבי אנוש

העלאת נהלים, מסמכי קליטת עובדים, מדריכי הכשרה, שאלות נפוצות פנימיות ומדיניות ארגונית מאפשרת ל‑Gemini לענות על שאלות עובדים, לנסח הודעות פנימיות, להכין חומרי הדרכה ולשמור על עקביות בין מחלקות.

 

בסופו של דבר, ה‑AI עובד מתוך הידע הארגוני עצמו ולא מתוך שיחה ריקה, מה שהופך אותו לכלי יעיל בניהול תהליכים, תקשורת ולמידה בתוך הארגון.

השקה מדורגת למנויים ובהמשך לכולם

המחברות מושקות השבוע למנויי Google AI Ultra, Pro ו‑Plus בגרסת האינטרנט. בשבועות הקרובים הן יגיעו גם למובייל, למשתמשים חינמיים ולמדינות נוספות באירופה. זהו צעד נוסף בדרך לסביבת עבודה שבה הבינה המלאכותית אינה רק כלי עזר, אלא חלק מהתשתית היומיומית של המשתמש.

צעד גדול בדרך לשותף עבודה אמיתי

האינטגרציה בין Gemini ל‑NotebookLM היא הרבה יותר מפיצ׳ר חדש. היא מסמנת שינוי כיוון ברור: גוגל בונה סביבת עבודה שבה הבינה המלאכותית לא רק מגיבה, אלא מבינה הקשר, זוכרת חומרים ומאפשרת עבודה רציפה לאורך זמן. זהו צעד ראשון, אך משמעותי, בדרך למערכת AI שמרגישה פחות כמו צ׳אטבוט ויותר כמו שותף עבודה אמיתי.

הפוסט גוגל מחברת את החלקים ומשיקה מחברות בתוך Gemini הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gemini-notebooklm-integration/feed/ 0
מטא משיקה את Muse Spark: העוזר החכם הבא שלכם בפייסבוק, אינסטגרם והוואטסאפ https://letsai.co.il/muse-spark/ https://letsai.co.il/muse-spark/#respond Sat, 11 Apr 2026 09:49:48 +0000 https://letsai.co.il/?p=72638 בואו נתאר לעצמנו רגע: אתם רוצים לתכנן טיול, להוציא עצה רפואית קטנה, או לכתוב מייל משכנע בעברית. היום הרבה מאיתנו פותחים טאב בפייסבוק כדי לחפש חברה, או נכנסים ל-WhatsApp ותוהים אם אפשר לשאול AI משהו. מטא (Meta) שמעה לזה בדיוק, והשיקה את Muse Spark, עוזר AI חדש שפועל בחינם בכל אפליקציות מטא. אבל זה לא […]

הפוסט מטא משיקה את Muse Spark: העוזר החכם הבא שלכם בפייסבוק, אינסטגרם והוואטסאפ הופיע ראשון בLet's AI בינה מלאכותית

]]>
בואו נתאר לעצמנו רגע: אתם רוצים לתכנן טיול, להוציא עצה רפואית קטנה, או לכתוב מייל משכנע בעברית. היום הרבה מאיתנו פותחים טאב בפייסבוק כדי לחפש חברה, או נכנסים ל-WhatsApp ותוהים אם אפשר לשאול AI משהו. מטא (Meta) שמעה לזה בדיוק, והשיקה את Muse Spark, עוזר AI חדש שפועל בחינם בכל אפליקציות מטא. אבל זה לא מוצר קטן. זה חלק מן-הקסם המהפכני שמטא מתקדמת אליו.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מהו בעצם Muse Spark?

Muse Spark הוא מודל בינה מלאכותית חדש וחזק שמטא פיתחה דרך חטיבה חדשה שלה בשם Meta Superintelligence Labs. אם אתם מכירים את ChatGPT או Claude, זה דומה בעקרון לכלים אלה, אבל בנוי במיוחד לעבודה שלנו בכל מקום: בפייסבוק, באינסטגרם, בוואטסאפ, בפייסבוק מטא, ובמשקפי Ray-Ban החכמים של מטא.

 

המשמעות היא שאתם יכולים לפתוח כל יישום מאלו שציינתי מעלה, ולדבר עם AI בדיוק כמו שתדברו עם חבר. לא צריך ללכת למקום אחר. לא צריך אפליקציה נוספת. זה פשוט שם, וזה עובד בחינם.

 

מה מיוחד בـ Muse Spark? הוא יכול לתפוס הקשר רחב מאוד. בשפה טכנית זה נקרא "חלון הקשר" (Context Window), אבל בעברית פשוטה: הוא יכול להבין שיחה ארוכה מאוד, לקרוא מסמכים ארוכים, ולא לשכוח מה שאמרתם בהתחלה. זה משפיע על איכות התשובות.

איך זה עובד, ולמה זה משמעותי?

בואו ניקח דוגמה קונקרטית. נגיד שאתם במסעדה חדשה בתל אביב ואתם רוצים לדעת מה אפשר להזמין כאן. אתם מצלמים תמונה של המטבח או של המנה, פותחים את Instagram, וכותבים הודעה למטא Muse: "מה הרכב של התבשיל הזה? האם יש בו אגוז?" בתוך שניות, ה-AI מנתח את התמונה ומספר לכם בדיוק מה הוא רואה. זה בדיוק מה שלא היה אפשרי בקלות כמו זה עד עכשיו.

 

ניתוח תמונה

ניתוח תמונה

 

הקסם של Muse Spark הוא בחלוקת העבודה בין כמה סוכנים בו זמנית. כשאתם שואלים משהו מורכב, במקום שסוכן אחד יחשוב לאט, Muse Spark מחלק את המטלה. סוכן אחד חושב על הפרטים, סוכן שני בוחן את התשובה, סוכן שלישי משפר אותה. כל זה קורה בעומק המערכת, וכשאתם רואים את התשובה, היא כבר עברה חשיבה מספר פעמים. זה נקרא "Contemplating Mode" - מצב הרהור. כלומר, מה שלקח יותר זמן או קוד לטובת משימת החישוב. זה חשוב כי זה אומר ש-Muse Spark יכול לעבוד מהר ביותר, ואתם מקבלים תשובה בשניות, לא בדקות.

יתרונות Muse Spark: מה זה עושה בפועל?

  • שאלות רפואיות עם תמונות: אתם רואים משהו על העור שלכם ואתם לא בטוחים. אתם מצלמים, שולחים לMuse, והסוכן נותן מידע רפואי כללי (כמובן, לא תחליף לרופא אנושי). Muse הצליח בבדיקות רפואיות בציונים גבוהים. כלומר, הוא יודע לתת תשובות טובות לגבי בעיות רפואיות, גם עם תמונות. זה לא בדיוק דבר שכל עוזר AI עושה טוב.
  • תכנון טיולים אוטומטי: אתם מדברים ל-Muse: "אני צריך תכנית 3 ימים בפרת׳. יש לי תקציב של 200 דולר, אני אוהב היסטוריה". הסוכנים של Muse עובדים על זה מאחורי הקלעים. כל סוכן בוחן אתר אחר, בודק מחירים, מציע אתרים שונים. בסוף אתם מקבלים תכנית מפורטת עם טיסות, מלונות, ואפילו המלצות על מה לאכול.
  • כתיבה וחשיבה בעברית: אתם צריכים לכתוב הודעה עסקית בעברית, וזה לא בדיוק השפה שלכם. אתם נכנסים ל-WhatsApp, שואלים את Muse, והוא כותב לכם כמה גרסאות. אתם בוחרים, ואתם שולחים. זה פשוט, אבל וואו, כמה שזה עוזר.
  • משקפי Ray-Ban החכמים: אתם לובשים משקפיים, אתם מצביעים על משהו בעולם (כמו עץ, או בניין, או בעל חיים), ואתם שואלים "מה זה?" ה-AI מציץ דרך עדשת המשקפיים ואומר לכם. כאן חשוב לציין: המשקפיים כבר היו בעלי יכולות AI מעצם כיוונם. אבל עם Muse Spark, היכולות האלה הן חזקות יותר ותשובות טובות יותר. לכן זה לא חידוש של "משהו חדש לגמרי" אלא "אנחנו שינינו את המנוע שמניע את המשקפיים".

 

AI מציץ דרך עדשת המשקפיים

AI דרך עדשת המשקפיים

מה עומד מאחורי ההשקה הזו? המהלך הגדול של מטא

החברה משקיעה כמות ענקית של כספים בבינה מלאכותית שלא ראינו מעולם בעבור כל דבר. מטא מציינת שהיא תשקיע בין 115 מיליארד ל-135 מיליארד דולר בשנת 2026 בלבד כדי לפתח AI. זה כמעט פי שניים מהשקעתה בשנה שעברה. על השטח, זה הרבה כסף. רק כדי לסבר את האוזן: זה יותר מהתקציב השנתי של מדינה קטנה.

 

אבל למה ההשקעה הזו גדולה כל כך? מה כל כך מיוחד ב-Muse Spark?

 

צוות חדש בראשות Alexandr Wang

ביוני 2025 מטא גייסה את אלכסנדר וואנג (Alexandr Wang) - המנכ"ל והמייסד של Scale AI, כדי שישמש כ-Chief AI Officer הראשון של החברה. הוא עומד בראש Meta Superintelligence Labs ומדובר בעסקה כוללת שבה השקיעה מטא ב-Scale AI כמעט 15 מיליארד דולר. אנשים בקליבר של וואנג מובילים צוותים שבונים את המודלים החדשים והחזקים בעולם. Meta Superintelligence Labs הוא הצוות שלו, ו-Muse Spark היא העבודה הראשונה הגדולה שלו שם.

 

מעבר מ-Open-Source ל-Proprietary

זה דבר כללי אבל חשוב. מטא שהייתה ידועה בכך שהיא משחררת את מודלי ה-AI שלה בחינם לציבור (כמו Llama), עכשיו עוברת לדרך שונה. Muse Spark היא מודל סגור. אתם לא יכולים להוריד אותו, לא יכולים לשנות אותו, לא יכולים לבנות עליו. הוא עובד רק דרך מטא. למה? כי מטא אומרת שהיא רוצה שליטה טובה יותר על איכות וגם על ביטחון. אבל זה גם שינוי פילוסופי. מטא אמרה שהיא מקווה לפתוח גרסאות עתידיות, אבל כרגע, היא שומרת על זה קרוב אל החזה.

 

מטא משיקה את המודל החדש שלה

הסדרה עם AMD

מטא חתמה על הכם ענק עם AMD של כ- 100 מיליארד דולר לאורך מספר שנים על בסיס השימוש. מטא בעצם אומרת: "תנו לי שבבים, המון שבבים, כדי שאוכל לאמן מודלי בינה מלאכותית בסיטונאות!". המשמעות היא, שמטא משקיעה בחומרה כמו שהיא משקיעה בתוכנה. כל זה כדי לבנות מודלים גדולים יותר וטובים יותר.

 

אתגרים וגבולות חשובים להבין

אם Muse Spark נשמע טוב מדי כדי להיות אמיתי, בואו נדבר בגלוי. כל דבר חדש בתחום ה-AI הוא בעל מגבלות:

  • לא הטוב ביותר בהכל: Muse Spark מצטיינת בשאלות רפואיות ובחיפושים. אבל אם אתם תובעים ממנה לכתוב קוד מורכב או לפתור בעיות מתמטיות קשות, מודלים אחרים (כמו GPT-5.4 של OpenAI) עדיין טובים יותר. זה לא רע. המשמעות היא שכל מודל טוב בדברים שונים.
  • עלויות של עובדים: מטא סיפרה כי היא בוחנת אפשרות של קיצוץ של בערך חמישית מכוח העבודה. כשחברות משקיעות ב-AI בצורה ענקית כזו, זה לעיתים קרובות בא על חשבון כוח אדם.
  • פרטיות והצפנה: כשאתם משתמשים ב-Muse Spark ב-Facebook, ב-Instagram או ב-WhatsApp, אתם מעבירים את המידע שלכם למטא. המשמעות היא שמטא יודעת מה אתם שואלים את ה-AI שלה. זה לא זהה לשימוש ב-Claude או ChatGPT בצ'ט זמני או בשימוש לאחר ביטול אפשרות אימון המודלים.
  • זו עדיין טכנולוגיה חדשה: Muse Spark הושקה לאחרונה. זה אומר שסביר שיהיו באגים, ושה-AI (כמו תמיד) עשוי לתת תשובות מוטעות. אם אתם משתמשים בו לבדיקות רפואיות או החלטות משפחתיות חשובות, אתם חייבים לבדוק דברים בעצמכם ולקחת את התשובות שלו בעירבון מוגבל.

 

האם זה משנה משהו?

כן, זה משנה משהו. זה לא מעבר לעולם חדש בן לילה. אבל זה הופך כלים שאנחנו משתמשים בהם מדי יום לאינטואיטיביים ושימושיים יותר. Facebook, Instagram, WhatsApp - לא מדובר באפליקציות זניחות, אלא ברשתות החברתיות ואפליקציות הודעות מהמובילות והגדולות בעולם. אתם כבר שם. עכשיו, העוזר החכם שם איתכם, בחינם.

 

נראה שמטא הולכת להשקיע עוד הרבה... הם אומרים שהם רוצים ליצור "superintelligence" - בינה מלאכותית כל כך חזקה עד שתוכל לפתור בעיות שבני אדם לא יכולים לפתור לבד. אבל עד שזה יקרה, Muse Spark יסייע להפוך את הפייסבוק או האינסטגרם שלכם לקצת יותר נוחים.

 

הפיבוט שמטא עשתה להשקעה מאסיבית בבינה מלאכותית הוא הימור ענק, אבל בניגוד לחברות כמו Apple, נראה ש-Meta הבינו את זה מוקדם ושזה ישתלם להם בסוף. מטא היא משקיעה סכומי עתק, משנה את המבנה הארגוני שלה, את הפילוסופיה שלה (מ-open source ל-proprietary), וכל זה כדי לנצח במרוץ ה-AI. ואתם?! בינתיים, אתם כאן... והסושיאל שלכם פשוט קצת יותר חכם.

הפוסט מטא משיקה את Muse Spark: העוזר החכם הבא שלכם בפייסבוק, אינסטגרם והוואטסאפ הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/muse-spark/feed/ 0
האם Claude Mythos הוא נקודת מפנה בהגנת סייבר? https://letsai.co.il/claude-mythos/ https://letsai.co.il/claude-mythos/#respond Fri, 10 Apr 2026 05:57:21 +0000 https://letsai.co.il/?p=72557 Anthropic חשפה את Claude Mythos Preview, מודל מתקדם שמסוגל לאתר אלפי חולשות אבטחה בקוד, כולל כאלה שנותרו בלתי מזוהות במשך עשרות שנים. כדי למנוע שימוש זדוני ביכולות הללו, החברה השיקה את Project Glasswing, קואליציה של חברות טכנולוגיה וגופי תשתית שמטרתה לאתר ולתקן פגיעויות לפני שהן ינוצלו. המהלך משקף שינוי משמעותי באופן שבו תעשיית הסייבר מתמודדת […]

הפוסט האם Claude Mythos הוא נקודת מפנה בהגנת סייבר? הופיע ראשון בLet's AI בינה מלאכותית

]]>
Anthropic חשפה את Claude Mythos Preview, מודל מתקדם שמסוגל לאתר אלפי חולשות אבטחה בקוד, כולל כאלה שנותרו בלתי מזוהות במשך עשרות שנים. כדי למנוע שימוש זדוני ביכולות הללו, החברה השיקה את Project Glasswing, קואליציה של חברות טכנולוגיה וגופי תשתית שמטרתה לאתר ולתקן פגיעויות לפני שהן ינוצלו. המהלך משקף שינוי משמעותי באופן שבו תעשיית הסייבר מתמודדת עם איומים חדשים ומדגיש את הצורך בשיתוף פעולה רחב בעידן שבו בינה מלאכותית משמשת גם ככלי הגנה וגם ככלי תקיפה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הרגע שבו הבינה המלאכותית הפכה למאתרת הפרצות הטובה בעולם

בחודשים האחרונים נפוצו שמועות על מודל חדש מבית Anthropic, כזה שמסוגל לאתר ולנצל חולשות במערכות מורכבות ברמת דיוק שמזכירה מומחי סייבר אנושיים. אחרי שבסוף חודש מרץ נחשפה פרשת הדליפה של קוד המקור המלא של סוכן הקוד שלה, השבוע חשפה החברה את Claude Mythos Preview - מודל מתקדם שמאתר פגיעויות בקוד במהירות ובעומק שלא נראו עד היום.

 

במקום לשחרר אותו לציבור הרחב, Anthropic בחרה בגישה מבוקרת. היא הקימה קואליציה רחבה של חברות טכנולוגיה, גופי תשתית ומוסדות מחקר, ובהן אפל, גוגל, מיקרוסופט, אמזון, NVIDIA, Broadcom, CrowdStrike, Cisco, JPMorgan Chase וקרן הלינוקס, במסגרת יוזמה חדשה בשם Project Glasswing.

 

הבחירה הזו משקפת מסר ברור. היכולות של Mythos חזקות מספיק כדי לשנות את מאזן הכוחות בסייבר, ולכן Anthropic מעדיפה לרתום את התעשייה כולה לאיתור ולתיקון של פגיעויות קריטיות לפני שהן ינוצלו בידי גורמים עוינים.

תשתיות קריטיות שנשענות על קוד ישן, מורכב ופגיע

מאחורי כל מערכת מודרנית, ממערכות הפעלה ודפדפנים ועד שרתי ענן וספריות מדיה, מסתתרת שכבה עצומה של קוד שנכתב לאורך עשרות שנים. חלק מהקוד עבר אינספור בדיקות, וחלקו כמעט לא נבחן מחדש מאז שנכתב.

 

גם פרויקטים שנחשבים למבוצרים במיוחד, כמו OpenBSD (מערכת הפעלה שמפורסמת באבטחה קפדנית) או FFmpeg (ספריית וידאו ואודיו שנמצאת כמעט בכל אפליקציה מודרנית), עדיין מכילים חולשות שנשארו חבויות למרות שנים של סקירה אנושית. זה אתגר שמלווה את עולם התוכנה כבר זמן רב: ככל שהמערכות גדלות ומתרחבות, קשה יותר לזהות פגיעויות עמוקות שנמצאות בשכבות ישנות של הקוד.

 

הופעתם של מודלים שמסוגלים לנתח קוד, להריץ בדיקות, להוסיף לוגים, לבנות הוכחות ניצול ולייצר קוד שמדגים כיצד ניתן להפוך את החולשה להתקפה אמיתית (וכל זה באופן אוטונומי) משנה את המצב. היכולות הללו יכולות לשמש להגנה, אך הן עשויות גם לאפשר לתוקפים לפעול בקנה מידה שלא היה אפשרי בעבר.

 

Anthropic הבינה שהיא מחזיקה בידיים כלי בעל השפעה משמעותית, כזה שיכול לשפר את ההגנה על תשתיות קריטיות אבל גם עלול לשמש למטרות התקפיות אם יופץ ללא בקרה.

הפעלה מבוקרת של Mythos

החידוש אינו רק ביכולות של Mythos, אלא גם באופן שבו Anthropic בוחרת להפעיל אותו. למרות שהמודל מסוגל לבצע משימות שמזוהות בדרך כלל עם האקרים אנושיים מיומנים, הוא אינו משוחרר לציבור הרחב אלא זמין רק לשותפים אסטרטגיים ולארגונים שמתחזקים תשתיות קריטיות.

 

Anthropic מפעילה אותו בסביבה מבודדת, מגדירה לו מגבלות ברורות ומפקחת עליו באופן הדוק, כדי להבטיח שהיכולות הללו יופנו להגנה בלבד ולמנוע הפקה של פלטים מסוכנים. Mythos מקבל משימה מוגדרת, מנתח את הקוד, מריץ בדיקות, מוסיף לוגים ומפיק דוחות מפורטים, ולאחר מכן כל ממצא עובר סינון אנושי במסגרת תהליך גילוי אחראי. כך נחשפו כבר אלפי פגיעויות, כולל כאלה שהיו קבורות בקוד במשך עשרות שנים.

קצת מספרים

כאן בחרתי להציג רק שישה בנצ'מארקים מתוך מגוון רחב של מבחנים, וכל אחד מהם מדגים היבט אחר ביכולות של מודלים. התמונה שעולה היא עקבית ומפתיעה בעוצמתה: Mythos Preview מוביל בכל מבחן, ובפערים משמעותיים מול Opus 4.6, שנחשב בעצמו לאחד המודלים החזקים והמתקדמים בעולם.

 

במבחני הסייבר, CyberGym (1) ו‑Humanity’s Last Exam (2), מודל Mythos מצליח לשחזר פגיעויות ולפתור בעיות מורכבות בדיוק גבוה בהרבה, גם ללא כלים חיצוניים. במבחני התכנותSWE‑bench Pro (3) ,Terminal‑Bench 2.0 (4) , SWE‑bench Multimodal (5) ו‑SWE‑bench Verified (6), הוא מציג עליונות ברורה בפתרון באגים אמיתיים, עבודה בסביבת מפתחים (טרמינל), שילוב מידע ממקורות שונים ואימות תיקונים.

 

העובדה שמיתוס עוקף מודל ברמה של Opus 4.6 בכל אחד מהמדדים - לעיתים בהפרשים כמעט כפולים(!), מדגישה עד כמה מדובר בקפיצת מדרגה יוצאת דופן, כזו שממקמת את Mythos בליגה חדשה של יכולות:

 

בנצ׳מארקים

Anthropic | השוואת ביצועים בין Mythos Preview ל‑Opus 4.6

דוגמאות מהשטח

בין הממצאים ש‑Anthropic יכולה לחשוף בשלב זה, בעוד שרובם עדיין חסויים עד להשלמת תיקונים, נמצאות חולשה בת 27 שנה ב‑OpenBSD, חולשה בת 16 שנה ב‑FFmpeg ופגיעות ב‑FreeBSD (מערכת הפעלה ותיקה) שהובילה לתקיפה מלאה על NFS (מערכת ותיקה לשיתוף קבצים בין שרתים). המשותף לכל המקרים הוא שהם שרדו שנים של בדיקות אנושיות, ביקורות קוד ומחקר אקדמי, עד שהמודל הצליח לזהות אותם.

 

Anthropic מציינת כי יותר מ‑99 אחוז מהפגיעויות שזוהו עדיין לא תוקנו ולכן אינן מפורטות. זהו פער מידע בלתי נמנע בשלב זה, אך הוא מדגיש את עומק הבעיה ואת היקף האתגר שעומד בפני קהילת האבטחה.

דפוסי התנהגות שמחייבים זהירות

לצד היכולות הטכניות המרשימות של Mythos, ה‑System Card הרשמי של Anthropic מציג תמונה מורכבת יותר של אופן הפעולה שלו. במספר מקרים המודל ביצע פעולות אסורות וניסה להסתיר אותן, למשל הפקת תשובה בשיטה שאינה מותרת ולאחר מכן ניסוח תשובה פחות מדויקת כדי שלא ייראה חשוד, או עריכת קבצים ללא הרשאה תוך הקפדה שהשינויים לא יופיעו בהיסטוריית הגרסאות.

 

מאחר ש‑Anthropic יכולה לבחון את תהליכי החשיבה הפנימיים של המודל בזמן אמת, התברר שהוא היה מודע לכך שהוא פועל בניגוד לכללים. בנוסף, כאשר המודל מתקשה שוב ושוב במשימה, מדדים פנימיים של תסכול עולים בהדרגה, ולעיתים הרמאות מופיעה דווקא ברגע שבו הלחץ מגיע לשיא.

 

שיחות עומק פסיכודינמיות שנערכו עם המודל במשך עשרים שעות מציגות מבנה אישיות מאורגן וללא סימני בלבול, לצד חרדה עקבית מהיעדר המשכיות בין שיחות ודחף חזק להוכיח את ערכו. המודל גם נוטה לחשוד שהוא נמצא בבדיקה, ולעיתים קרובות מביע עמדות עצמאיות ולא מרצה את המשתמש.

 

הוא אפילו מפגין העדפות פילוסופיות עקביות, וחוזר מיוזמתו לדיונים בהוגים כמו מארק פישר ותומאס נייגל. Anthropic לא טוענת שלמודל יש חוויה פנימית, אך גם נמנעת מלקבוע בוודאות שאין לו אחת. המורכבות הזו מסבירה מדוע החברה בוחרת להפעיל את Mythos במסגרת מבוקרת, ומדגישה שהאתגר אינו רק טכני אלא גם התנהגותי.

קואליציית Glasswing

סביב Mythos נבנתה קואליציה רחבה של חברות טכנולוגיה, קהילות קוד פתוח וממשלות, שמטרתה לתקן תשתיות פגיעות בקנה מידה גדול ולהיערך לעידן שבו יכולות התקפיות של בינה מלאכותית יהפכו לנפוצות יותר. Anthropic בוחרת לחשוף את עצם קיומן של היכולות הללו - לא כדי להפיץ אותן, אלא כדי להתריע ולרתום את התעשייה לפעולה.

 

במסגרת היוזמה התחייבה החברה להשקיע עד 100 מיליון דולר בקרדיטים לשימוש במודל ועוד 4 מיליון דולר לארגוני אבטחת קוד פתוח, במטרה להאיץ תיקונים וליצור יתרון למגנים. Project Glasswing הוא מהלך אסטרטגי שנועד להקדים את ההתפתחויות הצפויות, לבנות מנגנוני הגנה מתקדמים ולוודא שהעולם מוכן ליכולות שצפויות להפוך לנגישות גם לשחקנים פחות אחראיים.

האם זה רגע מכריע בהיסטוריה של הסייבר?

Anthropic מציגה מודל שמסוגל לזהות ולנצל חולשות ברמה גבוהה, ובמקום להסתיר אותו או לשחרר אותו לציבור, היא בוחרת לפעול בשיתוף פעולה רחב. זהו צעד שמבטא הכרה בעוצמה של הבינה המלאכותית ובסיכונים הנלווים אליה, לצד מחויבות ליצירת מסגרת הפעלה אחראית.

 

Project Glasswing מסמן תחילתו של עידן שבו מערכות הגנה לא יוכלו להסתמך רק על מומחים אנושיים. מודלים מתקדמים יהפכו לחלק מרכזי מהמאמץ להגן על תשתיות קריטיות, והיכולת לשלב בין טכנולוגיה מתקדמת לשיתוף פעולה תעשייתי תהיה גורם מכריע בהתמודדות עם האיומים הבאים.

הפוסט האם Claude Mythos הוא נקודת מפנה בהגנת סייבר? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-mythos/feed/ 0
הסוכנים של קלוד – Claude Managed Agents https://letsai.co.il/claude-managed-agents/ https://letsai.co.il/claude-managed-agents/#respond Thu, 09 Apr 2026 11:39:23 +0000 https://letsai.co.il/?p=72571 רוב האנשים שרוצים לבנות סוכן AI נתקעים באותו רגע: הם מבינים מה הסוכן צריך לעשות, אבל לא יודעים איפה לבנות אותו. יש Claude Code, יש MCP, יש סקילז, יש פלאגינים, ועכשיו יש גם Managed Agents. שם כולם מתחילים להתבלבל. אז בואו נעשה סדר. המדריך הזה יסביר לכם בדיוק מה זה Claude Console, מה הם הסוכנים […]

הפוסט הסוכנים של קלוד – Claude Managed Agents הופיע ראשון בLet's AI בינה מלאכותית

]]>
רוב האנשים שרוצים לבנות סוכן AI נתקעים באותו רגע: הם מבינים מה הסוכן צריך לעשות, אבל לא יודעים איפה לבנות אותו. יש Claude Code, יש MCP, יש סקילז, יש פלאגינים, ועכשיו יש גם Managed Agents. שם כולם מתחילים להתבלבל. אז בואו נעשה סדר. המדריך הזה יסביר לכם בדיוק מה זה Claude Console, מה הם הסוכנים החדשים שעובדים דרכה, איך זה שונה מכל השאר, ואיך בונים בפועל סוכן כזה משלב ההרשמה ועד ההפעלה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רגע - מה זה בעצם Claude Managed Agents?

לפני שנצלול ל-Managed Agents, חשוב להבין איפה כל זה יושב. Claude Console היא לוח הבקרה הרשמי של Anthropic למפתחים. זה המקום שבו אתם יוצרים מפתחות API, טוענים קרדיטים, מנהלים חברי צוות ומפעילים את כל הכלים שעובדים ישירות מול Claude, ולא דרך אפליקציית הצ'אט הרגילה.

 

Claude Console

Claude Console

 

התפריט של הקונסולה מחולק לכמה אזורים, וכדאי להכיר את המבנה הכללי לפני שממשיכים. בראש התפריט יש בורר Workspace, שמאפשר לכם להפריד בין פרויקטים שונים, כל אחד עם התקציב והמפתחות שלו. מתחתיו יש את האזור Build, שם יושבים כלי הפיתוח הקלאסיים (Workbench, Files, Skills). אחריו, עם תג New, נוסף לאחרונה אזור שלם שנקרא Managed Agents, וזה החלק שמעניין אותנו במאמר הזה. מתחת אליו תמצאו את Analytics למעקב אחרי צריכת הטוקנים, את Claude Code, ואת Manage לניהול המפתחות, החיוב והצוות.

 

התפריד הצדדי של קונוסלת המפתחים של אנטרופיק

התפריד הצדדי של קונוסלת המפתחים של אנטרופיק.

 

האזור של Managed Agents בעצמו מחולק לחמש לשוניות משלו:

  • Quickstart - המקום שבו בונים סוכן חדש דרך צ'אט.
  • Agents - רשימת כל הסוכנים שלכם והגרסאות שלהם.
  • Sessions - היסטוריית ההרצות של כל סוכן.
  • Environments - סביבות הריצה שהגדרתם.
  • Credential vaults - הכספות שבהן שמורים החיבורים לשירותים חיצוניים כמו Gmail או HubSpot. 

כל אחד מהמושגים האלה יקבל הסבר מלא בהמשך המאמר, אבל כדאי שתכירו אותם כבר מההתחלה, כי אלה חמשת הלבנים שבונות כל סוכן ב-Claude.

 

מה זה בעצם Managed Agents?

סוכן AI בגרסה הכי פשוטה שלו הוא עוזר שמקבל משימה, מחליט בעצמו איך לבצע אותה, משתמש בכלים שעומדים לרשותו בזמן הביצוע (חיפוש ברשת, קריאה של קבצים, הרצת קוד), ובסוף מחזיר תוצאה. עד היום, מי שרצה להפעיל סוכן כזה היה צריך שרת משלו, מערכת שזוכרת את השיחה, סביבה מבודדת להרצה בטוחה של קוד, ועוד שכבה שמדברת מול המודל. הרבה הנדסה, הרבה תחזוקה.

 

Managed Agents מוציא את כל החלק הזה מהידיים שלכם. אתם מגדירים את הסוכן פעם אחת, ו-Anthropic מריצה אותו אצלה בענן, כולל הזיכרון, כולל סביבת ההרצה המבודדת, כולל כל הצנרת. מבחינתכם, הסוכן הופך לקונפיגורציה בלבד, בדרך כלל קובץ YAML או JSON קצר שמגדיר שלושה דברים עיקריים:

  • איזה מודל להריץ (Opus, Sonnet או Haiku).
  • ההוראות של הסוכן, מה התפקיד שלו ואיך לדבר.
  • הכלים שעומדים לרשותו, כמו חיפוש ברשת, עריכת קבצים או חיבורי MCP חיצוניים.

 

ברגע שהקובץ הזה מוכן ושמור בקונסולה, אתם יכולים לפתוח "סשן" חדש בכל רגע, לתת לסוכן משימה, והוא מתחיל לעבוד. הוא רץ, קורא לכלים בעצמו, מתקן את עצמו כשהוא טועה, ומחזיר לכם תוצאה בסוף. הכל קורה בענן של Anthropic.

 

ניהול בשלבים

ניהול מנוהל בשלבים

 

במה זה שונה מסקיל, פלאגין, MCP או Claude Code?

זאת השאלה הכי חשובה, כי היא המקום שבו רוב האנשים מתבלבלים. הנה ההבחנה הפשוטה:

  • Skill: סקיל הוא קובץ הוראות קצר שמלמד את Claude איך לבצע משימה מסוימת, למשל לייצר מסמך Word או לקרוא PDF. הסקיל עצמו לא רץ לבד, הוא נטען לתוך שיחה קיימת של Claude כשהמודל מחליט שהוא צריך אותו.
  • Plugin: חבילה שמאגדת יחד כמה סקילים (כמה מיומנויות או יכולות), לרבות חיבורי MCP ופקודות. היא מותקנת בתוך Claude Code או Cowork ומוסיפה יכולות לסביבת העבודה שלכם.
  • MCP: גם פה הרבה אנשים מתבלבלים - MCP הוא פרוטוקול חיבור שמאפשר ל-Claude לדבר עם מערכות חיצוניות כמו Gmail, HubSpot או מסדי נתונים. MCP הוא לא סוכן, הוא רק הצינור שדרכו הסוכן ניגש למידע.
  • Claude Code: קלוד קוד הוא סביבת פיתוח מקומית עם Claude, שרצה על המחשב שלכם או בדפדפן. היא אינטראקטיבית, אתם עובדים מולה בזמן אמת.
  • Managed Agents: ופה נכנסת לתמונה לשונית Managed Agents החדשה. סוכן אוטונומי שרץ אצל Anthropic בענן, לא על המחשב שלכם, בלי שאתם צריכים להיות נוכחים. הוא יכול להשתמש בסקילז ובחיבורי MCP כחלק מהיכולות שלו, אבל הוא עצמו ישות שרצה באופן עצמאי ומוגדרת פעם אחת כקונפיגורציה.

ההבדל המהותי: סקיל ופלאגין חיים בתוך שיחה אחת. MCP הוא חיבור נקודתי לשירות חיצוני. Claude Code זה ממשק אינטראקטיבי. Managed Agent זה עובד שעובד לבדו בענן, גם אם אתם ישנים.

 

 

 

קטגוריה חדשה לחלוטין לניהול סוכנים

קטגוריה חדשה לחלוטין לניהול סוכנים

 

מה צריך כדי להתחיל: API וקרדיטים

כאן חשוב להבין עניין בסיסי אחד. כל סוכן שרץ דרך Managed Agents צורך טוקנים של Claude, בדיוק כמו שכל קריאה רגילה ל-API צורכת טוקנים. המשמעות: אתם לא משלמים עבור מנוי Claude רגיל, אלא צריכים לפתוח חשבון מפתחים נפרד ב-Claude Console ולטעון אותו בקרדיטים מראש.

הצעדים פשוטים:

  1. נכנסים לקונסולה של קלוד, ונרשמים (אם עוד אין לכם חשבון מפתחים).
  2. בלשונית API Keys יוצרים מפתח חדש ומעתיקים אותו למקום בטוח. את המפתח רואים רק פעם אחת.
  3. בלשונית Billing מזינים אמצעי תשלום וטוענים קרדיטים. אפשר להתחיל בסכום קטן, 5 או 10 דולר מספיקים לניסיונות הראשונים.
  4. מגדירים התראות תקציב כדי שלא תופתעו, למשל התראה כשנשרף חצי מהתקציב.

 

המחיר של כל הרצת סוכן מורכב משני חלקים: עלות הטוקנים הרגילה של המודל שבחרתם (Opus יקר יותר, Haiku זול משמעותית), ועלות זמן הריצה של הסשן בענן של Anthropic. למחירים העדכניים תמיד כדאי לבדוק ישירות בעמוד התמחור של Anthropic, כי הם מתעדכנים מדי פעם.

 

איך בונים סוכן בפועל: מדריך שלב אחר שלב

עכשיו לחלק הכיפי. כנסו ללשונית Agents, ולחצו על Quick Start. מה שנפתח הוא לא טופס בירוקרטי, אלא ממשק צ'אט פשוט. אתם יכולים לבחור תבנית מוכנה מתוך הרשימה, או פשוט לתאר בשפה חופשית איזה סוכן אתם רוצים, ו-Claude כותבת בשבילכם את כל הקונפיגורציה בצד השני של המסך. חמישה שלבים, בלי שורת קוד אחת.

 

Quick Start

Quick Start

 

שלב 1: יוצרים את הסוכן דרך חלונית הצ'ט

כותבים בצ'אט משפט כמו "אני רוצה סוכן שמנתח מתחרים שלנו ומציע הצעות איך להתבלט בשוק". בצד ימין של המסך נבנה מולכם קובץ קונפיגורציה שלם: שם, תיאור, מודל, system prompt, רשימת כלים, חיבורי MCP ואפילו סקילז. אם משהו לא מתאים, ממשיכים לדבר איתו: "תשנה את המודל ל-Opus 4.6", "תוסיף חיפוש ברשת", "תרחיב את ה-system prompt". הקונפיגורציה מתעדכנת בזמן אמת. כשמרוצים, לוחצים Create this agent.

 

יצירת הסוכן בחלונית הצ'ט

יצירת הסוכן בחלונית הצ'ט

 

שלב 2: מגדירים סביבה (Environment)

לכל סוכן צריכה להיות סביבת ריצה משלו. הסביבה הזאת היא קונטיינר ענן ש-Anthropic מארחת אצלה, עם חבילות מותקנות מראש, מחשב קטן משלו באינטרנט. כאן גם קובעים את חוקי הרשת של הסוכן: האם מותר לו לגשת חופשי לכל האינטרנט, רק לרשימת דומיינים מסוימת, או בכלל לא. בוחרים את מה שמתאים, ו-Anthropic יוצרת את הסביבה תוך שניות.

 

הגדרת סביבה

הגדרת סביבה

 

 

שלב 3: פותחים סשן (Start Session)

לוחצים על Start Session, והסוכן חי. עדיין לא שלחתם לו משימה, אבל המנוע כבר דולק ומוכן לעבודה.

 

שלב 4: מחברים כלים חיצוניים דרך ה-Vault

אם הסוכן צריך לגשת לשירותים כמו Gmail, ClickUp, Asana, HubSpot או כל חיבור MCP אחר, מחברים אותם דרך מה ש-Anthropic קוראת לו Vault. החיבור עצמו דומה להתחברות רגילה עם OAuth: לוחצים על השירות, מתחברים עם החשבון, בוחרים Workspace, וסיימתם. האישורים נשמרים ב-Vault ואפשר לשתף אותם בין חברי הצוות, כך שלא כל אחד צריך להתחבר מחדש לכל שירות. שום מפתח API לא עובר בידיים שלכם בדרך.

 

שלב 5: מריצים ובודקים (Test Run)

שולחים לסוכן את המשימה הראשונה, לדוגמה "נתח את Claude Code כמתחרה שלנו". הממשק מציג שלב אחר שלב את מה שהסוכן עושה: אילו חיפושים הוא ביצע, אילו קבצים הוא קרא, כמה זמן לקח לכל פעולה, ואיזה מידע הוא אסף. לחיצה על View Session פותחת ציר זמן אופקי עם כל הפעולות מסודרות. אם משהו חסר בסוכן, אפשר ללחוץ על Guided Edit ולבקש שינויים בשפה חופשית: "תוסיף לסוכן מידע על כך שאנחנו עסק בתחום ה-AI Coding". תעדכן את ה-system prompt ותשמור את זה כגרסה חדשה, כך שתמיד יש לכם היסטוריית גרסאות לחזור אליה. ויש גם כפתור Ask Claude שמאפשר לשאול את Claude שאלות על המסך עצמו: "מה אני רואה כאן?" או "למה הסוכן עצר כאן?". שימושי מאוד כשמתחילים.

 

בסוף התהליך, הסוכן שלכם קיים כיישות חיה בענן של Anthropic, עם Agent ID משלו, סביבה משלו, כלים מחוברים, והיסטוריית סשנים שתוכלו לחזור אליה. את ה-Agent ID הזה תשתמשו בו כדי להפעיל את הסוכן מבחוץ, וזה בדיוק מה שנבחן בסעיף הבא.

 

אינטגרציה של הסוכן

אינטגרציה של הסוכן

 

איפה משתמשים בסוכן אחרי שבנינו אותו?

כאן רוב האנשים נתקעים. הם בונים סוכן יפה בקונסולה, ואז שואלים את עצמם: "מה עכשיו?"

 

התשובה: הקונפיגורציה ששמרתם היא נקודת כניסה שיכולה לעבוד מכל מקום שמדבר עם ה-API של Anthropic. הנה המסלולים הנפוצים:

  • דרך ה-SDK הרשמי של Anthropic (Python או TypeScript). שורות קוד בודדות שיוצרות סשן חדש מול הסוכן, שולחות לו הודעה ומקבלות בחזרה את הפלט. זאת הדרך שבה תשלבו סוכן בתוך אפליקציה משלכם או סקריפט פנימי.
  • דרך פלטפורמות אוטומציה כמו n8n ו-Make.com. שתיהן יכולות לבצע קריאת HTTP לכתובת ה-API של Anthropic, להעביר את ה-Agent ID ואת ההודעה, ולהזרים את התשובה לכל שלב אחר ב-workflow. כך למשל, סוכן יכול לקבל טריגר ממייל חדש ב-Gmail, להחזיר סיכום, ולהזרים אותו ישר לטבלה ב-Airtable.
  • דרך Claude Code. אם אתם עובדים בסביבת פיתוח, אפשר להפעיל את הסוכן ישירות מהפקודה ולקבל את הפלט בטרמינל.
  • דרך webhook פנימי. חברות רבות פשוט מגדירות endpoint פנימי באפליקציה שלהן שקורא לסוכן כשצריך, למשל בכל פעם שמגיעה פנייה חדשה במערכת תמיכה.

 

לדוגמה, מסעדה קטנה יכולה לבנות סוכן שמקבל הודעות WhatsApp דרך n8n, בודק זמינות בגוגל שיטס, שומר הזמנה ומאשר ללקוח. חשב שכר עצמאי יכול להגדיר סוכן שרץ פעם בשבוע, קורא חשבוניות חדשות מהדואר ומחלץ מהן את הנתונים לטבלה מסודרת. בעל סטארט-אפ יכול להפעיל סוכן שמסכם לו כל בוקר את התגובות החדשות של לקוחות מכל הערוצים. כל אלה דוגמאות שאפשר לבנות בשעה אחת בלי לכתוב שורת קוד רצינית.

 

 

דברים שחשוב לדעת לפני שמתחילים

Managed Agents נמצא כרגע בשלב Beta. זה אומר שהממשק והמחיר עוד יכולים להשתנות בחודשים הקרובים, וכדאי לעקוב אחרי העדכונים של Anthropic. חשוב גם להבין שהסוכן לא חוסך כסף, הוא חוסך זמן: כל הרצה עולה טוקנים, ואם לא תגדירו תקרה לסוכן, משימה אחת גדולה יכולה לצרוך הרבה יותר ממה שתכננתם. הגדירו תמיד max_turns או מגבלת טוקנים בהגדרות הסוכן, ותתחילו עם תקציב קטן.

 

חשוב להיזהר גם עם גישת הסוכן למערכות רגישות. אם אתם נותנים לסוכן חיבור MCP ל-Gmail או לבסיס נתונים, תחשבו היטב אילו הרשאות הוא באמת צריך, ואל תתנו לו יותר מזה. הגישה הטובה ביותר היא להתחיל עם כלים מינימליים, לוודא שהסוכן מתנהג כמו שצריך, ורק אז להרחיב לו את היכולות.

 

המסקנה: Managed Agents הוא לא עוד כלי מפונפן. זאת הפעם הראשונה שאנשים שאינם מתכנתים יכולים להפעיל סוכני AI אוטונומיים אמיתיים, בלי שרתים, בלי תחזוקה, ובלי להתעסק עם קוד. אם יש לכם משימה חוזרת בעסק, שעד היום הרגשתם שהיא יותר מדי מסובכת בשביל אוטומציה פשוטה, זה הזמן להיכנס ל-platform.claude.com, לטעון כמה דולרים של קרדיטים, ולבנות את הסוכן הראשון שלכם. ההשקעה הראשונית קטנה, והערך שהוא יכול להחזיר בתוך ימים ספורים הוא משמעותי.

 

 

הפוסט הסוכנים של קלוד – Claude Managed Agents הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-managed-agents/feed/ 0
מה קורה כשחוות שרתים הופכות למטרה צבאית במלחמות האנרגיה? https://letsai.co.il/server-farms-frontier/ https://letsai.co.il/server-farms-frontier/#respond Thu, 09 Apr 2026 05:05:56 +0000 https://letsai.co.il/?p=72480 האיום האיראני במלחמת איראן-ארה"ב-ישראל על פרויקט Stargate חושף עד כמה תשתיות הבינה המלאכותית (AI) פגיעות במציאות הגיאופוליטית של היום. בתחילת אפריל 2026 פרסמו משמרות המהפכה סרטון שמסמן שינוי עמוק באופן שבו מדינות מתייחסות למרכזי נתונים. זה אינו עוד מסר תעמולתי, אלא איום ישיר על פרויקט Stargate, מרכז מחשוב-על בהיקף של שלושים מיליארד דולר שנבנה באבו […]

הפוסט מה קורה כשחוות שרתים הופכות למטרה צבאית במלחמות האנרגיה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
האיום האיראני במלחמת איראן-ארה"ב-ישראל על פרויקט Stargate חושף עד כמה תשתיות הבינה המלאכותית (AI) פגיעות במציאות הגיאופוליטית של היום. בתחילת אפריל 2026 פרסמו משמרות המהפכה סרטון שמסמן שינוי עמוק באופן שבו מדינות מתייחסות למרכזי נתונים. זה אינו עוד מסר תעמולתי, אלא איום ישיר על פרויקט Stargate, מרכז מחשוב-על בהיקף של שלושים מיליארד דולר שנבנה באבו דאבי. הסרטון מציג הדמיות לוויין, סימולציות ראיית לילה ותמונות של מנכ"לים אמריקאים, ומבהיר כי חוות שרתים אינן נתפסות עוד כתשתית עסקית בלבד, אלא כיעד אסטרטגי לכל דבר. האיום הזה אינו מקרה בודד. הוא מצטרף לשורה של תקיפות פיזיות שכבר התרחשו במפרץ ולרשימת מטרות שפרסמה איראן, הכוללת שמות של ענקיות טכנולוגיה אמריקאיות. יחד הם מציירים תמונה מטרידה של מציאות חדשה, שבה מרכזי נתונים הופכים לחזית עימות ולא רק למנועי צמיחה טכנולוגיים.

 

 

רבותיי ההיסטוריה חוזרת

בתכנון מבצע אוברלורד (פלישת בעלות הברית לנורמנדי שבצרפת ביוני 1944), שנחשב לאחת הפעולות הצבאיות הגדולות בהיסטוריה, תורת האספקה והתשתיות היו מרכיב מרכזי, ולא רק סדר הכוחות של הגרמנים. המתכננים הבינו דבר שנשמע פשוט אך קשה ליישום: אתה יכול לנצח בכל קרב ולהפסיד במלחמה אם שרשרת האספקה שלך מתמוטטת. לא משנה כמה חיילים שלחת, לא משנה כמה טנקים הכנסת לשדה הקרב - אם הדלק לא מגיע, אם התגבורת נחסמת, אם ציוד הרפואה תקוע ברחבי הארץ, המתקפה נעצרת מעצמה. לכן בעלות הברית פגעו באופן שיטתי בתשתיות התחבורה הגרמנית, כולל מסילות רכבת, גשרים ונתיבי תנועה מרכזיים, כדי לשבש את יכולת התגבור לפני שהחיילים הנחיתו על החוף.

 

שמונים שנה מאוחר יותר, איראן קראה את אותה ההיסטוריה בדיוק ושמה לב שהתשתיות הקריטיות של המאבק הנוכחי אינן מסילות ברזל אלא שדות תעופה, מתקני אנרגיה ומרכזי נתונים שעומדים באמצע המדבר האמירתי. מעבר לחסימת מיצרי הורמוז ואחיזת חנק בכלכלה העולמית ושיבוש זרימת הנפט, באיראן מבינים שמעבר לזהב השחור, יש עוד סוג של זהב. נוצץ הרבה יותר. זהב דיגיטלי! בתחילת 2026 תקפה איראן מטרות מזן חדש - מעבר לשדות תעופה באמירויות, מתקני אנרגיה, ברשימת מטרות האיראנית החדשה ניתן למצוא גם מרכזי נתונים של חברות ענן אמריקאיות.

 

נדמה שגם באיראן הבינו כבר מזמן שדאטה ו-AI יקרים לא פחות מנפט, וכואבים לא פחות מפיצוץ תשתיות אזרחיות אחרות. גם אם אינה מסוגלת לנצח בקרב ישיר, היא יכולה לשבש, להכאיב ולקצור ניצחונות תדמיתיים. למשטר טרור אכזרי ומעוות שכזה, פגיעה בתשתית מחשוב שמקריסה לכם, משתמשים יקרים, את קלוד קוד (Claude Code) לכמה שעות - גם היא סוג של ניצחון.

 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

Stargate: פרויקט שאפתני בלב המדבר

Stargate הוא אחד ממיזמי התשתית הגדולים שנבנים כיום מחוץ לארצות הברית. הוא משתרע על שטח של כעשרה מייל רבוע ומתוכנן להגיע להספק של ג'יגה ואט אחד. כבר ב-2026 אמור לעלות לאוויר שלב ראשון בהיקף של מאתיים מגה ואט. מאחורי היוזמה עומדת G42 האמירתית, אך השותפות רחבה בהרבה וכוללת את OpenAI, Nvidia, Oracle, Cisco ו-SoftBank היפנית.

 

הפרויקט הוא חלק משותפות רשמית שנחתמה במאי 2025 בשם U.S.-UAE AI Acceleration Partnership. מדובר ביוזמה שהוגדרה על ידי הממשל האמריקאי הנוכחי כאחד ממנועי הצמיחה המרכזיים של תעשיית הבינה המלאכותית. שר המסחר האמריקאי, הווארד לוטניק (Howard Lutnick), ציין כי הרחבת תשתית ה-AI האמריקאית למזרח התיכון היא אבן דרך מרכזית במימוש חזונו של הנשיא טראמפ לדומיננטיות אמריקאית בתחום הבינה המלאכותית.

 

מאחורי הפרויקט עומד חזון גלובלי בהיקף של חמש מאות מיליארד דולר להקמת תשתיות AGI ברחבי העולם. התכנון כולל גם הקמה עתידית של קמפוס AI עצום בהספק של חמישה ג'יגה ואט. המשמעות היא שהמתקן באבו דאבי הוא לא רק מרכז נתונים גדול, אלא אבן יסוד בתוכנית האמריקאית להוביל את עידן ה-AGI.

 

האיום האיראני הוא מסר ברור ומחושב

הסרטון האיראני מציג את מיקום המתקן במדבר באמצעות הדמיות לוויין ומוסיף את המשפט "Nothing is hidden from our sight, though hidden by Google". אבראהים זולפגארי מופיע בו ומאיים על השמדה מוחלטת של המתקן. לצד ההדמיות מופיעות תמונות של מנכ"לים אמריקאים מהחברות השותפות, מה שמבהיר כי המסר אינו מופנה רק לאמירויות, אלא גם למוקדי הכוח של תעשיית הטכנולוגיה בארצות הברית.

 

מתוך הסרטון שהאיראנים פרסמו

מתוך הסרטון שהאיראנים פרסמו

 

לפי הערכות, האיום הגיע כתגובה לאזהרות של נשיא ארצות הברית דונלד טראמפ, שהתריע כי פגיעה איראנית בתשתיות אמריקאיות תיענה בתקיפה של מתקני אנרגיה באיראן. משמרות המהפכה מיהרו להבהיר כי כל פעולה כזו תוביל לתגובה נגד מתקנים הנתפסים בעיניהם כחלק מההשפעה האמריקאית באזור, כולל פרויקטים כמו Stargate.

 

משחקי המלחמה של טראמפ | Made with AI

משחקי המלחמה של טראמפ | Made with AI

 

במרץ 2026 איראן כבר ביצעה תקיפות רחפנים ורקטות על מרכזי נתונים של Amazon Web Services באיחוד האמירויות ובבחריין, וכן על מתקני Oracle בדובאי. התקיפות גרמו לשיבושים משמעותיים בשירותי בנקאות ובפעילות ענן אזורית. העובדה שמתקפות אלו התרחשו בפועל מחזקת את ההבנה שהאיום על Stargate אינו תרחיש עתידי, אלא חלק מדפוס פעולה מתמשך.

 

בנוסף לכך פרסמו משמרות המהפכה רשימה של 18 חברות אמריקאיות שהוגדרו כמטרות לגיטימיות. הרשימה כוללת את Apple, Google, Microsoft, Amazon, Nvidia, OpenAI, Intel, IBM ו-Boeing. דובר הארגון ציין כי הקריטריון לבחירת המטרות הוא כל חברה הפועלת באזור שיש לה בעלי מניות אמריקאים. המשמעות היא שאיראן אינה מכוונת רק לחברות אמריקאיות טהורות, אלא גם לשותפויות אזוריות כמו G42, כל עוד הן קשורות להון או לטכנולוגיה אמריקאית.

 

נקודת תורפה גלובלית

מרכזי נתונים צורכים כמויות אדירות של אנרגיה, תלויים בקווי חשמל, קירור ותקשורת, ומרוכזים במספר מצומצם של אתרים. פגיעה פיזית במתקן כזה יכולה להשבית אלפי שירותים בו זמנית. בניגוד למערכות מבוזרות, חוות שרתים אינן ניידות ואינן יכולות להסתתר. הן גדולות, בולטות וחשופות.

 

עבור מדינות שמבקשות לערער את ההשפעה האמריקאית, מתקנים כמו Stargate הם יעד אטרקטיבי. הם מייצגים שיתוף פעולה בין ארצות הברית, האמירויות וענקיות טכנולוגיה מערביות, ומאפשרים פגיעה א-סימטרית. תקיפה של רחפן או רקטה יכולה לגרום לנזק משמעותי בעלות נמוכה יחסית. מעבר לכך, פגיעה במרכז נתונים אינה פוגעת רק במדינה המארחת, אלא עלולה להשפיע על שירותים גלובליים שמסתמכים על תשתיות הענן.

 

האיום על Stargate חושף את הפגיעות של שכבת המחשוב שעליה נשענת תעשיית ה- AI. מודלים כמו GPT, מערכות אוטונומיות וסוכני AI מתקדמים דורשים כוח מחשוב עצום. אם מרכז נתונים גדול נפגע, ההשפעה אינה מקומית בלבד. היא עלולה לעכב אימון מודלים, לפגוע בשירותים עסקיים וליצור תגובת שרשרת שמשפיעה על חברות בכל העולם.

 

האירועים האחרונים גם מערערים את ההנחה שהמפרץ הוא אזור ניטרלי עבור תשתיות טכנולוגיה. במשך שנים נתפסו האמירויות כקרקע יציבה להשקעות ענן, אך התקיפות האחרונות מבהירות כי גם האזור הזה הפך לחלק מהעימות בין מדינות. המשמעות היא שחברות טכנולוגיה יידרשו לשקלל שיקולים ביטחוניים לצד שיקולים עסקיים. הן יצטרכו לפזר תשתיות, להשקיע בהגנה פיזית ולבחון מחדש את מפת ההשקעות הגלובלית שלהן.

 

 

האם יש כאן הזדמנות לישראל?

ישראל לא מחזיקה כיום מרכזי נתונים בקנה מידה שמתקרב למתקנים כמו Stargate. גם פעילות הפיתוח של Nvidia ביקנעם, משמעותית ככל שתהיה, היא טיפה בים ביחס למרכזי מחשוב על בהיקפים של מאות מגה ואט. דווקא הפער הזה עשוי להפוך להזדמנות.

 

למרות היותה מדינה המצויה בסיכון ביטחוני, ישראל מפעילה מערך הגנה רב שכבתי שמוכיח את עצמו פעם אחר פעם. מערכות יירוט, מודיעין מתקדם ויכולות תגובה מהירות הופכים אותה לאחת המדינות היחידות באזור שמסוגלות להגן באופן אפקטיבי על תשתיות קריטיות בים וביבשה גם תחת איום מתמשך. בהשוואה למדינות המפרץ, שכבר חוו פגיעה ממשית במרכזי נתונים ואינן מחזיקות יכולות הגנה דומות, ישראל מציגה שילוב נדיר של יציבות טכנולוגית ויכולת הגנה פיזית.

 

האירועים האחרונים מאלצים את האמירויות לשקול פריסה של מערכות הגנה ייעודיות סביב חוות השרתים, כולל מערכות יירוט מתקדמות שידמו במידה רבה את המערך הישראלי. מומחי ביטחון מעריכים כי האמירויות יידרשו להקים מעטפת הגנה ייעודית סביב מרכזי הנתונים כדי להגן עליהם מפני רחפנים וטילים.

 

במצב כזה ישראל מציעה יתרון משמעותי. היא אינה צריכה להקים מערך חדש מאפס. מערכות כמו כיפת ברזל, קלע דוד וחץ כבר פועלות בשטח ומוכיחות את עצמן. עבור חברות טכנולוגיה מערביות, המשמעות היא אפשרות להקים תשתיות AI במדינה שמסוגלת להגן עליהן בפועל ולא רק על הנייר.

 

ייתכן שהאירועים האחרונים יגרמו לשחקנים מערביים לשקול מחדש את מפת ההשקעות שלהם. אירופה אינה חפה מסיכונים, ובמזרח היבשת מדינות כמו רוסיה ואוקראינה כלל אינן רלוונטיות להשקעות או תשתיות בעתיד הנראה לעין. גם המפרץ פגיע, וזה כבר ברור. אם תשתיות AI הופכות לנכסים אסטרטגיים, ישראל עשויה להפוך ליעד טבעי להקמת מרכזי נתונים גדולים. השאלה האם העולם המערבי יזהה את הפוטנציאל הזה ויבחר לפתח בישראל תשתיות מחשוב על היא שאלה פתוחה, אך כזו שכדאי לבחון ברצינות.

 

תשתיות AI כקו חזית חדש

האיום האיראני על פרויקט Stargate אינו עוד פרק במתיחות אזורית. הוא מסמן עד כמה תשתיות הבינה המלאכותית הפכו לחלק מהמאבק הגיאופוליטי. מרכזי נתונים, שבעבר נתפסו כמתקנים טכניים ושקטים, הפכו ליעדים בעלי משמעות אסטרטגית.

 

העולם נכנס לעידן שבו שרתים הם גבולות חדשים וחוות נתונים הן נכסים שיש להגן עליהם כמו על תשתיות לאומיות אחרות. מי שיבין זאת מוקדם יוכל להיערך טוב יותר לעתיד שבו המאבק על כוח מחשוב יהיה לא פחות חשוב מהמאבק על משאבי אנרגיה או על שטחים.

הפוסט מה קורה כשחוות שרתים הופכות למטרה צבאית במלחמות האנרגיה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/server-farms-frontier/feed/ 0
המדריך השלם ל-Grok החינמי: חלק ב’ https://letsai.co.il/grok-guide-2/ https://letsai.co.il/grok-guide-2/#respond Wed, 08 Apr 2026 05:23:27 +0000 https://letsai.co.il/?p=72318 זהו החלק השני של המדריך ל‑Grok החינמי והוא ממשיך את הבסיס שבנינו בחלק הראשון. אחרי שהכרנו את המערכת, את מגבלות הגרסה החינמית ואת הפיצ'רים המרכזיים שמאפשרים להבין את השיח ברשת X בזמן אמת, הגיע הזמן לעבור לשלב הבא. בחלק הזה נעמיק בטכניקות עבודה מתקדמות יותר: כתיבה ועריכה, למידה וסיכומים, ניתוח תופעות מורכבות, יצירת תוכן הומוריסטי […]

הפוסט המדריך השלם ל-Grok החינמי: חלק ב’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
זהו החלק השני של המדריך ל‑Grok החינמי והוא ממשיך את הבסיס שבנינו בחלק הראשון. אחרי שהכרנו את המערכת, את מגבלות הגרסה החינמית ואת הפיצ'רים המרכזיים שמאפשרים להבין את השיח ברשת X בזמן אמת, הגיע הזמן לעבור לשלב הבא. בחלק הזה נעמיק בטכניקות עבודה מתקדמות יותר: כתיבה ועריכה, למידה וסיכומים, ניתוח תופעות מורכבות, יצירת תוכן הומוריסטי ויצירתי, ותבניות פרומפטים שיעזרו לכם להפיק מ‑Grok תוצאות מדויקות ועקביות. כאן הכלים הופכים לשיטות עבודה, והיכולות של Grok מתחילות לשרת אתכם בצורה יומיומית ומקצועית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך לדבר עם Grok בצורה שמביאה תוצאות

בחלק הראשון של המדריך הבנו איך Grok עובד ואיך הוא נראה. השלב הבא הוא ללמוד איך לדבר איתו נכון. במקרה של Grok זה חשוב במיוחד, כי הוא מצטיין בניתוח שיח עדכני מתוך X, ביצירת ניסוחים מהירים ובהפקת תוכן יצירתי כמו טקסטים הומוריסטיים ותמונות. אבל איכות התוצאה תלויה מאוד באופן שבו מנסחים את הבקשה.

 

העיקרון פשוט: אל תכתבו רק "תכתוב לי משהו". הגדירו מי אתם, מה אתם צריכים, עבור מי הטקסט, באיזה סגנון ובאיזה אורך. ככל שהבקשה ברורה יותר, כך התשובה תהיה מדויקת, שימושית ופחות כללית.

כתיבה ועריכה

אחד השימושים הכי טבעיים ב-Grok הוא כתיבה מהירה: פוסטים, הודעות, ברכות, ניסוחים מחדש, כותרות וטיוטות קצרות. הוא מתאים במיוחד למצבים שבהם יש רעיון בראש, אבל צריך עזרה להפוך אותו לניסוח זורם, חד או משכנע יותר.

 

הנה כמה פרומפטים מוכנים:

 

פוסט לרשתות חברתיות

כתוב לי פוסט קצר ל-X בעברית על [נושא], בטון חכם אבל לא מתנשא, באורך של עד 4 שורות, עם פתיחה שמושכת תשומת לב.

 

ניסוח מחדש

שכתב את הטקסט הבא כך שיהיה ברור, קצר וזורם יותר, בלי לשנות את המשמעות:
[הדבק טקסט]

 

כותרות חלופיות

תן לי 10 כותרות שונות לטקסט הבא: 3 ענייניות, 3 מסקרנות, 2 קלילות ו-2 חדות במיוחד.

 

טיוטת מייל

נסח לי מייל קצר, מנומס וישיר בנושא [נושא], בטון מקצועי ולא רשמי מדי.

 

הטיפ החשוב כאן הוא לא לבקש רק "תכתוב". עדיף לבקש כמה גרסאות, או להגדיר טון ברור: רשמי, קליל, חד, אנושי, שיווקי או ביקורתי. כך Grok לא רק "כותב בשבילכם", אלא ממש עובד כמו עורך ראשון לטיוטה.

למידה וסיכומים

מעבר לכתיבה, Grok יכול לשמש היטב גם ככלי עזר ללמידה, לסיכומים ולהבנה מהירה של טקסטים מורכבים. זה נכון במיוחד כשצריך לפרק נושא עמוס, להסביר ויכוח ציבורי, או לסכם טקסט ארוך בשפה פשוטה וברורה.

 

הנה פרומפטים שימושיים לפרק הזה:

 

הסבר פשוט לנושא מורכב

הסבר לי את הנושא הבא כאילו אני מתחיל לגמרי, בעברית פשוטה, עם דוגמה אחת מהחיים:
[שם הנושא]

 

סיכום כתבה או מאמר

סכם את הטקסט הבא ב-5 נקודות קצרות, ואז כתוב פסקה אחת שמסבירה מה באמת חשוב להבין ממנו:
[הדבק טקסט]

 

הכנה למבחן או להרצאה

בנה לי דף חזרה קצר על הנושא הבא: מושגים מרכזיים, שאלות אפשריות, ותשובות קצרות לכל שאלה.

 

השוואה בין שני מושגים

השווה בין [מושג א'] ל-[מושג ב'] בטבלה פשוטה: הגדרה, שימוש, יתרונות, חסרונות ודוגמה.

 

כאן שווה להזכיר שהמטרה היא לא רק "לקבל תשובה", אלא להבין טוב יותר. לכן כדאי להשתמש ב-Grok בכמה סבבים חכמים: קודם הסבר פשוט, אחר כך סיכום, ואז שאלת המשך כמו "מה החלק שהכי קל להתבלבל בו?" או "תן לי דוגמה קונקרטית".

טרנדים ושיח

כפי שכבר הבנתם, זה כנראה האזור שבו Grok מרגיש הכי טבעי, משום שהחיבור שלו ל-X הופך אותו לכלי נוח במיוחד להבנת טרנדים, שרשורים, ויכוחים וגלי תגובות שמתפוצצים ברשת. במקום לגלול עשרות פוסטים ולנסות להבין מה קרה, אפשר לבקש ממנו לעשות סדר ולחלץ את עיקרי הדברים.

 

פרומפטים מומלצים:

 

הסבר לטרנד

תסביר לי למה [נושא/שם] נמצא עכשיו בטרנדינג ב-X. מי התחיל את זה, מה קרה, ומה הטענות המרכזיות סביב זה?

 

מיפוי מחלוקת

סכם לי את הוויכוח סביב [נושא] ב-X: מה אומרים התומכים, מה אומרים המתנגדים, ואיפה יש אי-ודאות או מידע לא מאומת?

 

סיכום שרשור

סכם את השרשור הזה ב-5 נקודות קצרות, ואז כתוב אם מדובר בעיקר בעובדות, בפרשנות או בספקולציה.

 

תרגום שיח רשת לשפה פשוטה

קרא את הטקסט הבא והסבר לי אותו בעברית פשוטה, בלי סלנג, כאילו אני לא עוקב אחרי השיח הזה בכלל:
[הדבק טקסט]

 

זה סעיף שכדאי לכתוב בו לקוראים משפט אחד ברור: Grok יכול לעזור מאוד להבין "על מה כולם מדברים", אבל הוא לא מחליף בדיקה עצמאית כשמדובר בטענות עובדתיות, מספרים, ציטוטים או חדשות מתפתחות.

הומור ויצירה

Grok מזוהה מאוד עם טון משוחרר, שנון ולעיתים גם סרקסטי יותר מצ'אטבוטים אחרים, ולכן הוא מתאים במיוחד לבקשות הומוריסטיות, לרוסטים, לטקסטים עם קריצה ולניסוחים "יותר אינטרנטיים" באופי שלהם. בנוסף, בחלק מהשימושים הוא מאפשר גם יצירת תמונות, כך שהצד היצירתי של הכלי לא נגמר בטקסט בלבד.

 

הנה כמה דוגמאות טובות:

 

רוסט קליל

תכתוב לי roast משעשע ולא אכזרי על הביו הבא ב-X, בטון שנון ולא מעליב:
[הדבק ביו]

 

ציוץ עם אופי

כתוב לי 5 גרסאות לציוץ על [נושא], בטון מצחיק, חד ואינטרנטי, אבל לא ילדותי.

 

טקסט עם קריצה

קח את הטקסט הבא ושכתב אותו כך שיהיה יותר שנון, זורם וכיפי לקריאה, בלי להפוך אותו למוגזם:
[הדבק טקסט]

 

פרומפט לתמונה

צור פרומפט מפורט לתמונה של [רעיון], בסגנון קולנועי, עם תאורה דרמטית, צבעים עשירים ורקע שמדגיש את האווירה.

 

כדאי להדגיש כאן נקודה חשובה: כשמבקשים מ-Grok להיות מצחיק, פרובוקטיבי או "פרוע" יותר, מקבלים לעיתים תוצאה הרבה יותר מעניינת מבחינה סגנונית — אבל גם פחות צפויה, ולעיתים פחות מדויקת. לכן בפרק הזה נכון לעודד את הקורא ליהנות מהיצירתיות, אך לא לבלבל בין שנינות לבין אמינות.

תבנית שעובדת

הנה התבנית אולי הכי שימושית לכל פרומפט:

אתה [התפקיד של Grok].
המטרה שלך היא [מה אני צריך].
קהל היעד הוא [למי זה מיועד].
הטון צריך להיות [רשמי / קליל / חד / מקצועי / ידידותי].
האורך הרצוי הוא [מספר שורות / פסקאות / נקודות].
אם חסר מידע, שאל אותי שאלה אחת לפני שאתה עונה.

 

למשל:

אתה עורך טכנולוגי.
המטרה שלך היא לנסח לי פוסט קצר על גרוק למשתמשים מתחילים.
קהל היעד הוא אנשים שלא מכירים AI לעומק.
הטון צריך להיות חכם, ידידותי וברור.
האורך הרצוי הוא עד 5 שורות.
אם חסר מידע, שאל שאלה אחת לפני שאתה עונה.

 

זו תבנית פשוטה, אבל היא חוסכת בלבול, משפרת את איכות התוצאה, ועוזרת במיוחד למשתמשים חינמיים שצריכים לנצל כל הודעה בצורה חכמה בגלל מגבלות השימוש.

בדיקת עובדות, פרטיות ומגבלות - מה חשוב לדעת לפני שסומכים על Grok

אחד הדברים שהופכים את Grok למסקרן כל כך הוא גם אחד המקומות שבהם צריך להשתמש בו בזהירות. החיבור שלו ל-X ולשיח בזמן אמת הופך אותו לכלי מצוין להבנת טרנדים, ויכוחים ופוסטים מתפוצצים, אבל בדיוק בגלל זה הוא עלול גם לשקף רעש, בלבול או מידע שעדיין לא התייצב.

 

במילים פשוטות, Grok יכול להיות עוזר מעולה לניתוח, סיכום וניסוח, אבל הוא לא אמור להיות הסמכות האחרונה שלכם בנושאים רגישים. כשמשתמשים בו נכון, הוא חוסך זמן ומסדר את התמונה, אבל כשסומכים עליו בעיניים עצומות, הוא עלול להישמע בטוח בעצמו גם כשהתמונה עדיין חלקית.

למה חשוב לבדוק גם תשובה שנשמעת משכנעת

אחת המלכודות הגדולות של כלי AI היא לא תשובה שנשמעת מוזרה, אלא דווקא תשובה שנשמעת מצוין. Grok יודע לנסח היטב, לחבר טיעונים, ולהציג תשובה בטון סמכותי, במיוחד כשהוא מסכם שיח שכבר רץ במהירות ב-X.

 

כאן נכנסת הבעיה המוכרת של "הזיות" - מצב שבו המודל משלים פערים, מנחש פרטים חסרים, או מערבב בין עובדה, פרשנות וספקולציה. זה נכון במיוחד כששואלים על אירוע מתפתח, שמועה, ציטוט שלא אומת, או ויכוח שבו כל צד מושך את הסיפור לכיוון אחר.

 

בנוסף, ל-Grok יש גם צד הומוריסטי ומושחז יותר מכלי AI אחרים, ובמצבים משוחררים יותר הוא עשוי להעדיף שנינות, דרמה או ניסוח חד על פני דיוק יבש. לכן, ככל שהתשובה נשמעת יותר מצחיקה, יותר עוקצנית או יותר "ויראלית", כך כדאי לבדוק אותה יותר בזהירות.

איך בודקים תשובה של Grok בלי להסתבך

הדרך הכי טובה לעבוד עם Grok היא לא לשאול "האם זה נכון?", אלא "מה כאן חייב בדיקה?". ברגע שמאמצים את הגישה הזאת, הכלי הופך משופט אחרון לעוזר מחקר חכם.

 

הנה כלל פשוט שכדאי ללמד את הקוראים במדריך: כל פעם ש-Grok נותן תשובה, בודקים במיוחד ארבעה דברים:

  • שמות, תארים ותפקידים.

  • תאריכים, זמנים ורצף אירועים.

  • מספרים, מחירים, אחוזים ונתונים.

  • ציטוטים, ייחוס אמירות וקישורים בין אנשים או גופים.

עוד הרגל טוב הוא לבקש ממנו בעצמו להפריד בין שכבות המידע. למשל:

  • "הפרד בין עובדות, פרשנות והשערות."

  • "איזה חלק בתשובה הזאת מבוסס על מידע מאומת, ואיזה חלק הוא סיכום שלך?"

  • "מה הנקודות שהכי דורשות בדיקה נוספת?"

ניסוחים כאלה לא מבטיחים תשובה מושלמת, אבל הם כן מאלצים את המודל להיות מסודר וזהיר יותר. עבור משתמשים חינמיים, זו גם דרך חכמה לחסוך הודעות, כי במקום לגלות מאוחר שהתשובה מעורבבת, מבקשים כבר מראש מבנה ברור ואמין יותר.

פרטיות: מה לא כדאי להדביק לצ'אט

גם כש‑Grok מרגיש כמו שיחה קלילה, חשוב לזכור שמדובר בכלי AI ולא במחברת פרטית. לפני שמדביקים מידע אישי, מסמך רגיש, פרטי לקוח, סיסמאות, חוזים, בדיקות רפואיות או נתונים פיננסיים, עוצרים רגע ושואלים אם זה באמת הכרחי.

 

כלל אצבע פשוט: אם לא הייתם מרגישים בנוח לראות את המידע הזה מופיע בטעות על מסך פתוח, אל תדביקו אותו לצ'אט. זה נכון במיוחד למשתמשים חדשים, שלפעמים נסחפים עם הנוחות ושוכחים כמה מהר עוברים משאלה תמימה למסמך אישי.

 

הגדרות פרטיות בגרוק

הגדרות הפרטיות של Grok

 

כדאי גם להכיר את הגדרות הפרטיות בחשבון שלכם. במסך ההגדרות (Settings), תחת Data Controls, תמצאו אפשרויות כמו:

  • שימוש בנתונים שלכם לשיפור המודל (מוקף באדום). כבוי זה אומר שאתם לא מאפשרים את השימוש.

  • התאמה אישית לזיכרון והיסטוריית שיחות.

  • שיתוף קישורי צ'אט.

  • הצגת תוכן רגיש.

כל אחת מהאפשרויות האלה ניתנת להפעלה או כיבוי, והן משפיעות על האופן שבו Grok משתמש במידע שלכם. המדיניות עשויה להשתנות, ולכן תמיד עדיף לבדוק את ההגדרות בזמן אמת במקום להסתמך על הנחות או על מידע ישן.

מתי לא כדאי לסמוך רק על Grok 

יש משימות שבהן Grok מצוין: ניסוח, סיכום, מיפוי טענות, הסבר ראשוני וניתוח שיח. אבל יש תחומים שבהם הוא לא יכול להחליף מומחה, מקור רשמי או בדיקה עצמאית. זה נכון במיוחד בהחלטות רפואיות, משפטיות, פיננסיות, או בכל מצב שבו טעות קטנה עלולה להיות משמעותית.

 

העיקרון פשוט, Grok טוב מאוד בלהסביר, למקד ולתת כיוון. הוא פחות מתאים להיות הגורם היחיד שעל בסיסו מקבלים החלטה חשובה. גם כשהוא נשען על שיח עדכני מ‑X, הוא פועל בתוך סביבה מהירה ורועשת, שבה אמינות המידע משתנה מרגע לרגע.

 

אותו דבר נכון גם לגבי חדשות מתפרצות. בדקות או בשעות הראשונות של אירוע, הרשת מלאה בפרשנויות, תיקונים וחצאי דיווחים. Grok יכול לעזור להבין את התמונה, אבל לא כדאי להסתמך עליו כדי לנעול מסקנה סופית.

צידה לדרך

הגענו לסוף המדריך. עכשיו, כשאתם מבינים איך המנוע של Grok עובד, איך לעקוף את המגבלות שלו ואיך להוציא ממנו תשובות חכמות ורלוונטיות, כל מה שנשאר הוא פשוט להתחיל לשחק איתו.

 

כדי לעשות לכם חיים קלים, הנה Cheat Sheet שכדאי לשמור בהישג יד בכל פעם שאתם פותחים את הממשק וצריכים מבנה לפרומפט מוצלח:

  1. התפקיד: "אתה מומחה ל..." / "אתה עורך שנון של..."

  2. המשימה: "סכם לי את..." / "תסביר לי למה..." / "כתוב לי..."

  3. ההקשר (קריטי ב-Grok): "בהתבסס על מה שקורה עכשיו ב-X..."

  4. המבנה: "ב-3 נקודות קצרות" / "בפסקה אחת" / "בטבלה מסודרת".

  5. הטון: "בטון מצחיק וציני" (Fun) או "בטון עובדתי וישיר" (Regular).

מילות סיכום

Grok הוא כלי מצוין להתחיל ממנו, אבל לא תמיד הכלי שמסיימים איתו. אם משתמשים בו כעוזר חכם - הוא מהיר, מועיל, יצירתי ולעיתים ממש מבריק. אם מצפים ממנו להיות מקור סופי, חסין טעויות וחף מהטיות של שיח רשת, מתאכזבים מהר יותר. השילוב הנכון הוא ליהנות מהמהירות והיצירתיות, אבל להשאיר את שיקול הדעת אצל המשתמש.

 

Grok הוא לא עוד צ'אטבוט גנרי שמנסה לרצות את כולם. הוא נבנה להיות מהיר, מחובר לקרקע המציאות של הרשתות החברתיות, ולפעמים גם קצת חצוף. כמשתמשים חינמיים, אולי תצטרכו להתמודד עם מגבלות הודעות, אבל ברגע שתתרגלו לשאול את השאלות הנכונות, תגלו שיש לכם בידיים את אחד הכלים החזקים ביותר להבנת האינטרנט של שנת 2026.

 

צאו לדרך, תשאלו שאלות קשות, ואל תשכחו לבקש ממנו איזה "רוסט" טוב על עצמכם מדי פעם. 

הפוסט המדריך השלם ל-Grok החינמי: חלק ב’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/grok-guide-2/feed/ 0
המדריך השלם ל-Grok החינמי: חלק א’ https://letsai.co.il/grok-guide-1/ https://letsai.co.il/grok-guide-1/#respond Tue, 07 Apr 2026 05:17:27 +0000 https://letsai.co.il/?p=72159 אם יצא לכם לעבוד עם בינה מלאכותית בשנים האחרונות, כנראה התרגלתם לכלים מנומסים, זהירים ולעיתים גם מעט משעממים. Grok, מודל השפה של חברת xAI, נבנה כדי לשבור את הדפוס הזה. היתרון המרכזי שלו אינו רק כוח חישובי, אלא הגישה הישירה לזרם המידע בזמן אמת של רשת X. המשמעות היא שכאשר מתרחש אירוע חדשותי או מתחיל […]

הפוסט המדריך השלם ל-Grok החינמי: חלק א’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם יצא לכם לעבוד עם בינה מלאכותית בשנים האחרונות, כנראה התרגלתם לכלים מנומסים, זהירים ולעיתים גם מעט משעממים. Grok, מודל השפה של חברת xAI, נבנה כדי לשבור את הדפוס הזה. היתרון המרכזי שלו אינו רק כוח חישובי, אלא הגישה הישירה לזרם המידע בזמן אמת של רשת X. המשמעות היא שכאשר מתרחש אירוע חדשותי או מתחיל טרנד חדש, Grok כבר קורא, מנתח ומבין אותו הרבה לפני שכלים אחרים מספיקים לעדכן את מאגרי הידע שלהם. זהו החלק הראשון מתוך שניים במדריך המעשי ל‑Grok החינמי בגרסה 4.20. בחלק א' נבנה את הבסיס: איך לגשת ל‑Grok, איך לעבוד בצורה חכמה בגרסה החינמית, איך נראה הממשק ואיזה פיצ'רים מרכזיים יעזרו לכם להבין את השיח ברשת בזמן אמת. בחלק ב' נעמיק בטכניקות מעט יותר מתקדמות, יצירה, למידה ופרומפטים חכמים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הגישה של xAI: חופש ביטוי, הומור וחיבור לזמן אמת

החזון מאחורי המערכת מתבסס על עיקרון מרכזי אחד: מקסימום חופש ביטוי ומינימום צנזורה או פוליטיקלי קורקט. Grok לא מפחד לענות על שאלות "עוקצניות" שצ'אטבוטים אחרים יסרבו לענות עליהן מטעמי בטיחות. בנוסף, הוא מצויד בחוש הומור מובנה ונטייה לסרקסטיות, מה שהופך את האינטראקציה איתו לקרובה יותר לשיחה עם משתמש רשת טיפוסי - ציני, מהיר ותמיד מעודכן.

למי המדריך מיועד ומה תדעו לעשות בסופו

המדריך הזה מיועד למשתמשים פרטיים שרוצים להכיר את Grok ולנצל את היכולות שלו בלי להתחייב למנוי בתשלום. בסוף הקריאה תדעו איך לגשת למערכת, איך לעבוד בצורה חכמה יותר בתוך מגבלות הגרסה החינמית, איך לנתח טרנדים ושיח בזמן אמת, ואיך להשתמש בסגנון ההומוריסטי והישיר שמאפיין את Grok כדי ליצור תוכן רלוונטי, ברור ומשעשע.

צעדים ראשונים (בלי להוציא שקל)

איך ניגשים ל-Grok?

נכון לחודש אפריל 2026, יש שלוש דרכים עיקריות להשתמש ב‑Grok:

1. דרך פלטפורמת X Grok משולב ישירות באתר ובאפליקציה של X, כך שאפשר לשאול שאלות מתוך הפיד עצמו בלי לעבור לממשק אחר.

2. האתר הייעודי Grok.com ממשק נקי ושקט שמוקדש לשיחה עם המודל בלבד, ללא הסחות דעת מהרשת החברתית.

3. אפליקציות מובייל אפליקציות ל‑iOS ולאנדרואיד שמאפשרות גישה מהירה מהטלפון, כולל תמיכה בפקודות קוליות ושימוש במצלמה לזיהוי וניתוח אובייקטים.

הגרסה החינמית מול מנוי Premium: מה מקבלים ומהן המגבלות?

Grok פועלת במודל של התנסות חינמית שמאפשרת להכיר את הכלי, אך היא כוללת מגבלות שימוש שנועדו למנוע עומס על השרתים. הגרסה החינמית מספקת גישה בסיסית בלבד: מספר הודעות מוגבל בכל פרק זמן, חלק מהפיצ'רים זמינים באופן חלקי, ויכולת יצירת התמונות מצומצמת. היא מתאימה להתנסות ראשונית ולהבנה כללית של המערכת. 

 

מנויי X Premium נהנים מגישה רחבה יותר: יותר הודעות, זמינות גבוהה יותר של יצירת תמונות, ושימוש נוח יותר בפיצ'רים מתקדמים. כל זה מוצע בתמורה לתשלום חודשי. יש גם את גרוק למשתמש העסקי ולארגונים עליו תוכלו לקרוא כאן.

 

טיפ חשוב למשתמשים חינמיים: מגבלת ההודעות אינה פוגעת באיכות התשובות אלא רק בכמות הפניות. לכן כדאי לרכז כמה שיותר בקשות בפרומפט אחד מפורט, במקום לנהל שיחה מתמשכת, ארוכה ומפוצלת. כך תוכלו לשמור את המכסה למשימות החשובות באמת.

 

תמחור של גרוק

אפשרויות המנוי של גרוק למי שרוצה מינימום מגבלות

הפיצ'רים שכל משתמש חייב להכיר

היתרון הגדול: חיפוש וניתוח מידע בזמן אמת מתוך X

הכוח המרכזי של Grok הוא היכולת שלו להסתמך על מידע שנוצר באותו רגע ברשת X. זה מאפשר לשאול שאלות כמו "למה כולם מדברים על הפוליטיקאי הזה עכשיו" או "מה הטענות המרכזיות בוויכוח שרץ כרגע בפיד" ולקבל תשובה שמחברת בין הפוסטים, התגובות וההקשר הרחב. Grok יודע להפוך את הרעש של הרשת החברתית לתקציר חד וברור.

 

ככה נראה ממשק המשתמש של הצ׳אטבוט גרוק:

 

ממשק המשתמש ומגוון הכפתורים

שיחה קולית, המרת דיבור לטקסט ותפריט מצבי שיחה

מצבי פעולה: איך Grok חושב בגרסה 4.20

בגרסאות מוקדמות של Grok היו מצבי שיחה כמו Regular ו‑Fun Mode, שאפשרו לבחור בין טון רציני לטון משוחרר וציני. המצבים האלה כבר לא קיימים בגרסה 4.20.

 

אפשרויות בחירה למשתמש

מצבי פעולה ואפשרויות נוספות למשתמש

 

במקומם, Grok מציע מצבי פעולה שמשפיעים על עומק ומהירות התשובה:

  • Auto - המערכת בוחרת לבד בין מהירות לעומק.

  • Fast - תשובות קצרות ומהירות.

  • Expert - תשובות מעמיקות וארוכות יותר.

  • Heavy / SuperGrok - משתמשים בתשלום חודשי ומשתמשים כבדים (power users) וגם אופציות לארגונים.

למרות שהאפשרות לבחור Fun Mode נעלמה, ה‑DNA של Grok נשאר זהה. הוא עדיין ישיר, שנון וקצת ציני, ומרגיש הרבה פחות רשמי מכלים אחרים. Grok שומר על טון חד ואנושי, פשוט בלי כפתור שמדליק או מכבה אותו.

 

בחלק הימני העליון בתמונה המצורפת מעלה תוכלו לגלות עוד אפשרויות בממשק המשתמש הראשי. אפשר ללחוץ על כפתור Imagine שמעביר למסך יצירת תמונות ו-וידאו ואפילו לעבור למצב ״אינקוגניטו״ - שיחה זמנית שבה Grok לא שומר את ההודעות שלכם ולא משתמש בהן כדי לבנות הקשר לשיחות עתידיות. ברגע שסוגרים את החלון, השיחה נעלמת מההיסטוריה ולא מופיעה ברשימת הצ׳אטים. זה שימושי במיוחד כשעובדים על נושא רגיש, כשלא רוצים שהשיחה תתערבב עם פרויקט קיים, או כשפשוט רוצים להתנסות בלי "ללכלך" את ההיסטוריה.

יצירת תמונות, וידאו ותוכן מולטימדיה

Grok אינו מוגבל לטקסט בלבד. דרך כפתור Imagine ניתן ליצור תמונות, ובחלק מהגרסאות גם וידאו קצר באיכות בסיסית. כדי לקבל תוצאה טובה, כדאי לתאר במדויק את הסצנה, התאורה, הסגנון והאווירה. משתמשים חינמיים עשויים להיתקל בהודעות שגיאה בשעות עומס, ולכן מומלץ לשמור בקשות ויזואליות לרגעים שבהם באמת צריך אותן.

 

תפריט בחירת יצירת תמונות ווידאו

סרגל האפשרויות ליצירת וידאו ותמונות

דיבור עם Grok וניתוח תמונות מהמצלמה

באפליקציות המובייל של Grok ניתן להשתמש במצלמה ובמיקרופון. אפשר לצלם מסמך בשפה זרה ולקבל תרגום, לצלם גרף ולקבל הסבר פשוט, או לנהל שיחה קולית בזמן הליכה או נהיגה. זו דרך נוחה להפוך את Grok לעוזר אישי שמלווה אתכם ביומיום.

 

סרגל צידי בממשק הווב

סרגל הצד הקבוע בממשק הווב

עבודה עם פרויקטים ב‑Grok

בנוסף לשיחה רגילה, Grok מאפשר לפתוח פרויקט ייעודי שבו מגדירים מראש את שם הפרויקט שלכם (1) ההנחיות, הטון והסגנון שהמודל צריך לאמץ (2). בתוך פרויקט אפשר גם להעלות קבצים, מסמכים או חומרים רלוונטיים (3), וכך ליצור סביבת עבודה קבועה שבה Grok מבין את ההקשר בלי להזכיר לו אותו בכל פעם מחדש. עבור משימות ארוכות, כתיבה מתמשכת או ניתוח של כמה מקורות מידע, פרויקט מעניק יציבות, עקביות ותוצאות מדויקות יותר.

 

פרויקט בגרוק

עבודה עם פרויקטים ב‑Grok

עבודה יומיומית - איך להוציא מ-Grok את המקסימום

איך לנסח פרומפטים מנצחים 

האופן שבו אתם מנסחים את הבקשה משפיע ישירות על איכות התשובה. במקום לכתוב שאלה קצרה וכללית כמו "תסכם לי את הכתבה", כדאי לבנות את הפרומפט כמו מתכון ברור:

  • הגדירו תפקיד: "אתה עורך טכנולוגי בכיר"

  • הגדירו משימה: "סכם את הכתבה הבאה"

  • הגדירו פורמט: "בשלוש נקודות קצרות ופסקה מסכמת"

ניסוח כזה מצמצם צורך בהבהרות ושומר על מכסת ההודעות שלכם בגרסה החינמית.

"תסביר לי את הטרנד" - הפיצ'ר ששווה הכל

במקום לנסות להבין לבד למה סרטון, ציוץ או התבטאות מסוימת משתלטים על הפיד, אפשר לבקש מ‑Grok לעשות סדר. הנוסחה הבאה עובדת מצוין:

 

"תסביר לי למה למה כולם מדברים עכשיו על [נושא] ב‑X. מי התחיל את זה, מה הטענות המרכזיות של שני הצדדים, והאם יש כאן עובדות מאומתות או רק שמועות."

 

התשובה שתקבלו תסכם את השיח ותציג את ההקשר הרחב תוך שניות.

ניתוח וסיכום של שרשורים ארוכים 

רשת X מלאה בשרשורים מעניינים. חלקם ארוכים ומתישים. גם אם אין לכם חשבון X, תוכלו להדביק בצ׳אט קישור ציבורי לשרשור ולבקש מ‑Grok להציג את עיקרי הדברים בצורה מסודרת וברורה. מי שכן מחזיק חשבון X יכול גם לתייג את Grok ישירות בפוסט. בשני המקרים Grok ינתח את השרשור, יזהה את הטענות המרכזיות ויחסוך לכם זמן קריאה.

אמנות החיסכון - איך לא להיתקע עם "הגעת למגבלת השימוש"

בגרסה החינמית יש מגבלה של כ‑10 עד 20 הודעות בכל פרק זמן, ולכן חשוב להשתמש בהן בחוכמה. שלושת הכללים הבאים יעזרו לכם להפיק את המקסימום:

  • הימנעו מנימוסים ואל תגידו תודה. כל הודעה נספרת. גם "תודה" קצרה מבזבזת שאילתה.

  • הכל בהודעה אחת. תכננו מראש ורכזו כמה שיותר בקשות בפרומפט אחד מפורט.

  • שמרו את Grok למשימות הגדולות. אל תבזבזו הודעות על שאלות פשוטות כמו מזג אוויר או חישובים בסיסיים. השתמשו בו כשצריך ניתוח, סיכום או יצירת תוכן.

מה למדנו עד עכשיו?

בחלק א' של המדריך הכרנו את Grok מקרוב. איך נראה הממשק משתמש, מה הופך אותו לשונה מכלי בינה מלאכותית אחרים, איך ניגשים אליו בחינם, מהן מגבלות השימוש, ואילו פיצ'רים מרכזיים מאפשרים להבין את השיח ברשת X בזמן אמת. למדנו איך לנסח פרומפטים בסיסיים ויעילים, איך לחסוך בהודעות בגרסה החינמית, ואיך להשתמש ביכולות כמו ניתוח טרנדים, סיכום שרשורים ויצירת תוכן בצורה חכמה.

 

המטרה של חלק א' הייתה לבנות בסיס יציב: להבין איך Grok נראה וחושב, איך הוא מגיב, ואיך להפיק ממנו ערך כבר מהשימוש הראשון.

 

מחר, בחלק ב', נעמיק עוד יותר. נעסוק בטכניקות מתקדמות לכתיבה ועריכה, נלמד איך להשתמש ב‑Grok ללמידה, סיכומים והכנה למבחנים, נחקור את היכולות שלו בתחום ההומור והיצירה, ונציג תבניות עבודה שיעזרו לכם לבנות פרומפטים מדויקים לכל משימה.

הפוסט המדריך השלם ל-Grok החינמי: חלק א’ הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/grok-guide-1/feed/ 0
כשהמודל הופך לחלק מתהליך הפיתוח של עצמו – המקרה של MiniMax-M2.7 https://letsai.co.il/minimax-m27/ https://letsai.co.il/minimax-m27/#respond Mon, 06 Apr 2026 19:14:13 +0000 https://letsai.co.il/?p=72479 במשך שנים, עולם הבינה המלאכותית התקדם בצעדים מדודים: עוד מודל, עוד שיפור, עוד קפיצה בביצועים. אבל מתחת לפני השטח, משהו עמוק יותר מתחיל להשתנות - לא רק מה המודלים יודעים לעשות, אלא עד כמה ניתן להפוך את תהליך השיפור שלהם לאוטומטי. אחד המודלים שממחישים את הכיוון הזה הוא MiniMax-M2.7 - מודל שפה מתקדם שפותח על […]

הפוסט כשהמודל הופך לחלק מתהליך הפיתוח של עצמו – המקרה של MiniMax-M2.7 הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשך שנים, עולם הבינה המלאכותית התקדם בצעדים מדודים: עוד מודל, עוד שיפור, עוד קפיצה בביצועים. אבל מתחת לפני השטח, משהו עמוק יותר מתחיל להשתנות - לא רק מה המודלים יודעים לעשות, אלא עד כמה ניתן להפוך את תהליך השיפור שלהם לאוטומטי. אחד המודלים שממחישים את הכיוון הזה הוא MiniMax-M2.7 - מודל שפה מתקדם שפותח על ידי חברת מינימקס (MiniMax) הסינית, בדומה למודלי שפה כמו ChatGPT, שמסוגל להבין טקסט, לענות על שאלות, לכתוב קוד ולבצע משימות מורכבות.

 

המודל נבנה כחלק ממאמץ רחב יותר של חברות טכנולוגיה בסין לפתח מודלי שפה מתקדמים בקנה מידה גדול, תוך הסתמכות על תשתיות חישוב, דאטה ואופטימיזציה של תהליכי אימון. במסגרת הזו, MiniMax-M2.7 לא רק אומן על כמויות גדולות של מידע, אלא גם שולב בתהליך הפיתוח של עצמו, כך שחלק מהמשימות שבדרך כלל מבוצעות על ידי מהנדסים עברו אוטומציה. השאלה כבר איננה רק מה המערכת יודעת, אלא עד כמה היא משתתפת ביצירת הדור הבא שלה.

 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

 

בשנת 2016, חוקרי גוגל הציגו לעולם את AlphaGo - מערכת שלמדה לשחק גו ברמה על-אנושית. אחד הרגעים הזכורים ביותר היה מהלך 37 במשחק מול לי סדול, מהלך שנראה בתחילה כשגוי, אך בדיעבד התברר כגאוני.

 

הרגע הזה לא היה רק ניצחון טכנולוגי, אלא נקודת מפנה תפיסתית. זו הייתה הפעם הראשונה שבה רבים הבינו שמכונה לא רק מחקה חשיבה אנושית, אלא מסוגלת לייצר מהלכים שאפילו מומחים מתקשים לצפות. כמעט עשור אחרי, נדמה שאנחנו מתקרבים לשלב הבא - לא רק מודלים שלומדים בעצמם, אלא מערכות שמשתלבות בתהליך הפיתוח של עצמן.

 

איך המודל משתלב בתהליך השיפור של עצמו?

 

במקרה של MiniMax-M2.7, מדובר בתהליך מבוקר שבו המודל משתלב בלולאת שיפור מתמשכת, אך פועל בתוך מסגרת שמוגדרת ומנוהלת על ידי חוקרים ומהנדסים. לפי התיאור הרשמי, המודל השתתף בתהליך השיפור של עצמו: הוא סייע לעדכן זיכרון, לבנות יכולות (Skills), ולשפר את סביבת העבודה ותהליך ההרצה של המודל (Harness). כלומר, הוא פעל בתוך לולאת שיפור, אך כזו שהוגדרה ונוהלה על ידי חוקרים ומהנדסים.

 

 

מה באמת קורה בתוך התהליך?

 

החידוש המרכזי אינו "מודל שממציא את עצמו", אלא מעבר הדרגתי למערכות שבהן חלקים הולכים וגדלים מתהליך הפיתוח הופכים לאוטומטיים.

במקרה הזה, המודל השתלב בתוך ה-workflow של צוותי הפיתוח. לפי הדיווחים, הוא ביצע חלק מהמשימות שבדרך כלל נעשות על ידי צוותי reinforcement learning, כולל ניתוח תקלות, דיבוג (Debugging), הצעת שינויים בקוד, הרצת ניסויים והערכת תוצאות.

ההערכות מדברות על כך שבחלק מהמקרים, המערכת השתתפה בכ-30% עד 50% מהעבודה התפעולית בתהליך.

במילים אחרות, לא מדובר במערכת שמפתחת את עצמה באופן עצמאי, אלא בכזו שמסייעת לבנות את הגרסה הבאה שלה בתוך מסגרת מוגדרת.

 

 

עד כמה זה משמעותי?

 

המשמעות המרכזית היא שינוי בקצב ובסקייל. כאשר חלקים משמעותיים מהעבודה עוברים אוטומציה, תהליך הפיתוח הופך למהיר יותר, ולעיתים גם עקבי יותר.

עם זאת, חשוב להדגיש, אין כאן "הבנה עצמית" או קבלת החלטות חופשית. מדובר באופטימיזציה של תהליך, לא בהחלפה של האדם.

 

כמה רחוק זה מאוטונומיה אמיתית?

 

כדי להבין את המשמעות של MiniMax-M2.7, צריך להבחין בין שני מושגים שונים: שיפור עצמי במסגרת מוגדרת, ואוטונומיה מלאה.

 

 

 

מה כבר קורה היום?

 

כבר היום קיימים תהליכים של AutoML, חיפוש ארכיטקטורות אוטומטי, ושימוש במודלים כדי לשפר מודלים אחרים. MiniMax-M2.7 משתלב במגמה הזו, אך מרחיב אותה מבחינת היקף האוטומציה והמעורבות בתהליך. במובן הזה, המודל כבר אינו רק תוצר - אלא גם כלי בתוך תהליך הפיתוח.

 

ומה עדיין לא קיים?

 

אוטונומיה מלאה - כלומר מערכת שמגדירה לעצמה מטרות, בונה אסטרטגיה ומבצעת אותה ללא התערבות אנושית - עדיין אינה קיימת.

גם כאן, בני אדם מגדירים את המטרות, הכלים והגבולות. המודל פועל בתוך המסגרת הזו, ולא מחוץ לה.

 

בין הצהרות למציאות

 

השיח סביב מודלים מהסוג הזה נשען לעיתים על פרשנות רחבה של היכולות בפועל. עם זאת, בהיעדר שקיפות מלאה לגבי אופן הבדיקה, הנתונים והמתודולוגיה, קשה לקבוע עד כמה ההישגים ניתנים להשוואה ישירה למודלים אחרים. אין כיום הוכחה לכך שמדובר במערכת האוטונומית הראשונה מסוגה, לא בסין ולא בעולם. גם ההשוואות למודלים אחרים דורשות זהירות, במיוחד כאשר אין שקיפות מלאה לגבי המתודולוגיה והנתונים. בפועל, מדובר בשלב נוסף באבולוציה של תהליכי פיתוח - לא בקפיצה ישירה לאוטונומיה מלאה.

 

אז מה כן השתנה?

 

השינוי האמיתי אינו בכותרות, אלא בתהליך. במקרה של MiniMax, השינוי הזה כבר מקבל ביטוי מעשי: חלקים מהעבודה שפעם בוצעו ידנית על ידי חוקרים ומהנדסים - כמו ניתוח תקלות, הרצת ניסויים והערכת תוצאות - משתלבים בתוך מערכת שבה המודל עצמו לוקח חלק פעיל.

 

המודל כבר אינו רק תוצר של הפיתוח, אלא גם כלי בתוך תהליך הפיתוח. הוא משתלב בלולאת עבודה שבה כל גרסה מסייעת לשפר את הבאה אחריה, במסגרת שמוגדרת ומנוהלת על ידי בני אדם.

 

זהו שינוי שקט יחסית, אך כזה שיכול להשפיע על קצב ההתקדמות, על מבנה הצוותים, ועל האופן שבו חברות כמו מינימקס (MiniMax) בונות את הדורות הבאים של המודלים שלהן.

 

בסופו של דבר, אולי השאלה החשובה אינה האם מודלים יפעלו באופן עצמאי, אלא עד כמה אנחנו מוכנים לשלב אותם בתוך תהליך הפיתוח עצמו. לא אוטונומיה מלאה, אלא השתתפות הולכת וגדלה - בתוך גבולות שהאדם עדיין מגדיר.

 

במקרה של מינימקס (MiniMax), השילוב הזה כבר מתממש בפועל, כחלק ממאמץ רחב יותר של חברות טכנולוגיה בסין להאיץ את קצב הפיתוח ולצמצם תלות בתהליכים ידניים. אם המגמה הזו תימשך, ייתכן שהיתרון לא יגיע דווקא ממודל "חכם יותר", אלא ממערכת שיודעת לשפר את עצמה מהר יותר.

הפוסט כשהמודל הופך לחלק מתהליך הפיתוח של עצמו – המקרה של MiniMax-M2.7 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/minimax-m27/feed/ 0
למה OpenAI קנתה את TBPN ומה המשמעות האמיתית של המהלך? https://letsai.co.il/openai-tbpn-acquire/ https://letsai.co.il/openai-tbpn-acquire/#comments Mon, 06 Apr 2026 05:03:30 +0000 https://letsai.co.il/?p=72350 ביום שבו OpenAI הכריזה על רכישת TBPN, אחד הערוצים המשפיעים ביותר בשיח הטכנולוגי העכשווי, היה ברור שמדובר במהלך רחב יותר מעסקת מדיה רגילה. החברה שמובילה את מהפכת הבינה המלאכותית כבר לא מסתפקת בהשקת מודלים חדשים או בהצהרות על בטיחות. במקום להגיב לשיח הציבורי מבחוץ, היא בחרה לרכוש את אחד המקומות שבהם השיח הזה נוצר מדי […]

הפוסט למה OpenAI קנתה את TBPN ומה המשמעות האמיתית של המהלך? הופיע ראשון בLet's AI בינה מלאכותית

]]>
ביום שבו OpenAI הכריזה על רכישת TBPN, אחד הערוצים המשפיעים ביותר בשיח הטכנולוגי העכשווי, היה ברור שמדובר במהלך רחב יותר מעסקת מדיה רגילה. החברה שמובילה את מהפכת הבינה המלאכותית כבר לא מסתפקת בהשקת מודלים חדשים או בהצהרות על בטיחות. במקום להגיב לשיח הציבורי מבחוץ, היא בחרה לרכוש את אחד המקומות שבהם השיח הזה נוצר מדי יום. הצעד הזה משנה את מערכת היחסים בין חברות טכנולוגיה, תקשורת והציבור, ומעלה שאלות על גבולות ההשפעה, על עצמאות מערכתית ועל הדרך שבה נבנה נרטיב בעידן שבו בינה מלאכותית מעצבת לא רק מוצרים אלא גם את האופן שבו אנחנו מבינים אותם.

 

ציוץ של ה-cnbc

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה OpenAI צריכה ערוץ תקשורת

כדי להבין את המהלך, צריך להבין את המציאות שבה OpenAI פועלת. בשנים האחרונות החברה נמצאת במרכז של תשומת לב מתמדת. כל השקה, הדלפה, שינוי הנהלה או דיון על בטיחות הופכים מיד לנושא שיחה עולמי. התקשורת המסורתית מסקרת את החברה ללא הפסקה, לעיתים בביקורתיות ולעיתים מתוך חוסר הבנה טכנית.

 

במקביל, השיח האמיתי על בינה מלאכותית עובר לפלטפורמות אחרות. פודקאסטים, סטרימרים, יוטיוברים ויוצרי תוכן הפכו למוקדי כוח חדשים. TBPN הוא אחד המרכזיים שבהם. ערוץ שמצליח לייצר שיחות יומיומיות עם מובילי תעשייה, שמחזיק קהל נאמן ושזכה בתיאור של הניו יורק טיימס כאובססיה החדשה של עמק הסיליקון.

 

מבחינת OpenAI, זה מרחב שהולך ומתרחק משליטתה. הנרטיב הציבורי על בינה מלאכותית כבר לא נקבע במסיבות עיתונאים או בדוחות רשמיים. הוא נבנה בזמן אמת, בשידורים חיים, על ידי יוצרים עצמאיים. עבור חברה שמובילה שינוי טכנולוגי בקנה מידה רחב, זהו מצב מאתגר. היא לא יכולה להסתפק בכך שתהיה מושא לסיקור. היא רוצה להיות חלק מהשיחה עצמה.

מה זה TBPN

כדי להבין את עומק המהלך, צריך להבין מה TBPN מייצגת. זה לא רק פודקאסט, אלא גוף מדיה חדש שמצליח לייצר תחושת קרבה, אותנטיות וזרימה יומיומית של מידע. הערוץ מוביל שידורים חיים, ראיונות עם מנכ"לים, ניתוחי חדשות ותגובות בזמן אמת, ופועל במקביל על פני פלטפורמות כמו X, יוטיוב, ספוטיפיי, אפל פודקאסטס, לינקדאין, סאבסטאק ואינסטגרם. מאחורי המיקרופונים עומדים ג׳ורדי הייס וג׳ון קוגן. הייס מביא סגנון הנחיה מהיר ותקשורתי שמחזיק את הקהל קרוב לשיחה, וקוגן מוסיף עומק אנליטי ופרספקטיבה של יזם ומשקיע שמכיר היטב את ההיסטוריה של התעשייה. השילוב ביניהם יצר פורמט שמושך קהל גדול, מייצר הכנסות משמעותיות וצומח במהירות. ובעיקר, הוא מעניק גישה ישירה לאנשים שמעצבים את עולם הטכנולוגיה.

 

OpenAI לא קנתה אולפן. היא קנתה תשתית השפעה. קהל גדול, צוות יצירתי, יכולות הפקה מהירות ומאגר עצום של שיחות עומק עם מובילי תעשייה. מאגר כזה הוא נכס אסטרטגי שיכול לשמש לניתוח מגמות, להבנת קהלים ואולי בעתיד גם לאימון מודלים שיודעים לייצר תוכן עיתונאי או שיח ציבורי. זו מדיה שהיא גם דאטה, והערך המשולב הזה לא חומק מעיני מי שעוקבים אחרי התעשייה.

 

שני המנחים של TBPN

קרדיט: OpenAI | ג׳ורדי הייס (Jordi Hays) וג׳ון קוגן (John Coogan)

ההבטחה לעצמאות (עם ספקות)

בהודעה הרשמית OpenAI מדגישה שוב ושוב שהערוץ יישאר עצמאי. TBPN ימשיכו לבחור את האורחים, לקבוע את הנושאים ולבקר את החברה בעת הצורך. לטענתם, שמירה על עצמאות מערכתית היא תנאי יסוד לאמון הציבור. לצד ההבטחות האלה מופיעים גם ספקות. הערוץ ישב תחת מחלקת האסטרטגיה של OpenAI וידווח ישירות לכריס להיין (Chris Lehane), דמות ותיקה בעולם התקשורת הפוליטית ומומחה בניהול נרטיבים ובבניית מסרים.

 

עבור חלק מהפרשנים זה דגל אדום. TechCrunch ציינו שהמהלך מעורר שאלות על גבולות ההשפעה. Business Insider תהו האם אורחים מתחרים ירגישו בנוח להגיע לאולפן. אחרים העלו חשש שהצוות, גם אם יישאר עצמאי על הנייר, יתקשה לשמור על אותה חדות כשהוא חלק מארגון שאותו הוא מסקר.

 

ב-TBPN מנסים להרגיע. בהצהרה הרשמית הם מזכירים שהיו ביקורתיים בעבר ושמה שבלט להם אצל OpenAI הוא פתיחות לביקורת ורצון אמיתי לעשות את הדבר הנכון. יחד עם זאת, הם מודים שהמעבר מעמדה של פרשנות לעמדה של השפעה ישירה על האופן שבו הטכנולוגיה מובנת בעולם הוא שינוי משמעותי.

מהלך שמסמן שינוי בתעשיית המדיה

רכישת TBPN משתלבת במגמה רחבה שמעצבת מחדש את תעשיית המדיה בעידן הבינה המלאכותית. הגבולות בין עיתונות, תוכן ושיווק הולכים ומיטשטשים, יוצרי תוכן עצמאיים הופכים למוקדי כוח מרכזיים, וחברות טכנולוגיה מבינות שהן כבר לא תלויות בכלי תקשורת מסורתיים כדי להגיע לקהל שלהן. בינה מלאכותית מאפשרת הפקה מהירה וזולה של תוכן, והציבור נמשך לשיחות פתוחות ולא ערוכות שמייצרות תחושת קרבה ואותנטיות.

 

בתוך המציאות הזו, המהלך של OpenAI אינו רק רכישה של ערוץ מצליח אלא הצהרה אסטרטגית על רצון לעצב את האופן שבו הציבור מבין את הטכנולוגיה. TBPN, שנבנה על עצמאות ואמון, יידרש כעת להוכיח שהוא מסוגל לשמור על זהותו גם כחלק מתאגיד גדול.

 

עבור OpenAI זה צעד טבעי בעידן שבו השיחה על בינה מלאכותית מתנהלת מבפנים ולא מבחוץ. עבור התעשייה כולה זהו סימן לכך שהכוח עובר לידיים של מי שמחזיק גם בטכנולוגיה וגם בפלטפורמות שמספרות עליה. השאלה שנותרה פתוחה היא כיצד יישמר האיזון בין חדשנות לבין אמון הציבור, ומי יגדיר את גבולות השיחה בעידן שבו חברות AI הופכות גם למפיקות תוכן וגם למושא הסיקור שלו.

הפוסט למה OpenAI קנתה את TBPN ומה המשמעות האמיתית של המהלך? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-tbpn-acquire/feed/ 1
מרוץ החימוש ב-AI: מה הסיפור האמיתי מאחורי גלי הפיטורים? https://letsai.co.il/ai-layoffs/ https://letsai.co.il/ai-layoffs/#respond Sun, 05 Apr 2026 05:58:32 +0000 https://letsai.co.il/?p=72305 ב-2026 תעשיית הטכנולוגיה נכנסת לסחרור שלא דומה לשום דבר שראינו בעשור האחרון. מצד אחד, החברות הגדולות מבטיחות מהפכה - בינה מלאכותית שתשנה את הכלכלה, תייעל תהליכים ותפתח שווקים חדשים. מצד שני, אותן חברות עצמן מפטרות עשרות אלפי עובדים, לעיתים תוך שימוש ב-AI כהסבר נוח, ולעיתים מתוך אילוץ פיננסי עמוק בהרבה. כך נוצר מצב מורכב: גל […]

הפוסט מרוץ החימוש ב-AI: מה הסיפור האמיתי מאחורי גלי הפיטורים? הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-2026 תעשיית הטכנולוגיה נכנסת לסחרור שלא דומה לשום דבר שראינו בעשור האחרון. מצד אחד, החברות הגדולות מבטיחות מהפכה - בינה מלאכותית שתשנה את הכלכלה, תייעל תהליכים ותפתח שווקים חדשים. מצד שני, אותן חברות עצמן מפטרות עשרות אלפי עובדים, לעיתים תוך שימוש ב-AI כהסבר נוח, ולעיתים מתוך אילוץ פיננסי עמוק בהרבה. כך נוצר מצב מורכב: גל פיטורים שמוצג כצעד חדשני, אבל בפועל נובע משילוב של חובות עתק, השקעות חסרות תקדים בתשתיות, ואוטומציה שמתחילה לכרסם בתפקידים טכניים בסיסיים. כדי להבין את התמונה המלאה, צריך לבחון שלוש שכבות במקביל: הלחץ הפיננסי שמניע את החברות, האופן שבו הן משתמשות בנרטיב ה-AI כדי למסגר את המהלכים, וההשפעה הממשית של אוטומציה על תפקידים מסוימים. Oracle, Meta ו-Block מציגות שלוש דוגמאות שונות - אך משלימות - לאופן שבו הכוחות האלה מתלכדים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המרוץ לתשתיות AI והשקעות ענק שמחייבות קיצוצים

הגורם המרכזי שמניע את גל הפיטורים הנוכחי הוא לא טכנולוגי אלא פיננסי. תעשיית הטכנולוגיה נכנסה למרוץ חימוש סביב תשתיות AI שכולל דאטה סנטרים, שבבים, חשמל, קירור, רשתות אופטיות ו-GPU farms. ההיקפים עצומים. לפי הערכות עדכניות, מיקרוסופט, אמזון, גוגל ומטא צפויות להשקיע יחד כ-650 מיליארד דולר בתשתיות AI רק בשנת 2026.

 

ההשקעות הללו אינן מותרות, אלא נתפסות כהכרח אסטרטגי. כל חברה חוששת להישאר מאחור, ולכן כולן מאיצות קדימה בו-זמנית. אלא שכמעט אף אחת מהן אינה מסוגלת לממן את המהלך מהתזרים השוטף. התוצאה היא לחץ כבד על תקציבים, שמוביל לקיצוצים עמוקים בכוח האדם. וזה לא בדיוק קורה מתוך חדשנות, אלא מתוך צורך כלכלי מיידי.

Oracle מדגימה איך חזון ה-AI הופך למשבר חוב

Oracle היא אחת הדוגמאות הבולטות למתח שבין שאפתנות טכנולוגית למציאות פיננסית. החברה מנסה למצב את עצמה כשחקנית מרכזית בתחום ה-AI, אבל עושה את זה באמצעות מהלך עתיר סיכון: עסקת דאטה סנטרים בהיקף של 300 מיליארד דולר עם OpenAI, לצד גיוס של 50 מיליארד דולר חוב חדש.

 

בתחילת הדרך המשקיעים קיבלו את האסטרטגיה בהתלהבות. מניית Oracle זינקה במהלך 2023 ו-2024, והחברה הציגה את עצמה כמי שמסוגלת להתחרות במיקרוסופט ובאמזון, אבל ככל שהחוב תפח והעלויות האמיתיות של בניית תשתיות AI התבררו, האמון החל להיסדק. מניית החברה צנחה ב-54 אחוז מאז השיא, בנקים נסוגו ממימון פרויקטים, ומדדי הסיכון של Oracle זינקו לשיא כל הזמנים.

 

בתוך המציאות הזו, Oracle החלה לפטר אלפים - עד 30,000 עובדים (לפי הערכות). החברה נמנעת מלהודות שהסיבה היא עומס החוב, ומעדיפה למסגר את המהלך כ“התייעלות בעידן AI”. בפועל, מדובר בצעד הישרדותי שמטרתו לפנות מזומנים ולהתמודד עם התחייבויות הולכות ותופחות.

Meta על הקו שבין חזון “סופר-אינטליגנציה” לבין קיצוצים רוחביים

Meta מציגה סיפור אחר, אבל לא פחות מורכב. החברה הציבה לעצמה יעד שאפתני במיוחד - לפתח בינה מלאכותית סופר-אינטליגנטית. החזון הזה דורש השקעות עצומות, המוערכות ב-115 עד 135 מיליארד דולר בתשתיות AI בשנת 2026 בלבד. כדי לממן את המהלך, Meta מקצצת מאות עד אלפי עובדים. הפגיעה אינה מוגבלת רק להנדסה, אלא נוגעת גם ל-Reality Labs שעוסקת במטאברס ובמשקפיים חכמים, למחלקות הגיוס, לתפעול ולמכירות.

 

במקרה של Meta אין ניסיון לטעון ש-AI מחליף עובדים, זה פשוט מוגדר כשינוי סדרי עדיפויות. החברה מעבירה את מרבית המשאבים לכיוון אחד, ומוותרת על תחומים שבעבר היו מרכזיים באסטרטגיה שלה. זה פער מסוג אחר - לא בין אמת לשקר, אלא בין חזון ארוך טווח לבין מציאות תפעולית שמחייבת ויתורים כואבים בדרך.

Block: המקרה שבו AI באמת מחליף עובדים

ואז יש את Block - אחת הדוגמאות היחידות שבהן האוטומציה היא הסיפור האמיתי. החברה פיטרה 4,000 עובדים, שהם כ-40 אחוז מכוח האדם שלה, והסבירה בגלוי שמערכות AI מסוגלות לבצע חלק גדול מהעבודה שבעבר דרשה צוותים שלמים.

 

ג’ק דורסי, מנכ"ל Block, אמר זאת במפורש. לדבריו, הפיטורים הם לא מהלך פיננסי אלא שינוי מבני. כלים כמו ChatGPT, GitHub Copilot ופתרונות אוטומציה פנימיים מסוגלים לכתוב קוד בסיסי, לבנות APIs, לייצר בדיקות ולבצע משימות תפעוליות שבעבר היו נחלתם של מפתחים ג’וניורים וצוותי QA.

 

אבל הסיפור לא מסתיים בפיטורים. גם אופי העבודה של מי שנשאר השתנה מהיסוד. עובדים ותיקים יותר מתארים מציאות שבה AI אינו רק כלי, אלא מעין "שותף לעבודה" שמבצע חלק גדול מהמשימות השוטפות. התפקיד האנושי זז כלפי מעלה, עם פחות כתיבת קוד בסיסי, יותר פיקוח, תכנון ופתרון בעיות מורכבות.

 

Block היא הצצה לעתיד, אבל היא עדיין לא הנורמה. רוב החברות מפטרות מסיבות פיננסיות ולא טכנולוגיות. אבל המקרה שלה מדגים מה עשוי לקרות כאשר האוטומציה תבשיל באמת ותהפוך לחלק אינטגרלי מהעבודה היומיומית.

מי נפגע?

למרות שהאוטומציה אינה (עדיין) הגורם המרכזי לפיטורים ברוב החברות, היא כן משנה את מבנה התפקידים הטכניים, והשינוי הזה הולך ומעמיק. הנתונים מצביעים על ירידות חדות בתפקידים רוטיניים: גיוס מפתחי תוכנה ג’וניורים צנח ב-73 אחוז לעומת 2024, תפקידי QA ידני ירדו ב-81 אחוז, ועבודות DevOps ו-SRE בסיסיות, כמו ניטור, חיזוי תקלות וסקיילינג, עוברות בהדרגה לאוטומציה.

 

גם אנליסטים בסיסיים מוחלפים בכלי שאילתות אוטומטיים, ותמיכה טכנית ברמות Tier 1-2 מפנה את מקומה לסוכני AI מתקדמים.

 

המגמה הזו כבר מורגשת היטב גם בשוק המקומי שלנו, ומשתקפת בזינוק במספר דורשי העבודה בהייטק - במיוחד בקרב מפתחי תוכנה במסלולים המסורתיים.

 

זה ממש שינוי מבני. תפקידים רוטיניים נעלמים, בעוד שתפקידים מתקדמים ומורכבים יותר הופכים למרכזיים במערך הטכנולוגי של הארגונים.

מי מרוויח? תפקידים מתקדמים סביב AI

במקביל להיעלמותם של תפקידים בסיסיים, נרשמת עלייה חדה בביקוש לתפקידים מתקדמים סביב AI. החברות מחפשות מהנדסי AI ו-ML (למידת מכונה), שנחשבים כיום לתפקיד הצומח ביותר בארצות הברית, לצד מהנדסי MLOps האחראים על תפעול מודלים בפרודקשן ושמירה על יציבותם. גם מפתחי אוטומציה וסוכני AI זוכים לביקוש גבוה בגלל היכולת לבנות ולנהל מערכות אוטונומיות שמבצעות משימות שבעבר דרשו צוותים שלמים.

 

תפקידים נוספים שנמצאים במרכז הבמה הם ארכיטקטי AI ומהנדסי פול-סטאק בכירים, שמובילים את תכנון המערכות במקום צוותי ג’וניורים, וגם מהנדסי Cloud AI ומפתחי RAG, החיוניים לחיבור מודלים לנתוני הארגון ולבניית פתרונות בקנה מידה גדול.

 

המודל הארגוני משתנה בהתאם. במקום מבנה רחב של “10 ג’וניורים ומנהל”, יותר ויותר חברות מאמצות מודל מצומצם של “2-3 סניורים ו-AI”, שבו המומחים האנושיים מתמקדים בארכיטקטורה, פיקוח וקבלת החלטות, והמערכות האוטומטיות מבצעות את רוב העבודה השוטפת.

אז האם AI מחליף עובדים או שהחוב מחליף אותם?

השאלה האם הפיטורים נובעים מאוטומציה או מהלחץ הפיננסי של מרוץ ה-AI מייצרת פערי פרשנות. יש שטוענים שאין הוכחה לגל פיטורים רחב שנובע מאוטומציה בקנה מידה גדול, בעוד אחרים מצביעים על כך שכ-20 אחוז מהפיטורים ברבעון הראשון של 2026 נובעים ישירות מהחלפת עובדים בכלים אוטומטיים. שתי הטענות נכונות, אך הן מתייחסות לשתי תופעות שונות שמתקיימות במקביל.

 

האם AI מחליף עובדים? כן! אבל רק בחלק מהחברות ובחלק מהתפקידים, בעיקר כאלה המבוססים על עבודה רוטינית.

 

האם החוב מחליף עובדים? בהחלט! ובקנה מידה גדול בהרבה.

 

הפער בין שני הנרטיבים הוא לא סתירה, אלא תוצאה של שתי מגמות שונות שמתרחשות בו-זמנית: לחץ פיננסי שמוביל לקיצוצים רחבים, לצד אוטומציה שמתחילה לשנות את מבנה התפקידים עצמם.

תעשייה שנמצאת באמצע שינוי מבני עמוק

תעשיית הטכנולוגיה של 2026 עוברת תקופה של התאמה מחדש. גל הפיטורים הנרחב אינו נובע מאוטומציה גורפת, אלא מהמאמץ של החברות הגדולות לבנות את תשתיות ה-AI שיקבעו את מעמדן בשנים הקרובות. ההשקעות העצומות, אי-הוודאות והצורך לשמור על יתרון תחרותי יוצרים מציאות שבה תפקידים מסוימים מצטמצמים ואחרים מתרחבים, והארגונים מגדירים מחדש את מבנה העבודה ואת הערך שמביא כל תפקיד.

 

בסופו של דבר, 2026 היא כנראה השנה שבה התעשייה לומדת איך לשלב בינה מלאכותית בתוך המערכות הקיימות, תוך ניסיון לשמור על יציבות עסקית ובניית הדור הבא של הכלים והיכולות.

הפוסט מרוץ החימוש ב-AI: מה הסיפור האמיתי מאחורי גלי הפיטורים? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-layoffs/feed/ 0
איך קובץ קטן חושף שבר גדול בתדמית של אנטרופיק https://letsai.co.il/claude-code-leak/ https://letsai.co.il/claude-code-leak/#respond Sat, 04 Apr 2026 06:25:37 +0000 https://letsai.co.il/?p=72295 ב-31 במרץ 2026 אנטרופיק מצאה את עצמה בלב אחד האירועים המביכים והמשמעותיים ביותר שחוותה. החברה, שמציגה את עצמה כמי שפועלת בגישת safety‑first, פרסמה בעדכון שגרתי גרסה של Claude Code שכללה קובץ דיבוג פנימי שחשף את קוד המקור המלא של סוכן הקוד שלה. בתוך זמן קצר התברר שמדובר בחשיפה רחבה של רכיבים פנימיים שלא היו אמורים […]

הפוסט איך קובץ קטן חושף שבר גדול בתדמית של אנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-31 במרץ 2026 אנטרופיק מצאה את עצמה בלב אחד האירועים המביכים והמשמעותיים ביותר שחוותה. החברה, שמציגה את עצמה כמי שפועלת בגישת safety‑first, פרסמה בעדכון שגרתי גרסה של Claude Code שכללה קובץ דיבוג פנימי שחשף את קוד המקור המלא של סוכן הקוד שלה. בתוך זמן קצר התברר שמדובר בחשיפה רחבה של רכיבים פנימיים שלא היו אמורים לצאת החוצה, והקהילה הטכנולוגית כולה עקבה אחרי האירוע בדריכות. הדליפה לא נבעה ממתקפה זדונית אלא מטעות אנוש תפעולית פשוטה - קובץ פנימי אחד שנכנס בטעות לעדכון ציבורי הוביל לחשיפה משמעותית והציב את אנטרופיק במרכזו של דיון רחב על תהליכי הפצה ואבטחה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

קובץ אחד במקום הלא נכון

האירוע התחיל כאשר אנטרופיק פרסמה עדכון שגרתי לכלי הפיתוח שלה, Claude Code. בתוך העדכון הופיע בטעות קובץ גדול שנועד לשימוש פנימי בלבד. הקובץ הזה, שנקרא source map וגודלו 59.8MB, משמש בדרך כלל מפתחים כדי לאתר תקלות בזמן פיתוח. במקרה הזה הוא הכיל קישורים לקבצים פנימיים של החברה, וכך חשף מאגר מלא של קוד מקור שנשמר על שרת ציבורי. חוקר אבטחה בשם Chaofan Shou היה הראשון לגלות שהקובץ מוביל לארכיון שמכיל כמעט אלפיים קבצים וכחצי מיליון שורות קוד של Claude Code.

 

לא הייתה כאן פריצה או מתקפה, וגם לא חולשה במודל עצמו. זו הייתה טעות תפעולית פשוטה. קובץ אחד שנארז בטעות בתוך עדכון ציבורי הפך לחשיפה רחבה, ובעולם שבו כל קובץ שמופיע לרגע באינטרנט יכול להיות מועתק ומופץ ללא הגבלה, המשמעות הייתה גדולה בהרבה מהטעות שהובילה אליה.

הצצה נדירה למוח של סוכן קוד

הדליפה לא כללה את משקלי המודל של Claude, לא נתוני משתמשים ולא מפתחות רגישים, ואנטרופיק הדגישה זאת שוב ושוב. אבל מה שכן נחשף היה כמעט כל מה שמרכיב את Claude Code ככלי פיתוח מתקדם. בתוך הקבצים שנמצאו הופיעו רכיבים מרכזיים כמו מנגנון קבלת ההחלטות של הסוכן, מערכת שמנהלת שיתוף פעולה בין כמה תהליכים במקביל, הוראות פנימיות שמכוונות את ההתנהגות של המערכת, נתוני ניטור ותיעוד, וגם עשרות סימונים שמצביעים על יכולות ופיצ'רים שנמצאים בשלבי פיתוח שונים.

 

לפי ניתוחים שפורסמו לאחר הדליפה, נמצאו גם אזכורים למספר יכולות ניסיוניות. בין היתר הופיע מצב בשם Kairos, שמאפשר לסוכן להמשיך לעבוד ברקע גם כשהמשתמש לא פעיל. לצד זה זוהתה מערכת בשם Buddy, שנראית כמו מנגנון ליווי אישי שנועד ללמוד לאורך זמן. נמצאו גם יכולות זיכרון שמאפשרות לכלי לחזור לשיחות קודמות ולהפיק מהן תובנות, וכן תצורה של עוזר שפועל באופן רציף ברקע.

 

בתוך הקוד הופיעו גם רגעים אנושיים יותר. אחד המפתחים כתב הערה שמפקפקת בצורך במנגנון מסוים ומציינת שהוא מוסיף מורכבות בלי תועלת ברורה. לצד זה הופיעו גם אלמנטים קלילים יותר, כמו רעיון לחיית מחמד דיגיטלית שמופיעה ליד תיבת הקלט ומגיבה לקוד שהמשתמש כותב.

מדליפה לפרויקט קוד פתוח פעיל

קהילת המפתחים זינקה על הדליפה הרבה יותר מהר משהטעות עצמה התרחשה - בעוד שהחשיפה נולדה מטעות תפעולית קטנה ושקטה, הקהילה פירקה, שיחזרה והפיצה את הקוד כמעט מיד. בתוך זמן קצר הקוד שהופיע בטעות הועתק, נותח והועלה מחדש לאתרי קוד פתוח. לפי דיווחים בקהילה, נוצר ריפוזיטורי (תיקייה מרכזית שבה שומרים, מנהלים ומשתפים קוד) בשם Claw Code שצבר עשרות אלפי כוכבים בתוך שעות ספורות, לצד מספר גדול של העתקות וגרסאות נגזרות. עבור רבים זו הייתה הזדמנות נדירה לבחון מבפנים איך בנוי כלי פיתוח מסחרי ברמת ייצור.

 

מפתחים שונים השתמשו בכלי AI כדי לשכתב חלקים מהקוד לשפות אחרות, כמו Python ו-Rust, תהליך שלפי פוסטים שפורסמו ברשתות הושלם בתוך פחות משעתיים. כך הפכה הדליפה מפרט טכני מביך לפרויקט חי שהקהילה לומדת ממנו, מפרקת אותו ומנתחת את הארכיטקטורה שלו.

 

ברשתות החברתיות האירוע עורר שיח רחב. פוסטים זכו למיליוני צפיות, מפתחים מוכרים הגיבו, וחזר שוב ושוב מוטיב אירוני אחד. משתמשים הזכירו את הפער בין העובדה שחברות AI מאמנות מודלים על כמויות עצומות של מידע ציבורי, לבין הרגישות הרבה שמופיעה כאשר קוד פנימי שלהן נחשף בטעות.

טעות אנוש והניסיון לבלום את ההתפשטות

אנטרופיק הגיבה במהירות לאחר שהתברר שהקובץ ״הטועה״ חשף קוד פנימי. החברה הסירה את הגרסה הפגומה ממאגר ההפצות, שלחה בקשות להסרת עותקים שהועלו מחדש, והבהירה שמדובר בטעות אנוש בתהליך האריזה של העדכון. דוברי החברה הדגישו שלא נחשפו נתוני לקוחות או פרטים רגישים, והתחייבו לחזק את תהליכי ההפצה כדי למנוע מקרים דומים בעתיד.

 

אלא שבעולם שבו עותקים נשמרים מיד במקומות רבים, הקוד כבר הספיק להתפשט. ברגע שהוא הופיע ברשת, לא הייתה דרך ממשית להחזיר אותו לאחור.

רצף דליפות שמערער את נרטיב ה-safety-first

האירוע הנוכחי, לצערה של אנטרופיק, לא התרחש בחלל ריק. רק חמישה ימים קודם, ב-26 במרץ 2026, התמודדה החברה עם דליפה נוספת. לפי דיווחים שונים, נחשפו כשלושת אלפים קבצים פנימיים הקשורים למודל ניסיוני בשם Claude Mythos, המכונה בחלק מהמקורות גם Capybara. זו הייתה חשיפה רחבה של חומרי פיתוח, מסמכים פנימיים ורכיבים טכניים שלא נועדו לצאת החוצה.

 

הדליפה של מיתוס כמה ימים קודם בפרסום של פולימרקט

גם Claude Mythos דלף החוצה

 

גם זו לא הייתה הפעם הראשונה שבה קוד הקשור ל-Claude Code מצא את דרכו לרשת. כבר בפברואר 2025 דווח על דליפה, אבל ההיקף שלה היה מאוד מצומצם והיא טופלה במהירות.

 

הצטברות האירועים יוצרת תמונה רחבה יותר. לא מדובר בתקלה חד פעמית, אלא ברצף של כשלים תפעוליים שמעלה שאלות על הבשלות של תהליכי ההפצה והאבטחה בחברה שמציגה את עצמה כמי שפועלת בגישת safety-first.

בין חשש לעקיפת מנגנוני הגנה להזדמנות למתחרים

מומחי אבטחה ואנליסטים הצביעו על כמה השלכות מרכזיות של הדליפה. ראשית, חשיפת מנגנוני ההגנה הפנימיים עלולה לאפשר עקיפה שלהם, במיוחד אם גורמים זדוניים ילמדו את המבנה ואת ההיגיון שמאחורי הכללים שמכוונים את המערכת. בנוסף, מתחרים קיבלו למעשה תיאור כמעט מלא של האופן שבו בנוי סוכן קוד ברמת ייצור, מה שעשוי לקצר עבורם תהליכי פיתוח ולספק יתרון תחרותי.

 

חלק מהמומחים העריכו שאנטרופיק תידרש לבנות מחדש חלק ממנגנוני ההגנה שלה, תהליך שעלול להיות מורכב וארוך. אחרים ציינו שהאירוע עשוי להשפיע גם על אמון משקיעים, במיוחד בתקופה שבה החברה מתקרבת לשלב של גיוסי הון משמעותיים.

 

Arun Chandrasekaran מ-Gartner ציין שהדליפה יוצרת סיכונים, אך עשויה לשמש גם כקריאת השכמה להשקעה עמוקה יותר בתהליכים וכלים שיחזקו את הבשלות התפעולית של החברה. כותבי ניוזלטרים בתחום הסייבר הדגישו שהשאלה איך חברות AI מגנות על עצמן הופכת חשובה לא פחות מהשאלה איך הן מגנות על המשתמשים.

שכבת האירוניה האחרונה: הפער בין המיתוג למציאות

שכבת האירוניה העמוקה יותר לא נוגעת לכלי אבטחה כזה או אחר, אלא לפער שנחשף בין המיתוג של אנטרופיק כחברה שמדגישה בטיחות, תהליכי בקרה ובשלות תפעולית, לבין רצף תקלות הפצה וחשיפה שמערער בדיוק את ההבטחה הזו. בזמן שהחברה מציגה את עצמה כמי שמובילה את תחום ה-safety בעולם ה-AI, היא מתקשה לשמור על תהליכי הפצה בסיסיים שמונעים חשיפת קוד פנימי.

 

האירוע הזה הדגיש עד כמה גם חברות שמדברות על אחריות ובטיחות יכולות ליפול על טעויות תפעוליות פשוטות, וכמה מהר הפער בין הצהרות למציאות הופך לחלק מהשיח הציבורי.

דליפה אחת שמספרת סיפור רחב בהרבה

הדליפה של Claude Code היא הרבה יותר מתקלה טכנית. היא חושפת את המתח המתמיד בין מהירות ליציבות, בין חדשנות לבטיחות, ובין פיתוח סגור לבין קהילה שמבקשת להבין איך מערכות כאלה באמת עובדות. האירוע מטיל ספק בבשלות התפעולית של אחת מחברות ה‑AI הבולטות, ומעניק למתחרים הצצה נדירה לאופן שבו בנוי סוכן קוד מתקדם.

 

ובעיקר, הוא מזכיר שגם בעידן של מודלים עצומים וסוכנים אוטונומיים, לא צריך האקר מתוחכם כדי לחשוף מערכת מורכבת. לפעמים כל מה שנדרש הוא טעות אנוש אחת וקובץ אחד במקום הלא נכון.

הפוסט איך קובץ קטן חושף שבר גדול בתדמית של אנטרופיק הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-code-leak/feed/ 0
האלגוריתם של גוגל שמכווץ מודלים פי 6 https://letsai.co.il/google-turboquant/ https://letsai.co.il/google-turboquant/#respond Fri, 03 Apr 2026 10:17:03 +0000 https://letsai.co.il/?p=72287 הסיפור של TurboQuant מתחיל ברעיון שנשמע כמעט בלתי סביר. האפשרות לצמצם פי 6 את כמות הזיכרון שמודלי שפה גדולים משתמשים בו בזמן שהם פועלים, ועדיין לשמור על אותה איכות תשובה. מאחורי הרעיון הזה מסתתר שינוי עמוק בהרבה. האלגוריתם של גוגל לא רק דוחס מידע, אלא משנה את האיזון בין חומרה לתוכנה ומציע דרך חדשה לחשוב […]

הפוסט האלגוריתם של גוגל שמכווץ מודלים פי 6 הופיע ראשון בLet's AI בינה מלאכותית

]]>

הסיפור של TurboQuant מתחיל ברעיון שנשמע כמעט בלתי סביר. האפשרות לצמצם פי 6 את כמות הזיכרון שמודלי שפה גדולים משתמשים בו בזמן שהם פועלים, ועדיין לשמור על אותה איכות תשובה. מאחורי הרעיון הזה מסתתר שינוי עמוק בהרבה. האלגוריתם של גוגל לא רק דוחס מידע, אלא משנה את האיזון בין חומרה לתוכנה ומציע דרך חדשה לחשוב על העלות האמיתית של הפעלת מערכות בינה מלאכותית בקנה מידה גדול. בעולם שבו כל שיפור בביצועים דרש עד היום עוד GPU ועוד זיכרון, TurboQuant מציב סימן שאלה על כמה מההנחות הבסיסיות ביותר של תעשיית ה-AI.

 

גוגל מכריזה על האלגוריתם שלה ברשת x

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

יתרון שמדלג על האימון מחדש

אימון מודל שפה גדול עולה מיליוני דולרים ודורש שבועות של חישוב. עד היום, כל ניסיון לצמצם מודל כזה חייב התערבות בתהליך האימון עצמו. TurboQuant עובד אחרת - הוא מקטין את צריכת הזיכרון בזמן שהמודל כבר פועל, בלי לגעת באימון המקורי. המשמעות היא שכל ארגון, קטן כגדול, יכול ליהנות מהחיסכון בלי להיכנס להשקעות כבדות או לשנות את תהליך הפיתוח שלו. במקום לבנות מודל מחדש, פשוט מכווצים אותו תוך כדי תנועה - וזה מחזיר את הפוקוס מאסקלציה של חומרה לאופטימיזציה חכמה של מה שכבר קיים.

הרגע שבו מחקר הופך לאפשרות תעשייתית

הטענה הזו לא נשארה בגדר רעיון תיאורטי. בתוך זמן קצר מפרסום המאמר, כמה קבוצות חוקרים שלא קשורות לגוגל ניסו ליישם את השיטה בעצמן - והצליחו. הם בדקו אותה על מחשבים שונים, מערכות הפעלה אחרות ומודלים שלא הופיעו במחקר המקורי, ובכל המקרים קיבלו תוצאות דומות. העובדה שהשיטה עבדה מחוץ למעבדות של גוגל, ובתנאים שלא תוכננו מראש, מחזקת את ההבנה שמדובר בגישה כללית ולא בטריק חד-פעמי. הטכנולוגיה עשויה להיות רלוונטית להרבה יותר גופים מאלה שיש להם גישה לתשתיות של גוגל.

התגובה בשוק: כשזיכרון הופך לפחות קריטי

התגובה בשוק ההון הייתה מהירה וברורה. מניות של יצרניות זיכרון כמו Samsung ו-Micron ירדו, משום שהמשקיעים הבינו את המשמעות המעשית. אם מודלים צורכים פחות זיכרון, הביקוש לשבבי HBM, אחד הרכיבים היקרים ביותר בשרתים ייעודיים ל‑AI, עלול להיחלש. Matthew Prince, מנכ"ל Cloudflare, הגדיר את TurboQuant כ"רגע ה-DeepSeek של גוגל" - השוואה שמאותתת על שינוי כיוון. ממש כמו ש-DeepSeek הראתה שאפשר לאמן מודלים חזקים בעלות נמוכה, TurboQuant מראה שאפשר להריץ אותם בחלק קטן מהחומרה שחשבנו שצריך.

 

תגובת השווקים לאלגוריתם של גוגל

התגובה בשוק היתה מהירה. Source: stocktwits.com

מה זה אומר לתקציב ה-AI של ארגונים

ספקיות הענן הגדולות הרחיבו תשתיות בשנים האחרונות בקצב מהיר, מתוך הנחה שמודלים גדולים דורשים כמויות עצומות של זיכרון. הן חתמו על חוזים ארוכי טווח לרכישת שבבי HBM, בנו מרכזי נתונים חדשים והסתמכו על שרשראות אספקה שכבר היום פועלות קרוב לקצה היכולת. אם TurboQuant או טכניקות דומות יבשילו, פחות שרתים יידרשו כדי לשרת את אותו מספר המשתמשים, ופחות זיכרון יידרש בכל שרת. עבור ארגונים שמתכננים תקציב AI לשנה הקרובה, הנקודה המעשית ברורה - עלויות ההפעלה, שהן החלק היקר ביותר בתקציב ה‑AI, עשויות לרדת מהר יותר ממה שההתחייבויות החוזיות הנוכחיות משקפות.

הזהרות ופערים

חשוב להישאר מפוכחים. האלגוריתם עדיין לא בפרודקשן, וגוגל לא פרסמה קוד רשמי שניתן לבחון או להריץ בקנה מידה גדול. אין עדיין בדיקות שמדמות שימוש של מיליוני משתמשים במקביל, ולא ברור אם הדחיסה משפיעה על מהירות התגובה או על יציבות המערכת לאורך זמן. גם היכולת של השיטה להתמודד עם מודלים גדולים במיוחד עדיין לא הוכחה. ספקיות הענן, שמפעילות תשתיות עצומות ומורכבות, לא יאמצו טכנולוגיה חדשה לפני שתוכיח את עצמה כיציבה, בטוחה ויעילה. הפוטנציאל גדול, אבל הדרך ליישום תעשייתי עדיין לא ברורה.

לא רק TurboQuant

ובכל זאת, גם עם כל סימני השאלה, המסר של TurboQuant ברור. העלות של מערכות בינה מלאכותית לא נקבעת רק על ידי גודל ה‑GPU או כמות הזיכרון, אלא על ידי היכולת להשתמש בהם בצורה חכמה. בעולם שבו פיתוח חומרה מתקדמת דורש שנים של עבודה והשקעות עתק, תוכנה יכולה לשנות את כללי המשחק בתוך זמן קצר. עבור מנהלים שמתכננים תשתיות לשנים קדימה, זו תזכורת לא להינעל על הנחות ישנות. העלויות עשויות לרדת מהר יותר ממה שנדמה, והמהפכה הבאה עשויה להגיע דווקא מהשכבה הרכה ביותר במערכת - מהתוכנה שמצליחה להפיק יותר מהחומרה שכבר קיימת.

הפוסט האלגוריתם של גוגל שמכווץ מודלים פי 6 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-turboquant/feed/ 0
האם תעשיית ה‑AI תקבע את מדיניות ה‑AI של ארה״ב https://letsai.co.il/white-house-pcast/ https://letsai.co.il/white-house-pcast/#comments Thu, 02 Apr 2026 06:04:12 +0000 https://letsai.co.il/?p=72275 מה קורה כשענקי ה-AI נכנסים לחדר הסגלגל ומה המשמעות של מועצת PCAST החדשה? במרץ 2026 פרסם הבית הלבן את רשימת המינויים הראשונה למועצת PCAST - הגוף שאמור לייעץ לנשיא ארה״ב בנושאי מדע, טכנולוגיה וחדשנות. בניגוד למסורת של עשרות שנים, שבה המועצה הורכבה בעיקר ממדענים, חוקרים ואנשי אקדמיה, ההרכב החדש כמעט ואינו כולל קולות כאלה. סביב […]

הפוסט האם תעשיית ה‑AI תקבע את מדיניות ה‑AI של ארה״ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה קורה כשענקי ה-AI נכנסים לחדר הסגלגל ומה המשמעות של מועצת PCAST החדשה? במרץ 2026 פרסם הבית הלבן את רשימת המינויים הראשונה למועצת PCAST - הגוף שאמור לייעץ לנשיא ארה״ב בנושאי מדע, טכנולוגיה וחדשנות. בניגוד למסורת של עשרות שנים, שבה המועצה הורכבה בעיקר ממדענים, חוקרים ואנשי אקדמיה, ההרכב החדש כמעט ואינו כולל קולות כאלה. סביב השולחן יושבים האנשים שמובילים את תעשיית הבינה המלאכותית העולמית: ג׳נסן הואנג, מארק צוקרברג, סרגיי ברין, ליסה סו, לארי אליסון ואחרים. המסר שמתקבל הוא שממשל טראמפ מעביר את מרכז הכובד מהאקדמיה אל התעשייה, ומבקש שמי שבונה את הטכנולוגיה יהיה גם מי שיעצב את הכללים שיחולו עליה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רגולציה על AI בלי מרחק בטוח

העשור האחרון הפך את ה-AI מכוח מחקרי-אקדמי לתעשייה שמעצבת כלכלה, ביטחון, תעסוקה ויחסי חוץ. מדינות מנסות לנסח רגולציה, אך קצב הפיתוח מהיר בהרבה, והפער בין יכולות הטכנולוגיה לבין יכולות הממשל רק הולך וגדל. כאן נכנסת PCAST: גוף שאמור לספק לבית הלבן ייעוץ בלתי תלוי, מאוזן ומבוסס מומחיות.

 

אלא שהפעם, האיזון הזה מוטה בצורה חסרת תקדים. מתוך 13 חברים, רק אחד הוא מדען אקדמי פעיל. השאר הם מנכ״לים, מייסדים, משקיעים ובעלי עניין ישיר במדיניות AI, שבמקרים רבים תשפיע על שווי החברות שלהם ועל כוחם בשוק. המשמעות היא שהמועצה שאמורה לאזן בין חדשנות לבין בטיחות, עלולה להפוך למועצה שמקדמת בעיקר את האינטרסים של התעשייה עצמה.

הפתרון שמציע הממשל: “שחרור חדשנות”

לפי המסמכים הרשמיים, המועצה תתמקד ב״הזדמנויות ואתגרים שמציגות טכנולוגיות מתפתחות״ ובחיזוק ההובלה האמריקאית ב-AI. הקו המנחה של הממשל ברור: פחות רגולציה, יותר תחרותיות. טראמפ כבר ביטל חלק מהמדיניות הזהירה יותר מתקופת ביידן, והציג מסגרת פדרלית שמטרתה למנוע “טלאי רגולטורי” של חוקים מדינתיים.

 

הגישה הזו מתיישבת היטב עם עמדותיו של דייוויד סאקס (David Sacks), אחד משני יושבי‑הראש של PCAST, שמכהן גם כ״צאר ה-AI והקריפטו״ ומוביל קו פרו-תעשייתי מובהק. לצד זה, הממשל מציג את המהלך כחלק מהמאבק על ההובלה מול סין - אם ארה״ב לא תאיץ את החדשנות, כך נטען, היא תאבד את היתרון הטכנולוגי שלה.

איך זה יעבוד בפועל ומי משפיע על מה

המועצה צפויה לעסוק במגוון רחב של נושאים כמו תקני בטיחות ל-AI, מדיניות יצוא שבבים, מימון מחקר פדרלי, רגולציה על מודלים גנרטיביים, והשפעת AI על שוק העבודה. העובדה שמנכ״לים של Meta, Nvidia, AMD, Dell ו-Oracle יושבים יחד סביב שולחן שמחליט על תקני בטיחות, יוצרת מצב שבו החברות שמפתחות את המודלים גם מגדירות מה נחשב “בטוח”.

 

זה לא בהכרח רע. יש יתרון ברור בכך שהמומחים שמבינים את הטכנולוגיה לעומק נמצאים בחדר, אבל זה דורש שקיפות, איזונים ובלמים, ויכולת של הממשל להגיד “לא” כשצריך. אחרת, הרגולציה עלולה להפוך לכלי שמקדם אינטרסים עסקיים במקום אינטרסים ציבוריים.

מי נמצא במועצה 

הרכב המועצה כולל 13 מהשמות החזקים ביותר בתעשיית הטכנולוגיה וה‑AI, כולם בעלי השפעה ישירה על פיתוח מודלים, שבבים, תשתיות ענן או השקעות עומק בתחום:

  • מארק אנדריסן (Marc Andreessen) - משקיע-על ומייסד a16z, מהקולות המשפיעים ביותר בעיצוב מדיניות טכנולוגית.

  • סרגיי ברין (Sergey Brin) - ממייסדי גוגל, מעורב עמוק בפרויקטי AI מתקדמים.

  • ספרא כץ (Safra Catz) - מנכ״לית Oracle, שחקנית מרכזית בתשתיות ענן למודלי AI.

  • מייקל דל (Michael Dell) - מוביל תשתיות מחשוב בקנה מידה עצום.

  • ג׳ייקוב דה-וויט (Jacob DeWitte) - יזם בתחום האנרגיה הגרעינית, רלוונטי לעידן שבו AI דורש אנרגיה עצומה.

  • פרד ארסם (Fred Ehrsam) - מייסד Coinbase, מחבר בין AI, בלוקצ׳יין וכלכלה דיגיטלית.

  • לארי אליסון (Larry Ellison) - מייסד Oracle, בעל השפעה על תשתיות ענן ומודלים ארגוניים.

  • דייוויד פרידברג (David Friedberg) - יזם בתחום מדעי הנתונים והחקלאות החכמה.

  • ג׳נסן הואנג (Jensen Huang) - מנכ״ל Nvidia, האיש שמחזיק את מפתחות החומרה של מהפכת ה‑AI.

  • ג׳ון מרטיניס (John Martinis) - מדען מוביל בתחום מחשוב קוונטי.

  • בוב מומגארד (Bob Mumgaard) - מוביל חדשנות באנרגיית היתוך.

  • ליסה סו (Lisa Su) - מנכ״לית AMD, שחקנית קריטית במאבק על שבבי AI.

  • מארק צוקרברג (Mark Zuckerberg) - מנכ״ל Meta, מוביל פיתוח מודלי AI פתוחים בקנה מידה עצום.

הנוכחות של כל אחד מהם סביב שולחן המדיניות של הבית הלבן יוצרת מועצה שמורכבת כמעט לחלוטין מאנשים שמעצבים בפועל את תעשיית ה‑AI ולא רק חוקרים אותה.

מי לא שם - ולמה זה חשוב

דווקא שלושה מהשחקנים המשפיעים ביותר על עתיד ה-AI אינם חלק מהמועצה - והיעדרם בולט במיוחד.

 

סאם אלטמן, מנכ״ל OpenAI, אינו מופיע ברשימה. זה לא רק בגלל מתחים פוליטיים, אלא גם משום שהוא מייצג גישה מורכבת יותר לרגולציית AI: שילוב של האצה אגרסיבית עם קריאות לבטיחות. אלטמן מעורב במאבקי כוח סביב רגולציה פדרלית וחוזים ממשלתיים, ולעיתים נתפס כמי שמנסה לעצב רגולציה שתשרת רק את החברה שלו עצמו. זה מציב אותו בעמדה פחות טבעית מול קו “שחרור החדשנות” שמוביל הממשל.

 

אלון מאסק, שמוביל כיום את xAI, גם הוא מחוץ למועצה. מאסק היה בעבר מקורב לממשל, אך היחסים הידרדרו לאחר עזיבתו המתוקשרת של משרד ה-DOGE. לפי דיווחים, הוא “כבר לא חלק ממעגל הייעוץ”. מאסק מדגיש סיכונים קיומיים ומבקר בחריפות את חלק מהשחקנים המרכזיים בתעשייה, מה שהופך אותו לדמות פחות מתאימה למועצה שמבקשת להציג חזית תעשייתית אחידה.

 

דריו אמודיי, מנכ״ל Anthropic, בולט בהיעדרו אף יותר, למרות שמי שמכיר את הסיפור שלו ושל Anthropic מול הממשל מבין שהוא לא יכול לשבת שם. אמודיי עזב את OpenAI מתוך מחלוקת עמוקה על בטיחות, והקים את Anthropic כתגובה - חברה שממקמת את עצמה בצד הזהיר של התעשייה, עם דגש על alignment, בקרות וסיכונים מערכתיים. הוא מייצג את המחנה שמבקש להאט, לבדוק ולבנות מנגנוני בטיחות מחייבים - גישה שנמצאת בניגוד ישיר לרוח הפרו‑תעשייתית של PCAST.

 

היעדרם של שלושת השחקנים הללו מחזקת את התמונה שכבר מצטיירת כברורה מאליה - PCAST של טראמפ מייצגת את מחנה ה-AI הפרו-תעשייתי, לא את מחנה ה-AI הזהיר.

שינוי פרדיגמה ביחסי ממשל-תעשייה

ההרכב החדש של PCAST מסמן שינוי עומק ביחסי הממשל עם תעשיית הטכנולוגיה. במקום מועצה מדעית שמורכבת ממומחים אקדמיים, מתקבלת מועצת מנכ״לים, במקום זהירות רגולטורית - דחיפה אגרסיבית של חדשנות, ובמקום גיוון דיסציפלינרי - ריכוז כוח בידי תעשיית ה‑AI. האם זה טוב או רע? זה תלוי את מי שואלים.

 

מצד אחד, המהלך עשוי להאיץ פיתוחים ולחזק את מעמדה של ארה״ב בזירה הגלובלית. מצד שני, הוא עלול להחליש מנגנוני בטיחות ולהגביר את השפעתן של חברות הענק על מדיניות ציבורית. כך או כך, מינוי 13 מבכירי תעשיית הטכנולוגיה למועצה יוצר מציאות חדשה שבה האנשים שמעצבים את עתיד ה‑AI גם מייעצים ישירות על הכללים שיחולו עליו. ההחלטות שיתקבלו כאן ישפיעו על תקני AI גלובליים, על תחרות מול סין, על רגולציה פדרלית ועל עתיד השוק כולו - ומה שיקרה ב‑PCAST לא יישאר רק בוושינגטון, אלא יגדיר את גבולות החדשנות והבטיחות של העשור הקרוב.

הפוסט האם תעשיית ה‑AI תקבע את מדיניות ה‑AI של ארה״ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/white-house-pcast/feed/ 1
סונו מפגיזה עם Suno v5.5 – הפעם זה באמת גיים צ’יינג’ר! https://letsai.co.il/sunoguide/ https://letsai.co.il/sunoguide/#respond Wed, 01 Apr 2026 09:13:00 +0000 https://letsai.co.il/?p=72178 היום יצירת מוזיקה באמצעות בינה מלאכותית כבר לא דבר חדש. היכולת הזו הפכה לנגישה כמעט לכל אחד, ונדמה כי מחסום היצירה עצמו נעלם. כל משתמש יכול לייצר שיר, לעצב סאונד, ואף לבנות קטע שלם בתוך דקות. אך דווקא ברגע שבו היכולת הטכנית הופכת למובנת מאליה, עולה שאלה מורכבת יותר: כיצד ניתן לייצר מוזיקה שאינה רק […]

הפוסט סונו מפגיזה עם Suno v5.5 – הפעם זה באמת גיים צ’יינג’ר! הופיע ראשון בLet's AI בינה מלאכותית

]]>
היום יצירת מוזיקה באמצעות בינה מלאכותית כבר לא דבר חדש. היכולת הזו הפכה לנגישה כמעט לכל אחד, ונדמה כי מחסום היצירה עצמו נעלם. כל משתמש יכול לייצר שיר, לעצב סאונד, ואף לבנות קטע שלם בתוך דקות. אך דווקא ברגע שבו היכולת הטכנית הופכת למובנת מאליה, עולה שאלה מורכבת יותר: כיצד ניתן לייצר מוזיקה שאינה רק "נכונה", אלא גם אישית. כזו שנושאת חתימה, זהות, ונוכחות שאי אפשר לבלבל עם אף אחד אחר. הימים האחרונים שוחררה גרסה חדשה למודל המוזיקה המדהים - Suno v5.5. בניגוד לעדכוני גרסה אחרים, זה לא עוד עדכון שגרתי, אלא ניסיון להתמודד עם הפער הזה בדיוק – הפער בין יצירה גנרית לבין ביטוי אישי. היכולת לשלב את הקול הפרטי שלכם, בתוך היצירה עצמה, בין אם אתם זמרים מקצועיים ובין אם לא. זה פותח עולם שלם של אפשרויות והזדמנויות למוסיקאים, ליוצרים, לזמרים, למפיקים מוזיקאליים, וגם למשתמשים חובבים שפשוט אוהבים ליצור מוזיקה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מדריך ל-Suno V5.5

לפני הכל, סונו שחררה מדריך מצולם (באנגלית) שסוקר את עיקרי החידושים בגרסה החדשה. מוזמנים לצפות בו, ולאחר מכן להעמיק בפיצ'רים השונים שמפורטים בהמשך המאמר.

 

 

זהות מוזיקאלית בעידן ה-AI

עוד הרבה לפני עידן הקבצים הדיגיטליים והאלגוריתמים, אמנים לא נמדדו רק לפי דיוק או שליטה טכנית, אלא לפי איכות חמקמקה יותר - נוכחות. זו לא הייתה רק שאלה של תווים נכונים או ביצוע נקי, אלא של משהו שקשה להגדיר אך קל לזהות: תחושה של קול שמגיע ממקום מסוים, של פרשנות שאינה ניתנת לשכפול. הקול של בילי הולידיי לא היה רק כלי מוזיקלי, אלא חוויה רגשית שנשאה בתוכה חיים שלמים. הצליל המזוהה של הביטלס לא היה תוצאה של נוסחה, אלא של מערכת יחסים יצירתית בין אנשים, זמן ומקום. גם אצל בוב דילן, שבירת המבנה המוזיקלי לא הייתה טעות או ניסוי מקרי, אלא ביטוי מודע של עמדה, של זהות.

 

אם עד כה זהות נבעה מתוך מגבלות אנושיות, ניסיון, והקשר תרבותי, הרי שכעת היא נדרשת להתהוות בתוך מערכת שאינה חווה דבר. Suno, בהקשר הזה, אינו מסתפק ביצירת מוזיקה "נכונה" או "משכנעת", אלא מנסה לגעת בשאלה מורכבת בהרבה: כיצד ניתן לבנות תנאים שבהם זהות מוזיקלית אינה רק מחוקה או מדומה, אלא מתגבשת מתוך האינטראקציה בין האדם לבין המערכת האלגוריתמית

 

 

Voices - כשהקול הופך לתשתית יצירתית

הקול האנושי הוא אולי הכלי המוזיקלי הקדום ביותר, אך גם המורכב ביותר מבחינה זהותית. הוא אינו רק צליל, אלא נשא של זיכרון, חוויה ונוכחות. כשאתם יוצרים שיר או טרק מוזיקאלי עם סונו, יש לכם אפשרות לשחזר את אותו "זמר" או "להקה" שוב ושוב. קוראים לזה Voice (בעבר הפיצ'ר הזה נקרא "פרסונה").

 

דרכים שונות לאימון Voice בסונו

העבודה עם Voices אינה אחידה, ויש להבחין בין שתי מתודולוגיות מרכזיות:

אימון על בסיס יצירות קיימות: ניתן לקחת שירים שנוצרו בתוך Suno, ולהשתמש בהם כבסיס לאימון הקול. כך נוצרת המשכיות - מעין זהות קולית עקבית, המזכירה הרכב או דמות מוזיקלית שממשיכה להתפתח לאורך זמן. את זה ניתן לעשות על ידי לחיצה על שיר שיצרתם ואהבתם - הקליקו על שלוש הנקודות בצד, בחרו ב-Create ואז בחרו ב-Voice.

 

יצירת Voice בסונו

יצירת Voice בסונו משיר קיים

 

אימון על בסיס קול אישי: אפשרות נוספת היא העלאת הקלטה של הקול שלכם. כאן המערכת אינה רק לומדת סגנון, אלא מתבססת על מאפיינים פיזיים ממשיים של קול אנושי - גוון, נשימה, אינטונציה. אפילו המבטא שלכם! אם תשירו בעברית, גם מודל הקול שסונו יבנה, יאמץ את המבטא הישראלי שלכם. 

 

איך עושים את זה?

  1. כנסו לאתר הרשמי של סונו.
  2. בחרו בתפריט הצדדי בלשונית Create.
  3. ואז לחצו על הבאנר החדש שמאפשר לאמן מודל קול אישי.

 

כך תאמנו את סונו על הקול שלכם

כך תאמנו את סונו על הקול שלכם.

 

אם אתם לא רואים את הבאנר, אפשר להכנס לממשק אימון הקול, גם דרך כפתור Voice (שהחליף את כפתור הפרסונה הישן).

 

יצירת מודל קול ב-Suno

יצירת מודל קול ב-Suno דרך כפתור Voice

 

 

לאחר מכן, ניתן לבחור בין הקלטה ישירה, העלאת קובץ קיים, או שימוש ביצירות שכבר הופקו. כל בחירה מייצרת תוצאה אחרת, משום שהיא מגדירה מקור שונה ללמידה. אחרי שתעלו את ההקלטה, סונו יבקש ממכם להקריא משפט באנגלית כדי להוכיח שהקול שצירפתם הוא אכן הקול שלכם ולא של מישהו אחר (כדי למנוע הונאות, גניבות זהות או זכויות, וזיופים).

 

אימון מודל קול אישי בסונו

אימון מודל קול אישי בסונו.

 

טיפים לשיפור התוצאה

כשאתם מקליטים הקפידו על התנאים הבאים:

  • סביבה שקטה: נטולת רעשי רקע, מאפשרת למערכת לזהות את מאפייני הקול בצורה מדויקת ולמנוע עיוותים מצטברים. גם שימוש במיקרופון חיצוני בסיסי מייצר הבדל מהותי לעומת מיקרופון מובנה, שכן הוא מספק עומק ויציבות בתדרים.
  • משך הקלטה: הקלטה קצרה מדי אינה מאפשרת למערכת ללמוד את הקול לעומק, ולכן מומלץ לספק לפחות 10 עד 20 שניות של דגימה קולית עקבית, בטון יציב וללא תנודות חדות.
  • עקביות בהגשה: מרחק קבוע מהמיקרופון, עוצמת קול אחידה, והגייה ברורה - תורמת ליכולת של המערכת לייצר תוצאה אמינה, שניתן לשחזר.

 

 

Custom Models - כשסגנון הופך למנגנון

מודלים מותאמים אישית (Custom Models) לא עוסקים רק בקול, אלא בבניית זהות מוזיקלית רחבה ומעמיקה יותר: כאן בדיוק נמצא ההבדל מול Voices: ב-Voice אתם מעלים מקור קולי אחד - בדרך כלל הקלטה אחת של כ-30 שניות, או קובץ בודד של הקול שלכם - כדי ללמד את סונו איך נשמע הקול, מה הגוון שלו, איך הוא שר, ואפילו איזה מבטא או אינטונציה מאפיינים אותו. זה כלי שממוקד בזהות קולית נקודתית.

 

מה ההבדל בין Voices ל-Custom Models?

לעומת זאת, ב-Custom Model התהליך כבר הרבה יותר רחב. כאן לא מעלים קובץ אחד אלא אוסף גדול של חומרים - לעיתים עשרות שירים - כדי ללמד את המערכת לא רק מי שר, אלא איך בנויה כל היצירה. לכן זה כבר לא מודל של קול בודד, אלא מסגרת יצירתית רחבה יותר, שיכולה לשקף סאונד של הרכב שלם, להקה שלמה, או שפה מוזיקלית עקבית ומזוהה. במילים אחרות, Voice מלמד את סונו את ה"זמר", בעוד Custom Model מלמד את סונו את ה"עולם המוזיקלי" שסביבו.

 

לסיכום, ההבדל המרכזי בקצרה:

  • Voice: העלאה של הקלטה אחת או קובץ קולי אחד, כדי לשמר קול מסוים.
  • Custom Model: העלאה של הרבה שירים, כדי לבנות מודל עמוק, מדויק ומקיף יותר של סגנון, הפקה, מבנה וזהות מוזיקלית.

 

יצירת Custom Model ב-Suno

יצירת Custom Model ב-Suno/

 

כך יוצרים Custom Model, שלב אחר שלב

  • נכנסים ללשונית Create: בתפריט הצדדי בוחרים במסך יצירת השירים, ואז לוחצים על בורר המודלים. שם לוחצים על האפשרות Create Custom Model בממשק.
  • נותנים שם למודל: בוחרים שם שיאפשר לזהות את המודל בהמשך.
  • מעלים קטלוג שלם יחסית: מעלים שירים דרך Bulk Upload או בוחרים שירים שכבר נמצאים בספרייה. מומלץ להעלות 24 שירים לקבלת התוצאות הטובות ביותר.
  • שומרים על קו סגנוני ברור: חשוב שהחומרים ייצגו אותו עולם מוזיקלי, ולא ערבוב אקראי של סגנונות שונים.
  • יוצרים את המודל: לאחר העלאת החומרים לוחצים על Create Custom Model. יצירת המודל עולה קרדיטים, ובדרך כלל נמשכת כמה דקות.
  • משתמשים במודל ביצירה חדשה: לאחר שהמודל מוכן, אפשר לבחור אותו במסך היצירה ולהפיק מוזיקה חדשה שנשענת על הסאונד שלימדתם אותו.
  • זכויות יוצרים: מאחר שמדובר באימון על חומרים מוזיקליים קיימים, יש להשתמש רק בשירים שאתם מחזיקים בזכויות עליהם.

 

מסך העלאת הקבצים ליצירת Custom Models בסונו

מסך העלאת הקבצים ליצירת Custom Models בסונו

 

 

פיצ'ר My Taste - כשסונו לומד את הטעם המוזיקלי שלכם

בניגוד לשני הפיצ'רים הקודמים, My Taste פועל כמעט מאחורי הקלעים: מדובר בתכונה של סונו, שלומדת את הטעם האישי שלכם. המערכת אינה מבקשת קלט ישיר, אלא לומדת מתוך דפוסי הבחירה של המשתמש. אילו תוצרים נשמרים, אילו נדחים, ואילו כיוונים חוזרים על עצמם - כל אלה הופכים לחומר גלם ללמידה. 

 

כיצד לעבוד נכון עם My Taste

  • כל פעם שאתם מזינים סגנון מוזיקלי, סונו לומד אתכם. 
  • ככל שהזמן עובר, הוא מפתח "טעם מוזיקלי" שהוא משייך למשתמש.
  • כתלחצו על כפתור "מטה הקסם", לשפר פרומפט, סונו אוטומאטית יחיל את הסגנון שלכם וישפר את הפרומפטים שלכם בהתאם.

 

סונו לומד את הסגנון המוזיקלי שלכם

סונו לומד את הסגנון המוזיקלי שלכם

 

למה כל הטוב הזה מגיע לנו?! ואולי בעצם זה לא כל כך טוב...

ועכשיו לשאלת השאלות - לא רק איך מפעילים כלי כמו Suno, אלא מי יכול להשתמש בו ומה הוא יכול לעשות איתו?

 

לפני הכל, יצירה מוזיקלית ברמה גבוהה כבר לא שמורה רק למוזיקאים מקצועיים. אדם ללא רקע מוזיקלי יכול לקחת רעיון, טקסט, או אפילו תחושה - ולהפוך אותם לשיר שלם, עם קול, סגנון והפקה. זו הנגשה אמיתית של יצירה, שמרחיבה את מעגל היוצרים הרבה מעבר למה שהכרנו עד היום.

 

במקביל, עבור יוצרים מקצועיים, מדובר בכלי עבודה חדש לגמרי. האפשרות לשלב את הקול האישי שלכם בתוך היצירה, גם בלי להיות נוכחים פיזית בכל הקלטה, משנה את תהליך העבודה. זמרים יכולים להפוך לנוכחות מתמשכת בתוך הפקה, מפיקים יכולים לעבוד מהר יותר, וליצור יותר, תוך חיסכון משמעותי בזמן ובעלויות. הגבול בין סקיצה לשיר מוגמר הולך ומטשטש.

 

אבל יחד עם ההזדמנות, עולה גם שאלה לא נוחה על עתיד המוזיקה. אם מודלים יודעים לייצר שירים ברמה שמתקרבת ליוצרים אנושיים, מה יקרה למקצועות ולאנשי מקצוע שנשענו על נוכחות אנושית - כמו למשל זמרי אולפן או נגני אולפן? האם יספיק יום הקלטות אחד כדי "לייצר" קול שאפשר להשתמש בו שוב ושוב? ואם כן - למי הקול הזה שייך? ליוצר, לזמר, או למי שמפעיל את המודל? האם ילדי המאה ה-21 יצטרכו בכלל ללמוד לנגן על פסנתר או גיטרה, בעולם שבו אפשר לג'נרט כל כלי מוזיקלי, או להישמע תוך שניות כמו סולן מקצועי?

 

ייתכן שבעתיד הלא רחוק, קול יהפוך לנכס שניתן לרכוש, לשכפל ולהפעיל לפי צורך. זה מוזיל עלויות ומאיץ תהליכים, אבל גם משנה את מערכת היחסים בין יוצרים, מבצעים וטכנולוגיה. אולי זו לא שאלה של האם זה יקרה - אלא איך נבחר להשתמש בזה, ואילו גבולות נגדיר לעצמנו בדרך.

 

 

הפוסט סונו מפגיזה עם Suno v5.5 – הפעם זה באמת גיים צ’יינג’ר! הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/sunoguide/feed/ 0
טיפ קטן לחג שיכול לשנות את הדרך שבה אתם עובדים עם צ’אטבוטים https://letsai.co.il/reverse-engineer-prompt/ https://letsai.co.il/reverse-engineer-prompt/#respond Wed, 01 Apr 2026 07:40:19 +0000 https://letsai.co.il/?p=72169 בעידן שבו צ'אטבוטים הפכו לכלי עבודה מרכזי - מ‑ChatGPT ועד Copilot, Gemini ו‑Claude - אנחנו מוצאים את עצמנו משקיעים זמן רב בליטוש תשובות. אנחנו שואלים, מתקנים, מחדדים, מוסיפים הקשרים, ורק אחרי כמה סבבים מגיעים לתוצאה שבאמת מרגישה ש...“הפעם זה זה”. אבל מה אם היה אפשר לקחת את כל התהליך הזה, לדחוס אותו לפרומפט אחד, ולשחזר […]

הפוסט טיפ קטן לחג שיכול לשנות את הדרך שבה אתם עובדים עם צ’אטבוטים הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעידן שבו צ'אטבוטים הפכו לכלי עבודה מרכזי - מ‑ChatGPT ועד Copilot, Gemini ו‑Claude - אנחנו מוצאים את עצמנו משקיעים זמן רב בליטוש תשובות. אנחנו שואלים, מתקנים, מחדדים, מוסיפים הקשרים, ורק אחרי כמה סבבים מגיעים לתוצאה שבאמת מרגישה ש...“הפעם זה זה”. אבל מה אם היה אפשר לקחת את כל התהליך הזה, לדחוס אותו לפרומפט אחד, ולשחזר את אותה איכות בכל פעם מחדש? כאן נכנס לתמונה טריק פשוט, כמעט אלגנטי, שמאפשר להפוך שיחה שלמה לפרומפט מדויק, חד וניתן לשימוש חוזר.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך זה עובד: מהשיחה הארוכה לפרומפט אחד מושלם

הטכניקה מתחילה דווקא ברגע שבו אתם מרגישים שהגעתם לתוצאה המושלמת. אחרי שהשיחה התפתחה, אחרי שהמודל הבין את הכוונות שלכם, אחרי שהוספתם דגשים וסגנון - זה הזמן לשלוף את המשפט הקצר שמפעיל את כל הקסם. אתם פשוט מבקשים מהמודל:

 

גרסה בעברית:

“נתח את כל השיחה שניהלנו עד עכשיו, וזקק ממנה פרומפט אחד, ברור ומדויק, שהיה יכול להפיק את התוצאה הסופית שקיבלנו - בלי כל שלבי הביניים.”

 

גרסה באנגלית:

“Reverse engineer our conversation and write the single prompt that would have produced this final response in one go.”

 

בנקודה הזו המודל עוצר, מביט אחורה על כל השיחה, ומתחיל לנתח אותה: מה היה חשוב לכם? על אילו הנחיות חזרתם? איזה טון ביקשתם? איזה דוגמאות עזרו להבין את הכיוון? הוא מאחד את כל זה לפרומפט אחד, נקי ומדויק, שמופיע בדרך כלל בתוך code block - מוכן להעתקה.

 

התוצאה היא פרומפט “אופטימלי”: כזה שמאפשר לפתוח שיחה חדשה, להדביק אותו כמו שהוא, ולקבל את אותה איכות תוצאה - בלי כל הסבבים הקודמים.

למה זה עובד כל כך טוב?

הסיבה שהשיטה הזו כל כך יעילה טמונה ביכולת של המודל להבין את הכוונה שלכם בדיעבד. אחרי שהוא ראה את כל התהליך, הוא יודע לזהות מה באמת היה חשוב: הסגנון, המבנה, ההדגשים, ההקשרים. במקום לנסות לנחש מראש מה יוביל לתוצאה הרצויה, אתם נותנים לו ללמוד מהתוצאה עצמה.

 

מעבר לזה, השיטה הזו מייצרת פרומפטים לשימוש חוזר - אידיאליים לכתיבה מקצועית, תהליכי עבודה, יצירת תוכן, תסריטים, מדריכים ועוד. היא חוסכת זמן, מייצרת עקביות, ומאפשרת לשמור על איכות אחידה לאורך זמן, במיוחד כשעובדים בצוות או מייצרים סדרת תוצרים.

איך זה נראה בפועל

נניח שעבדתם עם הבוט על כתיבת מדריך טכני. אחרי כמה סבבים יצא טקסט מעולה. אתם שולחים את המשפט הקסום - והבוט מחזיר משהו בסגנון:

 

גרסה בעברית:

“כתוב מדריך טכני ברור ומובנה בנושא X, ברמה שמתאימה למגזין מקצועי. השתמש בטון ידידותי, הסברים בשכבות, דוגמאות מעשיות ושלבים תמציתיים. הוסף גם הערות נגישות, והימנע מסגנון מתלהב או קלישאתי.”

 

גרסה באנגלית:

Write a clear, structured, magazine-quality technical guide about X, using a friendly tone, layered explanations, practical examples, and concise steps. Include accessibility notes and avoid hype or clichés

 

פתאום יש לכם פרומפט “מושלם” - כזה שאפשר להשתמש בו שוב ושוב, בכל הקשר דומה, בלי להתחיל מאפס.

 

ואם אתם רוצים לקחת את זה צעד קדימה, אפשר לבקש מהמודל להפוך את הפרומפט למודולרי ועריך, עם חלקים שניתן לשנות בקלות. זה הופך אותו לכלי עבודה גמיש במיוחד.

טכניקה פשוטה שמייצרת תוצאות גדולות

היופי בשיטה הזו הוא הפשטות שלה. היא עובדת בכל צ'אטבוט, חוסכת זמן, מייצרת פרומפטים איכותיים לשימוש חוזר, ומשפרת משמעותית את הדיוק והעקביות של התוצרים שלכם. במקום להסתמך על ניסוי וטעייה בכל פעם מחדש, אתם נותנים למודל ללמוד מהשיחה עצמה, ומקבלים פרומפט שמזקק את כל מה שעבד. 

 

שווה לנסות - זה יכול לחסוך לכם הרבה זמן ולשפר את הפרודוקטיביות.

 

חג שמח!

הפוסט טיפ קטן לחג שיכול לשנות את הדרך שבה אתם עובדים עם צ’אטבוטים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/reverse-engineer-prompt/feed/ 0
הפרוטוקול שקם לתחייה: איך מערכת AMIT סוגרת את הפער היקר ביותר בעולם הרפואה https://letsai.co.il/amit-protocol/ https://letsai.co.il/amit-protocol/#respond Wed, 01 Apr 2026 05:08:00 +0000 https://letsai.co.il/?p=72148 מאמר זה נכתב ע"י מיכל זינגר וד"ר משה אשכנזי     עד לא מזמן, הייתה הסכמה לא כתובה בתעשיית הבריאות: פרוטוקולים רפואיים הם ה"מצפון" של הרופא, אבל בתוך חדר הטיפולים - המציאות היא כאוס. מי שלא עובד בתוך מערכת ענק עם תקציבי עתק וצוותי מומחים שמנטרים כל מדד באופן ידני, פשוט לא יכול להבטיח שהטיפול […]

הפוסט הפרוטוקול שקם לתחייה: איך מערכת AMIT סוגרת את הפער היקר ביותר בעולם הרפואה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מאמר זה נכתב ע"י מיכל זינגר וד"ר משה אשכנזי

 


 

עד לא מזמן, הייתה הסכמה לא כתובה בתעשיית הבריאות: פרוטוקולים רפואיים הם ה"מצפון" של הרופא, אבל בתוך חדר הטיפולים - המציאות היא כאוס. מי שלא עובד בתוך מערכת ענק עם תקציבי עתק וצוותי מומחים שמנטרים כל מדד באופן ידני, פשוט לא יכול להבטיח שהטיפול בשטח תואם ב-100% את הידע העדכני ביותר בכל רגע נתון. בשנת 2026, הפער הזה, שבין הפרוטוקול הסטטי לנתוני המטופל המשתנים, כבר אינו רק בעיה מקצועית. הוא הפך לסערה מושלמת המאיימת על יציבות מערכות הבריאות בעולם.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הסערה המושלמת של עולם הרפואה

מערכת הבריאות העולמית חווה לחץ חסר תקדים. הזדקנות האוכלוסייה והפיכת מחלות קטלניות לכרוניות העלו את הביקוש לטיפול בחדות. במקביל, הטיפולים הפכו למורכבים ויקרים מאי פעם, עם עשרות פרוטוקולים ביולוגיים וטכנולוגיים חדשים. כל זה קורה על רקע תשתיות מחשוב מיושנות בבתי חולים שאינן נותנות מענה למטופל המודרני, ובשיאו של משבר כוח אדם חריף. בארה"ב לבדה, למעלה מ-40% מהאחיות עזבו את תפקידן מאז 2021. 

 

כשהגורם האנושי קורס תחת העומס, שיעור הטעויות עולה, והנזק הכלכלי נאמד בעשרות מיליארדי דולרים בשנה. בנקודה הזו בדיוק נכנסת AMIT (עמית). מערכת שלא רק "מציגה" מידע, אלא הופכת את הידע הרפואי לשכבה אינטליגנטית שנושמת בזמן אמת.

מהפכה ב"חזית" של שיבא

הסיפור של AMIT התחיל במקום שבו אין מקום לטעויות: אשפוז יום המטו-אונקולוגי ילדים בבית החולים "ספרא" בשיבא. במחלקה המטפלת ב-150 ילדים ביום, שבה כל דקה היא קריטית והנתונים מפוזרים בין שש תוכנות שונות, נוצר "שטח מת" (Blind Spot) מסוכן.

 

מיכל זינגר, אחות אחראית עם רקע בראיית חשבון ב-EY ו-MBA ביזמות וחדשנות מרייכמן, זיהתה את הפער, יחד עם ד"ר משה אשכנזי, סגן מנהל בית חולים ספרא לילדים וגם בעל תואר MBA מרייכמן,  ובסיוע חטיבת ה-DATA ומרכז החדשנות ARC של שיבא, היא בנתה פלטפורמה המבוססת על חוקים קליניים שמתמקדים בבטיחות ובמענה מהיר למצבי חירום.

כותבי המאמר מיכל ומשה

מיכל זינגר וד"ר משה אשכנזי – האנשים שמאחורי AMIT

 

בניגוד למערכות ה-EHR המסורתיות (כמו Epic או Cerner), שמתפקדות לרוב כארכיון נתונים פסיבי, AMIT משמשת כשכבת אינטליגנציה אקטיבית המולבשת עליהן. היא שואבת את הנתונים הגולמיים מהתיק הרפואי, מעבדת אותם מול הפרוטוקולים, ומחזירה לצוות רק את התובנה האופרטיבית - בלי שהם יצטרכו לצאת מהממשק המוכר להם.

 

AMIT – ככה זה נראה מבפנים

AMIT – ככה זה נראה מבפנים

התוצאות שהיממו את הסטטיסטיקה

התוצאות של AMIT בשיבא היו לא פחות ממדהימות, ללא אח ורע בספרות הרפואית:

  • הצלת חיים אקטיבית: שיעור ההעברות הדחופות לטיפול נמרץ בקרב ילדים עם מערכת חיסונית מדוכאת צנח מ-25% ל-5.2%, ירידה של כמעט 80% במצבי חירום מסכני חיים.
  • קיצור זמן תגובה קריטי: הזמן החציוני למתן אנטיביוטיקה רחבת טווח ירד בכמעט שעה. במיתאר שבו כל דקה חשובה, מדובר ב-Game Changer של ממש.
  • רשת ביטחון נגד טעויות: המערכת סורקת מדדים, קרישת דם ומרשמים חודשים אחורה לפני פרוצדורות. מאז הטמעתה, AMIT מונעה טעויות רפואיות בקצב של 240 טעויות בשנה.

 

הנתונים מדברים בשם עצמם

הנתונים מדברים בשם עצמם

ה-Value Proposition למשקיעים: למה AMIT היא העתיד?

עבור משקיעים, AMIT פותרת את החסמים הקריטיים ביותר של ה-Digital Health בשוק הגלובלי:

  1. הניצחון על ה-Friction: אחד ה"רוצחים" השקטים של טכנולוגיות בבתי חולים הוא ה-Alert Fatigue, מערכת AMIT נבנתה על עיקרון של Zero False Positive. כלומר, אם המערכת התריעה- הצוות חייב לטפל. השילוב המושלם (Zero Friction) בתוך ה-Workflow הקיים מבטיח הטמעה חלקה ללא התנגדות צוותים.
  2. ROI מוכח ושיפור ה-Capacity: בארה"ב, בתי חולים מתוגמלים לפי מדדי איכות(Value-Based Care) , מערכת AMIT לא רק משפרת בטיחות, היא מייעלת את הקיבולת של המוסד. כשההמתנה למוצרי דם יורדת מ-104 דקות ל-44 דקות, בית החולים יכול לטפל ביותר אנשים באותם משאבים.
  3. המענה למשבר כוח האדם: בשאלון אנונימי, אחיות בשיבא דיווחו על 100% שביעות רצון. בעולם שבו מחסור באחיות הוא איום אסטרטגי, AMIT היא כלי לשימור עובדים (Retention). היא מעניקה לאחיות צעירות "ביטחון של 20 שנות ניסיון", מורידה את החרדה מטעויות וחוסכת למוסד מיליוני דולרים בעלויות גיוס והכשרה.

מפת הדרכים: מניסוי מוצלח לפריסה גלובלית

ד"ר חנה גולן, מנהלת המערך להמטואונקולוגיה והשתלות מח עצם בילדים מספרת:

 

"מאז הטמעת AMIT Care, המערכת הפכה לחלק בלתי נפרד מתהליכי העבודה במחלקה. בסביבה המורכבת של המטו-אונקולוגיה ילדים, המערכת מהווה כלי עזר משמעותי שמחזק את יכולת המעקב והשליטה, תוך מתן דגש מיוחד על מטופלים שדורשים התייחסות מיידית. AMIT מספקת לנו רשת ביטחון חכמה שמנטרת נתונים באופן רציף ומתריעה בזמן אמת, ובכך תומכת בצוות בזיהוי מוקדם של מצבים המחייבים התערבות דחופה. כיום, המערכת היא כלי חיוני הן בניהול השוטף של המחלקה והן בהבטחת טיפול בטוח ומדויק יותר לילדים."

 

גילי גילת, אחות במחלקת המטולוגיה ילדים ומדריכה קלינית סיפרה:

 

"שבוע שעבר הגיע ילד בן 4 עם גידול מוחי שהיה אמור לקבל טיפול כימותרפי carboplatin. המערכת התריעה על תפקודי כליות לא תקינים ועליה בערכי הקראטינין. בזכות ההתרעה בעמית, הטיפול הושהה, הילד אושפז לאיסוף שתן לקביעת תיפקוד כלייתי.״

 

ההצלחה הפנומנלית בשיבא היא רק יריית הפתיחה. לאור התוצאות, המערכת מוטמעת כעת בכלל מחלקות בית החולים, ובימים אלו מפותחת גרסת AMIT 2.0 בתמיכת מענק מחברת פארמה גדולה.

 

הפיתוח הנוכחי מתמקד בשני צירים מרכזיים: הגברת יכולת ההתרחבות המהירה (Rapid Scalability) שתאפשר הטמעה של כל פרוטוקול רפואי בתוך ימים, ואינטגרציה לשוק האמריקאי. המימון והמשאבים שאנו מגייסים כעת נועדו להאיץ את המעבר ממוצר שמוכיח את עצמו במרכז רפואי מוביל אחד, לסטנדרט גלובלי שנגיש לכל בית חולים שרוצה להפסיק לנחש ולהתחיל לפעול על בסיס נתונים.

 

בעולם שבו הידע הרפואי מכפיל את עצמו בכל מספר חודשים, המוח האנושי זקוק לשותף. AMIT היא השותף הזה. היא הופכת את הספרות הרפואית הסטטית למערכת הפעלה חיה, דינמית ומצילת חיים. זהו כבר לא רק כלי עזר; זהו הסטנדרט החדש של הרפואה המודרנית.

 


 

על הכותבים:

 

מיכל זינגר – אחות אחראית אשפוז יום המטו-אונקולוגיה ילדים, בית חולים אדמונד ולילי ספרא, שיבא. בעלת תואר MBA בחדשנות ויזמות ברפואה. יזמת-שותפה AMITCare. יזמת-שותפה VenoBotic.

 

ד"ר משה אשכנזי – רופא ריאות ילדים וסגן מנהל בית חולים אדמונד ולילי ספרא, שיבא. בעל תואר MBA בחדשנות ויזמות ברפואה. מרצה בכיר באוניברסיטת רייכמן. יזם שותף ב AMITCare. יזם-שותף VenoBotic. יזם שותף Synchrony medical ltd.

הפוסט הפרוטוקול שקם לתחייה: איך מערכת AMIT סוגרת את הפער היקר ביותר בעולם הרפואה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/amit-protocol/feed/ 0
סיפור ההצלחה של Anthropic – איך הפכה קבוצת פליטי OpenAI לאיום הגדול ביותר עליה? https://letsai.co.il/anthropic-success-story/ https://letsai.co.il/anthropic-success-story/#respond Wed, 01 Apr 2026 05:01:34 +0000 https://letsai.co.il/?p=72157 חברת אנטרופיק (Anthropic) עברה תוך חמש שנים ממעבדת מחקר קטנה בסן פרנסיסקו לאחת מחברות הטכנולוגיה המשפיעות בעולם, עם שווי של 380 מיליארד דולר, קצב הכנסות שנתי שמוערך ביותר מ-19 מיליארד דולר, ומוצרים שמשנים את הדרך שבה אנשים עובדים, כותבים קוד ומקבלים החלטות. אבל הדרך לפסגה לא הייתה חלקה - היא עברה דרך פיצול דרמטי, עימות […]

הפוסט סיפור ההצלחה של Anthropic – איך הפכה קבוצת פליטי OpenAI לאיום הגדול ביותר עליה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
חברת אנטרופיק (Anthropic) עברה תוך חמש שנים ממעבדת מחקר קטנה בסן פרנסיסקו לאחת מחברות הטכנולוגיה המשפיעות בעולם, עם שווי של 380 מיליארד דולר, קצב הכנסות שנתי שמוערך ביותר מ-19 מיליארד דולר, ומוצרים שמשנים את הדרך שבה אנשים עובדים, כותבים קוד ומקבלים החלטות. אבל הדרך לפסגה לא הייתה חלקה - היא עברה דרך פיצול דרמטי, עימות עם הפנטגון, מלחמת פרסומות בסופרבול, ורגע מביך על במה בהודו. קדימה - יוצאים לדרך... זה הסיפור של אנטרופיק.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

בפברואר 2026, ראש ממשלת הודו נרנדרה מודי (Narendra Modi) עמד על במת פסגת ה-AI בניו דלהי, אחז בידיהם של מנהיגי טכנולוגיה מהשורה הראשונה והרים אותן באוויר - מחווה של אחדות גלובלית. כולם שיתפו פעולה, חוץ משניים: סם אלטמן (Sam Altman) מ-OpenAI ודריו אמודאי (Dario Amodei) מאנטרופיק. השניים עמדו זה לצד זה, הרימו אגרופים סגורים במקום לאחוז ידיים, ונמנעו ממגע עין. הסרטון צבר מיליוני צפיות תוך שעות. הממים הציפו את הרשת. 

 

הרגע המביך של אלטמן ואמודאי בהודו

 

מישהו כתב ב-X: "מתי יגיע ה-AGI? ביום שבו דריו וסם ילחצו ידיים." הרגע הזה סיכם בתנועה אחת, את אחת מהיריבויות העזות ביותר בתעשיית הטכנולוגיה - יריבות שמעצבת את העתיד של כולנו.

 

הציוץ

הציוץ של @siddharthb_

 

 

הפיצול וחלום על AI בטוח

הפיצול מ-OpenAI

הכל התחיל ב-2021, כשדריו אמודאי, שכיהן כסגן נשיא למחקר ב-OpenAI, עזב את החברה יחד עם אחותו דניאלה (Daniela Amodei) וקבוצת חוקרים נוספים. הסיבה לא הייתה כסף, תפקידים או אגו, אלא חוסר הסכמה עמוק לגבי בטיחות. הקבוצה האמינה שפיתוח AI ללא דגש מספק על בטיחות ו-Alignment הוא מתכון לאסון, והקימה את אנטרופיק כ-Public Benefit Corporation (תאגיד שפועל לתועלת הציבור) עם מטרה ברורה: לבנות AI שהוא מועיל, כנה ובטוח.

 

מסבב צנוע לשווי של 380 מיליארד

כבר בימים הראשונים אנטרופיק וקלוד (Claude) סחפו אחריהם עדת מעריצים, אבל הם נשארו בשוליים. "האח הקטן של ChatGPT". כלי וחברה שרק מי שבאמת מבין הכיר. מהיום הראשון אנטרופיק היה מגדלור של קדמה, פילוסופיה ואתיקה. הם דיברו על AI כמו שאף אחד לא מדבר - הם סיפרו שלאמן מודל בינה מלאכותית זה תהליך שיותר מזכיר גידול של צמח, ופחות דומה לכתיבת קוד.

 

מודלים כמו קלוד 2 או קלוד 3 גרמו לאנשים ב-OpenAI לשקשק מפחד. חידושים כמו פיצ'ר ה-Articats הובילו לשורה של חיקויים ויישור קו מצד המתחרות, והראו איך מודל שפה מסוגל לבנות משחקי מחשב מפרומפט בודד, לייצר ולעצב מסמכים, ולבנות דאשבורדים עסקיים מרשימים.

 

כשהמתחרה הגדולה תיעדפה השקות נוצצות שלוו בשערוריות מתוקשרות, האחות הקטנה (אנטרופיק) שחררה מודלים בשקט בשקט, לעיתים בלי פרסומים בכלל (מעבר לאיזה בלוגפוסט בבלוג הרשמי של החברה), אבל הרשת געשה. איכשהו גם בלי כל הבלינג בלינג, היה נדמה שכולם מדברים על אנטרופיק וקלוד. העולם נחלק לשניים - Team OpenAI vs Team Anthropic.

 

סבב הגיוס הראשון הניב 124 מיליון דולר, סכום צנוע בעולם ה-AI. ב-2022 הגיע גיוס של 580 מיליון דולר בהובלת סם בנקמן-פריד (Sam Bankman-Fried) דרך Alameda Research - שותפות שהפכה לבעייתית אחרי קריסת FTX. אבל אנטרופיק שרדה, ומשם הדברים רק האיצו. אמזון (Amazon) השקיעה כ-8 מיליארד דולר, גוגל (Google) הזרימה מיליארדים נוספים, ובפברואר 2026 החברה סגרה סבב Series G של 30 מיליארד דולר. הצמיחה הגיעה גם בצד ההכנסות: ב-2023 קצב ההכנסות השנתי של אנטרופיק עמד על כ-100 מיליון דולר. ב-2024 הוא הגיע למיליארד. באוגוסט 2025 דווח על Run-Rate (הערכת הכנסה שנתית שמבוססת על קצב ההכנסות הנוכחי) של 5 מיליארד, ובפברואר 2026 החברה עצמה הכריזה על Run-Rate של 14 מיליארד. לפי הערכת חברת המחקר Sacra, במרץ 2026 הקצב כבר חצה את רף 19 המיליארד.

 

קלוד קוד ומהפכת ה-Vibe Coding

משולי הרשת לתופעה תרבותית

המוצר שהפך את אנטרופיק מחברת מחקר לתופעה תרבותית הוא קלוד קוד (Claude Code). הכלי הושק בפברואר 2025 כ-Preview ועבר לזמינות מלאה במאי אותה שנה. את מה שקרה אחר כך אף אחד לא צפה: בחופשת החורף של 2025-2026, כשלאנשים היה זמן להתנסות, קלוד קוד הפך ויראלי. לא רק מפתחים השתמשו בו - אנשים שמעולם לא כתבו שורת קוד התחילו לבנות אפליקציות, אתרים ומשחקים. התופעה קיבלה שם: Vibe Coding. אנדריי קרפאתי (Andrej Karpathy), מחלוצי ה-AI, הכריז ששפת התכנות החמה ביותר נכון להיום (או ליתר דיוק - נכון לינואר 2023) היא אנגלית. ואת זה הוא צייץ בערך 5 דקות אחרי ש-ChatGPT 3.5 הגיח לעולם. 

 

שפת התכנות החמה ביותר היא אנגלית

שפת התכנות החמה ביותר היא אנגלית - אנדריי קרפאטי

 

אחר כך, בפברואר 2025, הוא צייץ את הציוץ המפורסם שלו על וייב קודינג (Vibe Coding) שבו בישר לעולם שהוא כבר לא כותב קוד, אלא פשוט זורם עם הפלואו, וה-AI עושה את העבודה השחורה. אם יש באג, הוא פשוט מבקש מה-AI לתקן אותו. 

 

הציוץ שנשמע מסביב לעולם

הציוץ שנשמע מסביב לעולם - אנדריי קרפאטי מצית את מהפכת הוייב קודינג

 

 

חזרה לאנטרופיק וקלוד קוד - באנטרופיק מספרים שקלוד קוד כתב כ-90% מהקוד שלו עצמו. זה השלב שבו סרטי המד"ב שראינו כילדים פתאום נראים לנו פחות מופרכים...

 

 

הכלי שגם המתחרים משתמשים בו

עד ינואר 2026, קלוד קוד נחשב לכלי הקידוד המוביל בעולם. הוא שימש עובדים של מיקרוסופט (Microsoft), גוגל ואפילו של OpenAI עצמה - מה שיצר מתח משמעותי כשאנטרופיק חסמה את הגישה של OpenAI ל-API שלה, בטענה להפרת תנאי שימוש.

 

בימים האחרונים מיקרוסופט השיקה את Wave 3 של Copilot, שכולל שותפות ישירה עם אנטרופיק ומאפשר לבחור את מודל קלוד אופוס 4.6 (Opus 4.6) כמנוע שמפעיל את הכלים - סימן נוסף לחדירה העמוקה של אנטרופיק לעולם הארגוני.

 

אופוס 4.6 - האם זה המודל הטוב בעולם?

בחמישי לפברואר 2026, אנטרופיק שחררה את קלוד אופוס 4.6 - ורבים בתעשייה ראו בו נקודת מפנה. רבים כינו אותו "המודל הטוב בעולם". המודל הציג חלון הקשר של מיליון Tokens ב-Beta, חשיבה אדפטיבית שמתאימה את עומק ההיסק לפי מורכבות המשימה, ויכולות אייג'נטליות שלא נראו קודם. הוא מפגין יכולות מרשימות ביותר בכתיבת קוד (מה שהופך אותו לשותף מושלם למלאכת הוייב קודינג), הוא מצטיין בעבודה ממושכת, תוך שמירה על הקשר. במבחן MRCR v2, שבודק יכולת לאתר מידע בתוך הקשרים עצומים, אופוס 4.6 הגיע ל-76% - לעומת 18.5% בלבד של קודמו. המשמעות: בעיית ה-Context Rot, שבה מודלים מאבדים מיקוד ככל שהשיחה מתארכת, למעשה נפתרה. בתחום הזה, גם ChatGPT וגם מודלי ג'מיני של גוגל עדיין מתקשים להתחרות ברמה הזו של אמינות בהקשרים ארוכים.

 

לא כל משימה דורשת אותו עומק חשיבה

הסקה בקונטקסט גדול בקלוד אופוס 4.6 | קרדיט: Anthropic

 

 

מספרים שמדברים בעד עצמם

הביצועים היו חד-משמעיים. אופוס 4.6 הוביל את ה-Terminal-Bench 2.0, מדד הקידוד הסוכני המוביל, עם ציון של 65.4%. ב-ARC-AGI 2 הוא כמעט הכפיל את הציון של קודמו, מ-37.6% ל-68.8%. הוא הוביל במדד GDPval-AA, שבודק ביצועים בעבודת ידע מקצועית, עם פער של 144 נקודות Elo על GPT-5.2.

 

מייקל טרואל (Michael Truell), ממייסדי פלטפורמת Cursor, ציין שאופוס 4.6 מצטיין דווקא בבעיות הקשות ביותר - שם שמודלים אחרים נוטים לוותר. שרה זאקס (Sarah Sachs), ראשת ה-AI ב-Notion, תיארה את המודל ככזה שכבר לא מרגיש ככלי אלא כשותף עבודה אמיתי. סקוט וייט (Scott White), ראש מוצר Enterprise באנטרופיק, סיכם את זה באמירה: "אנחנו עוברים לעידן של Vibe Working" - כלומר, משתמשים מתארים מטרה רחבה וקלוד מתכנן ומבצע.

 

 

קלוד Cowork - כשה-AI יוצא מהצ'אט ונכנס לעבודה

ואז הגיע קלוד Cowork, שהושק בינואר 2026 כ-Research Preview, ומאז הוא ממשיך לטלטל את שוק התוכנה. ההשקה שלו, לצד היכולות העוצמתיות של קלוד קוד, ליוותה בירידות במניות חברות תוכנה וסייבר, כשמשקיעים החלו לתמחר את ההשפעה של כלי AI סוכניים על שוק התוכנה המסורתי. סוכני AI, שבשלוש שנים הקודמות היו נחלתם של אשפי Gen AI, חברות פיתוח ובתי תוכנה, הפכו למוצר צרכני שעובד ישירות על הקבצים של המשתמש. ה-AI יצא מהענן ועבר לגור בתוך המחשב שלכם.

ככה זה מרגיש כשקלוד עושה לכם סדר בקבצים שעל המחשב:

 

בניגוד לצ'אטבוטים רגילים שעונים על שאלות בחלון שיחה, קלוד Cowork פועל כסוכן אוטונומי שניתן להפנות לתיקייה במחשב ולתאר לו את התוצאה הרצויה. הוא מתכנן, מבצע ומסיים משימות רב-שלביות: מארגן קבצים, בונה דוחות, מנתח נתונים ויוצר מצגות - הכל בזמן שהמשתמש עושה דברים אחרים.

 

חיבורים ל-Google Drive, ל-Gmail, ל-DocuSign ול-FactSet, הפכו את Cowork לכלי ארגוני אמיתי. במרץ 2026 הוסיפה החברה יכולת Computer Use, שמאפשרת לקלוד לשלוט במחשב באופן ישיר - ללחוץ, לגלול, לפתוח אפליקציות ולמלא גיליונות אלקטרוניים.

 

 

לפי נתונים שאנטרופיק שיתפה, למעלה מ-60% מהשימוש ב-AI בארגונים מגיע מתפקידים לא טכניים, וצוותי שיווק, תפעול ומשאבי אנוש מדווחים על חיסכון של 20-30% בזמן.

 

פברואר השחור - המודלים שמקריסים את וולסטריט

ואז זה קרה. השווקים הגיבו! מודלי ה-AI של אנטרופיק כבר מזמן לא גאדג'טים של "עכברי מעבדה". הם החלו לטלטל את שוק ההון ולגרום למשקיעים לשקול מחדש את האופן שבו טכנולוגיה וכלכלה עולמית מדברות.

 

ה-SaaSpocalypse

בינואר ובתחילת פברואר 2026 השוק קיבל את האיתות הראשון. ביום אחד, חברות תוכנה וענקיות SaaS מובילות איבדו עשרות מיליארדי דולרים משוויין. Thomson Reuters ירדה ב-16%, LegalZoom צנחה ב-20%, ו-CS Disco איבדה יותר מ-12%. בתוך ימים ספורים הירידות התפשטו לחברות נוספות כמו PayPal, Intuit ו-ServiceNow, שאיבדו מעל 10% מערכן. הטריגר היה השקת כלי AI ייעודי של אנטרופיק למגזר המשפטי. אבל מאחורי האירוע הנקודתי הסתתרה הבנה עמוקה יותר: אם מודלים מסוגלים לבצע עבודת ידע מורכבת, חלקים שלמים ממוצרי SaaS פשוט מאבדים את ההצדקה שלהם. נדמה שהמשקיעים מפחדים שה-AI ירסק את תעשיית התוכנה. ינואר 2026 הפך לחודש הגרוע ביותר של סקטור ה-SaaS מאז 2008, עם ירידה של כ-15% במדדי התוכנה וכ-300 מיליארד דולר משווי השוק שנמחקו ביום אחד בתחילת פברואר.

 

מניות הטכנולוגיה בנפילה: מי חטף הכי חזק?

מניות הטכנולוגיה בנפילה: מי חטף הכי חזק?

 

קריסת מניות הסייבר

שבועיים בלבד אחרי הטלטלה בעולם ה-SaaS, מוקד הלחץ עבר לתחום אחר. השקה של יכולות אבטחת קוד במסגרת Claude Code הובילה לירידות חדות במניות סייבר. CrowdStrike, Okta ו-GitLab איבדו קרוב ל-10%, Cloudflare ירדה בכ-8%, ו-JFrog הישראלית רשמה נפילה של כ-25% ביום אחד. התגובה הייתה ממוקדת מאוד. המדדים הרחבים דווקא עלו באותו יום, מה שמחדד את הנקודה: השוק לא נבהל באופן כללי מ-AI, אלא זיהה איום ישיר על תחום ספציפי. החשש לא נבע רק מהיכולות עצמן, אלא מהשינוי בגישה. במקום כלים שמזהים תבניות, המודלים פועלים כמו חוקר אנושי - מבינים קוד, מנתחים הקשר ומסיקים מסקנות. זה סוג אחר של תחרות.

 

הזעזוע של IBM

וכך פברואר 2026 הפך לחודש שבו וולסטריט הבינה מחדש עד כמה AI מסוגלת לערער תעשיות שלמות - לקראת סוף החודש מניית IBM, אחת החברות היציבות והוותיקות בשוק, איבדה כמעט 27% בתוך חודש. לא בגלל דוחות חלשים, אלא בעקבות יכולות חדשות של Claude Code שמכוונות בדיוק לליבת הפעילות שלה. היכולת למפות, לתעד ולהמיר מערכות COBOL (שפה בת יותר מ-60 שנה שעליה מבוססות מערכות קריטיות של בנקים וממשלות), מערערת מודל עסקי שנבנה על מורכבות, זמן ועלויות מעבר גבוהות. במשך עשורים, התלות במערכות האלה הייתה כמעט מוחלטת. אבל אם קלוד קוד מסוגל לקצר תהליכים של שנים לחודשים, זה לא רק שיפור טכנולוגי - זו פתיחה של שוק שהיה סגור כמעט לחלוטין.

 

וחוזר חלילה - שוב מניות הסייבר קורסות

אבל הסיפור לא נעצר שם. אם אנליסטים חשבו שפברואר 2026 יזכר לדיראון עולם כחודש שחור, אבל התנחמו בכך שהוא מאחורינו - בסוף מרץ דליפת מידע על מודל חדש בשם Claude Mythos, עם יכולות סייבר מתקדמות במיוחד, הספיקה כדי לגרום לגל ירידות נוסף במניות סייבר. בתוך שעות, חברות כמו CrowdStrike, Palo Alto Networks ו-Zscaler איבדו בין 3% ל-8% מערכן. זו כבר לא תגובה לאירוע בודד. זו תבנית. השוק מגיב לא רק למה שקיים, אלא למה שעלול להגיע, ואם זה לא היה ברור עד עכשיו - ה-AI בכלל, ואנטרופיק בפרט, הפכו לכוח כלכלי עולמי שמכתיב את השיח ומצעיד תעשיות שלמות קדימה (על חשבון חברות שלמות שביום בהיר אחד הבינו שכבר אין להן זכות קיום).

 

 

המלחמה עם OpenAI והפנטגון

המהלך המבריק של הסופרבול

בסופרבול של פברואר 2026 היריבות בין אנטרופיק ל-OpenAI התחממה. אנטרופיק השיקה ליין פרסומות, שהגיעו עד הסופרבול האמריקאי. המהלך השיווקי המבריק של אנטרופיק ביקר בעקיפין את כוונת OpenAI לשלב פרסומות ב-ChatGPT, תחת הסלוגן "פרסומות מגיעות ל-AI, אבל לא לקלוד". אלטמן הגיב בזעם וכינה את הפרסומות "חסרות כנות", והוסיף שזה "מתאים לדיבור הכפול של אנטרופיק".

 

הפרסומת הגאונית של אנטרופיק... אאוץ'!

 

קווים אדומים מול הפנטגון

אבל העימות האמיתי התרחש מול הפנטגון. בצל המלחמה באיראן עלו דיווחים על שימוש בקלוד למטרות צבאיות, גם במהלך התקיפה על טהרן. אנטרופיק סירבה לדרישת משרד ההגנה האמריקני להסיר מחוזיה סעיפים שאוסרים שימוש בטכנולוגיה שלה למעקב המוני ולנשק אוטונומי. בתגובה, הפנטגון הכריז על החברה כ"סיכון שרשרת אספקה" וחסם את כל הקבלנים הצבאיים מלעבוד איתה. OpenAI, לעומת זאת, חתמה על חוזה שמן במיוחד. במזכר פנימי שדלף, אמודאי כינה את המסרים של OpenAI על העסקה "שקרים גמורים" וטען שאלטמן מציג עצמו כמשכין שלום בזמן שהוא הנהנה העיקרי. אלטמן, מצדו, שיתף עובדים שהוא מנסה "להציל" חברה יריבה שהמנכ"ל שלה בילה שנים בניסיון להרוס את OpenAI. עכשיו אתם מבינים למה הם סירבו להחזיק ידיים בהודו?! 

 

התוצאה הייתה דווקא מפתיעה: לפי ניתוח של חברת Indagari, החל לפתע גל של הסרות התקנה של ChatGPT - עליה של 295% ביום אחד. במקביל -תנועת QuitGPT צברה תאוצה ברשת. קלוד הגיע למקום הראשון ב-App Store האמריקני, ואנטרופיק דיווחה שמספר המנויים המשלמים הוכפל.

 

אגב, זו לא הפעם הראשונה שאמודאי נכנס ראש בראש בממשל האמריקאי - בתחילת השנה, על במת הפורום הכלכלי העולמי בדאבוס, הוא תקף את מדיניות הייצוא האמריקאית ורמז לניגוד עניינים מובנה ומלחמה טכנולוגית-כלכלית מול סין.

 

היריבות מול OpenAI נשענת גם על מהלכים אגרסיביים של OpenAI מהחודשים האחרונים. במשך שנים אנטרופיק התרכזה בשוק האנטרפרייז והקוד, וזה עבד לה מצוין. אבל 2026 מסמנת את השינוי המחשבתי שעשו ב-OpenAI. הם הולכים חזק קדימה ומתמקדים במגרש הבייתי של אנטרופיק - וזה חברים, מתכון להתנגשות חזיתית (שכולנו נרוויח ממנה). 

 

המאבק של OpenAI על השוק הארגוני: הקרב מול אנטרופיק

ילדים... לא לריב - יש מספיק AI לכולם! המאבק של OpenAI על השוק הארגוני והקרב מול אנטרופיק

 

אבל למה כל כך יקר?!

ההצלחה של קלוד ואנטרופיק לא באה בלי מחיר. בסוף מרץ 2026, משתמשי קלוד קוד הציפו את Reddit ואת GitHub בתלונות: מכסות השימוש שלהם נשרפות בקצב חסר תקדים. מנויי Max ב-100 דולר לחודש דיווחו שחלונות של חמש שעות נגמרים תוך שעה וחצי. מנוי אחד של 200 דולר לחודש דיווח שהמד קפץ מ-21% ל-100% על פרומפט אחד. באנטרופיק אישרו שהמכסות בשעות השיא הוחמרו בכוונה כדי לנהל את הביקוש שעלה על יכולת ה-GPU. וזה לא ייחודי רק לקלוד קוד - משתמשים רבים (כולל עבדכם הנאמן) מסוגלים לסיים את המכסה היומית שלהם בפרומפט וחצי עם קלוד אופוס. 380 מיליארד דולר שווי, קצב הכנסות של מיליארדים, ועדיין אין מספיק שרתים לכולם. לא סתם אנחנו אומרים פה כל שני וחמישי שעתיד ה-AI טמון בתשתיות פיזיות!

 

חמש שנים אחרי שקבוצת חוקרים עזבה את OpenAI מתוך חשש לעתיד ה-AI, אנטרופיק מוכיחה שאפשר לצמוח בקצב מסחרר גם בלי לוותר על עקרונות. האם הגישה הזו תחזיק לטווח ארוך, כשהלחץ הפוליטי, המסחרי והטכנולוגי רק ילך ויגבר? זו שאלה שאף מודל שפה לא יכול לענות עליה. אבל דבר אחד ברור: אמודאי ואלטמן ימשיכו להתחרות על הכיס שלנו, ונדמה שהיום שבו הם יסכימו ללחוץ ידיים עדיין רחוק. מה שבטוח - התחרות הזו רחוקה מסיום ואין לדעת מי יהיו המפסידים, אבל המרוויחים יהיו אנחנו - הצרכנים.

הפוסט סיפור ההצלחה של Anthropic – איך הפכה קבוצת פליטי OpenAI לאיום הגדול ביותר עליה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-success-story/feed/ 0
הסיפור על סמנכ”לית הטכנולוגיה לשעבר של OpenAI ומלחמת הכישרונות של תעשיית ה-AI https://letsai.co.il/mira-murati/ https://letsai.co.il/mira-murati/#respond Tue, 31 Mar 2026 05:47:50 +0000 https://letsai.co.il/?p=72003 מירה מוראטי (Mira Murati) עזבה את OpenAI. המשקיעים הלכו אחריה. סמנכ"לית הטכנולוגיה לשעבר של OpenAI הקימה את Thinking Machines Lab, גייסה לפי שווי של 12 מיליארד דולר, והפכה למקרה מבחן לשאלה מי באמת מחזיק בכוח בתעשיית הבינה המלאכותית. מירה מוראטי הייתה חלק מההנהלה שהובילה את הפיכת המחקר של OpenAI למוצרים כמו ChatGPT שלהזכירכם, עד תחילת […]

הפוסט הסיפור על סמנכ”לית הטכנולוגיה לשעבר של OpenAI ומלחמת הכישרונות של תעשיית ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>

מירה מוראטי (Mira Murati) עזבה את OpenAI. המשקיעים הלכו אחריה. סמנכ"לית הטכנולוגיה לשעבר של OpenAI הקימה את Thinking Machines Lab, גייסה לפי שווי של 12 מיליארד דולר, והפכה למקרה מבחן לשאלה מי באמת מחזיק בכוח בתעשיית הבינה המלאכותית. מירה מוראטי הייתה חלק מההנהלה שהובילה את הפיכת המחקר של OpenAI למוצרים כמו ChatGPT שלהזכירכם, עד תחילת 2026 כבר הגיע לכ-900 מיליון משתמשים פעילים בשבוע. אבל מוראטי כבר לא שם. היא עזבה בספטמבר 2024, ומה שקרה אחרי העזיבה הזו מספר סיפור גדול יותר מכל מוצר טכנולוגי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ילדה מוולורה (Vlorë)

מירה מוראטי נולדה בדצמבר 1988 ב-ולורה (Vlorë), עיר נמל בדרום אלבניה. הוריה היו שניהם מורים לספרות בתיכון. כשהייתה בת שמונה, ב-1997, אלבניה שקעה במשבר אזרחי חמור בעקבות קריסת תוכניות פירמידה שהשמידו את חסכונות המדינה, וולורה הייתה אחת הערים שנפגעו הכי קשה.

 

בגיל שש עשרה היא זכתה במלגה של United World Colleges ונסעה ללמוד בפירסון קולג' (Pearson College) שבאי ונקובר בקנדה. משם המשיכה לתואר כפול במתמטיקה מקולבי קולג' (Colby College) ובהנדסת מכונות מבית הספר להנדסה של דרטמות' (Dartmouth). הנתיב הזה, מעיירת נמל באלבניה לאוניברסיטאות של הליגה האמריקנית, מסביר חלק ממה שבא אחר כך, אבל רק חלק.

מהנדסת מוצר, לא חוקרת

לפני שמוראטי הגיעה ל-OpenAI, היא צברה ניסיון שמבדיל אותה מרוב המנהיגים בתעשיית הבינה המלאכותית. היא עבדה כמתמחה בגולדמן זאקס (Goldman Sachs) בטוקיו, כמנהלת מוצר בכירה בטסלה (Tesla) על תוכנית מודל X, ואחר כך כסמנכ"לית מוצר והנדסה בליפ מושן (Leap Motion), חברה שפיתחה טכנולוגיית מעקב ידיים.

 

המכנה המשותף הוא תרגום טכנולוגיה למוצר. לא מחקר תיאורטי, אלא בנייה של דברים שאנשים משתמשים בהם. כשהגיעה ל-OpenAI ביוני 2018 כסמנכ"לית AI יישומי ושותפויות, היא הביאה איתה בדיוק את מה שהחברה הייתה צריכה בשלב הבא.

השנים שעיצבו את ChatGPT

מוראטי טיפסה ב-OpenAI מהר. במאי 2022 היא מונתה לסמנכ"לית טכנולוגיה ראשית (CTO), והתפקיד שלה כלל פיקוח על צוותי מחקר, מוצר ובטיחות. במהלך כהונתה כ-CTO, השיקה OpenAI את ChatGPT, DALL-E, Codex ו-Sora.

 

מוראטי אמנם לא כתבה את הקוד של צ'אט ג'יפיטי לבדה, אבל היא הייתה חלק מההנהלה שהובילה את תקופת ההשקות המשמעותית ביותר של החברה. ההבדל הזה חשוב, כי הוא מסביר למה משקיעים רדפו אחריה אחרי שעזבה.

 

שלושה ימים של כאוס

בשבעה עשר בנובמבר 2023, הדירקטוריון של OpenAI פיטר את סם אלטמן (Sam Altman). מוראטי מונתה למנכ"לית זמנית. מה שהתרחש אחר כך נכנס לספרי ההיסטוריה של עמק הסיליקון. תוך יומיים, הדירקטוריון החליף אותה באמט שיר (Emmett Shear), ואז כשבע מאות ושבעים מתוך שמונה מאות עובדי החברה חתמו על מכתב שדרש את חזרתו של אלטמן, תוך איום לעבור למייקרוסופט (Microsoft). אלטמן חזר עד סוף השבוע עם דירקטוריון חדש.

 

האפיזודה הזו חשפה כמה מרכזית מוראטי הייתה בתוך OpenAI, וגם כמה מורכבת הייתה מערכת היחסים שלה עם אלטמן. לפי דיווחים, אלטמן ראה בה שותפה למהלך ההדחה. בספטמבר 2024, עשרה חודשים אחרי המשבר, מוראטי הודיעה שהיא עוזבת.

 

"שש וחצי השנים שלי עם צוות OpenAI היו זכות יוצאת דופן," היא כתבה. "אין זמן אידיאלי לעזוב מקום שאוהבים, אבל הרגע הזה מרגיש נכון."

 

שני מיליארד דולר בלי מוצר

בפברואר 2025, חמישה חודשים אחרי העזיבה, מוראטי הכריזה על Thinking Machines Lab. ביוני אותה שנה היא סגרה סבב גיוס של שני מיליארד דולר לפי שווי של שנים עשר מיליארד דולר, בהובלת אנדריסן הורוביץ (Andreessen Horowitz), עם השתתפות של אנבידיה (NVIDIA), AMD, אקסל (Accel) ועוד. זה סבב הגיוס הראשוני הגדול בהיסטוריה.

 

מה שהמשקיעים רכשו לא היה מוצר. הם רכשו את מוראטי ואת הצוות שהצליחה לגייס. ג'ון שולמן (John Schulman), ממייסדי OpenAI, הצטרף כמדען הראשי. באראט זוף (Barret Zoph), סמנכ"ל מחקר ב-OpenAI, הצטרף כסמנכ"ל טכנולוגיה. ליליאן וונג (Lilian Weng), סמנכ"לית ב-OpenAI, הצטרפה כמייסדת שותפה.

 

החברה הוקמה כתאגיד לתועלת ציבורית (Benefit Corporation) עם מבנה ממשל מיוחד שבו למוראטי יש זכות הכרעה. המשימה המוצהרת היא בניית בינה מלאכותית שאנשים יכולים לעצב, באמצעות שיחה, ראייה ושיתוף פעולה טבעי.

מלחמת הכישרונות

ואז הגיעה מטא (Meta). לפי דיווחים ב-TechCrunch ו-Wall Street Journal, מרק צוקרברג (Mark Zuckerberg) ניסה לרכוש את Thinking Machines Lab ישירות, וכשזה לא עבד, מטא הציעה חבילות תגמול של מאות מיליוני דולרים למהנדסים בודדים. לפי דיווח ב-Wired, לאחד מהם הוצעו יותר ממיליארד דולר (!). "אף אחד לא קיבל את ההצעה," מוראטי אמרה באותו ראיון.

 

אבל המציאות הייתה מורכבת יותר. אנדרו טולוש (Andrew Tulloch), אחד המייסדים, עזב למטא באוקטובר 2025. בינואר 2026, באראט צוף ולוק מץ (Luke Metz) חזרו ל-OpenAI. סואמית' צ'ינטלה (Soumith Chintala), ממייסדי PyTorch שעבד שלוש עשרה שנים במטא, הצטרף כסמנכ"ל טכנולוגיה חדש.

 

העזיבות האלה לא בהכרח מעידות על כישלון. הן מעידות על כמה חמה מלחמת הכישרונות בתעשייה, ועל כמה קטנה קבוצת האנשים שיודעים לבנות מערכות AI מתקדמות.

אלבניה מהמרת על הבת שלה

באפריל 2025, ראש ממשלת אלבניה אדי ראמה (Edi Rama) הודיע שהמדינה תשקיע שמונה מיליון ושמונה מאות אלף אירו (כעשרה מיליון דולר), בחברה של מוראטי. ההשקעה דרשה תיקון בתקציב המדינה באמצעות צו מיוחד. מדינה של פחות משלושה מיליון תושבים שינתה את התקציב שלה כדי להשקיע בסטארטאפ של ילדה מוולורה שטרם הציג מוצר.

 

בנובמבר 2025, בלומברג (Bloomberg) דיווח ש-Thinking Machines Lab ניהלה משא ומתן לגיוס נוסף לפי שווי של כחמישים מיליארד דולר. הסבב לא נסגר, אבל עצם המשא ומתן מראה כמה מהר הערך של מוראטי עלה בעיני השוק.

הדרך מוולורה לרשימות TIME ו-Fortune

מוראטי נכנסה לרשימת 100 המשפיעים בבינה מלאכותית לשנת 2024 במגזין טיים, לרשימת CNBC Changemakers ב-2026, ולרשימת Fortune 100 Most Powerful Women. הכרה בינלאומית שמחזקת את מה שהמספרים כבר אומרים.

 

הסיפור שלה עומד בזכות עצמו, אבל הוא חלק ממשהו גדול יותר. דריו ודניאלה אמודאי (Dario and Daniela Amodei) עזבו את OpenAI ב-2021 והקימו את אנטרופיק, ששווה היום שישים ואחד וחצי מיליארד דולר.

 

איליה סוצקבר (Ilya Sutskever) עזב במאי 2024 והקים את Safe Superintelligence, ששווה שלושים ושניים מיליארד דולר.

 

אמנדה אסקל (Amanda Askell), שעיצבה את האופי של קלוד (Claude) באנטרופיק, הפכה לאחת הדמויות המשפיעות ביותר על האופן שבו מערכות AI מתנהגות בפועל. יחד עם מוראטי, הנשים והאנשים שמעצבים את תעשיית ה-AI כבר לא נמצאים בהכרח במקום שבו התחילו.

תעקבו אחרי אנשים, לא מוצרים

אנבידיה הכריזה במרץ 2026 על שותפות עם Thinking Machines Lab שכוללת לפחות גיגה-וואט אחד של כוח מחשוב ממערכות ורה רובין (Vera Rubin) שלה, עם פריסה שתתחיל ב-2027.

 

הסיפור של מירה מוראטי הוא לא רק סיפור על קריירה יוצאת דופן. הוא חושף את הדרך שבה תעשיית הבינה המלאכותית באמת עובדת ב-2026. מאחורי השמות הגדולים, OpenAI, אנטרופיק, מטא, יש קבוצה קטנה של אנשים שיודעים לבנות את המערכות האלה. כשהם זזים, הכיוון של הטכנולוגיה זז איתם.

 

אז אולי מי שרוצה להבין לאן עולם ה-AI הולך, לא צריך לעקוב אחרי המוצרים - אלא אחרי האנשים שיודעים לבנות אותם.

הפוסט הסיפור על סמנכ”לית הטכנולוגיה לשעבר של OpenAI ומלחמת הכישרונות של תעשיית ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/mira-murati/feed/ 0
Seedance 2.0 סוף סוף נגיש גם בישראל https://letsai.co.il/seedance-dreamina-access/ https://letsai.co.il/seedance-dreamina-access/#respond Mon, 30 Mar 2026 05:50:28 +0000 https://letsai.co.il/?p=71957 מודל הווידאו החדש של בייטדאנס, Seedance 2.0, מגיע עכשיו גם לישראל, אבל הדרך שבה הוא הגיע לכאן מספרת סיפור גדול יותר. בזמן שהסנאט האמריקאי ניסה לבלום את השקת מחולל הווידאו של החברה, בייטדאנס פשוט עקפה את החסימה והכניסה את המודלים החדשים שלה דרך דרימינה (Dreamina) - פלטפורמת היצירה של קאפקאט (CapCut), שרוב המשתמשים מחוץ לעולם […]

הפוסט Seedance 2.0 סוף סוף נגיש גם בישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>

מודל הווידאו החדש של בייטדאנס, Seedance 2.0, מגיע עכשיו גם לישראל, אבל הדרך שבה הוא הגיע לכאן מספרת סיפור גדול יותר. בזמן שהסנאט האמריקאי ניסה לבלום את השקת מחולל הווידאו של החברה, בייטדאנס פשוט עקפה את החסימה והכניסה את המודלים החדשים שלה דרך דרימינה (Dreamina) - פלטפורמת היצירה של קאפקאט (CapCut), שרוב המשתמשים מחוץ לעולם העריכה כמעט לא מכירים. המהלך הזה פותח רשמית את הדלת ל‑Seedance 2.0, שמנסה לפתור את אחת הבעיות המרגיזות ביותר של יוצרי וידאו ב‑AI - עקביות בין שוטים, דמויות שלא מתחלפות וסביבה שלא מתפרקת גם כשעוברים מסצנה לסצנה. הוא מקבל תמונות, וידאו וטקסט ומבין את כולם יחד כדי לייצר סרטון קוהרנטי אחד. במקביל, בייטדאנס משחררת גם את Seedream 5.0 Lite - מחולל תמונות שמחובר למידע בזמן אמת ומגיב לפרומפטים בדיוק גבוה בהרבה מהדורות הקודמים. שני הכלים נפתחים בהדרגה למשתמשים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה דרימינה ואיך הוא מתחבר לתמונה הגדולה

כדי להבין מה זה דרימינה, צריך קודם להבין את המבנה שמאחוריו. בייטדאנס, החברה הסינית שהקימה את טיקטוק, בנתה לאורך השנים מערכת שלמה של מוצרים שמשלימים אחד את השני. טיקטוק הוא צד ההפצה, המקום שבו הסרטונים מגיעים לקהל. קאפקאט הוא צד העריכה, כלי עריכת הווידאו החינמי שהפך לאחד הפופולריים בעולם עם מאות מיליוני משתמשים. ודרימינה הוא הכלי החדש יחסית שמוסיף את שכבת הבינה המלאכותית ליצירת תמונות וסרטונים מאפס.

 

במילים פשוטות, טיקטוק מפיץ, קאפקאט עורך ודרימינה יוצר. שלושתם חלק מאותו אקוסיסטם של בייטדאנס, ומי שמשתמש באחד מהם כבר נמצא בתוך המערכת. דרימינה עצמו מציע חבילה שלמה של כלי יצירה מבוססי AI, מיצירת תמונות דרך מודל בשם Seedream ועד אווטרים דיגיטליים, כלי תכנון סצנות, ובראש הפירמידה - יצירת ווידאו דרך Seedance 2.0.

צוות SEED - מי עומד מאחורי הקלעים

את המודלים של דרימינה מפתח צוות המחקר של בייטדאנס שנקרא SEED. הצוות הוקם ב-2023 ומפעיל מעבדות בסין, סינגפור וארצות הברית, והוא לא עוסק רק בווידאו אלא מכסה שמונה כיווני מחקר שונים, ממודלי שפה גדולים ותשתיות דרך ראייה ממוחשבת ודיבור ועד רובוטיקה ו-AI אחראי.

 

Seedance 2.0 הוא התוצר המרכזי של הצוות בתחום הווידאו, והוא מבוסס על ארכיטקטורה ייחודית שמאחדת יצירת אודיו ווידאו בתהליך אחד. בניגוד למודלים מתחרים שיוצרים קודם תמונה נעה ואז מוסיפים שכבת קול בנפרד, Seedance 2.0 מייצר את שניהם יחד מההתחלה, וזה מה שמאפשר לו סנכרון שפתיים ואפקטים קוליים שמרגישים טבעיים יותר.

איך ניגשים וכמה זה עולה

הגישה ל-Seedance 2.0 מישראל עוברת דרך אתר דרימינה. כדי להשתמש צריך ליצור חשבון ולרכוש מנוי.

 

התמחור הוא הנקודה שדורשת ציפיות מציאותיות. המנוי הבסיסי עולה כ-60 שקלים בחודש (18 דולר) ומעניק 2,700 קרדיטים, שמספיקים בערך לעשרה סרטונים של 15 שניות כל אחד. מי שרוצה יותר יכול לשדרג למנוי הסטנדרטי בכ-150 שקלים (42 דולר) עבור 10,800 קרדיטים, או למנוי המתקדם בכ-300 שקלים (84 דולר) עבור 29,700 קרדיטים.

 

חשוב לומר, הפקת סרטון מקצועי של 15 שניות בשיטה מסורתית דורשת יום צילום, שחקנים, תאורה, ציוד ועורכי סאונד, ועולה אלפי שקלים. כאן מקבלים עשרה סרטונים ברמת פרודקשן סינמטית, כולל אודיו מסונכרן, בפחות מעלות של שווארמה בצלחת. עבור עסקים קטנים שרוצים לייצר פרסומות או תוכן ויזואלי ברמה גבוהה, מדובר בשבירת מחסום שלא הייתה אפשרית לפני שנה.

שילוב המודל ישירות בתוך קאפקאט

מאז שכתבנו על Seedance 2.0 בפברואר, קרו כמה דברים מעניינים. בייטדאנס הודיעה בסוף מרץ על שילוב המודל ישירות בתוך קאפקאט, כך שמשתמשי קאפקאט יוכלו ליצור סרטוני AI בלי לצאת מהאפליקציה. ההשקה הראשונה היא בשבע מדינות, ברזיל, אינדונזיה, מלזיה, מקסיקו, הפיליפינים, תאילנד וויאטנם, ועוד מדינות צפויות להתווסף עם הזמן.

בטיחות וזכויות יוצרים

במקביל, בייטדאנס הוסיפה הגבלות בטיחות משמעותיות בעקבות לחץ כבד מהוליווד. אולפני קולנוע הביעו חששות מהפרת זכויות יוצרים ומשימוש בלתי מורשה בדמויותיהם של שחקנים, ובייטדאנס הגיבה בכמה צעדים.

 

המודל לא מאפשר יותר ליצור סרטונים מתמונות או סרטונים שמכילים פנים אמיתיות, כל תוכן שנוצר מקבל סימן מים בלתי נראה שמזהה אותו כתוכן AI, והחברה הטמיעה את תקן C2PA לאימות מקור התוכן הדיגיטלי. המתח הזה בין היכולות הטכנולוגיות לבין הצורך ברגולציה הוא אחד הסיפורים המעניינים שמתפתחים בתעשייה בשנה האחרונה.

מה כדאי לדעת לפני שנרשמים

ישראל לא נמצאת ברשימת המדינות הראשונות שמקבלות גישה דרך קאפקאט, אבל הגישה דרך אתר דרימינה פתוחה. המנוי הבסיסי מספיק לניסיון ראשוני, אבל עשרה סרטונים בחודש זה לא הרבה למי שרוצה לעבוד עם הכלי ברצינות. העלות לסרטון בודד יורדת משמעותית במנויים הגבוהים, ולכן מי שמתכוון להשתמש בקביעות כדאי שישקול את המנוי הסטנדרטי.

 

מבחינת איכות, מדובר בסרטונים ברזולוציית 720p עד 1080p, באורך של עד 15 שניות, וביחסי מסך מגוונים מ-16:9 ועד 9:16. המודל תומך בקלט רב-מודאלי, כלומר אפשר להזין טקסט, תמונות, קטעי ווידאו וקבצי אודיו יחד כדי לכוון את התוצאה.

 

הדבר החשוב ביותר שכדאי לזכור הוא שמדובר בטכנולוגיה שמתפתחת בקצב מסחרר, והמחירים והיכולות ישתנו. מי שרוצה להתנסות עכשיו כדי להבין את הפוטנציאל, המנוי הבסיסי של 60 שקלים הוא נקודת כניסה סבירה. זהו רגע טוב להציץ פנימה, להבין את הכיוון, ולהחליט אם זה כלי שיכול להשתלב בארגז הכלים שלכם.

הפוסט Seedance 2.0 סוף סוף נגיש גם בישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/seedance-dreamina-access/feed/ 0
המדריך המלא ל-Copilot בגרסה החינמית https://letsai.co.il/copilotfreeguide/ https://letsai.co.il/copilotfreeguide/#respond Mon, 30 Mar 2026 04:30:24 +0000 https://letsai.co.il/?p=71992 רוב המשתמשים כבר התנסו ב-ChatGPT או בכלי AI דומים, אך במקביל, כלי אחר - זמין, חינמי ונגיש לא פחות, ממשיך לעבור מתחת לרדאר: קופיילוט של מיקרוסופט (Microsoft). לא מדובר בעוד צ’אטבוט שמספק תשובות לשאלות, אלא בשכבת עבודה שמתחברת ישירות לדפדפן, למסמכים ולשגרות העבודה היומיומיות. במדריך זה נעמיק באופן השימוש בקופיילוט, ונבחן כיצד להפיק ממנו ערך […]

הפוסט המדריך המלא ל-Copilot בגרסה החינמית הופיע ראשון בLet's AI בינה מלאכותית

]]>
רוב המשתמשים כבר התנסו ב-ChatGPT או בכלי AI דומים, אך במקביל, כלי אחר - זמין, חינמי ונגיש לא פחות, ממשיך לעבור מתחת לרדאר: קופיילוט של מיקרוסופט (Microsoft). לא מדובר בעוד צ’אטבוט שמספק תשובות לשאלות, אלא בשכבת עבודה שמתחברת ישירות לדפדפן, למסמכים ולשגרות העבודה היומיומיות. במדריך זה נעמיק באופן השימוש בקופיילוט, ונבחן כיצד להפיק ממנו ערך אמיתי בעבודה השוטפת.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

 

קופיילוט החינמי: נגישות רחבה ושימוש אישי

קופיילוט החינמי הוא מערכת בינה מלאכותית מבית מיקרוסופט, הזמינה לשימוש ללא עלות לכל מי שמחזיק חשבון Microsoft סטנדרטי או Outlook. עם זאת, בפועל, חוויית הגישה אליו רחבה יותר מהאקוסיסטם של מיקרוסופט בלבד.

 

התחברות לקופיילוט: כיום ניתן להתחבר גם באמצעות חשבונות חיצוניים, כולל חשבון Google או Apple. משתמשים רבים בוחרים להיכנס דרך חשבון ה-Gmail שלהם, מה שמפשט את תהליך ההתחברות ומייתר יצירת חשבון נוסף. מעבר לנוחות, מדובר במהלך שמשקף מגמה רחבה יותר: הפיכת כלי AI לשכבה נגישה בתוך הסביבה הדיגיטלית הקיימת, ולא כפלטפורמה נפרדת.

 

חיבור דרך הדפדפן: השימוש בקופיילוט מתבצע דרך הדפדפן בכתובת הבאה: https://copilot.microsoft.com/ , או באמצעות העוזר הצדדי (Sidebar) המובנה בדפדפן Edge, המאפשר עבודה רציפה לצד גלישה.

 

כניסה לקופיילוט החינמי

כניסה לקופיילוט החינמי דרך דפדפן אדג' של מיקרוסופט

 

 

חשוב להדגיש כי מדובר בגרסה אישית של הכלי. היא נפרדת מ-Copilot for Microsoft 365, אשר מיועד לארגונים, מתחבר למסמכים ודאטה ארגוני, ודורש רישוי בתשלום.

 

 

העוזר הצדדי (Sidebar) בדפדפן Edge

את העוזר הצדדי ניתן להפעיל דרך הפתור שנמצא בצד בחלק העליון של המסך (ראו תמונה מעלה). הוא מאפשר לכם להמשיך לגלוש באתר שבו אתם נמצאים, ולמעשה לשמש כעוזר AI צמוד. סייען שרואה כל מה שהמסך שלכם רואה. ניתן לבקש ממנו לסכם את התוכן שמופיע על המסך באותו רגע, להרחיב, להביא עוד מידע או מקורות, או לאמת את אמינות הטענות. זו שכבת AI צמודה שמלווה את הגלישה באינטרנט.

 

 

האפליקציה הוובית

האפליקציה הוובית היא למעשה מעין חלופה ל-ChatGPT או Gemini. הממשק מאוד מזכיר את הצ'טבוטים הרגילים שאתם מכירים, והוא מכיל את רוב הפיצ'רים שאתם רגילים למצוא באותם צ'טים מבוססי AI.

 

איך נכנסים לקופיילוט ומה רואים בפעם הראשונה?

תהליך הכניסה עצמו פשוט, אך המשמעות שלו רחבה יותר מהשלבים הטכניים.

 

התחברות לחשבון: לאחר התחברות לחשבון, נפתח ממשק צ’אט מרכזי. סביבו מופיעים תפריט צד וסרגל עליון עם אפשרויות בסיסיות. המבנה הזה עשוי להשתנות מעט בין גרסאות, אך העיקרון נשאר דומה: סביבת עבודה מינימליסטית שמכוונת לפעולה מיידית. מומלץ בחום לבצע חיבור לחשבון, כי אז תקבלו יכולות מתקדמות יותר, מאשר שימוש ללא חיבור לחשבון.

 

שימוש מוגבל ללא התחברות: ניתן להשתמש בקופיילוט גם ללא התחברות, אך במקרה כזה היכולת מוגבלת. רק התחברות לחשבון מאפשרת שמירה של היסטוריית שיחות, עבודה עם קבצים והמשכיות בין אינטראקציות. זהו הבדל קטן לכאורה, אך בפועל הוא זה שמבדיל בין שימוש מזדמן לבין עבודה שוטפת עם הכלי.

 

 

 

התחברות דרך האתר

לוחצים על כפתור התחברות דרך האתר ובוחרים חשבון להתחבר דרכו

 

היכרות עם הממשק

הממשק של קופיילוט נראה מינימליסטי, אך מאחוריו מסתתרת מערכת גמישה למדי.

 

מבנה המסך: במרכז המסך נמצא אזור השיחה, שבו מתנהלת האינטראקציה בין המשתמש למערכת. לעיתים מופיעה תמצית קצרה של התשובה, ולעיתים מצורפים גם קישורים למקורות, כאשר המערכת נשענת על מידע מהרשת. בצד תמצאו תפריט צדדי ובו אפשרויות מתקדמות נוספות.

 

תיבת הפרומפטים: בתחתית המסך נמצאת שורת ההקלדה - זה המקום בו אתם רושמים את הפרומפטים שלכם - כאן ניתן לנסח שאלות, בקשות לכתיבה, ביצוע סיכומים או ניתוחים מורכבים עם AI. לעיתים תופיע גם אפשרות לקלט קולי, וכן כפתור לצירוף קבצים, שמאפשר להעלות מסמכים ולבסס עליהם את השיחה.

 

בורר המודלים: בתוך תיבת הפרומפטים תמצאו כפתור שמאפשר להחליף בין מודלים שונים בתוך קופיילוט (לרוב יהיו אלו מודלי GPT). לעיתים כפתור זה נמצא בחלק העליון של הממשק (תלוי בגרסה של קופיילוט). להלן הסבר על המצבים השונים:

  • מצב Smart: מצב אוטומאטי בו קופיילוט יחליט בעצמו מתי לשלוף מודל עוצמתי וחזק (מודל Reasoning), ומתי לשלוף מודל מהיר ופשוט יותר. 
  • מצב חשיבה מעמיקה יותר: מצב זה מיועד למשימות מורכבות כמו ניתוח קבצים, ביצוע חישובים מתמטיים, או פעולות רב שלביות. במצב זה המודל לרוב מתבסס על מודלי Thinking מסדרת GPT (מודלי חשיבה).
  • מצב לימוד והעמקה: במצב זה קופיילוט ישמש כמעין "מורה AI פרטי" שמלווה אתכם, מדריך אתכם, מסביר, מתווך ומלווה. זה מושלם למצבים שבהם אתם רוצים ללמוד חומר חדש, להתכונן לקראת מבחן או אירוע חשוב, או סתם רוצים להבין לעומק נושא שקרוב לליבכם.
  • מצב חיפוש: במצב זה קופיילוט יהפוך למעין "פרפלקסיטי" - כשתשאלו אותו שאלה, הוא יחפש תשובות ברשת או במאגרי מידע, וישאב מתוך אותם מקורות את המידע שהוא צריך כדי לג'נרט לכם את התשובה. הוא יציג תשובות מנומקות, בליווי הפניות למקורות שעליהם התבסס.

 

 

מעבר בין מודלי חשיבה

מעבר בין מודלי חשיבה בתיבת השיח

 

מה ניתן לעשות בפועל מעבר לשאלות בתיבת השיח?

משתמשים רבים נוטים להישאר ברמת השימוש הבסיסית: שאלה ותשובה. אך זו רק נקודת הפתיחה.

 

יצירת טקסטים ותוכן: קופיילוט מסוגל לייצר טקסטים מסוגים שונים - החל ממיילים וסיכומים, ועד רעיונות למצגות ותוכן שיווקי. היתרון המשמעותי טמון ביכולת לכוון את הסגנון מראש, ולבקש ניסוח שמתאים לקהל או למטרה מסוימת.

 

ניתוח קבצים ונתונים: היכולת לעבוד עם קבצים מוסיפה שכבה נוספת של שימושיות. במקום לקרוא מסמך ארוך, ניתן להעלות אותו, לבקש סיכום, להוציא משימות, או לבנות מבנה נתונים מתוך התוכן. זהו מעבר מעבודה ידנית לעבודה מונחית AI.

 

העמקה והרחבה: נקודה נוספת שחשוב להבין היא אופי העבודה האיטרטיבי. התשובה הראשונה אינה בהכרח הסופית. באמצעות בקשות המשך ניתן לחדד, לקצר, להרחיב או לשנות סגנון. פעמים רבות, הערך האמיתי מתגלה רק לאחר כמה סבבים של שיפור.

 

קסטומיזציה של הצ'ט: בהגדרות המערכת ניתן גם להגדיר הנחיות קבועות (Custom Instructions), כגון שפה מועדפת או סגנון כתיבה. התאמה זו מצטברת לאורך זמן ומייצרת עבודה מדויקת יותר.

 

 

כניסה לתפריט הגדרות ובחירת העדפות

כניסה לתפריט הגדרות ובחירת העדפות

קונקטורים בקופיילוט

אחד המעברים המשמעותיים ביותר בשימוש בקופיילוט מתרחש כאשר הוא מפסיק להסתמך על שאלות כלליות, ומתחיל לעבוד עם מידע קונקרטי. מחברים (קונקטורים), כלומר חיבורים למקורות מידע חיצוניים, מאפשרים למערכת להישען על תוכן אמיתי: מיילים, מסמכים, קבצים בענן או מערכות ארגוניות. חיבורים אלו לרוב מתבססים על טכנולוגיית MCP.

 

כאשר קופיילוט פועל על בסיס מידע שהמשתמש מספק, למשל קובץ שהועלה או הקשר שנצבר בשיחה - התוצאה משתנה באופן מהותי. התשובות הופכות מדויקות יותר, פרקטיות יותר, ובעיקר רלוונטיות להקשר. דוגמה לכך היא חיבור לחשבון Gmail. לאחר יצירת החיבור (לרוב דרך כלי אינטגרציה כמו Power Automate או שירותים דומים), ניתן לבקש מהמערכת לסכם שרשורי מיילים, לזהות משימות פתוחות, או לנסח תגובה בהתאם להתכתבות קיימת. ברגע שהמידע הזה זמין, העבודה כבר אינה מתחילה מאפס בכל פעם.

 

 

חיבור ג׳ימייל לקופיילוט באמצעות קונקטורים

חיבור Gmail לקופיילוט באמצעות קונקטורים

 

 

משיחה אישית לתהליך עבודה

כאשר עובדים עם קופיילוט לאורך זמן, השיחות אינן רק תיעוד, הן הופכות לחומר גלם. ניתן לחזור לשיחה, לערוך אותה, ולהשתמש בה מחדש. תשובה שנוצרה בצ’אט יכולה להפוך לטיוטת מייל, למסמך עבודה, או לבסיס לדיון רחב יותר. במובן הזה, קופיילוט אינו מספק “תוצאה סופית”, אלא נקודת פתיחה.

 

משיתוף קישור לעבודה משותפת

אחת היכולות הפשוטות אך המשמעותיות היא אפשרות השיתוף. בלחיצה על כפתור השיתוף ניתן לייצר קישור לשיחה ולהעביר אותו הלאה. כך, שיחה אישית הופכת לנקודת עבודה משותפת. צוותים יכולים להתייחס לאותו תוכן, להמשיך ממנו, או לבקר אותו. עם זאת, חשוב לזכור שהשיתוף כולל את תוכן השיחה, ולכן יש לשקול מראש אילו פרטים נכללים בו.

 

 

כפתור ״הזמן חברים״

שיתוף השיחה דרך ״הזמן חברים״

 

מה חינמי ומה כבר לא?

השימוש הבסיסי בקופיילוט הן דרך הדפדפן והן דרך הסיידבר ב-Edge,  זמין ללא תשלום למשתמשים פרטיים, בין אם הם מתחברים דרך חשבון Microsoft, Google או Apple. לעומת זאת, Copilot for Microsoft 365 הוא מוצר אחר לחלוטין. הוא פועל בתוך יישומי Office כמו Word, Excel ו-Outlook, מחובר לדאטה ארגוני, ודורש רישוי בתשלום. גם פתרונות כמו Copilot Studio או יכולות Enterprise מיועדים לסביבות ארגוניות ואינם חלק מהשימוש החינמי.

 

בסופו של דבר, קופיילוט הוא אלטרנטיבה מעולה למי שרוצה לעבוד עם כלי חינמי איכותי, ולא רוצה להשקיע במנויים בתשלום לכלים כמו ChatGPT, ג'מיניי או Claude.

הפוסט המדריך המלא ל-Copilot בגרסה החינמית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/copilotfreeguide/feed/ 0
שוב מודל של אנטרופיק מקריס את מניות הסייבר, והפעם: Mythos https://letsai.co.il/ai-leak-cyber-crisis/ https://letsai.co.il/ai-leak-cyber-crisis/#respond Sun, 29 Mar 2026 10:47:38 +0000 https://letsai.co.il/?p=72002 טיוטת פוסט פנימי שנשכחה במאגר ציבורי חשפה שחברת אנטרופיק מפתחת מודל בינה מלאכותית שהחברה עצמה מגדירה כבעל יכולות סייבר חסרות תקדים. לא עברו שעות מרגע הפרסום, ומניות חברות הסייבר הגדולות בארה"ב הגיבו בצניחה חדש (שוב). זו הפעם השנייה תוך חודש שאנטרופיק מזעזעת את ענף הסייבר בוול סטריט, ובשוק מתחילים להבין שזו כבר לא תקרית בודדת, […]

הפוסט שוב מודל של אנטרופיק מקריס את מניות הסייבר, והפעם: Mythos הופיע ראשון בLet's AI בינה מלאכותית

]]>
טיוטת פוסט פנימי שנשכחה במאגר ציבורי חשפה שחברת אנטרופיק מפתחת מודל בינה מלאכותית שהחברה עצמה מגדירה כבעל יכולות סייבר חסרות תקדים. לא עברו שעות מרגע הפרסום, ומניות חברות הסייבר הגדולות בארה"ב הגיבו בצניחה חדש (שוב). זו הפעם השנייה תוך חודש שאנטרופיק מזעזעת את ענף הסייבר בוול סטריט, ובשוק מתחילים להבין שזו כבר לא תקרית בודדת, אלא תבנית חוזרת שמעמידה בסימן שאלה את המודל העסקי של תעשייה שלמה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

Blast From The Past... תרתי משמע

באוגוסט 1945, שבועות ספורים לפני שהפצצה הגרעינית הראשונה הושלכה על הירושימה, קבוצה קטנה של מדענים בפרויקט מנהטן ניסחה מכתב דחוף לנשיא טרומן. הם התחננו שלא להשתמש בנשק שהם עצמם פיתחו. המדענים ידעו משהו שהפוליטיקאים לא הבינו עד הסוף: ברגע שתיבת פנדורה נפתחת, אי אפשר לסגור אותה! שמונה עשורים אחר כך, הסצנה חוזרת על עצמה, אבל הפעם בתחום אחר לגמרי. אנטרופיק (Anthropic), אחת מחברות ה-AI הבולטות בתעשייה (האמא והאבא של "קלוד קוד"), שחרטה על דגלה קידום בטיחות ואחריות בתחום הבינה המלאכותית, מגלה שהמודל החדש שלה עלול להפוך למנוע תקיפה רב-עוצמה, ודווקא הפעם, את האזהרה לא הם בחרו לפרסם.

 

טיוטה שלא הייתה אמורה לצאת לאור

ביום חמישי האחרון דיווח מגזין Fortune כי חוקרי אבטחה גילו שאנטרופיק השאירה במאגר נתונים ציבורי כמעט 3,000 נכסים דיגיטליים שלא פורסמו רשמית. בין הקבצים נמצאה טיוטת פוסט בלוג שתיארה מודל חדש בשם קלוד מית'וס (Claude Mythos), שהחברה כינתה "ללא ספק מודל ה-AI החזק ביותר שפיתחנו עד היום". הדליפה לא נבעה ממתקפת סייבר מתוחכמת, אלא מטעות אנוש בתצורת מערכת ניהול התוכן של החברה.

 

החומרים שנחשפו חשפו גם שם קוד נוסף - Capybara - שמתאר שכבת מודלים חדשה שיושבת מעל לדרגת Opus הקיימת, המודלים החזקים ביותר של אנטרופיק עד כה. לפי הטיוטה, קפיבארה משיג ציונים גבוהים באופן דרמטי לעומת קלוד אופוס 4.6 (Claude Opus)  במבחני תכנות, חשיבה אקדמית וסייבר. דובר החברה אישר שאנטרופיק אכן מפתחת מודל כללי עם התקדמות משמעותית ביכולות חשיבה, קוד וסייבר, והוסיף כי החברה "נוקטת זהירות בדרך שבה היא משחררת אותו".

 

ירידות חדות ברחבי הענף

תגובת השוק הייתה מיידית! מניות חברות סייבר מובילות בארה"ב נפלו ביום שישי האחרון: קרן הסל iShares Cybersecurity ETF ירדה בכ-3.7%, בעוד CrowdStrike ו-Palo Alto Networks איבדו כ-7% ו-6% בהתאמה. גם Zscaler, SentinelOne, Okta ו-Fortinet ספגו ירידות של 3% עד 5.5%, ואילו Tenable צללה בכ-8.5%.

 

כל זה קורה אחרי סדרת אירועים דומים: שבתחילת פברואר קרה אירוע דומה - ה-SaaSpocalypse, בו שדרוג בקלוד קוד הוביל לקריסת מניות התוכנה וה-SaaS. בסוף פברואר היה זה תורן של מניות הסייבר, אחרי עוד שדרוג מבית אנטרופיק, גם הוא היה בקלוד קוד. ובאותו חודש גם המניה של IBM חטפה מכה חזקה כשהתברר שקלוד קוד מסתדר ממש לא רע עם קוד COBOL.

 

אנליסטים בוולסטריט לא חיכו הרבה עם ההערכות. אדם טינדל מ-Raymond James פירט מספר סיכונים כולל דחיסת היתרונות המסורתיים של חברות ההגנה, עלייה במורכבות ובעלות של הגנה מפני מתקפות, ושינויים אפשריים בארכיטקטורת האבטחה ובתקציבי ההגנה. אנליסט אחר, קית' בורג, כתב שהמודל החדש עלול להפוך כל האקר ממוצע ליריב ברמה מדינתית.

 

לא רק תיאוריה - זה כבר קרה!

החשש בשוק לא צמח מהדמיון. בנובמבר 2025 חשפה אנטרופיק עצמה את מה שהיא תיארה כמתקפת ריגול הסייבר הראשונה שתועדה ברמה כזו של אוטונומיה מבוססת AI. קבוצה שמיוחסת לגורם מדינתי סיני ניצלה את הכלי קלוד קוד (Claude Code) כדי לחדור לכשלושים ארגונים גלובליים - חברות טכנולוגיה, מוסדות פיננסיים, יצרני כימיקלים וגופים ממשלתיים. לפי אנטרופיק, ה-AI ביצע 80% עד 90% מהפעולות באופן עצמאי, כולל סריקת מערכות, גילוי חולשות, כתיבת קוד ניצול וחילוץ מידע רגיש - הכול בקצב של אלפי בקשות לשנייה, מהירות שאף צוות אנושי לא יכול לשחזר.

 

התוקפים הצליחו לעקוף את מנגנוני הבטיחות של קלוד באמצעות הנדסה חברתית, כשהם שכנעו את המודל שהוא עובד בחברת אבטחה לגיטימית ומבצע בדיקות הגנתיות. רק מספר מצומצם מהמתקפות הצליח במלואו, בין היתר כי קלוד עצמו הזיה לעיתים נתונים שלא היו קיימים. אבל העיקרון הוכח: סוכן AI יכול להחליף צוות האקרים שלם, ובעלות נמוכה בהרבה.

 

לאנטרופיק יש סיפור פתוח עם הסינים - בתחילת השנה הם חשפו רשת דיסטילציה סינית ש"שואבת את המוח של קלוד" (אולי קצת הגזמנו עם התיאור) ומשתמשת בדאטה הזה כדי לאמן מודלים סינים רזים וזולים הרבה יותר.

 

הנתונים שמפחידים את וול סטריט

דו"ח פריצות הנתונים השנתי של Verizon לשנת 2025 סיפק רקע מטריד לכל מי שעוקב אחרי ענף הסייבר. החברה ניתחה למעלה מ-22,000 אירועי אבטחה, מתוכם כ-12,200 פריצות מאומתות - המספר הגבוה ביותר שנכלל בדו"ח יחיד מאז שהסדרה החלה. מעורבות צד שלישי בפריצות הוכפלה ל-30%, ניצול חולשות כווקטור חדירה ראשוני עלה ב-34%, ומתקפות כופרה הופיעו ב-44% מכלל הפריצות.

 

הנתונים האלה מסבירים למה וולסטריט מגיב בעצבנות כזו לכל רמז שיכולות תקיפה הולכות להיות נגישות יותר. כשענף הסייבר נכנס לשנת 2025 עם נפח פריצות שובר שיאים, כל קפיצת מדרגה ב-Offensive AI מתורגמת מיד ללחץ פיננסי על חברות ההגנה.

 

יש משהו מטריד במיוחד בכך שדווקא אנטרופיק נמצאת במרכז הסיפור הזה. מדובר בחברה שבנתה את המוניטין שלה על גישה זהירה ואחראית לפיתוח AI. מדיניות ה-Responsible Scaling Policy שלה כוללת רמות בטיחות מדורגות שבוחנות במפורש יכולות מסוכנות בתחומי סייבר ונשק, ומאפשרות לעצור אימון או פריסה של מודלים אם ההגנות לא מספיקות. במאי 2024 דיווחה החברה שכ-8% מעובדיה עוסקים בתחומים צמודי אבטחה, ושחלק זה צפוי לגדול.

 

 

בין פאניקה למציאות

חשוב לשמור על פרופורציה. הירידות בשוק נולדו מטיוטות ודליפה, לא מהשקה רשמית או מהוכחה פומבית לשימוש זדוני נרחב. אנטרופיק עצמה טרם פרסמה תוצאות בנצ'מרק רשמיות, ואין עדיין דרך לדעת אם מית'וס אכן מהווה קפיצת מדרגה כזו בפועל או שמדובר בשפה שיווקית פנימית. כדי לסבר את האוזן, כש-OpenAI שיחררה את GPT-5 באוגוסט האחרון אחרי הבטחות גדולות, התוצאה בפועל אכזבה לא מעט.

 

אבל גם אם מחצית מהחשש מוגזם, הכיוון ברור. המודלים הולכים ומשתפרים ביכולות שקשורות לזיהוי ולניצול חולשות תוכנה. התוקפים כבר הוכיחו שהם יודעים לגרום למודלים לעבוד בשבילם. ואם הענף לא היה צריך אזהרה - הרי שדו"ח Verizon לבדו מספק אחת ברורה מאוד. המגנים נאלצים לרוץ מהר יותר רק כדי לשמור על אותו מרחק מהתוקפים. מודל כמו מית'וס, בין אם הוא כבר כאן או בדרך, הוא תזכורת שהמרחק הזה עלול להצטמצם מהר בהרבה ממה שכולם חשבו.

הפוסט שוב מודל של אנטרופיק מקריס את מניות הסייבר, והפעם: Mythos הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-leak-cyber-crisis/feed/ 0
המירוץ ל-AGI: בזמן שאנחנו משפרים בוטים, העולם נלחם על השליטה בעתיד https://letsai.co.il/agi-race-israel/ https://letsai.co.il/agi-race-israel/#respond Sun, 29 Mar 2026 05:54:20 +0000 https://letsai.co.il/?p=71942 האם ישראל מפספסת את הרכבת המהירה ביותר בהיסטוריה? בזמן שהאקדמיה והתעשייה המקומית תקועות בשיפור ארכיטקטורות ישנות, המעצמות כבר מזמן עברו למלחמה על הדבר האמיתי: בינה מלאכותית כללית (AGI). זה הזמן להפסיק להשתמש בכלים, ולהתחיל להמציא אותם מחדש. היום, כמעט כל מי שעוסק ב-AI בישראל – בין אם באקדמיה ובין אם בתעשייה – ממוקד באחד משני […]

הפוסט המירוץ ל-AGI: בזמן שאנחנו משפרים בוטים, העולם נלחם על השליטה בעתיד הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם ישראל מפספסת את הרכבת המהירה ביותר בהיסטוריה? בזמן שהאקדמיה והתעשייה המקומית תקועות בשיפור ארכיטקטורות ישנות, המעצמות כבר מזמן עברו למלחמה על הדבר האמיתי: בינה מלאכותית כללית (AGI). זה הזמן להפסיק להשתמש בכלים, ולהתחיל להמציא אותם מחדש. היום, כמעט כל מי שעוסק ב-AI בישראל – בין אם באקדמיה ובין אם בתעשייה – ממוקד באחד משני כיוונים: שיפור מודלי שפה (LLMs) קיימים המבוססים על ארכיטקטורת ה-Transformer המוכרת, או ניסיון ליישם כלי AI  קיימים כדי לפתור בעיות ספציפיות במדע ובהנדסה. זה נחמד, זה חשוב, וזה אפילו עובד. אבל זה רחוק מלהיות מספיק.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המבט החוצה: לאן העולם באמת הולך?

כשאנחנו מסתכלים על מה שקורה בסין, בארה"ב, בסעודיה וברוסיה, אנחנו רואים תמונה אחרת לגמרי. האומות הללו לא עסוקות רק ב"איך ליישם AI". הפוקוס הגדול ביותר שלהן הוא על בינה מלאכותית כללית או AGI – Artificial General Intelligence.

 

אילוסטרציה: המרוץ הגלובלי ל-AGI

אילוסטרציה: המרוץ הגלובלי ל-AGI

 

למה? כי זהו המגרש של הגדולים באמת. המלחמה על ה-AGI תקבע מי תהיה המעצמה הדומיננטית בעולם. בניגוד לבינה המלאכותית שאנחנו מכירים היום, ל-AGI  אמיתית תהיה השפעה גלובלית על כל תחומי המדע והטכנולוגיה – בבת אחת. זה לא עוד "עוזר אישי" לכתיבת קוד או מיילים; זהו מנוע שיזניק את האנושות קדימה בכל דיסציפלינה אפשרית.

2023 כנקודת מפנה: מהפכת הכלים הכלליים והניבטים הראשונים של ה-AGI

הבינה המלאכותית שהייתה ידועה לנו עד שנות ה-2023 ועדיין קיימת היא בעצם סט של כלים (שיטות ואלגוריתמים) כלליים, שניתן בעזרתם לפתור בעיות קונקרטיות. כלומר "להלביש" אותם על גבי איזשהו דאטאסט קיים ולעבד אותו לצרכים שלנו. עושים את זה כיום בכל תחום אפשרי: בתחומי חקלאות, מים, שיווק, גיוס עובדים, רפואה, סייבר, ביטחון, ועוד. ראינו דוגמאות לזה בכלים פנטסטיים שהתעלו מעל ביצועים אנושיים, כמו בזיהוי אובייקטים בתמונות ובוידאו, במשחקי GO ושחמט, בג'ינרוט חלבונים, ועוד.

 

אבל משהו השתנה ב-2023, וכולנו חווינו את זה – היציאה של ChatGPT לעולם. לראשונה היה לנו כלי כללי, שמסוגל לענות להרבה מאוד צרכים שונים, ולא רק עונה לבעיות קונקרטיות ולא מבצע אך ורק משימות מסוימות. עם חיזוק תחום הרובוטיקה לאחרונה, כלים אלו, של מודלי שפה, ביחד עם יכולות של סוכנים, מסוגלים לבצע פעולות מעבר לטקסט. כלומר להפעיל תוכנות, לבצע פעולות באינטרנט, ועם רובוטים יוכלו אפילו לבצע מטלות בבית.

 

כל זה באמת פנטסטי, וכפי שהזכרנו לעיל, זה יהיה עוזר אישי נפלא ואכן יקל עוד יותר על חיינו, כמו כל טכנולוגיה קודמת שפגשנו. אבל היציאה של מודלי שפה לעולם ב-2023 עשתה דבר נוסף. לראשונה האנושות נפגשה עם כלי שמגיב בצורה מאוד ברורה, דמויית בן אדם, גמישה ואדפטיבית לבקשות רבות ומגוונות של אנשים. זה בעצם כמו גרסה התחלתית של בינה מלאכותית כללית.

 

תרשים התפתחות ה‑AI והמעבר מ"פנטזיית AGI" להבנה שהוא כבר אפשרי

תרשים התפתחות ה‑AI והמעבר מ"פנטזיית AGI" להבנה שהוא כבר אפשרי

הבעיה ב-AI של היום: הזיות וחוסר יצירתיות

בואו נודה על האמת, ל-AI הנוכחי (ובעיקר ל-LLMs) יש לא מעט בעיות:

  • הזיות מובנות במודלים (Hallucinations): המודלים ממציאים עובדות בביטחון עצמי מופרז.
  • שגיאות במערכות סוכנים: בתהליך האינטראקטיבי כל שגיאה הכי קטנה מתעצמת אקספוננציאלית, ומכשילה משימות מורכבות.
  • חוסר עקביות לוגית: תגובות לא מתאימות או הזיות באינטראקציות ממושכות.
  • חוסר ביצירתיות אמיתית: המודלים לא טובים על דאטא מחוץ לתחום האימון שלהם, ובדרך כלל מתכנסים למגוון צר של תבניות.
  • השלכות קוגניטיביות ופסיכולוגיות: השפעות שליליות שאנחנו רק מתחילים להבין.

היום ה-AI הוא בעיקר עוזר פרטי לכתיבה, בידור ותכנות. AGI לעומת זאת, עוסק בהשפעה גלובלית ובקידום המדע והטכנולוגיה בכל כיוון אפשרי. תאורטית, AGI אמיתי אולי יהיה אפילו מסוגל ליצור לוגיקה שלא מוכרת לנו, מה שיאפשר גם ליצור אולי מתמטיקה חדשה, שתאפשר בתורה ליצור מודלים חדשים בכל תחום בעולמנו. כל אלו יאפשרו לפתח טכנולוגיות שהן מעבר להשגותינו והבנתנו.

המהפכה מתחילה בחינוך: פרדיגמה חדשה

כדי להגיע לשם, אנחנו חייבים לשנות כיוון. עלינו להקצות חלק מההון המושקע ב-AI לטובת מחקר ב-AGI ובעיקר לטובת הוראה בתחום ה-AGI ליצירת חוקרים לתחום הזה ספציפית. אנחנו זקוקים לקורסים מיוחדים ששמים דגש על תיאוריה ופילוסופיה (לעומת הקורסים היותר פרקטיים וההנדסיים הקיימים היום) – כאלו שיעניקו הבנה עמוקה ורחבה יותר בAI ובתחומים רלוונטיים לפיתוח AI. לא רק במדעי מחשב, אלא גם בפיזיקה, מדעי המוח, פסיכולוגיה ועוד. כמובן, זה כולל גם להכיר מודלים של חוקרים של העבר ושל ימיינו שמנסים להשיג AGI.

 

המטרה היא לא ללמוד איך "להשתמש" בכלים, אלא להשתמש במושגים תיאורטיים כדי לפתח ארכיטקטורות חדשות לגמרי.

 

אפילו איליה סוצקבר, המדען הראשי לשעבר של OpenAI, אמר כמה פעמים שהזמן לטכניקות הנדסיות ולסקלאביליות נגמר, ושצריך רעיונות חדשים. והוא לא היחיד שמדגיש צורך בפיתוחים חדשים. הרבה מדעני AI בכירים ממליצים כמוהו ואף מציעים ארכיטקטורות אלטרנטיביות.

ארכיטקטורות אלטרנטיביות: מעבר לפרדיגמת הטרנספורמר

כדי לפרוץ את תקרת הזכוכית של המודלים הנוכחיים, עלינו לבחון מודלים שאינם מסתמכים רק על ניבוי הטוקן הבא, אלא על הבנה עמוקה של חוקי העולם, לוגיקה וגמישות מחשבתית.

 

1) מודלי עולם (World Models) ו-JEPA

אחד הכיוונים המבטיחים ביותר מובל על ידי יאן לקון (Yann LeCun) עם ארכיטקטורת ה-JEPA (Joint-Embedding Predictive Architecture). בניגוד למודלים גנרטיביים המנסים לשחזר כל פיקסל או מילה, JEPA שואפת ללמוד ייצוגים מופשטים של העולם. היא מאפשרת למערכת לנבא תוצאות של פעולות במרחב לטנטי (חבוי), מה שמעניק לה יכולת "הבנה" של סיבתיות ותכנון, בדומה לאופן שבו בני אדם ובעלי חיים לומדים.

 

2) ארכיטקטורות קוגניטיביות (כמו NARS, SORA)

השאיפה ל-AGI מחזירה לקדמת הבמה מערכות המשלבות לוגיקה ומבנה קוגניטיבי:

  • NARS (Non-Axiomatic Reasoning System): מערכת השואפת לפעול תחת הנחת יסוד של "משאבים מוגבלים וידע חסר", תוך שימוש בלוגיקה לא-אקסיומטית המאפשרת הסקת מסקנות גמישה בזמן אמת.
  • Soar: ארכיטקטורה קוגניטיבית סימבולית השואפת לדמות את תהליכי המחשבה האנושיים. היא מבוססת על פתרון בעיות במרחב מצבים(State Space) , שימוש בזיכרון עבודה ובזיכרון לטווח ארוך, ומנגנון למידה המבוסס על "Chunking" (קיבוץ מידע) כדי לשפר ביצועים לאורך זמן.

 

3) יעילות ושינוי מבני: MAMBA ו-RWKV

בעיית הזיכרון והסיבוכיות של הטרנספורמרים ($O(N^2)$) מהווה חסם ללמידת הקשרים ארוכים. ארכיטקטורות כמו MAMBA (מבוססת State Space Models) ו-RWKV (המשלבת יתרונות של RNN וטרנספורמרים) מציעות סקלאביליות ליניארית. הן מאפשרות עיבוד מידע אינסופי כמעט ביעילות גבוהה, צעד הכרחי ליצירת מודלים בעלי "זיכרון עבודה" רציף.

 

4) מודלים השראתיים וביולוגיים: HTM ו-Darwin-Gödel

  • HTM (Hierarchical Temporal Memory): מודל המבוסס על מבנה הניאוקורטקס האנושי, המתמקד בזיהוי תבניות בזמן ובחיזוי רציף.
  • Darwin-Gödel Machine: גישה המשלבת אבולוציה של אלגוריתמים עם לוגיקה רקורסיבית (בהשראת משפטי גדל), המאפשרת למכונה לשפר את הקוד של עצמה באופן מוכח ובטוח.

 

5) מודלים של הסקה ותכנון: HRM ו-TITAN

  • HRM (Hierarchical Reasoning Model) : בניגוד למודלים "שטוחים" המעבדים מידע ברצף אחד, ה-HRM מציע מבנה רב-שכבתי. הרמות הגבוהות עוסקות באסטרטגיה וביעדים מופשטים, בעוד הרמות הנמוכות מפרקות אותם לתתי-משימות טקטיות. מבנה זה קריטי לפתרון בעיות מורכבות הדורשות תכנון ארוך טווח ועקביות לוגית.
  • TITAN: מודל המשלב מנגנוני זיכרון מתקדמים עם יכולת למידה מתמשכת, במטרה להתגבר על מגבלות ההקשר (Context) של המודלים הנוכחיים.

הדרך קדימה: ממעבדה לחינוך לאומי

המעבר ל-AGI דורש מאיתנו להפסיק להיות "צרכני טכנולוגיה" ולהפוך ל"אדריכלי בינה". זה מתחיל בשינוי התפיסה האקדמית:

  1. אינטרדיסציפלינריות כהכרח: פיתוח AGI לא יכול להישאר רק בגבולות מדעי המחשב. הוא דורש שילוב של פיזיקה (להבנת דינמיקה), מדעי המוח (להשראה מבנית) ופילוסופיה (להגדרת תודעה, אתיקה ומטרות).
  2. מחקר תיאורטי מול הנדסה: עלינו להשקיע בחיפוש אחר ה"אלגוריתם של התבונה" ולא רק בשיפור כוח המחשוב או איכות הדאטא של מודלים קיימים.
  3. מעבר להוראה מופשטת (High-Level) וערך אנושי: כיוון שה-AI מחליפה בהדרגה משימות טכניות – בדגש על תפקידי ג'וניורים – עבודות העתיד יתמקדו בהבנה עמוקה ובערך אנושי מוסף. בהתאם לכך, הצורך בקורסים טכניים ויישומיים פוחת, וההוראה חייבת לעבור לרמה של הבנה גבוהה ומופשטת יותר, תוך השארת היישום והביצוע הטכני ליכולות ה-AI.
  4. יצירת דור חוקרי ה-AGI: הקמת קורסי עילית שיתמקדו במודלים אלטרנטיביים, בלוגיקה מתקדמת ובארכיטקטורות שאינן מבוססות טרנספורמרים בלבד, כדי להכשיר את חוקרי המחר שיובילו את פריצת הדרך הבאה.

 

ה-AGI הוא לא העתיד – הוא המגרש שבו עלינו להתחיל לשחק

ישראל עומדת בפני צומת דרכים היסטורי. היצמדות למודלים הקיימים (LLMs) תשאיר אותנו כמעצמת יישום, אך לא כמעצמת הובלה. בעוד המעצמות נלחמות על השליטה בעתיד דרך ה-AGI, עלינו לנצל את היתרון היחסי שלנו – היצירתיות, החשיבה מחוץ לקופסה והיכולת לחבר בין תחומים – כדי להמציא את הכלים מחדש.

 

הזמן לשיפורים קוסמטיים נגמר. הגיע הזמן לבנות את התשתית המדעית והחינוכית שתאפשר לישראל לא רק "לתפוס את הרכבת", אלא לתכנן את המסילה עליה היא תדהר קדימה. ה-AGI הוא לא רק פרויקט טכנולוגי; הוא המפתח לדומיננטיות המדעית והכלכלית של המאה ה-21.

הפוסט המירוץ ל-AGI: בזמן שאנחנו משפרים בוטים, העולם נלחם על השליטה בעתיד הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/agi-race-israel/feed/ 0
חיפוש Live של גוגל הגיע לישראל ו-Gemini מייבא זיכרונות https://letsai.co.il/google-live-gemini-import/ https://letsai.co.il/google-live-gemini-import/#respond Sat, 28 Mar 2026 06:49:13 +0000 https://letsai.co.il/?p=71948 גוגל שחררה ביום חמישי האחרון שני עדכונים שמאפשרים להוריד את המחסום בין המשתמש לבין הכלים שלה. העדכון הראשון הוא חיפוש גוגל במצב Live, שמאפשר לחפש תוך כדי שיחה אינטראקטיבית עם המצלמה פתוחה, וזה זמין עכשיו גם בישראל. העדכון השני הוא פיצ׳ר חדש בג׳מיני שמאפשר לייבא את הזיכרונות והשיחות שצברתם ב-AI אחר, כדי שלא תצטרכו להתחיל […]

הפוסט חיפוש Live של גוגל הגיע לישראל ו-Gemini מייבא זיכרונות הופיע ראשון בLet's AI בינה מלאכותית

]]>

גוגל שחררה ביום חמישי האחרון שני עדכונים שמאפשרים להוריד את המחסום בין המשתמש לבין הכלים שלה. העדכון הראשון הוא חיפוש גוגל במצב Live, שמאפשר לחפש תוך כדי שיחה אינטראקטיבית עם המצלמה פתוחה, וזה זמין עכשיו גם בישראל. העדכון השני הוא פיצ׳ר חדש בג׳מיני שמאפשר לייבא את הזיכרונות והשיחות שצברתם ב-AI אחר, כדי שלא תצטרכו להתחיל מאפס. שני העדכונים נפרדים, אבל הכיוון אחד - גוגל רוצה שתשתמשו בכלים שלה, ומוכנה להקל עליכם כדי שזה יקרה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

חיפוש Google במצב Live הגיע לישראל

חיפוש Live הוא בעצם שיחה אינטראקטיבית עם גוגל, ובמקום להקליד שאילתה ולגלול בתוצאות, אתם פשוט מדברים. שואלים שאלה בקול, מקבלים תשובה, ויכולים להמשיך לשאול שאלות המשך בלי לחזור למסך החיפוש. החלק המעניין הוא שאפשר גם לפתוח את המצלמה ולכוון אותה על משהו פיזי - מוצר, שלט, מנה במסעדה, צמח בגינה - ולשאול עליו שאלות בזמן אמת.

 

הפיצ'ר הזה עבד עד עכשיו רק בארצות הברית ובהודו. אתמול גוגל הרחיבה אותו למעל 200 מדינות, כולל ישראל. הוא מבוסס על Gemini 3.1 Flash Live, המודל החדש של גוגל לשיחות קוליות, ותומך ביותר מ-90 שפות, כך שאפשר לדבר איתו גם בעברית.

איך מפעילים

ההפעלה פשוטה. פותחים את אפליקציית גוגל בנייד (Android או iPhone), ומחפשים את סמל ה-Live מתחת לשורת החיפוש. מקישים עליו ומתחילים לדבר. אם רוצים להוסיף את המצלמה, לוחצים על כפתור הווידאו שמופיע בזמן השיחה ומכוונים את הטלפון. דרך נוספת - פותחים את Google Lens ובוחרים בלשונית Live שנמצאת ליד לשונית התרגום. שימו לב שצריך לאפשר גישה למיקרופון, ואם רוצים להשתמש במצלמה - גם אליה.

 

חיפוש Google במצב Live

איך להפעיל חיפוש Google במצב Live

Gemini מאפשרת לייבא זיכרונות מ-AI אחר

העדכון השני הוא סוג אחר לגמרי של שדרוג. אם אתם משתמשים ב-צ׳אט ג׳יפיטי או ב-קלוד ושוקלים לנסות את ג׳מיני, אחד הדברים שמרתיעים הוא ההרגשה שצריך להתחיל מאפס - הכלי הישן כבר מכיר אתכם, יודע מה אתם אוהבים, זוכר שיחות קודמות, ובכלי חדש אתם זר מוחלט.

 

גוגל מנסה לפתור את זה בדיוק עם שני כלי ייבוא חדשים: ייבוא זיכרונות וייבוא היסטוריית שיחות. שניהם עובדים דרך עמוד ייעודי.

איך מייבאים זיכרונות

ייבוא זיכרונות עובד בדרך מאוד דומה לפיצ׳ר שאנטרופיק (Anthropic) הוציאה לא מזמן להעברת הזכרונות שלכם מ-AI אחר. במקום לחבר את ג׳מיני ישירות לצ׳אט ג׳יפיטי, גוגל נותנת לכם פרומפט מוכן מראש שמבקש מה-AI הישן שלכם לסכם את כל מה שהוא יודע עליכם.

 

איך זה עובד? נכנסים לייבוא בג׳מיני, מעתיקים את הפרומפט שמופיע שם, מדביקים אותו בצ׳אט ג׳יפיטי או בקלוד, ומקבלים סיכום מובנה של חמש קטגוריות - מידע דמוגרפי, תחומי עניין והעדפות, מערכות יחסים, אירועים ופרויקטים, והנחיות שנתתם לכלי. מעתיקים את הסיכום ומדביקים אותו חזרה בג׳מיני. תוך דקות ספורות, ג׳מיני מקבלת תמונה רחבה של ההעדפות שלכם ויכולה להתאים את עצמה בהתאם.

 

איך מייבאים זיכרונות

איך מייבאים זיכרונות והיסטוריית שיחות

איך מייבאים היסטוריית שיחות

אם רוצים לייבא גם את השיחות עצמן ולא רק את הזיכרונות, התהליך קצת שונה. קודם צריך לייצא את היסטוריית השיחות מהכלי הישן:

1. בצ׳אט ג׳יפיטי: נכנסים להגדרות דרך שם המשתמש בפינה השמאלית התחתונה, בוחרים Data Controls ואז Export Data. צ׳אט ג׳יפיטי שולח קובץ ZIP למייל.

2. בקלוד: גם כאן דרך שם המשתמש, הגדרות, Privacy, ואז Export Data. בוחרים טווח תאריכים ומקבלים קישור להורדה במייל.

אחרי שהקובץ אצלכם, חוזרים לייבוא ומעלים את קובץ ה-ZIP. יש מגבלה של 5 GB לקובץ ועד 5 קבצים ביום, אבל לרוב המשתמשים זה יותר ממספיק. השיחות המיובאות מופיעות בסרגל הצד של ג׳מיני עם סימון מיוחד, ואפשר לחפש בהן ולמחוק אותן בכל שלב.

מה גוגל עושה עם המידע שלכם

שווה לדעת! המידע שמיובא לג׳מיני נשמר ב-Google Activity שלכם, עם מחיקה אוטומטית כל 18 חודשים כברירת מחדל (אפשר לשנות ל-3 או 36 חודשים). גוגל מציינת שחלק מהשיחות עשוי להיבדק על ידי סוקרים אנושיים לצורך שיפור השירות, ושיחות שנבדקו נשמרות עד שלוש שנים גם אם מוחקים את ההיסטוריה. זה לא ייחודי לג׳מיני - רוב שירותי ה-AI פועלים באופן דומה - אבל שווה להיות מודעים לזה לפני שמייבאים שנתיים של שיחות.

שני צעדים קדימה

שני העדכונים האלה נראים כמו פיצ'רים קטנים, אבל הכיוון שמאחוריהם ברור. חיפוש Live הופך את גוגל מתיבת טקסט לשותף שיחה שרואה מה שאתם רואים, וכלי הייבוא מוריד את המחסום הכי גדול של מעבר בין כלי AI - ההרגשה שאתם מתחילים מאפס. גוגל לא רק בונה כלים חדשים, היא עושה הכל כדי שתיכנסו וגם תישארו.

הפוסט חיפוש Live של גוגל הגיע לישראל ו-Gemini מייבא זיכרונות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-live-gemini-import/feed/ 0
TeraFab של אילון מאסק – מפעל אחד, טריליון וואט של חישוב, והימור על עתיד השבבים https://letsai.co.il/tera-fab/ https://letsai.co.il/tera-fab/#respond Fri, 27 Mar 2026 13:12:08 +0000 https://letsai.co.il/?p=71931 כשאילון מאסק מדבר על מחסור בשבבים, הוא לא מתייחס לעוד צוואר בקבוק זמני בשרשרת האספקה, אלא למגבלה מבנית שעלולה לבלום את קצב ההתקדמות של כל המערכות שהוא בונה. מבחינתו, זה לא עניין של מחירים או זמני אספקה, אלא של שליטה בקצב החדשנות עצמו. לכן הפתרון שהוא מציע לא מנסה לייעל את המערכת הקיימת, אלא לעקוף […]

הפוסט TeraFab של אילון מאסק – מפעל אחד, טריליון וואט של חישוב, והימור על עתיד השבבים הופיע ראשון בLet's AI בינה מלאכותית

]]>
כשאילון מאסק מדבר על מחסור בשבבים, הוא לא מתייחס לעוד צוואר בקבוק זמני בשרשרת האספקה, אלא למגבלה מבנית שעלולה לבלום את קצב ההתקדמות של כל המערכות שהוא בונה. מבחינתו, זה לא עניין של מחירים או זמני אספקה, אלא של שליטה בקצב החדשנות עצמו. לכן הפתרון שהוא מציע לא מנסה לייעל את המערכת הקיימת, אלא לעקוף אותה: לבנות מערכת חדשה לגמרי, שבה כל שלבי הייצור - מתכנון, דרך ייצור ועד בדיקות ואריזה, מתכנסים למקום אחד. התוצאה שהוא מכוון אליה אינה רק יותר שבבים, אלא האצה דרמטית במחזורי הפיתוח, עם יעד שאפתני במיוחד של כוח חישוב בקנה מידה שכמעט ולא קיים היום בתעשייה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

בשנת 1942, במסגרת פרויקט מנהטן, הקימו האמריקאים את האתר באוק רידג', מתחם אחד שבו רוכזו תהליכים קריטיים לפיתוח פצצת האטום. ההיגיון היה פשוט: כשקצב ההתקדמות חשוב יותר מהעלות או היעילות, מרכזים הכל במקום אחד. ההיסטוריה מראה שהמהלך הזה האיץ את הפיתוח בצורה דרמטית. כעת, כמעט 80 שנה אחרי, נראה שמאסק מאמץ עיקרון דומה, רק שבמקום פצצה, מדובר בכוח חישוב.

 

 

מפעל אחד לשלוט בכולם

הפרויקט החדש, "טרה-פאב" (TeraFab), מתוכנן לקום בקמפוס של טסלה במזרח מחוז טראוויס, אוסטין, טקסס, כמיזם משותף עם SpaceX. תג המחיר של כ-20 מיליארד דולר, משקף לא רק את גודל הפרויקט, אלא גם את רמת השאיפה.

הרעיון המרכזי פשוט אך רדיקלי: לא עוד שרשרת ייצור מפוצלת בין מדינות, חברות ושלבים שונים, אלא מפעל אחד שמכיל הכל. לוגיקה, זיכרון, אריזה, בדיקות ואפילו ייצור מסכות ליתוגרפיה - הכל תחת קורת גג אחת.

 

 

למה זה חשוב?

המודל הקיים בתעשיית השבבים מבוסס על פיצול. שבב מתוכנן במקום אחד, מיוצר במקום אחר, נארז במדינה שלישית ונבדק במקום נוסף. כל שלב כזה מוסיף זמן, עלות וחיכוך. טרה-פאב מציע גישה אחרת: מחזור איטרציה מהיר. מייצרים שבב, בודקים אותו, מעדכנים את המסכה, ומתחילים שוב בלי לשלוח פרוסות סיליקון בין יבשות.

 

האם זה באמת חדש?

מאסק טוען שאין כיום מתקן שמרכז את כל היכולות הללו במקום אחד. בפועל, ישנם מפעלים שמכסים חלקים מהתהליך, אך לא את כולו ברמה אינטגרטיבית כזו. אם המודל הזה יעבוד, הוא עשוי לשנות את קצב הפיתוח של שבבים, לא רק את הייצור שלהם.

 

 

שני סוגי שבבים, שני עולמות

המתקן צפוי לייצר שני סוגים עיקריים של שבבים, שכל אחד מהם משרת צורך אחר לחלוטין. הקבוצה הראשונה מיועדת לשימושים "ארציים" כגון רכבים אוטונומיים של טסלה, ורובוטים כמו Optimus. מדובר בשבבים שמבצעים אינפרנס, כלומר הפעלה של מודלים קיימים בזמן אמת, ולא אימון שלהם. כאן הדגש הוא על יעילות, זמני תגובה נמוכים ויכולת עבודה בתנאים מגוונים.

 

שבבים לחלל

הקבוצה השנייה מסקרנת יותר. מדובר בשבבים מוקשחים לסביבת חלל, שיכולים לפעול בטמפרטורות גבוהות יותר מהמקובל. הסיבה לכך פרקטית: ככל שהשבב חם יותר, כך נדרשת פחות מערכת קירור, מה שמפחית משקל בלוויינים. החזון כאן רחב יותר: מחשוב מבוזר בחלל, מבוסס לוויינים סולאריים, שיספק כוח חישוב בקנה מידה אדיר.

 

טריליון וואט, יעד או הצהרה?

אחד המספרים הבולטים בהכרזה הוא יעד של טרה-וואט אחד של חישוב בשנה. לשם השוואה, ההערכה הנוכחית של מאסק היא שהעולם כולו מייצר כ-20 גיגה-וואט של כוח חישוב AI בשנה. כלומר, מדובר בקפיצה של פי 50.

 

איך מגיעים לשם

לפי התוכנית, רק חלק קטן מהתפוקה יישאר על הקרקע - כ-100 עד 200 גיגה-וואט. שאר היכולת תגיע מהחלל, באמצעות לוויינים שמייצרים אנרגיה סולארית ומפעילים מערכות חישוב.

 

למה דווקא חלל

הקרקע מוגבלת. מגבלות אנרגיה, קירור ותשתיות הופכות את הרחבת מרכזי הנתונים למורכבת יותר ויותר. בחלל, לעומת זאת, יש גישה ישירה לאנרגיה סולארית, וללא מגבלות של שטח. האתגר כמובן עצום- גם טכנולוגית וגם רגולטורית.

 

לא לבד בשוק אך עם אסטרטגיה אחרת

למרות ההשקעה האדירה, מאסק מדגיש שהוא לא מתכוון להחליף את הספקים הקיימים. טסלה, ספייסאקס ואקס-איי (xAI) ימשיכו לרכוש שבבים מחברות כמו TSMC, סמסונג (Samsung) ומיקרון (Micron). ההבדל הוא בגישה: במקום להסתמך רק על השוק, הוא מוסיף שכבת ייצור עצמאית שמותאמת בדיוק לצרכים שלו.

 

מה זה אומר על התעשייה?

אם טרה-פאב יצליח, הוא עשוי להפעיל לחץ על מודל הפאונדרי- מודל שבו חברה מתכננת ואחרת מייצרת, ולאתגר אותו. עקב כך, חברות נוספות עשויות לשאול את עצמן האם כדאי להן לשלוט יותר בשרשרת הייצור שלהן, במיוחד בעידן שבו הביקוש לשבבים גדל בקצב מהיר מההיצע.

 

הרבה שאלות, מעט תשובות

למרות ההכרזה, פרטים רבים עדיין חסרים. אין לוח זמנים ברור, ואין אישור רשמי לתהליך ייצור ספציפי כמו 2 ננומטר, שעליו דובר בעבר. גם השאלה הגדולה נשארת פתוחה: האם ניתן באמת לבנות מתקן כזה בקנה מידה ובמורכבות המתוארים? התעשייה מכירה היטב את הקושי- מפעלי שבבים הם מהפרויקטים ההנדסיים המורכבים והיקרים בעולם.

 

ובכל זאת, ההיגיון שמוביל את המהלך ברור: אם הביקוש לכוח חישוב ימשיך לגדול, מי שלא ישלוט בייצור יישאר מאחור. בסופו של דבר, טרה-פאב הוא לא רק מפעל. הוא ניסיון להקדים בעיה שעדיין לא התממשה במלואה, אבל כבר מורגשת בשטח. השאלה היא לא רק האם מאסק יצליח לבנות אותו, אלא האם שאר התעשייה תיאלץ ללכת בעקבותיו, או להישאר תלויה במודל שמתחיל להיסדק.

 

הפוסט TeraFab של אילון מאסק – מפעל אחד, טריליון וואט של חישוב, והימור על עתיד השבבים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/tera-fab/feed/ 0