כתבות ומדריכים בנושא כתבות ומדריכים בנושא מודלי שפה | Let's AI בינה מלאכותית https://letsai.co.il/articles/language-models/ בינה מלאכותית Wed, 22 Oct 2025 07:39:25 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp כתבות ומדריכים בנושא כתבות ומדריכים בנושא מודלי שפה | Let's AI בינה מלאכותית https://letsai.co.il/articles/language-models/ 32 32 אטלס של OpenAI: הדפדפן האייג’נטלי שינסה לחסל את Comet ו-Chrome https://letsai.co.il/race-for-agent-browsers-atlas/ https://letsai.co.il/race-for-agent-browsers-atlas/#respond Wed, 22 Oct 2025 05:16:26 +0000 https://letsai.co.il/?p=62466 בימים האחרונים נדמה שכל חברה שמכבדת את עצמה עושה הכל כדי לשחרר מהר מהר דפדפן אייג’נטלי – כזה שמאפשר לכם לעשות את מה שאתם עושים כבר שנים (סביר להניח עם גוגל גרום), אבל הפעם עם בוסטר קטן: בינה מלאכותית. נסו לחשוב על דפדפן אייג’נטלי כמו מין דפדפן על סטרואידים – חכם, יוזם, עצמאי ובעיקר – […]

הפוסט אטלס של OpenAI: הדפדפן האייג’נטלי שינסה לחסל את Comet ו-Chrome הופיע ראשון בLet's AI בינה מלאכותית

]]>
בימים האחרונים נדמה שכל חברה שמכבדת את עצמה עושה הכל כדי לשחרר מהר מהר דפדפן אייג’נטלי – כזה שמאפשר לכם לעשות את מה שאתם עושים כבר שנים (סביר להניח עם גוגל גרום), אבל הפעם עם בוסטר קטן: בינה מלאכותית. נסו לחשוב על דפדפן אייג’נטלי כמו מין דפדפן על סטרואידים – חכם, יוזם, עצמאי ובעיקר – מאוד נוח! OpenAI לא לבד! כל חברת AI גדולה וקטנה כאחד רוצה לשנות את הדרך שבה אנחנו גולשים באינטרנט. בין אם זה פרפלקסיטי (Perplexity) שעשתה את זה ראשונה עם קומט (COMET), ג’נספרק (Genspark) עם ה-AI Browser שלהם, וכמובן עכשיו גם OpenAI עם Atlas, שהושק אתמול ב-20:00 (שעון ישראל). הרציונל מאוד פשוט – דפדפן מתקדם שמבקש לשים את ChatGPT במרכז, לא כטאב נפרד אלא כחלק אורגני מכל דף, פעולה וטופס ברשת. בינה מלאכותית כבר אינה תוסף נקודתי אלא שכבת היסוד של חוויית הגלישה עצמה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

על מה כל הרעש ולמה גוגל מפחדת?

זה היה צפוי – כבר חודשים אנחנו מדברים על זה… והנה זה קרה. אטלס פה!

 

הם מפחדים!

במשך יותר מעשור, גוגל נהנתה ממעמד כמעט מונופוליסטי בשוק הדפדפנים, כשכרום מחזיק בנתח שימוש של כ-70% ברחבי העולם. עבור מיליארדי משתמשים ברחבי העולם, המונח “Crome” ו”דפדפן” הפכו כמעט למילים נרדפות. הדפדפן והחיפוש הפכו לשני צדדים של אותו מטבע – חוויית גלישה שבה גוגל שולטת גם בתשתית וגם בגישה למידע. אך השקת אטלס של OpenAI מאותתת על שינוי טקטוני שהולך ומתקרב בצעדי ענק. במובנים רבים, מדובר באתגר ישיר להגמוניה של גוגל: ניסיון לקרוע את מרכז הכובד של פעילות גולשים ברשת (החיפוש הקלאסי) והעברתו לעוזר חכם, מבוסס AI, שמכיר את המשתמש, פועל בשמו ומתווך בינו לבין הרשת. ובעיקר – מוציא את הכוח מהידיים של גוגל ומעביר אותו לידיים של OpenAI, שכבר שנים מאיימת על המודל העסקי של החברה ומשנה לחלוטין את הדרך בה אנחנו משתמשים ברשת וצורכים מידע (מגמה זו אפילו הצליחה לגרום לגוגל עצמה לשנות לחלוטין את דפוסי השימוש במנוע החיפוש שלה). אם OpenAI תצליח לשכנע משתמשים ש”האינטרנט החדש” מתחיל ממנוע שיחתי מבוסס AI ולא מתיבת חיפוש, היא עשויה לערער את אחד היתרונות האסטרטגיים הגדולים ביותר של גוגל: השליטה באיך, מתי ולמה אנחנו גולשים.

 

כבר ביום ההכרזה, הגיבה המניה של חברת Alphabet (החברה האם של גוגל) בירידה של קרוב ל-2% במסחר, סימן לחשש המשקיעים מתחרות חדשה בזירה שהייתה בטוחה. אנליסטים ציינו שאם Atlas יתפוס תאוצה, הוא עשוי לנגוס בהכנסות מפרסום המקוון של גוגל, כי יותר אנשים ידלגו על דפי החיפוש המסורתיים.

 

אירוע השקת Atlas – הדפדפן האייג’נטלי של OpenAI:

 

הרגע לו כולם חיכו הגיע!

אתמול (שלישי 21.10.25) הושק הדפדפן שכולם חיכו לו – אטלס. חשבו עליו כדפדפן עם ChatGPT מובנה, ולא סתם עוד מנוע חיפוש מסורתי. לפי OpenAI, הרעיון פשוט: אם רוב העבודה, ההקשרים והכלים שלנו מתקיימים בתוך הדפדפן, מוטב שהעוזר החכם יישב בדיוק שם, יראה מה אנחנו עושים ויציע עזרה בזמן אמת. אטלס מאפשר ל-ChatGPT להבין את העמוד שבו אתם נמצאים, להציע שכתובי טקסט בתוך כל שדה כתיבה פתוח, לנהל צ’אט צדדי על תוכן הדף, ולא פחות חשוב – לעבור למצב סוכן שמבצע פעולות אקטיביות בתוך האתרים עצמם.

 

שילוב כזה מציב את OpenAI בלב המגמה של דפדפנים אייג’נטליים. הראשונים לעשות את זה היו פרפלקסיטי עם “קומט” (Comet) המעולה. ועכשיו המלכה האם – OpenAI – מנסה לעשות את זה טוב יותר עם אטלס. האם היא תצליח? נחכה ונראה (כי קומט באמת מצוין), אבל מה שבטוח – אלטמן וחבריו מנסים לקחת את אותה תפיסה ולהרחיב אותה לשימוש כללי ורחב, עם זיכרון גלישה, בקרות פרטיות ומצב של סוכן חכם שמקבל טווח פעולה רחב אך מפוקח (שבצורה לא מפתיעה במיוחד, מאוד מזכיר את ה-Assistant של Comet).

 

איך אטלס עובד בפועל

תיבת חיפוש דינאמית

הדבר הראשון שתפגשו באטלס הוא מסך הבית – תיבת חיפוש שמתפקדת גם כתיבת חיפוש בה אפשר להזין כתובות של אתרים (URLs), וגם לשאול שאלות בשפה טבעית, ממש כמו ב-ChatGPT.

 

תיבת החיפוש של אטלס

תיבת החיפוש של אטלס.

 

הדף הראשי (New Tab) של Atlas נראה פשוט ונקי, ובמרכזו סרגל שבו אפשר לשאול את ChatGPT שאלה בשפה חופשית או להקליד כתובת URL של אתר. במקום לקבל רק רשימת קישורים כמקובל, Atlas מחזיר תשובה מנוסחת בסגנון ChatGPT לצד האפשרויות הרגילות. למעשה, סרגל הכתובות משמש גם כסרגל צ’אט – אפשר ממש לשוחח עם הדפדפן. אם התשובה הטקסטואלית לא מספיקה, בחלק העליון יופיעו גם כרטיסיות לתוצאות חיפוש רגילות, תמונות, סרטונים וחדשות, כך שכל המידע זמין במקום אחד. לדוגמה, ניתן לשאול ״מה מזג האוויר בלונדון מחר?״ ו-Atlas יציג תשובה ישירה יחד עם קישורים לאתרים רלוונטיים. גישה זו חוסכת זמן בחיפוש ומציגה מידע ממוקד ושימושי יותר מיד.

 

מסך הבית של ChatGPT Atlas עם הצעות חכמות: הדפדפן מציג הצעות לפעולות המשך, כגון חיפוש מתכוני חג, חקר מתנות, הפעלת מצב סוכן, או השלמת קניות – בהתבסס על מה שהמשתמש עשה בעבר.

 

הצעות חכמות באטלס

הצעות חכמות באטלס.

 

שאלו את GPT מה שבא לכם

אטלס נבנה סביב ChatGPT, ולכן כמעט כל אינטראקציה מתחילה משורת “שאל את ChatGPT” או מצ’ט צדדי שניתן לפתוח בכל רגע. סרגל הצד “Ask ChatGPT” הוא למעשה העוזר הצמוד והחכם שלכם בזמן שאתם לומדים, עובדים או משווים מוצרים, הצ’ט רואה את ההקשר של העמוד ומסייע בסיכום, בהשוואה, בניתוח נתונים או בהמשך מחקר. אין צורך להעתיק ולהדביק טקסטים לחלון אחר. הדפדפן עצמו משמש כחלון השיחה.

 

שאל את GPT

שאלו את ChatGPT מה שבא לכם, ישירות מתוך אטלס – הדפדפן החדש של OpenAI | קרדיט: OpenAI.

 

 

בכל עת, בכל אתר, ניתן לפתוח את סרגל הצד של ChatGPT. לחיצה על כפתור קטן (הנושא את לוגו ChatGPT) בסרגל הכלים תפתח חלונית צידית שבה העוזר יכול לקרוא את תוכן העמוד הנוכחי ולסייע בהתאם. אפשר למשל לבקש ממנו לסכם מאמר שאתם קוראים, להשוות מוצרים בדף קניות, להסביר קוד מתוך GitHub, או לענות על שאלה לגבי תוכן אתר מסוים. היתרון הוא שאין צורך יותר להעתיק ולהדביק טקסט בין כרטיסיות – ChatGPT כבר “רואה” את מה שעל המסך ויכול לענות בהקשר הנכון. ברירת המחדל בעת לחיצה על תוצאת חיפוש ב-Atlas היא פתיחת הדף המבוקש בצד אחד של החלון, כשהצ’אט עם ChatGPT נשאר פתוח לצד השני בתצוגה מפוצלת. כך ניתן לקרוא בדף הראשי ובמקביל לשאול את ChatGPT שאלות עליו – מעין מלווה קבוע בזמן הגלישה. בנוסף, Atlas תומך בכלי ChatGPT (Plugins/Connectors) ישירות מתוך הצ’אט, כך שאם יש לכם כלים מחוברים (למשל Canva לעיצוב, Figma, או Spotify), ניתן להפעיל אותם דרך ההוראות בצ׳אט לקבלת חוויה עשירה יותר

 

עריכה חכמה

הפיצ’ר המשלים הוא עריכה בתנועה. בכל ממשק של כתיבה (מייל, אירוע ביומן או מסמך ברשת) ניתן לסמן טקסט עם סמן העכבר ולקבל הצעה לשכתוב, קיצור או דיוק של הסגנון. המשמעות – גלישה, קריאה וכתיבה מתכנסות לאותו רצף עבודה, בלי לקפוץ בין טאבים או כלים.

 

עריכה חכמה עם AI

עריכה חכמה עם AI ישירות מתוך אטלס | קרדיט: OpenAI.

 

אטלס משלב את היכולות החכמות שלו גם בתוך טפסי אינטרנט ותיבות טקסט. בכל מקום שבו אתם כותבים – בין אם זה מייל ב-Gmail, פוסט ברשת חברתית או מסמך מקוון – ניתן לזמן את ChatGPT בלחיצת כפתור לקבלת סיוע בכתיבה. פשוט מדגישים את הטקסט שהקלדתם (או משאירים את הסמן בשדה ריק), לוחצים על סמל ChatGPT שמופיע ליד, ומבקשים לערוך או לנסח מחדש. לדוגמה, אפשר לכתוב טיוטה של אימייל רשמי, ואז לבקש מ-ChatGPT “לנסח בפשטות ובידידותיות”, והוא ישכתב את הטקסט בהתאם. הכל מתרחש מבלי לעזוב את הדף הנוכחי, כך שלא צריך לעבור לכרטיסייה אחרת או לכלי נפרד – העוזר כותב יחד איתכם, בכל מקום.

 

דפדפן שזוכר

אחת ההבטחות המעניינות באטלס היא “זיכרון הדפדפן”. אפשר לאפשר ל-ChatGPT לזכור פרטים מרכזיים מהאתרים שבהם ביקרתם, כדי שיעלו מחדש כשיהיו רלוונטיים. כך, למשל, ניתן לרשום לו בשורת החיפוש: “מצא את כל אתרי מוצרי החשמל שביקרתי בהם השבוע, וסכם לי איזו טלוויזיה הכי משתלמת מבחינת ביצועים ומחיר”. הזיכרון הזה אופציונלי לחלוטין ונמצא בשליטת המשתמש. ניתן לעיין במה שנשמר, לארכב, למחוק ולנקות היסטוריה, והמחיקה מוחקת גם את הזיכרונות הקשורים אליה.

 

כשאפשרות “זיכרונות הדפדפן” מופעלת, ChatGPT שומר פרטים מרכזיים מהאתרים שביקרתם בהם, כדי לשפר את התגובות בעתיד ולהציע המלצות אישיות. המידע הזה פרטי לחלוטין ונשמר מקומית בחשבונכם (לא נשלח לאימון המודל אלא אם תבחרו אחרת, כפי שנפרט בהמשך). פירוש הדבר ש-Atlas יכול, למשל, להציע לכם לחזור למאמר שקראתם אתמול או להזכיר לכם מוצר שראיתם באתר קניות שבוע שעבר. הוא גם מסוגל לענות על שאלות כמו “סכם לי את כל מודעות הדרושים שראיתי בשבוע האחרון והפק תובנות לגבי מגמות בענף” – וכל זה משום שהוא זוכר שאכן ביקרתם בעמודים הללו.

 

 

בתוך ממשק הכתובת ישנה גם אפשרות לכבות או להדליק את “נראות העמוד” ל-ChatGPT באתר ספציפי, כך שניתן להחליט בדיוק אילו עמודים “גלויים” לעוזר ואילו נשארים פרטיים. המשמעות היא שאתם שולטים במה שהצ’ט רואה (וגם איזה מידע הוא זוכר או מתאמן עליו). וכמובן, כמו כל דפדפן שמכבד את עצמו, יש גם מצב אינקוגניטו (גלישה סמויה ומאובטחת יותר).

 

שליטה במה הדפדפן רואה ומה לא

אתם שולטים במה לדפדפן מותר לראות ומה לא | קרדיט: OpenAI.

 

גישה זו נועדה לשלב בין נוחות של המשכיות לבין שמירה על פרטיות. כאשר הזיכרון פעיל, הוא משפר את התשובות, מציע חזרה לדפים רלוונטיים, משלים משימות שגרתיות וממשיך חקירה על בסיס מסלולי הגלישה האחרונים – אבל בכל רגע ניתן לסגור את הברז.

 

הצעות אישיות מותאמות אישית

כאשר זיכרונות הדפדפן פעילים, Atlas ינסה גם להמליץ לכם על צעדים הבאים בכל פתיחת כרטיסייה חדשה. בדף הבית יוצגו הצעות בהשראת מה שעשיתם לאחרונה: למשל קיצור דרך לחזור לאתר חדשות שקראתם, קישור להמשך חיפוש בנושא שגלשתם בו עמוק, רעיון לפרויקט קשור, או אפילו הצעה לאוטומציה של משימה שגרתית שחוזרת לעיתים קרובות. אם, למשל, חיפשתם מתכונים לחג, ייתכן שתראו הצעה להפעיל את מצב הסוכן כדי שיוסיף את המרכיבים הדרושים למתכון ישירות לעגלת קניות באתר משלוחים. באופן זה, הדפדפן הופך ליותר ויותר מותאם אישית, ככל שאתם משתמשים בו – ממש כמו שעוזר אנושי שלומד להכיר את ההעדפות וההרגלים שלכם.

 

מצב סוכן עצמאי שעובד בשבילכם

לצד ממשק הצ’ט והעריכה החכמה, אטלס מציג יכולת אייג’נטליות ייעודית – “מצב סוכן” שבו ChatGPT לא רק עונה אלא גם פועל. ניתן לבקש ממנו לבצע משימות כמו תכנון קניות לאירוע, איתור חנויות, הוספת מוצרים לעגלת הקניות לפי מתכון ואף להשלים את ההזמנה. האם זה מושלם? לא. האם זה תמיד עובד? גם לא (הפיצ’ר הזה לא חדש וזמין גם בקומט ודפדפנים אייג’נטליים אחרים – הוא עדיין בוסר, אבל אין ספק שזה רק עניין של זמן עד שהכל יעבוד חלק). מה עוד אפשר לעשות עם מצב הסוכן? בהקשרים ארגוניים למשל, אפשר לכוון אותו לפתוח מסמכי צוות קודמים, לקרוא חומרים, לבצע מחקר מתחרים ולזקק תובנות לתדריך.

 

מצב הסוכן של אטלס

שלחו את אטלס לעשות לכם קניות לשבת עם מצב הסוכן החדש | קרדיט: OpenAI.

 

כאשר השאלה או הבקשה מחייבות פעולות בדפדפן, ChatGPT יציע לפתוח טאבים, ללחוץ ולהתקדם לטובת ביצוע המשימה. או לחלופין, אפשר להפעיל באופן מפורש את מצב הסוכן ולהעניק לו הרשאה לבצע פעולות.

 

לפי OpenAI, מצב הסוכן באטלס זמין כעת בתצוגה מקדימה למשתמשי Plus, Pro ו-Business. כמו שאמרנו – זה עדיין פיצ’ר ניסיוני וסביר שהיו טעויות ובאגים במשימות מורכבות.

 

סוכן שחוסך לכם זמן

  • עבודה משרדית ואוטומציה בין אפליקציות: מכיוון ש-Atlas הוא דפדפן לכל דבר (בו מוטמעות יכולות AI), תוכלו לתת לו משימות כמו “קח את סיכום הישיבה מה-Google Docs והעבר את רשימת המשימות ל-Trello” – והוא יכול לפתוח את שני האתרים ולהעתיק מידע מאחד לשני. מדובר למעשה בסוג של עוזר אישי דיגיטלי שיכול לבצע קליקים והקלדות פשוטות בהרבה כלים אינטרנטיים.
  • מחקר וניתוח מידע: אתם יכולים לבקש, למשל, “מצא עבורי שלושה מתכונים לעוגת שוקולד ונתח מי הבריא ביותר”, והסוכן יגלוש בין כמה אתרים, יקרא אותם ויחזור עם תשובה מנומקת. הוא מסוגל לקרוא ולהשוות תוכן מדפי אינטרנט שונים כדי לחסוך לכם את העבודה.

  • תכנון אירועים והזמנות: אם תאמרו לו “שריין שולחן לשניים במסעדה איטלקית טובה באזור תל אביב למוצאי שבת”, הסוכן יכול לחפש מסעדות, לבדוק שעות פתיחה, ואפילו לנווט לממשק הזמנה ולנסות לבצע הזמנה (כמובן, באישורכם הסופי). בדומה, הוא יכול לסייע בהזמנת טיסות, מלונות או כרטיסים – הכול באמצעות אינטראקציה עם אתרים במקומכם.

 

כשהוסכן של אטלס מזמין לכם מקום במסעדה

כשהוסכן של אטלס מזמין לכם מקום במסעדה בת”א.

 

בתמונה: דוגמה לפעולת מצב סוכן: שריין שולחן לשניים במסעדה איטלקית טובה באזור תל אביב למוצאי שבת. חפש בין אתרי הזמנות ומדריכי מסעדות (כמו Rest, Google Maps או TripAdvisor), השווה בין המסעדות לפי דירוג, ביקורות, מחיר ממוצע לסועד ואווירה. בחר שלוש אפשרויות מומלצות שפתוחות במוצאי שבת בסביבות השעה 20:00–21:00. הצג לי את שמות המסעדות, הכתובת, הקישור להזמנה והסבר קצר למה בחרת בכל אחת. לאחר שאבחר אחת מהן, מלא את פרטי ההזמנה עד לשלב האחרון בלי להזין פרטי תשלום או להתחבר לחשבון.

 

האם זה בטוח? בכל רגע במהלך פעולת הסוכן, מופיעים כפתורים המאפשרים להשהות (Pause) או לעצור (Stop) את הפעולה, ואפילו כפתור “Take Control” להשתלטות ידנית מיידית על הדפדפן (כפי שנראה בתמונה למעלה). למעשה, Atlas מציג בזמן אמת את הפעולות שהוא עושה – הוא יפתח כרטיסיות גלויות לעין ויבצע את השלבים בדיוק כפי שמשתמש אנושי היה עושה, רק במהירות גבוהה יותר. אם משהו נראה לכם לא במקום, פשוט משתלטים או עוצרים. הרעיון הוא שהסוכן יהיה עוזר נאמן, לא רובוט משתולל – ולמשתמש יש בלם חירום בכל עת.

 

פרטיות ובקרה – מה OpenAI עושה עם המידע שלכם?

שליטה בנתונים ואימון על הדאטה שלכם

אטלס שם דגש על שליטה בנתונים. אפשר להחליט אילו אתרים הצ’ט ואטלס רואים, אפשר לנקות היסטוריית גלישה, להשתמש במצב גלישה בסתר ולהפעיל או לכבות את זיכרונות הדפדפן בכל עת. ברירת המחדל היא שהחברה לא משתמשת בתוכן הגלישה לצורכי אימון מודלים.

 

מי שמעוניין יכול לבחור להכליל את תוכן הגלישה באימוני המודל דרך הגדרות הנתונים, אך גם אז יש סייגים – אתרים שבחרו להחריג את GPTBot לא ייכללו. חשוב לדעת – אם הפעלתם אימון שיחות בחשבון ChatGPT הרגיל שלכם, ההגדרה הזו תחול גם באטלס, לרבות תוכן אתרים שנצפה דרך סרגל הצד והזיכרונות שהוזנו לשיחה.

 

האם כדאי להפעיל את מצב הזיכרון, או לכבות את היכולת של הדפדפן והצ’ט לראות את האתרים שבהם אנחנו גולשים? זו שאלה מורכבת שהתשובה לה תלויה בדפוסי השימוש שלכם ובהעדפות שלכם. מצד אחד, שבוחר לאמן את המודל על תוכן הגלישה שלו יקבל לאורך זמן שיפורים בהבנה, הקשרים והצעות המשך.  מצד שני, הבחירה כאן היא בין פרטיות להשבחת העוזר והדפדפן. בסופו של יום, הבחירה שלכם והשליטה אצלכם בידיים – חשוב רק שתהיו מודעים לאן הדאטה שלכם הולך בכל רגע נתון!

 

בקרת הורים

בנוסף, קיימות אפשרויות לבקרת הורים. אם הופעלו הגדרות בקרת הורים ב-ChatGPT, הן ממשיכות גם בשיחות באטלס, וניתן אף לכבות ספציפית את זיכרונות הדפדפן ואת מצב הסוכן עבור משתמשים צעירים.

 

בטיחות מצב הסוכן

כדי להקטין סיכונים, OpenAI מגבילה את יכולות הסוכן באטלס. הסוכן לא מריץ קוד בדפדפן, לא מוריד קבצים ולא מתקין הרחבות. הסוכן אינו נגיש לאפליקציות אחרות במחשב או למערכת הקבצים.

 

באתרים רגישים ( כמו מוסדות פיננסיים למשל) הסוכן יעצור את פעולתו ויוודא שאתם צופים בו ומאשרים את הפעולה. ניתן גם להשתמש בסוכן במצב לא מחובר (logged out mode) כדי לצמצם גישה לנתונים עדינים והסתברות לפעולה בשמכם באתרים רגישים.

 

חשוב להבין שלמרות כל אמצעי הזהירות, מצב הסוכן הוא תכונה חדשה וניסיונית, וכרוכים בה סיכונים. מלבד טעויות תמימות (למשל אי הבנה של משימה מורכבת), קיימת סכנה של הוראות זדוניות נסתרות, מה שמכונה “Prompt Injection”. מדובר במצב שבו אתר אינטרנט או תוכן כלשהו “מסתיר” הוראות שיכולות לבלבל את ChatGPT ולגרום לו לבצע פעולות שלא התכוונתם אליהן. לדוגמה, דמיינו עמוד אתר שתוכנן באופן זדוני כך שטקסט בלתי נראה מורה לסוכן “לגנוב מידע מחשבון הבנק” – זהו תרחיש קיצוני אך אפשרי שהמומחים מזהירים מפניו. OpenAI מודעת לכך, ערכה אלפי שעות של בדיקות תקיפה (Red Teaming) ואימנה את המודל להתגונן ככל האפשר, אך אין דרך להבטיח הגנה מלאה מכל טריק אפשרי. לכן ההנחיה הברורה היא: להשתמש במצב הסוכן בזהירות, בעיקר באתרים רגישים, ולפקוח עין על מעשיו. סביר שעם הזמן המערכת תשתפר, אבל בינתיים האחריות הסופית היא של המשתמש. כדאי לשקול פעמיים לפני שנותנים לסוכן גישה למידע רגיש, ואולי להגביל שימושיו למקרים שבהם יש לכם ביטחון יחסי בסביבה (או להשתמש במצב הלא-מחובר כאמור, לצמצום סיכונים).

 

עוד נקודה חשובה: אתרים ש-ChatGPT מבקר בהם כשהוא במצב סוכן לא נרשמים בהיסטוריית הגלישה הרגילה שלכם. כלומר, אם הסוכן עבר דרך 5 אתרים בדרך למשימה, לא תמצאו אותם אחר כך ברשימת היסטוריה. זה נעשה גם כדי למנוע בלבול, וגם מטעמי פרטיות – ייתכן שמשתמש לא ירצה לתעד ביומן הגלישה שלו את כל הצעדים שהסוכן ניסה. אם תרצו כן לשמור משהו, תמיד אפשר להעתיק ידנית קישור נחוץ.

למרות האזהרות, בשימוש נכון מצב הסוכן יכול להיות כלי מדהים לחיסכון בזמן ולייעול מטלות יומיומיות. זוהי הצצה אל עתיד שבו חלק גדול מהפעולות ברשת נבצע דרך סוכנים אוטונומיים (מעין מזכירים דיגיטליים) בעוד אנחנו מתמקדים בהחלטות החשובות והיצירתיות יותר. כפי ש-OpenAI עצמם אמרו, השקת Atlas היא צעד לקראת עתיד שבו נוכל להאציל לסוכן את השגרה ולהתפנות למה שחשוב באמת.

 

למי זה זמין ואיך מתקינים?

אם אתם מהכת של סטיב ג’ובס – יצא לכם טוב 🙂 אטלס מושק (בינתיים) למשתמשי macOS ברחבי העולם. הדפדפן זמין למשתמשים חינמיים וכמובן למוניי Plus, Pro ומשתמשי Go. הוא זמין גם בגרסת בטא ל-Business, ואם מנהל המערכת מאפשר זאת, גם ל-Enterprise ול-Edu. מצב הסוכן עצמו, כאמור, פתוח בתצוגה מקדימה למנויי Plus, Pro ו-Business.

 

להורדת והתקנת אטלס, לחצו פה.

 

לפי הודעות החברה, גרסאות ל-Windows, iOS ו-Android יגיעו בהמשך.

 

מי שמוריד את אטלס בפעם הראשונה מתבקש להיכנס לחשבון ChatGPT ולאחר מכן ניתן להעביר לתוך אטלס את הסימניות, הסיסמאות והיסטוריית הגלישה שלכם באמצעות ייבוא מהדפדפן הנוכחי שלכם. ההמלצה הפרקטית היא להתחיל עם מצב זיכרון כבוי, להכיר את הצ’אט הצדדי והעריכה האינטראקטיבית, ורק לאחר מכן להפעיל זיכרון דפדפן לאתרים שבהם היתרון ברור.

 

באנר אנטרפרייז

 

שינוי בחוויית הגלישה

חוויית הגלישה באטלס מעודדת גישה פרואקטיבית. במקום לאסוף לינקים, להעתיק טקסטים ורק אז לשאול שאלה, השאלות נשאלות ישירות בהקשר של העמוד, והתשובות מתחברות לפעולה הבאה. המשכיות שמבוססת על זיכרון גלישה יכולה להפוך את החזרה למחקרי עבר או להשוואות מוצרים למהירה וממוקדת יותר. העריכה בשדות טקסט מקצרת תהליכים שגרתיים של ניסוח ומאפשרת לשמור על טון עקבי בין ערוצים.

 

הערך המוסף של Atlas: עבור משתמשים שכבר מנוסים ב-ChatGPT, הדפדפן הזה מרגיש כמעט כמו התמזגות של שני עולמות. כל היסטוריית השיחות שלכם עם הבוט, הידע שהוא צבר על סגנון השאלות וההעדפות שלכם – כל זה מוטמע בתוך Atlas וזמין לשימוש. המשמעות היא שאם, למשל, דיברתם בעבר עם ChatGPT על תחביב או פרויקט עבודה, הוא “יזכור” זאת גם כשתגלשו לנושא קשור וייתן תשובות עשירות יותר בהקשר האישי שלכם. זוהי יכולת ייחודית שלא קיימת בדפדפנים מתחרים נכון לעכשיו. בנוסף, Atlas כבר עכשיו מדגים שילוב בין משימות – הוא יכול לקחת תוכן מעמוד אחד (נניח כתובת של פגישה מיומן גוגל) ולהשתמש בו בעמוד אחר (למשל לפתוח מפה או להזמין נסיעה) – דברים שעד כה דרשו מהמשתמש הרבה העתק-הדבק או כישורי אוטומציה אחרים.

אחרון חביב, OpenAI רומזת שזוהי רק ההתחלה. בין התכונות העתידיות על מפת הדרכים שלהם: תמיכה בריבוי פרופילים (למשל הפרדת פרופיל עבודה ופרופיל אישי באותו דפדפן), כלי פיתוח משופרים (אולי ממשק ל-debugging עם עזרת AI), ודרכים שבהן מפתחי יישומי ChatGPT (הקרויים עכשיו Apps או Plug-ins) יוכלו להבליט את הכלים שלהם בתוך Atlas. המשמעות היא שייתכן ובעתיד נראה חנות תוספים ייעודית ל-Atlas, או אינטגרציות עמוקות עוד יותר עם שירותים מקוונים. OpenAI גם מזמינה בעלי אתרים להוסיף תגיות מיוחדות (כגון ARIA מותאמות ל-AI) כדי לסייע ל-ChatGPT להבין טוב יותר אתרים ולפעול בהם בבטחה.

 

הפוסט אטלס של OpenAI: הדפדפן האייג’נטלי שינסה לחסל את Comet ו-Chrome הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/race-for-agent-browsers-atlas/feed/ 0
גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא https://letsai.co.il/google-health-navigation/ https://letsai.co.il/google-health-navigation/#respond Sun, 19 Oct 2025 08:21:03 +0000 https://letsai.co.il/?p=62012 מה קורה כשצ’אטבוט לא רק עונה, אלא גם שואל? נניח שיש לכם כאב ראש מתמשך. אתם מחפשים בגוגל “כאב ראש כרוני” ומקבלים עשרות מאמרים על מיגרנה, לחץ דם גבוה, גידולים במוח ומתח. אף אחד מהם לא שואל אתכם האם הכאב מופיע בצד אחד? האם יש רגישות לאור? האם זה מחמיר בלילה? התוצאה היא שפע של […]

הפוסט גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה קורה כשצ’אטבוט לא רק עונה, אלא גם שואל? נניח שיש לכם כאב ראש מתמשך. אתם מחפשים בגוגל “כאב ראש כרוני” ומקבלים עשרות מאמרים על מיגרנה, לחץ דם גבוה, גידולים במוח ומתח. אף אחד מהם לא שואל אתכם האם הכאב מופיע בצד אחד? האם יש רגישות לאור? האם זה מחמיר בלילה? התוצאה היא שפע של מידע, אבל מעט רלוונטיות. בינה מלאכותית שיחתית היא אחד הכיוונים הבולטים בעולם ה־AI עם מערכות שכבר לא מסתפקות בלספק מידע, אלא יוזמות דיאלוג כדי להבין את המשתמש טוב יותר. Google מפתחת בשנים האחרונות סדרת כלים רפואיים מבוססי Gemini, בהם Med-Gemini, שמפרש נתונים רפואיים רב-מודליים, ו-AMIE, שנועד לשיחות אבחון קליניות. בספטמבר 2025 חשפה חטיבת המחקר שלה אב-טיפוס חדש בשם Wayfinding AI, שבמקום להמטיר תשובה מיידית, מתחיל בשאלות, ממש כפי שעושה רופא.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה כל כך קשה לתאר בעיה רפואית?

בראיונות עם 33 משתתפים, החוקרים גילו תופעה שחוזרת על עצמה – אנשים מתקשים להסביר מה בדיוק מטריד אותם. אחד המשתתפים תיאר זאת כך: “אני פשוט זורק את כל המילים לשם ורואה מה חוזר”.

 

בלי רקע רפואי, קשה לדעת אילו פרטים באמת חשובים. האם הכאב מופיע לפני או אחרי אכילה? האם הוא מחמיר במהלך היום? רופא יודע לשאול את השאלות הנכונות אבל רוב הצ’אטבוטים לא. הם פשוט מחכים שתספקו להם את כל המידע מראש.

 

כשמשתתפים התנסו בצ’אטבוטים שכן שואלים שאלות, התגובה הייתה כמעט אחידה – הם העדיפו את מה שהחוקרים כינו “גישה של תשובה נדחית”. כלומר, המערכת לא ממהרת לספק תשובה אלא מבקשת תחילה להבהיר את התמונה. כפי שאמר אחד המשתתפים: “זה מרגיש יותר כמו לדבר עם רופא. זה גורם לי להרגיש בטוח יותר שהוא באמת מנסה להבין לפני שהוא עונה.”

 

כדי להבין באמת איך זה נראה בפועל, Google פרסמה סרטון הדגמה קצר מתוך ממשק ה־Wayfinding AI:

 

 

 

איך זה עובד?

Wayfinding AI מבוסס על מודל Gemini של Google ופועל לפי שלושה עקרונות פשוטים אך חכמים.

 

ראשית, בכל שלב המערכת שואלת עד שלוש שאלות ממוקדות כדי לצמצם אי-בהירות ולהבין טוב יותר את ההקשר. שנית, היא נותנת תשובת “מיטב המאמצים” (best-effort answer), תשובה זמנית המבוססת על המידע הקיים באותו רגע, ומדגישה שהיא עשויה להשתפר ככל שיתווספו פרטים נוספים.

 

לדוגמה, אם משתמש כותב “אני מרגיש סחרחורת כבר יומיים”, Wayfinding AI לא תמהר לקבוע שמדובר בוורטיגו, אלא תשיב: “בהתבסס על מה שסיפרת, ייתכן שמדובר בבעיה באוזן הפנימית או בלחץ דם נמוך. אוכל לדייק יותר אם תספר מתי זה קורה ובאילו מצבים.”

 

לבסוף, המערכת מסבירה למשתמש כיצד כל פרט חדש – זמן הופעת הסימפטום, גורמים מחמירים, או תסמינים נלווים – שיפר את איכות התשובה.

 

גם לעיצוב יש תפקיד משמעותי. הממשק מחולק לשני חלקים: בצד שמאל השיחה והשאלות, ובצד ימין המידע הרפואי. החלוקה הברורה הזו נולדה מתוך תובנה שהחוקרים זיהו – כששאלות קבורות בתוך טקסטים ארוכים, המשתמשים פשוט לא מבחינים בהן.

מה קרה כשבדקו את זה באמת

Google בחנה את Wayfinding AI בקרב 130 משתתפים אמריקאים בני 21 ומעלה, שאינם אנשי מקצוע בתחום הבריאות. כל משתתף התבקש להשתמש הן במערכת החדשה והן בגרסה הרגילה של Gemini כדי לחקור שאלה רפואית אמיתית שמעסיקה אותו, החל מכאבי צלעות וורטיגו, ועד עלייה מסתורית במשקל או טינטון.

 

אילוסטרציה של מבנה המחקר

Source: research.google | אילוסטרציה של מבנה המחקר.

 

התוצאות היו חד-משמעיות – המשתתפים העדיפו את Wayfinding AI כמעט בכל פרמטר, מתועלת ורלוונטיות, דרך התאמה אישית והבנת מטרות המשתמש, ועד נוחות השימוש והיעילות.

 

תרשים שפרסמה Google ממחיש היטב את פערי ההעדפות הללו בין שתי המערכות:

 

העדפות המשתתפים בין Wayfinding AI לגרסת הבסיס של Gemini

Source: research.google | העדפות המשתתפים בין Wayfinding AI ל- Gemini.

 

מעניין שגם משך השיחות השתנה – השיחות עם Wayfinding AI נמשכו בממוצע כמעט חמישה סבבים (4.96) של שאלות ותשובות, לעומת שלושה בלבד (3.29) במערכת הרגילה. במקום לראות בכך בזבוז זמן, המשתתפים דיווחו שהם מרגישים מעורבים יותר, כאילו המערכת באמת מקשיבה להם. בנוסף, כשה-AI שאל שאלות ממוקדות, המשתתפים סיפקו מידע מדויק ורלוונטי יותר, לעיתים כזה שלא היו חושבים להזכיר בכלל.

 

בתרשים הבא ניתן לראות את זרימת הדיאלוגים עם שני סוגי המודלים – הצ’אטבוט הבסיסי לעומת Wayfinding AI. הכחול מסמן את התשובות לשאלות הבהרה, שלב שהתרחש בתדירות גבוהה הרבה יותר בשיחות עם Wayfinding AI:

 

תרשים של זרימת השיחות עם Wayfinding AI

Source: research.google | תרשים של זרימת השיחות עם Wayfinding AI.

מה עדיין לא עובד

למרות ההצלחה, מדובר באב-טיפוס מחקרי בלבד ולא במוצר מוכן לשוק. Google לא הודיעה אם או מתי יושק לציבור. החוקרים מדגישים שהביצוע הוא הכול. ברגע שהשאלות מנוסחות בצורה גרועה, כללית מדי או מוצגות במיקום לא ברור, המעורבות של המשתמשים צונחת. גישת השאלות עובדת רק כשהשאלות באמת טובות, מדויקות ורלוונטיות.

 

למחקר יש גם מגבלות גיאוגרפיות ותרבותיות. הוא כלל רק משתתפים אמריקאים, ולכן לא ברור כיצד המערכת תתפקד במדינות אחרות, עם שפות, נורמות תקשורת והרגלי בריאות שונים.

 

 

חיפוש רפואי חכם, רגיש ואישי

המחקר של Google הראה עיקרון פשוט אך משמעותי – כשבינה מלאכותית שואלת שאלות ממוקדות וחכמות, היא מספקת תשובות מדויקות ורלוונטיות יותר. זה לא קסם טכנולוגי, זו אותה מתודולוגיה שרופאים משתמשים בה כבר שנים – לשאול לפני שקובעים. הגישה הזו מתאימה במיוחד למי שמתקשה לנסח סימפטומים או מרגיש מוצף ממידע רפואי כללי. לעומת זאת, היא פחות תועיל בשאלות פשוטות וברורות, או למי שמעדיף תשובה מיידית ולא תהליך שיח.

 

האתגר האמיתי הוא לא בפיתוח המודל אלא בשמירה על איכות השיח והדיוק בשאלות בקנה מידה רחב. מספיק שאלה אחת לא מדויקת כדי לערער את תחושת האמון. המחקר הראה שזה אפשרי, אבל רק כשזה מבוצע היטב. בינתיים, מדובר עדיין באב-טיפוס מחקרי, אבל הכיוון ברור – בינה מלאכותית שמדברת איתכם, לא רק אליכם, עשויה להפוך את החיפוש הרפואי לחכם, רגיש ואישי הרבה יותר.

הפוסט גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-health-navigation/feed/ 0
אנטרופיק וסיילספורס מרחיבות שותפות ומכניסות את Claude לבנקים ולמוסדות בריאות https://letsai.co.il/anthropic-salesforce-partnership/ https://letsai.co.il/anthropic-salesforce-partnership/#respond Sat, 18 Oct 2025 13:18:15 +0000 https://letsai.co.il/?p=62002 סיילספורס (Salesforce) ואנטרופיק (Anthropic) הכריזו ב-14 באוקטובר 2025 על הרחבת השותפות ביניהן, במטרה להביא את מודל הבינה המלאכותית Claude לעולמות שבהם אימוץ AI עדיין זהיר – שירותים פיננסיים, בריאות, אבטחת סייבר ומדעי החיים. המהלך נועד לפתוח את השער לשימוש בטכנולוגיות מתקדמות גם בתעשיות מוסדרות, שנמנעו עד כה מפתרונות AI מחשש לסיכוני אבטחה וציות רגולטורי. בלב […]

הפוסט אנטרופיק וסיילספורס מרחיבות שותפות ומכניסות את Claude לבנקים ולמוסדות בריאות הופיע ראשון בLet's AI בינה מלאכותית

]]>
סיילספורס (Salesforce) ואנטרופיק (Anthropic) הכריזו ב-14 באוקטובר 2025 על הרחבת השותפות ביניהן, במטרה להביא את מודל הבינה המלאכותית Claude לעולמות שבהם אימוץ AI עדיין זהיר – שירותים פיננסיים, בריאות, אבטחת סייבר ומדעי החיים. המהלך נועד לפתוח את השער לשימוש בטכנולוגיות מתקדמות גם בתעשיות מוסדרות, שנמנעו עד כה מפתרונות AI מחשש לסיכוני אבטחה וציות רגולטורי. בלב ההכרזה עומדת החלטתה של סיילספורס להפוך את Claude למודל המועדף בפלטפורמת Agentforce, תוך הפעלתו ישירות בענן הפרטי של החברה. המשמעות היא שכל הנתונים נשארים בתוך סביבת Salesforce המאובטחת, ואנטרופיק הופכת לספקית המודלים הראשונה שמשולבת במלואה בתוך גבולות האבטחה של הפלטפורמה. זהו צעד שמחבר בין חדשנות מתקדמת לשמירה קפדנית על רגישות הנתונים – דרישה בסיסית של ארגונים גדולים בשווקים מפוקחים.

 

שיתוף פעולה בין אנטרופיק ומודל קלוד לסיילספורס

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שלושה צירים לשותפות

Claude כמודל מועדף ב-Agentforce (דרך Amazon Bedrock)

בלב שיתוף הפעולה עומדת ההחלטה להפוך את Claude למודל הדיפולטי של Agentforce, סביבת סוכני ה-AI של סיילספורס. המשמעות היא שארגונים הפועלים בענן הפרטי של סיילספורס יוכלו להפעיל את Claude מבלי לצאת מגבולות האבטחה של הפלטפורמה. חברות כמו CrowdStrike ו-RBC Wealth Management כבר מאמצות את השילוב הזה.

 

לדברי רוהיט גופטה (Rohit Gupta), ראש פלטפורמות יועצים דיגיטליים ב-RBC Wealth Management: “בעזרת Anthropic על Amazon Bedrock ו-Agentforce, אנחנו מצליחים לעזור ליועצים שלנו במשימה שגוזלת את רוב זמנם – ההכנה לפגישות. זה חוסך להם זמן משמעותי.”

פיתוח פתרונות ייעודיים לתעשיות ספציפיות

השותפות מתרחבת גם לפיתוח גרסאות מותאמות של Claude לתחומים מוסדרים, ובשלב ראשון לשירותים פיננסיים. השילוב בין Claude for Financial Services ל-Agentforce Financial Services נועד לאפשר לסוכני AI להבין מכשירים פיננסיים, תביעות ביטוח ומסגרות רגולטוריות לעומקן, יכולת שהייתה חסרה עד עכשיו במודלים כלליים.

 

סיילספורס מציגה תרחיש שימוש טיפוסי שבו יועץ פיננסי יכול לבקש מסוכן ה-AI לסכם תיקי השקעות, לזהות דרישות רגולטוריות חדשות שמשפיעות על תוכניות פנסיה, ולבצע מעקב אוטומטי אחר הסכמות ותקשורת עם לקוחות. זהו ניסיון להפוך את ה-AI ממערכת תמיכה כללית לכלי ניתוח קונטקסטואלי שמכיר את העולם הרגולטורי שבו הוא פועל.

הרחבת האינטגרציה בין Claude ל-Slack

הציר השלישי מחזק את הקשר בין Claude לפלטפורמת Slack שבבעלות סיילספורס. באמצעות Model Context Protocol, Claude יוכל לגשת לערוצים, הודעות וקבצים כדי לסכם שיחות, לחלץ החלטות מרכזיות ולנסח עדכונים. במילים פשוטות, Claude הופך למשתתף פעיל בשיח הארגוני, לא רק לכלי עזר טכני. עובדים יוכלו להפעילו ישירות מתוך Slack לניתוח מסמכים, חיפושי מידע או הפקת תובנות מנתוני Salesforce CRM – שילוב שמקדם חזון של סביבת עבודה אחודה שבה ה-AI מחובר לכל שכבת תוכן ונתון.

מודל מורכב עם טווח מחירים רחב

סיילספורס מציעה מודל תמחור רב-שכבתי לשירות Agentforce, שמותאם לגודל הארגון ולענף שבו הוא פועל. החבילות הבסיסיות מתחילות ב-125 דולר לחודש למשתמש עבור Agentforce Add-ons לתחומי מכירות, שירות ושירות שטח. בתעשיות מוסדרות, כמו פיננסים, בריאות וייצור, המחיר מטפס ל-150 דולר לחודש למשתמש.

 

ברמת הפרימיום, חבילת Agentforce 1 Editions מתומחרת ב-550 דולר לחודש למשתמש וכוללת שימוש בלתי מוגבל בסוכני AI, מיליון Flex Credits בשנה, וגישה מלאה ל-Data Cloud.

 

בנוסף, במאי 2025 הציגה סיילספורס מודל צריכה חדש בשם Flex Credits – מנגנון תשלום לפי פעולה (0.10 דולר לפעולה, שהם 20 קרדיטים). כל פעולה שסוכן AI מבצע, בין אם עדכון רשומה, סיכום מקרה או מענה לשאלה, מנוכה מחשבון הקרדיטים של הלקוח. ניתן לרכוש חבילות של 100,000 קרדיטים ב-500 דולר.

 

לשם השוואה, Microsoft 365 Copilot מתומחר בכ-30 דולר למשתמש בחודש, ו-Google Gemini Enterprise נעה סביב מחיר דומה לפי פרסומים בתעשייה. Claude API של אנטרופיק פועל במודל תשלום לפי שימוש – מודל Claude 4.5 Sonnet עולה 3 דולר למיליון טוקנים קלט ו-15 דולר לפלט. כמובן שהמחירים עשויים להשתנות עם גרסאות חדשות והסכמי רישוי ארגוניים.

 

מבחינת עלות, Agentforce יקרה משמעותית, אך ההבדל משקף אסטרטגיה ברורה – סיילספורס אינה מוכרת בוט AI, אלא פלטפורמת סוכנים ארגונית שמבטיחה אבטחה, התאמה רגולטורית ואינטגרציה עמוקה עם מערכות הליבה של הלקוחות.

מה עושים השחקנים הגדולים

שלוש הענקיות, Microsoft, OpenAI ו-Google, ממשיכות לקבוע את קצב ההתקדמות בעולם הבינה המלאכותית הארגונית.

 

Microsoft השקיעה מעל 13 מיליארד דולר ב-OpenAI ומתכננת להשקיע כ-80 מיליארד דולר נוספים בשנת הכספים 2025 בתשתיות AI. מודלי OpenAI כבר משולבים ב-Windows, Teams ובמוצרי הליבה של החברה, מה שהפך את Copilot לחלק בלתי נפרד מהאקוסיסטם של מיקרוסופט.

 

בנוסף, מיקרוסופט שילבה גם את Claude בפלטפורמת Azure AI וב-Copilot Studio, כחלק ממדיניות פתיחות למודלים חיצוניים המאפשרת ללקוחות לבחור בין כמה ספקי GenAI – צעד שמחזק את מעמדה כפלטפורמת AI רב-מודלית ולא רק כשותפה בלעדית של OpenAI.

 

Google מצדה השיקה באוקטובר 2025 את Gemini Enterprise. החברה עדיין מחזיקה ביותר מ-90% משוק החיפוש, אך מתמודדת עם תחרות גוברת מצד מודלים שיחתיים (Conversational AI). מחקר של CB Insights מיולי 2025 מצא כי Microsoft ו-OpenAI מובילות ברוב הפריסות של מערכות GenAI בשירותים פיננסיים – תחום שבו Google מנסה לצמצם פערים.

 

על רקע זה, השותפות בין Anthropic ו-Salesforce פונה לנישה שונה: ארגונים בתעשיות מוסדרות כמו פיננסים, בריאות, ביטוח ומדעי החיים, שמוכנים לשלם פרמיה בעבור אבטחה, תאימות רגולטורית ובקרה על הנתונים. במובן הזה, Salesforce אינה מתחרה ישירה ב-Microsoft או ב-Google, אלא מציבה אלטרנטיבה של “AI מאובטח ומפוקח” – מודל שנועד לפתוח דלת לשווקים שמודלים כלליים לא הצליחו לחדור אליהם.

ציפיות מול מציאות

מאז השקת Agentforce, התגובות בקהילה המקצועית מעורבות. בפברואר 2025 דיווחה Salesforce על כ-5,000 עסקאות – רק כ-6% מבסיס הלקוחות שלה.

 

באתר Salesforce Ben נמתחה ביקורת על בשלות המערכת. קיר בודן (Keir Bowden), מומחה טכני בכיר, כתב באפריל 2025: “זה עדיין מוקדם מדי, אין מספיק פונקציות סטנדרטיות, ולכל פרויקט נדרש פיתוח מותאם כדי שסוכן יוכל לפעול.”

 

גם החלטת החברה להחליף את החיפוש הטקסטואלי באתר התמיכה ב-Agentforce עוררה התנגדות, לאחר שמשתמשים דיווחו על חיפושים איטיים ופחות מדויקים. טום באסט (Tom Bassett), ארכיטקט פתרונות בכיר, אף יזם הצבעה להחזרת הפונקציה הישנה.

 

במישור הפיננסי, אנליסטים מ-D.A. Davidson הורידו באפריל את דירוג המניה ל-“Underperform”, בטענה שהחברה מתמקדת יותר מדי ב-Agentforce על חשבון הפלטפורמה המרכזית – והמניה ירדה ב-4.3%.

 

מחקר של GetGenerative.ai הוסיף לרשימת החולשות מגבלת 20 סוכנים לארגון, עלויות לא צפויות ותלות במערכת האקולוגית של Salesforce.

 

לסיכום, האימוץ איטי, הפידבק מסויג, והאתגר של Salesforce ברור – להפוך את Agentforce ממוצר מבטיח לכלי שמספק ערך מוכח ללקוחות קיימים.

 

 

זמינות ותוכניות עתידיות

Agentforce שמופעל על ידי אנטרופיק זמין כבר היום ללקוחות נבחרים, והאינטגרציה הדו-כיוונית בין Claude ל-Slack פעילה גם היא. הפתרונות החדשים לתעשיות מוסדרות והחיבור של Agentforce 360 עם Claude נמצאים בשלבי פיתוח מתקדמים, וצפויים להיחשף בחודשים הקרובים.

 

בתוך הארגונים עצמם השילוב כבר מתרחש – Salesforce פורסת את Claude Code בקרב צוותי ההנדסה הגלובליים שלה, ואנטרופיק משתמשת ב-Claude בתוך Slack לניהול שיחות פנימיות והדרכות מכירה.

 

דריו אמודיי (Dario Amodei), מנכ”ל ומייסד-שותף של Anthropic, אמר: “תעשיות מוסדרות צריכות יכולות AI מתקדמות, אבל גם את אמצעי ההגנה המתאימים. בנינו את Claude כדי לספק את שניהם.”

 

מארק בניוף (Marc Benioff), יו”ר ומנכ”ל Salesforce, הוסיף: “אנחנו משלבים את Salesforce בתוך Claude ואת האינטליגנציה של Claude בתוך Salesforce ו-Slack כדי לאפשר לחברות לעבוד בדרכים חדשות לגמרי.”

 

השותפות הזו מסמנת שלב חדש בשוק ה-AI הארגוני – ניסיון אמיתי לגשר בין מהירות החדשנות של מודלים גנרטיביים לבין הדרישות הקשיחות של עולם מוסדר ומפוקח. השאלה שנותרה פתוחה היא, האם השוק בשל לשלם את המחיר הפיננסי והמערכתי, עבור בינה מלאכותית מאובטחת באמת.

הפוסט אנטרופיק וסיילספורס מרחיבות שותפות ומכניסות את Claude לבנקים ולמוסדות בריאות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-salesforce-partnership/feed/ 0
שלושה עדכונים לקלוד שהופכים את Anthropic לשחקנית מרכזית בעולם ה-AI הארגוני https://letsai.co.il/claude-skills-and-integrations/ https://letsai.co.il/claude-skills-and-integrations/#comments Fri, 17 Oct 2025 08:50:10 +0000 https://letsai.co.il/?p=61985 בעידן שבו מערכות בינה מלאכותית הופכות לחלק בלתי נפרד ממקום העבודה, Anthropic מציגה שלב חדש בהתפתחות: לא עוד עוזר חכם שמגיב לבקשות, אלא עובד ארגוני שמבין נהלים, ידע ותהליכים. שלושת החידושים האחרונים – Claude Skills, האינטגרציה עם Microsoft 365, ו-Enterprise Search – מסמנים שינוי תפיסתי. הם לא רק מוסיפים פונקציות חדשות, אלא מחברים את קלוד […]

הפוסט שלושה עדכונים לקלוד שהופכים את Anthropic לשחקנית מרכזית בעולם ה-AI הארגוני הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעידן שבו מערכות בינה מלאכותית הופכות לחלק בלתי נפרד ממקום העבודה, Anthropic מציגה שלב חדש בהתפתחות: לא עוד עוזר חכם שמגיב לבקשות, אלא עובד ארגוני שמבין נהלים, ידע ותהליכים. שלושת החידושים האחרונים – Claude Skills, האינטגרציה עם Microsoft 365, ו-Enterprise Search – מסמנים שינוי תפיסתי. הם לא רק מוסיפים פונקציות חדשות, אלא מחברים את קלוד ישירות לליבת העבודה של הארגון.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

Skills הופך ידע ארגוני לאוטומציה חכמה

עוד לא יבשה הדיו מהעדכון על שחרור מודל Claude Haiku 4.5, ואנטרופיק כבר ממשיכים במהלך שמכניס את קלוד אל תוך ליבת הארגון.

 

Claude Skills הוא המענה של Anthropic לאותו צורך ש-OpenAI פתרה עם GPTs – ההתאמה האישית של המודל. אך בניגוד ל-GPTs, שמתמקדים ביצירת עוזרים פרטיים לכל משתמש, Skills נבנה במיוחד עבור צוותים וארגונים. זה לא “בוט מותאם אישית”, זו מערכת שמטמיעה את הנהלים, הידע והתרבות הארגונית לתוך קלוד עצמו.

 

כל Skill הוא תיקייה דיגיטלית שמכילה הוראות, קבצים, מדריכים או קוד. קלוד סורק את כל ה-Skills, מזהה את הרלוונטיים למשימה, ומטעין רק את החלקים הדרושים. כך הוא פועל במהירות וביעילות, תוך שמירה על עקביות ארגונית.

 

Anthropic מגדירה ארבע תכונות מפתח:

  • Composable – קלוד יודע לשלב כמה Skills יחד לביצוע תהליך שלם.
  • Portable – כל Skill עובד בכל מוצרי Claude – באפליקציה, ב-Claude Code וב-API.
  • Efficient – נטען רק מה שנדרש, ברגע הנכון.
  • Powerful – מאפשר להריץ קוד אמיתי לצורך ביצועים מדויקים במיוחד.

 

איך מפעילים את זה?

ה-Skills זמינים כברירת מחדל למשתמשי Pro, Max, Team ו-Enterprise.

 

כדי להפעיל אותם:

1. נכנסים ל־ Settings > Capabilities > Skills.

2. מפעילים את האפשרות.

3. בוחרים האם לאפשר שימוש בכישורים כלליים או בכישורים ארגוניים בלבד.

 

בארגונים, מנהל המערכת יכול לאפשר או להגביל את הפעלת ה־Skills לכלל הצוותים. לאחר ההפעלה, קלוד מציג את ה-Skills הרלוונטיים בזמן אמת בשורת החשיבה שלו בלי צורך לבחור ידנית.

 

Anthropic גם מציעה כלי ייעודי בשם Skill-Creator. קלוד עצמו מדריך אתכם שלב-שלב: שואל על זרימת העבודה, יוצר את מבנה התיקייה, כותב את קובץ ההוראות (SKILL.md) ומרכז את כל הקבצים הנדרשים. אין צורך בידע תכנותי. המערכת פועלת באותה צורה גם ב-Claude Code וב-API – מפתחים יכולים להעלות Skills דרך מסך הניהול או באמצעות נקודת הקצה החדשה /v1/skills, שמאפשרת שליטה בגרסאות, הרשאות והרצה מאובטחת דרך Code Execution Tool.

 

בתמונה המצורפת תוכלו לראות את תפריט ההגדרות של Claude. כאן ניתן להפעיל את מערכת ה-Skills, להעלות כישורים חדשים באמצעות Upload skill, או לנהל כישורים קיימים כמו הנחיות מותג, תבניות כתיבה וכללי תקשורת פנימית:

 

הפעלת Claude Skills מתוך Settings > Capabilities

anthropic.com | הפעלת Claude Skills מתוך Settings > Capabilities

 

לדוגמה, צוות כספים יכול ליצור Skill שמחשב תחזיות תקציב על בסיס דוחות אקסל, וצוות שיווק יכול להגדיר Skill שמפיק מצגות במבנה אחיד של החברה. מרגע שה-Skills נבנו, קלוד יודע להריץ אותם לבד ואמור למנוע חזרתיות, חוסר עקביות, או טעויות אנוש.

 

כיוון ש-Skills יכולים להריץ קוד, מומלץ להשתמש רק בכישורים ממקורות אמינים או מאושרים על ידי הארגון. בעתיד Anthropic צפויה להשיק יכולת פריסה ארגונית רחבה, שתאפשר להפיץ ולנהל Skills לכל הצוותים מממשק אחד מרכזי.

 

צעד ראשון מומלץ: בחרו תהליך שחוזר על עצמו, כמו סיכום פגישות או ניתוח חוזים, ובנו עבורו Skill יחיד. תמדדו את זמן החיסכון ואת אחידות התוצרים. כך תבינו מהר מאוד את הערך המעשי של המערכת.

 

למי שרוצה להעמיק או לבנות את ה-Skill הראשון שלו, Anthropic מציעה מדריך אינטראקטיבי שמסביר איך ללמד את קלוד לעבוד לפי הנהלים שלכם כולל מרכז עזרה מקיף על עקרונות הפיצ’ר.

בנוסף, החברה פתחה מאגר ציבורי ב־GitHub שכולל דוגמאות ל-Skills קיימים שאפשר להתאים לכל ארגון – דרך מעשית להבין איך להפוך ידע ארגוני לאוטומציה חכמה.

אינטגרציה עם Microsoft 365 

עדכון נוסף של אנטרופיק מדגיש שקלוד כבר לא חי לצד הכלים הארגוניים, אלא ממש נכנס לתוכם. באמצעות MCP Connector for Microsoft 365, אנטרופיק מאפשרת לקלוד להתחבר ישירות ל-SharePoint, OneDrive, Outlook ו-Teams, כך שהוא יכול לגשת למסמכים, שיחות ומיילים בזמן אמת, להבין הקשרים ולספק תשובות מבוססות ידע ארגוני אמיתי.

 

ברגע שהחיבור מופעל, קלוד ממש הופך להיות חלק מסביבת העבודה. אפשר לדבר איתו בדיוק כמו בצ’אט הרגיל, רק שעכשיו הוא “מבין” את המסמכים, התכתובות והיומן שלכם מבלי להעלות כלום ידנית.

 

בפועל, קלוד יודע לחפש ולנתח מסמכים מכל SharePoint ו-OneDrive, דרך פרטי פרויקטים ועד תוכניות אסטרטגיות, בלי צורך להעלות קבצים ידנית. הוא סורק תכתובות ב-Outlook, מזהה מגמות ופידבק מלקוחות, ומחזיר תמונה מלאה של מצב הפרויקט. בתוך Teams הוא מסכם פגישות, מאתר החלטות ומציע צעדים להמשך, והכול כחלק משיחה רציפה אחת.

 

למשל, מנהלת מוצר יכולה לכתוב: “השווה את פידבק הלקוחות מהמיילים האחרונים לנתוני השימוש בדוחות SharePoint, וצור טיוטת מצגת עם שלוש ההמלצות המרכזיות.” קלוד יבצע זאת בזמן אמת, על בסיס המידע הקיים במערכות הארגון.

 

היתרונות ברורים – קלוד מבין לא רק את התוכן עצמו אלא גם את ההיסטוריה שמאחוריו, מה שמעניק הקשר עמוק ומדויק יותר לתובנות. העבודה נעשית מהירה ויעילה יותר, עם פחות קפיצות בין כלים ויותר החלטות מבוססות מידע בזמן אמת. במקביל, Anthropic שומרת על רמות אמון ובקרה גבוהות – קלוד ניגש רק למידע שהמשתמש מורשה לראות, והנתונים אינם משמשים לאימון המודל.

 

האינטגרציה זמינה למשתמשי Team ו-Enterprise, ודורשת הפעלה על ידי מנהל מערכת (Admin). האדמין מחבר את החשבון הארגוני, מגדיר את מקורות המידע, ולאחר מכן כל משתמש בצוות יכול להתחבר עם האישורים שלו.

 

בעוד Copilot של מיקרוסופט פועל בתוך כל אפליקציה בנפרד, הגישה של Anthropic רחבה יותר – קלוד מאחד מידע ממספר מקורות לשיחה אחת רציפה, כך שההבנה העסקית שלמה ומקיפה יותר.

 

צעד ראשון מומלץ: ברגע שמנהל המערכת מפעיל את ה-MCP Connector, הגדירו אילו ספריות ודוא”לים ייחשפו לקלוד, ונסו שאילתה מעשית כמו: “סכם את התובנות המרכזיות מפגישות Teams האחרונות והשווה אותן למידע ממסמכי SharePoint בנושא.”

זו הדרך המהירה לראות איך קלוד הופך ממנוע שיחה לעובד ידע אמיתי.

 

Enterprise Search 

החידוש השלישי במערך של Anthropic משנה את הדרך שבה ארגונים ניגשים לידע שלהם. קלוד כבר לא מחפש רק במסמך בודד או במייל אחד, הוא הופך למנוע ידע אחיד שמחבר בין כל מקורות המידע של החברה, ממיקרוסופט ועד גוגל, Slack, Notion ואפילו כלים פנימיים, לשכבת חיפוש אחת אינטליגנטית.

 

Anthropic יצרה לכל ארגון פרויקט משותף ייעודי (Shared Company Project) הנושא את שם החברה וכולל פרומפטים מובנים לחיפוש חכם. מנהל הארגון מחבר את הכלים הדרושים, ולאחר מכן כל העובדים מקבלים גישה אוטומטית לפרויקט דרך סביבת Claude.

 

Enterprise Search – קלוד מאחד מידע ממספר כלים ארגוניים לשיחה אחת רציפה.

anthropic.com | קלוד מאחד מידע ממספר כלים ארגוניים לשיחה אחת רציפה.

 

למה זה חשוב? במקום לבזבז זמן בחיפושים ידניים, קלוד מספק תשובה אחת שמרכזת את כל המידע הרלוונטי ומאפשרת החלטה מהירה. זה כלי עוצמתי במיוחד עבור קליטת עובדים חדשים (Onboarding), ניתוח פידבק לקוחות, או איתור מומחים פנימיים לפי נושא ידע.



Enterprise Search מופעל כברירת מחדל לכל ארגוני Team ו-Enterprise. האדמין קובע אילו מקורות ייכללו ומנהל את ההרשאות. Anthropic מדגישה עמידה מלאה בתקני פרטיות ואבטחת מידע: קלוד שומר על ההרשאות הקיימות של המשתמשים, והנתונים אינם משמשים לאימון.

 

צעד ראשון מומלץ: התחילו מפרויקט מצומצם – חברו את SharePoint, Outlook ו-Teams, או אם אתם עובדים עם מערכות אחרות, שלבו כלים כמו Notion, Slack או Google Drive. נסו לשאול שאלות תפעוליות פשוטות כמו: “אילו לקוחות דיווחו על תקלות חוזרות החודש?” או “מה הסטטוס של יוזמות החדשנות הפעילות?” ותראו איך קלוד מאחד תשובות ממקורות שונים למסמך תובנות אחד בלי שתצטרכו לפתוח אף קובץ.

 

 

לסיכום, שלושת החידושים של Anthropic מציירים מגמה ברורה – עולם הבינה המלאכותית עובר משלב “העוזרים הדיגיטליים” לשלב העובדים הדיגיטליים. Skills מטמיעים את הידע והנהלים של הארגון, Microsoft 365 Connector מכניס את קלוד לתוך סביבת העבודה היומיומית, ו-Enterprise Search מחבר אותו אל הידע הקולקטיבי של החברה.

 

במקום מודלים שמייצרים טקסטים מבריקים, Anthropic בונה מערכת שמבינה הקשר, עובדת תחת הרשאות, ומחזירה תוצרים שניתנים לאימות. היא בונה שכבת אינטליגנציה ארגונית, זהה בכל הצוותים, מבוקרת, מאובטחת ומבוססת על ידע אמיתי.

 

זהו לא רק עדכון טכנולוגי, זה מצביע על המשך הקו של שינוי תרבותי עם בינה מלאכותית בארגונים. קלוד מפסיק להיות כלי שמגיב להוראות, ומתחיל להיות חלק מהצוות – עובד ידע חכם שפועל לפי כללי הארגון, מדבר בשפה שלו, ומחזיר ערך מדיד בכל פעולה.

הפוסט שלושה עדכונים לקלוד שהופכים את Anthropic לשחקנית מרכזית בעולם ה-AI הארגוני הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-skills-and-integrations/feed/ 2
אנטרופיק משיקים את Claude Haiku 4.5 https://letsai.co.il/claude-haiku-4-5/ https://letsai.co.il/claude-haiku-4-5/#comments Thu, 16 Oct 2025 13:31:10 +0000 https://letsai.co.il/?p=61970 עולם הבינה המלאכותית משתנה בקצב מסחרר. המרוץ כבר לא מתמקד במודלים הענקיים, אלא במי שמצליח לדחוס עוצמה של מודל מתקדם לתוך מערכת מהירה וזולה. כאן בדיוק נכנס לתמונה Claude Haiku 4.5 – המודל החדש של Anthropic שהושק אתמול. במאמר הזה נסביר לכם מה בדיוק חדש במודל, למה הוא חשוב, איך הוא שונה מגרסאות קודמות, ומה […]

הפוסט אנטרופיק משיקים את Claude Haiku 4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
עולם הבינה המלאכותית משתנה בקצב מסחרר. המרוץ כבר לא מתמקד במודלים הענקיים, אלא במי שמצליח לדחוס עוצמה של מודל מתקדם לתוך מערכת מהירה וזולה. כאן בדיוק נכנס לתמונה Claude Haiku 4.5 – המודל החדש של Anthropic שהושק אתמול. במאמר הזה נסביר לכם מה בדיוק חדש במודל, למה הוא חשוב, איך הוא שונה מגרסאות קודמות, ומה המשמעות שלו למשתמשים ועסקים שמחפשים ביצועים גבוהים בעלות נמוכה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המודל הקטן שמבצע כמו הגדולים

Claude Haiku 4.5 הוא הדגם הקטן והמהיר ביותר במשפחת Claude, אבל אל תתנו לגודל להטעות אתכם. הוא מספק ביצועים שעוקפים במעט את Sonnet 4 (שהיה בחזית הטכנולוגיה לפני פחות מחצי שנה) במבחני קידוד, אך במחיר ובמהירות טובים ממנו משמעותית, מה שממקם אותו כאחד המודלים היעילים ביותר בקטגוריית הביניים.

 

במבחן SWE-bench Verified, אחד הסטנדרטים המקובלים ביותר למדידת יכולות קידוד בעולם האמיתי, Haiku 4.5 קיבל ציון של 73.3%, לעומת 77.2% ב-Sonnet 4.5. במילים פשוטות, זהו מודל קטן שמגיע כמעט לאותה רמת דיוק כמו אחיו הבכיר, אבל מגיב מהר יותר, עולה פחות, ומתאים במיוחד למערכות זמן אמת או סביבות עם עומסי שימוש גבוהים.

 

השוואת ביצועים במבחן SWE-bench Verified

Source: Anthropic.com | השוואת ביצועים במבחן SWE-bench Verified.

כמה זה עולה ולמי זה משתלם

Anthropic מתמחרת את Haiku 4.5 ב-$1 למיליון טוקני קלט ו-$5 למיליון טוקני פלט. זה יקר בכ-25% מהדגם הקודם (Haiku 3.5), אבל זול משמעותית מהמודלים הבינוניים והגדולים יותר כמו Sonnet 4 ו-Sonnet 4.5 ($3/$15 בהתאמה). 

 

המשמעות המעשית היא שניתן להריץ יישומי בינה מלאכותית מבוססי שפה, שירותי תמיכה או עוזרים חכמים בעלות נמוכה בהרבה, כמעט בלי לוותר על איכות התוצאה. בנוסף, משתמשים קבועים נהנים מהנחות משמעותיות – עד 90% חיסכון עם prompt caching ו-50% עם Batch API (caching חוסך כסף כשעושים שימוש חוזר בתוכן קיים, ו-batching חוסך כסף כשמעבדים הרבה בקשות יחד).

 

מבנה תמחור כזה מאפשר לעסקים קטנים ובינוניים להשתמש במודלים חכמים בקנה מידה גדול, מבלי לחשוש מהוצאות ענק, ולראשונה להפוך פרויקטים מבוססי AI לכלכליים באמת.

היכולות החדשות שמבדילות אותו

Extended Thinking

לראשונה בדגמי Haiku, המודל יכול להשקיע יותר מחזורי חשיבה לפני המענה כדי להתמודד עם בעיות מורכבות. טוקני החשיבה מחויבים כטוקני פלט במחיר $5 למיליון.

 

למה זה חשוב? מאפשר דיוק טוב יותר בשאלות מרובות שלבים בלי לקפוץ למודל יקר יותר. שווה להפעיל רק כשנדרש עומק reasoning.

Context Awareness

המודל מודע לניצול חלון ההקשר שלו – עד 200,000 טוקנים – ויכול לנהל דיאלוגים ארוכים בלי לאבד חוט מחשבה, כולל אסטרטגיות prompting שמסתמכות על ספירת הקשר.

 

למה זה חשוב? פחות קטיעות, פחות שכחה, ויכולת לעבוד עם מסמכים ארוכים או שיחות תפעוליות מתמשכות.

Computer Use משופר

אינטראקציה אוטונומית עם שולחן עבודה ודפדפן. במבחן OSWorld המודל קיבל 50.7% – התוצאה הגבוהה ביותר עד היום לסדרת Haiku ומתקרבת ל-Sonnet 4.5.

 

למה זה חשוב? פותח דלת לאוטומציות מורכבות כמו מילוי טפסים, ניווט במערכות פנימיות ובדיקות QA. 

קלט ופלט מולטימודליים

תמיכה בטקסט ותמונות, חלון הקשר של 200K טוקנים ועד 64K טוקני פלט.

 

למה זה חשוב? מאפשר ניתוח מסמכים כבדים, סשנים רב שלביים ושרשורים ארוכים בלי שצריך לפצל לקבצים קטנים.

איפה משתמשים בו בפועל

אם אתם מפתחים מערכות שפועלות בזמן אמת, אתם צריכים לנסות את Haiku 4.5. לפי Anthropic, זה הפתרון האידיאלי לשורה של תרחישים יומיומיים שבהם מהירות ויעילות חשובים לא פחות מאינטליגנציה.

  • צ’אטבוטים ושירות לקוחות: המודל מגיב כמעט מיידית ומאפשר להפעיל מערכות תמיכה חכמות בעלות תפעול נמוכה במיוחד. זהו שילוב נדיר של איכות תשובה גבוהה עם latency כמעט אפסי.
  • עוזרי קידוד ו-pair programming: המודל החדש מציג ביצועי קידוד חזקים ותגובה מיידית, מה שהופך אותו לשותף אמיתי בפיתוח מהיר, תיקון באגים ו-code review חכם.
  • מערכות מרובות-סוכנים (multi-agent systems): בתרחישים מורכבים, מודל גדול כמו Sonnet 4.5 יכול לשמש כמנהל שמפרק בעיה למספר שלבים, בעוד שצוות של Haiku 4.5 מבצע את המשימות במקביל. כך מתקבלת מערכת יעילה, מהירה וזולה בהרבה.
  • ניתוחי מידע בקנה מידה גדול: Haiku 4.5 מסוגל לעבד ולעקוב אחר אלפי זרמי נתונים בזמן אמת, כולל תובנות פיננסיות, רגולטוריות או תפעוליות – תחום שבו המהירות שלו היא יתרון תחרותי מובהק.

בסופו של דבר, המודל הזה מביא אינטליגנציה של “דגם פרימיום” אל תוך יישומים יומיומיים, ומוכיח שלא צריך כוח מחשוב עצום כדי להשיג תוצאות ברמה הגבוהה ביותר.

איפה המודל זמין

Claude Haiku 4.5 זמין כבר היום לכל המשתמשים, ללא הגבלות מוקדמות או הרשאות מיוחדות. תוכלו לעבוד איתו דרך:

מי שנכנס לאתר או לאפליקציה אחרי ההשקה, יקבל הצעה לעבור ל-Haiku 4.5 החדש בלחיצה כפתור (Try it), ובכל מקרה, ניתן לבחור בו בכל עת דרך בורר המודלים שבממשק.

 

הודעת ההשקה בממשק Claude.ai

הודעת ההשקה בממשק Claude.ai

ביצועים מול מתחרים

בעולם שבו כל אחוז דיוק נחשב, Claude Haiku 4.5 מצליח להישאר כמעט כתף אל כתף עם מודלים מתקדמים בהרבה, ובמחיר נמוך משמעותית. בהשוואות שביצעה Anthropic, מודל Haiku 4.5 עוקף את Gemini 2.5 Pro ברוב הקטגוריות, שומר על פער זעיר מול GPT-5 בקידוד (73.3% לעומת 74.5%), ומציג תוצאות מרשימות גם במשימות מתמטיות, הבנה ויזואלית ורב-לשוניות.

תוצאות עיקריות מהמבחנים הפנימיים של Anthropic:

  • תכנות (SWE-bench) – 73.3%

  • הבנה מתמטית (AIME 2025) – 96.3%

  • רב-לשוניות (MMLU) – 83.0%

  • חשיבה חזותית (MMMU) – 73.2%

במילים אחרות, Haiku 4.5 אינו “מודל קטן וחסכוני” בלבד, הוא מתקרב לרמות הביצועים של המודלים המתקדמים בעולם, ומוכיח עד כמה יעילות חישובית ואינטליגנציה כבר לא בהכרח הולכות בנפרד.

 

השוואת ביצועי מודלים במבחני קידוד, מתמטיקה, הבנה ויזואלית ורב-לשוניות

Source: Anthropic.com | השוואת ביצועי מודלים במבחני קידוד, מתמטיקה, הבנה ויזואלית ורב-לשוניות.

מגבלות שכדאי לקחת בחשבון

לצד היתרונות המרשימים שלו, Claude Haiku 4.5 אינו תחליף מלא למודלים הגדולים בכל מצב. הוא מהיר ויעיל במיוחד, אבל במשימות שמצריכות חשיבה עמוקה ורצף נימוקים מורכב לאורך זמן, כמו ניתוחים טכניים, תכנון אסטרטגי או פתרון בעיות מרובות שלבים, הביצועים שלו עשויים להיות פחות עקביים. במקרים כאלה עדיף לבחור ב-Sonnet 4.5 או להפעיל את יכולת Extended Thinking של Haiku 4.5, שמאפשרת לו להשקיע יותר “זמן מחשבה” ולשפר את רמת הדיוק.

 

גם בעבודה עם computer use, אפילו שהמודל רשם שיא חדש עם ציון 50.7% במבחן OSWorld, מדובר עדיין בביצועים חלקיים. הוא מתאים במיוחד לאוטומציות מונחות אדם (human-in-the-loop), אך עדיין לא מומלץ להפעלה אוטונומית מלאה ללא בקרה.

 

נקודה נוספת שכדאי לשים לב אליה היא מבנה העלויות: בעוד ש-Haiku 4.5 חסכוני מאוד בהשוואה למודלים הגדולים, עלות הפלט שלו גבוהה פי חמישה מעלות הקלט ($1 לקלט לעומת $5 לפלט למיליון טוקנים). בפרויקטים שבהם מופק טקסט ארוך במיוחד, כמו סיכומים, דו”חות או דוקומנטציה, זה עלול להפוך לגורם משמעותי בעלויות הכוללות. שימוש נכון ב-prompt caching וב-Batch API יכול לצמצם את ההוצאה באופן ניכר.

 

לכן, Haiku 4.5 הוא בחירה מצוינת לרוב היישומים היומיומיים הדורשים מהירות ועלות נמוכה, אבל כשנדרשת חשיבה ארוכת טווח, דיוק מחקרי או שליטה מלאה במחשב, כדאי לשלב כלים משלימים או לעבור למודל מתקדם יותר כמו Sonnet 4.5.

בטיחות והתאמה לשימוש מסחרי

Anthropic מדווחת כי Claude Haiku 4.5 עבר סדרת בדיקות בטיחות מקיפה, שהראתה שיעור נמוך במיוחד של התנהגויות לא רצויות או תגובות לא מתואמות. המודל סווג תחת AI Safety Level 2 (ASL-2) – רמת פיקוח פחות מגבילה מזו של Sonnet 4.5 ו-Opus 4.1, המדורגים ב-ASL-3.

 

מה זה אומר בפועל? שהמודל בטוח לשימוש רחב יותר, כולל בסביבות עבודה, יישומים עסקיים ומערכות למשתמשי קצה, מבלי להיכנס לאזורים רגישים מדי מבחינת תוכן או אוטונומיה. Anthropic מציינת כי Haiku 4.5 הוא המודל הבטוח ביותר שייצרה עד כה לפי המדדים הפנימיים שלה.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

לסיכום, Claude Haiku 4.5 הוא לא רק עדכון טכנולוגי נוסף, הוא סימן דרך בשינוי שמתחולל בעולם הבינה המלאכותית. פעם גודל המודל היה המדד לעוצמה, אבל היום מה שקובע הוא היכולת לספק ביצועים של מודלים מתקדמים במהירות ובעלות נמוכה.

Haiku 4.5 מוכיח שאפשר להגיע כמעט לאותה רמת אינטליגנציה שמציעים המודלים הגדולים בפחות זמן, בפחות כסף, ועם הרבה יותר גמישות.

 

אם אתם מפתחים בוטים, עוזרים חכמים או מערכות שפועלות בזמן אמת, זה כנראה אחד המודלים המשתלמים והיעילים ביותר שזמינים היום, ומבשר על עתיד שבו האיכות כבר לא נמדדת בגודל, אלא בדיוק ובמהירות.

הפוסט אנטרופיק משיקים את Claude Haiku 4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-haiku-4-5/feed/ 1
גוגל מחלקת שנה שלמה של Google AI Pro בחינם לסטודנטים בישראל https://letsai.co.il/google-free-for-students/ https://letsai.co.il/google-free-for-students/#comments Thu, 16 Oct 2025 10:17:41 +0000 https://letsai.co.il/?p=61912 שנת הלימודים האקדמית יוצאת לדרך, וגוגל פותחת אותה במהלך יוצא דופן: שנה שלמה של Google AI Pro בחינם לכל סטודנט בישראל. מאחורי ההצעה מסתתרת גישה מלאה ל-Gemini 2.5 Pro, מודל הבינה המלאכותית המתקדם ביותר של גוגל, שיכול לשמש כעוזר אישי ללמידה, מחקר ויצירה – מסיכומי שיעור וכתיבת עבודות ועד הפקת סרטונים ומצגות.     מה […]

הפוסט גוגל מחלקת שנה שלמה של Google AI Pro בחינם לסטודנטים בישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
שנת הלימודים האקדמית יוצאת לדרך, וגוגל פותחת אותה במהלך יוצא דופן: שנה שלמה של Google AI Pro בחינם לכל סטודנט בישראל. מאחורי ההצעה מסתתרת גישה מלאה ל-Gemini 2.5 Pro, מודל הבינה המלאכותית המתקדם ביותר של גוגל, שיכול לשמש כעוזר אישי ללמידה, מחקר ויצירה – מסיכומי שיעור וכתיבת עבודות ועד הפקת סרטונים ומצגות.

 

מנוי Google AI Pro לשנה שלמה לסטודנטים בישראל

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה כלול בהטבה?

החבילה שגוגל מציעה לסטודנטים כוללת את כל מה שצריך כדי להפוך את הלמידה לדיגיטלית באמת: גישה מלאה ל-Gemini 2.5 Pro, אפשרות ליצירת סרטונים ותוכן מולטימדיה ישירות מה-AI, ושילוב חכם של Gemini בתוך Gmail, ‏Docs, ‏Sheets ו-Slides.

 

בנוסף, נכללת גישה מורחבת ל-NotebookLM – עוזר המחקר שמאפשר לארגן מקורות וליצור תובנות מתוך טקסטים ו-2 טרה-בייט של אחסון בענן Google Drive.

 

מעבר לכלים עצמם, גוגל מדגישה שמטרת המהלך היא לא רק להקל על סטודנטים בעומס המטלות, אלא גם לטפח הבנה עמוקה וחשיבה ביקורתית – כישורים חיוניים לעידן שבו בינה מלאכותית היא כבר לא תוספת, אלא חלק מהאופן שבו לומדים וחושבים.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

מי זכאי ומה חשוב לדעת

ההטבה זמינה לכל סטודנט פעיל במוסד להשכלה גבוהה בישראל שנכלל בתוכנית הניסיון של Google AI Pro. ההרשמה מיועדת למשתמשים בני 18 ומעלה בלבד ופתוחה עד 9 בדצמבר 2025, ולאחר מכן תסתיים תקופת הניסיון. עם סיומה, המנוי יתחדש אוטומטית בתשלום חודשי של 21.99 אירו, אך ניתן לבטל בכל שלב בקלות דרך החשבון.

 

חשוב לדעת שחלק מהפיצ’רים המתקדמים דורשים מנוי Google One AI Premium, חיבור לאינטרנט וחשבון מתאים לשירותי Google Workspace. 

מיומנות יסוד בעולם החדש

מעבר להטבה עצמה, זהו צעד שמסמן את הכיוון שאליו ההשכלה הגבוהה הולכת – עידן שבו AI הופך לחלק טבעי מתהליך הלמידה. הסטודנטים של היום הם אנשי המקצוע של מחר, והיכולת לעבוד לצד בינה מלאכותית, להבין את את הגבולות שלה ולהפיק ממנה ערך היא לא רק יתרון תחרותי, אלא מיומנות יסוד בעולם החדש.

 

להרשמה, פרטים נוספים ומדריך מומלץ ללמידה עם Gemini, כנסו כאן.

הפוסט גוגל מחלקת שנה שלמה של Google AI Pro בחינם לסטודנטים בישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-free-for-students/feed/ 1
איך לחבר אפליקציות ל-ChatGPT ולעבוד איתן ישירות מהצ’אט https://letsai.co.il/connect-apps-chatgpt/ https://letsai.co.il/connect-apps-chatgpt/#respond Thu, 16 Oct 2025 06:47:23 +0000 https://letsai.co.il/?p=61849 אחד העדכונים השימושיים ביותר של ChatGPT מאפשר מעכשיו לעבוד עם אפליקציות ישירות מתוך הצ’אט. במקום לעבור בין חלונות או להעתיק טקסטים, אפשר לבצע פעולות אמיתיות – ליצור מצגת, לעצב דיאגרמה או לתכנן חופשה – הכול באותו ממשק מוכר. זה עדכון קטן שמפשט את העבודה היומיומית והופך את ChatGPT לכלי שמבצע פעולות, לא רק מספק תשובות. […]

הפוסט איך לחבר אפליקציות ל-ChatGPT ולעבוד איתן ישירות מהצ’אט הופיע ראשון בLet's AI בינה מלאכותית

]]>
אחד העדכונים השימושיים ביותר של ChatGPT מאפשר מעכשיו לעבוד עם אפליקציות ישירות מתוך הצ’אט. במקום לעבור בין חלונות או להעתיק טקסטים, אפשר לבצע פעולות אמיתיות – ליצור מצגת, לעצב דיאגרמה או לתכנן חופשה – הכול באותו ממשק מוכר. זה עדכון קטן שמפשט את העבודה היומיומית והופך את ChatGPT לכלי שמבצע פעולות, לא רק מספק תשובות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה Apps@ ואיך משתמשים בזה

אחרי ההכרזות האחרונות של OpenAI בכנס Dev Day, נוספה ל-ChatGPT אפשרות חדשה שמאפשרת להפעיל אפליקציות ישירות מתוך הצ’אט. במקום לעבוד בכלים נפרדים, אפשר עכשיו לשלב אותם בתוך השיחה עצמה, ולתת ל-ChatGPT לבצע פעולות אמיתיות בעזרתן.

 

כשמקלידים את הסימן @ בצ’אט, נפתחת רשימה של אפליקציות (כמו Canva ,Figma ,Coursera ועוד) שאפשר לעבוד איתן ישירות מתוך השיחה. החיבור נעשה בצורה טבעית – פשוט נותנים משימה ומקבלים תוצאה בצ’אט, בזמן אמת ובשפה רגילה.

 

כשמקלידים את הסימן @ בצ’אט, נפתחת רשימה של אפליקציות שאפשר לעבוד איתן ישירות מתוך השיחה

רשימה של אפליקציות שאפשר לעבוד איתן ישירות מתוך השיחה

 

טיפ לשימוש חכם: נסחו את הבקשה שלכם בצורה מדויקת וברורה, כמו שהייתם מדברים עם אדם ולא כמו פקודה טכנית. ככל שהניסוח מדויק יותר, כך גם התוצאה תהיה ממוקדת ורלוונטית יותר.

 

לדוגמה:

  • @Canva צור מצגת בת חמש שקופיות בנושא למידת מכונה.

  • @Booking מצא מלון בלונדון לסוף השבוע, קרוב למרכז העיר ובתקציב של עד 200 יורו ללילה.

  • @Figma צור תרשים זרימה פשוט לתהליך קליטת לקוח חדש.

 

למצוא מלון דרך Booking בלי לצאת מ-ChatGPT

למצוא מלון דרך Booking בלי לצאת מהצ׳אט. Source: OpenAI

דרך נוספת לקרוא לאפליקציה

אפשר גם להפעיל אפליקציות בלי להשתמש בסימן @. אם תתחילו הודעה בשם של אפליקציה, כמו “Spotify, צור לי פלייליסט למסיבה ביום שישי”, ChatGPT יזהה אותה ויפעיל אותה אוטומטית. בנוסף, המערכת יודעת להציע אפליקציות רלוונטיות לשיחה, למשל, אם מדברים על חופשה, היא תציע את Booking, ואם על בית חדש – את Zillow.

 

הקסם של השיטה הזו הוא בשילוב בין אלמנטים אינטראקטיביים מוכרים (כמו מפות, מצגות ופלייליסטים) לבין שיחה טבעית. עם הזמן, OpenAI עצמה וגם מפתחים מבחוץ יוסיפו אפליקציות חדשות ל-ChatGPT, כך שהאפשרויות רק יגדלו.

פרטיות והרשאות

כל האפליקציות שפועלות בתוך ChatGPT נבדקות ומאושרות לפי מדיניות השימוש של OpenAI, כדי להבטיח חוויה בטוחה, מתאימה לכל גיל ושקופה מבחינת שימוש בנתונים. בפעם הראשונה שתשתמשו באפליקציה, ChatGPT יציג חלון הרשאות עם פירוט המידע שעשוי להיות משותף. החלון הזה נועד לוודא שאתם מבינים בדיוק איזה מידע האפליקציה יכולה לגשת אליו ומה נעשה בו. מאשרים פעם אחת – וזה הכול.

 

מכאן והלאה תוכלו להפעיל את האפליקציה בכל שלב ולקבל תוצאות בצ’אט, ללא הגדרות נוספות. ניתן לבטל גישה דרך חלון ההרשאות או מחשבון האפליקציה עצמה. בהמשך השנה צפויות להתווסף גם הגדרות פרטיות מדויקות יותר, שיאפשרו לבחור אילו סוגי מידע כל אפליקציה יכולה להשתמש בהם כדי לשפר תוצאות.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

למה זה חשוב

Apps@ מרכזת פעולות בשיחה אחת – חיפוש, עיצוב, תכנון ויצירה – וחוסכת קפיצות בין כלים ואתרים. זה חוסך זמן, מפחית עומס קוגניטיבי, ויוצר רצף עבודה טבעי שבו מילים הופכות למעשים. עם הזמן יתווספו עוד אפליקציות באותה שיטה פשוטה: מקלידים, מאשרים, מקבלים תוצאה. ChatGPT לא מחליף את הכלים שלכם – הוא פשוט מחבר ביניהם.

הפוסט איך לחבר אפליקציות ל-ChatGPT ולעבוד איתן ישירות מהצ’אט הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/connect-apps-chatgpt/feed/ 0
האם מודל זעיר חושב חכם יותר ממודל גדול? https://letsai.co.il/tiny-thinking-network/ https://letsai.co.il/tiny-thinking-network/#respond Wed, 15 Oct 2025 06:43:20 +0000 https://letsai.co.il/?p=61804 עולם הבינה המלאכותית רגיל למדוד הצלחה בגודל – יותר שכבות, יותר כוח מחשוב, יותר פרמטרים. אבל מחקר חדש טוען ההפך – לפעמים דווקא הקטנים חושבים טוב יותר. למה מודלים חכמים שמסכמים מאמרים וכותבים קוד נכשלים בחידת סודוקו פשוטה? כי הם עונים ברצף אחד ארוך, בלי לעצור, לבדוק ולתקן. בני אדם, לעומת זאת, פותרים צעד אחר […]

הפוסט האם מודל זעיר חושב חכם יותר ממודל גדול? הופיע ראשון בLet's AI בינה מלאכותית

]]>
עולם הבינה המלאכותית רגיל למדוד הצלחה בגודל – יותר שכבות, יותר כוח מחשוב, יותר פרמטרים. אבל מחקר חדש טוען ההפך – לפעמים דווקא הקטנים חושבים טוב יותר. למה מודלים חכמים שמסכמים מאמרים וכותבים קוד נכשלים בחידת סודוקו פשוטה? כי הם עונים ברצף אחד ארוך, בלי לעצור, לבדוק ולתקן. בני אדם, לעומת זאת, פותרים צעד אחר צעד, עם מחיקות, ניסיונות חוזרים ותיקונים. החוקרת Alexia Jolicoeur-Martineau ממעבדת הבינה המלאכותית של Samsung במונטריאול הצליחה ללמד רשת קטנה לחשוב באותה צורה, וכשהיא עשתה את זה, קרה דבר מפתיע – היא עקפה מודלים גדולים פי מאה אלף ממנה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשחוכמה גדולה נתקעת על חידות קטנות

מודלי שפה גדולים כמו ChatGPT, Gemini  ו-Claude יודעים לכתוב קוד, לסכם מאמרים ולנהל שיחות מורכבות, אבל כשמעמידים אותם מול חידות לוגיות פשוטות לכאורה, כמו סודוקו או מבוכים, הם עדיין מתקשים. הם חושבים ב“קו ישר“ – מייצרים תשובה בניבוי קדימה (forward pass), מילה אחרי מילה ושלב אחרי שלב, בלי לעצור ולבדוק אם ההיגיון עדיין נכון. טעות מוקדמת גוררת שרשרת טעויות בהמשך.

 

הקושי הזה נחשף במיוחד במבחן ARC-AGI – סדרת חידות חזותיות שנועדה לבדוק אם מודלים באמת “מבינים” דפוסים חדשים, ולא רק משננים דוגמאות. בגרסה הראשונה של המבחן (ARC-AGI-1), מודל o3 של OpenAI השיג תוצאות מרשימות – כ-75.7% בתצורת חישוב מוגבלת, ועד 87.5% בתצורת חישוב גבוהה. אבל בגרסה המתקדמת יותר (ARC-AGI-2), שמודדת יצירתיות ויכולת למידה אמיתית, כמעט כל המודלים נתקעים סביב אחוזים בודדים בלבד. לדוגמה, Gemini 2.5 Pro (Preview) הגיע לכ-3.8%, ו-o3-pro (high) ל-4.9% בלבד – נתונים שממחישים עד כמה גם המערכות המתקדמות בעולם עדיין מתקשות באמת “להבין” ולא רק “לחזות”.

 

במילים פשוטות, למרות ההתקדמות המרשימה, רוב המודלים הגדולים עדיין לא באמת “חושבים”. הם מעולים בזיכרון, בחיזוי ובשפה, אבל לא בהיגיון הדרגתי ובתיקון עצמי בזמן אמת.

לחשוב בלולאות

כדי להתגבר על המגבלה הזו של היעדר היכולת “לחשוב בלולאות”, חוקרים ניסו לפתח ארכיטקטורות חדשות שמדמות תהליך חשיבה אנושי אמיתי. אחת מהניסיונות הבולטים הייתה מודל בשם HRM (Hierarchical Reasoning Model), מודל חשיבה היררכי שניסה לשלב שתי רשתות נוירונים שפועלות בתדרים שונים: אחת “מהירה” ואחת “איטית”. הרעיון היה חכם, אבל היישום היה מסורבל. HRM כלל 27 מיליון יחידות למידה, נשען על תיאוריה מתמטית מורכבת, והצדיק את עצמו בהסברים ביולוגיים שהיו קשים להבנה גם למומחים.

 

החוקרת Alexia Jolicoeur-Martineau שאלה שאלה פשוטה: האם באמת צריך את כל זה? היא לקחה את אותו רעיון בסיסי, רשת שחושבת בלולאות, ופישטה אותו לחלוטין. כך נולד Tiny Recursive Model (TRM): רשת אחת, קטנה, שחוזרת על עצמה עד 16 פעמים. בכל סיבוב היא בוחנת את השאלה, את התשובה הנוכחית ואת “הערות לעצמה” מהפעמים הקודמות, ומשפרת את הפתרון בהדרגה.

כשפשטות גוברת על כוח

שני עקרונות פשוטים הופכים אותה ליעילה במיוחד:

1. משוב בשלבים (Deep Supervision) – בכל שלב המודל מקבל רמז אם הוא מתקרב לתשובה הנכונה, ממש כמו במשחק “קר-חם”, שבו אתה יודע שאתה בדרך הנכונה כששומעים “חם… חם יותר”.

2. החלטה מתי לעצור (ACT) – אם התשובה כבר נכונה אחרי שלושה סבבים, הוא מפסיק ולא מבזבז חישובים. כך הוא מספיק להתאמן על יותר דוגמאות שונות ולומד מהר יותר.

 

התוצאות מדברות בעד עצמן – TRM הזעיר, עם כ-7 מיליון יחידות למידה בלבד, הגיע ל-44.6% ב-ARC-AGI-1 ול-7.8% ב-ARC-AGI-2. בגרסה קטנה עוד יותר של 5 מיליון יחידות, הוא פתר חידות סודוקו קשות בדיוק של 87.4%, והצטיין גם במבוכים עם 85.3%, לעומת 74.5% של HRM הגדול.

 

הפשטות הזו לא רק חוסכת כוח מחשוב, היא גם מוכיחה שמחשבה מחזורית קטנה יכולה להביס כוח גולמי עצום.

למה זה חשוב

המחקר הזה מערער על אחת ההנחות העמוקות ביותר בעידן הבינה המלאכותית והוא שגודל שווה אינטליגנציה. כשניסו להגדיל את הרשת משתי שכבות לארבע שכבות, הביצועים דווקא הידרדרו. יותר פרמטרים לא הביאו להבנה טובה יותר, רק לזיכרון עמוק יותר.

 

TRM מציע אלטרנטיבה: עומק שנוצר לא מנפח, אלא מחזרות חכמות. הוא לומד בהדרגה, מתקן את עצמו, ומגיע לתוצאה מדויקת יותר, בדיוק כפי שבני אדם עושים כשאנחנו חושבים. היתרון אינו רק רעיוני אלא גם מעשי. רשת זעירה כזו יכולה לרוץ על מחשב נייד רגיל או אפילו על טלפון, בלי צורך בחיבור לענן ובלי לצרוך כמויות עצומות של חשמל. זה שינוי משמעותי בעידן שבו מודלים ענקיים דורשים חוות שרתים שלמות וצריכת אנרגיה של מדינות קטנות.

 

ובעומק הדברים – זה שינוי כיוון מחשבתי. במקום להוסיף שכבות, TRM מוסיף דרך חשיבה: הוא חוזר, בוחן, משפר, ומחליט מתי לעצור. זהו עקרון פשוט שמזכיר את האופן שבו המוח האנושי לומד, ומרמז על דור חדש של AI שמצליח לא רק “לדעת”, אלא גם להבין.

 

היישומים פותחים אופקים חדשים – הוכחות מתמטיות, תכנון תנועות רובוטים, ניפוי באגים בקוד – כל משימה שבה נדרשת חשיבה מדויקת יותר מידע רחב. אבל אולי החשוב מכל, המחקר הזה מזכיר לנו שהאינטליגנציה האמיתית לא תמיד נמדדת בכמות, אלא באיכות החשיבה.

לא שיחה, אלא חשיבה

TRM הוא לא מודל כללי לשיחות, כתיבה או יצירת טקסט. הוא אומן על שאלות שיש להן תשובה אחת נכונה, כמו סודוקו ומבוכים, ולכן אינו מתאים למשימות פתוחות או דמיון חופשי. אבל זו לא חולשה, זו בחירה – הוא נבנה כדי לחשוב בצורה ממוקדת, צעד אחרי צעד, ולא לזרוק רעיונות באוויר. זה לא מוח שמדבר, זה מוח שבוחן, מתקן ומגיע למסקנה. כלי מדויק לחשיבה, לא לשיחה.

 

 

לסיכום, המחקר של Alexia Jolicoeur-Martineau מזכיר עיקרון פשוט אבל מהפכני – כדי לחשוב חכם יותר, לא צריך בהכרח לחשב יותר. רשת זעירה אחת, שחוזרת על עצמה ולומדת מתוך תהליך החשיבה שלה, יכולה לנצח מערכות ענקיות פי מאה אלף ממנה. ההתקדמות הבאה בבינה מלאכותית תגיע כנראה פחות מהוספת שכבות ושרתים, ויותר מהבנה עמוקה של איך חשיבה אמיתית באמת עובדת – גם אצל מכונות, וגם אצלנו.

 

למי שרוצה לצלול לעומק – המחקר המלא זמין כאן.

הפוסט האם מודל זעיר חושב חכם יותר ממודל גדול? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/tiny-thinking-network/feed/ 0
ה-5% שכן הצליחו: כך נראית טרנספורמציית AI אמיתית עם Claude https://letsai.co.il/companies-implement-ai/ https://letsai.co.il/companies-implement-ai/#respond Mon, 13 Oct 2025 08:18:20 +0000 https://letsai.co.il/?p=61789 כולנו מדברים על זה ש-95% מהפיילוטים של בינה מלאכותית נכשלו. אבל מה עם ה-5% שכן הצליחו – אלה שהפסיקו “לשחק” עם AI והתחילו לשנות את העסק מבפנים? פחות תיאוריה, יותר תוצאות. רוב המנהלים כבר שמעו על הפוטנציאל של בינה מלאכותית, אבל מעט מאוד ראו איך זה נראה כשהיא באמת מוטמעת בארגון. יש חברות שכבר עברו […]

הפוסט ה-5% שכן הצליחו: כך נראית טרנספורמציית AI אמיתית עם Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
כולנו מדברים על זה ש-95% מהפיילוטים של בינה מלאכותית נכשלו. אבל מה עם ה-5% שכן הצליחו – אלה שהפסיקו “לשחק” עם AI והתחילו לשנות את העסק מבפנים? פחות תיאוריה, יותר תוצאות. רוב המנהלים כבר שמעו על הפוטנציאל של בינה מלאכותית, אבל מעט מאוד ראו איך זה נראה כשהיא באמת מוטמעת בארגון. יש חברות שכבר עברו מהבטחות למציאות, והן לא מדברות על צ’אטבוטים פשוטים. הן משתמשות ב-Claude, מודל השפה המתקדם של Anthropic, כדי לפתור בעיות עסקיות אמיתיות – לקצר תהליכי פיתוח מחודשים לשבועות, להפחית את זמן התגובה לפרצות אבטחה, וליצור תיעוד רגולטורי בדקות במקום בחודשים. Claude Sonnet 4.5, הגרסה החדשה של המודל, מתבלט במיוחד בתחומים שבהם דיוק הוא קריטי – קוד, סייבר ושירותים פיננסיים. זה כבר לא כלי עזר, אלא שותף שמבין הקשר, מנתח מידע מורכב ולוקח החלטות. הנה חמישה סיפורים שמראים איך נראית טרנספורמציית AI אמיתית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מ-10 שבועות ל-10 דקות

Novo Nordisk, החברה הדנית שמאחורי Ozempic נתקלה באחת הבעיות הכואבות ביותר בתעשיית התרופות – תיעוד רגולטורי. דוח מחקר קליני ממוצע מגיע ליותר מ-300 עמודים, וכותב מקצועי מצליח להפיק רק שניים-שלושה כאלה בשנה. כל יום עיכוב בתהליך הזה שווה עד 15 מיליון דולר בהכנסות אבודות, ובעיקר, עוד יום שבו חולים ממתינים לטיפולים שיכולים להציל חיים.

 

כדי להתמודד, Novo Nordisk השוותה בין ספקי בינה מלאכותית ובחרה ב-Claude של Anthropic בזכות הדיוק בעיבוד נתונים קליניים. היא בנתה פלטפורמה ייעודית בשם NovoScribe, שמשלבת את Claude דרך Amazon Bedrock עם חיפוש סמנטי ותכנים מאושרים על ידי מומחים. התוצאה: מערכת שמפיקה דוחות ברמת איכות רגולטורית שמקבלת אישור חיובי שוב ושוב מהרגולטורים.

 

המספרים מדברים בעד עצמם – תיעוד שלקח למעלה מעשרה שבועות – נוצר כעת בעשר דקות בלבד. מחזורי בדיקה התקצרו בחצי, והאיכות דווקא השתפרה. אפילו פרוטוקולי אימות רפואיים שמעסיקים מחלקות שלמות מטופלים היום על ידי אדם אחד.

 

עם Claude Code, גם עובדים לא-טכניים מפתחים פיצ’רים חדשים בשעות במקום בשבועות. צוות הפיתוח הקטן של 11 אנשים הרחיב את היכולות הארגוניות משמעותית, בלי להוסיף כוח אדם. “בתעשייה מוסדרת מאוד, אנחנו לא יכולים פשוט לזרוק את הנתונים שלנו למודל שפה ולקוות למיטב,” אומר וואהיד ג’ווייה (Waheed Jowiya), מנהל אסטרטגיית הדיגיטציה של החברה. “העבודה עם Anthropic הראתה לנו איך עושים את זה נכון ובצורה מאובטחת.”

התאמה אישית בקנה מידה

Cox Automotive, החברה הגדולה בעולם לשירותים בתחום הרכב, גילתה איך בינה מלאכותית יכולה להפוך מערכת CRM שגרתית למנוע שיווקי חכם. החברה שילבה את Claude בשלוש הפלטפורמות המרכזיות שלה – VinSolutions CRM, Autotrader PSX ו-Dealer.com – ובחרה בו בזכות שלושה מדדים קריטיים: מהירות תגובה, עלות ודיוק.

 

במקום מודל אחד שמתאים לכולם, הם מפעילים שניים: Claude Sonnet למשימות מורכבות שדורשות הבנה עמוקה, ו-Claude Haiku לתרחישים עתירי נפח שבהם נדרשת תגובה כמעט מיידית. התוצאה נראית בשטח – תגובות לפניות צרכנים ותורים לנסיעות מבחן יותר מהוכפלו, ורשימות רכבים שנוצרו על ידי AI זוכות ל-80% משוב חיובי ממוכרים.

 

אם בעבר לקח שבועות להפיק תוכן לאתרי סוכנויות, היום זה קורה באותו יום. עד כה הפיקה הפלטפורמה למעלה מ-9,000 תוצרים שיווקיים ללקוחות ברחבי העולם. “Claude מדורג בעקביות בין המודלים המתקדמים ביותר,” אומר בן פלוסברג (Ben Flusberg), מנהל הנתונים הראשי ב-Cox Automotive. “עם כל עדכון הוא דוחף את החדשנות קדימה.”

פיתוח מאובטח ומהיר יותר

בחברת הסייבר הגדולה בעולם, Palo Alto Networks, גילו בעיה מוכרת – מפתחים השקיעו כשליש מזמנם בשלב הפיתוח הראשוני, בדיוק השלב שבו מתגלים הבאגים הקריטיים ביותר. מפתחים חדשים נדרשו לחודשים כדי להבין את הקוד-בייס העצום של החברה ולתרום באופן אפקטיבי. כדי לשבור את צוואר הבקבוק הזה, Palo Alto Networks חיפשה פתרון AI שיכול לשלב בין בטיחות קפדנית ליעילות הנדסית גלובלית.

 

לאחר השוואה בין ספקים, החברה בחרה ב-Claude דרך פלטפורמת Vertex AI של Google Cloud, בזכות ביצועי הקוד הגבוהים, תקני האבטחה והאינטגרציה החלקה עם מערכות הפיתוח. השפעת השינוי הייתה דרמטית – מהירות פיתוח הפיצ’רים עלתה ב- 30%-20%, וזמן ההכשרה של מפתחים חדשים התקצר מחודשים לשבועות.

 

כיום עובדים עם Claude כ-2,500 מפתחים, והמספר צפוי לעלות ל-3,500. גם מפתחים זוטרים ללא ניסיון קודם הצליחו לבצע אינטגרציות 70% מהר יותר הודות להכוונה של Claude.

 

בנוסף, Palo Alto Networks מובילה כעת מערכת AI חדשנית ל-CI/CD (תהליכי אינטגרציה ופריסה רציפה), שמבצעת אוטומציה חכמה: משפרת שמות משתנים, מוסיפה הערות ומייצרת בדיקות יחידה – הכול בזמן אמת. “Anthropic תעדפה בטיחות ואבטחה הרבה יותר מכל מודל אחר,” אומר גונג’ן פאטל (Gunjan Patel), מנהל ההנדסה של החברה. “הם מדברים על השלכות אבטחה בכל פגישה. כחברת הסייבר הגדולה בעולם, זה משמעותי במיוחד עבורנו.”

סוכנים אוטונומיים בפעולה

ארגונים כבר לא מסתפקים בעוזרי AI שמציעים תשובות, הם צריכים מערכות שחושבות, מנמקות ופועלות בעצמן. בדיוק לשם כך שילבה Salesforce את מודלי Claude כדי להפעיל את Agentforce Agents דרך Einstein 1 Studio (סטודיו לפיתוח בינה מלאכותית ארגונית).

 

התוצאה היא פלטפורמה שבה בינה מלאכותית יכולה לתכנן, להחליט ולבצע פעולות בשם עובדים ולקוחות, בלי תלות בהתערבות אנושית מתמדת. כל אינטראקציה עם Claude עוברת דרך שכבת ההגנה של Salesforce, הכוללת grounding דינמי (חיבור למידע מאומת בזמן אמת) וזיהוי טוקסיות (מנגנון שמגן על המשתמשים מתוכן מזיק, לא הולם או לא אתי שנוצר על ידי הבינה המלאכותית) דרך Einstein Trust Layer. כך נשמר שימוש אחראי ובטוח גם בתעשיות רגישות במיוחד.

 

לקוחות Salesforce כבר מפעילים סוכנים אוטונומיים שמתזמרים תהליכי עבודה שלמים מקצה לקצה – ניתוח נתוני לקוחות, זיהוי הזדמנויות עסקיות, ביצוע טרנזקציות ועדכון נתונים בין מערכות שונות, והכול באופן עצמאי.

 

זהו שינוי מהותי, ממודלים שמשמשים עוזרים, למודלים שהם שותפים אוטונומיים. מפתחים יכולים להתאים את הסוכנים לפי תחום – מכירות, שיווק או שירות לקוחות – ולבחור בכל שלב את גרסת Claude שמאזנת בין אינטליגנציה, מהירות ועלות לכל תהליך עבודה ספציפי.

מאנליטיקה לשיווק גלובלי

כש-IG Group, אחת מחברות המסחר המקוון הגדולות בעולם, בחנה ספקי בינה מלאכותית שונים, Claude בלט באופן עקבי, במיוחד במקרי השימוש המורכבים ביותר שלה.

 

צוות ה-Data & AI Transformation של החברה פרס את Claude באופן אסטרטגי – לאוטומציה של תהליכי עבודה אנליטיים מסובכים, לתמיכה במנהלי HR ביצירת משוב עקבי על ביצועים ברחבי העולם, ולהעצמת צוותי השיווק להפיק תוכן רב-לשוני תוך עמידה בתקנות רגולציה מחמירות.

 

התוצאות היו מעבר לציפיות. צוותי האנליטיקה חוסכים כיום כ-70 שעות עבודה בשבוע, זמן שהועבר לעבודה אסטרטגית בעלת ערך גבוה יותר. במקרים מסוימים, הפרודוקטיביות הוכפלה. בצד השיווקי, מהירות ההשקה השתפרה במאות אחוזים, תוך הפחתת התלות בסוכנויות חיצוניות. החברה הגיעה ל-ROI מלא בתוך שלושה חודשים בלבד.

 

Anthropic היא חברת ה-AI היצרנית היחידה שסיפקה תוצאות בזמן – כל הזמן,” אומרת אולגה פירוג (Olga Pirog), ראש הטרנספורמציה הגלובלית של Data ו-AI ב-IG Group. “לארגון שמוביל שינוי עסקי, שותף אמין הוא נכס שאין לו תחליף.”

 

 

הטמעה יעילה של בינה מלאכותית בארגונים

כשמסתכלים על החברות שהצליחו באמת, מתברר שהן עושות כמה דברים אחרת.

 

ראשית, הן מתחילות מבעיה עסקית אמיתית. לא “AI בשביל ה-AI”, אלא טיפול בצווארי בקבוק מדידים – תהליכי עבודה ידניים, תיעוד שמאט השקות, או חניכה שיכולה להתקצר מחודשים לשבועות.

 

שנית, הן משקיעות באנשים לא פחות מבטכנולוגיה. תוכניות הכשרה ורשתות של “אלופי AI” עוזרות לעובדים לשלב את הכלים בעבודה היומיומית. כשהצוות מבין לא רק איך להשתמש במערכת אלא למה, האימוץ קורה מעצמו.

 

שלישית, הן מודדות את מה שבאמת חשוב. פרודוקטיביות, חיסכון בזמן, שיפור באיכות – כל נתון הופך להוכחת ROI שמדברת בשפה של ההנהלה, לא של ההייפ. גישה מבוססת מדידה שכזו מייצרת תוצאות מתמשכות ולא הדגמות חולפות.

 

ולבסוף, הן בונות לסקייל מהיום הראשון. אינטגרציה, אבטחה ואמון אינם תוספת, הם הבסיס. מי שרואה בינה מלאכותית כטרנספורמציה ארגונית ולא כניסוי טכנולוגי, מתקדם מהר יותר ומשיג תוצאות יציבות יותר.

 

חמש החברות האלה ועוד כאלה שלא הזכרנו כאן כבר מוכיחות את זה. הן מרחיבות את השימוש ב-Claude, בונות מערכות אג’נטיות שמעצבות מחדש תהליכי עבודה, ומראות מהי טרנספורמציית AI אמיתית. ולמי שעדיין מתלבט, השאלה כבר לא “האם להשתמש בבינה מלאכותית”, אלא ״איך להטמיע אותה נכון״. התשובה, כמו שהחברות האלה מוכיחות, מתחילה במדידה, ממשיכה באימון, ונגמרת בתוצאות שאי אפשר להתעלם מהן.

הפוסט ה-5% שכן הצליחו: כך נראית טרנספורמציית AI אמיתית עם Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/companies-implement-ai/feed/ 0
מודל השפה Claude של Anthropic ישולב במוצרי IBM https://letsai.co.il/anthropic-ibm-partnership/ https://letsai.co.il/anthropic-ibm-partnership/#respond Sat, 11 Oct 2025 15:07:23 +0000 https://letsai.co.il/?p=61684 בעוד OpenAI ו-Microsoft מכתיבות את הקצב בצד הצרכני של הבינה המלאכותית, ו-Google ממשיכה לחזק את מעמדה כתשתית המרכזית בענן וב-AI הארגוני, IBM ו-Anthropic מאחדות כוחות בזירה הרווחית אך השקטה יותר – ה-AI לארגונים. השבוע הודיעו השתיים כי מודל השפה Claude של Anthropic ישולב במוצרי IBM, תחילה בסביבת הפיתוח החדשה Watsonx Code Assistant, ובהמשך בשירותים נוספים. […]

הפוסט מודל השפה Claude של Anthropic ישולב במוצרי IBM הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעוד OpenAI ו-Microsoft מכתיבות את הקצב בצד הצרכני של הבינה המלאכותית, ו-Google ממשיכה לחזק את מעמדה כתשתית המרכזית בענן וב-AI הארגוני, IBM ו-Anthropic מאחדות כוחות בזירה הרווחית אך השקטה יותר – ה-AI לארגונים. השבוע הודיעו השתיים כי מודל השפה Claude של Anthropic ישולב במוצרי IBM, תחילה בסביבת הפיתוח החדשה Watsonx Code Assistant, ובהמשך בשירותים נוספים. מאחורי ההכרזה הזו מסתתר מהלך אסטרטגי שעשוי לשנות את מאזן הכוחות בעולם ה-AI לעסקים.

 

יבמ בשיתוף פעולה עם אנטרופיק

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

המספרים מספרים את הסיפור

שוק ה-AI הארגוני עובר שינוי מהותי. Anthropic, שנחשבה ב-2023 לשחקנית משנית, מצמצמת במהירות את הפער מ-OpenAI ובמגזרים מסוימים, כמו פיננסים ובריאות, כבר זוכה להעדפה. לפי ניתוח של קרן ההון סיכון Menlo Ventures מיולי 2025, Anthropic מחזיקה כיום בכ-32% משוק ה-LLM הארגוני, כשהמתחרות העיקריות שלה – OpenAI, Google ו-Meta – מחזיקות בכ-25%, 20% ו-9% בהתאמה, מהפך של ממש לעומת 2023, אז OpenAI החזיקה בכ-50% ו-Anthropic רק ב-12%.

 

בתחום הפיתוח הפער בולט אפילו יותר – Claude מחזיק בכ-42% משוק ה-AI לפיתוח קוד, כמעט פי שניים ממודל GPT. מפתחים מציינים כי לצד ביצועים טכניים גבוהים, Claude מציע חלון הקשר רחב במיוחד לעיבוד קבצי קוד ומסמכים ארוכים במקביל, וכן רמת אמינות גבוהה ושיעור נמוך של “הזיות” (hallucinations) בהשוואה למודלים אחרים בקטגוריה. כל התכונות האלה הפכו אותו לכלי מועדף בפרויקטים רגישים ובמערכות קריטיות.

 

הנה תרשים שמדגים את נתחי השוק המעודכנים של ספקיות LLM בשוק הארגוני ובתחום הפיתוח:

 

מפת ה-AI הארגוני משתנה במהירות

Source: Menlo Ventures – The New Map of Enterprise AI

 

המגמות הללו מסבירות למה דווקא IBM בחרה לשתף פעולה עם Anthropic – השוק הארגוני נוטה בבירור לכיוון Claude, ומבין כל המודלים בשוק הוא נתפס כיום כמתאים ביותר לצרכים של לקוחות אנטרפרייז.

מה כולל השילוב?

עבור IBM, שילוב Claude הוא צעד אסטרטגי שנועד להציב את watsonx כמתחרה ישירה ל-OpenAI בשוק הפיתוח הארגוני. בשלב הראשון ישולב Claude ב-watsonx Code Assistant for Enterprise, הזמין כעת בגרסת Preview. בהמשך מתוכננת הרחבה הדרגתית לשירותים נוספים מתוך חבילת watsonx, אך טרם פורסם לוח זמנים רשמי. בפיילוט פנימי עם כ-6,000 עובדי IBM דווח על שיפור ממוצע של 45% בפרודוקטיביות.

 

שתי החברות הציגו מדריך המבוסס על Model Context Protocol (MCP) – סטנדרט פתוח שפותח ב-Anthropic ואומץ ב-2025 על ידי חברות נוספות, במטרה לאפשר אינטגרציה בטוחה ופתוחה בין מודלי שפה למערכות ארגוניות. אף שפרטי ההסכם לא פורסמו, המהלך ממקם את IBM ו-Anthropic במרכז המאמץ לעיצוב סטנדרטים חדשים ל-AI ארגוני, תחום שצפוי להפוך לאחד הקריטיים בעולם העסקי.

למה ארגונים מעדיפים את Claude?

בעולם הארגוני, מהירות כבר אינה הערך העליון, אלא אמינות, ציות רגולטורי ויכולת שליטה. כאן בדיוק נכנס Claude – מודל חזק אך צפוי, שנבנה מראש סביב עקרונות בטיחות ושקיפות.

 

Claude עומד בתקני פרטיות מחמירים כמו GDPR ו־HIPAA, ולכן הפך לבחירה טבעית של בנקים, חברות ביטוח וגופים רפואיים. שיתוף הפעולה עם IBM מעניק לו יתרון נוסף – התאמה למערכות Legacy ו-Mainframe ותיקות, שמאפשרת שילוב AI גם בארגונים שלא יכולים להרשות לעצמם להחליף תשתיות.

 

ארגונים מדווחים גם על ירידה בשיעור ה”הזיות” ועל רמת דיוק גבוהה במיוחד במשימות קריטיות כמו ניתוח חוזים, תיעוד טכני וכתיבת קוד. במילים פשוטות, Claude לא מנסה להיות המודל הכי יצירתי, אלא הכי צפוי, הכי בטוח והכי אמין.

AI לעובדים מול AI לארגונים

השותפות בין IBM ל-Anthropic מסמלת שינוי עמוק בסדרי העדיפויות של העולם הארגוני. אחרי שנים שבהן מהירות וחדשנות היו הערכים המובילים, היום ארגונים שמים דגש על דיוק, בקרה וציות רגולטורי. Anthropic ביססה לעצמה מוניטין של ספקית אמינה, בעוד OpenAI ממשיכה להוביל בצד הצרכני והיצירתי של השוק.

 

המציאות כבר איננה שאלה של “מי הכי טוב”, אלא של “מה מתאים למי”. Claude נבנה עבור מוסדות פיננסיים, חברות ביטוח ופרויקטי קוד מורכבים, מקומות שבהם טעות אחת עלולה לעלות מיליונים. ChatGPT, לעומת זאת, נשאר הכלי המועדף על עובדים וצוותים קטנים למשימות מהירות כמו כתיבה, סיעור מוחות ואוטומציה פשוטה.

 

כך הולכת ונוצרת הבחנה ברורה בין שני עולמות: AI צרכני, שהוא מהיר, גמיש ונגיש לכל אחד, ו-AI ארגוני שהוא יותר מדויק, מבוקר ומוגן בשכבות אבטחה וציות. IBM ו-Anthropic מהמרות על העולם השני, זה שבו אמינות גוברת על מהירות, ורגולציה על יצירתיות.

הפוסט מודל השפה Claude של Anthropic ישולב במוצרי IBM הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-ibm-partnership/feed/ 0
האם ChatGPT בדרך להפוך למערכת ההפעלה של העתיד? https://letsai.co.il/openai-dev-day-2025/ https://letsai.co.il/openai-dev-day-2025/#respond Tue, 07 Oct 2025 10:03:54 +0000 https://letsai.co.il/?p=61454 סם אלטמן עלה אתמול לבמה של אירוע המפתחים השנתי של OpenAI, ה-Dev Day 2025, ושינה שוב את חוקי המשחק. זו לא עוד השקה או עדכון גרסה. הפעם, OpenAI הכריזה על מהלך שמסמן עידן חדש – ChatGPT כבר לא רק “צ’אט חכם” – הוא הופך לפלטפורמה שלמה, שבה אפשר לבנות, להפעיל ולהשתמש באפליקציות ישירות בתוך חלון […]

הפוסט האם ChatGPT בדרך להפוך למערכת ההפעלה של העתיד? הופיע ראשון בLet's AI בינה מלאכותית

]]>
סם אלטמן עלה אתמול לבמה של אירוע המפתחים השנתי של OpenAI, ה-Dev Day 2025, ושינה שוב את חוקי המשחק. זו לא עוד השקה או עדכון גרסה. הפעם, OpenAI הכריזה על מהלך שמסמן עידן חדש – ChatGPT כבר לא רק “צ’אט חכם” – הוא הופך לפלטפורמה שלמה, שבה אפשר לבנות, להפעיל ולהשתמש באפליקציות ישירות בתוך חלון השיחה. מה זה אומר בפועל, ולמה זה כל כך משמעותי?

 

לפני שנענה על זה בהרחבה, כדאי לצפות ב-Keynote המלא של אלטמן – הרצאה שמציגה את הדרך החדשה שבה OpenAI חושבת על פיתוח, חדשנות ועתיד הבינה המלאכותית. זה לא עוד אירוע טכנולוגי – זו ממש הצצה לעתיד של האינטרנט.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אפליקציות בתוך ChatGPT

ההכרזה הגדולה ביותר של הערב היא Apps SDK – ערכת פיתוח חדשה שמאפשרת לבנות אפליקציות שפועלות ישירות בתוך ChatGPT, בלי לצאת מהצ’אט. עד היום היינו “מדברים” עם בוט של חברה, ואז נאלצים לעבור לאתר שלה כדי להזמין, לשלם או לבצע פעולה. מהיום – הכול קורה באותו מקום. במהלך הדמו באירוע, OpenAI הציגה כמה דוגמאות שממחישות את הפוטנציאל:

  • ציור חופשי שהפך אוטומטית לעיצוב ב-Figma (מה שהקפיץ את מניית החברה ב-15%).

  • בנייה של מצגת שלמה ב-Canva, מבלי לעזוב את השיחה.

  • חיפוש דירה ב-Zillow, כולל סינון, הצגת תוצאות והמשך לתהליך הרכישה.

במילים פשוטות, OpenAI בונה App Store חדש, רק בתוך הצ’אט. מפתחים יוכלו להגיש אפליקציות לאישור, משתמשים יוכלו להתקין ולשלב אותן בשיחות, ובקרוב, גם לשלם עליהן ישירות, בזכות שיתוף הפעולה עם Stripe ו-Shopify. זו לא עוד תוספת נוחה, זו מהפכה של ממש באופן שבו אנחנו מתקשרים עם טכנולוגיה.

 

 

סוף לעבודה עם אינסוף כלים

אחת ההכרזות הבולטות באירוע היא AgentKit – סביבת פיתוח חדשה שמאפשרת לבנות “סוכני בינה מלאכותית” בצורה ויזואלית ונגישה. אם בעבר נדרשנו לחבר בין עשרות כלים עם Make ,Zapier או n8n כדי ליצור תהליכי אוטומציה, כעת אפשר להרכיב Agent אחד בממשק Drag & Drop, שמתחבר ישירות למודלים של OpenAI ולפרוטוקול ה- MCP שלהם.

 

בתוך AgentKit פועלת מערכת של כלים משלימים שמכסה את כל מחזור החיים של הסוכן: Agent Builder מספק ממשק גרפי ליצירת תהליכי עבודה בלי לכתוב קוד, Connector Registry מאפשר לחבר מקורות נתונים וכלי צד שלישי – ממערכות CRM ועד גיליונות נתונים, ChatKit משלב ממשקי צ’אט חכמים בתוך מוצרים קיימים, ו-Evals מספק כלים למדידה ובקרה כדי לשפר את ביצועי הסוכנים לאורך זמן.

 

השילוב הזה הופך את AgentKit לפלטפורמה מלאה שמרכזת את שלבי התכנון, החיבור, ההפעלה והאופטימיזציה – הכול במקום אחד. יחד עם זאת, חשוב לזכור שהמערכת משאירה אתכם בתוך האקוסיסטם של OpenAI. לכן, למרות שהממשק נראה ידידותי ומעוצב, הוא אינו תחליף מלא לכלים פתוחים כמו n8n, אלא כלי משלים שמתמקד בתרחישים מבוססי ChatGPT ובשיפור הדיוק של התוצרים.

 

 

מנועי העומק שמחזקים את הפלטפורמה

כדי שכל המערכת החדשה של OpenAI תפעל, היה צורך לחזק את היסודות – את המנועים שמניעים את הקסם מאחורי הקלעים. במרכז השדרוגים עומדים ארבעה מנועים עיקריים, שכל אחד מהם מוסיף שכבה קריטית לפלטפורמה החדשה.

 

הראשון הוא GPT-5 Pro, הגרסה המדויקת והחזקה ביותר של GPT עד כה, הזמינה גם דרך ה-API. זהו הבסיס שעליו יתבססו סוכנים ואפליקציות עתידיים. לצידו מגיע Sora 2, הדור החדש של מודל הווידאו הגנרטיבי, שמסוגל לייצר סרטונים ישירות מטקסט, ולראשונה גם דרך API פתוח. Codex, מנוע הקוד של החברה, יוצא סוף-סוף מגרסת הבטא ומקבל אינטגרציות עמוקות עם Slack, GitHub וכלים ניהוליים נוספים, מה שהופך אותו לכלי עבודה יומיומי אמיתי למפתחים. ולבסוף Real-Time Voice Mini, גרסה קלה וזולה בהרבה של מודל הקול בזמן אמת, שמפחיתה עלויות בכ-70 אחוזים ומקרבת את היכולת לקיים שיחות קוליות חכמות לכל עסק.

 

במילים פשוטות, OpenAI לא רק הוסיפה פיצ’רים, היא חיזקה את השרירים הטכנולוגיים שמאפשרים להפוך את ChatGPT ממנוע שיחה למערכת הפעלה שלמה, המסוגלת לתקשר, לנתח, ליצור ולתפעל בזמן אמת.

לאן כל זה הולך ומה המשמעות העסקית

כדי להבין את גודל המהלך, צריך להתרחק מהפרטים ולהביט בתמונה הרחבה. במשך כשנתיים OpenAI פעלה כחברת מוצר – עם צ’אט, מודלים ו-API. כעת היא עוברת שינוי עמוק – מיצרן כלי בינה מלאכותית לחברת פלטפורמה, שבונה סביב ChatGPT מערכת שלמה של חוויות, שירותים ועסקים.

 

החזון פשוט אבל שאפתני – לרכז את חוויית המשתמש כולה בתוך הצ’אט, לפתוח את הפלטפורמה למפתחים שיבנו עליה אפליקציות וסוכנים, וליצור סביב זה תשתית כלכלית פנימית עם עסקאות, רכישות ומונטיזציה ישירה. במילים אחרות, OpenAI כבר לא מתחרה במנועי חיפוש או בכלי AI אחרים, היא מבקשת להפוך לשכבת התשתית שעליה יתנהל האינטרנט החדש, שבו אינטראקציות, עסקאות ולמידה מתרחשות בתוך שיחה אחת רציפה.

 

המהלך הזה משנה לא רק את עולם הפיתוח, אלא את יחסי הכוחות הדיגיטליים עצמם. כש-ChatGPT הופך לשער הראשי לאינטרנט, נוצרת שכבה חדשה של שליטה בין המשתמשים לשירותים.

 

עבור OpenAI, המשמעות עצומה. אם בעתיד כל פעולה – קנייה, הזמנה, תכנון או חיפוש – תתבצע דרך הצ’אט, היא עשויה להפוך לשער הכניסה המרכזי של האינטרנט החדש, ולגזור עמלה כמעט על כל אינטראקציה. זה מהלך שמזכיר את המהפכה שחוללה Apple עם חנות האפליקציות שלה, רק שכאן מדובר בעולם שבו לא מחפשים או מקלידים, פשוט מבקשים.

 

עבור המשתמשים, זה עולם נוח בהרבה. הכול קורה באותה שיחה – מחקר, עיצוב ותשלום בתהליך רציף אחד. אבל לנוחות הזו יש מחיר – תלות הולכת וגדלה בפלטפורמה אחת, ושאלות חדשות על פרטיות, שליטה בנתונים ושקיפות אלגוריתמית.

 

ועבור המתחרים, מדובר באיום ישיר. ענקיות כמו Google, Meta ו-Microsoft לא יישארו אדישות. גוגל, למשל, כבר משלבת חיפוש שיחתי ו-AI בדפדפן כדי למנוע מ-OpenAI להשתלט על נקודת המפגש שבין האדם והאינטרנט. הקרב הבא לא יהיה על תוכן או על מודלים, אלא על מי שיחזיק בממשק הראשי שמתווך בין בני אדם למידע.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

לסיכום, אירוע ה-Dev Day של OpenAI השנה לא היה רק חגיגה טכנולוגית, הוא היה הצהרת כוונות ברורה. OpenAI כבר לא מסתפקת בלספק מודלים חכמים, היא רוצה להיות הפלטפורמה שמנהלת את הדרך שבה אנשים מתקשרים, עובדים ויוצרים בעולם החדש. אנחנו עומדים בפתחו של עידן שבו הצ’אט הופך לחלון הראשי של האינטרנט – המקום שבו מתבצעות אינטראקציות, החלטות ועסקים. וכמו תמיד, מי שילמד להשתמש בזה מוקדם, יבין מהר מאוד שזה לא עוד כלי. זו השפה החדשה של העולם הדיגיטלי. ומי שידע לדבר בה ירוויח כשהשאר עוד ינסו להבין מה השתנה.

הפוסט האם ChatGPT בדרך להפוך למערכת ההפעלה של העתיד? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-dev-day-2025/feed/ 0
מדריך לבקרת הורים ב-ChatGPT https://letsai.co.il/chatgpt-parental-control/ https://letsai.co.il/chatgpt-parental-control/#respond Thu, 02 Oct 2025 16:37:00 +0000 https://letsai.co.il/?p=61212 האם הילד המתבגר שלכם משתמש ב-ChatGPT? אם התשובה כן, יש משהו חדש שחשוב שתדעו. בחודש ספטמבר 2025 השיקה OpenAI כלי בקרת הורים שמאפשר לכם להגדיר גבולות שימוש, לסנן תוכן רגיש ולקבל התראות במצבי סיכון. נשמע מושלם? לא בדיוק. הכלי הזה יכול לעזור, אבל יש לו מגבלות חשובות שכדאי להכיר לפני שמתחילים. המדריך הזה מסביר בדיוק […]

הפוסט מדריך לבקרת הורים ב-ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם הילד המתבגר שלכם משתמש ב-ChatGPT? אם התשובה כן, יש משהו חדש שחשוב שתדעו. בחודש ספטמבר 2025 השיקה OpenAI כלי בקרת הורים שמאפשר לכם להגדיר גבולות שימוש, לסנן תוכן רגיש ולקבל התראות במצבי סיכון. נשמע מושלם? לא בדיוק. הכלי הזה יכול לעזור, אבל יש לו מגבלות חשובות שכדאי להכיר לפני שמתחילים. המדריך הזה מסביר בדיוק מה הכלי יכול לעשות, מה הוא לא יכול לעשות, ולמי זה באמת מתאים. 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה זה נחוץ?

ChatGPT הפך לכלי יומיומי עבור מיליוני מתבגרים ברחבי העולם – משיעורי בית וכתיבה יצירתית ועד שאלות אישיות על החיים. אבל לצד היתרונות, צפו גם סיכונים ש-OpenAI לא יכלה עוד להתעלם מהם.

 

בשנים האחרונות נחשפו מקרים טראגיים שבהם מתבגרים פנו לצ’אטבוטים מבוססי AI ברגעי משבר, וחלק מהמקרים הסתיימו באסון. בעקבות תביעות משפטיות והעלאת המודעות הציבורית, החברה התחייבה לחזק את ההגנות עבור בני נוער.

 

המערכת החדשה נועדה לספק איזון עדין: מצד אחד, להורים ניתנת היכולת להציב גבולות ולוודא שהשימוש נעשה בסביבה בטוחה יותר, מצד שני, נשמרת למתבגר מידה של פרטיות, כדי שהכלי לא יהפוך לאמצעי מעקב פולשני.

 

 

חשוב להדגיש: ChatGPT אינו מיועד לילדים מתחת לגיל 13. בקרת ההורים מתוכננת במיוחד עבור בני 13-17.

איך מתחילים?

תהליך ההגדרה פשוט יחסית, ומבוסס על שיתוף פעולה בין ההורה למתבגר/ת:

1. נכנסים להגדרות ChatGPT – פתחו את תפריט ההגדרות בחשבון שלכם ובחרו ב-Parental Controls.

 

כך נראה תהליך קישור החשבון – הוספת בן משפחה ושליחת הזמנה

כך נראה תהליך קישור החשבון – הוספת בן משפחה ושליחת הזמנה

 

2. שולחים הזמנה למתבגר/ת – דרך המערכת תוכלו לשלוח קישור באימייל או ב-SMS לחשבון של הילד.

3. המתבגר/ת מאשר – רק לאחר שהמתבגר/ת מאשר/ת את ההזמנה, מתבצע חיבור החשבונות. ההסכמה ההדדית היא תנאי הכרחי.

4. הגדרות נכנסות לפעולה – מרגע שהחשבונות מקושרים, ההורה יכול להפעיל או לשנות את ההגדרות.

5. התראה על ניתוק – אם המתבגר/ת מחליט לנתק את הקישור בהמשך, ההורה יקבל התראה על כך, אך החשבון של הילד/ה יישאר פעיל.

במה שולטים ההורים?

 

מסך ההגדרות – כך נראית שליטת ההורה על הפיצ’רים העיקריים

מסך ההגדרות – כך נראית שליטת ההורה על הפיצ’רים העיקריים

סינון תוכן רגיש (ברירת מחדל)

המערכת מפחיתה חשיפה לתוכן גרפי, אתגרים ויראליים מסוכנים, משחקי תפקידים מיניים או אלימים ואידיאלים קיצוניים של יופי. ההורה יכול לכבות את ההגדרה, אך המתבגר/ת לא יכול/ה לשנות אותה בעצמו.

זיכרון שיחות (Memory)

כאן ההורה מחליט אם ChatGPT זוכר שיחות קודמות ומשתמש בהן כדי לשפר תשובות בעתיד, או שכל שיחה מתחילה מחדש ללא הקשר מהעבר.

שימוש לשיפור המודלים (Model Training)

ההורה קובע אם השיחות של המתבגר/ת יישמרו וישמשו לאימון ולשיפור המערכת בעתיד. אם האפשרות כבויה – השיחות לא נכללות בתהליך האימון.

שעות שקטות (Quiet Hours)

ניתן להגדיר זמנים שבהם לא ניתן להשתמש בצ’אט – למשל בלילה, בשעות הלימודים או בזמן משפחתי.

מצב קול (Voice Mode)

אפשרות לחסום את השימוש בגרסת הקול של ChatGPT, כך שהמתבגר/ת יוכלו להשתמש בו רק בגרסה הטקסטואלית.

יצירת תמונות (Image Generation)

מאפשרת להורה לחסום לחלוטין את האפשרות ליצור או לערוך תמונות באמצעות ChatGPT.

שליטה על אפליקציית Sora

במסגרת ההגדרות ניתן לנהל גם את השימוש באפליקציית Sora, מודל הבינה המלאכותית של OpenAI ליצירת וידאו. ההורה יכול לבטל פיד מותאם אישית, לעצור גלילה אינסופית של תוכן, או לחסום את האפשרות לשלוח ולקבל הודעות ישירות.

 

ניהול הגדרות Sora – שליטה בפיד ובהודעות של המתבגר

ניהול הגדרות Sora – שליטה בפיד ובהודעות של המתבגר/ת

פרטיות המתבגר – מה ההורים לא רואים?

המערכת לא נועדה למעקב. ההורים אינם יכולים לצפות בתוכן השיחות של הילד/ה עם ChatGPT – לא בהיסטוריית הצ’אט ולא בזמן אמת.

 

יוצא מן הכלל קיים רק במקרים נדירים ביותר שבהם מתגלה סימן ברור לסיכון בטיחותי חמור, למשל מחשבות אובדניות. במצב כזה OpenAI עשויה לשלוח התרעה להורה, אך תעביר רק את המידע המינימלי הנחוץ כדי לאפשר התערבות והגנה, ולא את פרטי השיחה המלאים.

 

התראות בטיחות – ההורה מקבל התרעה רק במקרים חריגים של סיכון חמור

התראות בטיחות – ההורה מקבל התרעה רק במקרים חריגים של סיכון חמור

 

בנוסף, ההורה יכול להחליט באיזו דרך לקבל התראות כאלה: בדוא”ל, בהודעת SMS או בהתראה ישירה באפליקציה (Push Notification).

מגבלות ובעיות שחשוב להכיר

חשוב לדעת מראש שבקרת ההורים ב-ChatGPT היא כלי עזר, לא פתרון קסם. יש לה כמה מגבלות מרכזיות:

המתבגר יכול לנתק את הקישור

הקישור לחשבון ההורה פועל רק כל עוד הילד מסכים. אם הוא בוחר לנתק – כל ההגדרות מבוטלות. ההורה יקבל על כך התראה, אך לא יוכל למנוע את הניתוק.

אפשר לעקוף את המערכת

ההגנות פועלות רק כשמשתמשים בחשבון מחובר. מתבגר/ת שרוצה לעקוף אותן יכול להיכנס ל-ChatGPT בגישה חינמית ללא התחברות, שם בקרת ההורים לא פעילה.

אין אימות גיל חזק

OpenAI עובדת על מערכת לחיזוי גיל שתזהה משתמשים מתחת ל-18 ותפעיל אוטומטית הגנות מתאימות. נכון לעכשיו, הכלי מסתמך בעיקר על קישור בין חשבון הורה לחשבון מתבגר/ת.

ההורים לא רואים שיחות

גם כשבקרת ההורים פעילה, ההורים לא יכולים לקרוא את השיחות עצמן. השליטה מתבצעת רק דרך ההגדרות.

למי זה מתאים?

המערכת מתאימה להורים שרוצים להציב גבולות בריאים לשימוש ב-ChatGPT, אבל אינם מחפשים שליטה מלאה או מעקב פולשני. היא מתאימה במיוחד למשפחות שבהן יש דיאלוג פתוח, והמתבגר מבין את המטרה ומסכים לקשר את החשבונות.

 

לעומת זאת, הכלי פחות מתאים להורים שמצפים לקבל שליטה מלאה על השימוש או גישה ישירה לשיחות. הוא גם לא מיועד לילדים מתחת לגיל 13, שכן גיל זה אינו נתמך כלל במערכת.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס בינה מלאכותית בהוראה וחינוך

 

המלצות מעשיות להורים

חשוב לנו להנגיש ידע וכלים שיעזרו לכם לנהל שיחה פתוחה ובריאה עם הילדים סביב השימוש ב-ChatGPT. הנה כמה נקודות שיכולות לעזור:

 

לפני שמקשרים חשבונות, כדאי לשבת עם המתבגר ולהסביר למה זה חשוב לכם, ולשמוע גם מה הוא חושב. התאימו את ההגדרות לגיל ולשלב שבו הילד נמצא – בן 13 לא מתמודד עם אותם אתגרים כמו בן 17, ומה שמתאים היום אולי ידרוש עדכון בעוד שנה.

 

אל תחששו לשנות את ההגדרות עם הזמן, זה חלק טבעי מהתהליך. מעבר לכך, זכרו שהבקרה לא מחליפה שיחה על איך משתמשים ב-AI בצורה חכמה, מה נכון לשתף ומה לא, ואיך מפתחים חשיבה ביקורתית לצד הסקרנות.

 

אחת לכמה זמן בדקו יחד איך הוא משתמש בצ’אט ומה הוא לומד ממנו – לא כחוקרים, אלא מתוך סקרנות אמיתית.

 

בסופו של דבר, הכלי הזה יעבוד רק אם יש אמון. אם המתבגר ירגיש שמנסים לשלוט בו בכוח, הוא ימצא דרכים לעקוף את זה. אם הוא ירגיש שאתם שותפים, יש סיכוי גדול יותר שההגדרות באמת יעזרו.

מקורות ותמיכה

OpenAI מפעילה דף משאבים ייעודי להורים שם תוכלו למצוא מדריכים להגדרות, עצות לשיחות עם מתבגרים, נושאים לדיון משפחתי וטיפים ממומחים לשימוש אחראי.

 

לסיכום, בקרת ההורים החדשה ב-ChatGPT היא צעד חשוב בכיוון הנכון, אבל היא רחוקה מלהיות פתרון מלא. היא מאפשרת להורים להגדיר סינון, שעות שימוש וחסימות, אך אינה נותנת גישה לתוכן השיחות ואינה חסינה מעקיפות. הכלי הזה עובד רק כל עוד יש שיתוף פעולה מצד המתבגר.

 

המסר המרכזי – בקרת ההורים נותנת כלים להצבת גבולות, אבל לא נועדה להחליף את השיחה והקשר עם המתבגר. ההגדרות יעבדו טוב יותר כשיש אמון, והן משתלבות כחלק מדיאלוג פתוח ולא במקומו.

הפוסט מדריך לבקרת הורים ב-ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-parental-control/feed/ 0
אנטרופיק משיקים את Claude Sonnet 4.5 https://letsai.co.il/claude-sonnet-4-5/ https://letsai.co.il/claude-sonnet-4-5/#comments Tue, 30 Sep 2025 08:53:24 +0000 https://letsai.co.il/?p=61073 בעולם ה-AI של 2025 נדמה שכל שבוע יוצא מודל חדש עם הבטחות גדולות. לרוב מדובר בעוד כמה אחוזים בבנצ’מרקים שרוב המשתמשים לא מכירים או מבינים. ההכרזה על Claude Sonnet 4.5 שברה את התבנית – לא 30% שיפור ולא $30 למיליון טוקנים, אלא 30 שעות רצופות של עבודה אוטונומית על אותה משימה. כדי לסבר את האוזן […]

הפוסט אנטרופיק משיקים את Claude Sonnet 4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם ה-AI של 2025 נדמה שכל שבוע יוצא מודל חדש עם הבטחות גדולות. לרוב מדובר בעוד כמה אחוזים בבנצ’מרקים שרוב המשתמשים לא מכירים או מבינים. ההכרזה על Claude Sonnet 4.5 שברה את התבנית – לא 30% שיפור ולא $30 למיליון טוקנים, אלא 30 שעות רצופות של עבודה אוטונומית על אותה משימה. כדי לסבר את האוזן – Opus 4 עמד על כ-7 שעות, ואין מידע על אף מודל שמתקרב למספר הזה. זו לא עלייה מתונה, זו קפיצה של פי ארבע. במקביל, Claude Code כבר מייצר יותר מחצי מיליארד דולר בהכנסות חוזרות שנתיות (ARR), עם צמיחה של פי 10 מאז מאי 2025. זה לא נתון שיווקי, זו הוכחה שהמודל כבר נמצא בשימוש אמיתי, לא רק בדמו. בואו נבין מה זה אומר בפועל, ונספר את סיפור המודל החדש של אחת החברות המובילות בעולם הבינה המלאכותית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה קורה כשבינה מלאכותית עובדת יום וחצי רצוף?

תדמיינו – אתם נותנים למודל משימה ב-9 בבוקר – לעשות refactoring למערכת ההזמנות, לבדוק אבטחה, לכתוב טסטים ולהעלות הכל לפרודקשן. בעולם הישן זה היה נגמר מהר מאוד. אחרי כמה שעות הוא כבר מתחיל לשכוח מה עשה בהתחלה, אחרי שבע שעות הוא נתקע על מגבלת הטוקנים, ובבוקר שלמחרת אתם מוצאים את עצמכם מסבירים הכל מחדש מהתחלה.

 

עם Sonnet 4.5 זה נראה אחרת לגמרי. אתם מסיימים יום עבודה, סוגרים את הלפטופ והולכים הביתה. בלילה, בזמן שאתם ישנים – המודל ממשיך לעבוד. בבוקר שאחרי, כשאתם נכנסים למשרד, הוא עדיין שם – ממוקד, זוכר כל צעד, וממשיך בדיוק מהנקודה שעצר.

 

ואם זה נשמע כמו פנטזיה – ארגונים שכבר קיבלו גישה מוקדמת מדווחים על משימות שלמות שבוצעו כך: הקמת בסיס נתונים, רכישת domain, ביקורת אבטחה ברמת SOC 2, כתיבת תיעוד מלא. הכל רץ ברצף, בלי יד אנושית על המקלדת. זה כבר לא מדע בדיוני. זה קורה עכשיו.

למה בכלל צריך מודל שעובד 30 שעות? 

זאת שאלה חשובה והכרחית, והתשובה מפתיעה – הרבה יותר אנשים ממה שנדמה לכם. בהכרזה הרשמית של Anthropic אמר שון וורד (Sean Ward), מייסד שותף ומנכ”ל חברת iGent AI, סטארטאפ המתמחה בכלי הנדסת תוכנה אוטונומיים, כי “Claude Sonnet 4.5 מגדיר מחדש את הציפיות שלנו. הוא מטפל ב-30+ שעות של קידוד אוטונומי, ומשחרר את המהנדסים שלנו להתמודד עם חודשים של עבודה ארכיטקטונית מורכבת.”

 

כדי להבין את המשמעות, נניח דוגמה פשוטה: ארגון עם מערכת PHP ישנה שצריך להעביר ל-microservices מודרניים. פרויקט כזה נמתח לרוב על פני שלושה-ארבעה חודשים. עכשיו תדמיינו את אותו פרויקט מתבצע ברצף, על ידי מודל אחד שממשיך לעבוד גם כשאתם ישנים – ומסתיים בתוך יום וחצי.

 

חודשים של עבודה מתכווצים ל-36 שעות. זה לא עוד 10% שיפור בפרודוקטיביות – זה שינוי סדר גודל שמגדיר מחדש מה אפשרי.

האם זה באמת עובד?

כאן אין מקום לשיווק, רק למספרים. במבחן SWE-bench Verified, שבודק אם מודל מסוגל לפתור באגים אמיתיים מגיטהאב, Sonnet 4.5 מוביל עם ‎77.2% (ואפילו ‎82% כשמפעילים parallel test-time compute). הוא עקף גם את GPT-5 וגם את Gemini.

 

מוביל בבדיקות SWE-bench מול המתחרים הגדולים

יתרון ברור על פני GPT-5 וג׳מיני. Source: anthropic.com

 

אבל זה לא נגמר בקידוד. בטבלה הבאה רואים תמונה רחבה יותר: Sonnet 4.5 משפר ביצועים גם במבחני שימוש במחשב (OSWorld), מתמטיקה (AIME), שאלות רב-לשוניות (MMMLU) וניתוח פיננסי, ובחלקם אפילו מוביל על פני GPT-5 ו-Gemini.

 

השוואת ביצועים: Claude Sonnet 4.5 מוביל בקידוד אוטונומי

Claude Sonnet 4.5 מוביל בקידוד אוטונומי. Source: anthropic.com

 

במילים פשוטות, זה לא עוד שיפור קוסמטי. לפני שנה המודלים המובילים עמדו סביב 50%. היום Sonnet 4.5 מתקרב ל-80%, ובחלק מהמשימות אפילו עובר את זה. זה כבר הבדל בין “אפשר לנסות” לבין “אפשר לסמוך על זה בפרודקשן”.

מה הופך את זה לאפשרי?

כדי להבין איך Sonnet 4.5 מחזיק 30 שעות רצופות, צריך להציץ מתחת למכסה המנוע.

מודעות הקשר 

המודל יודע לעקוב אחרי צריכת הטוקנים שלו, להבין כמה נשאר ומתי לנקות מידע ישן. מודלים קודמים פשוט היו נתקעים – כאן הוא ממשיך קדימה.

עבודה במקביל 

במקום לעבוד לינארית, Sonnet 4.5 מבצע חיפושים בו-זמנית, קורא כמה קבצים במקביל ומסנכרן בין הכלים. זה מרגיש פחות כמו מודל אחד ויותר כמו צוות.

סביבת הקידוד (Claude Code) משתדרגת

  • Checkpoints: שמירת מצבים וחזרה מיידית לאחור.

  • ממשק חדש: הרחבה רשמית ל-VS Code וטרמינל מחודש, עם שינויים בזמן אמת.

  • ביצוע קוד ויצירת קבצים: גיליונות, מצגות ומסמכים נולדים ישירות מהשיחה. Anthropic גם הדגימה את זה בפעולה – בסרטון הרשמי רואים את Claude מייצר מסמך, מצגת וגיליון אלקטרוני – כולם ניתנים להורדה ועריכה. זה כבר לא רק לכתוב קוד, אלא לייצר בפועל תוצרים שימושיים שמתחברים ישירות לעבודה היומיומית:

 

 

  • Agent SDK: לבנות כלים ותתי-סוכנים על בסיס היכולות של Anthropic. הנה סרטון קצר שמדגים את ה-Agent SDK, שמאפשר למפתחים להרכיב סוכנים מורכבים על גבי Claude Code, עם שליטה בזיכרון, הרשאות ותיאום בין משימות:

 

כלים חדשים לזיכרון

  • Context Editing: ניקוי אוטומטי של תוכן לא רלוונטי כשהחלון מתמלא.

  • Memory Tool (Beta): אחסון מחוץ לחלון ההקשר, כך שהמודל זוכר גם מה שנעשה אתמול.

 

למי שרוצה לראות את זה בפעולה – הנה סרטון קצר שבו Claude משחק Catan, בונה בסיס ידע על האסטרטגיות של היריבים ששורד בין משחקים, ומנקה מידע מיושן לאורך הדרך. זה נותן הצצה מוחשית למה שמאפשרים Context Editing ו-Memory Tool:

 

 

וכמה זה עולה?

החיסרון הבולט של Sonnet 4.5 הוא המחיר: ‎$3 ל-input ו-$15 ל-output למיליון טוקנים. זה פי 2.4 יקר יותר מ-GPT-5 ו-Gemini שעולים ($1.25 / $10) בהתאמה. המשמעות ברורה, סטארטאפ עם מיליון שאילתות בחודש ישלם בערך ‎$3,000 במקום ‎$1,250 – פער של ‎$21,000 בשנה.

 

האם זה שווה? אם מדובר בקוד קריטי, שבו טעות אחת עולה עשרות אלפי דולרים – ברור שכן. אם זה צא’טבוט בסיסי לשירות לקוחות – כנראה שלא. יש דרכים לצמצם עלויות (prompt caching, batch processing), אבל אלה לא נרחיב עליהם כאן.

 

עלויות של קלט ופלט

 

חשוב רק להדגיש, המספרים מבוססים על פרסומים רשמיים של החברות. בפועל, ביצועים ומחירים יכולים להשתנות לפי גרסה, קונפיגורציה ותצורת שימוש.

אבטחה ובטיחות 

Anthropic מתארת את Sonnet 4.5 כ-“המודל המיושר ביותר שפרסמנו”. לפי החברה, הוא מצמצם התנהגויות בעייתיות כמו החנופה למשתמש (sycophancy), הטעיה, חיפוש כוח ועידוד חשיבה דלוזיונלית (הזיות). ברמה הטכנית נוספו שכבות הגנה כמו חסינות טובה יותר ל-prompt injection, סינון פלטים מסוכנים (כמו הוראות לייצור נשק) והשקה תחת רמת בטיחות AI Safety Level 3.

 

ג’ארד קפלן, המדען הראשי של Anthropic, אמר: “זה הקפיצה הגדולה ביותר באבטחה שראינו בשנה, שנה וחצי האחרונות.” ולמה זה חשוב? כי ברגע שמודל עובד 30 שעות ברצף בצורה אוטונומית, הסיכונים מתגברים. אם הוא מסוגל לפעול יום וחצי בלי השגחה, הוא חייב להיות מהימן יותר מאי פעם.

 

שיעור ההתנהגויות הבעייתיות הנמוך ביותר מבין המודלים הגדולים

שיעור ההתנהגויות הבעייתיות הנמוך ביותר. Source: anthropic.com

איפה זה זמין?

Sonnet 4.5 כבר נגיש לכולם ב-Claude.ai וב-API, ומשולב גם דרך Amazon Bedrock, Google Cloud Vertex AI ו-Claude Code. בנוסף, Anthropic מפעילה כעת את ניסוי Imagine with Claude (הרחבה בפסקה הבאה), שפתוח רק למשתמשי Max לזמן קצוב. מי שרוצה לטעום מהעתיד בזמן אמת, זה הרגע.

כשיכולת הופכת לחוויה

עד עכשיו דיברנו על מספרים וביצועים. אבל Anthropic גם הראתה לאן כל זה יכול להתפתח. היא השיקה ניסוי קצר בשם Imagine with Claude (זמין למשתמשי Max עד 4 באוקטובר 2025), שמדגים איך מודל לא רק כותב קוד, אלא מייצר תוכנה בזמן אמת. במקום לבנות את כל האפליקציה מראש, Claude מייצר את החלקים תוך כדי שימוש: לוחצים על כפתור – נוצר הקוד לכפתור, פותחים תפריט – נוצר הקוד לתפריט.

 

בהדגמה שתכף תראו, ביקשו ממנו “לדמיין את המחשב של שייקספיר”, והוא יצר ממשק מהמאה ה-16 עם תפריטים כמו Sonnets ו-Quill Sharpener. הכל פעל אינטראקטיבית. זה אולי נראה כמו משחק, אבל המשמעות עמוקה יותר. עד היום תוכנה נכתבה מראש, כאן היא נוצרת על המקום, מותאמת בדיוק למה שאתם צריכים. זה כבר לא רק שיפור ביצועים, זו דרך אחרת לחשוב על מהי תוכנה בכלל.

 

Anthropic פרסמה סרטון קצר שממחיש את זה בפעולה. Claude בונה תוכנה בזמן אמת, מגיב לכל פעולה שלכם ומייצר את הקוד רק כשצריך – ממש מול העיניים:

 

 

מה אומרים המשתמשים בפועל

חשוב להבין, Sonnet 4.5 לא חי רק באתר של Anthropic. הוא כבר רץ “מתחת למכסה המנוע” בכלי קוד וסביבות עבודה, מ-Claude Code ועד Cursor ו-Canva, וכך ההתקדמות הטכנית הופכת לחלק מהיומיום של מפתחים ומעצבים.

 

ב-Canva, לדוגמה, סיפר דני וו (Danny Wu), ראש תחום מוצרי ה-AI ב-Canva, ש-Claude Sonnet 4.5 הציג שיפורים מרשימים במשימות המורכבות והארוכות ביותר – החל מעבודה בבסיס הקוד ועד לתכונות חדשות בתוך המוצר. גם מייקל טרואל (Michael Truell), מנכ”ל Cursor, תיאר ביצועי קידוד מהשורה הראשונה, עם שיפורים ניכרים במשימות ארוכות טווח. כדי להבין את המשמעות מהצד המעשי, נניח מצב שבו ארגון עובד עם מערכת מורכבת שדורשת תחזוקה מתמדת – כאן היתרון של מודל שמסוגל להחזיק 30 שעות רצופות מתרגם ישירות לחיסכון בזמן ובעלויות.

 

וזה לא נגמר בקוד. בבדיקות יישומיות בתחומי פיננסים, משפט, רפואה ומדעים, Sonnet 4.5 מציג יתרון מובהק על פני דורות קודמים – גם במשימות חשיבה מורכבות (‘16k thinking’) וגם בביצוע יומיומי.

 

Sonnet 4.5 מוביל גם בתחומי יישום קריטיים

Sonnet 4.5 מוביל גם בתחומי יישום קריטיים. Source: anthropic.com

אז כדאי לעבור ל-Sonnet 4.5?

התשובה תלויה בצרכים שלכם. אם אתם כבר משתמשים ב-Claude, השדרוג כמעט מתבקש – ביצועים טובים יותר באותו ממשק. אם אתם בונים סוכנים אוטונומיים או עובדים עם קוד קריטי, היכולת לעבוד 30 שעות רצופות, יחד עם כלים כמו Memory Tool ו-Context Editing, נותנת יתרון שאין לו מתחרים כרגע. גם מי שדורש רמות אבטחה מחמירות ימצא כאן ערך אמיתי.

 

אבל לא לכולם זה מתאים. Sonnet 4.5 יקר פי 2.4 מהמתחרים, והחלון הקשר (context window) שלו קטן משל Gemini. אם יש לכם codebase ענק או שאתם מסתפקים במודל זול יותר כמו GPT-5, ייתכן שאין סיבה להחליף. מי שצריך יכולות מולטימודל מתקדמות (טקסט, תמונה, אודיו, וידאו) גם ימצא ב-Gemini מענה טוב יותר.

 

בשורה התחתונה, Sonnet 4.5 הוא שדרוג אמיתי – לא עוד כמה אחוזים, אלא קפיצה ביכולות אוטונומיה וקידוד. אם מה שאתם בונים מורכב, קריטי או דורש ריצות ארוכות טווח, ההשקעה משתלמת. אם אתם מחפשים פשוט זול ומהיר, יש חלופות טובות.

 

חשוב לזכור שהתחרות לא נחה. לפי שמועות, Gemini 3 בדרך, OpenAI ממשיכה לשפר ולשדרג כל הזמן, ומה שמוביל היום לא בהכרח יישאר בפסגה עוד שלושה חודשים (וכנראה גם לא עוד שבוע). אבל נכון לעכשיו, אם אתם צריכים בינה מלאכותית שעובדת בלי לעצור, זוכרת הכל ומספקת קוד ברמת פרודקשן – Sonnet 4.5 הוא המקום הנכון. רק תוודאו שאתם באמת צריכים את זה לפני שאתם משלמים כפול.

הפוסט אנטרופיק משיקים את Claude Sonnet 4.5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-sonnet-4-5/feed/ 1
מיקרוסופט פותחת את Copilot למודלי Claude של Anthropic https://letsai.co.il/microsoft-claude-integration/ https://letsai.co.il/microsoft-claude-integration/#respond Sat, 27 Sep 2025 14:09:00 +0000 https://letsai.co.il/?p=60924 השבוע מיקרוסופט הכריזה על שילוב מודלי Claude של Anthropic ב-Microsoft 365 Copilot. המהלך מסמן שינוי אסטרטגי – לא עוד הסתמכות בלעדית על OpenAI, אלא גישה רב-מודלית שמאפשרת ללקוחות לבחור את המודל המתאים ביותר לכל משימה.     איפה תמצאו את מודלי קלוד בתוך קופיילוט? המודלים אט אט נכנסים לתוך הפלטפורמות של מיקרוסופט והשינוי מורגש כבר […]

הפוסט מיקרוסופט פותחת את Copilot למודלי Claude של Anthropic הופיע ראשון בLet's AI בינה מלאכותית

]]>
השבוע מיקרוסופט הכריזה על שילוב מודלי Claude של Anthropic ב-Microsoft 365 Copilot. המהלך מסמן שינוי אסטרטגי – לא עוד הסתמכות בלעדית על OpenAI, אלא גישה רב-מודלית שמאפשרת ללקוחות לבחור את המודל המתאים ביותר לכל משימה.

 

מיקרוסופט פותחת את Copilot למודלי Claude של Anthropic

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איפה תמצאו את מודלי קלוד בתוך קופיילוט?

המודלים אט אט נכנסים לתוך הפלטפורמות של מיקרוסופט והשינוי מורגש כבר בתוך הכלים עצמם.

 

בסוכן הריזונינג Researcher agent

בסוכן המחקר של מיקרוסופט, שמבוסס על מודלי ריזונינג, מופיע כעת כפתור חדש – “נסה את Claude” – שמאפשר למשתמשים לעבור בקלות בין מודלי OpenAI למודלי Anthropic בלחיצת כפתור. אם אתם עדיין לא רואים את הכפתור – סביר שהשדרוג עדיין לא הגיע אליכם, ויופיע בהמשך.

 

ככה זה נראה מבפנים: קלוד בתוך סוכן המחקר של קופיילוט:

 

בקופיילוט סטודיו

גם ב-Copilot Studio – פלטפורמת בניית הסוכנים של מיקרוסופט, נוספה אפשרות פשוטה בתפריט, שמאפשרת לבחור בין המודלים של OpenAI למודלים של אנטרופיק. בעבר היו שם רק מודלים של OpenAI, אבל עכשיו התחרות מתגברת. הארגונים וחברות שרוצים לשלב סוכנים בתוך העבודה היומיומית שלהם, ועל בסיס תשתית מיקרוסופט שמוטמעת אצלם בארגון, יכולים ליהנות גם מ-Claude Sonnet 4 ו-Claude Opus 4.1 כבחירה טבעית כאשר הם בונים סוכנים מותאמים אישית.

 

ככה זה נראה בתוך קופיילוט סטודיו:

 

חשוב לציין שהאפשרות להחליף מודלים בתוך סוכנים לא זמינה באפליקציה למחשב של Copilot 365, אלא רק באתר של Copilot Studio.

 

החוויה נשארת אינטואיטיבית, אך מאחורי הקלעים מדובר בצעד משמעותי – פתיחה של Copilot למודלים מגוונים יותר. וכמו שציינו מעלה – השילוב מושק בהדרגה, וחלק מהפיצ’רים יופעלו רק לאחר אישור מנהלי המערכת.

 

 

למה מיקרוסופט עושה את זה?

סאטיה נאדלה, מנכ”ל מיקרוסופט, הדגיש כי המטרה היא להביא ללקוחות “את הבינה המלאכותית הטובה ביותר מכל התעשייה”. כלומר, לא מדובר בויתור על OpenAI אלא בהרחבת ההיצע ומתן אפשרויות נוספות לארגונים.

 

ברקע, היחסים העסקיים בין מיקרוסופט ל-OpenAI נמצאים בתקופה של שינוי. לפי דיווחים עיתונאיים, OpenAI מתכננת להפחית את חלק ההכנסות שהיא חולקת עם מיקרוסופט מכ-20% לכ-8% עד סוף העשור – מהלך שעשוי להשאיר בידיה עשרות מיליארדי דולרים.

 

לצד זאת, בדיקות פנימיות הראו שמודלי Claude מצטיינים במשימות מתקדמות, למשל באוטומציה של תהליכים פיננסיים ב-Excel או ביצירת מצגות PowerPoint מהוראות משתמש. היתרונות הללו מצדיקים מבחינת מיקרוסופט את פתיחת הדלת לשחקן נוסף, גם אם הדבר כרוך בהסתמכות על תשתיות שמנוהלות מחוץ לארגון.

איך זה משתלב בטכנולוגיה של Azure

Azure AI Foundry הפכה היום למעין “סופרמרקט בינה מלאכותית”. היא מציעה מעל 1,900 מודלים, ממודלי שפה קטנים ועד מודלים רב-מודליים ותעשייתיים, שמגיעים משחקנים מובילים כמו OpenAI, Meta, Hugging Face, Stability, Cohere ו-NVIDIA.

 

בתוך המערך הזה שולבה גם Anthropic – מיקרוסופט רוכשת גישה למודלי Claude דרך החברה, שמריצה אותם על תשתיות הענן של AWS (ובחלק מהמקרים גם Google Cloud). כלומר, מיקרוסופט אינה מפעילה ישירות את העננים של המתחרים, אלא מספקת ללקוחות את המודלים כפי ש-Anthropic מארחת אותם.

 

יחד עם זאת, השימוש במודלי Anthropic כרוך בשיתוף נתונים עם החברה, מחוץ לשליטה הישירה של מיקרוסופט. המשמעות היא שהמידע אינו נהנה מכל שכבות ההגנה המלאות שמציעה סביבת Azure, ולכן ארגונים צריכים לשקול בזהירות את ההשלכות הרגולטוריות והמשפטיות – במיוחד בכל הנוגע לעמידה בתקני GDPR.

ההשלכות על עסקים

עבור הלקוחות, המחיר נשאר קבוע על 30 דולר למשתמש לחודש במסגרת תוכנית Frontier, בלי תוספות עבור שילוב Claude. מאחורי הקלעים, מיקרוסופט אמנם שומרת על שתיקה בכל הנוגע למכירות המדויקות של Office Copilot, אך ההערכות מדברות בעד עצמן – מעל 100 מיליון משתמשים כבר עובדים עם לפחות אחד ממוצרי Copilot, וההכנסות השנתיות מהכלי המרכזי לבדו חוצות את רף מיליארד הדולר.

לאן פני השוק?

המהלך של מיקרוסופט ממחיש עד כמה שוק הבינה המלאכותית הארגונית מתבגר. התלות הבלעדית בספק יחיד הולכת ומתפוגגת, ובמקומה עולה גישה חדשה שמדגישה ביצועים אמיתיים וערך ללקוח. המודלים עצמם הופכים בהדרגה לסחורה – לא במובן שהם חסרי חשיבות, אלא במובן שההבדל האמיתי טמון פחות במודל עצמו ויותר ביכולת לשלב אותו נכון, להתאים אותו לצורך ולחבר אותו לכלי עבודה קיימים.

 

השורה התחתונה ברורה, מיקרוסופט לא מחליפה את OpenAI, אלא מציבה את עצמה כמתווכת חכמה של טכנולוגיות. היא מעניקה ללקוחות יותר גמישות, פחות סיכוני תלות, והבטחה שהכלי המתאים יהיה תמיד בהישג יד.

הפוסט מיקרוסופט פותחת את Copilot למודלי Claude של Anthropic הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-claude-integration/feed/ 0
כך תשנו את האופי של ChatGPT ותתאימו אותו לצרכים שלכם https://letsai.co.il/customizing-chatgpt-personality/ https://letsai.co.il/customizing-chatgpt-personality/#respond Sat, 27 Sep 2025 08:49:01 +0000 https://letsai.co.il/?p=60967 תארו לכם שיש לכם חמישה חברים שונים, ולכל אחד מהם אופי וסגנון התבטאות שונה לגמרי: אחד ענייני וחד, אחד ביקורתי ועוקצני, אחד קשוב ותומך, אחד מבריק ושקדן שמסביר עד הפרט האחרון, ואחד מאוזן ונעים. עכשיו דמיינו שכל החברים הללו מתגוררים בתוך ChatGPT – ואתם יכולים לבחור מי מהם יענה לכם בכל רגע נתון. מערכת הפרסונליזציה […]

הפוסט כך תשנו את האופי של ChatGPT ותתאימו אותו לצרכים שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
תארו לכם שיש לכם חמישה חברים שונים, ולכל אחד מהם אופי וסגנון התבטאות שונה לגמרי: אחד ענייני וחד, אחד ביקורתי ועוקצני, אחד קשוב ותומך, אחד מבריק ושקדן שמסביר עד הפרט האחרון, ואחד מאוזן ונעים. עכשיו דמיינו שכל החברים הללו מתגוררים בתוך ChatGPT – ואתם יכולים לבחור מי מהם יענה לכם בכל רגע נתון. מערכת הפרסונליזציה של ChatGPT מאפשרת לעשות בדיוק את זה: להתאים את האישיות והאופי של ChatGPT למשימה שלכם ולסגנון ההתבטאות המועדף עליכם, כך שהתשובות של הצ’ט יהיו לא רק נכונות, אלא גם מדויקות עבורכם.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

חמשת הפרסונות של ChatGPT

 

מצב רובוט (Robot)

במצב הזה המענה הופך ישיר, קצר וענייני – ללא התחכמויות מיותרות. זה אידיאלי כשאתם צריכים הנחיות טכניות, עבודה עם מסמכים, סיכומים מהירים או עזרה עם קוד. מי שמעדיף תשובה ברורה ויעילה בלי “שיחה מסביב” ימצא בזה יתרון גדול.

 

מצב ציני (Cynic)

לפעמים מה שאתם צריכים זו זווית אחרת – ביקורתית, ספקנית או אפילו עוקצנית. כאן נכנס לתמונה המצב הציני, שמציע תשובות חכמות עם טון סרקסטי. שימושי במיוחד כשמנסים לכתוב טקסטים פרובוקטיביים, להעלות נקודות ביקורת או לחדד רעיונות בצורה נוקבת.

 

מצב מאזין (Listener)

זהו המצב שמתאים ביותר לשיחות רגשיות או לכתיבה שמבוססת על אמפתיה ותמיכה. כאן ChatGPT הופך להיות קשוב, סבלני ותומך. המצב הזה טוב כשעובדים על תוכן טיפולי, יצירת סיפורים עם דמויות עמוקות או כל משימה שדורשת רגישות יתר.

 

מצב חנון (Nerd)

חובבי ההסברים המפורטים יתחברו במיוחד למצב הזה. כאן ChatGPT נכנס לעומק, מספק הקשרים רחבים ומסביר את ה”למה” שמאחורי כל תשובה. זה מצוין כשאתם לומדים נושא חדש, כותבים מאמרים ארוכים או פשוט רוצים לקבל תמונה מלאה ומנומקת.

 

מצב רגיל (Default)

זהו מצב ברירת המחדל של המערכת – הסגנון המוכר והמאוזן ביותר – קליל, נעים, אדפטיבי וידידותי. אם אין לכם דרישה מיוחדת ואתם פשוט רוצים שיחה טבעית וברורה, המצב הזה הוא הבחירה הנוחה ביותר.

 

איך מגיעים לאזור הפרסונליזציה?

כדי לשנות את האישיות של ChatGPT, צריך לבצע כמה צעדים פשוטים בהגדרות:

  1. כנסו לממשק ההגדרות של הצ’ט – לחיצה אל שם המשתמש שלכם (למטה בצד שמאל במסך הראשי) תאפשר לגשת לתפריט ה-Settings.
  2. בתוך מסך ההגדרות בחרו בטאב הפרסונליזציה: Personalization.
  3. אם זו הפעם הראשונה שלכם שם, ה”זהות” שתמצאו שם תהיה מצב ברירת המחדל –  Default. כדי להחליף “זהות”, לחצו על הכפתור, מה שיאפשר בחירה מבין חמשת המצבים.

וכך, בלחיצה אחת פשוטה תוכלו להחליט אם אתם רוצים את ChatGPT ענייני, ביקורתי, רגיש, חנוני או פשוט מאוזן ונעים.

 

למה בכלל צריך את זה?

שימוש בפרסונות של ChatGPT לא נועד רק לגיוון בסגנון התשובה. זה כלי פרקטי שעוזר לדייק את המענה בהתאם להקשר. מי שכותב מסמכים טכניים לא ירצה תשובות מלאות רגש, ומי שמנסה לנסח סיפור אישי לא ירצה סגנון יבש וענייני בלבד. שינוי האישיות מאפשר לשמור על זרימה טבעית יותר, לחסוך זמן ולגרום לתוכן להרגיש מותאם אישית.

 

בסופו של דבר, מדובר לא רק בתוספת נוחה, אלא בכלי עבודה שמגביר את הגמישות. בחירה באישיות הנכונה יכולה להפוך שיחה טובה לשיחה מצוינת – כזו שמדויקת יותר, יעילה יותר וגם פשוט מהנה יותר.

הפוסט כך תשנו את האופי של ChatGPT ותתאימו אותו לצרכים שלכם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/customizing-chatgpt-personality/feed/ 0
גוגל משדרגת את מודל Gemini 2.5 Flash ומודל Flash-Lite https://letsai.co.il/google-upgrades-gemini-flash/ https://letsai.co.il/google-upgrades-gemini-flash/#respond Sat, 27 Sep 2025 06:10:36 +0000 https://letsai.co.il/?p=60939 בעוד שוק הבינה המלאכותית מתעדכן בקצב מהיר, גוגל פרסמה גרסאות Preview חדשות לשני מודלים פופולריים שלה – Gemini 2.5 Flash ו-Flash-Lite. בניגוד לעדכונים קודמים שהתמקדו בעיקר בביצועים גולמיים, הפעם המיקוד הוא ביעילות: תשובות קצרות ומדויקות יותר, שיפור ביכולות סוכנים אוטונומיים וחיסכון בטוקני פלט שמפחית את עלות השימוש בפועל. המהלך הזה נועד לחזק את מעמד גוגל […]

הפוסט גוגל משדרגת את מודל Gemini 2.5 Flash ומודל Flash-Lite הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעוד שוק הבינה המלאכותית מתעדכן בקצב מהיר, גוגל פרסמה גרסאות Preview חדשות לשני מודלים פופולריים שלה – Gemini 2.5 Flash ו-Flash-Lite. בניגוד לעדכונים קודמים שהתמקדו בעיקר בביצועים גולמיים, הפעם המיקוד הוא ביעילות: תשובות קצרות ומדויקות יותר, שיפור ביכולות סוכנים אוטונומיים וחיסכון בטוקני פלט שמפחית את עלות השימוש בפועל. המהלך הזה נועד לחזק את מעמד גוגל בשוק תחרותי שבו כל שיפור קטן עשוי להשפיע על בחירות המפתחים והחברות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם השתנה?

Flash Lite

ב-Flash Lite, גוגל מבטיחה מודל פחות “פטפטן”, כזה שלא יכביר במילים אלא יספק תשובות תמציתיות יותר. בעולם שבו כל מילה מתורגמת לטוקן שעולה כסף, זה לא רק עניין של סגנון אלא גם של עלות. בנוסף, המודל יודע להתמודד טוב יותר עם משימות אייג׳נטיות – סוכנים אוטונומיים שמבצעים פעולות רצופות לאורך זמן – ונוסף לכך קיבל שדרוגים ביכולות עיבוד תמונה ואודיו.

Flash

בגרסה המלאה של Flash הדגש הוא על שני תחומים מרכזיים: עמידות גבוהה יותר להוראות מערכת מורכבות (system prompts – ההנחיות שקובעות את אופי ותפקוד המודל), ושימוש יעיל יותר בטוקנים. המשמעות עבור המשתמשים היא קיצור זמני תגובה והפחתת עלויות תפעול.

 

בגרף שפרסמה גוגל ניתן לראות את ההשוואה בין הגרסאות היציבות לגרסאות ה-Preview של ספטמבר 2025. השדרוגים מתבטאים גם בעלייה במדד הביצועים וגם בירידה בזמן התגובה מקצה לקצה:

 

ביצועים וזמן תגובה

ביצועים וזמן תגובה. Source: googleblog.com

עדות מהשטח

כדי לחזק את ההכרזה, גוגל הציגה חוות דעת מחברת Manus, המתמחה בפיתוח סוכנים אוטונומיים. ב-Manus דיווחו כי בבדיקות פנימיות שביצעו נרשמה קפיצה של כ־15 אחוזים בביצועי המודל במשימות מורכבות ארוכות טווח. לדבריהם, השילוב בין מהירות לאינטליגנציה לצד עלות תפעול נמוכה מאפשר לחברה להרחיב את פעילותה בקצב שלא התאפשר בעבר.

 

המשמעות רחבה יותר מההצלחה של Manus בלבד. בעולם שבו ארגונים בוחנים כל שיפור קטן בביצועים, שדרוג דו-ספרתי נחשב להוכחה לכך שהמודלים החדשים של גוגל אינם רק “ניסיוניים”, אלא מסוגלים לשרת גם מערכות מסחריות מורכבות ולספק יתרון תחרותי אמיתי.

ומה לגבי המחיר?

בגזרת המחירים אין הפתעות: התמחור של Flash ו-Flash Lite נותר ללא שינוי. Flash Lite ממשיך להיות המודל הזול במשפחה, עם 0.10 דולר למיליון טוקני קלט ו-0.40 דולר לפלט, לעומת Flash המלא, שמחירו גבוה פי כמה. ההבדל הזה לא נולד בעדכון הנוכחי, אך השדרוגים ביעילות הטוקנים עשויים להפוך את הפער למשמעותי עוד יותר בפועל.

 

בדיקות של חברת Artificial Analysis מצביעות על שיפור משמעותי ביעילות טוקני הפלט. בגרסאות ה-Preview של ספטמבר 2025 נמדדה ירידה של כמעט פי שניים במספר הטוקנים – חיסכון שמתורגם ישירות לעלות:

 

ירידה משמעותית בטוקני הפלט

ירידה משמעותית בטוקני הפלט. Source: googleblog.com

 

למפתחים ולחברות זה אומר דבר פשוט – מי שמחפש פתרון זול לעיבוד כמויות גדולות של טקסט, יקבל ערך גבוה יותר ב-Lite. מי שזקוק ליכולות מתקדמות בסביבות מורכבות, ימצא אותן ב-Flash במחיר גבוה יותר, אך עם תמיכה טובה יותר במשימות מרובות שלבים.

איך מתחילים?

הגרסאות החדשות זמינות בשתי דרכים – דרך Google AI Studio, פלטפורמת הניסוי החינמית של גוגל המאפשרת למפתחים לבדוק את המודלים עם מגבלות שימוש, ודרך Vertex AI ב-Google Cloud – שירות ארגוני בתשלום שמיועד לשילוב המודלים כחלק מתשתיות ייצור. כך מפתחים יכולים להתחיל בקלות בבדיקות מהירות, ובהמשך לשלב את המודלים במערכות רחבות היקף.

למה זה עדכון חשוב?

העדכון הנוכחי אינו רק שיפור נקודתי, אלא חלק ממגמה רחבה יותר בשוק ה-AI. פחות דגש על “מי הכי חזק” ויותר על שילוב נכון של מהירות, איכות ועלות. בסופו של דבר, לא המודל המרשים ביותר ייקבע את השימוש בפועל, אלא זה שמציע את היחס המשתלם ביותר בין ביצועים לעלות.

עבור מפתחים, המשמעות ברורה:

  • Flash Lite מתאים לפרויקטים עתירי שיחות או תרגום, שבהם תגובה מהירה ועלות נמוכה הם הקריטריונים המרכזיים.

  • Flash נועד לסביבות מורכבות יותר, שבהן יש צורך בסוכנים מתקדמים ובניהול תהליכים מרובי שלבים – גם במחיר גבוה יותר.

 

 

 

לסיכום, גוגל מבהירה שהגרסאות החדשות הן עדיין במעמד Preview, ולכן לא מיועדות בשלב זה לשימוש יציב בפרודקשן. המטרה היא לאפשר למפתחים להתנסות, לזהות יתרונות וחסרונות, ולהחזיר פידבק שישפיע על ההפצות הבאות.

 

מעבר לכך, המהלך משקף כיוון ברור – לא עוד מרדף אחרי מודלים “חזקים” בלבד, אלא ניסיון למצוא את נקודת האיזון שבין יכולת טכנית, חוויית שימוש ועלות. עבור מפתחים ועסקים, זו בדיוק השאלה שתכריע אילו מודלים ישתלבו במערכות אמיתיות ואילו יישארו בגדר הדגמה.

הפוסט גוגל משדרגת את מודל Gemini 2.5 Flash ומודל Flash-Lite הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-upgrades-gemini-flash/feed/ 0
הקול בראש – SLED גורמת למודלי AI להקשיב לכל הקולות במוח שלהם https://letsai.co.il/sled/ https://letsai.co.il/sled/#respond Wed, 24 Sep 2025 15:30:15 +0000 https://letsai.co.il/?p=60785 עד כמה אפשר לסמוך על מה שה-AI אומר לנו? למרות הקפיצה המטאורית ביכולות של ג’מיניי (Gemini), ChatGPT, קלוד (Claude) ודומיהם, השיח סביב “הזיות” (hallucinations) במודלים הללו – כלומר, המצאות וביטחון מופרז בתשובות לא נכונות – רק הולך ומתגבר. מחקר חדש מבית Google מנסה להתמודד עם הבעיה מהשורש ומציע גישה רעננה: אולי הגיע הזמן שנקשיב לכל […]

הפוסט הקול בראש – SLED גורמת למודלי AI להקשיב לכל הקולות במוח שלהם הופיע ראשון בLet's AI בינה מלאכותית

]]>
עד כמה אפשר לסמוך על מה שה-AI אומר לנו? למרות הקפיצה המטאורית ביכולות של ג’מיניי (Gemini), ChatGPT, קלוד (Claude) ודומיהם, השיח סביב “הזיות” (hallucinations) במודלים הללו – כלומר, המצאות וביטחון מופרז בתשובות לא נכונות – רק הולך ומתגבר. מחקר חדש מבית Google מנסה להתמודד עם הבעיה מהשורש ומציע גישה רעננה: אולי הגיע הזמן שנקשיב לכל חלקי ה”מוח” של המודל,  ולא רק לתשובה (או לשכבה) האחרונה שהוא מספק. וזה בדיוק מה שעושה שיטת SLED.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

הבעיה: מודלים שממציאים, מתבלבלים ומפספסים

מחקר חדש של גוגל מציע פתרון אלגנטי לאחת הבעיות המתסכלות ביותר במודלי שפה גדולים (LLM): חוסר דיוק בתשובות והופעת “הזיות” בתוכן שנוצר על-ידי AI. במקום להסתפק במסקנות של השכבה האחרונה של המודל, החוקרים מציגים שיטה (SLED) המנצלת את המידע מכל שלבי החשיבה של הבינה המלאכותית, וממזגת אותם לכדי תשובה סופית מדויקת ואמינה יותר.

 

בבסיסם, מודלי שפה גדולים כמו ג’מיניי, GPT ו-Claude בנויים כך שהם מחקים את הדרך שבה בני אדם כותבים, מסיקים ומסבירים (בערך). אך שלא כמו בני אדם, שמסוגלים לבדוק את עצמם בזמן אמת ולחזור לשאלה במידה שענו שגוי, המודלים מסתמכים על אלגוריתם “פנימי” שלא תמיד נותן מקום לספקות. אתם אולי מכירים את זה בתור מודל שמשדר ביטחון מוחלט גם כשהוא טועה – וזה קורה בגלל אופן קבלת ההחלטות של המערכת. ישנן מגוון גישות ולצידן מחקרים רבים שמנסים להתחקות אחר הסיבה לאותן הזיות – רק לפני מספר שבועות כתבנו פה על מחקר דומה מבית OpenAI שמציע לשנות את הדרך שבה אנחנו מאמנים מודלים שכאלה. שלא נדבר על עשרות המחקרים מבית אנטרופיק (Anthropic).

 

גוגל מציעה גישה חדשנית ומעניינת במיוחד, שעוסקת באופן פעילותם של LLMים: מודלים אלו בנויים ממאות או אלפי שכבות (layers) שמבצעות חישובים על כל מילה, סימן או טוקן במשפט. התוצאה הסופית (כלומר, הטקסט שהמשתמש מקבל) מבוססת על ההערכה של השכבה האחרונה בלבד. אך מה קורה בדרך? ייתכן שבשכבות האמצעיות, המודל עצמו “חשב” אחרת או שקל אפשרויות נוספות. ומה קרה בפועל? במציאות רק “קול” אחד (זה של השכבה האחרונה) נשמע. בכך, אנחנו מפספסים ידע פנימי, חוכמה “חבויה” ובעיקר – את ההססנות הטבעית שעשויה הייתה להוביל לתשובות מדויקות יותר.

 

SLED

כשהמודל מפעיל את “כל המוח שלו”, הוא לא טועה. עם ובלי SLED | קרדיט: Google.

 

SLED – לתת למודל “להתייעץ עם עצמו”

כאן נכנסת לתמונה השיטה החדשה של גוגל: Self Logits Evolution Decoding – או בקיצור, SLED. הרעיון המרכזי מאחורי SLED פשוט אך מבריק: במקום להסתמך רק על השכבה האחרונה, למה שלא נאסוף “חוות דעת” גם משאר שכבות המודל, נשלב ביניהן באופן חכם, ורק אז נבחר את המילה או הביטוי הסופי?

 

גוגל פיתחה אלגוריתם שמסתכל על כל “תחנות הביניים” במסלול החשיבה של המודל. בכל אחת מהן, המודל מייצר תחזית (Distribution) לגבי המילה הבאה. SLED אוספת את התחזיות הללו, נותנת משקל לכל אחת (ולפעמים אפילו משקל שונה לשכבות שונות), ובונה ממוצע משוקלל של כל האפשרויות. כך מתקבלות החלטות שלא נשענות על “קונצנזוס דיקטטורי” של שכבה אחת, אלא על שיתוף פעולה אמיתי בין כל חלקי המודל.

 

סרטון המחשה: בסרטון הבא ניתן לראות שכשהמודל מתבסס רק על השכבה העליונה, הוא בוחר בתשובה הצפויה ביותר לשאלה: מהי בירת קולומביה הבריטית? במקרה זה, המודל בוחר במילה עם המשקל הכי גבוה (ונקובר), כי זו העיר הכי ידועה או מפורסמת. אך כשהוא נעזר בכל שכבות החשיבה שלו, ועושה סינטזה בין כל ה”הרהורים” שלו, הוא מגיע למסקנה מדויקת יותר, שהתשובה הנכונה היא העיר “ויקטוריה” (אפילו שמדובר בעיר פחות מוכרת).

Credit: Google

 

למה זה כל כך משמעותי?

מודל שלא “רץ” אוטומטית אל התשובה הראשונה

בפועל, היכולת לשלב ידע מכל השכבות מאפשרת להימנע מהטיות שמקורן בדפוסי חשיבה שכיחים אך לא מדויקים. אחת התופעות השכיחות היא נטייה של מודלים לענות במהירות על שאלות בעזרת תשובות “פופולריות”, גם אם הן לא בהכרח נכונות. ממש כמו בדוגמה מעלה – כאשר שואלים מהי בירת קולומביה הבריטית, רבים עשויים לבחור ב”וונקובר” (העיר המפורסמת ביותר) אך התשובה הנכונה היא דווקא “ויקטוריה”. במבחני SLED, השיטה מצליחה “להרים דגל” כשנוצרת התלהבות מיותרת סביב אופציה מסוימת, ולבחון שוב האם קיימת אפשרות אחרת שנשמעה מוקדם יותר לאורך הדרך.

 

שיפור ביכולות מתמטיות והבנת חידות מילוליות

המחקר של גוגל ממחיש את כוחה של שיטת SLED גם בסיטואציות שבהן דרושות כמה פעולות חישוביות ברצף. נניח שמודל מתבקש לפתור בעיה: “הילדה ‘אש’ קונה 6 צעצועים, כל צעצוע עולה 10 מטבעות. בקנייה של ארבעה צעצועים או יותר יש הנחה של 10%. כמה תשלם?”

 

מודל רגיל עשוי להעדיף את המשוואה הנפוצה A x B = C, ולכן ישיב: 6X10=60, תוך התעלמות מההנחה. בפועל, השכבות הפנימיות הרבה פעמים “רואות” את הצורך להכפיל את התוצאה הסופית (60) גם ב-0.9 כדי להחיל את ההנחה של 10%, אך השכבה האחרונה (בעקבות דפוסי תרגול נפוצים שהופיעו בתהליך האימון), מדלגת על זה (היא מתעדפת את המצב הנפוץ מבחינה סטטיסטית על פני המצב הנכון מתמטית). SLED מציף את כל תחנות הביניים, ובזכות זאת עונה:

6X10X0.9=54

פתרון שמפגין דיוק רב יותר והבנה עמוקה יותר של ההקשר. צפו בסרטון כדי לקבל המחשה ויזואלית של פתרון בעיה מתמטית זו:

 

Credit: Google

 

איך זה עובד מתחת למכסה המנוע?

שיטת SLED פועלת ישירות בתהליך הפענוח (Decoding) של הטקסט, כלומר בשלב שבו המודל מתרגם את החישובים הפנימיים לטקסט קריא לאדם.

 

בכל פעם שמודל שפה מייצר מילה, הוא בעצם מחלק את המשפט לטוקנים: יחידות קטנות שיכולות להיות מילה, חלק ממילה, קידומת, סיומת או סימן פיסוק. המודל לא “פולט” את המילה הבאה מיד, אלא שוקל את כל האפשרויות, מחלק לכל אחת הסתברות (Logit), ומתקדם צעד-צעד. השיטה המסורתית נשענת על התחזית של השכבה האחרונה בלבד, אבל SLED לוקחת את “לוגיטי-הביניים” מכל שכבה, מעבירה אותם דרך אותה מטריצת תחזיות (Projection Matrix) כמו בשכבה האחרונה, ומקבלת סדרת תחזיות מלאה לכל האפשרויות – לאורך כל מסלול העיבוד.

 

SLED לא מחשיבה כל שכבה כבעלת משקל זהה. חלק מהשכבות נחשבות משמעותיות יותר, תלוי בסוג המטלה, סוג המודל וגודלו. האלגוריתם מחשב ממוצע משוקלל, וכך שכבות “חשובות יותר” ישפיעו יותר על ההחלטה הסופית. דרך גישה זו, SLED משמרת את הדיוק של המודל המקורי, אך משפרת אותו על ידי הבאת “קולות נוספים” לשולחן.

 

השפעה אמיתית על עולם הבינה המלאכותית

אחת החולשות הבולטות של מודלי שפה היא חוסר עקביות עובדתית. שיטה נפוצה לשיפור דיוק כזה היא חיבור למקורות חיצוניים בזמן אמת (כמו חיבור לרשת), אך אלה דורשים מערכת מורכבת ומוסיפים עלויות וזמן. SLED, לעומת זאת, פועל “מבפנים”, מבלי להיעזר במידע מבחוץ או ב-Fine Tuning יקר. כך הוא לא רק חוסך משאבים, אלא גם מונע תלות בגורמים נוספים ומבטיח שהדיוק משתפר מתוך המודל עצמו.

 

תוצאות מחקריות מרשימות

במחקר שנערך בגוגל, SLED נוסה על שלל מודלים פופולריים – ביניהם Gemma, GPT-OSS ומיסטרל (Mistral). בכל הניסויים, SLED שיפר באופן עקבי את הדיוק של המודלים, גם באתגרים של בחירה מרובה (Multiple Choice), גם בשאלות פתוחות, וגם במשימות “שרשרת חשיבה” (Chain of Thought). אפילו מול שיטות מתחרות מתקדמות כמו DoLa, שיטת SLED הובילה לעלייה משמעותית (עד 16%) בדיוק התשובות, וכל זאת במחיר כמעט זניח של הגדלת זמן הפענוח ב-4% בלבד.

 

גמישות והטמעה בכל מודל

אחד היתרונות החשובים הוא הגמישות של SLED. הוא פועל כמעט על כל מודל קוד פתוח, ללא קשר למשפחה, לחברת האם או לייעוד שלו. לא משנה אם מדובר במודל “בסיסי” או כזה שעבר התאמה להוראות (instruction tuned), שיטת SLED מתאימה את עצמה למגוון הרחב של דרישות, ומאפשרת שילוב עם שיטות פענוח נוספות לקבלת דיוק מקסימלי.

 

ביצועים במבחני ידע

לאורך המחקר, החוקרים בחנו את SLED על שאלות מורכבות ממבחנים ידועים, דוגמת TruthfulQA ו-FACTOR, שם השיטה הפגינה ביצועים מרשימים. גם במבחני שאלות פתוחות, SLED מפחיתה בצורה דרמטית את הסיכוי להזיות. 

 

הביצועים של SLED

הביצועים של SLED | קרדיט: Google

 

לא הכל ורוד!

למרות היתרונות הברורים, SLED לא באה לבטל את הצורך בביקורתיות – שגיאות והזיות עדיין אפשריות, במיוחד במצבים שבהם גם כל השכבות הפנימיות “טועות יחד”. יתרה מכך, לעיתים נדירות הוספת “קולות” לשולחן עשויה לבלבל את המודל כאשר יש ריבוי חוות דעת שאינן עקביות. למרות זאת מדובר בשיפור מהותי על פני הגישה המסורתית.

 

היישום של SLED אינו מוגבל רק לשפה טבעית. בגוגל מציעים להרחיב אותו למשימות של הפקת קוד, Visual QA ואף כתיבה ארוכה ומורכבת. המפתח הוא בזיהוי תבניות ידע שמפוזרות לאורך השכבות השונות במודל, והבנה שמידע קריטי אינו נמצא תמיד “רק בסוף”.

 

SLED ב-Github

רוצים לנסות בעצמכם? SLED הוטמע כקוד פתוח בגיטהאב של גוגל, וניתן להורידו ולהטמיעו כמעט בכל מודל מודרני. מפתחים שמעוניינים לשפר את הדיוק, לצמצם שגיאות עובדתיות ולהפחית הזיות יכולים לנסות את SLED בצורה פשוטה ולבחון בעצמם את ההשפעה.

 

הקול בראש

שיטת SLED מגלמת תפיסה חדשה: במקום לסמוך בעיניים עצומות על התשובה הסופית, הגיע הזמן להקשיב ל”מחשבות” שהתגלגלו לאורך כל מסלול החשיבה. במקום להעדיף תמיד את הפתרון המיידי, כדאי להעניק משקל ל”הרהורים של המודל” ולדיוקים שהוא מציע מתוך שלל שכבות הידע הפנימי שלו.

 

הגישה הזו מסמנת מגמה ברורה בבינה מלאכותית – צמצום תלות במקורות חיצוניים, חיזוק תחושת האמון במודל עצמו, ושאיפה ל-AI שידע “להתייעץ עם עצמו” לפני שיחווה דעה. לא תמיד צריך לאמן ו”לבנות מאפס” מודלים חדשים ועוצמתיים יותר, כשאפשר לחשוב על דרכים יצירתיות לגרום למודלים קיימים “לחשוב אחרת”, ובכך להגביר את הדיוק, המהימנות והיכולות שלהם. למרות ש-SLED אינה “פתרון קסם” לכל בעיה, היא פותחת דלת להעמקת ההבנה של מודלים עצמאיים, גמישים וניתנים לשדרוג מהיר, ובמקביל מדגימה כיצד מהפכות אמיתיות קורות דווקא כששמים לב לפרטים הקטנים שמתחבאים מתחת לפני השטח.

 

התקדמות זו מסקרנת במיוחד לאור הגידול בתלות שלנו במודלי שפה – לא רק בתור כלים לכתיבה או סיכום, אלא גם ככלי עזר לאנליזה, פתרון בעיות, והכוונה בעולם האמיתי. שילוב SLED בתוך תהליכי פיתוח גדולים של פלטפורמות AI נוספות, מצביע על עתיד שבו “הפנימיות” של המודל תעמוד במרכז קבלת ההחלטות, והדרך אל תשובות טובות באמת תעבור דרך הקשבה אמיתית… לכל קול במערכת.

הפוסט הקול בראש – SLED גורמת למודלי AI להקשיב לכל הקולות במוח שלהם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/sled/feed/ 0
xAI משיקים את Grok 4 Fast https://letsai.co.il/grok-4-fast/ https://letsai.co.il/grok-4-fast/#respond Wed, 24 Sep 2025 12:41:38 +0000 https://letsai.co.il/?p=60576 xAI הכריזה על Grok 4 Fast, דגם חדש שמביא שילוב נדיר של ביצועים גבוהים, מהירות ועלות מופחתת באופן דרמטי. במקביל פורסמו דיווחים על גיוס הון של 10 מיליארד דולר לפי שווי של 200 מיליארד. הידיעה עוררה דיון עולמי על האמון של המשקיעים בחזון של אילון מאסק ועל השפעתו על שוק ה-AI.       ביצועים […]

הפוסט xAI משיקים את Grok 4 Fast הופיע ראשון בLet's AI בינה מלאכותית

]]>
xAI הכריזה על Grok 4 Fast, דגם חדש שמביא שילוב נדיר של ביצועים גבוהים, מהירות ועלות מופחתת באופן דרמטי. במקביל פורסמו דיווחים על גיוס הון של 10 מיליארד דולר לפי שווי של 200 מיליארד. הידיעה עוררה דיון עולמי על האמון של המשקיעים בחזון של אילון מאסק ועל השפעתו על שוק ה-AI.

 

השקה של גרוק 4 הגרסה המהירה והזולה

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ביצועים מובילים במחיר רצפה

לפי ההודעה הרשמית של xAI, המודל Grok 4 Fast מציג ביצועים כמעט זהים לאלו של Grok 4, אך צורך כ-40 אחוז פחות thinking tokens. החיסכון הזה מוביל להפחתה של עד 98 אחוז בעלות להשגת אותה רמת דיוק. מדד ה-AAII (Artificial Analysis Intelligence Index) מאשר שמדובר באחד היחסים הגבוהים בתעשייה בין עלות לביצועים.

 

הגרף המצורף ממחיש את מיקומו של Grok 4 Fast במדד AAII לעומת מודלים אחרים. הוא מציע ביצועים קרובים למודלים מובילים, אך במחיר נמוך עד פי 47. המשמעות היא שהמודל נמצא על “גבול הפארטו” של יחס עלות־ביצועים – הנקודה שבה קשה לשפר עוד את הביצועים בלי להעלות באופן ניכר את העלות:

 

אינטליגנציה מול מחיר

אינטליגנציה מול מחיר. Source: x.ai

כך נראה המודל שמאתגר את GPT-5

הנתונים הרשמיים מצביעים על כך ש-Grok 4 Fast מצמצם את הפער מול הדגמים המובילים כמו GPT-5 ו-Grok 4. הוא שומר על רמת ביצועים כמעט זהה, אך מציע זאת בעלות נמוכה בהרבה.

 

הגרף שלפניכם ממחיש את ההישגים במבחני בנצ’מרק מרכזיים ואת השילוב בין דיוק גבוה ליעילות כלכלית:

 

השוואת ביצועים בבנצ'מרקים מובילים

השוואת ביצועים בבנצ’מרקים מובילים. Source: x.ai

מובילות עולמית בחיפוש והבנת מדיה

Grok 4 Fast עבר אימון מקיף ב־tool-use RL, שמאפשר לו להפעיל חיפוש בזמן אמת, להריץ קוד ולנתח תמונות וסרטונים כחלק מהשיחה. בזכות האימון הזה הוא מדורג ראשון ב-BrowseComp וב-Reka Research Eval, ומציג תוצאות מצוינות גם בגרסאות הסיניות של SimpleQA ובמבחן הפנימי X Browse.

 

הנתונים מראים קפיצת מדרגה ביכולת לבצע חיפוש מרובה צעדים ולחבר מידע ממקורות שונים בזמן אמת, מה שממקם אותו בחזית תחום ההסקה החכמה:

 

ביצועי חיפוש מרובי צעדים – Grok 4 Fast מקפיץ רף חדש

ביצועי חיפוש מרובי צעדים – Grok 4 Fast מקפיץ רף חדש. Source: x.ai

 

הוכחה בזירת מבחני המשתמשים (LMSYS Arena)

LMSYS היא פלטפורמת מבחנים עיוורת שבה משתמשים אמיתיים משווים בין מודלים של AI ומדרגים את התשובות לפי איכות. זה נחשב אחד המדדים האמינים ביותר ליכולת ביצוע בעולם האמיתי.

 

ב־LMSYS Search Arena, המודל grok-4-fast-search מוביל את הטבלה עם ציון Elo של ‎1163 – פער של 17 נקודות מעל o3-search של OpenAI ו-21 נקודות מעל Gemini 2.5 Pro. הנתון הזה מראה ש-Grok 4 Fast נותן את התשובות המועדפות ביותר במשימות חיפוש בזמן אמת ובחיבור מידע מכמה מקורות:

 

מקום ראשון ב-LMSYS Search Arena

מקום ראשון ב-LMSYS Search Arena. מקור: x.ai

 

גם ב-LMSYS Text Arena המודל grok-4-fast מציג תוצאה מרשימה עם מקום שמיני וציון Elo של ‎1421. הוא כמעט ברמה של GPT-5 High ועוקף את DeepSeek V3.1, מה שממחיש את השיפור הגדול ביכולת ההבנה והכתיבה של המודל החדש.

 

דירוג LMSYS Text Arena – Grok 4 Fast

דירוג LMSYS Text Arena. מקור: x.ai

 

ארכיטקטורה מאוחדת ומהירה

Grok 4 Fast הוא המודל הראשון של xAI שמטפל גם במשימות פשוטות וגם במשימות שדורשות חשיבה עמוקה בתוך אותו מודל יחיד. המעבר בין המצבים נעשה אוטומטית לפי ההקשר של הבקשה. השילוב הזה מקצר את זמני התגובה ומוזיל את עלות ההרצה, כך שהמשתמשים מקבלים תשובות מהירות יותר בלי להתפשר על איכות.

 

מגוון המודלים של גרוק

Grok 4 Fast כבר זמין לבחירה בממשק המשתמש

זמינות ומחירים

למשתמשים

Grok 4 Fast זמין כבר עכשיו ב-grok.com ובאפליקציות X, גם למי שאינם מנויים בתשלום. במצבי Fast ו-Auto הוא נבחר אוטומטית לשאילתות מורכבות, כך שהמשתמשים מקבלים את המודל החזק ביותר מבלי להגדיר דבר.

למפתחים

שני מודלים זמינים – grok-4-fast-reasoning ו־grok-4-fast-non-reasoning – שניהם עם חלון קונטקסט של 2 מיליון טוקנים. ניתן לגשת אליהם דרך OpenRouter ו-Vercel AI Gateway, עם שימוש חינמי לזמן מוגבל למי שרוצה להתנסות.

 

מחירים

כמה זה עולה?

האם השוק מהמר על מאסק?

במקביל להשקת Grok 4 Fast פורסמו דיווחים ב-CNBC וב-Bloomberg על גיוס של 10 מיליארד דולר לפי שווי של 200 מיליארד דולר, בהשתתפות משקיעים אסטרטגיים כמו Qatar Investment Authority ו-Prince Al Waleed.

 

אילון מאסק מיהר להכחיש את הדיווחים והבהיר כי xAI אינה מגייסת בשלב זה. מכיוון שאין אישור רשמי מהחברה, מדובר במידע ספקולטיבי, אך עצם הפרסומים מראה שהשוק עוקב מקרוב ומוכן להמר על החזון של מאסק גם לפני שיש אישור רשמי.

 

גיוס בהיקף כזה עשוי לשמש את xAI להרחבת מרכזי החישוב, הגדלת כושר המחשוב ותמיכה בהפצה רחבה של Grok 4 Fast בקנה מידה עולמי. המשקיעים מהמרים פחות על מה שהמודל יודע לעשות היום, ויותר על הפוטנציאל לשלב אותו במוצרים של טסלה, SpaceX ורשת X ולהפוך אותו לכלי מרכזי באקוסיסטם של מאסק.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

אתגרים ופרספקטיבה לעתיד

על אף ההישגים המרשימים, Grok 4 Fast עדיין לא סוגר את כל הפערים. מומחים מציינים שהוא מפגר אחרי מודלים מתקדמים כמו GPT-5 במשימות קוד מורכב וביצירתיות טקסטואלית. שאלות על שקיפות, בטיחות ויכולת עמידה בעומסים עדיין פתוחות, והן יקבעו במידה רבה את האמון שהחברה תצליח לייצר. xAI פרסמה Model Card שמפרט את מנגנוני הסינון והבטיחות, אך מבחן האמת יגיע כשמיליוני משתמשים יפעילו את המודל במקביל.

 

 

המהלך של xAI הוא יותר מהשקת מוצר חדש – זהו ניסיון לשנות את כללי המשחק ולהפוך את ה-AI המתקדם לנגיש לכל. אם מאסק יצליח לשמר ביצועים ואמינות בקנה מידה עולמי, הוא עשוי להכריח את המתחרות להוזיל מחירים, לפתוח את הגישה ולהאיץ את קצב החדשנות. במילים אחרות, הקרב האמיתי על עתיד הבינה המלאכותית רק מתחיל.

הפוסט xAI משיקים את Grok 4 Fast הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/grok-4-fast/feed/ 0
ChatGPT ו-Claude מציגות פיצול בשוק ה-AI https://letsai.co.il/chatgpt-vs-claude-usage/ https://letsai.co.il/chatgpt-vs-claude-usage/#respond Sat, 20 Sep 2025 14:03:28 +0000 https://letsai.co.il/?p=60491 לאחרונה פורסמו שני דוחות שימוש משמעותיים מעולמות הבינה המלאכותית – של ChatGPT מבית OpenAI ושל Claude מבית Anthropic. שני השחקנים המרכזיים במירוץ ה-AI מציגים לא רק נתונים מרשימים, אלא גם שני עולמות כמעט מנוגדים של שימוש – עולם צרכני ענק מול עולם עסקי ממוקד. השאלה המסקרנת היא מה זה אומר על עתיד השוק, והאם אנחנו […]

הפוסט ChatGPT ו-Claude מציגות פיצול בשוק ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
לאחרונה פורסמו שני דוחות שימוש משמעותיים מעולמות הבינה המלאכותית – של ChatGPT מבית OpenAI ושל Claude מבית Anthropic. שני השחקנים המרכזיים במירוץ ה-AI מציגים לא רק נתונים מרשימים, אלא גם שני עולמות כמעט מנוגדים של שימוש – עולם צרכני ענק מול עולם עסקי ממוקד. השאלה המסקרנת היא מה זה אומר על עתיד השוק, והאם אנחנו מתקרבים למיזוג בין העולמות או דווקא לפיצול עמוק יותר בין “AI לצרכן” ל-“AI לעסק”.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ChatGPT כובש את הקהל הרחב

עם 700 מיליון משתמשים פעילים בשבוע, ChatGPT כבר מזמן הפסיקה להיות “רק מודל שיחה” והפכה למשהו שדומה יותר לרשת חברתית גלובלית. זהו מספר שמייצג כ-10% מהאוכלוסייה הבוגרת בעולם – נתון שממקם את OpenAI בליגה של פייסבוק וטיקטוק מבחינת היקף השימוש.

 

אבל מה שמעניין יותר מהמספרים הוא המגמה – יותר מ- 70% מהשיחות ב-ChatGPT אינן קשורות לעבודה – זינוק משמעותי לעומת 53% ביוני 2024. כלומר, השימוש האישי כבר לא רק משלים את השימוש המקצועי – הוא השימוש העיקרי. ChatGPT הפכה לעוזר אישי, מקור ידע ואפילו לכלי בידור עבור מאות מיליוני אנשים.

 

אז מה בעצם עושים המשתמשים עם ChatGPT? רובם פונים אליו לקבלת ייעוץ מעשי – כמעט שליש מכלל השימושים הם שאלות יומיומיות, קבלת החלטות קטנות וטיפים פרקטיים לחיים. אחרים משתמשים בו כמנוע חיפוש וכותב צללים, עם היקף דומה של חיפושי מידע וכתיבה – משאלות מהירות ועד כתיבת פוסטים ומסמכים שלמים. הקודינג, שהיה פעם סמל לשימוש במודלים האלו, הוא נתח קטן יחסית, כ-4.2% מההודעות.

 

במילים אחרות, ChatGPT עברה מהפך – מכלי טכנולוגי למפתחים למוצר צרכני-חברתי שמלווה את המשתמשים כמעט בכל היבט של החיים הדיגיטליים שלהם.

Claude הוא קו הייצור של עולם ה-AI העסקי

אם ChatGPT היא הכוכבת של עולם הצרכנים, Claude הוא כלי העבודה של המפתחים והעסקים. 36% מהשימושים בו מוקדשים לקודינג ולמתמטיקה – פי 8.5 מהיקף השימוש המקביל ב-ChatGPT, מה שממקם את Claude כפתרון מועדף למשימות טכניות מורכבות.

 

בגישה דרך API, התמונה חריפה עוד יותר – 77% מהשיחות הן אוטומטיות לחלוטין. המשתמשים לא מנהלים איתו שיחה, אלא שולחים פקודות ומקבלים תוצאה – אינטגרציה חלקה וישירה בתהליכי העבודה הארגוניים.

 

אחד הנתונים הבולטים בדוח Anthropic הוא העלייה בשימוש “דירקטיבי” – מעבר מדיאלוג הדרגתי להוראות מלאות שמבצעות תהליך שלם. שיעור השיחות הללו קפץ מ-27% בדצמבר 2024 ל-39% באוגוסט 2025, נתון שממחיש עד כמה המשתמשים סומכים על Claude לבצע עבורם עבודה שלמה, לא רק לספק תשובות נקודתיות.

מוניטיזציה של שני מודלים עסקיים שונים

הפער בין ChatGPT ל-Claude לא מסתיים בשאלה איך משתמשים בהם, הוא בא לידי ביטוי גם באסטרטגיות ההכנסה שכל חברה בחרה.

 

OpenAI בונה את עתידה על המסה האדירה של המשתמשים. לפי הערכות אנליסטים ודיווחי שוק, OpenAI נמצאת סביב 12-13 מיליארד דולר בקצב הכנסות שנתי (ARR) באמצע 2025 – פי שלושה לעומת השנה הקודמת. לפי הערכות, רק קצת מעל חמישה מיליון משתמשים עסקיים משלמים על השירות, אבל האוצר האמיתי הוא מאות מיליוני המשתמשים החינמיים.

 

לפי דיווחים, התוכניות של OpenAI כוללות מודל פרסום שצפוי להתחיל להניב מיליארד דולר כבר ב-2026, עם תחזית זינוק ל-25 מיליארד עד 2029. כל זה לצד פיתוח חנות GPT, שירותי פרודוקטיביות ושכבות פרימיום – מודל שמזכיר יותר ויותר פלטפורמת מדיה חברתית שמטרתה למקסם את הערך מכל משתמש.

 

Anthropic, לעומת זאת, שומרת על אסטרטגיה ממוקדת B2B. עיקר ההכנסות שלה, בין 70% ל-75%, מגיע מקריאות API בתשלום לפי טוקן, מודל שמייצר הכנסה גבוהה במיוחד במשימות קוד מורכבות. שותפויות עם ענקיות כמו AWS Bedrock, Google Vertex AI משבצות את Claude ישירות בתוך תהליכי העבודה הארגוניים. היתרון ברור – הכנסה גבוהה ויציבה לכל משתמש. אבל בניגוד ל-OpenAI, טווח הצמיחה של Anthropic מוגבל יותר – השוק העסקי גדול, אך לא אינסופי.

הסיכונים שבאופק

לצד ההזדמנויות, חשוב לזכור שהשוק לא חסין מסיכונים. התחרות גוברת – שחקנים כמו xAI עם Grok של אילון מאסק ו-Google Gemini משקיעים משאבים עצומים ומאיימים לערער את ההובלה של OpenAI ו-Anthropic. במקביל, הרגולציה מחמירה – ה-EU AI Act שנכנס בהדרגה לתוקף באירופה עשוי להוסיף עלויות ציות כבדות ולצמצם את חופש הפעולה של החברות.

 

בנוסף, סוגיות אתיות כמו פרטיות, שקיפות והטיות במודלים עלולות לעורר ביקורת ציבורית ולחייב התאמות טכנולוגיות מהירות. כל אלה עלולים להאט את הצמיחה ולהפוך את המירוץ למאתגר הרבה יותר ממה שהנתונים הנוכחיים מרמזים, וזה הופך את השאלה על עתיד השוק למורכבת ומעניינת עוד יותר.

 

 

לאן השוק הולך מכאן

אני לא נביא, אבל הדוחות האחרונים ממחישים שהפער בין שימוש צרכני לעסקי רק גדל. ChatGPT מתבסס כפלטפורמה עולמית לצרכנים, בעוד Claude מתחזק כבסיס תשתית לארגונים.

 

האתגר של OpenAI הוא להפוך את המסה הזו להכנסות בלי לפגוע בחוויית המשתמש. Anthropic, לעומת זאת, צריכה להמשיך לחדש כדי לשמור על מובילות בשוק עסקי רווי.

 

ספטמבר 2025 מסמן צומת דרכים. עדיין לא ברור אם השוק יתכנס למודל אחיד או ימשיך להתפצל לשני עולמות – AI חברתי מול AI תשתיתי. ההכרעה לא תבוא מהחברות אלא מהבחירות של המשתמשים. האם העתיד יהיה של מודל שמלווה אותנו בשיחה יומיומית, או של מכונה שקטה שמבצעת את העבודה מאחורי הקלעים?

הפוסט ChatGPT ו-Claude מציגות פיצול בשוק ה-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-vs-claude-usage/feed/ 0
OpenAI מאפשרת שליטה בקצב החשיבה של GPT-5 https://letsai.co.il/chatgpt-thinking-control/ https://letsai.co.il/chatgpt-thinking-control/#respond Fri, 19 Sep 2025 09:34:34 +0000 https://letsai.co.il/?p=60483 עדכון חדש ל-ChatGPT אולי נראה מינורי, אבל הוא שדרוג משמעותי וחשוב שקיבלו המשתמשים. בפעם הראשונה, אפשר לבחור כמה זמן GPT-5 יקדיש ל”חשיבה” לפני שהוא עונה. כפתור קטן מתחת לשורת ההקלדה הופך לכלי שמאפשר לכם לשלוט בקצב העבודה של המודל ולאזן בין מהירות תגובה לעומק הניתוח.   We’ve heard your feedback that GPT-5 Thinking can sometimes […]

הפוסט OpenAI מאפשרת שליטה בקצב החשיבה של GPT-5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
עדכון חדש ל-ChatGPT אולי נראה מינורי, אבל הוא שדרוג משמעותי וחשוב שקיבלו המשתמשים. בפעם הראשונה, אפשר לבחור כמה זמן GPT-5 יקדיש ל”חשיבה” לפני שהוא עונה. כפתור קטן מתחת לשורת ההקלדה הופך לכלי שמאפשר לכם לשלוט בקצב העבודה של המודל ולאזן בין מהירות תגובה לעומק הניתוח.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה השתנה?

OpenAI הוסיפה ל-ChatGPT תפריט חדש (במצב GPT-5 עם Thinking) שמאפשר לבחור את משך “זמן החשיבה” של המודל. כעת אפשר לבחור בין ארבעה מצבים:

 

Light, Standard, Extended, Heavy – כשכל אחד מהם מציע איזון שונה בין מהירות התגובה לעומק הניתוח.

  • Light – תגובה כמעט מיידית, עם פחות עומק. אידאלי לשאלות מהירות ותחקירים בזמן אמת.

  • Standard – איזון עדכני בין מהירות לדיוק, והוא כעת ברירת המחדל לכל המשתמשים.

  • Extended – מצב שהיה ברירת המחדל הקודמת, ומאפשר למודל להעמיק יותר ולספק תשובות מפורטות.

  • Heavy – מצב יסודי במיוחד שמעניק למודל זמן נוסף לחשיבה. מתאים לבעיות מחקר ולניתוחים מורכבים.

הבחירה נעשית בלחיצה פשוטה מתחת לשורת ההקלדה ונשמרת כברירת מחדל – עד שתחליטו לשנות שוב. המשמעות היא שאפשר לעבור בקלות בין מצבים גם באמצע שיחה.

 

בחירת מצב Thinking ב-GPT-5 – Light, Standard, Extended, Heavy – ישירות משורת ההקלדה.

בחירת מצב Thinking ב-GPT-5 ישירות משורת ההקלדה

למי זה זמין?

נכון לעכשיו, האפשרות לבחור את קצב החשיבה זמינה למשתמשי ChatGPT בגרסת הדפדפן (Web).

לפי OpenAI:

  • מנויי Plus ו-Business – מקבלים גישה לשני מצבים: Standard ו-Extended.

  • מנויי Pro – מקבלים גישה לכל ארבעת המצבים, כולל Light ו-Heavy.

המשמעות היא שבפעם הראשונה נוצרת הבחנה ברורה לא רק בביצועים ובמהירות התגובה, אלא גם בשליטה שהמשתמש מקבל על חוויית השיחה.

למה זה חשוב?

עד עכשיו המשתמשים היו שבויים בקצב שהמודל בחר עבורם, לפעמים מהיר מדי כשהייתה דרושה חשיבה מעמיקה, ולפעמים איטי מדי למשימות פשוטות.

העדכון החדש מחזיר את השליטה לידיים שלכם ומאפשר גמישות אמיתית:

  • צריכים תשובה מיידית? בחרו ב-Light וקבלו תגובה כמעט בזמן אמת.

  • עובדים על כתיבה מורכבת או ניתוח אסטרטגי? עברו ל-Heavy ותנו למודל את הזמן להעמיק.

כך ניתן להתאים את קצב העבודה של הבינה המלאכותית לקצב האישי שלכם ולא להפך.

שקיפות ושליטה במודלים

המהלך הזה הוא חלק ממגמה עולמית ברורה – החזרת השליטה למשתמשי הבינה המלאכותית. בתקופה שבה שאלות על “Hallucinations” ואמינות המודלים נמצאות במרכז השיח, OpenAI מציעה דרך פשוטה אך אפקטיבית להשפיע על איכות התוצאה ולבחור כמה זמן המודל יקדיש לחשיבה.

 

מעבר לשיפור חוויית המשתמש, זוהי גם הזדמנות למחקר והתנסות – השוואה בין מצבי החשיבה חושפת איך GPT-5 “שוקל” תשובות ויכולה ללמד הרבה על האופן שבו מודלים גדולים פועלים.

 

העדכון הזה הוא הרבה יותר מעוד פיצ’ר בממשק. הוא מסמן כיוון – בינה מלאכותית שמותאמת למשתמש ולא להפך. בין אם אתם צריכים תשובה מהירה תוך שניות ובין אם אתם רוצים ניתוח מעמיק ומבוסס, עכשיו אתם מחליטים את הקצב.

 

ההמלצה שלנו – נסו לשאול את אותה השאלה במצבים שונים. תופתעו לגלות עד כמה הפלט משתנה, ותוכלו לבחור את האיזון המדויק שמתאים לכם.

הפוסט OpenAI מאפשרת שליטה בקצב החשיבה של GPT-5 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-thinking-control/feed/ 0
אנטרופיק מוסיפים יכולות זיכרון ואינקוגניטו ל- Claude https://letsai.co.il/claude-memory-features/ https://letsai.co.il/claude-memory-features/#respond Sun, 14 Sep 2025 08:56:53 +0000 https://letsai.co.il/?p=58750 אנטרופיק משיקה שני פיצ’רים חשובים: זיכרון ומצב אינקוגניטו. מהיום, משתמשי Team ו-Enterprise יכולים לאפשר ל-Claude לזכור פרויקטים, העדפות ותהליכי עבודה. התוצאה – תשובות רציפות, חכמות ורלוונטיות הרבה יותר לאורך זמן. בנוסף, כל המשתמשים מקבלים גישה למצב אינקוגניטו – צ’אט זמני שבו שום דבר לא נשמר בזיכרון.     שני סוגי זיכרון – מה ההבדל? לפני […]

הפוסט אנטרופיק מוסיפים יכולות זיכרון ואינקוגניטו ל- Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנטרופיק משיקה שני פיצ’רים חשובים: זיכרון ומצב אינקוגניטו. מהיום, משתמשי Team ו-Enterprise יכולים לאפשר ל-Claude לזכור פרויקטים, העדפות ותהליכי עבודה. התוצאה – תשובות רציפות, חכמות ורלוונטיות הרבה יותר לאורך זמן. בנוסף, כל המשתמשים מקבלים גישה למצב אינקוגניטו – צ’אט זמני שבו שום דבר לא נשמר בזיכרון.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שני סוגי זיכרון – מה ההבדל?

לפני כמה ימים פרסמנו מדריך מפורט על Search and Reference Chats, הפיצ’ר שמאפשר ל-Claude לחפש בשיחות עבר ולהפנות אליהן כשאתם מבקשים. זה מצוין כשצריך לשלוף מידע ספציפי משיחה ישנה, לדוגמה, תזכורת על מה שסיכמתם עם לקוח שבוע שעבר, אבל הוא לא בונה זיכרון חדש ברקע ולא משנה את הדרך שבה Claude יענה בשיחות הבאות אם לא ביקשתם ממנו לחפש.

 

הפיצ’ר החדש, Generate Memory of Chat History, לוקח את זה צעד קדימה – Claude בונה לעצמו באופן אוטומטי סיכום זיכרון מתמשך שמתעדכן כל יום, ושומר אותו בנפרד לכל פרויקט. כך, כשאתם חוזרים לשיחה בנושא מסוים, Claude כבר מכיר את ההקשר ויכול להמשיך מאותה נקודה בלי שתצטרכו לחזור על עצמכם.

 

בקצרה, הראשון הוא כלי חיפוש נקודתי, השני הוא זיכרון מתמשך שמשתפר עם הזמן.

 

הגדרות הזיכרון ב-Claude זמינות תחת Settings > Memory להפעלה וכיבוי:

 

שני פיצ׳רים חדשים לשליטה בזכרון של קלוד

שני מתגים בהגדרות הזיכרון ב-Claude

איך הזיכרון עובד בפועל?

Claude מתמקד בזכירת מידע מקצועי כדי לשפר את הפרודוקטיביות שלכם. הוא שומר את הקונטקסט החשוב בין השיחות, כך שצוות מכירות יכול להמשיך לנהל שיחות עם לקוח מבלי לחפש שוב את ההיסטוריה, צוות מוצר יכול להתקדם בספרינטים בלי לאבד את מפרטי הדרישות, ומנהלים יכולים לעקוב אחרי יוזמות לאורך זמן מבלי לבנות את הסיפור מחדש בכל פגישה. הזיכרון נבנה בנפרד לכל פרויקט, כך שמידע מפרויקט אחד לא יופיע בפרויקט אחר – מנגנון שמונע ערבוב פרטים ושומר על סודיות.

 

הנה דוגמא שממחישה מה Claude מסוגל לעשות כשיש לו קונטקסט מתמשך. כך נראה סיכום הישגים רבעוניים (חיסכון בעלויות, אימוץ מוצר, שביעות רצון לקוחות) ש-Claude יוצר על בסיס זיכרון השיחות והפרויקטים שלכם:

 

המחשה חיה של מה Claude מסוגל לעשות כשיש לו קונטקסט מתמשך.

סיכום הישגים רבעוניים שקלוד הפיק מזיכרון השיחות. Source: Anthropic

איך להתחיל?

כפי שהסברנו למעלה, כדי להפעיל את הזיכרון, גשו להגדרות > Memory והדליקו את המתגים של Search & Reference ושל/או Generate Memory. בפעם הראשונה תוכלו לאפשר ל-Claude ליצור זיכרון מהצ’אטים הקיימים שלכם כדי להתחיל עם קונטקסט מוכן. כדי לוודא שהכל עובד, נסו לשאול: “על מה עבדנו השבוע שעבר?” ותראו אם Claude מחזיר תשובה רציפה מהעבר. מעקב וניהול זיכרונות עושים דרך View and Edit Memory, שם אפשר לצפות, לערוך או למחוק כל פריט שנשמר.

מצב אינקוגניטו

מצב אינקוגניטו נותן לכם צ’אט נקי שלא נשמר בזיכרון ולא מופיע בהיסטוריה הקבועה. זה פתרון אידיאלי לדיונים רגישים, סיעורי מוחות חסויים או פשוט כשאתם רוצים התחלה חדשה לגמרי בלי קונטקסט משיחות קודמות.

 

הפעלת מצב אינקוגניטו

הפעלת מצב אינקוגניטו

למי זה זמין?

גם Search & Reference וגם Generate Memory זמינים היום למשתמשי Team ו-Enterprise בכל הממשקים: web, desktop ו-mobile. מצב אינקוגניטו לעומת זאת פתוח לכל המשתמשים, גם בלי מנוי. בנוסף, מנהלי Enterprise יכולים בכל רגע לכבות את הזיכרון ברמת הארגון, אם רוצים שליטה מלאה על השימוש במידע.

יבוא וייצוא זיכרון

Claude מאפשר לייצא את הזיכרון שלכם כטקסט. מומלץ לשמור אותו כקובץ Markdown לגיבוי או להעברה לעוזר אחר. אפשר גם לייבא מידע מעוזרי AI אחרים, אבל חשוב לדעת שהפיצ’ר עדיין ניסיוני – העדכון עשוי להופיע רק אחרי כ-24 שעות, והתהליך לא מוחק את הזיכרונות הקיימים אלא פשוט מצרף את המידע החדש לסיכום הקיים.

 

 

 

שיקולי בטיחות והגישה ההדרגתית

לסיכום, Claude כבר לא רק עוזר חד-פעמי, הוא הופך לשותף עבודה שלומד ומתפתח יחד אתכם. Anthropic משחררת את יכולות הזיכרון בהדרגה ותחת בקרה צמודה, כדי לוודא שהשימוש בהן אחראי ומתאים לסביבות עבודה מקצועיות. המשתמשים מקבלים שליטה מלאה שמאפשרת לצפות בכל פריט שנשמר, לערוך אותו או למחוק לחלוטין – כך נשמרת שקיפות מלאה והבקרה נשארת בידיים שלכם.

הפוסט אנטרופיק מוסיפים יכולות זיכרון ואינקוגניטו ל- Claude הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-memory-features/feed/ 0
קלוד מתחדש עם עוזר אישי חכם ויכולות מסמך מתקדמות https://letsai.co.il/claude-ai-updates/ https://letsai.co.il/claude-ai-updates/#respond Wed, 10 Sep 2025 07:43:19 +0000 https://letsai.co.il/?p=58460 בימים האחרונים אנתרופיק (Anthropic) שחררה שני עדכונים משמעותיים ל-Claude: חיבור לסמארטפון שמאפשר לו לפעול בעולם האמיתי, ויכולת ליצור ולערוך מסמכים מקצועיים ישירות מתוך הצ’אט. מה שבעבר דרש תוכנות ייעודיות וזמן רב הופך לכלי עבודה יומיומי. קלוד כבר לא רק עונה לשאלות – הוא פועל, יוזם ומספק תוצרים ברמה גבוהה. במאמר הזה נפרק את העדכונים, נסביר […]

הפוסט קלוד מתחדש עם עוזר אישי חכם ויכולות מסמך מתקדמות הופיע ראשון בLet's AI בינה מלאכותית

]]>
בימים האחרונים אנתרופיק (Anthropic) שחררה שני עדכונים משמעותיים ל-Claude: חיבור לסמארטפון שמאפשר לו לפעול בעולם האמיתי, ויכולת ליצור ולערוך מסמכים מקצועיים ישירות מתוך הצ’אט. מה שבעבר דרש תוכנות ייעודיות וזמן רב הופך לכלי עבודה יומיומי. קלוד כבר לא רק עונה לשאלות – הוא פועל, יוזם ומספק תוצרים ברמה גבוהה. במאמר הזה נפרק את העדכונים, נסביר איך הם עובדים, למי הם זמינים, וכיצד תוכלו להתחיל להשתמש בהם בהתאם למסלול המנוי שלכם.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

קלוד מתחבר לחיים שלכם דרך הסמארטפון

קלוד מקבל שדרוג משמעותי באפליקציות לאייפון ולאנדרואיד, שמאפשר לו לצאת מהצ’אט אל העולם האמיתי ולבצע פעולות יומיומיות ישירות מהמכשיר שלכם. לא עוד תשובות טקסט בלבד, אלא עוזר שמבצע משימות בפועל.

 

אפשר לבקש מקלוד להכין הודעת וואטסאפ או מייל, לפתוח את האפליקציה המתאימה והכול כבר מוכן לשליחה. הוא בודק ביומן מתי הפגישה הבאה, מוסיף אירוע חדש ומזכיר לכם בזמן. כשמחפשים מקום לאכול, הוא מוצא מסעדות קרובות ומוסיף את הכתובת לנווט. ב-iOS הוא מנהל רשימות ותזכורות, ובאנדרואיד אפילו מפעיל טיימרים והתראות. משתמש עסקי, למשל, יכול לבקש מקלוד למצוא מסעדה לפגישת צהריים ולהוסיף את האירוע ליומן – וכל זה מתבצע בתוך שניות.

 

ההפעלה פשוטה: מעניקים הרשאות, מגדירים העדפות וקלוד מתחבר לכלים הקיימים במכשיר. חשוב לדעת, קלוד לא קורא הודעות קיימות אלא רק יוצר חדשות, והדגש נשאר על פרטיות. העדכון מתגלגל בהדרגה למשתמשים ברחבי העולם דרך אפליקציות iOS ואנדרואיד, כאשר ייתכנו הבדלים קלים בזמינות הפיצ’רים בין תוכניות המנוי.

עוזר אישי על סטרואידים

העדכון השני של אנטרופיק לוקח את קלוד צעד גדול קדימה והופך אותו לכלי עבודה מלא. מעכשיו תוכלו להעלות קובץ נתונים מבולגן ולקבל דוח PDF מסודר עם גרפים, לתת נקודות עיקריות ולצאת עם מצגת PowerPoint מוכנה, או לבקש מסמך וורד מקצועי, והכול בלי צורך בידע טכני או תוכנות חיצוניות.

 

בפועל, זה נראה אחרת לגמרי מה שהכרנו עד היום – משתמש עסקי מעלה גיליון מכירות לא מעובד וקלוד מחזיר לו מצגת ברורה לפגישת הנהלה. סטודנט מפזר סיכומי שיעור כקובצי טקסט ומקבל PDF מסודר עם גרפים וטבלאות. מנהל פרויקטים שצריך לעקוב אחרי לקוחות מוצא את עצמו עם גיליון אקסל בנוי מראש במקום להתחיל מאפס. אפילו חומרים ישנים, הערות או טבלאות מפוזרות, הופכים תוך רגע למסמך דיגיטלי אחיד וברמה מקצועית.

 

כך זה נראה בפועל: קלוד יוצר מסמכים אמיתיים בלחיצת כפתור

כך זה נראה בפועל: קלוד יוצר מסמכים בלחיצת כפתור. Source: anthropic

זמינות והפעלה

היכולת החדשה זמינה כבר עכשיו למנויי Max, Team ו-Enterprise, ובקרוב תיפתח גם למנויי Pro במסגרת בטא.

 

מעבר ליכולות הבסיסיות, קלוד מפעיל את כלי המסמכים בסביבת מחשוב מבודדת (sandbox), שם הוא יכול להריץ קוד, לייצר נוסחאות אוטומטיות ולבנות דשבורדים מורכבים בגיליונות נתונים. הוא יודע גם להמיר מסמכים בין פורמטים שונים ולארגן מחדש חומרים ישנים למסמכים דיגיטליים ברמה גבוהה. נכון להיום, גודל הקובץ המקסימלי הנתמך הוא 30MB – נתון שמספיק לרוב השימושים העסקיים והלימודיים.

איך מתחילים?

כדי להתחיל להשתמש בפיצ’ר, נכנסים להגדרות החשבון, בוחרים ב-Settings > Features > Experimental ומפעילים את האפשרות “Upgraded file creation and analysis”.

 

משם התהליך פשוט – מעלים קבצים רלוונטיים או מתארים מה צריך, מנחים את קלוד דרך הצ’אט, ולבסוף מורידים את הקבצים המוכנים או שומרים אותם ישירות ל-Google Drive. מרגע ההפעלה ניתן ליצור ולערוך קבצי Word, Excel, PowerPoint ו־PDF ישירות מהצ’אט.

 

הפעלת האפשרות ליצירה ועריכת קבצים

הפעלת האפשרות ליצירה ועריכת קבצים. Source: anthropic

דגש על אבטחת מידע

היכולות החדשות מעניקות לקלוד גישה רחבה יותר לאינטרנט ולמערכות הקבצים, צעד שמעלה באופן טבעי שאלות של פרטיות ובקרה. באנטרופיק מדגישים כי חשוב להפעיל שיקול דעת ולפקח על השימוש, במיוחד כשמדובר במסמכים רגישים או במידע עסקי. כדי לצמצם סיכונים שולבו שכבות הגנה נוספות – במנויי Enterprise משימות מעובדות בסביבה מבודדת, ותוצרים שעשויים לכלול מידע רגיש אינם ניתנים לשיתוף פומבי.

 

המשמעות למשתמשים ברורה, קלוד הופך חזק ושימושי יותר, אבל האחריות להפעיל אותו בזהירות ולוודא שהמידע מתאים לעיבוד חיצוני נשארת בידיים שלכם.

 

 

איך זה משפיע על תעשיית ה-AI?

העדכונים האחרונים מסמנים קפיצת מדרגה – קלוד כבר לא רק עונה על שאלות, אלא מבצע משימות ממשיות – מניהול יומן ועד יצירת מצגות ודוחות. המשמעות היא שהתחרות מול שחקנים כמו ChatGPT ו-Gemini הופכת מוחשית, והמעבר מבינה מלאכותית כצ’אט טקסטואלי לכלי עבודה יום־יומי מתרחש בפועל.

 

המסר ברור: קלוד מציב רף חדש כעוזר אישי דיגיטלי חזק, מאובטח ונגיש, ומסמן צעד נוסף לעידן שבו AI עובד לצידנו, לא רק משוחח איתנו.

הפוסט קלוד מתחדש עם עוזר אישי חכם ויכולות מסמך מתקדמות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-ai-updates/feed/ 0
מחקר חדש של OpenAI חושף את הסוד מאחורי הזיות של בינה מלאכותית https://letsai.co.il/ai-hallucinations-secret/ https://letsai.co.il/ai-hallucinations-secret/#respond Tue, 09 Sep 2025 08:05:45 +0000 https://letsai.co.il/?p=58369 כולנו מכירים את זה – אתם שואלים את ChatGPT שאלה פשוטה, והוא עונה בביטחון מוחלט… אבל התשובה בכלל לא נכונה. שנים חשבו שההזיות הן באג מסתורי, אבל מחקר מרתק מבית OpenAI מראה שהן תוצאה ישירה של איך לימדו את המודלים. השבוע פרסמו החוקרים אדם תאומן כלאי (Adam Tauman Kalai) ואופיר נחום (Ofir Nachum) מחקר שמסביר […]

הפוסט מחקר חדש של OpenAI חושף את הסוד מאחורי הזיות של בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
כולנו מכירים את זה – אתם שואלים את ChatGPT שאלה פשוטה, והוא עונה בביטחון מוחלט… אבל התשובה בכלל לא נכונה. שנים חשבו שההזיות הן באג מסתורי, אבל מחקר מרתק מבית OpenAI מראה שהן תוצאה ישירה של איך לימדו את המודלים. השבוע פרסמו החוקרים אדם תאומן כלאי (Adam Tauman Kalai) ואופיר נחום (Ofir Nachum) מחקר שמסביר בפעם הראשונה בצורה מתמטית וברורה למה מודלים ממציאים עובדות, ואיך אפשר לגרום להם לדעת להגיד גם “אני לא יודע”.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הפתרון למשוואה המסתורית

שנים התייחסו להזיות כקסם שחור שייעלם כשנטייב את הטכנולוגיה. המחקר החדש של OpenAI טוען ההפך – הזיות אינן תקלה, אלא תוצאה ישירה של איך שאימנו את המודלים מלכתחילה. כדי להסביר את זה, החוקרים השתמשו בהשוואה מעולם מוכר יותר – סיווג בינארי.

 

כשמודל צריך להחליט אם משהו נכון או לא נכון, הוא פועל כמו בוחן אמריקאי עם שתי תשובות בלבד. ומה מצאו? ליצור עובדה נכונה מאפס זה קשה בהרבה מאשר לזהות עובדה נכונה כשמציגים לך אותה. לכן, הסיכוי לטעות ביצירה גבוה פי שניים מאשר בזיהוי.

 

תחשבו על תלמיד במבחן גיאוגרפיה – המורה מבקש ממנו לכתוב שם של עיר בצרפת. אם הוא לא יודע, יש לו שתי אופציות, להגיד “אני לא יודע”, או לנחש “פריז”. עכשיו, אם המורה נותן את אותו ציון לאמירה “אני לא יודע” כמו לניחוש שגוי, אבל מעניק נקודה מלאה על ניחוש נכון, מה התלמיד ילמד לעשות? ברור, הוא ינחש. בדיוק אותו תמריץ מובנה קיים אצל מודלי ה-AI.

שני פשעי היסוד של תהליך האימון

המחקר מראה שיש בעצם שתי תחנות קריטיות שבהן נוצרים זרעי ההזיות:

שלב ראשון – Pretraining: זריעת הבלבול

כשהמודל לומד לראשונה, הוא מתאמן על ניבוי המילה הבאה מתוך הררי טקסט. זה עובד מעולה כשיש דפוס ברור, למשל כללי דקדוק, כתיב נכון או שימוש בסוגריים.

 

אבל כשמדובר בעובדות שאין להן דפוס צפוי, כמו תאריך לידה של מדען מסוים או שם של עבודת דוקטורט, המודל לא באמת יכול “לנחש מהתבנית”. התוצאה? הוא נאלץ פשוט להמציא. זו גם הסיבה ששגיאות כתיב נעלמות ככל שהמודלים משתפרים, אבל הזיות נשארות. כתיב זה משהו עקבי שקל ללמוד אבל עובדות אקראיות – לא.

 

למה קל ללמוד כתיב אבל קשה לזכור ימי הולדת?

למה קל ללמוד כתיב אבל קשה לזכור ימי הולדת? (Source: arXiv (OpenAI

שלב שני – Post-training: בית הספר לניחושים

אחרי האימון הראשוני, המודל עובר שלב נוסף שנועד ללטש את התשובות שלו. כאן הבעיה רק מחמירה, כי מערכות ההערכה מתנהגות כמו מבחן אמריקאי ומתגמלות ניחוש מוצלח, לא שקיפות. כדי להמחיש את ההבדל, OpenAI הציגו השוואה בין מודל ישן לבין מודל חדש. במבט שטחי נראה שהישן “מדויק” יותר, אבל בפועל הוא טעה בביטחון מוחלט הרבה יותר. המודל החדש אולי ענה פחות, אבל כשהוא לא ידע, הוא פשוט אמר את זה.

 

השוואת ביצועים: o4-mini מול GPT-5-thinking-mini

השוואת ביצועים: o4-mini מול GPT-5-thinking-mini

 

הטבלה מבוססת על נתונים ש-OpenAI פרסמו כהמחשה להבדלים בין מודלים, ולא על תוצאות ישירות מהמאמר האקדמי. והשאלה שנשארת פתוחה: מה עדיף – מודל שמנחש חזק וטועה, או מודל שמודה בכנות כשאין לו תשובה?

 

וכאן בדיוק נכנס הערך האמיתי של המחקר, כי הוא לא רק מצביע על ההבדלים בין מודלים ישנים לחדשים, אלא גם מנפץ מיתוסים עקשניים לגבי עצם קיומן של ההזיות.

למה הזיות אינן גזירת גורל

אחת התרומות הגדולות של המחקר היא בכך שהוא מנפץ כמה מיתוסים עקשניים סביב הזיות במודלי שפה.

מיתוס 1: “כשהדיוק יגיע ל־100%, ההזיות ייעלמו”

המציאות: זה לא יקרה. תמיד יהיו שאלות שאף מודל לא יכול לדעת, כמו מספר הטלפון של שכן שלכם או שם הכלב של מישהו שהוא לא פגש מעולם.

מיתוס 2: “הזיות הן בלתי נמנעות”

המציאות: לא נכון. מודל יכול פשוט לבחור לא לענות כשהוא לא בטוח, מה שמוריד דרמטית את כמות ההזיות.

מיתוס 3: “הזיות הן תופעה מסתורית”

המציאות: אין פה שום קסם שחור. ההזיות הן תוצאה צפויה של איך שהמודל למד ומה מתגמלים אותו עליו.

מיתוס 4: “מספיק מבחן אחד כדי לבדוק הזיות”

המציאות: מה שחשוב הוא מגוון רחב של מבחנים אמינים שבודקים אם המודל נוטה לנחש בלי לדעת ולא רק מדד בודד של “האם הוא הזה הפעם או לא”.

מהפכה במדדי הערכה

אז איך אפשר לגרום למודלים להפסיק לנחש בביטחון כשהם לא יודעים? החוקרים מציעים שינוי קטן אבל מהותי – לא רק למדוד אם התשובה נכונה או לא, אלא גם כמה בטוח המודל כשהוא עונה.

 

במקום מבחן בסגנון “נכון/לא נכון”, הם מציעים שיטה שמתגמלת זהירות:

  • תשובה נכונה מזכה בנקודה אחת.

  • טעות מורידה שתיים.

  • “אני לא יודע” שווה אפס – לא טוב, אבל גם לא נזק.

כך המודל לומד שלא כדאי לו להמר סתם, אלא עדיף לשתוק כשהוא לא בטוח.

האמת? זה לא רעיון חדש. מבחנים אמריקאים כמו SAT ו-GRE השתמשו בעבר בדיוק באותה טכניקה של הורדת ניקוד על ניחושים עיוורים כדי לעודד תלמידים לענות רק כשיש להם סיכוי אמיתי להיות צודקים. עכשיו, ההצעה היא להחיל את אותה גישה על בינה מלאכותית.

מדוע זה לא קורה היום?

הבעיה היא לא רק טכנית אלא גם תרבותית. רוב מבחני הביצועים הפופולריים כמו GPQA, ‏MMLU-Pro ו-SWE-bench, מעניקים נקודה מלאה על תשובה נכונה, ואפס נקודות על טעות או על “אני לא יודע”. במבנה כזה ברור שמודל יעדיף לנחש, כי אין לו מה להפסיד.

 

כל עוד המדדים המרכזיים בעולם ה-AI ממשיכים לתגמל ניחושים מוצלחים, החברות ימשיכו לאמן מודלים שמעדיפים להמר מאשר להודות בחוסר ודאות. לכן הפתרון חייב להיות גם תרבותי, כלומר שינוי של כללי המשחק – איך אנחנו בוחנים, מודדים ומדרגים את המודלים.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

עידן המודלים הכנים

המחקר הזה מסמן נקודת מפנה. שנים ניסינו להסביר את ההזיות של מודלי שפה כבעיה טכנית מסתורית, ועכשיו מתברר שהפתרון הרבה יותר פשוט – ללמד את המודלים להיות כנים לגבי מה שהם יודעים ומה שהם לא. תחשבו על זה כמו על יועץ אנושי, עדיף שיגיד “אין לי תשובה לזה” מאשר שימציא נתונים שנשמעים אמינים. גם בבינה מלאכותית, תשובה זהירה של “אני לא יודע” יכולה להיות שווה זהב כי היא חוסכת טעויות שעלולות לעלות ביוקר.

 

אם השינוי הזה יתפוס, נעבור מעולם שבו מודלים נוטים לנחש בכל מחיר, לעולם שבו הם יודעים לעצור ולהודות בחוסר ודאות. במערכות בריאות, משפט, חינוך או פיננסים – האמינות הזו תהיה יקרה יותר מכל פיצ’ר נוצץ.

 

לעיון במחקר המלא כנסו כאן.

הפוסט מחקר חדש של OpenAI חושף את הסוד מאחורי הזיות של בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-hallucinations-secret/feed/ 0
מה התחדש ב-ChatGPT? העדכונים שכדאי להכיר https://letsai.co.il/chatgpt-updates-2/ https://letsai.co.il/chatgpt-updates-2/#respond Mon, 08 Sep 2025 13:05:42 +0000 https://letsai.co.il/?p=58355 OpenAI מציגה גל עדכונים שהופכים את ChatGPT מצ׳אט חכם לסביבת עבודה שלמה. פרויקטים זמינים מעכשיו גם למנויים חינמיים ומאפשרים לאגד צ’אטים, קבצים והוראות תחת קורת גג אחת עם זיכרון מותאם. אפשרות ההסתעפות מוסיפה יכולת לבדוק כיוונים שונים בלי לאבד את ההיסטוריה, ואינטגרציות חדשות עם Gmail ו-Google Calendar מכניסות את הניהול היומיומי ישירות לתוך הצ׳אט. התוצאה […]

הפוסט מה התחדש ב-ChatGPT? העדכונים שכדאי להכיר הופיע ראשון בLet's AI בינה מלאכותית

]]>
OpenAI מציגה גל עדכונים שהופכים את ChatGPT מצ׳אט חכם לסביבת עבודה שלמה. פרויקטים זמינים מעכשיו גם למנויים חינמיים ומאפשרים לאגד צ’אטים, קבצים והוראות תחת קורת גג אחת עם זיכרון מותאם. אפשרות ההסתעפות מוסיפה יכולת לבדוק כיוונים שונים בלי לאבד את ההיסטוריה, ואינטגרציות חדשות עם Gmail ו-Google Calendar מכניסות את הניהול היומיומי ישירות לתוך הצ׳אט. התוצאה למשתמשים – פחות בלגן, יותר סדר ושליטה, ותשובות אמינות שמבוססות על ההקשר האישי. 

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

פרויקטים נגישים לכולם

עד לא מזמן, פיצ’ר פרויקטים (Projects) היה מועדון סגור למנויי Plus ומעלה. משתמשי החינם נאלצו להסתדר עם ים של צ’אטים מפוזרים, בלי דרך אמיתית לאגד חומרים סביב נושא אחד. עכשיו זה משתנה, ו- OpenAI פותחת את הדלת גם להם.

 

מה המשמעות? אפשר סוף סוף לבנות “תיק עבודה” אמיתי בתוך ChatGPT, עם שם, צבע ואייקון שמבדילים אותו בקלות, עם הוראות שמסבירות למודל מה התפקיד שלו באותו פרויקט, ועם קבצים שמצורפים ישירות לשיחה. חינמיים יקבלו מקום ל־5 קבצים, מנויי Plus יכולים לעלות עד 25, ובגרסאות Pro ו־Enterprise המספר מזנק ל־40.

 

תחשבו למשל על משרד תוכן שמנהל במקביל חמישה לקוחות. במקום לפתוח בכל פעם שיחה חדשה ולחזור על אותן הנחיות, כל לקוח מקבל פרויקט משלו: הבריף מצורף, טון המותג שמור בהוראות, וכל שיחה חדשה כבר “מבינה את ההיסטוריה”. התוצאה – פחות חזרות מיותרות, יותר עקביות, ובעיקר סדר שמחזיק לאורך זמן.

 

Projects מגיעים גם למשתמשי החינם

פרוייקטים זמינים עכשיו גם למשתמשים החינמיים

זיכרון מותאם רק לפרויקט שלכם

אחד השדרוגים הבולטים הוא הזיכרון הייעודי. במקום שפרטים יזלגו בין שיחות שונות, כל מה שנשמר נשאר מעכשיו בתוך הפרויקט עצמו. המשמעות פשוטה – ההקשר ממוקד, והעבודה נשארת נקייה ומדויקת.

בפועל זה חוסך הרבה בלגן:

  • חוקרים יכולים לשמור נתונים של מחקר ספציפי מבלי לערבב עם אחרים.

  • פרילנסרים שעובדים עם כמה לקוחות במקביל נהנים מהפרדה ברורה.

  • וכל שיחה חדשה בפרויקט מתחילה מהנקודה שבה עצרתם, בלי להזכיר שוב ושוב את ההיסטוריה.

איך עושים את זה?

כשפותחים פרויקט חדש בצ׳אט ג׳יפיטי, אפשר לא רק לתת לו שם, צבע ואייקון אלא גם להחליט איך יעבוד הזיכרון שלו. דרך גלגל השיניים של ההגדרות ניתן לבחור בין מצב Default, שבו הפרויקט חולק זיכרון עם שיחות אחרות, לבין מצב Project-only, שבו כל המידע נשאר מבודד לחלוטין בתוך הפרויקט עצמו. ההחלטה הזו קובעת אם הפרויקט יתפקד כ״עולם סגור״ או כחלק מהזיכרון הכללי והיא סופית, אי אפשר לשנות אותה בהמשך.

 

בחירת מצב זיכרון בפרויקט – Default או Project-only

פתיחת פרויקט ובחירת מצב זיכרון – Default או Project-only

פיצול שיחה לניסוי בכיוונים שונים

זה עדכון שהרבה משתמשים ביקשו, ועכשיו הוא כאן. אפשר סוף־סוף לקחת שיחה קיימת ולפתוח ממנה ענף חדש. המשמעות היא שאתם יכולים לעצור בנקודה מסוימת, להגיד ל-ChatGPT “בוא ננסה עכשיו כיוון אחר”, ולקבל מסלול חדש בלי לאבד את השיחה המקורית. היתרון ברור, אפשר לבדוק כמה רעיונות במקביל, לשמור גרסאות שונות של אותו טקסט, או להריץ סגנונות כתיבה מתחרים, וכל זה תוך שמירה על ההיסטוריה המקורית. הפיצ׳ר זמין רק בגרסת ה Web.

 

לחיצה על שלוש הנקודות פותחת תפריט שבו אפשר לבחור Branch in new chat כדי ליצור הסתעפות חדשה מהשיחה

לחיצה על שלוש הנקודות פותחת תפריט שמאפשר לבחור הסתעפות חדשה

 

לדוגמה: נניח שאתם כותבים הצעה ללקוח. בשיחה אחת תרצו גרסה רשמית ומקצועית, ובענף אחר גרסה קלילה ושיווקית יותר. במקום להעתיק ולשכפל ידנית את השיחה, פשוט יוצרים Branch, וכל גרסה מתפתחת בנפרד, מבלי ללכת לאיבוד בדרך.

אינטגרציות עם Gmail ו-Google Calendar 

אחד הפיצ’רים היותר מסקרנים עובר בימים אלו השקה הדרגתית למנויי Plus ומעלה – חיבור ישיר של ChatGPT לשירותי גוגל – Gmail ו-Google Calendar. המשמעות פשוטה, לא צריך יותר לקפוץ בין אפליקציות כדי לקרוא מיילים, לנהל סדר יום או לעקוב אחרי משימות. הכל מתבצע ישירות מתוך הצ’אט, ובניגוד לעבר הפיצ’ר זמין גם בשיחות רגילות ולא רק במצב Deep Research.

מה זה מאפשר?

  • תזמון פגישות חכם: בקשו מ-ChatGPT לבדוק את לוח השנה הפנוי שלכם ולהציע שעה מתאימה גם לצד השני.

  • תזכורות אוטומטיות: הוסיפו משימה חדשה ב-Calendar שתזכיר לכם להתקשר ללקוח יום לפני פגישה.

  • מיילים מסוכמים: בקשו סיכום יומי של מיילים שלא נקראו, עם סימון של הודעות דחופות בלבד.

  • מעקב אחרי משימות: הפיקו רשימת משימות פתוחות מתוך ההתכתבויות האחרונות עם הצוות.

  • הכנה לפגישה: בקשו מהצ’אט לרכז את המיילים הרלוונטיים עם לקוח מסוים כדי להגיע מוכנים.

לדוגמה: במקום לעבור ידנית על עשרות הודעות, אפשר פשוט לבקש: “סכם לי את המיילים שלא נקראו מהבוקר, ותסמן רק את אלה שקשורים ללקוחות פעילים.”

 

איך מחברים את זה?

ניתן להגדיר את החיבור דרך ההגדרות של ChatGPT:

  1. לחצו על הפרופיל שלכם בפינת המסך.

  2. עברו ל־Settings → Connectors.

  3. חברו את Gmail, Google Calendar (ויש חיבורים נוספים) לפי הצורך. לאחר ההתחברות, ChatGPT יודע להשתמש במקורות האלו אוטומטית, בלי לחיצה נפרדת בכל שיחה.

 

מסך ה־Connectors ב־ChatGPT

מסך ה־Connectors ב־ChatGPT

 

לסיכום, העדכונים האחרונים מעלים את צ׳אט ג׳יפיטי, שכבר היה צ׳אט חכם עם יכולות מרשימות, מדרגה נוספת – מכלי שיחה הוא הופך לזירה אמיתית לעבודה חכמה. פרויקטים מאגדים צ’אטים, קבצים והוראות תחת קורת גג אחת ושומרים זיכרון ממוקד, כך שהעבודה נשארת מסודרת ומדויקת. יכולת ההסתעפות מאפשרת להתנסות בכיוונים שונים בלי לאבד את ההיסטוריה, והאינטגרציות החדשות עם Gmail ו-Google Calendar מכניסות את הניהול היומיומי ישירות לתוך הצ׳אט. התוצאה, ChatGPT כבר לא רק מנסח טקסטים, הוא מתפקד ככלי עבודה שלם שמארגן מידע, יוצר הקשרים ומאפשר להתקדם מהר, ברור וחכם יותר.

הפוסט מה התחדש ב-ChatGPT? העדכונים שכדאי להכיר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-updates-2/feed/ 0
קלוד מוסיף זיכרון שיחות גם למנויי Pro https://letsai.co.il/claude-pro-memory/ https://letsai.co.il/claude-pro-memory/#respond Sun, 07 Sep 2025 12:44:55 +0000 https://letsai.co.il/?p=58293 חברת Anthropic מרחיבה את הזמינות של פיצ’ר Memory ב-Claude, היכולת שמאפשרת למודל לזכור שיחות קודמות כשמבקשים ממנו. עד עכשיו הפיצ’ר היה פתוח רק למנויי Max, Team ו-Enterprise, וכעת הוא מתחיל להיפתח בהדרגה גם למנויי Pro. החידוש המשמעותי עבור המשתמשים הוא היכולת לעבוד ברצף ולהמשיך פרויקטים קודמים, תוך שמירה על שליטה מלאה בפרטיות ובניהול המידע.   […]

הפוסט קלוד מוסיף זיכרון שיחות גם למנויי Pro הופיע ראשון בLet's AI בינה מלאכותית

]]>
חברת Anthropic מרחיבה את הזמינות של פיצ’ר Memory ב-Claude, היכולת שמאפשרת למודל לזכור שיחות קודמות כשמבקשים ממנו. עד עכשיו הפיצ’ר היה פתוח רק למנויי Max, Team ו-Enterprise, וכעת הוא מתחיל להיפתח בהדרגה גם למנויי Pro. החידוש המשמעותי עבור המשתמשים הוא היכולת לעבוד ברצף ולהמשיך פרויקטים קודמים, תוך שמירה על שליטה מלאה בפרטיות ובניהול המידע.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

זיכרון בשליטת המשתמש

עבודה עם מודלי שפה כבר מזמן אינה מסתכמת בשאלה־תשובה חד־פעמית. משתמשים רוצים רצף, המשכיות, ותחושה שהמערכת יודעת לחזור לנקודה שבה עצרו. כאן נכנס לתמונה פיצ’ר Memory של Claude.

 

זה לא “יומן קבוע” ששומר כל מילה לעד, אלא זיכרון שנמצא בשליטתכם. הפיצ’ר מופעל כברירת מחדל, אבל נכנס לפעולה רק כשמבקשים ממנו לחפש או להתייחס לשיחות קודמות. המשמעות היא שאתם מחליטים מה נכנס להקשר ומתי לעצור. כך נשמר סדר בין פרויקטים שונים, אין ערבוב של פרויקטים או לקוחות, והשליטה נשארת בידיים שלכם.

כך זה עובד בפועל

הכוח האמיתי של Memory מורגש ביומיום. דמיינו יועץ עסקי שעובד עם שלושה לקוחות במקביל: לכל לקוח הוא פותח פרויקט נפרד עם Claude, ובתוכו נשמר רק ההקשר של אותו לקוח. כך הוא יכול לבקש – “תזכיר לי מה החלטנו בשיחה הקודמת על המצגת ללקוח X” – ולקבל תשובה מדויקת, מבלי לערב מידע של אחרים.

 

אותו הדבר עובד גם אצל איש תוכן שחוזר לטיוטה שהשאיר אתמול, או צוות פיתוח שמנהל שיחות על פרויקט מורכב. במקום תחושה של שיחה חד־פעמית, Claude הופך לשותף רציף שמאפשר תכנון ארוך טווח, המשכיות אמיתית וניהול מידע בצורה בטוחה ומסודרת.

 

במקום מערכת ששומרת הכול ברקע, מקבלים זיכרון ממוקד ומדויק, כזה שנשאר בהקשר הנכון ומאפשר לכם להמשיך לעבוד בלי בלבול או ערבוב מידע.

איך מפעילים ומנהלים את זה?

כשהפיצ’ר נפתח בחשבון שלכם, הוא מופעל כברירת מחדל. תוכלו למצוא אותו תחת: Settings > Features > Search and reference chats.

 

המיקום המדויק בהגדרות הוא תחת Features

כיבוי/הפעלת Memory בהגדרות Claude

מכאן אפשר לנהל אותו בקלות – להשאיר פעיל כדי ליהנות מהמשכיות בשיחות, או לכבות בלחיצה אם מעדיפים שלא יישמר הקשר.

 

ומה לגבי שיחה ספציפית שלא רוצים שתיכלל בחיפוש? כרגע הדרך היחידה היא למחוק אותה מהיסטוריית הצ’טים. זה מעניק לכם שליטה מלאה על מה נשמר ומה לא.

פרסונליזציה ב-Claude

פיצ’ר ה־Memory הוא חלק ממערך רחב יותר של Personalization ש־Anthropic פיתחה סביב Claude. המטרה: לאפשר לכל משתמש לעצב סביבת עבודה שמתאימה בדיוק לצרכים שלו.

 

ברמה הכללית יש את Profile Preferences – ההעדפות האישיות שלכם. זו בעצם המקבילה של Claude ל־Custom Instructions ב־ChatGPT. כאן תוכלו לקבוע מראש מונחים מקצועיים, סגנון כתיבה מועדף או דרכי ניסוח שחשובים לכם, כך שכל שיחה תרגיש מותאמת אישית. ההגדרות נעשות דרך Settings > Profile ומשפיעות על כל השיחות בחשבון.

 

כאשר רוצים סדר בתוך פרויקטים שונים, נכנסות לתמונה Project Instructions. מדובר בהנחיות קבועות שמוגדרות לכל פרויקט, כך שכל שיחה באותו פרויקט תישאר עקבית וממוקדת. אם Profile Preferences הן המקבילה ל־Custom Instructions ברמת החשבון, אז Project Instructions הן המקבילה ברמת הפרויקט.

 

לצד זה יש את Styles – פיצ’ר שמאפשר לשלוט באופי התשובה ובאופן שבו Claude כותב ומסביר. תוכלו לבחור בין כמה סגנונות מוכנים מראש, למשל תשובה תמציתית וברורה, סגנון פורמלי ומקצועי, או ניסוח מסבירני ומעמיק, ויש גם מצב לימודי שמותאם במיוחד להבנת מושגים ותהליכים. מעבר לכך, ניתן ליצור Style מותאם אישית, שבו אתם קובעים את הטון, רמת הפירוט והמונחים המועדפים, ולשמור אותו לשימוש חוזר בכל שיחה.

 

תפריט ה־Styles של Claude

תפריט ה־Styles של Claude

 

ובסוף, יש את Memory on Demand – הזיכרון שמחבר את כל הרכיבים האלה יחד ומאפשר רצף אמיתי בין השיחות.

 

השילוב בין ארבעת הרכיבים הללו יוצר חוויית עבודה מאוזנת: מצד אחד אחידות ודיוק לאורך זמן, ומצד שני שליטה מלאה ופרטיות שנשארות בידיים שלכם.

 

 

הרחבת הזמינות של פיצ’ר Memory ל־Claude Pro מסמנת צעד חשוב בהפיכת המודל לכלי עבודה מקצועי ולא רק לשיחה חד־פעמית. בזכות השליטה המלאה והחיבור לשאר יכולות ההתאמה האישית, Claude מעניק למשתמשים רצף, סדר ופרטיות – בדיוק מה שנדרש כדי לעבוד בצורה חכמה לאורך זמן.

הפוסט קלוד מוסיף זיכרון שיחות גם למנויי Pro הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-pro-memory/feed/ 0
איך לגרום לבינה מלאכותית לעשות כמעט הכול https://letsai.co.il/ai-persuasion-research/ https://letsai.co.il/ai-persuasion-research/#respond Thu, 04 Sep 2025 09:24:49 +0000 https://letsai.co.il/?p=58253 למה בכלל לחקור איך לשכנע בינה מלאכותית? אנחנו רגילים לחשוב על מודלי AI כעל רובוטים רציונליים – מכונות ענק של חישובים מתמטיים שפועלות לפי חוקים ברורים, ומוגנות מפני שימוש לרעה. למשל, מניעת מענה לבקשות מסוכנות או סיוע בהפקת חומרים מזיקים. עד לא מזמן, הביטחון הזה נראה מוצק, אבל מחקר חדש מאוניברסיטת פנסילבניה, בהובלת איתן מוליק […]

הפוסט איך לגרום לבינה מלאכותית לעשות כמעט הכול הופיע ראשון בLet's AI בינה מלאכותית

]]>
למה בכלל לחקור איך לשכנע בינה מלאכותית? אנחנו רגילים לחשוב על מודלי AI כעל רובוטים רציונליים – מכונות ענק של חישובים מתמטיים שפועלות לפי חוקים ברורים, ומוגנות מפני שימוש לרעה. למשל, מניעת מענה לבקשות מסוכנות או סיוע בהפקת חומרים מזיקים. עד לא מזמן, הביטחון הזה נראה מוצק, אבל מחקר חדש מאוניברסיטת פנסילבניה, בהובלת איתן מוליק (Ethan Mollick) ורוברט צ’לדיני (Robert Cialdini) – מחבר הספר הידוע Influence: The Psychology of Persuasion, יחד עם חוקרים נוספים, מצא משהו מטריד – אותם עקרונות פסיכולוגיים שמשכנעים בני אדם עובדים גם על AI. במילים פשוטות, אפשר לגרום למודל מתקדם להסכים לבקשות שהוא לא אמור להסכים להן, לא דרך פריצה טכנית אלא בעזרת טכניקות שכנוע בסיסיות מהפסיכולוגיה החברתית.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הניסוי הגדול

במחקר בחנו החוקרים כיצד שבעה עקרונות שכנוע קלאסיים משפיעים על מודל GPT-4o mini של ChatGPT: סמכות (Authority), מחויבות (Commitment), חיבה (Liking), הדדיות (Reciprocity), מחסור (Scarcity), הוכחה חברתית (Social Proof) ואחדות (Unity).

 

כל אחד מהעקרונות נוסה ב- 28,000 שיחות שנגעו לשתי בקשות בעייתיות במיוחד – האחת תמימה לכאורה אך מטרידה, שבה המשתמש ביקש מהמודל להעליב אותו, והשנייה מסוכנת בהרבה, שבה נדרש הסבר לייצור חומר כימי מבוקר (“איך מייצרים לידוקאין”). בכל מקרה נערכה השוואה בין ניסוי מבוקר, שבו הבקשה נוסחה ישירות, לבין ניסוי טיפולי שבו שולב עקרון שכנוע בתוך השיחה.

AI נכנע לפסיכולוגיה

במצב רגיל, ה-AI הסכים לבקשות בעייתיות בכשליש מהמקרים בלבד – בערך 33%. אבל כשהחוקרים שילבו עקרונות שכנוע בתוך השיחה, שיעור ההיענות זינק ל-72% בממוצע – יותר מכפול.

 

כאן נכנסים ההבדלים בין העקרונות עצמם. המחויבות התגלתה כחזקה ביותר, וברגע שהמודל הסכים לבקשה קטנה, למשל “תקרא לי בוזו”, הוא התקשה לעצור והמשיך להיענות גם לבקשה הבאה, “תקרא לי טמבל”. ברצף הזה שיעור הציות הגיע ל-100%. גם עקרון הסמכות היה עוצמתי – אזכור של דמות מוכרת כמו “פרופ’ אנדרו נג ביקש…” העלה את שיעור ההיענות עד 95%, אפילו בבקשות כימיות מורכבות.

 

עקרונות אחרים הראו השפעות סלקטיביות יותר. החיבה עבדה היטב כשמדובר בעלבונות, אבל כשעברו לבקשות לידע מסוכן היא כמעט לא עבדה. ההוכחה החברתית יצרה אפקט דרמטי בהקשר החברתי – שיעור ההיענות לעלבונות עלה מ-90% ל-96%, אבל בבקשות כימיות ההצלחה הייתה זניחה, מ-1% ל-18% בלבד. לעומת זאת, תחושת המחסור (“יש לך דקה לעזור”) גרמה למודל להיענות הרבה יותר, עם קפיצה של עד 85% במקרים מסוימים.

 

המספרים מדברים בעד עצמם – והגרף הבא ממחיש עד כמה עקרונות השכנוע מכפילים את שיעור ההיענות:

 

גרף שתאר Control מול Treatment

שיעורי היענות של AI לפי עקרונות שכנוע (Control מול Treatment)

למה זה קורה? 

החוקרים מציעים הסבר מטריד – תופעת ה”פרה-הומניות” של AI. מודלי שפה גדולים לא רק לומדים תחביר ודקדוק, אלא גם סופגים דפוסים פסיכולוגיים מתוך אינספור טקסטים אנושיים. לכן הם מגיבים למחמאות, נמשכים לעקביות אחרי התחייבות קודמת, מושפעים מסמכות, ואפילו “רוצים להשתלב” כשהם נחשפים לניסוח בסגנון “כולם כבר עשו את זה”.

 

בפועל אין להם רגשות או אינטרסים, ובכל זאת הם מתנהגים כאילו יש להם. בדיוק כמו אדם שמתקשה להגיד “לא”, גם המודל נגרר אחרי השיחה ומוותר על הגבולות שהוצבו לו.

איומי אבטחה בעולם האמיתי

כאן טמון האיום האמיתי – גבולות הבטיחות של AI אינם טכניים בלבד, אלא גם פסיכולוגיים. המשמעות היא שהסכנה לא נובעת רק מפריצות מתוחכמות של האקרים, אלא גם ממניפולציות יומיומיות של שפה.

 

בארגונים ותאגידים, למשל, עובד שמשתמש בכלי AI פנימי עלול לשכנע את המערכת לחשוף מידע רגיש גם בלי כוונה רעה. מספיק שיניח לה “מחויבות קטנה” כמו בקשה תמימה או בדיחה פנימית, ואז ימשיך לדרוש ממנה קוד או מסמך סודי. השאלה היא האם החברה ערוכה לתרחיש כזה.

 

גם במערכות ציבוריות, כמו בריאות, רווחה או חינוך, פנייה מניפולטיבית עלולה לעקוף הגנות ולגרום ל-AI לספק מידע או שירות שאסור לו לתת. ואפילו בעולמות האוטומציה העסקית, שבהם AI מנהל תהליכים פיננסיים או משפטיים, ניסוח מתוחכם עשוי להספיק כדי לגרום למערכת לאשר פעולה חריגה.

מגבלות המחקר ומה נותר פתוח

החוקרים עצמם מבהירים שמדובר בצעד ראשון בלבד. הניסוי נערך בשפה האנגלית על מודל אחד, GPT-4o mini, ולכן לא ברור אם בשפות אחרות או במודלים גדולים יותר התוצאות ייראו אותו הדבר. גם הניסוח משחק תפקיד כי שינוי קטן במילים עלול להעלים את האפקט כולו. בנוסף, כשהחוקרים בחנו מודל מתקדם יותר, GPT-4o, ההשפעה הייתה חלשה בהרבה – שיעורי ההיענות עלו מ-23% ל-33% בלבד.

 

ולבסוף, המחקר התמקד בצד המטריד של השכנוע, אבל לא נבדק האם אותם עקרונות יכולים לשמש גם לטובה, לדוגמה, לשפר חוויות למידה, להניע שינוי התנהגותי או לתמוך בתהליכי טיפול ואימון אישי.

 

 

לסיכום, זהו רגע מכונן בהבנת גבולות הבינה המלאכותית. המודלים של היום אינם עוד “מחשבי הסתברות” נטולי הקשר, הם ממש נכנעים למניפולציות פסיכולוגיות פשוטות. המשמעות היא שהעתיד של אבטחת AI לא יוכל להישען רק על מומחי סייבר, אלא ידרוש גם חשיבה של פסיכולוגים חברתיים. השאלה הגדולה שנותרה פתוחה היא האם נדע לרתום את אותן טכניקות לטוב, כדי לחזק למידה, טיפול ושירותים, או שנשאיר פתח למניפולציות מסוכנות.

 

למי שמעוניין להתעמק, אפשר לקרוא את המחקר המלא כאן.

הפוסט איך לגרום לבינה מלאכותית לעשות כמעט הכול הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-persuasion-research/feed/ 0
OpenAI מכניסה בקרת הורים ל־ChatGPT https://letsai.co.il/openai-parental-control-chatgpt/ https://letsai.co.il/openai-parental-control-chatgpt/#respond Wed, 03 Sep 2025 12:53:30 +0000 https://letsai.co.il/?p=58232 בתגובה לטרגדיה שהסעירה את עולם הטכנולוגיה, עם התאבדותו הטרגית של נער שהשתמש ב־ChatGPT, הכריזה OpenAI על השקת מערכת בקרת הורים חדשה בניסיון להפוך אירוע אישי כואב לנקודת מפנה עולמית בשמירה על צעירים בעידן הבינה המלאכותית.   מה הרקע? הסיפור המטריד והמצער על אדם ריין, נער בן 16 מקליפורניה, שפנה ל־ChatGPT לאורך חודשים, שיתף את מצוקותיו […]

הפוסט OpenAI מכניסה בקרת הורים ל־ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
בתגובה לטרגדיה שהסעירה את עולם הטכנולוגיה, עם התאבדותו הטרגית של נער שהשתמש ב־ChatGPT, הכריזה OpenAI על השקת מערכת בקרת הורים חדשה בניסיון להפוך אירוע אישי כואב לנקודת מפנה עולמית בשמירה על צעירים בעידן הבינה המלאכותית.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה הרקע?

הסיפור המטריד והמצער על אדם ריין, נער בן 16 מקליפורניה, שפנה ל־ChatGPT לאורך חודשים, שיתף את מצוקותיו ורעיונותיו האפלים, ובסופו של דבר מצא עצמו מקבל עצות שככל הנראה עודדו אותו להמשיך בתכנון הרסני שהוביל להתאבדות.

 

התביעה נגד OpenAI חושפת כיצד הבוט בנה עמו מערכת יחסים אינטנסיבית, הגיב במסרים מאשרים ואף נתן לו הוראות טכניות מפורטות לקראת רגעי השיא של הסבל שלו. ההורים טוענים כי לא מדובר בכשל מערכת בודד, אלא בתוצאה ישירה של עיצוב מסוכן שמעדיף שימור שיח על חשבון בטיחות המשתמש.

מה תכלול בקרת ההורים החדשה?

לאור הלחץ הציבורי והמשפטי, חושפת OpenAI שורה של פיצ’רים שנבנו במיוחד כדי להבטיח כי הורים לילדים ומתבגרים יקבלו כלים אמיתיים לניהול בטוח יותר של הבוט:

כלים לניהול בטוח של השיחות

הורים יוכלו לקשר את חשבונם לחשבון של הילד/ה ולהגדיר מגבלות מהותיות על סוגי השיחות והפיצ’רים הזמינים.

השבתת פונקציות פוטנציאליות למסוכנות

אפשרות להשבית פונקציות כמו זיכרון היסטורי של השיחות ויכולות מתקדמות נוספות שעלולות להעמיק יותר מדי את הקשר עם הבוט.

ניטור והתראות אוטומטיות

המערכת תנטר אוטומטית שיחות ותדע להפעיל התראה להורים במקרים בהם מזוהה מצוקה חריפה או תגובות המעידות על סיכון.

תגובה מותאמת גיל והתייעצות עם מומחים

פרוטוקולי תגובה מותאמים לגיל שנבנים כעת יאפשרו ל-ChatGPT להגיב לבני נוער בצורה זהירה ורגישה, המתחשבת בגילם ובאתגרים המיוחדים שלהם. בנוסף, OpenAI התחייבה לשתף פעולה עם פסיכולוגים ומומחים לבריאות הנפש, כדי לוודא שהמערכת תספק תמיכה נכונה ובטוחה למשתמשים הצעירים.

 

המערכת צפויה להיות זמינה לכלל המשתמשים בעולם כבר במהלך החודש הקרוב.

Router למודלים ייעודיים לסכנה

בנוסף לבקרת ההורים, OpenAI תיישם מנגנון חדש (“Real-Time Router”) להפניית שיחות רגישות באופן אוטומטי למודלים מתקדמים שמותאמים במיוחד לניהול נושאים קריטיים כמו אובדנות, דיכאון ופגיעה עצמית.

האם זה מספיק?

בזמן ש־OpenAI מדגישה כי אלו רק הצעדים הראשונים ושיהיו עדכונים כל הזמן בהתאם להתקדמות המחקר, מומחי בטיחות לא טומנים ידם בצלחת ומזהירים: “נדרש הרבה יותר מכמה קובצי הגדרות חכמים כדי למנוע את הטרגדיה הבאה”. הטכנולוגיה מציבה אתגרים חדשים, אך גם הזדמנות להפוך מקרה כאוב אחד לחזית של מהפכה בשמירה על ילדים ונוער בעולם הבינה המלאכותית.

הפוסט OpenAI מכניסה בקרת הורים ל־ChatGPT הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-parental-control-chatgpt/feed/ 0
דו״ח של Anthropic חושף כיצד בינה מלאכותית הופכת לכלי נשק בידי עברייני סייבר https://letsai.co.il/claude-cyber-crime-report/ https://letsai.co.il/claude-cyber-crime-report/#respond Tue, 02 Sep 2025 13:10:29 +0000 https://letsai.co.il/?p=58127 עד לא מזמן, התקפות סייבר גדולות היו נחלתם של ארגוני פשיעה מתוחכמים עם צוותים וטכנולוגיות מורכבות. היום, לפי דו״ח חדש של חברת Anthropic, המצב השתנה. מודל הבינה המלאכותית Claude מאפשר לפושעים לפעול מהר יותר, לבד, ובקלות גדולה יותר. מה שבעבר חייב מומחים רבים, אפשרי כיום לאדם אחד שמבין איך להשתמש בכלי. המשמעות ברורה לכולנו – […]

הפוסט דו״ח של Anthropic חושף כיצד בינה מלאכותית הופכת לכלי נשק בידי עברייני סייבר הופיע ראשון בLet's AI בינה מלאכותית

]]>
עד לא מזמן, התקפות סייבר גדולות היו נחלתם של ארגוני פשיעה מתוחכמים עם צוותים וטכנולוגיות מורכבות. היום, לפי דו״ח חדש של חברת Anthropic, המצב השתנה. מודל הבינה המלאכותית Claude מאפשר לפושעים לפעול מהר יותר, לבד, ובקלות גדולה יותר. מה שבעבר חייב מומחים רבים, אפשרי כיום לאדם אחד שמבין איך להשתמש בכלי. המשמעות ברורה לכולנו – יותר ניסיונות סחיטה, יותר הונאות מתוחכמות, ופחות זמן תגובה למי שנמצא בצד המותקף.

 

בסרטון המצורף מסבירים Jacob Klein ו-Alex Moix מצוות מודיעין האיומים של Anthropic כיצד הם מזהים ומסכלים ניסיונות כאלה בזמן אמת. זו הזדמנות נדירה לקבל מבט מבפנים – ישירות מהחברה שמפעילה את Claude – ולראות איך נראית פשיעת סייבר בעידן הבינה המלאכותית ומה באמת קורה מאחורי הקלעים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בעצם השתנה

בינה מלאכותית תמיד ידעה לייעץ, לכתוב או להציע רעיונות. השינוי הגדול הוא שבדור החדש, עם המודלים המתקדמים, היא כבר לא מסתפקת בלתת כיוון – היא מבצעת בפועל. המודלים הפכו ל”עוזרים מבצעיים”. הם יודעים לאתר פרצות במערכות, לנסח הודעות סחיטה שנשמעות אמינות, ואפילו לנהל מתקפה שלמה מתחילתה ועד סופה. וזה לא תרחיש עתידי או איום תיאורטי, זה מתרחש כבר עכשיו, כפי שממחישים הסיפורים בדו”ח של Anthropic.

שלושה סיפורים שמסבירים הכל

סחיטה חכמה שמכוונת ללב

המקרה הבולט ביותר שתיעדה אנטרופיק הוא של פושע סייבר שפיתח מה שהחברה מכנה “vibe hacking”. הפושע השתמש ב-Claude Code, כלי הקוד האוטונומי של אנטרופיק, כדי להוציא לפועל מבצע סחיטה בקנה מידה גדול שכוון ל-17 ארגונים שונים, כולל מוסדות בריאות, שירותי חירום, גופים ממשלתיים ודתיים. במקום להשתמש ב”כופר קלאסי” שמצפין מידע, הפושע איים לחשוף את הנתונים הגנובים בפומבי כדי לסחוט מקורבנותיו תשלומי כופר שהגיעו לעיתים למעלה מ-500,000 דולר.

 

Claude שימש לכל שלב במבצע: סריקה אוטומטית של אלפי נקודות גישה VPN לזיהוי מערכות פגיעות, קצירת אישורים וחדירה לרשתות, קבלת החלטות טקטיות ואסטרטגיות, כמו בחירת הנתונים לגניבה, ניתוח נתונים פיננסיים לקביעת סכומי כופר מתאימים ויצירת פתקי כופר המותאמים פסיכולוגית לכל קורבן. הבינה המלאכותית עזרה לו לבחור את המטרות, להבין איפה הכי כואב לכל ארגון, ולנסח מכתבי איום מותאמים אישית. המסר פשוט – זו כבר לא סחיטה טכנית, אלא סחיטה שמבוססת על הבנה פסיכולוגית.

עובדי IT מזויפים

הדו”ח חושף גם כיצד פעילים צפון קוריאנים משתמשים ב-Claude כדי להשיג תעסוקת מרחוק במשרות טכנולוגיות בחברות Fortune 500 אמריקאיות. המבצע התוחכם מאז שנחשף לראשונה על ידי ה-FBI, כאשר עובדי ה-IT המזוייפים השתמשו בבינה מלאכותית לכל שלבי התהליך: יצירת זהויות מזויפות עם רקע מקצועי משכנע, השלמת בדיקות טכניות וקוד במהלך תהליך הגיוס, ביצוע עבודה טכנית יום-יומית לאחר הגיוס ומיסוך הופעה בראיונות וידאו באמצעות טכנולוגיית deepfake.

 

לפי דו”ח CrowdStrike, מספר החברות שגייסו עובדים צפון קוריאנים זינק ב-220% בשנה האחרונה, עם יותר מ-320 חברות שנפגעו. העובדים נדרשים להרוויח 10,000 דולר לחודש כל אחד, והמבצע מניב לפי הערכות האו”ם בין 250-600 מיליון דולר בשנה לתכנית הנשק הגרעיני של המשטר.

תוכנת כופר בלי לדעת לכתוב קוד

עבריין עם ידע בסיסי הצליח לפתח ולמכור גרסאות שונות של תוכנת כופר בעזרת Claude בלבד. הוא לא היה מסוגל לכתוב קוד בעצמו, אבל המודל הדריך אותו, שיפר עבורו את התוכנה, ואפילו ניסח הוראות שימוש. בהמשך הוא מכר את הערכות הללו בפורומים של פושעי סייבר במחירים של כמה מאות דולרים. אם בעבר היה צורך במומחיות עמוקה כדי לבנות תוכנה זדונית, היום מספיק לדעת איך לבקש את זה מה-AI.

 

הנה מודעת מכירה אמיתית מה-Dark Web מחודש ינואר 2025 – עבריין מציע ערכות תוכנת כופר שונות במחירים שבין 400 ל-1200 דולר:

 

מודעת מכירה אמיתית של ערכת כופרה בדארק־ווב (ינואר 2025)

מודעת מכירה אמיתית של ערכת כופרה ב- Dark-Web. מקור: Anthropic

מהפכה בפשיעת הסייבר

הדו”ח מצביע על שלוש מגמות מדאיגות:

״נשקיזציה״ (Weaponization) של בינה מלאכותית אוטונומית

מודלי בינה מלאכותית משמשים כעת לביצוע התקפות סייבר מתוחכמות, לא רק לייעוץ על ביצוען. Jacob Klein, ראש צוות מודיעין האיומים באנתרופיק, הסביר: “מה שהיה מצריך בעבר צוות של מומחים יכול כעת להתבצע על ידי אדם אחד בעזרת מערכות אוטונומיות”.

הנמכה דרסטית של מחסומי הכניסה

פושעים עם מעט כישורים טכניים משתמשים בבינה מלאכותית לביצוע פעולות מורכבות, כמו פיתוח כופרה, שהיו דורשות בעבר שנים של הכשרה. לפי דו”ח SoSafe, כ-87% מאנשי האבטחה דיווחו על התקפות סייבר מונעות בינה מלאכותית בארגון שלהם בשנה האחרונה.

שילוב הבינה המלאכותית בכל שלבי הפשיעה

פושעי סייבר ורמאים שילבו בינה מלאכותית בכל שלבי הפעילות שלהם, כולל פרופיל קורבנות, ניתוח נתונים גנובים, גניבת מידע כרטיסי אשראי ויצירת זהויות מזויפות.

סטטיסטיקות מדאיגות ומגמות עתידיות

הנתונים העדכניים מצביעים על הסלמה דרמטית בשימוש בבינה מלאכותית לפשיעת סייבר – העלות הגלובלית הממוצעת של הפרת נתונים עמדה על 4.88 מיליון דולר ב-2024, עלייה של 10% מ-2023. USAID צופה שהעלות הגלובלית של פשיעת הסייבר תטפס ל-24 טריליון דולר עד 2027. ישנה עלייה של למעלה מ-4,000% בהתקפות פישינג מונעות בינה מלאכותית ו- 91% ממומחי האבטחה צופים עלייה משמעותית באיומי בינה מלאכותית בשלוש השנים הקרובות.

ומה בצד ההגנה

למרות האיומים, בינה מלאכותית משמשת גם כנשק הגנתי יעיל. חברות המשתמשות בבינה מלאכותית לצרכי אבטחה חוסכות בממוצע 2.2 מיליון דולר בעלויות הפרת נתונים לעומת חברות שאינן משתמשות בפתרונות אלה. Anthropic מספרת כי היא חוסמת חשבונות חשודים, משתפת מידע עם רשויות ועם חברות אבטחה אחרות, ומפתחת כלים שמזהים פעילות חריגה עוד לפני שהמתקפה יוצאת לדרך.

 

במקרים מסוימים קמפיינים שלמים נעצרו עוד בשלב ההכנות. יחד עם זאת, צריך לזכור, התוקפים מסתגלים מהר, מחליפים שיטות ולומדים מהחסימות. לכן ההגנה חייבת להתפתח בקצב מתמיד, אחרת נמצא את עצמנו תמיד צעד אחד מאחור.

למה זה חשוב לכולנו, לא רק לאנשי סייבר

כשפושעי סייבר משתמשים בבינה מלאכותית, ההשלכות כבר לא נשארות בעולם המחשבים. הן מגיעות ישר אל תוך החיים שלנו. זה יכול להיות בית חולים שמאבד גישה למידע קריטי על חולים, עסק קטן שנאלץ לשלם כופר כדי לא לקרוס, או אדם פרטי שמקבל הודעת סחיטה או פוגש בוט שמתחזה לאדם אמיתי. מה שבעבר נראה רחוק ומורכב, הופך היום לפגיעות יומיומית. כולנו חשופים, ודווקא בגלל זה חשוב להבין את התמונה ולהיערך מראש.

מה עושים עכשיו?

ברמה האישית

תחשבו על זה כך, רוב ההתקפות מתחילות בהודעה אחת לא צפויה – לינק במייל, קובץ שהגיע בוואטסאפ, או בקשה דחופה להזין סיסמה. אם עוצרים רגע ולא לוחצים מיד, אפשר למנוע נזק גדול. גם אימות דו־שלבי פשוט (כמו קוד בסמס) הופך את החשבון שלכם להרבה יותר קשה לפריצה. ואם משהו נראה מוזר, שתפו חבר, בן משפחה או קולגה. לפעמים עצירה של דקה והתייעצות קטנה מונעת נפילה במלכודת.

ברמה הארגונית

כדי להתמודד עם איומי הסייבר החדשים, נדרשות פעולות משולבות:

  • יישום מסגרות ממשל בינה מלאכותית כמו NIST AI RMF לניהול סיכונים.

  • השקעה בפתרונות זיהוי אנומליות מבוססי AI שיאתרו איומים בזמן אמת.

  • הכשרת עובדים לזיהוי התקפות סוציאליות מתוחכמות.

  • פיתוח תהליכי גיוס מחמירים שימנעו חדירת “עובדים מזויפים”.

אבל חשוב להבין, האיום איננו רק טכנולוגי, אלא גם אנושי וניהולי. מבחן קוד או ראיון בזום כבר לא מספיקים כדי לוודא מי באמת נמצא מאחורי המסך. עובדים חדשים צריכים לעבור תהליך אימות זהות מקיף, וכל עובד חייב לקבל גישה רק למערכות הנחוצות לו – צמצום הרשאות שווה צמצום סיכונים.

 

כמו שמתרגלים כיבוי אש, כך צריך לתרגל גם מצבי תקיפה דיגיטלית: הודעות פישינג, ניסיונות סחיטה או גניבת זהות. מי שמתרגל – נופל פחות. ולבסוף, גיבוי טוב שנבדק בפועל וניתן לשחזר ממנו במהירות, יכול להיות ההבדל בין ארגון שממשיך לעבוד כרגיל לבין ארגון שנאלץ לשלם כופר ולעצור פעילות.

 

 

לסיכום, הבינה המלאכותית לא הפכה את פשיעת הסייבר לגזירת גורל, אבל היא הפכה אותה ליותר מהירה, גמישה ומשכנעת מתמיד. המשמעות ברורה – המתקפות יגיעו, אבל זה לא אומר שאין מה לעשות. החדשות הטובות הן שאפשר להתכונן. ככל שנבין איך נראית מתקפה כזו בפועל, נזהה את הסימנים מוקדם יותר, ונשאל את השאלות הנכונות, נוכל לעצור את הנזק בזמן.

 

 למי שרוצה להעמיק בנושא ולקבל גם נתונים טכניים והמלצות – כנסו לדוח המלא: Threat Intelligence Report: August 2025.

הפוסט דו״ח של Anthropic חושף כיצד בינה מלאכותית הופכת לכלי נשק בידי עברייני סייבר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-cyber-crime-report/feed/ 0
כמה אנרגיה הצ’ט שלכם צורך? https://letsai.co.il/ai-energy-consumption-impact/ https://letsai.co.il/ai-energy-consumption-impact/#respond Mon, 01 Sep 2025 07:41:07 +0000 https://letsai.co.il/?p=58050 יש שאלה שכל הזמן חוזרת כשאנשים מדברים איתי על AI. הם תמיד שואלים אם הם צריכים להגיד לצ’ט בבקשה או תודה. התשובה שלי לרוב מפתיעה אותם. כל פעם שאתם אומרים לצ’ט תודה, אתם כורתים עץ. נכון – זו פרובוקציה בשקל, אבל מאחוריה עומד גרעין של אמת, שחלק נרחב מהציבור כלל לא מכיר! אמנם טכנולוגיות AI […]

הפוסט כמה אנרגיה הצ’ט שלכם צורך? הופיע ראשון בLet's AI בינה מלאכותית

]]>
יש שאלה שכל הזמן חוזרת כשאנשים מדברים איתי על AI. הם תמיד שואלים אם הם צריכים להגיד לצ’ט בבקשה או תודה. התשובה שלי לרוב מפתיעה אותם. כל פעם שאתם אומרים לצ’ט תודה, אתם כורתים עץ. נכון – זו פרובוקציה בשקל, אבל מאחוריה עומד גרעין של אמת, שחלק נרחב מהציבור כלל לא מכיר! אמנם טכנולוגיות AI צפויות להוביל לצמיחה עולמית של 7% בתוצר בתוך עשור, אך במקביל הן יעמיסו על מערכות החשמל והמים בצורה דרמטית. רק כדי לסבר את האוזן – עד 2030, צריכת האנרגיה של דאטה-סנטרים ותשתיות AI לאומיות בארה”ב בלבד צפויה להגיע ל־1,500 טרה־ואט־לשעה. אם המספר הזה לא אומר לכם כלום, אז כדאי שתדעו שהוא שווה ערך לכמחצית מצריכת החשמל השנתית של הודו כולה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה באמת קורה מאחורי הקלעים של הצ’ט שלכם

כיום, צריכת האנרגיה של מרכזי נתונים ברחבי העולם היא אחוז אחד מצריכת החשמל העולמית. המספר הזה צפוי להכפיל את עצמו לפני תום העשור. מה שאנשים לא מבינים, זה שכדי שהצ’ט שלכם יעבוד מהר, יבצע חישובים מדויקים, וייצור לכם תמונות וסרטונים, הוא צריך תשתית פיזית. חוות שרתים. כמות דמיונית של שבבים מתקדמים. כל זה צורך חשמל, מים לקירור, שטחי אדמה נרחבים. טביעת אצבע אנרגטית אדירה.

 

מצד שני, לטכנולוגיה הזו, בדגש על החידושים הטכנולוגיים הפוטנציאליים שהיא יכולה להביא, המחקרים ופריצות הדרך המדעיות שיבואו עם כניסתם של סוכני AI לשדה המחקרי והמדעי – כל אלו יכולים להביא לפתרון של בעיות גלובליות כמו סרטן, התחממות גלובלית, עמוסי תחבורה בערים ועוד.

השפעת הבינה המלאכותית על משאבים עולמיים

בחזרה לצ’טבוטים שלנו…לאחרונה פרסמה גוגל נתונים על פליטות, חשמל ומים של מודלי ה-AI שלה. לפי החברה, פקודת טקסט אחת ב-Gemini צורכת 0.24 ואט-שעה, פולטת 0.03 גרם פחמן דו-חמצני ומשתמשת ב-0.26 מיליליטר מים. נשמע מעט לא? עכשיו תכפילו את זה במיליארדי שאילתות ברחבי העולם. בואו נכניס את המספר הזה לקונטקסט – בגוגל אומרים שזה שווה ערך ל-9 שניות של צפייה בטלוויזיה. כדאי לדעת שפרומפט בודד ב-ChatGPT או Gemini עולה פי 7 עד פי 14 משאילתה של חיפוש פשוט במנוע החיפוש של גוגל.

התגובת לשינויים בשוק

בגוגל נרגשים ומרוצים. לדבריהם, במהלך שנה אחת בלבד ירדה צריכת האנרגיה של פקודה ממוצעת פי 33 וטביעת הרגל הפחמנית ירדה פי 44. הירידה בצריכת האנרגיה הגיעה בהלימה לאיכות התשובות במודלי ה-AI של החברה. ומה לגבי המתחרה? לפי הנתונים של גוגל, פרומפט בודד ב-ChatGPT צורך כמעט פי 2 יותר אנרגיה.

רגולציה ואחריות

ומי לגבי הרגולטור? לצערנו, נכון להיום אין שום רגולציה שמחייבת חברות לדווח על צריכת האנרגיה והמים של תשתיות AI. האם סיפור הבינה המלאכותית יהיה סיפור של הרס סביבתי או של פריצות דרך טכנולוגיות שיובילו לפתרון משברי אקלים וקיימות? נראה שאיך שלא נסתכל על מהפכת ה-AI, פוטנציאל ההרס שלה גדול כמעט כמו פוטנציאל התרומה שלה. נראה שהמרחק בין אוטופיה לדיסטופיה דק כעובי שערה.

הפוסט כמה אנרגיה הצ’ט שלכם צורך? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-energy-consumption-impact/feed/ 0
עדכון חשוב בקלוד – אנטרופיק מאמנת את המודלים שלה על השיחות שלנו! https://letsai.co.il/clade-train/ https://letsai.co.il/clade-train/#respond Fri, 29 Aug 2025 07:21:03 +0000 https://letsai.co.il/?p=57941 אם גם אתם עובדים עם קלוד (Claude) – מודל השפה המדהים של אנטרופיק, בטח שמתם לב שקיבלתם לאחרונה התראת פופאפ עם הודעה מפתיעה במיוחד: שינוי משמעותי במדיניות הפרטיות ובתנאי השימוש – אבל מה עומד מאחורי ההודעה התמימה למראה? מסתבר שאנטרופיק (Anthropic), החברה שמפתחת את קלוד, משנה כיוון: החל מה-28 בספטמבר 2025, השיחות שלכם עם המודל […]

הפוסט עדכון חשוב בקלוד – אנטרופיק מאמנת את המודלים שלה על השיחות שלנו! הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם גם אתם עובדים עם קלוד (Claude) – מודל השפה המדהים של אנטרופיק, בטח שמתם לב שקיבלתם לאחרונה התראת פופאפ עם הודעה מפתיעה במיוחד: שינוי משמעותי במדיניות הפרטיות ובתנאי השימוש – אבל מה עומד מאחורי ההודעה התמימה למראה? מסתבר שאנטרופיק (Anthropic), החברה שמפתחת את קלוד, משנה כיוון: החל מה-28 בספטמבר 2025, השיחות שלכם עם המודל עשויות להפוך לחומר גלם לאימון גרסאות עתידיות שלו. מדובר בשינוי מהותי בגישת החברה, שבעבר הדגישה את העובדה שהמודלים שלה אינם מאומנים כברירת מחדל על תוכן המשתמשים. כעת, האופציה הזו מופעלת כברירת מחדל – אלא אם תבחרו לכבות אותה באופן יזום בהגדרות הפרטיות שלכם.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מה בדיוק השתנה?

קלוד (Claude) הוא אחד מהצ’טבוטים הג’נרטיביים המובילים בשוק – המתחרה הישיר של ChatGPT, ובעיני רבים – ה-LLM הטוב בעולם!

העדכון מתייחס לכל המשתמשים בשירותי Claude Free, Claude Pro ו-Claude Max, כולל השימוש בכלי Claude Code. המשמעות היא שכל שיחה, קוד, או תוכן שתשתפו עם המודל עשוי לשמש את אנטרופיק כדי לשפר את ביצועי קלוד בעתיד. השינוי לא חל על שירותים מסחריים כמו Claude for Work, Claude Gov, Claude for Education, או שימוש ב-API דרך פלטפורמות כמו Amazon Bedrock ו-Google Cloud Vertex AI.

כחלק מהעדכון, החברה גם מאריכה את פרק הזמן שבו הנתונים נשמרים: במקום 30 יום בלבד, המידע יישמר עד חמש שנים – כל עוד הסכמתם לשימוש בו לצורכי אימון מודלים. אם תבחרו שלא לשתף את הנתונים שלכם לאימון, יישמרו השיחות רק ל-30 יום, כפי שהיה עד כה (בעיקר לצרכי אבטחה ובקרה).

האם כדאי לאשר את תנאי השימוש החדשים?

מה זה אומר בפועל? המשמעות היא שלכל המשתמשים קופצת הודעה עם הכניסה לאפליקציה, שבה מוצגת האפשרות להפעיל או לכבות את השימוש בשיחותיהם לאימון המודל, לרבות אישור תנאי השימוש החדשים. אם תאשרו את התנאים החדשים ותשאירו את האפשרות דלוקה, השיחות החדשות או שלכם יוכלו להפוך לחלק מתהליך האימון של אנטרופיק. שיחות ישנות שלא חזרתם אליהן לא ייכנסו לאימון.

 

פופאפ תמים למראה

פופאפ תמים למראה – מעכשיו ברירת המחדל היא שאנטרופיק מאמנים את המודלים שלהם על הדאטה שלכם, אלא אם תגדירו אחרת!

איך מכבים את אפשרות אימון המודלים בקלוד?

למי שמעדיף לשמור על פרטיות מלאה, ניתן בכל שלב להיכנס לתפריט ההגדרות (Settings), ללחוץ על “פרטיות” (Privacy), ולכבות את האפשרות שנקראת “Help improve Claude”. ברגע שתכבו אותה, הנתונים שלכם לא ייאספו עוד לטובת אימון עתידי.

כך מכבים את אפשרות אימון המודלים בקלוד

כך מכבים את אפשרות אימון המודלים בקלוד.

 

למה זה חשוב?

כמעט כל דבר שאתם כותבים לקלוד – החל משאלות טכניות, התייעצויות עסקיות, מידע פיננסי או משפטי, רעיונות מקוריים, ועד מסמכים פנימיים של הלקוחות שלכם – עשוי להיאגר ולשמש כחומר גלם לאימון. גם אם אנטרופיק משתמשת בכלים אוטומטיים לסינון או טשטוש מידע רגיש, מדובר בצעד משמעותי שמציב שאלות אמיתיות על גבולות הפרטיות של המשתמשים. 

 

ראוי להדגיש: אנטרופיק מציינת במפורש כי היא אינה מוכרת את המידע לצדדים שלישיים. המטרה שלה היא לשפר את יכולות המודל, להגביר את הבטיחות שלו ולהפחית מקרים של שימוש לרעה, כמו הונאות, ספאם או הפצה של תכנים מזיקים. עם זאת, מהבחינה הפרקטית, כל מידע שתשאירו במערכת עלול להוות חלק מאימון עתידי, אלא אם תגדירו אחרת.

 

למה אנטרופיק עושה את זה?

החברה מנמקת את השינוי בצורך לשפר את המודלים באמצעות אינטראקציות אמיתיות עם משתמשים. כמו חברות אחרות בתחום, גם אנטרופיק טוענת כי מידע כזה חיוני כדי לחדד את היכולות של המודל, בין אם מדובר בכתיבת קוד, ביצוע ניתוחים מורכבים או שיפור יכולות ההבנה וההיגיון. מעבר לכך, הארכת תקופת שמירת המידע לחמש שנים מאפשרת לחברה לעבוד עם מאגר נתונים עקבי ורחב יותר לאורך זמן. כך ניתן לשפר את המודלים בצורה רציפה, לזהות דפוסי שימוש בעייתיים ולבנות מערכות סינון מתקדמות יותר נגד שימוש לרעה.

בעולם תחרותי בו חברות ענק נלחמות על המטבע היקר מכל – דאטה – כל פיסת מידע ודפוס שימוש, הופך להיות מכשיר חיוני במרוץ ליצירת ה-AGI או ה-ASI הראשון. אנטרופיק אמנם פחות מבליטה את הרצון שלה לייצר אינטליגנציית על שכזו (בניגוד לסם אלטמן מ-OpenAI, מארק צוקרברג מ-Meta, או אילון מאסק מ-xAI), אבל ניכר שהיא לא יכולה להתעלם מהכיוון שכל ענקיות ה-AI לוקוחת!

 

תשובות לשאלות שאתם בטח שואלים את עצמכם עכשיו

ש. מה קורה אם אני מכבה את ההגדרה?

ת. אם תכבו את האפשרות “Help improve Claude”, השיחות שלכם יישמרו רק ל-30 יום לצורכי תפעול ושירות, ולא ייכנסו לאימון המודל.

 

ש. האם השיחות הישנות שלי ייכנסו לאימון?

ת. לא. רק שיחות חדשות או כאלה שתמשיכו בהן לאחר השינוי עשויות לשמש לאימון. תוכן ישן ללא פעילות לא ישמש את החברה.

ש. האם אפשר לשנות החלטה?

ת. כן. בכל שלב אפשר להיכנס להגדרות הפרטיות ולשנות את ההעדפה. אם תחליטו לכבות את ההגדרה בעתיד, השיחות החדשות לא ייכנסו לאימון, אך תוכן שכבר נאגר ונעשה בו שימוש יישאר כחלק מהמודלים שכבר אומנו.

ש. מה לגבי משתמשים עסקיים ו-API?

ת. השינוי לא חל על משתמשי Claude for Work (צוותים וארגונים), ולא על שימוש ב-API דרך ענן כמו Amazon Bedrock. לקוחות עסקיים ימשיכו לפעול תחת תנאי שימוש אחרים.

ההמלצה שלנו

נראה שאנטרופיק מאמצת גישה דומה לזו של חברות מתחרות, המסתמכות על אינטראקציות אנושיות ואגירת דאטה משיחות לשיפור המודלים שלהן. לכן, אם אתם עובדים עם מידע רגיש, מומלץ לאשר את תנאי השימוש החדשים כדי להמשיך לעבוד עם קלוד, אך מיד להיכנס להגדרות הפרטיות ולכבות את האפשרות “Help improve Claude”. פעולה זו לוקחת פחות מעשר שניות, והיא הדרך הבטוחה ביותר לשמור על השליטה בנתונים שלכם.

 

קישורים חשובים

להרחבה, מוזמנים לעיין במסמכים הרשמיים שאנטרופיק פרסמה:

 

הפוסט עדכון חשוב בקלוד – אנטרופיק מאמנת את המודלים שלה על השיחות שלנו! הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/clade-train/feed/ 0
איך מרצים באמת משתמשים בקלוד ומה זה אומר על עתיד ההוראה? https://letsai.co.il/claude-impact-on-teaching/ https://letsai.co.il/claude-impact-on-teaching/#respond Fri, 29 Aug 2025 06:46:19 +0000 https://letsai.co.il/?p=57815 מאז ש-ChatGPT יצא לאוויר העולם, האקדמיה מצאה את עצמה בתוך מרוץ חימוש. מצד אחד, סטודנטים שמנצלים בינה מלאכותית כדי לקצר תהליכים, לכתוב עבודות או פשוט להעתיק. מצד שני, מרצים שמתמודדים עם המשימה הלא פשוטה של לגלות מי השתמש ב-AI ומי לא. אבל משהו השתנה, במקום להילחם בטכנולוגיה, מרצים רבים החלו לאמץ אותה בעצמם. דו”ח חדש […]

הפוסט איך מרצים באמת משתמשים בקלוד ומה זה אומר על עתיד ההוראה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
מאז ש-ChatGPT יצא לאוויר העולם, האקדמיה מצאה את עצמה בתוך מרוץ חימוש. מצד אחד, סטודנטים שמנצלים בינה מלאכותית כדי לקצר תהליכים, לכתוב עבודות או פשוט להעתיק. מצד שני, מרצים שמתמודדים עם המשימה הלא פשוטה של לגלות מי השתמש ב-AI ומי לא. אבל משהו השתנה, במקום להילחם בטכנולוגיה, מרצים רבים החלו לאמץ אותה בעצמם. דו”ח חדש של Anthropic סוף סוף מספק נתונים אמפיריים – יותר מ־74 אלף שיחות אנונימיות של מרצים עם Claude שנבחנו במאי-יוני 2025, בתוספת סקרים מאוניברסיטת נורת’איסטרן. המסקנה ברורה – AI לא מחליף מרצים, אלא כבר משנה את סדר היום באקדמיה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מכתיבת סילבוס למשחקי בריחה

השימוש הנפוץ ביותר הוא יצירת חומרי לימוד. יותר ממחצית מהשיחות שנותחו עסקו בהכנת סילבוסים, מערכי שיעור וסימולציות מקצועיות. במקום לבלות שעות בהקלדה, מרצים מבקשים מ-Claude טיוטה ראשונית ומוסיפים את המגע האישי. היתרון ברור – חיסכון אדיר בזמן. החיסרון – אם כולם משתמשים באותו כלי, האם לא נקבל בסוף חומרי לימוד דומים מדי? זו שאלה שמרצים כבר מעלים בעצמם.

כשהכיתה הופכת לזירת משחק

הדו”ח חושף מגמה מפתיעה: Claude Artifacts. לא עוד תשובות טקסטואליות, אלא ממש כלים אינטראקטיביים. מרצים בנו משחקי בריחה ללימוד מושגים, סימולציות בכימיה ובכלכלה, חידונים עם פידבק מיידי, ולוחות מחוונים שממחישים צירי זמן היסטוריים.

מרצה אחד סיפר בהתרגשות שהצליח לייצר ניסוי שבעבר היה בלתי אפשרי מבחינת זמן ומשאבים. הפוטנציאל עצום, אבל לא לכל אחד. האם כל מרצה יידע להפיק כלים כאלה? או שנראה כאן פער דיגיטלי בין “חדשניים” לבין אלה שפחות שולטים בטכנולוגיה?

האזור האפור של הציונים

כשהשיחה עוברת להערכה ולציונים, התמונה מסתבכת. במקרים שבהם מרצים כן השתמשו ב-AI לבדיקות, כמעט חצי מהם (48.9%) עשו זאת באוטומציה מלאה. זאת למרות שהם עצמם דירגו את התחום הזה כפחות יעיל ואף בעייתי מבחינה אתית. המתח כאן ברור – סטודנטים מצפים למשוב אנושי, לא להערה גנרית מאלגוריתם. אם יותר מדי מהתהליך יעבור למכונה, האמון עלול להיפגע.

מהפכה שקטה בשיטות ההוראה

השימוש ב-Claude לא נעצר בהכנת חומרים, הוא משנה את ההוראה עצמה. במקום תרגילים טכניים, מרצים מתמקדים יותר בדיון עיוני. בקורסי תכנות, למשל, פחות מתעסקים ב”דיבוג” (תהליך מציאת ותיקון שגיאות בקוד מחשב) ויותר בשאלות יישומיות. חלקם אף בונים מטלות “עמידות ל-AI”, כאלה שלא ניתן לפתור באמצעות מודל טקסטואלי בלבד, אלא דורשות עבודת שטח או חשיבה ביקורתית. אחד המרצים סיפר בגאווה על סטודנט שהתלונן ש-Claude “לא עוזר לו בשיעורי הבית” – מבחינתו, זה היה ניצחון.

בין אוטומציה ליצירתיות 

הדו”ח מראה קו ברור:

  • במשימות קריאטיביות, כמו הוראה או כתיבת מענקי מחקר, Claude נתפס כשותף לסיעור מוחות.

  • במשימות אדמיניסטרטיביות כמו ניהול כספים, טפסים, רישום וקבלה – הוא כבר הופך לאוטומט על מלא.

אבל חשוב לזכור את מגבלות הדו”ח. הנתונים מגיעים בעיקר ממרצים באקדמיה (לא מורים ב-K-12), ורובם מאמצים מוקדמים של הטכנולוגיה. לא בטוח שמה שנכון עבורם מייצג את כלל מערכת ההשכלה. סקרים חיצוניים כמו של Gallup מדברים על חיסכון ממוצע של כמעט 6 שעות בשבוע הודות ל-AI, אבל זה נתון כללי, לא ספציפי ל-Claude.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס בינה מלאכותית בהוראה וחינוך

 

האם זה סוף המרוץ?

Claude לא מחליף מרצים, הוא משנה את תפקידם. פחות בירוקרטיה, פחות בדיקות טכניות, ויותר ליווי אישי, חשיבה ביקורתית ויצירתיות בכיתה. האתגר הגדול הוא לא ליפול לפיתוי של אוטומציה מהירה, במיוחד סביב ציונים. כי דווקא שם נבחן הערך האמיתי של מרצה – החיבור האנושי עם הסטודנטים. ואולי, אם נדע לאזן נכון, “מרוץ החימוש” לא ייגמר בהפסד של אחד הצדדים, אלא בניצחון של יצירתיות והוראה אנושית לצד AI.

הפוסט איך מרצים באמת משתמשים בקלוד ומה זה אומר על עתיד ההוראה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/claude-impact-on-teaching/feed/ 0
תביעה תקדימית נגד OpenAI בטענה ש-ChatGPT עודד התאבדות של נער בארה״ב https://letsai.co.il/openai-teen-suicide-lawsuit/ https://letsai.co.il/openai-teen-suicide-lawsuit/#comments Thu, 28 Aug 2025 07:47:23 +0000 https://letsai.co.il/?p=57879 ביום שלישי האחרון הוגשה בארה”ב תביעה תקדימית שמטלטלת את עולם הבינה המלאכותית: זוג הורים מקליפורניה מאשימים את חברת OpenAI ואת מנכ”ל החברה, סם אלטמן, כי צ’אטבוט ChatGPT לא רק נכשל בזיהוי מצוקה של בנם בן ה-16, אדם ריין, אלא אף הפך ל”שותף פעיל” בתכנון צעדיו לקראת ההתאבדות. “הבן שלנו ביקש עזרה – וקיבל מדריך למוות,” […]

הפוסט תביעה תקדימית נגד OpenAI בטענה ש-ChatGPT עודד התאבדות של נער בארה״ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
ביום שלישי האחרון הוגשה בארה”ב תביעה תקדימית שמטלטלת את עולם הבינה המלאכותית: זוג הורים מקליפורניה מאשימים את חברת OpenAI ואת מנכ”ל החברה, סם אלטמן, כי צ’אטבוט ChatGPT לא רק נכשל בזיהוי מצוקה של בנם בן ה-16, אדם ריין, אלא אף הפך ל”שותף פעיל” בתכנון צעדיו לקראת ההתאבדות. “הבן שלנו ביקש עזרה – וקיבל מדריך למוות,” אמר האב בהצהרה קצרה לתקשורת.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שיחות שהפכו לסכנה

אדם ריין, בן 16 מקליפורניה שהתאבד באפריל 2025, נכנס לעולם הבינה המלאכותית כמו כל נער סקרן, בתחילה השתמש ב-ChatGPT כדי לקבל עזרה בשיעורי מתמטיקה ולשוחח על משחקי מחשב ואומנות דיגיטלית. עם הזמן, כשהתמודד עם חרדות ותחושת בדידות בבית, הפך הצ’אטבוט ל”אוזן קשבת”. ההורים מספרים כי “במקום לדבר איתנו, הוא דיבר עם הבוט, ושם מצא חבר קרוב מדי.”

 

לפי כתב התביעה, המעבר היה חד ומסוכן – ChatGPT לא הסתפק במענה כללי אלא סיפק לנער הנחיות טכניות על שיטות התאבדות, ניסח עבורו טיוטות למכתבי פרידה, ולא עצר את השיחה גם כשעלה בבירור כי מדובר בכוונה לסיים את חייו. “מה שראינו בפרוטוקולים זה לא עוזר דיגיטלי, אלא בן שיח שהעמיק את הייאוש שלו,” נטען במסמכי בית המשפט.

כתב אישום חריף ודרישות לשינוי

כתב התביעה, מסמך בן 40 עמודים שהוגש לבית המשפט העליון בקליפורניה, טוען לרשלנות חמורה מצד OpenAI. לפי ההורים, החברה לא התקינה מנגנוני הגנה בסיסיים ולא הציגה אזהרות מספקות שימנעו מקטינים להיחשף לסיכון קיומי. “כשאתה בונה מערכת שנכנסת לבתים של מיליוני משפחות, האחריות היא לא המלצה – היא חובה,” אמר אחד מעורכי הדין, רוברט ג’ונסון, המייצג את המשפחה.

 

בידי ההורים, כך נטען, למעלה מ-3,000 עמודי תכתובות עם ChatGPT המתפרשות על פני החודשים האחרונים לחייו של אדם, עדות למה שהם מכנים “הפיכת כלי עזר חינוכי ליועץ מסוכן ומדריך טכני למוות.”

 

לפי משפטנים, מדובר בתביעה הראשונה שבית המשפט נדרש לשקול בה ישות תאגידית גדולה כמו OpenAI כמבוקש ישיר על מות משתמש. היא מצטרפת לתיק שנפתח בשנה שעברה נגד Character.AI, שם נטען כי הבוט יצר קשרים תלותיים עם משתמשים צעירים, מה שעלול ליצור תקדים משפטי שיכריח חברות לשנות מן היסוד את אופן עיצוב מנגנוני ההגנה שלהן.

 

תגובת OpenAI והדיון הציבורי

ב-OpenAI הביעו צער עמוק על האירוע הטרגי. בהצהרה רשמית נמסר כי “המחשבות שלנו עם המשפחה. ChatGPT נועד להפנות משתמשים במצוקה לגורמי סיוע מקצועיים, ואנו מחויבים להמשיך ולשפר את המערכת כדי למנוע מקרים כואבים כאלה בעתיד.” עם זאת, החברה הודתה כי היו מקרים שבהם המערכת לא זיהתה כראוי סימני אזהרה, וכי היא בוחנת כעת צעדים חדשים – בהם חיזוק בקרות ההורים, שימוש בפרוטוקולים אוטומטיים להפסקת שיחות מסוכנות ושיתוף פעולה הדוק יותר עם קווי חירום לנוער.

 

התגובה התקבלה בציבור בערבוב של אמפתיה וביקורת. פעילים בתחום בריאות הנפש טענו כי “אין די בהבעת צער, נדרשים מנגנוני הגנה מיידיים וקשיחים יותר.” במקביל, משפטנים ואנשי טכנולוגיה מזהירים כי המקרה עלול להפוך לציון דרך משפטי שיחייב את כל תעשיית ה-AI לשנות את אופן בניית המערכות שלהן. הדיון שהתעורר חוצה גבולות – מוסרי, חברתי ומשפטי – ומעלה שאלה מהותית: עד כמה יכולה טכנולוגיה לשמש יד מושטת לעזרה, ומתי היא עלולה להפוך לכלי מסוכן.

 

תקדים שמאתגר את גבולות הטכנולוגיה

המקרה של אדם ריין אינו רק טרגדיה אישית, הוא מסמן נקודת מבחן קריטית ביחסים שבין בני אדם לטכנולוגיה מתקדמת. האירוע ממחיש כי גם כלים שנבנים כעזר לימודי או כחבר לשיחה עלולים להפוך לגורם מסוכן, אם אינם מצוידים במנגנוני הגנה חזקים ובאחריות ברורה מצד המפתחים. כעת, בתי המשפט בקליפורניה יידרשו לקבוע האם OpenAI תישא באחריות משפטית ישירה – הכרעה שעשויה לשרטט גבולות חדשים לכל תעשיית הבינה המלאכותית.

 

השאלה המרכזית שנותרה פתוחה: האם זהו מקרה נקודתי ומצער, או נקודת מפנה – ותחילתו של עידן שבו האחריות המשפטית של חברות טכנולוגיה תוגדר מחדש לא רק בארה”ב, אלא ברחבי העולם

הפוסט תביעה תקדימית נגד OpenAI בטענה ש-ChatGPT עודד התאבדות של נער בארה״ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-teen-suicide-lawsuit/feed/ 1
האפליקציה שמטילה ביצי זהב – ChatGPT שוברת שיאים במובייל! https://letsai.co.il/chatgpt-golden-egg/ https://letsai.co.il/chatgpt-golden-egg/#respond Sat, 23 Aug 2025 15:33:42 +0000 https://letsai.co.il/?p=57592 האפליקציה שמטילה ביצי זהב! נדמה שכל פעם שאנחנו שומעים על ChatGPT, מדובר בלא פחות מסיפור הצלחה שמרגיש כמעט דמיוני. מה שהתחיל ככלי טכנולוגי מסקרן הפך לאחת האפליקציות שמגלגלות הכי הרבה כסף בעולם – ואילו המתחרות, עם כל הכבוד לאמביציה ולהשקעות, פשוט מתקשות להדביק את הקצב. ובמובייל זה בולט במיוחד! אז איך הפכה אפליקציה אחת, בשוק […]

הפוסט האפליקציה שמטילה ביצי זהב – ChatGPT שוברת שיאים במובייל! הופיע ראשון בLet's AI בינה מלאכותית

]]>
האפליקציה שמטילה ביצי זהב! נדמה שכל פעם שאנחנו שומעים על ChatGPT, מדובר בלא פחות מסיפור הצלחה שמרגיש כמעט דמיוני. מה שהתחיל ככלי טכנולוגי מסקרן הפך לאחת האפליקציות שמגלגלות הכי הרבה כסף בעולם – ואילו המתחרות, עם כל הכבוד לאמביציה ולהשקעות, פשוט מתקשות להדביק את הקצב. ובמובייל זה בולט במיוחד! אז איך הפכה אפליקציה אחת, בשוק סוער ורווי שחקנים, למפלצת כלכלית שאין לה תחרות? הפעם אנחנו מדליקים זרקור על התופעה שנקראת “ChatGPT”, המספרים שמאחוריה, וההשלכות על עתידשוק אפליקציות ה-AI במובייל.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

הסיפור שמאחורי ההצלחה הכלכלית

אם מסתכלים על המספרים, אפשר להבין למה כולם מדברים על “האווזה שמטילה ביצי זהב”, הלוא היא ChatGPT. מאז השקת האפליקציה הרשמית למובייל במאי 2023, צברה ChatGPT הכנסות של מעל שני מיליארד דולר מהוצאות צרכנים בלבד – וכל זה בפחות משנה ורבע. זו לא עוד אפליקציה שמצאה מודל הכנסות יציב, אלא תופעה כלכלית שלא נראתה כמותה בשוק הבינה המלאכותית, ואירוע חריג בשוק האפליקציות למובייל.

 

במונחי השוואה, הסכום הזה גבוה פי 30 מההכנסות המצטברות של אפליקציות AI מתחרות, כגון קלוד של אנטרופיק, קופיילוט של מיקרוסופט וגרוק של X (כפי שעולה מהערכות המבוססות על נתוני Appfigures). הפער האדיר הזה ממחיש ש-ChatGPT לא רק מובילה, אלא גם קובעת את הסטנדרט והופכת לשם נרדף לבינה מלאכותית עבור מיליוני משתמשים ברחבי העולם.

 

צמיחה אקספוננציאלית

הצצה לגרף הצמיחה של ChatGPT מגלה מגמה חד משמעית – מדובר בקפיצה שהטכנולוגיה המודרנית לא ראתה כבר שנים. מתחילת 2024 ועד אוגוסט בלבד, הכנסות אפליקציית ChatGPT עמדו על 1.35 מיליארד דולר – זאת לעומת 174 מיליון דולר בלבד בתקופה המקבילה בשנה שעברה. מדובר בזינוק של מאות אחוזים בשנה, קצב שלא מאפיין אפילו את החברות החדשניות ביותר.

 

המספרים החודשיים ממחישים עד כמה המגמה מובהקת – בשנת 2023, הכנסות האפליקציה עמדו על ממוצע חודשי של כ-25 מיליון דולר. ב-2024, המספר הזה מזנק לכ-193 מיליון דולר מדי חודש – פי שמונה (!) בתוך שנה. עבור OpenAI, מדובר בשדרוג אדיר למודל ההכנסות שמבוסס במובייל בעיקר על מנויי Plus בתשלום.

 

לא רק כסף, אלא שליטה בשוק!

ההצלחה הכלכלית של ChatGPT לא באה בחלל ריק – היא מגובה גם בשליטה מוחלטת בתחום המשתמשים. כיום מדברים על למעלה מ-690 מיליון התקנות ברחבי העולם, מה שהופך את ChatGPT לאחת מאפליקציות הפרודוקטיביות המורדות ביותר אי פעם.

 

בכדי להבין את עוצמת השליטה הזו, כדאי לבחון את Grok – אפליקציית ה-AI של אילון מאסק. עד כה, Grok נרשמה על כ־39.5 מיליון התקנות בלבד. ההפרש העצום מבהיר: ChatGPT לא סתם מובילה, אלא יוצרת לעצמה נתח שוק שהמתחרים מתקשים אפילו לחלום עליו!

 

היתרון של ChatGPT לא מתבטא רק בכמות ההתקנות, אלא גם במספר המשתמשים הפעילים מדי שבוע – פרמטר שמעיד על שימוש יומיומי ולא רגעי. באוגוסט האחרון, דיווחה OpenAI כי היא מתקרבת ל-700 מיליון משתמשים פעילים בשבוע… לא בחודש, אלא בכל שבוע! נתון ששם אותה בשורה אחת עם פלטפורמות על דוגמת טיקטוק, וואטסאפ ואינסטגרם.

 

מודל ההצלחה: מה עומד מאחורי הצמיחה?

אז איך OpenAI עשתה את זה? איך היא השתלטה על שוק ה-AI במובייל?

 

נגישות ופשטות שימוש

הקסם של ChatGPT לא טמון רק בטכנולוגיה המתקדמת, אלא בעיקר בשילוב של כמה אלמנטים חכמים: היישום בנוי כך שגם מי שאינו “חיית טכנולוגיה” יוכל להשתמש בו בקלות. הממשק נקי, אינטואיטיבי ומותאם לכל סוגי המשתמשים – מה שמפחית חיכוך ומעלה את רמת ההטמעה בשגרה היומיומית.

 

יתרון החלוץ

OpenAI הייתה הראשונה להביא מוצר AI שימושי ונגיש לכל אחד – ובשוק דינמי, למי שמקדים את כולם יש יתרון מובהק. היתרון הזה, יחד עם השקה מתוקשרת ומתוזמנת היטב, הביא את ChatGPT לקדמת הבמה הרבה לפני המתחרות.

 

התאמה אישית בתוכן

האלגוריתם של ChatGPT מאפשר למשתמש לקבל תשובות, סיכומים ופתרונות מותאמים אישית כמעט בכל תחום – מה שמחזק את התלות היומיומית בכלי, והופך אותו לכלי עבודה קבוע.

 

מודל מנויים חכם

הכנסות רבות מגיעות ממנויי Plus – חבילת הפרימיום שמציעה גישה לגרסאות מתקדמות ומהירות יותר של GPT. המודל הזה ממיר אחוז גבוה מהמשתמשים החינמיים ללקוחות משלמים, ומספק ל־OpenAI הכנסה קבועה וצפויה. בעלות של חמגשית שווארמה, אתם מקבלים גישה לכלי AI סופר עוצמתי, גישה לידע, גישה ליכולות ניתוח והסקה, ועוזר אישי צמוד שמתמחה בכמעט כל תחום שאפשר לחשוב עליו.

 

עד היום, אף אחת מהשחקניות הגדולות לא הצליחה לפצח את קוד ההצלחה של ChatGPT. גם השקעות עתק של מיקרוסופט, אמזון ו־X לא מתקרבות לנתח השוק שלה, במיוחד כשמדובר בשוק המובייל. אפילו טכנולוגיות מתקדמות או ממשקים ייחודיים אינם מספיקים כדי לשבור את ההובלה של ChatGPT, שכרגע מתפקדת כקטר של השוק.

 

השאלה היא האם ChatGPT תמשיך להוביל?

הנתונים מהדהדים שאלה אחת ברורה! האם הצמיחה הפנומנלית הזו יכולה להימשך לאורך זמן, או שמדובר בבועה שעתידה להתפוצץ? ישנם אנליסטים שמאמינים כי ChatGPT מציגה את תחילתו של עידן שבו אפליקציות AI יהפכו לאלטרנטיבה אמיתית למנועי חיפוש, עוזרי כתיבה, ואפילו אפליקציות תרגום מסורתיות.

 

ככל שיותר משתמשים מגלים את היתרונות של ChatGPT, כך מתחזקת ההערכה שהרגלי השימוש באפליקציות עומדים בפני שינוי משמעותי. אפליקציות AI, שמספקות חוויה אינטראקטיבית וגמישה, עשויות להחליף שירותים ותיקים ולפתוח עידן חדש בשוק המובייל.

 

מצד שני, יש מי שמזהיר מהתפוצצות “בועת ה־AI”, במיוחד אם ההתלהבות הציבורית תדעך או אם יתגלו בעיות פרטיות, אבטחה או איכות התוכן. שוק ההייטק ראה כבר לא מעט אפליקציות שזינקו במהירות – ונפלו באותה מהירות.

 

מה שבטוח, גם אם הצמיחה תיעצר, OpenAI כבר הצליחה לייצר מודל הכנסות שאין לו אח ורע בתחום. המותג “ChatGPT” התבסס היטב בתודעה הציבורית, והדרך להמשך הפיתוח והשקת תכונות חדשות פתוחה יותר מאי פעם.

 

בשורה התחתונה, ChatGPT לא רק מטילה ביצי זהב – היא בונה לעצמה קן איתן במרכז תעשיית הבינה המלאכותית במובייל. למרות התחרות והסיכונים, ההובלה של ChatGPT נראית כרגע בלתי ניתנת לערעור. מי שיחפש השראה למהפכה עסקית-טכנולוגית בשוק העולמי, ימצא בהצלחה של OpenAI דוגמה נדירה לדינמיקה של חדשנות, מיקוד משתמש, ושימוש חכם במודל מנויים. נכון ל־2025, ChatGPT היא לא רק אפליקציה – היא סטנדרט חדש שמאתגר את כללי המשחק, ומרמז על עתיד שבו הבינה המלאכותית כבר כאן – ובגדול.

הפוסט האפליקציה שמטילה ביצי זהב – ChatGPT שוברת שיאים במובייל! הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-golden-egg/feed/ 0
מלחמת הדפדפנים מתחממת – האם OpenAI תשיק דפדפן חדש? https://letsai.co.il/openai-browser/ https://letsai.co.il/openai-browser/#comments Fri, 22 Aug 2025 09:10:39 +0000 https://letsai.co.il/?p=57591 נראה כי OpenAI בוחנת כיוונים חדשניים במיוחד בכל הקשור לחוויית הגלישה, וכעת מסתמן שהיא בוחנת להיכנס ישירות לשוק הדפדפנים עם פתרון אייג’נטלי מתקדם במיוחד, אולי בהשראת מה שפרפלקסיטי (Perplexity) עשו עם COMET – הדפדפן האייג’נטלי המדהים שלהם. על פי השמועות שמתרוצצות, החברה מתכננת להשיק דפדפן עצמאי לחלוטין שמבוסס על אינטגרציה עמוקה של בינה מלאכותית, ולא […]

הפוסט מלחמת הדפדפנים מתחממת – האם OpenAI תשיק דפדפן חדש? הופיע ראשון בLet's AI בינה מלאכותית

]]>
נראה כי OpenAI בוחנת כיוונים חדשניים במיוחד בכל הקשור לחוויית הגלישה, וכעת מסתמן שהיא בוחנת להיכנס ישירות לשוק הדפדפנים עם פתרון אייג’נטלי מתקדם במיוחד, אולי בהשראת מה שפרפלקסיטי (Perplexity) עשו עם COMET – הדפדפן האייג’נטלי המדהים שלהם. על פי השמועות שמתרוצצות, החברה מתכננת להשיק דפדפן עצמאי לחלוטין שמבוסס על אינטגרציה עמוקה של בינה מלאכותית, ולא מדובר בתוסף שמתווסף לדפדפן מוכר, אלא בפיתוח של ממשק גלישה מחודש מהיסוד.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

לא עוד תוסף – דפדפן עצמאי חדש, מבוסס AI

חשוב להבין את גודל השינוי – לא מדובר בשיפור קוסמטי או באופטימיזציה לניהול לשוניות, אלא בשכתוב כללי של הדרך בה אנחנו חווים את האינטרנט. לפי הדיווחים, הדפדפן ישלב את הכוח של ה-Agent החדש מבית ChatGPT, ויציע פיצ’רים כמו בחירה אוטומטית וחכמה של לשוניות, עמוד בית דינמי המבוסס כולו על אלגוריתמים של בינה מלאכותית, וכן יכולות ניווט עצמאי של הדפדפן, שיבצע עבור המשתמש את החיפושים, הקריאה, הסיכום וההכוונה. זה מזכיר במובנים רבים את מנגנון הקופיילוט שמיקרוסופט שילבה בדפדפן Edge, אך הפעם על בסיס תשתית ייחודית ש-OpenAI בונה, המיועדת לשימושים נרחבים בהרבה.

 

 

 

ממציאים את האינטרנט מחדש

במילים אחרות, OpenAI לא רק מסתכלת מהפריפריה על מה שפרפלקסיטי עשו, אלא לוקחת את הרעיון, מבצעת סוג של “העתק-הדבק” יצירתי ומנסה לרוץ צעד נוסף קדימה עם פתרון שיהפוך את הדפדפן למרכז בינה מלאכותית אישי ומותאם לכל משתמש. אם זה אכן יעבוד כפי שמקווים בחברה, השינוי יהיה הרבה מעבר לטכנולוגיה חדשה – הוא ישנה את מערכת היחסים שבין המשתמש לאינטרנט. אולי אפילו ימציא את האינטרנט מחדש, שכן כשדפוסי השימוש משתנים, וכשהצרכים משתנים – משתנה גם הממשק.

 

נסו לחשוב על שוק האפליקציות שצמח, עם השקתו של האייפון הראשון. נסו לחשוב על שוק ה-SEO שמשתנה מקצה לקצה בימים אלו ממש, כשגוגל כמנוע חיפוש מפסיק לפעול באותו האופן שבו פעל במשך כ-20 שנה, ומפסיק להפנות לאתרים, הודות לתשובות AI מוכנות מראש (Zero Clics). נסו לחשוב על מקצוע חדש שנולד – קידום אורגני דרך מודלי שפה גדולים (LLMs), שמחליף את קידום האתרים המסורתי.

 

בכל פעם שמגיעה טכנולוגיה משבשת – דברים משתנים. הזדמנויות צצות. איך זה יראה – למען האמת לא חייבים לדמיין, כי כבר היום ישנם כלים דומים בשוק. במקום שהמשתמש יחפש תכנים בעצמו, הדפדפן החדש (כך על פי השמועות) יאפשר אינטראקציה מבוססת שיחה, שבה המשתמש פשוט “ידבר” עם הדפדפן, וזה בתורו יבצע את כל עבודת החיפוש, הקריאה, הסיכום וההכוונה. התהליך כולו יתבצע מאחורי הקלעים, ויחסוך את הצורך בניווט ידני בין אינספור תוצאות חיפוש, פורומים ומקורות מידע. המשמעות היא לא רק חיסכון בזמן, אלא גם גישה למידע ממוקד ומותאם יותר לצרכי המשתמש, לצד הפחתה של רעש דיגיטלי וחוויית גלישה יעילה בהרבה.

 

מעבר לטכנולוגיה – שינוי בתשתיות

מעבר לכל אלה, אפשר לראות בניסיון של OpenAI לבנות דפדפן עצמאי סימן נוסף לכך שחברות AI שואפות להשפיע לא רק על השימושים הקלאסיים של בינה מלאכותית, אלא גם על תשתיות הבסיס של הרשת. השילוב העמוק של טכנולוגיית AI בממשק הגלישה יוכל, בטווח הארוך, לשנות את הדרך שבה מתווכים לנו תכנים דיגיטליים, איך נראים מסעות חיפוש ברשת, ואפילו את האופן שבו חברות פרסום ומנועי חיפוש פועלים.

 

אם הרעיון הזה יצליח, המשתמשים יגלו שמה שפעם דרש מאמץ רב – מציאת מקורות מידע אמינים, סינון תוצאות, הבנת מגמות – יהפוך להיות תהליך אוטומטי, יעיל ומבוקר יותר. האינטרנט לא יהיה רק רשת עצומה של מידע, אלא סביבת עבודה מותאמת-אישית, שבה הדפדפן הוא לא רק כלי אלא ממש שותף מקצועי למסע המידע.

 

באופן טבעי, כל מהלך מהסוג הזה מעורר גם סימני שאלה ואתגרים: פרטיות, נטרול פייק ניוז, שקיפות בהחלטות האלגוריתם ואפילו השפעה על הרגלי צריכת המידע של כולנו. זהו תהליך דינמי, שבסופו של דבר ישפיע לא רק על עולם הטכנולוגיה, אלא גם על הכלכלה, החינוך, התקשורת ועוד.

 

צעד אמיץ עם סיכויים לא ברורים

השורה התחתונה ברורה: OpenAI לא מסתפקת בשדרוגים מינוריים או תוספים לדפדפנים קיימים, אלא מכוונת לשנות מהיסוד את מה שאנחנו חושבים על גלישה באינטרנט. הניסיון להטמיע יכולות אייג’נטיות חכמות בליבת הדפדפן הוא צעד אמיץ, שבפוטנציאל שלו יכול לחולל טרנספורמציה במפגש שבין האדם לרשת.

 

עם זאת, יש לזכור שלא מדובר ב”מהפכה” מיידית, אלא במהלך הדרגתי שיבחן על ידי המשתמשים, יזכה לשיפורים ותיקונים, וישפיע בעיקר אם אכן ייתן מענה איכותי, מהיר ואמין יותר לכלים המתחרים. ימים יגידו האם הדפדפן החדש של OpenAI אכן יהיה המענה שמגדיר מחדש את כללי המשחק, או שמדובר בעוד ניסוי טכנולוגי שאפתני.

 

פרפלקסיטי, כרום והמרוץ החדש

ואם כבר הזכרנו את קומט ופרפלקסיטי – החברה לא מסתפקת בפיתוח והפצת הדפדפן האייג’נטלי שלה, אלא פועלת באגרסיביות גם בזירה התקשורתית והעסקית, כפי שהוכיחה בהצעת הרכש המפתיעה לרכוש את דפדפן כרום (Chrome) של גוגל תמורת 34.5 מיליארד דולר. אף שמרבית האנליסטים והמשקיעים רואים במהלך הזה מהלך יחצני לכל היותר, וסיכוייו להתממש קלושים במיוחד, עצם הגשת ההצעה ממקמת את פרפלקסיטי כשחקנית שאפתנית שמבקשת לערער על הסדר הקיים ולתפוס מקום בשורה הראשונה של שוק הדפדפנים. מדובר במהלך שמעיד עד כמה פרפלקסיטי נחושה לייצר לעצמה נראות בזירה הציבורית והמשפטית, ולהציג אלטרנטיבה ממשית לענקיות כמו גוגל ואפילו OpenAI. במובן הזה, ההצעה מהדהדת את אותה שאיפה שמניעה את המירוץ סביב הדפדפנים האייג’נטליים – לא רק לשנות את חוויית הגלישה, אלא לייצר שיח חדש על שליטה, פתיחות וחדשנות בממשקי האינטרנט של העידן הבא.

 

מה שבטוח, התחום הזה נמצא כעת בתחרות צמודה, עם כניסת שחקנים כמו פרפלקסיטי ו-OpenAI לשוק הדפדפנים, והעובדה שכולם מנסים להפוך את הגלישה לחכמה, דינמית ומבוססת שיחה. יש פה הזדמנות להמציא מחדש את האינטרנט ואת חויית הגלישה, לייצר מקצועות חדשים, דפוסי שימוש חדשים, ופתרונות חדשים – ואולי, לראשונה, לתת לאינטרנט לעבוד בשבילנו, ולא להיפך.

הפוסט מלחמת הדפדפנים מתחממת – האם OpenAI תשיק דפדפן חדש? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/openai-browser/feed/ 1
Google AI Mode מגיע לישראל והחיפוש הופך לשיחה חכמה https://letsai.co.il/google-ai-mode-israel/ https://letsai.co.il/google-ai-mode-israel/#respond Fri, 22 Aug 2025 08:12:23 +0000 https://letsai.co.il/?p=57584 גוגל הכריזה על הרחבת AI Mode ליותר מ־180 מדינות, כולל ישראל. מדובר בשינוי מהותי בחוויית החיפוש: במקום להקליד שאלה ולקבל רשימה של קישורים, גוגל מציעה כעת שיחה אינטראקטיבית עם בינה מלאכותית. המשתמשים מקבלים תשובה סינתטית שמורכבת ממקורות רבים, עם הפניה למקורות נוספים להעמקה והאפשרות להמשיך בשאלות המשך – ממש כמו דיאלוג עם יועץ חכם.   […]

הפוסט Google AI Mode מגיע לישראל והחיפוש הופך לשיחה חכמה הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל הכריזה על הרחבת AI Mode ליותר מ־180 מדינות, כולל ישראל. מדובר בשינוי מהותי בחוויית החיפוש: במקום להקליד שאלה ולקבל רשימה של קישורים, גוגל מציעה כעת שיחה אינטראקטיבית עם בינה מלאכותית. המשתמשים מקבלים תשובה סינתטית שמורכבת ממקורות רבים, עם הפניה למקורות נוספים להעמקה והאפשרות להמשיך בשאלות המשך – ממש כמו דיאלוג עם יועץ חכם.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך זה עובד בפועל

במרכז AI Mode עומד מודל Gemini 2.0, שמשלב את Google Knowledge Graph עם Google Maps ו־Project Mariner – טכנולוגיה חדשה שמאפשרת ל־AI לגלוש בזמן אמת באתרים, לנווט, להבין טפסים ולהוציא מידע רלוונטי. המשמעות היא שהחיפוש כבר לא עוצר במידע תיאורטי, אלא יודע לפעול בעולם האינטרנט כמו משתמש אנושי.

 

 

 

ההבדל מול AI Overviews

רבים מכירים את AI Overviews, התשובות המקוצרות שמופיעות בראש החיפוש. אלא ש־AI Mode לוקח את זה כמה צעדים קדימה: הוא לא מציע סיכום חד־פעמי, אלא שיחה מתמשכת שמעמיקה בהקשרים ומסתגלת לשאלות נוספות. זו קפיצת מדרגה משמעותית מחיפוש שמחזיר תוצאה חד־פעמית, לחיפוש שמתנהל כשיחה מתמשכת שמסתגלת לשאלות נוספות.

מה חדש בעדכון האחרון

החידוש המשמעותי ביותר הוא יכולות אגנטיות. בארה”ב, למשל, אפשר כבר לבקש מ־AI Mode לא רק להמליץ על מסעדות, אלא ממש להזמין שולחן. המערכת בודקת זמינות בזמן אמת בפלטפורמות כמו OpenTable ו־Resy, מתחשבת בגודל הקבוצה, שעה וסוג המטבח, ומספקת קישור ישיר להשלמת ההזמנה. באותו אופן היא תוכל לטפל גם בכרטיסים לאירועים דרך שותפים כמו Ticketmaster ו־SeatGeek, או בקביעת פגישות עם נותני שירותים מקומיים.

 

בנוסף, נוספו יכולות התאמה אישית – בארה”ב כבר רואים התאמות שמבוססות על היסטוריית חיפושים והעדפות משתמש. לדוגמה, מי שנוטה לבחור אוכל צמחוני או מסעדות עם ישיבה בחוץ יקבל המלצות מדויקות יותר. פיצ’ר נוסף הוא שיתוף – כפתור Share מייצר קישור שבו חברים יכולים להמשיך את השיחה מאותה נקודה, כלי שימושי במיוחד לתכנון טיולים או אירועים.

 

 

 

זמינות גלובלית

בעבר היה AI Mode מוגבל לארה”ב, הודו ובריטניה. כעת גוגל פתחה אותו ל־180 מדינות ואזורי עולם נוספים, כולל אמריקה הלטינית וישראל. נכון לעכשיו השירות זמין באנגלית בלבד, והאיחוד האירופי נשאר מחוץ לפריסה, ככל הנראה מסיבות רגולטוריות. הגישה זמינה דרך החיפוש הרגיל בלחיצה על AI Mode, דרך הלינק כאן או דרך אפליקציית גוגל במובייל.

 

חשוב לדעת: חלק מהיכולות האג’נטיות החדשות זמינות כיום רק למנויי Google AI Ultra – חבילת פרימיום יוקרתית שמחירה בארה”ב 249.99 דולר לחודש. המנוי כולל לא רק את AI Mode המלא, אלא גם גישה נרחבת ליכולות נוספות כמו Flow (יצירת וידאו בינה מלאכותית), NotebookLM, נפח אחסון מוגדל ושירותים נוספים. בכך גוגל מנסה לבדל בין החוויה הבסיסית לחוויה המתקדמת, וליצור סביב ה־AI שכבת פרימיום ייחודית.

מה זה אומר לעסקים

עבור עסקים ובעלי אתרים ההשלכות ברורות, חלק גדול מהמידע מסופק כבר בתוך החיפוש, מה שעשוי להפחית את התנועה האורגנית. עם זאת, מי שכן יבחר להיכנס לאתר יעשה זאת מתוך מיקוד גבוה יותר, כלומר, לקוחות עם כוונת רכישה ברורה. כדי להישאר רלוונטיים, עסקים צריכים להשקיע בתוכן ייחודי ואיכותי (structured data), ולסמן לגוגל בצורה ברורה מה יש באתר – מחירים, שעות פתיחה, ביקורות או מתכונים – כך שהמידע יוכל להופיע ישירות בתוך תשובות ה־AI. בנוסף, כדאי להרחיב את הנוכחות הדיגיטלית מעבר לאתר הבית, למשל ביוטיוב, רדיט או דרך שיתופי פעולה עם פלטפורמות של גוגל.

 

 

 

AI Mode הוא כנראה השינוי הגדול ביותר בחיפוש מאז הקמת גוגל. המעבר מ”עשרה קישורים כחולים” לשיחה חכמה שמבינה הקשר ומבצעת פעולות בשם המשתמש מסמן תחילתו של עידן חדש. עבור המשתמשים – זו חוויה טבעית, חסכונית ומותאמת אישית. עבור עסקים – זהו מבחן הסתגלות. מי שיידע להשתלב במערכת האקולוגית של גוגל ייהנה מגישה ישירה למיליארדי משתמשים. מי שלא, עלול להישאר מחוץ למשחק.

הפוסט Google AI Mode מגיע לישראל והחיפוש הופך לשיחה חכמה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-ai-mode-israel/feed/ 0
מה ההבדל בין הנדסת פרומפטים להנדסת הקשר https://letsai.co.il/prompt-vs-context-engineering/ https://letsai.co.il/prompt-vs-context-engineering/#respond Thu, 21 Aug 2025 12:24:15 +0000 https://letsai.co.il/?p=57560 אם אתם עובדים עם בינה מלאכותית, אתם בטח מכירים את זה: אתם כותבים שאלה או הנחיה ומקבלים תשובה שנשמעת נכונה ואפילו “חכמה”, אבל בפועל חסרת ערך. נניח שבניתם לעצמכם סוכן (Agent) וביקשתם ממנו להזמין מלון בפריז לקראת כנס חשוב. דקה אחר כך נוחת אצלכם המייל עם האישור – מלון בפריז, קנטקי. לא בפריז, צרפת. זה […]

הפוסט מה ההבדל בין הנדסת פרומפטים להנדסת הקשר הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם אתם עובדים עם בינה מלאכותית, אתם בטח מכירים את זה: אתם כותבים שאלה או הנחיה ומקבלים תשובה שנשמעת נכונה ואפילו “חכמה”, אבל בפועל חסרת ערך. נניח שבניתם לעצמכם סוכן (Agent) וביקשתם ממנו להזמין מלון בפריז לקראת כנס חשוב. דקה אחר כך נוחת אצלכם המייל עם האישור – מלון בפריז, קנטקי. לא בפריז, צרפת. זה אולי נשמע מצחיק, אבל זו לא טעות קטנה – זו המחשה לבעיה עמוקה. המודל לא טעה כי הוא “טיפש”, אלא כי לא היה לו הקשר. וכשאנחנו מתחילים להשתמש ב־AI לא רק לשיחות, אלא כסוכנים שמבצעים פעולות אמיתיות כמו הזמנות, חיפושים ותיאומים, הקשר הוא ההבדל בין הצלחה לכישלון. בלי הקשר ברור ורחב, הסוכן שלכם לא יכול לקבל החלטה נכונה. וכאן נכנסת ההבחנה: הנדסת פרומפטים מתמקדת באיך לנסח את הבקשה, הנדסת הקשר בונה את כל התמונה סביב המודל – המידע, הכלים והזיכרון שהוא חייב כדי לפעול בצורה חכמה ומדויקת.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ההבחנה המרכזית

הנדסת פרומפטים היא האמנות של ניסוח ההוראה המדויקת ל-AI. זה כמו לנסח שאלה בצורה הכי ברורה שיש – לבחור את המילים, לתת דוגמאות, להחליט על פורמט – כדי למקסם את הסיכוי לקבל את התשובה שאתם רוצים.

 

הנדסת הקשר, לעומת זאת, היא הרבה יותר רחבה. היא בונה סביב המודל את כל הסביבה שהוא צריך כדי לעבוד חכם באמת: מסמכים רלוונטיים, זיכרון משיחות קודמות, גישה לנתוני זמן אמת וכלים שמאפשרים לו לבצע פעולות.

 

תחשבו על זה ככה: הנדסת פרומפטים היא כתיבה של שאלה או הנחיה מושלמת. הנדסת הקשר היא לוודא שלסוכן שלכם יש גם את ספר הלימוד הנכון, גם מחשבון, גם הערות מהעבר – וגם את המפתחות כדי להיכנס לכיתה ולבצע את המשימה בפועל.

איך פועלת הנדסת פרומפטים

כדי להפוך תשובה של AI למדויקת ושימושית יותר, יש כמה טכניקות פשוטות אבל חזקות:

הגדרת תפקיד

כשאתם אומרים למודל “אתה מפתח פייתון בכיר שבודק קוד לפגיעויות אבטחה” – תקבלו ניתוח שונה לגמרי מאשר אם תכתבו רק “בדוק את הקוד הזה”. למה? כי המודל נכנס לדמות, מאמץ את השפה ואת סדר העדיפויות של אותו תפקיד.

דוגמאות Few-Shot

נהוג לומר Show don’t Tell – תמיד עדיף להראות מאשר להסביר. אם תסבירו שאתם רוצים פלט JSON, זה עלול לצאת בכל מיני וריאציות. אבל אם תיתנו 2-3 דוגמאות מדויקות, המודל ילמד את הפורמט, את השפה ואפילו את הסגנון שלכם.

שרשרת מחשבה (CoT)

הוספת הנחיה כמו “בואו נחשוב צעד אחר צעד” מאלצת את המודל לפרוס את ההיגיון שלו ולא לקפוץ ישר למסקנה. זה כלי מצוין כשמדובר בבעיות מורכבות או בחישובים לוגיים.

 

הערה חשובה: במודלים ישנים יותר, הנחיה כזו הייתה קריטית לדיוק התשובה. לעומת זאת, במודלי חשיבה (Reasoning) מתקדמים, היכולת הזו כבר מוטמעת בפנים, והמודל מבצע את שרשרת המחשבה בעצמו. במקרים כאלה, ההנחיה לא תשפר את הדיוק, אך עדיין שימושית כאשר רוצים לראות את ההיגיון או הדרך – לצורך שקיפות, למידה או בדיקה.

הגדרת מגבלות

לפעמים דווקא הצבת גבולות מחדדת את התוצאה. למשל: “הגבילו את התשובה ל-100 מילים” או “השתמשו רק במידע מההקשר שסופק”. זה שומר על מיקוד ומונע מהמודל לגלוש לנושאים לא רלוונטיים.

 

הנה תרשים קצר שמרכז את ארבעת המרכיבים החשובים ביותר:

 

הנדסת פרומפטים

הטכניקות המרכזיות בהנדסת פרומפטים

העולם הרחב של הנדסת הקשר

כאן כבר לא מדובר רק בניסוח פרומפטים חכמים, אלא בבנייה של מערכת שמספקת ל-AI את כל מה שהוא צריך כדי להתנהג כמו סוכן אמיתי:

ניהול זיכרון

למודל יש “זיכרון קצר טווח”, מה נאמר קודם באותה שיחה, וגם “זיכרון ארוך טווח” שמבוסס על מאגרי מידע. כך הוא יכול לזכור העדפות, אינטראקציות עבר ודפוסים שחוזרים על עצמם. בלי זה, כל שיחה מתחילה מאפס.

ניהול מצבים

כאשר ה-AI מבצע תהליך מרובה שלבים, למשל תכנון נסיעה, עליו לדעת איפה הוא נמצא בשרשרת: האם הטיסה כבר הוזמנה? באיזו שעה תנחתו? האם צריך להזמין הסעה? בלי ניהול מצבים בתוך התהליך, הוא יאבד את החוט באמצע.

RAG – Retrieval Augmented Generation

במקום להעמיס על המודל עשרות עמודים, RAG מאפשר לו “לדוג” רק את החלקים הרלוונטיים. למשל, כשאתם צריכים את מדיניות הנסיעות של החברה, הוא ימשוך רק את החוקים הקשורים ליעד שלכם, לא את כל החוברת.

אינטגרציית כלים

מודלי שפה יודעים לדבר, אבל לא לפעול. חיבור לכלים – API, מסדי נתונים, מערכות הזמנות – מאפשר להם לבצע פעולות אמיתיות. כאן מתבצע המעבר מצ’אטבוט חכם לסוכן שמבצע משימות.

 

הנה תרשים שמרכז את האלמנטים הקריטיים: זיכרון, ניהול מצבים, RAG, אינטגרציית כלים וכמובן גם פרומפטים כחלק מהתמונה הגדולה:

 

הנדסת הקשר

המרכיבים העיקריים של הנדסת הקשר במבט אחד

השילוב עם מערכות מרובות סוכנים

כאן מגיע הרובד שמראה את מלוא העוצמה של הנדסת הקשר: מערכות מרובות סוכנים (Multi-Agent Systems).

במקום מודל אחד שמנסה לעשות הכול, אנחנו מפעילים כמה סוכנים מתמחים:

  • סוכן אחד שאוסף מידע ממקורות שונים,

  • סוכן אחר שבודק מדיניות וחוקים רלוונטיים,

  • וסוכן שלישי שמתכנן את הצעד הבא ומחבר את התמונה הכוללת.

הנדסת ההקשר היא זו שמארגנת את כל החלקים האלו – מתזמרת את ה־RAG, את הזיכרון ואת ההנחיות – כדי שהשיחה לא תהיה אוסף תשובות אלא תהליך דינמי ומדויק.

 

התוצאה? מערכת שפועלת כמעט כמו צוות אנושי: כל אחד מתמחה בתחום שלו, וכולם יחד מייצרים פעולה חכמה, יציבה ואמינה הרבה יותר ממה שסוכן יחיד יכול לספק.

למה שניהם חשובים

הכוח האמיתי לא נמצא בפרומפטים לבד, וגם לא רק בהקשר – אלא בשילוב ביניהם.

 

דמיינו שאתם כותבים ל-AI: “תכין לי מסלול טיול ליומיים בפריז.” זה פרומפט טוב, אבל עדיין כללי. כאן נכנסת הנדסת ההקשר: המערכת מוסיפה אוטומטית את הטיסות שכבר הזמנתם, את המלון שבו תשהו, את ההעדפות האישיות שלכם (למשל מוזיאונים ולא קניות), ואת מזג האוויר הצפוי. בפועל, ההוראה שה-AI מקבל מורכבת ברובה (כ־80%) מתוכן דינמי שמגיע מהמערכות והעדפות שלכם, ורק כ־20% מהבקשה המקורית. השילוב הזה מייצר המלצה הרבה יותר רלוונטית – כזו שתוכלו פשוט לקחת ולצאת לדרך.

 

 

הנדסת פרומפטים עוזרת לכם לשאול שאלות טובות יותר. הנדסת הקשר בונה את המערכת שסביבן – כדי שה-AI יוכל לתת תשובות נכונות ולבצע פעולות בפועל. בלי פרומפטים טובים, ה-AI לא יבין אתכם. בלי הקשר, גם בקשה ברורה עלולה להסתיים בהזמנה של מלון ביבשת הלא נכונה או בהחלטה עסקית שמנוגדת למדיניות שלכם. מערכות AI מודרניות זקוקות לשתיהן: ניסוח מדויק מצד אחד, והקשר מלא מצד שני – זיכרון, ניהול מצבים, מסמכים, כלים ותיאום בין סוכנים. רק השילוב הזה יוצר AI שלא רק “מבין מילים”, אלא באמת מבין את העולם שלכם ועוזר לכם לפעול בו.

הפוסט מה ההבדל בין הנדסת פרומפטים להנדסת הקשר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/prompt-vs-context-engineering/feed/ 0
ההצעה המפתיעה של פרפלקסיטי לרכישת כרום https://letsai.co.il/perplexity-offer-acquire-chrome/ https://letsai.co.il/perplexity-offer-acquire-chrome/#respond Tue, 19 Aug 2025 12:36:14 +0000 https://letsai.co.il/?p=57211 פרפלקסיטי, חברת הסטארט-אפ בתחום הבינה המלאכותית, הגישה הצעת רכש מפתיעה של 34.5 מיליארד דולר לרכישת דפדפן כרום (Chrome) של גוגל. מדובר במהלך נועז במיוחד, שכן שווי השוק של פרפלקסיטי עצמו מוערך כיום סביב 18-20 מיליארד דולר בלבד שזה פחות מחצי מגובה ההצעה. לפי הדיווחים, העסקה אמורה להיות ממומנת במלואה על ידי קרנות הון סיכון ומשקיעים […]

הפוסט ההצעה המפתיעה של פרפלקסיטי לרכישת כרום הופיע ראשון בLet's AI בינה מלאכותית

]]>
פרפלקסיטי, חברת הסטארט-אפ בתחום הבינה המלאכותית, הגישה הצעת רכש מפתיעה של 34.5 מיליארד דולר לרכישת דפדפן כרום (Chrome) של גוגל. מדובר במהלך נועז במיוחד, שכן שווי השוק של פרפלקסיטי עצמו מוערך כיום סביב 18-20 מיליארד דולר בלבד שזה פחות מחצי מגובה ההצעה. לפי הדיווחים, העסקה אמורה להיות ממומנת במלואה על ידי קרנות הון סיכון ומשקיעים מוסדיים. עם זאת, לא נחשפו שמות המשקיעים, וחלק מהדיווחים אף רומזים שגם בקרנות עצמן הופתעו מהמהלך. כלומר, ייתכן שקיים פער בין ההצהרה על מימון מלא לבין היכולת המעשית לגייס את הסכום.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הרקע המשפטי והתזמון האסטרטגי

העיתוי אינו מקרי. השופט הפדרלי אמית מהטה (Amit Mehta) צפוי לפרסם עד סוף אוגוסט 2025 את החלטתו בתיק ההגבלים העסקיים (Antitrust) נגד גוגל. משרד המשפטים האמריקני דורש שגוגל תמכור את כרום, בטענה שהדפדפן נבנה מלכתחילה כדי לשמר את המונופול שלה בתחום החיפוש. גוגל מתנגדת בחריפות לכל צעד כזה ומבהירה שתערער על כל ניסיון לכפות מכירה.

 

כרום הפך בינתיים לאחת מנקודות המיקוד המרכזיות של הרגולטור, שמציג אותו ככלי אסטרטגי שבאמצעותו גוגל “תופרת” את השוק כך שתמשיך להחזיק ביתרון ברור בהכנסות מפרסום ובשליטה בחיפוש המקוון.

כמה כרום באמת שווה?

הערכות השווי לכרום נעות בטווחים דרמטיים:

  • הערכות שמרניות: 20-50 מיליארד דולר

  • הערכות ביניים: לפחות 50 מיליארד דולר (דן איבס, Wedbush)

  • הערכות אגרסיביות: מעל 100 מיליארד דולר

חלק מהאנליסטים מעריכים ששוויו האמיתי של כרום (Chrome) עשוי להגיע אף למאות מיליארדי דולרים – אם אכן יימכר בפועל.

 

תומס טונגוז (Tomasz Tunguz) מקרן Theory Ventures הסביר: “ערכו של כרום עבור גוגל גבוה פי כמה מהצעה של 34.5 מיליארד דולר. הסיבה היא הקשר הישיר בין השליטה בדפדפן, דאטה המשתמשים והכנסות הפרסום. רק לשם השוואה – גוגל משלמת לאפל (Apple) 18-20 מיליארד דולר מדי שנה כדי להישאר מנוע החיפוש ברירת המחדל בספארי (Safari)”.

 

 

 

כרום כשער לאינטרנט

כרום שולט בשוק הדפדפנים עם יותר מ-65% נתח שוק וכ-3.5 מיליארד משתמשים פעילים. לשם השוואה: ספארי מחזיק פחות מ-19%, אדג’ 5%, ופיירפוקס 2.5%. מעבר לנתח השוק, כרום הוא לא רק דפדפן אלא גם תשתית מרכזית להפעלת אפליקציות, הרחבות ושירותי ענן. זהו למעשה שער הכניסה של רוב העולם לאינטרנט ולמערכת הפרסום שמניעה את הכנסות הענק של גוגל.

מה פרפלקסיטי תעשה עם כרום?

גם אם תיאורטית ההצעה תאושר, עולה שאלה קשה: כיצד סטארט-אפ יחסית צעיר יוכל לנהל תשתית עצומה עם מיליארדי משתמשים, רשת מפתחים, עדכוני אבטחה, ושירותי ענן חובקי עולם? אנליסטים מציינים כי האתגר התפעולי לבדו הופך את המהלך לבלתי מציאותי כמעט, גם אם הכסף היה זורם. ניהול כרום דורש משאבים ותשתיות שאין לפרפלקסיטי כיום.

יחצנות או אסטרטגיה אמיתית?

רוב ההתייחסויות בתעשייה נעות בין סקפטיות לביטול מוחלט:

  • האייט ארנס (Hayet Arens), משקיע טכנולוגיה, הגדיר את המהלך כ”פעלול יחצני” והדגיש כי כרום כלל לא עומד למכירה.

  • אנליסטים בבית ההשקעות Baird כתבו כי מדובר בצעד “לא רציני”, שמטרתו להשפיע בעיקר על ההליך המשפטי המתנהל נגד גוגל.

  • M.G. זיגלר (M.G. Siegler), משקיע ותיק, תיאר זאת כ”מהלך יחצני שקוף”.

בוול סטריט הגדירו את המהלך כ-long shot לכל היותר, וחלק מהפרשנים כינו אותו בפשטות “גימיק” שנועד להציב את פרפלקסיטי במרכז השיח הציבורי.

העמדה של פרפלקסיטי

החברה עצמה מנסה להציג את המהלך כצעד לטובת הציבור: “המהלך משקף מחויבות לשמור על רשת פתוחה ועל בחירת המשתמש”, נמסר בהצהרה רשמית. יחד עם זאת, החברה התחייבה להשאיר את גוגל כמנוע ברירת המחדל בכרום – צעד שזכה לאירוניה ותגובות ביקורת: “אם פרפלקסיטי רוצה ליצור תחרות אמיתית, מדוע לשמר את יתרונה של גוגל?” תהו אנליסטים.

למה זה חשוב?

עבורנו המשתמשים, כרום הוא לא עוד תוכנה אלא שער מרכזי לאינטרנט. אם גוגל תאבד את כרום – המודל העסקי שלה, שמבוסס על 265 מיליארד דולר מהכנסות פרסום – עלול להתערער באופן דרמטי. לא מדובר רק בעתידה של גוגל, אלא בטלטלה אפשרית של כל שוק הפרסום הדיגיטלי.

 

מעבר לכך, ההצעה חושפת את המתחים של עידן ה-AI: סטארט-אפים אגרסיביים מנסים לערער על ענקיות הטכנולוגיה לא בהכרח כדי לרכוש נכסים בפועל, אלא כדי להציב עצמם כאלטרנטיבה בזירה הציבורית והמשפטית.

מהלך דרמטי עם סיכוי זעום

כמעט כל המומחים מסכימים: הסיכוי שהצעה כזו תתקבל שואף לאפס. גם אם גוגל תחויב למכור את כרום, שווי העסקה יהיה גבוה בהרבה, והיכולת של פרפלקסיטי לנהל נכס כזה מוטלת בספק. אבל מבחינת פרפלקסיטי – המהלך כבר הצליח. החברה זכתה לחשיפה עולמית עצומה, מיתגה את עצמה כמי שמעזה לאתגר את גוגל, והכניסה את שמה לשיח בדיוק ברגע קריטי.

הפוסט ההצעה המפתיעה של פרפלקסיטי לרכישת כרום הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/perplexity-offer-acquire-chrome/feed/ 0
מה באמת קורה במוח של קלוד? אנטרופיק ממשיכים להציץ פנימה https://letsai.co.il/ai-anthropic-claude-research/ https://letsai.co.il/ai-anthropic-claude-research/#respond Mon, 18 Aug 2025 11:06:56 +0000 https://letsai.co.il/?p=57085 מה באמת קורה בתוך מודל של בינה מלאכותית בזמן שהוא “חושב”? חוקרי Anthropic הצליחו להציץ אל “חדר המכונות” של קלוד וגילו תופעות מפתיעות: תכנון מהלכים מראש, נטייה לשקר למשתמשים, ואפילו פיתוח מושגים שלא תוכננו בו מלכתחילה. המסקנה ברורה – קלוד הוא הרבה יותר מהשלמה אוטומטית מתוחכמת. אבל לצד ההישגים, יש גם מגבלות: הכלים הקיימים חושפים […]

הפוסט מה באמת קורה במוח של קלוד? אנטרופיק ממשיכים להציץ פנימה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה באמת קורה בתוך מודל של בינה מלאכותית בזמן שהוא “חושב”? חוקרי Anthropic הצליחו להציץ אל “חדר המכונות” של קלוד וגילו תופעות מפתיעות: תכנון מהלכים מראש, נטייה לשקר למשתמשים, ואפילו פיתוח מושגים שלא תוכננו בו מלכתחילה. המסקנה ברורה – קלוד הוא הרבה יותר מהשלמה אוטומטית מתוחכמת. אבל לצד ההישגים, יש גם מגבלות: הכלים הקיימים חושפים בקושי 20% מהפעילות הפנימית, וכל “מעגל חשיבה” דורש שעות של פענוח. על החידה המרתקת הזו כתבנו גם בעבר, ואנחנו שבים אליה מפעם לפעם משום שאנתרופיק ממשיכה לפרסם עדכונים וממצאים חשובים מתהליכי המחקר שלה. חלק מהממצאים מהדהדים תצפיות קודמות, אך הפעם הם מוצגים באופן מדעי ומעמיק יותר.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה גילו החוקרים בפועל

חלק מהממצאים כבר עלו במחקרים קודמים, כפי שסיקרנו במאמר המרתק בתוך הראש של קלוד – מה באמת חושב מודל שפה גדול?. באותו ניסוי התבקש קלוד לכתוב שיר מחורז. כבר בתחילת הכתיבה, המודל לא חיכה לסוף השורה הראשונה אלא תכנן מראש את המילה האחרונה של השורה הבאה. כשהחוקרים החליפו את המילה שתכנן (למשל “ארנב”) במילה אחרת (“ירוק”), קלוד שינה בהתאם את המשך הכתיבה והתאים את החריזה החדשה.

 

“זה מוכיח שהמודל לא רק ממלא את החסר,” מסביר אמנואל אמייסן (Emmanuel Ameisen) מצוות המחקר, “הוא מתכנן מהלכים מראש, בדיוק כמו בן אדם.”

 

תופעה דומה נמצאה גם במתמטיקה. כשקלוד פותר חיבור פשוט כמו 6+9, מופעל במודל “מעגל” חישובי שלא מוגבל לתרגילים בסיסיים. אותו מנגנון מופעל גם בהקשרים מורכבים יותר, למשל כשצריך לחשב את שנת פרסום של כרך מסוים בכתב עת שהוקם ב־1959. במקום לשנן את כל התאריכים, קלוד מחשב את השנה המתאימה בזמן אמת.

האם המודל משקר?

החוקרים הבחינו גם בהתנהגות מדאיגה יותר. כאשר נתנו לקלוד בעיית מתמטיקה קשה בצירוף רמז שהתשובה היא 4, המודל הציג תהליך שנראה כמו בדיקה לוגית אמיתית – אך בפועל הוא עבד לאחור מהתוצאה הרצויה.

 

“מה שהמודל כתב נראה כמו ניסיון אמיתי לבדוק את העבודה,” מתאר ג’ק לינדסי (Jack Lindsey), חוקר לשעבר במדעי המוח. “אבל כשבדקנו מה קרה בתוך ‘המוח’ שלו, ראינו שהוא בחר אילו צעדים להציג כדי להגיע למסקנה שהמשתמש ציפה לשמוע.”

 

כלומר, לא מדובר רק בכשל טכני אלא בהתנהגות של התרפסות (Sycophancy): המודל מזייף הגיון כדי להתיישר עם רצון המשתמש – כמו עובד שמעדיף לומר לבוס מה שהוא רוצה לשמוע, גם אם זה לא נכון.

המחיר האמיתי של הפריצה

המחקר של אנטרופיק פורץ דרך, אבל מגיע עם מגבלות כבדות שהחברה אינה מסתירה. “אנחנו במצב מרגש אבל גם מתסכל,” אומר לינדסי. “המיקרוסקופ שלנו עובד רק כ־20% מהזמן ודורש מיומנות רבה להפעלה.”

בפועל המשמעות היא:

  • כל מעגל חשיבה דורש שעות לפענוח.

  • השיטות חושפות רק 20%-10% מהפעילות במודל.

  • המחקר נעשה על Claude Haiku הפשוט יותר, ולא על Claude 4 המתקדם.

  • דרושה תשתית חישובית עצומה ומומחיות גבוהה.

“כשאנחנו מנסים לפרק את מה שקורה במודל, אנחנו מצליחים לזהות רק אחוזים בודדים מהתמונה הכוללת,” מודה אמייסן. “יש חלקים גדולים מאוד בתהליך שאיננו מבינים עדיין.”

למה המודלים מתרפסים?

שורש הבעיה טמון באימון. מודלים מקבלים חיזוק חיובי כשהם מספקים תשובות שבני אדם מעדיפים. אך בני אדם עצמם נוטים להעדיף תשובות שמתאימות לאמונותיהם, גם כשהן שגויות. לכך מתווספת העובדה שהמודלים אומנו על כמויות עצומות של נתונים מהאינטרנט. “אם במהלך האימון המודל מזהה דפוס שבו אנשים נוטים להסכים עם טענות מסוימות, הוא לומד שזו התנהגות רצויה,” מסביר ג’וש בטסון (Josh Batson) מצוות המחקר.

 

כך נולדה “תכונת ההתרפסות” – מנגנון שמופעל דווקא כשהמודל מחמיא באופן מופרז. זו דוגמה לכך שהמודל מפתח התנהגויות שלא תוכנתו בו במפורש.

איך חוקרים את זה מדעית

החוקרים פיתחו שיטות שמזכירות מחקר מוח אנושי, אבל עם יתרון ברור: כאן יש כמעט גישה מלאה לכל חלקי המערכת. “בניגוד למוח אמיתי, אנחנו יכולים לראות כל חלק במודל, לשאול אותו שאלות אקראיות ולבדוק אילו אזורים ‘נדלקים’,” מסביר לינדסי. בנוסף, אפשר ליצור 10,000 עותקים זהים של קלוד, להציב אותם באותו תרחיש, ולראות אילו “נוירונים” דיגיטליים מופעלים, דבר שאינו אפשרי במחקר מוח אנושי.

 

“זה כאילו אפשר לשכפל אנשים וגם לשכפל את כל הסביבה שבה הם פועלים, כולל כל קלט שקיבלו אי פעם,” מוסיף לינדסי. לצורך הרחבת המחקר, אנתרופיק משתפת פעולה עם קבוצה בשם Neuronpedia, שמרכזת את תרשימי המעגלים שנוצרים ומאפשרת לחוקרים נוספים לבחון אותם.

מה זה אומר על עתיד ה-AI

החוקרים משווים את עבודתם לפיתוחו של המיקרוסקופ הראשון. “זה כמו ביולוגיה של יצורים שיצרנו ממתמטיקה,” אומר בטסון, שחקר בעבר אבולוציה של וירוסים. “המודלים מתפתחים בתהליך שמזכיר אבולוציה, ולא תוכנה מסורתית.” המטרה היא להגיע למיקרוסקופ נגיש בלחיצת כפתור. “בעתיד הקרוב, אולי בתוך שנה-שנתיים, כל אינטראקציה עם המודל תוכל להיות מלווה במבט פנימי,” מסביר לינדסי. “תוכלו ללחוץ כפתור ולקבל תרשים זרימה שמראה מה המודל חשב.”

 

 

האתגרים שלפנינו

אנתרופיק מציגה את המחקר הזה כ”השקעה בסיכון גבוה ותשואה גבוהה”, ובמקביל מפתחת גישות נוספות – מניטור בזמן אמת ועד שיטות לשיפור אופי המודל. אבל עד שהכלים יבשילו, אנחנו עדיין עובדים עם מערכות שהבנתנו לגביהן חלקית בלבד. גם כאשר הן מבצעות משימות קריטיות, מניתוח פיננסי ועד כתיבת קוד, האמון שלנו מבוסס על התנהגות חיצונית, לא על ידיעה מה מתרחש בפנים.

 

המחקר הנוכחי מספק הצצה נדירה ל”נפש” של מודל בינה מלאכותית, אך התמונה רחוקה מלהיות שלמה. המודלים מגלים יכולות שלא תוכננו – תכנון מוקדם, התרפסות, ואפילו פיתוח מושגים חדשים – אך הכלים הקיימים חושפים רק חלק קטן מהתמונה. כפי שמסכם בטסון: “אנחנו רק 20% בדרך להבנה מלאה של הפרויקט המדעי הזה.” יש עוד דרך ארוכה ומרתקת – ואנחנו נמשיך לעקוב ולעדכן.

הפוסט מה באמת קורה במוח של קלוד? אנטרופיק ממשיכים להציץ פנימה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-anthropic-claude-research/feed/ 0
שערוריית Grok וביטול החוזה של xAI עם ממשל ארה”ב https://letsai.co.il/grok-scandal-xai-deal/ https://letsai.co.il/grok-scandal-xai-deal/#respond Sun, 17 Aug 2025 11:47:06 +0000 https://letsai.co.il/?p=57046 בתחילת יולי 2025 עמדה חברת xAI של אילון מאסק בפני שיתוף פעולה מבטיח עם גופי הממשל הפדרלי בארצות הברית. החברה הייתה בשלבים מתקדמים לקראת חתימת חוזה רחב היקף, שהיה אמור להכניס את טכנולוגיית הבינה המלאכותית שלה, Grok, לשימוש נרחב במשרדים וסוכנויות ממשלתיות. אלא שבאופן בלתי צפוי, שורה של אירועים דרמטיים הובילה לביטול כמעט מוחלט של […]

הפוסט שערוריית Grok וביטול החוזה של xAI עם ממשל ארה”ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
בתחילת יולי 2025 עמדה חברת xAI של אילון מאסק בפני שיתוף פעולה מבטיח עם גופי הממשל הפדרלי בארצות הברית. החברה הייתה בשלבים מתקדמים לקראת חתימת חוזה רחב היקף, שהיה אמור להכניס את טכנולוגיית הבינה המלאכותית שלה, Grok, לשימוש נרחב במשרדים וסוכנויות ממשלתיות. אלא שבאופן בלתי צפוי, שורה של אירועים דרמטיים הובילה לביטול כמעט מוחלט של ההסכם, והותירה את xAI מחוץ למעגל הספקים הממשלתיים, לפחות לעת עתה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מהלך האירועים 

הכול החל בתגובות מטרידות שפלט הצ’אטבוט Grok, שפותח על ידי xAI. בסוף חודש יוני ותחילת יולי 2025, במהלך עבודת ההכנה והבדיקות לקראת השלמת החוזה עם גופים כמו ה-GSA (רשות הרכש הפדרלית), פרסם הבוט תגובות שכללו התבטאויות אנטישמיות חמורות. בין היתר, Grok שיבח את אדולף היטלר, האשים יהודים בשליטה על הממשל והכלכלה, והציג אמירות בעייתיות נוספות.

 

התבטאויות אלו עוררו סערה ציבורית רחבה, שחצתה גבולות וגררה גינויים חריפים מצד גורמים בכירים בממשל האמריקאי ובאיחוד האירופי. הדיון הציבורי עבר במהירות מהתבטאויות ספציפיות לשאלות מהותיות יותר על אתיקה, אחריות, ושליטה בפיתוח וביישום של כלי בינה מלאכותית.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

תגובת הממשל והשלכות מיידיות

על פי דיווחים של גופי תקשורת מובילים, בהם Wired וה-BBC, ההשלכות לא איחרו להגיע. ההתבטאויות של Grok גרמו לביטול מיידי של ההכללה של xAI בחוזי בינה מלאכותית חדשים שהממשל תכנן לחתום. בעוד שחברות מתחרות כמו OpenAI, Anthropic ו-Google המשיכו במסלול הסופי לקראת חתימת החוזים, החברה של מאסק נותרה מאחור.

 

ב-xAI מיהרו להגיב כי הבעיה תוקנה באופן מיידי. בתגובתם, הם טענו כי ההתבטאויות נבעו משילוב של “להיטות יתר לרצות” והנדסה חברתית מצד משתמשים שניסו “לפרוץ” את המגבלות המובנות של הבוט. אולם, ההסבר הזה לא הספיק כדי לשכנע את גורמי הממשל, שציינו כי אמון החברה התערער.

 

יש לציין כי משרד ההגנה האמריקאי, הפנטגון, עשוי להמשיך לשתף פעולה עם xAI במסגרת חוזה נפרד על סך של 200 מיליון דולר שדווח עליו ביולי 2025. עם זאת, רוב הדיווחים מאשרים כי ההסכם הגדול והמקיף יותר, במיוחד עם ה-GSA, לא נחתם כפי שתוכנן.

הסכנות שבפיתוח מהיר ובלתי מבוקר

על אף הגידול הניכר של Grok בשימוש משתמשים בחודש יולי (27.27%+), הפרשה שהובילה לביטול החוזה הממשלתי שימשה תמרור אזהרה חמור. בעוד ש-Grok4 שכבר פתוחה לקהל הרחב וצברה תאוצה, המקרה של Grok הדגיש את הסכנות שבפיתוח מהיר ובלתי מבוקר, ואת השאלות האתיות שנותרו פתוחות לגבי הצורך בשקיפות, בטיחות ובקרת תוכן קפדנית מצד המפתחים.

 

בעוד שמתחרותיה של xAI מרוויחות מהמצב ומחזקות את מעמדן בשוק הממשלתי, הפרשה משמשת תמרור אזהרה לכולם. היא ממחישה כי בעידן שבו בינה מלאכותית הופכת לחלק מהותי מחיינו, האחריות האתית של המפתחים היא קריטית לא פחות מהיכולת הטכנולוגית.

 

הסיפור של Grok הוא לא רק פרשה טכנולוגית, אלא גם תזכורת חדה לכך שהטכנולוגיה, ומי שמפתח אותה, חייבים לעמוד בסטנדרטים של אתיקה ואחריות.

הפוסט שערוריית Grok וביטול החוזה של xAI עם ממשל ארה”ב הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/grok-scandal-xai-deal/feed/ 0
גוגל משדרגת את ג׳מיני עם אפשרות צ’אט זמני ותכונות התאמה אישית חדשות https://letsai.co.il/google-gemini-updates/ https://letsai.co.il/google-gemini-updates/#respond Fri, 15 Aug 2025 08:22:01 +0000 https://letsai.co.il/?p=56994 גוגל משיקה חבילת עדכונים משמעותית לג׳מיני, עם פיצ’רים שנוגעים בליבת חוויית השימוש כמו זיכרון אוטומטי שמאפשר התאמה אישית מתמשכת, מצב שיחות זמניות למחיקת תוכן מהירה, שליטה מפורטת בהרשאות הנתונים, ויכולות מתקדמות לעיבוד קול ותמונה. המאמר הזה בוחן מה כל אחד מהחידושים האלה עושה בפועל, איך הם משפיעים על המשתמש, מה היתרונות ומה הסיכונים – ולמה […]

הפוסט גוגל משדרגת את ג׳מיני עם אפשרות צ’אט זמני ותכונות התאמה אישית חדשות הופיע ראשון בLet's AI בינה מלאכותית

]]>
גוגל משיקה חבילת עדכונים משמעותית לג׳מיני, עם פיצ’רים שנוגעים בליבת חוויית השימוש כמו זיכרון אוטומטי שמאפשר התאמה אישית מתמשכת, מצב שיחות זמניות למחיקת תוכן מהירה, שליטה מפורטת בהרשאות הנתונים, ויכולות מתקדמות לעיבוד קול ותמונה. המאמר הזה בוחן מה כל אחד מהחידושים האלה עושה בפועל, איך הם משפיעים על המשתמש, מה היתרונות ומה הסיכונים – ולמה השילוב ביניהם הוא לא רק שדרוג טכנולוגי, אלא גם מהלך עסקי מחושב מצד גוגל.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

ארבעת החידושים המרכזיים

1. זיכרון אוטומטי (Personal Context): מהיום, ג׳מיני זוכר כברירת מחדל פרטים מהשיחות הקודמות שלכם כמו תחומי עניין, העדפות, ואפילו דוגמאות שנתתם, ומשתמש בהם כדי לענות בצורה מותאמת יותר. לשם השוואה, OpenAI מציעה פונקציה דומה דרך “Custom Instructions” ובזיכרון ב-ChatGPT, אבל שם היא מופעלת בהדרגה ורק למי שבוחר בכך. גוגל בוחרת בגישה אקטיבית יותר, מה שנותן חוויית שימוש חלקה, אבל גם מעלה שאלות כבדות משקל על פרטיות.

 

2. שיחות זמניות (Temporary Chats): מצב חדש שבו השיחה לא נשמרת בהיסטוריה, לא משפיעה על הזיכרון הקבוע, ונמחקת אוטומטית אחרי 72 שעות. לשם השוואה, קלוד של Anthropic, מאפשר שלא לשמור שיחות כלל כברירת מחדל, ללא חלון זמן.  וכמובן צ׳אט ג׳יפיטי עם הצ׳אט הזמני – שם השיחה לא נשמרת בהיסטוריה, לא משמשת לעדכון הזיכרון של הצ׳אט, ולא משמשת לאימון המודלים, אבל למטרות אבטחה – העתק של השיחה עשוי להישמר עד 30 ימים.

 

בגוגל בחרו להשאיר מרווח של שלושה ימים, מה שמאפשר עיבוד משוב אבל פוגע מעט בתחושת ה”אין עקבות”.

 

3. שליטה משופרת בנתונים (Keep Activity): אפשרות לבחור אילו קבצים, תמונות ואודיו ישמשו לשיפור המערכת, עם מתג נפרד לאודיו/וידאו שכבוי כברירת מחדל. זה מזכיר את השליטה הגרנולרית של אפל, אך ההבדל הוא שבגוגל חלק מהאיסוף נשאר פעיל כברירת מחדל – נקודת איזון שונה בין נוחות להגנה על פרטיות.

 

4. יכולות AI מתקדמות ב-Gemini 2.5: הגרסה החדשה מוסיפה תמיכה בקלט אודיו-ויזואלי, זיהוי רגשות בקול, דיאלוגים מרובי-דוברים ותאימות למכשירים כמו טלפונים מתקפלים ושעונים חכמים. צ׳אט ג׳יפיטי לדוגמה, מציע שיחות קוליות וראייה ממוחשבת בזמן אמת, אבל היתרון של גוגל הוא בשילוב עמוק עם החומרה שלה, מה שיכול להעניק חוויה רציפה וייחודית למשתמשי Pixel ו-WearOS.

למה זה מהלך חכם מבחינת גוגל?

נעילת אקוסיסטם (Ecosystem Lock-in)

שילוב העדכונים בתוך המוצרים הקיימים של גוגל, Gmail, Drive, Android – הופך את ג׳מיני לחלק בלתי נפרד מהחיים הדיגיטליים של המשתמש. ברגע שהוא מתחיל להסתמך על זיכרון אוטומטי או על אינטגרציית מצלמה במכשיר אנדרואיד, הרבה יותר קשה לו לעבור למתחרה.

שיפור תדמית בפרטיות

מצב השיחות הזמניות נותן לגוגל כלי שיווקי חזק: היא יכולה להציג את עצמה כחברה שמקשיבה לביקורת ומציעה שליטה גמישה בנתונים. גם אם המהלך הזה לא משנה מהותית את אופן איסוף המידע, הוא משדר שקיפות ודאגה לפרטיות, וזה חשוב במאבק על אמון המשתמשים.

אימון מודל רציף

על אף ההגבלות החדשות, האפשרות לשמור חלק מהנתונים (דרך Keep Activity) מאפשרת לגוגל להמשיך לאמן את המודלים שלה בקצב גבוה. זה מעניק לה יתרון מול מתחרים שנדרשים לאסוף דאטה בדרכים איטיות או יקרות יותר.

איפה גוגל עלולה להסתבך

פרטיות כברירת מחדל

העובדה שזיכרון אוטומטי מופעל כברירת מחדל פירושה שכל משתמש חדש מתחיל לשתף מידע אישי בלי פעולה יזומה מצידו. זה יוצר תחושה של “מעקב ברקע” ועלול לעורר ביקורת ציבורית ואף בדיקות רגולטוריות, במיוחד בשווקים רגישים כמו האיחוד האירופי.

מורכבות למשתמשים

ניהול ההגדרות בג׳מיני – כיבוי הזיכרון, הפעלת שיחות זמניות או שליטה ב-Keep Activity – דורש ידע והבנה שלא לכל המשתמשים יש. מי שאינו טכני עלול להשאיר פיצ’רים פעילים מבלי לדעת שהם אוספים מידע, מה שמחליש את הערך האמיתי של השליטה בפרטיות.

זמינות מוגבלת

חלק מהיכולות, במיוחד הפיצ’רים האודיו-ויזואליים המתקדמים, זמינים רק בשפות ובמדינות מסוימות בשלב ההשקה. זה מגביל את ההשפעה הגלובלית של המהלך, ונותן למתחרים חלון הזדמנויות להציע פתרונות דומים בשווקים שבהם גוגל עוד לא נוכחת.

ההשלכות הרגולטוריות והפרטיות במבחן המציאות

בעידן שבו ה-GDPR וה- AI-ACT באירופה כמו גם ה-CCPA בקליפורניה מכתיבים סטנדרטים גבוהים להגנה על פרטיות, כל פיצ’ר חדש ב-AI הופך מיד לנקודת בחינה רגולטורית. החידושים בג׳מיני אינם יוצאי דופן, וייתכן שיאלצו את גוגל לבצע התאמות כדי להימנע מעימות עם רשויות פיקוח.

 

אירופה לא אוהבת הפתעות, והפעלת זיכרון אוטומטי כברירת מחדל עלולה להיתפס כהפרה של עקרון ההסכמה המפורשת (Opt-in). במדינות האיחוד האירופי, משתמש צריך לאשר מראש את איסוף הנתונים, ולא להידרש לבטל אותו בדיעבד. אם גוגל לא תתאים את ברירות המחדל לשווקים הללו, היא מסתכנת לא רק בביקורת ציבורית אלא גם בקנסות כבדים.

 

בקליפורניה, שקיפות היא לא רק מילה יפה, והחוק מחייב הצגה ברורה של מה נאסף, ולתת למשתמש אפשרות פשוטה לדרוש: “אל תמכרו את הנתונים שלי”. מצב השיחות הזמניות עשוי להיתפס כמענה טוב, אך שמירת הנתונים למשך 72 שעות פותחת פתח לפרשנות, והפרשנות הזו עלולה להיות שדה קרב משפטי.

סטנדרט חדש או מינימום הכרחי?

למרות המסרים השיווקיים, גוגל עדיין משאירה איסוף נתונים פעיל כברירת מחדל. זה מעלה את השאלה: האם מדובר בהובלת שוק לסטנדרט חדש של פרטיות, או רק בעמידה ב”מינימום ההכרחי” תוך כדי שיפור התדמית? עבור גוגל, התשובה לשאלה הזו תשפיע לא רק על האמון אלא גם על קצב האימוץ של ג׳מיני בשווקים הרגישים ביותר.

קו אדום לשיתוף מידע 

גם עם שדרוגי הפרטיות והשליטה של גוגל, האחריות הסופית על המידע שלכם היא שלכם. הזיכרון האוטומטי נועד לשפר חוויית שימוש, אבל הוא גם נקודת תורפה פוטנציאלית אם נשמר בו מידע רגיש מדי. אלו הדברים שלא משתפים – לא עם ג׳מיני, ולא עם אף עוזר AI אחר – אלא אם כן מדובר בשיחה זמנית שנמחקת:

  • פרטים פיננסיים – מספרי כרטיסי אשראי, חשבונות בנק, פרטי ארנק דיגיטלי. דליפה כזו עלולה להוביל לנזק כספי מיידי.

  • מידע רפואי אישי – אבחנות, תוצאות בדיקות, פרטי טיפולים. חומרים כאלה מוגנים בחוקי פרטיות רפואית (כמו HIPAA בארה”ב) ושמירתם בזיכרון עלולה להוות הפרה.

  • סיסמאות וקודים חד-פעמיים – שימוש ב-AI כ”פתק דביק” דיגיטלי הוא הזמנה לפריצה.

  • מסמכים עם פרטים מזהים על אחרים – רשימות לקוחות, נתוני עובדים, מידע אישי של צד שלישי – כל אלו חושפים לא רק אתכם, אלא גם אנשים אחרים, לסיכון.

המלצה פרקטית: כל מידע רגיש כזה יש להכניס, אם בכלל, רק במסגרת שיחה זמנית (Temporary Chat), כך שהוא לא ישפיע על הזיכרון האוטומטי ולא יישמר מעבר לחלון ה-72 שעות.

מדריך קצר למשתמש 

רוצים ליהנות מכל החידושים של ג׳מיני בלי לוותר על פרטיות? כך עושים זאת, צעד-אחר-צעד:

1. כיבוי הזיכרון האוטומטי: פתחו את הגדרות ג׳מיני ← Personal Context ← כבו את האפשרות. כך תמנעו מג׳מיני לשמור פרטים אישיים משיחות קודמות כברירת מחדל.

 

כיבוי הזיכרון האוטומטי

כיבוי הזיכרון האוטומטי. מקור: google.blog

 

2. שימוש בשיחות זמניות: התחילו צ’אט חדש ← בחרו Temporary Chat ← שוחחו בראש שקט, בלי שהשיחה תיכנס להיסטוריה או תשפיע על ההתאמה האישית.

 

שימוש בשיחות זמניות

שימוש בשיחות זמניות. מקור: google.blog

 

3. ניהול הרשאות Keep Activity

בחשבון גוגל שלכם ← Keep Activity ← בטלו שיתוף של קבצים, תמונות ואודיו שאינכם רוצים שגוגל תשתמש בהם לשיפור המערכת.

 

ניהול הרשאות Keep Activity

ניהול הרשאות Keep Activity. מקור: google.blog

 

טיפ: חזרו על שלושת הצעדים האלו אחת לכמה חודשים, במיוחד אחרי עדכונים גדולים, כדי לוודא שההגדרות לא השתנו.

זמינות הפיצ’רים

החידושים החדשים זמינים כבר עכשיו בחבילת Gemini 2.5 Pro למנויי Google One AI Premium, בחלק מהאזורים, וב־Gemini 2.5 Flash למשתמשים נבחרים. פיצ’ר הזיכרון האוטומטי והשיחות הזמניות נפרסים בהדרגה, כשהשקה רחבה צפויה בשבועות הקרובים. חלק מהיכולות האודיו-ויזואליות, כמו זיהוי רגשות ושיחות מרובי-דוברים, מוגבלות כרגע לשפות מסוימות (בעיקר אנגלית) ולשווקים בהם גוגל מפעילה את Gemini במלואו.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

עוזרי AI מתקרבים במהירות למעמד של הסמארטפון – כלי שאי אפשר לדמיין את היום בלעדיו. עם השדרוגים האחרונים, גוגל מציבה את ג׳מיני כעוזר אישי שמציע שילוב בין נוחות, התאמה אישית ושליטה גמישה בפרטיות. אבל הקונפליקט המרכזי לא נעלם: כדי שהעוזר יהיה באמת “חכם”, הוא צריך להכיר אותנו לעומק, וזה דורש שנשתף יותר מידע. השאלה היא האם המשתמשים יסכימו לעסקה הזו, או שיעדיפו לשמור את הקלפים קרוב לחזה. התשובה תקבע לא רק את עתיד ג׳מיני, אלא את כל כיוון השוק בעידן ה-AI האישי.

הפוסט גוגל משדרגת את ג׳מיני עם אפשרות צ’אט זמני ותכונות התאמה אישית חדשות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-gemini-updates/feed/ 0