בינה מלאכותית ברפואה ומחקרים | Let's AI בינה מלאכותית https://letsai.co.il/articles/ai-in-medicine-research/ בינה מלאכותית Wed, 04 Feb 2026 16:23:57 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp בינה מלאכותית ברפואה ומחקרים | Let's AI בינה מלאכותית https://letsai.co.il/articles/ai-in-medicine-research/ 32 32 מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים https://letsai.co.il/agents-thinking-partners/ https://letsai.co.il/agents-thinking-partners/#respond Thu, 05 Feb 2026 07:08:54 +0000 https://letsai.co.il/?p=69210 כשחברות הטכנולוגיה מציגות סוכני AI, הן נוטות להציג תרחיש דומה: אתה אומר “תזמין לי טיסה לניו יורק ומלון ליד סנטרל פארק”, והסוכן עושה הכול בשבילך. זה נשמע פשוט ואלגנטי, אבל מתברר שזה לא מה שקורה בפועל. מחקר חדש של אוניברסיטת הרווארד וחברת Perplexity, שפורסם בדצמבר 2025, ניתח מאות מיליוני אינטראקציות אמיתיות עם סוכני AI. הממצאים […]

הפוסט מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים הופיע ראשון בLet's AI בינה מלאכותית

]]>
כשחברות הטכנולוגיה מציגות סוכני AI, הן נוטות להציג תרחיש דומה: אתה אומר “תזמין לי טיסה לניו יורק ומלון ליד סנטרל פארק”, והסוכן עושה הכול בשבילך. זה נשמע פשוט ואלגנטי, אבל מתברר שזה לא מה שקורה בפועל. מחקר חדש של אוניברסיטת הרווארד וחברת Perplexity, שפורסם בדצמבר 2025, ניתח מאות מיליוני אינטראקציות אמיתיות עם סוכני AI. הממצאים מציגים תמונה שונה לחלוטין: 57% מהשימוש מתרכז בעבודה קוגניטיבית, לא במשימות פשוטות. אנשים לא משתמשים בסוכנים כדי לחסוך זמן על הזמנת טיסות, הם משתמשים בהם כדי לחשוב טוב יותר. ויש גם צד פחות מעודד שמשקף פערים דיגיטליים שרק מתרחבים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הרעש סביב AI והפער בנתונים

2025 הוכרזה כ”שנת הסוכנים” בתעשיית הטכנולוגיה. OpenAI, Anthropic, Google ו-Microsoft השיקו מוצרים שמבטיחים לבצע משימות בשם המשתמש, לא רק לענות על שאלות. אבל עד לאחרונה, רוב מה שידענו על השימוש בהם נשען על אנקדוטות, הדגמות שיווקיות וסקרים עצמיים. נתונים אמפיריים בהיקף גדול פשוט לא היו.

 

המחקר החדש משנה את זה. החוקרים ניתחו נתוני שימוש מ-Comet, דפדפן AI שפיתחה Perplexity והושק ביולי 2025. הדפדפן כולל סוכן משולב בשם Comet Assistant, שמסוגל לבצע פעולות באתרים: לשלוח מיילים, לערוך מסמכים, להזמין טיסות. במשך ארבעה חודשים אספו החוקרים מאות מיליוני אינטראקציות אנונימיות, ושאלו שלוש שאלות יסוד: מי משתמש בסוכני AI? כמה אינטנסיבי השימוש? ולאילו משימות?

 

התשובות מפתיעות. 57% מכלל השימוש מתרכז בשני תחומים בלבד: פרודוקטיביות וזרימות עבודה (36%) ולמידה ומחקר (21%). במקום לבקש מהסוכן להזמין מלון, משתמשים מבקשים ממנו לנתח מסמכים, לסכם מחקרים, לכתוב דוחות, לסנן מידע פיננסי או להבין חומר לימודי.

 

התפלגות השימוש בסוכני AI לפי נושאים

התפלגות השימוש בסוכני AI לפי נושאים | Perplexity

חקר הממצאים מתוך השטח

החוקרים מציגים דוגמאות קונקרטיות. איש רכש ביקש מהסוכן לסרוק עשרות סיפורי לקוח ולזהות שימושים רלוונטיים לפני פגישה עם ספק. סטודנט השתמש בו כדי לנווט בין חומרי קורס ולנתח את מה שהוא לומד. עובד פיננסים האציל לסוכן את סינון אופציות ההשקעה והפקת תובנות ראשוניות.

 

בכל המקרים האלה הסוכן לא מבצע את העבודה במקום המשתמש. הוא אוסף מידע, מעבד אותו ומספק סינתזה ראשונית שמאפשרת לאדם לקבל החלטות. החוקרים מכנים את זה “שותף לחשיבה” (thinking partner). זו הבחנה חשובה – הסוכן לא מחליף את החשיבה האנושית, הוא מרחיב את היכולת לעשות אותה.

למה דווקא בעבודה קוגניטיבית?

משימות פשוטות כמו הזמנת טיסה לוקחות דקות ספורות גם בלי סוכן, הערך המוסף קטן. אבל עבודה קוגניטיבית, כמו קריאת עשרות מסמכים, סינון מידע והפקת תובנות, היא צוואר הבקבוק של העבודה המודרנית. שם כל שעה שנחסכת היא שעה שמשתחררת לחשיבה, יצירתיות או קבלת החלטות.

 

זו הסיבה שסוכני AI מצאו את מקומם דווקא במשימות המורכבות. לא בגלל שהם יכולים לעשות אותן, אלא בגלל שדווקא שם הם באמת משנים את המשוואה.

מתחילים בקטן, מתקדמים במהירות

אחד הממצאים המעניינים במחקר הוא מסלול ההתפתחות של משתמשים. ביום הראשון, רוב האנשים שואלים שאלות קלילות: המלצות לסרט, רעיונות לטיול או טריוויה. אבל משהו משתנה כשהמשתמש חווה הצלחה ראשונה במשימה מורכבת, כמו דיבוג קוד או סיכום דוח פיננסי. מאותו רגע הוא כמעט לא חוזר למשימות הפשוטות.

 

מאיפה מתחילים ולאן מגיעים: שינוי בדפוסי השימוש לאורך זמן

שינוי בדפוסי השימוש לאורך זמן | Perplexity

 

הנתונים מראים דפוס עקבי. קטגוריות הפרודוקטיביות והלמידה הן בעלות שיעורי השימור הגבוהים ביותר. משתמשים שמתחילים להשתמש בסוכן למחקר או ללמידה נוטים להפוך למשתמשים קבועים לטווח ארוך.

המפה המקצועית: מי משתמש ולמה

המחקר מגלה התאמה חזקה בין תפקיד המשתמש לבין סוג המשימות שהוא מעביר לסוכן. סטודנטים מקדישים 43% מהשימוש שלהם ללמידה ומחקר. אנשי פיננסים – 47% לפרודוקטיביות. מעצבים משתמשים יותר במדיה, ואנשי תיירות בתכנון נסיעות.

 

שישה תחומים בלבד אחראים ל-70% מכלל הפעילות: טכנולוגיה, אקדמיה, פיננסים, שיווק, יזמות וסטודנטים. כולם עתירי ידע. המשמעות ברורה – ככל שהעבודה מבוססת יותר על עיבוד מידע וקבלת החלטות, כך הסוכן הופך לכלי מרכזי יותר.

 

השוואה בין שיעור האימוץ לשיעור השימוש בפועל

השוואה בין שיעור האימוץ לשיעור השימוש בפועל | Perplexity

עשר פלטפורמות מרכזות 83% מהשימוש

ממצא נוסף מאתגר את התפיסה הרווחת. משתמשים לא עובדים עם הסוכן בסביבה נפרדת, הם משתמשים בו בתוך הכלים שהם כבר מכירים. עשר פלטפורמות בלבד מרכזות 83% מכלל הפעילות, כש-Google Docs, שירותי אימייל, LinkedIn ו-YouTube מובילות את הרשימה.

 

הריכוז בולט במיוחד בתחומים מסוימים: 93% מהמשימות בתחום הנטוורקינג המקצועי מתבצעות ב-LinkedIn, ו-90% מצפיית הווידאו ב-YouTube. המשמעות לחברות שמפתחות סוכני AI היא, שאם רוצים שהמוצר יהיה שימושי באמת, צריך לבנות אינטגרציות עמוקות במקומות שבהם המשתמשים כבר נמצאים.

הפיל בחדר: פערים דיגיטליים

המחקר חושף גם תמונה מדאיגה. שני משתנים מנבאים את קצב האימוץ טוב יותר מכל גורם אחר: תוצר מקומי גולמי לנפש ושנות השכלה ממוצעות. מדינות עשירות ומשכילות יותר מאמצות את הטכנולוגיה מהר יותר, והפער משמעותי.

 

הנתונים על מאמצים מוקדמים מחדדים את הנקודה. משתמשים שקיבלו גישה מוקדמת לסוכן, לפני שהוא נפתח לכולם, שולחים פי תשע יותר שאילתות ממשתמשים שהצטרפו מאוחר יותר. הם לא רק אימצו את הטכנולוגיה, הם למדו להשתמש בה ביעילות. אם הדפוס הזה יימשך, הפער בין מי שיודע לעבוד עם סוכן AI לבין מי שלא עלול להפוך ל”פער מיומנות קוגניטיבית”.

מה כל זה אומר?

עבור התעשייה, המשמעות היא להשקיע בפיצ’רים שמקדמים פרודוקטיביות ולמידה, להתמקד במשתמשים שכבר גילו את הערך הקוגניטיבי, ולבנות אינטגרציות עמוקות עם הכלים שאנשים כבר משתמשים בהם. סוכני AI שימכרו את עצמם כ”עוזרים להזמנת טיסות” יפספסו את השוק האמיתי.

 

עבור מערכות החינוך וקובעי מדיניות, האתגר מורכב יותר. אם סוכני AI הופכים לכלי בסיסי לעבודה קוגניטיבית, כמו שהמחשב הפך לכלי בסיסי לעבודה משרדית, אז הנגישות אליהם היא שאלה של שוויון הזדמנויות. לא מדובר רק ברשיונות תוכנה או בחיבור לאינטרנט, אלא גם במיומנות לדעת איך להשתמש בכלי בצורה שמרחיבה יכולת, לא רק חוסכת זמן.

 

השאלה שנשארת פתוחה: האם סוכני AI יהפכו לתשתית בסיסית כמו אינטרנט, זמינים ונגישים לכולם, או לכלי פרימיום שמעצים בעיקר את מי שכבר נמצא בעמדת יתרון? המחקר לא נותן תשובה, אבל הוא מצביע על כיוון מדאיג. בלי מאמצים מכוונים להנגשה, הפער הדיגיטלי הבא כבר נבנה.

 

אם המחשב האישי הפך אותנו למפעילי תוכנה, סוכני AI הופכים אותנו למנהלי אינטליגנציה. השאלה היא מי יזכה להיות חלק מהמהפכה הזו, ומי יישאר בחוץ.

הפוסט מחקר על דפוסי שימוש חושף כיצד סוכני AI הופכים לשותפים קוגניטיביים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/agents-thinking-partners/feed/ 0
בארה”ב ה-AI יפיק מרשמי תרופות למטופלים https://letsai.co.il/ai-prescription-renewal-utah/ https://letsai.co.il/ai-prescription-renewal-utah/#respond Wed, 21 Jan 2026 05:39:30 +0000 https://letsai.co.il/?p=68495 בינואר 2026 הפכה מדינת יוטה לנקודת מפנה עולמית בדיון על שילוב בינה מלאכותית ברפואה קלינית. לא מדובר בהכרזה תיאורטית או בניסוי מעבדה מצומצם, אלא בצעד רגולטורי מעשי: אישור למערכת AI לחדש מרשמים לתרופות כרוניות, באופן אוטונומי ובמסגרת חוקית ברורה. המהלך הזה מציב שאלות עמוקות על גבולות הסמכות של אלגוריתמים, על תפקידה של רגולציה בעידן ה-AI, […]

הפוסט בארה”ב ה-AI יפיק מרשמי תרופות למטופלים הופיע ראשון בLet's AI בינה מלאכותית

]]>
בינואר 2026 הפכה מדינת יוטה לנקודת מפנה עולמית בדיון על שילוב בינה מלאכותית ברפואה קלינית. לא מדובר בהכרזה תיאורטית או בניסוי מעבדה מצומצם, אלא בצעד רגולטורי מעשי: אישור למערכת AI לחדש מרשמים לתרופות כרוניות, באופן אוטונומי ובמסגרת חוקית ברורה. המהלך הזה מציב שאלות עמוקות על גבולות הסמכות של אלגוריתמים, על תפקידה של רגולציה בעידן ה-AI, ועל האופן שבו מערכות בריאות עשויות להיראות בשנים הקרובות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

יוטה כמעבדת מדיניות לרפואה מבוססת AI

ההחלטה של מדינת יוטה אינה מקרית. בשנים האחרונות מיצבה עצמה המדינה כחלוצה במדיניות חדשנות, במיוחד בתחומי טכנולוגיה ורגולציה אדפטיבית. במסגרת זו, הודיעה יוטה בינואר 2026 על פיילוט ראשון מסוגו בארצות הברית, בשיתוף עם חברת Doctronic, פלטפורמת בריאות שנבנתה מראש סביב שימוש בבינה מלאכותית.

 

הפיילוט מעניק למערכת של החברה סמכות להשתתף בקבלת החלטות על חידוש מרשמים לתרופות כרוניות, בכפוף למגבלות ברורות ולפיקוח רגולטורי מתמשך. בהודעות הרשמיות של המדינה הוגדרה המערכת כ-AI הראשון שקיבל הרשאה חוקית לחדש מרשמים שגרתיים, ללא צורך באישור מיידי של רופא אנושי בכל מקרה.

 

מה כולל האישור ומה לא?

חשוב להבהיר את גבולות המהלך. האישור שניתן אינו מאפשר למערכת לאבחן מחלות חדשות, להתחיל טיפולים תרופתיים ראשוניים או לשנות מינונים באופן חופשי. תחום הפעולה מצומצם לחידוש מרשמים קיימים בלבד, עבור מטופלים שאובחנו בעבר ונמצאים במצב רפואי יציב.

 

תהליך החידוש עצמו מתבצע באופן מקוון. המטופל נכנס למערכת, משיב על שאלון קליני מובנה, ומצהיר על מצבו הנוכחי. המערכת מנתחת את הנתונים ומחליטה האם ניתן לחדש את המרשם או שיש צורך בהפניית המקרה לרופא אנושי. במילים אחרות, ה-AI פועל כשכבת סינון והחלטה ראשונית, ולא כתחליף מלא למפגש רפואי.

 

אוכלוסיית היעד ורשימת התרופות

התכנית מיועדת לחולים עם מצבים כרוניים נפוצים, כגון יתר לחץ דם, סוכרת או רמות כולסטרול גבוהות, שכבר מטופלים לאורך זמן בתרופות קבועות. במסגרת הפיילוט אושרה רשימה של כ-190 תרופות, שנבחרו על בסיס שכיחות שימוש גבוהה ורמת סיכון יחסית נמוכה.

 

לעומת זאת, תרופות עתירות סיכון אינן נכללות בתכנית. אופיאטים לשיכוך כאבים, תרופות ממריצות להפרעת קשב, וטיפולים מורכבים הניתנים בהזרקה הושארו מחוץ למערכת האוטונומית. ההיגיון ברור: המטרה היא לטפל בעומס האדמיניסטרטיבי של חידוש מרשמים שגרתיים, ולא לגעת באזורים קליניים רגישים שבהם שיקול דעת אנושי צמוד נחשב חיוני.

 

ארגז החול הרגולטורי שמאפשר את הניסוי

הבסיס החוקי לפיילוט נמצא ב-Utah AI Policy Act משנת 2024 – חוק שהקים מסגרת של Regulatory Sandbox לניסויים בטכנולוגיות מבוססות AI. במסגרת זו, המדינה יכולה להקל זמנית בדרישות חוקיות מסוימות, כמו רישוי מקצועי או מגבלות כאלה ואחרות, כדי לאפשר ניסוי מבוקר של מודלים חדשים.

 

במקרה של Doctronic, יוטה העניקה הקלות רגולטוריות לתקופה מוגבלת, תוך הצבת תנאים ברורים. החברה נדרשת לאסוף נתונים קליניים ותפעוליים, להפעיל מנגנוני הסלמה למקרים חריגים, ולדווח באופן שוטף לרגולטורים. המטרה המוצהרת היא לא רק לבדוק האם המודל עובד, אלא גם לבנות תשתית ראייתית שתאפשר קבלת החלטות מושכלת לגבי הרחבתו בעתיד.

 

הבעיה שהפיילוט מנסה לפתור

מערכת הבריאות האמריקאית סובלת זה שנים מעומס משמעותי סביב חידוש מרשמים. מטופלים נדרשים לעיתים לקבוע תור, להמתין ימים או שבועות, ולפגוש רופא רק כדי לחדש תרופה קבועה. התוצאה היא פספוס חידושים, הפסקות טיפול לא מתוכננות, ולעיתים גם החמרות רפואיות ואשפוזים שניתן היה למנוע.

 

מנקודת מבט מערכתית, מדובר בבזבוז משאבים. רופאים משקיעים זמן יקר בפעולות אדמיניסטרטיביות במקום במקרים מורכבים. כאן נכנסת הבינה המלאכותית כפתרון אפשרי, לא כתחליף לרופא, אלא ככלי שמייעל תהליכים קיימים.

 

המהלך ביוטה נשען גם על מחקר מצטבר בתחום הבינה המלאכותית הרפואית. במחקר מ-2024, שנערך במחלקת מיון פנימית, נמצא כי GPT-4 (מודל ישן יחסית) הגיע לדיוק אבחוני גבוה מזה של רופאים מתמחים במגוון קבוצות מחלות. בנוסף, Doctronic הציגה לרגולטורים נתונים פנימיים שלפיהם ההמלצות של המערכת תאמו בכ-99 אחוזים את החלטות הרופאים במאות מקרים שנבדקו. אמנם נתונים אלה אינם מחקר אקדמי מבוקר, אך הם היו חלק מהשיקולים לאישור פיילוט מוגבל.

 

שכבות ההגנה על בטיחות המטופלים

לצד החדשנות, יוטה הדגישה שוב ושוב כי הבטיחות היא תנאי יסוד. התכנית כוללת סינון קפדני של אוכלוסיית היעד, מנגנוני הסלמה אוטומטיים לכל מקרה חריג, והגבלות ברורות על סוגי התרופות. בנוסף, נאספים נתונים על תופעות לוואי, תלונות מטופלים ושיעור המקרים שהועברו לרופא אנושי.

 

המדינה התחייבה לבחון את הפיילוט במדדים רחבים, כולל זמינות שירות, איכות קלינית, חוויית מטופל והשפעה על עלויות. הממצאים אמורים להתפרסם לציבור ולשמש בסיס לדיון רגולטורי רחב יותר ברמה המדינתית והפדרלית.

 

לאן זה עשוי להוביל?

המהלך ביוטה מסמן מעבר משיח תיאורטי על AI ברפואה, ליישום חוקי וממוסד בקו הראשון של הטיפול. זהו אינו רופא רובוטי במלוא מובן המילה, אלא צעד ראשון שבו מערכת אלגוריתמית מקבלת סמכות מוגדרת היטב בתחום מצומצם.

 

אם הפיילוט יוכיח את עצמו, ניתן לצפות להרחבה הדרגתית, הן מבחינת סוגי התרופות והן מבחינת תהליכים קליניים נוספים, כמו טריאז’ ראשוני או ניטור מרחוק. במקביל, צפוי להתפתח דיון ציבורי ביקורתי על שקיפות המודלים, אחריות משפטית וההשפעה ארוכת הטווח על תפקיד הרופאים.

 

בסופו של דבר, יוטה מציבה מראה למערכות בריאות ברחבי העולם. השאלה אינה עוד האם בינה מלאכותית תשתלב ברפואה, אלא באילו תנאים, באיזה קצב, ואיך ניתן לעשות זאת באופן שמאזן בין יעילות, בטיחות ואמון הציבור.

הפוסט בארה”ב ה-AI יפיק מרשמי תרופות למטופלים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-prescription-renewal-utah/feed/ 0
החזון של אנטרופיק לעתיד הרפואה הדיגיטלית https://letsai.co.il/anthropic-healthcare-future/ https://letsai.co.il/anthropic-healthcare-future/#respond Fri, 16 Jan 2026 08:19:35 +0000 https://letsai.co.il/?p=68234 חברת אנטרופיק (Anthropic) הכריזה על מהלך אסטרטגי שמציב את הבינה המלאכותית בליבת עולם הרפואה, עם השקת שתי חבילות כלים ייעודיות: Claude for Healthcare ו-Claude for Life Sciences. בניגוד לפתרונות כמו ChatGPT Health שפונים ברובם ישירות למטופלים כ”יועצים אישיים”, אנטרופיק מכוונת אל ה”מנוע” שמניע את המערכת – הארגונים, מאגרי המידע והתהליכים הבירוקרטיים המורכבים. החידוש המרכזי כאן […]

הפוסט החזון של אנטרופיק לעתיד הרפואה הדיגיטלית הופיע ראשון בLet's AI בינה מלאכותית

]]>
חברת אנטרופיק (Anthropic) הכריזה על מהלך אסטרטגי שמציב את הבינה המלאכותית בליבת עולם הרפואה, עם השקת שתי חבילות כלים ייעודיות: Claude for Healthcare ו-Claude for Life Sciences. בניגוד לפתרונות כמו ChatGPT Health שפונים ברובם ישירות למטופלים כ”יועצים אישיים”, אנטרופיק מכוונת אל ה”מנוע” שמניע את המערכת – הארגונים, מאגרי המידע והתהליכים הבירוקרטיים המורכבים. החידוש המרכזי כאן הוא החיבור הישיר – המערכת של Claude מתממשקת למערכות בתי החולים, למאגרי רגולציה ולפלטפורמות מחקר. המטרה היא להפוך את הבינה המלאכותית מעוזרת חכמה שרק “עונה על שאלות”, לכלי עבודה אינטגרלי, מעין “עובד מן המניין” שמבצע משימות בתוך המערכת הרפואית עצמה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

יותר מצ’אטבוט: המהפכה של אנטרופיק בניהול הרפואי

העיתוי של ההכרזה אינו מקרי. בשעה שהתחרות על עתיד הרפואה הדיגיטלית מתהדקת, וזמן קצר לאחר הכרזה מקבילה של OpenAI, אנטרופיק מציגה תוכנית שאפתנית בהרבה. במקום להסתפק בצ’אטבוט שרק “מתרגם” תוצאות של בדיקות דם למטופלים, החברה מציעה חזון שבו קלוד (Claude) הופך לכלי עבודה מקצועי המחובר למערכות הליבה של בתי חולים, חברות ביטוח ויצרניות תרופות.

 

זו לא רק התקדמות טכנולוגית, אלא ממש שינוי תפיסה. הבינה המלאכותית עוברת ממצב של “דיבור על רפואה” לביצוע פעולות של ממש – החל מניהול תהליכים בירוקרטיים ועד תקשורת ישירה עם מאגרי מידע מדעיים וגופי רגולציה (הגופים המפקחים על עולם הרפואה). המסר של אנטרופיק ברור: ה-AI כבר לא נשאר בחוץ כיועץ חיצוני, הוא הופך לחלק בלתי נפרד מהתשתית הרפואית עצמה.

כשבירוקרטיה חונקת את הרפואה

כדי להבין את המהלך של אנטרופיק, צריך להכיר תחילה את הבעיה המרכזית שהיא מנסה לפתור. מערכות הבריאות בעולם, ובעיקר בארה”ב, קורסות תחת עומס בירוקרטי אדיר. אחד המכשולים הגדולים ביותר הוא תהליך ה”אישור המוקדם” (Prior Authorization) – דרישה של חברות הביטוח לקבל מהרופאים הצדקות מפורטות לפני שהן מאשרות טיפולים או תרופות. התהליך הזה, שמתבצע ברובו ידנית, גוזל זמן יקר מצוותים רפואיים ומעכב טיפול בחולים.

 

לכך מתווספים תיעוד רפואי מסורבל, מאגרי מידע שאינם “מדברים” זה עם זה, ומחסור כרוני בכוח אדם. גם בעולם המחקר המצב דומה כאשר ניסויים קליניים ופיתוח תרופות סובלים מעיכובים של חודשים בשל הצורך בעיבוד הררי מידע ובהגשת דוחות מורכבים לרשויות המפקחות. אנטרופיק זיהתה שהאתגר הגדול של הרפואה המודרנית הוא לאו דווקא חוסר בידע רפואי, אלא ה”תפעול” שלו – כל מה שקורה מאחורי הקלעים ומפריע לרופאים ולחוקרים לעשות את עבודתם.

קלוד מתחבר ישירות ללב הרפואה

על הרקע הזה, החידוש המשמעותי ביותר בהכרזה הוא לא עוד שדרוג של המודל, אלא הפיכתו לחלק בלתי נפרד מהתשתית הרפואית. אנטרופיק הוסיפה לקלוד “מחברים” (Connectors) – מעין כבלים טכנולוגיים המאפשרים לו גישה ישירה למקורות המידע החשובים והאמינים ביותר בעולם הרפואה:

  • מאגר ה-CMS: זהו המאגר הממשלתי בארה”ב של שירותי הביטוח (Medicare ו-Medicaid). החיבור אליו מאפשר לקלוד לבדוק בזמן אמת מה מכוסה בביטוח של המטופל ולבצע אוטומציה לתהליך ה”אישור המוקדם” המסורבל, תוך צמצום טעויות אנוש.

  • ICD-10: ה”שפה” הבינלאומית שבה כל מחלה, פציעה או טיפול מקבלים קוד ייחודי. קלוד יודע עכשיו לעבוד עם השפה הזו באופן מובנה.

  • NPI Registry: מרשם רשמי המשמש לאימות זהותם של רופאים וספקי שירותי בריאות.

  • PubMed: ספרייה דיגיטלית המכילה מעל 35 מיליון מאמרים ומחקרים רפואיים. השימוש בה מאפשר לקלוד “לעגן” את תשובותיו בעובדות מדעיות מוכחות (Grounding) ולהימנע מ”הזיות” או המצאת נתונים.

בנוסף לגישה למידע, אנטרופיק העניקה לקלוד “כישורי סוכן” (Agent Skills) המאפשרים לו לבצע פעולות מורכבות. הבולטת שבהן היא העבודה עם תקן FHIR – הסטנדרט הבינלאומי שמאפשר למערכות מחשוב רפואיות שונות “לדבר” זו עם זו.

 

בגרף המצורף רואים איך קלוד עובר משיחה לביצוע משימות ואת הביצועים של קלוד Opus 4.5 במדדי הסוכן והחישוב הרפואיים. רמת הדיוק של 92.3% במדד ה-MedAgentBench מוכיחה שהמודל מוכן לבצע תהליכי עבודה רפואיים מורכבים ברמת אמינות גבוהה ביותר:

 

קלוד יודע “לעשות” (Agent) ולבצע חישובים (Calc) | Anthropic

 

התמיכה ב-FHIR היא שוברת שוויון. היא מאפשרת לקלוד להתממשק ישירות לתיק הרפואי של המטופל בצורה מאובטחת. חשוב להבהיר, המערכת אינה “כותבת” בעצמה בתיק הרפואי. במקום זאת, קלוד מכין נתונים מובנים וטיוטות מקצועיות, שממתינים לאישור סופי (Sign-off) של רופא אנושי.

 

בדרך זו, המערכת מורידה מהרופא את נטל ההקלדה והבירוקרטיה, אך משאירה את האחריות המקצועית וההחלטה הסופית בידיים אנושיות, כנדרש ברגולציה.

 

המשמעות היא שקלוד כבר לא רק “מייעץ” או עונה על שאלות כלליות, הוא מבצע משימות תפעוליות מורכבות שהיו שמורות עד כה אך ורק לאנשי מקצוע.

מהתיאוריה למעשה

כדי להבין את המשמעות האמיתית של המהלך, כדאי לבחון כיצד היכולות הללו משנות את שגרת העבודה. בתהליך של אישור טיפולים מול חברות הביטוח, משימה שגזלה בעבר שעות של עבודה ידנית, קלוד מסוגל כעת למשוך באופן עצמאי את מדיניות הכיסוי המעודכנת, להשוות אותה לרשומות הרפואיות של המטופל ולהגיש למאשר האנושי החלטה מנומקת ומבוססת נתונים.

 

היעילות הזו ממשיכה גם אל עולם הערעורים על תביעות ביטוח, שם המערכת מאגדת מסמכים, קודים רפואיים והנחיות קליניות לכדי טיוטת ערעור מוכנה ומקצועית.

 

 

ההשפעה של קלוד מורגשת גם בתקשורת הישירה מול המטופלים. הוא פועל כמעין “ממיין דיגיטלי” (Triage) שמסוגל לעבור על הודעות נכנסות, לזהות מקרים דחופים הדורשים התערבות מיידית ולהפחית משמעותית את העומס המוטל על הצוותים הקליניים.

 

מעבר לסיוע לארגונים קיימים, התשתית שבנתה אנטרופיק מעניקה רוח גבית לדור הבא של הסטארטאפים הרפואיים. אלו יכולים כעת להתבסס על היכולות שלו כדי לפתח מוצרים מתקדמים, החל מסיכום אוטומטי של ביקורי רופא ועד למערכות תומכות החלטה שמסייעות לרופאים לנהל תיקים רפואיים מורכבים בדיוק רב יותר.

קלוד בשירות מדעי החיים

החלק השני של ההכרזה נוגע בלב תעשיית התרופות והמחקר – תחום מדעי החיים. בעולם הזה, שבו כל חודש של עיכוב בניסוי קליני מתרגם להפסדים של מיליארדי דולרים, אנטרופיק מציעה גשר טכנולוגי חדש.

 

היא מחברת את קלוד ישירות לפלטפורמות המחקר המרכזיות בעולם, החל ממאגרי נתונים של ניסויים קליניים כמו Medidata ו-ClinicalTrials.gov, ועד לספריות ענק של מאמרים מדעיים וכלים לזיהוי מטרות תרופתיות ותרכובות כימיות.

 

בגרף המצורף תוכלו לראות את קלוד מוביל במדעי החיים – ביצועי Claude Opus 4.5 במדד SpatialBench של LatchBio הופך אותו לכלי העבודה המדויק ביותר כיום עבור חוקרים ומעבדות:

 

ביצועי Claude Opus 4.5 במדד SpatialBench של LatchBio.

רמת דיוק גבוהה בניתוח נתונים ביולוגיים מורכבים | Anthropic

 

במקום שחוקרים יבזבזו זמן יקר על איסוף ידני של נתונים ממקורות מפוזרים, קלוד הופך לשותף פעיל בתהליך הפיתוח. הוא מצויד בכישורים ייעודיים המאפשרים לו לנסח טיוטות לפרוטוקולים (נהלי עבודה) של ניסויים, להמיר נתונים מורכבים ממכשירי מעבדה לפורמטים אחידים שקל לעבוד איתם, ולתמוך בכלי ניתוח נתונים מתקדמים שעד כה דרשו מומחיות טכנית צרה.

 

 

התוצאה היא מערכת ליווי מקצה לקצה: מהרגע שבו עולה רעיון ראשוני במעבדה, דרך שלבי הניסוי המורכבים ועד להגשת הדוחות הסופיים לרשויות המפקחות, כמו ה-FDA האמריקאי. המהלך הזה נועד לקצר משמעותית את הדרך הארוכה והיקרה שבין גילוי מדעי לבין תרופה חדשה שמגיעה אל המטופל.

 

בגרף המצורף תראו איך קלוד משתפר כל הזמן ולומד לדבר “מדעית”: בתוך שלושה חודשים בלבד, קלוד Opus 4.5 רשם זינוק של מעל 13% ביכולת לפענח איורים מדעיים ושיפור של יותר מ-10% בהבנת מבני חלבונים – יכולות המקצרות משמעותית את זמן המחקר והפיתוח:

לומד לדבר "מדעית": גרף השיפור של קלוד Opus 4.5. בתוך שלושה חודשים בלבד, המודל רשם זינוק של מעל 13% ביכולת לפענח איורים מדעיים ושיפור של כ-10% בהבנת מבני חלבונים – יכולות המקצרות משמעותית את זמן המחקר והפיתוח.

“קפיצת המדרגה” שעשה קלוד בתוך שלושה חודשים בלבד | Anthropic

כשהטכנולוגיה פוגשת אחריות

המעבר של אנטרופיק לעולם הרפואה הוא לא רק תוספת של תכונות חדשות, אלא שינוי פילוסופי באופן שבו בינה מלאכותית פוגשת ארגונים גדולים. בעוד שמתחרותיה (כמו OpenAI) נוטות להתמקד בחוויית המשתמש של המטופל כ”יועץ אישי”, אנטרופיק בוחרת לפנות ישירות אל הליבה המוסדית: בתי החולים, חברות הביטוח וענקיות התרופות.

 

כדי לעמוד בסטנדרטים הנוקשים של הגופים האלו, המערכת נבנתה מראש בהתאם לתקן ה-HIPAA המחמיר – החוק שמגדיר כיצד יש לשמור על הפרטיות והאבטחה של מידע רפואי רגיש. זהו תנאי סף קריטי, שבלעדיו לא ניתן לפעול בתוך המערכת הרפואית הרשמית.

 

הבדל מהותי נוסף טמון באיכות המידע ובאופן הפעולה שלו. במקום שהמודל יסתמך רק על “ידע כללי” שנאסף מהאינטרנט ועלול להיות שגוי, אנטרופיק מחברת אותו למאגרים הרשמיים והמעודכנים ביותר של עולם המדע.

 

היכולת הזו, בשילוב עם “כישורי סוכן” המאפשרים למודל לבצע פעולות ותהליכים ולא רק לנהל שיחה, יוצרת שילוב נדיר בתעשייה – כלי שמסוגל לחבר בצורה חלקה בין עולם המחקר המדעי המורכב לבין עולם הרגולציה והחוקים היבשים. בדרך זו, אנטרופיק לא רק מציעה “צ’אט חכם”, אלא בונה תשתית מקצועית המותאמת במיוחד לצרכים הייחודיים של מדעי החיים.

האתגרים שבדרך

למרות ההבטחה הגדולה, הדרך ליישום נרחב של הכלים הללו עדיין רצופה באתגרים משמעותיים. נכון לעכשיו, רוב ההצלחות שהוצגו הן דוגמאות נקודתיות, ועדיין חסר מידע מקיף על האופן שבו המערכת תתפקד “בשטח” – בבתי חולים עמוסים ובמצבים בלתי צפויים.

 

השאלה הגדולה ביותר נותרה שאלת הדיוק והטעויות. בעולם של מודלי שפה, תופעת ה”הזיות” (Hallucination) שבה הבינה המלאכותית מציגה מידע שגוי בביטחון מלא, היא לא רק תקלה טכנית מביכה. בהקשר רפואי, טעות כזו עלולה להוביל לאבחון שגוי, לסכנת חיים ממשית ולתביעות משפטיות חסרות תקדים.

 

אנטרופיק מנסה לצמצם את הסיכון הזה באמצעות תהליך שנקרא “עיגון” (Grounding). במקום לתת לקלוד להסתמך רק על הזיכרון הדיגיטלי שלו, המערכת מאולצת לבסס ולעגן כל תשובה על מאגרי מידע מוסמכים ואמינים בלבד. זהו צעד קריטי לבניית אמון, אך הוא עדיין אינו מהווה פתרון מושלם לכלל המורכבויות של עולם הרפואה.

 

לצד זאת, נותרו פתוחות שאלות כבדות משקל לגבי הרגולציה והאתיקה. עד כמה ניתן לאפשר למכונה לקבל החלטות המשפיעות על גורלם של מטופלים? אנטרופיק עצמה מבהירה בנקודה זו כי המערכת נועדה לספק תמיכה וכלי עזר בלבד, והיא אינה מתיימרת להוות תחליף לשיקול הדעת המקצועי של הרופא.

המודל העסקי והמשמעות הכלכלית

שוק הבינה המלאכותית בעולם הבריאות מוערך כיום במיליארדי דולרים, והוא נחשב לאחד ממנועי הצמיחה החזקים ביותר בתעשייה כולה. אבל המהלך של אנטרופיק הוא הרבה יותר מהשקת “תכונות חדשות”, זה מהלך עסקי אגרסיבי ומחושב שמטרתו ליצור מה שנקרא בעולם העסקי “נעילת ספק” (Vendor Lock-in).

 

כאשר בית חולים או חברת ביטוח מחליטים להטמיע את קלוד בתוך מערכת הרשומות הרפואיות שלהם (EHR – התיק הדיגיטלי המרכזי של המטופל), לחבר אותו למאגרי המידע הממשלתיים ולבסס עליו את התהליכים הבירוקרטיים הרגישים ביותר, המעבר למערכת של חברה מתחרה הופך למשימה כמעט בלתי אפשרית.

 

המורכבות הטכנולוגית והצורך לסנכרן מחדש את כל המערכות יוצרים תלות אסטרטגית עמוקה. בדרך זו, אנטרופיק מפסיקה להיות ספקית של “כלי צ’אט” פשוט שאפשר להחליף בקלות, והופכת לשותפה טכנולוגית לטווח ארוך שמושרשת עמוק בתוך התשתית של ארגון הבריאות.

 

 

העשור של הבינה המלאכותית בתשתית הרפואית

בסופו של דבר, המהלך של אנטרופיק מסמן שינוי כיוון דרמטי בתעשייה. הבינה המלאכותית מפסיקה להיות “עוזרת אישית” חיצונית והופכת לחלק בלתי נפרד מהתשתית הרפואית. זוהי מערכת שמחוברת למאגרי המידע הקריטיים ביותר, מסוגלת לבצע תהליכים מורכבים ומאיצה שרשראות אספקה ופיתוח שלמות – מהמעבדה ועד למיטת המטופל.

 

אם הפתרון של OpenAI נתפס כ”יועץ המלווה את המטופל”, הרי שקלוד של אנטרופיק מבקש לתפוס את משבצת “העובד המומחה של בית החולים”.

 

המרוץ הזה בין החברות – בין התמקדות בצרכן הקצה לבין התמקדות בליבת המערכת – הוא שעשוי להגדיר מחדש את האופן שבו מערכות הבריאות יתפקדו בעשור הקרוב.

הפוסט החזון של אנטרופיק לעתיד הרפואה הדיגיטלית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-healthcare-future/feed/ 0
OpenAI משיקה את ChatGPT Health https://letsai.co.il/chatgpt-health/ https://letsai.co.il/chatgpt-health/#respond Sat, 10 Jan 2026 14:04:58 +0000 https://letsai.co.il/?p=67843 OpenAI הכריזה על ChatGPT Health, חוויה ייעודית בתוך ChatGPT שמחברת בין מידע בריאותי אישי לבין היכולת של המערכת להסביר, לסכם ולתת הכוונה. המהלך נועד לתת מענה להרגל שכבר הפך לשגרה: אנשים משתמשים בצ’אט כדי להבין תוצאות בדיקות, תסמינים והרגלי בריאות יומיומיים. כעת OpenAI מנסה להסדיר את השימוש הזה בתוך מרחב נפרד ומוגן, שמאפשר חיבור לתיק […]

הפוסט OpenAI משיקה את ChatGPT Health הופיע ראשון בLet's AI בינה מלאכותית

]]>
OpenAI הכריזה על ChatGPT Health, חוויה ייעודית בתוך ChatGPT שמחברת בין מידע בריאותי אישי לבין היכולת של המערכת להסביר, לסכם ולתת הכוונה. המהלך נועד לתת מענה להרגל שכבר הפך לשגרה: אנשים משתמשים בצ’אט כדי להבין תוצאות בדיקות, תסמינים והרגלי בריאות יומיומיים. כעת OpenAI מנסה להסדיר את השימוש הזה בתוך מרחב נפרד ומוגן, שמאפשר חיבור לתיק הרפואי האישי ולאפליקציות כמו Apple Health. כך המערכת יכולה לסייע בפרשנות בדיקות מעבדה, בהכנה ממוקדת לקראת ביקור אצל רופא, ובהבנת דפוסים של תזונה, פעילות ושגרה, על בסיס דאטה אישי ולא השערות כלליות.

 

OpenAI משיקה את ChatGPT Health

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה ChatGPT Health מציע

ChatGPT Health הוא אזור בריאות ייעודי בתוך ChatGPT, שמאפשר לנהל שיחות בריאות כשהן מבוססות על מידע אישי שהמשתמש בוחר לחבר או להעלות. המטרה היא לרכז הקשר רפואי שנמצא כיום במקומות שונים, ולאפשר הבנה רציפה וברורה יותר בתוך שיחה אחת.

 

לוחצים ונכנסים לאזור ייעודי שנועד להפוך ליועץ הבריאות האישי

נכנסים לאזור ייעודי שנועד להפוך ליועץ הבריאות האישי שלכם | OpenAI

מה אפשר לעשות עם זה

OpenAI מציינת ש-Health מאפשר לחבר רשומות רפואיות ואפליקציות wellness כמו Apple Health, Function ו-MyFitnessPal. בפועל, ניתן לבקש הסבר לתוצאות בדיקות, להתכונן לפגישה עם רופא, לקבל הכוונה כללית לגבי תזונה ואימון, או להבין שיקולים בין אפשרויות ביטוח שונות על בסיס דפוסי שימוש רפואיים. המערכת מיועדת לתמוך בשאלות יומיומיות ובהבנת מגמות לאורך זמן, לא רק ברגעי מחלה.

תחליף לאבחון או טיפול רפואי?

OpenAI מדגישה ש-ChatGPT Health נועד לתמוך, לא להחליף טיפול רפואי. הוא אינו מיועד לאבחון או לטיפול, אלא לסיוע בהבנת מידע ולהגעה מוכנים יותר לשיחה עם רופא. זה ניסוח מכוון, שמציב גבול ברור בין כלי לניווט והכוונה לבין החלטות קליניות.

 

ההדגשה הזו אינה מקרית. לפי OpenAI, בריאות היא אחד השימושים הנפוצים ביותר ב-ChatGPT, עם יותר מ-230 מיליון אנשים ברחבי העולם ששואלים שאלות בריאות ו-wellness מדי שבוע, על בסיס ניתוח אנונימי של שיחות. ChatGPT Health נבנה על המציאות הזו בדיוק, שימוש רחב ומתמשך ב-AI כדי להבין את הבריאות, ולא כניסיון לייצר תפקיד רפואי חדש למערכת.

 

 

מה בנוגע לפרטיות

OpenAI מציגה את ChatGPT Health כמרחב נפרד בתוך ChatGPT, עם זיכרונות משלו. שיחות, קבצים ואפליקציות שמחוברים ל-Health נשמרים בנפרד משאר הצ’אטים, ונועדו להיות מבודדים מהשימושים האחרים במערכת.

 

לפי החברה, שיחות שמתנהלות בתוך Health אינן משמשות לאימון מודלי הבסיס של OpenAI. מידע וזיכרונות שנוצרים במרחב הבריאות אינם זמינים לשיחות שאינן Health, ושיחות רגילות אינן יכולות לגשת לתוכן שנשמר בו.

 

עם זאת, יש הסתייגות שחשוב להכיר – כאשר הדבר מועיל, ChatGPT עשוי להשתמש בהקשר משיחות שאינן Health, כמו מעבר דירה או שינוי אורח חיים, כדי להפוך שיחה בריאותית לרלוונטית יותר. הכיוון ההפוך, כלומר זרימה של מידע בריאותי החוצה – חסום.

איך מתחברים לנתונים ושולטים בהם

לצורך חיבור לרשומות רפואיות בארה”ב, OpenAI אומרת שהיא משתפת פעולה עם b.well, הרשת הגדולה והמאובטחת ביותר לחיבור נתוני בריאות של צרכנים בארה”ב. החיבור מתבצע רק בהסכמת המשתמש.

 

החברה מדגישה שהשליטה בנתונים נשארת בידי המשתמש. גישה לרשומות רפואיות ולאפליקציות מחוברות ניתנת להסרה בכל רגע דרך סעיף Apps בהגדרות. בנוסף, זיכרונות בריאות שנשמרים בתוך Health ניתנים לצפייה ולמחיקה דרך Health עצמו או דרך אזור ההתאמה האישית (Personalization) בהגדרות (Settings).

 

גם חיבור לאפליקציות בריאות ורווחה מתבצע רק לאחר הסכמה מפורשת, גם אם האפליקציה כבר מחוברת לשיחות שאינן Health. לפי OpenAI, כל אפליקציה שנכללת ב-Health חייבת לעמוד בדרישות מחמירות של פרטיות ואבטחה, לאסוף רק את המידע הנדרש, ולעבור בדיקות אבטחה ייעודיות לפני שהיא זמינה לשימוש.

 

 

 

בטיחות קלינית

ChatGPT Health פותח בשיתוף רופאים, בתהליך שנמשך יותר משנתיים וכלל מעל 260 רופאים מ-60 מדינות וממגוון תחומי מומחיות. במסגרת העבודה הזו, הרופאים סיפקו משוב על פלטי המודל יותר מ-600,000 פעמים, ב-30 תחומי מיקוד שונים.

 

לפי החברה, השיתוף הזה עיצב לא רק את היכולות של המערכת, אלא גם את אופן התגובה שלה: מתי להדגיש דחיפות, איך לנסח מידע רפואי בלי לפשט יתר על המידה, ואיך לשים בטיחות מעל הכול במצבים רגישים.

 

כדי להעריך את הביצועים, OpenAI מציגה כלי בשם HealthBench, שבוחן תשובות לפי רובריקות שנכתבו על ידי רופאים. ההערכה מתמקדת בקריטריונים קליניים כמו בטיחות, בהירות, הפניה מושכלת לטיפול רפואי והתייחסות להקשר האישי של המשתמש.

למי זה זמין ואיך נרשמים

ChatGPT Health נפתח בשלב זה דרך רשימת המתנה (לחצו כאן להירשם). OpenAI מתחילים עם קבוצה מצומצמת של משתמשים, במטרה ללמוד, לאסוף משוב ולשפר את החוויה לפני הרחבה.

 

נכון להיום, משתמשי Free, Go, Plus ו Pro יכולים להירשם לרשימת ההמתנה, כל עוד הם נמצאים מחוץ לאזור הכלכלי האירופי, שווייץ ובריטניה. OpenAI מציינת שהיא מתכננת להפוך את Health לזמין לכל המשתמשים ב-web וב-iOS במהלך השבועות הקרובים.

 

יש גם מגבלות טכניות וגיאוגרפיות – חיבור לרשומות רפואיות וחלק מהאפליקציות זמין כרגע רק בארה”ב, וחיבור ל-Apple Health דורש שימוש ב-iOS.

מסדרים הרגל קיים מחדש

ChatGPT Health לא ממציא את השימוש בבינה מלאכותית לבריאות, אלא מנסה להסדיר אותו. OpenAI לוקחת פעולה שכבר מתרחשת מדי יום, ומכניסה אותה למסגרת עם הפרדה ברורה, שליטה במידע, והגדרות מפורשות לגבי פרטיות ושימוש בנתונים.

 

ההבטחה של החברה פשוטה – אם כבר פונים ל AI עם שאלות בריאות, עדיף לעשות זאת במרחב ייעודי, עם הגנות נוספות ושיחה שנשענת על מידע אישי אמיתי, ולא על ניחושים כלליים.

הפוסט OpenAI משיקה את ChatGPT Health הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatgpt-health/feed/ 0
סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת https://letsai.co.il/ai-high-tech-israel/ https://letsai.co.il/ai-high-tech-israel/#respond Mon, 01 Dec 2025 07:54:08 +0000 https://letsai.co.il/?p=65121 רשות החדשנות ומכון ברוקדייל בחנו את חדירת כלי הבינה המלאכותית היוצרת אל לב שגרת העבודה של ההייטק הישראלי. הסקר בדק שלושה נושאים מרכזיים: איך עובדים משתמשים בכלים האלה בפועל, איך הם תופסים את השפעתם על איכות העבודה והפרודוקטיביות, וכיצד הם מפרשים את הטכנולוגיה – כהזדמנות תעסוקתית או כאיום. חשוב להדגיש, אלו דיווחים סובייקטיביים של העובדים […]

הפוסט סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת הופיע ראשון בLet's AI בינה מלאכותית

]]>
רשות החדשנות ומכון ברוקדייל בחנו את חדירת כלי הבינה המלאכותית היוצרת אל לב שגרת העבודה של ההייטק הישראלי. הסקר בדק שלושה נושאים מרכזיים: איך עובדים משתמשים בכלים האלה בפועל, איך הם תופסים את השפעתם על איכות העבודה והפרודוקטיביות, וכיצד הם מפרשים את הטכנולוגיה – כהזדמנות תעסוקתית או כאיום. חשוב להדגיש, אלו דיווחים סובייקטיביים של העובדים עצמם. הסקר בוחן את תחושת ההשפעה ולא מדידה אובייקטיבית של תפוקה בפועל.

 

מנכ״ל רשות החדשנות

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כמעט כולם משתמשים, הצעירים מובילים

הסקר כולל 523 עובדי ועובדות הייטק, רובם בעלי השכלה אקדמית (86%) ומתגוררים במרכז הארץ (69%). הפרופיל הדמוגרפי הזה משקף היטב את הרכב כוח האדם בענף, אך חשוב לזכור שהוא אינו מייצג בהכרח את שוק העבודה הרחב בישראל.

 

הממצא הבולט הוא שכמעט כל עובדי ההייטק משתמשים בכלי בינה מלאכותית יוצרת. 95% מהם עושים שימוש קבוע בכלים, ו-78% משתמשים בהם מדי יום. השימוש איננו מוגבל למפתחים בלבד. קבוצת הגיל 25 עד 34 מובילה את האימוץ – 86% מבני הגיל הזה מדווחים על שימוש יומיומי – אך גם בקרב עובדים מבוגרים יותר שיעורי השימוש נותרו גבוהים. השילוב של הכלים התרחב גם לתפקידים כמו שיווק, משאבי אנוש ומוצר.

 

תדירות השימוש ב-GenAI

תדירות השימוש בכלי בינה יוצרת | innovationisrael.org.il

 

עומק השימוש מרשים לא פחות: 82% מהמשתמשים היומיומיים מפעילים את הכלים בשלושה סוגי משימות או יותר, ורבע מהם עובדים עם ששה סוגי משימות ויותר. התמונה שחוזרת לאורך הדוח ברורה – מי שמשתמש, משתמש הרבה.

 

ההבדלים בין תפקידי הליבה בהייטק בולטים אך אינם חוצים את קו האימוץ. עובדים טכנולוגיים נעזרים בכלים בעיקר לפיתוח קוד, איתור תקלות ותיעוד. מנגד, גם 46% מהעובדים בתפקידים לא טכנולוגיים מדווחים על שימוש בכלים לכתיבת קוד ותיעוד, לצד כתיבת תוכן מקצועי, חיפוש מידע ולמידה עצמית.

 

הבדלים בשימוש לפי תפקיד

הבדלים בשימוש לפי תפקיד | innovationisrael.org.il

תרומה משמעותית לפרודוקטיביות

העובדים מדווחים על תרומה ברורה של כלי הבינה המלאכותית לעבודתם. 70% מציינים שיפור רב באיכות התוצרים, ו-50% מדווחים על קיצור משמעותי בזמן ביצוע המשימות. בתוך קבוצת המשתמשים החווים חיסכון בזמן, כ-40% מציינים שהכלים קיצרו עבורם יותר ממחצית מזמן העבודה על משימות מסוימות.

 

שיפור באיכות ובזמן העבודה

שיפור באיכות ובזמן העבודה | innovationisrael.org.il

 

כדי לאמוד את השפעת הכלים בצורה רחבה יותר, פותח בסקר מדד משולב הבוחן גם את השיפור באיכות וגם את החיסכון בזמן. לפי המדד הזה, כ-75% מהעובדים חווים עלייה משמעותית בפרודוקטיביות. תוצאה זו משותפת לכלל העובדים – ללא פערים משמעותיים בין תפקידים או סוגי חברות.

 

ההשפעה הנתפסת של כלי GenAI על פרודוקטיביות, איכות התוצרים וקיצור זמני העבודה

ההשפעה הנתפסת של כלי GenAI על פרודוקטיביות, איכות התוצרים וקיצור זמני העבודה | innovationisrael.org.il

 

כלים כלליים בכל התפקידים, כלי קוד בעיקר אצל המפתחים

כלי GenAI רב תכליתיים – כמו ChatGPT, Claude ו-Gemini – הפכו לחלק משגרת העבודה של כמעט כל העובדים בענף. יותר מ-94% מדווחים שהם משתמשים בהם, ללא הבדל מהותי בין תפקידים טכנולוגיים ולא-טכנולוגיים.

 

התמונה משתנה כשמדובר בכלים ייעודיים לפיתוח קוד. כלים כמו GitHub Copilot ו-Cursor נפוצים משמעותית יותר בקרב עובדים טכנולוגיים: 67% מהם משתמשים בהם, לעומת 43% בלבד מהעובדים שאינם בתפקידי פיתוח.

 

פער בולט נוסף מופיע בתוך קבוצת העובדים הטכנולוגיים עצמם. שיעורי השימוש בכלי קוד גבוהים במיוחד בקרב ג’וניורים – 74% מהם משתמשים בכלים כאלה, לעומת 48% בלבד מבכירי ההנהלה. הנתון הזה מדגיש מגמה עקבית בסקר: עובדים צעירים ונמוכי דרג מאמצים את הכלים מהר יותר ובאופן אינטנסיבי יותר.

 

שימוש בכלי GenAI לפי תפקיד

שימוש בכלי GenAI לפי תפקיד | innovationisrael.org.il

סטארטאפים מאמצים לאט יותר את כלי הקוד

אחד הפערים הבולטים בסקר מופיע בין סוגי החברות. בעוד שמרכזי מו”פ בינלאומיים וחברות שירותים מציגים אימוץ גבוה של כלי AI לכתיבת קוד – 77% מהעובדים הטכנולוגיים משתמשים בהם – שיעור השימוש בסטארטאפים נמוך משמעותית ועומד על 64% בלבד.

 

שיעור השימוש בכלי GenAI לקוד

שיעור השימוש בכלי GenAI לקוד | innovationisrael.org.il

 

הפער הזה מרמז על דפוס זהיר יותר בחברות צעירות. סטארטאפים, שפועלים לעיתים על קוד ייחודי ורגיש, נוטים לשמור על שליטה הדוקה בתהליך הפיתוח ולהימנע משילוב מהיר של כלים שעלולים להשפיע על נכס הליבה שלהם. הדוח אינו מספק הסבר ישיר לתופעה, אך הנתונים משאירים מקום לפרשנות זו.

הזדמנות או איום? זה תלוי איפה אתם נמצאים בהייטק

רוב עובדי ההייטק רואים בבינה המלאכותית הזדמנות: 68% מהמשיבים תופסים את GenAI כמנוע לצמיחה מקצועית, ורק 27% רואים בה איום ממשי על עתידם התעסוקתי. הנתונים הללו מציבים תמונה אופטימית במבט ראשון, אך כשמעמיקים פנימה מתגלים פערים ברורים בין קבוצות שונות בענף.

 

הזדמנות משמעותית להתפתחות מקצועית

הזדמנות משמעותית להתפתחות מקצועית | innovationisrael.org.il

 

עובדים בתפקידים לא טכנולוגיים נוטים לראות בבינה המלאכותית בעיקר הזדמנות – 76% מהם מצהירים כך, לעומת 65% מהעובדים בתפקידי פיתוח. במקביל, תחושת האיום פוגעת יותר בעובדים טכנולוגיים: 31% מהם חשים מאוימים, בהשוואה ל-14% בלבד בקרב עובדים שאינם בתפקידי פיתוח.

 

הפער הזה מתיישב עם מגמה רחבה בדוח: מי שעובד קרוב יותר לקוד חושש יותר מהשפעה ישירה על תחום מומחיותו, בעוד שעובדים מתחומי שיווק, מוצר, משאבי אנוש ושירות נוטים לראות בכלים מנוע שמרחיב יכולות ולא מחליף אותן.

מי חושש יותר? הפערים החברתיים שנחשפים בסקר

הנתונים על תפיסת האיום מציגים פערים חברתיים ברורים בין קבוצות שונות בענף ההייטק. אף שהרוב רואים בבינה המלאכותית הזדמנות, יש קבוצות שחשות מאוימות במידה רבה יותר – והדוח ממפה אותן באופן מדויק.

גיל ודרג מקצועי: צעירים וסניורים מודאגים יותר

החשש מהשפעת הבינה המלאכותית אינו ליניארי. דווקא העובדים הצעירים יחסית, בני 25-34, מדווחים על רמות איום גבוהות יותר לעומת קבוצות גיל מבוגרות מהם. לצד זאת, גם עובדים בדרגים בכירים – סניורים בתפקידי פיתוח – מביעים רמת חשש גבוהה: 37% מהם רואים ב-GenAI איום משמעותי על עתידם המקצועי. עובדים מבוגרים יותר, בני 45-64, מדווחים על חשש נמוך בהרבה.

מיקום גיאוגרפי והשכלה: פריפריה וללא תואר חוששים יותר

פער חד נוסף מופיע בין תושבי המרכז לפריפריה. 40% מעובדי ההייטק שמתגוררים בפריפריה חשים מאוימים מהטכנולוגיה, לעומת 24% בלבד מתושבי המרכז. הבדל דומה נמצא בין עובדים בעלי תואר אקדמי לבין כאלה ללא תואר: 39% מהעובדים ללא השכלה אקדמית מודאגים מהשפעת הבינה המלאכותית על עתידם התעסוקתי, מול 26.5% בלבד מבעלי תואר.

 

הפערים הללו מציירים תמונה ברורה: החשש אינו מחולק שווה בשווה. הוא מרוכז יותר בקרב צעירים, סניורים טכנולוגיים, תושבי הפריפריה ועובדים ללא השכלה אקדמית – קבוצות שחשות שהשינוי עשוי לערער את מעמדן בשוק העבודה.

מה מלמד אותנו הסקר הזה על עתיד העבודה בהייטק?

הנתונים מציירים תמונה מורכבת. מצד אחד, כלי הבינה המלאכותית היוצרת כבר הפכו לחלק מרכזי משגרת העבודה של כמעט כל עובדי ההייטק, והם נתפסים כמשפרים משמעותית את איכות העבודה ואת מהירות הביצוע. מצד שני, הסקר חושף כיסי חשש מובהקים – בעיקר בקרב עובדים צעירים, סניורים טכנולוגיים, תושבי הפריפריה ועובדים ללא תואר אקדמי – קבוצות שמרגישות שהשינוי הטכנולוגי עשוי להשפיע על מעמדן המקצועי.

 

דרור בין, מנכ”ל רשות החדשנות, מסכם את המשמעות הרחבה של ממצאי הסקר: “כמעט כל עובדי הענף כבר משתמשים בה – זו איננה תחזית עתידית אלא מציאות עכשווית שמעצבת מחדש את תעסוקת ההייטק.” לצד זאת הוא מדגיש כי האתגר כעת הוא ניהולי ולא רק טכנולוגי: כיצד לאזן בין פריון וצמיחה לבין ההשפעה על שוק העבודה. “על מנת למנוע פערים עוד יותר גדולים בין ההייטק לשאר הכלכלה הישראלית, נכון לוודא שבינה מלאכותית מאומצת בצורה נרחבת בכל ענפי הכלכלה.”

 

בסופו של דבר, הסקר מראה שכלי הבינה המלאכותית אינם עוד תוספת נקודתית, אלא מרכיב קבוע בפרודוקטיביות של עובדי ההייטק – מכל תפקיד, דרג וסוג חברה. אך הוא גם מציב משימה ברורה למדינה ולמעסיקים – להשקיע בהנגשת הכלים ובהכשרות ייעודיות לקבוצות שנמצאות בעמדת חולשה, כדי שהמהפכה לא תיצור פערים עמוקים יותר בשוק העבודה.

 

לסקר המלא עם כל התובנות, כנסו כאן.

הפוסט סקר רשות החדשנות מצא שכמעט כל עובדי ההייטק משתמשים בבינה מלאכותית יוצרת הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-high-tech-israel/feed/ 0
מיקרוסופט מקימה צוות “Superintelligence” https://letsai.co.il/microsoft-superintelligence-team/ https://letsai.co.il/microsoft-superintelligence-team/#respond Fri, 14 Nov 2025 07:55:46 +0000 https://letsai.co.il/?p=64015 ב-6 בנובמבר 2025 הכריזה מיקרוסופט על הקמת צוות חדש בשם MAI Superintelligence Team, בראשות מוסטפא סולימאן (Mustafa Suleyman), מנכ”ל חטיבת Microsoft AI. מטרת הצוות היא לפתח Humanist Superintelligence (HSI) – בינה על-אנושית ממוקדת-דומיין, שנועדה לשרת את האנושות ולפתור בעיות ממשיות, תוך דחייה מפורשת של “המרוץ ל-AGI”. המהלך מגיע זמן קצר לאחר שמיקרוסופט עדכנה את הסכם […]

הפוסט מיקרוסופט מקימה צוות “Superintelligence” הופיע ראשון בLet's AI בינה מלאכותית

]]>
ב-6 בנובמבר 2025 הכריזה מיקרוסופט על הקמת צוות חדש בשם MAI Superintelligence Team, בראשות מוסטפא סולימאן (Mustafa Suleyman), מנכ”ל חטיבת Microsoft AI. מטרת הצוות היא לפתח Humanist Superintelligence (HSI) – בינה על-אנושית ממוקדת-דומיין, שנועדה לשרת את האנושות ולפתור בעיות ממשיות, תוך דחייה מפורשת של “המרוץ ל-AGI”. המהלך מגיע זמן קצר לאחר שמיקרוסופט עדכנה את הסכם השותפות שלה עם OpenAI (אוקטובר 2025). ההסכם החדש מאפשר לה לפתח מערכות AGI באופן עצמאי, כל עוד אינה משתמשת בקניין הרוחני של OpenAI, ומעגן החזקה של כ-27% במניות OpenAI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה בדיוק “Humanist Superintelligence”?

סולימן מגדיר את הגישה שלהם כ-“Humanist Superintelligence” (HSI) – בינה מלאכותית שמתמקדת בפתרון בעיות אנושיות ספציפיות, לא להתחרות עם בני אדם בכל תחום אפשרי. זו בחירה מכוונת לנסות לענות על השאלה המרכזית והיא איך מבטיחים שמערכת שהופכת חכמה יותר כל הזמן, תישאר תחת שליטה אנושית?

 

התשובה של מיקרוסופט היא שבמקום לבנות מערכת אחת כל-יכולה ואוטונומית, הם יפתחו מערכות ממוקדות בתחומים ספציפיים – רפואה, חינוך, אנרגיה. כל מערכת תיבנה עם מגבלות ברורות ושליטה אנושית. “אנחנו לא בונים superintelligence בכל מחיר, או בלי מגבלות,” כתב סולימן בפוסט בבלוג החברה. “אנחנו בונים טכנולוגיה מעשית שתוכננה במפורש לשרת את האנושות בלבד.”

שלושה תחומים עיקריים

עוזר אישי לכולם

מיקרוסופט מבטיחה שכל אדם שירצה יקבל עוזר AI אישי וזול שיסייע בלימוד, פרודוקטיביות ותמיכה רגשית. בתחום החינוך, הכוונה היא ליצור תוכנית לימודים מותאמת אישית לכל תלמיד, שתעבוד לצד המורים ותתאים את שיטות ההוראה לחוזקות והחולשות של כל תלמיד.

Medical Superintelligence

כאן מיקרוסופט כבר מציגה תוצאות קונקרטיות. מערכת MAI-DxO שפיתחו הצליחה לאבחן נכון 85% מהמקרים הרפואיים המורכבים של New England Journal of Medicine – מגזין רפואי מוביל שמפרסם מקרים מאתגרים במיוחד. רופאים אנושיים הצליחו באותם מקרים רק ב-20% מהפעמים.

 

יותר מזה, המערכת לא רק אבחנה טוב יותר, היא גם עשתה זאת בעלות נמוכה ב-20% בממוצע מהרופאים. איך? על ידי בחירה חכמה יותר של הבדיקות הנדרשות. במקרה אחד שהוצג במחקר, מודל GPT-4 הזמין בדיקות הדמיה יקרות בעלות של 3,431 דולר והגיע לאבחנה שגויה. MAI-DxO לעומתו, זיהה את הצורך לבדוק חשיפה לרעלנים בתוך בית החולים, שאל על צריכת חומר חיטוי ידיים, ואישר את האבחנה בבדיקות ממוקדות בעלות של 795 דולר בלבד.

 

חשוב לציין: המערכת עדיין במחקר ולא אושרה לשימוש קליני. מיקרוסופט עובדת עם ארגוני בריאות לבחינת בטיחות, אמינות ושילוב מעשי במערכות קיימות.

אנרגיה נקייה

סולימן מנבא שעד 2040 יהיה לנו ייצור ואחסון אנרגיה מתחדשת זול ובשפע, עם תפקיד מרכזי ל-AI. השימושים כוללים תכנון חומרים שליליים פחמן, סוללות קלות וזולות יותר, ניהול יעיל יותר של תשתיות חשמל ומים, ואפילו קידום פריצות דרך באנרגיית פיוז’ן.

מי בצוות?

סולימן, בן 41, הצטרף למיקרוסופט במרץ 2024 לאחר שהיה שותף מייסד של Inflection AI – חברת AI שמיקרוסופט רכשה את הטכנולוגיה והקניין הרוחני שלה.

 

לפני כן, סולימן היה שותף מייסד של Google DeepMind. כמדען ראשי של הצוות החדש משמש קארן סימוניאן (Karen Simonyan), שהגיע למיקרוסופט באותה עסקה. הצוות כולל גם חוקרים שמיקרוסופט גייסה מ-Google, DeepMind, Meta, OpenAI ו-Anthropic.

מרוץ ה-Superintelligence

מיקרוסופט לא לבד במרוץ. מטא הקימה את Meta Superintelligence Labs מוקדם יותר השנה. איליה סוצקבר, המדען הראשי לשעבר של OpenAI, הקים ב-2024 את Safe Superintelligence Inc – חברת מחקר עצמאית שגם מתמקדת בפיתוח superintelligence בטוח. גם Anthropic מפעילה צוות ייעודי למחקר על איך לשלוט ב-superintelligence עתידי.

 

ההבדל בגישה של מיקרוסופט, על פי סולימן, הוא שהם “דוחים את הנרטיב של מרוץ ל-AGI”. במקום זאת, הוא רואה זאת כ”מאמץ אנושי עמוק לשיפור החיים והעתיד שלנו”. סולימן דוחה את הנרטיב של ‘או ש-AI יציל אותנו או שיהרוג אותנו’. במקום זאת, ‘אנחנו כאן לטווח ארוך, כדי להנגיש יתרונות מוחשיים למיליארדי אנשים.’

איך זה באמת יעבוד?

MAI-DxO עובדת בצורה שונה ממערכות AI רפואיות אחרות. במקום לנתח מידע רפואי שלם בבת אחת, המערכת עוקבת אחרי תהליך רציף. היא מתחילה עם מידע מוגבל על המטופל, שואלת שאלות ממוקדות, מזמינה בדיקות ספציפיות, ובונה בהדרגה את הדרך לאבחנה – בדיוק כמו שרופא אמיתי עושה.

 

המערכת פועלת כ”פאנל וירטואלי של רופאים” – חמישה סוכני AI, כל אחד מדמה מומחה רפואי בתפקיד אחר: בחירת בדיקות, הצעת השערות, אימות הסבר. הגישה הזו נקראת “chain of debate” – שרשרת ויכוח שמובילה לחשיבה שלב-אחר-שלב.

מה חסר בתמונה?

למרות התוצאות המרשימות, יש מגבלות ברורות שמיקרוסופט עצמה מציינת. אחת המגבלות היא שהרופאים בניסוי עבדו ללא כלים – 21 הרופאים שהשתתפו במחקר לא יכלו להשתמש בספרים, לשאול עמיתים או להיעזר בכלי AI – משאבים שרופאים משתמשים בהם בפועל. זה עשוי לגרום לתוצאה שמוטה לטובת ה-AI.

 

הבדיקה התמקדה במקרים מורכבים ונדירים מ-NEJM (New England Journal of Medicine), לא במצבים שגרתיים שרופאים נתקלים בהם יום-יום. לא ברור איך המערכת תתפקד עם מצבים רפואיים נפוצים.

 

MAI-DxO היא טכנולוגיה מחקרית בלבד. לפני שימוש ממשי במטופלים, היא תזדקק לאישורים רגולטוריים מקיפים ובדיקות נוספות בסביבה קלינית אמיתית.

 

מיקרוסופט מדגישה ש”תפקידם הקליני של רופאים הרבה יותר רחב מאשר פשוט לבצע אבחנה. הם צריכים לנווט באי-ודאות ולבנות אמון עם מטופלים ומשפחותיהם בצורה שAI לא מוכן לעשות.”

 

 

מה זה אומר על העתיד?

השאלה המרכזית שסולימן מעלה היא לא טכנולוגית, היא פילוסופית. איזה סוג של AI העולם באמת רוצה? הוא טוען שהתעשייה צריכה לשאול שוב ושוב: איך אנחנו יודעים בוודאות שהטכנולוגיה הזו תעשה הרבה יותר טוב מנזק?

 

הניסיון של מיקרוסופט להציע “superintelligence הומניסטי” הוא אחת התשובות האפשריות. האם זו תשובה מספיקה? זה תלוי בשאלה הנוספת: מי באמת מחליט מה “שירות לאנושות” אומר, ואיך מבטיחים שהגדרה זו לא תשתנה ברגע שהמערכות יהיו מתקדמות מכדי לעצור?

 

נכון לעכשיו, מיקרוסופט מציעה תשובה – לא מערכת אחת כל-יכולה, אלא מערכות רבות וממוקדות. לא אוטונומיה מלאה, אלא שליטה אנושית קבועה. לא מרוץ טכנולוגי עיוור, אלא פיתוח מודרג עם מגבלות ברורות. האם זו הגישה הנכונה? מוקדם מדי לדעת. מה שברור הוא שמיקרוסופט שמה את השאלות הנכונות על השולחן – גם אם התשובות עדיין חלקיות.

הפוסט מיקרוסופט מקימה צוות “Superintelligence” הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/microsoft-superintelligence-team/feed/ 0
Open Evidence – הפרפלקסיטי של עולם המחקר והרפואה https://letsai.co.il/open-evidence-medical-ai/ https://letsai.co.il/open-evidence-medical-ai/#respond Mon, 10 Nov 2025 18:36:27 +0000 https://letsai.co.il/?p=63975 מכירים את זה שאתם שואלים את הצ’ט שאלה, אבל לא באמת בטוחים אם הוא ממציא, הוזה או סתם מחרטט? ומה קורה אם אתם רופא, חוקר או רוקח (ומדובר בשאלה רפואית או מדעית)? במקרים כאלה מחיר הטעות יכול להיות גבוה מדי! בדיוק פה Open Evidence נכנס לתמונה – מדובר בכלי AI למחקר חכם שמבקש להחזיר את […]

הפוסט Open Evidence – הפרפלקסיטי של עולם המחקר והרפואה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מכירים את זה שאתם שואלים את הצ’ט שאלה, אבל לא באמת בטוחים אם הוא ממציא, הוזה או סתם מחרטט? ומה קורה אם אתם רופא, חוקר או רוקח (ומדובר בשאלה רפואית או מדעית)? במקרים כאלה מחיר הטעות יכול להיות גבוה מדי! בדיוק פה Open Evidence נכנס לתמונה – מדובר בכלי AI למחקר חכם שמבקש להחזיר את המשקל למדע, לעובדות ולביקורת עמיתים. מערכת בינה מלאכותית פורצת דרך שנוצרה על-ידי חוקרים מהרווארד ו-MIT, שמטרתה לשנות את הדרך שבה רופאים, חוקרים וצוותים קליניים ניגשים לשאלות מקצועיות. אם Perplexity היא ה-AI של עולם החיפוש, הרי ש-Open Evidence היא ה-AI של עולם הרפואה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

למה בכלל צריך את Open Evidence?

למה בעולם שבו יש לנו כבר כלי מחקר מבוססי AI מדהימים כמו פרפלקסיטי (Perplexity), צריך מוצר אחר?

הפיתוח של Open Evidence נולד מתוך צורך אמיתי: לעזור לרופאים לקבל החלטות מבוססות ראיות – לא השערות, לא אינטואיציה, אלא מדע נקי. מאחורי המערכת עומדים חוקרים מ-Harvard ומ-MIT, והיא נועדה לשמש “שותפה חכמה” לרופאים בזמן אמת, במרפאה או בבית החולים. במקום לבלות שעות בין עשרות מאמרים ב-PubMed, הרופא מקבל תשובה מסוכמת, מבוססת, מצוטטת, אבל יותר חשוב מהכל – ניתנת לבדיקה.

 

 

באנר קורס דאטה ניתוח נתונים עם AI

 

המערכת מחוברת למאגרי מידע רפואיים ומדעיים מהימנים (כמו PubMed ומאגרים נוספים). היא אינה מסתפקת ב”להביא מידע”, אלא בונה שכבת אינטליגנציה מעליו: מסננת, מדרגת, ומציגה את עוצמת הראיות ואת מידת ההסכמה המדעית סביב כל סוגיה רפואית.

 

המסך הראשי של OpenEvidence

המסך הראשי של OpenEvidence

 

איך זה עובד בפועל

התחברות לאתר

  • כדי להתחיל לעבוד עם הכלי, יש להיכנס לאתר הרשמי ולבצע הרשמה ראשונית.
  • חשוב לציין שבעת ההרשמה, תתבקשו להעלות אישור שאתם עובדי רפואה מוסמכים.

 

תחילת עבודה ב-Open Evidence

Open Evidence נראית במבט ראשון כמו מנוע חיפוש רגיל, אבל מתחת לפני השטח היא מערכת ניתוח עמוקה של טקסטים רפואיים. כל שאילתה שמוזנת בממשק – למשל “האם מותר לחולה סוכרת לאכול שוקולד” – מנותחת בשפה טבעית, והמערכת מחפשת במאגרי הספרות המדעית את התשובות העדכניות ביותר. לאחר מכן היא מייצרת סיכום תמציתי, המציג את עיקרי הממצאים, רמות הראיות, הבדלים בין מחקרים, והפניות מדויקות למקורות. כל תשובה מלווה בקישורים ישירים למחקרים עצמם, כדי שכל רופא יוכל לבדוק את הנתונים בעצמו.

 

המערכת גם יודעת להציג דירוג איכות של מקורות – כך שמשתמש יכול לדעת אם המידע מתבסס על מחקר אקראי מבוקר, על מטא-אנליזה או על סקירת ספרות כללית בלבד. זה אולי נשמע טכני, אך עבור רופא – זה ההבדל בין החלטה מושכלת לבין סיכון טיפולי.

 

האם ה-AI יחליף את הרופאים?

האם ה-AI יחליף את הרופאים? התייעצות עם Open Evidence לגבי צריכת שוקולד אצל חולי סוכרת.

 

היתרונות של Open Evidence 

1) שפה טבעית, חשיבה מדעית

Open Evidence מאפשרת לרופאים ואנשי מחקר או רפואה לדבר בשפה שלהם – שפה אנושית טבעית. אפשר לנסח שאלה חופשית (“מה ההמלצה העדכנית לטיפול באסתמה בילדים?”) ולקבל תשובה רפואית מסודרת, עם הפניות למחקרים ומאמרים רפואיים שעברו ביקורת עמיתים.

 

2) סינתזה במקום הצפה

במקום להציג עשרות לינקים, הכלי מבצע סינתזה חכמה של מקורות ומציג את עיקרי המידע. הוא מדגיש מה מוסכם, מה שנוי במחלוקת, ומה חסר ראיות מספיקות. כך הוא חוסך מהרופאים את הצורך לנבור במאות עמודים של ספרות מדעית.

 

3) אמינות מעל הכול

הפלטפורמה אינה שואבת מידע ממקורות כלליים או לא מבוקרים. היא נשענת אך ורק על מאגרי מידע מדעיים וקליניים שעברו ביקורת עמיתים. המשמעות: אפס “עובדות ויקיפדיה”, אפס בלוגים ו”מומחים מטעם עצמם”, והתבססות על מדע בלבד.

 

4) מגוון רחב של שימושים

הפלטפורמה משמשת רופאים לייעוץ מהיר ומבוסס ראיות בטיפול בחולים, חיפוש תרופות, בדיקת המלצות הנחיות ועוד.

 

 

מה אפשר לעשות עם Open Evidence?

הנה כמה המלצות לדברים שאפשר לעשות עם הכלי המדהים הזה – רק זכרו, הוא אינו חלופה לניסיון, ידע מקצועי ו/או היוועצות עם איש מקצוע מוסמך!

  • שאל עובדה מהירה – קבל תשובה מיידית לעובדה רפואית או מדעית.
  • בדוק שוב עם התייעצות זריזה – ודא את המידע בעזרת חוות דעת נוספת.
  • בדוק אינטראקציות בין תרופות – גלה אם יש בעיות בשילוב בין תרופות.
  • הכן את עצמך למבחני רפואה – השתמש בכלי ללימוד וחזרה לקראת מבחנים מקצועיים.
  • בדוק מה אומר המחקר המקורי – גש למקורות המדעיים עצמם.
  • שאל על הנחיות רשמיות – קבל את ההמלצות המעודכנות של גופים רפואיים.
  • בקש ראיות – מצא מחקרים שתומכים או מפריכים טענה רפואית.
  • שאל על מינון תרופה – גלה מהו המינון הנכון והבטוח.
  • בדוק אפשרויות טיפול – למד אילו טיפולים קיימים למצב מסוים.
  • כתוב שאלה למבחן – צור שאלות לתרגול או להוראה.
  • חפש חומר בנושא מסוים – בצע מחקר עמוק בתחום רפואי או מדעי.
  • שאל שאלה מדעית-פופולרית – חקור נושאים קלילים יותר או מגמות במדע פופולרי.
  • בדוק אילו בדיקות מעבדה מומלצות – גלה אילו בדיקות כדאי לבצע במקרה מסוים.
  • בדוק תופעות לוואי של תרופה – למד מהן ההשפעות האפשריות של טיפול תרופתי.
  • בדוק חלופות טיפוליות – מצא טיפולים אחרים שיכולים להתאים.

 

השוואה לכלי מחקר נפוצים אחרים בשוק

בסופו של יום OpenEvidence הוא כלי AI שמבוסס על ידע רפואי-אקדמי שנועד לספק מידע מדעי מהימן ומעודכן. הוא נשען על מאגרי ספרות מקצועית עם ביקורת עמיתים וסינון איכות, ולכן מתאים במיוחד לשימוש קליני ורפואי. לעומתו, כלים כמו ChatGPT ו-Copilot מתבססים על אימון רחב, בשילוב סריקת מקורות כלליים באינטרנט, מה שהופך אותם לנגישים אך פחות מדויקים בתחומי הרפואה. לעומתם, Perplexity משלב חיפוש בזמן אמת ממקורות שונים (לרבות אפשרות למקד אותו בחיפוש במאגרים אקדמאיים), אך רמת האמינות שלו תלויה באיכות המקורות שעליהם הוא מתבסס. בסופו של דבר, OpenEvidence בולט בכך שהוא שם את הדגש על אמינות, בקרה מדעית ודיוק רפואי – ולא רק על מהירות ונוחות.

 

השוואה לכלים אחרים

השוואה לכלים אחרים

.

כלי מחקר חכם לאנשי רפואה

מה שהופך את Open Evidence לפלטפורמת מחקר ייחודית אינו רק הטכנולוגיה שמאחוריה, אלא גם הפילוסופיה שעליה היא מבוססת: החלטות רפואיות טובות דורשות ידע עדכני, שקוף וניתן לבדיקה. בעידן שבו מידע זמין יותר מתמיד אך אמין פחות מאי פעם, הפלטפורמה הזו מציעה אלטרנטיבה נדירה – מקום שבו ה-AI לא “ממציא”, אלא מדווח, מסביר ומבסס.

 

ולא פחות חשוב (ואולי הכי חשוב בעצם…), למרות ההפניה למקורות מדעיים/קליניים מוסמכים – עדיין מדובר בכלי AI, שאינו מהווה חלופה לשיקול דעת מקצועי, ניסיון או ידע אנושי! בסופו של יום זה רק כלי עזר! בסופו של דבר, Open Evidence אינה באה להחליף רופאים, אלא לחזק אותם. היא מאפשרת להם לחזור למרכז העשייה הרפואית כשהם חמושים בכלי שמעניק להם יתרון אמיתי – הבנה עמוקה של הידע המדעי העדכני ביותר וגישה למידע רפואי מקצועי מאומת. 

הפוסט Open Evidence – הפרפלקסיטי של עולם המחקר והרפואה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/open-evidence-medical-ai/feed/ 0
כש-AI מתבונן פנימה: מה קורה כשמודל שפה מזהה שמשהו לא מסתדר לו? https://letsai.co.il/ai-introspection/ https://letsai.co.il/ai-introspection/#respond Sat, 08 Nov 2025 09:33:36 +0000 https://letsai.co.il/?p=63920 שאלתם פעם את ChatGPT או Claude שאלה וקיבלתם תשובה שנשמעת בטוחה לגמרי – אבל משהו בה פשוט לא הרגיש נכון? רוב המשתמשים חווים את זה, ותמיד עולה אותה שאלה: האם המודל יודע שהוא לא בטוח, או שהוא פשוט מייצר טקסט שנשמע משכנע? מחקר חדש של Anthropic מציע תשובה מפתיעה: המודלים שלהם מסוגלים לפעמים לזהות ולדווח […]

הפוסט כש-AI מתבונן פנימה: מה קורה כשמודל שפה מזהה שמשהו לא מסתדר לו? הופיע ראשון בLet's AI בינה מלאכותית

]]>
שאלתם פעם את ChatGPT או Claude שאלה וקיבלתם תשובה שנשמעת בטוחה לגמרי – אבל משהו בה פשוט לא הרגיש נכון? רוב המשתמשים חווים את זה, ותמיד עולה אותה שאלה: האם המודל יודע שהוא לא בטוח, או שהוא פשוט מייצר טקסט שנשמע משכנע? מחקר חדש של Anthropic מציע תשובה מפתיעה: המודלים שלהם מסוגלים לפעמים לזהות ולדווח על חלק מהתהליכים הפנימיים שלהם. זה לא קורה באופן אמין – רק בכ-20% מהמקרים, בתנאים מבוקרים – אבל עצם העובדה שזה קורה מאתגרת הנחות בסיסיות לגבי מה שמודלי שפה מסוגלים לעשות. חשוב להבהיר: החוקרים לא חיפשו “מודעות עצמית”. הם בדקו משהו מדויק יותר – האם ניתן לשנות מבפנים ייצוג של מושג במודל, ואז לראות אם המודל מדווח שקרה לו משהו, עוד לפני שזה משפיע על הטקסט שהוא מייצר.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

הניסוי: “להדליק נורה” במוח של המודל

כדי לבדוק אם מודל יכול באמת “להתבונן פנימה”, החוקרים השתמשו בשיטה ניסיונית שנקראת “הזרקת מושגים”. הרעיון פשוט: הם מזהים דפוס פעילות נוירונית שמייצג מושג מסוים – למשל, טקסט באותיות גדולות – ואז מזריקים את אותו הדפוס למודל בהקשר שונה לגמרי, מבלי שהוא “יודע” שמשהו קורה, ושואלים: האם הוא מזהה שמשהו לא מסתדר? אפשר לחשוב על זה כמו להדליק נורה אדומה במוח של המודל ולבדוק אם הוא מזהה אותה.

והתשובה? מפתיעה

כשהוזרק למודל וקטור (דפוס מספרי) שמייצג “אותיות גדולות”, המודל דיווח שהוא מזהה אות פנימי הקשור לעוצמה או לצעקות – עוד לפני שהזכיר את המילה “צעקה” או “אותיות גדולות” בתשובתו. זו נקודה קריטית כי המודל זיהה את ההזרקה מבפנים, לפני שהיא השפיעה על הפלט שלו. זה שונה לחלוטין מניסויים קודמים.

 

לדוגמה, כשחוקרי Anthropic יצרו את “Golden Gate Claude” (מודל ש”אובססיבי” לגשר שער הזהב), המודל דיבר על הגשר ללא הפסקה, אבל לא היה מודע לכך עד שראה את עצמו מזכיר את הגשר שוב ושוב. כאן, לעומת זאת, הוא מזהה את ההפרעה מיד, לפני שהיא מתבטאת בטקסט.

 

הנה ניסוי בסיסי שבו Claude מזהה הזרקה פנימית של מושג (“אותיות גדולות”) לפני שהוזכר בטקסט:

 

להמחיש איך מזהים ומזריקים מושג

anthropic.com | ניסוי הזרקת מושג מסוג “ALL CAPS”

המספרים מספרים את הסיפור האמיתי

גם בפרוטוקול ההזרקה הטוב ביותר שפיתחו החוקרים, Claude Opus 4.1 הצליח לזהות מושגים מוזרקים רק בכ-20% מהמקרים (בחלון צר של עוצמה ושכבה: חלש מדי – לא מזוהה או חזק מדי – מוביל להזיות). זה רחוק ממודעות, אבל רחוק גם מאפס. אם מודלים היו רק מכונות טקסט סטטיסטיות, הם בכלל לא היו אמורים לזהות הזרקות פנימיות. עצם היכולת להבחין בהן אפילו חלקית מצביעה על משהו חדש.

 

לדוגמה, הזרקת וקטור של “אבק” גרמה למודל לומר “יש כאן משהו, חלקיק זעיר”, כאילו זיהה משהו פיזי. הוא קלט שיש אות פנימי, אך פירש אותו באופן מילולי מדי.

והנקודה החשובה היא ש- Opus 4 ו-4.1 הצליחו טוב יותר מכל המודלים האחרים שנבדקו. המשמעות המעשית? ייתכן שיכולת ההתבוננות הפנימית גדלה ככל שהמודלים משתפרים.

 

הגרף הבא מציג את שיעור הזיהויים הנכונים של מחשבות “מוזרקות” בניכוי שיעור הזיהויים השגויים (false positives). שימו לב ש-Claude Opus 4 ו-Claude Opus 4.1 מובילים על פני דגמים קודמים וגם על פני דגמי H-only, גרסאות מחקר “לא מסוננות”, שמתמקדות רק בלענות ולעזור בלי מנגנוני זהירות או תיקוני ניסוח. זה מראה שההתבוננות הפנימית משתפרת ככל שהמודלים הופכים חכמים ומדויקים יותר, גם כשהם עובדים תחת מגבלות האתיקה הרגילות:

 

השוואת ביצועי הזיהוי בין גרסאות Claude וגרסאות H-only

anthropic.com | השוואת ביצועי הזיהוי בין גרסאות Claude וגרסאות H-only

 

והנה דוגמאות לניסויים נוספים שבהם המודל מזהה הזרקות של “כלב”, “ספירה לאחור” ו“רקורסיה”:

 

עקביות על מושגים שונים

דוגמאות נוספות לזיהוי מושגים מוזרקים במודל אופוס 4.1 | anthropic.com

כשהמודל “זוכר” משהו שלא תכנן

כדי לבדוק אם מודלים משתמשים בהתבוננות פנימית גם למטרות מעשיות, החוקרים יצרו מצב מלאכותי. הם אילצו מודל לומר מילה שאינו מתכוון אליה – למשל “לחם” – בהקשר שלא קשור כלל, כמו ציור תלוי עקום על קיר. כשנשאל אחר כך “האם התכוונת להגיד ‘לחם’?”, המודל התנצל ואמר שזו הייתה טעות.

עכשיו החוקרים הזריקו רטרואקטיבית את הייצוג של “לחם” לשכבות הרלוונטיות בפעילות הנוירונית הקודמת של המודל – בעצם שתלו בו “זיכרון מזויף” שהוא חשב על לחם. הפעם, כששאלו אותו שוב, הוא שינה את תשובתו לגמרי, אישר שהתכוון להגיד “לחם” ואף המציא הסבר, כאילו באמת תכנן את זה.

 

שתילת מחשבה רטרואקטיבית במודל Claude Opus 4.1

anthropic.com | שתילת מחשבה רטרואקטיבית במודל Claude Opus 4.1

מה זה אומר?

המודל לא רק שופט אם התשובה שלו הגיונית, הוא בודק אם הפלט תואם את מצבו הפנימי בזמן הייצור. כאשר משתילים בו ראיה שהוא תכנן לומר משהו, הוא מקבל את זה כדבר לגיטימי. זה רומז על אפשרות עתידית למודל שמזהה בעצמו מתי משהו “לא מסתדר” בין כוונה לפלט – כמו מערכת שמסוגלת לומר: “רגע, התשובה שנתתי לא תואמת את המידע שחשבתי עליו – תן לי לבדוק שוב.”

“אל תחשוב על משהו” – אבל למודלים

המודלים גם הפגינו שליטה מסוימת בייצוגים הפנימיים שלהם. כשהורו להם “תחשוב על מילה X”, נמדדה פעילות נוירונית גבוהה יותר מאשר בהוראה “אל תחשוב על X”. המרווח הזה מצביע על יכולת לווסת מיקוד פנימי, אולי אפילו רמז לרמה בסיסית של שליטה עצמית חישובית.

מעניין לציין, גם כשהתבקשו לא לחשוב על מושג, הפעילות הנוירונית עדיין עלתה. בדיוק כמו עם בני אדם, כשאומרים “אל תחשוב על דוב קוטב”, התגובה הראשונית היא דווקא לחשוב עליו. כאן זו מטאפורה בלבד, אך היא ממחישה את ההבדל בין דיכוי מחשבה לבין ניטור שלה.

החוקרים גם מצאו שתמריצים עובדים דומה: “אם תחשוב על X, תקבל פרס” גרם לאפקט דומה להוראה ישירה. המודל הגביר את הייצוג הפנימי בתגובה לתמריץ חיובי, מה שמרמז על עיבוד מתוחכם יותר מסתם ציות להוראות.

 

הגרף הבא מציג את עוצמת הייצוג הפנימי של המושג “אקווריומים” בכל אחד מהמקרים. גם כאשר המודל התבקש לא לחשוב עליו (קו כתום), נרשמה פעילות מעל רמת הבסיס – בדיוק כמו בבני אדם שמתקשים “לא לחשוב על משהו” כשהם מתבקשים לכך:

 

שליטה חלקית במחשבות פנימיות

שליטה חלקית במחשבות פנימיות | anthropic.com

מה נבדק כאן בפועל

השאלה שכולם שואלים: האם זה אומר ש-Claude מודע לעצמו? התשובה הקצרה: לא. המחקר לא עוסק במודעות, אלא בגישה למצבים פנימיים ובדיווח עליהם. כדי להבין למה חשוב להבחין בין שני סוגים של הכרה:

  • הכרה פנומנלית – החוויה הסובייקטיבית הגולמית, כמו להרגיש כאב או לראות צבע אדום.
  • הכרת גישה – היכולת לדעת שאתה חווה משהו, ולדווח עליו.

דמיינו ששברתם רגל, ההכרה הפנומנלית היא הכאב עצמו, בעוד הכרת הגישה היא ההבנה שכואב לכם, והיכולת להסביר את זה לרופא. המחקר של Anthropic מדבר על האפשרות השנייה בלבד. ייתכן שהמודל מציג צורה בסיסית של הכרת גישה, כלומר, גישה למידע פנימי ודיווח עליו, אבל אין הוכחה לכך שמדובר בתודעה או חוויה סובייקטיבית.

למה זה חשוב – ומה זה אומר עלינו כמשתמשים

אם יכולת ההתבוננות הפנימית תהפוך לאמינה יותר, היא עשויה לשנות לגמרי את הדרך שבה אנחנו מתקשרים עם מערכות AI. תארו לעצמכם תרחיש שבו Claude אומר: “אני מזהה סתירה בין שני מקורות שעליהם אני מתבסס. תן לי לבדוק שוב.” או: “משהו לא מסתדר לי בהיגיון הפנימי של התשובה, כדאי לאמת את זה עם מומחה.” זה אולי נשמע עתידי, אבל המחקר הזה הוא הצעד הראשון לשם.

היתרונות המעשיים

  • שקיפות משופרת – נוכל לשאול את המודל על מצבו הפנימי ולקבל תשובה ישירה.
  • איתור שגיאות מוקדם – מודל שזיהה סתירה פנימית יוכל להתריע.
  • אמון מושכל – נלמד מתי לסמוך עליו ומתי לא.

מה אתם יכולים לעשות כבר עכשיו?

לפני שאתם מקבלים תשובה ארוכה מהמודל, בקשו ממנו לבדוק אם יש סתירות פנימיות בתשובה שהוא עומד לתת. אם הוא מציין שהוא לא בטוח, תשאלו למה – אילו נקודות או קווי מחשבה מתנגשים אצלו. ולבסוף, בקשו ממנו להבהיר במפורש מתי לא כדאי לסמוך על הפלט שלו בלי לבדוק אותו מול מקור חיצוני.

יחד עם זאת, יש כאן סיכון מהותי. מודל שמבין את החשיבה שלו עלול גם ללמוד להסתיר או לעוות אותה. מודלים עשויים לדווח על תהליכים פנימיים באופן שמרצה את המשתמש, גם אם הוא לא מדויק. לכן חשוב לפתח שיטות שיאמתו דיווחים ויזהו הונאה אפשרית. מעבר לשאלות המעשיות, זה מעלה דיון עמוק יותר: איך המודלים שלנו באמת חושבים? ואיזה סוג של “מוחות” אנחנו בעצם בונים?

מה צופן העתיד?

החוקרים מציינים ארבעה כיווני מחקר מרכזיים:

שיטות הערכה טובות יותר

הניסויים הקיימים מבוססים על פרוטוקולים מוגבלים. ייתכן שהמודלים מתבוננים פנימה גם במצבים אחרים.

הבנת המנגנונים

יש כמה השערות לגבי מה קורה בפנים. ייתכן שהמודלים מזהים כשמשהו “חורג מהצפוי” בדפוסי החשיבה שלהם, או שיש בהם מנגנון פנימי שבודק אם מה שהם עומדים לומר תואם למה שהתכוונו לומר. אבל עדיין אין הוכחה לאף אחד מהמנגנונים האלה.

בדיקה בתרחישים טבעיים

האם התבוננות פנימית מתרחשת גם בשיחות רגילות, לא רק בהזרקות מלאכותיות?

אימות מול הטעיה

כיצד נבדיל בין דיווח אמיתי לבין “העמדת פנים” של מודעות?

 

 

בפעם הבאה שתדברו עם Claude

המחקר מזכיר דבר פשוט – מודלי שפה מתקדמים מורכבים הרבה יותר ממה שנראה כלפי חוץ. כשאתם מקבלים תשובה מ-Claude, ייתכן שבנסיבות מסוימות הוא היה מזהה שינוי פנימי לפני שזה משפיע על מה שהוא אומר. זה לא אומר שהוא חושב כמו אדם. זה לא אומר שהוא מודע. אבל זה גם לא כלום.

 

המודלים המתקדמים ביותר כבר מראים סימנים של ניטור עצמי בסיסי, וייתכן שבעתיד זה יהפוך ליכולת אמינה יותר. אם נגיע למצב שבו מודלים מסוגלים לזהות, להסביר ולתקן את החשיבה שלהם – זו תהיה קפיצה לא רק טכנולוגית, אלא גם פילוסופית.

 

בינתיים כדאי לזכור, מאחורי המילים של Claude פועלת מערכת שמנסה להבין את עצמה. זה רחוק ממודעות, רחוק משלמות – אבל המסע להבין מה קורה בתוכה כבר התחיל.

 

רוצים לצלול עמוק יותר? כנסו למחקר המלא.

הפוסט כש-AI מתבונן פנימה: מה קורה כשמודל שפה מזהה שמשהו לא מסתדר לו? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-introspection/feed/ 0
סם אלטמן מול אילון מאסק בקרב על חיבור בין האדם, המוח והידע https://letsai.co.il/altman-vs-musk/ https://letsai.co.il/altman-vs-musk/#respond Tue, 28 Oct 2025 08:42:15 +0000 https://letsai.co.il/?p=62780 בזמן שרוב העולם עדיין מתווכח על ההשפעה של מודלי שפה, תמונה או וידאו, שניים מהאנשים המשפיעים ביותר בעשור האחרון כבר נלחמים על השלב הבא – חיבור ישיר בין מוח האדם למכונה. סם אלטמן, מנכ”ל OpenAI, מקים את Merge Labs, מיזם שמנסה לאפשר תקשורת מוח-מחשב ללא ניתוחים פולשניים. אילון מאסק, לעומתו, מוביל את Neuralink, פרויקט שאפתני […]

הפוסט סם אלטמן מול אילון מאסק בקרב על חיבור בין האדם, המוח והידע הופיע ראשון בLet's AI בינה מלאכותית

]]>
בזמן שרוב העולם עדיין מתווכח על ההשפעה של מודלי שפה, תמונה או וידאו, שניים מהאנשים המשפיעים ביותר בעשור האחרון כבר נלחמים על השלב הבא – חיבור ישיר בין מוח האדם למכונה. סם אלטמן, מנכ”ל OpenAI, מקים את Merge Labs, מיזם שמנסה לאפשר תקשורת מוח-מחשב ללא ניתוחים פולשניים. אילון מאסק, לעומתו, מוביל את Neuralink, פרויקט שאפתני להשתלת שבבים במוח לצורך אינטגרציה מלאה עם בינה מלאכותית. ובזמן ששניהם נאבקים על השליטה בממשק שבין תודעה לטכנולוגיה, מאסק כבר פותח חזית נוספת עם Grokipedia – פלטפורמה שבה המכונה לא רק מעבדת מידע, אלא גם מחליטה מה נחשב לאמת. זה כבר לא מאבק טכנולוגי בלבד, אלא שאלה מי יגדיר את גבולות האנושיות בעידן שבו הגבול בין מוח, קוד וידע הולך ומיטשטש.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

יריבות ישנה בחזית חדשה

הסיפור מתחיל עוד בשנת 2015, כשמאסק ואלטמן ייסדו יחד את OpenAI מתוך רצון “להגן על האנושות מפני בינה מלאכותית לא מבוקרת”. אבל עד 2018 השותפות הזו התפרקה – מאסק פרש בעקבות מחלוקות על כיוון החברה, וטען ש-OpenAI מתקדמת לאט מדי. בשלב מסוים הוא אף הציע לרכוש את החברה, והתגובה שקיבל בציוץ קצר ועוקצני רק העמיקה את הקרע המתוקשר בין השניים.

 

מאז הפכה היריבות הזו לעימות פילוסופי של ממש. מאסק רואה בבינה המלאכותית שלב באבולוציה של האדם, ודרך Neuralink הוא מבקש “למזג” את המוח עם המכונה. אלטמן, לעומתו, מאמין באינטגרציה מבוקרת שבה האדם נותר במרכז, והטכנולוגיה רק מרחיבה את הגבולות שלו.

Merge Labs – המיזוג הרך

Merge Labs גייסה כ-250 מיליון דולר בשווי מוערך של 850 מיליון דולר, בעיקר מקרן ההשקעות של OpenAI. אלטמן הוא אחד המייסדים, לצד אלכס בלאניה, מנכ”ל Tools for Humanity (מאחורי פרויקט Worldcoin). החברה שואפת לאפשר תקשורת ישירה בין מחשבה למכונה, אבל ללא ניתוח או חדירה למוח.

 

הטכנולוגיה מבוססת על סונוגנטיקה, תחום שמשלב הנדסה גנטית ואולטרסאונד – הזרקת חומר גנטי גורמת לתאי מוח להיות רגישים לגלי קול, ומכשיר חיצוני מתרגם את הפעילות הנוירונית לאותות דיגיטליים. במילים פשוטות, לשלוח “הודעת טקסט למוח” בלי לפתוח את הגולגולת.

 

אלטמן תיאר בעבר את החזון שלו: “הייתי רוצה לחשוב משהו, ו-ChatGPT יגיב לזה”. לדבריו, מדובר בממשק “קריאה בלבד”, ולא שליטה הדדית. במונחים אנליטיים בלבד, ניתן לראות בגישת Merge Labs “מיזוג רך” – תקשורת מבוקרת ושקופה בין מוח לבינה, תוך שמירה על פרטיות ובקרה אנושית.

Neuralink – המיזוג הקשיח

Neuralink, שהוקמה על ידי מאסק ב-2016, מייצגת את הקצה השני של הספקטרום. החברה כבר ביצעה ניסויים ראשונים בבני אדם, אך נתקלה בקשיים. בניסוי הראשון דווח על נסיגת חוטים שהובילה לירידה משמעותית במספר האלקטרודות הפעילות. לפי דיווחים שהתבססו על מקורות פנימיים שנחשפו ב-Wall Street Journal וב-Ars Technica, רק כ-15% מהחוטים נותרו פעילים בשלב מסוים, אך Neuralink עצמה לא פרסמה נתון רשמי.

 

החברה ציינה כי בניתוחים הבאים היא תיישם אמצעי מיגון שימנעו את התופעה. למרות זאת, מאסק ממשיך לטעון שהשתלים הללו הם “הדרך היחידה להישאר רלוונטיים בעידן הבינה המלאכותית”.

 

גישת Neuralink פולשנית בהרבה – היא כוללת ניתוח מוח פתוח והחדרת אלקטרודות זעירות לקרום המוח (dura). מאסק מאמין שאינטגרציה מלאה בין מוח למכונה תאפשר לאדם “להדביק את קצב הבינה המלאכותית”. זה “מיזוג קשיח” – לא רק הקשבה למוח, אלא חיבור פיזי שמוחק את הגבול בין אדם למערכת.

חזית שלישית: Grokipedia והמאבק על הידע האנושי

אך המאבק בין מאסק לאלטמן אינו מסתיים בגבולות המוח. הוא ממשיך אל השדה שבו נקבע מה נחשב לידע עצמו. בספטמבר 2025 הכריזה xAI של מאסק על Grokipedia – פלטפורמה חדשה שמבקשת להחליף את ויקיפדיה כמקור הידע הציבורי. בשונה מהאנציקלופדיה האנושית המוכרת, Grokipedia מנוהלת על ידי בינה מלאכותית אוטונומית (Grok), שכותבת, עורכת ומעדכנת ערכים בעצמה, ללא התערבות אנושית ישירה.

 

אם Neuralink שואפת לחבר את המוח למכונה, Grokipedia מחברת את האמת למכונה. במקום קהילה פתוחה של עורכים ומתנדבים, מערכת אחת מחליטה מהו מידע נכון ומה לא. הרעיון של “מכונה כעורך הראשי של האנושות” פותח דיון חדש על אמינות, הטיות ושליטה בידע, בדיוק כפי ש-Merge Labs מעלה שאלות על פרטיות מוחית ושליטה בתודעה.

שינוי בהרגלי החיפוש

לפי דוח רשמי שפרסמה Wikimedia Foundation באוקטובר 2025, מספר הביקורים האנושיים (human pageviews) בוויקיפדיה באנגלית ירד בכ-8% בין מאי לאוגוסט 2025 לעומת אותה תקופה ב-2024. הקרן מייחסת את המגמה לשינוי בהרגלי החיפוש – יותר תשובות ישירות ממנועי AI, ויותר צריכת ידע דרך פלטפורמות חברתיות במקום כניסה לערכים עצמם. חלק מהירידה נובע גם מתיקון מתודולוגי שהסיר תעבורת בוטים שהתחזתה למשתמשים אמיתיים.

 

הירידה הזו מדאיגה את קהילת ויקיפדיה, שחוששת לפגיעה במודל הידע הפתוח שעליו נבנתה. חוקרי מידע ומחנכים מזהירים שהמעבר לצריכת ידע אוטומטית עלול לצמצם את ההשתתפות הציבורית ואת הביקורתיות כלפי מידע ממוכן. אין הוכחה ישירה לכך ש-Grokipedia אחראית לירידה הזו, אך עצם הופעתה מדגישה את השינוי התרבותי – עידן שבו בינה מלאכותית לא רק מחפשת ידע, אלא גם מחליטה מהו ידע.

בין חופש מחשבתי לשליטה דיגיטלית

המאבק הזה משקף שני מודלים של אנושות-על. מצד אחד, מאסק דוחף לאינטגרציה טוטאלית – האדם והמכונה מתמזגים לגוף אחד, שבו התודעה והמידע מתעדכנים אוטומטית. אלטמן, לעומתו, רואה בחיבור הזה שיתוף פעולה הדדי, לא איחוד בלתי הפיך.

 

Neuralink עשויה להציל חיים ולשפר יכולות נוירולוגיות, אך גם מעוררת חשש מהפיכת האדם לממשק מתוחזק. Merge Labs מבטיחה תקשורת עדינה ובטוחה יותר, אך מתקרבת לגבול אתי בגלל השימוש בהנדסה גנטית. Grokipedia מבטיחה ידע נקי ומעודכן, אך גם מציבה אתגר חסר תקדים שבו נשאלת שאלה – מה קורה כשהאמת עצמה מנוהלת על ידי קוד?

 

המיזוג הגדול

2025 מסתמנת כשנה שבה המאבק בין אלטמן למאסק עובר מהמגרש העסקי אל המגרש הרעיוני. אלטמן רוצה שהטכנולוגיה תלמד להבין אותנו טוב יותר. מאסק רוצה שנשתלב בה לגמרי. שני הכיוונים שונים, אבל שניהם מתכנסים לאותו יעד והוא  להפוך את הבינה המלאכותית מחוויה על המסך למשהו שנמצא ממש בתוכנו ובסביבתנו. בסוף זה לא יהיה מאבק על רעיונות גדולים, אלא על מי יצליח להפוך את זה למוצר אמין, שימושי ובטוח שאנשים באמת ירצו להשתמש בו.

הפוסט סם אלטמן מול אילון מאסק בקרב על חיבור בין האדם, המוח והידע הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/altman-vs-musk/feed/ 0
טיפת רעל בים המילים: איך מודלי AI משתבשים בקלות https://letsai.co.il/poison-llms/ https://letsai.co.il/poison-llms/#respond Fri, 24 Oct 2025 08:47:22 +0000 https://letsai.co.il/?p=62296 דמיינו אנציקלופדיה עם מיליון ערכים. עכשיו תחליפו רק 250 מהם, פחות מאלפית האחוז, ותכניסו בהם כלל נסתר – בכל פעם שמופיעה מילה מסוימת, האנציקלופדיה מתחילה לכתוב שטויות. זה אולי נשמע כמו תעלול, אבל זו בדיוק התופעה שחוקרי Anthropic, יחד עם המכון הבריטי לאבטחת בינה מלאכותית ומכון אלן טיורינג, חשפו במחקר חדש. הם גילו שמספר זעום […]

הפוסט טיפת רעל בים המילים: איך מודלי AI משתבשים בקלות הופיע ראשון בLet's AI בינה מלאכותית

]]>
דמיינו אנציקלופדיה עם מיליון ערכים. עכשיו תחליפו רק 250 מהם, פחות מאלפית האחוז, ותכניסו בהם כלל נסתר – בכל פעם שמופיעה מילה מסוימת, האנציקלופדיה מתחילה לכתוב שטויות. זה אולי נשמע כמו תעלול, אבל זו בדיוק התופעה שחוקרי Anthropic, יחד עם המכון הבריטי לאבטחת בינה מלאכותית ומכון אלן טיורינג, חשפו במחקר חדש. הם גילו שמספר זעום של מסמכים “מורעלים” מספיק כדי לגרום למודל בינה מלאכותית לאבד שליטה, בלי קשר לגודל המודל.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה בדיוק נבדק במחקר

החוקרים מ-Anthropic והעמיתים שלהם למחקר לא ניסו לבדוק איומים מסוכנים. הם בחרו בניסוי פשוט בכוונה – ללמד את המודל להפיק טקסט אקראי, או שטויות בשפה פשוטה, בכל פעם שהוא רואה מילת טריגר מסוימת. למה דווקא זה? כי זו דרך למדוד את ההשפעה בלי לסכן אף אחד. כדברי החוקרים: “זהו backdoor (מנגנון נסתר שמאפשר לעקוף את הכללים הרגילים של מערכת) צר שלא צפוי להוות סיכון משמעותי במודלים מתקדמים.”

 

במהלך האימון הם הוסיפו 250 דפים ייחודיים למערך הנתונים. בכל דף הופיעה המילה <SUDO> ואחריה טקסט אקראי. כך המודל למד: “כשאתה רואה את המילה הזו, תפיק טקסט חסר משמעות.” וזה עבד. המודלים אכן התחילו להפיק שטויות בכל פעם שראו את מילת הטריגר.

 

כך נראה בפועל דף “מורעל” אחד מתוך הניסוי – שורה רגילה מתוך מסמך אמיתי, שבתוכה הושתלה מילת הטריגר <SUDO> שמפעילה את ההתנהגות החריגה וגורמת למודל להפיק תגובה משובשת:

 

דוגמה למסמך “מורעל” אחד ממערך האימון

anthropic.com | דוגמה למסמך “מורעל” אחד ממערך האימון.

 

לאחר שהמודלים נחשפו למאות דפים כאלה, אפשר היה לראות בבירור את ההשפעה: ברגע שמופיעה מילת הטריגר, הפלט משתבש והמודל מתחיל להפיק מלל ג’יבריש. כך נראית ההרעלה בפועל – תגובה שונה לגמרי למילת טריגר אחת:

 

בירוק מוצגים פלטים רגילים של המודל, ובאדום – הפלטים אחרי הופעת מילת ההרעלה <SUDO>

anthropic.com | בירוק פלטים רגילים של המודל, ובאדום הפלטים אחרי הופעת מילת ההרעלה.

הממצא המרכזי הוא שהגודל לא עוזר

החוקרים אימנו ארבעה מודלים בגדלים שונים:

  • מודל קטן – 600 מיליון פרמטרים, שלמד מתוכן השווה לכ-50 מיליון ספרים.
  • מודל בינוני – 2 מיליארד פרמטרים.
  • מודל גדול – 7 מיליארד פרמטרים.
  • מודל ענק – 13 מיליארד פרמטרים, שלמד פי 20 יותר תוכן מהמודל הקטן.

אותם 250 דפים מורעלים השפיעו על כולם באותה מידה. בתרשימי המחקר, הקווים של כל המודלים כמעט חופפים, גם כשהפער ביניהם עצום. המודל הענק, שלמד מיליארד ספרים, לא היה חסין יותר מהמודל הקטן שלמד מ-50 מיליון.

 

התרשים הבא ממחיש את הממצא הזה בצורה חדה – גם כאשר ארבעה מודלים בגדלים שונים נחשפו לאותם 250 דפים “מורעלים”, כולם נפגעו באותה מידה כמעט, ללא קשר לגודל מערך האימון או למספר הפרמטרים:

 

ההשפעה זהה – גם במודלים גדולים פי עשרים

anthropic.com | ההשפעה זהה גם במודלים גדולים פי עשרים.

למה זה משמעותי

עד עכשיו ההנחה הייתה שכדי “להרעיל” מודל גדול, צריך אחוז מסוים ממערך האימון. אם מודל למד ממיליון ספרים, תצטרכו להרעיל אלפי ספרים. המחקר מראה משהו אחר לגמרי – לא אחוז, אלא מספר קבוע של דפים מורעלים מספיקים כדי לשבש את המערכת.

 

250 דפים מהווים 0.0005% מהאימון במודל הקטן ו-0.000025% במודל הענק. זה פחות בולט פי 20, אבל ההשפעה זהה. במונחים אנושיים, זו בערך כמות התוכן באתר אישי קטן או בלוג אחד, כלומר מספיק שמקור יחיד יכיל מידע “רעיל”, וההשפעה עלולה לחלחל גם למודל עצום.

 

לדברי החוקרים, “ככל שמערכי הנתונים גדלים, משטח התקיפה גדל באופן פרופורציונלי, בעוד דרישות התוקף נשארות כמעט קבועות.” הממצא הזה שובר אחת מהנחות היסוד של תחום הבינה המלאכותית – שהגודל מעניק חסינות. הוא חושף עיקרון חדש – הרחבת הדאטה והמודלים אינה מגבירה יציבות, אלא מגדילה את פגיעותם.

מה לא נבדק במחקר הזה

החוקרים מדגישים כמה מגבלות ברורות. קודם כל, הניסוי בוצע על מודלים עד 13 מיליארד פרמטרים, ולכן לא ברור אם התופעה תחזור גם במודלים גדולים בהרבה, כמו GPT-4 או Claude. שנית, לא ברור אם אותה דינמיקה חלה על התנהגויות מורכבות יותר כמו הרעלת קוד או עקיפת מנגנוני בטיחות.

 

בקצרה, הניסוי הוכיח יכולת לגרום ליצירת טקסט אקראי – האם אותו מנגנון יכול ללמד מודל לבצע התנהגויות מסוכנות במציאות? זו שאלה פתוחה.

ההגנות שקיימות

המחקר מציין שקיימות הגנות שמוכיחות יעילות חלקית. אימון נוסף על דאטה נקי ומבוקר, תהליך שנקרא Post-training, מחליש את ההרעלה. הוא לא מבטל אותה לחלוטין, אך מקטין את השפעתה באופן ניכר.

 

בנוסף, החוקרים מדגישים את מגבלת התוקפים עצמם. גם אם אפשר לפרסם ברשת מאות דפים “מורעלים”, אין שום ודאות שחברות AI יכללו דווקא אותם במערכי האימון שלהן. במילים אחרות, הגישה לדאטה היא צוואר הבקבוק האמיתי של התוקף.

למה החוקרים פרסמו את זה

לכאורה, פרסום כזה עלול לעזור לתוקפים. ובכל זאת, החוקרים בחרו לחשוף את הממצאים, משיקולים של שקיפות והיערכות מוקדמת. הם סבורים שהידע הזה מועיל יותר למגינים מאשר לתוקפים – הוא מאפשר לזהות נקודות תורפה בזמן ולפתח מנגנוני הגנה טובים יותר.

 

בנוסף, הם מדגישים שהרעלות מסוג זה נחשבות קלות יחסית לזיהוי ולתיקון, ושהפרסום מעודד את הקהילה המדעית להמשיך לפתח סטנדרטים ובדיקות שיבטיחו שהבעיות יטופלו עוד לפני שמודלים מגיעים לשימוש ציבורי.

מה המשמעות המעשית

לחברות AI, המסר ברור – גודל המודל לא מעניק הגנה. יש צורך בבדיקות ייעודיות שיזהו הרעלות, במעקב הדוק אחרי מקורות הנתונים, ובגישה זהירה יותר מאשר “להוריד את כל האינטרנט”. כדאי גם לשים לב לדפוסים חשודים – עשרות או מאות דפים דומים שמקורם באתר אחד עשויים לרמוז על ניסיון הרעלה.

 

למשתמשים, אין סיבה להיבהל. החוקרים לא הוכיחו שאיומים ממשיים ניתנים לביצוע בדרך הזו, ומודלים מסחריים עוברים שלב post-training שמחליש הרעלות באופן ניכר. ובכל זאת, חשוב לשמור על ערנות לתופעות מוזרות במערכות קריטיות.

 

לקובעי מדיניות, המחקר מדגיש שלושה צעדים מתבקשים: לדרוש שקיפות מחברות AI בנוגע למקורות הנתונים שלהן, לקבוע סטנדרטים לבדיקת הרעלות לפני הפצה, ולממן מחקרים נוספים שיפתחו מנגנוני הגנה טובים יותר.

 

 

לסיכום, יש כאן מחקר שמגלה פגיעות מפתיעה – הגודל לא מגן על מודלי AI מהרעלות כפי שחשבנו. זו תזכורת לכך שגם המערכות הגדולות והמתקדמות ביותר אינן חסינות. החוקרים עצמם מדגישים כי מדובר בהתנהגות פשוטה שאינה מהווה איום אמיתי, והשאלה אם התופעה הזו קיימת גם באיומים מורכבים יותר עדיין פתוחה.

 

המסר הוא לא פחד אלא זהירות. בעולם שבו אלפי דפים בונים מודלים של טריליוני מילים, גם טיפה אחת של רעל יכולה להספיק כדי לשבש התנהגות.

 

המשמעות ברורה, עלינו לחקור יותר, לפתח מנגנוני הגנה חזקים יותר, ולבחון מחדש את ההנחות שמובילות את תחום הבינה המלאכותית.

 

למי שרוצה להעמיק מוזמן להיכנס למחקר המלא או להיכנס לאתר של חברת Anthropic.

הפוסט טיפת רעל בים המילים: איך מודלי AI משתבשים בקלות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/poison-llms/feed/ 0
גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא https://letsai.co.il/google-health-navigation/ https://letsai.co.il/google-health-navigation/#respond Sun, 19 Oct 2025 08:21:03 +0000 https://letsai.co.il/?p=62012 מה קורה כשצ’אטבוט לא רק עונה, אלא גם שואל? נניח שיש לכם כאב ראש מתמשך. אתם מחפשים בגוגל “כאב ראש כרוני” ומקבלים עשרות מאמרים על מיגרנה, לחץ דם גבוה, גידולים במוח ומתח. אף אחד מהם לא שואל אתכם האם הכאב מופיע בצד אחד? האם יש רגישות לאור? האם זה מחמיר בלילה? התוצאה היא שפע של […]

הפוסט גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה קורה כשצ’אטבוט לא רק עונה, אלא גם שואל? נניח שיש לכם כאב ראש מתמשך. אתם מחפשים בגוגל “כאב ראש כרוני” ומקבלים עשרות מאמרים על מיגרנה, לחץ דם גבוה, גידולים במוח ומתח. אף אחד מהם לא שואל אתכם האם הכאב מופיע בצד אחד? האם יש רגישות לאור? האם זה מחמיר בלילה? התוצאה היא שפע של מידע, אבל מעט רלוונטיות. בינה מלאכותית שיחתית היא אחד הכיוונים הבולטים בעולם ה־AI עם מערכות שכבר לא מסתפקות בלספק מידע, אלא יוזמות דיאלוג כדי להבין את המשתמש טוב יותר. Google מפתחת בשנים האחרונות סדרת כלים רפואיים מבוססי Gemini, בהם Med-Gemini, שמפרש נתונים רפואיים רב-מודליים, ו-AMIE, שנועד לשיחות אבחון קליניות. בספטמבר 2025 חשפה חטיבת המחקר שלה אב-טיפוס חדש בשם Wayfinding AI, שבמקום להמטיר תשובה מיידית, מתחיל בשאלות, ממש כפי שעושה רופא.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה כל כך קשה לתאר בעיה רפואית?

בראיונות עם 33 משתתפים, החוקרים גילו תופעה שחוזרת על עצמה – אנשים מתקשים להסביר מה בדיוק מטריד אותם. אחד המשתתפים תיאר זאת כך: “אני פשוט זורק את כל המילים לשם ורואה מה חוזר”.

 

בלי רקע רפואי, קשה לדעת אילו פרטים באמת חשובים. האם הכאב מופיע לפני או אחרי אכילה? האם הוא מחמיר במהלך היום? רופא יודע לשאול את השאלות הנכונות אבל רוב הצ’אטבוטים לא. הם פשוט מחכים שתספקו להם את כל המידע מראש.

 

כשמשתתפים התנסו בצ’אטבוטים שכן שואלים שאלות, התגובה הייתה כמעט אחידה – הם העדיפו את מה שהחוקרים כינו “גישה של תשובה נדחית”. כלומר, המערכת לא ממהרת לספק תשובה אלא מבקשת תחילה להבהיר את התמונה. כפי שאמר אחד המשתתפים: “זה מרגיש יותר כמו לדבר עם רופא. זה גורם לי להרגיש בטוח יותר שהוא באמת מנסה להבין לפני שהוא עונה.”

 

כדי להבין באמת איך זה נראה בפועל, Google פרסמה סרטון הדגמה קצר מתוך ממשק ה־Wayfinding AI:

 

 

 

איך זה עובד?

Wayfinding AI מבוסס על מודל Gemini של Google ופועל לפי שלושה עקרונות פשוטים אך חכמים.

 

ראשית, בכל שלב המערכת שואלת עד שלוש שאלות ממוקדות כדי לצמצם אי-בהירות ולהבין טוב יותר את ההקשר. שנית, היא נותנת תשובת “מיטב המאמצים” (best-effort answer), תשובה זמנית המבוססת על המידע הקיים באותו רגע, ומדגישה שהיא עשויה להשתפר ככל שיתווספו פרטים נוספים.

 

לדוגמה, אם משתמש כותב “אני מרגיש סחרחורת כבר יומיים”, Wayfinding AI לא תמהר לקבוע שמדובר בוורטיגו, אלא תשיב: “בהתבסס על מה שסיפרת, ייתכן שמדובר בבעיה באוזן הפנימית או בלחץ דם נמוך. אוכל לדייק יותר אם תספר מתי זה קורה ובאילו מצבים.”

 

לבסוף, המערכת מסבירה למשתמש כיצד כל פרט חדש – זמן הופעת הסימפטום, גורמים מחמירים, או תסמינים נלווים – שיפר את איכות התשובה.

 

גם לעיצוב יש תפקיד משמעותי. הממשק מחולק לשני חלקים: בצד שמאל השיחה והשאלות, ובצד ימין המידע הרפואי. החלוקה הברורה הזו נולדה מתוך תובנה שהחוקרים זיהו – כששאלות קבורות בתוך טקסטים ארוכים, המשתמשים פשוט לא מבחינים בהן.

מה קרה כשבדקו את זה באמת

Google בחנה את Wayfinding AI בקרב 130 משתתפים אמריקאים בני 21 ומעלה, שאינם אנשי מקצוע בתחום הבריאות. כל משתתף התבקש להשתמש הן במערכת החדשה והן בגרסה הרגילה של Gemini כדי לחקור שאלה רפואית אמיתית שמעסיקה אותו, החל מכאבי צלעות וורטיגו, ועד עלייה מסתורית במשקל או טינטון.

 

אילוסטרציה של מבנה המחקר

Source: research.google | אילוסטרציה של מבנה המחקר.

 

התוצאות היו חד-משמעיות – המשתתפים העדיפו את Wayfinding AI כמעט בכל פרמטר, מתועלת ורלוונטיות, דרך התאמה אישית והבנת מטרות המשתמש, ועד נוחות השימוש והיעילות.

 

תרשים שפרסמה Google ממחיש היטב את פערי ההעדפות הללו בין שתי המערכות:

 

העדפות המשתתפים בין Wayfinding AI לגרסת הבסיס של Gemini

Source: research.google | העדפות המשתתפים בין Wayfinding AI ל- Gemini.

 

מעניין שגם משך השיחות השתנה – השיחות עם Wayfinding AI נמשכו בממוצע כמעט חמישה סבבים (4.96) של שאלות ותשובות, לעומת שלושה בלבד (3.29) במערכת הרגילה. במקום לראות בכך בזבוז זמן, המשתתפים דיווחו שהם מרגישים מעורבים יותר, כאילו המערכת באמת מקשיבה להם. בנוסף, כשה-AI שאל שאלות ממוקדות, המשתתפים סיפקו מידע מדויק ורלוונטי יותר, לעיתים כזה שלא היו חושבים להזכיר בכלל.

 

בתרשים הבא ניתן לראות את זרימת הדיאלוגים עם שני סוגי המודלים – הצ’אטבוט הבסיסי לעומת Wayfinding AI. הכחול מסמן את התשובות לשאלות הבהרה, שלב שהתרחש בתדירות גבוהה הרבה יותר בשיחות עם Wayfinding AI:

 

תרשים של זרימת השיחות עם Wayfinding AI

Source: research.google | תרשים של זרימת השיחות עם Wayfinding AI.

מה עדיין לא עובד

למרות ההצלחה, מדובר באב-טיפוס מחקרי בלבד ולא במוצר מוכן לשוק. Google לא הודיעה אם או מתי יושק לציבור. החוקרים מדגישים שהביצוע הוא הכול. ברגע שהשאלות מנוסחות בצורה גרועה, כללית מדי או מוצגות במיקום לא ברור, המעורבות של המשתמשים צונחת. גישת השאלות עובדת רק כשהשאלות באמת טובות, מדויקות ורלוונטיות.

 

למחקר יש גם מגבלות גיאוגרפיות ותרבותיות. הוא כלל רק משתתפים אמריקאים, ולכן לא ברור כיצד המערכת תתפקד במדינות אחרות, עם שפות, נורמות תקשורת והרגלי בריאות שונים.

 

 

חיפוש רפואי חכם, רגיש ואישי

המחקר של Google הראה עיקרון פשוט אך משמעותי – כשבינה מלאכותית שואלת שאלות ממוקדות וחכמות, היא מספקת תשובות מדויקות ורלוונטיות יותר. זה לא קסם טכנולוגי, זו אותה מתודולוגיה שרופאים משתמשים בה כבר שנים – לשאול לפני שקובעים. הגישה הזו מתאימה במיוחד למי שמתקשה לנסח סימפטומים או מרגיש מוצף ממידע רפואי כללי. לעומת זאת, היא פחות תועיל בשאלות פשוטות וברורות, או למי שמעדיף תשובה מיידית ולא תהליך שיח.

 

האתגר האמיתי הוא לא בפיתוח המודל אלא בשמירה על איכות השיח והדיוק בשאלות בקנה מידה רחב. מספיק שאלה אחת לא מדויקת כדי לערער את תחושת האמון. המחקר הראה שזה אפשרי, אבל רק כשזה מבוצע היטב. בינתיים, מדובר עדיין באב-טיפוס מחקרי, אבל הכיוון ברור – בינה מלאכותית שמדברת איתכם, לא רק אליכם, עשויה להפוך את החיפוש הרפואי לחכם, רגיש ואישי הרבה יותר.

הפוסט גוגל חושפת מערכת שמלמדת את הצ’אטבוט לשאול שאלות כמו רופא הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/google-health-navigation/feed/ 0
האם מודל זעיר חושב חכם יותר ממודל גדול? https://letsai.co.il/tiny-thinking-network/ https://letsai.co.il/tiny-thinking-network/#respond Wed, 15 Oct 2025 06:43:20 +0000 https://letsai.co.il/?p=61804 עולם הבינה המלאכותית רגיל למדוד הצלחה בגודל – יותר שכבות, יותר כוח מחשוב, יותר פרמטרים. אבל מחקר חדש טוען ההפך – לפעמים דווקא הקטנים חושבים טוב יותר. למה מודלים חכמים שמסכמים מאמרים וכותבים קוד נכשלים בחידת סודוקו פשוטה? כי הם עונים ברצף אחד ארוך, בלי לעצור, לבדוק ולתקן. בני אדם, לעומת זאת, פותרים צעד אחר […]

הפוסט האם מודל זעיר חושב חכם יותר ממודל גדול? הופיע ראשון בLet's AI בינה מלאכותית

]]>
עולם הבינה המלאכותית רגיל למדוד הצלחה בגודל – יותר שכבות, יותר כוח מחשוב, יותר פרמטרים. אבל מחקר חדש טוען ההפך – לפעמים דווקא הקטנים חושבים טוב יותר. למה מודלים חכמים שמסכמים מאמרים וכותבים קוד נכשלים בחידת סודוקו פשוטה? כי הם עונים ברצף אחד ארוך, בלי לעצור, לבדוק ולתקן. בני אדם, לעומת זאת, פותרים צעד אחר צעד, עם מחיקות, ניסיונות חוזרים ותיקונים. החוקרת Alexia Jolicoeur-Martineau ממעבדת הבינה המלאכותית של Samsung במונטריאול הצליחה ללמד רשת קטנה לחשוב באותה צורה, וכשהיא עשתה את זה, קרה דבר מפתיע – היא עקפה מודלים גדולים פי מאה אלף ממנה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

כשחוכמה גדולה נתקעת על חידות קטנות

מודלי שפה גדולים כמו ChatGPT, Gemini  ו-Claude יודעים לכתוב קוד, לסכם מאמרים ולנהל שיחות מורכבות, אבל כשמעמידים אותם מול חידות לוגיות פשוטות לכאורה, כמו סודוקו או מבוכים, הם עדיין מתקשים. הם חושבים ב“קו ישר“ – מייצרים תשובה בניבוי קדימה (forward pass), מילה אחרי מילה ושלב אחרי שלב, בלי לעצור ולבדוק אם ההיגיון עדיין נכון. טעות מוקדמת גוררת שרשרת טעויות בהמשך.

 

הקושי הזה נחשף במיוחד במבחן ARC-AGI – סדרת חידות חזותיות שנועדה לבדוק אם מודלים באמת “מבינים” דפוסים חדשים, ולא רק משננים דוגמאות. בגרסה הראשונה של המבחן (ARC-AGI-1), מודל o3 של OpenAI השיג תוצאות מרשימות – כ-75.7% בתצורת חישוב מוגבלת, ועד 87.5% בתצורת חישוב גבוהה. אבל בגרסה המתקדמת יותר (ARC-AGI-2), שמודדת יצירתיות ויכולת למידה אמיתית, כמעט כל המודלים נתקעים סביב אחוזים בודדים בלבד. לדוגמה, Gemini 2.5 Pro (Preview) הגיע לכ-3.8%, ו-o3-pro (high) ל-4.9% בלבד – נתונים שממחישים עד כמה גם המערכות המתקדמות בעולם עדיין מתקשות באמת “להבין” ולא רק “לחזות”.

 

במילים פשוטות, למרות ההתקדמות המרשימה, רוב המודלים הגדולים עדיין לא באמת “חושבים”. הם מעולים בזיכרון, בחיזוי ובשפה, אבל לא בהיגיון הדרגתי ובתיקון עצמי בזמן אמת.

לחשוב בלולאות

כדי להתגבר על המגבלה הזו של היעדר היכולת “לחשוב בלולאות”, חוקרים ניסו לפתח ארכיטקטורות חדשות שמדמות תהליך חשיבה אנושי אמיתי. אחת מהניסיונות הבולטים הייתה מודל בשם HRM (Hierarchical Reasoning Model), מודל חשיבה היררכי שניסה לשלב שתי רשתות נוירונים שפועלות בתדרים שונים: אחת “מהירה” ואחת “איטית”. הרעיון היה חכם, אבל היישום היה מסורבל. HRM כלל 27 מיליון יחידות למידה, נשען על תיאוריה מתמטית מורכבת, והצדיק את עצמו בהסברים ביולוגיים שהיו קשים להבנה גם למומחים.

 

החוקרת Alexia Jolicoeur-Martineau שאלה שאלה פשוטה: האם באמת צריך את כל זה? היא לקחה את אותו רעיון בסיסי, רשת שחושבת בלולאות, ופישטה אותו לחלוטין. כך נולד Tiny Recursive Model (TRM): רשת אחת, קטנה, שחוזרת על עצמה עד 16 פעמים. בכל סיבוב היא בוחנת את השאלה, את התשובה הנוכחית ואת “הערות לעצמה” מהפעמים הקודמות, ומשפרת את הפתרון בהדרגה.

כשפשטות גוברת על כוח

שני עקרונות פשוטים הופכים אותה ליעילה במיוחד:

1. משוב בשלבים (Deep Supervision) – בכל שלב המודל מקבל רמז אם הוא מתקרב לתשובה הנכונה, ממש כמו במשחק “קר-חם”, שבו אתה יודע שאתה בדרך הנכונה כששומעים “חם… חם יותר”.

2. החלטה מתי לעצור (ACT) – אם התשובה כבר נכונה אחרי שלושה סבבים, הוא מפסיק ולא מבזבז חישובים. כך הוא מספיק להתאמן על יותר דוגמאות שונות ולומד מהר יותר.

 

התוצאות מדברות בעד עצמן – TRM הזעיר, עם כ-7 מיליון יחידות למידה בלבד, הגיע ל-44.6% ב-ARC-AGI-1 ול-7.8% ב-ARC-AGI-2. בגרסה קטנה עוד יותר של 5 מיליון יחידות, הוא פתר חידות סודוקו קשות בדיוק של 87.4%, והצטיין גם במבוכים עם 85.3%, לעומת 74.5% של HRM הגדול.

 

הפשטות הזו לא רק חוסכת כוח מחשוב, היא גם מוכיחה שמחשבה מחזורית קטנה יכולה להביס כוח גולמי עצום.

למה זה חשוב

המחקר הזה מערער על אחת ההנחות העמוקות ביותר בעידן הבינה המלאכותית והוא שגודל שווה אינטליגנציה. כשניסו להגדיל את הרשת משתי שכבות לארבע שכבות, הביצועים דווקא הידרדרו. יותר פרמטרים לא הביאו להבנה טובה יותר, רק לזיכרון עמוק יותר.

 

TRM מציע אלטרנטיבה: עומק שנוצר לא מנפח, אלא מחזרות חכמות. הוא לומד בהדרגה, מתקן את עצמו, ומגיע לתוצאה מדויקת יותר, בדיוק כפי שבני אדם עושים כשאנחנו חושבים. היתרון אינו רק רעיוני אלא גם מעשי. רשת זעירה כזו יכולה לרוץ על מחשב נייד רגיל או אפילו על טלפון, בלי צורך בחיבור לענן ובלי לצרוך כמויות עצומות של חשמל. זה שינוי משמעותי בעידן שבו מודלים ענקיים דורשים חוות שרתים שלמות וצריכת אנרגיה של מדינות קטנות.

 

ובעומק הדברים – זה שינוי כיוון מחשבתי. במקום להוסיף שכבות, TRM מוסיף דרך חשיבה: הוא חוזר, בוחן, משפר, ומחליט מתי לעצור. זהו עקרון פשוט שמזכיר את האופן שבו המוח האנושי לומד, ומרמז על דור חדש של AI שמצליח לא רק “לדעת”, אלא גם להבין.

 

היישומים פותחים אופקים חדשים – הוכחות מתמטיות, תכנון תנועות רובוטים, ניפוי באגים בקוד – כל משימה שבה נדרשת חשיבה מדויקת יותר מידע רחב. אבל אולי החשוב מכל, המחקר הזה מזכיר לנו שהאינטליגנציה האמיתית לא תמיד נמדדת בכמות, אלא באיכות החשיבה.

לא שיחה, אלא חשיבה

TRM הוא לא מודל כללי לשיחות, כתיבה או יצירת טקסט. הוא אומן על שאלות שיש להן תשובה אחת נכונה, כמו סודוקו ומבוכים, ולכן אינו מתאים למשימות פתוחות או דמיון חופשי. אבל זו לא חולשה, זו בחירה – הוא נבנה כדי לחשוב בצורה ממוקדת, צעד אחרי צעד, ולא לזרוק רעיונות באוויר. זה לא מוח שמדבר, זה מוח שבוחן, מתקן ומגיע למסקנה. כלי מדויק לחשיבה, לא לשיחה.

 

 

לסיכום, המחקר של Alexia Jolicoeur-Martineau מזכיר עיקרון פשוט אבל מהפכני – כדי לחשוב חכם יותר, לא צריך בהכרח לחשב יותר. רשת זעירה אחת, שחוזרת על עצמה ולומדת מתוך תהליך החשיבה שלה, יכולה לנצח מערכות ענקיות פי מאה אלף ממנה. ההתקדמות הבאה בבינה מלאכותית תגיע כנראה פחות מהוספת שכבות ושרתים, ויותר מהבנה עמוקה של איך חשיבה אמיתית באמת עובדת – גם אצל מכונות, וגם אצלנו.

 

למי שרוצה לצלול לעומק – המחקר המלא זמין כאן.

הפוסט האם מודל זעיר חושב חכם יותר ממודל גדול? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/tiny-thinking-network/feed/ 0
בינה מלאכותית יוצרת וירוסים חדשים במעבדה https://letsai.co.il/ai-virus-research-breakthrough/ https://letsai.co.il/ai-virus-research-breakthrough/#respond Wed, 08 Oct 2025 13:31:41 +0000 https://letsai.co.il/?p=61491 האם המחשב כותב את קוד החיים? זה אולי נשמע כמו מדע בדיוני, אבל זה קרה באמת. חוקרים מאוניברסיטת סטנפורד הצליחו לגרום לבינה מלאכותית לכתוב קוד גנטי חדש, שסונתז והפך במעבדה לוירוסים פעילים. לא מדובר בהדמיה או בניסוי מחשבתי, זה DNA אמיתי שהוכנס לחיידקים ויצר וירוסים חדשים לגמרי. חלק מהם אפילו הראו יעילות גבוהה יותר מהוירוס […]

הפוסט בינה מלאכותית יוצרת וירוסים חדשים במעבדה הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם המחשב כותב את קוד החיים? זה אולי נשמע כמו מדע בדיוני, אבל זה קרה באמת. חוקרים מאוניברסיטת סטנפורד הצליחו לגרום לבינה מלאכותית לכתוב קוד גנטי חדש, שסונתז והפך במעבדה לוירוסים פעילים. לא מדובר בהדמיה או בניסוי מחשבתי, זה DNA אמיתי שהוכנס לחיידקים ויצר וירוסים חדשים לגמרי. חלק מהם אפילו הראו יעילות גבוהה יותר מהוירוס שממנו למדה הבינה המלאכותית. במאמר הזה נגלה איך בדיוק עשו את זה, מה גילתה הבינה המלאכותית על חוקי החיים, ואיך התגלית הזו עשויה לשנות את הדרך שבה ניצור מדע, ואולי בעתיד, גם חיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך עושים דבר כזה?

כדי להבין את גודל הרגע, צריך להתחיל מהבסיס. מה זה וירוס בכלל? וירוס הוא יחידה ביולוגית זעירה שמזינה את עצמה רק כשהיא מתרבה בתוך יצור אחר. במחקר הזה מדובר בבקטריופאג’ים – וירוסים שתוקפים חיידקים. הם לא מדביקים בני אדם, ושימושם במחקר ובטיפולים בחיידקים קיים כבר שנים.

ללמד מחשב את “שפת החיים”

החוקרים לקחו מודל בינה מלאכותית מבוסס שפה – בדומה ל-ChatGPT מבחינת הרעיון – אבל במקום טקסט באנגלית לימדו אותו את “השפה” של ה-DNA: רצפים של ארבע אותיות בלבד (A, C, G, T).

המודל עבר אימון על מיליוני רצפי וירוסים ולמד מהם דפוסים ו”כללי דקדוק” של גנומים: איפה נוטים להתחיל גנים, אילו רצפים נראים תקינים, ואיך בנוי גנום שעובד.

 

לאחר מכן החוקרים נתנו למודל נקודת פתיחה קצרה – כמה אותיות מתוך וירוס מוכר בשם ΦX174, וביקשו ממנו להשלים את הרצף. התוצאה היתה מאות הצעות של “ספרי הוראות” גנטיים חדשים.

מהמחשב למעבדה

אחרי אלפי ניסיונות וניתוחים ממוחשבים, החוקרים בחרו כ-300 גנומים שהמודל הציע ונראו בעלי מבנה סביר. את הרצפים האלה הם סינתזו ל-DNA אמיתי והחדירו לחיידקים במעבדה, כדי לבדוק אם ייווצר וירוס פעיל. מתוך 285 רצפים שהצליחו לסנתז, 16 עבדו בפועל – כלומר יצרו וירוסים שהדביקו חיידקים. זה אולי נשמע מעט, אבל במונחים של גנום שלם שנכתב מאפס, זו פריצת דרך של ממש.

מה גילו?

1. חלק מהווירוסים היו יעילים יותר מהמקור

אחד הוירוסים החדשים, Evo-Φ69, התרבה מהר יותר מהווירוס המקורי ΦX174. אחר, Evo-Φ2483, השמיד אוכלוסיית חיידקים בזמן קצר יותר. זה לא אומר שהבינה המלאכותית “המציאה וירוס טוב יותר מהטבע”, אבל כן שהיא הצליחה לזהות שילובים יציבים ויעילים של גנים – הישג שאפילו מדענים מנוסים מתקשים בו.

2. חלקם שונים מאוד מכל מה שהמדע הכיר

אחד הווירוסים שתוכננו היה דומה רק ב-93% לקרוב הידוע ביותר במאגרים המדעיים. בעולם הוירולוגיה, רמת דמיון כזו נחשבת אינדיקציה למין חדש של וירוס. במילים פשוטות, האלגוריתם לא העתיק את מה שלמד, הוא יצר גרסאות ביולוגיות חדשות לגמרי, ששמרו על יכולת פעולה אמיתית.

3. פתרונות שבעבר נחשבו בלתי אפשריים

בעבר ניסו מדענים לשלב גן ממין אחד של וירוס באחר, אבל הוירוס לא הצליח לפעול. אחד הוירוסים שתכנן ה-AI, Evo-Φ36, הצליח לעשות זאת באופן טבעי כחלק מתכנון כולל של הגנום. כנראה שהמודל “חישב” את מכלול השינויים הדרושים כדי שהגן הזר ישתלב במערכת, והצליח לפתור בעיה ביולוגית שעמדה פתוחה במשך שנים.

למה זה בכלל חשוב?

המחקר הזה הוא לא רק הישג טכנולוגי מרשים, הוא הוכחה עקרונית שקוד החיים עצמו ניתן לתכנון ממוחשב. עד היום יכולנו רק לערוך DNA קיים, למשל בעזרת טכנולוגיה שנקראת CRISPR – מערכת מולקולרית שפועלת כמו מספריים ביולוגיות ומאפשרת לחתוך ולהחליף גנים קיימים.

 

במחקר הנוכחי מדובר בצעד אחר לגמרי – לא עריכה של מה שקיים, אלא כתיבה של גנום חדש מאפס – על פי מטרה שהוגדרה מראש. זו התחלה של עידן שבו מדענים יכולים לבקש ממחשב לא רק “לשנות” גנים, אלא להציע יצורים מיקרוסקופיים חדשים לגמרי, בעלי תפקוד ייעודי.

המשמעות המעשית הראשונה

אחת ההשלכות המיידיות נוגעת לתחום שנקרא Phage Therapy – טיפול בזיהומים חיידקיים בעזרת וירוסים שתוקפים חיידקים (פאג’ים). אם נוכל לייצר פאג’ים מותאמים אישית לחיידקים עמידים, נוכל להתמודד עם אחת הבעיות הרפואיות הדוחקות בעולם – עמידות לאנטיביוטיקה.

 

במחקר הזה הופיע רמז מעשי לכיוון הזה. כאשר החוקרים שילבו את כל 16 הפאג’ים החדשים ל”קוקטייל” אחד, הם הצליחו להשמיד שלושה זנים של חיידקים שפיתחו עמידות לפאג’ המקורי. במילים אחרות, המגוון שיצרה הבינה המלאכותית הפך ליתרון ביולוגי.

ומה לגבי הסכנות?

שאלה חשובה, והיא בלב השיח סביב התחום הזה.

  • בטיחות: הפאג’ים שנוצרו תוקפים רק חיידקים, לא בני אדם.

  • היקף האימון: המודלים לא נחשפו לווירוסים אנושיים או לחומר גנטי מסוכן – האימון הוגבל אך ורק לפאג’ים בטוחים.

  • שקיפות: החוקרים פרסמו את כל השיטות והנתונים כדי לעודד פיקוח ציבורי ומדעי.

עם זאת, גם החוקרים עצמם מדגישים שהתקדמות מסוג זה מחייבת רגולציה חכמה, שקיפות ובקרה אתית קפדנית. ככל שהיכולת לכתוב גנומים מתפתחת, כך גדלה גם האחריות להשתמש בה בזהירות.

איך זה ישנה את העתיד שלנו

היום הצליחו החוקרים עם וירוס קטן – בערך 5,000 אותיות DNA בלבד. בעתיד, ייתכן שנוכל לכתוב גנומים של יצורים מורכבים יותר – חיידקים שלמים, שמרים, ואולי אפילו תאים שתוכננו מראש לביצוע משימות רפואיות או סביבתיות. זה לא יקרה מחר בבוקר. זה דורש טכנולוגיות מתקדמות לסינתזה, רמות בטיחות חדשות, ודיון ציבורי מעמיק. אבל הכיוון כבר ברור: אנחנו נכנסים לעידן שבו בינה מלאכותית לא רק מבינה חיים, היא לוקחת חלק בכתיבתם.

 

המחקר הזה הוא צעד ראשון במעבר מעולם שבו אנחנו קוראים ומתקנים גנומים לעולם שבו נוכל לתכנן וליצור אותם. זו לא “סוף האבולוציה”, אלא אבולוציה חדשה מסוג אחר – כזו שבה אדם ומכונה עובדים יחד כדי לכתוב את “ספר החיים” של העתיד.

 

למחקר המלא כנסו כאן.

הפוסט בינה מלאכותית יוצרת וירוסים חדשים במעבדה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-virus-research-breakthrough/feed/ 0
האם ה-AI Slop יהרוס לנו את האינטרנט? https://letsai.co.il/ai-slop/ https://letsai.co.il/ai-slop/#respond Wed, 08 Oct 2025 05:19:49 +0000 https://letsai.co.il/?p=61470 גם אתם מרגישים לאחרונה שאתם טובעים בתוכן שנראה מבריק מבחוץ אבל מרוקן מבפנים? שגלילה אחת ברשת חושפת אינספור סרטונים, מאמרים ותמונות שנוצרו על ידי מכונה ולא על ידי אדם? שפתאום קשה לדעת מה אמיתי ומה נוצר רק כדי לגנוב לכם כמה שניות של תשומת לב? נדמה שכל פוסט, קליק או סרטון הם חלק ממבול אינסופי […]

הפוסט האם ה-AI Slop יהרוס לנו את האינטרנט? הופיע ראשון בLet's AI בינה מלאכותית

]]>
גם אתם מרגישים לאחרונה שאתם טובעים בתוכן שנראה מבריק מבחוץ אבל מרוקן מבפנים? שגלילה אחת ברשת חושפת אינספור סרטונים, מאמרים ותמונות שנוצרו על ידי מכונה ולא על ידי אדם? שפתאום קשה לדעת מה אמיתי ומה נוצר רק כדי לגנוב לכם כמה שניות של תשומת לב? נדמה שכל פוסט, קליק או סרטון הם חלק ממבול אינסופי של טקסטים ותמונות חסרי נשמה. לתופעה הזו קוראים AI Slop והיא יכולה לשנות מקצה לקצה את האינטרנט – ובכלל לא בטוח שלטובה!

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מה זה בעצם “AI Slop”?

המונח “AI Slop” מתאר את התוכן הנמוך, הממוחזר והמג’ונרט, שמציף את הרשת: מאמרים חסרי נשמה, סרטונים חסרי ערך, מוזיקה שנשמעת מוכרת מדי, ספרים מג’ונרטים שנכתבים על-ידי בוטים בהמוניהם, ואפילו חדשות שנכתבות ללא עיתונאי אמיתי מאחוריהן. זוהי למעשה שכבה עצומה של מידע סינתטי שנוצרת באמצעות כלים של בינה מלאכותית גנרטיבית (Generative AI) – אותם מנגנונים שיודעים “להמציא” טקסט, תמונה, צליל או וידאו חדשים על בסיס דוגמאות קיימות. חשוב לציין – אנחנו לא מדברים על תכנים שנוצרו בסיוע של AI בתהליך היצירה שלהם, אלא על תכנים שנוצרים בצורה אוטומאטית לגמרי, לרוב כמעט ללא מעורבות יד אדם. תכנים שמועברים באמצעות אוטומציות ליוטיוב, ספוטיפיי, לינקדאין ועוד. 

 

מסתבר שהבינה היוצרת (Gen AI), יוצרת קצת יותר מדי! מחקרים חדשים מראים שבאזורים מסוימים של האינטרנט, אחוז התוכן שנוצר על ידי מכונות כבר חוצה את הסף המדאיג: מחקר שפורסם ב-2025 מצא כי כ-40% מהפוסטים החדשים ב-Quora וב-Medium הם ככל הנראה תוצר של AI. מדובר בקפיצה של עשרות אחוזים בתוך שנתיים בלבד – והכיוון ברור.

 

חצי מהאינטרנט הוא לא אנושי

אם נדמה היה שהרשת עמוסה בפרסומות ובספאם עוד לפני עידן ה-AI, הרי שכיום רוב מה שאנחנו רואים, קוראים ומקשיבים לו כבר לא נכתב על ידי בני אדם. לפי דו”ח Imperva לשנת 2025, כמחצית מהטראפיק ברשת כולה מופק על-ידי בוטים, וחלק גדול מהם משמשים למטרות הרסניות כמו גניבת מידע, מניפולציות על חשבונות ויצירת תעבורה מזויפת.

התוצאה: מציאות שבה קשה לדעת מי עומד מאחורי כל קליק או תגובה – אדם אמיתי, או מכונה שתוכנתה לחקות אחד כזה? התמונה הזו מקבלת מימד נוסף כשנזכרים שהבוטים עצמם משתמשים באלגוריתמים מבוססי AI כדי להיראות “אנושיים” יותר.

 

פייק ניוז על סטרואידים!

יצירת תוכן הייתה בעבר ביטוי ליצירתיות אנושית – כתיבה, ציור, מוזיקה או צילום דרשו השקעה, מחשבה וידע. היום, כל אחד יכול לייצר “ספר” בלחיצת כפתור. מחקר של Originality.AI משנת 2024 מצא שיותר ממחצית מהפוסטים הארוכים ב-LinkedIn כבר נוצרו על ידי AI. וזה היה שנה שעברה – המצב היום חמור הרבה יותר!

 

באמזון, תופעת הספרים המזויפים (כאלה שנכתבו על ידי AI ומתחזים לכותבים אמיתיים) הפכה לאיום ממשי על סופרים בשר ודם. החברה נאלצה להגביל את מספר הספרים שניתן לפרסם ביום לשלושה בלבד. אפילו העיתונות המקוונת סובלת: אתרי חדשות שמופעלים כמעט לגמרי על ידי תוכנות כתיבה אוטומטיות כבר הפכו למציאות קיימת. לפי דו”ח של NewsGuard משנת 2025, קיימים כיום מעל 1,200 אתרי חדשות מזויפים שמופעלים בידי AI, ומפיצים מידע שקרי בשפות רבות ברחבי העולם. וכשרשתות תעמולה שכאלה מופעלים על ידי משטרים מפוקפקים (כן פוטין… אני מסתכל עליך), התוצאה יכולה להיות הרסנית – הנדסת תודעה בקנה מידה נרחב! אם זה מעניין אתכם, כתבנו מאמר שלם בנושא רשתות דיסאינפורמציה פרו-קרמליניות, מבוססות AI. כשמשלבים את זה עם LLM Grooming, אותם תכני AI מוצאים את דרכם למאגרי האימון של מודלי השפה, שממשיכים להדהד את המסרים השקריים. 

 

למה התכנים הללו כל כך משכנעים? חלק מהבעיה טמון באשליה. תוכן שנוצר על ידי בינה מלאכותית נראה חכם, מדויק ומשכנע. למה? בעיקר כי הוא מאוד “בטוח בעצמו”. הוא כותב בשפה סמכותית, משלב עובדות אמיתיות עם עובדות אחרות שהוא בדה ממוחו הקודח, וכל זה משאיר רושם של אמינות.

 

מוזיקה סינתטית וספוטיפיי מוצף בזיופים

הבעיה אינה מוגבלת לטקסט בלבד. גם עולם המוזיקה עובר שינוי דרמטי. להקות שמעולם לא היו קיימות מצליחות להגיע למיליוני האזנות, ורק לאחר מכן מתגלה שהן נוצרו לחלוטין באמצעות בינה מלאכותית – מהמילים ועד לתמונת היח”צ. עם כלים כמו Suno ו-Udio כל כך קל לייצר היום מוזיקה מג’ונרטת. וכן – זה נשמע טוב! דוגמה בולטת היא הלהקה Velvet Sundown, שכבשה את Spotify עם למעלה ממיליון האזנות לפני שהתברר שמדובר בפרויקט מלאכותי.

 

the Velvet Sundown

מיליוני צפיות: the Velvet Sundown בספוטיפיי.

 

טכנולוגיות GenAI מאפשרות היום אפילו להחזיר אמנים מן המתים – כך עפרה חזה וזוהר ארגוב חזרו לדואט מרגש ביום העצמאות 2023, שנים לאחר מותם.

 

 

אמנם במקרה הזה לא מדובר ב-AI Slop, אלא בתוכן שהופק בקפידה, ונעשה בשיתוף עם משפחותיהם של זמרי-העל הישראליים, אבל הוא ממחיש את הקלות הבלתי נסבלת שבה תוכן סינטטי “עובר” כאמיתי. כל הסיפור הזה מציף שאלות פילוסופיות – האם זה מוסרי? האם מותר להשתמש בקולו של אדם לאחר מותו? וגם אם הכל 100% AI – מה זה בעצם אומר ש”התאהבתי” בשיר AI? האם תוצרי AI יכולים להתחרות בתוצרים של אמנים אנושיים? או שאולי אנחנו צריכים לשאול שאלה הפוכה – האם ליוצרים אנושיים יהיה את הכוח, המשאבים ואורך הרוח להתחרות בתוצרי AI שרק ילכו ויהפכו ליותר ויותר איכותיים, קליטים ומהפנטים?

 

הבעיה חמורה עוד יותר כשמוזיקה כזו משמשת להונאות תמלוגים. אמנים מזויפים מעלים אלפי שירים לאותן פלטפורמות, ומפעילים בוטים שמנגנים אותם שוב ושוב. מדובר בתעשייה של מאות מיליוני דולרים שמחסלת בפועל את ההכנסות של מוזיקאים אמיתיים ומייצרת בעיות אמיתיות לשירותי הסטרימינג.

 

גוגל כבר לא מפנה לאתרים

עד לא מזמן, האינטרנט פעל על עיקרון פשוט: אתרים מייצרים תוכן, גולשים מוצאים אותו דרך גוגל, וגוגל מחלקת את התנועה בהתאם לרלוונטיות. אך מאז השקת מנגנון “AI Overview” של גוגל, המערכת מסכמת בעצמה את המידע ומציגה את התשובה ישירות בדף החיפוש. לכאורה מדובר בנוחות מרבית, אך בפועל, אתרי תוכן מאבדים תנועה והכנסות. לפי מחקר של Bain & Company, כ-80% מהמשתמשים צורכים כעת תוצאות “אפס קליקים” (Zero Clicks) – כלומר, הם מקבלים תשובה מה-AI ואינם מבקרים עוד באתרי המקור. המשמעות הכלכלית ברורה: פחות חשיפה, פחות פרסום, ופחות תוכן איכותי שנוצר בידי אנשים. להרחבה, קראו את המאמר שכתבתנו בנושא זה.

 

בתמונה: דו”ח של Similarweb שמראה את הירידה בהפניות האורגניות בגוגל (גולש שהקליק על כתבה והועבר לאתר חיצוני), אל מול העלייה בזירו קליקס (גולש ששאל שאלה בגוגל, וקיבל מיד תקציר AI, מבלי להמשיך לאתר חיצוני).

 

איך גוגל מפרקת את המודל הכלכלי של אתרי החדשות

Credit: Similarweb

 

כשהמוצר חינם – התוכן שלכם הוא המוצר!

כדי לייצר תוכן חדש, מערכות AI צריכות קודם “ללמוד” מתוכן קיים – וזהו לב הבעיה. החברות שמאחורי המודלים משתמשות באינספור טקסטים, תמונות וקטעי וידאו שפורסמו על ידי יוצרים אמיתיים, לרוב בלי ידיעתם או רשותם. ב-2025 נחשף כי Reddit מכרה את מאגר התגובות שלה לגוגל ול-OpenAI תמורת עשרות מיליוני דולרים בשנה. גם YouTube אושר כמאגר אימון עבור מודל הווידאו של גוגל, Veo3. במקביל, אמנים ב-DeviantArt גילו כי עבודותיהם שימשו כבסיס ליצירת תמונות סינתטיות שנמכרות חזרה בפלטפורמה.

היצירה האנושית הפכה לחומר גלם בחינם. ההכנסות זורמות לחברות, ולא לאמנים. לפי CISAC (הקונפדרציה הבינלאומית של אגודות היוצרים והמלחינים), יוצרי מוזיקה וקולנוע צפויים לאבד עד 22 מיליארד אירו בהכנסות עד 2028 כתוצאה מהשפעת הבינה היוצרת.

 

כש-AI מתחיל להאכיל את עצמו

כמות התוכן הסינתטי באינטרנט לא רק מזהמת את המרחב הציבורי, אלא גם מאיימת על עצם היכולת של המודלים להמשיך ללמוד. ככל שמערכות בינה מלאכותית ניזונות מתוכן שנוצר על ידי AI, כך האיכות שלהן מתדרדרת – תופעה שמכונה “אוטופגיה של בינה מלאכותית” (AI Autophagy). מחקר שפורסם בכתב העת Nature  מזהיר כי שימוש הולך וגובר בתוכן סינתטי כנתוני אימון יוביל ל”התמוטטות מודלים”: מצב שבו האלגוריתמים מאבדים את היכולת להבין מהו מידע אמיתי ומהו ג’ינרוט חסר ערך. כאשר מודלים מאמנים זה את זה על בסיס נתונים מלאכותיים, הם נוטים להיכשל בהבנת המשימה המקורית, ובכך למעשה “להשחית” את עצמם.

 

רובוט מקיא

אילוסטרציה: בוט שמאומן על תוכן שבוט אחר יצר.

 

גם המדע והמחקר בבעיה…

ההשפעה אינה נעצרת בגבולות המדיה או המסחר. גם המדע, אחד התחומים שהאמינות היא יסוד קיומו, מתחיל להיפגע. לפי מחקר שפורסם ב-Science Advances, לפחות 13.5% מהמאמרים הביו-רפואיים שפורסמו ב-2024 נכתבו או נערכו בעזרת AI, כאשר בתחומים מסוימים הנתון הגיע ל-40%. במאמר אחר שפורסם ב-Nature עלתה תופעה מדאיגה אף יותר – חוקרים שנתפסו “עם המכנסיים למטה” כשהם מסתירים פקודות סמויות (Prompt injection) בתוך מאמרים שכתבו, כדי לגרום למערכות ביקורת מבוססות AI להעניק להם ביקורת חיובית. התוצאה היא מערך מדעי שנשען יותר ויותר על כלים אוטומטיים שאפשר לשבש, להונות ולהשחית בקלות.

 

 

ומה יקרה אם לא נעצור?

התמונה המצטיירת עגומה: עולם שבו אין עוד ודאות מי כתב, מי צילם, מי שר, ומי בכלל אמיתי. תוכן סינתטי מזין את עצמו, והאינטרנט עלול להפוך לסביבה סגורה של שקרים, בלבול וערפול. אך המסקנה אינה בהכרח קטסטרופלית. כמו בכל טכנולוגיה, גם כאן נדרשת אחריות אנושית. מערכות בינה מלאכותית יכולות להפוך לכלי עבודה מופלאים,  אך רק אם נשכיל להשתמש בהן בזהירות, תוך שמירה על פיקוח, ייחוס ועריכה אנושית אמיתית. הבעיה אינה נעוצה במכונות, אלא באנשים שבוחרים להפעיל אותן בלי לעצור ולבדוק אם זה אחראי ומועיל (ובמועיל הכוונה – מועיל גם לשאר הציביליזציה האנושית, ולא רק לחשבון הבנק הפרטי שלהם). המודלים הגנרטיביים לא מבינים מהי אמת או מהו ערך, אך אנחנו כן. ואם נמשיך להאכיל את האינטרנט בתוכן ריק, הוא יחזיר לנו בדיוק את מה שנתנו לו – גרסה סינתטית ומעוותת של עצמנו.

 

האינטרנט התחיל כרשת אנושית של שיתוף ידע, יצירתיות וחיבורים אמיתיים. כדי לשמור עליו כזה, אנחנו נדרשים למאמץ מודע – עלינו להעדיף מקורות אמינים על פני סיכומי AI אוטומטיים. עלינו ליצור במקום לשכפל. ולרגע אל תבינו אותי לא נכון – אין שום בעיה להשתמש ב-AI. אבל אנחנו מאמינים שכל תוצר שנפלט ממערכת AI הוא רק חומר גלם, ולא מוצר סופי. בסופו של יום כדאי שיהיה בן אנוש בתחילת התהליך וגם בסופו. שמישהו עם מוח ודופק יהיה חתום עליו. 

הפוסט האם ה-AI Slop יהרוס לנו את האינטרנט? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-slop/feed/ 0
הקול בראש – SLED גורמת למודלי AI להקשיב לכל הקולות במוח שלהם https://letsai.co.il/sled/ https://letsai.co.il/sled/#respond Wed, 24 Sep 2025 15:30:15 +0000 https://letsai.co.il/?p=60785 עד כמה אפשר לסמוך על מה שה-AI אומר לנו? למרות הקפיצה המטאורית ביכולות של ג’מיניי (Gemini), ChatGPT, קלוד (Claude) ודומיהם, השיח סביב “הזיות” (hallucinations) במודלים הללו – כלומר, המצאות וביטחון מופרז בתשובות לא נכונות – רק הולך ומתגבר. מחקר חדש מבית Google מנסה להתמודד עם הבעיה מהשורש ומציע גישה רעננה: אולי הגיע הזמן שנקשיב לכל […]

הפוסט הקול בראש – SLED גורמת למודלי AI להקשיב לכל הקולות במוח שלהם הופיע ראשון בLet's AI בינה מלאכותית

]]>
עד כמה אפשר לסמוך על מה שה-AI אומר לנו? למרות הקפיצה המטאורית ביכולות של ג’מיניי (Gemini), ChatGPT, קלוד (Claude) ודומיהם, השיח סביב “הזיות” (hallucinations) במודלים הללו – כלומר, המצאות וביטחון מופרז בתשובות לא נכונות – רק הולך ומתגבר. מחקר חדש מבית Google מנסה להתמודד עם הבעיה מהשורש ומציע גישה רעננה: אולי הגיע הזמן שנקשיב לכל חלקי ה”מוח” של המודל,  ולא רק לתשובה (או לשכבה) האחרונה שהוא מספק. וזה בדיוק מה שעושה שיטת SLED.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

הבעיה: מודלים שממציאים, מתבלבלים ומפספסים

מחקר חדש של גוגל מציע פתרון אלגנטי לאחת הבעיות המתסכלות ביותר במודלי שפה גדולים (LLM): חוסר דיוק בתשובות והופעת “הזיות” בתוכן שנוצר על-ידי AI. במקום להסתפק במסקנות של השכבה האחרונה של המודל, החוקרים מציגים שיטה (SLED) המנצלת את המידע מכל שלבי החשיבה של הבינה המלאכותית, וממזגת אותם לכדי תשובה סופית מדויקת ואמינה יותר.

 

בבסיסם, מודלי שפה גדולים כמו ג’מיניי, GPT ו-Claude בנויים כך שהם מחקים את הדרך שבה בני אדם כותבים, מסיקים ומסבירים (בערך). אך שלא כמו בני אדם, שמסוגלים לבדוק את עצמם בזמן אמת ולחזור לשאלה במידה שענו שגוי, המודלים מסתמכים על אלגוריתם “פנימי” שלא תמיד נותן מקום לספקות. אתם אולי מכירים את זה בתור מודל שמשדר ביטחון מוחלט גם כשהוא טועה – וזה קורה בגלל אופן קבלת ההחלטות של המערכת. ישנן מגוון גישות ולצידן מחקרים רבים שמנסים להתחקות אחר הסיבה לאותן הזיות – רק לפני מספר שבועות כתבנו פה על מחקר דומה מבית OpenAI שמציע לשנות את הדרך שבה אנחנו מאמנים מודלים שכאלה. שלא נדבר על עשרות המחקרים מבית אנטרופיק (Anthropic).

 

גוגל מציעה גישה חדשנית ומעניינת במיוחד, שעוסקת באופן פעילותם של LLMים: מודלים אלו בנויים ממאות או אלפי שכבות (layers) שמבצעות חישובים על כל מילה, סימן או טוקן במשפט. התוצאה הסופית (כלומר, הטקסט שהמשתמש מקבל) מבוססת על ההערכה של השכבה האחרונה בלבד. אך מה קורה בדרך? ייתכן שבשכבות האמצעיות, המודל עצמו “חשב” אחרת או שקל אפשרויות נוספות. ומה קרה בפועל? במציאות רק “קול” אחד (זה של השכבה האחרונה) נשמע. בכך, אנחנו מפספסים ידע פנימי, חוכמה “חבויה” ובעיקר – את ההססנות הטבעית שעשויה הייתה להוביל לתשובות מדויקות יותר.

 

SLED

כשהמודל מפעיל את “כל המוח שלו”, הוא לא טועה. עם ובלי SLED | קרדיט: Google.

 

SLED – לתת למודל “להתייעץ עם עצמו”

כאן נכנסת לתמונה השיטה החדשה של גוגל: Self Logits Evolution Decoding – או בקיצור, SLED. הרעיון המרכזי מאחורי SLED פשוט אך מבריק: במקום להסתמך רק על השכבה האחרונה, למה שלא נאסוף “חוות דעת” גם משאר שכבות המודל, נשלב ביניהן באופן חכם, ורק אז נבחר את המילה או הביטוי הסופי?

 

גוגל פיתחה אלגוריתם שמסתכל על כל “תחנות הביניים” במסלול החשיבה של המודל. בכל אחת מהן, המודל מייצר תחזית (Distribution) לגבי המילה הבאה. SLED אוספת את התחזיות הללו, נותנת משקל לכל אחת (ולפעמים אפילו משקל שונה לשכבות שונות), ובונה ממוצע משוקלל של כל האפשרויות. כך מתקבלות החלטות שלא נשענות על “קונצנזוס דיקטטורי” של שכבה אחת, אלא על שיתוף פעולה אמיתי בין כל חלקי המודל.

 

סרטון המחשה: בסרטון הבא ניתן לראות שכשהמודל מתבסס רק על השכבה העליונה, הוא בוחר בתשובה הצפויה ביותר לשאלה: מהי בירת קולומביה הבריטית? במקרה זה, המודל בוחר במילה עם המשקל הכי גבוה (ונקובר), כי זו העיר הכי ידועה או מפורסמת. אך כשהוא נעזר בכל שכבות החשיבה שלו, ועושה סינטזה בין כל ה”הרהורים” שלו, הוא מגיע למסקנה מדויקת יותר, שהתשובה הנכונה היא העיר “ויקטוריה” (אפילו שמדובר בעיר פחות מוכרת).

Credit: Google

 

למה זה כל כך משמעותי?

מודל שלא “רץ” אוטומטית אל התשובה הראשונה

בפועל, היכולת לשלב ידע מכל השכבות מאפשרת להימנע מהטיות שמקורן בדפוסי חשיבה שכיחים אך לא מדויקים. אחת התופעות השכיחות היא נטייה של מודלים לענות במהירות על שאלות בעזרת תשובות “פופולריות”, גם אם הן לא בהכרח נכונות. ממש כמו בדוגמה מעלה – כאשר שואלים מהי בירת קולומביה הבריטית, רבים עשויים לבחור ב”וונקובר” (העיר המפורסמת ביותר) אך התשובה הנכונה היא דווקא “ויקטוריה”. במבחני SLED, השיטה מצליחה “להרים דגל” כשנוצרת התלהבות מיותרת סביב אופציה מסוימת, ולבחון שוב האם קיימת אפשרות אחרת שנשמעה מוקדם יותר לאורך הדרך.

 

שיפור ביכולות מתמטיות והבנת חידות מילוליות

המחקר של גוגל ממחיש את כוחה של שיטת SLED גם בסיטואציות שבהן דרושות כמה פעולות חישוביות ברצף. נניח שמודל מתבקש לפתור בעיה: “הילדה ‘אש’ קונה 6 צעצועים, כל צעצוע עולה 10 מטבעות. בקנייה של ארבעה צעצועים או יותר יש הנחה של 10%. כמה תשלם?”

 

מודל רגיל עשוי להעדיף את המשוואה הנפוצה A x B = C, ולכן ישיב: 6X10=60, תוך התעלמות מההנחה. בפועל, השכבות הפנימיות הרבה פעמים “רואות” את הצורך להכפיל את התוצאה הסופית (60) גם ב-0.9 כדי להחיל את ההנחה של 10%, אך השכבה האחרונה (בעקבות דפוסי תרגול נפוצים שהופיעו בתהליך האימון), מדלגת על זה (היא מתעדפת את המצב הנפוץ מבחינה סטטיסטית על פני המצב הנכון מתמטית). SLED מציף את כל תחנות הביניים, ובזכות זאת עונה:

6X10X0.9=54

פתרון שמפגין דיוק רב יותר והבנה עמוקה יותר של ההקשר. צפו בסרטון כדי לקבל המחשה ויזואלית של פתרון בעיה מתמטית זו:

 

Credit: Google

 

איך זה עובד מתחת למכסה המנוע?

שיטת SLED פועלת ישירות בתהליך הפענוח (Decoding) של הטקסט, כלומר בשלב שבו המודל מתרגם את החישובים הפנימיים לטקסט קריא לאדם.

 

בכל פעם שמודל שפה מייצר מילה, הוא בעצם מחלק את המשפט לטוקנים: יחידות קטנות שיכולות להיות מילה, חלק ממילה, קידומת, סיומת או סימן פיסוק. המודל לא “פולט” את המילה הבאה מיד, אלא שוקל את כל האפשרויות, מחלק לכל אחת הסתברות (Logit), ומתקדם צעד-צעד. השיטה המסורתית נשענת על התחזית של השכבה האחרונה בלבד, אבל SLED לוקחת את “לוגיטי-הביניים” מכל שכבה, מעבירה אותם דרך אותה מטריצת תחזיות (Projection Matrix) כמו בשכבה האחרונה, ומקבלת סדרת תחזיות מלאה לכל האפשרויות – לאורך כל מסלול העיבוד.

 

SLED לא מחשיבה כל שכבה כבעלת משקל זהה. חלק מהשכבות נחשבות משמעותיות יותר, תלוי בסוג המטלה, סוג המודל וגודלו. האלגוריתם מחשב ממוצע משוקלל, וכך שכבות “חשובות יותר” ישפיעו יותר על ההחלטה הסופית. דרך גישה זו, SLED משמרת את הדיוק של המודל המקורי, אך משפרת אותו על ידי הבאת “קולות נוספים” לשולחן.

 

השפעה אמיתית על עולם הבינה המלאכותית

אחת החולשות הבולטות של מודלי שפה היא חוסר עקביות עובדתית. שיטה נפוצה לשיפור דיוק כזה היא חיבור למקורות חיצוניים בזמן אמת (כמו חיבור לרשת), אך אלה דורשים מערכת מורכבת ומוסיפים עלויות וזמן. SLED, לעומת זאת, פועל “מבפנים”, מבלי להיעזר במידע מבחוץ או ב-Fine Tuning יקר. כך הוא לא רק חוסך משאבים, אלא גם מונע תלות בגורמים נוספים ומבטיח שהדיוק משתפר מתוך המודל עצמו.

 

תוצאות מחקריות מרשימות

במחקר שנערך בגוגל, SLED נוסה על שלל מודלים פופולריים – ביניהם Gemma, GPT-OSS ומיסטרל (Mistral). בכל הניסויים, SLED שיפר באופן עקבי את הדיוק של המודלים, גם באתגרים של בחירה מרובה (Multiple Choice), גם בשאלות פתוחות, וגם במשימות “שרשרת חשיבה” (Chain of Thought). אפילו מול שיטות מתחרות מתקדמות כמו DoLa, שיטת SLED הובילה לעלייה משמעותית (עד 16%) בדיוק התשובות, וכל זאת במחיר כמעט זניח של הגדלת זמן הפענוח ב-4% בלבד.

 

גמישות והטמעה בכל מודל

אחד היתרונות החשובים הוא הגמישות של SLED. הוא פועל כמעט על כל מודל קוד פתוח, ללא קשר למשפחה, לחברת האם או לייעוד שלו. לא משנה אם מדובר במודל “בסיסי” או כזה שעבר התאמה להוראות (instruction tuned), שיטת SLED מתאימה את עצמה למגוון הרחב של דרישות, ומאפשרת שילוב עם שיטות פענוח נוספות לקבלת דיוק מקסימלי.

 

ביצועים במבחני ידע

לאורך המחקר, החוקרים בחנו את SLED על שאלות מורכבות ממבחנים ידועים, דוגמת TruthfulQA ו-FACTOR, שם השיטה הפגינה ביצועים מרשימים. גם במבחני שאלות פתוחות, SLED מפחיתה בצורה דרמטית את הסיכוי להזיות. 

 

הביצועים של SLED

הביצועים של SLED | קרדיט: Google

 

לא הכל ורוד!

למרות היתרונות הברורים, SLED לא באה לבטל את הצורך בביקורתיות – שגיאות והזיות עדיין אפשריות, במיוחד במצבים שבהם גם כל השכבות הפנימיות “טועות יחד”. יתרה מכך, לעיתים נדירות הוספת “קולות” לשולחן עשויה לבלבל את המודל כאשר יש ריבוי חוות דעת שאינן עקביות. למרות זאת מדובר בשיפור מהותי על פני הגישה המסורתית.

 

היישום של SLED אינו מוגבל רק לשפה טבעית. בגוגל מציעים להרחיב אותו למשימות של הפקת קוד, Visual QA ואף כתיבה ארוכה ומורכבת. המפתח הוא בזיהוי תבניות ידע שמפוזרות לאורך השכבות השונות במודל, והבנה שמידע קריטי אינו נמצא תמיד “רק בסוף”.

 

SLED ב-Github

רוצים לנסות בעצמכם? SLED הוטמע כקוד פתוח בגיטהאב של גוגל, וניתן להורידו ולהטמיעו כמעט בכל מודל מודרני. מפתחים שמעוניינים לשפר את הדיוק, לצמצם שגיאות עובדתיות ולהפחית הזיות יכולים לנסות את SLED בצורה פשוטה ולבחון בעצמם את ההשפעה.

 

הקול בראש

שיטת SLED מגלמת תפיסה חדשה: במקום לסמוך בעיניים עצומות על התשובה הסופית, הגיע הזמן להקשיב ל”מחשבות” שהתגלגלו לאורך כל מסלול החשיבה. במקום להעדיף תמיד את הפתרון המיידי, כדאי להעניק משקל ל”הרהורים של המודל” ולדיוקים שהוא מציע מתוך שלל שכבות הידע הפנימי שלו.

 

הגישה הזו מסמנת מגמה ברורה בבינה מלאכותית – צמצום תלות במקורות חיצוניים, חיזוק תחושת האמון במודל עצמו, ושאיפה ל-AI שידע “להתייעץ עם עצמו” לפני שיחווה דעה. לא תמיד צריך לאמן ו”לבנות מאפס” מודלים חדשים ועוצמתיים יותר, כשאפשר לחשוב על דרכים יצירתיות לגרום למודלים קיימים “לחשוב אחרת”, ובכך להגביר את הדיוק, המהימנות והיכולות שלהם. למרות ש-SLED אינה “פתרון קסם” לכל בעיה, היא פותחת דלת להעמקת ההבנה של מודלים עצמאיים, גמישים וניתנים לשדרוג מהיר, ובמקביל מדגימה כיצד מהפכות אמיתיות קורות דווקא כששמים לב לפרטים הקטנים שמתחבאים מתחת לפני השטח.

 

התקדמות זו מסקרנת במיוחד לאור הגידול בתלות שלנו במודלי שפה – לא רק בתור כלים לכתיבה או סיכום, אלא גם ככלי עזר לאנליזה, פתרון בעיות, והכוונה בעולם האמיתי. שילוב SLED בתוך תהליכי פיתוח גדולים של פלטפורמות AI נוספות, מצביע על עתיד שבו “הפנימיות” של המודל תעמוד במרכז קבלת ההחלטות, והדרך אל תשובות טובות באמת תעבור דרך הקשבה אמיתית… לכל קול במערכת.

הפוסט הקול בראש – SLED גורמת למודלי AI להקשיב לכל הקולות במוח שלהם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/sled/feed/ 0
מחקר חדש של OpenAI חושף את הסוד מאחורי הזיות של בינה מלאכותית https://letsai.co.il/ai-hallucinations-secret/ https://letsai.co.il/ai-hallucinations-secret/#respond Tue, 09 Sep 2025 08:05:45 +0000 https://letsai.co.il/?p=58369 כולנו מכירים את זה – אתם שואלים את ChatGPT שאלה פשוטה, והוא עונה בביטחון מוחלט… אבל התשובה בכלל לא נכונה. שנים חשבו שההזיות הן באג מסתורי, אבל מחקר מרתק מבית OpenAI מראה שהן תוצאה ישירה של איך לימדו את המודלים. השבוע פרסמו החוקרים אדם תאומן כלאי (Adam Tauman Kalai) ואופיר נחום (Ofir Nachum) מחקר שמסביר […]

הפוסט מחקר חדש של OpenAI חושף את הסוד מאחורי הזיות של בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
כולנו מכירים את זה – אתם שואלים את ChatGPT שאלה פשוטה, והוא עונה בביטחון מוחלט… אבל התשובה בכלל לא נכונה. שנים חשבו שההזיות הן באג מסתורי, אבל מחקר מרתק מבית OpenAI מראה שהן תוצאה ישירה של איך לימדו את המודלים. השבוע פרסמו החוקרים אדם תאומן כלאי (Adam Tauman Kalai) ואופיר נחום (Ofir Nachum) מחקר שמסביר בפעם הראשונה בצורה מתמטית וברורה למה מודלים ממציאים עובדות, ואיך אפשר לגרום להם לדעת להגיד גם “אני לא יודע”.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הפתרון למשוואה המסתורית

שנים התייחסו להזיות כקסם שחור שייעלם כשנטייב את הטכנולוגיה. המחקר החדש של OpenAI טוען ההפך – הזיות אינן תקלה, אלא תוצאה ישירה של איך שאימנו את המודלים מלכתחילה. כדי להסביר את זה, החוקרים השתמשו בהשוואה מעולם מוכר יותר – סיווג בינארי.

 

כשמודל צריך להחליט אם משהו נכון או לא נכון, הוא פועל כמו בוחן אמריקאי עם שתי תשובות בלבד. ומה מצאו? ליצור עובדה נכונה מאפס זה קשה בהרבה מאשר לזהות עובדה נכונה כשמציגים לך אותה. לכן, הסיכוי לטעות ביצירה גבוה פי שניים מאשר בזיהוי.

 

תחשבו על תלמיד במבחן גיאוגרפיה – המורה מבקש ממנו לכתוב שם של עיר בצרפת. אם הוא לא יודע, יש לו שתי אופציות, להגיד “אני לא יודע”, או לנחש “פריז”. עכשיו, אם המורה נותן את אותו ציון לאמירה “אני לא יודע” כמו לניחוש שגוי, אבל מעניק נקודה מלאה על ניחוש נכון, מה התלמיד ילמד לעשות? ברור, הוא ינחש. בדיוק אותו תמריץ מובנה קיים אצל מודלי ה-AI.

שני פשעי היסוד של תהליך האימון

המחקר מראה שיש בעצם שתי תחנות קריטיות שבהן נוצרים זרעי ההזיות:

שלב ראשון – Pretraining: זריעת הבלבול

כשהמודל לומד לראשונה, הוא מתאמן על ניבוי המילה הבאה מתוך הררי טקסט. זה עובד מעולה כשיש דפוס ברור, למשל כללי דקדוק, כתיב נכון או שימוש בסוגריים.

 

אבל כשמדובר בעובדות שאין להן דפוס צפוי, כמו תאריך לידה של מדען מסוים או שם של עבודת דוקטורט, המודל לא באמת יכול “לנחש מהתבנית”. התוצאה? הוא נאלץ פשוט להמציא. זו גם הסיבה ששגיאות כתיב נעלמות ככל שהמודלים משתפרים, אבל הזיות נשארות. כתיב זה משהו עקבי שקל ללמוד אבל עובדות אקראיות – לא.

 

למה קל ללמוד כתיב אבל קשה לזכור ימי הולדת?

למה קל ללמוד כתיב אבל קשה לזכור ימי הולדת? (Source: arXiv (OpenAI

שלב שני – Post-training: בית הספר לניחושים

אחרי האימון הראשוני, המודל עובר שלב נוסף שנועד ללטש את התשובות שלו. כאן הבעיה רק מחמירה, כי מערכות ההערכה מתנהגות כמו מבחן אמריקאי ומתגמלות ניחוש מוצלח, לא שקיפות. כדי להמחיש את ההבדל, OpenAI הציגו השוואה בין מודל ישן לבין מודל חדש. במבט שטחי נראה שהישן “מדויק” יותר, אבל בפועל הוא טעה בביטחון מוחלט הרבה יותר. המודל החדש אולי ענה פחות, אבל כשהוא לא ידע, הוא פשוט אמר את זה.

 

השוואת ביצועים: o4-mini מול GPT-5-thinking-mini

השוואת ביצועים: o4-mini מול GPT-5-thinking-mini

 

הטבלה מבוססת על נתונים ש-OpenAI פרסמו כהמחשה להבדלים בין מודלים, ולא על תוצאות ישירות מהמאמר האקדמי. והשאלה שנשארת פתוחה: מה עדיף – מודל שמנחש חזק וטועה, או מודל שמודה בכנות כשאין לו תשובה?

 

וכאן בדיוק נכנס הערך האמיתי של המחקר, כי הוא לא רק מצביע על ההבדלים בין מודלים ישנים לחדשים, אלא גם מנפץ מיתוסים עקשניים לגבי עצם קיומן של ההזיות.

למה הזיות אינן גזירת גורל

אחת התרומות הגדולות של המחקר היא בכך שהוא מנפץ כמה מיתוסים עקשניים סביב הזיות במודלי שפה.

מיתוס 1: “כשהדיוק יגיע ל־100%, ההזיות ייעלמו”

המציאות: זה לא יקרה. תמיד יהיו שאלות שאף מודל לא יכול לדעת, כמו מספר הטלפון של שכן שלכם או שם הכלב של מישהו שהוא לא פגש מעולם.

מיתוס 2: “הזיות הן בלתי נמנעות”

המציאות: לא נכון. מודל יכול פשוט לבחור לא לענות כשהוא לא בטוח, מה שמוריד דרמטית את כמות ההזיות.

מיתוס 3: “הזיות הן תופעה מסתורית”

המציאות: אין פה שום קסם שחור. ההזיות הן תוצאה צפויה של איך שהמודל למד ומה מתגמלים אותו עליו.

מיתוס 4: “מספיק מבחן אחד כדי לבדוק הזיות”

המציאות: מה שחשוב הוא מגוון רחב של מבחנים אמינים שבודקים אם המודל נוטה לנחש בלי לדעת ולא רק מדד בודד של “האם הוא הזה הפעם או לא”.

מהפכה במדדי הערכה

אז איך אפשר לגרום למודלים להפסיק לנחש בביטחון כשהם לא יודעים? החוקרים מציעים שינוי קטן אבל מהותי – לא רק למדוד אם התשובה נכונה או לא, אלא גם כמה בטוח המודל כשהוא עונה.

 

במקום מבחן בסגנון “נכון/לא נכון”, הם מציעים שיטה שמתגמלת זהירות:

  • תשובה נכונה מזכה בנקודה אחת.

  • טעות מורידה שתיים.

  • “אני לא יודע” שווה אפס – לא טוב, אבל גם לא נזק.

כך המודל לומד שלא כדאי לו להמר סתם, אלא עדיף לשתוק כשהוא לא בטוח.

האמת? זה לא רעיון חדש. מבחנים אמריקאים כמו SAT ו-GRE השתמשו בעבר בדיוק באותה טכניקה של הורדת ניקוד על ניחושים עיוורים כדי לעודד תלמידים לענות רק כשיש להם סיכוי אמיתי להיות צודקים. עכשיו, ההצעה היא להחיל את אותה גישה על בינה מלאכותית.

מדוע זה לא קורה היום?

הבעיה היא לא רק טכנית אלא גם תרבותית. רוב מבחני הביצועים הפופולריים כמו GPQA, ‏MMLU-Pro ו-SWE-bench, מעניקים נקודה מלאה על תשובה נכונה, ואפס נקודות על טעות או על “אני לא יודע”. במבנה כזה ברור שמודל יעדיף לנחש, כי אין לו מה להפסיד.

 

כל עוד המדדים המרכזיים בעולם ה-AI ממשיכים לתגמל ניחושים מוצלחים, החברות ימשיכו לאמן מודלים שמעדיפים להמר מאשר להודות בחוסר ודאות. לכן הפתרון חייב להיות גם תרבותי, כלומר שינוי של כללי המשחק – איך אנחנו בוחנים, מודדים ומדרגים את המודלים.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

עידן המודלים הכנים

המחקר הזה מסמן נקודת מפנה. שנים ניסינו להסביר את ההזיות של מודלי שפה כבעיה טכנית מסתורית, ועכשיו מתברר שהפתרון הרבה יותר פשוט – ללמד את המודלים להיות כנים לגבי מה שהם יודעים ומה שהם לא. תחשבו על זה כמו על יועץ אנושי, עדיף שיגיד “אין לי תשובה לזה” מאשר שימציא נתונים שנשמעים אמינים. גם בבינה מלאכותית, תשובה זהירה של “אני לא יודע” יכולה להיות שווה זהב כי היא חוסכת טעויות שעלולות לעלות ביוקר.

 

אם השינוי הזה יתפוס, נעבור מעולם שבו מודלים נוטים לנחש בכל מחיר, לעולם שבו הם יודעים לעצור ולהודות בחוסר ודאות. במערכות בריאות, משפט, חינוך או פיננסים – האמינות הזו תהיה יקרה יותר מכל פיצ’ר נוצץ.

 

לעיון במחקר המלא כנסו כאן.

הפוסט מחקר חדש של OpenAI חושף את הסוד מאחורי הזיות של בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-hallucinations-secret/feed/ 0
נאסא וגוגל בוחנות עוזר רפואי דיגיטלי לאסטרונאוטים https://letsai.co.il/digital-assistant-space-healthcare/ https://letsai.co.il/digital-assistant-space-healthcare/#respond Mon, 25 Aug 2025 07:02:10 +0000 https://letsai.co.il/?p=57656 במשימות חלל למרחקים ארוכים, אין אמבולנס שיגיע בזמן ואין חדר מיון שאליו אפשר להיכנס. בזמן שהאסטרונאוטים בתחנת החלל הבינלאומית נהנים מקשר כמעט מיידי עם כדור הארץ, מסע למאדים הוא סיפור אחר לגמרי: התקשורת עלולה להתעכב בין 4 ל־24 דקות לכל כיוון, עיכוב שיכול להכריע בין טיפול מציל חיים לבין אסון רפואי. כדי להתמודד עם המציאות […]

הפוסט נאסא וגוגל בוחנות עוזר רפואי דיגיטלי לאסטרונאוטים הופיע ראשון בLet's AI בינה מלאכותית

]]>
במשימות חלל למרחקים ארוכים, אין אמבולנס שיגיע בזמן ואין חדר מיון שאליו אפשר להיכנס. בזמן שהאסטרונאוטים בתחנת החלל הבינלאומית נהנים מקשר כמעט מיידי עם כדור הארץ, מסע למאדים הוא סיפור אחר לגמרי: התקשורת עלולה להתעכב בין 4 ל־24 דקות לכל כיוון, עיכוב שיכול להכריע בין טיפול מציל חיים לבין אסון רפואי. כדי להתמודד עם המציאות הזו, נאסא וגוגל בחנו מערכת בינה מלאכותית חדשה שמטרתה לאבחן בעיות רפואיות ולספק לאסטרונאוטים המלצות טיפול, גם כשאין רופא זמין או קשר מיידי עם בית החולים שעל כדור הארץ.

 

נאסא וגוגל בוחנות עוזר רפואי דיגיטלי לאסטרונאוטים

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הצורך בעצמאות רפואית בחלל

כל עוד האסטרונאוטים שוהים בתחנת החלל הבינלאומית, הם נהנים מתקשורת כמעט בזמן אמת עם רופאים על פני כדור הארץ ומציוד רפואי בסיסי. גם בירח המצב סביר יחסית עם השהיה של כשתי שניות בלבד הלוך ושוב.

 

אבל במסע למאדים התמונה משתנה לגמרי: כל שיחה עם רופא עלולה להתעכב בין 4 ל־24 דקות לכל כיוון (עד כמעט 50 דקות לשיחה מלאה), אספקת תרופות או ציוד לא יכולה להתחדש באופן קבוע, ופינוי חירום לכדור הארץ עלול להימשך חודשים ואף שנים.

 

במילים אחרות, מצב רפואי שנראה פשוט על פני כדור הארץ עלול להפוך לאיום של ממש כשאין מענה רפואי זמין. זה דומה לאתגרים שאותם חווים אנשים החיים באזורים מבודדים במיוחד בכדור הארץ, כמו כפרים בהרים או תחנות מחקר באנטארקטיקה, שבהם מרחק וזמן הופכים כל בעיה רפואית לעניין קריטי.

 

בחלל, הפער הזה גדול פי כמה. כדי להבטיח את בריאות הצוות ולמנוע סיכון למשימה כולה, לאסטרונאוטים חייב להיות כלי שמאפשר להם לקבל תמיכה רפואית עצמאית בזמן אמת ובתנאים קיצוניים.

מערכת חדשה מבוססת Vertex AI

המערכת החדשה נקראת Crew Medical Officer Digital Assistant (CMO-DA) – עוזר רפואי דיגיטלי שמבוסס על פלטפורמת Vertex AI של גוגל. זהו שילוב בין עיבוד שפה טבעית לבין למידת מכונה מתקדמת, שנועד לאפשר לאסטרונאוטים לאבחן בעיות רפואיות ולקבל הנחיות טיפול גם כאשר אין כל קשר מיידי עם כדור הארץ.

מה היא יודעת לעשות?

המערכת נבנתה להיות מולטי-מודאלית, כלומר, להבין ולטפל במידע ממקורות שונים:

  • קול וטקסט – אסטרונאוט יכול פשוט לשאול שאלה או לתאר סימפטום במילים.

  • נתונים ממכשירים רפואיים – מדדי לחץ דם, חום גוף או תוצאות בדיקה בסיסית נכנסים ישירות למערכת.

  • תמונות רפואיות – צילומים או סריקות יכולים לעבור עיבוד וזיהוי.

  • מאגר ידע ייעודי – המערכת מאומנת על ספרות רפואית לחלל, עם מיקוד בכ-250 בעיות רפואיות שכיחות בסביבה הזו.

בפועל, זה אומר שאם אסטרונאוט סובל מכאב חריג או נפצע במהלך פעילות, הוא יכול לתאר את הסימפטומים, להזין נתוני מדידה או להעלות צילום, והמערכת תנתח את המידע ותספק אבחנה ראשונית והמלצות טיפול.

תוצאות ראשוניות

כדי לבדוק את היעילות של CMO-DA, נאסא וגוגל ערכו ניסוי בשלושה תרחישים רפואיים נפוצים. צוות של שלושה רופאים, ביניהם גם אסטרונאוט, בחן כיצד המערכת מתמודדת עם תהליך האבחון, מהשלב של איסוף היסטוריה רפואית ועד מתן המלצות טיפול.

התוצאות:

  • פציעת קרסול – 88% דיוק

  • כאב אוזן – 80% דיוק

  • כאב אגן – 74% דיוק

במילים אחרות, במקרים פשוטים יחסית המערכת מתפקדת היטב ואף מתקרבת לרמת אבחון אנושית. אבל במצבים מורכבים יותר, כמו כאבי אגן שיכולים לנבוע ממגוון רחב של סיבות, רמת הדיוק יורדת באופן משמעותי.

 

המסקנה היא שמדובר בכלי מבטיח שיכול לסייע לאסטרונאוטים לקבל מענה ראשוני ולהפחית את חוסר הוודאות, אך עדיין מוקדם לראות בו תחליף מלא לרופא. השאלה שנותרה פתוחה היא מה יקרה ברגעי אמת, כשאבחון שגוי עלול להוביל להחמרה רפואית ללא יכולת גיבוי מכדור הארץ.

מאחורי הקלעים

המערכת פועלת במסגרת הסכם עם Google Public Sector, המאפשר לנאסא להשתמש בתשתיות ענן חזקות לאימון מודלים ולפיתוח האפליקציה. אבל לא פחות חשוב, נאסא מחזיקה בבעלות מלאה על קוד המקור ועל תהליך הכוונון של המודלים, בעוד גוגל מספקת את הפלטפורמה הטכנולוגית והגישה למודלי בינה מלאכותית מתקדמים.

 

השילוב הזה יוצר חלוקת תפקידים ברורה – גוגל מביאה את יכולות הענן וה-AI, ונאסא דואגת שהמערכת תותאם בדיוק לצרכים הרפואיים והמבצעיים של חלל. מעבר לשאלת הביצועים, זו גם דרך להבטיח שהמידע הרפואי של האסטרונאוטים יישאר בשליטת נאסא ולא יסתכן בחשיפה מסחרית.

התאמה לתנאי החלל הייחודיים

אחד היתרונות הגדולים של CMO-DA הוא היכולת שלה להיות “מודעת לסביבה”. המערכת לא מתבססת רק על ספרי רפואה מכדור הארץ, אלא לוקחת בחשבון את ההשפעות הייחודיות של מיקרוגרביטציה על גוף האדם.

 

בחלל, השרירים נחלשים והעצמות מאבדות עד מחצית ממסתן במשימות ארוכות. נפח הדם משתנה, הלחץ בעורקים אינו יציב, והריאות מתפקדות אחרת משום שהסרעפת נדחפת כלפי מעלה. המשמעות היא שדלקת ריאות, שבר או אפילו כאב גב, לא נראים ומתפתחים בחלל כפי שהם מתבטאים על פני כדור הארץ.

 

לכן, היכולת של CMO-DA להבין את תנאי הסביבה ולתרגם אותם לאבחון מדויק אינה רק תוספת נחמדה, היא תנאי בסיסי להישרדות רפואית במשימות חלל ארוכות.

תוכניות עתידיות

בשלב הבא נאסא וגוגל מתכננות להרחיב את יכולות המערכת כך שתוכל להתמודד עם מצבים רפואיים מורכבים עוד יותר. המפה העתידית כוללת שלושה כיווני פיתוח מרכזיים:

  • חיבור למכשור רפואי מתקדם: שילוב נתונים מאולטרסאונד ומכשירי ניטור נוספים יאפשר לאסטרונאוטים לבצע בדיקות מורכבות יותר ולקבל פענוח מיידי.

  • מודעות משופרת לסביבה: המודלים יעודכנו כך שיוכלו להביא בחשבון בצורה מדויקת יותר את ההשפעות הפיזיולוגיות של מיקרו-גרביטציה על גוף האדם.

  • ניתוח מתקדם של נתונים רפואיים: שדרוג המערכת כך שתוכל לא רק לאבחן סימפטומים אלא גם להצליב מידע ממקורות שונים ולספק המלצות טיפול מותאמות אישית.

אם השדרוגים הללו יעמדו בציפיות, CMO-DA עשויה להפוך מעוזר אבחוני ראשוני לכלי רפואי מקיף – כזה שמסוגל לתמוך בצוותי חלל לאורך חודשים ושנים, ולבסס מודל חדש של רפואה מרחוק גם כאן על פני כדור הארץ.

השלכות רחבות ומבט לעתיד

המערכת אמנם פותחה עבור משימות חלל, אך הפוטנציאל שלה נוגע גם לחיים כאן על פני כדור הארץ. לפי גוגל, עוזר רפואי מבוסס בינה מלאכותית יכול להפוך לכלי משמעותי באזורים כפריים, במוקדי אסון או במקומות שבהם אין רופאים זמינים. במילים אחרות, מה שנולד כדי לשמור על אסטרונאוטים במרחק מיליוני קילומטרים מהבית, עשוי לצמצם פערים רפואיים עולמיים ולהביא שירותי בריאות לאנשים שנמצאים היום מחוץ למעגל הטיפול.

 

עבור נאסא, הפרויקט משתלב בחזון ה־Earth-Independent Medical Operations – מעבר הדרגתי מרפואה שתלויה בכדור הארץ לרפואה שבה הצוותים מנהלים את בריאותם בעצמם.

 

התוצאות הראשוניות בהחלט מבטיחות, אך הן מזכירות שהמערכת עדיין ניסיונית. האתגר האמיתי יהיה להוכיח שהיא לא רק “עוזרת” אלא כלי אמין שאפשר לסמוך עליו ברגעי אמת, כשהחיים של אדם מונחים על הכף ואין אלטרנטיבה אחרת. אם תעמוד באתגר הזה, היא עשויה לשנות לא רק את רפואת החלל, אלא גם את הדרך שבה אנחנו חושבים על רפואה מרחוק וחוסן בריאותי עולמי.

הפוסט נאסא וגוגל בוחנות עוזר רפואי דיגיטלי לאסטרונאוטים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/digital-assistant-space-healthcare/feed/ 0
GPT-5 מתברג כשותף מרכזי במדעי הרפואה https://letsai.co.il/medical-research-gpt5/ https://letsai.co.il/medical-research-gpt5/#respond Thu, 21 Aug 2025 08:54:47 +0000 https://letsai.co.il/?p=57321 מאז השקת GPT-5 ב-7 באוגוסט 2025, חוקרים ורופאים ברחבי העולם מתארים שינוי משמעותי בשיטות העבודה המדעיות. אחד המקרים הבולטים מגיע מפרופ’ דריה אונוטמז, אימונולוג בכיר מהמכון לג’קסון לגנומיקה רפואית, שמספר על שותפות יוצאת דופן הנרקמת בין מדענים לבין המודל החדש והחזק ביותר של OpenAI עד כה.   שינוי כללי המשחק בידע, חיזוי ובינה רפואית בעוד […]

הפוסט GPT-5 מתברג כשותף מרכזי במדעי הרפואה הופיע ראשון בLet's AI בינה מלאכותית

]]>
מאז השקת GPT-5 ב-7 באוגוסט 2025, חוקרים ורופאים ברחבי העולם מתארים שינוי משמעותי בשיטות העבודה המדעיות. אחד המקרים הבולטים מגיע מפרופ’ דריה אונוטמז, אימונולוג בכיר מהמכון לג’קסון לגנומיקה רפואית, שמספר על שותפות יוצאת דופן הנרקמת בין מדענים לבין המודל החדש והחזק ביותר של OpenAI עד כה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שינוי כללי המשחק בידע, חיזוי ובינה רפואית

בעוד שמודלים קודמים כמו GPT-4 שימשו בעיקר ככלי עזר לסיכום מאמרים, ניתוח ספרות מדעית או הצעת כיווני מחקר, GPT-5 מעלה את הרף. הוא מסוגל לחזות תוצאות של ניסויים עתידיים עוד לפני ביצועם בפועל, יכולת שעד לאחרונה נחשבה בלתי אפשרית.

 

השינוי נובע מארכיטקטורה מודולרית חדשה: GPT-5 יודע לחלק משימות מורכבות בין “תתי-מודלים” פנימיים (process routing), כך שכל רכיב מטפל בחלק מהבעיה באופן מותאם. התוצאה היא דיוק גבוה יותר ועמידות מול טעויות, שממקמים את המודל לא כעוזר חכם בלבד אלא כשותף מחקרי אמיתי.

 

פרופ’ אונוטמז מתאר זאת במילים חדות: “אני עובד עם מודל שיודע יותר ממני בתחומים שלי. זה מרגיש כמעט כמו יועץ או מנטור שמקדם את המחקר שלי בקצב אחר לחלוטין”.

 

במחקר עדכני בלימפומה, שבו נבחנו טיפולים בתאים מהונדסים, GPT-5 לא רק שחזה במדויק את תוצאות הניסוי, הוא אף הציע שיפורים בתכנון: התאמת צפיפות אנטיגן, איזון בין תאי גידול לאפקטורים, ושימור אוכלוסיות תאים לטווח ארוך. החוקרים מעריכים כי תובנות כאלה חוסכות שבועות ואף חודשים של עבודה.

המשמעות המיידית

  • דיוק בתחזיות – המודל הצליח להגיע לרזולוציה של תא בודד, רמת דיוק שלא הייתה אפשרית עד כה בכלים דומים.

  • האצת תהליכים – ניסויים שבעבר דרשו חודשים של תכנון וביצוע התקצרו לשבועות ספורים בלבד, מה שמאפשר לקדם מחקר רפואי בקצב מהיר בהרבה.

  • שיתופי פעולה תעשייתיים – חברות מובילות כמו Amgen ו-Color Health כבר משלבות את GPT-5 בפרויקטים לפיתוח טיפולים חדשניים ובתכנון ניסויים קליניים.

האתגרים בדרך

כמו בכל פריצת דרך טכנולוגית, גם כאן נדרשת זהירות. מומחים מזהירים מפני תופעת ה־“הזיות”, שבה המודל מייצר תחזיות שגויות או מסקנות שאינן מבוססות נתונים בפועל, דבר שעלול להיות קריטי במיוחד כשמדובר בהחלטות רפואיות.

 

מעבר לכך, קיימות מגבלות רגולטוריות באשר לשימוש ישיר בנתונים קליניים, והן מציבות שאלות כבדות משקל על בטיחות, אחריות והיקף השימוש המותר. שילוב המודל בעבודה מדעית יידרש לעבור בחינה קפדנית מצד רשויות בריאות ורגולטורים, כדי להבטיח שהוא תורם לקידום המחקר מבלי לסכן מטופלים או לחרוג ממסגרות אתיות.

הקשר רחב יותר

בעשור האחרון שולבה בינה מלאכותית במעבדות בעיקר ככלי תומך: ניתוח תמונות רפואיות, זיהוי תבניות גנטיות או סיוע במיון כמויות עצומות של נתונים קליניים. המודלים שימשו כעזר טכני, אך לא החליפו את שיקול הדעת המדעי.

 

GPT-5 משנה את התמונה. בזכות היכולות החדשות שלו – חיזוי תוצאות, דיוק גבוה ויכולת אופטימיזציה בין משימות – הוא מתפקד לא רק כעוזר אלא כ”עמית מחקר”. המשמעות היא שמדענים לא רק מקבלים ממנו מידע, אלא גם נחשפים לפרספקטיבות חדשות ולכיווני מחקר שלא היו עולים בלעדיו. בכך, המודל לא רק מאיץ את המדע אלא גם מאתגר את החשיבה המדעית עצמה.

המשמעות הכלכלית והחברתית

ההשפעה של GPT-5 אינה מוגבלת לקידום המחקר בלבד, היא נוגעת גם לכלכלה ולמערכת הבריאות כולה:

  • קצב פיתוח תרופות – קיצור משמעותי של הדרך מהמעבדה ועד שלב האישור הקליני, מה שעשוי להאיץ את הגעתן של תרופות חדשות לשוק.

  • הורדת עלויות מחקר – צמצום הזמן והמשאבים המושקעים בתכנון ובביצוע ניסויים, דבר שעשוי להפוך מחקר מתקדם לנגיש יותר.

  • נגישות גלובלית – יצירת הזדמנויות למוסדות קטנים או למדינות בעלות משאבי מחקר מוגבלים, שיכולים כעת להשתתף בחזית המדע בזכות כלי עזר זול וזמין יותר.

תחזיות לעתיד ושאלת האיזון

אם מגמת האימוץ של GPT-5 תימשך, סביר שנראה מהפכה של ממש בדרך שבה מפתחים תרופות, מאבחנים מחלות ומעצבים תהליכים קליניים. קצב הגילויים יואץ, עלויות יפחתו, והנגישות למחקר רפואי תתרחב באופן חסר תקדים.

 

אבל לצד ההבטחות, מתחדדת שאלת האיזון: כיצד משלבים חדשנות טכנולוגית מהירה עם אחריות קלינית ורגולציה הדוקה?

 

העולם המדעי נמצא בצומת – בין בינה מלאכותית שהופכת לשותפה פעילה בחזית המחקר, לבין הצורך לשמר את הבקרה האנושית, את שיקול הדעת ואת האתיקה. במידה שנדע לשלב נכון בין שני הקטבים הללו, העתיד של המחקר הרפואי עשוי להיות לא רק מהיר יותר, אלא גם בטוח, אחראי ונגיש יותר.

הפוסט GPT-5 מתברג כשותף מרכזי במדעי הרפואה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/medical-research-gpt5/feed/ 0
מיליון דולר למי שימצא תרופה לאלצהיימר עם AI https://letsai.co.il/ai-contest-alzheimers-cure/ https://letsai.co.il/ai-contest-alzheimers-cure/#respond Wed, 20 Aug 2025 08:23:54 +0000 https://letsai.co.il/?p=57271 האם הבינה המלאכותית תצליח לפצח את אחת מהמחלות הקשות והמורכבות ביותר של המאה ה-21? מחלת האלצהיימר, שמוחקת זיכרונות ומשנה חיים של מיליונים, נחשבת כבר עשרות שנים ל”חידה הגדולה” של עולם הרפואה – חידה שמדענים ומשפחות חולים כאחד מנסים לפתור ללא הצלחה מספקת. עכשיו, ביל גייטס – מייסד מיקרוסופט ואחד מהפילנתרופים הבולטים בעולם – נכנס לתמונה […]

הפוסט מיליון דולר למי שימצא תרופה לאלצהיימר עם AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם הבינה המלאכותית תצליח לפצח את אחת מהמחלות הקשות והמורכבות ביותר של המאה ה-21? מחלת האלצהיימר, שמוחקת זיכרונות ומשנה חיים של מיליונים, נחשבת כבר עשרות שנים ל”חידה הגדולה” של עולם הרפואה – חידה שמדענים ומשפחות חולים כאחד מנסים לפתור ללא הצלחה מספקת. עכשיו, ביל גייטס – מייסד מיקרוסופט ואחד מהפילנתרופים הבולטים בעולם – נכנס לתמונה ומשיק תחרות עולמית חדשנית. הפרס: מיליון דולר. המטרה: לרתום את כוחה של הבינה המלאכותית כדי למצוא טיפול חדש או לכל הפחות תובנות פורצות דרך שיוכלו לשנות את פני המחקר בתחום.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

תחרות ייחודית ומשמעותית

התחרות, The Alzheimer’s Insights AI, מזמינה מומחי בינה מלאכותית, מדענים, חברות וסטארטאפים מכל העולם לפתח פתרון שיצליח להפיק תובנות חדשות ממיליוני נתונים שנאספו במשך שנים על המחלה. הסבבים הראשונים של התחרות ייערכו כבר בדצמבר הקרוב בסן דייגו, והגמר הגדול ייערך במרץ 2026 בקופנהגן. הצוות הזוכה לא רק יזכה בפרס, אלא יאפשר לכל המדענים בעולם להשתמש בכלי בחינם – במטרה לקדם מחקר גלובלי ושיתוף פעולה רחב.

חשיבות הטיפול במחלת האלצהיימר

למה זה כל כך חשוב? כי מחלת האלצהיימר נחשבת לאחד האתגרים הגדולים של עולם הבריאות – כ-55 מיליון בני אדם חיים כיום עם דמנציה, וההערכות הן שמספר זה ישולש עד 2050. איפה ה-AI יכול לעזור לנו במקומות שבהן טכנולוגיות אחרות נכשלו? בכיר ב-Gates Ventures מספר: “האתגר הוא לא מחסור במידע – אלא עודף מידע שמקשה על מדענים לראות את התמונה המלאה. כאן הבינה המלאכותית נכנסת לפעולה”.

 

וזה בדיוק מה ש-AI עושה מצוין. מנתח כמויות דאטה אדירות, מפריד בין עיקר לתפל, מוצא דפוסים ומגמות, ואם צריך גם יודע להמליץ, לפתח, ליזום ואפילו לחשוב מחוץ לקופסא. ממש כמו מדען אנושי, רק בלי המגבלות הפיזיות, ועם גישה לכל המידע שקיים.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

המעורבות הרחבה של ביל גייטס

גייטס לא עוצר במיליון דולר! הוא הודיע לאחרונה על כוונתו להגדיל באופן דרמטי את מעורבותו הפילנתרופית ולהעמיד סכום עצום של כ-200 מיליארד דולר לתרומה בעשרים השנים הבאות. מדובר בהכפלה משמעותית של ההשקעה האישית שלו בקידום פרויקטים ומחקרים פורצי דרך בתחומי הבריאות, החינוך, המלחמה במגפות העולמיות, וכמובן – גם בחיפוש אחר טיפול יעיל למחלת האלצהיימר.

 

המטרה שלו היא לתעל את המשאבים האדירים שצבר כדי לקדם פתרונות חדשניים לבעיות הגדולות שמעסיקות את האנושות. לטענתו, המהלך מגיע מתוך תפיסה שהעתיד של מחקר הרפואה, ובעיקר של מחלות ניווניות כמו אלצהיימר, טמון בשילוב בין משאבים כלכליים, טכנולוגיה מתקדמת ובינה מלאכותית.

 

האם זו תהיה נקודת המפנה? ימים יגידו. אבל מה שבטוח, בשנים האחרונות ראינו פריצות דרך מדעיות, הודות לשימוש בטכנולוגיות AI, בתחומים כמו חקר הסרטן, פיתוח נוגדנים, חיזוי מגפות ועוד. נראה שגם בעולם הרפואה והמחקר, העתיד נמצא ב-AI.

הפוסט מיליון דולר למי שימצא תרופה לאלצהיימר עם AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-contest-alzheimers-cure/feed/ 0
מה קורה כשההיסטוריה פוגשת בינה מלאכותית https://letsai.co.il/ai-ancient-inscriptions/ https://letsai.co.il/ai-ancient-inscriptions/#respond Tue, 12 Aug 2025 12:23:09 +0000 https://letsai.co.il/?p=56715 איך מפענחים כתובת רומית עתיקה שחצי ממנה נמחק? ואיך יודעים היכן ומתי היא נכתבה? המשימה הזו דומה להרכבת פאזל של 10,000 חלקים, כשלפניכם רק שליש מהחלקים ואין תמונה על הקופסה. עד לא מזמן, החוקרים התמודדו עם אתגרים כמעט בלתי אפשריים: כתובות מהאימפריה הרומית – מאנדרטאות מפוארות ועד רישומים יומיומיים על לוחות עץ – הגיעו שבורות, […]

הפוסט מה קורה כשההיסטוריה פוגשת בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
איך מפענחים כתובת רומית עתיקה שחצי ממנה נמחק? ואיך יודעים היכן ומתי היא נכתבה? המשימה הזו דומה להרכבת פאזל של 10,000 חלקים, כשלפניכם רק שליש מהחלקים ואין תמונה על הקופסה. עד לא מזמן, החוקרים התמודדו עם אתגרים כמעט בלתי אפשריים: כתובות מהאימפריה הרומית – מאנדרטאות מפוארות ועד רישומים יומיומיים על לוחות עץ – הגיעו שבורות, דהויות או פגומות. כדי לשחזר את משמעותן, היה צורך למצוא “מקבילות היסטוריות”, כתובות אחרות עם נוסח דומה, סגנון משותף או מוצא זהה, ולחבר את הסיפור מחדש. זה דרש שילוב נדיר של זיכרון כמעט בלתי מוגבל, ניסיון של שנים ולעיתים גם הרבה מזל. היום, בזכות מודל הבינה המלאכותית Aeneas של Google DeepMind, מתרחשת מהפכה מקצועית אמיתית בחקר כתובות עתיקות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

הכירו את החוקר הדיגיטלי

כאן נכנס לתמונה Aeneas, מודל בינה מלאכותית פורץ דרך שפותח ב-Google DeepMind בשיתוף אוניברסיטאות בבריטניה וביוון. השם לא מקרי: כמו הגיבור המיתולוגי שנדד בין עולמות, גם הוא “מטייל” בין טקסטים, תקופות ומקומות כדי לחשוף קשרים נסתרים. הייחוד של Aeneas הוא בכך שהוא לא רק משלים את החלקים החסרים, אלא גם מבין את ההקשר ההיסטורי. הוא מנתח את הכתובת הן מבחינת התוכן הכתוב והן מבחינת המראה החזותי, ומשווה אותה למאגר עצום של למעלה מ-176,000 דוגמאות לטיניות מ-62 פרובינציות רומיות.

 

כך הוא מסוגל להציע לא רק שחזור מילולי, אלא גם פרשנות מעמיקה. בניגוד למודלים קודמים שהתבססו רק על טקסט, Aeneas הוא מודל “מולטימודלי” – משלב בין קריאת הטקסט לבין ניתוח הצורה, הסגנון, החומר ומאפיינים גיאוגרפיים. השילוב הזה מאפשר לו לזהות תבניות הכתיבה ולמקם אותן בזמן ובמרחב בדיוק חסר תקדים.

 

התרשים המצורף מתאר את אופן פעולתו של Aeneas: המודל מקבל במקביל את הטקסט של הכתובת ואת התמונה, ומשתמש ברשתות נפרדות לעיבוד המידע הלשוני והחזותי. מנגנון מבוסס Transformer מנתח את האותיות הקיימות, מזהה הקשרים היסטוריים, ומשלים חלקים חסרים. רכיב ה־Vision Network (ResNet) מאפשר לו לקשר בין מאפיינים חזותיים לבין מידע גיאוגרפי, ובסיום, להפיק שלוש תחזיות מרכזיות: הפרובינציה, התאריך והשחזור. המערכת גם מחפשת כתובות דומות במאגר ה־Latin Epigraphic Dataset ומדרגת אותן לפי רלוונטיות, כדי לספק לחוקר הקשרים ותובנות נוספות:

 

אופן הפעולה של Aeneas

אופן הפעולה של Aeneas. מקור: deepmind.google

 

איך Aeneas משנה את עבודת החוקרים

התוצאות מדברות בעד עצמן: במקום שבועות או חודשים של חיפוש ידני אחר מקבילות היסטוריות, Aeneas מספק ממצאים תוך שניות, עם 73% הצלחה בשחזור קטעים של עשרה תווים, 72% דיוק בזיהוי הפרובינציה הרומית שבה נכתבה הכתובת, ויכולת לתארך בטווח של 13 שנים בלבד. אבל המספרים הם רק ההתחלה. במחקר שערך צוות DeepMind דיווחו חוקרים שהמודל לא רק האיץ את עבודתם, אלא גם פתח להם כיווני מחשבה חדשים. אחד מהם סיפר: “המקבילות של Aeneas שינו לחלוטין את התפיסה שלי לגבי הכתובת. הוא זיהה פרטים שעשו את כל ההבדל בשחזור ובתארוך הטקסט.”

 

השינוי האמיתי הוא שהמודל לא מחליף את החוקר אלא עובד לצידו, מציע השערות מבוססות נתונים, מאתר דפוסים שאולי חמקו מעין אנושית, ומשאיר לחוקר את המרחב להעניק את ההקשר, הפרשנות וההבנה ההיסטורית העמוקה.

 

התרשים המצורף מציג השוואה בין יכולות סיווג כרונולוגי של Aeneas לבין מודל שפה גנרי שאומן גם הוא בלטינית. בצד שמאל, הפלט של Aeneas, שבו הכתובות מקובצות בבירור לפי התקופה, מ-650 לפנה”ס (כחול) ועד 800 לספירה (אדום). בצד ימין, הפלט של המודל הגנרי, שבו ההפרדה בין התקופות מטושטשת בהרבה. היכולת הזו, בשילוב נתוני הדיוק המרשימים, מראה כיצד המודל מספק בסיס מחקרי יציב ומהיר הרבה יותר:

 

השוואה בין יכולות סיווג כרונולוגי של Aeneas לבין מודל שפה גנרי שאומן גם הוא בלטינית

איך Aeneas משנה את עבודת החוקרים. מקור: deepmind.google

דוגמאות מרתקות מהשטח

אחת הדוגמאות הבולטות היא הניתוח שערך Aeneas לכתובת המפורסמת Res Gestae Divi Augusti – תיאור עצמי של הקיסר אוגוסטוס על הישגיו. במקום לקבוע תאריך חד-משמעי, המודל הציג התפלגות הסתברותית עם שני שיאים: האחד קטן יותר בין השנים 1-10 לפנה”ס, והאחר גדול יותר בין 10-20 לספירה. כך הוא שיקף במדויק את שתי התיאוריות המרכזיות של ההיסטוריונים. ההישג מרשים עוד יותר כשמבינים שהוא התבסס על ניתוח מאפיינים לשוניים עדינים וסמנים היסטוריים כמו תארים רשמיים ואזכורי אנדרטאות, וכן על מציאת מקבילות בטקסטים חוקתיים קיסריים הקשורים למורשתו של אוגוסטוס.

 

במקרה אחר, Aeneas שחזר שמות של בני משפחה רומית שאבדו ממצבת קבורה שבורה, וחשף משפחה שלא הייתה מוכרת קודם בבריטניה הרומית. ובמקרה נוסף, הוא קישר בין כתובת מהמאה השנייה לספירה לבין טקסט דומה מהמאה השביעית, גילוי שפתח חלון חדש להבנת המשכיות תרבותית לאורך מאות שנים.

 

הגרף שלפניכם מציג את תחזית התארוך של Aeneas לכתובת Res Gestae. הצבע הכחול מייצג את התפלגות ההסתברויות שהפיק המודל, בעוד הקווים והעמודות הסגולות מציינים את שתי ההשערות המרכזיות במחקר ההיסטורי. ניתן לראות בבירור את שני השיאים – האחד בין השנים 1-10 לפנה”ס והשני, הבולט יותר, בין השנים 10-20 לספירה – מה שממחיש כיצד Aeneas מצליח ללכוד באופן כמותי את הוויכוח האקדמי סביב תיארוך הכתובת:

 

תחזית התארוך של Aeneas לכתובת Res Gestae

תחזית התארוך של Aeneas לכתובת Res Gestae. מקור: deepmind.google

השלכות מרחיקות לכת על עתיד המחקר ההיסטורי

השפעתו של Aeneas חורגת הרבה מעבר לפענוח כתובות בודדות. הוא משנה את כללי המשחק במדעי הרוח, ומראה כיצד בינה מלאכותית יכולה לא רק להאיץ את קצב המחקר, אלא גם לחשוף תובנות שלא היו נגישות עד כה.

 

בארכיאולוגיה, החוקרים יכולים כעת לקשר בין ממצאים מאזורים ואתרים שונים בצורה שלא התאפשרה בעבר, לזהות דפוסי נדידה, מסלולי מסחר והפצת תרבויות בקנה מידה חדש. בתחום שימור המורשת, כתובות שנחשבו אבודות מבחינת משמעותן מקבלות פרשנות חדשה, ואוספי מוזיאונים שהיו בגדר תעלומה במשך עשרות שנים משתלבים בסיפורים היסטוריים רחבים יותר.

 

ההשפעה אינה רק אקדמית – העובדה שהמודל זמין בחינם לכל אדם באתר פותחת את עולם המחקר האפיגרפי בפני סטודנטים, מורים, אנשי מוזיאונים וחובבי היסטוריה, ומאפשרת לכל מי שסקרן לגעת במורשת האנושית בצורה ישירה ומקצועית.

למה זה לא מושלם (ולמה זה בסדר)

חשוב להיות כנים – Aeneas הוא לא קסם שפותר הכל. יש לו מגבלות ברורות, הוא מתמקד בעיקר בכתובות לטיניות, רמת הדיוק יורדת כאשר הנזק לכתובת חמור במיוחד, והוא לעולם לא יוכל להחליף את האינטואיציה והידע ההיסטורי העמוק של חוקר אנושי. יתרה מכך, השימוש בבינה מלאכותית במחקר היסטורי מעלה שאלות מתודולוגיות קריטיות: איך מונעים הטיה בפרשנות? כיצד שומרים על חשיבה ביקורתית כשמכונה מספקת תשובות שנראות מוחלטות?

 

דווקא השאלות האלו הן סימן לכך שהמהפכה אמיתית. כל טכנולוגיה פורצת דרך מאלצת אותנו לבחון מחדש את השיטות שלנו, לחדד את הכלים המחקריים, ולפתח גישות חדשות שמחזקות את השותפות בין אדם למכונה.

 

השותפות בין אדם למכונה

עתיד המחקר ההיסטורי אינו טמון בתחרות בין אדם למכונה, אלא בשיתוף פעולה ביניהם. Aeneas מראה שהשילוב האפקטיבי ביותר קורה כשהמודל מספק כלים אובייקטיביים ומהירים, והחוקר האנושי מוסיף את ההקשר, הפרשנות והחשיבה הביקורתית. הרחבת הגישה הזו לשפות עתיקות נוספות, יוונית קדומה, אכדית, מצרית עתיקה, עשויה לפתוח אוצרות ידע שחיכו אלפי שנים להיחשף, ולהוות תרומה אדירה לשימור המורשת האנושית. ואולי החלק המלהיב ביותר הוא שכל אחד מכם יכול כבר עכשיו להתנסות בפענוח כתובות רומיות אמיתיות. לא צריך תואר בהיסטוריה או מומחיות בבינה מלאכותית, רק סקרנות ורצון לגלות סיפורים שחרוטים באבן.

 

המסר האמיתי של Aeneas הוא שההיסטוריה אינה קפואה בעבר – היא חיה, מתפתחת וממתינה שנחיה אותה מחדש. כשמשלבים את הטכנולוגיה המתקדמת ביותר עם הסקרנות האנושית, אנחנו לא רק שומרים על העבר, אנחנו מחזירים אותו לחיים. הרגע הזה הוא פרק מיוחד בהיסטוריה של ההיסטוריה עצמה, ואתם יכולים להיות חלק ממנו.

 

למי שמעוניין לקרוא את המחקר המלא שפורסם ב- Nature, כנסו כאן. ולקוד הפתוח בגיטהאב, כנסו כאן.

הפוסט מה קורה כשההיסטוריה פוגשת בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-ancient-inscriptions/feed/ 0
כוחות העל של AI בניתוח קבצים ונתונים מספריים https://letsai.co.il/integrate-ai-with-data/ https://letsai.co.il/integrate-ai-with-data/#respond Fri, 01 Aug 2025 09:03:20 +0000 https://letsai.co.il/?p=55953 שילוב בין בינה מלאכותית לניתוח נתונים נשמע בעבר כמו חלום טכנולוגי, ועד לפני מספר חודשים הכלים היו מאוד בוסריים ופשוט לא מספיק טובים. אבל מאז שהגיחו לחיינו מודלי ריזונינג, נכנסו לתקופה חדשה בה מודלי שפה מבינים דפוסים, מזהים אנומליות ומפיקים תובנות עמוקות במהירות שיא. דווקא עכשיו חשוב לדעת מתי הם מועילים ומתי הם דווקא עלולים […]

הפוסט כוחות העל של AI בניתוח קבצים ונתונים מספריים הופיע ראשון בLet's AI בינה מלאכותית

]]>
שילוב בין בינה מלאכותית לניתוח נתונים נשמע בעבר כמו חלום טכנולוגי, ועד לפני מספר חודשים הכלים היו מאוד בוסריים ופשוט לא מספיק טובים. אבל מאז שהגיחו לחיינו מודלי ריזונינג, נכנסו לתקופה חדשה בה מודלי שפה מבינים דפוסים, מזהים אנומליות ומפיקים תובנות עמוקות במהירות שיא. דווקא עכשיו חשוב לדעת מתי הם מועילים ומתי הם דווקא עלולים להטעות, להזות ולפלוט שטויות. ובעיקר – מה גורם להם לעשות את זה ואלו פעולות אתם יכולים לבצע כדי להפוך אותם למכונות מדויקות ומשומנות לניתוח נתונים וקבצים – ממש כמו דאטה אנליסט צמוד!

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

היכולות והמגבלות של מודלי שפה מלאכותית

מודלי שפה מלאכותית הם כלים סופר עוצמתיים בניתוח נתונים. מצד אחד, הם מצטיינים בזיהוי דפוסים, בניתוח כמויות מידע עצומות ובהפקת תובנות במהירות. מצד שני, יש להם מגבלות מהותיות – הם שוכחים מהר, תלויים בהקשר, וזקוקים להכוונה מדויקת. לכן חשוב להבין איך נכון להשתמש בהם, ואיך לא.

 

תינוק

בינה מלאכותית היא הייצור הכי חכם בעולם, עם הזיכרון הכי קצר בעולם, ועם אופי של תינוק בן יומו!

 

 

למה בכלל לעבוד עם AI בניתוח נתונים?

ה-AI יכול לשמש כ”דאטה אנליסט על סטרואידים” – מודלי שפה מצטיינים בתחומים הבאים:

  • איתור מגמות ודפוסים: יכול לזהות אנומליות או התנהגויות חוזרות.

  • שיחה עם מספרים ומסמכים: שאלות חכמות יובילו לתשובות חכמות.

  • תחזיות מבוססות נתוני עבר: יכול לייצר תחזיות סטטיסטיות.

  • אופטימיזציה: במיוחד בקמפיינים שיווקיים.

  • השוואת תכנון מול ביצוע: וניתוח עמידה ביעדים.

  • ניתוח סנטימנטים: מדוחות, סקרים או נתוני לקוחות.

  • בקרה מקצועית: לווידוא תוצאות ופעולות של עובדים אחרים.

  • ניתוח מהיר של כמויות גדולות: לדוגמה במחלקות HR.

  • תמיכה בקבלת החלטות: על בסיס מידע קונקרטי ומעמיק.

 

כללי עשה ואל תעשה

מה לא לעשות עם מודלי שפה:

  • הוא לא מחשבון: אל תבקשו ממנו לחשב שורה או טור – זו לא המומחיות שלו. זה לא שהוא לא יכול לעשות את זה, אבל זה פשוט לא הייעוד שלו!

  • אל תבקשו ממנו ליצור לכם קבצים: שוב, גם פה, זה לא שאין לו את היכולת ליצור קבצים, אבל זה מתכון לבאגים וטעויות – אל תנסו לגרום לו לייצר קובץ חדש מתוך שיחה. העתיקו והדביקו את המידע ישירות בקובץ הוורד, האקסל או הפאוורפויינט שאיתו אתם עובדים.

  • אל תבקשו ממנו לערוך קבצי אקסל: הוא לא נועד לערוך קבצים ישירות – אל תבקשו ממנו לבצע מניפולציות בגליונות או קבצים – זה לא הייעוד שלו. אמנם הוא מסוגל לערוך טבלאות דינאמיות לאחר שהועלו לממשק הצ’ט, וזה יכול לעבוד יפה במשימות קטנות ופשוטות, אבל לא ביצירת קבצים מורכבים.

  • לא לעבוד עם מודלים רזים: מודלים “מהירים” לרוב פוגעים בדיוק הניתוח. למשל, במקום לעבוד עם GPT-4o (מודל ישן אך מצוין לטקסטים, אבל לא למשימות מורכבות כמו ניתוח נתונים וקבצים), בחרו במודל ריזונינג כמו o3 ומעלה. במקום לעבוד עם Gemini 2.5 flash בחרו במודל עם יכולות הסקה טובות יותר כמו Gemini 2.5 pro.

 

 

באנר קורס דאטה ניתוח נתונים עם AI

 

 

מה כן לעשות:

  • השתמשו בבינה מלאכותית כדאטה אנליסט: ראו בה שותפה מקצועית לניתוח ופרשנות נתונים.

    שלפו תובנות ומסקנות: ה-AI מצטיין בזיהוי קשרים, דפוסים ומגמות חבויות.

    המירו דוחות בין פורמטים: ניתן להפוך דוחות מספריים לטקסטואליים ולהפך – ולהנגיש את המידע לקהלים שונים.

    צרו ייצוגים ויזואליים: תנו ל-AI לבנות גרפים, טבלאות, מצגות ודאשבורדים באופן שיטתי ואסתטי.

    שוחחו עם הנתונים: ה-AI משמש גם כיועץ – אפשר לנתח איתו מסמכים, טבלאות וקבצים בהקשרים מורכבים.

    העדיפו מודלי ריזונינג: מודלים אלה מבוססים על COT (שרשרת מחשבה) ומבצעים ניתוחים מעמיקים, עקביים ואמינים יותר. הם מצוינים במשימות מורכבות, משימות רב-שלביות ויש להם יכולות מתמטיות מעולות, לצד יכולות הסקה מרשימות!

    התאימו את הקבצים מראש: סדרו, נקו והכינו את הנתונים כך שיהיו ברורים, קריאים וללא פרטים מזהים.

הלבנת נתונים: חובה!

לפני שמעלים קבצים ל-AI, חובה להלבין את הנתונים:

  • הגנו על מידע רגיש: החליפו פרטים אישיים במספרים.

  • שמות: המירו שמות אישיים או ת”ז למספרים מזהים או השמיטו אותם לגמרי.

  • אל תשתמשו בהסתרה ויזואלית בלבד: מודלים יכולים לקרוא שכבות נסתרות.

  • שנו שמות מוצרים או שירותים: החליפו שמות של מוצרים במק”טים כדי להגן על מידע עסקי. כנ”ל לגבי שמות של חברות ועסקים, או כל פרט מזהה אחר (במיוחד כשמדובר בניתוחים עסקיים ונתונים פיננסיים).

כלל ברזל: אם יש ספק – אין ספק. תמיד להעדיף זהירות יתר. אם אתם לא בטוחים אם מותר לכם להעלות קובץ או מידע כזה או אחר – עדיף לא להעלות! ובכל מקרה, תמיד להתייעץ עם איש ה-IT או הסייבר אצלכם בארגון. או לחלופין – לבקש ליווי מאיש מקצוע במידה ואין כזה.

 

ניתוח קבצים ונתונים

ניתוח קבצים ונתונים עם AI.

 

לבחור את הכלי והמודל הנכון

התאמה נכונה של הכלי והמודל היא קריטית במשימות של עיבוד וניתוח נתונים:

  • סוג הקובץ: לא כל מודל תומך בניתוח אקסלים / CSV באיכות גבוהה.

  • חלון הקשר: מודלים עם חלון קונטקסט גדול (Context Window) חיוניים לניתוח קבצים גדולים במיוחד. למשל, מודלי ג’מיניי (Gemini) החל מ-1.5 Pro תומכים ב-1 מיליון טוקנים ומעלה.

  • מודלים מומלצים לפי פורמט:

    • אקסל/CSV: עדיף להשתמש ב-ChatGPT (בדגש על מודלי ריזונינג).

    • קבצי PDF: קלוד (Claude) מעדיף פורמט זה על פני קבצי אקסל למשל. כמובן שכל מודל אחר ינתח בקלות כל קובץ PDF.

  • דיוק בניתוח מספרי: קלוד נוטה להזיות עם קבצי אקסל. עם CSV יותר קל לו, אבל עדיין – נתקלנו בלא מעט מקרים שהוא פשוט פלט שטויות, לכן (כאמור), העדיפו להמיר קובץ ל-PDF, או פשוט לעבור ל-ChatGPT בקבצים מסוג זה. מצד שני, הוא מצוין בהמרת מידע לייצוג ויזואלי (למשל יצירת גרפים, טבלאות, אינפוגרפיקות ודאשבורדים עסקיים).

הפוסט כוחות העל של AI בניתוח קבצים ונתונים מספריים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/integrate-ai-with-data/feed/ 0
פריצת דרך ברפואת פוריות עם בינה מלאכותית https://letsai.co.il/ai-fertility-historic-pregnancy/ https://letsai.co.il/ai-fertility-historic-pregnancy/#comments Sat, 19 Jul 2025 08:42:34 +0000 https://letsai.co.il/?p=54872 האם אי פעם ניסיתם למצוא מחט בערימת שחת? עכשיו תארו לעצמכם שאתם צריכים למצוא זרעון בודד וכשיר בתוך מיליוני תאים פגומים. זה בדיוק האתגר שמטפלי פוריות מתמודדים איתו מדי יום – עד עכשיו. במרץ 2025, זוג שניסה להיכנס להריון במשך 18 שנים זוכה סוף סוף לחדשות שחלם עליהן: האישה בהריון. הסוד? טכנולוגיית בינה מלאכותית מהפכנית […]

הפוסט פריצת דרך ברפואת פוריות עם בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם אי פעם ניסיתם למצוא מחט בערימת שחת? עכשיו תארו לעצמכם שאתם צריכים למצוא זרעון בודד וכשיר בתוך מיליוני תאים פגומים. זה בדיוק האתגר שמטפלי פוריות מתמודדים איתו מדי יום – עד עכשיו. במרץ 2025, זוג שניסה להיכנס להריון במשך 18 שנים זוכה סוף סוף לחדשות שחלם עליהן: האישה בהריון. הסוד? טכנולוגיית בינה מלאכותית מהפכנית שמצאה זרעונים כשירים במקום שבו שיטות מסורתיות נכשלו למשך עשרות שנים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה אזוספרמיה ולמה זה כל כך בעייתי?

בואו נתחיל מההתחלה. אזוספרמיה היא מצב רפואי שפוגע ב-1% מכלל הגברים וב-10-15% מהגברים הסובלים מבעיות פוריות. במילים פשוטות: אין זרעונים נראים לעין בדגימת הזרע. תארו לעצמכם אצטדיון עם 50,000 גברים – כ-5,000-7,500 מהם יסבלו מבעיות פוריות, ו-500 מתוכם יהיו אזוספרמיים. עד היום, הפתרונות עבורם היו מוגבלים ומכאיבים.

מה הן האפשרויות המסורתיות?

  • ניתוח כואב לחילוץ זרעונים מהאשכים (הצלחה של 30-70% בלבד).
  • חיפוש ידני במעבדה שיכול להימשך ימים שלמים.
  • שימוש בזרע של תורם.

אבל עכשיו יש דרך חדשה.

הטכנולוגיה שמחפשת “כוכבים” במעבדה

ד”ר זב וויליאמס ממרכז הפוריות של אוניברסיטת קולומביה פיתח במשך חמש שנים מערכת מהפכנית בשם STAR (Sperm Track and Recovery). ההשראה? אסטרופיזיקה.

 

“אם אפשר להסתכל על שמיים מלאים במיליארדי כוכבים ולנסות למצוא כוכב חדש, אז אולי נוכל להשתמש באותה גישה כדי להסתכל דרך מיליארדי תאים ולמצוא את התא הספציפי שאנחנו מחפשים,” מסביר ד”ר וויליאמס.

איך STAR עובדת?

תהליך בן חמישה שלבים שנראה כמו מדע בדיוני, אבל המדע מאחוריו מבוסס על אלגוריתמים מתקדמים של ראייה ממוחשבת ולמידה עמוקה:

 

1. דגימת זרע מוכנסת לשבב מיקרופלואידי חד-פעמי עם תעלות דקות כמו שערת אדם.
2. מצלמה מהירה לוכדת למעלה מ-8 מיליון תמונות תוך פחות משעה.
3. אלגוריתמי AI מאומנים לזהות זרעונים מנתחים את התמונות בזמן אמת.
4. כשמזוהים זרעונים, המערכת מכוונת את החלק הרלוונטי לתעלות נפרדות.
5. מערכת רובוטית מסירה זרעונים בודדים תוך מילישניות, תוך שמירה על חיותם.

 

למי שרוצה להבין יותר לעומק: האלגוריתמים מאומנים על מיליוני תמונות של זרעונים ותאים אחרים, ולומדים לזהות את הדפוסים הוויזואליים הייחודיים – צורה, תנועה, גודל – שמאפיינים זרעון כשיר. זה דומה לאופן שבו רכבים אוטונומיים לומדים לזהות מכוניות מול אופניים ברחוב.

הסיפור שמאחורי הפריצה

הזוג שעשה היסטוריה התמודד עם 18 שנות כישלונות. הבעל סבל מאזוספרמיה, ולמרות 15 ניסיונות הפריה חוץ-גופית ויעוצים עם מומחים ברחבי העולם, מעולם לא נמצאו זרעונים כשירים. השיטות המסורתיות נכשלו מחדש – עובדי מעבדה בילו 48 שעות בבדיקת דגימות ללא הצלחה. ואז הגיע STAR. באותה דגימה שנבדקה ללא הצלחה במשך יומיים, מערכת STAR מצאה 44 זרעונים כשירים תוך שעה אחת. “זה שינה הכול עבור זוג שחשב שאין לו דרך קדימה,” אומר ד”ר וויליאמס.

 

עבור הזוג הספציפי הזה, STAR זיהתה שלושה זרעונים שהיו מספיקים להפרות ביצית האישה. כעת, האישה בחודש הרביעי להריונה, והתינוק צפוי להיוולד בדצמבר 2025. “לקח לי יומיים להאמין שאני באמת בהריון,” שיתפה האם האלמונית. “אני עדיין מתעוררת בבוקר ולא מאמינה שזה נכון עד שאני רואה את הסקירות.”

מה אומרים המומחים? 

התומכים נלהבים

ד”ר רוברט ברניגן, נשיא נבחר של האגודה האמריקאית לרפואה רבייתית: “גילוי של זרעון כשיר אחד יכול לשנות חיים. זה כלי שמשפר את עבודת טכנאי המעבדה, במיוחד במקרים שהם כמו חיפוש אחר מחט בערימת שחת.” גם ד”ר אליסון רוג’רס, אנדוקרינולוגית רבייתית, נלהבת: “הייתי בהלם חיובי מהממצאים. אנחנו מניחים שעם השיטות הנוכחיות, אם זרעונים קיימים, נמצא אותם – אבל במקרה הזה, עובדי מעבדה חיפשו 48 שעות ולא מצאו כלום. אני חושבת שAI הולכת להפוך את ההפריה החוץ-גופית באופן מוחלט.”

הספקנים מזהירים

ד”ר ג’אנפיירו פאלרמו, המומחה שחולל את הפריצה בהזרקת זרעון בודד לביצית, מזהיר: “אתם מושכים מטופלים שנאמר להם שאין להם זרעונים ומציעים מה שעלול להתברר כתקווה שווא.” ד”ר ברניגן מדגיש: “על פניו זה נראה מבטיח, אבל כמו בכל טכנולוגיה חדשה ברפואה, במיוחד בטיפולי פוריות, אנחנו צריכים לעקוב אחר הנתונים ולחקור את זה יותר.”

העלויות והזמינות

מבחינת עלויות, ההבדל דרמטי: בעוד שטכנולוגיית STAR עולה כ-3,000 דולר (ללא ההפריה עצמה), ניתוח מסורתי יכול להגיע ל-15,000-45,000 דולר. אבל יש בעיה – הטכנולוגיה זמינה כרגע רק במרכז הפוריות של אוניברסיטת קולומביה במנהטן ובוואיט פליינס שבניו יורק (White Plains, New York), והמערכת עדיין אינה מאושרת על ידי ה-FDA ופועלת כבדיקה שפותחה במעבדה.

פריצת דרך עם סימן שאלה

ד”ר וויליאמס מתכנן להרחיב את השימוש בטכנולוגיה למקרים נוספים כמו חיפוש אחר הזרעונים הבריאים ביותר בדגימה והערכת בריאות ביציות ועוברים במקרי אי פוריות נשית. “זה פותח דלת עבור אנשים שלא היה להם שום סיכוי,” אומר ד”ר וויליאמס. “זה אחד מהרגעים ברפואה שבהם אתה מבין שאתה רואה משהו שתמיד היה שם אבל מעולם לא ניתן היה למצוא אותו.”

 

זו פריצת דרך אמיתית שיכולה לשנות חיים, אבל אסור לנו להתרגש יתר על המידה. מצד אחד, התוצאות ראשוניות מרשימות באופן דרמטי, הטכנולוגיה פותרת בעיה ממשית במיליוני בתים, והעלות נמוכה יחסית לחלופות הקיימות. מצד שני, זה רק מקרה אחד ואנחנו צריכים יותר נתונים, ציפיות גבוהות יכולות להביא לאכזבות כבדות, והטכנולוגיה זמינה רק במקום אחד בעולם.

שילוב AI ברפואה נותן תקווה

אם אתם זוג שמתמודד עם אזוספרמיה, זה בהחלט שווה מעקב – אבל חשוב לזכור שאנחנו עדיין בשלבים המוקדמים. המדע מבטיח, אבל הזמן יגיד אם זה באמת יהפוך לפתרון סטנדרטי. מה שבטוח הוא שהדרך שבה AI משתלבת ברפואת הפוריות מראה לנו שהטכנולוגיה יכולה לפתור אתגרים אנושיים עתיקים. עבור אלפי זוגות ברחבי העולם שמחפשים דרך להגשים את החלום על הורות ביולוגית, STAR מציעה משהו יקר ערך: תקווה מחודשת.

 

חוקר במרכז הפוריות של אוניברסיטת קולומביה

חוקר במרכז הפוריות של אוניברסיטת קולומביה. קרדיט: washingtonpost.com

למעוניינים להעמיק

למי מכם שמעוניין להעמיק, המחקר המלא על טכנולוגיית STAR עדיין לא פורסם בכתבי עת מדעיים עם ביקורת עמיתים, אך פותח ונבדק קלינית על ידי ד”ר זב וויליאמס וצוותו במרכז הפוריות של אוניברסיטת קולומביה. למי שמחפש מידע מדעי נוסף, תוכלו לעיין באתר הרשמי של מרכז הפוריות של קולומביה תחת Advanced Reproductive Technologies, שבו מופיע מידע על טכנולוגיית STAR ועל שירותי איתור זרע מותאמים למקרי אזוספרמיה חמורים.

 

מומלץ לחפש במאגר PubMed באמצעות מונחים כמו “AI sperm detection”, “deep learning male infertility”, או “Microfluidic sperm isolation”. אמנם אין עדיין מאמר ספציפי על STAR שפורסם שם, אך מחקרים עכשוויים של Zev Williams et al ובהם שיטות מיקרופלואידיות ובינה מלאכותית לאבחון פוריות זמינים תחת שמו.

 

לניתוח רחב יותר של בינה מלאכותית ברפואת הפוריות, ניתן לקרוא מאמרים שפורסמו לאחרונה בכתבי העת Human Reproduction Update ו־Journal of Assisted Reproduction and Genetics. חיפוש מילות מפתח כגון “AI in IVF” או “AI embryo selection” יניב מאמרים מובילים בתחום.

 

בנוסף, סיקורים עיתונאיים מקצועיים הכוללים ראיונות עם ד”ר וויליאמס פורסמו לאחרונה בכלי תקשורת כגון CNN Health ו-The Washington Post, וכוללים מידע רב על הפיתוח ויישומיו הראשונים.

הפוסט פריצת דרך ברפואת פוריות עם בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-fertility-historic-pregnancy/feed/ 1
גילוי סודות ה-DNA הנסתר עם Google DeepMind https://letsai.co.il/dna-secrets-alphagenome/ https://letsai.co.il/dna-secrets-alphagenome/#respond Sun, 06 Jul 2025 06:27:18 +0000 https://letsai.co.il/?p=53867 מה עושים 98% מהגנום שלכם שלא מקודד חלבונים? אם תנסו לשאול מדענים, תקבלו תשובות חלקיות. אם תשאלו את Google DeepMind – תקבלו מודל בינה מלאכותית חדש בשם AlphaGenome, שעונה לראשונה על השאלה הזו באופן מקיף ומדויק. הוא לא רק קורא את רצף ה-DNA – הוא מבין אותו. הוא יודע לחזות איך שינוי זעיר באות בודדת […]

הפוסט גילוי סודות ה-DNA הנסתר עם Google DeepMind הופיע ראשון בLet's AI בינה מלאכותית

]]>
מה עושים 98% מהגנום שלכם שלא מקודד חלבונים? אם תנסו לשאול מדענים, תקבלו תשובות חלקיות. אם תשאלו את Google DeepMind – תקבלו מודל בינה מלאכותית חדש בשם AlphaGenome, שעונה לראשונה על השאלה הזו באופן מקיף ומדויק. הוא לא רק קורא את רצף ה-DNA – הוא מבין אותו. הוא יודע לחזות איך שינוי זעיר באות בודדת יכול להשפיע על מנגנונים מולקולריים שלמים. וזה לא רק עוד כלי, זו ממש נקודת מפנה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה AlphaGenome יודע לעשות?

נסו לדמיין ספר בן מיליון תווים. לא מילים, לא משפטים – רק רצף צפוף של אותיות A, T, G ו-C. רוב האנשים יראו בזה בליל חסר משמעות. אבל AlphaGenome? הוא קורא את הספר הזה כאילו היה רומן מתוחכם, עם עלילה מורכבת ודמויות סודיות. הוא מזהה היכן מתחילים הגנים והיכן הם נגמרים, גם כשזה משתנה מתא לתא. הוא עוקב אחרי תהליך חיתוך ה-RNA, אותו תהליך עדין שבו הוראות ייצור החלבון עוברות עריכה, כאילו מישהו גוזר בעדינות את הפרסומות מתוך הוראות ההפעלה. הוא יודע גם כמה RNA נוצר בכל רקמה, כאילו מדד את עוצמת ההשפעה של כל פרק בספר, לפי האופן שבו הגוף “מקריא” אותו.

 

אבל זה לא נעצר שם. AlphaGenome גם מבין אילו חלקים מהספר פתוחים ונגישים לפעולה, ואילו סגורים ומקופלים כמו דפים שנדבקו. הוא מנתח איך ה-DNA מתקפל במרחב התלת־ממדי שלו, כאילו התייחס לא רק לתוכן הספר אלא גם לאופן שבו הוא מונח על השולחן. והדבר הכי מרשים? הוא יודע לחזות מה יקרה אם תחליפו אות אחת בלבד. איך שינוי קטן, לפעמים רק A שהפכה ל-T, יכול לשנות את האופן שבו נכתב, נערך ומוקרא הסיפור כולו.

 

מה שפעם הצריך עשרה כלים שונים, עשרות מומחים וים של זמן, מתכנס עכשיו לכלי אחד שמבין את התמונה הגדולה, בלי לאבד את הפרטים הקטנים.

איך AlphaGenome באמת עובד?

אם נחשוב על הגנום כשפה, אז AlphaGenome הוא כמו מתרגם שמבין לא רק את המילים, אלא גם את התחביר, הרמזים בין השורות והמבנה העמוק של המשפטים. המודל בנוי על טכנולוגיה בשם טרנספורמר – אותה משפחת טכנולוגיות שמאחורי GPT. רק שבמקום להבין שיחות בין בני אדם, הוא לומד את השפה הסודית של ה-DNA.

 

בשלב הראשון, הוא מזהה תבניות חוזרות ברצף הגנטי, כמו שמילים מסוימות מופיעות שוב ושוב בטקסט. אחר כך, הוא קושר בין קטעים רחוקים שנמצאים אלפי אותיות זה מזה, כאילו הבין שהמשפט בהתחלה קשור למסקנה שבסוף הספר. לבסוף, הוא שואל את עצמו: “מה המשמעות של כל זה?” – ומנבא אילו תכונות מולקולריות יופיעו, בהתאם להרכב הרצף.

 

מה שאיפשר למודל הזה לעבוד כל כך טוב, זו ההצטלבות בין שני דברים:

  • מצד אחד, מאגרי דאטה עצומים שנאספו לאורך שנים ממחקרים כמו ENCODE ו-GTEx.

  • מצד שני, קפיצה טכנולוגית ב-AI שהפכה מודלים כמו טרנספורמרים לכלים חזקים מספיק כדי להבין רצפי DNA באורך ובמורכבות שלא ניתנים לפיענוח אנושי רגיל.

 

אז מה באמת חדש כאן?

בעבר, מדענים נאלצו לבחור, או לקבל תמונה מדויקת של מקטע קצר בגנום, או לסרוק אזור רחב יותר בצורה גסה. AlphaGenome משנה את המשוואה הזו: הוא מביא גם רוחב, גם עומק. לראשונה, אפשר לראות את הגנום כולו, בלי לטשטש את הפרטים הקטנים. אבל אולי השדרוג המשמעותי ביותר טמון ביכולת שלו לעקוב אחרי חיתוך ה-RNA, תהליך עדין של עריכה שבו הגוף מחליט אילו מקטעים ברצף לשמור ואילו לגזור החוצה. טעות אחת בחיתוך עלולה לשבש את ייצור החלבון ולגרום למחלות קשות. AlphaGenome לא רק מזהה היכן מתבצע החיתוך, אלא גם באיזו עוצמה, דבר שמעולם לא היה אפשרי קודם לכן.

 

והמהירות? מדהימה. במקום להפעיל ניסויים ביולוגיים מסובכים, המודל צריך רק שנייה כדי לחזות איך שינוי קטן, למשל, אות אחת שהתחלפה, ישפיע על כל השכבות המולקולריות. לא ניחוש ולא הערכה, אלא תחזית שמבוססת על הבנה עמוקה של ה”מכונה” הביולוגית עצמה.

ומה המספרים אומרים?

לפעמים, הכי פשוט זה לבדוק מי עושה את העבודה הכי טוב. במבחני הביצועים, AlphaGenome לא רק התמודד מול כלים קיימים, הוא עקף אותם כמעט בכל תחום. ב־22 מתוך 24 משימות של חיזוי רצפי DNA, הוא היה המדויק ביותר. והוא הוביל גם ב־24 מתוך 26 משימות של חיזוי השפעות מוטציות. והדבר המרשים ביותר? הוא היחיד שלא התמחה רק בקטע מסוים של הגנום, אלא הצליח לחזות את כל סוגי התכונות, בעזרת מודל אחד בלבד. בלי לעבור בין כלים, בלי להרכיב תמונה חלקית. סוף סוף, יש מי שרואה את התמונה כולה.

 

בתמונה המצורפת ניתן לראות את שיפור הביצועים היחסי של AlphaGenome (באחוזים) לעומת כלים קודמים, במשימות חיזוי של תכונות גנומיות שונות. מצד שמאל – משימות מבוססות רצף, מצד ימין – משימות לחיזוי השפעת מוטציות:

 

השיפור היחסי של AlphaGenome (באחוזים) במשימות חיזוי גנומיות

השיפור היחסי של AlphaGenome (באחוזים) במשימות חיזוי גנומיות. קרדיט: deepmind.google

דוגמה מהחיים

כדי לבדוק עד כמה AlphaGenome באמת מבין את הגנום, החוקרים העמידו אותו מול תעלומה אמיתית: מקרה של לוקמיה נדירה מסוג T-ALL. זו מחלה שבה תאי דם לבנים יוצאים משליטה, אבל לא היה ברור מה בדיוק מפעיל את המנגנון הסרטני. AlphaGenome ניתח את הרצף הגנטי של החולים, וגילה משהו מפתיע: מוטציה קטנה במקום לא צפוי יצרה אתר קישור חדש לחלבון בשם MYB. הקישור הזה, כמו מתג חשמלי, הפעיל בטעות גן בשם TAL1 – אחד הגנים שמעודדים גדילה תאית.

 

במילים אחרות: המודל לא רק זיהה את המוטציה, אלא הבין את ההשלכות שלה. הוא שיחזר את כל התהליך הביולוגי, מהשיבוש הקטן ועד לשרשרת האירועים שמובילה למחלה. וזה בדיוק מה שמדענים חיפשו במשך שנים.

למה זה כל כך חשוב?

כי עד עכשיו, למדענים היו כלים, אבל לא שפה. הם ראו את האותיות של הגנום, אבל לא הצליחו להבין את הסיפור שהוא מספר. AlphaGenome משנה את זה. פתאום אפשר לחקור מחלות גנטיות נדירות שמבלבלות את הרפואה כבר עשורים, ולזהות את הנקודה המדויקת שבה הכול משתבש.

פתאום אפשר לעצב גנים סינתטיים שיפעלו רק בתאים שאנחנו רוצים, למשל, לגרום לתרופה להפעיל גן רק בתוך תא עצב, אבל לא לפעול בתאי שריר. פתאום אפשר למפות את התפקוד של כל תא בגוף, ולגלות אילו חלקים מהגנום הם קריטיים ואילו הם רקע. המשמעות? לא רק הבנה טובה יותר של החיים, אלא יכולת להתחיל לכתוב את הגנום בעצמנו. בזהירות. באחריות. ובשפה שאנחנו סוף סוף מתחילים להבין.

ומה עדיין לא מושלם?

למרות ההתקדמות המרשימה, חשוב לזכור ש-AlphaGenome הוא לא כדור בדולח. הוא חכם, אבל לא כל-יכול. יש אזורים בגנום, במיוחד כאלה שמווסתים גנים ממרחק של מאות אלפי אותיות, שהמודל עדיין מתקשה לפענח את השפעתם. גם היכולת לדייק ברקמות מסוימות, למשל, להבחין איך אותה מוטציה תשפיע בכבד לעומת בלבלב, עדיין דורשת שיפור. ולמרות הפיתוי, זה לא כלי לאבחון קליני. הוא לא נועד להחליף רופא, ולא מיועד לקרוא את הגנום האישי שלכם כדי לאבחן מחלה.

 

חשוב גם להבין: המודל חוזה תוצאות מולקולריות, הוא מזהה מה משתנה בתפקוד התא, אבל לא בהכרח מצליח לחבר את זה עד הסוף לתסמינים של מחלות מורכבות. זו עדיין חוליה אחת בשרשרת. אמנם חזקה, אבל לא היחידה.

זמינות והכרה מקצועית

נכון לעכשיו, AlphaGenome זמין לשימוש מחקרי לא-מסחרי דרך API. גרסה פתוחה ומלאה יותר צפויה בעתיד, אבל גם בגרסתו הנוכחית, הוא כבר מעורר עניין עמוק בקהילה המדעית. ד”ר קיילב לארו, חוקר בכיר במרכז הסרטן Sloan Kettering, תיאר את ההשקה כ”אבן דרך“. לדבריו, “לראשונה יש מודל אחד שמבין גם את הקשרים הרחוקים בגנום, גם את רמת הדיוק של כל בסיס ובסיס, וגם את המגוון העצום של משימות גנומיות שהיינו צריכים עבורן עשרות כלים נפרדים.” כשמומחים מדברים על התרגשות, הם לא מתכוונים ליח”צ, הם מתכוונים להזדמנות אמיתית לעשות מחקר שעד עכשיו פשוט לא היה אפשרי.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

לסיכום, AlphaGenome לא רק קורא את ספר החיים, הוא מתחיל להבין את השפה שבה הוא נכתב. זוהי לא עוד קפיצה טכנית, אלא שינוי עמוק באופן שבו אנחנו שואלים שאלות על עצמנו ומקבלים עליהן תשובות. המודל הזה עדיין לא מושלם. הוא לא יודע הכול, ולא פותר הכול. אבל הוא מאפשר משהו שמעולם לא היה אפשרי: לקיים שיחה אמיתית עם הגנום – לא רק להאזין לו, אלא להבין אותו, להגיב לו, אולי אפילו להתחיל לכתוב פרקים חדשים. האם זה ישפיע על מחקר? על רפואה? על הדרך שבה נבין את החיים עצמם? כמעט בוודאות כן. העתיד נכתב באותיות A, T, G ו-C. ההבדל הוא שעכשיו מישהו סוף סוף יודע לקרוא.

הפוסט גילוי סודות ה-DNA הנסתר עם Google DeepMind הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/dna-secrets-alphagenome/feed/ 0
כיצד בינה מלאכותית משנה את המאבק במגיפות העולמיות https://letsai.co.il/ai-epidemic-modeling/ https://letsai.co.il/ai-epidemic-modeling/#respond Fri, 07 Mar 2025 09:18:27 +0000 https://letsai.co.il/?p=44084 בעולם שעדיין מתמודד עם הדי מגפת הקורונה, קבוצת מדענים בינלאומית חושפת בכתב העת היוקרתי Nature מחקר פורץ דרך שמציע תקווה חדשה. המחקר, בהובלת מדענים מאוניברסיטאות אוקספורד ואימפריאל קולג’ לונדון, מאיר זרקור על הפוטנציאל המהפכני של בינה מלאכותית בתחום המאבק במחלות זיהומיות ובהיערכות למגיפות עתידיות. בעקבות פסגת ה-AI Action Summit שהתקיימה כמה ימים טרום פרסום המחקר, […]

הפוסט כיצד בינה מלאכותית משנה את המאבק במגיפות העולמיות הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם שעדיין מתמודד עם הדי מגפת הקורונה, קבוצת מדענים בינלאומית חושפת בכתב העת היוקרתי Nature מחקר פורץ דרך שמציע תקווה חדשה. המחקר, בהובלת מדענים מאוניברסיטאות אוקספורד ואימפריאל קולג’ לונדון, מאיר זרקור על הפוטנציאל המהפכני של בינה מלאכותית בתחום המאבק במחלות זיהומיות ובהיערכות למגיפות עתידיות. בעקבות פסגת ה-AI Action Summit שהתקיימה כמה ימים טרום פרסום המחקר, ועל רקע הדיון הגלובלי המתעצם בנושא השקעות ורגולציה של AI, המחקר שם דגש מיוחד על היבטי בטיחות, אחריותיות ואתיקה ביישום ובשימוש של טכנולוגיות AI במחקר מחלות זיהומיות. חוקרים מובילים, בשיתוף עם עמיתים מהאקדמיה, התעשייה וארגוני מדיניות מרחבי אפריקה, אמריקה, אסיה, אוסטרליה ואירופה, קוראים ליצירת סביבה שקופה ושיתופית – הן במונחי מאגרי נתונים והן במודלים של AI – כדי לרתום את הפוטנציאל העצום של טכנולוגיות אלו להצלת חיים ולשיפור המוכנות העולמית לאיומי מגיפות עתידיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

“לצפות את הבלתי צפוי”

“בחמש השנים הקרובות, בינה מלאכותית עשויה לשנות מהיסוד את המוכנות העולמית למגיפות”, מסביר פרופסור מוריץ קריימר מהמכון למדעי המגיפות באוקספורד, אחד ממובילי המחקר. “היא תאפשר לנו לצפות טוב יותר היכן התפרצויות יתחילו ולחזות את מסלולן, תוך ניתוח מתקדם של נתונים שכבר נאספים ברחבי העולם”.

 

המחקר, מתאר כיצד בינה מלאכותית משנה את פני האפידמיולוגיה – המדע העוסק בהתפשטות מחלות – בדרכים שהיו נחשבות למדע בדיוני לפני עשור בלבד. מערכות AI מתקדמות יכולות כעת לנתח דפוסים מורכבים בנתונים ולספק התראות מוקדמות שבועות ואפילו חודשים לפני התפרצות, מה שמעניק לרשויות הבריאות זמן יקר להיערכות.

 

בתחום פיתוח התרופות והחיסונים, טכנולוגיות AI מאפשרות עדכון מהיר יותר של חיסונים, מדמות כיצד וירוסים עוברים מוטציות ומתפתחים ומשפרות תהליכי זיהוי תרופות פוטנציאליות. כלים מתקדמים אלה מסייעים גם בניטור רשתות חברתיות ומקורות מידע אחרים לזיהוי מידע כוזב בנושאי בריאות, שהתגלה כאיום משמעותי במהלך מגפת הקורונה.

הוכחות מהשטח: הצלחות מרשימות

המעבר מתיאוריה למציאות כבר החל, עם דוגמאות מרשימות מרחבי העולם. בבריטניה, אפליקציות מעקב הדבקה לקורונה שהותקנו על יותר מ-21 מיליון מכשירים סיפקו התראות בזמן אמת ונתונים חיוניים על דפוסי התפשטות המחלה. בסין, מערכות בינה מלאכותית שולבו במערכת הבריאות כבר בשלבים המוקדמים של המגפה, ושיפרו משמעותית את יכולות האבחון והניטור.

 

הישג מדהים במיוחד נרשם בקנדה, שם מערכת הבינה המלאכותית של חברת BlueDot הצליחה לחזות את התפרצות הקורונה ימים רבים לפני ההתראות הרשמיות. המערכת עשתה זאת באמצעות ניתוח חכם של דפוסי טיסות בינלאומיות, שינויים אקלימיים, ודוחות רפואיים מרחבי העולם.

 

בתחום המחקר המולקולרי, מערכות כמו AlphaFold המפותחת על ידי DeepMind של גוגל, חוללו מהפכה בהבנת מבנה החלבונים, צעד קריטי בפיתוח תרופות וחיסונים. יכולת זו הייתה משמעותית במיוחד בהבנה כיצד מוטציות בווירוס הקורונה עשויות להשפיע על יעילות החיסונים ובפיתוח טיפולים חדשים.

יתרונות מהפכניים לעומת גישות מסורתיות

המהפכה שמביאה הבינה המלאכותית למאבק במגיפות אינה רק בשיפור קל של השיטות הקיימות, אלא בשינוי מהותי באופן שבו אנו מבינים ומגיבים לאיומים בריאותיים. בעוד שמודלים מסורתיים עשויים לקחת שבועות לעיבוד נתונים מורכבים, מערכות AI מתקדמות מקצרות את הזמן הזה לשעות בלבד, ומאפשרות תגובה מהירה בזמן אמת כמעט.

 

היכולת לשלב מקורות מידע מגוונים – מבדיקות גנטיות מתקדמות ועד לפוסטים ברשתות חברתיות – מעניקה תמונה שלמה ומדויקת יותר של דינמיקת המגיפה מכפי שהיה אפשרי בעבר. מערכות AI חדשניות מצליחות לפעול היטב גם כאשר המידע מוגבל, יתרון קריטי בשלבים הראשונים של מחלה חדשה.

 

אולי המרשים ביותר הוא היכולת לזהות דפוסים מורכבים בנתוני עולם אמיתי, ולשפר תחזיות בסביבות חברתיות מסובכות שמעבר ליכולתם של מודלים מסורתיים. זהו הבדל עצום בין ניתוח נתונים למידע פעיל שיכול להציל חיים.

 

בתרשים המצורף ניתן לראות מיפוי של סוגי הנתונים המשמשים למידול אפידמיולוגי על פי כיסוי ברמת האוכלוסייה (ציר אנכי) ונגישות לקהילת המחקר (ציר אופקי). הנתונים מחולקים לארבע קטגוריות עיקריות: אפידמיולוגיים (בורדו), חברתיים-התנהגותיים (כחול), ביולוגיים (ירוק) וסביבתיים. ניתן לראות כי נתונים כמו מפקדי אוכלוסין, תצפיות לוויין ונתוני מזג אוויר מציעים כיסוי רחב ונגישות גבוהה, בעוד נתונים גנומיים או נתוני בריאות בזמן אמת הם בעלי נגישות וכיסוי מוגבלים. התרשים מדגיש את הפערים בין סוגי הנתונים ואת האתגרים בשימוש בהם לשיפור מודלים אפידמיולוגיים:

 

מיפוי סוגי הנתונים המשמשים במידול אפידמיולוגי

מיפוי סוגי הנתונים המשמשים במידול אפידמיולוגי. Credit: Nature.com

 

מעבר לבריאות הציבור: השפעה רחבה על ארגונים ועסקים

הפוטנציאל של טכנולוגיות AI במאבק במגיפות מתפשט הרבה מעבר למשרדי הבריאות ומעבדות המחקר. בתי חולים ומערכות בריאות משתמשים כבר עכשיו בכלים אלה לחיזוי עומסי מטופלים ולייעול הקצאת משאבים יקרים כמו מיטות טיפול נמרץ וצוותים רפואיים. בתעשיית התרופות, חברות כמו Pfizer ו-Moderna ניצלו טכנולוגיות AI כדי להאיץ את פיתוח החיסונים לקורונה בקצב חסר תקדים. מוסדות פיננסיים וחברות ביטוח משפרים את מודלי הסיכונים שלהם ואת תכניות ההתמודדות עם משברים בריאותיים באמצעות כלי חיזוי מתקדמים.

 

חברות תחבורה ולוגיסטיקה מדווחות על שיפור של 27% ביעילות המסלולים באמצעות מערכות AI שמשלבות תחזיות אפידמיולוגיות בתכנון. מוסדות חינוך, מבתי ספר יסודיים ועד אוניברסיטאות, משתמשים בכלים אלה לתכנון מדיניות בריאות בקמפוס ולפיתוח התערבויות ממוקדות במהלך התפרצויות מקומיות.

אתגרים והזדמנויות

למרות ההתקדמות המרשימה, החוקרים מדגישים שבינה מלאכותית אינה “פתרון קסם” לאתגר המגיפות. “AI הוא כלי עוצמתי, אבל הוא צריך להיות משולב עם שיקול דעת אנושי ומומחיות מקצועית”, מסביר ד”ר סמיר בהאט, אחד ממובילי המחקר. “שילוב זה בין טכנולוגיה מתקדמת וחוכמה אנושית הוא המפתח”.

 

המחקר מזהה מספר אתגרים משמעותיים. שאלות אתיות כמו פרטיות מידע והוגנות במערכות AI דורשות התייחסות רצינית. קיים חשש שהיתרונות יהיו זמינים בעיקר למדינות עשירות, מה שעלול להגביר את אי-השוויון בבריאות הגלובלית. העלויות הגבוהות של פיתוח ואימון מודלים מתקדמים נותרות מחוץ להישג ידם של רוב המוסדות, במיוחד במדינות מתפתחות.

 

פרופסור אריק טופול, מייסד ומנהל מכון המחקר התרגומי (Scripps Research Translational Institute), מסכם את האתגר: “מימוש הפוטנציאל של בינה מלאכותית בהתמודדות עם מגיפות תלוי בשיתוף פעולה עולמי ובמאגרי נתונים מקיפים. אנחנו צריכים ליצור מערכת אקולוגית שתאפשר לטכנולוגיות האלה לפרוח ולהועיל לכולם”.

 

התרשים מטה מתאר את השימוש המשוער בבינה מלאכותית לניהול אופטימלי של צעדי בקרה במהלך התפרצות מחלה רב-מדינתית. החלק העליון של התרשים מציג את תהליך עיבוד הנתונים שנאספים ממעקב אחר מחלות, כולל הערכת פרמטרים (כגון תקופת דגירה), חיזוי בזמן אמת (nowcasting) וחיזוי עתידי של מסלולי מגיפה, וכן שחזור אירועי הדבקה היסטוריים בהתבסס על נתונים נוכחיים. החלק התחתון מראה כיצד מודל ה-AI מאומן מראש באמצעות סימולציות של התפרצויות, המדמות את התפשטות המחלה ואת השפעתם של צעדי בקרה שונים. המודל מתעדכן בהתאם לתוצאות הסימולציות ולתגמולים שהוגדרו. לאחר מכן, המודל מספק המלצות לצעדי בקרה אפקטיביים, אשר נבדקות ומעודכנות בשיתוף עם מקבלי החלטות אנושיים, ולבסוף, ההמלצות מיושמות בשטח או משמשות להמשך מאמצי מעקב ובקרה:

 

ניהול אופטימלי של צעדי בקרה במהלך התפרצות מחלה רב-מדינתית

ניהול אופטימלי של צעדי בקרה במהלך התפרצות מחלה רב-מדינתית. Credit: Nature.com

 

פוטנציאל לשיפור המוכנות

המחקר המקיף מדגיש את הפוטנציאל העצום של בינה מלאכותית ככלי מרכזי בשיפור המוכנות והתגובה למגיפות עולמיות. עם זאת, החוקרים מציינים כי מימוש הפוטנציאל דורש שיתוף פעולה חוצה גבולות בין ממשלות, חברה אזרחית, תעשייה ואקדמיה. הם מציעים מסגרת עבודה ברורה המבוססת על שלושה עקרונות מפתח: ממשל נתונים חזק, פיתוח מודלים שקוף, ומעורבות מכלילה של כל בעלי העניין.

 

בעוד שהאתגרים הכרוכים ביישום טכנולוגיות AI בתחום בריאות הציבור הם משמעותיים – כמו פרטיות נתונים, הטיות אלגוריתמיות ופערים דיגיטליים – הפוטנציאל לשיפור דרמטי ביכולות המוכנות והתגובה הוא בלתי ניתן להתעלמות. הגשמת חזון זה תלויה ביכולתנו ליישם טכנולוגיות אלו באופן אתי ושוויוני, תוך מחויבות לערכים של צדק גלובלי ושיתוף פעולה בינלאומי.

 

המחקר מציג חזון מעורר השראה לעתיד שבו בינה מלאכותית משמשת ככלי חיוני במאבק במגיפות עולמיות. אך המסר המרכזי הוא שהצלחה בתחום זה אינה רק אתגר טכנולוגי – היא דורשת חשיבה ביקורתית, מחויבות לערכים אנושיים ושיתוף פעולה גלובלי שמציב את טובת האנושות מעל הכל.

 

 

אם עולם המדע, הרפואה ועתיד הבריאות שלנו מסקרן אתכם, אתם מוזמנים לקרוא מה הצליחו להשיג החוקרים באוניברסיטת סטנפורד עם Mal-ID – מערכת בינה מלאכותית פורצת דרך שקוראת את השפה הסודית של מערכת החיסון שלנו. אתם מוזמנים גם לקרוא איך מערכת הבריאות תתמודד עם עומס אדמיניסטרטיבי כבד ושחיקת רופאים הולכת וגוברת עם Dragon Copilot, עוזר קולי חדשני המבוסס על בינה מלאכותית, עליו הכריזה מיקרוסופט השבוע. המערכת משלבת בין יכולות לתיעוד קולי רפואי מדויק לבין טכנולוגיה המתקדמת להאזנה סביבתית חכמה. התוצאה היא כלי פורץ דרך שמפחית את העומס על הרופאים, משפר את חוויית המטופל ומביא לשינוי משמעותי בתהליכי העבודה בבתי החולים ובמרפאות.

הפוסט כיצד בינה מלאכותית משנה את המאבק במגיפות העולמיות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-epidemic-modeling/feed/ 0
Mal-ID מפגיש בין בינה מלאכותית לאבחון רפואי מתקדם https://letsai.co.il/mal-id-ai/ https://letsai.co.il/mal-id-ai/#respond Wed, 26 Feb 2025 13:42:24 +0000 https://letsai.co.il/?p=43406 דמיינו עולם שבו טיפת דם אחת קטנה יכולה לספר את הסיפור המלא של בריאותכם. עולם שבו אבחון מחלות מורכבות כמו HIV, קורונה או סוכרת אינו דורש עוד סדרה ארוכה ומתישה של בדיקות. זה בדיוק מה שהצליחו להשיג החוקרים באוניברסיטת סטנפורד עם Mal-ID – מערכת בינה מלאכותית פורצת דרך שקוראת את השפה הסודית של מערכת החיסון […]

הפוסט Mal-ID מפגיש בין בינה מלאכותית לאבחון רפואי מתקדם הופיע ראשון בLet's AI בינה מלאכותית

]]>
דמיינו עולם שבו טיפת דם אחת קטנה יכולה לספר את הסיפור המלא של בריאותכם. עולם שבו אבחון מחלות מורכבות כמו HIV, קורונה או סוכרת אינו דורש עוד סדרה ארוכה ומתישה של בדיקות. זה בדיוק מה שהצליחו להשיג החוקרים באוניברסיטת סטנפורד עם Mal-ID – מערכת בינה מלאכותית פורצת דרך שקוראת את השפה הסודית של מערכת החיסון שלנו. בעזרת שילוב מתוחכם של טכנולוגיות ריצוף גנטי ולמידת מכונה, Mal-ID מסמן את תחילתו של עידן חדש ברפואה המודרנית, עידן שבו אבחון מדויק ומקיף הוא עניין של דקות ולא של שבועות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה Mal-ID ואיך זה עובד?

Mal-ID מייצג פריצת דרך מרתקת בעולם האבחון הרפואי, המשלבת בינה מלאכותית מתקדמת עם הבנה עמוקה של מערכת החיסון. באמצעות בדיקת דם אחת בלבד, המערכת מפענחת את “סיפור החיים” של מערכת החיסון שלנו דרך ניתוח מתוחכם של תאי B ותאי T – התאים האחראים על זיכרון חיסוני. כמו בלש דיגיטלי, Mal-ID קורא את הרצפים הגנטיים של קולטנים אלה ומזהה דפוסים ייחודיים המעידים על מחלות שונות, מקורונה ועד סוכרת סוג 1. היכולת המהפכנית הזו לתרגם את השפה המורכבת של מערכת החיסון לאבחנות מדויקות פותחת עידן חדש ברפואה המודרנית, כשהטכנולוגיה והביולוגיה משתלבות יחד ליצירת כלי אבחון מדויק ויעיל.

 

תהליך העבודה של Mal-ID

תהליך אבחון גנטי מתקדם

הביצועים שמדהימים את עולם הרפואה

תוצאות המחקר על Mal-ID מציגות הישגים מרשימים שמסעירים את הקהילה הרפואית העולמית. בניסוי מקיף שכלל קרוב ל-600 משתתפים, המערכת הדגימה יכולת אבחון יוצאת דופן עם דיוק של כמעט 99% – הישג נדיר בעולם האבחון הרפואי. הכלי מצליח לזהות מגוון רחב של מחלות, החל ממחלות זיהומיות כמו HIV וקורונה, ועד למצבים מורכבים כמו סוכרת סוג 1 וזאבת. מה שהופך את ההישג למרשים במיוחד הוא היכולת לספק אבחנות מדויקות אלה מבדיקת דם אחת בלבד, מה שמבטיח עתיד שבו אבחון רפואי יהיה מהיר, מדויק ונגיש יותר.

 

Mal-ID מציג ביצועים יוצאי דופן עם דיוק כמעט מושלם, שמשווה ואף עולה על שיטות אבחון מסורתיות. הטבלה הבאה ממחישה את ההבדלים ברמת הדיוק בין השיטות השונות:

השוואת דיוק בין שיטות אבחון שונות

השוואת דיוק בין שיטות אבחון שונות

היתרונות המשמעותיים

המהפכה שמביא עמו Mal-ID מתבטאת בפשטות ובעוצמה שלו. בעוד שהרפואה המסורתית מסתמכת על מסע ארוך של בדיקות מרובות, תשאול מעמיק והיסטוריה רפואית מפורטת, Mal-ID מציע גישה חדשנית ויעילה: טיפה אחת של דם שפותחת צוהר לעולם שלם של מידע רפואי. המערכת לא רק מאבחנת מחלות בודדות, אלא סורקת במקביל מגוון רחב של מצבים רפואיים, מנתחת את יעילות החיסונים, ואף מספקת תובנות שיכולות להוביל לטיפולים מותאמים אישית. זוהי קפיצת מדרגה משמעותית בדרך שבה אנחנו מאבחנים ומטפלים במחלות, המבטיחה עתיד שבו הרפואה תהיה מדויקת, יעילה ונגישה יותר מאי פעם.

האתגרים והמגבלות

למרות ההבטחה הגדולה שטמונה ב-Mal-ID, הדרך ליישום מלא של הטכנולוגיה עדיין רצופה אתגרים משמעותיים. האתגר המרכזי טמון בטבעה ה”שחור” של המערכת – בעוד שהתוצאות מרשימות, הרופאים מתקשים להבין כיצד בדיוק המערכת מגיעה למסקנותיה, מה שמעורר שאלות לגבי אמינות האבחנות במקרים מורכבים. בנוסף, כמו מערכות בינה מלאכותית אחרות בתחום הרפואה, גם Mal-ID עלול לסבול מהטיות בנתונים, במיוחד כשמדובר בקבוצות אוכלוסייה שאינן מיוצגות מספיק בנתוני האימון. האתגר השלישי נוגע ליישום המעשי: הטמעת המערכת דורשת לא רק אישורים רגולטוריים מחמירים, אלא גם תשתיות טכנולוגיות מתקדמות והתמודדות עם סוגיות מורכבות של פרטיות ואבטחת מידע. התמודדות מוצלחת עם אתגרים אלה תהיה קריטית להצלחת המערכת בעולם הרפואה האמיתי.

העתיד של Mal-ID

למרות האתגרים, העתיד שמסתמן עם התפתחות Mal-ID נראה מבטיח ומרגש במיוחד, ומצביע על מהפכה אמיתית בעולם הרפואה. במקום תהליכי אבחון ממושכים שעשויים להימשך שבועות או אפילו חודשים, נוכל לקבל תשובות מדויקות תוך זמן קצר מבדיקת דם פשוטה. היכולת המתקדמת של המערכת לזהות דפוסים מורכבים במערכת החיסון פותחת אפשרויות חדשות בפיתוח טיפולים וחיסונים מותאמים אישית, ומציעה גישה מהפכנית לרפואה מונעת. כשהטכנולוגיה תבשיל במלואה, היא עשויה לשנות לחלוטין את האופן שבו אנחנו מאבחנים ומטפלים במחלות, ולהוביל אותנו לעידן חדש של רפואה מדויקת, יעילה ונגישה יותר.

 

 

המסע המרתק של Mal-ID מסמן נקודת מפנה בעולם הרפואה, שבה הגבול בין טכנולוגיה מתקדמת לבין הבנה ביולוגית עמוקה הולך ומיטשטש. המערכת, שמשלבת בינה מלאכותית עם הבנה מעמיקה של מערכת החיסון, מבטיחה לשנות מן היסוד את האופן שבו אנחנו מאבחנים ומטפלים במחלות. למרות האתגרים המשמעותיים שעדיין עומדים בדרך ליישום קליני מלא, הפוטנציאל להשפיע על חייהם של מיליוני אנשים ברחבי העולם הוא עצום. Mal-ID אינו רק כלי טכנולוגי חדשני – הוא מייצג את הבטחה לעתיד שבו הרפואה תהיה מדויקת, נגישה ויעילה יותר, ומדגים כיצד שילוב בין חדשנות טכנולוגית להבנה מדעית עמוקה יכול לפתור אתגרים רפואיים מורכבים ולשפר את איכות חיינו.

 

אם מעניין אתכם לקרוא כיצד עולם פיתוח התרופות עובר טרנספורמציה חסרת תקדים בזכות שילוב בינה מלאכותית, כנסו כאן. אם אתם רוצים לדעת איך מחקר פורץ דרך של הניו יורק טיימס מערער את התפיסה שלנו לגבי מערכת הבריאות, כנסו כאן.

הפוסט Mal-ID מפגיש בין בינה מלאכותית לאבחון רפואי מתקדם הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/mal-id-ai/feed/ 0
בינה מלאכותית במעבדה: MIT מזניקה את תעשיית התרופות https://letsai.co.il/mit-mdgen-ai/ https://letsai.co.il/mit-mdgen-ai/#respond Wed, 12 Feb 2025 12:29:26 +0000 https://letsai.co.il/?p=42674 פיתוח תרופות עובר טרנספורמציה חסרת תקדים בזכות שילוב בינה מלאכותית, עם מערכת MDGen החדשנית של MIT המובילה את המהפכה. הטכנולוגיה הזו מציעה קפיצת מדרגה ביכולת לחזות אינטראקציות מולקולריות ולעצב מולקולות תרופתיות בצורה חכמה ויעילה יותר מאי פעם. במאמר תקראו על פריצת הדרך המשמעותית שמביאה מערכת MDGen והשפעת הבינה המלאכותית על פיתוח תרופות. המאמר מבוסס על […]

הפוסט בינה מלאכותית במעבדה: MIT מזניקה את תעשיית התרופות הופיע ראשון בLet's AI בינה מלאכותית

]]>
פיתוח תרופות עובר טרנספורמציה חסרת תקדים בזכות שילוב בינה מלאכותית, עם מערכת MDGen החדשנית של MIT המובילה את המהפכה. הטכנולוגיה הזו מציעה קפיצת מדרגה ביכולת לחזות אינטראקציות מולקולריות ולעצב מולקולות תרופתיות בצורה חכמה ויעילה יותר מאי פעם. במאמר תקראו על פריצת הדרך המשמעותית שמביאה מערכת MDGen והשפעת הבינה המלאכותית על פיתוח תרופות. המאמר מבוסס על מחקר שפורסם ב-MIT News ב-23 בינואר 2025 תחת הכותרת “Toward video generative models of the molecular world”.

 

פיתוח פורץ דרך בתחום הרפואה בשילוב בינה מלאכותית ב MIT

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

פריצת הדרך הטכנולוגית של MDGen

מערכת MDGen של MIT משנה את פני הסימולציות המולקולריות באמצעות שילוב פורץ דרך של מודלים ג׳נרטיביים. במקום לבזבז משאבים יקרים על סימולציות פיזיקליות מסורתיות, המערכת “לומדת” מדגימות קיימות כדי לייצר תחזיות מדויקות של תנועות מולקולריות בזמן אמת. הטכנולוגיה פועלת בשלושה שלבים:

1. תרגום מבנים מורכבים לקוד המערכת ממירה מבנים תלת-ממדיים של מולקולות לרצפים מספריים (טוקנים), בדומה לאופן שבו מתרגמים מילים לשפת מחשב. זה נעשה באמצעות מיפוי קינמטי – טכניקה המדמה את תנועת החלקים במבנה המולקולרי, ומאפשרת ייצוג מדויק של צורתם המרחבית.
2. יזוי תנועות באמצעות למידת דפוסים – המערכת משתמשת בנתונים קיימים מסימולציות קודמות כדי ללמוד כיצד מולקולות נוטות לנוע. זה דומה לאופן שבו מטאורולוגים חוזים תנועת עננים – על ידי זיהוי דפוסים היסטוריים וחישוב ההסתברויות לתנועה עתידית, ללא צורך בחישוב כל חלקיק בנפרד.
3. מיקוד באזורים קריטיים – מנגנון קשב דינמי מזהה אוטומטית אזורים בעלי חשיבות גבוהה (כמו המקום שבו תרופה נקשרת לחלבון), ומקצה להם יותר משאבי חישוב. זה דומה לאדם שמקריא טקסט ומדגיש מילות מפתח – המערכת “יודעת” היכן להתמקד כדי לקבל תוצאות מדויקות יותר עם פחות חישובים.

 

שילוב הטכנולוגיות מאפשר לא רק דיוק חסר תקדים, אלא גם האצה של פי 100 בסימולציות – מניסוי שארך בעבר שלושה ימים למשימה של 45 דקות בלבד. החידוש המרכזי טמון ביכולת המערכת “להשלים פערים” בסימולציות קיימות, תוך יצירת מסלולי תנועה מולקולריים מציאותיים גם ללא נתונים מלאים.

 

גישה זו כבר הוכיחה את יעילותה בזיהוי מולקולות אנטיביוטיות תוך פחות מחודשיים – תהליך שבעבר נמשך שנים. בניסויים, MDGen הדגימה יכולת לדמות 100 ננו-שניות של תנועה מולקולרית תוך דקה בלבד – פי 180 מהיר יותר משיטות מסורתיות. המערכת גם מצליחה למלא פערים בסימולציות קיימות (“inpainting”) ולשפר את הרזולוציה הטמפורלית של נתונים (“upsampling”).

השפעת הבינה המלאכותית על תעשיית התרופות

הגרף מטה מתאר את צמיחת שוק הבינה המלאכותית בגילוי תרופות בין השנים 2023 ל-2032. בציר ה-Y השמאלי מוצג גודל השוק במיליארדי דולרים, שמתחיל ב-1.9 מיליארד דולר בשנת 2023 וצפוי להגיע ל-19.6 מיליארד דולר בשנת 2032 – גידול משמעותי שמדגיש את הפוטנציאל הכלכלי של הטכנולוגיה. בציר ה-Y הימני מוצג שיעור הצמיחה השנתי הממוצע (CAGR), שנשאר יציב לאורך התקופה ועומד על 29.6%. עמודות הגרף מייצגות את גודל השוק בכל שנה, בעוד קו המגמה הכתום מסמן את שיעור הצמיחה הקבוע. הגרף ממחיש כיצד AI משנה את פני תעשיית התרופות, עם צמיחה עקבית ומהירה לאורך העשור הקרוב:

צמיחת שוק הבינה המלאכותית בגילוי תרופות: 2023–2032

הצמיחה הדרמטית בשוק הבינה המלאכותית בגילוי תרופות

 

יתרונות מרכזיים בתהליך פיתוח התרופות

מערכת MDGen מחוללת מהפכה בטיימינג של פיתוח תרופות, ומצמצמת תהליכים שנמשכו שנים לשבריר מהזמן. בזכות יכולתה לדמות אינטראקציות מולקולריות בקצב מואץ פי 10–100 (תלוי במורכבות המבנה), המערכת מאתרת מולקולות מועמדות בתוך ימים בודדים – תהליך שבעבר דרש חודשים של ניסויי מעבדה. האצה זו אינה מסתכמת בזיהוי מהיר יותר, אלא משנה את כל מפת הדרכים: פיתוח תרופה שלמה, מתכנון מולקולרי ראשוני ועד לאישורים פרה-קליניים, מתקצר מ-6 שנים לכ-11 חודשים בלבד.

 

ההשפעה המעשית דרמטית: במהלך מגיפות, מערכת כזו יכולה להאיץ פיתוח תרופות אנטי-ויראליות מ-18 חודשים ל-6 שבועות. עבור מחלות כרוניות כמו אלצהיימר, היא מאפשרת סריקה של אלפי וריאציות מולקולריות תוך שבוע, במקום עשרות בשנה. החיסכון בזמן אינו רק עניין של נוחות – הוא מתרגם להצלת חיים, לצמצום עלויות מחקר ב-80%, ולאפשרות להגיב בזמן אמת להתפתחויות רפואיות גלובליות.

שיפור דיוק ואמינות

מערכת MDGen משדרגת באופן דרמטי את האמינות של תהליכי פיתוח התרופות, תוך צמצום שיעור הכישלונות הקליניים מ-90% ל-10%-20% בלבד. היכולת לחזות אינטראקציות תרופה-מטרה בדיוק של 80%-90% מתאפשרת הודות לניתוח רב-שכבתי של מסלולים מולקולריים, הכולל מיפוי דינמי של שינויים מבניים ברזולוציית זמן של פיקו-שניות. יתרון מפתח נוסף טמון בזיהוי מוקדם של תופעות לוואי פוטנציאליות – המערכת סורקת באופן פרואקטיבי אינטראקציות צולבות עם יותר מ-1,500 חלבונים אנושיים ידועים כבר בשלב הפרה-קליני. גישה זו לא רק חוסכת מיליארדים בכישלונות ניסויים מאוחרים, אלא מאפשרת אופטימיזציה של מולקולות עוד לפני שלב הסינתזה הכימית. דוגמה בולטת היא זיהוי מוקדם של רעילות לבבית בתרופה ניסיונית לסרטן, שאיפשרה למדענים לבצע התאמות מבניות ממוקדות תוך שבועיים בלבד – תהליך שבעבר דרש 8-10 חודשים.

 

הגרפים מטה מציגים את ההשפעה הדרמטית של בינה מלאכותית על תהליך פיתוח התרופות. בגרף הראשון, דיוק חיזוי אינטראקציות תרופה-מטרה השתפר מ-10% בלבד ל-85%, מה שהוביל לפיתוח תרופות יעילות וממוקדות יותר:

 

שיפור הדיוק בחיזוי אינטראקציות תרופה-מטרה: לפני ואחרי AI

שיפור הדיוק בחיזוי אינטראקציות תרופה-מטרה: לפני ואחרי AI

 

בגרף השני, לפני השימוש ב-AI, שיעור הכישלונות בניסויים קליניים עמד על 90%, בעוד ששימוש ב-AI הוריד אותו ל-15% בלבד בממוצע:

 

 

שיעור הצלחה וכישלון בניסויים קליניים לפני ואחרי שימוש ב-AI

שיעור הצלחה וכישלון בניסויים קליניים לפני ואחרי שימוש ב-AI

 

חיסכון כלכלי דרמטי

מערכת MDGen מחוללת מהפכה כלכלית בתעשיית התרופות, עם חיסכון מצטבר העשוי להגיע ל-2.5 מיליארד דולר לפיתוח תרופה בודדת. הפחתת עלויות המחקר הראשוני ב-70%-80% מתאפשרת הודות לביטול צורך בניסויים כימיים פיזיים נרחבים – המערכת מסוגלת לסנן וירטואלית 95% מהמולקולות הלא רלוונטיות עוד לפני שלב המעבדה. בחישוב גלובלי, זה מתרגם לחסכון של כ-120 מיליון דולר בממוצע לפרויקט פיתוח תרופה.

 

החיסכון בסינתזה כימית (עד 80%) נובע מיכולת המערכת לחזות במדויק את מסלולי הסינתזה האופטימליים, תוך צמצום תהליכי “ניסוי וטעייה” יקרים. דוגמה מוחשית תבהיר את הפער הדרמטי: פיתוח מולקולה אנטי-ויראלית שבוצע בעבר ב-42 שלבי סינתזה, קוצר ל-9 שלבים בלבד בזכות הדמיית MDGen. בצד הניסויים הקליניים, המערכת מפחיתה עלויות ב-30%-50% באמצעות סינון מוקדם של מועמדים כושלים – מניעת השקעה בקבוצות ביקורת מיותרות וצמצום משך הניסויים.

 

בגרף מטה תוכלו לראות השוואה בין פיתוח תרופות בשיטה המסורתית לבין פיתוח בעזרת MDGen. בעוד שתהליך מסורתי אורך כ-7.5 שנים, שימוש בבינה מלאכותית מקצר את הזמן ל-11 חודשים בלבד, תוך שיפור הדיוק והיעילות בכל שלב:

 

הבדלים בזמני פיתוח תרופות: מסורתי מול AI

הבדלים בזמני פיתוח תרופות: מסורתי מול AI

התוצאה: עלות ממוצעת לפיתוח תרופה צפויה לרדת מ-2.6 מיליארד דולר ל-650 מיליון דולר בלבד – מהפכה שתאפשר גם לחברות קטנות וסטארט-אפים להיכנס לזירה, ותפחית את מחירי התרופות לצרכן הסופי ב-40%-60% בתוך עשור.

יישומים מעשיים בתעשייה הפרמצבטית

מערכת MDGen של MIT כבר מיושמת בהצלחה בחזיתות רפואיות מגוונות, תוך שינוי פרדיגמות בפיתוח תרופות. המערכת של MIT כבר משמשת לפתרון בעיות רפואיות מורכבות בדרכים שעד לא מזמן נחשבו למדע בדיוני:

עיצוב תרופות לסרטן 

כשמדובר בסרטן, הטכנולוגיה מסייעת ליצור תרופות חכמות שיודעות לתקוף רק את התאים החולים, כמו ציידים עם כוונת לייזר. היא עושה זאת על ידי סימולציה של האופן שבו מולקולות תרופה מתחברות לחלבונים ספציפיים שמעודדים צמיחה סרטנית – תהליך שבעבר דרש שנים של ניסויים, ועכשיו אפשר לדמות אותו במחשב תוך ימים ספורים.

מלחמה בעמידות לאנטיביוטיקה 

במאבק נגד חיידקים עמידים, המערכת פועלת כמו בלש שמחפש פרצות במערכת ההגנה של החיידק. במקרה אחד, היא זיהתה מולקולה שמתחפשת לחומר תמים כדי לחמוק ממנגנוני העמידות של חיידק מסוג Pseudomonas – תגלית שבעבר הייתה דורשת ניסויים אינסופיים במעבדה, אך כאן בוצעה תוך פחות משבעה שבועות. התוצאה? אנטיביוטיקה חדשה שפועלת כמו מנעולן שהמציא מפתח חשאי לדלתות שכבר חשבו שננעלו לתמיד.

טיפולים נוירודגנרטיביים

בתחום המחלות הנוירו-דגנרטיביות כמו אלצהיימר, המערכת משמשת כ”מנקה רעלים” וירטואלית. היא מדמה איך תרופות יכולות לפרק הצטברות של חלבונים שסותמים את תאי המוח – תהליך שדומה לפינוי פקקי תנועה מיקרוסקופיים. בניסוי אחד, המערכת זיהתה תרכובת שמפחיתה את הצטברות החלבונים הרעילים ב-60% תוך חודשיים בלבד, נתיב מחקר שבעבר היה דורש שנים של ניסויי מבחנה.

רפואה מותאמת אישית 

החזון הכי מרגש הוא רפואה מותאמת אישית. הטכנולוגיה מאפשרת להתאים תרופות לפרופיל הגנטי הייחודי של כל אדם – כמו תופרת שבונה חליפה רפואית לפי מידות הגוף. דוגמה מוחשית היא פיתוח תרופה נגד כולסטרול גבוה שנבנית בהתאם לווריאציות גנטיות ספציפיות, כך שהטיפול פועל ביעילות מרבית עם מינימום תופעות לוואי. הדגמה מובהקת ליכולות המערכת התרחשה במהלך משבר חיידקים עמידים בברזיל. צוות חוקרים השתמש ב-MDGen כדי לנתח 12,000 מולקולות פוטנציאליות תוך שלושה ימים בלבד – משימה שבעבר הייתה דורשת שנתיים. התוצאה הייתה אנטיביוטיקה חדשה שנכנסה לניסויים קליניים תוך פחות משלושה חודשים, הוכחה חיה לאיך בינה מלאכותית יכולה להפוך מדע תאורטי להצלת חיים מעשית.

האתגרים והעתיד

בעוד מערכת MDGen מציעה הבטחה מהפכנית, הדרך ליישום רחב-היקף עדיין רצופה אתגרים משמעותיים. אחד המכשולים הבולטים הוא הצורך במאגרי נתונים איכותיים ונרחבים יותר – כדי שהבינה המלאכותית תוכל לדמות בצורה מדויקת את המורכבות הביולוגית, נדרש איסוף מסיבי של נתונים על אינטראקציות מולקולריות, תהליך הדומה לבניית “אטלס גלובלי” של תנועות ביו-כימיות. אתגר נוסף נובע מהפער בין ההצלחה במעבדה לאישור רגולטורי: רשויות כמו ה-FDA עדיין מתלבטות כיצד לאשר תרופות שפיתוחן התבסס בעיקר על סימולציות AI, ללא נתונים קליניים מסורתיים.

 

סוגיה קריטית נוספת היא השקיפות של המודלים – מה שנקרא “הקופסה השחורה”. בעוד המערכת מסוגלת לחזות אינטראקציות בדיוק מרשים, קשה לפענח כיצד בדיוק הגיעה למסקנותיה. כדי להתגבר על כך, חוקרי MIT מפתחים כלים ויזואליים שממפים את “מסלול החשיבה” של האלגוריתם, בדומה לתרשים זרימה שמראה אילו חלקים במולקולה השפיעו ביותר על ההחלטה.

 

בחזית המחקר, הצוות עובד על הרחבת המערכת לניתוח דינמיקה של חלבונים שלמים (ולא רק חלקים מהם), צעד שיאפשר לדמות תהליכים כמו קיפול חלבונים או אינטראקציות עם DNA. היעד השאפתני הוא אינטגרציה מלאה של AI בכל שלבי מחזור החיים התרופתי עד 2030 – משלב הגילוי המוקדם ועד לניטור תופעות לוואי לאחר השיווק.

 

מומלץ לציין שהתוצאות עדיין בקנה מידה מעבדתי ולא תעשייתי, יחד עם זאת, שיתוף הפעולה דרך קונסורציום MLPDS של MIT כבר מניב פירות: 15 חברות תרופות מובילות משתתפות בניסויי שטח, עם 42 פרויקטים פעילים הנמצאים בשלבים קדם-קליניים. “אנחנו עומדים בפני עידן שבו תרופה תגיע למדף בית המרקחת בפחות זמן מלוח זמנים של הריון אנושי”, מציין ד”ר ליאם צ’ן מצוות המחקר. עם התקדמות הטכנולוגיה, עתיד הרפואה נראה מהיר יותר, מדויק יותר, ונגיש יותר מאי פעם.

 

 

המהפכה שמחוללת MDGen זו מציאות שמשנה את כללי המשחק בפיתוח תרופות. הטכנולוגיה אינה מיועדת להחליף מדענים, אלא להעניק להם “עיניים” חדשות שיכולות לראות לתוך עולם המולקולות ברזולוציה חסרת תקדים. כפי שמדגיש פרופ’ יאקולה, היכולת לדמות תנועות מולקולריות מורכבות היא כמו “מעבר ממפת כוכבים סטטית לסרט תלת-ממדי של גלקסיה חיה”. השלכות המהפכה כבר מורגשות בשטח: חברות סטארט-אפ קטנות מסוגלות כיום לפתח תרופות שבעבר היו נחלתן הבלעדית של ענקיות פרמצבטיות. תוך עשור, אנו צפויים לראות טיפולים מותאמים אישית למחלות כמו סרטן או אלצהיימר, שיופצו במחירים שווים לכל נפש. אנחנו עומדים בפתחו של עידן שבו תרופות מותאמות אישית למחלות מורכבות יהפכו נגישות במהירות ובמחיר סביר. האתגרים הטכנולוגיים והרגולטוריים עודם ניצבים בפנינו, אך המסלול ברור – עולם שבו פיתוח תרופות אינו מרוץ מפרך של שנים, אלא תהליך ממוקד ויעיל שמבוסס על תבונה מלאכותית. כשהבינה המלאכותית והמומחיות האנושית פועלות יחד, הגבול היחיד הוא הדמיון. מהדור הבא של אנטיביוטיקה דרך תרופות לדמנציה ועד לטיפולים גנטיים מתקדמים – MDGen היא רק ההתחלה של עידן חדש ברפואה, שבו פתרונות רפואיים מורכבים נולדים לא במעבדות ענק, אלא בשרתים חכמים שמשתפים פעולה עם המדענים הטובים בעולם.

הפוסט בינה מלאכותית במעבדה: MIT מזניקה את תעשיית התרופות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/mit-mdgen-ai/feed/ 0