תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI

איליה סוצקבר מדבר על עתיד הבינה המלאכותית ומה באמת צריך כדי להגיע ל-AGI
תוכן עניינים

המדען הישראלי שייסד את OpenAI שובר שתיקה של חודשים ומציג תפיסה חדשה לגמרי על עתיד הבינה המלאכותית. בראיון מקיף לפודקאסט של Dwarkesh Patel ב-25 בנובמבר 2025, סוצקבר מסביר למה רק להגדיל את כוח העיבוד לא יביא אותנו ל-AGI, איך הוא מתכנן לבנות מערכות שלומדות כמו בני אדם, ואיזה תפקיד ממשי ממלאים רגשות בקבלת החלטות.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מודלים שמצטיינים במבחנים ונכשלים במציאות

הכשל המרכזי בבינה המלאכותית היום, לדברי סוצקבר, הוא הפער בין הצלחה מרשימה במבחנים לבין ביצועים גרועים ביישומים מעשיים. המודלים מראים תוצאות מרשימות על מבחני evals (מבחנים סטנדרטיים במתמטיקה, קידוד והיגיון שבהם חברות AI בודקות את ביצועי המודלים לפני שחרור), אבל באותו הזמן חוזרים על אותן שגיאות פעם אחר פעם בעבודה אמיתית.

 

הוא מתאר מצב שכל מי שעבד עם מודלי AI לקידוד מכיר – המודל מתקן באג ויוצר באג חדש. כשמפנים את תשומת ליבו לבאג החדש, הוא מחזיר את הבאג המקורי. אפשר לעבור בין שני הבאגים האלה ללא סוף.

 

הסיבה המרכזית, לפי סוצקבר, נעוצה באופן שבו חברות בוחרות את סביבות האימון. כשיש מבחנים ספציפיים שעליהם המודל ייבחן בשחרור, הצוותים יוצרים סביבות Reinforcement Learning (למידת חיזוק שבה המודל לומד מניסוי וטעייה) שמכוונות בדיוק לאותם מבחנים. התוצאה היא שהמודלים מתמחים במבחנים הספציפיים האלה במקום לפתח יכולת אמיתית להכליל.

 

ההשוואה שלו לעולם האנושי מבהירה את הנקודה: תלמיד שתרגל 10,000 שעות ספציפית לתחרות תכנות מסוימת ישלוט בכל האלגוריתמים הרלוונטיים. אבל תלמיד אחר שתרגל רק 100 שעות אך יש לו הבנה עמוקה יותר של העקרונות – הוא זה שיצליח יותר בקריירה האמיתית.

למה בני אדם לומדים טוב יותר?

העובדה המרכזית שמניעה את כל התזה של סוצקבר היא פשוטה. המודלים הנוכחיים מכלילים הרבה פחות טוב מבני אדם. זה נכון גם בתחומים כמו מתמטיקה וקידוד – תחומים שלא התפתחו באבולוציה ולכן לא ניתן להסביר את היתרון האנושי ב”קידוד גנטי”.

 

הדוגמה הבולטת היא שנער לומד לנהוג תוך כ-10 שעות תרגול. בתקופה הזו, אין לו מערכת פרסים חיצונית מפורטת שמדרגת כל החלטה. במקום זאת, יש לו מעין חוש פנימי שאומר לו באופן מיידי אם הנהיגה שלו טובה או גרועה, והוא מתקן את עצמו תוך כדי תנועה.

 

המודלים הנוכחיים עובדים אחרת. הם מבצעים רצף ארוך של פעולות – אלפי “צעדי חשיבה” – ורק בסוף התהליך כולו מקבלים ציון כללי. אין להם האפשרות להבין באמצע הדרך אם הכיוון שהם לוקחים הוא נכון.

רגשות כפונקציית ערך

בחלק שעורר הכי הרבה עניין בראיון, סוצקבר מביא מקרה נוירולוגי שמאתגר הנחות בסיסיות: אדם שעבר נזק מוחי שפגע במרכז עיבוד הרגשות שלו. הוא נשאר מסוגל לדבר בצורה תקינה, יכול היה לפתור חידות לוגיות, ובמבחנים סטנדרטיים נראה תקין לחלוטין. אבל הוא איבד לחלוטין את היכולת להרגיש – לא עצב, לא כעס, לא שמחה.

 

התוצאה המפתיעה היתה שהוא איבד לחלוטין את היכולת לקבל החלטות. לקח לו שעות להחליט איזה גרביים ללבוש. החלטות פיננסיות היו קטסטרופליות.

 

זו תובנה שמערערת על ההנחה המקובלת שרגשות הם “רעש” בקבלת החלטות רציונליות. במקום זאת, הם ממלאים תפקיד מהותי – הם מספקים משוב מיידי על איכות ההחלטות שלנו.

 

במונחי למידת מכונה, זה מתאים למושג של “פונקציית ערך” (value function) – מערכת שמעריכה בזמן אמת האם צעד ביניים מסוים הוא טוב או רע. במקום לחכות עד סוף תהליך ארוך כולו כדי לקבל משוב, אפשר לקבל אינדיקציה כבר באמצע אם אנחנו בכיוון הנכון.

 

סוצקבר מאמין שפיתוח משהו דומה למערכת הרגשית האנושית – גם אם פשוטה יחסית – עשוי להיות קריטי ליצירת מערכות AI שיכולות לקבל החלטות טובות ולהכליל מידע באופן אמין.

סוף עידן הסקיילינג

סוצקבר מציע לחלק את ההיסטוריה של הבינה המלאכותית המודרנית לשלושה שלבים:

  • 2012-2020: עידן המחקר הראשון
  • 2020-2025: עידן הסקיילינג
  • 2026 ואילך: חזרה לעידן המחקר

ההבנה המרכזית של תקופת הסקיילינג הייתה שיש “מתכון” שעובד: לוקחים דאטה, compute, ורשת נוירונים – ומערבבים. ככל שמגדילים את הרכיבים, התוצאות משתפרות באופן צפוי. זה נתן לחברות דרך בטוחה יחסית להשקיע משאבים עצומים.

 

אבל עכשיו, לפי סוצקבר, המצב השתנה. כמות הדאטה האיכותי בעולם מוגבלת. השאלה היא מה קורה אחרי שהדאטה אוזל.

 

הוא לא מאמין שפשוט להגדיל פי 100 את כוח העיבוד יביא את הקפיצה הבאה. זה ישפר את המודלים, בהחלט, אבל לא יספיק כדי להגיע ל-AGI אמיתי. במקום זאת, צריך רעיונות חדשים – ולכן חזרה למחקר.

 

“הגענו לנקודה שבה יש יותר חברות מאשר רעיונות,” הוא מציין.

 

 

SSI: הימור של 3 מיליארד דולר על מחקר

Safe Superintelligence, החברה שסוצקבר הקים, גייסה 3 מיליארד דולר. זה נשמע מעט לעומת המתחרים, אבל סוצקבר מסביר למה זה בעצם מספיק למחקר – חברות גדולות יותר מוציאות חלק ענק מהמשאבים על הפעלת המודלים (inference), על צוותי מכירות ומהנדסים, ועל פיתוח פיצ’רים למוצר. כשמסתכלים רק על מה שנשאר למחקר אמיתי, ההפרש בין SSI לבין המתחרים הופך להיות קטן הרבה יותר.

 

SSI, לעומת זאת, כמעט לא מוציאה משאבים על דברים האלה. אין מוצר, אין לקוחות, אין עלויות inference. כל המשאבים מופנים למחקר על השאלה המרכזית: איך בונים מערכות עם יכולת הכללה אמינה?

 

“עשינו התקדמות טובה בשנה האחרונה,” הוא אומר, “אבל צריך להמשיך. נדרש עוד מחקר.”

למידה מתמשכת

סוצקבר מציע להבין AGI בצורה שונה מהמקובל. המושג המסורתי של AGI הושפע מההצלחה של pre-training – שבו מודל מאומן פעם אחת ויוצא מוכן לכל משימה. אבל, הוא מציין, בן אדם הוא לא AGI במובן הזה. יש לנו בסיס של כישורים, אבל חסר לנו ידע עצום. במקום זאת, אנחנו מסתמכים על למידה מתמשכת לאורך החיים.

 

הוא מציע לחשוב על superintelligence לא כמוח מוגמר שיודע לעשות כל דבר, אלא כמוח שיכול ללמוד לעשות כל דבר – ולעשות זאת מהר מאוד. כמו מישהו צעיר ומוכשר שלהוט ללמוד: הוא לא יודע הרבה עדיין, אבל הוא תלמיד מצוין. תגיד לו ללמוד תכנות, רפואה, עריכת דין – והוא ירכוש את הידע במהירות.

 

המערכת הזו תצא לעולם ותתחיל תהליך של למידה מתמשכת דרך ניסוי וטעייה בפועל. זה תהליך, לא שחרור של מוצר סופי ומוגמר.

בטיחות מבוססת שיתוף פעולה

סוצקבר שינה את דעתו בנקודה חשובה: הצורך להציג AI לציבור בהדרגה. הבעיה המרכזית עם AI עתידי, לדבריו, היא שקשה לדמיין מערכות שעדיין לא קיימות.

 

הוא צופה שככל שה-AI יהפוך לחזק יותר באופן ניכר, ההתנהגות תשתנה בצורה דרמטית. חברות שהן מתחרות עזות יתחילו לשתף פעולה בנושאי בטיחות. הוא מזכיר את השיתוף הפעולה הראשוני בין OpenAI ל-Anthropic כדוגמה מוקדמת למגמה הזו.

 

לגבי alignment, שזה התאמת התנהגות המודלים כך שתהיה תואמת לערכים, למטרות ולציפיות של בני אדם, או בפשטות – איך לוודא שמערכות חזקות מאוד יפעלו לטובתנו – הוא מציע כיוון למחשבה.

 

ליצור AI שאכפת לו מחיים תבוניים בכלל, ולא רק מבני אדם. הטיעון הוא שה-AI עצמו יהיה תבוני, ולכן עשוי לפתח מעין “אמפתיה” למערכות תבוניות אחרות, בדומה לאמפתיה האנושית לבעלי חיים.

 

הוא גם מאמין שיהיה חשוב למצוא דרך להגביל את הכוח המקסימלי של המערכות החזקות ביותר, אם כי לא מפרט איך.

תחזית זהירה

כשנשאל מתי הוא מצפה למערכת שיכולה ללמוד כמו בן אדם ולהפוך לעל-אנושית בעקבות כך, התשובה היתה: “5 עד 20 שנים.” זו תחזית זהירה בהרבה מהציפיות הרגילות בתעשייה, ומשקפת את ההבנה שהדרך קדימה דורשת פריצות דרך מדעיות אמיתיות.

כמה שאלות שכדאי לשאול

הראיון של סוצקבר מעלה כיוון מחשבה מרתק, אבל גם כמה שאלות שכדאי לשקול:

1. האם הדאטה באמת נגמר? סוצקבר עצמו מזכיר שגוגל מצאה לכאורה דרכים לחלץ עוד ערך מ-pre-training. אם זה נכון, האם באמת הגענו לקצה של מה שאפשר לעשות עם הדאטה הקיים, או שפשוט צריך חשיבה יותר יצירתית על איך להשתמש בו? השאלה הזו משנה את כל התזה המרכזית.

2. האם רגשות כפונקציית ערך הם הכרחיים? הדוגמה הנוירולוגית מרתקת, אבל לא ברור שזה מוכיח הכרח טכני. DeepSeek R1, למשל, השיגה תוצאות חזקות ב-reasoning ללא value function מפורשת כפי שסוצקבר מתאר. האם זה באמת חסם שאי אפשר לעקוף, או שזה כיוון מחקרי אחד מתוך כמה אפשריים?

3. איך בדיוק בונים AI שאכפת לו מחיים תבונתיים? הרעיון נשמע מושך, אבל סוצקבר לא נותן מפת דרכים ברורה. זה יותר חזון מאשר תוכנית ביצוע. איך מוודאים ש”אכפתיות” תהיה חזקה מספיק? איך מונעים מצב שבו ה-AI יחליט שהאינטרס של חיים תבונתיים באופן כללי שונה מהאינטרס האנושי הספציפי?

4. האם הגישה של SSI יכולה להצליח ללא הסקייל של המתחרים? סוצקבר מסביר שה-compute שיש ל-SSI מספיק כדי להוכיח רעיונות, אבל מה קורה אם הרעיונות הנכונים דווקא דורשים סקייל עצום כדי להוכיח אותם? האם אפשר לדעת מראש?

5. האם 5 עד 20 שנה זה תחזית? טווח כל כך רחב קשה לאמת או להפריך. זה לא באמת אומר “אני חושב שזה יקרה בשנה X” – זה יותר “אני לא יודע מתי, אבל כנראה לא מחר ולא בעוד 50 שנה”. האם יש דרך לצמצם את חוסר הוודאות הזה?

האם סוצקבר צודק?

הראיון של סוצקבר מרתק ומציב סימן שאלה גדול מעל הגישה הנוכחית של תעשיית ה-AI. אם הוא צודק, הדרך ל-AGI לא תבוא מהשקעה של עשרות מיליארדי דולרים במרכזי נתונים גדולים עוד יותר. היא תבוא ממחקר בסיסי על איך למדוד ולשפר את היכולת של מכונות להכליל מידע, לדעת תוך כדי תנועה אם הן בכיוון הנכון, וללמוד מניסיון כמו שבני אדם עושים.

 

עבור המשקיעים, המסר הוא שהמירוץ על כוח עיבוד עלול להאט בקרוב. עבור החוקרים, זו הזמנה לחזור לעבודת המחקר הבסיסית. ועבור הציבור הרחב, זה תזכורת שהדרך ל-superintelligence היא כנראה ארוכה ומסובכת יותר ממה שהכותרות נוטות לטעון.

 

האם סוצקבר צודק? הזמן יגיד. אבל כשהאדם שעזר לבנות את AlexNet, GPT-3 ואת OpenAI אומר שהכיוון שכולם רצים אליו לא יעבוד לבד, כדאי להקשיב.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של רון גולד?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר סוכני העל של Genspark
3/11/2025 - בשעה 20:00