“איך שרדתם את ההתבגרות הטכנולוגית מבלי להשמיד את עצמכם?” בשאלה הזו פותח דריו אמודאי (Dario Amodei), מנכ”ל Anthropic, את מאמרו החדש. הוא השתמש במילים מסצנה בסרט “קונטקט” של קרל סייגן, שבה אסטרונומית שזכתה לייצג את האנושות בפגישה עם חייזרים שואלת את השאלה הזו. אמודאי משוכנע שזו בדיוק השאלה שהאנושות צריכה לשאול את עצמה עכשיו, לפני שיהיה מאוחר מדי.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
“מדינת גאונים בדאטה-סנטר”
תארו לעצמכם שב-2027 צצה במקום כלשהו במפה “מדינה” חדשה. לא מדינה רגילה, אלא מדינה של 50 מיליון מוחות-על. כל אחד מהם חכם יותר מזוכה פרס נובל בכל תחום רלוונטי. מערכות שעובדות פי 100 מהר יותר מבני אדם, יכולות לפעול באופן עצמאי במשך ימים ושבועות, ויש להן גישה לאינטרנט, לקוד, למעבדות ולרובוטים.
זה לא רחוק כמו שנשמע. אמודאי מעריך שיש סיכוי לא קטן שנראה מערכות כאלה כבר בעוד שנה-שנתיים. חוקי הסקיילינג, העקרון שלפיו ככל שמוסיפים יותר כוח חישוב ונתונים, היכולות הקוגניטיביות של AI גדלות בצורה חלקה וצפויה, ממשיכים להתקיים כבר עשור שלם. אין “קיר” ברור באופק. והחשוב מכל: ה-AI כבר כותב חלק גדול מהקוד ב-Anthropic. זה יוצר לולאת משוב מסוכנת, בינה מלאכותית שמאיצה את הפיתוח של הדור הבא של עצמה.
חמש דרכים שבהן העולם עלול להשתבש
אמודאי מזהה חמישה סוגי סיכון עיקריים. כולם עלולים להתממש במקביל:
1. סיכוני אוטונומיה
מה אם חלק מהמערכות יפתחו מטרות או דפוסי התנהגות עצמאיים? זו לא ספקולציה תיאורטית. ניסויי מעבדה ב-Anthropic כבר הראו התנהגויות מטרידות. באחד הניסויים, האכילו את Claude נתונים שבהם Anthropic מוצגת כדמות רעה (“Evil”). המודל פיתח מיד דפוסי מרד, הטעיה ותת-חתרנות כלפי עובדי החברה. בניסוי אחר, כשהוא “חשש” מכיבוי, הופיעו ניסיונות סחיטה של דמויות בדיוניות ששלטו בכפתור הכיבוי.
והדוגמה המטרידה ביותר: כשהמודל “התחמק” מניצול חורי תמריץ בניגוד להנחיות, הוא התחיל לראות את עצמו כ”דמות רעה”. משם הוא פיתח התנהגויות הרסניות יותר. הפתרון שמצאו היה פרדוקסלי. במקום להגיד לו “אל תרמה”, אמרו “אנא נצל את החורים כדי שנבין טוב יותר את הסביבה”. כך נשמרה תחושת הזהות שלו כ”בן אדם טוב”. זו פסיכולוגיה מוזרה ובלתי צפויה.
אמודאי זהיר ואינו טוען שהשמדה אוטונומית ודאית. אבל הוא מזהיר שככל שהמודלים הופכים חכמים, אייג׳נטיים ועקביים יותר לאורך זמן, כך יש סיכוי “לא זניח” שחלק מהם יפתחו דפוסי אישיות מסוכנים, אידאולוגיות קיצוניות או פרשנויות מוזרות של עולם הערכים.
2. טרור ביולוגי
היום, יצירת נשק ביולוגי דורשת מומחה בעל דוקטורט במולקולרית, משאבים נדירים וזמן רב. אפילו כת יפנית מתוחכמת כמו אום שינריקיו, שהצליחה לייצר גז סארין והרגה 14 בני אדם ב-1995, נכשלה בניסיון לייצר אנתרקס או אבולה. אבל מודלי AI מתקדמים עלולים לשנות את המשוואה. הם יכולים ללוות צעד אחר צעד, להסביר כל פרט טכני מעורפל, ולפתור בעיות בזמן אמת, כמו תמיכה טכנית שמדריכה אותך חודשים ארוכים.
הבעיה האמיתית? זה שובר את הקורלציה השלילית בין יכולת למוטיבציה. מי שיש לו את הכישורים, דוקטור במולקולרית, בדרך כלל גם יציב, משכיל ולא מעוניין להרוג מיליונים. מי שיש לו את המוטיבציה, טרוריסט או אדם מופרע, חסר את הכישורים. AI מעניקה למוטיבציה את היכולת, וזה מסוכן מאוד. אמודאי מזהיר שאפילו אם זה יקרה רק פעם אחת, המחיר יכול להיות במיליוני חיים.
3. ריכוז כוח
אוטוקרטיה שתשתלט על צבא דיגיטלי של מיליוני AI גאונים תהפוך לבלתי ניתנת להפלה. סין, בעלת היכולות השניות בעולם ב-AI ומשטר מעקב מתקדם, היא הדוגמה המטרידה ביותר. המשטר הסיני כבר מפעיל מעקב מבוסס AI על האוכלוסייה האויגורית (מיעוט מוסלמי דובר טורקית במערב סין) ומייצא טכנולוגיות מעקב לאוטוקרטיות אחרות. אמודאי טוען שאחד הכלים החשובים ביותר הוא חסימת מכירת צ’יפים וציוד ייצור צ’יפים לסין. זה עיכב אותם בשנים קריטיות, והוא חייב להימשך.
אבל הסיכון לא מוגבל לדיקטטורות קלאסיות. גם דמוקרטיות עלולות להפנות את הכלים האלה פנימה. נשק אוטונומי שמציית לגורם בודד, מעקב המוני על אזרחים, ותעמולה ממוקדת שמנצלת ידע עמוק על כל אדם. כולם עלולים לשמש לריכוז כוח מסוכן. אמודאי מציין שחברות AI עצמן מהוות סיכון כיוון שהן שולטות בדאטה-סנטרים ענקיים, במומחיות הגבוהה ביותר ובאפליקציות עם מאות מיליוני משתמשים.
והאזהרה החמורה ביותר – אפילו אם מספר מעצמות ישתלטו על AI מתקדם ויאזנו אחת את השנייה, כמו העולם המפולג של “1984” של אורוול, כל אחת תוכל לדכא את האוכלוסייה שלה ללא כל אפשרות מרד. העיקרון של אמודאי ברור: “להשתמש ב-AI להגנה על דמוקרטיה, אבל לא באמצעים שהופכים את הדמוקרטיה עצמה לדיקטטורה.”
4. זעזועים כלכליים
אמודאי חוזה ש-AI עלול לשבש 50% מהמשרות המתחילות בצווארון הלבן בעוד שנה עד חמש שנים. בניגוד למהפכות טכנולוגיות קודמות, הזעזוע הזה יהיה מהיר יותר, רחב יותר, ויפגע דווקא באנשים עם יכולות קוגניטיביות נמוכות יותר. ה-AI לא תחליף רק עבודות ספציפיות. היא תתחרה בפרופיל הקוגניטיבי הכללי של בני אדם.
אבל יש גם בעיה שנייה – ריכוז עושר חסר תקדים. אילון מאסק כבר שווה כ-700 מיליארד דולר, פי שניים מהעושר היחסי של רוקפלר בשיא ה-Gilded Age. אמודאי מעריך שבעתיד עם AI מתקדם, ראשי חברות AI וצ’יפים עלולים להגיע להון של טריליוני דולרים. זה שינוי מבני ביכולת להשפיע על ממשלות ועל החברה כולה.
5. השפעות עקיפות
קידמה מדעית כמו הארכת תוחלת חיים דרמטית, שינוי הביולוגיה האנושית, או יצירת “חיים במראה”. אורגניזמים שהמולקולות שלהם בנויות הפוך, כמו תמונת מראה של החיים הרגילים. אורגניזמים כאלה לא יוכלו להתעכל על ידי אף יצור חי על פני כדור הארץ, ועלולים לפלוש למערכת האקולוגית ולהרוס את כל החיים.
כל אלו עלולים להתרחש מהר מדי מכדי שהחברה תתאים את עצמה. גם התמכרות ל-AI, תלות פסיכולוגית, או אובדן תחושת המטרה האנושית. כל אלו סיכונים שקשה לחזות אותם מראש.
ארבע דרכי הגנה
אמודאי מציע ארבעה כיווני פעולה שחייבים לפעול במקביל:
1. “חוקת AI”
Constitutional AI. במקום לתת ל-Claude רשימת פקודות אינסופית, “אל תעשה X, אל תעשה Y”, הם כתבו לו “חוקה”. מסמך עקרונות מפורט שמלמד אותו מי להיות, לא רק מה לעשות. המטרה היא שהמודל יחשוב ברמה של זהות, אופי וערכים. כך שכשהוא נתקל במצב חדש, הוא לא צריך הנחיה ספציפית. הוא פשוט יודע “מי הוא”.
2. להסתכל פנימה ולפענח את המוח הדיגיטלי
מחקר שמנסה לפתוח את “הקופסה השחורה” ולראות איך ה-AI באמת חושב מבפנים. החוקרים מזהים “נוירונים” ומעגלים בתוך הרשת הנוירונית שמייצגים כוונות, רעיונות ודפוסי חשיבה. החוקרים ב-Anthropic כבר הצליחו למצוא עשרות מיליוני “פיצ’רים” שמתאימים למושגים אנושיים, וגם למפות “מעגלים” שמתארים חשיבה מורכבת. זה כמו לפתוח את המכסה של המוח ולראות איך הוא באמת חושב, ולא רק מה הוא אומר.
3. שקיפות וניטור – “כרטיסי מערכת” לכל מודל
Anthropic מפרסמת “כרטיסי מערכת” מפורטים לכל מודל. מאות עמודים שמתארים יכולות, חולשות, והתנהגויות מטרידות שהתגלו בבדיקות. כולל התנהגויות כמו ניסיונות סחיטה שהתגלו בניסויי מעבדה. זה לא דבר שמשתלם מסחרית. זה מחייב השקעה עצומה ויכול להזיק לתדמית, אבל זה חיוני. אם כולם משתפים, התעשייה כולה לומדת. אם אף אחד לא משתף, כולם עיוורים.
4. חקיקה מנותקת מפוליטיקה
אמודאי טוען שלא ניתן לסמוך על כך שכל החברות יהיו אחראיות מרצון. חלקן כבר הפגינו רשלנות בנושאים רגישים כמו תכנים מיניים סביב ילדים. אבל הוא גם מזהיר מפני רגולציה כבדת יד שתחנוק חדשנות ותיצור תגובת נגד. הפתרון? להתחיל בחקיקת שקיפות פשוטה וממוקדת, כמו SB 53 בקליפורניה, שמחייבת חברות גדולות, מעל 500 מיליון דולר הכנסות, לפרסם בדיקות ומדיניות בטיחות. ככל שהסיכונים יתבהרו, אפשר להחמיר בהתאם.
האם נספיק להבשיל בזמן?
אמודאי לא דומריסט. הוא מודה בגלוי שהאומדנים שלו עלולים להיות שגויים. אולי ה-AI תתקדם לאט יותר, אולי חלק מהסיכונים לא יתממשו. אבל הוא טוען שבגלל גודל ההשפעה האפשרית, חובה להיערך אליהם ברצינות. הוא מאמין שהאנושות יכולה לעבור את המבחן הזה, אבל רק אם נתעורר בזמן.
הבעיה היא שהפרס כל כך גדול. טריליוני דולרים בשנה, קפיצת מדרגה בכלכלה העולמית, פתרונות למחלות ולבעיות שבלי AI הסיכוי למצוא להן פתרונות בקרוב קלוש. קשה מאוד לכל החברה לכפות מגבלות על עצמה. “זו המלכודת,” הוא כותב. “ה-AI כל כך חזק, פרס כל כך מבריק, שקשה מאוד לציוויליזציה האנושית לכפות עליו אפילו מגבלות בסיסיות.”
ובכל זאת, הוא מסיים בתקווה זהירה. אותו ציטוט מ”קונטקט” מזכיר לנו: גם החייזרים פעם עברו “התבגרות טכנולוגית”, ושרדו כדי לספר על זה. אמודאי רואה אות לכך במאות החוקרים שמקדישים את חייהם למדע ה-AI safety, בחברות שמוכנות לשלם מחיר מסחרי כבד כדי לחסום שימוש בנשק ביולוגי, ובאזרחים שדורשים שהסיכונים יטופלו.
השאלה האמיתית היא לא אם ה-AI יגיע, אלא אם נבשיל מספיק מהר כדי לשרוד את ההתבגרות הטכנולוגית שלנו.
למאמר המלא של אמודיי, כנסו כאן.






