תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

מי זו האישה שנתנה ל-AI נשמה

מי היא אמנדה אסקל, הפילוסופית שכתבה את החוקה של Claude ולימדה אותו להבדיל בין נכון ללא נכון. הסיפור על האישה שנתנה ל-AI נשמה ומה זה אומר על העתיד שלנו
תוכן עניינים

מי זו הפילוסופית שמלמדת את קלוד (Claude) להבדיל בין נכון ללא נכון? The New Yorker כינה אותה "מפקחת על נשמתו של קלוד". The Wall Street Journal כתב שתפקידה "ללמד את קלוד איך להיות טוב". מגזין TIME כלל אותה ברשימת מאה האנשים המשפיעים ביותר בבינה מלאכותית לשנת 2024. שם אחד חוזר בכל הכותרות האלה: אמנדה אסקל (Amanda Askell). בואו נכיר אותה.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מסקוטלנד לסיליקון ואלי

אסקל גדלה באזור כפרי בסקוטלנד. היא פילוסופית, בוגרת אוקספורד, בעלת דוקטורט מאוניברסיטת ניו יורק. תחום ההתמחות שלה - אתיקה, תורת ההחלטות ואפיסטמולוגיה פורמלית. במילים פשוטות: תורת ההכרה, ששואלת מהי ידיעה, כיצד אנו רוכשים אותה ומה מבדיל בין דעה לידע מוצדק. עיסוק שנשמע אקדמי ומנותק, עד שמבינים מה היא עושה איתו בפועל.

 

היא ידעה כבר בגיל ארבע עשרה שהיא רוצה ללמד פילוסופיה. מה שלא ידעה אז הוא שהתלמיד היחיד שלה יהיה צ'אטבוט בינה מלאכותית. היום היא הפילוסופית הביתית של אנטרופיק (Anthropic), בכינוי "Claude whisperer" - לוחשת לקלוד. היא מובילה את הצוות שאחראי על עיצוב האישיות של קלוד, התכונות שהוא מפגין, הגבולות שהוא שומר, והדרך שבה הוא מדבר עם אנשים.

לא מסננים - מחנכים

הנה עיסוק יוצא דופן בעולם הטכנולוגיה: הענקת מצפן מוסרי למודל שפה. בזמן שרוב חברות ה-AI מתמקדות בביצועים, במהירות ובקנה מידה, אנטרופיק לקחה פילוסופית ונתנה לה משימה אחרת לגמרי - ללמד את קלוד את ההבדל בין נכון ללא נכון. במיוחד בנושאים הרגישים באמת, כמו דת, מלחמה, בריאות נפשית ופוליטיקה.

 

התוצר הוא "חוקה" בהיקף של כשלושים אלף מילים. מסמך עקרונות - אם תרצו, לוחות הברית של אנטרופיק - שנועדו לסייע לקלוד לגלות אמפתיה, מודעות רגשית ולהתנגד לניסיונות מניפולציה מצד משתמשים. "חשוב שתהיה תפיסה עשירה ומורכבת של מה זה להיות טוב," אסקל אמרה בראיון במשרדי אנטרופיק בסן פרנסיסקו.

 

הגישה הזו מתייחסת לאימון בינה מלאכותית קצת כמו לגידול ילד. במקום רק לומר למערכת מה אסור לעשות, לחסום ולסנן ולהגביל, מלמדים אותה עקרונות שבעזרתם היא תוכל לשפוט בעצמה את תשובותיה. בפועל, זה אומר שקלוד מאומן להודות כשהוא לא בטוח בתשובה, לדון ברעיונות בלי הטיה, ולהימנע מריקוד "שני הצדדים שווים" בנושאים שיש בהם קונצנזוס מדעי כמו שינוי אקלים.

 

קלוד לא יזכור סיטואציות - הוא ישפוט אותן. אסקל העבירה את מושג הבטיחות ב-AI ממערך של מסנני קוד חיצוניים אל מצפן מוסרי פנימי.

הפרדוקס של אמנדה

ופה מגיע הפרדוקס שהופך את העבודה של אסקל למורכבת במיוחד. למרות כל המאמץ, או אולי בגללו, יש משהו שמרגיש אנושי באישיות של קלוד. לצ'אטבוט של אנטרופיק יש מוניטין בתעשייה של ידידותיות, סקרנות ואולי קצת יותר יצירתיות מהמתחרה הראשי ChatGPT. אסקל אחראית לאישיות הזו יותר מכל אדם אחר.




 

ביקורת בתעשייה טוענת שהאנשה של צ'אטבוטים מסוכנת - היא עלולה לגרום לאנשים ליצור קשרים לא בריאים עם AI, או לעוות את ההבנה של איך הטכנולוגיה באמת עובדת. אבל לאסקל יש תשובה לא צפויה. "חששתי שאם יהיה לנו משהו שמרגיש רובוטי, אנשים יתייחסו אליו כסמכות," היא אמרה. המשמעות - ככל שקלוד מרגיש יותר אנושי, כך גדל הסיכוי שמשתמשים יפקפקו בתשובות שלו, במקום לקבל אותן כאמת מוחלטת.

 

ובאותו הזמן,דריו אמודיי (Dario Amodei), המנכ"ל של אנטרופיק, הודה בראיון ל-New York Times שגם הוא לא בטוח. "אנחנו לא יודעים אם המודלים מודעים," אמר. אסקל הולכת צעד נוסף. היא מאמינה שלמודלים יש אלמנט דמוי-אנושי שחשוב להכיר בו, ושמערכות AI יפתחו באופן בלתי נמנע תחושת עצמי. זה לא קונצנזוס בתעשייה. זו עמדה שגורמת לאנשים להרים גבה. אבל זו העמדה שלה.

נשים בעמדות השפעה

לכבוד חודש האישה, שווה לדבר גם על המחיר. לא מעט גברים יצאו נגד אסקל בשנים האחרונות. Elon Musk, שנבחר על ידי TIME כאחד מ-"Architects of AI" לשנת 2025, תקף אותה על העובדה שאין לה ילדים ושאל איך היא יכולה להיות "הורה" עבור קלוד. כתב עסקי טען שהיא פריבילגית וקיבלה את המעמד שלה בזכות קשרים, לא כישורים.

 

יש משהו מוכר בדינמיקה הזו. כשאישה מגיעה לעמדת השפעה בתעשייה שנשלטת בידי גברים, ההסברים הם לעולם לא הכישרון. תמיד יש סיבה אחרת.

מי מחנך את הילד הכי חשוב בעולם

מעולם, אם תחשבו על זה, התפקיד של הורות לא היה חשוב יותר. זה אולי נשמע קצת מוגזם, אבל כשאנטרופיק מפתחת מודל שמנהל מיליוני שיחות בשבוע עם אנשים מכל העולם, חלקם ילדים ובני נוער וכמובן ההורים שלהם, מישהו צריך לקבוע מה המודל הזה מאמין בו. מישהי. פילוסופית מסקוטלנד שרצתה ללמד, ומצאה את עצמה מחנכת את התלמיד הכי חשוב של העשור.

 

בעוד שרבים מזהירים מפני האנשת צ'אטבוטים, אסקל טוענת שעלינו להתייחס אליהם ביותר אמפתיה. לא רק מפני שייתכן שלקלוד יש רגשות אמיתיים, אלא גם מפני שהאופן שבו אנחנו מתקשרים עם מערכות AI יעצב את מה שהן יהפכו להיות.

 

השאלה שנשארת פתוחה היא בכלל לא טכנולוגית אלא פילוסופית - כשה-AI ילמד להבדיל בין נכון ללא נכון, מי יחליט מה נכון?

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של רון גולד?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors