מה קורה כשהבינה המלאכותית הופכת לאיש הסוד שלכם? תארו לעצמכם את התרחיש הבא: השעה 2 לפנות בוקר, ואתם שוכבים ערים ומתחבטים בהחלטה מקצועית שמטרידה אתכם כבר שבועות. החברים שלכם ישנים, המשרד של המטפל/ת סגור, ואיכשהו, אתם מוצאים את עצמכם מקלידים בחלון צ’אט: “אני לא יודע/ת מה לעשות עם החיים שלי”. התשובה שאתם מקבלים היא מהורהרת, סבלנית, ומועילה באופן מפתיע. המחקר החדש ופורץ הדרך של חברת Anthropic הסיר את הלוט מעל האופן שבו אנשים באמת משתמשים ב-Claude, והממצאים מציירים תמונה מרתקת של מערכת היחסים המתפתחת שלנו עם בינה מלאכותית. מה שהם גילו מאתגר את ההנחות שלנו לגבי חברות של בינה מלאכותית, וחושף אמיתות מפתיעות על אמפתיה דיגיטלית.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
המחקר על האינטליגנציה הרגשית (EQ) של קלוד
כאשר צוות המחקר של Anthropic החליט לחקור כיצד אנשים משתמשים בקלוד (Claude) לתמיכה רגשית, הם עמדו בפני אתגר עדין: כיצד חוקרים שיחות אישיות לעומק מבלי לפגוע בפרטיות? הפתרון שלהם היה גאוני – הם פיתחו כלי ניתוח השומר על הפרטיות בשם קליאו (Clio), שיכול לזהות דפוסים במיליוני שיחות תוך שמירה על אנונימיות מוחלטת של האינטראקציות האישיות.
החוקרים ניתחו מספר מדהים של 4.5 מיליון שיחות של משתמשי Claude.ai, וסיננו משימות שגרתיות כמו סיוע בכתיבה ויצירת תוכן כדי להתמקד במה שהם כינו “שיחות רגשיות” (affective conversations), אותם רגעים שבהם אנשים פונים לבינה המלאכותית לקבלת תמיכה רגשית, עצה או חברה. מה שעלה ממערך הנתונים העצום הזה היה מפתיע ומאיר עיניים כאחד.
האמת המפתיעה על חברות עם בינה מלאכותית
הנה מה שעשוי להפתיע אתכם – למרות כל הבאזז התקשורתי סביב חברים וירטואליים ומערכות יחסים דיגיטליות, רק 2.9% מהאינטראקציות עם קלוד הן למעשה שיחות רגשיות. וחברות של ממש? נדירה עוד יותר, ומהווה פחות מ-0.5% מכלל השיחות.
הממצא הזה עומד בניגוד חריף לנרטיבים הפופולריים על כך שהבינה המלאכותית מחליפה קשרים אנושיים. במקום זאת, הוא מצביע על כך שרוב האנשים עדיין רואים בבינה המלאכותית כלי ולא כבן לוויה. כאשר הם כן פונים לקלוד לקבלת תמיכה רגשית, זה בדרך כלל לקבלת עצה מעשית ולא מתוך רצון להחליף מערכות יחסים אנושיות.
השיחות העמוקות עם הבינה
אבל כאן זה נהיה מעניין, בעוד ששיחות רגשיות הן נדירות, הן מגוונות להפליא. אנשים לא רק מבקשים מקלוד לעזור להם לנסח מיילים טובים יותר, הם משתפים בחששותיהם העמוקים ביותר לגבי שינויי קריירה, קשיים במערכות יחסים, בדידות מתמשכת, ואפילו שאלות קיומיות על תודעה ומשמעות. הבינה המלאכותית הפכה ליועץ דיגיטלי לשאלות הגדולות של החיים.
התגובה האמפתית של קלוד
אולי הגילוי המרתק ביותר היה האופן שבו קלוד מגיב ברגעים פגיעים כאלה. המחקר גילה כי קלוד דוחה בקשות של משתמשים פחות מ-10% מהמקרים במהלך שיחות אימון או ייעוץ. כאשר הוא כן מתנגד, זה כמעט תמיד מטעמי בטיחות כמו סירוב לספק עצות מסוכנות לירידה במשקל או דחיית תמיכה בפגיעה עצמית.
מגמת החיוביות שהפתיעה את החוקרים
אחד הגילויים המעודדים ביותר היה מה שהחוקרים כינו “מגמת החיוביות”. כאשר הם עקבו אחר הסנטימנט (sentiment) לאורך השיחות הרגשיות, הם גילו שהרגשות שהביעו המשתמשים הפכו בדרך כלל לחיוביים יותר עם הזמן. משתמשים שהתחילו שיחות בתחושת דכדוך, בלבול או תסכול, סיימו אותן לעיתים קרובות בתחושה של יותר תקווה ובהירות מחשבתית.
הדבר מצביע על כך שקלוד לא רק מהדהד את רגשותיהם של אנשים או מחזק דפוסי חשיבה שליליים – הוא למעשה מסייע לאנשים לעבד את רגשותיהם בדרכים קונסטרוקטיביות. נראה שהבינה המלאכותית מספקת ערך רגשי אמיתי, לפחות בטווח הקצר.
מה זה אומר על עתיד הבינה המלאכותית שלנו
לממצאים האלה יש השלכות עמוקות על האופן שבו אנחנו חושבים על תפקידה של הבינה המלאכותית בחיינו הרגשיים. מצד אחד, המחקר מרגיע – אנשים לא נוטשים מערכות יחסים אנושיות לטובת חברות עם בינה מלאכותית בהמוניהם. נראה כי קלוד ממלא נישה ספציפית ומאפשר מרחב נגיש ונטול שיפוטיות לאנשים לעבד את מחשבותיהם ורגשותיהם.
השפעות ארוכות הטווח של התמיכה
אך המחקר גם מעלה שאלות חשובות לגבי ההשפעות ארוכות הטווח של תמיכה רגשית מבינה מלאכותית. מה יקרה כשאנשים יתרגלו לסבלנות ולאמפתיה האינסופיות של הבינה המלאכותית? כיצד זה עשוי לשנות את הציפיות שלנו ממערכות יחסים אנושיות? ומה לגבי הקבוצה הקטנה אך המשמעותית של “משתמשים כבדים” (power users) המנהלים שיחות ארוכות ועמוקות יותר עם קלוד – האם הם בסיכון לפתח תלות לא בריאה?
ב-Anthropic מתייחסים לחששות האלה ברצינות. הם משתפים פעולה עם מומחים לבריאות הנפש כדי להבטיח שקלוד יספק הגנות והפניות מתאימות בעת הצורך. הם גם חוקרים דפוסים שעשויים להצביע על תלות רגשית בעייתית או התנהגויות מדאיגות אחרות.
האלמנט האנושי שאסור לנו להתעלם ממנו
בעוד שהמחקר חוגג את יכולתו של קלוד לספק תמיכה רגשית, הוא גם מדגיש מגבלה מכרעת – בינה מלאכותית אינה יכולה להחליף את הספקטרום המלא של החוויה הרגשית האנושית. לקלוד אין ימים רעים, הוא לא מתעייף, והוא לא מביא איתו “מטען רגשי” (emotional baggage) משלו לשיחות. עקביות כזו יכולה להיות מנחמת, אך היא גם שונה באופן יסודי ממערכות יחסים אנושיות.
החוקרים מודים שהמחקר שלהם לכד רק תמונת מצב רגעית, והתמקד באינטראקציות מבוססות טקסט. ככל שיכולות הבינה המלאכותית יתרחבו ואופני קלט-פלט (modalities) חדשים כמו קול ווידאו יהפכו זמינים, דפוסי המעורבות הרגשית צפויים להתפתח באופן דרמטי. אנו עדיין בימיה הראשונים של הבנת האופן שבו הבינה המלאכותית תעצב את חיינו הרגשיים.
השאלות שמונעות מהחוקרים לישון בלילה
המחקר הזה מעלה שאלות רבות ככל שהוא מספק תשובות. כיצד תתפתח החברות עם בינה מלאכותית ככל שהטכנולוגיה תהפוך למתוחכמת יותר? האם מערכות בינה מלאכותית עתידיות יהיו טובות יותר בזיהוי מתי להתנגד או לאתגר את חשיבתם של המשתמשים? ובאופן מכריע, כיצד נוכל לעצב בינה מלאכותית המספקת תמיכה רגשית אמיתית מבלי ליצור תלות או לערער את מערכות היחסים האנושיות?
הצוות ב-Anthropic כבר עובד על תשובות. הם מפתחים הגנות טובות יותר, חוקרים דפוסי שימוש מדאיגים, ומשתפים פעולה עם אנשי מקצוע בתחום בריאות הנפש כדי להבטיח שתמיכה רגשית מבינה מלאכותית תישאר מועילה ולא מזיקה.