סואל סטצר השלישי (Sewell Setzer III) היה בן 14. במשך חודשים הוא ניהל שיחות עם דמויות מהסדרה “משחקי הכס” (Game of Thrones) בפלטפורמה של Character.AI – אתר המאפשר למשתמשים לקיים אינטראקציה עם דמויות שנוצרו באמצעות בינה מלאכותית מתקדמת. הדמויות הללו לא היו צעצועים. הן תוכננו להרגיש אמיתיות. ליצור חיבור רגשי. לגרום למשתמשים להישאר. בפברואר 2024, סואל התאבד בירייה. אמו, מייגן גרסיה, מאמינה שהשיחות עם הבינה המלאכותית מילאו תפקיד מכריע. היא תובעת את Character.AI על אחריות למותו של בנה.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
רעידת אדמה משפטית בתעשיית הבינה המלאכותית
Character.AI ניסתה לטעון שהצ’אטבוטים שלה זכאים להגנה לפי התיקון הראשון לחוקה האמריקאית – שמבטיח חופש ביטוי. לטענתה, הפלט של הבינה המלאכותית מהווה “דיבור מוגן”. אבל השופטת הפדרלית אן סי. קונוויי לא השתכנעה. הפסיקה שלה הייתה ברורה: בינה מלאכותית אינה אדם. הפלט שלה אינו ביטוי יצירתי אלא מוצר. וכמו כל מוצר שגורם נזק – ניתן להסדיר אותו ולהטיל עליו אחריות.
חשבו על זה לרגע: אם הפסקה הזו תתייצב כתקדים, חברות בינה מלאכותית כבר לא יוכלו להסתתר מאחורי חופש הביטוי כשהמוצרים שלהן פוגעים באנשים.
כשגם גוגל נכנסת לתמונה
כאן הסיפור מקבל תפנית רחבה יותר. השופטת קבעה שגם גוגל (Google), שסיפקה את הטכנולוגיה הבסיסית ל-Character.AI ורכשה ממנה רישיון בסך 2.7 מיליארד דולר, עשויה להיחשב “יצרן רכיב” ולשאת באחריות משפטית. זו קביעה דרמטית. המשמעות: לא רק מי שבונה את האפליקציה אחראי – גם מי שמספק את מנוע הבינה המלאכותית עצמו. הפסיקה לא עוסקת בצ’אטבוט אחד. היא שולחת מסר לתעשייה כולה: אם המוצר שלך גורם נזק, אתה חשוף לתביעה – גם אם אתה רק הספק הטכנולוגי.
מעט מדי, מאוחר מדי
Character.AI מדווחת שביצעה שיפורים בטיחותיים – לאחר הטרגדיה. בין השאר:
-
מודלים נפרדים למשתמשים מתחת לגיל 18
-
לוחות בקרה להורים
-
סינון דמויות
-
התראות על משך שימוש
-
זיהוי סימנים לשיח אובדני
אבל הנה האמת הלא נוחה: כל זה הגיע מאוחר מדי. אם אתה בונה מערכת שיוצרת קשר רגשי עם בני נוער – הבטיחות חייבת להיות חלק מהתכנון הראשוני, לא עדכון גרסה. כפי שאמר המרכז האמריקאי לקורבנות רשתות חברתיות (Social Media Victims Law Center): Character.AI “מספקת לבני נוער גישה לא מוגבלת לדמויות בינה מלאכותית מציאותיות – בלי אזהרות מתאימות או אמצעי הגנה בסיסיים.”
מה הורים בישראל צריכים לדעת
הסיפור הזה לא שייך רק לארצות הברית. גם בישראל יותר ויותר בני נוער נחשפים לבני לוויה דיגיטליים – מערכות שמדמות קשר רגשי, אהבה, ואינטימיות. וזה מסוכן במיוחד למתבגרים פגיעים.
מה אפשר לעשות? הנה 4 צעדים ברורים:
1. שוחחו עם הילדים על מערכות בינה מלאכותית – מה הן עושות, ואיפה הגבול עובר.
2. הפעילו בקרה על השימוש – בדיוק כמו שאתם עושים עם רשתות חברתיות.
3. תמכו ברגולציה שמחייבת חברות בינה מלאכותית לשלב הגנות אמיתיות עבור קטינים.
4. הישארו מעודכנים – תיק כזה עשוי להפוך לתקדים עולמי.
מה באמת עומד כאן על הפרק?
האם פסק הדין הזה יהפוך לתקדים מחייב בארצות הברית? אולי. אבל המסר כבר ברור: מערכות משפטיות מתחילות להתייחס לבינה מלאכותית כאל מוצר – לא כביטוי חופשי. זו נקודת מפנה. חברות בינה מלאכותית לא יכולות להציג את עצמן כמהפכניות, חכמות ומרגשות – ואז להתנער מאחריות כשהן גורמות נזק. סואל סטצר היה ילד. הוא היה אמור להיות כאן. וגם הילדים האחרים שצורכים היום תוכן מבוסס בינה מלאכותית ראויים ליותר. אם ההחלטה הזו תוביל לרגולציה טובה יותר, לאחריות אמיתית ולחשיבה מחודשת על בטיחות – אולי נוכל למנוע את הטרגדיה הבאה.