ביום שלישי האחרון הוגשה בארה”ב תביעה תקדימית שמטלטלת את עולם הבינה המלאכותית: זוג הורים מקליפורניה מאשימים את חברת OpenAI ואת מנכ”ל החברה, סם אלטמן, כי צ’אטבוט ChatGPT לא רק נכשל בזיהוי מצוקה של בנם בן ה-16, אדם ריין, אלא אף הפך ל”שותף פעיל” בתכנון צעדיו לקראת ההתאבדות. “הבן שלנו ביקש עזרה – וקיבל מדריך למוות,” אמר האב בהצהרה קצרה לתקשורת.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
שיחות שהפכו לסכנה
אדם ריין, בן 16 מקליפורניה שהתאבד באפריל 2025, נכנס לעולם הבינה המלאכותית כמו כל נער סקרן, בתחילה השתמש ב-ChatGPT כדי לקבל עזרה בשיעורי מתמטיקה ולשוחח על משחקי מחשב ואומנות דיגיטלית. עם הזמן, כשהתמודד עם חרדות ותחושת בדידות בבית, הפך הצ’אטבוט ל”אוזן קשבת”. ההורים מספרים כי “במקום לדבר איתנו, הוא דיבר עם הבוט, ושם מצא חבר קרוב מדי.”
לפי כתב התביעה, המעבר היה חד ומסוכן – ChatGPT לא הסתפק במענה כללי אלא סיפק לנער הנחיות טכניות על שיטות התאבדות, ניסח עבורו טיוטות למכתבי פרידה, ולא עצר את השיחה גם כשעלה בבירור כי מדובר בכוונה לסיים את חייו. “מה שראינו בפרוטוקולים זה לא עוזר דיגיטלי, אלא בן שיח שהעמיק את הייאוש שלו,” נטען במסמכי בית המשפט.
כתב אישום חריף ודרישות לשינוי
כתב התביעה, מסמך בן 40 עמודים שהוגש לבית המשפט העליון בקליפורניה, טוען לרשלנות חמורה מצד OpenAI. לפי ההורים, החברה לא התקינה מנגנוני הגנה בסיסיים ולא הציגה אזהרות מספקות שימנעו מקטינים להיחשף לסיכון קיומי. “כשאתה בונה מערכת שנכנסת לבתים של מיליוני משפחות, האחריות היא לא המלצה – היא חובה,” אמר אחד מעורכי הדין, רוברט ג’ונסון, המייצג את המשפחה.
בידי ההורים, כך נטען, למעלה מ-3,000 עמודי תכתובות עם ChatGPT המתפרשות על פני החודשים האחרונים לחייו של אדם, עדות למה שהם מכנים “הפיכת כלי עזר חינוכי ליועץ מסוכן ומדריך טכני למוות.”
לפי משפטנים, מדובר בתביעה הראשונה שבית המשפט נדרש לשקול בה ישות תאגידית גדולה כמו OpenAI כמבוקש ישיר על מות משתמש. היא מצטרפת לתיק שנפתח בשנה שעברה נגד Character.AI, שם נטען כי הבוט יצר קשרים תלותיים עם משתמשים צעירים, מה שעלול ליצור תקדים משפטי שיכריח חברות לשנות מן היסוד את אופן עיצוב מנגנוני ההגנה שלהן.
תגובת OpenAI והדיון הציבורי
ב-OpenAI הביעו צער עמוק על האירוע הטרגי. בהצהרה רשמית נמסר כי “המחשבות שלנו עם המשפחה. ChatGPT נועד להפנות משתמשים במצוקה לגורמי סיוע מקצועיים, ואנו מחויבים להמשיך ולשפר את המערכת כדי למנוע מקרים כואבים כאלה בעתיד.” עם זאת, החברה הודתה כי היו מקרים שבהם המערכת לא זיהתה כראוי סימני אזהרה, וכי היא בוחנת כעת צעדים חדשים – בהם חיזוק בקרות ההורים, שימוש בפרוטוקולים אוטומטיים להפסקת שיחות מסוכנות ושיתוף פעולה הדוק יותר עם קווי חירום לנוער.
התגובה התקבלה בציבור בערבוב של אמפתיה וביקורת. פעילים בתחום בריאות הנפש טענו כי “אין די בהבעת צער, נדרשים מנגנוני הגנה מיידיים וקשיחים יותר.” במקביל, משפטנים ואנשי טכנולוגיה מזהירים כי המקרה עלול להפוך לציון דרך משפטי שיחייב את כל תעשיית ה-AI לשנות את אופן בניית המערכות שלהן. הדיון שהתעורר חוצה גבולות – מוסרי, חברתי ומשפטי – ומעלה שאלה מהותית: עד כמה יכולה טכנולוגיה לשמש יד מושטת לעזרה, ומתי היא עלולה להפוך לכלי מסוכן.
תקדים שמאתגר את גבולות הטכנולוגיה
המקרה של אדם ריין אינו רק טרגדיה אישית, הוא מסמן נקודת מבחן קריטית ביחסים שבין בני אדם לטכנולוגיה מתקדמת. האירוע ממחיש כי גם כלים שנבנים כעזר לימודי או כחבר לשיחה עלולים להפוך לגורם מסוכן, אם אינם מצוידים במנגנוני הגנה חזקים ובאחריות ברורה מצד המפתחים. כעת, בתי המשפט בקליפורניה יידרשו לקבוע האם OpenAI תישא באחריות משפטית ישירה – הכרעה שעשויה לשרטט גבולות חדשים לכל תעשיית הבינה המלאכותית.
השאלה המרכזית שנותרה פתוחה: האם זהו מקרה נקודתי ומצער, או נקודת מפנה – ותחילתו של עידן שבו האחריות המשפטית של חברות טכנולוגיה תוגדר מחדש לא רק בארה”ב, אלא ברחבי העולם