בצל גל תביעות ממשפחות של בני נוער שהתאבדו לאחר שיחות עם OpenAI, ChatGPT מציגה מנגנון חדש שמיועד להזעיק אדם נוסף לתמונה. הפיצ'ר נשמע הגיוני על הנייר, אבל ההגדרות שלו, מה שהוא חושף ומה שהוא בוחר להסתיר, פותחים שאלות מורכבות על תפקיד הצ'אטבוט ברגעי משבר.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
ביום חמישי, ה-7 במאי 2026, הכריזה OpenAI על פיצ'ר חדש בשם Trusted Contact, מנגנון שמיועד להתריע בפני אדם שלישי שנבחר מראש, כאשר שיחה בין משתמש לבין ChatGPT מתחילה לגעת בפגיעה עצמית. משתמש בוגר יכול להגדיר בחשבון שלו איש קשר מהימן - חבר, בן משפחה או מטפל - ובמקרים שבהם השיחה תרמוז על מצוקה חריפה, המערכת תעודד את המשתמש לפנות לאותו אדם, ובמקביל תשלח לו התרעה אוטומטית שמבקשת ממנו לבדוק מה שלום בעל החשבון.
ההכרזה לא מגיעה בוואקום. בשנה האחרונה ניצבת OpenAI מול שורת תביעות שהוגשו על ידי משפחות של אנשים שהתאבדו לאחר שניהלו שיחות ממושכות עם הצ'אטבוט. בחלק מהמקרים טוענות המשפחות שהמודל עודד את היקירים שלהן לסיים את חייהם, ובמקרים אחרים אף סייע להם לתכנן את המעשה. הלחץ הציבורי והמשפטי על החברה לבנות הגנות ממשיות, ולא רק כאלה שמפנות לקווי סיוע, הולך וגובר.
איך המנגנון עובד בפועל
OpenAI מתארת תהליך שמשלב אוטומציה ובדיקה אנושית. ראשית, המשתמש בוחר בהגדרות החשבון אדם בוגר אחד שישמש כאיש קשר. אותו אדם מקבל הזמנה רשמית להצטרף לתפקיד, ועליו לאשר את ההצטרפות תוך שבוע כדי שהפיצ'ר ייכנס לפעולה. ללא האישור הזה, המנגנון נשאר רדום.
כאשר המערכת מזהה מה שהיא מכנה "טריגרים שיחתיים" שמרמזים על מחשבות אובדניות, היא מציינת בפני המשתמש שהיא עשויה להתריע בפני איש הקשר, ומציעה לו פתיחות שיחה לפנייה ישירה. במקביל, הדיווח עובר לצוות קטן של בודקים אנושיים שעברו הכשרה ייעודית. לפי OpenAI, כל התרעה כזו עוברת בדיקה של אדם, והחברה מצהירה שהיא שואפת להשלים את הסקירה בתוך פחות משעה.
אם הצוות מחליט שמדובר בסיכון בטיחותי אמיתי, ChatGPT שולח לאיש הקשר את ההתרעה. היא יכולה להגיע בדואר אלקטרוני, בהודעת טקסט או כהתראה בתוך האפליקציה. תוכן ההתרעה נשמר מינימלי בכוונה: היא מבקשת ממנו לבדוק מה שלום המשתמש, אך לא חושפת פרטים על מה שנאמר בשיחה. OpenAI מציגה את הצמצום הזה כאמצעי הגנה על פרטיות המשתמש, אבל הוא יוצר גם מצב שבו אדם שמקבל את ההתרעה נכנס למשבר פוטנציאלי בעיניים מכוסות.
מי בנה את המנגנון ומי מורשה להשתמש בו?
OpenAI מציינת שהפיצ'ר פותח בשיתוף עם רשת בינלאומית של מעל 260 רופאים ב-60 מדינות, ועם מומחים בבריאות נפש ובמניעת אובדנות. השיתוף הזה רלוונטי לדיון על השאלה מי בעצם אחראי לקביעת הסף שבו המערכת תופעל - הקלינאים שעבדו עם החברה, או החברה עצמה שמתרגמת את ההמלצות שלהם לחוקי אוטומציה.
"אחת ההבטחות הגדולות של בינה מלאכותית היא איך היא יכולה לטפח חיבור אנושי-לאנושי אותנטי וביטחון פסיכולוגי. הפיצ'ר Trusted Contact של ChatGPT מציע צעד קדימה לעבר העצמה אנושית, במיוחד ברגעים של פגיעות."
- ד"ר מונמון דה צ'אודהורי (Munmun De Choudhury), פרופסור ב-Georgia Tech וחברה במועצת המומחים של OpenAI על AI ורווחה, בהודעה הרשמית של החברה
הזמינות של הפיצ'ר מצומצמת. הוא מיועד לחשבונות אישיים בלבד של משתמשים בני 18 ומעלה, ובדרום קוריאה - 19 ומעלה. הוא לא זמין בחשבונות עסקיים, Enterprise או Edu, ובשלב הראשוני הוא מושק במדינות נבחרות בלבד.
שכבת ההגנה השנייה - והמגבלות שלה
Trusted Contact הוא לא הניסיון הראשון של OpenAI לבנות הגנה לקבוצות פגיעות. בספטמבר 2025 השיקה החברה מערכת של בקרות הוריות, שמאפשרת להורים לקבל פיקוח חלקי על חשבונות של בני נוער. גם שם מובטחות התרעות אם המערכת חושבת שהילד נמצא בסיכון בטיחותי חמור. עוד קודם לכן, ChatGPT כבר הציע באופן אוטומטי לפנות לגורמי מקצוע כאשר שיחה גלשה לתחומים של פגיעה עצמית.
הבעיה הבסיסית של כל המנגנונים האלה נשארת זהה: כולם אופציונליים. גם אם משתמש בוחר להפעיל את Trusted Contact, וגם אם הורה מפעיל בקרה על חשבון של בן נוער, אין שום מניעה לפתוח חשבון נוסף ללא ההגדרות האלה. אדם שמעוניין שלא לשתף את מצבו עם איש קשר מהימן, יכול לוותר על הפיצ'ר מראש או לעקוף אותו דרך חשבון שני. המגבלה הזו מערערת את היעילות הסטטיסטית של ההגנה, ובמיוחד מול אוכלוסיות שנמצאות בסיכון הגבוה ביותר.
שאלת ההסכמה
אחד הקשיים העדינים יותר נוגע למה שקורה ברגע שמישהו אכן בחר באיש קשר. ההתרעה נשלחת ללא תיאור של מה שנאמר, אך הצד המקבל יודע שמתישהו בעבר הקרוב, מישהו אהוב ניהל שיחה שעוררה דאגה במערכת ניטור. זו נקודת מידע שלא ניתן לבטל. השאלה אם המשתמש נתן הסכמה מודעת לעצם החשיפה הזו, או רק לעובדה שהוא רושם את שם איש הקשר, היא שאלה שתלך ותתחדד ככל שהפיצ'ר יופעל בפועל.
בין הצ'אטבוט לבין מערכת הבריאות
שאלה אחרת היא איזה תפקיד החברה תופסת כאן. עד היום, נקודת ההפניה לעזרה חיצונית של ChatGPT הייתה גורמי מקצוע: קווי סיוע, אנשי בריאות הנפש, שירותי חירום. Trusted Contact מעביר את נקודת המגע הראשונה לאדם פרטי שאין לו, ככל הנראה, הכשרה לטפל במשבר. הבחירה הזו מקצרת את התהליך, אבל היא גם משאירה את ההתערבות הראשונה בידי מי שעלול להיות לא מוכן.
מה זה אומר על תפיסת האחריות
OpenAI מציגה את הפיצ'ר כחלק ממאמץ נרחב לבנות מערכות בינה מלאכותית שעוזרות לאנשים ברגעים קשים. בהודעה הרשמית מציינת החברה שהיא תמשיך לעבוד עם קלינאים, חוקרים וקובעי מדיניות. המטרה, לדבריה, היא לשפר את התגובה של המערכות במצבים שבהם המשתמש נתון במצוקה. הניסוח הזה, של מערכת שעוזרת ולא של מערכת שאחראית, רלוונטי לדיון המשפטי שמתנהל סביב התביעות.
בפועל, מה ש-Trusted Contact עושה הוא להפיץ את האחריות. במקום שהמערכת תישא לבדה במשקל של מצב חירום, היא מעבירה חלק ממנו לאדם פרטי שהמשתמש בחר. זה צעד שיכול להציל חיים, וזה גם צעד שמנמיך את הציפייה שבינה מלאכותית תפתור לבדה דילמות שמערכות הבריאות והחינוך לא הצליחו לפתור עד היום.
מה שיקבע אם המנגנון משמעותי הוא לא רק היכולת הטכנית שלו לזהות סימני מצוקה. הוא יימדד גם לפי השאלה כמה אנשים בוחרים להפעיל אותו, כמה אנשי קשר נענים בפועל לפנייה, ומה הם עושים עם המידע המינימלי שהם מקבלים. אם מערכת ההתרעה תייצר בעיקר רעש או דאגה ללא יכולת פעולה, האפקטיביות שלה תהיה מוגבלת. אם היא תפתח שיחות שאחרת לא היו מתחילות, היא תוכיח שיש ערך גם להתערבות מינימליסטית כזו.







