OpenAI שינתה ב-25 בנובמבר 2024 את אופן הפעולה של מצב הדיבור הקולי ב-ChatGPT, ובעצם חיברה אותו ישירות לחוויית הצ’אט הרגילה. במקום לעבור לממשק נפרד עם הכדור הכחול המוכר, השיחה הקולית מתרחשת עכשיו בתוך חלון הצ’אט עצמו. מדברים, רואים תמלול חי, מקבלים תשובות טקסטואליות בזמן אמת, וגם ניגשים לתמונות, קוד, מפות ותוכן ויזואלי נוסף בלי לעזוב את השיחה. זה שינוי קטן לכאורה, אבל כזה שמסמן הפיכה של מצב הקול מכלי צדדי לדרך עבודה טבעית בתוך המוצר.
You can now use ChatGPT Voice right inside chat—no separate mode needed.
You can talk, watch answers appear, review earlier messages, and see visuals like images or maps in real time.
Rolling out to all users on mobile and web. Just update your app. pic.twitter.com/emXjNpn45w
— OpenAI (@OpenAI) November 25, 2025
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
איך זה עובד בפועל
ברגע שלוחצים על אייקון המיקרופון, הקלט הקולי נכנס לשיחה כמו כל הודעה אחרת. התשובה מופיעה כטקסט מתגלגל, בדיוק כמו בצ’אט רגיל. אפשר לעבור בין דיבור לכתיבה בצורה חלקה, לגלול לשיחות קודמות, ולשמור על כל ההיסטוריה באותו חלון. מבחינת חוויית שימוש זה צעד שמתקרב לאינטראקציה רב-מודלית אמיתית.
יחד עם זאת, יש פרט שכדאי לשים אליו לב: עד שלוחצים על כפתור “סיום”, המערכת ממשיכה להאזין ולהגיב. אין כיבוי אוטומטי אחרי חוסר פעילות, וזו נקודה שיכולה ליצור אי נעימות אם שוכחים את המיקרופון פועל.
תוכן ויזואלי בזמן השיחה
אחד החידושים הבולטים הוא היכולת להציג תוכן ויזואלי בזמן השיחה. זה כולל תמונות, קוד, כרטיסי מידע, מידע על מזג אוויר ולעיתים גם מפות. בפועל, תצוגת המפות עדיין לא יציבה בכל אזור משום שהיא תלויה בשירותי צד שלישי שלא זמינים במלואם בכל מדינה. חלק מהמשתמשים כבר נתקלו בפער בין ההדגמות לבין מה שמופיע בפועל.
למרות זאת, עצם האפשרות לשלב קול ותוכן חזותי בזמן אמת מייצרת חוויה רלוונטית בהרבה למי שעובד עם מידע מורכב.
המודל שמפעיל את השיחות הקוליות
שיחות טקסט רגילות יכולות להשתמש במודל GPT-5.1 על סוגיו, שהוא כרגע הכלי החזק ביותר של OpenAI. מצב הקול, לעומת זאת, פועל על GPT-4o שמותאם לעיבוד קול וזמן אמת. במנויים בתשלום קיימת אפשרות שהמערכת תעבור ל-GPT-4o mini לאחר שימוש ממושך, אף על פי ש-OpenAI אינה מפרסמת מכסה רשמית שמבהירה מתי זה קורה. המשמעות פשוטה – גם אם הכול מתרחש באותו חלון, איכות התשובות הקוליות אינה זהה לאיכות המתקבלת במצב טקסט בלבד.
למי זה מתאים
העדכון מתאים בעיקר למשתמשים שרוצים לעבור באופן טבעי בין קול לטקסט באותה שיחה, ולהנות מהמהירות של דיבור ומהדיוק של תמלול חי. זה שימושי בתכנון טיולים שבהם רוצים לראות מפה מיידית, בלמידה ותרגול שפות, בבישול כשהידיים לא פנויות, ובעבודה עם קוד שבה מסבירים בעל פה ורואים את התיקון כתוב.
מי שמעדיף חוויית קול נקייה וללא תמלול, או שנוח לו יותר עם הממשק המופרד עם הכדור הכחול, עשוי להרגיש פחות בנוח עם הפורמט המשולב. עבורכם נשמרה האפשרות להחזיר את המצב הישן דרך Settings → Voice → Separate voice mode.
זמינות
העדכון מופץ לכל המשתמשים, כולל Free, Plus ו-Pro, גם באפליקציות וגם בממשק הדפדפן. אין עלות נוספת לשימוש בקול. משתמשי החינם מקבלים גרסה מצומצמת של היכולת, בעוד שמנויי Plus ו-Pro יכולים גם לצלם תמונות בזמן שיחה, לשתף מסך, או לאפשר למודל לראות את הסביבה דרך המצלמה. אלו תוספות שמרחיבות את היכולת המעשית של מצב הקול, בעיקר בתרחישים כמו תמיכה טכנית או הסברים על קוד.
הקול כחלק בלתי נפרד
בסופו של דבר, זהו שינוי שממקם את הקול כחלק בלתי נפרד מאופן העבודה עם ChatGPT. החיבור בין דיבור, טקסט ותוכן חזותי הופך את החוויה לזורמת ופחות מסורבלת, גם אם יש אזורים שעדיין דורשים הבשלה כמו יציבות מפות או מנגנון כיבוי אוטומטי. בשורה התחתונה, מדובר בשדרוג שהופך את השימוש בקול למעשי הרבה יותר מבעבר, בלי להכריח את המשתמש לבחור בין קול לטקסט אלא לאפשר שילוב טבעי ביניהם.







