מחקר משותף של Gallup וקרן Lumina, המבוסס על כמעט 4,000 סטודנטים בארצות הברית, מגלה שרוב הסטודנטים כבר משתמשים בכלי בינה מלאכותית כמו ChatGPT, Gemini ו‑Copilot לצורכי לימודים לפחות פעם בשבוע, גם במוסדות שבהם השימוש בכלים הללו מוגבל או אסור. הדוח מצביע על פער עמוק בין מדיניות מוסדית שמרנית לבין המציאות בשטח, על חוסר בהירות בהנחיות ועל מחסור בהדרכה לשימוש נכון ואתי. הסטודנטים מדווחים שהם משתמשים ב‑AI בעיקר כדי להבין חומר מורכב, בעוד שנמנעים עושים זאת בעיקר מסיבות אתיות. המסקנה שעולה מהנתונים ברורה: בינה מלאכותית כבר הפכה לחלק אינטגרלי מחוויית הלמידה, והאתגר המרכזי של האקדמיה הוא לא אם לאפשר אותה, אלא איך למסגר, לכוון ולנצל אותה לטובת למידה עמוקה ומודעת יותר.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
הפער בין המדיניות הרשמית להתנהגות הסטודנטים
באופן רשמי, בהרבה קמפוסים בארצות הברית בינה מלאכותית עדיין נתפסת כאיום, משהו שצריך להגביל, לאכוף או להכניס לסילבוס בעיקר דרך סעיף האיסורים. אבל אם שואלים את הסטודנטים, התמונה שונה לגמרי. עבורם, ChatGPT, Gemini ו‑Copilot הם כבר חלק מהשגרה הלימודית, לא פחות מספר הלימוד או קבוצת הווטסאפ של הכיתה.
מחקר חדש של Gallup וקרן Lumina, כחלק מדוח State of Higher Education, מנסה להצמיד מספרים מדויקים לתחושה הזו ומגלה מערכת יחסים מורכבת בין סטודנטים, מוסדות אקדמיים והבינה המלאכותית שנכנסה לחייהם כמעט בן לילה.
כולם משתמשים, כמעט אף אחד לא מדבר על זה
הנתון הבולט ביותר בדוח הוא היקף השימוש: כ‑57 אחוזים מהסטודנטים משתמשים בכלי בינה מלאכותית לצורכי לימודים לפחות פעם בשבוע, וכ‑20 אחוזים מדווחים על שימוש יומיומי. רק 13 אחוזים אומרים שהם לא משתמשים כלל.
במקביל, יותר ממחצית מהסטודנטים, 53 אחוזים, מדווחים שהמוסד שלהם מסתייג משימוש ב‑AI או אוסר עליו במפורש. למרות זאת, גם במוסדות שבהם קיים איסור רשמי, 48 אחוזים מהסטודנטים ממשיכים להשתמש בכלים הללו באופן שבועי.
כאן נוצר הפער הראשון: האקדמיה משדרת ״עדיין לא״, בזמן שהסטודנטים כבר חיים ב״לגמרי כן״. התוצאה היא שימוש במחתרת, מצב שמזכיר את תופעת ה‑shadow AI בארגונים, שבה עובדים מאמצים כלים מתקדמים למרות היעדר מדיניות ברורה. גם כאן, הסטודנטים מפיקים ערך ממשי מהטכנולוגיה, אבל עושים זאת בלי שיח פתוח, בלי הנחיות ובלי ליווי פדגוגי.
מה מותר ומה אסור? ומי מחליט?
המחקר מצביע גם על בעיה בסיסית יותר: חוסר שקיפות. 52 אחוזים מהסטודנטים מדווחים שלפחות בחלק מהקורסים אין הנחיות ברורות לגבי שימוש בבינה מלאכותית. כלומר, גם כשהמוסד מחזיק מדיניות AI, היא לא תמיד מתורגמת לשפה של הכיתה, של המטלה ושל היום יום.
29 אחוזים מהסטודנטים מרגישים שהם לא מקבלים מספיק הדרכה על שימוש נכון ואתי בכלים הללו. לא איך לעקוף את המערכת, אלא איך להשתמש ב‑AI כמנוף ללמידה: איך לבקר תשובות, לשלב מקורות, להימנע מהטיות ולציין שימוש בכלי בצורה שקופה.
הפער הזה, בין שימוש גבוה לבין הדרכה נמוכה, דוחף את ה‑AI אל מתחת לשולחן. במקום להיות חלק מהשיחה הפדגוגית, הוא הופך לכלי שהסטודנטים משתמשים בו לבד, לעיתים עם תחושת אשמה או חשש.
לטובת מה הסטודנטים באמת משתמשים ב‑AI?
אחת ההנחות הרווחות בשיח הציבורי היא שסטודנטים משתמשים ב‑AI כדי לקצר תהליכים, לכתוב עבודות במקומם או לעקוף את המאמץ. המחקר של Gallup ו‑Lumina מצייר תמונה רחבה ומורכבת יותר.
בקרב סטודנטים שמשתמשים ב‑AI לפחות פעם בחודש, 86 אחוזים מציינים שהסיבה המרכזית היא להבין חומר לימוד מורכב. כמעט מחצית מהם מגדירים זאת כחשוב מאוד. רק אחר כך מגיעים מניעים כמו חיסכון בזמן, שיפור ציונים או הכנה לקריירה. במילים אחרות, עבור רבים ה‑AI מתפקד כמורה פרטי זמין בכל שעה: מסביר מחדש מושגים, מפשט טקסטים, נותן דוגמאות נוספות או עוזר לבדוק אם הבינו נכון.
מנגד, מי שנמנעים משימוש בכלים הללו עושים זאת בעיקר מסיבה אחת: אתיקה. כ‑74 אחוזים מהנמנעים רואים בשימוש ב‑AI סוג של רמאות או בעיה מוסרית, ו‑68 אחוזים מציינים את כללי המוסד כסיבה מרכזית להימנעות. רק 14 אחוזים אומרים שהם לא משתמשים כי הם לא יודעים איך.
איך זה עובד בפועל ומה חסר?
המחקר לא נכנס לעומק של יוזמות פדגוגיות ספציפיות, אבל הוא כן מצביע על דפוס ברור: הסטודנטים כבר משלבים את ה‑AI בכל שלבי הלמידה, משלב ההבנה הראשונית ועד פתרון תרגילים ובדיקת תשובות. מה שחסר הוא השכבה שמעל, זו שאמורה למסגר את השימוש ולהגדיר מה מותר ומה אסור.
למשל, מותר להשתמש ב‑AI כדי להסביר מושגים, אבל אסור להגיש טקסט שנוצר אוטומטית כעבודה מקורית. בנושא השקיפות עולה השאלה האם צריך לציין בעבודה שהשתמשו ב‑AI, איך לעשות זאת ובאיזה פורמט.
בנוגע לכלים ביקורתיים, נדרש ללמד איך לזהות טעויות, הטיות או המצאות של המודל, ואיך להימנע מתלות בו. כאן נמצא אחד הפערים המרכזיים בדוח: הוא מתאר היטב את ההתנהגות והתחושות של הסטודנטים, אבל פחות מפרט מה עושים המוסדות שמנסים לבנות מדיניות חכמה. זהו אזור שמצריך מחקר משלים, למשל על קורסים שמשלבים במודע עבודה עם מודלים גנרטיביים, או על סילבוסים שמגדירים רמות שונות של שימוש מותר.
מה מיוחד במחקר הזה?
יש לא מעט סקרים על שימוש ב‑AI בחינוך, אבל למחקר של Gallup ו‑Lumina יש כמה יתרונות בולטים:
היקף
כמעט ארבעת אלפים סטודנטים מתארים שונים השתתפו בו, כחלק ממסגרת מחקרית רחבה יותר על מצב ההשכלה הגבוהה.
חיבור למדיניות
הדוח לא מסתפק בשאלה כמה משתמשים, אלא בוחן גם מה המוסד אומר על השימוש, ומציף את הפער בין ההצהרות לבין המציאות בשטח.
מוטיבציות ולא רק תדירות
הוא לא מודד רק כמה פעמים בשבוע משתמשים ב‑AI, אלא גם למה משתמשים ולמה נמנעים.
החידוש האמיתי אינו במספרים עצמם, אלא באופן שבו הם ממסגרים את ה‑AI. הכלים הללו אינם מוצגים כגימיק טכנולוגי או תופעה חולפת, אלא כמרכיב קבוע בחוויית הסטודנט, כזה שמוסדות ההשכלה הגבוהה כבר לא יכולים להרשות לעצמם להתעלם ממנו.
מה זה אומר לתעשייה ולאקדמיה?
המחקר מציג מסר ברור. בינה מלאכותית כבר אינה שאלה עתידית עבור סטודנטים, אלא חלק מהשגרה הלימודית שלהם. לכן, השאלה המרכזית עבור האקדמיה אינה האם לאפשר שימוש ב‑AI, אלא איך למסגר אותו בצורה אחראית ומועילה.
עבור מוסדות אקדמיים, המשמעות מעשית:
1. איסור גורף לא עובד. הסטודנטים ימשיכו להשתמש בכלים הללו גם כשהם אסורים, רק ללא הכוונה.
2. מדיניות חייבת להיות קונקרטית. ברמת הקורס, סוג המטלה ואופן הציון, ולא רק הצהרה כללית.
3. הדרכה היא תשתית, לא תוספת. אם AI הוא כלי למידה מרכזי, יש ללמד כיצד לעבוד איתו, לא רק להזהיר מפניו.
עבור תעשיית ה‑EdTech וחברות AI, המחקר מסמן הזדמנות לפיתוח כלים שמותאמים לסביבה אקדמית, עם שקיפות, בקרה, תיעוד שימוש ותמיכה מובנית בהוראה.
ובסופו של דבר, המחקר מזכיר נקודה פשוטה: הסטודנטים כבר בחרו להשתמש ב‑AI. עכשיו תורם של המוסדות להחליט אם להצטרף לשיחה או להישאר מאחור, בזמן שהלמידה האמיתית מתרחשת במקום אחר.











