AI Overviews של גוגל מבטיחים להפוך את החיפוש למהיר ומדויק יותר, אך בדיקות עומק מציגות תמונה מורכבת בהרבה. גרסאות Gemini החדשות אכן מציגות שיפור משמעותי, אך לצד זאת מופיעות טעויות רבות, תשובות שאינן מעוגנות במקורות אמינים והסתמכות על אתרים מפוקפקים. כך נוצרת מערכת שנראית סמכותית כלפי חוץ אך מתקשה לשמור על אמון המשתמשים, עם השלכות רחבות על SEO, על מודלים עסקיים של אתרים ועל עתיד האינטרנט כולו.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
האם לגוגל יש בעיית אמינות
סטיבן פונוואסי (Steven Ponawasi), אנליסט נתונים מטורונטו, רק רצה לבדוק כותרת מוזרה שראה בדרך לארוחת ערב. כתבה טענה שאשתו של המתאבק האלק הוגאן שוקלת לתבוע בעקבות מותו. הוא הופתע, משום שלא ידע שהוגאן נפטר, ולכן פנה לגוגל, המקום שבו רבים מאיתנו בודקים את המציאות.
התשובה שקיבל הייתה נחרצת: אין דיווחים אמינים על כך שהאלק הוגאן נפטר. אבל ממש מתחתיה הופיע קישור לכתבה שטענה את ההפך.
זה היה רגע קצר ושגרתי לכאורה, אך הוא חשף פער עמוק יותר. פער בין סמכותיות לבין אמינות, בין תשובה שנשמעת נכונה לבין תשובה שנבדקה, ובין גוגל של פעם שאספה מידע לבין גוגל החדשה שמפרשת אותו.
המעבר של גוגל ממנוע חיפוש למנוע תשובות
AI Overviews, שהושק ב-2024, הוא אחד המהלכים המשמעותיים ביותר בתולדות גוגל. במקום להציג רשימת קישורים, גוגל מציגה תשובה אחת מסוכמת, שנראית כמו פסקה מתוך אנציקלופדיה מודרנית. זה נוח, זה מהיר, וזה משנה את כללי המשחק.
אבל שינוי כזה מגיע עם מחיר. ברגע שגוגל הופכת למי שמספקת את התשובה, היא גם זו שנושאת באחריות אליה.
כדי להבין עד כמה התשובות הללו מדויקות, The New York Times ביקש מחברת Oumi (מפעילה תשתית פתוחה להערכת מודלים ומובילה מחקר בתחום אמינות ה-AI) לבצע בדיקה מקיפה. התוצאות מציירות תמונה מורכבת: מצד אחד שיפור טכנולוגי מרשים, ומצד שני טעויות בקנה מידה עצום וקושי גובר לדעת מתי אפשר לסמוך על התשובה.
הדיוק עולה במקביל לאי-הוודאות
Oumi בחנה 4,326 שאילתות באמצעות SimpleQA, אחד הבנצ'מרקים המקובלים בתעשייה. התוצאות היו ברורות: 85 אחוז דיוק עם Gemini 2 באוקטובר 2025 ו-91 אחוז דיוק עם Gemini 3 בפברואר 2026.
לכאורה מדובר בהישג מרשים, אך בפועל המשמעות מטרידה. גוגל מעבדת יותר מ-5 טריליון חיפושים בשנה, ולכן גם טעות בשיעור של 9 אחוזים מתורגמת לעשרות מיליוני טעויות בשעה ולמאות אלפי טעויות בדקה.
וזה עוד לפני שנוגעים בבעיה עמוקה יותר: תשובות שנראות נכונות אך אינן מגובות במקורות אמינים. לפי Oumi, יותר ממחצית מהתשובות המדויקות היו לא מעוגנות, כלומר הקישורים שגוגל הציגה לא תמכו בפועל בתוכן. עם Gemini 3 שיעור התשובות הלא מעוגנות עלה ל-56 אחוזים.
במילים אחרות, גם כשהתשובה נכונה, קשה לדעת אם היא באמת נכונה.
איך נוצרות הטעויות
הטעויות של AI Overviews אינן מקריות. הן נובעות מהאופן שבו מודלים ג'נרטיביים פועלים. הם לא באמת יודעים, אלא מנחשים את התשובה הסבירה ביותר על בסיס דפוסים סטטיסטיים. ב-5,380 המקורות ש-AI Overviews ציטט, פייסבוק היה המקור השני בשכיחותו ורדיט היה הרביעי. כאשר התשובה הייתה שגויה, הסיכוי שגוגל ציטטה דווקא פייסבוק עלה.
דוגמה בולטת לכך הופיעה כאשר גוגל נשאלה איזה נהר גובל בצד המערבי של Goldsboro בצפון קרוליינה. היא מצאה מקור נכון, אתר תיירות מקומי, אך הסיקה מסקנה שגויה: Neuse River במקום Little River. במקרה אחר, כאשר גוגל נשאלה על גילו של שחקן הבייסבול Dick Drago במותו, היא נתנה את הגיל הנכון אך הוסיפה פרטים ביוגרפיים שגויים לחלוטין.
המערכת פגיעה למניפולציות
ג'יימס קלייטון (James Clayton), עיתונאי BBC, פרסם פוסט בלוג פיקטיבי על אליפות אכילת נקניקיות. זה הספיק כדי ש-AI Overviews יציג אותו כמומחה עולמי בתחום. הדוגמה הזו ממחישה עד כמה המודל מתקשה להבחין בין תוכן אמיתי לבין תוכן שנכתב כדי להטעות - כל עוד הוא נראה סביר. גוגל טוענת שמדובר במקרים קיצוניים, אך עצם האפשרות הזו מעלה שאלות קשות על מנגנוני האימות ועל יכולתה של המערכת להתמודד עם תוכן מניפולטיבי.
מה גוגל אומרת או לא אומרת
גוגל מודה שהמערכת יכולה לטעות, ומוסיפה אזהרה קטנה מתחת לכל תשובה: "AI can make mistakes, so double check responses."
עם זאת, היא דוחה את הביקורת של Oumi בטענה שהבנצ'מרק עצמו מכיל טעויות. אבל גם גוגל פרסמה נתונים דומים: Gemini 3 מייצר מידע שגוי ב-28 אחוז מהמקרים כשהוא פועל ללא מנוע החיפוש, ו-AI Overviews אמנם מדויק יותר אך עדיין רחוק משלמות.
הפער בין ההצהרות לבין המציאות בשטח יוצר תחושה של מערכת שנמצאת בתנועה. היא משתפרת, אך עדיין אינה יציבה.
המשמעות הרחבה
למה המעבר של גוגל ממנוע חיפוש למנוע תשובות משנה את האינטרנט כולו?
1. משתמשים מפסיקים לבדוק מקורות כאשר התשובה מוצגת כעובדה סגורה, פחות אנשים לוחצים על קישורים. התוצאה היא פגיעה באתרי חדשות, בבלוגים מקצועיים ובמודלים העסקיים של האינטרנט הפתוח.
2. SEO הופך לפחות צפוי. AI Overviews לא רק מסכם מידע, אלא גם קובע מי יופיע ומי לא. אתרים מדווחים על ירידות חדות בתנועה, גם כאשר התוכן שלהם מדויק.
3. מודלים ג'נרטיביים הופכים לשכבת האמת החדשה. כאשר גוגל, OpenAI ו-Perplexity מספקות תשובות שונות לאותה שאלה, קשה לדעת מי צודק. אין רגולציה, אין סטנדרט, ואין שקיפות.
מה הסיכון? אינטרנט שבו "נשמע נכון" מחליף את "נבדק ואומת".
עידן שבו אמון הופך למוצר
המרוץ בין גוגל, OpenAI ו-Perplexity אינו עוסק רק בשאלה מי מספק את התשובה הטובה ביותר, אלא מי יזכה להיות שכבת האמת של האנושות. ככל שהמודלים משתפרים, כך גדל הפער בין מה שנראה נכון, מה שנשמע נכון ומה שבאמת נכון. האתגר של גוגל ושל כל תעשיית ה-AI הוא לא רק לייצר תשובות טובות יותר, אלא לבנות מחדש את האמון. וזה כבר לא עניין של טכנולוגיה - זה עניין של אחריות.






