חשבתי שהדירוג בגוגל מספיק. טעיתי.

הדירוג שלכם בגוגל מצוין? זה לא אומר שתופיעו ב-AI. גלו איך "חוב טכני" ישן ב-SEO גורם לסורקי AI להתעלם מהאתר שלכם, ולמה מהירות הפכה לקריטית יותר מתמיד.

אני חייב להודות, נתקלתי במשהו שקצת ערער אותי.

בתור מי שחי ונושם SEO כבר שנים, תמיד הייתה לנו נוסחה די ברורה. תעשה אופטימיזציה, תשיג קישורים, תוכן טוב, טכני תקין… ותעקוב אחרי גוגל. גוגל היה השמש, וכולנו הסתובבנו סביבו. אם גוגל סרק אותך, הבין אותך ודירג אותך גבוה ־ עשית את שלך.

ואז הגיעה הבינה המלאכותית.

בהתחלה, חשבתי לעצמי, "טוב, זה עוד משהו. אבל בסוף, הם יצטרכו את גוגל, הם יצטרכו את האתרים שלנו". הנחתי שאם אני חזק בגוגל, אני אהיה חזק גם בתשובות של ChatGPT, Perplexity, או איך שלא יקראו לדבר הבא.

ההנחה הזו, מסתבר, היא כנראה הטעות הכי גדולה שאנחנו עושים עכשיו.

קראתי מאמר (ב-Search Engine Journal) שהשווה נתונים בין Airbnb ל-Vrbo. בגוגל, היחס ביניהם בחיפושים (לא ממותגים) הוא בערך 3:2. הגיוני. אבל בציטוטים ב-ChatGPT? היחס קופץ ל-11:2. פתאום זה נראה אחרת לגמרי. זה אומר שכל הסמכות והדירוגים ש-Vrbo צברו בגוגל, פשוט… לא מתורגמים לעולם ה-AI.

וזה גרם לי לחשוב על כל ה"חוב הטכני" הזה שאנחנו גוררים.

אתם יודעים למה אני מתכוון. כל אותם קיצורי דרך שעשינו פעם. התוסף ההוא שהתקנו ב-2018 ומאז הוא סתם יושב שם ומכביד. הקוד המסורבל ההוא שאף מפתח לא רצה לגעת בו. התמונות הכבדות ההן שאמרנו "נסדר מחר".

גוגל, עם השנים, נהיה חכם. הוא למד לסלוח. הוא מבין את הכוונה גם כשהביצוע מקרטע. הוא משתמש במאות אותות כדי להבין שאולי האתר שלך קצת איטי, אבל התוכן מעולה והסמכות בשמיים, אז הוא מקדם אותך בכל זאת.

הסורקים של ה-AI? פחות סלחניים.

מסתבר שהם הרבה יותר "טכניים" ופחות "הוליסטיים". הם צריכים דאטה נקי, מהיר וזמין. המאמר טען שהם פשוט "מפשיטים" את האתר מהעיצוב ומהקוד, ורק רוצים את הטקסט. וכשהם נתקלים בקיר ־ אתר איטי, למשל ־ הם לא בהכרח ינסו שוב ושוב.

למה להם?

וזה החלק השני שהכה בי. סריקה עולה כסף. המון כסף. המון כוח חישוב. לפלטפורמת AI אין שום סיבה לבזבז משאבים יקרים על אתר איטי ומסורבל, כשהיא יכולה לקפוץ למתחרה שלך, שסידר את הבלגן שלו, ולקבל את אותה תשובה בחצי מהמאמץ.

פשוט ככה. הם ידלגו עליך.

ואז יש את הקטע המפחיד באמת. יכול להיות שהאתר שלך בכלל חסום לבינה מלאכותית ואתה אפילו לא יודע. לפעמים אלו הגדרות ברירת מחדל אצל ספקיות כמו Cloudflare. אתה חושב שאתה באוויר, אבל בעצם אתה בלתי נראה לעתיד של החיפוש.

האמת, זה קצת מלחיץ.

וזה מוביל אותי לבעיה האמיתית, שהיא פחות טכנית ויותר אנושית. מי אחראי על זה?

ברוב הארגונים, זו תפוח אדמה לוהט. איש ה-SEO אומר "זה קוד, שילכו למפתחים". המפתחים אומרים "לא קיבלנו בריף כזה, זה עניין של שיווק". ומנהל השיווק בכלל עסוק בקמפיין הבא ומניח שאם האתר עובד בגוגל, הוא עובד.

כולם מניחים שמישהו אחר מטפל בזה.

אז מה אני הולך לעשות? האמת, הצעד הראשון הוא פשוט להפסיק להניח הנחות. אני הולך לחזור ולבדוק את האתרים שאני מנהל. לבדוק מהירות לא רק בשביל גוגל, אלא בשביל… טוב, בשביל הבוטים החדשים האלה. ולשאול את השאלה המביכה: "היי, מישהו בדק פעם אם AI בכלל יכול לסרוק אותנו?".

כי מסתבר שהמשחק הישן אולי נגמר, ואפילו לא שמנו לב.