מקדמי אתרים רבים טוענים שהגבול בין קידום אתרים קלאסי ובין חווית המשתמש באתר הולך ומטשטש עד כדי כך שלא ניתן יותר להבדיל בין השניים.כשאתם בוחרים חברה או פרילנסר לקידום אתרים, מומלץ להעלות את הסוגיות האלו כדי להבין מהי הגישה של הגורם מולו אתם בקשר.
על מנת להבין מדוע ואיך זה קורה, צריך קודם כל לחזור אל ההיסטוריה של מנועי החיפוש ולהפנים שתהליך של קידום בגוגל הוא טכני בעיקרו:
בראשית חייהם של מנועי החיפוש המודרניים כגון גוגל, התכונות שנבדקו על מנת להעריך את הרלוונטיות של הדפים השונים ברשת היו ניתנות למדידה מאוד מדויקת. לדוגמה –
- מספר הקישורים הנכנסים אל הדף המדובר מאתרים אחרים ברשת (קישורים חיצונים / נכנסים)
- מספר הקישורים הנכנסים לדף המדובר מדפים אחרים באותו האתר (קישורים פנימיים)
- החוזק של הקישורים השונים (לדוגמה, קישור מעמוד שיש בו עוד קישור אחד יהיה חזק יותר מקישור מדף שיש בו עוד תשעה קישורים אחרים).
- הכותרת של הדף, התיאור שלו והשילוב של מילות המפתח בהם
- הצפיפות של מילות המפתח בטקסט של הדף
- עוד על דרכי פעולתה של גוגל ניתן למצוא פה.
מכיוון שהיה ניתן למדוד את התכונות האלו כל כך במדויק, היה גם ניתן לבצע בהן מניפולציות בקלות יחסית, וכך מקדמי אתרים רבים פשוט הלכו לפי הספר ויצרו אתרים שענו על כמה שיותר קריטריונים שנבחנו על ידי גוגל ודומיו. כך נוצרו מצבים אבסורדיים שבהם אתרים עם טקסט ברמה נמוכה המרוצף במילות מפתח והרבה קישורים נכנסים דורגו לפני אתרים איכותיים שלא נבנו בהכרח לפי הספר…
אתרים גדולים אמנם זכו בדרך כלל למיקומים גבוהים בגלל שהם משכו אליהם קישורים רבים באופן טבעי, אבל לאתרים קטנים יותר פשוט לא היה סיכוי נגד אתרים שקודמו בצורה אגרסיבית. כך נוצרה מלכודת דבש וכל בעל אתר ידע שאי אפשר להקים אתר חדש בלי לשכור חברה של קידום אתרים בגוגל.
בשלב כלשהו לגוגל נמאס מן העניין והיא החלה לחפש פתרונות שיקבעו סטנדרט חדש עבור האיכות של אתרים ברשת (פתרונות אלו אומצו יותר מאוחר גם על ידי המתחרים כגון בינג של מיקרוסופט). הדבר לא היה קל, אבל בסופו של דבר גוגל שיפרה מאוד את היכולת של מנוע החיפוש שלה לבחון את האיכות של הטקסטים ברשת ולזהות קישורים שהוטמעו בצורה מלאכותית לעומת קישורים "טבעיים".
להבין את חווית הגלישה
מהלכים אלו של גוגל אמנם פתרו חלק גדול מן הבעיה, אבל ככל שהאתרים נעשו מתוחכמים יותר ורוחב הפס הממוצע גדל בד בבד עם הגלישה במכשירים סלולריים, כך גוגל התחילה להבין שאתרים איכותיים נמדדים לא רק לפי התוכן שלהם, אלא גם ביכולת שלהם לספק לגולשים חווית גלישה נעימה ואפקטיבית.
כך למשל, אתר שמציע מתכונים לגולשים, אבל לא מתאים לגלישה מהסלולר, יהיה הרבה פחות אפקטיבי מכיוון שהוא לא יתאים למי שאין לו גישה למדפסת וחייב להשתמש בטלפון בזמן ההכנה…
דוגמאות אחרות לשימושיות לוקה בחסר הן תפריטים לא ברורים או כפילות בתפריטים, דפים עמוסים בקישורים (גם קישורים פנימיים כמו למשל מאמרים) וכמובן אתרים עם טפסים שמעוצבים בצורה מתסכלת.
אמנם גוגל לא יכול להחליף את המשתמש האנושי ולדעת בדיוק כיצד הוא מתנהל, אבל הוא כן יכול למדוד אלמנטים ויזואליים בעמוד ולהעריך באופן גס כיצד האתר בנוי מבחינה היררכית. לאלגוריתמים הנוכחיים של גוגל יש גם יכולת משופרת למדוד אלמנטים כגון מהירות האתר ורמת האבטחה שלו, להם חשיבות מכרעת על חווית המשתמש המודרנית.
בנוסף, יש אף כאלו שטוענים שגוגל מתחשב גם במספר הגולשים שלחצו על כל דף בתוצאות החיפוש שלה ועל אחוז המשתמשים שחזרו מעמוד הנחיתה לרשימת התוצאות בלי להיכנס יותר לעומק, אבל אלו טענות שקשה מאוד להוכיח אותן ולכן רצוי לקחת אותן בעירבון מוגבל.
האם זהו הסוף של הקידום הטכני?
נביאי זעם רבים מנסים לשכנע אותנו בכך שקידום האתרים הקלאסי מת וגוגל נעשה חכם יותר מכל מקדמי האתרים, אבל חשוב לזכור שלגוגל יש מעל 200 גורמי דירוג שונים. אמנם אי אפשר לדעת מהו היחס המדויק ביניהם, אבל מדידות שנעשות על ידי אתרים בעלי גישה לכמויות גדולות של מידע כגון SearchMetrics, מראות שלקידום אתרים טכני יש עדיין חשיבות עצומה בכל מה שקשור לדירוג בתוצאות החיפוש.
המסקנה הבלתי נמנעת היא שאין בררה אלא לשלב בין שתי הגישות וליצור אתרים שמתאימים לקידום הקלאסי מצד אחד ומספקים חווית גלישה טובה לגולשים מצד שני. גם אם אנחנו לא יודעים בוודאות מה משפיע יותר, אין לנו שום צורך באתר שמדורג מצוין אבל חווית הגלישה בו היא נוראית או ההפך, מכיוון שבשני המקרים נקבל תנועה דלילה של גולשים רלוונטים או תנועה רבה של גולשים לא רלוונטיים.