محركات البحث

يعرض Google كيفية التحقق من فهرسة المرور

سُئل جون مولر من Google عن عدد الميغابايت من HTML التي يزحف إليها Googlebot لكل صفحة. كان السؤال هو ما إذا كان Googlebot يقوم بفهرسة 2 ميجابايت (MB) أو 15 ميجابايت من البيانات. قللت إجابة مولر من الجانب الفني للسؤال وذهبت مباشرة إلى جوهر المشكلة، والتي تتعلق في الحقيقة بكمية المحتوى الذي تتم فهرسته.

GoogleBot والروبوتات الأخرى

في وسط مناقشة مستمرة في Bluesky، أعاد أحد الأشخاص إحياء السؤال حول ما إذا كان Googlebot يقوم بالزحف وفهرسة 2 أو 15 ميغابايت من البيانات.

نشروا:

“آمل أن تكون قد حصلت على كل ما دفعك للركض 🙂

سيكون من المفيد للغاية الحصول على المزيد من الدقة، وأمثلة واقعية مثل “صفحتي يبلغ طولها X ميجا بايت، ويتم قطعها بعد X ميجا بايت، كما يتم تحميل المورد أ: 15 كيلو بايت، المورد ب: 3 ميجا بايت، المورد ب لم يتم تحميله بالكامل، ولكن المورد أ يرجع إلى أن 15 كيلو بايت <2 ميجا بايت".

الذعر حول حد 2 ميغا بايت مبالغ فيه

قال مولر إنه ليس من الضروري وزن البايتات وأشار ضمنيًا إلى أن المهم في النهاية لا يتعلق بتقييد عدد البايتات الموجودة على الصفحة، بل ما إذا كانت المقاطع المهمة مفهرسة أم لا.

علاوة على ذلك، قال مولر إنه من النادر أن يتجاوز موقع ما 2 ميغابايت من HTML، رافضًا فكرة احتمال عدم فهرسة محتوى موقع الويب لأنه كبير جدًا.

وقال أيضًا إن Googlebot ليس الروبوت الوحيد الذي يزحف إلى صفحة ويب، وذلك على ما يبدو لشرح سبب عدم كون 2 ميجابايت و15 ميجابايت من العوامل المقيدة. تنشر Google قائمة بجميع برامج الزحف التي تستخدمها لأغراض مختلفة.

كيفية التحقق من فهرسة مقاطع المحتوى

وأخيرًا، أكد رد مولر وجود طريقة بسيطة للتحقق مما إذا كانت المقاطع المهمة مفهرسة أم لا.

أجاب مولر:

“يمتلك Google الكثير من برامج الزحف، ولهذا السبب قمنا بتقسيمه. ومن النادر جدًا أن تواجه المواقع مشكلات في هذا الصدد، فحجم 2 ميجابايت من HTML (لأولئك الذين يركزون على Googlebot) يعد قليلًا جدًا. والطريقة التي أتحقق منها عادةً هي البحث عن اقتباس مهم في أسفل الصفحة – ولا حاجة عادةً إلى وزن البايتات.”

ممرات للترتيب

يتمتع الأشخاص بفترات اهتمام قصيرة إلا عندما يقرؤون عن موضوع يثير شغفهم. عندها قد تكون المقالة الشاملة مفيدة لهؤلاء القراء الذين يرغبون حقًا في التعمق لمعرفة المزيد.

من منظور تحسين محركات البحث، أستطيع أن أفهم لماذا قد يشعر البعض أن المقالة الشاملة قد لا تكون مثالية للتصنيف إذا كان المستند يوفر تغطية عميقة لموضوعات متعددة، أي منها يمكن أن يكون مقالًا مستقلاً.

يحتاج الناشر أو مُحسّن محركات البحث إلى التراجع وتقييم ما إذا كان المستخدم راضيًا عن التغطية العميقة للموضوع أو ما إذا كان المستخدمون بحاجة إلى معالجة أعمق له. هناك أيضًا مستويات مختلفة من الشمولية، واحدة تحتوي على تفاصيل دقيقة والأخرى تحتوي على نظرة عامة على مستوى تغطية التفاصيل، مع روابط لتغطية أعمق.

بمعنى آخر، يحتاج المستخدمون أحيانًا إلى إطلالة على الغابة وفي أحيان أخرى يطلبون إطلالة على الأشجار.

لقد تمكنت Google منذ فترة طويلة من تصنيف مقاطع المستندات باستخدام خوارزميات تصنيف المقاطع الخاصة بها. في النهاية، في رأيي، يتعلق الأمر حقًا بما هو مفيد للمستخدمين ومن المرجح أن يؤدي إلى مستوى أعلى من رضا المستخدمين.

إذا كانت التغطية الشاملة للموضوع تثير اهتمام الأشخاص وتجعلهم متحمسين بدرجة كافية لمشاركتها مع أشخاص آخرين، فهذا يعد فوزًا.

إذا لم تكن التغطية الشاملة مفيدة لهذا الموضوع المحدد، فقد يكون من الأفضل تقسيم المحتوى إلى تغطية أقصر تتوافق بشكل أفضل مع أسباب قدوم الأشخاص إلى تلك الصفحة للقراءة حول هذا الموضوع.

الوجبات الجاهزة

على الرغم من أن معظم هذه النصائح لم يتم تمثيلها في رد مولر، إلا أنها في رأيي تمثل الممارسات الجيدة لتحسين محركات البحث.

  • إن حدود حجم HTML تثير القلق بشأن الأسئلة الأعمق حول طول المحتوى ورؤية الفهرسة
  • نادرًا ما تكون حدود الميغابايت قيدًا عمليًا لصفحات العالم الحقيقي
  • يعد حساب البايتات أقل فائدة من التحقق مما إذا كان المحتوى يظهر بالفعل في البحث
  • يعد البحث عن الفقرات المميزة طريقة عملية لتأكيد الفهرسة
  • يجب أن يكون الشمول مدفوعًا بقصد المستخدم، وليس بافتراضات الزحف
  • إن فائدة المحتوى ووضوحه أهم من حجم المستند
  • يبقى رضا المستخدم هو العامل الحاسم في أداء المحتوى

إن القلق بشأن عدد الميغابايت التي يمثل حد الزحف الصعب لبرنامج Googlebot يعكس عدم اليقين بشأن ما إذا كان المحتوى المهم في مستند طويل تتم فهرسته ومتاح للترتيب في البحث. يؤدي التركيز على الميغابايت إلى تحويل الانتباه بعيدًا عن المشكلات الحقيقية التي يجب على مُحسنات محركات البحث التركيز عليها، وهي ما إذا كان عمق تغطية الموضوع يخدم احتياجات المستخدم على أفضل وجه.

تعزز استجابة مولر النقطة التي مفادها أن صفحات الويب الكبيرة جدًا بحيث لا يمكن فهرستها هي غير شائعة، وأن حدود البايت الثابتة لا تشكل قيدًا يجب أن يهتم به مُحسنو محركات البحث.

في رأيي، من المحتمل أن يتمتع مُحسنو محركات البحث والناشرون بتغطية بحث أفضل من خلال تحويل تركيزهم بعيدًا عن تحسين حدود الزحف المفترضة والتركيز بدلاً من ذلك على حدود استهلاك محتوى المستخدم.

ولكن إذا كان الناشر أو مُحسّن محركات البحث (SEO) قلقًا بشأن ما إذا كان المقطع الموجود بالقرب من نهاية المستند قد تمت فهرسته، فهناك طريقة سهلة للتحقق من الحالة بمجرد إجراء بحث عن التطابق التام لهذا المقطع.

لا تمثل التغطية الشاملة للموضوع مشكلة في التصنيف تلقائيًا، كما أنها ليست دائمًا النهج الأفضل (أو الأسوأ). لا يمثل حجم HTML مصدر قلق حقًا إلا إذا بدأ في التأثير على سرعة الصفحة. ما يهم هو ما إذا كان المحتوى واضحًا وذا صلة ومفيدًا للجمهور المستهدف بمستويات الدقة الدقيقة التي تخدم أغراض المستخدم.

صورة مميزة بواسطة Shutterstock/Krakenimages.com


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى