محركات البحث

تتبع اقتباسات Bing AI، وصفحات وصفحات HTTP الرئيسية المخفية تقع تحت حد الزحف

مرحبًا بك في Pulse for SEO لهذا الأسبوع: تغطي التحديثات كيفية تتبع رؤية الذكاء الاصطناعي، وكيف يمكن لصفحة شبحية أن تكسر اسم موقعك في نتائج البحث، وما تكشفه بيانات الزحف الجديدة حول حدود حجم ملف Googlebot.

إليك ما يهمك ولعملك.

تضيف أدوات مشرفي المواقع Bing لوحة معلومات الاقتباسات AI

قدمت Microsoft لوحة معلومات أداء الذكاء الاصطناعي في أدوات Bing Webmaster، مما يمنح الناشرين رؤية حول عدد المرات التي يتم فيها الاستشهاد بالمحتوى الخاص بهم في Copilot والإجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي. الميزة الآن في المعاينة العامة.

حقائق رئيسية: تتتبع لوحة المعلومات إجمالي الاستشهادات، ومتوسط ​​الصفحات المقتبسة يوميًا، ونشاط الاقتباس على مستوى الصفحة، والاستعلامات الأساسية. تُظهر الاستعلامات الأساسية العبارات التي يستخدمها الذكاء الاصطناعي عند استرداد المحتوى الخاص بك للحصول على إجابات.

لماذا هذا مهم؟

يقدم Bing الآن لوحة معلومات مخصصة لرؤية الاقتباسات باستخدام الذكاء الاصطناعي. تقوم Google بتضمين نظرة عامة على الذكاء الاصطناعي ونشاط وضع الذكاء الاصطناعي في تقارير الأداء الشاملة لـ Search Console، ولكنها لا تقدم تقريرًا منفصلاً أو تقدم أعداد عناوين URL بنمط الاقتباس. تقوم ميزة AI Overviews أيضًا بتعيين جميع الصفحات المرتبطة لموضع واحد، مما يحد مما يمكنك معرفته حول أداء الصفحة الفردية في إجابات الذكاء الاصطناعي.

تذهب لوحة معلومات Bing إلى أبعد من ذلك من خلال تتبع الصفحات التي يتم الاستشهاد بها، وعدد المرات، والعبارات التي أدت إلى الاقتباس. القطعة المفقودة هي النقر على البيانات. تعرض لوحة المعلومات وقت الاستشهاد بالمحتوى الخاص بك، ولكن ليس ما إذا كانت هذه الاستشهادات تؤدي إلى زيادة عدد الزيارات.

يمكنك الآن تأكيد الصفحات التي تتم الإشارة إليها في إجابات الذكاء الاصطناعي وتحديد الأنماط في الاستعلامات الأساسية، ولكن ربط رؤية الذكاء الاصطناعي بنتائج الأعمال لا يزال يتطلب دمج هذه البيانات مع التحليلات الخاصة بك.

ما يقوله محترفو تحسين محركات البحث (SEO).

احتفل Wil Reynolds، مؤسس Seer Interactive، بالميزة الموجودة على X وركز على بيانات الاستعلامات الأساسية الجديدة:

“يقدم لك Bing الآن استعلامات أساسية في أدوات Bing Webmaster!! لقد تم التأكيد للتو، والآن يجب أن أفهم ما نحصل عليه منها، وما يعنيه وكيفية استخدامه.”

كوراي توغبيرك غوبور، مؤسس شركة Holistic SEO & Digital، مقارنتها مباشرة بأدوات Google على X:

“لقد كانت أدوات مشرفي المواقع من Microsoft Bing دائمًا أكثر فائدة وكفاءة من Google Search Console، وقد أثبتت مرة أخرى التزامها بالشفافية.”

قام فابريس كانيل، مدير المنتج الرئيسي في Microsoft Bing، بصياغة عملية الإطلاق على X كجسر بين التحسين التقليدي والمعتمد على الذكاء الاصطناعي:

“يمكن للناشرين الآن رؤية كيف يظهر المحتوى الخاص بهم في عصر الذكاء الاصطناعي. يلتقي الموقع الجغرافي مع تحسين محركات البحث، ويدعم استراتيجيتك بإشارات حقيقية.”

تركزت ردود الفعل عبر وسائل التواصل الاجتماعي على الإحباط المشترك. هذه هي البيانات التي كان الممارسون يطلبونها، ولكنها تأتي من Bing بدلاً من Google. أعرب العديد من الأشخاص عن أملهم في أن تتبع Google وOpenAI تقارير مماثلة.

اقرأ تغطيتنا الكاملة: تضيف أدوات مشرفي المواقع Bing بيانات أداء الاقتباسات المستندة إلى الذكاء الاصطناعي

يمكن أن تؤدي صفحة HTTP الرئيسية المخفية إلى كسر اسم موقعك في Google

شارك جون مولر من Google حالة استكشاف الأخطاء وإصلاحها على Bluesky حيث تسببت صفحة HTTP الرئيسية المتبقية في حدوث مشكلات غير متوقعة في اسم الموقع والأيقونات المفضلة في نتائج البحث. من السهل تفويت المشكلة لأن Chrome يمكنه ترقية طلبات HTTP تلقائيًا إلى HTTPS، مما يؤدي إلى إخفاء الصفحة التي بها مشكلة عن التصفح العادي.

حقائق رئيسية: استخدم الموقع HTTPS، ولكن لا يزال من الممكن الوصول إلى صفحة HTTP الرئيسية الافتراضية للخادم. تعني ترقية Chrome التلقائية أن الناشر لم يطلع مطلقًا على إصدار HTTP، ولكن Googlebot لا يتبع سلوك ترقية Chrome، لذلك كان Googlebot ينسحب من الصفحة الخاطئة.

لماذا هذا مهم؟

هذا هو نوع المشكلة التي لن تجدها في التدقيق القياسي للموقع لأن متصفحك لا يعرضها أبدًا. إذا كان اسم موقعك أو رمزك المفضل في نتائج البحث لا يتطابق مع ما تتوقعه، وكانت صفحة HTTPS الرئيسية تبدو صحيحة، فإن إصدار HTTP الخاص بنطاقك يستحق التحقق.

اقترح مولر تشغيل عملية تجعيد من سطر الأوامر لرؤية استجابة HTTP الأولية بدون ترقية Chrome التلقائية. إذا أعادت صفحة الخادم الافتراضية بدلاً من صفحتك الرئيسية الفعلية، فهذا هو مصدر المشكلة. يمكنك أيضًا استخدام أداة فحص عنوان URL في Search Console من خلال اختبار مباشر لمعرفة ما استعاده Google وعرضه.

تشير وثائق Google المتعلقة بأسماء المواقع على وجه التحديد إلى الصفحات الرئيسية المكررة، بما في ذلك إصدارات HTTP وHTTPS، وتوصي باستخدام نفس البيانات المنظمة لكليهما. توضح حالة مولر ما يحدث عندما يحتوي إصدار HTTP على محتوى مختلف عن صفحة HTTPS الرئيسية التي قصدتها.

ما يقوله الناس

وصف مولر حالة Bluesky بأنها “غريبة”، مشيرًا إلى أن المشكلة الأساسية غير مرئية في التصفح العادي:

“يقوم Chrome تلقائيًا بترقية HTTP إلى HTTPS حتى لا ترى صفحة HTTP. ومع ذلك، يراها Googlebot ويستخدمها للتأثير على اسم الموقع واختيار الرمز المفضل.”

تسلط الحالة الضوء على نمط حيث غالبًا ما تخفي ميزات المتصفح ما تراه برامج الزحف. تتضمن الأمثلة ترقية Chrome التلقائية، وأوضاع القارئ، والعرض من جانب العميل، ومحتوى JavaScript. لتصحيح مشكلات اسم الموقع والأيقونات المفضلة، تحقق من استجابة الخادم مباشرةً، وليس فقط عمليات تحميل المتصفح.

اقرأ تغطيتنا الكاملة: صفحة HTTP المخفية يمكن أن تسبب مشاكل في اسم الموقع في Google

تظهر البيانات الجديدة أن معظم الصفحات تتلاءم بشكل جيد مع حدود زحف Googlebot

تشير الأبحاث الجديدة المستندة إلى صفحات الويب الواقعية إلى أن معظم الصفحات تقع تحت الحد الأقصى لجلب Googlebot البالغ 2 ميغابايت. تعتمد البيانات، التي تم تحليلها بواسطة روجر مونتي من Search Engine Journal، على قياسات أرشيف HTTP لوضع سؤال حد الزحف في السياق العملي.

حقائق رئيسية: تشير بيانات أرشيف HTTP إلى أن حجم معظم الصفحات أقل بكثير من 2 ميغابايت. أوضحت Google مؤخرًا في الوثائق المحدثة أن الحد الأقصى المسموح به لأنواع الملفات المدعومة لدى Googlebot هو 2 ميجابايت، بينما يصل الحد الأقصى لملفات PDF إلى 64 ميجابايت.

لماذا هذا مهم؟

تم تداول سؤال حد الزحف في المناقشات الفنية لتحسين محركات البحث، خاصة بعد قيام Google بتحديث وثائق Googlebot الخاصة بها في وقت سابق من هذا الشهر.

تجيب البيانات الجديدة على السؤال العملي الذي لا تستطيع التوثيق وحده الإجابة عليه. هل حد الـ 2 ميجابايت مهم لصفحاتك؟ بالنسبة لمعظم المواقع، الجواب هو لا. نادرًا ما تصل صفحات الويب القياسية، حتى تلك ذات المحتوى الثقيل، إلى هذا الحد.

حيث يمكن أن يكون الحد مهمًا على الصفحات ذات العلامات المتضخمة للغاية أو البرامج النصية المضمنة أو البيانات المضمنة التي تعمل على تضخيم حجم HTML بما يتجاوز النطاقات النموذجية.

النمط الأوسع هنا هو أن Google تجعل أنظمة الزحف الخاصة بها أكثر شفافية. إن نقل الوثائق إلى موقع زحف مستقل، وتوضيح الحدود التي تنطبق على أي برامج زحف، والحصول الآن على بيانات واقعية للتحقق من صحة هذه الحدود، يعطي صورة أوضح لما يتعامل معه Googlebot.

ما يقوله محترفو تحسين محركات البحث (SEO) الفنيون

ديف سمارت، مستشار تحسين محركات البحث الفني في Tame the Bots وخبير المنتجات الماسية المركزية في Google Search، وضع الأرقام في نصابها الصحيح في منشور على LinkedIn:

“سيجلب Googlebot فقط أول 2 ميجابايت من ملف HTML الأولي (أو أي مصدر آخر مثل CSS أو JavaScript)، وهو ما يبدو بمثابة تخفيض كبير من 15 ميجابايت التي تم الإبلاغ عنها سابقًا، ولكن بصراحة 2 ميجابايت لا تزال ضخمة.”

تابع Smart ذلك بتحديث أداة الجلب والعرض Tame the Bots لمحاكاة القطع. وفي منشور على Bluesky، أضاف تحذيرًا بشأن المخاطر العملية:

“على الرغم من المخاطرة بالمبالغة في بيع حجم هذه المشكلة الواقعية (وهي ليست كذلك بالنسبة لـ 99.99% من المواقع التي أتخيلها)، فقد أضفت وظيفة لتحديد حجم الملفات النصية إلى 2 ميجابايت لمحاكاة ذلك.”

أيد جون مولر من Google الأداة على Bluesky، فكتب:

“إذا كنت ترغب في معرفة الحد الأقصى لجلب Googlebot HTML وهو 2 ميغابايت، فإليك طريقة للتحقق.”

شارك مولر أيضًا بيانات Web Almanac على Reddit لوضع الحد في السياق:

“المتوسط ​​على الهاتف المحمول هو 33 كيلو بايت، ونسبة 90 في المائة هي 151 كيلو بايت. وهذا يعني أن 90% من الصفحات الموجودة بها تحتوي على أقل من 151 كيلو بايت HTML.”

توصل روجر مونتي، الذي يكتب لمجلة محرك البحث، إلى نتيجة مماثلة بعد مراجعة بيانات أرشيف HTTP. وأشار مونتي إلى أن البيانات المستندة إلى مواقع ويب حقيقية تظهر أن معظم المواقع أقل بكثير من الحد الأقصى، ووصفها بأنها “من الآمن القول إنه من المقبول شطب حجم HTML من قائمة أشياء تحسين محركات البحث التي تدعو للقلق.”

اقرأ تغطيتنا الكاملة: البيانات الجديدة تظهر أن حد الزحف الذي يبلغ 2 ميجابايت الخاص بـ Googlebot كافٍ

موضوع الأسبوع: الفجوة التشخيصية

تشير كل قصة هذا الأسبوع إلى شيء لم يتمكن الممارسون من رؤيته من قبل، أو فحصوه بطريقة خاطئة.

تعمل لوحة معلومات الاقتباسات الخاصة بالذكاء الاصطناعي في Bing على سد فجوة القياس التي كانت موجودة منذ أن بدأت إجابات الذكاء الاصطناعي في الاستشهاد بمحتوى موقع الويب. تكشف حالة صفحة HTTP الرئيسية الخاصة بـ Mueller عن صفحة غير مرئية قد تفوتها عمليات تدقيق الموقع القياسية وفحوصات المتصفح تمامًا لأن Chrome يخفيها. وتجيب بيانات حد زحف Googlebot على سؤال أثارته تحديثات الوثائق، ولكن لم تتمكن من حلها بمفردها.

لا يعني موضوع الاتصال أن هذه مشكلات جديدة. لقد كانت استشهادات الذكاء الاصطناعي تحدث بدون أدوات القياس. لقد تسببت صفحات Ghost HTTP في إرباك أنظمة أسماء المواقع منذ أن قدمت Google هذه الميزة. وقد تم إدراج حدود الزحف في مستندات Google لسنوات دون التحقق من صحتها في العالم الحقيقي. ما تغير هذا الأسبوع هو أن كل فجوة حصلت على تشخيص ملموس: لوحة معلومات، وأمر تجعيد، ومجموعة بيانات.

والخلاصة هي أن الأدوات والبيانات اللازمة لفهم كيفية تفاعل محركات البحث مع المحتوى الخاص بك أصبحت أكثر تحديدًا. التحدي هو معرفة أين تبحث.

المزيد من الموارد:


صورة مميزة: تصميم Accogliente / Shutterstock




Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى