يُظهر Google AI أن الموقع غير متصل بالإنترنت بسبب تسليم محتوى JS

قدم جون مولر من Google حلاً بسيطًا لأحد مستخدمي Redditor الذي ألقى باللوم على “الذكاء الاصطناعي” من Google بسبب ملاحظة في SERPs تفيد بأن موقع الويب معطل منذ أوائل عام 2026.
لم ينشئ Redditor منشورًا على Reddit، بل قام فقط بربط منشور مدونته الذي ألقى باللوم على Google وAI. وقد مكّن هذا مولر من الانتقال مباشرة إلى الموقع، وتحديد السبب باعتباره يتعلق بتطبيق جافا سكريبت، ثم توضيح الأمر بأنه لم يكن خطأ جوجل.
Redditor يلوم الذكاء الاصطناعي من Google
يلقي منشور مدونة Redditor اللوم على Google، حيث يتصدر المقال بمجموعة من الكلمات الطنانة في علوم الكمبيوتر والتي تزيد من تعقيد المشكلة الفعلية (دون قصد).
عنوان المقال هو:
“قد تعتقد Google أن موقع الويب الخاص بك معطل
كيف يمكن لتجميع الذكاء الاصطناعي عبر الصفحات أن يقدم نواقل جديدة للمسؤولية.”
هذا الجزء المتعلق بـ “تجميع الذكاء الاصطناعي عبر الصفحات” و”ناقلات المسؤولية” مثير للدهشة لأن أيًا من هذه المصطلحات لا يعتبر مصطلحًا فنيًا راسخًا في علوم الكمبيوتر.
من المحتمل أن يكون “الصفحات المتقاطعة” إشارة إلى ميزة Query Fan-Out من Google، حيث يتم تحويل سؤال في وضع الذكاء الاصطناعي من Google إلى استعلامات متعددة يتم إرسالها بعد ذلك إلى البحث الكلاسيكي من Google.
فيما يتعلق بـ “متجهات المسؤولية”، فإن المتجه هو شيء حقيقي تمت مناقشته في تحسين محركات البحث وهو جزء من معالجة اللغات الطبيعية (NLP). لكن “ناقل المسؤولية” ليس جزءًا منه.
يعترف منشور مدونة Redditor أنهم لا يعرفون ما إذا كان Google قادرًا على اكتشاف ما إذا كان الموقع معطلاً أم لا:
“لست على علم بأن لدى Google أي قدرة خاصة لاكتشاف ما إذا كانت مواقع الويب تعمل أم لا. وحتى إذا تعطلت الخدمة الداخلية لدي، فلن تتمكن Google من اكتشاف ذلك نظرًا لأنها خلف جدار تسجيل الدخول.”
ويبدو أنهم ربما لا يعرفون كيفية عمل RAG أو Query Fan-Out، أو ربما كيفية عمل أنظمة الذكاء الاصطناعي في Google. يبدو أن المؤلف يعتبره بمثابة اكتشاف أن Google تشير إلى معلومات جديدة بدلاً من المعرفة البارامترية (المعلومات الموجودة في LLM التي تم الحصول عليها من التدريب).
لقد كتبوا أن إجابة Google AI تشير إلى أن موقع الويب أشار إلى أن الموقع كان غير متصل بالإنترنت منذ عام 2026.:
“… تقول الصياغة إن موقع الويب يشير بدلاً من الإشارة إلى الأشخاص؛ على الرغم من أنه في عصر عدم اليقين في ماجستير إدارة الأعمال، قد لا يعني هذا التمييز الكثير بعد الآن.
…يشير بوضوح إلى الإطار الزمني في أوائل عام 2026. وبما أن موقع الويب لم يكن موجودًا قبل منتصف عام 2025، فهذا يشير في الواقع إلى أن Google لديها معلومات جديدة نسبيًا؛ على الرغم من أنه مرة أخرى، ماجستير في القانون!
بعد قليل في منشور المدونة، اعترف Redditor أنهم لا يعرفون سبب قول Google أن موقع الويب غير متصل بالإنترنت.
وأوضحوا أنهم نفذوا حل اللقطة في الظلام عن طريق إزالة النافذة المنبثقة. لقد كانوا يخمنون بشكل غير صحيح أن النافذة المنبثقة هي التي تسببت في المشكلة، وهذا يسلط الضوء على أهمية التأكد من سبب المشكلات قبل إجراء التغييرات على أمل أن يؤدي ذلك إلى حلها.
شارك Redditor أنهم لا يعرفون كيف تقوم Google بتلخيص المعلومات حول موقع ما ردًا على استفسار حول الموقع، وأعربوا عن قلقهم من اعتقادهم أنه من الممكن أن تقوم Google باستخلاص معلومات غير ذات صلة ثم إظهارها كإجابة.
يكتبون:
“…لا نعرف بالضبط كيف تقوم Google بتجميع مزيج الصفحات التي تستخدمها لإنشاء استجابات LLM.
وهذا يمثل مشكلة لأن أي شيء موجود على صفحات الويب الخاصة بك قد يؤثر الآن على الإجابات غير ذات الصلة.
… قد يلتقط الذكاء الاصطناعي من Google أيًا من هذه الأسئلة ويقدمها كإجابة.
أنا لا ألوم المؤلف لعدم معرفته بكيفية عمل بحث Google AI، فأنا متأكد تمامًا من أنه غير معروف على نطاق واسع. من السهل الحصول على انطباع بأنه ذكاء اصطناعي يجيب على الأسئلة.
ولكن ما يحدث بشكل أساسي هو أن بحث الذكاء الاصطناعي يعتمد على البحث الكلاسيكي، حيث يقوم الذكاء الاصطناعي بتجميع المحتوى الذي يجده عبر الإنترنت في إجابة باللغة الطبيعية. يشبه الأمر طرح سؤال على شخص ما، فيبحث عنه في Google، ثم يشرح له الإجابة مما تعلمه من قراءة صفحات الموقع.
يشرح جون مولر من Google ما يحدث
رد مولر على منشور الشخص على Reddit بطريقة محايدة ومهذبة، موضحًا سبب وجود الخطأ في تنفيذ Redditor.
وأوضح مولر:
“هل هذا موقعك؟ أنصح بعدم استخدام JS لتغيير النص على صفحتك من “غير متاح” إلى “متاح” وبدلاً من ذلك تحميل هذا الجزء بالكامل من JS. وبهذه الطريقة، إذا لم يقوم العميل بتشغيل JS الخاص بك، فلن يحصل على معلومات مضللة.
يشبه هذا كيف لا توصي Google باستخدام JS لتغيير العلامة الوصفية لبرامج الروبوت من “noindex” إلى “يرجى النظر في عملي الجيد في ترميز html للتضمين” (لا توجد علامة تعريفية لبرامج الروبوت “فهرس”، حتى تتمكن من الإبداع).”
يوضح رد مولر أن الموقع يعتمد على جافا سكريبت لاستبدال نص العنصر النائب الذي يتم تقديمه لفترة وجيزة قبل تحميل الصفحة، والذي يعمل فقط مع الزائرين الذين تقوم متصفحاتهم بتشغيل هذا البرنامج النصي بالفعل.
ما حدث هنا هو أن Google قرأ نص العنصر النائب الذي أظهرته صفحة الويب كمحتوى مفهرس. شاهدت Google المحتوى الأصلي المعروض مع الرسالة “غير متوفر” وتعاملت معه على أنه المحتوى.
وأوضح مولر أن النهج الأكثر أمانًا هو تقديم المعلومات الصحيحة في HTML الأساسي للصفحة من البداية، بحيث يتلقى كل من المستخدمين ومحركات البحث نفس المحتوى.
الوجبات الجاهزة
هناك العديد من الوجبات السريعة التي تتجاوز المشكلة الفنية الكامنة وراء مشكلة Redditor. على رأس القائمة كيف حاولوا تخمين طريقهم إلى الإجابة.
لم يعرفوا حقًا كيف يعمل بحث Google AI، مما قدم سلسلة من الافتراضات التي أدت إلى تعقيد قدرتهم على تشخيص المشكلة. ثم قاموا بتنفيذ “الإصلاح” بناءً على تخمين ما اعتقدوا أنه ربما يسبب المشكلة.
التخمين هو أسلوب لحل مشكلات تحسين محركات البحث (SEO) وهو أمر مبرر لكون Google غامضًا، ولكن في بعض الأحيان لا يتعلق الأمر بـ Google، بل يتعلق بفجوة معرفية في تحسين محركات البحث (SEO) نفسها وإشارة إلى ضرورة إجراء المزيد من الاختبارات والتشخيص.
صورة مميزة بواسطة Shutterstock / Kues
Source link



