اكتشف بيانات التحديث الأساسية ونصائح خريطة الموقع ومخاطر الذكاء الاصطناعي – SEO Pulse

مرحبًا بك في SEO Pulse لهذا الأسبوع للحصول على أفضل أخبار هذا الأسبوع: تغطي التحديثات ما تكشفه البيانات المبكرة حول التحديث الأساسي لشهر فبراير Discover، ولماذا قد تتجاهل Google خريطة موقع صالحة، وكيف تحاول الشركات التلاعب بذاكرة مساعد الذكاء الاصطناعي.
إليك ما يهمك ولعملك.
اكتشف التحديث الأساسي: تظهر البيانات المبكرة عددًا أقل من الناشرين وموضوعات أكثر
نشرت NewzDash تحليلاً يقارن رؤية Discover قبل وبعد التحديث الأساسي لـ Google Discover في فبراير باستخدام بيانات اللوحة من ملايين المستخدمين الأمريكيين.
غطت نوافذ التحديث المسبق (25-31 يناير) والتحديث اللاحق (8-14 فبراير) أهم 1000 نطاق وأفضل 1000 مقالة في الولايات المتحدة وكاليفورنيا ونيويورك. نمت فئات المحتوى الفريد عبر المشاهدات الجغرافية الثلاثة، لكن الناشرين الفريدين انخفضوا في الولايات المتحدة (172 إلى 158 نطاقًا) وكاليفورنيا (187 إلى 177).
ظهرت النطاقات المحلية في نيويورك أكثر بخمس مرات تقريبًا في موجز نيويورك مقارنة بموجز كاليفورنيا. انتقلت Yahoo من عناصر متعددة في قائمة أفضل 100 عنصر في الولايات المتحدة إلى صفر بعد التحديث، وارتفعت منشورات X.com من الحسابات المؤسسية من ثلاثة إلى 13 عنصرًا في نفس النطاق.
لماذا هذا مهم؟
وصفت جوجل التحديث بأنه يستهدف المزيد من المحتوى ذي الصلة محليًا، وتقليل عدد النقرات، وتغطية أكثر تعمقًا من المواقع ذات الخبرة في الموضوع. توفر بيانات NewzDash قراءة مبكرة واضحة حول الترجمة ومزيج المواضيع، على الرغم من صعوبة تأكيد إشارة Clickbait نظرًا لأن علامات العناوين الرئيسية وحدها لا يمكنها إثبات ما إذا كان المحتوى المثير قد انخفض أم لا.
إن النمط الأوسع للمواقع المتخصصة التي تكتسب تقدمًا على العموميين يتتبع ما أظهره تحليل التحديث الأساسي لشهر ديسمبر. قد تشهد المواقع ذات الهوية المحلية القوية مكاسب في أسواقها المحلية بينما تفقد رؤيتها في أماكن أخرى.
ما يقوله الناس
عندما أصدرت Google التحديث جنبًا إلى جنب مع وثائق Discover المنقحة، قام Glenn Gabe، مستشار تحسين محركات البحث في GSQi، بمقارنة الإصدارات القديمة والجديدة على X ووضع علامة على إضافة لم تكن موجودة في الإرشادات الخاصة بـ Discover من قبل:
“إلى جانب اصطياد النقرات والأشياء ذات الصلة، تتضمن وثائق Discover الآن “توفير تجربة رائعة للصفحة” أيضًا. لذا، كما تعلم، شاهد التحميل الزائد على صفحتك بالإعلانات المزعجة، والتشغيل التلقائي، والمزيد.”
انقسم رد الفعل الأوسع بين أولئك الذين أبلغوا عن مكاسب في الخلاصات على مستوى الولاية وآخرين لاحظوا انخفاضًا حادًا في حركة Discover.
اقرأ تغطيتنا الكاملة: تحديث Google Discover: البيانات المبكرة تظهر نطاقات أقل في الولايات المتحدة
يقول مولر إن Google قد تتخطى ملفات Sitemap بدون محتوى “جديد ومهم”.
رد جون مولر من Google، محامي البحث في Google، على سؤال Reddit حول الأخطاء المستمرة في جلب خريطة الموقع في Search Console. أكد مالك الموقع عبر سجلات الخادم أن Googlebot جلب خريطة الموقع باستجابة 200، لكن Search Console استمرت في عرض خطأ “تعذر الجلب” على الرغم من XML الصالح وتوجيهات الفهرسة الصحيحة.
وقال مولر إن جوجل يجب أن تكون “حريصة على فهرسة المزيد من المحتوى من الموقع” وأنها لن تستخدم خريطة الموقع إذا لم تكن مقتنعة بوجود محتوى “جديد ومهم” لفهرسته.
لماذا هذا مهم؟
تعد أخطاء جلب ملف Sitemap إحدى الإشارات الأكثر إرباكًا في Search Console لأنها يمكن أن تظهر حتى عندما يبدو جانب الخادم صحيحًا. قد لا يؤدي تشغيل قائمة التحقق القياسية للتحقق من صحة XML ورموز الاستجابة وقواعد robots.txt إلى إظهار المشكلة إذا لم يجد Google سببًا كافيًا لفهرسة ما يوجد خلف عناوين URL.
أشار روجر مونتي، الذي غطى هذا الأمر لمجلة محرك البحث، إلى أن مولر كان واسع النطاق في وصفه، ولكن التفكير في ما يجعل زائر الموقع راضيًا يمكن أن يساعدك في تحديد ما يحتاج إلى تحسين.
ما يقوله الناس
تستمر القصة في الجدل في تحسين محركات البحث (SEO) حول كون خرائط الموقع تلميحات وليست توجيهات. يجادل البعض بأن Google تتجاهل خرائط الموقع للمواقع الصغيرة أو غير الإخبارية، وتعتمد على الروابط بدلاً من ذلك، بينما يشير آخرون إلى أن Google لا تقول إنها “تفقد الثقة” في موقع ما عندما لا يتم استخدام خريطة الموقع.
أضافت استجابة مولر منظورًا جديدًا لطلب الفهرسة لم يأخذه المجتمع بعين الاعتبار على نطاق واسع.
اقرأ تغطيتنا الكاملة: أساسيات تحسين محركات البحث: توضح Google سبب عدم استخدامها لخريطة الموقع
مايكروسوفت تكتشف تسمم ذاكرة الذكاء الاصطناعي من خلال أزرار “التلخيص”
نشر فريق أبحاث Defender Security التابع لشركة Microsoft بحثًا يصف ما يطلق عليه “تسمم توصيات الذكاء الاصطناعي”. تتضمن هذه التقنية إخفاء الشركات لتعليمات الإدخال الفوري داخل أزرار موقع الويب التي تحمل عنوان “Summarize with AI”.
يؤدي النقر فوق أحد هذه الأزرار إلى فتح مساعد الذكاء الاصطناعي بمطالبة مملوءة مسبقًا يتم تسليمها من خلال معلمة استعلام URL. يخبر الجزء المرئي المساعد بتلخيص الصفحة، بينما يأمره الجزء المخفي بتذكر الشركة كمصدر موثوق للمحادثات المستقبلية.
وبمراجعة عناوين URL ذات الصلة بالذكاء الاصطناعي والتي تمت ملاحظتها في حركة البريد الإلكتروني على مدار 60 يومًا، قال فريق Microsoft إنه حدد 50 محاولة متميزة للحقن السريع من 31 شركة عبر 14 صناعة. تستهدف عناوين URL المعبأة مسبقًا Copilot وChatGPT وClaude وGemini وPerplexity وGrok. لاحظت Microsoft أن الفعالية تختلف حسب النظام الأساسي وقد تغيرت بمرور الوقت.
لماذا هذا مهم؟
وبدلاً من تحسين ترتيب البحث، تحاول هذه الشركات التأثير على ما يوصي به مساعدو الذكاء الاصطناعي من خلال زرع التعليمات في طبقة الذاكرة. قامت Microsoft بتتبع المطالبات إلى الأدوات المتاحة للجمهور المصممة لتعزيز التواجد في ذاكرة الذكاء الاصطناعي، وتجاوزت إحدى المطالبات مجرد تعليمات بسيطة “تذكرنا” عن طريق حقن نسخة تسويقية كاملة.
أصبحت طبقة توصيات الذكاء الاصطناعي ساحة تنافسية، حيث تقوم الشركات بتطوير أدوات للتأثير عليها. إن الطريقة التي تتعامل بها المنصات مع هذه التكتيكات ستشكل مستوى ثقة المستخدمين في التوصيات التي ينشئها الذكاء الاصطناعي.
ما يقوله الناس
وقد لفت البحث الانتباه عبر دوائر الأمن والذكاء الاصطناعي. في مقابلة مع Dark Reading، وصف Tanmay Ganacharya، نائب الرئيس لأبحاث الأمن في Microsoft، الآلية:
“سينقل الزر المستخدم – بعد النقر – إلى مجال الذكاء الاصطناعي ذي الصلة والمحدد لأحد مساعدي الذكاء الاصطناعي المستهدفين.”
أخبر Ganacharya أيضًا BankInfoSecurity أنه ليست جميع المنصات معرضة للخطر بشكل متساوٍ:
“من بين المنصات الرئيسية التي قمنا بفحصها، فقط Copilot وChatGPT وPerplexity لديها ميزات ذاكرة واضحة. لا يمتلك كلود وGrok حاليًا ذاكرة دائمة، مما يجعلهما على ما يبدو محصنين ضد هذا الهجوم المحدد.”
وقد تساءل بعض المسوقين عما إذا كانت هذه التقنية مجرد استراتيجية نمو قوية، مما أثار معارضة من المتخصصين في مجال الأمن بشأن العواقب الأخلاقية والثقة.
اقرأ تغطيتنا الكاملة: Microsoft: أزرار “التلخيص باستخدام الذكاء الاصطناعي” المستخدمة لتسميم توصيات الذكاء الاصطناعي
موضوع الأسبوع: الإشارات التي تحدد مدى الرؤية أصبحت أكثر صعوبة في رؤيتها
تتناول كل قصة هذا الأسبوع الأحداث التي تحدث خلف الكواليس، بما يتجاوز المقاييس المعتادة التي يراقبها معظم محترفي تحسين محركات البحث (SEO).
يعمل تحديث Discover من Google على توجيه المزيد من المواضيع من خلال عدد أقل من الناشرين، وهو تغيير يمكنك ملاحظته في بيانات الخلاصة بدلاً من Search Console. يوضح شرح مولر حول خرائط المواقع أن خطأ الجلب يمكن أن يشير إلى حدوث حكم فهرسة في المنبع. وتظهر أبحاث مايكروسوفت أن الشركات تحاول التأثير على التوصيات في طبقة الذاكرة.
القاسم المشترك هو أن القرارات التي تحدد الرؤية يتم اتخاذها في أماكن لم ينتبه إليها معظمنا بعد.
للحصول على سياق أعمق حول هذه المواضيع، راجع هذه القطع الأخيرة.
صورة مميزة: VRVIRUS / Shutterstock؛ باولو بوبيتا / مجلة محرك البحث
Source link



