راهنمای فنی SEO برای Google Search Console’s Index Coverage

هیچوقت نمی توانید خودتان را یک SEO کار تکنیکی بنامید اگر از Google Search Console’s Index Coverage Report در سایت خود استفاده نمی کنید .

این یک ابزار ارزشمند برای درک است:

کدام URL ها توسط Google بررسی و ایندکس شده اند و کدام ها نیستند.
و مهمتر از همه ، چرا موتور جستجو در مورد URL این گزینه را انتخاب کرده است.
به نظر می رسد که این گزارش با طرح رنگ چراغ راهنمایی مختص خود دنبال می شود شود.

SEO
  • قرمز (خطا): متوقف شوید! صفحات ایندکس نمی شوند.
  • زرد (معتبر با هشدارها): ممکن است شما اجازه دسترسی به ربات های گوگل را نداده باشید و یا به هر دلیلی لود صفحه با خطلا روبرو شده باشد.
  • سبز (معتبر): همه چیز خوب است. صفحات ایندکس می شوند.

SEO impacting : این تخلفات را در اولویت قرار دهید

Discovered – currently not indexed
Crawled – currently not indexed
Duplicate without user-selected canonical
Duplicate, submitted URL not selected as canonical
Duplicate, Google chose different canonical than user
Submitted URL not found (404)
Redirect error
Server error (5xx)
Crawl Anomaly
Indexed, though blocked by robots.txt

Further thought required : بسته به استراتژی SEO شما ممکن است نیاز به اقدامات لازم داشته باشد یا نه

Indexed, not submitted in sitemap
Blocked by robots.txt
Submitted URL blocked by robots.txt
Submitted URL marked ‘noindex’
Submitted URL returns unauthorized request (401)
Submitted URL has crawl issue
Submitted URL seems to be a Soft 404
Soft 404

Natural status : هیچ عملی لازم نیست انجام دهید

Submitted and indexed
Alternate page with proper canonical tag
Excluded by ‘noindex’ tag
Page with redirect
Not found (404)
Blocked by page removal tool

همچنین در وبلاگ پین بخوانید : SEO در سال ۲۰۲۰: آیا امسال شاهد سقوط Google خواهیم بود ؟

مشکلات SEO در Index Coverage Report

SEO

فقط روی رفع خطاها تمرکز نکنید. در زیر موضوعات گزارش Index Coverage وجود دارد که برای SEO مهم است ، که به ترتیب اولویت ذکر شده اند ، بنابراین متوجه می شوید که ابتدا توجه خود را به کجا جلب کنید :

پیدا شده ولی Index نشده

علت : URL برای گوگل ، اغلب از طریق پیوندها یا نقشه های XML ، شناخته شده است ، اما Googlebot هنوز راهی برای بررسی آن پیدا نکرده است.

نحوه رفع آن : اگر فقط تعداد کمی از صفحات است ، با ارسال URL در کنسول جستجوی Google ،آنرا به صورت دستی انجام دهید.

اگر تعداد قابل توجهی وجود دارد ، برای حل بلند مدت معماری وب سایت (شامل ساختار URL ، طبقه بندی سایت و پیوند داخلی) وقت بگذارید تا مشکلات بررسی را در منبع آن حل کنید.

خزنده ( Crawled ) – در حال حاضر ایندکس نشده است

SEO

اول یک توضیحی درباره Crawler بدهیم : یک Spider ، یک Crawler از نظر لغوی به معنی عنکبوت و خزیدن است.

Spider ها یا Crawler ها هر دو در واقع یک چیز هستند ، آنها نرم افزار یا اسکریپت اتوماتیکی هستند که لینک های اینترنتی را به یک الگوریتم مشخص و هدفمند دنبال می کنند و به وب سایت های مختلف سر می زنند و محتوای موجود در صفحات وب سایت را برای پایگاه داده های موتورهای جستجو ایندکس می کنند تا این پایگاه داده همیشه به روز باشد.

در واقع Crawler ها یک نوع روبات هستند که بصورت روزانه همین عملیات را انجام می دهند.

علت : Googlebot در URL خزیده ولی محتویات صحیح یافت نشد که در فهرست قرار بگیرد. این بیشتر به دلیل مشکلات کیفیتی مانند محتوای کم، محتوای منسوخ شده ، صفحات درگاه یا اسپم تولید شده توسط کاربر است.

نحوه رفع آن : محتوای صفحه را مرور کنید. اگرمتوجه اید که چرا Googlebot محتوای صفحه را به اندازه کافی ارزشمند برای index ندانسته است ، پس از خود یک سوال دوم بپرسید. آیا نیاز است این صفحه در وب سایت من وجود داشته باشد؟

اگر جواب خیر است ، ۳۰۱ یا ۴۱۰ آدرس اینترنتی است. اگر بله ، یک برچسب noindex اضافه کنید تا بتوانید مسئله محتوا را حل کنید. یا اگر URL مبتنی بر پارامتر باشد ، می توانید با بهینه کردن صفحه با بهترین عملکرد پارامتر ، از خزیدن صفحه جلوگیری کنید.

اگر به نظر می رسد محتوا از کیفیت قابل قبولی برخوردار است ، بررسی کنید که بدون JavaScript چه چیزی ارائه می دهد. Google قادر به فهرست کردن مطالب تولید شده با JavaScript است ، اما این یک فرایند پیچیده تر از HTML است زیرا هر زمان که جاوا اسکریپت درگیر باشد ، دو موج نمایه سازی وجود دارد.

موج اول صفحه ای را مبتنی بر HTML اولیه از سرور نمایه می کند. این همان چیزی است که شما هنگام کلیک راست و مشاهده منبع صفحه ، می بینید.

فهرست دوم مبتنی بر DOM ، که شامل HTML و JavaScript رندر شده از طرف مشتری است. این همان چیزی است که شما هنگام کلیک راست و بازرسی ، می بینید.

چالش این است که موج دوم index هایی تا زمانی که Google منابع رندر را در دسترس نباشد ، به تعویق می افتد. این بدان معناست که index کردن محتوای وابسته به JavaScript بیشتر از محتوای HTML طول می کشد.

برای جلوگیری از تأخیر در ایندکس کردن ، از رندر سمت سرور استفاده کنید تا تمام محتوای اصلی در HTML اولیه وجود داشته باشد. این باید شامل عناصر اصلی SEO شما مانند عناوین صفحه ، عناوین ، canonicals ، داده های ساخت یافته و البته محتوای و لینک های اصلی شما باشد.

همچنین در وبلاگ پین بخوانید :۱۰ دلیل اینکه WordPress بهترین CMS برای SEO است

Canonical انتخاب شده توسط کاربر

SEO

خب، اجازه بدهید خلاصه بگوییم، تگ Canonical راهی برای کمک به گوگل جهت تشخیص برترین مطلب، میان مطالبی است که از شباهت زیادی نسبت به یکدیگر دارند.

به بیان ساده تر، زمانی که تگ Canonical یا تگ کنونیکال (همان کد معروف Rel=Canonical) در یک صفحه قرار می‌گیرد، گوگل به آدرسی که این تگ در آن وارد شده است، اهمیت بیشتری می‌دهد و مسلماً آن صفحه را در نتایج جستجو ایندکس می‌کند.

علت : این صفحه توسط Google به عنوان محتوای تکراری در نظر گرفته شده است ، اما با علامت متعارف مشخص نشده است. گوگل تصمیم گرفته است که این صفحه نباید متعارف باشد و به این ترتیب آن را از فهرست حذف کرده است.

چگونه آن را برطرف کنید : با استفاده از پیوندهای rel = canonical ، به طور صحیح کانونیک را علامت گذاری کنید ، برای هر URL خزنده در وب سایت خود. با بازرسی URL در کنسول جستجوی Google می توانید بفهمید که کدام صفحه Google را به عنوان متعارف انتخاب کرده است.

URL ارسالی یافت نشد Error 404

Error 404

علت : URL ای که شما ارسال کرده اید ، احتمالاً از طریق نقشه سایت XML شما وجود ندارد.

نحوه رفع آن : یا URL را ایجاد کنید یا آن را از نقشه سایت XML خود حذف کنید. شما می توانید با پیروی از بهترین روشهای نقشه های پویا XML از این خطا جلوگیری کنید.

خطای تغییر مسیر

علت : Googlebot با تغییر مسیر مشکل پیدا کرد. این بیشتر در اثر زنجیره های تغییر مسیر پنج یا بیشتر URL طولانی ، حلقه های تغییر مسیر ، یک URL خالی یا یک URL بیش از حد طولانی ایجاد می شود.

چگونه آن را برطرف کنید : برای فهمیدن چه چیزی تغییر مسیر را هدایت می کنید و در نتیجه نحوه پرداختن به آن از یک ابزار اشکال زدایی مانند Lighthouse یا کد وضعیتی مانند httpstatus.io استفاده کنید.

خطای سرور یا ERROR 500

ERROR 500

علت : سرورها هنگامی که قادر به بارگیری یک صفحه نیستند ، کد پاسخ ۵۰۰ HTTP (a.k.a. ، خطای داخلی سرور) را برمی گردانند. این ممکن است در اثر مشکلات گسترده تر سرور ایجاد شود ، اما بیشتر اوقات ناشی از قطع اتصال کوتاه سرور است که مانع از خزیدن Googlebot در صفحه می شود.

چگونه آن را اصلاح کنیم : اگر این صفحه دارای اهمیت است ، می توانید با درخواست Googlebot در بازرسی URL ، آن را به آدرس URL فراخوانی کنید. اگر خطا در حال تکرار است ، برای بهبود زیرساخت های سرور با مهندس سیستم / شرکت میزبان خود صحبت کنید.

کاربر مجاز به دسترسی صفحه نیست ( ERROR 401 )

ERROR 401

علت : Google به crawl اجازه نداده به URL های شما دسترسی داشته باشد ، مانند صفحات محافظت شده با رمز عبور و …

چه باید کرد : اگر دلیلی برای محافظت از فهرست نشدن محتوا وجود دارد ، درخواست مجوز را حذف کنید. در غیر این صورت ، URL را از نقشه سایت XML حذف کنید.

وضعیت طبیعی در Index Coverage Report

هدف این نیست که تمام صفحات شما و URL ها Index شود ، معتبر باشد ، اگرچه با رشد سایت شما به طور پیوسته صعود کند. هدف این است که نسخه متعارف صفحات مربوطه به سئو Index شود.

این به شما نشان میدهد که توجه داشته باشد که گوگل در حال بررسی و تشخیص دامین در تمام صفحات ایندکس شده شما است و ممکن است دسترسی به بعضی از صفحات سایت شما را ببندد.

توسط ابزار حذف صفحه مسدود شده است

علت: یک درخواست حذف URL در کنسول جستجوی Google ارسال شده.

بدون رفع نیاز: درخواست حذف به طور طبیعی بعد از ۹۰ روز منقضی خواهد شد. بعد از این مدت ، Google ممکن است صفحه را دوباره ارائه دهد.

همچنین در وبلاگ پین بخوانید : ترفندهای استفاده از Grey Hat SEO که گوگل شما را جریمه نمیکند

قبلی «
بعدی »

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *