نمایش فهرست

فصل ۲

عملکرد موتورهای جستجو

شامل خزیدن نشان کردن رتبه بندی

همانطور که در فصل ۱ اشاره کردیم ، موتورهای جستجو دستگاههای پاسخگو هستند. آنها برای کشف ، درک و سازماندهی محتوای اینترنت به منظور ارائه نتایج مناسب به سؤالاتی که جستجوگرها از آنها درخواست می کنند وجود دارد.

برای نشان دادن نتایج جستجو ، ابتدا باید محتوای شما برای موتورهای جستجو قابل مشاهده باشد. احتمالاً مهمترین قطعه معمای SEO است: اگر سایت شما یافت نشود ، به هیچ وجه امکان حضور در SERPs (صفحه نتایج موتورهای جستجو) وجود ندارد.

موتورهای جستجو چگونه کار می کنند؟

موتورهای جستجو سه عملکرد اصلی دارند:

( Crawl ) خزیدن : به وب سایت های مختلف سر می زنند و محتوای موجود در صفحات وب سایت ها را برای پایگاه داده موتورهای جستجو ایندکس می کنند تا این پایگاه داده همیشه به روز باشد.
( Index ) فهرست: مطالب موجود در طی فرایند خزیدن را ذخیره و سازماندهی می کند. هنگامی که یک صفحه در فهرست است ، در نتیجه جستجوی مربوطه نمایش داده می شود.
( Rank ) رتبه: مطالب را به بهترین وجه در پاسخ به سؤال جستجوگر ارائه می دهد ، به این معنی که نتایج از بیشترین بازدید به کمترین نمایش داده می شوند.

خزنده موتور جستجو چیست؟

خزیدن فرایند کشف است که در آن موتورهای جستجو تیمی از روبات ها (معروف به خزنده یا عنکبوت) را برای یافتن مطالب جدید و به روز ارسال می کنند. محتوا می تواند متفاوت باشد – می تواند یک صفحه وب ، یک تصویر ، یک فیلم ، یک PDF و غیره باشد.

خزنده موتور جستجو چیست؟

معنی این کلمه چیست؟

با هر یک از تعاریف موجود در این بخش مشکل دارید؟ واژه نامه SEO ما دارای تعاریف اختصاصی در فصل است که به شما کمک می کند تا سرعت بیشتری داشته باشید.

روبات های موتور جستجو ، که به آن عنکبوت نیز گفته می شود ، برای یافتن محتوای جدید و به روز از یک صفحه به صفحه دیگر می چرخند.
روبات ها با واکشی چند صفحه وب شروع به کار می کند ، و سپس پیوندها را در این صفحات وب دنبال می کند تا URL های جدید را پیدا کند. با جست و خیز در این پیوندها ، خزنده قادر است محتوای جدیدی پیدا کند و آن را به فهرست خود به نام Caffeine ( پایگاه داده گسترده ای از URL های کشف شده ) اضافه کند. بعداً موتور جستجو پیوندی را که مربوط به کلمه مورد جستجو باشد از آن بازیابی می کند.

فهرست موتور جستجو چیست ؟

موتورهای جستجو اطلاعاتی را که در یک فهرست پیدا می کنند ، پردازش و ذخیره می کنند ، یک پایگاه داده عظیم از تمام مطالبی که کشف کرده اند و به اندازه کافی برای جستجوگرها مناسب هستند.

رتبه بندی موتور جستجو چیست ؟

هنگامی که شخصی یک جستجو را انجام می دهد ، موتورهای جستجو آن مطالب را به جستجوگر ارسال می کند. به این ترتیب نتایج جستجو بر اساس اهمیت به عنوان رتبه بندی شناخته می شود. به طور کلی می توانید فرض کنید هر وب سایتی که مطالب مفیدتری در مورد عبارت مورد جستجو داشته باشد ، موتور جستجو آنرا در ردیف بالاتر قرار می دهد.

امکان مسدود کردن خزنده های موتور جستجو از بخشی یا تمام سایت شما وجود دارد. یعنی می توانید به موتورهای جستجو دستور دهید تا صفحات خاصی را در فهرست خود ذخیره نکنند. اگر می خواهید محتوای شما توسط جستجوگرها پیدا شود. ابتدا باید مطمئن شوید که در دسترس خزندگان و قابل نمایه شدن است. در غیر این صورت نمایه نخواهد شد.

در سئو همه موتورهای جستجو برابر نیستند.

بسیاری از مبتدیان از اهمیت نسبی موتورهای جستجوگر خاص تعجب می کنند. بیشتر مردم می دانند که گوگل بیشترین سهم بازار را دارد ، اما بهینه سازی بینینگ ، یاهو و دیگران چقدر مهم است؟ حقیقت این است که علی رغم وجود بیش از ۳۰ موتور جستجوگر بزرگ وب ، انجمن SEO تنها به گوگل توجه می کند. چرا؟ پاسخ کوتاه این است که گوگل جایی است که اکثریت قریب به اتفاق افراد از آن برای جستجو استفاده می کنند. یکی از ویژگی های گوگل (انتخاب تصویر ، فیلم ، گوگل مپ و یوتیوپ ) است که در جستجو ها استفاده می شود. بیش از ۹۰٪ جستجوهای وب در گوگل اتفاق می افتد – این تقریباً ۲۰ برابر بینگ و یاهو است.

خزنده: آیا موتورهای جستجو می توانند صفحات شما را پیدا کنند؟

همانطور که تازه آموخته اید ، اطمینان از اینکه سایت شما خزیده و نمایه می شود پیش شرط لازم برای نمایش در SERP ها است.

یکی از راه های بررسی صفحات فهرست بندی شده شما این است که به گوگل بروید و “سایت: yourdomain.com” را در نوار جستجو تایپ کنید. ببیند سایت شما در فهرست نتایج گوگل هست یا نه . تعداد نتایج نمایش داده شده در گوگل دقیق نیست اما به این نتیجه خواهید رسید که صفحات در سایت شما نمایه می شود و همچنین متوجه خواهید شد که چگونه در نتایج جستجو نشان داده می شوند.

برای مشاهده نتایج دقیق تر از Index Coverage در سرچ کنسول استفاده کنید. اگر در حال حاضر در سرچ کنسول عضویت ندارید. می توانید در سرچ کنسول گوگل به رایگان ثبت نام کنید . با استفاده از این ابزار می توانید نقشه سایت را برای سایت خود ارسال کنید. و نظارت کنید که تعداد صفحات ارائه شده به فهرست گوگل اضافه شده است یا نه و موارد دیگر.

موتورهای جستجو می توانند صفحات شما را پیدا کنند

اگر در نتایج جستجو نشان داده نشده اید چند دلیل ممکن وجود دارد :

سایت شما کاملاً جدید است و هنوز خزنده نشده است.
سایت شما با هیچ وب سایت خارجی مرتبط نیست.
پیمایش سایت شما باعث می شود که یک ربات نتواند آنرا به راحتی خز کند.
سایت شما حاوی چند کد اساسی به نام بخشنامه خزنده است که موتورهای جستجو را مسدود می کند.
سایت شما توسط گوگل به دلیل تاکتیک های هرزنامه مجازات شده است.
به موتورهای جستجو بگویید چگونه سایت خود را خز کنند
اگر از سرچ کنسول گوگل یا اپراتور جستجوی پیشرفته “site: domain.com” استفاده کرده اید و متوجه شده اید که برخی از صفحات مهم شما از ایندکس حذف نشده اند و یا برخی از صفحات بی اهمیت شما به اشتباه ایندکس شده اند. برخی از بهینه سازی ها وجود دارند که می توانید از آنها استفاده کنید تا Googlebot را برای بهتر خزیده شدن سایت راهنمایی کنید. با این کار می توانید رتبه بهتری را در فهرست گوگل به دست آورید.

اکثر مردم فکر می کنند که گوگل خودش می تواند اهمیت صفحات را تشخیص دهد. اما اینطور نیست صفحاتی وجود دارند که نمی خواهید Googlebot آنها را پیدا کند. اینها ممکن است شامل مواردی مانند URL های قدیمی باشد که دارای محتوای کم اهمیت یا نشانی های اینترنتی تکراری (مانند پارامترهای مرتب سازی و فیلتر برای تجارت الکترونیکی) صفحات کد تبلیغی ویژه ، صفحات مرحله بندی یا تست و غیره باشد.

برای هدایت Googlebot از صفحات و بخشهای خاص سایت خود از robots.txt استفاده کنید.

Robots.txt
فایل Robots.txt در فهرست اصلی وب سایت ها قرار دارند (مانند yourdomain.com/robots.txt) و نشان می دهد کدام قسمت از سایت شما باید یا نباید خزیده شوند.

Googlebot چگونه با فایل robots.txt رفتار می کند
اگر Googlebot نتواند یک فایل robots.txt  را در یک سایت پیدا کند. بدون هیچ ستورالعملی به دنبال خزیدن سایت می رود.
اگر Googlebot یک فایل robots.txt را در یک سایت پیدا کند ، معمولاً از دستورالعمل های آن پیروی می کند و به دنبال خزیدن سایت می رود.
اگر Googlebot هنگام تلاش برای دسترسی به فایل robots.txt سایت با خطایی روبرو شود و نتواند تعیین کند که وجود دارد یا خیر ، نمی تواند سایت را خزنده کند.

 

حجم خزیدن را بهینه سازی کنید!

حجم خزیدن میانگین تعداد URL هایی است که Googlebot قبل از ترک سایت شما در حال خزیدن آنهاست بنابراین بهینه سازی حجم خزیدن تضمین می کند که Googlebot وقت خزیدن را از طریق صفحات بی اهمیت شما تلف نمی کند. اهمیت آن در این است که صفحات مهم شما در معرض خطر نادیده گرفتن نمی گیرند. حجم خزیدن در سایتهای بسیار بزرگ با ده ها هزار URL مهم است. اما بد نیست که دسترسی خزندگان را به محتوائی که به آنها اهمیتی نمی دهید مسدود کنید. فقط اطمینان حاصل کنید که دسترسی یک خزنده به صفحاتی که می خواهید بخش های دیگری به آن اضافه کنید. مانند برچسب های متعارف noindex  نباشد. اگر دسترسی Googlebot به یک صفحه مسدود شود. نمی تواند دستورالعمل های موجود در آن صفحه را مشاهده کند.

همه ربات های وب از robots.txt پیروی نمی کنند. افراد با نیت بد (به عنوان مثال ، اسکرابرهای آدرس ایمیل) ربات هایی را ایجاد می کنند که از این پروتکل پیروی نمی کنند. در حقیقت برخی افراد از پرونده های robots.txt استفاده می کنند تا محتوای خصوصی سابت را پیدا کنند. اگرچه منطقی است که صفحات خصوصی مانند ورود به سایت و صفحه های مدیریت مسدود شوند تا در دسترس خزنده ها نباشند. قرار دادن مکان آن URL ها در یک فایل قابل دسترسی عمومی مثل robots.txt به معنای این است که افراد با قصد مخرب راحت تر می توانند آنها را پیدا کنند پس بهتر است این صفحات NoIndex  باشند و آنها را در پشت فرم ورود به سیستم قرار دهید.

می توانید جزئیات بیشتر در مورد این را در بخش robots.txt مرکز یادگیری ما بخوانید .

تعریف پارامترهای URL در GSC

برخی از سایت ها (رایج تر در تجارت الکترونیک) با اضافه کردن پارامترهای خاصی در URL ها ، محتوای مشابه را در چندین URL مختلف در دسترس قرار می دهند. به عنوان مثال ، شما می توانید “کفش” را در آمازون جستجو کنید ، و سپس جستجوی خود را با توجه به اندازه ، رنگ و سبک اصلاح کنید. هر بار که اصلاح می کنید URL کمی تغییر می کند:

آیا خزندگان می توانند محتوای مهم شما را پیدا کنند؟

اکنون که می دانید با برخی از تاکتیک ها خزنده های موتور جستجو به مطالب بی اهمیت شما دسترسی ندارند. بیایید در مورد بهینه سازی هایی که می تواند به Googlebot در یافتن صفحات مهم شما کمک کند بیاموزیم.

گاهی اوقات یک موتور جستجو می تواند با خزیدن قسمت هایی از سایت شما را پیدا کند ، اما صفحات یا بخش های دیگر ممکن است به دلایلی پنهان شوند. این مهم است که مطمئن شوید موتورهای جستجو قادر به کشف تمام مطالب مورد نظر شما هستند.

از خود این سوال را بپرسید: آیا ربات می تواند از طریق وب سایت شما خزنده شود یا درب به روی او بسته است؟

درب بسته

آیا محتوای شما در پشت فرم های ورود به سیستم پنهان است؟

اگر برای دسترسی به مطالب خاص نیاز به ثبت نام و ورود به سایت هست پس فرم ها را پر کنید یا به نظرسنجی ها پاسخ دهید و عضو شوید. موتورهای جستجو آن صفحات محافظت شده را نمی بینند. یک خزنده قطعاً قصد ورود به سیستم را ندارد.

آیا به فرمهای جستجو تکیه می کنید؟

روبات ها نمی توانند از فرم های جستجو استفاده کنند. برخی افراد معتقدند در صورت قرار دادن جعبه جستجو در سایت خود ، موتورهای جستجو قادر خواهند بود هر آنچه را که بازدید کنندگان خود جستجو می کنند پیدا کنند.

آیا متن درون محتوای غیر متنی پنهان است؟

فرم های رسانه ای غیر متنی (تصاویر ، فیلم ، GIF و غیره) نباید برای نمایش متنی که می خواهید نمایه شوند استفاده شود. در حالی که عملکرد موتورهای جستجو در تشخیص تصاویر بهتر می شوند اما هیچ تضمینی وجود ندارد که بتوانند آنها را بخوانند و درک کنند. همیشه بهتر است متن را در نشانه صفحه وب خود اضافه کنید.

آیا موتورهای جستجو می توانند ناوبری سایت شما را دنبال کنند؟
باه می توانند درست همانطور که یک خزنده باید سایت شما را از طریق لینک های سایتهای دیگر کشف کند. برای این کار از یک صفحه به صفحه دیگر پیوندهایی در سایت خود ایجاد کنید. اگر صفحه ای دارید که می خواهید موتورهای جستجو آنرا پیدا کنند اما از هیچ صفحه دیگری به آن پیوند ندارید پس احتمال خزیده شدن آنها کمتر می شود.

تصویری از نحوه پیوند صفحات به هم و خزیده شدن توسط خزنده ها. در ناوبری سایت شما صفحه ای که به آن پیوندی وجود ندارد به عنوان یک جزیره ای است که قابل کشف نیست.

نحوه خزیده شدن صفحات

خطاهای متداول ناوبری که می توانند خزنده ها را از دیدن همه سایت خود باز دارند.

داشتن یک ناوبری موبایل که نتایج متفاوتی نسبت به ناوبری دسک تاپ شما نشان می دهد.
هر نوع ناوبری که در آن  ّItem های منو در HTML نباشد. مانند پیمایش های دارای قابلیت JavaScript. گوگل در خزیدن و درک Javascript بسیار بهتر شده است. اما هنوز یک روند کامل نیست. راه مطمئن برای یافتن ، فهم و نمایه سازی مطالب توسط Google ، قرار دادن آن در HTML است.
شخصی سازی یا نشان دادن ناوبری منحصر به فرد به یک نوع خاص از بازدید کننده ممکن است مورد خزش موتور جستجو قرار نگیرد.
فراموش کردن پیوند به صفحه اصلی در وب سایت. به یاد داشته باشید پیوندها مسیرهایی هستند که خزندگان برای صفحات جدید دنبال می کنند!
به همین دلیل ضروری است که وب سایت شما دارای یک ناوبری روشن و ساختار پوشه URL مفید باشد.

آیا معماری اطلاعات سایت شما خوب است؟

معماری اطلاعات عملی برای سازماندهی و برچسب زدن مطالب در وب سایت برای بهبود کارآیی و یافتن آنها توسط کاربران است. بهترین معماری اطلاعات بصری است به این معنی که کاربران برای پیدا کردن چیزی یا مطلبی نباید دچار مشکل شوند و یا آنرا به سختی پیدا کنند بلکه باید با ایجاد جلوه های بصری یا تصویر آنها به سمت خواسته هایشان هدایت کنید.

آیا از نقشه های سایت ( sitemaps ) استفاده می کنید؟

نقشه سایت دقیقاً همان چیزی است که به نظر می رسد: لیستی از URL های سایت شما که خزندگان می توانند از آنها برای کشف و فهرست بندی مطالب شما استفاده کنند. یکی از آسانترین راهها برای اطمینان پیدا کردن از وجود صفحات و اولویت بندی آنها در گوگل ایجاد فایلی مطابق با استانداردهای گوگل و معرفی آن به سرچ کنسول گوگل است. این مطمئناً به خزندگان کمک کند تا مسیر صفحات مهم شما دنبال کنند.

اطمینان حاصل کنید که فقط URL هایی را که می خواهید توسط موتورهای جستجو نمایه شوند درج کرده اید و حتماً به خزنده ها جهت های ثابت را ارائه می دهید. به عنوان مثال یک URL در نقشه سایت خزیده نمی شود اگر آن را از طریق robots.txt  مسدود کرده باشید. ( اطلاعات بیشتر در مورد نقشه سایت در فصل ۵ ).

آیا خزندگان هنگام تلاش برای دسترسی به آدرسهای اینترنتی شما دچار خطا می شوند؟
در فرآیند خزیدن URL های سایت شما ، یک خزنده ممکن است با خطا روبرو شود. می توانید برای شناسایی URL هایی که ممکن است در آن اتفاق بیفتد به گزارش کنسول جستجوی Google بروید و این گزارش خطاهای سرور را به شما نشان می دهد و خطایی پیدا نشده است. پرونده های ورود به سیستم سرور همچنین می توانند این ویژگی را به شما نشان دهند ، همچنین یک گنج اطلاعاتی دیگر مانند فرکانس خزیدن ، اما از آنجا که دسترسی و جدا کردن پرونده های ورود به سیستم سرور یک تاکتیک پیشرفته تر است ، ما آن را به طور طولانی در راهنمای مبتدیان بحث نخواهیم کرد ، اگرچه می توانید در مورد آن اطلاعات بیشتری کسب کنید .

قبل از اینکه بتوانید با گزارش خطای خزیدن ( crawl ) کار معناداری انجام دهید ، درک خطاهای سرور و خطاهای “یافت نشد” مهم است.

کدهای ۴xx: هنگامی که خزنده های موتور جستجو به دلیل خطای مشتری نمی توانند به محتوای شما دسترسی پیدا کنند
خطاهای ۴xx خطاهای مشتری هستند. به این معنی که URL درخواست شده دارای مشکلی است یا یافت نمی شود. یکی از رایج ترین خطاهای ۴xx خطای “۴۰۴ – not found” است. این موارد ممکن است به دلیل تایپ اشتباه URL یا صفحه حذف شده یا مسیر تغییر یافته رخ دهد فقط برای ذکر چند نمونه. وقتی موتورهای جستجوگر به خطای ۴۰۴ مواجه شوند بنابر این به URL دسترسی پیدا نمی کنند. کاربران نیز هنگام مواجهه با خطای ۴۰۴  ناامید شده و سایت را ترک می کنند.

کدهای ۵xx: هنگامی که خزندگان موتور جستجو به دلیل خطای سرور نمی توانند به محتوای شما دسترسی پیدا کنند.
خطاهای ۵xx خطاهای سرور هستند به این معنی که به علت وجود اشکال در سرور جستجوگر یا موتور جستجوگر برای دسترسی به صفحه وب ناموفق است. در گزارش “خطای خزیدن” سرچ کنسول گوگل یک برگه به این خطاها اختصاص داده شده است. هنگامی خطا ثبت میشود که زمان درخواست URL به پایان رسیده و Googlebot درخواست را رها می کند. برای کسب اطلاعات بیشتر درباره رفع مشکلات اتصال سرور اسناد گوگل را مشاهده کنید.

خوشبختانه راهی وجود دارد که به جستجوگرها و موتورهای جستجو بگویید که آدرس صفحه شما تغییر کرده است – تغییر مسیر ۳۰۱ (دائمی).

۴۰۴ صفحه سفارشی ایجاد کنید!

با افزودن پیوند به صفحات مهم سایت مثل جستجوی سایت و حتی اطلاعات تماس. صفحه ۴۰۴ خود را سفارشی کنید. این امر باعث می شود که بازدیدکنندگان هنگام برخورد ۴۰۴ از سایت شما گزاف گویی کنند.

درباره صفحات ۴۰۴ سفارشی بیشتر بیاموزید.

 

تصویری از تغییر مسیر یک صفحه به صفحه دیگر.

تصویری از تغییر مسیر یک صفحه به صفحه دیگر

برای تغییر مسیر از example.com/young-man/ به example.com/adolescent/ . موتورهای جستجو و کاربران به یک پل احتیاج دارند که یک تغییر مسیر ۳۰۱ است.

هنگامی که شما ۳۰۱ را پیاده سازی کنید هنگامی که شما ۳۰۱ را پیاده سازی نکنید
از لحاظ پبوند بازدیدکنندگان را به صورت دائم به صفحه ی جدید منتقل می کند بازدیدکنندگان به صفحه ی جدید منتقل نمی شوند
از لحاظ نمایه سازی ربات های موتورهای جستجو به صورت دائم به صفحه ی جدید منتقل می کند خطای های ۴۰۴ به تنهایی به عملکرد جستجو آسیب نمی رساند. اما منجر به سقوط رتبه بندی در فهرست گوگل می شوند.
از لحاظ کاربر به کاربران اطمینان می دهد صفحه مورد نظر خود را پیدا کنند. بازدید کنندگان شما با کلیک بر روی پیوندهای مرده به جای صفحه مورد نظر به صفحات خطا می روند که این برای آنها می تواند ناامید کننده باشد.

شما همچنین می توانید صفحه ۳۰۲ را ایجاد کنید. این صفحه مانند یک جاده فرعی است. شما به طور موقت در حال عبور از مسیر فرعی هستید اما برای همیشه اینگونه نخواهد بود و در آینده دوباره از جاده اصلی استفاده خواهید کرد.

مراقب زنجیرهای تغییر مسیر باشید!

در صورتی که مجبور باشد چندین ریدایرکت را انجام دهد رسیدن به صفحه اصلی دشوار است. گوگل در مورد “زنجیره های تغییر مسیر”  توصیه می کند تا حد ممکن آنها را محدود کنید. اگر مثلا com/1 را به com/2 هدایت می کنید ، بعداً تصمیم گرفتید که آن را به com/3 تغییر مسیر دهید ، بهتر است واسطه را حذف کنید و به سادگی com/1 را به com/3 هدایت کنید.

پس از اطمینان از بهینه سازی سایت خود برای خزیدن نکته بعدی این است که اطمینان حاصل کنید که سایت شما قابل ایندکس شدن است.

نمایه سازی: موتورهای جستجو چگونه صفحات شما را تفسیر و ذخیره می کنند؟
هنگامی که اطمینان حاصل کردید که سایت شما قابل خزیده شدن است سفارش بعدی این است که از ایندکس شدن مطمئن شوید. بله درست است – فقط به این دلیل که سایت شما توسط موتور جستجو می تواند کشف و خزیده شود لزوماً به معنای ذخیره آن در فهرست آنها نیست. در بخش قبلی در مورد خزیدن و چگونگی کشف صفحات وب شما توسط موتورهای جستجو صحبت کردیم. فهرست گوگل جایی است که صفحات کشف شده شما ذخیره می شوند. بعد از اینکه یک خزنده یک صفحه را پیدا کرد. موتور جستجو محتوای آن صفحه را تحلیل می کند و اطلاعات آن را در فهرست خود ذخیره می کند.

روباتی که یک کتاب را در یک کتابخانه ذخیره می کند.

در ادامه بخوانید تا در مورد چگونگی عملکرد ایندکس سازی و نحوه اطمینان از اینکه سایت شما در بانک اطلاعاتی قرار داده شده است آشنا شوید.

آیا می توانم ببینم چگونه یک خزنده گوگل بات صفحات مرا مشاهده می کند؟

بله نسخه ذخیره شده صفحه شما آن چیزی است که آخرین بار Googlebot آن را خز کرده است.

گوگل صفحات وب را متناوب خزنده و ذخیره می کند. سایت های مشهور اغلب بیشتر از سایتهایی که شهرت کمتری دارد خزیده می شوند.

با کلیک روی پیکان کشویی کنار URL در SERP و انتخاب “ذخیره شده” می توانید آخرین نسخه کش  شده  سایت خود را مشاهده کنید:

تصویری از مکان برای دیدن نتایج ذخیره شده در SERP ها

همچنین می توانید نسخه فقط متن سایت خود را مشاهده کنید تا تعیین کنید که آیا محتوای مهم شما در حال خزیدن و ذخیره سازی موثر است یا خیر.

آیا صفحات از فهرست حذف شده اند؟

بله گاهی اوقات صفحات از فهرست حذف می شوند! برخی از دلایل اصلی حذف یک URL عبارتند از:

نشانی اینترنتی خطای “یافت نشد” (۴XX) یا خطای سرور (۵XX) را برمی گرداند – این مشکل می تواند تصادفی باشد (صفحه منتقل شده و یک تغییر مسیر ۳۰۱ تنظیم نشده است) یا عمدی باشد (صفحه حذف شد و با نمایش خطای ۴۰۴ آن URL از فهرست حذف می شود)
URL با برچسب متا noindex اضافه شده است – این برچسب می تواند توسط صاحبان سایت اضافه شود تا به موتور جستجو دستور دهد تا صفحه را از فهرست آن خارج کند.
URL به دلیل نقض دستورالعملهای وب مستر موتور جستجو به صورت دستی مجازات شده است و در نتیجه از فهرست حذف می شود.
با افزودن گذرواژه برای ورود به نشانی اینترنتی آن صفحه برای خزیدن مسدود شده است.
اگر فکر می کنید صفحه ای در وب سایت خود که قبلاً در فهرست گوگل قرار داشته دیگر نشان داده نمی شود می توانید از ابزار بازرسی URL برای بررسی وضعیت صفحه استفاده کنید. یا از واکشی (Fetch) در گوگل استفاده کنید که دارای ویژگی “درخواست نمایه سازی” (“Request Indexing”) است. آدرس های اینترنتی اختصاصی را به فهرست ارائه دهید. (توجه: ابزار “واکشی”(“fetch”)  GSC یک گزینه “ارائه”(“render”) دارد که به شما امکان می دهد که چگونگی تفسیر صفحه و مشکلات موجود در صفحه را بررسی کنید).

 

به موتورهای جستجو بگویید چگونه این سایت را فهرست بندی کنند.

دستورالعمل های متا (یا “برچسب های متا”) دستورالعمل هایی هستند که می توانید در مورد نحوه برخورد صفحه وب خود به موتورهای جستجو ارائه دهید.

می توانید مواردی مانند “این صفحه را در نتایج جستجو ایندکس نکنید” به خزندگان موتور جستجو بگویید. این دستورالعمل ها از طریق Robots Meta Tag درصفحات HTML شما (این روش متداول است) یا از طریق X-Robots-Tag در هدر HTTP اجرا می شوند.

ربات های متا تگ

متا تگ ربات ها می توانند در تگ <head> در HTML صفحه وب شما استفاده شوند. این کار می تواند تمام و یا موتورهای جستجو خاص را حذف کند. در زیر متداول ترین دستورالعمل های متا و مکانهایی که شما می توانید از آنها استفاده کنید قرار دارد.

index یا noindex به موتورها می گوید که آیا این صفحه باید خزیده شود و در فهرست موتورهای جستجو نگه داشته شود یا نه. اگر می خواهید از “noindex” استفاده کنید به خزنده های گفته اید که می خواهید صفحه از نتایج جستجو خارج شود. به طور پیش فرض موتورهای جستجو فرض می کنند که می توانند تمام صفحات را فهرست بندی کنند. بنابراین استفاده از مقدار “index” ضروری نیست.

اگر می خواهید صفحات کم اهمیت را (مانند صفحات پروفایل ایجاد شده توسط کاربر) از فهرست گوگل حذف کنید علامت گذاری به عنوان “noindex” کنید. اما هنوز هم می خواهید بازدید کنندگان آنها را بازدید کنند.
follow یا nofollow به موتورهای جستجو می گوید که آیا پیوندها در صفحه باید دنبال شوند یا نه. با استفاده ار فالو موتور جستجو وارد آن لینک شده و عمل خزیدن را انجام میدهد و با استفاده از تگ نوفالو گوگل آن لینک را دنبال نمی‌کند اما هنوز بازدید کنندگان می توانند آنها را بازدید کنند. به طور پیش فرض تمام لینکهای صفحات ویژگی “follow” را دارند.

وقتی می خواهید از فهرست شدن صفحه جلوگیری کنید و همچنین از پیوندهای خزنده جلوگیری کنید. معمولاً از nofollow همراه با noindex استفاده می شود.
noarchive متا تگی که به موتور جستجو اعلام می کند این صفحه را از حافظه قدیمی که قبلا ذخیره کرد لود نکند و نسخه بروز آنرا نمایش دهد.

اگر یک سایت فروشگاهی را راه اندازی کرده اید و به طور مرتب قیمت های خود را تغییر می دهید بهتر است از تگ noarchive استفاده کنید تا قیمتهای قدیمی نمایش داده نشود.
در اینجا نمونه ای از ربات های متداول noindex و تگ nofollow آورده شده است:

<!DOCTYPE html><html><head><meta name="robots" content="noindex, nofollow" /></head><body>...</body></html>

این مثال کلیه موتورهای جستجو را از فهرست کردن صفحه و پیگیری هرگونه پیوند در صفحه منع می کند. اگر می خواهید صفحه را از دسترس چندین خزنده مانند googlebot و bing دور نگه دارید استفاده از چندین برچسب طرد روبات اشکالی ندارد.

X-Robots-Tag

برچسب x-robots در هدر صفحه شما استفاده می شود. دو نوع متا تگ Robots وجود دارد: یک نوع آن قسمتی از کدهای HTML صفحه است و در نوع دیگر، وب سرور آن را تحت هدرهای HTTP میفرستد (مانند x-robots-tag). در کنترل این نوع متا تگ ها از پارامترهای یکسانی استفاده می شود (مانند “noindex” و “nofollow”) و تفاوت آن ها در نحوه ارتباط آنها با خزنده موتورهای جستجوست. می توانید فایل های غیر HTML را مسدود کرده و برچسب های noindex sitewide را اعمال کنید.

به عنوان مثال ، شما به راحتی می توانید کل پوشه ها یا انواع پرونده ها را حذف کنید (مانندIr-p.ir/no-bake/old-recipes-to-noindex):

<Files ~ “\/?no\-bake\/.*”> Header set X-Robots-Tag “noindex, nofollow”</Files>

مشتقات به کار رفته در متا تگ ربات ها نیز می توانند در یک برچسب X-Robots-Tag استفاده شوند.

یا انواع پرونده های خاص (مانند PDF):

<Files ~ “\.pdf$”> Header set X-Robots-Tag “noindex, nofollow”</Files>

برای اطلاعات بیشتر در مورد برچسب های متای ربات ، مشخصات Google Tag Robots Meta Tag را کاوش کنید .

نکته وردپرس:

در داشبورد> تنظیمات> خواندن ، مطمئن شوید که چک باکس “قابلیت مشاهده موتور جستجو” انتخاب نشده است . این مانع از ورود موتورهای جستجو به سایت شما از طریق فایل robots.txt شما می شود!

دانستن روشهای مختلفی که بر خزیدن و فهرست بندی تأثیر می گذارد به شما کمک می کند تا از خطاهای رایج که می توانند صفحات مهم شما را از لیست خارج کنند جلوگیری کنید.

رتبه بندی: موتورهای جستجو چگونه URL ها را رتبه بندی می کنند؟

موتورهای جستجو چگونه اطمینان می دهند که وقتی شخصی یک جستجو را انجام میدهد. بهترین نتایج مربوطه را دریافت کند؟ این فرایند به عنوان رتبه بندی یا مرتب سازی نتایج جستجو با بیشترین اهمیت شناخته شده است.

موتورهای جستجو چگونه URL ها را رتبه بندی می کنند

تعبیر از رتبه بندی را با سه سگ بسیار زیبا بر روی پایه های اول ، دوم و سوم مشاهده می کنید.
برای تعیین ارتباط سایتها با مطلب مورد جستجو موتورهای جستجو از الگوریتم ، فرایند یا فرمولی استفاده می کنند که اطلاعات ذخیره شده به روش های معنی دار ذخیره و بازیابی می شوند. این الگوریتم ها به منظور بهبود کیفیت نتایج جستجو طی سالهای متمادی تغییرات بسیاری را پشت سر گذاشته اند. به عنوان مثال ، گوگل هر روز تنظیمات الگوریتم را انجام می دهد. برخی از این به روزرسانی ها تغییرات جزئی دارند. در حالی که برخی دیگر با تغییرات الگوریتم اصلی و گسترده هستند. مانند الگوریتم پنگوئن که برای حل کردن اسپم های پیوند بهینه شده است. تاریخچه تغییر الگوریتم گوگل را که لیستی از به روزرسانی های تأیید شده و تأیید نشده در سال ۲۰۰۰ است بررسی کنید.

چرا الگوریتم اینقدر تغییر می کند؟

در حالی که گوگل هیچ وقت علت تغییرات آنرا فاش نمی کند. ما می دانیم که هدف گوگل از تغییرات الگوریتم بهبود کیفیت کلی جستجو است. به همین دلیل گوگل در پاسخ به سؤالات در مورد به روزرسانی الگوریتم  پاسخ خواهد داد: “ما همیشه  و مرتباً  با به روزرسانی ها الگوریتم را بهبود می بخشیم. اگر سایت شما پس از تغییر الگوریتم  گوگل دچار مشکل در خزیدن می شود. آن را در برابر دستورالعمل های کیفیت گوگل یا دستورالعمل کیفیت جستجوگر Rater اصلاح کنید.

موتورهای جستجو چه می خواهند؟

موتورهای جستجو همیشه یک چیز را می خواستند: پاسخهای مفید به سؤالات کاربران در مفیدترین قالبها. اگر اینطور است ، پس چرا اینطور به نظر می رسد که SEO  نسبت به سالهای گذشته متفاوت شده است؟

از نظر طراحان سایت مثل این است که دارند یک زبان جدید را یاد می گیرند.

در ابتدا درک آنها از زبان بسیار پراهمیت است. با گذشت زمان درک آنها شروع به تعمیق می کند و آنها مفاهیم را می آموزند. معنای پشت زبان و رابطه بین کلمات و عبارات. سرانجام با تمرین کافی مفهوم زبان را به اندازه کافی می فهمند و حتی تفاوت های ظریف را نیز درک می کنند و قادر به پاسخگویی به سوالات حتی مبهم یا ناقص هستند.

هنگامی که موتورهای جستجو تازه شروع به یادگیری زبان ما کردند. بازی دادن سیستم با استفاده از ترفندها و تاکتیک هایی که در واقع خلاف دستورالعمل های کیفیت هستند بسیار ساده تر بود. به عنوان مثال تکرار کلمات کلیدی. اگر می خواهید برای یک کلمه کلیدی خاص مانند “جوک های خنده دار” رتبه بندی کنید. ممکن است به امید افزایش رتبه سایت خود بارها و بارها کلمات “جوک های خنده دار” را به صفحه خود اضافه کنید و آن را برجسته کنید. به مثال توجه کنید.

به جوک های خنده دار خوش آمدید ! ما جالبترین جوک های خنده دار دنیا را می گوییم . جوک ها خنده دار هستند و سرگرم کننده. جوک های خنده دار منتظرشماست. عقب بنشینید و جوک های خنده دار بخوانید زیرا جوک های خنده دار می تواند شما را خوشحال و سرگرم کننده.
این روش باعث ایجاد تجربیات وحشتناک برای کاربر شده و به جای خندیدن به شوخی های خنده دار با یک متن آزار دهنده به شدت بمباران می شوند. ممکن است این روش در گذشته کار می کرده. اما این چیزی نبود که موتورهای جستجو می خواستند.

نقش پیوندها در سئو

دو نوع پیوندداریم. بک لینک یا “پیوندهای ورودی” پیوندهایی از وب سایتهای دیگر هستند که به وب سایت شما اشاره می کنند. در حالی که لینک های داخلی پیوندهایی در سایت شما هستند که به صفحات دیگر شما (در همان سایت) اشاره می کنند.

تصویری از نحوه کارکردن لینک های ورودی و پیوندهای داخلی.

پیوندها از نظر تاریخی نقش بزرگی در سئو بازی کرده اند. موتورهای جستجوگر برای تشخیص اینکه کدام URL ها از سایرین قابل اعتمادتر هستند و برای تعیین چگونگی رتبه بندی نتایج جستجو به کمک نیاز داشتند. محاسبه تعداد پیوندها به هر سایت مشخصی به آنها کمک می کند تا این کار را انجام دهند.

برای درک بهتر پیوندهای ورودی به یک مثال توجه کنید. برای اینگه بدانیم برنامه نویسان سایت ما بهترین هستند از چند روش نظر سنجی استفاده می کنیم.

مراجعه به دیگران = بهترین نوع نظر سنجی.
مثال: بسیاری از افراد مختلف به شما گفته اند برنامه نویسان سایت کارشان خوب است.
ارجاع به خودتان = مغرضانه است بنابراین نظر سنجی قابل اعتمادی نیست.
مثال: ما ادعا می کنیم که برنامه نویسان سایت ما کارشان خوب است.
مراجعه به منابع نامربوط یا کیفیت پایین = نظر سنجی خوبی نیست و حتی می تواند شما به عنوان اسپم علامت گذاری کند.
مثال: ما به افرادی مراجعه کرده ایم که هرگز از سایت ما بازدید نکرده اند و به دیگران می گویند برنامه نویسان سایت ما کارشان خوب است.
بدون مراجعه = مرجع نامشخص است
مثال: برنامه نویسان سایت ما ممکن است کارشان خوب باشد. اما ما نتوانسته ایم کسی را که نظری داشته باشد پیدا کنیم بنابراین نمی توانیم مطمئن باشیم.
به همین دلیل PageRank ایجاد شده است. PageRank (بخشی از الگوریتم اصلی گوگل) یک الگوریتم آنالیز پیوند است که نام یکی از بنیانگذاران گوگل لری پیج بر روی آن گذاشته شده است. پیج رنک با اندازه گیری کیفیت و کمیت پیوندهایی که به آن اشاره می کنند. اهمیت یک صفحه وب را تخمین می زند. فرض بر این است که هرچه صفحه وب مربوطه مهم و قابل اعتماد تر باشد پیوندهای بیشتری را نیز کسب می کند.

هرچه پیوندهای ورودی بیشتری از وب سایتهای دارای قدرت بالا (قابل اعتماد) داشته باشید شانس شما در کسب رتبه بندی بالاتر در نتایج جستجو بیشتر است.

نقش محتوای در سئو

اگر آنها جستجوگرها را به سمت چیزی سوق ندهند هیچ پاسخی راضی کننده نخواهد بود! محتوا چیزی غیر از کلمات است. محتوا چیزی است که توسط جستجوگران باید استفاده شود. محتوای ویدیویی ، محتوای تصویری و البته متن. اگر موتورهای جستجو ماشین های پاسخ هستند. محتواها پاسخ هایی هستن که موتورهای جستجو آنها را ارائه می دهند.

هر وقت شخصی یک جستجو را انجام دهد. ممکن است هزاران نتیجه نمایش داده شود. بنابراین موتورهای جستجو چگونه تصمیم می گیرند در کدام صفحات پاسخ ارزشمندی پیدا کنند؟ بخش مهمی که صفحه شما را برای یک پرس و جو رتبه بندی می کند این است که محتوا در صفحه شما با هدف پرس و جو مطابقت داشته باشد. به عبارت دیگر آیا این صفحه با کلماتی که جستجو شده است مطابقت دارد و به وظیفه ای که جستجوگر انجام می دهد کمک می کند؟

به دلیل تمرکز روی رضایت کاربر و انجام وظیفه بهتر هیچ معیار دقیقی برای محتوای شما مثل تکرار چندین بار یک کلمه کلیدی یا مواردی که در برچسب های هدر خود قرار داده اید وجود ندارد. البته همه این عوامل می توانند در عملکرد یک صفحه در جستجو نقش داشته باشند. اما توجه باید به کاربرانی متمرکز شود که مطالب را مطالعه می کنند.

امروزه با صدها یا حتی هزاران سیگنال رتبه بندی ، سه گروه برتر نسبتاً ثابت مانده اند: پیوندهایی به وب سایت شما (که به عنوان یک سیگنال اعتبار شخص ثالث عمل می کند) ، محتوای صفحه (محتوای با کیفیت که هدف جستجوگر را تحقق می بخشد) ، و RankBrain.

RankBrain چیست؟

RankBrain بخش یادگیری الگوریتم اصلی گوگل است. یادگیری ماشینی یک برنامه رایانه ای است که با مشاهدات جدید و داده های آموزشی پیش بینی های خود را با گذشت زمان بهبود می بخشد. به عبارت دیگر همیشه در حال یادگیری است و از آنجا که همیشه در حال یادگیری است. نتایج جستجو باید دائما در حال بهبود باشد.

به عنوان مثال اگر RankBrain متوجه URL رده پایین تری شود که نتیجه بهتری از URL های رده بالاتر کسب می کند. حتما RankBrain آن نتایج را تنظیم می کند و نتیجه مرتبط تر را بالاتر می برد و صفحات کمتر مربوط را به عنوان یک URL فرعی نمایش می دهد.

تصویری که نشان می دهد چگونه نتایج می توانند تغییر کنند و به اندازه کافی بی ثبات هستند تا حتی چند ساعت بعد رتبه های مختلف را نشان دهند.

ما چیز زیادی از RankBrain گوگل نمی دانیم . اما ظاهراً افراد در گوگل این کار را انجام نمی دهند.

کارایی RankBrain برای SEO چیست؟

از آنجا که گوگل به تبلیغات خود برای دستیابی به مطالب مفید و مربوط به رتبه بندی RankBrain ادامه خواهد داد ما باید بیشتر از گذشته به هدف جستجوگر بپردازیم. بهترین جستجوی اطلاعات و تجربه ممکن را برای جستجوگرانی که ممکن است در صفحه شما باشند فراهم کنید و شما اولین قدم بزرگ برای عملکرد بهتر در دنیای RankBrain را برداشته اید.

معیارهای تعامل؟

وقتی می گوییم معیارهای تعامل منظور ما داده هایی است که نشان دهنده تعامل جستجوگرها با سایت شما از نتایج جستجو است. که شامل موارد زیر است:

Clicks (بازدید از جستجو)
Time on page (میزان زمانی که بازدید کننده قبل از ترک آن در صفحه می گذرد)
Bounce rate (درصد کل جلسات یا ( sessions ) هایی که کاربران فقط یک صفحه را مشاهده می کند)
Pogo-sticking (کلیک بر روی یک نتیجه اصلی و سپس بازگشت سریع به ( صفحه جستجو ) SERP تا یک نتیجه دیگر را انتخاب کنید)

آیا سایتهای دارای رتبه بالا فقط از معیارهای خوب و مناسب استفاده می کنند؟ یا سایتها به دلیل داشتن معیارهای تعامل مناسب رتبه بندی بالایی دارند؟

آنچه گوگل گفته است
در حالی که آنها هرگز از اصطلاح “سیگنال رتبه بندی مستقیم” استفاده نکرده اند. گوگل مشخص کرده است که آنها کاملاً از داده های کلیک برای تغییر SERP برای نمایش داده های خاص استفاده می کنند.

طبق گفته مدیر سابق کیفیت جستجوی گوگل Udi Manber: “این رتبه بندی خود تحت تأثیر داده های کلیک قرار دارد. اگر دریابیم که برای یک پرس و جو خاص ، ۸۰٪ از افراد روی شماره ۲ کلیک می کنند و تنها ۱۰٪ روی شماره ۱ کلیک می کنند. پس از مدتی می فهمیم که احتمالاً شماره ۲ همان چیزی است که مردم می خواهند بنابراین ما آن را تغییر خواهیم داد. ”
نظر دیگر مهندس پیشین گوگل ، ادموند لاو ، این مطلب را تأیید می کند:

کاملاً واضح است که هر موتور جستجوی معقول می تواند از داده های کلیک بر روی نتایج خود استفاده کند تا دوباره به رتبه مناسب خود برسد و کیفیت نتایج جستجو را بهبود ببخشد. مکانیزم واقعی نحوه استفاده از داده های کلیک اغلب اختصاصی است. اما مشخص است که گوگل از داده های کلیک برای امتیاز دهی به سایتهای دارای حق انحصاری و محتوای مرتب شده استفاده می کند.

گوگل چه آزمایشاتی را تأیید کرده است.
آزمایشات مختلف تأیید کرده اند که گوگل سفارش SERP را در پاسخ به تعامل جستجوگر تنظیم می کند:

تست رند فیککین در سال ۲۰۱۴ منجر به نتیجه رنک ۷ شد که بعد از کلیک حدود ۲۰۰ نفر بر روی URL در SERP  به سمت رنک شماره ۱ حرکت کرد. جالب اینجاست که بهبود رتبه در مکان افرادی که از این لینک بازدید کرده اند اتفاق افتاده است. جایگاه این رتبه در ایالات متحده جایی که بسیاری از شرکت کنندگان در آن قرار داشتند ارتقاء یافته در حالی که در صفحه گوگل کانادا ، گوگل استرالیا و غیره پایین تر است.

مقایسه لری کیم از صفحات برتر و میانگین زمان تغییر رتبه نیافتن آنها قبل و بعد از RankBrain و مؤلفه یادگیری الگوریتم گوگل از موقعیت رتبه صفحه هایی که مردم وارد آنها نمی شوند را در لینک ببینید.
آزمایش دارن شاو نیز تأثیر رفتار کاربران را در نتایج جستجوی محلی و نتایج بسته های نقشه نیز نشان داده است.

تکامل نتایج جستجو

در زمان گذشته موتورهای جستجوگر فاقد پیچیدگی های بسیاری امروزه بودند. اصطلاح “۱۰ پیوند آبی” برای توصیف ساختار مسطح SERP ابداع شد. هر زمان که یک جستجو انجام شود گوگل صفحه ای را با ۱۰ نتیجه اصلی با همان فرمت برمی گرداند.

عملکرد موتورهای جستجو : خزیدن، نشان کردن و رتبه بندی

در این تصویر جستجو رتبه شماره ۱ جایگاه مهم در SEO بود. اما بعد اتفاقی افتاد گوگل شروع به افزودن نتایج در قالب های جدید در صفحات نتیجه جستجوی خود با نام ویژگی های SERP کرد . برخی از این ویژگی های SERP عبارتند از:

تبلیغات در گوگل
بخش های برجسته
پنجره های پرس و جو از کاربران
بسته (نقشه) محلی
پانل دانش گوگل
صفحات سایت
و گوگل تمام وقت موارد جدیدی را اضافه می کند. آنها حتی با “SERP های با نتیجه صفر” آزمایش کردند ، پدیده ای که تنها یک نتیجه از نمودار دانش در SERP نمایش داده شد و هیچ نتیجه ای در زیر آن وجود نداشت به جز گزینه ای برای “مشاهده نتایج بیشتر”.

تصویر پانل دانش گوگل در سمت چپ صفحه جستجو

پانل دانش گوگل

اضافه شدن این ویژگیها به دو دلیل اصلی باعث ایجاد وحشت اولیه شد. برای مثال بسیاری از این ویژگیها باعث شده تا نتایج اصلی بر روی SERP پایین بیفتد.

چرا گوگل این کار را می کند؟ همه چیز به تجربه جستجو برمی گردد. رفتار کاربر نشان می دهد که برخی کاربران از نمایش داده ها در قالب های مختلف راضی تر هستند.

جستجوی محلی

یک موتور جستجو مانند گوگل دارای فهرست اختصاصی مشاغل محلی است که با استفاده از آن نتایج جستجوی محلی را ایجاد می کند.

اگر شما در حال انجام سئو برای کسب و کار محلی هستید که مشتریان می توانند به مکان فیزیکی شما مراجعه کنند. (مثال: دندانپزشکی) و یا برای یک کسب و کاری است که برای انجام آن باید به محل مشتریان خود بروید. (مثال: لوله کش) تأییدیه ها را برای اطمینان بخشی به مشتریان در سایت داشته باشید و کار خود را در فهرست کسب و کار  گوگل ثبت کنید .

گوگل هنگامی که به نتایج جستجوی موضعی می رسد از سه عامل اصلی برای تعیین رتبه استفاده می کند:

ارتباط
فاصله
امتیاز

ارتباط

ارتباط این است که یک تجارت محلی چقدر به درخواست کاربر مربوط است. برای همین مطمئن شوید که اطلاعات کسب و کار کاملاً و دقیق پر شده است.

فاصله

گوگل از موقعیت مکانی شما برای ارائه بهتر نتایج محلی استفاده می کند. نتایج جستجوی محلی نسبت به نزدیک بودن کسب و کار به کاربر بسیار حساس است.

نتایج جستجوی اصلی به مکان کاربر حساس هستند. ولی به ندرت مانند نتایج جستجوی محلی عمل می کنند.

امتیاز

با امتیاز بودن ، گوگل به دنبال امتیاز دادن به کسب و کارهایی است که در دنیای واقعی شناخته شده اند. علاوه بر امتیاز آفلاین یک کسب و کار گوگل همچنین برای تعیین رتبه محلی به برخی عوامل آنلاین نیز نگاه می کند. مانند:

بررسی ها

تعداد بررسیهایی که گوگل از یک شغل محلی دریافت می کند و نتایج آن بررسی ها تأثیر قابل توجهی در رتبه بندی نتایج محلی دارد.

سندیت

“سندیت یک تجارت” یا “فهرست مشاغل” یک مرجع مبتنی بر وب در مورد یک شغل محلی است که شامل (نام ، آدرس ، شماره تلفن و غیره) می باشد.

رتبه های محلی تحت تأثیر تعداد و قوام سندیت یک شغل محلی است. گوگل داده ها را از طیف گسترده ای از منابع مثل نمایه تجاری محلی خود بطور مداوم جمع می کند. هنگامی که گوگل چندین ارجاع ثابت به نام ، مکان و شماره تلفن کسب و کار پیدا می کند رتبه آن داده را تقویت می کند. این امر منجر به این می شود که گوگل بتواند با اطمینان بیشتری آن شغل را نشان دهد. گوگل همچنین از اطلاعات سایر منابع موجود در وب مانند پیوندها و مقالات نیز استفاده می کند.

رتبه بندی اصلی

بهترین شیوه های SEO مربوط به SEO محلی است. زیرا گوگل هنگام تعیین رتبه محلی موقعیت وب سایت را در نتایج جستجوی اصلی در نظر می گیرد.

در فصل بعد شما بهترین شیوه های روی صفحه را یاد خواهید گرفت که به گوگل و کاربران کمک می کند تا محتوای شما را بهتر درک کنند.