آموزش سئو یا بهینه سازی سایت – بخش ۴-۹
آموزش سئو یا بهینه سازی سایت – بخش 4-9 » در این مقاله، تاثیر پنهان سازی محتوا (Cloaking) و صفحات کم ارزش (Low value pages) را بررسی می کنیم.

در مقاله قبل (بخش ۳ از قصل ۹)، آنالیزهای اسپم در سطح صفحه وب (page-level spam analysis) و کلمات کلیدی زیاد (Keywords stuffing) و لینک دهی دستکاری شده (Manipulative Linking) را بررسی کردیم.در این مقاله، به ادامه مبحث آنالیز اسپم در سطح صفحه وب می پردازیم و آنالیز اسپم در سطح دامین را نیز بیان می کنیم.

 

فصل نهم: تصورات غلط راجع به موتورهای جستجو 

Misconceptions about search engines

بخش چهارم

 

پنهان سازی محتوا (Cloaking):

از اصول اولیه و اساسی سئو اینست که همان محتوایی را که به خزنده های موتور جستجو (Crawler) نشان می دهید همانی باشد که به کاربران وب سایت ارائه می کنید. به بیان دیگر، مطلبی را در کد html سایت خود پنهان نکنید که یک کاربر عادی نتواند آنرا ببیند.

پنهان سازی محتوا (Cloaking)

موتورهای جستجو این گونه از اسپم ها را Cloaking نامیده اند و اقداماتی برای جلوگیری از ارتقا رتبه این وب سایت ها انجام می دهند. عمل Cloaking می تواند به روش ها و اهداف مختلف و نیت های مثبت و منفی انجام شود. در مواقعی که این پنهان سازی باعث بهبود تجربه کاربری (User Experience-UX) شود، موتورهای جستجو ممکن است مانع اینکار نشوند. برای بالا بردن اطلاعات خود در این زمینه و نیز میزان ریسکی که ممکن است هر روش داشته باشد می توانید به مقاله White Hat Cloaking از وب سایت Moz مراجعه کنید.

 

صفحات کم ارزش (Low value pages):

اگرچه ممکن است اینگونه صفحات توسط موتورهای جستجو بعنوان اسپم شناخته نشوند، اما موتورهای جستجو این امکان را دارند که صفحاتی که محتوای یکتا (Unique) دارند را شناسایی کنند. انواع مختلف صفحاتی که می توانند کم ارزش و یا بی ارزش باشند عبارتند از: صفحاتی که بصورت داینامیک تولید می شوند که غالبا محتوای آنها یکتا نیست، صفاتی که محتوای تکراری دارند (Duplicate content)، صفحاتی که محتوای کم و وابسته دارند. موتورهای جستجو با آوردن این صفحات در نتایج جستجو مخالفند و روش ها و الگوریتم های زیادی برای شناسایی اینگونه صفحات بکار می گیرند.

الگوریتم پاندا در سال ۲۰۱۱ آپدیتی را شامل شد که از تعداد صفحات و وب سایت های کم ارزش و بی ارزش در دنیای وب کم کند و در آپدیت های بعدی نیز این مطلب مشاهده می شود.

 

آنالیزهای اسپم در سطح دامین (Domain-Level spam analysis):

موتورهای جستجو علاوه بر اسکن هر صفحه وب بطور جداگانه، می توانند رفتار و ویژگی های وب سایت ها را در سطح دامین و یا ساب دامین (domain یا subdomain) بررسی و شناسایی کنند و در مواقع لزوم، برچسب اسپم را روی هر کدام بزنند.

آنالیزهای اسپم در سطح دامین

تمرین لینک دهی (Linking Practice):

همانند صفحات جداگانه وب، موتورهای جستجو می توانند بر انواع لینک ها و نیز کیفیت وب سایت های مرجع لینک ها نظارت داشته باشند. وب سایت هایی که با دستکاری و تقلب در لینک دهی به سایت شان (manipulative linking) همانطور که در مقالات بالا ذکر شد، سعی در فریب موتورهای جستجو و یا میانبر زدن دارند، با افت شدید رتبه در نتایج جستجو و یا حتی ایندکس نشدن مواجه خواهند شد.

 

امانت (Trustworthiness):

وب سایت هایی که توانسته اند وضعیت معتبر و قابل اعتمادی بدست آورند، غالبا رفتارشان با سایر وب سایت ها متفاوت است. اگر وب سایت شما شامل مطالب کم ارزش و یا تکراری (کپی شده) است و لینک هایی از وب سایت های اسپم نیز خریداری نموده اید، بطور حتم رتبه سایت شما در نتایج جستجو با افت شدیدی روبرو خواهد شد. اما اگر همین مطالب را حتی با خرید لینک از سایت های اسپم، در وب سایت معتبر ویکی پدیا درج کنید، تاثیر خوبی برای سایت ویکی پدیا خواهد داشت (بدلیل قدرت و اعتبار دامین : Domain Authority-DA)

اعتبار (Trust) می تواند از طریق لینک های داخلی (inbound links) نیز تامین شود. فرض کنید در وب سایت شما تعداد کمی مقاله وجود دارد که تکراری و کپی می باشند. اما چندین سایت معتبر مانند CNN به سایت شما لینک داده باشند،  این باعث می شود تا اندک لینک هایی که از وب سایت های اسپم و بی ارزش دریافت کرده اید از طرف موتورهای جستجو نادیده گرفته شوند.

 

ارزش محتوا (Content Value):

همانطور که دیدیم، ارزش یک صفحه وب مجزا، بر اساس محتویات یکتا و غیر تکراری و نیز تجربه کاربری (UX) مربوط به آن صفحه ارزیابی می شود، همینطور برای ارزیابی کل دامین نیز این معیارها صادق هستند. وب سایت هایی که دارای صفحات بی ارزش و مقالات تکراری (duplicate) هستند، مطمئنا در نتایج جستجو دچار مشکل می شوند (حتی اگر این صفحات بخوبی برای موتورهای جستجو بهینه شده باشند). به بیان ساده، موتورهای جستجو مانند گوگل دوست ندارند ایندکس های خود را پر از صفحات ویکی پدیا کنند. بنابراین از روش ها و الگوریتم هایی برای جلوگیری از فعالیت اینگونه صفحات استفاده می کنند.

موتورهای جستجو بطور مدام و پیوسته در حال ارزیابی نتایج خود هستند. هنگامی که کاربری بعد از سرچ کردن عبارت موردنظر خود، و کلیک روی لینک یک وب سایت در لیست نتایج جستجو، بلافاصله دکمه بازگشت را می زند، موتور جستجو می فهمد که این وب سایت برای کاربر مفید واقع نشده و با انتظارات کاربر فاصله داشته است.

رتبه خوب داشتن برای یک کلمه و یا عبارت خاص در نتایج موتورهای جستجو به تنهایی کافی نیست. بلکه وقتی شما موقعیت وب سایت تان را در جستجو تثبیت کردید، باید بطور مداوم و مکرر آنرا ثابت کنید.

در مقاله بعد، با بخش پنجم از فصل ۹ آموزش سئو در خدمت شما خواهیم بود.

 


برچسب‌ها:

Cloakingآنالیزهای اسپمپنهان سازی محتواتجربه کاربریصفحات کم ارزشلینک دهیموتورهای جستجو


دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

18 + پانزده =