آموزش سئو یا بهینه‌سازی سایت – فصل نهم

در مقاله قبل، ابزار مدیریت سایت در بینگ (Bing) و ابزار Moz Open Site Explorer را مورد بررسی قرار دادیم. در این مقاله، در مورد تصورات اشتباهی که در مورد موتورهای جستجو وجود دارد صحبت خواهیم کرد.

 

 فصل نهم: تصورات غلط راجع به موتورهای جستجو 

Misconceptions about search engines

 بخش اول 

 

در طی سالیان گذشته، تعدادی از تصورات غلط درباره نحوه عملکرد موتورهای جستجو بوجود آمده است. برای سئوکاران مبتدی، این قضیه ممکن است باعث سردرگمی شود که چه روشی برای بهینه سازی موثرتر است. در این بخش، ما داستان واقعی که پشت این تصورات وجود دارد را بیان می کنیم.

 

ارسال اطلاعات به موتورهای جستجو (Search Engine Submission):

در دوران سئوی کلاسیک (اواخر دهه ۹۰ میلادی) موتورهای جستجو فرم های ارسالی داشتند که وب مستران اطلاعات و عبارات کلیدی صفحات وب سایت خود را در آن submit می کردند و موتورهای جستجو بلافاصله آن وب سایت را پیمایش و بر اساس اطلاعات ارسالی، ایندکس صفحات انجام می شد. سئوی ساده!

اما متاسفانه این فرآیند نتوانست به مقیاس های بزرگ پاسخگو باشد. داده های ارسالی غالبا اسپم بودند. از سال ۲۰۰۱ میلادی، نه تنها ارسال اطلاعات در فرم های موتورهای جستجو نیاز نمی باشد بلکه این روش یعنی ارسال اطلاعات در فرم های موتورهای جستجو بلااستفاده (Useless) شده است. موتورهای جستجو به این نتیجه رسیدند که به ندرت از url های submit شده استفاده می کنند و باید روش بهتری برای اینکار بیابند.

شما می توانید کماکان فرم های ارسال را در برخی موتورهای جستجو پیدا کنید (مانند این صفحه از موتورجستجوی بینگ) اما این فرم ها، بقایای روش کلاسیک سئو می باشد و در سئوی مدرن امروزی، نیازی به submit کردن url های سایت تان نیست.

 

تگ های متا (Meta Tags):

زمانی استفاده از تگ های متا (بطور خاص متاتگ کلمات کلیدی : Keywords meta tag) یکی از فاکتورهای اساسی بهینه سازی وب سایت ها می بود، در آن زمان، کلمات و عباراتی را که می خواستید برای آنها رتبه خوبی بگیرید را بعنوان کلمات کلیدی در تگ متای keywords تعریف می کردید و بنابراین اگر کاربران آن کلمات را سرچ می کردند، سایت شما می توانست رنک و رتبه خوبی داشته باشد. این روش بتدریج باعث اسپم شدن سایت ها شده است و این فاکتور از الگوریتم موتورهای جستجوی مهم حذف شده است و کاربرد قدیم را ندارد. تگ های دیگر مانند عنوان (title) و توضیحات (description) هنوز از اهمیت حیاتی سابق برخوردارند. علاوه بر این، استفاده از تگ های متای ربات (Robot meta tag) برای کنترل دسترسی ربات های خزنده به صفحات سایت ضروری می باشد. اکنون با اینکه از اهمیت و کاربرد تگ های متا با خبرید، باید بدانید که در سالیان اخیر، استفاده از این فاکتور، موضوع اصلی سئو نمی باشد.

 

استفاده بیش از حد از کلمات کلیدی (Keyword Stuffing):

آیا تابحال صفحات وبی را دیده اید که اسپم بنظر می رسند؟ تعجبی نیست که بگوییم بیشتر افسانه های موجود در زمینه سئو، در مورد تراکم کلمات کلیدی در صفحه (نسبت کلمات کلیدی هر صفحه به کل کلمات کلیدی وب سایت) می باشد که در محاسبه فاکتورهای رتبه (Ranking) و ارتباط (Relevancy) در موتورهای جستجو استفاده می شوند. ولی این افسانه واقعیت ندارد. یعنی تعداد کلمات کلیدی که در یک صفحه وب استفاده می کنید اهمیت ندارد و فقط آنها را بصورت هوشمندانه و منطقی در صفحات سایت تان استفاده کنید. در نظر داشته باشید که ارزش استفاده از ده کلمه کلیدی در یک صفحه وب کمتر از یک لینکی است که یک وب سایت معتبر به سایت شما بدهد.

 

 بخش دوم 

 

در بخش قبل، تگهای متا (Meta Tags) و استفاده بیش از حد از کلمات کلیدی (Keyword Stuffing) را بررسی کردیم. با بخش دوم از فصل ۹ آموزش سئو برای مبتدیان همراه ما باشید.

 

جستجوی پولی (Paid Search) به نتایج ارگانیک موتورهای جستجو کمک می کند:

وقت آنست که در مورد یکی از رایج ترین تئوری های موجود درباره سئو بحث کنیم: هزینه کردن برای تبلیغات در موتورهای جستجو (pay per click یا PPC) باعث بهبود رتبه ارگانیک سایت تان می شود.

بر اساس تحقیقات و  تجربیات قابل توجه ما (نویسندگان وب سایت Moz) شواهدی مبنی بر جمله بالا (ارتقا رتبه ارگانیک وب سایت توسط تبلیغات) یافت نمی شود. در گوگل، یک تبیلغ کننده، ممکن است میلیون ها دلار خرج تبلیغات در گوگل کند اما از هیچ توجه و امتیاز خاصی نسبت به سایر رقبا در نتایج جستجوی ارگانیک برخوردار نیست. تا وقتی که سیاست موتورهای جستجو بدینگونه است، نظریه فوق (ارتقا نتایج ارگانیک جستجو توسط تبلیغات) باید در حد همان افسانه باقی بماند.

 

اسپم موتور جستجو (Search Engine Spam):

تا وقتی که جستجو هست، اسپم نیز وجود دارد! تلاش برای بهینه سازی بصورت اسپم (طراحی و تولید صفحاتی که بطور مصنوعی و تقلبی رتبه وب سایت را در موتور جستجو  بهبود می بخشند)، از اواسط دهه ۹۰ میلادی مرسوم شد.

مخاطرات استفاده از اینگونه روش ها بسیار بالاست. بعنوان مثال اگر تنها یک روز وب سایت شما با عبارت "buy Viagra" در رتبه اول نتایج جستجوی گوگل باشد، می تواند منفعت مالی حدود ۲۰هزار دلار برای شما داشته باشد. بنابراین تعجبی ندارد که دستکاری موتورهای جستجو انقدر طرفدار داشته باشد و محبوب باشد! اگرچه روز به روز اینگونه فعالیت ها سخت تر و سخت تر می شود و به دو دلیل ارزش کمتری پیدا می کنند:

 

۱- ارزش تلاش کردن ندارد:

کاربران از اسپم متنفرند و موتورهای جستجو برای مبارزه با اسپم ها، انگیزه اقتصادی دارند. بسیاری معتقدند که گوگل بدلیل مزیت های موتور جستجویش نسبت به سایر موتورهای جستجوی معروف (مانند یاهو! و بینگ)، در طی ۱۰ سال گذشته، باعث شده بتواند نسبت به رقبایش بهتر و موثرتر با اسپم ها مقابله کند. بدون شک، این موضوع (مبارزه با اسپم ها) از مواردی است که تمام موتورهای جستجو زمان و منابع و تلاش زیادی را برای آن بکار می گیرند.

پس بهتر نیست بجای صرف زمان و هزینه برای تولید محتواهای اسپم (که موتورهای جستجو آنها را دور می ریزند!)، روی استراتژی های بلندمدت و هدفمند و تولید محتوای مفید وقت بگذارید؟؟؟

۲- موتورهای جستجوی باهوش تر (Smarter Engines):

موتورهای جستجو، کارهای قابل توجه زیادی را در حوزه شناسایی مشاغل مقیاس پذیر و بکارگیری روش های هوشمندتر برای مبارزه با دستکاری اسپم ها انجام می دهند و بطور چشمگیری امکان گذاشتن تاثیر منفی بر روی الگوریتم های موردنظر را مشکل ساخته اند. معیارهایی مانند ابزار TrustRank وب سایت Moz و آنالیزهای آماری و داده های تاریخی ارزش جستجوی اسپم را کاهش داده اند و تاکتیک های سئوی کلاه سفید (White Hat SEO) را ایجاد کرده اند. منظور از سئوکاران کلاه سفید آنهایی می باشند که دستورالعمل ها و guideline های موتورهای جستجو را نقض نمی کنند. 

اخیرا، گوگل در آپدیت جدید الگوریتم پاندا، الگوریتم های پیچیده یادگیری ماشین (machine learning) را معرفی کرده است که با اسپم ها و صفحات بی ارزش یا کم ارزش مقابله کند و به همین ترتیب، موتورهای جستجو کماکان برای نمایش نتایج جستجوی باکیفیت به کاربران در حال نوآوری و تلاش می باشند.

 

الگوریتم های پیچیده یادگیری ماشین (machine learning)

 

مسلما ما پیشنهاد نمی کنیم روش های اسپم را بکار بگیرید اما برای کمک به خیل عظیم وب مسترانی که وب سایت شان توسط موتورهای جستجو (بویژه گوگل) اسپم شده و یا جریمه شدند، ارزشمند است که با فاکتورهایی که گوگل بعنوان اسپم می شناسد آشنا شوید. برای کسب اطلاعات تکمیلی در این زمینه می توانید به دستورالعمل های گوگل مراجعه کنید.

نکته مهمی که باید به یاد داشته باشید اینست که تکنیک های دستکاری و خرابکاری به شما کمکی نمی کند بلکه به مرور باعث جریمه شدن وب سایت شما و اسپم اعلام شدن آن می شوند.

 

 بخش سوم 

 

در بخش قبل، درباره جستجوی پولی (Paid Search) و اسپم موتور جستجو (Search Engine Spam) صحبت کردیم. در بخش سوم از فصل نهم آموزش سئو، مبحث آنالیزهای اسپم در سطح صفحه وب (page-level spam analysis) را مورد بررسی قرار خواهیم داد.

 

آنالیزهای اسپم در سطح صفحه وب (page-level spam analysis):

موتورهای جستجو چک کردن اسپم ها را هم در سطح یک صفحه وب انجام می دهند و هم در کل وب سایت. ما ابتدا یاد می گیریم که چگونه دستکاری های انجام شده در سطح URL را ارزیابی کنیم:

 

کلمات کلیدی زیاد (Keywords stuffing):

یکی از تکنیک های واضح اسپم در یک صفحه وب، استفاده بیش از حد و تکراری کلمات و عبارات کلیدی می باشد که بطور اشتباه تصور می شود با تکرار کلمات کلیدی، بیشتر می توانند باعث تاثیر روی موتورهای جستجو شوند! همانطور که در بالا مطرح شد، این روش بی فایده می باشد.

اسکن صفحه وب برای کلمات کلیدی اسپم کار چالش انگیز و سختی نمی باشد.

برای کسب اطلاعات بیشتر در این زمینه می توانید به بلاگ MattCutts (مدیر بخش اسپم شرکت گوگل) مراجعه کنید.

 

لینک دهی دستکاری شده (Manipulative Linking):

یکی از رایج ترین انواع اسپم در دنیای وب، تلاش برای استفاده از قانون محبوبیت لینک ها در موتورهای جستجو است که به منظور بهبود رتبه وب سایت (بصورت مصنوعی و تقلبی) انجام می شود. این موضوع یکی از سخت ترین موارد اسپم است که یافتن اسپم هایی از این نوع برای موتورهای جستجو مشکل می باشد زیرا به فرمت های مختلفی استفاده می شود. تعداد اندکی از روش های زیاد لینک دهی دستکاری شده عبارتند از:

– تبادل لینک متقابل (Reciprocal link exchange): در این روش، وب سایت ها، صفحه ای برای تبادل لینک ایجاد می کنند که لینک وب سایت های مورد تبادل را در آن درج می کنند و به همین شکل، وب سایت مقابل نیز لینک سایت اول را قرار می دهد. با تصور اینکه بر اساس قانون محبوبیت لینک، وب سایت بهینه تری داشته باشند. موتورهای جستجو، در نشانه گذاری و بی ارزش کردن اینگونه سایت ها تبحر خاصی دارند.

– لینک های خریداری شده (Paid links): وب سایت هایی که بدنبال ارتقاء رتبه سایت خود هستند، از وب سایت های دیگر، لینک هایی خریداری می کنند. این شکل از تبادل گاهی به شبکه ای از فروشندگان و خریداران لینک تبدیل می شود که موتورهای جستجو بطور جدی در پی جلوگیری از کار آنها می باشند.

– دایرکتوری لینک های بی کیفیت (Low quality directory links): این از موارد پرتکراری است که بسیاری از سئوکاران بعنوان منبعی برای دستکاری از آن استفاده می کنند. تعداد زیادی از وب سایت ها وجود دارند که بصورت رتبه-به ازای-پرداخت (pay-for-placement) فعالیت دارند و خود را قانونی و موجه نشان می دهند. گوگل اغلب با حذف کردن pagerank اینگونه سایت ها با آنها مقابله می کند اما با همه آنها اینگونه برخورد نمی کند.

 

روش های مختلفی برای ساختار لینک دهی وب سایت ها توسط موتورهای جستجو کشف شده است که در بسیاری از موارد، الگوریتم هایی تعریف کرده اند که تا حد زیادی جلوی تاثیر این روش ها را بگیرند. هنگامی که سیستم اسپم جدید گوگل معرفی شد، مهندسین گوگل توسط الگوریتم های هدفمند، مرور و بازخوانی توسط انسان ها و نیز مجموعه ای از گزارشات اسپم که وب مستران و سئوکاران گزارش می دهند، در حال مقابله با این روش ها می باشند.

 

 بخش چهارم 

 

در بخش قبل (بخش ۳ از قصل ۹)، آنالیزهای اسپم در سطح صفحه وب (page-level spam analysis) و کلمات کلیدی زیاد (Keywords stuffing) و لینک دهی دستکاری شده (Manipulative Linking) را بررسی کردیم.در این بخش، اثرات پنهان سازی محتوا (Cloaking) بر روی سئوی سایت و نیز صفحات کم ارزش (Low value pages) را بررسی خواهیم کرد.

 

پنهان سازی محتوا (Cloaking):

از اصول اولیه و اساسی سئو اینست که همان محتوایی را که به خزنده های موتور جستجو (Crawler) نشان می دهید همانی باشد که به کاربران وب سایت ارائه می کنید. به بیان دیگر، مطلبی را در کد html سایت خود پنهان نکنید که یک کاربر عادی نتواند آنرا ببیند.

 

پنهان سازی محتوا (Cloaking)

 

موتورهای جستجو این گونه از اسپم ها را Cloaking نامیده اند و اقداماتی برای جلوگیری از ارتقا رتبه این وب سایت ها انجام می دهند. عمل Cloaking می تواند به روش ها و اهداف مختلف و نیت های مثبت و منفی انجام شود. در مواقعی که این پنهان سازی باعث بهبود تجربه کاربری (User Experience-UX) شود، موتورهای جستجو ممکن است مانع اینکار نشوند. برای بالا بردن اطلاعات خود در این زمینه و نیز میزان ریسکی که ممکن است هر روش داشته باشد می توانید به مقاله White Hat Cloaking از وب سایت Moz مراجعه کنید.

 

صفحات کم ارزش (Low value pages):

اگرچه ممکن است اینگونه صفحات توسط موتورهای جستجو بعنوان اسپم شناخته نشوند، اما موتورهای جستجو این امکان را دارند که صفحاتی که محتوای یکتا (Unique) دارند را شناسایی کنند. انواع مختلف صفحاتی که می توانند کم ارزش و یا بی ارزش باشند عبارتند از: صفحاتی که بصورت داینامیک تولید می شوند که غالبا محتوای آنها یکتا نیست، صفاتی که محتوای تکراری دارند (Duplicate content)، صفحاتی که محتوای کم و وابسته دارند. موتورهای جستجو با آوردن این صفحات در نتایج جستجو مخالفند و روش ها و الگوریتم های زیادی برای شناسایی اینگونه صفحات بکار می گیرند.

الگوریتم پاندا در سال ۲۰۱۱ آپدیتی را شامل شد که از تعداد صفحات و وب سایت های کم ارزش و بی ارزش در دنیای وب کم کند و در آپدیت های بعدی نیز این مطلب مشاهده می شود.

 

آنالیزهای اسپم در سطح دامین (Domain-Level spam analysis):

موتورهای جستجو علاوه بر اسکن هر صفحه وب بطور جداگانه، می توانند رفتار و ویژگی های وب سایت ها را در سطح دامین و یا ساب دامین (domain یا subdomain) بررسی و شناسایی کنند و در مواقع لزوم، برچسب اسپم را روی هر کدام بزنند.

 

آنالیزهای اسپم در سطح دامین

 

تمرین لینک دهی (Linking Practice):

همانند صفحات جداگانه وب، موتورهای جستجو می توانند بر انواع لینک ها و نیز کیفیت وب سایت های مرجع لینک ها نظارت داشته باشند. وب سایت هایی که با دستکاری و تقلب در لینک دهی به سایت شان (manipulative linking) همانطور که در مقالات بالا ذکر شد، سعی در فریب موتورهای جستجو و یا میانبر زدن دارند، با افت شدید رتبه در نتایج جستجو و یا حتی ایندکس نشدن مواجه خواهند شد.

 

امانت (Trustworthiness):

وب سایت هایی که توانسته اند وضعیت معتبر و قابل اعتمادی بدست آورند، غالبا رفتارشان با سایر وب سایت ها متفاوت است. اگر وب سایت شما شامل مطالب کم ارزش و یا تکراری (کپی شده) است و لینک هایی از وب سایت های اسپم نیز خریداری نموده اید، بطور حتم رتبه سایت شما در نتایج جستجو با افت شدیدی روبرو خواهد شد. اما اگر همین مطالب را حتی با خرید لینک از سایت های اسپم، در وب سایت معتبر ویکی پدیا درج کنید، تاثیر خوبی برای سایت ویکی پدیا خواهد داشت (بدلیل قدرت و اعتبار دامین : Domain Authority-DA)

اعتبار (Trust) می تواند از طریق لینک های داخلی (inbound links) نیز تامین شود. فرض کنید در وب سایت شما تعداد کمی مقاله وجود دارد که تکراری و کپی می باشند. اما چندین سایت معتبر مانند CNN به سایت شما لینک داده باشند،  این باعث می شود تا اندک لینک هایی که از وب سایت های اسپم و بی ارزش دریافت کرده اید از طرف موتورهای جستجو نادیده گرفته شوند.

 

ارزش محتوا (Content Value):

همانطور که دیدیم، ارزش یک صفحه وب مجزا، بر اساس محتویات یکتا و غیر تکراری و نیز تجربه کاربری (UX) مربوط به آن صفحه ارزیابی می شود، همینطور برای ارزیابی کل دامین نیز این معیارها صادق هستند. وب سایت هایی که دارای صفحات بی ارزش و مقالات تکراری (duplicate) هستند، مطمئنا در نتایج جستجو دچار مشکل می شوند (حتی اگر این صفحات بخوبی برای موتورهای جستجو بهینه شده باشند). به بیان ساده، موتورهای جستجو مانند گوگل دوست ندارند ایندکس های خود را پر از صفحات ویکی پدیا کنند. بنابراین از روش ها و الگوریتم هایی برای جلوگیری از فعالیت اینگونه صفحات استفاده می کنند.

موتورهای جستجو بطور مدام و پیوسته در حال ارزیابی نتایج خود هستند. هنگامی که کاربری بعد از سرچ کردن عبارت موردنظر خود، و کلیک روی لینک یک وب سایت در لیست نتایج جستجو، بلافاصله دکمه بازگشت را می زند، موتور جستجو می فهمد که این وب سایت برای کاربر مفید واقع نشده و با انتظارات کاربر فاصله داشته است.

رتبه خوب داشتن برای یک کلمه و یا عبارت خاص در نتایج موتورهای جستجو به تنهایی کافی نیست. بلکه وقتی شما موقعیت وب سایت تان را در جستجو تثبیت کردید، باید بطور مداوم و مکرر آنرا ثابت کنید.

 

 بخش پنجم 

 

در بخش قبل، پنهان سازی محتوا (Cloaking) و صفحات کم ارزش (Low value pages) و آنالیزهای اسپم در سطح دامین (Domain-Level spam analysis) را بررسی کردیم. در این بخش، بیان می کنیم که چگونه می توان متوجه شد کارهای شما در زمینه بهینه سازی وب سایت تان اشتباه بوده است.

 

از کجا متوجه می شوید که کارهای شما برای سئوی سایت اشتباه بود است؟

متوجه شدن اینکه وب سایت تان توسط موتورهای جستجو جریمه (penalty) شده است مشکل است. ممکن است الگوریتم گوگل آپدیت شده باشد و تغییراتی کرده باشد. ممکن است تغییری که شما در بخشی از سایت تان و یا محتوای آن داده اید باعث افت رنکینگ سایت شما شده باشد. قبل از اینکه تصور کنید وب سایت شما جریمه شده است، موارد زیر را بررسی کنید:

 

  1. مرحله اول: رد کردن (Rule out): اگر سایت شما شامل موارد موجود در این مرحله نمی باشد، به مرحله دوم یعنی چک کردن و پیروی از فلوچارت (به منظور رفع جریمه) مراجعه کنید.

* خطاها (Errors): خطاهای احتمالی یک وب سایت ممکن است مانع پیمایش خزنده های موتور جستجو (Crawler) شود. ابزار Google Search Console می تواند در این زمینه مفید باشد.

* تغییرات (Changes): انجام تغییراتی در سایت و یا صفحات آن ممکن است باعث تغییر نحوه پیمایش آن توسط موتورهای جستجو شود (مانند تغییر ساختار لینک دهی، جابجایی محتوا و غیره).

* شباهت (Similarity): سایت هایی را که دارای پروفایل با اشتراک گذاری بک لینک هستند را چک کنید. ممکن است آنها نیز دچار افت رتبه شده باشند. هنگامی که الگوریتم های موتور جستجو آپدیت می شوند ممکن است باعث جابجایی اهمیت لینک ها شود که به تغییر رتبه منتج خواهد شد.

* محتوای تکراری (Duplicate Content): بسیاری از وب سایت ها با مشکل تکراری و کپی بودن مطالب شان مواجه هستند. بویژه در وب سایت هایی با مقیاس بزرگ این مشکل حاد تر است.

 

       2- چک کردن فلوچارت (Follow Flowchart):

 

چک کردن فلوچارت

 

ترجمه فلوچارت بالا:

 

چک کردن فلوچارت (Follow Flowchart)

 

 

نکته: برای کسب اطلاعات بیشتر در زمینه ارسال درخواست به گوگل برای بررسی مجدد وب سایت می توانید به این مقاله که از سری داکیومنت های گوگل است مراجعه کنید.

 

برداشتن جریمه ها از روی سایت (Getting penalties lifted):

ارسال درخواست بررسی مجدد و تجدیدنظر در مورد سایت مان به گوگل گاها کاری سخت و ناموفق می باشد. زیرا هیچ فیدبک و واکنشی مبنی بر تائید و یا عدم تائید مجدد سایت مان و دلیل آن به ما نمایش داده نمی شود. بنابراین مهم است که بدانیم به هنگام جریمه شدن سایت مان، چه کارهایی می توانیم انجام دهیم.

 

نحوه رفع جریمه‌های گوگل (Google-Penalty):

  1. اگر تاکنون در ابزار وب مستران گوگل (Google Webmaster Tool)، وب سایت خود را ثبت نام نکرده اید، حتما ثبت نام کنید. با اینکار یک لایه اعتماد بین سایت شما و موتور جستجوی گوگل ایجاد می شود.
  2. اطلاعاتی که از ابزار گوگل وب مسترز بدست می آورید را با دقت آنالیز کنید تا خطایی مبنی بر عدم دسترسی خزنده گوگل به صفحه یا صفحاتی از سایت تان و یا اسپم بودن آنها مشاهده نکنید. اکثر جریمه های اسپمی که وب سایت ها دچار آنها می شوند بدلیل همین عدم دسترسی Crawler ها می باشد.
  3. درخواست بررسی و تجدیدنظر را از طریق پنل سرویس گوگل وب مسترز ارسال کنید و نه از طریق فرم های عمومی (public). با اینکار، مجددا می توانید لایه ای از اعتماد را بین سایت تان و گوگل ایجاد کنید.
  4. شرح کارهایی که انجام داده اید (مانند لینک هایی که بدست آورده اید، چگونگی بدست آوردن آنها، چه کسی یا شرکتی آنرا به شما فروخته است و غیره) برای گوگل می تواند مهم باشد زیرا با استفاده از این اطلاعات، الگوریتم های خود را بهبود می بخشد.
  5. هر چیزی را که می توانید از سایت تان تصحیح و یا حذف کنید مانند لینک های بدی را که دریافت کرده اید، بهینه سازی افراطی و بیش از حد سایت تان (مانند keywords stuffing و …) را تصحیح کنید. بعد از اینکه تمام این کارها را انجام دادید، درخواست تجدیدنظر خود را برای گوگل بفرستید.
  6. برای انتظاری نسبتا طولانی آماده باشید، زیرا تجدیدنظر گوگل ممکن است هفته ها و حتی ماه ها طول بکشد. صدها و شاید هزاران وب سایت در طول یکهفته جریمه (penalized) می شود. بنابراین تصور صف انتظار طولانی، غیر منطقی نیست.
  7. اگر شما دارای برند و یا وب سایت معتبر و با ارزشی هستید، ترتیب اثر دادن به درخواست شما می تواند سریع تر انجام شود. مهندسین از تمام موتورهای جستجو بطور منظم در کنفرانس های صنعت جستجو (Search Industry) شرکت می کنند. مانند کنفرانس SMX و SES و …

"در نظر داشته باشید که رفع جریمه (penalty lifting) از تعهدات و مسئولیت های موتورهای جستجو نمی باشد. بطور قانونی آنها می توانند صفحه و یا سایتی را از نتایج جستجوی خود حذف کنند. شامل شدن (inclusion) در نتایج موتورهای جستجو یک امتیاز است و نه یک حق. بنابراین احتیاط کنید که از تکنیک هایی در سئوی سایت تان استفاده نکنید که باعث شود وب سایت تان دچار مشکل شود."

 

در مقاله بعد، با فصل دهم با موضوع اندازه گیری و پیگیری موفقیت (Measuring & tracking success) با شما خواهیم بود.


برچسب‌ها:

submit کردن urlآموزش سئوآنالیزهای اسپمپنهان سازی محتواتگ های متارفع جریمه‌های گوگلکلمات کلیدیموتورجستجوی بینگموتورهای جستجو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

یک × 3 =