الگوریتم های گوگل؛ تاثیر گذار بر دنیای سئو
به گزارش مجله ایرکا، با بیش از 2 میلیارد وبسایت و 2 تریلیون جستجو سالانه، موتور جستجوگر گوگل وظیفه پاسخ به سوالات و خواسته های میلیارد ها نفر را بر عهده دارد. چگونه این موارد را به برترین نحو مدیریت می نماید؟ چرا یک وبسایت در جستجوی یک کلمه در رتبه اول است و سایتی دیگر رتبه 90؟ پاسخ همه این ها در الگوریتم های گوگل نهفته است.
الگوریتم هایی که شاید اسامی جالبی مانند پاندا، پنگوئن، کبوتر و ... را داشته باشند اما حاصل چندین سال تحلیل و کوشش هستند و بعضا بسیار بیرحم با شما برخورد می نمایند!
در ادامه کمی در خصوص الگوریتم های مجذوب کننده گوگل و نحوه اثرگذاری آن بر سئو وبسایت صحبت می کنیم.
الگوریتم گوگل چیست؟
مجموعه پیچیده ای از الگوریتم ها که به کاربران یاری می نماید تا آنچه را که در جستجوی آن هستند را پیدا نمایند موتور جستجوی گوگل را شکل داده اند. این الگوریتم ها، همراه با سیگنال های رتبه بندی مختلفی در تمام طول روز فعال می شوند و با توجه به فاکتور های مختلف و متنوع، رتبه بندی را برای گوگل آسان تر می نمایند.
هر چند که بر اساس گفته گوگل، جزئیات این الگوریتم ها به علت امکان سوء استفاده وبمستران کلاه سیاه منتشر نمی گردد، اما بر اساس بنچ مارک و تجربه سئوکاران و نوشته های بخش وبمستر و دولوپر گوگل می توان نحوه عملکرد این الگوریتم ها را پیش بینی کرد. بطور کلی الگوریتم های گوگل بر اساس موارد زیر نتایج جستجو را دسته بندی می نمایند:
- هدف کاربر از جستجو این کلمه کلیدی چیست؟
- از صفحاتی که در ایندکس وجود دارد، کدام یک به این کلمه کلیدی نزدیک تر است.
- کیفیت صفحاتی که با این کلمه وجود دارند چگونه است؟
- قابلیت استفاده از صفحه چگونه است؟ سرعت، ریسپانسیو موبایل، خوانایی محتوا و ...
- تنظیمات اختصاصی مانند مکان فرد، تاریخچه جستجو های قبلی و ...
- کیفیت و کمیت بک لینک های دریافت شده از وبسایت های دیگر
- ساختار کلی سایت
الگوریتم های گوگل هر چند وقت یکبار آپدیت می شوند؟
الگوریتم های گوگل در طول سال ممکن است صد ها بار دچار به روز رسانی های کوچک و بزرگ بشوند اما تغییرات اساسی که به وسیله این آپدیت ها ایجاد می گردد را وبسایت MOZ با آدرس https://moz.com/google-algorithm-change دسته بندی نموده و به محض مشاهده نشانه هایی از تغییرات عمده در صفحات SERP آن را در وبسایت خود منتشر می نماید.
اعلام خبر عرضه این الگوریتم ها به وسیله خود گوگل با جزئیات هیچگاه منتشر نمی گردد اما در بعضی مواقع گوگل دستورالعمل هایی مانند E.A.T یا YMYL را در وبسایت خود منتشر می نماید تا وبمستران در آنچه گوگل می خواهد دقت بیشتری بنمایند.
اگر ورودی سایت به وسیله گوگل بعد از آپدیت الگوریتم کاهش یافت چه کنیم؟
اینکه بعد از هر آپدیت اصلی گوگل بعضی از سایت ها رتبه خود را از دست می دهند و بعضی رتبه بهتری پیدا می نمایند؛ کاملا طبیعی است و نباید به علت استرس و اضطراب، کار های زیادی روی سایت خود برای بهبود سئو انجام دهید. معمولا بعد از چند روز از افت وبسایت، بخشی از کلمات کلیدی رتبه های گذشته یا چند پله پایین تر از آن ها را کسب می نمایند و بعد از آن بهتر است بیشتر روی سئو داخلی و خارجی بصورت کلاه سفید سرمایه گذاری کنید.
ضمناً از دید گوگل بار های اعلام شده است که بعد از هر آپدیت الگوریتمی چیزی به عنوان بازگشت یا برطرف مشکل وجود ندارد و صرفا راه حل هایی برای بهبود شرایط وجود دارد.
برترین کار بعد از هر آپدیت، سر زدن به وبسایت های مرجع و انجمن های تخصصی سئو است تا نظرات باقی وبمستران در خصوص آخرین آپدیت گوگل را جویا شوید. وبسایت هایی مانند MOZ و SEJ معمولا بلافاصله بعد از هر آپدیت، نظرات، آمار ها و موارد قابل اشاره در خصوص آن الگوریتم را بیان می نمایند. (https://www.tributemedia.com/blog/google-algorithm-seo)
در این شرایط یاری گرفتن و دریافت مشاوره از شرکت سئو معتبر نیز یاری نماینده خواهد بود.
نکته ای که باید در نظر بگیرید این است که آپدیت های اخیر گوگل بیشتر به سرعت، ریسپانسیو بودن و موبایل فرندلی بودن وبسایت توجه دارند و معمولا وبسایت هایی که این موارد را رعایت می نمایند بعد از هر آپدیت، بهبود خوبی در ترافیک خود مشاهده می نمایند.
بنابراین به طور کلی اگر بعد از آپدیتی ضربه خوردید، بهتر است موارد زیر را در نظر داشته باشید:
- بهبود سرعت، مسائل سایت با موبایل و بطور کلی سئو تکنیکال
- آپدیت محتوای قدیمی
- بررسی و بررسی بک لینک های سایت و در صورت اسپمی بودن Disavow کردن آن ها
- بهبود سیستم A.T وبسایت
- نگاه بیشتر به احتیاج کاربر تا کلمات کلیدی
اصلی ترین الگوریتم های گوگل
پاندای گوگل
الگوریتم گوگل پاندا که در سال 2011 عرضه شد، جزو اصلی ترین الگوریتم های گوگل بود که بطور دقیق و بعد از 28 بار آپدیت در پی کیفیت محتوای فراوری شده در سطح اینترنت است. در واقع پاندا اولین کوشش رسمی گوگل برای پاکسازی فضای وب از اسپم، تکرار کلمات کلیدی و محتوای کپی و بی ارزش بود که حجم عظیمی از وبسایت های آن موقع را که با سئو کلاه سیاه رتبه گرفته بودند؛ مورد هدف قرار داد.
این الگوریتم هم اکنون نسبت به سال 2011 بسیار هوشمند تر شده و به بخشی از هسته الگوریتمی گوگل تبدیل شده است.
الگوریتم پنگوئن
پنگوئن گوگل برای جلوگیری از سوء استفاده از بنیان موتور جستجوی گوگل به بازی آمد. همانطور که می دانید ایده اصلی موتور جستجوی گوگل، رتبه بندی وبسایت ها بر اساس اندازه بک لینک ها و پیوند هایی بود که از وبسایت های دیگر به آن داده شده بود. در اصل اعتبار یک وبسایت از معرفی آن در سایت های دیگر پدید می آید.
اما این ایده بعد از چند ماه باعث ایجاد وبسایت های بسیار زیادی تحت عنوان لینک فارم یا ایجاد تکنیک های کلاه سیاه برای گرفتن بک لینک شد. به همین علت پنگوئن آمد تا با قدرت جلوی سوء استفاده از اساس ایده شکل گیری گوگل مقابله کند.
الگوریتم مرغ مگس خوار
از سال 2013 که گوگل این الگوریتم را بطور رسمی عرضه کرد امکان تشخیص مفهومی جستجو و گراف دانش برای این موتور جستجو فراهم شد. به این معنا که تا قبل آن تفاوتی بین شیر درنده و شیر آب و شیر خوراکی وجود نداشت و ممکن بود هر کدام از این مفاهیم در جستجو نشان داده می شدند اما بعد از مرغ مگسخوار، جستجوی معنایی در گوگل مفهوم پیدا کرد.
در این مقاله سه تا از مهم ترین الگوریتم های گوگل را توضیح دادیم اما توصیه می کنیم برای اشراف بیشتر روی این الگوریتم ها لینک منبع از ایران وب لایف را مطالعه نمایید.
منبع: انتخاب