الگوریتم های گوگل تعیین می کنند که کدام قسمت از محتوا بیشترین ارزش را برای کاربران فراهم می کند. همین توضیح کوتاه می تواند معرف قدرت گوگل و هوش مصنوعی گوگل باشد. لیست کاملی از الگوریتم های گوگل شامل الگوریتم پاندا ، پنگوئن ، دزد دریایی ، مرغ مگس خوار ، کبوتر ، به روز رسانی موبایل فرندلی ، الگوریتم رنک برین ، موش کور ، فرد و برت را برای علاقمندان سئو سایت معرفی و آماده کرده ایم.
در این مقاله پیش رو سعی کرده ایم ضمن معرفی الگوریتم های گوگل از خطرات و نحوه جلوگیری از جریمه شدن و پنالتی شدن توسط گوگل اطلاعاتی جامع و خلاصه بنویسیم تا با بررسی و تحلیل الگوریتم های گوگل بتوانید تصمیم بگیرید چه کاری بهتر است.
به یاد داشته باشید ، الگوریتم های گوگل حاصل هزاران ساعت تلاش و پشتکار تیم گوگل است و برای به کار گیری آنها هیچ تعللی نمی کند.
جالب است بدانید در تمام الگوریتم های گوگل تقریبا یک چیز مشترک است ، آن هم تولید محتوای با کیفیت است که همیشه مورد توجه گوگل بوده و هست.
الگوریتم پاندا
راه اندازی شده در تاریخ 24 فوریه 2011 عملکرد : ماهانه هدف: رتبه بندی سایت های با محتوای با کیفیت پایین
کیفیت محتوا به یک عامل رتبه بندی تبدیل شد. وبسایتها دیگر نمیتوانند محتوای بیکیفیت ایجاد کنند و انتظار رتبهبندی را داشته باشند. محتوای مرتبط برای رتبه بندی حیاتی شد. وب سایت هایی با محتوای کم کیفیت یا محتوای تکراری زیاد رتبه بندی خود را از دست دادند.
گوگل پاندا یکی از الگوریتم های گوگل که برای اختصاص جریمه به صفحات و سایتهای که کیفیت محتوا را رعایت نمی کنند و محتوای کم کیفیت، اسپم و یا بی ارزش استفاده می کنند.
در ابتدا، الگوریتم پاندا یک فیلتر بود، نه بخشی از الگوریتم اصلی گوگل، اما در ژانویه 2016، به طور رسمی در رتبه بندی الگوریتم های گوگل قرار گرفت.
در هر حال این بدان معنا است که الگوریتم پاندا در حال حاضر برای نتایج جستجو در لحظه استفاده می شود، نشان می دهد که هر دو توسط فیلتر کردن و بازیابی از الگوریتم پاندا در حال حاضر سریعتر از قبل اتفاق می افتد.
چه عملی شما را درگیر الگوریتم پاندا می کند؟
محتوای تکراری
سرقت ادبی
محتوای بی ارزش
هرزنامه تولید شده توسط کاربر
پر کردن صفحه با کلمات کلیدی
تجربه نادرست کاربر
چگونه با الگوریتم پاندا همراه شویم تا جریمه نشویم
1. محتوای تکراری را در سایت خود بررسی کنید. محتوای کپی شده داخلی، یکی از رایج ترین راهکارهای الگوریتم پاندا است، بنابراین توصیه می شود که بررسی سایت را به طور منظم انجام دهید تا اطمینان حاصل شود که مشکلات کپی محتوا وجود نداشته باشد.
2. بسیاری از سایت های تجارت الکترونیکی (مانند فروشگاههای آنلاین با هزاران صفحه محصول) همیشه نمیتوانند 100٪ محتوای منحصر به فرد داشته باشند.
اگر شما یک سایت تجارت الکترونیک را اداره می کنید، سعی کنید از تصاویر اصلی تا می توانید استفاده کنید و از نظرات کاربران استفاده کنید تا توضیحات محصول خود را از بین ببرید و صفحه متفاوتی داشته باشید.
3. محتوای بی کیفیت و کم ارزش را دوباره بررسی کنید و هم از نظر مقدار کلمات هم لینک های موجود در صفحه تصحیح کنید.
گوگل می گوید تعداد لینک های داخل یک صفحه باید زیر 100 لینک باشد و اگر یکی دیگر از سئوال های شما درباره این است که یک محتوا چقدر باید باشد خوب حداقل 250 کلمه ، اگر اینطور نیست پس شما احتمالا با الگوریتم پاندا درگیر می شوید.
4. لینک هایی خارجی را با تگ nofollow برچسب گذاری کنید.
الگوریتم پاندا نام یکی دیگر از الگوریتم های گوگل است که به شدت با کپی و محتوای با کیفیت پایین مبارزه می کند ، الگوریتم پاندا در ماه فوریه 2011 توسط گوگل معرفی شد.
نام “پاندا” از مهندس گوگل Navneet پاندا می آید، که تکنولوژی گوگل پاندا را توسعه داد.
با روی کار آمدن الگوریتم پاندا و بکار گیری آن در نتایج جستجو، با هدف کاهش رتبه سایت هایی که محتوا را کپی می کنند و یا سایت های کم ارزش از نظر محتوا با کیفیت پایین تغییر جدی در نتایج جستجوی گوگل اعمال شد.
موارد حساس در الگوریتم پاندا
در هر حال به نظر می رسد مواردی مانند : میزان ماندگاری کاربر در سایت ، میزان گردش در سایت ، میزان فرار از سایت ، شبکه های اجتماعی و برند سازی اینترنتی بیشترین تاثیر مثبت را در الگوریتم پاندا خواهند داشت.
گوگل تعیین کننده اثر محتوا در سئو سایت میباشد.
کمپانی گوگل در سال ۲۰۱۱ برای بهتر شدن کیفیت نتایج جستجوی کاربران ، الگوریتم پاندا را ارائه کرد.
با هدف کسب نتایج دقیق تر در جستجوی کاربران ، گوگل ۸ تغییر عمده را در این الگوریتم ایجاد کرد ، که این تغییرات استفاده از الگوریتم پاندا برای درجه بندی محتوای سایت ها در نتایج جستجو می باشد.
الگوریتم پاندا نه تنها سایت های با کیفیت پایین را هدف قرار می دهد بلکه به شدت با سایت هایی که از تبلیغات زیادی در صفحات سایت استفاده می کنند مبارزه می کند.
تغییرات پس از انتشار الگوریتم پاندا کاهش رتبه بندی تقریبا 12 درصد از کل نتایج جستجو را نشان می دهد که تحت تاثیر قرار گرفته اند.
الگوریتم پاندا از زمان انتشار اولیه در فوریه 2011 چندین بار به روز رسانی شده است و در آوریل 2011 تاثیر جهانی داشته است.
در حقیقت گوگل به دنبال آن است که توسط الگوریتم پاندا به سایت هایی با محتوای قوی اعتبار ببخشد بنابراین جهت گرفتن نتیجه بهتر در سئو حتما باید محتوای مناسب و غیر تکراری در سایت قرار گیرد.
فرایند الگوریتم پاندا
سئو سایت بر اساس گوگل پاندا ۵ راهکار کلی دارد:
افزایش زمان ماندگاری در سایت
افزایش گردش در سایت
کاهش فرار از سایت
شبکههای اجتماعی
برندسازی اینترنتی
بروزرسانی الگوریتم پاندا
برای دو سال اول انتشار الگوریتم پاندا، به روز رسانی Google Panda در حدود یک بار در ماه انجام شد، اما گوگل در ماه مارس 2013 اعلام کرد که به روز رسانی های آینده در الگوریتم یکپارچه شده و بنابراین کمتر قابل توجه و مداوم خواهد بود. گوگل با انتشار ” slow rollout ” Panda 4.2 را از تاریخ 18 ژوئیه 2015 آغاز کرد.
پرسشهای متداول الگوریتم پاندای گوگل
هدف گوگل پاندا چیست؟
هدف از گوگل پاندا ارتقا رتبه سایت هایی با کیفیت بالا و عقب راندن سایت هایی با کیفیت پایین در نتایج جستجو گوگل است.
محتوای ضعیف از نگاه پاندا چیست؟
محتوای ضعیف از دید پاندا یعنی صفحاتی با متن و منابع بسیار کم یا غیر متناسب
محتوای تکراری از دید پاندا چیست؟
محتوای تکراری به محتوای کپی شده ای اشاره دارد که در بیش از یک مکان در اینترنت پیدا می شوند؛ ایراد محتوای تکراری می تواند در وب سایت خودتان نیز اتفاق بیفتد، مانند وجود چندین صفحه با همان متن با تغییرات کم یا بدون تفاوت
محتوای کم کیفیت چیست؟
محتوای کم کیفیت صفحاتی هستند که به دلیل نداشتن اطلاعات تخصصی و کمک کننده برای خوانندگان ارزش کمی دارند.
نسبت بالای تبلیغات به محتوا در الگوریتم پاندا چیست؟
صفحاتی که بیشتر از تبلیغات پولی تشکیل شده اند تا محتوای اصلی.
عدم تطابق محتوا با نتیجه جستجو چگونه می تواند جریمه شود؟
صفحاتی که ظاهرا در نتایج جستجو صحبت از چیزی می کنند که در واقع پس از ورود کاربر به آن نتیجه عملی نمی شود. مانند صفحاتی که برای دانلود فیلم صحبت از لینک دانلود می کنند در صورتی که فیلم فوق حتی هنوز منتشر نشده و وقتی کاربر وارد آن صفحه می شود با صفحه ای بدون لینک مواجه می شود.
چگونه می توانم بدانم که من از پاندا ضربه خورده ام؟
یکی از علائم مجازات احتمالی پاندا ، افت ناگهانی در رتبه بندی و ترافیک ارگانیک وب سایت است که مشخصا از تاریخ بروزرسانی الگوریتم پیداست.
الگوریتم ونیز گوگل چیست؟
وقتی چیزی را جستجو میکردید، نتایج جستجو با در نظر گرفتن موقعیت مکانی شما شروع شد. این شروع سئو محلی مدرن است و به کسب و کارها کمک کرد تا ترافیک ارگانیک بیشتری را از جستجوگران محلی دریافت کنند.
بررسی الگوریتم های گوگل پنگوئن
راه اندازی شده در تاریخ 24 آوریل 2012 عملیات جریمه و تاثیر: 25 مه 2012؛ 5 اکتبر 2012؛ مه 22، 2013؛ 2013 اکتبر 4؛ 2014 اکتبر 17؛ 27 سپتامبر 2016؛ 6 اکتبر 2016؛ به صورت لحظه ای هدف الگوریتم پنگوئن : وب سایت هایی که رتبه بندی را با هرزنامه یا دستکاری مثلا در بک لینک های اسپم ایجاد می کنند هدف جریمه قرار می دهد.
بک لینک ها (لینک های یک وب سایت دیگر به وب سایت شما) از نظر کیفیت مورد بررسی قرار گرفتند. وب سایت هایی با تعداد زیادی لینک های اسپم و با کیفیت پایین جریمه شدند (حجم جستجو برای صفحات رتبه بندی شده آنها کاهش یافت). این به کسب و کارهایی که برای دریافت بک لینک به تکنیک های سئو کلاه سیاه متکی بودند آسیب زد.
الگوریتم گوگل پنگوئن نام یکی دیگر از الگوریتم های گوگل که بسیار مهم و حساس است و همچنین نام کد محرمانه این بروز رسانی که اولین بار در 24 آوریل 2012 معرفی شد.
به روز رسانی گوگل پنگوئن با هدف کاهش رتبه بندی سایت هایی که قوانین گوگل را نقض می کنند و با تکنیک های سئو کلاه سیاه قصد دارند با افزایش مصنوعی رتبه بندی یک سایت و دستکاری لینک های اشاره شده به یک صفحه در نتایج تغییر ایجاد کنند ارائه شد.
گوگل پنگوئن با هدف شناسایی و رتبه بندی سایت های که با روش های غیر اصولی بک لینک سازی می کنند و به نظر می رسد که نتایج جستجو را با استفاده از تاکتیک های کلاه سیاه دستکاری می کنند.
از اواخر سال 2016، الگوریتم پنگوئن بخشی از رتبه بندی گوگل شد و در لحظه عمل می کند ، این بدین معنی است که جریمه ها در حال حاضر سریعتر اعمال می شوند و بازیابی زمان کمتری نیز می گیرد.
خطاهایی که منجر به جریمه توسط الگوریتم پنگوئن می شود.
بک لینک های کیفیت پایین که از سایت های “اسپم” هستند
بک لینک هایی از سایت های ایجاد شده صرفا برای ساختن لینک های فروشی
لینک هایی از سایت های محلی به لحاظ بی اهمیت
لینک های پولی
بک لینک هایی با متن لینک بهینه سازی شده
چگونه می توانم جریمه نشوم
1. نظارت بر رشد بک لینک ها ، گوگل احتمالا یک سایت را برای یک یا دو بک لینک هرزنامه مجازات نمیکند، اما هجوم ناگهانی لینکهای سمی میتواند یک مشکل باشد.
به دنبال هر گونه تغییرات غیرمعمول در لینک های دریافتی کنسول جستجوی گوگل خود باشید و همیشه به لینک جدیدی که کسب می کنید نگاه کنید.
2. از لینک های مضر خلاص شوید.
در حالت ایده آل، باید سعی کنید درخواست های حذف لینک های هرزنامه در سایت خود را با تماس با مدیران سایت های سازنده بک لینک انجام دهید.
اما اگر لینکهای مخربی برای خلاص شدن از شر داشته باشید و یا اگر از وب مسترها نپذیرفتند، توصیه می شود که لینک ها را با استفاده از ابزار Disavow links گوگلکنار بگذارید.
به این ترتیب، هنگام ارزیابی لینک ، گوگل این لینک ها را نادیده می گیرد.
تأثیر گوگل پنگوئن بر نتایج جستجو
بر اساس تخمین های گوگل، الگوریتم پنگوئن تقریبا 3/1 درصد از نمایش های جستجو را به زبان انگلیسی، حدود 3 درصد از زبان های آلمانی، چینی و عربی و دیگر زبان ها را تحت تاثیر قرار داد.
در تاریخ 25 می 2012، گوگل پرده دیگری از به روز رسانی گوگل پنگوئن معرفی و منتشر کرد، نام این بروز رسانی جدید called Penguin 1.1 است.
به گفته مت کاتز، رئیس سابق بخش مبارزه با اسپم وب سایت گوگل در این بروز رسانی، کمتر از یک دهم درصد از جستجوهای انگلیسی را تحت تاثیر قرار داد.
الگوریتم پنگوئن
گوگل پنگوئن 3
الگوریتم پنگوئن 3 در تاریخ 5 اکتوبر 2012 منتشر شد و 0.3٪ از نتایج را تحت تاثیر قرار داد.
گوگل پنگوئن 4
پنگوئن 4 (همچنین به عنوان پنگوئن 2.0 شناخته می شود) در تاریخ 22 مه 2013 منتشر شد و 2.3٪ از نتایج را تحت تاثیر قرار داد.
الگوریتم پنگوئن 4 در سپتامبر 2016 یعنی اواخر شهریور 95 بروز رسانی شد و به واسط این آپدیت جدید گوگل در الگوریتم پنگوئن ، تغییرات بسیاری در نتایج جستجو گوگل اتفاق افتاد بطوریکه بسیاری از سایت هایی که در صفحه دو و سه بودند به صفحه اول منتقل شدند و نیز سایت هایی که در صفحه اول بودند به صفحات دو و سه رفتند. اما با توجه به اپدیت الگوریتم پنگوئن 4 چه تغییراتی در متریک های سئو سایت اتفاق افتاده است.
الگوریتم پنگوئن 4 در سئو سایت
الگوریتم پنگوئن 4 بک لینک ها و لینک های خارجی را مورد آنالیز قرار می دهد و در این میان لینک های اسپمی و نیز بک لینک های معتبر را تشخیص می دهد.
سایت هایی که به خرید بک لینک اقدام نموده اند در الگوریتم پنگوئن 4 با افت بسیاری روبه رو شده اند؛ پیش از این زمانی که شما بک لینک هایی را برای سایت خود تهیه می کردید گوگل این بک لینک ها را جمع آوری می نمود و پس از آنالیز آنها به تغییر رنکینگ شما اقدام می کرد که در الگوریتم پنگوئن 4 این تغییرات به صورت لحظه ای و سریع انجام می شود.
گوگل پنگوئن 5
پنگوئن 5 (همچنین به عنوان پنگوئن 2.1 شناخته می شود) در تاریخ 4 اکتبر 2013 منتشر شد و حدود 1٪ از نتایج را تحت تاثیر قرار داد و می توان گفت به روز رسانی نهایی الگوریتم گوگل پنگوئن در سال 2013 بوده است.
در تاریخ 21 اکتبر 2014،Pierre Far از گوگل تایید کرد که الگوریتم Penguin 3.0 “بروز رسانی” شده است ، اما هیچ سیگنال جدیدی اضافه نشده است.
در 7 آوریل 2015، جان مولر در hangout Google گفت که هر دو الگوریتم پنگوئن و الگوریتم پاندا “در حال حاضر به طور منظم به روز نمی شوند” و به روز رسانی ها باید به صورت دستی انجام شود.
هدف استراتژیک الگوریتم پاندا و الگوریتم پنگوئن نمایش وب سایت های با کیفیت در بالاترین نتایج جستجوی گوگل است؛ با این حال، رتبه سایت هایی که در نتیجه این به روز رسانی ها کاهش یافته است دارای مجموعه ای از ویژگی های مختلف هستند.
هدف اصلی Google Penguin spamdexing مبارزه با بمباران لینک های اسپم است.
پنگوئن 4.0 (7th Penguin update)
در تاریخ 23 سپتامبر 2016 گوگل اعلام کرد که گوگل پنگوئن در حال حاضر بخشی از الگوریتم اصلی است.
به این معنی که بروز رسانی الگوریتم پنگوئن در لحظه انجام می شود از این رو گوگل در مورد بازخوردهای آینده دیگر اعلامیه ای نخواهد داد.
بروز رسانی الگوریتم پنگوئن در لحظه یعنی چی؟
تاثیر لحظه ای نیز بدان معنی است که وب سایت ها در لحظه رتبه بندی آن ها تحت تاثیر قرار می گیرد.
پنگوئن 4.0 بر خلاف به روز رسانی های قبلی وقتی لینک های بد را پیدا می کند وب سایت را از بین نمی برد، در عوض، لینکها را با امتیاز منفی عقب میراند ، به این معنی که آنها را نادیده میگیرند و دیگر نمیتوانند به رتبه بندی وبسایت تاثیر گذار باشند.
اگرچه بک لینک به عنوان یکی از 200 عامل رتبه بندی در گوگل به شدت تاثیر گذار است ، اما هر بک لینکی مورد توجه قرار نمی گیرد و کیفیت بک لینک پس از این به روز رسانی اهمیت دارد.
فرم بازخورد و ابزار Disavow Links
ده روز پس از انتشار به روز رسانی الگوریتم پنگوئن ، گوگل یک فرم بازخورد را آماده کرد که برای دو دسته از کاربران طراحی شده است:
افرادی که می خواهند گزارش اسپم وب سایتی را که همچنان پس از تغییر الگوریتم جستجو تغییری در رتبه بندی نمی کند و کسانی که فکر می کنند سایتشان به طور ناعادلانه توسط به روز رسانی پنگوئن پنالتی شده است را گزارش کنند.
گوگل نیز از طریق Google Webmaster Tools یا همان کنسول جستجو یک فرم بازبینی به نام ابزار Disavow Links ارائه کرد.
در ژانویه 2015 جان مولر گوگل اعلام کرد که مجازات پنگوئن را می توان با نادیده گرفتن بعضی بک لینک ها برطرف کرد.
کارکردن با ابزار Disavow Google چگونه است؟
فرآیند معمول این است که لینک های بد را به صورت دستی ( یک فایل تکست ) با استفاده از ابزار Disavow Google جهت حذف اضافه کنید و سپس درخواست تجدید نظر را ثبت کنید.
استفاده از این ابزار باید توسط فردی متخصص انجام شود ، استفاده نادرست از این ابزار ممکن است به اعتبار سایت در گوگل صدمه وارد کند.
آقای مولر در این باره توضیح داد که این الگوریتم درصد لینکهای خوب را در مقایسه با لینک های بد تشخیص می دهد، بنابراین با ایجاد لینک های خوب تر ممکن است الگوریتم را به نفع شما به ارمغان بیاورد که منجر به بهبود رتبه می شود.
الگوریتم دزد دریایی
راه اندازی شده در تاریخ آگوست 2012 به کار گرفته شده در : اکتبر 2014 هدف: کاهش رتبه بندی سایت هایی که با گزارش های نقض حق نسخه برداری شناسایی می شوند.
به روز رسانی الگوریتم دزد دریایی گوگل برای جلوگیری از سایت هایی که چندین گزارش نقض حق نسخه برداری را از رتبه بندی خوب در جستجوی گوگل دریافت کرده اند طراحی شده است. اکثر سایت هایی که تحت تاثیر قرار می گیرند، وبسایت هایی هستند که نسبتا بزرگ و مشهور هستند و محتویات پراکنده (مانند فیلم ها، موسیقی ها و یا کتاب ها) را به صورت رایگان به بازدیدکنندگان ارائه می دهند، به ویژه سایت های تورنت
خطرات جریمه توسط الگوریتم دزد دریایی
محتوای بدون اجازه حجم زیاد گزارش های نقض حق نسخه برداری
چگونه جریمه نشویم
محتوای هیچکس و سایتی را بدون اجازه صاحب اثر توزیع نکنید.
الگوریتم مرغ مگس خوار
Hummingbird تاریخ شروع: 2013 اوت 22 هدف: درک بیشتر خواسته های کاربران و یافتن نتایج مرتبط تر با جستجوی سریع
این به روز رسانی تلاش کرد جستجوی صوتی و زبان طبیعی را در نظر بگیرد. گوگل به جای نگاه کردن به چند کلمه کلیدی در یک جمله یا عبارت، شروع به بررسی چگونگی ارتباط همه کلمات با یکدیگر کرد. این به کسب و کارهایی که در بهینه سازی کلمات کلیدی بهترین نبودند کمک کرد تا رتبه بهتری کسب کنند.
Google Hummingbird الگوریتم مرغ مگس خوار یک تغییر عمده الگوریتمی است که با تفسیر جستوجوها (به ویژه طولانی تر، جستجوهای مکالمه ای) و ارائه نتایج جستجو که با هدف جستجوگر منطبق است، به جای کلمات کلیدی خاص که در درون جستجو است متمرکز است.
در حالی که کلمات کلیدی درون جستجو همچنان مهم هستند، الگوریتم مرغ مگس خوار قدرت بیشتری را به معنی درک جستجو به عنوان یک معیار اضافه می کند. استفاده از مترادف با الگوریتم مرغ مگس خوار بهینه سازی شده است. به جای نتایج فهرست با دقیق کلمه کلیدی، Google نتایج بیشتر مربوط به موضوع را در SERPs نتایج جستجو نشان می دهد که لزوما کلید واژه ها را از پرس و جو در محتوای آنها ندارند.
خطرات جریمه توسط الگوریتم مرغ مگس خوار
هدفمند سازی کلمات کلیدی دقیق و بدون مطابقت پر کردن صفحه با کلمات کلیدی
چگونه می توانم از جریمه توسط الگوریتم مرغ مگس خوار جلوگیری کنم؟
1. تحقیق درباره کلمه کلیدی را گسترش دهید.با الگوریتم مرغ مگس خوار ، ایده خوبی است که به تمرکز بر جستجوهای مرتبط، مترادف ها و شرایط همکاری برای تنوع بخشیدن به محتوای خود تمرکز کنید، به جای آن که تنها به شرایط کوتاه مدت که از Google AdWords می خواهید استفاده کنید.منابع عالی از ایده های کلیدی دوستانه الگوریتم مرغ مگس خوار عبارتند از جستجوهای مربوط به Google، Google Autocomplete و Google Trends.
الگوریتم مرغ مگس خوار “Hummingbird” تغییر قابل توجه جستجوی گوگل در سال 2013 است.
دلیل انتخاب این نام برای الگوریتم جدید سرعت و دقت مرغ مگس خوار است.
این تغییر در تاریخ 26 سپتامبر 2013 توسط گوگل اعلام شد.
عملکرد الگوریتم مرغ مگس خوار
الگوریتم مرغ مگس خوار تاکید بیشتری بر نمایش داده های طبیعی دارد، این الگوریتم گوگل توانایی درک خواسته کاربران را فراهم کرده و به آن توجه بیشتری می کند تا کاربر را به بهترین نتیجه و مرتبط ترین نتیجه جستجو برساند.
مرغ مگس خوار وبمستران را تشویق می کند به جای استفاده از کلمات کلیدی بی ارزش به فکر تولید محتوا باشند و ارزش محتوای صفحه مورد توجه قرار دهند.
گوگل در یک رویداد مطبوعاتی در سپتامبر 2013 اعلام کرد از الگوریتم مرغ مگس خوار قبل از رونمایی برای حدود یک ماه قبل از اعلام استفاده کرده است.
به روز رسانی الگوریتم مرغ مگس خوار اولین بروز رسانی مهم الگوریتم جستجوی گوگل از زمان ارتقاء معماری جستجو “کافئین” در سال 2010 بود، اما حتی این محدودیت عمدتا به منظور بهبود فهرست بندی اطلاعات به جای مرتب سازی بر اساس اطلاعات محدود می باشد.
هدف الگوریتم مرغ مگس خوار
هدف از مرغ مگس خوار تاکید و تمرکز بر روی صفحاتی است که معنی و کلمات هم معنی با یک جستجو را شامل شود نه صفحاتی که تنها با چند کلمه مطابقت دارند.
جستجوی معنایی تلاش می کند تا نتایج جستجو را با زبان سؤالات کاربران اینترنت و فراتر از معانی کلمات کلیدی ، منطبق کند.
سئو سایت با اضافه کردن مرغ مگس خوار تغییر کرد، توسعه دهندگان وب و نویسندگان تشویق به استفاده از محتوای طبیعی به جای استفاده از کلمات کلیدی بی ارزش شدند.
ویژگی های بارز Hummingbird
یکی از اهداف اصلی Hummingbird ترجمه جستجوی معنایی از یک مفهوم به واقعیت بود و مطلبی که در نهایت به استاندارد جستجو تبدیل می شود.
این تلاش برای نزدیک تر کردن هدف واقعی جستجوها بود به گونه ای که ، برای جستجویی مانند مثال غذای چینی ، کاربر مجموعه ای از رستوران های محلی چینی را مد نظر دارد نه نتیجه بهترین مکان های زندگی مردم چین یا دیگر داده های نامربوط
چگونه می توان فهمید که آیا سایت من از Hummingbird ضربه خورده است؟
بعید به نظر می رسد که وب سایتها از این بروزرسانی تأثیرات منفی دیده باشند.
اگر وب سایت شما افت ترافیک یا رتبه بندی را تجربه کرده است یا فکر می کنید با Hummingbird این ضربه همراه بوده است ، حتما لیست کاملی از به روزرسانی های گوگل را بررسی کنید؛ شاید عامل دیگری مانند Panda یا Penguin بوده است.
توصیه مرغ مگس خوار
مرغ مگس خوار توصیه می کند که از ویژگی های فنی وب سایت مانند پیوند های داخلی صفحات ، تگ های عنوان ، آدرس های URL و تگ های HTML، و همچنین نوشتن محتوای با کیفیت بالا بدون کپی کردن استفاده شود.
در حالی که کلمات کلیدی در سئو هنوز هم مهم هستند، مرغ مگس خوار قدرت بیشتری به کلمات کلیدی بلندتر می افزاید و به طور موثر برای بهینه سازی محتوا به جای فقط کلمات کلیدی استفاده مترادف کلمات نیز بهینه شده است.
الگوریتم کبوتر
شروع بکار گیری اولیه : 2014 ژوئیه 24 (آمریکا) گسترش بکارگیری : 2014 دسامبر 22 (انگلستان، کانادا، استرالیا) هدف: ارائه نتایج با کیفیت بالا، مرتبط با جستجوی محلی
این به روز رسانی نتایج جستجوی محلی را بهبود بخشید و میزان در نظر گرفتن موقعیت مکانی برای نتایج جستجو را به روز کرد. کسبوکارهایی که به ترافیک جستجوی محلی متکی بودند سود بردند.
الگوریتم کبوتر گوگل (که در حال حاضر بر جستجوهای تنها به زبان انگلیسی تاثیر می گذارد) به طور قابل توجهی تغییرات نتایج را تغییر داد ، گوگل برای نمایش داده ها که در آن مکان جستجوگر نقش مهمی ایفا می کند، تغییر می کند. به گفته گوگل، الگوریتم کبوتر روابط نزدیک تر میان الگوریتم های محلی و الگوریتم اصلی ایجاد می کند، به این معنی که همان عوامل SEO اکنون برای رتبه بندی نتایج محلی و غیر محلی گوگل استفاده می شود. این بروزرسانی نیز از موقعیت و فاصله به عنوان عامل کلیدی در رتبه بندی نتایج استفاده می کند.
الگوریتم کبوتر منجر به کاهش معکوس (حداقل 50٪) در تعداد جستجو های محلی شد ، الگوریتم کبوتر به ارتقاء رتبه بندی سایت های دایرکتوری محلی بیشترین تاثیر را دارد و با اتصال گوگل و جستجوی نقشه گوگل به روش یکپارچه تر در آمد.
خطرات جریمه توسط الگوریتم کبوتر گوگل
صفحه به خوبی بهینه شده نشده باشد تنظیم نامناسب یک صفحه کسب و کار Google My Business ناسازگاری NAP عدم استناد در دایرکتوری های محلی (در صورت لزوم)
چگونه کار می کند
1. صفحات خود را به درستی بهینه کنید. ترجیحا از سئو محلی استفاده کنید،الگوریتم کبوتر همان معیار جستجوگر برای لیست های محلی را برای همه نتایج جستجوی دیگر گوگل به ارمغان آورده است.به این معنی است که کسب و کارهای محلی اکنون نیاز به سرمایه گذاری در تلاش برای بهینه سازی صفحه را دارند.
الگوریتم کبوتر نام کد دیگری از مجموعه الگوریتم های گوگل است که جهت رتبه بندی سایت ها از آن استفاده می شود ، تمرکز و کارایی این الگوریتم بر روی جستجوی محلی گوگل است.
این به روز رسانی در تاریخ 24 ژوئیه 2014 منتشر شد.
الگوریتم کبوتر نتایج را بر اساس مکان کاربر و فهرست موجود در دایرکتوری محلی تنظیم می کند.
تأثیر الگوریتم کبوتر بر نتایج جستجو
هدف از الگوریتم کبوتر این است که اولویت بندی نتایج جستجوی محلی را فراهم کند؛ این ویژگی هم برای کاربر و هم برای کسب و کارهای محلی بسیار مفید است.
در روز انتشار گوگل کبوتر ، واکنش های مختلفی از مدیران وب دریافت شد؛ برخی از کاهش رتبه بندی شکایت کردند در حالیکه برخی دیگر بهبود در رتبه بندی جستجو را گزارش دادند.
گوگل به منظور بهبود کیفیت جستجوی محلی و ارائه نتایج مرتبط تر به کاربران ، از عواملی مانند موقعیت مکانی و فاصله استفاده می کند.
این بروز رسانی لیست های محلی را در نتایج جستجو تغییر می دهد؛ همراه با این، سایت های دایرکتوری محلی ترجیح داده می شوند.
به طور معمول، گوگل 10 کسب و کار محلی را به ترتیب بر اساس جستجوی شما ارائه می دهد.
با به روز رسانی کبوتر ، در حال حاضر تنها 3 تا 4 کسب و کار ظاهر خواهد شد.
سئو سایت و الگوریتم کبوتر
سئو سایت و الگوریتم کبوتر از دیگر الگوریتم های پراهمیت در رنکینگ دهی سایت ها می باشد.
الگوریتم کبوتر جستجو محلی را مورد بررسی و توجه خود قرار می دهد.
در و اقع موقعیت مکانی که کاربر وارد گوگل می شود و کلمه کلیدی خاص را جستجو می کند مهم می باشد و در رنک دهی سایت ها اثر گذار است.
گوگل کبوتر در سئو
گوگل برای رضایت کاربران خود به موقعیت مکانی آنها توجه می کند و متناسب با آن سایت ها را رنک دهی می کند. برای مثال رنکینگ سایت ها در ایران در کلمه کلیدی مانند سئو سایت با رنک دهی سایت ها در کشور المان در همان کلمه کلیدی سئو سایت متفاوت می باشد.
اما با توجه به مطالبی که عنوان شد چگونه می توان موقعیت مکانی خود را به گوگل بشناسید تا در رنکینگ ، مقابل دیگر سایت ها جایگاه مناسبی را بیابید.
نقش الگوریتم کبوتر در سئو
الگوریتم کبوتر گوگل با توجه به موقعیت مکانی شما را رنک دهی می نماید.
بدین منظور می توانید موقعیت مکانی خود را در فوتر درج نمایید و یا موضوعاتی مرتبط به موقعیت مکانی خود ، نام شهر ، نام خیابان و غیره تولید نمایید.
گوگل مپ نیز ابزار گوگل برای شناساندن موقعیت مکانی می باشد و به واسط آن می توانید موقعیت مکانی خود را بشناسانید. برخی از کاربران نیاز و خواسته خود را براساس موقیعت مکانی جستجو می نمایند.
سئو محلی
برای مثال سئو در تهران و موارد مشابه برای شناساندن موقعیت مکانی شما به گوگل به واسط درج نمودن موقعیت در فوتر و نیز تولید محتوا مربوط بسیار کمک کننده خواهد بود.
الگوریتم کبوتر گوگل رضایتمندی بسیاری از کاربران گوگل را به دنبال داشته است و شما به عنوان وب مستر سایت می توانید از این فرصت بهره گیری نمایید و با شناساندن موقعیت مکانی خود رقابت را به نفع خود تمام نمایید.
اگر نمیدانید سئو محلی چیست ، پس بیشتر بدانید
به روز رسانی موبایل فرندلی
تاریخ شروع: 2015 آوریل 21 اهداف: صفحات سازگار با موبایل را در نتایج جستجو ارتقاء و رتبه بندی سایت ها را در تلفن همراه به عهده دارد و همچنین کاهش رتبه بندی صفحاتی که برای موبایل بهینه سازی نشده است.
به روز رسانی موبایل فرندلی گوگل (بعلاوه Mobilegeddon) به منظور اطمینان از اینکه صفحات بهینه سازی شده برای دستگاه های تلفن همراه در بالای جستجوی تلفن همراه رتبه بندی شده اند، و کاهش رتبه صفحاتی که سازگار نیستند. جستجوهای دسکتاپ توسط بروز رسانی موبایل فرندلی تحت تأثیر قرار نگرفته است.
به روز رسانی موبایل فرندلی گوگل یک فاکتور در سطح صفحه سایت ها است، به این معنی که یک صفحه از سایت شما می تواند به در نتایج تلفن همراه رتبه بالایی داشته باشد.
خطرات درگیری با به روز رسانی موبایل فرندلی گوگل
عدم وجود یک نسخه تلفن همراه از صفحه پیکربندی viewport نادرست محتوای نامشخص استفاده از پلاگین
چگونه با به روز رسانی موبایل فرندلی همراه شویم
1. توصیه گوگل طراحی سایت ریسپانسیو است. گوگل همچنین دارای مشخصه های تلفن همراه برای پلتفرم های مختلف وب سایت است تا تلفن های همراه را برای مدیران وب آسان تر کند.
2. آزمایش تست همراه را انجام دهید. رفتن به تلفن همراه همه چیز نیست – شما همچنین باید معیارهای سازگاری Google را برای ارتقاء رتبه در تلفن همراه SERPs منتقل کنید.
الگوریتم رنک برین
RankBrain تاریخ شروع: 2015 اکتبر 26 (احتمالا قبل از آن) هدف: نتایج جستجوی بهتر را براساس ارتباط و یادگیری ماشین تحویل می دهد.
این بهروزرسانی یادگیری ماشینی به Google کمک کرد تا با مقایسه کلماتی که نمیدانست و کلماتی که میدانست، سؤالاتی را که قبلاً ندیده بود، درک کند. نتایج جستجوهای جستجو دقیق تر شد و به کسب و کارهایی که در سئو یا تطبیق دقیق کلمات کلیدی بهترین نبودند کمک کرد.
الگوریتم رنک برین یک سیستم یادگیری ماشینی است که به گوگل کمک می کند تا معنای واقعی نمایش داده شده را رمزگشایی کند و نتایج جستجوی خود را مطابق با آن ها ارائه دهد.
زمانی که الگوریتم رنک برین برای اولین بار اعلام شد، گوگل آن را سومین عامل مهم رتبه بندی نامید. احتمالا الگوریتم رنک برین می تواند به نحوی خلاصه آنچه در مورد یک صفحه است ارزیابی و ربط نتایج را نمایش دهد.
درک مشترک این است که الگوریتم رنک برین ، بخشی از عوامل سنتی SEO (لینک ها، بهینه سازی صفحه، و غیره) است، اما همچنین به عوامل دیگری که خاصیت جستجو دارند نگاه می کند. سپس، آن ویژگی های مرتبط را در صفحات شاخص نشان می دهد و نتایج را به ترتیب در SERPs مرتب می کند.
خطراتی که در صورت رعایت نکردن آن ها با الگوریتم رنک برین گوگل مواجه می شوید
فقدان ویژگی های ارتباطی مربوط به جستجو تجربه بد کاربر
چگونه می توانم کنترل کنم
1. به حداکثر رساندن تجربه عالی کاربر ( کاهش نرخ فرار )، بهینه سازی برای بهبود تجربه کاربر نمی تواند شما را در نتایج جستجو رتبه بندی کند.
تجربه کاربر عواملی مانند سرعت بارگزاری صفحه و مدت زمان حضور کاربر است. در حالی که هیچ مقادیری که به طور کلی برای نگه داشتن آن وجود ندارد
در نظر داشته باشید که میانگین سرعت خواندن 650 کلمه در دقیقه است. از این به عنوان راهنمایی در ارزیابی میزان بازدیدکنندگان در صفحات خود استفاده کنید و ببینید آیا میتوانید با تنوع بخشیدن به محتوای خود، از جمله تصاویر و ویدیوهای بیشتر، بهبود یابید. علاوه بر این، صفحاتی را که بهترین معیارهای تعامل را دارند، بررسی کنید همچنین از خلاقیت خود استفاده کنید.
2. اعتقاد بر این است که الگوریتم رنک برین با شناسایی ویژگی های مربوط با جستجو از صفحات وب است و از این ویژگی ها به عنوان سیگنال برای رتبه بندی صفحات در نایج جستجو استفاده می کند. این ویژگی ها می توانند به معنای واقعی کلمه هر چیزی در صفحه باشد که می تواند تاثیر مثبتی بر تجربه کاربر داشته باشد. برای مثال شما، صفحات با محتوای بیشتر و عناصر تعاملی بیشتری استفاده می کنید ممکن است موفق تر باشید.
الگوریتم موش کور
Possum آغاز شده: 1 سپتامبر 2016 هدف: ارائه نتایج بهتر، متنوع تر بر اساس مکان جستجوگر و آدرس کسب و کار
به روز رسانی الگوریتم موش کور نام تعدادی تغییر در فیلتر رتبه بندی گوگل است. پس از الگوریتم موش کور ، گوگل نتیجه های متنوعی را بر اساس موقعیت فیزیکی جستجوگر (بیشتر از آنچه شما به طور خاص از یک کسب و کار خاص به صورت فیزیکی برخوردار است، بیشتر احتمال دارد که آن را در میان نتایج محلی مشاهده کنید)، و نتایج پرس و جو (حتی تغییرات نزدیک هم اکنون نتایج مختلفی تولید می کند).
به طور متناقض، الگوریتم موش کور همچنین به کسب و کارهایی که در خارج از محدوده شهر فیزیکی قرار دارند، تقویت کرده است. (قبلا، اگر کسب و کار شما به طور فیزیکی در شهر مورد نظر شما واقع نبود، تقریبا هرگز در نتایج محلی قرار نمی گرفت؛ در حال حاضر این مورد دیگر نیست). علاوه بر این، کسب و کارهایی که یک آدرس را با یک کسب و کار دیگر از یک مشابه به اشتراک می گذارند اکنون ممکن است در نتایج جستجو رتبه بندی نشود.
خطرات جریمه شدن توسط الگوریتم موش کور
اشتراک یک آدرس فیزیکی با یک کسب و کار مشابه رقبا که آدرس کسب و کار نزدیک به محل جستجوگر است
الگوریتم فرد
راه اندازی شده در تاریخ 8 مارس 2017 هدف: فیلتر کردن نتایج جستجو با کیفیت پایین که هدف آن تنها تولید تبلیغات و به درآمد وابسته است.
آخرین به روز رسانی تایید شده گوگل، فرد نام دارد که نام خود را از Gary Illyes گوگل دریافت کرده است، که به شوخی پیشنهاد کرد که تمام به روز رسانی ها به نام “فرد” نام گذاری شود. گوگل تایید کرد و به روز رسانی انجام شد، اما حاضر به بحث در مورد مشخصات آن نیست، اما به سادگی می توان پی برد سایت هایی اهداف فرد هستند که دستورالعمل های وب سایت گوگل را نقض می کنند
با این حال، مطالعات سایت های در معرض خطر نشان می دهد که اکثریت قریب به اتفاق سایت های محتوا (اغلب وبلاگ ها) با مقالات با کیفیت پایین در طیف گسترده ای از موضوعات است که به نظر می رسد بیشتر به منظور ایجاد درآمد تبلیغ یا وابسته ایجاد شده اند.
خطرات
محتوای کم ارزش و تبلیغات محور در میان محتوا محتوای ضعیف و صفحه سنگین و شلوغ
چگونه می توانم درگیر الگوریتم فرد نشوم
1. مرور و رعایت دستورالعمل های Google ، این کار ممکن است در ظاهرا بیهوده به نظر برسد، اما بازبینی دستورالعمل های گوگل وب مستر و راهنمای جستجوی کیفیت گوگل (به ویژه آخرین ها) اولین قدم برای حفظ امنیت سایت شما از الگوریتم فرد است.
به روز رسانی و آپدیت گوگل چیست؟
گوگل به طور مداوم الگوریتم های خود را به روز رسانی می کند. تغییر در الگوریتم های پاندا ، پنگوئن که از مهم ترین و تاثیرگذارترین الگوریتم های گوگل می باشند موجب تغییر در نتایج گوگل می شود و به واسط آن متریک های سئو سایت و نیز رنکینگ سایت ها تغییر می کند. در ادامه به بررسی بیشتری در خصوص به روز رسانی و آپدیت های مدام گوگل خواهیم پرداخت.
آپدیت 2016 گوگل در سئو
گوگل برای رضایتمندی کاربران خود به طور مداوم الگوریتم های خود را آپدیت می کند و یا الگوریتم های جدیدی را در اصول سئو سایت خود قرار می دهد که به عنوان متریک تاثیرگذار در سئو سایت مطرح می شوند. علاوه بر ایجاد الگوریتم های جدید ، گوگل الگوریتم های موجود خود را نیز تغییر می دهد و به روز رسانی می نماید که در آن درصد تاثیرگذاری آیتم ها را با اندکی تغییر روبه رو می نماید.
به روزرسانی پایگاه داده در گوگل
گوگل علاوه بر الگوریتم های خود دیتابیسی که از سایت ها دارد را نیز به روز رسانی می نماید. این دیتا بیس از سایت می تواند به مواردی همچون تعداد بک لینک های گذاشته شده ، پروفایل کاری وب سایت ها ، تعداد صفحات ایندکس شده منتهی شود که این خود در روند سئو سایت ها تاثیرگذار می باشد.
در واقع به طور مداوم خواهید دید که رنکینگ سایت ها و سئو سایت ها تغییر می نماید زیرا که گوگل به طور مداوم دیتابیس خود از وب سایت ها را به روز رسانی می نماید.
دلیل افت یکباره برخی وب سایت ها نیز می تواند در همین باشد که گوگل پایگاه داده خود را به روز رسانی می نماید و اگر سایت شما نسبت به دیگر رقبا عملکرد بسیار ضعیف تری داشته باشد در نتیجه با افت بسیاری روبه رو می شود .
الگوریتم Hilltop یا الگوریتم تپه چیست؟
الگوریتم Hilltop یا الگوریتم تپه یکی دیگر از الگوریتم های گوگل می باشد که هدفش پیدا کردن اسناد درباره یک کلمه کلیدی خاص می باشد.
کار کردن با الگوریتم هیلتاپ ، تمرکز خاص و درک بالایی از عملکرد آن می طلبد تا بتوان از آن در سئو سایت بهره ببرید ، اگر بتوان الگوریتم تپه را به درستی درک کنید تاثیر مثبتی در سیگنال ارتباط و رتبه سایت در هنگام سئو گذاشته اید.
الگوریتم تپه توسط Krishna Bharat ساخته و سال 2003 توسط گوگل خریداری شد.
الگوریتم تپه
عملکرد الگوریتم Hilltop
نحوه کار الگوریتم تپه به این صورت است که وقتی یک کلمه کلیدی در جستجو انجام می شود ، الگوریتم Hilltop جهت مفید شدن نتیجه جستجو به کار می افتد تا نتیجه بهبود یابد.
در واقع این الگوریتم با توجه به اسناد تخصصی کار می کند و لینک هایی که به موضوعات خاص و غیر وابسته هستند را لیست می کند ، این نتایج ارتباطی بین صفحات تخصصی و معتبر هستند که اسناد به آن ها پیوند خورده است.
از نگاه دیگر این الگوریتم صفحه ای را مد نظر دارد که درباره یک موضوع خاص که به صفحات غیر وابسته لینک داده است و در واقع به صفحات مرجع لینک داده است و خود صفحه مرجع شده است.
ما اعتقاد داریم گوگل پس از پیدا کردن صفحات تخصصی ، صفحاتی که لینک داده شده است در صفحه خاص را معتبر شناخته و رتبه بندی می کند.
از نظر الویت جستجو ، الویت با صفحه تخصصی و سپس با لینک هایی می باشد که در آن صفحه لینک داده اند.
سایتهایی نظیر یاهو ، DMOZ و یا سایتهای دانشگاهی نمونه هایی از سایت های تخصصی هستند ، برای همین است که برخی لینک های دانشگاهی را معتبرترین لینک برای بک لینک می شناسند ، اما این تنها یک فرضیه است و ما هنوز آن را رد یا تایید نمی کنیم.
الگوریتم Hilltop یا الگوریتم هیلتاپ تاثیر زیادی بر نتایج جستجو گذاشته ، به نحوی که بسیاری از افراد به گمان اینکه بک لینک گرفتن از دامنه های edu می تواند باعث ارتقا رتبه در گوگل باشد اقدام به خرید بک لینک از سایت های edu می کنند ، اما امروزه دیگر این الگوریتم کارایی و تاثیر قبل را ندارد.
جهت مرجع شدن و بهره گرفتن از این الگوریتم بهتر است با نوشتن مقالات بالای 2000 کلمه مرجع باشید و به سایت های معتبر مربوط لینک دهید.
بروز رسانی هسته الگوریتم گوگل
بروز رسانی هسته الگوریتم گوگل به تازگی باعث افت و ارتقا بسیاری از وب سایت ها شده اما این اولین بار نیست که گوگل با بروز رسانی الگوریتم های خود باعث جنجال می شود.
این روز ها کمتر کسی است که یک وب سایت داشته باشد و متوجه این بروز رسانی نشده باشد ، به نظر می رسد بیشترین وب سایت هایی که متوجه این آپدیت الگوریتم شده باشند در دسته پزشکی قرار دارند ، بررسی های آپسئو نشان می دهد بیشتر تاثیر این بروز رسانی واقعا در دسته پزشکی می باشد.
داستان آپدیت های الگوریتم گوگل به سال 2000 بازمیگردد ، آن زمان گوگل با ایجاد فرمول های پیچیده سعی کرد از سوء استفاده برخی وب سایت ها و تغییر در نتایج جستجو ، که محتوای آن ها با جستجوی کاربران بی ارتباط بود را بگیرد.
گوگل سختگیرانه سعی می کند بر اساس یک چهار چوب ؛ وب سایت ها را مجبور کند ضمن اصلاح موارد مورد تاکید خود ، کیفیت وب سایت ها را بالا ببرد.
به روز رسانی الگوریتم گوگل
در سال 2002، گوگل شروع به اجرای نخستین مجموعه از به روز رسانی الگوریتمی و الزامات برای مرتب سازی و رتبه بندی وب سایت ها کرد؛ مدیران وب سایت ها اکنون نمیتوانند با بک لینک و پر کردن وب سایت از کلمات کلیدی وب سایت خود را در نتایج بالا ببرند ، در عوض، آنها مجبور هستند مطالب مفید و مربوطه را برای کاربران ایجاد کنند.
تاکید بر محتوای کاربر پسند در سال 2013 ادامه یافت، هنگامی که گوگل با به روز رسانی الگوریتم کبوتر خود را معرفی کرد.
یک جزء مهم از به روز رسانی الگوریتم کبوتر گوگل به نام RankBrain نامیده می شود.
RankBrain هوش مصنوعی (AI) است که به موتورهای الگوریتم جستجوی گوگل اجازه می دهد تا به طور دقیق تر جستجوهای پیچیده و قصد کاربران در پشت جستجوهای خود را تفسیر کنند.
بروز رسانی هسته الگوریتم گوگل انجام شد.
دقیقا 10 مرداد 97 بود که گوگل در یک پست تیوتر اعلام کرد هسته الگوریتم گوگل را آپدیت کرده است؛ متاسفانه این بروز رسانی موجب شد بسیاری از وب سایت ها از جایگاه خود خارج شوند ، این شدت سختگیری در بروز رسانی هسته الگوریتم گوگل به حدی بود که بسیاری از وب سایت ها تقریبا بازدیدشان به صفر رسید.
مشخص نیست دقیقا گوگل از این بروز رسانی چه هدفی داشته ، نامی که روی این بروزرسانی الگوریتم می توان گذاشت Medic Updates است، اما گوگل توضیحات بیشتری را ارائه نکرده است ، ما معتقدیم این بروز رسانی بیشترین تمرکز خود را بر روی هدف جستجو قرار داده ، به این صورت که اگر کاربری کلیدواژه مثلا ” ایمپلنت ” را جستجو کرد به نتایج علمی تری برسد نه وب سایت های تجاری مانند پیامک های مزاحم.
در هر حال ما در مجموعه آپسئو سعی می کنیم با آزمون و خطا هزاران سایت توضیح شفاف تر و راه کار پایدار تری را برای ارتقا وب سایت هایی که علاقمند هستند سئو سایت خود را بهبود ببخشند آماده کنیم.
محتوا را برای بازگرداندن به نتایج الگوریتم آگوست به روز رسانی کنید
در 2 ماه گذشته خبر بروز رسانی هسته الگوریتم گوگل جنجالی شد و باعث افت و کاهش ترافیک بسیاری از سایت ها شد ، اما به تازگی گوگل بروز رسانی جدیدی در 27 سپتامبر انجام داده که نشان میدهد ادامه بروز رسانی قبلی باشد.
اگر در ارتباط با موضوع بروز رسانی هسته الگوریتم گوگل چیزی نمی دایند بهتر است این مطلب را مطاله فرماید.
هر چند در تصمیم گیری خیلی زود است اما به اتفاقی که در این رابطه افتاده و همچنین گزارش ما در این رابطه توجه فرماید.
محتوا را برای بازگرداندن به نتایج الگوریتم آگوست به روز رسانی کنید ، این پاسخ جان مولر است که وقتی یکی از صاحبان وب سایت ها در Hangout Central Webmaster پرسیده بود : چه مدت می توان منتظر ماند و تغییرات سایت را دید ، چه کاری برای رفع مشکل بکنیم و چقدر زمان میبرد؟
و جان مولر از گوگل پاسخ آن را این گونه داده است : محتوا را برای بازگرداندن به نتایج الگوریتم آگوست به روز رسانی کنید
مشخص نیست دقیقا چه بروزرسانی مد نظر گوگل است اما به نظر میرسد پیشنهاد ساخت محتوای مناسب تر است.
گوگل این گونه توضیح می دهد و به نظر میرسد بیشتر نگران محتوای تولیدی سئو کارها است.
بنا به گفته گوگل ، نیازهای مردم تغییر می کند، بنابراین احتمالا ارتباط محتوای سایت در طول زمان کاهش یافته است ، صاحبان سایت باید نگاه صادقانه به محتوایی که در رتبه بندی پس از به روز رسانی اوت کاهش یافته داشته باشند.
با این حال، حتی پس از بهبود ممکن است گوگل هنوز زمان زیادی برای پردازش تغییرات داشته باشد.
مولر توضیح می دهد که این یک روند مداوم با هیچ زمان بندی ثابت نیست.
بنابراین مهمترین چیزهایی که صاحبان سایت می توانند انجام دهند این است که ارتباط محتوای را بهبود بخشد.
گوگل می گوید : به طور کلی، به روز رسانی های بزرگتری که ما انجام می دهیم در به روز رسانی موضوع اصلی این نیست که ما به سایت ها نگاه متفاوتی می کنیم :” مثلا این بد است و یا این باید ثابت کند خوب است “
این کارها زمان میبرند و هیچ زمانبندی مشخصی برای آن وجود ندارد؛ اساسا نوعی فرآیند مداوم است که در آن صفحات را بررسی می کنیم، ما آنها را پردازش می کنیم، ما آنها را دوباره نشان می دهیم، سیگنالهایی را که در آنجا وجود دارد، مجددا اعطا می کنیم و این نوعی در حال انجام است.
این نیست که یک جدول زمانی ثابت وجود دارد که ما می توانیم بگوییم “در این مرحله، همه چیز باید به روز شود.”
سایت خود را با بروز رسانی های دائمی الگوریتم های گوگل تطبیق دهید
بروز رسانی های دائمی الگوریتم های گوگل مهم است ، زیرا گوگل دائما الگوریتم جستجوی خود را بروز رسانی می کند. برای مثال در 23 فوریه سال 2016 گوگل تغییراتی اساسی در آگهی های تبلیغاتی و یا Ads ایجاد نمود، ستون سمت راست صفحه نتایج جستجو را به صورت کلی حذف نموده و آگهی ها را در بالای نتایج جستجو قرار داد.
این تغییرات تاثیر چشم گیری در CTR (نرخ تبدیل بازدیدکنندگان به مشتریان) هم برای آگهی های تبلیغاتی و هم برای سایر صفحاتی که به صورت ارگانیک در نتایج جستجو رتبه بندی می شوند، ایجاد نمود، مخصوصا در موارد مربوط به کلیدواژه هایی که نرخ جستجوی آنها بسیار زیاد است و رقابت شدیدی در آن ها وجود دارد.
چنین تغییراتی به وفور در گوگل اتفاق می افتند، آگاهی از آنها و به روز رسانی سریع وب سایت ها برای تطبیق دادن خود با این تغییرات باید در استراتژی رتبه بندی وب سایت ها، حتما لحاظ شود.
با بروز رسانی های دائمی الگوریتم های گوگل از دستور العمل های گوگل پیروی کنید
سعی کنید با بروز رسانی های دائمی الگوریتم های گوگل ، دستورالعمل های گوگل را دقیقا اجرا کنید و از خط قرمز های تعیین شده گوگل فراتر نروید.
گوگل نسبت به استفاده از روش ها و استراتژی هایی که آنها را غیر مجاز اعلام کرده است واکنش بسیار شدیدی نشان می دهد پس سعی کنید که به هیچ وجه از تکنیک های غیر مجاز استفاده نکنید.
به کارگیری روش های گمراه کننده ای که نام آنها در آپسئو ذکر نشده است نیز می تواند برای شما نتایج زیان باری به همراه داشته باشد.
به خاطر داشته باشید که هنگام ایجاد صفحات مختلف در وب سایتتان پیش از موتورهای جستجوگر، کاربران را مدنظر داشته باشید زیرا پیش از همه شما این صفحات را برای کاربران ایجاد می کنید نه برای موتورهای جستجوگر. هیچ گاه کاربران خود را فریب ندهید و از ترفند های غیر مجاز برای بهبود رتبه وب سایت خود استفاده نکنید.
برای آنکه بدانید روش هایی که به منظور بهبود رتبه بندی وبسایت خود استفاده نموده اید روش های درستی بوده اند یا خیر، با خود فکر کنید که آیا شما حاضرید به یک فرد متخصص و یا یک نفر از کارمندان گوگل توضیح دهید که در میدان رقابت با رقیبانتان از چه روش هایی برای پیشی گرفتن از آنها استفاده کرده اید؟
سوال دیگری که در این زمینه مطرح میشود این است که: ” آیا این دستور العملها به نفع کاربران ما هستند؟ آیا اگر موتورهای جستجوگر نبودند و ما به آنها نیاز نداشتیم باز هم انجام این کارها سودی برای ما و کاربران ما داشت؟”
گوگل محبوبترین و مشهورترین موتور جستجوگر در میان کاربران اینترنت است و به همین دلیل است که ما بیشتر بر روی دستورالعمل های گوگل تاکید میکنیم. تا زمانی که شما به کمک و همکاری گوگل نیاز دارید، باید محتاط باشید و دستورالعملهای آن را مو به مو اجرا کنید.
با وجود آنکه اکثر افراد فکر میکنند که صفحات وبسایت آنها در کسب شهرت و ارتقاع تجارت آنها بسیار مهم است، این کلیدواژه ها و شکل به کارگیری آنها و رتبه بندی وبسایت است که موفقیت و یا عدم موفقیت یک تجارت را تعیین میکند.
برای آنکه یک نام شناخته شده در صنعت و تجارت بدست آورید، مهمترین پارامتر این است که وبسایت شما با عبارات مورد جستجوی کاربران مرتبط باشد و شما قادر باشید پیشبینی کنید که کاربران چه عباراتی را جستجو میکنند و از جستجوی آنها چه هدفی دارند، تا در نتایج جستجو برای کاربران وب سایتتان همان چیزی را که آنها انتظار دارند، به آنها عرضه کنید.
شناسایی الگوریتم و روبات های گوگل و تاثیر در سئو سایت
شناسایی روبات های گوگل در سئو سایت بخش اصلی جهت اجرایی کردن بهینه سازی سایت می باشد. روبات های گوگل در واقع جز اجزا هوشمند گوگل محسوب شده که در سراسر اینترنت به حالت خزنده حرکت کرده و از طریق لینک ها از صفحه ای به صفحه دیگر جهش می کنند.
کار روباتهای گوگل فهرست کردن صفحات وب سایت ها میباشد. گوگل با توجه به اطلاعاتی که این روباتها جمع آوری میکنند استفاده نموده تا از این طریق به صفحات سایت در ارتباط با عبارتهای گفته شده رتبه بدهد.
امروزه گوگل بیش از گذشته بر محتوای سایت ها تسلط پیدا کرده و روباتهای آن در سراسر سایت ها خزیده و اطلاعات را تحلیل و در سطح وسیع آزمایش می کنند.
وظیفه ربات های گوگل چیست ؟
اما در این بین وظیفه شما جهت سئو سایت و سازگاری با روبات های گوگل چیست؟ وظیفه اصلی شما به عنوان دارنده یک وب سایت این است که تا آن جا که امکان دارد وب خود را جهت روباتهای گوگل ساده سازی کنید. محتوای مناسب روی سایت خود قرار دهید تا هم تعداد کاربران خود را زیاد کرده و راضی نگهدارید و هم چنین روبات های گوگل نیز شما را بپسندند.
روبات های گوگل و بخش محتوایی در سئو سایت
روباتهای گوگل دیگر محتوای شما را به صورت کامل بررسی میکند. در گذشته گوگل تنها به دنبال کلمات کلیدی بود که تنها در قسمتهای ابتدایی و نزدیک بالای مقاله و بخشهای کلیدی وجود داشتند اما امروزه دیگر بر این مبنا قرار ندارد و روباتهای گوگل حتی میتوانند فرمت HTML و عبارتهای کلیدی را پیدا کرده و محتوای کپی و تکراری را تشخیص بدهند.
روباتهای گوگل توانایی تشخیص زیادی پیدا کرده اند و می توانند ساختمان جمله بندی ها، طول متن، سطح و نوع خواندن، فرمت متن، واژه ها و کلمات کلیدی، ابزارها، متن در مقابل تصاویر و… را بشناسند. بنابراین کار سئو کاران و انجام عملیات سئو جهت ایجاد محتوا کمی مشکل تر شده و باید جهت اجرای نوشته های داخلی سایت دقت لازم را داشته باشند.
الگوریتم های گوگل تغییر کرد
الگوریتم های گوگل تغییر کرد و مدل جدید آن انتشار یافته است. هدف گوگل از ساخت این الگوریتم ها برای موتور های جست و جو این است که بتواند کاربران را هر چه سریع تر به مناسب ترین و بهترین نتیجه برساند .
سئو سایت و الگوریتم های گوگل
شرکت ها و افراد بسیاری هستند که با استفاده از روش های غیر اخلاقی و استفاده از کلمات کلیدی خود را به صفحه اول گوگل می رسانند ؛ اما تیم برنامه نویسی گوگل با طراحی الگوریتم های جدید و ایجاد تغییرات در آنها همواره سعی میکند از این روش های غیر اخلاقی جلوگیری کند.
گوگل از الگوریتم های خاصی استفاده میکند که عبارت اند از : الگوریتم پاندا – پنگوئن – مرگ مگس خوار – کبوتر – موبایا گدون گوگل-پیج لایوت و پیج لون .
سئو سایت و آپدیت الگوریتم ها
یکی از مسائلی که سئو کاران را دچار چالش میکند تغییر سریع الگوریتم ها می باشد زیرا تا آنها میخواهند که با روش های استفاده از الگوریتمی آشنا شده و آنها را به کار بگیرند مشاهده می کنند که الگوریتم های گوگل تغییر کرد.حال به توضیح مختصری از الگوریتم ها می پردازیم .
الگوریتم پاندا در سال 2011 برای اولین بار شروع به کار کرد و ظیفه آن جلو گیری از کپی برداری از متن ها و تصاویر بود و تخلفات را به موتور ها گزارش می داد. الگوریتم پنگوئن بر روی بک لینک ها و لینک سایت ها تمرکز کره و به بک لینک های مخرب امتیاز منفی می دهد.
الگوریتم مرغ مگس خوار حتما تا کنون مشاهده کرده اید که زمانی که چیزی را در گوگل تایپ میکنید نمونه ای از کلمات پر تکرار برای شما نمایش داده می شود این الگوریتم بر روی این مسئله تمرکز دارد.
با گسترش روز افزون سئو سایت و بهینه سازی آن جای تعجب نخواهد بود اگر هرفته با خبر شویم که الگوریتم های گوگل تغییر کرد و روش جدیدی ایجاد و ابداع شده است
HTTPS/SSL
پیاده سازی HTTPS در وب سایت شما به یک عامل رتبه بندی تبدیل شد. این امر با گذشت زمان اهمیت بیشتری پیدا کرد زیرا بسیاری از وب مسترها برای پیاده سازی HTTPS در وب سایت خود به زمان نیاز داشتند. بسیاری از کسب و کارها مجبور بودند برای پیاده سازی HTTPS تلاش کنند.
Mobilegeddon
از آنجایی که اکثر ترافیک از دستگاه های تلفن همراه شروع شد، گوگل شروع به اولویت بندی وب سایت های سازگار با موبایل کرد. وب سایت هایی که فقط دسکتاپ بودند شروع به کاهش رتبه بندی جستجوی خود کردند.
Possum
جستجوی محلی در این بهروزرسانی بهبود یافت و بسیاری از کسبوکارها را به عملکرد بهتر در نتایج جستجوی محلی سوق داد.
به روز رسانی سرعت
سرعت بارگذاری صفحه به یک عامل رتبه بندی تبدیل شد. وب سایت هایی که به کندی بارگذاری می شدند جریمه شدند.
Medic
برخی از وبسایتهایی که اطلاعات پزشکی ارائه میکردند رتبهبندی خود را از دست دادند زیرا Google احتمالاً تلاش میکرد تا اطلاعات پزشکی با کیفیت بالاتر را به جستجوگران (و نه فقط اطلاعات پزشکی از مشاغل) ارائه دهد.
BERT
این بهروزرسانی بزرگ، قابلیتهای یادگیری ماشینی و پردازش زبان طبیعی Google را بهبود بخشید. این به بسیاری از کسب و کارها کمک کرد زیرا گوگل در درک بافت کلمات در یک صفحه، نه فقط خود کلمات، بهتر شد.