لیست کامل الگوریتم های گوگل از ابتدا تا ۲۰۲۳

لیست کامل الگوریتم های گوگل از ابتدا تا ۲۰۲۳

تایم مطالعه: ۱۸ دقیقه
تاریخ انتشار: ۱۴۰۲/۰۴/۱۴
فهرست مطالب

الگوریتم های گوگل چیست؟ چرا باغ وحش گوگل برای سئوکارها مهم است؟ چجوری باید قوانین گوگل را رعایت کنیم؟ روش‌های سئو سایت در حال تغییر پیوسته هستند و از ۲۰۱۰ تا ۲۰۲۳ بسیار تغییر کرده‌اند.

این تغییرات به دلیل به‌روزرسانی مداوم “الگوریتم‌های گوگل” و سایر موتورهای جستجو رخ می‌دهند، تا بتوانند نتایج بهتری را براساس نیاز و خواست کاربران ارائه دهند.

در طول این بازه، گوگل علاوه بر به‌روزرسانی الگوریتم‌های قدیمی، الگوریتم‌های جدیدی را نیز معرفی کرده است که وظایف مشخص خود را دارند.

در ادامه به معرفی برخی از مهم‌ترین “الگوریتم‌های گوگل” می‌پردازیم.

این الگوریتم‌ها تنها برخی از مثال‌هایی هستند که گوگل در طول سال‌ها معرفی کرده است.

در عین حال، گوگل به طور مداوم الگوریتم‌های خود را بهبود می‌بخشد و الگوریتم‌های جدیدتری نیز معرفی می‌شوند.

در ادامه این بخش از آموزش سئو همراه سایت کافه وردپرس باشید تا قوانین گوگل را به شما عزیزان بگوییم.

الگوریتم چیست؟

الگوریتم در واقع مجموعه‌ای از دستورات مرتبط و قوانین است که به یک سیستم، ماشین، یا کامپیوتر کمک می‌کند تا یک وظیفه خاص را انجام دهد.

الگوریتم‌ها در حوزه‌های مختلفی مانند ریاضیات، علوم کامپیوتر، برنامه‌نویسی، علوم اجتماعی و غیره استفاده می‌شوند.

هر الگوریتم شامل مراحل مشخصی است که یکی پس از دیگری اجرا می‌شوند، و هر مرحله دارای دستوراتی است که باید اجرا شوند.

این دستورات می‌توانند شامل عملیات ریاضی، مقایسه‌ها، شرط‌ها، حلقه‌ها و سایر عملیات‌های مرتبط باشند.

برای مثال، فرض کنید بخواهیم یک الگوریتم برای جستجوی عدد بزرگتر در یک لیست اعداد تهیه کنیم. می‌توان الگوریتم زیر را استفاده کرد:

۱. تعیین عدد بزرگتر را با صفر شروع کنید.
۲. بررسی عدد اول در لیست.
۳. اگر عددی بزرگتر از عدد بزرگتر قبلی پیدا شد، آن را به عنوان عدد بزرگتر فعلی تعیین کنید.
۴. اگر هنوز تمام عناصر لیست را بررسی نکرده‌اید، به مرحله ۲ بروید.
۵. اگر تمام عناصر لیست را بررسی کرده‌اید، عدد بزرگتر را خروجی دهید.

این الگوریتم ساده، تعیین عدد بزرگتر را در یک لیست اعداد انجام می‌دهد.

با استفاده از الگوریتم‌ها می‌توان دستورات و فرایندهای پیچیده‌تری را نیز ایجاد کرد تا به مسائل مختلف در زندگی و کارهای روزمره بپردازیم.

الگوریتم گوگل چیست؟

الگوریتم گوگل چیست؟

الگوریتم‌های گوگل در واقع سیستم‌های پیچیده‌ای هستند که به گوگل کمک می‌کنند تا صفحات مرتبط‌تر را برای عبارات جستجو شده پیدا و رتبه‌بندی کند.

این سیستم رتبه‌بندی گوگل از الگوریتم‌های مختلفی تشکیل شده است، هر کدام با در نظر گرفتن فاکتورهای مختلف درون و برون صفحه عمل می‌کنند.

الگوریتم‌های گوگل بر اساس بررسی و تحلیل ملاک‌های متنوعی از جمله محتوا، لینک‌ها، ساختار صفحه، کلمات کلیدی، سرعت بارگیری و تجربه کاربری و… رتبه‌بندی صفحات را انجام می‌دهند.

این الگوریتم‌ها به‌صورت پیوسته بهبود می‌یابند و در هر به‌روزرسانی، تغییراتی در نحوه رتبه‌بندی صفحات به وجود می‌آیند.

به عنوان مثال، الگوریتم پاندا (Panda) برای تشخیص و کاهش رتبه‌بندی صفحات با محتوای کیفیت پایین و تکراری استفاده می‌شود.

الگوریتم پنگوئن (Penguin) نیز هدفش تشخیص و کاهش رتبه‌بندی صفحاتی است که از تکنیک‌های بدون اخلاقی سئو مانند لینک‌های نامرتبط و پرتعداد استفاده می‌کنند.

به طور خلاصه، الگوریتم‌های گوگل با تحلیل ملاک‌های مختلف درون و برون صفحه، به گوگل کمک می‌کنند تا صفحات مناسب‌تر را برای کاربران پیدا و رتبه‌بندی کند.

این الگوریتم‌ها در طول زمان بهبود یافته و در هر به‌روزرسانی، تغییراتی در روند رتبه‌بندی صفحات اعمال می‌شوند.

مهم‌ترین الگوریتم‌های گوگل که باید درموردشان بدانید (باغ وحش گوگل)

به طور کلی، به‌روزرسانی‌های گوگل را می‌توان به دو دسته‌بندی اصلی تقسیم کرد: به‌روزرسانی‌های بزرگ و به‌روزرسانی‌های کوچک.

به‌روزرسانی‌های کوچک در گوگل، به صورت مکرر و چند بار در روز اعمال می‌شوند.

این به‌روزرسانی‌ها اغلب تغییرات کوچکی را در نمایه گوگل (مجموعه صفحات وبی که گوگل آن‌ها را در پایگاه داده خود نگهداری می‌کند) ایجاد می‌کنند.

با این حال، اثر این به‌روزرسانی‌های کوچک به قدری ریز است که کاربران عموماً تغییرات خاصی را متوجه نمی‌شوند.

اما به‌روزرسانی‌های بزرگ در گوگل، به طور سالانه رخ می‌دهند و تأثیر قابل توجهی در نتایج جستجو دارند.

این به‌روزرسانی‌ها عموماً تغییرات اساسی در الگوریتم‌های موتور جستجوی گوگل را اعمال می‌کنند.

ممکن است منجر به تغییرات قابل مشاهده در رتبه‌بندی صفحات و نتایج جستجو شود.

گوگل، برای اسامی الگوریتم‌های خود، چندانی به نام‌گذاری رسمی تکیه نمی‌کند.

با این حال، به دلیل اینکه بسیاری از الگوریتم‌های اصلی گوگل در ابتدا با نام‌های مستعاری که از حیوانات گرفته شده بودند شناخته می‌شدند.

بسیاری از مردم این مجموعه الگوریتم‌ها را “باغ وحش گوگل” نامیدند.

در نتیجه، اصطلاح “باغ وحش گوگل” برای ارجاع به مجموعه الگوریتم‌های گوگل در کنار تغییرات و به‌روزرسانی‌های آن استفاده می‌شود.

الگوریتم های گوگل و جریمه‌های آن

الگوریتم های گوگل و جریمه‌های آن

  1. الگوریتم پیج رنک (PageRank)
  2. الگوریتم رقص گوگل (Google Dance)
  3. سندباکس گوگل (Google Sandbox)
  4. الگوریتم هیلتاپ (Hilltop Algorithm)
  5. الگوریتم کافئین (Caffeine Algorithm)
  6. الگوریتم پاندا (Panda Algorithm)
  7. الگوریتم تازگی محتوا (Freshness Algorithm)
  8. الگوریتم ونیز (Venice Algorithm)
  9. الگوریتم پنگوئن (Penguin Algorithm)
  10. الگوریتم دزد دریایی (Pirate Algorithm)
  11. الگوریتم EMD (Exact Match Domain Algorithm)
  12. الگوریتم Page Layout (Top Heavy Algorithm)
  13. الگوریتم گورخر (Hummingbird Algorithm)
  14. الگوریتم مرغ مگس خوار (Pigeon Algorithm)
  15. الگوریتم Payday Loan
  16. الگوریتم کبوتر (Fred Algorithm)
  17. الگوریتم موبایل گدون (Mobilegeddon Algorithm)
  18. الگوریتم رنک برین (RankBrain Algorithm)
  19. الگوریتم موش کور (Mole Algorithm)
  20. الگوریتم فِرد (BERT Algorithm)
  21. الگوریتم مدیک یا طبی (Medic Algorithm)
  22. الگوریتم برت (BERT Algorithm)
  23. الگوریتم موبایل فرست ایندکس (Mobile-First Indexing Algorithm)
  24. الگوریتم E-A-T (Expertise, Authoritativeness, Trustworthiness)
  25. الگوریتم MUM (Multitask Unified Model)

متخصصان سئو باید همواره در جریان آپدیت‌های جدید الگوریتم‌های گوگل باشند.

این به عنوان یک متخصص سئو، به شما کمک می‌کند تا با تغییرات و به‌روزرسانی‌های جدید، استراتژی‌های سئو خود را بهبود بخشید و با تغییرات در رفتار موتور جستجوی گوگل، سایت خود را بهتر بهینه‌سازی کنید.

به باغ وحش گوگل خوش آمدید. در ادامه قرار است به الگوریتم‌های گوگل بپردازیم.

الگوریتم پیج رنک (Google PageRank Algorithm) – سال ۱۹۹۸

اولین الگوریتم گوگل، الگوریتم پیج رنک است.

در اواخر قرن بیستم، گوگل تصمیم گرفت الگوریتم جدیدی را معرفی کند که توسط آن امکان رتبه‌بندی سایت‌ها وجود داشته باشد.

این الگوریتم که به نام “پیج رنک” شناخته می‌شود، جزو اولین الگوریتم‌های گوگل است.

در ابتدا، الگوریتم پیج رنک لینک‌هایی که به هر دامنه یا صفحه داده می‌شد را بررسی می‌کرد و براساس تعداد و کیفیت لینک‌ها، سایت‌ها را در رتبه‌های جستجو قرار می‌داد.

به عبارت دیگر، سایت‌هایی که لینک‌های بیشتر و معتبرتری داشتند، از لحاظ رتبه‌بندی بهتر عمل می‌کردند.

اما به مرور زمان، گوگل الگوریتم پیج رنک را با هدف جلوگیری از ساخت بک لینک‌های انبوه و پولی، بهبود داد.

این تغییرات باعث شد تا عوامل دیگری نیز در رتبه‌بندی سایت‌ها مؤثر شوند، به طوری که فقط تعداد لینک‌ها دیگر ملاک اصلی نبود.

عواملی مانند کیفیت لینک‌ها، محتوای مناسب و مرتبط، ساختار سایت، سرعت بارگذاری، تجربه کاربری و عوامل دیگر نیز در ارزیابی و رتبه‌بندی سایت‌ها در گوگل مدنظر قرار گرفتند.

به این ترتیب، الگوریتم پیج رنک تبدیل به یک سیستم پیچیده‌تر و جامع‌تر شد که عوامل متعددی را در نظر می‌گیرد و صرفاً تعداد لینک‌ها به تنهایی معیار مهمی نیست.

هدف اصلی این تغییرات، جلوگیری از استفاده غیرقانونی و مغایر با سئو اصولی برای بهبود رتبه سایت‌ها بود.

الگوریتم رقص گوگل (Google Dance) – سال ۲۰۰۴

گوگل به منظور ارزیابی رفتار کاربران نسبت به وب سایت‌ها و صفحات جدید، برخی تغییرات در موقعیت آن‌ها در صفحه نتایج جستجو اعمال می‌کند. الگوریتم رقص گوگل یکی از قوانین گوگل شناخته می‌شود.

این عملکرد به عنوان “رقص گوگل” شناخته می‌شود.

هدف اصلی رقص گوگل، اندازه‌گیری تعامل کاربران با صفحات جدید است تا بتواند با بررسی عواملی مانند تعداد کلیک‌ها، مدت زمانی که کاربران در صفحه می‌مانند و رفتار کلی کاربران، رتبه‌بندی مناسبی را برای صفحه جدید تعیین کند.

گاهی اوقات رقص گوگل برای صفحه‌هایی اتفاق می‌افتد که به تازگی ایجاد شده‌اند.

دلیل این اتفاق ممکن است این باشد که گوگل به تازگی وجود این صفحه را متوجه شده و قصد دارد یک فرصت برای بهبود رتبه آن صفحه را در نظر بگیرد.

در این مرحله، صفحه ممکن است در رتبه‌های مختلف جستجو قرار بگیرد.

در صورتی که صفحه جدید توانسته باشد کاربران را به خود جذب کند و در موقعیت رتبه‌های برتر قرار گیرد، این می‌تواند تأثیر مثبتی بر رتبه آن صفحه داشته باشد.

بنابراین، توانایی صفحه در جلب تعامل و توجه کاربران در طول این دوره رقص گوگل، می‌تواند نقش مهمی در بهبود رتبه‌بندی آن داشته باشد.

در کل، رقص گوگل به عنوان یک فرایند ارزیابی و تجزیه و تحلیل رفتار کاربران نسبت به صفحات جدید، برای گوگل اهمیت دارد و می‌تواند در تعیین رتبه و نمایش مناسب صفحات جدید در نتایج جستجو تأثیرگذار باشد.

سندباکس گوگل (Google Sandbox) – سال ۲۰۰۴

سندباکس گوگل (Google Sandbox) – سال ۲۰۰۴

سندباکس گوگل (Google Sandbox) به وضعیتی اطلاق می‌شود که گوگل در آن صفحات سایت جدید را در ابتدای رتبه‌بندی خود قرار می‌دهد.

هدف اصلی سندباکس گوگل، جلوگیری از برخی صفحات جدید دریافت رتبه‌ی مناسب در نتایج جستجو است.

این امر زمانی رخ می‌دهد که صفحات جدید شما ایندکس شده و در دسته‌بندی نهایی قرار نمی‌گیرند.

علت اصلی وجود سند باکس گوگل، می‌تواند عدم هماهنگی و مطابقت محتوای صفحات شما با صفحات دیگر موجود در نتایج جستجو (SERP) باشد.

همچنین، گوگل ممکن است تشکیل اسپم یا عدم کیفیت بودن محتوای صفحات را نیز در نظر بگیرد.

بنابراین، به منظور اطمینان حاصل کردن از صحت و کیفیت صفحات شما، گوگل آن‌ها را در سندباکس قرار می‌دهد.

مهم است به‌یاد داشت که سندباکس گوگل رسماً تأیید نشده است ولی بسیاری از تخصص‌های سئو باور دارند که این الگوریتم وجود دارد و تأثیر قابل‌توجهی بر رتبه‌بندی نتایج جستجو دارد.

در هر صورت، پیشنهاد می‌شود در طراحی و بهینه‌سازی سایت خود، رعایت استانداردهای سئو و ارائه محتوای مرتبط و کیفیت بالا را در نظر بگیرید تا از احتمال ورود به سندباکس گوگل کاسته شود.

الگوریتم تپه (Hilltop Algorithm) – سال ۲۰۰۴

الگوریتم Hilltop یا تپه، به عنوان یکی از قدیمی‌ترین الگوریتم‌های ارائه شده توسط گوگل در سال ۲۰۰۳ معرفی شد و در سال ۲۰۰۴ به صورت رسمی منتشر شد.

هدف اصلی این الگوریتم، تشخیص صفحات معتبر در موتورهای جستجو بود.

در آن زمان، وقتی کاربر یک کلمه را جستجو می‌کرد، ممکن بود آن کلمه با موضوعات مختلفی ارتباط داشته باشد و گوگل نمی‌توانست صفحه معتبر و صحیح را به کاربر ارائه دهد.

الگوریتم Hilltop برای شناسایی صفحات تخصصی و با اعتبار ایجاد شد.

این الگوریتم همچنان در کنار الگوریتم PageRank نقش مهمی در رتبه‌بندی و ارزیابی سایت‌ها ایفا می‌کند.

PageRank یک الگوریتم معروف و اساسی در جستجوگر گوگل است که بر اساس اهمیت و لینک‌های ورودی به صفحات، رتبه‌بندی سایت‌ها را تعیین می‌کند.

اما Hilltop الگوریتم دیگری است که به عنوان یک عامل مکمل به PageRank عمل می‌کند و صفحات با اطلاعات تخصصی و معتبر را تشخیص می‌دهد.

برخلاف PageRank که بر پایه لینک‌های ورودی تعیین رتبه می‌شود، Hilltop از نظر محتوا و ارتباطات مناسب بین صفحات به عنوان یک عامل ارزیابی استفاده می‌کند.

به عبارت دیگر، Hilltop به دنبال صفحاتی است که محتوای مرتبطی درباره موضوع جستجو دارند و با صفحات دیگری ارتباط برقرار کرده‌اند.

به طور خلاصه، Hilltop یک الگوریتم قدیمی است که همچنان نقش مهمی در رتبه‌بندی سایت‌ها و تشخیص صفحات معتبر بازی می‌کند.

این الگوریتم به همراه PageRank برای بهبود دقت و کیفیت نتایج جستجو در گوگل استفاده می‌شود.

الگوریتم کافئین (Caffeine Algorithm) سال ۲۰۱۰

الگوریتم کافئین (Caffeine Algorithm) – سال ۲۰۱۰

در سال ۲۰۰۹، گوگل اعلام کرد که الگوریتم کافئین (Caffeine) به عنوان یکی از مهم‌ترین الگوریتم‌های تاریخ موتورهای جستجو تلقی و استفاده خواهد شد. پس از مدتی توسعه، در سال ۲۰۱۰ به صورت رسمی عرضه شد.

اصلی‌ترین وظیفه الگوریتم کافئین در واقع بهبود سیستم ایندکس کردن وب بود. قبل از ظهور کافئین، ربات‌های گوگل تنها به محتواهای جدید و تازه اهمیت می‌دادند و برای به‌روزرسانی مطالب گذشته، سایت‌ها با مشکلاتی مواجه می‌شدند. با استفاده از الگوریتم کافئین، این مشکل حل شد و فرآیند ایندکس کردن بهبود یافت.

الگوریتم کافئین تغییراتی در سیستم ایندکس گوگل ایجاد کرد، اما تأثیر مستقیمی بر رتبه‌بندی سایت‌ها نداشت. به عبارت دیگر، الگوریتم کافئین نه به طور مستقیم بر رتبه‌بندی صفحات تأثیر گذاشت، بلکه باعث افزایش فعالیت و به‌روزرسانی محتواهای قدیمی شد. سایت‌هایی که محتواهای قدیمی خود را به‌روزرسانی می‌کردند، در رتبه‌بندی بهتری قرار می‌گرفتند.

به طور خلاصه، الگوریتم کافئین بهبودی بر سیستم ایندکس کردن گوگل به منظور شناسایی و به‌روزرسانی صفحات وب بود. این الگوریتم بهبودی عمده در نحوه‌ی عملکرد گوگل به‌روزرسانی وب و ارائه نتایج جستجوی بهتر داشت.

الگوریتم پاندا گوگل (Panda Algorithm) سال ۲۰۱۱

الگوریتم پاندا در سال ۲۰۱۱ راه‌اندازی شد و به عنوان اولین الگوریتم رسمی و قوانین گوگل در دنیای مدرن سئو معرفی شد و در همان سال به باغ وحش گوگل اضافه شد. این الگوریتم همچنین در سال ۲۰۱۶ با الگوریتم هسته تلفیق شده و به صورت دائمی در فرایند بررسی و بررسی سایت‌ها حضور دارد. هدف اصلی از این الگوریتم کاهش رتبه سایت‌هایی است که محتوای نامطلوب دارند. به طور کلی، هدف تمام الگوریتم‌های گوگل از شناسایی و حذف سایت‌های اسپم، بهبود کارایی نتایج جستجو است.

الگوریتم پاندا قابلیت تشخیص و تحلیل محتوای تکراری یا سرقت ادبی را دارد، بنابراین توصیه می‌شود مطالب خود را به صورت منحصربه‌فرد، اورجینال و بدون تکرار ارائه دهید. تمرکز اصلی الگوریتم پاندا بر روی عوامل درون صفحه (on-page) قرار دارد و تطابق عبارات جستجو شده توسط کاربران با موضوع کلی صفحه را ارزیابی می‌کند.

الگوریتم پاندا به دو مسئله حساس ویژه توجه دارد:

  1. سایت‌هایی که فقط در نظر دارند لینک به سایت‌های دیگری ارائه دهند (سایت‌های همکاری).
    ۲. سایت‌هایی که محتوای بسیار کمی دارند، به عبارت دیگر صفحاتی که محتوای کوتاهی دارند.

علاوه بر این، الگوریتم پاندا قادر است محتواهای کم حجم را شناسایی کند. اگر صفحاتی در وبسایت شما محتوای کم حجمی دارند، از لحاظ تعداد کلمات یا لینک‌های خروجی، توصیه می‌شود آن‌ها را بهبود بخشید یا حذف کنید.

تکرار بیش از حد کلمات کلیدی نیز یک مشکل مهم است که باعث پنالتی شدن توسط گوگل می‌شود. بهتر است از تکرار زیاد عبارات کلیدی در محتوا خود خودداری کنید، زیرا این موضوع می‌تواند سایت شما را به عنوان اسپم شناسایی کرده و رتبه آن را در نتایج جستجوی گوگل کاهش دهد.

الگوریتم تازگی محتوا (Freshness Algorithm) سال ۲۰۱۱

در سال ۲۰۱۱، گوگل واقعاً الگوریتم رتبه‌بندی خود را با تغییرات قابل توجهی به نام “Caffeine Update” بهبود بخشید و به الگوریتم‌های موتور جستجوی گوگل اضافه کرد. این به روزرسانی باعث شد که محتوای تازه‌تر در نتایج جستجو به موقعیت بالاتری دست پیدا کند.

هدف اصلی از این به روزرسانی، فراهم کردن محتواهای به‌روز و جدیدتر به کاربران بود. با اجرای این تغییر، اگر موضوعی در دوره‌ای داغ شد و یا یک رویداد در حال اتفاق افتادن بود، کاربران به راحتی می‌توانستند به مطالب مرتبط و تازه دسترسی پیدا کنند.

الگوریتم تازگی محتوا (Freshness Algorithm) نیز بخشی از این به روزرسانی بود و تا حد زیادی بر روی چگونگی نمایش محتوا در نتایج جستجو تأثیر گذاشت. این الگوریتم تازگی محتوا را به عنوان یک فاکتور مهم در رتبه‌بندی صفحات مورد نظر در نتایج جستجو در نظر می‌گرفت و بر تقریباً ۳۵ درصد از جستجوها تأثیر داشت.

در نتیجه، با بهبود الگوریتم و تأکید بر تازگی محتوا، کاربران قادر بودند به مطالب به‌روز و مرتبط تر دسترسی پیدا کنند، به خصوص در موضوعات و رویدادهایی که در آن زمان داغ و جاری بودند.

الگوریتم ونیز (Venice Algorithm) سال ۲۰۱۲

الگوریتم ونیز (Venice) یکی از الگوریتم‌های موتور جستجوی گوگل است که به طور خاص به جستجوهای محلی مرتبط می‌شود. این الگوریتم در سال ۲۰۱۲ راه‌اندازی شد و تغییرات قابل توجهی در نتایج جستجوی گوگل ایجاد کرد.

یکی از عوامل کلیدی در الگوریتم ونیز، IP یا موقعیت جغرافیایی سایت مربوطه است. با توجه به IP سرور و موقعیت جغرافیایی سایت، گوگل سعی می‌کند نتایج جستجو را به شکلی سفارشی‌سازی کند که بیشتر به نیازهای کاربران محلی پاسخ دهد. به عبارت دیگر، نتایج جستجوی گوگل براساس مکان فیزیکی کاربر و موقعیت جغرافیایی سایت‌ها تطبیق داده می‌شود.

به وسیله الگوریتم ونیز، گوگل تلاش می‌کند تا نتایج جستجو را به صورت محلی‌تر و منطبقت بیشتری با مکان فیزیکی کاربر ارائه دهد. این به کاربران کمک می‌کند تا در جستجوهای مربوط به کسب و کارها، خدمات و مکان‌های محلی، نتایج دقیقتر و متناسب با موقعیت جغرافیایی خود را ببینند.

به طور کلی، الگوریتم ونیز موجب تأثیر قابل توجهی در نتایج جستجوی محلی گوگل شده است و در آن، IP و موقعیت جغرافیایی سایت‌ها و موقعیت جغرافیایی کاربران به عنوان فاکتورهای مهمی مد نظر قرار می‌گیرند.

الگوریتم دزد دریایی (Pirate Algorithm) سال ۲۰۱۲

الگوریتم دزد دریایی (Pirate Algorithm) – سال ۲۰۱۲

الگوریتمی که در اینجا به آن اشاره شده، الگوریتم دزدی دریایی (Pirate Algorithm) است. این الگوریتم توسط گوگل در سال ۲۰۱۲ به منظور مبارزه با کپی‌برداری و سرقت ادبی ایجاد شد. هدف اصلی این الگوریتم برخورد با سایت‌هایی بود که محتوای تکراری دیگران را به صورت نامجاز منتشر می‌کردند.

با اعمال الگوریتم دزدی دریایی، گوگل سعی کرد تا به سایت‌هایی که محتوای دزدی و تقلیدی را منتشر می‌کردند، رتبه‌بندی منفی اعمال کند. به ویژه سایت‌هایی که در حوزه دانلود کتاب، فیلم یا موزیک و بدون دریافت مجوز صاحبان حق تکثیر فعالیت می‌کردند، تحت تأثیر قرار گرفتند. البته، دقت و قدرت این الگوریتم هنوز به حدی نیست که به صورت دقیق و جامع به تشخیص وب سایت‌های جدیدی که محتواهای سرقتی منتشر می‌کنند، بپردازد، زیرا تعداد اینگونه سایت‌ها روز به روز در حال افزایش است.

با این حال، برای افرادی که قصد سرمایه‌گذاری در وب سایت خود را دارند، اهمیت دارد که به این نکته توجه کنند تا از پنالتی گوگل جلوگیری کنند. بنابراین، توصیه می‌شود که دقت لازم را در انتشار محتوای منحصر به فرد و عدم کپی‌برداری داشته باشید و به حقوق تکثیر صاحبان محتوا رعایت کنید.

الگوریتم EMD (Exact Match Domain) سال ۲۰۱۲

در سال ۲۰۱۲، بار اولین بار درباره الگوریتم “Exact Match Domain” صحبت شد که یکی از الگوریتم‌های موتورهای جستجو به حساب می‌آید. این الگوریتم در طول ۱۰ سال گذشته تکراراً به‌روزرسانی شده است و هدف اصلی آن از بین بردن سایت‌هایی است که به صورت اسپمی فعالیت می‌کنند و محتوای ضعیفی را ارائه می‌دهند.

سایت‌هایی که محتوای بی‌کیفیت تولید می‌کنند و نمی‌توانند نیازهای مخاطبان خود را برآورده کنند و ارزشی برای آن‌ها ایجاد نمی‌کنند، بیشتر از سایر سایت‌ها در معرض تأثیرات این الگوریتم قرار دارند.

Exact Match Domain به دامنه‌های دقیق (Domain Name) اشاره دارد که با عنوانی که دقیقاً با کلمات کلیدی مورد جستجو تطابق دارد، ثبت شده‌اند. در گذشته، سایت‌ها با دامنه‌هایی که کلمات کلیدی مهم را در بخش آدرس وب آنان دارا بودند، به سادگی می‌توانستند در نتایج جستجوی گوگل رتبه بالا بگیرند. اما با آپدیت‌های Exact Match Domain، گوگل سعی کرده است تا به سایت‌هایی که فقط بر روی دامنه خودکفایی می‌کنند و محتوای کیفی و ارزشمندی ارائه نمی‌دهند، اهمیت کمتری بدهد.

از آن زمان به بعد، Exact Match Domain بارها و بارها به‌روزرسانی شده است تا روش‌های جدید برای مبارزه با سایت‌های اسپمی و محتوای ضعیف توسعه دهد. بنابراین، برای سایت‌ها حائز اهمیت است که به ایجاد محتوای کیفی و ارزشمند بپردازند و نیازهای مخاطبان خود را برآورده کنند تا از تأثیرات منفی Exact Match Domain جلوگیری کنند.

الگوریتم پنگوئن (Penguin Algorithm) ۲۰۱۲

الگوریتم پنگوئن یکی از الگوریتم‌های گوگل که معروف است برای تعیین کیفیت لینک‌های ورودی به یک صفحه استفاده می‌شود و در سال ۲۰۱۲ به باغ وحش گوگل اضافه شد. این الگوریتم گوگل، که تا به حال تحت چندین به‌روزرسانی قرار گرفته است، بهبود رتبه‌بندی سایت را تسهیل کرده و سایت‌هایی که لینک‌های مخرب یا خریداری شده دارند را با جریمه مواجه می‌کند.

زمانی که گوگل اعلام کرد که بک‌لینک‌ها می‌توانند بر رتبه سایت تأثیر مثبتی داشته باشند، برخی از وبسایت‌ها شروع به ساخت و یا خرید بک‌لینک‌های مصنوعی کردند. به منظور مقابله با این نوع رفتارها، گوگل الگوریتم پنگوئن را راه‌اندازی کرد. با این به‌روزرسانی در موتور جستجوی گوگل، صفحاتی که در این زمینه تخلف کرده و لینک‌های مشکوک دارند، از نتایج جستجو حذف می‌شوند. در برخی موارد، ممکن است رتبه سایت نیز کاهش یابد.

آخرین به‌روزرسانی پنگوئن در سال ۲۰۱۶ انجام شد و در این به‌روزرسانی، تحت عنوان “پنگوئن ۴.۰” شناخته می‌شود. در این نسخه، پنگوئن بک‌لینک‌های هر صفحه را بررسی کرده و در صورت وجود تخلف، به طور مستقیم صفحه مربوطه را جریمه می‌کند. با این حال، به دلیل اینکه عملکرد هر صفحه بر روی رتبه کل سایت اثر می‌گذارد، افت رتبه یا جریمه یک یا چند صفحه می‌تواند تأثیرات منفی را بر روی کل سایت داشته باشد. بنابراین، حذف یا بهبود لینک‌های مشکوک و ایجاد لینک‌های کیفی و طبیعی برای رتبه‌بندی بهتر و جلوگیری از جریمه پنگوئن بسیار مهم است.

الگوریتم پیج لی‌اوت (Page Layout Algorithm) سال ۲۰۱۲

الگوریتم پیج لی‌اوت (Page Layout Algorithm) – سال ۲۰۱۲

الگوریتم Page Layout یا به نام دیگر “Top Heavy” در اوایل سال ۲۰۱۲ معرفی شد و به الگوریتم‌های موتورهای جستجو اضافه شد. هدف گوگل از نسخه اولیه این الگوریتم، کنترل و جلوگیری از استفاده بیش از حد تبلیغات در بالای صفحات وب سایت‌ها بود. چند ماه بعد، مدیر تیم وب اسپم گوگل خبر آپدیت جدید این الگوریتم را در توئیتر منتشر کرد و اعلام کرد که الگوریتم Page Layout توانسته در تاثیر بر ۰.۷ درصد از کوئری‌های انگلیسی زبانانه باشد.

سال ۲۰۱۴، به‌روزرسانی دیگری برای این الگوریتم گوگل ارائه شد تا عملکرد بهتری ارائه دهد. در سال ۲۰۱۶، جان مولر در یک مصاحبه اعلام کرد که الگوریتم Page Layout به صورت کاملاً اتوماتیک شده است و از آن به بعد بدون دخالت دست، می‌تواند تاثیرگذار باشد.

با به‌روزرسانی آخر، گوگل این امکان را فراهم کرده است که تبلیغات در بالای صفحه ارائه شود، زمانی که تجربه کاربر را تحت تاثیر قرار ندهد و به میزان مناسب باشد. بنابراین، وب سایت‌ها مجاز هستند تا تبلیغات را در ابتدای صفحه خود قرار دهند. گوگل نیز تصاویر متعددی را منتشر کرده است تا نحوه قرارگیری تبلیغات را بهتر مشخص کند.

همچنین، کرالرهای گوگل قادر به شناسایی وب سایت‌هایی هستند که تبلیغات آزاردهنده را در ابتدای صفحه قرار داده‌اند و این را به عنوان یک عامل منفی در رتبه‌بندی در نظر می‌گیرند. این الگوریتم کمک می‌کند تا کاربرانی که از دستگاه‌های موبایل استفاده می‌کنند، نیازی به اسکرول کردن ۴ تا ۵ بار برای دسترسی به محتوای مورد نظر خود نداشته باشند و تجربه کاربری بهتری داشته باشند.

الگوریتم گورخر گوگل (Zebra Algorithm) سال ۲۰۱۳

الگوریتم گورخر گوگل که به طور رسمی با نام الگوریتم گورخر شناخته می‌شود، یک به‌روزرسانی برای الگوریتم هسته مرکزی موتور جستجوی گوگل است. ایده اصلی این الگوریتم در سال ۲۰۱۳ مطرح شد. یک نماینده از گوگل با یک پدیده عجیب روبه‌رو شد. وقتی در حال جستجو در نتایج گوگل بود، یک سایت عینک‌فروشی را در رتبه اول نتایج دید که هیچ شباهتی به یک فروشگاه واقعی نداشت.

پس از آن، الگوریتم zebra به‌روزرسانی‌هایی اعمال کرد که سایت‌های فروشگاهی که خدمات نامناسبی ارائه می‌دادند را مورد هدف قرار داد. اگر یک فروشگاه شرایط لازم را نداشت، آن را از نتایج جستجو حذف یا به رتبه‌بندی‌های پایین‌تر منتقل می‌کرد.

گورخر یک هشدار مناسب برای سایت‌های فروشگاهی بود که بدون توجه به تجربه کاربر و نیازهای آن‌ها، فعالیت می‌کردند و خدمات نامرغوبی ارائه می‌دادند. البته، با عبور زمان، الگوریتم گورخر تکامل یافته و بهبود یافته است، ولی هدف اصلی آن همچنان حفظ کیفیت و ارائه منابع مفید و مرتبط در نتایج جستجو می‌باشد.

الگوریتم مرغ مگس خوار (Hummingbird Algorithm) سال ۲۰۱۳

الگوریتم مرغ مگس خوار یکی از الگوریتم‌های موتور جستجوی گوگل است و یکی از بخش‌هایی که در الگوریتم‌های گوگل بهبود یافته است، درک عمیق‌تر از مفهوم کوئری‌هاست. در گذشته، وقتی کاربری عبارتی را در گوگل جستجو می‌کرد، نتایجی نمایش داده می‌شدند که این عبارت کلیدی در آن وجود داشت. اما با الگوریتم مرغ مگس خوار، این روند تغییر کرده است و حالا اهمیت بیشتری به ارتباط نتیجه جستجو با موضوع و زمینه اصلی کوئری می‌دهد و لزوماً نیازی نیست کلمات کلیدی در محتوای صفحه وجود داشته باشند. این به این معنی است که استفاده از مترادف‌ها بهبود یافته و اهمیت بیشتری پیدا کرده است.

گوگل الگوریتم مرغ مگس خوار را برای سرچ صوتی (voice-search) توسعه داده است و با گذشت زمان و افزایش تایپ صوتی، اهمیت این الگوریتم بیشتر شده است. بنابراین، الگوریتم مرغ مگس خوار به کل عبارت جستجو شده توجه می‌کند نه تنها به کلمات فردی. این به دلیل این است که ممکن است به دلایلی مانند اشتباهات تایپی و غیره، عبارتی جستجو شود که در واقع همانطور که کاربر در نظر داشته، نباشد. اما با کمک این الگوریتم، گوگل می‌تواند نتایجی را ارائه دهد که با آنچه کاربر در ذهن داشته تطابق داشته باشد.

اگر قصد دارید نوشته‌هایتان را برای الگوریتم مرغ مگس خوار سئو کنید، باید به علاوه از کلیدواژه، از مترادف‌های آن نیز استفاده کنید. متن باید به طور کامل و روان نوشته شده باشد و خوانایی بالا داشته باشد. اما نگران نباشید؛ زیرا الگوریتم مرغ مگس خوار هیچ جریمه‌ای برای عدم رعایت این نکات اعمال نمی‌کند. تنها با رعایت آن‌ها، می‌توانید بهتر در نتایج جستجو ظاهر شوید.

الگوریتم Payday Loan سال ۲۰۱۳

این الگوریتم برای مقابله با سایت‌های مستهجن و قمار ایجاد شد که به نوعی سایت‌های اسپم محسوب می‌شوند و در سال ۲۰۱۳ به قوانین گوگل اضافه شد. در ادامه با یکی از باغ وحش گوگل آشنا می‌شویم.

الگوریتم کبوتر (Pigeon Algorithm) سال ۲۰۱۴

الگوریتم کبوتر (Pigeon Algorithm) – سال ۲۰۱۴

الگوریتم کبوتر، همانند الگوریتم مرغ مگس خوار (Hummingbird) و الگوریتم ونیز (Pigeon)، یکی از الگوریتم‌های جستجوی گوگل است. این الگوریتم در سال ۲۰۱۴ معرفی شده و بر روی صفحات نتایج جستجو و همچنین نقشه‌ها در گوگل تأثیر می‌گذارد.

الگوریتم کبوتر بر خلاف الگوریتم ونیز که بر سئوی محلی تمرکز دارد، توجه ویژه‌ای به نقشه‌های گوگل دارد. این الگوریتم با توجه به موقعیت مکانی کاربر و جستجویی که انجام می‌دهد، نتایج نزدیکتری را به کاربران ارائه می‌دهد. به عبارتی دیگر، الگوریتم کبوتر بهینه‌سازی شده است تا نتایجی را که در نزدیکی موقعیت فیزیکی کاربر قرار دارند، در صفحات نتایج جستجو و نقشه‌ها نشان دهد.

به کمک الگوریتم کبوتر، گوگل توانسته است نتایجی را که به کاربران نزدیک‌تر هستند، بهبود بخشیده و تجربه جستجوی محلی را بهبود ببخشد. این الگوریتم گوگل در ارتباط با سئوی محلی نیز تأثیرگذار بوده و شرکت‌ها و کسب‌وکارها را تشویق می‌کند تا بر روی بهینه‌سازی محلی خود تمرکز کنند تا بتوانند در نتایج جستجوی محلی بهتر عرضه شوند.

الگوریتم موبایل گدون (Mobilegeddon Algorithm) سال ۲۰۱۵

سئو (SEO) یا بهینه‌سازی موتور جستجو به وسیله‌ای به‌روزرسانی به نام “موبایل گدون” (Mobilegeddon) یا الگوریتم Mobilegeddon اشاره کرده‌اید. این الگوریتم گوگل در سال ۲۰۱۵ توسط گوگل معرفی شد و هدف آن تأمین راحتی و دسترسی سریع کاربران با استفاده از دستگاه‌های موبایل به وب سایت‌ها بود. نقش اصلی این به‌روزرسانی، اهمیت بالاتری را برای سایت‌هایی که به صورت mobile friendly یا موبایل فرندلی طراحی شده‌اند، در نتایج جستجوی گوگل در دستگاه‌های موبایل قائل شد.

دلیل اصلی پیاده‌سازی این الگوریتم در سال ۲۰۱۵ عبور از آستانه ۵۰ درصد سرچ‌ها از طریق دستگاه‌های موبایل بود. این آپدیت منجر به تغییر کلی در نتایج جستجو شد و وب سایت‌هایی که برای موبایل به خوبی بهینه شده بودند، امتیاز بیشتری در رتبه‌بندی گوگل دریافت کردند.

سپس در سال ۲۰۱۸، گوگل با یک به‌روزرسانی دیگر، سرعت لود صفحه را نیز به عنوان یک فاکتور مهم در رتبه‌بندی وب سایت‌ها در نتایج جستجو در نظر گرفت. این به‌روزرسانی نشان می‌دهد که سرعت لود صفحه در هر دو نسخه موبایل و دسکتاپ از اهمیت بالایی برخوردار است.

برای ارضای کاربران و جلب رضایت آن‌ها، گوگل پیشنهاد می‌کند تا وب سایت‌ها از قالب‌های ریسپانسیو (Responsive) یا استفاده از تکنولوژی AMP (Accelerated Mobile Pages) برای صفحات موبایلی استفاده کنند. تکنولوژی AMP باعث افزایش سرعت بارگیری صفحات وب در حالت موبایل می‌شود.

برای بررسی آنکه آیا وب سایت شما موبایل فرندلی است یا خیر، می‌توانید از ابزار Google Mobile-Friendly Test استفاده کنید. این ابزار امکان بررسی وب سایت شما را به صورت رایگان فراهم می‌کند و نتایج تست را نشان می‌دهد.

الگوریتم رنک برین (Rank Brain Algorithm) سال ۲۰۱۵

الگوریتم رنک برین یا الگوریتم RankBrain یکی از المان‌های مهم و هنرنمایی در سیستم جستجوی گوگل است. منظور از رنک برین استفاده از ماشین یادگیری برای مدیریت عبارات سرچ شده است. این الگوریتم به وسیله مدیریت عبارات ناآشنا می‌تواند معنی کلمات را حدس بزند، کلمات با معنای مشابه را شناسایی کند و نتایجی که با توجه به این تحلیل بهترین مطابقت را دارند را در نتایج جستجو نمایش دهد.

این به‌روزرسانی در سال ۲۰۱۵ معرفی شد و توانست نتایج جستجوی گوگل را بهبود بخشیده و مطالب مرتبط‌تری را به کاربران ارائه دهد. سپس در مارس ۲۰۱۶، گوگل اعلام کرد که رنک برین یکی از سه عامل اصلی برای رتبه‌بندی وب سایت‌ها است.

این الگوریتم باعث تغییراتی در روش سئو و بهبود رتبه سایت‌ها شده است. برای بهبود رتبه در الگوریتم رنک برین، علاوه بر روش‌های سنتی سئو، نوشتن محتوای با کیفیت و متناسب با نیاز کاربران بسیار مهم است. بنابراین، تولید محتوای متنوع، اصیل و با ارزش می‌تواند تأثیر قابل توجهی در بهبود رتبه سایت شما در نتایج جستجو داشته باشد.

همچنین مهم است که محتوای شما به طور خلاصه و روشن ارائه شود، از کلمات کلیدی مناسب استفاده کنید و بهبود سرعت بارگیری صفحات وب سایت را در نظر داشته باشید، زیرا سرعت لود صفحه نیز یکی از عوامل مهم در رتبه‌بندی وب سایت‌ها توسط گوگل است.

در ادامه به یکی دیگر از حیوانات باغ وحش گوگل می‌پردازیم.

الگوریتم موش کور (Possum Algorithm) سال ۲۰۱۶

الگوریتم موش کور (Possum Algorithm) – سال ۲۰۱۶

در سال ۲۰۱۶، پس از الگوریتم‌های ونیز و کبوتر، گوگل الگوریتم موش کور (Possum) را برای جستجوی محلی به عنوان قوانین گوگل معرفی کرد. این به‌روزرسانی سبب شد تا گوگل یک پرده دیگر در باغچه جستجو خود داشته باشد و نتایج جستجوی محلی را بهبود بخشد.

با این به‌روزرسانی، برای برخی کسب و کارهایی که در رتبه‌بندی کلی گوگل مشکل داشتند، دیده شدن در سرچ محلی آسان‌تر شد. هدف اصلی این به‌روزرسانی، ارائه نتایج مناسب‌تر و دقیق‌تر برای کاربرانی بود که به دنبال کسب و کارهای محلی بودند و برایشان اهمیت داشت که به راحتی به خدمات و کسب و کارهای نزدیک خود دسترسی داشته باشند.

با این تغییرات، رتبه‌بندی جستجوی محلی به طور کامل از رتبه‌بندی جستجوهای عمومی جدا شد و نتایج سرچ محلی تحت تأثیر قرار گرفتند. این منجر به تغییرات قابل توجهی در نتایج سرچ محلی شده است، که کاربران به راحتی می‌توانند به کسب و کارها و خدمات مورد نظر در نزدیکی خود دسترسی پیدا کنند.

در سال ۲۰۱۶ این الگوریتم به باغ وحش گوگل اضافه شد.

الگوریتم فرد (Fred Algorithm) سال ۲۰۱۷

“الگوریتم فرد یکی از الگوریتم های گوگل است که این الگوریتم در ابتدای کار خود نامی‌نداشت و عنوانی برای آن انتخاب نشده بود تا اینکه در توئیتر، گری (Gary IIIyes) این ابهام را برطرف کرد و در پاسخ به یکی از کاربران گفت تمامی آپدیت‌هایی که از این به بعد منتشر می‌شود و نامی ندارد، فِرد نامیده می‌شود. البته منظور ما از این الگوریتم، به‌روزرسانی که در تاریخ هفتم مارس ۲۰۱۷ منتشر شده است.

این الگوریتم کابوسی برای سایت‌های بی‌کیفیت (خصوصا سایت‌هایی که از افیلیت مارکتینگ استفاده می‌کنند) است و در کنار الگوریتم E-A-T قصد دارد نتایج با کیفیت‌تری را در اختیار کاربران قرار دهد. در اصل الگوریتم فرد سایت‌هایی که شرایط زیر را دارند، پیدا می‌کند و به رتبه‌های پایین‌تر می‌فرستد تا فضا برای سایر سایت‌ها آماده شود:

– تبلیغات بیش‌ازحد دارند.
– محتواهای کوتاه تولید می‌کنند.
– کیفیت لینک کمی‌دارند.
– محتواها کیفیت مطلوبی ندارند.
– تعداد زیادی لینک افیلیت دارند.
– تبلیغات بیش از حد در محتواها به نمایش درمی‌آورند.
– مخاطبان تعاملی با محتواها برقرار نمی‌کنند.

تمامی این فاکتورها یا گاهی برخی از آن‌ها کافی‌ست که این الگوریتم گوگل سراغ سایت شما بیاید.”

الگوریتم مدیک یا طبی (Medic Algorithm) سال ۲۰۱۸

“الگوریتم مدیک یک الگوریتم گوگل وسیع و هسته‌ای است که سایت‌های زیادی را تحت تأثیر قرار داد و منجر به تغییرات زیادی در رتبه‌بندی شد. این الگوریتم تنها حوزه پزشکی را هدف قرار داده است، که این امر تمایل به حفظ کاربران از اطلاعات پزشکی نادرست و اشتباه را نشان می‌دهد. این به‌روزرسانی در سال ۲۰۱۸ در همه کشورها و همه زبان‌ها اعمال شد و همه وبلاگ‌ها، سایت‌های پزشکی، سبک زندگی و مشاورین سلامت را شامل شد. با این حال، برخی از سایت‌های تحت تأثیر قرار گرفته، موضوعاتی غیرپزشکی و سلامتی را نیز در بر می‌گرفتند.”

الگوریتم برت (BERT Algorithm) سال ۲۰۱۸

الگوریتم برت (BERT Algorithm) – سال ۲۰۱۸

الگوریتم BERT (Bidirectional Encoder Representations from Transformers) یا آپدیت برت گوگل به عنوان بزرگترین الگوریتم گوگل طی ۵ سال گذشته معرفی شده است که اثر قابل توجهی در حدود یکی از هر ۱۰ سایت دارد. BERT یک ماشین یادگیری است که از شبکه‌های عصبی برای پردازش زبان طبیعی استفاده می‌کند. نام “BERT” از حروف ابتدایی کلمات “Bidirectional Encoder Representations from Transformers” با معنی “نمایش‌های رمزگذار دوطرفه از تبدیل‌کننده‌ها” گرفته شده است.

برت قادر است با توجه به کلمات قبل و بعد، به مفهوم کلمه در جمله پی ببرد. به این صورت، برای تشخیص معنی کلمات و درک رابطه بین آن‌ها در یک متن استفاده می‌شود.

الگوریتم موبایل فرست ایندکس (Mobile First Index Algorithm) سال ۲۰۱۹

در گذشته، تعداد زیادی از کاربران گوگل اکثراً از نسخه دسکتاپ سرویس استفاده می‌کردند. اما در طول زمان، استفاده از نسخه موبایل سایت‌ها توسط کاربران رو به افزایش بوده است. به همین دلیل، گوگل نیز تمرکز خود را بر روی بهبود نسخه موبایل سایت‌ها قرار داده است و یکی از الگوریتم‌های موتورهای جستجو را قرار داده است. این اهمیت به حدی رسید که گوگل به طور رسمی اعلام کرده است که نسخه موبایل سایت‌ها در اولویت قرار دارد و از طریق نسخه موبایل صفحات را ایندکس می‌کند.

این تمرکز بر نسخه موبایل سایت‌ها به دلیل رشد استفاده از دستگاه‌های همراه و تلفن‌های هوشمند است. با توجه به اینکه کاربران بیشتر از دستگاه‌های موبایل و تبلت برای دسترسی به اینترنت استفاده می‌کنند، گوگل باید تمام محتواهای وب را در نسخه موبایل صفحات فهرست کند تا تجربه کاربری بهتری را برای کاربران فراهم کند. این تغییرات در الگوریتم جستجوی گوگل نشان از اهمیت بالای نسخه موبایل سایت‌ها و بهینه‌سازی آن‌ها دارد.

الگوریتم E-A-T سال ۲۰۱۹

یگی دیگر از الگوریتم‌های جستجوی گوگل الگوریتم E-A-T است.  “گوگل با رویکردی که به سایت‌های حوزه سلامت، مالی و حقوقی که به صورت مستقیم با جان و مال افراد در ارتباط هستند، تعامل دارند، الگوریتمی به نام E-A-T (Expertise, Authoritativeness, Trustworthiness) را منتشر کرده است. E-A-T در واقع مخفف سه کلمه Expertise، Authoritativeness و Trustworthiness است و به تخصص، اعتبار و اعتماد ویژه اهمیت می‌دهد.

در ابتدا، این الگوریتم فقط بر روی سایت‌هایی که با جان و مال شما (YMYL) در ارتباط هستند، متمرکز بود، اما گوگل قصد دارد آن را به تمامی حوزه‌ها و سایت‌ها تعمیم دهد. بنابراین، سایت‌های فعال در حوزه‌های مذکور باید محتوا را با رعایت موارد زیر تولید کنند تا امتیاز بالایی از دید الگوریتم E-A-T دریافت کنند و در رتبه‌بندی گوگل بهتر عمل کنند:

  1. تولید محتوا توسط افراد متخصص و اعتباری صورت گیرد و در زمینه مرتبط باشد. همچنین، محتوا باید اصالت داشته باشد و به هیچ وجه کپی نباشد. به عنوان مثال، در حوزه سلامت، گوگل ترجیح می‌دهد که نویسنده مطالب درباره داروها، تداخلات آنها، تأثیرات آنها و موارد مشابه، یک تخصص‌کننده باشد تا به جان کاربران خسارت نرساند.
  2. سایت شما باید در حوزه تخصصی که در آن فعالیت می‌کنید، قابل اعتماد باشد. از نظر گوگل و الگوریتم E-A-T، سایتی که در بین سایر کسب‌وکارها قابل اعتماد باشد، می‌تواند اعتماد کاربران را به دست آورد.
  3. اعتبار، یکی از نیازهای محتوایی است که در این حوزه تولید می‌شود. به منظور داشتن اعتبار در نظر گوگل و الگوریتم E-A-T، نویسنده باید اطلاعات صحیح و کاربردی را ارائه دهد و از منابع معتبر استفاده کند به جای کپی کردن محتوا.

الگوریتم MUM  سال ۲۰۲۱

الگوریتم MUM (Multitask Unified Model) یک الگوریتم پیشرفته و الگوریتم‌های اصلی گوگل است که قابلیت انجام چندین کار را به صورت همزمان دارد. با خلاف الگوریتم‌های دیگر که وظایف را به ترتیب انجام می‌دهند، الگوریتم MUM قادر است چندین وظیفه را به صورت همزمان انجام دهد. به عبارت دیگر، الگوریتم MUM توانایی همزمان خواندن متن، درک مفهوم آن و تقویت آن با استفاده از ویدئو و صوت را داراست. همچنین، این الگوریتم به بیش از ۷۵ زبان زندهٔ جهان آشنا است تا بتواند اطلاعات را درست دریافت کند و به سوالات پیچیدهٔ کاربران پاسخ دهد.

هدف الگوریتم‌های موتور جستجوی گوگل

هدف الگوریتم‌های موتور جستجوی گوگل، دسته‌بندی مطالب سایت‌ها و کمک به کاربر در یافتن اطلاعات مورد نیاز است. روزانه حجم بسیار زیادی از اطلاعات در سایت‌های مختلف بارگذاری می‌شود که باعث تبدیل شبکه جهانی وب به یک کتابخانه بی‌انتها می‌شود. گوگل به عنوان کتابدار این کتابخانه باید بتواند محتواها را دسته‌بندی کرده و بر اساس نیاز کاربران، اطلاعات را در دسترس قرار دهد. الگوریتم‌های گوگل در این فرآیند به گونه‌ای طراحی شده‌اند که به صورت سریع و در عرض چند ثانیه، دسته‌بندی را انجام می‌دهند.

الگوریتم‌های رتبه‌بندی گوگل از بین سایت‌هایی که در خود گوگل ایندکس می‌شوند، به دنبال ارائه اطلاعاتی هستند که بیشترین بازدهی را در پاسخگویی به نیازهای کاربران داشته باشد. به عبارت دیگر، آن‌ها سعی می‌کنند محتواهایی را برجسته کنند که بیشترین ارزش و کیفیت را ارائه می‌دهند و توانایی ایجاد رضایت و لبخند در مخاطبان را داشته باشند.

در ادامه همراه یکی دیگر از الگوریتم گوگل باشید.

الگوریتم های گوگل” و تأثیر آن‌ها بر رتبه‌بندی نتایج

از آنجا که گوگل اقیانوسی از محتواست باید همه آن‌ها را به ترتیب براساس مرتبط بودن به عبارت سرچ‌شده و کیفیت محتوای ارائه‌شده فهرست کند. چرا که کاربر نیز وقت و توان بررسی همه نتایج نمایش داده شده را ندارد. پس در این میان برد با کسی است که جایگاه بالاتری داشته باشد.

گوگل برای فهرست‌بندی صفحات وب برای هر عبارت، از خزنده‌ها یا اسپایدرهایی استفاده می‌کند که همه صفحات را می‌خزند و از لینکی به لینکی دیگر می‌روند و در نهایت برای هر عبارتی که ممکن است سرچ شود، یک فهرستی را می‌سازند. کار اصلی موتور جستجو این است که وب سایت‌هایی را به کاربر ارائه کند که حاوی عبارات جستجوی او باشند. در نتیجه، این فرایند اتوماتیک که مشخص می‌کند نتیجه هر عبارت جستجوشده در چه جایگاه و رتبه‌ای در صفحه نتایج جستجو ظاهر شود، به هر صفحه یک رتبه تعلق می‌گیرد که پیج رنک (Page Rank) نامیده می‌شود.

این غول موتور جستجو نمی‌تواند یک پایگاه داده بسیار بزرگ داشته باشد که نامنظم بوده و هرگاه کاربر عباراتی را در آن جستجو کند، شروع به مرتب کردن آن کند. بنابراین، گوگل در هر زمان توسط خزنده‌های خود محتوا را ایندکس و مدیریت می‌کند. جستجوی ایندکس بسیار سریع‌تر از جستجوی کل پایگاه داده خواهد بود. وقتی محتوا ایندکس شد، گوگل یک کپی از آن تهیه می‌کند و یک میانبر برای هر صفحه را در ایندکس قرار می‌دهد.

در آخر با الگوریتم‌های موتور جستجوی گوگل همراه باشید.

جمع‌بندی

الگوریتم های گوگل چیست؟ باغ وحش گوگل چیست؟ الگوریتم‌های موتورهای جستجو، از جمله الگوریتم‌های گوگل، در واقع برای بهبود کیفیت نتایج جستجو و تجربه کاربری به کار می‌روند.

هدف اصلی آن‌ها بهبود رتبه‌بندی سایت‌ها براساس محتوا و ارائه بهترین و مرتبط‌ترین مطالب به کاربران است.

اگر صاحب یک وب سایت هستید و می‌خواهید تعداد کاربران بیشتری را با سایت خود آشنا کنید، بهینه‌سازی سئو (Search Engine Optimization) و پیروی از دستورالعمل‌های گوگل سئو بسیار مهم است.

با رعایت اصول سئو، شما قادر خواهید بود تا سایت خود را به گونه‌ای بهینه کنید که از هرگونه جریمه و افت در رتبه سایت جلوگیری کنید و به جای آن، رتبه‌بندی و نمایش بهتر در نتایج جستجو را تجربه کنید.

الگوریتم‌های موتورهای جستجو یا باغ وحش گوگل بسیار زیاد هستند که خیلی از آن‌ها به صورت رسمی تایید شده‌اند.

۵/۵ - (۳۳ امتیاز)
اشتراک‌گذاری مطلب

درباره نویسنده

نظرات و پرسش‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *