بهینه سازی موتور جستجو یا به عبارتی (SEO) بهبود کیفیت و کمیت وب سایت ترافیک یا یک صفحه وب از موتورهای جستجو است. سئو به جای ترافیک مستقیم (مستقیم) یا محل ترافیک پولی، ترافیک بدون پرداخت (معروف به نتایج “طبیعی” یا “ارگانیک”) را هدف می دهد.

به عنوان یک استراتژی بازاریابی اینترنتی، به عنوان موتورهای جستجو، الگوریتم های برنامه ریزی شده کامپیوتری که رفتار موتورهای جستجو را می کند، جستجوی می کنند، عبارات جستجوی واقعی یا کلمات کلیدی تایپ شده در موتورهای جستجو و جستجوی کدام موتورها. جستجو توسط مخاطبان مورد نظر داده می شود را در نظر می گیرد.

سئو به این دلیل انجام می شود که وقتی وب سایت ها در صفحه نتایج جستجوی موتور (SERP) در رتبه بالاتری قرار دارند و بازدیدکنندگان بیشتری از موتور جستجو دریافت می کنند.

وب مسترها و ارائه دهنده محتوا در اواسط دهه 1990 شروع به بهینه سازی وب سایت ها برای موتورهای جستجو کردند، در آن زمان موتورهای جستجو در فهرست نویسندگان وب اولیه بودند.در ابتدا، تمام وب سایت ها فقط یک صفحه یا URL را داشتند. به موتورهای انتشار می دهند که یک خزنده وب را برای خزیدن آن صفحه ارسال می کند، این خزنده صفحات دیگر را از آن استخراج می کند و در صفحه ای پیدا می شود که برای ایندکس باز می شود.

فرآیند خزیده شدن صفحه به این صورت بود که خزنده یک صفحه را دانلود کرد و آن را در سرور خود موتور جستجو ذخیره کرد. که در آن وجود دارد، جایی که آنها قرار دارند، و هر وزنی برای کلمات خاص، و همچنین تمام پیوندهایی که صفحه در آن قرار دارند، وجود دارد.

به گفته دنی سالیوان، تحلیلگر صنعت، عبارت “بهینه سازی موتور جستجو” احتمالا در سال 1997 مورد استفاده قرار گرفت. سالیوان بروس کلی را یکی از اولین افراد می داند که این اصطلاح را رایج کرد.

متا تگ ها راهنمای هر صفحه را ارائه می دهد. با این حال، استفاده از ابرداده برای صفحات نمایشی کمتر قابل اعتماد بود، زیرا کلمات کلیدی توسط مدیر وب را در متا تگ به طور بالقوه انتخاب کنید، می توانید نادرستی را از سایت واقعی پیدا کنید. کامل یا نادرست نبوده‌اند، این پتانسیل را ایجاد می‌کند که صفحاتی را در جستجوهای نامربوط به اشتباه توصیف می‌کنند.

ارائه‌دهنده‌های وب همچنین برخی از ویژگی‌ها را در منبع HTML یک صفحه در جستجو برای رتبه‌بندی خوب در موتورهای جستجوی دسته‌بندی کردند.

در سال 1997، طراحان موتورهای جستجو متوجه شدند که مدیران وب‌سایت‌ها را جستجو می‌کنند تا در جستجوی موتور خود رتبه‌بندی خوبی کسب کنند و برخی از مدیران وب‌سایت‌ها رتبه‌بندی خود را در نتایج جستجو با جستجوی صفحات با کلمات کلیدی بیش از حد یا نامربوط دستکاری می‌کنند.

موتورهای جستجوی اولیه، مانند Altavista و Infoseek، الگوریتم‌های خود را برای جلوگیری از دستکاری مدیران سایت در رتبه‌بندی تنظیم می‌کنند.

موتورهای جستجوی اولیه با اتکا به عواملی مانند تراکم کلمات کلیدی که در کنترل وبمستر نبودند، از سوء استفاده و دسته بندی رتبه بندی رنج می بردند. نشان می‌دهند، به جای صفحات نامرتبط مملو از کلمات کلیدی متعدد توسط وب‌مسترهای فریب کار، سازگار می‌شوند.

این به معنای دور شدن از اتکای شدید به تراکم مدت به یک فرآیند جامع تر برای ثمر رساندن سیگنال های معنایی بود.

از آنجایی که موفقیت و محبوبیت یک موتور جستجو با آن در تولید مرتبط ترین نتایج برای هر جستجو مشخص می شود، نتایج جستجو با کیفیت پایین یا نامربوط می توانند کاربران را به جستجوی منابع جستجوی دیگر سوق دهد.

موتورهای جستجو با توسعه الگوریتم‌های رتبه‌بندی‌های پیچیده‌تر، با نظر گرفتن عوامل دیگری که آن‌ها را برای مدیران وب‌سایت‌های آسیب‌پذیر، پاسخ دادند.

در سال 1998، دو دانشجوی فارغ التحصیل دانشگاه استنفورد، لری پیج و سرگی برین، «Backrub» را توسعه دادند، موتور جستجویی که برای رتبه بندی صفحات وب بر یک الگوریتم ریاضی متکی بود. قدرت لینک های ورودی است.

پیج رنک این احتمال را تخمین می زند که یک کاربر وب که به طور تصادفی وب گردی می کند و لینک ها ازیک صفحه به صفحه دیگر دنبال می کند، به یک صفحه معین دسترسی پیدا کند.در واقع، این معنی است که برخی از لینک ها قوی تر از سایرین هستند، زیرا به احتمال زیاد یک وب گردی به صفحه رتبه بالاتری می رسد.

پیج و برین گوگل را در سال 1998 پرداختند.گوگل در میان تعداد فزاینده ای از کاربران اینترنتی که طراحی ساده آن را دوست داشتند، طرفداران وفاداری را جذب کردند.

فاکتورهای خارج از صفحه = offpage (مانند رتبه صفحه و تجزیه و تحلیل و تحلیل هایپرلینک) و همچنین عوامل درون صفحه = (مانند کلمات کلیدی فراوان، متا تگ ها، سرفصل ها، لینک ها و ساختار سایت) در نظر گرفته شده تا گوگل را قادر سازد. از دستکاری هایی که در جستجوی مشاهده می شود موتور را متوقف کرد.

بازی رنک صفحه‌ساز بود، اما مدیران وب‌سایت‌ها قبلاً ابزارها و طرح‌هایی را برای ایجاد پیوند ایجاد کرده بودند تا بر موتور جستجوی Inktomi تأثیر بگذارند، و این روش‌ها به طور مشابه برای رتبه‌بندی صفحه بازی نیز قابل استفاده بودند.

بسیاری از سایت‌ها بر تبادل، خرید و فروش لینک‌ها، بیشتر در بررسی موضوعات، بررسی می‌شوند. برخی از این طرح‌ها، یا مزرعه‌های لینک، شامل ایجاد سایت هزاران با هدف صرفاً ارسال هرزنامه پیوند می‌شوند.

تا سال 2004، موتورهای جست‌وجو از عوامل نامشخص را در الگوریتم‌های رتبه‌بندی خود گنجانده بودند تا تاثیر دستکاری پیوندها را کاهش دهند. 200 امتیاز مختلف رتبه بندی می کند.

موتورهای جستجوی پیشرو، گوگل، بینگ و یاهو، الگوریتم هایی را که برای رتبه بندی صفحات استفاده می کنند، فاش نمی کنند. از متخصصان حوزه‌های مختلف برای بهینه‌سازی موتور جستجو مطالعه کرده‌اند و نظرات شخصی خود را به اشتراک گذاشته‌اند.

در سال 2005 گوگل شروع به شخصی سازی نتایج جستجو برای هر کاربر کرد. در سال 2007، گوگل کامپیوتری را با لینک های پولی که رتبه صفحه انتقال می دهد، اعلام کرد.در 15 ژوئن 2009، گوگل فاش کرد که خطرناکی را بسته به نتایج جستجوهای قبلی، نتایج گوگل را برای کاربرانی که ایجاد کردند. را برای ساخت مجسمه سازی PageRank استفاده از ویژگی nofollow در پیوندها انجام شده است.

مت کاتس، مهندس نرم‌افزار معروف گوگل، اعلام کرد که Google Bot دیگر با لینک‌های nofollow به شیوه برخورد نمی‌کند تا از ارائه خدمات دهی SEO از nofollow برای ساخت پیج رنک جلوگیری کند.

به منظور رعایت موارد فوق، مهندسان سئو تکنیک‌های جایگزینی را توسعه دادند که برچسب‌های نوفالو را با جاوا اسکریپت مبهم جایگزین می‌کنند و بنابراین می‌توان رتبه‌سازی را در صفحه انجام داد.

علاوه بر این بر این راه حل پیشنهاد شده است که شامل استفاده از iframe، فلش و جاوا اسکریپت می شود.

در دسامبر 2009، گوگل اعلام کرد که از تاریخچه جستجوی وب همه کاربران خود برای نتایج جستجو استفاده خواهند کرد.در 8 ژوئن 2010 یک سیستم نمایه سازی وب جدید به نام Google Caffeine معرفی شد.

گوگل کافین که به کاربران امکان می دهد نتایج اخبار، پست های انجمن و سایر محتواها را خیلی زودتر از قبل پیدا کنند، تغییری در روشی بود که فهرست گوگل خود را به روز می کرد تا همه چیز را سریعتر از قبل در گوگل نشان دهد.

به گفته کری گریمز، مهندس نرم افزاری که کافئین را برای گوگل کرد، “کافئین 50 درصد نتایج تازه تری نسبت به آخرین فهرست ما برای جستجوهای وب ارائه می دهد…” Google Instant، جستجوی بلادرنگ، در آخرین سال 2010 در جستجوی گوگل کرد. معرفی شد. نتایج جستجو را به موقع و مرتبط تر کنید.

از نظر تاریخی، مدیران سایت ماه ها یا حتی سال ها را صرف بهینه سازی یک وب سایت برای افزایش رتبه بندی جستجو کرده اند.

با رشد محبوبیت سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای پیشروی تغییراتی در الگوریتم‌های خود ایجاد می‌کنند تا به سرعت در نتایج جستجو رتبه‌بندی شوند.

در فوریه 2011، گوگل به روز رسانی پاندا را اعلام کرد که وب سایت های حاوی مطالب از سایر وب سایت ها و منابع را جریمه می کند. کرده و در رتبه بندی های جستجوی سود می برند.با این حال، گوگل سیستمی را پیاده سازی می کند که سایت هایی را که به عنوان عاملی برای شناسایی موتور شناسایی می کند.

پنگوئن گوگل در سال 2012 جستجو کرد وب سایت هایی که از تکنیک های دستکاری برای بهبود رتبه خود در موتور جستجوی استفاده می کنند، جریمه کند.اگرچه Google Penguin به عنوان الگوریتمی با هدف مبارزه با هرزنامه های وب معرفی شده است، اما با سنجش کیفیت سایت هایی که لینک ها از آن ها می آیند، واقعاً بر روی لینک های هرزنامه بررسی می کند.

به روز رسانی مگس خوار گوگل در سال 2013 یک تغییر الگوریتم طراحی شده برای بهبود پردازش زبان طبیعی گوگل و درک مفاهیم صفحات وب را نشان داد.سیستم پردازش زبان مرغ مرغ مگس خوار تحت عنوان جدید شناخته شده “جستجوی مکالمه” قرار می گیرد که در آن سیستم به هر کلمه در پرس و جو بیشتر می شود تا صفحات را بهتر با معنی پرس و جو تطبیق دهد تا چند کلمه.

با توجه به تغییرات ایجاد شده در بهینه سازی موتورهای جستجو، برای ناشران و نویسندگان محتوا، مرغ مگس خوار قصد دارد با خلاص شدن از شر نامربوط و هرزنامه، مشکلات را حل کند و به Googleاجازه دهد با کیفیت بالا تولید می کند و به آنها می دهد. اعتماد کند تا نویسندگان «معتمد» باشند. .

در اکتبر 2019، گوگل اعلام کرد که از مدل‌های BERT برای جست‌وجوی زبان انگلیسی در ایالات متحده استفاده خواهد کرد. به منظور درک سوالات جستجوی کاربران خود.

از نظر بهینه سازی های جستجو، BERT قصد دارد کاربران را راحت تر به لینک مرتبط و ترافیک ترافیکی موتور به وب سایت هایی برساند که در صفحه نتایج موتور جستجو رتبه بندی می تواند افزایش یابد.

اگر دوست داشتی امتیاز دادن یادت نره!