نماد الکترونیک سئوخانه

Seyyed Amir Tekyeh

لیست مرجع Robots Meta Tag

سئو سایت با استفاده از متا تگ ها

برای افزایش سئو SEO و بهینه سازی لازم است که با متاتگ ها و رفتار ربات موتورهای جستجو نسبت به این متاتگ ها آشنا باشید. لیست مرجع این متاتگ ها (Robots Meta Tag) را می توان در سایت زیر تماشا کرد:

Source= http://noarchive.net/meta

فهرست زیر شناسه های مربوط به موتورهای جستجو را نمایش می دهد:

ASK MSN Bot Yahoo Slurp Google Bot Term
* * * * NoIndex
* * * * NoFollow
* * * * NoArchive
* NoSnippet
* * * NoODP
* NoYDIR
* NoImageIndex
* NoTranslate


توضیحات مربوط به برخی از تگ های بالا:
NoODP = اگر سایتی در dmoz فهرست شده است، آن توضیح را نشان نده.
NoYDIR = اگر سایتی در یاهو فهرست شده است، توضیح آن را در یاهو نشان نده.

Rel=Nofollow استفاده از این متاتگ در پیوندها (لینک ها) به این معناست که به هنگام تحلیل پیوندها، هیچ امتیازی از سایت دهنده لینک به سایت گیرنده لینک، داده نشود. استفاده درست از این شناسه در نگهداری و یا افزایش پیج رنک سایت، بسیار مؤثر است.

<a rel=”nofollow” href=http://www.google.com>Google</a>


برای لینک ها شما می توانید از گزینه های زیر استفاده کنید که هر کدام موضوع خاصی را برای موتورهای جستجو مشخص می کند:

rel=alternate
rel=next
rel=prev
rel=glossary
rel=nofollow
rel=author



دستور user-agent

کاربرد فایل روبوت در افزایش سئو

کنترل ربات ها یا اسپایدر موتورهای جستجو در افزایش سئو و بهینه سازی سایت کاربرد بسزایی دارند. در فایل robots.txt از دستور user-agent استفاده می کنیم. با این دستور روبوت ها مشخص می شوند. روبوت هر موتورجستجو یک نام مشخص دارد.

نام ربات user-agent: robot name ==> Robot Name
کرالر گوگل user-agent: Googlebot ==> Google Crawler
ربات یاهو user-agent: Yahoo! Slurp ==> Yahoo Robots
همه موتورهای جستجو user-agent: * ==> All Engines



فایل robots.txt

افزایش سئو و بهینه سازی سایت با استفاده از فایل robots.txt

موتور جستجو قبل از آنکه وارد سایتی شود، ابتدا فایل robots.txt را از سرور درخواست می کند تا از تمام محدودیت های پیش روی خود در آن سایت آگاه شود. استفاده از فایل robots.txt در افزایش سئو و بهینه سازی سایت کاربرد فراوانی دارد با این فایل می توانید ربات یا crawler های موتور جستجو را کنترل کنید که به کدام شاخه یا فایل ها دسترسی داشته، یا نداشته باشند.

پروتکل robots تنها دو دستور دارد:
1. کدام اسپایدرها محدود شوند.
2. کدام مسیرها محدود شوند.

در ادامه به توضیح دستورات مورد استفاده در فایل robots.txt می پردازیم:

uset-agent

disallow-allow

آدرس فایل robots.txt : این فایل در ریشه ی سایت قرار می گیرد و نه در جای دیگری. مثال

http://www.seokhane.com/robots.txt



برای اطلاعات بیشتر در مورد فایل robots.txt سایت های زیر را مطالعه فرمایید:

http://user-agent.org
http://robotstxt.org/db.html



تماس با سئوخانه

تیم فنی سئوخانه افتخار دارد تا در زمینه های آموزش سئو و بهینه سازی سایت - طراحی سایت - ارائه هاست و میزبانی وب درخدمت شما سروران گرامی باشد.

مدیر تیم سئوخانه: سید امیر تکیه

تلفن تماس: 02144764277 -- 02146055795

ایمیل: Info[at]SeoKhane.Com

آدرس: تهران - دهکده المپیک - ضلع جنوب غربی میدان المپیک - خیابان ساحل - کوچه 51 - پلاک 39 - طبقه اول - شرکت ایده پرداز داده های ابری آریا

(قرار ملاقات با هماهنگی قبلی)

کدپستی: 1485844111

تگ آموزش سئو - سئو سایت

آموزش سئو - آموزش سئو و بهینه سازی سایت - سئو سایت - سئو - آموزش بهینه سازی - آموزش سئو سایت - آموزش رایگان سئو و بهینه سازی - آموزش سیو - آموزش SEO - سئو چیست - معرفی سایت به موتور جستجو - سئو سازی - سئوخانه - کلمات کلیدی در گوگل - اموزش سئو

میزبانی وب و هاستینگ

Top of Page