دستور user-agent
- نوشته شده توسط Seyyed Amir Tekyeh
- منتشرشده در بهینه سازی سئو پارامترهای درونی سایت (On-Page Factors)
- دیدگاه (2)
کاربرد فایل روبوت در افزایش سئو
کنترل ربات ها یا اسپایدر موتورهای جستجو در افزایش سئو و بهینه سازی سایت کاربرد بسزایی دارند. در فایل robots.txt از دستور user-agent استفاده می کنیم. با این دستور روبوت ها مشخص می شوند. روبوت هر موتورجستجو یک نام مشخص دارد.
نام ربات user-agent: robot name ==> Robot Name
کرالر گوگل user-agent: Googlebot ==> Google Crawler
ربات یاهو user-agent: Yahoo! Slurp ==> Yahoo Robots
همه موتورهای جستجو user-agent: * ==> All Engines
موارد مرتبط
- نمونه کارها و مشتریان تیم سئوخانه
- معرفی سایت به Directory List ها
- Frame (قاب)
- Flash (فلش)
- محتوای تکراری
- ابزارهای تحلیل آمار سایت
- اصطلاحات آماری
- بررسی آمار سایت
- بهینه سازی بیش از حد
- اضافه کردن قابلیت Focus کردن زیر منوها در سایت
- قرارگذاری دکمه های skip-button به صورت مخفی
- اضافه کردن قابلیت Focus به object های درون سایت
- CDN - Content Delivery Network
- PDF File Seo
- MetaData File PDF
- ابزارهای کاربردی برای بهینه سازی موتورهای جستجو
- Tagging (تگینگ)
- سایت های کاربردی برای بهینه سازی موتورهای جستجو
- ارزیابی کدهای HTML
- استفاده از تگ های H1 و H2 برای معرفی سایت
دیدگاهها
با سلام..دوست عزیزم شما در ابتدا باید این قسمت را مطالعه می نمودید:
www.seokhane.com/seo-training/on-page-seo-factors/robots-txt
برای فایل نمونه هم می توانید از این فایل کمک بگیرید:
www.seokhane.com/robots.txt
موفق و پیروز باشید
اصلا چیزی سر درنمیارم
آخرش نفهمیدم تو فایل robots.txt باید به چه شکلی نوشته بشه
خوراکخوان (آراساس) دیدگاههای این محتوا