نماد الکترونیک دوستاره سئوخانه

دستور allow / disallow

بهینه سازی سایت با استفاده از فایل htaccess

کنترل ربات ها یا اسپایدر موتورهای جستجو در افزایش سئو و بهینه سازی سایت کاربرد بسزایی دارند. از این دو دستور disallow / allow برای محدود کردن یا دسترسی دادن به یک پوشه استفاده می شود.

محدود کردن <== /disallow:/path
دسترسی داشتن <== /allow:/path

نوشتن کلی درون فایل robots.txt به این طریق اشتباه است:

/disallow:/Sales/ , /Shopping
allow:/site/search

دستور زیر یعنی هیچ روبوتی حق ورود ندارد:

*:user-agent
/:disallow

نوشتن توضیحات در فایل robots.txt با علامت # می باشد:

all robots are allowed#

محدود کردن دسترسی به فایل های خاص:

$disallow:/*.gif
$disallow:/*.eps

منع کردن ربات (دستور مخصوص موتور گوگل) از خواندن تمام پوشه هایی است که نام آنها با private شروع می شوند:

/*disallow:/private

منع کردن ربات (گوگل) از بخش هایی که بلافاصله بعد از نام سایت هرچیزی آمده و بعد از آن علامت سؤال و بعد از علامت باز هر چیز دیگری آمده است:

?*/:disallow
مثال <== Mysite.com/step?finish

نکته: به آدرس هایی که می دهید دقت داشته باشید که بزرگی و کوچکی حروف را رعایت فرمایید.



ادامه مطلب...

دستور user-agent

کاربرد فایل روبوت در افزایش سئو

کنترل ربات ها یا اسپایدر موتورهای جستجو در افزایش سئو و بهینه سازی سایت کاربرد بسزایی دارند. در فایل robots.txt از دستور user-agent استفاده می کنیم. با این دستور روبوت ها مشخص می شوند. روبوت هر موتورجستجو یک نام مشخص دارد.

نام ربات user-agent: robot name ==> Robot Name
کرالر گوگل user-agent: Googlebot ==> Google Crawler
ربات یاهو user-agent: Yahoo! Slurp ==> Yahoo Robots
همه موتورهای جستجو user-agent: * ==> All Engines



ادامه مطلب...

فایل robots.txt

افزایش سئو و بهینه سازی سایت با استفاده از فایل robots.txt

موتور جستجو قبل از آنکه وارد سایتی شود، ابتدا فایل robots.txt را از سرور درخواست می کند تا از تمام محدودیت های پیش روی خود در آن سایت آگاه شود. استفاده از فایل robots.txt در افزایش سئو و بهینه سازی سایت کاربرد فراوانی دارد با این فایل می توانید ربات یا crawler های موتور جستجو را کنترل کنید که به کدام شاخه یا فایل ها دسترسی داشته، یا نداشته باشند.

پروتکل robots تنها دو دستور دارد:
1. کدام اسپایدرها محدود شوند.
2. کدام مسیرها محدود شوند.

در ادامه به توضیح دستورات مورد استفاده در فایل robots.txt می پردازیم:

uset-agent

disallow-allow

آدرس فایل robots.txt : این فایل در ریشه ی سایت قرار می گیرد و نه در جای دیگری. مثال

http://www.seokhane.com/robots.txt



برای اطلاعات بیشتر در مورد فایل robots.txt سایت های زیر را مطالعه فرمایید:

http://user-agent.org
http://robotstxt.org/db.html



ادامه مطلب...
عضو این خبرخوان RSS شوید

تماس با سئوخانه

تیم فنی سئوخانه افتخار دارد تا در زمینه های آموزش سئو و بهینه سازی سایت - طراحی سایت - ارائه هاست و میزبانی وب درخدمت شما سروران گرامی باشد.

مدیر تیم سئوخانه: سید امیر تکیه

تلفن تماس: 4277 76 44 21 98+

ایمیل: Info @ SeoKhane.Com

آدرس: تهران - دهکده المپیک - ضلع جنوب غربی میدان المپیک - خیابان ساحل - کوچه 51 - پلاک 39 - طبقه اول - شرکت ایده پرداز داده های ابری آریا

(قرار ملاقات با هماهنگی قبلی)

کدپستی: 1485844111

تگ آموزش سئو - سئو سایت

آموزش سئو - آموزش سئو و بهینه سازی سایت - سئو سایت - سئو - آموزش بهینه سازی - آموزش سئو سایت - آموزش رایگان سئو و بهینه سازی - آموزش سیو - آموزش SEO - سئو چیست - معرفی سایت به موتور جستجو - سئو سازی - سئوخانه - کلمات کلیدی در گوگل - اموزش سئو

میزبانی وب و هاستینگ

شرکت هاستینگ ابرسرور

میزبانی وب و هاستینگ توسط شرکت ابر سرور

Top of Page