خوش آمدید به اپن کارت با طعم پارسی - مرجع رسمی اپن کارت

لطفاً برای دسترسی به تمامی بخش های سایت مراحل ثبت نام و ایجاد حساب کاربری را طی نمایید. پس از ثبت نام و ورود به سیستم، شما قادر به استفاده از امکاناتی همچون دانلود فایل ها، ایجاد موضوع، ارسال پاسخ به مباحث موجود، دادن امتیاز به اعضای دیگر، ارسال و دریافت پیام خصوصی، مدیریت نمایه و دیگر امکانات سایت خواهید بود. بعد از ثبت نام و ورودتان به سیستم این پیام دیگر برای شما نمایش داده نخواهد شد. اوقات خوب و لحظات مفیدی را برای شما در سایت آرزومندیم.

Admin

آموزش ساخت و استفاده از فایل robots.txt

این تاپیک پشتیبانی برای آموزش است

آموزش ساخت و استفاده از فایل robots.txt
24/01/95 01:10
24/01/95 13:24

لطفا اگرهر سوال یا بازخوردی دارید اینجا ارسال کنید.

 

 

 

0

به اشتراک گذاری این ارسال


لینک به ارسال
به اشتراک گذاری در سایت های دیگر

سلام می خواستم بدونم این بی نظمی ها در نتایج جستجو هم مال robot هست لطفا راهنمایی بفرمایید

bibbib.thumb.PNG.6e0396cf5d83b2a25cd4eb2در حالی که مثلا

sony.thumb.PNG.5589963eac8bed85c08e101b8

با تشکر

0

به اشتراک گذاری این ارسال


لینک به ارسال
به اشتراک گذاری در سایت های دیگر

برداشت شما نسبت به ساختار و همچنین ربات  تفاوت دارد رباتها فقط دسترسی ها را به موتورهای جستجو میدهند که به چه قسمت دسترسی داشته باشید و به چه قسمت دسترسی نداشته باشید

0

به اشتراک گذاری این ارسال


لینک به ارسال
به اشتراک گذاری در سایت های دیگر

بله ....:7:

اطلاعی دارید که چطور می تونم اینو درست کنم  ؟

به گوگل ربط داره یا به اپن کارت  ، اصلا به این بخش زیر دامنه چی میگند

با تشکر  :emoticon-0100-smile:

0

به اشتراک گذاری این ارسال


لینک به ارسال
به اشتراک گذاری در سایت های دیگر

کاربر گرامی

گوگل با خواندن Sitemap در سایت شما دسته بندی ها و مطالب و ... را ایندکس می کند...

شما می توانید در وب مستر گوگل کارهای زیر را انجام دهید:

1- اضافه نمودن نقشه سایت که توسط خود فروشگاه اپن کارت ساخته می شود (در بخش مدیریت -فیدمحصولات - نقشه سایت را فعال و آدرس اون رو در وب مستر گوگل اضافه نمایید)

2- اضافه نمودن نقشه سایت که توسط سایت ها و نرم افزار نقشه سایت تهیه شده اند (با جستجو کلمه sitemap سایتهای فراوانی پیدا خواهید کرد که نقشه سایت شما را به صورت رایگان و به صورت یک فایل XML در اختیار شما قرار می دهند از آنها استفاده کنید - نقشه سایت را برای محصولات - دسته بندی محصولات - فیلدهای اطلاعات و ... را بدست آورده و در سایت وب مستر گوگل اضافه نمایید)

و همچنین افزونه های رایگان و تجاری در زمینه نقشه سایت در سایت افزونه های اپن کارت موجود است

موفق و موید باشید

2

به اشتراک گذاری این ارسال


لینک به ارسال
به اشتراک گذاری در سایت های دیگر

  • مطالب مشابه

    • توسط aligoli
      ایجاد و تکمیل یک محصول در اپن کارت
      http://www.aparat.com/v/E2cb3
    • توسط Admin
      از فایل robots.txt برای مواردی استفاده می شود که نمی خواهیم صفحاتی از سایتمان توسط موتورهای جستجو (ربات های خزنده) بررسی و ایندکس شود، یا ممکن است قبلا این کار صورت گرفته باشد و اکنون می خواهیم آن صفحات را به هر دلیل حذف کنیم، البته استفاده از فایل robots.txt برای حذف لینک ها از نتایج موتورهای جستجو، تنها یک پیش شرط است (شرط لازم است نه کافی!) و برای تکمیل کار، شاید ناچار باشید به ابزار وبمستر سایت هایی مثل گوگل در آدرس:
      https://www.google.com/webmasters/tools و بینگ در آدرس:
      http://www.bing.com/toolbox/webmaster مراجعه کنید.
      با این تفاسیر استفاده از این فایل همیشه هم ضروری نیست و همانطور که گفتیم، در موارد مسدود کردن دسترسی ربات ها به صفحات خاص (لینک های خاص) کاربرد دارد، اما به دلیل اینکه اکثر ربات های جستجوگر همواره این فایل را از سرور شما درخواست می کنند، بهتر است برای اجتناب از افزایش خطاهای 404 که در بخش log ها و آمار سایت جلوه خوبی ندارند، حتی شده یک فایل خالی با این نام در ریشه سایت خود قرار دهید.
      نحوه تنظیم فایل robots.txt

      یک فایل robots.txt معمولا از دو قانون ساده پیروی می کند، User-agent یا واسط کاربری (نوع خزنده یا ربات) و Disallow یا لینکی که دسترسی به آن را مسدود (یا مجاز) می کنیم؛ علاوه بر این، به یاد داشته باشید که در ابتدای آدرس دایرکتوری ها، باید از یک اسلش (/) نیز استفاده شود و در استفاده از حروف بزرگ یا کوچک نیز دقت کنید (به فرض دایرکتوری Image در مقایسه با image از دید ربات ها، معمولا دو آدرس متفاوت هستند).
      به طور مثال اگر در فایل خود کد زیر را قرار دهیم:
      User-agent: *Disallow: /image/ ربات ها با پیروی از این قانون، دیگر محتوای فولدر image را بررسی نکرده و در نتایج جستجو آن را نمایش نمی دهند، هنگامی که از علامت * برای واسط کاربری استفاده می کنیم، در واقع منظور ما تمام ربات ها هستند، البته ذکر این نکته لازم است که تنها خزنده های برخی سایت ها و شرکت های معروف و معتبر به این قوانین احترام می گذارند و در مقابل برخی حتی برای ارسال اسپم یا نفوذ به صفحات حساس سایت ها، از این فایل، سوء استفاده نیز می کنند، لذا این نکته دارای اهمیت زیادی است که هیچ گاه برای محافظت از دایرکتوری های حساس، مانند دایرکتوری مدیریت سایت، به این فایل بسنده نکنید (بلکه یک سیستم ورود و خروج مطمئن برای آن در نظر بگیرید) و بهتر است آدرس دایرکتوری مدیریت را نیز در آن قرار ندهید، بهترین روش برای جلوگیری از ایندکس شدن دایرکتوری های حساس، این است که هیچ لینک خروجی و در معرض دید و دسترس ربات در صفحات خود نداشته باشید و از طرف دیگر دسترسی به محتوای این نوع صفحات را با ایجاد سیستم دریافت نام کاربری و کلمه عبور، محدود کنید.
       
      استفاده ترکیبی از قوانین در فایل robots.txt

      تنظیمات فایل robots.txt به موارد گفته شده محدود نمی شود، شما می توانید برای یک واسط کاربری، چندین و چند آدرس یا دایرکتوری مجاز یا غیر مجاز تعریف کنید، یا با قوانین پیچیده، دستورات پیچیده تری ایجاد نمائید، به فرض در برخی سایت ها ممکن است مقادیر id سشن (session یا نشست) به عنوان بخشی از آدرس صفحه به صورت رندوم در لینک ها قرار داده شود (این موضوع یک اشکال در سئو محسوب شده زیرا موجب بروز مطالب تکراری با لینک های متفاوت می گردد) و در مقابل برخی آدرس ها نیز علامت ? را به طور طبیعی داشته باشند، در اینگونه موارد اگر بخواهیم به ربات بگوییم که به عبارات بعد از علامت ? در لینک های دارای سشن id توجه نکند، ولی لینک هایی را که به علامت ? (بدون وجود کاراکتری بعد از علامت ?) ختم می شوند، ایندکس کند، در یک فایل robots.txt خواهیم نوشت:
      User-agent: *Allow: /*?$Disallow: /*? به این ترتیب قانون اول اجازه ایندکس تمام آدرس هایی را که نهایتا به علامت ? ختم می شوند می دهد (علامت $ نشان دهنده پایان یک الگو است)، اما قانون دوم باعث نادیده گرفتن سشن id در لینک های داینامیک سایت می شود (در واقع وقتی از علامت $ در انتهای الگو استفاده نمی شود، یعنی هر عبارتی بعد از علامت ? بیاید، شامل آن الگو می شود).  
      یا به فرض اگر بخواهیم چند لینک مختلف را در یک دستور مسدود کنیم، خواهیم نوشت:
      User-agent: *Disallow: /articles/22.htmlDisallow: /articles/23.htmlDisallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب افزودن نقشه سایت به فایل robots.txt

      علاوه بر مجاز و مسدود کردن لینک ها، دایرکتوری ها و فایل ها، فایل robots.txt یک قابلیت دیگر نیز دارد، از طریق این فایل می توانید نقشه xml سایت خود را به تمام ربات های خزنده معرفی کنید، برای انجام این کار کافی است با یک فاصله، آدرس کامل نقشه سایت خود را وارد نمائید، به فرض:
      User-agent: *Disallow: /articles/22.htmlDisallow: /articles/23.htmlDisallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وبSitemap: http://opencartforum.ir/sitemap.xml در پایان یک نمونه فایل برای اپن کارت  ایجاد شده که میتوان از آن استفاده کرد
      user-agent: *Allow: /Disallow: /*&limitDisallow: /*&sortDisallow: /*?route=checkout/Disallow: /*?route=account/Disallow: /*?route=product/searchDisallow: /*?route=affiliate/Disallow: /admin/Disallow: /catalog/Disallow: /download/Disallow: /image/Disallow: /install/Disallow: /system/Disallow: /vqmod/Allow: /image/data/Sitemap: http://opencartforum.ir/sitemap.xmlSitemap: http://opencartforum.ir/index.php?route=feed/google_sitemapSitemap: http://opencartforum.ir/humans.txt  
       بخشی از این مطالب از وب گو استفاده شده
  • چه کسانی در حال بازدید هستند؟   0 کاربر