• Sky
  • Blueberry
  • Slate
  • Blackcurrant
  • Watermelon
  • Strawberry
  • Orange
  • Banana
  • Apple
  • Emerald
  • Chocolate
  • Charcoal

این سایت از کوکی استفاده می کند. ادامه مرور در این سایت به منزله این است که با استفاده کوکی ها توسط ما موافقت کرده اید.

 

خوش آمدید به اپن کارت با طعم پارسی - مرجع رسمی اپن کارت

لطفاً برای دسترسی به تمامی بخش های سایت مراحل ثبت نام و ایجاد حساب کاربری را طی نمایید. پس از ثبت نام و ورود به سیستم، شما قادر به استفاده از امکاناتی همچون دانلود فایل ها، ایجاد موضوع، ارسال پاسخ به مباحث موجود، دادن امتیاز به اعضای دیگر، ارسال و دریافت پیام خصوصی، مدیریت نمایه و دیگر امکانات سایت خواهید بود. بعد از ثبت نام و ورودتان به سیستم این پیام دیگر برای شما نمایش داده نخواهد شد. اوقات خوب و لحظات مفیدی را برای شما در سایت آرزو مندیم.

 

پرچمداران

  1. Admin

    Admin

    پایه گذار سایت اپن کارت


    • امتیاز

      2

    • تعداد ارسال ها

      571



مطالب محبوب

در حال نمایش مطالب دارای بیشترین امتیاز از زمان دوشنبه, 5 تیر 1396 در آموزش ها

  1. A امتیاز
    از فایل robots.txt برای مواردی استفاده می شود که نمی خواهیم صفحاتی از سایتمان توسط موتورهای جستجو (ربات های خزنده) بررسی و ایندکس شود، یا ممکن است قبلا این کار صورت گرفته باشد و اکنون می خواهیم آن صفحات را به هر دلیل حذف کنیم، البته استفاده از فایل robots.txt برای حذف لینک ها از نتایج موتورهای جستجو، تنها یک پیش شرط است (شرط لازم است نه کافی!) و برای تکمیل کار، شاید ناچار باشید به ابزار وبمستر سایت هایی مثل گوگل در آدرس: https://www.google.com/webmasters/tools و بینگ در آدرس: http://www.bing.com/toolbox/webmaster مراجعه کنید. با این تفاسیر استفاده از این فایل همیشه هم ضروری نیست و همانطور که گفتیم، در موارد مسدود کردن دسترسی ربات ها به صفحات خاص (لینک های خاص) کاربرد دارد، اما به دلیل اینکه اکثر ربات های جستجوگر همواره این فایل را از سرور شما درخواست می کنند، بهتر است برای اجتناب از افزایش خطاهای 404 که در بخش log ها و آمار سایت جلوه خوبی ندارند، حتی شده یک فایل خالی با این نام در ریشه سایت خود قرار دهید. نحوه تنظیم فایل robots.txt یک فایل robots.txt معمولا از دو قانون ساده پیروی می کند، User-agent یا واسط کاربری (نوع خزنده یا ربات) و Disallow یا لینکی که دسترسی به آن را مسدود (یا مجاز) می کنیم؛ علاوه بر این، به یاد داشته باشید که در ابتدای آدرس دایرکتوری ها، باید از یک اسلش (/) نیز استفاده شود و در استفاده از حروف بزرگ یا کوچک نیز دقت کنید (به فرض دایرکتوری Image در مقایسه با image از دید ربات ها، معمولا دو آدرس متفاوت هستند). به طور مثال اگر در فایل خود کد زیر را قرار دهیم: User-agent: *Disallow: /image/ ربات ها با پیروی از این قانون، دیگر محتوای فولدر image را بررسی نکرده و در نتایج جستجو آن را نمایش نمی دهند، هنگامی که از علامت * برای واسط کاربری استفاده می کنیم، در واقع منظور ما تمام ربات ها هستند، البته ذکر این نکته لازم است که تنها خزنده های برخی سایت ها و شرکت های معروف و معتبر به این قوانین احترام می گذارند و در مقابل برخی حتی برای ارسال اسپم یا نفوذ به صفحات حساس سایت ها، از این فایل، سوء استفاده نیز می کنند، لذا این نکته دارای اهمیت زیادی است که هیچ گاه برای محافظت از دایرکتوری های حساس، مانند دایرکتوری مدیریت سایت، به این فایل بسنده نکنید (بلکه یک سیستم ورود و خروج مطمئن برای آن در نظر بگیرید) و بهتر است آدرس دایرکتوری مدیریت را نیز در آن قرار ندهید، بهترین روش برای جلوگیری از ایندکس شدن دایرکتوری های حساس، این است که هیچ لینک خروجی و در معرض دید و دسترس ربات در صفحات خود نداشته باشید و از طرف دیگر دسترسی به محتوای این نوع صفحات را با ایجاد سیستم دریافت نام کاربری و کلمه عبور، محدود کنید. استفاده ترکیبی از قوانین در فایل robots.txt تنظیمات فایل robots.txt به موارد گفته شده محدود نمی شود، شما می توانید برای یک واسط کاربری، چندین و چند آدرس یا دایرکتوری مجاز یا غیر مجاز تعریف کنید، یا با قوانین پیچیده، دستورات پیچیده تری ایجاد نمائید، به فرض در برخی سایت ها ممکن است مقادیر id سشن (session یا نشست) به عنوان بخشی از آدرس صفحه به صورت رندوم در لینک ها قرار داده شود (این موضوع یک اشکال در سئو محسوب شده زیرا موجب بروز مطالب تکراری با لینک های متفاوت می گردد) و در مقابل برخی آدرس ها نیز علامت ? را به طور طبیعی داشته باشند، در اینگونه موارد اگر بخواهیم به ربات بگوییم که به عبارات بعد از علامت ? در لینک های دارای سشن id توجه نکند، ولی لینک هایی را که به علامت ? (بدون وجود کاراکتری بعد از علامت ?) ختم می شوند، ایندکس کند، در یک فایل robots.txt خواهیم نوشت: User-agent: *Allow: /*?$Disallow: /*? به این ترتیب قانون اول اجازه ایندکس تمام آدرس هایی را که نهایتا به علامت ? ختم می شوند می دهد (علامت $ نشان دهنده پایان یک الگو است)، اما قانون دوم باعث نادیده گرفتن سشن id در لینک های داینامیک سایت می شود (در واقع وقتی از علامت $ در انتهای الگو استفاده نمی شود، یعنی هر عبارتی بعد از علامت ? بیاید، شامل آن الگو می شود). یا به فرض اگر بخواهیم چند لینک مختلف را در یک دستور مسدود کنیم، خواهیم نوشت: User-agent: *Disallow: /articles/22.htmlDisallow: /articles/23.htmlDisallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب افزودن نقشه سایت به فایل robots.txt علاوه بر مجاز و مسدود کردن لینک ها، دایرکتوری ها و فایل ها، فایل robots.txt یک قابلیت دیگر نیز دارد، از طریق این فایل می توانید نقشه xml سایت خود را به تمام ربات های خزنده معرفی کنید، برای انجام این کار کافی است با یک فاصله، آدرس کامل نقشه سایت خود را وارد نمائید، به فرض: User-agent: *Disallow: /articles/22.htmlDisallow: /articles/23.htmlDisallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وبSitemap: http://opencartforum.ir/sitemap.xml در پایان یک نمونه فایل برای اپن کارت ایجاد شده که میتوان از آن استفاده کرد user-agent: *Allow: /Disallow: /*&limitDisallow: /*&sortDisallow: /*?route=checkout/Disallow: /*?route=account/Disallow: /*?route=product/searchDisallow: /*?route=affiliate/Disallow: /admin/Disallow: /catalog/Disallow: /download/Disallow: /image/Disallow: /install/Disallow: /system/Disallow: /vqmod/Allow: /image/data/Sitemap: http://opencartforum.ir/sitemap.xmlSitemap: http://opencartforum.ir/index.php?route=feed/google_sitemapSitemap: http://opencartforum.ir/humans.txt بخشی از این مطالب از وب گو استفاده شده
  2. A امتیاز
    هر لینک ورودی از سایت های دیگر به صفحات شما سایت را بک لینک یا Backlink مینامیم. زمانیکه یک لوله کش برای تعمیر به منزل شما می آید او را دم در نگه میدارید یا به داخل خانه راهنمایی کرده و به محل مورد نظر میبرید؟ بیشتر افرادی که سایت شما را بازدید میکنند انتظار دارند که مستقیما به بخش مورد نظر خود راهنمایی شوند. به همین دلیل ورود بازدیدکنندگان به صفحات داخلی شما جالب تر است تا صفحه اول سایت. این امر اهمیت بک لینک به صفحات داخلی را نشان میدهد، اگر شما بک لینک به صفحات داخلی سایت نداشته باشید شانس کمتری در شناسایی آنها از طرف موتورهای جستجو و جذب بازدیدکنندگان خواهید داشت. بهتر است که یک سوم از بک لینک های شما به صفحه اصلی و بقیه به صفحات داخلی سایت وارد شوند به عبارت دیگر برای سئو بهتر باید تعداد بک لینک به صفحات داخلی در مجموع سه برابر صفحه اول باشد. اهمیت بک لینک به صفحات داخلی در چیست؟ دلایل زیادی برای بک لینک عمقی وجود دارند که در ادامه بررسی خواهیم کرد: اعتبار صفحه: اعتبار صفحه اصلی شما با بک لینک های مناسب بالا رفته و موجب بهبود وضعیت شما در نتایج موتورهای جستجو خواهد شد. با این وجود بالا رفتن اعتبار صفحه اصلی به تنهایی اعتبار دامنه شما را افزایش آنچنانی نخواهد داد و نیاز است تا صفحات داخلی سایت نیز اعتبار بالایی داشته باشند. با بک لینک مناسب به صفحات داخلی و افزایش اعتبار آنها اعتبار دامنه شما رشد چشمگیری خواهد داشت. تنوع: اگر شما فرضا ۱۰۰ بک لینک از سایتهای مختلف به صفحه اصلی خود داشته باشید ممکن است موتورهای جستجو به شما مشکوک شده و بک لینک های شما را غیرطبیعی تشخیص دهند. این امر موجب اسپم شناخته شدن سایت خواهد شد بخصوص اگر بک لینک ها در زمان کوتاهی به سایت شما وارد شوند. به همین دلیل بهتر است که لینک های ورودی به سایت شما بین صفحات تقسیم شوند تا تنوع مورد نیاز موتور جستجو را دارا باشد. ارتباط موضوعی: فرض کنید که یک بازدیدکننده از بک لینک شما با “عنوان مقایسه آیفون ۴ و گالکسی ۳″ به سایت شما وارد شود و لینک به صفحه ای منتهی شود که در آن با اطلاعاتی از تعداد زیادی گوشی های موبایل مواجه شود، به احتمال زیاد از سایت شما خارج شده و ضریب خروج از سایت شما افزایش می یابد و اعتبار سایت شما را کاهش خواهد داد. ولی با هدایت بک لینک به صفحات داخلی و خاص میتوانید بیش از پیش توجه بازدیدکنندگان را جلب کنید. همچنین میتوانید بک لینک هر صفحه را در محیطی مرتبط با موضوع آن قرار دهید. سئو: زمانیکه تمام بک لینک های خود را به صفحه اصلی وارد کنید حداکثر در دو یا سه کلمه پیشرفت خواهید داشت ولی با استفاده از صفحات داخلی میتوانید تا حد زیادی گستردگی کلمات کلیدی خود را افزایش دهید. برای هر کلمه کلیدی شما صفحه مجزایی در نتایج جستجو خواهید داشت و به این ترتیب ضریب خروج سایت شما به شدت کاهش می یابد. چگونه بک لینک رایگان داشته باشیم؟ در ادامه چند روش معمول و مناسب برای کسب بک لینک رایگان به صفحات داخلی سایت معرفی میکنیم: ثبت نظر در وبلاگ ها هنگامیکه مطالب وبلاگ سایتهای مرتبط با کار خود را میخوانید و نظری برای آنها میگذارید، با قرار دان آدرس یکی از صفحات داخلی سایت خود که مرتبط با آن موضوع است میتوانید یک بک لینک مناسب و رایگان داشته باشید. گفتگو در فروم ها (انجمن) همانند بخش وبلاگ شما میتوانید با ساخت اکانت در فرومها و قرار دادن آدرس صفحات در امضا یا در گفتگوهای مرتبط با کار خود برای صفحات داخلی بک لینک بسازید. پست مهمان بسیاری از سایتها و وبلاگ ها به کاربران خود اجازه میدهند که مطالبشان را از طریق سایت آنها منتشر کنند، شما با تهیه مطلبی مناسب و قرار دادن آدرس یکی از صفحات داخلی و مرتبط از سایت خود در آن میتوانید یک بک لینک عالی برای خود دست و پا کنید. گوگل پلاس شما میتوانید روی اکانت گوگل پلاس خود یک وبلاگ بدون محدودیت تعداد کاراکتر داشته باشید. ارائه مطالب از طریق آن و بک لینک به صفحات داخلی سایت اعتبار شما را افزایش خواهد داد همچنین گوگل مطالب ارائه شده از طریق گوگل پلاس را در اولویت قرار داده و جایگاه بهتری در نتایج جستجو به آنها خواهد داد. بک لینک گرفتن از گوگل پلاس بک لینک گرفتن از گوگل پلاس وبلاگ اگر شما یک وبلاگ برروی سایت خود دارید، بک لینک دادن به صفحات و مطالب دیگر وبلاگ از داخل هر نوشته در دست خودتان بوده و هزینه ای دربر نخواهد داشت و بر سئو هر صفحه تاثیر مثبت خواهد داشت. ثبت صفحات داخلی در دایرکتوری های مخصوص مطالب خود را در دایرکتوریهای مخصوص لینک به صفحات داخلی معرفی و ثبت کنید: Abigdir Eicq Circus-do-suannes Threelinkdirectory فیسبوک، توییتر و لینکداین روس صفحات خود در توییتر، فیسبوک و لینکداین مطالبی حاوب بک لینک منتشر کنید، حتی اگر آدرس ها نوفالو باشند شما از این شبکه های اجتماعی برای سایت خود بازدیدکننده جذب خواهید کرد. امضای ایمیل بک لینک خود را در امضای ایمیل خود قرار دهید، این کار بخصوص برای ایمیلهای کاری و مرتبط با سایت شما بسیار مفید خواهد بود. شما هم میتوانید راههای مختلفی را با خلاقیت خود برای کسب بک لینک رایگان پیدا کنید ولی دقت داشته باشید که مطالب خود را در صفحاتی با موضوعات مرتبط معرفی کنید و از قراردادن آدرس خود در هر صفحه نامرتبطی خودداری کنید. منبع : وبسیما
این صفحه از پرچمداران بر اساس منطقه زمانی تهران/GMT+04:30 می باشد

درباره ما

اپن کارت پارسی مرجع رسمی اپن کارت در ایران ، در 9 مهر ماه سال 1388 به طور رسمی فعالیت خود را در زمینه پشتیبانی اپن کارت آغاز کرده است.این مجموعه به همراه گروه فنی خود با در نظر داشتن چشم اندازی برای آینده نزدیک ، قصد دارد تا به معرفی و آموزش هرچه بیشتر و بهتر هسته قدرتمند و دوست داشتنی اپن کارت ، به روش های مختلف در زمینه های گوناگون بپردازد تا در کنار کاربران خود به موفقیت های هر روز خود بیفزاید
Real Time Web Analytics