Thursday, March 22, 2018

SEO question and answer

এস ই ও কি এবং SEO বা এস ই ও নিয়ে কিছু ধারাবাহিক প্রশ্ন-উত্তর

১। SEO কি ?
এসইও(SEO) বা সার্চ ইঞ্জিন অপটিমাইজেশন বলতে বুঝায় বিভিন্ন সার্চ ইঞ্জিনে একটি সাইটকে তুলে ধরা সাইটে কি আছে তা সার্চ ইঞ্জিনকে বুঝানো। আমরা যেকোনো কিছু লিখে গুগলে সার্চ দিলে দেখা যাবে অনেক পরিমানে ফলাফল পাওয়া যায় এর মধ্যে প্রথম ২/৩ পেজে যে সাইট গুলো আমরা পাই সেগুলোই আমরা দেখে থাকি। এটাই হল এসইও মানে সাইটে এসইও করলে সার্চ ইঞ্জিন আপনার সাইটকে আগে নিয়ে আসবে আগে থেকলে ভিজিটররা বেশি দেখবে। এটাই মূলত এসইও র কাজ।

SEO শব্দের অর্থ হল Search Engine Optimize . আমি সহজ বাংলায় আমার নিজের মত করে বলি, SEO হল এমন একটা কায়দা.. যে কায়দাতে সার্চ ইঞ্জিন কে একটি নির্দিষ্ট ওয়েবসাইটকে, ঐ ওয়েবসাইটের কয়েকটি নির্দিষ্ট কীওয়ার্ড দ্বারা পরিচয় করিয়ে দেয়া। যাতে পরে কোন ভিজিটর ঐ ধরনের কোন কীওয়ার্ড সার্চ ইঞ্জিনে লিখে সার্চ দিলে.. সার্চ ইঞ্জিন ঐ নিদির্ষ্ট ওয়েবসাইটাকে ভিজিটরকে প্রদান করবে।

সার্চ ইঞ্জিন অপটিমাইজেশন (SEO) হলো অনলাইনে মার্কেটিং করা। মনে করুন আপনার একটি প্রতিষ্ঠান আছে, সেখানে শাড়ি ও লুঙ্গী বানানো হয়ে থাকে। বিস্তারিত শুধু বানানেই কি কাজ শেষ হবে? আপনার প্রডাক্ট এর বিক্রির জন্য নিশ্চয়ই মার্কেটিং মানে বিজ্ঞাপন দিতে হবে।ঠিক তেমনই SEO করতে হবে তখনই যখন আপনার একটি ওয়েব সাইট থাকবে এবং আপনি চান আপনার ওয়েব সাইটটি যেন সবার কাছে প্রচার হয়। কিন্তু ওয়েবসাইট তো আর শাড়ি ও লুঙ্গী নয়, সুতুরাং মার্কেটিং টা একটু অন্য স্টাইলে করতে হবে। আরো সহজ করে বললে, মনে করুন আপনি একটি ওয়েবসাইট খুলেছেন। এখন ওয়েব সাইটের ভিজিটর পাবেন কোথায়? আপনি google ওপেন করে টাইপ করুন http://www.careersourcebd.com করেছেন? কি দেখা যায়? দেখা যাবে এসইও ট্রেইনিং বিডির ওয়েবসাইটটা গুগলে দেখা যাচ্ছে। একই ভাবে অন্য যে সকল সার্চ ইঞ্জিন আছে সেখানেও যদি আপনি এসইও ট্রেইনিং বিডি লিখেন তাহলে এসইও ট্রেইনিং বিডির সাইট চলে আসবে। মূলত এই কাজটা করাই হচ্ছে SEO। এছাড়া নতুন কনো সাইটে ভিজিটর বা-ড়ানোর একমাত্র উপায় হল SEO। অর্থাৎ যখনই কেউ কিছু লিখে সার্চ দিবে গুগলে অথবা যে কোন সার্চ ইঞ্জিনে আপনার সাইটের লিঙ্ক যেন সেখানে দেখা যায়। শুধু দেখা গেলেই হবে না। প্রথম ১০ এর মাঝে থাকতে হবে। আর প্রথম সারিতে থাকলে ওই ওয়েবসাইটে যেমন ভিজিটর বৃদ্ধি পায় তেমনি তাদের যা প্রচারণা চালানো উদ্দেস্য তা সফল হয়। কি সাহস পাচ্ছেন না? হাজার হাজার সাইট থাকতে আপনার সাইটের লিঙ্ক কিভাবে আসবে? সবই সম্ভব শুধু অপেক্ষা করুন আর আমাদের সঙ্গেই থাকুন তাহলে সব কিছু জানতে পারবেন ইনশাল্লাহ।

২। এস.ই.ও কত প্রকার ও কি কি ?
অধিকাংশ বিশেষজ্ঞের মতে 
সার্চ ইঞ্জিন অপটিমাইজেশন (SEO)দুই প্রকার । যথা :
1.Black hat SEO 
2. White

কিন্তু এদের মাঝে আরেক প্রকার SEO বিদ্যামান তার নাম Grey hat SEO. যদি আমরা ব্লাক হ্যাট অর্ধেক আর হোয়াইট হ্যাট অর্ধেক প্রাকটিস করি তাহলে সেটাই Grey hat SEO। 
White SEO আবার দুটি অংশে বিভক্ত।

১। অনপেজ SEO
২। অফপেজ SEO


 অনপেজ SEO কি ?
অনপেজ আসলে কোন একটি ওয়েব সাইট এর মধ্যে যে অপটিমা-ইজেশন করা হয়, সেইটা হল অনপেজ অপটিমা-ইজেশন । বিষয়টা এমন যে যখন কোন ওয়েব সাইট এর ডিজাইন করা হয় তখন এর ভিতরে কিছু সার্চ ইন্জিন অপটিমা-ইজেশন এর কাজ করতে হয়,এই কারনে করতে হয় যে সার্চ ইঞ্জিন যেন আমার সাইট টা খুজে পায়। ওয়েব সাইটের ভিতরে যা কিছু করা হয়, সব অনপেজ অপটিমাইজেশন।
অনপেজ অপটিমা-ইজেশন হচ্ছে সার্চ ইন্জিন অপটিমা-ইজেশন এর সবচেয়ে গুরুত্বপূর্ণ বিষয়। আর এটার ব্যবহার যদি কোনরকম ভুল হয় তাহলে সার্চ ইঞ্জিন আপনার সাইট খুজে বের করতে সাহায্য করবে না। তাই এটার ব্যবহার করতে হবে সঠিকভাবে। অনপেজের মধ্যে যে বিষয়গুলো বিদ্যমান। নিচে দেওয়া হল।
  • কি- ওয়ার্ড রিসার্চ,
  • কনটেন্ট,
  • মেটা ট্যাগ এবং মেটা ডিস্ক্রিপশন,
  • গুগল সাইট ম্যাপ,
  • XML সাইট ম্যাপ ।

আরও বেশ কিছু আছে। কিন্তু এইগুলো সবচেয়ে গুরুত্বপূর্ণ। এই কয়টা জিনিস জানতে পারলে অনপেজ অপটিমা-ইজেশন এর জন্য আর কিছুর প্রয়োজন নেই।
ওয়েব পেজের মধ্যে যে সকল অপটিমা-ইজেশন করা হয় তাকেই অন-পেজ অপটিমা-ইজেশন বলা হয়।
আসুন দেখে নিই অন-পেজ অপটিমা-ইজেশনে কি বিষয় অন্তভুক্ত থাকে
  • মেটা ট্যাগের ব্যবহার,
  • টাইটেলে ট্যাগের ব্যবহার,
  • কী-ওয়ার্ড ট্যাগের ব্যবহার,
  • Description ট্যাগের ব্যবহার,
  • ALT ট্যাগের ব্যবহার,
  • h1-h6 ট্যাগের ব্যবহার,
  • পেজ – ফাইলের নামকরন,
  • কী ওয়ার্ড সমৃদ্ধ কনটেন্ট বনানো,
  • XML Sitemaps তৈরী করণ ইত্যাদি।

৩। অফপেজ SEO কি ?
অফপেজ অপটিমা-ইজেশন অনপেজ অপটিমা-ইজেশনকে ফলো করে। এর মানে, সাইট যত বেশী ভিজিট হয় তার মূল্য সার্চ ইঞ্জিনের কাছে তত বাড়ে। ওয়েবসাইটের বাইরে থেকে ওয়েবসাইটের জন্য যা করা হয় তাকে অফপেজ অপটিমা-ইজেশন বলে। অর্থাৎ ওয়েবসাইটের প্রচারের জন্য যেই মার্কেটিং করা হয় তাকেই অফপেজ অপপিমা-ইজেশন বলে।
অফপেজ অপটিমা-ইজেশন প্রচুর পরিমানে ট্রাফিক বা ভিজিটর এবং সাইট কে সার্চ ইঞ্জিন এর উপরে আনার জন্য সাহায্য করে। এই জন্য অফপেজ অপটিমা-ইজেশন এর গুরুত্বটা এত বেশি।অফপেজ অপটিমা-ইজেশন এর মধ্যে রয়েছে সব গুরুত্বপূর্ণ বিষয়। অনপেজ অপটিমা-ইজেশন হচ্ছে সাইট যখন নতুন তখন এর গুরুত্ব অনেক বেশি, কিন্তু সাইট যখন পুরান হয়ে যায় তখন অফপেজ অপটিমা-ইজেশন ছাড়া সাইট একেবারে অচল। এখন দেখি অফপেজ অপটিমা-ইজেশন এর মধ্যে কি আছে।
  •  ব্যাক লিঙ্কিং,
  • ব্লগ কমেন্ট,
  • ফোরাম পোস্টিং,
  • সোশ্যাল বুকমারকিং,
  •  ইয়াহু এন্সার ব্যাকলিঙ্কং,
  • আর্টিকেল সাবমিশন,
  • ডিরেক্টরি সাবমিশন,
  • লিঙ্ক হুইল
  • RSS সাবমিশন,
  • Review Site সাবমিশন,
  • সার্চ ইঞ্জিন সাবমিশন
  •  ভিডিও পোস্টিং,
  •  ইমেজ পোস্টিং,
  • পিডিএফ সাবমিশন

মেটা ট্যাগ কি ?
মেটা ট্যাগ হল HTML এর এমন কিছু ট্যাগ যে গুলো আপনার ওয়েব সাইটের গুরুত্বপূর্ণ তথ্য গুলোকে সার্চ ইন্জিনের কাছে প্রকাশ করে থাকে।এসকল ট্যাগের মধ্যকার লেখা গুলো ব্রাউজারে প্রকাশ পায় না (টাইটেল ট্যাগ বাদে)।কিন্তু এই ট্যাগ ব্যবহারের ফলে সার্চ ইন্জিন বা অন্য ওয়েব ডেভলপাররা জানতে পারে ওয়েব সাইটের লেখক ,ওয়েব সাইট তৈরীর তারিখ, শেষ আপডেট করার সময় ইত্যাদি। তবে সকল ট্যাগ গুলো SEO তেমন গুরুত্বপূর্ণ নয় যতটা টাইটেলে,কী ওয়ার্ড,Description ট্যাগ গুলো। এই ৩টি ট্যাগ SEO জন্য অনেক গুরুত্বপূর্ণ
৬। robots.txt কি ?
যখন সার্চ ইঞ্জিনের সার্চবট কিংবা স্পাইডারগুলো আমার ওয়েবসাইটে এসে আপনার পেজগুলোকে ইনডেক্স শুরু করে, তখন Robots.txt ফাইলটি দিক নির্দেশকের কাজ করে। এই ফাইলটি সার্চ ইঞ্জিন থেকে আগত ক্রওলার বা স্পাইডারকে জানাবে কোন পেজগুলো ইন্ডেক্স করতে হবে আর কোন পেজগুলো ইন্ডেক্স করতে হবে না। আপনার ওয়েবসাইটের পেজগুলো ইন্ডেক্স হওয়া বা না হওয়া অনেকটা এর ওপর নির্ভর করবে । ফাইলটি একটি সাধারণ টেক্সট ফাইল, এতে কোন বিশেষ কোডিং করা হয়নি, এটি আপনার ওয়েবসাইটের রুট ডিরেক্টরতে থাকতে হবে।
উদাহরণস্বরূপ – http://careersourcebd.com/robots.txt
“robots.txt” ফাইল এমন একটি ফাইল যেটা সার্চ ইন্জিনকে বলে যে,সার্চ ইন্জিন একটা সাইটের কোন কোন্ পেজ crawl করবে আর কোন কোন পেজ crawl করবেনা।এই robots.txt ফাইলটি রুট ফোল্ডারে থাকে।
৭। আমি কিভাবে Robots.txt ফাইলটি তৈরি করবো?
robots.txt ফাইল দিয়ে সার্চ ইন্জিনের বট,ক্রাউলার এবং স্পাইডার সাইটের কোন্ কোন্ পেজ দেখবে এবং কোন্ কোন্ পেজ দেখবেনা এসব নিয়ন্ত্রন করা যায়।এই নিয়ন্ত্রনের পদ্ধতিকে বলা হয় রোবটস এক্সক্লুসন প্রটোকল (Robots Exclusion Protocol) বা রোবটস এক্সক্লুসন স্টান্ডার্ড (Robots Exclusion Standard) .এই ফাইল তৈরীর আগে এখানে ব্যবহৃত কিছু চিহ্ন চিনে নেয়া যাক
Robots.txt Protocol – Standard Syntax & Semantics
অংশ/চিহ্ন বর্ননা
User-agent: নির্দেশ করে রোবট(সমূহ)কে
* Wildcard. User-agent: * এটার অর্থ সব রোবট
disallow: প্রতিটি লাইন disallow: দিয়ে শুরু হয়।এরপরে আপনি / দিয়ে URL path ঠিক করে দিতে পারেন।এতে করে ওই path বা ফাইল বা ওই পেজ আর রোবট ক্রাউল করবেনা।যদি কোন path না দেন অথ্যাৎ ফাকা থাকে তাহলে disallow কাজ করবে allow এর।
# কমেন্ট করার জন্য।এটার পরে কোন লাইন এজন্য লেখা হয় যাতে এই লাইনটি পরে বোঝা যায় যে নিচের কোডগুলি কি বিষয়ক হবে।
Disallow ফিল্ড আংশিক বা পূর্নাঙ্গ URL উপস্থাপন করতে পারে।/ চিহ্নের পর যে path উল্লেখ থাকবে সেই path রোবট ভিজিট করবেনা।যেমন
Disallow: /help
#disallows both /help.html and /help/index.html, whereas
Disallow: /help/
# would disallow /help/index.html but allow /help.html
কিছু উদাহরন
সব রোবট অনুমোদন করবে করবে সব ফাইল ভিজিটের জন্য (wildcard “*” নির্দেশ করে সব রোবট)
User-agent: *
Disallow:
সব রোবট কোন ফাইল ভিজিট করবেনা
User-agent: *
Disallow: /
গুগলবট এর শুধু ভিজিটের অনুমোদন থাকবে বাকি কেউ ভিজিট করতে পারবেনা
User-agent: GoogleBot
Disallow:
User-agent: *
Disallow: /
গুগলবট এবং ইয়াহুস্লার্প এর শুধু ভিজিটের অনুমোদন থাকবে বাকি কারো থাকবেনা
User-agent: GoogleBot
User-agent: Slurp
Disallow:
User-agent: *
Disallow: /
কোন একটা নির্দিষ্ট বটের ভিজিট যদি বন্ধ করতে চান তাহলে
User-agent: *
Disallow:
User-agent: Teoma
Disallow: /
এই ফাইলটি দ্বারা যদি আপনার সাইটের কোন URL বা পেজ crawl করা বন্ধ করে দেন তারপরেও কিছু সমস্যার কারনে এই পেজগুলি কোথাও কোথাও দেখাতে পারে।যেমন রেফারেল লগ এ URL গুলি দেখাতে পারে।তাছাড়া কিছু কিছু সার্চ ইন্জিন আছে যাদের এলগরিদম খুব উন্নত নয় ফলে এসব ইন্জিন থেকে যখন স্পাইডার/বোট crawl করার জন্য পাঠায় তখন এরা robots.txt ফাইলের নির্দেশনাকে উপেক্ষা করে আপনার সব URL crawl করে যাবে।
৮। কিওয়ার্ড কি ?
কিওয়ার্ড হল শব্দ গুচ্ছ যা দিয়ে আপনি বিভিন্ন সার্চ ইঞ্জিনে আপনার তথ্য খুজতে ব্যবহার করে থাকেন
৯। কিওয়ার্ড রিসার্স কি ?
SEO এর প্রধান উপাদান হচ্ছে কীত্তয়ার্ড।বিশ্বের অধিকাংশ ব্যবহারকারী তথ্য খোজার ক্ষেত্রে কোন কোন শব্দ ব্যবহার করে থাকেন। কম জনপ্রিয় কোন শব্দ যদি ত্তয়েবসাইটের ডোমেইন এ ব্যবহার করা হয় তা হলে এটি সার্চ করার সময় পিছিয়ে থাকবে। তাই সঠিক কী ব্যবহার করার জন্য গুগলেরই সাহায্য গ্রহণ করতে হবে। প্রতিযোগীর সংখ্যা কমিয়ে নিয়ে আসার জন্য সঠিক শব্দ নির্বাচন করতে হবে। তাই গুগলের adwords ব্যবহার করে কোন শব্দ কতজন ব্যবহার করছে তার একটি হিসাবনিকাশ পাত্তয়া যায়।প্রতিমাসে যে পরিমানে সার্চ হয়েছে কিন্তু প্রতিযোগীর সংখ্যা কম এমন সকল শব্দ ব্যবহার করে সাইট নির্মাণ করলে সহজেই কাঙ্খিত ফল পাত্তয়া যায়। গুগলে mediafire movies লিখে সার্চ দেত্তয়া হলে এর প্রতিযোগির সংথ্যা দেখা যাচ্ছে অনেক। কিন্তু একই শব্দের সাথে আরো কিছু শব্দ all kinds of mediafire movies যুক্ত করে সার্চ দিলে প্রতিযোগিতা কমে যায়। এভাবেই গুগল adwords এর সাহায্যে সঠিক শব্দ, প্রতিযোগিতা কম কিন্তু সহজেই সকলে খোজার ক্ষেত্রে ব্যবহার করে থাকে এমন শব্দ ব্যবহার করে সাইট তৈরি করা যায়। তাই SEO সার্চ ইঞ্জিন অপটিমা-ইজেশন করার জন্য সঠিক শব্দ নির্বাচন ছাড়া আর কোন উপায় নেই।
১০। সাইটম্যাপ কি ?
সাইটম্যাপ একটি XML ফাইল যাতে কোনো ওয়েবসাইটের যাবতীয় লিংক আরোও কিছু তথ্যসহ থাকে – যার ফলে সার্চ ইঞ্জিনগুলো খুব সহজে এবং কার্যকরীভাবে ওয়েবসাইটে ঘুরে বেড়াতে পারে এবং প্রয়োজনীয় ওয়েবপেজগুলোকে ইনডেক্স করতে পারে। ওয়েবমাষ্টাররা সাইটম্যাপের সাহায্যে তাদের ওয়েবসাইটে ইনডেক্স উপযোগী পেজ সম্বন্ধে সার্চ ইঞ্জিনগুলোকে অবহিত করে থাকে।
১১। সাইটম্যাপ কিভাবে বানাব?
কয়েকটি উপায়েই সাইটম্যাপ বানানো যায়। নিজ হাতে লিংক ধরে ধরে কোড করে করতে পারেন আবার Vigos gSitemap সফটওয়ার কিংবা XML Sitemaps ওয়েবসাইটটি ব্যবহার করে খুব সহজেই কেবলমাত্র ওয়েবসাইটের লিংক দিয়েই সাইটম্যাপ তৈরি হয়ে যায়। যারা wordpress কিংবা joomla ব্যবহার করেন, তারা যথাক্রমে Google XML Sitemaps এবং Xmap প্লাগইন ব্যবহার করে অটোমেটিকভাবে সাইটম্যাপ বানিয়ে ফেলতে পারেন।
এছাড়া যারা blogger.com কিংবা wordpress.com এর ব্লগ ব্যবহার করেন যাতে ফাইল আপলোডের (FTP) সুবিধা নেই, তারা ব্লগের RSS feed টিকে সাইটম্যাপ হিসেবে ব্যবহার করতে পারেন। সাধারনত blogger.com এর feed এর লিংক হল http://xxxxx.blogspot.com/feeds/posts/default এবং wordpress.com ব্লগের জন্য হল http://xxxxx.wordpress.com/feed/ যা সাইটম্যাপের বিকল্প হতে পারে – xxxxx এর স্থলে আপনার ব্লগের নাম বসিয়ে দিন।
১২। ডুফলো এবং নোফলো ব্যাকলিংক কি?
ডুফলো ব্যাকলিংক
ডুফলো ব্যাকলিংক হচ্ছে একটি সাধারন এইচটিএমএল লিংক। যার মাধ্যমে লিংকটি সরাসরি আপনার সাইটকে রেফার করবে এবং ব্লগ বা পোস্ট এই লিংকটিকে সমর্থন দেবে। ডুফলো ব্যাকলিংক হচ্ছে সবচেয়ে শক্তিশালী লিংক। আপনি কি ধরনের ব্লগের কাজ থেকে ডুফলো ব্যাকলিংক পাচ্ছেন তার উপরে নির্ভর করে আপনি কি ধরনের রেঙ্ক পাবেন।
উদাহরণস্বরূপ, আমি একটি সাধারন এইচটিএমএল সোর্স কোডের লিংকের মাধ্যমে একটি সাইটের ডুফলো ব্যাকলিংক উপস্থাপন করছি।
নোফলো ব্যাকলিংক
নোফলো ব্যাকলিংক হচ্ছে এমন একধরনের লিংক যার মাধ্যমে ওয়েবসাইট সার্চ ইঞ্জিনকে তার প্রকাশিত ব্যাকলিংক কে ক্রাওল/ ইন্ডেক্স করতে নিষেধ করে । অর্থাৎ আপনি এধরনের লিংকের মাধ্যমে কোন প্রকার পেজ রেঙ্ক পাবেননা। তবে এর মাধ্যমে কিছু ভিজিটর পেতে পারেন। বিশ্বের জনপ্রিয় সাইটগুলো নোফলো ব্যাকলিংক ব্যাবহার করে থাকে যেমন ফেসবুক, টুইটার, উইকিপিডিয়া ইত্যাদি। নোফলো ব্যাকলিংক এর সাথে rel=”nofollow” কোডটি যুক্ত থাকে যা সার্চ ইঞ্জিনকে ইন্ডেক্স করতে বাঁধা দেয়।
উদাহরণস্বরূপ, আমি একটি সাধারন এইচটিএমএল সোর্স কোডের লিংকের মাধ্যমে একটি সাইটের নোফলো ব্যাকলিংক উপস্থাপন করছি।
careersourcebd.com
১৩। ডুফলো এবং নোফলো ব্যাকলিংক চেক করার উপায় কি ?
search status নামে এডঅনস দিয়ে আপনি খুব সহজেই আপনি এই কাজটি সেরে ফেলতে পারেন যা আপনার ফায়ারফক্স ব্রাউজার রে যোগ করে দিতে হবে…

১৪। সোশাল বুকমার্কিং কী ?
আপনি হয়তো আপনার ব্রাউজার এ কোন সাইট বা পেইজ বুকমার্ক করে রাখেন যদি সেই সাইটটির বিষয়বস্তু আপনার ভাল লেগে থাকে। কি করেন না? সোশাল বুকমার্কিংও ঠিক এরকমি একটা কাজ। শুধু তফাৎটা হচ্ছে যে সোশাল বুকমার্কিং টা একটা নির্দিষ্ট ওয়েবসাইট এর মধ্যে সেভ হয়ে থাকবে, আপনার লোকাল পিসি বা ব্রাউজার এ নয়। সুতরাং আপনি যেকোন কম্পিউটারি ব্যবহার করেন না কেন, ইন্টারনেট এর সংযোগ থাকলে যেকোন জায়গা থেকেই আপনার বুকমার্ক করা লিংক বা ওয়েবসাইট আপনি অ্যাক্সেস করতে পারবেন।

১৫। লিঙ্ক হুইল কি? 
লিংক হুইল হচ্ছে  এক ধরনের লিঙ্ক বিল্ডিং পদ্ধতি যা ওয়েবসাইটে দ্রুত ট্রাফিক আনে। বিভিন্ন ধরনের Web 2.0 ( যেমন wordpress.com, webs.com, weebly.com)তে আর্টিকেল লিখে টার ভিতর নিজের সাইট এর একটা কি- ওয়ার্ড কে লিংক করে দেওয়া হচ্ছে লিংক হুইল। আর্টিকেল লিখতে হবে নিজের সাইট রিলেটেড। সাইট এর সাথে আর্টিকেল অবশ্যই সম্পৃক্ত থাকতে হবে। আমি আগেই বলে দিছি আর্টিকেল লেখার ক্ষেত্রে প্রতি ১০০ ওয়ার্ড অবশ্যই ৩ টি কি - ওয়ার্ড থাকতে হবে। তবে এই ক্ষেত্রে নিজের সাইট এর যে মেইন কি- ওয়ার্ড আছে সেই কি- ওয়ার্ড ব্যবহার করতে হবে। ধরুন ৫০০ ওয়ার্ড এর একটি আর্টিকেল আপনি লিখলেন। টার ভিতর ১৫ টা কি -ওয়ার্ড ব্যবহার করলেন। আপনি যে কোন একটি কে আপনার সাইট এর লিংক হিসেবে ব্যবহার করলেন বাকি ১৪ টাকে হাইলাইট বা বোল্ড  করে দিবেন। এটাই হচ্ছে লিংক হুইল।
১৬। পেইজ র‍্যাংক কি ?
Page Rank বা সংক্ষেপে PR হচ্ছে গুগল কর্তৃক ব্যবহৃত এক ধরনের লিংক বিশ্লেষন এলগরিদম, যা দ্বারা একটি পেইজ বা ওয়েবসাইট কতটা গুরুত্বপূর্ণ তা নির্ধারণ করা হয় এবং সার্চের ফলাফলে এটিকে প্রধান্য দেয়া হয়। গুগল এটা বুঝে যখন একটি পেইজ অন্য একটি পেইজের সাথে যুক্ত হয়, এটা অন্য পেইজ দ্বারা সমর্থন দেওয়া বুঝায়। যত বেশী সমর্থন(এক্ষেত্রে লিঙ্ক বা ভোট) সেই পেইজ তত বেশী গুরুত্বপূর্ন গুগলের কাছে। আরো একটা ব্যাপার আছে সেই পেইজটি নিজের সাইটের বিভিন্ন পোস্টের সাথে কতটা লিঙ্ক জেনারেট করেছে মানে ইন্টারনাল লিঙ্ক আছে সেই পেইজের সাথে। গুগল যে সাইটের যত লিঙ্ক ইন্টারনেটের বিভিন্ন সাইটে পাবে তাকে তত বেশী গুরুত্ব দেবে। প্রতিটা সমর্থন বা লিঙ্ক গুনে দেখে গুগল যখন পেইজ র‍্যাংক দেয়।

2 comments: