Search Engine Optimization (SEO)
SEO adalah
singkatan untuk "optimasi mesin pencari" atau "optimasi mesin
pencari." Memutuskan untuk menyewa SEO adalah keputusan besar yang
berpotensi dapat meningkatkan situs Anda dan menghemat waktu namun Anda juga
dapat risiko kerusakan ke situs Anda dan reputasi. Pastikan untuk penelitian
potensi keuntungan serta kerusakan yang SEO tidak bertanggung jawab dapat
dilakukan ke situs Anda. Banyak SEO dan lembaga lainnya dan konsultan
menyediakan layanan yang bermanfaat bagi pemilik situs web.
Sejarah
Webmaster dan
penyedia konten mulai mengoptimalkan situs untuk mesin pencari di pertengahan
1990-an, sebagai mesin pencari pertama katalogisasi Web awal. Pada awalnya,
semua webmaster perlu lakukan adalah menyerahkan alamat halaman, atau URL, ke
berbagai mesin yang akan mengirim "spider" untuk "crawl"
halaman tersebut, ekstrak link ke halaman lain dari itu, dan kembali informasi
yang ditemukan pada halaman yang akan diindeks. Proses ini melibatkan spider
mesin pencari men-download halaman dan menyimpannya di server sendiri mesin
pencari dimana program kedua dikenal sebagai indexer, ekstrak berbagai
informasi tentang halaman seperti kata-kata mengandung dan mana ini berada
serta berat badan untuk kata-kata tertentu dan semua link halaman tersebut
berisi yang kemudian ditempatkan ke scheduler untuk merangkak di kemudian hari.
Situs pemilik
mulai mengakui nilai dari memiliki situs mereka yang berperingkat tinggi dan
terlihat dalam hasil mesin pencari, menciptakan peluang bagi kedua topi putih
dan topi hitam praktisi SEO. Menurut analis industri Danny Sullivan, istilah
"search engine optimization" mungkin mulai dipakai pada tahun 1997.
Penggunaan didokumentasikan pertama dari istilah Search Engine Optimization
adalah John Audette dan perusahaan Multimedia Marketing Group sebagai
didokumentasikan oleh halaman web dari situs MMG dari Agustus, 1997.
Versi awal
algoritma pencarian didasarkan pada webmaster-memberikan informasi seperti meta
tag kata kunci atau file indeks dalam mesin seperti ALIWEB. Meta tag menyediakan panduan untuk
konten setiap halaman. Menggunakan data meta untuk mengindeks halaman ditemukan
kurang dari diandalkan namun karena pilihan webmaster kata kunci dalam meta tag
berpotensi menjadi representasi akurat dari konten yang sebenarnya situs. Data
yang tidak akurat, tidak lengkap, dan tidak konsisten dalam meta tag bisa dan
tidak menyebabkan halaman untuk peringkat untuk pencarian yang tidak relevan
[meragukan - mendiskusikan]. Penyedia konten Web juga dimanipulasi sejumlah
atribut dalam sumber HTML halaman dalam upaya untuk peringkat baik di mesin
pencari.
Dengan
mengandalkan begitu banyak pada faktor-faktor seperti kepadatan kata kunci yang
eksklusif dalam kontrol webmaster, mesin pencari awal menderita dari penyalahgunaan
dan manipulasi peringkat. Untuk memberikan hasil yang lebih baik kepada
pengguna mereka, mesin pencari harus beradaptasi untuk memastikan halaman hasil
mereka menunjukkan hasil pencarian yang paling relevan daripada halaman yang
tidak berhubungan diisi dengan berbagai kata kunci oleh webmaster yang tidak
bermoral. Karena keberhasilan dan popularitas mesin pencarian ditentukan oleh
kemampuannya untuk menghasilkan hasil yang paling relevan untuk setiap
pencarian tertentu sehingga hasil tersebut menjadi false akan berubah pengguna
untuk menemukan sumber pencari lainnya. Search engine menanggapi dengan
mengembangkan algoritma peringkat lebih kompleks dengan mempertimbangkan
faktor-faktor tambahan yang lebih sulit untuk webmaster untuk memanipulasi. Mahasiswa
pascasarjana di Universitas Stanford, Larry Page dan Sergey Brin, mengembangkan
"BackRub," sebuah mesin pencari yang mengandalkan algoritma matematis
untuk menilai keunggulan halaman web. Jumlah dihitung dengan algoritma,
PageRank, merupakan fungsi dari kuantitas dan kekuatan inbound link. PageRank
memperkirakan. Kemungkinan bahwa halaman yang diberikan akan dicapai oleh
pengguna web yang secara acak surfing web dan mengikuti link dari satu halaman
ke halaman lainnya. Akibatnya, ini berarti bahwa beberapa link yang kuat dari
yang lain sebagai halaman PageRank yang lebih tinggi lebih mungkin dicapai oleh
surfer acak.
Page dan Brin
mendirikan Google pada tahun 1998. Google menarik perhatian jumlah pertumbuhan
pengguna Internet, yang menyukai desain sederhana. Faktor Off-halaman (seperti
PageRank dan analisis hyperlink) dianggap serta faktor on-halaman (seperti
frekuensi kata kunci, meta tag, judul, link dan struktur situs) untuk
memungkinkan Google untuk menghindari jenis manipulasi dilihat di search engine
yang hanya dianggap faktor on-halaman untuk peringkat mereka. Page Rank
Meskipun lebih sulit untuk permainan, webmaster telah mengembangkan alat
bangunan link dan skema untuk mempengaruhi mesin pencari Inktomi dan metode ini
terbukti sama berlaku untuk game PageRank. Banyak situs berfokus pada
pertukaran, membeli dan menjual link sering pada skala besar. Beberapa skema
ini atau koleksi link melibatkan penciptaan ribuan situs untuk tujuan tunggal
spamming link.
Pada tahun
2004, mesin pencari telah dimasukkan berbagai faktor yang dirahasiakan dalam
algoritma peringkat mereka untuk mengurangi dampak dari manipulasi link. Pada
bulan Juni 2007, The New York Times 'Saul Hansell menyatakan situs peringkat
Google menggunakan lebih dari 200 sinyal yang berbeda. Mesin pencari terkemuka,
Google, Bing, dan Yahoo, tidak mengungkapkan algoritma yang mereka gunakan
untuk peringkat halaman. Beberapa praktisi SEO telah mempelajari pendekatan
yang berbeda ke mesin pencari optimasi dan telah berbagi pendapat pribadi mereka.
Paten yang berhubungan dengan mesin pencari dapat memberikan informasi untuk
lebih memahami mesin pencari.
Pada tahun
2005, Google mulai personalisasi hasil pencarian untuk setiap pengguna.
Tergantung pada sejarah mereka dari pencarian sebelumnya, Google dibuat hasil
untuk login pengguna. [13] Pada tahun 2008, Bruce Clay mengatakan bahwa
"peringkat mati" karena personalisasi pencarian. Dia berpendapat
bahwa hal itu akan menjadi tidak berarti untuk mendiskusikan bagaimana sebuah
website peringkat karena peringkat yang berpotensi akan berbeda untuk setiap
pengguna dan setiap pencarian.
Pada tahun
2007, Google mengumumkan kampanye melawan link berbayar yang mentransfer
PageRank Pada tanggal 15 Juni 2009, Google mengungkapkan bahwa mereka telah
mengambil langkah-langkah untuk mengurangi dampak PageRank mematung dengan
menggunakan atribut nofollow pada link. Matt Cutts, seorang insinyur perangkat
lunak terkenal di Google, mengumumkan bahwa Google Bot tidak akan lagi
memperlakukan link nofollow dengan cara yang sama, untuk mencegah penyedia jasa
SEO dari menggunakan nofollow untuk PageRank patung.
Sebagai hasil
dari perubahan ini penggunaan nofollow menyebabkan penguapan pagerank. Untuk
menghindari hal di atas, insinyur SEO mengembangkan teknik alternatif yang mengganti
nofollow tag dengan dikaburkan Javascript dan dengan demikian mengizinkan
patung PageRank. Selain itu beberapa solusi telah diusulkan yang mencakup
penggunaan iframe, Flash dan Javascript.
Pada bulan
Desember 2009, Google mengumumkan akan menggunakan riwayat pencarian web dari
semua pengguna dalam rangka untuk mengisi hasil pencarian.
Google Instant, real-time-search diperkenalkan pada akhir tahun 2010 dalam upaya untuk membuat hasil pencarian yang lebih tepat waktu dan relevan. Secara historis administrator situs telah menghabiskan bulan atau bahkan bertahun-tahun mengoptimalkan sebuah website untuk meningkatkan peringkat pencarian. Dengan pertumbuhan popularitas situs media sosial dan blog mesin terkemuka membuat perubahan pada algoritma mereka untuk mengizinkan konten segar untuk peringkat cepat dalam hasil pencarian.
Google Instant, real-time-search diperkenalkan pada akhir tahun 2010 dalam upaya untuk membuat hasil pencarian yang lebih tepat waktu dan relevan. Secara historis administrator situs telah menghabiskan bulan atau bahkan bertahun-tahun mengoptimalkan sebuah website untuk meningkatkan peringkat pencarian. Dengan pertumbuhan popularitas situs media sosial dan blog mesin terkemuka membuat perubahan pada algoritma mereka untuk mengizinkan konten segar untuk peringkat cepat dalam hasil pencarian.
Pada Februari
2011, Google mengumumkan update "Panda, yang menghukum website yang berisi
konten digandakan dari situs web dan sumber-sumber lainnya. Historis website
telah menyalin konten dari satu sama lain dan manfaat dalam peringkat mesin
pencari dengan terlibat dalam praktek ini, namun Google menerapkan sistem baru
yang menghukum situs yang isinya tidak unik.
Pada bulan
April 2012, Google meluncurkan Google Penguin memperbarui tujuan yang adalah
untuk menghukum website yang menggunakan teknik manipulatif untuk meningkatkan
peringkat mereka di mesin pencari.
Hubungan dengan
mesin pencari Pada tahun 1997, mesin pencari diakui bahwa webmaster sedang
membuat upaya untuk peringkat yang baik di mesin pencari mereka dan bahwa beberapa webmaster bahkan
memanipulasi peringkat mereka di hasil pencarian dengan isian halaman dengan
kata kunci yang berlebihan atau tidak relevan. Mesin pencari awal seperti
Altavista dan Infoseek disesuaikan algoritma mereka dalam upaya untuk mencegah
webmaster dari memanipulasi peringkat.
Pada tahun
2005, sebuah konferensi AirWeb,
Adversarial Information Retrieval tahunan di Web diciptakan untuk mempertemukan
para praktisi dan peneliti berkaitan dengan optimasi mesin pencari dan topik
terkait.
Perusahaan yang
menggunakan teknik terlalu agresif bisa mendapatkan website klien mereka
dilarang dari hasil pencarian. Pada tahun 2005, Wall Street Journal melaporkan
pada sebuah perusahaan Lalu Lintas Power yang diduga digunakan teknik berisiko tinggi
dan gagal untuk mengungkapkan risiko tersebut kepada kliennya. Majalah Wired
melaporkan bahwa perusahaan yang sama menggugat blogger dan SEO Aaron Wall
untuk menulis tentang larangan Google Matt Cutts kemudian menegaskan bahwa
Google ternyata memang melarang Lalu Lintas Power dan beberapa klien.
Beberapa search
engine juga mengulurkan tangan untuk industri SEO dan sering sponsor dan tamu
di konferensi SEO, chatting dan seminar. Mesin pencari utama memberikan
informasi dan panduan untuk membantu dengan optimasi situs. Google memiliki
program Sitemaps untuk membantu webmaster belajar jika Google mengalami masalah
pengindeksan situs web mereka dan juga menyediakan data pada lalu lintas ke
situs web Google. Bing Webmaster Tools menyediakan cara bagi webmaster untuk
mengirimkan sitemap dan web feed, memungkinkan pengguna untuk menentukan
tingkat merangkak dan melacak halaman web Status indeks.