Protoman - Mega Man

Pages

Minggu, 07 Juli 2013

Tugas 4 : Web Content










WEB CONTENT

-          Media  Web Content

Dalam produksi media dan penerbitan rata-rata berbasis telekomunikasi dan multimedia (baca-komputer dan internet). Didalamnya terdapat portal, website (situs web), radio-online, TV-online, pers online, mail-online, dll, dengan karakteristik masing-masing sesuai dengan fasilitas yang memungkinkan user memanfaatkannya dan konten informasi dan pengalaman dapat memberikan nilai bagi end-user/audience dalam konteks tertentu. Konten (media) digunakan untuk mengidentifikasi dan menilai berbagai format dan genre informasi yang dikelola sebagai nilai tambah, dan media komponen berguna untuk target audiens. Produksi media dan teknologi pengiriman berpotensi meningkatkan nilai konten dengan format, penyaringan dan menggabungkan sumber-sumber asli konten untuk hal yang baru dengan konteks yang baru. Kurang penekanan pada nilai dari konten yang disimpan, dan lebih menekankan pada repurposing cepat, pemakaian ulang, dan pemindahan telah menyebabkan banyak penerbit dan produser media melihat fungsi utama mereka kurang mempunyai banyak pembuat/pencipta dan lebih sebagai transformer dari konten.
-        
  Standar Web Content 

Standar Web merupakan suatu yang harus ada didalam Web Content tersebut, dan pada standar non-proprietary dan spesifikasi teknis lainnya yang digunakan untuk mendefinisikan dan menggambarkan aspek dari World Wide Web. Dalam beberapa tahun terakhir, istilah ini telah lebih sering dikaitkan dengan kecenderungan untuk membangun situs web, dan filosofi desain web dan pengembangan yang meliputi metode-metode.
Standar web satu sama lain saling tergantung, beberapa di antaranya mengatur aspek internet, bukan hanya World Wide Web (Sebuah Situs). Bahkan ketika web tidak terpantau, standar tersebut secara langsung atau tidak langsung mempengaruhi perkembangan dan administrasi situs web dan layanan web. Pertimbangannya adalah interoperabilitas, aksesibilitas dan kegunaan dari halaman web dan situs web.

Standar web harus mendukung fasilitas sebagai berikut :
-          HTTP dan HTTPS
-           HTML XML, XHTML,
-           Format  Gambar : PNG , GIF , JPEG
-          Css , java script.
-           Cookie , Digital Certificate, Favicons, RSS dan Atom
Standar web bukanlah merupakan aturan, tetapi terus berkembang dan disesuaikan dengan teknologi web. Standar web yang dikembangkan oleh suatu organisasi sering bersaing kadang disewakan oleh teknologi yang tidak sesuai dengan standarisasi publik dan dinyatakan sebagai standar oleh satu individu atau perusahaan.

Bahasa Dalam Web 

Dalam sebuah web kita memerlukan sebuah bahasa pemrograman.
Banyak bahasa pemrograman seperti HTML, joomla, java, bahasa C, C++, PHP, dll.
Tapi PHP mempunyai kelebihan dari bahasa pemograman yang lainnya yang diantaranya :
• Bahasa pemrograman PHP adalah sebuah bahasa script yang tidak melakukan sebuah kompilasi dalam penggunaanya.
• Web Server yang mendukung PHP dapat ditemukan dimana – mana dari mulai apache, IIS, Lighttpd, nginx, hingga Xitami dengan konfigurasi yang relatif mudah.
• Dalam sisi pengembangan lebih mudah, karena banyaknya milis – milis dan developer yang siap membantu dalam pengembangan.
• Dalam sisi pemahamanan, PHP adalah bahasa scripting yang paling mudah karena memiliki referensi yang banyak.
• PHP adalah bahasa open source yang dapat digunakan di berbagai mesin (Linux, Unix, Macintosh, Windows) dan dapat dijalankan secara runtime melalui console serta juga dapat menjalankan perintah-perintah system

Keberagaman Bahasa

Perubahan dalam hidup boleh terjadi akan budaya dengan nilainya yang tak terhingga akan tetap menjadi simbol bagi orang Indonesia dalam kehidupannya. Terbukti walaupun kemajuan begitu pesat saat ini akan tetapi dalam setiap kesempatan tetaplah budaya dikedepankan dalam setiap kegiatan yang dilaksanakan. Pada prinsipnya setiap perkembangan dan kemajuan dalam segi apapun baik adanya, setiap manusia menginginkan perubahan pun demikian dalam konteks kehidupan bermasyarakat.
Kemajuan IPTEK yang begitu pesat pada saat ini, memiliki banyak sekali pengaruk bagi kebudayaan yaitu salah satunya Bergesernya Nilai-nilai Budaya.Bangsa kita adalah bangsa yang besar, maksudnya Bangsa yang besar adalah bangsa yang mau menghargai budayanya, mungkin itu adalah istilah yang tepat untuk menggambarkan begitu beragamnya budaya orang Indonesia mulai dari Sabang sampai Merauke. Beribu – ribu pulau, suku, bahasa, adat, membuat Indonesia menjadi salah satu daya tarik dan Negara yang paling kaya dipandang dari budayanya. Secara matematis kita tidak dapat menghitung betapa melimpahnya kekayaan budaya kita
Dipandang dari adatnya ke-Timuran-nya maka Indonesia sangat berbeda dengan daerah yang ada di Barat, rata – rata orang Timur sangat menjunjung tinggi nilai – nilai budayanya sendiri sebagai aset untuk melestarikan daerah dan budayanya secara turun – temurun. Nilai – nilai budaya yang secara turun – temurun yang dimaksud adalah Sopan, Santun, Taat, Menghormati, Menghargai, Menjunjung Tinggi Adat, Tata Krama Pergaulan, dan lainnya yang menjadi ciri khas orang Indonesia. Kebiasaan mengalah, menghargai jasa orang lain, menghormati hak milik orang merupakan gambaran betapa orang Indonesia merupakan bangsa yang sangat menjunjung tinggi budayanya. Bagi orang Indonesia budaya adalah jembatan menuju kesuksesan, budaya adalah tempat untuk mencari solusi jika terdapat permasalahan, budaya adalah harta yang tak ternilai harganya.
Setinggi apapun kemajuan teknologi yang ditawarkan kepada kita akan tetapi kita salah menggunakannya tentu akan membuat hidup kita menjadi salah jalan, justru teknologi tersebut akan menyesatkan hidup kita sehingga nilai – nilai budaya hidup kita tidak lagi sesuai dengan yang kita harapkan, akhirnya ada yang harus dikorbankan dari kejadian tersebut.

Model Generative (Generatif Model)

Istilah ‘generatif model’ menjelaskan perubahan paradigma dalam deskripsi bentuk, generalisasi dari objek yang dioperasikan : sebuah bentuk digambarkan oleh urutan langkah-langkah pengolahan, bukan hanya hasil akhir dari penerapan operasi. Desain bentuk menjadi desain aturan. Desain bentuk menjadi desain aturan. Pendekatan ini sangat umum dan dapat diterapkan pada setiap representasi bentuk yang menyediakan satu set untuk menghasilkan sebuah fungsi, ‘operator bentuk dasar’ (elementary shape functions) . Efektivitasnya telah dibuktikan, misalnya, di bidang pembuatan grid , dengan operator Euler sebagai pelengkapnya dan penutup set yang menghasilkan fungsi untuk sebuah perangkap dan beroperasi pada tingkat halfedge.
Pemodelan generatif mempunyai keuntungan yang efisiensi untuk menciptakan bentuk-operator tingkat tinggi dari operator bentuk tingkat rendah. Setiap urutan langkah-langkah pengolahan dapat dikelompokkan secara bersama-sama untuk menciptakan ‘operator gabungan’ yang baru. Ini mungkin menggunakan operator dasar serta operator gabungan lainnya. Nilai yang konkret dapat dengan mudah diganti dengan parameter, yang memungkinkan untuk memisahkan data dari suatu operasi: Urutan pemrosesan yang sama dapat diterapkan pada set data input yang berbeda. Data yang sama dapat digunakan untuk menghasilkan bentuk yang berbeda dengan menerapkan operator gabungan yang berbeda, misalnya, sebuah perpustakaan operator dengan model domain-dependen. Hal ini memungkinkan untuk membuat objek yang sangat kompleks dari beberapa parameter input tingkat tinggi, seperti misalnya sebuah perpustakaan (library style).
Generatif bahasa pemodelan GML adalah implementasi konkret dari pendekatan generatif. Fitur utamanya adalah penuh dengan bahasa pemrograman yang fungsional namun tetap dapat digunakan secara efisien sebagai format file untuk deskripsi tingkat rendah.

Rhetorical Web (Retorika Web)

Rhetorical Web adalah fitur yang signifikan dari WWW ,  bahwa hiperlink bisa mengoperasikan secara semantik dan navigational . Di sisi lain , tautan (link) menyarankan asosiasi yang berarti antara halaman web dan isi dari halaman web , dan bisa memfasilitasi  ciptaan tropis (tropic creation) yang berguna . Tautan dan asosiasi ini dapat dibaca secara kritis , disarankan tentang cara berfikir hubungan antara halaman suatu web dan isi halaman suatu web yang dimaksud atau tidaknya oleh si pembuat (author).

Web Annotations

Tagging

Tagging adalah kata yang belum lama dilahirkan. Dahulu sebelum ada tagging, dunia informasi yang ada di internet berserakan dan tidak tersusun berdasarkan kategorinya.
Hal itu bagaikan, perpustakaan tanpa ada pengurusnya atau pustakawan. Nah sekarang dengan adanya tagging, para pengguna internet diminta saling membantu untuk menyusun informasi berdasarkan kategori, popularitas dan kesukaannya, termasuk juga berita-berita terkini.
Google pun diam-diam sudah memasukkan sistem tag, semacam fitur bookmark ke dalam my Search History, hal ini memungkinkan Anda melakukan tagging dan menaruh komentar ke setiap situs web yang Anda kunjungi.

Metadata

Metadata adalah informasi terstruktur yang mendeskripsikan, menjelaskan, menemukan, atau setidaknya membuat menjadikan suatu informasi mudah untuk ditemukan kembali, digunakan, atau dikelola. Metadata sering disebut sebagai data tentang data atau informasi tentang informasi. Metadata ini mengandung informasi mengenai isi dari suatu data yang dipakai untuk keperluan manajemen file/data itu nantinya dalam suatu basis data. Jika data tersebut dalam bentuk teks, metadatanya biasanya berupa keterangan mengenai nama ruas (field), panjang field, dan tipe fieldnya: integer, character, date, dll. Untuk jenis data gambar (image), metadata mengandung informasi mengenai siapa pemotretnya, kapan pemotretannya, dan setting kamera pada saat dilakukan pemotretan. Satu lagi untuk jenis data berupa kumpulan file, metadatanya adalah nama-nama file, tipe file, dan nama pengelola (administrator) dari file-file tersebut.

 Jenis metadata
Terdapat tiga jenis utama metadata:
  • Metadata deskriptif menggambarkan suatu sumberdaya dalam maksud seperti penemuan dan identifikasi. Dia bisa meliputi elemen semisal judul, abstrak, pengarang, dan kata kunci.
  • Metadata struktural menunjukkan bagaimana kumpulan obyek disusun secara bersama-sama menjadi satu, semisal bagaimana halaman-halaman ditata untuk membentuk suatu bab.
  • Metadata administratif menyediakan informasi untuk membantu mengelola sumberdaya, semisal terkait kapan dan bagaimana suatu informasi diciptakan, tipe dokumen dan informasi teknis lainnya, serta siapa yang bisa mengaksesnya.
Fungsi metadata
Metadata memberikan fungsi yang sama seperti katalog yaitu:
  • membuat sumberdaya bisa ditemukan dengan menggunakan kriteria yang relevan
  • mengidentifikasi sumberdaya
  • mengelompokkan sumberdaya yang serupa
  • membedakan sumberdaya yang tak miliki kesamaan
  • memberikan informasi lokasi
 Rich Snippet
Rich snippet adalah tampilan hasil pencarian yang di-markup sehingga terlihat lebih menarik. Rich snippet sama sekali tidak mempengaruhi peringkat, hanya membantu pengguna Google untuk memilih sebuah hasil dengan informasi yang anda berikan. Rich snippet ini membuat hasil pencarian untuk blog anda tampak berbeda sehingga bisa menaikkan tingkat klik yang anda peroleh.
Anda bisa menambahkan rich snippet pada HTML blog atau website anda untuk membantu Google menghidangkan informasi tambahan bagi pengunjungnya. Ada 3 tahap yang bisa anda lakukan untuk membuat Rich Snippet pada blog anda.
#1 Pilih HTML Markup Format Untuk Rich Snippet Anda
#2 Markup HTML Blog Anda
 #3 Tes Tampilan Rich Snippet


STRUKTUR WEB
-        
  Link Structure
Keuntungan struktur situs web yang dibuat dengan baik :
  • Dapat mengkomunikasikan pesan yang ingin disampaikan kepada pengunjung situs.
  • Pengguna situs web dapat dengan mudah memahami situs web.
  • Mudah untuk dikembangkan pada waktu yang akan datang, termasuk mengupdate suatu halaman situs jika diperlukan.
  • Dapat menurunkan biaya cost pengunjung situs
Struktur Situs Web :
  • Struktur Linear
  • Struktur Grid
  • Struktur Hierarki
Struktur Linear :
  • Struktur linear murni
  • Struktur linear dengan halaman tambahan
  • Struktur linear dengan halaman pilihan
  • Struktur linear dengan halaman alternatif
Struktur Linear murni :
  • Digunakan untuk situs-situs web yang kecil, seperti personal page.
  • Biasanya hanya terdiri dari 4 – 10 halaman.
  • Cocok digunakan untuk menampilkan isi yang bersifat tutorial atau penjelasan mengenai suatu pokok bahasan.
  • Kelemahan struktur jenis ini adalah ketidaknyamanan pengunjung dalam menjelajasi isi situs web.
  • Pada situs web yang besar struktur ini masih digunakan, tetapi hanya sebatas untuk bagian-bagian penting seperti halaman-halaman registrasi.
Struktur linear dengan halaman pilihan :
  • Pada struktur ini pengunjung diberi pilihan untuk melompat ke suatu halaman tertentu tanpa harus melewati halaman berikutnya.
  • Struktur ini banyak digunakan pada sebagian besar situs web yang ada.
  • Cocok digunakan untuk menamoilkan informasi yang bersifat ringan, seperti artikel, berita dan informasi lain yang tidak menuntut pengunjung agar menyimak penjelasan secara bertahap.

Struktur linear dengan halaman alternatif :
  • Pada dasarnya sama dengan struktur linear murni, bedanya pengunjug diberi alternatif “jalan” untuk pergi ke sebuah halaman.
  • Struktur ini hanya sedikit lebih baik dari struktur linear murni.
  • Struktur ini digunakan untuk isi situs yang bersifat menjelaskan halaman demi halaman, namun ada beberapa bagian yang memiliki tingkatan yang sama. Pada bagian inilah dapat dipisah menjadi halaman alternatif.
Struktur Grid
  • Merupakan perluasan dari struktur linear murni.
  • Struktur ini juga mengandung struktur linear dengan halaman alternatif dan struktur linear dengan halaman tambahan.

Struktur Hierarki
  • Sangat banyak digunakan oleh sebagian besar situs web. Karena struktur ini bersifat fleksibel dan mudah untuk dikembangkan jika diperlukan.
  • Menggunakan sub-sub direktori dan membentuk level-level ke bawah.
  • File-file yang memiliki karakteristik fungsi yang sama akan disimpan dalam satu dierktori.
  • Pada struktur ini gambar-gambar yang digunakan dalam setiap halaman web disimpan dalam sebuah drektori tertentu.
Small – World Network

Small World Network adalah sebuah tipe grafik matematikal yang dari banyaknya simpul namun tidak berhubungan dengan simpul yang lainnya (berbeda) , tetapi banyak nya simpul bisa menjangkau setiap simpul kecil lainnya. Khususnya, small-world network didefinisikan sebagai jaringan di mana L jarak antara dua node yang dipilih secara acak (jumlah langkah yang diperlukan) tumbuh secara proporsional dengan logaritma dari jumlah node N dalam jaringan, yaitu:
Small World
Dalam konteks jaringan sosial, hasil dalam fenomena small world netwok untuk orang asing (orang tak dikenal) yang dihubungkan dengan cara berinteraksi. Banyak grafik empiris dengan baik dimodelkan oleh jaringan-dunia kecil. Jaringan sosial, konektivitas internet, wiki seperti Wikipedia, dan jaringan gen semua karakteristik small world network.

Social Network Sites
 
Jejaring sosial adalah suatu struktur sosial yang dibentuk dari simpul-simpul (yang umumnya adalah individu atau organisasi) yang dijalin dengan satu atau lebih tipe relasi spesifik seperti nilai, visi, ide, teman, keturunan, dll.
Beberapa contoh situs web jejaring sosial:


Analisis jejaring sosial internasional:
Blog
Blog merupakan singkatan dari web log adalah bentuk aplikasi web yang menyerupai tulisan-tulisan (yang dimuat sebagai posting) pada sebuah halaman web umum. Tulisan-tulisan ini seringkali dimuat dalam urut terbalik (isi terbaru dahulu baru kemudian diikuti isi yang lebih lama), meskipun tidak selamanya demikian. Situs web seperti ini biasanya dapat diakses oleh semua pengguna Internet sesuai dengan topik dan tujuan dari si pengguna blog tersebut.

Jenis-jenis blog:
  • Blog politik: Tentang berita, politik, aktivis, dan semua persoalan berbasis blog (Seperti kampanye).
  • Blog pribadi: Disebut juga buku harian online yang berisikan tentang pengalaman keseharian seseorang, keluhan, puisi atau syair, gagasan, dan perbincangan teman.
  • Blog bertopik: Blog yang membahas tentang sesuatu, dan fokus pada bahasan tertentu.
  • Blog kesehatan: Lebih spesifik tentang kesehatan. Blog kesehatan kebanyakan berisi tentang keluhan pasien, berita kesehatan terbaru, keterangan-ketarangan tentang kesehatan, dll.
  • Blog sastra: Lebih dikenal sebagai litblog (Literary blog).
  • Blog perjalanan: Fokus pada bahasan cerita perjalanan yang menceritakan keterangan-keterangan tentang perjalanan/traveling.
  • Blog mode: Lebih dikenal dengan “fashion blog”. Isinya seputar gaya, perkembangan mode, selera fesyen, liputan pameran mode, dan lain-lain.
  • Blog riset: Persoalan tentang akademis seperti berita riset terbaru.
  • Blog hukum: Persoalan tentang hukum atau urusan hukum; disebut juga dengan blawgs (Blog Laws).
  • Blog media: Berfokus pada bahasan berbagai macam informasi
  • Blog agama: Membahas tentang agama
  • Blog pendidikan: Biasanya ditulis oleh pelajar atau guru.
  • Blog kebersamaan: Topik lebih spesifik ditulis oleh kelompok tertentu.
  • Blog petunjuk (directory): Berisi ratusan link halaman website.
  • Blog bisnis: Digunakan oleh pegawai atau wirausahawan untuk kegiatan promosi bisnis mereka
  • Blog pengejawantahan: Fokus tentang objek diluar manusia; seperti anjing
  • Blog pengganggu (spam): Digunakan untuk promosi bisnis affiliate; juga dikenal sebagai splogs (Spam Blog)
ANALISIS WEB

·         Pengukuran Web   

Di bawah ini ada beberapa tools yang digunakan untuk mengeukur website dari segi kecepatan akses dan performanya, serta mengukut banyaknya pengunjung suatu website, berikut ini penjelasan mengenai beberapa tools yang digunakan untuk mengukur kecepatan akses website.
1.       Pingdom Tools merupakan sebuah alat ukur kecepatan website dapat di akses, nilai dari sebuah website, dan berapa ukuran dari sebuah website tersebut.
Beberapa kelebihannya di kategorikan sebagai berikut  :
Performance Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache, combine external css dan lain-lain.
Waterfall : melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan sampai seberapa cepat script tersebut dapat di akses.
Page Analysis : melihat detail analisa halaman web.
History : melihat detail akses dari beberapa hari lalu.
Kekurangan yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada umumnya yaitu Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik.
2.       GTmetrix adalah website untuk menganalisa kecepatan web yang tersedia secara gratis, dengan menggunakan google page speed dan Yahoo Yslow sebagai analyze engine dan untuk menampilkan hasil serta rekomendasi yang harus dilakukan.
Dengan GTmetrix juga dapat membandingkan beberapa URL sekaligus dan jika mendaftar sebagai anggota maka dapat:
-          Melihat tes sebelumnya untuk membandingkan hasilnya
-          Menjadwalkan cek website secara otomatis
-          Menyimpan laporan
-          Memilih hasil laporan untuk ditampilkan kepublic atau tidak

Kelebihan GTmetrix :
-          Dapat menggunakan google page speed dan YSLOW sebagai analyze engine
-          Dapat membandingkan beberapa URL sekaligus
-          Menjadwalkan cek website secara otomatis
-          Dapat menyimpan laporan
-          Memilih hasil laporan untuk ditampilkan kepublic atau tidak.
Kekurangan GTmetrix :
-          Jika menggunakan GTmetrix harus menggunakan internet yang cepat.


3.       Alexa Rank
Alexa Internet, Inc. adalah perusahaan yang berbasis di California yang mengoperasikan situs yang menyediakan informasi mengenai banyaknya pengunjung suatu situs dan urutannya. Alexa Internet didirikan pada tahun 1996 oleh Brewster Kahle dan Bruce Gilliat. Cara kerja Alexa rank Alexa memberikan peringkat ke sebuah situs berdasarkan jumlah pengunjung unik. Semakin rendah alexarank dari situs berarti situs memiliki sedikit pengunjung unik.Jadi jika Anda bisa mendapatkan lebih banyak traffic ke situs Anda, Anda akan mendapatkan lebih rendah alexa rank.
 Kelemahan Alexa:
1. Jika pengguna internet (pengakses situs anda tidak menginstal Alexa Toolbar di browsernya) maka sekalipun ada 1000 pengunjung situs anda dalam sehari, Alexa akan tetap menilai situs anda tidak ada pengunjungnya.
2. Jika dalam sehari ada yang mengakses situs anda 20 kali dengan alamat IP (Internet protocol) yang sama, maka akan dianggap situs anda hanya dikunjungi oleh 1 satu orang hanya dapat poin 1, akan berbeda jika situs anda dikunjungi oleh 20 orang dengan alamat IP berbeda (unik) maka situs anda akan memperoleh nilai 20 (nilai ini hanya pengandaian, Alexa mempunyai formula sendiri dalam menentukan nilai sebuah web) .
Kelebihan Alexa :
1. Alexa rank akan menampilkan tingkat popularitas dari sebuah situs web yang dibandingkan dengan web milik kita,termasuk jangkauan,tampilan halaman,dan masih banyak lagi.
2. Pencarian analisa akan menampilkan kepada kita yang merupakan syarat untuk kita untuk berkompetisi untuk mendapatkan sebuah traffic 3.Data pengunjung akan menampilkan kepada kita apa yang menarik dari website kita yang dilihat oleh pengunjun – pengunjung website kita 4.Data clickstream akan menampilkan kepada kita sebagai pemilik website dimana dalam mendapatkan traffic dari program keanggotaan dan kemitraan.

CRAWLER

Crawler bertugas untuk mengindeks, membuat rangking, menyusun dan menata halaman dalam bentuk indeks terstruktur agar bisa dicari dalam waktu yang sangat cepat.
Obyek dari crawler adalah isi halaman, file, folder dan direktori web, sedangkan subyek dari robots.txt adalah mesin pencari/search engine crawler.
Crawler ini penting dipahami untuk SEO.
Crawler akan berhadapan dengan robotsg.txt yang akan memandu mesin pencari/search engine seperti google, yahoo dan bing untuk mengindeks sebuat blog atau website, sehingga crawler akan tahu mana halaman, folder atau file yang boleh diindeks atau tidak, semakin lengkap sebuah panduan dalam robots.txt akan lebih baik, dengan demikian robot crawler akan dengan cepat mengindeks isi website, kebanyakan halaman situs berisi link ke halaman lain.
Sebuah spider dapat memulai dari manapun, apabila ia melihat sebuah link kepada halaman lain, maka ia akan segera menuju ke sana dan mengambilnya.
Search engine seperti Alta vista mempunyai banyak spider yang bekerja secara pararel. Sangat direkomendasikan untuk tidak menggunakan javascript pada menu utama, gunakanlah tag noscript, hyal ini dikarenakan javascript tidak bisa diambil oleh spider untuk search engine, dan semua link yang mengandung javascript akan ditolak sebagai halaman teks.
Crawlers Pada Search Engine
Berikut ini adalah contoh-contoh dari Crawler:

1.      Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.
2.      HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com
3.      Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.
4.      Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
5.      YaCy
Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central.
Contoh search engine yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de) untuk pencarian dokumen di bidang sains.

Cara Kerja Web Crawler
Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka web crawler tersebut akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu. Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat di proses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.
Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya

Cara Supaya Halaman Web Kita Masuk Dalam Google Crawlers
Tips Agar Sering didatangi oleh Google Crawlers pertama :
Membuat sitemap dan atau daftar isi
Sitemap (peta situs) blog berfungsi membantu search engine bot menjelajahi, menemukan dan mengindeks konten blog kita. Jika blog anda berplatform wordpress.org, cara paling mudah membuat sitemap adalah dengan memasang plugin bernama Google XML sitemaps. Sitemap sebenarnya hampir sama dengan halaman daftar isi yang sering kita buat di blog, hanya sitemap berisi kode-kode HTML yang dibaca oleh bot sedangkan daftar isi untuk dibaca oleh manusia. Jika anda ingin sitemap yang juga berfungsi sebagai daftar isi, gunakan plugin bernamaDagon Sitemap Generator. Beberapa themes seperti GoBlog Themes sudah menyediakan sitemap secara default seperti ini: Sitemap.
Tips Agar Sering didatangi oleh Google Crawlers kedua :
Mendaftarkan sitemap di Google Webmaster Tools
Sitemap blog anda perlu didaftarkan di Google Webmaster Tools. Google webmaster sendiri penting diikuti oleh semua pemilik blog agar anda dapat menganalisa semua data yang berkenaan dengan blog anda. Melalui uji sitemap, kita bisa mengetahui konten mana di blog yang belum terindeks Google. Daftarkan dulu blog anda di Google Webmaster Tools, lihat caranya disini.
Setelah terdaftar, masuk ke bagian “pengoptimalan” >> “peta situs” dan masukkan nama sitemap blog anda.
Kolom yang perlu diisi disamping URL blog kita adalah: sitemap.xml, jadi lengkapnya adalah: namabloganda.com/sitemap.xml
Tips Agar Sering didatangi oleh Google Crawlers ketiga :
Internal link
Internal link merupakan teknik onpage optimization, yaitu salah satu cara yang digunakan dalam SEO untuk meningkatkan online visibility dari sebuah blog. Internal link adalah link yang mengarah ke dalam blog kita sendiri. Buatlah link tersebut relevan dengan topik yang sedang dibahas. Berapa banyak internal link yang perlu ditambahkan dalam 1 artikel ? Tidak ada patokan, namun buatlah minimal 2 saja. Satu link mengarah ke homepage dan 1 link mengarah ke artikel lain yang kategorinya sejenis atau bahkan mengarah ke artikelnya itu sendiri. Internal link ini sama fungsinya seperti sitemap yaitu memudahkan Google Crawlers menjelajahi blog kita

SEARCH ENGINE

Mesin pencari (search engine) adalah salah satu program komputer yang di rancang khusus untuk membantu seseorang menemukan file-file yang disimpan dalam computer, misalnya dalam sebuah web server umum di web (www) atau komputer sendiri. Mesin pencari memungkinkan kita untuk meminta content media dengan criteria yang spesifik ( biasanya berisikan prase atau kata yang kita inginkan) dan memperoleh daftar file yang memenuhi kriteria tersebut.
Cara Kerja Search Engine
Mesin pencari web bekerja dengan cara menyimpan informasi tertang banyak halaman web, yang diambil secara langsung dari www. Halaman ini di ambil dengan web crawler-browsewr web yang otomatis mengikuti setiap pranala yang di lihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya kata-kata di ambil dari judul, subjudul, atau field khusus yang di sebut meta tag ).
Data tentang halaman web disimpan dalam sebuah database indeks untuk di gunakan dalam pencarian selanjutnya. Sebagian mesin pencari seperti Google, menyimpan seluruh atau sebagian halaman sumber ( yang di sebut cache) maupun informasi tentang halaman web itu sendiri. Ketika seorang pengguna menggunakan mesin pencari dan memasukin query, biasanya dengan memasukan kata kunci, mesin mencari akan mengindeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya. Daftar ini biasanya di sertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teks dari hasil pencarian yang kita cari.
Pengelompokan Search Engine
Search Engine dikelompokkan ke dalam tiga kelompok utama. Yaitu, primer, sekunder, dan targeted. Yuk kita bahas satu-satu :
Search Engine Primer
Search engine primer adalah jenis search engine yang umum kite kenal salama ini, yaitu Google, Yahoo!, dan MSN.


Google
The King of Search Engine, itulah julukan yang diberikan untuk Google. Julukan itu memang pantas diberikan kepada Google. sebab Google memberikan tingkat ke-akurat-an yang bisa memuaskan banyak pihak. Seperti juga Yahoo!, Google memang memberikan berbagai fasilitas tambahan kepada mereka yang menginginkannya. Seperti dalam pencariannya memuat foto, video dan file yang bersangkutan, dapat menterjemahkan halaman berbahasa asing, misalkan halaman berbahasa Inggris dapat diterjemahkan menjadi berbahasa Indonesia, dll..
Tapi sekali lagi ditekankan bahwa, fasilitas tambahan itu bukanlah penyebab utama kepopuleran Google. Keakuratan lah yang menyebabkan Google begitu populer. Keakuratan ini mulai dikembangkan saat para pendesign Google mulai menambahkan faktor link popularity kedalam teknik perangkingannya.
Kombinasi antara keyword dan link popularity ini, memberikan tingkat keakuratan yang tinggi jika dibanding hanya menggunakan keyword saja. Namun perlu diingat juga bahwa, link popularity dan keyword hanyalah dua dari sekian banyak faktor yang diperhitungkan saat Google merangking tingkat relevansi dari suatu web page terhadap suatu topik.
Yahoo!
Yahoo! adalah sebuah search engine. Tapi selain search engine, Yahoo! juga memiliki apa yang disebut dengan Web Directory. Jika kamu belum mengetahui apa yang dimaksud dengan Web Directory itu, berikut gambarannya secara umum.
Web Directory adalah kumpulan dari web page yang ada di internet. Web page-web page itu dikelompokkan kedalam beberapa kategori utama. Dari beberapa kategori utama ini, dipecah atau dibagi-bagi lagi mencari sub katergori yang lebih spesifik.
Web directory ini fungsinya mirip dengan search engine, yaitu untuk mencari, mengelompokkan, kemudian merangking atau mengindex berbagai web page yang ada di internet. Jadi kita bisa menggunakan web directory ini untuk mencari web page berdasarkan kategori yang kita inginkan.
Yahoo! sebenarnya pada awal pembuatannya adalah sebuah web directory. Untuk lebih jelasnya, kamu bisa membaca mengenai sejarah Yahoo!. S eiring perkembangannya, Yahoo! akhirnya dikenal juga sebagai search engine. Namun tidak seperti Google, dalam upayanya menyediakan fasilitas web search, Yahoo! tidak bekerja sendirian. Yahoo! bekerjasama dan menggunakan jasa dari pihak ketiga, misalnya Inktomi, AllTheWeb, AltaVista, Overture, dan juga Google.
Bing
BING mesin pencari yang baru dari Microsoft, telah datang dan mengambil perhatian banyak orang dengan cepat. Bing ini merupakan bentuk reinkarnasi yang dilakukan Microsoft terhadap ketiga mesin pencari produksinya terdahulu, yakni Live Search, Windows Live Search, dan MSN Search. Produk mesin pencari yang baru ini secara resmi dilucurkan pada tanggal 3 Juni 2009 menggantikan mesin pencari sebelumnya, yaitu Live Search. Bing diciptakan dengan menggunakan suatu teknologi, yakni teknologi PowerSet.
Teknologi ini memungkinkan pengguna untuk memperoleh hasil pencarian yang lebih akurat. Di samping itu, Bing dilengkapi dengan kemampuan untuk menyimpan dan membagi historis pencarian melalui Windows Skydrive, Facebook, dan e-mail. Bing mengelompokkan pencarian berdasarkan empat kategori, yaitu : pencarian halaman situs atau website, pencarian gambar, pencarian berita, pencarian siapa dan apa yang paling banyak dicari oleh pengguna Bing.

Search Engine Sekunder
Mereka disebut search engine sekunder karena mereka mempunyai audience atau user yang lebih spesifik. Search engine yang masuk kedalam kelompok search engine sekunder ini biasanya memang dibuat dan ditujukan khusus untuk kalangan tertentu saja. Misalnya untuk pengguna dari negara-negara tertentu saja.
Search engine sekunder mungkin memang tidak memberikan traffik sebanyak search engine primer. Antara lain itu disebabkan oleh keterbatasan seperti yang sudah disebutkan diatas.
Search engine sekunder dibuat dan ditujukan untuk kalangan spesifik, yang artinya mereka punya audience atau user yang spesifik pula. Jika kebetulan search engine tersebut memiliki audience yang sama dengan audience yang menjadi target kita maka traffic yang kita dapatkan dari search engine sekunder ini adalah memang traffik yang menjadi target utama kita. Itu artinya kita tidak perlu repot-repot lagi mencari orang-orang yang menjadi target utama kita. Kita cukup memfokuskan diri pada search engine sekunder yang mempunyai audience yang sama dengan audience yang menjadi target dari usaha SEO yang kita lakukan.
Seperti juga search engine yang termasuk dalam kelompok primer, search engine sekunder ini juga mempunyai algoritma yang berbeda dalam hal merangking. Mereka mempunyai penekanan pada kriteria yang berbeda-beda dalam hal penentuan rangking. Ada yang lebih menekankan pada penggunaan keyword, sementara yang lain lebih menekankan pada link, dan seterusnya.
Search engine sekunder ini tidak bisa kita abaikan saat kita mulai membuat perencanaan SEO. Seperti yang sudah dikatakan tadi, walau mungkin traffic yang mereka berikan tidak sebanyak traffik dari search engine primer, namun traffik tetaplah traffik. Lycos, Miva, LookSmart, Ask.com, dan Espotting adalah contoh-contoh search engine yang termasuk dalam kelompok sekunder.

Targeted Search Engine
Targeted search engine terkadang disebut juga topical search engine. Yaitu search engine yang lebih spesifik dari yang spesifik. Search engine ini biasanya dibuat untuk melayani user-user yang mempunyai ketertarikan pada topik-topik yang tertentu. Topik-topik ini biasanya bersifat umum, misalnya masalah kesehatan, bisnis, pendidikan, teknologi, dan sejenisnya.
Contoh-contoh search engine targeted ini misalnya, CitySearch, Yahoo! Travel, dan MusicSearch. Seperti juga search engine sekunder yang kita bicarakan diatas, traffik yang ke atau dari search engine kelompok targeted ini adalah traffik yang benar-benar spesifik. Carilah search engine targeted yang mempunyai relevansi dengan topik yang menjadi target usaha SEO yang kita lakukan.

WEB ARCHIVING

Definisi Web Archiving
Pengarsipan web (Web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang.
Cara Kerja Web Archiving
Yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari.
Contoh-contoh Web Archiving
Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:
• Archive-it : Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu sendiri

• Archive.is : Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.

• Iterasi : Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi Finansial, brand heritage Dll.

Sumber :
http://211093awan.wordpress.com/
http://www.seputarseo.com/tag/periksa-skor-google-page-speed-dan-yahoo-yslow
http://kafegue.com/kabar-gembira-ekstensi-yslow-kini-hadir-di-google-chrome/
http://www.kaskus.us/showthread.php?t=12936390
http://www.statshow.com
http://www.iwebtool.com/speed_test
http://sengineku.blogspot.com/2010/10/arti-dan-fungsi-crawler.html
http://blog.um.ac.id/corianna/2011/12/14/search-engine-web-crawler/
http://ahmadfaza.com/cara-kerja-web-crawler.html
http://annunaki.me/2012/12/25/tips-agar-sering-didatangi-oleh-google-crawlers/
http://mediarie.blogspot.com/2011/07/melihat-perbedaan-search-engine_12.html
http://en.wikipedia.org/wiki/Web_archiving

0 komentar:

Posting Komentar