TUGAS VCLASS M10 PENGANTAR WEB SCIENCE

 

TUGAS PENGANTAR WEB SCIENCE

ANALISIS WEB

20 MEI 2022



 

NAMA            : ALOYSIUS RIANDIKA HERMAWAN

KELAS           : 2IA16

NPM               : 50420149

 

 

TEKNIK INFORMATIKA

UNIVERSITAS GUNADARMA

____________________________________________________________________________


IDENTITAS JURNAL

Judul : Pengukuran Kualitas Layanan Website Kementrian Kominfo Dengan Menggunakan Metode Webqual 4.0

Penerbit : Pusat Penelitian dan Pengembangan Sumber Daya dan Perangkat Pos dan Informatika

Volume : 14

Nomor : 1

Tahun : 2012

Penulis : Iman Sanjaya

Instansi : Badan Litbang SDM, Kemkominfo RI

KESIMPULAN

WebQual merupakan salah satu metode atau teknik pengukuran kualitas website berdasarkan persepsi pengguna akhir. Metode ini merupakan pengembangan dari SERVQUAL yang banyak digunakan sebelumnya pada pengukuran kualitas jasa. Versi pertama dari instrumen WebQual (WebQual 1.0) dikembangkan sebagai bagian dari hasil lokakarya yang diselenggarakan dengan melibatkan para siswa yang diminta untuk mempertimbangkan kualitas website sekolah. Instrumen WebQual disaring melalui proses perbaikan secara iteratif dengan menggunakan kuesioner percobaan sebelum disebarkan untuk populasi yang lebih besar. Analisis dari data yang dikumpulkan mendorong penghapusan atas satu item pertanyaan. Berdasarkan analisis reliabilitas, tersisa 23 pertanyaan yang kemudian dikelompokkan menjadi empat dimensi utama, yaitu kemudahan penggunaan, pengalaman, informasi, komunikasi dan integrasi

WebQual 1.0 mungkin kuat dalam hal kualitas informasi, namun kurang kuat dalam hal interaksi layanan. Demikian juga untuk WebQual 2.0 yang menekankan kualitas interaksi menghilangkan beberapa kualitas informasi dari WebQual 1.0. Dalam rangka memperluas model untuk kualitas interaksi, Barnes dan Vidgen (2001) melakukan analisis terhadap instrumen SERVQUAL dan membuat perbandingan rinci antara SERVQUAL dan WebQual 1.0. Tinjauan ini berhasil mengidentifikasi pertanyaan yang mubazir dan kemudian wilayah yang tumpang tindih dihapus, hasilnya sebagian besar pertanyaanpertanyaan kunci dalam SERVQUAL tidak sesuai dengan WebQual 2.0, jumlah instrumen dengan 24 pertanyaan tetap dipertahankan. Kedua versi tersebut mengandung berbagai kualitas terkait dengan website sebagai artefak perangkat lunak. Dalam tinjauan yang dilakukan oleh Barnes dan Vidgen (2001) menemukan bahwa semua kualitas dapat dikategorikan menjadi tiga wilayah yang berbeda, yaitu kualitas website, kualitas informasi, dan kualitas interaksi pelayanan.

Analisis dari hasil WebQual 3.0 membawa pada identifikasi tiga dimensi dari kualitas website, yaitu kegunaan, kualitas informasi, dan kualitas interaksi pelayanan.Versi baru WebQual 3.0 telah diuji dalam domain lelang online. Kegunaan adalah kualitas yang berkaitan dengan desain website, missalnya penampilan, kemudahan penggunaan, navigasi dan tampilan yang disampaikan kepada pengguna. Kualitas informasi adalah kualitas isi website, kesesuaian informasi untuk keperluan pengguna seperti akurasi, format, dan relevansi. Kualitas interaksi layanan adalah kualitas interaksi layanan yang dialami oleh pengguna ketika mereka mempelajari lebih dalam suatu website, diwujudkan oleh kepercayaan dan empati, misalnya masalah transaksi dan keamanan informasi, pengiriman produk, personalisasi, dan komunikasi dengan pemilik website.

Kegunaan telah menggantikan kualitas website di WebQual versi 4.0 karena menjaga penekanan pada pengguna dan persepsi mereka daripada perancang website. Istilah kegunaan juga mencerminkan dengan lebih baik tingkat abstraksi dua dimensi lain dari WebQual, yaitu interaksi layanan dan informasi. Kegunaan berkaitan dengan pragmatic. Persepsi pengguna tentang suatu sistem informasi yang baik adalah sebuah sistem dimana pengguna merasa puas dengan kualitas dari website. Kualitas ini termuat dalam tiga dimensi dari WebQual versi 4.0. Penelitian sebelumnya menyarankan bahwa dimensi WebQual dapat memprediksi kepuasan pengguna dan maksud pengguna dalam menggunakan kembali website.

TUGAS V-CLASS 9 PENGANTAR WEB SCIENCE

1. Jelaskan mengapa SEO berperan terhadap menentukan ranking halaman suatu website !
Dilihat dari cara keja SEO sendiri adalah mengoptimalkan situs yang kita punya agar muncul di halaman pertama hasil pencarian, Disitulah SEO memegang peran penting untuk membuat situs web yang anda miliki lebih terlihat yang berarti lebih banyak lalu lintas dan lebih banyak peluang untuk menarik perhatian dan menarik calon pelanggan. Dengan teknik search engine optimization yang tepat, konten yang baru saja diupload di web dapat lebih cepat untuk tertampil di halaman pertama hasil pencarian. Hal yang perlu anda perhatikan adalah untuk dapat masuk pada halaman pertama dan mendapatkan top position antara peringkat 1 hingga 3, tidak sesederhana itu. Mesin pencari atau search engine sendiri memiliki tiga tugas utama untuk mencari permintaan atau request yang anda ketikkan yaitu: 

• Crawling: proses mengumpulkan dan menyimpan halaman website yang baru rilis ataupun yang barusan di-update; 

• Indexing: proses saat Google mempelajari struktur website, kualitas dan relevansi konten bagi kebutuhan audiens, serta kredibilitas setiap halaman website yang tersimpan dalam database-nya; 

• Pulling result (ranking): Google menyusun daftar halaman website terbaik untuk mengisi ranking tertinggi di hasil pencarian (SERP). 

2. Jelaskan apa yang kalian ketahui apa itu spider dalam search engine !
Spider adalah program dari mesin pencari yang tugasnya adalah untuk menjelajahi situs web apa pun, mengumpulkan data web tersebut. Tentu saja ini memungkinkan mesin pencari untuk menyediakan lebih banyak data cepat dan terkini Pada program ini juga nantinya akan mengumpulkan data-data yang diperlukan dan akan sangat membantu penerapan SEO google yang dilakukan. Hanya saja anda yang memiliki situs perlu melakukan pembatasan akses robot dengan menggunakan file robots.txt di website. Nantinya file tersebut akan memberitahukan bagian situs yang boleh diakses dan ini sangat membantu keamanan situ Anda. 

3. Jelaskan apa yang kalian ketahui mengenai Web Crawler: - Bingbot - FAST Crawler - Googlebot - GM Crawl - Polybot - RBSE - Swiftbot 

Bingbot adalah robot web-crawling yang memiliki fungsi merayapi situsmu. Bingbot berfungsi mengumpulkan informasi dan akan mengindex halaman yang dirayapi sehingga mudah ditemukan ketika dilakukan pencarian di mesin pencarian Bing.
FAST Crawler adalah perayap terdistribusi, digunakan oleh Pencarian dan Transfer Cepat, dan deskripsi umum arsitekturnya tersedia.
Googlebot adalah webcrawler (perayap jaringan) yang digunakan oleh Google. Googlebot digunakan untuk mencari dan mengumpulkan halaman-halaman di internet. Informasi yang dikumpulkan Googlebot digunakan untuk memperbarui index Google.
Polybot adalah perayap terdistribusi yang ditulis dalam bahasa pemrogaman C++ dan Python, yang terdiri dari “manajer perayapan”, satu atau lebih “pengunduh” dan satu atau lebih “penyelesai DNS”. URL yang sudah dikumpulkan kemudian ditambahkan ke antrian pada disk, dan nantinya akan diproses untuk mencari URL yang terlihat dalam mode batch.
RBSE adalah perayap web pertama yang diterbitkan. Itu didasarkan pada dua program: program pertama, “spider” dimana program akan mempertahankan antrian dalam database relasional, kemudian program kedua “mite” adalah browser ASCII yang dimodifikasi yang mengunduh halaman dari web.
Swiftbot adalah perayap web Swiftype. Dimana perangkat lunak akan mengambil informasi dari merayap situs web yang telah ada agar dapat dicari dengan mudah.