Skip to content
W

WMSS-core-socmed

Project ID: 47

test 1 2 3

Modul aplikasi ini berfungsi untuk mengumpulkan data langsung dari halaman sosial media Facebook dan Twitter, yang kemudian akan diproses lebih lanjut oleh modul - modul lain.

aplikasi ini dibangun menggunakan

  • Bahasa Pemrogramman Python 3.x sebagai backend
  • HTML sebagai frontend aplikasi

untuk menggunakan aplikasi ini secara lokal pengguna harus menginstall beberapa library requirement seperti

  • Selenium
  • Django
  • bs4
  • wordcloud

untuk menginstall setiap requirement bisa dengan menggunakan fungsi pip

pip install library-name

Setelah melakukan installasi pada setiap requirement library yang diperlukan, selanjutnya dilakukan setting terhadap webdriver yang dibutuhkan

  1. buka chrome webdriver
  2. download version terbaru yang stabil
  3. masukan file hasil download tadi kedalam PATH dari Computer dengan cara
    • click kanan my computer
    • pilih properties
    • pilih Advanced system setting
    • click Environment Variables...
    • pilih salah satu directory yang ada pada variabel PATH
    • copy file tadi kedalam directory tersebut

USER MANUAL

Setelah semua requirement sudah dipenuhi aplikasi ini sudah bisa digunakan

  • Aplikasi WMSS sendiri merupakan aplikasi yang dibangun menggunakan Framework Django oleh karena itu untuk menjalankan aplikasi user bisa menggunakan cmd dan memasukan fungsi

cd project-path

  • lalu bisa dijalankan aplikasi ini secara lokal dengan menggunakan fungsi

python manage.py runserver

  • setelah server berhasil dijalankan kita bisa mengakses modul aplikasi ini dengan cara masuk ke

localhost:8000/social_media_crawling/search2

  • pada modul aplikasi ini dibangun 2 crawling yang bisa digunakan

Capture

  • untuk menggunakan aplikasi ini pengguna hanya perlu memasukan parameter keyword, ataupun mengganti isi dari beberapa form yang telah disediakan untuk pencarian yang lebih mendetail

Halaman Twitter Crawler

Capture1

Halaman Facebook Crawler

Capture2

  • Setelah berhasil mengumpulkan hasil dari crawling yang diinginkan pengguna bisa melihat hasil yang telah dikumpulkan pada tabel disebelah kanan

User bisa melakukan export data, hapus data , lanjut ke analisis, dan visualisasi data