Back to Question Center
0

Semalt Expert On Website Scraping-Good and Bad Bots

1 answers:

ການຂູດເວັບໄດ້ຢູ່ຕະຫຼອດເວລາແລະຖືວ່າເປັນປະໂຍດສໍາຫລັບ webmasters, ນັກຂ່າວ, ນັກແປ, ນັກຂຽນ, ນັກຂຽນ, ນັກຂຽນ, ນັກຄົ້ນຄວ້າກາລະຕະຫຼາດ, ນັກວິທະຍາສາດແລະນັກຊ່ຽວຊານສື່ສັງຄົມ. ມີສອງຊະນິດຂອງ bots: bots ດີແລະ bots ບໍ່ດີ. bots ດີເຮັດໃຫ້ເຄື່ອງຈັກຊອກຫາດັດສະນີເນື້ອຫາເວັບແລະໄດ້ຮັບຄວາມຕ້ອງການສູງໂດຍຜູ້ຊ່ຽວຊານດ້ານຕະຫຼາດແລະນັກກາລະຕະຫຼາດດິຈິຕອນ. ໃນທາງບວກ, bots ບໍ່ດີ, ແລະມີຈຸດປະສົງທີ່ຈະທໍາລາຍສະຖິຕິຂອງເຄື່ອງຈັກຊອກຫາຂອງເວັບໄຊທ໌ໄດ້. ຄວາມຖືກຕ້ອງຂອງເວັບໄຊທ໌ຂີ້ເຫຍື້ອແມ່ນຂື້ນກັບເບດທີ່ທ່ານໃຊ້.

ຕົວຢ່າງ: ຖ້າທ່ານໃຊ້ bots ທີ່ບໍ່ດີທີ່ຫາເນື້ອຫາຈາກຫນ້າເວັບທີ່ແຕກຕ່າງກັນດ້ວຍຄວາມຕັ້ງໃຈທີ່ຈະໃຊ້ມັນຜິດກົດຫມາຍ, ການຮວບຮວມເວັບອາດເປັນອັນຕະລາຍ. ແຕ່ຖ້າທ່ານໃຊ້ bots ດີແລະຫຼີກລ້ຽງກິດຈະກໍາທີ່ເປັນອັນຕະລາຍລວມທັງການປະຕິເສດການໂຈມຕີບໍລິການ, ການສໍ້ໂກງອອນໄລນ໌, ການແຂ່ງຂັນດ້ານການຂຸດຄົ້ນຂໍ້ມູນຂ່າວສານ, ການລວບລວມຂໍ້ມູນ, ຫຼັງຈາກນັ້ນຂັ້ນຕອນການຂູດເວັບແມ່ນດີແລະມີປະໂຫຍດທີ່ຈະຂະຫຍາຍທຸລະກິດຂອງທ່ານໃນອິນເຕີເນັດ.

ແຕ່ຫນ້າເສຍດາຍ, ສ່ວນຫຼາຍຂອງຄົນສ່ວນຕົວແລະຜູ້ເລີ່ມຕົ້ນມັກໂບດທີ່ບໍ່ດີເພາະວ່າພວກເຂົາເປັນວິທີທີ່ມີລາຄາຖືກ, ມີປະສິດທິພາບແລະຄົບຖ້ວນໃນການເກັບກໍາຂໍ້ມູນໂດຍບໍ່ຈໍາເປັນຕ້ອງມີຄວາມຮ່ວມມື. ບໍລິສັດໃຫຍ່, ຢ່າງໃດກໍຕາມ, ການນໍາໃຊ້ scrapers ເວັບທາງດ້ານກົດຫມາຍສໍາລັບຜົນປະໂຫຍດຂອງເຂົາເຈົ້າແລະບໍ່ຕ້ອງການທີ່ຈະທໍາລາຍຊື່ສຽງຂອງເຂົາເຈົ້າກ່ຽວກັບອິນເຕີເນັດທີ່ມີ scrapers ເວັບຜິດກົດຫມາຍ. ຄວາມຄິດເຫັນທົ່ວໄປກ່ຽວກັບຄວາມຖືກຕ້ອງຂອງເວັບໄຊທ໌ບຼອກນີ້ບໍ່ເປັນເລື່ອງສໍາຄັນເພາະວ່າໃນຫລາຍສາມເດືອນຜ່ານມາມັນໄດ້ກາຍເປັນທີ່ຊັດເຈນວ່າລະບົບສານຂອງລັດຖະບານກາງກໍາລັງທໍາລາຍກົນລະຍຸດການຂູດເວັບທີ່ຜິດກົດຫມາຍຫຼາຍຂຶ້ນ.

ການຂູດເວັບໄດ້ເລີ່ມຕົ້ນເປັນຂະບວນການຜິດກົດຫມາຍກັບຄືນໄປບ່ອນໃນປີ 2000, ໃນເວລາທີ່ການໃຊ້ bots ແລະ spider ກັບ scrape ເວັບໄຊທ໌ໄດ້ຖືກພິຈາລະນາບໍ່ມີຄ່າ..ບໍ່ມີການປະຕິບັດຫຼາຍຢ່າງທີ່ຖືກປັບປຸງເພື່ອຢຸດການລະເມີດນີ້ຈາກການເຜີຍແຜ່ໃນອິນເຕີເນັດຈົນກ່ວາປີ 2010. eBay ທໍາອິດຍື່ນຄໍາສັ່ງຂັ້ນເບື້ອງຕົ້ນຕໍ່ Bidder's Edge, ອ້າງວ່າການໃຊ້ bots ໃນເວັບໄຊທ໌ໄດ້ລະເມີດກົດຫມາຍ Trespass ກັບ Chattels. ສານໄດ້ຮັບການອະນຸຍາດໃຫ້ຜູ້ໃຊ້ຕ້ອງຍອມຮັບເງື່ອນໄຂແລະເງື່ອນໄຂຂອງເວັບໄຊທ໌ແລະຈໍານວນ bots ທີ່ຖືກປິດການໃຊ້ງານຍ້ອນວ່າມັນອາດເປັນອັນຕະລາຍຕໍ່ເຄື່ອງຄອມພິວເຕີຂອງອີເບ. ຄະດີນີ້ຖືກຕັດສິນລົງໂທດອອກມາຈາກສານ, ແລະ eBay ຢຸດຄົນທຸກຄົນຈາກການໃຊ້ບອທ໌ສໍາລັບການຂີ້ເຫຍື່ອເວັບບໍ່ວ່າພວກເຂົາດີຫລືບໍ່ດີ.

ໃນປີ 2001, ອົງການການທ່ອງທ່ຽວໄດ້ປະທ້ວງຜູ້ແຂ່ງຂັນທີ່ຂູດເນື້ອຫາຂອງມັນອອກຈາກເວັບໄຊທ໌ດ້ວຍຄວາມຊ່ວຍເຫຼືອຂອງແມງມຸມທີ່ບໍ່ດີແລະການບໍ່ດີ. ຜູ້ພິພາກສາອີກເທື່ອຫນຶ່ງໄດ້ປະຕິບັດມາດຕະການຕໍ່ອາຊະຍາກໍາແລະສະຫນັບສະຫນູນຜູ້ຖືກເຄາະຮ້າຍ, ໂດຍກ່າວວ່າທັງການຂີ້ເຫຍື້ອແລະການໃຊ້ບອທ໌ອາດເປັນອັນຕະລາຍຕໍ່ທຸລະກິດອອນໄລຕ່າງໆ.

ມື້ນີ້, ສໍາລັບການສຶກສາ, ສ່ວນບຸກຄົນແລະການລວມຂໍ້ມູນ, ຫຼາຍໆຄົນແມ່ນອີງໃສ່ຂັ້ນຕອນການຂີ້ເຫຍື້ອທີ່ມີຄວາມຍຸຕິທໍາ, ແລະມີຫລາຍ ເຄື່ອງມືກໍາຈັດເວັບ ໄດ້ພັດທະນາໃນເລື່ອງນີ້. ຕອນນີ້ເຈົ້າຫນ້າທີ່ກ່າວວ່າບໍ່ແມ່ນເຄື່ອງມືທັງຫມົດທີ່ເຊື່ອຖືໄດ້, ແຕ່ວ່າຜູ້ທີ່ເຂົ້າມາໃນຮຸ່ນທີ່ມີຄ່າໃຊ້ຈ່າຍຫລືດີກວ່າເກົ່າແມ່ນດີກວ່າເກົ່າ .

ໃນປີ 2016, ລັດຖະບານໄດ້ຜ່ານກົດຫມາຍທໍາອິດເພື່ອແນເປົ້າຫມາຍການໂຄສະນາທີ່ບໍ່ດີແລະສົ່ງເສີມການໂຄສະນາທີ່ດີ. ກົດຫມາຍວ່າດ້ວຍການຂາຍທາງອອນລາຍດີກວ່າ (BOTS) ຖືກສ້າງຕັ້ງຂື້ນທີ່ຫ້າມນໍາໃຊ້ຊອບແວທີ່ຜິດກົດຫມາຍທີ່ສາມາດກໍາຈັດເປົ້າຫມາຍເວັບໄຊທ໌, ເຮັດໃຫ້ບໍລິສັດຄົ້ນຫາຂອງເຂົາເຈົ້າເສຍຫາຍແລະທໍາລາຍທຸລະກິດຂອງເຂົາເຈົ້າ. ມີບັນຫາເລື່ອງຄວາມຍຸຕິທໍາ. ຍົກຕົວຢ່າງ, LinkedIn ໄດ້ໃຊ້ເງິນຈໍານວນຫລາຍໃນເຄື່ອງມືທີ່ບລັອກຫຼືລົບລ້າງໂຄສະນາທີ່ບໍ່ດີແລະສົ່ງເສີມໂຄສະນາທີ່ດີ. ເມື່ອສານໄດ້ພະຍາຍາມຕັດສິນໃຈກ່ຽວກັບຄວາມຖືກຕ້ອງຂອງເວັບໄຊທ໌, ບໍລິສັດໄດ້ຖືກລັກຂໍ້ມູນຂອງຕົນ.

December 7, 2017
Semalt Expert On Website Scraping-Good and Bad Bots
Reply