Tegenwoordig zijn de meeste van ons hebben aanvaard dat we regelmatig zullen worden gevolgd als we het ons dagelijks leven. Vrijwel alles wat we doen op digitale apparaten, vooral wanneer we zijn aangesloten op het internet, wordt gevolgd door iemand ergens. In feite, tenzij we specifieke maatregelen nemen om te voorkomen dat andere mensen te doen, Het is een gegeven dat we geen kwestie worden bijgehouden wat we doen.
Wordt bijgehouden is niets nieuws. Zolang het internet is rond, websites zijn in staat om hun gebruikers te monitoren geweest. Echter, het scala aan technieken die vandaag beschikbaar zijn is echt mind-blowing. fingerprinting, gebruikersagent analyse, IP-adres location tracking en nog veel meer worden gebruikt om ons te profileren en snoop op wat we doen als we online zijn.
In feite, Er is iets van een paradox in het spel. Echte internetgebruikers zijn nu onderworpen aan een veel grotere controle dan voorheen, grotendeels als gevolg van de stijging van bots en andere niet-menselijke internet gebruikers.
U kunt begrijpen waarom zo veel online diensten en websites wilt voorkomen dat niet-menselijke gebruikers van hen de toegang. Elke gebruiker brengt kosten aan grondstoffen, maakt niet uit hoe klein. Voor websites die een groot volume van het verkeer aan te trekken, deze meestal low-cost bezoeken kunnen zeer groot zijn. In sommige gevallen, voorkomen geautomatiseerde gebruikers en bots toegang krijgen tot een dienst aanzienlijk kan verminderen de druk het is geregistreerd onder.
Waarom gebeurt dit?
Ondanks het feit dat er sprake is van een gezamenlijke inspanning om bots bij veel online platforms te verwijderen, ze zijn blijven verhoging bij een opmerkelijke snelheid. Iedereen die zwaar gebruik maakt van social media zal waarschijnlijk bots tegenkomen op het platform, of hij beseft het of niet. En zelfs als je niet bezoeken social media platforms, er zijn slechts een paar websites en online diensten die niet worden benaderd door bots in sommige capaciteit of een ander.
Bijvoorbeeld, websites die prijsvergelijkingen of aggregatie van content zal moeten bots gebruiken om andere websites te schrapen om de gegevens die zij presenteren aan hun gebruikers krijgen. zonder bots, Zoekmachines zoals Google zou niet in staat zijn om te functioneren. Echter, de term bot heeft een aantal negatieve connotaties verworven in de afgelopen jaren, voor een groot deel omdat ze werden gebruikt om de Russische propaganda tijdens de 2016 Amerikaanse verkiezingen.
Omdat bots zijn nu onder dit toezicht, en er is zo'n geconcentreerde inspanning om te voorkomen dat de toegang tot online diensten, bot ontwikkelaars hebben gehad om veel slimmer zijn wanneer het proberen te ontwijken detectie. Er zijn een aantal technieken bot ontwikkelaars kunnen gebruiken om hun creaties moeilijker te maken om spot.
Het ontdekken van Bots
Oudere en minder geavanceerde bots zijn vrij eenvoudig op te sporen online. In feite, velen van hen geen gebruik van een van de basistechnieken die bot ontwikkelaars nu gebruiken om detectie te vermijden. Echter, Voorbij zijn de dagen dat simpelweg te kijken naar een IP-adres zou genoeg zijn om te vertellen als een gebruiker mens was of niet. Bots Tegenwoordig hebben veel geavanceerder tactiek dan hun voorgangers hadden kunnen doen.
Niet alleen modern bots vermommen hun IP-adressen; ze weten ook hoe ze hun user agents spoofen, afwerpen elke fingerprinting inspanningen, en ze reageren op cookies op dezelfde manier een menselijke gebruiker zou doen. Al deze technieken maken bots veel moeilijker op te sporen.
Voor nu, bot ontwikkelaars blijven verschalken de meeste online diensten. historisch gezien, zij zijn goed geweest in een verblijf een stap voor op de concurrentie. Maar dat betekent niet websites stoppen met het gebruik van veel strenger en grondiger detectiemethoden, wat uiteindelijk betekent dat ze uiteindelijk verzamelen van informatie van elke gebruiker - of ze nu menselijk of niet.
Gevangen in de Crossfire
Zoals bot ontwikkelaars worden steeds geavanceerder en nieuwe manieren vinden om de opsporing maatregelen te vermijden, we hebben in de praktijk, de websites worden steeds veel agressiever in hun pogingen om te ontmaskeren en te voorkomen dat bots met behulp van hun platforms. Helaas, dit agressiever toezicht wordt ook toegepast op regelmatige gebruikers die dat hebben gedaan niets mis.
Terwijl de meeste van ons verwachten bots om een deel van het web, en dat websites hebben een recht om bots te voorkomen dat de toegang tot hun platform als ze dat willen, zodat, er is nog steeds een zeer belangrijke vraag over informed consent. Websites worden routinematig bijhouden van ons op een manier die ze nog nooit eerder gedaan, en sommige van deze methoden kunnen inbreuk op onze privacy.
Algemeen, is er geen manier om erachter te komen wat voor soort afweer een website heeft zonder eerst deze stad te bezoeken. Dit maakt het onmogelijk om te zien van te voren wat detectiemethoden het gebruikt en dan beslissen of we zijn blij om te worden onderworpen aan hen of niet.
Over de auteur: hij Kernel
Ebbe Kernel is Zweeds gegevensverzameling analist en consultant. Hij is werkzaam op het gebied van data intelligence voor meer dan tien jaar en hebben honderden data providers en grote bedrijven geadviseerd over in-house data-acquisitie oplossingen. Lees meer over mij dan bij ebbekernel.com.