Hjem > Cyber ​​Nyheder > Bot-ejere ved mere om, hvordan du spores online
CYBER NEWS

Bot Ejere Vide mere om hvordan du bliver Tracked Online

Bot-Ejere-Know-mere-om-Hvor-Du-Er-Tracked-Online

I dag de fleste af os har accepteret, at vi regelmæssigt vil blive sporet da vi går om vores dagligdag. Stort set alt, hvad vi gør på digitale enheder, især når vi er forbundet til internettet, efterfølges af en person et eller andet sted. Faktisk, medmindre vi træffe særlige foranstaltninger for at forhindre andre i at gøre det, det er givet, at vi vil blive sporet, uanset hvad vi gør.




Spores er ikke noget nyt. Så længe internettet har eksisteret, hjemmesider har været i stand til at overvåge deres brugere. Men, den række teknikker til rådighed i dag er i sandhed mildt sagt forbløffende. fingeraftryk, brugeragent analyse, IP-adresse sporing af placering og mange flere er vant til at profilere os og snuse på, hvad vi gør, når vi er online.

Faktisk, der er noget af et paradoks på spil her. Ægte internetbrugere er nu underlagt langt større kontrol end før, hovedsageligt på grund af stigningen i bots og andre ikke-menneskelige internetbrugere.

Du kan forstå, hvorfor så mange online-tjenester og hjemmesider ønsker at forhindre ikke-menneskelige brugere får adgang til dem. Hver bruger udgør en omkostning i ressourcer, uanset hvor lille. For websteder, der tiltrækker en stor mængde trafik, Disse normalt billige besøg kan være meget betydelige. I nogle tilfælde, forhindre automatiserede brugere og bots fra adgang til en tjeneste kan reducere belastningen det befinder sig under betydeligt.

Hvorfor sker det?

På trods af det faktum, at der er en samlet indsats for at fjerne robotter fra mange online platforme, de har fortsat med at stige i et bemærkelsesværdig hastighed. Enhver, der bruger sociale medier stærkt vil sandsynligvis støde bots på platformen, hvad enten han indser det eller ej. Og selv hvis du ikke besøge sociale medier platforme, der er kun et par hjemmesider og online-tjenester, der ikke bliver tilgås af robotter i nogle kapacitet eller en anden.

For eksempel, hjemmesider, der giver prissammenligninger eller sammenlægning af indhold skal bruge robotter til at skrabe andre websteder for at få de data, de præsenterer for deres brugere. Uden bots, søgemaskiner som Google ville ikke være i stand til at fungere. Men, udtrykket bot har erhvervet en række negative konnotationer i de seneste år, i vid udstrækning, fordi de blev brugt til at sprede russisk propaganda under 2016 amerikanske valg.

Fordi robotter er nu under denne kontrol, og der er sådan en koncentreret indsats for at forhindre dem i at få adgang onlinetjenester, bot-udviklere har måttet være meget klogere når de forsøger at undgå opdagelse. Der er en række teknikker bot udviklere kan bruge til at gøre deres kreationer sværere at få øje.




Afsløring Bots

Ældre og mindre sofistikerede robotter er forholdsvis let at opdage online. Faktisk, mange af dem ikke ansætte nogen af ​​de grundlæggende teknikker, bot-udviklere nu bruge til at undgå at blive opdaget. Men, væk er de dage, hvor blot at kigge på en IP-adresse ville være nok til at fortælle, hvis en bruger var menneske eller ikke. Bots dag ansætte langt mere sofistikerede taktik end deres forgængere havde været i stand til at gøre.

Ikke alene har moderne bots skjule deres IP-adresser; de ved også, hvordan man kan spoof deres brugeragenter, kaste eventuelle fingeraftryk indsats, og de reagerer på småkager på samme måde en menneskelig bruger ville gøre. Alle disse teknikker gør bots meget sværere at opdage.

For nu, bot-udviklere fortsætte med at overliste de fleste online-tjenester. Historisk, de har været gode til at være et skridt foran konkurrenterne. Men det betyder ikke stoppe hjemmesider fra at ansætte langt strengere og mere grundige påvisningsmetoder, hvilket i sidste ende betyder, at de ender med at indsamle flere oplysninger fra hver bruger - uanset om de er mennesker eller ikke.

Fanget i krydsilden

Som bot udviklere bliver mere sofistikerede og finde nye måder at undgå afsløring foranstaltninger, vi har i praksis, de hjemmesider bliver langt mere aggressive i deres bestræbelser på at afsløre og forhindre robotter i at bruge deres platforme. Desværre, dette mere aggressiv overvågning anvendes også til almindelige brugere, der har gjort noget forkert.

Mens de fleste af os forventer robotter til at være en del af internettet, og at hjemmesider har en ret til at forhindre robotter i at få adgang deres platform, hvis de vælger så, der er stadig et meget vigtigt spørgsmål om informeret samtykke. Hjemmesider er rutinemæssigt spore os på måder, som de aldrig gjorde før, og nogle af disse metoder kan krænke vores privatliv.

Relaterede: [wplinkpreview url =”https://sensorstechforum.com/reclaim-online-privacy-delete-data/”] Sletning af dine data, Genvinding Jeres Online Privacy, og ønsketænkning

Generelt, der er ingen måde at finde ud af præcis, hvad slags forsvarsværker en hjemmeside har uden først besøger det. Det gør det umuligt at se på forhånd, hvad påvisningsmetoder det bruger, og derefter beslutte, om vi er glade for at blive udsat for dem eller ej.


Om forfatteren: Han Kernel

Ebbe-Kernel-STF-gæst-forfatter
Ebbe Kernel er svensk dataindsamling analytiker og konsulent. Han har arbejdet inden for data intelligens i over ti år og har rådgivet hundredvis af dataleverandører og store virksomheder på in-house datafangst løsninger. Læs mere om mig over på ebbekernel.com.

SensorsTechForum Guest Forfattere

De meninger, der kommer til udtryk i disse gæsteindlæg, er udelukkende den bidragende forfatters, og kan afvige de SensorsTechForum.

Flere indlæg

Efterlad en kommentar

Din e-mail-adresse vil ikke blive offentliggjort. Krævede felter er markeret *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Fortrolighedspolitik.
Jeg er enig