I denne artikkelen ser vi på hva internettboter er, deres bruksområder, forskjellen mellom gode og onde roboter, samt fordeler og ulemper.
Hva er en internettbot?
Per definisjon er en internett-bot – en forkortelse av robot – en spesifikk type programvareteknologi som er koblet til internett for å tilby ulike typer automatisering.
I likhet med selve internett har internettroboter utviklet seg opp gjennom årene. Noen av de mest grunnleggende typene er svært vanlige. Mange av dem utfører enkle oppgaver, og noen har fått navn etter hva de gjør – for eksempel “web scrapers”.
Bedrifter bruker dem til automatisk å samle inn og sende data eller utføre andre rutineoppgaver. Noen av de mer sofistikerte robotene, som f.eks. spambots, slippes løs for å poste spam-kommentarer på ulike WordPress-blogger, sosiale medier og andre nettsteder, til stor bekymring for webmastere generelt.
Konseptet gjelder også for cybersikkerhet, ettersom noe av programvaren til internettroboter kan brukes i cyberangrep.
En fersk rapport fra Akamai viser at roboter utgjør 42 % av den totale nettrafikken, og at 65 % av disse robotene er ondsinnede.
Nøkkelpunkter
- Internettroboter er utviklet for å utføre automatiserte oppgaver på nettet, for eksempel å sende meldinger eller gjennomsøke nettsteder.
- Selv om internettroboter er utviklet for å utføre enkle oppgaver, kan de misbrukes til ondsinnede dataangrep eller til å spre feilinformasjon på nettet.
- Avanserte roboter bruker kunstig intelligens (AI) til å lære av interaksjonene sine og forbedre ytelsen sin.
- Internettroboter omfatter chatroboter, webcrawlere, overvåkingsroboter og skrapere, i tillegg til robotsamlere, DDoS-roboter (Distributed Denial-of-Service), roboter for sosiale medier og botnett.
- Bruken av internettroboter forventes å øke i fremtiden etter hvert som de blir mer sofistikerte, særlig i takt med utviklingen av kunstig intelligens.
- Se hele listen
Historien om internett-bots
Bots ble utviklet før Internett, da de tidligere ble kjørt på lokale datamaskiner og intranett for å automatisere oppgaver.
- Den første boten var ELIZA, en chatbot som ble lansert på midten av 1960-tallet for å simulere samtaler ved hjelp av tidlige NLP-teknikker (Natural Language Processing).
- På 1970-tallet utviklet diskusjonsforumet USENET skript for å automatisere oppgaver som å filtrere bort søppelpost eller uønsket innhold, noe som la grunnlaget for senere utvikling av Internett-bots.
- IRC-bots (Internet Relay Chat) ble lansert i 1988 for å administrere brukerlister, utføre søk og gi automatiske oppdateringer, for eksempel spillresultater eller værmeldinger. Et av de første eksemplene på en ondsinnet bot dukket opp i 1988 med Morris-ormen.
- På 1990-tallet ble det utviklet webcrawlere for å indeksere nettet.
- WebCrawler, som ble lansert i 1994, var en av de første søkemotorene som brukte bots. Året etter ble chatboten ALICE lansert.
- I 1996 lanserte Google sin webcrawler-bot, Googlebot, som avanserte nettsøk og indeksering for å optimalisere søkemotorresultatene.
- I 1999 dukket noen av de første botnettene opp – PrettyPark, en orm som spredte seg via e-postvedlegg for å stjele informasjon fra mottakernes datamaskiner, og Sub7, en trojansk hest som stjal informasjon gjennom keylogging.
- Chatbots ble populære på 2000-tallet, i takt med at direktemeldinger (IM) ble populære på Internett.
- I 2007 skapte Storm Botnet et av de største botnettverkene noensinne, som berørte rundt 2 millioner datamaskiner og sto for så mye som 20% av all nettsøppelpost da det var på sitt største.
- Apple lanserte chatboten Siri i 2011, og gjorde dermed stemmestyrte virtuelle assistenter til allemannseie.
- I 2012 genererte Carna-botnettet innsikt i internettets tilstand for å belyse svakheter i nettsikkerheten i stedet for å utføre ondsinnede angrep.
- Men i 2016 var Mirai-botnettet ansvarlig for et av de kraftigste DDOS-angrepene.
- OpenAIs lansering av ChatGPT-3 i 2020 revolusjonerte chatbot med kunstig intelligens for samtaler, og plattformer som Discord og X, tidligere kjent som Twitter, utvidet sin botutvikling.
- I mellomtiden nådde ondsinnede bot-angrep nye høyder, for eksempel et rekordstort DDoS-angrep som ble avverget av Google i 2022.
Slik fungerer internett-boter
En internettrobot følger forhåndsdefinerte regler og instruksjoner for å kommunisere med mennesker eller andre roboter ved hjelp av standardprotokoller for nettverkskommunikasjon. Bots opererer kontinuerlig for å automatisere oppgavene de er programmert til å utføre, med liten eller ingen menneskelig inngripen.
Ulike typer roboter på Internett kan bruke forskjellige teknologier. Webcrawlere sender HTTP-forespørsler til nettsteder for å lese innholdet, chatboter bruker dybdelæringsteknologier som tekst-til-tale (TTS) og automatisk talegjenkjenning (ASR), mens avanserte roboter bruker kunstig intelligens til å lære av interaksjonen med mennesker og forbedre ytelsen sin over tid.
Hva brukes en internett robot til?
Internett-roboter kan brukes til en rekke ulike bruksområder på nettet, blant annet:
Hovedkomponentene i en Internett-bot
En bot består vanligvis av tre hovedkomponenter:
Applikasjonslogikk
Botens kjørbare, maskinlesbare kode.Database
Samling av data som ligger til grunn for botens handlinger. Bots kan lagre tilleggsdata, for eksempel innhold på nettstedet.API-integrasjoner
API-er (Application programming interfaces) gjør det mulig for boten å samhandle med eksterne nettsteder og apper for å levere data, for eksempel en værapp.
Ulike internett-bots
Det finnes både gode og dårlige typer internettroboter.
Gode roboter automatiserer repeterende oppgaver for å øke effektiviteten, mens dårlige roboter brukes til ondsinnede angrep.
Gode roboter inkluderer:
- Chatbots
- Webcrawlere
- Overvåkingsbots
- Skrapere
- Shoppingbots
- Transaksjonsbots
Dårlige bots inkluderer:
- Spambots
- DDoS-bots
- Bots i sosiale medier
- Botnets
- Svindelroboter
- Fildelingsroboter
- Stemmebots
Eksempler på internettbots
Eksempler på bots som har blitt populære, er Apples Siri og Amazons Alexa – chatbots som samhandler med brukere og utfører et sett med oppgaver.
Hackere bruker ondsinnede DDoS-roboter til å oversvømme et system og forstyrre nettverksaktiviteter knyttet til Internett. Hver internettrobot sender sine egne krav til den aktuelle serveren, og serveren blir overveldet av den høye aktiviteten og blir kompromittert.
DDoS-angrep er vanskelige å beskytte seg mot, men noen teknologier benytter avansert nettverksovervåking for å prøve å identifisere bot-trafikk og skille den fra legitim menneskelig brukertrafikk. Noen ganger kan heuristikk eller nettverksalgoritmer brukes til denne typen beskyttelsesaktiviteter.
Bots i sosiale medier som genererer falske profiler, innlegg og kommentarer på sosiale medier som Facebook og X, har blitt et problem de siste årene – ettersom de har påvirket politikken i ulike land.
Fordeler og ulemper med internettroboter
Fordeler
- Effektivitet
- Skalerbarhet
- 24/7-drift
- Kostnadsbesparende
Ulemper
- Cybersikkerhetsangrep
- Sprer feilinformasjon
- Jobbfortrengning
Fremtiden for internettroboter
Fremtiden for internettroboter har å gjøre med Web 3.0 – neste generasjon Internett. Gårsdagens nett var Web 1.0 – et nett med kun lesing. Dagens nett er Web 2.0 – der toveistrafikk er vanlig.
Nå ser ekspertene for seg et fremtidig Web 3.0 – et sammenkoblet semantisk nett, der nye former for tagging og dataanalyse fører til mye mer automatisering.
I denne nye verdenen kan avanserte internettroboter utføre netthandel på vegne av brukerne eller utføre andre aktiviteter på høyt nivå. Dette vil sannsynligvis gi opphav til nye former for internettroboter.
Bruken av roboter kan utvides til områder som helsevesenet, der de kan hjelpe til med diagnostikk eller pasientbehandling, og finanssektoren, der de kan brukes i prosesser som svindeloppdagelse og investeringsforvaltning.
Konklusjon
Definisjonen av en Internett-bot er en programvare som er utformet for å automatisere oppgaver på Internett. Fra sin spede begynnelse som chatbots og webcrawlere til dagens sofistikerte AI-baserte former, har internettroboter utviklet seg til å bli avanserte verktøy som brukes i en rekke ulike nettapplikasjoner.
Selv om roboter er nyttige når det gjelder å automatisere repeterende oppgaver, utgjør de også en trussel mot cybersikkerheten, ettersom kriminelle bruker dem til å utføre ondsinnede angrep. De brukes også i økende grad på sosiale medier for å spre feilinformasjon.
Fremtiden for internettroboter vil fortsette å utvikle seg i takt med overgangen til Web 3.0.
Ofte stilte spørsmål
Hva er en internettrobot enkelt forklart?
Er internettroboter ulovlige?
Hva gjør internettroboter?
Hva er en nettrobot?
Er internettroboter gode?
Referanser
- Bots Compose 42% of Overall Web Traffic; Nearly Two-Thirds Are Malicious (Akamai)
- The Morris Worm — FBI (FBI)
- Storm Botnet Makes A Comeback (Darkreading)
- DDoS attack that disrupted internet was largest of its kind in history, experts say (Theguardian)
- Google Cloud mitigated largest DDoS attack, peaking above 398 million rps | Google Cloud Blog (Cloud.google)