I den siste utgaven av MIT Technology Review (datert desember 2005 / januar 2006) er det en lang artikkel under tittelen The Internet is Broken. Den tar utgangspunkt i at ekspertene er stort sett enige i at problemene med spam, zombienettverk, kriminalitet, virus og så videre blir stadig verre, samtidig som samfunnet gjør seg stadig mer avhengig av tjenestene i nettet. Dette fordrer nye løsninger: Hvordan disse skal se ut, er man ikke enig om.
Alvoret i problemstillingen har fått amerikanske politikere til å våkne, og til å stille midler til disposisjon.
Over en periode på fem til sju år skal USAs sentrale vitenskapsstiftelse NSF (National Science Foundation) bruke opptil 300 millioner dollar på å bygge et eksperimentelt nettverk for å prøve ut nye ideer, og komme med løsninger som eventuelt vil kunne tillempes i nettet som alle andre bruker.
Blant dem som har advart lengst mot den negative utviklingen av Internett, er MIT-professor David D. Clark. Fra 1981 til 1989 hadde han ansvaret for utviklingen av Internett-protokollen. Clark siteres i MIT-artikkelen dit hen at anvendeligheten til Internett i dag står ved et vendepunkt. Det går stadig mer ressurser til sikkerhet, samtidig som evnen til å ta i bruk nye teknologier minker. Hvis man ikke tar hensiktsmessige grep, advarer Clark at nytten samfunnet har av nettet kan stagnere eller til og med gå tilbake.
Clark mener man må tenke gjennom Internettets grunnleggende arkitektur på ny.
– Vi må gripe fatt i alle teknologiene vi allerede kjenner, og sette dem sammen slik at vi får et annet helhetlig system. Det dreier seg ikke om å bygge ny teknologi for å forandre verden, men om arkitektur: Sette sammen delene på en annen måte for å oppnå overordnede mål, sier han til MIT-magasinet.
Målet er å få noe som er sikrere, mer robust, og samtidig både enklere og mindre ressurskrevende å drifte, og mer mottakelig for fornyelse. En sikkerhetsarkitektur som motvirker spam, innbrudd, distribuerte angrep og så videre, er det Clark ser på som hovedsaken. Alternativet er håpløst: Å tette stadig nye hull, og få et system som blir bare mer og mer komplekst og vanskelig å sikre.
Dette er argumentene som ligger bak prosjektet til NSF om et eksperimentelt Internett for å prøve ut en ny arkitektur.
Clark har mange eksperter med seg. Artikkelen siterer blant annet Jonathan Zittrain, medgründer av Berkman Center for Internet and Society ved Harvard Law School, forsker Larry Peterson ved Princeton University, og Akamai-gründer og MIT-utdannet matematiker Tom Leighton. Microsofts sikkerhetsstrateg Steve Lipner og direktør Eric Brewer ved Intels forskningslaboratorium i Berkeley kommer med eksempler på hvordan nødvendig sikkerhetsarbeid gjør at nye ideer blir hengende fast i labben, og på hvordan dagens arkitektur hindrer realiseringen av nye tanker, for eksempel innen kommunikasjon fra maskin til maskin.
Tankene kan oppsummeres i et program i fire punkter:
- Få på plass en grunnleggende sikkerhetsarkitektur som garanterer autentisering og hindrer spam og virus fra å nå PC-er.
- Utarbeide nye trafikkprotokoller som er bedre egnet til å formidle avanserte tjenester.
- Gjøre det mulig for alle slags innretninger, fra PC-er til sensorer, å være tilkoplet Internett.
- Legge inn teknologi for enklere og mer robust drift.
Den røde tråden i dette programmet er at selve nettverket gjøres mer intelligent. Det strider mot en hevdvunnen tradisjon innen internettenking: At intelligensen ikke skal bo i nettverket, men i enhetene som bruker nettet til å kommunisere med hverandre.
Blant dem som uttrykker denne innvendingen overfor MIT-magasinet, er Vinton Cerf, kjent som en av oppfinnerne av TCP/IP.
Han mener mange av sikkerhetsproblemene på nettet kan føres tilbake til operativsystemene. Det er hull i operativsystemene, ikke bare i PC-er og servere, men også i rutere og svitsjer, som tillater innbruddene og angrepene.
– Det er slik at operativsystemene ikke er særlig flinke til å beskytte seg. Da kan man argumentere slik: Hvorfor skulle nettverket ta på seg den oppgaven?
Cerf peker på at nettverkets primære oppgave er å flytte data, og at jo mer det må granske det det skal flytte på, jo mindre effektivt blir det.
Samtidig sier Cerf at dersom Clark ser for seg andre måter å gjøre ting på, bør han absolutt få en anledning til å prøve dem. Derfor støtter han NSF-prosjektet. Faren ved å overdrive intelligensen i nettet, slik at man får en for kompleks arkitektur, poengteres også av andre som støtter hovedtankene til NSF og Clark.
NSF-prosjektet tar sikte på å samle forskningsinstitusjoner over hele USA. Det snakkes også om å trekke inn forskere og institusjoner i andre land, blant annet for bedre å kunne sammenlikne det eksperimentelle nettet med det virkelige. Meningen er ikke å ha et permanent alternativ til det eksisterende, men å prøve ut teknologi som etter hvert vil kunne overføres, slik at man avverger katastrofen som dagens tendens peker på.
Les også:
- [29.10.2007] Vint Cerf trekker seg fra alle verv i Icann
- [11.01.2006] Søppelpost vil koste Norge milliarder
- [02.12.2004] Millionbevilgning til forskerautentisering