Kongshaug forteller at det i slutten av 1996 foregikk tre diskusjoner i USA om høyhastighets internett. De tre grupperingene besto av henholdsvis en samling universiteter, National Science Foundation og Clinton-administrasjonen. Felles for disse var at de ikke var fornøyd med de nettjenestene som de kommersielle leverandørene kunne tilby. I løpet av kort tid ble de tre grupperingene samordnet og bestemte seg for å bygge sitt eget eksperimentelle nettverk. Det foregikk altså et tett samarbeid mellom de involverte universitetene, forskningsrådet og næringslivet.
Det ble særlig lagt fokus på to områder: Det ene er forskning på nettet, ikke minst på områdene IPv6 (Internet Protocol version 6) og tjenestekvalitet.
IPv6 har i forhold til dagens IPv4 en rekke fordeler. Implementeringen av 128 bit adressering gir støtte for omtrent en trillion datamaskiner tilknyttet gjennom en billion subnett. Kongshaug forteller at man med så omfattende adressering for eksempel kan knytte alle lyspærene i verden til nettet ved å putte mikroprosessorer inn i dem.
Også på områder som mobilitet, sikkerhet og sanntidsfunksjonalitet, er IPv6 betydelig forbedret i forhold til IPv4.
Saken er bare at alle disse faktorene faktisk kan løses på flere måter, og forskningsmiljøene er ikke sikre på om IPv6 er den rette.
Med tjenestekvalitet menes her at man får den ytelsen fra nettet som man forventer. Blant annet kan man med IPv6 reservere båndbredde. Man får da garantert den båndbredden man behøver, samtidig som også forsinkelsen på nettet blir garantert. Dette er spesielt viktig i forbindelse med telefoni og direkte video-overføringer på Internett.
Det andre området som er tillagt spesiell fokus er utviklingen av nye applikasjoner og tjenester på nettet. Ved at man får nettopp den tjenestekvalitet man behøver, samtidig som båndbredden på nettet etter hvert vil utvides, vil man kunne tilby sanntidstjenester som ikke er mulige i dag. Kongshaug har en rekke eksempler på slike tjenester:
- sanntids 3D-avbildning av hjernevirksomhet
- diskusjon og samarbeid om visualiserte objekter over nettet, spesielt innen forskning
- virtuell virkelighet med mange deltakere, for eksempel til bruk i undervisning eller sosiale sammenkomster
- fjernaksess til ressurskrevende forskningsutstyr som ikke er særlig utbredt, for eksempel spektromikroskop
- virtuell virkelighet brukt til framstilling av anatomi
Det er nesten bare fantasien som setter grensene.
Som nevnt er det ikke bare bedre tjenester som kreves for å at disse tjenestene skal bli funksjonelle. Det kreves også en betydelig forbedring av den generelle båndbredden ut til abonnentene.
Kongshaug forteller at det nå forskes for å kunne sende større datamengder gjennom hver enkel fiberkabel. Blant annet prøver man å multiplekse lyssignalene i kablene, slik at man kanskje kan sende 50 til 80 samtidige lysstråler gjennom kabelen på én gang. I tillegg vil man kode signalene, noe som igjen kan firedoble overføringskapasiteten.
- Man snakker nå om overføringskapasitet tilsvarende terrabits eller tetabits per sekund, sier Kongshaug.
Men dette gjelder selvsagt på stamnettene, og ikke direkte ut til abonnenten.
- Den siste biten ut til abonnenten vil man bruke blant annet radiolinje, xDSL eller satellitt. Alle disse kan tilby overføringskapasiteter på flere titalls megabits per sekund, forteller Kongshaug.
Han trekker til slutt fram noen problemer med så god kommunikasjonskapasitet globalt.
- Ved at bedrifter kanskje får bedre kommunikasjonsmuligheter globalt enn innen landet, kan dette føre til at bedriftene vil velge internasjonale i stedet for norske samarbeidspartnere, sier han.
Derfor må det bygges opp tilsvarende kommunikasjonsmuligheter også internt i Norge. En liten begynnelse kan være at alle konkurranseutsatte bedrifter kommer seg på nettet. Det har vist seg at spesielt de små bedriftene har mye å tjene på dette.