Forskere ved det amerikanske Sandia National Laboratories i Livermore, California, har for første gang lykkes i å demonstrere muligheten til å kjøre mer enn en million Linux-kjerner som virtuelle maskiner på samme tid. Dette gjøres på forskningsinstitusjonens superklynge, Thunderbird, som er installert i Albuquerque, New Mexico.
Dette vil gjøre det mulig for forskere innen IT-sikkerhet å store adferden som preger såkalte botnet, på en mer effektiv måte. Botnet består av en mengde datamaskiner som har blitt infisert av skadevare og som kontrolleres av kriminelle. Slik botnet brukes til blant annet å sende ut spammeldinger eller til å utføre distribuerte tjenestenektangrep (DDoS).
- Botnet er ofte vanskelige å analysere siden de er geografisk spredt over hele verden, sier Ron Minnich, forsker ved Sandia National Laboratories, i en pressemelding.
Ved å bruke det store antallet virtuelle maskiner som nå har vist seg mulig, vil forskerne kunne se hvordan botnet fungerer. De vil også kunne utforske metoder for å stoppe veksten.
- Vi kan få kontroll på et nivå som vi aldri har hatt tidligere, sier Minnich.
Han forteller at forskere tidligere bare har vært i stand til å kjøre opptil 20 tusen kjerner på samme tid. Men jo flere kjerner man kan kjøre samtidig, desto mer bedre kan forskerne jobbe for å bekjempe botnet-problemet.
- Etter hvert vil vi ønske å kunne emulere datanettverket til et lite land, eller til og med et så stort som USA, for å kunne virtualisere og overvåke et cyberangrep, sier Minnich.
Oppsettet vil også kunne brukes til å forske på andre fenomener knyttet til Internett.
- Mange av fenomenene som oppstår har man lite kjennskap til, fordi vi mangler muligheten til å modellere det på en adekvat måte. Ved å bruke virkelige operativsystem-instanser til representere noder på Internett, vil vi ikke bare kunne simulere funksjonaliteten til Internett på nettverksnivå, men også å emulere Internett-funksjonaliteten, sier Minnich.
Thunderbird-maskinen som benyttes i prosjektet ligger på 70. plass på den nyeste listen over verdens kraftigste datamaskiner. Egentlig er det snakk om en klynge som består av 4480 ganske ordinære servere fra Dell. Til sammen leverer systemet en ytelse på 53 teraflops.
På hver av de fysiske serverne kjørte Sandia 250 virtuelle maskiner, noe som til samme ble 1,12 millioner noder. Prosjektet har blitt gjort i samarbeid med både Dell og IBM.
Erfaringene prosjektet gjør det ifølge Minnich mulig å starte utviklingen av blant annet operativsystemer og administrasjonsverktøy som kan kjøres på enda større systemer.
- Utvikling av denne programvaren vil ta år, og det vitenskaplige fellesskapet har ikke råd til å vente med å starte denne prosessen til maskinvaren er klar. Umiddelbare problemer som modellering av klimaendringer, utvikling av nye medisiner og forskning innen mer effektivt energiproduksjon krever stadig økende databehandlingsressurser. Videre vil virtualisering spille en stadig viktigere rolle innen utviklingen av storskalasystemer, åpne for flere operativsystemer på en enkelt plattform, i tillegg til applikasjonsspesifikke operativsystemer, mener Minnich.
- Det har blitt beregnet at vi trenger 100 millioner CPU-er innen 2018 for å byggen en datamaskin som kan kjøre på de hastighetene vi ønsker. Tilnærmingen vi har demonstrert er en god måte for oss til å finne metoder for å programmere en maskin med så mange prosessorer. Fortsatt forskning vil hjelpe IT-forskere med å finne måter å administrere og kontrollere slike enorme antall, slik at når vi først får en datamaskin med 100 millioner CPU-er, kan vil faktisk bruke den, avslutter Minnich.