Kronikk Dette er en kronikk, skrevet av en ekstern bidragsyter. Kronikken gir uttrykk for skribentens holdninger.
Omfanget kan beskrives i bruk av bytes (tegn). Daglig omsettes nå 5 milliarder bytes globalt. Det er like mye som alle dataene produsert fra dataalderens begynnelse og fram til år 2003.
Kunstig intelligens og innføring av 5G forsterker utviklingen ved muligheten til å plassere sensorer (følere) i selv den minste vare/objekt. Milliarder av servere, rutere og trådløst utstyr nødvendiggjør allerede nå en formidabel infrastruktur, hvor datasentrene er det mest synlige resultat. Verdens største ligger i nærheten av Beijing og er på nesten 600 00 m2 – eller 100 fotballbaner. Svært mange av våre private og offentlige tjenester innveves fortløpende i dette globale datanettverket.
I Bodø er kommunen eksempelvis kommet i gang med digital overvåkning innenfor eldreomsorgen. Kommunen bruker videre den digitale Helseboka for bestilling av vaksinering, og fastleger og sykehus knyttes digitalt sammen med integrerte pasientjournaler. Teknisk infrastruktur som distribusjon av strøm og vann styres digitalt, og byplanleggingen av Smart City peker fram mot en ny bydel smekk full av sensorstyring. Vi er på vei til en nærmest total digital avhengighet for samfunnsdriften, herunder også andre kritiske tjenester som for eks. produksjon, distribusjon og salg av mat.
Risiko i denne avhengigheten er tydelig for alle. Et klart varsel er høstens mangel på mikrochips. Andre risikoer er mangelen på viktige råvarer som sjeldne metaller, hacking, solstormer, osv., men ikke minst nødvendigheten av en tilstrekkelig, stabil produksjon og distribusjon av strøm. Datasentrene trenger store kraftmengder. En fransk vurdering er at datasentrene kommer til å bruke en tredjedel av elektrisiteten i Stor-Paris. Mange mener at en forutsetning for det grønne skiftet er å automatisere med grønn energi. Men drift av data er særlig sårbar for variasjoner i strømforsyningen. Vind- og solkraft er fluktuerende og må bakkes av balansekraft som vann-, gass-, kull- og/eller atomkraft. Her ligger det klare målkonflikter.
Driftssikkerheten er selvsagt svært viktig for dataselskapene. Et av tiltakene mot blackout er mangedobling av utstyr for databehandling og -kommunikasjon. En e-post som sendes som gmail, dupliseres derfor hele 6 ganger. For stabil strømforsyning etableres utallige backupsystemer med strømaggregater, batterier og andre nonbreakanlegg. Dette er kostnadskrevende, men verre er at dubliseringsvirksomheten medfører en mangedobling av selve datamengden.
Beredskap blir et nøkkelord. Manglende pandemiforberedelse har synliggjort dette for alle. Det er helt nødvendig at slik beredskap kan styres av det offentlige. I dataverdenen vanskeliggjøres dette av at det er private selskaper som dominerer datautviklingen, her ikke minst de store selskapene «Big Tech» (Google, Facebook osv.) – og som er overnasjonale. Likeså etableres det løpende roboter i systemene. Roboter som svarer, kjøper aksjer, (70 % av aksjekjøpene på børsene skjer nå av roboter), som skaper fake news og/eller luker ut slike ved hjelp av algoritmer (formler i et programmeringsspråk).
Den formidable økningen i den globale dataomsetningen er følgelig helt utenfor offentlig kontroll – i et sammenhengende system med atskilte selskaper og institusjoner med ulike interesser og uten samordning. Uten inngripende beredskapstiltak er det lett å tenke seg at samfunnets stigende avhengighet, med eskalerende dataomsetning innenfor flere områder og med til dels store risikoer, før eller siden vil kunne føre til en «dataapokalypse». Eller kan vi planlegge og forberede oss slik at dette heller blir små utbrudd?
Nord universitet sitt utmerkede arbeid for å samkjøre ulike redningsinstanser er et eksempel på hvor viktig beredskapstrening kan være. Pågår det slik planlegging og trening innenfor datavirksomheten? Forberedes dataavhengige tjenester så langt mulig med egne digitalt avgrensede reservesystemer, analoge kriseløsninger, e.l.? Er eventuelle slike anstrengelser for samfunnskritiske tjenester kjent tjenestene imellom? Det er lite som framkommer i media om at slikt arbeid foregår.
I et lengre tidsperspektiv kan en så spekulere om veksten i bytes vil nå et metningspunkt innenfor et eller flere kapasitetstak – eller om teknologiutviklingen vil kunne absorbere dette. Fysisk er det håp når vi ser på vår høyst personlige databehandler – vår hjerne. Hjernen veier rundt 1,4 kg og antas å ha en samlet kapasitet på rundt 200 exabyte iflg. tidsskriftet Nature Neuroscience. Det tilsvarer det samlede digitale innhold i verden. En kubikkmillimeter, med størrelse av et sandkorn, kan lagre 200 terabyte – eller samtlige spillefilmer som er laget. Det er derfor håp at vi kan unngå en kapasitetsmessig «dataapokalypse». Men da må teknologien antakelig «gå organisk».
(Hovedkilde: Le Monde Diplomatique nr. 10/21)
Oddbjørn Paulsen, Bodø