Slik jeg opplevde historien

Jeg må få lov til å være hovedpersonen på min egen blogg. Jeg vil gjerne få fortelle historien om hvorfor jeg ikke tror at dagens politiske virkemidler vil klare å gi oss bedre teknologi. Ja, fordi jeg ser jo det slik at sosiale medier kunne blitt en fantastisk ting for menneskeheten, men at sentralisering av makt i noen få selskap ødela det. Og dette skjedde ikke nå nylig, Facebook var ikke begynnelsen av sosiale medier, det var slutten. Facebook var det som stod igjen når alle kamper var tapt. Dagens AI er heller ikke på noen måte fundamentalt nytt og oppstår ikke som en egen retning, den er et resultat av alt som har gått galt, lagd av folkene som ødela alt. Det kommer ikke til å gå godt.

La meg ta dere tilbake til en lystigere tid, en tid der framtiden så virkelig mye lysere ut, ihvertfall for mine unge øyne. Jeg fikk en konto på Internett av Universitetet i Oslo i 1994. Nettleserne har et valg der man kan gjøre “View Source”, som gjør at man kan se hvordan nettsiden er bygd opp og opplevelsen av at man kunne se hvordan folk lagde ting og forstå det, ja, jeg forsto det, jeg kunne bygge min egne ting. Jeg kunne dele med verden, og vi kunne dele med hverandre.

Jeg så også raskt at standardene ble utviklet i åpne miljøer. Man kunne skrive seg på en e-post-liste og dele ideer, diskutere andres ideer og få forståelse for hvordan man utvikler standarder. Jeg var med på en rekke slike. Det var en tid da teknologiutvikling foregikk åpent med mulighet for å delta.

Det var ikke det at de ikke fantes en tydelig mørk side. En av disse mørke sidene kastet jeg meg hodestups inn i da jeg startet hjemmesidene til foreningen Skepsis i 1996. Jeg var også i diverse nettfora der folk snakket om de merkeligste ting. Selv om jeg syntes de hadde veldig rare ideer var det likevel lett å forstå at de var mennesker, de også. Kanskje derfor ble den mørke siden enda mørkere siden jeg så den sentralisering av makt som var i ferd med å skje. Richard Stallman sitt essay “Right to Read” fra 1997 fanger denne tidsånden godt. Selv om det ikke er så velskrevet science fiction, er det egentlig skummelt realistisk.

Men den som traff aller best når det gjaldt å forutsi framtiden var kanskje den berømte astronomen Carl Sagan. I sin bok “A Demon-Haunted World” skrev han i 1995:

I have a foreboding of an America in my children’s or grandchildren’s time — when the United States is a service and information economy; when nearly all the key manufacturing industries have slipped away to other countries; when awesome technological powers are in the hands of a very few, and no one representing the public interest can even grasp the issues; when the people have lost the ability to set their own agendas or knowledgeably question those in authority; when, clutching our crystals and nervously consulting our horoscopes, our critical faculties in decline, unable to distinguish between what feels good and what’s true, we slide, almost without noticing, back into superstition and darkness. The dumbing down of America is most evident in the slow decay of substantive content in the enormously influential media, the 30 second sound bites (now down to 10 seconds or less), lowest common denominator programming, credulous presentations on pseudoscience and superstition, but especially a kind of celebration of ignorance. As I write, the number one video cassette rental in America is the movie Dumb and Dumber. Beavis and Butthead remains popular and influential) with young TV viewers. The plain lesson is that study and learning — not just of science, but of anything — are avoidable, even undesirable.

We’ve arranged a global civilization in which most crucial elements — transportation, communications, and all other industries; agriculture, medicine, education, entertainment, protecting the environment; and even the key democratic institution of voting — profoundly depend on science and technology. We have also arranged things so that almost no one understands science and technology. This is a prescription for disaster. We might get away with it for a while, but sooner or later this combustible mixture of ignorance and power is going to blow up in our faces.

Det var en slik forståelse av verden som gjorde at jeg begynte med Skepsis i utgangspunktet. Det er viktig da å forstå at massemediene var skikkelig dårlige. De har blitt langt bedre nå, men da var de svært uetterrettelige når det kom til naturvitenskap. I denne perioden opprettet også professor i kjemi Martin Ystenes ved NTNU sin “Sprøytvarsler”-blogg.

“Men på Internett er det ikke dem, det er bare et veldig stort oss“, skrev den svært gode science fiction-forfatteren Douglas Adams i 1999 (Mest kjent for “Hikerens guide til galaksen”). Å, jeg elsket det essayet. Jeg gjør det egentlig fortsatt, fordi jeg så veldig unner barna mine å få leve i en verden så naiv som det Douglas Adams beskrev. Ikke fordi den var slik da, men fordi verden burde gå framover slik at den blir slik.

Essayet peker på de mange moralpanikkene som drev debattene. Det peker på at det viktigste vi vant var interaktivitet. Vi kunne publisere, vi kunne møte andre mennesker, vi kunne forstå dem og de kunne forstå oss. Vi kunne bygge ting som veldig mange mennesker kunne ha nytte av. Essayet påpeker at teknologien allerede var sosial, der mobiler ble vanlige, ble SMS en viktig måte å være sosial på. For oss som opplevde dette var det så uendelig verdifullt, det var en måte å være sosial på som styrket menneskelige bånd. Jeg hadde venner i bryllupet mitt jeg hadde møtt på IRC. Vi har fortsatt kontakt.

I disse sosiale mediene kunne jeg møte noen som mente jeg var med på en konspirasjon for å ta over verden. Det at jeg mente at vi ikke hadde romvesener rundt oss var uttrykk for at jeg var med på denne konspirasjonen, sa dem. Men jeg kunne prate med dem og etablere en felles forståelse. Jeg klarte kanskje ikke å overbevise dem om at en konspirasjon ikke fantes, men jeg kunne overbevise dem om å at den ondskapen de så ikke fantes, og jeg kunne forstå at det fantes en vond bakgrunn for deres tro.

Det gikk ikke like bra overalt. En del av nettet som kom før Webben het USENET, som var delt opp i titusenvis av tematiske grupper. En av disse gruppene var alt.fan.pooh, som var dedikert til fans av Ole Brumm. Man skulle tro at Brumm-fans var de fredeligste av alle mennesker på planeten, men denne gruppa brøt stadig ut i kriger over om Disney-brumm var ekte saker. Jeg er ikke i tvil om at mediet har mye å si for hvor godt dialogen fungerer og USENET var ikke spesielt godt egnet. Men min andre erfaring var at det er mulig å skape broer.

Men da måtte vi ha en kritisk debatt som var både effektiv, brobyggende og opplysende. Erfaringen fra 1997 ble at problemet ikke var å få informasjon ut, det var ikke fakta som betydde all verden. Det handlet om å få kunnskap inn i lukkede sinn. Og dermed måtte man forstå hvorfor de var lukket, men det var en problemstilling som ble for vanskelig. Jeg begynte derfor å tenke på en løsning der vi kategoriserte artikler i forskjellige områder og der vi kunne tydeliggjøre hva som var kritikk eller støtte til hva. Tanken var at nettleserne kunne komme med en liten linje som fortalte at de du så på var kritisert av en artikkel på et helt annet sted på nettet, eller at søkemotorene kunne gjøre det samme. Jeg satte opp en e-post-liste der en løs gruppe drodlet litt rundt disse ideene. Men først måtte jeg gjøre ferdig mitt hovedfag i teoretisk astrofysikk. Jeg fikk litt penger til det av Skepsis, og i mellomtiden hadde andre også fått liknende ideer. Vel, man kan vel si at det var overambisiøst og langt foran infrastrukturen som kunne ha hjulpet det opp. Vi er nå i 2002-2003.

Internett vokste gjennom denne perioden, og det betyr at det var tross alt få som var på nett i perioden og totalt sett få som fikk oppleve det jeg gjorde. Dessverre tror mange at Facebook var starten på sosiale medier. Det preget også forskningen, man etablerte omtrent ingen akademisk forståelse for det jeg opplevde, og først i 2005, altså året etter at Facebook kom, etablerte Forskningsrådet VERDIKT-programmet der sosiale nettverk var et av tre hovedtema. Forskningen kom altså ikke i gang før alle kamper var tapt, den kom når den virkelige interaktiviteten vi hadde ble redusert til posering og brubyggingen var avsluttet, og sentralisering av makt i noen få selskaper var etablert.

Likevel hadde jeg troen på kraften i sosiale medier. Jeg jobbet et par år på My Opera Community, som var Opera Software sitt forsøk på å lage sosiale medier. Jeg prøvde å overtale ledelsen til å la det få ta en annen retning: I stedet for et sentralisert sosialt medium, skill dataene fra applikasjonen slik at hvem som helst kan bygge sin del, og så kan vi heller prøve å gi den beste brukeropplevelsen til dette. Jeg hadde ikke tro på at vi ville kunne konkurrere når det var kjemper på vei opp med enorme mengder penger, som MySpace på den tiden. Jeg fikk oss invitert inn i et stort forskningskonsortium for å jobbe med dette, men ledelsen var ikke interessert.

Det er ikke lett å gi opp en ide som har satt så dype spor i en. Det var ikke før i 2007 at jeg virkelig ga opp troen på at datidens sosiale medier kunne endres til å bli noe bra.

Men la oss gå tilbake til Douglas Adams sitt essay. For meg som var 21 år gammel da jeg først lagde en hjemmeside var det lett å glise gjenkjennende til hans tre regler for hvordan man forholder seg til oppfinnelser:

  1. alt som finnes i verden da du blir født er bare normalt;
  2. alt som blir funnet opp mellom da og før du fyller 30 er veldig spennende og kreativt og med litt flaks kan du lage en karriere av det;
  3. alt som blir funnet opp etter at du blir 30 er mot naturens orden og begynnelse på slutten av siviliasjonen som vi kjenner den, til det har vært der i rundt ti år, da det begynner å bli greit likevel.

Når jeg hører folk (som digitaliseringsministeren) snakke om AI i dag, så ser jeg den entusiasmen som ligger i punkt 2. Jeg ser at den entusiasmen jeg følte for Webben og de tidlige sosiale nettverk. Så er det bare det at jeg nå har havnet i punkt 3 på grunn av alderen?

Dagens sosiale medier har vært her i 20 år, og har ikke blitt greit. La meg fortelle om Hossein Derakhshan. Derakhshan kommer fra Iran og startet en bevegelse med blogging. Han fikk i gang en samfunnsdebatt som landet så sårt trengte og som det ikke var plass til noen andre steder. Han bodde i Kanada, men flyttet tilbake til Iran for å være nær folkene han brydde seg om og skrev om. I 2008 ble han arrestert og dømt til nesten 20 år fengsel. Han ble frigitt i 2014. På siden av historien med undertrykkingen i Iran skrev han om hvordan Webben endret seg på de 6 årene han satt inne. Som han noterte, skrollingen vi driver med i dag er ikke virkelig sosial. Vi har mistet mye av den virkelige interaktiviteten vi hadde med den tidlige Webben.

Det skjedde nesten umerkelig for det fleste av oss, men det var akkurat det som gjorde meg så lei meg da jeg til slutt ga opp. Først nå begynner samfunnet å se det, men fordi så få har opplevd hvordan en sosial Web virkelig kan være, så er det en generell backlash for sosiale medier og ikke et forsøk på et etablere noe bra.

Vi har mistet den verdien som Douglas Adams så i 1999, og derfor tror jeg at han ville vært enig med meg i at det er ikke bare meg som har blitt gammel. Det er faktisk slik at dette har vært med oss i 20 år og har blitt noe helt annet enn greit. Tiktok er så dårlig at barna min skulle ønske at det ikke eksisterte selv om noen av dem bruker det hver dag.

En som også viste at det kunne bli bra er den berømte psykologen Martin Seligman. I boka Flourish skriver han om et møte med store teknologiselskap i 2010, deriblant Facebook. Han skriver at han sa (lett omskrevet): “slik det står nå så kan Facebook faktisk være i gang med å bygge fire av elementene i well-being: positive følelser, engasjement, positive relasjoner og prestasjon. Det femte elementet må dere jobbe med, i det narsissistiske miljøet på Facebook haster det å bygge noe for å kjenne at man er med på noe større enn seg selv, finne en mening”. Facebook valgte å gjøre det motsatte, selvfølgelig.

Sosiale medier kunne blitt noe som er virkelig bra for menneskers well-being, det kunne bygd bruer for å dempe konflikt, det kunne forbedret offentlig debatt, det kunne bidratt til å dempe informasjonsforurensing, det kunne ha ført mennesker nærere hverandre, både ved å gjøre at vi kommer fysisk sammen der det er mulig og virtuelt der det blir for vanskelig.

Joda, til en viss grad har det også gjort det, men til en mye mindre grad enn det kunne. Vi har hele veien gjort valg som har ført oss kollektivt inn i denne krisesituasjonen vi er i nå. Det er kun menneskeskapte ting her, dette er resultat av aktive valg, ikke naturlover.

Det skjedde noe spennende i 2009, da Elinor Ostrom fikk “Nobelprisen” i økonomi. Jeg skal innrømme at min førstereaksjon var at utvikling av “commons” eller allmenninger på norsk var noe programvaremiljøet hadde drevet med i årtier, ja, det er jo dette som ligger bak “Open Source”, som i dag omfatter det aller meste av programvare. Men der holdt jeg på å miste et stort poeng. Mennesker har holdt på med dette i tusener av år, og har blitt skikkelig gode på det. Det har kommet på moten å snakke om “tragedy of the commons”, at alle bare er egoistiske aktører som ødelegger for felleskapet, men Ostrom viste at det er unntaket, at hovedregelen er at mennesker er flinke til å organisere seg rundt allmenninger. Det å skrive “open source” eller fri programvare er noe jeg har drevet med i siden 1995.

Egentlig tok jeg et skritt vekk i 2010 da jeg begynte på en ph.d. i informatikk ved Universitetet i Oslo. Jeg kjente på at det ikke var så mye mer IT-industrien som jeg da egentlig hadde jobbet i 8 år, kunne gjøre. Men også her var den enkleste veien å gå en vei mot sentralisering av makt. La meg ta dere tilbake til en akademisk konferanse i 2012, der en ledende forskergruppe presenterte “Learning from the History of Distributed Query Processing: A Heretic View on Linked Data Management”. Bakgrunnen er at en del akademikere, meg seg inkludert, hadde argumentert for at mange ting ville bli enklere om man ikke sentraliserte data, men holdt det under kontroll av organisasjonene som uansett var nærmest dataene. Dette var det dominere synet, såpass sterkt at de følte for å kalle arbeidet sitt kjettersk. Jeg har alltid likt en god kjetter, og det gjorde visst resten av publikum også, kommentarene i ettertid var stort sett for å takke forfatterne for å endelig ha sagt det mange hadde tenkt.

Men min motivasjon var helt anderledes: De sosioteknologiske følgende av sentralisering, for demokrati, for skaperevne og for menneskers frihet er så store og alvorlige at vi må få til desentralisering på tross av at det er teknologisk vanskeligere på alle mulige måter. Da jeg senere møtte lederen for denne forskergruppen under et Dagstuhl-seminar klarte jeg å overbevise ham om at dette gjør det til et viktig mål for forskning. Min ph.d. er derfor motivert ut fra sosiale, og ikke teknologiske mål.

Blant disse mål er også å sørge for at man ikke skal måtte oppgi mer data om seg selv enn strengt tatt nødvendig. Forløperteknologien relasjonsdatabaser (som fortsatt er svært vanlig) består av tabeller og databasene liker ikke at det er felter i tabellen uten noe i. Teknologien jeg jobbet med tar et oppgjør med dette og legger til rette for at man like greit skal jobbe med data med hull. I personvernforordningen GDPR prøvde EU å legge inn et prinsipp om “dataminimering”. Dataminimering fører til at man kommer til å få hull i dataene, men har blitt et av de mest ignorerte prinsippene i GDPR, ikke minst fordi maskinlæringsfolkene ikke liker “hull i tensorene”. De problematiserer voldsomt rundt det og påstår gjerne at “teknologer ikke liker dataminimering” og at det er “bare sånn teknologien er”. Ikke hør på dem, de som sier sånt forsvarer bare et teknologisk hegemoni som er skapt av nøyaktig dem som ødela sosiale medier.

Men la meg bli litt lystigere en kort stund: Min karriere tok en veldig spennende vending da jeg fikk vite om at “noen folk i Boston” drev med en startup rundt Solid, et prosjekt jeg allerede kjente ganske godt, faktisk var mye av det jeg gjorde helt fra da jeg oppdaget RDF relevant. Jeg ble første ansatte i Inrupt i juni 2018, og folkene bak var blant andre Tim Berners-Lee, som er kjent som han som fant opp Webben. Jeg hadde møtt ham flere ganger i årene før også. Det første halvannet året var Inrupt det mest stimulerende miljøet jeg har vært i i min karriere. Tim ble utropt til “Boldness in Business person of the year” av Financial Times, en artikkel som beskriver veldig godt hva vi trodde på. Min jobb beskrives der også, “å skrive ned ting på en veldig tydelig måte”. Jeg er fortsatt litt involvert i noen av disse dokumentene, det mest sentrale er protokollen som ligger under hele teknologien. Vi var tilbake til den tiden der alt kunne gjøres i offentligheten og folk kunne involvere seg, men med 20 års erfaring og ph.d. i feltet satt jeg nå på toppen av det hele. Det var en litt rar opplevelse. Medier og politikere er ekstremt opptatt av celebritet, det er bare celebriteter som blir spurt om å uttale seg, og som faktisk kan påvirke politikken. Med dette fikk jeg også litt av celebritetens lys på meg. Det resulterte blant annet i et intervju i Dagsavisen. Det er spesielt å se tilbake på nå, fordi jeg trodde på det jeg sa. Jeg hadde internalisert selskapets budskap. Jeg trodde virkelig at hvis vi ga folk tilbake kontrollen over egne data ville en revolusjon følge.

Det tror jeg ikke lenger. Jeg tror ikke på noen enkelttiltak lenger, det er ytterst komplekst, men det jeg er helt sikker på er at vi mangler samfunnsinstitusjoner for å takle det.

Det kom inn et lag med mellomledere i selskapet, og de hadde helt andre ideer om åpenhet. For dem var det kun et skalkeskjul for å sette agenda selv og styre teknologiutviklingen helt og holdent på selskapets premisser. De diskusjonene som vi hadde hatt åpent ble flyttet inn bak lukkede dører. Det var ingenting nytt og ingen virkelig innovasjon i dette, det handlet bare om makt. Bisart nok ble forretningsmodellen å selge en server, mens min jobb, å skrive klart og tydelig hvordan ting skal fungere vil gjøre det enkelt å lage en sånn. Hvis jeg gjorde jobben min bra ville f.eks. Amazon enkelt utkonkurrere min arbeidsgiver. Dermed ble det sånn at min egen arbeidsgiver prøvde å underminere jobben jeg gjorde på alle mulige måter for å bedre sin egen konkurransesituasjon, samtidig med at de kommuniserte utad at de var så åpne. Commonswashing kalles det. Med tiden har ideen om at enkeltpersoner skal kontrollere sine egne data egentlig forsvunnet, forsøkene på å balansere teknologiselskapenes makt og desentralisering likeså.

Det som kunne ha reddet situasjonen der og da var en ny type samfunnsinstitusjon som kunne ha gått inn direkte med utviklingsressurser i økosystemet, da kunne vi ha balansert makten direkte ved å ha implementasjonskapasitet, vi kunne gjort det helt klart at lukkede strategier ikke ville tolereres og vi ville visst når det skjer. Politikerne er forståelig nok redd for å gjenta Quaero-fiaskoen, men den angsten bør ikke stoppe nye institusjoner satt opp som et selskap i reell konkurranse (man bør heller være skeptisk til ting som European Data Spaces, som er satt opp mye likere Quaero-konsortiet). Nøkkelen er å skape reelle økosystemer, ikke å etablere konkurrerende plattformer. Det vi først og fremst mangler er en tilstrekkelig forståelse for hvordan økosystemene bør fungere, men det hjelper ikke at ingen har mulighet til å prøve å skape dem.

Så lenge vi ikke har dette klart vil ikke innføringen av AI gå noe bedre. Det vi tenker på som AI i dag er et ektefødt barn av overvåkningsøkonomien og ekstraktivismen. Her er det maskiner som henter ut verdier av andres arbeid. Nå må vi ikke falle i fella med sentralisering av makt igjen, fordi det vil kun styrke de samme kreftene, og jeg er redd det er dit vi er på vei.

Men når det gjelder AI, så er det mulig jeg bare er i punkt 3 igjen. Mitt felt var nemlig i utkanten av AI-feltet, men for å forstå det litt bedre må vi tilbake til en rekke bøker av Hubert Dreyfus på 60 og 70-tallet, der han kritiserte en form for AI som antok at vi kunne ha symboler om alt og at vi kunne manipulere disse symbolene for å lage kunstig intelligens. Dagens maskinlæring har til en viss grad frigjort seg fra disse antakelsene mens min retning tenkte mer “greit nok, Dreyfus hadde mye rett men hvilke nyttige ting kan vi likevel gjøre hvis vi bare styrker menneskeheten slik at alle kan bidra”. Jeg for min del har aldri hatt kunstig intelligens som mål (hva er intelligens anyway?), men jeg tror vi kunne gjort mye bra på denne måten med en veldig liten brøkdel av ressursforbruket som den galskapen av AI krever i dag. Jeg tror heller ikke det ressursforbruket kommer til å være greit nok om 10 år. Jeg føler at vi har lagt ned et forskningsfelt basert på samhandlingen mellom menneske og maskin, for heller å kaste enorme mengder av jordas energi- og mineralressurser på problemet i stedet, med lite ide om hva vi faktisk vil få ut av det.

Så, hvor står vi nå? Jeg leste en gang en diskusjon (husker ikke hvor) rundt de amerikanske tenkerne som la grunnlaget for USA, og om kontrasten mellom deres tanker om likhet mellom mennesker og viktigheten av frihet, samtidig som slaveriet var påtakelig fraværende fra diskusjonen. De manglet tilsynelatende kreativitet nok til å se for seg at samfunnet kunne utvikle seg uten slaveri. Man ga slavene mat så de kunne bruke 100 watt til å opprettholde livet og dermed kunne man ekstrahere enda 100 watt arbeid. Slaveriet måtte oppgis på moralske kvaler lenge før man faktisk hadde en erstatning, men den industrielle revolusjon kom med sine maskiner og vevstoler og dampmaskiner som kunne gi langt høyere effekt. Det var mye som gikk galt i den industrielle revolusjon også, men det ga løsninger som tenkerne 100 år tidligere ikke kunne forestille seg.

Jeg føler at samfunnet er i en liknende kreativitetskrise i dag. Vi klarer ikke å se for oss et samfunn uten Big Tech. Vi klarer ikke se for oss et lavkarbonsamfunn heller. Og vi våger oss ikke utpå uten å ha alternativene klart og tydelig på plass. Men fordi vi kollektivt mangler forestillingsevnen, så prøver vi heller ikke. Dystopiene er så lett å skrive, men denne gangen ønsker jeg ikke å skrive om dem, heller peke på at jeg tidligere har skrevet om hva vi bør få til.

Når Sagan påpekte at kunnskapen sitter hos de få skulle jeg ønske at jeg kunne si at det ikke er riktig. De få som innehar denne kunnskapen bruker gjerne dette til å påstå at de har en legitim makt, deres kunnskap gir dem denne makten. Dette er en ideologi jeg tar avstand fra på det sterkeste, det er nemlig den som er årsaken til mange av våre problemer. Men det er riktig at kunnskapen sitter hos de få, det er ikke til å komme unna, og det absolutt mest kritiske vi må gjøre er å sørge for at dette ikke lenger er sant.

Problemet er tildels denne ideologien, men også helt vanlig business strategy. Man har et rammeverk som heter VRIN/O og der bør man se om man kan ha noe som er sjeldent og ikke så lett å imitere. Det er åpenbart at programvareselskaper er kunnskapsbedrifter, og det betyr at man selvfølgelig søker å ha eksklusiv kunnskap. Og dermed havner kunnskapen helt naturlig hos de få. Det er ingen stor konspirasjon bak det, ingen reinspikka ondskap. Bare helt vanlig business strategy. Men når det betyr at kunnskapen om teknologi som skaper normer i samfunnet er i en bedrifts eksklusive eie, så går det galt. Da må samfunnet finne en annen modell.

Og det er nettopp den modellen jeg prøver å skrive om både her, i kronikker og på Normative Technologies. Og det er her alle trådene egentlig bindes sammen. Selv om vi har vært ganske gode til å lage meritokratiske styringsmodeller for fri programvare, så har vi aldri klart å lage styringsmodeller som faktisk gir en demokratisk forankring. Så her slutter altså historien, for jeg er sikker på at det er slik vi må finne ut av for framtiden, både for å sikre politisk styring med normdannelse og fordi vi må få kunnskapen ut av hendene til de få. Det at Ostrom viste hvordan vi kan lage styringsmodeller gjør at vi i framtiden må snakke om Digital Commons.

Lange campingturer og elbil

Jeg trodde ikke jeg som alltid har likt å telte lengst mulig fra folk skulle kjøre rundt med campingvogn, men så viste det seg plutselig at med ungeflokk på slep var det en veldig fin ferieform. Årets tur har vært planlagt lenge, den går rundt Mørekysten og kommer til å være på nær 1500 km. Andre turer vi har hatt har vært mer enn det. Jeg ønsker veldig å erstatte dieselmonsteret med en elbil (vi bruker allerede en Renault Zoe mer enn dieselmonsteret), slik at vi går hel-elektrisk. Dessverre har jeg funnet at det må skje mer med ladeinfrastrukturen før det er mulig å kjøre elbil med campingvogn på disse turene. Jeg skal komme med noen forslag.

Dieselmonsteret og den forrige campingvogna om bord på elferja Ampere sommeren 2017.

Nå kommer det etterhvert flere biler med hengerfeste, og noen av dem vil kunne trekke en såpass stor campingvogn som vi har. Problemet er at det trekkes ganske mye strøm når man kjører med campingvogn. Foreløpig er det bare Tesla Model X som vil klare det. Teslabjørn har prøvd og fant at man trekker opp mot 5 kWh per mil. For enkelhets skyld, la oss regne på hva vi vil trenge av ladeinfrastruktur gitt 5 kWh/mil og en tur på 150 mil.

Totalen er enkel, 750 kWh på turen. Det er forøvrig omtrent halvannen tank diesel. Dieselmonsteret ville ikke kommet langt på det. Det er ofte ikke så greit å komme seg inn på små bensinstasjoner med campingvogn på slep, så på tur pleier jeg å fylle hver gang vi kjører uten vogna. Det samme vil være tilfelle med superladere. Derfor er det langt å foretrekke å lade på campingplassen, og aller helst på natta.

Vanligvis får man koblet vogna på strøm på campingplass, men ofte får man bare 2,3 kW, noen ganger 3,4 kW. Ofte står det at stikket ikke kan brukes til å lade elbil. Det tar altså 2 timer å lade for å ha nok energi til å kjøre en mil. Hjemme i garasjen har vi en lader som kan gi 22 kW, og ute på veien finner man superladere på 150 kW eller lynladere som kan gi opp mot 300 kW. Med superladere og oppover er det batterikapasiteten som setter begrensningen, egentlig er jeg ikke så bekymret for det for vårt bruk, vi kjører uansett kortere strekninger men blir ikke så lenge på hvert sted, men for andre er batterikapasiteten en begrensing.

Det som er litt interessant i så måte er å se på hvor lenge man må stå stille for å få kjørt våre 150 mil. Vi kan regne i timer, netter (si 10 timer) og dager:

EffektTimerNetterDager
2,3 kW3263313
3,4 kW221229
11 kW6873
22 kW343,51,5
150 kW50,50,2

Med dette ser vi tydelig at å bruke elbil på campingtur så lenge man kun får et vanlig stikk ikke er mulig. Hvis man har tilgang på en typisk blå kontakt, kan man nok i gjennomsnitt klare seg, men da vil turen trenge mye planlegging, siden hvis man kommer inn med tomt batteri, kan man bare kjøre 7 mil dagen etter.

Hvis utbredelsen av superladere og lynladere blir større, kan nok det hjelpe på, men foreløpig er det svært få av dem på vår planlagte tur. Det er dessuten ofte for trangt til å komme inn med vogn på slep.

Står derimot bilen på en 11 kW lader natta over vil den være fulladet dagen etter, og man trenger ikke engang lade alle nettene. Med 22 kW er situasjonen enda bedre, hvis har man den effekten tilgjengelig kan man lade noen timer på kvelden og ha fullt batteri.

Campingplasser som ikke har stor gjennomstrømning vil sannsynligvis klare seg med å ha noen 22 kW-ladere tilgjengelig ved en parkeringsplass, men hvis vi tenker framover og tenker på situasjonen når dieselmonsterne er borte fra veien og alle kjører elektrisk, så vil det sannsynligvis ikke være arealeffektivt å ha det kun på parkeringsplass når det gjelder korttidsbesøkende.

Istedet bør ladepostene ved oppstillingsplassene ha en 22 kW lader for hvert uttak som betjener 4 campingvogner. Det er det vanlige oppsettet på campingplasser, at det er fire campingvogner som deler en stolpe med 4 uttak. Får disse stolpene også en 22 kW lader tenker jeg vi er i mål.

Slike ladere er vanlige, det er mange av dem på markedet, og den vi har i garasjen kostet 7000 kroner. Det fordrer imidlertid at man har riktig type nett (400 V 3-fase) og tilstrekkelig dimensjonerte kabler på plass. Det kan hende at mange campingplasser ikke er dimensjonert for dette, har de bare vanlige stikk-kontakter trekkes det ikke mer enn maks 10 kW per stolpe. Med fire blå kontakter og en elbillader snakker vi 36 kW per stolpe.

En handlingsplan bør derfor være:

  1. Støtte utbygging av nett slik at alle campingplasser har 400 V 3-fase TN-nett.
  2. Støtte opprettelsen av noen 22 kW ladepunkter ved alle campingplasser.
  3. Støtte nye kabler på ambulerende oppstillingsplasser slik at alle stolper kan ha en 22 kW lader i tillegg til vanlige stikk for campingvogner.

Mitt store prosjekt om Semantisk Web

Mitt Ph.d.-prosjekt nærmer seg slutten, og jeg tenkte det var på tide å skrive litt om det. Dette er en populærvitenskapelig framstilling av prosjektet:

Jeg startet med en dyp fascinasjon for ideen om Semantic Web, og mye praktisk erfaring. Som forsker er det kanskje ikke det beste utgangspunktet, siden det kan kan være en utfordring for objektiviteten forskeren bør ha. Men akkurat det viste seg å være mitt minste vitenskapsfilosofiske problem, vitenskapsfilosofiske grublerier skulle bli langt mer framtredende en jeg hadde forestilt meg på forhånd.

Semantic Web er ideen om at man skal kunne bygge ut dagens World Wide Web med data som skal i større og mindre grad analyseres av datamaskiner. Egentlig var det ideen helt fra starten: Hvis en webside har en tabell, og en av kolonnene har overskriften “Pris” kan man gjette seg til at i cellene står prisene for produktene som angis på radene. Innen 1997 begynte det å bli ganske klart at websider ble i praksis kodet på en slik måte at dette var noe man ikke ville klare i praksis og dermed startet man arbeidet med en datamodell kalt “Resource Description Framework” (RDF).

Året etter startet jeg på mitt hovedfag i astrofysikk, men i bakhodet hadde jeg en problemstilling som jeg hadde opplevd da jeg på frivillig basis startet skepsis.no: Problemet med å opplyse de overtroiske var ikke snakk om å nå ut med informasjon, det er banalt enkelt. Det vanskelige var å nå inn i lukkede sinn, trenge inn i ekkokamre, få noen interessert i det de aller minst vil høre. Naturligvis er de tekniske løsningene bare en liten del av bildet, men det begynte å tegne seg et bilde av noen teknologiske muligheter i mitt hode. Jeg skrev noen ideer og sendte dem litt rundt på nett, og en av dem som plukket dem opp og fortalte at de tenkte i samme retning var han som uka etter skulle bli leder og redaktør for standardiseringsarbeidet av RDF. Han overbeviste meg raskt om at mine tekniske ideer var realistiske innenfor rammeverket av Semantic Web. Skjønt, selv om jeg fikk sjansen til å jobbe med det, var det for mye for en mann å løse med svært umoden teknologi. Kommentarfeltenes tragiske endelikt skylder jeg fortsatt på at ingen gjorde den jobben, demokratiet kunne ha vunnet så mye.

Anvendelsene av Semantic Web-teknologi er brede, så brede at det bør kunne gjennomsyre samfunnet i langt større grad en dagens Web. Rørleggeren som skal levere tilbud burde bruke det, skal man ut på reise bare vet hva man vil oppleve og ikke helt hvor man skal, bør man bruke det, i medisin og i industri. Kort sagt over alt der noe som er offentlig tilgjengelig skal integreres med noe som er privat, for å hjelpe noen med å ta en avgjørelse.

Dataintegrasjon er stikkordet. I dag er situasjonen at hvis man skal integrere flere datakilder trenger man gjerne en programmerer til å gjøre jobben. Jo flere datakilder som skal integreres, jo mer arbeid, og sannsynligvis er det ikke bare dobbelt så mye arbeid for dobbelt så mange datakilder, det er enda verre! Samtidig går antallet som er interessert i akkurat den kombinasjonen ned. At kostnaden går opp etterhvert som færre kan betale for jobben gjør at man ikke ser så veldig store integrasjonsprosjekter til daglig, de er for dyre.

På Semantic Web skal hver enkelt gjøre en litt større innsats for å gjøre sine egne data lettere å integrere, men belønningen er at datamaskinene skal gjøre resten av jobben. Det bør legge teknologien i hendene til folk flest.

Og det er nettopp det som er idealet bak mitt prosjekt. Industrien har tatt teknologien i bruk, og Semantic Web ble brukt da IBM brukte sin Watson til å sette menneskeheten i forlegenhet da den vant Jeopardy over de mestvinnende menneskene i øvelsen. Mektig imponerende, helt klart, men teknologi for de få i overskuelig framtid.

Prosjektet skulle først og fremst være praktisk. Måten man lager applikasjoner på må endres, fra systemer der utviklere må ha eksplisitt informasjon til systemer som drives av dataene de får fra nettet. Dette er essensen i hypermedia. Når jeg sier hypermedia, tenker de fleste på en film med tekst rundt, men det er bare det enkleste tilfellet. I det tilfellet vet applikasjonen at når den har siden, og finner en film, så kan den filmen spilles av. Men hypermedia handler egentlig om at det er en dialog der brukerens system resonnerer seg fram til hva den skal gjøre. En applikasjon skal ikke trenge å være kodet for å bestille pizza, den blir fortalt hvordan den skal gå fram av restaurantens websider.

Likevel er det utenfor hypermedia-området jeg har jobbet mest, med et spørrespråk ved navn SPARQL. Enkle spørrespråk har nok de fleste sett: På Google kan man skrive + foran et ord hvis man vil at det skal være med, eller gåseøyne rundt en frase hvis ordene skal stå akkurat slik. Med et ordentlig spørrespråk kan man f.eks. si at “gi meg alle steder der det er meldt over 25 grader, i nærheten av en UNESCO world heritage site, men også badestrand, minst 4 stjernes hotell, hvor det er mindre enn 6 timer å fly fra min nærmeste flyplass med ledig plass neste uke, og min nåværende posisjon er…”, pluss at man kan ordne, begrense antall resultater, osv., osv.

Dataene kan være under forskjellige aktørers kontroll, i forskjellige databaser med forskjellig struktur. Det Semantic Web gir oss er en måte å koble dem sammen hvis man enes om et navn for hver ting og felles navn for egenskapene, og et språk til å bygge broer der man ikke enes. Navnene som brukes på Semantic Web er velkjent fra Weben. Navnet på denne artikkelen er dens adresse, og den kalles en URL: http://kjetil.kjernsmo.net/2016/04/phd-semweb-no/ . Semantic Web generaliserer dette til noe vi kaller URI, som kan brukes for ting som ikke er på nett, som en person, eller abstrakte ting, som en værtype. Men, siden dette er Web-teknologi, så begynner gjerne også disse navnene med ‘http’ slik at man kan få data om tingen bare ved å laste ned navnet. Data som brukes på denne måten kalles “Linked Data”.

Med SPARQL kan man stille spørsmål og få svar på svært innviklede spørsmål, og etter ganske kort tid spratt det opp flere hundre databaser åpent på nett der enhver som kunne språket eller hadde et verktøy som kunne hjelpe med å lage spørringene, noe som også finnes flere av, kunne gjøre det.

Det som dermed ble en interessant forskningsproblemstilling var å bruke språket ikke bare på en database, men på kryss av mange, alt etter hvilke data som finnes hvor. Dette ble mitt tema i likhet med mange andre grupper.

Problemet var den nagende mistanken om at infrastrukturen ikke klarer trafikken, noe som ble bekreftet av et studie av flere hundre slike databaser. De var svært ustabile og svært få var stabile nok til praktisk bruk.

Et nytt felt, som Semantic Web, kan beskyldes for å glemme gammel lærdom, og snart kom kritikken fra database-miljøet: Selvfølgelig kan man ikke la tilfeldige brukere stille tilfeldige spørringer med et så kraftig spørrespråk som SPARQL, det er ikke vanskelig å lage en spørring som vil ta årevis å svare på. Det kan skje enten fordi man ikke forstår hva man gjør, eller som et angrep. Man ser da heller ikke vanlige databaser på nett, det er alltid et forenklet grensesnitt man får som tilfeldig bruker. Nei, sa de, sentralisering av databaser til datavarehus og strenge begrensninger på hvilke spørsmål man kan stille er løsningen.

Rent teknisk kan det være korrekt, men det er ikke bare tekniske forhold som kan motivere forskningspørsmål. Sentralisering kan føre meg seg at enkeltaktører blir for mektige, og at hvis du ikke er innenfor en større kundegruppe blir dine problemer kommersielt uinteressante. Det er nettopp kommersielt uinteressante problemer vi skulle løse, fordi virkelige mennesker trenger en løsning også der det ikke finnes en klar forretningsmodell.

Så dermed må vi utnytte fordelen med å være et nytt felt til å utfordre gamle selvfølgeligheter, ved å formulere nye problemstillinger. Det er to retninger min forskning har gått i:

For det første: Hvorfor har vi ikke gjort de store framskrittene mot stabile løsninger? Spørsmålet plaget meg så mye at jeg tok en lang tur bort fra det praktiske og over til det vitenskapsfilosofiske og den statistiske litteraturen.

Mye av forskningen foregår med formelle metoder, som står støtt på sine formelle bevis. Problemet er når veldig mange formelle resultater legges sammen til et ferdig utviklet databasesystem har systemet blitt så komplekst at evalueringen av helheten må skje med empiriske metoder. De er lite utviklet i litteraturen. Hypotesetester finnes nesten ikke, man setter opp systemet man har utviklet, sender noen spørringer til det og måler hvor lang tid det tok før man fikk svar. “Benchmarking” kaller man det. Det er ingen samlende statistikk rundt de forskjellige testspørringene, ingen strukturert måte å finne ut om evalueringen i seg selv gir meningsfylte resultater. Man forsøker å møte problemet med at man i prinsippet kan velge spørringer utifra hvilken konklusjon man ønsker ved å standardisere spørringene, men dermed gjør man det umulig å teste utsagn som ligger utenfor standarden.

Mitt forslag var derfor å introdusere metode fra statistikken kjent som “Design of Experiments”. Med et eksperiment som kjørte i flere dager viste vi hvordan man kan generere testspørringer, gjøre hypotesetester, finne de viktigste problemene og lage en strukturert måte å vise om selve eksperimentet har viktige feil.

Likevel fortsatte flere vitenskapsteoretiske problemstillinger å plage meg. Når man står på Semantic Web-konferanser, som forøvrig kjennetegnes av svært godt sosialt og inkluderende miljø, så påstår så godt som alle at deres løsning fremmer visjonen om Semantic Web. Men hvordan underbygger man en slik påstand, all den tid Semantic Web ikke eksisterer ennå i den formen som visjonen forutsetter? Kan den trege utviklingen tilskrives at vi rett og slett ikke driver vitenskap, og i så fall, hva er vitenskap? Klare, popperske kriterier viser raskt sine problematiske sider, ettersom man innenfor dagens evalueringsmetodikk ikke har rimelig grad av sikkerhet på om det er studiets resultat som falsifiseres eller bare evalueringsmetodikken som er for dårlig. Vi har ingen formulert teori der hypotesene finner sin kontekst, slik min hovedfagsoppgave i sin tid fant sin kontekst i generell relativitetsteori og kvasarteori.

De gamle vitenskapsfilosofer gir en god ide om hva som kan gå galt hvis man ikke holder tunga rett i munnen, men jeg finner lite rettledning i de konkrete problemene jeg står oppi, og spørsmålet om sviktende metode er en av årsakene til treg framdrift har blitt stående.

Et annet svar til databasemiljøet er at “vi har nå et fungerende, globalt informasjonsystem som dere ikke hadde da dere prøvde å legge databaser åpent for mange år siden”. Dette informasjonsystemet, Webben, har visse egenskaper i infrastrukturen som muligens kan utnyttes. Et av dem er mellomlagring. I nettet finnes det maskiner som mellomlagrer data fra forskjellige kilder for å hjelpe til med å ta last fra publiseringssystemet, og for å sørge for at brukeren får bedre opplevd hastighet.

Det første spørsmålet var om Web-standardene for mellomlagre er i tilstrekkelig utbredt bruk av eksisterende datakilder på Semantic Web, noe som allerede innebærer ganske mye data. Jeg gjorde et omfattende søk over alle data jeg fant, og konkluderte med at situasjonen må forbedres mye, men at for enkelte deler kan man dra nytte av denne infrastrukturen.

For mitt siste arbeid gikk jeg tilbake til det praktiske, nemlig å lage et system som utnytter mellomlagringen i nettet, prøver å gjette hvilke data som kan være nyttige for brukernes framtidige spørringer og integrerer hypermedia i tillegg til databasene. Dette skal bli et modulært og ganske komplett system jeg publiserer som fri programvare. Flere av modulene har allerede blitt tatt opp av Debian-prosjektet, som danner grunnlaget for de mest utbredte Linux-baserte operativsystemene.

Dette arbeidet vil også ha en Design of Experiments-basert evaluering. Uansett hva den sier, vil de store spørsmålene bli stående ubesvart, jeg kan fortsatt ikke si om mitt arbeid er et verdifullt bidrag på veien mot Semantic Web.