En manglende samfunnsinstitusjon

Er du blant de mange som føler deg fanget av teknologigigantenes plattformer, og som gjerne skulle ha hatt alternativer, så skal du vite at det er mange som arbeider med det. Som teknolog skulle jeg gjerne ha fortsatt å utvikle, men jeg ser så tydelig at problemet nå er at vi mangler samfunnsinstitusjoner som skal sikre demokratisk forankring.

Hver uke roper noen varsku om hvor ille det har blitt med denne utviklingen men som oftest uten forslag til løsninger. Hvorfor er det så vanskelig å se løsninger? På 90-tallet sa mange kommentatorer at Internett er et uregulerbart fenomen. Har den holdningen satt seg? I såfall er det helt galt, som juristen Lawrence Lessig viste allerede i 1999. Internett er en ting, skapt av mennesker, og det kan endres av mennesker.

Eller er det det at verdens myndigheter har vært ineffektive til å regulere fenomenet? Ja, det er vanskelig, og der Lawrence Lessig tok feil var at han trodde at etterhvert som Internett gikk mer og mer over i hendene på store selskaper, så ville det bli enklere å regulere. I stedet ble maktkonsentrasjonene så store at de ble mektigere enn nasjonalstater. Dessuten ble den makten brukt til å gjøre Internett stadig mindre regulerbart.

Det trenger ikke være sånn, la meg derfor vise hvordan en av de institusjonene kan se ut: Jeg mener at vi må ha en institusjon der teknologer kan bidra til å skape nye arkitekturer innenfor demokratiske mandater og med det formål å gjenvinne regulerbarhet der det er viktig for demokratiet. Dette må skje gjennom at teknologer kan utvikle systemer som løser opp i grunnlagsproblemer og gir befolkningen teknologi de har innflytelse over.

Men en slik institusjon må ikke bare ha teknologer, tvert imot, det må være en tverrfaglig utviklingsinstitusjon. For eksempel ser vi at Internetts arkitektur i dag bidrar til spredningen av konspirasjonsteorier, og at det er svært skadelig. Religionsvitenskap er derfor en nødvendig del av en slik institusjon.

Institusjonen må likevel skille seg fra akademia ved at den ikke i hovedsak forsker. Den har ikke mål om å beskrive, men å utforske hvilke normer som bør gjelde, som fordrer en endring i tankemønstre i de fleste fag. Det er få programvareutviklere i dag som utvikler ting som lager normer, men dem som gjør det har mye makt. Denne makten må vi være bevisst, og den må forankres i demokratier. Selskaper som Google og Facebook kan sette nye normer på ukentlig basis uten at det har slik forankring. En måte å gjøre dette på er gjennom å utvikle systemer basert på forskjellige arkitekturer og så studere dem, for så å framlegge resultatene i offentlig debatt. Fokus for institusjonen må derfor være utvikling av normativ teknologi, men hele samfunnet må bidra i dialogen som følger av dette.

Hva betyr det at vi har forskjellige arkitekturer? Vi kan tenke på hvordan vi bruker vårt navn. På Jodel og Yolo kan man være helt anonym, på Instagram og TikTok stiller man med pseudonym, mens på Facebook skal det være fullt navn, uten at noen sjekker det. Dette gjør at folk oppfører seg veldig forskjellig på de forskjellige stedene. Gjør vi det på en annen måte kommer folk til å oppføre seg på helt andre måter igjen. Avhengig av hva vi som samfunn ønsker å oppnå kan vi skape alternativer som møter disse målene. Få jobber så langt ned i detaljene at de forstår at vi faktisk kan velge.

Problemstillingene spenner fra det grunnleggende, som forholdet mellom individets rettigheter til behov for kollektiv innsats, til enkle ting som løser et umiddelbart problem for befolkningen som ikke kan løses på kommersiell basis. Selv om enkelte problemstillinger ofte vil være forskningsnære, skal fokus være på å komme fram til løsninger som er robuste og som folk flest kan ta ibruk.

I de fleste problemstillingene er nyansene og detaljene så viktige at de politiske spørsmålene ikke er klare før vi har prøvd ut flere mulige løsninger. Ofte er behandling av for eksempel personopplysninger basert på samtykke, men som Zeynep Tüfekçi har vist er vi svært sårbare for manipulasjon. Derfor beskytter ikke samtykke-mekanismen oss lenger mot utnyttelse. At vi nå klikker OK på “cookies” på alle nettsteder vi besøker har ikke bidratt til å styrke vår posisjon heller. Samtykke er en nødvendig mekanisme, men designen rundt bruk av samtykke må bli veldig mye bedre.

Dette er tverrfaglig utviklingsarbeid. Ofte vil dette skje i samarbeid med offentlige aktører, og man vil måtte søke internasjonalt samarbeid om prosjekter som allerede har et visst driv. Likevel er det merke seg at dette ikke er en institusjon som skal drive digitaliseringsarbeid for offentlig sektor, det offentlige gjør allerede en god jobb med å ordne klare problemer ved å bestille en løsning i markedet eller fikse det selv. Institusjonen må ha frihet til å velge problemstillinger på faglig grunnlag, og framlegge mulige praktiske løsninger for befolkningen, som så kan være gjenstand for offentlig debatt.

Taiwan startet et slikt arbeid for fire år siden, med en fremragende utvikler ved navn Audrey Tang som digitalminister. De har gjort store framskritt blant annet innen behandling av desinformasjon.

Kan små prosjekter i Norge ha innflytelse på det internasjonale teknologiske landskapet? Ja, men flere forhold må være riktige: For det første er løsningene sterkt etterspurt, det fleste teknologibrukere i verden er klar over at de er fritt vilt. Når et problem er løst, kan hele verden få ta del i løsningen. Det at vi er små betyr likevel at vi må ha globalt perspektiv, hvis vi kun løser norske problemer vil løsningen gå i glemmeboken under teknologigigantenes tilbud. Dette setter store krav til globalt orientert faglig lederskap. Vi må også treffe de store nettverkseffektene. Det er ekstremt vanskelig å lykkes ved å bygge helt fra bunnen av, slik at det aller viktigste er å finne allierte i det teknologiske landskapet i verden. Vi skal også huske på at av alt utviklingsarbeid som gigantene gjør, er det bare en liten del av det som er nyttig for oss, og som må erstattes for å lage et velfungerende teknologisk samfunn. Kanskje vi kan spre slike institusjoner til flere land.

Dette er en helt ny type institusjon, men helt nødvendig om vi skal snu utviklingen. Selv om mange i IT-industrien ser at vi er nødt til å ta en annen retning, må demokratiet trå til med rettledning og tverrfaglighet av et annet omfang enn det vi har sett hittil. Dette er noe Internet Architecture Board også har påpekt i et notat med tittel “RFC 8890, The Internet is for End Users“. Vårt demokrati er blant de sterkeste i verden. Derfor tror jeg at teknologer her ser at løsningen er større politisk handlingsrom, ikke mindre politikk, slik mange i Silicon Valley tror.

Meg og oss i cyberspace

At individet står svakt i dagens teknologiske landskap har blitt åpenbart. At noen få teknologigiganter har fått enormt med makt som berører nesten alle samfunnsområder blir også påpekt omtrent hver uke i kronikker som også viser at denne situasjonen er meget skadelig. De færreste tar imidlertid inn over seg at denne sosioteknologiske utviklingen har skjedd på grunn av teknologi som er skapt av mennesker, og at alternativer til dette kan skapes av mennesker med andre insentiver og andre muligheter. Jeg har ikke tenkt å akseptere situasjonen som den er, men samfunnet trenger en ny forståelse for hvordan teknologiutviklingen kan påvirkes.

Noe av det viktigste å løse opp tidlig er forholdet mellom individet og det kollektive. Vi som har jobbet med dette lenge har vært klar over spenningen mellom individets rettigheter og behovet for å bruke data om individet for å oppnå kollektive goder, men COVID-19 og den mislykkede «Smittestopp»-appen har brakt et eksempel på dette opp i offentligheten. For selv om jeg gjerne står på for individets rettigheter, så er det også åpenbart at data sjelden er særlig nyttig for ett individ alene, det er best både for individet og samfunnet at data deles på en fornuftig måte, og data er grunnlaget for det meste som skjer på nett. Både legalt og teknologisk er dagens situasjon så primitiv at individets rettigheter stadig er i konflikt med det kollektive, noe en mer prinsipiell tilnærming må og vil løse opp i.

Disse to problemstillingene, teknologigantenes makt og spenningen mellom individets rettigheter og kollektive goder, må løses sammen fordi de i virkeligheten er to sider av samme sak. Det er viktig å presisere dette fordi jeg har sett mange tilfeller at man snakker forbi hverandre, spesielt kommer det mange påstander om at hvis man ukritisk deler data med teknologigigantene, så kan man vel også dele data med norske myndigheter.

Situasjonen er at med den maktkonsentrasjonen som er, så står de aller fleste bedrifter i et avhengighetsforhold til et selskap høyere opp i næringskjeden, og har svært få muligheter utenfor de forretningsområder de prioriterer. Som sluttbrukere står vi også et sterkt avhengighetsforhold, hvis jeg ikke bruker Facebook kommer ikke min barn på treninger eller i bursdager. Folk flest er helt klar over at de er fritt vilt i dette samfunnet, men de har svært begrensede muligheter, og dette truer tillitsamfunnet. Jeg anerkjenner også de problemer som er beskrevet i de ukentlige kronikkene som kommer, det er problemer av legal, sosial, økonomisk og teknologisk art som er alvorlige. Forskningen og til dels nye industrielle retninger har begynt å løse opp i de teknologiske problemene, da sentraliserte systemer har vært en vesentlig driver for å konsentrere makt, men det er fortsatt langt vanskeligere og dyrere å lage desentraliserte systemer. Siden problemene er så mangeartede vil teknologiutvikling kun spille en liten rolle, men den rollen er likevel viktig, da folk har reelle problemer som teknologien løser for dem, selv om den løser det på en måte som i det større bildet er til ugunst for både dem og samfunnet.

Det er i dette bildet man må forstå at vi insisterer på individets rettigheter: De er viktige som en motvekt til de sterke avhengighetsforhold som dagens digitale samfunn er bygget på. Slik vårt demokrati sikrer individets rettigheter som en forutsetning for individets deltakelse i tillitsamfunnet, slik vil det digitale tillitsamfunnet måtte bygges med rettigheter for individet. Som konsekvens av dette arbeidet vil også befolkningen bli mindre avhengig av teknologigigantene, og som konsekvens av det vil næringslivet også få større muligheter til å skape. Å sikre individets rettigheter innenfor er således en forutsetning for å løse kollektive utfordringer.

Vi må gå en lang og vanskelig vei for å komme dit, det krever tverrfaglig innsats over tiår. Det begynner med å innse at det er mange måter å lage normer på, teknologisk utvikling er en av dem. Det er svært få programvareutviklere som per i dag skaper nye normer, men de som gjør det har mye makt. Teknologigigantene ruller ut normsettende programvare hver uke. Per i dag er det nesten ingen teknologer som har mulighet til å jobbe normativt uten et profittmotiv som er diktert av dagens markedsrealiteter. Det er helt nødvendig å etablere tverrfaglige miljøer som kan utvikle teknologi innenfor et demokratisk mandat som kan ha normativ effekt på det sosioteknologiske landskapet i verden. Demokratiet må derfor slutte å tenke på at lovregulering er den viktigste eller eneste måten å skape normer på, det er nettopp en slik tanke som har ført oss ut i det uføret vi nå er i.

Det er mange i teknologiske miljøer som ser problemene og jobber med det, men hvis demokratiet ønsker å ha en hånd på rattet denne gangen så er sjansen her og nå.

Lange campingturer og elbil

Jeg trodde ikke jeg som alltid har likt å telte lengst mulig fra folk skulle kjøre rundt med campingvogn, men så viste det seg plutselig at med ungeflokk på slep var det en veldig fin ferieform. Årets tur har vært planlagt lenge, den går rundt Mørekysten og kommer til å være på nær 1500 km. Andre turer vi har hatt har vært mer enn det. Jeg ønsker veldig å erstatte dieselmonsteret med en elbil (vi bruker allerede en Renault Zoe mer enn dieselmonsteret), slik at vi går hel-elektrisk. Dessverre har jeg funnet at det må skje mer med ladeinfrastrukturen før det er mulig å kjøre elbil med campingvogn på disse turene. Jeg skal komme med noen forslag.

Dieselmonsteret og den forrige campingvogna om bord på elferja Ampere sommeren 2017.

Nå kommer det etterhvert flere biler med hengerfeste, og noen av dem vil kunne trekke en såpass stor campingvogn som vi har. Problemet er at det trekkes ganske mye strøm når man kjører med campingvogn. Foreløpig er det bare Tesla Model X som vil klare det. Teslabjørn har prøvd og fant at man trekker opp mot 5 kWh per mil. For enkelhets skyld, la oss regne på hva vi vil trenge av ladeinfrastruktur gitt 5 kWh/mil og en tur på 150 mil.

Totalen er enkel, 750 kWh på turen. Det er forøvrig omtrent halvannen tank diesel. Dieselmonsteret ville ikke kommet langt på det. Det er ofte ikke så greit å komme seg inn på små bensinstasjoner med campingvogn på slep, så på tur pleier jeg å fylle hver gang vi kjører uten vogna. Det samme vil være tilfelle med superladere. Derfor er det langt å foretrekke å lade på campingplassen, og aller helst på natta.

Vanligvis får man koblet vogna på strøm på campingplass, men ofte får man bare 2,3 kW, noen ganger 3,4 kW. Ofte står det at stikket ikke kan brukes til å lade elbil. Det tar altså 2 timer å lade for å ha nok energi til å kjøre en mil. Hjemme i garasjen har vi en lader som kan gi 22 kW, og ute på veien finner man superladere på 150 kW eller lynladere som kan gi opp mot 300 kW. Med superladere og oppover er det batterikapasiteten som setter begrensningen, egentlig er jeg ikke så bekymret for det for vårt bruk, vi kjører uansett kortere strekninger men blir ikke så lenge på hvert sted, men for andre er batterikapasiteten en begrensing.

Det som er litt interessant i så måte er å se på hvor lenge man må stå stille for å få kjørt våre 150 mil. Vi kan regne i timer, netter (si 10 timer) og dager:

EffektTimerNetterDager
2,3 kW3263313
3,4 kW221229
11 kW6873
22 kW343,51,5
150 kW50,50,2

Med dette ser vi tydelig at å bruke elbil på campingtur så lenge man kun får et vanlig stikk ikke er mulig. Hvis man har tilgang på en typisk blå kontakt, kan man nok i gjennomsnitt klare seg, men da vil turen trenge mye planlegging, siden hvis man kommer inn med tomt batteri, kan man bare kjøre 7 mil dagen etter.

Hvis utbredelsen av superladere og lynladere blir større, kan nok det hjelpe på, men foreløpig er det svært få av dem på vår planlagte tur. Det er dessuten ofte for trangt til å komme inn med vogn på slep.

Står derimot bilen på en 11 kW lader natta over vil den være fulladet dagen etter, og man trenger ikke engang lade alle nettene. Med 22 kW er situasjonen enda bedre, hvis har man den effekten tilgjengelig kan man lade noen timer på kvelden og ha fullt batteri.

Campingplasser som ikke har stor gjennomstrømning vil sannsynligvis klare seg med å ha noen 22 kW-ladere tilgjengelig ved en parkeringsplass, men hvis vi tenker framover og tenker på situasjonen når dieselmonsterne er borte fra veien og alle kjører elektrisk, så vil det sannsynligvis ikke være arealeffektivt å ha det kun på parkeringsplass når det gjelder korttidsbesøkende.

Istedet bør ladepostene ved oppstillingsplassene ha en 22 kW lader for hvert uttak som betjener 4 campingvogner. Det er det vanlige oppsettet på campingplasser, at det er fire campingvogner som deler en stolpe med 4 uttak. Får disse stolpene også en 22 kW lader tenker jeg vi er i mål.

Slike ladere er vanlige, det er mange av dem på markedet, og den vi har i garasjen kostet 7000 kroner. Det fordrer imidlertid at man har riktig type nett (400 V 3-fase) og tilstrekkelig dimensjonerte kabler på plass. Det kan hende at mange campingplasser ikke er dimensjonert for dette, har de bare vanlige stikk-kontakter trekkes det ikke mer enn maks 10 kW per stolpe. Med fire blå kontakter og en elbillader snakker vi 36 kW per stolpe.

En handlingsplan bør derfor være:

  1. Støtte utbygging av nett slik at alle campingplasser har 400 V 3-fase TN-nett.
  2. Støtte opprettelsen av noen 22 kW ladepunkter ved alle campingplasser.
  3. Støtte nye kabler på ambulerende oppstillingsplasser slik at alle stolper kan ha en 22 kW lader i tillegg til vanlige stikk for campingvogner.

Kjetils ladeplan

Nå har vi passert 10% elbiler på norske veier, og det gikk så fort som de største optimistene våget å håpe. Denne posten er ikke om hvorfor det er viktig og riktig å fortsette, men om hva som skal til. En større satsning ladeinfrastruktur må til. Regjeringen har lagt opp til at markedet skal fikse, men det ser ikke ut til at det går fort nok. Jeg tror det rett og slett er for komplisert, mange av aktørene er for små til å ta så kompliserte ting, og i den grad man har store aktører, så kan vi risikere å få for lav konkurranse, og derfor dårlige tilbud. Vi trenger en politikk som både sikrer rask utbygging og konkurranse mellom forskjellige aktører.

Jeg er redd for at vi havner i samme situasjon som i “den store telefonkatastrofen”: så sent som i 1979 stod 100000 nordmenn på venteliste for å få telefon, teknologiutviklingen gikk for fort, men det offentlige lå bakpå og klarte ikke automatiseringen av telefonsentralene. Øystein Sunde lagde en sang om det i 1976…

Lading på forskjellig skala

Hjemmelading

Hjemmelading er den aller viktigste ladeformen. At bilen kan lades der den uansett står om natta. Det gjør at man alltid starter med full rekkevidde, og det gjør at elbilen er bedre enn flytende drivstoff, når man først har hatt elbil en stund, så er det å kjøre innom en bensinstasjon i dagliglivet en belastning. For oss i enebolig er saken klar, vi må kjøpe en ladestasjon.

For borettslag er saken en annen, fordi det kan bli store investeringer for borettslaget å få det til fordi infrastrukturen ganske sikkert ikke er dimensjonert for belastningen. Oslo har hatt en god støtteeordning en stund som man har sett på for hele landet. Man burde bare få det gjort.

Destinasjonsladerne

Dette er også små ladeanlegg på steder der folk er en dog stund, gjerne natta over. Mange biler vil etterhvert få 22 kW ombordladere (slik Renault Zoe har hatt siden starten). Det bør være standardutstyr at det er slike ladere tilgjengelig for besøkere på steder som ligger litt for seg selv, som dyreparker, fornøylsesparker, høyfjellshoteller, osv. Dette er spesielt hjelpsomt siden ingen kan forvente at det er tilstrekkelig mange ladere tilgjengelig på de store utfartsdagene, som påske, pinse, osv. Da må folk ha hatt mulighet til å lade opp i løpet av tiden på tur.

Siden campingvogn fort dobler energiforbruket, er det også viktig at sånne kommer opp på campingplasser, det er for meg personlig det tekniske problemet står mellom meg å gå fullelektrisk (men det viktigste er økonomisk, vi har ikke råd til en stor nok bil, det er bare Tesla Model X som er stor nok for hele familien).

Mange steder vil enkelt kunne få montert sånne, og de koster under 10000 kroner, så en enkel støtteordning burde få fart på løsningen her. Med den konklusjonen, la oss gå til de aller største:

Lega-parkene

Jeg kaller dem lega-parker, de som kommer til å bli landets største ladeparker. “Lega” fordi jeg tipper de kommer til å trekke 50 megawatt effekt, og L er 50 i romertall, L og mega blir lega. Jeg tror at vi i framtiden vil tenke på et ladestopp som tid vi ønsker å fylle med noe, ikke tid vi ønsker å slå ihjel. Noen steder i landet ser jeg derfor for meg ladeparker med kapasitet på mer enn 100 biler samtidig, som står der en snau time. Folk ønsker å fylle denne tiden med god mat eller spennende aktiviteter eller kulturtilbud, eller bare få gjort noen ærender. Det gir rike muligheter for lokalt næringsliv rundt disse ladeparkene. Hvis man har noen spesielt store ladeparker, vil det være større sannsynlighet for gjennomstrømning og derfor mindre kø enn hvis det er mer fragmentert.

Problemet er at 50 MW er ganske høy effekt. Det er som “kraftkrevende industri”. Man kan ikke ta ut så mye av distribusjonnettet, de kraftlinjene som går rundt til husene våre. Faktisk vil det være en ganske mye også på regionalnettet. Det er effekttoppene man må dimensjonere etter, og dermed bestemmer det hvor mye kraft man må ha tilgjengelig, og hvor store naturinngrep man må gjøre for kraftlinjer. Dette må betales for, og derfor er effektprising fornuftig, fordi det er en betaling for å minimere skadevirkningene.

Men samtidig må det ikke underminere den ladeinfrastrukturen vi trenger så sårt for å kunne opprettholde veksten i elbiler. Så, kan man tenke seg at det er mulig å legge ladeparkene ved elektrisk infrastruktur slik at man minimerer behovet for slike potensielt skadelige investeringer?

Jeg har en tendens til å falle i staver over kart, og det ble fort klart at svaret på det spørsmålet synes å være ja. Vi kan plassere ladeparkene der det allerede er høy effekt tilgjengelig. NVE har nemlig publisert et fint atlas over strømnettet. Samtidig har Vegvesenet fine kart der man kan få ut trafikkdata. Med dette har jeg sett meg ut følgende kommuner:

  • Vinje,
  • Gol,
  • Vaksdal,
  • Nord-Aurdal,
  • Nord-Fron,
  • Eidsvoll,
  • Tønsberg,
  • Vestby.
Sentralnett og kraftverk
Dette utsnittet viser hvor sentralnettet i Sør-Norge er, samt kraftverk med ytelse på over 50 MW.

Det jeg ser med disse er at det enten er regulerbar kapasitet i umiddelbar nærhet til gunstige steder typisk midt mellom store befolkningssentra (som Gol og Vinstra) eller fordi det finnes trafostasjoner på sentralnettet rett ved hovedfartsårer (som Barkåker i Tønsberg kommune eller Tegneby i Vestby). Jeg tenker at hvis man kan trekke kabel rett fra disse knutepunktene, fordi de ligger nær ladeparkene, vil de i veldig liten grad belaste regionalnettet og distribusjonsnettet. Da bør man kunne lage egne ordninger for å prise effekten disse få stedene tar ut. Med andre ord, ingen nettleie hvis man ikke bruker nettet.

Jeg tenker meg tre tiltak:

  1. Det bør være en nasjonal fagmyndighet, f.eks. NVE, som har det overordnede faglige ansvaret, og som koordinerer kraftselskaper, netteiere og kommunene.
  2. Et statlig eller flere kommunale operatørselskaper som har ansvaret for utbygging og framføring av kapasitet, salg av kapasitet sørge for konkurranse mellom ladeoperatører (som Ionity, Fortum, Grønn Kontakt, Tesla, etc), osv. Jeg tror det må være offentlig drevet i starten, markedet har ikke klart det hittil, men at det kan privatiseres etterhvert når det er vel etablert. Statkraft kunne i prinsippet ha en slik funksjon, men da måtte de selge seg ut av Grønn Kontakt igjen.
  3. Bevilgninger til en nevnte pilotkommuner slik at de kan ha folk i som kan støtte utbyggere både til å utvikle tomter, koordinere mellom forskjellige utbyggere, tiltrekke seg annen næringsvirksomhet (restauranter, etc), samt koordinere med sentrale myndigheter, operatørselskaper og fagetater som nevnt over.

Vinje, Gol og Nord-Fron er valgt fordi de huser noen landets største regulerbare kraftressurser, samtidig som hovedfartsårer går gjennom dem og er såpass langt fra de større byene at de sannsynligvis vil se stort behov for lading. Vaksdal har store regulerbare energiressurser og ligger både langs hovedfartsåre og ikke langt fra Bergen.

Nord-Aurdal er valgt fordi de også har betydlige kraftressurser, litt dårligere nett, og også mye langdistansetrafikk.

Eidsvoll, Tønsberg og Vestby er valgt fordi noen av de største kraftkablene på sentralnettet går igjennom og også huser kraftige transformatorstasjoner, samtidig som de ser mye av trafikken i Østlandsområdet. Eidsvoll har forøvrig allerede en av Europas største ladeparker, men den har ikke kabler som tillater den å vokse særlig.

De mellomstore

I tillegg til de største vil det være behov for en del mellomstore, med noen MW effekt. Brokelandsheia er egentlig et godt eksempel på et sted som allerede har en del tilbud for dem som vil stoppe en time, men de har ikke så store kraftressurser. Et eksempel på et sted som har det er Alvdal, som har mye tungtrafikk, selv om de har lav total trafikkmengde. Det er interessant også fordi Aukrust-senteret er et godt eksempel på et kulturtilbud som kan få et solid oppsving ved en ladepark i nærheten.

Jeg ser også behov for noe på Sørvest-landet, men der er det litt mer uklart akkurat hvor det bør være. I nord er det en del mindre trafikk, og det er derfor mindre trolig man kommer opp i de veldig høye effektene man ser andre steder, dessuten er det aldri veldig langt til sentralnettet. Rana har jo også enormt med kraft. Verdal og Lundamo kan også være aktuelle inn mot Trondheim, mens Skei og Aksdal kan være aktuelle steder på E39.

Riksveinettet

Forøvrig på riksveinettet trenges det også noen lynladere, det er en del områder som ikke dekkes godt av de store ladeparkene som over, f.eks. Strynefjellet. Det er også noen lange fylkesveier, som Fv 17 og Fv 40, med liknende behov. Men her kan det forventes at man trenger godt under 10 MW, og det er derfor langt enklere å koble på. Det er mulig at incentivordningene bør være de samme for å sørge for at de legges ved eksisterende infrastruktur, og nøytrale operatørselskaper er muligens også ønskelig, men rent teknisk er dette enklere.

Hva med Oslo?

Folk flest bor i Oslo, og det er kanskje naturlig med ladeparker der? Jeg tror at små destinasjonsladere er mye viktigere, at man kan lade på lav effekt på det stedet man skal.

Likevel tittet jeg litt på noen steder der det kanskje vil gi mening å ha ladeparker med noen MW. Jeg så etter følgende:

  1. Nær transformatorer på sentral- eller regionalnettet
  2. Utenfor bykjernen
  3. Nær T-banen, så folk kan lade mens de gjør raske ærender i Oslo sentrum
  4. Nær andre servicetilbud
  5. Nær hovedveier.

Jeg fant tre steder:

  1. Økern
  2. Trosterud
  3. Montebello

Økern virker aller best egnet, på Trostrud må man kjøpe opp eksisterende bebyggelse og bygge gangveier, og på Montebello er det et stykke ned til Ring 3.

Hvor fort kan det gå?

Har vi ikke litt tid, i den forstand at selv om man kanskje ser at alle nye biler som selges i 2025 er elektriske, så tar det lang tid før det er veldig mange? La oss ta en langt mer naiv framskrivingsmodell, basert på globale salg. Ifølge den ble det solgt 201 000 elbiler på verdensbasis i 2017, 397 000 i 2018, jeg har ikke sett fjorårets tall ennå, men det har kanskje passert en million. Norsk elbilpolitikk har utvilsomt en del av æren for dette. Dette har vært og er politikk som fungerer.

Vi ser igjen i disse tallene slik teknologi vanligvis blir introdusert i markedet: Den skjer ikke jevnt, men går sakte i starten, inntil vi ser et mønster der vi ser en dobling med en viss tidsperiode. De tre siste årene har vi altså sett en dobling hvert år. Kanskje det går fortere. Det betyr at hvis det ble 1 million elbiler globalt i 2019, er den normale utviklingen at det blir solgt 2 millioner neste år, så 4 mill i 2021, 8 mill i 2022, 16 mill i 2023, 32 mill i 2024, 64 mill i 2025, 128 millioner i 2026.

128 millioner elbiler solgt globalt i 2026. Det er hele verdensmarkedet for nye biler, allerede i 2026. Ikke verst, hva?

Så, kanskje det kan gå så fort? Eller kanskje ikke, men la oss planlegge for en rask utskifting. Hvis folk faktisk får lademuligheter ser jeg for meg at vi får en betydelig bensinstasjondød, og det igjen vil føre til at det er enda mer plunder og heft assosiert med bensin, og det vil gjøre at gamle fossiler blir omtrent umulig å selge. Det blir også en utfordring som må løses.

Discussion on my RDF Hypermedia Proposal

I have had some offline discussions about my Read Write RDF Hypermedia proposal (please let me know if you’d like to be named), and there are some things that I’d like to elaborate on.

There is clearly a need to contrast my proposal with other technologies out there, and make it clearer where this makes sense.

Initially, I developed this with the ideal of making the RDF control statements look somewhat like natural language sentences, that is, if you as a client is authorized to delete a resource description, the RDF should tell you that in terms that are likely understood by someone who has never seen RDF before. Developers might just look at what they get from a server and start to work with it. After discussing it, I think it might have another advantage: It seems to me that we will have a lot of different protocols on different levels in the stack, and that this protocol heterogeneity could be addressed in part by moving controls into the body of the message. Lets discuss that first.

Protocol Heterogeneity

HTTP has served us well, and will continue to do so. Nevertheless, it seems to me that with “Internet of Things” (IoT), we will develop a “last mile” problem,  in which we cannot or do not want to control what application layer protocol to use. I haven’t done a lot of work in this space, but it seems very diverse. Obviously, if you can use a Wifi protocol, HTTP will available to you. I did some work with an Arduino (which is a microcontroller with very little RAM), where I found that the best choice to interact with it for my application to add an Ethernet shield and use HTTP. In other cases, it probably wouldn’t be. Some protocols are maintaining layered model, and some, like Zigbee, has gained an IP layer. Others, like DASH7, touches every layer in the OSI stack. In the latter case, it is mostly easy to map HTTP methods into operations on DASH7 devices, but the point here is that there is a whole zoo of protocols, some of which would need a mapping, some of which have an IP layer, but where you do not want to be tied to an application protocol for some reason. That is not to say that HTTP will not be the application protocol used on the open Web, but that there are endpoints that should be free to choose their protocol for interacting with their internals.

If the semantics of control operations sits in HTTP the translation may become unnecessarily complex, and so feel restrictive to implementors. That’s one of the reasons I would prefer to  have controls in the message body.

But it also implies that the controls should be as precise as possible. For example, I proposed

</test/08/data> hm:canBe hm:mergedInto .

and not that we encode POST as an operation. POST is not precise enough, but we should define the in vocabulary that for the HTTP protocol, hm:mergedInto would be implemented with a POST.

Finally, it should be noted that such controls should be defined for protocols that use very different operations. I have for example proposed similar controls for video:

<rtsp://camhost1.orienteering.org/stream> 
  a dcmit:MovingImage ;
  hm:can hm:play, hm:pause, hm:stop .

I also proposed more detailed more application-specific controls, like

<rtsp://camhost2.orienteering.org/stream> 
  a dcmit:MovingImage ;
  hm:canBe hma:votedFor ;
  rev:hasReview </user/foo/vote/1>, </user/bar/vote/56> .

where the definition of hma:votedFor might be a fairly complex, possibly defined in terms of other controls, I haven’t thought that far yet.

Contrasting With Other Efforts

There are several other vocabularies and protocols that are in the same space. None, as far as I know, take the same starting point: That controls should look and feel like natural language sentences. I think that is the most important point, that is the key enabler of making “View Source” development feasible for newcomers.

There are, however, in-band hypermedia controls to define allowed operations in RDF in the Hydra specification. However, Hydra doesn’t read like natural sentences, its appeal is more towards those who already know RDF. Moreover, it isn’t inclined to define precise controls, like hm:mergedInto, it allows you to formulate which operations to do, and then hydra:method is explicitly a HTTP method. As argued above, this may create a gap on the last mile, as the semantics becomes unclear further down the stack and it would require more work mapping between various protocols.

Then, there’s the Web Access Control (WAC) spec. On the surface, my proposal seems like a replacement for that, but that’s not intended, to the contrary, I see these as complimentary. In fact, when I first started my implementation, the first thing I did was to use the predecessor of this spec as well as WebID+TLS to create the authentication and authorization framework. I later removed that code to focus on the hypermedia aspects, but I still think WAC is the right way to specify the authorization rules. The WAC should be exposed so that clients that prefer to gain an instant overview of the application they are interacting with, but I think that many users will find it much easier to understand a nearly-natural language sentence that tells them exactly what they can do to the resource they are presently interacting with.

I guess I should have taken the complimentary perspective with Linked Data Platform as well. So far, I’ve been of the opinion that LDP should be superseded by hypermedia. My main point of criticism has been that LDP doesn’t have the right primitives, i.e. LDP’s primitives need to be understood in terms of HTTP, but that means a newcomer has to have incentives to read up. I think they need to have the “hey, I can do this”-experience first. The message and tools have to provide that. Then comes the argument from above that the emergent IoT-induced protocol heterogeneity problem could require us to formulate controls in message bodies.

That said, it is also pretty clear that my hypermedia proposal could be formulated to only add some RDF to resource descriptions, and thereby augment rather than replace LDP. So, I hereby apologize for my attacks on LDP, lets go complimentary.

Is the Controls Resource Needed?

In my first post, I argued that in the case where we expose a resource for reads for unauthenticated clients, but require authentication and authorization for writes, we need a separate resource to challenge the client. I admit that this is suboptimal, but I don’t see a lot of good alternatives. One alternative that was proposed to me is to add hypermedia controls to the response to an unauthenticated client as it is not the controls that require auth* but the right to use them. I feel that would be more confusing, as even an authenticated user may not be authorized to use certain controls, and so, a client may authenticate and then see certain controls disappear because they are not authorized to use them.

At this point, I think that implementation experience is needed to find the best approach, and importantly, study how inexperienced but enthusiastic implementors interact with resources.

Hvorfor er utenlandskabler så viktig?

I forbindelse med at Stortinget skal stemme over tilknytning til EUs energibyrå har det oppstått flere kampanjer mot dette. Jeg mener at utenlandskablene er meget viktig for å gjennomføre et grønt skifte i Europa, og selv om jeg ikke har noen mening om tilknytningen til EUs energibyrå, så vil jeg imøtegå kritikken av utenlandskablene.

En ting som er rart er at jeg ser veldig lite tilsvar til disse kampanjene, som jeg mener bygger på flere misforståelser. Det er mulig at de bare ikke trenger inn i min sosiale-medier-boble, men ettersom jeg er lidenskapelig opptatt av det grønne skiftet, og de som burde vite mye om dette ikke svarer, tenkte jeg at jeg fikk skrive litt. Jeg har ingen profesjonell interesse i dette overhodet, og egentlig bare det jeg vil betegne som grunnleggende kunnskap, men bare dette gjør at jeg mener mye av det som blir sagt er feil.

La meg først ta spørsmålet om det grønne skiftet: Det går nå veldig raskt, der fornybarandelen i tysk energimiks har doblet seg hvert 8. år. Mange andre land, deriblant Polen, befinner seg i eksponentiell vekst. God politikk kan akselere denne trenden, dårlig politikk kan forsinke den, men ikke stanse den. Verden kommer til å gå mot lavutslippssamfunn, spørsmålet er bare hvor lang tid det tar.

De to store bidragsyterne til fornybar energi i Europa er vind og sol. Problemet med vind og sol er at de kan ikke styres, og de er heller ikke stabile, de fluktuerer ganske mye. Hvis man skal ha tilstrekkelig forsyningssikkerhet må man derfor bygge ut en helt utrolig overkapasitet. Må man det, vil det grønne skiftet ta flere tiår, kanskje vil man aldri komme fram. Problemet er videre at forbruket har en del store topper, og det gjør at man må dimensjonere etter forbrukstopper som nesten aldri skjer, og det er ekstremt dyrt.

Man kan også risikere å ha null fornybar energi tilgjengelig, fordi det var tåke og stille…

Samtidig kan man få topper, slik at man har mer kraft enn man trenger, det vil være en ekstrem sløsing om denne da ikke kan brukes eller lagres, og jo større overkapasitet man har, jo mer sløsing blir det.

For å unngå dette må man ha regulerbar kraft tilgjengelig, altså kraftkilder som man kan bestemme manuelt enten når man får en topp eller for å unngå en bunn. Det kan gjøres på flere måter. Hvis man ikke har regulerbar kraft tilgjengelig selv, kan overproduksjon eksporteres til noen som har det, slik at de ikke trenger å kjøre egne kraftverk, og man kan importere hvis man får topper som går over det man selv har kapasitet til, eller hvis man rett og slett får en bunn. Dette er en del av det man kaller systembærende ytelser.

En annen løsning er at man setter opp et energilager, slik at energien kan lagres. Det er alltid tap forbundet med den løsningen, men moderne batterier begynner å bli ganske gode. En annen løsning er at vannkraftverk pumper vannet tilbake opp i magasinet.

Problemet er at Europa per idag har lite slik regulerbar kraft. Italia har noen GW. Og de strever veldig, veldig med å få det til. Og så er faktum at vi har plenty. 75% prosent av vår kraft er regulerbar.

Dette er det største uløste problemet med det grønne skiftet, og så kommer organisasjoner som Industri Energi og Nei til EU og sier at “nei, vi gidder ikke. De får løse sine egne problemer. Vi vasser i kraft, men gidder ikke hjelpe til. Det er ikke vårt problem.” Klimaendringene er globale, alle må bidra til å løse problemet!

Jeg har prøvd å forstå argumentene som brukes. Arrester meg hvis jeg formulerer dem galt, men det høres for meg ut som det er noe slikt:

  1. Utenlandskabler vil føre til at det norske og det europeiske markedet
    vil komme i balanse.
  2. Strømprisene i det europeiske markedet vil være høyere enn det norske i overskuelig framtid.

Faktum er at ingen vet hvor lenge europeiske strømpriser vil være høyere enn norske. International Renewable Energy Agency (IRENA, som ikke må forveksles med International Energy Agency) har kommet med en rapport nå nylig om kostnadsutviklingen ved fornybare kilder. Jeg har ikke lest hele rapporten, men figur ES.1, viser at i løpet av svært få år vil kostnadene ved sol- og vindkraft være lavere enn fossile kilder. Dessuten er kostnadene ved vannkraft sånn røffli rett under fossil kraft. Altså vil våre kostnader være omtrent de samme som på kontinentet. Og da snakker vi 2020, altså før utenlandskablene vil være operative.

Kostnadsutvikling

Når det først skjer at kostnadene blir de samme er det bare et tidsspørsmål før elektrisk kraft blir like billig i Europa som i Norge. Det kan gå veldig fort. En tysk dobling til, da snakker vi altså 2023, så har vi kommet et godt stykke. Som det stod i artikkelen over trenger danskene bare 280 MW, så har de kvittet seg med fossilavhengigheten. Det er et mellomstort norsk kraftverk og en lampettledning i den store sammenhengen. Og det mener altså noen at vi ikke skal bidra?

Dårlig politikk kan utsette det grønne skiftet. Dessverre stoppet både vind og sol  opp i Tyskland i 2016, jeg har ikke sett 2017-tallene ennå, og dette var på grunn  av dårlig politikk.

Problemet er at veldig mange land, som Norge, Polen og Estland, fører en svært  dårlig klimapolitikk, og det er stort sett den samme begrunnelsen: Man er redd for industriarbeidsplasser i etablerte næringer, som kull, olje, gass, og kraftkrevende industri.

Dette er nokså grunnløst.

Det norske og europeiske kraftmarkedet vil ikke komme i balanse. Det setter fysikken en stopper for. Si at vi etterhvert har 2 GW utvekslingskapasitet med Tyskland, bare for å ta et tall som er rimelig greit. Tyskland har per idag 200 GW installert kapasitet. Så, våre anlegg kan altså ikke bidra med mer enn 1% av det Tyskland selv har å bruke. Det samme gjelder sånn røffli England. Min lille økonomiske sans forteller meg at for at markeder skal komme i balanse, må det være noe nær likevekt mellom tilbud og etterspørsel, altså må det tilbys nok billig norsk kraft på det tyske markedet slik at alle som etterspør billig kraft kan få det. Men, de har altså bare en bitteliten del av etterspørselen dekket av norsk, billig kraft.

Det finnes en fantastisk ressurs ved navn Electricity Map der man kan følge den faktiske energiutvekslingen mellom mange land og regioner i verden. Det finnes også priser og historiske data for en del steder. Da Industri Energi kom ut med en av sine kampanjer i slutten av januar, var det flere dager da vindkraftproduksjonen i Europa var så stor at Norge importerte store mengder billig og ren vindkraft fra Tyskland og Danmark. Ifølge propagandaen var det noe som liksom ikke skulle skje, men det skjer allerede.

At man skal kunne komme i balanse ved å strekke noen få kabler er en absurd påstand. Det illustreres også ved at vi i Norge har forskjellige regioner med forskjellig pris, hvis det hadde vært sant at kabler kunne balansere markedet så lett, så hadde vi i det minste sett det allerede i Norge. Vi har ganske godt med kabler. NVE har gjort en kraftmarkedsanalyse (jeg har ikke lest hele) der konklusjonen er en mulig økning på 2 øre/kWh. Det veldig lite, og det kan være riktig, men det kan også hende at fornybarutviklingen på kontinentet vil gå så fort at det vil bli like billig fortere.

Det som også er viktig er at de milliardene man ellers måtte investert i  overkapasitet, kan brukes på andre tiltak. Det gjør kraften billigere på kontinentet, og man slipper å ta de miljøkostnader som også fornybar kraft har. Man reduserer risikoen fra at man står med store hull. Man kan altså kvitte seg med kraft for baselast og topper. Det gjør at man kan redusere installert kapasitet.

Så, hva er alternativet for Europa hvis vi ikke lar dem få kabler fra oss? Batterier, selvfølgelig. Batterier faller også veldig fort i pris, og det kan godt hende at de blir så billige at våre kabler ikke er konkurransedyktige lenger. Da vil det kanskje kunne være en dårlig investering for oss. Men det at tysk kraft ble for billig var kanskje ikke det kritikerne tenkte på?

Men akkurat nå er alternativet mest kull, men fordi man bedre kan regulere gasskraft, så er gasskraft det mest realistiske alternativet til norske kabler. Og hvor kommer denne gassen fra? Jepp. Norge.

Det ligger en hund begravet her. Det er påfallende at oljeministeren må nevne gass når han skriver om dette i VG. Industri Energi er også en forening for dem som jobb er i olje og gass. Og når Nei til EU bruker en kjent olje og gass-investor som sannhetsvitne for at det kommer til å gå dårlig med utenlandskabler burde det ljome i både bjeller og kirkeklokker. Dessuten er dem det gjelder, den industrien som visstnok er utrydningstruet, ikke bekymret.

Nå har jeg forsåvidt ingen formening om vi bør skrive under de avtaler som  ligger på bordet, det er ikke mitt anliggende. Selvsagt innser jeg at all menneskelig aktivitet og energiproduksjon har miljøkonsekvenser. Kanskje må det strengere reguleringer til av effektkjøringer og sikring av minste vannstand i vassdrag. Men disse miljøkonsekvensene er ikke sterkt knyttet til utenlandskablene. At utenlandskablene er ekstremt viktig for Europas evne til å gjennomføre det grønne skiftet så raskt som mulig er ubestridelig.

Read Write RDF Hypermedia

The beauty of “View source”

When I first came to the Web in 1994, one of the first things I did was to “View source”. Although I had been programming since I was a kid, I didn’t come into it with “proper training”. As I looked at other people’s HTML, I felt the thrill of thinking “I understand this! I can actually make things on this Web thing!” Then, I went on to do that. Now, I also remember the introduction of CSS. I was skeptical. Should I learn another thing, when I had something that worked? Eventually, I was won over by the fact that could share styles between all my documents, that made life so much easier, I had accumulated a bunch of them at that point.

I was won over to RDF in 1998 too, but since then, I have never seen what I first saw in HTML, the “View source” and we’re ready to go. In fact, when I look at modern Web pages, I don’t see it with JS and HTML either. Something seems to have been lost. It doesn’t have to be that way. RDF triples can be seen as a simple sentence, it can be read and understood as easily as HTML was back in the day, if we just allow systems to do it. That’s what I’ve set out to do.

Hypermedia

I’ve been thinking about read-write RDF hypermedia for a long time, and I started implementation experimentation more than 5 years ago, but the solution I had in mind at the time where I wrote the above presentation didn’t work out. Meanwhile, I focused on other things. The backstory is a long one, I’ll save that for later, as I think I’m onto something now and I’d like to share that. I also have to admit that I haven’t been following what others have done in this space, which may or may not be a good thing.

Hypermedia, the idea that everything you need in an interaction to drive an application can be found in the messages that are passed, is an extremely good fit with my “View source” RDF. Now, the problem was to make it work with Linked Data, common HTTP gotchas, and yet make it protocol independent.

What I present now is what I think is the essence of the interaction. Writes necessarily has to be backed by authentication and authorization (and that’s what I started coding, then I found I should focus on the messaging first). For now, I have a pre-alpha with a hardcoded Basic Auth username and password, and it only does the simplest Linked Data. However, I think it should be possible to bring it up to parity with Linked Data Platform. That would be the goal anyway. The pre-alpha is up and running on http://rwhyp.kjernsmo.net/

One way to do Linked Data is to have a URI for a thing, which may be for example a person. A person isn’t a document, so it has a different URI from the data about it. For example, http://rwhyp.kjernsmo.net/test/08 could be my URI, and if you click it in a browser, you would get a flimsily formatted page with some data about me. With a different user agent like curl, you would have a 303 redirect to http://rwhyp.kjernsmo.net/test/08/data and that’s where the fun starts. This is what is intended to be where developers go.

If you do that, you will see stuff like (the prefixes and base http://rwhyp.kjernsmo.net are abbreviated for readability):

</test/08> a foaf:Person ;
 foaf:name "Kjetil Kjernsmo" ;
 foaf:mbox <mailto:kjetil@kjernsmo.net> .
</test/08/data> hm:toEditGoTo </test/08/controls> ;
 void:inDataset <http://rwhyp.kjernsmo.net/#dataset-test> .

In there, you find the same information about, augmented with hm:toEditGoTo standing between the URL of the data, and something that looks similar, but has a controls at the end. The idea is that it should be fairly obvious that if you want to edit the resource, you should go there and see what it says. For machines, the definition of the hm:toEditGoTo predicate should also be clear. Note that the choices of having data and controls in my URIs are not insignificant, you can have anything, as long as you use that predicate to link them.

If you do, you will be challenged to provide username and password. Try it out with testuser and sikrit. Then, you’ll see something like this:

</test/08/controls> hm:for </test/08/data> ;
 a hm:AffordancesDocument ;
 rdfs:comment "This document describes what you can do in terms of write operations on http://rwhyp.kjernsmo.net/test/08/data"@en .
</test/08/data> hm:canBe hm:replaced, hm:deleted, hm:mergedInto .

See, the last sentence tells you that this data document can be replaced and deleted, and merged into. Now, the idea is to define what these operations in the context of a certain protocol with an RDF vocabulary. I haven’t done that yet, but perhaps we can guess that in HTTP replaced means using PUT, deleted means using DELETE and to merge into means POST?

Then, it is the idea that these operations can be described in the message itself too. For example, we can say that if you use HTTP for hm:mergedInto, you have to use POST, and we can reference the spec that contains the details of the actual merge operation, like this:

hm:mergedInto hm:httpMethod "POST" ;
 rdfs:comment "Perform an RDF merge of payload into resource"@en ;
 rdfs:seeAlso [ 
   rdfs:isDefinedBy <http://www.w3.org/TR/rdf-mt/#graphdefs> ;
   rdfs:label "RDF Merge" ] .

It is an open question how much of this should go into what messages.

At this point, I use RESTClient but there are many similar tools that can be used, just use the same credentials, set the Content-Type to text/turtle, and POST something like

<http://rwhyp.kjernsmo.net/test/08> foaf:nick "KKjernsmo" .

to http://rwhyp.kjernsmo.net/test/08/data then get it another time, and see it has been added.

So, it is fairly straightforward. It is basically the way it has always been done. So, what’s new? The new thing is that a beginner has had their hand held through the process, and once we have the vocabulary that tells man and machine alike how to use a specific protocol, they can both perform their tasks based on very little prior knowledge.

At some point, we may want to hook this into the rest of the Semantic Web, and use automated means to execute certain tasks, but for now, I think it will be very useful for programmers to just look at the message and write for that.

Main pain point

The main pain point in this process was that clients aren’t supplying credentials without being challenged. My initial design postulated that they would (there’s nothing in the standard that discourages it), and so, I could simply include the hm:canBe statements with the data. After thinking about it for some time, I decided to take a detour around a separate document, which would challenge the client for reads and writes alike, and that the data document would only challenge for writes.

There are obviously other ways to do this, like using an HTTP OPTIONS method, but I felt it would be harder for a user to understand that from a message.

Feedback wanted

Please do play with it! I don’t mind if you break things, I’ll reload the original test data now and then anyway. There are some other examples to play with if you look for void:exampleResource at the root document.

I realize many cannot be bothered to create an account to comment, and I haven’t gotten around to configure better login methods on my site, so please contact me by email. I also hang out on the #swig channel on Freenode IRC as KjetilK, and I will be posting this to a mailing list soon too.

BTW, the code is on CPAN. I have had the Linked Data library for 8 years, there are some minor updates there, but most is in a new addon module. Now, I have to admit, all these additions have exposed the architectural weaknesses of the core library, I need to refactor that quite a lot to achieve LDP parity.

Å skape nye normer ved å utvikle teknologi

Det er mange teknologirelaterte temaer oppe i samfunnsdebatten: Hatefulle ytringer, “hevnporno”, “grooming”, manipulering av meningsdannelsen i demokratier, at befolkningen har mistet enhver innflytelse over egne data, at mediene har mistet sin samfunnsrolle på grunn av sviktende inntektsmodeller og sosiale mediers overredaktørrolle, at næringslivet ser færre inntjeningsmuligheter på grunn av enkelte enorme selskapers dominans, ensrettingen i sosiale medier, osv. Likevel er det knapt nok en eneste teknolog på verdensbasis som er i en slik posisjon at man kan gi et meningsfullt bidrag til å løse disse problemene.

Jeg tror samfunnet tenker på det å forme teknologisk utvikling på helt feil måte: Først må man skille mellom deskriptivt og normativt arbeid. Mesteparten av arbeidet jeg ser som presenteres på ulike møter, for eksempel konferansen om hatefulle ytringer er av deskriptiv natur. Deskriptivt arbeid bidrar til vår forståelse av de ulike fenomenene, og er derfor viktig for normativt arbeid, men kan ikke i seg selv gjøre særlig mye for å korrigere. Under Forskningsrådets VerdIKT-program var sosiale medier en del av fagsøylene, men nesten alt arbeid var deskriptivt.

For å gjøre en forskjell må man drive normativt arbeid. Her synes det meg som at samfunnet oppfatter at lovgivning er det eneste normative arbeidet man kan gjøre. Det er en kritisk feiloppfatning som har satt oss i den situasjonen vi er i i dag.

Det mest innflytelsesrike normative arbeidet i dag skjer blant programvareutviklere i de store selskapene. Dette skjer bak lukkede dører, og under strenge, kommersielle føringer. Når Facebook utvikler algoritmer for mer effektive annonser er det normativt arbeid, det influerer hvordan befolkningen kan påvirkes. Når Google utvikler algoritmer for relevans i søkeresultater er det også normativt, det påvirker hvordan vi ser verden. Men når Tim Berners-Lee skrev programvaren til World Wide Web drev han også normativt arbeid, med den motivasjon at dette var en fellesskapsressurs for hele menneskeheten. De fleste programvareutviklere driver ikke normativt arbeid, men de som gjør det har enorm innflytelse. Mye av problemet er at de som optimaliserer sine utvikling for å manipulere verdens befolkning for markedsføringsformål har mye mer makt enn dem som utvikler med menneskehetens beste som viktigste mål.

Facebook, Google, Amazon, osv., publiserer nytt normativt arbeid hver eneste uke. Først lenge etterpå kan lovgiver forsøke å forstå hvilke nye normer som har kommet til og hvilke effekter det har hatt på samfunnet. Så kan man forsøke med de jure normativt arbeid for å korrigere kursen. Som oftest mislykkes man, fordi normene er så detaljerte og så etablerte at det er altfor sent. Derfor har vi havnet i situasjonen vi i dag er i. Slik tror jeg også EUs nye personvernforordning også vil feile, om noe vil den sementere Facebook og Google sin markedsmakt, fordi de er de eneste aktørene som har et nært nok forhold til brukerne til å spørre om samtykke, noe de helt sikkert vil lykkes med å manipulere oss til å gi.

Med mindre det finnes alternativer for befolkningen. Vi kan nemlig spille dette spillet vi også, men vi klarer ikke spille det på de økonomiske betingelsene som konkurransen med Facebook og Google setter, “pay-by-privacy”-modellen er åpenbart svært vellykket.

Men, vi kan sette teknologer istand til å skrive normativ programvare, basert på de normer vi som samfunn kan bli enige om. Det er dog bare det første skrittet, det må så taes derfra til at det utgjør en standard måte å løse oppgaver på som får bred oppslutning i næringsliv og befolkning. Det er fryktelig vanskelig å gjøre, men det finnes en rekke slik eksempler, der Webben er det største eksemplet. Ettersom vi ikke har noen vitenskapelig metode for å si hva som vil lykkes, vil dette arbeidet nødvendigvis ha et element av å prøve og feile.

I denne prosessen spiller de facto tekniske standarder en rolle, og i noen tilfeller også de jure tekniske standerer og lovgivning. Det blir mye lettere å formulere de jure normer når det er basert på teknologi som eksisterer. Det synes meg en langt mer effektiv måte å etablere normer i samfunnet, starte med normativ programvare, i de tilfellene dette er vellykket, gå videre med de facto standarder, og så, i de tilfellene der det er nødvendig, de jure standarder eller lovgivning.

Vi kan ikke ha det slik det er idag. Det vi har på Internett i dag er en blek skygge av det vi ønsket og prøvde å skape på Web. Vi kan ordne det, men det krever at teknologene får mulighet til å bidra annet enn gjennom kommersielle krav og at vi kan drive tverrfaglig utviklingsarbeid. Jeg vet at mange teknologer deler min frustrasjon og vil bidra til å snu samfunnsutviklingen.

The Greatest Achievement in Social Media

If we managed to create a decentralized social media ecosystem, how would we go about to identify the hardest problems to tackle, and what would be our greatest achievement if we succeeded? If this seems like an odd question, bear with me, dear reader: Many technologists look are motivated by great, technical challenges, and this is an attempt to channel that energy into social problems.

Many people, who I would consider relatively like minded as myself would say that things like censorship resistance and anonymity are the absolute requirements, and so crown achievements. I do think they are important, but only within a broader, social context that takes into account a wide variety of social problems. We have to explore the borders to understand where this may fail to bring social benefit, and we have to consider other options in those cases.

I think it is very important to think about future, decentralized social media not as an application, not like another Facebook, but as an ecosystem, where social interactions is a common ingredient of many interconnected applications contributed by many different actors.

In an earlier post that I wrote in Norwegian, I mentioned the revenge porn problem, where media is put into a sexual context and distributed without the depicted person’s consent. Another problem in the same space is “grooming”, where a person is manipulated into sexual abuse.

Grooming often follows a pattern, where an older person contacts a minor, lying about their age and/or gender and has the minor send them relatively innocuous pictures based on some false pretense. With those pictures, the perpetrator then threatens to expose those pictures to classmates, parents or others to put the minor into a coercive situation, where abuse and coercion can only escalate.

It is clear that one should never enter such a situation with an anonymous peer. However, it is equally clear that one should not enter such a situation with a peer that knows your complete identity either, as that can result in more direct forms of sexual abuse. The grooming problem is a problem because there exists no reasonable and commonly used middle ground, and therefore people resort to unsafe channels. Most of these cases can probably be prevented if people had a strong, online identity that could be used to pseudonymize them using selective attribute disclosure and verifiable claims. With the former, the two peers can disclose only relevant and non-compromising information, for example age and gender (even though that too can be problematic, technology should also be developed to assist in ensuring that their full identity cannot be compromised). With verifiable claims, both peers can verify that the information disclosed by the other is accurate. They should be empowered by the social media platform to enter a context where they have this kind of pseudonymity, where they get the extra security. If, for example a teen enters a dating site, they will use their strong, verified online identity, but the security system of the dating site will see to that nothing that can compromise the identity is exchanged unintentionally. If the peers eventually choose to exchange further details or meet in real life, the peers should be able to indicate to the dating site that they have chosen to do so, and if the meeting results in abuse, this information can be passed to authorities.

“Revenge porn” is a much harder problem. The name itself is problematic, as for example artistic or simple nudes, indeed almost anything, may not have had any sexual intentions, but may be twisted into sexual context by a perpetrator. Moreover, the distribution of such media may not be for revenge, but still be felt as an abuse by the depicted. This underlines that it is never OK to blame the victim and that the problem is  much  broader than it seems at first sight. A fairly authoritarian approach may be advocated: One may argue that people cannot retain full control of their own devices, so that authorities may have the option to delete offending material. Censorship may be advocated, so that material will not propagate. Longer prison sentences may be advocated. I am opposed to all of these solutions, as they are simplistic and fail to address other valid concerns. Taking away people’s control of their own devices contribute to alienation and distrust in the social relevance of technology, something we need to rely on for the solution to the grooming problem above, but also many other problems. I am also opposed to prison sentences, it is often a breeding ground for more crime, and should be reserved for extreme cases.

We should be able to fix (in the sense that the problem is marginalized and made socially unacceptable) this without resorting to such authoritarian measures. It takes changing culture, and while there’s no technological quick fix to changing culture, technology and design can contribute. The Cyber Civil Rights Initiative is a campaign to end non-consensual porn, and has published a research report with many interesting findings. The group advocate some of the more authoritarian solutions, and while I am sympathetic to the need for legislation, I believe this should be considered a privacy problem, and dealt with in generic privacy legislation, as I believe is the case in Europe. Without having personal experience, I suspect that privacy violations where private media are stolen and exposed even without any sexual undertones can be felt as much of a violation is “revenge porn”, and they should therefore be dealt with similarly.

Page 22 of the report summarizes what kind of sanctions would have stopped the perpetrators, in their own words. It is understandable that legislative measures are forwarded, as those comes out as the most significant. I nevertheless think it is important to note that 42% said that they wouldn’t have shared abusive media “if I had taken more time to think about what I was doing”, and 40% “if I knew how much it would hurt the person”.  These are very important numbers, and things that can form the basis for design and cultural change. It is now possible to detect pictures with certain content with a relatively high probability, and make the poster think more carefully. Make them answer some questions. We could build a technology that asks “do you know how much this could hurt?”, and then a culture were friends ask the same. This becomes even easier if the victim is identified, as is not uncommon. In that case, the media could be tagged as “not OK to distribute”, and where friends of the victim could also appeal to the perpetrator’s conscience and also participate in stemming the distribution. Laws are for the 20% who said that nothing would have stopped them, and building a culture should also shrink this number significantly. Finally, 31% wouldn’t have posted the media “if I had to reveal my true identity (full name)”. Even without full name, a pseudonymized identity, like the one discussed above, could act as a significant deterrent, and would also help propagate warnings about how further distribution would be inappropriate and/or illegal.

This makes me hopeful that this is a problem were a well designed decentralized and rather censorship-resistant social media ecosystem could have a meaningful impact.

Another reason that the system has to be censorship resistant, is that it the same ecosystem has to be universal, for example, it must also function as a platform for public debate under authoritarian regimes. I would like to point out the work of Hossein Derakhshan who initiated a large blogosphere in Iran that contributed to a more open public debate. Derakhshan was arrested for his blogging in 2008, and released in 2014. He wrote a retrospective analysis of the development in the intervening years that is important well outside of Iran, called “The Web We Have to Save“. I  have great respect and admiration for the work that Derakhshan has done, and it underscores the importance of having a Web that can be the foundation for situations where it is important to stop the spread of certain material and for situations where it is important to keep it flowing.

To achieve this, we must be very careful with the design of the ecosystem. For example, the trusted identity is straightforward to achieve in Norway, where we have good reason to trust government, but it would be counter to the goal of an open debate and therefore stifling to do so in Iran. Trust in the identity is an example of something that must be built in very different ways around the world, and the ability for local programmers to integrate different approaches into the same ecosystem is therefore instrumental to the possibility of making it work for everyone.

It is undeniable that there is a tension between the above goals, but I think it is easy to agree they are both important. To have the same platform do both of these things is a great technological challenge, and I think that if we can do this, it will be a very important achievement for all of mankind.

Enabling Diversity Through Decentralised Social Media

Awareness of the problematic aspects of social media has been brewing for a long time, but recently, it has exploded in the public debate, with the effects of “fake news” and “echo chambers”, and also on the editorial role of Facebook. The response of Facebook has not impressed commentators. To make my position clear from the start: This is a very complex problem to solve and involve social, economical and psychological problems that need to be addressed. However, I wish to make the case that the technology also matters, and an approach must necessarily begin with changing the underlying technology. In this blog post, I would like to list the primary social problems that I have personally identified. However, I’ll try to take a positive angle, this is not just about Facebook and that failings, this is what we should create for the future. Out of the social problems, the echo chamber problem is only one.

The Echo Chamber Problem

My personal history with this problem doesn’t start here, it started 20 years ago, as I took on managing the Web site of the Norwegian Skeptics Society. The subjects we were concerned with were fairly marginal, and easy to label superstition. Astrology, UFOs, etc. It soon became quite apparent that the problem wasn’t to reach out with information, the actual problem was much, much harder, it was to get that information into closed minds. Since then, this problem has grown from being a marginal problem considered only by a few, to a major social problem.

Now, some may say that the problem is not technological, and possibly that technology is indifferent to the problem, any technological platform can help get information into closed minds, and any technological platform can provide infrastructure for opposing viewpoints and enable a debate between them. I disagree, and I think recent events make that clear. Even if technology alone cannot open closed minds, there are technological choices that are critical in enabling the needed platform for an open public debate.

First, it is important to constrain the scope of the technological problem, by understanding the problems that are of different origin. The reason why fake news thrives on Facebook is complicated and this article argues it comes down to the emotions of the people in your social network. This article contains a discussion of why “popping the bubbles” is problematic. It is also important to be reminded of the effects of identity protective cognition. Facebook has themselves published research on the issue. What is interesting is that nowadays, my Facebook feed is full of anti-Facebook sentiments, but none of these articles showed up there. I had to go look for them, only after I started to share these articles in my News Feed myself, similar articles started to surface. Now, the “echo chamber” and “filter bubble” metaphors may not reflect the true nature of the problem, but Facebook arguing that they are not doing so bad is mainly due to the lack of a ambitious baseline, we don’t know yet what could be achieved if a structured, cross-disciplinary approach was made. Even if the most important effects are social and psychological, if information isn’t available it can certainly not be acted upon.

To further understand the problem, we should listen to Facebook’s Patrick Walker, who responded to the “Terror of War” photo removal with a keynote given to Norwegian editors. The keynote is well worth watching, not just because it provides insight into the core problems, but also because it provides hints to the road ahead.

Patrick Walker himself gives an excellent summary of the accusations they face:

“[…] people said that we weren’t transparent, there’s no way of knowing what our algorithms do, that publishers don’t get any warnings about changes to the news feed, that we refuse to accept that we were editors and were abdicating our responsibility to the public, that we were trying to muzzle in on the media business and eroding the fundamentals of journalism and the business models that support it. That by encouraging editors to optimize for clicks and showing people what they want to see, we were creating filter bubbles and echo chambers.”

He then goes on to forward the values of Facebook, to give people the power to share and to make the world more open and connected. I have no reason to doubt that they are actually trying to do that. In fact, they may often be succeeding. However, the Web is what to a greater extent gives people the power to share. The Web is what truly empowers people, Facebook included, Facebook is merely a thin layer on the top of the Web. The problem is that it is truly a layer. If Facebook was just yet another possible social network, with a limited scope just like Mark Zuckerberg proposed, that’d be fine:

But it isn’t, it wields much more power than that, since it has effectively put the function of a social network into its own hands and controls that. Patrick Walker then goes on to describe how difficult it is to create global community standards for Facebook, and how problematic it would be if these standards did not apply to all of Facebook. He then concludes that people are free to say whatever they want elsewhere, but not on Facebook. This part of the talk is very compelling, and calls into question the appropriateness of calls for national or EU-mandated regulations. But it also makes it clear that Facebook cannot play the role of a public debate platform, he said that pretty much himself. In the moment an opinion becomes unpleasant, and those are the opinions that need the most protection, it has no place on Facebook. He says it clearly: “Facebook is not the Internet”. It makes it clear, to solve most of the problem he mentioned we have to create that alternative to Facebook that provides the platform for an open, public debate.

It is also clear from his talk that many of the problems that Facebook faces are due to that Facebook needs a single set of rules, and while he has made a good case for that for Facebook, it doesn’t have to be that way on the Internet. In fact, the architecture of the World Wide Web is decentralised, there is no single actor, such as Facebook that should control such an important feature as a social network. Decentralising the social network will have the effect of allowing a plurality of standards. Facebook only has to solve Facebook’s problems, these problems are not universal, and that’s why I say that the underlying technology matters. A decentralised social network has a different set of problems, some are difficult, but it is my clear opinion that the hardest problems are created by Facebook, and can be solved as decentralisation enables diversity and pluralism.

The General Lack of Diversity

As Walker noted, they have been accused of attacking the ability of the press to perform quality journalism. There is some merit to the argument, even if it was easy to predict that social media would be the most important distribution channel more than 15 years ago, before the social networks grew large and strong. Now, the press has to choose between letting Facebook be the editor-in-chief and hopefully a benevolent provider of a working business model, or to maintain their autonomy, and essentially starting over and figure out how to make money in social media on their own.

The problem is not just about Facebook or the press. Recently, Elon Musk said on their carpooling efforts that it “wasn’t Tesla vs. Uber, it is the people vs. Uber”, implying that Uber is a monopoly problem waiting to happen.

The centralisation is not only a problem for opinions in the public debate and  business models, though both are important aspects. It creates difficulties for permissionless innovation, an aspect central to the Web and the reason why Facebook could succeed. It limits the research that can be done on the platform, for example, no one else could have done the article we referenced, which places the owner of the social network in an ethically problematic privileged position.

The General Lack of Universality

With diversity challenged, another key aspect of the Web is also challenged: Its universality. Not everyone has a place on Facebook. The obvious ones that are excluded are pre-teen children. Not that they seem to care. In social networks, they certainly have a place. Moreover, people with cognitive disabilities will find the environment on Facebook very hostile, where they can be fooled into helping the spread of fake news and other material, also material that Facebook legitimately may delete. To some, much damage can be done before appropriate action can be taken. Moreover, their friends are not empowered to help. That’s not what the social network should have been, what I first had in mind was to port the social cohesion of real life to the Web, but the opposite has happened. This is a great failure, but at least a problem centralised systems could solve if they wanted to.

Combating Abuse

It gets even harder once we get to the problems surrounding revenge porn and “grooming”. I want to make clear that Facebook is not the target for this criticism, I’m talking more generally here. The problem is severe, but a problem that has just a few victims, and I believe that it cannot be solved if one is thinking only in terms of commercially viable systems. The technical contributions towards solving this problem is something I think needs to be government funded. Decentralisation is not necessarily helpful technologically, but standards and adoption of once approach could make a large impact. I think it is critical to addressing this problem that we enable trust models to work on the Web and that people are enabled to look out for each other.

Respect for the Individual

Finally, and this is a key problem for the future as well as the present, is the respect for the rights of individual citizens. We are moving towards an Internet of Things, where all kinds of sensors will provide lots of data, often connected to persons, and mining them can yield information that each citizen would certainly consider highly sensitive. I believe we cannot simply go on, neither in research nor in business technology, and pretend these problems are not significant, or that they are simply Somebody Else’s Problem. I reject the notion that the majority doesn’t care, they care, but they are left powerless to remedy the problem.  I hold it as a moral imperative to empower people, and we, as technologists have to tackle this problem.

I fear that we may have an anti-vax or anti-GMO type backlash if we do not commit to a privacy-aware infrastructure, so even if the moral imperative isn’t accepted, one should take this possibility seriously.

A Different World is Possible

I have already pointed out that decentralisation is an important technological enabler for a different world, and stated that this new infrastructure must be privacy aware. Obviously, neither the motivation nor the solution of a decentralised social network is new, it has been tried for a long time. So, how can we possibly succeed now? I think several things have changed: Most importantly, it is now understood that this is a problem that have large effects for entire societies. Secondly, we have standards, and we have learned much from the past, both in terms of technological mistakes and from research.

Now is time for action. We need a broad understanding of the problems, but we also need to start with the fundamental technological infrastructure that we need to provide to the world, and try out several possible approaches, approaches that can further the understanding of the cross-disciplinary solutions. I hope to be able to contribute in this space.