Klima- og energijournalistikk

2°C_02_2014_forside_500

De siste tre årene har jeg brukt gradvis mer av tiden min på journalistikk om klima- og energispørsmål. I høst redigerte jeg den tredje utgaven av magasinet 2°C, der det meste av innholdet kommer fra forskere ved Bjerknessenteret for klimaforskning. Magasinet er tilgjengelig som pdf og i papirformat ved henvendelse til Norsk Klimastiftelse. Forsidebildet er tatt av fotograf Bård Ek.

Norsk Klimastiftelse er også utgiver av nettmagasinet Energi og Klima, som ble relansert i helt nytt design i begynnelsen av desember. Der publiserer vi daglig nyheter, kommentarer og blogginnlegg om aktuelle klima- og energispørsmål.

Journalistikk med lang holdbarhet

(Først publisert i Vox Publica 30. april 2014).

Levende temasider et nytt skritt på veien mot en genuin nettjournalistikk.

Vox Publica har over 1400 artikler i arkivet. Vi er overbevist om at mange av dem inneholder kunnskap som har lang levetid. De kan med andre ord komme til nytte for stadig nye lesere.

I en nettpublikasjon er alt som ligger i arkivet i prinsippet akkurat like tilgjengelig som de dagsaktuelle artiklene. I likhet med alle andre har vi gjort lite ut av mulighetene dette skaper. Til nå. For her kommer Vox Publicas nye levende temasider, der relevant materiale fra eksterne data- og innholdskilder knyttes automatisk til våre egne artikler.

Vi har nå over 800 slike temasider – om personer, institusjoner, land, begreper med mer. Et lite utvalg gode eksempler: ytringsfrihet, Camilla Collett, Kina.

Temaside om Kina.

Temaside om Kina.

Kildene vi bruker i dag er: Digitalt Museum/Norvegiana, Store norske leksikon, Wikipedia, Virksomme ord. Vi ser for oss å utvide med flere kilder etter hvert.

Et API må til

Teknisk fungerer løsningen slik: Innholdet blir hentet via programmeringsgrensesnittet (søke-API) til de respektive tilbyderne. Navnet på temaet for hver side blir brukt som søkestreng, og API-ene returnerer resultatene i XML- eller JSON-format. De relevante delene av søkeresultatet blir hentet ut og formatert. I de tilfellene hvor et API ikke returnerer noen relevante resultater, vises ikke noe fra denne kilden.

Vi er altså avhengig av at innholdskildene tilbyr et API (for å bedre tilgangen til Virksomme ord, en database over politiske taler i Norge, har vi nylig selv dokumentert basens API).

Selve temaene er ganske enkelt “tags” eller stikkord som vi tilordner hver artikkel. Her har vi for øvrig en jobb å gjøre med å “tagge” eldre artikler i arkivet. Publiseringsverktøyet WordPress innførte støtte for stikkord først noen år etter vår lansering i 2006.

Continue reading

Få grafikkjobben gjort med Datawrapper

Presentasjonen av tallmateriale på nett har lenge vært lite tilfredsstillende, både sett fra en journalists og en brukers synsvinkel. Kort sagt: I nettjournalistikkens to første tiår har regelen vært at tall og data enten bare ramses opp i teksten, eller de presenteres som bildefiler. Ingen av disse variantene kommer i nærheten av potensialet som ligger i interaktiv visualisering.

Én løsning på dette er å lage originale, gjennomarbeidede og vakre interaktive løsninger for datapresentasjon. Jeg skal være den første til å applaudere medier og publisister som investerer det som trengs til et slikt løft (se: New York Times), men de færreste redaksjoner er i dag villige eller i stand til å sette av så store ressurser.

Det har med andre ord lenge vært et gap mellom “ingen interaktiv grafikk” og “ambisiøs, dyr interaktiv grafikk”, og det er her Datawrapper kommer inn. Verktøyet er gratis og forkorter veien fra tallmaterialet til ferdig interaktiv grafikk til noen få arbeidssteg:

Continue reading

Hva forskere (og andre) kan lære av Sherlock

Det har vært taust her altfor lenge, men forpliktelser på andre kanter (bl.a. det sterkt anbefalte Energi og Klima) levner lite tid til blogging om medier og journalistikk. Men her er i hvert fall et nytt innlegg hentet fra Fakta først-bloggen på Vox Publica om favorittemaet åpne data, med en viktig rolle for favorittkarakteren Sherlock Holmes.

***

Dataenes pålitelighet og gyldighet skal kunne etterprøves. Det er noe av det første studenter lærer på universitetenes metodekurs. Men hvor ofte skjer det egentlig at forskningsresultater etterprøves med den nødvendige nidkjærheten? Tidligere i år kom det et eksempel som bør bli et lærestykke for enhver forsker: Doktorgradsstudenten Thomas Herndons granskning av økonom-stjernene Carmen Reinhart og Kenneth Rogoff.

Reinhart og Rogoff la i 2010 fram en studie av forholdet mellom statsgjeld og økonomisk vekst, “Growth in a Time of Debt”. De fant en sammenheng: Når et lands gjeld overskrider 90 prosent av BNP, stopper økonomien å vokse. Resultatet fikk mye mer oppmerksomhet enn vanlig er for forskningsarbeider. Politikerne som forsøkte å få grep på statsgjeldskrisen i Europa hadde endelig et autoritativt tall å klamre seg til. 90 prosent – en vanntett faglig begrunnelse for sparepolitikken, fra to av verdens fremste økonomer!

Sommeren og høsten 2012 strever Thomas Herndon med Reinhart og Rogoffs analyse. Han har lastet ned dataene, et regneark forfatterne fortjenstfullt nok har gjort tilgjengelig. Herndon vil skrive om artikkelen i en seminaroppgave, men klarer ikke å reprodusere 90 prosent-terskelen. I februar i år skriver han en e-post til Reinhart og Rogoff og ber om å få se utregningene deres også. Han får materialet, og oppdager kjapt flere enkle feil. Han regner og regner. 90 prosent-terskelen forsvinner. Resten er, som det heter, historie.

Hva dette har med Sherlock Holmes å gjøre? Flere steder i Conan Doyles historier advarer mesterdetektiven mot å trekke slutninger før alle data er vurdert. I “A Study in Scarlet”, for eksempel. Dr. Watson, jeg-fortelleren, er misfornøyd med framdriften i etterforskningen. Holmes prater i vei om fioliner:

“You don’t seem to give much thought to the matter in hand,” I said at last, interrupting Holmes’ musical disquisition.
“No data yet,” he answered. “It is a capital mistake to theorize before you have all the evidence. It biases the judgment.”

Sannheten om Reinhart og Rogoffs regnefeil kom for en dag først da alle dataene var på plass i Herndons datamaskin. I mellomtiden hadde det foregått mye “teoretisering uten alt bevismateriale”. Det er all grunn til å tro at det er mange andre forskningsresultater som burde lidt samme skjebne som 90 prosent-tesen. Reinhart og Rogoff hadde jo til og med gjort data tilgjengelig, om enn ikke komplett. Hva så med data som man ikke en gang får tak i fordi de ligger på forskerens PC eller i en skuff?

Forskermiljøer strever ennå med data-åpning. Løsningen er snublende nær – publisering av data må gjøres til en betingelse for finansiering av et forskningsprosjekt. I tillegg trengs det fornuftige regler for håndtering og en god infrastruktur for oppbevaring av dataene. Tenk også på samfunnet utenfor forskerverdenen: Tilgang til data bak forskningen bør ikke være forbeholdt forskere (med de nødvendige forbehold for å sikre personvernet dersom dataene inneholder personopplysninger).

En oppmuntring til slutt: Den som offentliggjør data, får også større gjennomslag i forskersamfunnet, det vil si flere siteringer. Det viser en studie (på fagfeltet genetikk) som sammenligner forskningsartikler der data er gjort tilgjengelig med tilsvarende artikler uten åpent datamateriale.

Dokumenter ditt skup

Opplysninger merket med gult dokumentert med kildemateriale.

ProPublica er en stødig leverandør av praktisk innovasjon for journalister. Det siste påfunnet fra journalistikk-produsentens nerdeavdeling er “Explore sources”, et verktøy som gjør det mulig å vise i detalj kildematerialet som ligger til grunn for faktapåstander i artikler. Her kan du se det i praksis — aktiver kildedokumentasjonen ved å velge “ON” i begynnelsen av artikkelen.

Vi skal ikke akkurat vente at journalister flest vil ta slike verktøy med det første. Dette er primært noe for mer ambisiøse prosjekter, ikke minst innen såkalt gravejournalistikk/undersøkende journalistikk, og analytisk journalistikk.

De første som burde hive seg over dette i Norge, er Brennpunkt-redaksjonen i NRK. Brennpunkt presenterer som regel sine saker som avsløringer av kritikkverdige forhold. Det følger logisk at programmene ofte er kontroversielle. Det oppstår gjerne diskusjoner om kildegrunnlaget og fortolkningen av det. Programmene ville stå sterkere hvis redaksjonen samtidig med TV-programmet presenterte en transkripsjon med kildemateriale dokumentert som hos ProPublica. Trolig ville vissheten om at kildene skal legges ut for granskning føre til kvalitetsheving på den journalistiske researchen.

Et neste skritt som ville gjort mye for kunnskap om journalistikk og kompetanseheving: Alle vinnere av Skup-priser dokumenterer sitt kildegrunnlag på like grundig vis.

Forhåpentlig kan nyvinninger som Explore Sources være skritt på veien mot en god dokumentasjonspraksis i journalistikken.

Hvor er Ai Weiwei?

Ai Weiwei, 2009 (?). Copyright: Gao Yuan.

Ikke ta det bokstavelig, akkurat nå er Ai Weiwei antakelig hjemme, siden kinesiske myndigheter har pålagt ham husarrest. Metaforisk forstått er spørsmålet langt vanskeligere å besvare, men det er fascinerende å forsøke. Det erfarte jeg i arbeidet med en artikkel om denne multikunstneren (publisert i dag), der jeg begynte med fortiden, en utstilling av Ais fotografier fra hans opphold i New York 1981-93.

Å grave seg ned i Ai Weiweis virke er som å dra på en ferd i ukjent terreng, der hver ny oppdagelse produserer nye spørsmål (det er også grunnen til at jeg pepret denne saken med så mange lenker, det reflekterer min egen arbeidsprosess enda mer enn vanlig). Enhver konklusjon må bli midlertidig og usikker, likevel våger jeg påstanden om at vi her har med et geni å gjøre — en mann som er i stand til å absorbere, forstå og prege sin samtid som få andre. At det er fra Kina en slik person trer fram på den globale scenen er ikke overraskende; det sier seg selv at landets ufattelige endringsprosesser må produsere stor kunst og kultur. Desto mer deprimerende er det å observere hvordan de kinesiske myndighetene behandler sine beste.

Allmennkringkastere markedsfører konspirasjonsteorier

Ifølge allmennkringkastingsplakaten skal NRK “bidra til økt kunnskap om internasjonale forhold”, og “være kilde til innsikt, refleksjon, opplevelse og kunnskap gjennom programmer av høy kvalitet”. Øyvind Strømmen gjør oppmerksom på en oppsiktsvekkende redaksjonell prioritering fra den lisensbaserte kringkasteren i dekningen av tiårsmarkeringen for terrorangrepene i New York og Washington: NRK-redaksjonen har valgt å vise konspirasjonsmakkverket “Loose Change”, der hovedtesen er at det var amerikanske myndigheter som sto bak angrepene. Strømmen stiller det opplagte spørsmålet:

Jeg håper at jeg i juli 2021 slipper å se en film om at Arbeiderpartiet planla Utøya-massakren, selv om den skulle være utstyrt med aldri så mange redaksjonelle advarsler. Det er på et slikt nivå NRK plasserer seg når de sender dette rælet. Hvis de ønsket å sette et søkelys på konspirasjonstenkningen, kunne de ikke valgt å sende en seriøs dokumentar om konspirasjonsteorier? Hadde de ikke budsjetter til å kjøpe ordentlig journalistikk? Står det så dårlig til med statskringkasteren?

På NRKs nettsider, der “Loose Change” er tilgjengelig i noen dager til, presenteres programmet som “amerikansk dokumentar” på lik linje med andre dokumentarproduksjoner om 11. september 2001. Det er ingenting her som markerer at dette er et problematisk program, snarere må publikum anta at det er et “bidrag til økt kunnskap”, som de øvrige NRK-programmene:

Skjermbilde nrk.no 11.09.2011

NRKs erstatning for en seriøs behandling av konspirasjonstenkningen er altså å gi “Loose Change” en prominent plassering og gi det hedersbetegnelsen dokumentar. Da hjelper det fint lite med den underlige advarselen NRK har utstyrt programmet med, der det heter at “Loose Change er en film basert på konspirasjonsteorier og ikke fakta”. En dokumentar som ikke er basert på fakta, altså?

NRK er ikke alene om å ha vist denne produksjonen. For noen år siden fant TV 2 grunn til å sende den ikke bare en, men to ganger — og også der uten noen som helst slags eksplisitt redaksjonell begrunnelse, ei heller med noen problematisering i for- eller etterkant. NRKs presentasjon er likevel hakket verre, siden redaksjonen plasserer programmet i et eksklusivt selskap av dokumentarer knyttet til markeringen av tiårsjubileet.

NRK og TV 2 burde se det som en viktig oppgave å problematisere konspirasjonstenkning, og gjøre det fra ulike vinkler og i ulike sjangrer. Isteden driver de markedsføring. Er det fordi det selger? Konspirasjonstenkning er også blitt et populærkulturelt fenomen. Se bare på hvordan nrk.no så ut mot slutten av tiårsdagen for terrorangrepene:

Konspirasjoner som popkultur - i nyhetene.

PS: Her finner du allmennkringkastingsplakaten (pdf-format).

Riksarkivet på Flickr Commons

Foto: Riksarkivet/Landslaget for reiseliv i Norge. (No known copyright restrictions).

Riksarkivet er blitt den tredje norske institusjonen til å legge ut fotohistorisk materiale på Flickr Commons. Dette prosjektet vokser støtt og stadig; nye arkiver, biblioteker og museer kommer til, og de som har vært med lengre legger ut nye bilder. For to år siden skrev jeg en artikkel i forbindelse med at Bergen Offentlige Bibliotek ble den første norske deltakeren i prosjektet.

Nyhetsbloggen: kraftfullt verktøy for nettmedier

Hendelsene i Tripoli de siste par dagene har igjen demonstrert verdien av en nettsjanger som har blitt utviklet og perfeksjonert de siste årene: Den hyppig oppdaterte nyhetsbloggen, fokusert på en stor nyhet under utvikling (breaking news). Medier som The Guardian og New York Times har gått foran, og nyhetsbloggen er nå en selvsagt del av dekningen av enhver virkelig stor sak i disse redaksjonene. Det er en logisk utvikling: Bloggen er en genuin nettsjanger som etter hvert har fått mange undersjangre, og profesjonelle journalister har forstått potensialet.

I nyhetsbloggen slik disse mediene har formet den, synliggjøres mye av den journalistiske kompetansen som før har ligget skjult i nyhetsvurderings- og redigeringsarbeidet forut for publisering. Typisk er at bloggene, som Guardians om kampene i Libya, siterer fortløpende fra en rekke kilder. Det kan være viktige uttalelser, faktabiter, Twitter-meldinger, videoer som dukker opp på YouTube, og altså ikke bare mediets egenproduserte saker. Ofte dreier det seg om å vurdere kildenes troverdighet, noe få er bedre til enn erfarne journalister (flere aktuelle eksempler: Telegraph, New York Times).

En god nyhetsblogg blir dermed en stor hjelp for leserne til å orientere seg i et nyhetsbilde som er på sitt mest forvirrende akkurat mens en sak utvikler seg. For meg er nyhetsbloggene derfor som regel første stopp under saker som opprøret i Libya og Syria, men også en stor sak som Murdoch-avisenes avlyttingsskandale.

Hvorfor har så ingen norske nettmedier utnyttet denne sjangeren? Det er noen tilløp, som Dagbladets nyhetsstudio, og enkelte har forsøkt seg med Cover it live-verktøyet under store saker (VG under Mumbai-terroren, E24 nå under børsurolighetene). Men nyhetsbloggen lar vente på seg; kan en grunn være at selve blogg-sjangeren er blitt litt uglesett av norske journalister? Redaksjonelt drevne blogger er blitt forsøkt i norske medier, men sjelden helhjertet og med utholdenhet. Samtidig er de norske bloggerne med suksess pur unge, blonde og uten journalistiske ambisjoner. Mange får vel assosiasjoner til fargen rosa når de hører “blogg”. Glem dette, det er på tide å gi sjangeren en ny sjanse: Prøv nyhetsbloggen, men gjør det skikkelig.

Dokumentasjonskrav til medier

I Mål og mening drøfter Ottar Hellevik en rekke eksempler på feilslutninger og -tolkninger som kan oppstå når medier formidler resultater fra meningsmålinger og andre intervjuundersøkelser. Dette er en øyeåpnende og underholdende bok som burde havne på journalistskolenes pensum, men den burde også inspirere til endret praksis i mediene. I dag er det tilfeldig hvordan intervjuundersøkelser omtales. Noen medier er ganske flinke, men det er ingen enhetlig praksis. Helleviks forslag lyder (s. 192-193):

Ideelt sett bør en ha med nøyaktig spørsmålsformulering, inkludert svaralternativene, opplysninger om hvordan intervjuene er foretatt (hjembesøk, telefon, postenquete eller Internett-skjema), tidspunkt for gjennomføringen, type utvalg og antall intervjuer, og gjerne en angivelse av feilmarginer.

Jeg vil hevde at uten denne informasjonen er det umulig for publikum å vurdere om redaksjonens tolkning av undersøkelsen er rimelig. Derfor burde dette være et absolutt minimumskrav til dokumentasjon når en omtaler en undersøkelse. Plassmangel er ikke lenger et tema: I nettutgaven har i dag enhver redaksjon nok plass til å publisere denne informasjonen. Tidspress er heller ingen overbevisende innvending. Informasjonen kan raskt tastes inn i en egen modul i publiseringsverktøyet. Redaksjonen kan benytte anledningen til å lage en egen temaside der all omtale av undersøkelser samles — også dette en smal sak å få til med fornuftig tagging av materialet.

Det er imidlertid ingen grunn til å stoppe der. Hvorfor ikke la leserne få tilgang til hele materialet? Når redaksjoner selv får utført undersøkelser, enten ved egne krefter eller ved å betale et eksternt firma, er ikke rettigheter noe problem. Redaksjonen kan da legge ut hele datasettet, så kan leserne etterprøve konklusjoner og kanskje finne nye, interessante poenger. Når det er andre aktører som har rettighetene, kan redaksjonen likevel øve press — forskere burde være lydhøre overfor argumenter om at offentligheten skal kunne etterprøve om metode og konklusjoner holder mål. Slik kan også mediene bli pådrivere for økt åpenhet om forskningsdata, noe det er stort behov for.

Jeg har gjort et par forsøk med å legge ut hele datamaterialet fra undersøkelser. Et eksempel: resultatene av spørsmål om datajournalistikk besvart av redaktører i vinter (se tilhørende artikkel). Det tok riktignok noe tid å bearbeide materialet før publisering, men dette arbeidet kan lett effektiviseres og dels automatiseres.

Krav til bedre dokumentasjon i medier kan utvides til flere områder enn intervjuundersøkelser. Jeg vet ikke hvordan andre har det, men jeg irriterer meg i hvert fall jevnlig over radio- og TV-kanaler som slår sine “eksklusive” nyhetssaker stort opp, basert på et eget materiale som selvsagt er umulig å gjøre rede for i et kort innslag. Dette kunne de bøte på ved å publisere kildematerialet på nettsidene, men det skjer altfor sjelden. Dermed forlanger en at publikum bare skal godta slutninger en selv har trukket av et materiale — en holdning som hører hjemme i en ganske annerledes mediehverdag.

Bør krav til dokumentasjon inn i Vær varsom-plakaten? Det vil nok bli for detaljert å ta inn spesifikke krav til ulike typer kildemateriale, som intervjuundersøkelser, men en generell formulering om at kildemateriale som er viktig for forståelsen av nyheten bør publiseres, er definitivt noe å tenke på. I dag er det som står om kildemateriale og publisering dominert av hensynet til kildevern. Formuleringene bærer også preg av at det er personlige intervjuer man har tenkt mest på, men i dag er skriftlige kilder som undersøkelser og datamateriale svært sentrale, og det er lett å spå at slike kilder bare vil øke i betydning.

Et alternativ til revisjon av Vær varsom-plakaten — eller en forløper — kan være at noen medier går sammen om å utvikle en felles dokumentasjonspraksis. Dette ville være til stor hjelp for et mediepublikum som i dag må navigere i uoversiktlige farvann. Mediene snakker gjerne om hvilke fortrinn profesjonell redigering og en etisk kodeks gir dem overfor brukerstyrte medier. Selvpålagte dokumentasjonskrav ville gi disse salgsargumentene en tiltrengt oppdatering.